Re: [分享] VocaListener paper 讀後心得

看板Vocaloid作者 (Eji.Warp)時間16年前 (2008/06/04 13:58), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串5/7 (看更多)
這邊想把重點放在meta-vocal synthesizer上頭。 指的是「輸入一組VSQ、然後產生另一個vocaloid DB用的VSQ」這個能力。 我們都知道Vocaloid DB彼此之間的特徵差異很大,所以VSQ通常不能通用, 要經過許多調整;這也使得不同DB之間要做和聲的時候,會多耗費許多調整的勞力。 VocaListener的"メタ音聲合成系統"(私以為可以翻成"meta-vocal synthesizer"), 其實對Vocaloid Editor這種「本身可以管理好幾個Vocaloid DB」的軟體來說, 是一種理應具備的功能,所以未來是應該整合進來會比較好。 當然,VocaListener也可以透過wav輸入的方式,把Vocaloid2輸出的wav, 轉成另一個Vocaloid DB的參數;但是想來鐵定會有誤差。 (就算是轉成同一個DB很可能都會有誤差了) VocaListener目前是以VSTi和Vocaloid2來連結, 但是以standalone軟體的內部通聯來說,其實應該有負擔更低的連結方法才是。 75回音研上的發表成果,乍看之下已經有可以釋出的品質; 但是仔細思考的話,其實要以什麼模式來釋出,還有不少要考量的部分。 此外,先前有用MMV作樂器輸入的部分,應該也會有人想到用VocaListener來做樂器輸入, 不過我覺得它採用的辨識模型很注重人聲表現,拿來抓器樂可能會lose掉太多東西, 不見得會比現行的filter要好。 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.204.3.179 ※ 編輯: Artx1 來自: 123.204.3.179 (06/04 16:12)
文章代碼(AID): #18HYxmc9 (Vocaloid)
文章代碼(AID): #18HYxmc9 (Vocaloid)