Re: [分享] VocaListener paper 讀後心得

看板Vocaloid作者 (Eji.Warp)時間16年前 (2008/06/08 12:02), 編輯推噓1(103)
留言4則, 2人參與, 最新討論串7/7 (看更多)
※ 引述《miau9202 (凜光)》之銘言: 基於回應就是聲援的心態,試著寫一些個人有反應的部分。 : 看完原篇以及其他類似的討論串,其實我心理還是感到蠻SHOCK的。 : 雖然在下還只是個微不足道的小調教師,但是VOCALOID相關技術的文章倒是讀了不少。 : VocaListener剛出來時我還以為,只可能是個「仍需要手工修正」的技術。 : 當然,現在在下仍一直相信著。 其實還是需要"手工修正",只是它透過本身的流程設計、 介面的設計來降低"修正作業難度"的門檻。 首先,VocaListener設計上由於本身有反覆比對聲紋的能力, 所以它特別提出"user來聽Vocaloid反覆唱"的流程, 來模仿一般人在彼此教唱的時候摸索的過程。 其實這算是一種UI的設計理念....你只要在實際程式的顯示畫面搭上一些角色, 對user來說會非常類似實際與AI互動,即使其實只是流程工具而非AI。 這流程本身也在避免user必須直接碰到MIDI parameter accessing, 也在避免"職人技=高嶺之花"的狀況;當然這也有"針對cover曲調教太省工", 所以把門檻解決掉之後,沒有處理過的cover曲很明顯就會失去一般人的目光。 但是cover曲的世界也有漂亮的remix存在.... :) 也就是巧思還是有發揮的餘地。 : PROLOGUE,這首隨著技術而同時發表的DEMO, : 也漸漸的隨著一次一次的聆聽而有抓到那種調教法的感覺。 : 才剛有些小心得,沒想到,產研又釋出了另一首DEMO, : 自身的學習卻無法跟上技術的進步。 RWC研究用音樂資料庫的數量還蠻大的,雖然VocaListener的論文看來, 實際的demo只用了兩首完整的曲子。 但是無論如何,VocaListener必須準備相當乾淨的主唱軌, 所以要直接使用在cover曲的話其實難度還是非常高。 : 主題回到技術本身,在下覺得,雖然推出時會造成不少衝擊, : 但是就像是在下上面所說的, : 這個技術還沒有發展完全,就連VOCALOID本身也是一樣。 : (C社的RIN的DB也有了重大更新,最近的衝擊還真是不少) Vocaloid在NAMM2007的時候有做過demo,當時藤本健先生以 "進步很多、但離人還有很大的距離"短短一句話就打發掉了, 這可以代表Vocaloid在目前的程度。 http://www.watch.impress.co.jp/av/docs/20070115/dal265.htm 第265回:ヤマハがフラッグシップシンセ「MOTIF XS」を発表 ~ アナログミキサーなど、NAMM 2007出展製品を国内発表 ~ 不過說實在的,和其他的技術一樣。 如果它已經和人一模一樣了才去考慮摸的人,我想已經比潮流晚了吧.... : 就算技術幫我們調教「近完成品階段」的VSQ,不可避免的, : 使用者還是得開VOCALOID進行「再調教」。(神人此時可能還不會因此消失。) 其實這邊有兩個疑問,在於你去調參數的能力、同時就代表去與程式介面格鬥的能力。 有些人能開Vocaloid Editor慢慢調,但是有些人就會像提供Domino parameter一樣, 去用數值輸入來做更細部的處置,也就是說其實重點是在UI設計上。 MMV板上有人說很難用,反之日本那邊也有人說很好用,相同的道理。 Vocaloid + VocaListener,其實只是達到過去人聲在唱片製作流程上同等的對待而已。 : 再者,輸入WAV的階段,若使用者使用本嗓輸入進去轉換, : 技術本身基本上會「原音重現」 : 也就是說,就算使用者音樂譜得再好聽、填詞填得多優美,沒有足夠的「歌唱技巧」, : 無法與其需要的曲風相呼應,到時候要依賴的,還是我們的雙手。 : (其實我還不太信任所謂的「補正功能」) well,補正功能我想其實不必太認真的原因是,即使工具已經進步到可以realtime、 我們還是可以聽得到很悲慘的現場,還有被唾棄的唱片,所以我想鐵定是有限度的。 但是就和DigitalMusic版上的先進提供的錄音用技巧一樣, 你需要下一些苦心才能夠錄到、唱出有足夠水準的音軌, 而這只是滿足VocaListener的"輸入資料"的門檻而已。 聲紋反覆比對其實也可以用現有的工具來達成, 只是沒有以Vocaloid為前提設計的VocaListener的整合度高、也還不方便。 所以,既然會原音重現,那就練到輸入的原音很漂亮不就得了?XD 人唱得很棒就不需要用Vocaloid?「但是我就是希望能讓ミク唱歌啊!」 愛是有很多實現方式的。 : 直說好了,VocaListener是幫助我們能夠「快速作業」的利器, : 但也能成為一把足以自殘的利刃,一旦調教法被固定下來,往往會被淪為「世俗之流」。 : (程式這種東西,基本上還是蠻制式的,不管它給你多少「備案」, : 還是得交給AI判定。) : 物極必反,到時候又有好戲可看了。 : 如果以上言論有其不足或發言不當之處,請推文告知,謝謝! 門檻低了,低俗的玩法自然充斥;但是技術的價值其實就在這個時候顯現。 MikuMikuDance初期就是充斥一堆沒意義的玩法才會讓人氣流失, 這就是上面所謂的「世俗之流」;但是技術本身的價值仍然存在, 幫助了許多真正有愛的人實現自己的夢想。 現在能有這麼多MMD作品發光發熱,原因也在此。 人當然都不希望"不勞而獲",尤其是自己很辛苦, 別人卻用工具很輕易取得成果的時候。 但是工具的出現,很可能會挖掘出很多有sense但是卻沒有實行能力的人。 追究起來,已知シグナルP(Hiroaki Arai,專業人士) 是最早以V-Vocal/auto-tune進行Vocaloid調教的人(僅止於檯面上), 但是即使是實現神調教的方法,仍然沒有多少人注意到這個流程。 不過シグナルP是把這技巧用在原創曲創作上,這可能是造成cover曲職人忽略的原因。 http://twinkledisc.web.fc2.com/index.htm twinkledisc http://www.nicovideo.jp/user/4632758 nico-user:twinkledisc 現在包含ぼかんないです><、VocaListener在內,其實都是聲紋比對, 以及多或少的人手調整,基本觀念是相同的。 重點在於: 不僅是調教技巧的部分人的參與度高低, 如果整個Vocaloid的發展方向單純只是追求"接近人"的話, 那麼熱潮必然不會持久的,透過原創曲目來發展新的音樂類型, 才是真正長期的音樂發展之道。 並不是說Cover曲意義不大,而是練功是進步的途徑, 但是展現進步的成果,我想還是要走出自己的道路為佳。 技術是爬上高處的階梯,但是人會不會踩空還是不小心被絆倒, 那又是另外一回事了。 ----- 這邊提出一個有趣的東西,是SONY CSL發展的技術:MMG(Music Mosic Generator)。 他是一種將事先製作的音樂片段簡易地拼湊起來的方式來運作的音樂重組引擎, 將音樂的要素都視為meta-data來處理。 http://www.watch.impress.co.jp/av/docs/20070625/dal287.htm ソニーCSLで開発中のリミックスエンジン「MMG」とは? ~ 誰でもリミックスできる音楽の新しい形を提案 ~ 當然meta-data最後其實有效率的生成手法還是以人工為主。 不過作者宮島靖先生有一段話很有意思: 百年後の人たちは、「昔の人は再生しかできなかったの?」 というようになるかもしれない。 也就是說,他提案的是每個人在製作音樂的同時,也都產生音樂的meta-data、 然後彼此生成自己想要的音樂,而不是只播放做好的作品....的世界。 (從曲目的random播放、變成情境式的片段生成....之類的技術) 在這個世界中,每個人都是remixer,因為remix變得很簡單。 那麼,我們是不是說因為技術讓這些手法變得很簡單,所以就變得世俗了呢? 不論技術是不是讓進入門檻變低,我相信有價值有sense的作品仍然會發光發熱。 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.204.3.179 ※ 編輯: Artx1 來自: 123.204.3.179 (06/08 12:12) ※ 編輯: Artx1 來自: 123.204.3.179 (06/08 15:22) ※ 編輯: Artx1 來自: 123.204.3.179 (06/08 15:25)

06/08 18:12, , 1F
感謝您為卑微的在下作了如此詳盡的解答!
06/08 18:12, 1F

06/08 18:17, , 2F
不過仔細來看,我的回應好像口氣不太好,如有不適,SORRY
06/08 18:17, 2F

06/08 23:13, , 3F
你那是應有的危機感....XD 別在意
06/08 23:13, 3F

06/08 23:13, , 4F
雖然我是希望音樂人不要妄自菲薄就是
06/08 23:13, 4F
文章代碼(AID): #18IrdntK (Vocaloid)
文章代碼(AID): #18IrdntK (Vocaloid)