[分享] 75回音研特報

看板Vocaloid作者 (Eji.Warp)時間16年前 (2008/05/29 01:29), 編輯推噓4(403)
留言7則, 4人參與, 最新討論串1/1
太多有趣的東西_A_ 1. VocaListener和預期中的一樣,是從wav抽出音高與強度的工具 以下摘譯自シンP於にゃっほん的report: VocaListener的演算法流程大致如下。 a. 以歌唱資料與歌詞做對照,決定發音時機。 (在此決定Vocaloid使用的的node位置) b. 分析連接順暢與否。 這主要是決定各node是不是連接在一起(normailze),否則就應該要切開。 (在此決定node長短) c. 透過FFT作基頻搜尋,以決定最接近的音程。 當然由於原始資料來自人類的歌唱錄音,所以音高必然有可能有波動, 所以這邊會開始用半因單位來做比例,所以會開始有誤差。 (在此決定node的音高) d. 同樣是透過FFT來精細抓取音高值。 如果唱偏了會把偏掉的部分扔掉,只抓出波動的部分。 所以在這段會把人本來的音痴狀況給濾掉w 並且會在這個環節替Vocaloid2 Editor可以接受的pitch資訊對輸出資料做調整。 (在這一環決定PIT) 反過來說其實就是代表 "為了Vocaloid而做的設計等於是從這環才開始的,先前的流程則是通用的。" 從功能推測,這本來的目的應該是做為一般人用的的歌唱教學工具。 可以透過反覆分析來分析出實際的音高、並對使用者提出建議的"努力方向"。 根據後面2ch相關討論串補充的資料得知,製作者主要是中野倫靖, 與指導者後藤真孝先生關聯較小。 另外,根據にゃっぽん上頭樋口優先生的MMV製作過程(他也跑來做類似東西了w), Vocaloid Editor會自動對匯入的曲線做出特定的補正,機制有待解明。 e. 透過原資料來抓取音量大小。當然音量很難做到精確的關係, 會以整體的符合度高低來做調整。 (在這一環決定DYN) 以上是ぼかりす透過原始音源來獲知各種資料的相關流程。 但是也有另外一個問題是,在d與e由於有做multi-pass的關係, 感覺上似乎過於拘泥於Vocaloid....如果把相關流程的精確度做一點折衷, 讓後面的DAW軟體來處理感覺上其實會比較簡單。 所以從這邊似乎可以看到,VocaListener一系列的開發與YAMAHA的關係。 ---- 後半有Crypton的佐佐木先生的演講。 重點如下: 1. 沒錯,鏡音リン會有update。時間點會在7月。 現場有做了一些demo,似乎改善不少。 部分重新錄音,開發時間還多花了兩個月,不過泛用性還是沒有到ミク的程度。 (果然ミク是從未來來的黑科技....XD) update之後新舊資料庫可以並存。(這點是好消息!) 2. CV03大約是9~10月。 Vocaloid的製作過程真的是徹底手工...._A_||| 3. KAITO在推出到上ニコニコ之前大約只賣了五百套,上了賣了兩千五百套...._A_ 原廠只能苦笑。 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.204.3.179

05/29 02:08, , 1F
總覺得第三點原廠苦笑那一點有笑點....XD
05/29 02:08, 1F

05/29 03:38, , 2F
KAITO好不容易靠nico追上MEIKO過去的總合。_A_
05/29 03:38, 2F
※ 編輯: Artx1 來自: 123.204.3.179 (05/29 06:28)

05/29 07:40, , 3F
好文一推 呃…所以ぼかりす有釋出軟體可以玩了嗎?XDDDD
05/29 07:40, 3F

05/29 07:47, , 4F
鈴其實聲音比ミク有力得多 只可惜發音不太準
05/29 07:47, 4F

05/29 12:26, , 5F
沒有~ 什麼時候出產品還沒有計畫~ > Kawasumi
05/29 12:26, 5F

05/30 09:13, , 6F
這個音研是在日本舉辦的嗎@@"
05/30 09:13, 6F

05/30 11:22, , 7F
yep,第75回音樂情報科學研究會
05/30 11:22, 7F
文章代碼(AID): #18FPQ9s9 (Vocaloid)
文章代碼(AID): #18FPQ9s9 (Vocaloid)