国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

新智元
+ 關(guān)注
2022-10-09 14:58
988次閱讀
谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

  新智元報道  

編輯:David 桃子
【新智元導(dǎo)讀】最近,谷歌研究團(tuán)隊推出了一種語音生成的AI模型——AudioLM。只需幾秒音頻提示,便可生成高質(zhì)量連貫的語音,甚至還可以生成鋼琴音樂。

圖像生成模型卷起來了!視頻生成模型卷起來了!

下一個,便是音頻生成模型。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

近日,谷歌研究團(tuán)隊推出了一種語音生成的AI模型——AudioLM。

只需幾秒音頻提示,它不僅可以生成高質(zhì)量,連貫的語音,還可以生成鋼琴音樂。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

論文地址:https://arxiv.org/pdf/2209.03143.pdf

AudioLM是一個具有長期一致性的高質(zhì)量音頻生成框架,將輸入的音頻映射為一串離散的標(biāo)記,并將音頻生成任務(wù)轉(zhuǎn)化為語言建模任務(wù)。

現(xiàn)有的音頻標(biāo)記器在音頻生成質(zhì)量和穩(wěn)定的長期結(jié)構(gòu)之間必須做出權(quán)衡,無法兼顧。

為了解決這個矛盾,谷歌采用「混合標(biāo)記化」方案,利用預(yù)訓(xùn)練好的掩膜語言模型的離散化激活,并利用神經(jīng)音頻編解碼器產(chǎn)生的離散代碼來實(shí)現(xiàn)高質(zhì)量的合成。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

AudioLM模型可以基于簡短的提示,學(xué)習(xí)生成自然和連貫的連續(xù)詞,當(dāng)對語音進(jìn)行訓(xùn)練時,在沒有任何記錄或注釋的情況下,生成了語法上通順、語義上合理的連續(xù)語音,同時保持說話人的身份和語調(diào)。

除了語音之外,AudioLM還能生成連貫的鋼琴音樂,甚至不需要在任何音樂符號來進(jìn)行訓(xùn)練。

從文本到鋼琴曲:兩大問題

近年來,在海量的文本語料庫中訓(xùn)練出來的語言模型已經(jīng)顯示出其卓越的生成能力,實(shí)現(xiàn)了開放式對話、機(jī)器翻譯,甚至常識推理,還能對文本以外的其他信號進(jìn)行建模,比如自然圖像。

AudioLM的思路是,利用語言建模方面的這些進(jìn)展來生成音頻,而無需在注釋數(shù)據(jù)上進(jìn)行訓(xùn)練。

不過這需要面對兩個問題。

首先,音頻的數(shù)據(jù)率要高得多,單元序列也更長。比如一個句子包含幾十個字符表示,但轉(zhuǎn)換成音頻波形后,一般要包含數(shù)十萬個值。

另外,文本和音頻之間存在著一對多的關(guān)系。同一個句子可以由不同的說話人以不同的風(fēng)格、情感內(nèi)容和環(huán)境來呈現(xiàn)。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

為了克服這兩個挑戰(zhàn),AudioLM利用了兩種音頻標(biāo)記。

首先,語義標(biāo)記是從w2v-BERT這個自監(jiān)督的音頻模型中提取的。

這些標(biāo)記既能捕捉到局部的依賴關(guān)系(如語音中的語音,鋼琴音樂中的局部旋律),又能捕捉到全局的長期結(jié)構(gòu)(如語音中的語言句法和語義內(nèi)容,鋼琴音樂中的和聲和節(jié)奏),同時對音頻信號進(jìn)行大量的降采樣,以便對長序列進(jìn)行建模。

不過,從這些token中重建的音頻的保真度不高。

為了提高音質(zhì),除了語義標(biāo)記外,AudioLM還利用了SoundStream神經(jīng)編解碼器產(chǎn)生的聲學(xué)標(biāo)記,捕捉音頻波形的細(xì)節(jié)(如揚(yáng)聲器特征或錄音條件),進(jìn)行高質(zhì)量的合成。

如何訓(xùn)練?

AudioLM是一個純音頻模型,在沒有任何文本或音樂的符號表示下進(jìn)行訓(xùn)練。

它通過鏈接多個Transformer模型(每個階段一個)從語義標(biāo)記到精細(xì)的聲學(xué)標(biāo)記對音頻序列進(jìn)行分層建模。

每個階段都會根據(jù)上次的標(biāo)記為下一個標(biāo)記預(yù)測進(jìn)行訓(xùn)練,就像訓(xùn)練一個語言模型一樣。

第一階段在語義標(biāo)記上執(zhí)行此任務(wù),以對音頻序列的高級結(jié)構(gòu)進(jìn)行建模。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

到了第二階段,通過將整個語義標(biāo)記序列與過去的粗聲標(biāo)記連接起來,并將兩者作為條件反饋給粗聲模型,然后預(yù)測未來的標(biāo)記。

這個步驟模擬了聲學(xué)特性,例如說話者特性或音樂中的音色。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

在第三階段,使用精細(xì)的聲學(xué)模型來處理粗糙的聲學(xué)信號,從而為最終的音頻增加了更多的細(xì)節(jié)。

最后,將聲學(xué)標(biāo)記輸入SoundStream解碼器以重建波形。

谷歌AI歌手震撼來襲!AudioLM簡單聽幾秒,便能譜曲寫歌

訓(xùn)練完成后,可以在幾秒鐘音頻上調(diào)整AudioLM,這能夠讓其生成連續(xù)性的音頻。

為了展示AudioLM的普遍適用性,研究人員通過在不同音頻領(lǐng)域的2個任務(wù)對其進(jìn)行檢驗。

一是Speech continuation,該模型保留提示的說話人特征、韻律,同時還能輸出語法正確且語義一致的新內(nèi)容。

二是Piano continuation,該模型會生成在旋律、和聲和節(jié)奏方面與提示一致的鋼琴音樂。

如下所示,你聽到的所有灰色垂直線之后的聲音都是由AudioLM生成的。

為了驗證效果如何,研究人員讓人類評分者去聽簡短的音頻片段,去判斷是人類語音的原始錄音還是由 AudioLM生成的錄音。

根據(jù)收集到的評分,可以看到AudioLM有51.2%的成功率,意味著這一AI模型生成的語音對于普通聽眾來說很難與真正的語音區(qū)分開來。

在東北大學(xué)研究信息和語言科學(xué)的Rupal Patel表示,之前使用人工智能生成音頻的工作,只有在訓(xùn)練數(shù)據(jù)中明確注釋這些細(xì)微差別,才能捕捉到這些差別。

相比之下,AudioLM從輸入數(shù)據(jù)中自動學(xué)習(xí)這些特征,同樣達(dá)到了高保真效果。

隨著 GPT3 和 Bloom(文本生成)、 DALLE和Stable Diffusion(圖像生成)、RunwayML和Make-A-Video(視頻生成)等多模態(tài) ML 模型的出現(xiàn),關(guān)于內(nèi)容創(chuàng)建和創(chuàng)意工作正在發(fā)生變化。

未來的世界,便是人工智能生成的世界。

參考資料:
https://www.technologyreview.com/2022/10/07/1060897/ai-audio-generation/
https://arxiv.org/pdf/2209.03143.pdf
https://ai.googleblog.com/2022/10/audiolm-language-modeling-approach-to.html
https://google-research.github.io/seanet/audiolm/examples

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經(jīng)授權(quán)發(fā)布。

資深作者新智元
0
相關(guān)話題
AIGC賽道追蹤
相關(guān)文章
最新文章
查看更多
關(guān)注 36氪企服點(diǎn)評 公眾號
打開微信掃一掃
為您推送企服點(diǎn)評最新內(nèi)容
消息通知
咨詢?nèi)腭v
商務(wù)合作