AI 生成模型最近可謂百花齊放,Google 方面亦不敢怠慢,最近公佈了一款新的文字轉音樂 AI 生成模型,可以分析文字指令直接製作出相應的音樂。
Google 今次公佈的 AI 模型名為 MusicLM,雖然並非首個可以從其他指令自動生成音樂的 AI 模型,不過其效果則相當理想。據研究論文表示,他們使用了 280,000 小時的音樂去對模型進行訓練,用家只要輸入指令,即使相當複雜,例如提及氣氛或特定的音樂風格,也可以生成出相關的音樂,但是對於人聲的處理,例如歌詞等等效果就不太理想。
Yesterday, Google published a paper on a new AI model called MusicLM.
The model generates 24 kHz music from rich captions like "A fusion of reggaeton and electronic dance music, with a spacey, otherworldly sound. Induces the experience of being lost in space." pic.twitter.com/XPv0PEQbUh
— Product Hunt 😸 (@ProductHunt) January 27, 2023
不過,由於訓練時所使用的音樂涉及版權,而模型生成的結果有約 1% 是直接複製了訓練用的音樂,因此現在 Google 未有打算公開模型給其他人使用。論文作者表示,他們了解創意內容在這情況下被不當利用的風險,因此未來在音樂生成方面仍然需要更多的努力去解決這個問題。
來源:TechCrunch