谷歌發(fā)布音樂(lè)生成模型 自動(dòng)生成音樂(lè)

來(lái)源:中關(guān)村在線


(資料圖片)

近日,谷歌發(fā)布了一項(xiàng)名為“Brain2Music”的研究,該研究利用人工智能技術(shù)讀取和分析人的功能性磁共振成像(fMRI)數(shù)據(jù),然后根據(jù)個(gè)體的大腦活動(dòng)自動(dòng)生成音樂(lè)。 在這項(xiàng)研究中,研究人員招募了5名志愿者,讓他們先聽(tīng)取包括藍(lán)調(diào)、古典、鄉(xiāng)村、迪斯科、嘻哈、爵士樂(lè)、金屬、流行、雷鬼和搖滾等不同音樂(lè)類型的15秒音樂(lè)片段,然后記錄他們的fMRI數(shù)據(jù)。谷歌利用這些數(shù)據(jù)訓(xùn)練了一個(gè)深度神經(jīng)網(wǎng)絡(luò),以便更好地理解大腦活動(dòng)模式與音樂(lè)節(jié)奏和情感等不同元素之間的關(guān)系。 “Brain2Music”是基于谷歌此前推出的“MusicLM”模型(基于文本生成音樂(lè)片段)進(jìn)行研發(fā)的,它可以根據(jù)fMRI數(shù)據(jù)生成15秒的音樂(lè)片段。研究結(jié)果顯示,“Brain2Music”生成的15秒音樂(lè)片段中,有一段內(nèi)容與測(cè)試聽(tīng)到的原版音樂(lè)“Oops!...I Did It Again”基本相同。 對(duì)于這項(xiàng)研究感興趣的讀者,可以通過(guò)下載相關(guān)論文進(jìn)行深入閱讀。

標(biāo)簽:

推薦

財(cái)富更多》

動(dòng)態(tài)更多》

熱點(diǎn)