谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐

35小吃技术网 推荐阅读 2023年09月25日20时57分33秒 109 0

IT之家7月26日消息,谷歌最近发布了一篇名为《人工智能》的论文,该论文可以利用人工智能读取并分析你的功能性磁共振成像(fMRI)数据,然后根据你的大脑活动自动生成音乐。

研究人员招募了五名志愿者,让他们聆听布鲁斯、古典、乡村、迪斯科、嘻哈、爵士、金属网、流行、雷鬼和摇滚等不同音乐类型的 15 秒音乐片段,然后记录了这些音乐的 fMRI 数据。志愿者。

谷歌利用这些数据训练深度神经网络,以了解大脑活动模式与音乐不同元素(例如节奏和情感)之间的关系。

基于之前推出的模型(根据文本生成音乐片段),基于fM网RI生成15秒的音乐片段。

研究结果显示,生成的15秒音乐片段,其中一首《Oops!...I Did It Again》与测试听到的原始音乐基本一致。

谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐-第1张图片

谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐-第2张图片

IT之家在此附上论网文的PDF下载链接,感兴趣的用户可以深入阅读。

广告声明:文章中包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息,节省选择时间。 结果仅供参考。 IT之家的所有文章均包含此声明。