研发团队对MusicGen的实际表现进行了严格的测试。结果显示,在音乐与文本提示的匹配度以及作曲的可信度等指标上,MusicGen的表现优于谷歌的MusicLM以及其他音乐模型,如Riffusion、Mousai、Noise2Music等。
据IT之家报道,研发团队表示:“我们使用了2万小时的授权音乐来训练该模型,并采用Meta的EnCodec编码器将音频数据分解为更小的单元进行并行处理,这使得MusicGen的运算效率和生成速度都超越了同类型的AI音乐模型。”
MusicGen不仅能够将文本与旋律转化为乐曲,还支持文本与旋律的组合输入。例如,你可以提出生成“一首轻快的曲目”,并同时要求“将它与贝多芬的《欢乐颂》结合起来”,这为音乐创作提供了更多的可能性。
在音乐创作的领域中,人工智能正悄然掀起一场变革。MusicGen,一款由Meta公司开发的AI音乐生成工具,以其独特的功能和应用场景,成为了这个领域的佼佼者。下面,我们就来详细解读这款AI工具的实践应用。
DoNews6月12日的报道中提到,Meta近日在GitHub上开源了其AI语言模型MusicGen。这一举措无疑为音乐AI领域的发展注入了新的活力。基于谷歌2017年推出的Transformer模型,MusicGen可以将文本和已有的旋律转化为完整乐曲,为音乐创作提供了全新的可能性。