现在V3已经有点stable diffusion刚发布时候的那味道了,再过两三年变得更加可控并且能够直接生成分离好的人声 鼓 吉他 bass 这才是真的对音乐行业迎来一次重大的变动。
不会录吉他?告诉AI你的歌曲和声曲调和速度,再把没有吉他的mma丢进去让它再此基础上参考,几分钟就能给你生成出几条逼真又贴合的吉他片段,你还需要去等吉他手录吗?
不会写弦乐?同样按上面的逻辑告诉它,并且给它一个参考,想要多少声部,分分钟就给你写出来了,你都不需要去画什么表情,控制什么技法切换,因为它是基于实录训练出来的比软件音源强大太多。
AI会给本来就在行业里的精英带来更大的便利成为赚钱的工具,因为他们会更懂得如何运用。一个职业编曲人一定会比普通人更懂得如何指挥一个AI为自己编曲,所以,最受威胁的就是行业底层的人,从现阶段的绘画AI就不难看出,对底层设计行业,绘画行业的影响非常大,等到最新的Sora视频大模型发布并在迭代一两个版本,会对底层的影视行业也形成很大的冲击,我们音乐人足不出户也能给自己在家制作各种天马行空的短视频和MV。
你们回忆一下,去年论坛还有人讨论谷歌发布的Noise2music,当时生成出来的音乐片段就已经很让人吃惊了,但音质垃圾完全没法用,这才短短一年suno 3就实现了质感和更人性化上的超越,AI的进步一定是远超我们的想象的。
如果你是一家靠音乐版权为生的公司,当你听到suno 3生成出来的音乐,是不是会迟疑一下思考一下还要不要花几千块去市面上收那些人写的口水歌?等将来更可控的音乐AI出现,那些在音乐公司打工的底层音乐制作部门的人也将会面临失业。我们只需要参考美术设计行业就知道了,他们比我们要走得更前面,他们所有经历的状况我们最终也是要经历一遍的。听觉相对视觉而言更不容易被“欺骗”,这也是音乐AI发展相对慢一点的原因,但是不管怎么样,我们没法去阻止技术进步,只能乐观的去拥抱技术并运用技术,真的不要不当回事儿,该学习就要学习起来,毕竟AI巨头李一舟博士都说了,只剩6个名额了
本帖最后由 jinyuze 于 24-3-23 13:36 编辑