录音/制作/创作 吉他 扩声技术 视频技术 作品展示 生活 信息 更多... | 音频应用专卖店

懂网页、程序代码的音乐人看这是怎么实现的(墙外)

( 6 )
 
[收藏]

1106
#1 21-6-29 19:51

懂网页、程序代码的音乐人看这是怎么实现的(墙外)

https://artsandculture.google.com/experiment/blob-opera/AAHWrq360NcGbw
谷狗家的一个玩意儿。
纵向音高,横向好像是发音的母音。
实现逻辑是什么?
是很多个音频在切换,还是内置了合成器?



本帖最后由 次奥啊 于 21-6-30 02:30 编辑

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x

42
#2 21-6-29 20:56
这个意思,谷歌这个不错

2842
#3 21-6-29 21:22
提示: 作者被禁止或删除 内容自动屏蔽

536
#4 21-6-30 00:49
自动和声不错

2090
#5 21-6-30 07:58
这和声确实配的不错

54
#6 21-6-30 09:32
太好玩了,韩国那几首民歌真有感觉

1406
#7 21-6-30 10:49
看了一下资料,感觉是传统CS结构,就是前后端模式,但用的是HTML5最新比较新的技术和后端AI技术的结合。

客户端利用WebAssembly SIMD,大幅提升浏览器多线程能力和本地化性能,可以理解为本地DLL性能级别,当然,有限制的。

浏览器就是点击录制之后,会录制客户所有动作,即时生成4声部组midi note和元音,时长,音量等等数据打包成json发送出去。这些都是异步处理的,云后台生成语音数据回来就直接播放。
至于后端是使用卷积神经网络,他们自己介绍的,但没说什么算法模型,一般都是goo自己的模型,我也不知道这个网络是怎么运行,感觉就是已经学习好了,然后在后台按你的note数据按照算法卷积返回信号。

不太懂,我就是根据他们的介绍和app.js内容进行大概的猜测。

希望专家科普一下。。。

观众反应
:艾玛,太复杂了…
您需要登录后才可以回帖 登录 | 注册

本版积分规则

搜索