OT解决连奏属于老思路,在最开始有采样音色的时候就存在。自从引入力度层之后管乐音源最容易出现的问题就是相位,导致不同力度层之间音色产生重叠,听起来就是突然叠了一个自己的镜像。而OT的做法是干脆不做力度层,采用音量大小代替力度,所以它所有管乐的连奏不会有相位问题。可惜是这样就损失了不同力度下,管乐本身音色的变化。VSL在这方面走在OT的前面,它用的是一个叫Timbre Adjust的技术,可能是模拟的,也可能是通过剪辑整合的,通过CC来控制音色的变化。VSL自己的管乐也有相位问题,因为它也是走的力度层采样的思路,但Timbre Adjust提供了另一种解决办法,由用户自己选择配合音量控制而放弃力度层控制。
物理建模开始于十几年前,infinite的技术跟Samplemodeling类似,所以先行的技术突破在S公司而不是Av,同样都是不需要键位切换,只不过很多控制变成了CC,如果不用辅助控制器是无法解放双手的。
物理建模最大的短板在于声场和乐器的物理音色难以完全模拟,当前的技术还是太容易出现瑕疵,这是很多人追捧喷火的原因。其次通过将声音进行分子级的数字化,然后在数据上还原,目前还没能做到,这个属于战未来,物理建模的终点会是AI乐手。
midi拟真,作曲家是追求实录的效果,只不过传统是交给乐手演奏,乐手通过自身对乐谱的理解,塑造接近作曲家理想的乐句,他们本身会保留一部分自己的理解,这是他们作为乐手的经验,不能由作曲家决定的,这是实录的人味所在。而midi技术则是交给电脑去完成这个过程,技术所限,使用电脑的作曲家就必须对过程进行极高程度的干涉,事无巨细都由他自己进行调教,效果则取决于作曲家的乐器技术,采样是切片音乐,它是彻底把乐手的音乐性打碎的,通过脚本进行重新拼接,再由制作者去进一步编辑,因此有所能有所不能。如果AI能接乐器在数字世界重建,然后通过学习掌握人类乐手的经验,那么以后就能用来模拟实录,完成midi拟真最初的构想。不过经验还是来自于人,决定美感的还是人,它是不能代替人的。
CSS系列是实现这个想法的一个开端,所以它能成为近6、7年来的弦乐神器。它的思路是解决连奏音与音之间过渡的不自然,它把采样做到很细,把快中慢三种速度的过渡都录下来,然后交给Kontakt的脚本根据midi信息去判断该播放哪一个类型。脚本需要时间去读取运算,于是才有CSS那很夸张的延迟。
这个想法被进一步发展,Audiobro的MSS和ISW的东京弦乐就是走的这个路线,它们改进了这个机制,用完善的脚本来帮用户把音块拉齐并补偿延迟。依靠DAW自身的延迟补偿功能提供运算时间。这种方法其实就是预录乐句,它选择切片的单位是几个音连在一起的短句子而不是单音。
把这个做到极致的是Straight ahead Sample,它让演奏家给一个技法录上好多个乐句,然后脚本会自动分析midi音块的间距、长短来判断该触发哪一句。只要打开前视模式,就相当于得到一个看着你乐谱,按照自己理解进行演奏的乐手。只不过这会带来极大的工作量,对于多话筒的编辑难度也会成倍的增加。有一部分音符固然是不受控,但之前的切片采样,不也是总有个别地方怎么调都不对劲,我认为这种妥协换取真实度是值得的,跟实录里的情况是很像的,人类乐手也不是100%受控。
上面基本上就是目前音源的技术突破前沿了