这是我博客的交叉报道。 一年多以前,我在网站上 写了 原始帖子 。 从那时起, 已经发布了 AudioKit 3.0 ,它已经大大超越了本文所描述的1.2版。
最近,我们推出了AudioKit的1.2版。 对于大多数操作,我们都包含了我们称为合理的默认值的内容。 使用合理的默认值,您可以创建AudioKit对象的实例,而无需初始化对象的参数。
此外,大多数操作现在都包括测试。 这些测试可让您听到单个操作的功能,因此更容易弄清楚需要什么操作才能获得想要的声音!
对于这个版本,我感到非常兴奋,因为我认为它在帮助iOS和OSX开发人员以新颖有趣的方式在其应用程序中使用音频方面将有很长的路要走。
例如,如果您要为iOS或OSX进行开发,则可能至少了解Core Audio。 尽管Core Audio功能非常强大,但它的低级特性使其很难快速原型化和部署……您花了大量的时间处理低级样本和缓冲区,以致于无法专注于制作出色的声音!
在AudioKit之前,还有其他第三方音频开发解决方案,例如iOS的libpd和Csound。 但是,这两个都要求开发人员使用其他环境:Pure Data和Csound。 如果您是一名开发人员,并且想制作有趣的音频,那么您要么试图破译Core Audio的神秘本质,要么学习如何使用其他环境。
这就是AudioKit如此特别的原因……它使开发人员可以使用Objective-C或Swift快速实现音频,而无需学习其他环境,例如Pure Data或Csound。
为了将音频集成到越来越多的应用程序中,软件开发人员必须更轻松地使用音频。 Csound for iOS开始解决此问题,但是; 对于实际的音频实现,您仍然必须使用Csound…,即使音频引擎非常强大,Csound最好也可以描述为具有相当隐秘的语法。
而且,我并不是说他们不需要视觉编程环境,例如Pure Data或Max / MSP(我对Max7感到非常兴奋)。我的意思是,软件开发人员具有“传统”意义想要为iOS或OSX编写应用程序的用户将能够利用AudioKit的强大功能
我相信,有了AudioKit,开发人员将能够通过高级音频为用户创造新的有趣的体验。 而且,我们将继续改进AudioKit。