不久前,百度的首席科学家吴恩达(Andrew Ng)在接受采访时曾谈到了百度最近 人工智能 项目的进展情况,强调了近期百度重点是攻关 语音识别 。现在他们已经在这方面取得了突破。
这项成果的名字叫做Deep Speech,是一款采用深度学习技术的 语音识别 系统系统。其独特之处在于,它可以在饭店等嘈杂环境下实现将近81%的辨识准确率。
81%的准确率听起来似乎不算高。但是同样环境下,其他的商业版 语音识别 API,包括Bing、Google以及Wit.AI等的最高识别率也只有65%。相比之下这就算十分突出的表现了。而且按照吴恩达的说法,这样的结果依然低估了Deep Speech与其他 语音识别 系统的准确率差异,因为Deep Speech进行比较时还把其他 语音识别 系统那些返回空白字符串的结果排除在外了。而且Deep Speech跟顶级的学术型 语音识别 模型(基于流行的数据集Hub5 00建模)相比也高出9个百分点。
百度首席科学家吴恩达称尽管这还只是一项研究,但是公司正在考虑将它集成到供智能手机和Baidu Eye之类的可穿戴设备使用的 语音识别 软件当中。而且百度还在开发与Amazon Echo类似、集成有语音助手的家电产品,名字叫做CoolBox。除此以外,百度在开发的智能自行车当然也能利用Deep Speech技术。
Deep Speech的基础是某种递归 神经网络 (RNN),这种递归 神经网络 经常被用于 语音识别 和文本分析。
但是Deep Speech的成功主要得益于一个长达10万小时的语音数据训练集。这是百度 人工智能 实验室团队用新颖的办法在嘈杂环境下建立的。其过程大致是这样的。首先百度收集了7000小时的语音会话数据,然后再将这些语音文件与包含有背景噪音的文件合成到一起,最后形成约10万小时的训练集。这些背景噪音包括了饭店、电视、自助餐厅以及汽车内、火车内等场景。相比之下,Hub5 00的数据集总共只有2300小时。
当然,这么庞大的数据大多数系统都不知道如何去处理。吴恩达表示,Deep Speech的成功很大程度上要取决于百度规模庞大的基于GPU的深度学习基础设施。GPU(图形处理器)往往是偏数学型计算的首眩许多深度学习系统都采用GPU避免通信瓶颈(不过微软的深度学习系统Adam 却走了不同的路线),但是像百度这样大规模的设施却是少见的。
百度的另一大改进,是对这个庞大的数据集采用了端到端的深度学习模型,而不是标准的、计算代价高昂的声学模型。传统上一般都会把 语音识别 分别为多个步骤,其中一步叫做语音调适,但是百度却不做这一步,而是给Deep Speech的 算法 提供大量的数据,然后让它去学习所有需要学习的东西。这种做法除了收获了准确率以外,还显著减少了代码库的规模。
这项研究是吴恩达领导的百度 人工智能 实验室多位研究人员的努力成果,论文发表在了康奈尔大学图书馆的arXiv.org网站上,感兴趣的可到此处下载。