大家都知道,欧盟拥有24种官方语言,理想情况下,欧盟的翻译官们应该能够随时从一种语言直译到另一种语言,但这种翻译组合实在是太多了,高达576种,所以他们选择英语当做中间语言来解决这一问题。
同样地,我们的谷歌工程师们也面临着同样的问题,但谷歌面临的麻烦要更大一点,因为他们需要翻译的语言种类要比欧盟的官方语言多,达到100多种,(例如:英语翻法语是一种组合,而法语翻英语又是另一种组合),而这些翻译组合会高达上万种。
如果为每一种组合训练一种神经翻译模型的话,那么就需要训练上万个。真的是好多啊!但是现在不要了,我们只需要一个模型就可以解决这些问题。近日,来自谷歌的工程师门发表了一篇论文,上面提到如何只用一个模型实现多语言之间的翻译。这个模型被称为NMT模型。 NMT模型的训练不需要任何语言学知识,且具有模型简单、翻译质量高等优点。它基于原有的单一语言翻译模型,但不需要对原有翻译模型进行任何修改,便可实现多语言之间的翻译。
论文显示这种新方法有三个优点:
一、简单,即减少需要训练的模型数;
二、改善翻译质量。尤其是那些训练语料不足的语言;
三、具有‘zero shot’翻译能力,即如果我们训练一个模型可以将葡萄牙语翻译成英语,然后在训练一下让其可以实现英语到西班牙语之间的翻译,此时神奇的一幕出现了,我们虽然并没有进行葡萄牙语到西班牙语之间的翻译,但是此时模型仍然可以实现葡萄牙语到西班牙语之间的正确翻译。
谷歌宣称这是世界首次研发出zero-shot翻译。很明显,zero-shot 还具有明显的速度优势,它可以使解码时间减半。 其另一个优势就是可以实现句间转换。如果一个句子中包含不止一种语言,它照样可以翻译。这样如果一个大的数据集中如果包含多种语言,那么它照样可以实现翻译。论文的最后,谷歌翻译人员用BLEU方法对翻译结果进行评判,发现结果改善不少。
实际上,神经机器翻译还有很长的路要走。谷歌貌似已经将NMT 推广到了其它语言翻译上,例如英语到德语的翻译。在我们对谷歌翻译进行的随机测试中,我们发现其翻译流畅度有所提升,但仍有一些漏翻或误翻。