论文简介:《Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation》
我们用一个简单而优雅的多语言神经机器翻译模型解决了多种语言之间的翻译问题,这个模型与原有模型对比并没有任何改变,只是在输入句子时引入了一个变量,以标明需要翻译的目标语言是什么。后面的编码、解码、注意力模型在所有语言中都一样,词表也共享,参数无需要增加。
与我们起初的设计相比,实现了极大的简化。在保持参数值不变的情况下,翻译质量居然还有所提升。在WMT'14 测试中,我们的模型在英法翻译中不比任何模型差,在英德翻译中比任何模型好,在多语言测试中,我们的模型在 14 年法英、15 年德英翻译中效果最优。我们的模型不仅可以对 12 种语言对(例如英法、法英,这是两个语言对)进行翻译,而且其翻译效果也比大多数单语言对的翻译模型还要好。除此之外、对于没有训练过的语言对,我们的模型仍然可以学习,这就表明 神经网络 是可以实现迁移学习与‘zero-shot’翻译的,在文章最后我们将向大家介绍一些在混合翻译中发生的一些趣事。
via SLATOR