人工智能机器翻译(来源:Pixabay)“举个例子,比如看到一篇俄文文章,我们可以这么理解,其实它本来是用英文写的,只不过采用加密算法把文章写成了一个密码的形式,而这个密码就是俄文,接下来需要设计一个解码器对俄文进行解密,来将其还原成英文,这个过程就可以看作是编码和解码。”刘洋说道。近年来,神经机器翻译(NeuralMachineTranslation,简称NMT)发展较为迅速,而它应用的正是编码器和解码器的思想。以把一篇中文文章翻译为英文为例,先把中文编码成一组数字,再用解码器把这组数字映射还原成英文,这就是整体翻译流程。机器翻译发展大体可分为两个阶段,“年之前,偏向于理性主义方法,即人工进行翻译,分析不同语言之间是怎么翻译的,并总结经验编纂成规则,让机器按照人工编写的规则进行翻译。”刘洋介绍说。“年之后,互联网迅速崛起,而且从CPU到GPU,计算机的计算能力也越来越强,基于数据的经验主义方法开始占据主导。”他补充道。其中,经验主义方法分为两类:一,统计机器翻译(SMT)。-年,以统计机器翻译为主,其主要使用传统的机器学习方法,大量双语、多语语料库的出现为统计机器翻译提供了坚实的后盾。二,神经机器翻译(NMT)。年至今,神经机器翻译飞速发展,其主要使用深度学习、神经网络等来直接进行建模。图
神经机器翻译(来源:Pixabay)而神经机器翻译与此前的统计机器翻译方法有着本质的区别:其一,神经机器翻译采用的是连续表示,而统计机器翻译是离散表示;其二,神经机器翻译的全过程使用单个大型神经网络进行建模,没有过多的特征工程,实现形式更为简单,且它的训练是端到端的,而统计机器翻译则需对组件进行单独调整。此外,神经机器翻译还能很好地用于多语种互译,性能发挥可实现最大化。关于神经机器翻译的实际应用,刘洋举例称:“体验式的,比如大家常用的谷歌、百度、搜狗翻译等等。实用性的,比如翻译机,在国外餐馆点菜,对着翻译机说一句中文,翻译机会将其翻译成当地的语言,帮助做更好的交流;再比如同传,实现实时语言互转,之前同声传译几乎都是由人工完成的,现在开始尝试用机器翻译。”建模、学习、推理是神经机器翻译的三大关键问题神经机器翻译系统有三大组成部分,分别是建模、学习和推理。针对建模,刘洋表示:“如果想要用计算机把人类的语言进行自动转换,这里涉及到一个重要的问题,如何能从数学角度为翻译过程建立一个模型,从数据中自动学习这些模型的参数。所以,建模可以说是机器翻译的核心所在。”那么机器到底是怎么翻译人类自然语言的呢?目前最流行的神经机器翻译的核心思想是:用神经网络来直接实现两种语言之间的映射。比如中文和英文之间的互译,其实可以看作是中英两个语种字符的相互映射。“神经网络的本质是一个高度复杂、非线性的函数,如果能找到大量的平行语料库,那么就能更好地构建神经网络的映射函数,从而在遇到全新语句时实现更高质量的翻译。”刘洋指出。对于建模,神经机器翻译通常采用的是编/解码器框架,由编码器网络(Encoder)、解码器网络(Decoder)、分类层(Classifier)以及嵌入层(Embedding)四部分组成。简单理解,建模就是设计出一个非线性函数。图
神经机器翻译的结构体系(来源:受访者)学习,意思是如何从大量的数据中把函数的参数预估得更加精准。推理,指的是在学习完成以后,面对真实场景,用户输入一个全新的句子,如何能够实现准确翻译。其实,从宏观上来看,机器学习和人类学习有些类似,首先都需要进行很多训练,然后在学习的场景模式下进行反复试验,最后再在真实场景下对全新的条件做出正确判断。RNN和CNN优缺点并存,SAN是目前的最佳方法“神经机器翻译的性能与编/解码器有着密不可分的关系,编码器和解码器的构建方法大体可以分为三种:基于递归神经网络(RNN),基于卷积神经网络(CNN)和基于自注意力网络(SAN),这三种方法各有优劣。”刘洋介绍道。图
RNN,CNN和SAN的计算图概述(来源:受访者)一、递归神经网络(RNN)优点:理论上可以处理无限长的历史信息,即可以处理超长的序列。例如翻译一本书,可以回看之前的翻译是否有经验可以借鉴,即能够借用前面的经验来解决当前遇到的新问题。缺点:首先,这种网络建模非常困难,从机器角度来讲,需要记忆海量的数据信息,而这在算法上存在很多问题,很难实现长距离的信息传递;其次,它是一种串型的处理模式,换言之,需要逐句往下进行翻译,无法实现并行处理(同时翻译几句话),所以在速度上不具优势,效率偏低。二、卷积神经网络(CNN)卷积神经网络起初来源于图像领域,同时也可以用在机器翻译上。其优势在于可以进行并行处理,同时翻译处理几个语句;缺点是并行处理的范围有限,即只能处理局部的信息,无法处理全局信息。三、自注意力网络(SAN)自注意力网络是年出现的一种全新技术,也是目前的最佳方法,现在几乎所有的神经机器翻译都在使用这种方法。其兼具上述两种网络的优势,能够更好进行信息传递,同时还能实现高度并行处理。值得一提的是,不单在神经机器翻译领域,自注意力网络在人工智能领域也起着至关重要的作用。图
CNN和SAN在解码期间的计算(来源:受访者)搜索算法决定最终的翻译效果“人工翻译的过程和机器翻译的过程相差比较大。人工翻译会先浏览整个句子结构,然后进行思考,并做出适当调整,最终翻译成文。”刘洋表示,“而机器翻译没有这个分析的过程,而是采用机械式的由左向右逐词翻译的方式。比如把‘我喜欢读书’中译英,机器翻译则会依次生成I、like、reading这几个单词。”他说。“在机器翻译生成过程中,每个位置可能会有多个候选词,比如第一个位置,可能生产I,也可能生成me,like、reading等等,以此类推,每个位置都会有多个选择,这样生成的组合结果非常多。理论上每个位置可以把所有的单词填在上面,若以10万单词计算的话,三个位置就会产生3种结果。”刘洋说道。搜索算法就是最后生成译文的方法,大体分为两类:一、贪婪搜索,每次搜索都只选择最优的一个词。二、集束搜索,每次搜索保留多个候选词,来降低搜索过程中出现的错误,提高容错率。目前的神经机器翻译基本都是用集束搜索,每个位置保留最优的5个词,从而实现比较好的翻译效果。数据支撑是机器翻译的关键,短期机器无法取代人工虽然神经机器翻译取得了不小的进步,目前还有几个问题值得去思考和探索:1、尽管目前已经做了较为深入地探索和分析,但神经机器翻译尚未“完全开发”。2、Transformer是目前最为常见的模型,未来如何设计出更优越的全新模型对于神经机器翻译的发展意义重大。3、随着单语言数据有了质的飞跃,目前神经机器翻译在利用单语言数据方面存在巨大上升空间。4、如何将连续表示和离散表示相互转换,是现阶段神经机器翻译亟待解决的问题。5、不止是人类的自然语言,如何能将其他知识也融入到神经机器翻译是目前面临的重要问题。图
短期机器翻译无法取代人工(来源:Pixabay)谈及目前神经机器翻译所面临的瓶颈,“翻译古诗词就是当下很有挑战性的难题之一。目前,翻译在语言和场景下存在较大差距,效果最好的是中英互译,尤其是在政治新闻领域,但如果是口语或古诗词,翻译效果会差很多。”刘洋说道。以唐代诗人张若虚《春江花月夜》中的诗句“江畔何人初见月?江月何年初照人?”为例,机器只是照字面意思逐一进行翻译,最终的译文完全传达不出诗句中的意境和含义。对此,刘洋做出了解释,“这是由于神经机器翻译依然是数据驱动的方法,如果数据足够多,那么翻译就会越精准。但是大千世界包罗万象,很多场景下并没有足够多的数据支撑,比如古诗词、聊天记录等,在没有足够的数据支撑的情况下翻译的效果会非常不理想。所以我们现在需要进行攻关的是,如何让机器翻译在没有足够多数据支撑的情况下依然能够精准翻译。”“之前的数据是精标注数据,比如‘我喜欢读书’只能翻译成‘Ilikereading’,给机器大量这样的数据它才能学会。未来,我们希望机器也会像人脑一样智能,不再需要人工手把手去教,只是告诉它一些简单规则,让它自己浏览中文和英文网站,自己去学习,从而翻译得越来越精准。”他说。提到机器翻译在未来会不会取代人工翻译,“我觉得在近期内(如5-10年)可能不会实现,在更长期来看应该是有可能的。”刘洋告诉DeepTech。图
清华智能产业研究院副院长、国家杰青刘洋(来源:受访者)翻译是一项庞大的系统性工程,讲求“信、达、雅”,不但需要用极为精准的文字转述,还需要对外国政治、文化乃至习俗都要有深刻理解。翻译表面上虽然是文字的转译重组,但其实表达的是文化与文化之间的交流,让人们能够对彼此的文化感同身受,这对于解决各个民族之间的沟通、促进各国之间的文化交流都是大有裨益的。翻译,的确是一项伟大的研究。-End-预览时标签不可点收录于话题#个上一篇下一篇
转载请注明:http://www.chongqinghg.com/fyghy/8543.html