CN108763230B - 利用外部信息的神经机器翻译方法 - Google Patents

利用外部信息的神经机器翻译方法 Download PDF

Info

Publication number
CN108763230B
CN108763230B CN201810581372.6A CN201810581372A CN108763230B CN 108763230 B CN108763230 B CN 108763230B CN 201810581372 A CN201810581372 A CN 201810581372A CN 108763230 B CN108763230 B CN 108763230B
Authority
CN
China
Prior art keywords
external information
translation
noise
probability distribution
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810581372.6A
Other languages
English (en)
Other versions
CN108763230A (zh
Inventor
黄书剑
郑在翔
戴新宇
张建兵
尹存燕
陈家骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201810581372.6A priority Critical patent/CN108763230B/zh
Publication of CN108763230A publication Critical patent/CN108763230A/zh
Application granted granted Critical
Publication of CN108763230B publication Critical patent/CN108763230B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本公开涉及利用外部信息的神经机器翻译方法,包括:接收源端源语言的文字序列作为源端输入;接收目标语言的文字序列作为外部信息输入;根据源端输入和外部信息输入,生成源端源语言文字序列的译文作为目标端输出。本公开提供的神经机器翻译方法通过在翻译过程中输入外部信息,为翻译提供了参考,有效提高了神经机器翻译的翻译效率。

Description

利用外部信息的神经机器翻译方法
技术领域
本公开涉及自然语言处理的机器翻译技术领域,尤其涉及一种利用外部信息的神经机器翻译方法。
背景技术
近年来,随着计算机技术的迅猛发展,计算机硬件的算力不断提高,海量的数据得到广泛应用,机器学习方法特别是基于神经网络的深度学习方法取得了很大的发展和广泛的应用,这其中就包括基于神经网络的机器翻译方法,即神经机器翻译(NMT)。
在NMT领域中,比较典型的是基于带有注意力机制的编码器解码器架构(Attention-based Encoder-Decoder Architecture)的神经机器翻译模型。其工作过程如下:输入待翻译的源端句子的词向量序列x,即x={x1,…,xi,…,xI}。随之使用一个基于神经网络的编码器将其编码为I个隐层表示h={h1,…,hi,…,hI},接着使用一个基于神经网络的解码器进行解码。在每个解码时刻t,解码器首先读取1到t-1时刻生成的历史信息,然后通过注意力机制从源端的编码器的隐层表示h中获得当前时刻对应的源端上下文信息,从而生成目标端的隐层表示s={s1,…,st,…,sT}。进而通过T个目标端的隐层表示生成目标语言句子y={y1,…,yt,…,yT}。
现有技术对NMT的研究主要集中于通过设计更复杂的模型来增强翻译系统的性能,然而,随着NMT的发展,通过设计更好的模型,使之能更好地从给定的有限规模的训练样本中学习翻译能力已经逐渐达到了一个瓶颈,与此同时还伴随着模型复杂性的上升和模型规模的增大。
因此,如何在不过度增加模型复杂性的基础上提出一种提高翻译质量的方法,是本领域亟待解决的问题。
发明内容
有鉴于此,本公开提出了一种利用外部信息的机器翻译方法。
本公开提供了一种利用外部信息的神经机器翻译方法,所述方法包括:接收源端源语言的文字序列作为源端输入;接收目标语言的文字序列作为外部信息输入;根据所述源端输入和所述外部信息输入,生成源端源语言文字序列的译文作为目标端输出。
在一种可能的实现方式中,所述根据所述源端输入和所述外部信息输入,生成源端源语言文字序列的译文作为目标端输出,包括:对所述源端输入的所述源端源语言的文字序列编码,得到源端源语言的神经网络隐层表示;在翻译的当前时刻t,根据所述源端源语言的神经网络隐层表示,得到目标端的隐层表示;根据所述目标端的隐层表示,得到所述当前时刻t的翻译预测原概率分布;对所述外部信息输入的目标语言的文字序列编码,得到外部信息的隐层表示;根据所述外部信息的隐层表示,得到所述当前时刻t的外部信息翻译概率分布;根据所述翻译预测原概率分布和所述外部信息翻译概率分布,得到所述当前时刻t的结合外部信息的翻译预测概率分布;根据每一时刻的所述结合外部信息的翻译预测概率分布,生成源端源语言文字序列的译文作为目标端输出。
在一种可能的实现方式中,所述方法还包括:识别所述外部信息中的噪音,得到第一外部信息判别结果和/或第二外部信息判别结果;所述根据所述翻译预测原概率分布和所述外部信息翻译概率分布,得到所述当前时刻t的结合外部信息的翻译预测概率分布,包括:根据所述翻译预测原概率分布、所述外部信息翻译概率分布、所述第一外部信息判别结果和/或所述第二外部信息判别结果,得到所述当前时刻t的结合外部信息的翻译预测概率分布。
在一种可能的实现方式中,所述识别所述外部信息中的噪音,得到第一外部信息判别结果,包括:根据所述源端源语言的神经网络隐层表示和所述外部信息的隐层表示,判别所述外部信息输入中的每个单词对于本次翻译是否为噪音;分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第一外部信息判别结果;所述识别所述外部信息中的噪音,得到第二外部信息判别结果,包括:根据所述外部信息的隐层表示,得到所述当前时刻t的对翻译有帮助的部分外部信息表示,根据所述当前时刻t的所述目标端的隐层表示和所述对翻译有帮助的部分外部信息表示,判别所述外部信息输入中的每个单词对于所述当前时刻t的翻译是否为噪音;分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第二外部信息判别结果。
在一种可能的实现方式中,根据所述翻译预测原概率分布、所述外部信息翻译概率分布、所述第一外部信息判别结果和/或所述第二外部信息判别结果,得到所述当前时刻t的结合外部信息的翻译预测概率分布的计算公式为:
Figure BDA0001688272600000031
其中,Pt(y)为当前时刻t的结合外部信息的翻译预测概率分布,
Figure BDA0001688272600000032
为翻译预测原概率分布、
Figure BDA0001688272600000033
为外部信息翻译概率分布、D(y)为第一外部信息判别结果,βt为第二外部信息判别结果。
在一种可能的实现方式中,所述外部信息输入包括以下中的一种或多种:单词、短语、句子。
在一种可能的实现方式中,所述在翻译的当前时刻t,根据所述源端源语言的神经网络隐层表示,得到目标端的隐层表示,使用注意力机制。
在一种可能的实现方式中,所述根据所述外部信息的隐层表示,得到所述当前时刻t的外部信息翻译概率分布,使用注意力机制。
本公开提供的神经机器翻译方法,通过在翻译过程中输入外部信息,利用外部信息为翻译提供了参考,有效提高了神经机器翻译方法的翻译效率。
附图说明
图1是根据本公开的一个实施方式的利用外部信息的神经机器翻译方法的流程图。
图2是根据本公开的一个实施方式的步骤S3的方法流程图。
图3是根据本公开的一个实施方式的利用外部信息的神经机器翻译方法的流程图。
图4是根据本公开的一个实施方式的利用外部信息的神经机器翻译方法的流程图。
图5是根据本公开的一个实施方式的利用外部信息的神经机器翻译方法的流程图。
图6是根据本公开的一个实施方式的步骤S401的方法流程图。
图7是根据本公开的一个实施方式的步骤S402的方法流程图。
图8是根据本公开的一个实施方式的利用外部信息的神经机器翻译系统获得当前时刻t的结合外部信息的翻译预测概率分布Pt(y)的过程示意图。
图9是根据本公开的一个实施方式的利用外部信息的神经机器翻译系统在当前时刻t将译文中第t个单词最终翻译为moving的过程示意图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出了本公开一实施例的利用外部信息的神经机器翻译方法的流程图,如图1所示,该方法可以包括:
步骤S1,接收源端源语言的文字序列作为源端输入;
源语言的语言体系可以是现有语言体系中的一种,例如中文、英文等。将源端待翻译的单词、短语和句子中的至少一种划分成若干个单词,该若干个单词构成源语言的文字序列。其中,对于具体的划分方式,本公开不作限定。
步骤S2,接收目标语言的文字序列作为外部信息输入;
目标语言的语言体系为与源语言的语言体系不同的另一种语言体系。可选地,外部信息输入的目标语言的文字序列形式为单词、短语和句子中的至少一种。根据现实应用场景的不同,外部信息输入的形式和内容可以包括(但不限于):双语词典的条目、其他机器翻译系统的翻译结果和人类对机器翻译的交互修改。外部信息输入为源端输入提供了翻译的参考信息。应当理解,外部信息输入与源端输入的来源没有直接的关系,因此步骤S1与步骤S2的执行顺序可以不分先后。
步骤S3,根据源端输入和外部信息输入,生成源端源语言文字序列的译文作为目标端输出。
可选地,外部信息输入将被划分成若干单词。
根据源端输入得到原始翻译结果使用的方法可以是现有技术中惯用的神经机器翻译方法。考虑外部信息时,外部信息输入中对本次翻译有参考价值的单词将被提取以优化原始的翻译结果。例如,可以是用外部信息输入中的单词替换原始翻译结果的部分单词,或者是将外部信息中有参考价值的单词直接用来翻译未找到合适译文的源端输入中的单词。
图2示出了本公开一实施例的步骤S3的方法流程图,如图2所示,在一种可能的实现方式中,步骤S3可以包括:
步骤S301,对所述源端输入的所述源端源语言的文字序列编码,得到源端源语言的神经网络隐层表示;
在一个示例中,首先接收源端源语言文字序列x={x1,…,xi,…,xI}作为源端输入,其中,xi是源端源语言句子中的第i个词。而后对源端源语言的文字序列编码,得到源端源语言的神经网络隐层表示h={h1,…,hi,…,hI},其中,hi是对源语言句子中第i个词的隐层表示,I是源端源语言文字序列中词的数量。
步骤S302,在翻译的当前时刻t,根据所述源端源语言的神经网络隐层表示,得到目标端的隐层表示;
在翻译的当前时刻t,可选地,解码器首先读取1到t-1时刻生成的历史信息,然后通过注意力机制从源端的源端编码器的隐层表示h中获得当前时刻t对应的源端上下文信息,从而生成目标端的隐层表示st
步骤S303,根据所述目标端的隐层表示,得到所述当前时刻t的翻译预测原概率分布;
对于目标端目标语言文字序列,即源端源语言文字序列的译文y={y1,…,yt,…,yT},根据目标端的隐层表示st,生成当前时刻t的翻译预测原概率分布
Figure BDA0001688272600000061
以下也简称为原概率分布。
步骤S304,对所述外部信息输入的目标语言的文字序列编码,得到外部信息的隐层表示;
外部信息文字序列为
Figure BDA0001688272600000062
其中,
Figure BDA0001688272600000063
是外部信息文字序列中的第j个词。对外部信息文字序列编码,得到外部信息的隐层表示
Figure BDA0001688272600000071
其中,
Figure BDA0001688272600000072
是对外部信息文字序列中第j个词的隐层表示,J是外部信息文字序列中词的数量。
步骤S305,根据所述外部信息的隐层表示,得到所述当前时刻t的外部信息翻译概率分布;
可选地,通过另一套注意力机制,根据外部信息的隐层表示hE得到外部信息翻译概率分布
Figure BDA0001688272600000073
步骤S306,根据所述翻译预测原概率分布和所述外部信息翻译概率分布,得到所述当前时刻t的结合外部信息的翻译预测概率分布;
可选地,对原概率分布
Figure BDA0001688272600000074
和外部信息翻译概率分布
Figure BDA0001688272600000075
进行加权求和,得到所述当前时刻t的结合外部信息的翻译预测概率分布Pt(y)。根据Pt(y)提供的最终概率分布,生成源端源语言文字序列的译文作为目标端输出。
步骤S307,根据每一时刻的所述结合外部信息的翻译预测概率分布,生成源端源语言文字序列的译文作为目标端输出。
由于来自双语词典无法覆盖所有一词多义、其他机器翻译系统的错误以及人类翻译的失误等,外部信息中可能存在对翻译无益的噪音,以下介绍根据本公开的对外部信息中的噪音进行降噪的神经机器翻译方法。
图3-5分别示出了本公开一实施例的利用外部信息的神经机器翻译方法的流程图,如图3-5所示,在一种可能的实现方式中,在步骤S305之后引入步骤S401和/或S402进行噪音判别,获得全局噪音判别的第一外部信息判别结果和/或局部噪音判别的第二外部信息判别结果。
步骤S401,全局噪音判别,识别外部信息中的噪音,得到第一外部信息判别结果;
全局噪音判别将识别出外部信息中相对于本次翻译为噪音的单词,其中,本次翻译是指本次正在进行的由源端源语言文字序列至目标端目标语言文字序列的翻译。
步骤S402,局部噪音判别,识别外部信息中的噪音,得到第二外部信息判别结果。
局部噪音判别将识别出外部信息中相对于当前时刻的翻译为噪音的单词,由于翻译过程是逐词、逐时刻地(时刻由1到T,其中T为目标端目标语言文字序列的长度)生成目标端目标语言文字序列,当前翻译时刻t对应的翻译对象通常是一个单词,例如,当前时刻的翻译为源语言文字序列中的某个单词。
可选地,第一/第二外部信息判别结果是直接给噪音元素赋予某个标记;或者给外部信息中所有的元素赋予权重,不同的权重值能够将噪音元素与非噪音元素区别开。
全局噪音判别和局部噪音判别可以只执行其中的一者,也可以两者顺次执行。
只执行步骤S401的全局噪音判别,在获得第一外部信息判别结果后,执行步骤S3061:根据翻译预测原概率分布
Figure BDA0001688272600000081
外部信息翻译概率分布
Figure BDA0001688272600000082
和第一外部信息判别结果,得到当前时刻t的结合外部信息的翻译预测概率分布Pt(y)。
只执行步骤S402的局部噪音判别,在获得第二外部信息判别结果后,执行步骤S3062:根据翻译预测原概率分布
Figure BDA0001688272600000083
外部信息翻译概率分布
Figure BDA0001688272600000084
和第二外部信息判别结果,得到当前时刻t的结合外部信息的翻译预测概率分布Pt(y)。
顺次执行步骤S401和步骤S402,在获得第一、第二外部信息判别结果后,执行步骤S3063:根据翻译预测原概率分布、外部信息翻译概率分布、第一外部信息判别结果和第二外部信息判别结果,得到当前时刻t的结合外部信息的翻译预测概率分布。
图6示出了本公开一实施例的步骤S401的方法流程图,如图6所示,在一种可能的实现方式中,步骤S401可以包括:
步骤S4011:根据源端源语言的神经网络隐层表示和外部信息的隐层表示,判别外部信息输入中的每个单词对于本次翻译是否为噪音;
步骤S4012:分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第一外部信息判别结果。
图7示出了本公开一实施例的步骤S402的方法流程图,如图7所示,在一种可能的实现方式中,步骤S402可以包括:
步骤S4021:根据外部信息的隐层表示,得到当前时刻t的对翻译有帮助的部分外部信息表示,根据当前时刻t的所述目标端的隐层表示和对翻译有帮助的部分外部信息表示,判别外部信息输入中的每个单词对于当前时刻t的翻译是否为噪音;
步骤S4022:分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第二外部信息判别结果。
根据本公开的利用外部信息的神经机器翻译系统,包括以下模块:源端编码器神经网络(也简称源端编码器),用于接收源端源语言的文字序列作为源端输入;
外部信息编码器神经网络(也简称外部信息编码器),用于接收目标语言的文字序列作为外部信息输入;
目标端解码器神经网络(也简称目标端解码器或解码器),用于根据所述源端输入和所述外部信息输入,计算结合外部信息的翻译预测概率分布,根据所述结合外部信息的翻译预测概率分布生成源端源语言文字序列的译文作为目标端输出。
可选地,源端编码器使用循环神经网络(Recurrent Neural Networks,RNN)、卷积神经网络(Convolutional Neural Network,CNN)或自注意力神经网络(Self-AttentionNeural Network,SANN)中的一种来实现。
在一种可能的实现方式中,神经机器翻译系统还包括:噪音判别器神经网络,所述噪音判别器神经网络包括全局噪音判别器神经网络和/或局部噪音判别器神经网络,全局噪音判别器神经网络判别所述外部信息的神经网络隐层表示中的每个元素对本次翻译是否为噪音,被判别为噪音的元素与被判别不为噪音的元素获得不同的第一噪音判别结果;局部噪音判别器神经网络判别当前翻译时刻获得的所述外部信息的神经网络隐层表示中的元素对于当前时刻翻译是否为噪音,被判别为噪音的元素与被判别不为噪音的元素获得不同的第二噪音判别结果;
目标端解码器神经网络根据所述源端的神经网络隐层表示、所述外部信息的神经网络隐层表示、所述第一噪音判别结果和/或所述第二噪音判别结果,得到结合外部信息的翻译预测概率分布,根据所述结合外部信息的翻译预测概率分布生成源端源语言文字序列的译文作为目标端输出。
对于外部信息文字序列中可能包含的对本次翻译(即本次进行的由源端源语言文字序列至目标端目标语言文字序列的翻译)无关的噪音,在对源端和外部信息文字序列分别编码结束后,可选地,使用全局噪音判别器神经网络(以下简称全局判别器)对外部信息中的每个单词进行噪音判别。
可选地,对于外部信息中的每个单词,全局判别器通过一个多层感知机神经网络计算出该词对于本次翻译是否不为噪音的概率
Figure BDA0001688272600000101
作为第一噪音判别结果。第一噪音判别结果D(y)代表所述全局判别器对于外部信息中的某个词y是否为噪音的判定结果。其值越小,代表该词y被认为是对于本次翻译句子的噪音的可能性越大。
在一种可能的实现方式中,在全局噪音判别器进行噪音判别时,由于存在这样的可能性,即,外部信息中的J个单词对于本次翻译均属于噪音,因此进行如下操作:给外部信息文字序列中的一个元素添加标记<null>,将其标记为空元素,用来表示外部信息文字序列中所有不存在的单词,该空元素在噪音判别过程中被赋予的概率值为1,外部信息文字序列中其他元素被赋予的概率值为0。
在解码阶段,解码器逐词、逐时刻地(时刻由1到T,其中T为目标端目标语言文字序列的长度)生成目标端目标语言文字序列。
在一种可能的实现方式中,解码器神经网络还包括原始翻译概率分布输出层和带有注意力机制的外部信息读取层。
可选地,解码器中的原始翻译概率分布输出层使用循环神经网络(RecurrentNeural Networks,RNN)、卷积神经网络(Convolutional Neural Network,CNN)或自注意力神经网络(Self-Attention Neural Network,SANN)中的一种来实现。
在当前的每个解码时刻t,对于原始翻译概率分布输出层,解码器首先读取1到t-1时刻生成的历史信息,然后通过注意力机制从源端的源端编码器的隐层表示h中获得当前时刻t对应的源端上下文信息,从而生成目标端的隐层表示st,进而生成当前时刻t的翻译预测原概率分布
Figure BDA0001688272600000111
以下简称原概率分布。
对于带有注意力机制的外部信息读取层,解码器通过另一套注意力机制从外部信息的隐层表示hE中获取对当前时刻翻译有帮助的部分外部信息表示
Figure BDA0001688272600000112
和外部信息翻译概率分布
Figure BDA0001688272600000113
借助全局判别器得到的第一噪音判别结果,对于外部信息中的某个词y∈yE进行降噪,得到降噪的外部信息翻译概率分布
Figure BDA0001688272600000114
(以下简称外部概率分布)。通过这一步骤,被全局判别器判定为噪音的词将会得到较小的概率密度,从而在一定程度上避免了噪音对融合外部信息造成负面的影响。
在一种可能的实现方式中,使用局部噪音判别器神经网络(以下简称局部判别器)再次噪音判别。
可选地,使用基于多层感知机的局部噪音判别器神经网络根据当前时刻t的解码器隐层表示st和获取到的对翻译有帮助的部分外部信息表示
Figure BDA0001688272600000121
计算权重βt作为第二噪音判别结果。第二噪音判别结果βt代表着局部判别器对于当前时刻t获得的外部信息是否不为噪音的判定结果。其值越小,代表当前时刻t获取到的外部信息被认为是对于当前时刻翻译的噪音的可能性越大。
借助局部判别器的判别结果,通过第二噪音判别结果βt对原概率分布和外部概率分布进行线性加权得到当前时刻t的结合外部信息的翻译预测概率分布
Figure BDA0001688272600000122
当前时刻t的最终翻译由该概率分布得到。
目标端目标语言文字序列,即译文y={y1,…,yt,…,yT}经时刻1到T,逐词地由上述步骤生成。
可选地,全局噪音判别器神经网络和局部噪音判别器神经网络可以使用二值分类的多层感知机神经网络。
应当理解,以上先后使用全局噪音判别器神经网络和局部噪音判别器神经网络对外部信息中的噪音进行两次噪音判别的步骤并不是必须的,根据需要可以只使用全局判别器和局部判别器中的一者进行噪音判别。当只使用全局判别器时,可以将βt取值为0;当只使用局部判别器时,可以将
Figure BDA0001688272600000123
中的每一个D(y)取值为1。
图8示意性地示出了根据本公开的一个实施方式获得当前时刻t的结合外部信息的翻译预测概率分布Pt(y)的过程。在该实施方式中,可选地,源端编码器对源端输入进行了双向编码。目标端解码器对源端实施了注意力机制。图中ɑ表示注意力机制产生的注意力权重,σ表示基于多层感知机的局部噪音判别器,<null>为空元素标记。
图9示意性地示出了根据本公开的一个实施方式在当前时刻t将译文中第t个单词最终翻译为moving的过程。
根据本公开的利用外部信息的神经机器翻译系统,通过噪音判别神经网络,允许所提供的外部信息包含噪音,对外部信息的要求较低,且能识别外部信息中的噪音;通过降噪,对外部信息中的噪音进行了消解,提高翻译结果的质量。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (6)

1.一种利用外部信息的神经机器翻译方法,所述方法包括:
接收源端源语言的文字序列作为源端输入;
接收目标语言的文字序列作为外部信息输入;
对所述源端输入的所述源端源语言的文字序列编码,得到源端源语言的神经网络隐层表示;
在翻译的当前时刻t,根据所述源端源语言的神经网络隐层表示,得到目标端的隐层表示;
根据所述目标端的隐层表示,得到所述当前时刻t的翻译预测原概率分布;
对所述外部信息输入的目标语言的文字序列编码,得到外部信息的隐层表示;
根据所述外部信息的隐层表示,得到所述当前时刻t的外部信息翻译概率分布;
识别所述外部信息输入中的噪音,得到第一外部信息判别结果和/或第二外部信息判别结果;
根据所述翻译预测原概率分布、所述外部信息翻译概率分布、所述第一外部信息判别结果和/或所述第二外部信息判别结果,得到所述当前时刻t的结合外部信息的翻译预测概率分布;
根据每一时刻的所述结合外部信息的翻译预测概率分布,生成源端源语言文字序列的译文作为目标端输出。
2.根据权利要求1所述的方法,其特征在于,
所述识别所述外部信息中的噪音,得到第一外部信息判别结果,包括:
根据所述源端源语言的神经网络隐层表示和所述外部信息的隐层表示,判别所述外部信息输入中的每个单词对于本次翻译是否为噪音;
分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第一外部信息判别结果;
所述识别所述外部信息中的噪音,得到第二外部信息判别结果,包括:
根据所述外部信息的隐层表示,得到所述当前时刻t的对翻译有帮助的部分外部信息表示,根据所述当前时刻t的所述目标端的隐层表示和所述对翻译有帮助的部分外部信息表示,判别所述外部信息输入中的每个单词对于所述当前时刻t的翻译是否为噪音;
分别为被判别为噪音的元素和被判别不为噪音的元素设置不同的噪音判别权重作为第二外部信息判别结果。
3.根据权利要求2所述的方法,其特征在于,
根据所述翻译预测原概率分布、所述外部信息翻译概率分布、所述第一外部信息判别结果和/或所述第二外部信息判别结果,得到所述当前时刻t的结合外部信息的翻译预测概率分布的计算公式为:
Figure FDA0002433411610000021
其中,Pt(y)为当前时刻t的结合外部信息的翻译预测概率分布,
Figure FDA0002433411610000023
为翻译预测原概率分布,
Figure FDA0002433411610000022
为外部信息翻译概率分布,D(y)为第一外部信息判别结果,βt为第二外部信息判别结果。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述外部信息输入包括以下中的一种或多种:单词、短语、句子。
5.根据权利要求1所述的方法,其特征在于,
所述在翻译的当前时刻t,根据所述源端源语言的神经网络隐层表示,得到目标端的隐层表示,
使用注意力机制。
6.根据权利要求1所述的方法,其特征在于,
所述根据所述外部信息的隐层表示,得到所述当前时刻t的外部信息翻译概率分布,
使用注意力机制。
CN201810581372.6A 2018-06-07 2018-06-07 利用外部信息的神经机器翻译方法 Active CN108763230B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810581372.6A CN108763230B (zh) 2018-06-07 2018-06-07 利用外部信息的神经机器翻译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810581372.6A CN108763230B (zh) 2018-06-07 2018-06-07 利用外部信息的神经机器翻译方法

Publications (2)

Publication Number Publication Date
CN108763230A CN108763230A (zh) 2018-11-06
CN108763230B true CN108763230B (zh) 2020-07-21

Family

ID=64000513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810581372.6A Active CN108763230B (zh) 2018-06-07 2018-06-07 利用外部信息的神经机器翻译方法

Country Status (1)

Country Link
CN (1) CN108763230B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543824B (zh) * 2018-11-30 2023-05-23 腾讯科技(深圳)有限公司 一种序列模型的处理方法和装置
CN109712203B (zh) * 2018-12-29 2020-11-17 福建帝视信息科技有限公司 一种基于自注意力生成对抗网络的图像着色方法
CN110175336B (zh) * 2019-05-22 2021-05-28 北京百度网讯科技有限公司 翻译方法、装置和电子设备
CN111310485B (zh) * 2020-03-12 2022-06-21 南京大学 机器翻译方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065327A1 (en) * 2014-10-24 2016-04-28 Google Inc. Neural machine translation systems with rare word processing
CN106844352A (zh) * 2016-12-23 2017-06-13 中国科学院自动化研究所 基于神经机器翻译系统的单词预测方法及系统
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107391501A (zh) * 2017-09-11 2017-11-24 南京大学 一种基于词预测的神经机器翻译方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065327A1 (en) * 2014-10-24 2016-04-28 Google Inc. Neural machine translation systems with rare word processing
CN106844352A (zh) * 2016-12-23 2017-06-13 中国科学院自动化研究所 基于神经机器翻译系统的单词预测方法及系统
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107391501A (zh) * 2017-09-11 2017-11-24 南京大学 一种基于词预测的神经机器翻译方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Incorporating Discrete Translation Lexicons into Neural Machine Translation》;Philip Arthur, Graham Neubig, Satoshi Nakamura;《arXiv》;20161005;第1-11页 *

Also Published As

Publication number Publication date
CN108763230A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108845994B (zh) 利用外部信息的神经机器翻译系统及翻译系统的训练方法
CN108763230B (zh) 利用外部信息的神经机器翻译方法
KR102490752B1 (ko) 인공 신경망을 이용한 심층 문맥 기반 문법 오류 정정
CN111488807B (zh) 基于图卷积网络的视频描述生成系统
CN107967262A (zh) 一种神经网络蒙汉机器翻译方法
JP5128629B2 (ja) 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法
CN111597830A (zh) 基于多模态机器学习的翻译方法、装置、设备及存储介质
CN110110337B (zh) 翻译模型训练方法、介质、装置和计算设备
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN111401079A (zh) 神经网络机器翻译模型的训练方法、装置及存储介质
CN111401084A (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
CN112800757B (zh) 关键词生成方法、装置、设备及介质
CN114757182A (zh) 一种改进训练方式的bert短文本情感分析方法
US20220300718A1 (en) Method, system, electronic device and storage medium for clarification question generation
CN114676234A (zh) 一种模型训练方法及相关设备
CN111783478B (zh) 机器翻译质量估计方法、装置、设备及存储介质
CN113591462A (zh) 弹幕回复生成方法、装置及电子设备
CN113609284A (zh) 一种融合多元语义的文本摘要自动生成方法及装置
CN113536795A (zh) 实体关系抽取的方法、系统、电子装置和存储介质
CN113380223B (zh) 多音字消歧方法、装置、系统及存储介质
CN113780418A (zh) 一种数据的筛选方法、系统、设备和存储介质
JP2021524095A (ja) 文章レベルテキストの翻訳方法及び装置
CN110913229A (zh) 基于rnn的解码器隐状态确定方法、设备和存储介质
CN113204978A (zh) 一种机器翻译增强训练方法及系统
CN113609873A (zh) 翻译模型训练方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant