CN112417901A - 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 - Google Patents
基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 Download PDFInfo
- Publication number
- CN112417901A CN112417901A CN202011393647.7A CN202011393647A CN112417901A CN 112417901 A CN112417901 A CN 112417901A CN 202011393647 A CN202011393647 A CN 202011393647A CN 112417901 A CN112417901 A CN 112417901A
- Authority
- CN
- China
- Prior art keywords
- decoding
- autoregressive
- mongolian
- attention
- entry
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013519 translation Methods 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000008569 process Effects 0.000 claims abstract description 16
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 19
- 230000007246 mechanism Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 9
- 230000001537 neural effect Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 235000019580 granularity Nutrition 0.000 claims description 3
- 238000005070 sampling Methods 0.000 abstract description 5
- 230000014616 translation Effects 0.000 description 72
- 241000282326 Felis catus Species 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000035558 fertility Effects 0.000 description 3
- 239000003292 glue Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001050985 Disco Species 0.000 description 1
- 235000009499 Vanilla fragrans Nutrition 0.000 description 1
- 244000263375 Vanilla tahitensis Species 0.000 description 1
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明提出了一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,通过使用环顾生成,减少重复生成的可能;通过使用词汇注意力,在运行解码器的每一层,让每个位置都关注整个词表,得到可能生成的字符,通过词汇注意力,解码器可以使得各个位置预期产生的字符进行交互,从而降低重复生成的可能,同时不需要引入额外的参数;本发明通过使用对齐交叉熵作为非自回归翻译模型的损失函数,解决了非自回归翻译模型中由于缺少自回归因子,难以对蒙语词序建模的问题;在解码时,采用动态双向解码,从而得到句子级别的更好的采样结果。本发明在蒙汉翻译的过程中加快解码速度的同时,也提升了翻译质量。
Description
技术领域
本发明属于机器翻译技术领域,特别涉及一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法。
背景技术
机器翻译作为人工智能的根本组成之一,为解决语言翻译问题提供了方法,机器翻译是利用计算机实现两种自然语言间快速转换的过程,机器翻译技术的发展一直与计算机技术、信息论、语言学等学科的发展紧密相随,从1949年翻译备忘录提出到现在,这期间,机器翻译经历了多个不同的发展阶段,也涌现出了很多方法。总结起来主要有三类,一开始是基于规则的方法,然后发展为基于统计的方法。一直到最近的基于神经网络的方法。
基于规则的机器翻译技术本质上将专家的翻译知识采用规则形式写下来,采用软件的方式利用翻译规则来实现机器翻译过程。这种方法的优点是直接用语言学专家知识,准确率非常高。但因为其涉及到人工参与构建高质量知识库,导致系统构建代价高,灵活性比较差。此外,还面临规则冲突的问题。随着规则数量的增多,规则之间互相制约和影响。而为了解决这一系列问题,不得不引入更多的规则,形成恶性循环。针对新语言现象处理的能力弱,如果没有匹配上合适的翻译规则,可能会导致无法翻译,所谓鲁棒性不够强大。
基于统计机器翻译最大的变化在于从人工书写翻译规则的方式,转换到数据驱动的机器学习方法。统计机器翻译方法的基本过程是,首先准备一定规模的双语句对,采用机器学习的方法,从该双语训练句对中自动训练学习翻译模型,同时采用大规模目标语单语数据自动训练学习语言模型,最后通过参数调优,可以构建一套完整的统计机器翻译系统。其最大的优点在于:任何句子都能够给出译文,但可能译文质量不好,这一点传统规则方法无法比拟,因为之前如果没有匹配成功合适的翻译规则,会导致翻译失败,无法生成译文。基于统计机器翻译对于词汇译文选择和短语译文选择的能力很强,但对译文语序的调序能力不够,特别是涉及到译文中需要远距离调序,这就导致统计机器翻译的译文不通顺,同时还会引入漏译问题。
基于神经网络的机器翻译的通用框架为编码器-解码器结构。基于神经网络的机器翻译以其独特的优势迅速成为主流的翻译方法,翻译技术取得了巨大突破,相比统计机器翻译而言,神经网络翻译从模型上来说相对简单,它主要包含两个部分,一个是编码器,一个是解码器。编码器是把源语言经过一系列的神经网络的变换之后,表示成一个高维的向量;解码器负责把这个高维向量再重新解码(翻译)成目标语言。基于神经网络的机器翻译有不同的网络结构,如循环神经网络(Recurrent Neural Networks,RNN)、卷积神经网络(Convolutional Neural Network,CNN)和Transformer,虽然翻译性能有了一定提升,但是由于使用自回归(Autoregressive Translation,AT)进行解码,导致了翻译速度慢和并行性低的问题。
为了解决自回归存在的问题,有很多非自回归模型,比如DisCo,可以显著减少推理时间的非自回归机器翻译模型,以及基于插入和删除的序列生成方法,然而,尽管有或多或少的效率上的优势,但这些方法所展现出来的结果都没能超过自回归生成。
除了以上问题,蒙语使用后加成分为词的派生和词型变化,粘合多个附加成分以表示多重语法意义;蒙语名词和代词有数、格等语法范畴,动词有态、时、式等语法范畴;蒙语动词在宾主之后,定语在被修饰词之前,蒙语的特点也给蒙汉翻译带来了极大的挑战。
自回归模型指在生成文本时,需要用已生成的词来预测下一个位置的词,所以要生成长度为n的文本,需要经过模型解码器n次。自回归生成示例如图1所示,自回归可以表示为:
其中x是待翻译的句子,y是翻译后的句子,n是y的长度。如果要生成的句子很长,那么模型花在解码上的时间将是非常巨大,甚至是不可承受的,由于其自回归的特性,模型的推理过程非常缓慢。
非自回归(Non-Autoregressive Translation,NAT)模型打破了生成时的串行顺序,一次能够解码出整个目标句子,从而解决自回归模型所带来的问题,和自回归相比,非自回归生成就是一次性生成多个字符,非自回归生成可以大大降低解码所需要的时间。
自从非自回归的概念被提出后,相关的论文层出不穷。总得来说,可以分为以下三种方式:
1.基于隐变量(latent variable)的非自回归,其主要问题在于怎么找到更好的隐变量能够充分表示非自回归模型所丢失的序列信息。
2.基于迭代优化(Iterative Refinement)的非自回归,其主要做法是将上一轮迭代生成的翻译结果和源语作为下一次迭代的输入,不断的迭代精化,相当于是句子级上的自回归模型。
3.基于知识蒸馏(knowledge distillation)的非自回归,由于自回归模型和非自回归模型的结构相差不大,因此完全可以将善于建模的自回归模型作为老师,非自回归模型可以逐块的学习前者的分布。这样,模型既可以获得非自回归的高速性能,又不会遭受相对较低的翻译性能的困扰。
丢失了序列信息的非自回归模型如何取得与自回归模型相当的性能是目前研究的关键问题。引入额外信息的非自回归模型可能会提升性能,但势必会减慢推理速度。
非自回归生成就是一次性生成多个字符。非自回归生成示例如图2所示。
假设把目标字符集y分为若干子集{y}1,{y}2,…,{y}p,且满足
那么非自回归生成就可以表示为:
特别地,若p=1,就要一次性生成所有字符。非自回归生成可以降低解码所需要的时间,但是它的问题是模型学习联合概率p({y}i∣{y}<i,x)更加困难,这就导致其结果通常不如自回归方法。
非自回归假设生成的目标句子的每个词都是完全独立的,但由于单词之间存在着依赖关系,所以自回归模型在翻译质量上与自回归模型有差距,主要表现为模型在长句上的翻译效果较差,译文中通常包含较多的重复词和漏译错误。因为不同语言有各自不同的语序,所以蒙汉两种语言在形式、结构、特征、语法和构成上有很大的差异,这种差异也导致了翻译效果较差。蒙古语作为黏着语的独特之处在于,它是通过在词根的前面、中间和后面添加其他构词成分来创建新的单词。蒙古语的这种特点致使蒙古语词汇形态变化复杂,因此,未登录词现象非常普遍。
而且现有的自回归和非自回归模型通常使用交叉熵损失进行训练,交叉熵是一个严格的损失函数,预测不在位置的单词都会受到惩罚,即使是编辑距离很小的输出序列。自回归模型会避免这种惩罚,因为单词是根据句子生成的,而非自回归模型无法获知这个信息。
发明内容
综上,由于自回归翻译模型每一步都依赖于之前的结果,这会导致并行性的降低,为了克服该缺点,本发明的目的在于提供一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,为了缓解非自回归独立性假设过强的问题,提出了环顾生成,即在生成字符的时候对每个位置,首先预测它周围可能会得到的字符,给出了一个在当前位置生成的先验,减少了重复生成的可能,并且在运行解码器的每一层,对每个位置都让它去关注整个词表,得到可能生成的字符,在解码的时候,采用动态双向解码,而不是取每个位置概率最大的那个字符,从而得到句子级别的更好的采样结果。在训练过程中,使用对齐交叉熵作为非自回归模型的损失函数,其使用一个可微的动态规划分配损失,寻找目标和预测词条之间可能的最佳单调对齐。通过以上方法,在解码速度加快的同时,提升了翻译质量。
为了实现上述目的,本发明采用的技术方案是:一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,基于编码器-目标长度预测器-解码器的翻译模型,采用改进的非自回归方法提升蒙汉神经机器翻译的速度和并行性,并在训练过程中使用对齐交叉熵作为损失函数,其中所述改进的非自回归方法为:在解码时,首先使用位置嵌入,然后通过环顾解码和动态双向解码进行解码,并且在解码器的每一层均使用词汇注意力,通过上述进行改进的非自回归方法提升了蒙汉神经机器翻译的速度和并行性。
优选地,在翻译之前,使用字节编码技术(BPE)进行预处理以提高神经网络的准确率,所述字节编码技术是切分蒙语语料,即,对不同粒度的蒙语语料进行切割分离,以改善蒙语语料的稀疏性问题,同时找出预处理后的蒙语语料的语言特征,在训练的时融入预处理后的蒙语语料的语言特征。由于蒙语的平行语料库小,字节编码技术可以有效缓解未登录词问题。
优选地,所述解码器共六层,分别为:Masked Self-Attention、Multi-headAttention、Feed forward和三层Add&Norm。
优选地,所述编码器遵循Transformer架构,给定源语言x={x1,x2,…,xi,…,xn},得到目标语言y={y1,y2,…,yi,…ym},n和m分别为源语言的长度和目标语言的长度,xi是第i个位置的源语言词条,yi是第i个位置的目标语言词条。
所述环顾解码是在正式生成词条之前,对每个位置先预测其附近的其他位置可能会生成哪些字符,得到先验信息,然后结合该先验信息去生成当前位置的词条。
优选地,对于第i个位置,解码器首先通过公式(1)和(2)预测其左侧词条yi,l和右侧词条yi,r:
p(yi,r∣x)=softmax(Wr(zi+pi+1)+br) (1)
p(yi,l∣x)=softmax(Wl(zi+pi-1)+bl) (2)
然后,使用两个门控ci,l和ci,r将先验信息输入到第i个位置,所述两个门控在预测yi时考虑保存或者遗忘相邻词条的信息,输入门决定了有多少信息需要保存,遗忘门决定了有多少信息需要丢弃,即公式(3)和(4):
ci,l=σ(Wl(wi,l+pi-1)+bl) (3)
ci,r=σ(Wr(wi,r+pi+1)+br) (4)
接着,按照公式(5)进行向量拼接:
其中,Wr为第i个位置右边词条的特征向量,Wl为第i个位置左边词条的特征向量,zi是第i个位置的特征向量,bl为第i个位置左边词条的偏置,br为第i个位置右边词条的偏置,pi+1为第i+1个位置的位置编码,pi-1为第i-1个位置的位置编码,p(yi,r∣x)为解码时得到yi,r的概率,p(yi,l∣x)为解码时得到yi,l的概率;σ是sigmoid激活函数,wi,l和wi,r为关于xi,l和xi,r的词嵌入表示,xi,l和xi,r分别为输入x在第i个位置左边和右边的词条;为拼接后的第i个位置的特征向量,表示串联操作,⊙表示逐元素乘法;
最后,结合上述先验信息,生成第i个位置的词条。
优选地,所述位置嵌入为相对位置嵌入和绝对位置嵌入,在解码时同时使用,相对位置嵌入针对自注意力机制中键和查询之间的不同偏移量学习不同的嵌入方式,绝对位置嵌入对第i个位置使用可学习的位置嵌入pi。
优选地,所述词汇注意力是将自注意力机制扩展到期望生成的字符上,以实现任意距离字符间的交互,所述解码器的输入是V(0),第i层产生的特征是V(i),使解码器中的特征向量去关注词条的表示矩阵W,根据公式(6)计算第i层第j个位置上由词汇注意力加权得到的词汇表示
为第i层第j个位置上的特征向量,对所有词条进行该计算,得到词汇关注特征向量A(i),然后将词汇关注特征向量A(i)与原来的解码器特征向量进行串联操作,拼接起来得到一组特征向量[V(i);A(i)],将[V(i);A(i)]送到下一层得到V(i+1)。
优选地,所述动态双向解码是在每一轮中,对上一轮解码的词条左右的词重新预测,迭代R次得到最终的句子y(R)。基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法成功地对词条及其在解码序列中的顺序进行建模,从而大大减少了多模态问题的负面影响。
优选地,所述目标长度预测器中,预测目标长度代表了解码器对输出的规划,在有目标长度预测期的基础上进行解码可以得到更准确的目标语言y。
与现有技术相比,本发明的有益效果是:
1、本发明采用基于环顾解码和词汇关注的非自回归蒙汉神经机器翻译模型,但不再使用RNN或是CNN作为序列建模机制,而是使用了词汇注意力机制,从而更容易捕获“长距离依赖信息”。
2、本发明采用非自回归模型打破了生成时的串行顺序,一次能够解码出整个目标句子,从而解决自回归模型所带来的问题,和自回归相比,非自回归生成就是一次性生成多个字符,非自回归生成可以大大降低解码所需要的时间。
3、蒙古语属于黏着语,有限的词干和词缀有很多种结合的方法。本发明发明通过使用环顾生成,减少重复生成的可能。
4、蒙汉结构和语法存在差异,蒙语大量词语调序问题,导致词语的位置频繁改变,本发明通过使用词汇注意力,在运行解码器的每一层,对每个位置都让它去关注整个词表,得到可能生成的字符,通过词汇注意力,解码器可以使得各个位置预期产生的字符交互,从而降低重复生成的可能,同时,这个方法也不需要引入额外的参数。
5、在解码时,采用动态双向解码,从而得到蒙语句子级别的更好的采样结果。
6、本发明使用字节编码技术(BPE)。蒙语可用于实验的平行语料库小,字节编码技术可以有效缓解未登录词问题。
7、本发明用对齐交叉熵作为非自回归模型的损失函数,减轻了词序错误的惩罚,减少了多模态问题,并且在不修改模型或解码算法的情况下显著提高了性能。
附图说明
图1是自回归生成的示例图。
图2是非自回归生成的示例图。
图3是本发明基于环顾解码和词汇关注的非自回归蒙汉神经机器翻译模型框架图。
图4是模型结构图。
图5是环顾解码的示例图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
参考图3,本发明一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,基于编码器-目标长度预测器-解码器的翻译模型,采用改进的非自回归方法提升蒙汉神经机器翻译的速度和并行性,并在训练过程中使用对齐交叉熵作为损失函数。改进的非自回归方法具体为:在解码时首先使用位置嵌入,然后通过环顾解码和动态双向解码进行解码,而且在运行解码器的每一层(解码器共六层,分别为:Masked Self-Attention、Multi-headAttention、Feed forward和三层Add&Norm),均使用了词汇注意力。通过以上方法,在蒙汉翻译过程中,加快解码速度的同时,也提升了翻译质量。
本发明的具体流程中,在翻译之前,需先进行语料预处理以提高神经网络的准确率。
蒙文语料预处理:蒙古语属于黏着语,有限的词干和词缀有很多种组合的办法,为了提高蒙汉翻译的准确性,需要进行分词预处理,本发明使用字节编码技术(BPE),通过切分蒙语语料,即,对不同粒度的蒙语语料进行切割分离,以改善蒙语语料的稀疏性问题,同时找出预处理后的蒙语语料的语言特征,在训练的时融入预处理后的蒙语语料的语言特征。BPE算法的主要目的是压缩数据,BPE算法被描述为一个迭代过程,用不出现在该字符中的字符替换字符串中最频繁的字符。由于蒙语的平行语料库小,BPE算法预处理蒙古语语料库仅分割语料库中的不常用词,从而增加不常用词的共现次数,这减轻了蒙汉翻译中未登录词的问题。
汉语语料预处理:本发明利用jieba对中文进行分词,因为模型训练需要对汉语语料库进行预处理。
本发明所述的环顾解码,是在正式生成词条之前,对每个位置先预测其附近的其他位置可能会生成哪些字符,得到先验信息,然后结合该先验信息去生成当前位置的词条。
本发明编码器遵循Transformer架构,由Multi-head Attention、Add&Norm、Feedforward、Add&Norm构成,给定源语言x={x1,x2,…,xi,…,xn},得到目标语言y={y1,y2,…,yi,…ym},n和m分别为源语言的长度和目标语言的长度,xi是第i个位置的源语言词条,yi是第i个位置的目标语言词条。
输入经过编码层之后,分别生成不同的语义编码,传送给右侧的目标长度预测器,预测的长度是在解码过程中通过预测生成EOS符号隐式定义的,但在非自回归训练方式中目标序列长度需要事先确定,然后再并行地生成其中每一个单词,非自回归训练方式在解码时通过一个隐变量来生成每一时刻的结果,使得整个解码过程独立并行,隐变量是通过复制源序列来确定的,本发明定义一个Fertility Predictor来预测源序列中每个词在复制过程中被复制多少次,将源序列中每个词的表示映射到一个离散空间中,得到每个词将被复制的次数,将所有单词的复制次数相加即得到预测的目标长度。Fertility Predictor把无监督训练问题减少到两个有监督训练,减少了模式空间,并且Fertility Predictor提供了一种强大的方式来调节解码过程,允许模型通过在Fertility Predictor空间上进行采样来生成不同的翻译和完整的对齐统计。
解码器由Masked Self-Attention、Multi-head Attention、Feed forward和三层Add&Norm构成,在解码时使用环顾解码、位置嵌入、词汇注意力和动态双向解码。
解码时首先要解决的问题是解决位置词条不匹配。由于最终输出是在最后一个解码器层进行解码的,因此本发明提出了一种环顾解码方案,其中对于每个位置,要求解码器在生成词条之前首先其左侧和右侧预测词条,本发明一个实施例的模型结构如图4所示,源语言的词条“猫”对应的Fertility的值是1,因此词条“猫”将会作为输入出现在解码器端一次,生成Fertility值以后,解码器端的输入和句子的长度也就确定了,即所有Fertility值的总和,在训练时,使用外部的对齐工具(fast align)来生成Fertility信息,在有目标长度预测期的基础上进行解码可以得到更准确的目标语言相应的环顾解码如图5所示,对第一个位置,通过环顾解码得到的预测是“[BOS]”和“很”,对第二个位置,通过环顾解码得到的预测是“猫”和“可爱”,对第三个位置,通过环顾解码得到的预测是“猫”和“可爱”“很”和“[EOS]”,然后通过合并两侧词条来解码当前位置的词条,环顾解码会阻止预测与其相邻词条相同的词条,就得到了“猫很可爱”,因此对于词条位置关系至关重要。
在解码时正式生成词条之前,对每个位置先预测它附近的其他位置“可能”会生成哪些字符,然后再结合这种先验信息去生成自己位置的字符。对于对于第i个位置,解码器首先通过公式(1)和(2),预测其左侧词条yi,l和右侧词条yi,r:
p(yi,r∣x)=softmax(Wr(zi+pi+1)+br) (1)
p(yi,l∣x)=softmax(Wl(zi+pi-1)+bl) (2)
然后,使用两个门控ci,l和ci,r将先验信息输入到第i个位置,这两个门控在预测yi时应考虑相邻词条的哪些信息,输入门决定了有多少信息需要保存,遗忘门决定了有多少信息需要丢弃,即公式(3)和(4):
ci,l=σ(Wl(wi,l+pi-1)+bl) (3)
ci,r=σ(Wr(wi,r+pi+1)+br) (4)
接着,按照公式(5)进行向量拼接:
最后,结合上述先验信息,生成第i个位置的词条。
其中,Wr为第i个位置右边词条的特征向量,Wl为第i个位置左边词条的特征向量,zi是第i个位置的特征向量,bl为第i个位置左边词条的偏置,br为第i个位置右边词条的偏置,pi+1为第i+1个位置的位置编码,pi-1为第i-1个位置的位置编码,p(yi,r∣x)为解码时得到yi,r的概率,p(yi,l∣x)为解码时得到yi,l的概率;σ是sigmoid激活函数,wi,l和wi,r为关于xi,l和xi,r的词嵌入表示,xi,l和xi,r分别为输入x在第i个位置左边和右边的词条;为拼接后的第i个位置的特征向量,表示串联操作,⊙表示逐元素乘法;
基于环顾解码生成的句子不一定就是最终要得到的句子,这是因为只选择了一种可能,只使用当前位置自身产生的字符,这被称为Greedy解码。而实际上,每个位置其实有三个候选项:当前位置解码生成的、左边位置提前预测的、和右边位置提前预测的,在实际生成句子的时候,就可以在这几个候选项中选择。一个简单的方法是,考虑所有可能的组合,然后选择概率最大的那一个,这被称为Link-Rescore。然而Link-Rescore的复杂度较高,本发明转而考虑改进Greedy,本发明对每一轮解码中概率比较低的的词条重新预测。最简单的方法就是在每一轮中,对上一轮解码的词条左右的词重新预测,迭代R次得到最终的句子y(R)。
动态双向解码策略,可以高效地提高翻译质量,从而进一步提高翻译模型的性能。所提出的框架成功地对词条及其在解码序列中的顺序进行建模,从而大大减少了多模态问题的负面影响。
vanilla Transformer中的绝对位置嵌入可能会导致生成重复标记或丢失标记,因为这些位置未明确建模。因此,本发明在非自回归解码器中同时使用相对和绝对位置嵌入。相对位置嵌入针对自注意力机制中“键”和“查询”之间的不同偏移量学习不同的嵌入方式,绝对位置嵌入对第i个位置使用可学习的位置嵌入pi。上述位置嵌入的原则是如果两个词条的位置很大,则这两个词条之间准确的相对距离就没有意义。使边的信息传播到子层的公式为:
zi是线性变换输入元素x的加权和,αij是权重系数,xj是第j个位置的输入,WV是自注意力机制中“值”的参数矩阵,是自注意力机制中“值”的权重系数,同时也要在确定兼容性时考虑边,边eij的计算公式为:
尽管上述位置嵌入策略已集成到解码器中,但它们并未完全解决解码过程中丢失词条和重复词条的问题。这是因为:位置嵌入仅关心“位置”本身,而不关心“词条”本身;位置和词条之间的关系没有明确记录。在环顾解码中,每个字符只能预测它左右可能的字符,无法预测远处的字符,通过扩大距离预测远处字符会导致计算的指数增长。为了解决这个问题,仿照了自注意力机制。自注意力机制可以实现任意距离字符间的交互,把这个思想扩展到期望生成的字符上,同样可以实现,这种方法为词汇注意力。引入词汇注意力后,其中中间解码器层中的每个位置都关注词汇中的所有标记,以猜测哪些标记“已准备好”生成,然后汇总先验信息以在解码过程中对远处字符进行预测。
词汇注意力是将自注意力机制扩展到期望生成的字符上,以实现任意距离字符间的交互,解码器的输入是V(0),第i层产生的特征是V(i),使解码器中的特征向量去关注词条的表示矩阵W,根据公式(6)计算第i层第j个位置上由词汇注意力加权得到的词汇表示
为第i层第j个位置上的特征向量,对所有词条进行该操作,得到词汇关注特征向量A(i),然后将词汇关注特征向量A(i)和原来的解码器特征向量进行串联操作(即),拼接起来得到一组特征向量[V(i);A(i)],将[V(i);A(i)]送到下一层得到V(i+1)。通过词汇注意力,解码器可以使得各个位置预期产生的字符交互,从而降低重复生成的可能,同时这个方法不需要引入额外的参数。
目标长度预测器中,预测目标长度代表了解码器对输出的规划,在有目标长度预测期的基础上进行解码可以得到更准确的目标语言y。
本发明可成功地对词条及其在解码序列中的顺序进行建模,从而大大减少了多模态问题的负面影响。本发明在非自回归机器翻译中同时添加环顾解码、词汇注意力、位置嵌入和动态双向解码的方法,环顾解码主要解决非自回归独立性假设过强的问题,可是在环顾生成中,每个字符只能预测它左右可能的字符,无法预测远处的字符,通过扩大距离预测远处字符会导致计算的指数增长,词汇注意力实现了任意距离词条间的交互,环顾解码和词汇注意力的结合提高了翻译质量;而且基于环顾生成的句子不一定就是最终要得到的句子,这是因为只选择了一种可能,动态双向解码迭代多次进行解码,不是取每个位置概率最大的那个字符,从而得到句子级别的更好的采样结果,动态双向解码对环顾解码存在的问题进行了改进;相对位置嵌入和绝对位置嵌入,更好的利用了词汇注意力机制中“键”和“查询”,根据“键”和“查询”之间的不同偏移量学习不同的嵌入方式;在上述方法改进了非自回归的翻译质量的基础上,训练时使用对齐交叉熵作为损失函数,减轻了词序错误的惩罚,并且在不修改模型和解码算法的情况下显著提高了性能。
训练:在训练时,使用了对齐交叉熵作为非自回归模型的损失函数,其使用一个可微的动态规划分配损失,寻找目标和预测词条之间可能的最佳单调对齐,减轻了词序错误的惩罚,减少了多模态性,并且在不修改模型或解码算法的情况下显著提高了性能。通过忽略绝对位置、关注相对顺序和词法匹配,为非自回归模型提供更准确的训练。
设Y为含n个词条的目标序列,目标序列表示为Y1,…,Yn,P为含m个词条的预测序列,预测序列表示为P1,…,Pm,目标是在Y和P之间找到一个单调对齐以最小化交叉熵损失,从而将惩罚集中在词法错误上,而不是位置错误上。
对齐函数α将目标位置映射到预测位置,即α:{1,…,n}→{1,…,m},假设这个对齐是单调的,当且仅当i≤j和α(i)≤α(j),定义对齐交叉熵损失函数为:
损失函数的第一项是Y和P之间对齐部分的交叉熵,第二项是对未对齐部分预测的惩罚。ε是词汇表中特殊概率分布的词条,但不会出现在最终的输出字符串中。最后的对齐交叉熵损失是最小化所有可能的单调对齐的条件损失:
通过上述训练后,得到最优的模型参数。
Claims (9)
1.一种基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,基于编码器-目标长度预测器-解码器的翻译模型,采用改进的非自回归方法提升蒙汉神经机器翻译的速度和并行性,并在训练过程中使用对齐交叉熵作为损失函数,其中所述改进的非自回归方法为:在解码时,首先使用位置嵌入,然后通过环顾解码和动态双向解码进行解码,并且在解码器的每一层均使用词汇注意力,通过上述进行改进的非自回归方法提升了蒙汉神经机器翻译的速度和并行性。
2.根据权利要求1所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,在翻译之前,使用字节编码技术(BPE)进行预处理以提高神经网络的准确率,所述字节编码技术是切分蒙语语料,即,对不同粒度的蒙语语料进行切割分离,以改善蒙语语料的稀疏性问题,同时找出预处理后的蒙语语料的语言特征,在训练的时融入预处理后的蒙语语料的语言特征。由于蒙语的平行语料库小,字节编码技术可以有效缓解未登录词问题。
3.根据权利要求1所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,所述解码器共六层,分别为:Masked Self-Attention、Multi-head Attention、Feed forward和三层Add&Norm。
4.根据权利要求1所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,所述编码器遵循Transformer架构,给定源语言x={x1,x2,…,xi,…,xn},得到目标语言y={y1,y2,…,yi,…ym},n和m分别为源语言的长度和目标语言的长度,xi是第i个位置的源语言词条,yi是第i个位置的目标语言词条。
所述环顾解码是在正式生成词条之前,对每个位置先预测其附近的其他位置可能会生成哪些字符,得到先验信息,然后结合该先验信息去生成当前位置的词条。
5.根据权利要求4所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,对于第i个位置,解码器首先通过公式(1)和(2)预测其左侧词条yi,l和右侧词条yi,r:
p(yi,r∣x)=softmax(Wr(zi+pi+1)+br) (1)
p(yi,l∣x)=softmax(Wl(zi+pi-1)+bl) (2)
然后,使用两个门控ci,l和ci,r将先验信息输入到第i个位置,所述两个门控在预测yi时考虑保存或者遗忘相邻词条的信息,输入门决定了有多少信息需要保存,遗忘门决定了有多少信息需要丢弃,即公式(3)和(4):
ci,l=σ(Wl(wi,l+pi-1)+bl) (3)
ci,r=σ(Wr(wi,r+pi+1)+br) (4)
接着,按照公式(5)进行向量拼接:
其中,Wr为第i个位置右边词条的特征向量,Wl为第i个位置左边词条的特征向量,zi是第i个位置的特征向量,bl为第i个位置左边词条的偏置,br为第i个位置右边词条的偏置,pi+1为第i+1个位置的位置编码,pi-1为第i-1个位置的位置编码,p(yi,r∣x)为解码时得到yi,r的概率,p(yi,l∣x)为解码时得到yi,l的概率;σ是sigmoid激活函数,wi,l和wi,r为关于xi,l和xi,r的词嵌入表示,xi,l和xi,r分别为输入x在第i个位置左边和右边的词条;为拼接后的第i个位置的特征向量,表示串联操作,⊙表示逐元素乘法;
最后,结合上述先验信息,生成第i个位置的词条。
6.根据权利要求1或5所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,所述位置嵌入为相对位置嵌入和绝对位置嵌入,在解码时同时使用,相对位置嵌入针对自注意力机制中键和查询之间的不同偏移量学习不同的嵌入方式,绝对位置嵌入对第i个位置使用可学习的位置嵌入pi。
8.根据权利要求1所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,所述动态双向解码是在每一轮中,对上一轮解码的词条左右的词重新预测,迭代R次得到最终的句子y(R)。
9.根据权利要求1所述基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法,其特征在于,所述目标长度预测器中,预测目标长度代表了解码器对输出的规划,在有目标长度预测期的基础上进行解码可以得到更准确的目标语言。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011393647.7A CN112417901A (zh) | 2020-12-03 | 2020-12-03 | 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011393647.7A CN112417901A (zh) | 2020-12-03 | 2020-12-03 | 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112417901A true CN112417901A (zh) | 2021-02-26 |
Family
ID=74829918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011393647.7A Pending CN112417901A (zh) | 2020-12-03 | 2020-12-03 | 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112417901A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095092A (zh) * | 2021-04-19 | 2021-07-09 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
CN113516973A (zh) * | 2021-09-13 | 2021-10-19 | 珠海亿智电子科技有限公司 | 基于双向上下文的非自回归语音识别网络、方法及设备 |
CN113554021A (zh) * | 2021-06-07 | 2021-10-26 | 傲雄在线(重庆)科技有限公司 | 一种智能化印章识别方法 |
CN113657124A (zh) * | 2021-07-14 | 2021-11-16 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
CN113947060A (zh) * | 2021-10-19 | 2022-01-18 | 北京有竹居网络技术有限公司 | 文本转换方法、装置、介质及电子设备 |
CN114091482A (zh) * | 2021-10-20 | 2022-02-25 | 昆明理工大学 | 融合成分注意力的非自回归机器翻译方法 |
EP4116865A3 (en) * | 2021-11-16 | 2023-04-19 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for training non-autoregressive translation model |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674646A (zh) * | 2019-09-06 | 2020-01-10 | 内蒙古工业大学 | 一种基于字节对编码技术的蒙汉机器翻译系统 |
CN110852116A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 非自回归神经机器翻译方法、装置、计算机设备和介质 |
CN111382582A (zh) * | 2020-01-21 | 2020-07-07 | 沈阳雅译网络技术有限公司 | 一种基于非自回归的神经机器翻译解码加速方法 |
-
2020
- 2020-12-03 CN CN202011393647.7A patent/CN112417901A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674646A (zh) * | 2019-09-06 | 2020-01-10 | 内蒙古工业大学 | 一种基于字节对编码技术的蒙汉机器翻译系统 |
CN110852116A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 非自回归神经机器翻译方法、装置、计算机设备和介质 |
CN111382582A (zh) * | 2020-01-21 | 2020-07-07 | 沈阳雅译网络技术有限公司 | 一种基于非自回归的神经机器翻译解码加速方法 |
Non-Patent Citations (3)
Title |
---|
XIAOYA LI 等: "LAVA NAT: A Non-Autoregressive Translation Model with Look-Around Decoding and Vocabulary Attention", 《ARXIV.ORG/PDF/2002.03084.PDF》 * |
朱晨光: "《机器阅读理解:算法与实践》", 31 March 2020, 机械工业出版社 * |
香侬科技: "效果比肩自回归:香侬科技提出基于"环顾"解码和字典关注的非效果比肩自回归:香侬科技提出基于"环顾"解码和字典关注的非自回归模型", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/112142823》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095092A (zh) * | 2021-04-19 | 2021-07-09 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
CN113554021A (zh) * | 2021-06-07 | 2021-10-26 | 傲雄在线(重庆)科技有限公司 | 一种智能化印章识别方法 |
CN113554021B (zh) * | 2021-06-07 | 2023-12-15 | 重庆傲雄在线信息技术有限公司 | 一种智能化印章识别方法 |
CN113657124A (zh) * | 2021-07-14 | 2021-11-16 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
CN113657124B (zh) * | 2021-07-14 | 2023-06-30 | 内蒙古工业大学 | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 |
CN113516973A (zh) * | 2021-09-13 | 2021-10-19 | 珠海亿智电子科技有限公司 | 基于双向上下文的非自回归语音识别网络、方法及设备 |
CN113516973B (zh) * | 2021-09-13 | 2021-11-16 | 珠海亿智电子科技有限公司 | 基于双向上下文的非自回归语音识别网络、方法及设备 |
CN113947060A (zh) * | 2021-10-19 | 2022-01-18 | 北京有竹居网络技术有限公司 | 文本转换方法、装置、介质及电子设备 |
CN114091482A (zh) * | 2021-10-20 | 2022-02-25 | 昆明理工大学 | 融合成分注意力的非自回归机器翻译方法 |
EP4116865A3 (en) * | 2021-11-16 | 2023-04-19 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for training non-autoregressive translation model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112417901A (zh) | 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 | |
CN110348016B (zh) | 基于句子关联注意力机制的文本摘要生成方法 | |
CN111382582B (zh) | 一种基于非自回归的神经机器翻译解码加速方法 | |
CN107967262B (zh) | 一种神经网络蒙汉机器翻译方法 | |
CN112052692B (zh) | 一种基于语法监督和深度强化学习的蒙汉神经机器翻译方法 | |
Zhang et al. | Deep neural networks in machine translation: An overview. | |
CN111160050A (zh) | 一种基于上下文记忆网络的篇章级神经机器翻译方法 | |
CN112559702B (zh) | 基于Transformer的土木建筑信息领域自然语言问题生成方法 | |
CN110674646A (zh) | 一种基于字节对编码技术的蒙汉机器翻译系统 | |
CN109522403A (zh) | 一种基于融合编码的摘要文本生成方法 | |
CN113468895A (zh) | 一种基于解码器输入增强的非自回归神经机器翻译方法 | |
CN115062140A (zh) | 一种bert sum和pgn融合的供应链生态区长文档摘要生成方法 | |
Zhang et al. | Named entity recognition method in health preserving field based on BERT | |
CN116720531B (zh) | 基于源语言句法依赖和量化矩阵的蒙汉神经机器翻译方法 | |
CN113657123A (zh) | 基于目标模板指导和关系头编码的蒙语方面级情感分析方法 | |
CN116663578A (zh) | 一种基于策略梯度方法改进的神经机器翻译方法 | |
CN115759042A (zh) | 一种基于句法感知提示学习的句子级问题生成方法 | |
CN114238649A (zh) | 一种常识概念增强的语言模型预训练方法 | |
CN112580370A (zh) | 一种融合语义知识的蒙汉神经机器翻译方法 | |
CN113657125B (zh) | 一种基于知识图谱的蒙汉非自回归机器翻译方法 | |
CN114757184A (zh) | 实现航空领域知识问答的方法和系统 | |
CN112380882B (zh) | 一种具有误差修正功能的蒙汉神经机器翻译方法 | |
CN113392656A (zh) | 一种融合推敲网络和字符编码的神经机器翻译方法 | |
CN115017924B (zh) | 跨语际语言翻译的神经机器翻译模型构建及其翻译方法 | |
Huang et al. | Attention-based bidirectional long short-term memory networks for Chinese named entity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210226 |