CN111178093B - 一种基于堆叠算法的神经机器翻译系统训练加速方法 - Google Patents

一种基于堆叠算法的神经机器翻译系统训练加速方法 Download PDF

Info

Publication number
CN111178093B
CN111178093B CN201911323604.9A CN201911323604A CN111178093B CN 111178093 B CN111178093 B CN 111178093B CN 201911323604 A CN201911323604 A CN 201911323604A CN 111178093 B CN111178093 B CN 111178093B
Authority
CN
China
Prior art keywords
coding
block
output
layer
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911323604.9A
Other languages
English (en)
Other versions
CN111178093A (zh
Inventor
杜权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Yayi Network Technology Co ltd
Original Assignee
Shenyang Yayi Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Yayi Network Technology Co ltd filed Critical Shenyang Yayi Network Technology Co ltd
Priority to CN201911323604.9A priority Critical patent/CN111178093B/zh
Publication of CN111178093A publication Critical patent/CN111178093A/zh
Application granted granted Critical
Publication of CN111178093B publication Critical patent/CN111178093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种基于堆叠算法的深层神经机器翻译系统的训练加速方法,步骤为:构造包含1个编码块的编码端和解码端和前作Transformer模型;将用稠密向量表示的句子输入编码端和解码端,并将编码端的输入写入记忆网络;每完成一个编码块的运算后将输出的向量写入记忆网络,访问记忆网络进行线性聚合后得到当前编码块的输出;训练当前的模型;拷贝顶层的编码块参数构造新的编码块并堆叠在当前的编码端之上,构造一个包含2个编码块的模型;重复此过程构造具有更深编码端的神经机器翻译系统训练至目标层数直到收敛;利用训练完的模型进行翻译。本发明方法可以训练具有48层编码层的网络,并取得1.4倍的加速比的同时提升了模型的性能。

Description

一种基于堆叠算法的神经机器翻译系统训练加速方法
技术领域
本发明涉及一种神经机器翻译技术,具体为基于堆叠算法的神经机器翻译系统训练加速方法。
背景技术
机器翻译(英语:Machine Translation,经常简写为MT)属于计算语言学的范畴,是计算语言学的一个重要分支,具有十分重要的科学研究价值。它是利用计算机将一种语言转换成另一种语言的过程。同时,机器翻译又具有重要的实用价值。随着经济全球化及互联网的飞速发展,机器翻译技术在促进政治、经济、文化交流等方面起到越来越关键的作用。
机器翻译技术的发展一直与计算机技术、信息论、语言学等学科的发展紧密相随。从早期的词典匹配,到词典结合语言学专家知识的规则翻译,再到基于语料库的统计机器翻译,一直到现在的神经机器翻译。随着计算机计算能力的提升和多语言信息的爆发式增长,机器翻译技术逐渐走出象牙塔,开始为普通用户提供实时便捷的翻译服务。
目前最被广为应用的神经机器翻译系统通常采用基于神经网络的端到端的编码器-解码器框架,其中性能最强大的则是基于自注意力机制的Transformer模型结构,在多个语种的上取得了最佳的翻译性能。
Transformer由基于自注意力机制的编码器和解码器组成。标准的Transformer编码器如图3所示由六层堆叠的编码层组成,解码器同样包括六层解码层。整个模型中抛弃了传统的RNN和CNN,完全由注意力机制组成。更准确的说Transformer由且仅由注意力机制和前馈神经网络组成。相比于RNN由于Transformer抛弃了只能顺序计算的限制,提高了系统的并行能力。同时由于并行计算的处理方式,也缓解了顺序计算中的长期依赖难以处理的现象。
Transformer的编码层包括自注意力层和前馈神经网络组成。自注意力对编码端输出的用稠密向量表示的句子进行特征提取后送入前馈神经网络。解码器相对于解码器来说在自注意力层和前馈神经网络层之间增加了一个编码-解码注意力层,来对源语和目标语之间的映射关系进行建模。
同时Transformer在不同子层之间还引入了层正则化和残差连接,将每个子层的输出和输入相加后经过层正则化操作进行放缩后传入下一子层。
科学研究人员发现,增强模型的容量能有效提升模型的性能。目前针对Transformer模型,增强模型容量的方法包括是模型变得更宽,即增加隐层的大小,Transformer-Big就是使用这种方式来提高模型的性能,或者通过不断堆叠编码器层增加模型的深度来增加模型容量。然而在传统的Transformer模型当中,如图3所示,简单的堆叠编码层会增加梯度消失或爆炸的风险。前人也针对这一现象提出了一些解决方案,最有效的就是将层正则化的位置提前,即在将输入送入子层前进行正则化处理,残差连接将正则化前的输入和子层的输出累加,被称为前作Transformer模型。
但是随着模型深度的增加带来了参数量的增长和优化难度的增加。同时对设备的要求也越来越高。训练一个深层网络往往需要大量的时间。所以如何提高训练一个深层神经机器翻译模型效率,压缩训练的时间成为要解决的问题。
发明内容
针对现有深层神经机器翻译系统训练对设备要求高,训练时间长以及收敛速度慢等不足,本发明要解决的技术问题是提供一种基于堆叠算法的神经机器翻译系统训练加速方法。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种基于堆叠算法的深层神经机器翻译系统的训练加速方法,其特征在于包括以下步骤:
1)基于自注意力机制的Transformer模型,构造包含一个编码块的编码端和解码端,并引入记忆网络以存储编码器端不同块的输出,构造基于动态线性聚合的前作Transformer模型;
2)对源语和目标语构成的双语平行句对进行分词,得到源语序列和目标语序列,并转换成计算机能识别的稠密向量;
3)将用稠密向量表示的句子输入编码端和解码端,并将编码端的稠密向量写入基于动态线性聚合的前作Transformer模型的记忆网络中;
4)编码端每完成一个编码块的计算后将当前编码块的输出写入记忆网络;
5)在写入记忆网络后访问记忆网络,基于常微分方程的线性多步方法对记忆网络中存储的稠密向量和所有编码块输出的语义向量进行聚合,得到一个融合当前所有编码块输出特征的隐层表示,该隐层表示经过层正则化操作获得一个服从标准正态分布的语义向量作为下一编码块的输入,完成所有编码块网络的计算后,获得编码端的输出结果;
6)解码器端的每个解码层在接收到层输入后联合编码端的输出进行运算后传递给下一层,直到得到顶层的输出,对解码端的输出结果进行线性变换映射到目标端词表空间,使用softmax归一化操作得到目标语的词汇分布,通过计算词汇分布与真实标签数据间的差异来更新模型参数,训练当前的基于动态块输出融合的前作Transformer模型;
7)对当前的包含n个编码块的模型中编码端参数进行复用,取最顶层的一个编码块,将当前块的参数复制后构造一个新的编码块,将新的解码块堆叠至当前的编码端上,构造一个包含n+1和编码块的编码器的模型;
8)重复上述步骤3)-7)进行堆叠,逐步构造具有更深编码端的神经机器翻译系统训练至目标层数直到收敛,完成模型的训练;
9)利用训练完的模型进行翻译。
所述步骤4)中编码块的计算具体为:
401)在每个编码块中每个编码层对输入进行层正则化操作得到服从标准正态分布的输出后,再输入至自注意力网络,对不同词间的语义联系进行抽取;
402)将自注意力网络正则化前的输入和输出进行残差连接后,将输出向量传递至前馈神经网络;
403)将输出向量送入下一个前馈神经网络子层,并经过与之前同样的正则化操作和残差连接得到前馈神经网络子层的输出,作为当前编码层的输出。
所述步骤5)中对记忆网络中存储的稠密向量和前面所有堆叠块的语义向量进行聚合,得到一个融合各个编码块特征的隐层表示,具体为:
501)将每个编码块的输出向量存入记忆网络,在下一个编码块输入时对记忆网络中存储的所有向量进行加权和,定义一个大小为N*N的权重矩阵W,矩阵中每一行的数值代表每个编码块在计算下一块输入的贡献度;
权重矩阵初始状态为一个下三角矩阵,矩阵的的每一行根据当前需要加权和的向量个数进行平均,表示如下:
其中N为记忆网络的容量;
502)伴随神经网络的训练,神经网络通过反向传播算法更新网络中的参数动态调整权值矩阵W中每一行不同位置权重的大小。
所述步骤7)中参数复用具体为:
对当前堆叠n次的Transformer模型进行训练后,得到具有m×n层编码层(m为编码块中所包含的编码层个数)和6层解码层的Transformer模型,将当前模型中编码器端最顶层的一个编码块的参数复制后构造一个新的包含m层编码层的编码块,同时将当前的块堆叠在已经适当训练的Transformer的编码端之上,即堆叠n+1次,编码端的编码层个数为m×(n+1),将进行动态块输出融合的矩阵进行维度增加一维,采用平均的方式进行初始化。
本发明具有以下有益效果及优点:
1.本发明方法基于Transformer模型通过堆叠的方法可以在更短的时间内训练得到一个深层神经机器翻译系统,同时由于堆叠的方法在前期训练一个浅层的模型能够使用更大的批次优化更少的参数,在整个训练过程中进行加速。
2.本发明为了增强堆叠算法的鲁棒性,缓解堆叠过程中解码端接收信息不一致的问题引入了动态块融合的方法,提升了堆叠模型的性能,使训练过程变得更稳定。
附图说明
图1为深层神经机器翻译系统的堆叠算法示意图;
图2为动态编码块融合的示意图;
图3为传统Transformer中编码层和解码层的结构示意图。
具体实施方式
本发明一种基于堆叠算法的深层神经机器翻译系统的训练加速方法,包括以下步骤:
1)基于自注意力机制的Transformer模型,构造包含一个编码块的编码端和解码端,并引入记忆网络以存储编码器端不同块的输出,构造基于动态线性聚合的前作Transformer模型;
2)对源语和目标语构成的双语平行句对进行分词,得到源语序列和目标语序列,并转换成计算机能识别的稠密向量;
3)将用稠密向量表示的句子输入编码端和解码端,并将编码端的稠密向量写入基于动态线性聚合的前作Transformer模型的记忆网络中;
4)编码端每完成一个编码块的计算后将当前编码块的输出写入记忆网络;
5)在当前编码块输出结果后访问记忆网络,基于常微分方程的线性多步方法对记忆网络中存储的稠密向量和前面所有编码块输出的语义向量进行聚合,得到一个融合各层特征的隐层表示,该隐层表示经过层正则化操作获得一个服从标准正态的语义向量作为下一编码块的输入,完成所有编码块网络的计算后,获得编码端的输出结果;
6)解码器端的每个解码层在接收到层输入后联合编码端的输出进行运算后传递给下一层,直到得到顶层的输出,对解码端的输出结果进行线性变换映射到目标端词表空间,使用softmax归一化操作得到目标语的词汇分布,通过计算词汇分布与真实标签数据间的差异来更新模型参数,适当训练当前的基于动态块输出融合的前作Transformer模型;
7)对当前的包含n个编码块的模型中编码端参数进行复用,取最顶层的一个编码块,将当前块的参数复制后构造一个新的编码块,将新的解码块堆叠至当前的编码端上,构造一个包含n+1和编码块的编码器的模型;
8)重复上述步骤3)-7)进行堆叠,逐步构造具有更深编码端的神经机器翻译系统训练至目标层数直到收敛,完成模型的训练;
9)利用训练完的模型进行翻译。
训练一个深层神经网络没有必要再开始就构建一个深层模型,而是可以从浅层逐步开始训练,当得到一个较为合理的参数状态时进行参数复用,堆叠编码层从而逐渐构造一个深层的神经机器翻译模型。同时为了解决在不断堆叠的过程中解码端接收的信息变化,增强解码端的适应性。本发明中,同时引入了记忆网络对每个堆叠块的输出进行线性聚合。
如图1所示,步骤1)中基于如图3所示的传统的Transformer模型,将层正则化的位置置于子层输入之前构造前作Transformer模型,并将编码端按每m层(本实施例中m=6,即一个编码块包括6个编码层)划分为一个个编码块,同时引入记忆网络用于动态块输出融合。
图2所示是本发明采用的记忆网络用于动态的编码块输出融合,是一种常微分方程中的线性多步的思想,对记忆网络中存储的每个堆叠块的信息进行线性聚合后得到一个新的稠密向量,将它作为下一个堆叠块的输入,每个块内的编码层的输入则采用上一个层的输出。通过这种方法解决了堆叠过程中解码端接受信息不一致的问题,同时增加了堆叠训练时的鲁棒性。
步骤2)中,对源语和目标语端的句对进行分次后得到源语和目标语的单词序列,将每个单词转换为计算机可以识别的向量,便可以将句对转换为稠密向量送入编码端和解码端。同时将源语的稠密向量存入记忆网络中。
训练所使用的双语句对必须是平行语料,源语和目标语一一对应。
具体稠密向量的构造方式为:
对源语和目标语分次后分别统计得到源语和目标语的词典,并对其在各自语言中出现的次数进行统计后过滤低频词汇,对剩下的词汇根据出现频率高低进行排序,并分配各自的索引。并将所有的词转换为one-hot向量,如“我”的索引为2,则将篮球转换为one-hot向量[0.0.1.0…0],维度为词典大小。之后,通过词嵌入的方式将one-hot向量转换为唯一识别的词向量,网络最初构建时通常采用随机初始化的方式,并在训练的过程中不断更新。
由于Transformer的并行机制,不包括语句的顺序信息,所以需要额外引入位置向量标注序列之间的顺序关系。将位置向量与生成的句子表示相加得到最终的源语和目标语的稠密向量
步骤3)将源语序列和目标语序列的稠密向量送入编码端和解码端,同时将源语句的稠密向量存入记忆网络,进行特征提取。
步骤4)编码端每完成一个编码块的计算后将当前编码块的输出写入记忆网络,编码块的计算具体为:
401)在每个编码块中每个编码层对输入进行层正则化操作得到服从标准正态分布的输出后,再输入至自注意力网络,对不同词间的语义联系进行抽取;
402)将自注意力网络正则化前的输入和输出进行残差连接后,将输出向量传递至前馈神经网络;
403)将输出向量送入下一个前馈神经网络子层,并经过与之前同样的正则化操作和残差连接得到前馈神经网络子层的输出,作为当前编码层的输出。
步骤5)中对记忆网络中存储的稠密向量和前面所有叠层的语义向量进行聚合,得到一个融合各层特征的隐层表示,具体为:
501)将每个编码块的输出向量存入记忆网络,在下一个编码块输入时对记忆网络中存储的所有当前块之前所有块的输出进行加权和,定义一个大小为N*N的权重矩阵W,矩阵中每一行的数值代表每个编码块在计算下一块输入的贡献度;
权重矩阵初始状态为一个下三角矩阵,矩阵的的每一行根据当前需要加权和向量的个数进行平均,表示如下:
其中N为记忆网络的容量;
502)在进行第n个堆叠块的输入时,我们使用权重矩阵的第n行对前n个堆叠块输出进行加权和后输入下一个堆叠块,伴随神经网络的训练,神经网络通过反向传播算法更新网络中的参数动态调整权值矩阵W中每一行不同位置权重的大小。
具体操作如图2所示。
步骤6)解码端基于目标语输出的稠密向量和编码端的输出进行特征提取后得到编码端的输出,在经过线性变换为映射到目标端词典大小,在使用softmax进行归一化的操作后得到目标语次点的词汇分布,通过计算预测出的词汇分布与真实分布的差异得到模型的损失来进行模型参数更新,完成当前堆叠的模型的训练。
解码层的具体计算过程如下:
在解码层的输入经过层正则化后得到服从标准正太分布的向量后输入自注意力层进行语义信息的抽取,然后经过残差连接将正则化前的输入和自注意力网络层的输出相加后得到当前子层的输出,与编码层不同的是解码层多了编码-解码注意力机制,编码-解码注意力层接受上一子层的输入和编码端的输出,进行源语和目标语的信息抽取,经过同样的层正则化和残差连接后送入前馈神经网络进行与编码层同样的操作。
步骤7)中本实施例设定每个编码端堆叠块包含6层编码层,在完成n次堆叠后可以得到一个具有6×n层编码层的神经机器翻译系统,在对当前模型进行适当训练后可以得到6×n层的编码层参数,对最顶层的编码块参数进行复用,复制第n个编码块参数构造第n+1个编码块,并将新构造的编码块堆叠在当前的编码器之上,构造一个具有6×(n+1)编码层的神经机器翻译系统,具体的实现过程为:
读取当前已经适当训练的模型的检查点,取出当前检查点中保存的编码端最顶层一个编码块即顶层六层相关的参数取出复制后构造出新的一个编码块的参数,并写入检查点中,然后根据堆叠后的模型结构构造出新的模型后读入检查点中的参数,同时由于新的编码块的加入,需要重新构造权重矩阵W,将矩阵扩充一维,对扩充的一维初始化为1/(n+1)。
步骤8:不断重复上述步骤3-7不断地进行堆叠逐步构造就有更深编码端的神经机器翻译系统训练至目标层数并收敛后完成模型的训练
步骤9:利用训练完的模型进行翻译。
训练一个深层神经网络没有必要再开始就构建一个深层模型,而是可以从浅层逐步开始训练,当得到一个较为合理的参数状态时进行参数复用,堆叠编码层从而逐渐构造一个深层的神经机器翻译模型。同时为了解决在不断堆叠的过程中解码端接收的信息变化,增强解码端的适应性。本发明方法采用了基于堆叠算法的深层神经机器翻译系统训练加速方法,同时引入了记忆网络对每个堆叠块的输出进行线性聚合;
以训练一个具有6×8层编码层的深层神经机器翻译系统为例,首先构建一个6层编码层,6层解码层的前作Transformer模型,设定编码块的大小为6,同时引入记忆网络,存储句子的稠密向量表示和编码块的输出。编码端对记忆网络中的向量线性聚合后输出下一个编码块或解码端,对当前的6层神经网络进行两轮训练后,读取最后一个检查点,拷贝顶层六层编码层的参数,即最上面一个编码块,构造一个新的编码块,将其堆叠在编码端之上,并对记忆网络中的权重矩阵进行维度扩充后,得到一个具有12层编码层,6层解码层的前做Transformer模型并训练两轮,不断地重复训拷贝参数和适当训练的过程,逐渐的增加编码端的层数,而解码端始终维持为6层。最终经过8次堆叠,21轮训练之后,便可以得到一个具有48层编码层,6层解码层的深层神经机器翻译模型。在具有450万数据的wmt-英德数据集上,正常使用前做的方式训练一个48层的深层神经机器翻译系统需要的时间为19.58小时,而使用堆叠式的训练方式则只需要11.75小时便可以完成训练,实现了1.4倍的加速比。同时在性能方面,以Bleu值作为评价指标,在相同的wmt-英德测试集上,直接训练的方式的Bleu分数为30.03,而堆叠训练的方式则在没有损失性能的情况下得到了性能的提升,Bleu分数达到了30.21。
基于Transformer模型通过堆叠的方法可以在更短的时间内训练得到一个深层神经机器翻译系统,同时由于堆叠的方法在前期训练一个浅层的模型能够使用更大的批次优化更少的参数,实现了整个训练过程的加速。同时,本发明为了增强堆叠算法的鲁棒性,缓解堆叠过程中解码端接收信息不一致的问题引入了动态块融合的方法,提升了堆叠模型的性能,使训练过程变得更稳定。

Claims (3)

1.一种基于堆叠算法的深层神经机器翻译系统的训练加速方法,其特征在于包括以下步骤:
1)基于自注意力机制的Transformer模型,构造包含一个编码块的编码端和解码端,并引入记忆网络以存储编码器端不同块的输出,构造基于动态线性聚合的前作Transformer模型;
2)对源语和目标语构成的双语平行句对进行分词,得到源语序列和目标语序列,并转换成计算机能识别的稠密向量;
3)将用稠密向量表示的句子输入编码端和解码端,并将编码端的稠密向量写入基于动态线性聚合的前作Transformer模型的记忆网络中;
4)编码端每完成一个编码块的计算后将当前编码块的输出写入记忆网络;
5)在写入记忆网络后访问记忆网络,基于常微分方程的线性多步方法对记忆网络中存储的稠密向量和所有编码块输出的语义向量进行聚合,得到一个融合当前所有编码块输出特征的隐层表示,该隐层表示经过层正则化操作获得一个服从标准正态分布的语义向量作为下一编码块的输入,完成所有编码块网络的计算后,获得编码端的输出结果;
6)解码器端的每个解码层在接收到层输入后联合编码端的输出进行运算后传递给下一层,直到得到顶层的输出,对解码端的输出结果进行线性变换映射到目标端词表空间,使用softmax归一化操作得到目标语的词汇分布,通过计算词汇分布与真实标签数据间的差异来更新模型参数,训练当前的基于动态块输出融合的前作Transformer模型;
7)对当前的包含n个编码块的模型中编码端参数进行复用,取最顶层的一个编码块,将当前块的参数复制后构造一个新的编码块,将新的解码块堆叠至当前的编码端上,构造一个包含n+1和编码块的编码器的模型;
8)重复上述步骤3)-7)进行堆叠,逐步构造具有更深编码端的神经机器翻译系统训练至目标层数直到收敛,完成模型的训练;
9)利用训练完的模型进行翻译;
所述步骤7)中参数复用具体为:
对当前堆叠n次的Transformer模型进行训练后,得到具有m×n层编码层和6层解码层的Transformer模型,将当前模型中编码器端最顶层的一个编码块的参数复制后构造一个新的包含m层编码层的编码块,同时将当前的块堆叠在已经适当训练的Transformer的编码端之上,即堆叠n+1次,编码端的编码层个数为m×(n+1),将进行动态块输出融合的矩阵进行维度增加一维,采用平均的方式进行初始化,其中m为编码块中所包含的编码层个数;
读取当前已经适当训练的模型的检查点,取出当前检查点中保存的编码端最顶层一个编码块即顶层m层相关的参数取出复制后构造出新的一个编码块的参数,并写入检查点中;然后根据堆叠后的模型结构构造出新的模型后读入检查点中的参数;重新构造权重矩阵W,将矩阵扩充一维,对扩充的一维初始化为1/(n+1)。
2.根据权利要求1所述的基于堆叠算法的深层神经机器翻译系统的训练加速方法,其特征在于,所述步骤4)中编码块的计算具体为:
401)在每个编码块中每个编码层对输入进行层正则化操作得到服从标准正态分布的输出后,再输入至自注意力网络,对不同词间的语义联系进行抽取;
402)将自注意力网络正则化前的输入和输出进行残差连接后,将输出向量传递至前馈神经网络;
403)将输出向量送入下一个前馈神经网络子层,并经过与之前同样的正则化操作和残差连接得到前馈神经网络子层的输出,作为当前编码层的输出。
3.如权利要求1所述的基于堆叠算法的深层神经机器翻译系统的训练加速方法,其特征在于,所述步骤5)中对记忆网络中存储的稠密向量和前面所有堆叠块的语义向量进行聚合,得到一个融合各个编码块特征的隐层表示,具体为:
501)将每个编码块的输出向量存入记忆网络,在下一个编码块输入时对记忆网络中存储的所有向量进行加权和,定义一个大小为N*N的权重矩阵W,矩阵中每一行的数值代表每个编码块在计算下一块输入的贡献度;
权重矩阵初始状态为一个下三角矩阵,矩阵的的每一行根据当前需要加权和的向量个数进行平均,表示如下:
其中N为记忆网络的容量;
502)伴随神经网络的训练,神经网络通过反向传播算法更新网络中的参数动态调整权值矩阵W中每一行不同位置权重的大小。
CN201911323604.9A 2019-12-20 2019-12-20 一种基于堆叠算法的神经机器翻译系统训练加速方法 Active CN111178093B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911323604.9A CN111178093B (zh) 2019-12-20 2019-12-20 一种基于堆叠算法的神经机器翻译系统训练加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911323604.9A CN111178093B (zh) 2019-12-20 2019-12-20 一种基于堆叠算法的神经机器翻译系统训练加速方法

Publications (2)

Publication Number Publication Date
CN111178093A CN111178093A (zh) 2020-05-19
CN111178093B true CN111178093B (zh) 2023-08-04

Family

ID=70655638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911323604.9A Active CN111178093B (zh) 2019-12-20 2019-12-20 一种基于堆叠算法的神经机器翻译系统训练加速方法

Country Status (1)

Country Link
CN (1) CN111178093B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883690A (zh) * 2020-08-24 2021-06-01 北京金山数字娱乐科技有限公司 一种翻译模型
CN112380876A (zh) * 2020-12-04 2021-02-19 北京有竹居网络技术有限公司 基于多语言机器翻译模型的翻译方法、装置、设备和介质
CN112699691B (zh) * 2020-12-30 2022-10-21 北京百分点科技集团股份有限公司 翻译模型的生成方法、装置、可读存储介质及电子设备
CN112836485B (zh) * 2021-01-25 2023-09-19 中山大学 一种基于神经机器翻译的相似病历预测方法
CN113822078B (zh) * 2021-08-20 2023-09-08 北京中科凡语科技有限公司 融合xlm-r模型的机器翻译模型的训练方法
CN114510968B (zh) * 2022-01-21 2022-09-16 石家庄铁道大学 一种基于Transformer的故障诊断方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647214A (zh) * 2018-03-29 2018-10-12 中国科学院自动化研究所 基于深层神经网络翻译模型的解码方法
CN109783827A (zh) * 2019-01-31 2019-05-21 沈阳雅译网络技术有限公司 一种基于动态线性聚合的深层神经机器翻译方法
CN110059323A (zh) * 2019-04-22 2019-07-26 苏州大学 基于自注意力机制的多领域神经机器翻译方法
CN110222350A (zh) * 2019-06-28 2019-09-10 苏州大学 将双语预定义翻译对融入神经机器翻译模型的方法
CN110543640A (zh) * 2019-08-09 2019-12-06 沈阳雅译网络技术有限公司 一种基于注意力机制神经机器翻译推断加速方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180357530A1 (en) * 2017-06-13 2018-12-13 Ramot At Tel-Aviv University Ltd. Deep learning decoding of error correcting codes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647214A (zh) * 2018-03-29 2018-10-12 中国科学院自动化研究所 基于深层神经网络翻译模型的解码方法
CN109783827A (zh) * 2019-01-31 2019-05-21 沈阳雅译网络技术有限公司 一种基于动态线性聚合的深层神经机器翻译方法
CN110059323A (zh) * 2019-04-22 2019-07-26 苏州大学 基于自注意力机制的多领域神经机器翻译方法
CN110222350A (zh) * 2019-06-28 2019-09-10 苏州大学 将双语预定义翻译对融入神经机器翻译模型的方法
CN110543640A (zh) * 2019-08-09 2019-12-06 沈阳雅译网络技术有限公司 一种基于注意力机制神经机器翻译推断加速方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于简单循环单元的深层神经网络机器翻译模型;张文;冯洋;刘群;;中文信息学报(10);全文 *

Also Published As

Publication number Publication date
CN111178093A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111178093B (zh) 一种基于堆叠算法的神经机器翻译系统训练加速方法
CN111897949B (zh) 一种基于Transformer的引导性文本摘要生成方法
CN109508462B (zh) 一种基于编码器-解码器的神经网络蒙汉机器翻译方法
CN110795556B (zh) 一种基于细粒度插入式解码的摘要生成方法
CN109783827B (zh) 一种基于动态线性聚合的深层神经机器翻译方法
CN113158665B (zh) 一种基于文本摘要生成与双向语料改善对话文本生成的方法
CN111160050A (zh) 一种基于上下文记忆网络的篇章级神经机器翻译方法
Chitnis et al. Variable-length word encodings for neural translation models
CN110688862A (zh) 一种基于迁移学习的蒙汉互译方法
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN113468895B (zh) 一种基于解码器输入增强的非自回归神经机器翻译方法
CN110543640A (zh) 一种基于注意力机制神经机器翻译推断加速方法
CN112257465B (zh) 一种基于图像描述生成的多模态机器翻译数据增强方法
CN112580373A (zh) 一种高质量蒙汉无监督神经机器翻译方法
CN115422939B (zh) 一种基于大数据的细粒度商品命名实体识别方法
CN113657125B (zh) 一种基于知识图谱的蒙汉非自回归机器翻译方法
CN114691858A (zh) 一种基于改进的unilm摘要生成方法
CN111353315B (zh) 一种基于随机残差算法的深层神经机器翻译系统
CN112528168B (zh) 基于可形变自注意力机制的社交网络文本情感分析方法
CN111309896B (zh) 基于二级注意力的深度学习文本摘要生成方法
CN113626584A (zh) 一种自动文本摘要生成方法、系统、计算机设备和存储介质
CN114662659B (zh) 一种基于多阶段迁移学习策略综合的众包文本集成方法
CN116720531A (zh) 基于源语言句法依赖和量化矩阵的蒙汉神经机器翻译方法
CN115828931A (zh) 面向段落级文本的中英文语义相似度计算方法
CN109871537A (zh) 一种高精度的泰语分句方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Du Quan

Inventor before: Du Quan

Inventor before: Zhu Jingbo

Inventor before: Xiao Tong

Inventor before: Zhang Chunliang

GR01 Patent grant
GR01 Patent grant