CN113204978B - 一种机器翻译增强训练方法及系统 - Google Patents
一种机器翻译增强训练方法及系统 Download PDFInfo
- Publication number
- CN113204978B CN113204978B CN202110523435.4A CN202110523435A CN113204978B CN 113204978 B CN113204978 B CN 113204978B CN 202110523435 A CN202110523435 A CN 202110523435A CN 113204978 B CN113204978 B CN 113204978B
- Authority
- CN
- China
- Prior art keywords
- sentence
- source
- vector
- target
- subword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 87
- 238000013519 translation Methods 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000001537 neural effect Effects 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims description 67
- 230000006870 function Effects 0.000 claims description 16
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种机器翻译增强训练方法及系统,其方法包括:S1:获取训练数据,训练数据包括:源端句子和目标端句子;S2:分别使用源端句子和目标端句子训练源端语言模型和目标端语言模型;S3:随机选择源端句子中子词,并根据源端句子构造移位后的句子,输入源端语言模型,对移位后的句子中对应的子词进行预测,根据预测结果进行加权求和,实现对源端句子的增强;S4:根据源端句子和目标端句子的注意力权重分布,并根据源端句子中子词替换目标端句子中对应子词,利用语言模型和神经机器翻译模型联合预测结果,以实现对目标端句子的增强。本发明通过对平行训练数据进行加噪和增强,从而提升低资源条件下神经机器翻译模型的训练效果和鲁棒性。
Description
技术领域
本发明涉及自然语言处理和机器翻译领域,具体涉及一种机器翻译增强训练方法及系统。
背景技术
机器翻译是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。经历了数十年的发展与进步,机器翻译从基于规则的方法到基于统计的方法,再到当前基于神经网络的机器翻译系统通过将源语言文字信息进行编码,再通过编码信息,递归地解码出目标语言文字,使得机器翻译能力得到极大的提升。但是目前机器翻译能力还没有达到专业译员的翻译水平,无法在实际多场景应用中完全替代人工翻译。而传统的语言服务行业采用人工翻译+校审的方式,过于依赖译员的翻译能力;同时在翻译、校审等过程中,存在着效率低下、成本高昂、人力浪费等问题,已逐渐无法满足迅速增长的翻译需求。
基于深度学习的神经网络机器翻译方法,在中英等资源丰富的语种上效果已达到接近人类翻译水平。但深度学习算法依赖海量训练数据,同时对训练数据的质量要求较高。而全世界目前现存超过5000种语言,绝大部分语言不具有或具有极少量的平行句对可供机器翻译进行训练,因此这些低资源语种的机器翻译效果较差。
为了解决上述问题,可采用机器翻译增强训练方法用于训练数据资源不足的场景,以提升因为数据稀缺导致机器翻译模型性能或鲁棒性差的问题。当前机器翻译增强训练一般包括两类技术方法:一是在数据方面进行加噪训练,根据实际应用场景可能出现的情况,人工设计规则对原始的训练数据进行加噪,例如对源句子中的单词或字符进行随机增加、随机删除或随机替换等,或根据键盘中字母间距离,将源句子中字母随机替换为在键盘中距离更近的字母,或根据同义词表、词嵌入表示等将句子中的单词替换为同义词或近义词,以达到数据增强的目的;二是在模型方面,采用如对抗训练、变分自编码器等技术,提升模型的鲁棒性。
但现有的增强训练方法依然存在着比较明显的缺点:一是数据增强方法一般由工程师人工确定规则并生成伪造的数据,并加入模型训练中。但规则是有限的,但语言是多样性的,这些具有规则特征的伪造数据无法提升模型对未知问题的鲁棒性,且替换方法可能破坏源-目标句子语义间的一致性,或源句子的流畅性。二是如对抗训练、变分自编码器等技术,在机器翻译或自然语言处理领域还没有得到充分的验证和实践检验,模型训练过程中存在着不稳定的情况,实际应用可靠性较弱。
发明内容
为了解决上述技术问题,本发明提供一种机器翻译增强训练方法及系统,通过基于语言模型和机器翻译模型的预测、注意力匹配机制方法,对平行训练数据进行加噪和增强,从而提升低资源条件下机器翻译模型的训练效果和鲁棒性。
本发明技术解决方案为:一种机器翻译增强训练方法,包括:
步骤S1:获取训练数据,所述训练数据包括:源端句子和目标端句子;
步骤S2:分别使用所述源端句子和所述目标端句子训练源端语言模型和目标端语言模型;
步骤S3:随机选择所述源端句子中子词,并根据所述源端句子构造移位后的句子,输入所述源端语言模型,对所述移位后的句子中对应的所述子词进行预测,根据预测结果进行加权求和,实现对所述源端句子的增强;
步骤S4:根据所述源端句子和所述目标端句子的注意力权重分布,并根据所述源端句子中子词替换目标端句子中对应子词,利用所述语言模型和神经机器翻译模型联合预测结果,以实现对所述目标端句子的增强。
本发明与现有技术相比,具有以下优点:
本发明提供的方法针对性地提出了一种新的机器翻译增强训练方法,分别对源端句子和目标端句子进行动态增强,以达到增强训练的目的,提升模型的性能和鲁棒性。本发明提供的机器翻译增强训练方法能够保证增强后的数据在流畅性和语义匹配性上更好,减少现有数据增强技术带来的噪声问题。
附图说明
图1为本发明实施例中一种机器翻译增强训练方法的流程图;
图2为本发明实施例中一种机器翻译增强训练方法中步骤S3:随机选择源端句子中子词,并根据源端句子构造移位后的句子,输入源端语言模型,对移位后的句子中对应的子词进行预测,根据预测结果进行加权求和,实现对源端句子的增强的流程图;
图3为本发明实施例中语言模型和神经机器翻译模型的结构示意图;
图4为本发明实施例中一种机器翻译增强训练方法中步骤S4:根据源端句子和目标端句子的注意力权重分布,并根据源端句子中子词替换目标端句子中对应子词,利用语言模型和神经机器翻译模型联合预测结果,以实现对目标端句子的增强的流程图;
图5为本发明实施例中一种机器翻译增强训练系统的结构框图。
具体实施方式
本发明提供了一种机器翻译增强训练方法,分别对源端句子和目标端句子进行动态增强,以达到增强训练的目的,提升模型的性能和鲁棒性。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种机器翻译增强训练方法,包括下述步骤:
步骤S1:获取训练数据,训练数据包括:源端句子和目标端句子;
步骤S2:分别使用源端句子和目标端句子训练源端语言模型和目标端语言模型;
步骤S3:随机选择源端句子中子词,并根据源端句子构造移位后的句子,输入源端语言模型,对移位后的句子中对应的子词进行预测,根据预测结果进行加权求和,实现对源端句子的增强;
步骤S4:根据源端句子和目标端句子的注意力权重分布,并根据源端句子中子词替换目标端句子中对应子词,利用语言模型和神经机器翻译模型联合预测结果,以实现对目标端句子的增强。
在一个实施例中,上述步骤S1:获取训练数据,训练数据包括:源端句子和目标端句子,具体包括:
对语言模型和神经机器翻译模型进行训练之前,为其收集训练数据。用于语言模型训练的源端句子和目标端句子,一般可通过互联网等途径获得;用于神经机器翻译模型训练的平行句对,一般可通过人工标注、互联网获取等途径构建。在数据处理时,语言模型训练数据和翻译模型训练数据需要采用相同的处理方式,以便于后续步骤在词表上保持一致。
在一个实施例中,上述步骤S2:分别使用源端句子和目标端句子训练源端语言模型和目标端语言模型,具体包括:
语言模型的训练是为了在后续的机器翻译增强训练中,通过语言模型的预测来选中需要修改的位置和子词。本发明对于语言模型的选择不做限制,本发明实施例采用基于LSTM的语言模型进行训练,并能够实现对下一个词预测即可。本步骤需要利用步骤S1中的源端句子和目标端句子,同时对源端语言的语言模型和目标端的语言模型进行训练。
如图2所示,在一个实施例中,上述步骤S3:随机选择源端句子中子词,并根据源端句子构造移位后的句子,输入源端语言模型,对移位后的句子中对应的子词进行预测,根据预测结果进行加权求和,实现对源端句子的增强,具体包括:
步骤S31:按照预设概率,在源端句子中随机选择至少一个子词;
对训练中的某对源端句子和目标端句子,按预设的概率随机在源端句子中选择至少一个个位置的子词,此概率根据具体实验结果确定,本发明实施例中概率选择为p=15%。举例来说,如图3所示,本次源端句子中的x1和x3两个位置的子词被随机选中,在后续步骤将要被替换。
步骤S32:将源端句子平移,构造移位后的句子;
对于源端句子的平移位数以及平移的方向,可根据实际情况决定,本发明实施例将源端句子向右平移一位后,得到图3中所示移位后的句子。
步骤S33:将移位后的句子输入源端语言模型,得到子词的向量表示,如下述公式(1)所示;
其中,xi为子词;p|V|是预先设定的词表向量;pj(xi)是xi在词表向量中第j个词的概率;p(xi)是所述移位后的句子中对xi的向量表示;
在本步骤中,移位后的句子输入源端语言模型,根据预先设定的词表向量,通过公式(1)计算后,分别得到每个子词位置下一个词在词表维度上的概率分布,构成该子词的向量表示。举例来说,如图3所示,p(x1)是移位后的句子中对x1位置下一个词的预测结果的向量表示,即p(x1)是一个词表维的向量。同理,可得到p(x3)。
步骤S34:根据子词的向量表示,利用公式(2),计算子词的软性预测向量;
其中,Ej是词表向量的第j个词的词嵌入矩阵;
在本步骤中,以pj(xi)为权重,利用公式(2),对所有词表向量的词嵌入矩阵E进行加权求和。
步骤S35:根据以下公式(3)~(4),从词表中选择出替换xi的新子词xi′;
其中,VtopN是指根据语言模型概率筛选得到的与xi最相似的前N个子词;sim是计算向量相似度函数;argmax求使得sim函数值最大的参数xi,即x′i;是对e(xi)的梯度向量;y是目标端句子,x是源端句子,θ为神经机器翻译模型中所有的参数;
在本发明实施例中,采用向量间的余弦相似度进行计算,利用上述公式将计算得到与当前xi在梯度方向上差别最大但依然具有一定相似度的x′i。
步骤S36:根据xi′可得到其硬性预测向量
步骤S37:将子词xi的软性预测向量和新子词xi′的硬性预测向量/>进行平均,最终得到xi的新子词表示/>从而实现对源端句子的增强。
通过语言模型预测,可以利用上文信息对当前位置所有可能的词进行预测,同时通过结合软性预测向量和硬性预测向量对当前位置进行增强。既能保障源端句子的语义完整性、流畅性,梯度向量的引进也保证了最终的增强是对当前翻译模型训练最有效的。
在一个实施例中,上述步骤S4:根据源端句子和目标端句子的注意力权重分布,并根据源端句子中子词替换目标端句子中对应子词,利用语言模型和神经机器翻译模型联合预测结果,以实现对目标端句子的增强,具体包括:
步骤S41:计算源端句子中子词xi与目标端句子中每个词的注意力权重,选择目标端句子中对应的子词yi;
本步骤中注意力权重的计算可通过神经机器翻译模型,或词对齐模型进行训练和计算得到,此处不再赘述。
步骤S42:根据语言模型,得到目标端句子中子词向量p(yi)、软性预测向量和硬性预测向量/>
与上述步骤在源端句子使用语言模型进行预测相同,在目标端句子同样使用语言模型先进行预测,得到每个子词位置下一个词在词表维度上的向量表示p(yi)、软性预测向量和硬性预测向量/>具体细节可参考步骤S3,此处不再赘述。
步骤S43:根据子词向量,利用神经机器翻译模型,计算目标端句子中子词的软性预测向量以及对应的新子词yi′的硬性预测向量/>
本步骤中,计算目标端句子中子词的软性预测向量以及对应的新子词的硬性预测向量与上述步骤相同,所不同的是使用神经机器翻译模型进行预测,具体细节此处不再赘述。
步骤S44:利用下述公式(5),计算最终yi新的子词表示从而实现对目标端句子的增强;
其中,w1、w2、w3和w4为模型参数。
步骤S45:利用下述公式(6),对训练中的参数进行更新:
其中,Lclean(θmt)是数据增强前的神经机器翻译模型训练Loss函数,Lnew(θmt)是基于数据增强后得到的训练Loss函数,和/>分别是源端和目标端语言模型的训练Loss函数。
在模型训练过程中,本方法实施例所使用的语言模型参数会同时更新;而且会将增强前的神经机器翻译模型和增强后的神经机器翻译模型同时计算Loss函数,用于参数的更新。
本发明提供的方法针对性地提出了一种新的机器翻译增强训练方法,分别对源端句子和目标端句子进行动态增强,以达到增强训练的目的,提升模型的性能和鲁棒性。本发明提供的机器翻译增强训练方法能够保证增强后的数据在流畅性和语义匹配性上更好,减少现有数据增强技术带来的噪声问题。
实施例二
如图5所示,本发明实施例提供了一种机器翻译增强训练系统,包括下述模块:
训练数据采集模块51,用于获取训练数据;
训练源端和目标端语言模型模块52,用于分别使用所述源端句子和所述目标端句子训练源端语言模型和目标端语言模型;
源端句子增强模块53,用于随机选择所述源端句子中子词,并根据所述源端句子构造移位后的句子,输入所述源端语言模型,对所述移位后的句子中对应的所述子词进行预测,根据预测结果进行加权求和,实现对所述源端句子的增强;
目标端句子增强模块54,用于根据所述源端句子和所述目标端句子的注意力权重分布,并根据所述源端句子中子词替换目标端句子中对应子词,利用所述语言模型和神经机器翻译模型联合预测结果,以实现对所述目标端句子的增强。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (2)
1.一种机器翻译增强训练方法,其特征在于,包括:
步骤S1:获取训练数据,所述训练数据包括:源端句子和目标端句子;
步骤S2:分别使用所述源端句子和所述目标端句子训练源端语言模型和目标端语言模型;
步骤S3:随机选择所述源端句子中子词,并根据所述源端句子构造移位后的句子,输入所述源端语言模型,对所述移位后的句子中对应的所述子词进行预测,根据预测结果进行加权求和,实现对所述源端句子的增强,具体包括:
步骤S31:按照预设概率,在所述源端句子中随机选择至少一个子词;
步骤S32:将所述源端句子平移,构造移位后的句子;
步骤S33:将所述移位后的句子输入所述源端语言模型,得到所述子词的向量表示,如下述公式(1)所示;
其中,xi为所述子词;p|V|是预先设定的词表向量;pj(xi)是xi在所述词表向量中第j个词的概率;p(xi)是所述移位后的句子中对xi的向量表示;
步骤S34:根据所述子词的向量表示,利用公式(2),计算所述子词的软性预测向量;
其中,Ej是所述词表向量的第j个词的词嵌入矩阵;
步骤S35:根据以下公式(3)~(4),从所述词表中选择出替换xi的新子词xi';
其中,VtopN是指根据所述语言模型概率筛选得到的与xi最相似的前N个子词;sim是计算向量相似度函数;argmax求使得sim函数值最大的参数xi,即x'i;是对e(xi)的梯度向量;y是所述目标端句子,x是所述源端句子,θ为所述神经机器翻译模型中所有的参数;
步骤S36:根据xi'可得到其硬性预测向量
步骤S37:将所述子词xi的软性预测向量和所述新子词xi'的硬性预测向量/>进行平均,最终得到xi的新子词表示/>从而实现对所述源端句子的增强;
步骤S4:根据所述源端句子和所述目标端句子的注意力权重分布,并根据所述源端句子中子词替换目标端句子中对应子词,利用所述语言模型和神经机器翻译模型联合预测结果,以实现对所述目标端句子的增强,具体包括:
步骤S41:计算所述源端句子中所述子词xi与所述目标端句子中每个词的注意力权重,选择所述目标端句子中对应的子词yi;
步骤S42:根据所述语言模型,得到所述目标端句子中所述子词向量p(yi)、软性预测向量和硬性预测向量/>
步骤S43:根据所述子词向量,利用所述神经机器翻译模型,计算所述目标端句子中所述子词的软性预测向量以及对应的新子词yi'的硬性预测向量/>
步骤S44:利用下述公式(5),计算最终yi新的子词表示从而实现对所述目标端句子的增强;
其中,w1、w2、w3和w4为模型参数;
步骤S45:利用下述公式(6),对训练中的参数进行更新:
其中,Lclean(θmt)是数据增强前的所述神经机器翻译模型训练Loss函数,Lnew(θmt)是基于数据增强后得到的训练Loss函数,和/>分别是所述源端和目标端语言模型的训练Loss函数。
2.一种机器翻译增强训练系统,其特征在于,包括下述模块:
训练数据采集模块,用于获取训练数据;
训练源端和目标端语言模型模块,用于分别使用所述源端句子和所述目标端句子训练源端语言模型和目标端语言模型;
源端句子增强模块,用于随机选择所述源端句子中子词,并根据所述源端句子构造移位后的句子,输入所述源端语言模型,对所述移位后的句子中对应的所述子词进行预测,根据预测结果进行加权求和,实现对所述源端句子的增强,具体包括:
步骤S31:按照预设概率,在所述源端句子中随机选择至少一个子词;
步骤S32:将所述源端句子平移,构造移位后的句子;
步骤S33:将所述移位后的句子输入所述源端语言模型,得到所述子词的向量表示,如下述公式(1)所示;
其中,xi为所述子词;p|V|是预先设定的词表向量;pj(xi)是xi在所述词表向量中第j个词的概率;p(xi)是所述移位后的句子中对xi的向量表示;
步骤S34:根据所述子词的向量表示,利用公式(2),计算所述子词的软性预测向量;
其中,Ej是所述词表向量的第j个词的词嵌入矩阵;
步骤S35:根据以下公式(3)~(4),从所述词表中选择出替换xi的新子词xi';
其中,VtopN是指根据所述语言模型概率筛选得到的与xi最相似的前N个子词;sim是计算向量相似度函数;argmax求使得sim函数值最大的参数xi,即x'i;是对e(xi)的梯度向量;y是所述目标端句子,x是所述源端句子,θ为所述神经机器翻译模型中所有的参数;
步骤S36:根据xi'可得到其硬性预测向量
步骤S37:将所述子词xi的软性预测向量和所述新子词xi'的硬性预测向量/>进行平均,最终得到xi的新子词表示/>从而实现对所述源端句子的增强;
目标端句子增强模块,用于根据所述源端句子和所述目标端句子的注意力权重分布,并根据所述源端句子中子词替换目标端句子中对应子词,利用所述语言模型和神经机器翻译模型联合预测结果,以实现对所述目标端句子的增强,具体包括:
步骤S41:计算所述源端句子中所述子词xi与所述目标端句子中每个词的注意力权重,选择所述目标端句子中对应的子词yi;
步骤S42:根据所述语言模型,得到所述目标端句子中所述子词向量p(yi)、软性预测向量和硬性预测向量/>
步骤S43:根据所述子词向量,利用所述神经机器翻译模型,计算所述目标端句子中所述子词的软性预测向量以及对应的新子词yi'的硬性预测向量/>
步骤S44:利用下述公式(5),计算最终yi新的子词表示从而实现对所述目标端句子的增强;
其中,w1、w2、w3和w4为模型参数;
步骤S45:利用下述公式(6),对训练中的参数进行更新:
其中,Lclean(θmt)是数据增强前的所述神经机器翻译模型训练Loss函数,Lnew(θmt)是基于数据增强后得到的训练Loss函数,和/>分别是所述源端和目标端语言模型的训练Loss函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110523435.4A CN113204978B (zh) | 2021-05-13 | 2021-05-13 | 一种机器翻译增强训练方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110523435.4A CN113204978B (zh) | 2021-05-13 | 2021-05-13 | 一种机器翻译增强训练方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113204978A CN113204978A (zh) | 2021-08-03 |
CN113204978B true CN113204978B (zh) | 2024-04-02 |
Family
ID=77031088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110523435.4A Active CN113204978B (zh) | 2021-05-13 | 2021-05-13 | 一种机器翻译增强训练方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113204978B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657122B (zh) * | 2021-09-07 | 2023-12-15 | 内蒙古工业大学 | 一种融合迁移学习的伪平行语料库的蒙汉机器翻译方法 |
CN114154519B (zh) * | 2022-02-08 | 2022-04-26 | 北京大学 | 基于加权标签平滑的神经机器翻译模型训练方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178094A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种基于预训练的稀缺资源神经机器翻译训练方法 |
CN111401079A (zh) * | 2018-12-14 | 2020-07-10 | 波音公司 | 神经网络机器翻译模型的训练方法、装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102069692B1 (ko) * | 2017-10-26 | 2020-01-23 | 한국전자통신연구원 | 신경망 기계번역 방법 및 장치 |
-
2021
- 2021-05-13 CN CN202110523435.4A patent/CN113204978B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401079A (zh) * | 2018-12-14 | 2020-07-10 | 波音公司 | 神经网络机器翻译模型的训练方法、装置及存储介质 |
CN111178094A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种基于预训练的稀缺资源神经机器翻译训练方法 |
Non-Patent Citations (1)
Title |
---|
基于数据增强技术的神经机器翻译;蔡子龙;杨明明;熊德意;;中文信息学报(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113204978A (zh) | 2021-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178094B (zh) | 一种基于预训练的稀缺资源神经机器翻译训练方法 | |
CN107967262A (zh) | 一种神经网络蒙汉机器翻译方法 | |
JP5128629B2 (ja) | 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法 | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
CN113204978B (zh) | 一种机器翻译增强训练方法及系统 | |
CN114757182A (zh) | 一种改进训练方式的bert短文本情感分析方法 | |
CN111814493B (zh) | 机器翻译方法、装置、电子设备和存储介质 | |
WO2022088570A1 (zh) | 译文后编译方法、装置、电子设备和存储介质 | |
CN112257460B (zh) | 基于枢轴的汉越联合训练神经机器翻译方法 | |
US10643028B1 (en) | Transliteration of text entry across scripts | |
CN108763230B (zh) | 利用外部信息的神经机器翻译方法 | |
CN115114940A (zh) | 一种基于课程化预训练的机器翻译风格的迁移方法和系统 | |
CN113408307B (zh) | 一种基于翻译模板的神经机器翻译方法 | |
Tien et al. | Long sentence preprocessing in neural machine translation | |
Vashistha et al. | Active learning for neural machine translation | |
Hirasawa et al. | Pre-trained word embedding and language model improve multimodal machine translation: A case study in Multi30K | |
US10810380B2 (en) | Transliteration using machine translation pipeline | |
CN115860015B (zh) | 一种基于翻译记忆的转写文本翻译方法和计算机设备 | |
CN114492317B (zh) | 一种基于上下文衔接手段遮蔽框架系统 | |
CN115017924B (zh) | 跨语际语言翻译的神经机器翻译模型构建及其翻译方法 | |
CN113591494B (zh) | 一种基于多粒度语义对齐的多语言通用翻译方法 | |
Tian et al. | In-image neural machine translation with segmented pixel sequence-to-sequence model | |
CN115906854A (zh) | 一种基于多级对抗的跨语言命名实体识别模型训练方法 | |
CN113673259A (zh) | 基于数据增强的低资源神经机器翻译方法及系统 | |
Zhu | Exploration on Korean-Chinese collaborative translation method based on recursive recurrent neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |