CN110069790B - 一种通过译文回译对照原文的机器翻译系统及方法 - Google Patents

一种通过译文回译对照原文的机器翻译系统及方法 Download PDF

Info

Publication number
CN110069790B
CN110069790B CN201910387882.4A CN201910387882A CN110069790B CN 110069790 B CN110069790 B CN 110069790B CN 201910387882 A CN201910387882 A CN 201910387882A CN 110069790 B CN110069790 B CN 110069790B
Authority
CN
China
Prior art keywords
source
target
sentence
translation
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910387882.4A
Other languages
English (en)
Other versions
CN110069790A (zh
Inventor
杨晓春
王斌
刘石玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910387882.4A priority Critical patent/CN110069790B/zh
Publication of CN110069790A publication Critical patent/CN110069790A/zh
Application granted granted Critical
Publication of CN110069790B publication Critical patent/CN110069790B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种通过译文回译对照原文的机器翻译系统及方法,涉及自然语言处理与机器翻译技术领域。本发明步骤如下:步骤1:获取需要翻译的源语言句子数据集,所述训练集中的数据为经过人为添加标签序列的源语言句子;步骤2:建立译文回译神经网络模型;通过最小化损失函数的值来调节译文回译神经网络模型参数;步骤3:将验证集中的源语言句子E作为译文回译神经网络模型的输入,输出句子D。该方法可以降低损失的方式,进一步提高机器翻译的准确度,进一步降低语言在翻译过程中信息的扭曲或丢失。

Description

一种通过译文回译对照原文的机器翻译系统及方法
技术领域
本发明涉及自然语言处理与机器翻译技术领域,尤其涉及一种通过译文回译对照原文的机器翻译系统及方法。
背景技术
机器翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。2013年以来,随着深度学习的研究取得较大进展,基于人工神经网络的机器翻译逐渐兴起。机器翻译是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
目前主要的神经机器翻译模型有基于Attention机制的Seq2Seq模型;2017年Google提出了Transformer模型,进一步提高了机器翻译的准确度。但是,以上模型都是采用将源语言句子编码、分析之后,利用语言模型在解码器中解码,生成目标语言的方式,目标语言译文的生成很大程度上依赖于所采用的语言模型及语言模型数据集质量。很多时候会出现,将源语言句子A翻译为目标语言句子B,句子B回译为源语言的句子C时会发现,A,C之间有一定的句法或语义差别。在翻译的过程中句子“失真”的情况是我们所不希望看到的。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种通过译文回译对照原文的机器翻译系统及方法,该方法可以降低损失的方式,进一步提高机器翻译的准确度,进一步降低语言在翻译过程中信息的扭曲或丢失。
为解决上述技术问题,本发明所采取的技术方案是:
一方面,本发明提供一种通过译文回译对照原文的机器翻译系统,包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子输出至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
另一方面,本发明提供一种通过译文回译对照原文的机器翻译方法,通过所述的一种通过译文回译对照原文的机器翻译系统实现,包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;
步骤2:建立译文回译神经网络模型;将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
所述步骤2包括如下步骤:
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和真实标签句子Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
Figure BDA0002055452040000031
其中θ为神经网络中用来表示特征的权重参数集合;
所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新;
所述的译文回译神经网络模型的编码器与解码器采用基于Attention机制的Seq2Seq模型或Transformer模型。
采用上述技术方案所产生的有益效果在于:本发明提供的一种通过译文回译对照原文的机器翻译系统及方法,该方法在以往经典的将源语言句子A翻译为目标语言句子B的模型结构之上,提出了增加将翻译生成的目标语言句子B回译为源语言句子C,并通过反向传播算法减小A与C之间的差距的方式,以进一步提高机器翻译的准确度与生成译文的流畅度,降低语言在翻译过程中信息的扭曲或丢失,改善机器翻译效果。
附图说明
图1为本发明实施例提供的译文回译对照原文的机器翻译系统框图;
图2为本发明实施例提供的译文回译对照原文的机器翻译方法流程图;
图3为本发明实施例提供的增加译文回译结构的机器翻译模型架构图;
图4为本发明实施例提供的基于Attention机制的编码器-解码器架构图;
图5为本发明实施例提供的Transformer模型架构图;
图6为本发明实施例提供的Attention机制实现示例图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本实施例的方法如下所述。
一方面,本发明提供一种通过译文回译对照原文的机器翻译系统,包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子出输至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,所述调节过程为建立译文回译神经网络模型的过程,所述翻译过程为建立好译文回译神经网络模型后,进行正常翻译句子的过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
另一方面,本发明提供一种通过译文回译对照原文的机器翻译方法,通过所述的一种通过译文回译对照原文的机器翻译系统实现,如图2所示,包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;所述目标语言为源语言人工翻译后的句子;
步骤2:建立译文回译神经网络模型;如图3所示,将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和真实标签句子Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
Figure BDA0002055452040000051
其中θ为神经网络中用来表示特征的权重参数集合。
循环神经网络中采用LSTM结构,该结构中涉及的参数表示为:
xt为t时刻的输入,xt∈Rn;ht为t时刻的隐层状态,ht∈Rn;ct为t时刻的记忆单元状态,ct∈Rn;W、V、Y、U∈R2n×n为参数矩阵;
该结构涉及的运算表示:
输入值z=tanh(W[ht-1,xt]);输入门为i=sigmoid(V[ht-1,xt]);遗忘门为f=sigmoid(Y[ht-1,xt]);输出门o=sigmoid(U[ht-1,xt]);新状态ct=f·ct-1+i·z;输出ht=o·tanh ct
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新,以确保模型的准确性;
所述的译文回译神经网络模型的编码器与解码器采用经典的基于Attention机制的Seq2Seq模型(如图4所示)或Transformer模型(如图5所示)。
本实施例的译文回译神经网络模型是基于Attention机制的Seq2Seq模型下进行的,如图6所示。
首先,使用LSTM循环神经网络读取输入的句子Asource,通过正向反向传播获得各个时间步的隐层表征(h1,…,ht,…,hT)(其中,T表示序列长度)。
之后在解码器中结合Attention机制。解码器在解码的每一步将隐层状态作为查询的输入来“查询”编码器的隐层状态,在每个输入的位置计算一个反映与查询输入相关程度的权重,再根据这个权重对各输入位置的隐层状态求加权平均。加权平均后得到的向量称为“context”,表示它是与翻译当前词最相关的原文信息。在解码下一个单词时,将context作为额外信息输入到循环神经网络中,这样循环神经网络可以时刻读取原文中最相关的信息。
最后解码翻译得到目标语言句子Btarget,对比Btarget和标签序列Blabel,计算损失函数Loss(Btarget,Blabel)。之后用同样的方式,由Btarget翻译回源语言句子Csource,并计算Asource与Csource之间的损失函数Loss(Asource,Csource)。那么总的损失为:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,其取值范围为[0,1.0),目前需要人工设定的超参数;最后,通过反向传播算法训练神经网络即可。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (5)

1.一种通过译文回译对照原文的机器翻译系统,其特征在于:包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子输出至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
2.一种通过译文回译对照原文的机器翻译方法,通过权利要求1所述的一种通过译文回译对照原文的机器翻译系统实现,其特征在于:包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;
步骤2:建立译文回译神经网络模型;将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
3.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2包括如下步骤:
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和标签序列Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
Figure FDA0002055452030000021
其中θ为神经网络中用来表示特征的权重参数集合。
4.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新。
5.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2中的译文回译神经网络模型的编码器与解码器采用经典的基于Attention机制的Seq2Seq模型或Transformer模型。
CN201910387882.4A 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法 Active CN110069790B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910387882.4A CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910387882.4A CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Publications (2)

Publication Number Publication Date
CN110069790A CN110069790A (zh) 2019-07-30
CN110069790B true CN110069790B (zh) 2022-12-06

Family

ID=67370654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910387882.4A Active CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Country Status (1)

Country Link
CN (1) CN110069790B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114514529A (zh) * 2019-11-11 2022-05-17 深圳市欢太科技有限公司 摘要生成方法、装置、电子设备和存储介质
CN110912926B (zh) * 2019-12-04 2022-03-25 湖南快乐阳光互动娱乐传媒有限公司 数据资源回源方法及装置
CN110941966A (zh) * 2019-12-10 2020-03-31 北京小米移动软件有限公司 机器翻译模型的训练方法、装置及系统
CN111178085B (zh) * 2019-12-12 2020-11-24 科大讯飞(苏州)科技有限公司 文本翻译器训练方法、专业领域文本语义解析方法和装置
CN111144137B (zh) * 2019-12-17 2023-09-05 语联网(武汉)信息技术有限公司 机器翻译后编辑模型语料的生成方法及装置
CN111144140B (zh) * 2019-12-23 2023-07-04 语联网(武汉)信息技术有限公司 基于零次学习的中泰双语语料生成方法及装置
CN111581986A (zh) * 2020-05-13 2020-08-25 识因智能科技(北京)有限公司 一种基于动态推敲网络的自然语言生成方法
CN111666775B (zh) * 2020-05-21 2023-08-22 平安科技(深圳)有限公司 文本处理方法、装置、设备及存储介质
CN111914552A (zh) * 2020-07-31 2020-11-10 平安科技(深圳)有限公司 一种数据增强模型的训练方法及装置
US11875131B2 (en) * 2020-09-16 2024-01-16 International Business Machines Corporation Zero-shot cross-lingual transfer learning
CN113095091A (zh) * 2021-04-09 2021-07-09 天津大学 一种可选择上下文信息的篇章机器翻译系统及方法
CN113435216B (zh) * 2021-06-24 2023-06-23 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106126507B (zh) * 2016-06-22 2019-08-09 哈尔滨工业大学深圳研究生院 一种基于字符编码的深度神经翻译方法及系统
CN107368475B (zh) * 2017-07-18 2021-06-04 中译语通科技股份有限公司 一种基于生成对抗神经网络的机器翻译方法和系统
CN108647214B (zh) * 2018-03-29 2020-06-30 中国科学院自动化研究所 基于深层神经网络翻译模型的解码方法
CN108763227A (zh) * 2018-05-21 2018-11-06 电子科技大学 一种基于分块机制的机器翻译方法

Also Published As

Publication number Publication date
CN110069790A (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
CN110069790B (zh) 一种通过译文回译对照原文的机器翻译系统及方法
Tan et al. Neural machine translation: A review of methods, resources, and tools
CN108733792B (zh) 一种实体关系抽取方法
CN109359294B (zh) 一种基于神经机器翻译的古汉语翻译方法
CN111078866B (zh) 一种基于序列到序列模型的中文文本摘要生成方法
JP7072178B2 (ja) 自然言語処理のための装置、方法及びプログラム
US11475225B2 (en) Method, system, electronic device and storage medium for clarification question generation
CN110717345B (zh) 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN110162766B (zh) 词向量更新方法和装置
WO2020124674A1 (zh) 向量化译员的翻译个性特征的方法及装置
CN111540345B (zh) 一种弱监督语音识别模型训练方法及装置
Liu et al. Deep learning in machine translation
WO2023137911A1 (zh) 基于小样本语料的意图分类方法、装置及计算机设备
CN113901847A (zh) 基于源语言句法增强解码的神经机器翻译方法
Mandal et al. Futurity of translation algorithms for neural machine translation (NMT) and its vision
CN114218928A (zh) 一种基于图知识和主题感知的抽象文本摘要方法
Liu et al. Document-level event argument extraction with self-augmentation and a cross-domain joint training mechanism
CN111428518A (zh) 一种低频词翻译方法及装置
CN112765996A (zh) 基于强化学习和机器翻译质量评估的中朝机器翻译方法
Li et al. Incorporating translation quality estimation into chinese-korean neural machine translation
CN116720531A (zh) 基于源语言句法依赖和量化矩阵的蒙汉神经机器翻译方法
Acheampong et al. Toward perfect neural cascading architecture for grammatical error correction
CN116663578A (zh) 一种基于策略梯度方法改进的神经机器翻译方法
CN115906854A (zh) 一种基于多级对抗的跨语言命名实体识别模型训练方法
CN115081464A (zh) 一种由未来语境引导的神经机器翻译模型优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant