CN110069790A - 一种通过译文回译对照原文的机器翻译系统及方法 - Google Patents

一种通过译文回译对照原文的机器翻译系统及方法 Download PDF

Info

Publication number
CN110069790A
CN110069790A CN201910387882.4A CN201910387882A CN110069790A CN 110069790 A CN110069790 A CN 110069790A CN 201910387882 A CN201910387882 A CN 201910387882A CN 110069790 A CN110069790 A CN 110069790A
Authority
CN
China
Prior art keywords
translation
source
target
sentence
retroversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910387882.4A
Other languages
English (en)
Other versions
CN110069790B (zh
Inventor
杨晓春
王斌
刘石玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910387882.4A priority Critical patent/CN110069790B/zh
Publication of CN110069790A publication Critical patent/CN110069790A/zh
Application granted granted Critical
Publication of CN110069790B publication Critical patent/CN110069790B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种通过译文回译对照原文的机器翻译系统及方法,涉及自然语言处理与机器翻译技术领域。本发明步骤如下:步骤1:获取需要翻译的源语言句子数据集,所述训练集中的数据为经过人为添加标签序列的源语言句子;步骤2:建立译文回译神经网络模型;通过最小化损失函数的值来调节译文回译神经网络模型参数;步骤3:将验证集中的源语言句子E作为译文回译神经网络模型的输入,输出句子D。该方法可以降低损失的方式,进一步提高机器翻译的准确度,进一步降低语言在翻译过程中信息的扭曲或丢失。

Description

一种通过译文回译对照原文的机器翻译系统及方法
技术领域
本发明涉及自然语言处理与机器翻译技术领域,尤其涉及一种通过译文回译对照原文的机器翻译系统及方法。
背景技术
机器翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。2013年以来,随着深度学习的研究取得较大进展,基于人工神经网络的机器翻译逐渐兴起。机器翻译是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
目前主要的神经机器翻译模型有基于Attention机制的Seq2Seq模型;2017年Google提出了Transformer模型,进一步提高了机器翻译的准确度。但是,以上模型都是采用将源语言句子编码、分析之后,利用语言模型在解码器中解码,生成目标语言的方式,目标语言译文的生成很大程度上依赖于所采用的语言模型及语言模型数据集质量。很多时候会出现,将源语言句子A翻译为目标语言句子B,句子B回译为源语言的句子C时会发现,A,C之间有一定的句法或语义差别。在翻译的过程中句子“失真”的情况是我们所不希望看到的。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种通过译文回译对照原文的机器翻译系统及方法,该方法可以降低损失的方式,进一步提高机器翻译的准确度,进一步降低语言在翻译过程中信息的扭曲或丢失。
为解决上述技术问题,本发明所采取的技术方案是:
一方面,本发明提供一种通过译文回译对照原文的机器翻译系统,包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子输出至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
另一方面,本发明提供一种通过译文回译对照原文的机器翻译方法,通过所述的一种通过译文回译对照原文的机器翻译系统实现,包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;
步骤2:建立译文回译神经网络模型;将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
所述步骤2包括如下步骤:
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和真实标签句子Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
其中θ为神经网络中用来表示特征的权重参数集合;
所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新;
所述的译文回译神经网络模型的编码器与解码器采用基于Attention机制的Seq2Seq模型或Transformer模型。
采用上述技术方案所产生的有益效果在于:本发明提供的一种通过译文回译对照原文的机器翻译系统及方法,该方法在以往经典的将源语言句子A翻译为目标语言句子B的模型结构之上,提出了增加将翻译生成的目标语言句子B回译为源语言句子C,并通过反向传播算法减小A与C之间的差距的方式,以进一步提高机器翻译的准确度与生成译文的流畅度,降低语言在翻译过程中信息的扭曲或丢失,改善机器翻译效果。
附图说明
图1为本发明实施例提供的译文回译对照原文的机器翻译系统框图;
图2为本发明实施例提供的译文回译对照原文的机器翻译方法流程图;
图3为本发明实施例提供的增加译文回译结构的机器翻译模型架构图;
图4为本发明实施例提供的基于Attention机制的编码器-解码器架构图;
图5为本发明实施例提供的Transformer模型架构图;
图6为本发明实施例提供的Attention机制实现示例图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本实施例的方法如下所述。
一方面,本发明提供一种通过译文回译对照原文的机器翻译系统,包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子出输至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,所述调节过程为建立译文回译神经网络模型的过程,所述翻译过程为建立好译文回译神经网络模型后,进行正常翻译句子的过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
另一方面,本发明提供一种通过译文回译对照原文的机器翻译方法,通过所述的一种通过译文回译对照原文的机器翻译系统实现,如图2所示,包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;所述目标语言为源语言人工翻译后的句子;
步骤2:建立译文回译神经网络模型;如图3所示,将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和真实标签句子Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
其中θ为神经网络中用来表示特征的权重参数集合。
循环神经网络中采用LSTM结构,该结构中涉及的参数表示为:
xt为t时刻的输入,xt∈Rn;ht为t时刻的隐层状态,ht∈Rn;ct为t时刻的记忆单元状态,ct∈Rn;W、V、Y、U∈R2n×n为参数矩阵;
该结构涉及的运算表示:
输入值z=tanh(W[ht-1,xt]);输入门为i=sigmoid(V[ht-1,xt]);遗忘门为f=sigmoid(Y[ht-1,xt]);输出门o=sigmoid(U[ht-1,xt]);新状态ct=f·ct-1+i·z;输出ht=o·tanh ct
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新,以确保模型的准确性;
所述的译文回译神经网络模型的编码器与解码器采用经典的基于Attention机制的Seq2Seq模型(如图4所示)或Transformer模型(如图5所示)。
本实施例的译文回译神经网络模型是基于Attention机制的Seq2Seq模型下进行的,如图6所示。
首先,使用LSTM循环神经网络读取输入的句子Asource,通过正向反向传播获得各个时间步的隐层表征(h1,…,ht,…,hT)(其中,T表示序列长度)。
之后在解码器中结合Attention机制。解码器在解码的每一步将隐层状态作为查询的输入来“查询”编码器的隐层状态,在每个输入的位置计算一个反映与查询输入相关程度的权重,再根据这个权重对各输入位置的隐层状态求加权平均。加权平均后得到的向量称为“context”,表示它是与翻译当前词最相关的原文信息。在解码下一个单词时,将context作为额外信息输入到循环神经网络中,这样循环神经网络可以时刻读取原文中最相关的信息。
最后解码翻译得到目标语言句子Btarget,对比Btarget和标签序列Blabel,计算损失函数Loss(Btarget,Blabel)。之后用同样的方式,由Btarget翻译回源语言句子Csource,并计算Asource与Csource之间的损失函数Loss(Asource,Csource)。那么总的损失为:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,其取值范围为[0,1.0),目前需要人工设定的超参数;最后,通过反向传播算法训练神经网络即可。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (5)

1.一种通过译文回译对照原文的机器翻译系统,其特征在于:包括输入模块、直译模块、回译模块、输出模块:
所述输入模块用于让用户输入要翻译的源语言句子,并将该句子输出至直译模块;
所述直译模块包括编码器Encoder_1和解码器Decoder_1,所述编码器Encoder_1用于将用户在输入模块中输入的源语言句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_1;所述解码器Decoder_1包括调节过程与翻译过程,在调节过程时用于将接收到的隐式向量生成目标语言预测句子,并计算其损失函数,将目标语言句子输出至回译模块;在翻译过程时用于将接收到的隐式向量生成翻译句子,并将翻译句子输出至输出模块;
所述回译模块包括编码器Encoder_2和解码器Decoder_2,所述编码器Encoder_2用于接收目标语言句子,将该句子用隐式向量表示,并将该隐式向量输出至解码器Decoder_2;所述解码器Decoder_2用于将隐式向量解码分析生成目标源语言句子,并计算其损失函数;
所述输出模块用于输出翻译句子。
2.一种通过译文回译对照原文的机器翻译方法,通过权利要求1所述的一种通过译文回译对照原文的机器翻译系统实现,其特征在于:包括如下步骤:
步骤1:获取需要翻译的源语言句子数据集,该数据集包括训练集和测试集;所述训练集中的数据为包括源语言与目标语言的平行语料库;
步骤2:建立译文回译神经网络模型;将训练集中的源语言句子Asource进行直译生成目标语言预测句子Btarget,计算预测句子Btarget与真实标签句子Blabel之间的损失函数Loss(Btarget,Blabel);将Btarget作为回译模块的输入进行回译,得到目标源语言句子Csource,计算Asource与Csource的损失函数Loss(Asource,Csource),通过最小化损失函数Loss(Btarget,Blabel)和Loss(Asource,Csource)的值来调节译文回译神经网络模型参数;
步骤3:将测试集中的源语言句子E作为译文回译神经网络模型的输入,此时为翻译过程,输出翻译句子D。
3.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2包括如下步骤:
步骤2.1:将源语言句子Asource输入到编码器Encoder_1中,通过编码器Encoder_1将Asource用隐式向量表示,并将隐式向量传递给解码器Decoder_1,通过解码分析隐式向量,生成目标语言句子Btarget,对比Btarget和标签序列Blabel,计算目标语言句子的损失函数Loss(Btarget,Blabel)=crossentropy(Btarget,Blabel),其中crossentropy(Btarget,Blabel)表示Btarget和Blabel之间的交叉熵;
步骤2.2:将Btarget作为输入,传给编码器Encoder_2,将目标语言句子Btarget编码为隐式向量,然后将该向量传给解码器Decoder_2,将隐式向量解码分析生成目标源语言句子Csource
步骤2.3:计算出源语言句子Asource与回译后的目标源语言句子Csource之间的目标源语言句子损失函数,表示为:
Loss(Asource,Csource)=crossentropy(Asource,Csource)
综合Loss(Btarget,Blabel)与Loss(Asource,Csource)得到神经网络的总损失函数Loss:
Loss=Loss(Btarget,Blabel)+γLoss(Asource,Csource)
其中,γ代表权值系数,为人工设定的超参数,其取值范围为[0,1.0);
使用反向传播方法,最小化损失函数的值来调节神经网络模型参数,表示为:
其中θ为神经网络中用来表示特征的权重参数集合。
4.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2中的译文回译神经网络模型需要按照使用者设定的时间间隔重复本步骤,对该模型进行更新。
5.根据权利要求2所述的一种通过译文回译对照原文的机器翻译方法,其特征在于:所述步骤2中的译文回译神经网络模型的编码器与解码器采用经典的基于Attention机制的Seq2Seq模型或Transformer模型。
CN201910387882.4A 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法 Active CN110069790B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910387882.4A CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910387882.4A CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Publications (2)

Publication Number Publication Date
CN110069790A true CN110069790A (zh) 2019-07-30
CN110069790B CN110069790B (zh) 2022-12-06

Family

ID=67370654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910387882.4A Active CN110069790B (zh) 2019-05-10 2019-05-10 一种通过译文回译对照原文的机器翻译系统及方法

Country Status (1)

Country Link
CN (1) CN110069790B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110912926A (zh) * 2019-12-04 2020-03-24 湖南快乐阳光互动娱乐传媒有限公司 数据资源回源方法及装置
CN110941966A (zh) * 2019-12-10 2020-03-31 北京小米移动软件有限公司 机器翻译模型的训练方法、装置及系统
CN111144137A (zh) * 2019-12-17 2020-05-12 语联网(武汉)信息技术有限公司 机器翻译后编辑模型语料的生成方法及装置
CN111144140A (zh) * 2019-12-23 2020-05-12 语联网(武汉)信息技术有限公司 基于零次学习的中泰双语语料生成方法及装置
CN111178085A (zh) * 2019-12-12 2020-05-19 科大讯飞(苏州)科技有限公司 文本翻译器训练方法、专业领域文本语义解析方法和装置
CN111581986A (zh) * 2020-05-13 2020-08-25 识因智能科技(北京)有限公司 一种基于动态推敲网络的自然语言生成方法
CN111666775A (zh) * 2020-05-21 2020-09-15 平安科技(深圳)有限公司 文本处理方法、装置、设备及存储介质
WO2021092730A1 (zh) * 2019-11-11 2021-05-20 深圳市欢太科技有限公司 摘要生成方法、装置、电子设备和存储介质
CN113095091A (zh) * 2021-04-09 2021-07-09 天津大学 一种可选择上下文信息的篇章机器翻译系统及方法
WO2021139250A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 一种数据增强模型的训练方法及装置
CN113435216A (zh) * 2021-06-24 2021-09-24 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置
WO2022058882A1 (en) * 2020-09-16 2022-03-24 International Business Machines Corporation Zero-shot cross-lingual transfer learning
CN117273027A (zh) * 2023-11-22 2023-12-22 四川语言桥信息技术有限公司 一种基于翻译错误纠正的机器翻译自动后校验方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106126507A (zh) * 2016-06-22 2016-11-16 哈尔滨工业大学深圳研究生院 一种基于字符编码的深度神经翻译方法及系统
CN107368475A (zh) * 2017-07-18 2017-11-21 中译语通科技(北京)有限公司 一种基于生成对抗神经网络的机器翻译方法和系统
CN108647214A (zh) * 2018-03-29 2018-10-12 中国科学院自动化研究所 基于深层神经网络翻译模型的解码方法
CN108763227A (zh) * 2018-05-21 2018-11-06 电子科技大学 一种基于分块机制的机器翻译方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106126507A (zh) * 2016-06-22 2016-11-16 哈尔滨工业大学深圳研究生院 一种基于字符编码的深度神经翻译方法及系统
CN107368475A (zh) * 2017-07-18 2017-11-21 中译语通科技(北京)有限公司 一种基于生成对抗神经网络的机器翻译方法和系统
CN108647214A (zh) * 2018-03-29 2018-10-12 中国科学院自动化研究所 基于深层神经网络翻译模型的解码方法
CN108763227A (zh) * 2018-05-21 2018-11-06 电子科技大学 一种基于分块机制的机器翻译方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021092730A1 (zh) * 2019-11-11 2021-05-20 深圳市欢太科技有限公司 摘要生成方法、装置、电子设备和存储介质
CN110912926A (zh) * 2019-12-04 2020-03-24 湖南快乐阳光互动娱乐传媒有限公司 数据资源回源方法及装置
CN110941966A (zh) * 2019-12-10 2020-03-31 北京小米移动软件有限公司 机器翻译模型的训练方法、装置及系统
US11734521B2 (en) 2019-12-10 2023-08-22 Beijing Xiaomi Mobile Software Co., Ltd. Method, device and storage medium for training bidirectional machine translation model using sum of forward and reverse translation similarities
CN111178085A (zh) * 2019-12-12 2020-05-19 科大讯飞(苏州)科技有限公司 文本翻译器训练方法、专业领域文本语义解析方法和装置
CN111144137A (zh) * 2019-12-17 2020-05-12 语联网(武汉)信息技术有限公司 机器翻译后编辑模型语料的生成方法及装置
CN111144137B (zh) * 2019-12-17 2023-09-05 语联网(武汉)信息技术有限公司 机器翻译后编辑模型语料的生成方法及装置
CN111144140B (zh) * 2019-12-23 2023-07-04 语联网(武汉)信息技术有限公司 基于零次学习的中泰双语语料生成方法及装置
CN111144140A (zh) * 2019-12-23 2020-05-12 语联网(武汉)信息技术有限公司 基于零次学习的中泰双语语料生成方法及装置
CN111581986A (zh) * 2020-05-13 2020-08-25 识因智能科技(北京)有限公司 一种基于动态推敲网络的自然语言生成方法
CN111666775B (zh) * 2020-05-21 2023-08-22 平安科技(深圳)有限公司 文本处理方法、装置、设备及存储介质
CN111666775A (zh) * 2020-05-21 2020-09-15 平安科技(深圳)有限公司 文本处理方法、装置、设备及存储介质
WO2021139250A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 一种数据增强模型的训练方法及装置
WO2022058882A1 (en) * 2020-09-16 2022-03-24 International Business Machines Corporation Zero-shot cross-lingual transfer learning
GB2614654A (en) * 2020-09-16 2023-07-12 Ibm Zero-shot cross-lingual transfer learning
US11875131B2 (en) 2020-09-16 2024-01-16 International Business Machines Corporation Zero-shot cross-lingual transfer learning
CN113095091A (zh) * 2021-04-09 2021-07-09 天津大学 一种可选择上下文信息的篇章机器翻译系统及方法
CN113435216A (zh) * 2021-06-24 2021-09-24 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置
CN113435216B (zh) * 2021-06-24 2023-06-23 湖南大学 神经网络机器翻译模型训练方法、机器翻译方法和装置
CN117273027A (zh) * 2023-11-22 2023-12-22 四川语言桥信息技术有限公司 一种基于翻译错误纠正的机器翻译自动后校验方法
CN117273027B (zh) * 2023-11-22 2024-04-30 四川语言桥信息技术有限公司 一种基于翻译错误纠正的机器翻译自动后校验方法

Also Published As

Publication number Publication date
CN110069790B (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
CN110069790A (zh) 一种通过译文回译对照原文的机器翻译系统及方法
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN109271643A (zh) 一种翻译模型的训练方法、翻译方法和装置
CN111382582A (zh) 一种基于非自回归的神经机器翻译解码加速方法
CN112420024B (zh) 一种全端到端的中英文混合空管语音识别方法及装置
US11954435B2 (en) Text generation apparatus, text generation learning apparatus, text generation method, text generation learning method and program
CN110717345B (zh) 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN110852089B (zh) 基于智能分词与深度学习的运维项目管理方法
CN111984791B (zh) 一种基于注意力机制的长文分类方法
CN113821635A (zh) 一种用于金融领域的文本摘要的生成方法及系统
CN112818698A (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
CN115935957A (zh) 一种基于句法分析的句子语法纠错方法及系统
CN116738959A (zh) 一种基于人工智能的简历改写方法及系统
CN114239575B (zh) 语句分析模型的构建方法、语句分析方法、装置、介质和计算设备
CN115827879A (zh) 基于样本增强和自训练的低资源文本智能评阅方法和装置
Xu Research on neural network machine translation model based on entity tagging improvement
Li et al. A position weighted information based word embedding model for machine translation
CN115270795A (zh) 一种基于小样本学习的环评领域命名实体识别技术
Zhu English lexical analysis system of machine translation based on simple recurrent neural network
Xie et al. Mandarin prosody prediction based on attention mechanism and multi-model ensemble
Ji et al. Training with additional semantic constraints for enhancing neural machine translation
CN114238579B (zh) 文本分析方法、装置、介质和计算设备
CN116227428B (zh) 一种基于迁移模式感知的文本风格迁移方法
Ma Research on Computer Intelligent Proofreading System for English Translation Based on Deep Learning
CN111079416B (zh) 基于共享控制门结构的中文文本校正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant