CN111985251B - 翻译质量测评方法及装置 - Google Patents
翻译质量测评方法及装置 Download PDFInfo
- Publication number
- CN111985251B CN111985251B CN201910422427.3A CN201910422427A CN111985251B CN 111985251 B CN111985251 B CN 111985251B CN 201910422427 A CN201910422427 A CN 201910422427A CN 111985251 B CN111985251 B CN 111985251B
- Authority
- CN
- China
- Prior art keywords
- language sentence
- neural network
- target language
- source language
- vector representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 37
- 238000011156 evaluation Methods 0.000 claims abstract description 123
- 238000012545 processing Methods 0.000 claims abstract description 99
- 238000013528 artificial neural network Methods 0.000 claims description 298
- 238000012549 training Methods 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 21
- 238000001303 quality assessment method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 230000014616 translation Effects 0.000 description 102
- 238000010586 diagram Methods 0.000 description 26
- 230000000306 recurrent effect Effects 0.000 description 13
- 230000001537 neural effect Effects 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及一种翻译质量测评方法及装置,所述方法包括:接收待测评的目标语言语句和对应的源语言语句;获取所述源语言语句的特征信息和所述目标语言语句的特征信息;对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。利用本公开各实施例,可以提高翻译质量测评结果的可靠性。
Description
技术领域
本公开涉及翻译测评技术领域,尤其涉及一种翻译质量测评方法及装置。
背景技术
随着经济全球化的快速发展,跨语言交流日益频繁,语言翻译的质量的高低直接决定了跨语言沟通的效率和效果。因此,不管是人工翻译,还是传统的统计机器翻译系统,还是基于深度学习的神经机器翻译系统,对其翻译出的译文的质量都需要进行测评。
现有的翻译质量测评,通常需要借助人工翻译出的参考译文,来测评目标语言语句的翻译质量。但是,由于参考译文的数量有限,而由于语义的多样性,有限的参考译文并不能全面反映出翻译系统输出译文的质量,导致质量测评结果的可靠性较低。
发明内容
本公开提出了一种翻译质量测评方法及装置,以提高翻译质量测评结果的可靠性。
根据本公开的第一方面,提供了一种翻译质量测评方法,所述方法包括:
接收待测评的目标语言语句和对应的源语言语句;
获取所述源语言语句的特征信息和所述目标语言语句的特征信息;
对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
在一种可能的实现方式中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
所述源语言语句的特征信息包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息包括所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
在一种可能的实现方式中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,所述第一神经网络为目标语言到源语言的翻译神经网络,所述第一神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
所述第二神经网络为源语言到目标语言的翻译神经网络,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到。
在一种可能的实现方式中,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示可以包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到。
在一种可能的实现方式中,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句;
将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示。
在一种可能的实现方式中,将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息包括:
对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
在一种可能的实现方式中,所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
在一种可能的实现方式中,所述第一神经网络与所述测评神经网络双向耦合,所述第二神经网络与所述测评神经网络双向耦合。
在一种可能的实现方式中,所述测评神经网络与所述具有自注意力层的神经网络双向耦合。
根据本公开的第二方面,提供了一种翻译质量测评装置,所述装置包括:
语句输入模块,用于接收待测评的目标语言语句和对应的源语言语句;
特征提取模块,用于获取所述源语言语句的特征信息和所述目标语言语句的特征信息;
质量测评模块,与所述特征提取模块双向耦合,用于对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
在一种可能的实现方式中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
在一种可能的实现方式中,所述源语言语句的特征信息包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息包括所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
在一种可能的实现方式中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,所述特征提取模块包括:
第一提取子模块,用于将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
第二提取子模块,用于将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,所述第一神经网络为源语言到目标语言的翻译神经网络,所述第一神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
所述第二神经网络为目标语言到源语言的翻译神经网络,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到。
在一种可能的实现方式中,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
在一种可能的实现方式中,所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到。
在一种可能的实现方式中,所述语句输入模块包括翻译模块,所述翻译模块用于将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句;
对应的,所述特征提取模块用于将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示。
在一种可能的实现方式中,所述质量测评模块包括:
维度压缩模块,用于对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
测评模块,用于将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
在一种可能的实现方式中,所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
在一种可能的实现方式中,所述第一神经网络与所述测评神经网络双向耦合,所述第二神经网络与所述测评神经网络双向耦合。
在一种可能的实现方式中,所述测评神经网络与所述具有自注意力层的神经网络双向耦合。
根据本公开的第三方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过调用所述可执行指令实现本公开的第一方面所述的方法。
根据本公开的第四方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现本公开的第一方面所述的方法。
根据本公开的各方面的实施方式,通过目标语言语句和源语言语句本身的特征信息,对目标语言语句的翻译质量进行测评。测评不需要借助外部的参考译文,而是基于目标语言语句和源语言语句互为翻译的特性,测评结果可以不受参考译文数量及翻译质量等因素的影响,从而可以提高测评结果的可靠性。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出本公开提供的一种翻译质量测评方法的一种实施例的方法流程示意图。
图2示出图1所示实施例所述方法的数据处理流程图。
图3示出本公开提供的一种翻译质量测评方法的另一种实施例的方法流程示意图。
图4示出图3所示实施例所述方法的数据处理流程图。
图5示出本公开提供的一种翻译质量测评方法的又一种实施例的方法流程示意图。
图6示出图5所示实施例所述方法的数据处理流程图。
图7示出本公开提供的一种翻译质量测评装置的一种实施例的模块结构示意图。
图8是根据一示例性实施例示出的一种用于执行本公开所述翻译质量测评方法的装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出本公开提供的一种翻译质量测评方法的一种实施例的方法流程示意图。图2示出图1所示实施例所述方法的数据处理流程图。如图1、图2所示,所述方法可以包括:
S110:接收待测评的目标语言语句和对应的源语言语句。
本例中,所述目标语言语句是所述源语言语句的翻译,也就是翻译质量测评的对象。
S120:获取所述源语言语句的特征信息和所述目标语言语句的特征信息。
本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
其中,所述源语言语句的特征信息可以包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息可以包括所述目标语言语句对应的特征向量表示。
具体的,本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
进一步的,如图2所示,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示可以包括:
将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示。
其中,所述第一神经网络为源语言到目标语言的翻译神经网络,对应于图2所示的源语言→目标语言机器翻译模型,用于提取所述目标语言语句的特征向量表示。所述第一神经网络可以预先采用源语言和目标语言二者对应的平行语料训练得到。
所述第二神经网络为目标语言到源语言的翻译神经网络,对应于图2所示的目标语言→源语言机器翻译模型,用于提取所述源语言语句的特征向量表示,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到。
所述平行语料指的是互为翻译的源语言文本和目标语言文本组成的语料,即每个源语言文本都具有与其互为翻译的目标语言文本。这里借助外部平行语料,不同于借助参考译文,可以保证训练数据的充足,进而保证特征向量表示提取结果的可靠性。
具体的,所述第一神经网络和所述第二神经网络的类型本公开不作限定,可以是基于循环神经网络的传统神经机器翻译模型、基于循环神经网络并引入注意力机制(Attention Mechanisms)的神经机器翻译模型、基于自注意力机制(Self-attentionMechanisms)的神经机器翻译模型、以及这些神经机器翻译模型的变体和集成的神经机器翻译模型。所述第一神经网络和所述第二神经网络输出的特征向量表示可以包括但不限于每个单词对应的隐藏层表示、词向量表示、中间参数及其变体和组合。
S130:对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
本例中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息可以包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
其中,如图2所示,所述测评神经网络可以是循环神经网络,输出的测评信息可以是质量标签,所述质量标签可以是得分的形式,也可以是文本的形式。具体的,所述质量标签的具体形式本公开不作限定。在本公开其他实施例中,所述测评信息也可以是语言信息等其他形式的信息,本公开对此不作限定。
本公开一个实施例中,将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息可以包括:
对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
具体的,可以利用双向循环神经网络对源语言语句每个词、目标语言语句每个词的特征向量表示进行压缩,得到固定维度的向量表示。比如从10维向量压缩至2维向量。
其中,所述测评神经网络可以是任意基于深度学习的神经网络,比如可以包括但不限于感知机、前馈神经网络、循环神经网络(LSTM和GRU)、双向循环神经网络、及其变体。
如图2所示,本例中,所述测评神经网络与所述第一神经网络(目标语言→源语言机器翻译模型)双向耦合,还与所述第二神经网络(源语言→目标语言机器翻译模型)双向耦合。所述测评神经网络和所述第一神经网络、所述第二神经网络可以进行联合学习。当使用带标注训练数据训练联合学习的神经网络时,神经网络的测评结果的损失会梯度反向传播至各神经网络,所述在梯度反向传播的过程,会对所述测评神经网络、第一神经网络、第二神经网络的网络参数同时进行更新,使得提取的特征向量表示更加适用于质量测评。
图3示出本公开提供的一种翻译质量测评方法的另一种实施例的方法流程示意图。图4示出图3所示实施例所述方法的数据处理流程图。如图3、图4所示,所述方法可以包括:
S210:接收待测评的目标语言语句和对应的源语言语句。
本例中,所述目标语言语句是所述源语言语句的翻译,也就是翻译质量测评的对象。
S220:获取所述源语言语句的特征信息和所述目标语言语句的特征信息。
本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
其中,所述源语言语句的特征信息可以包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息可以包括所述目标语言语句对应的特征向量表示。
具体的,本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
进一步的,如图4所示,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示可以包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
其中,所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到。对应于图4中所示的预训练的表示学习模型(BERT),用于提取所述目标语言语句的特征向量表示和源语言语句的特征向量表示。
由于,所述具有自注意力层的神经网络(比如BERT、Infersent、skip-thought)可以使用源语言的单语语料和目标语言的单语语料进行训练,即源语言语料不是必须有对应的互为翻译的目标语言语料,只需要各自的单语语料。这样就可以进一步拓宽训练数据的数据量。同时也可以不受平行语料缺乏的限制。当然,所述具有自注意力层的神经网络也可以用平行语料训练,但是,外部单语语料更容易获取而且数据充足,可以进一步保证最终测评结果的可靠性。
通过预训练好的具有自注意力层的神经网络,可以自动学习到源端句子和目标端句子每个单词对应的特征向量表示;在特征学习的过程中,源端句子和目标端句子可以通过注意力机制进行交互,来挖掘两者之间的语义一致性或者差异性,该特征向量表示是将单语知识向测评神经网络迁移的纽带。这里的具有自注意力层的神经网络包括但不限于BERT(Bidirectional Encoder Representations from Transformers);自动学习的特征向量表示包括但不限于[CLS]标签(BERT模型可以在输入的序列的开始位置增添[CLS]标签,用来描述整个输入序列所包含的信息)对应的最后一层的隐层表示(注:BERT模型由多层的神经网络模型组成)、源端句子和目标端句子每个单词对应的最后一层的隐层表示、以及其他任何层的隐层表示及其组合。具体的,具有自注意力层的神经网络的具体类型本公开不作限定。
S230:对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
本例中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息可以包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
其中,如图4所示,所述测评神经网络可以是循环神经网络,输出的测评信息可以是质量标签,所述质量标签可以是得分的形式,也可以是文本的形式。具体的,所述质量标签的具体形式本公开不作限定。在本公开其他实施例中,所述测评信息也可以是语言信息等其他形式的信息,本公开对此不作限定。
本公开一个实施例中,将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息可以包括:
对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
具体的,可以利用双向循环神经网络对源语言语句每个词、目标语言语句每个词的特征向量表示进行压缩,得到固定维度的向量表示。比如从10维向量压缩至2维向量。
其中,所述测评神经网络可以是任意基于深度学习的神经网络,比如可以包括但不限于感知机、前馈神经网络、循环神经网络(LSTM和GRU)、双向循环神经网络、及其变体。
如图4所示,本例中,所述测评神经网络与具有自注意力层的神经网络双向耦合。所述测评神经网络和具有自注意力层的神经网络可以进行联合学习。当使用带标注训练数据训练联合学习的神经网络时,神经网络的测评结果的损失会梯度反向传播至所述测评神经网络和具有自注意力层的神经网络,所述在梯度反向传播的过程,会对所述测评神经网络和具有自注意力层的神经网络的网络参数同时进行更新,使得提取的特征向量表示更加适用于质量测评。
图5示出本公开提供的一种翻译质量测评方法的又一种实施例的方法流程示意图。图6示出图5所示实施例所述方法的数据处理流程图。如图5、图6所示,所述方法可以包括:
S310:接收待测评的目标语言语句和对应的源语言语句。
本例中,所述目标语言语句是所述源语言语句的翻译,也就是翻译质量测评的对象。
本例中,如图6所示,将所述源语言语句和所述目标语言语句输入神经网络可以包括:
S311:将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句。
本例中,可以将源端语言的句子转换成和目标端相同语言的句子,可以利用所述第三神经网络(源语言→目标语言语向的机器翻译模型),对源语言语句进行翻译,得到机器翻译结果。这样测评神经网络就可以机器翻译结果与待评估的目标端句子之间的语义相似性或者差异性任务。其中,所述第三神经网络可以包括但不限于基于循环神经网络的传统神经机器翻译模型;基于循环神经网络、并引入注意力机制(Attention Mechanisms)的神经机器翻译模型RNNsearch;基于自注意力机制(Self-attention Mechanisms)的神经机器翻译模型Transformer;以及这些神经机器翻译模型的变体和集成的神经机器翻译模型。
S320:获取所述源语言语句的特征信息和所述目标语言语句的特征信息。
本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
其中,所述源语言语句的特征信息可以包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息可以包括所述目标语言语句对应的特征向量表示。
具体的,本例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息可以包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
进一步的,对应于S311,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示可以包括:
将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示。
其中,所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到。对应于图6中所示的预训练的表示学习模型(BERT),用于提取所述目标语言语句的特征向量表示和源语言语句的特征向量表示。
由于,所述具有自注意力层的神经网络(比如BERT、Infersent、skip-thought)可以使用源语言的单语语料和目标语言的单语语料进行训练,即源语言语料不是必须有对应的互为翻译的目标语言语料,只需要各自的单语语料。这样就可以进一步拓宽训练数据的数据量。同时也可以不受平行语料缺乏的限制。当然,所述具有自注意力层的神经网络也可以用平行语料训练,但是,外部单语语料更容易获取而且数据充足,可以进一步保证最终测评结果的可靠性。
通过预训练好的具有自注意力层的神经网络,可以自动学习到源端句子和目标端句子每个单词对应的特征向量表示;在特征学习的过程中,源端句子和目标端句子可以通过注意力机制进行交互,来挖掘两者之间的语义一致性或者差异性,该特征向量表示是将单语知识向测评神经网络迁移的纽带。这里的具有自注意力层的神经网络包括但不限于BERT(Bidirectional Encoder Representations from Transformers);自动学习的特征向量表示包括但不限于[CLS]标签(BERT模型可以在输入的序列的开始位置增添[CLS]标签,用来描述整个输入序列所包含的信息)对应的最后一层的隐层表示(注:BERT模型由多层的神经网络模型组成)、源端句子和目标端句子每个单词对应的最后一层的隐层表示、以及其他任何层的隐层表示及其组合。具体的,具有自注意力层的神经网络的具体类型本公开不作限定。
S330:对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
本例中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息可以包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
其中,如图6所示,所述测评神经网络可以是循环神经网络,输出的测评信息可以是质量标签,所述质量标签可以是得分的形式,也可以是文本的形式。具体的,所述质量标签的具体形式本公开不作限定。在本公开其他实施例中,所述测评信息也可以是语言信息等其他形式的信息,本公开对此不作限定。
本公开一个实施例中,将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息可以包括:
对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
具体的,可以利用双向循环神经网络对源语言语句每个词、目标语言语句每个词的特征向量表示进行压缩,得到固定维度的向量表示。比如从10维向量压缩至2维向量。
其中,所述测评神经网络可以是任意基于深度学习的神经网络,比如可以包括但不限于感知机、前馈神经网络、循环神经网络(LSTM和GRU)、双向循环神经网络、及其变体。
如图6所示,本例中,所述测评神经网络与具有自注意力层的神经网络双向耦合。所述测评神经网络和具有自注意力层的神经网络可以进行联合学习。当使用带标注训练数据训练联合学习的神经网络时,神经网络的测评结果的损失会梯度反向传播至所述测评神经网络和具有自注意力层的神经网络,所述在梯度反向传播的过程,会对所述测评神经网络和具有自注意力层的神经网络的网络参数同时进行更新,使得提取的特征向量表示更加适用于质量测评。
上述各实施例提供的一种翻译质量测评方法的实施方式,可以通过融合外部的双语知识,不需要额外的辅助工具,就可以自动进行特征学习,减轻人工设计特征的负担。同时也考虑了源语言句子和系统输出译文互为翻译的特性,将机器翻译模型与翻译质量评估模型有机地结合起来。其次,通过知识的迁移学习,缓解了质量测评任务训练数据有限的问题。再次,用于特征提取的神经网络模块和用于质量测评的神经网络都是双向耦合的,可以进行联合学习,使得提取的特征向量表示更加适用于质量评估任务本身。还简化了操作流程,输入待评估的目标语言语句和对应的源语言语句,就可以自动输出质量测评结果。在不依赖于参考译文的情况下,就可以对翻译结果的质量进行评估,减少了人力、物力、财力等投入,只需要小规模的翻译质量评估标注数据就可以训练质量测评模型,从而对未见过的翻译结果进行实时的在线质量测评,这明显优于有参考译文的翻译评测,对于每一个待评估的翻译结果,都要给定相应的参考译文。此外,翻译质量测评任务标注数据的质量标签是根据后编辑代价设计的,使得翻译质量测评神经网络更加适应于特定的应用场景;通过翻译质量测评神经网络输出的预测质量标签,可以用来筛选出无需译后编辑就能够达到出版标准的高质量机器翻译结果;可以用来过滤掉需要过多译后编辑时间和代价的低质量翻译结果;可以用来支持终端使用者的工作,例如用来支持人工翻译者的工作,如果后编辑的代价比人工翻译者从头开始翻译的代价小,那么人工翻译者就可以在机器翻译系统输出译文的基础上进行译后编辑,可以大幅度提高人工翻译者的工作效率。可以根据模型预测的质量标签对多个翻译系统的输出译文或者某一翻译系统不同的输出译文进行重排序,选择“质量”最好的翻译结果。其延伸版本可以用来支持更细粒度的机器翻译质量测评,如单词、短语级别的翻译质量评估,可以用来判断单词、短语的翻译质量,也可以用来提示句子中存在的某些翻译难点。该模型的质量评估结果可以用来帮助发现机器翻译系统中存在的某些问题和缺陷,实时反馈到机器翻译系统中,辅助机器翻译系统针对性迭代更新。数据作为公司的重要竞争力之一,翻译质量评估模型可以用来帮助过滤带噪音的伪造平行语料,生成更高质量的可用数据。
图7示出本公开提供的一种翻译质量测评装置的一种实施例的模块结构示意图。具体的,如图7所示,所述装置可以包括:
语句输入模块101,可以用于接收待测评的目标语言语句和对应的源语言语句;
特征提取模块102,可以用于获取所述源语言语句的特征信息和所述目标语言语句的特征信息;
质量测评模块103,与所述特征提取模块双向耦合,可以用于对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。
本公开一个实施例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
对所述目标语言语句和所述源语言语句进行处理,得到所述目标语言语句的特征信息,以及得到所述源语言语句的特征信息。
本公开一个实施例中,所述源语言语句的特征信息包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息包括所述目标语言语句对应的特征向量表示。
本公开一个实施例中,对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息包括:
将所述源语言语句对应的特征向量表示和所述目标语言对应的特征向量表示输入测评神经网络,经所述测评神经网络处理后输出所述测评信息。
本公开一个实施例中,获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
本公开一个实施例中,所述特征提取模块102可以包括:
第一提取子模块1021,可以用于将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
第二提取子模块1022,用于将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示。
本公开一个实施例中,所述第一神经网络为源语言到目标语言的翻译神经网络,所述第一神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
所述第二神经网络为目标语言到源语言的翻译神经网络,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到。
本公开一个实施例中,将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示。
本公开一个实施例中,所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到。
本公开一个实施例中,所述语句输入模块101可以包括翻译模块1011,所述翻译模块1011可以用于将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句;
对应的,所述特征提取模块用于将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示。
本公开一个实施例中,所述质量测评模块103可以包括:
维度压缩模块1031,用于对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
测评模块1032,用于将所述固定维度的向量表示输入所述测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息。
上述各实施例中,所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
本公开一个实施例中,所述第一神经网络与所述测评神经网络双向耦合,所述第二神经网络与所述测评神经网络双向耦合。
本公开一个实施例中,所述测评神经网络与所述具有自注意力层的神经网络双向耦合。
具体工作过程以及设置方式均可以参照本公开上述相应方法实施例的具体描述,限于篇幅,在此不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述任一方法实施例。计算机可读存储介质可以是非易失性计算机可读存储介质。
图8是根据一示例性实施例示出的一种用于执行上述各实施例所述翻译质量测评方法的装置1900的框图。例如,装置1900可以被提供为一服务器。参照图8,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言-诸如Smalltalk、C++等,以及常规的过程式编程语言-诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络-包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (6)
1.一种翻译质量测评方法,其特征在于,所述方法包括:
接收待测评的目标语言语句和对应的源语言语句;
获取所述源语言语句的特征信息和所述目标语言语句的特征信息,所述源语言语句的特征信息包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息包括所述目标语言语句对应的特征向量表示;
获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示;
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示;
所述第一神经网络为目标语言到源语言的翻译神经网络,所述第一神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
所述第二神经网络为源语言到目标语言的翻译神经网络,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
或者,
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示;
所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到;
或者,
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句;
将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示;
对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息;
所述对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息,包括:
对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
将所述固定维度的向量表示输入测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息;所述第一神经网络与所述测评神经网络双向耦合,所述第二神经网络与所述测评神经网络双向耦合;
所述测评神经网络与所述具有自注意力层的神经网络双向耦合。
2.如权利要求1中任意一项所述的一种翻译质量测评方法,其特征在于,所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
3.一种翻译质量测评装置,其特征在于,所述装置包括:
语句输入模块,用于接收待测评的目标语言语句和对应的源语言语句;
特征提取模块,用于获取所述源语言语句的特征信息和所述目标语言语句的特征信息,所述源语言语句的特征信息包括所述源语言语句对应的特征向量表示,所述目标语言语句的特征信息包括所述目标语言语句对应的特征向量表示;
获取所述源语言语句的特征信息和所述目标语言语句的特征信息包括:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示;
所述特征提取模块包括:
第一提取子模块,用于将所述源语言语句和所述目标语言语句输入第一神经网络,经所述第一神经网络处理后输出所述源语言语句对应的特征向量表示;
第二提取子模块,用于将所述源语言语句和所述目标语言语句输入第二神经网络,经所述第二神经网络处理后输出所述目标语言语句对应的特征向量表示;
所述第一神经网络为源语言到目标语言的翻译神经网络,所述第一神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
所述第二神经网络为目标语言到源语言的翻译神经网络,所述第二神经网络包括预先采用源语言和目标语言二者对应的平行语料训练得到;
或者,所述特征提取模块用于:
将所述源语言语句和所述目标语言语句输入神经网络,经所述神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示包括:
将所述源语言语句和所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句对应的特征向量表示和所述目标语言语句对应的特征向量表示;
所述具有自注意力层的神经网络包括预先采用源语言的单语语料和目标语言的单语语料训练得到,或预先采用源语言和目标语言二者对应的平行语料训练得到;
或者,
所述语句输入模块包括翻译模块,所述翻译模块用于将所述源语言语句输入第三神经网络,经所述第三神经网络处理后输出所述源语言语句对应的新目标语言语句;
对应的,所述特征提取模块用于将所述新目标语言语句和待测评的所述目标语言语句输入具有自注意力层的神经网络,经所述具有自注意力层的神经网络处理后输出所述源语言语句的特征向量表示和所述目标语言语句的特征向量表示;
质量测评模块,与所述特征提取模块双向耦合,用于对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息;
所述质量测评模块包括:
维度压缩模块,用于对所述源语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示,对所述目标语言语句对应的特征向量表示进行压缩,得到固定维度的向量表示;
测评模块,用于将所述固定维度的向量表示输入测评神经网络全连接层,经所述测评神经网络处理后输出所述测评信息;
所述第一神经网络与所述测评神经网络双向耦合,所述第二神经网络与所述测评神经网络双向耦合;
所述测评神经网络与所述具有自注意力层的神经网络双向耦合。
4.如权利要求3中任意一项所述的一种翻译质量测评装置,其特征在于,所述源语言语句的特征向量表示包括所述源语言语句每个词对应的特征向量表示,所述目标语言语句的特征向量表示包括所述目标语言语句每个词对应的特征向量表示。
5.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过调用所述可执行指令实现如权利要求1至2中任意一项所述的方法。
6.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至2中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422427.3A CN111985251B (zh) | 2019-05-21 | 2019-05-21 | 翻译质量测评方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910422427.3A CN111985251B (zh) | 2019-05-21 | 2019-05-21 | 翻译质量测评方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985251A CN111985251A (zh) | 2020-11-24 |
CN111985251B true CN111985251B (zh) | 2023-11-07 |
Family
ID=73435872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910422427.3A Active CN111985251B (zh) | 2019-05-21 | 2019-05-21 | 翻译质量测评方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985251B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115099249B (zh) * | 2022-07-28 | 2023-11-24 | 山东智慧译百信息技术有限公司 | 一种基于翻译结果智能优化方法、系统及其存储介质 |
CN117910482B (zh) * | 2024-03-19 | 2024-05-28 | 江西师范大学 | 一种基于深度差异特征的机器译文自动评价方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101520779A (zh) * | 2009-04-17 | 2009-09-02 | 哈尔滨工业大学 | 一种机器翻译自动诊断评价方法 |
CN101777044A (zh) * | 2010-01-29 | 2010-07-14 | 中国科学院声学研究所 | 利用语句结构信息的机器翻译自动评测系统及实现方法 |
CN102043774A (zh) * | 2011-01-13 | 2011-05-04 | 北京交通大学 | 机器翻译测评装置和方法 |
CN103119584A (zh) * | 2010-12-17 | 2013-05-22 | 北京交通大学 | 机器翻译测评装置及方法 |
CN104508658A (zh) * | 2012-07-13 | 2015-04-08 | 微软公司 | 基于短语的词典提取和翻译质量评估 |
CN106776583A (zh) * | 2015-11-24 | 2017-05-31 | 株式会社Ntt都科摩 | 机器翻译评价方法和设备及机器翻译方法和设备 |
CN109062912A (zh) * | 2018-08-08 | 2018-12-21 | 科大讯飞股份有限公司 | 一种翻译质量评价方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7848915B2 (en) * | 2006-08-09 | 2010-12-07 | International Business Machines Corporation | Apparatus for providing feedback of translation quality using concept-based back translation |
-
2019
- 2019-05-21 CN CN201910422427.3A patent/CN111985251B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101520779A (zh) * | 2009-04-17 | 2009-09-02 | 哈尔滨工业大学 | 一种机器翻译自动诊断评价方法 |
CN101777044A (zh) * | 2010-01-29 | 2010-07-14 | 中国科学院声学研究所 | 利用语句结构信息的机器翻译自动评测系统及实现方法 |
CN103119584A (zh) * | 2010-12-17 | 2013-05-22 | 北京交通大学 | 机器翻译测评装置及方法 |
CN102043774A (zh) * | 2011-01-13 | 2011-05-04 | 北京交通大学 | 机器翻译测评装置和方法 |
CN104508658A (zh) * | 2012-07-13 | 2015-04-08 | 微软公司 | 基于短语的词典提取和翻译质量评估 |
CN106776583A (zh) * | 2015-11-24 | 2017-05-31 | 株式会社Ntt都科摩 | 机器翻译评价方法和设备及机器翻译方法和设备 |
JP2017097882A (ja) * | 2015-11-24 | 2017-06-01 | 株式会社Nttドコモ | 機械翻訳評価方法および装置、並びに機械翻訳方法および装置 |
CN109062912A (zh) * | 2018-08-08 | 2018-12-21 | 科大讯飞股份有限公司 | 一种翻译质量评价方法及装置 |
Non-Patent Citations (2)
Title |
---|
Predictor-Estimator: Neural Quality Estimation Based on Target Word Prediction for Machine Translation;Hyun Kim;《ACM Transactions on Asian and Low-Resource Language Information Processing》;17(1);1-22 * |
基于融合策略的机器翻译自动评价方法;马青松 等;《中文信息学报》;第32卷(第09期);11-19 * |
Also Published As
Publication number | Publication date |
---|---|
CN111985251A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287278B (zh) | 评论生成方法、装置、服务器及存储介质 | |
US20230025317A1 (en) | Text classification model training method, text classification method, apparatus, device, storage medium and computer program product | |
CN109670180B (zh) | 向量化译员的翻译个性特征的方法及装置 | |
CN111368548A (zh) | 语义识别方法及装置、电子设备和计算机可读存储介质 | |
CN111191428B (zh) | 评论信息处理方法、装置、计算机设备和介质 | |
CN108304376B (zh) | 文本向量的确定方法、装置、存储介质及电子装置 | |
CN111144140B (zh) | 基于零次学习的中泰双语语料生成方法及装置 | |
CN112560510B (zh) | 翻译模型训练方法、装置、设备及存储介质 | |
CN111985251B (zh) | 翻译质量测评方法及装置 | |
CN110555213A (zh) | 文本翻译模型的训练方法、文本翻译方法及装置 | |
CN112766000A (zh) | 基于预训练模型的机器翻译方法及系统 | |
CN111144137B (zh) | 机器翻译后编辑模型语料的生成方法及装置 | |
CN110852063B (zh) | 基于双向lstm神经网络的词向量生成方法及装置 | |
CN109657244B (zh) | 一种英文长句自动切分方法及系统 | |
CN110750669B (zh) | 一种图像字幕生成的方法及系统 | |
CN111178097B (zh) | 基于多级翻译模型生成中泰双语语料的方法及装置 | |
CN111475640A (zh) | 基于情感摘要的文本情感识别方法及装置 | |
CN116956953A (zh) | 翻译模型的训练方法、装置、设备、介质及程序产品 | |
CN116821306A (zh) | 对话回复生成方法、装置、电子设备和存储介质 | |
CN111177414A (zh) | 一种实体预标注方法和装置以及设备 | |
CN114429106B (zh) | 页面信息处理方法、装置、电子设备和存储介质 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN114912434A (zh) | 一种风格文本的生成方法及装置、存储介质、电子设备 | |
CN114841175A (zh) | 机器翻译方法、装置、设备及存储介质 | |
CN115269767A (zh) | 模型训练方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |