CN113435215A - 一种机器翻译方法和装置 - Google Patents
一种机器翻译方法和装置 Download PDFInfo
- Publication number
- CN113435215A CN113435215A CN202110694026.0A CN202110694026A CN113435215A CN 113435215 A CN113435215 A CN 113435215A CN 202110694026 A CN202110694026 A CN 202110694026A CN 113435215 A CN113435215 A CN 113435215A
- Authority
- CN
- China
- Prior art keywords
- translation
- bundle
- currently set
- target
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013519 translation Methods 0.000 title claims abstract description 252
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000011156 evaluation Methods 0.000 claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 54
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013138 pruning Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种机器翻译方法和装置,涉及机器翻译技术领域。本发明提供的机器翻译方法和装置,首先获取对编码器生成的语义向量进行解码得到的翻译结果,并获取翻译结果的目标评价参数;然后基于翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;最后根据调整后的集束搜索相关参数,更新翻译结果。本发明的方案能够改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加准确和通顺。
Description
技术领域
本发明涉及机器翻译技术领域,特别是涉及一种机器翻译方法和装置。
背景技术
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。同时,机器翻译又具有重要的实用价值。随着经济全球化及互联网的飞速发展,机器翻译技术在促进政治、经济、文化交流等方面起到越来越重要的作用。
目前在采用神经网络进行机器翻译时,为了降低计算的时间和空间复杂度,在解码过程中往往使用集束搜索的方法(Beam Search),即每一步解码时,只保留当前翻译效果最好的几个。这在本质上是一种广度优先搜索(Breadth First Search,BFS)加剪枝的方法,并不能保证得到全局最优的解。最优解或者比当前翻译效果好的次优解可能在剪枝过程中已经被过滤掉。因此采用集束搜索有时翻译效果较差,甚至会遇到同一内容连续重复出现的现象,严重影响机器翻译的使用体验。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种机器翻译方法和装置。
依据本发明的第一方面,提供了一种机器翻译方法,包括:
获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数;
基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;
根据调整后的集束搜索相关参数,更新所述翻译结果。
可选的,基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数的步骤包括:
基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数;
根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
可选的,根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数的步骤包括:
将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较;
当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
可选的,获取所述翻译结果的目标评价参数的步骤包括:
获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
可选的,基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数的步骤包括:
基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数;或者
基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
可选的,所述集束搜索相关参数包括以下至少一项:集束的宽度、长度惩罚值。
依据本发明的第二方面,提供了一种机器翻译装置,包括:
获取模块,用于获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数;
调整模块,用于基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;
更新模块,用于根据调整后的集束搜索相关参数,更新所述翻译结果。
可选的,所述调整模块包括:
确定子模块,用于基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数;
第一调整子模块,用于根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
可选的,所述第一调整子模块包括:
比较单元,用于将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较;
调整单元,用于当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
可选的,所述获取模块包括:
获取子模块,用于获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
可选的,所述调整模块包括:
第二调整子模块,用于基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数;或者
第三调整子模块,用于基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
可选的,所述集束搜索相关参数包括以下至少一项:集束的宽度、长度惩罚值。
本发明实施例提供的机器翻译方法和装置,获取对编码器生成的语义向量进行解码得到的翻译结果后,不再将一次解码的结果作为最终结果,而是获取所述翻译结果的目标评价参数,目标评价参数能够反映出,按照之前的集束搜索方式得到的翻译结果在某个层面上的翻译效果;然后基于翻译结果的目标评价参数,调整当前设置的集束搜索相关参数,以在翻译效果不理想时及时调整;再根据调整后的集束搜索相关参数,更新翻译结果,以改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加准确和通顺。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是本发明实施例提供的一种机器翻译方法的步骤流程示意图;
图2是现有一种翻译模型架构的示意图;
图3是现有另一种翻译模型架构的示意图;
图4是本发明实施例提供的一种机器翻译装置的示意框图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
为了更好地理解本发明,首先对机器翻译的编码器和解码器进行简要介绍。
神经机器翻译的模型框架都是编码器Encoder-解码器Decoder框架,编码器包含一层或若干层神经网络,解码器也包含一层或若干层神经网络。而编码器Encoder的目标是生成语义向量,将原语句的信息提取出来,使用一个抽象的语义来代替原来的句子;而解码器Decoder的目的在于将抽象的语义,转换成目标语言的句子,并使得生成的句子能完美的表达原语句的意思,并符合目标语言的逻辑习惯。
以中-英互译为例:中翻英模型架构如图2所示,编码器Encoder和解码器Decoder分别包含N层神经网络,N为大于或等于1的整数。假设中文源文为“甲乙丙丁”,英文译文为“ABCD”。中文源文“甲乙丙丁”输入到Encoder中,生成语义向量Vy,继而将语义向量Vy传给Decoder;Decoder通过对语义向量Vy解码得到翻译结果“ABCD”,其中SOS为解码器翻译起始标志符,EOS为解码器翻译结束标志符。
英翻中模型如图3所示,编码器Encoder和解码器Decoder分别包含N层神经网络,N为大于或等于1的整数。假设英文源文为“ABCD”,中文译文为“甲乙丙丁”。英文源文“ABCD”输入到Encoder中,生成语义向量Vx,继而将语义向量Vx传给Decoder;Decoder通过对语义向量Vx解码得到翻译结果“甲乙丙丁”。
其中,在解码过程中往往使用集束搜索的方法(Beam Search),集束搜索的方法在大多数情况下已经被证明是一种节省计算和存储资源的有效方法,但是在某些情况下表现会急剧变差。这是集束搜索本身的局限决定的,使模型在解码过程中没有达到最优,翻译效果变差。
本发明实施例提供一种机器翻译方法和装置,解码器不再将一次解码的结果作为最终结果,而是利用集束搜索相关参数对翻译效果进行校验,必要时更新翻译结果,打破了集束搜索本身的局限性,能够保证翻译效果,使翻译的句子更加通顺。
图1是本发明实施例的机器翻译方法的流程示意图。参见图1所示,该机器翻译方法包括:
步骤101:获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数。
这里,编码器Encoder包含一层或若干层神经网络,编码器将原语句的信息提取出来,使用一个抽象的语义代替原来的句子,生成语义向量;解码器Decoder也包含一层或若干层神经网络,解码器对编码器生成的语义向量进行解码,转换成目标语言的句子,得到翻译结果。本步骤中,获取解码器解码得到的翻译结果后,不再将一次解码的结果作为最终结果,而是获取所述翻译结果的目标评价参数,目标评价参数能够反映出,按照之前的集束搜索方式得到的翻译结果在某个层面上所达到的翻译效果,以基于目标评价参数在翻译效果不理想时及时调整。
其中,本发明实施例对于编码器和解码器的模型结构不做限定,现有技术中任何能够实现编码和解码的模型结构均可应用到本发明实施例中。
步骤102:基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数。
这里,目标评价参数能够反映出,按照之前的集束搜索方式得到的翻译结果在某个层面上的翻译效果。本步骤中,可在翻译效果不理想时,基于目标评价参数,调整当前设置的集束搜索相关参数,以改善翻译效果。
步骤103:根据调整后的集束搜索相关参数,更新所述翻译结果。
这里,根据调整后的集束搜索相关参数,更新翻译结果,以改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加通顺。
本发明实施例的机器翻译方法,不再将一次解码的结果作为最终结果,而是基于目标评价参数调整当前设置的集束搜索相关参数,并更新翻译结果,从而改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加准确和通顺。
可选的,上述步骤102包括:
步骤1021:基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数。
这里,得到一次解码的翻译结果后,如果翻译效果比较好,说明之前的集束搜索方式不需要改进,如果翻译效果不好,说明按照之前的集束搜索方式并不能得到最优解,则需要调整,重新确定出合适的集束搜索相关参数。本发明实施例中,使用能够反映翻译效果的目标评价参数来确定合适的集束搜索相关参数。具体的,预先建立了目标评价参数与集束搜索相关参数之间的对应关系。其中,对应关系的设置规则可以包括:如果目标评价参数指示的翻译效果不好,可以设置其对应的集束搜索相关参数所形成的搜索范围较大,以使模型解码过程中扩大搜索范围,找到更优解;如果目标评价参数指示的翻译效果比较好,可以设置其对应的集束搜索相关参数所形成的搜索范围适中,以节省计算的开销。
本步骤中,基于翻译结果的目标评价参数,以及目标评价参数与集束搜索相关参数之间的对应关系,可准确、快速地确定出合适的目标集束搜索相关参数。
其中,目标集束搜索相关参数指的是需要调整达到的集束搜索相关参数,即对应关系中指示的集束搜索相关参数。目标集束搜索相关参数与当前设置的集束搜索相关参数,即得到此次翻译结果的过程中所使用的集束搜索相关参数,可能相同,也可能不同。
步骤1022:根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
这里,根据目标集束搜索相关参数,调整当前设置的集束搜索相关参数,进行重新翻译,可改善翻译效果。
本发明实施中,所述集束搜索相关参数可包括以下至少一项:集束的宽度、长度惩罚值。
其中,集束的宽度bm或称集束的大小,以及长度惩罚值lp,是集束搜索过程中两个关键的参数。增加lp会倾向得到更短的翻译语句。增加bm能够扩大搜索范围,但同时会增加计算的开销,在多数情况下往往将bm设置为一个固定的值。
本发明实施例中,可预先建立集束的宽度bm、长度惩罚值lp与目标评价参数之间的对应关系,基于该对应关系,可快速确定出目标评价参数对应的目标bm、lp的值。其中,如前所述,对应关系的设置规则可以包括:如果目标评价参数指示的翻译效果不好,可以设置其对应的bm较大,以使模型解码过程中扩大搜索范围,找到更优解;如果目标评价参数指示的翻译效果比较好,可以不调整其对应的bm,以节省计算的开销。对应关系的设置规则还可以包括:如果目标评价参数指示的句子过长,可以设置其对应的lp较大,以倾向得到更短的翻译语句;如果目标评价参数指示的句子过短,可设置其对应的lp较小,以倾向得到更长的翻译语句。
可选的,上述步骤1022包括:
步骤10221:将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较。
这里,通过将目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较,以确定当前设置的集束搜索相关参数是否与目标集束搜索相关参数相匹配,从而对当前的集束搜索相关参数进行适时适当地调整,保证翻译效果。
步骤10222:当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
这里,如果目标集束搜索相关参数大于当前设置的集束搜索相关参数,说明当前设置的集束搜索相关参数不能达到理想的翻译效果,则扩大当前设置的集束搜索相关参数,以改善翻译效果。
假设目标集束搜索相关参数包括目标集束的宽度bm和目标长度惩罚值lp,如果目标bm大于当前设置的bm,则扩大当前设置的bm,以扩大搜索范围进行重新翻译,找到更优解。
当然,如果bm和lp两种参数中,只有一种当前设置的参数与目标参数不相匹配,可依据情况只调整其中的一种参数。例如,假设目标bm大于当前设置的bm,目标lp等于当前设置的lp,则可只扩大bm进行重新翻译。
当然,集束搜索相关参数可以只包括目标集束的宽度bm和目标长度惩罚值lp中的一种,例如只包括bm,则基于目标bm,调整当前设置的bm即可。
需要说明的是,当目标集束搜索相关参数等于当前设置的集束搜索相关参数时,说明当前的翻译效果比较好,可以不对集束搜索相关参数进行调整,当然,如果仍然对当前的翻译结果不满意,也可输入调整后的集束搜索相关参数重新进行翻译。
本发明实施例中,对于反映翻译效果的目标评价参数可以包括多个层面的参数,比如能够反映翻译结果重复内容的参数,能够反映翻译结果句长是否合适的参数,能够反映翻译结果语句是否通顺的参数等。下面对目标评价参数进行介绍。
可选的,上述步骤101中,获取所述翻译结果的目标评价参数的步骤包括:
获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
这里,可以利用第一比值、第二比值、翻译得分信息中的至少一项,来确定目标集束搜索相关参数,以适时调整集束搜索相关参数,改善翻译效果。
其中,第一比值能够反映出翻译结果中出现重复的翻译内容的情况,如果重复的内容较多,说明翻译不准确,则可适当扩大搜索范围。第一比值为翻译结果的句长与翻译结果进行去重处理后的句长之间的比值。翻译结果的句长,指的是翻译出的句子包括的所有单位对象token(英文单词、中文词组、符号等)的数量。例如假设翻译结果为“我我是中中国国人”,翻译结果包含的token依次为‘我’、‘我’、‘是’、‘中’、‘中国’、‘国’、‘人’,句长为7。而翻译结果进行去重处理后的句长,指的是翻译出的句子中去除重复出现的内容后,包括的所有单位对象token的数量。例如假设翻译结果为“我我是中中国国人”,翻译结果进行去重处理后为“我是中国人”,包含的token依次为‘我’、‘是’、‘中国人’,句长为3。
其中,第一比值decode_len_ratio利用公式表示如下:
decode_len_ratio=len(list(decode_tokens))/len(set(decode_tokens))。
这里,len为求长度函数,list为求所有token的函数,set为求所有token集合的函数,每个token集合中包含的token相同。
其中,第二比值能够反映出翻译的句子长度与待翻译的句子长度之间是否相差较多,如果相差较多,肯定是翻译不准确,则可适当扩大搜索范围。第二比值为翻译结果的句长与待翻译的句长之间的比值。
其中,第二比值decode_encode_len_ratio利用公式表示如下:
decode_encode_len_ratio=len(list(decode_tokens))/len(list(encode_tokens))。
这里,len为求长度函数,list为求所有token的函数。Encode tokens就是待翻译的句子分词之后的长度,比如,待翻译的句子为“我是中国人。”,分词之后的句长算上句号是4。
其中,翻译得分信息可以看做是类似语言模型判断句子是否通顺的分数,翻译得分信息可以直观地体现出翻译效果的好坏。其中,本发明实施例对于如何计算翻译得分信息不做限定,现有技术中任何能够合理计算语言模型翻译得分的方式都可应用到本发明实施例中。例如,对于解码器输出的翻译结果,一般包括多个词以及每个词的概率,可先将每个词的概率相加,得到概率和;再利用预设算法(如求对数)对概率和进行计算,得到总的概率值;最后基于总的概率值,确定翻译得分,一般总的概率值越大,说明翻译成功的概率也越大,得分也越高。
可选的,上述步骤102包括:
步骤1023基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
这里,可以利用第一比值和翻译得分信息,确定翻译结果是否有过多的重复性内容,以及判断翻译结果的语句是否通顺,在翻译效果不理想时,基于第一比值和翻译结果得分,调整当前设置的集束搜索相关参数,以改善翻译效果。
具体的,可预先建立第一比值decode_len_ratio、翻译得分信息score与集束搜索相关参数bm、lp之间的对应关系f。其中,如前所述,对应关系的设置规则可以包括:如果第一比值、翻译得分信息指示的翻译效果不好,可以设置其对应的bm较大,以使模型解码过程中扩大搜索范围,找到更优解;如果第一比值、翻译得分信息指示的翻译效果比较好,可以设置其对应的bm较大适中,以节省计算的开销。
基于所确定出的第一比值和翻译得分信息,以及该对应关系,可准确、快速地确定出目标bm和目标lp。然后基于目标bm和目标lp,调整当前设置的bm和lp,对该局进行重新翻译,能够改善翻译效果。
或者上述步骤102包括:
步骤1024:基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
这里,也可以进一步引入解码得到的翻译结果包含的token与编码生成的语义向量包含的token的长度比,即第二比值,利用第二比值、第一比值和翻译得分信息,确定翻译结果的句长是否合适、翻译结果是否有过多的重复性内容,以及判断翻译结果的语句是否通顺,在翻译效果不理想时,基于第二比值、第一比值和翻译得分信息,调整当前设置的集束搜索相关参数,以改善翻译效果。
具体的,可预先建立第二比值decode_encode_len_ratio、第一比值decode_len_ratio、翻译得分信息score与集束搜索相关参数bm、lp之间的对应关系f。其中,如前所述,对应关系的设置规则可以包括:如果第一比值、第二比值、翻译得分信息指示的翻译效果不好,可以设置其对应的bm较大,以使模型解码过程中扩大搜索范围,找到更优解;如果第一比值、第二比值、翻译得分信息指示的翻译效果比较好,可以设置其对应的bm较大适中,以节省计算的开销。对应关系的设置规则还可以包括:如果第二比值指示翻译的句子过长,可以设置其对应的lp较大,以倾向得到更短的翻译语句;如果第二比值指示翻译的句子过短,可设置其对应的lp较小,以倾向得到更长的翻译语句。
基于所确定出的第一比值、第二比值和翻译得分信息,以及该对应关系,可准确、快速地确定出目标bm和目标lp。然后基于目标bm和目标lp,调整当前设置的bm和lp,对该局进行重新翻译,能够改善翻译效果。
本发明实施例的机器翻译方法,通过将机器翻译解码过程中的bm和lp两个参数设定为可变的量,如果当前的翻译结果较差,调整bm和lp的值,对编码器生成的语义向量进行重新解码,来改善翻译得到的效果较差的句子。
本发明实施例的机器翻译方法,不再将一次解码的结果作为最终结果,而是将翻译效果较差的句子,通过改变翻译模型的参数,增大搜索空间,进行重新解码。将解码过程中的集束搜索相关参数(如bm和lp)作为可变的函数,通过本轮的解码结果来计算是否需要重新解码,如果需要重新解码,则使用更新的集束搜索相关参数来进行重新解码,从而改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加通顺。
参见图4所示,本发明的实施例还提供了一种机器翻译装置400,包括:
获取模块401,用于获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数;
调整模块402,用于基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;
更新模块403,用于根据调整后的集束搜索相关参数,更新所述翻译结果。
本发明实施例的机器翻译装置400,不再将一次解码的结果作为最终结果,而是基于目标评价参数调整当前设置的集束搜索相关参数,并更新翻译结果,从而改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加准确和通顺。
可选的,所述调整模块402包括:
确定子模块,用于基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数;
第一调整子模块,用于根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
可选的,所述第一调整子模块包括:
比较单元,用于将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较;
调整单元,用于当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
可选的,所述获取模块401包括:
获取子模块,用于获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
可选的,所述调整模块402包括:
第二调整子模块,用于基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数;或者
第三调整子模块,用于基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
可选的,所述集束搜索相关参数包括以下至少一项:集束的宽度、长度惩罚值。
本发明实施例的机器翻译装置400,不再将一次解码的结果作为最终结果,而是基于目标评价参数调整当前设置的集束搜索相关参数,并更新翻译结果,从而改善翻译效果较差的句子,保证翻译效果,使翻译的句子更加准确和通顺。
对于上述装置实施例而言,由于其与方法实施例基本相似,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域技术人员易于想到的是:上述各个实施例的任意组合应用都是可行的,故上述各个实施例之间的任意组合都是本发明的实施方案,但是由于篇幅限制,本说明书在此就不一一详述了。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (12)
1.一种机器翻译方法,其特征在于,包括:
获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数;
基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;
根据调整后的集束搜索相关参数,更新所述翻译结果。
2.根据权利要求1所述的机器翻译方法,其特征在于,基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数的步骤包括:
基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数;
根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
3.根据权利要求2所述的机器翻译方法,其特征在于,根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数的步骤包括:
将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较;
当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
4.根据权利要求1-3任一项所述的机器翻译方法,其特征在于,获取所述翻译结果的目标评价参数的步骤包括:
获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
5.根据权利要求4所述的机器翻译方法,其特征在于,基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数的步骤包括:
基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数;或者
基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
6.根据权利要求1-3任一项所述的机器翻译方法,其特征在于,所述集束搜索相关参数包括以下至少一项:集束的宽度、长度惩罚值。
7.一种机器翻译装置,其特征在于,包括:
获取模块,用于获取对编码器生成的语义向量进行解码得到的翻译结果,并获取所述翻译结果的目标评价参数;
调整模块,用于基于所述翻译结果的目标评价参数,调整当前设置的集束搜索相关参数;
更新模块,用于根据调整后的集束搜索相关参数,更新所述翻译结果。
8.根据权利要求7所述的机器翻译装置,其特征在于,所述调整模块包括:
确定子模块,用于基于所述翻译结果的目标评价参数,以及预先建立的目标评价参数与集束搜索相关参数之间的对应关系,确定目标集束搜索相关参数;
第一调整子模块,用于根据所述目标集束搜索相关参数,调整当前设置的集束搜索相关参数。
9.根据权利要求8所述的机器翻译装置,其特征在于,所述第一调整子模块包括:
比较单元,用于将所述目标集束搜索相关参数与当前设置的集束搜索相关参数进行比较;
调整单元,用于当所述目标集束搜索相关参数大于当前设置的集束搜索相关参数时,扩大当前设置的集束搜索相关参数。
10.根据权利要求7-9任一项所述的机器翻译装置,其特征在于,所述获取模块包括:
获取子模块,用于获取以下至少一项:所述翻译结果的句长与所述翻译结果进行去重处理后的句长之间的第一比值、所述翻译结果的句长与待翻译的句子长度之间的第二比值、翻译得分信息。
11.根据权利要求10所述的机器翻译装置,其特征在于,所述调整模块包括:
第二调整子模块,用于基于所述第一比值和所述翻译得分信息,调整当前设置的集束搜索相关参数;或者
第三调整子模块,用于基于所述第一比值、所述第二比值和所述翻译得分信息,调整当前设置的集束搜索相关参数。
12.根据权利要求7-9任一项所述的机器翻译装置,其特征在于,所述集束搜索相关参数包括以下至少一项:集束的宽度、长度惩罚值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110694026.0A CN113435215A (zh) | 2021-06-22 | 2021-06-22 | 一种机器翻译方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110694026.0A CN113435215A (zh) | 2021-06-22 | 2021-06-22 | 一种机器翻译方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113435215A true CN113435215A (zh) | 2021-09-24 |
Family
ID=77757140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110694026.0A Pending CN113435215A (zh) | 2021-06-22 | 2021-06-22 | 一种机器翻译方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113435215A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085172A (ja) * | 2001-09-13 | 2003-03-20 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 機械翻訳文の自動評価方法および機械翻訳文の自動評価プログラムを記録した記録媒体 |
JP2009294747A (ja) * | 2008-06-03 | 2009-12-17 | National Institute Of Information & Communication Technology | 統計的機械翻訳装置 |
CN104331399A (zh) * | 2014-07-25 | 2015-02-04 | 一朵云(北京)科技有限公司 | 字典树翻译方法 |
JP2017021422A (ja) * | 2015-07-07 | 2017-01-26 | 国立研究開発法人情報通信研究機構 | 統計翻訳の最適化装置、統計翻訳システム、及びコンピュータプログラム |
US20190251174A1 (en) * | 2018-02-12 | 2019-08-15 | Samsung Electronics Co., Ltd. | Machine translation method and apparatus |
CN110442880A (zh) * | 2019-08-06 | 2019-11-12 | 上海海事大学 | 一种机器翻译译文的翻译方法、装置及存储介质 |
US20200034436A1 (en) * | 2018-07-26 | 2020-01-30 | Google Llc | Machine translation using neural network models |
CN110879940A (zh) * | 2019-11-21 | 2020-03-13 | 哈尔滨理工大学 | 一种基于深度神经网络的机器翻译方法及系统 |
CN111178092A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种动态调整长度惩罚及译文长度的翻译模型优化方法 |
CN112765996A (zh) * | 2021-01-19 | 2021-05-07 | 延边大学 | 基于强化学习和机器翻译质量评估的中朝机器翻译方法 |
-
2021
- 2021-06-22 CN CN202110694026.0A patent/CN113435215A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085172A (ja) * | 2001-09-13 | 2003-03-20 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 機械翻訳文の自動評価方法および機械翻訳文の自動評価プログラムを記録した記録媒体 |
JP2009294747A (ja) * | 2008-06-03 | 2009-12-17 | National Institute Of Information & Communication Technology | 統計的機械翻訳装置 |
CN104331399A (zh) * | 2014-07-25 | 2015-02-04 | 一朵云(北京)科技有限公司 | 字典树翻译方法 |
JP2017021422A (ja) * | 2015-07-07 | 2017-01-26 | 国立研究開発法人情報通信研究機構 | 統計翻訳の最適化装置、統計翻訳システム、及びコンピュータプログラム |
US20190251174A1 (en) * | 2018-02-12 | 2019-08-15 | Samsung Electronics Co., Ltd. | Machine translation method and apparatus |
US20200034436A1 (en) * | 2018-07-26 | 2020-01-30 | Google Llc | Machine translation using neural network models |
CN110442880A (zh) * | 2019-08-06 | 2019-11-12 | 上海海事大学 | 一种机器翻译译文的翻译方法、装置及存储介质 |
CN110879940A (zh) * | 2019-11-21 | 2020-03-13 | 哈尔滨理工大学 | 一种基于深度神经网络的机器翻译方法及系统 |
CN111178092A (zh) * | 2019-12-20 | 2020-05-19 | 沈阳雅译网络技术有限公司 | 一种动态调整长度惩罚及译文长度的翻译模型优化方法 |
CN112765996A (zh) * | 2021-01-19 | 2021-05-07 | 延边大学 | 基于强化学习和机器翻译质量评估的中朝机器翻译方法 |
Non-Patent Citations (3)
Title |
---|
乔博文;李军辉;: "融合语义角色的神经机器翻译", 计算机科学, no. 02, 15 February 2020 (2020-02-15) * |
聂进: "一个基于JAVA的堆栈式自然语言翻译解码器", 计算机工程与应用, no. 04, 1 April 2005 (2005-04-01) * |
高翔等: "中文短文本去重方法研究", 计算机工程与应用, vol. 50, no. 16, 15 August 2014 (2014-08-15), pages 5 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102577514B1 (ko) | 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체 | |
US8626486B2 (en) | Automatic spelling correction for machine translation | |
US20190138606A1 (en) | Neural network-based translation method and apparatus | |
JP5128629B2 (ja) | 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法 | |
Mairesse et al. | Stochastic language generation in dialogue using factored language models | |
US10303761B2 (en) | Method, non-transitory computer-readable recording medium storing a program, apparatus, and system for creating similar sentence from original sentences to be translated | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
CN111539199B (zh) | 文本的纠错方法、装置、终端、及存储介质 | |
JP2021121967A (ja) | テキスト生成方法、装置、機器及び媒体 | |
CN112766000A (zh) | 基于预训练模型的机器翻译方法及系统 | |
CN111859950A (zh) | 一种自动化生成讲稿的方法 | |
EP4276677A1 (en) | Cross-language data enhancement-based word segmentation method and apparatus | |
CN115114940A (zh) | 一种基于课程化预训练的机器翻译风格的迁移方法和系统 | |
CN113392656A (zh) | 一种融合推敲网络和字符编码的神经机器翻译方法 | |
CN112949293A (zh) | 一种相似文本生成方法、相似文本生成装置及智能设备 | |
Zhang et al. | Mind the gap: Machine translation by minimizing the semantic gap in embedding space | |
CN113435215A (zh) | 一种机器翻译方法和装置 | |
CN115130479B (zh) | 机器翻译方法、目标翻译模型训练方法及相关程序和设备 | |
CN114254657B (zh) | 一种翻译方法及其相关设备 | |
CN115906879A (zh) | 一种垂直领域的翻译模型训练方法和存储介质 | |
CN115859961A (zh) | 一种慕课的课程概念抽取方法 | |
CN109065016B (zh) | 语音合成方法、装置、电子设备及非暂态计算机存储介质 | |
CN113378553A (zh) | 文本处理方法、装置、电子设备和存储介质 | |
CN112364657A (zh) | 生成文本的方法、装置、设备和计算机可读介质 | |
US11664010B2 (en) | Natural language domain corpus data set creation based on enhanced root utterances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |