CN111652004B - 一种用于机器翻译系统的融合方法及装置 - Google Patents

一种用于机器翻译系统的融合方法及装置 Download PDF

Info

Publication number
CN111652004B
CN111652004B CN202010388547.9A CN202010388547A CN111652004B CN 111652004 B CN111652004 B CN 111652004B CN 202010388547 A CN202010388547 A CN 202010388547A CN 111652004 B CN111652004 B CN 111652004B
Authority
CN
China
Prior art keywords
translation
drafts
word
fused
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010388547.9A
Other languages
English (en)
Other versions
CN111652004A (zh
Inventor
刘洋
孙茂松
黄轩成
张嘉成
谭知行
栾焕博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010388547.9A priority Critical patent/CN111652004B/zh
Publication of CN111652004A publication Critical patent/CN111652004A/zh
Application granted granted Critical
Publication of CN111652004B publication Critical patent/CN111652004B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/08Probabilistic or stochastic CAD

Abstract

本发明实施例提供一种用于机器翻译系统的融合方法及装置。该方法包括:获取源语句和若干待融合翻译草稿,建立机器翻译系统融合任务模型;在机器翻译系统融合任务模型中定义编码器,得到源语句编码结果和翻译草稿编码结果,并作为解码器的输入,得到目标翻译概率;基于目标翻译概率,引入投票机制,使若干待融合翻译草稿中的词进行相互投票,得到出现在若干待融合翻译草稿中的高频词;综合所有高频词结果,得到目标翻译结果。本发明实施例通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。

Description

一种用于机器翻译系统的融合方法及装置
技术领域
本发明涉及机器翻译技术领域,尤其涉及一种用于机器翻译系统的融合方法及装置。
背景技术
随着国际交流的日益深入,人们对语言翻译的需求与日俱增。然而,世界上存在的语言种类繁多、各有特征、形式灵活,使得语言的自动处理以及包括语言之间的机器翻译,成为至关重要的技术。
机器翻译是指计算机在不需要人类指导的情况下进行某一特定语言到另一语言的文本翻译。而机器翻译的系统融合旨在将多个机器翻译系统的翻译进行融合,得到更好的翻译结果,如图1所示,不同翻译系统存在各自的缺陷,翻译可能有各种各样的错误,系统融合的目的在于将各个翻译综合,来得到更好的翻译结果。而要将各个翻译综合,直接有效的方法是保留各个翻译中出现得多的片段,抛弃仅有极个别翻译中出现的片段,即“投票”机制。
目前的机器翻译系统融合主要有两种做法,一种是基于统计模型的方法,使用投票机制融合多个机器翻译系统的翻译结果;另一种是基于深度神经网络模型的方法,使用端到端序列到序列建模的方法实现系统融合。这两种方法各有其缺点,统计模型的方法未使用端到端建模方法,存在错误传播问题;神经网络模型的方法不包含投票机制,融合的翻译效果有限。
因此,如何在基于神经网络模型的系统融合方法中引入投票机制是亟待解决的问题。
发明内容
本发明实施例提供一种用于机器翻译系统的融合方法及装置,用以解决现有技术中存在的问题。
第一方面,本发明实施例提供一种用于机器翻译系统的融合方法,包括:
获取源语句和若干待融合翻译草稿;
基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;
在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;
以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;
基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;
综合所有高频词结果,得到目标翻译结果。
第二方面,本发明实施例提供一种用于机器翻译系统的融合装置,包括:
获取模块,用于获取源语句和若干待融合翻译草稿;
建立模块,用于基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;
编码模块,用于在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;
解码模块,用于以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;
投票模块,用于基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;
处理模块,用于综合所有高频词结果,得到目标翻译结果。
第三方面,本发明实施例提供一种电子设备,包括:
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述用于机器翻译系统的融合方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现任一项所述用于机器翻译系统的融合方法的步骤。
本发明实施例提供的用于机器翻译系统的融合方法及装置,通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中的机器翻译系统融合示意图;
图2为本发明实施例提供的一种用于机器翻译系统的融合方法流程图;
图3为本发明实施例提供的基于投票机制的系统融合方法架构图;
图4为本发明实施例提供的一个投票机制的示例图;
图5为本发明实施例提供的一种用于机器翻译系统的融合装置结构图;
图6为本发明实施例提供的电子设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为解决现有技术中存在的翻译效果较差的问题,提供一种对投票机制建模的系统融合方法,高效准确的综合各个机器系统的翻译结果,得到较为精确的综合翻译结果。
图2为本发明实施例提供的一种用于机器翻译系统的融合方法流程图,如图2所示,包括:
S1,获取源语句和若干待融合翻译草稿;
S2,基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;
S3,在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;
S4,以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;
S5,基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;
S6,综合所有高频词结果,得到目标翻译结果。
具体地,基于待翻译的源语句和经过各机器翻译系统得到的多个待融合翻译草稿,建立一个整体的机器翻译系统融合任务模型,即对求解的问题进行描述,其中,进一步定义了源语句和多个待融合翻译草稿的编码器,得到对应的源语句编码结果和翻译草稿编码结果,再将这两个结果作为解码器的输入,得到输出的目标翻译概率,最后引入投票机制,旨在让翻译草稿中的词相互投票,以此选出翻译草稿中出现得较多的词,达到一定频率的词便作为目标翻译结果的组成词之一,将所有的筛选出的高频词进行组合,便得到目标翻译结果。
本发明实施例通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。
基于上述实施例,该方法中步骤S2具体包括:
定义x为源语句,
Figure BDA0002484754290000041
为N个待融合的翻译草稿,
Figure BDA0002484754290000042
为第n个翻译草稿,
Figure BDA0002484754290000043
代表第n个翻译草稿的第j个词,y=y1…yK是含有K个词的目标翻译,则所述机器翻译系统融合任务模型为:
Figure BDA0002484754290000051
其中,yk是目标翻译的第k个词,y<k=y1…yk-1是目标翻译的前缀,θ是模型可学习参数。
具体地,如图3所示,首先对系统融合的整体做一个形式化描述:x代表源语句,
Figure BDA0002484754290000052
是N个待融合的翻译草稿,其中
Figure BDA0002484754290000053
是第n个翻译草稿,我们使用
Figure BDA0002484754290000054
代表第n个翻译草稿的第j个词。y=y1…yK是含有K个词的目标翻译。那么,系统融合任务可以被建模为:
Figure BDA0002484754290000055
其中yk是目标翻译的第k个词,y<k=y1…yk-1是目标翻译的前缀,θ是模型的可学习参数。
基于上述任一实施例,该方法中步骤S3具体包括:
所述机器翻译系统融合任务模型包含N+1个编码器:
Hsrc=Encodersrc(x,θ)
Figure BDA0002484754290000056
其中,Encodersrc(·)为源语句的编码器,Hsrc为源语句的编码结果,Encoderhyp(·)为翻译草稿的编码器,
Figure BDA0002484754290000057
为第n个翻译草稿编码结果,N个翻译草稿的编码器的可学习参数θ是共享的。
具体地,为了对源语句和翻译草稿进行建模,模型包含N+1个编码器:
Hsrc=Encodersrc(x,θ)
Figure BDA0002484754290000058
其中,Encodersrc(·)是源语句的编码器,Hsrc是源语句的编码结果,Encoderhyp(·)是翻译草稿的编码器,
Figure BDA0002484754290000059
是第n个翻译草稿的编码结果,N个翻译草稿的编码器的可学习参数是共享的。
基于上述任一实施例,该方法中步骤S4具体包括:
以Hsrc
Figure BDA0002484754290000061
为输入,输出所述目标翻译概率:
Figure BDA0002484754290000062
Figure BDA0002484754290000063
其中,Decoder(·)为解码器,
Figure BDA0002484754290000064
为目标翻译的第k个词的向量表示,g(·)为计算生成概率的函数。
基于上述任一实施例,该方法中步骤S5具体包括:
定义所述若干待融合翻译草稿中的词为投票者和候选者;
计算投票者影响力因子和投票者偏好因子,获得所述若干待融合翻译草稿中的每个词获得的票数,并加上所述每个词的自身影响力因子,得到所述每个词作为目标翻译生成词的可能性概率;
将所述概率进行归一化处理,得到归一化可能性概率;
基于所述归一化可能性概率,提取所述归一化可能性概率对应的所述高频词。
其中,所述计算投票者影响力因子和投票者偏好因子,获得所述若干待融合翻译草稿中的每个词获得的票数,并加上所述每个词的自身影响力因子,得到所述每个词作为目标翻译生成词的可能性概率,具体包括:
计算针对翻译草稿中各词的权重:
Figure BDA0002484754290000065
其中f(·)计算权重,
Figure BDA0002484754290000066
为第n个翻译草稿的第j个词,en,j为未归一化的权重,en,j的大小代表第n个翻译草稿的第j个词为下一个出现在目标翻译的词的可能性;
定义投票者与候选者之间的相似度:
Figure BDA0002484754290000067
其中
Figure BDA0002484754290000068
为投票者,hm,i为从翻译草稿的编码
Figure BDA0002484754290000069
中抽取的向量表示,
Figure BDA00024847542900000610
为候选者,hn,j
Figure BDA00024847542900000611
的向量表示;
计算所述每个词作为目标翻译生成词的可能性概率:
Figure BDA0002484754290000071
其中,所述将所述概率进行归一化处理,得到归一化可能性概率,具体包括:
将所述每个词作为目标翻译生成词的可能性概率进行归一化,得到:
Figure BDA0002484754290000072
具体地,投票机制旨在让翻译草稿中的词相互投票,以此选出翻译草稿中出现得较多的词,此处用一个例子来说明本发明的投票机制,如图4所示,其中,位于每一个机器翻译草稿上方的数字代表影响力数值,下方为偏好数值,在本示例中,当前输入为一个源语句和三个翻译草稿,目标翻译已经翻译了一部分,问题是第5个词应该是什么?翻译草稿中的每个词都有两种身份:投票者(voter)和候选者(candidate)。投票者把“票”投给候选者。例如,在图4的例子中,此时,第2个翻译草稿中的“yesterday”是候选者,其他翻译草稿中的所有词为投票者,而“票”的大小取决于两个方面:一是投票者的影响力(influence),代表投票者重要性,二是投票者的偏好(preference),代表投票者对此候选者的青睐程度。
投票者的影响力实际上为注意力机制(attention mechanism)中基于源语句的编码,翻译草稿的编码,还有部分的目标翻译,计算的针对翻译草稿中各词的权重:
Figure BDA0002484754290000073
其中f(·)计算权重,
Figure BDA0002484754290000074
是第n个翻译草稿的第j个词,en,j是未归一化的权重,其大小代表第n个翻译草稿的第j个词有多大可能是下一个该出现在目标翻译的词,同时也是该词作为投票者的影响力。
而投票者对候选者的偏好,定义为投票者与候选者之间的相似度:
Figure BDA0002484754290000081
其中
Figure BDA0002484754290000082
是投票者,hm,i是从翻译草稿的编码
Figure BDA0002484754290000083
中抽取的向量表示。同样的,
Figure BDA0002484754290000084
是候选者,hn,j是其向量表示,相似度构成的矩阵如图3中咖啡色矩阵。
进一步地,根据翻译草稿中所有的词的影响力和他们之间的偏好,计算得到每个词获得的“票数”加上他们原本的影响力,得到每个词作为下一个目标翻译的生成词的可能性:
Figure BDA0002484754290000085
将这一可能性进行归一化,得到:
Figure BDA0002484754290000086
到此,利用将翻译草稿中的词赋予投票者和候选者的身份,利用它们的影响力和他们之间的偏好进行投票,重新得到了翻译草稿中的词出现在目标翻译的可能性,这一可能性被用于解码器中的注意力层(attention layer),即图3中的hyp-trg att层。
图5为本发明实施例提供的一种用于机器翻译系统的融合装置结构图,如图5所示,包括:获取模块51、建立模块52、编码模块53、解码模块54、投票模块55和处理模块56;其中:
获取模块51用于获取源语句和若干待融合翻译草稿;建立模块52用于基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;编码模块53用于在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;解码模块54用于以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;投票模块55用于基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;处理模块56用于综合所有高频词结果,得到目标翻译结果。
本发明实施例提供的装置用于执行上述对应的方法,其具体的实施方式与方法的实施方式一致,涉及的算法流程与对应的方法算法流程相同,此处不再赘述。
本发明实施例通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行如下方法:获取源语句和若干待融合翻译草稿;基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;综合所有高频词结果,得到目标翻译结果。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的传输方法,例如包括:获取源语句和若干待融合翻译草稿;基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;在所述机器翻译系统融合任务模型中定义所述源语句和所述若干翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;综合所有高频词结果,得到目标翻译结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种用于机器翻译系统的融合方法,其特征在于,包括:
获取源语句和若干待融合翻译草稿;
基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;
在所述机器翻译系统融合任务模型中定义所述源语句和所述若干待融合翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;
以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;
基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;
综合所有高频词结果,得到目标翻译结果;
其中,基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词,具体包括:
定义所述若干待融合翻译草稿中的词为投票者和候选者;
计算投票者影响力因子和投票者偏好因子,获得所述若干待融合翻译草稿中的每个词获得的票数,并加上所述每个词的自身影响力因子,得到所述每个词作为目标翻译生成词的可能性概率;
将所述可能性概率进行归一化处理,得到归一化可能性概率;
基于所述归一化可能性概率,提取所述归一化可能性概率对应的所述高频词。
2.根据权利要求1所述的用于机器翻译系统的融合方法,其特征在于,所述基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型,具体包括:
定义x为源语句,
Figure FDA0003579041600000021
为N个待融合的翻译草稿,
Figure FDA0003579041600000022
为第n个翻译草稿,n∈[1,N],y=y1…yK是含有K个词的目标翻译,则所述机器翻译系统融合任务模型为:
Figure FDA0003579041600000023
其中,yk是目标翻译的第k个词,y<k=y1…yk-1是目标翻译的前缀,θ是模型可学习参数。
3.根据权利要求2所述的用于机器翻译系统的融合方法,其特征在于,所述在所述机器翻译系统融合任务模型中定义所述源语句和所述若干待融合翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果,具体包括:
所述机器翻译系统融合任务模型包含N+1个编码器:
Hsrc=Encodersrc(x,θ)
Figure FDA0003579041600000024
其中,Encodersrc(·)为源语句的编码器,Hsrc为源语句的编码结果,Encoderhyp(·)为翻译草稿的编码器,
Figure FDA0003579041600000025
为第n个翻译草稿编码结果,N个翻译草稿的编码器的模型可学习参数θ是共享的。
4.根据权利要求3所述的用于机器翻译系统的融合方法,其特征在于,所述以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率,具体包括:
以Hsrc
Figure FDA0003579041600000031
为输入,输出所述目标翻译概率:
Figure FDA0003579041600000032
Figure FDA0003579041600000033
其中,Decoder(·)为解码器,
Figure FDA0003579041600000034
为目标翻译的第k个词的向量表示,g(·)为计算生成概率的函数。
5.根据权利要求3所述的用于机器翻译系统的融合方法,其特征在于,所述计算投票者影响力因子和投票者偏好因子,获得所述若干待融合翻译草稿中的每个词获得的票数,并加上所述每个词的自身影响力因子,得到所述每个词作为目标翻译生成词的可能性概率,具体包括:
计算针对翻译草稿中各词的权重:
Figure FDA0003579041600000035
其中f(·)计算权重,
Figure FDA0003579041600000036
为第n个翻译草稿的第j个词,en,j为未归一化的权重,en,j的大小代表第n个翻译草稿的第j个词为下一个出现在目标翻译的词的可能性;
定义投票者与候选者之间的相似度:
Figure FDA0003579041600000037
其中
Figure FDA0003579041600000038
为投票者,hm,i为从翻译草稿的编码
Figure FDA0003579041600000039
中抽取的向量表示,
Figure FDA0003579041600000041
为候选者,hn,j
Figure FDA0003579041600000042
的向量表示;
计算所述每个词作为目标翻译生成词的可能性概率:
Figure FDA0003579041600000043
6.根据权利要求5所述的用于机器翻译系统的融合方法,其特征在于,所述将所述概率进行归一化处理,得到归一化可能性概率,具体包括:
将所述每个词作为目标翻译生成词的可能性概率进行归一化,得到:
Figure FDA0003579041600000044
7.一种用于机器翻译系统的融合装置,其特征在于,包括:
获取模块,用于获取源语句和若干待融合翻译草稿;
建立模块,用于基于所述源语句和所述若干待融合翻译草稿,建立机器翻译系统融合任务模型;
编码模块,用于在所述机器翻译系统融合任务模型中定义所述源语句和所述若干待融合翻译草稿的编码器,得到源语句编码结果和翻译草稿编码结果;
解码模块,用于以所述源语句编码结果和所述翻译草稿编码结果作为解码器的输入,得到目标翻译概率;
投票模块,用于基于所述目标翻译概率,引入投票机制,使所述若干待融合翻译草稿中的词进行相互投票,得到出现在所述若干待融合翻译草稿中的高频词;
处理模块,用于综合所有高频词结果,得到目标翻译结果;
所述投票模块具体用于:
定义所述若干待融合翻译草稿中的词为投票者和候选者;
计算投票者影响力因子和投票者偏好因子,获得所述若干待融合翻译草稿中的每个词获得的票数,并加上所述每个词的自身影响力因子,得到所述每个词作为目标翻译生成词的可能性概率;
将所述可能性概率进行归一化处理,得到归一化可能性概率;
基于所述归一化可能性概率,提取所述归一化可能性概率对应的所述高频词。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述用于机器翻译系统的融合方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至6任一项所述用于机器翻译系统的融合方法的步骤。
CN202010388547.9A 2020-05-09 2020-05-09 一种用于机器翻译系统的融合方法及装置 Active CN111652004B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010388547.9A CN111652004B (zh) 2020-05-09 2020-05-09 一种用于机器翻译系统的融合方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010388547.9A CN111652004B (zh) 2020-05-09 2020-05-09 一种用于机器翻译系统的融合方法及装置

Publications (2)

Publication Number Publication Date
CN111652004A CN111652004A (zh) 2020-09-11
CN111652004B true CN111652004B (zh) 2022-07-05

Family

ID=72346804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010388547.9A Active CN111652004B (zh) 2020-05-09 2020-05-09 一种用于机器翻译系统的融合方法及装置

Country Status (1)

Country Link
CN (1) CN111652004B (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3389313B2 (ja) * 1994-03-22 2003-03-24 シャープ株式会社 機械翻訳装置
CN108920472B (zh) * 2018-07-04 2020-01-10 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法
CN111241855B (zh) * 2019-03-25 2021-03-16 腾讯科技(深圳)有限公司 文本翻译方法、装置、存储介质和计算机设备
CN110457713B (zh) * 2019-06-19 2023-07-28 腾讯科技(深圳)有限公司 基于机器翻译模型的翻译方法、装置、设备和存储介质
CN110765791B (zh) * 2019-11-01 2021-04-06 清华大学 机器翻译自动后编辑方法及装置

Also Published As

Publication number Publication date
CN111652004A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
WO2019114695A1 (zh) 基于翻译模型的训练方法、翻译方法、计算机设备及存储介质
CN109670180B (zh) 向量化译员的翻译个性特征的方法及装置
CN109190134B (zh) 一种文本翻译方法及装置
CN111814466A (zh) 基于机器阅读理解的信息抽取方法、及其相关设备
CN112214604A (zh) 文本分类模型的训练方法、文本分类方法、装置及设备
CN106776544A (zh) 人物关系识别方法及装置和分词方法
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN111144140B (zh) 基于零次学习的中泰双语语料生成方法及装置
CN111160452A (zh) 一种基于预训练语言模型的多模态网络谣言检测方法
CN111090736A (zh) 问答模型的训练方法、问答方法、装置及计算机存储介质
CN111813923B (zh) 文本摘要方法、电子设备及存储介质
CN113361266A (zh) 文本纠错方法、电子设备及存储介质
CN112463989A (zh) 一种基于知识图谱的信息获取方法及系统
CN112860896A (zh) 语料泛化方法及用于工业领域的人机对话情感分析方法
CN111191468B (zh) 术语替换方法及装置
CN112395425A (zh) 一种数据处理方法、装置、计算机设备以及可读存储介质
CN109979461B (zh) 一种语音翻译方法及装置
US20220058349A1 (en) Data processing method, device, and storage medium
CN115146621A (zh) 一种文本纠错模型的训练方法、应用方法、装置及设备
CN113705207A (zh) 语法错误识别方法及装置
CN109657244B (zh) 一种英文长句自动切分方法及系统
CN111652004B (zh) 一种用于机器翻译系统的融合方法及装置
CN112307754A (zh) 语句获取方法及装置
CN115310429B (zh) 一种多轮倾听对话模型中的数据压缩与高性能计算方法
CN111241843A (zh) 基于复合神经网络的语义关系推断系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant