CN115879480A - 语义约束机器翻译方法、装置、电子设备及存储介质 - Google Patents
语义约束机器翻译方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115879480A CN115879480A CN202211406961.3A CN202211406961A CN115879480A CN 115879480 A CN115879480 A CN 115879480A CN 202211406961 A CN202211406961 A CN 202211406961A CN 115879480 A CN115879480 A CN 115879480A
- Authority
- CN
- China
- Prior art keywords
- machine translation
- constraint
- target
- word
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013519 translation Methods 0.000 title claims abstract description 269
- 238000000034 method Methods 0.000 title claims abstract description 105
- 239000013598 vector Substances 0.000 claims abstract description 148
- 239000011159 matrix material Substances 0.000 claims abstract description 36
- 230000002452 interceptive effect Effects 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000003909 pattern recognition Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供一种语义约束机器翻译方法、装置、电子设备及存储介质,其中语义约束机器翻译方法,包括:获取源端语言篇章文本在目标端语言中的目标约束词序列;将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文‑约束词解码,并基于顶层解码器输出的结果和上下文‑约束词解码的结果确定机器翻译结果。使用本发明通过充分利用约束词和上下文之间的语义信息的交互关系的方式,能够大幅提高机器翻译模型性能和机器翻译模型的整体翻译质量。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种语义约束机器翻译方法、装置、电子设备及存储介质。
背景技术
机器翻译模型是自然语言处理中的常见应用模型,其功能是将输入的源端语句翻译为用户需求的目标端语句,因此机器翻译模型可适用于多个领域,比如生物医药领域,但是在应用于生物医药领域、低资源翻译场合及交互式翻译场合时,用户通常需要机器翻译模型能够确保术语翻译的精准性和专业性,由此语义约束机器方法应运而生。
相关技术中,语义约束机器翻译方法是向机器翻译模型中输入源端语言语句和目标端语言语句中必须出现的约束词,以此实现对机器翻译输出的语义约束,从而得到机器梵音模型输出的翻译结果。
然而,由于现有语义约束机器翻译方法在机器翻译过程中仅重点考虑如何在机器翻译过程中插入约束词,并不能保障对于翻译结果的语义约束,从而导致语义约束机器翻译的机器翻译模型性能不高,机器翻译模型的整体翻译质量也不高。
发明内容
本发明提供一种语义约束机器翻译方法、装置、电子设备及存储介质,用以解决现有语义约束机器翻译方法在机器翻译过程中仅重点考虑如何在机器翻译过程中插入约束词所导致的语义约束机器翻译的机器翻译模型性能和机器翻译模型的整体翻译质量均不高的缺陷,实现大幅提高机器翻译模型性能和机器翻译模型的整体翻译质量的目的。
本发明提供一种语义约束机器翻译方法,包括:
获取源端语言篇章文本在目标端语言中的目标约束词序列;
将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
根据本发明提供的一种语义约束机器翻译方法,所述获取源端语言篇章文本在目标端语言中的目标约束词序列,包括:
获取源端语言篇章文本在目标端语言中的不重叠的词组,每个所述词组包括至少一个词;
确定每个所述词组分别为一组约束词;
当存在至少两组约束词时,使用预设连接符,将所述至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
根据本发明提供的一种语义约束机器翻译方法,所述方法还包括:
若未获取到源端语言篇章文本在目标端语言中的词组时,则确定所述目标约束词序列为所述预设连接符。
根据本发明提供的一种语义约束机器翻译方法,所述对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵进行多层编解码,包括:
对所述源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;
基于所述编码结果向量和所述目标约束词序列对应的目标词向量矩阵进行多层解码。
根据本发明提供的一种语义约束机器翻译方法,所述上下文-约束词解码的结果的确定过程,包括:
将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将所述目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;
基于所述第一查询向量、所述第一键向量和所述第一值向量进行注意力计算,确定第一注意力计算结果向量;
确定所述目标词向量矩阵为第二查询向量,将所述顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;
基于所述第二查询向量、所述第二键向量和所述第二值向量进行注意力计算,确定第二注意力计算结果向量;
基于所述第一注意力计算结果向量和所述第二注意力计算结果向量,确定所述上下文-约束词解码的结果;
其中,t为正整数且t的不同取值对应所述源端语言篇章文本的机器翻译结果中的不同词。
根据本发明提供的一种语义约束机器翻译方法,所述基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果,包括:
基于顶层解码器输出的结果和所述上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;
确定所述预测概率中的最大预测概率,并将所述最大预测概率对应的词,确定为所述机器翻译结果中的第t个词。
根据本发明提供的一种语义约束机器翻译方法,所述预设机器翻译模型的训练过程包括:
确定样本源端语言篇章文本集和样本目标端篇章文本集,所述样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个所述样本源端语言篇章文本对应所述样本目标端篇章文本集中的一个样本目标端篇章文本;
使用所述样本源端语言篇章文本集、所述样本目标端篇章文本集和所述样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
本发明还提供一种语义约束机器翻译装置,包括:
获取模块,用于获取源端语言篇章文本在目标端语言中的目标约束词序列;
翻译模块,用于将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述语义约束机器翻译方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述语义约束机器翻译方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述语义约束机器翻译方法。
本发明提供的语义约束机器翻译方法、装置、电子设备及存储介质,其中语义约束机器翻译方法,首先获取源端语言篇章文本在目标端语言中的目标约束词序列,再进一步将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;由于预设机器翻译模型具备编解码的功能和上下文-约束词解码的功能,因此能够通过充分利用约束词和上下文之间的语义信息的交互关系的方式,从而大幅提高了机器翻译模型性能和机器翻译模型的整体翻译质量。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的语义约束机器翻译方法的流程示意图;
图2是本发明提供的上下文-约束词解码器的结构示意图;
图3是本发明提供的初始机器翻译模型的总体结构示意图;
图4是本发明提供的语义约束机器翻译装置的结构示意图;
图5是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
机器翻译模型是自然语言处理中的常见应用模型,其功能是将输入的源端语句翻译为用户需求的目标端语句,比如目前常见的机器翻译模型如百度翻译、google翻译等,用户通常需要机器翻译模型能够保证源端语句中的术语能够准确翻译为所需词语,这对于当前的机器翻译模型仍具有较大挑战。并且,对于低资源翻译场合、交互式翻译场合等也存在类似问题。由此语义约束机器方法应运而生。
相关技术中,语义约束机器翻译方法是向机器翻译模型中输入源端语言语句和目标端语言语句中必须出现的约束词,以此实现对机器翻译输出的语义约束,从而得到机器翻译模型输出的翻译结果。
然而,由于现有语义约束机器翻译方法在机器翻译过程中仅重点考虑如何在机器翻译过程中插入约束词,而忽略了如何利用已知约束词中的语义信息生成目标端语言语句的上下文;事实上,已知约束词所提供的语义信息,能够帮助机器翻译模型生成更好地上下文;反过来,根据上下文的语义信息,机器翻译模型能够更好地判断约束词嵌入的位置。只要充分利用约束词和上下文之间的语义信息的交互关系,就能够促进机器翻译模型生成更好的上下文和更完整的约束词,从而提高机器翻译模型的整体翻译质量,并且保障对于翻译结果的语义约束。由于现有语义约束机器翻译方法忽略了上述交互作用,因此并不能保障对于翻译结果的语义约束,从而导致语义约束机器翻译的机器翻译模型性能不高,机器翻译模型的整体翻译质量也不高。
基于此,本发明提供了一种语义约束机器翻译方法、装置、电子设备及存储介质,其中语义约束机器翻译方法的执行主体可以为终端设备,也可以为服务器;终端设备可以为个人计算机(Personal Computer,PC)、便携式设备、笔记本电脑和平板电脑等其它电子设备;服务器可以为独立的服务器或者多个服务器组成的服务器集群,比如服务器可以为包含独立主机的物理服务器、主机集群承载的虚拟服务器、云服务器等。本发明对终端设备的具体形式不做限定,也不具体限定服务器的具体形式。
需要说明的是,下述方法实施例以执行主体为终端设备为例进行说明,并且下述方法实施例的执行主体可以是终端设备的部分或全部。
参照图1,为本发明提供的语义约束机器翻译方法的流程示意图,如图1所示,该语义约束机器翻译方法,包括以下步骤:
步骤110、获取源端语言篇章文本在目标端语言中的目标约束词序列。
具体的,终端设备获取源端语言篇章文本在目标端语言中的目标约束词序列,可以是由用户向终端设备输入目标约束词序列,其输入方式可以包括但不限定终端设备输入和拍照上传输入。比如,可以通过用户人为在终端设备上输入目标约束词序列的方式获取,也可以通过将拍摄的目标约束词序列上传输入的方式获取;终端设备也可以是通过先从预先存储的约束词集中选取与源端语言篇章文本匹配的多个约束词、再将多个约束词以序列显示的方式获取目标约束词序列;其中,约束词集中每个约束词均以目标端语言显示。此处对获取目标约束词序列的方式不作具体限定。
步骤120、将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
具体的,为了提高机器翻译的专业性和准确性,可以基于预设翻译需求信息,对可以利用已知约束词中的语义信息生成目标端语言语句的上下文的翻译模型进行训练,确定训练停止时对应的预设机器翻译模型,此时,再将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果。比如,针对源端语言篇章文本为“回归和分类是模式识别的基本问题”,机器翻译结果则为“Regressionand classification are the basic problems of pattern recognition”。
本发明提供的语义约束机器翻译方法,首先获取源端语言篇章文本在目标端语言中的目标约束词序列,再进一步将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;由于预设机器翻译模型具备编解码的功能和上下文-约束词解码的功能,因此能够通过充分利用约束词和上下文之间的语义信息的交互关系的方式,从而大幅提高了机器翻译模型性能和机器翻译模型的整体翻译质量。
可选的,步骤110的具体实现过程可以包括:
首先,获取源端语言篇章文本在目标端语言中的不重叠的词组,每个词组包括至少一个词;再进一步确定每个词组分别为一组约束词;然后,当存在至少两组约束词时,使用预设连接符,将至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
具体的,终端设备获取源端语言篇章文本在目标端语言中的不重叠的词组,可以是预先设置源端语言篇章文本中b个不重叠的词组为约束词组,b可以小于等于3,约束词组的数量与不重叠的词组的数量相同且一一对应;并且每个约束词组可以均为源端语言篇章文本中的专业术语。比如,源端语言篇章文本“回归和分类是模式识别的基本问题”,可设置约束词组为“回归”和“模式识别”,此时,两个约束词组在目标端语言中的两个不重叠的词组为“regression”和“pattern recognition”。以此得到的每个不重叠的词组均为一组约束词,比如“regression”和“pattern recognition”为两组约束词;再进一步使用预设连接符依次连接两组约束词,即可得到源端语言篇章文本在目标端语言中的目标约束词序列。比如,当预设连接符为<sep>、且两组约束词为“regression”和“pattern recognition”时,目标约束词序列为regression<sep>pattern recognition<sep>。
本发明提供的语义约束机器翻译方法,终端设备通过先将源端语言篇章文本在目标端语言中的不重叠的词组确定为约束词组、再确定约束词组至少两组时使用预设连接符依次连接至少两组约束词的方式,获取源端语言篇章文本在目标端语言中的目标约束词序列,提高了获取目标约束词序列的方便快捷性和准确可靠性。
可选的,步骤120中获取源端语言篇章文本在目标端语言中的目标约束词序列的方法还可以包括:
若未获取到源端语言篇章文本在目标端语言中的词组时,则确定目标约束词序列为所述预设连接符。
具体的,终端设备未获取到源端语言篇章文本在目标端语言中的词组,可以认为源端语言篇章文本中不涉及专业术语等需要约束的情况,也即b的值为0,此时可以确定目标约束词序列为预设连接符。比如,源端语言篇章文本在目标端语言中的词组为0时,目标约束词序列可以为<sep>。
本发明提供的语义约束机器翻译方法,终端设备对于不需要约束词参与机器翻译的情况,通过设置目标约束词序列仅为预设连接符的方式,有效提高了机器翻译的灵活性和可靠性。
可选的,步骤120中预设机器翻译模型对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵进行多层编解码,其实现过程可以包括:
首先,对源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;再进一步基于编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码。
具体的,在预设机器翻译模型包括多层编码器、多层解码器和词嵌入层的情况下,对源端语言篇章文本进行多层编码,可以是将源端语言篇章文本输入至底层编码器进行编码,并通过从底层编码器往顶层编码器的方式依次进行编码,直至获取顶层编码器输出的编码结果向量;并且,将目标约束词序列输入至词嵌入层进行向量转换,从而得到目标约束词序列对应的目标词向量矩阵。基于此,再将编码结果向量和目标词向量矩阵的拼接结果分别作为值向量和键向量分别参与每层解码器的解码操作中的交叉注意力计算部分,其解码过程也是从底层解码器往顶层解码器的方式依次解码,交叉注意力的计算过程可称为约束词相关交叉注意力(Constraints-Aware Cross-Attention,CACA)。
本发明提供的语义约束机器翻译方法,终端设备通过预设机器翻译模型对源端语言篇章文本先进行多层编码、再结合顶层编码器输出的编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码的方式,实现对源端语言篇章文本和目标词向量矩阵进行多层编解码的目的,以此为后续提高机器翻译模型性能和机器翻译模型的整体翻译质量提供可靠保障。
可选的,步骤120中预设机器翻译模型对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码后,可以确定上下文-约束词解码的结果,其中上下文-约束词解码的结果的确定过程可以包括:
首先,将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;再基于第一查询向量、第一键向量和第一值向量进行注意力计算,确定第一注意力计算结果向量;进一步确定目标词向量矩阵为第二查询向量,将顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;然后,基于第二查询向量、第二键向量和第二值向量进行注意力计算,确定第二注意力计算结果向量;最后,基于第一注意力计算结果向量和第二注意力计算结果向量,确定上下文-约束词解码的结果;其中,t为正整数且t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词。
具体的,如图2所示,将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵Ec确定为第一键向量和第一值向量;再将第一查询向量、第一键向量和第一值向量输入至上下文-约束词解码器中进行注意力计算,也即以/>为第一查询向量Q、以Ec作为第一键向量K和第一值向量V进行约束词-上下文注意力计算,可以确定第一注意力计算结果向量/> Attn为注意力计算,目标词向量矩阵Ec中的所有目标词向量均为查询向量。上下文-约束词解码器可以具体为上下文-约束词交互解码器。
此时,通过将顶层解码器在第1步~第t-1步输出的所有状态向量确定为再将/>和第t步输出的第一状态向量/>进行拼接的方式,可以确定顶层解码器在第1~t步输出的各个状态向量/>并将/>作为确定为第二键向量K’和第二值向量V’、将目标词向量矩阵Ec确定为第二查询向量Q’进行上下文-约束词注意力计算,进一步将每个状态向量对应计算的结果向量相加,可以确定第二注意力计算结果向量sum为求和运算。
本发明提供的语义约束机器翻译方法,终端设备先通过基于顶层解码器在第t步输出的第一状态向量和目标词向量矩阵进行注意力计算确定第一注意力计算结果向量、再通过顶层解码器在第1~t步输出的各个状态向量和目标词向量矩阵进行注意力计算确定第二注意力计算结果向量、后基于第一注意力计算结果向量和第二注意力计算结果向量确定上下文-约束词解码的结果,以此结合上下文和约束词之间语义信息的交互关系提高了翻译质量,同时也提高了语义约束效果。
可选的,步骤120中预设机器翻译模型基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果,其实现过程包括:
首先,基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;再进一步确定预测概率中的最大预测概率,并将最大预测概率对应的词,确定为机器翻译结果中的第t个词。
具体的,在顶层解码器输出的结果为上下文-约束词解码的结果为/>的情况下,通过先将进行相加、再将相加所得结果依次经由线性层和Softmax层进行处理的方式,确定第t步预测的目标端语言库中每个词的预测概率,也即针对目标端语言库中所有词的预测概率分布,且所有个词的预测概率之和为1。此时,从第t步预测的目标端语言库中每个词的预测概率中选取最大预测概率,确定最大预测概率对应的词为机器翻译结果中的第t个词,且第t个词在第t-1个词之后。由于t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词,因此,通过令t遍历1~P的方式,重复进行概率预测及确定机器翻译结果中的不同词的过程,P为机器翻译结果中词的总个数且的。直至得到预设机器翻译模型的机器翻译结果,机器翻译结果为第1个词、第2个词、……、第P个词的顺序排列结果。比如机器翻译结果为“Regression and classification are the basic problems in thepattern recognition”。
本发明提供的语义约束机器翻译方法,终端设备先基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率、再基于最大预测概率确定机器翻译结果中的第t个词。以此结合约束词生成的上下文确定约束词在机器翻译结果中嵌入位置的方式提高了机器翻译结果的准确性和可靠性,并且也能进一步提高语义约束的效果。
可选的,预设机器翻译模型的训练过程包括:
首先,确定样本源端语言篇章文本集和样本目标端篇章文本集,样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个样本源端语言篇章文本对应样本目标端篇章文本集中的一个样本目标端篇章文本;再进一步使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
具体的,参照图3所示的初始机器翻译模型的总体结构示意图,词嵌入层包括两个且分别为源端词嵌入层和目标端词嵌入层;使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列对初始机器翻译模型进行训练。针对每次训练,可将样本源端语言篇章文本X先输入至源端词嵌入层、再按照由底层至顶层的方式进行L层编解码后输入至CACA中参与注意力计算;将与样本源端语言篇章文本X对应的样本目标端篇章文本Y先输入至目标端词嵌入层、再按照由底层至顶层的方式进行L层编解码后输入至CACA中参与注意力计算。同时也将样本源端语言篇章文本X对应样本约束词序列c1<SEP>c2<SEP>…cN通过目标端词嵌入层后确定的样本约束词序列输入至CACA中参与注意力计算,c1、c2、…、cN为样本源端语言篇章文本X中的N组样本约束词;以此确定样本源端语言篇章文本X对应的样本目标端篇章文本Y对应的上下文-约束词解码的结果,并据此确定样本源端语言篇章文本X经过训练后输出的机器翻译结果与样本目标端篇章文本Y的匹配度,如果匹配度达到预设匹配度,则停止训练,并将训练停止时对应的机器翻译模型确定为预设机器翻译模型;反之,如果匹配度未达到预设匹配度,则获取参数调整后的机器翻译模型,并重新选取新的样本源端语言篇章文本、新的样本目标端篇章文本和新的样本约束词序列重新进行训练。直至确定训练停止时对应的预设机器翻译模型。
本发明提供的语义约束机器翻译方法,终端设备通过使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练的方式,确定预设机器翻译模型,以此确保模型训练精度,同时也提高了预设机器翻译模型的模型性能和翻译质量。
下面针对德译英以及汉译英两种翻译任务,分别使用本发明方法和传统语义约束翻译方法进行实验,并且记录不同翻译方法的翻译质量、约束效果和解码速度三方面的性能,翻译质量使用BLUE进行度量,约束效果使用约束词的复制成功率(Copy Success Rate,CSR)进行度量,解码速度使用单位句/秒(Sents/Sec)进行度量。通过对比本发明方法和传统语义约束翻译方法的翻译结果,可以确定不同方法的性能表如表1和表2所示,表1为针对译英翻译任务,不同语义约束机器翻译方法的翻译质量和语义约束效果对比;表2为针对德译英任务,不同语义约束机器翻译方法的翻译质量、语义约束效果和解码速度对比。
表1
表2
BLEU | CSR | Decoding·Speed | |
Transformer | 28.10 | 33.84 | 76.52 |
DBA | 24.98 | 100.00 | 3.74 |
LeCA | 31.43 | 67.51 | 64.02 |
LeCA+ptr | 31.42 | 68.63 | 63.01 |
本发明方法 | 31.57 | 70.58 | 60.50 |
在表1和表2中,将传统的机器翻译方法Transformer、传统的约束解码方法动态束分配(Dynamic Beam Allocation,DBA)方法、传统的约束训练约束词相关神经机器翻译(Lexical-Constraint-Aware Neurel Machine Translation,LeCA)方法和传统的指针网络+LeCA的方法进行性能比较后可以看出,本发明方法与其它现有传统方法相比,本发明方法取得了最好的翻译质量,说明利用上下文-约束词交互确实在提高翻译质量方面取得了较好的效果;此外,与DBA方法相比,本发明方法虽然不能取得与其接近的约束效果,但DBA方法严重拖慢解码速度,导致DBA方法不能投入实际应用,而本发明方法则能够在保证较快解码速度的前提下,取得了较好的约束效果;并且,相比于LeCA方法和LeCA方法,本发明方法进一步提高了语义约束翻译的翻译质量以及约束效果,并且保证了约束速度基本不受影响。
下面对本发明提供的语义约束机器翻译装置进行描述,下文描述的语义约束机器翻译装置与上文描述的语义约束机器翻译方法可相互对应参照。
参照图4,为本发明提供的语义约束机器翻译装置的结构示意图,如图4所示,该语义约束机器翻译装置,包括:
获取模块410,用于获取源端语言篇章文本在目标端语言中的目标约束词序列;
翻译模块420,用于将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
可选的,翻译模块420,具体可以用于获取源端语言篇章文本在目标端语言中的不重叠的词组,每个所述词组包括至少一个词;确定每个词组分别为一组约束词;当存在至少两组约束词时,使用预设连接符,将至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
可选的,翻译模块420,具体还可以用于若未获取到源端语言篇章文本在目标端语言中的词组时,则确定目标约束词序列为预设连接符。
可选的,翻译模块420,具体还可以用于对源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;基于编码结果向量和目标约束词序列对应的目标词向量矩阵进行多层解码。
可选的,翻译模块420,具体还可以用于将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;基于第一查询向量、第一键向量和第一值向量进行注意力计算,确定第一注意力计算结果向量;确定目标词向量矩阵为第二查询向量,将顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;基于第二查询向量、第二键向量和第二值向量进行注意力计算,确定第二注意力计算结果向量;基于第一注意力计算结果向量和第二注意力计算结果向量,确定上下文-约束词解码的结果;其中,t为正整数且t的不同取值对应源端语言篇章文本的机器翻译结果中的不同词。
可选的,翻译模块420,具体还可以用于基于顶层解码器输出的结果和上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;确定预测概率中的最大预测概率,并将最大预测概率对应的词,确定为机器翻译结果中的第t个词。
可选的,语义约束机器翻译装置还可以包括训练模块,用于确定样本源端语言篇章文本集和样本目标端篇章文本集,样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个样本源端语言篇章文本对应样本目标端篇章文本集中的一个样本目标端篇章文本;使用样本源端语言篇章文本集、样本目标端篇章文本集和样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
图5示例了一种电子设备的实体结构示意图,如图5所示,该电子设备500可以包括:处理器(processor)510、通信接口(CommunicationsInterface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行语义约束机器翻译方法,该方法包括:
获取源端语言篇章文本在目标端语言中的目标约束词序列;
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的语义约束机器翻译方法,该方法包括:
获取源端语言篇章文本在目标端语言中的目标约束词序列;
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的语义约束机器翻译方法,该方法包括:
获取源端语言篇章文本在目标端语言中的目标约束词序列;
将源端语言篇章文本和目标约束词序列输入至预设机器翻译模型中进行翻译,输出源端语言篇章文本的机器翻译结果;
其中,预设机器翻译模型包括对源端语言篇章文本和目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和上下文-约束词解码的结果确定机器翻译结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种语义约束机器翻译方法,其特征在于,包括:
获取源端语言篇章文本在目标端语言中的目标约束词序列;
将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
2.根据权利要求1所述的语义约束机器翻译方法,其特征在于,所述获取源端语言篇章文本在目标端语言中的目标约束词序列,包括:
获取源端语言篇章文本在目标端语言中的不重叠的词组,每个所述词组包括至少一个词;
确定每个所述词组分别为一组约束词;
当存在至少两组约束词时,使用预设连接符,将所述至少两组约束词依次连接,获取源端语言篇章文本在目标端语言中的目标约束词序列。
3.根据权利要求2所述的语义约束机器翻译方法,其特征在于,所述方法还包括:
若未获取到源端语言篇章文本在目标端语言中的词组时,则确定所述目标约束词序列为所述预设连接符。
4.根据权利要求1所述的语义约束机器翻译方法,其特征在于,对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵进行多层编解码,包括:
对所述源端语言篇章文本进行多层编码,获取顶层编码器输出的编码结果向量;
基于所述编码结果向量和所述目标约束词序列对应的目标词向量矩阵进行多层解码。
5.根据权利要求1所述的语义约束机器翻译方法,其特征在于,所述上下文-约束词解码的结果的确定过程,包括:
将顶层解码器在第t步输出的第一状态向量确定为第一查询向量,将所述目标约束词序列对应的目标词向量矩阵确定为第一键向量和第一值向量;
基于所述第一查询向量、所述第一键向量和所述第一值向量进行注意力计算,确定第一注意力计算结果向量;
确定所述目标词向量矩阵为第二查询向量,将所述顶层解码器在第1~t步输出的各个状态向量确定为第二键向量和第二值向量;
基于所述第二查询向量、所述第二键向量和所述第二值向量进行注意力计算,确定第二注意力计算结果向量;
基于所述第一注意力计算结果向量和所述第二注意力计算结果向量,确定所述上下文-约束词解码的结果;
其中,t为正整数且t的不同取值对应所述源端语言篇章文本的机器翻译结果中的不同词。
6.根据权利要求5所述的语义约束机器翻译方法,其特征在于,所述基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果,包括:
基于顶层解码器输出的结果和所述上下文-约束词解码的结果,确定第t步预测的目标端语言库中每个词的预测概率;
确定所述预测概率中的最大预测概率,并将所述最大预测概率对应的词,确定为所述机器翻译结果中的第t个词。
7.根据权利要求1至6任一项所述的语义约束机器翻译方法,其特征在于,所述预设机器翻译模型的训练过程包括:
确定样本源端语言篇章文本集和样本目标端篇章文本集,所述样本源端语言篇章文本集中每个样本源端语言篇章文本对应样本约束词序列,每个所述样本源端语言篇章文本对应所述样本目标端篇章文本集中的一个样本目标端篇章文本;
使用所述样本源端语言篇章文本集、所述样本目标端篇章文本集和所述样本约束词序列,对含有多层编码器、多层解码器、词嵌入层、上下文-约束词交互解码器的初始机器翻译模型进行训练,确定训练停止时对应的预设机器翻译模型。
8.一种语义约束机器翻译装置,其特征在于,包括:
获取模块,用于获取源端语言篇章文本在目标端语言中的目标约束词序列;
翻译模块,用于将所述源端语言篇章文本和所述目标约束词序列输入至预设机器翻译模型中进行翻译,输出所述源端语言篇章文本的机器翻译结果;
其中,所述预设机器翻译模型包括对所述源端语言篇章文本和所述目标约束词序列对应的目标词向量矩阵先进行多层编解码、后进行上下文-约束词解码,并基于顶层解码器输出的结果和所述上下文-约束词解码的结果确定所述机器翻译结果。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述语义约束机器翻译方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述语义约束机器翻译方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211406961.3A CN115879480A (zh) | 2022-11-10 | 2022-11-10 | 语义约束机器翻译方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211406961.3A CN115879480A (zh) | 2022-11-10 | 2022-11-10 | 语义约束机器翻译方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115879480A true CN115879480A (zh) | 2023-03-31 |
Family
ID=85759650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211406961.3A Pending CN115879480A (zh) | 2022-11-10 | 2022-11-10 | 语义约束机器翻译方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115879480A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306704A (zh) * | 2023-05-17 | 2023-06-23 | 鹏城实验室 | 篇章级文本机器翻译方法、系统、设备及介质 |
-
2022
- 2022-11-10 CN CN202211406961.3A patent/CN115879480A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306704A (zh) * | 2023-05-17 | 2023-06-23 | 鹏城实验室 | 篇章级文本机器翻译方法、系统、设备及介质 |
CN116306704B (zh) * | 2023-05-17 | 2023-08-22 | 鹏城实验室 | 篇章级文本机器翻译方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7406606B2 (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
US20210390271A1 (en) | Neural machine translation systems | |
US20240119233A1 (en) | Multi-turn dialogue response generation with autoregressive transformer models | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
GB2560621A (en) | Automatically segmenting images based on natural language phrases | |
CN107980130A (zh) | 自动回答方法、装置、存储介质及电子设备 | |
JP2022177242A (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN110598224A (zh) | 翻译模型的训练方法、文本处理方法、装置及存储介质 | |
JP6649536B1 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN110210043A (zh) | 文本翻译方法、装置、电子设备及可读存储介质 | |
JP2023007372A (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
WO2023201975A1 (zh) | 一种差异描述语句生成方法、装置、设备及介质 | |
CN111783478B (zh) | 机器翻译质量估计方法、装置、设备及存储介质 | |
CN110929532B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN111488742B (zh) | 用于翻译的方法和装置 | |
CN110263304B (zh) | 语句编码方法、语句解码方法、装置、存储介质及设备 | |
CN113051894A (zh) | 一种文本纠错的方法和装置 | |
CN115879480A (zh) | 语义约束机器翻译方法、装置、电子设备及存储介质 | |
CN112528598B (zh) | 基于预训练语言模型和信息论的自动化文本摘要评测方法 | |
CN114220505A (zh) | 病历数据的信息抽取方法、终端设备及可读存储介质 | |
CN111368554B (zh) | 语句处理方法、装置、计算机设备和存储介质 | |
CN113762459A (zh) | 一种模型训练方法、文本生成方法、装置、介质及设备 | |
CN112926334A (zh) | 确定词表示向量的方法、装置及电子设备 | |
CN112183114B (zh) | 模型训练、语义完整性识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |