CN114065784A - 训练方法、译文方法、装置、电子设备以及存储介质 - Google Patents
训练方法、译文方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN114065784A CN114065784A CN202111358246.2A CN202111358246A CN114065784A CN 114065784 A CN114065784 A CN 114065784A CN 202111358246 A CN202111358246 A CN 202111358246A CN 114065784 A CN114065784 A CN 114065784A
- Authority
- CN
- China
- Prior art keywords
- translation
- sample
- autoregressive
- text
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种训练方法、译文方法、装置、电子设备以及存储介质,涉及人工智能技术领域,尤其涉及自然语言处理和深度学习技术。具体实现方案为:对源样本文本数据进行特征提取,得到样本特征向量序列;根据样本特征向量序列,得到目标样本特征向量;分别对样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果;对目标样本特征向量进行长度预测,得到第一预测长度值和第二预测长度值;利用译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值训练预定模型;根据训练完成的预定模型,得到译文模型。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理和深度学习技术领域。具体地,涉及一种训练方法、译文方法、装置、电子设备以及存储介质。
背景技术
随着人工智能技术的发展,人工智能技术在各个领域得到了广泛的应用。例如,在人工智能技术领域的自然语言处理领域,译文翻译得到了广泛的应用。
译文翻译是指利用自然语言处理方法,将源文本翻译为目标文本。源文本和目标文本的语种不同。
发明内容
本公开提供了一种训练方法、译文方法、装置、电子设备以及存储介质。
根据本公开的一方面,提供了一种译文模型的训练方法,包括:对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列;根据上述样本特征向量序列,得到目标样本特征向量;分别对上述样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果;对上述目标样本特征向量进行长度预测,得到上述源样本文本的第一预测长度值和译文样本文本的第二预测长度值,其中,上述译文样本文本表征与上述源样本文本对应的译文文本;利用上述译文样本文本的译文样本文本数据、上述自回归译文结果、上述非自回归译文结果、上述源样本文本的真实长度值、上述第一预测长度值、上述译文样本文本的真实长度值和上述第二预测长度值训练预定模型,其中,上述译文样本文本数据表征与上述源样本文本对应的真实译文结果;以及,根据训练完成的预定模型,得到上述译文模型。
根据本公开的另一方面,提供了一种译文方法,包括:将源文本的源文本数据输入译文模型,得到针对上述源文本的译文结果,其中,上述译文模型是利用如上所述的方法训练的。
根据本公开的另一方面,提供了一种译文模型的训练装置,包括:提取模块,用于对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列;第一获得模块,用于根据上述样本特征向量序列,得到目标样本特征向量;处理模块,用于分别对上述样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果;第一预测模块,用于对上述目标样本特征向量进行长度预测,得到上述源样本文本的第一预测长度值和译文样本文本的第二预测长度值,其中,上述译文样本文本表征与上述源样本文本对应的译文文本;训练模块,用于利用上述译文样本文本的译文样本文本数据、上述自回归译文结果、上述非自回归译文结果、上述源样本文本的真实长度值、上述第一预测长度值、上述译文样本文本的真实长度值和上述第二预测长度值训练预定模型,其中,上述译文样本文本数据表征与上述源样本文本对应的真实译文结果;以及,第二获得模块,用于根据训练完成的预定模型,得到上述译文模型。
根据本公开的另一方面,提供了一种译文装置,包括:输入模块,用于将源文本的源文本数据输入译文模型,得到针对上述源文本的译文结果,其中,上述译文模型是利用如上所述的装置训练的。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,上述存储器存储有可被上述至少一个处理器执行的指令,上述指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行如上所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,上述计算机指令用于使计算机执行如上所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,上述计算机程序在被处理器执行时实现如上所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用译文模型的训练方法、译文方法及装置的示例性系统架构;
图2示意性示出了根据本公开实施例的译文模型的训练方法的流程图;
图3示意性示出了根据本公开实施例的译文模型的训练过程的示例示意图;
图4示意性示出了根据本公开实施例的译文方法的流程图;
图5示意性示出了根据本公开实施例的译文过程的示例示意图;
图6示意性示出了根据本公开实施例的译文模型的训练装置的框图;
图7示意性示出了根据本公开实施例的译文装置的框图;以及
图8示意性示出了根据本公开实施例的适于译文模型的训练方法和译文方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
译文模型可以为基于自回归解码的自回归译文模型或基于非自回归解码的非自回归译文模型。自回归解码符合语言的产生过程,可以根据对象之间的依赖关系,译文效果较好。但是自回归解码是对文本包括的多个对象进行逐个对象的解码,不能够进行并行解码,译文速度较慢。非自回归解码可以实现并行解码,提高了译文速度。但是非自回归解码是对多个对象进行并行解码,不能够根据对象之间的依赖关系,因此,降低了译文效果。
为此,本公开实施例提出了一种译文模型的训练方案。对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列。根据样本特征向量序列,得到目标样本特征向量。分别对样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果。对目标样本特征向量进行长度预测,得到源样本文本的第一预测长度值和译文样本文本的第二预测长度值。译文样本文本表征与源样本文本对应的译文文本。利用译文样本文本的译文样本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值训练预定模型。译文样本文本数据表征与源样本文本对应的真实译文结果。根据训练完成的预定模型,得到译文模型。
通过将自回归解码、非自回归解码和与非自回归解码相关的长度预测进行结合来训练译文模型,增强了译文模型的特征提取能力,进而提高了译文模型的译文效果。
图1示意性示出了根据本公开实施例的可以应用译文模型的训练方法、译文方法及装置的示例性系统架构。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。例如,在另一实施例中,可以应用译文模型的训练方法、译文方法及装置的示例性系统架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的译文模型的训练方法、译文方法及装置。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的各种类型的服务器,例如对用户利用终端设备101、102、103所浏览的内容提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
服务器105可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,解决了传统物理主机与VPS服务(Virtual Private Server,VPS)中,存在的管理难度大,业务扩展性弱的缺陷。服务器105也可以为分布式系统的服务器,或者是结合了区块链的服务器。
需要说明的是,本公开实施例所提供的译文模型的训练方法和译文方法一般可以由服务器105执行。相应地,本公开实施例所提供的译文模型的训练装置和译文装置一般可以设置于服务器105中。本公开实施例所提供的译文模型的训练方法和译文方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的译文模型的训练装置和译文装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
或者,本公开实施例所提供的译文模型的训练方法和译文方法一般也可以由终端设备101、102、或103执行。相应地,本公开实施例所提供的译文模型的训练装置和译文装置也可以设置于终端设备101、102、或103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的译文模型的训练方法的流程图。
如图2所示,该方法200包括操作S210~S260。
在操作S210,对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列。
在操作S220,根据样本特征向量序列,得到目标样本特征向量。
在操作S230,分别对样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果。
在操作S240,对目标样本特征向量进行长度预测,得到源样本文本的第一预测长度值和译文样本文本的第二预测长度值。译文样本文本表征与源样本文本对应的译文文本。
在操作S250,利用译文样本文本的译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值训练预定模型。译文样本文本数据表征与源样本文本对应的真实译文结果。
在操作S260,根据训练完成的预定模型,得到译文模型。
根据本公开的实施例,源样本文本可以指用于参与译文模型的训练的文本。源样本文本可以包括多个。源样本文本可以包括中文源样本文本或外文源样本文本。源样本文本的源样本文本数据可以包括多个对象。对象可以包括字或词。译文样本文本可以指与源样本文本对应的译文文本。译文样本文本的译文样本文本数据可以指与源样本文本对应的真实译文结果。译文样本文本的译文样本文本数据可以包括多个对象。针对译文样本文本数据中的每个对象,与译文样本文本数据对应的源样本文本数据中存在与该对象对应的对象。
根据本公开的实施例,样本特征向量序列可以包括与多个对象中的每个对象对应的样本特征向量。样本特征向量序列可以包括多个样本特征向量。目标样本特征向量可以是根据样本特征向量序列确定的,例如,目标样本特征向量可以是将样本特征向量序列包括的多个样本特征向量进行融合得到的。每个样本特征向量可以包括多个特征维度。每个特征维度可以具有与该特征维度对应的特征值。目标样本特征向量的特征维度可以与每个样本特征向量的特征维度的数目相同。
根据本公开的实施例,自回归译文结果可以指基于自回归解码处理得到的与源样本文本对应的译文结果。非自回归译文结果可以指基于非自回归解码处理得到的与源样本文本对应的译文结果。第一预测长度值可以指源样本文本的长度值。第二预测长度值可以指译文样本文本数据的长度值,即,第二预测长度值可以指与源样本文本对应的真实译文结果的长度值。
根据本公开的实施例,预定模型可以包括特征提取部分、自回归解码部分、非自回归解码部分和长度预测部分。预定模型的模型结构可以根据实际业务需求进行配置,在此不作限定,能够实现上文所述的各个部分的功能即可。
根据本公开的实施例,可以获取源样本文本的源样本文本数据,对源样本文本数据进行分词,得到源样本文本数据包括的多个对象。对多个对象中的每个对象进行特征提取,得到与每个对象对应的样本特征向量。根据与每个对象对应的样本特征向量,得到样本特征向量序列。
根据本公开的实施例,在获得样本特征向量序列之后,可以对样本特征向量序列进行处理,得到目标样本特征向量。例如,可以针对多个特征维度中的每个特征维度,确定与特征维度对应的统计特征值。根据与多个特征维度中的每个特征维度对应的统计特征值,得到目标样本特征向量。统计特征值可以包括平均特征值、最大特征值、最小特征值或中位特征值等。平均特征值可以是将样本特征向量序列包括的多个样本特征向量中与特征维度对应的多个特征值进行平均处理得到的。最大特征值可以是多个特征值中最大的特征值。最小特征值可以是多个特征值中最小的特征值。中位特征值可以是将多个特征值按照预定顺序进行排序得到的位于中间位置的特征值。每个特征值可以是与样本特征向量序列包括的多个样本特征向量中的每个样本特征向量的特征维度对应的特征值。
根据本公开的实施例,在获得样本特征向量序列和目标样本特征向量之后,可以对样本特征向量序列进行自回归解码处理,得到自回归译文结果。例如,可以利用预定模型包括的自回归解码部分处理样本特征向量序列,得到自回归译文结果。可以对样本特征向量序列进行非自回归解码,得到非自回归译文结果。例如,可以利用预定模型包括的非自回归解码部分处理样本特征向量序列,得到非自回归译文结果。可以对目标样本特征向量进行长度预测,得到与源样本文本对应的预测长度值和与译文样本文本对应的预测长度值。与源样本文本对应的预测长度值可以称为第一预测长度值。与译文样本文本对应的预测长度值可以称为第二预测长度值。例如,可以利用预定模型包括的长度预测部分处理目标样本特征向量,得到第一预测长度值和第二预测长度值。
根据本公开的实施例,可以获取译文样本文本数据(即与源样本文本对应的真实译文结果)、源样本文本的真实长度值和译文样本文本的真实长度值。在获得译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值之后,可以基于损失函数,利用译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值,得到输出值,根据输出值,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。
根据本公开的实施例,输出值可以包括第一输出值、第二输出值、第三输出值和第四输出值。基于损失函数,利用译文样本文本数据和自回归译文结果,得到第一输出值。基于损失函数,利用译文样本文本数据和非自回归译文结果,得到第二输出值。基于损失函数,利用源样本文本的真实长度值和第一预测长度值,得到第三输出值。基于损失函数,利用译文样本文本的真实长度值和第二预测长度值,得到第四输出值。
根据本公开的实施例,在获得训练完成的预定模型之后,可以根据训练完成的预定模型,确定译文模型,即,可以将训练完成的预定模型包括的全部或部分确定为译文模型。例如,可以将训练完成的预定模型包括的特征提取部分、自回归解码部分和非自回归解码部分确定为译文模型。还可以将训练完成的预定模型包括的特征提取部分和非自回归解码部分确定为译文模型。
例如,源样本文本数据为“我的家乡是一个美丽的小镇”。译文样本文本数据(即与源样本文本对应的真实译文结果)为“My hometown is a beautiful town”。
可以对源样本文本数据“我的家乡是一个美丽的小镇”进行分词,得到源样本文本数据包括的多个对象。可以对源样本文本数据包括的多个对象进行特征提取,得到与源样本文本数据包括的多个对象中的每个对象对应的样本特征向量,根据与多个对象中的每个对象对应的样本特征向量,得到样本特征向量序列。可以对样本特征向量序列包括的多个样本特征向量进行融合,得到目标样本特征向量。多个对象可以包括“我”、“的”、“家”、“乡”、“是”、“一”、“个”、“美”、“丽”、“的”、“小”和“镇”。
可以对样本特征向量序列进行自回归处理,得到自回归译文结果。对样本特征向量进行非自回归处理,得到非自回归译文结果。可以对目标样本特征向量进行长度预测,得到源样本文本的第一预测长度值和译文样本文本的第二预测长度值。
可以基于损失函数,利用译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值,得到输出值,根据输出值,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。
根据本公开的实施例,通过将自回归解码、非自回归解码和与非自回归解码相关的长度预测进行结合来训练译文模型,增强了译文模型的特征提取能力,进而提高了译文模型的译文效果。
根据本公开的实施例,源样本文本数据是对原始源样本文本数据中的目标对象进行屏蔽处理得到的。样本特征向量序列包括与至少一个目标对象中的每个目标对象对应的样本特征向量。
根据本公开的实施例,上述译文模型的训练方法还可以包括如下操作。
对与至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与至少一个目标对象中的每个目标对象对应的对象预测结果。
根据本公开的实施例,操作S250可以包括如下操作。
基于损失函数,利用译文样本文本数据和自回归译文结果,得到第一输出值。基于损失函数,利用译文样本文本数据和非回归译文结果,得到第二输出值。基于损失函数,利用源样本文本的真实长度值和第一预测长度值,得到第三输出值。基于损失函数,利用与至少一个目标对象中的每个目标对象对应的对象真实结果和对象预测结果,得到第五输出值。基于损失函数,利用目标对象的对象真实结果和对象预测结果,得到第五输出值。根据第一输出值、第二输出值、第三输出值、第四输出值和第五输出值,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。
根据本公开的实施例,目标对象可以包括一个或多个。对原始源样本文本数据中的目标对象进行屏蔽处理,得到源样本文本数据可以包括:对原始源样本文本数据中的至少一个目标对象进行掩码,得到源样本文本数据。备选地,可以将原始源样本文本数据中的至少一个目标对象中的每个目标对象替换成与原始源样本文本数据包括的多个对象不具有关联关系的对象,得到源样本文本数据。
根据本公开的实施例,与源样本文本数据对应的样本特征向量序列包括至少一个目标对象中的每个目标对象的样本特征向量。针对至少一个目标对象中的每个目标对象,对与目标对象对应的样本特征向量进行对象预测,得到与目标对象对应的多个对象概率值。根据与目标对象对应的多个对象概率值,确定与目标对象对应的对象预测结果。例如,针对目标对象“镇”进行预测,输出与目标对象“镇”对应的多个对象概率值,根据与目标对象“镇”对应的多个对象概率值,确定与目标对象“镇”对应的对象预测结果。
根据本公开的实施例,可以获取与至少一个目标对象中的每个目标对象的对象真实结果。在获得译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值、第二预测长度值、与至少一个目标对象中的每个目标对象的对象真实结果和对象预测结果之后,可以将译文样本文本数据和自回归译文结果输入损失函数,得到第一输出值。将译文样本文本数据和非自回归译文结果输入损失函数,得到第二输出值。将源样本文本的真实长度值和第一预测长度值输入损失函数,得到第三输出值。将译文样本文本的真实长度值和第二预测长度值输入损失函数,得到第四输出值。将与至少一个目标对象中的每个目标对象对应的对象真实结果和对象预测结果输入损失函数,得到第五输出值。
根据本公开的实施例,可以根据输出值,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。输出值可以包括第一输出值、第二输出值、第三输出值、第四输出值和第五输出值。预定条件可以包括输出值收敛或训练轮次达到最大训练轮次。
根据本公开的实施例,通过对与至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与至少一个目标对象中的每个目标对象对应的对象预测结果,得到对象预测结果。目标对象是被屏蔽的对象。将对象预测、自回归解码、非自回归解码和与非自回归解码相关的长度预测进行结合来对预定模型进行训练,得到译文模型,进一步增强了译文模型的特征提取能力,提高了译文模型的译文效果。
根据本公开的实施例,样本特征向量序列包括多个样本特征向量,每个样本特征向量包括多个特征维度。
根据本公开的实施例,操作S220可以包括如下操作。
针对多个特征维度中的每个特征维度,确定与特征维度对应的平均特征值。平均特征值是将多个样本特征向量中与特征维度对应的多个特征值进行平均处理得到的。根据与多个特征维度中的每个特征维度对应的平均特征值,得到目标样本特征向量。
根据本公开的实施例,样本特征向量序列可以包括N个样本特征向量,N表征大于或等于2的整数。目标样本特征向量和每个样本特征向量均可以包括M个特征维度,M表征大于或等于2的整数。样本特征向量序列可以用T表征,T={T1,T2,......,Ti,......,TN-1,TN}。Ti表征第i个样本特征向量,Ti={Ti1,Ti2,......,Tij,......,TiM-1,TiM}。i∈{1,2,......,N-1,N}。Tij表征第i个样本特征向量的第j个特征维度的特征值,j∈{1,2,......,M-1,M}。目标样本特征向量可以用gT表征,gT={gT1,gT2,......,gTj,......,gTM-1,gTM},gTj表征第j个特征维度的特征值。
根据本公开的实施例,预定模型包括编码器和非自回归解码器。
根据本公开的实施例,操作S260可以包括如下操作。
将训练完成的编码器和非自回归解码器确定为译文模型。
根据本公开的实施例,编码器可以用于实现特征提取。非自回归解码器可以用于实现非自回归解码。例如,编码器可以用于对源样本文本数据进行特征提取。编码器可以用于对目标对象进行特征提取。非自回归解码器可以按照并行解密方式,对样本特征向量序列包括的多个对象进行解码。编码器和非自回归解码器的模型结构可以根据实际业务需求进行配置,在此不作限定。例如,编码器为基于Transformer的编码器。非自回归解码器为基于Transformer的解码器。
根据本公开的实施例,译文模型是基于自回归解码和非自回归解码联合训练得到的,因此,可以提高译文模型的译文效果。利用基于非自回归的译文模型进行译文,可以实现在保证译文效果的基础上,提高译文速度。
根据本公开的实施例,预定模型还可以包括自回归解码器。
根据本公开的实施例,操作S230可以包括如下操作。
利用自回归解码器处理样本特征向量序列,得到自回归译文结果。利用非自回归解码器处理样本特征向量序列,得到非自回归译文结果。
根据本公开的实施例,自回归解码器可以用于实现自回归解码。例如,自回归解码器可以按照逐个对象进行解码的方式,对样本特征向量序列包括的多个对象对象进行解码。自回归解码器的模型结构可以根据业务需求进行配置,在此不作限定。例如,自回归解码器为基于Transformer的解码器。
根据本公开的实施例,可以将样本特征向量序列输入自回归解码器,得到自回归译文结果。将样本特征向量序列输入非自回归解码器,得到非自回归译文结果。
根据本公开的实施例,预定模型还可以包括第一长度预测器和第二长度预测器。
根据本公开的实施例,操作S240可以包括如下操作。
利用第一长度预测器处理目标样本特征向量,得到源样本文本的第一预测长度值。利用第二长度预测器处理目标样本特征向量,得到译文样本文本的第二预测长度值。
根据本公开的实施例,第一长度预测器可以用于实现对源样本文本进行长度预测。第二长度预测器可以用于实现对译文样本文本进行长度预测。第一长度预测器和第二长度预测器的模型结构可以根据实际业务需求进行配置,在此不作限定。例如,第一长度预测器为第一线性分类器。第二长度预测器为第二线性分类器。
根据本公开的实施例,可以将目标样本特征向量输入第一长度预测器,得到第一预测长度值。将目标样本特征向量输入第二长度预测器,得到第二预测长度值。
根据本公开的实施例,预定模型还可以包括对象预测器。
根据本公开的实施例,对样本特征向量序列进行对象预测,得到对象预测结果,可以包括如下操作。
利用对象预测器处理对与至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与至少一个目标对象中的每个目标对象对应的对象预测结果。
根据本公开的实施例,对象预测器可以用于实现对目标对象进行预测。对象预测器的模型结构可以根据实际业务需求进行配置,在此不作限定。例如,对象预测器为第三线性分类器。
根据本公开的实施例,可以将与至少一个目标对象中的每个目标对象对应的样本特征向量输入对象预测器,得到与至少一个目标对象中的每个目标对象对应的对象预测结果。
根据本公开的实施例,操作S210可以包括如下操作。
利用编码器处理源样本文本的源样本文本数据,得到样本特征向量序列。
根据本公开的实施例,可以将源样本文本数据输入编码器,得到样本特征向量序列。
下面参考图3,结合具体实施例对根据本公开实施例所述的译文模型的训练方法做进一步的说明。
图3示意性示出了根据本公开实施例的译文模型的训练过程的示例示意图。
如图3所示,在训练过程300中,预定模型包括编码器302、自回归解码器307、非自回归解码器309、对象预测器311、第一长度预测器313和第二长度预测器315。译文模型可以包括训练完成的编码器和非自回归解码器。
将源样本文本的源样本文本数据301输入编码器302,得到样本特征向量序列303,源样本文本数据是对原始源样本文本数据中的目标对象304进行屏蔽处理得到的。样本特征向量序列包括与至少一个目标对象中的每个目标对象对应的样本特征向量304。
根据样本特征向量序列303,得到目标样本特征向量305。
将样本特征向量序列303分别输入自回归解码器306和非自回归解码器308,得到自回归译文结果307和非自回归译文结果309。
将与至少一个目标对象中的每个目标对象对应的样本特征向量304输入对象预测器310,得到与至少一个目标对象中的每个目标对象对应的对象预测结果311。
将目标样本特征向量305分别输入第一长度预测器312和第二长度预测器314中,得到源样本文本的第一长度预测值313和译文样本文本的第二长度预测值315。
将译文样本文本数据316、自回归译文结果307、非自回归译文结果309、与至少一个目标对象中的每个目标对象对应的对象真实结果319、对象预测结果311、与源样本文本对应的真实长度值317、第一预测长度值313、与译文样本文本对应的真实长度值318、第二长度预测值315输入损失函数320,得到输出值321。
根据输出值321,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。
将训练完成的预定模型包括的编码器和非自回归解码器确定为译文模型。
图4示意性示出了根据本公开实施例的译文方法的流程图。
如图4所示,该方法400包括操作S410。
在操作S410,将源文本的源文本数据输入译文模型,得到针对源文本的译文结果。
根据本公开的实施例,译文模型是利用根据本公开实施例所述的译文模型的训练方法训练的。
根据本公开的实施例,译文模型可以包括训练完成的编码器和解码器。
根据本公开的实施例,操作S410可以包括如下操作。
将源文本的源文本数据输入编码器,得到特征向量序列。将特征向量序列输入非自回归解码器,得到针对源文本的译文结果。
下面参考图5,结合具体实施例对根据本公开实施例所述的译文方法做进一步说明。
图5示意性示出了根据本公开实施例的译文过程的示例示意图。
如图5所示,在译文过程500中,译文模型包括训练完成的编码器502和非自回归解码器504。
将源文本的源文本数据501输入编码器502,得到源文本的文本特征向量序列503。将文本特征向量序列503输入非自回归解码器504,得到针对源文本的译文结果505。
图6示意性示出了根据本公开实施例的译文模型的训练装置的框图。
如图6所示,译文模型的训练装置600可以包括提取模块610、第一获得模块620、处理模块630、第一预测模块640、训练模块650和第二获得模块660。
提取模块610,用于对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列。
第一获得模块620,用于根据样本特征向量序列,得到目标样本特征向量。
处理模块630,用于分别对样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果。
第一预测模块640,用于对目标样本特征向量进行长度预测,得到源样本文本的第一预测长度值和译文样本文本的第二预测长度值。译文样本文本表征与源样本文本对应的译文文本。
训练模块650,用于利用译文样本文本的译文样本文本数据、自回归译文结果、非自回归译文结果、源样本文本的真实长度值、第一预测长度值、译文样本文本的真实长度值和第二预测长度值训练预定模型。译文样本文本数据表征与源样本文本对应的真实译文结果。
第二获得模块660,用于根据训练完成的预定模型,得到译文模型。
根据本公开的实施例,源样本文本数据是对原始源样本文本数据中的目标对象进行屏蔽处理得到的。样本特征向量序列包括与至少一个目标对象中的每个目标对象对应的样本特征向量。
根据本公开的实施例,上述译文模型的训练装置600还可以包括第二预测模块。
第二预测模块,用于对与至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与至少一个目标对象中的每个目标对象对应的对象预测结果。
根据本公开的实施例,训练模块650可以包括第一获得子模块、第二获得子模块、第三获得子模块、第四获得子模块、第五获得子模块和训练子模块。
第一获得子模块,用于基于损失函数,利用译文样本文本的译文样本文本数据和自回归译文结果,得到第一输出值。
第二获得子模块,用于基于损失函数,利用译文样本文本的译文样本文本数据和非回归译文结果,得到第二输出值。
第三获得子模块,用于基于损失函数,利用源样本文本的真实长度值和第一预测长度值,得到第三输出值。
第四获得子模块,用于基于损失函数,利用译文样本文本的真实长度值和第二预测长度值,得到第四输出值。
第五获得子模块,用于基于损失函数,利用与至少一个目标对象中的每个目标对象对应的对象真实结果和对象预测结果,得到第五输出值。
训练子模块,用于根据第一输出值、第二输出值、第三输出值、第四输出值和第五输出值,调整预定模型的模型参数,直至满足预定条件,得到训练完成的预定模型。
根据本公开的实施例,样本特征序列包括多个样本特征向量,每个样本特征向量包括多个特征维度。
根据本公开的实施例,提取模块610可以包括第一确定子模块和第一获得子模块。
第一确定子模块,用于针对多个特征维度中的每个特征维度,确定与特征维度对应的平均特征值。平均特征值是将多个样本特征向量中与特征维度对应的多个特征值进行平均处理得到的。
第六获得子模块,用于根据与多个特征维度中的每个特征维度对应的平均特征值,得到目标样本特征向量。
根据本公开的实施例,预定模型可以包括编码器、自回归解码器和非自回归解码器。
根据本公开的实施例,第二获得模块660可以包括第二确定子模块。
第二确定子模块,用于将训练完成的编码器和非自回归解码器确定为译文模型。
根据本公开的实施例,处理模块630可以包括第七获得子模块和第八获得子模块。
第七获得子模块,用于利用自回归解码器处理样本特征向量序列,得到自回归译文结果。
第八获得子模块,用于利用非自回归解码器处理样本特征向量序列,得到非自回归译文结果。
根据本公开的实施例,预定模型可以包括还第一长度预测器和第二长度预测器。
根据本公开的实施例,第一预测模块640可以包括第九获得子模块和第十获得子模块。
第九获得子模块,用于利用第一长度预测器处理目标样本特征向量,得到源样本文本的第一预测长度值。
第十获得子模块,用于利用第二长度预测器处理目标样本特征向量,得到译文样本文本的第二预测长度值。
根据本公开的实施例,预定模型还可以包括对象预测器。
根据本公开的实施例,第二预测模块可以包括第十一获得子模块。
第十一获得子模块,用于利用对象预测器处理对与至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与至少一个目标对象中的每个目标对象对应的对象预测结果。
根据本公开的实施例,提取模块610可以包括第十二获得子模块。
第十二获得子模块,用于利用编码器处理源样本文本的源样本文本数据,得到样本特征向量序列。
图7示意性示出了根据本公开实施例的译文装置的框图。
如图7所示,译文装置700可以包括第三获得模块710。
第三获得模块710,用于将源文本的源文本数据输入译文模型,得到针对源文本的译文结果。
根据本公开的实施例,译文模型是利用根据本公开实施例所述的译文模型的训练装置训练的。
根据本公开的实施例,译文模型可以包括训练完成的编码器和非自回归解码器。
根据本公开的实施例,第三获得模块710可以包括第十三获得子模块和第十四获得子模块。
第十三获得子模块,用于将源文本的源文本数据输入编码器,得到特征向量序列。
第十四获得子模块,用于将特征向量序列输入非自回归解码器,得到针对源文本的译文结果。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上的方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如上的方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如上的方法。
图8示意性示出了根据本公开实施例的适于译文模型的训练方法和译文方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、ROM802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如译文模型的训练方法和译文方法。例如,在一些实施例中,译文模型的训练方法和译文方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的译文模型的训练方法和译文方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行译文模型的训练方法和译文方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (23)
1.一种译文模型的训练方法,包括:
对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列;
根据所述样本特征向量序列,得到目标样本特征向量;
分别对所述样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果;
对所述目标样本特征向量进行长度预测,得到所述源样本文本的第一预测长度值和译文样本文本的第二预测长度值,其中,所述译文样本文本表征与所述源样本文本对应的译文文本;
利用所述译文样本文本的译文样本数据、所述自回归译文结果、所述非自回归译文结果、所述源样本文本的真实长度值、所述第一预测长度值、所述译文样本文本的真实长度值和所述第二预测长度值训练预定模型,其中,所述译文样本文本数据表征与所述源样本文本对应的真实译文结果;以及
根据训练完成的预定模型,得到所述译文模型。
2.根据权利要求1所述的方法,其中,所述源样本文本数据是对原始源样本文本数据中的至少一个目标对象进行屏蔽处理得到的;所述样本特征向量序列包括与所述至少一个目标对象中的每个目标对象对应的样本特征向量;
其中,所述方法还包括:
对与所述至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与所述至少一个目标对象中的每个目标对象对应的对象预测结果;
其中,所述利用所述译文样本文本的译文样本文本数据、所述自回归译文结果、所述非自回归译文结果、所述源样本文本的真实长度值、所述第一预测长度值、所述译文样本文本的真实长度值和所述第二预测长度值训练预定模型,包括:
基于损失函数,利用所述译文样本文本的译文样本文本数据和所述自回归译文结果,得到第一输出值;
基于所述损失函数,利用所述译文样本文本的译文样本文本数据和所述非回归译文结果,得到第二输出值;
基于所述损失函数,利用所述源样本文本的真实长度值和所述第一预测长度值,得到第三输出值;
基于所述损失函数,利用所述译文样本文本的真实长度值和所述第二预测长度值,得到第四输出值;
基于所述损失函数,利用与所述至少一个目标对象中的每个目标对象对应的对象真实结果和对象预测结果,得到第五输出值;以及
根据所述第一输出值、所述第二输出值、所述第三输出值、所述第四输出值和所述第五输出值,调整所述预定模型的模型参数,直至满足预定条件,得到所述训练完成的预定模型。
3.根据权利要求1或2所述的方法,其中,所述样本特征向量序列包括多个样本特征向量,每个所述样本特征向量包括多个特征维度;
其中,所述根据所述样本特征向量序列,得到目标样本特征向量,包括:
针对所述多个特征维度中的每个特征维度,确定与所述特征维度对应的平均特征值,其中,所述平均特征值是将所述多个样本特征向量中与所述特征维度对应的多个特征值进行平均处理得到的;以及
根据与所述多个特征维度中的每个特征维度对应的平均特征值,得到所述目标样本特征向量。
4.根据权利要求1~3中任一项所述的方法,其中,所述预定模型包括编码器和非自回归解码器;
其中,所述根据训练完成的预定模型,得到所述译文模型,包括:
将训练完成的编码器和非自回归解码器确定为所述译文模型。
5.根据权利要求4所述的方法,其中,所述预定模型还包括自回归解码器;
其中,所述分别对所述样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果,包括:
利用所述自回归解码器处理所述样本特征向量序列,得到所述自回归译文结果;以及
利用所述非自回归解码器处理所述样本特征向量序列,得到所述非自回归译文结果。
6.根据权利要求4或5所述的方法,其中,所述预定模型还包括第一长度预测器和第二长度预测器;
其中,所述对所述目标样本特征向量进行长度预测,得到所述源样本文本的第一预测长度值和译文样本文本的第二预测长度值,包括:
利用所述第一长度预测器处理所述目标样本特征向量,得到所述源样本文本的第一预测长度值;以及
利用所述第二长度预测器处理所述目标样本特征向量,得到所述译文样本文本的第二预测长度值。
7.根据权利要求2~6中任一项所述的方法,其中,所述预定模型还包括对象预测器;
其中,所述对与所述至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与所述至少一个目标对象中的每个目标对象对应的对象预测结果,包括:
利用所述对象预测器处理对与所述至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与所述至少一个目标对象中的每个目标对象对应的对象预测结果。
8.根据权利要求4~7中任一项所述的方法,其中,所述对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列,包括:
利用所述编码器处理所述源样本文本的源样本文本数据,得到所述样本特征向量序列。
9.一种译文方法,包括:
将源文本的源文本数据输入译文模型,得到针对所述源文本的译文结果,
其中,所述译文模型是利用根据权利要求1~8中任一项所述的方法训练的。
10.根据权利要求9所述的方法,其中,所述译文模型包括训练完成的编码器和非自回归解码器;
其中,所述将源文本的源文本数据输入译文模型,得到针对所述源文本的译文结果,包括:
将所述源文本的源文本数据输入所述编码器,得到特征向量序列;以及
将所述特征向量序列输入所述非自回归解码器,得到针对所述源文本的译文结果。
11.一种译文模型的训练装置,包括:
第一获得模块,用于对源样本文本的源样本文本数据进行特征提取,得到样本特征向量序列;
第一获得模块,用于根据所述样本特征向量序列,得到目标样本特征向量;
处理模块,用于分别对所述样本特征向量序列进行自回归解码处理和非自回归解码处理,得到自回归译文结果和非自回归译文结果;
第一预测模块,用于对所述目标样本特征向量进行长度预测,得到所述源样本文本的第一预测长度值和译文样本文本的第二预测长度值,其中,所述译文样本文本表征与所述源样本文本对应的译文文本;
训练模块,用于利用所述译文样本文本的译文样本文本数据、所述自回归译文结果、所述非自回归译文结果、所述源样本文本的真实长度值、所述第一预测长度值、所述译文样本文本的真实长度值和所述第二预测长度值训练预定模型,其中,所述译文样本文本数据表征与所述源样本文本对应的真实译文结果;以及
第二获得模块,用于根据训练完成的预定模型,得到所述译文模型。
12.根据权利要求11所述的装置,其中,所述源样本文本数据是对原始源样本文本数据中的目标对象进行屏蔽处理得到的;所述样本特征向量序列包括与所述至少一个目标对象中的每个目标对象对应的样本特征向量;
其中,所述装置还包括:
第二预测模块,用于对与所述至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与所述至少一个目标对象中的每个目标对象对应的对象预测结果;
其中,所述训练模块,包括:
第一获得子模块,用于基于损失函数,利用所述译文样本文本的译文样本文本数据和所述自回归译文结果,得到第一输出值;
第二获得子模块,用于基于所述损失函数,利用所述译文样本文本的译文样本文本数据和所述非回归译文结果,得到第二输出值;
第三获得子模块,用于基于所述损失函数,利用所述源样本文本的真实长度值和所述第一预测长度值,得到第三输出值;
第四获得子模块,用于基于所述损失函数,利用所述译文样本文本的真实长度值和所述第二预测长度值,得到第四输出值;
第五获得子模块,用于基于所述损失函数,利用与所述至少一个目标对象中的每个目标对象对应的对象真实结果和对象预测结果,得到第五输出值;以及
训练子模块,用于根据所述第一输出值、所述第二输出值、所述第三输出值、所述第四输出值和所述第五输出值,调整所述预定模型的模型参数,直至满足预定条件,得到所述训练完成的预定模型。
13.根据权利要求11或12所述的装置,其中,所述样本特征序列包括多个样本特征向量,每个所述样本特征向量包括多个特征维度;
其中,所述提取模块,包括:
第一确定子模块,用于针对所述多个特征维度中的每个特征维度,确定与所述特征维度对应的平均特征值,其中,所述平均特征值是将所述多个样本特征向量中与所述特征维度对应的多个特征值进行平均处理得到的;以及
第六获得子模块,用于根据与所述多个特征维度中的每个特征维度对应的平均特征值,得到所述目标样本特征向量。
14.根据权利要求11~13中任一项所述的装置,其中,所述预定模型包括编码器和非自回归解码器;
其中,所述第二获得模块,包括:
第二确定子模块,用于将训练完成的编码器和非自回归解码器确定为所述译文模型。
15.根据权利要求14所述的装置,其中,所述预定模型还包括自回归解码器;
其中,所述处理模块,包括:
第七获得子模块,用于利用所述自回归解码器处理所述样本特征向量序列,得到所述自回归译文结果;以及
第八获得子模块,用于利用所述非自回归解码器处理所述样本特征向量序列,得到所述非自回归译文结果。
16.根据权利要求14或15所述的装置,其中,所述预定模型还包括第一长度预测器和第二长度预测器;
其中,所述第一预测模块,包括:
第九获得子模块,用于利用所述第一长度预测器处理所述目标样本特征向量,得到所述源样本文本的第一预测长度值;以及
第十获得子模块,用于利用所述第二长度预测器处理所述目标样本特征向量,得到所述译文样本文本的第二预测长度值。
17.根据权利要求12~16中任一项所述的装置,其中,所述预定模型还包括对象预测器;
其中,所述第二预测模块,包括:
第十一获得子模块,用于利用所述对象预测器处理对与所述至少一个目标对象中的每个目标对象对应的样本特征向量进行对象预测,得到与所述至少一个目标对象中的每个目标对象对应的对象预测结果。
18.根据权利要求14~17中任一项所述的方法,其中,所述提取模块,包括:
第十二获得子模块,用于利用所述编码器处理所述源样本文本的源样本文本数据,得到所述样本特征向量序列。
19.一种译文装置,包括:
第三获得模块,用于将源文本的源文本数据输入译文模型,得到针对所述源文本的译文结果,
其中,所述译文模型是利用根据权利要求11~18中任一项所述的装置训练的。
20.根据权利要求19所述的装置,其中,所述译文模型包括训练完成的编码器和非自回归解码器;
其中,所述第三获得模块,包括:
第十三获得子模块,用于将所述源文本的源文本数据输入所述编码器,得到特征向量序列;以及
第十四获得子模块,用于将所述特征向量序列输入所述非自回归解码器,得到针对所述源文本的译文结果。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~8中任一项或权利要求9或10所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1~8中任一项或权利要求9或10所述的方法。
23.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1~8中任一项或权利要求9或10所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111358246.2A CN114065784B (zh) | 2021-11-16 | 2021-11-16 | 训练方法、译文方法、装置、电子设备以及存储介质 |
US17/982,965 US20230076471A1 (en) | 2021-11-16 | 2022-11-08 | Training method, text translation method, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111358246.2A CN114065784B (zh) | 2021-11-16 | 2021-11-16 | 训练方法、译文方法、装置、电子设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114065784A true CN114065784A (zh) | 2022-02-18 |
CN114065784B CN114065784B (zh) | 2023-03-10 |
Family
ID=80272809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111358246.2A Active CN114065784B (zh) | 2021-11-16 | 2021-11-16 | 训练方法、译文方法、装置、电子设备以及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230076471A1 (zh) |
CN (1) | CN114065784B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230267285A1 (en) * | 2022-02-07 | 2023-08-24 | Nvidia Corporation | Using one or more neural networks to perform text translation |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130249A1 (en) * | 2017-10-27 | 2019-05-02 | Salesforce.Com, Inc. | Sequence-to-sequence prediction using a neural network model |
CN110852116A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 非自回归神经机器翻译方法、装置、计算机设备和介质 |
CN110895659A (zh) * | 2018-08-22 | 2020-03-20 | 阿里巴巴集团控股有限公司 | 模型训练方法、识别方法、装置及计算设备 |
CN111581988A (zh) * | 2020-05-09 | 2020-08-25 | 浙江大学 | 一种基于任务层面课程式学习的非自回归机器翻译模型的训练方法和训练系统 |
US20200357384A1 (en) * | 2019-05-09 | 2020-11-12 | Samsung Electronics Co., Ltd. | Model training method and apparatus |
CN111931736A (zh) * | 2020-09-27 | 2020-11-13 | 浙江大学 | 利用非自回归模型与整合放电技术的唇语识别方法、系统 |
US20200372217A1 (en) * | 2019-05-22 | 2020-11-26 | Samsung Electronics Co., Ltd. | Method and apparatus for processing language based on trained network model |
CN112257471A (zh) * | 2020-11-12 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、计算机设备及存储介质 |
CN113095092A (zh) * | 2021-04-19 | 2021-07-09 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
CN113378584A (zh) * | 2021-05-28 | 2021-09-10 | 沈阳雅译网络技术有限公司 | 一种基于辅助表示融合的非自回归神经机器翻译方法 |
CN113553864A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-16 CN CN202111358246.2A patent/CN114065784B/zh active Active
-
2022
- 2022-11-08 US US17/982,965 patent/US20230076471A1/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130249A1 (en) * | 2017-10-27 | 2019-05-02 | Salesforce.Com, Inc. | Sequence-to-sequence prediction using a neural network model |
CN110895659A (zh) * | 2018-08-22 | 2020-03-20 | 阿里巴巴集团控股有限公司 | 模型训练方法、识别方法、装置及计算设备 |
US20200357384A1 (en) * | 2019-05-09 | 2020-11-12 | Samsung Electronics Co., Ltd. | Model training method and apparatus |
US20200372217A1 (en) * | 2019-05-22 | 2020-11-26 | Samsung Electronics Co., Ltd. | Method and apparatus for processing language based on trained network model |
CN110852116A (zh) * | 2019-11-07 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 非自回归神经机器翻译方法、装置、计算机设备和介质 |
CN111581988A (zh) * | 2020-05-09 | 2020-08-25 | 浙江大学 | 一种基于任务层面课程式学习的非自回归机器翻译模型的训练方法和训练系统 |
CN111931736A (zh) * | 2020-09-27 | 2020-11-13 | 浙江大学 | 利用非自回归模型与整合放电技术的唇语识别方法、系统 |
CN112257471A (zh) * | 2020-11-12 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、计算机设备及存储介质 |
CN113095092A (zh) * | 2021-04-19 | 2021-07-09 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
CN113378584A (zh) * | 2021-05-28 | 2021-09-10 | 沈阳雅译网络技术有限公司 | 一种基于辅助表示融合的非自回归神经机器翻译方法 |
CN113553864A (zh) * | 2021-06-30 | 2021-10-26 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
WEIZHEN QI ET.AL: "BANG: Bridging Autoregressive and Non-autoregressive Generation with Large Scale Pretraining", 《ARXIV:2012.15525V3》 * |
贾浩 等: "基于掩码机制的非自回归神经机器翻译", 《厦门大学学报(自然科学版)》 * |
Also Published As
Publication number | Publication date |
---|---|
US20230076471A1 (en) | 2023-03-09 |
CN114065784B (zh) | 2023-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112926306B (zh) | 文本纠错方法、装置、设备以及存储介质 | |
CN114120414B (zh) | 图像处理方法、装置、电子设备和介质 | |
CN114612600B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN112560996A (zh) | 用户画像识别模型训练方法、设备、可读存储介质及产品 | |
CN114861889A (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN110874532A (zh) | 提取反馈信息的关键词的方法和装置 | |
CN112528641A (zh) | 建立信息抽取模型的方法、装置、电子设备和可读存储介质 | |
CN112749300A (zh) | 用于视频分类的方法、装置、设备、存储介质和程序产品 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN113408306A (zh) | 翻译方法及分类模型的训练方法、装置、设备和存储介质 | |
CN114065784B (zh) | 训练方法、译文方法、装置、电子设备以及存储介质 | |
CN114494747A (zh) | 模型的训练方法、图像处理方法、装置、电子设备及介质 | |
CN113947701A (zh) | 训练方法、对象识别方法、装置、电子设备以及存储介质 | |
CN110852057A (zh) | 一种计算文本相似度的方法和装置 | |
CN113468857A (zh) | 风格转换模型的训练方法、装置、电子设备以及存储介质 | |
CN112506359A (zh) | 输入法中候选长句的提供方法、装置及电子设备 | |
CN112926298A (zh) | 新闻内容识别方法、相关装置及计算机程序产品 | |
CN112989170A (zh) | 应用于信息搜索的关键词匹配方法、信息搜索方法及装置 | |
CN114937478B (zh) | 用于训练模型的方法、用于生成分子的方法和装置 | |
CN113408304B (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
CN113239273A (zh) | 用于生成文本的方法、装置、设备以及存储介质 | |
CN113961797A (zh) | 资源推荐方法、装置、电子设备和可读存储介质 | |
CN113361621A (zh) | 用于训练模型的方法和装置 | |
CN115312042A (zh) | 用于处理音频的方法、装置、设备以及存储介质 | |
CN115965018B (zh) | 信息生成模型的训练方法、信息生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |