CN110263348A - 翻译方法、装置、计算机设备和存储介质 - Google Patents

翻译方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110263348A
CN110263348A CN201910168264.0A CN201910168264A CN110263348A CN 110263348 A CN110263348 A CN 110263348A CN 201910168264 A CN201910168264 A CN 201910168264A CN 110263348 A CN110263348 A CN 110263348A
Authority
CN
China
Prior art keywords
sentence
word
sequence
model
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910168264.0A
Other languages
English (en)
Inventor
杨郑鑫
张金超
孟凡东
冯洋
周杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Institute of Computing Technology of CAS
Tencent Cyber Tianjin Co Ltd
Original Assignee
Institute of Computing Technology of CAS
Tencent Cyber Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS, Tencent Cyber Tianjin Co Ltd filed Critical Institute of Computing Technology of CAS
Priority to CN201910168264.0A priority Critical patent/CN110263348A/zh
Publication of CN110263348A publication Critical patent/CN110263348A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种翻译方法、装置、计算机设备和存储介质,所述方法包括:获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。上述方法可以提高翻译准确度。

Description

翻译方法、装置、计算机设备和存储介质
技术领域
本发明涉及机器学习领域,特别是涉及翻译方法、装置、计算机设备和存储介质。
背景技术
机器翻译是指通过计算机将一种自然语言文本,翻译为另一种自然语言文本,以实现不同语种的文本之间的转换。随着信息技术的发展,翻译的需求越来越多。目前,可以基于Encoder-Decoder(编码模型-解码模型)的框架进行翻译,在该框架中,编码模型对输入的目标源语句进行编码,得到编码向量序列,解码模型对编码向量序列进行解码,得到目标语句。然而,上述框架中,翻译得到的目标语句准确度低。
发明内容
基于此,有必要针对上述利用传统的机器模型翻译得到的目标语句准确度低的问题,提供一种翻译方法、装置、计算机设备和存储介质。
一种翻译方法,所述方法包括:获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
一种翻译装置,所述装置包括:源语句以及初始翻译语句获取模块,用于获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;编码模块,用于利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;解码模块,用于利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;调整模块,用于根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
在一些实施例中,所述机器学习模型包括操作解码模型以及词语解码模型,所述解码模块包括:操作得到单元,用于利用所述操作解码模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作;词语得到单元,用于利用所述词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语;所述调整模块用于:根据各个时刻对应的语句调整操作以及目标词语对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
在一些实施例中,所述操作得到单元包括:第一系数得到子单元,用于对于所述第一编码向量序列的各个第一编码向量,确定相对于当前时刻待输出的目标词语的第一注意力分配权重系数;第二系数得到子单元,用于对于所述第二编码向量序列的各个第二编码向量,确定相对于当前时刻待输出的目标词语的第二注意力分配权重系数;联合向量得到子单元,用于根据所述第一编码向量序列以及对应的第一注意力分配权重系数、所述第二编码向量序列以及对应的第二注意力分配权重系数,计算得到联合向量;操作解码结果得到子单元,用于所述操作解码模型利用所述词语解码模型前一时刻所输出的目标词语的词向量对所述联合向量进行解码,得到当前时刻的候选操作解码结果。
在一些实施例中,所述候选操作解码结果包括各个候选语句调整操作对应的被选中率,所述词语得到单元包括:目标操作向量得到子单元,用于根据所述各个候选语句调整操作对应的操作向量以及被选中率计算得到目标操作向量,或者,根据所述各个候选语句调整操作对应的被选中率确定当前语句调整操作,将所述当前语句调整操作对应的操作向量作为目标操作向量;词语得到子单元,用于将所述目标操作向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语。
在一些实施例中,所述词语得到子单元用于:将所述目标操作向量、当前时刻所述操作解码模型的隐层状态向量以及前一时刻所述词语解码模型的隐层状态向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语。
在一些实施例中,所述机器学习模型的训练模块包括:训练样本获取单元,用于获取训练样本集中的训练样本,所述训练样本包括样本源语句、对所述样本源语句进行初始翻译得到的初始样本翻译语句、对所述初始样本翻译语句进行语句调整的样本语句调整操作序列以及所述样本语句调整操作序列中各个语句调整操作对应的调整词语;编码向量序列得到单元,用于将所述训练样本中的样本源语句、所述初始样本翻译语句输入到机器学习模型进行编码,得到所述样本源语句对应的第三编码向量序列以及所述初始样本翻译语句对应的第四编码向量序列;预测操作以及词语得到单元,用于利用所述机器学习模型对所述第三编码向量序列以及所述第四编码向量序列进行联合解码,得到预测操作序列以及所述预测操作序列中各个预测操作对应的预测词语;更新单元,用于根据所述预测操作序列与所述样本语句调整操作序列的差异,以及所述调整词语与所述预测词语的差异对所述机器学习模型中的参数进行更新;返回单元,用于返回所述获取训练样本集中的训练样本的步骤继续进行模型训练,直至满足训练收敛条件,得到已训练的机器学习模型。
在一些实施例中,所述机器学习模型包括第一编码模型以及第二编码模型,所述编码模块用于:将所述目标源语句输入到所述第一编码模型中进行编码,得到所述目标源语句对应的第一编码向量序列,将所述初始翻译语句输入到所述第二编码模型中进行编码,得到所述初始翻译语句对应的第二编码向量序列。
在一些实施例中,所述源语句以及初始翻译语句获取模块用于:获取待翻译的目标源语句;将所述目标源语句输入到机器翻译模型中,翻译得到所述目标源语句对应的初始翻译语句。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述翻译方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述翻译方法的步骤。
上述翻译方法、装置、计算机设备和存储介质,在得到目标源语句以及对目标源语句进行初始翻译得到的初始翻译语句后,利用机器学习模型对目标源语句以及初始翻译语句进行进一步编码,得到对应的编码向量序列并对编码向量序列进行联合解码,得到对初始翻译语句进行调整的操作序列,对初始翻译语句进行语句调整。通过对初始翻译语句以及源语句的编码向量序列进行联合解码,能够结合源语句以及初始翻译语句的语义信息得到对初始翻译语句进行语句调整的语句调整操作,语句调整操作的准确度高,因此根据语句调整操作对初始翻译语句调整得到的目标翻译语句的准确度高,提高了翻译的准确度。
附图说明
图1为一些实施例中提供的翻译方法的应用环境图;
图2为一些实施例中翻译方法的流程图;
图3为一些实施例中机器学习模型的结构示意图;
图4A为一些实施例中操作解码模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果的流程图;
图4B为一些实施例中机器学习模型的结构示意图;
图5为一些实施例中机器学习模型的训练步骤的流程图;
图6为一些实施例中翻译方法的流程图;
图7为一些实施例中利用机器学习模型进行语句调整,得到目标翻译语句的示意图;
图8为一些实施例中翻译装置的结构框图;
图9为一些实施例中训练模块的结构框图;
图10为一些实施例中计算机设备的内部结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一编码向量序列称为第二编码向量序列,且类似地,可将第二编码向量序列称为第一编码向量序列。
图1为一些实施例中提供的翻译方法的应用环境图,如图1所示,在该应用环境中,包括终端110以及服务器120,该翻译方法应用于翻译系统。终端110可获取目标源语句,将目标源语句发送至服务器120,服务器120根据目标源语句翻译得到初始翻译语句,进而执行本申请实施例的翻译方法,得到目标翻译语句,将目标翻译语句返回至终端110。终端110也可在获取目标源语句后执行翻译方法得到目标翻译语句。可以理解,服务器120也可以通过其他方式获取初始翻译语句以及目标源语句。例如,初始翻译语句可以是人类进行初步的翻译得到的,终端110可以将初始翻译语句以及目标源语句发送到服务器120。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群,可以是提供云服务器、云数据库、云存储和CDN等基础云计算服务的云服务器。终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端110以及服务器120可以通过网络等通讯连接方式进行连接,本发明在此不做限制。
如图2所示,在一些实施例中,提出了一种翻译方法,本实施例主要以该方法应用于上述图1中的服务器120来举例说明。具体可以包括以下步骤:
步骤S202,获取目标源语句以及对目标源语句进行翻译得到的初始翻译语句。
具体地,目标源语句是待翻译的语句。一个目标源语句可以包括多个词语。目标源语句的语言可以根据实际需要确定,例如目标源语句可以是中文语句,也可以是日文语句。初始翻译语句是对目标源语句进行初始翻译得到的翻译语句。初始翻译语句可以是人工翻译的,也可以是机器例如服务器自动翻译的。例如,可以利用预先训练得到的机器翻译模型对目标源语句进行翻译,得到初始翻译语句。
在一些实施例中,可对目标源语句进行分词处理,得到各个词所组成的词序列。也可以对初始翻译语句进行分词处理,得到各个词所组成的词序列。其中,分词的方法可以可采用基于词典或基于统计的分词方式。例如,假设目标源语句为“今天是星期天”,则分词得到的词序列为“今天/是/星期天”。
在一些实施例中,可直接获取目标源语句和初始翻译语句,对目标源语句和初始翻译语句进行分词处理,得到相应的词序列。计算机设备也可接收由其他计算机设备根据目标源语句和初始翻译语句分别生成的词序列。
在一些实施例中,获取目标源语句以及对目标源语句进行翻译得到的初始翻译语句包括:获取待翻译的目标源语句;将目标源语句输入到机器翻译模型中,翻译得到目标源语句对应的初始翻译语句。机器翻译模型可以是任意的翻译模型,例如可以是谷歌翻译对应的翻译模型或者是自行训练得到的机器翻译模型。当得到待翻译的目标源语句后,将目标源语句输入到机器翻译模型中,因此可以翻译得到目标源语句对应的初始翻译语句。
步骤S204,利用已训练的机器学习模型对目标源语句以及初始翻译语句进行编码,得到目标源语句对应的第一编码向量序列以及初始翻译语句对应的第二编码向量序列。
具体地,编码可以将输入的语句转化为向量。编码向量序列是指对语句的各个词语进行编码得到的编码向量组成的向量序列。可对得到语句对应的词序列的各词进行语义编码,以提取各词的语义特征,将各个词语转换成向量表示,拼接各词所对应的向量表示,得到编码向量序列。已训练的机器学习模型可以是基于Encoder-Decoder(编码模型-解码模型)结构的学习模型。Encoder-Decoder结构的机器学习模型可以将输入数据转换为另一个数据输出。在该框架中,编码器将输入转化成向量,解码器对向量进行解码,生成输出的数据。编码模型以及解码模型可以采用相同类型的神经网络模型,也可以是不同类型的神经网络模型。比如,编码器可以为CNN(ConvolutionalNeuralNetworks,卷积神经网络)模型,或者编码器采用RNN(RecurrentNeuralNetworks)模型,解码器采用RNN模型。机器学习模型是预先训练得到的,根据已训练的机器学习模型进行翻译之前,需要通过训练数据对机器学习模型进行模型训练确定模型的参数,使其能够建立起从输入数据到输出数据的映射。在进行模型训练时,可以采用有监督的学习方式,对于任意训练数据,其输出数据都是己知的,因此可以根据训练数据对应的预测输出数据与实际的输出数据调整模型参数,得到满足模型收敛条件的机器学习模型。
在一些实施例中,机器学习模型可以是RNN模型,对于RNN模型的每一个转换块(transitionblock)可以包括一个线性变换增强GRU(LinearTransformationenhancedGRU)以及线性变换增强GRU之后的多个转换GRU(TransitionGRU)。其中GRU指门控循环单元(GatedRecurrentUnit)。
在一些实施例中,可以目标源语句进行分词,得到目标源语句的词序列。可通过词嵌入处理将词序列转换成词向量序列,将词向量序列输入至已训练得到的机器学习模型的隐层中,通过机器学习模型中的编码器对与目标源语句对应的词向量序列进行语义编码处理,得到第一编码向量序列。其中第一编码向量序列中的一个第一编码向量可以对应目标源语句的词序列中的一个词。可以理解,初始翻译语句也可以参考目标源语句的编码方法进行编码,得到第二编码向量序列,在此不再赘述。
在一些实施例中,可以将目标源语句的词序列以及初始翻译语句的词序列输入到机器学习模型中编码器的输入层,通过机器学习模型的编码器中各隐层进行语义编码处理,得到隐层所输出的向量序列,作为第一编码向量序列以及第二编码向量序列。其中,隐层是神经网络模型中的一种术语,是相对于输入层和输出层的中间层,隐层中包括对神经网络模型训练得到的模型参数。这里编码器的隐层是相对于编码器的输入层和编码器的输出层的中间层。编码器的隐层可包括多个神经网络层。
在一些实施例中,编码模型可以是循环神经网络模型,循环神经网络编码模型中,当前时刻生成的编码向量是根据当前词向量以及前一时刻生成的编码向量决定的。用公式表示如下:bj=E(bj-1,xj),其中,bj表示词序列中第j个词对应的编码向量,bj-1表示语句中第j-1个词对应的编码向量,xj表示词序列中的第j个词的词向量,E表示编码模型对应的映射函数。
在一些实施例中,机器学习模型包括第一编码模型以及第二编码模型,利用已训练的机器学习模型对目标源语句以及初始翻译语句进行编码,得到目标源语句对应的第一编码向量序列以及初始翻译语句对应的第二编码向量序列包括:将目标源语句输入到第一编码模型中进行编码,得到目标源语句对应的第一编码向量序列,将初始翻译语句输入到第二编码模型中进行编码,得到初始翻译语句对应的第二编码向量序列。
其中,第一编码模型以及第二编码模型是指不同的编码模型。第一编码模型以及第二编码模型可以是翻译模型中的编码模型。例如第一编码模型是将目标源语句对应的语言表示的语句,翻译成初始翻译语句对应的语言表示的语句的翻译模型中的编码模型,第二编码模型是将初始翻译语句对应的语言表示的语句,翻译成目标源语句对应的语言表示的语句的翻译模型中的编码模型。举个实际的例子,假设源语句是中文表示的语句,初始翻译语句是英文表示的语句,则第一编码模型是将中文翻译成英文的翻译模型中的编码模型,第二编码模型是将英文翻译成中文的翻译模型中的编码模型。得到目标源语句以及初始翻译语句后,将目标源语句输入到第一编码模型中,得到第一编码向量序列,将初始翻译语句输入到第二编码模型中,得到第二编码向量序列。
步骤S206,利用机器学习模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到语句调整操作序列。
具体地,解码是将向量转换为期望转换得到的数据输出的过程。联合解码是指在进行解码时,是结合第一编码向量序列以及第二编码向量序列进行解码的。例如,对第一编码向量序列以及第二编码向量序列的向量进行加权求和,得到联合向量。语句调整操作序列包括一个或多个语句调整操作。语句调整操作用于对语句进行调整。语句调整操作序列中语句调整操作的类型可以包括保持、删除、替换以及插入中的一种或多种。保持是保持语句中的词语不变,删除是指删除语句中的词语,替换是利用其他词语替换语句中的词语,插入是指在语句中插入词语。得到第一编码向量序列以及第二编码向量序列后,可以利用机器学习模型的解码模型对第一编码向量序列以及第二编码向量序列进行解码,得到语句调整操作序列。
在一些实施例中,在进行联合解码时,解码模型可以是循环神经网络模型。循环神经网络解码模型中,当前时刻生成的解码结果是根据输入以及前一时刻解码结果决定的。用公式表示如下:fj=G(fj-1,aj),其中,fj表示第j时刻对应的解码结果,fj-1表示第j-1时刻对应的解码结果,aj表示第j时刻输入解码器隐层的向量,G表示解码模型对应的映射函数。
在一些实施例中,在进行联合解码时,可以基于注意力机制生成当前时刻各个第一编码向量对应的第一注意力分配权重系数,基于注意力机制生成第二编码向量对应的注意力分配权重系数,基于第一注意力权重系数对第一编码向量序列的第一编码向量进行加权求和,得到第一注意力向量,基于第二注意力权重系数对第二编码向量序列的第二编码向量进行加权求和,得到第二注意力向量。根据第一注意力向量以及第二注意力向量计算得到联合向量,将联合向量作为当前时刻输入解码模型中隐层的向量。
步骤S208,根据语句调整操作序列对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
具体地,得到语句调整操作序列后,根据语句调整操作序列中的语句调整操作依次对初始翻译语句进行调整,即按照语句调整操作序列中语句调整操作的顺序依次对初始翻译语句各个位置的词语进行调整。当得到第一个语句调整操作后,可以根据第一个语句调整操作进行调整,得到调整后的中间翻译语句,当得到第二个语句调整操作后,再根据第二个语句调整操作对初始翻译语句进行调整,得到调整后的中间翻译语句,重复上述步骤,直至语句调整操作序列中的语句调整操作均操作完毕,得到目标翻译语句。在进行语句调整操作时,可以将根据前一个语句调整操作进行调整得到的词语之后的词语位置,作为当前语句调整操作所要调整的当前位置。对于保持语句调整操作,则保持初始翻译语句中该当前位置对应的词语;对于替换语句调整操作,则利用其它词语替换初始翻译语句中该当前位置对应的词语;对于删除语句调整操作,则删除该当前位置对应的词语;对于插入语句调整操作,则在当前位置对应的词语前面插入新的词语。例如,第一个语句调整操作调整的是初始翻译语句中第一个词语之前的位置,第一个语句调整操作之后的语句调整调整操作调整的是最新调整得到的词语之后的位置。
举个实际的例子,假设初始翻译语句是“今天周五是”,得到的语句调整操作序列中的操作依次为“保持”、“插入”、“保持”、“删除”,插入操作对应的词语为“是”,则目标翻译语句为“今天是周五”。假设初始翻译语句是“Thisflowersisbeautiful”,得到的操作序列中的操作依次为“保持”、“代替”、“保持”、“保持”,代替操作对应的词语为“flower”,则目标翻译语句为“Thisflowerisbeautiful”。
在一些实施例中,当得到语句调整操作序列后,可以对初始翻译语句以及目标翻译语句进行处理,使得初始翻译语句以及目标翻译语句分别与语句调整操作序列的长度相同,方便了解对语句进行了哪些调整。例如,可以利用占位符替换语句中的空格。可以根据语句调整操作序列的操作类型确定占位符的添加位置。特别地,对于“插入”操作,可以在初始翻译语句对应位置的词语之后添加占位符,对于“删除”操作,可以在目标翻译语句对应位置上添加占位符。例如,假设“删除”操作是第三个操作,则在目标翻译语句的第二个词语之后添加占位符,使得“删除”操作对应添加占位符的目标翻译语句中的第三个词语,即表示删除了初始翻译语句中的第三个词语。
上述翻译方法,在得到目标源语句以及对目标源语句进行翻译得到的初始翻译语句后,利用机器学习模型对目标源语句以及初始翻译语句进行进一步编码,得到对应的编码向量序列并对编码向量序列进行联合解码,得到对初始翻译语句进行调整的操作序列,对初始翻译语句进行语句调整。通过对初始翻译语句以及源语句的编码向量序列进行联合解码,能够结合源语句以及初始翻译语句的语义信息得到对初始翻译语句进行语句调整的语句调整操作,语句调整操作的准确度高,因此根据语句调整操作对初始翻译语句调整得到的目标翻译语句的准确度高,提高了翻译的准确度。
本发明实施例提供的翻译方法可以应用于翻译场景中,例如可以是同声传译中。人类进行语言翻译的过程通常包括初步翻译获得翻译草稿,根据翻译草稿以及原文不断润色翻译草稿,得到最终译文的过程,对于实时性要求比较高的翻译场景例如同声传译来说,如果由人类进行翻译,则由于翻译时间短,很难有时间可以对翻译进行润色,因此翻译得到的语句可能会存在错误的地方,而利用本发明实施例提供的翻译方法,在得到初始的译文后,获取针对译文的操作以及词语,以对译文进行润色,相当于模拟了人类翻译得到译文的过程。其中,初始翻译语句可以是现场的同声传译人员翻译得到的,可以利用语音采集工具采集得到发言人发出的源语句,将采集得到的发言人的源语句作为目标源语句,根据目标源语句以及初始翻译语句实施本发明实施例提供的翻译方法,得到目标翻译语句,可以将目标翻译语句展示在屏幕上,也可以播放该目标翻译语句。这样,由于同声翻译人员了解发言的场景,例如当前发言的发言人的技术背景、会议的主题等,故翻译得到的初始翻译语句是根据当前的场景灵活调整的,而即使同声传译人员遗漏了发言人的部分信息或者存在翻译错误,也可以利用本发明实施例提供的翻译方法进行纠正,故最终得到的目标源语句既契合当前的发言背景,又能够准确的表达出目标源语句所传递的意思。
本发明实施例提供的翻译方法在对译文进行润色的过程中,不仅仅依靠初始翻译语句得到语句调整操作,而是引入了目标源语句,相当于将目标源语句作为额外的参考信息,对照目标源语句以及初始翻译语句所传达的语义信息对初始翻译语句信息修改,翻译准确度高。例如,假设不采用本发明实施例提供的方法,用常用的翻译模型翻译得到初始翻译语句,利用BELU(BilingualEvaluationUnderstudy)翻译质量评估方法进行翻译质量评估,则BELU分数为62.49分。而采用本发明实施例提供的方法对初始翻译语句进行润色,得到目标翻译语句,利用BELU翻译质量评估方法进行翻译质量评估,则BELU分数为71.16分。其中,BELU是一种文本评估算法,它是用来评估机器翻译跟专业人工翻译之间的对应关系,核心思想就是机器翻译越接近专业人工翻译,质量就越好,经过bleu算法得出的分数可以作为机器翻译质量的其中一个指标。
在一些实施例中,机器学习模型包括操作解码模型以及词语解码模型,利用机器学习模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到语句调整操作序列包括:操作解码模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作;词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语;根据语句调整操作序列对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句包括:根据各个时刻对应的语句调整操作以及目标词语对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
具体地,操作解码模型是用于确定语句调整操作的,词语解码模型是用于确定语句调整操作对应的词语的。候选操作解码结果是各个候选操作对应的解码结果,可以用于确定当前时刻的目标操作。例如,候选操作解码结果可以是各个候选操作对应的概率,得到各个候选操作的概率后,可以根据候选操作对应的概率选择概率最大的操作作为当前时刻的目标语句调整操作(也称为当前语句调整操作),例如采用集束搜索的方法或者贪心算法取概率最大的操作作为当前语句调整操作。得到当前时刻的候选操作解码结果后,词语解码模型基于当前时刻的候选操作解码结果进行词语解码,得到当前时刻各个词表中各个词语的概率,可以选择概率最大的词语作为目标词语,例如采用集束搜索的方法或者贪心方法取概率最大的词语作为目标词语。各个时刻的语句调整操作组成语句调整操作序列。在进行语句调整时,根据相同时刻的语句调整操作以及目标词语对初始翻译语句进行调整。
当前时刻词语解码模型输出的目标词语与当前语句调整操作的类型对应,例如,对于删除操作,词语解码模型输出的词语为空。对于保持操作,词语解码模型输出的词语与初始翻译语句对应的词语相同,对于替换操作,则生成与初始翻译语句对应的词语不同的词语。对于插入操作,则不限制对应的词语是否与初始翻译语句对应的词语相同。为了使得词语解码模型得到的词语与当前语句调整操作的类型对应,可以在进行模型训练时,如果操作类型与对应的词语不对应,则增加模型损失值,使得训练得到的词语解码模型得到的词语与对应的语句调整操作的操作类型对应。
如图3所示,为一些实施例中机器学习模型的模型架构图,包括编码模型以及解码模型,编码模型可以包括第一编码模型以及第二编码模型,解码模型包括操作解码模型以及词语解码模型。第一编码模型对目标源语句进行编码,得到第一编码向量序列,第二编码模型对初始翻译语句进行编码,得到第二编码向量序列。将第一编码向量序列以及第二编码向量序列输入到操作解码模型中,得到当前时刻的候选操作解码结果,根据候选操作解码结果得到目标语句调整操作,将候选操作解码结果输入到词语解码模型中,词语解码模型根据候选操作解码结果解码得到当前时刻的目标词语。
在一些实施例中,候选操作解码结果包括各个候选语句调整操作对应的被选中率,词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语包括:根据各个候选语句调整操作对应的操作向量以及被选中率计算得到目标操作向量,或者,根据各个候选语句调整操作对应的被选中率确定当前语句调整操作,将当前语句调整操作对应的操作向量作为目标操作向量;将目标操作向量输入到词语解码模型中,解码得到当前时刻对应的目标词语。
具体到,被选中率表示各个候选语句调整操作被选为当前时刻对应的当前语句调整操作的可能性,操作向量是指操作对应的向量表示。例如,候选操作解码结果可以为候选语句调整操作对应的概率分布,举个实际的例子,候选操作解码结果可以是:替换操作、保持操作、删除操作以及插入操作对应的概率分别为0.1、0.3、0.5以及0.1。得到候选语句调整操作对应的被选中率后,可以获取各个候选语句操作对应的操作向量,将被选中率与对应的操作向量进行相乘,得到相乘后得到的向量,将各个候选操作相乘后得到的向量相加,得到目标操作向量。当然,也可以直接即将当前语句调整操作对应的操作向量作为目标操作向量。
举个实际的例子,候选操作解码结果可以是:替换操作、保持操作、删除操作以及插入操作对应的概率分别为0.1、0.3、0.5以及0.1。假设替换操作、保持操作、删除操作以及插入操作对应的向量分别为c1、c2、c3以及c4,则目标操作向量可以为0.1*c1+0.3*c2+0.5*c3+0.1*c4。
在一些实施例中,可以将目标操作向量、当前时刻操作解码模型的隐层状态向量以及前一时刻词语解码模型的隐层状态向量输入到词语解码模型中,解码得到当前时刻对应的目标词语。
其中,隐层状态向量是隐层输出的向量,表示模型的隐藏状态。在解码得到当前时刻对应的目标词语时,输入到词语解码模型的数据包括目标操作向量、当前时刻操作解码模型的隐层状态向量以及前一时刻词语解码模型的隐层状态向量,词语解码模型解码得到当前时刻对应的的解码隐层状态向量,对当前时刻的解码隐层状态向量进行线性变换,得到当前时刻中各个候选词的概率,并可以将概率最大的候选词作为当前时刻输出的词。获取概率的函数可以采用softmax函数。
上述实施例中,机器学习模型在进行解码时,是分为操作以及词语两个部分进行解码的,基于解码得到的操作解码结果的约束进行解码得到目标词语,可以提高得到的词语的准确性,也可以使得解码得到的目标词语与操作是相对应的。进一步地,根据输出的操作以及词语进行语句调整也方便了解机器进行语句润色的逻辑,提高机器翻译过程中的可解释性。而且,在进行模型训练时,这种机器学习模型,可以根据预测得到的操作与实际的操作的差别,预测得到的词语与实际词语的差别调整模型的参数,从而使得模型参数的调整更具有针对性。
其中,解码模型可以进行多次的解码,直至符合终止解码的条件时例如得到的词语为翻译停止符号时停止解码。可以理解,上述的“当前时刻”,对于编码模型而言,是指生成当前的编码向量所对应的时刻,对于解码模型而言,是指解码得到当前的输出数据的时刻,而前一时刻是相对于当前时刻而言的,例如,当解码模型需要生成第i个词时,生成第i个词对应的时刻为当前时刻,此时生成第i-1个词对应的时刻为上一时刻。当解码模型要生成第i+1个词时,生成第i+1词对应的时刻为当前时刻,此时生成第i个词对应的时刻为上一时刻。当编码模型要生成第c个编码向量时,生成第c个编码向量对应的时刻为当前时刻,此时生成第c-1个编码向量对应的时刻为上一时刻。当编码模型生成第c+1个编码向量时,生成第c+1编码向量对应的时刻为当前时刻,此时生成第c个编码向量对应的时刻为上一时刻。在首次进行解码时,前一时刻对应的输出数据可以是根据经验设置的值或随机生成初始值。
在一些实施例中,可在要生成当前时刻的语句调整操作时,获取前一时刻所输出的目标词语的词向量,依据前一时刻目标词语的词向量对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,再根据候选操作解码结果确定当前时刻所输出的目标词语。这样当前时刻的语句调整操作综合了前一时刻所输出的目标词语的语义信息,可以使得最终生成的目标翻译语句更为连贯,信息量更为丰富。
在一些实施例中,如图4A所示,操作解码模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果包括:
步骤S402,对于第一编码向量序列的各个第一编码向量,确定相对于当前时刻待输出的目标词语的第一注意力分配权重系数。
具体地,解码模型是基于注意力机制的模型,注意力模型(AttentionModel),用于确定输入的编码向量序列中各个编码向量对解码模型当前时刻输出的词语的影响力。注意力分配权重系数表示编码向量对当前时刻待输出的词的影响力。注意力分配权重系数与影响力成正相关关系。编码向量对应的注意力分配权重系数越大,则其对当前时刻待输出的词语的影响就越大,则编码向量对当前时刻待输出的词语而言更为关键。相反地,编码向量对应的注意力分配权重系数越小,则会减弱编码向量对当前时刻待输出的词语的影响,说明该编码向量不那么关键。可以将第一编码向量序列输入到解码模型对应的注意力模型中,得到编码向量序列中各个编码向量对应的注意力分配权重系数。
在一些实施例中,对于第一编码向量序列的各个第一编码向量,可根据前一时刻词语解码模型输出的隐层状态向量计算得到相对于当前时刻待输出的目标词语的第一注意力分配权重系数。可参考以下公式注意力计算得到权重系数:ei,j=ATT(si-1,hj)。其中,i指第i时刻,j指编码向量序列中第j个向量,αi,j指第i时刻编码向量序列中第j个编码向量所对应的注意力分配权重系数。ATT表示注意力函数,Si-1为前一时刻词语解码模型输出的隐层状态向量,hj表示第j个编码向量。
步骤S404,对于第二编码向量序列的各个第二编码向量,确定相对于当前时刻待输出的目标词语的第二注意力分配权重系数。
具体地,得到第二编码向量序列中各个编码向量对应的第二注意力分配权重系数可以参照步骤S402中得到第一注意力分配权重系数的步骤,将其中的第一编码向量替换为第二编码向量,例如,对于第二编码向量序列的各个第二编码向量,可根据前一时刻词语解码模型输出的隐层状态向量计算得到相对于当前时刻待输出的目标词语的第二注意力分配权重系数,具体不再赘述。
步骤S406,根据第一编码向量序列以及第一注意力分配权重系数、第二编码向量序列以及对应的第二注意力分配权重系数,计算得到联合向量。
具体地,联合向量是联合第一编码向量序列以及第一注意力分配权重系数、第二编码向量序列以及对应的第二注意力分配权重系数得到的,例如,可以将第一编码向量序列的第一编码序列与对应的第一注意力分配权重系数相乘,将相乘得到的向量相加,得到第一注意力向量,将第二编码向量序列的第二编码序列与对应的第二注意力分配权重系数相乘,将相乘得到的向量相加,得到第二注意力向量,联合第一注意力向量与第二注意力向量得到联合向量,其中,可以获取第一注意力向量对应的第一加权权重,第二注意力向量对应的第二加权权重,根据加权权重对第一注意力向量以及第二注意力向量进行加权相加,得到联合向量。其中,第一加权权重以及第二加权权重可以是预设的,例如,可以设置第一加权权重为0.6,第二加权权重为0.2。也可以增加对应的权重模型,计算得到加权权重。举例说明,假设对于当前时刻的注意力分配权重系数,表示为αi,j={α12,…,αJ}。其中,编码向量序列可以表示为H={h1,h2,…,hJ},则注意力向量可以用以下公式计算:假设得到第一注意力向量表示为attention_1,第二注意力向量表示为attention_2,第一加权权重为w,第二加权权重为1-w,则联合向量可以表示为w*attention_1+(1-w)*attention_2。
步骤S408,操作解码模型利用词语解码模型前一时刻所输出的目标词语的词向量对联合向量进行解码,得到当前时刻的候选操作解码结果。
本发明实施例中,在进行联合解码时,确定第一编码向量以及第二编码向量相对于当前时刻待输出的目标词语的注意力分配权重系数,因此,可以使得当前时刻输出的候选操作解码结果包含编码向量中对当前时刻的词语而言更重要的信息,并降低初始翻译语句的翻译错误的影响。例如,对于初始翻译语句中翻译有错误的地方对应的第二编码向量,如果存在语义方面的错误,其与前一时刻词语解码模型输出的隐层状态向量的相关度是比较低的,故得到的注意力分配权重系数小,在进行加权求和时,对得到的联合向量的影响小,因此降低了初始翻译语句中错误地方的语义信息对解码结果的影响。
在一些实施例中,得到联合向量后,可以将联合向量以及词语解码模型前一时刻输出的目标词语的词向量输入到词语解码模型中,得到当前时刻的候选操作解码结果。参考前一时刻所输出的模板词语的词向量对联合向量进行解码,可以使得最终生成的目标翻译语句更为连贯,信息量更为丰富,而且,通过注意力机制处理,可以使得当前时刻输出的候选操作解码结果包含编码向量中对当前时刻的词语而言更重要的信息。
在一些实施例中,操作解码模型利用词语解码模型前一时刻所输出的目标词语的词向量对联合向量进行解码,得到当前时刻的候选操作解码结果包括:词语解码模型前一时刻输出的目标词语的词向量、联合向量以及前一时刻操作解码模型的隐层状态向量输入到操作解码模型中,得到当前时刻的候选操作解码结果。通过前一时刻操作解码模型的隐层状态向量,参考了上一时刻语句调整操作对应的模型状态,通过词语解码模型前一时刻输出的目标词语的词向量,参考了上一时刻语句调整操作得到的词语,可以使得最终生成的目标翻译语句更为连贯,因此能够使得得到的语句调整操作更加准确。
如图4B所示,为一些实施例中机器学习模型的模型架构图,包括编码模型以及解码模型,编码模型可以包括第一编码模型以及第二编码模型,解码模型包括操作解码模型以及词语解码模型。操作解码模型是基于注意力机制的模型,可以将注意力模型作为词语操作解码模型的一部分,可以利用两个注意力模型得到联合向量,联合向量输入到操作解码模型的操作解码隐层中。其中,第一注意力模型用于根据前一时刻词语解码模型输出的隐层状态向量确定第一编码向量相对于当前时刻待输出的目标词语的第一注意力分配权重系数,将第一编码向量序列的第一编码序列与对应的第一注意力分配权重系数相乘,将相乘得到的向量相加,得到第一注意力向量。第二注意力模型用于根据前一时刻词语解码模型输出的隐层状态向量确定第二编码向量相对于当前时刻待输出的目标词语的第二注意力分配权重系数,将第二编码向量序列的第二编码序列与对应的第二注意力分配权重系数相乘,将相乘得到的向量相加,得到第二注意力向量。联合第一注意力向量与第二注意力向量得到联合向量后,操作解码模型依据联合向量、词语解码模型前一时刻所输出的目标词语的词向量以及前一时刻操作解码模型的隐层状态向量进行解码,得到当前时刻的候选操作解码结果。词语解码模型依据目标操作向量、当前时刻操作解码模型的隐层状态向量以及前一时刻词语解码模型的隐层状态向量进行解码,得到当前时刻对应的目标词语。
在一些实施例中,如图5所示,机器学习模型的训练步骤包括:
步骤S502,获取训练样本集中的训练样本,训练样本包括样本源语句、对样本源语句进行初始翻译得到的初始样本翻译语句、对初始样本翻译语句进行调整的样本语句调整操作序列以及样本语句调整操作序列中各个语句调整操作对应的调整词语。
具体地,样本集是用于进行模型训练时的训练样本的集合。样本集中训练样本的个数可以根据需要进行设置,例如可以为10万个。一个训练样本包括样本源语句、对样本源语句进行初始翻译得到的初始样本翻译语句、对初始样本翻译语句进行调整的样本语句调整操作序列以及样本语句调整操作序列中各个语句调整操作对应的调整词语。样本源语句是训练样本中的源语句,初始样本翻译语句是对样本源语句进行初始翻译得到的翻译语句,对初始样本翻译语句经过语句调整后,能够得到对样本源语句进行准确翻译的目标样本翻译语句。样本语句调整操作序列为对初始样本翻译语句进行调整,得到目标样本翻译语句的语句调整操作组成的操作序列,也可以包括替换、保持、删除以及插入中的一个或多个,可以利用最短距离编辑算法(MinimumEditDistance)得到将初始样本翻译语句调整为目标样本翻译语句的样本语句调整操作序列。例如,可以收集中文句子以及对应的初始翻译的英文句子即初始样本翻译语句,对英文句子进行进一步修改,得到对中文句子进行准确翻译的目标样本翻译语句,获取由初始样本翻译语句修改为目标样本翻译语句的样本语句调整操作以及对应的词语,各个样本语句调整操作按照操作顺序组成样本语句调整操作序列。举个实际的例子,假设样本源语句为“你是谁”,初始样本翻译语句为“whoisyou”,目标样本翻译语句为“whoareyou”,则样本语句调整操作序列的操作依次为保持操作、替换操作、保持操作,各个操作对应的调整词语依次为who、are、you。对于删除操作,则对应的调整词语为空。
样本集中的训练样本可以是人工收集的,也可以是利用机器翻译模型进行翻译,将得到的翻译结果作为初始样本翻译语句,由人工对初始样本翻译语句进行修改,得到目标样本翻译语句,根据目标样本翻译语句以及初始样本翻译语句得到样本语句调整操作序列以及样本语句调整操作序列中各个语句调整操作对应的调整词语。例如可以将ape((AutomaticPost-Editing,自动后编辑任务)任务的训练数据中机器翻译的结果作为初始样本翻译语句。也可以是获取双语语料,将双语语料中的一个作为样本源语句,另一个作为目标样本翻译语句,将样本源语句输入预训练的翻译模型进行翻译,得到的语句作为初始样本翻译语句。Ape任务指将机器翻译的译文进行进一步调整,以提高机器翻译译文的翻译质量的任务。
步骤S504,将训练样本中的样本源语句、初始样本翻译语句输入到机器学习模型进行编码,得到样本源语句对应的第三编码向量序列以及初始样本翻译语句对应的第四编码向量序列。
具体地,在进行模型训练时,将训练样本中的样本源语句、初始样本翻译语句输入到机器学习模型进行编码,得到样本源语句对应的第三编码向量序列以及初始样本翻译语句对应的第四编码向量序列。
步骤S506,利用机器学习模型对第三编码向量序列以及第四编码向量序列进行联合解码,得到预测操作序列以及预测操作序列中各个预测操作对应的预测词语。
具体地,得到第三编码向量序列以及第四编码向量序列后,参考第三编码向量序列以及第四编码向量序列进行联合解码,能够得到预测操作以及预测操作对应的预测词语。可以理解,对于机器学习模型的模型训练过程中的步骤S504以及步骤506,可以参考机器学习模型使用过程中的步骤S204以及步骤S206的描述,区别在于步骤S204以及S206中的机器学习模型参数是已训练得到的模型参数,而S504以及步骤S506是在训练过程中得到的模型参数。
步骤S508,根据预测操作序列与样本语句调整操作序列的差异,以及调整词语与预测词语的差异对机器学习模型中的参数进行更新,返回获取训练样本集中的训练样本的步骤继续进行模型训练,直至满足训练收敛条件,得到已训练的机器学习模型。
具体地,可朝着减小预测预测操作序列与样本语句调整操作序列的差异,以及调整词语与预测词语的差异的方向,调整模型参数。这样,通过不断的模型训练,直至达到训练收敛条件时停止训练,训练得到机器学习模型。训练收敛条件可以是根据预测操作序列与样本语句调整操作序列的差异,以及调整词语与预测词语的差异计算得到的模型损失值小于预设阈值。
在一些实施例中,在模型训练阶段,模型损失值是根据机器学习模型预测输出的预测操作序列对应的概率分布与样本语句调整操作序列的输出概率分布之间的差异,以及预测输出的预测词语与调整词语的概率分布之间的差异计算得到的。例如假设候选语句操作有4个,可以将操作解码模型隐层的输出值映射到一个4维大小的向量,然后进行激活例如利用softmax函数得到对应的每一个候选语句调整操作的概率,作为预测操作序列对应的概率分布。将词语解码模型隐层的输出值单词映射到与词表的词语数量大小一致的向量,然后进行激活例如利用softmax函数得到对应的每一个单词的概率。计算预测得到的操作序列的概率分布与真实的样本语句调整操作序列的概率分布的交叉熵,计算预测得到的词语的概率分布与真实的调整词语的概率分布的交叉熵,两个交叉熵相加作为模型损失值,朝着模型损失值下降的方向更新模型的参数,词语解码模型的模型参数的更新根据预测得到的词语的概率分布与真实的调整词语的概率分布的交叉熵进行更新,操作解码模型的模型参数的更新同时根据预测得到的词语的概率分布与真实的调整词语的概率分布的交叉熵,以及预测得到的操作的概率分布与真实的样本语句调整操作序列的概率分布的交叉熵进行更新。
为了使得词语解码模型得到的词语与当前语句调整操作的类型对应,可以在进行模型训练时,如果操作类型与对应的词语不对应,则增加模型损失值,使得训练得到的词语解码模型得到的词语与对应的语句调整操作的操作类型对应。例如,在进行模型训练时,如果样本语句调整操作为保持,假设预测调整操作为保持,当得到的预测词语与调整词语不一致,则可以根据预测词语与调整词语词向量的相似度增加损失值,相似度越小,则增加的损失值越大。
如图6所示,在一个具体的实施例中,翻译方法包括以下步骤:
步骤S602,获取目标源语句,对目标源语句进行翻译得到的初始翻译语句。
步骤S604,利用已训练的机器学习模型对目标源语句进行编码,得到目标源语句对应的第一编码向量序列。
步骤S606,利用已训练的机器学习模型对初始翻译语句进行编码,得到初始翻译语句对应的第二编码向量序列。
步骤S608,操作解码模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作。
步骤S610,词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语。
步骤S612,根据语句调整操作序列以及各个时刻对应的目标词语对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
参见图7,为一些实施例中利用机器学习模型进行语句调整,得到目标翻译语句的示意图。其中,第一隐层是操作解码模型的隐层,第二隐层是词语解码模型的隐层,y1、y2、y3分别指第一个时刻、第二个时刻、第三个时刻输出的目标词语的词向量,y0是初始的词向量,可以是预设的,EOS表示停止符号,当得到EOS后,停止进行解码。当得到目标源语句以及对目标源语句进行翻译得到的初始翻译语句后,将目标源语句输入到第一编码模型中,第一编码模型对目标源语句进行编码,得到目标源语句对应的第一编码向量序列。将初始翻译语句输入到第二编码模型中,第二编码模型对初始翻译语句进行编码,得到初始翻译语句对应的第二编码向量序列。第一编码向量序列以及第二编码向量序列输入到注意力模型中,得到当前时刻对应的联合向量,将词语解码模型前一时刻输出的目标词语的词向量、联合向量、操作解码模型的隐层状态向量输入到第一隐层中,得到当前时刻的各个候选操作的概率(即被选中率)分布,操作向量计算层将概率最大的候选操作的操作向量作为目标操作向量,动作得到层可以将目标操作向量对应的操作作为当前时刻的当前语句调整操作。其中,动作得到层还可以将目标操作向量输入到第二隐层中。由图7可以看出,输入第一隐层的向量包括:词语解码模型前一时刻输出的目标词语的词向量、联合向量以及前一时刻操作解码模型的隐层状态向量,输入第二隐层的向量包括:目标操作向量、当前时刻操作解码模型的隐层状态向量以及前一时刻词语解码模型的隐层状态向量。
如图8所示,在一些实施例中,提供了一种翻译装置,该翻译装置可以集成于上述的服务器120中,具体可以包括源语句以及初始翻译语句获取模块802、编码模块804、解码模块806以及调整模块808。
源语句以及初始翻译语句获取模块802,用于获取目标源语句以及对目标源语句进行翻译得到的初始翻译语句。
编码模块804,用于利用已训练的机器学习模型对目标源语句以及初始翻译语句进行编码,得到目标源语句对应的第一编码向量序列以及初始翻译语句对应的第二编码向量序列。
解码模块806,用于利用机器学习模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到语句调整操作序列。
调整模块808,用于根据语句调整操作序列对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
在一些实施例中,机器学习模型包括操作解码模型以及词语解码模型,解码模块806包括:
操作得到单元,用于利用操作解码模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作。
词语得到单元,用于利用词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语。
调整模块808用于:根据各个时刻对应的语句调整操作以及目标词语对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
在一些实施例中,操作得到单元包括:
第一系数得到子单元,用于对于第一编码向量序列的各个第一编码向量,确定相对于当前时刻待输出的目标词语的第一注意力分配权重系数。
第二系数得到子单元,用于对于第二编码向量序列的各个第二编码向量,确定相对于当前时刻待输出的目标词语的第二注意力分配权重系数。
联合向量得到子单元,用于根据第一编码向量序列以及对应的第一注意力分配权重系数、第二编码向量序列以及对应的第二注意力分配权重系数,计算得到联合向量。
操作解码结果得到子单元,用于操作解码模型利用词语解码模型前一时刻所输出的目标词语的词向量对联合向量进行解码,得到当前时刻的候选操作解码结果。
在一些实施例中,候选操作解码结果包括各个候选语句调整操作对应的被选中率,词语得到单元包括:
目标操作向量得到子单元,用于根据各个候选语句调整操作对应的操作向量以及被选中率计算得到目标操作向量,或者,根据各个候选语句调整操作对应的被选中率确定当前语句调整操作,将当前语句调整操作对应的操作向量作为目标操作向量。
词语得到子单元,用于将目标操作向量输入到词语解码模型中,解码得到当前时刻对应的目标词语。
在一些实施例中,词语得到子单元用于:将目标操作向量、当前时刻操作解码模型的隐层状态向量以及前一时刻词语解码模型的隐层状态向量输入到词语解码模型中,解码得到当前时刻对应的目标词语。
如图9所示,在一些实施例中,机器学习模型的训练模块包括:
训练样本获取单元902,用于获取训练样本集中的训练样本,训练样本包括样本源语句、对样本源语句进行初始翻译得到的初始样本翻译语句、对初始样本翻译语句进行语句调整的样本语句调整操作序列以及样本语句调整操作序列中各个语句调整操作对应的调整词语。
编码向量序列得到单元904,用于将训练样本中的样本源语句、初始样本翻译语句输入到机器学习模型进行编码,得到样本源语句对应的第三编码向量序列以及初始样本翻译语句对应的第四编码向量序列。
预测操作以及词语得到单元906,用于利用机器学习模型对第三编码向量序列以及第四编码向量序列进行联合解码,得到预测操作序列以及预测操作序列中各个预测操作对应的预测词语。
更新单元908,用于根据预测操作序列与样本语句调整操作序列的差异,以及调整词语与预测词语的差异对机器学习模型中的参数进行更新。
返回单元910,用于返回获取训练样本集中的训练样本的步骤继续进行模型训练,直至满足训练收敛条件,得到已训练的机器学习模型。
在一些实施例中,机器学习模型包括第一编码模型以及第二编码模型,编码模块804用于:将目标源语句输入到第一编码模型中进行编码,得到目标源语句对应的第一编码向量序列,将初始翻译语句输入到第二编码模型中进行编码,得到初始翻译语句对应的第二编码向量序列。
在一些实施例中,源语句以及初始翻译语句获取模块802用于:获取待翻译的目标源语句;将目标源语句输入到机器翻译模型中,翻译得到目标源语句对应的初始翻译语句。
图10示出了一些实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器120。如图10所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器以及网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现翻译方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行翻译方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施例中,本申请提供的翻译装置可以实现为一种计算机程序的形式,计算机程序可在如图10所示的计算机设备上运行。计算机设备的存储器中可存储组成该翻译装置的各个程序模块,比如,图8所示的源语句以及初始翻译语句获取模块802、编码模块804、解码模块806以及调整模块808。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的翻译方法中的步骤。
例如,图10所示的计算机设备可以通过如图8所示的翻译装置中的源语句以及初始翻译语句获取模块802获取目标源语句以及对目标源语句进行翻译得到的初始翻译语句。通过编码模块804利用已训练的机器学习模型对目标源语句以及初始翻译语句进行编码,得到目标源语句对应的第一编码向量序列以及初始翻译语句对应的第二编码向量序列。通过解码模块利用机器学习模型对第一编码向量序列以及第二编码向量序列进行联合解码,得到语句调整操作序列。通过调整模块808根据语句调整操作序列对初始翻译语句进行语句调整,得到目标源语句对应的目标翻译语句。
在一些实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述翻译方法的步骤。此处翻译方法的步骤可以是上述各个实施例的翻译方法中的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述翻译方法的步骤。此处翻译方法的步骤可以是上述各个实施例的翻译方法中的步骤。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种翻译方法,所述方法包括:
获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;
利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;
利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;
根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
2.根据权利要求1所述的方法,其特征在于,所述机器学习模型包括操作解码模型以及词语解码模型,所述利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列包括:
所述操作解码模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作;
所述词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语;
所述根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句包括:
根据各个时刻对应的语句调整操作以及目标词语对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
3.根据权利要求2所述的方法,其特征在于,所述操作解码模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果包括:
对于所述第一编码向量序列的各个第一编码向量,确定相对于当前时刻待输出的目标词语的第一注意力分配权重系数;
对于所述第二编码向量序列的各个第二编码向量,确定相对于当前时刻待输出的目标词语的第二注意力分配权重系数;
根据所述第一编码向量序列以及对应的第一注意力分配权重系数、所述第二编码向量序列以及对应的第二注意力分配权重系数,计算得到联合向量;
所述操作解码模型利用所述词语解码模型前一时刻所输出的目标词语的词向量对所述联合向量进行解码,得到当前时刻的候选操作解码结果。
4.根据权利要求3所述的方法,其特征在于,所述操作解码模型利用所述词语解码模型前一时刻所输出的目标词语的词向量对所述联合向量进行解码,得到当前时刻的候选操作解码结果包括:
将所述词语解码模型前一时刻输出的目标词语的词向量、所述联合向量以及前一时刻所述操作解码模型的隐层状态向量输入到所述操作解码模型中,得到当前时刻的候选操作解码结果。
5.根据权利要求2所述的方法,其特征在于,所述候选操作解码结果包括各个候选语句调整操作对应的被选中率,所述词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语包括:
根据所述各个候选语句调整操作对应的操作向量以及被选中率计算得到目标操作向量,或者,根据所述各个候选语句调整操作对应的被选中率确定当前语句调整操作,将所述当前语句调整操作对应的操作向量作为目标操作向量;
将所述目标操作向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语。
6.根据权利要求5所述的方法,其特征在于,所述将所述目标操作向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语包括:
将所述目标操作向量、当前时刻所述操作解码模型的隐层状态向量以及前一时刻所述词语解码模型的隐层状态向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语。
7.根据权利要求1所述的方法,其特征在于,所述机器学习模型的训练步骤包括:
获取训练样本集中的训练样本,所述训练样本包括样本源语句、对所述样本源语句进行初始翻译得到的初始样本翻译语句、对所述初始样本翻译语句进行语句调整的样本语句调整操作序列以及所述样本语句调整操作序列中各个语句调整操作对应的调整词语;
将所述训练样本中的样本源语句、所述初始样本翻译语句输入到机器学习模型进行编码,得到所述样本源语句对应的第三编码向量序列以及所述初始样本翻译语句对应的第四编码向量序列;
利用所述机器学习模型对所述第三编码向量序列以及所述第四编码向量序列进行联合解码,得到预测操作序列以及所述预测操作序列中各个预测操作对应的预测词语;
根据所述预测操作序列与所述样本语句调整操作序列的差异,以及所述调整词语与所述预测词语的差异对所述机器学习模型中的参数进行更新,返回所述获取训练样本集中的训练样本的步骤继续进行模型训练,直至满足训练收敛条件,得到已训练的机器学习模型。
8.根据权利要求1所述的方法,其特征在于,所述机器学习模型包括第一编码模型以及第二编码模型,所述利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列包括:
将所述目标源语句输入到所述第一编码模型中进行编码,得到所述目标源语句对应的第一编码向量序列,将所述初始翻译语句输入到所述第二编码模型中进行编码,得到所述初始翻译语句对应的第二编码向量序列。
9.根据权利要求1所述的方法,其特征在于,所述获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句包括:
获取待翻译的目标源语句;
将所述目标源语句输入到机器翻译模型中,翻译得到所述目标源语句对应的初始翻译语句。
10.一种翻译装置,所述装置包括:
源语句以及初始翻译语句获取模块,用于获取目标源语句以及对所述目标源语句进行翻译得到的初始翻译语句;
编码模块,用于利用已训练的机器学习模型对所述目标源语句以及所述初始翻译语句进行编码,得到所述目标源语句对应的第一编码向量序列以及所述初始翻译语句对应的第二编码向量序列;
解码模块,用于利用所述机器学习模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到语句调整操作序列;
调整模块,用于根据所述语句调整操作序列对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
11.根据权利要求10所述的装置,其特征在于,所述机器学习模型包括操作解码模型以及词语解码模型,所述解码模块包括:
操作得到单元,用于利用所述操作解码模型对所述第一编码向量序列以及所述第二编码向量序列进行联合解码,得到当前时刻的候选操作解码结果,根据当前时刻的候选操作解码结果确定当前时刻对应的当前语句调整操作;
词语得到单元,用于利用所述词语解码模型根据当前时刻的候选操作解码结果进行解码,得到当前时刻对应的目标词语;
所述调整模块用于:
根据各个时刻对应的语句调整操作以及目标词语对所述初始翻译语句进行语句调整,得到所述目标源语句对应的目标翻译语句。
12.根据权利要求11所述的装置,其特征在于,所述操作得到单元包括:
第一系数得到子单元,用于对于所述第一编码向量序列的各个第一编码向量,确定相对于当前时刻待输出的目标词语的第一注意力分配权重系数;
第二系数得到子单元,用于对于所述第二编码向量序列的各个第二编码向量,确定相对于当前时刻待输出的目标词语的第二注意力分配权重系数;
联合向量得到子单元,用于根据所述第一编码向量序列以及对应的第一注意力分配权重系数、所述第二编码向量序列以及对应的第二注意力分配权重系数,计算得到联合向量;
操作解码结果得到子单元,用于所述操作解码模型利用所述词语解码模型前一时刻所输出的目标词语的词向量对所述联合向量进行解码,得到当前时刻的候选操作解码结果。
13.根据权利要求11所述的装置,其特征在于,所述候选操作解码结果包括各个候选语句调整操作对应的被选中率,所述词语得到单元包括:
目标操作向量得到子单元,用于根据所述各个候选语句调整操作对应的操作向量以及被选中率计算得到目标操作向量,或者,根据所述各个候选语句调整操作对应的被选中率确定当前语句调整操作,将所述当前语句调整操作对应的操作向量作为目标操作向量;
词语得到子单元,用于将所述目标操作向量输入到所述词语解码模型中,解码得到当前时刻对应的目标词语。
14.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至9中任一项权利要求所述翻译方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至9中任一项权利要求所述翻译方法的步骤。
CN201910168264.0A 2019-03-06 2019-03-06 翻译方法、装置、计算机设备和存储介质 Pending CN110263348A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910168264.0A CN110263348A (zh) 2019-03-06 2019-03-06 翻译方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910168264.0A CN110263348A (zh) 2019-03-06 2019-03-06 翻译方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN110263348A true CN110263348A (zh) 2019-09-20

Family

ID=67911731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910168264.0A Pending CN110263348A (zh) 2019-03-06 2019-03-06 翻译方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN110263348A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287656A (zh) * 2020-10-12 2021-01-29 四川语言桥信息技术有限公司 文本比对方法、装置、设备和存储介质
CN112346737A (zh) * 2021-01-08 2021-02-09 深圳壹账通智能科技有限公司 编程语言翻译模型的训练方法、装置、设备及存储介质
CN112949315A (zh) * 2021-02-19 2021-06-11 支付宝(杭州)信息技术有限公司 基于文本生成网络生成用户描述文本的方法和装置
CN113408304A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 文本翻译方法、装置、电子设备及存储介质
CN113449529A (zh) * 2020-03-24 2021-09-28 北京金山数字娱乐科技有限公司 一种翻译模型的训练方法及装置、翻译方法及装置
CN113761946A (zh) * 2020-06-04 2021-12-07 阿里巴巴集团控股有限公司 模型训练及数据处理方法、装置、电子设备、存储介质
CN113807106A (zh) * 2021-08-31 2021-12-17 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
CN113947060A (zh) * 2021-10-19 2022-01-18 北京有竹居网络技术有限公司 文本转换方法、装置、介质及电子设备
CN114330311A (zh) * 2021-12-30 2022-04-12 安徽听见科技有限公司 一种翻译方法、装置、电子设备和计算机可读存储介质
US20230070302A1 (en) * 2021-09-07 2023-03-09 Lilt, Inc. Partial execution of translation in browser

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101989260A (zh) * 2009-08-01 2011-03-23 中国科学院计算技术研究所 统计机器解码特征权重的训练方法和解码方法
US20130132064A1 (en) * 2010-08-23 2013-05-23 Sk Planet Co., Ltd. Apparatus and method for decoding using joint tokenization and translation
WO2013083132A1 (en) * 2011-12-05 2013-06-13 Copenhagen Business School Translation method and computer programme for assisting the same
CN107632981A (zh) * 2017-09-06 2018-01-26 沈阳雅译网络技术有限公司 一种引入源语组块信息编码的神经机器翻译方法
CN108920472A (zh) * 2018-07-04 2018-11-30 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法
CN109299479A (zh) * 2018-08-21 2019-02-01 苏州大学 通过门控机制将翻译记忆融入神经机器翻译的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101989260A (zh) * 2009-08-01 2011-03-23 中国科学院计算技术研究所 统计机器解码特征权重的训练方法和解码方法
US20130132064A1 (en) * 2010-08-23 2013-05-23 Sk Planet Co., Ltd. Apparatus and method for decoding using joint tokenization and translation
WO2013083132A1 (en) * 2011-12-05 2013-06-13 Copenhagen Business School Translation method and computer programme for assisting the same
CN107632981A (zh) * 2017-09-06 2018-01-26 沈阳雅译网络技术有限公司 一种引入源语组块信息编码的神经机器翻译方法
CN108920472A (zh) * 2018-07-04 2018-11-30 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法
CN109299479A (zh) * 2018-08-21 2019-02-01 苏州大学 通过门控机制将翻译记忆融入神经机器翻译的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
官新均;陈珂;苏旋;邹权;: "基于不同分词框架的学术论文翻译系统", 厦门大学学报(自然科学版), no. 06, 28 November 2013 (2013-11-28) *
肖桐;朱靖波;: "基于树到串模型强化的层次短语机器翻译解码方法", 计算机学报, no. 04, 31 December 2016 (2016-12-31) *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449529A (zh) * 2020-03-24 2021-09-28 北京金山数字娱乐科技有限公司 一种翻译模型的训练方法及装置、翻译方法及装置
CN113761946A (zh) * 2020-06-04 2021-12-07 阿里巴巴集团控股有限公司 模型训练及数据处理方法、装置、电子设备、存储介质
CN113761946B (zh) * 2020-06-04 2023-12-12 阿里巴巴集团控股有限公司 模型训练及数据处理方法、装置、电子设备、存储介质
CN112287656A (zh) * 2020-10-12 2021-01-29 四川语言桥信息技术有限公司 文本比对方法、装置、设备和存储介质
CN112287656B (zh) * 2020-10-12 2024-05-28 四川语言桥信息技术有限公司 文本比对方法、装置、设备和存储介质
WO2022148087A1 (zh) * 2021-01-08 2022-07-14 深圳壹账通智能科技有限公司 编程语言翻译模型的训练方法、装置、设备及存储介质
CN112346737A (zh) * 2021-01-08 2021-02-09 深圳壹账通智能科技有限公司 编程语言翻译模型的训练方法、装置、设备及存储介质
CN112346737B (zh) * 2021-01-08 2021-04-13 深圳壹账通智能科技有限公司 编程语言翻译模型的训练方法、装置、设备及存储介质
CN112949315A (zh) * 2021-02-19 2021-06-11 支付宝(杭州)信息技术有限公司 基于文本生成网络生成用户描述文本的方法和装置
CN112949315B (zh) * 2021-02-19 2022-07-22 支付宝(杭州)信息技术有限公司 基于文本生成网络生成用户描述文本的方法和装置
CN113408304A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 文本翻译方法、装置、电子设备及存储介质
CN113408304B (zh) * 2021-06-30 2022-03-25 北京百度网讯科技有限公司 文本翻译方法、装置、电子设备及存储介质
CN113807106B (zh) * 2021-08-31 2023-03-07 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
CN113807106A (zh) * 2021-08-31 2021-12-17 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
US20230070302A1 (en) * 2021-09-07 2023-03-09 Lilt, Inc. Partial execution of translation in browser
US11900073B2 (en) * 2021-09-07 2024-02-13 Lilt, Inc. Partial execution of translation in browser
CN113947060A (zh) * 2021-10-19 2022-01-18 北京有竹居网络技术有限公司 文本转换方法、装置、介质及电子设备
CN114330311A (zh) * 2021-12-30 2022-04-12 安徽听见科技有限公司 一种翻译方法、装置、电子设备和计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN110263348A (zh) 翻译方法、装置、计算机设备和存储介质
CN109359293B (zh) 基于神经网络的蒙古文命名实体识别方法及其识别系统
CN109960506B (zh) 一种基于结构感知的代码注释生成方法
CN110263350B (zh) 模型训练方法、装置、计算机可读存储介质和计算机设备
CN109145315A (zh) 文本翻译方法、装置、存储介质和计算机设备
CN111061847A (zh) 对话生成及语料扩充方法、装置、计算机设备和存储介质
WO2019114695A1 (zh) 基于翻译模型的训练方法、翻译方法、计算机设备及存储介质
CN109800298B (zh) 一种基于神经网络的中文分词模型的训练方法
CN108829684A (zh) 一种基于迁移学习策略的蒙汉神经机器翻译方法
CN107632981B (zh) 一种引入源语组块信息编码的神经机器翻译方法
CN110795552B (zh) 一种训练样本生成方法、装置、电子设备及存储介质
CN109933808B (zh) 一种基于动态配置解码的神经机器翻译方法
CN109948166A (zh) 文本翻译方法、装置、存储介质和计算机设备
Zhang et al. Future-guided incremental transformer for simultaneous translation
CN110442880B (zh) 一种机器翻译译文的翻译方法、装置及存储介质
CN111241789A (zh) 一种文本生成的方法及装置
CN111291175B (zh) 一种基于策略梯度算法的自动生成提交需求摘要的方法
CN112307168A (zh) 基于人工智能的问诊会话处理方法、装置和计算机设备
CN110598222A (zh) 语言处理方法及装置、语言处理系统的训练方法及装置
CN112541365B (zh) 基于术语替换的机器翻译方法及装置
CN112446221A (zh) 翻译评估方法、装置、系统及计算机存储介质
CN116912642A (zh) 基于双模多粒度交互的多模态情感分析方法、设备及介质
Do et al. Sequence-to-sequence models for emphasis speech translation
CN112182439B (zh) 一种基于自注意力网络的搜索结果多样化方法
Iranzo-Sánchez et al. From simultaneous to streaming machine translation by leveraging streaming history

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination