CN113343716A - 一种多语种翻译方法、装置、存储介质及设备 - Google Patents

一种多语种翻译方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN113343716A
CN113343716A CN202110550040.3A CN202110550040A CN113343716A CN 113343716 A CN113343716 A CN 113343716A CN 202110550040 A CN202110550040 A CN 202110550040A CN 113343716 A CN113343716 A CN 113343716A
Authority
CN
China
Prior art keywords
text
translation
sample
model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110550040.3A
Other languages
English (en)
Other versions
CN113343716B (zh
Inventor
俞鸿飞
兰田
侯培旭
富饶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202110550040.3A priority Critical patent/CN113343716B/zh
Publication of CN113343716A publication Critical patent/CN113343716A/zh
Application granted granted Critical
Publication of CN113343716B publication Critical patent/CN113343716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本说明书公开了一种多语种翻译方法、装置、存储介质及设备,本方法先获取原始文本,在确定了原始文本对应的目标文本的目标语种后,根据目标语种,在翻译模型包含的多个线性层中,确定与该目标语种对应的线性层,将原始文本输入翻译模型的第一子模型中,可确定原始文本对应的文本特征,再将文本特征输入上述确定出的线性层中,根据该线性层的输出结果确定目标文本。本方法在需要将原始文本翻译成多个语种的情况下,仅需训练并使用一个翻译模型就可将原始文本翻译至目标文本,而并不需要训练多个模型,大大节省了训练模型的成本。

Description

一种多语种翻译方法、装置、存储介质及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种多语种翻译方法、装置、存储介质及设备。
背景技术
随着世界的全球化发展,用户在使用各类客户端时,往往会遇到搜索出的内容的文字是其他语种的情况,为了让用户知道搜索出的内容的意思,客户端会将当前的文字转换至用户的母语文字。
在现有技术中,常使用机器翻译来解决上述问题,即通过计算机将一种自然语言(源语言)翻译成另外一种自然语言(目标语言)。其中最常见的机器翻译技术为神经机器翻译模型。神经机器翻译模型会将当前文字(源语言)转换成对应的向量并输入至该模型中,通过神经机器翻译模型的每一层对输入的向量进行转换,得到目标语言。
但是,一个神经机器翻译模型只能将一种自然语言翻译成另一种指定语种的自然语言,即只能进行一对一的语言翻译,如果需要将源语言翻译成其他多个语种的目标语言,还需要再训练多个模型。因此,如何使用一个模型就能够将一种自然语言翻译成其他多个语种的自然语言是个亟待解决的问题。
发明内容
本说明书提供一种多语种翻译方法及装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种多语种翻译方法,包括:
获取原始文本,并确定目标文本对应的目标语种;
将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;并,针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
根据所述处理结果,获得目标文本。
可选地,所述翻译模型还包括Softmax层;
根据所述处理结果,获得目标文本,具体包括:
将所述处理结果输入所述Softmax层,得到所述Softmax层输出的所述处理结果对应的目标文本。
可选地,所述第一子模型至少包括编码端和解码端;
将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征,具体包括:
确定已获得的部分目标文本,作为参考文本;并,将所述原始文本输入所述编码端,得到所述编码端输出的所述原始文本对应的编码特征;其中,所述已获得的部分目标文本为部分原始文本对应的翻译结果;
将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征;
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果,具体包括:
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
根据所述处理结果,获得部分目标文本,作为待参考文本;
根据所述已获得的部分目标文本和所述待参考文本重新确定参考文本,继续根据重新确定的参考文本获得部分目标文本,直至获得全部原始文本对应的全部目标文本为止。
可选地,所述解码端至少包括:第一自注意力层、编解码注意力层、第一前馈子层;
将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征,具体包括:
将所述参考文本输入所述第一自注意力层,将所述第一自注意力层的输出结果输入到所述编解码注意力层;并,将所述编码特征输入所述解码端的编解码注意力层,以使所述编解码注意力层根据所述第一自注意力层的输出结果和所述编码特征得到输出结果;
将所述编解码注意力层的输出结果输入所述第一前馈子层,得到所述第一前馈子层输出的所述原始文本对应的文本特征。
可选地,预先训练翻译模型,具体包括:
确定各样本文本,以及各样本文本对应的标注文本;
针对每个样本文本,确定该样本文本对应的标注文本的目标语种;
将该样本文本输入翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,作为参考翻译文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;
将该样本编码特征和所述参考翻译文本输入所述翻译模型的第一子模型的解码端,得到所述解码端输出的该样本文本对应的样本文本特征;
根据所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;
根据所述样本处理结果,获得部分翻译文本,作为待参考翻译文本;
根据所述已获得的部分翻译文本和所述待参考翻译文本重新确定参考翻译文本,继续根据重新确定的参考翻译文本获得部分翻译文本,直至获得该样本文本中的全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
可选地,预先训练翻译模型,具体包括:
确定各样本文本,以及各样本文本对应的标注文本;
针对每个样本文本,确定该样本文本对应的标注文本的目标语种;
将该样本文本输入至所述翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,并确定该样本文本的标注文本中与所述已获得的部分翻译文本对应的部分文本,作为参考标注文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;
将该样本编码特征和所述参考标注文本输入所述翻译模型的第一子模型的解码端,得到该样本文本对应的样本文本特征;
根据所述目标语种,在翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;
根据所述样本处理结果,获得当前部分翻译文本,并确定该样本文本的标注文本中与所述当前部分翻译文本对应的部分文本,作为待参考标注文本;
根据该样本文本对应的标注文本中与所述已获得的部分翻译文本对应的部分文本和所述待参考标注文本重新确定参考标注文本,继续根据重新确定的参考标注文本获得当前部分翻译文本,直至获得该样本文本中全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
可选地,将该样本编码特征和所述参考标注文本输入所述翻译模型的第一子模型的解码端之前,所述方法还包括:
确定所述翻译模型的准确率大于指定阈值。
本说明书提供了一种多语种翻译装置,包括:
获取模块,用于获取原始文本,并确定目标文本对应的目标语种;
输入模块,用于将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;
语种确定模块,用于针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
处理结果确定模块,用于将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
目标文本生成模块,用于根据所述处理结果,获得目标文本。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述多语种翻译方法。
本说明书提供了一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述多语种翻译方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的多语种翻译方法中,获取原始文本,在确定了原始文本对应的目标文本的目标语种后,根据目标语种,在翻译模型包含的多个线性层中,确定与该目标语种对应的线性层,将原始文本输入翻译模型的第一子模型中,可确定原始文本对应的文本特征,再将文本特征输入上述确定出的线性层中,根据该线性层的输出结果确定目标文本。
从上述方法中可以看出,本方法在需要将原始文本翻译成多个语种的情况下,仅需训练并使用一个翻译模型就可将原始文本翻译至目标文本,而并不需要训练多个模型,大大节省了训练模型的成本。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的多语种翻译模型的结构示意图;
图2为本说明书实施例提供的多语种翻译模型的训练流程示意图;
图3为本说明书中一种多语种翻译方法的流程示意图;
图4为本说明书实施例提供的多语种翻译方法的流程示意图;
图5为本说明书提供的一种多语种翻译装置的示意图;
图6为本说明书提供的对应于图3的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本发明各实施例提供的技术方案。
首先,详细说明本说明书实施例提供的翻译模型的结构,如图1所示,该翻译模型可包含编码端、解码端、多个线性层、Softmax层。
其中:
编码端和解码端均用于提取输入的原始文本的文本特征。解码端的结构可包括第一自注意力层、编解码注意力层和第一前馈子层,编码端的结构可包括第二自注意力层和第二前馈子层。
解码端的第一自注意力层的输入为已获得的部分翻译文本对应的向量,编码端的第二自注意力层的输入为原始文本对应的向量。其中,将已获得的部分翻译文本输入至解码端,其作用是让已获得的部分翻译文本作为后续翻译步骤的参考,让该翻译模型不但能通过该样本文本中包含的每个词来获得翻译结果,还能通过已知的翻译结果更好地获得该样本文本的未翻译的部分文本的翻译结果。
翻译模型的每一个线性层对应翻译一个语种,例如,线性层A可将原始文本翻译为法文,线性层B可将原始文本翻译为日文。在翻译模型中设置多个线性层的目的是让每个线性层可以独立地学习与其对应语种的语言特点,例如,文本的语义、译文的顺序等语言特点,并且各线性层互为并列关系,这样每个线性层在学习对应语种的语言特点时,就不会受到其他语言的干扰,从而保证了翻译模型的准确率。
值得注意的是,该翻译模型每次的输出结果为样本文本中的一个词对应的翻译结果,可以理解为翻译模型是对原始文本进行逐词的翻译,将翻译模型每次的输出结果合并在一起,可获得原始文本的翻译文本。
图2为本说明书实施例提供的多语种翻译模型的训练流程示意图,具体包括以下步骤:
在翻译模型结构如上述的条件下,对翻译模型进行训练,具体训练过程如下S200-S222:
S200:确定各样本文本,以及各样本文本对应的标注文本。
S202:针对每个样本文本,确定该样本文本对应的标注文本的目标语种。
在步骤S200-S202中,确定了样本文本以及该样本文本对应的标注文本,并确定该样本文本的标注文本的语种,即目标语种。
S204:将该样本文本输入翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征。
具体的,将该样本文本转换成对应的向量输入到编码端的第二自注意力层,将第二自注意力的输出结果输入到第二前馈子层,得到该样本文本的编码特征,再将编码特征输入到解码端的编解码注意力层中。
S206:确定已获得的部分翻译文本,作为参考翻译文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果。
S208:将该样本编码特征和所述参考翻译文本输入所述翻译模型的第一子模型的解码端,得到所述解码端输出的该样本文本对应的样本文本特征。
具体的,将确定出的该样本编码特征和参考翻译文本输入解码端,其中,将参考翻译文本输入至解码端的第一自注意力层中,再将第一自注意力层的输出结果和该样本编码特征一同输入至编解码注意力层中,得到编解码注意力层的输出结果,再将编解码注意力层的输出结果输入第一前馈子层,得到第一前馈子层的输出结果,作为该样本文本的样本文本特征。
S210:根据所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层。
根据步骤S202中确定出的目标语种,在翻译模型的多个线性层中确定出与目标语种对应的线性层。具体的,可对多个线性层进行标识,并在将样本文本输入翻译模型前,根据目标语种,同样对样本文本进行标识,在输入线性层之前,就根据样本文本的标识与各线性层的标识,以使样本文本匹配到对应的线性层,确保样本文本可以被翻译成目标语种的文本。
S212:将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果。
S214:根据所述样本处理结果,获得当前部分翻译文本,作为待参考翻译文本。
S216:判断是否获得该样本文本的全部文本的翻译文本,若是,则执行S220,若否,执行步骤S218。
S218:根据所述待参考翻译文本和所述已获得的部分翻译文本,重新确定参考翻译文本,执行S208。
S220:获得该样本文本的翻译文本。
对于步骤S210~S220,具体的,由于在上述的步骤S210中已经确定了对应的线性层,将步骤S208中获得的该样本文本的文本特征输入至在步骤S210中确定出的线性层中,得到了线性层的输出结果,将线性层的输出结果输入Softmax层,经过Softmax层的处理,得到Softmax层输出的该样本文本的部分文本对应的翻译结果,即当前部分翻译文本,作为待参考翻译文本。
后续地,根据待参考翻译文本和已获得的部分翻译文本,重新确定参考翻译文本,当获得了该样本文本的全部文本的翻译文本时,获取该样本文本的翻译文本,完成了对该样本文本的翻译过程。
S222:以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
以获得的翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,多次调整翻译模型中的参数,最终获得一个准确率高且可翻译多语种的翻译模型。
进一步地,在实际训练模型中,对于根据所述已获得的部分翻译文本和所述待参考翻译文本重新确定参考翻译文本这一步骤会导致训练速度较为缓慢,为了提高翻译模型的训练速度,可当翻译模型的准确率大于指定阈值时,在训练模型时,可将已获得的部分翻译文本替换为在该样本文本对应的标注文本中与所述已获得的部分翻译文本对应的部分文本输入至解码端。具体的,可对训练方法进行如下改进以提高训练速度:
在步骤S200~S220中,可将步骤S206中的改进为:确定已获得的部分翻译文本,并确定该样本文本的标注文本中与所述已获得的部分翻译文本对应的部分文本,作为参考标注文本,所述已获得的部分翻译文本为该样本文本的部分文本对应的翻译结果。
将步骤S214改进为:根据样本处理结果,获得当前部分翻译文本,并确定该样本文本的标注文本中与所述当前部分翻译文本对应的部分文本,作为待参考标注文本。
将步骤S218改进为:根据该样本文本对应的标注文本中与所述已获得的部分翻译文本对应的部分文本和所述待参考标注文本重新确定参考标注文本,执行S208。
经过对翻译模型的多次训练,最终得到一个可翻译多语种且准确率高的翻译模型,在遇到多语种翻译的情况时,就可使用该翻译模型对当前的文字进行翻译。
例如,样本文本为“我是一只猫”,该样本文本的标注文本为“I am a cat”,目标语种为英语,根据目标语种,在翻译模型的多个线性层中确定出可将样本文本翻译成英语的线性层C。
将样本文本“我是一只猫”转换成对应的向量输入至编码端的第二自注意力层,得到第二自注意力层的输出结果,将第二自注意力层的输出结果输入第二前馈子层,得到第二前馈子层的输出结果,作为该样本文本“我是一种猫”的编码特征。由于此时,还没有得到部分翻译文本,因此,此时还没有参考翻译文本,将该编码特征输入编解码自注意力层,得到编解码自注意力层的输出结果,将编解码注意力层的输出结果输入第一前馈子层,得到该样本文本“我是一只猫”的样本文本特征,将样本文本特征输入至线性层C中,得到线性层A的输出结果,将线性层C的输出结果输入Softmax层,经过Softmax层的处理,得到Softmax层输出的当前部分翻译文本,作为待参考翻译文本,即“I”,经过判断,确定当前还没有获得该样本文本的全部文本的翻译文本,因此,根据待参考翻译文本“I”重新确定参考翻译文本,此时的参考翻译文本为“I”。将参考翻译文本“I”以及该样本编码特征输入翻译模型的第一子模型解码端,得到解码端输出的该样本文本对应的样本文本特征,将该样本文本特征输入至线性层C中,得到线性层C的输出结果,将线性层C的输出结果输入Softmax层,经过Softmax层的处理,得到Softmax层输出的当前部分翻译文本,作为待参考翻译文本,即“am”,经过判断,当前还没有获得该样本文本的全部文本的翻译文本,因此,根据待参考翻译文本“am”和已获得的部分翻译文本“I”重新确定参考翻译文本,此时的参考翻译文本为“I am”,根据上述方法继续获得该样本文本“我是一只猫”的部分文本的翻译文本,直至得到该样本文本的全部文本的翻译文本,即“I am a cat”,以翻译文本“I am a cat”与该样本文本对应的标注文本“I am a cat”之间的差异最小为训练目标,调整翻译模型中的参数。当翻译模型的准确率较低时,此次训练得到的翻译文本可能为“I am a dog”,同样以翻译文本“I am a dog”与该样本文本对应的标注文本“I am a cat”之间的差异最小为训练目标,调整翻译模型中的参数。
后续地,可根据翻译模型的使用场景,通过各样本文本和各样本文本对应的标注文本,对翻译模型进行多次训练,让翻译模型可适用于不同的使用场景。
上述训练过程是在翻译模型结构为图1所示的基础下进行的,并且翻译模型是对样本文本进行逐词翻译,即将一个完整的句子输入翻译模型中,得到的是该句子的部分翻译文本,重复步骤S208~S218,获得该样本文本的全部文本对应的翻译文本。本方法还可以使用其他模型结构同样达到多语种翻译的目的,并且翻译模型的输出结果可以是该样本文本的全部文本的翻译文本,即将一个完整的句子输入翻译模型,得到翻译模型输出结果也是一个完整的句子,具体的,翻译模型结构可以形如长短期记忆(Long-Short termmemory,LSTM)模型,并且该翻译模型结构包含多个线性层,在翻译模型结构形如上述结构的基础下,训练模型的方法如下:
确定各样本文本以及其各标注文本,并针对每个样本文本,确定该样本文本的标注样本的语种,即目标语种;根据该目标语种,在翻译模型的多个线性层中确定与该目标语种对应的线性层,将该样本文本对应的向量输入翻译模型的提取文本特征的子模型中,得到所述子模型输出的该样本文本对应的样本文本特征,将所述样本文本特征输入与该目标语种对应的线性层中,得到所述线性层输出的线性处理结果,根据所述线性处理结果,获得该样本文本的全部文本对应的翻译文本,以翻译文本与该样本文本的标注文本之间差异最小为训练目标,调整翻译模型的参数,通过对翻译模型的多次训练,最后获得一个准确率高且可翻译多语种的翻译模型。
翻译模型还可以是其他结构,在本说明书中不作限制。
图3为本说明书实施例提供的多语种翻译过程,具体可包括以下步骤:
S300:获取原始文本,并确定目标文本对应的目标语种。
在本说明书实施例中,原始文本的获取方法可以是直接获取原始文本,也可以是其他获取方法,本说明书不作限制。执行本方法的执行主体可以是客户端,也可以是其他系统端为执行主体,在本说明书中不作限制。
客户端在获得到原始文本,即当前文字内容后,可根据用户的需求确定应将原始文本翻译为何种语种,即确定原始文本对应的目标文本的目标语种。
例如,获得原始文本“I like reading books”,根据用户需要,将原始文本翻译成中文,即目标语种为中文。
S302:将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;并,针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层。
对原始文本进行处理,得到原始文本对应的向量,将原始文本对应的向量输入至上述训练好的翻译模型的编码端中,得到编码端输出的原始文本对应的编码特征。
同时,还需要确定已经获得的部分目标文本,作为参考文本,其中,已经获得的部分目标文本就是原始文本中的部分文本的翻译结果。
将上述确定的参考文本和上述获得的编码特征一同输入至解码端的编解码自注意力层,得到编解码自注意力层的输出结果,再将编解码自注意力层的输出结果输入至第一前馈子层中,得到第一前馈子层的输出结果,作为原始文本的文本特征。
在将原始文本的文本特征输入至线性层之前,由于翻译模型包含多个线性层,一个线性层对应翻译一个语种,因此,可在翻译模型的多个线性层中,确定出与目标语种对应的线性层,具体的,客户端已经在步骤S300中确定了目标语种,就可以根据目标语种确定出与该目标语种对应的线性层,与上述训练模型方法中的确定与目标语种对应线性层的方法相同,可根据不同的语种,对各线性层分别进行标识,并在处理原始文本时,参考各线性层的标识,在原始文本中添加与目标语种对应的标识,通过匹配线性层的标识和原始文本的标识的方法,可确定与该目标语种对应的线性层。
沿用上例,可确定能将原始文本“I like reading books”翻译成中文的线性层是线性层D,与此同时,将原始文本“I like reading books”转换成对应的向量输入编码端得到编码端输出的原始文本对应的编码特征,需要确定当前已经获得的部分目标文本,经过判断,可确定此时未获得任何部分目标文本,因此,只需将编码特征输入解码端的编解码自注意力层,得到编解码自注意力层的输出结果,再将编解码自注意力层的输出结果输入至第一前馈子层中,得到第一前馈子层的输出结果,作为原始文本“I like reading books”的文本特征。
S304:将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果。
在步骤S302中已经确定了原始文本的文本特征以及该目标语种对应的线性层,可将文本特征输入至确定出的线性层中,得到线性层输出的处理结果。
沿用上例,步骤S302中已经得到了原始文本的文本特征并且确定了中文对应的线性层是线性层D,因此,将原始文本的文本特征输入线性层D中,得到线性层D输出的线性处理结果。
S306:根据所述处理结果,获得目标文本。
将在步骤S304中获得的处理结果输入至Softmax层,可得到Softmax层输出的当前部分目标文本,作为待参考文本,与上述训练方法相同,根据已获得的部分目标文本和待参考文本重新确定参考文本,继续根据重新确定出的参考文本获取部分目标文本(即返回步骤S302),直至获得全部原始文本对应的全部目标文本为止,将获得的各部分目标文本进行合并,得到目标文本,完成了对原始文本的翻译,其中,由于翻译模型是按照顺序对原始文本进行翻译的,因此,在合并获得的各部分目标文本时,只需按照获得的顺序将各部分目标文本进行合并即可。
其中,上述步骤S302~S306,如图4所示,可以具体包括:
S400:将所述原始文本输入预先训练的翻译模型的第一子模型的编码端,得到所述编码端输出的所述原始文本对应的编码特征。
S402:确定已获得的部分目标文本,作为参考文本,所述已获得的部分目标文本为部分原始文本对应的翻译结果。
S404:将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征。
S406:将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果。
S408:根据所述处理结果,获得当前部分目标文本,作为待参考文本。
S410:判断是否获得所述原始文本的全部文本的翻译文本,若是,执行步骤S414,若否,执行步骤S412。
S412:根据所述待参考文本和所述已获得的部分目标文本,重新确定参考文本,执行步骤S404。
S414:获得目标文本。
沿用上例,与图2所述的方法相同,将处理结果输入Softmax层,得到Softmax层输出的部分目标文本“我”,作为待参考文本,由于当前未获得目标文本的全部文本,而且在此之前也并未获得其他部分文本,因此,将“我”作为参考文本,重复步骤S404~S412,得到当前部分目标文本“喜欢”,作为待参考文本,经过判断,确定当前未获得目标文本的全部文本,因此,根据已获得的部分文本“我”和待参考文本“喜欢”,重新确定参考文本为“我喜欢”与编码特征一同输入至编解码端,依次类推,最终得到目标文本的全部文本,即“我喜欢读书”。
上述多语种翻译方法是基于翻译模型结构形如图1的基础下进行的,与图2所述的过程相同,翻译模型是对原始文本进行逐字逐词翻译,翻译模型每次得到的输出结果是原始文本的部分文本的翻译文本,需要翻译模型经过多次迭代,才能获得目标文本。本方法还可以使用其他模型结构也能达到多语种翻译的目的,并且将原始文本输入翻译模型中,翻译模型的输出结果是目标文本的全部文本。具体的,本方法的翻译模型可形如长短期记忆(Long-Short term memory,LSTM)模型,并且该翻译模型结构包含多个线性层,则使用翻译模型的方法如下:
获取原始文本,并确定将要原始文本翻译成何种语种,即目标文本对应的目标语种;根据目标语种,在翻译模型包含的多个线性层中确定出与目标语种对应的线性层;将原始文本对应的向量输入翻译模型的子模型中,得到子模型输出结果作为原始文本的文本特征,将文本特征输入对应的线性层中,得到线性层输出的处理结果,根据处理结果,获得原始文本的全部文本的翻译文本,即目标文本的全部文本,至此完成对原始文本的翻译过程。
翻译模型还可以是其他结构,在本说明书中不作限制。
以上为本说明书的一个或多个实施例提供的多语种翻译方法,基于同样的思路,本说明书还提供了相应的多语种翻译装置,如图5所示。
图5为本说明书提供的一种多语种翻译装置示意图,具体包括:
获取模块501,输入模块502,线性层确定模块503,处理结果确定模块504,目标文本生成模块505,其中:
获取模块501,用于获取原始文本,并确定目标文本对应的目标语种;
输入模块502,用于将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;
线性层确定模块503,用于针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
处理结果确定模块504,用于将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
目标文本生成模块505,用于根据所述处理结果,获得目标文本。
可选地,所述翻译模型还包括Softmax层;所述目标文本生成模块505具体用于,将所述处理结果输入所述Softmax层,得到所述Softmax层输出的所述处理结果对应的目标文本。
可选地,所述第一子模块至少包括编码端和解码端,所述输入模块502具体用于,确定已获得的部分目标文本,作为参考文本;并,将所述原始文本输入所述编码端,得到所述编码端输出的所述原始文本对应的编码特征;其中,所述已获得的部分目标文本为部分原始文本对应的翻译结果;将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征。
可选地,所述处理结果确定模块504具体用于,将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;根据所述处理结果,获得部分目标文本,作为待参考文本;根据所述已获得的部分目标文本和所述待参考文本重新确定参考文本,继续根据重新确定的参考文本获得部分目标文本,直至获得全部原始文本对应的全部目标文本为止。
可选地,所述解码端至少包括:第一自注意力层、编解码注意力层、第一前馈子层;所述输入模块502具体用于,将所述参考文本输入所述第一自注意力层,将所述第一自注意力层的输出结果输入到所述编解码注意力层;并,将所述编码特征输入所述解码端的编解码注意力层,以使所述编解码注意力层根据所述第一自注意力层的输出结果和所述编码特征得到输出结果;
将所述编解码注意力层的输出结果输入所述第一前馈子层,得到所述第一前馈子层输出的所述原始文本对应的文本特征。
可选地,所述获取模块501具体用于,确定各样本文本,以及各样本文本对应的标注文本;针对每个样本文本,确定该样本文本对应的标注文本的目标语种;将该样本文本输入翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,作为参考翻译文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;将该样本编码特征和所述参考翻译文本输入所述翻译模型的第一子模型的解码端,得到所述解码端输出的该样本文本对应的样本文本特征;根据所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;根据所述样本处理结果,获得部分翻译文本,作为待参考翻译文本;根据所述已获得的部分翻译文本和所述待参考翻译文本重新确定参考翻译文本,继续根据重新确定的参考翻译文本获得部分翻译文本,直至获得该样本文本中的全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
可选地,所述获取模块501具体用于,确定各样本文本,以及各样本文本对应的标注文本;针对每个样本文本,确定该样本文本对应的标注文本的目标语种;将该样本文本输入至所述翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,并确定该样本文本的标注文本中与所述已获得的部分翻译文本对应的部分文本,作为参考标注文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;将该样本编码特征和所述参考标注文本输入所述翻译模型的第一子模型的解码端,得到该样本文本对应的样本文本特征;根据所述目标语种,在翻译模型包含的各线性层中确定与该目标语种对应的线性层;将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;根据所述样本处理结果,获得当前部分翻译文本,并确定该样本文本的标注文本中与所述当前部分翻译文本对应的部分文本,作为待参考标注文本;根据该样本文本对应的标注文本中与所述已获得的部分翻译文本对应的部分文本和所述待参考标注文本重新确定参考标注文本,继续根据重新确定的参考标注文本获得当前部分翻译文本,直至获得该样本文本中全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
可选地,所述获取模块501还用于确定所述翻译模型的准确率大于指定阈值。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图3提供的多语种翻译方法。
本说明书还提供了图6所示的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图3所述的多语种翻译方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种多语种翻译方法,其特征在于,包括:
获取原始文本,并确定目标文本对应的目标语种;
将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;并,针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
根据所述处理结果,获得目标文本。
2.如权利要求1所述的方法,其特征在于,所述翻译模型还包括Softmax层;
根据所述处理结果,获得目标文本,具体包括:
将所述处理结果输入所述Softmax层,得到所述Softmax层输出的所述处理结果对应的目标文本。
3.如权利要求1所述的方法,其特征在于,所述第一子模型至少包括编码端和解码端;
将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征,具体包括:
确定已获得的部分目标文本,作为参考文本;并,将所述原始文本输入所述编码端,得到所述编码端输出的所述原始文本对应的编码特征;其中,所述已获得的部分目标文本为部分原始文本对应的翻译结果;
将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征;
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果,具体包括:
将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
根据所述处理结果,获得部分目标文本,作为待参考文本;
根据所述已获得的部分目标文本和所述待参考文本重新确定参考文本,继续根据重新确定的参考文本获得部分目标文本,直至获得全部原始文本对应的全部目标文本为止。
4.如权利要求3所述的方法,其特征在于,所述解码端至少包括:第一自注意力层、编解码注意力层、第一前馈子层;
将所述编码特征和所述参考文本输入所述解码端,得到所述解码端输出的所述原始文本对应的文本特征,具体包括:
将所述参考文本输入所述第一自注意力层,将所述第一自注意力层的输出结果输入到所述编解码注意力层;并,将所述编码特征输入所述解码端的编解码注意力层,以使所述编解码注意力层根据所述第一自注意力层的输出结果和所述编码特征得到输出结果;
将所述编解码注意力层的输出结果输入所述第一前馈子层,得到所述第一前馈子层输出的所述原始文本对应的文本特征。
5.如权利要求3所述的方法,其特征在于,预先训练翻译模型,具体包括:
确定各样本文本,以及各样本文本对应的标注文本;
针对每个样本文本,确定该样本文本对应的标注文本的目标语种;
将该样本文本输入翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,作为参考翻译文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;
将该样本编码特征和所述参考翻译文本输入所述翻译模型的第一子模型的解码端,得到所述解码端输出的该样本文本对应的样本文本特征;
根据所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;
根据所述样本处理结果,获得部分翻译文本,作为待参考翻译文本;
根据所述已获得的部分翻译文本和所述待参考翻译文本重新确定参考翻译文本,继续根据重新确定的参考翻译文本获得部分翻译文本,直至获得该样本文本中的全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
6.如权利要求3所述的方法,其特征在于,预先训练翻译模型,具体包括:
确定各样本文本,以及各样本文本对应的标注文本;
针对每个样本文本,确定该样本文本对应的标注文本的目标语种;
将该样本文本输入至所述翻译模型的第一子模型的编码端,得到所述编码端输出的该样本文本对应的样本编码特征;并,确定已获得的部分翻译文本,并确定该样本文本的标注文本中与所述已获得的部分翻译文本对应的部分文本,作为参考标注文本,所述已获得的部分翻译文本为该样本文本中的部分文本对应的翻译结果;
将该样本编码特征和所述参考标注文本输入所述翻译模型的第一子模型的解码端,得到该样本文本对应的样本文本特征;
根据所述目标语种,在翻译模型包含的各线性层中确定与该目标语种对应的线性层;
将该样本文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的样本处理结果;
根据所述样本处理结果,获得当前部分翻译文本,并确定该样本文本的标注文本中与所述当前部分翻译文本对应的部分文本,作为待参考标注文本;
根据该样本文本对应的标注文本中与所述已获得的部分翻译文本对应的部分文本和所述待参考标注文本重新确定参考标注文本,继续根据重新确定的参考标注文本获得当前部分翻译文本,直至获得该样本文本中全部文本对应的翻译文本时,以所述翻译文本与该样本文本对应的标注文本之间的差异最小为训练目标,调整所述翻译模型中的参数。
7.如权利要求6所述的方法,其特征在于,将该样本编码特征和所述参考标注文本输入所述翻译模型的第一子模型的解码端之前,所述方法还包括:
确定所述翻译模型的准确率大于指定阈值。
8.一种多语种翻译装置,其特征在于,包括:
获取模块,用于获取原始文本,并确定目标文本对应的目标语种;
输入模块,用于将所述原始文本输入预先训练的翻译模型的第一子模型,得到所述第一子模型输出的所述原始文本对应的文本特征;
线性层确定模块,用于针对所述目标语种,在所述翻译模型包含的各线性层中确定与该目标语种对应的线性层;
处理结果确定模块,用于将所述文本特征输入所述翻译模型中与所述目标语种对应的线性层,得到与所述目标语种对应的线性层输出的处理结果;
目标文本生成模块,用于根据所述处理结果,获得目标文本。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202110550040.3A 2021-05-20 2021-05-20 一种多语种翻译方法、装置、存储介质及设备 Active CN113343716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110550040.3A CN113343716B (zh) 2021-05-20 2021-05-20 一种多语种翻译方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110550040.3A CN113343716B (zh) 2021-05-20 2021-05-20 一种多语种翻译方法、装置、存储介质及设备

Publications (2)

Publication Number Publication Date
CN113343716A true CN113343716A (zh) 2021-09-03
CN113343716B CN113343716B (zh) 2022-09-30

Family

ID=77469926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110550040.3A Active CN113343716B (zh) 2021-05-20 2021-05-20 一种多语种翻译方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN113343716B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446534A (zh) * 2018-09-21 2019-03-08 清华大学 机器翻译方法及装置
CN110175335A (zh) * 2019-05-08 2019-08-27 北京百度网讯科技有限公司 翻译模型的训练方法和装置
CN110781690A (zh) * 2019-10-31 2020-02-11 北京理工大学 一种多源神经机器翻译模型的融合和压缩方法
US20200342852A1 (en) * 2018-01-11 2020-10-29 Neosapience, Inc. Speech translation method and system using multilingual text-to-speech synthesis model
CN111931517A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 文本翻译方法、装置、电子设备以及存储介质
CN111931518A (zh) * 2020-10-15 2020-11-13 北京金山数字娱乐科技有限公司 一种翻译模型的训练方法及装置
CN112183119A (zh) * 2020-09-16 2021-01-05 北京小米松果电子有限公司 机器翻译方法、装置及存储介质
CN112364157A (zh) * 2020-11-02 2021-02-12 北京中科凡语科技有限公司 多语言自动摘要生成方法、装置、设备及存储介质
CN112686059A (zh) * 2020-12-29 2021-04-20 科大讯飞股份有限公司 文本翻译方法、装置、电子设备和存储介质
CN112749569A (zh) * 2019-10-29 2021-05-04 阿里巴巴集团控股有限公司 文本的翻译方法和装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200342852A1 (en) * 2018-01-11 2020-10-29 Neosapience, Inc. Speech translation method and system using multilingual text-to-speech synthesis model
CN109446534A (zh) * 2018-09-21 2019-03-08 清华大学 机器翻译方法及装置
CN110175335A (zh) * 2019-05-08 2019-08-27 北京百度网讯科技有限公司 翻译模型的训练方法和装置
CN112749569A (zh) * 2019-10-29 2021-05-04 阿里巴巴集团控股有限公司 文本的翻译方法和装置
CN110781690A (zh) * 2019-10-31 2020-02-11 北京理工大学 一种多源神经机器翻译模型的融合和压缩方法
CN111931517A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 文本翻译方法、装置、电子设备以及存储介质
CN112183119A (zh) * 2020-09-16 2021-01-05 北京小米松果电子有限公司 机器翻译方法、装置及存储介质
CN111931518A (zh) * 2020-10-15 2020-11-13 北京金山数字娱乐科技有限公司 一种翻译模型的训练方法及装置
CN112364157A (zh) * 2020-11-02 2021-02-12 北京中科凡语科技有限公司 多语言自动摘要生成方法、装置、设备及存储介质
CN112686059A (zh) * 2020-12-29 2021-04-20 科大讯飞股份有限公司 文本翻译方法、装置、电子设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANKUR BAPNA ET AL.: "Simple, Scalable Adaptation for Neural Machine Translation", 《ARXIV:1909.08478V1》 *
DEVENDRA SINGH SACHAN ET AL.: "Parameter Sharing Methods for Multilingual Self-Attentional Translation Models", 《ARXIV:1809.00252V2》 *

Also Published As

Publication number Publication date
CN113343716B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
US11735184B2 (en) Translation and speech recognition method, apparatus, and device
CN110457449B (zh) 在线训练模型的方法、装置、设备及存储介质
CN115952272B (zh) 一种生成对话信息的方法、装置、设备及可读存储介质
CN113221555B (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN116188632A (zh) 一种图像的生成方法、装置、存储介质及电子设备
CN111401062B (zh) 文本的风险识别方法、装置及设备
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN114860905B (zh) 意图识别方法、装置及设备
CN112417093B (zh) 一种模型训练的方法及装置
CN116595999B (zh) 一种机器翻译模型训练方法和装置
CN108446266B (zh) 一种语句拆分的方法、装置及设备
CN114358243A (zh) 通用特征提取网络训练方法、装置及通用特征提取网络
CN114332873A (zh) 一种识别模型的训练方法及装置
CN112597301A (zh) 一种语音意图识别方法及装置
CN117456028A (zh) 基于文本进行图像生成的方法及装置
CN116543264A (zh) 图像分类模型的训练方法、图像分类方法及装置
CN107247704B (zh) 词向量处理方法、装置以及电子设备
CN117828360A (zh) 一种模型训练、代码生成方法、装置、存储介质及设备
CN116186231A (zh) 一种回复文本的生成方法、装置、存储介质及电子设备
CN113343716B (zh) 一种多语种翻译方法、装置、存储介质及设备
CN116863484A (zh) 一种字符识别的方法、装置、存储介质及电子设备
CN116630480A (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
CN116522939A (zh) 数据处理方法、装置及设备
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN109065016B (zh) 语音合成方法、装置、电子设备及非暂态计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant