CN109558597B - 文本翻译方法及装置、设备及存储介质 - Google Patents
文本翻译方法及装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109558597B CN109558597B CN201811541940.6A CN201811541940A CN109558597B CN 109558597 B CN109558597 B CN 109558597B CN 201811541940 A CN201811541940 A CN 201811541940A CN 109558597 B CN109558597 B CN 109558597B
- Authority
- CN
- China
- Prior art keywords
- translation
- text
- evaluation result
- original
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明实施例公开了一种文本翻译方法及装置、设备及存储介质。所述方法包括:获取原语言文本;使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本,其中,文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,训练译文为原翻译模型翻译后的输出结果,文本评估结果用于评估所述训练译文中的上下文文本的语义关系。本发明实施例的技术方案解决了现有技术中基于对各个句子单独进行翻译得到的翻译文本前后语义一致性较差,且翻译文本流利度低的技术缺陷,实现了通过对文本翻译模型进行有效的修正,提高了文本翻译模型的翻译准确度,进而提高了翻译文本的前后语义一致性及流利度。
Description
技术领域
本发明实施例涉及文本翻译技术领域,尤其涉及一种文本翻译方法及装置、设备及存储介质。
背景技术
随着全球国际化合作的日益增强,越来越多的篇章信息需要翻译成不同国家的语种,例如电商网站、媒体信息、文学出版物等。而单纯的依靠人工去完成翻译是不现实的,因此越来越多的翻译公司和相关企业采用机器翻译的方式来进行信息编译。
现有技术中翻译模型,例如神经机器翻译,基本都是基于句子级别的翻译和优化。具体来说,一般是通过先将待翻译文本拆分为多个句子,然后对拆分得到的句子单独进行翻译,最后按照顺序将拆分得到的句子的翻译结果相连,由此得到了整篇待翻译文本的翻译结果。
发明人在实现上述发明的过程中,发现现有技术存在如下缺陷:将整个待翻译文本拆分成单个句子独立进行翻译,难以保证文本翻译的一致性和流利度。
发明内容
有鉴于此,本发明实施例提供了一种文本翻译方法及装置、设备及存储介质,以优化现有的文本翻译方法,提高了文本翻译模型的翻译准确度。
在第一方面,本发明实施例提供了一种文本翻译方法,包括:
获取原语言文本;
使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系。
在第二方面,本发明实施例提供了一种文本翻译装置,包括:
文本获取模块,用于获取原语言文本;
文本翻译模块,用于使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系。
在第三方面,本发明实施例提供了一种设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例所述的文本翻译方法。
在第四方面,本发明实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例所述的文本翻译方法。
本发明实施例提供了一种文本翻译方法及装置、设备及存储介质,通过使用根据训练译文的文本评估结果修正后的文本翻译模型对原语言文本进行翻译,解决了现有技术中基于对各个句子单独进行翻译得到的翻译文本前后语义一致性较差,且翻译文本流利度低的技术缺陷,实现了通过对文本翻译模型进行有效的修正,提高了文本翻译模型的翻译准确度,进而提高了翻译文本的前后语义一致性及流利度。
附图说明
图1是本发明实施例一提供的一种文本翻译方法的流程图;
图2是本发明实施例二提供的一种文本翻译方法的流程图;
图3a是本发明实施例三提供的一种文本翻译方法的流程图;
图3b是本发明实施例三提供的一种文本翻译模型的结构图;
图4是本发明实施例四提供的一种文本翻译装置的结构图;
图5是本发明实施例五提供的一种设备的结构图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明具体实施例作进一步的详细描述。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1为本发明实施例一提供的一种文本翻译方法的流程图,本实施例的方法可以文本翻译装置来执行,该装置可通过硬件和/或软件的方式实现,并一般可集成于设备中,例如服务器。本实施例的方法具体包括:
S110、获取原语言文本。
在本实施例中,原语言文本具体可以是任意语种的语言文本。进一步地,原语言文本的获取方式既可以是通过用户直接输入来获取原语言文本,也可以是通过扫描及图文转换获取原语言文本,还可以是通过语音识别获取原语言文本等,本实施例对此不进行限制。
S120、使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本,其中,文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,训练译文为原翻译模型翻译后的输出结果,文本评估结果用于评估训练译文中的上下文文本的语义关系。
在本实施例中,在获取原语言文本之后,会使用修正后的翻译模型,及文本翻译模型对原语言文本进行翻译。
可知的是,现有的文本翻译模型一般都是句子级别的翻译模型,即通过对待翻译文本中的各个句子单独进行翻译,进而得到待翻译文本的整篇译文。因此,现有的文本翻译模型的翻译结果中的文本前后一致性难以保证,且整篇译文的流利度也较低。
因此,在本实施例中不是使用现有的文本翻译模型对原语言文本进行翻译,而是使用根据训练译文的文本评估结果对原翻译模型进行修正后得到的文本翻译模型对原语言文本进行翻译。其中,文本评估结果用于评估训练译文中的上下文文本的语义关系。因此,使用训练译文的文本评估结果修正原翻译模型,可以提高修正后的文本翻译模型的输出译文中上下文文本的语义一致性。
可知的是,很多模型都可以根据外部反馈的数据自动修正自身的参数。在本实施例中,训练译文的文本评估结果就是一个反馈给文本翻译模型的外部数据,文本翻译模型可以根据该文本评估结果自动修正自身的参数。
本发明实施例提供了一种文本翻译方法,通过使用根据训练译文的文本评估结果修正后的文本翻译模型对原语言文本进行翻译,解决了现有技术中基于对各个句子单独进行翻译得到的翻译文本前后语义一致性较差,且翻译文本流利度低的技术缺陷,实现了通过对文本翻译模型进行有效的修正,提高了文本翻译模型的翻译准确度,进而提高了翻译文本的前后语义一致性及流利度。
实施例二
图2是本发明实施例二提供的一种文本翻译方法的流程图。本实施例以上述实施例为基础进行优化,在本实施例中,给出了一种具体化文本评估结果,增加模型修正步骤,以及具体化最佳概率译文以及随机概率译文户获取方法的具体实施方式。
相应的,本实施例的方法具体包括:
S210、获取原翻译模型对测试文本的最佳概率译文,以及随机概率译文。
在本实施例中,增加了翻译模型的修正步骤,即步骤210至步骤230。进一步,在本实施例中,将训练译文的文本评估结果具体为最佳概率译文的文本评估结果以及随机概率译文的文本评估结果。因此,在步骤210至步骤230中即是根据最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,修正原翻译模型。
首先,通过本步骤210获取原翻译模型对测试文本的最佳概率译文以及随机概率译文。
其中,最佳概率译文的获取方法具体可以为使用原翻译模型翻译测试文本,并在翻译过程中选取概率最大的目标词语作为词语的翻译结果,得到最佳概率译文。其中,随机概率译文的获取方法具体可以为使用原翻译模型翻译测试文本,并在翻译过程中根据目标词语的概率分布确定词语的翻译结果,得到随机概率译文。
S220、根据翻译结果整体评估算法以及测试文本的标准译文,获取最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,其中,翻译结果整体评估算法用于评估译文整体的文本语义一致性。
在本实施例中,最佳概率译文的文本评估结果具体是根据测试文本的标准译文以及最佳概率译文,使用翻译结果整体评估算法计算得到的。同样地,随机概率译文的文本评估结果具体是根据测试文本的标准译文以及随机概率译文,使用翻译结果整体评估算法计算得到的
其中,翻译结果整体评估算法具体用于评估译文整体的文本语义一致性,典型的可以是BLEU值算法等。
S230、根据最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,修正原翻译模型,得到文本翻译模型。
在本实施例中,原翻译模型具体是根据最佳概率译文的文本评估结果以及随机概率译文的文本评估结果进行修正到的。具体来说,可以根据最佳概率译文的文本评估结果与随机概率译文的文本评估结果的差值、平方差等计算结果修正原翻译模型。
S240、获取原语言文本。
S250、使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本。
本发明实施例提供了一种文本翻译方法,该方法具体化了文本评估结果,具体化了最佳概率译文以及随机概率译文户获取方法,以及增加了模型修正步骤,实现了快速、简便以及有效地对原翻译模型进行修正,进而有效提高修正后的文本翻译模型到的翻译准确度。
实施例三
图3a是本发明实施例三提供的一种文本翻译方法的流程图。本实施例以上述实施例为基础进行优化,在本实施例中,给出了一种具体化翻译结果整体评估算法为教师激励算法以及具体化教师激励算法对应的文本评估结果获取方法,具体化模型的修正方法以及具体化文本翻译模型的结构的具体实施方式。
相应的,本实施例的方法具体包括:
S310、获取原翻译模型对测试文本的最佳概率译文,以及随机概率译文。
S320、根据基于正向语序训练得到的RNN,获取最佳概率译文对应的第一向量以及测试文本的标准译文对应的第二向量,同时根据基于反向语序训练得到的RNN,获取标准译文对应的第三向量。
在本实施例中,翻译结果整体评估算法具体为教师激励算法,步骤320至步骤350即为使用教师激励算法计算文本评估结果的过程。
在本实施例中,基于正向语序训练得到的RNN(Recurrent Neural Network,循环神经网络)具体是指将语序为正常语序的文本作为训练样本的RNN。基于反向语序训练得到的RNN具体是指将语序为倒叙的文本作为训练样本的RNN。基于正向语序训练得到的RNN的训练样本,以及基于反向语序训练得到的RNN的训练样本所对应的正常语序的样本相同。根据上述内容可知,按照上述方式训练得到的基于正向语序训练得到的RNN以及基于反向语序训练得到的RNN可以使得,这两个RNN对同一输入数据所输出的两个向量的相似度最低。
基于上述特点,本实施例中使用基于正向语序训练得到的RNN以及基于反向语序训练得到的RNN分别获取测试文本您的标准译文对应的第二向量和第三向量。同时,还会使用基于正向语序训练得到的RNN获取最佳概率译文对应的第一向量。根据第一向量与第二向量的相似度,以及第一向量与第三向量的相似度可以确定最佳概率译文中的上下文文本的语义一致性如何。如果第一向量与第二向量的相似度大于第一向量与第三向量的相似度,则认为最佳概率译文中的上下文文本的语义一致性较好;如果第一向量与第二向量的相似度小于第一向量与第三向量的相似度,则认为最佳概率译文中的上下文文本的语义一致性较差。
S330、将第一向量与第二向量的相似度,减去第一向量与第三向量的相似度的差,作为最佳概率译文的文本评估结果。
在本实施例中,最佳概率译文的文本评估结果具体为第一向量与第二向量的相似度,减去第一向量与第三向量的相似度的差。该差值越大表示最佳概率译文中的上下文文本的语义一致性越好。
S340、根据基于正向语序训练得到的RNN,获取随机概率译文对应的第四向量。
同样地,在本实施例中还会使用基于正向语序训练得到的RNN,获取随机概率译文对应的第四向量。然后,根据第四向量与第二向量的相似度,以及第四向量与第三向量的相似度可以确定随机概率译文中的上下文文本的语义一致性如何。如果第四向量与第二向量的相似度大于第四向量与第三向量的相似度,则认为最佳概率译文中的上下文文本的语义一致性较好;如果第四向量与第二向量的相似度小于第四向量与第三向量的相似度,则认为随机概率译文中的上下文文本的语义一致性较差。
S350、将第四向量与第二向量的相似度,减去第四向量与第三向量的相似度的差,作为随机概率译文的文本评估结果。
同样地,在本实施例中,随机概率译文的文本评估结果具体为第四向量与第二向量的相似度,减去第四向量与第三向量的相似度的差。该差值越大表示随机概率译文中的上下文文本的语义一致性越好。
S360、根据最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值,修正原翻译模型,得到文本翻译模型。
在本实施例中,具体是根据最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值来修正原翻译模型。该差值可以体现最佳概率译文与随机概率译文的上下文文本一致性的比较结果,如果该差值为正数,则确定最佳概率译文的上下文文本一致性比随机概率译文的上下文文本一致性好;如果该差值为负数,则确定最佳概率译文的上下文文本一致性比随机概率译文的上下文文本一致性差。
进一步地,原翻译模型的修正方式具体可以是使用最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值,乘以原翻译模型的梯度,进而得到文本翻译模型。
S370、获取原语言文本。
S380、使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本。
在本实施例中,如图3b所示,文本翻译模型具体包括顺序连接的一个基于自注意力机制的编码器1、一个基于自注意力机制的第一解码器2以及一个基于自注意力机制的第二解码器3,其中,相连接的所述编码器1和所述第一解码器2组成了一个基于自注意力机制的Transformer模型。
其中,第二解码器3由第一解码器2、N个多头自注意力机制层32以及N个全连接的前向神经网络31组成,N为第一解码器包括的网络块的数量。其中,N个全连接的前向神经网络31分别与N个网络块中的Feed Forward层相连并位于Feed Forward层之前,N个多头自注意力机制层32分别与N个全连接的前向神经网络31相连并位于全连接的前向神经网络31之前;其中,新增加的多头自注意力机制层32的输入包括第一解码器2的输出;其中,新增加的多头自注意力机制层32之前的多头自注意力机制层33的输入包括编码器1的输出。
进一步地,图3b中还示例性地示出了用于计算最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值的循环神经网络4。该循环神经网络4中包括有基于正向语序训练得到的RNN以及基于反向语序训练得到的RNN。该循环神经网络4直接获取第二解码器3的输出结果,并将最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值反馈给第二解码器,以修正翻译模型。
本发明实施例提供了一种文本翻译方法,该方法具体化了翻译结果整体评估算法为教师激励算法以及具体化了教师激励算法对应的文本评估结果获取方法,使得文本评估结果可以正确反映原翻译模型的翻译准确度,进而可以更加有效地对原翻译模型进行修正,具体化了模型的修正方法以及具体化了文本翻译模型的结构,使得文本翻译模型可以依据文本评估结果对自身到的参数进行有效修正。
这里需要说明的是,传统的神经网络机器翻译模型一般一个batch里面的句子是随机选取的,但是,本实施例中的原翻译模型在训练时,要求一个batch里面的句子必须是一个篇章中包括的所有句子,如此才能保证第一解码器可以输出篇章中每一个句子的单独翻译结果,进而第二解码器才能够使用第一解码器的输出结果作为上下文翻译信息,并参照该上下文翻译信息进行翻译,进一步提高输出译文的上下文语义一致性。
在上述各实施例的基础上,将翻译结果整体评估算法具体化为BLEU值算法;
相应地,将根据翻译结果整体评估算法以及测试文本的标准译文,获取最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,具体化为:计算测试文本的标准译文与最佳概率译文之间的BLEU值,将计算得到的BLEU值作为最佳概率译文的文本评估结果;计算测试文本的标准译文与随机概率译文之间的BLEU值,将计算得到的BLEU值作为随机概率译文的文本评估结果。
这样设置的好处是:使得文本评估结果可以正确的反映原翻译模型的翻译准确度。
实施例四
图4是本发明实施例四提供的一种文本翻译装置的结构图。如图4所示,所述装置包括:文本获取模块401以及文本翻译模块402,其中:
文本获取模块401,用于获取原语言文本;
文本翻译模块402,用于使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本,其中,文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,训练译文为原翻译模型翻译后的输出结果,文本评估结果用于评估训练译文中的上下文文本的语义关系。
本发明实施例提供了一种文本翻译装置,该装置首先通过文本获取模块401获取原语言文本,然后通过文本翻译模块402使用文本翻译模型翻译原语言文本,得到原语言文本对应的目标语言文本,其中,文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,训练译文为原翻译模型翻译后的输出结果,文本评估结果用于评估训练译文中的上下文文本的语义关系。
该装置解决了现有技术中基于对各个句子单独进行翻译得到的翻译文本前后语义一致性较差,且翻译文本流利度低的技术缺陷,实现了通过对文本翻译模型进行有效的修正,提高了文本翻译模型的翻译准确度,进而提高了翻译文本的前后语义一致性及流利度
在上述各实施例的基础上,训练译文的文本评估结果可以包括:
最佳概率译文的文本评估结果,以及随机概率译文的文本评估结果。
在上述各实施例的基础上,还可以包括:
译文获取模块,用于在使用文本翻译模型翻译原语言文本之前,获取原翻译模型对测试文本的最佳概率译文,以及随机概率译文;
译文评估模块,用于根据翻译结果整体评估算法以及测试文本的标准译文,获取最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,其中,翻译结果整体评估算法用于评估译文整体的文本语义一致性;
模型修正模块,用于根据最佳概率译文的文本评估结果以及随机概率译文的文本评估结果,修正原翻译模型。
在上述各实施例的基础上,译文获取模块可以包括:
最佳概率译文获取单元,用于使用原翻译模型翻译测试文本,并在翻译过程中选取概率最大的目标词语作为词语的翻译结果,得到最佳概率译文;
随机概率译文获取单元,用于使用原翻译模型翻译测试文本,并在翻译过程中根据目标词语的概率分布确定词语的翻译结果,得到随机概率译文。
在上述各实施例的基础上,翻译结果整体评估算法可以为BLEU值算法;
相应地,译文评估模块可以包括:
第一BLEU值计算单元,用于计算测试文本的标准译文与最佳概率译文之间的BLEU值,将计算得到的BLEU值作为最佳概率译文的文本评估结果;
第二BLEU值计算单元,用于计算测试文本的标准译文与随机概率译文之间的BLEU值,将计算得到的BLEU值作为随机概率译文的文本评估结果。
在上述各实施例的基础上,翻译结果整体评估算法可以为教师激励算法;
相应地,译文评估模块还可以包括:
向量获取单元,用于根据基于正向语序训练得到的RNN,获取最佳概率译文对应的第一向量以及测试文本的标准译文对应的第二向量,同时根据基于反向语序训练得到的RNN,获取标准译文对应的第三向量;
最佳概率译文评估单元,用于将第一向量与第二向量的相似度,减去第一向量与第三向量的相似度的差,作为最佳概率译文的文本评估结果;
第四向量获取单元,用于根据基于正向语序训练得到的RNN,获取随机概率译文对应的第四向量;
随机概率译文评估单元,用于将第四向量与第二向量的相似度,减去第四向量与第三向量的相似度的差,作为随机概率译文的文本评估结果。
在上述各实施例的基础上,模型修正模块具体可以用于:
根据最佳概率译文的文本评估结果减去随机概率译文的文本评估结果的差值,修正原翻译模型。
在上述各实施例的基础上,文本翻译模型具体可以包括:
顺序连接的一个基于自注意力机制的编码器、一个基于自注意力机制的第一解码器以及一个基于自注意力机制的第二解码器,其中,相连接的编码器和第一解码器组成了一个基于自注意力机制的Transformer模型;
其中,第二解码器由第一解码器、N个多头自注意力机制层以及N个全连接的前向神经网络组成,其中,N为第一解码器包括的网络块的数量;
其中,N个全连接的前向神经网络分别与N个网络块中的Feed Forward层相连并位于Feed Forward层之前,N个多头自注意力机制层分别与N个全连接的前向神经网络相连并位于全连接的前向神经网络之前;
其中,新增加的多头自注意力机制层的输入包括第一解码器的输出;
其中,新增加的多头自注意力机制层之前的多头自注意力机制层的输入包括编码器的输出。
本发明实施例所提供的文本翻译装置可用于执行本发明任意实施例提供的文本翻译方法,具备相应的功能模块,实现相同的有益效果。
实施例五
图5为本发明实施例五提供的一种设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性设备12的框图。图5显示的设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,设备12以通用计算设备的形式表现。设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与设备12的其它模块通信。应当明白,尽管图中未示出,可以结合设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的文本翻译方法。也即:获取原语言文本;使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系。
实施例六
本发明实施例六还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本发明实施例所述的文本翻译方法。也即:获取原语言文本;使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (9)
1.一种文本翻译方法,其特征在于,包括:
获取原语言文本;
使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系;
其中,所述训练译文的文本评估结果包括:
最佳概率译文的文本评估结果,以及随机概率译文的文本评估结果;
所述使用文本翻译模型翻译所述原语言文本之前,还包括:
获取所述原翻译模型对测试文本的所述最佳概率译文,以及所述随机概率译文;
根据翻译结果整体评估算法以及所述测试文本的标准译文,获取所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,其中,所述翻译结果整体评估算法用于评估译文整体的文本语义一致性;
根据所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,修正所述原翻译模型。
2.根据权利要求1所述的方法,其特征在于,所述获取所述原翻译模型对所述测试文本的所述最佳概率译文,以及所述随机概率译文,包括:
使用所述原翻译模型翻译所述测试文本,并在翻译过程中选取概率最大的目标词语作为词语的翻译结果,得到所述最佳概率译文;
使用所述原翻译模型翻译所述测试文本,并在翻译过程中根据目标词语的概率分布确定词语的翻译结果,得到所述随机概率译文。
3.根据权利要求1所述的方法,其特征在于,所述翻译结果整体评估算法为BLEU值算法;
相应地,所述根据翻译结果整体评估算法以及所述测试文本的标准译文,获取所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,包括:
计算所述测试文本的标准译文与所述最佳概率译文之间的BLEU值,将计算得到的BLEU值作为所述最佳概率译文的文本评估结果;
计算所述测试文本的标准译文与所述随机概率译文之间的BLEU值,将计算得到的BLEU值作为所述随机概率译文的文本评估结果。
4.根据权利要求1所述的方法,其特征在于,所述翻译结果整体评估算法为教师激励算法;
相应地,所述根据翻译结果整体评估算法以及所述测试文本的标准译文,获取所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,包括:
根据基于正向语序训练得到的RNN,获取所述最佳概率译文对应的第一向量以及所述测试文本的标准译文对应的第二向量,同时根据基于反向语序训练得到的RNN,获取所述标准译文对应的第三向量;
将所述第一向量与所述第二向量的相似度,减去所述第一向量与所述第三向量的相似度的差,作为所述最佳概率译文的文本评估结果;
根据基于正向语序训练得到的RNN,获取所述随机概率译文对应的第四向量;
将所述第四向量与所述第二向量的相似度,减去所述第四向量与所述第三向量的相似度的差,作为所述随机概率译文的文本评估结果。
5.根据权利要求1所述的方法,其特征在于,所述根据所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,修正所述原翻译模型,包括:
根据所述最佳概率译文的文本评估结果减去所述随机概率译文的文本评估结果的差值,修正所述原翻译模型。
6.根据权利要求1-5中任一项所述的方法,所述文本翻译模型具体包括:
顺序连接的一个基于自注意力机制的编码器、一个基于自注意力机制的第一解码器以及一个基于自注意力机制的第二解码器,其中,相连接的所述编码器和所述第一解码器组成了一个基于自注意力机制的Transformer模型;
其中,所述第二解码器由所述第一解码器、N个多头自注意力机制层以及N个全连接的前向神经网络组成,其中,N为所述第一解码器包括的网络块的数量;
其中,N个所述全连接的前向神经网络分别与N个所述网络块中的Feed Forward层相连并位于所述Feed Forward层之前,N个所述多头自注意力机制层分别与N个所述全连接的前向神经网络相连并位于所述全连接的前向神经网络之前;
其中,新增加的所述多头自注意力机制层的输入包括所述第一解码器的输出;
其中,新增加的所述多头自注意力机制层之前的多头自注意力机制层的输入包括所述编码器的输出。
7.一种文本翻译装置,其特征在于,包括:
文本获取模块,用于获取原语言文本;
文本翻译模块,用于使用文本翻译模型翻译所述原语言文本,得到所述原语言文本对应的目标语言文本,其中,所述文本翻译模型是根据训练译文的文本评估结果对原翻译模型进行修正之后得到的翻译模型,所述训练译文为原翻译模型翻译后的输出结果,所述文本评估结果用于评估所述训练译文中的上下文文本的语义关系;
其中,所述训练译文的文本评估结果包括:
最佳概率译文的文本评估结果,以及随机概率译文的文本评估结果;
译文获取模块,用于在使用文本翻译模型翻译原语言文本之前,获取所述原翻译模型对测试文本的所述最佳概率译文,以及所述随机概率译文;
译文评估模块,用于根据翻译结果整体评估算法以及所述测试文本的标准译文,获取所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,其中,所述翻译结果整体评估算法用于评估译文整体的文本语义一致性;
模型修正模块,用于根据所述最佳概率译文的文本评估结果以及所述随机概率译文的文本评估结果,修正所述原翻译模型。
8.一种文本翻译设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一项所述的文本翻译方法。
9.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-6中任一项所述的文本翻译方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541940.6A CN109558597B (zh) | 2018-12-17 | 2018-12-17 | 文本翻译方法及装置、设备及存储介质 |
US16/701,382 US11314946B2 (en) | 2018-12-17 | 2019-12-03 | Text translation method, device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541940.6A CN109558597B (zh) | 2018-12-17 | 2018-12-17 | 文本翻译方法及装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109558597A CN109558597A (zh) | 2019-04-02 |
CN109558597B true CN109558597B (zh) | 2022-05-24 |
Family
ID=65870220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811541940.6A Active CN109558597B (zh) | 2018-12-17 | 2018-12-17 | 文本翻译方法及装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11314946B2 (zh) |
CN (1) | CN109558597B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110134973A (zh) * | 2019-04-12 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 基于人工智能的视频字幕实时翻译方法、介质和设备 |
CN110162800B (zh) * | 2019-05-08 | 2021-02-05 | 北京百度网讯科技有限公司 | 翻译模型的训练方法和装置 |
CN111488742B (zh) * | 2019-08-19 | 2021-06-29 | 北京京东尚科信息技术有限公司 | 用于翻译的方法和装置 |
CN110598222B (zh) * | 2019-09-12 | 2023-05-30 | 北京金山数字娱乐科技有限公司 | 语言处理方法及装置、语言处理系统的训练方法及装置 |
CN110826345B (zh) * | 2019-11-14 | 2023-09-05 | 北京香侬慧语科技有限责任公司 | 一种机器翻译方法和装置 |
CN111079450B (zh) * | 2019-12-20 | 2021-01-22 | 北京百度网讯科技有限公司 | 基于顺句驱动的语言转换方法和装置 |
CN111652006B (zh) * | 2020-06-09 | 2021-02-09 | 北京中科凡语科技有限公司 | 一种计算机辅助翻译方法及装置 |
CN111859996B (zh) * | 2020-06-16 | 2024-03-26 | 北京百度网讯科技有限公司 | 机器翻译模型的训练方法、装置、电子设备及存储介质 |
CN111950303B (zh) * | 2020-10-19 | 2021-01-08 | 平安科技(深圳)有限公司 | 医疗文本翻译方法、装置及存储介质 |
CN112560511B (zh) * | 2020-12-14 | 2024-04-23 | 北京奇艺世纪科技有限公司 | 台词翻译方法、装置及翻译模型训练方法、装置 |
CN112784612B (zh) * | 2021-01-26 | 2023-12-22 | 浙江香侬慧语科技有限责任公司 | 基于迭代修改的同步机器翻译的方法、装置、介质及设备 |
CN113051938B (zh) * | 2021-04-02 | 2022-03-01 | 四川大学 | 一种基于Transformer模型的机器翻译模型优化方法 |
CN113609875B (zh) * | 2021-08-06 | 2024-02-20 | 中国科学技术大学 | 翻译质量评估方法、装置、电子设备和存储介质 |
CN113792558B (zh) * | 2021-11-16 | 2022-09-23 | 北京百度网讯科技有限公司 | 基于机器翻译和译后编辑的自学习翻译方法及装置 |
CN113963359B (zh) * | 2021-12-20 | 2022-03-18 | 北京易真学思教育科技有限公司 | 文本识别模型训练方法、文本识别方法、装置及电子设备 |
CN114896991B (zh) * | 2022-04-26 | 2023-02-28 | 北京百度网讯科技有限公司 | 文本翻译方法、装置、电子设备和存储介质 |
CN115329784B (zh) * | 2022-10-12 | 2023-04-07 | 之江实验室 | 基于预训练模型的句子复述生成系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013089116A (ja) * | 2011-10-20 | 2013-05-13 | Nippon Telegr & Teleph Corp <Ntt> | 最適翻訳文選択装置、翻訳文選択モデル学習装置、方法、及びプログラム |
CN103678285A (zh) * | 2012-08-31 | 2014-03-26 | 富士通株式会社 | 机器翻译方法和机器翻译系统 |
CN103823795A (zh) * | 2012-11-16 | 2014-05-28 | 佳能株式会社 | 机器翻译系统、机器翻译方法和与其一起使用的解码器 |
CN105183720A (zh) * | 2015-08-05 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 基于rnn模型的机器翻译方法和装置 |
CN105740218A (zh) * | 2015-12-31 | 2016-07-06 | 成都数联铭品科技有限公司 | 一种机器翻译后编辑处理方法 |
CN107423293A (zh) * | 2017-07-18 | 2017-12-01 | 沈阳航空航天大学 | 数据翻译的方法和装置 |
CN108038111A (zh) * | 2017-12-11 | 2018-05-15 | 中译语通科技股份有限公司 | 一种机器翻译管道建立方法及系统、计算机程序、计算机 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9098812B2 (en) * | 2009-04-14 | 2015-08-04 | Microsoft Technology Licensing, Llc | Faster minimum error rate training for weighted linear models |
US9213694B2 (en) * | 2013-10-10 | 2015-12-15 | Language Weaver, Inc. | Efficient online domain adaptation |
US9697201B2 (en) * | 2014-11-24 | 2017-07-04 | Microsoft Technology Licensing, Llc | Adapting machine translation data using damaging channel model |
US10185713B1 (en) * | 2015-09-28 | 2019-01-22 | Amazon Technologies, Inc. | Optimized statistical machine translation system with rapid adaptation capability |
CN106649282A (zh) * | 2015-10-30 | 2017-05-10 | 阿里巴巴集团控股有限公司 | 基于统计的机器翻译方法、装置及电子设备 |
KR102449614B1 (ko) * | 2015-11-06 | 2022-09-29 | 삼성전자주식회사 | 자동 번역의 품질 평가 장치 및 방법, 자동 번역 장치, 분산 표현 모델 구축 장치 |
KR102195627B1 (ko) * | 2015-11-17 | 2020-12-28 | 삼성전자주식회사 | 통역 모델 생성 장치 및 방법과, 자동 통역 장치 및 방법 |
US9747281B2 (en) * | 2015-12-07 | 2017-08-29 | Linkedin Corporation | Generating multi-language social network user profiles by translation |
CN107273106B (zh) * | 2016-04-08 | 2021-07-06 | 北京三星通信技术研究有限公司 | 物体信息翻译、以及衍生信息获取方法和装置 |
CN107704456B (zh) * | 2016-08-09 | 2023-08-29 | 松下知识产权经营株式会社 | 识别控制方法以及识别控制装置 |
US10437933B1 (en) * | 2016-08-16 | 2019-10-08 | Amazon Technologies, Inc. | Multi-domain machine translation system with training data clustering and dynamic domain adaptation |
JP6846666B2 (ja) * | 2017-05-23 | 2021-03-24 | パナソニックIpマネジメント株式会社 | 翻訳文生成方法、翻訳文生成装置及び翻訳文生成プログラム |
US11093110B1 (en) * | 2017-07-17 | 2021-08-17 | Amazon Technologies, Inc. | Messaging feedback mechanism |
US9959272B1 (en) * | 2017-07-21 | 2018-05-01 | Memsource a.s. | Automatic classification and translation of written segments |
JP7197259B2 (ja) * | 2017-08-25 | 2022-12-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理装置およびプログラム |
US10963819B1 (en) * | 2017-09-27 | 2021-03-30 | Amazon Technologies, Inc. | Goal-oriented dialog systems and methods |
CN108304390B (zh) * | 2017-12-15 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 基于翻译模型的训练方法、训练装置、翻译方法及存储介质 |
US11036940B2 (en) * | 2018-08-30 | 2021-06-15 | Mmt Srl | Translation system and method |
CN110162799B (zh) * | 2018-11-28 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 模型训练方法、机器翻译方法以及相关装置和设备 |
-
2018
- 2018-12-17 CN CN201811541940.6A patent/CN109558597B/zh active Active
-
2019
- 2019-12-03 US US16/701,382 patent/US11314946B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013089116A (ja) * | 2011-10-20 | 2013-05-13 | Nippon Telegr & Teleph Corp <Ntt> | 最適翻訳文選択装置、翻訳文選択モデル学習装置、方法、及びプログラム |
CN103678285A (zh) * | 2012-08-31 | 2014-03-26 | 富士通株式会社 | 机器翻译方法和机器翻译系统 |
CN103823795A (zh) * | 2012-11-16 | 2014-05-28 | 佳能株式会社 | 机器翻译系统、机器翻译方法和与其一起使用的解码器 |
CN105183720A (zh) * | 2015-08-05 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 基于rnn模型的机器翻译方法和装置 |
CN105740218A (zh) * | 2015-12-31 | 2016-07-06 | 成都数联铭品科技有限公司 | 一种机器翻译后编辑处理方法 |
CN107423293A (zh) * | 2017-07-18 | 2017-12-01 | 沈阳航空航天大学 | 数据翻译的方法和装置 |
CN108038111A (zh) * | 2017-12-11 | 2018-05-15 | 中译语通科技股份有限公司 | 一种机器翻译管道建立方法及系统、计算机程序、计算机 |
Non-Patent Citations (2)
Title |
---|
基于翻译质量估计的神经网络译文自动后编辑;谭亦鸣,王明文,李茂西;《北京大学学报(自然科学版)》;20180511;第54卷(第2期);全文 * |
监管机器翻译质量?且看阿里如何搭建翻译质量评估模型;思源;《https://www.jiqizhixin.com/articles/2018-08-02-6》;20180802;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US11314946B2 (en) | 2022-04-26 |
US20200193097A1 (en) | 2020-06-18 |
CN109558597A (zh) | 2019-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558597B (zh) | 文本翻译方法及装置、设备及存储介质 | |
CN110363810B (zh) | 建立图像检测模型的方法、装置、设备和计算机存储介质 | |
CN110163903B (zh) | 三维图像的获取及图像定位方法、装置、设备和存储介质 | |
CN109635305B (zh) | 语音翻译方法及装置、设备及存储介质 | |
CN107273356B (zh) | 基于人工智能的分词方法、装置、服务器和存储介质 | |
US11308286B2 (en) | Method and device for retelling text, server, and storage medium | |
CN109657251B (zh) | 用于翻译语句的方法和装置 | |
CN109558604B (zh) | 一种机器翻译方法、装置、电子设备及存储介质 | |
CN110232411B (zh) | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 | |
JP2022177242A (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN109697292B (zh) | 一种机器翻译方法、装置、电子设备和介质 | |
CN109408834B (zh) | 辅助机器翻译方法、装置、设备及存储介质 | |
CN107451062B (zh) | 一种用户界面遍历测试方法、装置、服务器、存储介质 | |
CN116594757B (zh) | 利用大语言模型执行复杂任务的方法及装置 | |
US10180940B2 (en) | Method and system of performing a translation | |
CN111597800A (zh) | 同义句的获取方法及装置、设备及存储介质 | |
CN111104796B (zh) | 用于翻译的方法和装置 | |
CN113723618A (zh) | 一种shap的优化方法、设备及介质 | |
CN109657127B (zh) | 一种答案获取方法、装置、服务器及存储介质 | |
CN109710952B (zh) | 基于人工智能的翻译历史检索方法、装置、设备和介质 | |
CN110991124B (zh) | 集成电路修补方法及装置、存储介质、电子设备 | |
CN114373460A (zh) | 车载语音助手的指令确定方法、装置、设备及介质 | |
CN111124409A (zh) | 基于Sketch的业务页面生成方法、装置、设备和存储介质 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN113467783B (zh) | 一种人工智能加速器的核函数编译方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |