CN105068998A - 基于神经网络模型的翻译方法及装置 - Google Patents
基于神经网络模型的翻译方法及装置 Download PDFInfo
- Publication number
- CN105068998A CN105068998A CN201510455270.6A CN201510455270A CN105068998A CN 105068998 A CN105068998 A CN 105068998A CN 201510455270 A CN201510455270 A CN 201510455270A CN 105068998 A CN105068998 A CN 105068998A
- Authority
- CN
- China
- Prior art keywords
- translation
- word
- statement
- model
- primary election
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
本发明实施例提供了一种基于神经网络模型的翻译方法及装置。其中,基于神经网络模型的翻译方法包括:获取源语言的语句;将所述源语言的语句进行编码得到向量序列;基于所述向量序列逐词地预测目标语言中相应的候选词;根据预测得到的候选词生成目标语言的语句。本发明实施例的基于神经网络模型的翻译方法及装置,能够结合多种翻译特征执行翻译,提高了翻译结果的翻译质量、流利程度以及可读性。
Description
技术领域
本发明涉及机器翻译技术领域,尤其涉及一种基于神经网络模型的翻译方法及装置。
背景技术
近年来,循环神经网络(RecurrentNeuralNetwork,RNN)技术被广泛应用于机器翻译领域。与传统的统计机器翻译系统相比,基于循环神经网络的机器翻译系统能够充分利用全局语义信息,翻译质量显著提升。
然而,基于循环神经网络的机器翻译技术也存在着明显的不足之处:
一、词表受限。
通常,RNN翻译模型仅能使用一个数量有限的单词词表(通常三万单词以内),导致词表外单词(Out-of-vocabulary,OOV)无法翻译。
二、RNN翻译模型仅支持双语语句对进行训练,难以利用可有效提高翻译结果流利度的目标语言单语语料进行训练。
三、无法增加或丰富更多的特征。
具体来说,传统的统计机器翻译方法是基于多种特征执行翻译处理的,对于每一个翻译单元(单词、短语、翻译规则等)均计算每个特征的得分,最终结合多个特征的得分来确定最优翻译结果。然而,这些能够提高翻译质量的特征无法直接为RNN翻译模型所用。
四、漏词现象严重,易生成较短翻译结果,影响翻译结果的可读性。
发明内容
本发明实施例的目的在于,提供一种基于神经网络模型的翻译方法及装置,结合多种翻译特征执行翻译,以提高翻译结果的翻译准确性。
为实现上述发明目的,本发明的实施例提供了一种基于神经网络模型的翻译方法,包括:获取源语言的语句;将所述源语言的语句进行编码,得到向量序列;基于所述向量序列逐词地预测目标语言中相应的候选词;根据预测得到的候选词生成目标语言的语句,其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
优选地,所述从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词的处理包括:从预设的翻译词表中获取M个词语作为初选词,M为正整数;根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征;计算每个所述初选词的统计机器翻译模型的翻译特征;根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值;对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
优选地,所述基于所述向量序列逐词地预测目标语言中相应的候选词的处理还包括:依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系,所述根据预测得到的候选词生成目标语言的语句的处理包括:根据具有关联关系的所有候选词生成目标语言的语句。
优选地,所述统计机器翻译模型的翻译特征包括双向单词翻译模型特征。
优选地,所述统计机器翻译模型的翻译特征还包括N元语言模型特征和/或词惩罚特征。
优选地,所述将所述源语言的语句进行编码得到向量序列的处理包括:对源语言的语句进行分词,将分得的多个分词分别转换成与每个所述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
优选地,所述获取源语言的语句的处理包括以下处理之一:接收文本数据,并将所述文本数据作为所述源语言的语句;接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句;接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
本发明的实施例还提供了一种基于神经网络模型的翻译装置,包括:语句获取模块,用于获取源语言的语句;语句编码模块,用于将所述源语言的语句进行编码得到向量序列;候选词预测模块,用于基于所述向量序列逐词地预测目标语言中相应的候选词;语句生成模块,用于根据预测得到的候选词生成目标语言的语句,其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
优选地,所述候选词预测模块包括:初选词获取单元,用于从预设的翻译词表中获取M个词语作为初选词,M为正整数;神经网络模型特征计算单元,用于根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征;统计机器模型特征计算单元,用于计算每个所述初选词的统计机器翻译模型的翻译特征;翻译概率计算单元,用于根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值;候选词选取单元,用于对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
优选地,所述候选词预测模块还包括:候选词关联单元,用于依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系,所述语句生成模块,用于根据具有关联关系的所有候选词生成目标语言的语句。
优选地,所述统计机器翻译模型的翻译特征包括双向单词翻译模型特征。
优选地,所述统计机器翻译模型的翻译特征还包括N元语言模型特征和/或词惩罚特征。
优选地,所述语句编码模块用于对源语言的语句进行分词,将分得的多个分词分别转换成与每个所述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
优选地,所述语句获取模块包括以下单元之一:文本数据接收单元,用于接收文本数据,并将所述文本数据作为所述源语言的语句;语音数据接收及识别单元,用于接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句;图片数据接收及识别单元,用于接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
本发明实施例提供的基于神经网络模型的翻译方法及装置,对获取到的源语言的语句进行编码得到向量序列,再基于向量序列逐词地预测目标语言中相应的候选词,在任一所述候选词的预测处理过程中,利用对数线性模型,将统计机器翻译模型的翻译特征引入神经网络翻译模型,从而计算从预设的翻译词表中获取的每个初选词的翻译概率,由此基于翻译概率计算结果从多个初选词中选取候选词,最终根据预测的候选词自动地生成目标语言的语句,极大地提高了翻译的准确性、可读性及流畅性。同时,生成的翻译结果长度适宜,降低了漏词率。
附图说明
图1是示出本发明实施例一的基于神经网络模型的翻译方法的流程图;
图2是示出本发明实施例一的基于神经网络模型的翻译方法中神经网络翻译模型的应用场景示例性示意图;
图3是示出本发明实施例一的基于神经网络模型的翻译方法中OOV的预测处理示例性示意图;
图4是示出本发明实施例二的基于神经网络模型的翻译装置的逻辑框图。
具体实施方式
本发明的基本构思是,提供一种结合传统的统计机器翻译方法和RNN翻译方法的翻译方式:利用对数线性模型将神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征相结合,计算从预设的翻译词表中预测出的多个初选词的得分(即翻译概率),从经排序(得分从大到小顺序排列)的多个初选词中选取候选词。
然后,根据经上述预测处理得到候选词,自动地生成长度适宜的目标语言语句,解决了RNN翻译方法中存在的词表受限、难以利用单语语料进行训练、无法丰富特征、倾向于生成较短翻译结果的问题,显著提升翻译质量,且提高翻译结果的可读性及流利程度。
下面结合附图详细描述本发明实施例的基于神经网络模型的翻译方法以及使用所述方法的装置。
实施例一
图1是示出本发明实施例一的基于神经网络模型的翻译方法的流程图。可在实施例二所述的装置上执行所述方法。
参照图1,在步骤S110,获取源语言的语句。
根据本发明的示例性实施例,步骤S110包括以下处理之一:
接收文本数据,并将所述文本数据作为所述源语言的语句。
接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句。
接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
在步骤S120,将所述源语言的语句进行编码,得到向量序列。
具体地,可以对源语言的语句进行分词,将分得的多个分词分别转换成与每个所述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
图2是示出本发明实施例一的基于神经网络模型的翻译方法中神经网络翻译模型的应用场景示例性示意图。参照图2,以获取到的源语言语句“北京的出租车司机很热情”为例,对该语句进行分词处理得到六个分词,图2中每个方框内的字或词语代表一个分词,“0.123,0.264…0.465”是经编码处理后得到的向量序列。
在步骤S130,基于所述向量序列逐词地预测目标语言中相应的候选词。其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
具体地,在本步骤中,所述从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词的处理可包括:从预设的翻译词表中获取M个词语作为初选词,M为正整数;根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征;计算每个所述初选词的统计机器翻译模型的翻译特征;根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值。对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
在具体的实现方式中,仍以图2为例进行说明,首先从预设的翻译词表中获取多个词语(the,beijing,taxi等)作为初选词,根据向量序列(0.123,0.264…0.465)计算每个所述初选词的神经网络翻译模型的翻译特征。这里,由于是预测目标语句中位于第一位的候选词,在此之前没有预测出的候选词,因此计算时无需考虑之前预测出的候选词。
然而,在后续的候选词的预测处理中均需考虑之前预测出的候选词。也就是说,预测出目标语言语句中位于第一位的候选词the,beijing与tax之后,将分别使用这三个候选词预测后面的候选词taxi,driver与’s。在预测位于第二位的候选词时,“thetaxi”,“thedriver”以及“beijing’s”三者得分最高,参与后续的预测处理过程,而位于第一位的候选词“taxi”后续不会再被参考。
优选地,可通过以下公式(1)执行所述根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征的处理:
其中,hrnn为神经网络翻译模型的翻译特征,ej为目标语言的语句中第j个初选词,ej-1,…,e1为获取初选词ej之前预测出的前j-1个候选词,为所述向量序列。
如前所述,在RNN翻译方法中存在词表受限的问题。图3是示出本发明实施例一的基于神经网络模型的翻译方法中OOV的预测处理示例性示意图。参照图3,单词“坑洞”对于神经网络翻译模型来说是一个OOV,无法得到准确的译文。
在本实施例中,对于OOV用“UNK”标记,在后续的处理步骤中,使用预设的单词翻译表对标记为“UNK”的单词进行预测候选词处理。具体地,为了生成OOV的准确翻译,首先找到源语言语句中对应的词,图3中α13=0.1表示“陷在”到“UNK”的单词对齐概率是0.1,α23=0.7表示“坑洞”到“UNK”的单词对齐概率是0.7,α33=0.2表示“中”到“UNK”的单词对齐概率是0.2,α23的值最大。由此可知,“UNK”对应源语言语句中的“坑洞”一词,然后,“坑洞”相应的目标语言语句中的候选词可从大规模对齐双语语料库训练出来的单词翻译表中获得,如图3所示的hole、pothole等。
其次,计算每个所述初选词的统计机器翻译模型的翻译特征。为了优化单词互译程度、提高翻译质量,优选地,所述统计机器翻译模型的翻译特征可包括双向单词翻译模型特征。可通过以下公式(2)和公式(3)执行所述计算每个所述初选词的双向单词翻译模型特征的处理:
其中,htp1为源语言到目标语言的单词翻译模型特征,htp2为目标语言到源语言的单词翻译模型特征,p(ej|fi)为源语言的单词fi到目标语言的初选词ej的翻译概率,p(fi|ej)为目标语言的初选词ej到源语言的单词fi的翻译概率,αji为源语言的单词fi到目标语言的初选词ej的单词对齐概率,所述单词对齐概率是基于神经网络翻译模型生成的。δ(ej,fi)为目标语言的初选词ej和源语言的单词fi之间的翻译参数,δ(ej,fi)=1时,目标语言的初选词ej和源语言的单词fi之间互为翻译,δ(ej,fi)=0时,目标语言的初选词ej和源语言的单词fi之间不互为翻译。δ(fi,ej)为源语言的单词fi和目标语言的初选词ej之间的翻译参数,δ(fi,ej)=1时,源语言的单词fi和目标语言的初选词ej之间互为翻译,δ(fi,ej)=0时,源语言的单词fi和目标语言的初选词ej之间不互为翻译。
进一步地,所述统计机器翻译模型的翻译特征还可以包括N元语言模型特征和/或词惩罚特征。由于在RNN翻译方法中通过求译文中每个单词的翻译概率的乘积来计算所述单词的得分,而每个单词的翻译概率都是一个小于1的值,因此译文长度越长得分越低,反之译文长度越短得分越高,这导致RNN翻译系统更倾向于生成短译文。因此,通过词惩罚特征对过短的翻译结果进行惩罚,可以优化翻译结果的长度,生成长度适宜的译文。
这里,利用大规模单语语料库通过N元语言模型特征优化了翻译结果局部的流利程度。需要说明的是,N元语言模型中当前词出现的概率仅和其之前的N-1个词有关系。例如,当N取值为2时,当前词的出现概率仅和其前一个词有关系。具体地,可通过以下公式(4)执行所述计算每个所述初选词的N元语言模型特征的处理:
其中,hlm为N元语言模型特征,ej为目标语言的语句中第j个初选词,ej-1,…,ej-n+1为获取初选词ej之前预测出的前n-1个候选词。
最后,可通过以下公式(5)执行所述根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值的处理:
其中,m为翻译特征的个数,hi(f,e)为第i个翻译特征,λi为第i个翻译特征对应的特征权重,e为所述初选词,f为源语言的单词,p(e|f)为初选词e的翻译概率。需要说明的是,公式(5)中的e′是求和函数中的临时变量,和求和符号一起使用表示对所有的初选词求和。
在具体的实现方式中,依据公式(1)至公式(4)分别计算得到的神经网络翻译模型的翻译特征hrnn、统计机器翻译模型的翻译特征htp1、htp2和hlm,将上述多个翻译特征以及各自对应的特征权重代入公式(5),计算每个所述初选词的得分(即翻译概率值),就可以采用得分排序方式从多个初选词中选取候选词。这里,翻译特征不同,其对应的特征权重所起的作用也不同。在实际应用中,由于源语言的单词f一旦给定,公式(5)中分母部分的计算结果是一个常量,因此只需计算分子部分即可。
在步骤S140,根据预测得到的候选词生成目标语言的语句。
为了能够生成可读性及流畅性强的语句,进一步地,步骤S130还可以包括:依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系。仍以图2为例,由于任一所述候选词的预测处理均是基于神经网络翻译模型的,而神经网络翻译模型的重要特点就是考虑上下文的关联关系,使得翻译结果更加流畅。图2示出的候选词之间的箭头线代表了候选词之间的关联关系。例如,位于第二位的候选词taxi与位于第一位的候选词the是相关联的。
相应地,根据本发明的示例性实施例,步骤S140包括:根据具有关联关系的所有候选词生成目标语言的语句。例如,参照图2,重复执行前述候选词的预测处理步骤,直至预测到设定的结束词(EOS)为止。图2中使用栈的结构描述候选词及各个候选词之间的关系,第一个栈(Stack-1)中的词语是位于目标语言的语句中第一位的候选词,第i个栈(Stack-i)的词语是位于目标语言的语句中第i位的候选词,依据图2示出的候选词之间的箭头线就可以查找到具有关联关系的所有候选词,从而生成目标语言的语句。
本发明实施例提供的基于神经网络模型的翻译方法,在获取源语言的语句之后,对其进行编码得到向量序列,再基于向量序列逐词地预测目标语言中相应的候选词,在任一所述候选词的预测处理过程中,首先从预设的翻译词表中获取多个初选词,基于结合了神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征的对数线性模型,计算每个所述初选词的翻译概率,根据翻译概率计算结果从多个初选词选取候选词,最终,根据经上述预测处理得到候选词,从而自动地生成长度适宜的目标语言语句,提高了翻译结果的准确度、可读性和流畅性。同时,降低了漏词率。
实施例二
图4是示出本发明实施例二的基于神经网络模型的翻译装置的逻辑框图。可用于执行如图1所示实施例的方法步骤。
参照图4,所述基于神经网络模型的翻译装置包括语句获取模块410、语句编码模块420、候选词预测模块430和语句生成模块440。
语句获取模块410用于获取源语言的语句。
进一步地,所述语句获取模块410可包括以下单元之一:
文本数据接收单元(未示出)用于接收文本数据,并将所述文本数据作为所述源语言的语句。
语音数据接收及识别单元(未示出)用于接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句。
图片数据接收及识别单元(未示出)用于接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
语句编码模块420用于将所述源语言的语句进行编码得到向量序列。
具体地,所述语句编码模块420用于对源语言的语句进行分词,将分得的多个分词分别转换成与每个所述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
候选词预测模块430用于基于所述向量序列逐词地预测目标语言中相应的候选词。其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
根据本发明的示例性实施例,所述候选词预测模块430可包括:
初选词获取单元(未示出)用于从预设的翻译词表中获取M个词语作为初选词,M为正整数。
神经网络模型特征计算单元(未示出)用于根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征。
统计机器模型特征计算单元(未示出)用于计算每个所述初选词的统计机器翻译模型的翻译特征。
翻译概率计算单元(未示出)用于根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值。
候选词选取单元(未示出)用于对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
为了优化单词互译程度,提高翻译质量,优选地,所述统计机器翻译模型的翻译特征可包括双向单词翻译模型特征。
可选地,所述统计机器翻译模型的翻译特征还包括N元语言模型特征和/或词惩罚特征。通过N元语言模型特征优化了翻译结果局部的流利程度,结合词惩罚特征,对过短的翻译结果进行惩罚,进而优化翻译结果长度。
语句生成模块440用于根据预测得到的候选词生成目标语言的语句。
为了能够生成可读性及流畅性强的语句,进一步地,所述候选词预测模块430还可以包括:候选词关联单元(未示出)用于依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系。
相应地,所述语句生成模块440用于根据具有关联关系的所有候选词生成目标语言的语句。
本发明实施例提供的基于神经网络模型的翻译装置,在获取源语言的语句之后,对其进行编码得到向量序列,再基于向量序列逐词地预测目标语言中相应的候选词,在任一所述候选词的预测处理过程中,首先从预设的翻译词表中获取多个初选词,基于结合了神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征的对数线性模型,计算每个所述初选词的翻译概率,根据翻译概率计算结果从多个初选词选取候选词,最终,根据经上述预测处理得到候选词,从而自动地生成长度适宜的目标语言的语句,显著提升了翻译质量,同时提高了翻译结果的可读性和流畅性,降低了漏词率。
在本发明所提供的几个实施例中,应该理解到,所公开的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (14)
1.一种基于神经网络模型的翻译方法,其特征在于,所述方法包括:
获取源语言的语句;
将所述源语言的语句进行编码,得到向量序列;
基于所述向量序列逐词地预测目标语言中相应的候选词;
根据预测得到的候选词生成目标语言的语句,
其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
2.根据权利要求1所述的方法,其特征在于,所述从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词的处理包括:
从预设的翻译词表中获取M个词语作为初选词,M为正整数,
根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征,
计算每个所述初选词的统计机器翻译模型的翻译特征,
根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值,
对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
3.根据权利要求2所述的方法,其特征在于,所述基于所述向量序列逐词地预测目标语言中相应的候选词的处理还包括:依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系,
所述根据预测得到的候选词生成目标语言的语句的处理包括:
根据具有关联关系的所有候选词生成目标语言的语句。
4.根据权利要求3所述的方法,其特征在于,所述统计机器翻译模型的翻译特征包括双向单词翻译模型特征。
5.根据权利要求4所述的方法,其特征在于,所述统计机器翻译模型的翻译特征还包括N元语言模型特征和/或词惩罚特征。
6.根据权利要求1~5中任一项所述的方法,其特征在于,所述将所述源语言的语句进行编码得到向量序列的处理包括:
对源语言的语句进行分词,
将分得的多个分词分别转换成与每个所述分词对应的词向量,
由多个分词各自对应的词向量得到所述向量序列。
7.根据权利要求6所述的方法,其特征在于,所述获取源语言的语句的处理包括以下处理之一:
接收文本数据,并将所述文本数据作为所述源语言的语句,
接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句,
接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
8.一种基于神经网络模型的翻译装置,其特征在于,所述装置包括:
语句获取模块,用于获取源语言的语句;
语句编码模块,用于将所述源语言的语句进行编码得到向量序列;
候选词预测模块,用于基于所述向量序列逐词地预测目标语言中相应的候选词;
语句生成模块,用于根据预测得到的候选词生成目标语言的语句,
其中,在任一所述候选词的预测处理中,从预设的翻译词表中获取多个初选词,并且基于对数线性模型计算每个所述初选词的翻译概率,以根据所述翻译概率从所述多个初选词选取所述候选词,所述对数线性模型根据神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征建立的。
9.根据权利要求8所述的装置,其特征在于,所述候选词预测模块包括:
初选词获取单元,用于从预设的翻译词表中获取M个词语作为初选词,M为正整数,
神经网络模型特征计算单元,用于根据所述向量序列和在获取M个初选词之前预测出的候选词,计算每个所述初选词的神经网络翻译模型的翻译特征,
统计机器模型特征计算单元,用于计算每个所述初选词的统计机器翻译模型的翻译特征,
翻译概率计算单元,用于根据计算得到的神经网络翻译模型的翻译特征和统计机器翻译模型的翻译特征,结合所述对数线性模型计算每个所述初选词的翻译概率值,
候选词选取单元,用于对计算得到的M个翻译概率值进行排序,并将与前N位的翻译概率值相应的初选词选取为所述候选词,N为正整数,且N<M。
10.根据权利要求9所述的装置,其特征在于,所述候选词预测模块还包括:候选词关联单元,用于依据所述神经网络翻译模型的翻译特征标记所述候选词之间的关联关系,
所述语句生成模块,用于根据具有关联关系的所有候选词生成目标语言的语句。
11.根据权利要求10所述的装置,其特征在于,所述统计机器翻译模型的翻译特征包括双向单词翻译模型特征。
12.根据权利要求11所述的装置,其特征在于,所述统计机器翻译模型的翻译特征还包括N元语言模型特征和/或词惩罚特征。
13.根据权利要求8~12中任一项所述的装置,其特征在于,所述语句编码模块用于对源语言的语句进行分词,将分得的多个分词分别转换成与每个所述分词对应的词向量,由多个分词各自对应的词向量得到所述向量序列。
14.根据权利要求13所述的装置,其特征在于,所述语句获取模块包括以下单元之一:
文本数据接收单元,用于接收文本数据,并将所述文本数据作为所述源语言的语句,
语音数据接收及识别单元,用于接收语音数据,对所述语音数据进行语音识别得到经语音识别的文本数据,并将所述经语音识别的文本数据作为所述源语言的语句,
图片数据接收及识别单元,用于接收图片数据,对所述图片数据进行光学字符识别OCR得到经OCR识别的文本数据,并将所述经OCR识别的文本数据作为所述源语言的语句。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510455270.6A CN105068998B (zh) | 2015-07-29 | 2015-07-29 | 基于神经网络模型的翻译方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510455270.6A CN105068998B (zh) | 2015-07-29 | 2015-07-29 | 基于神经网络模型的翻译方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105068998A true CN105068998A (zh) | 2015-11-18 |
CN105068998B CN105068998B (zh) | 2017-12-15 |
Family
ID=54498372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510455270.6A Active CN105068998B (zh) | 2015-07-29 | 2015-07-29 | 基于神经网络模型的翻译方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105068998B (zh) |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105740226A (zh) * | 2016-01-15 | 2016-07-06 | 南京大学 | 使用树形神经网络和双向神经网络实现中文分词 |
CN106066851A (zh) * | 2016-06-06 | 2016-11-02 | 清华大学 | 一种考虑评价指标的神经网络训练方法及装置 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106844352A (zh) * | 2016-12-23 | 2017-06-13 | 中国科学院自动化研究所 | 基于神经机器翻译系统的单词预测方法及系统 |
CN107193807A (zh) * | 2017-05-12 | 2017-09-22 | 北京百度网讯科技有限公司 | 基于人工智能的语言转换处理方法、装置及终端 |
CN107357789A (zh) * | 2017-07-14 | 2017-11-17 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
CN107368476A (zh) * | 2017-07-25 | 2017-11-21 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN107423290A (zh) * | 2017-04-19 | 2017-12-01 | 厦门大学 | 一种基于层次结构的神经网络机器翻译模型 |
CN107608973A (zh) * | 2016-07-12 | 2018-01-19 | 华为技术有限公司 | 一种基于神经网络的翻译方法及装置 |
CN107632981A (zh) * | 2017-09-06 | 2018-01-26 | 沈阳雅译网络技术有限公司 | 一种引入源语组块信息编码的神经机器翻译方法 |
WO2018032765A1 (zh) * | 2016-08-19 | 2018-02-22 | 华为技术有限公司 | 序列转换方法及装置 |
CN107818086A (zh) * | 2016-09-13 | 2018-03-20 | 株式会社东芝 | 机器翻译方法和装置 |
CN108073565A (zh) * | 2016-11-10 | 2018-05-25 | 株式会社Ntt都科摩 | 词语规范化的方法和设备及机器翻译方法和设备 |
CN108255817A (zh) * | 2018-01-19 | 2018-07-06 | 中国科学院软件研究所 | 基于web检索的实体翻译方法 |
CN108320740A (zh) * | 2017-12-29 | 2018-07-24 | 深圳和而泰数据资源与云技术有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN108595443A (zh) * | 2018-03-30 | 2018-09-28 | 浙江吉利控股集团有限公司 | 同声翻译方法、装置、智能车载终端及存储介质 |
CN108628849A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 用rbh神经网络模型翻译德语和普通话的方法 |
CN108628850A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 用rbh神经网络模型翻译四川口音和德语的方法 |
CN108628843A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 基于rbh神经网络模型翻译粤语口音和德语的app |
CN108804427A (zh) * | 2018-06-12 | 2018-11-13 | 深圳市译家智能科技有限公司 | 语音机器翻译方法及装置 |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
CN108875926A (zh) * | 2017-10-30 | 2018-11-23 | 上海寒武纪信息科技有限公司 | 语言翻译方法及相关产品 |
CN108874786A (zh) * | 2018-06-12 | 2018-11-23 | 深圳市译家智能科技有限公司 | 机器翻译方法及装置 |
CN108920473A (zh) * | 2018-07-04 | 2018-11-30 | 中译语通科技股份有限公司 | 一种基于同类词与同义词替换的数据增强机器翻译方法 |
RU2692049C1 (ru) * | 2017-12-29 | 2019-06-19 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система перевода исходного предложения на первом языке целевым предложением на втором языке |
WO2019113783A1 (zh) * | 2017-12-11 | 2019-06-20 | 中译语通科技股份有限公司 | 一种机器翻译数字泛化方法及系统、计算机、计算机程序 |
CN110023963A (zh) * | 2016-10-26 | 2019-07-16 | 渊慧科技有限公司 | 使用神经网络处理文本序列 |
RU2699396C1 (ru) * | 2018-11-19 | 2019-09-05 | Общество С Ограниченной Ответственностью "Инвек" | Нейронная сеть для интерпретирования предложений на естественном языке |
WO2019205564A1 (zh) * | 2018-04-24 | 2019-10-31 | 中译语通科技股份有限公司 | 一种基于胶囊的神经网络机器翻译系统、信息数据处理终端 |
CN110858268A (zh) * | 2018-08-20 | 2020-03-03 | 北京紫冬认知科技有限公司 | 一种检测语音翻译系统中不流畅现象的方法及系统 |
CN110929504A (zh) * | 2018-09-20 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 语句诊断方法、装置和系统 |
CN111401084A (zh) * | 2018-02-08 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 一种机器翻译的方法、设备以及计算机可读存储介质 |
CN111738025A (zh) * | 2020-08-20 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 基于人工智能的翻译方法、装置、电子设备和存储介质 |
CN112084766A (zh) * | 2019-06-12 | 2020-12-15 | 阿里巴巴集团控股有限公司 | 文本处理方法和装置、存储介质和处理器 |
CN112447168A (zh) * | 2019-09-05 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 语音识别系统、方法、音箱、显示设备和交互平台 |
CN112668347A (zh) * | 2021-03-17 | 2021-04-16 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、设备及计算机可读存储介质 |
CN113553862A (zh) * | 2016-09-26 | 2021-10-26 | 谷歌有限责任公司 | 神经机器翻译系统 |
US11869530B2 (en) | 2016-09-06 | 2024-01-09 | Deepmind Technologies Limited | Generating audio using neural networks |
US11948066B2 (en) | 2016-09-06 | 2024-04-02 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
US11990137B2 (en) | 2018-09-13 | 2024-05-21 | Shanghai Cambricon Information Technology Co., Ltd. | Image retouching method and terminal device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1595398A (zh) * | 2003-09-09 | 2005-03-16 | 株式会社国际电气通信基础技术研究所 | 选择改良多个候补译文所生成的最优译文的机器翻译系统 |
US20060136193A1 (en) * | 2004-12-21 | 2006-06-22 | Xerox Corporation. | Retrieval method for translation memories containing highly structured documents |
CN101194253A (zh) * | 2005-06-14 | 2008-06-04 | 微软公司 | 来源于单语和可用双语语料库的搭配翻译 |
CN102681985A (zh) * | 2012-05-16 | 2012-09-19 | 中国科学院计算技术研究所 | 一种面向形态丰富语言的翻译方法和系统 |
CN104102630A (zh) * | 2014-07-16 | 2014-10-15 | 复旦大学 | 一种针对中文社交网络中中英文混合文本的规范方法 |
-
2015
- 2015-07-29 CN CN201510455270.6A patent/CN105068998B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1595398A (zh) * | 2003-09-09 | 2005-03-16 | 株式会社国际电气通信基础技术研究所 | 选择改良多个候补译文所生成的最优译文的机器翻译系统 |
US20060136193A1 (en) * | 2004-12-21 | 2006-06-22 | Xerox Corporation. | Retrieval method for translation memories containing highly structured documents |
CN101194253A (zh) * | 2005-06-14 | 2008-06-04 | 微软公司 | 来源于单语和可用双语语料库的搭配翻译 |
CN102681985A (zh) * | 2012-05-16 | 2012-09-19 | 中国科学院计算技术研究所 | 一种面向形态丰富语言的翻译方法和系统 |
CN104102630A (zh) * | 2014-07-16 | 2014-10-15 | 复旦大学 | 一种针对中文社交网络中中英文混合文本的规范方法 |
Cited By (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105740226A (zh) * | 2016-01-15 | 2016-07-06 | 南京大学 | 使用树形神经网络和双向神经网络实现中文分词 |
CN106066851A (zh) * | 2016-06-06 | 2016-11-02 | 清华大学 | 一种考虑评价指标的神经网络训练方法及装置 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106126507B (zh) * | 2016-06-22 | 2019-08-09 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN107608973A (zh) * | 2016-07-12 | 2018-01-19 | 华为技术有限公司 | 一种基于神经网络的翻译方法及装置 |
WO2018032765A1 (zh) * | 2016-08-19 | 2018-02-22 | 华为技术有限公司 | 序列转换方法及装置 |
US11288458B2 (en) | 2016-08-19 | 2022-03-29 | Huawei Technologies Co., Ltd. | Sequence conversion method and apparatus in natural language processing based on adjusting a weight associated with each word |
US11869530B2 (en) | 2016-09-06 | 2024-01-09 | Deepmind Technologies Limited | Generating audio using neural networks |
US11948066B2 (en) | 2016-09-06 | 2024-04-02 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
CN107818086A (zh) * | 2016-09-13 | 2018-03-20 | 株式会社东芝 | 机器翻译方法和装置 |
CN107818086B (zh) * | 2016-09-13 | 2021-08-10 | 株式会社东芝 | 机器翻译方法和装置 |
CN113553862A (zh) * | 2016-09-26 | 2021-10-26 | 谷歌有限责任公司 | 神经机器翻译系统 |
CN110023963B (zh) * | 2016-10-26 | 2023-05-30 | 渊慧科技有限公司 | 使用神经网络处理文本序列 |
CN110023963A (zh) * | 2016-10-26 | 2019-07-16 | 渊慧科技有限公司 | 使用神经网络处理文本序列 |
CN108073565A (zh) * | 2016-11-10 | 2018-05-25 | 株式会社Ntt都科摩 | 词语规范化的方法和设备及机器翻译方法和设备 |
CN106844352A (zh) * | 2016-12-23 | 2017-06-13 | 中国科学院自动化研究所 | 基于神经机器翻译系统的单词预测方法及系统 |
CN106844352B (zh) * | 2016-12-23 | 2019-11-08 | 中国科学院自动化研究所 | 基于神经机器翻译系统的单词预测方法及系统 |
CN108628849A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 用rbh神经网络模型翻译德语和普通话的方法 |
CN108628850A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 用rbh神经网络模型翻译四川口音和德语的方法 |
CN108628843A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 基于rbh神经网络模型翻译粤语口音和德语的app |
CN107423290A (zh) * | 2017-04-19 | 2017-12-01 | 厦门大学 | 一种基于层次结构的神经网络机器翻译模型 |
US10664666B2 (en) | 2017-05-12 | 2020-05-26 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Language conversion method and device based on artificial intelligence and terminal |
CN107193807A (zh) * | 2017-05-12 | 2017-09-22 | 北京百度网讯科技有限公司 | 基于人工智能的语言转换处理方法、装置及终端 |
CN107357789B (zh) * | 2017-07-14 | 2020-10-02 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
CN107357789A (zh) * | 2017-07-14 | 2017-11-17 | 哈尔滨工业大学 | 融合多语编码信息的神经机器翻译方法 |
US11928439B2 (en) | 2017-07-25 | 2024-03-12 | Tencent Technology (Shenzhen) Company Limited | Translation method, target information determining method, related apparatus, and storage medium |
WO2019019916A1 (zh) * | 2017-07-25 | 2019-01-31 | 腾讯科技(深圳)有限公司 | 翻译的方法、目标信息确定的方法及相关装置、存储介质 |
CN107368476A (zh) * | 2017-07-25 | 2017-11-21 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN107632981A (zh) * | 2017-09-06 | 2018-01-26 | 沈阳雅译网络技术有限公司 | 一种引入源语组块信息编码的神经机器翻译方法 |
US12050887B2 (en) | 2017-10-30 | 2024-07-30 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
US11922132B2 (en) | 2017-10-30 | 2024-03-05 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
CN108875926A (zh) * | 2017-10-30 | 2018-11-23 | 上海寒武纪信息科技有限公司 | 语言翻译方法及相关产品 |
US11762631B2 (en) | 2017-10-30 | 2023-09-19 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
WO2019113783A1 (zh) * | 2017-12-11 | 2019-06-20 | 中译语通科技股份有限公司 | 一种机器翻译数字泛化方法及系统、计算机、计算机程序 |
US10929619B2 (en) | 2017-12-11 | 2021-02-23 | Glabal Tone Communication Technology Co., Ltd. | Numerical generalization method for machine translation and system, computer and computer program thereof |
US10789431B2 (en) | 2017-12-29 | 2020-09-29 | Yandex Europe Ag | Method and system of translating a source sentence in a first language into a target sentence in a second language |
RU2692049C1 (ru) * | 2017-12-29 | 2019-06-19 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система перевода исходного предложения на первом языке целевым предложением на втором языке |
CN108320740A (zh) * | 2017-12-29 | 2018-07-24 | 深圳和而泰数据资源与云技术有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN108255817B (zh) * | 2018-01-19 | 2020-06-12 | 中国科学院软件研究所 | 基于web检索的实体翻译方法 |
CN108255817A (zh) * | 2018-01-19 | 2018-07-06 | 中国科学院软件研究所 | 基于web检索的实体翻译方法 |
CN111401084A (zh) * | 2018-02-08 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 一种机器翻译的方法、设备以及计算机可读存储介质 |
CN108595443A (zh) * | 2018-03-30 | 2018-09-28 | 浙江吉利控股集团有限公司 | 同声翻译方法、装置、智能车载终端及存储介质 |
WO2019205564A1 (zh) * | 2018-04-24 | 2019-10-31 | 中译语通科技股份有限公司 | 一种基于胶囊的神经网络机器翻译系统、信息数据处理终端 |
CN108874785B (zh) * | 2018-06-01 | 2020-11-03 | 清华大学 | 一种翻译处理方法及系统 |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
CN108874786B (zh) * | 2018-06-12 | 2022-05-31 | 深圳市译家智能科技有限公司 | 机器翻译方法及装置 |
CN108804427A (zh) * | 2018-06-12 | 2018-11-13 | 深圳市译家智能科技有限公司 | 语音机器翻译方法及装置 |
CN108874786A (zh) * | 2018-06-12 | 2018-11-23 | 深圳市译家智能科技有限公司 | 机器翻译方法及装置 |
CN108920473A (zh) * | 2018-07-04 | 2018-11-30 | 中译语通科技股份有限公司 | 一种基于同类词与同义词替换的数据增强机器翻译方法 |
CN108920473B (zh) * | 2018-07-04 | 2022-08-09 | 中译语通科技股份有限公司 | 一种基于同类词与同义词替换的数据增强机器翻译方法 |
CN110858268A (zh) * | 2018-08-20 | 2020-03-03 | 北京紫冬认知科技有限公司 | 一种检测语音翻译系统中不流畅现象的方法及系统 |
CN110858268B (zh) * | 2018-08-20 | 2024-03-08 | 北京紫冬认知科技有限公司 | 一种检测语音翻译系统中不流畅现象的方法及系统 |
US12094456B2 (en) | 2018-09-13 | 2024-09-17 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and system |
US12057110B2 (en) | 2018-09-13 | 2024-08-06 | Shanghai Cambricon Information Technology Co., Ltd. | Voice recognition based on neural networks |
US12057109B2 (en) | 2018-09-13 | 2024-08-06 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
US11996105B2 (en) | 2018-09-13 | 2024-05-28 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
US11990137B2 (en) | 2018-09-13 | 2024-05-21 | Shanghai Cambricon Information Technology Co., Ltd. | Image retouching method and terminal device |
CN110929504B (zh) * | 2018-09-20 | 2023-05-30 | 阿里巴巴集团控股有限公司 | 语句诊断方法、装置和系统 |
CN110929504A (zh) * | 2018-09-20 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 语句诊断方法、装置和系统 |
RU2699396C1 (ru) * | 2018-11-19 | 2019-09-05 | Общество С Ограниченной Ответственностью "Инвек" | Нейронная сеть для интерпретирования предложений на естественном языке |
CN112084766B (zh) * | 2019-06-12 | 2024-01-23 | 阿里巴巴集团控股有限公司 | 文本处理方法和装置、存储介质和处理器 |
CN112084766A (zh) * | 2019-06-12 | 2020-12-15 | 阿里巴巴集团控股有限公司 | 文本处理方法和装置、存储介质和处理器 |
CN112447168A (zh) * | 2019-09-05 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 语音识别系统、方法、音箱、显示设备和交互平台 |
CN111738025A (zh) * | 2020-08-20 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 基于人工智能的翻译方法、装置、电子设备和存储介质 |
CN112668347A (zh) * | 2021-03-17 | 2021-04-16 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105068998B (zh) | 2017-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105068998A (zh) | 基于神经网络模型的翻译方法及装置 | |
CN108416058B (zh) | 一种基于Bi-LSTM输入信息增强的关系抽取方法 | |
CN111753557B (zh) | 融合emd最小化双语词典的汉-越无监督神经机器翻译方法 | |
CN111061861B (zh) | 一种基于XLNet的文本摘要自动生成方法 | |
CN104615589A (zh) | 训练命名实体识别模型的方法、命名实体识别方法及装置 | |
CN110717341B (zh) | 一种以泰语为枢轴的老-汉双语语料库构建方法及装置 | |
CN111401079A (zh) | 神经网络机器翻译模型的训练方法、装置及存储介质 | |
CN111401064B (zh) | 一种命名实体识别方法、装置及终端设备 | |
CN114818891B (zh) | 小样本多标签文本分类模型训练方法及文本分类方法 | |
CN110427619B (zh) | 一种基于多通道融合与重排序的中文文本自动校对方法 | |
CN112395412B (zh) | 文本分类的方法、装置以及计算机可读介质 | |
CN105068997A (zh) | 平行语料的构建方法及装置 | |
CN112580373A (zh) | 一种高质量蒙汉无监督神经机器翻译方法 | |
CN112818110B (zh) | 文本过滤方法、设备及计算机存储介质 | |
CN112926344A (zh) | 基于词向量替换数据增强的机器翻译模型训练方法、装置、电子设备及存储介质 | |
CN113468883B (zh) | 位置信息的融合方法、装置及计算机可读存储介质 | |
Sun et al. | Knowledge distillation from bert in pre-training and fine-tuning for polyphone disambiguation | |
CN107341152B (zh) | 一种参数输入的方法及装置 | |
Tran et al. | Hierarchical transformer encoders for Vietnamese spelling correction | |
CN110321568A (zh) | 基于融合词性和位置信息的汉-越卷积神经机器翻译方法 | |
Shi et al. | Dual-feedback knowledge retrieval for task-oriented dialogue systems | |
CN112926334A (zh) | 确定词表示向量的方法、装置及电子设备 | |
Laitonjam et al. | Transliteration of english loanwords and named-entities to manipuri: Phoneme vs grapheme representation | |
US20230306201A1 (en) | Natural language processing techniques using multi-context self-attention machine learning frameworks | |
CN112836526B (zh) | 一种基于门控机制的多语言神经机器翻译方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |