CN108388561A - 神经网络机器翻译方法和装置 - Google Patents
神经网络机器翻译方法和装置 Download PDFInfo
- Publication number
- CN108388561A CN108388561A CN201710063687.7A CN201710063687A CN108388561A CN 108388561 A CN108388561 A CN 108388561A CN 201710063687 A CN201710063687 A CN 201710063687A CN 108388561 A CN108388561 A CN 108388561A
- Authority
- CN
- China
- Prior art keywords
- sequence
- primary election
- candidate target
- statement
- conditional probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Machine Translation (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本发明公开了神经网络机器翻译方法和装置,所述方法包括:获取待翻译的源语句;将源语句转换为向量序列;根据预先得到的、基于目标语句数据库所构建的前缀树,确定出向量序列对应的候选对象,根据候选对象确定出作为翻译结果的目标语句。应用本发明所述方案,能够提升翻译速度等。
Description
【技术领域】
本发明涉及计算机应用技术,特别涉及神经网络机器翻译方法和装置。
【背景技术】
循环神经网络及其衍生网络作为目前最流行的深度学习网络结构,凭借着有效记忆历史信息等特点,在图像识别、语音识别以及自然语言处理等方面得到了越来越广泛的应用。
以翻译为例,神经网络机器翻译是近些年兴起的一种全新的机器翻译方式,相比于传统的统计翻译模型,翻译质量得到了很大地提升。
神经网络机器翻译主要包括编码和解码两个过程,编码过程主要是指将待翻译的源语句转换为向量序列,解码过程主要是指根据向量序列确定出作为翻译结果的目标语句。比如,源语句可为一种语言,目标语句可为另外一种语言。
其中,在解码过程中,在针对向量序列中的每个待翻译的词确定候选对象时,均需要针对词库中包括的所有词分别计算条件概率,而词库中包括的词的数量巨大,相应地,所需耗费的计算量也就会非常大,从而降低了翻译速度。
【发明内容】
有鉴于此,本发明提供了神经网络机器翻译方法和装置,能够提升翻译速度。
具体技术方案如下:
一种神经网络机器翻译方法,包括:
获取待翻译的源语句;
将所述源语句转换为向量序列;
根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。
一种神经网络机器翻译装置,包括:编码单元和解码单元;
所述编码单元,用于获取待翻译的源语句,将所述源语句转换为向量序列,并将所述向量序列发送给所述解码单元;
所述解码单元,用于根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。
基于上述介绍可以看出,采用本发明所述方案,可预先基于目标语句数据库构建前缀树,进而在翻译过程中,可根据前缀树来确定候选对象,从而相比于现有技术减少了计算量,进而提升了翻译速度。
【附图说明】
图1为本发明所述神经网络机器翻译方法实施例的流程图。
图2为本发明所述前缀树的示意图。
图3为本发明所述解码过程的流程图。
图4为本发明所述神经网络机器翻译装置实施例的组成结构示意图。
【具体实施方式】
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案作进一步地详细说明。
实施例一
图1为本发明所述神经网络机器翻译方法实施例的流程图,如图1所示,包括以下具体实现方式。
在11中,获取待翻译的源语句。
如何获取不作限制。
在12中,将源语句转换为向量序列。
即对源语句进行编码,从而得到所需的向量序列。
现有技术中,通常采用长短时间记忆网络(LSTM,Long Short Term Memory)模型来对源语句进行编码,这种模型的网络结构复杂,会导致编码速度较慢,从而降低了翻译速度。
针对上述问题,本实施例中提出,可采用门控递归单元(GRU,Gated RecurrentUnit)模型来代替LSTM模型,从而降低了模型的复杂度,进而提升了翻译速度。
即本实施例中,通过GRU模型,将源语句转换为向量序列,如何进行转换为现有技术。
在13中,根据预先得到的、基于目标语句数据库所构建的前缀树,确定出向量序列对应的候选对象,根据候选对象确定出作为翻译结果的目标语句。
即将向量序列解码为目标语句。
在实际应用中,可首先通过人工等方式构建出一个目标语句数据库,目标语句数据库中具体包括哪些语句可根据实际需要而定。之后,可基于所构建的目标语句数据库,进一步构建出前缀树。
前缀树,又可称为字典树等,是一种树形结构。
举例说明:
为简化表述,用每个字母来分别代表一个词;
假设目标语句数据库中包括以下语句:{inn、int、ate、age、adv、ant};
那么根据该目标语句数据库,可构建出图2所示前缀树,即图2为本发明所述前缀树的示意图。
这样,基于所构建的前缀树,针对向量序列中的各待翻译的词,可依次进行以下处理:
分别将最新获取到的各候选对象作为前缀,从前缀树中查找出位于该前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;
若确定向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为目标语句输出,M为正整数,M小于或等于N。
特殊地,对于向量序列中的第一个待翻译的词,由于此时还不存在候选对象,因此可进行以下处理:
将前缀树中位于树根之后的第一级节点上的词均作为初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。
综合上述介绍,图3为本发明所述解码过程的流程图,如图3所示,包括以下具体实现方式。
在31中,针对向量序列中的第一个待翻译的词,将前缀树中位于树根之后的第一级节点上的词均作为初选对象。
以图2所示为例,位于树根之后的第一级节点即指“i”和“a”对应的节点。
在32中,分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数。
N的具体取值可根据实际需要而定。基于哪些信息来计算条件概率为现有技术。
在33中,确定向量序列中是否存在下一个待翻译的词,如果是,则执行34,否则,执行35。
假设向量序列中共包括五个待翻译的词,当前处理的即为第五个词,那么则不存在下一个待翻译的词,相应地,后续执行35,否则,执行34。
在34中,针对下一个待翻译的词,分别将最新获取到的各候选对象作为前缀,从前缀树中查找出位于该前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象,之后重复执行32。
以图2所示为例,假设最新获取到的候选对象为“in”和“at”,将其分别作为前缀,查找下一级节点,并通过拼接可得到“inn”、“int”和“ate”,将inn”、“int”和“ate”均作为初选对象。
在35中,将最新获取到的、排序后处于前M位的候选对象作为目标语句输出,M为正整数,M小于或等于N,之后结束流程。
如果针对向量序列中的各待翻译的词均已处理完毕,则可直接将最新获取到的、排序后处于前M位的候选对象作为所需的目标语句输出。
M的具体取值可根据实际需要而定,比如,可取值为一,也可以大于一,但不会超过N。
通过上述介绍可以看出,采用本实施例所述方案,可预先基于目标语句数据库构建前缀树,进而在翻译过程中,可根据前缀树来查找和确定初选对象,并计算初选对象的条件概率以确定出候选对象,相比于现有技术中针对词库中包括的所有词分别计算条件概率的方式,显著地减少了计算量,从而提升了翻译速度。
而且,基于上述前缀树的构建方式及使用方式可知,最终得到的目标语句一定会是目标语句数据库中的语句,从而实现了定向翻译。
另外,现有技术中,通常采用softmax算法来计算各初选对象的条件概率,计算复杂度很高,针对这一问题,本实施例中提出,可以采用self-normalization算法来计算出各初选对象的条件概率,具体实现为现有技术,从而不但降低了计算复杂度,而且可以与本发明所述解码方式很好地进行匹配,进而进一步提升了翻译速度。
再有,图3所示流程的32中,在按照条件概率的取值从大到小的顺序对各初选对象进行排序,并得到排序后处于前N位的初选对象之后,可进一步进行剪枝处理,即对这N个初选对象进行筛选,从中筛选出条件概率大于预定阈值的初始对象,将筛选出的初始对象作为候选对象。
所述阈值的具体取值可根据实际需要而定,
由于条件概率过小的候选对象,后续处理过程中被保留下来的可能性很小,所以可筛选掉这类候选对象,从而进一步减少了后续的计算量,进而进一步提升了翻译速度。
本领域技术人员公知,在编码和解码过程中,会涉及到大量的矩阵运算,为进一步提升翻译速度,本实施例中提出,对于稀疏矩阵,可采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,可采用因特尔数学核心函数库(Intel Math KernelLibrary)进行多线程并发的矩阵运算,具体实现均为现有技术。
另外,现有技术中,硬件设备普遍采用中央处理器(CPU,Central ProcessingUnit),这也限制了翻译速度,本实施例中,硬件设备可采用图形处理器(GPU,GraphicsProcessing Unit)或现场可编程门阵列(FPGA,Field Programmable Gate Array),即可在GPU或FPGA上运行本实施例所述方法,以便进一步提升翻译速度。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
实施例二
图4为本发明所述神经网络机器翻译装置实施例的组成结构示意图,如图4所示,包括:编码单元41和解码单元42。
编码单元41,用于获取待翻译的源语句,将源语句转换为向量序列,并将向量序列发送给解码单元42。
解码单元42,用于根据预先得到的、基于目标语句数据库所构建的前缀树,确定出向量序列对应的候选对象,根据候选对象确定出作为翻译结果的目标语句。
现有技术中,通常采用LSTM模型来对源语句进行编码,这种模型的网络结构复杂,会导致编码速度较慢,从而降低了翻译速度。
针对上述问题,本实施例中提出,编码单元41可通过GRU模型,将源语句转换为向量序列,从而降低了模型的复杂度,进而提升了翻译速度。
在实际应用中,可首先通过人工等方式构建出一个目标语句数据库,目标语句数据库中具体包括哪些语句可根据实际需要而定。之后,可基于所构建的目标语句数据库,进一步构建出前缀树。
这样,基于所构建的前缀树,解码单元42可针对向量序列中的各待翻译的词,依次进行以下处理:
分别将最新获取到的各候选对象作为前缀,从前缀树中查找出位于前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;
若确定向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为目标语句输出,M为正整数,M小于或等于N。
特殊地,对于向量序列中的第一个待翻译的词,由于此时还不存在候选对象,因此解码单元42可进行以下处理:
对于向量序列中的第一个待翻译的词,将前缀树中位于树根之后的第一级节点上的词均作为初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。
另外,现有技术中,通常采用softmax算法来计算各初选对象的条件概率,计算复杂度很高,从而影响了翻译速度,针对这一问题,本实施例中提出,解码单元42可采用self-normalization算法,分别计算出各初选对象的条件概率,以降低计算复杂度。
再有,解码单元42在按照条件概率的取值从大到小的顺序对各初选对象进行排序,并得到排序后处于前N位的初选对象之后,可进一步进行剪枝处理,即对这N个初选对象进行筛选,从中筛选出条件概率大于预定阈值的初始对象,将筛选出的初始对象作为候选对象。
本领域技术人员公知,在编码和解码过程中,会涉及到大量的矩阵运算,为进一步提升翻译速度,本实施例中提出,编码单元41在进行矩阵运算时,对于稀疏矩阵,可采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,可采用Intel MathKernel Library进行多线程并发的矩阵运算,同样地,解码单元42在进行矩阵运算时,对于稀疏矩阵,可采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,可采用Intel Math Kernel Library进行多线程并发的矩阵运算。
图4所示装置实施例的具体工作流程请参照前述方法实施例中的相应说明,此处不再赘述。
综上,本发明所述方案中提出了一种神经网络定向机器翻译方案,能够相比于现有技术显著地提升翻译速度。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (15)
1.一种神经网络机器翻译方法,其特征在于,包括:
获取待翻译的源语句;
将所述源语句转换为向量序列;
根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。
2.根据权利要求1所述的方法,其特征在于,
所述将所述源语句转换为向量序列包括:
通过门控递归单元GRU模型,将所述源语句转换为向量序列。
3.根据权利要求1所述的方法,其特征在于,
根据所述前缀树确定出所述向量序列对应的候选对象,根据所述候选对象确定出所述目标语句包括:
针对所述向量序列中的各待翻译的词,依次进行以下处理:
分别将最新获取到的各候选对象作为前缀,从所述前缀树中查找出位于所述前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;
若确定所述向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为所述目标语句输出,M为正整数,M小于或等于N。
4.根据权利要求3所述的方法,其特征在于,
该方法进一步包括:
对于所述向量序列中的第一个待翻译的词,将所述前缀树中位于树根之后的第一级节点上的词均作为初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。
5.根据权利要求3或4所述的方法,其特征在于,
该方法进一步包括:
针对排序后处于前N位的初始对象,从中筛选出条件概率大于预定阈值的初始对象,将筛选出的初始对象作为候选对象。
6.根据权利要求3或4所述的方法,其特征在于,
所述分别确定出各初选对象的条件概率包括:
采用self-normalization算法,分别确定出各初选对象的条件概率。
7.根据权利要求1、2、3或4所述的方法,其特征在于,
在所述方法的执行过程中,当进行矩阵运算时,对于稀疏矩阵,采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,采用Intel Math Kernel Library进行多线程并发的矩阵运算。
8.根据权利要求1所述的方法,其特征在于,
在图形处理器GPU或现场可编程门阵列FPGA上运行所述方法。
9.一种神经网络机器翻译装置,其特征在于,包括:编码单元和解码单元;
所述编码单元,用于获取待翻译的源语句,将所述源语句转换为向量序列,并将所述向量序列发送给所述解码单元;
所述解码单元,用于根据预先得到的、基于目标语句数据库所构建的前缀树,确定出所述向量序列对应的候选对象,根据所述候选对象确定出作为翻译结果的目标语句。
10.根据权利要求9所述的装置,其特征在于,
所述编码单元通过门控递归单元GRU模型,将所述源语句转换为向量序列。
11.根据权利要求9所述的装置,其特征在于,
所述解码单元针对所述向量序列中的各待翻译的词,依次进行以下处理:
分别将最新获取到的各候选对象作为前缀,从所述前缀树中查找出位于所述前缀的下一级节点上的词,将查找出的词分别拼接在对应的前缀上,得到各初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象,N为大于一的正整数;
若确定所述向量序列中不存在下一个待翻译的词,则将最新获取到的、排序后处于前M位的候选对象作为所述目标语句输出,M为正整数,M小于或等于N。
12.根据权利要求11所述的装置,其特征在于,
所述解码单元进一步用于,
对于所述向量序列中的第一个待翻译的词,将所述前缀树中位于树根之后的第一级节点上的词均作为初选对象;
分别确定出各初选对象的条件概率,并按照条件概率的取值从大到小的顺序对各初选对象进行排序,将排序后处于前N位的初选对象作为候选对象。
13.根据权利要求11或12所述的装置,其特征在于,
所述解码单元进一步用于,
针对排序后处于前N位的初始对象,从中筛选出条件概率大于预定阈值的初始对象,将筛选出的初始对象作为候选对象。
14.根据权利要求11或12所述的装置,其特征在于,
所述解码单元采用self-normalization算法,分别确定出各初选对象的条件概率。
15.根据权利要求9、10、11或12所述的装置,其特征在于,
所述编码单元和所述解码单元进一步用于,
当进行矩阵运算时,对于稀疏矩阵,采用向量拆分和线程池并行计算的方式进行矩阵运算,对于非稀疏矩阵,采用Intel Math Kernel Library进行多线程并发的矩阵运算。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710063687.7A CN108388561B (zh) | 2017-02-03 | 2017-02-03 | 神经网络机器翻译方法和装置 |
US15/881,601 US11403520B2 (en) | 2017-02-03 | 2018-01-26 | Neural network machine translation method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710063687.7A CN108388561B (zh) | 2017-02-03 | 2017-02-03 | 神经网络机器翻译方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108388561A true CN108388561A (zh) | 2018-08-10 |
CN108388561B CN108388561B (zh) | 2022-02-25 |
Family
ID=63047068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710063687.7A Active CN108388561B (zh) | 2017-02-03 | 2017-02-03 | 神经网络机器翻译方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11403520B2 (zh) |
CN (1) | CN108388561B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190578A (zh) * | 2018-09-13 | 2019-01-11 | 合肥工业大学 | 基于时域卷积网络与循环神经网络融合的手语视频翻译方法 |
CN111368564A (zh) * | 2019-04-17 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机可读存储介质和计算机设备 |
CN111382581A (zh) * | 2020-01-21 | 2020-07-07 | 沈阳雅译网络技术有限公司 | 一种机器翻译中的一次剪枝压缩方法 |
CN112257467A (zh) * | 2020-11-03 | 2021-01-22 | 沈阳雅译网络技术有限公司 | 一种面向gpu设备的神经机器翻译系统解码加速方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110895660B (zh) * | 2018-08-23 | 2024-05-17 | 澳门大学 | 一种基于句法依存关系动态编码的语句处理方法及装置 |
CN111476039B (zh) * | 2019-01-04 | 2023-06-30 | 深圳永德利科技股份有限公司 | 智能车载系统的即时语言翻译方法及相关产品 |
JP7472587B2 (ja) * | 2020-03-26 | 2024-04-23 | 富士通株式会社 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
CN111222347B (zh) * | 2020-04-15 | 2020-07-28 | 北京金山数字娱乐科技有限公司 | 语句翻译模型的训练方法及装置、语句翻译方法及装置 |
CN113946719A (zh) * | 2020-07-15 | 2022-01-18 | 华为技术有限公司 | 词补全方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103577394A (zh) * | 2012-07-31 | 2014-02-12 | 阿里巴巴集团控股有限公司 | 一种基于双数组搜索树的机器翻译方法和装置 |
CN104391842A (zh) * | 2014-12-18 | 2015-03-04 | 苏州大学 | 一种翻译模型构建方法和系统 |
CN104391820A (zh) * | 2014-11-25 | 2015-03-04 | 清华大学 | 基于fpga的通用浮点矩阵处理器硬件结构 |
CN106126596A (zh) * | 2016-06-20 | 2016-11-16 | 中国科学院自动化研究所 | 一种基于层次化记忆网络的问答方法 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106202068A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 基于多语平行语料的语义向量的机器翻译方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412728B1 (en) * | 2011-09-26 | 2013-04-02 | Google Inc. | User interface (UI) for presentation of match quality in auto-complete suggestions |
-
2017
- 2017-02-03 CN CN201710063687.7A patent/CN108388561B/zh active Active
-
2018
- 2018-01-26 US US15/881,601 patent/US11403520B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103577394A (zh) * | 2012-07-31 | 2014-02-12 | 阿里巴巴集团控股有限公司 | 一种基于双数组搜索树的机器翻译方法和装置 |
CN104391820A (zh) * | 2014-11-25 | 2015-03-04 | 清华大学 | 基于fpga的通用浮点矩阵处理器硬件结构 |
CN104391842A (zh) * | 2014-12-18 | 2015-03-04 | 苏州大学 | 一种翻译模型构建方法和系统 |
CN106126596A (zh) * | 2016-06-20 | 2016-11-16 | 中国科学院自动化研究所 | 一种基于层次化记忆网络的问答方法 |
CN106126507A (zh) * | 2016-06-22 | 2016-11-16 | 哈尔滨工业大学深圳研究生院 | 一种基于字符编码的深度神经翻译方法及系统 |
CN106202068A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 基于多语平行语料的语义向量的机器翻译方法 |
Non-Patent Citations (2)
Title |
---|
RICHARD ZENS ET.AL: "Efficient Phrase-table Representation for Machine Translation with Applications to Online MT and Speech Translation", 《ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 * |
禹思敏: "《信息论、编码及应用》", 31 March 2012 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190578A (zh) * | 2018-09-13 | 2019-01-11 | 合肥工业大学 | 基于时域卷积网络与循环神经网络融合的手语视频翻译方法 |
CN111368564A (zh) * | 2019-04-17 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机可读存储介质和计算机设备 |
CN111368564B (zh) * | 2019-04-17 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机可读存储介质和计算机设备 |
CN111382581A (zh) * | 2020-01-21 | 2020-07-07 | 沈阳雅译网络技术有限公司 | 一种机器翻译中的一次剪枝压缩方法 |
CN112257467A (zh) * | 2020-11-03 | 2021-01-22 | 沈阳雅译网络技术有限公司 | 一种面向gpu设备的神经机器翻译系统解码加速方法 |
CN112257467B (zh) * | 2020-11-03 | 2023-06-30 | 沈阳雅译网络技术有限公司 | 一种面向gpu设备的神经机器翻译系统解码加速方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108388561B (zh) | 2022-02-25 |
US20180225572A1 (en) | 2018-08-09 |
US11403520B2 (en) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108388561A (zh) | 神经网络机器翻译方法和装置 | |
WO2022198868A1 (zh) | 开放式实体关系的抽取方法、装置、设备及存储介质 | |
CN111312329B (zh) | 基于深度卷积自动编码器的转录因子结合位点预测的方法 | |
CN109840287A (zh) | 一种基于神经网络的跨模态信息检索方法和装置 | |
US10032463B1 (en) | Speech processing with learned representation of user interaction history | |
CN109582952B (zh) | 诗歌生成方法、装置、计算机设备和介质 | |
CN107085581A (zh) | 短文本分类方法和装置 | |
CN109933656A (zh) | 舆情极性预测方法、装置、计算机设备及存储介质 | |
CN113342318B (zh) | 基于多视图代码特征的细粒度代码自动生成方法及系统 | |
CN110210032A (zh) | 文本处理方法及装置 | |
CN111563161B (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
CN108549718B (zh) | 一种通用主题嵌入模型联合训练方法 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN112732583A (zh) | 一种基于聚类和多种群遗传算法的软件测试数据生成方法 | |
CN112036564B (zh) | 图片识别方法、装置、设备及存储介质 | |
CN116361801A (zh) | 基于应用程序接口语义信息的恶意软件检测方法及系统 | |
CN113539372A (zh) | 一种LncRNA和疾病关联关系的高效预测方法 | |
CN117634615A (zh) | 一种基于模态无关对比学习的多任务代码检索方法 | |
CN112417853A (zh) | 中文专利摘要改写方法 | |
CN113870863B (zh) | 声纹识别方法及装置、存储介质及电子设备 | |
CN112132281B (zh) | 一种基于人工智能的模型训练方法、装置、服务器及介质 | |
Kumar et al. | A comparative study on deep learning techniques for bird species recognition | |
CN117094383B (zh) | 一种语言模型的联合训练方法、系统、设备及存储介质 | |
CN112686306B (zh) | 基于图神经网络的icd手术分类自动匹配方法及系统 | |
CN114757310B (zh) | 情感识别模型及其训练方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |