CN107729326A - 基于Multi‑BiRNN编码的神经机器翻译方法 - Google Patents

基于Multi‑BiRNN编码的神经机器翻译方法 Download PDF

Info

Publication number
CN107729326A
CN107729326A CN201710875429.9A CN201710875429A CN107729326A CN 107729326 A CN107729326 A CN 107729326A CN 201710875429 A CN201710875429 A CN 201710875429A CN 107729326 A CN107729326 A CN 107729326A
Authority
CN
China
Prior art keywords
birnn
source language
language sentence
codings
traversal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710875429.9A
Other languages
English (en)
Other versions
CN107729326B (zh
Inventor
叶娜
张学强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aerospace University
Original Assignee
Shenyang Aerospace University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aerospace University filed Critical Shenyang Aerospace University
Priority to CN201710875429.9A priority Critical patent/CN107729326B/zh
Publication of CN107729326A publication Critical patent/CN107729326A/zh
Application granted granted Critical
Publication of CN107729326B publication Critical patent/CN107729326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明涉及一种基于Multi‑BiRNN编码的神经机器翻译方法,在编码器端采用Multi‑BiRNN编码,即在源语言句子作为输入序列的基础上,再增加一组或多组BiRNN对与之相关的其他输入序列进行编码;基于Multi‑BiRNN编码的神经机器翻译,在源端编码过程中同时考虑源语言句子序列及其依存句法树,通过两种不同的遍历方式分别得到句法树的序列化结果,与源语言句子序列一起作为Multi‑BiRNN编码的输入;在各组BiRNN的输出端,采用向量拼接的方式形成每个词。本发明编码得到的向量包含更加丰富的语义信息,同时考虑源语言句子序列和其他与之相关序列,在源语言句子的语义的表示过程中起到消歧作用。

Description

基于Multi-BiRNN编码的神经机器翻译方法
技术领域
本发明涉及一种自然语言翻译技术,具体为基于Multi-BiRNN编码的神经机器翻译方法。
背景技术
端到端神经机器翻译作为一种全新的机器翻译方法,近年来得到了迅速发展。然而,端到端神经机器翻译仅仅使用一个非线性的神经网络实现自然语言之间的转换,导致难以显式地利用语言学知识。如何对当前的神经机器翻译的框架作出改进,从而将句法信息等语言学知识编码并应用到端到端的神经网络中,是一个值得探究的方向。
通常,端到端神经机器翻译基于一个“编码-解码”框架来学习源语言到目标语言的转换规律,用连接编码器和解码器的向量描述语义等价性。在编码器端,通常采用双向编码将源语言句子映射为一个连续、稠密的向量。在解码器端,使用该向量初始化隐状态,并递归地使用隐状态和已生成的目标词共同作用于当前生成词的概率分布。然而,不管句子长短都将其映射为一个固定维度的向量,这对实现准确编码提出了挑战。注意力机制的引入,在一定程度上缓解了编码器生成定长向量的问题。Bengio研究组主张为每个目标语言词动态生成源语言端的上下文向量,不再采用表示源语言句子的固定维度的向量。为此,编码器依据基于内容的注意力计算方法将源语言句子编码为向量序列。
由神经机器翻译基本原理可以看出,句子中的信息与特征完全由向量表示,并在编码器和解码器之间传递源语言句子的语义信息。无论是传统的基于“编码-解码”框架的神经机器翻译,还是引入注意力机制的神经机器翻译,都依赖于编码过程,即将句子映射为可表示、传递和计算语义的向量。能否实现对源语言句子的准确编码,并将更多的语言学知识编码到向量中,对提高神经机器翻译性能起到举足轻重的作用。
发明内容
针对现有技术中端到端神经机器翻译主要基于一种序列到序列的模型,没有直接显式地利用句法信息来指导和约束译文的生成等不足,本发明要解决的问题是提供一种基于Multi-BiRNN编码的神经机器翻译方法。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种基于Multi-BiRNN编码的神经机器翻译方法,包括以下步骤:
1)在编码器端采用Multi-BiRNN编码的方法,即在源语言句子作为输入序列的基础上,再增加一组或多组BiRNN对与之相关的其他输入序列进行编码;
2)基于Multi-BiRNN编码的神经机器翻译,在源端编码过程中同时考虑源语言句子序列及其依存句法树,通过两种不同的遍历方式分别得到句法树的序列化结果,与源语言句子序列一起作为Multi-BiRNN编码的输入;
3)在各组BiRNN的输出端,采用向量拼接的方式形成每个词,使每个词更加完整和全面。
步骤1)中,增加一组或多组BiRNN对与之相关的其他输入序列进行编码,具体为:
BiRNN1用以编码源语言句子,分别生成前向隐状态序列和后向隐状态序列
BiRNN2用以编码词性序列,分别生成前向隐状态序列和后向隐状态序列
得到上述4个隐状态序列后,分别对每一位置的隐状态依次进行拼接,最终实现将源语言句子映射为向量序列
如果增加多组BiRNN对与之相关的其他输入序列进行编码,则每个BiRNNj可分别生成正向隐状态和反向隐状态最终可得到2*m个隐状态,进行拼接可得到向量序列
hmn表示Multi-BiRNN中第m个BiRNN生成的第n个隐状态,m表示Multi-BiRNN中BiRNN网络层数,n表示每层BiRNN生成隐状态的个数。
步骤2)中,两种不同的遍历方式为:
对于一个源语言句子,分析为一棵依存句法树,依存句法树的遍历采用广度优先遍历或深度优先遍历;
在依存句法树中,有依存关系的短语或子句自动生长在同一棵子树中,结点之间的父子关系反应词之间的依存关系;
对于依存句法树的遍历,广度优先遍历是从根节点出发,逐层对句法树的每一个结点进行遍历;深度优先遍历则从根结点开始,每次沿着一条路径遍历,直到遍历到句法树的叶子结点再回溯到父节点,从而遍历所有结点。
本发明具有以下有益效果及优点:
1.本发明首先保留了BiRNN编码既编码顺序的序列信息,也编码逆序的序列信息的方法;其次,编码过程中显式地考虑源语言句子且与之相关的其他序列信息,从而编码得到的向量包含更加丰富的语义信息;编码过程中同时考虑源语言句子序列和其他与之相关序列,在源语言句子的语义的表示过程中起到消歧作用。
2.本发明针对目前端到端神经机器翻译主要基于一种序列到序列的模型,没有直接显式地利用句法信息来指导和约束译文的生成问题,通过对源语言句子进行依存句法分析并序列化依存句法树的方法,将序列化的依存句法信息作为Multi-BiRNN的输入编码到神经机器翻译中。
3.本发明方法着重考虑子树内部词之间的相互影响,通过将句法信息等语言学知识显式地编码为描述语义等价性的向量,参与模型的训练和解码过程中,以提升神经机器翻译的性能。
附图说明
图1为本发明中Multi-BiRNN的神经机器翻译过程图示;
图2为本发明中依存句法树的序列化示意图。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
本发明一种基于Multi-BiRNN编码的神经机器翻译方法,包括以下步骤:
1)在编码器端采用Multi-BiRNN编码的方法,即在源语言句子作为输入序列的基础上,再增加一组或多组BiRNN对与之相关的其他输入序列进行编码;
2)基于Multi-BiRNN编码的神经机器翻译,在源端编码过程中同时考虑源语言句子序列及其依存句法树,通过两种不同的遍历方式分别得到句法树的序列化结果,与源语言句子序列一起作为Multi-BiRNN编码的输入;
3)在各组BiRNN的输出端,采用向量拼接的方式形成每个词,使每个词更加完整和全面。
本发明中,编码器采用BiRNN,是在传统RNN编码基础上考虑了逆向序列中词的联系与规律,在一定程度上将更多的源语言句子信息编码到向量中。然而,传统的基于“编码器-解码器”框架的神经机器翻译,只将源语言句子作为神经网络的输入序列,没有显式地将句子中包含的语言学知识编码到向量中,以更好地描述编码器和解码器之间的语义等价性,从而指导并约束目标语言句子的生成。
本发明提出一种在编码器端采用Multi-BiRNN编码的方法,即在源语言句子作为输入序列的基础上,再增加一组或多组BiRNN对与之相关的其他输入序列进行编码。在各组BiRNN的输出端,采用向量拼接的方式形成每个词更加完整和全面地解释。
步骤1)中,增加一组或多组BiRNN对与之相关的其他输入序列进行编码,图1给出了使用两组BiRNN的Multi-BiRNN编码示例,在单个BiRNN的基础上,增加了一组或者多组的BiRNN。以实现在对源语言句子序列编码的基础上,对与源语言句子相关的其他序列进行编码,从而达到更为准确的表示源语言句子特征和信息的向量。具体为:
BiRNN1用以编码源语言句子,分别生成前向隐状态序列和后向隐状态序列
BiRNN2用以编码词性序列,分别生成前向隐状态序列和后向隐状态序列
得到上述4个隐状态序列后,分别对每一位置的隐状态依次进行拼接,最终实现将源语言句子映射为向量序列
如果增加多组BiRNN对与之相关的其他输入序列进行编码,则每个BiRNNj可分别生成正向隐状态和反向隐状态最终可得到2*m个隐状态,进行拼接可得到向量序列
hmn表示Multi-BiRNN中第m个BiRNN生成的第n个隐状态,m表示Multi-BiRNN中BiRNN网络层数(即Multi-BiRNN的第m层),n表示每层BiRNN生成隐状态的个数(即每层BiRNN的节点数目)。
步骤2)中,两种不同的遍历方式为:
对于一个源语言句子,分析为一棵依存句法树,依存句法树的遍历采用广度优先遍历或深度优先遍历;
在依存句法树中,有依存关系的短语或子句自动生长在同一棵子树中,结点之间的父子关系反应词之间的依存关系;
对于依存句法树的遍历,广度优先遍历是从根节点出发,逐层对句法树的每一个结点进行遍历;深度优先遍历则从根结点开始,每次沿着一条路径遍历,直到遍历到句法树的叶子结点再回溯到父节点,从而遍历所有结点。
本发明提出一种基于Multi-BiRNN的神经机器翻译模型,在源端编码过程中同时考虑源语言句子序列及其依存句法树。通过两种不同的遍历方式分别得到句法树的序列化结果,与源语言句子序列一起作为Multi-BiRNN编码的输入。该方法的优势是在编码源语言句子序列的基础上,融入依存句法信息。
对于一个源语言句子,可分析为一棵依存句法树。句法树的遍历可采用广度优先遍历(Breadth First Traversal,BFT)或深度优先遍历(Depth FirstTraversal,DFT)。在依存句法树中,有依存关系的短语或子句会自动生长在同一棵子树中,结点之间的父子关系反应词之间的依存关系。对于句法树的遍历而言,广度优先遍历是指从根节点出发,逐层对句法树的每一个结点进行遍历。深度优先遍历则从根结点开始,每次沿着一条路径遍历,直到遍历到句法树的叶子结点再回溯到父节点,从而遍历所有结点。图2给出了依存句法树序列化的过程。对于源语言句子“资本项目不开放有利于人民币汇率的稳定。”,使用分析器对其进行依存句法分析,得到相应的依存句法树。本发明分别采用广度优先遍历和深度优先遍历两种算法对句法树进行遍历,分别得到两种序列“有利开放于。不项目稳定资本的汇率人民币”和“有利开放不项目资本于稳定的汇率人民币。”空格是序列元素之间的分隔符。通过观察两种序列可知:广度优先遍历得到的序列中,“不”和“项目”同时依存于“开放”,因此在序列中“不”和“项目”的距离会减小,因此在BiRNN编码过程中会相互产生更大的影响。同样在深度优先遍历得到的序列中,“开放”和“项目”、“项目”和“资本”之间有直接的依存关系,因此在序列中距离会相对减小。
本实施例中,实验主要分为两部分。首先,在编码器端的BiRNN的基础上实现Multi-BiRNN系统。通过对比Multi-BiRNN编码的基线系统与BiRNN系统,以验证Multi-BiRNN编码方法的有效性。其次,在Multi-BiRNN编码方法的基础上,进行神经机器翻译实验。
实验主要针对汉英翻译任务,实验语料来源于联合国语料库中的中英双语平行语料。其中,训练数据集共15,886,041双语平行句对,实验过程只随机抽取5,000,000句作为训练语料。官方开发集和测试集各4,000双语平行句对。
表1译文质量对比
在表1中,seq指网络的输入是源语言句子序列,作为基线系统。doubleseq指的是使用同样的源语言句子向Multi-BiRNN中两个BiRNN各输入一次;seq+pos指的是向Multi-BiRNN中输入源语言句子序列seq和词性序列pos;seq+hypernym指的是向Multi-BiRNN中输入源语言句子序列seq和上位词序列hypernym;seq+pos+hypernym指的是向Multi-BiRNN中输入源语言句子序列seq和词性序列pos以及上位词序列hypernym。
由表1结果可以看出,两次输入句子、输入句子+词性、输入句子+上位词、输入句子+词性+上位词在基线系统的基础上,都有一定的提升。其中,double seq在基线系统的基础上BLEU分值提升了0.25,seq+pos的BLEU分值提升了0.74,seq+hypernym的BLEU分值提升了0.98,seq+pos+hypernym的BLEU分值提升了1.14,seq+bre+dep的BLEU分值提升了0.94。
Multi-BiRNN编码主要有三点优势:首先,保留了BiRNN编码既编码顺序的序列信息,也编码逆序的序列信息的方法。其次,编码过程中显式地考虑源语言句子且与之相关的其他序列信息,从而编码得到的向量包含更加丰富的语义信息。最后,编码过程中同时考虑源语言句子序列和其他与之相关序列,在源语言句子的语义的表示过程中起到消歧作用。

Claims (4)

1.一种基于Multi-BiRNN编码的神经机器翻译方法,其特征在于包括以下步骤:
1)在编码器端采用Multi-BiRNN编码的方法,即在源语言句子作为输入序列的基础上,再增加一组或多组BiRNN对与之相关的其他输入序列进行编码;
2)基于Multi-BiRNN编码的神经机器翻译,在源端编码过程中同时考虑源语言句子序列及其依存句法树,通过两种不同的遍历方式分别得到句法树的序列化结果,与源语言句子序列一起作为Multi-BiRNN编码的输入;
3)在各组BiRNN的输出端,采用向量拼接的方式形成每个词,使每个词更加完整和全面。
2.根据权利要求1所述的基于Multi-BiRNN编码的神经机器翻译方法,其特征在于:步骤1)中,增加一组或多组BiRNN对与之相关的其他输入序列进行编码,具体为:
BiRNN1用以编码源语言句子,分别生成前向隐状态序列和后向隐状态序列
BiRNN2用以编码词性序列,分别生成前向隐状态序列和后向隐状态序列
得到上述4个隐状态序列后,分别对每一位置的隐状态依次进行拼接,最终实现将源语言句子映射为向量序列
3.根据权利要求2所述的基于Multi-BiRNN编码的神经机器翻译方法,其特征在于:
如果增加多组BiRNN对与之相关的其他输入序列进行编码,则每个BiRNNj可分别生成正向隐状态和反向隐状态最终可得到2*m个隐状态,进行拼接可得到向量序列
hmn表示Multi-BiRNN中第m个BiRNN生成的第n个隐状态,m表示Multi-BiRNN中BiRNN网络层数,n表示每层BiRNN生成隐状态的个数。
4.根据权利要求1所述的基于Multi-BiRNN编码的神经机器翻译方法,其特征在于:步骤2)中,两种不同的遍历方式为:
对于一个源语言句子,分析为一棵依存句法树,依存句法树的遍历采用广度优先遍历或深度优先遍历;
在依存句法树中,有依存关系的短语或子句自动生长在同一棵子树中,结点之间的父子关系反应词之间的依存关系;
对于依存句法树的遍历,广度优先遍历是从根节点出发,逐层对句法树的每一个结点进行遍历;深度优先遍历则从根结点开始,每次沿着一条路径遍历,直到遍历到句法树的叶子结点再回溯到父节点,从而遍历所有结点。
CN201710875429.9A 2017-09-25 2017-09-25 基于Multi-BiRNN编码的神经机器翻译方法 Active CN107729326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710875429.9A CN107729326B (zh) 2017-09-25 2017-09-25 基于Multi-BiRNN编码的神经机器翻译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710875429.9A CN107729326B (zh) 2017-09-25 2017-09-25 基于Multi-BiRNN编码的神经机器翻译方法

Publications (2)

Publication Number Publication Date
CN107729326A true CN107729326A (zh) 2018-02-23
CN107729326B CN107729326B (zh) 2020-12-25

Family

ID=61206870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710875429.9A Active CN107729326B (zh) 2017-09-25 2017-09-25 基于Multi-BiRNN编码的神经机器翻译方法

Country Status (1)

Country Link
CN (1) CN107729326B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492227A (zh) * 2018-11-16 2019-03-19 大连理工大学 一种基于多头注意力机制和动态迭代的机器阅读理解方法
CN109902309A (zh) * 2018-12-17 2019-06-18 北京百度网讯科技有限公司 翻译方法、装置、设备和存储介质
CN109977834A (zh) * 2019-03-19 2019-07-05 清华大学 从深度图像中分割人手与交互物体的方法和装置
CN110059324A (zh) * 2019-04-26 2019-07-26 广州大学 基于依存信息监督的神经网络机器翻译方法及装置
CN110263353A (zh) * 2019-06-25 2019-09-20 北京金山数字娱乐科技有限公司 一种机器翻译方法及装置
CN110377918A (zh) * 2019-07-15 2019-10-25 昆明理工大学 融合句法解析树的汉-越神经机器翻译方法
CN110457718A (zh) * 2019-08-21 2019-11-15 腾讯科技(深圳)有限公司 一种文本生成方法、装置、计算机设备及存储介质
CN110895660A (zh) * 2018-08-23 2020-03-20 澳门大学 一种基于句法依存关系动态编码的语句处理方法及装置
CN113239142A (zh) * 2021-04-26 2021-08-10 昆明理工大学 融合句法信息的无触发词事件检测方法
CN112035099B (zh) * 2020-09-01 2024-03-15 北京天融信网络安全技术有限公司 一种抽象语法树中节点的向量化表示方法及装置
CN110895660B (zh) * 2018-08-23 2024-05-17 澳门大学 一种基于句法依存关系动态编码的语句处理方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116578A (zh) * 2013-02-07 2013-05-22 北京赛迪翻译技术有限公司 一种融合句法树和统计机器翻译技术的翻译方法与装置
CN104239290A (zh) * 2014-08-08 2014-12-24 中国科学院计算技术研究所 基于依存树的统计机器翻译方法及系统
CN105573994A (zh) * 2016-01-26 2016-05-11 沈阳雅译网络技术有限公司 基于句法骨架的统计机器翻译系统
US20160179790A1 (en) * 2013-06-03 2016-06-23 National Institute Of Information And Communications Technology Translation apparatus, learning apparatus, translation method, and storage medium
CN106484682A (zh) * 2015-08-25 2017-03-08 阿里巴巴集团控股有限公司 基于统计的机器翻译方法、装置及电子设备
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
WO2017083695A1 (en) * 2015-11-12 2017-05-18 Google Inc. Generating target sequences from input sequences using partial conditioning
CN107038159A (zh) * 2017-03-09 2017-08-11 清华大学 一种基于无监督领域自适应的神经网络机器翻译方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116578A (zh) * 2013-02-07 2013-05-22 北京赛迪翻译技术有限公司 一种融合句法树和统计机器翻译技术的翻译方法与装置
US20160179790A1 (en) * 2013-06-03 2016-06-23 National Institute Of Information And Communications Technology Translation apparatus, learning apparatus, translation method, and storage medium
CN104239290A (zh) * 2014-08-08 2014-12-24 中国科学院计算技术研究所 基于依存树的统计机器翻译方法及系统
CN106484682A (zh) * 2015-08-25 2017-03-08 阿里巴巴集团控股有限公司 基于统计的机器翻译方法、装置及电子设备
WO2017083695A1 (en) * 2015-11-12 2017-05-18 Google Inc. Generating target sequences from input sequences using partial conditioning
CN105573994A (zh) * 2016-01-26 2016-05-11 沈阳雅译网络技术有限公司 基于句法骨架的统计机器翻译系统
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN107038159A (zh) * 2017-03-09 2017-08-11 清华大学 一种基于无监督领域自适应的神经网络机器翻译方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HUADONG CHEN 等: "Improved Neural Machine Translation with a Syntax-Aware Encoder and Decoder", 《HTTPS://ARXIV.ORG/ABS/1707.05436》 *
JIANGMING LIU 等: "Encoder-Decoder Shift-Reduce Syntactic Parsing", 《HTTPS://ARXIV.ORG/ABS/1706.07905》 *
张学强: "基于深度学习的机器翻译技术研究", 《 CNKI优秀硕士学位论文全文库 信息科技辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895660A (zh) * 2018-08-23 2020-03-20 澳门大学 一种基于句法依存关系动态编码的语句处理方法及装置
CN110895660B (zh) * 2018-08-23 2024-05-17 澳门大学 一种基于句法依存关系动态编码的语句处理方法及装置
CN109492227A (zh) * 2018-11-16 2019-03-19 大连理工大学 一种基于多头注意力机制和动态迭代的机器阅读理解方法
CN109902309A (zh) * 2018-12-17 2019-06-18 北京百度网讯科技有限公司 翻译方法、装置、设备和存储介质
CN109977834A (zh) * 2019-03-19 2019-07-05 清华大学 从深度图像中分割人手与交互物体的方法和装置
CN110059324A (zh) * 2019-04-26 2019-07-26 广州大学 基于依存信息监督的神经网络机器翻译方法及装置
CN110059324B (zh) * 2019-04-26 2022-12-13 广州大学 基于依存信息监督的神经网络机器翻译方法及装置
CN110263353B (zh) * 2019-06-25 2023-10-13 北京金山数字娱乐科技有限公司 一种机器翻译方法及装置
CN110263353A (zh) * 2019-06-25 2019-09-20 北京金山数字娱乐科技有限公司 一种机器翻译方法及装置
CN110377918A (zh) * 2019-07-15 2019-10-25 昆明理工大学 融合句法解析树的汉-越神经机器翻译方法
CN110377918B (zh) * 2019-07-15 2020-08-28 昆明理工大学 融合句法解析树的汉-越神经机器翻译方法
CN110457718A (zh) * 2019-08-21 2019-11-15 腾讯科技(深圳)有限公司 一种文本生成方法、装置、计算机设备及存储介质
CN112035099B (zh) * 2020-09-01 2024-03-15 北京天融信网络安全技术有限公司 一种抽象语法树中节点的向量化表示方法及装置
CN113239142A (zh) * 2021-04-26 2021-08-10 昆明理工大学 融合句法信息的无触发词事件检测方法

Also Published As

Publication number Publication date
CN107729326B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN107729326A (zh) 基于Multi‑BiRNN编码的神经机器翻译方法
CN107357789B (zh) 融合多语编码信息的神经机器翻译方法
CN110717334A (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN107632981B (zh) 一种引入源语组块信息编码的神经机器翻译方法
CN108920472B (zh) 一种基于深度学习的机器翻译系统的融合系统及方法
CN110334361A (zh) 一种面向小语种语言的神经机器翻译方法
CN112559702B (zh) 基于Transformer的土木建筑信息领域自然语言问题生成方法
CN113516968B (zh) 一种端到端长时语音识别方法
CN106502985A (zh) 一种用于生成标题的神经网络建模方法及装置
CN108763444A (zh) 利用分层编码解码器网络机制来解决视频问答的方法
CN110413729A (zh) 基于尾句-上下文双重注意力模型的多轮对话生成方法
CN110457661B (zh) 自然语言生成方法、装置、设备及存储介质
CN111382574B (zh) 一种虚拟现实与增强现实场景下结合句法的语义解析系统
CN110851575B (zh) 一种对话生成系统及对话实现方法
CN110427616A (zh) 一种基于深度学习的文本情感分析方法
CN109933602A (zh) 一种自然语言与结构化查询语言的转换方法及装置
CN108763227A (zh) 一种基于分块机制的机器翻译方法
CN113254616B (zh) 面向智能问答系统的句向量生成方法及系统
CN110347819A (zh) 一种基于正负样本对抗训练的文本摘要生成方法
CN113901847A (zh) 基于源语言句法增强解码的神经机器翻译方法
Huang et al. Recall and learn: A memory-augmented solver for math word problems
CN112541364A (zh) 融合多层次语言特征知识的汉越神经机器翻译的方法
Zhang et al. A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews
CN114118111A (zh) 融合文本和图片特征的多模态机器翻译方法
CN112507733A (zh) 基于依存图网络的汉越神经机器翻译方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant