CN108920468A - 一种基于强化学习的蒙汉双语种互译方法 - Google Patents

一种基于强化学习的蒙汉双语种互译方法 Download PDF

Info

Publication number
CN108920468A
CN108920468A CN201810428143.0A CN201810428143A CN108920468A CN 108920468 A CN108920468 A CN 108920468A CN 201810428143 A CN201810428143 A CN 201810428143A CN 108920468 A CN108920468 A CN 108920468A
Authority
CN
China
Prior art keywords
translation
bilingual
intensified learning
language sentence
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810428143.0A
Other languages
English (en)
Other versions
CN108920468B (zh
Inventor
苏依拉
高芬
张振
王宇飞
孙晓骞
牛向华
赵亚平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Technology
Original Assignee
Inner Mongolia University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Technology filed Critical Inner Mongolia University of Technology
Priority to CN201810428143.0A priority Critical patent/CN108920468B/zh
Publication of CN108920468A publication Critical patent/CN108920468A/zh
Application granted granted Critical
Publication of CN108920468B publication Critical patent/CN108920468B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

编码器‑解码器架构的神经机器翻译(NMT)在当前的标准机器翻译基准上实现了最佳的结果,但由于训练该模型需要大量平行语料数据,对于少数民族语言翻译领域而言,普遍面临双语对齐语料不足,资源稀少,因此本发明提供一种基于强化学习的蒙汉双语种互译方法。系统接受一个蒙语句子来翻译,生成一个汉语句子,并且得到一个标量分数作为反馈。利用强化学习技术,从反馈中有效地学习。在强化学习中定义解法的数学框架叫做马尔科夫决策过程。目标是找到一个策略使得预期的翻译质量最大化。在训练过程中,如果某个行为策略导致环境大的奖赏,那么以后产生这个行为策略的趋势便会加强,最终找到最优策略以使期望的折扣奖赏和最大,使得翻译质量提高。

Description

一种基于强化学习的蒙汉双语种互译方法
技术领域
本发明属于机器学习技术领域,特别涉及一种基于强化学习的蒙汉双语种互译方法。
背景技术
随着Internet的普遍应用,世界经济一体化进程的加速以及国际社会交流日渐频繁,机器翻译技术在促进政治、经济、文化交流等方面起到越来越重要的作用。
在我国经济快速发展与社会不断进步的背景下,蒙古族与汉族的之间的交流日益频繁,而蒙古语是我国蒙古族同胞使用的主要语言,并且蒙语作为蒙古国的官方语言,因此蒙汉机器翻译的研究对于两种文化的价值观相互渗透,凝聚民族的核心文化,促进良好民族关系的建立以及促进和蒙古国之间的对外贸易和文化交流都具有重要意义。
目前,编码器-解码器架构的神经机器翻译(NMT)在当前的标准机器翻译基准上实现了最佳的结果,并且也已经在业界的翻译服务核心得到了应用。NMT模型由编码器和解码器两者组成,二者均采用循环神经网络(Recurrent Neural Network,RNN)结构。可使用双向的RNN作为编码器和单向的RNN作为解码器,这个框架从源语言句子a={a1,a2,...,an}到正确的双语库目标语言句子b={b1,b2,...,bm}学习了一个概率映射Pθ(b|a),其中an和bm分别是源语言句子a的第n个词和正确双语库目标语言句子b的第m个词。
注:bt:双语库中目标语言句子b的第t个词。
b<t:bt先前的词。
每一个局部分布式Pθ(b|b<t,a)通过目标词汇建模成一个多项式分布。根据softmax函数,把公式(1)线性转化,解码器输出矢量
ct=attend(s'1:n,st) (4)
注:attend(.,.):一种注意力机制
τ:softmax函数的参数
s:解码器生成的隐藏向量
s':编码器生成的隐藏向量
在一个监督的学习框架中,一个NMT模型通常是在最大的逻辑可能性下进行训练的,但由于训练该模型需要大量平行语料数据,才能得到比较好的结果。但是对于少数民族语言翻译领域而言,此类翻译任务普遍面临双语对齐语料不足,资源稀少,翻译研究时间短,成果少等困难。并且平行语料库的获得成本非常之高,且需要相对应的专业知识。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于强化学习的蒙汉双语种互译方法,对NMT模型进行微调,微调的训练过程只关注相关的句子,同时利用强化学习反馈机制,接受一个源语言句子进行翻译,生成一个目标语言语句子,并且得到一个标量分数作为反馈,利用强化学习技术,从反馈中有效地学习。
为了实现上述目的,本发明采用的技术方案是:
一种基于强化学习的蒙汉双语种互译方法,基于编码-解码架构的神经机器翻译系统,其特征在于,系统接受一个源语言句子a进行翻译,生成一个目标语言句子同时得到一个标量分数作为反馈利用强化学习方法从所述反馈中学习,所述强化学习方法为马尔科夫决策过程,由解码器生成的隐藏向量作为状态,编码器的编码作为动作,进行系统和奖赏机制更新,将更新过程迭代多轮,直至翻译模型收敛。
所述编码器和解码器均采用循环神经网络(RNN)结构,编码器将源语言句子a编码成一个连续向量Φ(a),作为解码器的初始隐藏向量,解码器执行RNN更新以生成一个隐藏的序列向量(s1,s2,...,st):
s0=Φ(a)
其中,st表示解码器t时刻的隐藏状态,fθ为循环单元,e(·)表示词向量查找操作,bt表示双语库中正确的目标语言句子b的第t个词,st-1表示解码器t-1时刻的隐藏状态,表示t-1时刻解码器的输出矢量。
利用系统预测值代替bt表示模型策略,Pθ(b|a)表示从源语言句子a={a1,a2,...an}到双语库中正确的目标语言句子b={b1,b2,...bm}学习的一个概率映射,an是源语言句子a的第n个词,bm是双语库中正确的目标语言句子b的第m个词,定义Z(θ)=E(x,y)~Dtr[logPθ(b|a)],其中,Dtr表示训练集,E表示期望,Pθ(bt|b<t,a)是一个随机策略,b<t表示bt先前的词,表示先前的词。
通过随机策略Pθ(bt|b<t,a)来采取下一步行动,以t-1时刻的隐藏状态st-1作为输入,生成一个所有行为在目标词汇的概率分布,选择下一个动作是取argmax还是从这个策略取样,通过从模型策略中取样作为目标函数使预期的翻译质量最大化,目标函数为:
通过梯度下降优化所述目标函数,公式如下:
再通过奇点采样和V的values来标准化奖励机制,从而减少上述公式的误差,并实现系统更新,公式如下:
其中,
其中,是一个返回[0,1]分数的奖励函数,反映输入译文的质量,θ是训练模型参数,是目标函数,关于θ的梯度表示,t是迭代次数。
训练一个奖赏模型Vw来估计V的值,Vw是一种基于注意力的编码解码器,通过Vw,将编码源语言句子a解码,预测在时刻t,计算其中W0是将向量转化成标量的矩阵,是RNN解码器的输出向量,通过以下公式训练奖赏机制以在实际值和预测值之间最小化均方误差:
给定一个固定的a,该公式的梯度下降函数为:
根据该下降函数,实现奖赏机制更新。
其中,||·||2为欧几里得范数,为二范式,二范数是指空间上两个向量矩阵的直线距离。即两点之间的最短距离,来表示实际值和预测值之间的最小差距。是Z'(w)关于w的梯度表示,是Vw关于w的梯度表示,表示先前的词。
首先所述系统接受一个源语言句子a进行翻译,初始化翻译模型参数θ,然后根据翻译模型Pθ(b|a),生成一个预测值获得反馈通过策略梯度优化翻译模型中的参数,从而达到奖励最大化重复以上步骤直到算法收敛,便能得到最佳翻译模型。
与现有技术相比,本发明的有益效果是:
强化学习不同于监督学习和非监督学习。首先,监督学习只能从标注的数据进行学习;而强化学习可以从未标注的数据进行学习。其次,半监督尽管可以对未标注的样本生成伪标签,但是无法知道这些标签的好坏,而强化学习生成的反馈能知道中间过程产生伪标签的好坏,因而可以更有效地利用未标签的数据。在强化学习中没有原始已知的数据可以学习。强化学习面对的是一个不断变化的状态空间,要解决的是一个决策链的问题。其目的是找到在当前环境(状态空间)下的最佳决策是什么。但是当下的决策好坏当下无法验证和评估,要根据多次决策以后才能知道。所以强化学习没有大量的原始已知数据,机器需要在变化的环境中通过大量的多次试错学习,再根据某种规则找到产生最佳结果的最佳路径,从而做出最佳决策。
因而,本发明一种基于强化学习的双语种互译方法,对于少数民族语言翻译领域而言,很好解决了双语对齐语料不足,资源稀少等困难。
附图说明
图1是强化学习基本模型示意图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
本发明一种基于强化学习的蒙汉双语神经翻译方法,采用编码-解码结构,对NMT模型进行微调,微调的训练过程只关注相关的句子,同时利用强化学习反馈机制,接受一个源语言句子进行翻译,生成一个目标语言句子,并且得到一个标量分数作为反馈,利用强化学习技术,从反馈中有效地学习。
具体地,本发明利用强化学习策略梯度方法来训练蒙汉翻译模型,希望提高策略以最大化长远的回报,但是没有标注的样本不会告知在某个状态a哪个动作b是正确的,因此只有通过使用策略在不同的状态下执行不同的动作,观测该动作带来的回报,从而改善策略。如果在执行某个动作之后,观测到了一个很大的回报,就通过调整策略(在当前策略函数的参数上加上它的梯度)来增加这个状态下执行这个动作的概率;相反,如果在执行某个动作之后,观测到了一个很小的回报,那么就需要调整策略(在当前策略函数的参数上减去它的梯度),依降低在这个状态下执行这个动作的概率。
在强化学习中定义解法的数学框架叫做马尔科夫决策过程(Markov DecisionProcess)。如图1所示,它被设计为:
一系列的状态集合(Set of states),S
一系列行动集合(Set of actions),A
策略(Policb),π
价值(Value),V
Agent发出动作A给环境,环境接受到这个动作之后发生了状态S的变化并且发出了强化信号R,强化信号R是一个成功或者失败的反馈信息,这个反馈信息传递给Agent,当强化信号R趋于成功反馈信息的时候,Agent才会根据这种成功反馈信息和当前的状态再选择做下一个动作,然而选择的动作会立刻影响强化值,而且还会影响下一动作的状态和最终强化值。强化学习中Agent发出的动作给环境所产生的强化信号R只是一种成功与失败的评价标注,而并不是直接告诉Agent正确的动作,由于外部环境给Agent的信号单一,所以Agent需要通过不断的动作反应给环境,环境又将反馈强化信号R传给Agent以判定动作的正确,通过反复操作判定成功与失败来不断修正自己的动作,从这种不断地修复中学习一系列正确的动作行为,从而达到适应环境的目的。
NMT模型的翻译过程可以是被看作是在一个连续状态空间的马尔科夫决策过程。状态是由解码器生成的隐藏向量。这个动作空间是目标语言的词汇。
在训练过程中,编码器首先编码a成一个连续向量Φ(a),它被用作解码器的初始隐藏向量,解码器执行RNN更新以生成一个隐藏的向量:
s0=Φ(a)
注:fθ:循环单元,例如Long Ssort-Term Memorb(LSTM)
e(·):词向量查找操作
st:t时刻的隐藏状态
st-1:t-1时刻的隐藏状态
对于给定的源语言句子,模型预测值代替公式(5)中真实值bt
在一个监督学习框架中,一个NMT模型通常通过最大对数似然函数训练。Dtr:训练集
Z(θ)=E(a,b)~Dtr[logPθ(b|a)] (7)
要从一个源语言句子a中生成一个翻译,一个NMT模型在一个初始状态s0下开始,这是由编码器计算出的a的表示,在时刻t大于0时,模型决定了通过定义一个随机策略Pθ(bt|b<t,a)来采取下一步行动,这一策略需要前一步状态st-1作为输入,生成一个所有行为的概率分布(在目标词汇)。选择下一个动作要么是取argmax,要么从这个策略取样,编码器通过前一个状态st-1来计算当前状态st和下一个动作(公式5)。
目标是从模型的策略中找到一个策略使预期的翻译质量最大化
注:一个返回[0,1]分数的奖励函数,反映输出译文的质量。
通过梯度下降优化这个目标函数。
这个算法近似等于公式(9)中的梯度下降运算,通过奇点采样和通过V的values来标准化奖励机制来减少误差。
可通过训练一个奖赏模型Vw来估计V的值,这个模型是一种基于注意力的编码解码器,通过模型,将编码源句a解码,预测在时刻t,计算
t时刻RNN解码器的输出矢量。
W0:矩阵,将向量转化成一个标量。
奖赏机制被训练来在实际值和预测值之间最小化均方误差。
给定一个固定的a,公式(11)的梯度下降函数为:
对于每一个给定的源语言句子a,从NMT模型中抽取一个单一样本它用于估计NMT模型的梯度(公式10)和奖赏机制的梯度(公式12),因此同时更新了NMT模型和奖赏机制。
奖赏机制的流程:
1:for k=0.....K do
2:接受源句a
3:样本翻译
4:获得反馈
5:根据公式9使用梯度来更新NMT模型
6:根据公式12使用梯度来更新奖赏机制
7:end for
以下是一个蒙译汉的案例。
接受源句:
根据蒙古语的语法和语义特点,比如给出类似下面的样本翻译和反馈。
样本翻译:你我帮可以吗?
获得反馈:0.3
调整策略(在当前策略函数的参数上减去它的梯度),降低在这个状态下执行这个动作的概率。
.......多轮迭代
样本翻译:你可以帮我吗?
获得反馈:0.8
调整策略(在当前策略函数的参数上加上它的梯度)来增加这个状态下执行这个动作的概率。翻译结束。
本发明利用强化学习策略梯度方法来训练蒙汉翻译模型,希望提高策略以最大化长远的回报,但是没有标注的样本不会告知在某个状态a哪个动作b是正确的。由环境提供的强化信号是对产生动作的好坏作一种评价(用标量信号),而不是告诉如何去产生正确的动作。因此只有通过使用策略在不同的状态下执行不同的动作,观测该动作带来的反馈,从而改善策略。根据环境提供的奖赏来调整策略直至最优。如果在执行某个动作之后,观测到了一个很大的反馈,就通过调整策略(在当前策略函数的参数上加上它的梯度)来增加这个状态下执行这个动作的概率;相反,如果在执行某个动作之后,观测到了一个很小的反馈,那么就需要调整策略(在当前策略函数的参数上减去它的梯度),降低在这个状态下执行这个动作的概率。通过这种方法,从环境中获得知识,改进行动方案以适应环境。

Claims (6)

1.一种基于强化学习的蒙汉双语种互译方法,基于编码-解码架构的神经机器翻译系统,其特征在于,系统接受一个源语言句子a进行翻译,生成一个目标语言句子同时得到一个标量分数作为反馈利用强化学习方法从所述反馈中学习,所述强化学习方法为马尔科夫决策过程,由编码器的编码作为动作,解码器生成的隐藏向量作为状态,进行系统和奖赏机制更新,将更新过程迭代多轮,直至翻译模型收敛。
2.根据权利要求1所述基于强化学习的蒙汉双语种互译方法,其特征在于,所述编码器和解码器均采用循环神经网络(RNN)结构,编码器将源语言句子a编码成一个连续向量Φ(a),作为解码器的初始隐藏向量,解码器执行RNN更新以生成一个隐藏的序列向量(s1,s2,...st):
s0=Φ(a)
其中,st表示解码器t时刻的隐藏状态,fθ为循环单元,e(·)表示词向量查找操作,bt表示双语库中正确的目标语言句子b的第t个词,st-1表示t-1时刻解码器的隐藏状态,表示t-1时刻解码器的输出矢量。
3.根据权利要求2所述基于强化学习的蒙汉双语种互译方法,其特征在于,对于给定的一个源语言句子a,其预测值的第t个词即可以用下列公式表示 表示模型策略,Pθ(b|a)表示从源语言句子a={a1,a2,...,an}到双语库中正确的目标语言句子b={b1,b2,...,bm}学习的一个概率映射,an是句子源语言句子a的第n个词,bm是双语库中正确的目标语言句子b的第m个词,定义Z(θ)=E(a,b)~Dtr[log Pθ(b|a)],其中,Dtr表示训练集,E表示期望,符号~表示取值范围,Pθ(bt|b<t,a)是一个随机策略,b<t表示bt先前的词,表示先前的词;
通过随机策略Pθ(bt|b<t,a)来采取下一步行动,以t-1时刻的隐藏状态st-1作为输入,生成一个所有行为在目标词汇的概率分布,选择下一个动作是取argmax还是从这个策略取样,通过从模型策略中取样作为目标函数使预期的翻译质量最大化,目标函数为:
是一个返回[0,1]分数的奖励函数,反映输入译文的质量。
4.根据权利要求3所述基于强化学习的蒙汉双语种互译方法,其特征在于,通过梯度下降优化所述目标函数,公式如下:
再通过奇点采样和V的values来标准化奖励机制,从而减少上述公式的误差,并实现系统更新,公式如下:
其中,
其中,θ是训练模型参数,是目标函数,关于θ的梯度表示,t是迭代次数。
5.根据权利要求4所述基于强化学习的蒙汉双语种互译方法,其特征在于,训练一个奖赏模型Vw来估计V的值,Vw是一种基于注意力的编码解码器,通过Vw,将编码源句a解码,预测在时刻t,计算其中W0是将向量转化成标量的矩阵,是RNN解码器的输出向量,通过以下公式训练奖赏机制以在实际值和预测值之间最小化均方误差:
给定一个固定的a,该公式的下降函数为:
根据该下降函数,实现奖赏机制更新;
其中,||·||2为欧几里得范数,为二范式,二范数是指空间上两个向量矩阵的直线距离。即两点之间的最短距离,来表示实际值和预测值之间的最小差距。是Z'(w)关于w的梯度表示,是Vw关于w的梯度表示,表示先前的词。
6.根据权利要求1所述基于强化学习的蒙汉双语种互译方法,其特征在于,首先所述系统接受一个源语言句子a进行翻译,初始化翻译模型参数θ,然后根据翻译模型,生成一个目标语言句子获得反馈通过策略梯度优化翻译模型中的参数,从而达到奖励最大化重复以上步骤直到算法收敛,便能得到最佳翻译模型。
CN201810428143.0A 2018-05-07 2018-05-07 一种基于强化学习的蒙汉双语种互译方法 Active CN108920468B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810428143.0A CN108920468B (zh) 2018-05-07 2018-05-07 一种基于强化学习的蒙汉双语种互译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810428143.0A CN108920468B (zh) 2018-05-07 2018-05-07 一种基于强化学习的蒙汉双语种互译方法

Publications (2)

Publication Number Publication Date
CN108920468A true CN108920468A (zh) 2018-11-30
CN108920468B CN108920468B (zh) 2019-05-14

Family

ID=64403584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810428143.0A Active CN108920468B (zh) 2018-05-07 2018-05-07 一种基于强化学习的蒙汉双语种互译方法

Country Status (1)

Country Link
CN (1) CN108920468B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110061A (zh) * 2019-04-26 2019-08-09 同济大学 基于双语词向量的低资源语种实体抽取方法
CN110245364A (zh) * 2019-06-24 2019-09-17 中国科学技术大学 零平行语料多模态神经机器翻译方法
CN110442878A (zh) * 2019-06-19 2019-11-12 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN110489766A (zh) * 2019-07-25 2019-11-22 昆明理工大学 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法
CN110738062A (zh) * 2019-09-30 2020-01-31 内蒙古工业大学 一种gru神经网络蒙汉机器翻译方法
CN110929532A (zh) * 2019-11-21 2020-03-27 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN111274438A (zh) * 2020-01-15 2020-06-12 中山大学 一种语言描述引导的视频时序定位方法
CN111401037A (zh) * 2020-06-05 2020-07-10 平安国际智慧城市科技股份有限公司 自然语言的生成方法、装置、电子设备及存储介质
CN112417896A (zh) * 2020-11-03 2021-02-26 科大讯飞股份有限公司 一种领域数据获取方法、机器翻译方法及相关设备
CN112580372A (zh) * 2020-12-26 2021-03-30 内蒙古工业大学 一种基于Actor-Critic的蒙汉神经机器翻译方法
CN113544703A (zh) * 2019-03-05 2021-10-22 易享信息技术有限公司 高效的离策略信用分配

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354716A (zh) * 2015-07-17 2017-01-25 华为技术有限公司 转换文本的方法和设备
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107729329A (zh) * 2017-11-08 2018-02-23 苏州大学 一种基于词向量连接技术的神经机器翻译方法及装置
CN107870902A (zh) * 2016-09-26 2018-04-03 谷歌公司 神经机器翻译系统
CN107870904A (zh) * 2017-11-22 2018-04-03 北京搜狗科技发展有限公司 一种翻译方法、装置以及用于翻译的装置
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN108829685A (zh) * 2018-05-07 2018-11-16 内蒙古工业大学 一种基于单语语料库训练的蒙汉互译方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354716A (zh) * 2015-07-17 2017-01-25 华为技术有限公司 转换文本的方法和设备
CN107870902A (zh) * 2016-09-26 2018-04-03 谷歌公司 神经机器翻译系统
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN107729329A (zh) * 2017-11-08 2018-02-23 苏州大学 一种基于词向量连接技术的神经机器翻译方法及装置
CN107870904A (zh) * 2017-11-22 2018-04-03 北京搜狗科技发展有限公司 一种翻译方法、装置以及用于翻译的装置
CN108829685A (zh) * 2018-05-07 2018-11-16 内蒙古工业大学 一种基于单语语料库训练的蒙汉互译方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李婧萱: ""基于深度神经网络的统计机器翻译模型研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544703A (zh) * 2019-03-05 2021-10-22 易享信息技术有限公司 高效的离策略信用分配
CN113544703B (zh) * 2019-03-05 2024-04-05 硕动力公司 高效的离策略信用分配
CN110110061A (zh) * 2019-04-26 2019-08-09 同济大学 基于双语词向量的低资源语种实体抽取方法
CN110110061B (zh) * 2019-04-26 2023-04-18 同济大学 基于双语词向量的低资源语种实体抽取方法
CN110442878A (zh) * 2019-06-19 2019-11-12 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN110442878B (zh) * 2019-06-19 2023-07-21 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN110245364A (zh) * 2019-06-24 2019-09-17 中国科学技术大学 零平行语料多模态神经机器翻译方法
CN110245364B (zh) * 2019-06-24 2022-10-28 中国科学技术大学 零平行语料多模态神经机器翻译方法
CN110489766A (zh) * 2019-07-25 2019-11-22 昆明理工大学 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法
CN110738062A (zh) * 2019-09-30 2020-01-31 内蒙古工业大学 一种gru神经网络蒙汉机器翻译方法
CN110929532A (zh) * 2019-11-21 2020-03-27 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
WO2021098397A1 (zh) * 2019-11-21 2021-05-27 腾讯科技(深圳)有限公司 数据处理方法、设备及存储介质
CN110929532B (zh) * 2019-11-21 2023-03-21 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN111274438B (zh) * 2020-01-15 2023-06-23 中山大学 一种语言描述引导的视频时序定位方法
CN111274438A (zh) * 2020-01-15 2020-06-12 中山大学 一种语言描述引导的视频时序定位方法
CN111401037B (zh) * 2020-06-05 2020-11-06 平安国际智慧城市科技股份有限公司 自然语言的生成方法、装置、电子设备及存储介质
CN111401037A (zh) * 2020-06-05 2020-07-10 平安国际智慧城市科技股份有限公司 自然语言的生成方法、装置、电子设备及存储介质
CN112417896A (zh) * 2020-11-03 2021-02-26 科大讯飞股份有限公司 一种领域数据获取方法、机器翻译方法及相关设备
CN112417896B (zh) * 2020-11-03 2024-02-02 中国科学技术大学 一种领域数据获取方法、机器翻译方法及相关设备
CN112580372A (zh) * 2020-12-26 2021-03-30 内蒙古工业大学 一种基于Actor-Critic的蒙汉神经机器翻译方法

Also Published As

Publication number Publication date
CN108920468B (zh) 2019-05-14

Similar Documents

Publication Publication Date Title
CN108920468B (zh) 一种基于强化学习的蒙汉双语种互译方法
Kim et al. Efficient dialogue state tracking by selectively overwriting memory
US11941522B2 (en) Address information feature extraction method based on deep neural network model
CN109902145B (zh) 一种基于注意力机制的实体关系联合抽取方法和系统
CN110532377B (zh) 一种基于对抗训练和对抗学习网络的半监督文本分类方法
CN108024158A (zh) 利用视觉注意力机制的有监督视频摘要提取方法
CN111859978A (zh) 一种基于深度学习的情感文本生成方法
CN110516229B (zh) 一种基于深度学习的领域自适应中文分词方法
CN112487820A (zh) 一种中文医疗命名实体识别方法
CN114756687A (zh) 基于自学习实体关系联合抽取的钢铁产线设备诊断方法
CN110162789A (zh) 一种基于汉语拼音的词表征方法及装置
CN115906815B (zh) 一种用于修改一种或多种类型错误句子的纠错方法及装置
CN116227560A (zh) 基于DTW-former的时间序列预测模型及方法
CN115906857A (zh) 一种基于词汇增强的中医文本命名实体识别方法
CN115964459B (zh) 基于食品安全认知图谱的多跳推理问答方法及系统
Song et al. A method for identifying local drug names in xinjiang based on BERT-BiLSTM-CRF
CN114648015A (zh) 一种基于依存关系注意力模型的方面级情感词识别方法
CN114020900A (zh) 基于融合空间位置注意力机制的图表英语摘要生成方法
CN114238636A (zh) 一种基于翻译匹配的跨语言属性级情感分类方法
CN114548090B (zh) 基于卷积神经网络和改进级联标注的快速关系抽取方法
CN114239575B (zh) 语句分析模型的构建方法、语句分析方法、装置、介质和计算设备
CN113408267B (zh) 一种基于预训练模型的词对齐性能提升方法
CN115221880A (zh) 一种命名实体识别方法及终端
CN114692615A (zh) 一种针对小语种的小样本意图识别方法
CN114818743A (zh) 一种基于多约束项的蒙汉神经机器翻译方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant