CN108460028B - 将句子权重融入神经机器翻译的领域适应方法 - Google Patents

将句子权重融入神经机器翻译的领域适应方法 Download PDF

Info

Publication number
CN108460028B
CN108460028B CN201810325818.9A CN201810325818A CN108460028B CN 108460028 B CN108460028 B CN 108460028B CN 201810325818 A CN201810325818 A CN 201810325818A CN 108460028 B CN108460028 B CN 108460028B
Authority
CN
China
Prior art keywords
domain
sentence
weight
similarity
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810325818.9A
Other languages
English (en)
Other versions
CN108460028A (zh
Inventor
熊德意
张诗奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iol Wuhan Information Technology Co ltd
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN201810325818.9A priority Critical patent/CN108460028B/zh
Publication of CN108460028A publication Critical patent/CN108460028A/zh
Application granted granted Critical
Publication of CN108460028B publication Critical patent/CN108460028B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种将句子权重融入神经机器翻译的领域适应方法,应用在基于注意力机制且采用encoder‑decoder框架的NMT模型,包括:计算out‑of‑domain句子与in‑domain语料的相似度来赋予句子权重;将所述句子权重信息融入NMT训练。上述将句子权重融入神经机器翻译的领域适应方法,我们利用NMTencoder的自身信息用领域相似度的方法得到权重,并将权重融入NMT训练。这种新方法比论文“Instance weighting for neural machine translation domain adaptation.”中的方法能取得更好的翻译效果。

Description

将句子权重融入神经机器翻译的领域适应方法
技术领域
本发明涉及技术翻译领域,特别是涉及将句子权重融入神经机器翻译的领域适应方法。
背景技术
随着计算机计算能力的提高以及大数据的应用,深度学习取得进一步的应用。基于深度学习的Neural Machine Translation越来越受到人们的关注。在NMT领域中,最常用的一种翻译模型是带有注意力机制(attention-based)的encoder-decoder模型。其主要思想是将待翻译的语句(在下文中统称为‘源语句’)经过编码器(encoder)编码成为一个向量表示,然后利用解码器(decoder)对源语句的向量表示进行解码,翻译成为其对应的译文(在下文中统称为‘目标语句’)。
在很多机器学习任务中,模型在训练时所采用的样本和模型在测试时所采用的样本分布不一致,导致了领域适应性问题。在统计机器翻译中,领域适应已有着广泛的研究,但在NMT领域中,领域适应还是一个尚在研究的问题。一些统计机器翻译中运用的方法,如数据选择、多模型联合训练等方法,可以应用在NMT中,但也有方法如训练数据带权重等在NMT中不易被使用,因为NMT不是一个线性模型或其组合。现有的NMT的领域适应方法,主要分为模型层面、数据层面。在模型层面上,有微调、模型融合等,在数据层面上,有数据选择、领域控制、加权数据训练等方法。
传统技术存在以下技术问题:
在NMT的领域适应问题上,微调是一种常用的方法,即先在领域外语料上训练翻译系统,再用领域内的数据在其基础上继续训练,提高翻译效果。
现有的将句子权重融入NMT的领域适应方法是:论文Instance weighting forneural machine translation domain adaptation.,In Proceedings of the2017Conference on Empirical Methods in Natural Language Processing,pages1482–1488.用语言模型训练工具SRILM训练领域内语料的语言模型,用领域外语料在语言模型上的交叉熵的差集,作为生成句子权重的方法,再将权重融入NMT训练。
论文余弦相似度tweighting for neural machine translation domainadaptation.In Proceedings of the First Workshop on Neural MachineTranslation,pages 40–46.训练了一个RNN的分类器,将句子用分类器生成分数,句子越接近领域内分数越高,反之越低。然后将权重融入NMT训练。
微调的方法没有考虑到,领域外的语料中,有一部分接近领域内的语料能帮助领域内的翻译,但与领域内语料相差较远的与语料可能会降低领域内的翻译效果。而且,微调的方法容易出现过拟合的问题。我们采用的将句子权重融入NMT的领域适应方法,将领域外的语料中接近领域内的语料的部分在训练中赋予较高的权重,远离领域内的语料的部分在训练中赋予较低的权重,避免其降低翻译效果。
论文“Instance weighting for neural machine translation domainadaptation.”和论文余弦相似度tweighting for neural machine translation domainadaptation.中的方法需要借助于外部的工具SRILM或分类器。
发明内容
基于此,有必要针对上述技术问题,提供一种将句子权重融入神经机器翻译的领域适应方法,只需要NMT自身的信息,并能有很好的翻译效果。
一种将句子权重融入神经机器翻译的领域适应方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,包括:
计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;
将所述句子权重信息融入NMT训练。
上述将句子权重融入神经机器翻译的领域适应方法,我们利用NMT encoder的自身信息用领域相似度的方法得到权重,并将权重融入NMT训练。这种新方法比论文“Instance weighting for neural machine translation domain adaptation.”中的方法能取得更好的翻译效果。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用JS散度的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用欧式距离的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用余弦相似度的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用交叉熵的方法计算两者的相似度。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现任意一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现任意一项所述方法的步骤。
附图说明
图1为本申请实施例提供的一种将句子权重融入神经机器翻译的领域适应方法的流程示意图。
图2为本申请实施例提供的一种将句子权重融入神经机器翻译的领域适应方法的效果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
首先介绍一下本申请的应用基础:基于注意力机制(attention)的NMT模型。
在神经机器翻译系统中,一般采用encoder-decoder框架来实现翻译。对训练语料中的每一个词,我们都为其初始化一个词向量,所有词的词向量构成了词向量词典。词向量,一般是一个多维的向量,向量中每一维都是一个实数,维度的大小一般根据实验过程中的结果来最终确定。例如,对于单词“咱们”,它的词向量可能是<0.12,-0.23,...,0.99>。
Encoder是由双向RNN(Recurent Neural Network)网络构成。在encoder阶段,encoder读入一个句子,将句子编码成一系列的向量。具体过程如下,首先将一个句子表示为词向量的序列,即x=<x1,x2,...,xT>,其中x为输入的句子,xj为句子中第i个词的词向量,即一个m维的向量。前向RNN根据公式hj=f(xj,hj-1),我们可以获得一个由隐层向量组成的前向向量序列
Figure BDA0001626549500000041
反向RNN依据同样的原理,可以得到由隐层向量组层的反向向量序列
Figure BDA0001626549500000042
我们连接hj和hj,作为单词xj经过encoder编码后的含有上下文信息的向量表示hj=[hj;hj]。由隐层向量序列<h1,h2,...,hT>,我们可以获得context向量ct=q({h1,h2,...,hT})。其中,其中
Figure BDA0001626549500000043
是时序t时的隐藏状态,f和q是非线性的激活函数,其中f一般采用GRU或者LSTM,q一般采用attention网络。
在经典的神经机器翻译系统中,context向量ct一般利用attention网络来获得,ct可以通过下面公式运算获得:
Figure BDA0001626549500000044
Figure BDA0001626549500000045
etj=a(st-1,hj)
其中,a是一个一层的前向网络,αtj是encoder是每一个隐藏状态hj的权重。
Decoder也是由RNN网络构成。在Decoder阶段,给定向量ct,以及所有已经预测得到词{y1,y2,...,yt′-1},可以继续预测yt,通过如下定义可以逐步实现:
Figure BDA0001626549500000046
其中
Figure BDA0001626549500000047
另外,p(yt|{y1,y2,...,yt-1},ct)=g(yt-1,st,ct),其中g是非线性激活函数,一般采用softmax函数。st为RNN中的隐层状态,st=f(yt-1,st-1,ct)。
encoder和decoder都采用RNN网络,主要是因为其特点,RNN网络的特点在于,隐层状态由当前的输入和上一个隐层状态共同决定。如在本神经机器翻译过程中,Encoder阶段隐层状态由源语端当前词的词向量和上一个隐层状态共同决定。Decoder阶段的隐层状态由前一步骤中计算得到的目标语端词向量和上一个隐层状态共同决定。
模型的训练一般采用最小化负对数似然为损失函数,采用随机梯度下降为训练方法来进行迭代训练。在训练集
Figure BDA0001626549500000051
上,其中xn,yn为平行语句对,模型训练目标函数如下:
Figure BDA0001626549500000052
一种将句子权重融入神经机器翻译的领域适应方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,包括:
计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;
将所述句子权重信息融入NMT训练。
上述将句子权重融入神经机器翻译的领域适应方法,我们利用NMTencoder的自身信息用领域相似度的方法得到权重,并将权重融入NMT训练。这种新方法比论文“Instanceweighting for neural machine translation domain adaptation.”中的方法能取得更好的翻译效果。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用JS散度的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用欧式距离的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用余弦相似度的方法计算两者的相似度。
在另外的一个实施例中,在步骤“计算out-of-domain句子与in-domain领域的相似度来赋予句子权重;”中,利用交叉熵的方法计算两者的相似度。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任意一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任意一项所述方法的步骤。
下面介绍一下本发明的一个具体应用场景:
在将句子权重融入神经机器翻译的领域适应方法中,我们将领域外(out-of-domain)语料的句子按照与领域内(in-domain)语料的相似程度来赋予不同的权重,与in-domain语料越接近,权重越高,越远,权重越低。
我们的计算权重的方法,是用计算out-of-domain句子与in-domain领域的相似度来赋予句子权重。参阅图1,细节如下:
out-of-domain和in-domain的句子向量表示:
NMT的Encoder生成向量代表源端句子信息,并把它当做decoder的隐层初始状态。相似度方法用欧式距离测度时,我们把这个向量作为out-of-domain和in-domain的句子向量表示si;相似度方法用JS散度测度时,我们把这个向量做soft-max运算后的结果作为out-of-domain和in-domain的句子向量表示
Figure BDA0001626549500000061
soft-max运算公式:
Figure BDA0001626549500000062
out-of-domain领域向量
Figure BDA0001626549500000063
表示用out-of-domain的中心代替,即用out-of-domain语料中每个句子的向量表示
Figure BDA0001626549500000064
的平均向量来表示。
in-domain的领域向量表示
Figure BDA0001626549500000065
表示用in-domain的中心代替,即用in-domain语料中每个句子的向量表示
Figure BDA0001626549500000066
的平均向量来表示。
相似度方法
本方法可以采用多种不同的相似度测量方法,如JS散度、欧式距离、余弦相似度、交叉熵等。
下面以JS散度为例说明:
步骤一:计算α时,
Figure BDA0001626549500000067
其中,
Figure BDA0001626549500000068
是out-of-domain源端句子向量表示
Figure BDA0001626549500000069
与out-of-domain源端中心的JS相似度;
Figure BDA00016265495000000610
是out-of-domain源端句子向量表示
Figure BDA00016265495000000611
与in-domain源端中心的JS相似度;
Figure BDA00016265495000000612
是out-of-domain目标端句子向量表示
Figure BDA00016265495000000613
与out-of-domain目标端中心的JS相似度;
Figure BDA00016265495000000614
是out-of-domain目标端句子向量表示
Figure BDA0001626549500000071
与in-domain目标端中心的JS相似度。
JS散度的计算公式为:
Figure BDA0001626549500000072
其中,
Figure BDA0001626549500000073
步骤二:将步骤一的结果α归一化,采用离差标准化,将α化成0-1之间的数作为权重P(si)。
将权重融入NMT训练
在NMT训练时,out-of-domain的句子赋上计算出的权重P(si)(0-1之间),in-domain的句子权重都为1。
将句子权重信息融入NMT的方法是,将原目标函数
Figure BDA0001626549500000074
,更新为:
Figure BDA0001626549500000075
以上是标准领域适应情景下我们提出的将句子权重融入神经机器翻译的领域适应方法。我们还把这种方法使用到伪平行语料的翻译中,能提升低资源语言的翻译效果。细节与上述方法存在一些不同,列举如下:
类比上述实验的方法,在伪平行语料的翻译中,将开发集类比为上述方法中的in-domain,将整个训练集当做上述方法中的out-of-domain。
与上述方法在两个细节上存在不同:
1.计算α时:
Figure BDA0001626549500000076
2.将权重融入NMT训练时:
Figure BDA0001626549500000081
把P(si)当做给训练集句子的奖赏。
鉴于领域外的语料中,有一部分接近领域内的语料能帮助领域内的翻译,但与领域内语料相差较远的与语料可能会降低领域内的翻译效果。我们在NMT的领域适应问题上采用将句子权重融入NMT翻译的方法。现有的这种方法需要引入如SRILM或分类器的外部工具,我们的方法只需利用NMT自身的信息,并能有更好的翻译效果。另外,我们提出的方法,还适用于伪平行语料的翻译系统、后翻译这种低资源语言的翻译情景中,能提升其翻译效果。
我们提出的将句子权重融入神经机器翻译的领域适应方法,具有以下优势,
1.能降低与in-domain语料相距较远的out-of-domain语料对in-domain翻译可能存在的有害影响。
2.不需要借助于外部的工具,利用NMT encoder的自身信息得到句子权重。
3.能取得比目前其他将句子权重融入神经机器翻译的领域适应方法更好的翻译效果。其中,用JS散度测相似度时,比其他将句子权重融入神经机器翻译的领域适应方法BLEU值最高提升1.09个点,在4个测试集上的平均值提升0.63个点;用欧式距离测相似度时,比其他将句子权重融入神经机器翻译的领域适应方法BLEU值最高提升1.92个点,在4个测试集上的平均值高出1.42个点。实验结果如下表:
Figure BDA0001626549500000082
同时,我们将带有权重的句子表示可视化,如图2所示(随机采样权重约为0.9、0.5、0的句子),可以看出,离in-domain中心in_core的距离越近,句子权重越大,反之越小。而且,in-domain句子表示的平均值in_core可以代表in-domain,同样,out-of-domain句子表示的平均值out_core可以代表out-of-domain。进一步证明了我们采用的权重生成方法的合理性。
4.能使用于伪平行语料的翻译,提升NMT在低资源语言上的翻译效果。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (3)

1.一种将句子权重融入神经机器翻译的领域适应方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,其特征在于,包括:
计算out-of-domain句子与in-domain领域的相似度来赋予所述句子权重;
将所述句子权重信息融入NMT训练;
out-of-domain和in-domain的句子用向量表示:
NMT的e ncoder生成向量代表源端句子信息,并把它当做decoder的隐层初始状态;相似度方法用JS散度测度时,把这个向量做soft-max运算后的结果作为out-of-domain和in-domain的句子向量表示
Figure FDA0003119631840000011
soft-max运算公式:
Figure FDA0003119631840000012
out-of-domain领域向量
Figure FDA0003119631840000013
表示用out-of-domain的中心代替,即用out-of-domain语料中每个句子的向量表示
Figure FDA0003119631840000014
的平均向量来表示;
in-domain的领域向量表示
Figure FDA0003119631840000015
表示用in-domain的中心代替,即用in-domain语料中每个句子的向量表示
Figure FDA0003119631840000016
的平均向量来表示;
相似度方法用JS散度测度时具体如下:
计算α时,
Figure FDA0003119631840000017
其中,
Figure FDA0003119631840000018
是out-of-domain源端句子向量表示
Figure FDA0003119631840000019
与out-of-domain源端中心的JS相似度;
Figure FDA00031196318400000110
是out-of-domain源端句子向量表示
Figure FDA00031196318400000111
与in-domain源端中心的JS相似度;
Figure FDA00031196318400000112
是out-of-domain目标端句子向量表示
Figure FDA00031196318400000113
与out-of-domain目标端中心的JS相似度;
Figure FDA00031196318400000114
是out-of-domain目标端句子向量表示
Figure FDA00031196318400000115
与in-domain目标端中心的JS相似度;
JS散度的计算公式为:
Figure FDA00031196318400000116
其中,
Figure FDA0003119631840000021
步骤二:将步骤一的结果α归一化,采用离差标准化,将α化成0-1之间的数作为权重P(s);
在NMT训练时,out-of-domain的句子赋上计算出的权重P(s),in-domain的句子权重都为1;
将句子权重信息融入NMT的方法是,将原目标函数
Figure FDA0003119631840000022
更新为:
Figure FDA0003119631840000023
在伪平行语料的翻译中,将开发集类比为上述方法中的in-domain,将整个训练集当做上述方法中的out-of-domain;
与上述方法在两个细节上存在不同:
1.计算α时:
Figure FDA0003119631840000024
2.将权重融入NMT训练时:
Figure FDA0003119631840000025
把P(s)当做给训练集句子的奖赏。
2.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1中所述方法的步骤。
3.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1所述方法的步骤。
CN201810325818.9A 2018-04-12 2018-04-12 将句子权重融入神经机器翻译的领域适应方法 Active CN108460028B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810325818.9A CN108460028B (zh) 2018-04-12 2018-04-12 将句子权重融入神经机器翻译的领域适应方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810325818.9A CN108460028B (zh) 2018-04-12 2018-04-12 将句子权重融入神经机器翻译的领域适应方法

Publications (2)

Publication Number Publication Date
CN108460028A CN108460028A (zh) 2018-08-28
CN108460028B true CN108460028B (zh) 2021-08-03

Family

ID=63234731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810325818.9A Active CN108460028B (zh) 2018-04-12 2018-04-12 将句子权重融入神经机器翻译的领域适应方法

Country Status (1)

Country Link
CN (1) CN108460028B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146064B (zh) * 2018-09-05 2023-07-25 腾讯科技(深圳)有限公司 神经网络训练方法、装置、计算机设备和存储介质
CN110008996B (zh) * 2019-03-06 2021-08-10 华南理工大学 一种基于散度计算的异构域适应方法
CN109933809B (zh) * 2019-03-15 2023-09-15 北京金山数字娱乐科技有限公司 一种翻译方法及装置、翻译模型的训练方法及装置
CN110175336B (zh) * 2019-05-22 2021-05-28 北京百度网讯科技有限公司 翻译方法、装置和电子设备
CN110442878B (zh) * 2019-06-19 2023-07-21 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN110489624B (zh) * 2019-07-12 2022-07-19 昆明理工大学 基于句子特征向量的汉越伪平行句对抽取的方法
US11763098B2 (en) 2019-08-07 2023-09-19 7299362 Canada Inc. System and method for language translation
CN110717342B (zh) * 2019-09-27 2023-03-14 电子科技大学 一种基于transformer的距离参量对齐翻译方法
CN112257461A (zh) * 2020-11-03 2021-01-22 沈阳雅译网络技术有限公司 一种基于注意力机制的xml文档翻译及评价方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038159A (zh) * 2017-03-09 2017-08-11 清华大学 一种基于无监督领域自适应的神经网络机器翻译方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038159A (zh) * 2017-03-09 2017-08-11 清华大学 一种基于无监督领域自适应的神经网络机器翻译方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Instance Weighting for Neural Machine Translation Domain Adaptation;Rui Wang et al.;《Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing》;20170901;第1482-1488页 *

Also Published As

Publication number Publication date
CN108460028A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN108460028B (zh) 将句子权重融入神经机器翻译的领域适应方法
Tan et al. Neural machine translation: A review of methods, resources, and tools
CN108846077B (zh) 问答文本的语义匹配方法、装置、介质及电子设备
US11397892B2 (en) Method of and system for training machine learning algorithm to generate text summary
US20210232948A1 (en) Question responding apparatus, question responding method and program
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN108132932B (zh) 带有复制机制的神经机器翻译方法
JP6772213B2 (ja) 質問応答装置、質問応答方法及びプログラム
US20220300718A1 (en) Method, system, electronic device and storage medium for clarification question generation
CN109003678A (zh) 一种仿真文本病历的生成方法及系统
CN114676234A (zh) 一种模型训练方法及相关设备
CN111401084A (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
CN113065331A (zh) 基于实体上下文判别的实体情感识别方法和系统
JPWO2019167296A1 (ja) 自然言語処理のための装置、方法及びプログラム
CN115658954B (zh) 一种基于提示学习的跨模态检索对抗防御方法
CN113609284A (zh) 一种融合多元语义的文本摘要自动生成方法及装置
CN115861995B (zh) 一种视觉问答方法、装置及电子设备和存储介质
CN115238893A (zh) 面向自然语言处理的神经网络模型量化方法和装置
WO2020040255A1 (ja) 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム
CN116680575B (zh) 模型处理方法、装置、设备及存储介质
CN116629211B (zh) 基于人工智能的写作方法及系统
JP6703964B2 (ja) 学習装置、テキスト生成装置、方法、及びプログラム
KR102674639B1 (ko) 신경망 모델 기반 암호문을 복호화하기 위한 전자 장치 및 전자 장치의 제어 방법
CN110442706B (zh) 一种文本摘要生成的方法、系统、设备及存储介质
CN116306612A (zh) 一种词句生成方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221027

Address after: 18/F, Building A, Wuhan Optics Valley International Business Center, No. 111, Guanshan Avenue, Donghu New Technology Development Zone, Wuhan, Hubei 430070

Patentee after: Wuhan Ruidimu Network Technology Co.,Ltd.

Address before: 215104 No. 1188 Wuzhong Road, Wuzhong District, Suzhou, Jiangsu

Patentee before: SOOCHOW University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221221

Address after: Room 1302, 13/F, Building B2, Future Science and Technology City, No. 999, Gaoxin Avenue, Donghu New Technology Development Zone, Wuhan City, 430200, Hubei Province (Wuhan Area, Free Trade Zone)

Patentee after: IOL (WUHAN) INFORMATION TECHNOLOGY Co.,Ltd.

Address before: 18/F, Building A, Wuhan Optics Valley International Business Center, No. 111, Guanshan Avenue, Donghu New Technology Development Zone, Wuhan, Hubei 430070

Patentee before: Wuhan Ruidimu Network Technology Co.,Ltd.