CN110765758B - 一种同义句生成模型的生成方法、装置及介质 - Google Patents
一种同义句生成模型的生成方法、装置及介质 Download PDFInfo
- Publication number
- CN110765758B CN110765758B CN201911063958.4A CN201911063958A CN110765758B CN 110765758 B CN110765758 B CN 110765758B CN 201911063958 A CN201911063958 A CN 201911063958A CN 110765758 B CN110765758 B CN 110765758B
- Authority
- CN
- China
- Prior art keywords
- sentence
- model
- generation
- synonym
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 86
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 abstract description 13
- 238000002372 labelling Methods 0.000 abstract description 7
- 230000002787 reinforcement Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
本文公开了一种同义句生成模型的生成方法、装置及介质,此方法包括:使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛。本文使用了大量的单句,充分利用了单句的成本低和无需人工标注的优点。在对模型的训练过程中,结合了大量的单句和强化学习方式,单句的使用极大的增加了语义的丰富性,强化学习方式可以使模型在迭代过程中不断优化,从而完全无需依赖大量的平行语料便可以训练出优质的同义句生成模型。
Description
技术领域
本文涉及移动终端数据处理技术领域,尤其涉及一种同义句生成模型的生成方法、装置及介质。
背景技术
同义句生成的过程是针对一个任意语句X通过生成模型生成与该语句X具有相同意义的语句Y,语句X与语句Y的具体内容不完全相同。同义句生成可以用来提升系统的鲁棒性,具有广泛的实际应用价值,还可以应用到任何需要同义句数据扩充的领域,例如:对话系统语料扩充、情感分类语料扩充,相似问句生成等。
最早期的同义句生成方法中通常使用基于规则的方法。例如:首先对语句X中的关键词进行挖掘,通过搜索同义词词典,获得上述关键词的同义词,使用同义词对语句X中的关键词进行替换得到对应的同义句Y,这种方法虽然可以生成一些比较不错的结果,但因为挖掘同义句词典本身是耗费人工资源的过程,并且同义词替换有可能导致新的句子具有语法问题,所以这种方法存在人工成本高以及结果不稳定性的问题。
随着深度学习技术的发展,同义句生成可以基于生成式网络框架得到实现。众所周知,深度学习的方法需要大量的数据,因此训练同义句生成网络需要大量的平行同义句数据,但这样的数据需要消耗大量的人工标注成本。
同义句生成目前用得最广泛的方法是使用基于深度学习网络的方法。如图1所示,是基于seq2seq(Sequence to Sequence)和注意力机制(attention)的同义句生成网络模型的结构图。
如图1所示,模型包括位于下方的双向循环神经网络(RecurrentNeuralNetworks,RNN)作为编码器和位于上方的解码器。
模型的输入为一个句子X(x1,x2,...,xT),其中x1,x2,...,xT为该句子在分词之后的令牌(token),将句子X的令牌输入到编码器中,通过编码器得到每个时刻对应的隐状态ht。
通过编码器得到上下文特征。
在解码阶段,使用通过编码器得到的上下文特征来进行解码。解码过程中,使用注意力机制对通过编码器得到的上下文特征进行加权求和,得到一个上下文特征向量Ct。然后使用Ct结合上一时刻的输出St-1以及当前时刻的输入Yt-1可以得到当前时刻的输出Si,通过使用St可以预测出当前时刻的输出Yt。
训练阶段使用同义句平行语料(X,Y)进行训练,即把(X,Y)同时输入到模型中计算损失,根据此损失使用梯度下降法对模型进行更新直至模型收敛。测试阶段在训练成功的模型中输入句子A,通过此模型输入与此句子A的同义句即句子B。
本方法最大的缺点是需要大量的平行数据(即语句对,每个语句对中包括同义的两个句子)进行训练,在现实应用中关于平行数据的数据库较少,如果想通过标注获得大量平行数据,则需要大量的人工标注成本。
发明内容
为克服相关技术中存在的问题,本文提供一种同义句生成模型的生成方法、装置及介质。
根据本文实施例的第一方面,提供一种同义句生成模型的生成方法,包括:
使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛,每次迭代处理包括:
针对从第二集合中采集的第一预设数量个单句,使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对,将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
上述方法还具有以下特点:
根据所述单句和与每个单句相应的至少一同义句获得语句对的方法包括以下方式中的一种:
方式一,确定所述单句与相应的每个同义句的生成概率,选择生成概率最大的单句和同义句的组合,将此组合作为所述语句对;
方式二,从所述单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。
上述方法还具有以下特点:
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,包括以下方式中的一种:
方式一,从所述第二集合采集第二预设数量个单句,针对所述第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
方式二,从所述第二集合采集第五预设数量个单句,针对所述第五预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对,使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对。
上述方法还具有以下特点:
所述方法还包括:
使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
所述根据所述判别模型的输出结果对所述生成模型进行更新包括:
将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值,根据所述平均值更新所述生成模型的各参数。
上述方法还具有以下特点:
所述方法还包括:
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
所述根据所述正样本语句对和所述负样本语句对所述判别模型进行更新包括:
确定每个正样本语句对的价值指数为所述正样本语句对的生成概率;
确定每个负样本语句对的价值指数为最大价值;
将每个正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重,使用交叉熵损失函数根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练。
根据本文实施例的第二方面,提供一种同义句生成模型的生成装置,包括:
第一训练模块,用于使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
第一更新模块,用于对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛;
所述第一更新模块包括:
第一采集模块,用于从第二集合中采集第一预设数量个单句;
第一生成模块,用于使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对;
第二更新模块,用于将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
第二生成模块,用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对;
第三更新模块,用于根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
上述方法还具有以下特点:
所述第一生成模块,还用于使用以下方式中的一种根据所述单句和与每个单句相应的至少一同义句获得语句对:
方式一,确定所述单句与相应的每个同义句的生成概率,选择生成概率最大的单句和同义句的组合,将此组合作为所述语句对;
方式二,从所述单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。
上述方法还具有以下特点:
所述第二生成模块包括:
第二采集模块,用于从所述第二集合采集第二预设数量个单句;
第三生成模块,用于针对所述第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;
第一构建模块,用于使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
或者,
所述第二生成模块包括:
第三采集模块,用于从所述第二集合采集第五预设数量个单句;
第四生成模块,用于针对所述第五预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对;
第二构建模块,用于使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对。
上述方法还具有以下特点:
所述第一生成模块,还用于使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
所述第一更新模块包括:
第一设置模块,用于将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
第一计算模块,用于计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值;
迭代模块,用于根据所述平均值更新所述生成模型的各参数。
上述方法还具有以下特点:
所述第二生成模块,还用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
所述第二更新模块包括:
第二设置模块,用于确定每个正样本语句对的价值指数为所述正样本语句对的生成概率;确定每个负样本语句对的价值指数为最大价值;
第三设置模块,用于将每个正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重;
第二训练模块,用于使用交叉熵损失函数根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练。
根据本文实施例的第三方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种同义句生成模型的生成方法,所述方法包括:
使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛,每次迭代处理包括:
针对从第二集合中采集的第一预设数量个单句,使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对,将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
本文的实施例提供的技术方案可以包括以下有益效果:本文使用了大量的单句,充分利用了单句的成本低和无需人工标注的优点。在对模型的训练过程中,结合了大量的单句和强化学习方式,单句的使用极大的增加了语义的丰富性,强化学习方式可以使模型在迭代过程中不断优化,从而完全无需依赖大量的平行语料便可以训练出优质的同义句生成模型。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本文。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本文的实施例,并与说明书一起用于解释本文的原理。
图1是基于seq2seq和注意力机制的同义句生成网络模型的结构图;
图2是根据一示例性实施例示出的一种同义句生成模型的生成方法的流程图;
图3是根据一示例性实施例示出的一种同义句生成模型的生成装置的结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本文相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本文的一些方面相一致的装置和方法的例子。
本文实施例提供了一种同义句生成模型的生成方法。参照图2,图2是根据一示例性实施例示出的一种同义句生成模型的生成方法的流程图。如图2所示,此方法包括:
步骤S21,使用第一集合训练得到一生成模型和一判别模型;第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
步骤S22,对生成模型和判别模型进行迭代处理直至生成模型收敛,每次迭代处理包括:
步骤S22-1,从第二集合中采集第一预设数量个单句;
步骤S22-2,针对N个单句使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对;将获得的语句对分别输入至判别模型,根据判别模型的输出结果对生成模型进行更新;
步骤S22-3,使用第二集合中的多个单句通过生成模型生成与每个单句相应的同义句,获得多个正样本语句对;使用第二集合中的单句构成多个负样本语句对,根据所正样本语句对和负样本语句对将判别模型进行更新;
其中,第二集合包括多个单句,语句对中每个语句对均包括一个单句和一个同义句。第一集合中包含的同义句组中的句子互为同义句,即它们的语义是等价即表达了相同的语义,只是句子的文字表达方式不同。例如:制定业务规则、设立业务规定、确立业务规范是表达了相同语义的同义句。
为了提高网络的泛化能力,本方法中第二集合包括大量的单句,例如第二集合中包含数量为百万级别的单句,所包含的单句涉及不同的领域以及专业分支。本方法使用大量的单句,充分利用了单句的成本低和无需人工标注的优点。在对模型的训练过程中,结合了大量的单句和强化学习方式,单句的使用极大的增加了语义的丰富性,强化学习方式可以使模型在迭代过程中不断优化,从而完全无需依赖大量的平行语料便可以训练出优质的同义句生成模型。
在一实施例中,步骤S21中,使用第一集合训练生成模型时,对于一同义句组,将同义句组中一句子输入至生成模型,计算生成模型的实际输出结果,将同义句组中此句子的同义句作为生成模型的输出目标,根据实际输出结果和输出目标计算损失,根据此损失计算生成模型中参数的导数,根据计算结果计算梯度信息,根据梯度信息对生成模型中的参数进行更新。直至使用第一集合中所有同义句组中任一句子的输出结果和此句子相应的同义句计算的损失均小于预设损失时,确定生成模型训练成功。
在一实施例中,步骤S21中,使用第一集合训练判别模型时,使用第一集合中的不同同义句组构建一个非同义句组,例如,从一同义句组中选择一句子,再从另一同义句组中选择一句子,将这两个句子构成一个非同义句组。使用同义句组和非同义句组进行判别模型的训练。在同义句组进行训练时,将同义句组中的两个同义句输入判别模型,设置输出目标为第一值(例如1),根据判别模型的实际输出和第一值计算损失,根据此损失计算判别模型中参数的导数,根据计算结果计算梯度信息,根据梯度信息对判别模型中的参数进行更新。在使用非同义句组进行训练时,将非同义句组中的两个非同义句输入判别模型,设置输出目标为第二值(例如0),根据判别模型的实际输出和第二值计算损失,根据此损失计算判别模型中参数的导数,根据计算结果计算梯度信息,根据梯度信息对判别模型中的参数进行更新。直至使用第一集合中所有同义句组的输出结果和第一值计算得到的损失均小于预设损失并且使用所有非同义句组的输出结果和第二值计算得到的损失均小于预设损失时,确定判别模型训练成功。
在一实施例中,步骤S22-2中,使用生成模型生成与每个单句相应的至少一同义句后,根据每个单句和与每个单句相应的至少一同义句获得语句对的方法包括以下方式中的一种:
方式一,确定单句与相应的每个同义句的生成概率,生成概率是生成模型根据单句生成同义句的概率,选择生成概率最大的单句和同义句的组合,将此组合作为语句对。此方式一中,通过选择生成概率最高的方式,选择语义与单句最按近的一同义句,可以提高语句对作为训练样本的有效性,提高生成模型的训练速度。
方式二,从单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。此方式二的选择方式可以提高语句对的丰富性,提高生成模型的普适性。
在一实施例中,步骤S22-3中使用第二集合中的多个单句通过生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,具体包括以下方式中的一种:
方式一,从第二集合采集第二预设数量个单句,针对第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对。
举例如下:
例一
从第二集合采集N个单句,针对N个单句中M个单句使用生成模型生成与每个单句相应的同义句,获得M个正样本语句对;使用N个单句中M个单句和除M个单句之外的N-M个单句构成M个负样本语句对。其中,M小于N。使用M个单句和N-M个单句构成M个负样本语句对时,N-M大于M时,使用M个单句和从N-M中选择出的M个单句构成M个负样本语句对,N-M小于M时,使用M个单句中同一单句与N-M个单句多个单句分别构成不同的对应关系,从而构成M个负样本语句对。也就是说N-M个单句可以重复使用与M个单句构成M个负样本语句对。
例二
从第二集合采集2N个单句,针对2N个单句中前N个单句使用生成模型生成与每个单句相应的同义句,获得N个正样本语句对;使用2N个单句中后N个单句构成N个负样本语句对。
方式二,从第二集合采集第五预设数量个单句,针对第五预设数量个单句使用生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对,使用第五预设数量个单句和第二集合中除第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对。
例如:
从第二集合采集X个单句,针对X个单句使用生成模型生成与每个单句相应的同义句,获得X个正样本语句对,使用X个单句和第二集合中除上述X个单句之外的单句中的Y个单句构成Z个负样本语句对。
在一实施例中,步骤S22-3中正样本语句对的个数与负样本语句对的个数相同,在另一实施例中,正样本语句对的个数与负样本语句对的个数不相同时,正样本语句对的个数与负样本语句对的个数的差值小于正样本语句对的个数的预设百分比,或者,正样本语句对的个数与负样本语句对的个数的差值小于负样本语句对的个数的预设百分比。
在一实施例中,在步骤S22-2中,使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率。
步骤S22-2中,根据判别模型的输出结果对所述生成模型进行更新具体包括:
将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值,根据所述平均值更新所述生成模型的各参数。
在一实施例中,在步骤S22-3中,使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还生成每个语句对的生成概率。
步骤S22-3中,根据所述正样本语句对和所述负样本语句对所述判别模型进行更新包括:
确定每个正样本语句对的价值指数为所述正样本语句对的生成概率;
确定每个负样本语句对的价值指数为最大价值;
将每个正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重,根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练,根据交叉熵损失函数更新判别模型。
在一实施例中,生成模型是以下结构中的一种:循环神经网络、卷积神经网络、自注意力机制结构。判别模型是以下结构中的一种:循环神经网络、卷积神经网络、自注意力机制结构。其中,自注意力(self-attention)机制结构包括基于转换器(Transformer)的模型、基于伯特(Bert)的模型。其中,基于转换器的模型的框架是基于多头注意力机制的。
下面通过具体实施例对本方法进行详细说明。
具体实施例:
步骤1,数据准备过程:
通过人工标注的方式确定大量同义句组,构成第一集合S,第一集合S中包括多个同义句组,每个同义句组包括两个或以上的同义句。
通过网络从中文网站上随机或者按照预设的领域分支采集到百万级别数量的单句,将采集到的单句构成第二集合C。
步骤2,预训练过程:
步骤2.1,使用第一集合S预训练得到一生成模型G,生成模型的表达式为:Y=G(X),X与Y是同义句。第一集合S中包括多个同义句组,每个同义句组包括两个同义句时,使此两个同义句进行训练;每个同义句组包括两个以上同义句时,使同义句组中任意两个同义句进行训练。生成模型G生成与每个单句相应的同义句时,还生成每个语句对的生成概率。
步骤2.2,使用第一集合S预训练得到一判别模型D,判别模型的表达式为:P=D(X,Y),P表示X与Y是同义句的概率。将第一集合S中同义句组中的两同义句作为正样本语句对,从第一集合S的不同的同义句组中分别挑选两个词组成负样本语句对,使用正样本语句对和负样本语句对训练判别模型。
步骤3、模型更新过程:
循环执行下述3.1至3.5的过程,直至生成模型收敛:
步骤3.1,从第二集合C中随机采样K个单句,记为S1,S2,……,SK,使用生成模型G对K个单句分别生成同义句,得到S1',S2',……,SK';构成N个语句对,每个语句对包括一个单句和一个同义句,例如第一个语句对包括S1和S1'。
步骤3.2,将N个语句对分别输入至判别模型D,将判别模型D针对每个语句对的输出结果作为语句对的奖赏值。
具体公式公式(1)所示:
Rk=D(Sk,Sk')(1)
其中,k是大于1且小于或等于K的整数,Sk是指第k个语句对中的一单句,Sk'是第k个语句对中的Sk的同义句,Rk是指第k个语句对的奖赏值。
步骤3.3,计算每个语句对的生成概率对于生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定此总和的平均值,根据此平均值更新生成模型的各参数,具体的,根据线性搜索算法确定迭代步长,采用梯度下降法对生成模型进行逐步的迭代,针对生成模型中各参数沿梯度下降的方向求解极小值,在梯度向量的幅值到达预设值时(此预设值大于0且接近0),迭代结束。
确定上述平均值的具体公式如公式(2)所示:
其中,是指Rk的总期望对生成模型的参数求导的结果;k是大于1且小于或等于K的整数;θG是指生成模型G的所有网络参数;P(Sk'|Sk;θG)是指在具有网络参数θG的生成模型G中输入Sk生成Sk'的概率,log是对数函数。
步骤3.4,从第二集合采集2M个单句,针对2M个单句中前M个单句使用生成模型生成与每个单句相应的同义句,获得M个正样本语句对,还生成每个语句对的生成概率。使用2M个单句中前M个单句和后M个单句构成M个负样本语句对。共得到2M个语句对。例如第k个语句对,包括语句Sk,与此语句对应的同义或非同义语句为Sk’。
步骤3.5,确定每个正样本语句对的价值指数为所述正样本语句对的生成概率;
具体公式如公式(3)所示:
Vm=P(Sm'|Sm;θG)(3)
P(Sm'|Sm;θG)是指在具有网络参数θG的生成模型G中输入Sm生成Sm'的概率,Vm是第m个正样本语句对的价值指数,m是大于1且小于或等于M的整数。
确定每个负样本语句对的价值指数为最大价值(例如最大价值为1)。
步骤3.6,将每个正样本语句对的价值指数作为正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为负样本语句对的训练样本权重,使用交叉熵损失函数根据M个正样本语句对和M个负样本语句对以及相应的训练样本权重对判别模型进行训练。
其中,对判别模型进行训练时,训练样本权重对应于训练样本对判断别模型的响应力,训练样本权重较大的训练样本对判断别模型的响应力较大,训练样本权重较小的训练样本对判断别模型的响应力较小。
训练过程中的求导处理如公式(4)所示:
是指Vm的总期望判别模型的参数求导的结果;m是大于1且小于或等于2M的整数;θD是指判别模型D的所有网络参数;P(Sm',Sm;θD)是指在具有网络参数θD的判别模型D中输入Sm和Sm'时得到的样本真实概率,log是对数函数。
本文实施例提供了一种同义句生成模型的生成装置。参照图3,图3是根据一示例性实施例示出的一种同义句生成模型的生成方法的流程图。如图3所示,此装置包括:
第一训练模块,用于使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
第一更新模块,用于对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛;
所述第一更新模块包括:
第一采集模块,用于从第二集合中采集第一预设数量个单句;
第一生成模块,用于使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对;
第二更新模块,用于将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
第二生成模块,用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对;
第三更新模块,用于根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
本文实施例还提供了一种同义句生成模型的生成装置。此装置中的第一生成模块,还用于使用以下方式中的一种根据所述单句和与每个单句相应的至少一同义句获得语句对:
方式一,确定所述单句与相应的每个同义句的生成概率,选择生成概率最大的单句和同义句的组合,将此组合作为所述语句对;
方式二,从所述单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。
本文实施例还提供了一种同义句生成模型的生成装置。此装置中的第二生成模块包括:
第二采集模块,用于从所述第二集合采集第二预设数量个单句;
第三生成模块,用于针对所述第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;
第一构建模块,用于使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
或者,
所述第二生成模块包括:
第三采集模块,用于从所述第二集合采集第五预设数量个单句;
第四生成模块,用于针对所述第五预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对;
第二构建模块,用于使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对。
本文实施例还提供了一种同义句生成模型的生成装置。此装置中的第一生成模块,还用于使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
第一更新模块包括:
第一设置模块,用于将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
第一计算模块,用于计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值;
迭代模块,用于根据所述平均值更新所述生成模型的各参数。
本文实施例还提供了一种同义句生成模型的生成装置。此装置中的第二生成模块,还用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率;
第二更新模块包括:
第二设置模块,用于确定每个正样本语句对的价值指数为所述正样本语句对的生成概率;确定每个负样本语句对的价值指数为最大价值;
第三设置模块,用于将每个正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重;
第二训练模块,用于使用交叉熵损失函数根据所述M个正样本语句对和所述M个负样本语句对以及相应的训练样本权重对所述判别模型进行训练。
本文实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种同义句生成模型的生成方法,所述方法包括:
使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛,每次迭代处理包括:
针对从第二集合中采集的第一预设数量个单句,使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对,将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本文的其它实施方案。本申请旨在涵盖本文的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本文的一般性原理并包括本文未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本文的真正范围和精神由下面的权利要求指出。
应当理解的是,本文并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本文的范围仅由所附的权利要求来限制。
Claims (11)
1.一种同义句生成模型的生成方法,其特征在于,包括:
使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
其中,使用所述第一集合训练所述生成模型时,对于一同义句组,将同义句组中一句子输入至所述生成模型,计算所述生成模型的实际输出结果,直至使用所述第一集合中所有同义句组中任一句子的输出结果和此句子相应的同义句计算的损失均小于第一预设损失时,确定所述生成模型;
其中,使用所述第一集合训练所述判别模型时,使用所述第一集合中的不同同义句组构建一个非同义句组,在同义句组进行训练时,将同义句组中的两个同义句输入所述判别模型,设置输出目标为第一值,在使用非同义句组进行训练时,将非同义句组中的两个非同义句输入所述判别模型,设置输出目标为第二值,直至使用所述第一集合中所有同义句组的输出结果和所述第一值计算得到的损失均小于第二预设损失并且使用所有非同义句组的输出结果和所述第二值计算得到的损失均小于所述第二预设损失时,确定所述判别模型;
对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛,每次迭代处理包括:
针对从第二集合中采集的第一预设数量个单句,使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对,将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
其中,所述根据所述判别模型的输出结果对所述生成模型进行更新,包括:
将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值,根据所述平均值更新所述生成模型的各参数;所述生成概率是所述生成模型生成所述语句对的概率;
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新,包括:
确定每个所述正样本语句对的价值指数为所述正样本语句对的生成概率;
确定每个所述负样本语句对的价值指数为最大价值;
将每个所述正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重,根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练,根据交叉熵损失函数更新所述判别模型;
其中,使用所述第二集合中的多个单句构成多个所述负样本语句对,包括以下方式中的一种:
方式一,从所述第二集合采集第二预设数量个单句,使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
方式二,从所述第二集合采集第五预设数量个单句,使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
2.如权利要求1所述的同义句生成模型的生成方法,其特征在于,根据所述单句和与每个单句相应的至少一同义句获得语句对的方法包括以下方式中的一种:
方式一,确定所述单句与相应的每个同义句的生成概率,选择生成概率最大的单句和同义句的组合,将此组合作为所述语句对;
方式二,从所述单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。
3.如权利要求1所述的同义句生成模型的生成方法,其特征在于,使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,包括以下方式中的一种:
方式一,从所述第二集合采集第二预设数量个单句,针对所述第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;
方式二,从所述第二集合采集第五预设数量个单句,针对所述第五预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对。
4.如权利要求1所述的同义句生成模型的生成方法,其特征在于,所述方法还包括:
使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率。
5.如权利要求1所述的同义句生成模型的生成方法,其特征在于,所述方法还包括:
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还输出每个语句对的生成概率。
6.一种同义句生成模型的生成装置,其特征在于,包括:
第一训练模块,用于使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
所述第一训练模块具体用于:
使用所述第一集合训练所述生成模型时,对于一同义句组,将同义句组中一句子输入至所述生成模型,计算所述生成模型的实际输出结果,直至使用所述第一集合中所有同义句组中任一句子的输出结果和此句子相应的同义句计算的损失均小于第一预设损失时,确定所述生成模型;
使用所述第一集合训练所述判别模型时,使用所述第一集合中的不同同义句组构建一个非同义句组,在同义句组进行训练时,将同义句组中的两个同义句输入所述判别模型,设置输出目标为第一值,在使用非同义句组进行训练时,将非同义句组中的两个非同义句输入所述判别模型,设置输出目标为第二值,直至使用所述第一集合中所有同义句组的输出结果和所述第一值计算得到的损失均小于第二预设损失并且使用所有非同义句组的输出结果和所述第二值计算得到的损失均小于所述第二预设损失时,确定所述判别模型;
第一更新模块,用于对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛;
所述第一更新模块包括:
第一采集模块,用于从第二集合中采集第一预设数量个单句;
第一生成模块,用于使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对;第二更新模块,用于将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
所述第一更新模块还包括:
第一设置模块,用于将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
第一计算模块,用于计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值;其中,所述生成概率是所述生成模型生成所述语句对的概率;
迭代模块,用于根据所述平均值更新所述生成模型的各参数;
第二生成模块,用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对;
第三更新模块,用于根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
所述第二更新模块包括:
第二设置模块,用于确定每个所述正样本语句对的价值指数为所述正样本语句对的生成概率;用于确定每个所述负样本语句对的价值指数为最大价值;
第三设置模块,用于将每个所述正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个所述负样本语句对的价值指数作为所述负样本语句对的训练样本权重;
第二训练模块,用于使用交叉熵损失函数根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练;
所述第二生成模块还具体用于:
使用所述第二集合中的多个单句构成多个所述负样本语句对,包括以下方式中的一种:
方式一,从所述第二集合采集第二预设数量个单句,使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
方式二,从所述第二集合采集第五预设数量个单句,使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
7.如权利要求6所述的同义句生成模型的生成装置,其特征在于,
所述第一生成模块,还用于使用以下方式中的一种根据所述单句和与每个单句相应的至少一同义句获得语句对:
方式一,确定所述单句与相应的每个同义句的生成概率,选择生成概率最大的单句和同义句的组合,将此组合作为所述语句对;
方式二,从所述单句对应的至少一同义句中随机选择一同义句与所述单句构成语句对。
8.如权利要求6所述的同义句生成模型的生成装置,其特征在于,
所述第二生成模块包括:
第二采集模块,用于从所述第二集合采集第二预设数量个单句;
第三生成模块,用于针对所述第二预设数量个单句中第三预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第三预设数量个正样本语句对;
或者,
所述第二生成模块包括:
第三采集模块,用于从所述第二集合采集第五预设数量个单句;
第四生成模块,用于针对所述第五预设数量个单句使用所述生成模型生成与每个单句相应的同义句,获得第五预设数量个正样本语句对。
9.如权利要求6所述的同义句生成模型的生成装置,其特征在于,
所述第一生成模块,还用于使用所述生成模型生成与每个单句相应的至少一同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率。
10.如权利要求6所述的同义句生成模型的生成装置,其特征在于,
所述第二生成模块,还用于使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句时,还输出每个语句对的生成概率;所述生成概率是所述生成模型生成所述语句对的概率。
11.一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种同义句生成模型的生成方法,所述方法包括:
使用第一集合训练得到一生成模型和一判别模型;所述第一集合包括多个同义句组,每个同义句组包括至少两个同义句;
其中,使用所述第一集合训练所述生成模型时,对于一同义句组,将同义句组中一句子输入至所述生成模型,计算所述生成模型的实际输出结果,直至使用所述第一集合中所有同义句组中任一句子的输出结果和此句子相应的同义句计算的损失均小于第一预设损失时,确定所述生成模型;
其中,使用所述第一集合训练所述判别模型时,使用所述第一集合中的不同同义句组构建一个非同义句组,在同义句组进行训练时,将同义句组中的两个同义句输入所述判别模型,设置输出目标为第一值,在使用非同义句组进行训练时,将非同义句组中的两个非同义句输入所述判别模型,设置输出目标为第二值,直至使用所述第一集合中所有同义句组的输出结果和所述第一值计算得到的损失均小于第二预设损失并且使用所有非同义句组的输出结果和所述第二值计算得到的损失均小于所述第二预设损失时,确定所述判别模型;
对所述生成模型和所述判别模型进行迭代处理直至所述生成模型收敛,每次迭代处理包括:
针对从第二集合中采集的第一预设数量个单句,使用所述生成模型生成与每个单句相应的至少一同义句,根据所述单句和所述与每个单句相应的至少一同义句获得语句对,将获得的语句对分别输入至所述判别模型,根据所述判别模型的输出结果对所述生成模型进行更新;
其中,所述根据所述判别模型的输出结果对所述生成模型进行更新,包括:
将所述判别模型针对每个语句对的输出结果作为所述语句对的奖赏值;
计算每个语句对的生成概率对于所述生成网络的参数集求导后的导数,计算每个导数与相应奖赏值的乘积的总和,确定所述总和的平均值,根据所述平均值更新所述生成模型的各参数;所述生成概率是所述生成模型生成所述语句对的概率;
使用所述第二集合中的多个单句通过所述生成模型生成与每个单句相应的同义句,获得多个正样本语句对,使用所述第二集合中的多个单句构成多个负样本语句对,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新;
其中,根据所述正样本语句对和所述负样本语句对将所述判别模型进行更新,包括:
确定每个所述正样本语句对的价值指数为所述正样本语句对的生成概率;
确定每个所述负样本语句对的价值指数为最大价值;
将每个所述正样本语句对的价值指数作为所述正样本语句对的训练样本权重,将每个负样本语句对的价值指数作为所述负样本语句对的训练样本权重,根据所述正样本语句对和所述负样本语句对以及相应的训练样本权重对所述判别模型进行训练,根据交叉熵损失函数更新所述判别模型;
其中,使用所述第二集合中的多个单句构成多个所述负样本语句对,包括以下方式中的一种:
方式一,从所述第二集合采集第二预设数量个单句,使用所述第二预设数量个单句中第四预设数量个单句和除所述第四预设数量个单句之外的全部或部分单句构成第四预设数量个负样本语句对;
方式二,从所述第二集合采集第五预设数量个单句,使用所述第五预设数量个单句和所述第二集合中除所述第五预设数量个单句之外的单句中的第六预设数量个单句构成第七预设数量个负样本语句对;
其中,所述第二集合包括多个单句;所述语句对中每个语句对均包括一个单句和一个同义句。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911063958.4A CN110765758B (zh) | 2019-11-04 | 2019-11-04 | 一种同义句生成模型的生成方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911063958.4A CN110765758B (zh) | 2019-11-04 | 2019-11-04 | 一种同义句生成模型的生成方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110765758A CN110765758A (zh) | 2020-02-07 |
CN110765758B true CN110765758B (zh) | 2023-08-04 |
Family
ID=69335463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911063958.4A Active CN110765758B (zh) | 2019-11-04 | 2019-11-04 | 一种同义句生成模型的生成方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110765758B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111859926B (zh) * | 2020-07-28 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 同义句对生成方法、装置、计算机设备及存储介质 |
CN112417128B (zh) * | 2021-01-21 | 2021-05-04 | 中国平安人寿保险股份有限公司 | 话术推荐方法、装置、计算机设备及存储介质 |
CN113807074A (zh) * | 2021-03-12 | 2021-12-17 | 京东科技控股股份有限公司 | 基于预训练语言模型的相似语句生成方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003323426A (ja) * | 2002-05-08 | 2003-11-14 | Advanced Telecommunication Research Institute International | 換言規則抽出プログラム、換言規則統合プログラム、および翻訳プログラム |
CN106897263A (zh) * | 2016-12-29 | 2017-06-27 | 北京光年无限科技有限公司 | 基于深度学习的机器人对话交互方法及装置 |
CN110162596A (zh) * | 2019-04-01 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 自然语言处理的训练方法、装置、自动问答方法和装置 |
-
2019
- 2019-11-04 CN CN201911063958.4A patent/CN110765758B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003323426A (ja) * | 2002-05-08 | 2003-11-14 | Advanced Telecommunication Research Institute International | 換言規則抽出プログラム、換言規則統合プログラム、および翻訳プログラム |
CN106897263A (zh) * | 2016-12-29 | 2017-06-27 | 北京光年无限科技有限公司 | 基于深度学习的机器人对话交互方法及装置 |
CN110162596A (zh) * | 2019-04-01 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 自然语言处理的训练方法、装置、自动问答方法和装置 |
Non-Patent Citations (1)
Title |
---|
刘荣 ; 郝晓燕 ; 李颖 ; .基于语义模式的半监督中文观点句识别研究.南京大学学报(自然科学).2018,(第05期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110765758A (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210029B (zh) | 基于垂直领域的语音文本纠错方法、系统、设备及介质 | |
Gowda et al. | Finding the optimal vocabulary size for neural machine translation | |
CN110222188B (zh) | 一种多任务学习的公司公告处理方法及服务端 | |
CN110765758B (zh) | 一种同义句生成模型的生成方法、装置及介质 | |
CN110083705A (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
CN111738007B (zh) | 一种基于序列生成对抗网络的中文命名实体识别数据增强算法 | |
CN109657041A (zh) | 基于深度学习的问题自动生成方法 | |
CN109902159A (zh) | 一种基于自然语言处理的智能运维语句相似度匹配方法 | |
CN110275939B (zh) | 对话生成模型的确定方法及装置、存储介质、电子设备 | |
WO2022217849A1 (en) | Methods and systems for training neural network model for mixed domain and multi-domain tasks | |
CN105095444A (zh) | 信息获取方法和装置 | |
CN113505200B (zh) | 一种结合文档关键信息的句子级中文事件检测的方法 | |
CN107180084A (zh) | 词库更新方法及装置 | |
CN110909116B (zh) | 一种面向社交媒体的实体集合扩展方法及系统 | |
CN111782788A (zh) | 一种面向开放域对话系统的情感回复自动生成方法 | |
CN113392640B (zh) | 一种标题确定方法、装置、设备及存储介质 | |
CN110992988B (zh) | 一种基于领域对抗的语音情感识别方法及装置 | |
CN113158671B (zh) | 一种结合命名实体识别的开放域信息抽取方法 | |
Kawintiranon et al. | PoliBERTweet: a pre-trained language model for analyzing political content on Twitter | |
CN111353040A (zh) | 基于gru的属性级别情感分析方法 | |
CN113111152A (zh) | 一种基于知识蒸馏和情绪集成模型的抑郁症检测方法 | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
CN112989803B (zh) | 一种基于主题向量学习的实体链接预测方法 | |
CN112035629B (zh) | 基于符号化知识与神经网络的问答模型的实现方法 | |
CN117828024A (zh) | 一种插件检索方法、装置、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |