CN109947931B - 基于无监督学习的文本自动摘要方法、系统、设备及介质 - Google Patents
基于无监督学习的文本自动摘要方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN109947931B CN109947931B CN201910211374.0A CN201910211374A CN109947931B CN 109947931 B CN109947931 B CN 109947931B CN 201910211374 A CN201910211374 A CN 201910211374A CN 109947931 B CN109947931 B CN 109947931B
- Authority
- CN
- China
- Prior art keywords
- network
- text
- training
- classification
- authenticity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 118
- 238000009826 distribution Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 239000002775 capsule Substances 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于无监督学习的文本自动摘要方法、系统、设备及介质,所述方法包括:获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;搭建生成网络、分类判别网络以及真实性判别网络;采用原文集合对生成网络进行预训练;采用文本分类的数据集对分类判别网络进行预训练;采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;将生成网络与分类判别网络、真实性判别网络进行对抗训练;将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。本发明无需人工标记的原文‑摘要配对数据就可以进行训练与学习,大大降低了数据获取的成本。
Description
技术领域
本发明涉及一种基于无监督学习的文本自动摘要方法、系统、设备及介质,属于文本摘要领域。
背景技术
文本自动摘要使用计算机自动对输入文本生成摘要的过程,摘要需要包含原始文档主要信息。文本自动摘要的主要思想是找到包含整个源文本“主要信息”的数据子集,这是机器学习和数据挖掘的应用之一。随着大数据的飞速发展,对于文本自动摘要的需求也愈发增大。
随着深度学习,自然语言处理领域的技术发展,文本摘要的技术也越来越成熟。该技术在当今工业中广泛使用,例如新闻标题生成、科技文献摘要生成、搜索结果片段生成、商品评论摘要等。在信息爆炸的互联网大数据时代,用简短的文本来正确而且完整地表达信息的主要内涵,无疑将有利于缓解信息过载问题。
文本摘要主要可分为两种方法:
1)抽取式摘要:直接抽取原文中的单词,短语或者句子,随后将它们通过合适的方式组成一篇完整的文档来构成摘要。
2)概括式摘要:通过自然语言处理与生成的技术,由计算机试图去理解原文的大意,然后仿照人类的书写方式来生成摘要,摘要可能包含原文中从未出现的单词,短语或者句子。
在文本自动摘要任务中,很多模型都采用了神经网络的结构,它是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对各种函数进行估计或近似。在神经网络中,除了基本的全连接层,在自然语言处理中比较常用的结构有:
1)卷积神经网络(Convolutional Neural Network,简称CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元。卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些基本特征,更多层的网络能从基本特征中迭代提取更复杂的特征。
2)递归神经网络(Recurrent Neural Network,简称RNN)也是神经网络的一种。递归神经网络可以描述动态时间行为,因为和前馈神经网络接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。单纯的RNN因为无法处理随着递归,可能出现权重指数级爆炸或梯度消失的问题,导致RNN难以捕捉长期时间关联。LSTM(Long Short-Term Memory,长短期记忆网络),GRU(Gated Recurrent Units,门控循环单元)是两个用于缓解该问题的RNN变体。
现有的大部分文本自动摘要方法都是基于有监督学习训练的过程,而有监督学习需要大量人工标记的数据,这一过程通常会出现数据获取成本太高的问题。
发明内容
有鉴于此,本发明提供了一种基于无监督学习的文本自动摘要方法、系统、计算机设备设备及存储介质,其无需人工标记的原文-摘要配对数据就可以进行训练与学习,大大降低了数据获取的成本。
本发明的第一个目的在于提供一种基于无监督学习的文本自动摘要方法。
本发明的第二个目的在于提供一种基于无监督学习的文本自动摘要系统。
本发明的第三个目的在于提供一种计算机设备。
本发明的第四个目的在于提供一种存储介质。
本发明的第一个目的可以通过采取如下技术方案达到:
一种基于无监督学习的文本自动摘要方法,所述方法包括:
获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
搭建生成网络、分类判别网络以及真实性判别网络;
采用原文集合对生成网络进行预训练;
采用文本分类的数据集对分类判别网络进行预训练;
采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
将生成网络与分类判别网络、真实性判别网络进行对抗训练;
将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
进一步的,所述采用原文集合对生成网络进行预训练,具体为:
将原文集合中的每篇原文的前三个句子作为生成网络的输出目标进行训练。
进一步的,所述采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练,具体为:
将摘要集合中的摘要作为正样本,将预训练完成的生成网络输出的文本作为负样本,对真实性判别网络进行训练。
进一步的,所述生成网络采用生成-指针网络,该生成-指针网络生成新的词语,具体包括:
用指针指向原文中的每个词语,分别计算原文中每个词语的概率;
计算词汇库中每个词语的概率;
将原文中每个词语的概率和词汇库中每个词语的概率通过一个系数加权,得到最后每个词语的概率;
通过最后每个词语的概率分布进行采样,得到新的词语。
进一步的,所述分类判别网络采用基于胶囊网络的文本分类器,所述胶囊网络的最终输出是若干个向量;当文本分类器对输入的两篇文本分别进行分类,分别得到若干个分布,计算分布的交叉熵损失,并将该损失作为分类判别网络的输出。
进一步的,所述真实性判别网络采用长短期记忆网络模型,对于一个输入的词语序列,在每个时间步都输出一个分数,每个分数用于表示生成对应词语的分数。
进一步的,所述生成网络的梯度计算与参数更新如下式:
其中,θ为生成网络的参数,N为一个mini-batch的训练样本数量,T为某一次生成的句子长度,C(xi,yi)为分类判别网络的输出,为真实性判别网络的输出,1:t为生成长度为t的句子,lr为学习系数;
所述真实性判别网络的损失函数如下式:
本发明的第二个目的可以通过采取如下技术方案达到:
一种基于无监督学习的文本自动摘要系统,所述系统包括:
第一获取模块,用于获取训练集以及文本分类的数据集;
第二获取模块,用于对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合;
搭建模块,用于搭建生成网络、分类判别网络以及真实性判别网络;
第一预训练模块,用于采用原文集合对生成网络进行预训练;
第二预训练模块,用于采用文本分类的数据集对分类判别网络进行预训练;
第三预训练模块,用于采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
对抗训练模块,用于将生成网络与分类判别网络、真实性判别网络进行对抗训练;
文本摘要模块,用于将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
本发明的第三个目的可以通过采取如下技术方案达到:
一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的文本自动摘要方法。
本发明的第四个目的可以通过采取如下技术方案达到:
一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的文本自动摘要方法。
本发明相对于现有技术具有如下的有益效果:
本发明通过搭建生成网络、分类判别网络和真实性判别网络,并对生成网络、分类判别网络和真实性判别网络进行预训练,将生成网络与分类判别网络、真实性判别网络进行对抗训练,使得生成网络逐渐生成可以让真实性判别网络认为是人写的文本,以及让分类判别网络认为生成的文本可以反应原文的大意,无需人工标记的原文-摘要配对数据就可以进行训练与学习,大大降低了数据获取的成本,不仅解决了现有技术中人工标记的原文-摘要配对数据获取成本高的问题,而且也保证了生成的摘要的准确性与可读性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例1的生成网络的结构图。
图2为本发明实施例1的分类判别网络的结构图。
图3为本发明实施例1的真实性判别网络的结构图。
图4为本发明实施例1的生成网络、分类判别网络和真实性判别网络的连接图。
图5为本发明实施例1的基于无监督学习的文本自动摘要方法的流程图。
图6为本发明实施例1的通过生成网络得到每个单词的概率原理图。
图7为本发明实施例1的分类判别网络输出相似性的原理图。
图8为本发明实施例1的真实性判别网络输出分数的原理图。
图9为本发明实施例2的基于无监督学习的文本自动摘要系统的结构框图。
图10为本发明实施例3的计算机设备的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本实施例提供了一种基于无监督学习的文本自动摘要方法,该方法利用生成网络、分类判别网络和真实性判别网络实现,生成网络、分类判别网络和真实性判别网络的具体说明如下:
1)生成网络的输入是待处理的原文(长文本),输出是一篇更短的文本。当生成网络被训练得足够强时,其输出的文本即可视为原文的摘要(短文本);在测试时,生成网络是唯一使用的网络,生成网络的结构如图1所示。
2)分类判别网络是第一个判别网络,其输入为原文(长文本),以及生成网络输出的摘要(短文本),将这两篇文本作为分类判别网络的输入,而分类判别网络的输出,则是这两篇文本在文意上是否相似,越相似则分类判别网络输出越小的分数,分类判别网络的结构如图2所示。
3)真实性判别网络是第二个判别网络,其输入为一篇任意文本(可以来自人写,也可来自机器生成),真实性判别网络对于输入文本的真实性进行判断,即如果是人写的真实文本,则输出尽可能高的分数;如果是机器生成的文本,则输出尽可能低的分数,真实性判别网络的结构如图3所示。
生成网络、分类判别网络和真实性判别网络在训练时,是通过基于对抗训练的方式进行的:
1)生成网络通过不断地学习,逐渐生成可以让真实性判别网络认为是人写的文本,以及让分类判别网络认为生成的文本可以反应原文的大意。
2)分类判别网络通过预训练,学习对不同的文本转化到一个隐空间的向量表示,文意越相似的一对文本,它们在隐空间的向量表示越相近。
3)真实性判别网络与生成网络进行对抗训练,在每一个学习迭代中使用采样的正负样本进行对参数的更新。
生成网络、分类判别网络和真实性判别网络的连接图如图4所示。
如图5所示,本实施例的文本自动摘要方法包括以下步骤:
S501、获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集。
本实施例的训练集包括原文(长文本)和摘要(短文本);对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,原文集合与摘要集合之间没有对应关系;同时,获取文本分类的数据集,其用于训练后面搭建的分类判别网络。
S502、搭建生成网络、分类判别网络以及真实性判别网络。
A、搭建生成网络
本实施例的生成网络采用的是生成-指针网络,该生成-指针网络生成新的词语作为下一个词,如图6所示,通过以下步骤实现:
1)用指针指向原文中的每个词语,通过一种注意力机制分别计算原文中每个词语的概率。
2)计算词汇库中每个词语的概率;其中,词汇库为预先规定的词汇库。
3)将原文中每个词语的概率和词汇库中每个词语的概率通过一个系数加权,得到最后每个词语的概率;其中,系数为可以训练得到的系数。
4)通过最后每个词语的概率分布进行采样,得到新的词语。
B、搭建分类判别网络
本实施例的分类判别网络采用基于胶囊网络(capsule networks)的文本分类器,胶囊网络的最终输出是若干个向量;当文本分类器对输入的两篇文本分别进行分类,分别得到若干个分布,计算分布的交叉熵损失,并将该损失作为分类判别网络的输出,如图7所示,图中的c表示分类任务的类别数目,当两个分布越相似时,它们的交叉熵也越小。
C、搭建真实性判别网络
本实施例的真实性判别网络采用长短期记忆网络(Long Short-Term Memory,简称LSTM)模型,对于一个输入的词语序列,在每个时间步都输出一个分数,如图8所示,每个分数用于表示生成对应词语的分数。
S503、采用原文集合对生成网络进行预训练。
具体地,将原文集合中的每篇原文(长文本)的前三个句子作为生成网络的输出目标进行训练。
S504、采用文本分类的数据集对分类判别网络进行预训练。
具体地,采用文本分类的数据集对分类判别网络进行预训练,当训练完成时,分类判别网络的参数固定住,不再变化更新。
S505、采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练。
具体地,将摘要集合中的摘要作为正样本,将预训练完成的生成网络输出的文本作为负样本,对真实性判别网络进行训练。
S506、将生成网络与分类判别网络、真实性判别网络进行对抗训练。
在生成对抗网络(Generative Adversarial Networks,简称GAN)框架中,生成网络与判别网络进行对抗训练,通过多轮次的参数更新,使得生成网络的生成能力越来越强,生成的数据与真实数据的分布越来越相似;而判别网络的判别能力也越来越强,能够对生成的数据与真实数据进行正确的分类。
进一步地,本实施例采用基于无监督学习的对抗训练,由于生成网络在生成每一个词语作为输出的时候,都经历了一个采样的过程,这个采样过程使得来自判别网络的误差信号无法直接传递给生成网络,所以无法使用常规的生成对抗网络训练方法,因此本实施例采用序列生成对抗网络(Sequence Generative Adversarial Networks,简称SeqGAN)的训练方法,将这个问题转化为一个强化学习的过程,即:生成网络的每一次采样实质上是在该环境(输入的原文以及已经生成的历史序列)下采取行动(强化学习中的action),而两个判别网络(分类判别网络和真实性判别网络)对该行动分别进行评分,可以视为外部环境给予生成网络的反馈信号,最后生成网络根据该反馈信号进行更新。
因此,对于生成网络,它的梯度计算与参数更新如下式:
其中,θ为生成网络的参数,N为一个mini-batch的训练样本数量,T为某一次生成的句子长度,C(xi,yi)为分类判别网络的输出,为真实性判别网络的输出,1:t为生成长度为t的句子,lr为学习系数。
而对于真实性判别网络的训练,它和普通分类器的训练基本一样,在每一个训练轮次中,随机采样一定数量的正负样本,其中正样本为摘要集合,负样本为生成网络生成的摘要,真实性判别网络的损失函数如下式:
这样生成网络与分类判别网络、真实性判别网络进行对抗训练,多轮次地更新参数,直到训练结束。
上述步骤S501~S506为训练阶段,接下来的步骤S507为应用阶段。可以理解,上述步骤S501~S506在一台计算机设备(如服务器、计算机等)完成,可以在该计算机设备上进入步骤S507的应用阶段,也可以将该台计算机设备训练得到的生成网络分享给其他的计算机设备,在其他的计算机设备上进入步骤S507的应用阶段。
S507、将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
本领域技术人员可以理解,实现上述实施例的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2:
如图9所示,本实施例提供了一种基于无监督学习的文本自动摘要系统,该系统包括获取模块901、搭建模块902、第一预训练模块903、第二预训练模块904、第三预训练模块905、对抗训练模块906和文本摘要模块907,各个模块的具体功能如下:
所述获取模块901,用于获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
所述搭建模块902,用于搭建生成网络、分类判别网络以及真实性判别网络。
所述第一预训练模块903,用于采用原文集合对生成网络进行预训练。
所述第二预训练模块904,用于采用文本分类的数据集对分类判别网络进行预训练;
所述第三预训练模块905,用于采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练。
所述对抗训练模块906,用于将生成网络与分类判别网络、真实性判别网络进行对抗训练。
所述文本摘要模块907,用于将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
本实施例中各个模块的具体实现可以参见上述实施例1,在此不再一一赘述;需要说明的是,本实施例提供的装置仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
可以理解,本实施例的系统中所使用的术语“第一”、“第二”等可用于描述各种单元,但这些模块不受这些术语限制。这些术语仅用于将第一个单元与另一个单元区分。举例来说,在不脱离本发明的范围的情况下,可以将第一预训练模块称为第二预训练模块,且类似地,可将第二预训练模块称为第一预训练模块,第一预训练模块和第二预训练模块两者都是预训练模块,但其不是同一预训练模块。
实施例3:
本实施例提供了一种计算机设备,该计算机设备可以是服务器、计算机等,如图10所示,其包括通过系统总线1001连接的处理器1002、存储器、输入装置1003、显示器1004和网络接口1005,该处理器用于提供计算和控制能力,该存储器包括非易失性存储介质1006和内存储器1007,该非易失性存储介质1006存储有操作系统、计算机程序和数据库,该内存储器1007为非易失性存储介质中的操作系统和计算机程序的运行提供环境,处理器1002执行存储器存储的计算机程序时,实现上述实施例1的文本自动摘要方法,如下:
获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
搭建生成网络、分类判别网络以及真实性判别网络;
采用原文集合对生成网络进行预训练;
采用文本分类的数据集对分类判别网络进行预训练;
采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
将生成网络与分类判别网络、真实性判别网络进行对抗训练;
将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
实施例4:
本实施例提供了一种存储介质,该存储介质为计算机可读存储介质,其存储有计算机程序,所述程序被处理器执行时,处理器执行存储器存储的计算机程序时,实现上述实施例1的文本自动摘要方法,如下:
获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
搭建生成网络、分类判别网络以及真实性判别网络;
采用原文集合对生成网络进行预训练;
采用文本分类的数据集对分类判别网络进行预训练;
采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
将生成网络与分类判别网络、真实性判别网络进行对抗训练;
将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要。
本实施例中所述的存储介质可以是磁盘、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、U盘、移动硬盘等介质。
综上所述,本发明通过搭建生成网络、分类判别网络和真实性判别网络,并对生成网络、分类判别网络和真实性判别网络进行预训练,将生成网络与分类判别网络、真实性判别网络进行对抗训练,使得生成网络逐渐生成可以让真实性判别网络认为是人写的文本,以及让分类判别网络认为生成的文本可以反应原文的大意,无需人工标记的原文-摘要配对数据就可以进行训练与学习,大大降低了数据获取的成本,不仅解决了现有技术中人工标记的原文-摘要配对数据获取成本高的问题,而且也保证了生成的摘要的准确性与可读性。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (10)
1.一种基于无监督学习的文本自动摘要方法,其特征在于,所述方法包括:
获取训练集,对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
搭建生成网络、分类判别网络以及真实性判别网络;
采用原文集合对生成网络进行预训练;
采用文本分类的数据集对分类判别网络进行预训练;
采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
将生成网络与分类判别网络、真实性判别网络进行对抗训练;
将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要;
所述将生成网络与分类判别网络、真实性判别网络进行对抗训练中,采用序列生成对抗网络的训练方法,生成网络的每一次采样在输入的原文以及已经生成的历史序列下采取行动,分类判别网络和真实性判别网络对该行动分别进行评分,视为外部环境给予生成网络的反馈信号,最后生成网络根据该反馈信号进行更新。
2.根据权利要求1所述的文本自动摘要方法,其特征在于,所述采用原文集合对生成网络进行预训练,具体为:
将原文集合中的每篇原文的前三个句子作为生成网络的输出目标进行训练。
3.根据权利要求1所述的文本自动摘要方法,其特征在于,所述采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练,具体为:
将摘要集合中的摘要作为正样本,将预训练完成的生成网络输出的文本作为负样本,对真实性判别网络进行训练。
4.根据权利要求1-3任一项所述的文本自动摘要方法,其特征在于,所述生成网络采用生成-指针网络,该生成-指针网络生成新的词语,具体包括:
用指针指向原文中的每个词语,分别计算原文中每个词语的概率;
计算词汇库中每个词语的概率;
将原文中每个词语的概率和词汇库中每个词语的概率通过一个系数加权,得到最后每个词语的概率;
通过最后每个词语的概率分布进行采样,得到新的词语。
5.根据权利要求1-3任一项所述的文本自动摘要方法,其特征在于,所述分类判别网络采用基于胶囊网络的文本分类器,所述胶囊网络的最终输出是若干个向量;当文本分类器对输入的两篇文本分别进行分类,分别得到若干个分布,计算分布的交叉熵损失,并将该损失作为分类判别网络的输出。
6.根据权利要求1-3任一项所述的文本自动摘要方法,其特征在于,所述真实性判别网络采用长短期记忆网络模型,对于一个输入的词语序列,在每个时间步都输出一个分数,每个分数用于表示生成对应词语的分数。
8.一种基于无监督学习的文本自动摘要系统,其特征在于,所述系统包括:
获取模块,用于对训练集中的原文与摘要分别进行随机打乱,得到原文集合与摘要集合,并获取文本分类的数据集;
搭建模块,用于搭建生成网络、分类判别网络以及真实性判别网络;
第一预训练模块,用于采用原文集合对生成网络进行预训练;
第二预训练模块,用于采用文本分类的数据集对分类判别网络进行预训练;
第三预训练模块,用于采用摘要集合和预训练完成的生成网络输出的文本对真实性判别网络进行预训练;
对抗训练模块,用于将生成网络与分类判别网络、真实性判别网络进行对抗训练;
文本摘要模块,用于将待处理的原文输入对抗训练后的生成网络,输出该原文的摘要;
所述将生成网络与分类判别网络、真实性判别网络进行对抗训练中,采用序列生成对抗网络的训练方法,生成网络的每一次采样在输入的原文以及已经生成的历史序列下采取行动,分类判别网络和真实性判别网络对该行动分别进行评分,视为外部环境给予生成网络的反馈信号,最后生成网络根据该反馈信号进行更新。
9.一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1-7任一项所述的文本自动摘要方法。
10.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-7任一项所述的文本自动摘要方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910211374.0A CN109947931B (zh) | 2019-03-20 | 2019-03-20 | 基于无监督学习的文本自动摘要方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910211374.0A CN109947931B (zh) | 2019-03-20 | 2019-03-20 | 基于无监督学习的文本自动摘要方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109947931A CN109947931A (zh) | 2019-06-28 |
CN109947931B true CN109947931B (zh) | 2021-05-14 |
Family
ID=67011136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910211374.0A Expired - Fee Related CN109947931B (zh) | 2019-03-20 | 2019-03-20 | 基于无监督学习的文本自动摘要方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109947931B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738860B (zh) * | 2019-09-18 | 2021-11-23 | 平安科技(深圳)有限公司 | 基于强化学习模型的信息控制方法、装置和计算机设备 |
CN110727844B (zh) * | 2019-10-21 | 2022-07-01 | 东北林业大学 | 一种基于生成对抗网络的在线评论商品特征观点提取方法 |
CN111026861B (zh) * | 2019-12-10 | 2023-07-04 | 腾讯科技(深圳)有限公司 | 文本摘要的生成方法、训练方法、装置、设备及介质 |
CN111563367A (zh) * | 2020-05-06 | 2020-08-21 | 首都师范大学 | 基于FocalGAN的短文本自动生成方法、装置、设备及存储介质 |
US11294945B2 (en) | 2020-05-19 | 2022-04-05 | International Business Machines Corporation | Unsupervised text summarization with reinforcement learning |
CN111737453B (zh) * | 2020-05-29 | 2024-04-02 | 南京硅基智能科技有限公司 | 一种基于无监督的多模型融合抽取式文本摘要方法 |
CN111831814B (zh) * | 2020-06-04 | 2023-06-23 | 北京百度网讯科技有限公司 | 摘要生成模型的预训练方法、装置、电子设备和存储介质 |
CN113849634B (zh) * | 2021-03-01 | 2024-04-16 | 天翼视联科技有限公司 | 用于提升深度模型推荐方案可解释性的方法 |
CN116795972B (zh) * | 2023-08-11 | 2024-01-09 | 之江实验室 | 一种模型训练的方法、装置、存储介质及电子设备 |
CN117475448B (zh) * | 2023-12-27 | 2024-04-16 | 苏州镁伽科技有限公司 | 图像处理模型的训练方法、图像处理方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480788A (zh) * | 2017-08-11 | 2017-12-15 | 广东工业大学 | 一种深度卷积对抗生成网络的训练方法及训练系统 |
CN107590531A (zh) * | 2017-08-14 | 2018-01-16 | 华南理工大学 | 一种基于文本生成的wgan方法 |
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN109271483A (zh) * | 2018-09-06 | 2019-01-25 | 中山大学 | 基于递进式多判别器的问题生成方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9471566B1 (en) * | 2005-04-14 | 2016-10-18 | Oracle America, Inc. | Method and apparatus for converting phonetic language input to written language output |
US10558695B2 (en) * | 2017-05-30 | 2020-02-11 | International Business Machines Corporation | Weather-based natural language text processing |
CN108491380B (zh) * | 2018-03-12 | 2021-11-23 | 思必驰科技股份有限公司 | 用于口语理解的对抗多任务训练方法 |
CN108304890B (zh) * | 2018-03-16 | 2021-06-08 | 科大讯飞股份有限公司 | 一种分类模型的生成方法及装置 |
-
2019
- 2019-03-20 CN CN201910211374.0A patent/CN109947931B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480788A (zh) * | 2017-08-11 | 2017-12-15 | 广东工业大学 | 一种深度卷积对抗生成网络的训练方法及训练系统 |
CN107590531A (zh) * | 2017-08-14 | 2018-01-16 | 华南理工大学 | 一种基于文本生成的wgan方法 |
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN109271483A (zh) * | 2018-09-06 | 2019-01-25 | 中山大学 | 基于递进式多判别器的问题生成方法 |
Non-Patent Citations (2)
Title |
---|
Generative Adversarial Network with Policy Gradient for Text Summarization;Banafsheh Rekabdar等;《2019 IEEE 13th International Conference on Semantic Computing (ICSC)》;20190314;第204–207页 * |
Learning to Encode Text as Human-Readable Summaries using Generative Adversarial Networks;Yau-ShianWang等;《Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing》;20181104;第4187–4195页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109947931A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109947931B (zh) | 基于无监督学习的文本自动摘要方法、系统、设备及介质 | |
CN111767405B (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
CN110083705B (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
US11354565B2 (en) | Probability-based guider | |
Xiang et al. | A convolutional neural network-based linguistic steganalysis for synonym substitution steganography | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
CN109992773B (zh) | 基于多任务学习的词向量训练方法、系统、设备及介质 | |
US11755909B2 (en) | Method of and system for training machine learning algorithm to generate text summary | |
CN112069811A (zh) | 多任务交互增强的电子文本事件抽取方法 | |
EP3979098A1 (en) | Data processing method and apparatus, storage medium, and electronic apparatus | |
CN111522908A (zh) | 一种基于BiGRU和注意力机制的多标签文本分类方法 | |
CN111126067B (zh) | 实体关系抽取方法及装置 | |
CN111858878B (zh) | 从自然语言文本中自动提取答案的方法、系统及存储介质 | |
Shijia et al. | Aspect-based Financial Sentiment Analysis with Deep Neural Networks. | |
US20230351149A1 (en) | Contrastive captioning neural networks | |
CN111027292A (zh) | 一种限定采样文本序列生成方法及其系统 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
Liang et al. | A double channel CNN-LSTM model for text classification | |
US20230205994A1 (en) | Performing machine learning tasks using instruction-tuned neural networks | |
WO2021012263A1 (en) | Systems and methods for end-to-end deep reinforcement learning based coreference resolution | |
CN112287667A (zh) | 一种文本生成方法及设备 | |
CN109977194B (zh) | 基于无监督学习的文本相似度计算方法、系统、设备及介质 | |
CN112488111A (zh) | 一种基于多层级表达引导注意力网络的指示表达理解方法 | |
CN115599918B (zh) | 一种基于图增强的互学习文本分类方法及系统 | |
US20220318230A1 (en) | Text to question-answer model system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210514 |
|
CF01 | Termination of patent right due to non-payment of annual fee |