CN112749253B - 一种基于文本关系图的多文本摘要生成方法 - Google Patents

一种基于文本关系图的多文本摘要生成方法 Download PDF

Info

Publication number
CN112749253B
CN112749253B CN202011574822.2A CN202011574822A CN112749253B CN 112749253 B CN112749253 B CN 112749253B CN 202011574822 A CN202011574822 A CN 202011574822A CN 112749253 B CN112749253 B CN 112749253B
Authority
CN
China
Prior art keywords
text
word
vector
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011574822.2A
Other languages
English (en)
Other versions
CN112749253A (zh
Inventor
李肯立
罗文明
唐卓
宋莹洁
刘园春
郭耀莲
阳王东
曹嵘晖
肖国庆
刘楚波
周旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202011574822.2A priority Critical patent/CN112749253B/zh
Publication of CN112749253A publication Critical patent/CN112749253A/zh
Application granted granted Critical
Publication of CN112749253B publication Critical patent/CN112749253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于文本关系图的多文本摘要生成方法,其包括三个阶段:第一个阶段是根据所有输入文本,构建文本之间的关系图,并对文本进行特征提取;第二个阶段是利用第一阶段生成的文本关系图数据和文本特征,结合图神经网络进行高阶特征提取。第三个阶段是对前两个阶段编码的文本特征进行解码,生成摘要。在第二个阶段中,是将构建的文档关系图和经过编码器编码的文档表征作为图卷积神经网络的输入,进行前向传播,提取更高阶的文本特征,使得图中每个文档节点都可以获得领域节点信息,丰富了文档表征。本发明在多个文档输入时可以有效捕捉其相互间关系,克服传统方法不能充分利用文本之间关系的缺陷。

Description

一种基于文本关系图的多文本摘要生成方法
技术领域
本发明属于自然语言处理领域,更具体地,涉及一种基于文本关系图的多文本摘要生成方法和系统。
背景技术
随着信息技术和智能设备的发展,网络空间中产生的文本数据越来越多,文本信息过载问题日益。目前我们可以轻松快速获取大量信息,获取信息的频率增加了,同时获得关键信息的难度也随之增大。所以,对各类文本进行一个概括处理以轻松地从中获得关键信息显得愈发重要。文本摘要是一种对大量文本进行简明而精确的总结的技术,利用计算机自动生成输入文本的摘要的技术,以使人们能够轻松地从大量信息中获得关键信息。如今,文本摘要已成为自然语言处理领域的重要分支。
文本摘要按照输入文本的类型可以分为单文本摘要和多文本摘要。单文本摘要的输入为单一文本;多文本摘要研究同一主题信息中的若干篇文档合集,通过相关摘要技术的处理,生成该事件主题的一小段简明扼要、可读性较好的文本,这段文本无冗余信息,可以准确还原出事件主旨。用户通过阅读该文本,可以迅速了解该事件主题相关内容信息,用户基于这些相关信息再决定是否进一步深入阅读更多相关细节内容,从而加快用户获取文本信息的速度,满足当前社会中人们快速掌握信息的要求,节省用户阅读时间,提高信息获取效率。
按照摘要词生成的方式,文本摘要主要分为抽取式、生成式和混合式三大类。抽取式文本摘要从源文章中选出可以代表最重要观点的词或者句子,并将它们组合在一起构成摘要;生成式文本摘要首先理解源文档然后进行摘要生成,多使用复杂的深度学习技术来实现,它可以生成源文档中没有出现过的词或者句子,因此这种方法可以解决抽取式摘要方法的语法不准确性问题;混合式方法则是同时使用抽取式和生成式的方法。
目前的多文本生成式摘要生成方法主要有基于RNN类模型的方法、基于图图注意力的方法以及结合单文本摘要模型的方法,其中基于RNN类模型的方法是以RNN类模型作为基本单元的编码器和解码器来生成文本摘要,但其时间上的前后依赖性意味着该网络在训练时无法并行执行,导致实际应用时效率低下;基于图注意力的方法借助事先构建好的关系图,以辅助注意力机制中的注意力值分配,但其本质上仍是以加权求和为基础的注意力机制,无法充分捕捉文本之间的关系,使得模型不能很好地理解输入文本集合在语义上的关联,导致生成的摘要质量不佳;结合单文本摘要模型的方法是在多文本输入场景时,将所有输入文本连接起来再使用单文本摘要模型来进行处理,但是这种方法导致输入过长,使得模型从输入文本序列中定位关键信息变得十分困难,此外,这种方法忽略了输入文本之间的关系,多个输入文本之间往往存在信息重复或者互补的关系,从而造成生成的摘要质量偏低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于文本关系图的多文本摘要生成方法,其目的在于,解决现有基于RNN类模型的方法中由于网络在训练时无法并行执行,导致实际应用时效率低下的技术问题,以及基于图注意力的方法由于模型不能很好地理解输入文本集合在语义上的关联,导致生成的摘要质量不佳的技术问题,以及结合单文本摘要模型的方法从输入文本序列中定位关键信息十分困难、生成的摘要质量偏低的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于文本关系图的多文本摘要生成方法,包括以下步骤:
(1)获取多个输入文本,对获取的多个输入文本进行预处理,以得到预处理后的多个文本;
(2)针对步骤(1)预处理后的每个文本而言,获取该文本中每个词的TF-IDF值,根据该文本中所有词的TF-IDF值构建该文本的特征向量,根据每个文本的特征向量计算任意两个文本之间的余弦相似度,并使用步骤(1)得到的所有文本中每两个文本之间的余弦相似度构建文本关系图矩阵G;
(3)将步骤(1)预处理后的每个文本输入训练好的第一神经网络模型中,以得到该文本中每个词的上下文表征向量;
(4)将步骤(3)得到的每个文本中每个词的上下文表征向量输入训练好的第二神经网络模型中,以得到该文本的特征向量;
(5)将步骤(2)得到的文本关系图矩阵G和步骤(4)得到的每个文本的特征向量输入训练好的第三神经网络模型中,以得到特征矩阵;
(6)将步骤(5)得到的特征矩阵中每个文本经过第三神经网络模型更新后的特征向量和步骤(3)得到的每个文本中每个词的上下文表征向量进行融合,以获得每个文本中每个词的高阶表征向量。
(7)将步骤(6)得到的所有文本中所有词的高阶表征向量输入训练好的第四神经网络模型中,以得到所有文本对应的最终摘要。
优选地,步骤(2)具体为:
首先,获取每个文本中每个词的TF-IDF值
TF-IDF=TF×IDF
其中TF表示词的词频,IDF表示词的逆文本频率,且有:
Figure BDA0002863187840000031
Figure BDA0002863187840000032
其中K表示步骤(1)得到的所有文本总数;
然后,根据该文本中所有词的TF-IDF值构建每个文本的n维特征向量vecA,特征向量中第i维的值就是所有文本中所包含的第i个不重复的词的TF-IDF值,其中n表示步骤(1)得到的所有文本中所包含的不重复的词的数量,A表示文本序号,且有A∈[1,K],i∈[0,n-1];
接着,根据每个文本的特征向量计算任意两个文本A和B之间的余弦相似度,并将该余弦相似度作为文本关系图矩阵G的第A行第B列元素:
Figure BDA0002863187840000041
其中B表示文本序号,B≠A,且B∈[1,K];
最后,针对步骤(1)得到的文本中的每个文本,重复上述过程,从而得到完成文本关系图矩阵G的构建。
优选地,本步骤(3)包括以下子步骤:
(3-1)对每个文本中的每个词进行正余弦函数编码,以得到每个词的位置向量pe;
(3-2)将每个文本中的每个词输入第一神经网络模型的词嵌入层,以得到每个词的词嵌入向量w,并根据步骤(3-1)中得到的每个词的位置向量pe和词嵌入向量w获取每个文本中该词的词向量;
(3-3)将(3-2)得到的每个文本中每个词的词向量输入第一神经网络模型的多头自注意力层,以得到每个文本中每个词对应的多头自注意力层输出;
(3-4)将步骤(3-3)得到的每个文本中每个词对应的多头自注意力层输出输入到第一神经网络模型中的前馈网络中,以得到每个文本中每个词的词上下文表征向量;
其中前馈网络是由两层线性层和中间的激活函数组成,其中ReLU激活函数表达式为:
ReLU(x)=max(0,x)
优选地,步骤(3-1)中,每个词的位置向量pe等于:
Figure BDA0002863187840000051
Figure BDA0002863187840000052
其中pos表示每个词在其所在文本中的当前位置,2k表示位置向量pe的偶数维位置,2k+1表示位置向量pe的奇数维位置,dmodel表示位置向量pe的维度大小,同时也是词嵌入的维度大小,2k,2k+1∈[0,dmodel-1];
每个文本中每个词的词向量x为:
x=w+pe
优选地,步骤(3-3)具体为:
首先,通过nhead个不同的矩阵将步骤(3-2)得到的每个词的词向量线性映射为nhead个向量三元组[Qj,Kj,Vj],该向量三元组中的每个向量均是dhead维,且公式如下:
Figure BDA0002863187840000053
Figure BDA0002863187840000054
Figure BDA0002863187840000055
其中nhead取值范围是1到10,优选等于8,j∈[1,nhead],
Figure BDA0002863187840000056
是第一神经网络模型的多头自注意力层中的可学习参数矩阵,且维度均为dhead×dmodel,。
然后,针对第j个向量三元组[Qj,Kj,Vj]而言,计算其自注意力输出向量headj
Figure BDA0002863187840000057
其中softmax表示归一化函数,且:
Figure BDA0002863187840000061
最后,将所有nhead个向量三元组的自注意力输出向量headj连接起来,并进行一步线性映射,以得到多头自注意力层输出:
Figure BDA0002863187840000065
其中concat为连接操作,将多个向量堆叠为一个高维向量,WO是第一神经网络模型的多头自注意力层中的可学习参数矩阵,其维度为(dmodel,nhead×dhead)。
优选地,步骤(4)中,每个文本的特征向量docg是通过下式计算,其中g∈[1,K]:
Figure BDA0002863187840000062
其中中间变量
Figure BDA0002863187840000063
等于:
Figure BDA0002863187840000064
其中kp=Wkxp
中间变量vp等于:
vp=Wvxp
其中num表示第g个文本中词的数量,Wg、Wk、Wv均为第二神经网络模型中的可学习参数,xp表示第g个文本中第p个词的上下文表征向量,且有p∈[1,num]。
优选地,步骤(5)包括以下子步骤:
(5-1)对步骤(2)得到的文本关系图矩阵G进行预处理,以得到邻接矩阵A和度矩阵D;
具体而言,本步骤首先根据文本关系图矩阵G生成邻接矩阵A:
A=G+I
其中I表示与文本关系图矩阵G大小完全相同的单位矩阵,本过程使得矩阵A的主对角线元素的值均为1:
然后,根据邻接矩阵A获取度矩阵D:
Figure BDA0002863187840000071
其中i和k分别为度矩阵D中的行序号和列序号;
(5-2)将步骤(4)得到的所有K个文本的特征向量doc1,doc2,...,docK组合为输入特征矩阵H;
本步骤中的组合方法为:
Figure BDA0002863187840000072
(5-3)将步骤(5-1)得到的邻接矩阵A、度矩阵D、以及步骤(5-2)得到的输入特征矩阵H输入训练好的第三神经网络模型,以获得特征矩阵,该特征矩阵中的每一行是每个文本经过第三神经网络模型更新后的特征向量的转置。
特征矩阵是通过以下过程获得:
Figure BDA0002863187840000073
其中ReLU表示第三神经网络模型中的ReLU激活函数。W为第三神经网络模型中的可学习参数。
优选地,步骤(6)中将每个文本经过第三神经网络模型更新后的特征向量和该文本中每个词的上下文表征向量进行融合的具体方法为:
首先,从步骤(5)得到的特征矩阵outputgcn中分离出K个文本经过第三神经网络模型更新后的特征向量c1,c2,...,cK
然后,针对所有K个文本中的每一个文本g而言,采用以下公式获取第g个文本中第p个词的高阶表征向量:
Figure BDA0002863187840000081
优选地,步骤(7)具体为,首先,将步骤(6)得到的所有文本中所有词的高阶表征向量和起始符y0一起输入训练好的第四神经网络模型中,以得到第1个摘要词y1,然后,将第1个摘要词y1和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第2个摘要词y2,然后,将第1个摘要词y1、第2个摘要词y2和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第3个摘要词y3,以此类推,直到最终生成的摘要词是终止符、或者最终生成的摘要词数量达到预设的最大摘要长度为止,得到的所有摘要词就是最终的摘要。
优选地,生成第t个摘要词的过程包括以下子步骤,其中t∈[1,预设的最大摘要长度]:
(7-1)对第四神经网络模型已生成的摘要词y1,y2,...,yt-1进行正余弦函数编码,以得到每个摘要词的位置向量;
(7-2)将第四神经网络模型已生成的摘要词y1,y2,...,yt-1输入第四神经网络的词嵌入层,以得到每个摘要词的词嵌入向量,将得到的每个摘要词的词嵌入向量与步骤(7-1)得到的每个摘要词的位置向量相加,以得到每个摘要词的词向量;
(7-3)将步骤(7-2)得到的每个摘要词的词向量输入第四神经网络模型的多头自注意力层,以得到每个摘要词对应的多头自注意力层输出。
(7-4)将步骤(7-3)得到的每个摘要词对应的多头自注意力层输出输入第四神经网络模型中的编码器-解码器多头注意力层,以得到每个摘要词对应的编码器-解码器多头注意力层输出。
(7-5)将步骤(7-4)得到的编码器-解码器多头注意力层输出outputenc-dec输入第四神经网络模型中的前馈网络,将前馈网络的输出结果输入第四神经网络模型中的全连接层,从而得到表示词汇表大小的向量hvocab,并利用softmax函数对向量hvocab进行处理,以得到词汇表的概率分布p(vocab),该概率分布p(vocab)中的每个元素对应于词汇表中不同词的生成概率。
hvocab=Wf(FFN(outputenc-dec))
p(vocab)=softmax(hvocab)
其中,FFN表示第四神经网络模型中的前馈网络,Wf为第四神经网络模型中全连接层的可学习参数;
(7-6)从步骤(7-5)得到的词汇表的概率分布p(vocab)中找出词汇表中生成概率最大的词,将该词作为最终生成的摘要词outputword
outputword=argmax(p(vocab))
其中argmax表示取最大值对应的词。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
1、由于本发明采用了步骤(3),其使用的第一神经网络是Transformer的编码器部分,处理后的每个文本的所有词可以同时输入到第一神经网络,无须逐词输入,可以并行训练,因此能够解决现有方法存在的网络在训练时无法并行执行,导致实际应用时效率低下的技术问题;
2、由于本发明采用了步骤(2)、步骤(4)和步骤(5),首先基于语义相似度构建文本关系图,然后将其和步骤(4)得到每个文本的特征向量输入图卷积神经网络,以此捕捉文本之间的关系,获取更高阶的语义特征,因此能够解决现有方法存在的无法充分捕捉文本之间的关系,从而导致生成的摘要质量不佳的技术问题;
3、由于本发明采用了步骤(1)到步骤(3),其首先对文本进行预处理,将单个长文本截断为多个文本,并且使用第一神经网络对每个文本分别处理,因此能够解决现有方法存在的输入过长使模型从输入文本序列中定位关键信息十分困难的技术问题;
4、由于本发明采用了步骤(2)到步骤(6),其基于相似度构建文本关系图,然后使用图卷积神经网络来理解文本之间的关系,并处理文本之间相似或者互补的信息,以此更好地利用文本之间的关系,因此能够解决现有方法存在的因多个输入文本之间存在信息重复或者互补的关系造成的生成摘要质量偏低的技术问题;
5、本发明实现简单,可以并行训练,效率高,内部组件可根据实际应用需要调整,具有很高的灵活性;
6、本发明生成摘要的方式与人工撰写摘要的流程类似,生成的摘要不仅包含重要信息,而且语法错误少,具有很高的流畅性。
附图说明
图1是本发明基于文本关系图的多文本摘要生成方法的实现架构图;
图2是本发明基于文本关系图的多文本摘要生成方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的多文本摘要生成模型采用编码器-解码器的架构,且编码器的每个输入文本长度会被设为固定值,大于固定值的文本将被截断为多个文本,小于固定值的将使用填充符号填充至固定值,以便于可以并行执行,提高训练速度。本发明采用基于语义相似度的方法对文本之间的关系进行建模,构建文本关系图。同时使用在图结构的数据上性能优异的图卷积神经网络来聚合每个节点的领域信息,从而达到高效利用文本关系的目的,以生成更高质量的摘要。
如图1和图2所示,本发明提供了一种基于文本关系图的多文本摘要生成方法,包括以下步骤:
(1)获取多个输入文本,对获取的多个输入文本进行预处理,以得到预处理后的多个文本;
具体而言,本步骤首先是从互联网上获得某一事件的若干篇新闻报道作为输入文本,然后去除这些输入文本中的标点符号和非文字的特殊符号,最后将长度超过预设文本长度最大值的输入文本从对应的段落结尾处截断(如果截断后的输入文本的长度仍然大于预设文本长度最大值,则重复本截断操作),以将其分割为多个截断后的文本;
在本实施方式中,预设文本长度最大值是100到400个词之间,优选是200个词。
(2)针对步骤(1)预处理后的每个文本而言,获取该文本中每个词的词频-逆文本频率(Term frequency-Inverse document frequency,简称TF-IDF)值,根据该文本中所有词的TF-IDF值构建该文本的特征向量,根据每个文本的特征向量计算任意两个文本之间的余弦相似度,并使用步骤(1)得到的所有文本中每两个文本之间的余弦相似度构建文本关系图矩阵G;
具体而言,本步骤具体为:
首先,获取每个文本中每个词的TF-IDF值
TF-IDF=TF×IDF
其中TF表示词的词频,IDF表示词的逆文本频率,且有:
Figure BDA0002863187840000121
Figure BDA0002863187840000122
其中K表示步骤(1)得到的所有文本总数,计算逆文本频率时对数函数内分母加1是为了防止分母为0的情况出现。
然后,根据该文本中所有词的TF-IDF值构建每个文本的n维特征向量vecA,特征向量中第i维的值就是所有文本中所包含的第i个不重复的词的TF-IDF值,其中n表示步骤(1)得到的所有文本中所包含的不重复的词的数量,A表示文本序号,且有A∈[1,K],i∈[0,n-1];
接着,根据每个文本的特征向量计算任意两个文本A和B之间的余弦相似度,并将该余弦相似度作为文本关系图矩阵G的第A行第B列元素:
Figure BDA0002863187840000123
其中B表示文本序号,B≠A,且B∈[1,K];
最后,针对步骤(1)得到的文本中的每个文本,重复上述过程,从而得到完成文本关系图矩阵G的构建。
上述步骤(2)的优点在于,基于语义相似度构建文本关系图,构建的文本关系图可以帮助模型理解文本之间的关系,对模型生成摘要有一定的指导作用。
(3)将步骤(1)预处理后的每个文本输入训练好的第一神经网络模型中,以得到该文本中每个词的上下文表征向量;
具体而言,本发明中使用的第一神经网络模型是Transformer神经网络模型的编码器部分。
本发明的第一神经网络模型是通过以下过程训练得到的:
(a)获取多文本摘要数据集,并将该数据集数据按9:1的比例划分为训练集与测试集。
(b)根据步骤(a)获得的训练集,进行前向传播,并使用神经网络模型的损失函数计算神经网络模型的损失值。
(c)根据步骤(b)获得的损失值,并利用反向传播算法对神经网络模型的所有权重参数进行更新,以获得更新后的神经网络模型;
(d)根据步骤(c)更新后的神经网络模型,重复迭代步骤(b)和(c),直到该网络模型收敛为止,从而得到迭代训练后的神经网络模型;具体而言,该神经网络模型收敛的条件是在步骤(a)得到的测试集上的损失值不能再小,或者迭代次数达到设定的上限值500000,从而获得训练好的第一神经网络模型。
本步骤(3)包括以下子步骤:
(3-1)对每个文本中的每个词进行正余弦函数编码,以得到每个词的位置向量pe;
具体而言,每个词的位置向量pe等于:
Figure BDA0002863187840000131
Figure BDA0002863187840000132
其中pos表示每个词在其所在文本中的当前位置,2k表示位置向量pe的偶数维位置,2k+1表示位置向量pe的奇数维位置,dmodel表示位置向量pe的维度大小,同时也是词嵌入的维度大小,2k,2k+1∈[0,dmodel-1]。
(3-2)将每个文本中的每个词输入第一神经网络模型的词嵌入层,以得到每个词的词嵌入向量w,并根据步骤(3-1)中得到的每个词的位置向量pe和词嵌入向量w获取每个文本中该词的词向量;
每个文本中每个词的词向量x为:
x=w+pe
(3-3)将(3-2)得到的每个文本中每个词的词向量输入第一神经网络模型的多头自注意力层,以得到每个文本中每个词对应的多头自注意力层输出;
本步骤具体为:
首先,通过nhead个不同的矩阵将步骤(3-2)得到的每个词的词向量线性映射为nhead个向量三元组[Qj,Kj,Vj],该向量三元组中的每个向量均是dhead维,且公式如下:
Figure BDA0002863187840000141
Figure BDA0002863187840000142
Figure BDA0002863187840000143
其中nhead取值范围是1到10,优选等于8,j∈[1,nhead],
Figure BDA0002863187840000144
是第一神经网络模型的多头自注意力层中的可学习参数矩阵,且维度均为dhead×dmodel
然后,针对第j个向量三元组[Qj,Kj,Vj]而言,计算其自注意力输出向量headj
Figure BDA0002863187840000145
其中softmax表示归一化函数,且:
Figure BDA0002863187840000146
最后,将所有nhead个向量三元组的自注意力输出向量headj连接起来,并进行一步线性映射,以得到多头自注意力层输出:
Figure BDA0002863187840000147
其中concat为连接操作,将多个向量堆叠为一个高维向量,WO是第一神经网络模型的多头自注意力层中的可学习参数矩阵,其维度为(dmodel,nhead×dhead)。
(3-4)将步骤(3-3)得到的每个文本中每个词对应的多头自注意力层输出输入到第一神经网络模型中的前馈网络中,以得到每个文本中每个词的词上下文表征向量;
其中前馈网络是由两层线性层和中间的激活函数组成,其中ReLU激活函数表达式为:
ReLU(x)=max(0,x)
上述步骤(3)的优点在于,预处理后的每个文本的所有词可以同时输入到第一神经网络,无须逐词输入,可以并行训练。
(4)将步骤(3)得到的每个文本中每个词的上下文表征向量输入训练好的第二神经网络模型中,以得到该文本的特征向量;
具体而言,本发明中使用的第二神经网络模型是由两层线性层组成,两层线性层中间使用Softmax激活函数。
本发明的第二神经网络模型是通过以下过程训练得到的:
(a)获取多文本摘要数据集,并将该数据集数据按9:1的比例划分为训练集与测试集。
(b)根据步骤(a)获得的训练集,进行前向传播,并使用神经网络模型的损失函数计算神经网络模型的损失值。
(c)根据步骤(b)获得的损失值,并利用反向传播算法对神经网络模型的所有权重参数进行更新,以获得更新后的神经网络模型;
(d)根据步骤(c)更新后的神经网络模型,重复迭代步骤(b)和(c),直到该网络模型收敛为止,从而得到迭代训练后的神经网络模型;具体而言,该神经网络模型收敛的条件是在步骤(a)得到的测试集上的损失值不能再小,或者迭代次数达到设定的上限值500000,从而获得训练好的第二神经网络模型。
每个文本的特征向量docg是通过下式计算,其中g∈[1,K]:
Figure BDA0002863187840000161
其中中间变量
Figure BDA0002863187840000162
等于:
Figure BDA0002863187840000163
其中kp=Wkxp
中间变量vp等于:
vp=Wvxp
其中num表示第g个文本中词的数量,Wg、Wk、Wv均为第二神经网络模型中的可学习参数,xp表示第g个文本中第p个词的上下文表征向量,且有p∈[1,num]。
(5)将步骤(2)得到的文本关系图矩阵G和步骤(4)得到的每个文本的特征向量输入训练好的第三神经网络模型中,以得到特征矩阵。
具体而言,第三神经网络模型是图卷积神经网络模型。
本发明的第三神经网络模型是通过以下过程训练得到的:
(a)获取多文本摘要数据集,并将该数据集数据按9:1的比例划分为训练集与测试集。
(b)根据步骤(a)获得的训练集,进行前向传播,并使用神经网络模型的损失函数计算神经网络模型的损失值。
(c)根据步骤(b)获得的损失值,并利用反向传播算法对神经网络模型的所有权重参数进行更新,以获得更新后的神经网络模型;
(d)根据步骤(c)更新后的神经网络模型,重复迭代步骤(b)和(c),直到该网络模型收敛为止,从而得到迭代训练后的神经网络模型;具体而言,该神经网络模型收敛的条件是在步骤(a)得到的测试集上的损失值不能再小,或者迭代次数达到设定的上限值500000,从而获得训练好的第三神经网络模型。
本步骤包括以下子步骤:
(5-1)对步骤(2)得到的文本关系图矩阵G进行预处理,以得到邻接矩阵A和度矩阵D;
具体而言,本步骤首先根据文本关系图矩阵G生成邻接矩阵A:
A=G+I
其中I表示与文本关系图矩阵G大小完全相同的单位矩阵,本过程使得矩阵A的主对角线元素的值均为1:
然后,根据邻接矩阵A获取度矩阵D:
Figure BDA0002863187840000171
其中i和k分别为度矩阵D中的行序号和列序号,本过程使得度矩阵D只有主对角线元素有值,其他位置均为0。
(5-2)将步骤(4)得到的所有K个文本的特征向量doc1,doc2,...,docK组合为输入特征矩阵H;
本步骤中的组合方法为:
Figure BDA0002863187840000172
(5-3)将步骤(5-1)得到的邻接矩阵A、度矩阵D、以及步骤(5-2)得到的输入特征矩阵H输入训练好的第三神经网络模型,以获得特征矩阵,该特征矩阵中的每一行是每个文本经过第三神经网络模型更新后的特征向量的转置。
特征矩阵是通过以下过程获得:
Figure BDA0002863187840000181
其中ReLU表示第三神经网络模型中的修正线性单元(RectifiedLinear Unit,简称ReLU)激活函数。W为第三神经网络模型中的可学习参数。
(6)将步骤(5)得到的特征矩阵中每个文本经过第三神经网络模型更新后的特征向量和步骤(3)得到的每个文本中每个词的上下文表征向量进行融合,以获得每个文本中每个词的高阶表征向量。
将每个文本经过第三神经网络模型更新后的特征向量和该文本中每个词的上下文表征向量进行融合的具体方法为:
首先,从步骤(5)得到的特征矩阵outputgcn中分离出K个文本经过第三神经网络模型更新后的特征向量c1,c2,...,cK
然后,针对所有K个文本中的每一个文本g而言,采用以下公式获取第g个文本中第p个词的高阶表征向量:
Figure BDA0002863187840000182
上述步骤(4)到步骤(6)的优点在于,将每个文本的特征向量和文本关系图输入图卷积神经网络,获取更高阶的文本特征,并以此高阶文本特征丰富每个词的上下文表征向量,这种方法可以很好地捕捉文本之间的关系,从而提高生成摘要质量。
(7)将步骤(6)得到的所有文本中所有词的高阶表征向量输入训练好的第四神经网络模型中,以得到所有文本对应的最终摘要;
具体而言,第四神经网络模型是Transformer的解码器部分。
本发明的第四神经网络模型是通过以下过程训练得到的:
(a)获取多文本摘要数据集,并将该数据集数据按9:1的比例划分为训练集与测试集。
(b)根据步骤(a)获得的训练集,进行前向传播,并使用神经网络模型的损失函数计算神经网络模型的损失值。
(c)根据步骤(b)获得的损失值,并利用反向传播算法对神经网络模型的所有权重参数进行更新,以获得更新后的神经网络模型;
(d)根据步骤(c)更新后的神经网络模型,重复迭代步骤(b)和(c),直到该网络模型收敛为止,从而得到迭代训练后的神经网络模型;具体而言,该神经网络模型收敛的条件是在步骤(a)得到的测试集上的损失值不能再小,或者迭代次数达到设定的上限值500000,从而获得训练好的第四神经网络模型。
本步骤具体为,首先,将步骤(6)得到的所有文本中所有词的高阶表征向量和起始符y0一起输入训练好的第四神经网络模型中,以得到第1个摘要词y1,然后,将第1个摘要词y1和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第2个摘要词y2,然后,将第1个摘要词y1、第2个摘要词y2和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第3个摘要词y3,…,以此类推,直到最终生成的摘要词是终止符、或者最终生成的摘要词数量达到预设的最大摘要长度为止。
在本发明中,预设的最大摘要长度是200到500个词,优选为300个词。
本步骤生成第t(其中t∈[1,预设的最大摘要长度])个摘要词的过程包括以下子步骤:
(7-1)对第四神经网络模型已生成的摘要词y1,y2,...,yt-1进行正余弦函数编码,以得到每个摘要词的位置向量;
本步骤的计算过程和上述步骤(3-1)完全相同,在此不再赘述。
(7-2)将第四神经网络模型已生成的摘要词y1,y2,...,yt-1输入第四神经网络的词嵌入层,以得到每个摘要词的词嵌入向量,将得到的每个摘要词的词嵌入向量与步骤(7-1)得到的每个摘要词的位置向量相加,以得到每个摘要词的词向量;
(7-3)将步骤(7-2)得到的每个摘要词的词向量输入第四神经网络模型的多头自注意力层,以得到每个摘要词对应的多头自注意力层输出。
本步骤的计算过程和上述步骤(3-3)完全相同,在此不再赘述。
(7-4)将步骤(7-3)得到的每个摘要词对应的多头自注意力层输出输入第四神经网络模型中的编码器-解码器多头注意力层,以得到每个摘要词对应的编码器-解码器多头注意力层输出。
需要注意的是,该层执行的操作相对于步骤(3-3)的多头自注意力层,唯一不同的是,其用来计算注意力输出的K、V向量均来自于步骤(6)编码生成的每个词的高阶表征向量,Q向量来自于步骤(7-3)得到的第t-1个摘要词对应的多头自注意力层输出。
(7-5)将步骤(7-4)得到的编码器-解码器多头注意力层输出outputenc-dec输入第四神经网络模型中的前馈网络,将前馈网络的输出结果输入第四神经网络模型中的全连接层,从而得到表示词汇表大小的向量hvocab,并利用softmax函数对向量hvocab进行处理,以得到词汇表的概率分布p(vocab),该概率分布p(vocab)中的每个元素对应于词汇表中不同词的生成概率。
hvocab=Wf(FFN(outputenc-dec))
p(vocab)=softmax(hvocab)
其中,FFN表示第四神经网络模型中的前馈网络,Wf为第四神经网络模型中全连接层的可学习参数。
(7-6)从步骤(7-5)得到的词汇表的概率分布p(vocab)中找出词汇表中生成概率最大的词,将该词作为最终应生成的摘要词outputword
outputword=argmax(p(vocab))
其中argmax表示取最大值对应的词。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于文本关系图的多文本摘要生成方法,其特征在于,包括以下步骤:
(1)获取多个输入文本,对获取的多个输入文本进行预处理,以得到预处理后的多个文本;
(2)针对步骤(1)预处理后的每个文本而言,获取该文本中每个词的TF-IDF值,根据该文本中所有词的TF-IDF值构建该文本的特征向量,根据每个文本的特征向量计算任意两个文本之间的余弦相似度,并使用步骤(1)得到的所有文本中每两个文本之间的余弦相似度构建文本关系图矩阵G;
(3)将步骤(1)预处理后的每个文本输入训练好的第一神经网络模型中,以得到该文本中每个词的上下文表征向量;
(4)将步骤(3)得到的每个文本中每个词的上下文表征向量输入训练好的第二神经网络模型中,以得到该文本的特征向量;
(5)将步骤(2)得到的文本关系图矩阵G和步骤(4)得到的每个文本的特征向量输入训练好的第三神经网络模型中,以得到特征矩阵;
(6)将步骤(5)得到的特征矩阵中每个文本经过第三神经网络模型更新后的特征向量和步骤(3)得到的每个文本中每个词的上下文表征向量进行融合,以获得每个文本中每个词的高阶表征向量,
(7)将步骤(6)得到的所有文本中所有词的高阶表征向量输入训练好的第四神经网络模型中,以得到所有文本对应的最终摘要。
2.根据权利要求1所述的多文本摘要生成方法,其特征在于,步骤(2)具体为:
首先,获取每个文本中每个词的TF-IDF值
TF-IDF=TF×IDF
其中TF表示词的词频,IDF表示词的逆文本频率,且有:
Figure FDA0002863187830000021
Figure FDA0002863187830000022
其中K表示步骤(1)得到的所有文本总数;
然后,根据该文本中所有词的TF-IDF值构建每个文本的n维特征向量vecA,特征向量中第i维的值就是所有文本中所包含的第i个不重复的词的TF-IDF值,其中n表示步骤(1)得到的所有文本中所包含的不重复的词的数量,A表示文本序号,且有A∈[1,K],i∈[0,n-1];
接着,根据每个文本的特征向量计算任意两个文本A和B之间的余弦相似度,并将该余弦相似度作为文本关系图矩阵G的第A行第B列元素:
Figure FDA0002863187830000023
其中B表示文本序号,B≠A,且B∈[1,K];
最后,针对步骤(1)得到的文本中的每个文本,重复上述过程,从而得到完成文本关系图矩阵G的构建。
3.根据权利要求2所述的多文本摘要生成方法,其特征在于,本步骤(3)包括以下子步骤:
(3-1)对每个文本中的每个词进行正余弦函数编码,以得到每个词的位置向量pe;
(3-2)将每个文本中的每个词输入第一神经网络模型的词嵌入层,以得到每个词的词嵌入向量w,并根据步骤(3-1)中得到的每个词的位置向量pe和词嵌入向量w获取每个文本中该词的词向量;
(3-3)将(3-2)得到的每个文本中每个词的词向量输入第一神经网络模型的多头自注意力层,以得到每个文本中每个词对应的多头自注意力层输出;
(3-4)将步骤(3-3)得到的每个文本中每个词对应的多头自注意力层输出输入到第一神经网络模型中的前馈网络中,以得到每个文本中每个词的词上下文表征向量;
其中前馈网络是由两层线性层和中间的激活函数组成,其中ReLU激活函数表达式为:
ReLU(x)=max(0,x) 。
4.根据权利要求3所述的多文本摘要生成方法,其特征在于,
步骤(3-1)中,每个词的位置向量pe等于:
Figure FDA0002863187830000031
Figure FDA0002863187830000032
其中pos表示每个词在其所在文本中的当前位置,2k表示位置向量pe的偶数维位置,2k+1表示位置向量pe的奇数维位置,dmodel表示位置向量pe的维度大小,同时也是词嵌入的维度大小,2k,2k+1∈[0,dmodel-1];
每个文本中每个词的词向量x为:
x=w+pe。
5.根据权利要求4所述的多文本摘要生成方法,其特征在于,步骤(3-3)具体为:
首先,通过nhead个不同的矩阵将步骤(3-2)得到的每个词的词向量线性映射为nhead个向量三元组[Qj,Kj,Vj],该向量三元组中的每个向量均是dhead维,且公式如下:
Figure FDA0002863187830000041
Figure FDA0002863187830000042
Figure FDA0002863187830000043
其中nhead取值范围是1到10,优选等于8,j∈[1,nhead],
Figure FDA0002863187830000044
是第一神经网络模型的多头自注意力层中的可学习参数矩阵,且维度均为dhead×dmodel
然后,针对第j个向量三元组[Qj,Kj,Vj]而言,计算其自注意力输出向量headj
Figure FDA0002863187830000045
其中softmax表示归一化函数,且:
Figure FDA0002863187830000046
最后,将所有nhead个向量三元组的自注意力输出向量headj连接起来,并进行一步线性映射,以得到多头自注意力层输出:
Figure FDA0002863187830000047
其中concat为连接操作,将多个向量堆叠为一个高维向量,WO是第一神经网络模型的多头自注意力层中的可学习参数矩阵,其维度为(dmodel,nhead×dhead)。
6.根据权利要求5所述的多文本摘要生成方法,其特征在于,步骤(4)中,每个文本的特征向量docg是通过下式计算,其中g∈[1,K]:
Figure FDA0002863187830000048
其中中间变量
Figure FDA0002863187830000049
等于:
Figure FDA0002863187830000051
其中kp=Wkxp
中间变量vp等于:
vp=Wvxp
其中num表示第g个文本中词的数量,Wg、Wk、Wv均为第二神经网络模型中的可学习参数,xp表示第g个文本中第p个词的上下文表征向量,且有p∈[1,num]。
7.根据权利要求6所述的多文本摘要生成方法,其特征在于,步骤(5)包括以下子步骤:
(5-1)对步骤(2)得到的文本关系图矩阵G进行预处理,以得到邻接矩阵A和度矩阵D;
具体而言,本步骤首先根据文本关系图矩阵G生成邻接矩阵A:
A=G+I
其中I表示与文本关系图矩阵G大小完全相同的单位矩阵,本过程使得矩阵A的主对角线元素的值均为1:
然后,根据邻接矩阵A获取度矩阵D:
Figure FDA0002863187830000052
其中i和k分别为度矩阵D中的行序号和列序号;
(5-2)将步骤(4)得到的所有K个文本的特征向量doc1,doc2,...,docK组合为输入特征矩阵H;
本步骤中的组合方法为:
Figure FDA0002863187830000061
(5-3)将步骤(5-1)得到的邻接矩阵A、度矩阵D、以及步骤(5-2)得到的输入特征矩阵H输入训练好的第三神经网络模型,以获得特征矩阵,该特征矩阵中的每一行是每个文本经过第三神经网络模型更新后的特征向量的转置,
特征矩阵是通过以下过程获得:
Figure FDA0002863187830000062
其中ReLU表示第三神经网络模型中的ReLU激活函数。W为第三神经网络模型中的可学习参数。
8.根据权利要求7所述的多文本摘要生成方法,其特征在于,步骤(6)中将每个文本经过第三神经网络模型更新后的特征向量和该文本中每个词的上下文表征向量进行融合的具体方法为:
首先,从步骤(5)得到的特征矩阵outputgcn中分离出K个文本经过第三神经网络模型更新后的特征向量c1,c2,...,cK
然后,针对所有K个文本中的每一个文本g而言,采用以下公式获取第g个文本中第p个词的高阶表征向量:
Figure FDA0002863187830000063
9.根据权利要求8所述的多文本摘要生成方法,其特征在于,步骤(7)具体为,首先,将步骤(6)得到的所有文本中所有词的高阶表征向量和起始符y0一起输入训练好的第四神经网络模型中,以得到第1个摘要词y1,然后,将第1个摘要词y1和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第2个摘要词y2,然后,将第1个摘要词y1、第2个摘要词y2和步骤(6)得到的所有文本中所有词的高阶表征向量一起输入训练好的第四神经网络模型中,以得到第3个摘要词y3,以此类推,直到最终生成的摘要词是终止符、或者最终生成的摘要词数量达到预设的最大摘要长度为止,得到的所有摘要词就是最终的摘要。
10.根据权利要求8所述的多文本摘要生成方法,其特征在于,生成第t个摘要词的过程包括以下子步骤,其中t∈[1,预设的最大摘要长度]:
(7-1)对第四神经网络模型已生成的摘要词y1,y2,...,yt-1进行正余弦函数编码,以得到每个摘要词的位置向量;
(7-2)将第四神经网络模型已生成的摘要词y1,y2,...,yt-1输入第四神经网络的词嵌入层,以得到每个摘要词的词嵌入向量,将得到的每个摘要词的词嵌入向量与步骤(7-1)得到的每个摘要词的位置向量相加,以得到每个摘要词的词向量;
(7-3)将步骤(7-2)得到的每个摘要词的词向量输入第四神经网络模型的多头自注意力层,以得到每个摘要词对应的多头自注意力层输出。
(7-4)将步骤(7-3)得到的每个摘要词对应的多头自注意力层输出输入第四神经网络模型中的编码器-解码器多头注意力层,以得到每个摘要词对应的编码器-解码器多头注意力层输出,
(7-5)将步骤(7-4)得到的编码器-解码器多头注意力层输出outputenc-dec输入第四神经网络模型中的前馈网络,将前馈网络的输出结果输入第四神经网络模型中的全连接层,从而得到表示词汇表大小的向量hvocab,并利用softmax函数对向量九vocab进行处理,以得到词汇表的概率分布p(vocab),该概率分布p(vocab)中的每个元素对应于词汇表中不同词的生成概率。
hvocab=Wf(FFN(outputenc-dec))
p(vocab)=softmax(九vocab)
其中,FFN表示第四神经网络模型中的前馈网络,Wf为第四神经网络模型中全连接层的可学习参数;
(7-6)从步骤(7-5)得到的词汇表的概率分布p(vocab)中找出词汇表中生成概率最大的词,将该词作为最终生成的摘要词outputword
outputword=argmax(p(vocab))
其中argmax表示取最大值对应的词。
CN202011574822.2A 2020-12-28 2020-12-28 一种基于文本关系图的多文本摘要生成方法 Active CN112749253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011574822.2A CN112749253B (zh) 2020-12-28 2020-12-28 一种基于文本关系图的多文本摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011574822.2A CN112749253B (zh) 2020-12-28 2020-12-28 一种基于文本关系图的多文本摘要生成方法

Publications (2)

Publication Number Publication Date
CN112749253A CN112749253A (zh) 2021-05-04
CN112749253B true CN112749253B (zh) 2022-04-05

Family

ID=75646211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011574822.2A Active CN112749253B (zh) 2020-12-28 2020-12-28 一种基于文本关系图的多文本摘要生成方法

Country Status (1)

Country Link
CN (1) CN112749253B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434632A (zh) * 2021-06-25 2021-09-24 平安科技(深圳)有限公司 基于语言模型的文本补全方法、装置、设备及存储介质
CN114357969A (zh) * 2021-12-21 2022-04-15 有米科技股份有限公司 一种基于图注意网络的数据处理方法及装置
CN114579734B (zh) * 2022-03-24 2024-08-06 昆明理工大学 基于gcn网络融合要素关联图的汉越新闻抽取式摘要方法
CN116562275B (zh) * 2023-06-09 2023-09-15 创意信息技术股份有限公司 一种结合实体属性图的自动文本摘要方法
CN116992888A (zh) * 2023-09-25 2023-11-03 天津华来科技股份有限公司 基于自然语义的数据分析方法及系统
CN117807277B (zh) * 2024-03-01 2024-05-17 中国人民解放军国防科技大学 一种高阶动态图数据存储方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566255A (zh) * 2017-09-06 2018-01-09 叶进蓉 未读消息摘要生成方法及装置
WO2019191817A1 (en) * 2018-04-05 2019-10-10 NodApp Pty Ltd A system and method for generating documents
CN111061862A (zh) * 2019-12-16 2020-04-24 湖南大学 一种基于注意力机制生成摘要的方法
CN111506725A (zh) * 2020-04-17 2020-08-07 北京百度网讯科技有限公司 生成摘要的方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150310128A1 (en) * 2014-04-28 2015-10-29 Elwha Llc Methods, systems, and devices for machines and machine states that manage relation data for modification of documents based on various corpora and/or modification data
US11586827B2 (en) * 2017-05-10 2023-02-21 Oracle International Corporation Generating desired discourse structure from an arbitrary text

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566255A (zh) * 2017-09-06 2018-01-09 叶进蓉 未读消息摘要生成方法及装置
WO2019191817A1 (en) * 2018-04-05 2019-10-10 NodApp Pty Ltd A system and method for generating documents
CN111061862A (zh) * 2019-12-16 2020-04-24 湖南大学 一种基于注意力机制生成摘要的方法
CN111506725A (zh) * 2020-04-17 2020-08-07 北京百度网讯科技有限公司 生成摘要的方法和装置

Also Published As

Publication number Publication date
CN112749253A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN112749253B (zh) 一种基于文本关系图的多文本摘要生成方法
CN108519890B (zh) 一种基于自注意力机制的鲁棒性代码摘要生成方法
CN111061862B (zh) 一种基于注意力机制生成摘要的方法
CN110619043A (zh) 基于动态词向量的自动文本摘要生成方法
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN112765345A (zh) 一种融合预训练模型的文本摘要自动生成方法及系统
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN110688834B (zh) 基于深度学习模型进行智能文稿风格改写的方法和设备
CN106776540A (zh) 一种自由化文本生成方法
CN114398478B (zh) 一种基于bert和外部知识的生成式自动文摘方法
CN111767723B (zh) 一种基于bic的中文电子病历实体标注方法
CN111984782B (zh) 藏文文本摘要生成方法和系统
CN112417155B (zh) 基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质
CN114969304A (zh) 基于要素图注意力的案件舆情多文档生成式摘要方法
CN115759119B (zh) 一种金融文本情感分析方法、系统、介质和设备
CN113626584A (zh) 一种自动文本摘要生成方法、系统、计算机设备和存储介质
CN113407711A (zh) 一种利用预训练模型的吉布斯受限文本摘要生成方法
CN115658898A (zh) 一种中英文本实体关系抽取方法、系统及设备
CN115422939A (zh) 一种基于大数据的细粒度商品命名实体识别方法
CN117216291A (zh) 基于大模型增强的垂直领域小样本知识抽取方法和系统
CN115099244A (zh) 一种语音翻译的方法、训练语音翻译模型的方法及装置
CN111191023B (zh) 一种话题标签自动生成方法、装置及系统
Stevens-Guille et al. Neural NLG for methodius: From RST meaning representations to texts
CN113051897B (zh) 一种基于Performer结构的GPT2文本自动生成方法
CN110852112B (zh) 词向量嵌入方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Li Kenli

Inventor after: Liu Chubo

Inventor after: Zhou Xu

Inventor after: Luo Wenming

Inventor after: Tang Zhuo

Inventor after: Song Yingjie

Inventor after: Liu Yuanchun

Inventor after: Guo Yaolian

Inventor after: Yang Wangdong

Inventor after: Cao Ronghui

Inventor after: Xiao Guoqing

Inventor before: Tang Zhuo

Inventor before: Liu Chubo

Inventor before: Zhou Xu

Inventor before: Luo Wenming

Inventor before: Li Kenli

Inventor before: Song Yingjie

Inventor before: Liu Yuanchun

Inventor before: Guo Yaolian

Inventor before: Yang Wangdong

Inventor before: Cao Ronghui

Inventor before: Xiao Guoqing

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant