CN116562275B - 一种结合实体属性图的自动文本摘要方法 - Google Patents
一种结合实体属性图的自动文本摘要方法 Download PDFInfo
- Publication number
- CN116562275B CN116562275B CN202310680690.9A CN202310680690A CN116562275B CN 116562275 B CN116562275 B CN 116562275B CN 202310680690 A CN202310680690 A CN 202310680690A CN 116562275 B CN116562275 B CN 116562275B
- Authority
- CN
- China
- Prior art keywords
- text
- graph
- language model
- training
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000010586 diagram Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 90
- 239000013598 vector Substances 0.000 claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims abstract description 21
- 238000003058 natural language processing Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 15
- 230000006872 improvement Effects 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000007476 Maximum Likelihood Methods 0.000 claims description 5
- 238000011160 research Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种结合实体属性图的自动文本摘要方法,属于自动文本摘要技术领域,方法先获取训练数据集,并采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图;训练数据集包括原文本和标准摘要文本;对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将训练数据集的原文本和实体属性图输入改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量;对文本上下文向量和图上下文向量进行联合解码,并以标准摘要文本为监督信号,生成原文本对应的文本摘要。本申请减少了文本摘要生成过程中的一致性错误,提高了摘要质量。
Description
技术领域
本发明涉及自动文本摘要技术领域,尤其涉及一种结合实体属性图的自动文本摘要方法。
背景技术
随着互联网技术的飞速发展,网络上每天都产生海量的数据,如何从这些数据中快速且准确地提取用户需要的信息已经成为自然语言处理领域的关键任务。自动文本摘要技术作为自然语言处理的一个重要研究方向,能够将原始文本的主要信息自动提取出来,具有较强的研究价值和应用价值。目前,自动文本摘要领域以生成式文本摘要方式为主,该摘要方式能够依据对原文的理解生成类似人类专家的摘要,但其生成的摘要容易出现与原文事实不一致的问题。
现在,大多数自动文本摘要任务是使用生成式自动文本摘要完成的,生成式文本摘要方法基于模型对输入文本的理解,逐一生成摘要中的单词,最终形成一篇摘要。此类摘要方法虽然类似于人类专家摘要的方法,能够生成出有差异性的文本,但是却可能存在事实一致性错误,即生成的摘要中包含和原文不一致的内容。以新闻文本为例,对于“甲在某某地点与警方发生冲突”这一则新闻,摘要模型可能最终输出“乙与警方发生冲突”,而其中乙并没有与警方发生冲突,这就属于摘要与原文不一致的情况。相关研究表明,生成式文本摘要中的此类错误以实体类错误为主,即示例中的实体或者实体属性生成错误,可见目前自动文本摘要任务生成的摘要质量有待进一步提高。
发明内容
本发明的目的在于克服现有技术的不足,提供一种结合实体属性图的自动文本摘要方法,有助于解决目前自动文本摘要方法生成摘要时存在一致性错误,生成摘要质量较差的问题。
本发明的目的是通过以下技术方案来实现的:
本申请提供一种结合实体属性图的自动文本摘要方法,包括:
获取训练数据集,并采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图;所述训练数据集包括原文本和标准摘要文本;
对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将所述训练数据集的原文本和实体属性图输入所述改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量;
对所述文本上下文向量和图上下文向量进行联合解码,并以所述标准摘要文本为监督信号,生成原文本对应的文本摘要。
进一步地,所述采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图,具体包括:
对训练数据集中的原文本进行句子切分,获得句子切分结果;
对句子切分结果进行三元组解析,提取出每个句子的三元组;
采用自然语言处理工具对所述句子切分结果进行依存树解析和词性标注,获得每个句子的依存树以及句子的内词性信息;
基于每个句子的依存树以及句子的内词性信息,通过自然语言处理工具对原文本进行共同指代解析,获得原文本中句子间实体的共同指代关系;
依据所述依存树和内词性信息识别出实体包含的属性,并将实体与属性进行关联,获得原文本的实体与属性的第一关联关系;
依据所述三元组进行句子间实体与实体之间的关系识别,获得原文本的实体与实体之间的第二关联关系;
基于原文本中的第一关联关系和第二关联关系,依据共同指代关系,将不同句子中同一实体结点的第一关联关系和第二关联关系进行合并,为每个样本构建出对应的实体属性图。
进一步地,所述对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将所述训练数据集的原文本和实体属性图输入所述改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量,具体包括:
对预训练语言模型进行结构改进,在预训练语言模型的编码器之后分别级联一个文本编码层和一个图编码层,并在文本编码层之后级联一个文本注意力层,获得文本编码器,同时在图编码层之后级联一个图注意力层,获得图编码器;
将原文本中的句子输入文本编码器进行编码处理,获得文本上下文向量;
将原文本的实体属性图输入图编码器进行编码处理,获得图上下文向量。
进一步地,所述对所述文本上下文向量和图上下文向量进行联合解码,并以所述标准摘要文本为监督信号,生成原文本对应的文本摘要,具体包括:
在改进预训练语言模型的文本编码器和图编码器之后级联一个联合解码器,获得初始预训练语言模型;
利用联合解码器对文本上下文向量和图上下文向量进行联合解码,并在联合解码过程中,以所述标准摘要文本为监督信号,采用极大似然损失函数计算初始预训练语言模型的摘要相关句标签损失;
依据摘要相关句标签损失对初始预训练语言模型进行模型参数调整,获得最终的预训练语言模型,将原文本输入最终的预训练语言模型进行编解码,生成原文本对应的文本摘要。
优选地,所述预训练语言模型为RoBERTa模型。
优选地,所述自然语言处理工具为Stanford CoreNLP。
优选地,所述文本编码层包括一层双向LSTM网络;所述图编码层包括一层GAT网络。
优选地,所述联合解码器包括单向LSTM网络。
本发明的有益效果:本发明提供了一种结合实体属性图的自动文本摘要方法,方法先获取训练数据集,并采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图;训练数据集包括原文本和标准摘要文本;对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将训练数据集的原文本和实体属性图输入改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量;对文本上下文向量和图上下文向量进行联合解码,并以标准摘要文本为监督信号,生成原文本对应的文本摘要。本申请通过为训练数据集中的样本构建实体属性图来生成摘要,充分考虑了原文中实体与属性之间的关系,同时对预训练语言模型进行结构改进,同时将训练数据集的原文本和实体属性图输入改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量后进行联合解码,生成最终文本摘要,充分利用了实体与属性、实体与实体之间的所属与连接关系来指导文本生成过程,减少了文本摘要生成过程中的一致性错误,提高了摘要质量。
附图说明
图1是本发明的自动文本摘要方法流程图;
图2为本发明的摘要生成整体技术原理图;
图3为本方法实体属性图生成流程示意图;
图4为解码器的结构示意图。
实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式。
参照图1和图2所示,图1示出了一种结合实体属性图的自动文本摘要方法,图2示出了。如图1所示,方法包括:
S1:获取训练数据集,并采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图。
其中,训练数据集是文本摘要任务训练所需要的数据集,训练数据集包括原文本和标准摘要文本。
S2:对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将训练数据集的原文本和实体属性图输入改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量。
S3:对文本上下文向量和图上下文向量进行联合解码,并以标准摘要文本为监督信号,生成原文本对应的文本摘要。
进一步地,在一个实施例中,本申请采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图,具体包括:
先对训练数据集中的原文本进行句子切分,获得句子切分结果;
对句子切分结果进行三元组解析,提取出每个句子的三元组;
采用自然语言处理工具对句子切分结果进行依存树解析和词性标注,获得每个句子的依存树以及句子的内词性信息;
基于每个句子的依存树以及句子的内词性信息,通过自然语言处理工具对原文本进行共同指代解析,获得原文本中句子间实体的共同指代关系;
依据依存树和内词性信息识别出实体包含的属性,并将实体与属性进行关联,获得原文本的实体与属性的第一关联关系;
依据三元组进行句子间实体与实体之间的关系识别,获得原文本的实体与实体之间的第二关联关系;
基于原文本中的第一关联关系和第二关联关系,依据共同指代关系,将不同句子中同一实体结点的第一关联关系和第二关联关系进行合并,合并前共同指代实体的关系与属性在合并之后属于同一实体,从而为每个样本构建出对应的实体属性图。
具体实践过程中,本申请对样本中的原文本都使用Stanford CoreNLP进行处理,并将处理结果以JSON格式保存。具体对训练数据集的数据处理过程如图3所示,首先执行CoreNLP的OpenIE任务,从原文本中提取出每个句子的主要三元组。其次执行依存树解析和词性标注任务,得到每个句子的依存树以及句子内词性信息。随后执行共同指代任务,得到句子间实体的共同指代关系。最后依据依存树信息将实体和对应属性关联起来,依据三元组及共同指代关系,将原文本中实体与实体关联起来,最终合并形成实体属性图。
进一步地,在一个实施例中,对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将训练数据集的原文本和实体属性图输入改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量,具体包括:
对预训练语言模型进行结构改进,在预训练语言模型的编码器之后分别级联一个文本编码层和一个图编码层,并在文本编码层之后级联一个文本注意力层,获得文本编码器,同时在图编码层之后级联一个图注意力层,获得图编码器;
将原文本中的句子输入文本编码器进行编码处理,获得文本上下文向量;
将原文本的实体属性图输入图编码器进行编码处理,获得图上下文向量。
具体实践过程中,基于预训练语言模型,在预训练语言模型的编码器之后级联一个文本编码层,从而生成文本表征;在文本编码层之后,级联一个文本注意力层,从而获取计算得文本上下文向量(即文本上下文表示),从而获得文本编码器。在前述的文本编码器中,原文本中的句子输入预训练语言模型之后,又经过文本编码层进一步编码,最终经过文本注意力层计算出文本上下文向量。
上述文本编码器中使用的预训练模型为RoBERTa模型,接收的输入最大长度为512,使用的词汇表为RoBERTa的词汇表。文本编码器中的文本编码层采用双向LSTM网络,隐含状态的纬度为128,编码过程具体如下:
;
其中为输入的文本序列,/>即为编码之后的词向量序列。
将步骤S1构建的实体属性图输入到图编码层中,以获得图中各结点的语义表示;在图编码层之上,级联一个图注意力层,用于获取图的上下文表示(即图上下文向量),从而获得图编码器;在图编码器中,步骤S1得到的实体属性图经过图编码层编码之后,得到各实体结点和属性结点的语义向量,经过图注意力层之后,计算得出图上下文向量。
具体的,在图编码器中,图编码层使用图注意力机制(GAT)进行实现,层数为1,并且采用局部注意力机制,只聚合结点的邻居结点信息,隐含状态的向量纬度为256,结点的编码过程可以表示为:
(1);
(2);
其中,表示结点i的最终编码,/>表示拼接操作,/>表示结点j的初始编码,表示结点j的最终编码, K表示多头注意力中的头数,/>表示/>结点的邻居结点,/>表示第k个头中结点/>相对与结点j的注意力分数,计算方式如式(2)所示,其中以及/>分别为第k个头中的第一参数矩阵和第二参数矩阵,T表示参数矩阵的转置。在经过一层GAT编码之后,结点编码完毕。
进一步地,在一个实施例中,本申请对文本上下文向量和图上下文向量进行联合解码,并以标准摘要文本为监督信号,生成原文本对应的文本摘要,具体包括:
在改进预训练语言模型的文本编码器和图编码器之后级联一个联合解码器,获得初始预训练语言模型;
利用联合解码器对文本上下文向量和图上下文向量进行联合解码,并在联合解码过程中,以标准摘要文本为监督信号,采用极大似然损失函数计算初始预训练语言模型的摘要相关句标签损失;
依据摘要相关句标签损失对初始预训练语言模型进行模型参数调整,获得最终的预训练语言模型,将原文本输入最终的预训练语言模型进行编解码,生成原文本对应的文本摘要。
具体的,在文本编码器以及图编码器之后,级联一个联合解码器,依据步骤S2的文本上下文向量和图上下文向量,输出对应的文本摘要;在每个模型训练步骤中,解码器接收样本中的标准摘要作为监督信号进行摘要生成,采用极大似然损失函数计算模型的摘要相关句标签损失,从而对模型参数进行调整。
其中,本申请使用的联合解码器采用单向LSTM网络模型,其解码过程如参照图4所示。步骤S2中计算文本上下文向量的方法如下式(3)和(4)所示:
;
其中,S t 为LSTM联合解码器在时刻t的内部状态,为激活函数,在本模型中使用tanh函数激活函数,x i 为第i个词的向量表示,/>为可训练的模型参数,/>为注意力分数,/>以及/>是两个可训练的参数矩阵。
计算图上下文向量的方法如下式(5)和(6)所示:
;
其中,为结点i的向量表示,/>为激活函数,在本模型中使用tanh函数激活函数,/>为注意力分数,/>为可训练的模型参数,/>以及/>是两个可训练的参数矩阵。
在得到两个上下文向量之后,使用如下方法计算时刻t输出单词的概率分布,方法如下式(7)所示:
;
其中,为LSTM解码器在时刻/>的内部状态,/>为解码所需的参数矩阵。
在模型的训练过程中,使用的损失函数计算方法为极大似然损失函数,获取摘要的相关句标签损失值loss,具体如下式(8)所示:
;
其中为样本集合,/>为样本中的一个样本,/>为样本中的原文本,/>为样本中的参考摘要(即原文本的标准摘要),/>为模型参数,/>表示括号内事件发生的概率。
本发明在CNN/DM新闻数据集上进行了测试,测试表明本发明能够减少模型生成摘要中的实体类型错误。
表1 CNN/DM数据集摘要示例表
其中,表1中英文语句不涉及本申请方案的技术实施细节,不影响技术方案的实施。从表1可以看出,经过本发明改进后模型生成的摘要,相对于未有效利用实体信息的Pointer-Generator模型,在实体方面具有较强的一致性,不容易出现实体错误或者实体属性错误。
本申请通过建立原文中实体与实体、实体与属性之间的关系,并且利用到摘要过程中,具有较大的实际运用价值。本发明提供的一种结合实体属性图的自动文本摘要方法结合图神经网络,能够对原文实体与属性之间的关系进行建模,并且将这种关系利用到摘要的生成中,减少摘要中存在的实体和实体属性错误。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护的范围由所附的权利要求书及其等效物界定。
Claims (7)
1.一种结合实体属性图的自动文本摘要方法,其特征在于,包括:
获取训练数据集,并采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图;所述训练数据集包括原文本和标准摘要文本;
所述采用自然语言处理工具对训练数据集进行解析处理,获得解析处理结果,依据解析处理结果,为训练数据集中的样本构建实体属性图,具体包括:
对训练数据集中的原文本进行句子切分,获得句子切分结果;
对句子切分结果进行三元组解析,提取出每个句子的三元组;
采用自然语言处理工具对所述句子切分结果进行依存树解析和词性标注,获得每个句子的依存树以及句子的内词性信息;
基于每个句子的依存树以及句子的内词性信息,通过自然语言处理工具对原文本进行共同指代解析,获得原文本中句子间实体的共同指代关系;
依据所述依存树和内词性信息识别出实体包含的属性,并将实体与属性进行关联,获得原文本的实体与属性的第一关联关系;
依据所述三元组进行句子间实体与实体之间的关系识别,获得原文本的实体与实体之间的第二关联关系;
基于原文本中的第一关联关系和第二关联关系,依据共同指代关系,将不同句子中同一实体结点的第一关联关系和第二关联关系进行合并,为原文本中每个样本构建出对应的实体属性图;
对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将所述训练数据集的原文本和实体属性图输入所述改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量;
对所述文本上下文向量和图上下文向量进行联合解码,并以所述标准摘要文本为监督信号,生成原文本对应的文本摘要。
2.根据权利要求1所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述对预训练语言模型进行结构改进,获得改进预训练语言模型,并分别将所述训练数据集的原文本和实体属性图输入所述改进预训练语言模型进行编码,获得文本上下文向量和图上下文向量,具体包括:
对预训练语言模型进行结构改进,在预训练语言模型的编码器之后分别级联一个文本编码层和一个图编码层,并在文本编码层之后级联一个文本注意力层,获得文本编码器,同时在图编码层之后级联一个图注意力层,获得图编码器;
将原文本中的句子输入文本编码器进行编码处理,获得文本上下文向量;
将原文本的实体属性图输入图编码器进行编码处理,获得图上下文向量。
3.根据权利要求1所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述对所述文本上下文向量和图上下文向量进行联合解码,并以所述标准摘要文本为监督信号,生成原文本对应的文本摘要,具体包括:
在改进预训练语言模型的文本编码器和图编码器之后级联一个联合解码器,获得初始预训练语言模型;
利用联合解码器对文本上下文向量和图上下文向量进行联合解码,并在联合解码过程中,以所述标准摘要文本为监督信号,采用极大似然损失函数计算初始预训练语言模型的摘要相关句标签损失;
依据摘要相关句标签损失对初始预训练语言模型进行模型参数调整,获得最终的预训练语言模型,将原文本输入最终的预训练语言模型进行编解码,生成原文本对应的文本摘要。
4.根据权利要求1所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述预训练语言模型为RoBERTa模型。
5.根据权利要求1所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述自然语言处理工具为Stanford CoreNLP。
6.根据权利要求2所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述文本编码层包括一层双向LSTM网络;所述图编码层包括一层GAT网络。
7.根据权利要求3所述的一种结合实体属性图的自动文本摘要方法,其特征在于,所述联合解码器包括单向LSTM网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310680690.9A CN116562275B (zh) | 2023-06-09 | 2023-06-09 | 一种结合实体属性图的自动文本摘要方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310680690.9A CN116562275B (zh) | 2023-06-09 | 2023-06-09 | 一种结合实体属性图的自动文本摘要方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116562275A CN116562275A (zh) | 2023-08-08 |
CN116562275B true CN116562275B (zh) | 2023-09-15 |
Family
ID=87486218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310680690.9A Active CN116562275B (zh) | 2023-06-09 | 2023-06-09 | 一种结合实体属性图的自动文本摘要方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116562275B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118093641B (zh) * | 2024-04-29 | 2024-06-25 | 创意信息技术股份有限公司 | 一种基于因果推断的自然语言转sql查询语句方法及装置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008277A (zh) * | 2019-10-30 | 2020-04-14 | 创意信息技术股份有限公司 | 一种自动文本摘要方法 |
CN111723547A (zh) * | 2020-05-25 | 2020-09-29 | 河海大学 | 一种基于预训练语言模型的文本自动摘要方法 |
CN112749253A (zh) * | 2020-12-28 | 2021-05-04 | 湖南大学 | 一种基于文本关系图的多文本摘要生成方法 |
CN113468328A (zh) * | 2021-06-18 | 2021-10-01 | 浙江工业大学 | 一种多属性事理关系抽取及可视分析方法 |
CN113806549A (zh) * | 2021-02-09 | 2021-12-17 | 京东科技控股股份有限公司 | 人员关系图谱的构建方法、装置及电子设备 |
CN114529842A (zh) * | 2022-02-23 | 2022-05-24 | 北京大学深圳研究生院 | 一种基于知识引导下双向注意力机制的人物交互检测方法 |
CN114841122A (zh) * | 2022-01-25 | 2022-08-02 | 电子科技大学 | 一种联合实体识别与关系抽取的文本抽取方法、存储介质及终端 |
CN114911951A (zh) * | 2022-05-18 | 2022-08-16 | 西安理工大学 | 面向人机协作装配任务的知识图谱构建方法 |
CN114969304A (zh) * | 2022-05-09 | 2022-08-30 | 昆明理工大学 | 基于要素图注意力的案件舆情多文档生成式摘要方法 |
CN115129812A (zh) * | 2022-06-22 | 2022-09-30 | 上海应用技术大学 | 基于知识图谱的文本摘要生成方法 |
CN115345169A (zh) * | 2022-07-22 | 2022-11-15 | 临沂中科好孕智能技术有限公司 | 一种基于知识增强的文本生成模型及其训练方法 |
CN115658898A (zh) * | 2022-10-26 | 2023-01-31 | 武汉大学 | 一种中英文本实体关系抽取方法、系统及设备 |
CN115759042A (zh) * | 2022-10-07 | 2023-03-07 | 东南大学 | 一种基于句法感知提示学习的句子级问题生成方法 |
CN115795044A (zh) * | 2022-10-26 | 2023-03-14 | 中科紫东信息技术(北京)有限公司 | 基于知识注入的用户关系挖掘方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112148871B (zh) * | 2020-09-21 | 2024-04-12 | 北京百度网讯科技有限公司 | 摘要生成方法、装置、电子设备及存储介质 |
US20230059494A1 (en) * | 2021-08-19 | 2023-02-23 | Digital Asset Capital, Inc. | Semantic map generation from natural-language text documents |
-
2023
- 2023-06-09 CN CN202310680690.9A patent/CN116562275B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008277A (zh) * | 2019-10-30 | 2020-04-14 | 创意信息技术股份有限公司 | 一种自动文本摘要方法 |
CN111723547A (zh) * | 2020-05-25 | 2020-09-29 | 河海大学 | 一种基于预训练语言模型的文本自动摘要方法 |
CN112749253A (zh) * | 2020-12-28 | 2021-05-04 | 湖南大学 | 一种基于文本关系图的多文本摘要生成方法 |
CN113806549A (zh) * | 2021-02-09 | 2021-12-17 | 京东科技控股股份有限公司 | 人员关系图谱的构建方法、装置及电子设备 |
CN113468328A (zh) * | 2021-06-18 | 2021-10-01 | 浙江工业大学 | 一种多属性事理关系抽取及可视分析方法 |
CN114841122A (zh) * | 2022-01-25 | 2022-08-02 | 电子科技大学 | 一种联合实体识别与关系抽取的文本抽取方法、存储介质及终端 |
CN114529842A (zh) * | 2022-02-23 | 2022-05-24 | 北京大学深圳研究生院 | 一种基于知识引导下双向注意力机制的人物交互检测方法 |
CN114969304A (zh) * | 2022-05-09 | 2022-08-30 | 昆明理工大学 | 基于要素图注意力的案件舆情多文档生成式摘要方法 |
CN114911951A (zh) * | 2022-05-18 | 2022-08-16 | 西安理工大学 | 面向人机协作装配任务的知识图谱构建方法 |
CN115129812A (zh) * | 2022-06-22 | 2022-09-30 | 上海应用技术大学 | 基于知识图谱的文本摘要生成方法 |
CN115345169A (zh) * | 2022-07-22 | 2022-11-15 | 临沂中科好孕智能技术有限公司 | 一种基于知识增强的文本生成模型及其训练方法 |
CN115759042A (zh) * | 2022-10-07 | 2023-03-07 | 东南大学 | 一种基于句法感知提示学习的句子级问题生成方法 |
CN115658898A (zh) * | 2022-10-26 | 2023-01-31 | 武汉大学 | 一种中英文本实体关系抽取方法、系统及设备 |
CN115795044A (zh) * | 2022-10-26 | 2023-03-14 | 中科紫东信息技术(北京)有限公司 | 基于知识注入的用户关系挖掘方法和装置 |
Non-Patent Citations (5)
Title |
---|
Relationship Extraction and processing for Knowledge Graph of Welding Manufacturing;Liang Du等;IEEE;第10卷;第103089页-103098页 * |
一种基于BERT的自动文本摘要模型构建方法;岳一峰;黄蔚;任祥辉;;计算机与现代化(第01期);第63页-68页 * |
从信息学的角度分析复杂网络链路预测;王慧等;小型微型计算机系统;第41卷(第2期);第316页-326页 * |
基于相似特征和关系图优化的姓名消歧;崔焕庆等;数据分析与知识发现;第7卷(第5期);第71页-79页 * |
知识图谱综述———表示、构建、推理与知识超图理论;田玲等;计算机应用;第41卷(第8期);第2161页-2186页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116562275A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110929030B (zh) | 一种文本摘要和情感分类联合训练方法 | |
US10916242B1 (en) | Intent recognition method based on deep learning network | |
CN111931506A (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN113051929A (zh) | 一种基于细粒度语义信息增强的实体关系抽取的方法 | |
CN116738994A (zh) | 基于上下文增强的提示微调的关系抽取方法 | |
CN112926337B (zh) | 一种结合重构句法信息的端到端方面级情感分析方法 | |
CN115098634B (zh) | 一种基于语义依存关系融合特征的舆情文本情感分析方法 | |
CN111967267B (zh) | 一种基于XLNet的新闻文本地域提取的方法及系统 | |
CN113158671B (zh) | 一种结合命名实体识别的开放域信息抽取方法 | |
CN116562275B (zh) | 一种结合实体属性图的自动文本摘要方法 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN114398900A (zh) | 一种基于RoBERTa模型的长文本语义相似度计算方法 | |
CN113076421A (zh) | 一种社交噪音文本实体关系抽取优化方法及系统 | |
CN114169447B (zh) | 基于自注意力卷积双向门控循环单元网络的事件检测方法 | |
CN116109978A (zh) | 基于自约束动态文本特征的无监督视频描述方法 | |
CN114595700A (zh) | 融合零代词与篇章信息的汉越神经机器翻译方法 | |
CN113536741B (zh) | 中文自然语言转数据库语言的方法及装置 | |
CN117251562A (zh) | 一种基于事实一致性增强的文本摘要生成方法 | |
CN116341527A (zh) | 一种融合成分句法信息的语法错误校正方法 | |
CN113449517B (zh) | 基于bert门控多窗口注意力网络模型的实体关系抽取方法 | |
CN116340507A (zh) | 一种基于混合权重和双通道图卷积的方面级情感分析方法 | |
CN113327581B (zh) | 一种提升语音识别准确率的识别模型优化方法及系统 | |
CN115223549A (zh) | 一种越南语语音识别语料构建方法 | |
CN114239548A (zh) | 一种融合依存句法和指针生成网络的三元组抽取方法 | |
Ma | Research on Computer Intelligent Proofreading System for English Translation Based on Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |