CN113111663B - 一种融合关键信息的摘要生成方法 - Google Patents

一种融合关键信息的摘要生成方法 Download PDF

Info

Publication number
CN113111663B
CN113111663B CN202110467022.9A CN202110467022A CN113111663B CN 113111663 B CN113111663 B CN 113111663B CN 202110467022 A CN202110467022 A CN 202110467022A CN 113111663 B CN113111663 B CN 113111663B
Authority
CN
China
Prior art keywords
layer
abstract
text
word
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110467022.9A
Other languages
English (en)
Other versions
CN113111663A (zh
Inventor
杨鹏
周华健
任炳先
于晓潭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202110467022.9A priority Critical patent/CN113111663B/zh
Publication of CN113111663A publication Critical patent/CN113111663A/zh
Application granted granted Critical
Publication of CN113111663B publication Critical patent/CN113111663B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种融合关键信息的摘要生成方法,能够为媒体文本自动地生成摘要。本发明首先通过互联网采集媒体文本,并在媒体文本基础上按人工规则生成标准摘要构造出样本数据集;然后对数据集进行预处理,生成训练模型的输入数据;接着构建基于关键信息融合的seq2seq摘要生成模型,并联合三元组损失与交叉熵损失进行模型训练;最后基于训练完毕后的模型进行输出模型的构建,并利用输出模型对待进行摘要的媒体文本进行自动摘要生成。与现有技术相比,本发明联合关键词与主题信息作为关键信息,能够多层次地对摘要生成过程进行引导,从而提高摘要结果的信息覆盖度与主题一致性。

Description

一种融合关键信息的摘要生成方法
技术领域
本发明涉及一种融合关键信息的摘要生成方法,属于互联网技术领域。
背景技术
随着互联网技术的高速发展,网络媒体成为人们快速获取和发布信息的重要平台,这使得各式各样的媒体新闻数量呈爆炸性增长。因此,对媒体文本进行全面分析,抽取、提炼出重要信息,并聚合成简短清晰的摘要呈现给读者,可以有效地帮助读者迅速、方便地了解媒体报道的主要内容,提高读者的信息获取效率。
序列到序列(sequence-to-sequence,seq2seq)的生成式摘要模型是当前文本摘要生成领域的主流模型。该模型由一个编码器与一个解码器构成,通过编码器将输入文本序列编码为隐层状态向量,然后通过解码器将隐层状态向量解码为摘要进行输出。然而,传统的seq2seq模型通过注意力机制来对重要编码信息进行聚焦,但摘要生成任务中原始文本与目标摘要在长度上往往存在明显差距,注意力权重容易分散到大量冗余信息上,致使生成摘要存在重要信息缺失、上下文主题不一致的问题。为此,本发明在seq2seq模型的基础上,引入主题抽取任务训练基于三元组损失的文本主题表示,利用TextRank方法抽取文本的关键字作为文本要素信息,结合文本的主题表示与要素信息生成文本的关键信息并融入到解码过程中,对摘要的生成进行有效引导。
发明内容
针对现有技术中存在的问题与不足,本发明提供一种融合关键信息的摘要生成方法,可以提取出媒体文本全局主题与局部要素两个层次的关键信息,并通过融合关键信息改善摘要生成过程缺乏有效控制的问题,提高摘要结果的主题一致性与信息覆盖度。
为实现上述发明目的,本发明所述的一种融合关键信息的摘要生成方法,首先利用TextRank方法提取出文本的关键词;然后构建基于BiLSTM(Bidirectional Long Short-Term Memory,双向长短时记忆网络)的关键信息提取模块,将抽取出的关键词与媒体文本作为输入,得到媒体文本的关键信息表示;最后将关键信息表示融入seq2seq模型的注意力机制中来生成媒体文本的摘要。该方法主要包括四个步骤,具体如下:
步骤1:通过互联网采集多篇媒体文本,积累样本数据集;所述数据集中的一个样本包括一篇媒体文本以及该媒体文本的标准摘要;
步骤2:对数据集中每一个样本构造三元组数据,一个三元组数据包括基准实例、正实例和负实例,基准实例为媒体文本的标准摘要、正实例为媒体文本原文、负实例为与正实例不同的另一篇媒体文本原文;
步骤3:训练基于关键信息融合的seq2seq摘要生成模型。首先利用TextRank方法提取样本中媒体文本的关键词,然后基于BiLSTM的关键信息抽取模块抽取出文本的全局主题信息与关键词的局部要素信息并联合为关键信息表示,seq2seq摘要生成模块通过融合关键信息的注意力机制引导摘要生成过程,最后利用三元组损失与交叉熵损失联合训练所述模型。
步骤4:对待进行摘要的媒体文本生成摘要。对于待进行摘要的媒体文本,首先用TextRank方法提取关键词,将媒体文本原文与文本关键词输入到步骤(2)中训练好的seq2seq摘要生成模型中,生成媒体文本摘要。该方案能够从多个维度提取文本的关键信息,克服传统文本摘要方法主题不够一致、信息不够完整的问题,可应用于媒体文本关键信息的精确提取,提升媒体文本摘要的效果。
相对于现有技术,本发明的优点如下:1)本发明采用的关键信息抽取模块,能够抽取出文本的全局主题信息与局部要素信息,对文本关键信息进行多层次的语义语境表示,补充了摘要生成过程缺失的关键特征,有效提高了摘要结果的主题一致性与信息覆盖度;2)本发明采用融合关键信息的注意力机制,能够有效融合多层次的关键信息并多角度地对摘要生成过程进行引导,减少了无关信息的干扰,有效提高了摘要结果的准确性。
附图说明
图1为本发明实施例的处理流程图。
图2为基于关键信息融合的seq2seq摘要生成模型的训练流程图。
具体实施方式
为了加深对本发明的认识和理解,下面结合具体实施例,进一步阐明本发明。
实施例1:参见图1、图2,一种融合关键信息的摘要生成方法,具体实施步骤如下:
步骤1,积累样本数据集,不失一般性,本实施例首先从互联网上搜集大量媒体文本,并按人工规则生成标准摘要,它们共同构成样本数据集D。标准摘要的人工生成规则为:40%的媒体文本将标题作为标准摘要、40%的媒体文本使用前三句话作为标准摘要、20%的媒体文本采用人工编写的摘要作为标准摘要。
步骤2,数据预处理,本实施例首先对数据集D的每篇媒体文本进行TextRank来提取关键词,选择TextRank打分最高的M个关键词作为媒体文本最终的关键词,并按原文中出现的位置顺序组织成关键词序列,本实施例中M取值为8。对数据集D的每份样本构建三元组数据(A、P、N),其中基准实例A为所属样本的标准摘要词序列、正例P为所属样本的媒体文本原文词序列、N为另一份样本的媒体文本原文词序列。
步骤3,利用步骤2处理后的数据集D对关键信息融合的seq2seq摘要生成模型进行训练,该步骤的实施可以分为以下子步骤:
子步骤3-1,构建输入层,输入层接收关键词序列与三元组数据作为输入,利用预训练的word2vec模型将每个词序列转化为词向量序列,分别得到映射后的关键词向量序列EK、基准实例词向量序列EA、正例词向量序列EP与负例词向量序列EN
子步骤3-2,构建文本编码层,本实施例采用一个两层BiLSTM循环神经网络对正例词向量序列EP进行语义编码提取,得到词向量序列EP的隐层状态向量BiLSTM(EP)。
子步骤3-3,构建关键信息提取层,关键信息提取层分为全局主题信息提取子层与局部要素信息提取子层,前者采用一个双层BiLSTM分别提取三元组词序列(EA、EP、EN)的主题信息,本实施例将最后一层BiLSTM中前向LSTM与后向LSTM各自最后一个时刻的输出隐状态向量进行拼接后作为词序列的全局主题信息表示(TA、TP、TN);后者采用一个单层BiLSTM对关键词向量序列EK进行消岐,得到要素词向量序列Elim(EK)。
子步骤3-4,构建摘要解码层。本实施例采用一个两层LSTM循环神经网络与注意力机制进行摘要的解码,首先利用两层LSTM得到当前摘要词的隐状态向量H,并将其作为查询向量Query与要素词向量序列Elim(EK)进行注意力计算,得到局部要素信息向量表示K,然后将局部要素信息向量表示K、全局主题信息表示TP、解码层隐状态向量H进行维度拼接后与子步骤3-1得到的隐层状态向量BiLSTM(EP)进行注意力计算得到上下文向量c,公式如下:
其中代表维度拼接运算。
子步骤3-5,构建摘要概率化层,使用一个线性映射函数fc与softmax激活函数,将上下文向量c与解码层隐状态向量H转化为摘要词的预测概率分布P,计算公式如下所示:
P=softmax(fc(H,c)) (2)
fc(H,c)=WHH+Wcc+b (3)
其中,WH、Wc和b是模型待训练的参数。
子步骤3-6,构建损失函数层,本层联合主题信息表示的三元组损失与摘要词的交叉熵损失作为所述模型的训练损失函数。按如下损失函数计算公式得到本组样本的训练损失:
LT=max{d(TA,TP)-d(TA,TN)+Margin,0} (4)
d(TA,TP)=1-cos(TA,TP) (5)
d(TA,TN)=1-cos(TA,TN) (6)
Ltotal=αLS+βLT (7)
其中LT为三元组损失,Margin为边界距离,本实施例取值为1,以保证正实例与负实例在主题语义上存在差异性;d(TA,TP)代表基准实例A与正实例P的主题语义距离,d(TA,TN)代表基准实例A与负实例N的主题语义距离;cos函数用于计算两个主题向量夹角的余弦值,用以衡量主题向量间的语义相似度;ɑ与β为超参数,代表两个损失各自的权重系数,本实施例中分别取值1与2;LS为摘要词预测的交叉熵损失;Ltotal为本组样本的总体训练损失。
子步骤3-7,训练所述模型。本实施例采用随机初始化的方式初始化所有待训练参数,在训练过程中采用Adam优化器进行梯度反向传播来更新模型参数,初始学习率设置为0.001。当训练损失不再下降或训练轮数超过50轮时,模型训练结束。
步骤4,利用训练完毕的模型构建输出模型生成摘要。输出模型不需要事先构建三元组数据,只需要待进行摘要的媒体文本以及提取的关键词作为输入,然后在摘要解码层每一时刻的输入词为上一时刻生成的摘要词,初始摘要词为一个特殊的开始标记“<START>”,每一时刻的摘要词为摘要概率化层输出的概率最大的词,当输出结束标记“<END>”时,停止摘要生成,输出已生成的摘要词作为输入媒体文本的预测摘要。
基于相同的发明构思,本发明实施例还提供一种融合关键信息的摘要生成装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被加载至处理器时实现上述的融合关键信息的摘要生成方法。
应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。

Claims (1)

1.一种融合关键信息的摘要生成方法,其特征在于,所述方法包括以下步骤:
步骤1,积累样本数据集:通过互联网采集多篇媒体文本,积累样本数据集,具体如下:首先从互联网上搜集大量媒体文本,并按人工规则生成标准摘要,它们共同构成样本数据集D,标准摘要的人工生成规则为:40%的媒体文本将标题作为标准摘要、40%的媒体文本使用前三句话作为标准摘要、20%的媒体文本采用人工编写的摘要作为标准摘要;
步骤2,数据预处理:首先对数据集D的每篇媒体文本进行TextRank来提取关键词,选择TextRank打分最高的M个关键词作为媒体文本最终的关键词,并按原文中出现的位置顺序组织成关键词序列;对数据集D的每份样本构建三元组数据(A、P、N),其中基准实例A为所属样本的标准摘要词序列、正实例P为所属样本的媒体文本原文词序列,负实例N为另一份样本的媒体文本原文词序列;
步骤3,利用步骤2处理后的数据集D对关键信息融合的seq2seq摘要生成模型进行训练,首先利用TextRank方法提取样本中媒体文本的关键词,然后基于BiLSTM循环神经网络的关键信息抽取模块抽取出文本的全局主题信息与关键词的局部要素信息并联合为关键信息表示,seq2seq摘要生成模块通过融合关键信息的注意力机制引导摘要生成过程,最后利用三元组损失与交叉熵损失联合训练所述模型,具体分为以下子步骤:
步骤3-1,构建输入层,输入层接收关键词序列与三元组数据作为输入,利用预训练的word2vec模型将每个词序列转化为词向量序列,分别得到映射后的关键词向量序列EK、基准实例词向量序列EA、正实例词向量序列EP与负实例词向量序列EN
步骤3-2,构建文本编码层,采用一个两层BiLSTM循环神经网络对正实例词向量序列EP进行语义编码提取,得到正实例词向量序列EP的隐层状态向量BiLSTM(EP);
步骤3-3,构建关键信息提取层,关键信息提取层分为全局主题信息提取子层与局部要素信息提取子层,全局主题信息提取子层采用一个两层BiLSTM循环神经网络分别提取三元组词向量序列(EA、EP、EN)的主题信息,将最后一层BiLSTM循环神经网络中前向LSTM与后向LSTM各自最后一个时刻的输出隐状态向量进行拼接后作为三元组词向量序列的全局主题信息表示(TA、TP、TN);局部要素信息提取子层采用一个单层BiLSTM循环神经网络对关键词向量序列EK进行消岐,得到要素词向量序列Elim(EK);
步骤3-4,构建摘要解码层,采用一个两层LSTM循环神经网络与注意力机制进行摘要的解码,首先利用两层LSTM循环神经网络得到当前摘要词的隐状态向量H,并将其作为查询向量Query与要素词向量序列Elim(EK)进行注意力计算,得到局部要素信息向量表示K,然后将局部要素信息向量表示K、全局主题信息表示TP、解码层隐状态向量H进行维度拼接后与子步骤3-2得到的隐层状态向量BiLSTM(EP)进行注意力计算得到上下文向量c,公式如下:
其中代表维度拼接运算;
步骤3-5,构建摘要概率化层,使用一个线性映射函数fc与softmax激活函数,将上下文向量c与解码层隐状态向量H转化为摘要词的预测概率分布P,计算公式如下所示:
P=softmax(fc(H ,c)) (2)
fc(H ,c)=WHH+Wcc+b (3)
其中,WH、Wc和b是模型待训练的参数;
步骤3-6,构建损失函数层,本层联合主题信息表示的三元组损失函数LT与摘要词的交叉熵损失函数LS作为seq2seq摘要生成模型训练的总损失函数,具体如下:
LT=max{d(TA ,TP)-d(TA ,TN)+Margin ,0} (4)
d(TA ,TP)=1-cos(TA ,TP) (5)
d(TA ,TN)=1-cos(TA ,TN) (6)
Ltotal=αLS+βLT (7)
其中LT为三元组损失,Margin为边界距离,取值为1,以保证正实例与负实例在主题语义上存在差异性;d(TA,TP)代表基准实例A与正实例P的主题向量语义距离,d(TA,TN)代表基准实例A与负实例N的主题向量语义距离;cos函数用于计算两个主题向量夹角的余弦值,用以衡量主题向量间的语义相似度;ɑ与β为超参数,代表两个损失各自的权重系数;LS为摘要词预测的交叉熵损失;Ltotal为本组样本的总体训练损失;
步骤3-7,训练所述seq2seq摘要生成模型,采用随机初始化的方式初始化所有待训练参数,在训练过程中采用Adam优化器进行梯度反向传播来更新模型参数,初始学习率设置为0.001,当训练损失不再下降或训练轮数超过50轮时,模型训练结束;
步骤4,利用训练完毕的模型构建输出模型生成摘要,具体如下,对于待进行摘要生成的媒体文本,首先用TextRank方法提取关键词,将媒体文本原文与文本关键词输入到步骤3中训练好的seq2seq摘要生成模型中,生成媒体文本摘要。
CN202110467022.9A 2021-04-28 2021-04-28 一种融合关键信息的摘要生成方法 Active CN113111663B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110467022.9A CN113111663B (zh) 2021-04-28 2021-04-28 一种融合关键信息的摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110467022.9A CN113111663B (zh) 2021-04-28 2021-04-28 一种融合关键信息的摘要生成方法

Publications (2)

Publication Number Publication Date
CN113111663A CN113111663A (zh) 2021-07-13
CN113111663B true CN113111663B (zh) 2024-09-06

Family

ID=76721080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110467022.9A Active CN113111663B (zh) 2021-04-28 2021-04-28 一种融合关键信息的摘要生成方法

Country Status (1)

Country Link
CN (1) CN113111663B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743133B (zh) * 2021-08-20 2023-10-17 昆明理工大学 融合词粒度概率映射信息的汉越跨语言摘要方法
CN113590765B (zh) * 2021-09-27 2021-12-10 成都索贝数码科技股份有限公司 多模态信息融合广播电视新闻关键词与摘要联合抽取方法
CN115982343B (zh) * 2023-03-13 2023-08-22 阿里巴巴达摩院(杭州)科技有限公司 摘要生成方法、训练摘要生成模型的方法及装置
CN116362351B (zh) * 2023-05-29 2023-09-26 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020082560A1 (zh) * 2018-10-25 2020-04-30 平安科技(深圳)有限公司 文本关键词提取方法、装置、设备及计算机可读存储介质
WO2020107878A1 (zh) * 2018-11-30 2020-06-04 平安科技(深圳)有限公司 文本摘要生成方法、装置、计算机设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363743B (zh) * 2018-01-24 2020-06-02 清华大学深圳研究生院 一种智能问题生成方法、装置和计算机可读存储介质
CN110134780B (zh) * 2018-02-08 2023-11-24 株式会社理光 文档摘要的生成方法、装置、设备、计算机可读存储介质
CN108804495B (zh) * 2018-04-02 2021-10-22 华南理工大学 一种基于增强语义的自动文本摘要方法
CN108830723A (zh) * 2018-04-03 2018-11-16 平安科技(深圳)有限公司 电子装置、债券收益率分析方法及存储介质
CN109145105B (zh) * 2018-07-26 2021-11-30 福州大学 一种融合信息选择与语义关联的文本摘要模型生成算法
CN109344391B (zh) * 2018-08-23 2022-10-21 昆明理工大学 基于神经网络的多特征融合中文新闻文本摘要生成方法
EP3620935A1 (en) * 2018-09-04 2020-03-11 Siemens Aktiengesellschaft System and method for natural language processing
CN109508459B (zh) * 2018-11-06 2022-11-29 杭州费尔斯通科技有限公司 一种从新闻中提取主题和关键信息的方法
CN109635284A (zh) * 2018-11-26 2019-04-16 北京邮电大学 基于深度学习结合累积注意力机制的文本摘要方法及系统
CN109800390B (zh) * 2018-12-21 2023-08-18 北京石油化工学院 一种个性化情感摘要的计算方法与装置
CN109783657B (zh) * 2019-01-07 2022-12-30 北京大学深圳研究生院 基于受限文本空间的多步自注意力跨媒体检索方法及系统
CN109948162A (zh) * 2019-03-25 2019-06-28 北京理工大学 融合序列语法标注框架的生成式文本摘要方法
WO2020227970A1 (en) * 2019-05-15 2020-11-19 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for generating abstractive text summarization
CN110377902B (zh) * 2019-06-21 2023-07-25 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110362823B (zh) * 2019-06-21 2023-07-28 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置
CN110704606B (zh) * 2019-08-19 2022-05-31 中国科学院信息工程研究所 一种基于图文融合的生成式摘要生成方法
CN110750652A (zh) * 2019-10-21 2020-02-04 广西大学 结合上下文实体词和知识的故事结局生成方法
CN110909152B (zh) * 2019-10-21 2021-07-09 昆明理工大学 一种融合主题信息的司法舆情文本摘要方法
CN110929030B (zh) * 2019-11-07 2022-05-03 电子科技大学 一种文本摘要和情感分类联合训练方法
CN111666756B (zh) * 2020-05-26 2023-12-05 湖北工业大学 一种基于主题融合的序列模型文本摘要生成方法
CN111897949B (zh) * 2020-07-28 2021-10-26 北京工业大学 一种基于Transformer的引导性文本摘要生成方法
CN112115687B (zh) * 2020-08-26 2024-04-26 华南理工大学 一种结合知识库中的三元组和实体类型的生成问题方法
CN112214996B (zh) * 2020-10-13 2024-06-04 华中科技大学 一种面向科技信息文本的文本摘要生成方法及系统
CN112463956B (zh) * 2020-11-26 2022-08-23 重庆邮电大学 基于对抗学习和分层神经网络的文本摘要生成系统和方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020082560A1 (zh) * 2018-10-25 2020-04-30 平安科技(深圳)有限公司 文本关键词提取方法、装置、设备及计算机可读存储介质
WO2020107878A1 (zh) * 2018-11-30 2020-06-04 平安科技(深圳)有限公司 文本摘要生成方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN113111663A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN113111663B (zh) 一种融合关键信息的摘要生成方法
CN110390103B (zh) 基于双编码器的短文本自动摘要方法及系统
Wang et al. Application of convolutional neural network in natural language processing
CN110119765B (zh) 一种基于Seq2seq框架的关键词提取方法
CN107748757B (zh) 一种基于知识图谱的问答方法
CN110135457A (zh) 基于自编码器融合文档信息的事件触发词抽取方法及系统
CN112784051A (zh) 专利术语抽取方法
CN109992669B (zh) 一种基于语言模型和强化学习的关键词问答方法
Gao et al. From standard summarization to new tasks and beyond: Summarization with manifold information
CN112883171B (zh) 基于bert模型的文档关键词抽取方法及装置
CN110807326A (zh) 结合gpu-dmm与文本特征的短文本关键词提取方法
CN113282711B (zh) 一种车联网文本匹配方法、装置、电子设备及存储介质
CN112732862B (zh) 一种基于神经网络的双向多段落阅读零样本实体链接方法和装置
CN114428850B (zh) 一种文本检索匹配方法和系统
CN113468854A (zh) 一种多文档自动摘要生成方法
CN116628186B (zh) 文本摘要生成方法及系统
CN114647715A (zh) 一种基于预训练语言模型的实体识别方法
CN111581943A (zh) 一种基于句子关联图的汉越双语多文档新闻观点句识别方法
CN111814477A (zh) 一种基于争议焦点实体的争议焦点发现方法、装置及终端
CN117010387A (zh) 融合注意力机制的RoBERTa-BiLSTM-CRF语音对话文本命名实体识别系统
CN117765450B (zh) 一种视频语言理解方法、装置、设备及可读存储介质
CN115408488A (zh) 用于小说场景文本的分割方法及系统
CN111563378A (zh) 一种联合学习的多文档阅读理解实现方法
CN117493608B (zh) 一种文本视频检索方法、系统及计算机存储介质
CN117828050B (zh) 基于长文档检索增强生成的中医问答方法、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant