CN110737769A - 一种基于神经主题记忆的预训练文本摘要生成方法 - Google Patents

一种基于神经主题记忆的预训练文本摘要生成方法 Download PDF

Info

Publication number
CN110737769A
CN110737769A CN201910999118.2A CN201910999118A CN110737769A CN 110737769 A CN110737769 A CN 110737769A CN 201910999118 A CN201910999118 A CN 201910999118A CN 110737769 A CN110737769 A CN 110737769A
Authority
CN
China
Prior art keywords
topic
sequence
bert
representation
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910999118.2A
Other languages
English (en)
Other versions
CN110737769B (zh
Inventor
马廷淮
潘倩
金子龙
田青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201910999118.2A priority Critical patent/CN110737769B/zh
Publication of CN110737769A publication Critical patent/CN110737769A/zh
Application granted granted Critical
Publication of CN110737769B publication Critical patent/CN110737769B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于神经主题记忆的预训练文本摘要生成方法,根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;将输出的序列表示,使用主题记忆网络编码潜在的主题表示;根据主题表示、推理与经过编码的序列表示进行匹配,形成最终编码表示,再使用解码器来生成初步输出序列;将输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。本发明通过双向上下文的BERT和LSTM层进行特征的深层捕捉,喂入掩码后的摘要,对参数进行微调,细化每一个摘要单词,使得生成更加流畅、信息量高的文本摘要。

Description

一种基于神经主题记忆的预训练文本摘要生成方法
技术领域
本发明属于自然语言处理领域,具体涉及一种基于神经主题记忆的预训练文本摘要生成方法。
背景技术
由于社交媒体的快速发展,使得网络上的信息日益暴增。巨大的信息量让信息检索变得越来越困难,而信息摘要对于信息的发布者,使用者以及搜索引擎都有着重要的作用。简洁的文本摘要可以帮助用户快速的找到所需的信息,提供给搜索引擎可以提高检索速度。对于虚假的标题党,文本摘要也可以起到很好的监督作用,由于人工提取摘要工作量巨大,自动摘要技术得到了广泛的重视和研究。
文本摘要过程基本包括文本分析过程:对原文本进行分析处理,识别冗余信息;文本内容的选取和泛化过程:从文档中辨认重要信息,通过摘录、概括或计算分析的方法压缩文本;文摘的转换和生成过程:实现对原文内容的重组或者根据内部表示生成文摘,并确保文摘的连贯性。
现自动文摘技术基本分为单文档摘要或者多文档摘要。文摘技术基本分为抽取式摘要:从原文中找到一些关键的句子,组合成一篇摘要;概括式摘要:这需要计算机可以读懂原文的内容,并且用自己的意思将其表达出来。现阶段,相对成熟的是抽取式的方案,有很多算法,也有一些baseline的测试,但得到的摘要效果差强人意,后者的研究效果还有很大的提升。人类语言包括字、词、短语、句子、段落、文档,研究难度依次递增,理解句子、段落尚且困难,何况是文档,这是自动文摘最大的难点。主要的三大问题包括:对于文档冗余信息的识别和处理;对于重要内容和关键信息的概括和辨认;生成文摘的可读性和连贯性。
对于概括式摘要来说,现有的技术倾向于单向理解文档,没有办法完成对倒装句,从句等准确的理解。BERT模型的提出对自然语言处理做出了巨大的贡献,在11项语言任务上达到了最好的效果。BERT训练的语言模型基于双向上下文的理解,同时拥有大量的语料库进行预训练,达到更精确的词嵌入表示。在此基础上,基于主题记忆的机制可以对文摘的生成起到引导、推理的作用。
发明内容
发明目的:本发明提出一种基于神经主题记忆的预训练文本摘要生成方法,在文本摘要中基于预训练语言模型引入主题特征,利用BERT强大的预训练语言模型,结合双向上下文表示与主题推理生成更加自然符合主题的文本摘要,提高文本生成的效率。
技术方案:本发明所述的一种基于神经主题记忆的预训练文本摘要生成方法,包括以下步骤:
(1)根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;
(2)将步骤(1)输出的序列表示,使用主题记忆网络编码潜在的主题表示;
(3)根据步骤(2)得到的主题表示、推理与步骤(1)编码完成得到的序列表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列;
(4)将步骤(3)输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
进一步地,所述步骤(1)包括以下步骤:
(11)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm};
(12)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型;
(13)词嵌入使用具有30,000词汇量的WordPiece嵌入。
进一步地,所述步骤(2)包括以下步骤:
(21)将Hbert喂入到神经主题模型去推断隐含主题,用一个连续的隐变量z作为中间表示,其中K表示主题的个数;
(22)假设X有一个K维的主题概率分布θ,由高斯softmax产生,每个话题K下都有基于词汇表的词概率分布φK,X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z)),词分布满足:wn~soft max(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活,先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert));
(23)使用变分推理来近似给定所有情况下z上的后验分布,损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Eq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
进一步地,所述步骤(3)包括以下步骤:
(31)根据步骤(2)得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数;
(32)定义一个集成记忆权重,公式如下:
其中γ是预定义系数;
(33)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示;
(34)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H),Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接,注意力得分公式如下:
Figure BDA0002240716850000032
Figure BDA0002240716850000041
其中,de是输出维数,WQ,WK,WV是需要学习的权重矩阵,hi为上一层输出;
(35)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
Figure BDA0002240716850000042
(36)每一个生成的序列通过‘[PAD]’截断,解码器的目标是最小化负样本似然函数如下:
Figure BDA0002240716850000043
其中是真实摘要中第i个词;
(37)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
Figure BDA0002240716850000045
其中,
Figure BDA0002240716850000046
为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
进一步地,所述步骤(4)包括以下步骤:
(41)通过步骤(3)输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词;
(42)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Figure BDA0002240716850000047
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
其中,Fi、Ii、Oi分别是忘记门、输入门、输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,
Figure BDA0002240716850000051
为真实摘要第i个词,bo为偏差项;
(43)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征,目标为:
Figure BDA0002240716850000052
有益效果:与现有技术相比,本发明的有益效果:1、本发明建立了一个基于BERT的预训练语言模型,结合语料库充分利用了强大的预训练能力,在文档编码的时候引入神经主题记忆机制,使得文档主题可以作为特征参与到编码中;主题词汇权重也可以自然地与词嵌入、位置嵌入进行连接匹配;2本发明通过解码器使用transformer的多头注意力捕捉到单词与单词之间更深层的信息,来得到一个很好的表示;3、本发明针对文本摘要引入BERT+LSTM对任务进行微调,细化每一个摘要词汇,使得一词多义得到了很好的解决;4、本发明同时引入ROUGR和copy机制,使生成的句子更加流畅自然,同时提高了摘要生成的满意度。
附图说明
图1为基于神经主题记忆的预训练文本摘要生成的流程图;
图2为基于神经主题记忆的预训练文本摘要生成的框架图。
具体实施方式
下面结合附图对本发明作进一步的详细描述。
本发明提出了一种基于神经主题记忆的预训练文本摘要生成方法,该方法充分利用了预训练语言模型在编译码过程中的作用,无需手工特征即可实现端到端训练。同时结合主题记忆网络对文档的潜在主题表示进行编码,该方法可以将预先训练好的主题以及主题词汇作为特征。这样可以更好的捕捉文章的重要信息。将有主题意识的编码序列放入解码器通过transformer多注意力进行软对齐输出初步摘要序列。再通过双向上下文的BERT和LSTM层进行特征的深层捕捉,对参数进行微调,使得生成更加流畅、信息量高的文本摘要,其框架图如图2所示。为了进一步提高生成序列的自然度,将记忆主题机制与解码器,细化解码器相配合,并且联合训练,提高效率。
如图1所示,本方法包含如下步骤:
1、根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入。
(1)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm}。
(2)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型。
(3)词嵌入使用具有30,000词汇量的WordPiece嵌入。
2、根据步骤1输出的序列表示,使用主题记忆网络编码潜在的主题表示。
(1)将Hbert喂入到神经主题模型去推断隐含主题,用一个连续的隐变量z作为中间表示,K表示主题的个数。
(2)生成部分类似于LDA模型,假设X有一个K维的主题概率分布θ,由高斯softmax产生。每个话题K下都有基于词汇表的词概率分布φK。X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z))。词分布满足:wn~soft max(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活。先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert))
(3)推理部分使用变分推理来近似给定所有情况下z上的后验分布。损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Eq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
3、根据上一步得到的主题表示、推理与第一步得到的表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列。
(1)根据上一步得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数。
(2)定义一个集成记忆权重,公式如下:
其中,γ是预定义系数。
(3)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示。
(4)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H)。Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接。注意力得分公式如下:
Figure BDA0002240716850000073
其中,de是输出维数,WQ,WK,WV是需要学习的权重矩阵,hi为上一层输出。
(5)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
Figure BDA0002240716850000074
(6)每一个生成的序列通过‘[PAD]’截断。解码器的目标是最小化负样本似然函数如下:
其中,
Figure BDA0002240716850000076
是真实摘要中第i个词。
(7)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
Figure BDA0002240716850000077
其中,
Figure BDA0002240716850000078
为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
4、将步骤3输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
(1)通过上一步输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词。
(2)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Figure BDA0002240716850000081
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
Figure BDA0002240716850000082
其中,Fi,Ii,Oi分别是忘记门,输入门,输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,
Figure BDA0002240716850000083
为真实摘要第i个词,bo为偏差项。
(3)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征,目标为:
Figure BDA0002240716850000084
经过三部分的联合训练,验证及测试得到了较高的准确度。文本摘要样例效果如下:
原文本:The us space shuttle atlantis separated from the orbitingrussian mir space station early Saturday,after three days of test runs forlife in a future space facility,nasa announced。
目标文本:atlantis mir part ways after three-day space collaborationby emmanuel UNK。
模型生成文本:space shuttle atlantis separated from mir。

Claims (5)

1.一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,包括以下步骤:
(1)根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;
(2)将步骤(1)输出的序列表示,使用主题记忆网络编码潜在的主题表示;
(3)根据步骤(2)得到的主题表示、推理与步骤(1)编码完成得到的序列表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列;
(4)将步骤(3)输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
2.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(1)包括以下步骤:
(11)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm};
(12)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型;
(13)词嵌入使用具有30,000词汇量的WordPiece嵌入。
3.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(2)包括以下步骤:
(21)将Hbert喂入到神经主题模型去推断隐含主题,用一个连续的隐变量z作为中间表示,其中K表示主题的个数;
(22)假设X有一个K维的主题概率分布θ,由高斯softmax产生,每个话题K下都有基于词汇表的词概率分布φK,X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z)),词分布满足:wn~softmax(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活,先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert));
(23)使用变分推理来近似给定所有情况下z上的后验分布,损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Eq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
4.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(3)包括以下步骤:
(31)根据步骤(2)得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数;
(32)定义一个集成记忆权重,公式如下:
Figure FDA0002240716840000021
其中γ是预定义系数;
(33)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示;
(34)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H),Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接,注意力得分公式如下:
Figure FDA0002240716840000022
Figure FDA0002240716840000023
其中,de是输出维数,WQ,WK,WV是需要学习的权重矩阵,hi为上一层输出;
(35)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
Figure FDA0002240716840000031
(36)每一个生成的序列通过‘[PAD]’截断,解码器的目标是最小化负样本似然函数如下:
Figure FDA0002240716840000032
其中
Figure FDA0002240716840000033
是真实摘要中第i个词;
(37)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
其中,为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
5.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(4)包括以下步骤:
(41)通过步骤(3)输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词;
(42)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Figure FDA0002240716840000036
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
Figure FDA0002240716840000037
其中,Fi、Ii、Oi分别是忘记门、输入门、输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,
Figure FDA0002240716840000038
为真实摘要第i个词,bo为偏差项;
(43)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征,目标为:
Figure FDA0002240716840000041
CN201910999118.2A 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法 Active CN110737769B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910999118.2A CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910999118.2A CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Publications (2)

Publication Number Publication Date
CN110737769A true CN110737769A (zh) 2020-01-31
CN110737769B CN110737769B (zh) 2023-07-25

Family

ID=69270194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910999118.2A Active CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Country Status (1)

Country Link
CN (1) CN110737769B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189933A (zh) * 2018-09-14 2019-01-11 腾讯科技(深圳)有限公司 一种文本信息分类的方法及服务器
CN111400486A (zh) * 2020-03-13 2020-07-10 重庆大学 一种文本摘要自动生成系统及方法
CN111651986A (zh) * 2020-04-28 2020-09-11 银江股份有限公司 事件关键词提取方法、装置、设备及介质
CN111666756A (zh) * 2020-05-26 2020-09-15 湖北工业大学 一种基于主题融合的序列模型文本摘要生成方法
CN111723547A (zh) * 2020-05-25 2020-09-29 河海大学 一种基于预训练语言模型的文本自动摘要方法
CN111723196A (zh) * 2020-05-21 2020-09-29 西北工业大学 基于多任务学习的单文档摘要生成模型构建方法及装置
CN111753497A (zh) * 2020-06-29 2020-10-09 西交利物浦大学 基于多文本利用分阶层Transformer生成摘要的方法及系统
CN111767718A (zh) * 2020-07-03 2020-10-13 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN111782799A (zh) * 2020-06-30 2020-10-16 湖南大学 基于复制机制和变分神经推理的增强性文本摘要生成方法
CN111797196A (zh) * 2020-06-01 2020-10-20 武汉大学 一种结合注意力机制lstm和神经主题模型的服务发现方法
CN111831814A (zh) * 2020-06-04 2020-10-27 北京百度网讯科技有限公司 摘要生成模型的预训练方法、装置、电子设备和存储介质
CN112183083A (zh) * 2020-08-31 2021-01-05 杭州远传新业科技有限公司 文摘自动生成方法、装置、电子设备及存储介质
CN112395841A (zh) * 2020-11-18 2021-02-23 福州大学 一种基于bert的自动填补空缺文本方法
CN113127643A (zh) * 2021-05-11 2021-07-16 江南大学 一种融合微博主题及评论的深度学习谣言检测方法
CN113407711A (zh) * 2021-06-17 2021-09-17 成都崇瑚信息技术有限公司 一种利用预训练模型的吉布斯受限文本摘要生成方法
CN114547266A (zh) * 2022-02-21 2022-05-27 北京百度网讯科技有限公司 信息生成模型的训练方法、生成信息的方法、装置和设备
CN114691858A (zh) * 2022-03-15 2022-07-01 电子科技大学 一种基于改进的unilm摘要生成方法
CN116992854A (zh) * 2023-04-25 2023-11-03 云南大学 基于amr对比学习的文本摘要生成的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109933804A (zh) * 2019-03-27 2019-06-25 北京信息科技大学 融合主题信息与双向lstm的关键词抽取方法
WO2019169719A1 (zh) * 2018-03-08 2019-09-12 平安科技(深圳)有限公司 文摘自动提取方法、装置、计算机设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019169719A1 (zh) * 2018-03-08 2019-09-12 平安科技(深圳)有限公司 文摘自动提取方法、装置、计算机设备及存储介质
CN109933804A (zh) * 2019-03-27 2019-06-25 北京信息科技大学 融合主题信息与双向lstm的关键词抽取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
侯丽微,胡珀,曹雯琳: "主题关键词信息融合的中文生成式自动摘要研究" *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189933A (zh) * 2018-09-14 2019-01-11 腾讯科技(深圳)有限公司 一种文本信息分类的方法及服务器
CN111400486A (zh) * 2020-03-13 2020-07-10 重庆大学 一种文本摘要自动生成系统及方法
CN111400486B (zh) * 2020-03-13 2023-05-26 重庆大学 一种文本摘要自动生成系统及方法
CN111651986B (zh) * 2020-04-28 2024-04-02 银江技术股份有限公司 事件关键词提取方法、装置、设备及介质
CN111651986A (zh) * 2020-04-28 2020-09-11 银江股份有限公司 事件关键词提取方法、装置、设备及介质
CN111723196A (zh) * 2020-05-21 2020-09-29 西北工业大学 基于多任务学习的单文档摘要生成模型构建方法及装置
CN111723196B (zh) * 2020-05-21 2023-03-24 西北工业大学 基于多任务学习的单文档摘要生成模型构建方法及装置
CN111723547A (zh) * 2020-05-25 2020-09-29 河海大学 一种基于预训练语言模型的文本自动摘要方法
CN111666756B (zh) * 2020-05-26 2023-12-05 湖北工业大学 一种基于主题融合的序列模型文本摘要生成方法
CN111666756A (zh) * 2020-05-26 2020-09-15 湖北工业大学 一种基于主题融合的序列模型文本摘要生成方法
CN111797196A (zh) * 2020-06-01 2020-10-20 武汉大学 一种结合注意力机制lstm和神经主题模型的服务发现方法
CN111797196B (zh) * 2020-06-01 2021-11-02 武汉大学 一种结合注意力机制lstm和神经主题模型的服务发现方法
CN111831814A (zh) * 2020-06-04 2020-10-27 北京百度网讯科技有限公司 摘要生成模型的预训练方法、装置、电子设备和存储介质
CN111831814B (zh) * 2020-06-04 2023-06-23 北京百度网讯科技有限公司 摘要生成模型的预训练方法、装置、电子设备和存储介质
CN111753497A (zh) * 2020-06-29 2020-10-09 西交利物浦大学 基于多文本利用分阶层Transformer生成摘要的方法及系统
CN111753497B (zh) * 2020-06-29 2023-11-03 西交利物浦大学 基于多文本利用分阶层Transformer生成摘要的方法及系统
CN111782799A (zh) * 2020-06-30 2020-10-16 湖南大学 基于复制机制和变分神经推理的增强性文本摘要生成方法
CN111782799B (zh) * 2020-06-30 2023-11-10 湖南大学 基于复制机制和变分神经推理的增强性文本摘要生成方法
CN111767718A (zh) * 2020-07-03 2020-10-13 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN111767718B (zh) * 2020-07-03 2021-12-07 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN112183083A (zh) * 2020-08-31 2021-01-05 杭州远传新业科技有限公司 文摘自动生成方法、装置、电子设备及存储介质
CN112395841B (zh) * 2020-11-18 2022-05-13 福州大学 一种基于bert的自动填补空缺文本方法
CN112395841A (zh) * 2020-11-18 2021-02-23 福州大学 一种基于bert的自动填补空缺文本方法
CN113127643A (zh) * 2021-05-11 2021-07-16 江南大学 一种融合微博主题及评论的深度学习谣言检测方法
CN113407711A (zh) * 2021-06-17 2021-09-17 成都崇瑚信息技术有限公司 一种利用预训练模型的吉布斯受限文本摘要生成方法
CN114547266A (zh) * 2022-02-21 2022-05-27 北京百度网讯科技有限公司 信息生成模型的训练方法、生成信息的方法、装置和设备
CN114691858A (zh) * 2022-03-15 2022-07-01 电子科技大学 一种基于改进的unilm摘要生成方法
CN114691858B (zh) * 2022-03-15 2023-10-03 电子科技大学 一种基于改进的unilm摘要生成方法
CN116992854A (zh) * 2023-04-25 2023-11-03 云南大学 基于amr对比学习的文本摘要生成的方法

Also Published As

Publication number Publication date
CN110737769B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN110737769A (zh) 一种基于神经主题记忆的预训练文本摘要生成方法
CN111414481B (zh) 基于拼音和bert嵌入的中文语义匹配方法
CN111626063A (zh) 一种基于投影梯度下降和标签平滑的文本意图识别方法及系统
CN111723547A (zh) 一种基于预训练语言模型的文本自动摘要方法
CN111143563A (zh) 基于bert与lstm及cnn融合的文本分类方法
CN111985205A (zh) 一种方面级情感分类模型
CN111125333A (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN114398478B (zh) 一种基于bert和外部知识的生成式自动文摘方法
CN114492441A (zh) 基于机器阅读理解的BiLSTM-BiDAF命名实体识别方法
CN114398976A (zh) 基于bert与门控类注意力增强网络的机器阅读理解方法
CN114238649B (zh) 一种常识概念增强的语言模型预训练方法
CN117236323B (zh) 一种基于大数据的信息处理方法及系统
CN114444519B (zh) 一种基于Seq2Seq模型的情感对话生成方法
Xu et al. A comprehensive survey of automated audio captioning
Maslennikova ELMo Word Representations For News Protection.
CN111444328A (zh) 一种带有解释生成的自然语言自动预测推断方法
CN117932066A (zh) 一种基于预训练的“提取-生成”式答案生成模型及方法
CN116863920B (zh) 基于双流自监督网络的语音识别方法、装置、设备及介质
CN117539999A (zh) 一种基于跨模态联合编码的多模态情感分析方法
CN117540740A (zh) 基于深度学习的非遗传播群体情感分析方法及其分析系统
CN117235256A (zh) 一种多类知识体系下的情感分析分类方法
CN111813907A (zh) 一种自然语言问答技术中的问句意图识别方法
CN116205227A (zh) 一种基于变分推断理论的关键词生成方法及系统
CN114757177B (zh) 一种基于bart融合指针生成网络的文本摘要方法
CN116521857A (zh) 基于图形增强的问题驱动抽象式多文本答案摘要方法与装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant