CN110737769B - 一种基于神经主题记忆的预训练文本摘要生成方法 - Google Patents

一种基于神经主题记忆的预训练文本摘要生成方法 Download PDF

Info

Publication number
CN110737769B
CN110737769B CN201910999118.2A CN201910999118A CN110737769B CN 110737769 B CN110737769 B CN 110737769B CN 201910999118 A CN201910999118 A CN 201910999118A CN 110737769 B CN110737769 B CN 110737769B
Authority
CN
China
Prior art keywords
word
bert
representation
topic
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910999118.2A
Other languages
English (en)
Other versions
CN110737769A (zh
Inventor
马廷淮
潘倩
金子龙
田青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201910999118.2A priority Critical patent/CN110737769B/zh
Publication of CN110737769A publication Critical patent/CN110737769A/zh
Application granted granted Critical
Publication of CN110737769B publication Critical patent/CN110737769B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于神经主题记忆的预训练文本摘要生成方法,根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;将输出的序列表示,使用主题记忆网络编码潜在的主题表示;根据主题表示、推理与经过编码的序列表示进行匹配,形成最终编码表示,再使用解码器来生成初步输出序列;将输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。本发明通过双向上下文的BERT和LSTM层进行特征的深层捕捉,喂入掩码后的摘要,对参数进行微调,细化每一个摘要单词,使得生成更加流畅、信息量高的文本摘要。

Description

一种基于神经主题记忆的预训练文本摘要生成方法
技术领域
本发明属于自然语言处理领域,具体涉及一种基于神经主题记忆的预训练文本摘要生成方法。
背景技术
由于社交媒体的快速发展,使得网络上的信息日益暴增。巨大的信息量让信息检索变得越来越困难,而信息摘要对于信息的发布者,使用者以及搜索引擎都有着重要的作用。简洁的文本摘要可以帮助用户快速的找到所需的信息,提供给搜索引擎可以提高检索速度。对于虚假的标题党,文本摘要也可以起到很好的监督作用,由于人工提取摘要工作量巨大,自动摘要技术得到了广泛的重视和研究。
文本摘要过程基本包括文本分析过程:对原文本进行分析处理,识别冗余信息;文本内容的选取和泛化过程:从文档中辨认重要信息,通过摘录、概括或计算分析的方法压缩文本;文摘的转换和生成过程:实现对原文内容的重组或者根据内部表示生成文摘,并确保文摘的连贯性。
现自动文摘技术基本分为单文档摘要或者多文档摘要。文摘技术基本分为抽取式摘要:从原文中找到一些关键的句子,组合成一篇摘要;概括式摘要:这需要计算机可以读懂原文的内容,并且用自己的意思将其表达出来。现阶段,相对成熟的是抽取式的方案,有很多算法,也有一些baseline的测试,但得到的摘要效果差强人意,后者的研究效果还有很大的提升。人类语言包括字、词、短语、句子、段落、文档,研究难度依次递增,理解句子、段落尚且困难,何况是文档,这是自动文摘最大的难点。主要的三大问题包括:对于文档冗余信息的识别和处理;对于重要内容和关键信息的概括和辨认;生成文摘的可读性和连贯性。
对于概括式摘要来说,现有的技术倾向于单向理解文档,没有办法完成对倒装句,从句等准确的理解。BERT模型的提出对自然语言处理做出了巨大的贡献,在11项语言任务上达到了最好的效果。BERT训练的语言模型基于双向上下文的理解,同时拥有大量的语料库进行预训练,达到更精确的词嵌入表示。在此基础上,基于主题记忆的机制可以对文摘的生成起到引导、推理的作用。
发明内容
发明目的:本发明提出一种基于神经主题记忆的预训练文本摘要生成方法,在文本摘要中基于预训练语言模型引入主题特征,利用BERT强大的预训练语言模型,结合双向上下文表示与主题推理生成更加自然符合主题的文本摘要,提高文本生成的效率。
技术方案:本发明所述的一种基于神经主题记忆的预训练文本摘要生成方法,包括以下步骤:
(1)根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;
(2)将步骤(1)输出的序列表示,使用主题记忆网络编码潜在的主题表示;
(3)根据步骤(2)得到的主题表示、推理与步骤(1)编码完成得到的序列表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列;
(4)将步骤(3)输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
进一步地,所述步骤(1)包括以下步骤:
(11)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm};
(12)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型;
(13)词嵌入使用具有30,000词汇量的WordPiece嵌入。
进一步地,所述步骤(2)包括以下步骤:
(21)将Hbert喂入到主题记忆网络去推断隐含主题,用一个连续的隐变量z作为中间表示,其中K表示主题的个数;
(22)假设X有一个K维的主题概率分布θ,由高斯softmax产生,每个话题K下都有基于词汇表的词概率分布φK,X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z)),词分布满足:wn~softmax(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活,先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert));
(23)使用变分推理来近似给定所有情况下z上的后验分布,损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Εq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
进一步地,所述步骤(3)包括以下步骤:
(31)根据步骤(2)得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数;
(32)定义一个集成记忆权重,公式如下:
其中γ是预定义系数;
(33)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示;
(34)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H),Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接,注意力得分公式如下:
其中,de是输出维数,WQ,WK是需要学习的权重矩阵,hi为上一层输出;
(35)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
(36)每一个生成的序列通过‘[PAD]’截断,解码器的目标是最小化负样本似然函数如下:
其中是真实摘要中第i个词;
(37)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
其中,为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
进一步地,所述步骤(4)包括以下步骤:
(41)通过步骤(3)输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词;
(42)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
其中,Fi、Ii、Oi分别是忘记门、输入门、输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,为真实摘要第i个词,bo为偏差项;
(43)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征,目标为:
有益效果:与现有技术相比,本发明的有益效果:1、本发明建立了一个基于BERT的预训练语言模型,结合语料库充分利用了强大的预训练能力,在文档编码的时候引入神经主题记忆机制,使得文档主题可以作为特征参与到编码中;主题词汇权重也可以自然地与词嵌入、位置嵌入进行连接匹配;2本发明通过解码器使用transformer的多头注意力捕捉到单词与单词之间更深层的信息,来得到一个很好的表示;3、本发明针对文本摘要引入BERT+LSTM对任务进行微调,细化每一个摘要词汇,使得一词多义得到了很好的解决;4、本发明同时引入ROUGR和copy机制,使生成的句子更加流畅自然,同时提高了摘要生成的满意度。
附图说明
图1为基于神经主题记忆的预训练文本摘要生成的流程图;
图2为基于神经主题记忆的预训练文本摘要生成的框架图。
具体实施方式
下面结合附图对本发明作进一步的详细描述。
本发明提出了一种基于神经主题记忆的预训练文本摘要生成方法,该方法充分利用了预训练语言模型在编译码过程中的作用,无需手工特征即可实现端到端训练。同时结合主题记忆网络对文档的潜在主题表示进行编码,该方法可以将预先训练好的主题以及主题词汇作为特征。这样可以更好的捕捉文章的重要信息。将有主题意识的编码序列放入解码器通过transformer多注意力进行软对齐输出初步摘要序列。再通过双向上下文的BERT和LSTM层进行特征的深层捕捉,对参数进行微调,使得生成更加流畅、信息量高的文本摘要,其框架图如图2所示。为了进一步提高生成序列的自然度,将记忆主题机制与解码器,细化解码器相配合,并且联合训练,提高效率。
如图1所示,本方法包含如下步骤:
1、根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入。
(1)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm}。
(2)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型。
(3)词嵌入使用具有30,000词汇量的WordPiece嵌入。
2、根据步骤1输出的序列表示,使用主题记忆网络编码潜在的主题表示。
(1)将Hbert喂入到主题记忆网络去推断隐含主题,用一个连续的隐变量z作为中间表示,K表示主题的个数。
(2)生成部分类似于LDA模型,假设X有一个K维的主题概率分布θ,由高斯softmax产生。每个话题K下都有基于词汇表的词概率分布φK。X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z))。词分布满足:wn~softmax(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活。先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert))
(3)推理部分使用变分推理来近似给定所有情况下z上的后验分布。损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Εq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
3、根据上一步得到的主题表示、推理与第一步得到的表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列。
(1)根据上一步得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数。
(2)定义一个集成记忆权重,公式如下:
其中,γ是预定义系数。
(3)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示。
(4)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H)。Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接。注意力得分公式如下:
其中,de是输出维数,WQ,WK是需要学习的权重矩阵,hi为上一层输出。
(5)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
(6)每一个生成的序列通过‘[PAD]’截断。解码器的目标是最小化负样本似然函数如下:
其中,是真实摘要中第i个词。
(7)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
其中,为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
4、将步骤3输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
(1)通过上一步输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词。
(2)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
其中,Fi,Ii,Oi分别是忘记门,输入门,输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,为真实摘要第i个词,bo为偏差项。
(3)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征,目标为:
经过三部分的联合训练,验证及测试得到了较高的准确度。文本摘要样例效果如下:
原文本:The us space shuttle atlantis separated from the orbitingrussian mir space station early Saturday,after three days of test runs forlife in a future space facility,nasa announced。
目标文本:atlantis mir part ways after three-day space collaborationby emmanuel UNK。
模型生成文本:space shuttle atlantis separated from mir。

Claims (5)

1.一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,包括以下步骤:
(1)根据完整的输入序列,使用BERT预训练的上下文建模能力,对序列进行编码,完成文本嵌入;
(2)将步骤(1)输出的序列表示,使用主题记忆网络编码潜在的主题表示;
(3)根据步骤(2)得到的主题表示、推理与步骤(1)编码完成得到的序列表示进行匹配,形成最终编码表示,再使用一个基于transformer的解码器来生成初步输出序列;
(4)将步骤(3)输出的序列中每一个单词进行掩码喂入BERT并结合输入序列,使用基于transformer和LSTM的解码器来预测每个掩码位置的细化单词,实现微调。
2.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(1)包括以下步骤:
(11)进行文本词嵌入,将文档X编码成表示向量Hbert={h1,...hm};
(12)基于内存和运行时间的考虑,选择BERTBASE建立预训练模型;
(13)词嵌入使用具有30,000词汇量的WordPiece嵌入。
3.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(2)包括以下步骤:
(21)将Hbert喂入到主题记忆网络去推断隐含主题,用一个连续的隐变量z作为中间表示,其中K表示主题的个数;
(22)假设X有一个K维的主题概率分布θ,由高斯softmax产生,每个话题K下都有基于词汇表的词概率分布φK,X生成满足以下公式:z~N(μ,σ2),θ=softmax(fθ(z)),词分布满足:wn~softmax(fφ(θ)),其中f*(·)是一个线性变换输入的神经感知器,由非线性变换激活,先验参数z,μ,σ由输入数据定义,公式为:
μ=fμ(fe(Hbert))
logσ=fσ(fe(Hbert));
(23)使用变分推理来近似给定所有情况下z上的后验分布,损失函数负变分下界定义为:
LNTM=DKL(q(z)||p(z|x))-Εq(z)[p(x|z)]
其中,q(z)服从标准正态分布N(0,1),p(z|x)和p(x|z)分别表示编码和解码过程的概率。
4.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(3)包括以下步骤:
(31)根据步骤(2)得到的主题表示作为主题特征,将生成的Wφ即topic-word权重矩阵作为输入,经过RELU感知器激活的两个矩阵分别是原矩阵S,目标矩阵T,Hbert作为矩阵U,通过匹配S和U,计算第K个话题和索引向量中的第L个词嵌入的匹配度,计算公式如下:
PK,L=sigmoid(Ws[Sk;UL]+bs)
其中,S和U进行连接,Ws和bs是需要学习的参数;
(32)定义一个集成记忆权重,公式如下:
其中γ是预定义系数;
(33)给目标矩阵T加权重ξ,公式如下:
RK=ξKTK
其中,RK作为最终的主题表示,与词嵌入和位置嵌入连接作为词的上下文表示;
(34)将上下文表示喂入N层的Transformer的解码器去学习条件概率P(A|H),Transformer里的每一层都有一个多头自注意子层和一个带有残差连接的线性仿射子层,并且加入标准化和残差连接,注意力得分公式如下:
其中,de是输出维数,WQ,WK是需要学习的权重矩阵,hi为上一层输出;
(35)在t时刻,解码器根据先前的输出和编码器的中间表示来预测输出概率,公式如下:
(36)每一个生成的序列通过‘[PAD]’截断,解码器的目标是最小化负样本似然函数如下:
其中是真实摘要中第i个词;
(37)在生成初步序列摘要中,引入了复制机制处理超出词汇表的部分,核心公式如下:
其中,为源文档上的注意概率分布,复制门gt∈[0,1]通过softmax产生,生成在源文档中或者词汇表中选择的概率。
5.根据权利要求1所述的一种基于神经主题记忆的预训练文本摘要生成方法,其特征在于,所述步骤(4)包括以下步骤:
(41)通过步骤(3)输出的序列,将每一个单词进行掩码喂入BERT并结合输入序列,通过N层的Transformer和LSTM去预测每个细化的摘要词;
(42)在i时刻,BERT的输出层作为LSTM的输入层,核心公式如下:
Ci=σ(Fi)ΘCi-1+σ(Ii)Θtanh(Gi-1)
hi=σ(Ot)Θtanh(LNc(Ct))
其中,Fi、Ii、Oi分别是忘记门、输入门、输出门,Gi是隐藏向量,hi是输出向量,LNh,LNx,LNc是不同层的标准化操作,为真实摘要第i个词,bo为偏差项;
(43)两个解码器的参数相同,并且加入了ROUGE作为指导生成更流利的摘要,整个模型联合训练为了更好的捕捉特征。
CN201910999118.2A 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法 Active CN110737769B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910999118.2A CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910999118.2A CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Publications (2)

Publication Number Publication Date
CN110737769A CN110737769A (zh) 2020-01-31
CN110737769B true CN110737769B (zh) 2023-07-25

Family

ID=69270194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910999118.2A Active CN110737769B (zh) 2019-10-21 2019-10-21 一种基于神经主题记忆的预训练文本摘要生成方法

Country Status (1)

Country Link
CN (1) CN110737769B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189933A (zh) * 2018-09-14 2019-01-11 腾讯科技(深圳)有限公司 一种文本信息分类的方法及服务器
CN111400486B (zh) * 2020-03-13 2023-05-26 重庆大学 一种文本摘要自动生成系统及方法
CN111651986B (zh) * 2020-04-28 2024-04-02 银江技术股份有限公司 事件关键词提取方法、装置、设备及介质
CN111723196B (zh) * 2020-05-21 2023-03-24 西北工业大学 基于多任务学习的单文档摘要生成模型构建方法及装置
CN111723547A (zh) * 2020-05-25 2020-09-29 河海大学 一种基于预训练语言模型的文本自动摘要方法
CN111666756B (zh) * 2020-05-26 2023-12-05 湖北工业大学 一种基于主题融合的序列模型文本摘要生成方法
CN111797196B (zh) * 2020-06-01 2021-11-02 武汉大学 一种结合注意力机制lstm和神经主题模型的服务发现方法
CN111831814B (zh) * 2020-06-04 2023-06-23 北京百度网讯科技有限公司 摘要生成模型的预训练方法、装置、电子设备和存储介质
CN111753497B (zh) * 2020-06-29 2023-11-03 西交利物浦大学 基于多文本利用分阶层Transformer生成摘要的方法及系统
CN111782799B (zh) * 2020-06-30 2023-11-10 湖南大学 基于复制机制和变分神经推理的增强性文本摘要生成方法
CN111767718B (zh) * 2020-07-03 2021-12-07 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN112395841B (zh) * 2020-11-18 2022-05-13 福州大学 一种基于bert的自动填补空缺文本方法
CN113127643A (zh) * 2021-05-11 2021-07-16 江南大学 一种融合微博主题及评论的深度学习谣言检测方法
CN113407711B (zh) * 2021-06-17 2023-04-07 成都崇瑚信息技术有限公司 一种利用预训练模型的吉布斯受限文本摘要生成方法
CN114547266B (zh) * 2022-02-21 2023-06-30 北京百度网讯科技有限公司 信息生成模型的训练方法、生成信息的方法、装置和设备
CN114691858B (zh) * 2022-03-15 2023-10-03 电子科技大学 一种基于改进的unilm摘要生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109933804A (zh) * 2019-03-27 2019-06-25 北京信息科技大学 融合主题信息与双向lstm的关键词抽取方法
WO2019169719A1 (zh) * 2018-03-08 2019-09-12 平安科技(深圳)有限公司 文摘自动提取方法、装置、计算机设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019169719A1 (zh) * 2018-03-08 2019-09-12 平安科技(深圳)有限公司 文摘自动提取方法、装置、计算机设备及存储介质
CN109933804A (zh) * 2019-03-27 2019-06-25 北京信息科技大学 融合主题信息与双向lstm的关键词抽取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
侯丽微等.主题关键词信息融合的中文生成式自动摘要研究.自动化学报.2019,第45卷(第03期),全文. *

Also Published As

Publication number Publication date
CN110737769A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN110737769B (zh) 一种基于神经主题记忆的预训练文本摘要生成方法
Yang et al. VAE-Stega: linguistic steganography based on variational auto-encoder
Dong et al. Predicting visual features from text for image and video caption retrieval
CN109992669B (zh) 一种基于语言模型和强化学习的关键词问答方法
Zhang et al. Combining cross-modal knowledge transfer and semi-supervised learning for speech emotion recognition
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
Yu et al. Acoustic modeling based on deep learning for low-resource speech recognition: An overview
CN113536804B (zh) 一种基于关键词强化的GRU和Kronecker的自然语言特征提取方法
Zhao et al. Videowhisper: Toward discriminative unsupervised video feature learning with attention-based recurrent neural networks
CN111985205A (zh) 一种方面级情感分类模型
CN113033189B (zh) 一种基于注意力分散的长短期记忆网络的语义编码方法
CN111462749A (zh) 基于对话状态导向和知识库检索的端到端对话系统及方法
Lin Reinforcement learning and bandits for speech and language processing: Tutorial, review and outlook
Xu et al. A comprehensive survey of automated audio captioning
Maslennikova ELMo Word Representations For News Protection.
Zhang et al. AIA-net: Adaptive interactive attention network for text–audio emotion recognition
CN117236323B (zh) 一种基于大数据的信息处理方法及系统
Latif et al. Can large language models aid in annotating speech emotional data? uncovering new frontiers
Wang et al. A survey of extractive question answering
Chaudhary et al. Signnet ii: A transformer-based two-way sign language translation model
Mortazavi Speech-image semantic alignment does not depend on any prior classification tasks
CN115455144A (zh) 用于小样本意图识别的完型填空式的数据增强方法
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法
CN114662659A (zh) 一种基于多阶段迁移学习策略综合的众包文本集成方法
CN114896969A (zh) 一种基于深度学习的方面词提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant