CN111666756A - 一种基于主题融合的序列模型文本摘要生成方法 - Google Patents
一种基于主题融合的序列模型文本摘要生成方法 Download PDFInfo
- Publication number
- CN111666756A CN111666756A CN202010453197.XA CN202010453197A CN111666756A CN 111666756 A CN111666756 A CN 111666756A CN 202010453197 A CN202010453197 A CN 202010453197A CN 111666756 A CN111666756 A CN 111666756A
- Authority
- CN
- China
- Prior art keywords
- text
- topic
- hidden layer
- sequence
- embedding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 5
- 230000002457 bidirectional effect Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 4
- 230000001427 coherent effect Effects 0.000 abstract description 3
- 238000007430 reference method Methods 0.000 abstract 1
- 238000007619 statistical method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种基于主题融合的序列模型文本摘要生成方法,首先对输入文本进行预处理,使用word2vec模型来进行词嵌入训练,然后对词嵌入处理之后的文本使用序列到序列框架编码和解码。编码器和解码器网络都是通过双向长短时记忆网络层来构建,最后加入主题融合注意力机制将主题化和上下文的对齐信息提供到深度学习架构中,来帮助模型生成更连贯、多样性更强和信息更丰富的摘要。该方法引入数学领域中常见的统计学方法以及计算机领域的深度学习方法方法,确定了一种较为通用的文本摘要方法,也为其他文本摘要模型提供了一种计算参考方法,可以改善文本摘要的生成效果。
Description
技术领域
本发明涉及计算机技术领域,具体涉及一种基于主题融合的序列模型文本摘要生成方法。
背景技术
文本摘要是文本内容的缩影,是提高用户查找与阅读理解效率的重要工具,但传统的摘要由人工产生,成本高且效率低下,因此自动文本摘要技术应运而生。使机器理解人类语言是人工智能领域长期的目标,自动文本摘要在各种自然语言处理(NLP)应用中发挥了重要作用。
现有技术中,文本摘要主要可分为抽取式和概要式。抽取式要从原文中找出重要的句子,并将其组合成一段话作为原文的摘要,这种方式句子表述非常流畅,不会出现语法问题;概要式就需要计算机能理解自然语言的语义,并将其用计算机理解的表达方式将其表述出来,但概要式摘要的可读性较差。
本申请发明人在实施本发明的过程中,发现现有技术的方法,至少存在如下技术问题:
目前市面上广泛使用的文本摘要系统,绝大多数都是抽取式,这个方法比较简单,但存在很多问题,比如一旦源文本中有代词存在,摘要的一致性、连贯性则很难保证,简单的组合可能使人们无法清除地了解代词的指代关系,甚至会导致根本性错误,有可能会产生很大的影响。
由此可知,现有技术中的方法存在文本摘要生成效果不佳的技术问题。
发明内容
本发明提出一种基于主题融合的序列模型文本摘要生成方法,用于解决或者至少部分解决现有技术中的方法存在的文本摘要生成效果不佳的技术问题。
为了解决上述技术问题,本发明提供了一种基于主题融合的序列模型文本摘要生成方法,包括:
S1:对输入文本进行预处理和分词处理,通过主题模型获得输入文本的主题嵌入,并采用word2vec模型对分词处理后的文本进行词嵌入处理;
S2:构建基于主题融合的序列模型,在模型中使用BiLSTM网络层对词嵌入后的文本进行编码并得到最后一次的隐藏层状态,其中,最后一次的隐藏层状态包含词嵌入后的文本的语义特征;
S3:对输入文本的主题嵌入与最后一次的隐藏层状态进行联合注意力机制处理,获得输出序列;
S4:根据最后一次隐藏层状态中包含的语义特征和输出序列,解码生成输入文本的摘要。
在一种实施方式中,S1中通过主题模型获得输入文本的主题嵌入,包括:
引入LDA模型进行主题嵌入训练,最终得到输入文本的主题嵌入。
在一种实施方式中,S1中采用word2vec模型对分词处理后的文本进行词嵌入处理,具体包括:
word2vec模型采用skip-gram方法,并用Hierarchical Softmax优化计算,优化的目标函数通常取为对数似然函数,形式为:
式(1)表示已知当前词wt的前提下,预测其上下文Context(w),例如wt-2,wt-1,wt+1,wt+2。
在一种实施方式中,S2具体包括:
编码器采用BiLSTM神经网络,当输入遇到结束标识符则最后一次编码完成,整个文本通过编码器转变成语义编码c,每次的隐藏层都依赖前一次编码的隐藏层状态,通过循环迭代,最后一次的隐藏层状态包含了整个文本的语义特征,使用最后一次的隐藏层状态作为语义编码c,即:
其中,为输入序列的文本嵌入,由Tx个固定长度为m的嵌入构成,在编码阶段中,每次编码都会有产生一个隐藏层状态,隐藏层状态由当前的文本向量输入和上一时刻序列编码的隐藏层状态决定,当前时刻t的隐藏层状态为:
ht=f(ht-1,xt) (3)
其中,ht-1表示上一时刻序列编码的隐藏层状态,xt表示当前的文本向量输入。
在一种实施方式中,S3具体包括:
其中ω和b代表神经网络中的权重和偏置,tanh()是双曲正切函数,使用uf和单词级上下文向量hf之间的相似性来度量每个单词的重要性;
S3.2:通过联合注意力机制将主题信息合并到基于主题融合的序列模型中,获得输出序列。
在一种实施方式中,S3.2具体包括:
后向状态为:
S3.2.3:通过连接正向上下文表示Fc和反向上下文表示Hc,获得完整的上下文表示Y=[Fc,Hc],作为输出序列。
在一种实施方式中,S4具体包括:
将输出序列中的句子单元Y={Y1,Y2,...,Yt}的整体概率分割为如下公式所示的条件概率:
而式(8)中每个单元的概率又可用下列公式表示:
p(Yt|{Y1,Y2,...,Yt-1},c)=g(Yt-1,ht,c) (9)
公式(9)表示在一个非线性函数g()中,对于时间步t的输出Yt,由时间步t的隐藏状态ht,以及语义编码c和上一个输出Yt-1得到,输出Yt为输入文本的摘要。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明提供的一种基于主题融合的序列模型文本摘要生成方法,首先对输入文本进行预处理和分词处理,通过主题模型获得输入文本的主题嵌入,并采用word2vec模型对分词处理后的文本进行词嵌入处理;然后构建基于主题融合的序列模型,在模型中使用BiLSTM网络层对词嵌入后的文本进行编码并得到最后一次的隐藏层状态;接着对输入文本的主题嵌入与最后一次的隐藏层状态进行联合注意力机制处理,获得输出序列;最后根据最后一次隐藏层状态中包含的语义特征和输出序列,解码生成输入文本的摘要。
相比于现有技术的方法,本发明通过将文本主题信息合并到双向LSTM序列到序列模型中,将主题化和上下文的对齐信息提供到深度学习架构中,来更好的处理文本摘要中长期依赖关系问题,避免漏掉在源文本句法结构中起关键作用的主题词汇以及词与词之间的关系,帮助模型生成更连贯、信息更丰富、更加贴合主题信息的摘要,故而改善了摘要生成的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种基于主题融合的序列模型文本摘要生成方法的整体网络框架意图;
图2为摘要生成的处理流程示意图。
具体实施方式
针对传统神经网络用于摘要任务的特殊性、数据规模大、结果相对发散和不一致、长文档语义编码等问题,使得摘要时总体性能提升并不明显的问题,本发明提供了一种基于主题融合的序列模型文本摘要生成方法。
本发明的技术方案是:
一种基于主题融合的序列模型文本摘要方法,通过将文本主题信息合并到双向LSTM序列到序列模型中,将主题化和上下文的对齐信息提供到深度学习架构中,来更好的处理文本摘要中长期依赖关系问题,避免漏掉在源文本句法结构中起关键作用的主题词汇以及词与词之间的关系,帮助模型生成更连贯、信息更丰富、更加贴合主题信息的摘要。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提供了一种基于主题融合的序列模型文本摘要生成方法,该方法包括:
S1:对输入文本进行预处理和分词处理,通过主题模型获得输入文本的主题嵌入,并采用word2vec模型对分词处理后的文本进行词嵌入处理;
S2:构建基于主题融合的序列模型,在模型中使用BiLSTM网络层对词嵌入后的文本进行编码并得到最后一次的隐藏层状态,其中,最后一次的隐藏层状态包含词嵌入后的文本的语义特征;
S3:对输入文本的主题嵌入与最后一次的隐藏层状态进行联合注意力机制处理,获得输出序列;
S4:根据最后一次隐藏层状态中包含的语义特征和输出序列,解码生成输入文本的摘要。
具体来说,S1中,对输入文本进行预处理包括文本特殊字符的清洗,筛选出没有重要意义的停用词等。通过word2vec模型处理之后的文本,可以得到维度为m的词向量。
S2中,构建的基于主题融合的序列模型包括解码器和编码器,编码器和解码器网络都是通过Bidirectional LSTM层来构建的,编码器的作用是将输入的序列转换成固定长度的文本向量表示:同样的,解码器的作用是将编码器转换出的固定文本向量表示再次转化成输出文本序列。其中S2由编码器完成,通过编码器的作用对S1中处理得到的向量进行编码,得到输入文本的语义编码。
S3中,是进入联合注意力机制的处理过程。S4是解码器的工作过程,通过解码器的解码操作,得到最终的摘要。
请参见图1,为一种基于主题融合的序列模型文本摘要生成方法的整体网络框架意图,即基于主题融合的序列模型的实现原理图,Word embedding即为步骤S1得到的词向量,topic embedding为主题嵌入,
图2为摘要生成的处理流程示意图,创建序列到序列问题是指在序列到序列框架中使用BiLSTM网络对文本进行编码并得到最后一次的隐藏层状态,其包含了整个文本的语义特征,即通过模型编码得到输入文本的语义编码,然后通过模型解码得到最终的摘要。
在一种实施方式中,S1中通过主题模型获得输入文本的主题嵌入,包括:
引入LDA模型进行主题嵌入训练,最终得到输入文本的主题嵌入。
在具体的实施过程中,本发明的主题嵌入是通过经典的主题模型获得的,如潜在的Latent Dirichlet Allocation(LDA)。在训练模型前,本发明使用LDA为输入文本分配主题。将具有与每个主题概率最高的前N个非通用词选择到主题词汇K中。当文本词汇表表示为V时,假设给定一个输入句子x=(x,...,xm),如果一个词本发明可以将这个主题词嵌入称作让它作为主题嵌入矩阵中的一行,其中K为主题词汇量的大小。嵌入矩阵Dtopic由相应的预训练主题分布矩阵进行归一化,其行与每个单词分配到每个主题的次数成正比,通过python的gensim框架,本发明引入LDA模型进行主题嵌入训练,最终得到主题嵌入s=(s1,...,sn)。
在一种实施方式中,S1中采用word2vec模型对分词处理后的文本进行词嵌入处理,具体包括:
word2vec模型采用skip-gram方法,并用Hierarchical Softmax优化计算,优化的目标函数通常取为对数似然函数,形式为:
式(1)表示已知当前词wt的前提下,预测其上下文Context(w),例如wt-2,wt-1,wt+1,wt+2。
在具体的实施过程中,假设输入单词的向量为x={x1,...xn},则输出的单词向量为y={y1,...ym},词嵌入的维度为m。
在一种实施方式中,S2具体包括:
编码器采用BiLSTM神经网络,当输入遇到结束标识符则最后一次编码完成,整个文本通过编码器转变成语义编码c,每次的隐藏层都依赖前一次编码的隐藏层状态,通过循环迭代,最后一次的隐藏层状态包含了整个文本的语义特征,使用最后一次的隐藏层状态作为语义编码c,即:
其中,为输入序列的文本嵌入,由Tx个固定长度为m的嵌入构成,在编码阶段中,每次编码都会有产生一个隐藏层状态,隐藏层状态由当前的文本向量输入和上一时刻序列编码的隐藏层状态决定,当前时刻t的隐藏层状态为:
ht=f(ht-1,xt) (3)
其中,ht-1表示上一时刻序列编码的隐藏层状态,xt表示当前的文本向量输入。
具体来说,设输入序列为输出序列为输入序列的文本嵌入表示由Tx个固定长度为m的嵌入构成,并将编码器阶段输入的序列的隐藏层定义为hj,解码器阶段的隐藏层用si表示,在编码阶段或解码阶段中,每次编码或解码都会有一个隐藏层状态,并且这个状态不止是由当前的文本向量输入决定,还取决于上一时刻序列编码或解码的隐藏层状态。
在一种实施方式中,S3具体包括:
其中ω和b代表神经网络中的权重和偏置,tanh()是双曲正切函数,使用uf和单词级上下文向量hf之间的相似性来度量每个单词的重要性;
S3.2:通过联合注意力机制将主题信息合并到基于主题融合的序列模型中,获得输出序列。
在一种实施方式中,S3.2具体包括:
后向状态为:
S3.2.3:通过连接正向上下文表示Fc和反向上下文表示Hc,获得完整的上下文表示Y=[Fc,Hc],作为输出序列。
具体来说,由于所有的单词对上下文的信息都有不同的贡献,所以给单词分配不同的权重是解决这个问题的常用方法。在步骤2编码过程中,使BiLSTM结合主题注意力机制可以提高文本摘要的句子质量,注意力机制由一个全连接层和一个softmax层组成,它可以关注关键词的特征,减少非关键词对文本结构的影响。在实践中,该架构涉及复制网络中的第一个循环层,使得有两个并排的层,然后提供输入序列,由输入到第一层(表示为)并提供序列到第二层的反向副本(表示为)组成。前向状态的输出不连接到后向状态的输入,反之亦然。注意力机制由一个全连接层和一个softmax层组成,它可以关注关键词的特征,减少非关键词对文本情感的影响。
在具体实施过程中,可以采用Adam optimizer算法优化网络参数。通过Adam优化器对模型参数进行微调,证明了该算法是一种高效的反向传播算法。以交叉熵作为损失函数可以降低随机梯度过程中梯度消失的风险。
在一种实施方式中,S4具体包括:
将输出序列中的句子单元Y={Y1,Y2,...,Yt}的整体概率分割为如下公式所示的条件概率:
而式(8)中每个单元的概率又可用下列公式表示:
p(Yt|{Y1,Y2,...,Yt-1},c)=g(Yt-1,ht,c) (9)
公式(9)表示在一个非线性函数g()中,对于时间步t的输出Yt,由时间步t的隐藏状态ht,以及语义编码c和上一个输出Yt-1得到,输出Yt为输入文本的摘要。
本发明的有益效果是:基于主题融合的深度神经网络文本摘要方法,引入word2vec算法进行词嵌入训练,并使用改进后的序列到序列框架进行文本摘要,并使用国内通用的语料库数据对该算法进行检测,实验结果表明本发明提出的改进序列到序列框架的文本摘要算法是有效的。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (7)
1.一种基于主题融合的序列模型文本摘要生成方法,其特征在于,包括:
S1:对输入文本进行预处理和分词处理,通过主题模型获得输入文本的主题嵌入,并采用word2vec模型对分词处理后的文本进行词嵌入处理;
S2:构建基于主题融合的序列模型,在模型中使用BiLSTM网络层对词嵌入后的文本进行编码并得到最后一次的隐藏层状态,其中,最后一次的隐藏层状态包含词嵌入后的文本的语义特征;
S3:对输入文本的主题嵌入与最后一次的隐藏层状态进行联合注意力机制处理,获得输出序列;
S4:根据最后一次隐藏层状态中包含的语义特征和输出序列,解码生成输入文本的摘要。
2.如权利要求1所述的方法,其特征在于,S1中通过主题模型获得输入文本的主题嵌入,包括:
引入LDA模型进行主题嵌入训练,最终得到输入文本的主题嵌入。
4.如权利要求1所述的方法,其特征在于,S2具体包括:
编码器采用BiLSTM神经网络,当输入遇到结束标识符则最后一次编码完成,整个文本通过编码器转变成语义编码c,每次的隐藏层都依赖前一次编码的隐藏层状态,通过循环迭代,最后一次的隐藏层状态包含了整个文本的语义特征,使用最后一次的隐藏层状态作为语义编码c,即:
其中,为输入序列的文本嵌入,由Tx个固定长度为m的嵌入构成,在编码阶段中,每次编码都会有产生一个隐藏层状态,隐藏层状态由当前的文本向量输入和上一时刻序列编码的隐藏层状态决定,当前时刻t的隐藏层状态为:
ht=f(ht-1,xt) (3)
其中,ht-1表示上一时刻序列编码的隐藏层状态,xt表示当前的文本向量输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453197.XA CN111666756B (zh) | 2020-05-26 | 2020-05-26 | 一种基于主题融合的序列模型文本摘要生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010453197.XA CN111666756B (zh) | 2020-05-26 | 2020-05-26 | 一种基于主题融合的序列模型文本摘要生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111666756A true CN111666756A (zh) | 2020-09-15 |
CN111666756B CN111666756B (zh) | 2023-12-05 |
Family
ID=72384796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010453197.XA Active CN111666756B (zh) | 2020-05-26 | 2020-05-26 | 一种基于主题融合的序列模型文本摘要生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111666756B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287687A (zh) * | 2020-09-17 | 2021-01-29 | 昆明理工大学 | 基于案件属性感知的案件倾向性抽取式摘要方法 |
CN112395832A (zh) * | 2020-11-17 | 2021-02-23 | 上海金桥信息股份有限公司 | 一种基于序列到序列的文本量化分析与生成方法及系统 |
CN112507064A (zh) * | 2020-11-09 | 2021-03-16 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN112906385A (zh) * | 2021-05-06 | 2021-06-04 | 平安科技(深圳)有限公司 | 文本摘要生成方法、计算机设备及存储介质 |
CN113360601A (zh) * | 2021-06-10 | 2021-09-07 | 东北林业大学 | 一种融合主题的pgn-gan文本摘要模型 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
US20170213130A1 (en) * | 2016-01-21 | 2017-07-27 | Ebay Inc. | Snippet extractor: recurrent neural networks for text summarization at industry scale |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN108427771A (zh) * | 2018-04-09 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 摘要文本生成方法、装置和计算机设备 |
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
US20190287012A1 (en) * | 2018-03-16 | 2019-09-19 | Microsoft Technology Licensing, Llc | Encoder-decoder network with intercommunicating encoder agents |
CN110390009A (zh) * | 2018-04-23 | 2019-10-29 | 奥多比公司 | 生成文本内容的基于主题的概要 |
CN110489541A (zh) * | 2019-07-26 | 2019-11-22 | 昆明理工大学 | 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法 |
US20190362020A1 (en) * | 2018-05-22 | 2019-11-28 | Salesforce.Com, Inc. | Abstraction of text summarizaton |
CN110737769A (zh) * | 2019-10-21 | 2020-01-31 | 南京信息工程大学 | 一种基于神经主题记忆的预训练文本摘要生成方法 |
CN110909152A (zh) * | 2019-10-21 | 2020-03-24 | 昆明理工大学 | 一种融合主题信息的司法舆情文本摘要方法 |
-
2020
- 2020-05-26 CN CN202010453197.XA patent/CN111666756B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170213130A1 (en) * | 2016-01-21 | 2017-07-27 | Ebay Inc. | Snippet extractor: recurrent neural networks for text summarization at industry scale |
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
US20190287012A1 (en) * | 2018-03-16 | 2019-09-19 | Microsoft Technology Licensing, Llc | Encoder-decoder network with intercommunicating encoder agents |
CN108427771A (zh) * | 2018-04-09 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 摘要文本生成方法、装置和计算机设备 |
CN108763284A (zh) * | 2018-04-13 | 2018-11-06 | 华南理工大学 | 一种基于深度学习和主题模型的问答系统实现方法 |
CN110390009A (zh) * | 2018-04-23 | 2019-10-29 | 奥多比公司 | 生成文本内容的基于主题的概要 |
US20190362020A1 (en) * | 2018-05-22 | 2019-11-28 | Salesforce.Com, Inc. | Abstraction of text summarizaton |
CN110489541A (zh) * | 2019-07-26 | 2019-11-22 | 昆明理工大学 | 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法 |
CN110737769A (zh) * | 2019-10-21 | 2020-01-31 | 南京信息工程大学 | 一种基于神经主题记忆的预训练文本摘要生成方法 |
CN110909152A (zh) * | 2019-10-21 | 2020-03-24 | 昆明理工大学 | 一种融合主题信息的司法舆情文本摘要方法 |
Non-Patent Citations (3)
Title |
---|
CHEN XING ET AL.: ""topic aware neural response generation"", pages 351 - 3357 * |
侯丽微 等: ""主题关键词信息融合的中文生成式自动摘要研究"", vol. 45, no. 3, pages 530 - 539 * |
汪贝贝: ""基于Seq2Seq模型的自动文本摘要技术研究与实现"", no. 03, pages 138 - 1534 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287687A (zh) * | 2020-09-17 | 2021-01-29 | 昆明理工大学 | 基于案件属性感知的案件倾向性抽取式摘要方法 |
CN112507064A (zh) * | 2020-11-09 | 2021-03-16 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN112507064B (zh) * | 2020-11-09 | 2022-05-24 | 国网天津市电力公司 | 一种基于主题感知的跨模态序列到序列生成方法 |
CN112395832A (zh) * | 2020-11-17 | 2021-02-23 | 上海金桥信息股份有限公司 | 一种基于序列到序列的文本量化分析与生成方法及系统 |
CN112906385A (zh) * | 2021-05-06 | 2021-06-04 | 平安科技(深圳)有限公司 | 文本摘要生成方法、计算机设备及存储介质 |
CN113360601A (zh) * | 2021-06-10 | 2021-09-07 | 东北林业大学 | 一种融合主题的pgn-gan文本摘要模型 |
Also Published As
Publication number | Publication date |
---|---|
CN111666756B (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666756B (zh) | 一种基于主题融合的序列模型文本摘要生成方法 | |
CN108763284B (zh) | 一种基于深度学习和主题模型的问答系统实现方法 | |
CN109063174B (zh) | 查询答案的生成方法及装置、计算机存储介质、电子设备 | |
CN112765345A (zh) | 一种融合预训练模型的文本摘要自动生成方法及系统 | |
CN113158665A (zh) | 一种基于文本摘要生成与双向语料改善对话文本生成的方法 | |
CN112115687B (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN112183058B (zh) | 基于bert句子向量输入的诗词生成方法及装置 | |
CN111125333B (zh) | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 | |
CN110765264A (zh) | 一种增强语义相关性的文本摘要生成方法 | |
CN112417092A (zh) | 基于深度学习的智能化文本自动生成系统及其实现方法 | |
CN112257465A (zh) | 一种基于图像描述生成的多模态机器翻译数据增强方法 | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN111538838B (zh) | 基于文章的问题生成方法 | |
Liu | Neural question generation based on Seq2Seq | |
Heo et al. | Multimodal neural machine translation with weakly labeled images | |
CN112183109A (zh) | 基于mass的诗句生成信息隐写方法 | |
CN115114940A (zh) | 一种基于课程化预训练的机器翻译风格的迁移方法和系统 | |
CN113628610B (zh) | 一种语音合成方法和装置、电子设备 | |
Mathur et al. | A scaled‐down neural conversational model for chatbots | |
Hsueh et al. | A Task-oriented Chatbot Based on LSTM and Reinforcement Learning | |
CN111723194A (zh) | 摘要生成方法、装置和设备 | |
Sun et al. | Tibetan Question Generation Based on Sequence to Sequence Model. | |
CN112349294A (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
CN108920560B (zh) | 生成方法、训练方法、装置、计算机可读介质及电子设备 | |
CN115858736A (zh) | 一种基于情感提示微调的情感文本生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |