CN109214003B - 基于多层注意力机制的循环神经网络生成标题的方法 - Google Patents

基于多层注意力机制的循环神经网络生成标题的方法 Download PDF

Info

Publication number
CN109214003B
CN109214003B CN201810993623.1A CN201810993623A CN109214003B CN 109214003 B CN109214003 B CN 109214003B CN 201810993623 A CN201810993623 A CN 201810993623A CN 109214003 B CN109214003 B CN 109214003B
Authority
CN
China
Prior art keywords
rugosity
time step
abstract
hidden state
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810993623.1A
Other languages
English (en)
Other versions
CN109214003A (zh
Inventor
王小明
谢杰航
庞光垚
王新燕
林亚光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201810993623.1A priority Critical patent/CN109214003B/zh
Publication of CN109214003A publication Critical patent/CN109214003A/zh
Application granted granted Critical
Publication of CN109214003B publication Critical patent/CN109214003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

一种基于多层注意力机制的循环神经网络生成标题的方法,其中所述循环神经网络包括过滤层,编码器,注意力机制和解码器四部分,所述方法包括如下步骤:S100:将源文本输入到所述过滤层的多个摘要生成方法后生成多个粗度摘要;S200:将所述多个粗度摘要再分别输入到所述编码器中编码,输出各自的隐藏层表示序列;S300:合并所述隐藏层表示序列,生成表示整个文档的重要信息的总结语义,利用注意力上下文对生成的粗度摘要和编码器内的单词给予关注;S400:把所述注意力上下文和所述总结语义输入到所述解码器中生成相应的标题。该方法相较于现有方法,提高了生成的标题的准确性和可读性。

Description

基于多层注意力机制的循环神经网络生成标题的方法
技术领域
本公开属于自然语言处理以及文本自动摘要领域,特别涉及一种基于多层注意力机制的循环神经网络生成标题的方法。
背景技术
近年来,随着云计算、大数据、物联网等技术的飞速发展,人类社会已经进入数据体量大、数据传输便捷、数据种类多样、数据价值高的大数据时代。面对数量极其庞大的数据,人们期望能够只花费少量时间就能获取大量的信息。文本数据作为信息的主要载体,如何从浩如烟海的长文本数据中挖掘出主要的信息是至关重要的。
当源文本是一篇文档,而生成的压缩版文本是一个句子时,这个过程是摘要生成中特殊的一类,叫做标题生成,这个任务的难点在于需要生成足够简短流畅同时包含源文本主要信息的文本。
在最近几年,随着机器学习的快速发展,基于深度神经网络的序列到序列模型(也叫编码器-解码器模型),已应用于机器翻译、自动文摘、问答等自然语言处理任务中,并且取得了很大的成就。传统的序列到序列是有很多弊端的,首先编码器将输入编码为固定大小状态向量的过程实际上是一个“信息有损压缩”的过程,如果信息量越大,那么这个转化向量的过程对信息的损失就越大,同时,随着序列长度的增加,意味着时间维度上的序列很长,循环神经网络模型也会出现梯度弥散。最后,基础的模型连接编码器和解码器模块的组件仅仅是一个固定大小的状态向量,这使得解码器无法直接去关注到输入信息的更多细节。因此,为了解决传统的序列到序列模型中的信息丢失问题,引入注意力机制。序列到序列+注意力模型模拟人脑的注意力机制,通过对输入的每个部分进行编码表示,每次产生输出时,解码器都会“关注”相关的部分。在实践中,这意味着计算所有编码器隐藏状态的注意权值,然后将加权平均值作为新的上下文向量。但是传统的序列到序列+注意力模型在处理标题生成任务时依然存在生成的标题句子语法错误、语意不明的缺点,有三个因素导致了这个结果:第一,由于源文本过长导致循环神经网络很难抓住源文本中的所有信息,第二,普通的循环神经网络无法结合上下文信息以及语法特征来完成标题生成任务,第三,传统的注意力机制对源文本的“关注”的细化程度不足。
发明内容
为了解决上述问题,本公开提供了一种基于多层注意力机制的循环神经网络生成标题的方法,其中所述循环神经网络包括过滤层,编码器,注意力机制和解码器四部分,所述方法包括如下步骤:
S100:将源文本输入到所述过滤层的多个摘要生成方法后生成多个粗度摘要;
S200:将所述多个粗度摘要再分别输入到所述编码器中编码,输出各自的隐藏层表示序列;
S300:合并所述隐藏层表示序列,生成表示整个文档的重要信息的总结语义,利用注意力上下文对生成的粗度摘要和编码器内的单词给予关注;
S400:把所述注意力上下文和所述总结语义输入到所述解码器中生成相应的标题。
上述技术方案拓展了普通的序列到序列模型,以双向门控循环神经元(bidirectional gate recurrent unit,BiGRU)代替普通的循环神经网络神经元,构建双向神经网络编码器,让模型能结合上下文信息,学习到潜在的语法规律,增强生成标题的可读性。同时,为了能更准确的识别出长文本中的重要信息,将标准的注意力机制改进为能对文本中的句子和单词都赋予权重的多层注意力模型,每次产生输出时,解码器“关注”的部分更加全面,增加生成标题的准确性。
附图说明
图1是本公开一个实施例中所提供的一种基于多层注意力机制的循环神经网络生成标题的方法的框架图;
图2是本公开一个实施例中本模型和基准线方法在DUC-2004测试集上得到的ROUGE-RECALL分数;
图3是本公开一个实施例中本模型和基准线方法在DUC-2004测试集上得到的ROUGE-F1分数。
具体实施方式
在大数据时代,新闻网站每分甚至每秒都会更新大量的新闻,用户想要及时获取最新的资讯,但仔细阅读每一篇新闻中的内容显得费时费力,用户期望有一种新的阅读方式能够只阅读少量的文字就能知晓整篇文章的主要信息。包含源文本主要信息而且长度仅有一句的标题恰好能满足用户的需要,自动生成标题系统不需要靠人工生成标题,节省了大量人力,让用户只需要阅读标题就能够获取新闻的主要信息,提高用户的阅读效率。
在标题生成任务中,用X={x1,x2,...,xm}表示输入的源文本内容,其中的m表示源文本的长度,xi表示源文本里的第i个单词,xi∈V,V代表词汇表,标题生成系统通过输出Y={y1,y2,...,yn}来总结X,其中yj表示生成的标题中的第j个单词,n(n<m)表示标题的长度。
本方法中的基于多层注意力机制的循环神经网络模型加入过滤层来解决了长文本信息弥散的问题;编码器以双向门控循环神经元BiGRU为神经元,解决传统的序列到序列模型中存在的无法结合上下文信息的问题;构建多层注意力机制对单词和句子给予不同程度的关注,解决传统的注意力机制对源文本的关注不够细化的问题。
在一个实施例中,其公开一种基于多层注意力机制的循环神经网络生成标题的方法,其中所述循环神经网络包括过滤层,编码器,注意力机制和解码器四部分,所述方法包括如下步骤:
S100:将源文本输入到所述过滤层的多个摘要生成方法后生成多个粗度摘要;
S200:将所述多个粗度摘要再分别输入到所述编码器中编码,输出各自的隐藏层表示序列;
S300:合并所述隐藏层表示序列,生成表示整个文档的重要信息的总结语义,利用注意力上下文对生成的粗度摘要和编码器内的单词给予关注;
S400:把所述注意力上下文和所述总结语义输入到所述解码器中生成相应的标题。
如图1所示是模型整体框架,从左到右由过滤层,编码器,注意力机制,解码器四个模块构成。在一个实施例中,先将源文本X输入到四个摘要方法后生成粗度摘要S1,S2,S3,S4;将上述四个粗度摘要再分别输入到编码器中编码,输出各自的隐藏层表示序列合并隐藏层表示序列,生成表示整个文档的重要信息的总结语义利用注意力上下文at对生成的粗度摘要和编码器内的单词给予关注;把注意力上下文at和总结语义输入到解码器中生成相应的标题Y。
在另一个实施例中,所述的摘要方法是TF、TextRank、LexRank和SumBasic。其中,TF是一种利用关键词来衡量句子重要程度的方法,如果一条句子包含的关键词越多就说明这个句子越重要;TextRank是一种用于文本的基于图的排序算法,通过把文本分割成若干组成单元并建立图模型,利用投票机制对文本中的重要成分进行排序,仅利用单篇文本本身的信息即可实现关键词提取、文摘;LexRank也是一种基于图的方法,该方法在句子的图形表示下计算句子的权重,并且认为如果一个句子与很多其他句子相似,那么这个句子就是比较重要的;SumBasic是一种基于词频的总结系统,SumBasic基本超越了2004年DUC的许多总结系统,并且在2005年的MSE评估中表现得非常好,这证明了在总结生成任务中,频率本身是一个强大的特性。
在过滤层,先应用多种经过良好研究的文档摘要技术来识别文档的多个重要语句,然后再进一步将这些重要语句抽象为一个标题。使用多个摘要方法能更好地涵盖了文档的重要信息,因此该方法不会严重依赖于某个特定摘要方法的性能。
在另一个实施例中,所述的隐藏层表示序列中的第i个语义表示由公式计算得到,所述的总结语义由公式计算得到,其中,表示T时间步肘编码器的隐藏状态,N是总时间步数,M代表粗度摘要的数量。t时间步的隐藏状态由前向隐藏状态和后向隐藏状态共同决定:
其中,编码器利用双向门控循环神经元BiGRU将时间步为t时的输入xt和上一个时间步的隐藏状态往前向与后向映射。
门控循环神经元GRU根据以下公式更新参数:
zt=σ(Wz·[xt,ht-1]+bz)
rt=σ(Wr·[xt,ht-1]+br)
kt=tanh(W·[rt⊙ht-1,xt]+bh)
ht=ht-1⊙(1-zt)+kt⊙zt
其中的zt是更新门,rt是重置门,kt是候选记忆单元,ht是双向门控循环神经元BiGRU在时间步t时的隐藏状态,xt是在时间步t时接受的输入,ht-1表示在时间步t-1时的隐藏状态,W和b分别表示模型的权重矩阵和偏差值,并使用下标z,r,k来区分更新、重置和候选记忆单元,[]表示两个向量相连接,·表示向量的点积,⊙表示矩阵元素依次相乘,tanh是双曲正切激活函数,σ是sigmoid函数。
在另一个实施例中,解码器中,在时间步t输出的标题单词yt按以下公式计算得到:
其中ξ是softmax函数,W是转换矩阵,b代表偏差值,代表第二层的隐藏状态。
第二层的隐藏状态是由公式计算得到,其中,表示第一层的隐藏状态,表示上一个时间步的第二层隐藏状态,at表示注意力上下文。
注意力上下文at是由公式计算得到,其中,表示时间步为t时第i个粗度摘要的权重,表示时间步为t时在粗度摘要i中的单词j的权重。
时间步为t时第i个粗度摘要的权重由公式计算得到,时间步为t时在粗度摘要i中的单词j的权重由公式计算得到,第一层的隐藏状态由公式计算得到,其中,m是粗度摘要的个数,n是粗度摘要i的单词数量,yt-1表示时间步t-1输出的标题单词,表示上一个时间步的隐藏状态。
下面实施例结合附图2-3进行阐述。
在Gigawords语料库上训练基于多层注意力机制的循环神经网络模型,这个语料库是基于注释英语Gigaword数据库所编写的英语句子摘要语料库。DUC-2004语料库作为测试集,DUC-2004一共有500篇来自纽约时报和美联社的新闻,每个新闻都有由四个专家所写的四个总结。
应用ROUGE(Recall-Oriented Understudy for Gisting Evaluation)作为评价指标。ROUGE是一种基于摘要中n元词的共现信息来判断总结优劣的方法,现被广泛应用于总结评测任务中。ROUGE有一系列的评价尺度,我们使用ROUGE-1,ROUGE-2和ROUGE-L作为评价指标。
为了测试基于多层注意力机制的循环神经网络模型的性能,使用以下多种基准模型和本模型进行对比,通过本模型和基准线方法在DUC-2004测试集上得到的ROUGE recall分数进行比较,这些基准线方法大多都是序列到序列+注意力模型的变种:
ABS是提出的基于注意力的神经网络模型。ABS使用卷积神经网络编码器和NNLM解码器来完成标题生成任务
ABS+是在ABS的基础上进一步在Gigaword数据集上训练,在DUC-2003数据集上调试,结合了一个额外的对数线性提取总结模型和手工制作的特征。
PRE是一种简单的标题生成方法,它把输入的前75个字符作为标题输出。
TOP采用了一种基于语言学驱动的的标题生成系统,它采用了一种无监督的主题检测算法,将整篇文章的关键短语附加到压缩输出。
lvt2k和lvt5k是一种能利用注意力编解码器递归神经网络的模型。
SU-HI是一种基于注意力神经网络的由粗度到精度模型。
L-NMT是一种采用两层LSTM序列到序列+全局和局部注意力机制的模型。
SEASS是以BiGRU为编码器,基于注意力机制BiGRU的为解码器的神经网络模型。
从图2看出,本模型在ROUGE-1召回率这一项上比著名的ABS模型高出了2.27,即使ABS模型也使用了注意力机制,普通的注意力模型在标题生成任务里能力有限,不能带来明显的改进。在ROUGE-L召回率这一项上,本方法比基准线方法SEASS要高出3.55,SEASS虽然使用了BiGRU作为编码器,带有注意力机制的BiGRU为解码器,但对源文本的关注不够细化,当源文本过长时,生成的标题效果降低。这证明了对源文本使用分层次的关注结构以及将普通的循环神经网络神经元改为BiGRU确实在标题生成任务中产生了正面的作用。
从图3可见,在ROUGE-1召回率这一项上,本模型要比Luong-NMT方法高出3.97,即使Luong-NMT模型使用了采用两层LSTM组成的序列到序列+全局和局部注意力机制的模型,但是LSTM对上下文的信息结合度不够,学习潜在语法结构的能力不足,这证明了本方法的BiGRU神经元要优于普通的LSTM神经元,同样对源文本使用不同层次的关注架构对标题的生成有积极的作用。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。

Claims (10)

1.一种基于多层注意力机制的循环神经网络生成标题的方法,其中所述循环神经网络包括过滤层,编码器,注意力机制和解码器四部分,所述方法包括如下步骤:
S100:将源文本输入到所述过滤层的多个摘要生成方法后生成多个粗度摘要;
S200:将所述多个粗度摘要再分别输入到所述编码器中编码,输出各自的隐藏层表示序列;
S300:合并所述隐藏层表示序列,生成表示整个文档的重要信息的总结语义,利用注意力上下文对生成的粗度摘要和编码器内的单词给予关注;
S400:把所述注意力上下文和所述总结语义输入到所述解码器中生成相应的标题。
2.根据权利要求1所述的方法,步骤S100进一步包括:
所述的摘要方法包括TF、TextRank、LexRank和SumBasic。
3.根据权利要求2所述的方法,其中,
TF是一种利用关键词来衡量句子重要程度的方法,如果一条句子包含的关键词越多就说明这个句子越重要;
TextRank是一种用于文本的基于图的排序算法,通过把文本分割成若干组成单元并建立图模型,利用投票机制对文本中的重要成分进行排序,仅利用单篇文本本身的信息即可实现关键词提取、文摘;
LexRank是一种基于图的方法,该方法在句子的图形表示下计算句子的权重,并且认为如果一个句子与很多其他句子相似,那么这个句子就是比较重要的;
SumBasic是一种基于词频的总结系统。
4.根据权利要求1所述的方法,其中,
该方法应用于新闻标题的生成。
5.根据权利要求1所述的方法,步骤S200进一步包括:
所述编码器采用双向门控循环神经元BiGRU。
6.根据权利要求1所述的方法,步骤S400进一步包括:
所述解码器采用两层门控循环神经元GRU。
7.根据权利要求1所述的方法,其中:
所述的隐藏层表示序列中的第i个语义表示由公式计算得到,所述的总结语义由公式计算得到,其中,表示T时间步时编码器的隐藏状态,N是总时间步数,M代表粗度摘要的数量。
8.根据权利要求7所述的方法,其中:
t时间步的隐藏状态由前向隐藏状态和后向隐藏状态共同决定:
其中,编码器利用双向门控循环神经元BiGRU将时间步为t时的输入xt和上一个时间步的隐藏状态往前向与后向映射。
9.根据权利要求8所述的方法,其中,
门控循环神经元GRU根据以下公式更新参数:
zt=σ(Wz·[xt,ht-1]+bz)
rt=σ(Wr·[xt,ht-1]+br)
kt=tanh(Wk·[rt⊙ht-1,xt]+bk)
ht=ht-1⊙(1-zt)+kt⊙zt
其中的zt是更新门,rt是重置门,kt是候选记忆单元,ht是双向门控循环神经元BiGRU在时间步t时的隐藏状态,xt是在时间步t时接受的输入,ht-1表示在时间步t-1时的隐藏状态,W和b分别表示模型的权重矩阵和偏差值,并使用下标z,r,k来区分更新、重置和候选记忆单元,[]表示两个向量相连接,·表示向量的点积,⊙表示矩阵元素依次相乘,tanh是双曲正切激活函数,σ是sigmoid函数。
10.根据权利要求1所述的方法,其中,
解码器中,在时间步t输出的标题单词yt按以下公式计算得到:
其中ξ是softmax函数,W是权重矩阵,b代表偏差值,代表第二层的隐藏状态;
第二层的隐藏状态是由公式计算得到,其中,表示第一层的隐藏状态,表示上一个时间步的第二层隐藏状态,at表示注意力上下文;
注意力上下文at是由公式计算得到,其中,表示时间步为t时第i个粗度摘要的权重,表示时间步为t时在粗度摘要i中的单词j的权重,表示编码器在为粗度摘要i中的单词j编码时的隐藏状态;
时间步为t时第i个粗度摘要的权重由公式计算得到,时间步为t时在粗度摘要i中的单词j的权重由公式计算得到,第一层的隐藏状态由公式计算得到,其中,m是粗度摘要的个数,n是粗度摘要i的单词数量,yt-1表示时间步t-1输出的标题单词,表示上一个时间步的隐藏状态。
CN201810993623.1A 2018-08-29 2018-08-29 基于多层注意力机制的循环神经网络生成标题的方法 Active CN109214003B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810993623.1A CN109214003B (zh) 2018-08-29 2018-08-29 基于多层注意力机制的循环神经网络生成标题的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810993623.1A CN109214003B (zh) 2018-08-29 2018-08-29 基于多层注意力机制的循环神经网络生成标题的方法

Publications (2)

Publication Number Publication Date
CN109214003A CN109214003A (zh) 2019-01-15
CN109214003B true CN109214003B (zh) 2019-08-09

Family

ID=64985569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810993623.1A Active CN109214003B (zh) 2018-08-29 2018-08-29 基于多层注意力机制的循环神经网络生成标题的方法

Country Status (1)

Country Link
CN (1) CN109214003B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109846471A (zh) * 2019-01-30 2019-06-07 郑州大学 一种基于BiGRU深度神经网络的心肌梗死检测方法
CN110032729A (zh) * 2019-02-13 2019-07-19 北京航空航天大学 一种基于神经图灵机的自动摘要生成方法
CN109960749B (zh) * 2019-02-22 2021-04-06 清华大学 模型获取方法、关键词生成方法、装置、介质及计算设备
KR20210113356A (ko) * 2019-02-28 2021-09-15 미쓰비시덴키 가부시키가이샤 데이터 처리 장치, 데이터 처리 시스템 및 데이터 처리 방법
CN109947930A (zh) * 2019-03-12 2019-06-28 上海秘塔网络科技有限公司 摘要生成方法、装置、终端及计算机可读存储介质
CN109992774A (zh) * 2019-03-25 2019-07-09 北京理工大学 基于词属性注意力机制的关键短语识别方法
CN110287583B (zh) * 2019-06-21 2021-01-29 上海交通大学 基于循环神经网络的工业设备剩余寿命预测方法
CN110442706B (zh) * 2019-07-17 2023-02-03 华南师范大学 一种文本摘要生成的方法、系统、设备及存储介质
CN110968666A (zh) * 2019-11-22 2020-04-07 掌阅科技股份有限公司 基于相似度的标题生成模型的训练方法及计算设备
CN111754980A (zh) * 2020-05-21 2020-10-09 华南理工大学 一种基于语义识别的智能评分方法、装置及存储介质
CN112131888B (zh) * 2020-09-23 2023-11-14 平安科技(深圳)有限公司 分析语义情感的方法、装置、设备及存储介质
CN112308402B (zh) * 2020-10-29 2022-04-12 复旦大学 基于长短期记忆网络的电力时间序列数据的异常检测方法
CN113112819B (zh) * 2021-03-26 2022-10-25 华南理工大学 一种基于改进lstm的图卷积交通速度预测方法
CN113326866B (zh) * 2021-04-16 2022-05-31 山西大学 一种融合语义场景的摘要自动生成方法及系统
CN113705713B (zh) * 2021-09-03 2023-08-22 华南理工大学 一种基于全局和局部注意力机制的文本识别方法
CN117407051B (zh) * 2023-12-12 2024-03-08 武汉大学 一种基于结构位置感知的代码自动摘要方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107484017A (zh) * 2017-07-25 2017-12-15 天津大学 基于注意力模型的有监督视频摘要生成方法
CN107590138A (zh) * 2017-08-18 2018-01-16 浙江大学 一种基于词性注意力机制的神经机器翻译方法
CN108280104A (zh) * 2017-02-13 2018-07-13 腾讯科技(深圳)有限公司 目标对象的特征信息提取方法及装置
CN108280112A (zh) * 2017-06-22 2018-07-13 腾讯科技(深圳)有限公司 摘要生成方法、装置及计算机设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650305B2 (en) * 2016-07-08 2020-05-12 Baidu Usa Llc Systems and methods for relation inference

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280104A (zh) * 2017-02-13 2018-07-13 腾讯科技(深圳)有限公司 目标对象的特征信息提取方法及装置
CN108280112A (zh) * 2017-06-22 2018-07-13 腾讯科技(深圳)有限公司 摘要生成方法、装置及计算机设备
CN107484017A (zh) * 2017-07-25 2017-12-15 天津大学 基于注意力模型的有监督视频摘要生成方法
CN107590138A (zh) * 2017-08-18 2018-01-16 浙江大学 一种基于词性注意力机制的神经机器翻译方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"结合注意力机制的新闻标题生成模型";李慧 等;《山西大学学报(自然科学版)》;20171115;第40卷(第4期);第670-675页 *

Also Published As

Publication number Publication date
CN109214003A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
CN109214003B (zh) 基于多层注意力机制的循环神经网络生成标题的方法
CN107832400B (zh) 一种基于位置的lstm和cnn联合模型进行关系分类的方法
Li et al. Context-aware emotion cause analysis with multi-attention-based neural network
Tang et al. Deep learning for sentiment analysis: successful approaches and future challenges
CN111930942B (zh) 文本分类方法、语言模型训练方法、装置及设备
CN113239700A (zh) 改进bert的文本语义匹配设备、系统、方法及存储介质
Cha et al. Language modeling by clustering with word embeddings for text readability assessment
Yan et al. Named entity recognition by using XLNet-BiLSTM-CRF
CN111291188B (zh) 一种智能信息抽取方法及系统
Yolchuyeva et al. Text normalization with convolutional neural networks
Khan et al. Deep recurrent neural networks with word embeddings for Urdu named entity recognition
CN110263304B (zh) 语句编码方法、语句解码方法、装置、存储介质及设备
CN114969304A (zh) 基于要素图注意力的案件舆情多文档生成式摘要方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
Wang et al. Tree-structured neural networks with topic attention for social emotion classification
CN113806528A (zh) 一种基于bert模型的话题检测方法、设备及存储介质
Jin et al. Attention‐Based Bi‐DLSTM for Sentiment Analysis of Beijing Opera Lyrics
CN111813927A (zh) 一种基于主题模型和lstm的句子相似度计算方法
CN113935308A (zh) 面向地球科学领域的文本摘要自动生成的方法和系统
CN114595324A (zh) 电网业务数据分域的方法、装置、终端和非暂时性存储介质
Dandapat Part-of-Speech tagging for Bengali
Mazitov et al. Named Entity Recognition in Russian Using Multi-Task LSTM-CRF
Cui et al. Aspect level sentiment classification based on double attention mechanism
Ansari et al. Hindi to English transliteration using multilayer gated recurrent units
Choi et al. An integrated dialogue analysis model for determining speech acts and discourse structures

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant