CN109325109B - 基于注意力编码器的抽取式新闻摘要生成装置 - Google Patents

基于注意力编码器的抽取式新闻摘要生成装置 Download PDF

Info

Publication number
CN109325109B
CN109325109B CN201810978521.2A CN201810978521A CN109325109B CN 109325109 B CN109325109 B CN 109325109B CN 201810978521 A CN201810978521 A CN 201810978521A CN 109325109 B CN109325109 B CN 109325109B
Authority
CN
China
Prior art keywords
sentences
sentence
document
encoder
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810978521.2A
Other languages
English (en)
Other versions
CN109325109A (zh
Inventor
陈洪辉
邵太华
蔡飞
刘俊先
罗爱民
郝泽鹏
陈皖玉
潘志强
郭昱普
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201810978521.2A priority Critical patent/CN109325109B/zh
Publication of CN109325109A publication Critical patent/CN109325109A/zh
Application granted granted Critical
Publication of CN109325109B publication Critical patent/CN109325109B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于注意力编码器的抽取式新闻摘要生成装置,包括:语句编码器,用于获取文档,并将文档划分为多个句子;文档编码器,用于根据所述多个句子与多个句子之间的关系获取文档表示;语句抽取器,用于根据所述多个句子与所述文档表示抽取用于作为摘要的句子。能够更好的捕获句子间的联系和依赖关系,从而准确的进行摘要的提取,在生成摘要时可以展示更丰富的信息。

Description

基于注意力编码器的抽取式新闻摘要生成装置
技术领域
本发明涉及文档摘要抽取技术领域,特别涉及一种基于注意力编码器的抽取式新闻摘要生成装置。
背景技术
随着当下新闻数据的急剧增长,发展自动文摘系统的需求愈发迫切。抽取式文本摘要的方法是通过从文档中抽取显著包含文档主要信息的句子来生成摘要,这样生成的摘要更加通顺。在解决序列化问题中展现强大功能的编码-解码结构,已经成功应用到生成抽取式摘要中,其中编码器读入源句子并用固定长度的向量进行表示,随后解码器输出预测的每个句子的标签,即决定是否抽取某个句子作为摘要的一部分。
但是,现有的针对自动文摘问题的基于编码-解码结构的方法过多地关注解码器部分,即这些方法通常在解码部分使用注意力机制,而不是在编码器中收集文档的更多信息。他们的关注点在于获取与源文档更加相关的句子,但却忽略了不同句子之间的关系。句子之间的关联信息同样包含了文档的很多特征,而且这些特征对选取文档的多种信息是很有帮助的。因此,相关技术需要改进。
发明内容
本发明的目的是提供一种基于注意力编码器的抽取式新闻摘要生成装置,能够更好的捕获句子间的联系和依赖关系。
为解决上述问题,本发明的第一方面提供了一种基于注意力编码器的抽取式新闻摘要生成装置,包括:语句编码器,用于获取文档,并将文档划分为多个句子;文档编码器,用于根据所述多个句子与多个句子之间的关系获取文档表示;语句抽取器,用于根据所述多个句子与所述文档表示抽取用于作为摘要的句子。
进一步地,所述文档编码器还包括:第一层,所述第一层用于获取多个句子之间的联系。第二层,所述第二层用于获取根据多个句子和多个句子之间的联系获取文档表示。
进一步地,所述第一层根据注意力机制获取多个句子之间的联系。
进一步地,所述第一层根据以下公式计算多个句子之间的联系:
Figure GDA0003250682090000021
其中,
Figure GDA0003250682090000022
是在时刻t对第j个隐状态的归一化权重,
Figure GDA0003250682090000023
是第j个隐状态。
进一步地,所述第一层和所述第二层分别通过双向循环神经网络获取隐状态。
本发明的上述技术方案具有如下有益的技术效果:能够更好的捕获句子间的联系和依赖关系,从而准确的进行摘要的提取,在生成摘要时可以展示更丰富的信息。
附图说明
图1为根据本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置的方框示意图;
图2为根据本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置的结构示意图;
图3为根据本发明实施例的文档编码器的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
在附图中示出了根据本发明实施例的层结构示意图。这些图并非是按比例绘制的,其中为了清楚的目的,放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状以及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
以下将参照附图更详细地描述本发明。在各个附图中,相同的元件采用类似的附图标记来表示。为了清楚起见,附图中的各个部分没有按比例绘制。
需要说明的是,本发明旨在对一篇由一个句子序列(s1,s2,...,sn)组成的文档d中选取一个由m(m<n)个句子组成的子集来构成文档d的摘要。其中,n为文档d中句子的个数。同时,对每个句子Si进行打分并标注标签yi∈(0,1),标签1表明句子Si应该作为摘要的候选句子,0表示否不予考虑。
图1为根据本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置。如图1所示,本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置,包括:语句编码器10、文档编码器20和语句抽取器30。
其中,语句编码器10用于获取文档,并将文档划分为多个语句。
具体地,语句编码器10为卷积神经网络构成。语句编码器10能够利用词向量生成句子的向量,即(s1,s2,...,sn)。
文档编码器20用于根据多个句子与多个句子之间的关系获取文档表示。其中,需要说明的是,当文档输入文档编码器20时,文档编码器20可对每个句子进行处理以获得其对应的隐状态,这些隐状态分别表示每个句子的信息,最终通过文档编码器20可获得通过隐状态表示的文档表示。具体地,隐状态是RNN(循环神经网络)的神经元内不计算过程中生成的量,是一个实值向量。
还需要说明的是,本发明实施例中的文档编码器20可由一个两层的单向循环神经网络构成,其中,第一层用于通过注意力机制获取多个句子之间的联系,为了减少信息丢失,第二层可再次获取句子序列,并将句子的向量表示与多个句子之间的联系结合起来,获取最终的文档表示。
具体地,对于文档d=(s1,s2,...,sn),文档编码器20的第一层对每个句子进行求取其对应的隐状态,其中,在t时刻向文档编码器20输入第t个句子,则第t个句子的隐状态根据如下公式进行表示:
Figure GDA0003250682090000041
其中,初始时刻的隐状态
Figure GDA0003250682090000043
可设置为零向量,初始时刻为没有任何内容输入时,神经网络的初始状态。应当理解的是,第t个句子的隐状态还包括其前面每个句子的信息。
然后将n个隐状态合并记为H:
Figure GDA0003250682090000042
在t时刻,隐状态
Figure GDA0003250682090000044
仅仅含有句子st之前的历史信息,即第t个句子之前的内容所包含的信息,而且包含距离st较远的句子的信息。
进一步地,根据注意力机制获取多个句子之间的联系具体包括:
对第一层获取的各个隐状态赋予不同的权重,并求和:
Figure GDA0003250682090000051
其中,
Figure GDA0003250682090000057
是第j个隐状态,
Figure GDA0003250682090000058
是在t时刻对第j个隐状态的归一化权重,即:
Figure GDA0003250682090000052
其中,
Figure GDA0003250682090000059
表示利用n个隐状态的合并计算得到的初始的权重值:
Figure GDA0003250682090000053
其中,
Figure GDA00032506820900000510
是神经网络中的权重、W是权重矩阵,
Figure GDA00032506820900000511
和W可通过神经网络训练得到。
由此,文档编码器的第一层通过注意力机制获取到文档中多个句子之间的联系。
根据本发明的一个实施例,根据以下公式获取第二层的隐状态:
Figure GDA0003250682090000054
其中,
Figure GDA00032506820900000512
表示st
Figure GDA00032506820900000513
连接起来,
Figure GDA00032506820900000514
为t-1时刻的隐状态。
需要说明的是,上述第一层和第二层获取隐状态的方法采用单向循环神经网络。
根据本发明的一个实施例,如图3所示,文档编码器20的第一层和第二层还可分别通过双向循环神经网络BiRNN获取对应的隐状态。
其中,双向循环神经网络BiRNN在每个t时刻均会产生两个隐状态:
Figure GDA0003250682090000055
Figure GDA0003250682090000056
其中,正向的初始隐状态
Figure GDA00032506820900000515
和反向的初始隐状态
Figure GDA00032506820900000516
均可设置为零向量。在t时刻,将两种隐状态连接起来,即可得到第t个句子的隐状态。
应当理解的是,当第一层和第二层采用单向循环神经网络时,文档编码器20为单向的基于注意力机制编码器的摘要模型Uni-AES,当第二层和第二层采用双向循环神经网络时,文档编码器20为双向的基于注意力机制编码器的摘要模型Bi-AES。
由此,根据本发明实施例的文档编码器能够在解码前获得更丰富的文档表示以获取更具表现力的文档摘要,同时,通过本发明实施例提出的文档编码器能够提取文档的多样信息。
根据本发明的一个实施例,语句抽取器30用于根据多个句子与文档表示抽取用于作为摘要的句子。
具体地,在t时刻,语句抽取器30获取文档编码器20的第二层的隐状态,以及语句抽取器30的隐状态,对第t个句子的标签做出预测:
Figure GDA0003250682090000061
其中,
Figure GDA0003250682090000066
表示一个多层网络,计算过程为:
Figure GDA0003250682090000062
其中,U1、U2和V均是语句抽取器30中神经网络的权重矩阵,可通过训练获得,语句抽取器30的隐状态可根据以下公式计算:
Figure GDA0003250682090000063
对句子的标签的预测结果为:
Figure GDA0003250682090000064
其中,yt是第t个句子的类别标签,取值为0或1,当yt取值为1时,表示句子st被抽取,当yt取值为0时,表示句子st不被抽取。
最后,在本发明实施例中,可用损失函数对文档编码器和语句抽取器中的权重进行训练,其中,可用负的句子的真实标签的概率作为损失函数:
Figure GDA0003250682090000065
其中,损失函数是模型预测的标签与真实标签相符的概率的相反数,“负”为相反数的意思。目标是使损失函数最小,也就是模型的预测更准确。具体地,通过文档编码器和语句抽取器可得到语句的预测标签,根据预测标签和真实标签计算损失函数,对损失函数进行反向求偏导,根据偏导的结果对文档编码器和语句抽取器的权重进行优化,即对文档编码器和语句抽取器进行训练,以得到稳定的文档编码器和语句抽取器。
本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置是基于编码-解码结构模型的装置,下面将本发明实施例的装置与抽取式的模型进行对比。
其中,作为对比的模型分别为LEAD模型和NN-SE模型,LEAD模型为选取文档前三句作为摘要的标准模型,NN-SE模型为一种进行抽取式摘要的神经网络模型,由分层文档编码器和一个基于注意力机制的句子抽取器。
进行对比实验的实验数据具体如表1所示,表1为数据集的统计特征。
表1
Figure GDA0003250682090000071
需要说明的是,用于试验的数据为根据CNN新闻构造的,此数据集中的每篇文档包含新闻原文及新闻编辑人工写就的高亮文本,这些高亮文本是真正的生成式摘要,因此可将作为标准摘要文档中的每个句子都标注标签,当标签为1时表示句子与高亮文本相匹配,当标签为0时,表示句子与高亮文本不匹配。还设定环境窗口大小为6,负采样规模设置为10,分层softmax设置为1。词向量初始化为200维的向量。由于数据集中超过95%的句子不超过50个词,超过95%的文档不超过60个句子,因此,我们将句子长度设置为50,将文档长度设置为60。在对句子进行编码时,我们采用Kim中的方法,用宽度分别为{1,2,3,4,5,6,7}的卷积核进行卷积,卷积核的输出通道大小为50,因而句子向量的维度为350。
针对文档编码器和语句抽取器,我们使用大小为650的长短时记忆(LSTM)单元。在LSTM输入隐层以及句子评分过程中使用的正则化丢弃率为0.5。在训练过程中使用分批训练,一个批次数据包含20篇文档,使用的优化器为Adam优化器,其初始学习率为0.001。
在CNN的整个测试集上使用ROUGE对模型得出摘要质量进行评估,其中,ROUGE是基于召回率的衡量方法。ROUGE-N(N=1,2,3,4)是衡量候选摘要与参考摘要之间的n元召回率,而ROUGE-L能够检测他们的最长公共自序列。我们使用ROUGE-1(R-1)、ROUGE(R-2)、ROUGE-3(R-3)和ROUGE-4(R-4)反映摘要的信息量,ROUGE-L(R-L)反映摘要的流畅性。我们给出生成完整长度和固定长度(前75比特和275比特)的摘要。为了实现公平地对比,我们选取得分最高的3个句子生成完整长度的摘要。
如表2所示,表2为测试集上各模型得到的完整长度摘要的ROUGE评分。每一列的最好结果进行了加粗。
表2
Figure GDA0003250682090000081
其中,单向的基于注意力机制编码器的摘要模型Uni-AES和双向的基于注意力机制编码器的摘要模型Bi-AES,相较于最好的基准模型有显著提提升,如表2中“∧”。
如表2所示,对两个基准模型而言,除R-L外,NN-SE生成的摘要的其他ROUGE评分都比LEAD高。这或许是因为一些新闻的前几个句子确实包含一些重要的信息,这些句子正适合作为摘要的一部分。
Uni-AES模型在多数ROUGE评分上都有所改进,R-1提高了0.67%,R-2提高了1.46%,R-4提高了1.79%,R-L提高了0.76%。鼓舞人心的是,我们的Bi-AES模型在所有评分上展现出比最好的基准模型明显的的提高,R-1提高了7.42%,R-2提高了23.36%,R-4提高了13.41%,R-4提高了7.14%,R-L提高了5.74%。这些结果表明我们模型的有效性,并且说明将我们的注意力机制与BiRNN结合起来能够获取新闻的主旨并筛选出包含多种信息的显著的句子。再者,Bi-AES在各个ROUGE评分上有优于Uni-AES,R-1提高了6.7%,R-2提高了21.58%,R-4提高了13.42%,R-4提高了5.26%,R-L提高了7.07%。这些提高说明基于注意力机制的BiRNN能够更好地捕获句子间的联系和依赖关系。
对于不同长度上的效果,具体如表3所示,表3为测试集中各模型生成的75字节和275字节摘要的ROUGE评分,每一列中的最好结果进行了加粗。
表3
Figure GDA0003250682090000091
表3中给出了上述三个神经网络模型生成的固定长度(75比特和275比特)完整长度(评分最高的3个句子)的摘要的ROUGE评分。表3展示了各模型生成固定长度摘要的ROUGE评分。结合表2,我们可以发现我们的两个模型生成的各种长度的摘要的所有ROUGE评分都优于NN-SE,尤其是Bi-AES模型,这说明结合了注意力机制的BiRNN的性能。
综上所述,根据本发明实施例的基于注意力编码器的抽取式新闻摘要生成装置,通过语句编码器获取文档,并将文档划分为多个句子,然后通过文档编码器根据多个句子与多个句子之间的关系获取文档表示,再通过语句抽取器根据多个句子与文档表示抽取用于作为摘要的句子。由此,能够更好的捕获句子间的联系和依赖关系,从而准确的进行摘要的提取,在生成摘要时可以展示更丰富的信息。
在以上的描述中,对于各层的构图、刻蚀等技术细节并没有做出详细的说明。但是本领域技术人员应当理解,可以通过现有技术中的各种手段,来形成所需形状的层、区域等。另外,为了形成同一结构,本领域技术人员还可以设计出与以上描述的方法并不完全相同的方法。
以上参照本发明的实施例对本发明予以了说明。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本发明的范围。本发明的范围由所附权利要求及其等价物限定。不脱离本发明的范围,本领域技术人员可以做出多种替换和修改,这些替换和修改都应落在本发明的范围之内。
尽管已经详细描述了本发明的实施方式,但是应该理解的是,在不偏离本发明的精神和范围的情况下,可以对本发明的实施方式做出各种改变、替换和变更。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

Claims (2)

1.一种基于注意力编码器的抽取式新闻摘要生成装置,其特征在于,包括:
语句编码器,用于获取文档,并将文档划分为多个句子;
文档编码器,用于根据所述多个句子与多个句子之间的关系获取文档表示;
语句抽取器,用于根据所述多个句子与所述文档表示抽取用于作为摘要的句子;
所述文档编码器还包括:
第一层,所述第一层用于获取多个句子之间的联系;
第二层,所述第二层用于获取根据多个句子和多个句子之间的联系获取文档表示,
所述第一层和所述第二层分别通过双向循环神经网络获取隐状态;
所述第一层根据注意力机制获取多个句子之间的联系;
在t时刻,语句抽取器30获取文档编码器20的第二层的隐状态
Figure FDA0003250682080000015
以及语句抽取器30的隐状态
Figure FDA0003250682080000011
对第t个句子的标签做出预测:
Figure FDA0003250682080000012
其中,d为所述语句编码器获取的文档;
其中,st为所述文档d划分为多个句子中的第t个句子;
其中,yt是第t个句子的类别标签,取值为0或1,当yt取值为1时,表示句子st被抽取,当yt取值为0时,表示句子st不被抽取;
其中,
Figure FDA0003250682080000013
表示一个多层网络,计算过程为:
Figure FDA0003250682080000014
其中,U1、U2和V均是语句抽取器30中神经网络的权重矩阵,可通过训练获得,语句抽取器30的隐状态可根据以下公式计算:
Figure FDA0003250682080000021
对句子的标签的预测结果为:
Figure FDA0003250682080000022
2.根据权利要求1所述的基于注意力编码器的抽取式新闻摘要生成装置,其特征在于,所述第一层根据以下公式计算多个句子之间的联系:
Figure FDA0003250682080000023
其中,
Figure FDA0003250682080000024
是在时刻t对第j个隐状态的归一化权重,
Figure FDA0003250682080000025
是第j个隐状态。
CN201810978521.2A 2018-08-27 2018-08-27 基于注意力编码器的抽取式新闻摘要生成装置 Active CN109325109B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810978521.2A CN109325109B (zh) 2018-08-27 2018-08-27 基于注意力编码器的抽取式新闻摘要生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810978521.2A CN109325109B (zh) 2018-08-27 2018-08-27 基于注意力编码器的抽取式新闻摘要生成装置

Publications (2)

Publication Number Publication Date
CN109325109A CN109325109A (zh) 2019-02-12
CN109325109B true CN109325109B (zh) 2021-11-19

Family

ID=65264482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810978521.2A Active CN109325109B (zh) 2018-08-27 2018-08-27 基于注意力编码器的抽取式新闻摘要生成装置

Country Status (1)

Country Link
CN (1) CN109325109B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109885670A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种面向话题文本的交互注意力编码情感分析方法
CN111723194A (zh) * 2019-03-18 2020-09-29 阿里巴巴集团控股有限公司 摘要生成方法、装置和设备
CN110046244B (zh) * 2019-04-24 2021-06-08 中国人民解放军国防科技大学 一种用于问答系统的答案选择方法
CN110348016B (zh) * 2019-07-15 2022-06-14 昆明理工大学 基于句子关联注意力机制的文本摘要生成方法
CN110705313B (zh) * 2019-10-09 2022-12-27 沈阳航空航天大学 一种基于特征抽取和语义增强的文本摘要生成方法
CN110852072B (zh) * 2019-11-12 2023-04-07 中山大学 一种基于语句关系的词向量训练方法
CN111241267B (zh) * 2020-01-10 2022-12-06 科大讯飞股份有限公司 摘要提取和摘要抽取模型训练方法及相关装置、存储介质
CN112287687B (zh) * 2020-09-17 2022-06-14 昆明理工大学 基于案件属性感知的案件倾向性抽取式摘要方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398814A (zh) * 2007-09-26 2009-04-01 北京大学 一种同时抽取文档摘要和关键词的方法及系统
CN101751425A (zh) * 2008-12-10 2010-06-23 北京大学 文档集摘要获取方法及装置
CN108090049A (zh) * 2018-01-17 2018-05-29 山东工商学院 基于句子向量的多文档摘要自动提取方法及系统
CN108153913A (zh) * 2018-01-24 2018-06-12 北京神州泰岳软件股份有限公司 回复信息生成模型的训练方法、回复信息生成方法及装置
CN108280112A (zh) * 2017-06-22 2018-07-13 腾讯科技(深圳)有限公司 摘要生成方法、装置及计算机设备
CN109478204A (zh) * 2016-05-17 2019-03-15 马鲁巴公司 非结构化文本的机器理解

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565305B2 (en) * 2016-11-18 2020-02-18 Salesforce.Com, Inc. Adaptive attention model for image captioning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398814A (zh) * 2007-09-26 2009-04-01 北京大学 一种同时抽取文档摘要和关键词的方法及系统
CN101751425A (zh) * 2008-12-10 2010-06-23 北京大学 文档集摘要获取方法及装置
CN109478204A (zh) * 2016-05-17 2019-03-15 马鲁巴公司 非结构化文本的机器理解
CN108280112A (zh) * 2017-06-22 2018-07-13 腾讯科技(深圳)有限公司 摘要生成方法、装置及计算机设备
CN108090049A (zh) * 2018-01-17 2018-05-29 山东工商学院 基于句子向量的多文档摘要自动提取方法及系统
CN108153913A (zh) * 2018-01-24 2018-06-12 北京神州泰岳软件股份有限公司 回复信息生成模型的训练方法、回复信息生成方法及装置

Also Published As

Publication number Publication date
CN109325109A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
CN109325109B (zh) 基于注意力编码器的抽取式新闻摘要生成装置
US11593612B2 (en) Intelligent image captioning
US20220309762A1 (en) Generating scene graphs from digital images using external knowledge and image reconstruction
CN109844708B (zh) 通过聊天机器人推荐媒体内容
Jin et al. A novel lexicalized HMM-based learning framework for web opinion mining
US20180336193A1 (en) Artificial Intelligence Based Method and Apparatus for Generating Article
CN111061862B (zh) 一种基于注意力机制生成摘要的方法
US20170185581A1 (en) Systems and methods for suggesting emoji
US11521071B2 (en) Utilizing deep recurrent neural networks with layer-wise attention for punctuation restoration
WO2017201195A1 (en) Machine comprehension of unstructured text
CN114830148A (zh) 可控制有基准的文本生成
CN113591483A (zh) 一种基于序列标注的文档级事件论元抽取方法
CN112163092B (zh) 实体及关系抽取方法及系统、装置、介质
CN114936266A (zh) 基于门控机制的多模态融合谣言早期检测方法及系统
CN113627151B (zh) 跨模态数据的匹配方法、装置、设备及介质
Zou et al. To be an artist: automatic generation on food image aesthetic captioning
CN112417155B (zh) 基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质
CN107729509B (zh) 基于隐性高维分布式特征表示的篇章相似度判定方法
US11822893B2 (en) Machine learning models for detecting topic divergent digital videos
US11676410B1 (en) Latent space encoding of text for named entity recognition
CN113704466B (zh) 基于迭代网络的文本多标签分类方法、装置及电子设备
CN115169472A (zh) 针对多媒体数据的音乐匹配方法、装置和计算机设备
CN111143562B (zh) 一种资讯信息情感分析方法、装置及存储介质
CN113837309A (zh) 一种基于变分自编码器的文本分类方法
CN115526176A (zh) 文本识别方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant