CN111563160B - 基于全局语义的文本自动摘要方法、装置、介质及设备 - Google Patents
基于全局语义的文本自动摘要方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN111563160B CN111563160B CN202010293653.9A CN202010293653A CN111563160B CN 111563160 B CN111563160 B CN 111563160B CN 202010293653 A CN202010293653 A CN 202010293653A CN 111563160 B CN111563160 B CN 111563160B
- Authority
- CN
- China
- Prior art keywords
- text
- attention
- decoder
- output
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于全局语义的文本自动摘要方法、装置、介质及设备。其中方法包括如下步骤:将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;编码器基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;解码器基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要。本发明通过在编码器中加上卷积过滤器,并在解码器部分使用重复惩罚机制对重复词进行进一步抑制;可提高摘要文本语义的通顺度,重复惩罚机制可以对已经出现过的词的进行极大的抑制,减少生成摘要的重复性问题从而提高生成摘要的可读性。
Description
技术领域
本发明涉及自然语言处理技术领域,更具体地说,涉及一种基于全局语义的文本自动摘要方法、装置、介质及设备。
背景技术
随着互联网的高速发展,如何快速准确的阅读大量信息使得自动文本摘要技术的深入研究成为必要需求。自动文本摘要作为一种可以缓解信息过量的技术,在实践中有着广泛的应用,如自动生成新闻文章和技术文章的摘要、自动生成搜索引擎检索结果的快照、自动写稿机器人等等。
自动文本摘要技术就是利用计算机自动地从原始文章中提取中心思想和关键内容,并进行语义分析和处理,生成一段能全面准确地反映某一文献地简单连贯的短文。
目前国内外最常用的自动文本摘要方法根据摘要内容的生成方式分为两种:抽取式摘要和生成式摘要。而生成式摘要是自动文本摘要的主流研究方向。由于2014年Bengio等人提出的Sequence to Sequence(seq2seq)模型在机器翻译上的巨大成功,再加上文本摘要和机器翻译同为端对端的文本生成任务,研究者就尝试在文本摘要上使用seq2seq模型,并取得了一定的进展。在同一年Bahdanau等人提出了Attention模型,并结合seq2seq模型一起应用在机器翻译任务中,进一步推动了文本摘要的发展。
鉴于机器翻译的成功应用,基于seq2seq模型自动文本摘要成为了自然语言处理的研究热点。然而,生成式文本摘要目前还存在很多问题,比如语义不通顺,语法错误,上下文出现重复词等。
发明内容
为克服现有技术中的缺点与不足,本发明的目的在于提供一种基于全局语义的文本自动摘要方法、装置、介质及设备;通过在编码器中加上卷积过滤器,并在解码器部分使用重复惩罚机制对重复词进行进一步抑制;可提高摘要文本语义的通顺度,重复惩罚机制可以对已经出现过的词的进行极大的抑制,减少生成摘要的重复性问题从而提高生成摘要的可读性。
为了达到上述目的,本发明通过下述技术方案予以实现:一种基于全局语义的文本自动摘要方法,其特征在于:包括如下步骤:
S1,将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;
S2,编码器基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;
S3,解码器基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要。
优选地,所述步骤S2包括以下分步骤:
S23,在每个时间节点t上,对卷积神经网络的输出矩阵gi进行自注意力计算,得到结果gi′;
所述步骤S22中,卷积神经网络的结构包含三个并联的卷积层和连接在三个卷积层后的一个拼接结果层:
其中,第一个卷积层有两个卷积核k大小分别为1和5的一维卷积单元;
第二个卷积层有两个卷积核k大小分别为1和3的一维卷积单元;
第三个卷积层有一个卷积核k大小为1的一维卷积单元;
拼接结果层是先将三个卷积层的输出进行列向拼接为矩阵Hi,然后导入全连接网络并输出一个列向大小为输出1/3的输出矩阵gi;输出矩阵gi生成公式为:
gi=ReLU(W*Hi+b);
其中,ReLU为ReLU激活函数,W为拼接结果层的权重矩阵,b为拼接结果层的偏置矩阵;
所述步骤S23中,自注意力计算公式为:
其中,Q,V都是卷积神经网络生成的表示矩阵,K=WaV,Wa为可学习的矩阵,softmax()为归一化函数,dk为卷积核k的大小;
其中,为S21得到的双向LSTM网络的输出结果,σ()为sigmoid函数,bh为偏置向量。这个sigmoid函数在每个输入维度上生成一个0到1的值向量,如果值接近于0,则这个输入信息的LSTM编码结果将被删除大部分信息,如果接近1,则保留大部分信息。
优选地,所述步骤S3包括以下分步骤:
S32,将原始文本在训练集中对应的人为摘要序列中的元素/>先输入到解码器的词嵌入层得到wt,然后将wt和前一时间节点解码器的隐藏状态/>一起输入到解码器的神经网络中得到当前时间节点t解码器的隐藏状态/>其中解码器使用LSTM的变体网络作为循环网络单元;
S37,重复步骤S31至S36,直至得到生成摘要序列y=(y0,y1,y2,…yn)。
其中,tanh为激活函数,Wd为权重矩阵,bd为偏置向量;
其中,tanh为激活函数,softmax为归一化函数,v为权重向量,Wd,We和Wc都为权重矩阵,be为偏置向量,参数都可通过神经网络学习到;
其中y是参考文本摘要,是生成文本摘要,x是原文本,λ是一个可调整的参数;loss函数前半段为训练过程的损失函数,后半段为惩罚项,如果之前该词出现过,那么它的会很大,为了减少loss,就需要/>变小,而/>变小意味着这个位置被注意的概率就减少。/>
所述步骤S35中,上下文向量xt为:
其中,softmax为归一化函数,Wh和Wh′为权重矩阵,bp′和bp为偏置向量。
一种基于全局语义的文本自动摘要装置,其特征在于:包括:
预处理模块,用于将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;
编码器,用于基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;
解码器,用于基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要。
一种存储介质,其特征在于:其中所述存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述基于全局语义的文本自动摘要方法。
一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于:所述处理器执行存储器存储的程序时,实现权利要求上述基于全局语义的文本自动摘要方法。
与现有技术相比,本发明具有如下优点与有益效果:
本发明在编码器到解码器的信息流中,设置一个控制开关,它由一个卷积控制单元组成,利用卷积网络的特性在编码输出时考虑上下文语义,对信息进行筛选,不符合语义或重复词语的信息将被删除。而解码器部分,结合重复惩罚机制,进一步缓解生成词重复问题,使得生成的摘要语义更加通顺。
本发明在基于注意力机制的seq2seq模型上,构建了一种基于全局语义的自动文本摘要模型,它通过在编码器中加上卷积过滤器,并在解码器部分使用重复惩罚机制对重复词进行进一步抑制。一方面,卷积过滤器使用的是卷积神经网络,它可以提取原文本的n-gram特征,并结合自注意力机制起到对全局语义的把控,提高了摘要文本语义的通顺度。另一方面,重复惩罚机制可以对已经出现过的词的进行极大的抑制,减少了生成摘要的重复性问题从而提高生成摘要的可读性。
附图说明
图1是本发明的一种基于全局语义的文本自动摘要方法的步骤流程图;
图2是本发明编码器结构示意图;
图3是本发明编码器中的卷积控制单元结构示意图;
图4是本发明解码生成摘要词的原理图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细的描述。
实施例一
本实施例一种基于全局语义的文本自动摘要方法,其流程如图1所示,包括如下步骤:
S1,将原始文本的内容进行预处理,编写脚本将原始文本按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息。
S2,将预处理后的文本信息输入到编码器,编码器基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果,如图2所示。
具体地说,步骤S2包括以下分步骤:
卷积神经网络的结构包含三个并联的卷积层和连接在三个卷积层后的一个拼接结果层:
其中,第一个卷积层有两个卷积核k大小分别为1和5的一维卷积单元;
第二个卷积层有两个卷积核k大小分别为1和3的一维卷积单元;
第三个卷积层有一个卷积核k大小为1的一维卷积单元;
拼接结果层是先将三个卷积层的输出进行列向拼接为矩阵Hi,然后导入全连接网络并输出一个列向大小为输出1/3的输出矩阵gi;输出矩阵gi生成公式为:
gi=ReLU(W*Hi+b);
其中,ReLU为ReLU激活函数,W为拼接结果层的权重矩阵,b为拼接结果层的偏置矩阵。
S23,在每个时间节点t上,对卷积神经网络的输出矩阵gi进行自注意力计算,得到结果gi′。
自注意力计算公式为:
其中,Q,V都是卷积神经网络生成的表示矩阵,K=WaV,Wa为可学习的矩阵,softmax()为归一化函数,dk为卷积核k的大小。
其中,为S21得到的双向LSTM网络的输出结果,σ()为sigmoid函数,bh为偏置向量。这个sigmoid函数在每个输入维度上生成一个0到1的值向量,如果值接近于0,则这个输入信息的LSTM编码结果将被删除大部分信息,如果接近1,则保留大部分信息。
S3,将编码器输出结果导入解码器,解码器基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要,解码器结果如图4所示。
具体地说,步骤S3包括以下分步骤:
其中,tanh为激活函数,Wd为权重矩阵,bd为偏置向量。
S32,将原始文本在训练集中对应的人为摘要序列中的元素/>先输入到解码器的词嵌入层得到wt,然后将wt和前一时间节点解码器的隐藏状态/>一起输入到解码器的神经网络中得到当前时间节点t解码器的隐藏状态/>其中解码器使用LSTM的变体网络作为循环网络单元。
其中,tanh为激活函数,softmax为归一化函数,v为权重向量,Wd,We和Wc都为权重矩阵,be为偏置向量,参数都可通过神经网络学习到;
其中y是参考文本摘要,是生成文本摘要,x是原文本,λ是一个可调整的参数;loss函数前半段为训练过程的损失函数,后半段为惩罚项,如果之前该词出现过,那么它的会很大,为了减少loss,就需要/>变小,而/>变小意味着这个位置被注意的概率就减少。
上下文向量xt为:
其中,softmax为归一化函数,Wh和Wh′为权重矩阵,bp′和bp为偏置向量。
S37,重复步骤S31至S36,直至得到生成摘要序列y=(y0,y1,y2,…yn)。
为实现本实施例基于全局语义的文本自动摘要方法,本实施例还提供了一种基于全局语义的文本自动摘要装置,包括:
预处理模块,用于将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;
编码器,用于基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;
解码器,用于基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要。
实施例二
本实施例一种存储介质,其特征在于,其中所述存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行实施例一所述的基于全局语义的文本自动摘要方法。
实施例三
本实施例一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现实施例一所述的基于全局语义的文本自动摘要方法。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于全局语义的文本自动摘要方法,其特征在于:包括如下步骤:
S1,将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;
S2,编码器基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;
S3,解码器基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要;
所述步骤S3包括以下分步骤:
其中,tanh为激活函数,Wd为权重矩阵,bd为偏置向量;
S32,将原始文本在训练集中对应的人为摘要序列中的元素/>先输入到解码器的词嵌入层得到wt,然后将wt和前一时间节点解码器的隐藏状态/>一起输入到解码器的神经网络中得到当前时间节点t解码器的隐藏状态/>其中解码器使用LSTM的变体网络作为循环网络单元;
其中,tanh为激活函数,softmax为归一化函数,v为权重向量,Wd,We和Wc都为权重矩阵,be为偏置向量;
上下文向量xt为:
其中,softmax为归一化函数,Wh和Wh′为权重矩阵,bp′和bp为偏置向量;
S37,重复步骤S31至S36,直至得到生成摘要序列y=(y0,y1,y2,…yn)。
所述步骤S22中,卷积神经网络的结构包含三个并联的卷积层和连接在三个卷积层后的一个拼接结果层:
其中,第一个卷积层有两个卷积核k大小分别为1和5的一维卷积单元;
第二个卷积层有两个卷积核k大小分别为1和3的一维卷积单元;
第三个卷积层有一个卷积核k大小为1的一维卷积单元;
拼接结果层是先将三个卷积层的输出进行列向拼接为矩阵Hi,然后导入全连接网络并输出一个列向大小为输出1/3的输出矩阵gi;输出矩阵gi生成公式为:
gi=ReLU(W*Hi+b);
其中,ReLU为ReLU激活函数,W为拼接结果层的权重矩阵,b为拼接结果层的偏置矩阵;
所述步骤S23中,自注意力计算公式为:
其中,Q,V都是卷积神经网络生成的表示矩阵,K=WaV,Wa为可学习的矩阵,softmax()为归一化函数,dk为卷积核k的大小;
4.一种基于全局语义的文本自动摘要装置,其特征在于:包括:
预处理模块,用于将原始文本的内容进行预处理,按照字节进行划分,并对其中的大写字母替换成小写字母,得到文本信息;
编码器,用于基于卷积神经网络和自注意力机制对文本信息进行全局编码,并经过一个控制单元进行筛选,得到最终编码输出结果;
解码器,用于基于重复惩罚机制对编码输出结果进行解码,并生成文本摘要;
所述解码器包括以下分步骤:
其中,tanh为激活函数,Wd为权重矩阵,bd为偏置向量;
S32,将原始文本在训练集中对应的人为摘要序列中的元素/>先输入到解码器的词嵌入层得到wt,然后将wt和前一时间节点解码器的隐藏状态/>一起输入到解码器的神经网络中得到当前时间节点t解码器的隐藏状态/>其中解码器使用LSTM的变体网络作为循环网络单元;
其中,tanh为激活函数,softmax为归一化函数,v为权重向量,Wd,We和Wc都为权重矩阵,be为偏置向量;
上下文向量xt为:
其中,softmax为归一化函数,Wh和Wh′为权重矩阵,bp′和bp为偏置向量;
S37,重复步骤S31至S36,直至得到生成摘要序列y=(y0,y1,y2,…yn)。
5.一种存储介质,其特征在于:其中所述存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行权利要求1-3中任一项所述的基于全局语义的文本自动摘要方法。
6.一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于:所述处理器执行存储器存储的程序时,实现权利要求1-3中任一项所述的基于全局语义的文本自动摘要方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010293653.9A CN111563160B (zh) | 2020-04-15 | 2020-04-15 | 基于全局语义的文本自动摘要方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010293653.9A CN111563160B (zh) | 2020-04-15 | 2020-04-15 | 基于全局语义的文本自动摘要方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563160A CN111563160A (zh) | 2020-08-21 |
CN111563160B true CN111563160B (zh) | 2023-03-31 |
Family
ID=72071701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010293653.9A Active CN111563160B (zh) | 2020-04-15 | 2020-04-15 | 基于全局语义的文本自动摘要方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563160B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191159B (zh) * | 2021-05-25 | 2023-01-20 | 广东电网有限责任公司广州供电局 | 一种机器阅读理解方法、装置、设备和存储介质 |
CN116629211B (zh) * | 2023-02-25 | 2023-10-27 | 浙江研几网络科技股份有限公司 | 基于人工智能的写作方法及系统 |
CN116795789B (zh) * | 2023-08-24 | 2024-04-19 | 卓望信息技术(北京)有限公司 | 自动生成专利检索报告的方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154257A (zh) * | 2017-04-18 | 2017-09-12 | 苏州工业职业技术学院 | 基于客户语音情感的客服服务质量评价方法及系统 |
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN109508400A (zh) * | 2018-10-09 | 2019-03-22 | 中国科学院自动化研究所 | 图文摘要生成方法 |
CN109710923A (zh) * | 2018-12-06 | 2019-05-03 | 浙江大学 | 基于跨媒体信息的跨语言实体匹配方法 |
CN109801096A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种多模态客户满意度综合评价系统、方法 |
CN109977220A (zh) * | 2019-04-09 | 2019-07-05 | 中通服公众信息产业股份有限公司 | 一种基于关键句和关键字的反向生成摘要的方法 |
WO2019157633A1 (en) * | 2018-02-13 | 2019-08-22 | Nec Hong Kong Limited | Intelligent service terminal and platform system and methods thereof |
CN110287374A (zh) * | 2019-06-14 | 2019-09-27 | 天津大学 | 一种基于分布一致性的自注意力视频摘要方法 |
CN110597979A (zh) * | 2019-06-13 | 2019-12-20 | 中山大学 | 一种基于自注意力的生成式文本摘要方法 |
-
2020
- 2020-04-15 CN CN202010293653.9A patent/CN111563160B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154257A (zh) * | 2017-04-18 | 2017-09-12 | 苏州工业职业技术学院 | 基于客户语音情感的客服服务质量评价方法及系统 |
WO2019157633A1 (en) * | 2018-02-13 | 2019-08-22 | Nec Hong Kong Limited | Intelligent service terminal and platform system and methods thereof |
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN109508400A (zh) * | 2018-10-09 | 2019-03-22 | 中国科学院自动化研究所 | 图文摘要生成方法 |
CN109710923A (zh) * | 2018-12-06 | 2019-05-03 | 浙江大学 | 基于跨媒体信息的跨语言实体匹配方法 |
CN109801096A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种多模态客户满意度综合评价系统、方法 |
CN109977220A (zh) * | 2019-04-09 | 2019-07-05 | 中通服公众信息产业股份有限公司 | 一种基于关键句和关键字的反向生成摘要的方法 |
CN110597979A (zh) * | 2019-06-13 | 2019-12-20 | 中山大学 | 一种基于自注意力的生成式文本摘要方法 |
CN110287374A (zh) * | 2019-06-14 | 2019-09-27 | 天津大学 | 一种基于分布一致性的自注意力视频摘要方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111563160A (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guu et al. | Retrieval augmented language model pre-training | |
Baumel et al. | Query focused abstractive summarization: Incorporating query relevance, multi-document coverage, and summary length constraints into seq2seq models | |
CN111563160B (zh) | 基于全局语义的文本自动摘要方法、装置、介质及设备 | |
US11816442B2 (en) | Multi-turn dialogue response generation with autoregressive transformer models | |
CN108804495B (zh) | 一种基于增强语义的自动文本摘要方法 | |
CN111061862B (zh) | 一种基于注意力机制生成摘要的方法 | |
CN110134782B (zh) | 一种基于改进的选择机制和lstm变体的文本摘要模型及自动文本摘要方法 | |
CN111401037B (zh) | 自然语言的生成方法、装置、电子设备及存储介质 | |
King et al. | Evaluating approaches to personalizing language models | |
CN113157919B (zh) | 语句文本方面级情感分类方法及系统 | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN114218928A (zh) | 一种基于图知识和主题感知的抽象文本摘要方法 | |
CN114281982B (zh) | 一种多模态融合技术的图书宣传摘要生成方法和系统 | |
CN111723194A (zh) | 摘要生成方法、装置和设备 | |
Li et al. | In-context learning with many demonstration examples | |
Mathur et al. | A scaled‐down neural conversational model for chatbots | |
CN110765768A (zh) | 一种优化的文本摘要生成方法 | |
CN112949255A (zh) | 一种词向量训练方法及装置 | |
CN109241272B (zh) | 一种中文文本摘要生成方法、计算机可读储存介质及计算机设备 | |
CN111428518A (zh) | 一种低频词翻译方法及装置 | |
CN112926344A (zh) | 基于词向量替换数据增强的机器翻译模型训练方法、装置、电子设备及存储介质 | |
CN117034950A (zh) | 一种引入条件掩码对比学习的长句子嵌入方法和系统 | |
Abolghasemi et al. | HTS-DL: hybrid text summarization system using deep learning | |
CN116720531A (zh) | 基于源语言句法依赖和量化矩阵的蒙汉神经机器翻译方法 | |
CN111930930B (zh) | 一种基于商品方面对齐的抽象式评论摘要生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |