CN111177366B - 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 - Google Patents
一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 Download PDFInfo
- Publication number
- CN111177366B CN111177366B CN201911396046.9A CN201911396046A CN111177366B CN 111177366 B CN111177366 B CN 111177366B CN 201911396046 A CN201911396046 A CN 201911396046A CN 111177366 B CN111177366 B CN 111177366B
- Authority
- CN
- China
- Prior art keywords
- query
- sentence
- abstract
- model
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明通过深度学习的方法,构建训练数据与数据预处理;基于BERT模型预训练语言模型进行文档与查询内容编码;基于BERT模型的查询内容进行词编码;建立基于句子级别的层级结构(Hierarchical结构)模型,实现查询内容与文档关系语义建模;模型训练后封装,通过接口输出抽取式摘要五个步骤,使BERT模型学习词级别的特征向量表示,抽取代表文档的句子和查询的句子,并将上述特征导入Transformer模型进行句子级别的语义关系特征学习,结合查询模型的思想,学习查询内容与文档的关系,通过分类函数判定最终得到文本的摘要。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统。
背景技术
随着互联网技术的发展,万维网上大量的文本信息飞速增长,从大量文本信息中提取重要的内容,已成为我们的一个迫切需求,而自动文本摘要(automatic textsummarization)则提供了一个高效的解决方案。对计算机而言,生成摘要是一件很有挑战性的任务。从一份或多份文本生成一份合格摘要,要求计算机在阅读原文本,并理解其内容,并根据轻重缓急对内容进行取舍,裁剪和拼接内容,最后生成流畅的短文本。因此,自动文本摘要需要依靠自然语言处理/理解的相关理论,是近几年来的重要研究方向之一。自动文本摘要通常可分为两类,分别是抽取式(extractive)和生成式(abstractive)。抽取式摘要判断原文本中重要的句子,抽取这些句子成为一篇摘要。而生成式方法则应用先进的自然语言处理的算法,通过转述、同义替换、句子缩写等技术,生成更凝练简洁的摘要。
抽取式的方法由于是从原文中抽取重要的句子组成摘要,只需要把抽取重要的句子按照顺序组合起来,这种方式相比于生成式逐字生成的方法具备更高的流畅性,其效果通常优于基于深度学习的生成式方法。但从抽取式的摘要方式可见,该方法并未针对原文理解其内容,重要句子的选择往往基于相似度计算保留其中的一句,这种方式的形成的摘要在句子之间的连贯性上难以保证。
本发明基于深度语言模型的抽取式自动文本摘要方法,深度语言模型建模实现对源文的语义编码,将源文的文字转换为稠密向量表示,实现文字在计算机中的计算。并且深度语言模型能够辅助高阶的语义特征编码在向量表示中。实现对源文的语义理解。并从词级别实现句子级别的语义表征的向量,通过分类模型判断与定位源文的句子中最适合作为摘要的句子,抽取出句子并拼接形成最后的摘要结果。
发明内容
由于抽取式文本摘要具备相对于生成式文本摘要更加优越的性能,特别是针对长文本摘要的应用场景,抽取式文本摘要研究仍然备受瞩目,也更能够直接应用于现实场景的开发实现,而目前已有的工作并没有从语义理解这个角度进行抽取式文本摘要的建模,造成抽取出的摘要存在偏离源文核心语义的现象。本发明正是针对深度语义理解表征的抽取式文本摘要进行深入研究,解决抽取式文本摘要方法在语义理解上存在的问题,提升摘要性能。
为达到上述目的,本发明采用了下列技术方案:
一种基于查询机制的抽取式文档摘要自动生成方法,包括:
步骤一:构建训练数据与数据预处理;
步骤二:基于BERT模型预训练语言模型进行语义编码;
步骤三:基于BERT模型的查询内容进行语义编码;
步骤四:建立基于句子级别的层级结构(Hierarchical结构)模型,实现查询内容与文档关系语义建模;
步骤五:模型训练后封装,通过接口输出抽取式摘要。
步骤一所述构建训练数据与数据预处理步骤包括:
获取输入源文本;
对输入源文本数据预处理,先进行源文本的分词,并在在每一个源文本分词后的词序列前后分别添加表示开始与结束的标签,整个序列作为输入模型的源文本序列;
对查询文本进行数据预处理,进行分词后,在查询内容的词序的前后加上开始与结束标签,整个序列作为输入模型的查询序列;
预处理好的源文本序列与查询文本序列,作为模型需要输入的数据,通过划分数据集,以训练集、验证集、测试集为8:1:1的比例,划分最后数据。
步骤二所述基于BERT模型预训练语言模型进行文档与查询内容编码步骤包括:
采用xavier函数随机初始化词的向量表示,得到源文本句子编码向量;
将所述源文本句子编码向量通过BERT模型进行对应的隐向量表示学习;
从学习结果中提取所述句子头部所述标签作为代表该句子的隐向量特征。
步骤三所述基于BERT模型的查询内容进行词编码步骤包括:
采用xavier函数随机初始化词的向量表示,得到源文本句子编码向量;
将所述源文本句子编码向量通过BERT模型进行对应的隐向量表示学习;
从学习结果中提取所述句子头部所述标签作为代表该句子的隐向量特征。
步骤四建立基于句子级别的语义关系模型步骤包括:
对查询内容使用BERT模型进行编码,查询内容为文档中的每一个句子;
编码的查询内容通过BERT模型进行对应的隐向量表示学习;
提取代表查询内容的所述隐向量特征,用以针对询问是否是作为摘要的查询对象特征向量表示。
步骤五所述模型训练后封装,通过接口输出抽取式摘要步骤包括:
设置针对句子分类的损失函数;
参数调优,将训练好的模型实现装置的接口封装,用于对于真实数据的抽取式摘要的生成。
一种基于查询机制的抽取式文档摘要自动生成装置,包括:
信息输入模块,用于输入源文本;
抽取式文档摘要自动生成模块,应用上述基于查询机制的抽取式文档摘要自动生成方法,对输入源文本进行摘要生成;
信息输出模块,将自动生成的摘要通过接口程序输出。
一种基于查询机制的抽取式文档摘要自动生成系统,包括:
至少一台服务器,以及与服务器连接的基于查询机制的抽取式文档摘要自动生成装置,所述服务器执行生成摘要过程时,通过所述基于查询机制的抽取式文档摘要自动生成装置,从信息输入模块得到源文本,并执行上述方法得到最终的与源文本对应的摘要。
本发明相对于现有技术的优点在于:
1、基于中文的语言模型,在词级别建模基础上提取句子级别的特征,通过计算句子集中句子的内在语义关系来计算句子的重要性,提取摘要句子。
由于算法中使用了BERT结构,使得在处理长文本的摘要时,通过自注意力的概率分布学习,比传统的基于文本排序的算法更能获得前后句之间的语义关系,使得得到的摘要句之间不仅每一个句子对于全文的重要度很高,而且整个摘要的整体性更好。
2、通过语言模型进行上下文语境理解的文本编码建模,结合抽取式方法从原文中抽取句子的思想,通过计算源文中句子是否能作为摘要句,而进行句子分类,采用查询机制的(Q&A)模型构建分类机制。问题部分在词级别独立于原文输入进BERT模型后,将经过自注意力训练的句子向量与原文的句子向量输入进二分类模型,判断其可以作为摘要的概率,最后实现摘要的生成。
附图说明
图1基于查询机制的抽取式文本摘要算法流程图;
图2基于查询机制的抽取式文本摘要模型图;
具体实施方式
以下是本发明的优选实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于此实施例。
本实施例使用抽取式方法,自动对输入的文本进行句子分析,分析出句子是否可以作为摘要句,然后将所有摘要句排序,输出最后提取出的摘要。
具体而言其实现方式为:选取文档中的句子作为Query句子,文档作为Document句子集,本发明提出一种查询机制式的摘要抽取方式,查询机制样本可描述为一个三元组:<D,Q,A>,其中D代表文档(document),Q代表查询(query),A则代表查询对象是摘要的分数(answer),由于是从原文本中抽取相关的句子作为摘要的结果,这里将得到原文中每句话的分数。整个算法流程图如图1所示。
步骤一:构建训练数据与数据预处理
(1)从训练语料中划分文档与查询内容,并分别对文档与查询内容进行数据预处理,首先对输入源文本数据预处理,得到源文本内容后,在每一个源文本内容每一个句子的前后分别加上[cls]与[eos]标签,其中[cls]标签主要是用于句子建模过程中学习对句子的编码信息,可以代表整个句子内容的语义,而[eos]主要用于学习源文本结束的语义。
(2)对源文本进行分词处理,将每一个分词的后句子的所有token用序列{[xs1-1],[xs1-2],…,[xs1-n]}。其中x表示词向量,s1-1表示第一句话第一个token。结合上诉步骤一的两个标签,整个源文本的句子表示的结构为{[cls1],[xs1-1],[xs1-2],…[cls2],[xs2-1],[xs2-2],…,[eos1]}的Source数据。
(3)其次对查询内容进行数据预处理,本发明的目的是实现一个基于查询机制的抽取式文本摘要技术,建模过程需要大量的真实样本,构建训练数据集包括:源文本与源文中每一个询问是否可以作为摘要的句子。在对原文本进行数据处理构建后,需要对以查询内容同时灌入模型中进行训练。因此对查询内容的结构处理为{[clsq],[q],[eosq]}。获得最初的训练语料。
步骤二:实现基于BERT预训练语言模型的文档与查询内容编码
首先,进行文档和查询的预处理的数据后,需要以各自的词向量进行输入,编码学习对应的特征隐状态向量。本发明借助BERT预训练语言模型具备预训练的外界信息的特征,以及BERT内部的Transformer结构对于上下文特征编码能力。在抽取式文本摘要的编码器,本发明采用基于预训练语言模型BERT对文档和查询内容进行特征编码,这部分实现主要是为了提取文档中每一个句子的表示以及查询内容的表示。具体步骤包括:
(1)如模型图2所示所示,基于本发明采用的BERT对文档内容进行编码,获取文档内容向量表示,采用xavier函数随机初始化词的向量表示,得到源文本句子编码向量。
sourceembedding=Xavier(content)
(2)文档中的词所得句子编码向量通过BERT进行对应的隐状态向量表示学习。
T=BERT(sourceembedding)
(3)提取代表句子的隐状态向量特征表示Tcls,Tcls分别可以代表句子的整体特征。具体而言,该步骤即提取句子[clsi]标签对应的隐状态向量。
Tcls=GetCls(T)
步骤三:实现基于BERT的查询内容的词编码
查询内容为文档中的每一个句子,通过句子与文档进行语义关系建模,判断该句子是否是生成的摘要。而建模的前提也需要对查询内容进行编码输入模型,同样采用基于BERT去编码实现,通文档的编码一致,包括:
(1)对查询内容使用BERT进行编码。
queryembedding=Xavier(query)
(2)编码的查询内容通过BERT进行对应的隐状态向量表示学习。Tq-w表示查询内容的所有的词表示:
Tq-w=BERT(queryembedding)
(3)提取代表查询内容的隐状态向量特征表示Tq,Tq代表句子的整体特征,用以针对询问是否是作为摘要的查询对象特征向量表示。具体而言,该步骤即提取句子[clsq]标签对应的隐状态向量。
Tq=GetCls(Tq-w)
步骤四:基于句子级别的Hierarchical结构实现查询内容与文档关系语义建模
Hierarchical结构体现在对句子级别的编码中学习查询内容与文档的关系语义,主要是用(2)(3)分别提出的文档中所有代表句子的标签的隐状态向量Tcls与代表查询内容句子的标签的隐状态向量表示Tq,通过Tq对Tcls进行语义关系建模,得到最后的查询向量上层隐状态表示:T′q,该向量用于最后的分类任务,即判定它是还是不是要抽取的摘要的句子。最后选取三个句子作为摘要的组成内容。具体而言:
(1)将(2)中文档的所有代表句子的隐状态向量和(3)得到的代表查询句子的隐状态向量作为输入到Transformer语义关系编码器中学习查询内容与句子的关系建模。得到句子级别的隐状态向量表示K为:
K=Transformer(Tcls,Tq)
(2)得到查询向量上层隐状态表示:T′q,
T′q=Get(K)
(3)T′q作为分类的目标,设计分类函数得到该句子的是目标摘要句子的概率。其概率函数为:
P(yx|x)=softmax(WgT′q+bg)
其中,Wg与bg表示摘要抽取的概率计算中需要模型学习的参数。得到概率后,选择概率分布中概率最高的句子作为抽取的摘要的对象。
综上,本发明设计了一种基于分类任务的查询机制用以抽取式文本摘要建模,包括BERT对文档与查询内容进行特征编码;用Tcls,与Tq标签代表整个原文句子,与查询内容的整体语义;基于句子级别的Hierarchical结构实现查询内容与文档关系语义建模;分类器判定句子是否为抽取的对象。
步骤五:训练数据并根据交叉验证调优,并实现模型封装与装置的接口实现。
(1)设置针对句子分类的loss函数。采用cross entropy loss为:
其中,yt表示模型训练过程中需要生成的真实的文本。P(yt|x)表示句子判定为应该被抽取的应该被抽取的句子的概率分布,由(4)中的步骤四的概率函数求得。
(2)参数调优后,将训练好的模型实现接口封装,用于装置对于真实数据的抽取式摘要。
本发明相对于现有技术的优点在于:
本实施例方法使用了BERT结构,使得在处理长文本的摘要时,通过自注意力的概率分布学习,比传统的基于text rank的算法更能获得前后句之间的语义关系,使得得到的摘要句之间不仅每一个句子在全文的重要度很高,而且整个摘要的整体性更好。比如文章中出现了两个重要度都很高的句子,但是他们之间的语义相似度很高,那么该算法就可以学习到这个相关的特征,并自动降低其中一个句子的摘要概率。
采用查询机制的(Q&A)模型构建分类机制。问题部分在词级别独立于原文输入进BERT模型后,将经过自注意力训练的句子向量与原文的句子向量输入进二分类模型,判断其可以作为摘要的概率。这样也可以接受除了原文外的句子输入进模型进行训练,增加训练样本数量,可以更好的训练模型参数。
Claims (4)
1.一种基于查询机制的抽取式文档摘要自动生成方法,其特征在于:
步骤一:构建训练数据与数据预处理;
步骤二:基于BERT模型预训练语言模型进行语义编码;
步骤三:基于BERT模型的查询内容进行语义编码;
步骤四:建立基于句子级别的Hierarchical结构的层级结构模型,实现查询内容与文档关系语义建模;
步骤五:模型训练后封装,通过接口输出抽取式摘要;
所述构建训练数据与数据预处理步骤包括:
获取输入源文本;
对输入源文本数据预处理,先进行源文本的分词,并在每一个源文本分词后的词序列前后分别添加表示开始与结束的标签,具体而言,在每一个源文本内容每一个句子的前后分别加上[cls]与[eos]标签,其中[cls]标签用于句子建模过程中学习对句子的编码信息,代表整个句子内容的语义,而[eos]用于学习源文本结束的语义,所述分词方式为,x表示词向量,“s1-1”表示第一句话第一个token,结合前面的两个标签,整个源文本的句子表示的结构为{[cls1],[xs1-1],[xs1-2],…[cls2],[xs2-1],[xs2-2],…,[eos]}的Source数据,整个序列作为输入模型的源文本序列;
对查询文本进行数据预处理,进行分词后,在查询内容的词序的前后加上开始与结束标签,整个序列作为输入模型的查询序列;
预处理好的源文本序列与查询文本序列,作为模型需要输入的数据,通过划分数据集,以训练集、验证集、测试集为8:1:1的比例,划分最后数据;
所述基于BERT模型预训练语言模型进行文档与查询内容编码步骤包括:
采用xavier函数随机初始化词的向量表示,得到源文本句子编码向量;
将所述源文本句子编码向量通过BERT模型进行对应的隐向量表示学习;
从学习结果中提取所述句子头部所述标签作为代表该句子的隐向量特征;
所述基于BERT模型的查询内容进行词编码步骤包括:
对查询内容使用BERT模型进行编码,查询内容为文档中的每一个句子,通过句子与文档进行语义关系建模,判断该句子是否是生成的摘要,而建模的前提也需要对查询内容进行编码输入模型,同样采用基于BERT去编码实现,通文档的编码一致,包括:
步骤(1)对查询内容使用BERT进行编码;
queryembedding=Xavier(query);
步骤(2)编码的查询内容通过BERT进行对应的隐状态向量表示学习,Tq-w表示查询内容的所有的词表示:
Tq-w=BERT(queryembedding)
步骤(3)提取代表查询内容的所述隐向量特征表示Tq,Tq代表句子的整体特征,用以针对询问是否是作为摘要的查询对象特征向量表示,具体而言,该步骤即提取句子[clsq]标签对应的隐状态向量;
Tq=GetCls(Tq-w);
所述建立基于句子级别的Hierarchical结构的层级结构模型步骤包括:
将所述基于BERT模型预训练得到的源文句子和查询句子标签对应的隐向量输入进Transformer语义关系编码器中,进行句子级别的关系建模,并得到查询向量上层隐状态向量表示;
设计分类函数,通过摘要抽取的概率计算中需要模型学习的参数,将其带入softmax函数模型后,得到该句子的是目标摘要句子的概率,得到概率后,选择概率分布中概率最高的句子作为抽取的摘要的对象;
具体而言,所述Hierarchical结构体现在对句子级别的编码中学习查询内容与文档的关系语义,用所述步骤(2)、所述步骤(3)分别提出的文档中所有代表句子的标签的隐状态向量Tcls与代表查询内容句子的标签的隐状态向量表示Tq,通过Tq对Tcls进行语义关系建模,得到最后的查询向量上层隐状态表示:T'q,该向量用于最后的分类任务,即判定它是还是不是要抽取的摘要的句子,最后选取三个句子作为摘要的组成内容,具体而言:
首先将所述步骤(2)中文档的所有代表句子的隐状态向量和所述步骤(3)得到的代表查询句子的隐状态向量作为输入到Transformer语义关系编码器中学习查询内容与句子的关系建模,得到句子级别的隐状态向量表示K为:
K=Transformer(Tcls,Tq)
之后得到查询向量上层隐状态表示:T'q,
T′q=Get(K)
最后T'q作为分类的目标,设计分类函数得到该句子的是目标摘要句子的概率,其概率函数为:
P(tx|x)=softmax(WgT′q+bg)
其中,Wg与bg表示摘要抽取的概率计算中需要模型学习的参数,得到概率后,选择概率分布中概率最高的句子作为抽取的摘要的对象。
2.根据权利要求1所述的一种基于查询机制的抽取式文档摘要自动生成方法,其特征在于:所述模型训练后封装,通过接口输出抽取式摘要步骤包括:
设置针对句子分类的损失函数;
参数调优,将训练好的模型实现装置的接口封装,用于对于真实数据的抽取式摘要的生成。
3.一种基于查询机制的抽取式文档摘要自动生成装置,其特征在于:包括:
信息输入模块,用于输入源文本;
抽取式文档摘要自动生成模块,应用权利要求1-2中任一所述基于查询机制的抽取式文档摘要自动生成方法,对输入源文本进行摘要生成;
信息输出模块,将自动生成的摘要通过接口程序输出。
4.一种基于查询机制的抽取式文档摘要自动生成系统,其特征在于:
至少一台服务器,以及与服务器连接的基于查询机制的抽取式文档摘要自动生成装置,所述服务器执行生成摘要过程时,通过所述基于查询机制的抽取式文档摘要自动生成装置,从数据输入模块得到源文本,并执行权利要求1-2之一方法得到最终的与源文本对应的摘要。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911396046.9A CN111177366B (zh) | 2019-12-30 | 2019-12-30 | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911396046.9A CN111177366B (zh) | 2019-12-30 | 2019-12-30 | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111177366A CN111177366A (zh) | 2020-05-19 |
CN111177366B true CN111177366B (zh) | 2023-06-27 |
Family
ID=70647402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911396046.9A Active CN111177366B (zh) | 2019-12-30 | 2019-12-30 | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111177366B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723196B (zh) * | 2020-05-21 | 2023-03-24 | 西北工业大学 | 基于多任务学习的单文档摘要生成模型构建方法及装置 |
CN111666350B (zh) * | 2020-05-28 | 2022-10-28 | 浙江工业大学 | 一种基于bert模型的医疗文本关系抽取的方法 |
CN112364146A (zh) * | 2020-11-27 | 2021-02-12 | 支付宝(杭州)信息技术有限公司 | 查询文档排序方法、装置及电子设备 |
CN112464657B (zh) * | 2020-12-07 | 2022-07-08 | 上海交通大学 | 混合式文本摘要生成方法、系统、终端及存储介质 |
CN112732864B (zh) * | 2020-12-25 | 2021-11-09 | 中国科学院软件研究所 | 一种基于稠密伪查询向量表示的文档检索方法 |
CN113157914B (zh) * | 2021-02-04 | 2022-06-14 | 福州大学 | 一种基于多层循环神经网络的文档摘要提取方法及系统 |
CN112784585A (zh) * | 2021-02-07 | 2021-05-11 | 新华智云科技有限公司 | 金融公告的摘要提取方法与摘要提取终端 |
CN113010674B (zh) * | 2021-03-11 | 2023-12-22 | 平安创科科技(北京)有限公司 | 文本分类模型封装方法、文本分类方法及相关设备 |
CN113158665B (zh) * | 2021-04-02 | 2022-12-09 | 西安交通大学 | 一种基于文本摘要生成与双向语料改善对话文本生成的方法 |
CN113326866B (zh) * | 2021-04-16 | 2022-05-31 | 山西大学 | 一种融合语义场景的摘要自动生成方法及系统 |
CN113312452B (zh) * | 2021-06-16 | 2022-05-27 | 哈尔滨工业大学 | 基于多任务学习的篇章级文本连贯性分类方法 |
CN113806548A (zh) * | 2021-11-19 | 2021-12-17 | 北京北大软件工程股份有限公司 | 基于深度学习模型的信访要素抽取方法及抽取系统 |
CN114117453B (zh) * | 2021-12-08 | 2022-08-12 | 深圳市辰星瑞腾科技有限公司 | 基于数据深度关联的计算机防御系统以及防御方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280112B (zh) * | 2017-06-22 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 摘要生成方法、装置及计算机设备 |
CN109977220B (zh) * | 2019-04-09 | 2024-01-30 | 中通服公众信息产业股份有限公司 | 一种基于关键句和关键字的反向生成摘要的方法 |
-
2019
- 2019-12-30 CN CN201911396046.9A patent/CN111177366B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111177366A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111177366B (zh) | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 | |
CN110781290A (zh) | 一种长篇章结构化文本摘要提取方法 | |
CN111325571B (zh) | 一种多任务学习的商品评论标签自动生成方法、装置及系统 | |
CN110795549B (zh) | 短文本对话方法、装置、设备及存储介质 | |
CN110874411A (zh) | 一种基于注意力机制融合的跨领域情感分类系统 | |
CN114218379B (zh) | 一种面向智能问答系统的无法回答问题的归因方法 | |
CN115982350A (zh) | 基于多模态Transformer的虚假新闻检测方法 | |
CN115098634B (zh) | 一种基于语义依存关系融合特征的舆情文本情感分析方法 | |
CN113723105A (zh) | 语义特征提取模型的训练方法、装置、设备及存储介质 | |
CN112183058A (zh) | 基于bert句子向量输入的诗词生成方法及装置 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN113705315A (zh) | 视频处理方法、装置、设备及存储介质 | |
CN114218936A (zh) | 一种媒体领域的优质评论自动生成算法 | |
CN111950281B (zh) | 一种基于深度学习和上下文语义的需求实体共指检测方法和装置 | |
CN117875395A (zh) | 多模态预训练模型的训练方法、装置及存储介质 | |
CN112084788A (zh) | 一种影像字幕隐式情感倾向自动标注方法及系统 | |
CN112949284A (zh) | 一种基于Transformer模型的文本语义相似度预测方法 | |
CN112131879A (zh) | 一种关系抽取系统、方法和装置 | |
WO2023159759A1 (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN116029303A (zh) | 语言表达方式识别方法、装置、电子设备和存储介质 | |
CN115759102A (zh) | 一种中国诗酒文化命名实体识别方法 | |
CN114358006A (zh) | 基于知识图谱的文本内容摘要生成方法 | |
CN114298032A (zh) | 文本标点检测方法、计算机设备及存储介质 | |
CN114996407B (zh) | 基于包重构的远程监督关系抽取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |