CN110619043A - 基于动态词向量的自动文本摘要生成方法 - Google Patents

基于动态词向量的自动文本摘要生成方法 Download PDF

Info

Publication number
CN110619043A
CN110619043A CN201910810862.3A CN201910810862A CN110619043A CN 110619043 A CN110619043 A CN 110619043A CN 201910810862 A CN201910810862 A CN 201910810862A CN 110619043 A CN110619043 A CN 110619043A
Authority
CN
China
Prior art keywords
vector
text
word
sentence
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910810862.3A
Other languages
English (en)
Inventor
王侃
曹开臣
刘万里
徐畅
潘袁湘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 10 Research Institute
Southwest Electronic Technology Institute No 10 Institute of Cetc
Original Assignee
Southwest Electronic Technology Institute No 10 Institute of Cetc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Electronic Technology Institute No 10 Institute of Cetc filed Critical Southwest Electronic Technology Institute No 10 Institute of Cetc
Priority to CN201910810862.3A priority Critical patent/CN110619043A/zh
Publication of CN110619043A publication Critical patent/CN110619043A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开的一种基于动态词向量的自动文本摘要生成方法,旨在提供一种准确性和流畅度更高的文本摘要自动生成方法。本发明通过下述技术方案予以实现:首先通过文本预处理模块对文本进行预处理,预处理包括分词操作、高频词过滤与词性标注,将处理后的文本生成初始词向量;紧接着将初始词向量输入ELMo模型模块,生成初步动态词向量;同时将文本输入Doc2Vec句向量模块得到每个句子的句向量,句向量输入自注意力机制模块计算出相对摘要结果的重要性权重以生成加权句向量,将加权句向量作为各个词的环境特征向量,环境特征向量与初始动态词向量相加得到最终的动态词向量,动态词向量输入Transformer神经网络模型生成高质量的文本摘要。

Description

基于动态词向量的自动文本摘要生成方法
技术领域
本发明属于自然语言处理技术领域,具体涉及自动生成文本摘要的深度神经网络算法。
背景技术
随着近年来互联网的飞速发展与广泛普及,信息数据量呈指数级爆发式增长,信息过载问题日益显现。人们每天需要面对并处理海量的文本信息,如何高效地从大量文本信息中获取重要关键内容,文本摘要自动生成已成为迫切的需求。文本摘要充斥着我们生活的方方面面,新闻关键词的提炼是文本摘要,谷歌、百度等搜索引擎的结果优化也要用到文本摘要。文本摘要自动生成是目前提取文本主旨信息的一个较为高效的方法。该方法通过机器自动输出简洁、流畅、保留原文本关键信息的摘要。目前主流的文本摘要自动生成有两种方式,一种是抽取式,另一种是生成式。顾名思义,抽取式摘要是寻找原文中最接近中心思想的几个句子,通过提取文本中已存在的关键词与短语,重新拼接成一小段摘要,而不对原本的内容做创造性的修改。而生成式摘要则运用自然语言处理的算法,在理解整篇文章意思的基础上,通过转述、同义替换、语句缩写等方法,按自己的话生成简明扼要且流畅的翻译。
抽取式摘要目前已相对成熟,但抽取质量及内容流畅度均差强人意。近几年来快速发展的深度神经网络因其强大的表征能力,为构建优秀的生成式摘要模型提供了可能性,不少生成式神经网络模型在公开测试集上已经超越了最好的抽取式模型,但目前也受文本长度过长、抽取内容不佳等问题的限制。传统的循环神经网络(RNN)非常适用于文本序列建模,但由于不能并行计算而使得训练非常耗时,同时多步骤的循环递归存在梯度消失、爆炸、语义丢失等长期依赖问题,导致文本摘要的生成质量和效率不高;针对此缺陷,Facebook AI实验室基于卷积神经网络(CNN)提出了更为高效的ConvS2S模型,但CNN存在不能直接处理变长文本序列的问题;谷歌团队则彻底抛弃传统的CNN和RNN,完全基于注意力机制提出了Transformer模型,既改善了RNN难以并行及长期依赖的缺陷,更解决了CNN难以处理变长序列样本的问题。
除了网络结构,作为网络模型的输入端,词通常被映射为连续的一维向量,这使得词与词之间的相似度可以在向量空间度量。在以往的深度学习模型中,文本词向量随模型训练而得到固定的数学表达。但是,同一个词在不同的语言环境里,往往会具有不同的词性或语义,特别是多义词表现得尤其明显。在现有技术中,ELMo语言模型可用于动态词向量的预训练。它由深层双向LSTM模块堆叠构成,通过词序列前后语义预测当前词,可对句法语义进行动态建模,每个LSTM层都会输出基于当前文本的一个向量表达,使得同一个词在不同上下文里具有不同的向量表示。因此,上下文语境相关的动态词向量,亦可用于提升自动文本摘要的质量。
发明内容
本发明目的在于:针对词向量难以充分感知上下文语境相关的语义特征,利用基于注意力机制的Transformer模型,并结合语言层先验知识与ELMo动态词向量,提供一种准确性和流畅度更高的文本摘要自动生成方法。
本发明的上述目的可以通过以下措施来实现:首先通过文本预处理模块对文本进行预处理,预处理包括分词操作、高频词过滤与词性标注,将处理后的文本生成初始词向量;紧接着将初始词向量输入ELMo模型模块,生成初步动态词向量;同时将文本输入Doc2Vec句向量模块得到每个句子的句向量,紧接着将句向量输入自注意力机制模块,计算出各句子对摘要结果的重要性权重以生成加权句向量,将加权句向量作为各个词的环境特征向量;然后将此环境特征向量与初始动态词向量相加,得到最终的动态词向量,将此动态词向量输入Transformer神经网络模型,生成高质量的文本摘要。
本发明的有益效果是:相比基于RNN的GRU-Context模型与基于CNN的RAS-Elman模型,本发明所提出的基于Transformer框架的动态词向量模型,在公开数据集LCSTS上的评测指标Rouge值更高,表明所生成的文本摘要的准确性和流畅度更高。评测对比如表1所示。
表1模型评测对照表
附图说明
图1是本发明“基于动态词向量的自动文本摘要生成方法”的动态文本词向量计算结构示意图;
图2是整个Transformer算法模型结构示意图。
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步的详细描述。
具体实施方式
参阅图1。根据本发明,首先通过文本预处理模块对文本进行预处理,包括分词操作、高频词过滤与词性标注,将处理后的文本生成初始词向量;紧接着将初始词向量输入ELMo模型模块,生成初步动态词向量;同时将文本输入Doc2Vec句向量模块得到每个句子的句向量,紧接着将句向量输入自注意力机制模块,计算出各句子对摘要结果的重要性权重以生成加权句向量,将加权句向量作为各个词的环境特征向量;然后将此环境特征向量与初始动态词向量相加,得到最终的动态词向量,将此动态词向量输入Transformer神经网络模型,生成高质量的文本摘要。
步骤1:在进行文本摘要生成之前,对文本进行预处理。通过图1中的“文本预处理”模块,引入语言层先验知识对文本进行预处理操作。一是首先使用结巴分词工具对中文文本进行分词处理,接着过滤掉类似于“的”、“是”、“一个”这类没有太多意义的高频词,然后对分词后的文本以句子为单位进行合并。二是本发明引入了语言层的先验知识,旨在优化自动文摘模型的训练过程,以期减少训练集的数据量和加快模型收敛速度。具体实施为使用pyltp工具对分词后的每个单词标注出正确的词性,如名词、动词、副词、形容词,识别出文本中有意义的实体,例如人名、地名、组织机构名。最终将预处理后的文本文件生成初始词向量。
步骤2:通过图1中的ELMo模型模块生成初步动态词向量。预处理后的初始词向量分别输入到ELMo的前向和后向语言模型,将前后两个方向的输出拼接得到初始文本的256维动态词向量表达。
步骤3:通过图1中的Doc2Vec句向量模块成文本句向量。为了更好地表征各输入文本句子之间的关联性,本发明在词向量基础上引入本词当句的句向量。Doc2Vec句向量模块利用LCSTS数据集里的样本句构成训练集,利用Doc2Vec无监督算法来训练输入文本每句的句向量,经过训练后句向量维度为256。
步骤4:通过图1中的自注意力机制模块与矩阵相加模块,生成最终的动态词向量。自注意力机制模块结合自注意力机制计算各句子对摘要结果的重要性权重,其计算公式为
其中,Q(Query)、K(Key)、V(Value)是同一个句向量由3个不同的权值矩阵WQ、WK、WV线性映射得到,T表示矩阵共轭,dk表示向量维度大小。由于Q、K、V来源相同,所以称为自注意力。为了防止Q向量与K向量内积过大引起梯度消失,有时会将内积除以向量维度大小的平方根。对缩放内积施以Softmax激活函数后点乘V向量,得到加权后的每个加权句向量。将其作为各个词的环境特征向量并与ELMo初步动态词向量相加,得到最终输入Transformer框架的动态词向量。
步骤5:参阅图2。动态词向量输入到Transformer模型框架中,最终输出文本摘要。该Transformer模型包括编码和解码两个阶段,每个阶段都仅由注意力网络层和前馈网络层组成。注意力网络层利用注意力机制对关联性进行编码,前馈网络层包含两个全连接层,中间利用Relu激活函数加快训练速度。同时,每层之间都具有形如残差网络的捷径(Shortcut)结构,增加网络深度的同时保证了训练精度,并对每层作归一化操作将中间输出正则化,以解决深度学习中的退化问题。
编码阶段,输入Transformer模型框架的动态词向量经过多头自注意力层之后得到多个加权输出,多头输出拼接形成更大的矩阵作为紧接着的前馈网络层的输入。多头自注意力层有多组WQ/K/V权重矩阵,每一组都随机初始化,经过训练后可提取文本不同维度的特征。编码端总共栈式堆叠6次此计算过程,增加模型训练深度,使得模型对文本表征更充分,能够获取更全面的文本语义信息。最终,编码端输出固定长度的K向量和V向量到解码端。
解码阶段,解码端同样栈式堆叠6个结构相同的计算模块,每个计算模块比编码端中多了一个编码-解码多头注意力层,帮助解码端专注于输入句子与文本摘要之间的关联性。此注意力层中,Q向量来自于解码端的上一个输出,K向量和V向量来自于编码端的当前输出。由于Q、K、V来源不同,所以不再是自注意力。解码端在经过样本训练后,能够较为准确地将编码端输出的文本向量解码生成相应的变长文本摘要。
以上所述为本发明较佳实施例,应该注意的是上述实施例对本发明进行说明,然而本发明并不局限于此,并且本领域技术人员在脱离所附权利要求的范围情况下可设计出替换实施例。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (10)

1.一种基于动态词向量的自动文本摘要生成方法,其特征在于包括如下步骤:首先通过文本预处理模块对文本进行预处理,预处理包括分词操作、高频词过滤与词性标注,将处理后的文本生成初始词向量;紧接着将初始词向量输入ELMo模型模块,生成初步动态词向量;同时将文本输入Doc2Vec句向量模块得到每个句子的句向量,紧接着将句向量输入自注意力机制模块,计算出各句子对摘要结果的重要性权重并输出加权句向量,将加权句向量作为各个词的环境特征向量;然后将此环境特征向量与初始动态词向量相加,得到最终的动态词向量,将此动态词向量输入Transformer神经网络模型,生成高质量的文本摘要。
2.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:在文本摘要生成之前的预处理过程中,首先使用结巴分词工具对中文文本进行分词处理,接着过滤掉类似于“的”、“是”、“一个”这类没有太多意义的高频词,然后对分词后的文本以句子为单位进行合并;其次引入语言层的先验知识,标注出每个词的词性,旨在优化自动文摘模型的训练过程,以期减少训练集的数据量和加快模型收敛速度。
3.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:预处理后的初始词向量分别输入到ELMo模型模块的前向和后向语言模型,将前后两个方向的输出拼接得到初始文本的256维动态词向量表达。
4.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:Doc2Vec句向量模块在词向量基础上引入本词当句的句向量,利用LCSTS数据集里的样本句构成训练集,利用Doc2Vec无监督算法来训练输入文本每句的句向量,经过训练后句向量维度为256。
5.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:自注意力机制模块利用自注意力机制计算各句子对摘要结果的重要性权重,其计算公式为
其中,T表示矩阵共轭,dk表示向量维度大小,Q(Query)、K(Key)、V(Value)是同一个句向量由3个不同的权值矩阵WQ、WK、WV线性映射得到。
6.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:自注意力机制模块将加权后的加权句向量作为各个词的环境特征向量,并与ELMo初步动态词向量相加,得到最终输入Transformer模型的动态词向量。
7.如权利要求1所述的基于动态词向量的自动文本摘要生成方法,其特征在于:Transformer模型包括编码和解码两个阶段,每个阶段都仅由注意力网络层和前馈网络层组成;注意力网络层利用注意力机制对关联性进行编码,前馈网络层包含两个全连接层,中间利用Relu激活函数加快训练速度;同时,每层之间都具有形如残差网络的捷径(Shortcut)结构,增加网络深度的同时保证了训练精度,并对每层作归一化操作将中间输出正则化,以解决深度学习中的退化问题。
8.如权利要求7所述的基于动态词向量的自动文本摘要生成方法,其特征在于:编码阶段,输入Transformer模型框架的动态词向量经过多头自注意力层得到多个加权输出,将多头输出拼接形成大的矩阵作为紧接着的前馈网络层的输入;编码端总共栈式堆叠6次此计算过程,最终输出固定长度的K向量和V向量到解码。
9.如权利要求7所述的基于动态词向量的自动文本摘要生成方法,其特征在于:解码阶段,解码端同样栈式堆叠6个计算模块,每个计算模块比编码端中多了一个编码-解码多头注意力层,此注意力层中,Q向量来自于解码端的上一个输出,K向量和V向量来自于编码端的当前输出。
10.如权利要求9所述的基于动态词向量的自动文本摘要生成方法,其特征在于:解码端在经过样本训练后,将编码端输出的文本向量解码生成相应的变长文本摘要。
CN201910810862.3A 2019-08-30 2019-08-30 基于动态词向量的自动文本摘要生成方法 Pending CN110619043A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910810862.3A CN110619043A (zh) 2019-08-30 2019-08-30 基于动态词向量的自动文本摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910810862.3A CN110619043A (zh) 2019-08-30 2019-08-30 基于动态词向量的自动文本摘要生成方法

Publications (1)

Publication Number Publication Date
CN110619043A true CN110619043A (zh) 2019-12-27

Family

ID=68922730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910810862.3A Pending CN110619043A (zh) 2019-08-30 2019-08-30 基于动态词向量的自动文本摘要生成方法

Country Status (1)

Country Link
CN (1) CN110619043A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291534A (zh) * 2020-02-03 2020-06-16 苏州科技大学 面向中文长文本自动摘要的全局编码方法
CN111709230A (zh) * 2020-04-30 2020-09-25 昆明理工大学 基于词性软模板注意力机制的短文本自动摘要方法
CN111966820A (zh) * 2020-07-21 2020-11-20 西北工业大学 一种生成式摘要模型构建、提取生成式摘要方法及系统
CN112069309A (zh) * 2020-09-14 2020-12-11 腾讯科技(深圳)有限公司 信息获取方法、装置、计算机设备及存储介质
CN112257430A (zh) * 2020-03-27 2021-01-22 北京来也网络科技有限公司 结合rpa和ai的语句处理方法、电子设备和存储介质
CN112906385A (zh) * 2021-05-06 2021-06-04 平安科技(深圳)有限公司 文本摘要生成方法、计算机设备及存储介质
CN113127631A (zh) * 2021-04-23 2021-07-16 重庆邮电大学 基于多头自注意力机制和指针网络的文本摘要方法
CN113627266A (zh) * 2021-07-15 2021-11-09 武汉大学 基于Transformer时空建模的视频行人重识别方法
CN113936256A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 一种图像目标检测方法、装置、设备以及存储介质
CN114547287A (zh) * 2021-11-18 2022-05-27 电子科技大学 一种生成式文本摘要方法
CN114648024A (zh) * 2022-04-02 2022-06-21 昆明理工大学 基于多类型词信息引导的汉越跨语言摘要生成方法
CN115169227A (zh) * 2022-07-04 2022-10-11 四川大学 设计概念生成网络构建方法及概念方案自动生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919646A (zh) * 2017-01-18 2017-07-04 南京云思创智信息科技有限公司 中文文本摘要生成系统及方法
CN109885673A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种基于预训练语言模型的自动文本摘要方法
CN110008311A (zh) * 2019-04-04 2019-07-12 北京邮电大学 一种基于语义分析的产品信息安全风险监测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919646A (zh) * 2017-01-18 2017-07-04 南京云思创智信息科技有限公司 中文文本摘要生成系统及方法
CN109885673A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种基于预训练语言模型的自动文本摘要方法
CN110008311A (zh) * 2019-04-04 2019-07-12 北京邮电大学 一种基于语义分析的产品信息安全风险监测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王侃 等: "基于改进Transformer模型的文本摘要生成方法", 《HTTPS://KNS.CNKI.NET/KCMS/DETAIL/51.1267.TN.20190729.1340.002.HTML》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291534A (zh) * 2020-02-03 2020-06-16 苏州科技大学 面向中文长文本自动摘要的全局编码方法
CN112257430A (zh) * 2020-03-27 2021-01-22 北京来也网络科技有限公司 结合rpa和ai的语句处理方法、电子设备和存储介质
CN111709230A (zh) * 2020-04-30 2020-09-25 昆明理工大学 基于词性软模板注意力机制的短文本自动摘要方法
CN111966820B (zh) * 2020-07-21 2023-03-24 西北工业大学 一种生成式摘要模型构建、提取生成式摘要方法及系统
CN111966820A (zh) * 2020-07-21 2020-11-20 西北工业大学 一种生成式摘要模型构建、提取生成式摘要方法及系统
CN112069309A (zh) * 2020-09-14 2020-12-11 腾讯科技(深圳)有限公司 信息获取方法、装置、计算机设备及存储介质
CN112069309B (zh) * 2020-09-14 2024-03-15 腾讯科技(深圳)有限公司 信息获取方法、装置、计算机设备及存储介质
CN113127631A (zh) * 2021-04-23 2021-07-16 重庆邮电大学 基于多头自注意力机制和指针网络的文本摘要方法
CN113127631B (zh) * 2021-04-23 2022-07-01 重庆邮电大学 基于多头自注意力机制和指针网络的文本摘要方法
CN112906385A (zh) * 2021-05-06 2021-06-04 平安科技(深圳)有限公司 文本摘要生成方法、计算机设备及存储介质
CN113627266A (zh) * 2021-07-15 2021-11-09 武汉大学 基于Transformer时空建模的视频行人重识别方法
CN113627266B (zh) * 2021-07-15 2023-08-18 武汉大学 基于Transformer时空建模的视频行人重识别方法
CN113936256A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 一种图像目标检测方法、装置、设备以及存储介质
CN114547287B (zh) * 2021-11-18 2023-04-07 电子科技大学 一种生成式文本摘要方法
CN114547287A (zh) * 2021-11-18 2022-05-27 电子科技大学 一种生成式文本摘要方法
CN114648024A (zh) * 2022-04-02 2022-06-21 昆明理工大学 基于多类型词信息引导的汉越跨语言摘要生成方法
CN115169227A (zh) * 2022-07-04 2022-10-11 四川大学 设计概念生成网络构建方法及概念方案自动生成方法

Similar Documents

Publication Publication Date Title
CN110619043A (zh) 基于动态词向量的自动文本摘要生成方法
CN108519890B (zh) 一种基于自注意力机制的鲁棒性代码摘要生成方法
CN111061862B (zh) 一种基于注意力机制生成摘要的方法
CN112765345A (zh) 一种融合预训练模型的文本摘要自动生成方法及系统
CN109992775B (zh) 一种基于高级语义的文本摘要生成方法
CN112749253B (zh) 一种基于文本关系图的多文本摘要生成方法
CN113971394B (zh) 文本复述改写系统
CN115495555A (zh) 一种基于深度学习的文献检索方法和系统
CN110717341A (zh) 一种以泰语为枢轴的老-汉双语语料库构建方法及装置
CN112528653B (zh) 短文本实体识别方法和系统
CN115759119B (zh) 一种金融文本情感分析方法、系统、介质和设备
CN114662476A (zh) 一种融合词典与字符特征的字符序列识别方法
CN112417138A (zh) 一种结合指针生成式与自注意力机制的短文本自动摘要方法
CN113407711A (zh) 一种利用预训练模型的吉布斯受限文本摘要生成方法
Chen et al. Chinese Weibo sentiment analysis based on character embedding with dual-channel convolutional neural network
CN111553157A (zh) 一种基于实体替换的对话意图识别方法
CN114218921A (zh) 一种优化bert的问题语义匹配方法
CN110717316A (zh) 字幕对话流的主题分割方法及装置
CN115630140A (zh) 一种基于文本特征融合的英语阅读材料难度判断的方法
CN115186671A (zh) 一种基于外延的将名词短语映射到描述逻辑概念的方法
CN114443829A (zh) 一种基于关键句组、新闻原文的新闻评论过滤方法及系统
CN113157855A (zh) 一种融合语义与上下文信息的文本摘要方法及系统
CN117035064B (zh) 一种检索增强语言模型的联合训练方法及存储介质
Zeng et al. Unsupervised extractive summarization based on context information
Dinarelli et al. Concept segmentation and labeling for conversational speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191227

WD01 Invention patent application deemed withdrawn after publication