CN114139497A - 一种基于bertsum模型的文本摘要提取方法 - Google Patents
一种基于bertsum模型的文本摘要提取方法 Download PDFInfo
- Publication number
- CN114139497A CN114139497A CN202111519931.9A CN202111519931A CN114139497A CN 114139497 A CN114139497 A CN 114139497A CN 202111519931 A CN202111519931 A CN 202111519931A CN 114139497 A CN114139497 A CN 114139497A
- Authority
- CN
- China
- Prior art keywords
- model
- text
- bertsum
- abstract
- bert
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000006872 improvement Effects 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000007620 mathematical function Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于文本摘要提取技术领域,尤其为一种基于BERTSUM模型的文本摘要提取方法先对需要提取摘要的文本进行预处理,然后将预处理后的数据输入改进的BERT模型进行处理,判断出应该出现在摘要中的句子,BERT模型的改进过程中,在BERT模型原本的损失函数中增加一个余弦相似度损失,避免了数据处理中过度拟合,使得获得的摘要更加准确;另外,通过加入余弦相似性约束,使得BERT模型在训练早期,获得的结果的损失能够更快的下降,提高数据处理的速度;BERT模型的改进方面还包括加入融合指针网络的UniLM模型,通过融合指针网络的UniLM模型对文本下游生成任务进行微调,提前获取文本中的关键信息词,提高文本摘要的获得速度。
Description
技术领域
本发明属于文本摘要提取技术领域,具体涉及一种基于BERTSUM模型的文本摘要提取方法。
背景技术
随着我国新一代5G通信技术的快速发展,用户的信息数据已经呈指数级的增长,如何从海量的日常生活信息中快速有效地提取出用户需要的有用信息,已成为当下亟待解决的问题。
文本自动摘要技术是指在保证保留原文关键信息的情况下,快速地精简源文本,并根据其主要内容来生成短文本摘要,为人们快速获取信息提供了很大的便利。
文本摘要技术按照摘要的实现方式可分为抽取型摘要和生成型摘要,抽取式摘要方法主要通过对原文中的词句进行排序组合,抽取出能够代表原文主要信息的短语、句子以形成摘要,BERTSUM模型属于抽取型获取摘要的模型。
使用现有的BERTSUM模型,在小数据集的抽取摘要任务中,容易出现过拟合的现象,导致得到的结果并不稳定,也就是多次处理获得的摘要不一致,为此,有必要对现有的BERTSUM模型进行改进,以提高文本提取摘要的稳定性和提取的摘要的质量。
发明内容
本发明旨在提供一种基于BERTSUM模型的文本摘要提取方法,解决现有技术中通过BERTSUM模型提取文本摘要稳定性和质量不高的技术问题。
为解决上述技术问题,本发明采用以下技术方案:
提供一种基于BERTSUM模型的文本摘要提取方法,包括:
(1)对需要提取摘要的文本进行预处理:在文本中插入标签,插入的标签包括[CLS]标签和[SEP]标签,[CLS]标签用于放在文本中每个句子的首位,[SEP]标签用于分开两个文本中相邻的句子;
(2)将步骤(1)中预处理后的数据输入改进的BERT模型进行处理,判断出应该出现在摘要中的句子;
在所述步骤(2)中,所述改进的BERT模型的改进方面包括:对BERT模型的损失函数的改进,在BERT模型原本的损失函数中增加一个余弦相似度损失。
优选的,所述改进的BERT模型的改进方面还包括:加入融合指针网络的UniLM模型,通过融合指针网络的UniLM模型对输入的数据进行处理,从文本中直接复制关键信息词,降低数据处理工作量。
优选的,所述改进的BERT模型的改进方面还包括:在所述融合指针网络的UniLM模型中引入覆盖机制,以避免生成的词语发生重复。
优选的,所述损失函数改进后如下:
li=-wi[yi·logxi+(1-yi)·log(1-xi)]+αCSi1
式中,参数xi是BERT对应某句子中[CLS]标签的输出向量;
yi是第i句子的正确标签,该标签用于确定第i句子是否应该在摘要中;
α是损失函数中余弦相似性项权重的超参数;
li是第i个句子的损失值;
CSil表示余弦相似性。
优选的,所述融合指针网络的UniLM模型具体如下:
p(w)为t时刻预测的单词w的分布概率;
pgen为指针;
pvocab为指针网络模型;
t为时间;
αt是文本序列对解码器t时刻预测的单词的注意力分布权重;
i为第i个预测的句子;
w为第i个句子中的预测词;
若预测的单词w是未登录单词,则pvocab(w)为零。
优选的,参数αt通过解码器提取摘要获取的Q特征矩阵与编码器提取文本中得到的K、V特征矩阵计算而得,计算方式如下所示:
et=vT tanh(WQQt+WKKt+WvVt+battn)
αt=softmax(et)
式中,Q、K、V为特征矩阵;
W、battn为BERT模型的训练参数;
Softmax是一个数学函数,用于对0和1之间的值进行归一化;
通过覆盖机制对指针生成网络模型进行改进,能够有效减少生成摘要中的重复,向量ct公式如下:
式中,ct表示目前为止单词从注意力机制中获得的覆盖程度,使用覆盖向量ct影响注意力分布,重新得到注意力分布:
式中,W、battn为BERT模型的训练参数;
et i为第i句子的注意力分布值;
然后重新计算文本序列对解码器t时刻某预测的单词的注意力分布权重αt。
与现有技术相比,本发明的有益效果是:
1、本发明基于BERTSUM模型的文本摘要提取方法,在BERT模型的损失函数中加入了一个余弦相似性约束,避免了数据处理中过度拟合,使得获得的摘要更加准确。
2、通过加入余弦相似性约束,使得BERT模型在训练早期,获得的结果的损失能够更快的下降,提高数据处理的速度。
3、通过融合指针网络的UniLM模型对文本下游生成任务进行微调,提前获取文本中的关键信息词,提高文本摘要的获得速度。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1-(a)和图1-(b)分别为本发明基于BERTSUM模型的文本摘要提取方法一实施例中BERT模型的架构图与输出示意图。
图2为本发明基于BERTSUM模型的文本摘要提取方法一实施例中BERT模型处理过程中的文本结构示意图。
图3为本发明基于BERTSUM模型的文本摘要提取方法一实施例中BERT模型不同层之间输出组合的策略。
图4为本发明基于BERTSUM模型的文本摘要提取方法一实施例的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在描述本发明基于BERTSUM模型的文本摘要提取方法的具体实施例之前,有必要对BERTSUM模型进行说明:BERT模型是可以用于文本提取摘要的模型,BERTSUM模型是对BERT模型的改进。BERTSUM模型通过对文本抽取获取摘要,抽取式方法是对文本信息抽取文本摘要,即从原文本中选取关键词、关键句组成摘要。BERTSUM模型与BERT模型的区别在于,在BERTSUM模型中,在文本的每个句子之前均插入[CLS]标签,[CLS]标签是一个无明显语义信息的符号,用于代表整句话的语义;而在BERT模型中,无论文本中句子的数量是多少,在整个输入文本之前只插入一个[CLS]标签,因此,BERTSUM模型能够对整个文本提取摘要,而BERT模型适于对一个句子提取摘要。BERTSUM在对文本插入标签处理后,再通过BERT模型对标签处理后的文本进行处理。
本发明基于BERTSUM模型的文本摘要提取方法的具体实施例如下:
本发明基于BERTSUM模型的文本摘要提取方法,对BERTSUM模型进行改进,对BERTSUM模型的改进具体体现在以下几方面:
(1)对BERT模型损失函数的改进:在原本的损失函数中增加了一个余弦相似度损失。
损失函数是用于判断BERT模型输出的真实值与正确值之间的误差,损失函数在BERT模型中被定义为二值交叉熵损失。
BERT模型原来的损失函数为:
li=-wi[yi·logxi+(1-yi)·log(1-xi)] (1)
该损失函数的含义为本领域技术人员熟知,这里不再对其进行详细说明。
BERT模型迭代训练对输出结果校正过程中,在BERT模型训练的初始阶段,交叉熵损失值有一个快速的梯度下降,然后梯度下降变慢,同时,如果增加训练步数,BERT模型的预测精度迅速下降,因此,在原本的损失函数中增加了一个余弦相似度损失。
本发明使用Hermann的分割标准进改进后的损失函数如下:
li=-wi[yi·logxi+(1-yi)·log(1-xi)]+αCSi1 (2)
其中,公式(2)为BERT模型原本的损失函数,公式(3)为余弦相似度损失函数。
公式(2)、(3)中,参数xi是BERT对应某句子中[CLS]标签的输出向量;yi是第i句子的正确标签,该标签用于确定第i句子是否应该在摘要中;α是损失函数中余弦相似性项权重的超参数;li是第i个句子的损失值,CSil表示余弦相似性。
(2)BERT模型中解码器的改进为融合指针网络的UniLM模型的解码器。
融合指针网络模型的解码器,可以通过指针pgen选择从文本中直接复制关键信息词。
现有BERT模型中解码器解码时,每一个时刻t通过复制指针pgen控制预测的句子是从词表中生成还是从文本中复制,指针pgen计算方式如下所示:
式(4)含义为本领域技术人员熟知,这里不再对其进行详细说明。
本发明将BERT模型中解码器的改进为融合指针网络模型的解码器:
融合指针网络模型的解码器,可以通过指针pgen选择从文本中直接复制关键信息词,具体如下:计算词表的分布概率前,先将文本中的未登录词提取出来扩充到词表中构建新的词表,然后再计算t时刻预测的单词w的分布概率。计算方式如下所示:
p(w)为t时刻预测的单词w的分布概率;
pgen为指针;
pvocab为指针网络模型;
t为时间;
αt是文本序列对解码器t时刻预测的单词的注意力分布权重;
i为第i个预测的句子;
w为第i个句子中的预测词;
若预测的单词w是未登录单词,pvocab(w)则为零;
另外,因文本中可能存在多个wi都为预测的单词w的情况,因此,计算词表概率时需要将所有预测的单词w的注意力权重进行累加。
式(4)中,αt是文本序列对解码器t时刻预测的单词的注意力分布权重,通过解码器提取摘要获取的Q特征矩阵与编码器提取文本中得到的K、V特征矩阵计算而得。计算方式如下所示:
et=vTtanh(WQQt+WKKt+WvVt+battn)
αt=softmax(et) (6)
式中,Q、K、V为特征矩阵;W、battn为BERT模型的训练参数;Softmax是一个数学函数,用于对0和1之间的值进行归一化。
(3)为了解决生成词语重复的问题,引入覆盖机制,通过覆盖机制对指针生成网络模型进行改进,能够有效减少生成摘要中的重复,向量ct公式如下:
式中,αt是文本序列对解码器t时刻某预测的单词的注意力分布权重;
ct表示目前为止单词从注意力机制中获得的覆盖程度;
为了使得在计算能力有限的情况下,BERT模型将计算资源分配给更重要的任务,在BERT模型中引入注意力机制(Attention Mechanism)。
ct表示目前为止单词从注意力机制中获得的覆盖程度,使用覆盖向量ct影响注意力分布,重新得到注意力分布:
式中,W、battn为BERT模型的训练参数;et i为第i句子的注意力分布值;然后重新计算文本序列对解码器t时刻某预测的单词的注意力分布权重αt。
本实施例基于上述改进的BERTSUM模型进行文本摘要的提取,具体包括以下步骤:
(1)文本预处理:假如X代表整个文本,如X=[E1,E2,…,En],Ei为词向量,代表输入文本中的每个词组,在文本中插入标签进行预处理,插入的标签包括[CLS]和[SEP]标签,[CLS]标签用于放在每个句子的首位,经过BERT模型处理后得到的的表征向量可以用于后续的分类任务;[SEP]标签用于分开两个输入的句子,例如输入句子A和B,要在句子A、B后面分别增加[SEP]标志,这样,文本X被表示为一系列标签。
(2)通过BERT模型将预处理后的词向量进行处理,判断出应该出现在摘要中的句子:
(2.1)将预处理后的文本X输入到BERT模型:
图1-(a)为BERT模型的架构图,如图1-(a)所示,BERT模型具有多层的双向Transformer模型(T(rm)),Transformer模型为特征提取器,用于语义特征等关于句子特征的提取,输入文本经过BERT模型中多层的双向Transformer模型处理,最后一层对应输出T1,T2,…,TN的词向量,Ti对应于各输入向量Ei的输出;Transformer模型如下:
其中,h代表词向量;LN(layer normalization)是归一化模型;MHAtt是输出合并模型;FFN是一个双层神经网络。
BERT模型工作方式:图1-(b)为BERT模型的输出示意图,BERT模型处理过程中,共有五层输出的向量,如图3所示,图1-(a)六个Transformer模型功能分别如下:模型0(model0)使用[CLS]经过BERT模型处理后最后一层输出的向量;模型3使用倒数第2层和最后一层输出的与[CLS]相对应的向量;模型1和模型4表明,我们将分别对应于[CLS]和[SEP]的两个输出向量拼接起来,以表示一个句子;模型2和模型5使用与[CLS]对应的向量的平均值;再将BERT的最后4层与[CLS]对应的向量拼接起来;该BERT模型可以从句子嵌入中提取尽可能多的信息并且模型训练难度较低。
在输入文本经过BERT模型处理过程中,每一个输入的标签都会得到相应的嵌入处理,结合图2所示,图2中的Text为图1-(a)中最后一层相应的词向量Ti,提取出所有句子的[CLS]对应的嵌入处理后的数据,输入到线性分类器(Linear Classifier)中得到每个[CLS]的分数,来最终决定[CLS]所对应的句子是否应该出现在摘要中。
如图4所示,以改进的BERT模型对“青海省林业厅野生动植物和自然保护区管理局”这句话的处理为例:(1)先将预处理的词向量输入BERT模型,BERT模型的隐藏层中的编码器和解码器对输入的词向量进行处理,之后对编码器和解码器输出的词向量进行注意力分布处理,然后根据上下文向量决定该句子是否应该出现在摘要中,如果应当出现在摘要中,则该句子进入词表分布中,最后获得扩展词表分布,扩展词表分布为词表分布基础上获得的语义完整的摘要。
需要说明的是,在本文中,诸如术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解,在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.一种基于BERTSUM模型的文本摘要提取方法,其特征在于,包括:
(1)对需要提取摘要的文本进行预处理:在文本中插入标签,插入的标签包括[CLS]标签和[SEP]标签,[CLS]标签用于放在文本中每个句子的首位,[SEP]标签用于分开两个文本中相邻的句子;
(2)将步骤(1)中预处理后的数据输入改进的BERT模型进行处理,判断出应该出现在摘要中的句子;
在所述步骤(2)中,所述改进的BERT模型的改进方面包括:对BERT模型的损失函数的改进,在BERT模型原本的损失函数中增加一个余弦相似度损失。
2.根据权利要求1所述的基于BERTSUM模型的文本摘要提取方法,其特征在于:所述改进的BERT模型的改进方面还包括:加入融合指针网络的UniLM模型,通过融合指针网络的UniLM模型对输入的数据进行处理,从文本中直接复制关键信息词,降低数据处理工作量。
3.根据权利要求2所述的基于BERTSUM模型的文本摘要提取方法,其特征在于:所述改进的BERT模型的改进方面还包括:在所述融合指针网络的UniLM模型中引入覆盖机制,以避免生成的词语发生重复。
6.根据权利要求5所述的基于BERTSUM模型的文本摘要提取方法,其特征在于:
参数αt通过解码器提取摘要获取的Q特征矩阵与编码器提取文本中得到的K、V特征矩阵计算而得,计算方式如下所示:
et=vTtanh(WQQt+WKKt+WvVt+battn)
αt=soft max(et)
式中,Q、K、V为特征矩阵;
W、battn为BERT模型的训练参数;
Softmax是一个数学函数,用于对0和1之间的值进行归一化;
通过覆盖机制对指针生成网络模型进行改进,能够有效减少生成摘要中的重复,向量ct公式如下:
式中,ct表示目前为止单词从注意力机制中获得的覆盖程度,使用覆盖向量ct影响注意力分布,重新得到注意力分布:
式中,W、battn为BERT模型的训练参数;
et i为第i句子的注意力分布值;
然后重新计算文本序列对解码器t时刻某预测的单词的注意力分布权重αt。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111519931.9A CN114139497A (zh) | 2021-12-13 | 2021-12-13 | 一种基于bertsum模型的文本摘要提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111519931.9A CN114139497A (zh) | 2021-12-13 | 2021-12-13 | 一种基于bertsum模型的文本摘要提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114139497A true CN114139497A (zh) | 2022-03-04 |
Family
ID=80382183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111519931.9A Pending CN114139497A (zh) | 2021-12-13 | 2021-12-13 | 一种基于bertsum模型的文本摘要提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114139497A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464657A (zh) * | 2020-12-07 | 2021-03-09 | 上海交通大学 | 混合式文本摘要生成方法、系统、终端及存储介质 |
CN114691858A (zh) * | 2022-03-15 | 2022-07-01 | 电子科技大学 | 一种基于改进的unilm摘要生成方法 |
CN115062140A (zh) * | 2022-05-27 | 2022-09-16 | 电子科技大学 | 一种bert sum和pgn融合的供应链生态区长文档摘要生成方法 |
CN115080729A (zh) * | 2022-07-20 | 2022-09-20 | 北京搜狐新媒体信息技术有限公司 | 一种文本的摘要提取方法及装置 |
CN115221863A (zh) * | 2022-07-18 | 2022-10-21 | 桂林电子科技大学 | 一种文本摘要评价方法、装置以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127475B1 (en) * | 2013-05-31 | 2018-11-13 | Google Llc | Classifying images |
CN110765264A (zh) * | 2019-10-16 | 2020-02-07 | 北京工业大学 | 一种增强语义相关性的文本摘要生成方法 |
CN112905750A (zh) * | 2021-03-16 | 2021-06-04 | 云知声智能科技股份有限公司 | 一种优化模型的生成方法和设备 |
US20210334468A1 (en) * | 2020-04-28 | 2021-10-28 | International Business Machines Corporation | Feature Reweighting in Text Classifier Generation Using Unlabeled Data |
-
2021
- 2021-12-13 CN CN202111519931.9A patent/CN114139497A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127475B1 (en) * | 2013-05-31 | 2018-11-13 | Google Llc | Classifying images |
CN110765264A (zh) * | 2019-10-16 | 2020-02-07 | 北京工业大学 | 一种增强语义相关性的文本摘要生成方法 |
US20210334468A1 (en) * | 2020-04-28 | 2021-10-28 | International Business Machines Corporation | Feature Reweighting in Text Classifier Generation Using Unlabeled Data |
CN112905750A (zh) * | 2021-03-16 | 2021-06-04 | 云知声智能科技股份有限公司 | 一种优化模型的生成方法和设备 |
Non-Patent Citations (2)
Title |
---|
孙宝山 等: "基于ALBERT-UniLM模型的文本自动摘要技术研究", 《计算机工程与应用》, 2 August 2021 (2021-08-02), pages 2 * |
黄敬轩 等: "基于预训练模型的文本摘要优化", 《工业控制计算机》, 21 July 2021 (2021-07-21), pages 1 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464657A (zh) * | 2020-12-07 | 2021-03-09 | 上海交通大学 | 混合式文本摘要生成方法、系统、终端及存储介质 |
CN112464657B (zh) * | 2020-12-07 | 2022-07-08 | 上海交通大学 | 混合式文本摘要生成方法、系统、终端及存储介质 |
CN114691858A (zh) * | 2022-03-15 | 2022-07-01 | 电子科技大学 | 一种基于改进的unilm摘要生成方法 |
CN114691858B (zh) * | 2022-03-15 | 2023-10-03 | 电子科技大学 | 一种基于改进的unilm摘要生成方法 |
CN115062140A (zh) * | 2022-05-27 | 2022-09-16 | 电子科技大学 | 一种bert sum和pgn融合的供应链生态区长文档摘要生成方法 |
CN115221863A (zh) * | 2022-07-18 | 2022-10-21 | 桂林电子科技大学 | 一种文本摘要评价方法、装置以及存储介质 |
CN115221863B (zh) * | 2022-07-18 | 2023-08-04 | 桂林电子科技大学 | 一种文本摘要评价方法、装置以及存储介质 |
CN115080729A (zh) * | 2022-07-20 | 2022-09-20 | 北京搜狐新媒体信息技术有限公司 | 一种文本的摘要提取方法及装置 |
CN115080729B (zh) * | 2022-07-20 | 2022-12-27 | 北京搜狐新媒体信息技术有限公司 | 一种文本的摘要提取方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114139497A (zh) | 一种基于bertsum模型的文本摘要提取方法 | |
CN113158665B (zh) | 一种基于文本摘要生成与双向语料改善对话文本生成的方法 | |
CN111708882B (zh) | 基于Transformer的中文文本信息缺失的补全方法 | |
JP5128629B2 (ja) | 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法 | |
CN110807324A (zh) | 一种基于IDCNN-crf与知识图谱的影视实体识别方法 | |
CN112417092B (zh) | 基于深度学习的智能化文本自动生成系统及其实现方法 | |
CN113255320A (zh) | 基于句法树和图注意力机制的实体关系抽取方法及装置 | |
CN114153971B (zh) | 一种含错中文文本纠错识别分类设备 | |
CN113128214A (zh) | 一种基于bert预训练模型的文本摘要生成方法 | |
CN110781290A (zh) | 一种长篇章结构化文本摘要提取方法 | |
CN115687626A (zh) | 一种基于提示学习融合关键词的法律文书分类方法 | |
CN114781392A (zh) | 一种基于bert改进模型的文本情感分析方法 | |
CN112818698B (zh) | 一种基于双通道模型的细粒度的用户评论情感分析方法 | |
CN115048511A (zh) | 一种基于Bert的护照版面分析方法 | |
CN114818668A (zh) | 一种语音转写文本的人名纠错方法、装置和计算机设备 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
Moeng et al. | Canonical and surface morphological segmentation for nguni languages | |
CN114692568A (zh) | 一种基于深度学习的序列标注方法及应用 | |
CN115293168A (zh) | 基于预训练模型语义理解的多语言缩写消歧义算法 | |
CN117390189A (zh) | 基于前置分类器的中立文本生成方法 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN117493548A (zh) | 文本分类方法、模型的训练方法和装置 | |
CN115345150A (zh) | 一种科技论文引言内容生成系统与方法 | |
CN115965027A (zh) | 一种基于语义匹配的文本摘要自动抽取方法 | |
CN115840815A (zh) | 基于指针关键信息的自动摘要生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |