CN113449079B - 文本摘要生成方法、装置、电子设备及存储介质 - Google Patents
文本摘要生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113449079B CN113449079B CN202110716225.7A CN202110716225A CN113449079B CN 113449079 B CN113449079 B CN 113449079B CN 202110716225 A CN202110716225 A CN 202110716225A CN 113449079 B CN113449079 B CN 113449079B
- Authority
- CN
- China
- Prior art keywords
- target
- text
- abstract
- character
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 7
- 230000009286 beneficial effect Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 76
- 238000004590 computer program Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000002787 reinforcement Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012614 Monte-Carlo sampling Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供了一种文本摘要生成方法、装置、电子设备及存储介质,其中,该文本摘要生成方法包括:获取原始文本的向量化表示,对原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,根据第一字符对第一摘要目标进行更新,得到第二摘要目标,获取第一个时刻的解码输出的第一状态信息,对第二摘要目标和第一状态信息进行第二个时刻的解码,得到第二字符,重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,最终得到目标文本。本申请实施例有利于实现可控地生成文本摘要。
Description
技术领域
本申请涉及机器学习技术领域,尤其涉及一种文本摘要生成方法、装置、电子设备及存储介质。
背景技术
互联网产生的文本数据的爆炸式增长使文本信息过载问题日益严重,而解决该问题的有效途径之一就是文本摘要。所谓文本摘要是指通过对原始文本进行信息压缩,提取出主要内容和思想,并进行适当改写,最终以一种简洁的文本内容形式呈现。目前针对文本摘要任务,通常采用深度学习中Seq2Seq模型(一种自然语言处理模型)和注意力机制,采用大规模的监督数据(比如一篇长文对应多个参考摘要)进行模型训练,通过训练好的模型直接将原始文本映射到文本摘要。然而,在不同场景下用户对生成的文本摘要往往有特定的要求,简而言之就是用户希望模型能够可控地生成文本摘要,但就目前来说这仍是一大难题。
发明内容
针对上述问题,本申请提供了一种文本摘要生成方法、装置、电子设备及存储介质,有利于实现可控地生成文本摘要。
为实现上述目的,本申请实施例第一方面提供了一种文本摘要生成方法,该方法包括:
对原始文本进行编码,得到所述原始文本的向量化表示;
对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
结合第一方面,在一种可能的实施方式中,所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分,所述根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标,包括:
根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
结合第一方面,在一种可能的实施方式中,所述根据所述ROUGE指标得分和BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分,包括:
调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分;
将所述实际得分确定为所述奖励函数的反馈,采用所述目标文本的内容风格得分减去所述奖励函数的反馈,得到更新后的内容风格得分。
结合第一方面,在一种可能的实施方式中,所述调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分,包括:
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,得到所述实际得分;或者,
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,将求和得到的值乘以预设系数得到所述实际得分。
结合第一方面,在一种可能的实施方式中,所述对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,包括:
将所述原始文本的向量化表示和所述第一摘要目标输入训练好的策略函数模型进行所述第一个时刻的解码,得到预设词表上的概率分布;
对所述概率分布进行采样得到所述第一字符;或者,
根据所述概率分布将所述预设词表中概率最大的字符确定为所述第一字符。
结合第一方面,在一种可能的实施方式中,在对原始文本进行编码,得到所述原始文本的向量化表示之前,所述方法还包括:
随机初始化S个摘要目标,S为大于或等于1的整数;
获取样本文本的向量化表示,将所述S个摘要目标中的任意一个摘要目标和所述样本文本的向量化表示输入初始策略函数模型进行训练,得到生成的文本摘要;
根据所述初始策略函数模型每一个时刻的解码的监督数据和所述文本摘要确定目标损失;
对所述初始策略函数模型的参数进行更新,以及对所述S个摘要目标、所述样本文本以及所述监督数据进行更新;
将更新后的S个摘要目标中的任意一个摘要目标和更新后的样本文本的向量化表示输入参数更新后的初始策略函数模型执行下一次训练,采用所述S个摘要目标执行S次训练,以使所述目标损失收敛,得到训练好的策略函数模型。
本申请实施例第二方面提供了一种文本摘要生成装置,该装置包括:
编码模块,用于对原始文本进行编码,得到所述原始文本的向量化表示;
解码模块,用于对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
更新模块,用于根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
所述解码模块,还用于获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
所述解码模块,还用于重复执行对上一个时刻的解码时输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
本申请实施例第三方面提供了一种电子设备,该电子设备包括输入设备和输出设备,还包括处理器,适于实现一条或多条指令;以及,计算机存储介质,所述计算机存储介质存储有一条或多条指令,所述一条或多条指令适于由所述处理器加载并执行如下步骤:
对原始文本进行编码,得到所述原始文本的向量化表示;
对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
本申请实施例第四方面提供了一种计算机存储介质,所述计算机存储介质存储有一条或多条指令,所述一条或多条指令适于由处理器加载并执行如下步骤:
对原始文本进行编码,得到所述原始文本的向量化表示;
对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
本申请的上述方案至少包括以下有益效果:与现有技术相比,本申请实施例通过对原始文本进行编码,得到原始文本的向量化表示,对原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,根据第一字符对第一摘要目标进行更新,得到第二摘要目标,获取第一个时刻的解码输出的第一状态信息,对第二摘要目标和第一状态信息进行第二个时刻的解码,得到第二字符,重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由第一字符、第二字符至第N字符组成目标文本。由于解码的输入在原来的状态信息的基础上还增加了摘要目标,而摘要目标在整个解码过程中会实时更新以控制目标文本的生成,从而实现了可控地生成文本摘要。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种应用环境的示意图;
图2为本申请实施例提供的一种文本摘要生成方法的流程示意图;
图3为本申请实施例提供的一种文本摘要生成的模型结构示意图;
图4为本申请实施例提供的一种获取第二摘要目标的流程示意图;
图5为本申请实施例提供的另一种文本摘要生成方法的流程示意图;
图6为本申请实施例提供的一种文本摘要生成装置的结构示意图;
图7为本申请实施例提供的另一种文本摘要生成装置的结构示意图;
图8为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请说明书、权利要求书和附图中出现的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。此外,术语“第一”、“第二”和“第三”等是用于区别不同的对象,而并非用于描述特定的顺序。
本申请实施例提供一种文本摘要生成方法,可基于图1所示的应用环境实施,请参见图1,该应用环境中包括至少一台终端和服务器,至少一台终端包括通信接口,该通信接口用于接收用户输入的程序指令和文本数据,并通过网络将该程序指令和文本数据发送给服务器,以使服务器执行文本摘要生成操作。服务器可以包括通信接口、预处理器、编码器和解码器,该通信接口用于接收至少一台终端的通信接口发送的程序指令和文本数据,并将该文本数据发送给预处理器进行预处理,或者直接将该文本数据发送给编码器进行编码操作。其中,预处理可包括分词、建立词表等。编码器用于将输入映射为词向量,再将词向量输入解码器进行解码操作,通过多个时刻的解码最终生成文本摘要,并通过通信接口将文本摘要返回给至少一台终端进行输出。其中,每一个时刻(第一个时刻除外)的解码操作之前都涉及到对上一时刻的摘要目标进行更新的操作,每一个时刻的解码输入的摘要目标都包括文本摘要的长度和内容风格得分,以此实现可控地生成文本摘要,即生成的文本摘要可以满足场景需求。
基于图1所示的应用环境,以下结合其他附图对本申请实施例提供的文本摘要生成方法进行详细阐述。
请参见图2,图2为本申请实施例提供的一种文本摘要生成方法的流程示意图,该方法应用于电子设备,如图2所示,包括步骤201-205:
201:对原始文本进行编码,得到所述原始文本的向量化表示。
本申请具体实施例中,可以采用RNN(Recurrent Neural Network,循环神经网络)模型或Transformer模型(一种自然语言处理模型)作为编码器对原始文本进行编码,编码器最后输出的文本隐向量作为原始文本的向量化表示。其中,Transformer模型可以是LSTM(Long Short-Term Memory,长短期记忆网络)模型、GRU(Gate Recurrent Unit,门控循环单元)、BERT(Bidirectional Encoder Representations from Transformers,基于转换器的双向编码表征),此处不作限定。
202:对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符。
本申请具体实施例中,采用颠倒强化学习中的策略函数(BehaivorFunction,BF)模型为解码器,如图3所示,将原始文本的向量化表示作为第一个时刻的解码的状态输入state0,示例性的,上述对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,包括:
将所述原始文本的向量化表示和所述第一摘要目标输入训练好的策略函数模型进行第一个时刻的解码,得到预设词表上的概率分布;
对所述概率分布进行采样得到所述第一字符;或者,
根据所述概率分布将所述预设词表中概率最大的字符确定为所述第一字符。
其中,第一字符是指进行第一个时刻的解码得到的字符,预设的第一摘要目标包括两部分信息,分别为目标文本的长度和目标文本的内容风格得分,即本申请能够实现文本摘要的长度和内容风格两个维度的可控生成。其中,目标文本是指基于原始文本生成的文本摘要。
所谓目标文本的内容风格是指目标文本是对原始文本进行归纳总结得到的,还是对原始文本进行直接抽取得到的,预设的第一摘要目标中目标文本的长度和内容风格得分通过随机初始化得到,目标文本的内容风格得分采用文本摘要的常用指标ROUGE(Recall-Oriented Understudy for Gisting Evaluation,一种基于召回率的相似性度量方法,常用的机器翻译和文章摘要评价指标)和BLEU(Bilingual evaluation understudy,一种基于精确度的相似性度量方法,常用的机器翻译和文章摘要评价指标)得到,比如采用随机初始化的ROUGE指标和BLEU指标之和作为目标文本的内容风格得分,其中,ROUGE指标和BLEU指标都用于评价目标文本与原始文本在用词上的相似度,若从原始文本中直接抽取的字符在目标文本中的占比越高,则内容风格得分越高。
其中,策略函数又可称为行为函数,是强化学习和颠倒强化学习中的常用函数,其具体解码过程此处不再详细展开。策略函数模型的结构为常用的神经网络结构,比如RNN模型,输出层采用softmax分类器,对于输入的向量化表示和预设的第一摘要目标,经过其处理,可以求得整个预设词表上的概率分布,然后通过对预设词表上的概率分布进行采样得到所述第一字符或将概率最大的字符确定为所述第一字符,示例性的,采样方法可以是蒙特卡洛采样。
203:根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标。
本申请具体实施例中,采用奖励函数(Reward function)进行预设的第一摘要目标的更新,奖励函数是强化学习中的常用函数,是影响强化学习收敛精度和训练速度的关键因素,通过奖励函数反馈的奖励信号(比如:策略函数模型执行解码操作的实际得分)可以指导强化学习算法实现目标。示例性的,如图4所示,上述根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标,包括步骤401-404:
401:根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
具体的,由于目标文本已经生成了一个字符(即第一字符),则在更新时目标文本的长度减1,得到更新后的长度。
402:将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
其中,奖励函数通过ROUGE指标的计算公式计算得到ROUGE指标得分,通过BLEU指标的计算公式计算得到BLEU指标得分,ROUGE指标和BLEU指标的计算公式与现有一致,此处不再详细说明。
403:根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
404:由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
示例性的,上述步骤403进一步包括:
调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分;
将所述实际得分确定为所述奖励函数的反馈,采用所述目标文本的内容风格得分减去所述奖励函数的反馈,得到更新后的内容风格得分。
具体的,预设规则可以是一些模板、语法规则等,比如,模板可以是“*究人员”,第一字符可以是“研”,将第一字符与预设规则进行匹配,得到短语或句子“研究人员”,奖励函数会计算第一字符与模板构成短语或句子的得分,即第一个时刻的解码的实际得分,具体可以是将计算得到的ROUGE指标得分和BLEU指标得分之和作为第一个时刻的解码的实际得分,或者,可以是将ROUGE指标得分和BLEU指标得分之和乘以预设系数,比如,预设系数可以是-1。这样在计算实际得分方面,可通过奖励函数的设定来使目标文本中归纳总结的部分或直接抽取的部分可控,比如在某些场景中,用户希望目标文本中归类总结的部分占比较高,则可通过乘以预设系数将奖励变为惩罚,从而有利于保留对生成文本内容评价的开放性,可根据业务需求进行内容评价的设计。
204:获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符。
本申请具体实施例中,第二字符是指进行第二个时刻的解码得到的字符,第一个时刻的解码输出的第一状态信息是指第一个时刻的解码过程中策略函数模型得到的隐向量,请继续参见图3,将该第一状态信息作为第二个时刻的解码的状态输入state1,与第一个时刻的解码类似的,将第一状态信息和第二摘要目标输入策略函数模型进行第二个时刻的解码,得到预设词表上的概率分布,根据所述预设词表上的概率分布得到第二字符。
205:重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
本申请具体实施例中,在得到第N字符后,摘要目标中目标文本的长度更新为0,当目标文本的长度为0时,表示目标文本的生成结束,不再执行下一个时刻的解码操作。应当理解的,上一个时刻的解码得到的第二状态信息是指上一个时刻的解码过程中得到的隐向量,将该隐向量作为当前时刻的解码的状态输入state,若当前时刻为第二个时刻,则第二状态信息即为第一状态信息。比如,在得到第二字符后,采用奖励函数进行第二摘要目标的更新,得到第三摘要目标,获取第二个时刻的解码得到的状态信息,采用策略函数模型对第二个时刻的解码得到的状态信息和第三摘要目标进行解码,得到第三字符,以此类推,直至得到第N字符,目标文本的长度更新为0。
示例性的,在对原始文本进行编码,得到所述原始文本的向量化表示之前,所述方法还包括:
随机初始化S个摘要目标,S为大于或等于1的整数;
获取样本文本的向量化表示,将所述S个摘要目标中的任意一个摘要目标和所述样本文本的向量化表示输入初始策略函数模型进行训练,得到生成的文本摘要;
根据所述初始策略函数模型每一个时刻的解码的监督数据和所述文本摘要确定目标损失;
对所述初始策略函数模型的参数进行更新,以及对所述S个摘要目标、所述样本文本以及所述监督数据进行更新;
将更新后的S个摘要目标中的任意一个摘要目标和更新后的样本文本的向量化表示输入参数更新后的初始策略函数模型执行下一次训练,采用所述S个摘要目标执行S次训练,以使所述目标损失收敛,得到训练好的策略函数模型。
本申请具体实施例中,训练阶段每一个时刻的解码的过程可参照上述步骤S22中的相关描述,而S次训练中每次训练都涉及到对每一个时刻的解码的输入摘要目标进行更新的操作,上述对所述S个摘要目标、所述样本文本以及所述监督数据进行更新是指将已经用于训练的摘要目标、样本文本和监督数据的部分和全部进行清空,比如将上一次已经用于训练的摘要目标丢弃,比如重新设定每一个时刻的解码的监督数据,比如重新选定样本文本并进行隐向量的抽取,等等,该监督数据是指设定的字符,每一个时刻的监督数据可组成一条用于监督训练的文本摘要。其中,目标损失可以是交叉熵损失,在梯度回传时对策略函数模型的参数进行更新。该实施方式中,通过对摘要目标、样本文本和监督数据的更新可以保证策略函数模型的学习效率,模型被更新后虽然会对部分或全部训练数据进行清空处理,但是数据信息已经保留在模型的框架中,数据效率相对更高。另外,训练数据集无需大量人工标注,有利于降低训练开销。
可以看出,本申请实施例通过对原始文本进行编码,得到原始文本的向量化表示,对原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,根据第一字符对第一摘要目标进行更新,得到第二摘要目标,获取第一个时刻的解码输出的第一状态信息,对第二摘要目标和第一状态信息进行第二个时刻的解码,得到第二字符,重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由第一字符、第二字符至第N字符组成目标文本。由于解码的输入在原来的状态信息的基础上还增加了摘要目标,而摘要目标在整个解码过程中会实时更新以控制目标文本的生成,从而实现了可控地生成文本摘要。
请参见图5,图5本申请实施例提供的另一种文本摘要生成方法的流程示意图,同样可基于图1所示的应用环境实施,如图5所示,包括步骤501-508:
501:对原始文本进行编码,得到所述原始文本的向量化表示;
502:对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分;
503:根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
504:将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
505:根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
506:由更新后的长度和更新后的内容风格得分组成第二摘要目标;
507:获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
508:重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
其中,步骤501-508的具体实施方式在图2所示的实施例中已有相关说明,且能达到相同或相似的有益效果,为避免重复,此处不再赘述。
基于上述文本摘要生成方法实施例的描述,请参见图6,图6为本申请实施例提供的一种文本摘要生成装置的结构示意图,如图6所示,该装置包括:
编码模块601,用于对原始文本进行编码,得到所述原始文本的向量化表示;
解码模块602,用于对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
更新模块603,用于根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
所述解码模块602,还用于获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
所述解码模块602,还用于重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
在一种可能的实施方式中,所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分,
在根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标方面,更新模块603具体用于:
根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
在一种可能的实施方式中,在根据所述ROUGE指标得分和BLEU指标得分对所述目标文本的内容风格得分进行更新方面,更新模块603具体用于:
调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分;
将所述实际得分确定为所述奖励函数的反馈,采用所述目标文本的内容风格得分减去所述奖励函数的反馈,得到更新后的内容风格得分。
在一种可能的实施方式中,在调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分方面,更新模块603具体用于:
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,得到所述实际得分;或者,
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,将求和得到的值乘以预设系数得到所述实际得分。
在一种可能的实施方式中,在对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码方面,解码模块602具体用于:
将所述原始文本的向量化表示和所述第一摘要目标输入训练好的策略函数模型进行所述第一个时刻的解码,得到预设词表上的概率分布;
对所述概率分布进行采样得到所述第一字符;或者,
根据所述概率分布将所述预设词表中概率最大的字符确定为所述第一字符。
在一种可能的实施方式中,如图7所示,该装置还包括训练模块604,该训练模块604用于:
随机初始化S个摘要目标,S为大于或等于1的整数;
获取样本文本的向量化表示,将所述S个摘要目标中的任意一个摘要目标和所述样本文本的向量化表示输入初始策略函数模型进行训练,得到生成的文本摘要;
根据所述初始策略函数模型每一个时刻的解码的监督数据和所述文本摘要确定目标损失;
对所述初始策略函数模型的参数进行更新,以及对所述S个摘要目标、所述样本文本以及所述监督数据进行更新;
将更新后的S个摘要目标中的任意一个摘要目标和更新后的样本文本的向量化表示输入参数更新后的初始策略函数模型执行下一次训练,采用所述S个摘要目标执行S次训练,以使所述目标损失收敛,得到训练好的策略函数模型。
根据本申请的一个实施例,图6或图7所示的文本摘要生成装置的各个单元可以分别或全部合并为一个或若干个另外的单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个单元来构成,这可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述单元是基于逻辑功能划分的,在实际应用中,一个单元的功能也可以由多个单元来实现,或者多个单元的功能由一个单元实现。在本申请的其它实施例中,基于文本摘要生成装置也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。
根据本申请的另一个实施例,可以通过在包括中央处理单元(CPU)、随机存取存储介质(RAM)、只读存储介质(ROM)等处理元件和存储元件的例如计算机的通用计算设备上运行能够执行如图2或图5中所示的相应方法所涉及的各步骤的计算机程序(包括程序代码),来构造如图6或图7中所示的文本摘要生成装置设备,以及来实现本申请实施例的文本摘要生成方法。所述计算机程序可以记载于例如计算机可读记录介质上,并通过计算机可读记录介质装载于上述计算设备中,并在其中运行。
基于上述方法实施例和装置实施例的描述,本申请实施例还提供一种电子设备。请参见图8,该电子设备至少包括处理器801、输入设备802、输出设备803以及计算机存储介质804。其中,电子设备内的处理器801、输入设备802、输出设备803以及计算机存储介质804可通过总线或其他方式连接。
计算机存储介质804可以存储在电子设备的存储器中,所述计算机存储介质804用于存储计算机程序,所述计算机程序包括程序指令,所述处理器801用于执行所述计算机存储介质804存储的程序指令。处理器801(或称CPU(Central Processing Unit,中央处理器))是电子设备的计算核心以及控制核心,其适于实现一条或多条指令,具体适于加载并执行一条或多条指令从而实现相应方法流程或相应功能。
在一个实施例中,本申请实施例提供的电子设备的处理器801可以用于进行一系列文本摘要的生成处理:
对原始文本进行编码,得到所述原始文本的向量化表示;
对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数。
再一个实施例中,所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分,处理器801执行所述根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标,包括:
根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
再一个实施例中,处理器801执行所述根据所述ROUGE指标得分和BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分,包括:
调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分;
将所述实际得分确定为所述奖励函数的反馈,采用所述目标文本的内容风格得分减去所述奖励函数的反馈,得到更新后的内容风格得分。
再一个实施例中,处理器801执行所述调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分,包括:
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,得到所述实际得分;或者,
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,将求和得到的值乘以预设系数得到所述实际得分。
再一个实施例中,处理器801执行所述对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,包括:
将所述原始文本的向量化表示和所述第一摘要目标输入训练好的策略函数模型进行所述第一个时刻的解码,得到预设词表上的概率分布;
对所述概率分布进行采样得到所述第一字符;或者,
根据所述概率分布将所述预设词表中概率最大的字符确定为所述第一字符。
再一个实施例中,在对原始文本进行编码,得到所述原始文本的向量化表示之前,处理器801还用于:
随机初始化S个摘要目标,S为大于或等于1的整数;
获取样本文本的向量化表示,将所述S个摘要目标中的任意一个摘要目标和所述样本文本的向量化表示输入初始策略函数模型进行训练,得到生成的文本摘要;
根据所述初始策略函数模型每一个时刻的解码的监督数据和所述文本摘要确定目标损失;
对所述初始策略函数模型的参数进行更新,以及对所述S个摘要目标、所述样本文本以及所述监督数据进行更新;
将更新后的S个摘要目标中的任意一个摘要目标和更新后的样本文本的向量化表示输入参数更新后的初始策略函数模型执行下一次训练,采用所述S个摘要目标执行S次训练,以使所述目标损失收敛,得到训练好的策略函数模型。
示例性的,上述电子设备可以是独立的物理服务器,也可以是服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、以及大数据和人工智能平台等基础云计算服务的云服务器。电子设备包括但不仅限于处理器801、输入设备802、输出设备803以及计算机存储介质804。还可以包括内存、电源、应用客户端模块等。输入设备802可以是键盘、触摸屏、射频接收器等,输出设备803可以是扬声器、显示器、射频发送器等。本领域技术人员可以理解,所述示意图仅仅是电子设备的示例,并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件。
需要说明的是,由于电子设备的处理器801执行计算机程序时实现上述的文本摘要生成方法中的步骤,因此上述文本摘要生成方法的实施例均适用于该电子设备,且均能达到相同或相似的有益效果。
本申请实施例还提供了一种计算机存储介质(Memory),所述计算机存储介质是电子设备中的记忆设备,用于存放程序和数据。可以理解的是,此处的计算机存储介质既可以包括终端中的内置存储介质,当然也可以包括终端所支持的扩展存储介质。计算机存储介质提供存储空间,该存储空间存储了终端的操作系统。并且,在该存储空间中还存放了适于被处理器801加载并执行的一条或多条的指令,这些指令可以是一个或一个以上的计算机程序(包括程序代码)。需要说明的是,此处的计算机存储介质可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器;可选的,还可以是至少一个位于远离前述处理器801的计算机存储介质。在一个实施例中,可由处理器801加载并执行计算机存储介质中存放的一条或多条指令,以实现上述有关文本摘要生成方法的相应步骤。
示例性的,计算机存储介质的计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,由于计算机存储介质的计算机程序被处理器执行时实现上述的文本摘要生成方法中的步骤,因此上述文本摘要生成方法的所有实施例均适用于该计算机存储介质,且均能达到相同或相似的有益效果。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (8)
1.一种文本摘要生成方法,其特征在于,所述方法包括:
对原始文本进行编码,得到所述原始文本的向量化表示;
对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数;
所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分,所述根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标,包括:
根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
2.根据权利要求1所述的方法,其特征在于,所述根据所述ROUGE指标得分和BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分,包括:
调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分;
将所述实际得分确定为所述奖励函数的反馈,采用所述目标文本的内容风格得分减去所述奖励函数的反馈,得到更新后的内容风格得分。
3.根据权利要求2所述的方法,其特征在于,所述调用所述奖励函数根据所述ROUGE指标得分和所述BLEU指标得分计算得到所述第一个时刻的解码的实际得分,包括:
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,得到所述实际得分;或者,
调用所述奖励函数对所述ROUGE指标得分和所述BLEU指标得分进行求和,将求和得到的值乘以预设系数得到所述实际得分。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符,包括:
将所述原始文本的向量化表示和所述第一摘要目标输入训练好的策略函数模型进行所述第一个时刻的解码,得到预设词表上的概率分布;
对所述概率分布进行采样得到所述第一字符;或者,
根据所述概率分布将所述预设词表中概率最大的字符确定为所述第一字符。
5.根据权利要求1-3任一项所述的方法,其特征在于,在对原始文本进行编码,得到所述原始文本的向量化表示之前,所述方法还包括:
随机初始化S个摘要目标,S为大于或等于1的整数;
获取样本文本的向量化表示,将所述S个摘要目标中的任意一个摘要目标和所述样本文本的向量化表示输入初始策略函数模型进行训练,得到生成的文本摘要;
根据所述初始策略函数模型每一个时刻的解码的监督数据和所述文本摘要确定目标损失;
对所述初始策略函数模型的参数进行更新,以及对所述S个摘要目标、所述样本文本以及所述监督数据进行更新;
将更新后的S个摘要目标中的任意一个摘要目标和更新后的样本文本的向量化表示输入参数更新后的初始策略函数模型执行下一次训练,采用所述S个摘要目标执行S次训练,以使所述目标损失收敛,得到训练好的策略函数模型。
6.一种文本摘要生成装置,其特征在于,所述装置包括:
编码模块,用于对原始文本进行编码,得到所述原始文本的向量化表示;
解码模块,用于对所述原始文本的向量化表示和预设的第一摘要目标进行第一个时刻的解码,得到第一字符;
更新模块,用于根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标;
所述解码模块,还用于获取所述第一个时刻的解码输出的第一状态信息,对所述第二摘要目标和所述第一状态信息进行第二个时刻的解码,得到第二字符;
所述解码模块,还用于重复执行对上一个时刻的解码所输入的摘要目标进行更新以及获取上一个时刻的解码输出的第二状态信息,对更新后的摘要目标和所述第二状态信息进行当前时刻的解码的操作,直至得到第N字符,由所述第一字符、所述第二字符至所述第N字符组成目标文本,其中,N为大于或等于2的整数;
所述第一摘要目标包括所述目标文本的长度和所述目标文本的内容风格得分,在根据所述第一字符对所述第一摘要目标进行更新,得到第二摘要目标方面,所述更新模块具体用于:
根据所述第一字符对所述目标文本的长度进行更新,得到更新后的长度;
将所述第一字符与预设规则进行匹配,并调用奖励函数计算ROUGE指标得分和BLEU指标得分;
根据所述ROUGE指标得分和所述BLEU指标得分对所述目标文本的内容风格得分进行更新,得到更新后的内容风格得分;
由更新后的长度和更新后的内容风格得分组成所述第二摘要目标。
7.一种电子设备,包括输入设备和输出设备,其特征在于,还包括:
处理器,适于实现一条或多条指令;以及,
计算机存储介质,所述计算机存储介质存储有一条或多条指令,所述一条或多条指令适于由所述处理器加载并执行如权利要求1-5任一项所述的方法。
8.一种计算机存储介质,其特征在于,所述计算机存储介质存储有一条或多条指令,所述一条或多条指令适于由处理器加载并执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110716225.7A CN113449079B (zh) | 2021-06-25 | 2021-06-25 | 文本摘要生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110716225.7A CN113449079B (zh) | 2021-06-25 | 2021-06-25 | 文本摘要生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113449079A CN113449079A (zh) | 2021-09-28 |
CN113449079B true CN113449079B (zh) | 2022-10-04 |
Family
ID=77813456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110716225.7A Active CN113449079B (zh) | 2021-06-25 | 2021-06-25 | 文本摘要生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449079B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334889A (zh) * | 2017-11-30 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 |
JP2019139772A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
CN110334334A (zh) * | 2019-06-19 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 一种摘要生成方法、装置及计算机设备 |
CN111026914A (zh) * | 2019-12-03 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 视频摘要模型的训练方法、视频摘要生成方法及装置 |
CN111241816A (zh) * | 2020-01-22 | 2020-06-05 | 北京工业大学 | 一种新闻标题自动生成方法 |
CN111723194A (zh) * | 2019-03-18 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 摘要生成方法、装置和设备 |
-
2021
- 2021-06-25 CN CN202110716225.7A patent/CN113449079B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334889A (zh) * | 2017-11-30 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 |
JP2019139772A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
CN111723194A (zh) * | 2019-03-18 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 摘要生成方法、装置和设备 |
CN110334334A (zh) * | 2019-06-19 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 一种摘要生成方法、装置及计算机设备 |
CN111026914A (zh) * | 2019-12-03 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 视频摘要模型的训练方法、视频摘要生成方法及装置 |
CN111241816A (zh) * | 2020-01-22 | 2020-06-05 | 北京工业大学 | 一种新闻标题自动生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113449079A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN107273503B (zh) | 用于生成同语言平行文本的方法和装置 | |
CN107168952B (zh) | 基于人工智能的信息生成方法和装置 | |
CN107526725B (zh) | 基于人工智能的用于生成文本的方法和装置 | |
CN111460115B (zh) | 智能人机对话模型训练方法、模型训练装置及电子设备 | |
CN110298436A (zh) | 基于指针生成网络的数据到文本的生成模型 | |
CN111753076B (zh) | 对话方法、装置、电子设备及可读存储介质 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
CN112131578A (zh) | 攻击信息预测模型的训练方法、装置、电子设备及存储介质 | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN113723115B (zh) | 基于预训练模型的开放域问答预测方法及相关设备 | |
CN115269768A (zh) | 要素文本处理方法、装置、电子设备和存储介质 | |
CN115525743B (zh) | 基于自学习白化网络的人机交互方法及电子设备 | |
CN113449079B (zh) | 文本摘要生成方法、装置、电子设备及存储介质 | |
CN114490969B (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN116167382A (zh) | 意图事件提取方法及装置、电子设备、存储介质 | |
CN113836266A (zh) | 基于bert的自然语言处理方法及相关设备 | |
CN112434143A (zh) | 基于gru单元隐藏状态约束的对话方法、存储介质及系统 | |
CN113268997B (zh) | 文本翻译方法、装置、计算机设备和存储介质 | |
CN113761157B (zh) | 应答语句生成方法和装置 | |
CN118114788A (zh) | 图像生成模型的训练方法、图像生成方法及相关设备 | |
CN117892134A (zh) | 数据增强模型的训练方法及装置 | |
CN113962223A (zh) | 基于表示学习命名实体识别方法、系统、设备和存储介质 | |
CN117829244A (zh) | 模型优化方法、设备、存储介质及装置 | |
CN117453334A (zh) | 信息提示模型的处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |