CN117235250A - 一种对话摘要生成方法、装置和设备 - Google Patents
一种对话摘要生成方法、装置和设备 Download PDFInfo
- Publication number
- CN117235250A CN117235250A CN202311211450.0A CN202311211450A CN117235250A CN 117235250 A CN117235250 A CN 117235250A CN 202311211450 A CN202311211450 A CN 202311211450A CN 117235250 A CN117235250 A CN 117235250A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- abstract
- sentence
- initial
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 239000013598 vector Substances 0.000 claims abstract description 139
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 230000014509 gene expression Effects 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000007246 mechanism Effects 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000021178 picnic Nutrition 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种对话摘要生成方法、装置和设备,方法包括当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;对各个关键句进行编码,生成多个特征向量;当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。从而在有效减少数据输入长度,减少模型计算负担的同时,考虑不同字段对于关键信息的贡献差异,提高对话摘要的生成灵活性。
Description
技术领域
本发明涉及文档处理技术领域,尤其涉及一种对话摘要生成方法、装置和设备。
背景技术
目前,各种形式的对话场景日益增多,比如会议、电视连续剧、访谈和闲聊等场景。对话摘要可以从复杂的对话数据中提取关键信息,从而降低人们理解对话数据的难度。
对话摘要的主要方式,除了将文档摘要模型直接应用于会话设置之外,还有为会话量身定制的模型旨在实现最先进的性能,例如以分层方式对会话进行建模。对话中丰富的结构化信息也得到了探索和利用,如对话行为、关键点/实体序列、主题片段、阶段发展、话语关系和常识知识等外部信息也被纳入其中,以帮助理解全球对话背景。
但现有的对话摘要方法多是直接采用过去对于非结构化的文本摘要模型的数据集进行训练和微调,对对话摘要任务没有针对性,且针对长序列对话存在较大的处理压力,无法灵活考虑不同字段对于关键信息的贡献差异,导致对话摘要的生成灵活性较低。
发明内容
本发明提供了一种对话摘要生成方法、装置和设备,解决了现有的对话摘要方法多是直接采用过去对于非结构化的文本摘要模型的数据集进行训练和微调,对对话摘要任务没有针对性,且针对长序列对话存在较大的处理压力,无法灵活考虑不同字段对于关键信息的贡献差异,导致对话摘要的生成灵活性较低的技术问题。
本发明第一方面提供的一种对话摘要生成方法,包括:
当接收到摘要请求时,从所述摘要请求对应的对话文档中加权提取多个关键句;
对各个所述关键句进行编码,生成多个特征向量;
当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要;
采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要。
可选地,所述当接收到摘要请求时,从所述摘要请求指定的对话文档中加权提取多个关键句的步骤,包括:
当接收到摘要请求时,对所述摘要请求指定的对话文档进行语句分割,得到多个对话语句并设置初始权重;
采用分词工具对各所述对话语句执行分词操作,确定每个所述对话语句对应的多个初始词汇;
根据预设的正则表达式和多个所述初始词汇,调整所述初始权重;
分别计算各所述对话语句对应的语句分数;
按照所述语句分数由高至低从多个所述对话语句中选取与所述摘要请求对应的请求数量相等的多个关键句。
可选地,所述正则表达式包括特定词语表达式和数字字符表达式;所述根据预设的正则表达式和多个所述初始词汇,调整所述初始权重的步骤,包括:
检索符合所述特征词语表达式的初始词汇作为第一词汇,并将所述第一词汇关联的对话语句确定为第一查询语句;
检索符合所述数字字符表达式的初始词汇作为第二词汇,并将所述第二词汇关联的对话语句确定为第二查询语句;
按照第一预设幅度提高所述第一查询语句对应的初始权重;
按照第二预设幅度提高所述第二查询语句对应的初始权重;其中,所述第一预设幅度大于所述第二预设幅度。
可选地,所述分别计算各所述对话语句对应的语句分数的步骤,包括:
逐一选取每个所述对话语句中的每个初始词汇作为待处理词汇,将所处的对话语句确定为查询语句;
计算所述待处理词汇分别对应的重要性度量;
计算每个所述待处理词汇在各个所述对话语句中的出现比例;
采用预设的分数计算公式结合所述重要性度量和所述出现比例,计算各所述查询语句分别对应的语句分数;
其中,所述分数计算公式为:
其中,BM25F(Doc,Q)为对话语句Q在对话文档Doc中的语句分数,对话语句Q由初始词汇q1~qr组成;IDF(qi)为第i个待处理词汇qi的重要性度量,TF(qi,fj)为第i个待处理词汇qi在除查询语句Q外的第j个对话语句fj中的出现比例,r为查询语句Q中初始词汇的总数量,u为对话文档Doc中除查询语句Q外对话语句的数量,wj为各个对话语句对应的初始权重,ULj为除查询语句Q外的第j个对话语句的长度,avgUL为全部对话语句fj的平均长度,k为预设正参数,b为可调参数,0<b<1。
可选地,所述目标编码器包括嵌入层、多头自注意力机制层和前馈神经网络层;所述对各个所述关键句进行编码,生成多个特征向量的步骤,包括:
按照所述对话文档的顺序将首个所述关键句作为待编码语句输入嵌入层;
通过所述嵌入层将所述待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层;
通过所述多头自注意力机制层建立各所述高维向量之间的依赖关系后,传输至前馈神经网络层;
通过所述前馈神经网络层按照所述依赖关系对各所述高维向量进行非线性变换,生成特征向量;
按照所述对话文档的顺序选取未处理的关键句作为新的待编码语句;
跳转执行所述通过所述嵌入层将所述待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层的步骤,直至生成与所述关键句的数量相等的多个特征向量。
可选地,所述当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要的步骤,包括:
当接收到解码开始信息时,采用预设的目标解码器初始化隐藏状态,并选取首个所述特征向量作为解码向量;
采用所述隐藏状态和所述解码向量,构建初始状态;
通过所述目标解码器根据所述初始状态和所述解码向量,生成第一摘要词语并缓存至词序列;
选取未处理的特征向量作为新的解码向量;
通过所述目标解码器采用当前时刻的词序列和所述解码向量进行解码,生成第二摘要词语并缓存至所述词序列;
跳转执行所述选取未处理的特征向量作为新的解码向量的步骤,直至全部所述特征向量均被处理,将当前时刻的词序列确定为所述对话文档对应的初始对话摘要。
可选地,所述采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要的步骤,包括:
从所述对话文档中筛选除所述关键句以外的全部语句作为非关键句;
将所述初始对话摘要输入预设的第一GRU模型,生成摘要语义信息;
将所述非关键句输入预设的第二GRU模型,生成上下文语义信息;
拼接所述上下文语义信息和所述摘要语义信息,得到拼接向量;
对所述拼接向量进行解码,生成目标对话摘要。
可选地,所述方法还包括:
获取多个对话摘要数据对;
采用多个所述对话摘要数据对训练预设的初始编码器和预设的初始解码器,得到目标编码器和目标解码器。
本发明第二方面提供了一种对话摘要生成装置,包括:
关键句提取模块,用于当接收到摘要请求时,从所述摘要请求对应的对话文档中加权提取多个关键句;
向量编码模块,用于对各个所述关键句进行编码,生成多个特征向量;
向量解码模块,用于当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要;
摘要更新模块,用于采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要。
本发明第三方面提供了一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如本发明第一方面任一项所述的对话摘要生成方法的步骤。
从以上技术方案可以看出,本发明具有以下优点:
当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;对各个关键句进行编码,生成多个特征向量;当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。从而在有效减少数据输入长度,减少模型计算负担的同时,考虑不同字段对于关键信息的贡献差异,提高对话摘要的生成灵活性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例一提供的一种对话摘要生成方法的步骤流程图;
图2为本发明实施例二提供的一种对话摘要生成方法的步骤流程图;
图3为本发明实施例以BM25F为提取算法的关键句提取过程的示意图;
图4为本发明实施例提供的某一对话的具体示例流程图;
图5为本发明实施例中的一种对话摘要生成过程的流程示意图;
图6为本发明实施例三提供的一种对话摘要生成装置的结构框图。
具体实施方式
对话摘要的主要方式,除了将文档摘要模型直接应用于会话设置之外,还有为会话量身定制的模型旨在实现最先进的性能,例如以分层方式对会话进行建模。对话中丰富的结构化信息也得到了探索和利用,如对话行为、关键点/实体序列、主题片段、阶段发展、话语关系。常识知识等外部信息也被纳入其中,以帮助理解全球对话背景。
现有的基于预训练神经网络的对话摘要方法,大多数都是采用基于Transformer的模型作为预训练神经网络。与此同时,由于对话摘要的应用场景通常发生在会议、客服对话等场景上,这些场景所产生的对话较长,这就导致用于训练和微调一个对话摘要模型的数据往往是非常长的,甚至经常超过基于Transformer的模型的输入长度限制,从而导致得到的摘要质量不佳。
如果考虑先使用算法提取出对话中的一些关键句作为下游模型的输入,往往会想到使用TF-IDF算法或者BM25算法。但是TF-IDF在计算时不考虑停用词,而停用词可能占据文档中大部分词汇,从而影响结果。而使用BM25算法计算关键句得分时,将文档视为一体,即无法考虑文档内部不同字段之间的权重信息。也就是说,某些关键的词汇、数据等可能无法被重点考虑,从而导致得到的关键信息质量不佳,进而使训练得到的对话摘要模型质量不佳。
为此,本发明实施例提供了一种对话摘要生成方法、装置和设备,用于解决现有的对话摘要方法多是直接采用过去对于非结构化的文本摘要模型的数据集进行训练和微调,对对话摘要任务没有针对性,且针对长序列对话存在较大的处理压力,无法灵活考虑不同字段对于关键信息的贡献差异,导致对话摘要的生成灵活性较低的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例一提供的一种对话摘要生成方法的步骤流程图。
本发明提供的一种对话摘要生成方法,包括:
步骤101,当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;
对话文档指的是用于记录用户之间的对话内容的文档型数据,其中每句话语均在前端标明说话人,且以冒号进行话语的引出。
在本发明实施例中,当接收到外部用户输入或其它终端输入的摘要请求时,从该摘要请求中提取需要进行对话摘要生成的对话文档,或者按照该摘要请求检索本地存储或云端存储的对话文档。
在获取到对话文档后,按照对话文档中的对话语句和词汇等,对各对话语句进行加权分数计算,并按照其加权后的分数进行提取,得到多个关键句。
需要说明的是,关键句指的是语义信息更为丰富且重要的对话语句,包括但不限于含有某些特定关键词例如转折词、关联词或对话主题词等的对话语句,或是带有数字或其它特定字符例如字母简称、缩写等对话语句。
步骤102,对各个关键句进行编码,生成多个特征向量;
在提取到多个关键句后,可以按照关键句中的词语和词语之间的关联关系进行编码,以生成各个关键句所对应的特征向量。
其中,特征向量指的是关键句对应的上下文向量,其包含关键句的重要语义信息。
步骤103,当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;
在得到多个特征向量,若是接收到解码开始信息时,例如<sos>(start ofsequence),此时可以采用与之对应的解码器依次对各个特征向量进行解码,从而在每个时间步长分别生成一个特征向量对应的词语并进行缓存,当全部特征向量被解码后,生成对话文档对应的初始对话摘要。
步骤104,采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。
对话摘要(Dialogue Summarization)指的是将一个或多个对话转化为更加精简的形式,从而让人们更加方便地读懂、理解和回顾对话的内容信息。在将要生成的摘要文本中包含对话的主要信息和要点,同时应该尽量减少摘要文本的长度。对话摘要应用广泛,例如,在在线客服中,服务代表需要处理大量的用户交互,对话摘要技术可以帮助更快地了解客户需求,提高工作效率。
在本实施例中,在生成初始对话摘要后,由于部分关键句被调整了其权重,可能会导致初始对话摘要的语义产生偏移,此时可以次要给对话文档中除关键句以外的剩余语句,也即是非关键句。获取其对应的上下文语义信息与初始对话摘要的语义信息进行融合后解码,从而对初始对话摘要进行进一步更新,生成目标对话摘要,进而生成更为准确且连贯的对话摘要。
在本发明实施例中,当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;对各个关键句进行编码,生成多个特征向量;当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。从而在有效减少数据输入长度,减少模型计算负担的同时,考虑不同字段对于关键信息的贡献差异,提高对话摘要的生成灵活性。
请参阅图2,图2为本发明实施例二提供的一种对话摘要生成方法的步骤流程图。
本发明提供的一种对话摘要生成方法,包括:
步骤201,当接收到摘要请求时,对摘要请求指定的对话文档进行语句分割,得到多个对话语句并设置初始权重;
在本发明实施例中,当接收到外部输入的摘要请求时,表明用户此时需要对某个对话文档生成对话摘要,此时可以通过显示二级页的方式显示当前已上传的对话文档。同时还可以设置有新建文档按键,通过响应用户点击进行新的对话文档的上传。
当接收到摘要请求时,响应该摘要请求进行对话文档的指定,按照预定的规则对对话文档进行语句分割,得到多个对话语句并为每个对话语句设置初始权重。其中,初始权重可以相等也可以不相等。
具体地,使用句子分割工具对每个对话中的句子进行分割。在Python中可以使用nltk库中的sent_tokenize函数实现句子分割,从而得到DSum的由多个对话语句组成的第一次预处理数据集DSum_Sentences。与此同时,改变数据集结构,为分离得到的每个句子增加“权重”属性,并初始化为1。
需要说明的是,如果是普通文档,其注意力更集中在标题、首尾自然段等部分。针对对话这一场景,考虑到不同字段应有不同权重,关键句提取质量更佳,从而得到的摘要更佳。BM25F算法可以考虑不同字段应具有不同的权重,从而使得在进行关键句提取时更加准确。这样,关键句提取时就可以更加精确地区分出文本中的重要信息,从而提高了摘要的准确性和质量。本发明实施例中的对话文档存在明显区分人物的符号,以区分不同的说话者。
步骤202,采用分词工具对各对话语句执行分词操作,确定每个对话语句对应的多个初始词汇;
在本发明实施例中,为了尽可能保留富含更有效甚至关键信息的句子,并将它们与其它句子加以区分,还应找出这些句子。为此,可以采用分词工具对各个对话语句分别执行分词操作,从而确定每个对话语句所对应的多个初始词汇。
其中,可以在Python中选用nltk库中的word_tokenize函数实现分词操作的实现,以将符合词语规则的各个初始词汇进行划分,得到每个对话语句分别对应的多个初始词汇。
步骤203,根据预设的正则表达式和多个初始词汇,调整初始权重;
可选地,正则表达式包括特定词语表达式和数字字符表达式,步骤203可以包括以下子步骤:
检索符合特征词语表达式的初始词汇作为第一词汇,并将第一词汇关联的对话语句确定为第一查询语句;
检索符合数字字符表达式的初始词汇作为第二词汇,并将第二词汇关联的对话语句确定为第二查询语句;
按照第一预设幅度提高第一查询语句对应的初始权重;
按照第二预设幅度提高第二查询语句对应的初始权重;其中,第一预设幅度大于第二预设幅度。
在本发明实施例中,对于特定词汇开头或者带有数据的句子,通常富含更为重要的信息,更值得用户关注。可以采用正则表达式的方式进行初始词汇的匹配,从中筛选得到符合特征词语表达式的第一词汇,将其所关联的对话语句确定为第一查询语句。与此同时,还可以检索符合数字字符表达式的第二词汇,将第二词汇所关联的对话语句确定为第二查询语句。按照第一预设幅度提高第一查询语句对应的初始权重,按照第二预设幅度提高第二查询语句对应的初始权重。
在具体实现中,特征词语表达式可以与“但是”、“然而”等转折词以及以“所以”、“最终”、“结果”等词进行关联。数字字符表达式可以使用正则表达式能够方便地匹配数字和周围的字符。
其中,第一预设幅度大于第二预设幅度,第一预设幅度可以设置为50%或者31%~70%,第二预设幅度可以设置为30%,本发明实施例对其具体取值并不限制。
步骤204,分别计算各对话语句对应的语句分数;
可选地,步骤204可以包括以下子步骤:
逐一选取每个对话语句中的每个初始词汇作为待处理词汇,将所处的对话语句确定为查询语句;
计算待处理词汇分别对应的重要性度量;
计算每个待处理词汇在各个对话语句中的出现比例;
采用预设的分数计算公式结合重要性度量和出现比例,计算各查询语句分别对应的语句分数;
其中,分数计算公式为:
其中,BM25F(Doc,Q)为对话语句Q在对话文档Doc中的语句分数,对话语句Q由初始词汇q1~qr组成;IDF(qi)为第i个待处理词汇qi的重要性度量,TF(qi,fj)为第i个待处理词汇qi在除查询语句Q外的第j个对话语句fj中的出现比例,r为查询语句Q中初始词汇的总数量,u为对话文档Doc中除查询语句Q外对话语句的数量,wj为各个对话语句对应的初始权重,ULj为除查询语句Q外的第j个对话语句的长度,avgUL为全部对话语句fj的平均长度,k为预设正参数,b为可调参数,0<b<1。
在本实施例中,逐一计算各个初始词汇分别对应的重要性度量。具体地,以IDF是一字或词普遍重要性的度量。在该提取器中,某一特定字qi的IDF,可以由总数目除以包含该词语之语句的数目,再将得到的商取以10为底的对数得到:
其中,Unum指的是对话文档的对话语句总数,df(qi)指的是包含待处理词汇qi的语句数目,如果直接用该数值作为分母,则当该数值为0时,会导致分母为0,因此通常在其基础上加一作为分母。
同时,逐一计算每个初始词汇在各个对话语句中的出现比例,具体地可以通过qi在fj中出现的次数与qi在fj中所有关键字出现的次数的商TF(qi,fj)进行表示:
t表示待处理词汇qi在fj中出现的次数,T表示在fj中所有待处理词汇qi出现的总次数。
需要说明的是,变量k是一个正的参数,在单词颗粒度检索应用中用来标准化词频的范围,当k=0,就是一个二元模型(binary model),一个更大的值对应使用更原始的词频信息。这个参数控制着词频结果在词频饱和度中的上升速度。经验值为1.2。值越小饱和度变化越快,值越大饱和度变化越慢。
b是另一个可调参数(0<b<1),决定使用文档长度来表示信息量的范围:当b为1,是完全使用文档长度来权衡语句的权重,当b为0表示不使用文档长度。b越大,文档长度的对相关性得分的影响越大,反之越小。同等频率的情况下,长文档与qi的相关性应该比短文档与qi的相关性弱。经验值为0.75。
从公式可以看出,BM25F对文档分成多个区域,对不同的域进行加权统计,如文档中的被赋予不同的权重,在不同的域中对每个词的各个指标(词频、文本长度等)进行加权求和求得最终结果。图3为使用BM25F为提取算法的关键句提取过程的示意图。
其中示出了查询语句Q(Query)、对话文档Doc(Document)以及域(Field)的关系,其中域的颜色深浅度表示该域的权重大小。计算时,将其它每一个句子视为域,即BM25F公式中的f;句子所对应的权重即BM25F公式中域所对应的权重w;句子长度即BM25F公式中域的长度UL。所有句子的平均长度则为BM25F公式中的域平均长度avgUL。
需要说明的是,BM25F算法(Best Matching 25with Fields),基于BM25改进而来,最早用于信息检索和搜索引擎算法中。它添加了字段权重、字段长度等因素来更准确地计算文档的相关性。在BM25F中,每个文档被分成多个字段,每个字段都有一个不同的权重因子。BM25F除了考虑查询语句中的关键词与文档中的对应关系之外,还进一步考虑了字段之间的相关性。
在本发明实施例中,逐一选取每个对话语句中的每个初始词汇作为待处理词汇,将所处的对话语句确定为查询语句,计算待处理词汇分别对应的重要性度量;计算每个待处理词汇在各个对话语句中的出现比例,采用预设的分数计算公式结合重要性度量和出现比例,计算各查询语句分别对应的语句分数,不断循环计算直至每个对话语句均被作为查询语句,并计算出对应的语句分数。
步骤205,按照语句分数由高至低从多个对话语句中选取与摘要请求对应的请求数量相等的多个关键句;
在计算得到每个对话语句对应的语句分数后,也就得到了各个对话语句的重要程度并按照其语句分数由高至低进行排序,按照摘要请求所对应的请求数量,从多个对话语句中选取与请求数量相等的多个关键句。
此外,请求数量不仅可以通过摘要请求进行指定,若是摘要请求并未携带有对应的请求数量,则可以在本方法中预设定值作为请求数量。
在本发明实施例中,经步骤201-205,已经得到了多个关键句组成的数据集,同时每个关键句均计算得到了BM25F得分,此时可以通过预训练神经网络的编码器-解码器的方式生成特征向量并解码,从而得到对应的对话摘要。
其中,预训练神经网络(Pretrained Neural Network)指在大规模的数据集上进行训练的模型,将其学习到的特征参数保存下来做为初始化参数,然后再在其它任务上进行微调(fine-tuning)。在本发明实施例中,采用了预训练语言模型BART(Bidirectionaland Auto-Regressive Transformer)作为生成模型。该模型基于自编码器结构,采用Transformer结构编码器-解码器,通过无监督训练从大规模文本语料库中学习生成文本的能力。这种预训练方法不需要标注数据,可应用于各种自然语言生成任务。
步骤206,对各个关键句进行编码,生成多个特征向量;
进一步地,目标编码器包括嵌入层、多头自注意力机制层和前馈神经网络层;步骤206可以包括以下子步骤:
按照对话文档的顺序将首个关键句作为待编码语句输入嵌入层;
通过嵌入层将待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层;
通过多头自注意力机制层建立各高维向量之间的依赖关系后,传输至前馈神经网络层;
通过前馈神经网络层按照依赖关系对各高维向量进行非线性变换,生成特征向量;
按照对话文档的顺序选取未处理的关键句作为新的待编码语句;
跳转执行通过嵌入层将待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层的步骤,直至生成与关键句的数量相等的多个特征向量。
在具体实现中,将各个关键句作为模型的输入,通过BART编码器进行编码,得到一个特征向量。这个特征向量可以看作是对话的语义表示,其中包含了与关键句有关的丰富信息。具体过程是,将输入传入嵌入层,嵌入层会将每个单词或子词转换为高维度的向量表示,以捕捉词语之间的语义信息和关联性。在嵌入层之后,输入向量会被传递到一系列的Transformer编码器中。每个编码器都由多头自注意力机制和前馈神经网络组成。自注意力机制使得模型可以在输入序列内部建立单词之间的依赖关系,从而更好地理解语义关联。前馈神经网络则帮助模型进行非线性变换。在所有的Transformer编码器层结束后,会得到一组编码器输出。这些输出可以被看作是对关键句进行编码的上下文向量。上下文向量抓住了关键句的重要语义信息,并且可用于后续的解码器生成过程。
步骤207,当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;
可选地,步骤207可以包括以下子步骤:
当接收到解码开始信息时,采用预设的目标解码器初始化隐藏状态,并选取首个特征向量作为解码向量;
采用隐藏状态和解码向量,构建初始状态;
通过目标解码器根据初始状态和解码向量,生成第一摘要词语并缓存至词序列;
选取未处理的特征向量作为新的解码向量;
通过目标解码器采用当前时刻的词序列和解码向量进行解码,生成第二摘要词语并缓存至词序列;
跳转执行选取未处理的特征向量作为新的解码向量的步骤,直至全部特征向量均被处理,将当前时刻的词序列确定为对话文档对应的初始对话摘要。
在具体实现中,解码器接收到一个特定的开始标记,如<sos>(start ofsequence),然后自动逐步生成对话摘要,具体来说,解码器会初始化一个隐藏状态,作为模型在解码过程中的记忆。这个隐藏状态与首个特征向量相结合,构成了生成摘要所需的初始状态,然后解码器根据初始状态和选定首个特征向量的解码向量,生成第一摘要词语并缓存至词序列,逐步生成对话摘要,在每个时间步骤,解码器选取未处理的特征向量作为新的解码向量,根据之前生成的词序列和当前的解码向量生成下一个词语,也就是第二摘要词语。直到遇到特定的结束标记,如<eos>(end of sequence)或者达到最大长度限制。
可选地,在执行步骤208之前,本方法还包括以下步骤:
当第一词汇的数量小于或等于预设的转折阈值,且生成初始对话摘要时,将初始对话摘要确定为目标对话摘要。
在具体实现中,由于对话文档的不同以及其中对话的复杂程度不同,可以按照第一词汇的数量,即转折词或关系词的数量来判断是否需要对初始对话摘要进行进一步优化。因此,在执行步骤208之前,可以先对第一词汇的数量进行判断,若是其数量小于或等于预设的转折阈值,则表明此时该初始对话摘要与原对话文档的语义偏离程度较小,此时若是已生成了初始对话摘要,则可以将该初始对话摘要确定为目标对话摘要。
步骤208,采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。
进一步地,步骤208可以包括以下子步骤:
从对话文档中筛选除关键句以外的全部语句作为非关键句;
将初始对话摘要输入预设的第一GRU模型,生成摘要语义信息;
将非关键句输入预设的第二GRU模型,生成上下文语义信息;
拼接上下文语义信息和摘要语义信息,得到拼接向量;
对拼接向量进行解码,生成目标对话摘要。
由于对部分语句进行权重调整,例如带有转折词的句子,这可能会让最后得到的关键句包含大量含转折词的句子。这可能会导致最终生成的初始对话摘要产生较大的语义偏离。例如图4中示例数据的对话的主旨是“玛丽建议重新安排野餐时间”,而初次摘要却为“...玛丽让汤姆不要负担地去野餐”,这产生了严重的语义偏离。诚然,含转折词的句子非常关键,但如果不结合上下文,哪怕上下文是“非关键句”,也可能得出错误的摘要。
为此,本实施例中融合上下文的语义信息对初始对话摘要进行更新,可以从对话文档中筛选除关键句以外的全部语句作为非关键句,将初始对话摘要到预设的第一GRU模型,通过第一GRU模型对其进行语义解析,生成摘要语义信息。与此同时,还可以将非关键句输入预设的第二GRU模型,生成上下文语义信息。通过拼接上下文语义信息和摘要语义信息,得到拼接向量,最后采用BART解码器对拼接向量进行解码,生成目标对话摘要。
在具体实现中,以Ssummary为初始对话摘要,Scontext为非关键句组成的上下文序列,我们首先使用GRU来获取这两个序列的表示。
对于摘要语义信息hsummary的表示:
hsummary=GRU(Ssummary)
对于上下文语义信息hcontext的表示:
hcontext=GRU(Scontett)
然后,将这两个信息拼接起来:
最后,将拼接后的拼接向量输入到BART解码器以获得最终摘要:
Summaryfinal=BARTdecoder(hcombined)
其中,GRU(Gated Recurrent Unit)是一种循环神经网络结构,特别擅长捕获时间序列或顺序数据中的长程依赖关系。与传统RNN不同,GRU通过使用其特有的门机制可以更好地存储和访问早期的信息,使其在处理长序列时表现出色。当处理对话或文本摘要时,上下文信息通常跨越多个句子。GRU通过其门机制可以有效地捕获和保留这些长程依赖关系。GRU的门结构使其能够决定哪些信息应该被传递给下一个时间步,从而允许模型专注于与生成摘要最相关的信息。
这种方法结合了GRU在捕获顺序信息方面的能力和BART在文本生成方面的优越性能,从而产生了高质量、连贯的摘要。通过结合生成摘要的上下文表示与关键句的上下文表示,能够更有效地捕获摘要和原对话之间的关系。通过BART解码器的进一步解码,这个方法能够生成更准确、连贯的摘要。在处理过程中,仅使用关键句的上下文而不使用整个原对话文本作为输入,有效缓解了输入长度的问题,也减小了模型的计算负担。
在本发明的另一个示例中,方法还包括:
获取多个对话摘要数据对;
采用多个对话摘要数据对训练预设的初始编码器和预设的初始解码器,得到目标编码器和目标解码器。
在本发明实施例中,可以先对预训练神经网络进行编码器和解码器的构建以及模型训练,其中预训练神经网络以BART模型为例:
获取一个对话摘要数据集DSum,其由若干个对话摘要数据对(D-S)构成。每个对话D是由若干句话语组成的:D={U1,U2,…,Un}。
提取关键句阶段的目标在于将每个对话D转化为由关键句(Key sentences)组成的数据DK,即DK={K1,K2,…,Km}。其中每个K均来自于D,且m≤n,即DK是D的子集。在计算各个关键句对应的BM25F得分后,从高至低选取BM25F得分最高的若干个句子,作为关键句,与其对应的对话摘要构建出一个新的数据集,作为下一步神经网络模型生成摘要的训练和微调数据。
在训练BART模型时,可以采用两个阶段的微调方法。第一阶段是使用关键句进行监督学习进行微调,以提高生成对话摘要的质量。第二阶段是使用整个对话和对话摘要对模型进行端到端的微调,以进一步提高性能。在微调过程中,可以使用交叉熵损失函数来衡量生成的对话摘要与标准对话摘要之间的差异。同时,还可以采用梯度累积、学习率衰减等技巧来加快模型的训练和提高性能。最后,这个训练好的BART模型可以用于自动生成对话摘要。
请参阅图5,图5为本发明实施例中的一种对话摘要生成过程的流程示意图。
在本发明实施例中,具体包括以下步骤Stage 1-3:
Stage 1:调用BM25F算法分别计算各个句子的得分,从中提取关键句;
Stage 2:通过神经网络中的编码器和解码器对关键句进行处理,生成初次摘要;
Stage 3:融合关键句上下文的语义信息对初次摘要进行更新,得到最终摘要。
在本发明实施例中,当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;对各个关键句进行编码,生成多个特征向量;当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。从而在有效减少数据输入长度,减少模型计算负担的同时,考虑不同字段对于关键信息的贡献差异,提高对话摘要的生成灵活性。
请参阅图6,图6示出了本发明实施例三的一种对话摘要生成装置的结构框图。
本发明实施例提供了一种对话摘要生成装置,包括:
关键句提取模块601,用于当接收到摘要请求时,从摘要请求对应的对话文档中加权提取多个关键句;
向量编码模块602,用于对各个关键句进行编码,生成多个特征向量;
向量解码模块603,用于当接收到解码开始信息时,依次对各特征向量进行解码,生成对话文档对应的初始对话摘要;
摘要更新模块604,用于采用对话文档中的非关键句对初始对话摘要进行更新,生成目标对话摘要。
可选地,关键句提取模块601包括:
语句分割子模块,用于当接收到摘要请求时,对摘要请求指定的对话文档进行语句分割,得到多个对话语句并设置初始权重;
分词子模块,用于采用分词工具对各对话语句执行分词操作,确定每个对话语句对应的多个初始词汇;
权重调整子模块,用于根据预设的正则表达式和多个初始词汇,调整初始权重;
语句分数计算子模块,用于分别计算各对话语句对应的语句分数;
关键句选取子模块,用于按照语句分数由高至低从多个对话语句中选取与摘要请求对应的请求数量相等的多个关键句。
可选地,正则表达式包括特定词语表达式和数字字符表达式;权重调整子模块具体用于:
检索符合特征词语表达式的初始词汇作为第一词汇,并将第一词汇关联的对话语句确定为第一查询语句;
检索符合数字字符表达式的初始词汇作为第二词汇,并将第二词汇关联的对话语句确定为第二查询语句;
按照第一预设幅度提高第一查询语句对应的初始权重;
按照第二预设幅度提高第二查询语句对应的初始权重;其中,第一预设幅度大于第二预设幅度。
可选地,语句分数计算子模块具体用于:
逐一选取每个对话语句中的每个初始词汇作为待处理词汇,将所处的对话语句确定为查询语句;
计算待处理词汇分别对应的重要性度量;
计算每个待处理词汇在各个对话语句中的出现比例;
采用预设的分数计算公式结合重要性度量和出现比例,计算各查询语句分别对应的语句分数;
其中,分数计算公式为:
其中,BM25F(Doc,Q)为对话语句Q在对话文档Doc中的语句分数,对话语句Q由初始词汇q1~qr组成;IDF(qi)为第i个待处理词汇qi的重要性度量,TF(qi,fj)为第i个待处理词汇qi在除查询语句Q外的第j个对话语句fj中的出现比例,r为查询语句Q中初始词汇的总数量,u为对话文档Doc中除查询语句Q外对话语句的数量,wj为各个对话语句对应的初始权重,ULj为除查询语句Q外的第j个对话语句的长度,avgUL为全部对话语句fj的平均长度,k为预设正参数,b为可调参数,0<b<1。
可选地,目标编码器包括嵌入层、多头自注意力机制层和前馈神经网络层;向量编码模块602具体用于:
按照对话文档的顺序将首个关键句作为待编码语句输入嵌入层;
通过嵌入层将待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层;
通过多头自注意力机制层建立各高维向量之间的依赖关系后,传输至前馈神经网络层;
通过前馈神经网络层按照依赖关系对各高维向量进行非线性变换,生成特征向量;
按照对话文档的顺序选取未处理的关键句作为新的待编码语句;
跳转执行通过嵌入层将待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层的步骤,直至生成与关键句的数量相等的多个特征向量。
可选地,向量解码模块603具体用于:
当接收到解码开始信息时,采用预设的目标解码器初始化隐藏状态,并选取首个特征向量作为解码向量;
采用隐藏状态和解码向量,构建初始状态;
通过目标解码器根据初始状态和解码向量,生成第一摘要词语并缓存至词序列;
选取未处理的特征向量作为新的解码向量;
通过目标解码器采用当前时刻的词序列和解码向量进行解码,生成第二摘要词语并缓存至词序列;
跳转执行选取未处理的特征向量作为新的解码向量的步骤,直至全部特征向量均被处理,将当前时刻的词序列确定为对话文档对应的初始对话摘要。
可选地,摘要更新模块604具体用于:
从对话文档中筛选除关键句以外的全部语句作为非关键句;将初始对话摘要输入预设的第一GRU模型,生成摘要语义信息;将非关键句输入预设的第二GRU模型,生成上下文语义信息;拼接上下文语义信息和摘要语义信息,得到拼接向量;对拼接向量进行解码,生成目标对话摘要。
可选地,装置还包括:
数据对获取模块,用于获取多个对话摘要数据对;
模型训练模块,用于采用多个对话摘要数据对训练预设的初始编码器和预设的初始解码器,得到目标编码器和目标解码器。
本发明实施例提供了一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如本发明任一实施例所述的对话摘要生成方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种对话摘要生成方法,其特征在于,包括:
当接收到摘要请求时,从所述摘要请求对应的对话文档中加权提取多个关键句;
对各个所述关键句进行编码,生成多个特征向量;
当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要;
采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要。
2.根据权利要求1所述的方法,其特征在于,所述当接收到摘要请求时,从所述摘要请求指定的对话文档中加权提取多个关键句的步骤,包括:
当接收到摘要请求时,对所述摘要请求指定的对话文档进行语句分割,得到多个对话语句并设置初始权重;
采用分词工具对各所述对话语句执行分词操作,确定每个所述对话语句对应的多个初始词汇;
根据预设的正则表达式和多个所述初始词汇,调整所述初始权重;
分别计算各所述对话语句对应的语句分数;
按照所述语句分数由高至低从多个所述对话语句中选取与所述摘要请求对应的请求数量相等的多个关键句。
3.根据权利要求2所述的方法,其特征在于,所述正则表达式包括特定词语表达式和数字字符表达式;所述根据预设的正则表达式和多个所述初始词汇,调整所述初始权重的步骤,包括:
检索符合所述特征词语表达式的初始词汇作为第一词汇,并将所述第一词汇关联的对话语句确定为第一查询语句;
检索符合所述数字字符表达式的初始词汇作为第二词汇,并将所述第二词汇关联的对话语句确定为第二查询语句;
按照第一预设幅度提高所述第一查询语句对应的初始权重;
按照第二预设幅度提高所述第二查询语句对应的初始权重;其中,所述第一预设幅度大于所述第二预设幅度。
4.根据权利要求3所述的方法,其特征在于,所述分别计算各所述对话语句对应的语句分数的步骤,包括:
逐一选取每个所述对话语句中的每个初始词汇作为待处理词汇,将所处的对话语句确定为查询语句;
计算所述待处理词汇分别对应的重要性度量;
计算每个所述待处理词汇在各个所述对话语句中的出现比例;
采用预设的分数计算公式结合所述重要性度量和所述出现比例,计算各所述查询语句分别对应的语句分数;
其中,所述分数计算公式为:
其中,BM25F(Doc,Q)为对话语句Q在对话文档Doc中的语句分数,对话语句Q由初始词汇q1~qr组成;IDF(qi)为第i个待处理词汇qi的重要性度量,TF(qi,fj)为第i个待处理词汇qi在除查询语句Q外的第j个对话语句fj中的出现比例,r为查询语句Q中初始词汇的总数量,u为对话文档Doc中除查询语句Q外对话语句的数量,wj为各个对话语句对应的初始权重,ULj为除查询语句Q外的第j个对话语句的长度,avgUL为全部对话语句fj的平均长度,k为预设正参数,b为可调参数,0<b<1。
5.根据权利要求1所述的方法,其特征在于,所述目标编码器包括嵌入层、多头自注意力机制层和前馈神经网络层;所述对各个所述关键句进行编码,生成多个特征向量的步骤,包括:
按照所述对话文档的顺序将首个所述关键句作为待编码语句输入嵌入层;
通过所述嵌入层将所述待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层;
通过所述多头自注意力机制层建立各所述高维向量之间的依赖关系后,传输至前馈神经网络层;
通过所述前馈神经网络层按照所述依赖关系对各所述高维向量进行非线性变换,生成特征向量;
按照所述对话文档的顺序选取未处理的关键句作为新的待编码语句;
跳转执行所述通过所述嵌入层将所述待编码语句内的多个词语分别转换为高维向量并传输至多头自注意力机制层的步骤,直至生成与所述关键句的数量相等的多个特征向量。
6.根据权利要求1所述的方法,其特征在于,所述当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要的步骤,包括:
当接收到解码开始信息时,采用预设的目标解码器初始化隐藏状态,并选取首个所述特征向量作为解码向量;
采用所述隐藏状态和所述解码向量,构建初始状态;
通过所述目标解码器根据所述初始状态和所述解码向量,生成第一摘要词语并缓存至词序列;
选取未处理的特征向量作为新的解码向量;
通过所述目标解码器采用当前时刻的词序列和所述解码向量进行解码,生成第二摘要词语并缓存至所述词序列;
跳转执行所述选取未处理的特征向量作为新的解码向量的步骤,直至全部所述特征向量均被处理,将当前时刻的词序列确定为所述对话文档对应的初始对话摘要。
7.根据权利要求1所述的方法,其特征在于,所述采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要的步骤,包括:
从所述对话文档中筛选除所述关键句以外的全部语句作为非关键句;
将所述初始对话摘要输入预设的第一GRU模型,生成摘要语义信息;
将所述非关键句输入预设的第二GRU模型,生成上下文语义信息;
拼接所述上下文语义信息和所述摘要语义信息,得到拼接向量;
对所述拼接向量进行解码,生成目标对话摘要。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述方法还包括:
获取多个对话摘要数据对;
采用多个所述对话摘要数据对训练预设的初始编码器和预设的初始解码器,得到目标编码器和目标解码器。
9.一种对话摘要生成装置,其特征在于,包括:
关键句提取模块,用于当接收到摘要请求时,从所述摘要请求对应的对话文档中加权提取多个关键句;
向量编码模块,用于对各个所述关键句进行编码,生成多个特征向量;
向量解码模块,用于当接收到解码开始信息时,依次对各所述特征向量进行解码,生成所述对话文档对应的初始对话摘要;
摘要更新模块,用于采用所述对话文档中的非关键句对所述初始对话摘要进行更新,生成目标对话摘要。
10.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1-8任一项所述的对话摘要生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311211450.0A CN117235250A (zh) | 2023-09-19 | 2023-09-19 | 一种对话摘要生成方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311211450.0A CN117235250A (zh) | 2023-09-19 | 2023-09-19 | 一种对话摘要生成方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117235250A true CN117235250A (zh) | 2023-12-15 |
Family
ID=89082045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311211450.0A Pending CN117235250A (zh) | 2023-09-19 | 2023-09-19 | 一种对话摘要生成方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117235250A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117669567A (zh) * | 2024-01-31 | 2024-03-08 | 青岛冠成软件有限公司 | 一种单据管理方法 |
-
2023
- 2023-09-19 CN CN202311211450.0A patent/CN117235250A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117669567A (zh) * | 2024-01-31 | 2024-03-08 | 青岛冠成软件有限公司 | 一种单据管理方法 |
CN117669567B (zh) * | 2024-01-31 | 2024-04-23 | 青岛冠成软件有限公司 | 一种单据管理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tsai et al. | Multimodal transformer for unaligned multimodal language sequences | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
US11954435B2 (en) | Text generation apparatus, text generation learning apparatus, text generation method, text generation learning method and program | |
CN114969316B (zh) | 一种文本数据处理方法、装置、设备以及介质 | |
CN113239666B (zh) | 一种文本相似度计算方法及系统 | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
US20210004602A1 (en) | Method and apparatus for determining (raw) video materials for news | |
CN113704507B (zh) | 数据处理方法、计算机设备以及可读存储介质 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN110717038A (zh) | 对象分类方法及装置 | |
CN117235250A (zh) | 一种对话摘要生成方法、装置和设备 | |
CN114298055B (zh) | 基于多级语义匹配的检索方法、装置、计算机设备和存储介质 | |
CN116662502A (zh) | 基于检索增强的金融问答文本生成方法、设备及存储介质 | |
CN112732862B (zh) | 一种基于神经网络的双向多段落阅读零样本实体链接方法和装置 | |
CN113987161A (zh) | 一种文本排序方法及装置 | |
CN116932736A (zh) | 一种基于用户需求结合倒排表的专利推荐方法 | |
Parmar et al. | Abstractive text summarization using artificial intelligence | |
CN116204622A (zh) | 一种跨语言稠密检索中的查询表示增强方法 | |
CN116186244A (zh) | 生成文本摘要的方法、训练摘要生成模型的方法及装置 | |
CN115455152A (zh) | 写作素材的推荐方法、装置、电子设备及存储介质 | |
CN115203206A (zh) | 数据内容搜索方法、装置、计算机设备及可读存储介质 | |
CN114328820A (zh) | 信息搜索方法以及相关设备 | |
CN111090720B (zh) | 一种热词的添加方法和装置 | |
CN113868377A (zh) | 相似度联合模型训练、语义匹配方法及装置 | |
CN113157892A (zh) | 用户意图处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |