CN111400489B - 对话文本摘要生成方法、装置、电子设备和存储介质 - Google Patents
对话文本摘要生成方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111400489B CN111400489B CN202010269479.4A CN202010269479A CN111400489B CN 111400489 B CN111400489 B CN 111400489B CN 202010269479 A CN202010269479 A CN 202010269479A CN 111400489 B CN111400489 B CN 111400489B
- Authority
- CN
- China
- Prior art keywords
- speaker
- representation
- prior
- text
- dialog text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
Abstract
本发明实施例提供一种对话文本摘要生成方法、装置、电子设备和存储介质,其中方法包括:确定对话文本;将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述样本对话文本的样本摘要训练得到的。本发明实施例提供的对话文本摘要生成方法、装置、电子设备和存储介质,提高了对话文本摘要生成的准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种对话文本摘要生成方法、装置、电子设备和存储介质。
背景技术
随着近几年文本信息的爆发式增长,人们每天能接触到海量的对话文本。因此,在大量的对话文本中抽取重要信息作为摘要,越来越受到重视。此处,对话文本是两个或两个以上的发言人,围绕一个或多个话题进行对话的文本。
目前的文本摘要生成方法通常仅基于文本中每个句子的语义信息进行摘要抽取,在利用这种文本摘要生成方法对对话文本进行摘要生成时,摘要生成的准确性欠佳。
发明内容
本发明实施例提供一种对话文本摘要生成方法、装置、电子设备和存储介质,用以解决现有对话文本摘要生成方法生成的摘要不准确的问题。
第一方面,本发明实施例提供一种对话文本摘要生成方法,包括:
确定对话文本;
将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;
所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述样本对话文本的样本摘要训练得到的。
可选地,所述将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要,具体包括:
将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述对话文本摘要模型的先验发言人表示层,得到所述先验发言人表示层输出的所述任一发言人的先验发言人特征表示;
将所述对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示输入至所述对话文本摘要模型的摘要输出层,得到所述摘要输出层输出的所述对话文本对应的摘要。
可选地,所述将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述对话文本摘要模型的先验发言人表示层,得到所述先验发言人表示层输出的所述任一发言人的先验发言人特征表示,具体包括:
将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述先验发言人表示层的先验发言内容表示层,得到所述先验发言内容表示层输出的所述任一发言人的先验发言内容表示;
将任一发言人的先验发言内容表示输入至所述先验发言人表示层的先验编码层,得到所述先验编码层输出的所述任一发言人的先验发言人特征表示。
可选地,所述将任一发言人的先验发言内容表示输入至所述先验发言人表示层的先验编码层,得到所述先验编码层输出的所述任一发言人的先验发言人特征表示,具体包括:
将任一发言人的先验发言内容表示输入至所述先验编码层的先验概率分布提取层,得到所述先验概率分布提取层输出的所述任一发言人的先验发言人特征表示服从的先验概率分布;
将所述先验概率分布输入至所述先验编码层的采样层,得到所述采样层输出的所述任一发言人的先验发言人特征表示。
可选地,所述对话文本摘要模型还包括后验发言人表示层;
所述后验发言人表示层用于基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定所述任一发言人的后验发言人特征表示。
可选地,所述对话文本摘要模型的损失函数包括发言人特征表示损失函数和摘要损失函数,其中所述发言人特征表示损失函数是基于样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示的相似度确定的。
可选地,所述后验发言人表示层包括后验发言内容表示层和后验编码层;
其中,所述后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,确定所述任一发言人的后验发言内容表示;
所述后验编码层用于基于所述任一发言人的后验发言内容表示,确定所述任一发言人的后验发言人特征表示。
第二方面,本发明实施例提供一种对话文本摘要生成装置,包括:
文本确定单元,用于确定对话文本;
摘要生成单元,用于将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;
所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述基于样本对话文本的样本摘要训练得到的。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑命令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种对话文本摘要生成方法、装置、电子设备和存储介质,基于对话文本中每一发言人的先验发言人特征表示,以及每一发言人对应的分句,生成对话文本对应的摘要,在各个分句本身信息的基础上,额外提供了对话文本中每个发言人的重要性信息,提高了对话文本摘要生成方法的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的对话文本摘要生成方法的流程示意图;
图2为本发明实施例提供的对话文本摘要模型运行方法的流程示意图;
图3为本发明实施例提供的先验发言人特征表示确定方法的流程示意图;
图4为本发明又一实施例提供的先验发言人特征表示确定方法的流程示意图;
图5为本发明实施例提供的对话文本摘要模型的结构示意图;
图6为本发明实施例提供的对话文本摘要生成装置的结构示意图;
图7为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着近几年文本信息的爆发式增长,人们每天能接触到海量的长对话文本。如何在大量的对话文本中抽取重要信息作为摘要,成为了热门的研究课题。
目前通常采用通用的文本自动摘要生成方法实现对话文本的摘要抽取。然而,通用的文本自动摘要方法将对话文本视作非对话文本进行处理,仅基于对话文本中每个句子的语义信息进行摘要抽取,摘要生成的准确性欠佳。
对此,本发明实施例提供了一种对话文本摘要生成方法。图1为本发明实施例提供的对话文本摘要生成方法的流程示意图,如图1所示,该方法包括:
步骤110,确定对话文本。
此处,对话文本即需要提取摘要的对话文本。对话文本可以是直接将交流过程中生成的文本导出得到的,也可以是将交流过程中生成的语音数据进行语音识别得到的,还可以是通过OCR(Optical Character Recognition,光学字符识别)技术对包含有对话文本的图片进行识别得到的,本发明实施例对此不作具体限定。
步骤120,将对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到对话文本摘要模型输出的对话文本对应的摘要;
对话文本摘要模型用于确定对话文本中每一发言人的先验发言人特征表示,并基于对话文本中每一发言人对应的分句和先验发言人特征表示,生成对话文本对应的摘要;对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及样本对话文本的样本摘要训练得到的。
具体地,可以基于对话文本中每个分句的发言人标记对对话文本中的分句进行分类汇总,将同一发言人对应的分句归为一类。其中,对于对话文本中没有发言人标记,但是以发言人名字开头的分句,可以使用正则表达式将每个分句中的发言人名字提取出来作为每个分句的发言人标记。此处,在将同一发言人对应的分句进行归类时,不改变各个分句的顺序。
随即,将对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到对话文本摘要模型输出的对话文本对应的摘要。此处,任一发言人对应的分句可以是一个或多个分句。
在对话的情境中,各个发言人在发言时,除了与他人进行沟通交流外,通常会围绕自己的观点进行发言。然而不同的发言人在整段对话中的重要性是不同的,例如,在新闻发布会中,新闻发言人的重要性相对于媒体记者的重要性会更高。进一步地,不同发言人的发言内容在生成对话文本的摘要时,所做的贡献也是不同的,其中,发言人越重要,越有可能基于该发言人的发言内容生成摘要。因此,在对话文本的摘要生成过程中,发言人的重要性能够在每个分句本身信息的基础上,额外提供更精细和丰富的发言人信息,能够提高对话文本的摘要生成方法的准确性。
因此,对话文本摘要模型首先基于输入的对话文本中每一发言人对应的分句,依据各个发言人的所有发言内容,确定对话文本中每一发言人的先验发言人特征表示。其中,任一发言人的先验发言人特征表示是在不知晓每个分句在生成摘要时的重要程度的情况下,得到的用于表征该发言人的重要性的向量表示。然后,对话文本摘要模型基于对话文本中每一发言人对应的分句和先验发言人特征表示,生成对话文本对应的摘要,其中越重要的发言人,其对应的分句更有可能作为生成摘要的依据。由于对话文本摘要模型在生成对话文本的摘要时,同时考虑了每个发言人的重要性,以及每个分句本身的信息,因此生成的摘要更准确。
另外,在执行步骤120之前,还可以预先训练得到对话文本摘要模型,具体可通过如下方式训练得到对话文本摘要模型:首先,收集大量样本对话文本,以及各个样本对话文本对应的样本摘要,并确定每个样本对话文本中每个发言人对应的样本分句。随即,基于样本对话文本中每一发言人对应的样本分句,以及样本对话文本的样本摘要对初始模型进行训练,从而得到对话文本摘要模型。其中,初始模型可以是单一神经网络模型,也可以是多个神经网络模型的组合。
本发明实施例提供的方法,对话文本摘要模型基于对话文本中每一发言人的先验发言人特征表示,以及每一发言人对应的分句,生成对话文本对应的摘要,在各个分句本身信息的基础上,额外考虑了对话文本中每个发言人的重要性信息,提高了对话文本摘要生成的准确性。
基于上述实施例,图2为本发明实施例提供的对话文本摘要模型运行方法的流程示意图,如图2所示,该方法中,步骤120具体包括:
步骤121,将对话文本中任一发言人对应的每一分句的句特征表示输入至对话文本摘要模型的先验发言人表示层,得到先验发言人表示层输出的该发言人的先验发言人特征表示。
具体地,先验发言人表示层用于在对话文本中任一发言人对应的每一分句的句特征表示基础上,依据该发言人的所有发言内容,分析该发言人的重要性,确定该发言人的先验发言人特征表示。
此处,可以将任一发言人对应的每一分句输入至预训练的语言模型,得到该语言模型输出的每一分句的句特征表示。预训练的语言模型可以是Word2vec模型、LSTM(LongShort-Term Memory,长短时记忆网络)模型或BiLSTM(Bi-directional Long-Short TermMemory,双向长短时记忆网络)模型等,本发明实施例对此不作具体限定。
步骤122,将对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示输入至对话文本摘要模型的摘要输出层,得到摘要输出层输出的对话文本对应的摘要。
具体地,摘要输出层用于基于对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示,生成对话文本对应的摘要。另外,摘要输出层可以采用抽取式摘要方式或者生成式摘要方式得到最终的摘要,本发明实施例对此不作具体限定。
可选地,将对话文本中任一发言人对应的每一分句的句特征表示,以及该发言人的先验发言人特征表示进行拼接,得到该发言人对应的每一分句的新特征表示,并基于每一发言人的每一分句的新特征表示生成对话文本对应的摘要。其中,若采用抽取式摘要方式,摘要输出层可以直接基于每一发言人的每一分句的新特征表示,从对话文本中抽取重要的分句,作为对话文本的摘要;若采用生成式摘要方式,摘要输出层则可以对每一发言人的每一分句的新特征表示进行文本编码,得到每一分句的上下文特征,进而对各个分句进行解码,得到对话文本的摘要。
基于上述任一实施例,图3为本发明实施例提供的先验发言人特征表示确定方法的流程示意图,如图3所示,步骤121具体包括:
步骤1211,将对话文本中任一发言人对应的每一分句的句特征表示输入至先验发言人表示层的先验发言内容表示层,得到先验发言内容表示层输出的该发言人的先验发言内容表示;
步骤1212,将任一发言人的先验发言内容表示输入至先验发言人表示层的先验编码层,得到先验编码层输出的该发言人的先验发言人特征表示。
具体地,先验发言内容表示层用于基于对话文本中任一发言人对应的每一分句的句特征表示,确定针对于该发言人所有发言内容的先验发言内容表示。此处,任一发言人的先验发言内容表示层是在不知晓每个分句在生成摘要时的重要程度的情况下,得到的用于表征该发言人的总体发言内容的向量表示。
可选地,采用均值池化的方式得到任一发言人的先验发言内容表示。例如,可以采用以下公式得到任一发言人的先验发言内容表示:
其中,Sent`r是第r个发言人的先验发言内容表示,第r个发言人对应的分句数量为N+1,分别是第r个发言人对应的第1个、第2个,第3个,…,以及第N+1个分句的句特征表示,MeanPooling()是均值池化方法。
随即,将任一发言人的先验发言内容表示输入至先验编码层。先验编码层用于对任一发言人的先验发言内容表示进行编码,得到该发言人的先验发言人特征表示。
本发明实施例提供的方法,基于任一发言人的总体发言内容,得到该发言人的先验发言内容,并对该发言人的先验发言内容进行编码,得到该发言人的先验发言人特征表示,有助于提高摘要生成的准确性。
基于上述任一实施例,图4为本发明又一实施例提供的先验发言人特征表示确定方法的流程示意图,如图4所示,步骤1212具体包括:
步骤1212-1,将任一发言人的先验发言内容表示输入至先验编码层的先验概率分布提取层,得到先验概率分布提取层输出的该发言人的先验发言人特征表示服从的先验概率分布。
具体地,先验概率分布提取层用于基于输入的任一发言人的先验发言内容表示,预测该发言人的先验发言人特征表示服从的先验概率分布。进一步地,可以预先设定每一发言人的先验发言人特征表示所服从的概率分布类型,例如带有对角斜方差矩阵的多元高斯分布,或者各向同性高斯分布等,本发明实施例对此不作具体限定。在此基础上,先验概率分布提取层可以基于任一发言人的先验发言内容表示,预测该发言人的先验发言人特征表示服从的先验概率分布的相关参数,例如均值和方差。
可选地,可以采用条件变分自编码器中的先验网络构建先验概率分布提取层。进一步地,采用带有偏置的全连接层构建先验网络,具体可采用如下方式得到任一发言人的先验发言人特征表示服从的先验概率分布的相关参数:
其中,第r个发言人的先验发言人特征表示服从各向同性高斯分布;μprior和σprior 2分别为各向同性高斯分布的均值和方差;Sent`r为第r个发言人的先验发言内容表示,Wprior和bprior为全连接层的参数。
任一发言人的先验发言人特征表示服从的概率分布可以表示为:
其中,Sr表示第r个发言人对应的所有分句的句特征表示,为在给定Sr的情况下,第r个发言人的先验发言人特征表示Z`r服从的条件概率分布,为条件变分自编码器的参数,N(μprior,σprior 2I)为各向同性高斯分布,I为单位矩阵。
步骤1212-2,将先验概率分布输入至先验编码层的采样层,得到采样层输出的该发言人的先验发言人特征表示。
具体地,得到任一发言人的先验发言人特征表示服从的概率分布后,将先验概率分布输入至先验编码层的采样层。采样层用于对该概率分布进行随机采样,将采样得到的向量作为该发言人的先验发言人特征表示。可选地,当任一发言人的先验发言人特征表示服从带有对角斜方差矩阵的多元高斯分布时,直接采样会使采样得到的结果对均值和方差不可导。此时,可以使用重参数技巧,利用标准正态分布的变量做数据转换,得到采样结果。
本发明实施例提供的方法,基于任一发言人的先验发言内容表示,预测该发言人的先验发言人特征表示服从的先验概率分布,并对先验概率分布进行随机采样,得到该发言人的先验发言人特征表示,为后续生成摘要提供了依据。
基于上述任一实施例,该方法中,对话文本摘要模型还包括后验发言人表示层;后验发言人表示层用于基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定该发言人的后验发言人特征表示。
具体地,后验发言人表示层用于基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,挖掘该发言人的发言内容中重要的发言内容,并基于该发言人的重要发言内容,确定该发言人的后验发言人特征表示。此处,任一发言人的后验发言人特征表示是在获知每个样本分句在生成摘要时的重要程度的情况下,确定得到的该发言人真实重要性的向量表示。其中,每个样本分句在生成摘要时的重要程度可以体现为:若样本摘要中抽取某个样本分句作为摘要内容,则该样本分句在生成摘要时的重要程度为1;若不抽取某个样本分句为摘要内容,该样本分句在生成摘要时的重要程度为0。或者,也可以根据实际的样本对话文本内容,人工标注每个样本分句在生成摘要时的重要程度,本发明实施例对此不作具体限定。
需要说明的是,后验发言人表示层可以仅存在于对话文本摘要模型的训练阶段,在基于对话文本摘要模型对对话文本进行摘要生成时,后验发言人表示层不参与摘要生成过程。
由于后验发言人特征表示是基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度确定得到的,因此,后验发言人特征表示能够反映该发言人真实的重要性。在对话文本摘要模型的训练过程中,将后验发言人表示层输出的后验发言人特征表示作为训练目标,能够使先验发言人表示层输出的先验发言人特征表示逐渐向后验发言人特征表示靠近,使得训练完成后,发言人表示层输出的先验发言人特征表示也尽可能地反映出该发言人真实的重要性。因此,在对话文本摘要模型的实际应用过程中,基于每一发言人的先验发言人特征表示和每一分句生成的摘要的准确性也能够得到保证。
本发明实施例提供的方法,基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定该发言人的后验发言人特征表示,使得对话文本摘要模型在训练完成后,发言人表示层输出的先验发言人特征表示能尽可能地反映出该发言人真实的重要性,提高了摘要生成的准确性。
基于上述任一实施例,该方法中,对话文本摘要模型的损失函数包括发言人特征表示损失函数和摘要损失函数,其中发言人特征表示损失函数是基于样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示的相似度确定的。
具体地,对话文本摘要模型在训练过程中,损失函数包括两个部分:发言人特征表示损失函数和摘要损失函数。此处,发言人特征表示损失函数用于减少样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示之间的差异性。其中,发言人特征表示损失函数可以基于样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示之间的相似度确定。
摘要损失函数用于减少对话文本摘要模型基于样本对话文本中每一发言人的样本分句生成的摘要,与该样本对话文本的样本摘要之间的差异性。其中,对话文本摘要模型可以基于样本对话文本中每一发言人的后验发言人特征表示,以及每一样本分句生成摘要,也可以基于样本对话文本中每一发言人的先验发言人特征表示,以及每一样本分句生成摘要。摘要损失函数可以基于对话文本摘要模型中的摘要输出层将样本对话文本中每一发言人的后验发言人特征表示,以及每一样本分句的句特征表示进行拼接后,根据每一样本分句拼接后的特征表示生成的摘要,与该样本对话文本的样本摘要之间的距离确定。
可选地,将每一发言人的先验发言人特征表示服从的概率分布和后验发言人特征表示服从的概率分布之间的KL散度(Kullback–Leibler divergence),作为每一发言人的先验发言人特征表示和后验发言人特征表示之间的相似度。
任一发言人的先验发言人特征表示服从的概率分布和该发言人的后验发言人特征表示服从的概率分布之间的KL散度,可以表示为:
其中,为第r个发言人的先验发言人特征表示服从的概率分布和该发言人的后验发言人特征表示服从的概率分布之间的KL散度,Sr为第r个发言人对应的每一样本分句的句特征表示,Yr为第r个发言人对应的每一样本分句的重要程度,Zr为第r个发言人的后验发言人特征表示,Z`r为第r个发言人的先验发言人特征表示;为在给定Sr的情况下,先验发言人特征表示Z`r服从的条件概率分布,为在给定Sr和Yr的情况下,后验发言人特征表示Zr服从的条件概率分布,KL()表示求两个概率分布的KL散度。
基于每一发言人对应的先验发言人特征表示服从的概率分布和后验发言人特征表示服从的概率分布之间的KL散度,可以确定对话文本摘要模型的发言人特征表示损失函数。可选地,将每一发言人对应的先验发言人特征表示服从的概率分布和后验发言人特征表示服从的概率分布之间的KL散度进行求和,得到发言人特征表示损失函数;或者在将每一发言人对应的先验发言人特征表示服从的概率分布和后验发言人特征表示服从的概率分布之间的KL散度进行求和之后,求取平均值,作为发言人特征表示损失函数,本发明实施例对此不作具体限定。
基于上述任一实施例,该方法中,后验发言人表示层包括后验发言内容表示层和后验编码层。
其中,后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,确定该发言人的后验发言内容表示;后验编码层用于基于该发言人的后验发言内容表示,确定该发言人的后验发言人特征表示。
具体地,后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,凸显该发言人的所有发言内容中重要的部分,并确定该发言人所有发言内容的后验发言内容表示。此处,任一发言人的后验发言内容表示层是在获知每个样本分句在生成摘要时的重要程度的情况下,确定得到的表征该发言人的总体发言内容的向量表示。
可选地,采用均值池化的方式得到任一发言人的后验发言内容表示。例如,可以采用以下公式得到任一发言人的后验发言内容表示:
其中,Sentr为第r个发言人的后验发言内容表示,第r个发言人对应的分句数量为N+1,分别是第r个发言人对应的第1个、第2个,第3个,…,以及第N+1个样本分句的句特征表示,分别是第1个、第2个,第3个,…,以及第N+1个样本分句的重要程度,MeanPooling()是均值池化方法。
随即,将任一发言人的后验发言内容表示输入至后验编码层。后验编码层用于对任一发言人的后验发言内容表示进行编码,得到该发言人的后验发言人特征表示。
可选地,后验发言人表示层可以与先验发言人表示层共同构成条件变分自编码器。后验发言人表示层的后验编码层可以采用与先验发言人表示层的先验编码层相同或类似的结构。例如,后验编码层可以包括后验概率分布提取层和采样层。其中,可以采用条件变分自编码器中的识别网络构建后验概率分布提取层。进一步地,可采用带有偏置的全连接层构建识别网络,具体可采用如下方式得到任一发言人的后验发言人特征表示服从的后验概率分布的相关参数:
其中,第r个发言人的后验发言人特征表示服从各向同性高斯分布;μrecog和σrecog 2分别为各向同性高斯分布的均值和方差;Sentr为第r个发言人的后验发言内容表示,Wrecog和brecog为全连接层的参数。
其中,任一发言人的后验发言人特征表示服从的概率分布可以表示为:
其中,Sr表示第r个发言人对应的所有样本分句的句特征表示,Yr表示第r个发言人对应的所有样本分句的重要程度,为在给定Sr和Yr的情况下,第r个发言人的后验发言人特征表示Zr服从的条件概率分布,为条件变分自编码器的参数,N(μrecog,σrecog 2I)为各向同性高斯分布,I为单位矩阵。
然后,将任一发言人的后验发言人特征表示服从的后验概率分布输入至采样层,采样层用于对该概率分布进行随机采样,并将采样得到的向量作为该发言人的后验发言人特征表示。
本发明实施例提供的方法,基于任一发言人的所有样本分句,以及各样本分句的重要程度,得到该发言人的后验发言内容,并对该发言人的后验发言内容进行编码,得到该发言人的后验发言人特征表示,为对话文本摘要模型的训练提供了依据。
基于上述任一实施例,对话文本摘要模型的构建方法包括如下步骤:
首先,收集大量样本对话文本,以及各个样本对话文本的样本摘要。其中,可以基于样本对话文本的样本摘要,确定样本对话文本中每一样本分句的重要程度。
将样本对话文本中每个样本分句按照所属发言人进行分类汇总,将同一发言人对应的样本分句归为一类。此处,在将同一发言人对应的样本分句进行归类时,不改变各个分句的顺序。
然后,确定对话文本摘要模型的结构。图5为本发明实施例提供的对话文本摘要模型的结构示意图,如图5所示,对话文本摘要模型包括先验发言人表示层、后验发言人表示层和摘要输出层。先验发言人表示层和后验发言人表示层共同构成条件变分自编码器。此处需要说明的是,后验发言人表示层仅存在于对话文本摘要模型的训练阶段,在基于对话文本摘要模型对对话文本进行摘要生成时,后验发言人表示层不参与摘要生成过程。
先验发言人表示层包括先验发言内容表示层和先验编码层,先验编码层包括先验概率分布提取层和采样层;后验发言人表示层包括后验发言内容表示层和后验编码层,其中后验编码层可以采用与先验编码层相同或类似的结构。先验发言内容表示层用于基于对话文本中任一发言人对应的每一分句的句特征表示,确定该发言人的先验发言内容表示;先验概率分布提取层用于基于任一发言人的先验发言内容表示,确定发言人的先验发言人特征表示服从的先验概率分布;采样层用于基于任一发言人的先验发言人特征表示服从的先验概率分布,确定该发言人的先验发言人特征表示;后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,确定该发言人的后验发言内容表示;后验编码层用于基于样本对话文本中该发言人的后验发言内容表示,确定该发言人的后验发言人特征表示;摘要输出层用于基于对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示,确定对话文本对应的摘要。
接着,基于样本对话文本中每一发言人的样本分句,每一样本分句的重要程度对上述对话文本摘要模型的参数进行训练。当对话文本摘要模型的摘要输出层采用生成式摘要方式生成摘要时,还需要基于样本对话文本的标准摘要生成结果对对话文本摘要模型的参数进行训练。
对话文本摘要模型的损失函数可以表示为:
lossKL可基于后验发言人特征表示服从的概率分布,与先验发言人特征表示服从的概率分布之间的KL散度确定得到。
当对话文本摘要模型的摘要输出层采用抽取式摘要方式生成摘要时,可采用二分类的交叉熵作为摘要损失函数loss。
例如,可采用如下方式计算抽取式摘要方式对应的摘要损失函数loss:
其中,S表示样本对话文本中每一样本分句的句特征表示,Z表示每一发言人的后验发言人特征表示,Y表示每一样本分句的重要程度,Yii表示第i个样本分句的重要程度,可以为0或者1,yi表示对话文本摘要模型在给定S、Z、Y的情况下,对第i个样本分句进行概率计算的结果,P(yi|S,Z,Y)为yi对应的概率,N为样本对话文本中样本分句的数量。
当对话文本摘要模型的摘要输出层采用生成式摘要方式生成摘要时,可采用多分类的交叉熵,或者BOW(Bag Of Words,词袋)loss作为摘要损失函数loss。
例如,可采用如下方式计算生成式摘要方式对应的摘要损失函数loss:
其中,S表示样本对话文本中每一样本分句的句特征表示,Z表示每一发言人的后验发言人特征表示,Y表示每一样本分句的重要程度,Yi表示第i个样本分句的重要程度,yi表示对话文本摘要模型在给定S、Z、Y的情况下,对第i个样本分句进行概率计算的结果,P(yi|S,Z,Y)为yi对应的概率,N为样本对话文本中样本分句的数量。
对话文本摘要模型的损失函数还可以表示为:
其中,为对话文本摘要模型的损失函数,同时也是对话文本摘要模型的变分下界,S表示样本对话文本中每一样本分句的句特征表示,Z表示每一发言人的后验发言人特征表示,Z`表示每一发言人的先验发言人特征表示,Y表示每一样本分句的重要程度;为发言人特征表示损失函数,为摘要损失函数,θ表示对话文本摘要模型的参数,为条件变分自编码器的参数,为给定S和Y时,Z服从的条件概率,为给定S时,Z服从的条件概率分布,为重构误差,pθ(Y|S,Z)为给定S和Z时,对话文本摘要模型计算得到Y的概率。
在训练对话文本摘要模型时,可以采用KL退火方法,设置β大小随着训练过程逐渐变化,并进行多轮训练,选出F值最高的对话文本摘要模型作为训练好的对话文本摘要模型;也可以根据实际情况采用其他的训练技巧,例如word dropout方式,本发明实施例对此不作具体限定。
基于上述任一实施例,图6为本发明实施例提供的对话文本摘要生成装置的结构示意图,如图6所示,该装置包括文本确定单元610和摘要生成单元620。
其中,文本确定单元610用于确定对话文本;
摘要生成单元620用于将对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到对话文本摘要模型输出的对话文本对应的摘要;
对话文本摘要模型用于确定对话文本中每一发言人的先验发言人特征表示,并基于对话文本中每一发言人对应的分句和先验发言人特征表示,生成对话文本对应的摘要;对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及基于样本对话文本的样本摘要训练得到的。
本发明实施例提供的装置,基于对话文本中每一发言人的先验发言人特征表示,以及每一发言人对应的分句,生成对话文本对应的摘要,在各个分句本身信息的基础上,额外提供了对话文本中每个发言人的重要性信息,提高了对话文本摘要生成的准确性。
基于上述任一实施例,摘要生成单元620具体用于:
将对话文本中任一发言人对应的每一分句的句特征表示输入至对话文本摘要模型的先验发言人表示层,得到先验发言人表示层输出的该发言人的先验发言人特征表示;
将对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示输入至对话文本摘要模型的摘要输出层,得到摘要输出层输出的对话文本对应的摘要。
基于上述任一实施例,将对话文本中任一发言人对应的每一分句的句特征表示输入至对话文本摘要模型的先验发言人表示层,得到先验发言人表示层输出的该发言人的先验发言人特征表示,具体包括:
将对话文本中任一发言人对应的每一分句的句特征表示输入至先验发言人表示层的先验发言内容表示层,得到先验发言内容表示层输出的该发言人的先验发言内容表示;
将任一发言人的先验发言内容表示输入至先验发言人表示层的先验编码层,得到先验编码层输出的该发言人的先验发言人特征表示。
本发明实施例提供的装置,基于任一发言人的总体发言内容,得到该发言人的先验发言内容表示,并对该发言人的先验发言内容表示进行编码,得到该发言人的先验发言人特征表示,有助于提高摘要生成的准确性。
基于上述任一实施例,将任一发言人的先验发言内容表示输入至先验发言人表示层的先验编码层,得到先验编码层输出的该发言人的先验发言人特征表示,具体包括:
将任一发言人的先验发言内容表示输入至先验编码层的先验概率分布提取层,得到先验概率分布提取层输出的该发言人的先验发言人特征表示服从的先验概率分布;
将先验概率分布输入至先验编码层的采样层,得到采样层输出的该发言人的先验发言人特征表示。
本发明实施例提供的装置,基于任一发言人的先验发言内容表示,预测该发言人的先验发言人特征表示服从的先验概率分布,并对先验概率分布进行随机采样,得到该发言人的先验发言人特征表示,为后续生成摘要提供了依据。
基于上述任一实施例,该装置中,对话文本摘要模型还包括后验发言人表示层;后验发言人表示层用于基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定该发言人的后验发言人特征表示。
本发明实施例提供的装置,基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定该发言人的后验发言人特征表示,使得对话文本摘要模型在训练完成后,发言人表示层输出的先验发言人特征表示能尽可能地反映出该发言人真实的重要性,提高了摘要生成的准确性。
基于上述任一实施例,该装置中,对话文本摘要模型的损失函数包括发言人特征表示损失函数和摘要损失函数,其中发言人特征表示损失函数是基于样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示的相似度确定的。
基于上述任一实施例,该装置中,后验发言人表示层包括后验发言内容表示层和后验编码层。
其中,后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,确定该发言人的后验发言内容表示;后验编码层用于基于该发言人的后验发言内容表示,确定该发言人的后验发言人特征表示。
本发明实施例提供的装置,基于任一发言人的所有样本分句,以及各样本分句的重要程度,得到该发言人的后验发言内容,并对该发言人的后验发言内容进行编码,得到该发言人的后验发言人特征表示,为对话文本摘要模型的训练提供了依据。
图7为本发明实施例提供的电子设备的结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑命令,以执行如下方法:确定对话文本;将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述样本对话文本的样本摘要训练得到的。
此外,上述的存储器730中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:确定对话文本;将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述样本对话文本的样本摘要训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种对话文本摘要生成方法,其特征在于,包括:
确定对话文本;
将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;
所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述样本对话文本的样本摘要训练得到的;
所述将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要,具体包括:
将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述对话文本摘要模型的先验发言人表示层,得到所述先验发言人表示层输出的所述任一发言人的先验发言人特征表示;
将所述对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示输入至所述对话文本摘要模型的摘要输出层,得到所述摘要输出层输出的所述对话文本对应的摘要;
所述先验发言人表示层用于基于对话文本中任一发言人对应的每一分句的句特征表示,依据所述任一发言人的所有发言内容,分析所述任一发言人的重要性,确定所述任一发言人的先验发言人特征表示;
所述先验发言人特征表示是在不知晓每个分句在生成摘要时的重要程度的情况下,用于表征所述任一发言人的重要性的向量表示。
2.根据权利要求1所述的对话文本摘要生成方法,其特征在于,所述将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述对话文本摘要模型的先验发言人表示层,得到所述先验发言人表示层输出的所述任一发言人的先验发言人特征表示,具体包括:
将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述先验发言人表示层的先验发言内容表示层,得到所述先验发言内容表示层输出的所述任一发言人的先验发言内容表示;
将任一发言人的先验发言内容表示输入至所述先验发言人表示层的先验编码层,得到所述先验编码层输出的所述任一发言人的先验发言人特征表示。
3.根据权利要求2所述的对话文本摘要生成方法,其特征在于,所述将任一发言人的先验发言内容表示输入至所述先验发言人表示层的先验编码层,得到所述先验编码层输出的所述任一发言人的先验发言人特征表示,具体包括:
将任一发言人的先验发言内容表示输入至所述先验编码层的先验概率分布提取层,得到所述先验概率分布提取层输出的所述任一发言人的先验发言人特征表示服从的先验概率分布;
将所述先验概率分布输入至所述先验编码层的采样层,得到所述采样层输出的所述任一发言人的先验发言人特征表示。
4.根据权利要求1至3任一项所述的对话文本摘要生成方法,其特征在于,所述对话文本摘要模型还包括后验发言人表示层;
所述后验发言人表示层用于基于样本对话文本中任一发言人对应的样本分句,以及每一样本分句的重要程度,确定所述任一发言人的后验发言人特征表示。
5.根据权利要求4所述的对话文本摘要生成方法,其特征在于,所述对话文本摘要模型的损失函数包括发言人特征表示损失函数和摘要损失函数,其中所述发言人特征表示损失函数是基于样本对话文本中每一发言人的先验发言人特征表示和后验发言人特征表示的相似度确定的。
6.根据权利要求4所述的对话文本摘要生成方法,其特征在于,所述后验发言人表示层包括后验发言内容表示层和后验编码层;
其中,所述后验发言内容表示层用于基于样本对话文本中任一发言人对应的每一样本分句的句特征表示,以及每一样本分句的重要程度,确定所述任一发言人的后验发言内容表示;
所述后验编码层用于基于所述任一发言人的后验发言内容表示,确定所述任一发言人的后验发言人特征表示。
7.一种对话文本摘要生成装置,其特征在于,包括:
文本确定单元,用于确定对话文本;
摘要生成单元,用于将所述对话文本中每一发言人对应的分句输入至对话文本摘要模型中,得到所述对话文本摘要模型输出的所述对话文本对应的摘要;
所述对话文本摘要模型用于确定所述对话文本中每一发言人的先验发言人特征表示,并基于所述对话文本中每一发言人对应的分句和先验发言人特征表示,生成所述对话文本对应的摘要;所述对话文本摘要模型是基于样本对话文本中每一发言人对应的样本分句,以及所述基于样本对话文本的样本摘要训练得到的;
所述摘要生成单元进一步用于:
将所述对话文本中任一发言人对应的每一分句的句特征表示输入至所述对话文本摘要模型的先验发言人表示层,得到所述先验发言人表示层输出的所述任一发言人的先验发言人特征表示;
将所述对话文本中每一发言人对应的每一分句的句特征表示,以及每一发言人的先验发言人特征表示输入至所述对话文本摘要模型的摘要输出层,得到所述摘要输出层输出的所述对话文本对应的摘要;
所述先验发言人表示层用于基于对话文本中任一发言人对应的每一分句的句特征表示,依据所述任一发言人的所有发言内容,分析所述任一发言人的重要性,确定所述任一发言人的先验发言人特征表示;
所述先验发言人特征表示是在不知晓每个分句在生成摘要时的重要程度的情况下,用于表征所述任一发言人的重要性的向量表示。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6中任一项所述的对话文本摘要生成方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至6中任一项所述的对话文本摘要生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269479.4A CN111400489B (zh) | 2020-04-08 | 2020-04-08 | 对话文本摘要生成方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269479.4A CN111400489B (zh) | 2020-04-08 | 2020-04-08 | 对话文本摘要生成方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111400489A CN111400489A (zh) | 2020-07-10 |
CN111400489B true CN111400489B (zh) | 2022-12-02 |
Family
ID=71429466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010269479.4A Active CN111400489B (zh) | 2020-04-08 | 2020-04-08 | 对话文本摘要生成方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111400489B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112259100B (zh) * | 2020-09-15 | 2024-04-09 | 科大讯飞华南人工智能研究院(广州)有限公司 | 语音识别方法及相关模型的训练方法和相关设备、装置 |
EP4064110A1 (en) * | 2021-03-24 | 2022-09-28 | Samsung SDS Co., Ltd. | Apparatus and method for training dialogue summary model |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120514A (ja) * | 2011-12-08 | 2013-06-17 | Nomura Research Institute Ltd | 対話要約システムおよび対話要約プログラム |
CN105138710A (zh) * | 2015-10-12 | 2015-12-09 | 金耀星 | 一种聊天代理系统及方法 |
CN107993665A (zh) * | 2017-12-14 | 2018-05-04 | 科大讯飞股份有限公司 | 多人会话场景中发言人角色确定方法、智能会议方法及系统 |
CN108874978A (zh) * | 2018-06-08 | 2018-11-23 | 杭州知智能科技有限公司 | 一基于分层适应性分段网络解决会议内容摘要任务的方法 |
CN108962238A (zh) * | 2018-04-25 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 基于结构化神经网络的对话方法、系统、设备及存储介质 |
CN110457457A (zh) * | 2019-08-02 | 2019-11-15 | 腾讯科技(深圳)有限公司 | 对话生成模型的训练方法、对话生成方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2216775B1 (en) * | 2009-02-05 | 2012-11-21 | Nuance Communications, Inc. | Speaker recognition |
US9838544B2 (en) * | 2014-06-27 | 2017-12-05 | Agora Lab, Inc. | Systems and methods for improved quality of a call over network with load leveling and last mile signal indication |
JP6604836B2 (ja) * | 2015-12-14 | 2019-11-13 | 株式会社日立製作所 | 対話テキスト要約装置及び方法 |
JP6671020B2 (ja) * | 2016-06-23 | 2020-03-25 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
-
2020
- 2020-04-08 CN CN202010269479.4A patent/CN111400489B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120514A (ja) * | 2011-12-08 | 2013-06-17 | Nomura Research Institute Ltd | 対話要約システムおよび対話要約プログラム |
CN105138710A (zh) * | 2015-10-12 | 2015-12-09 | 金耀星 | 一种聊天代理系统及方法 |
CN107993665A (zh) * | 2017-12-14 | 2018-05-04 | 科大讯飞股份有限公司 | 多人会话场景中发言人角色确定方法、智能会议方法及系统 |
CN108962238A (zh) * | 2018-04-25 | 2018-12-07 | 苏州思必驰信息科技有限公司 | 基于结构化神经网络的对话方法、系统、设备及存储介质 |
CN108874978A (zh) * | 2018-06-08 | 2018-11-23 | 杭州知智能科技有限公司 | 一基于分层适应性分段网络解决会议内容摘要任务的方法 |
CN110457457A (zh) * | 2019-08-02 | 2019-11-15 | 腾讯科技(深圳)有限公司 | 对话生成模型的训练方法、对话生成方法及装置 |
Non-Patent Citations (5)
Title |
---|
"A real-time system for summarizing human-human spontaneous spoken dialogues";M. Kameyama;《Proceeding of Fourth International Conference on Spoken Language Processing》;19961231;第681-684页 * |
"Automatic Text Summarization for Dialogue Style";Chuanhan Liu;《2006 IEEE International Conference on Information Acquisition》;20061231;第274-278页 * |
"基于文本挖掘的短信分类技术的研究与实现";王栋;《中国优秀硕士学位论文全文数据库信息科技辑(电子期刊)》;20131215;第I138-1707页 * |
"基于表示学习的信息抽取技术研究";冯骁骋;《中国博士论文全文数据库电子期刊(信息科技辑)》;20190115;第I138-269页 * |
面向对话文本的自动摘要系统的研究;陈卫平等;《计算机仿真》;20050530(第05期);第231-235页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111400489A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103956169B (zh) | 一种语音输入方法、装置和系统 | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
WO2015062482A1 (en) | System and method for automatic question answering | |
WO2021114841A1 (zh) | 一种用户报告的生成方法及终端设备 | |
US9858923B2 (en) | Dynamic adaptation of language models and semantic tracking for automatic speech recognition | |
CN110929043A (zh) | 业务问题提取方法及装置 | |
CN111833845A (zh) | 多语种语音识别模型训练方法、装置、设备及存储介质 | |
CN112992125B (zh) | 一种语音识别方法、装置、电子设备、可读存储介质 | |
CN111400489B (zh) | 对话文本摘要生成方法、装置、电子设备和存储介质 | |
CN109003600B (zh) | 消息处理方法及装置 | |
CN112233680A (zh) | 说话人角色识别方法、装置、电子设备及存储介质 | |
WO2024066920A1 (zh) | 虚拟场景的对话方法、装置、电子设备、计算机程序产品及计算机存储介质 | |
CN113096647A (zh) | 语音模型训练方法、装置和电子设备 | |
CN115019773A (zh) | 语音识别方法及相关装置、电子设备、存储介质 | |
CN111091809A (zh) | 一种深度特征融合的地域性口音识别方法及装置 | |
CN114547293A (zh) | 一种跨平台虚假新闻检测方法及系统 | |
CN109271637B (zh) | 一种语义理解方法及装置 | |
CN116186259A (zh) | 一种会话线索评分方法、装置、设备及存储介质 | |
CN111680514A (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN112002306B (zh) | 语音类别的识别方法、装置、电子设备及可读存储介质 | |
CN111970311B (zh) | 会话切分方法、电子设备及计算机可读介质 | |
CN114141235A (zh) | 语音语料库生成方法、装置、计算机设备和存储介质 | |
CN110347824B (zh) | 一种基于词汇相似性的lda主题模型最优主题数确定方法 | |
CN114707515A (zh) | 话术判别方法、装置、电子设备及存储介质 | |
CN103474063A (zh) | 语音辨识系统以及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |