CN115169367A - 对话生成方法及装置、存储介质 - Google Patents
对话生成方法及装置、存储介质 Download PDFInfo
- Publication number
- CN115169367A CN115169367A CN202211082174.8A CN202211082174A CN115169367A CN 115169367 A CN115169367 A CN 115169367A CN 202211082174 A CN202211082174 A CN 202211082174A CN 115169367 A CN115169367 A CN 115169367A
- Authority
- CN
- China
- Prior art keywords
- data
- dialogue
- historical
- word segmentation
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明具体涉及对话生成方法及装置、存储介质。方法包括:获取用户输入的当前对话语句并输入情感对话生成模型;利用情感对话生成模型对当前对话语句分词处理,对分词结果编码得到第一编码数据;对当前对话语句主题词识别,对主题词识别结果编码得到第二编码数据;获取当前对话语句的上一轮对话语句并分词处理,对分词结果编码得到第三编码结果;对上一轮对话语句实体识别,对实体识别结果编码得到第四编码数据;对第一编码数据、第二编码数据进行融合获取第一特征数据;对第一编码数据、第四编码数据融合处理获取第二特征数据;对第一特征数据、第二特征数据和第三编码数据特征融合获取融合特征;根据第一编码数据、融合特征生成预测对话数据。
Description
技术领域
本发明涉及自然语言处理技术领域,具体涉及一种对话生成方法、一种对话生成装置、一种存储介质。
背景技术
人机对话系统不断发展进步,应用范围不断扩大,人们对它也有了更高的要求,希望系统在关注回复内容的基础上,可以与人进行更深入的交流。在已有的人机对话系统中,系统能够根据用户的语音进行答复,但还无法准确的理解用户语音中的情感内容。另外,在一些人们交流谈话的内容中,还包含对话主题、上下文的一致性,还会出现带有一些领域中的专有名词;但是现有的人机对话系统中还无法准确的实现联系上下文、保持主题一致,无法处理专有名词背后隐含的复杂信息,无法实现更复杂、更有价值的领域人机对话。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种对话生成方法、一种对话生成装置、一种存储介质,能够实现基于外部知识引入和主题一致性的情感对话生成方法。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种对话生成方法,所述方法包括:
获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及,对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
根据本公开的第二方面,提供一种对话生成装置,包括:
当前对话语句获取模块,终于获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
当前对话语句编码模块,用于利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及,对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
上一轮对话语句编码模块,用于获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
特征编码模块,用于对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
特征融合模块,用于对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
预测语句生成模块,用于根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
根据本公开的第三方面,存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例所述的对话生成方法。
本公开的一种实施例所提供的对话生成方法,通过采集当前对话语句对应的上一轮对话语句,并用于构建融合特征,使得在生成预测对话语句时可以包括上下文、保持主题一致;并且,通过对上一轮对话语句进行实体识别,能够将对话过程中的专有名词的背景信息引入,补充背景信息特征,同时在对话中考虑情感和主题信息,确保聊天的主题多样性和情感的敏感性,提高了回复的精准度,进一步提升了用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种对话生成方法的示意图;
图2中示意性示出本公开示例性实施例中一种对话生成装置的组成示意图;
图3示意性示出本公开示例性实施例中一种对话生成方法的架构示意图;
图4示出了本公开示例性实施例中的存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在相关技术中,人机对话系统不断发展进步,应用范围不断扩大,人们对它也有了更高的要求,希望机器在关注回复内容的基础上,可以与人进行更深入的交流。在人机对话系统中,除了回复内容之外,机器与人的情感交流也是一个重要问题。人类可以通过语言进行情感上的交流,获得情感上的慰藉,对话系统想要和人类进行有效的情感沟通,就必须具备一定的情感能力。在对话中加入语音情感能够提高用户的体验感和满意度,此外,我们通过日常生活中的聊天发现,人们之间的对话不仅涉及谈话的内容还包含对话主题、上下文的一致性,且在对话过程中会出现带有一定背景信息的专有名词,因此无法联系上下文、保持主题一致,无法处理专有名词后面复杂信息的对话系统就无法进行更复杂更有价值的领域对话聊天。
针对现有技术的缺点和不足,本示例实施方式中提供了一种对话生成方法,能够应用于人机对话系统。
具体而言,参考图1所示,上述的方法可以包括:
步骤S11,获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
步骤S12,利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
步骤S13,获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
步骤S14,对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
步骤S15,对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
步骤S16,根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
本示例实施方式中,上述的方法可以应用于手机、平板电脑等电子设备的人机对话系统。
在上述的步骤S11中,用户在使用终端设备时,触发人机对话系统后,用户通过语音、文本输入的内容,可以作为上述的用户输入的当前对话语句。终端设备在采集到用户输入的当前对话语句后,可以作为输入数据,输入已训练的情感对话生成模型中,利用该情感对话生成模型输入当前对话语句对应的预测对话语句,向用户反馈。
本示例实施方式中,所述利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据,包括:
对所述当前对话语句进行分词处理,获取分词结果;
通过BiGRU模型对所述分词结果进行编码,以获取词语级向量表示的第一编码数据。
本示例实施方式中,所述对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据,包括:
利用主题模型对所述当前对话语句进行主题词识别,获取主题词识别结果;
通过BiGRU模型对所述主题词识别结果进行编码,以获取词语级向量表示的第二编码数据。
本示例实施方式中,所述上一轮对话语句包括至少一条对话语句;
所述对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果,包括:
对所述上一轮对话语句进行分词处理,获取分词结果;
通过BiGRU模型对所述分词结果进行编码,以获取词语级向量表示的第三编码数据。
本示例实施方式中,所述上一轮对话语句包括至少一条对话语句;
所述对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据,包括:
确定所述上一轮对话语句对应领域的知识图谱;
对所述上一轮对话语句进行分词处理,获取分词结果;
将所述分词结果与所述知识图谱进行匹配,确定所述上一轮对话语句中包含的实体;
通过BiGRU模型对实体对应的TransE向量进行编码,获取用于表示对话中特定领域外部知识信息的第四编码数据。
本示例实施方式中,所述对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征,包括:
获取所述第一特征数据的注意力机制表示、第二特征数据的注意力机制表示、第三编码数据的门控机制表示;
根据预配置的权重系数对注意力表示结果进行特征融合处理,获取融合特征。
本示例实施方式中,在所述当前对话语句不存在所述上一轮对话语句时,所述第三编码结果、第四编码结果为空。
本示例实施方式中,所述方法还包括:训练所述情感对话生成模型,包括:
步骤S21,采集若干数量的历史对话文本构建对话数据集,并作为训练样本;其中,各所述历史对话文本包括多轮对话数据,多轮对话数据中各轮对话数据配置有对应的情感标签;
步骤S22,对所述历史对话文本进行分词处理,并对分词结果进行编码得到第一历史编码数据;以及,对所述历史对话文本进行主题词识别,并对主题词识别结果进行编码得到第二历史编码数据;
步骤S23,获取所述历史对话文本对应的上一轮历史对话语句,对该上一轮历史对话语句进行分词处理,并对分词结果进行编码得到第三历史编码结果;以及,对该上一轮历史对话文本进行实体识别,对实体识别结果进行编码,得到第四历史编码数据;
步骤S24,对所述第一历史编码数据、第二历史编码数据进行融合处理获取第一历史特征数据;以及,对所述第一历史编码数据、第四历史编码数据进行融合处理获取第二历史特征数据;
步骤S25,根据所述第一历史编码数据、历史融合特征生成所述历史对话文本对应的预测文本;
步骤S26,利用负对数似然函数作为损失函数进行迭代训练,并选择在开发集上F1指标最好的模型作为所述情感对话生成模型。
本示例实施方式中,可以预先构建特定邻域的知识图谱,根据构建的特定领域知识图谱,训练特定领域知识图谱TransE向量作为后续建模特征之一。TransE将知识图谱中的实体和关系映射到向量空间,实体和关系的表示变成了向量之间的表示。
本示例实施方式中,对数据集中的对话文本利用主题模型BTM进行训练,获得每个主题最重要的单词的列表。BTM主题模型的训练过程如下:
对全局词集则有如下公式:
本示例实施方式中,将情感对话生成模型分解为两个任务,其中,上一轮对话文本
的情感特征表示既作为情感预测任务的特征,也作为情感信息特征通过门机制的形式
和其他比如主题、外部知识特征进行融合作为最后的整体编码特征。情感特征预测的概率
公式为:
本示例实施方式中,在上述的步骤S24中,对所述第一历史编码数据、第二历史编码数据进行融合处理获取第一历史特征数据,具体可以是:使用多轮对话数据集的主题信息对历史对话文本信息进行注意力机制表示:
本示例实施方式中,在上述的步骤S24中,对所述第一历史编码数据、第四历史编码数据进行融合处理获取第二历史特征数据,具体可以是:使用多轮对话数据集的外部知识信息对历史对话文本信息进行注意力机制表示:
本示例实施方式中,在上述的步骤S26中,在解码时将原文信息和融合特征作为GRU的输入,具体如下:
使用情感对话训练集对一种基于外部知识引入和主题一致性的情感对话生成方法进行模型训练,选择在开发集上F1指标最好的模型进行保存,该模型能够完成高质量的共情对话。
本公开提供的方法,参考图3所示,获取一定规模情感问答数据集,包括多轮对话文本、情感标签等;对多轮对话上一轮对话文本进行分词,命名实体识别,查询知识图谱获取实体图谱关系,获得外部知识向量表示,对对话文本进行分词,获得句子的词语级向量表示,对情感对话文本构建主题模型,获得句子主题向量表示;将文本特征表示和情感特征表示、主题特征表示等的向量表示输入基于外部知识引入和主题一致性的情感对话生成模型进行多任务训练,寻找最优参数,保存最优模型;最优模型能够根据用户输入的历史对话输出带有丰富情感的答案。本方法不仅确保聊天主题的多样性,保持对话主题的一致性,还通过引入外部知识,确保高质量的聊天内容的对话生成。
在本公开的示例性实施例中,参考图2所示。还提供了一种对话生成装置20,包括:
当前对话语句获取模块201,终于获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
当前对话语句编码模块202,用于利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及,对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
上一轮对话语句编码模块203,用于获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
特征编码模块204,用于对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
特征融合模块205,用于对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
预测语句生成模块206,用于根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
由于本发明实施方式的对话生成装置的各个功能模块与上述对话生成方法发明实施方式中相同,因此在此不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,参考图4,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (10)
1.一种对话生成方法,其特征在于,所述方法包括:
获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及,对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
2.根据权利要求1所述的方法,其特征在于,所述利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据,包括:
对所述当前对话语句进行分词处理,获取分词结果;
通过BiGRU模型对所述分词结果进行编码,以获取词语级向量表示的第一编码数据。
3.根据权利要求1所述的方法,其特征在于,所述对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据,包括:
利用主题模型对所述当前对话语句进行主题词识别,获取主题词识别结果;
通过BiGRU模型对所述主题词识别结果进行编码,以获取词语级向量表示的第二编码数据。
4.根据权利要求1所述的方法,其特征在于,所述上一轮对话语句包括至少一条对话语句;
所述对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果,包括:
对所述上一轮对话语句进行分词处理,获取分词结果;
通过BiGRU模型对所述分词结果进行编码,以获取词语级向量表示的第三编码数据。
5.根据权利要求1所述的方法,其特征在于,所述上一轮对话语句包括至少一条对话语句;
所述对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据,包括:
确定所述上一轮对话语句对应领域的知识图谱;
对所述上一轮对话语句进行分词处理,获取分词结果;
将所述分词结果与所述知识图谱进行匹配,确定所述上一轮对话语句中包含的实体;
通过BiGRU模型对实体对应的TransE向量进行编码,获取用于表示对话中特定领域外部知识信息的第四编码数据。
6.根据权利要求1所述的方法,其特征在于,所述对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征,包括:
获取所述第一特征数据的注意力机制表示、第二特征数据的注意力机制表示、第三编码数据的门控机制表示;
根据预配置的权重系数对注意力表示结果进行特征融合处理,获取融合特征。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述当前对话语句不存在所述上一轮对话语句时,所述第三编码结果、第四编码结果为空。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:训练所述情感对话生成模型,包括:
采集若干数量的历史对话文本构建对话数据集,并作为训练样本;其中,各所述历史对话文本包括多轮对话数据,多轮对话数据中各轮对话数据配置有对应的情感标签;
对所述历史对话文本进行分词处理,并对分词结果进行编码得到第一历史编码数据;以及,对所述历史对话文本进行主题词识别,并对主题词识别结果进行编码得到第二历史编码数据;
获取所述历史对话文本对应的上一轮历史对话语句,对该上一轮历史对话语句进行分词处理,并对分词结果进行编码得到第三历史编码结果;以及,对该上一轮历史对话文本进行实体识别,对实体识别结果进行编码,得到第四历史编码数据;
对所述第一历史编码数据、第二历史编码数据进行融合处理获取第一历史特征数据;以及,对所述第一历史编码数据、第四历史编码数据进行融合处理获取第二历史特征数据;
对所述第一历史特征数据、第二历史特征数据和第三历史编码数据进行特征融合以获取历史融合特征;
根据所述第一历史编码数据、历史融合特征生成所述历史对话文本对应的预测文本;
利用负对数似然函数作为损失函数进行迭代训练,并选择在开发集上F1指标最好的模型作为所述情感对话生成模型。
9.一种对话生成装置,其特征在于,包括:
当前对话语句获取模块,终于获取用户输入的当前对话语句,将当前对话数据输入情感对话生成模型;
当前对话语句编码模块,用于利用所述情感对话生成模型对所述当前对话语句进行分词处理,并对分词结果进行编码得到第一编码数据;以及,对所述当前对话语句进行主题词识别,并对主题词识别结果进行编码得到第二编码数据;
上一轮对话语句编码模块,用于获取所述当前对话语句对应的上一轮对话语句,对该上一轮对话语句进行分词处理,并对分词结果进行编码得到第三编码结果;以及,对该上一轮对话语句进行实体识别,对实体识别结果进行编码,得到第四编码数据;
特征编码模块,用于对所述第一编码数据、第二编码数据进行融合处理获取第一特征数据;以及,对所述第一编码数据、第四编码数据进行融合处理获取第二特征数据;
特征融合模块,用于对所述第一特征数据、第二特征数据和第三编码数据进行特征融合以获取融合特征;
预测语句生成模块,用于根据所述第一编码数据、融合特征生成所述当前对话语句对应的预测对话数据。
10.一种存储介质,其特征在于,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1至8中任一项所述的对话生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211082174.8A CN115169367B (zh) | 2022-09-06 | 2022-09-06 | 对话生成方法及装置、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211082174.8A CN115169367B (zh) | 2022-09-06 | 2022-09-06 | 对话生成方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115169367A true CN115169367A (zh) | 2022-10-11 |
CN115169367B CN115169367B (zh) | 2022-12-09 |
Family
ID=83482159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211082174.8A Active CN115169367B (zh) | 2022-09-06 | 2022-09-06 | 对话生成方法及装置、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115169367B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032633A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 多轮对话处理方法、装置和设备 |
CN111400481A (zh) * | 2020-05-15 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 针对多轮对话生成回复语句的方法和装置 |
CN112183085A (zh) * | 2020-09-11 | 2021-01-05 | 杭州远传新业科技有限公司 | 机器阅读理解方法、装置、电子设备及计算机存储介质 |
CN112328756A (zh) * | 2020-10-13 | 2021-02-05 | 山东师范大学 | 基于上下文的对话生成方法及系统 |
CN112527986A (zh) * | 2020-12-10 | 2021-03-19 | 平安科技(深圳)有限公司 | 多轮对话文本生成方法、装置、设备及存储介质 |
CN112800757A (zh) * | 2021-04-06 | 2021-05-14 | 杭州远传新业科技有限公司 | 关键词生成方法、装置、设备及介质 |
CN113656569A (zh) * | 2021-08-24 | 2021-11-16 | 电子科技大学 | 一种基于上下文信息推理的生成式对话方法 |
CN113704419A (zh) * | 2021-02-26 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 对话处理方法及装置 |
US20220083742A1 (en) * | 2020-09-15 | 2022-03-17 | Boe Technology Group Co., Ltd. | Man-machine dialogue method and system, computer device and medium |
CN114385802A (zh) * | 2022-01-10 | 2022-04-22 | 重庆邮电大学 | 一种融合主题预测和情感推理的共情对话生成方法 |
US20220258607A1 (en) * | 2021-02-18 | 2022-08-18 | Hyundai Motor Company | Question-and-answer system and method ofcontrolling the same |
-
2022
- 2022-09-06 CN CN202211082174.8A patent/CN115169367B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032633A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 多轮对话处理方法、装置和设备 |
CN111400481A (zh) * | 2020-05-15 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 针对多轮对话生成回复语句的方法和装置 |
CN112183085A (zh) * | 2020-09-11 | 2021-01-05 | 杭州远传新业科技有限公司 | 机器阅读理解方法、装置、电子设备及计算机存储介质 |
US20220083742A1 (en) * | 2020-09-15 | 2022-03-17 | Boe Technology Group Co., Ltd. | Man-machine dialogue method and system, computer device and medium |
CN112328756A (zh) * | 2020-10-13 | 2021-02-05 | 山东师范大学 | 基于上下文的对话生成方法及系统 |
CN112527986A (zh) * | 2020-12-10 | 2021-03-19 | 平安科技(深圳)有限公司 | 多轮对话文本生成方法、装置、设备及存储介质 |
WO2022121161A1 (zh) * | 2020-12-10 | 2022-06-16 | 平安科技(深圳)有限公司 | 多轮对话文本生成方法、装置、设备及存储介质 |
US20220258607A1 (en) * | 2021-02-18 | 2022-08-18 | Hyundai Motor Company | Question-and-answer system and method ofcontrolling the same |
CN113704419A (zh) * | 2021-02-26 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 对话处理方法及装置 |
CN112800757A (zh) * | 2021-04-06 | 2021-05-14 | 杭州远传新业科技有限公司 | 关键词生成方法、装置、设备及介质 |
CN113656569A (zh) * | 2021-08-24 | 2021-11-16 | 电子科技大学 | 一种基于上下文信息推理的生成式对话方法 |
CN114385802A (zh) * | 2022-01-10 | 2022-04-22 | 重庆邮电大学 | 一种融合主题预测和情感推理的共情对话生成方法 |
Non-Patent Citations (4)
Title |
---|
XIAO SUN等: "Neural Network With Hierarchical Attention Mechanism for Contextual Topic Dialogue Generation", 《IEEE ACCESS》 * |
吴石松等: "基于seq2 seq和Attention模型的聊天机器人对话生成机制研究", 《自动化与仪器仪表》 * |
周奇安等: "基于BERT的任务导向对话系统自然语言理解的改进模型与调优方法", 《中文信息学报》 * |
王孟宇等: "基于HRED模型的中文多轮对话任务方法研究", 《中文信息学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN115169367B (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111198937B (zh) | 对话生成及装置、计算机可读存储介质、电子设备 | |
CN110347792B (zh) | 对话生成方法及装置、存储介质、电子设备 | |
WO2022078146A1 (zh) | 语音识别方法、装置、设备以及存储介质 | |
CN113205817B (zh) | 语音语义识别方法、系统、设备及介质 | |
CN109977207A (zh) | 对话生成方法、对话生成装置、电子设备及存储介质 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
CN111930914B (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN115309877B (zh) | 对话生成方法、对话模型训练方法及装置 | |
CN111428010A (zh) | 人机智能问答的方法和装置 | |
CN109344242B (zh) | 一种对话问答方法、装置、设备及存储介质 | |
CN113505198B (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
Chi et al. | Speaker role contextual modeling for language understanding and dialogue policy learning | |
CN111382257A (zh) | 一种生成对话下文的方法和系统 | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN117033582A (zh) | 对话模型的训练方法、装置、电子设备和存储介质 | |
CN114239607A (zh) | 一种对话答复方法及装置 | |
CN114005446A (zh) | 情感分析方法、相关设备及可读存储介质 | |
CN110795531B (zh) | 一种意图识别方法、装置及存储介质 | |
CN112257432A (zh) | 一种自适应意图识别方法、装置及电子设备 | |
CN116821306A (zh) | 对话回复生成方法、装置、电子设备和存储介质 | |
CN115169367B (zh) | 对话生成方法及装置、存储介质 | |
Noh et al. | Emotion-aware speaker identification with transfer learning | |
CN115081459B (zh) | 口语文本生成方法、装置、设备及存储介质 | |
CN113761157B (zh) | 应答语句生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |