CN114911911A - 一种多轮对话方法、装置及电子设备 - Google Patents
一种多轮对话方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114911911A CN114911911A CN202110180487.6A CN202110180487A CN114911911A CN 114911911 A CN114911911 A CN 114911911A CN 202110180487 A CN202110180487 A CN 202110180487A CN 114911911 A CN114911911 A CN 114911911A
- Authority
- CN
- China
- Prior art keywords
- content
- dialogue
- neural network
- state
- dialog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明提供一种多轮对话方法、装置及电子设备,涉及人工智能技术领域,其中,多轮对话方法包括:接收用户在多轮对话过程中输入的第一对话内容;根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;输出所述第一对话内容对应的回复内容。本发明实施例利用对话的历史信息预测第一当前对话状态,能够提高状态追踪的准确性,从而能够提高进行多轮对话的对话效果。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种多轮对话方法、装置及电子设备。
背景技术
随着人工智能的发展,多轮对话技术在机器与用户交互的场景下发挥着越来越重要的作用。通过多轮对话技术,机器可以实现与用户进行对话,解答用户问题。在机器与用户对话的过程中,一轮对话往往无法明确用户诉求,需要机器与用户之间进行多轮对话,才能最终解答用户问题。
现有技术中,常常采用基于规则的方法进行状态追踪,从而能够基于当前对话状态生成回复语句。基于规则的方法以单一的自然语言理解结果作为输入,使用人工制定的规则匹配得到当前对话状态,由于输入较为单一,会导致状态追踪的准确性较低,从而会导致进行多轮对话的对话效果较差。
发明内容
本发明实施例提供一种多轮对话方法、装置及电子设备,以解决现有技术中采用基于规则的方法进行状态追踪,状态追踪的准确性较低,从而会导致进行多轮对话的对话效果较差的问题。
为解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种多轮对话方法,所述多轮对话方法包括:
接收用户在多轮对话过程中输入的第一对话内容;
根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;
基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;
输出所述第一对话内容对应的回复内容。
可选的,所述根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布;
基于所述第一对话状态概率分布预测第一当前对话状态;
所述基于所述第一当前对话状态确定所述第一对话内容对应的回复内容,包括:
将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布;
基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
可选的,所述第一神经网络模型包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型,所述将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;
将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布。
可选的,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述有标签数据下的训练过程如下:
将第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第二对话状态概率分布,所述第二对话内容属于有标签数据;
基于所述第二对话状态概率分布预测第二当前对话状态;
将所述第二当前对话状态输入所述第二神经网络模型,输出第二回复内容概率分布;
基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容;
将所述第二对话内容对应的回复内容、第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第三对话状态概率分布;
基于所述第二回复内容概率分布、所述第二对话状态概率分布、所述第三对话状态概率分布和所述第二对话内容对应的对话状态标签及回复内容标签计算最大似然估计值;
基于所述最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程如下:
将第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第四对话状态概率分布,所述第三对话内容属于无标签数据;
基于所述第四对话状态概率分布预测第三当前对话状态;
将所述第三当前对话状态输入所述第二神经网络模型,输出第三回复内容概率分布;
基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容;
将所述第三对话内容对应的回复内容、第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第五对话状态概率分布;
分别计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值;
基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,包括:
计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度;
基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
第二方面,本发明实施例提供了一种多轮对话装置,所述装置包括:
接收模块,用于接收用户在多轮对话过程中输入的第一对话内容;
预测模块,用于根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;
确定模块,用于基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;
输出模块,用于输出所述第一对话内容对应的回复内容。
可选的,所述预测模块包括:
第一输出单元,用于将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布;
预测单元,用于基于所述第一对话状态概率分布预测第一当前对话状态;
所述确定模块具体用于:
将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布;
基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
可选的,所述第一神经网络模型包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型,所述第一输出单元具体用于:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;
将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布。
可选的,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述有标签数据下的训练过程如下:
将第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第二对话状态概率分布,所述第二对话内容属于有标签数据;
基于所述第二对话状态概率分布预测第二当前对话状态;
将所述第二当前对话状态输入所述第二神经网络模型,输出第二回复内容概率分布;
基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容;
将所述第二对话内容对应的回复内容、第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第三对话状态概率分布;
基于所述第二回复内容概率分布、所述第二对话状态概率分布、所述第三对话状态概率分布和所述第二对话内容对应的对话状态标签及回复内容标签计算最大似然估计值;
基于所述最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程如下:
将第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第四对话状态概率分布,所述第三对话内容属于无标签数据;
基于所述第四对话状态概率分布预测第三当前对话状态;
将所述第三当前对话状态输入所述第二神经网络模型,输出第三回复内容概率分布;
基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容;
将所述第三对话内容对应的回复内容、第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第五对话状态概率分布;
分别计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值;
基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程还包括:
计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度;
基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
第三方面,本发明实施例提供一种电子设备,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序,所述程序被所述处理器执行时实现第一方面所述的多轮对话方法的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的多轮对话方法的步骤。
本发明实施例中,接收用户在多轮对话过程中输入的第一对话内容;根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;输出所述第一对话内容对应的回复内容。这样,利用对话的历史信息预测第一当前对话状态,能够提高状态追踪的准确性,从而能够提高进行多轮对话的对话效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种多轮对话方法的流程图;
图2是本发明实施例提供的一种状态追踪模型的结构示意图;
图3是本发明实施例提供的一种多轮对话装置的结构示意图;
图4是本发明实施例提供的另一种多轮对话装置的结构示意图;
图5是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例中,提出了一种多轮对话方法、装置及电子设备,以解决现有技术中采用基于规则的方法进行状态追踪,状态追踪的准确性较低,从而会导致进行多轮对话的对话效果较差的问题。
参见图1,图1是本发明实施例提供的一种多轮对话方法的流程图,如图1所示,所述方法包括以下步骤:
步骤101、接收用户在多轮对话过程中输入的第一对话内容。
其中,所述多轮对话方法可以应用于对话系统,所述对话系统可以为基于部分可观测马尔可夫决策过程(Partially Observable Markov Decision Process,POMDP)的对话系统。所述第一对话内容可以是用户输入对话系统的对话内容,用户可以以语音的形式向对话系统输入第一对话内容,或者,用户可以以文本的形式向对话系统输入第一对话内容,本实施例对此不进行限定。所述第一对话内容可以是多轮对话中的任一轮输入的对话内容。示例地,用户可以向对话系统输入第一对话内容:我要预订机票。
步骤102、根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态。
其中,与所述第一对话内容对应的历史对话状态以及历史对话内容,可以是,在所述第一对话内容之前的多轮对话的对话状态及对话内容;或者可以是,在所述第一对话内容之前的其中一轮对话的对话状态及对话内容。示例地,第一对话内容可以为第t轮的对话,与所述第一对话内容对应的历史对话状态以及历史对话内容,可以为第t-1轮对话的对话状态及对话内容,即第一对话内容的上一轮对话的对话状态及对话内容。在本发明实施例中历史对话状态以及历史对话内容均以上一轮对话的对话状态及对话内容作为示例说明。
另外,所述根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态,可以是,将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布,基于所述第一对话状态概率分布预测第一当前对话状态。
步骤103、基于所述第一当前对话状态确定所述第一对话内容对应的回复内容。
其中,所述基于所述第一当前对话状态确定所述第一对话内容对应的回复内容,可以是,将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布,基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
步骤104、输出所述第一对话内容对应的回复内容。
其中,可以是以语音形式输出所述第一对话内容对应的回复内容,或者,还可以是以文本形式输出所述第一对话内容对应的回复内容,本实施例对此不进行限定。
本发明实施例中,接收用户在多轮对话过程中输入的第一对话内容;根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;输出所述第一对话内容对应的回复内容。这样,利用对话的历史信息预测第一当前对话状态,能够提高状态追踪的准确性,从而能够提高进行多轮对话的对话效果。
可选的,所述根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布;
基于所述第一对话状态概率分布预测第一当前对话状态;
所述基于所述第一当前对话状态确定所述第一对话内容对应的回复内容,包括:
将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布;
基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
其中,所述第一神经网络模型可以采用循环神经网络(Recurrent NeuralNetwork,RNN)结构。所述第一神经网络模型可以包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型。所述第一对话状态概率分布可以为第一当前对话状态在词表中的概率分布。作为一个简单的示例,词表中有10个单词,每个单词可以作为一种对话状态,第一对话状态概率分布可以包括该10个单词中每个单词分别作为第一当前对话状态的概率值。所述基于所述第一对话状态概率分布预测第一当前对话状态,可以是将第一对话状态概率分布中概率值最大的对话状态确定为第一当前对话状态。
另外,第二神经网络模型可以作为回复解码(Response Decoder)层的模型,第二神经网络模型可以采用RNN结构,示例地,第二神经网络模型可以为长短期记忆(LongShort-Term Memory,LSTM)网络结构,或者,第二神经网络模型可以为门循环单元(GateRecurrent Unit,GRU)网络结构,本实施例对第二神经网络模型的网络结构不进行限定。所述第一当前对话状态可以表征为向量,第二神经网络模型可以基于输入的第一当前对话状态输出第一回复内容概率分布。所述第一回复内容概率分布可以为回复内容在词表中的概率分布。作为一个简单的示例,词表中有15个单词,每个单词可以作为一种回复内容,第一回复内容概率分布可以包括该15个单词中每个单词分别作为所述第一对话内容对应的回复内容的概率值。
该实施方式中,通过第一神经网络模型预测第一当前对话状态,并且通过第二神经网络模型确定所述第一对话内容对应的回复内容,与基于规则的方法相比,不需要人工定义规则,节省了人工成本,并且提高了状态追踪的准确性。
可选的,所述第一神经网络模型包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型,所述将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;
将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布。
其中,第一神经网络子模型可以作为编码(Encoder)层的模型,第一神经网络子模型可以采用RNN结构,示例地,第一神经网络子模型可以为LSTM网络结构,或者,第一神经网络子模型可以为GRU网络结构,本实施例对第二神经网络模型的网络结构不进行限定。第一神经网络子模型可以用于对输入的数据进行编码,使得对话系统能够理解该输入的数据。第一神经网络子模型输出的编码内容可以用向量表征。
另外,第二神经网络子模型可以作为状态解码(Belief Span Decoder)层的模型,第二神经网络子模型可以采用RNN结构,示例地,第二神经网络子模型可以为LSTM网络结构,或者,第二神经网络子模型可以为GRU网络结构,本实施例对第二神经网络模型的网络结构不进行限定。第二神经网络子模型可以基于输入的编码内容输出第一对话状态概率分布。
该实施方式中,将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布,通过两个子模型预测第一对话状态概率分布,准确性较高。
可选的,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据。
其中,通过有标签数据可以对所述第一神经网络模型和所述第二神经网络模型进行有监督训练,通过无标签数据可以对所述第一神经网络模型和所述第二神经网络模型进行无监督训练。
该实施方式中,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据,通过半监督的方式进行训练,能够减少有标签数据的使用,充分利用了大量的无标签数据,能够进一步提高模型预测对话状态的准确率。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述有标签数据下的训练过程如下:
将第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第二对话状态概率分布,所述第二对话内容属于有标签数据;
基于所述第二对话状态概率分布预测第二当前对话状态;
将所述第二当前对话状态输入所述第二神经网络模型,输出第二回复内容概率分布;
基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容;
将所述第二对话内容对应的回复内容、第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第三对话状态概率分布;
基于所述第二回复内容概率分布、所述第二对话状态概率分布、所述第三对话状态概率分布和所述第二对话内容对应的对话状态标签及回复内容标签计算最大似然估计值;
基于所述最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
其中,所述基于所述第二对话状态概率分布预测第二当前对话状态,可以是将第二对话状态概率分布中概率值最大的对话状态确定为第二当前对话状态。所述基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容,可以是将第二回复内容概率分布中概率值最大的回复内容确定为第二对话内容对应的回复内容。所述对话状态标签可以为有标签数据中为对话状态设置的标签,所述回复内容标签可以为有标签数据中为回复内容设置的标签。
另外,可以通过最大似然函数计算最大似然估计值,以最大似然估计值作为损失值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。示例地,通过最大似然函数计算最大似然估计值L1的方式可以如下:
其中,A可以表示对有标签数据的有监督训练过程。P(Rt|Rt-1,Ut,St)可以为在所述第二回复内容概率分布中所述第二对话内容对应的回复内容标签对应的概率值,Pθ(St|Rt-1,Ut,St-1)可以为在所述第二对话状态概率分布中所述第二对话内容对应的对话状态标签对应的概率值,可以为在所述第三对话状态概率分布中所述第二对话内容对应的对话状态标签对应的概率值。Rt-1为上一轮回复内容,Ut为当前轮用户输入的对话,St-1为上一轮对话状态,St为当前对话状态,Rt为当前轮回复内容。
该实施方式中,对于有标签数据的有监督训练,基于计算的最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,训练的模型的准确性较高,从而采用训练的模型预测对话状态的准确性较高。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程如下:
将第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第四对话状态概率分布,所述第三对话内容属于无标签数据;
基于所述第四对话状态概率分布预测第三当前对话状态;
将所述第三当前对话状态输入所述第二神经网络模型,输出第三回复内容概率分布;
基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容;
将所述第三对话内容对应的回复内容、第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第五对话状态概率分布;
分别计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值;
基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
其中,所述基于所述第四对话状态概率分布预测第三当前对话状态,可以是将第四对话状态概率分布中概率值最大的对话状态确定为第三当前对话状态。所述基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容,可以是将第三回复内容概率分布中概率值最大的回复内容确定为第三对话内容对应的回复内容。
另外,可以基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。示例地,可以以计算的熵值作为损失值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值L2的方式可以如下:
其中,U可以表示对无标签数据的无监督训练过程,β为第一预设系数,pi为第四对话状态概率分布,i为正整数,N为对话状态概率分布中可能的对话状态的总个数。qi为第五对话状态概率分布。
需要说明的是,在统计学中,对事件的发生情况可以通过概率定量进行描述,熵是一种统计学定量描述,是对信息的不确定程度的描述,计算公式为:
其中,p(xi)代表随机事件xi的概率,概率越大,不确定性越小,熵就越小。在采用无标签数据进行训练的过程中,预测效果较好的模型得到的类别重叠程度越小,因此,在模型的无监督学习时,可以尽可能的将无标签数据的类别分开,而不是每个类别对应的概率分布均匀。类别的重叠程度的衡量方式可以使用信息熵计算,在无监督训练中,将熵引入到目标函数中作为一个正则项,可以提高第一神经网络模型和所述第二神经网络模型的预测效果。
该实施方式中,对于无标签数据的无监督训练,基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,通过将可以用于衡量类别的重叠程度的熵值引入模型训练过程,训练的模型的准确性较高,从而采用训练的模型预测对话状态的准确性较高。
可选的,所述基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,包括:
计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度;
基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
其中,所述基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,可以是,以计算的KL散度及计算的熵值的和作为损失值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。示例地,计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度L3的方式可以如下:
其中,a为第二预设系数。
另外,无标签数据可以为对话状态未设置标签,而回复内容设置标签的数据,在采用无标签数据进行训练的过程中,可以基于第三对话内容对应的回复内容标签计算log损失值L4,可以基于熵值L2、KL散度L3及log损失值L4对所述第一神经网络模型和所述第二神经网络模型进行联合训练。log损失值L4可以采用如下方式获得:
其中,P(Rt|Rt-1,Ut,St)可以为在所述第三回复内容概率分布中所述第三对话内容对应的回复内容标签对应的概率值。
另外,所述基于熵值L2、KL散度L3及log损失值L4对所述第一神经网络模型和所述第二神经网络模型进行联合训练,可以是,以计算的熵值L2、KL散度L3及log损失值L4的和作为损失值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
该实施方式中,对于无标签数据的无监督训练,将所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度引入模型训练过程,利用两次的对话状态预测结果的差异判断模型训练效果,训练的模型的准确性较高,从而采用训练的模型预测对话状态的准确性较高。
作为一种具体的实施方式,本发明实施例中的对话方法可以应用于对话系统,对话系统可以包括半监督状态追踪模型,将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入半监督状态追踪模型,可以得到所述第一对话内容对应的回复内容。如图2所示,半监督状态追踪模型可以包括第一神经网络子模型、第二神经网络子模型及第二神经网络模型。第二神经网络模型还可以利用数据库知识进行训练。在对半监督状态追踪模型进行半监督训练时,半监督状态追踪模型可以基于输入的不同,分为前向网络和后向网络。在半监督训练过程中,前向网络的输入为上一轮回复内容Rt-1和当前轮用户输入的对话Ut,上一轮对话状态St-1,前向网络的输出为当前对话状态St的对话状态概率分布和当前回复Rt的回复内容概率分布;后向网络的输入为上一轮回复内容Rt-1和当前轮用户输入的对话Ut,上一轮对话状态St-1,以及前向网络输出的当前回复Rt,后向网络的输出为当前对话状态St的对话状态概率分布。
用于训练半监督状态追踪模型的损失函数L可以表示如下:
其中,A可以表示对于有标签数据的有监督训练过程,U可以表示对无标签数据的无监督训练过程。A和U在损失函数L中的意义为,若为有监督训练,则采用携带A的计算项计算损失函数;若为无监督训练,则采用携带U的计算项计算损失函数。携带A∪U的计算项表征在有监督训练和无监督训练过程中均使用该计算项计算损失函数。
该实施方式中,对于半监督的模型训练,在有监督训练中,使用最大似然函数计算最大似然估计值进行训练,模型的准确性较高;在无监督训练中,使用信息熵的最小值进行训练,熵越小,模型的混乱度就越小,信息准确性就越高。
参见图3,图3是本发明实施例提供的一种多轮对话装置的结构示意图,如图3所示,多轮对话装置200包括:
接收模块201,用于接收用户在多轮对话过程中输入的第一对话内容;
预测模块202,用于根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;
确定模块203,用于基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;
输出模块204,用于输出所述第一对话内容对应的回复内容。
可选的,如图4所示,所述预测模块202包括:
第一输出单元2021,用于将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布;
预测单元2022,用于基于所述第一对话状态概率分布预测第一当前对话状态;
所述确定模块203具体用于:
将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布;
基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
可选的,所述第一神经网络模型包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型,所述第一输出单元2021具体用于:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;
将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布。
可选的,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述有标签数据下的训练过程如下:
将第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第二对话状态概率分布,所述第二对话内容属于有标签数据;
基于所述第二对话状态概率分布预测第二当前对话状态;
将所述第二当前对话状态输入所述第二神经网络模型,输出第二回复内容概率分布;
基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容;
将所述第二对话内容对应的回复内容、第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第三对话状态概率分布;
基于所述第二回复内容概率分布、所述第二对话状态概率分布、所述第三对话状态概率分布和所述第二对话内容对应的对话状态标签及回复内容标签计算最大似然估计值;
基于所述最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程如下:
将第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第四对话状态概率分布,所述第三对话内容属于无标签数据;
基于所述第四对话状态概率分布预测第三当前对话状态;
将所述第三当前对话状态输入所述第二神经网络模型,输出第三回复内容概率分布;
基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容;
将所述第三对话内容对应的回复内容、第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第五对话状态概率分布;
分别计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值;
基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
可选的,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程还包括:
计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度;
基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
多轮对话装置能够实现图1的方法实施例中实现的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
如图5所示,本发明实施例还提供了一种电子设备300,包括:处理器301、存储器302及存储在所述存储器302上并可在所述处理器301上运行的程序,所述程序被所述处理器301执行时实现上述多轮对话方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述多轮对话方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如ROM、RAM、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (10)
1.一种多轮对话方法,其特征在于,所述方法包括:
接收用户在多轮对话过程中输入的第一对话内容;
根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;
基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;
输出所述第一对话内容对应的回复内容。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布;
基于所述第一对话状态概率分布预测第一当前对话状态;
所述基于所述第一当前对话状态确定所述第一对话内容对应的回复内容,包括:
将所述第一当前对话状态输入预先训练的用于回复解码的第二神经网络模型,输出第一回复内容概率分布;
基于所述第一回复内容概率分布确定所述第一对话内容对应的回复内容。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络模型包括用于编码的第一神经网络子模型和用于状态解码的第二神经网络子模型,所述将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入预先训练的用于状态追踪的第一神经网络模型,输出第一对话状态概率分布,包括:
将所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络子模型,输出编码内容;
将所述编码内容输入所述第二神经网络子模型,输出第一对话状态概率分布。
4.根据权利要求2所述的方法,其特征在于,所述第一神经网络模型和所述第二神经网络模型在训练过程中的训练样本包括有标签数据和无标签数据。
5.根据权利要求4所述的方法,其特征在于,所述第一神经网络模型和所述第二神经网络模型在所述有标签数据下的训练过程如下:
将第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第二对话状态概率分布,所述第二对话内容属于有标签数据;
基于所述第二对话状态概率分布预测第二当前对话状态;
将所述第二当前对话状态输入所述第二神经网络模型,输出第二回复内容概率分布;
基于所述第二回复内容概率分布确定所述第二对话内容对应的回复内容;
将所述第二对话内容对应的回复内容、第二对话内容、与所述第二对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第三对话状态概率分布;
基于所述第二回复内容概率分布、所述第二对话状态概率分布、所述第三对话状态概率分布和所述第二对话内容对应的对话状态标签及回复内容标签计算最大似然估计值;
基于所述最大似然估计值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
6.根据权利要求4所述的方法,其特征在于,所述第一神经网络模型和所述第二神经网络模型在所述无标签数据下的训练过程如下:
将第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第四对话状态概率分布,所述第三对话内容属于无标签数据;
基于所述第四对话状态概率分布预测第三当前对话状态;
将所述第三当前对话状态输入所述第二神经网络模型,输出第三回复内容概率分布;
基于所述第三回复内容概率分布确定所述第三对话内容对应的回复内容;
将所述第三对话内容对应的回复内容、第三对话内容、与所述第三对话内容对应的历史对话状态以及历史对话内容输入所述第一神经网络模型,输出第五对话状态概率分布;
分别计算所述第四对话状态概率分布及所述第五对话状态概率分布的熵值;
基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
7.根据权利要求6所述的方法,其特征在于,所述基于计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练,包括:
计算所述第四对话状态概率分布及所述第五对话状态概率分布的KL散度;
基于计算的KL散度及计算的熵值对所述第一神经网络模型和所述第二神经网络模型进行联合训练。
8.一种多轮对话装置,其特征在于,所述装置包括:
接收模块,用于接收用户在多轮对话过程中输入的第一对话内容;
预测模块,用于根据所述第一对话内容、与所述第一对话内容对应的历史对话状态以及历史对话内容,预测第一当前对话状态;
确定模块,用于基于所述第一当前对话状态确定所述第一对话内容对应的回复内容;
输出模块,用于输出所述第一对话内容对应的回复内容。
9.一种电子设备,其特征在于,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序,所述程序被所述处理器执行时实现如权利要求1至7中任一项所述的多轮对话方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的多轮对话方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110180487.6A CN114911911A (zh) | 2021-02-08 | 2021-02-08 | 一种多轮对话方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110180487.6A CN114911911A (zh) | 2021-02-08 | 2021-02-08 | 一种多轮对话方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114911911A true CN114911911A (zh) | 2022-08-16 |
Family
ID=82761818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110180487.6A Pending CN114911911A (zh) | 2021-02-08 | 2021-02-08 | 一种多轮对话方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114911911A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162608A (zh) * | 2019-02-26 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 计算机实现的对话管理的方法、用于对话管理的设备以及计算机可读存储介质 |
-
2021
- 2021-02-08 CN CN202110180487.6A patent/CN114911911A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162608A (zh) * | 2019-02-26 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 计算机实现的对话管理的方法、用于对话管理的设备以及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109785824B (zh) | 一种语音翻译模型的训练方法及装置 | |
CN111695352A (zh) | 基于语义分析的评分方法、装置、终端设备及存储介质 | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
CN111625634B (zh) | 词槽识别方法及装置、计算机可读存储介质、电子设备 | |
CN111198937A (zh) | 对话生成及装置、计算机可读存储介质、电子设备 | |
CN111883115B (zh) | 语音流程质检的方法及装置 | |
CN111753076B (zh) | 对话方法、装置、电子设备及可读存储介质 | |
CN111522916B (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN109344242B (zh) | 一种对话问答方法、装置、设备及存储介质 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN111339305A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN111858854B (zh) | 一种基于历史对话信息的问答匹配方法及相关装置 | |
CN111538809A (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN114860915A (zh) | 一种模型提示学习方法、装置、电子设备及存储介质 | |
CN113239702A (zh) | 意图识别方法、装置、电子设备 | |
CN112086087A (zh) | 语音识别模型训练方法、语音识别方法及装置 | |
CN113177113B (zh) | 任务型对话模型预训练方法、装置、设备及存储介质 | |
CN113486174B (zh) | 模型训练、阅读理解方法、装置、电子设备及存储介质 | |
CN114239607A (zh) | 一种对话答复方法及装置 | |
CN114911911A (zh) | 一种多轮对话方法、装置及电子设备 | |
CN110795531B (zh) | 一种意图识别方法、装置及存储介质 | |
CN115796141A (zh) | 文本数据增强方法和装置、电子设备、存储介质 | |
CN112328774B (zh) | 基于多文档的任务型人机对话任务的实现方法 | |
CN111091011B (zh) | 领域预测方法、领域预测装置及电子设备 | |
CN111310460B (zh) | 语句的调整方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |