CN112988960A - 一种对话状态追踪方法、装置、设备及存储介质 - Google Patents
一种对话状态追踪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112988960A CN112988960A CN202110178271.6A CN202110178271A CN112988960A CN 112988960 A CN112988960 A CN 112988960A CN 202110178271 A CN202110178271 A CN 202110178271A CN 112988960 A CN112988960 A CN 112988960A
- Authority
- CN
- China
- Prior art keywords
- conversation
- round
- word
- sequence
- word sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 239000013598 vector Substances 0.000 claims abstract description 146
- 238000002372 labelling Methods 0.000 claims abstract description 52
- 238000009826 distribution Methods 0.000 claims abstract description 48
- 230000009471 action Effects 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- RXKJFZQQPQGTFL-UHFFFAOYSA-N dihydroxyacetone Chemical compound OCC(=O)CO RXKJFZQQPQGTFL-UHFFFAOYSA-N 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Abstract
本申请实施例涉及数据处理领域,具体涉及一种对话状态追踪方法、装置、设备及存储介质。旨在提升对话状态追踪的准确率。所述方法包括:将每轮对话的词序列与前一轮次系统动作的词序列拼接,得到每轮对话的输入词序列;利用预先训练好的槽填充序列标注模型,得到输入词序列中每个词的语义标签;将语义标签对应的特征向量与输入词序列中相应位置的词的向量拼接,得到输入词序列中每个词的特征向量;对输入词序列中每个词的特征向量编码,得到每轮对话的句子特征向量;将每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
Description
技术领域
本申请实施例涉及数据处理技术领域,具体而言,涉及一种对话状态追踪方法、装置、设备及存储介质。
背景技术
近年来,人机对话系统在越来越多的场景中得到了应用,对话状态追踪是人机对话系统的重要组成部分,对话状态追踪的目标是准确的识别对话的状态,只有准确的识别对话状态,才能对用户目标作出正确的响应。现有的对话状态追踪方法一种是在槽填充结果的基础上进行,利用槽填充结果直接得到对话状态,另一种是直接基于词汇输入构建端到端的对话状态追踪模型。
现有技术存在的问题是,第一种方法容易将自然语言理解的错误在对话状态追踪任务中扩散,导致对话状态追踪的性能降低。第二中方法多侧重于词本身的含义,忽略了词中蕴含的丰富语义信息,从而制约了槽填充的语义信息在对话状态追踪作用方面的深入研究,导致对话状态追踪的性能降低。
发明内容
本申请实施例提供一种对话状态追踪方法、装置、设备及存储介质,旨在提升对话状态追踪的准确率。
本申请实施例第一方面提供一种对话状态追踪方法,所述方法包括:
将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列;
将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签;
将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量;
对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量;
将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
可选地,在将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列之前,所述方法还包括:
获取每轮对话的句子,去除所述每轮对话的句子中的标点符号和停用词,得到所述每轮对话的词序列。
可选地,将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签,包括:
将所述输入词序列中的每个词进行向量化表示,得到所述输入词序列中的每个词的词向量;
将所述输入词序列中的每个词的词向量输入所述预先训练好的槽填充序列标注模型中,获得具有上下文信息的每个词的语义表示,对所述输入词序列中的每个词的语义向量进行分类,得到所述输入词序列中的每个词的语义标签。
可选地,对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量,包括:
将所述输入词序列中的每个词的特征向量输入到长短时记忆神经网络或者卷积神经网络进行编码,得到所述每轮对话的句子特征向量。
可选地,将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态,包括:
将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中;
通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到每轮对话的信念状态分布;
根据所述每轮对话的信念状态分布确定在预定义的槽值集合中具有最大信念得分的槽值,将所述具有最大信念得分的槽值作为相应轮次对话的对话状态标签,得到所述每轮对话的对话状态。
可选地,将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到当前对话轮次的信念状态分布,是按照以下公式执行的:
其中,表示第t轮对话的句子特征向量,bt-1表示第t-1轮对话状态的信念分布,表示拼接操作,Ot表示拼接得到的t时刻对话状态追踪的输入向量,表示第t轮对话对应LSTMbelief的隐层输出,LSTMbelief表示LSTM网络进行对话状态追踪计算,bt表示第t轮对话状态的信念分布。
可选地,所述槽填充序列标注模型与所述对话状态追踪模型的训练过程包括:
收集人机对话的语料,对所述语料中的每轮对话中的每个词进行语义标签标注以及对所述语料中的每轮对话进行对话状态标注,将标注好的语料作为训练集;
将所述训练集输入所述槽填充序列标注模型与所述对话状态追踪模型中,对所述槽填充序列标注模型与所述对话状态追踪模型进行联合训练,其中,所述训练集首先通过所述槽填充序列标注模型,再传入所述对话状态追踪模型中;
所述对话状态追踪模型的损失值通过层级的长短时记忆神经网络的隐层回传到所述槽填充序列标注模型中,对所述槽填充序列标注模型的参数进行优化,最终得到所述预先训练好的槽填充序列标注模型与所述预先训练好的对话状态追踪模型。
本申请实施例第二方面提供一种对话状态追中装置,所述装置包括:
数据预处理模块,用于将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列。
槽填充模块,用于将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签。
特征提取模块,用于将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量。
句子编码模块,用于对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量。
对话状态追踪模块,用于将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
可选地,所述数据预处理模块还包括:
词序列获取子模块,用于获取每轮对话的句子,去除所述每轮对话的句子中的标点符号和停用词,得到所述每轮对话的词序列。
可选地,所述槽填充模块包括:
词向量获得子模块,用于将所述输入词序列中的每个词进行向量化表示,得到所述输入词序列中的每个词的词向量;
语义标签获得子模块,用于将所述输入词序列中的每个词的词向量输入所述预先训练好的槽填充序列标注模型中,获得具有上下文信息的每个词的语义表示,对所述输入词序列中的每个词的语义向量进行分类,得到所述输入词序列中的每个词的语义标签。
可选地,所述句子编码模块包括:
句子编码子模块,用于将所述输入词序列中的每个词的特征向量输入到长短时记忆神经网络或者卷积神经网络进行编码,得到所述每轮对话的句子特征向量。
可选地,所述对话状态追踪模块包括:
特征拼接子模块,用于将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中;
信念状态分布获得子模块,用于通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到每轮对话的信念状态分布;
对话状态获得子模块,用于根据所述每轮对话的信念状态分布确定在预定义的槽值集合中具有最大信念得分的槽值,将所述具有最大信念得分的槽值作为相应轮次对话的对话状态标签,得到所述每轮对话的对话状态。
可选地,将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到当前对话轮次的信念状态分布,是按照以下公式执行的:
其中,表示第t轮对话的句子特征向量,bt-1表示第t-1轮对话状态的信念分布,表示拼接操作,Ot表示拼接得到的t时刻对话状态追踪的输入向量,表示第t轮对话对应LSTMbelief的隐层输出,LSTMbelief表示LSTM网络进行对话状态追踪计算,bt表示第t轮对话状态的信念分布。
可选地,所述槽填充序列标注模型与所述对话状态追踪模型的训练过程包括:
收集人机对话的语料,对所述语料中的每轮对话中的每个词进行语义标签标注以及对所述语料中的每轮对话进行对话状态标注,将标注好的语料作为训练集;
将所述训练集输入所述槽填充序列标注模型与所述对话状态追踪模型中,对所述槽填充序列标注模型与所述对话状态追踪模型进行联合训练,其中,所述训练集首先通过所述槽填充序列标注模型,再传入所述对话状态追踪模型中;
所述对话状态追踪模型的损失值通过层级的长短时记忆神经网络的隐层回传到所述槽填充序列标注模型中,对所述槽填充序列标注模型的参数进行优化,最终得到所述预先训练好的槽填充序列标注模型与所述预先训练好的对话状态追踪模型。
本申请实施例第三方面提供一种可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现如本申请第一方面所述的方法中的步骤。
本申请实施例第四方面提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请第一方面所述的方法的步骤。
采用本申请提供的对话状态追踪方法,将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列,将输入词序列输入到预先训练好的槽填充序列标注模型中,得到输入词序列中每个词的语义标签,之后输入词序列中每个词的语义标签对应的特征向量与输入词序列中相应位置的词的向量进行拼接,得到输入词序列中每个词的特征向量,对输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量,将每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。本申请中,通过将输入词序列输入预先训练好的槽填充序列标注模型中,得到了词的语义信息,通过挖掘出的语义特征进行特征补偿,提升了对话状态追踪的性能。另外,本申请对槽填充序列标注模型和对话状态追踪模型进行联合训练,促进了槽填充与对话状态追踪的联合研究,对对话状态追踪的发展具有十分重要的科学意义。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提出的对话状态追踪方法的流程图;
图2是本申请一实施例提出的对状态追踪装置的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参考图1,图1是本申请一实施例提出的对话状态追踪方法的流程图。如图1所示,该方法包括以下步骤:
本实施例中,第t轮对话的状态(STATEt)由k个槽STATEt=S1×S2×…×Sk,及其对应的槽值组成,k个槽{S1,S2,…,Sk}相互独立,为每个槽单独构建一个模型,它们具有相同的网络结构。
S11:将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列。
本实施例中,一段人机对话可以分为多个轮次,系统和用户进行对话,系统会根据用户的输入或预先的设定发出动作指令,根据该动作指令生成语句,系统输出一个语句是一个轮次,用户输入一个语句是另一个轮次,每个输入或输出的语句都视为一个单独的轮次。每轮对话指用户在一段人机对话中输入的语句,前一轮次系统动作指用户输入的语句对应的前一轮次的系统动作。
设第t轮对话用户输入的句子为其中q代表第q个词,是前一轮次的系统动作,其中z代表第z个词,那么第t轮输入的句子为二者的拼接,拼接时将用户输入语句放置于前一轮次系统动作之前,表示拼接操作,是Tt中的第l个词,当1≤l≤q时,表示ut,当q+1≤l≤L时,表示mt-1。L为最大输入句子长度,当输入句子长度小于最大句子长度L时进行填充。
示例地,前一轮次对话中,用户输入句子为“为我推荐一家城东的便宜餐馆”,系统根据该用户的输入,生成的前一轮次系统的动作为“确认(价格=便宜,方位=城东)”,系统根据该动作提出的问题为“请问您是需要去一个便宜的,位于城东的餐馆就餐么。”用户的回答为“是的,我需要。”用户根据系统输出的内容进行的输入为当前轮次对话,将当前轮次对话的词序列与前一轮次系统动作的词序列进行拼接,得到当前轮次对话的输入词序列,拼接后的词序列为“是的,我需要。确认价格便宜方位东部”实际操作中词序列不含标点符号与括号。
本实施例的另一方面,在将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列之前,还需要进行如下步骤:
获取每轮对话的句子,去除所述每轮对话的句子中的标点符号和停用词,得到所述每轮对话的词序列。
本实施例中,将每轮对话中句子中的标点符号和停用词去除,得到的只由字或者单词组成的词序列就是每轮对话的词序列。
S12:将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签。
本实施例中,槽填充指的是在一句话中,为这句话中的槽值打上槽标签,槽填充序列标注模型用于为输入词序列进行槽填充,对输入词序列中的槽值打上对应的槽标签即语义标签,对输入词序列中非槽值的词打上统一的语义标签。将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签的具体方法为:
S12-1:将所述输入词序列中的每个词进行向量化表示,得到所述输入词序列中的每个词的词向量。
本实施例中,当输入的词序列为英文时,每个词就代表一个单词,当输入的词序列为中文时,每个词就代表一个字。
S12-2:将所述输入词序列中的每个词的词向量输入所述预先训练好的槽填充序列标注模型中,获得具有上下文信息的每个词的语义表示,对所述输入词序列中的每个词的语义向量进行分类,得到所述输入词序列中的每个词的语义标签。
本实施例中,采用三层的长短时记忆神经网络LSTM对输入句子Tt进行槽填充,通过对输入句子Tt进行槽填充,可以获得句子中每个词的槽标记特征,即语义标签,具体计算过程如下所示:
上述公示中,表示词的向量,和分别表示双向LSTM中前向和后向的输出,LSTMfwd表示前向LSTM网络,LSTMbwd表示后向LSTM网络,表示通过拼接双向LSTM前向和后向的隐层输出得到的词的表示,每个单词的表示包含了丰富的上下文信息,并被输入到上层LSTM中来对每个单词进行打标,表示每个词的语义标签,本实施例中,将隐式的语义标签向量表示作为语义标签对应的特征向量。
示例地,输入词序列为“是的,我需要。确认价格便宜位置东部”,这句话中有“价格槽”和“位置槽”,“便宜”是“价格槽”的槽值,“东部”是“位置槽”的槽值,这句话经过槽填充序列标注模型后得到的语义标签为“是/o的/o我/o需/o要/o确/o认/o价/o格/o便/b-price宜/i-price位/o置/o东/b-area部/i-area)”。
对不是槽值的词,语义标签为o,对于代表槽值的词“便宜”和“东部”,语义标签为“price”和“area”,可以根据槽值的内容设定语义标签,在此不做限制。
S13:将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量。
本实施例中,将输入词序列输入预先训练好的槽填充序列标注模型中后,得到输入词序列中每个词的语义标签,之后将该模型的隐层输出作为每个词的语义标签特征向量,每个词的语义标签特征向量与相应位置的词的向量进行拼接,获得输入词序列中每个词的特征向量。
S14:对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量。
本实施例中,在得到输入词序列中每个词的特征向量之后,通过对每个词的特征向量进行编码,得到每轮对话的句子特征向量,具体方法为:
将所述输入词序列中的每个词的特征向量输入到长短时记忆神经网络或者卷积神经网络进行编码,得到所述每轮对话的句子特征向量。
本实施例中,长短时记忆神经网络(LSTM)或者卷积神经网络(CNN)都可以对输入词序列中每个词的特征向量进行编码,具体可以表示为:
S15:将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
本实施例中,对于每个槽,都有一个对应的槽值,本实施例为每一个槽都预定义了一个槽值集合,通过计算每轮对话的对话状态的信念分布,可以得到每个预定义的槽值集合中的每个槽值对该槽的信念得分,这里每轮对话的对话状态就是信念得分最高的槽值,信念得分就是每个槽值是该槽对应的槽值的概率。对话状态追踪模型用于为输入的句子特征向量标注对话状态标签。对话状态追踪模型是基于长短时记忆神经网络模型(LSTM)建立的,将获取的句子特征与前一时刻对话状态的信念分布拼接作为长短时记忆神经网络的输入特征,初始化模型参数,每个输入表示对应一个长短时记忆神经网络单元,通过长短时记忆神经网络获得融合对话历史信息的当前轮次对话信息,将每个单元的长短时记忆神经网络隐层状态进行分类,获得每个轮次的对话状态。具体方法为:
S15-1:将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中。
S15-2:通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到每轮对话的信念状态分布。
本实施例中,上述步骤是通过以下公式实现的:
其中,表示第t轮对话的句子特征向量,bt-1表示第t-1轮对话状态的信念分布,表示拼接操作,Ot表示拼接得到的t时刻对话状态追踪的输入向量,表示第t轮对话对应LSTMbelief的隐层输出,LSTMbelief表示LSTM网络进行对话状态追踪计算,bt表示第t轮对话状态的信念分布。
S15-3:根据所述每轮对话的信念状态分布确定在预定义的槽值集合中具有最大信念得分的槽值,将所述具有最大信念得分的槽值作为相应轮次对话的对话状态标签,得到所述每轮对话的对话状态。
本实施例中,对每个槽,在预定义的槽值集合上具有最大信念得分的槽值即为本轮次对话的状态标签,即:
示例地,当输入词序列为“是的,我需要。确认价格便宜位置东部”,状态追踪模型对该输入词序列对应的特征向量进行计算,得到该输入词序列中槽值的信念分布,确定具有最大信念得分的槽值为“便宜”和“东部”,就得到本轮次对话的状态标签为“便宜”和“东部”,进而确定本轮次对话的对话状态为{price=“便宜”、area=“东部”}。
本实施例中,槽填充序列标注模型与对话状态追踪模型的训练过程包括:
S21:收集人机对话的语料,对所述语料中的每轮对话中的每个词进行语义标签标注以及对所述语料中的每轮对话进行对话状态标注,将标注好的语料作为训练集。
S22:将所述训练集输入所述槽填充序列标注模型与所述对话状态追踪模型中,对所述槽填充序列标注模型与所述对话状态追踪模型进行联合训练,其中,所述训练集首先通过所述槽填充序列标注模型,再传入所述对话状态追踪模型中。
S23:所述对话状态追踪模型的损失值通过层级的长短时记忆神经网络的隐层回传到所述槽填充序列标注模型中,对所述槽填充序列标注模型的参数进行优化,最终得到所述预先训练好的槽填充序列标注模型与所述预先训练好的对话状态追踪模型。
本实施例中,通过梯度下降法对槽填充序列标注模型和对话状态追踪模型进行整体训练,这两个模型都是基于长短时记忆神经网络模型(LSTM)构成的,在训练过程中,对话状态追踪模型的损失值不仅用于优化对话状态追踪模型,还会通过层级的长短时记忆神经网络的隐层回传到槽填充序列标注模型中,同时优化槽填充序列标注模型的参数,这样槽填充标注模型会通过自身的损失值与对话状态追踪模型回传的损失值共同优化自身的参数。通过对对话状态追踪模型与槽填充序列标注模型的参数的多次迭代优化,最终获得预先训练好的槽填充序列标注模型和预先训练好的对话状态追踪模型。
采用本发明提供的实施例,首先通过槽填充序列标注模型从词序列中分离出词的语义信息,通过挖掘出的词的语义特征对词的词向量进行特征补偿,提升了对话状态追踪模型的性能,这样就实现了槽填充与对话状态追踪的联合研究,对于对话状态追踪的发展具有重要意义,此外,槽填充序列标注模型与对话状态追踪模型联合训练,提高了对话状态追踪的准确性,可以为人机之间的自然交互提供有力的保障,实现更具自然性和真实感的人机对话系统。
基于同一发明构思,本申请一实施例提供一种对话状态追踪装置。参考图2,图2是本申请一实施例提出的对话状态追踪装置200的示意图。如图2所示,该装置包括:
数据预处理模块201,用于将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列。
槽填充模块202,用于将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签。
特征提取模块203,用于将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量。
句子编码模块204,用于对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量。
对话状态追踪模块205,用于将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
可选地,所述数据预处理模块还包括:
词序列获取子模块,用于获取每轮对话的句子,去除所述每轮对话的句子中的标点符号和停用词,得到所述每轮对话的词序列。
可选地,所述槽填充模块包括:
词向量获得子模块,用于将所述输入词序列中的每个词进行向量化表示,得到所述输入词序列中的每个词的词向量;
语义标签获得子模块,用于将所述输入词序列中的每个词的词向量输入所述预先训练好的槽填充序列标注模型中,获得具有上下文信息的每个词的语义表示,对所述输入词序列中的每个词的语义向量进行分类,得到所述输入词序列中的每个词的语义标签。
可选地,所述句子编码模块包括:
句子编码子模块,用于将所述输入词序列中的每个词的特征向量输入到长短时记忆神经网络或者卷积神经网络进行编码,得到所述每轮对话的句子特征向量。
可选地,所述对话状态追踪模块包括:
特征拼接子模块,用于将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中;
信念状态分布获得子模块,用于通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到每轮对话的信念状态分布;
对话状态获得子模块,用于根据所述每轮对话的信念状态分布确定在预定义的槽值集合中具有最大信念得分的槽值,将所述具有最大信念得分的槽值作为相应轮次对话的对话状态标签,得到所述每轮对话的对话状态。
可选地,将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到当前对话轮次的信念状态分布,是按照以下公式执行的:
其中,表示第t轮对话的句子特征向量,bt-1表示第t-1轮对话状态的信念分布,表示拼接操作,Ot表示拼接得到的t时刻对话状态追踪的输入向量,表示第t轮对话对应LSTMbelief的隐层输出,LSTMbelief表示LSTM网络进行对话状态追踪计算,bt表示第t轮对话状态的信念分布。
可选地,所述槽填充序列标注模型与所述对话状态追踪模型的训练过程包括:
收集人机对话的语料,对所述语料中的每轮对话中的每个词进行语义标签标注以及对所述语料中的每轮对话进行对话状态标注,将标注好的语料作为训练集;
将所述训练集输入所述槽填充序列标注模型与所述对话状态追踪模型中,对所述槽填充序列标注模型与所述对话状态追踪模型进行联合训练,其中,所述训练集首先通过所述槽填充序列标注模型,再传入所述对话状态追踪模型中;
所述对话状态追踪模型的损失值通过层级的长短时记忆神经网络的隐层回传到所述槽填充序列标注模型中,对所述槽填充序列标注模型的参数进行优化,最终得到所述预先训练好的槽填充序列标注模型与所述预先训练好的对话状态追踪模型。
基于同一发明构思,本申请另一实施例提供一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请上述任一实施例所述的对话状态追踪方法中的步骤。
基于同一发明构思,本申请另一实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行时实现本申请上述任一实施例所述的对话状态追踪方法中的步骤。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种对话状态追踪方法、装置、设备及存储介质,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种对话状态追踪方法,其特征在于,所述方法包括:
将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列;
将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签;
将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量;
对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量;
将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
2.根据权利要求1所述的方法,其特征在于,在将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列之前,所述方法还包括:
获取每轮对话的句子,去除所述每轮对话的句子中的标点符号和停用词,得到所述每轮对话的词序列。
3.根据权利要求1所述的方法,其特征在于,将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签,包括:
将所述输入词序列中的每个词进行向量化表示,得到所述输入词序列中的每个词的词向量;
将所述输入词序列中的每个词的词向量输入所述预先训练好的槽填充序列标注模型中,获得具有上下文信息的每个词的语义表示,对所述输入词序列中的每个词的语义向量进行分类,得到所述输入词序列中的每个词的语义标签。
4.根据权利要求1所述的方法,其特征在于,对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量,包括:
将所述输入词序列中的每个词的特征向量输入到长短时记忆神经网络或者卷积神经网络进行编码,得到所述每轮对话的句子特征向量。
5.根据权利要求1所述的方法,其特征在于,将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话得到对话状态,包括:
将所述每轮对话的句子特征向量与所述前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中;
通过预先训练好的对话状态追踪模型对所述拼接得到的向量进行计算,得到每轮对话的信念状态分布;
根据所述每轮对话的信念状态分布确定在预定义的槽值集合中具有最大信念得分的槽值,将所述具有最大信念得分的槽值作为相应轮次对话的对话状态标签,得到所述每轮对话的对话状态。
7.根据权利要求1所述的方法,其特征在于,所述槽填充序列标注模型与所述对话状态追踪模型的训练过程包括:
收集人机对话的语料,对所述语料中的每轮对话中的每个词进行语义标签标注以及对所述语料中的每轮对话进行对话状态标注,将标注好的语料作为训练集;
将所述训练集输入所述槽填充序列标注模型与所述对话状态追踪模型中,对所述槽填充序列标注模型与所述对话状态追踪模型进行联合训练,其中,所述训练集首先通过所述槽填充序列标注模型,再传入所述对话状态追踪模型中;
所述对话状态追踪模型的损失值通过层级的长短时记忆神经网络的隐层回传到所述槽填充序列标注模型中,对所述槽填充序列标注模型的参数进行优化,最终得到所述预先训练好的槽填充序列标注模型与所述预先训练好的对话状态追踪模型。
8.一种对话状态追踪装置,其特征在于,所述装置包括:
数据预处理模块,用于将每轮对话的词序列和前一轮次系统动作的词序列进行拼接,得到每轮对话的输入词序列。
槽填充模块,用于将所述输入词序列输入到预先训练好的槽填充序列标注模型中,得到所述输入词序列中每个词的语义标签。
特征提取模块,用于将所述输入词序列中每个词的语义标签对应的特征向量与所述输入词序列中相应位置的词的向量进行拼接,得到所述输入词序列中每个词的特征向量。
句子编码模块,用于对所述输入词序列中每个词的特征向量进行编码,得到每轮对话的句子特征向量。
对话状态追踪模块,用于将所述每轮对话的句子特征向量与前一时刻对话状态的信念分布进行拼接,将拼接得到的向量输入预先训练好的对话状态追踪模型中,为每轮对话标注上对话状态标签,得到每轮对话的对话状态。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,实现如权利要求1至7任一所述的方法中的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1至7任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110178271.6A CN112988960A (zh) | 2021-02-09 | 2021-02-09 | 一种对话状态追踪方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110178271.6A CN112988960A (zh) | 2021-02-09 | 2021-02-09 | 一种对话状态追踪方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112988960A true CN112988960A (zh) | 2021-06-18 |
Family
ID=76394307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110178271.6A Pending CN112988960A (zh) | 2021-02-09 | 2021-02-09 | 一种对话状态追踪方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112988960A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705652A (zh) * | 2021-08-23 | 2021-11-26 | 西安交通大学 | 一种基于指针生成网络的任务型对话状态追踪系统及方法 |
CN113705222A (zh) * | 2021-09-01 | 2021-11-26 | 北京邮电大学 | 槽识别模型训练方法及装置和槽填充方法及装置 |
CN113849647A (zh) * | 2021-09-28 | 2021-12-28 | 平安科技(深圳)有限公司 | 对话身份识别方法、装置、设备及存储介质 |
CN114490985A (zh) * | 2022-01-25 | 2022-05-13 | 北京百度网讯科技有限公司 | 对话生成方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN109063035A (zh) * | 2018-07-16 | 2018-12-21 | 哈尔滨工业大学 | 一种面向出行领域的人机多轮对话方法 |
CN111061850A (zh) * | 2019-12-12 | 2020-04-24 | 中国科学院自动化研究所 | 基于信息增强的对话状态跟踪方法、系统、装置 |
CN111651573A (zh) * | 2020-05-26 | 2020-09-11 | 上海智臻智能网络科技股份有限公司 | 一种智能客服对话回复生成方法、装置和电子设备 |
-
2021
- 2021-02-09 CN CN202110178271.6A patent/CN112988960A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN109063035A (zh) * | 2018-07-16 | 2018-12-21 | 哈尔滨工业大学 | 一种面向出行领域的人机多轮对话方法 |
CN111061850A (zh) * | 2019-12-12 | 2020-04-24 | 中国科学院自动化研究所 | 基于信息增强的对话状态跟踪方法、系统、装置 |
CN111651573A (zh) * | 2020-05-26 | 2020-09-11 | 上海智臻智能网络科技股份有限公司 | 一种智能客服对话回复生成方法、装置和电子设备 |
Non-Patent Citations (1)
Title |
---|
杨国花: "基于级联神经网络的对话状态追踪技术研究与实现", 《中国博士学位论文全文数据库》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705652A (zh) * | 2021-08-23 | 2021-11-26 | 西安交通大学 | 一种基于指针生成网络的任务型对话状态追踪系统及方法 |
CN113705222A (zh) * | 2021-09-01 | 2021-11-26 | 北京邮电大学 | 槽识别模型训练方法及装置和槽填充方法及装置 |
CN113705222B (zh) * | 2021-09-01 | 2024-03-08 | 北京邮电大学 | 槽识别模型训练方法及装置和槽填充方法及装置 |
CN113849647A (zh) * | 2021-09-28 | 2021-12-28 | 平安科技(深圳)有限公司 | 对话身份识别方法、装置、设备及存储介质 |
CN114490985A (zh) * | 2022-01-25 | 2022-05-13 | 北京百度网讯科技有限公司 | 对话生成方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN112988960A (zh) | 一种对话状态追踪方法、装置、设备及存储介质 | |
CN111145728B (zh) | 语音识别模型训练方法、系统、移动终端及存储介质 | |
CN111199727B (zh) | 语音识别模型训练方法、系统、移动终端及存储介质 | |
CN109960728B (zh) | 一种开放域会议信息命名实体识别方法及系统 | |
CN109543181B (zh) | 一种基于主动学习和深度学习相结合的命名实体模型和系统 | |
CN111737989A (zh) | 一种意图识别方法、装置、设备及存储介质 | |
CN109726397B (zh) | 中文命名实体的标注方法、装置、存储介质和电子设备 | |
CN111339750A (zh) | 去除停用语并预测句子边界的口语文本处理方法 | |
CN111079418B (zh) | 命名体识别方法、装置、电子设备和存储介质 | |
CN110852040B (zh) | 一种标点预测模型训练方法及文本标点确定方法 | |
CN111160041A (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN110990555A (zh) | 端到端检索式对话方法与系统及计算机设备 | |
CN112463942A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
CN116467417A (zh) | 问题答案的生成方法、装置、设备及存储介质 | |
CN108664464B (zh) | 一种语义相关度的确定方法及确定装置 | |
CN110196963A (zh) | 模型生成、语义识别的方法、系统、设备及存储介质 | |
CN115019142A (zh) | 基于融合特征的图像标题生成方法、系统、电子设备 | |
CN113326367A (zh) | 基于端到端文本生成的任务型对话方法和系统 | |
CN111462734B (zh) | 语义槽填充模型训练方法及系统 | |
CN111553147A (zh) | 一种基于N-gram的BERT模型以及语义分割方法 | |
CN111046674A (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN113486160B (zh) | 基于跨语言知识的对话方法及系统 | |
CN115240712A (zh) | 一种基于多模态的情感分类方法、装置、设备及存储介质 | |
CN116127060A (zh) | 一种基于提示词的文本分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |