CN114239607A - 一种对话答复方法及装置 - Google Patents
一种对话答复方法及装置 Download PDFInfo
- Publication number
- CN114239607A CN114239607A CN202111593370.7A CN202111593370A CN114239607A CN 114239607 A CN114239607 A CN 114239607A CN 202111593370 A CN202111593370 A CN 202111593370A CN 114239607 A CN114239607 A CN 114239607A
- Authority
- CN
- China
- Prior art keywords
- response
- information
- model
- vector
- dialogue information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种对话答复方法及装置,该方法包括:响应于对话答复指令,获取用户的对话信息;对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;向所述用户反馈所述答复信息。应用本发明提供的对话答复方法,可以准确的答复用户的对话信息,从而能够为用户提供其所需的信息。
Description
技术领域
本发明涉及数据处理技术领域,特别涉及一种对话答复方法及装置。
背景技术
目前,随着深度学习的发展,基于深度学习的智能机器人或数字客服等也越来越广泛的应用于各个领域中,智能机器人可以在特定场合下自动完成与用户对话。
现有技术中,智能机器人在于用户交流的过程中,在一些场景下,例如,在用户的对话语句存在多种词性和句中一些语义存在多义的情况下,通常是采用猜测和转移话题的方式回复用户,无法为用户提供其所需的信息。
发明内容
本发明所要解决的技术问题是提供一种对话答复方法,可以准确的答复用户的对话语句,从而能够为用户提供其所需的信息。
本发明还提供了一种对话答复装置,用以保证上述方法在实际中的实现及应用。
一种对话答复方法,包括:
响应于对话答复指令,获取用户的对话信息;
对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
向所述用户反馈所述答复信息。
上述的方法,可选的,所述对所述对话信息进行预处理,获得所述对话信息对应的关键词向量,包括:
在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
上述的方法,可选的,所述应答策略分类模型的训练过程,包括:
获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果;
根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
上述的方法,可选的,所述答复模型的训练过程,包括:
获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量;
将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果;
基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值;
基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
上述的方法,可选的,所述将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息,包括:
将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
一种对话答复装置,包括:
获取单元,用于响应对话答复指令,获取用户的对话信息;
预处理单元,用于对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
第一执行单元,用于将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
第二执行单元,用于将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
第三执行单元,用于将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
反馈单元,用于向所述用户反馈所述答复信息。
上述的装置,可选的,所述预处理单元,包括:
分词子单元,用于在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
第一执行子单元,用于将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
上述的装置,可选的,所述第一执行单元,包括:
第一获取子单元,用于获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果;
第一训练子单元,用于根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
上述的装置,可选的,所述第三执行单元,包括:
第二获取子单元,用于获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量;
组合子单元,用于将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果;
计算子单元,用于基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值;
第二训练子单元,用于基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
上述的装置,可选的,所述第二执行单元,包括:
预测子单元,用于将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
第二执行子单元,用于将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
与现有技术相比,本发明包括以下优点:
本发明提供了一种对话答复方法及装置,该方法包括:响应于对话答复指令,获取用户的对话信息;对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;向所述用户反馈所述答复信息。应用本发明提供的对话答复方法,可以先通过应答策略分类模型确定对话信息的关键词向量的应答策略分类结果,从而通过应答策略分类结果辅助答复模型对关键词向量处理,能够的准确的获得对话信息对应的答复信息,从而可以准确的答复用户的对话语句,能够为用户提供其所需的信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种对话答复方法的方法流程图;
图2为本发明提供的一种应答策略分类模型的训练过程的流程图;
图3为本发明提供的一种答复模型的训练过程的流程图;
图4为本发明提供的一种模型的构建过程的流程图;
图5为本发明提供的一种应答策略分类模型的预测过程示意图;
图6为本发明提供的一种对话答复装置的结构示意图;
图7为本发明提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例提供了一种对话答复方法,该方法可以应用于电子设备,所述方法的方法流程图如图1所示,具体包括:
S101:响应于对话答复指令,获取用户的对话信息。
在本实施例中,对话信息可以是文本类信息或语音类信息。
S102:对所述对话信息进行预处理,获得所述对话信息对应的关键词向量。
在本实施例中,可以先确定对话信息是否为文本类信息,若为文本类信息,则可以确定出对话信息中的关键词,利用预先设置的词向量产生模型对关键词进行处理,获得关键词向量。若不为文本类信息,则将对话信息转换为文本类信息,然后利用预先设置的词向量产生模型对文本类信息中的关键词进行处理,获得关键词向量。
S103:将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果。
在本实施例中,应答策略分类结果可以表征为普通回复、系统信息查询、模块功能提供、模块功能推荐和告警分析中的一种功能辅助的应答策略。
可选的,应答策略分类模型可以是Text-CNN模型。
S104:将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量。
在本实施例中,可以按预设的组合方式将关键词向量L和应答策略分类结果L'进行组合,得到目标输入向量。
S105:将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息。
在本实施例中,答复模型可以由编码器和解码器组成,将目标输入向量输入答复模型后,由答复模型的编码器对目标输入向量进行编码,得到高维向量h,再使用解码器对高维向量h进行解码,得到预测结果向量,根据所述预测结果向量,获得对话信息对应的答复信息。
S106:向所述用户反馈所述答复信息。
在本实施例中,答复信息可以为文本信息或语音信息。
应用本发明提供的对话答复方法,可以先通过应答策略分类模型确定对话信息的关键词向量的应答策略分类结果,从而通过应答策略分类结果辅助答复模型对关键词向量处理,能够的准确的获得对话信息对应的答复信息,从而可以准确的答复用户的对话语句,能够为用户提供其所需的信息。
本发明实施例提供的方法中,基于上述的实施过程,可选的,所述对所述对话信息进行预处理,获得所述对话信息对应的关键词向量,包括:
在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
在本实施例中,该词向量产生模型可以为CBOW模型,将各个分词输入至词向量产生模型,可以获得词向量产生模型输入出的所述对话信息对应的关键词向量;关键词向量可以是对话信息中的各个分词中的关键词的向量。
本发明实施例提供的方法中,基于上述的实施过程,可选的,所述应答策略分类模型的训练过程,如图2所示,包括:
S201:获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果。
在本实施例中,历史对话信息的应答策略分类结果可以表征为普通回复、系统信息查询、模块功能提供、模块功能推荐和告警分析中的一种功能辅助的应答策略。
S202:根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
在本实施例中,根据第一训练样本集对应答策略分类模型进行训练的方式为:将训练样本集中的历史对话信息输入到应答策略模型模型中,获得应答策略模型的分类结果;根据分类结果和历史对话信息中携带的标签,计算出损失函数值;根据损失函数值调整应答策略分类模型的模型参数。
本发明实施例提供的方法中,基于上述的实施过程,可选的,所述答复模型的训练过程,如图3所示,包括:
S301:获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量。
在本实施例中,第二标签包括第一子标签y和第二子标签label,第一子标签。
S302:将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果。
在本实施例中,将第二训练样本中的应答策略分类结果L'<L'1,L'2,L'3,...,L'n>和关键词向量L<L1,L2,L3,...,Ln>输组合后输入到答复模型中,由答复模型中的编码器对应答策略分类结果和关键词向量进行编码。
其中,t时刻编码器隐层输出ht,具体计算方式如下:
pt=σ(Wp×[ht-1,lt,l't]),zt=σ(Wz×[ht-1,lt,l't]);
h'=tanh(W×[pt×ht-1,l't,lt]),ht=(1-zt)×ht-1+zt×h't;
使用attention注意力机制对编码器的输出ht进行处理,获得答复预测结果,具体处理方式如下:
D't=Wd×[dt-1,ct]+bd;
其中,变量L为用户话语中的关键词进行编码后的向量;变量L’为经过第一次text-cnn训练得出的分类结果向量;h为L与L’拼接后经过GRU模型编码器后得到的向量;p为GRU模型重置门神经元输出;z可以为GRU模型输入门神经元输出;h为GRU模型记忆门神经元输出;W为权重向量;C为a和h的加权平均数;a为attention模型中的对齐向量;D为attention模型输出的预测结果向量。
S303:基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值。
在本实施例中,L=θ1loss(y,ypred)+θ2loss(label,labelpred)。
其中,loss均为类别交叉熵损失函数,表达式如下:
S304:基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
本发明实施例提供的方法中,基于上述的实施过程,可选的,所述将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息,包括:
将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
在本实施例中,获得答复模型输出的预测结果向量后,确定预测结果向量对应的文本信息;将预测结果向量对应的文本信息作为对话信息的答复信息,将答复信息反馈至用户。
本发明实施例提供的对话答复方法,在实际的应用过程中,如图4所示,可以先对用户的历史对话数据进行预处理,从对话平台上获取用户的历史对话编码成词向量,将词向量输入到应答策略分类模型Text-CNN中,获得分类结果,将语料向量和获取到的分类结果输入到改进的Seq2Seq模型中进行训练,最后保存模型参数。
由训练好的应答策略分类模型、答复模型以及各个预设的功能模块组成运维机器人,可以使用one-hot编码将各功能模块的功能表示为功能向量,将收集到的用户与系统的对话使用word2vec进行训练,用户所发给系统的信息中提及到的关键相关功能是核心关键词,因此可以使用CBOW对正常对话进行训练后使用one-hot编码功能向量(关键词向量)进行加权,突出模块功能的关键作用。使用功能向量可以避免传统的one-hot方法存在的稀疏问题,同时也获得了模块功能的上下文信息。在获取到了功能向量后,需要进行模块功能应答策略的预测,也就是模块功能辅助要针对用户发给系统的不同对话来进行应答分类。模块功能辅助的应答策略常常有普通回复、模块功能提供、模块功能推荐等。针对不同的用户对话要进行不用应答策略的反馈,因此运维机器人使用神经网络进行应答策略分类处理。在拥有用户对话语料资源关键词向量的基础上,可以成功学习到用户对话与反馈类型的映射。因此本实施例中使用Text-CNN作为模块功能预测器(应答策略分类模型),来进行由用户与系统之间的对话,直接获得模块功能的反馈类型,如图5所示,为本发明实施例提供的一种应答策略分类模型的预测过程示意图,首先,使用卷积操作提取文本矩阵特征,使用池化提取最明显的文本特征,最后使用全连接层和softmax进行模块功能应答策略类型的预测。
在模块功能应答预测器类型获取到相应的应答类型后,使用模块功能辅助应答机器人进行回复预测。将用户的关键词向量L和上一步Text-CNN获得的应答策略分类结果L'通过GRU神经单元进行编码,编码成高维向量h,再使用解码器对h解码获得回复向量p,编码器和解码器使用GRU单元进行前向传播和反向传播。针对生成式聊天辅助机器人回复内容不准确,无法正常进行结果返回的缺点,本实施例使用了类别向量拼接,以及使用Text-CNN对解码器所获取的内容进行有监督网络学习。网络结构是在GRU网络编码器和解码器中增加了特征向量进行特征监督融合,并且使用注意力机制对特征权重进行学习,最后利用一个Text-CNN判别器对解码器产生的内容进行监督判别来计算梯度来调整网络参数。能够提高回复内容的准确性。
与图1所述的方法相对应,本发明实施例还提供了一种对话答复装置,用于对图1中方法的具体实现,本发明实施例提供的对话答复装置可以应用于电子设备中,其结构示意图如图6所示,具体包括:
获取单元601,用于响应对话答复指令,获取用户的对话信息;
预处理单元602,用于对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
第一执行单元603,用于将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
第二执行单元604,用于将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
第三执行单元605,用于将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
反馈单元606,用于向所述用户反馈所述答复信息。
在本发明提供的一实施例中,基于上述的方案,可选的,所述预处理单元602,包括:
分词子单元,用于在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
第一执行子单元,用于将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
在本发明提供的一实施例中,基于上述的方案,可选的,所述第一执行单元603,包括:
第一获取子单元,用于获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果;
第一训练子单元,用于根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
在本发明提供的一实施例中,基于上述的方案,可选的,所述第三执行单元605,包括:
第二获取子单元,用于获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量;
组合子单元,用于将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果;
计算子单元,用于基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值;
第二训练子单元,用于基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
在本发明提供的一实施例中,基于上述的方案,可选的,所述第三执行单元604,包括:
预测子单元,用于将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
第二执行子单元,用于将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
上述本发明实施例公开的对话答复装置中的各个单元和模块具体的原理和执行过程,与上述本发明实施例公开的对话答复方法相同,可参见上述本发明实施例提供的对话答复方法中相应的部分,这里不再进行赘述。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述对话答复方法。
本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器701,以及一个或者一个以上的指令702,其中一个或者一个以上指令702存储于存储器701中,且经配置以由一个或者一个以上处理器703执行所述一个或者一个以上指令702进行以下操作:
响应于对话答复指令,获取用户的对话信息;
对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
向所述用户反馈所述答复信息。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明所提供的一种对话答复方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种对话答复方法,其特征在于,包括:
响应于对话答复指令,获取用户的对话信息;
对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
向所述用户反馈所述答复信息。
2.根据权利要求1所述的方法,其特征在于,所述对所述对话信息进行预处理,获得所述对话信息对应的关键词向量,包括:
在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
3.根据权利要求1所述的方法,其特征在于,所述应答策略分类模型的训练过程,包括:
获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果;
根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
4.根据权利要求1所述的方法,其特征在于,所述答复模型的训练过程,包括:
获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量;
将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果;
基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值;
基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
5.根据权利要求1所述的方法,其特征在于,所述将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息,包括:
将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
6.一种对话答复装置,其特征在于,包括:
获取单元,用于响应对话答复指令,获取用户的对话信息;
预处理单元,用于对所述对话信息进行预处理,获得所述对话信息对应的关键词向量;
第一执行单元,用于将所述关键词向量输入至预先训练完成的应答策略分类模型,得到所述应答策略分类模型输出的应答策略分类结果;
第二执行单元,用于将所述关键词向量与所述应答策略分类结果进行组合,得到目标输入向量;
第三执行单元,用于将所述目标输入向量输入至预先训练完成的答复模型,获得所述对话信息对应的答复信息;
反馈单元,用于向所述用户反馈所述答复信息。
7.根据权利要求6所述的装置,其特征在于,所述预处理单元,包括:
分词子单元,用于在所述对话信息为文本类信息的情况下,对所述对话信息进行分词处理,获得所述对话信息的各个分词;
第一执行子单元,用于将各个所述分词输入至预先设置的词向量产生模型,获得所述对话信息对应的关键词向量。
8.根据权利要求6所述的装置,其特征在于,所述第一执行单元,包括:
第一获取子单元,用于获取第一训练样本集;第一训练样本集包括携带第一标签的历史对话信息;所述第一标签表示所述历史对话信息的应答策略分类结果;
第一训练子单元,用于根据所述第一训练样本集对应答策略分类模型进行训练,以得到训练好的应答策略分类模型。
9.根据权利要求6所述的装置,其特征在于,所述第三执行单元,包括:
第二获取子单元,用于获取第二训练样本集;所述第二训练样本集包括多个携带第二标签的第二训练样本;所述第二训练样本包括历史对话信息的应答策略分类结果和该历史对话信息的关键词向量;
组合子单元,用于将每个所述第二训练样本中的应答策略分类结果和关键词向量进行组合后,输入答复模型,得到所述第二训练样本的答复预测结果;
计算子单元,用于基于预设的交叉熵损失函数对所述答复预测结果和所述第二训练样本的第二标签进行计算,得到损失函数值;
第二训练子单元,用于基于所述损失函数值对所述答复模型的模型参数进行更新,以对所述答复模型进行训练。
10.根据权利要求6所述的装置,其特征在于,所述第二执行单元,包括:
预测子单元,用于将所述目标输入向量输入至预先训练完成的答复模型,得到所述答复模型输出的预测结果向量;
第二执行子单元,用于将所述预测结果向量对应的文本信息作为所述对话信息对应的答复信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111593370.7A CN114239607A (zh) | 2021-12-23 | 2021-12-23 | 一种对话答复方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111593370.7A CN114239607A (zh) | 2021-12-23 | 2021-12-23 | 一种对话答复方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114239607A true CN114239607A (zh) | 2022-03-25 |
Family
ID=80762255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111593370.7A Pending CN114239607A (zh) | 2021-12-23 | 2021-12-23 | 一种对话答复方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114239607A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114969290A (zh) * | 2022-05-31 | 2022-08-30 | 中国电信股份有限公司 | 对话信息处理方法、装置、电子设备及存储介质 |
CN117271778A (zh) * | 2023-11-17 | 2023-12-22 | 北京水滴科技集团有限公司 | 基于生成式大模型的保险外呼会话信息输出方法及装置 |
-
2021
- 2021-12-23 CN CN202111593370.7A patent/CN114239607A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114969290A (zh) * | 2022-05-31 | 2022-08-30 | 中国电信股份有限公司 | 对话信息处理方法、装置、电子设备及存储介质 |
CN117271778A (zh) * | 2023-11-17 | 2023-12-22 | 北京水滴科技集团有限公司 | 基于生成式大模型的保险外呼会话信息输出方法及装置 |
CN117271778B (zh) * | 2023-11-17 | 2024-02-09 | 北京水滴科技集团有限公司 | 基于生成式大模型的保险外呼会话信息输出方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110704641B (zh) | 一种万级意图分类方法、装置、存储介质及电子设备 | |
CN109785824B (zh) | 一种语音翻译模型的训练方法及装置 | |
US9842106B2 (en) | Method and system for role dependent context sensitive spoken and textual language understanding with neural networks | |
CN110147435B (zh) | 对话生成方法、装置、设备及存储介质 | |
CN111241237A (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN111538809B (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN114239607A (zh) | 一种对话答复方法及装置 | |
CN110399472B (zh) | 面试提问提示方法、装置、计算机设备及存储介质 | |
CN111522916A (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN110597968A (zh) | 一种回复选择方法及装置 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
CN109979461B (zh) | 一种语音翻译方法及装置 | |
CN114386426B (zh) | 一种基于多元语义融合的金牌话术推荐方法及装置 | |
CN114005446A (zh) | 情感分析方法、相关设备及可读存储介质 | |
CN114003700A (zh) | 一种对话信息的处理方法、系统、电子设备及存储介质 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
CN116361442B (zh) | 基于人工智能的营业厅数据分析方法及系统 | |
CN110795531B (zh) | 一种意图识别方法、装置及存储介质 | |
CN112989794A (zh) | 模型训练方法、装置、智能机器人和存储介质 | |
Debatin et al. | Offline Speech Recognition Development | |
CN115688758A (zh) | 一种语句意图识别方法、装置和存储介质 | |
CN115495566A (zh) | 一种增强文本特征的对话生成方法和系统 | |
CN115238048A (zh) | 一种联合意图识别和槽填充的快速交互方法 | |
CN114117001A (zh) | 指代消解方法、指代消解模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |