CN116483967A - 对话响应处理方法、装置、电子设备及存储介质 - Google Patents
对话响应处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116483967A CN116483967A CN202310445237.XA CN202310445237A CN116483967A CN 116483967 A CN116483967 A CN 116483967A CN 202310445237 A CN202310445237 A CN 202310445237A CN 116483967 A CN116483967 A CN 116483967A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- level
- candidate
- determining
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 title claims abstract description 38
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 description 15
- 238000004891 communication Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013145 classification model Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种对话响应处理方法、装置、电子设备及存储介质,具体实现方案为:从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;从最后一级候选知识集合中确定出参考知识;根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。根据本申请的技术方案,能够有效提升对话内容的响应效率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种对话响应处理方法、装置、电子设备及存储介质。
背景技术
在知识问答场景中,通常是根据用户的问题,引入辅助知识来推理符合用户问题的答案。目前,辅助知识通常是将用户的问题与知识库所有知识一一比对得到的。而这一处理的运算量较大,使得输出答案的效率较低。
发明内容
为了解决上述问题,本申请提出一种对话响应处理方法、装置、电子设备及存储介质,能够显著提升对话内容的响应效率。
根据本申请实施例的第一方面,提供了一种对话响应处理方法,包括:
从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
从最后一级候选知识集合中确定出参考知识;
根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
根据本申请实施例的第二方面,提供了一种对话响应处理装置,包括:
生成模块,用于从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
确定模块,用于从最后一级候选知识集合中确定出参考知识;
处理模块,用于根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
本申请第三方面提供了一种电子设备,包括:
存储器和处理器;
所述存储器与所述处理器连接,用于存储程序;
所述处理器,通过运行所述存储器中的程序,实现上述的对话响应处理方法。
本申请第四方面提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时,实现上述的对话响应处理方法。
上述申请中的一个实施例具有如下优点或有益效果:
从预设的知识库的第i级候选知识集合确定第i+1级的候选知识集合,如此,无需逐个对比知识库中的知识,只需根据上一级的候选知识集合,逐级确定与第一对话内容相关的下一级的候选知识集合,即可快速地在最后一级候选知识集合中确定出参考知识,然后根据参考知识以及第一对话内容生成第二对话内容,从而提升第一对话内容的响应效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种对话响应处理方法的流程示意图;
图2为本申请实施例提供的一种对话响应处理方法中确定参考知识具体流程示意图;
图3为本申请实施例提供的一种对话响应处理方法中知识库的示意图;
图4为本申请实施例提供的一种对话响应处理方法的具体流程示意图;
图5为本申请实施例提供的一种对话响应处理装置的结构示意图;
图6为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
本申请实施例技术方案适用于应用在各种人机交互的场景中,例如,知识问答场景、医疗问诊场景、在线教育场景等。采用本申请实施例技术方案,能够提升对话内容的响应效率。
本申请实施例技术方案可示例性地应用于处理器、电子设备、服务器(包括云服务器)等硬件设备,或包装成软件程序被运行,当硬件设备执行本申请实施例技术方案的处理过程,或上述软件程序被运行时,可以实现快速查找参考知识,从而根据参考知识和第一对话内容快速生成第二对话内容的目的。本申请实施例只对本申请技术方案的具体处理过程进行示例性介绍,并不对本申请技术方案的具体实现形式进行限定,任意的可以执行本申请技术方案处理过程的技术实现形式,都可以被本申请实施例所采用。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
示例性方法
图1是根据本申请一实施例的对话响应处理方法的流程图。在一示例性实施例中,提供了一种对话响应处理方法,包括:
S110、从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
S120、从最后一级候选知识集合中确定出参考知识;
S130、根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
在步骤S110中,示例性地,预设知识库可以是包含某个指定领域知识的数据库,例如,医疗领域的知识库,则对话响应处理方法可以用于医疗问诊的场景下。还可以是包含多个领域知识的数据库。知识库是包含多个不同层级的知识集合的数据库,其中,每个知识集合中包括多个相似的知识数据。在知识库中的层级上限可以是根据实际需要进行设置的,例如,可以设置层级上限为6。可选地,知识库中的知识之间的架构关系,可以是预先获取指定领域的多个样本知识,以将样本知识分为不同层级标签为目标对神经网络进行训练,从而使神经网络获知该知识库中的知识之间的架构关系。如此,无需依靠固有类别,也可以通过知识库实现对知识的自动分组。具体地,知识库最终可以是以知识图谱的形式进行存储。
示例性地,第一对话内容表示输入语音数据或文本数据,例如,用户所提出的问题数据,可选地,问题数据可以是用户直接输入的,还可以是在各种网页上获取的问题数据。可选地,第i级候选知识集合可以是利用第一对话内容与数据库中的第i级知识数据的相关度,筛选出的知识数据所组成的候选知识集合。根据第i级候选知识集合中的每一个候选知识集合分别对应的第i+1级知识集合,在第i+1级知识集合中选择出第i+1级候选知识集合。
在步骤S120中,示例性地,最后一级候选知识集合表示第一对话内容在知识库中相关的最后一个层级的知识的集合。例如,根据第一对话内容在知识库中查找相关知识,若第m级的知识不对应有第m+1级的知识,则将第m层作为最后一个层级。
具体地,可以是根据第一对话内容在知识库中确定第一级候选知识集合,并根据第一级候选知识集合确定对应的第二级候选知识集合,以此类推,直至确定出最后一级候选知识集合。再选择最后一级候选知识集合中与第一对话内容相关度高的一个或多个知识数据作为参考知识。
在步骤S130中,示例性地,第二对话内容是用于响应第一对话内容的数据。例如,当第一对话内容是用户输入的问题数据,那么第二对话内容则是回答上述问题数据的回答数据。
可选地,可以是先提取第一对话内容的情绪信息和关键词,根据情绪信息、关键词以及参考知识,生成对应的第二对话内容。可选地,预先根据样本参考知识和对话训练数据对神经网络模型进行训练,得到问答模型。将参考知识以及第一对话内容输入至问答模型,输出第二对话内容。如此,根据参考知识生成答案能够提升答案内容的准确性。
在本申请的技术方案中,从预设的知识库的第i级候选知识集合确定第i+1级的候选知识集合,如此,无需逐个对比知识库中的所有知识,只需根据上一级的候选知识集合,逐级确定与第一对话内容相关的下一级的候选知识集合,即可快速地在最后一级候选知识集合中确定出参考知识,然后根据参考知识以及第一对话内容生成第二对话内容,从而提升第一对话内容的响应效率。
在一种实施方式中,所述从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,即步骤S110,包括:
S1110、确定第i级候选知识集合中的每一个候选知识集合分别对应的第i+1级知识集合,其中,任意一个第i级候选知识集合对应的第i+1级知识集合,通过对该第i级候选知识集合中的知识进行集合划分而得到;
S1120、从第i级候选知识集合对应的全部第i+1级知识集合中,确定出第i+1级候选知识集合。
可选地,在知识库中确定第i级的每一个候选知识集合对应的第i+1级知识集合,利用第一对话内容与各个第i+1级知识集合相似度选择第i+1级候选知识集合。如此,根据知识库逐个层级确定每个层级的候选知识集合,清楚的确定每个层级的知识,这样能够更准确地找到与第一对话内容相似的知识。
优选地,所述从第i级候选知识集合对应的全部第i+1级知识集合中,确定出第i+1级候选知识集合,即步骤S1120,包括:
根据各个第i+1级知识集合的特征与所述第一对话内容的特征相似度,从各个第i+1级知识集合中确定出候选特征集合,作为第i+1级候选知识集合。
示例性地,第一对话内容的特征可以是第一对话内容所有文本的文本特征,还可以是对第一对话内容进行分词处理,再对分词之后第一对话内容进行词过滤,将过滤后的分词作为第一对话内容的特征。
具体地,确定任意一个第i+1级知识集合中各个知识的文本特征,将第一对话内容的特征与第i+1级知识集合中各个知识的文本特征进行相似度计算得到多个相似度,取多个相似度的平均值作为第i+1级知识集合与第一对话内容的相似度。对各个第i+1级知识集合的相似度进行排序,将排序靠前的n个知识作为第i+1级候选知识集合。需要说明的是,n是正整数,可以根据实际需要进行设置,针对不同的层级可以选择相同数量的知识作为候选知识集合,还可以选择不同数量的知识作为候选知识集合。在本实施例中,可以采用Beamsearch技术对每个层级的知识进行搜索,确定每个层级对应的候选知识集合。如图2所示,例如,向知识库输入第一对话内容,在第一级选择a个知识集合作为第一级候选知识集合,确定a个第一级知识集合对应的第二级的知识集合,在第二级对的知识集合中选择b个知识集合作为第二级的候选知识集合,以此类推,直到在最后一级中选择参考知识。其中,a与b可以相同也可以不同。
可选地,任意一个第i+1级知识集合的特征,由该第i+1级知识集合所包含的各个第i+2级知识集合的特征而确定。
具体地,针对任意一个第i+1级知识集合确定对应的第i+2级的知识集合;确定第i+2级的知识集合中每个知识数据的文本特征向量,并根据第i+2级的知识集合中所有文本特征向量计算出中心向量,将该中心向量确定为第i+2级知识集合的特征。根据第i+1级知识集合所包含的各个第i+2级知识集合的特征,再计算中心向量,作为第i+1级知识集合的特征。其中,可以是将第i+2级的知识集合中所有文本特征向量的中位数作为中心向量,可以理解的是,在具有两个中位数时,可以取两个中位数的平均数作为中心向量;还可以是取第i+2级的知识集合中所有文本特征向量的平均数作为中心向量。如此,通过第i+2级的知识集合的文本特征向量来表示第i+1级知识集合,使得第i+1级知识集合能够更准确地表达出所涵盖的知识情况,这样,能够更准确地查找出与第一对话内容相似的知识。
在一种实施方式中,所述从最后一级候选知识集合中确定出参考知识,步骤S130包括:
根据全部的最后一级候选知识集合,确定备用知识集合;
从所述备用知识集合中,选择与所述第一对话内容的特征相似度最高的第一数量的知识,作为参考知识。
具体地,利用全部的最后一级候选知识集合中的全部知识,组成备用知识集合,即提取最后一级候选知识集合中所有的知识数据,并将其作为备用知识集合。将备用知识集合中的知识数据与第一对话内容进行相似度比对。根据相似度对备用知识集合中的知识数据进行排序,将相似度最高的k个知识数据作为参考知识。其中,第一数量可以是根据实际需要进行设置的,在此不作限定,比如上述的k,可以取值为任意设定的正整数。例如,可以根据备用知识集合中的知识数量确定参考知识的数量。
在本实施例中,在知识库中确定备用知识集合中每个知识数据的特征向量,以及第一对话内容的文本特征向量。将第一对话内容的文本特征向量分别与备用知识集合中每个知识数据的文本特征向量进行相似度计算,将相似度最高的k个知识数据作为参考知识。其中,相似度计算可以是余弦相似度计算,还可以是欧氏距离计算法等可以计算文本相似度的方法,在此不作限定。
在一种实施方式中,从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识,包括:
将第一对话内容输入预先训练的参考知识预测模型,得到所述参考知识预测模型预测的参考知识;
其中,所述参考知识预测模型从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识。
示例性地,参考知识可以是层级标签,还可以是层级标签组成的序列。例如,[1,2,2,0,0,0],表示在层级上限6的情况下,一级标签为1,二级标签为2,三级标签为2。这样,将第一对话内容输入至参考知识预测模型,输出至少一条标签序列,基于标签序列中的各个层级标签读取相应的知识数据。
示例性地,参考知识可以是输出的知识数据,将第一对话内容输入至参考知识预测模型,依次输出每一级的候选知识集合,其中,第i+1级候选知识集合是由第i级候选知识集合确定的。并在最后一级候选知识集合中确定出参考知识。
例如,第一对话内容输入至参考知识预测模型,输出第一级候选知识集合,利用参考知识预测模型确定第一级候选知识集合对应的第二级知识集合,计算第二级知识集合和第一对话内容的相似度,根据相似度排序筛选第二级候选知识集合,以此类推,直至计算至最后一级。
在一种实施方式中,所述参考知识预测模型的训练过程包括第一训练过程和/或第二训练过程。
示例性地,参考知识预测模型可以在知识库的基础上进行第一训练得到的。还可以是可以在知识库的基础上进行第二训练得到的。亦可以是在知识库的基础上先进行第一训练,再对第一训练之后的模型进行第二训练得到的。
可选地,在所述第一训练过程中,使所述参考知识预测模型预测样本知识在所述预设知识库中的层级标签,并基于所述参考知识预测模型预测的层级标签对所述参考知识预测模型进行优化,所述层级标签包括从每一级知识集合中确定出的与样本知识相关的知识集合的标签。
示例性地,如图3所示,预先获取大量的知识以及现有的三元组(例如,地点:省-市-区-镇)作为训练数据,并以将大量知识进行分为不同的层级标签为目标对模型进行训练,得到知识库中的知识之间的架构关系。其中,模型可以采用Transformer模型。如此,知识库中的知识之间的架构关系能够保持和现有三元组标签相同的体系,保证了模型的通用性。
进一步地,在知识库训练完成后,在知识库的基础上进行分类训练,即采用样本知识作为输入,以使模型输出样本知识在预设知识库中的层级标签,可以根据预测的层级标签的准确率对模型进行优化,层级标签的准确率满足预设条件的情况下,输出参考知识预测模型。这样,训练好的参考知识预测模型能够根据输入知识,输出对应的标签序列,从而根据标签序列中每个层级标签,快速地确定输入知识的相关知识。
优选地,第一训练的过程可以包括:通过所述参考知识预测模型预测相近似的知识三元组在所述预设知识库中的层级标签,并基于所述相近似的知识三元组的预测层级标签之间的对比结果对所述参考知识预测模型进行优化。其中,近似三元组表示近似的三元组,例如,ABC,AB-1C。
例如,
将多个近似三元组的知识数据输入至参考知识预测模型,输出预测的层级标签,对多个近似三元组的预测层级标签进行匹配,若多个近似三元组的预测层级标签一致,则无需对参考知识预测模型进行优化;若多个近似三元组的预测层级标签不一致,则根据多个近似三元组的预测层级标签之间的误差值优化模型。其中,所有近似三元组对应的三元组层级标签相同,三元组层级标签可以是预先在知识库中确定的。如,将ABC,AB-1C输入参考知识预测模型,对模型进行优化,使得其输出的预测层级标签均为[1,0,1,0,1,0]。如此,利用三元组原有的标签体系实现对参考知识预测模型的监督,同时,保证了近似三元组的标签体系相同,以使模型输出的预测层级标签,更加接近现有的三元组标签体系。
优选地,第一训练的过程还可以包括:通过所述参考知识预测模型预测样本知识在所述预设知识库中的预测层级标签,根据预测层级标签与所述样本知识对应的标准层级标签,对所述参考知识预测模型进行优化。其中,样本知识对应的标准层级标签是根据样本知识提前在知识库中确定的层级标签。
例如,将样本知识输入至参考知识预测模型,输出样本知识对应的预测层级标签,将样本知识对应的预测层级标签与标准层级标签进行匹配。其中,标准层级标签是预先根据样本知识设置的。然后根据样本知识对应的预测层级标签与标准层级标签的误差值来确定匹配情况,再根据匹配情况对参考知识预测模型进行优化。如此,能够使得参考知识预测模型所预测的层级标签更加准确。
需要说明的是,可以是根据多个相近似的知识三元组的预测层级标签之间的对比结果来优化参考知识预测模型;还可以是根据样本知识对应的预测层级标签与标准层级标签的对比结果优化参考知识预测模型。亦可以是多个相近似的知识三元组的预测层级标签之间的对比结果和样本知识对应的预测层级标签与标准层级标签的对比结果相结合来优化参考知识预测模型。这样既能保证模型输出的预测层级标签的准确性,还能保证预测层级标签更加接近现有的三元组标签体系。
进一步地,在训练过程中,为了避免出现极端的层级标签,因此对模型设置相应的惩罚。极端的层级标签包括:每个知识独立成组或全部知识呈1组或知识不属于任何一组。每个知识独立成组可以表示为[n,0,0,0,0,0],全部知识呈1组可以表示为[1,0,0,0,0,0],知识不属于任何一组可以表示为[0,0,0,0,0,0]。具体地,根据不同的极端层级标签可以设置不同的惩罚系数,根据不同的惩罚系数对惩罚函数进行计算,得到对应的惩罚。通过惩罚来约束参考知识预测模型。
在本实施例中,根据第一训练得到参考知识预测模型之后,获取样本问题,将样本问题输入至参考知识预测模型输出与样本问题相关的层级标签,根据层级标签在知识库中确定参考知识。再根据参考知识和样本问题作为输入,以样本问题对应的答案作为输出,对模型进行训练,得到问答模型。这样,问答模型就能够根据参考知识和问题输出回答。
可选地,在所述第二训练过程中,使所述参考知识预测模型从预设知识库中预测与样本问题相关的参考知识,并基于该参考知识和所述样本问题生成与所述样本问题对应的答案;基于所述答案对所述参考知识预测模型进行优化。
示例性地,预先获取大量的知识以及现有的三元组(例如,地点:省-市-区-镇)作为训练数据,并以将大量知识进行分为不同的层级标签为目标,对模型进行训练,得到知识库中的知识之间的架构关系。其中,模型可以采用Transformer模型。如此,知识库中的知识之间的架构关系能够保持和现有三元组标签相同的体系,保证了模型的通用性。
然后,在知识库的基础上进行分类训练,即将样本问题作为输入,以与样本问题相关的参考知识作为输出为目标,最终得到训练好的分类模型。以使分类模型能够在每一级的知识集合中输出与样本问题相关的候选知识集合,从而在最后一级的候选知识集合中选出参考知识。然后根据分类模型输出的参考知识和分类模型训练所使用的样本问题作为输入,以样本问题对应的答案作为输出为目标对模型继续进行训练得到问答模型,根据问答模型所输出的答案对参考知识预测模型进行优化,得到训练好的参考知识预测模型。
进一步地,所述第二训练过程包括:
根据所述参考知识预测模型对第一样本问题预测的第一参考知识,生成与所述第一样本问题对应的第一答案;根据所述第一答案与所述第一样本问题对应的标准答案,对所述参考知识预测模型进行优化;其中,标准答案是根据第一样本问题预先设置好的。
和/或,获取所述参考知识预测模型对第二样本问题预测的每一级候选知识集合以及最终确定的第二参考知识;确定每一级候选知识集合以及与所述第二样本问题对应的每一级知识集合标签之间的第一匹配关系;根据所述第二参考知识,生成与所述第二样本问题对应的第二答案;根据所述第二答案与所述第二样本问题对应的标准答案,以及所述第一匹配关系,对所述参考知识预测模型进行优化。
可选地,在参考知识预测模型只输出最终预测结果的情况下,确定第一答案与标准答案的对比结果,其中,对比结果用于表示第一答案的正确比例。即,在确定第一答案中的正确答案后,将正确答案的数量与第一答案的数量的比值作为对比结果,并确定最终预测结果的消耗时间。然后,根据上述对比结果与最终预测结果的消耗时间的比值来修正参考知识预测模型。如此,能够根据预测结果对监督模型进行训练,而且由于只输出最终预测结果,所以耗时较少,能够提升模型的预测效率。
可选地,在参考知识预测模型输出每一级的候选知识集合(即从第一级候选知识集合到最后一级候选知识集合)的情况下,确定第二答案与标准答案的对比结果,其中,对比结果用于表示第二答案的正确比例。即,在确定第二答案中的正确答案后,将正确答案的数量与第二答案的数量的比值作为对比结果。确定输出每一级的候选知识集合的消耗时间的时间和,再根据上述对比结果与时间和的比值来修正参考知识预测模型。这样能够根据预测结果对监督模型进行训练。而且,由于输出每一级的候选知识集合,因此可以在每一级中确定更相似的候选集合,因此能够提升模型的准确率。
在本实施例中,如图4所示,参考知识预测模型用于确定参考知识,问答模型用于可以生成答案,因此,将第一对话内容输入至参考知识预测模型得到参考知识,然后将参考知识和第一对话内容输入至问答模型,生成答案。再根据上述对比结果与每一层级的预测结果的数量总和的比值分别修正参考知识预测模型和问答模型。
示例性装置
相应的,图5是根据本申请一实施例的对话响应处理装置的结构示意图。在一示例性实施例中,提供了一种对话响应处理装置,包括:
生成模块510,用于从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
确定模块520,用于从最后一级候选知识集合中确定出参考知识;
处理模块530,用于根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
在一种实施方式中,生成模块,包括:
查找模块,用于确定第i级候选知识集合中的每一个候选知识集合分别对应的第i+1级知识集合,其中,任意一个第i级候选知识集合对应的第i+1级知识集合,是通过对该第i级候选知识集合中的知识进行集合划分而得到;
选择模块,用于从第i级候选知识集合对应的全部第i+1级知识集合中,确定出第i+1级候选知识集合。
在一种实施方式中,选择模块,还用于:
根据各个第i+1级知识集合的特征与所述第一对话内容的特征相似度,从各个第i+1级知识集合中确定出候选特征集合,作为第i+1级候选知识集合。
在一种实施方式中,任意一个第i+1级知识集合的特征,由该第i+1级知识集合所包含的各个第i+2级知识集合的特征而确定。
在一种实施方式中,确定模块,包括:
备用模块,用于根据全部的最后一级候选知识集合,确定备用知识集合;
判断模块,用于从所述备用知识集合中,选择与所述第一对话内容的特征相似度最高的第一数量的知识,作为参考知识。
在一种实施方式中,从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识,包括:
将第一对话内容输入预先训练的参考知识预测模型,得到所述参考知识预测模型预测的参考知识;
所述参考知识预测模型从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识。
在一种实施方式中,所述参考知识预测模型的训练过程包括第一训练过程和/或第二训练过程;
在所述第一训练过程中,使所述参考知识预测模型预测样本知识在所述预设知识库中的层级标签,并基于所述参考知识预测模型预测的层级标签对所述参考知识预测模型进行优化,所述层级标签包括从每一级知识集合中确定出的与样本知识相关的知识集合的标签;
在所述第二训练过程中,使所述参考知识预测模型从预设知识库中预测与样本问题相关的参考知识,并基于该参考知识和所述样本问题生成与所述样本问题对应的答案;基于所述答案对所述参考知识预测模型进行优化。
在一种实施方式中,所述第一训练过程包括:
通过所述参考知识预测模型预测相近似的知识三元组在所述预设知识库中的层级标签,并基于所述相近似的知识三元组的预测层级标签之间的对比结果对所述参考知识预测模型进行优化;
和/或,
通过所述参考知识预测模型预测样本知识在所述预设知识库中的预测层级标签,根据预测层级标签与所述样本知识对应的标准层级标签,对所述参考知识预测模型进行优化。
在一种实施方式中,所述第二训练过程包括:
根据所述参考知识预测模型对第一样本问题预测的第一参考知识,生成与所述第一样本问题对应的第一答案;根据所述第一答案与所述第一样本问题对应的标准答案,对所述参考知识预测模型进行优化;
和/或,
获取所述参考知识预测模型对第二样本问题预测的每一级候选知识集合以及最终确定的第二参考知识;确定每一级候选知识集合以及与所述第二样本问题对应的每一级知识集合标签之间的第一匹配关系;根据所述第二参考知识,生成与所述第二样本问题对应的第二答案;根据所述第二答案与所述第二样本问题对应的标准答案,以及所述第一匹配关系,对所述参考知识预测模型进行优化。
本实施例提供的对话响应处理装置,与本申请上述实施例所提供的对话响应处理方法属于同一申请构思,可执行本申请上述任意实施例所提供的对话响应处理方法,具备执行对话响应处理方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请上述实施例提供的对话响应处理方法的具体处理内容,此处不再加以赘述。
示例性电子设备
本申请另一实施例还提出一种电子设备,参见图6所示,该设备包括:
存储器200和处理器210;
其中,所述存储器200与所述处理器210连接,用于存储程序;
所述处理器210,用于通过运行所述存储器200中存储的程序,实现上述任一实施例公开的对话响应处理方法。
具体的,上述电子设备还可以包括:总线、通信接口220、输入设备230和输出设备240。
处理器210、存储器200、通信接口220、输入设备230和输出设备240通过总线相互连接。其中:
总线可包括一通路,在计算机系统各个部件之间传送信息。
处理器210可以是通用处理器,例如通用中央处理器(CPU)、微处理器等,也可以是特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制本发明方案程序执行的集成电路。还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
处理器210可包括主处理器,还可包括基带芯片、调制解调器等。
存储器200中保存有执行本发明技术方案的程序,还可以保存有操作系统和其他关键业务。具体地,程序可以包括程序代码,程序代码包括计算机操作指令。更具体的,存储器200可以包括只读存储器(read-only memory,ROM)、可存储静态信息和指令的其他类型的静态存储设备、随机存取存储器(random access memory,RAM)、可存储信息和指令的其他类型的动态存储设备、磁盘存储器、flash等等。
输入设备230可包括接收用户输入的数据和信息的装置,例如键盘、鼠标、摄像头、扫描仪、光笔、语音输入装置、触摸屏、计步器或重力感应器等。
输出设备240可包括允许输出信息给用户的装置,例如显示屏、打印机、扬声器等。
通信接口220可包括使用任何收发器一类的装置,以便与其他设备或通信网络通信,如以太网,无线接入网(RAN),无线局域网(WLAN)等。
处理器210执行存储器200中所存放的程序,以及调用其他设备,可用于实现本申请上述实施例所提供的任意一种对话响应处理方法的各个步骤。
示例性计算机程序产品和存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的对话响应处理方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是存储介质,其上存储有计算机程序,计算机程序被处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的对话响应处理方法中的步骤,上述的电子设备的具体工作内容,以及上述的计算机程序产品和存储介质上的计算机程序被处理器运行时的具体工作内容,均可以参见上述的方法实施例的内容,此处不再赘述。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请各实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减,各实施例中记载的技术特征可以进行替换或者组合。
本申请各实施例种装置及终端中的模块和子模块可以根据实际需要进行合并、划分和删减。
本申请所提供的几个实施例中,应该理解到,所揭露的终端,装置和方法,可以通过其它的方式实现。例如,以上所描述的终端实施例仅仅是示意性的,例如,模块或子模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个子模块或模块可以结合或者可以集成到另一个模块,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块或子模块可以是或者也可以不是物理上分开的,作为模块或子模块的部件可以是或者也可以不是物理模块或子模块,即可以位于一个地方,或者也可以分布到多个网络模块或子模块上。可以根据实际的需要选择其中的部分或者全部模块或子模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块或子模块可以集成在一个处理模块中,也可以是各个模块或子模块单独物理存在,也可以两个或两个以上模块或子模块集成在一个模块中。上述集成的模块或子模块既可以采用硬件的形式实现,也可以采用软件功能模块或子模块的形式实现。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件单元,或者二者的结合来实施。软件单元可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种对话响应处理方法,其特征在于,包括:
从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
从最后一级候选知识集合中确定出参考知识;
根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
2.根据权利要求1所述的方法,其特征在于,所述从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,包括:
确定第i级候选知识集合中的每一个候选知识集合分别对应的第i+1级知识集合,其中,任意一个第i级候选知识集合对应的第i+1级知识集合,是通过对该第i级候选知识集合中的知识进行集合划分而得到;
从第i级候选知识集合对应的全部第i+1级知识集合中,确定出第i+1级候选知识集合。
3.根据权利要求2所述的方法,其特征在于,所述从第i级候选知识集合对应的全部第i+1级知识集合中,确定出第i+1级候选知识集合,包括:
根据各个第i+1级知识集合的特征与所述第一对话内容的特征相似度,从各个第i+1级知识集合中确定出候选特征集合,作为第i+1级候选知识集合。
4.根据权利要求3所述的方法,其特征在于,任意一个第i+1级知识集合的特征,由该第i+1级知识集合所包含的各个第i+2级知识集合的特征而确定。
5.根据权利要求1所述的方法,其特征在于,所述从最后一级候选知识集合中确定出参考知识,包括:
根据全部的最后一级候选知识集合,确定备用知识集合;
从所述备用知识集合中,选择与所述第一对话内容的特征相似度最高的第一数量的知识,作为参考知识。
6.根据权利要求1所述的方法,其特征在于,从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识,包括:
将第一对话内容输入预先训练的参考知识预测模型,得到所述参考知识预测模型预测的参考知识;
其中,所述参考知识预测模型从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,以及,从最后一级候选知识集合中确定出参考知识。
7.根据权利要求6所述的方法,其特征在于,所述参考知识预测模型的训练过程包括第一训练过程和/或第二训练过程;
在所述第一训练过程中,使所述参考知识预测模型预测样本知识在所述预设知识库中的层级标签,并基于所述参考知识预测模型预测的层级标签对所述参考知识预测模型进行优化,所述层级标签包括从每一级知识集合中确定出的与样本知识相关的知识集合的标签;
在所述第二训练过程中,使所述参考知识预测模型从预设知识库中预测与样本问题相关的参考知识;基于该参考知识和所述样本问题生成与所述样本问题对应的答案;基于所述答案对所述参考知识预测模型进行优化。
8.根据权利要求7所述的方法,其特征在于,所述第一训练过程包括:
通过所述参考知识预测模型预测相近似的知识三元组在所述预设知识库中的层级标签,并基于所述相近似的知识三元组的预测层级标签之间的对比结果对所述参考知识预测模型进行优化;
和/或,
通过所述参考知识预测模型预测样本知识在所述预设知识库中的预测层级标签,根据预测层级标签与所述样本知识对应的标准层级标签,对所述参考知识预测模型进行优化。
9.根据权利要求7所述的方法,其特征在于,所述第二训练过程包括:
根据所述参考知识预测模型对第一样本问题预测的第一参考知识,生成与所述第一样本问题对应的第一答案;根据所述第一答案与所述第一样本问题对应的标准答案,对所述参考知识预测模型进行优化;
和/或,
获取所述参考知识预测模型对第二样本问题预测的每一级候选知识集合以及最终确定的第二参考知识;确定每一级候选知识集合以及与所述第二样本问题对应的每一级知识集合标签之间的第一匹配关系;根据所述第二参考知识,生成与所述第二样本问题对应的第二答案;根据所述第二答案与所述第二样本问题对应的标准答案,以及所述第一匹配关系,对所述参考知识预测模型进行优化。
10.一种对话响应处理装置,其特征在于,包括:
生成模块,用于从预设知识库的第i级候选知识集合中,确定出第i+1级候选知识集合,所述候选知识集合包括与第一对话内容相关的知识集合;所述i的取值为从1开始的正整数;
确定模块,用于从最后一级候选知识集合中确定出参考知识;
处理模块,用于根据所述参考知识以及所述第一对话内容,确定用于响应所述第一对话内容的第二对话内容。
11.一种电子设备,其特征在于,包括:
存储器和处理器;
所述存储器与所述处理器连接,用于存储程序;
所述处理器,通过运行所述存储器中的程序,实现如权利要求1至9中任意一项对话响应处理方法。
12.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时,实现如权利要求1至9中任意一项对话响应处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310445237.XA CN116483967A (zh) | 2023-04-21 | 2023-04-21 | 对话响应处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310445237.XA CN116483967A (zh) | 2023-04-21 | 2023-04-21 | 对话响应处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116483967A true CN116483967A (zh) | 2023-07-25 |
Family
ID=87217327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310445237.XA Pending CN116483967A (zh) | 2023-04-21 | 2023-04-21 | 对话响应处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116483967A (zh) |
-
2023
- 2023-04-21 CN CN202310445237.XA patent/CN116483967A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108959246B (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
CN110377916B (zh) | 词预测方法、装置、计算机设备及存储介质 | |
CN107807968B (zh) | 基于贝叶斯网络的问答装置、方法及存储介质 | |
CN113268609A (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
CN111461168A (zh) | 训练样本扩充方法、装置、电子设备及存储介质 | |
US20210158136A1 (en) | Calculation scheme decision system, calculation scheme decision device, calculation scheme decision method, and storage medium | |
CN112685550B (zh) | 智能问答方法、装置、服务器及计算机可读存储介质 | |
CN116719520B (zh) | 代码生成方法及装置 | |
JP2020060970A (ja) | コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム | |
CN114358657A (zh) | 一种基于模型融合的岗位推荐方法及装置 | |
CN113821588A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
CN112735564A (zh) | 心理健康状态预测方法、设备、介质及计算机程序产品 | |
CN113761887A (zh) | 基于文本处理的匹配方法、装置、计算机设备和存储介质 | |
CN112199958A (zh) | 概念词序列生成方法、装置、计算机设备及存储介质 | |
WO2020054822A1 (ja) | 音解析装置及びその処理方法、プログラム | |
US11983633B2 (en) | Machine learning predictions by generating condition data and determining correct answers | |
Ren et al. | Markovian discriminative modeling for cross-domain dialog state tracking | |
CN111062449A (zh) | 预测模型的训练方法、兴趣度预测方法、装置和存储介质 | |
CN110309857A (zh) | 基于人工智能的图书分类装置、方法、设备及存储介质 | |
CN116483967A (zh) | 对话响应处理方法、装置、电子设备及存储介质 | |
CN111382247B (zh) | 一种内容推送优化方法、内容推送优化装置及电子设备 | |
CN113342924A (zh) | 答案检索方法及装置、存储介质及电子设备 | |
CN113688636A (zh) | 扩展问的推荐方法、装置、计算机设备和存储介质 | |
JP2020140674A (ja) | 回答選択装置及びプログラム | |
CN117217238B (zh) | 一种基于大型语言模型的智能交互系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |