CN116628160B - 一种基于多知识库的任务型对话方法、系统及介质 - Google Patents
一种基于多知识库的任务型对话方法、系统及介质 Download PDFInfo
- Publication number
- CN116628160B CN116628160B CN202310589810.4A CN202310589810A CN116628160B CN 116628160 B CN116628160 B CN 116628160B CN 202310589810 A CN202310589810 A CN 202310589810A CN 116628160 B CN116628160 B CN 116628160B
- Authority
- CN
- China
- Prior art keywords
- knowledge
- dialogue
- node
- knowledge base
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 59
- 230000004044 response Effects 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 230000002776 aggregation Effects 0.000 claims description 19
- 238000004220 aggregation Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000003993 interaction Effects 0.000 claims description 8
- 238000006116 polymerization reaction Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 3
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于多知识库的任务型对话方法、系统及介质,其中方法包括:获取用户对话历史信息,并进行预处理;对预处理后的对话历史信息转化为三元组向量序列;通过自注意编码器对三元组向量序列进行编码生成最终对话历史;利用异构图网络来建模不同知识库之间的推理过程。利用编码生成的最终对话历史表示初始化解码器,解码器利用草稿模型生成最终的对话响应中的常用词和知识实体。解决了现有的基于单个知识库的任务型对话系统无法满足现实世界中一些复杂场景对对话系统的要求问题。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于多知识库的任务型对话方法、系统及介质。
背景技术
随着互联网技术的日益成熟,特别是大数据和AI深度学习技术的发展,极大地促进了面向任务的对话系统的发展。同时面向任务的对话系统的需求也日益增长,比如智能客服、智能个人助理等,可以用于预定机票、查找餐厅和制定行程等服务。现有的一些智能客服,已经在电商平台、手机银行等诸多领域得到了良好的应用,其有效地节省了人力成本。但是,当前端到端任务型对话系统的研究主要局限于单个知识库的环境,在这种环境中,对话可以由单个知识库支持,这仍然远远不能满足现实世界场景中的一些复杂应用程序(多个知识库环境)的要求。例如,酒店中客户有时可能会咨询工作人员“酒店周围游玩时间为2-3小时的周边景点”,由此该模型不仅需要查询酒店知识库来查找酒店的周边景点,还需要检索景点知识库来搜索合格的结果(2-3小时)。这种复杂的多知识库需要跨多个知识库进行有效推理的能力,在现实世界场景中是实用的,但是只是现有的单知识库任务型对话模型所无法实现的。因此,若想实现对复杂场景的任务型对话系统,需要一个基于多个知识库且能够在多个知识库间进行检索和推理的模型。现有的模型并未有在这方面进行尝试,且如果只是简单地将多个知识库串联起来,并不能实现知识库内完整信息的检索以及在多个知识库间进行有效的推理。
发明内容
为了解决背景技术中的问题,本发明提供了一种基于多知识库的任务型对话方法、系统及介质,其中方法是基于自然语言处理技术实现多个知识库构建面向端对端任务型对话,解决了现有的基于单个知识库的任务型对话系统无法满足现实世界中一些复杂场景对对话系统的要求问题。
第一方面,本发明提供了一种基于多知识库的任务型对话方法,包括:
S1:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的每个对话单词表示为主体、关系、对象的形式;
S2:对预处理后的对话历史信息转化为三元组向量序列;
S3:通过自注意编码器对三元组向量序列进行编码生成最终对话历史;
S4:利用编码生成的最终对话历史表示初始化解码器,解码器利用草稿模型生成最终的对话响应中的常用词和知识实体;其中,知识实体是利用三连接异构图检索多个知识库得到的。
进一步地,S2中转化的具体过程为:采用词嵌入函数获取对话历史信息中每个对话单词相应的主体、关系、对象的单词嵌入向量,进而得到每个对话输入的三元组向量序列。
进一步地,S3具体为:
通过双向门循环控制网络读取三元组向量序列,生成相应隐藏状态;同时,将三元组向量序列组成的输入矩阵映射到查询向量矩阵、键值向量矩阵和值向量矩阵,进而计算自注意输出;将隐藏状态和自注意输出进行拼接得到最终的对话历史;
其中,自注意输出的计算公式为:
其中,S为自注意输出;Q为查询向量矩阵;K为键值向量矩阵;V为值向量矩阵;dk为键值向量矩阵的维度。
进一步地,S4具体为:
S41:利用编码生成的最终对话历史表示初始化解码器;
S42:草稿模型中的草稿解码器生成知识实体以外的常用词;草稿模型中的草稿标记利用三连接异构图检索多个知识库,获取与对话历史中知识实体相关的多个知识实体并进行聚合,得到最终的知识实体并进行替换;
S43:将草稿解码器生成的知识实体以外的常用词和替换后的草稿标记组合生成最终的对话响应。
更进一步地,S42具体为:
解码器的隐藏状态在每个解码时间步预测生成的词汇是否为草稿标记;
若否,则softmax隐藏层根据当前时间步的隐藏状态,选取概率最大的词汇作为当前时间步的对话响应输出结果;
若是,则解码器通过查询向量对多个知识库中知识实体的节点的输出进行查询,进而对查询到的多个知识实体信息进行聚合,选取概率最大的词汇作为词汇化草稿标记。
更进一步地,对查询到的多个知识实体信息采用异构图神经网络模型进行聚合的过程具体为:
其中,r是所有边类型的集合;是具有边类型r的节点i的总的邻边数集合;/>是节点j在第k层中的节点表示,其中,/>用zj初始化;zj为第j个节点最终的编码表示向量;表示具有边类型r的节点i相邻集合的大小;fr定义具有边类型r的相邻节点表示上的变换;/>为具有边类型r的节点i与节点j的相似系数;/>为在所有边类型的集合中当前信息聚合对应的可学习参数;/>表示节点i在第k层中的聚合信息;
在L层聚合之后,获得异构信息的聚合结果表示为:
其中,表示节点l在第L层中的聚合信息;/>为异构信息的聚合结果。
更进一步地,选取概率最大的词汇作为词汇化草稿标记的具体过程为:
将隐藏状态作为查询向量,进而计算时间步长t处查询知识实体的概率,选择概率最高的单词作为生成的词汇化草稿标记;其中,时间步长t处查询知识实体的概率分布表达式为:
式中,ptrt为时间步长t处查询知识实体的概率分布;ht为时间步长t处的隐藏状态;为异构信息的聚合结果。
进一步地,三连接异构图中检索多个知识库的节点连接方式如下:
知识库内连接:包括行内连接和交叉行连接;其中,行内连接指每个节点连接知识库的同一行;交叉行连接指为每个知识库添加一个全局节点,通过全局节点连接到知识库中的任一节点;
知识库间连接:所有知识库通过全局节点相互连接;
对话知识库的连接:对话历史和相应的知识库建立交互时,连接的节点同时出现在对话历史和相应知识库中,通过创建一个共现边来连接节点实现对话和知识库之间的交互。
第二方面,本发明提供了一种基于多知识库的任务型对话系统,包括:
对话历史信息获取模块:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的对话表示为主体、关系、对象的形式;
编码器模块:对预处理后的对话历史信息中的每个对话输入转化为三元组向量序列;通过自注意编码器对三元组向量序列进行编码生成最终的对话历史;
解码器模块:利用编码生成的最终对话历史表示初始化解码器,解码器利用草稿模型生成最终的对话响应中的常用词和知识实体;其中,知识实体是利用三连接异构图检索知识库得到的。
第三方面,本发明提供了一种计算机可读存储介质:存储了计算机程序,所述计算机程序被处理器调用时以执行如上所述方法的步骤。
有益效果
本发明提出了一种基于多知识库的任务型对话方法、系统及介质,其中方法将用户的对话历史信息和知识库均采用三元组向量的方式进行记录;进而通过三连接异构图对多个知识库中的知识实体进行检索,在保证有效地捕获知识库内的高阶结构关系信息的同时,实现了跨多个知识库的有效推理,从而满足了用户在复杂场景中对多领域任务型对话的需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于多个知识库的任务型对话方法的流程图;
图2是本发明实施例提供的基于多个知识库的任务型对话原理图;
图3是本发明实施例提供的用户对话系统知识库推理查询及对话范例图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
实施例1
如图1所示,本实施例提供了一种基于多知识库的任务型对话方法,具体步骤包括:
S1:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的每个对话单词表示为主体、关系、对象的形式,即三元组的形式(Subject、relation、object)。
本实施例中,将对话历史信息X=(x1,x2,…,xm)中的对话单词xl,i∈(1,m)以三元组的形式进行记录,其中,xl表示对话历史信息中第l个对话单词,如图3中的第一轮对话为例,第一轮对话以三元组的形式表示为($User、turn1、Hello),($User、turn1、please),...,($User、turn1、yuan),以此来存储说话者的主体信息和对话内容信息,增强主体与对话内容的联系。
S2:将预处理后的对话历史信息转化为三元组向量序列。
本实施例中,词袋模型采用词嵌入函数获取对话历史信息中每个对话单词相应的主体、关系、对象的单词嵌入向量,并将获取的结果拼接得到由对话单词的三元组向量构成的三元组向量序列,即($User、turn1、please),...,($User、turn1、yuan)}。借助词嵌入函数/>将对话信息映射到Subject、relation、object向量上,通过User和“Hello,please...yuan.”的联系,可以直接地分辨出对话的主体是谁,建立了主体与对话的联系,层次分明,简洁直观;通过User和turn1的联系,可以清楚地分辨出主体对话的轮次,对对话进行直接的定位与不同轮次对话主体的区分,逻辑层次分明;通过将对话以三元组的形式表示,不仅体现了Subject、relation、object之间的关系,而且将对话的主体、轮次(在对话历史中的“位置”)、内容展示更简洁,并且,采用三元组向量的形式方便对其进行运算和处理
S3:通过自注意编码器对三元组向量序列进行编码生成最终的对话历史。
具体地,本实施例通过双向门循环控制网络(Bi-GRU)读取三元组向量序列生成相应隐藏状态H=(h1,h2,…,hm),其中,hm为读取对话历史信息中对话单词xm时生成的隐藏状态;同时,通过自注意机制获取对话历史信息的感知特征,即将三元组向量序列组成的输入矩阵映射到查询向量矩阵queris(Q)、键值向量矩阵keys(K)和值向量矩阵values,进而计算自注意输出/>其中,S为自注意输出;Q为查询向量矩阵;K为键值向量矩阵;dk为keys的维度;将Bi-GRU生成的隐藏状态H和自注意输出S进行拼接得到最终的对话历史C,拼接过程为:
C=[H||S];
其中,其中C={c1,…,cm},为最终的对话历史输出;m为对话历史信息中对话单词的数量;||是拼接运算。将隐藏状态H和自注意输出S进行拼接使得获取的信息更加准确。
S4:利用编码生成的最终对话历史初始化解码器,解码器利用草稿模型将生成最终的对话响应中的常用词和知识实体;其中,知识实体是利用三连接异构图检索多个知识库得到的。
知识库中的各知识实体均为三元组向量的形式记录。知识库B由多个知识库bk构成,其中,bk指第k知识库。知识库bk由|i|行和|j|列组成,表示知识库k中第i行第j列知识实体的值,知识库B表示为:
式中,K为知识库的数量。知识实体和对话历史信息均采用三元组向量的形式记录,便于针对用户的历史对话信息更加准确迅速检索知识库中对应的知识实体,减少检索时间,提高响应效率。
为满足了用户在复杂场景中对多领域任务型对话的需求,通过采用三连接异构图实现跨多个知识库的有效推理。如图2所示,三连接异构图检索知识库中节点连接方式包括知识库内连接、知识库间连接、对话知识库的连接,具体如下:
知识库内连接:包括行内连接和交叉行连接;其中,行内连接指每个节点连接知识库的同一行;交叉行连接指为每个知识库添加一个全局节点,通过全局节点连接到知识库中的任一节点。在一个知识库内将与某一主体相关的所有对象进行信息连接,能够迅速完成当前知识库内一个实体相关的所有信息的检索;此外,在每个知识库内建立一个全局节点,通过全局节点与当前知识库内所有知识实体相连,能够实现库内对所有知识实体的检索,为实现跨知识库的连接创造了条件。如图3所示,节点可以为知识库中的实体,例如景点知识库中的雍和宫实体,也可以为对话历史的单词,如推荐“您去雍和宫”中的雍和宫单词。
知识库间连接:所有知识库通过全局节点相互连接。若存在n个知识库,通过构造n(n-1)/2个知识库间连接边,可实现跨知识库的信息交互,使模型能够跨多个知识库进行推理。
对话知识库的连接:对话历史和相应的知识库建立交互时,连接的节点同时出现在对话历史和相应知识库中,通过创建一个对话历史-知识库连接边(即共现边)来连接节点实现对话和知识库之间的交互。
如图3所示,在第一轮对话中,用户向系统咨询了酒店相关的信息---“你好,请给我推荐一家价格在700-800元的酒店住宿”,我们仅需在酒店知识库中(单个知识库内)进行检索和推理即可给出合理的响应---“推荐您去北京鹏润国际大酒店”,此为知识库内的连接和推理;同时隐含了对话历史与知识库的连接。在第四轮对话中,用户提出了“请在酒店(北京鹏润国际大酒店)周边的景点里给我推荐一个可以游玩2-3小时的景点”,此为对话历史库内的联系和三元组的作用,系统在对话历史库内进行关联和查询,了解到这里的“酒店”即“北京鹏润国际大酒店”;然后再通过对话历史与知识库的连接,对酒店知识库进行检索,查找其周边景点;然后为了满足2-3小时的要求,系统通过库间连接对景点知识库进行检索和推理,最终得到雍和宫是北京鹏润国际大酒店周边可以游玩2-3小时的景点,并给出合适的响应---“推荐您去雍和宫”
本实例中,最终的对话响应生成的具体步骤如下:
S41:利用编码生成的最终对话历史表示初始化解码器。
本实例中,初始化解码器的过程为:
αi=softmax(Wcci+b),i∈[1,m],
s=∑iαici
h0=s
式中,αi为利用softmax函数生成的用于初始化的值的部分组成,Wc和b均为可训练参数,ci为最终的对话历史输出中的第i个输出;m为为对话历史信息中对话单词的数量;s为用于初始化解码器的语句向量,同时为初始隐藏状态h0。
S42:草稿模型中的草稿解码器生成知识实体以外的常用词;草稿模型中的草稿标记利用三连接异构图检索多个知识库,获取与对话历史中知识实体相关的多个知识实体并进行聚合,得到最终的知识实体并进行替换。
本实施例中,草稿模型采用sketch RNN模型,草稿解码器为单向GRU模型,用于生成知识实体以外的常用词。草稿标记由知识库中的知识实体组成,通过利用三连接异构图对多个知识库进行检索,获取与对话历史中知识实体相关的多个知识实体并进行聚合,得到最终的知识实体,进而将最终的知识实体取代相应的草稿标记。具体步骤如下:
草稿解码器的隐藏状态在每个解码时间步预测生成的词汇是否为草稿标记:
若否,则softmax隐藏层根据当前时间步的隐藏状态,选取概率最大的词汇作为当前时间步的对话响应输出结果,该过程表达为:
ht=GRU(Фemb(yt-1),ht-1)
yt=softmax(Wht)
式中,yt表示t时间步长的生成结果;ht为当前解码器隐藏状态;yt-1为t-1时间步长的生成结果;W为可训练参数。
若是,则解码器通过查询向量对多个知识库中知识实体的节点进行查询,进而指针网络对查询到的多个知识实体信息进行聚合,选取概率最大的词汇作为词汇化草稿标记。其中,对查询到的多个知识实体信息采用异构图神经网络模型进行聚合的过程具体为:
其中,r是所有边类型的集合;是具有边类型r的节点i的总的邻边数集合;/>是节点j在采用异构图神经网络模型第k层中的节点表示,其中,/>用zj初始化;zj为第j个节点最终的编码表示向量;/>表示具有边类型r的节点i相邻集合的大小;fr定义为具有边类型r的相邻节点表示上的变换;/>为具有边类型r的节点i与节点j的相似系数;/>为在所有边类型的集合中当前信息聚合对应的可学习参数;/>表示节点i在采用异构图神经网络模型第k层中的聚合信息。在L层聚合之后,获得异构信息的聚合结果/>表示为:
其中,表示节点l在采用异构图神经网络模型第L层中的聚合信息;/>为异构信息的聚合结果。本实施例中,边类型包括:知识库内部连接边,即知识库中的的每一行知识实体进行互相连接;知识库外部连接边,即每个知识库之间进行互相连接;对话历史-知识库连接边(即共现边),即对话历史与知识库共现单词的连接。
其中,选取概率最大的词汇作为词汇化草稿标记的具体过程为:
将隐藏状态作为查询向量,进而计算时间步长t处查询知识实体的概率,选择概率最高的单词作为生成的词汇化草稿标记;其中,时间步长t处查询知识实体的概率分布计算具体为:
式中,ptrt为时间步长t处查询知识实体的概率分布;ht为时间步长t处的隐藏状态;为异构信息的聚合结果。
S43:将草稿解码器生成的知识实体以外的常用词和替换后的草稿标记组成生成最终的对话响应。比如,生成草稿响应“向你推荐@address”,在利用三连接异构图交互检索得到聚合后的知识实体雍和宫取代@address,以生成最终响应“向你推荐雍和宫”。
本实施例提供的基于多知识库的任务型对话方法,采用了三元组的形式以及Bi-GRU和自注意结合的形式对话历史信息的编码,既增强了Subject与object之间的关系,又能通过relation体现其位置关系;同时,知识库中的知识实体的记录方式也为三元组的形式,便于加快检索效率;对于知识库之间的关联与推理以及知识库与对话历史之间的关联,采用了三连接异构图的思想,既保证有效地捕获知识库内的高阶结构关系信息的同时,又实现了跨多个知识库的有效推理;对于解码器,采用了草稿模型使得对话响应的生成更加准确。实现了跨多个知识库的有效推理,解决了现有的任务型对话系统模型不能满足基于多个知识库的任务型对话问题。
实施例2
本实施例提供了一种基于多知识库的任务型对话系统,包括:
对话历史信息获取模块:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的对话表示为主体、关系、对象的形式;
编码器模块:对预处理后的对话历史信息中的每个对话输入转化为三元组向量序列;通过自注意编码器对三元组向量序列进行编码生成最终的对话历史;
解码器模块:利用编码生成的最终对话历史初始化解码器,解码器利用草稿模型生成最终的对话响应中的常用词和知识实体;其中,知识实体是利用三连接异构图检索多个知识库得到的。
实施例3
本实施例提供了一种计算机可读存储介质:存储了计算机程序,所述计算机程序被处理器调用时以执行如上所述方法的步骤。
应当理解,在本发明实施例中,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。例如,存储器还可以存储设备类型的信息。
所述可读存储介质为计算机可读存储介质,其可以是前述任一实施例所述的控制器的内部存储单元,例如控制器的硬盘或内存。所述可读存储介质也可以是所述控制器的外部存储设备,例如所述控制器上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述可读存储介质还可以既包括所述控制器的内部存储单元也包括外部存储设备。所述可读存储介质用于存储所述计算机程序以及所述控制器所需的其他程序和数据。所述可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的可读存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于多知识库的任务型对话方法,其特征在于,包括:
SI:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的每个对话单词表示为主体、关系、对象的形式;
S2:对预处理后的对话历史信息转化为三元组向量序列;
S3:通过自注意编码器对三元组向量序列进行编码生成最终对话历史;
S4:S41:利用编码生成的最终对话历史表示初始化解码器;S42:草稿模型中的草稿解码器生成知识实体以外的常用词;草稿模型中的草稿标记利用三连接异构图检索多个知识库,获取与对话历史中知识实体相关的多个知识实体并进行聚合,得到最终的知识实体并进行替换;S43:将草稿解码器生成的知识实体以外的常用词和替换后的草稿标记组合生成最终的对话响应;
其中,对查询到的多个知识实体信息采用异构图神经网络模型进行聚合的过程具体为:
其中,R是所有边类型的集合;是具有边类型r的节点i相邻节点集合;/>是节点j在第k层中的节点表示,其中,/>用zj初始化;zj为第j个节点最终的编码表示向量;/>表示具有边类型r的节点i相邻节点集合的大小;fr定义为具有边类型r的相邻节点表示上的变换;/>为具有边类型r的节点i与节点j的相似系数;/>为在所有边类型的集合中当前信息聚合对应的可学习参数;/>表示节点i在第k层中的聚合信息;
在L层聚合之后,获得异构信息的聚合结果表示为:
其中,表示节点l在第L层中的聚合信息;/>为异构信息的聚合结果;
其中,三连接异构图中检索多个知识库的节点连接方式如下:
知识库内连接:包括行内连接和交叉行连接;其中,行内连接指每个节点连接知识库的同一行;交叉行连接指为每个知识库添加一个全局节点,通过全局节点连接到知识库中的任一节点;
知识库间连接:所有知识库通过全局节点相互连接;
对话知识库的连接:对话历史和相应的知识库建立交互时,连接的节点同时出现在对话历史和相应知识库中,通过创建一个共现边来连接节点实现对话和知识库之间的交互。
2.根据权利要求1所述的基于多知识库的任务型对话方法,其特征在于,S2中转化的具体过程为:采用词嵌入函数获取对话历史信息中每个对话单词相应的主体、关系、对象的单词嵌入向量,进而得到由对话单词的三元组向量构成的三元组向量序列。
3.根据权利要求1所述的基于多知识库的任务型对话方法,其特征在于,S3具体为:
通过双向门循环控制网络读取三元组向量序列,生成相应隐藏状态;同时,将三元组向量序列组成的输入矩阵映射到查询向量矩阵、键值向量矩阵和值向量矩阵,进而计算自注意输出;将隐藏状态和自注意输出进行拼接得到最终的对话历史。
4.根据权利要求1所述的基于多知识库的任务型对话方法,其特征在于,S42具体为:
解码器的隐藏状态在每个解码时间步预测生成的词汇是否为草稿标记;
若否,则softmax隐藏层根据当前时间步的隐藏状态,选取概率最大的词汇作为当前时间步的对话响应输出结果;
若是,则解码器通过查询向量对多个知识库中知识实体的节点进行查询,进而对查询到的多个知识实体信息进行聚合,选取概率最大的词汇作为词汇化草稿标记。
5.根据权利要求4所述的基于多知识库的任务型对话方法,其特征在于,选取概率最大的词汇作为词汇化草稿标记的具体过程为:
将隐藏状态作为查询向量,进而计算时间步长t处查询知识实体的概率,选择概率最高的单词作为生成的词汇化草稿标记;其中,时间步长t处查询知识实体的概率分布表达式为:
式中,ptrt为时间步长t处查询知识实体的概率分布;ht为时间步长t处的隐藏状态;为异构信息的聚合结果。
6.一种基于多知识库的任务型对话系统,其特征在于,包括:
对话历史信息获取模块:获取用户对话历史信息,并进行预处理;其中,预处理具体为:将对话历史信息中的每个对话单词表示为主体、关系、对象的形式;
编码器模块:对预处理后的对话历史信息转化为三元组向量序列;通过自注意编码器对三元组向量序列进行编码生成最终的对话历史;
解码器模块:利用编码生成的最终对话历史表示初始化解码器;草稿模型中的草稿解码器生成知识实体以外的常用词;草稿模型中的草稿标记利用三连接异构图检索多个知识库,获取与对话历史中知识实体相关的多个知识实体并进行聚合,得到最终的知识实体并进行替换;将草稿解码器生成的知识实体以外的常用词和替换后的草稿标记组合生成最终的对话响应;
其中,对查询到的多个知识实体信息采用异构图神经网络模型进行聚合的过程具体为:
其中,R是所有边类型的集合;是具有边类型r的节点i相邻节点集合;/>是节点j在第k层中的节点表示,其中,/>用zj初始化;zj为第j个节点最终的编码表示向量;/>表示具有边类型r的节点i相邻节点集合的大小;fr定义为具有边类型r的相邻节点表示上的变换;/>为具有边类型r的节点i与节点j的相似系数;/>为在所有边类型的集合中当前信息聚合对应的可学习参数;/>表示节点i在第k层中的聚合信息;
在L层聚合之后,获得异构信息的聚合结果表示为:
其中,表示节点l在第L层中的聚合信息;/>为异构信息的聚合结果;
其中,三连接异构图中检索多个知识库的节点连接方式如下:
知识库内连接:包括行内连接和交叉行连接;其中,行内连接指每个节点连接知识库的同一行;交叉行连接指为每个知识库添加一个全局节点,通过全局节点连接到知识库中的任一节点;
知识库间连接:所有知识库通过全局节点相互连接;
对话知识库的连接:对话历史和相应的知识库建立交互时,连接的节点同时出现在对话历史和相应知识库中,通过创建一个共现边来连接节点实现对话和知识库之间的交互。
7.一种计算机可读存储介质,其特征在于:存储了计算机程序,所述计算机程序被处理器调用时以执行:权利要求1-5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310589810.4A CN116628160B (zh) | 2023-05-24 | 2023-05-24 | 一种基于多知识库的任务型对话方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310589810.4A CN116628160B (zh) | 2023-05-24 | 2023-05-24 | 一种基于多知识库的任务型对话方法、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116628160A CN116628160A (zh) | 2023-08-22 |
CN116628160B true CN116628160B (zh) | 2024-04-19 |
Family
ID=87641201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310589810.4A Active CN116628160B (zh) | 2023-05-24 | 2023-05-24 | 一种基于多知识库的任务型对话方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116628160B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422118B (zh) * | 2023-11-17 | 2024-07-16 | 中南大学 | 一种面向任务型对话中一致性识别的模型化预训练方法、系统及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019228232A1 (zh) * | 2018-05-30 | 2019-12-05 | 苏州思必驰信息科技有限公司 | 对话系统间的知识分享方法、对话方法及装置 |
CN112364147A (zh) * | 2020-12-01 | 2021-02-12 | 四川长虹电器股份有限公司 | 一种基于知识图谱的跨领域多轮对话方法及实现系统 |
CN113312453A (zh) * | 2021-06-16 | 2021-08-27 | 哈尔滨工业大学 | 一种面向跨语言对话理解的模型预训练系统 |
WO2022033332A1 (zh) * | 2020-08-14 | 2022-02-17 | 腾讯科技(深圳)有限公司 | 对话生成方法、网络训练方法、装置、存储介质及设备 |
CN114372126A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 一种面向对象的端到端对话生成方法、系统和介质 |
US11442992B1 (en) * | 2019-06-28 | 2022-09-13 | Meta Platforms Technologies, Llc | Conversational reasoning with knowledge graph paths for assistant systems |
CN116136870A (zh) * | 2023-02-21 | 2023-05-19 | 深圳市网联安瑞网络科技有限公司 | 基于增强实体表示的智能社交对话方法、对话系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514915B2 (en) * | 2018-09-27 | 2022-11-29 | Salesforce.Com, Inc. | Global-to-local memory pointer networks for task-oriented dialogue |
-
2023
- 2023-05-24 CN CN202310589810.4A patent/CN116628160B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019228232A1 (zh) * | 2018-05-30 | 2019-12-05 | 苏州思必驰信息科技有限公司 | 对话系统间的知识分享方法、对话方法及装置 |
US11442992B1 (en) * | 2019-06-28 | 2022-09-13 | Meta Platforms Technologies, Llc | Conversational reasoning with knowledge graph paths for assistant systems |
WO2022033332A1 (zh) * | 2020-08-14 | 2022-02-17 | 腾讯科技(深圳)有限公司 | 对话生成方法、网络训练方法、装置、存储介质及设备 |
CN112364147A (zh) * | 2020-12-01 | 2021-02-12 | 四川长虹电器股份有限公司 | 一种基于知识图谱的跨领域多轮对话方法及实现系统 |
CN113312453A (zh) * | 2021-06-16 | 2021-08-27 | 哈尔滨工业大学 | 一种面向跨语言对话理解的模型预训练系统 |
CN114372126A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 一种面向对象的端到端对话生成方法、系统和介质 |
CN116136870A (zh) * | 2023-02-21 | 2023-05-19 | 深圳市网联安瑞网络科技有限公司 | 基于增强实体表示的智能社交对话方法、对话系统 |
Non-Patent Citations (3)
Title |
---|
Towards Complex Scenarios Building End-to-End Task-Oriented Dialogue System across Multiple Knowledge Bases;Libo Qin;AAAI;20230207;13483-13491 * |
任务型对话系统中的自然语言生成研究进展综述;覃立波,黎州扬,娄杰铭,禹棋赢,车万翔;中文信息学报;20220115;全文 * |
融合知识表示的知识库问答系统;安波;韩先培;孙乐;;中国科学:信息科学;20181121(11);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116628160A (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gao et al. | Advances and challenges in conversational recommender systems: A survey | |
Smyth | Case-based recommendation | |
CN112069302A (zh) | 会话意图识别模型的训练方法、会话意图识别方法及装置 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
CN110196928B (zh) | 完全并行化具有领域扩展性的端到端多轮对话系统及方法 | |
CN116628160B (zh) | 一种基于多知识库的任务型对话方法、系统及介质 | |
CN112231580B (zh) | 基于人工智能的信息推荐方法、装置、电子设备及存储介质 | |
CN112395438A (zh) | 一种多标签图像的哈希码生成方法和系统 | |
CN115017405B (zh) | 一种基于多任务自编码的图神经网络旅游包推荐方法 | |
CN116975615A (zh) | 基于视频多模态信息的任务预测方法和装置 | |
CN114579892B (zh) | 一种基于跨城市兴趣点匹配的用户异地访问位置预测方法 | |
Shi et al. | Spaceedit: Learning a unified editing space for open-domain image color editing | |
CN114386513A (zh) | 一种集成评论与评分的交互式评分预测方法及系统 | |
CN112668608A (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
Bai et al. | Loopy residual hashing: Filling the quantization gap for image retrieval | |
CN113656589B (zh) | 对象属性确定方法、装置、计算机设备及存储介质 | |
CN118349897A (zh) | 基于离散化处理的模型训练方法、预测方法及其设备 | |
CN117556142A (zh) | 一种基于注意力网络的会话感知推荐方法、装置和介质 | |
CN116779061A (zh) | 交互式药物分子设计方法、装置、电子设备及介质 | |
CN117390074A (zh) | 一种基于长用户行为的序列化推荐方法、装置及存储介质 | |
US11755671B2 (en) | Projecting queries into a content item embedding space | |
CN116127083A (zh) | 内容推荐方法、装置、设备及存储介质 | |
CN116049566A (zh) | 对象表示方法、装置、设备、存储介质及计算机程序产品 | |
CN118536476B (zh) | 兴趣点名称生成方法、模型训练方法、装置、设备及介质 | |
CN116932703B (zh) | 一种用户可控内容生成方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |