CN113360604A - 基于认知推理的知识图谱多跳问答方法及模型 - Google Patents

基于认知推理的知识图谱多跳问答方法及模型 Download PDF

Info

Publication number
CN113360604A
CN113360604A CN202110697004.XA CN202110697004A CN113360604A CN 113360604 A CN113360604 A CN 113360604A CN 202110697004 A CN202110697004 A CN 202110697004A CN 113360604 A CN113360604 A CN 113360604A
Authority
CN
China
Prior art keywords
module
question
inference
knowledge graph
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110697004.XA
Other languages
English (en)
Other versions
CN113360604B (zh
Inventor
王杰
蔡健宇
张占秋
吴枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110697004.XA priority Critical patent/CN113360604B/zh
Publication of CN113360604A publication Critical patent/CN113360604A/zh
Application granted granted Critical
Publication of CN113360604B publication Critical patent/CN113360604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。

Description

基于认知推理的知识图谱多跳问答方法及模型
技术领域
本发明涉及基于知识图谱的自然语言处理领域,尤其涉及一种基于认知推理的知识图谱多跳问答方法及模型。
背景技术
知识图谱以多关系有向图的形式存储人类知识,图中的每个节点都表示一个实体,每条边都表示两个实体之间的关系,而边的方向则表示了该方向的指向性。知识图谱中的每个事实(Fact)一般以头实体、关系、尾实体的三元组的形式存储,例如:姚明、出生地、上海即为一个三元组。
知识图谱问答旨在基于知识图谱对给定的自然语言问题进行回答,而知识图谱多跳问答旨在通过知识图谱中的路径推理得到答案,图1所示即为知识图谱多跳问答任务的示意图。
目前的知识图谱多跳问答中存在一个严峻的挑战,对于需要长推理路径的复杂问题的回答准确率低,这是由于需要长推理路径的复杂问题,会随着跳数的增长使候选答案实体的数量呈指数增加,但大量的候选答案实体为寻找准确答案带来了困难。之前的方法KV-Mem使用记忆网络(Memory Network)进行多跳推理,VRN使用一种变分法框架进行多跳推理,但这些方法难以有效解决需要长推理路径问题的准确回答问题。现有的方法(如:GRAFT-Net与PullNet)为了解决这一问题,它们首先提取问题相关的子图,随后在提取的子图上进行推理。然而,这些方法往往牺牲了答案实体在子图中的召回率以降低候选实体集合的大小,即这样的妥协限制了现有模型的性能。因此,针对需要长推理路径的复杂问题,如何提供一种无需牺牲召回率的高准确率的问答方法是需要解决的问题。
发明内容
针对现有技术所存在的问题,本发明的目的是提供一种基于认知推理的知识图谱多跳问答方法及模型,能解决现有基于知识图谱多跳问答中,所存在的因需要长推理路径复杂导致回答准确率低以及牺牲模型对于正确答案召回率的问题。
本发明的目的是通过以下技术方案实现的:
本发明实施方式提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为给定的自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
本发明实施方式还提供一种基于认知推理的知识图谱多跳问答模型,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
由上述本发明提供的技术方案可以看出,本发明实施例提供的基于认知推理的知识图谱多跳问答方法及模型,其有益效果为:
通过模拟人类的认知推理机制,利用层次化的深层认知推理网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对进行知识图谱多跳问答取得了显著的性能提升。本发明的方法及模型结合知识图谱嵌入与贝叶斯网络技术进行建模处理,对于知识图谱多跳问答能快速、准确的预测得出对应的候选答案实体,具备优越的性能,进而很好的解决现有知识图谱多跳问答中,对需要长推理路径问题的回答准确率低以及模型牺牲了对于正确答案召回率的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的基于认知推理的知识图谱多跳问答方法的流程图;
图2为本发明实施例提供的基于认知推理的知识图谱多跳问答建模示意图;
图3为本发明实施例提供的基于认知推理的知识图谱多跳问答方法模型的示意图;
图4为本发明实施例提供的的示意图。
具体实施方式
下面结合本发明的具体内容,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
参见图1,本发明实施例提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为给定的自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
参见图3,上述方法中,所述深层认知推理网络模型包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
上述方法中,所述推理路径解码模块采用长短期记忆网络(即LSTM);
所述无意识模块采用基于向量语义匹配的神经网络模型;
所述有意识模块采用基于概率图模型的神经网络模型。
上述方法中,所述深层认知推理网络模型的无意识模块通过语义匹配对每个候选答案实体进行打分,通过以下公式1计算候选答案实体e的得分:
Figure BDA0003128892800000041
所述公式(1)中,
Figure BDA0003128892800000042
表示基于自然语言问题q得到的查询向量,
Figure BDA0003128892800000043
通过公式2计算得出:
Figure BDA0003128892800000044
所述公式2中,符号
Figure BDA00031288928000000411
表示元素间相乘,o(i)表示所述深层认知推理网络模型的推理路径解码模块中第i步的输出。
上述方法中,所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
上述方法中,所述有意识模块的具体处理步骤为:
(a)裁剪知识图谱:以一个主题实体etopic∈ε作为推理起点用广度优先搜索算法,从给定的一个知识图谱
Figure BDA0003128892800000046
中搜索一个自然语言问题q的对应答案实体,得出只由访问过的边组成的有向无环图作为裁剪后的知识图谱
Figure BDA0003128892800000047
(b)将裁剪后的知识图谱
Figure BDA0003128892800000048
转换为贝叶斯网络
Figure BDA0003128892800000049
Figure BDA00031288928000000410
的图结构相同,两者的节点与边的定义分别为:
Figure BDA0003128892800000045
Figure BDA0003128892800000051
(c)基于贝叶斯网络进行推理:基于所述步骤(b)中得到的贝叶斯网络
Figure BDA00031288928000000511
建模知识图谱多跳问答为:
Figure BDA00031288928000000512
这个条件概率表示在给定知识图谱
Figure BDA00031288928000000513
问题q与主题实体etopic的条件下,实体e为正确答案的概率。
根据贝叶斯网络的性质,推导出如下结果:
Figure BDA0003128892800000052
其中pa(e)表示知识图谱中实体(节点)e的父节点集合
所述公式(3)中,
Figure BDA0003128892800000053
的定义为:
Figure BDA0003128892800000054
用以上方式对所述概率公式(4)进行建模:
Figure BDA0003128892800000055
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
Figure BDA0003128892800000056
其中,对于任一关系ri,其权重计算为
Figure BDA0003128892800000057
上述方法中,所述深层认知推理网络模型的损失函数为:
Figure BDA0003128892800000058
所述公式(7)中,
Figure BDA0003128892800000059
|ε|表示实体集合大小,
Figure BDA00031288928000000510
表示答案集合大小。
参见图3,本发明实施例提供一种基于认知推理的知识图谱多跳问答模型,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
上述模型中,所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量內积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
上述模型中,所述深层认知推理网络模型的无意识模块通过语义匹配对每个候选答案实体进行打分,通过以下公式1计算候选答案实体e的得分:
Figure BDA0003128892800000061
所述公式(1)中,
Figure BDA0003128892800000062
表示基于自然语言问题q得到的查询向量,
Figure BDA0003128892800000063
通过公式2计算得出:
Figure BDA0003128892800000064
所述公式2中,符号
Figure BDA00031288928000000611
表示元素间相乘,o(i)表示所述深层认知推理网络模型的推理路径解码模块中第i步的输出;
所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
上述模型中,所述有意识模块的具体处理步骤为:
(a)裁剪知识图谱:以一个主题实体etopic∈ε作为推理起点用广度优先搜索算法,从给定的一个知识图谱
Figure BDA0003128892800000066
中搜索一个自然语言问题q的对应答案实体,得出只由访问过的边组成的有向无环图作为裁剪后的知识图谱
Figure BDA0003128892800000067
(b)将裁剪后的知识图谱
Figure BDA0003128892800000068
转换为贝叶斯网络
Figure BDA0003128892800000069
Figure BDA00031288928000000610
的图结构相同,两者的节点与边的定义分别为:
Figure BDA0003128892800000065
(c)基于贝叶斯网络进行推理:基于所述步骤(b)中得到的贝叶斯网络
Figure BDA0003128892800000077
建模知识图谱多跳问答为:
Figure BDA0003128892800000071
根据贝叶斯网络的性质,推导出如下结果:
Figure BDA0003128892800000072
所述公式(3)中,
Figure BDA0003128892800000073
的定义为:
Figure BDA0003128892800000074
用以上方式对所述概率公式(4)进行建模:
Figure BDA0003128892800000075
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
Figure BDA0003128892800000076
本发明的基于认知推理的知识图谱多跳问答方法,以认知科学中双重过程理论为基础,结合知识图谱嵌入与贝叶斯网络技术进行建模处理,对于知识图谱多跳问答能快速、准确的预测得出对应的候选答案实体,具备优越的性能,进而很好的解决现有知识图谱多跳问答中,对需要长推理路径问题的回答准确率低以及模型牺牲了对于正确答案召回率的问题。
下面对本发明实施例具体作进一步地详细描述。
本发明实施例提供一种基于认知推理的知识图谱多跳问答模型,是一种深层认知推理网络模型,包括:
理路径解码模块、无意识(unconscious)模块和有意识(conscious)模块;其中,
所述路径解码模块,作为最底层的模块,其输出作为所述无意识模块与有意识模块的部分输入。该模块的输入为给定的问题问题,输出为从该问题解码得到的推理路径信息,即推理路径中每一步中每一个选择的得分;
所述无意识模块,其输入为给定的问题、知识图谱以及路径解码模块的输出,其输出为每个候选答案实体的打分,同时也作为所述有意识模块的部分输入。
所述有意识模块,其输入为给定的问题、知识图谱、路径解码模块的输出以及无意识模块的输出,其输出为每个候选答案实体的最终得分。该得分也作为整个模型的输出。
本发明实施例还提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;所述深层认知推理网络模型采用上述的基于认知推理的知识图谱多跳问答模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
本发明的方法及模型通过模拟人类的认知推理机制,利用层次化的深层认知推理网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对进行知识图谱多跳问答取得了显著的性能提升。
具体的,本发明的基于认知推理为知识图谱多跳问答方法具体包括:
首先说明知识图谱和所使用的符号,然后介绍本发明的具体处理步骤。
(一)知识图谱(KG)是表示结构化人类知识的多关系有向图,将一个知识图谱能表示为
Figure BDA0003128892800000081
其中ε表示实体集合,
Figure BDA0003128892800000082
表示关系集,
Figure BDA0003128892800000083
表示三元组集合。
本发明的知识图谱多跳问答(参见图2):是从给定知识图谱
Figure BDA0003128892800000084
中,以作为推理起点的主题实体etopic∈ε,预测得出一个自然语言问题q的正确答案e*
Figure BDA0003128892800000085
该正确答案称为候选答案实体。
本发明对知识图谱多跳问答任务设计了一个深层认知推理网络模型(DCRN,DeepCognitive Reasoning Network)。该深层认知推理网络模型基于认知科学中的双重过程理论(Dual Process Theory)。该理论提出,人类的推理流程可以被分解为两个过程:无意识过程(unconscious process)与有意识过程(conscious process)。前者使用直觉(fastintuition)从海量的信息中提取重要的部分,而后者使用顺序推理(sequentialreasoning)以寻找答案。类似的,本发明的深层认知推理网络模型包括:无意识模块和有意识模块,分别对应进行无意识阶段(unconscious phase)与有意识阶段(conscious phase)两个阶段的处理,同时还包含一个推理路径解码模块(Path Decoding Module),如图3所示。
接下来分别介绍推理路径解码模块、无意识模块与有意识模块的功能和处理过程。
(1)推理路径解码模块:
该推理路径解码模块的输入为,q是一个自然语言问题,输出为从该问题q解码得到的推理路径信息,即得到推理路径中每一步中每一个选择的得分。具体地,使用编码-解码(Encoder-Decoder)结构对问题q进行处理。
首先,将问题q使用包含在推理路径解码模块中的循环神经网络(RNN)编码为向量表示q=RNN-Encoder(q);
接着,对该向量表示q=RNN-Encoder(q)进行解码得到推理路径信息,即得到推理路径中每一步中每一个选择的得分,参见图4。
该推理路径解码模块对向量表示q=RNN-Encoder(q)的解码的过程分为多步,其中,第t步的状态向量用h(t)表示,通过以下公式计算得出:
h(t)=RNN-Decoder(h(t-1),i(t));
上式中,i(t)为第t步的输入向量,初始的状态向量为h(0)=q,初始的输入向量i(0)=0;第t步的输出通过以下方式计算得出:
Figure BDA0003128892800000091
其中
Figure BDA0003128892800000092
表示第i个关系的权重,通过以下公式计算得出:
Figure BDA0003128892800000093
其中,
Figure BDA0003128892800000094
Figure BDA0003128892800000095
表示第i个关系在第t步的得分;
第t步的输出作为第(t+1)步的输入,即i(t+1)=o(l)
(2)无意识模块:
在该无意识模块的处理中,使用语义匹配(Semantic Matching)对每个候选实体进行打分,候选实体e的得分计算方式如下:
Figure BDA0003128892800000096
其中,
Figure BDA0003128892800000097
表示基于问题q得到的查询(query)向量,其计算方式如下:
Figure BDA0003128892800000098
其中,符号
Figure BDA00031288928000001018
表示元素间相乘,o(i)表示推理路径解码模块中第i步的输出。
(3)有意识模块:
在该无意识模块的处理中,基于无意识模块的得分,使用贝叶斯网络进行顺序推理,从而准确地预测答案。该无意识模块的处理包括步骤:
(a)裁剪知识图谱:给定一个知识图谱
Figure BDA0003128892800000106
一个问题q和主题实体(作为推理起点)etopic∈ε,从该主题实体出发,执行广度优先搜索算法(Breadth-First Search)从知识图谱
Figure BDA0003128892800000109
中搜索,只保留图中访问过的边(edge),最终得到裁剪后的知识图谱
Figure BDA0003128892800000108
该图为一个有向无环图(DAG);
(b)将裁剪后的知识图谱
Figure BDA00031288928000001010
转换为贝叶斯网络,转换后的贝叶斯网络用
Figure BDA00031288928000001011
表示,
Figure BDA00031288928000001012
Figure BDA00031288928000001013
图结构相同,区别在于两者的节点与边的定义不同,见下表1;
表1为
Figure BDA00031288928000001014
Figure BDA00031288928000001015
的区别
Figure BDA0003128892800000101
(c)基于贝叶斯网络
Figure BDA00031288928000001016
进行推理:基于步骤(b)中得到的贝叶斯网络
Figure BDA00031288928000001017
知识图谱多跳问答用以下方式进行建模:
Figure BDA0003128892800000102
根据贝叶斯网络的性质,推导出如下结果:
Figure BDA00031288928000001019
其中,
Figure BDA0003128892800000103
定义为:
Figure BDA0003128892800000104
使用如下方式建模上述概率公式:
Figure BDA0003128892800000105
其中,fs(e)是无意识模块计算的打分结果;fb(e)是有意识模块所计算的对候选实体e的打分结果;fb(e)的计算方式如下:
Figure BDA0003128892800000111
本发明通过基于认知科学中双重过程理论设计的深层认知推理网络模型,并结合知识图谱嵌入与贝叶斯网络进行建模,使得知识图谱多跳问答模型具备优越的性能。
表2为本发明的深层认知推理网络模型的性能表
Figure BDA0003128892800000112
上表2示意了本发明的深层认知推理网络模型(DCRN)在主流数据集WebQSP、MetaQA数据集上的测试结果(指标为H@1)。实验结果表明该DCRN在主流数据集上性能显著超越现有的方法。
表3为本发明的深层认知推理网络模型的无意识模块与有意识模块消融实验的性能表:
Figure BDA0003128892800000113
从上表3可以看出,本发明的深层认知推理网络模型(即DCRN)在主流数据集MetaQA数据集上的消融实验测试结果。实验结果表明本发明的DCRN的两个阶段均对最终结果起到了至关重要的作用。
实施例
(1)训练阶段:
训练阶段的目标为最小化损失函数;
给定知识图谱
Figure BDA0003128892800000114
一个问题q和主题实体(推理起点)etopic∈ε,以及正确答案集合
Figure BDA0003128892800000115
训练过程的目的在于最小化以下损失函数(二分类交叉熵损失函数):
Figure BDA0003128892800000121
其中,
Figure BDA0003128892800000122
(2)测试阶段:
在进行测试时,针对给定的知识图谱
Figure BDA0003128892800000124
一个问题q和主题实体(推理起点)etopic∈ε,本发明的DCRN对每个候选实体e进行打分:
Figure BDA0003128892800000123
然后选取得分最高的候选实体作为预测的最终答案。
本领域普通技术人员可以理解:实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (11)

1.一种基于认知推理的知识图谱多跳问答方法,其特征在于,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
2.根据权利要求1所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
3.根据权利要求2所述的基于认知推理的知识图谱多跳问答方法,其特征在于,
所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量内积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
4.根据权利要求2或3所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型的无意识模块通过语义匹配对每个候选答案实体进行打分,通过以下公式(1)计算候选答案实体e的得分:
Figure FDA0003128892790000021
所述公式(1)中,
Figure FDA0003128892790000022
表示基于自然语言问题q得到的查询向量,
Figure FDA0003128892790000023
通过公式(2)计算得出:
Figure FDA0003128892790000024
所述公式(2)中,符号○表示元素间相乘,o(i)表示所述深层认知推理网络模型的推理路径解码模块中第i步的输出。
5.根据权利要求2或3所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
6.根据权利要求5所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述有意识模块的具体处理步骤为:
(a)裁剪知识图谱:以一个主题实体etopic∈ε作为推理起点用广度优先搜索算法,从给定的一个知识图谱g中搜索一个自然语言问题q的对应答案实体,得出只由访问过的边组成的有向无环图作为裁剪后的知识图谱
Figure FDA0003128892790000025
(b)将裁剪后的知识图谱
Figure FDA0003128892790000026
转换为贝叶斯网络
Figure FDA00031288927900000213
Figure FDA00031288927900000214
Figure FDA0003128892790000027
的图结构相同,两者的节点与边的定义分别为:
Figure FDA0003128892790000028
(c)基于贝叶斯网络进行推理:基于所述步骤(b)中得到的贝叶斯网络
Figure FDA00031288927900000215
建模知识图谱多跳问答为:
Figure FDA0003128892790000029
根据贝叶斯网络的性质,推导出如下结果:
Figure FDA00031288927900000210
所述公式(3)中,
Figure FDA00031288927900000211
的定义为:
Figure FDA00031288927900000212
用以上方式对所述概率公式(4)进行建模:
Figure FDA0003128892790000031
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
Figure FDA0003128892790000032
7.根据权利要求2或3所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型的损失函数为:
Figure FDA0003128892790000033
所述公式(7)中,
Figure FDA0003128892790000034
|ε|表示实体集合大小,
Figure FDA0003128892790000035
表示答案集合大小。
8.一种基于认知推理的知识图谱多跳问答模型,其特征在于,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
9.根据权利要求8所述的基于认知推理的知识图谱多跳问答模型,其特征在于,
所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量内积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
10.根据权利要求8或9所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型的无意识模块通过语义匹配对每个候选答案实体进行打分,通过以下公式(1)计算候选答案实体e的得分:
Figure FDA0003128892790000041
所述公式(1)中,
Figure FDA0003128892790000042
表示基于自然语言问题q得到的查询向量,
Figure FDA0003128892790000043
通过公式(2)计算得出:
Figure FDA0003128892790000044
所述公式(2)中,符号○表示元素间相乘,o(i)表示所述深层认知推理网络模型的推理路径解码模块中第i步的输出;
所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
11.根据权利要求10所述的基于认知推理的知识图谱多跳问答模型,其特征在于,所述有意识模块的具体处理步骤为:
(a)裁剪知识图谱:以一个主题实体etopic∈ε作为推理起点用广度优先搜索算法,从给定的一个知识图谱g中搜索一个自然语言问题q的对应答案实体,得出只由访问过的边组成的有向无环图作为裁剪后的知识图谱
Figure FDA0003128892790000045
(b)将裁剪后的知识图谱
Figure FDA0003128892790000046
转换为贝叶斯网络
Figure FDA00031288927900000413
Figure FDA00031288927900000414
Figure FDA0003128892790000047
的图结构相同,两者的节点与边的定义分别为:
Figure FDA0003128892790000048
(c)基于贝叶斯网络进行推理:基于所述步骤(b)中得到的贝叶斯网络
Figure FDA00031288927900000415
建模知识图谱多跳问答为:
Figure FDA0003128892790000049
根据贝叶斯网络的性质,推导出如下结果:
Figure FDA00031288927900000410
所述公式(3)中,
Figure FDA00031288927900000411
的定义为:
Figure FDA00031288927900000412
用以上方式对所述概率公式(4)进行建模:
Figure FDA0003128892790000051
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
Figure FDA0003128892790000052
CN202110697004.XA 2021-06-23 2021-06-23 基于认知推理的知识图谱多跳问答方法及模型 Active CN113360604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110697004.XA CN113360604B (zh) 2021-06-23 2021-06-23 基于认知推理的知识图谱多跳问答方法及模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110697004.XA CN113360604B (zh) 2021-06-23 2021-06-23 基于认知推理的知识图谱多跳问答方法及模型

Publications (2)

Publication Number Publication Date
CN113360604A true CN113360604A (zh) 2021-09-07
CN113360604B CN113360604B (zh) 2024-02-27

Family

ID=77535794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110697004.XA Active CN113360604B (zh) 2021-06-23 2021-06-23 基于认知推理的知识图谱多跳问答方法及模型

Country Status (1)

Country Link
CN (1) CN113360604B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113849613A (zh) * 2021-09-15 2021-12-28 北方工业大学 一种食品安全问答推理方法、系统及电子设备
CN114925190A (zh) * 2022-05-30 2022-08-19 南瑞集团有限公司 一种基于规则推理与gru神经网络推理的混合推理方法
CN115964459A (zh) * 2021-12-28 2023-04-14 北方工业大学 基于食品安全认知图谱的多跳推理问答方法及系统
CN116822633A (zh) * 2023-08-31 2023-09-29 清华大学 基于自我认知的模型推理方法、装置及电子设备
CN117493582A (zh) * 2023-12-29 2024-02-02 珠海格力电器股份有限公司 模型结果的输出方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237856A1 (zh) * 2019-05-29 2020-12-03 平安科技(深圳)有限公司 基于知识图谱的智能问答方法、装置及计算机存储介质
CN112380325A (zh) * 2020-08-15 2021-02-19 电子科技大学 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237856A1 (zh) * 2019-05-29 2020-12-03 平安科技(深圳)有限公司 基于知识图谱的智能问答方法、装置及计算机存储介质
CN112380325A (zh) * 2020-08-15 2021-02-19 电子科技大学 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张莹莹;钱胜胜;方全;徐常胜;: "基于多模态知识感知注意力机制的问答方法", 计算机研究与发展, no. 05 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113849613A (zh) * 2021-09-15 2021-12-28 北方工业大学 一种食品安全问答推理方法、系统及电子设备
CN115964459A (zh) * 2021-12-28 2023-04-14 北方工业大学 基于食品安全认知图谱的多跳推理问答方法及系统
CN115964459B (zh) * 2021-12-28 2023-09-12 北方工业大学 基于食品安全认知图谱的多跳推理问答方法及系统
CN114925190A (zh) * 2022-05-30 2022-08-19 南瑞集团有限公司 一种基于规则推理与gru神经网络推理的混合推理方法
CN114925190B (zh) * 2022-05-30 2023-08-04 南瑞集团有限公司 一种基于规则推理与gru神经网络推理的混合推理方法
CN116822633A (zh) * 2023-08-31 2023-09-29 清华大学 基于自我认知的模型推理方法、装置及电子设备
CN116822633B (zh) * 2023-08-31 2023-12-26 清华大学 基于自我认知的模型推理方法、装置及电子设备
CN117493582A (zh) * 2023-12-29 2024-02-02 珠海格力电器股份有限公司 模型结果的输出方法、装置、电子设备及存储介质
CN117493582B (zh) * 2023-12-29 2024-04-05 珠海格力电器股份有限公司 模型结果的输出方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113360604B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CN113360604B (zh) 基于认知推理的知识图谱多跳问答方法及模型
CN109844743B (zh) 在自动聊天中生成响应
CN113239181B (zh) 基于深度学习的科技文献引文推荐方法
CN109977201A (zh) 带情感的机器聊天方法、装置、计算机设备及存储介质
Xiong et al. Knowledge graph question answering with semantic oriented fusion model
CN107590139B (zh) 一种基于循环矩阵翻译的知识图谱表示学习方法
Narayan et al. Deep learning approaches to text production
CN115964459B (zh) 基于食品安全认知图谱的多跳推理问答方法及系统
He et al. Neurally-guided semantic navigation in knowledge graph
CN105956158A (zh) 基于海量微博文本和用户信息的网络新词自动提取的方法
Zhang et al. Aspect-level sentiment analysis via a syntax-based neural network
CN114443846A (zh) 一种基于多层级文本异构图的分类方法、装置及电子设备
Aakur et al. Leveraging symbolic knowledge bases for commonsense natural language inference using pattern theory
CN114579605B (zh) 表格问答数据处理方法、电子设备及计算机存储介质
CN116069876A (zh) 基于知识图谱的问答方法、装置、设备及存储介质
CN116010621A (zh) 一种基于规则引导的自适应路径生成方法
Liu et al. Neural belief propagation for scene graph generation
Ding et al. Reasoning chain based adversarial attack for multi-hop question answering
Zhou et al. What happens next? Combining enhanced multilevel script learning and dual fusion strategies for script event prediction
JP2011243166A (ja) テキスト要約装置、テキスト要約方法及びテキスト要約プログラム
Hu et al. An improved algorithm of word similarity computation based on HowNet
Chen et al. Llama-lora neural prompt engineering: A deep tuning framework for automatically generating chinese text logical reasoning thinking chains
Zhang et al. Knowledge adaptive neural network for natural language inference
CN116306925B (zh) 一种生成端到端实体链接方法和系统
Shi et al. Research on food safety multi-hop reasoning question answering based on cognitive graph

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant