CN113360604A - 基于认知推理的知识图谱多跳问答方法及模型 - Google Patents
基于认知推理的知识图谱多跳问答方法及模型 Download PDFInfo
- Publication number
- CN113360604A CN113360604A CN202110697004.XA CN202110697004A CN113360604A CN 113360604 A CN113360604 A CN 113360604A CN 202110697004 A CN202110697004 A CN 202110697004A CN 113360604 A CN113360604 A CN 113360604A
- Authority
- CN
- China
- Prior art keywords
- module
- question
- inference
- knowledge graph
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001149 cognitive effect Effects 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 208000003443 Unconsciousness Diseases 0.000 claims description 67
- 239000000126 substance Substances 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000010845 search algorithm Methods 0.000 claims description 5
- 150000001875 compounds Chemical class 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 241000282414 Homo sapiens Species 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000002679 ablation Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 125000002015 acyclic group Chemical group 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于认知推理的知识图谱多跳问答方法及模型,方法包括:步骤1,从给定的问题‑答案对数据中随机选取多批次的数据作为训练集;步骤2,以训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对深层认知推理网络模型进行优化,得到优化后的网络模型;步骤3,通过优化后的网络模型对测试集中的问题进行处理,并对各个候选答案实体打分,得分最高的候选答案实体即为给定自然语言问题的答案。通过模拟人类的认知推理机制,由层次化的网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对知识图谱多跳问答取得显著性能提升。
Description
技术领域
本发明涉及基于知识图谱的自然语言处理领域,尤其涉及一种基于认知推理的知识图谱多跳问答方法及模型。
背景技术
知识图谱以多关系有向图的形式存储人类知识,图中的每个节点都表示一个实体,每条边都表示两个实体之间的关系,而边的方向则表示了该方向的指向性。知识图谱中的每个事实(Fact)一般以头实体、关系、尾实体的三元组的形式存储,例如:姚明、出生地、上海即为一个三元组。
知识图谱问答旨在基于知识图谱对给定的自然语言问题进行回答,而知识图谱多跳问答旨在通过知识图谱中的路径推理得到答案,图1所示即为知识图谱多跳问答任务的示意图。
目前的知识图谱多跳问答中存在一个严峻的挑战,对于需要长推理路径的复杂问题的回答准确率低,这是由于需要长推理路径的复杂问题,会随着跳数的增长使候选答案实体的数量呈指数增加,但大量的候选答案实体为寻找准确答案带来了困难。之前的方法KV-Mem使用记忆网络(Memory Network)进行多跳推理,VRN使用一种变分法框架进行多跳推理,但这些方法难以有效解决需要长推理路径问题的准确回答问题。现有的方法(如:GRAFT-Net与PullNet)为了解决这一问题,它们首先提取问题相关的子图,随后在提取的子图上进行推理。然而,这些方法往往牺牲了答案实体在子图中的召回率以降低候选实体集合的大小,即这样的妥协限制了现有模型的性能。因此,针对需要长推理路径的复杂问题,如何提供一种无需牺牲召回率的高准确率的问答方法是需要解决的问题。
发明内容
针对现有技术所存在的问题,本发明的目的是提供一种基于认知推理的知识图谱多跳问答方法及模型,能解决现有基于知识图谱多跳问答中,所存在的因需要长推理路径复杂导致回答准确率低以及牺牲模型对于正确答案召回率的问题。
本发明的目的是通过以下技术方案实现的:
本发明实施方式提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为给定的自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
本发明实施方式还提供一种基于认知推理的知识图谱多跳问答模型,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
由上述本发明提供的技术方案可以看出,本发明实施例提供的基于认知推理的知识图谱多跳问答方法及模型,其有益效果为:
通过模拟人类的认知推理机制,利用层次化的深层认知推理网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对进行知识图谱多跳问答取得了显著的性能提升。本发明的方法及模型结合知识图谱嵌入与贝叶斯网络技术进行建模处理,对于知识图谱多跳问答能快速、准确的预测得出对应的候选答案实体,具备优越的性能,进而很好的解决现有知识图谱多跳问答中,对需要长推理路径问题的回答准确率低以及模型牺牲了对于正确答案召回率的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的基于认知推理的知识图谱多跳问答方法的流程图;
图2为本发明实施例提供的基于认知推理的知识图谱多跳问答建模示意图;
图3为本发明实施例提供的基于认知推理的知识图谱多跳问答方法模型的示意图;
图4为本发明实施例提供的的示意图。
具体实施方式
下面结合本发明的具体内容,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
参见图1,本发明实施例提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为给定的自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
参见图3,上述方法中,所述深层认知推理网络模型包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
上述方法中,所述推理路径解码模块采用长短期记忆网络(即LSTM);
所述无意识模块采用基于向量语义匹配的神经网络模型;
所述有意识模块采用基于概率图模型的神经网络模型。
上述方法中,所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
上述方法中,所述有意识模块的具体处理步骤为:
根据贝叶斯网络的性质,推导出如下结果:
其中pa(e)表示知识图谱中实体(节点)e的父节点集合
用以上方式对所述概率公式(4)进行建模:
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
上述方法中,所述深层认知推理网络模型的损失函数为:
参见图3,本发明实施例提供一种基于认知推理的知识图谱多跳问答模型,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
上述模型中,所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量內积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
上述模型中,所述有意识模块的具体处理步骤为:
根据贝叶斯网络的性质,推导出如下结果:
用以上方式对所述概率公式(4)进行建模:
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
本发明的基于认知推理的知识图谱多跳问答方法,以认知科学中双重过程理论为基础,结合知识图谱嵌入与贝叶斯网络技术进行建模处理,对于知识图谱多跳问答能快速、准确的预测得出对应的候选答案实体,具备优越的性能,进而很好的解决现有知识图谱多跳问答中,对需要长推理路径问题的回答准确率低以及模型牺牲了对于正确答案召回率的问题。
下面对本发明实施例具体作进一步地详细描述。
本发明实施例提供一种基于认知推理的知识图谱多跳问答模型,是一种深层认知推理网络模型,包括:
理路径解码模块、无意识(unconscious)模块和有意识(conscious)模块;其中,
所述路径解码模块,作为最底层的模块,其输出作为所述无意识模块与有意识模块的部分输入。该模块的输入为给定的问题问题,输出为从该问题解码得到的推理路径信息,即推理路径中每一步中每一个选择的得分;
所述无意识模块,其输入为给定的问题、知识图谱以及路径解码模块的输出,其输出为每个候选答案实体的打分,同时也作为所述有意识模块的部分输入。
所述有意识模块,其输入为给定的问题、知识图谱、路径解码模块的输出以及无意识模块的输出,其输出为每个候选答案实体的最终得分。该得分也作为整个模型的输出。
本发明实施例还提供一种基于认知推理的知识图谱多跳问答方法,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;所述深层认知推理网络模型采用上述的基于认知推理的知识图谱多跳问答模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
本发明的方法及模型通过模拟人类的认知推理机制,利用层次化的深层认知推理网络模型从不同角度进行知识推理,有效地利用并建模了知识图谱中的节点级别与边级别的信息,对进行知识图谱多跳问答取得了显著的性能提升。
具体的,本发明的基于认知推理为知识图谱多跳问答方法具体包括:
首先说明知识图谱和所使用的符号,然后介绍本发明的具体处理步骤。
本发明对知识图谱多跳问答任务设计了一个深层认知推理网络模型(DCRN,DeepCognitive Reasoning Network)。该深层认知推理网络模型基于认知科学中的双重过程理论(Dual Process Theory)。该理论提出,人类的推理流程可以被分解为两个过程:无意识过程(unconscious process)与有意识过程(conscious process)。前者使用直觉(fastintuition)从海量的信息中提取重要的部分,而后者使用顺序推理(sequentialreasoning)以寻找答案。类似的,本发明的深层认知推理网络模型包括:无意识模块和有意识模块,分别对应进行无意识阶段(unconscious phase)与有意识阶段(conscious phase)两个阶段的处理,同时还包含一个推理路径解码模块(Path Decoding Module),如图3所示。
接下来分别介绍推理路径解码模块、无意识模块与有意识模块的功能和处理过程。
(1)推理路径解码模块:
该推理路径解码模块的输入为,q是一个自然语言问题,输出为从该问题q解码得到的推理路径信息,即得到推理路径中每一步中每一个选择的得分。具体地,使用编码-解码(Encoder-Decoder)结构对问题q进行处理。
首先,将问题q使用包含在推理路径解码模块中的循环神经网络(RNN)编码为向量表示q=RNN-Encoder(q);
接着,对该向量表示q=RNN-Encoder(q)进行解码得到推理路径信息,即得到推理路径中每一步中每一个选择的得分,参见图4。
该推理路径解码模块对向量表示q=RNN-Encoder(q)的解码的过程分为多步,其中,第t步的状态向量用h(t)表示,通过以下公式计算得出:
h(t)=RNN-Decoder(h(t-1),i(t));
第t步的输出作为第(t+1)步的输入,即i(t+1)=o(l)。
(2)无意识模块:
(3)有意识模块:
在该无意识模块的处理中,基于无意识模块的得分,使用贝叶斯网络进行顺序推理,从而准确地预测答案。该无意识模块的处理包括步骤:
(a)裁剪知识图谱:给定一个知识图谱一个问题q和主题实体(作为推理起点)etopic∈ε,从该主题实体出发,执行广度优先搜索算法(Breadth-First Search)从知识图谱中搜索,只保留图中访问过的边(edge),最终得到裁剪后的知识图谱该图为一个有向无环图(DAG);
根据贝叶斯网络的性质,推导出如下结果:
使用如下方式建模上述概率公式:
其中,fs(e)是无意识模块计算的打分结果;fb(e)是有意识模块所计算的对候选实体e的打分结果;fb(e)的计算方式如下:
本发明通过基于认知科学中双重过程理论设计的深层认知推理网络模型,并结合知识图谱嵌入与贝叶斯网络进行建模,使得知识图谱多跳问答模型具备优越的性能。
表2为本发明的深层认知推理网络模型的性能表
上表2示意了本发明的深层认知推理网络模型(DCRN)在主流数据集WebQSP、MetaQA数据集上的测试结果(指标为H@1)。实验结果表明该DCRN在主流数据集上性能显著超越现有的方法。
表3为本发明的深层认知推理网络模型的无意识模块与有意识模块消融实验的性能表:
从上表3可以看出,本发明的深层认知推理网络模型(即DCRN)在主流数据集MetaQA数据集上的消融实验测试结果。实验结果表明本发明的DCRN的两个阶段均对最终结果起到了至关重要的作用。
实施例
(1)训练阶段:
训练阶段的目标为最小化损失函数;
(2)测试阶段:
然后选取得分最高的候选实体作为预测的最终答案。
本领域普通技术人员可以理解:实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (11)
1.一种基于认知推理的知识图谱多跳问答方法,其特征在于,用于从给定知识图谱中,以某一主题实体作为推理起点,基于认知推理预测得出一个自然语言问题的正确答案,包括以下步骤:
步骤1,从给定的问题-答案对数据中随机选取多批次的数据作为训练集;所述问题-答案对数据为自然语言问题与正确候选答案实体组成的数据对;
步骤2,以所述的训练集作为输入,训练深层认知推理网络模型的参数,并通过神经网络优化器以使训练过程中损失函数的值最小化为目标,对所述深层认知推理网络模型进行优化,得到优化后的深层认知推理网络模型;
步骤3,通过优化后的所述深层认知推理网络模型对测试集中的自然语言问题进行处理,并对各个候选答案实体进行打分,得分最高的候选答案实体即为给定自然语言问题的答案。
2.根据权利要求1所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
3.根据权利要求2所述的基于认知推理的知识图谱多跳问答方法,其特征在于,
所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量内积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
5.根据权利要求2或3所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述深层认知推理网络模型的有意识模块基于所述无意识模块输出的得分,使用贝叶斯网络进行顺序推理,得出每个候选答案实体的最终得分。
6.根据权利要求5所述的基于认知推理的知识图谱多跳问答方法,其特征在于,所述有意识模块的具体处理步骤为:
根据贝叶斯网络的性质,推导出如下结果:
用以上方式对所述概率公式(4)进行建模:
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
8.一种基于认知推理的知识图谱多跳问答模型,其特征在于,包括:
输入层、推理路径解码模块、无意识模块、有意识模块和输出层;其中,
所述输入层,分别与所述理路径解码模块和无意识模块连接,用于输入给定的自然语言问题;
所述推理路径解码模块的输出端分别无意识模块和有意识模块连接,该理路径解码模块接收所述输入层传入的给定的自然语言问题,输出解码所述给定的自然语言问题得到的推理路径中每一步中每一个选择的得分;
所述无意识模块依次与所述有意识模块和输出层连接,该无意识模块的输入为给定的自然语言问题、知识图谱和推理路径解码模块的输出,输出为每个候选答案实体的打分;
所述有意识模块的输入为给定的自然语言问题、知识图谱、推理路径解码模块的输出和无意识模块的输出,输出为每个候选答案实体的最终得分;
所述输出层,用于输出所述有意识模块得出的每个候选答案实体的最终得分。
9.根据权利要求8所述的基于认知推理的知识图谱多跳问答模型,其特征在于,
所述推理路径解码模块采用编码-解码器模型;
所述无意识模块采用基于向量内积的语义匹配模型;
所述有意识模块采用基于贝叶斯网络的路径推理模型。
11.根据权利要求10所述的基于认知推理的知识图谱多跳问答模型,其特征在于,所述有意识模块的具体处理步骤为:
根据贝叶斯网络的性质,推导出如下结果:
用以上方式对所述概率公式(4)进行建模:
所述公式(5)中,fs(e)是无意识模块输出的得分,fb(e)是有意识模块所计算的对候选实体e的打分结果,fb(e)通过以下公式(6)计算:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110697004.XA CN113360604B (zh) | 2021-06-23 | 2021-06-23 | 基于认知推理的知识图谱多跳问答方法及模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110697004.XA CN113360604B (zh) | 2021-06-23 | 2021-06-23 | 基于认知推理的知识图谱多跳问答方法及模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113360604A true CN113360604A (zh) | 2021-09-07 |
CN113360604B CN113360604B (zh) | 2024-02-27 |
Family
ID=77535794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110697004.XA Active CN113360604B (zh) | 2021-06-23 | 2021-06-23 | 基于认知推理的知识图谱多跳问答方法及模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113360604B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113849613A (zh) * | 2021-09-15 | 2021-12-28 | 北方工业大学 | 一种食品安全问答推理方法、系统及电子设备 |
CN114925190A (zh) * | 2022-05-30 | 2022-08-19 | 南瑞集团有限公司 | 一种基于规则推理与gru神经网络推理的混合推理方法 |
CN115964459A (zh) * | 2021-12-28 | 2023-04-14 | 北方工业大学 | 基于食品安全认知图谱的多跳推理问答方法及系统 |
CN116822633A (zh) * | 2023-08-31 | 2023-09-29 | 清华大学 | 基于自我认知的模型推理方法、装置及电子设备 |
CN117493582A (zh) * | 2023-12-29 | 2024-02-02 | 珠海格力电器股份有限公司 | 模型结果的输出方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020237856A1 (zh) * | 2019-05-29 | 2020-12-03 | 平安科技(深圳)有限公司 | 基于知识图谱的智能问答方法、装置及计算机存储介质 |
CN112380325A (zh) * | 2020-08-15 | 2021-02-19 | 电子科技大学 | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 |
-
2021
- 2021-06-23 CN CN202110697004.XA patent/CN113360604B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020237856A1 (zh) * | 2019-05-29 | 2020-12-03 | 平安科技(深圳)有限公司 | 基于知识图谱的智能问答方法、装置及计算机存储介质 |
CN112380325A (zh) * | 2020-08-15 | 2021-02-19 | 电子科技大学 | 基于联合知识嵌入模型和事实记忆网络的知识图谱问答系统 |
Non-Patent Citations (1)
Title |
---|
张莹莹;钱胜胜;方全;徐常胜;: "基于多模态知识感知注意力机制的问答方法", 计算机研究与发展, no. 05 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113849613A (zh) * | 2021-09-15 | 2021-12-28 | 北方工业大学 | 一种食品安全问答推理方法、系统及电子设备 |
CN115964459A (zh) * | 2021-12-28 | 2023-04-14 | 北方工业大学 | 基于食品安全认知图谱的多跳推理问答方法及系统 |
CN115964459B (zh) * | 2021-12-28 | 2023-09-12 | 北方工业大学 | 基于食品安全认知图谱的多跳推理问答方法及系统 |
CN114925190A (zh) * | 2022-05-30 | 2022-08-19 | 南瑞集团有限公司 | 一种基于规则推理与gru神经网络推理的混合推理方法 |
CN114925190B (zh) * | 2022-05-30 | 2023-08-04 | 南瑞集团有限公司 | 一种基于规则推理与gru神经网络推理的混合推理方法 |
CN116822633A (zh) * | 2023-08-31 | 2023-09-29 | 清华大学 | 基于自我认知的模型推理方法、装置及电子设备 |
CN116822633B (zh) * | 2023-08-31 | 2023-12-26 | 清华大学 | 基于自我认知的模型推理方法、装置及电子设备 |
CN117493582A (zh) * | 2023-12-29 | 2024-02-02 | 珠海格力电器股份有限公司 | 模型结果的输出方法、装置、电子设备及存储介质 |
CN117493582B (zh) * | 2023-12-29 | 2024-04-05 | 珠海格力电器股份有限公司 | 模型结果的输出方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113360604B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113360604B (zh) | 基于认知推理的知识图谱多跳问答方法及模型 | |
CN109844743B (zh) | 在自动聊天中生成响应 | |
CN113239181B (zh) | 基于深度学习的科技文献引文推荐方法 | |
CN109977201A (zh) | 带情感的机器聊天方法、装置、计算机设备及存储介质 | |
Xiong et al. | Knowledge graph question answering with semantic oriented fusion model | |
CN107590139B (zh) | 一种基于循环矩阵翻译的知识图谱表示学习方法 | |
Narayan et al. | Deep learning approaches to text production | |
CN115964459B (zh) | 基于食品安全认知图谱的多跳推理问答方法及系统 | |
He et al. | Neurally-guided semantic navigation in knowledge graph | |
CN105956158A (zh) | 基于海量微博文本和用户信息的网络新词自动提取的方法 | |
Zhang et al. | Aspect-level sentiment analysis via a syntax-based neural network | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
Aakur et al. | Leveraging symbolic knowledge bases for commonsense natural language inference using pattern theory | |
CN114579605B (zh) | 表格问答数据处理方法、电子设备及计算机存储介质 | |
CN116069876A (zh) | 基于知识图谱的问答方法、装置、设备及存储介质 | |
CN116010621A (zh) | 一种基于规则引导的自适应路径生成方法 | |
Liu et al. | Neural belief propagation for scene graph generation | |
Ding et al. | Reasoning chain based adversarial attack for multi-hop question answering | |
Zhou et al. | What happens next? Combining enhanced multilevel script learning and dual fusion strategies for script event prediction | |
JP2011243166A (ja) | テキスト要約装置、テキスト要約方法及びテキスト要約プログラム | |
Hu et al. | An improved algorithm of word similarity computation based on HowNet | |
Chen et al. | Llama-lora neural prompt engineering: A deep tuning framework for automatically generating chinese text logical reasoning thinking chains | |
Zhang et al. | Knowledge adaptive neural network for natural language inference | |
CN116306925B (zh) | 一种生成端到端实体链接方法和系统 | |
Shi et al. | Research on food safety multi-hop reasoning question answering based on cognitive graph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |