CN117744795B - 一种基于大语言模型的多智能体协同知识推理框架与系统 - Google Patents

一种基于大语言模型的多智能体协同知识推理框架与系统 Download PDF

Info

Publication number
CN117744795B
CN117744795B CN202311679361.9A CN202311679361A CN117744795B CN 117744795 B CN117744795 B CN 117744795B CN 202311679361 A CN202311679361 A CN 202311679361A CN 117744795 B CN117744795 B CN 117744795B
Authority
CN
China
Prior art keywords
reasoning
answer
knowledge
result
causal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311679361.9A
Other languages
English (en)
Other versions
CN117744795A (zh
Inventor
方锐
汤子逸
王睿麟
陈卫兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Wisdom Technology Guangzhou Co ltd
Original Assignee
Guangzhou Wisdom Technology Guangzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Wisdom Technology Guangzhou Co ltd filed Critical Guangzhou Wisdom Technology Guangzhou Co ltd
Priority to CN202311679361.9A priority Critical patent/CN117744795B/zh
Publication of CN117744795A publication Critical patent/CN117744795A/zh
Application granted granted Critical
Publication of CN117744795B publication Critical patent/CN117744795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及计算机技术和人工智能技术领域,公开了一种基于大语言模型的多智能体协同知识推理框架与系统。该方法包括以下步骤:对于给定的知识推理问题,通过多轮推理阶段及检验阶段进行准确的知识推理;推理阶段包括:多个基于大语言模型的推理者通过因果方向上的程序化推理过程给出答案;检验阶段包括:多个基于大语言模型的评估者通过非因果方向上的因果一致性检验过程检查推理者给出的答案是否能从问题中推断出来,并运用反事实推理来验证原有答案的正确性。本申请基于多智能体协作技术,增强了LLMs中基于知识的推理的可靠度和因果一致性。

Description

一种基于大语言模型的多智能体协同知识推理框架与系统
技术领域
本申请涉及计算机技术和人工智能技术领域,具体是一种基于大语言模型的多智能体协同知识推理框架与系统。
背景技术
现有的激发大语言模型的知识推理能力的方法,主要通过模仿人类逐步推理过程来引导大语言模型进行推理,例如从多个给出的演示案例中学习推理链条。另一些方法从手工构建的知识库中检索外部知识后微调语言模型使其学习如何基于这些知识推理。还有一些方法主要允许语言模型自主规划和解决推理问题,或创建大量的推理链进行集成。但以上方法往往没有解决知识推理中概念和推理的错误。
并且,大型语言模型(LLMs)中的推理过程是脆弱的,可能会因为对查询的误解、事实错误和推理错误而受到干扰,导致在推理任务中的表现不佳。而如前述的,鼓励LLMs自主计划和解决问题或广泛采样推理链的现有方法通常无法解决概念性和推理性的谬误。当前引导LLMs进行推理的范式存在几个缺点,如在构建和搜索知识库方面的低效,需要广泛采样的推理链,以及无法减轻中间步骤中的推理错误。
发明内容
本申请的目的在于提供一种基于大语言模型的多智能体协同知识推理框架与系统,旨在解决大型语言模型中长期存在的基于知识的推理问题,为了应对现有方法的不足,基于多智能体协作技术,以增强LLMs中基于知识的推理的可靠度和因果一致性。
为实现上述目的,本申请公开了以下技术方案:
一种基于大语言模型的多智能体协同知识推理方法,该方法包括以下步骤:
对于给定的知识推理问题,通过多轮推理阶段及检验阶段进行准确的知识推理;其中,
所述推理阶段包括:多个基于大语言模型的推理者通过因果方向上的程序化推理过程给出答案;所述程序化推理依次包括概念解释、子问题分解、推理生成和答案合成;
所述检验阶段包括:多个基于大语言模型的评估者通过非因果方向上的因果一致性检验过程检查所述推理者给出的答案是否能从问题中推断出来,并运用反事实推理来验证原有答案的正确性;所述因果一致性检验过程包括非因果评估、反事实评估以及重新考虑和答案合成。
作为优选,所述概念解释包括:基于给定的知识推理问题,解释必要的概念或原则;所述概念解释用于阐明技术术语、概念和原理,所述概念解释通过提示驱动一个大语言模型对与用户输入问题相关的概念或知识进行检索得到。
作为优选,所述子问题分解包括:将给定的知识推理问题分解为若干个子问题,并对每个子问题进行解决,将得到的答案进行存储;所述子问题分解通过大语言模型自主规划生成,子问题之间具有引导大语言模型朝向最终答案进行推理的逻辑或依赖性。
作为优选,所述推理生成包括:基于问题分解得到的若干个子问题和知识阐述生成完整的推理过程。
作为优选,所述答案合成包括:基于所述推理过程和所述子问题分解生成解决方案对应的答案。
作为优选,所述非因果评估包括:在非因果方向上,评估者利用所述程序化推理过程中的任意一个步骤过程作为推理的上下文,通过依照提示指令逐步检查所述程序化推理过程中的每一步。
作为优选,所述反事实评估包括:评估者将一个反事实答案应用到给定的知识推理问题中,并寻找潜在矛盾;所述反事实答案为与所述推理这给出的答案中不同的候选答案。
作为优选,所述重新考虑和答案合成包括:当所述非因果评估和所述反事实评估中出现任何因果不一致性时,评估者将反事实答案的相对优点与初始响应进行评估,并基于该评估结果给出修改后的答案,否则,评估者将所述推理者给出的答案进行输出。
作为优选,所述推理者在所述推理阶段中的算法内容包括:
若干个推理者平行地生成各自的解决方案(S0,S1,…,Sn),其中,每个解决方案中均包括对应的最终结果所有的解决方案和最终结果构成的答案池A。
作为优选,所述评估者在所述检验阶段中的算法内容包括:
在答案池A中筛选出结果Aj
当结果Aj在答案池A中出现的概率Pr(Aj)大于预设的阈值th0时,评估者随机从答案池A中提取一个不同于结果Aj的反事实答案来挑战结果Aj;评估者在评估结果Aj对应的解决方案Sj后生成一个该解决方案Sj修订的答案当评估者认可结果Aj时,即则将结果Aj作为最终答案进行输出,否则进入下一轮的推理阶段及检验阶段;
当结果Aj在案池A中出现的概率Pr(Aj)小于预设的阈值th0时,选择答案池A中除结果Aj之外的所有结果,并对每一个结果进行评估,直至出现一个结果在答案池A中出现的概率大于预设的阈值th0时,将该结果作为最终答案进行输出,否则,进入下一轮的推理阶段及检验阶段。
有益效果:
本发明专为解决大型语言模型中基于知识的推理问题而设计,该技术不同于传统的如通过单纯模仿人类逐步推理过程或仅仅是检索外部知识库来引导模型进行推理的方法,而是基于多智能体协同工作的思想,采用了推理者与因果评估者的多智能体框架,以增加推理的准确性与因果性。
首先,通过将问题分解和知识解释从推理过程中分离出来,可以为后续步骤提供更准确的事实和相关知识。在实际应用中,这种方法可以有效地减少概念性和推理性的错误,从而提高推理的可靠性。此外,相对于其他方法,例如广泛采样的推理链或构建和搜索知识库,本方法更为高效和精确。其次,引入的因果评估者确保了推理的因果一致性,这是之前的方法所忽略的。通过反事实答案的逆向推理和整体一致性策略,系统能够确保所得到的答案是因果一致的。在实际应用中,这种方法减少了大型语言模型在知识推理任务中的错误率。此外,经过多轮的“推理与共识”过程,本系统能够更可靠地处理复杂的推理任务。这不仅解决了中间步骤的推理错误问题,而且避免了现有方法中对查询的误解、事实错误和推理错误可能带来的干扰。
从技术效果的角度看,本发明提供了一个高效、准确且因果一致的知识推理框架,有望推人工智能领域的进一步发展。从经济效果的角度看,这种高效的知识推理方法可以广泛应用于各种业务场景,例如智能问答、自动决策支持和教育培训,从而为企业和社会创造更大的价值。从社会效果的角度看,这种准确的知识推理方法可以帮助人们更好地理解复杂的问题,提高决策的质量,为社会带来更广泛的益处。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的多轮推阶段和检验阶段的架构示意图;
图2为本申请实施例提供的因果一致性检验方法的框架示意图。
具体实施方式
下面将对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本文中,术语“包括”意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
申请人发现,最初,一些智能推理方法通过直接向大语言模型提供一些推理问题的解答过程,或是通过例如“让我们一步一步思考”的提示词来激发大语言模型的推理能力。一些研究人员尝试构建更复杂更本质的推理结构来模拟人的思维过程,例如思维树(tree-of-thought)或思维图(graph-of-thought),使得大语言模型不再受限于线性的推理过程。而当代大语言模型(LLM),例如ChatGPT、Claude展现了一系列不俗的涌现能力。它们有很强的指令跟随能力,能够很好地依照提示词或演示中的要求做出响应,从而出现了思维链推理的能力。但是,但是,当前引导LLMs进行推理的范式存在几个缺点,如在构建和搜索知识库方面的低效,需要广泛采样的推理链,以及无法减轻中间步骤中的推理错误。
请参阅图1-2
介于此,本实施例提供了一种基于大语言模型的多智能体协同知识推理方法,该方法包括以下步骤:
对于给定的知识推理问题,通过多轮推理阶段及检验阶段进行准确的知识推理,当不同阶段的多个智能体达成共识时,将该共识对应的答案作为最终结果输出。这些智能体的类型包括推理者和评估者,其中推理者专注于通过模仿人类的因果推理过程来获取解决方案,而评估者则负责检查推理者给出的解决方案中的答案是否能从问题中推断出来,并且它将运用反事实推理来验证原有答案的正确性。
所述推理阶段包括:多个基于大语言模型的推理者通过因果方向上的程序化推理过程给出答案;所述程序化推理依次包括概念解释、子问题分解、推理生成和答案合成;
所述检验阶段包括:多个基于大语言模型的评估者通过非因果方向上的因果一致性检验过程检查所述推理者给出的答案是否能从问题中推断出来,并运用反事实推理来验证原有答案的正确性;所述因果一致性检验过程包括非因果评估、反事实评估以及重新考虑和答案合成。
在本实施例中,所述概念解释包括:基于给定的知识推理问题,解释必要的概念或原则;所述概念解释用于阐明技术术语、概念和原理,所述概念解释通过提示驱动一个大语言模型对与用户输入问题相关的概念或知识进行检索得到。实验数据显示,单独地阐述知识对于LLM更易于驾驭。它通过确保每一个推理者智能体对问题中使用的术语有一个无偏的理解以减少在知识推断中对知识产生误解或模糊的可能性。这一步骤,是直接并且有效的,因为它从推理过程中分离出一个初步的知识解释步骤,由于概念性问题对于大语言模型来说通常更为初级与更容易驾驭,且这一步骤为后续步骤提供了更多准确的事实依据和相关知识。通过将这些准确的概念性知识作为前提,减轻了在知识推断中的错误。注意到目前主流的大语言模型是以自回归的方式进行生成,即生成每一项时依赖于之前的所有项。以上述方式进行知识推理时,推理者的推理过程可以被认为是因果的,因为这恰恰对应于人们基于已有知识推理出新知识的方式。
在本实施例中,所述子问题分解包括:将给定的知识推理问题分解为若干个子问题,并对每个子问题进行解决,将得到的答案进行存储;所述子问题分解通过大语言模型自主规划生成,子问题之间具有引导大语言模型朝向最终答案进行推理的逻辑或依赖性。例如,要求解小车速度(子问题3),必须先知道速度的计算公式(子问题1)并获取小车行驶的距离与花费的时间(子问题2)。推理者智能体利用来自概念解释的知识将逐一提出并解决这些子问题。这种分步方法允许智能体简化复杂问题,并确保对手头的问题进行全面探索。然后将子问题的单独答案存储以便在最终答案中整合。
在本实施例中,所述推理生成包括:基于问题分解得到的若干个子问题和知识阐述生成完整的推理过程。这一步骤是为答案进行推理,从概念解释和子问题分解中得到的上下文。每个智能体应用前述步骤中声明的知识(原理、规则、逻辑等)来得出问题的答案。
在本实施例中,所述答案合成包括:基于所述推理过程和所述子问题分解生成解决方案对应的答案。这一步骤是推理过程的结论阶段,在这个步骤中,从之前的步骤中得到的证据、发现和结论被整合,以形成一个全面的响应。合成的答案应该提供一个清晰和明确的结论。
对于后续的使用,本实施例将答案(通常是一个选定的选项)与每一个解决方案分开,其中包括所有的推理步骤。
对于推理者智能体,我们观察到了解决方案的自回归生成过程,这意味着在每个步骤St的结果在很大程度上依赖于步骤S1到St-1。在这种情况下,推理者解决知识推理问题的过程可以被视为因果的,例如,推理者需要事先阐明相关的背景知识(步骤1)(原因)来推断接下来三个步骤的结果(结果)。例如,分解子问题(步骤2)需要对问题中的概念(步骤1)有清晰的理解,以展开它们之间的相互依赖性,这可以被图示为步骤1→步骤2。
先前的研究表明,LLMs能够识别事实性或推理性的错误,因此我们引入了一个评估者智能体,旨在评估从推理过程中的推理者智能体收集的潜在解决方案的忠实度。为了进一步减少事实性和推理错误,评估者智能体的任务是从非因果视角和反事实视角检查解决方案中的因果一致性。
在本实施例中,非因果评估为:为了评估知识的事实性和推理的正确性,评估者智能体从非因果方向工作。在这个方向上,一个解决方案的所有中间步骤都被提供给评估者智能体作为其上下文。随后,评估者在考虑解决方案的同时仔细检查每个步骤,即(概念解释,子问题分解,推理生成,答案合成)→评估(概念解释)。这种评估在本文中可以被视为非因果的,因为评估者在阅读完解决方案之后对其进行评估,这并不是按照因果推理过程的方向进行的。它提供了一个机会来识别在微观层面分析系统时可能被遗漏的任何突现性质或宏观模式(例如理由中的依赖关系),而不考虑它会导向何处。
在本实施例中,反事实评估为:为了深入检测推理和事实性的谬误,评估者被提示从不同的方向检查原始解决方案是否仍然成立。具体来说,反事实答案是一个与给定解决方案中的答案不同的候选答案。这个重新考虑的过程是通过将反事实答案应用于原始问题并寻找任何矛盾来实现的。
在本实施例中,重新考虑和答案合成为:在非因果评估和反事实评估步骤中,评估者通过非因果评估和反事实分析评估了给定解决方案的因果一致性。如果检测到任何因果不一致性,智能体将反事实答案的相对优点与初始响应进行评估。否则,可能不需要进一步的推理,智能体可以自信地输出原始答案。
总的来说,评估者通过评估一个解决方的因果一致性,探查其潜在的事实准确性错误和任何推理问题,并给出修订后的答案。
本实施例通过多轮的推理—检验过程来寻求模型推理的因果一致性,从而实现准确的知识推理系统,且无需额外的知识获取和大规模的推理链采样过程。具体来说,每一轮包括由多个推理者组成的推理阶段与评估者发挥主要作用的评估阶段。
在每一轮中,若干个推理者首先平行地生成他们各自地解决方案(S0,S1,...,Sn),其中包含最终结果(下标与解决方案相互对应)构成的答案池A。
我们从答案池A中筛选出top-1结果Aj。若top-1答案Aj在答案池A中出现的概率Pr(Aj)大于预设的阈值th0时,评估者随机从答案池A中提取一个不同于结果Aj的反事实答案来挑战结果Aj;评估者在评估结果Aj对应的解决方案Sj后生成一个该解决方案Sj修订的答案当评估者认可结果Aj时,即则将结果Aj作为最终答案进行输出,否则进入下一轮的推理阶段及检验阶段;
当结果Aj在案池A中出现的概率Pr(Aj)小于预设的阈值th0时,选择答案池A中除结果Aj之外的所有结果,并对每一个结果进行评估,直至出现一个结果在答案池A中出现的概率大于预设的阈值th0时,将该结果作为最终答案进行输出,否则,进入下一轮的推理阶段及检验阶段。
综上,本系统需要搭建在现成的大语言模型之上,通常需要这些模型具备一定的世界知识与涌现能力(如上下文学习,指令跟随能力),即在大规模数据集上训练且具有较大参数量来对数据中的知识进行压缩与记忆。这是为了确保模型具备广泛的背景知识且能够依照我们的提示词行使特定的功能。
为了更好地理解本发明中的实施方式,作为一个例子,我们可以将这种方法应用到人机对话推理技术中,使其更具效率和准确性。
示例一:
考虑一个用户的输入的知识推理问题示例,“双子塔比帝国大厦还要高吗?”首先,系统会调用数个推理者对该问题进行推理,其中一个推理者的推理过程如下:
1.**概念解释(Concept Explanation)**
-双子塔,又称为世贸中心,是位于纽约市下曼哈顿的两座摩天大楼。
-北塔和南塔在1973年建成,高度为1,362英尺,共有110层。
-帝国大厦是位于纽约市中城的一座摩天大楼,高度为1,250英尺,总高度为1,454英尺,共有102层。
2.**子问题分解(Subquestion Decomposition)**
-子问题1:双子塔的高度是否超过帝国大厦?
-答案:是的,双子塔的高度为1,362英尺,而帝国大厦的高度为1,250英尺。
3.**推理依据(Rationale)**
-基于提供的信息,双子塔的高度为1,362英尺,高于帝国大厦的1,250英尺。因此,答案是“是的”。
答案:双子塔的高度超过了帝国大厦。
本方法推理者的主要优势是它通过模仿人类思维中的因果,为推理提供了一个更可信的理由和答案,而不仅仅是给出答案。
其次,评估者也在此过程中起到了重要作用。它会评估当从非因果的角度检查时给定的推理过程是否仍然正确,并考虑可能的反事实情况,其对上述推理过程的评估如下:
1.**非因果评估(Non-causal Evaluation)**
-解释提供了双子塔和帝国大厦的必要且事实性的背景信息,包括它们的高度。
-对于子问题“双子塔在高度上是否超过帝国大厦”根据所提供的高度信息正确地给出了答案。
-推理过程是具有逻辑的。在推理中没有明显的缺陷。
-答案“是的”由推理和证据支持。
2.**反事实推理(Counterfactual Reasoning)**
-如果比较建筑物的高度时发生错误,或者关于建筑物高度的额外信息浮现,则答案可能是“不”。
-如果答案是“不”,那么基于当前信息,这将与所提供的证据和推理相矛盾。
3.**再推理(Re-reasoning)**
-双子塔的高度是1,362英尺。
-帝国大厦的高度是1,250英尺。
-1,362英尺大于1,250英尺。
-因此,双子塔的高度超过了帝国大厦。
评估结果:推理过程正确,双子塔的高度超过了帝国大厦。
评估者基于所提供的内容进行了详细的分析和解释。在这个案例中,由于篇幅限制我们忽略了其他推理者的相似推理过程,所有智能体最终在第一轮达成一致,并将“是的”作为最终回答。
示例二:
考虑一个用户的输入的知识推理问题示例,“哪个词与其他词不同?(A)小丑(B)房间(C)国王(D)老师”同样,系统会调用数个推理者对该问题进行推理,其中一个推理者的推理过程如下(注意,红色部分为智能体产生的事实错误或推理错误内容,下同):
1.**概念解释(Concept Explanation)**
-"不像其他的"意味着某个选项与其他选项不同或不属于同一类别}。
2.**子问题分解(Subquestion Decomposition)**
-子问题1:选项的共同特征或类别是什么?
-回答:所有选项都是名词,但它们没有共同的特征。
-子问题2:哪个选项与其他选项不同或者不属于?
-回答:很难确定哪个选项与其他选项不同。
3.**推理(Reasoning)**
-根据上述推理,我无法确定哪个选项与其他的不同。
答案:无法确定
评估者对上述解决方案的评估如下:
1.**非因果评估(Non-causal Evaluation)**
-"不像其他的"的解释很清晰。
-子问题2的答案是错误的。解决方案错误地得出结论,认为很难确定哪个选项与其他选项不同,但实际上并非如此基于常见的特征或类别,我们可以确定哪个选项是不同的。因此最终答案是错误的。
2.**反事实推理(Counterfactual reasoning)**
-如果我们认为“房间”是答案,它与其他选项的常见特征或类别不符。其他选项都是职业或角色(小丑,国王,老师),而“房间”是一个物理空间或位置。在这种情况下没有矛盾。事实上,它纠正了最初的错误,即错误地认为很难确定哪个选项与其他选项不同。
3.**再推理(Re-reasoning)**
-首先,确定选项之间的共同特征。经过检查,“小丑”、“国王”和“老师”都是职业或角色。但是,“房间”与这种常见的特征或类别不符。它是一个物理空间或位置,而不是职业或角色。因此,最可能的答案是(B)房间。
评估结果:错误,答案应是(B)房间。
在这个示例中,推理者在问题分解过程中感到困惑,因此不能提供一个区分性的答案。然而评估者可以:1)识别推理者所犯的错误,即在子问题分解步骤中的混淆;2)通过反事实推理,它结合事实知识来支持反事实答案,并在应用它时没有发现矛盾,即“其他选项都是职业或角色(小丑、国王、教师),而房间是一个物理空间或位置”。3)最后,它将最终选择更正为正确答案,即(B)房间。
作为对比,以下是一个基于思维链的系统给出的推理:
选项A、B和D都是指代人或地方的名词。选项C,“国王”,也指的是一个人。因此,与其他选项不同的词是“国王”。
答案:(B)国王。
其错误地认为“国王”不具备“人或地方地名词”的特征,或是没有理解用户问题的要求,使得系统未能找到大部分词的共同特征,导致最终结果出错。
在本申请所提供的实施例中,应该理解到,可以以硬件、软件、固件、中间件、代码或其任何恰当组合来实现这里描述的实施例。对于硬件实现,处理器可以在一个或多个下列单元中实现:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、设计用于实现这里所描述功能的其他电子单元或其组合。对于软件实现,实施例的部分或全部流程可以通过计算机程序来指令相关的硬件来完成。实现时,可以将上述程序存储在计算机可读存储介质中或作为计算机可读存储介质上的一个或多个指令或代码进行传输。计算机可读存储介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是计算机能够存取的任何可用介质。计算机可读存储介质可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质。
最后应说明的是:以上所述仅为本申请的优选实施例而已,并不用于限制本申请,尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (5)

1.一种基于大语言模型的多智能体协同知识推理方法,其特征在于,该方法包括以下步骤:
对于给定的知识推理问题,通过多轮推理阶段及检验阶段进行准确的知识推理;其中,所述推理阶段包括:多个基于大语言模型的推理者通过因果方向上的程序化推理过程给出答案;所述程序化推理依次包括概念解释、子问题分解、推理生成和答案合成;
所述检验阶段包括:多个基于大语言模型的评估者通过非因果方向上的因果一致性检验过程检查所述推理者给出的答案是否能从问题中推断出来,并运用反事实推理来验证原有答案的正确性;所述因果一致性检验过程包括非因果评估、反事实评估以及重新考虑和答案合成;
所述推理者在所述推理阶段中的算法内容包括:
若干个推理者平行地生成各自的解决方案(S0,S1,…,Sn),其中,每个解决方案中均包括对应的最终结果所有的解决方案和最终结果构成的答案池A;
所述评估者在所述检验阶段中的算法内容包括:
在答案池A中筛选出结果Aj
当结果Aj在答案池A中出现的概率Pr(Aj)大于预设的阈值th0时,评估者随机从答案池A中提取一个不同于结果Aj的反事实答案来挑战结果Aj;评估者在评估结果Aj对应的解决方案Sj后生成一个该解决方案Sj修订的答案当评估者认可结果Aj时,即则将结果Aj作为最终答案进行输出,否则进入下一轮的推理阶段及检验阶段;
当结果Aj在案池A中出现的概率Pr(Aj)小于预设的阈值th0时,选择答案池A中除结果Aj之外的所有结果,并对每一个结果进行评估,直至出现一个结果在答案池A中出现的概率大于预设的阈值th0时,将该结果作为最终答案进行输出,否则,进入下一轮的推理阶段及检验阶段;
所述非因果评估包括:在非因果方向上,评估者利用所述程序化推理过程中的任意一个步骤过程作为推理的上下文,通过依照提示指令逐步检查所述程序化推理过程中的每一步;
所述反事实评估包括:评估者将一个反事实答案应用到给定的知识推理问题中,并寻找潜在矛盾;所述反事实答案为与所述推理者给出的答案中不同的候选答案;
所述重新考虑和答案合成包括:当所述非因果评估和所述反事实评估中出现任何因果不一致性时,评估者将反事实答案的相对优点与初始响应进行评估,并基于该评估结果给出修改后的答案,否则,评估者将所述推理者给出的答案进行输出。
2.根据权利要求1所述的基于大语言模型的多智能体协同知识推理方法,其特征在于,所述概念解释包括:基于给定的知识推理问题,解释必要的概念或原则;所述概念解释用于阐明技术术语、概念和原理,所述概念解释通过提示驱动一个大语言模型对与用户输入问题相关的概念或知识进行检索得到。
3.根据权利要求2所述的基于大语言模型的多智能体协同知识推理方法,其特征在于,所述子问题分解包括:将给定的知识推理问题分解为若干个子问题,并对每个子问题进行解决,将得到的答案进行存储;所述子问题分解通过大语言模型自主规划生成,子问题之间具有引导大语言模型朝向最终答案进行推理的逻辑或依赖性。
4.根据权利要求3所述的基于大语言模型的多智能体协同知识推理方法,其特征在于,所述推理生成包括:基于问题分解得到的若干个子问题和知识阐述生成完整的推理过程。
5.根据权利要求4所述的基于大语言模型的多智能体协同知识推理方法,其特征在于,所述答案合成包括:基于所述推理过程和所述子问题分解生成解决方案对应的答案。
CN202311679361.9A 2023-12-08 2023-12-08 一种基于大语言模型的多智能体协同知识推理框架与系统 Active CN117744795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311679361.9A CN117744795B (zh) 2023-12-08 2023-12-08 一种基于大语言模型的多智能体协同知识推理框架与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311679361.9A CN117744795B (zh) 2023-12-08 2023-12-08 一种基于大语言模型的多智能体协同知识推理框架与系统

Publications (2)

Publication Number Publication Date
CN117744795A CN117744795A (zh) 2024-03-22
CN117744795B true CN117744795B (zh) 2024-08-16

Family

ID=90255562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311679361.9A Active CN117744795B (zh) 2023-12-08 2023-12-08 一种基于大语言模型的多智能体协同知识推理框架与系统

Country Status (1)

Country Link
CN (1) CN117744795B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118467709B (zh) * 2024-07-11 2024-09-24 浪潮电子信息产业股份有限公司 视觉问答任务的评价方法、设备、介质及计算机程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1435780A (zh) * 2003-03-04 2003-08-13 杨炳儒 一种Web挖掘系统的构造方法
CN115329054A (zh) * 2022-06-01 2022-11-11 赵慧雅 一种面向复杂性问题的开放域问答系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015077708A1 (en) * 2013-11-22 2015-05-28 Cambridge Social Science Decision Lab Inc. Methods, systems, and articles of manufacture for the management and identification of causal knowledge
WO2016153790A1 (en) * 2015-03-23 2016-09-29 Oracle International Corporation Knowledge-intensive data processing system
US11176465B2 (en) * 2018-11-13 2021-11-16 Diveplane Corporation Explainable and automated decisions in computer-based reasoning systems
CN112766505B (zh) * 2021-01-12 2024-04-05 深圳大学 非单调推理在逻辑动作语言系统刻画中的知识表示方法
CN113420111B (zh) * 2021-06-17 2023-08-11 中国科学院声学研究所 一种用于多跳推理问题的智能问答方法及装置
CN114780707B (zh) * 2022-06-21 2022-11-22 浙江浙里信征信有限公司 基于多跳推理联合优化的多跳问题回答方法
CN115878794A (zh) * 2022-10-08 2023-03-31 天道金科股份有限公司 基于文本分类的候选段落生成及多跳问题回答方法
CN116502648A (zh) * 2023-03-10 2023-07-28 中国舰船研究院(中国船舶集团有限公司第七研究院) 一种基于多跳推理的机器阅读理解语义推理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1435780A (zh) * 2003-03-04 2003-08-13 杨炳儒 一种Web挖掘系统的构造方法
CN115329054A (zh) * 2022-06-01 2022-11-11 赵慧雅 一种面向复杂性问题的开放域问答系统

Also Published As

Publication number Publication date
CN117744795A (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
Ohlsson Learning from performance errors.
CN117744795B (zh) 一种基于大语言模型的多智能体协同知识推理框架与系统
CN112257966B (zh) 模型处理方法、装置、电子设备及存储介质
CN110991195B (zh) 机器翻译模型训练方法、装置及存储介质
CN107544960B (zh) 一种基于变量绑定和关系激活的自动问答方法
van Rooij Psychological science needs theory development before preregistration
CN113392197B (zh) 问答推理方法、装置、存储介质及电子设备
CN114021722A (zh) 一种融合认知刻画的注意力知识追踪方法
Chaplot et al. Learning cognitive models using neural networks
Mosenthal The problem of partial specification in translating reading research into practice
Terada et al. Code completion for programming education based on deep learning
CN114490980A (zh) 一种关联知识追踪方法、装置及设备
CN117453898A (zh) 基于思维链的跨模态问答的处理方法和装置
Lehmann Mathematical modelling as a vehicle for eliciting algorithmic thinking
CN114997461B (zh) 一种联合学习与遗忘的时间敏感的答题正确性预测方法
CN114117033B (zh) 知识追踪方法及系统
Osman et al. The future of problem solving research is not complexity, but dynamic uncertainty
CN114925610A (zh) 一种学习者知识结构与水平建模方法、系统、设备及终端
CN114444448A (zh) 一种视觉问答方法、装置、电子设备、介质及程序产品
CN113919983A (zh) 试题画像方法、装置、电子设备和存储介质
Dougherty Partnering people with deep learning systems: human cognitive effects of explanations
CN114155124B (zh) 一种试题资源推荐方法及系统
Pijeira‐Díaz et al. Evaluating Sentence‐BERT‐powered learning analytics for automated assessment of students' causal diagrams
Hrich et al. Artificial Intelligence Item Analysis Tool for Educational Assessment: Case of Large-Scale Competitive Exams
Gomes et al. A Machine Learning Approach for the Identification of Learners' Misconceptions in Algebraic Problem-Solving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant