CN117874208A - 用于实现大模型记忆共享的方法、知识问答方法及其相关设备 - Google Patents
用于实现大模型记忆共享的方法、知识问答方法及其相关设备 Download PDFInfo
- Publication number
- CN117874208A CN117874208A CN202410273038.XA CN202410273038A CN117874208A CN 117874208 A CN117874208 A CN 117874208A CN 202410273038 A CN202410273038 A CN 202410273038A CN 117874208 A CN117874208 A CN 117874208A
- Authority
- CN
- China
- Prior art keywords
- large model
- user
- area
- knowledge
- storing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 230000003993 interaction Effects 0.000 claims description 68
- 238000012545 processing Methods 0.000 claims description 19
- 230000002452 interceptive effect Effects 0.000 claims description 10
- 238000007670 refining Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000010387 memory retrieval Effects 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000010365 information processing Effects 0.000 description 8
- 230000006854 communication Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000004321 preservation Methods 0.000 description 4
- 235000002198 Annona diversifolia Nutrition 0.000 description 3
- 241000282842 Lama glama Species 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种用于实现大模型记忆共享的方法、知识问答方法及其相关设备。所述方法有助于实现大模型在面向多个用户使用的场景下,能够具有类人的记忆能力,并且提炼得到共识信息是基于多数用户询问后具有正确结论的公开事实,而且所有的共识信息在存储至共享记忆区之前已经进行了去除隐私处理,从而保障了用户的隐私信息不会被泄漏。最终实现大模型具有自我分辨能力、输出能力。
Description
技术领域
本申请涉及语言模型技术领域,具体涉及用于实现大模型记忆共享的方法、知识问答方法及其相关设备。
背景技术
自然语言大模型目前存在的一个显著问题是当用户A告诉大模型一个知识点或信息后,用户B去询问是无法获取用户A告诉大模型的内容。原因有:1.自然语言大模型部署后,已经训练后的参数是不可改变的,因此无法更新大模型内部参数;2.通用部署方案来说,大模型的用户之间是相互独立的,即用户A与用户B在同时与大模型进行交流时,用户A分享给大模型的信息,用户B是无法获取到的。
发明内容
有鉴于此,本发明提供了一种用于实现大模型记忆共享的方法、知识问答方法及其相关设备,以实现自然语言大模型具有共享记忆的能力,并实现自然语言大模型具有自我分辨能力、输出能力。
根据本申请的第一方面,提供了一种用于实现大模型记忆共享的方法,所述方法包括:
创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
在一些实施方式中,所述将所述用户的输入和对应的回答结果存储在所述完整保存区的方法包括:
获取每个用户在输入的时的用户ID;
针对每个用户ID,基于时间线将隶属于该用户ID的所有交互记录独立存储在所述完整保存区中的存储节点。
在一些实施方式中,所述从所述完整保存区读取数据,提炼共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息的方法包括:
针对每个用户与所述大模型的所有交互记录,去除该用户与所述大模型的所有交互记录中的用户隐私属性;
基于所述大模型的编写知识摘要生成的能力,编写对应交互内容的摘要,并提取对应的关键词;
统计关键词的频次;
将频次出现超过预设阈值的关键词,通过知识的语义相似度,对其相关联的知识进行分类,以更高一级的提炼知识,从而得到所述共识信息。
在一些实施方式中,所述方法还包括:
从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结,并将提炼总结后的共识信息存储在所述共享记忆区。
在一些实施方式中,所述从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结的方法包括:
提取所有的共识信息中的关键词,针对频次超过预设阈值的关键词,对其相关联的知识进行分类;
针对隶属于同一类别的知识进行归纳总结,得到总结后的共识信息,并将总结后的共识信息覆盖掉在归纳总结之前的该类别下的共识信息。
在一些实施方式中,所述方法还包括:基于相同的数据格式在所述交互保存区和在所述完整保存区各自进行存储。
根据本申请的第二方面,提供了一种知识问答方法,所述方法包括:
获取目标问题,并根据所述目标问题输出初始的第一回答结果;
将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储如第一方面任一所述的用于实现大模型记忆共享的方法得到的共识信息;
将初始的第一回答结果与所述第一检索结果进行融合,以得到完善的第一回答结果。
在一些实施方式中,所述方法还包括:
将所述目标问题及其对应的已完善的第一回答结果更新存储至所述共享记忆区。
在一些实施方式中,所述方法还包括:
基于所述目标问题所对应的用户ID,将所述目标问题及其对应的已完善的第一回答结果存储至所述完整保存区中对应的存储节点。
在一些实施方式中,所述方法还包括:
基于所述目标问题所对应的用户ID,判断该用户ID是否在所述完整保存区的存储记录中,在是的情形下,则将所述目标问题输入至所述完整保存区,以根据所述目标问题进行检索,得到与所述目标问题相关联的目标会话内容;将所述目标会话内容与所述第一检索结果进行融合,得到综合后的第二检索结果;
将初始的第一回答结果与所述第二检索结果进行融合,以得到进一步完善的第一回答结果。
根据本申请的第三方面,提供了一种用于实现大模型记忆共享的装置,所述装置包括:
创建模块,所述创建模块用于创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
获取模块,所述获取模块用于获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
处理模块,所述处理模块用于从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
根据本申请的第四方面,提供了一种知识问答装置,所述装置包括:
问答模块,所述问答模块用于获取目标问题,并根据所述目标问题输出初始的第一回答结果;
检索模块,所述检索模块用于将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储如第三方面所述的装置得到的共识信息;
融合模块,所述融合模块用于将初始的第一回答结果与所述第一检索结果进行融合,得到完善的第一回答结果。
根据本申请的第五方面,提供了一种电子设备,包括存储器、处理器及其存储在所述存储器并在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一所述的方法或如第二方面任一所述的方法中的步骤。
根据本申请的第六方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被处理器加载以执行如第一方面任一所述的方法或如第二方面任一所述的方法中的步骤。
本申请提供的用于实现大模型记忆共享的方法、知识问答方法及其相关设备,在用于实现大模型记忆共享的方法中,首先通过创建大模型的交互保存区、完整保存区以及共享记忆区,然后获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;接着从所述完整保存区读取数据,并基于所述大模型的理解能力提炼共识信息,对所述共识信息进行去除隐私处理,以及将去除隐私处理后的共识信息存储至所述大模型的共享记忆区。
因此,本申请有助于实现大模型在面向多个用户使用的场景下,能够具有类人的记忆能力,并且提炼得到共识信息是基于多数用户询问后具有正确结论的公开事实,而且所有的共识信息在存储至共享记忆区之前已经进行了去除隐私处理,从而保障了用户的隐私信息不会被泄漏。最终实现大模型具有自我分辨能力、输出能力。
附图说明
下面结合附图,通过对本申请的具体实施方式详细描述,将使本申请的技术方案及其它有益效果显而易见。
图1A是本申请实施例提供的一种用于实现大模型记忆共享的方法的流程示意图一。
图1B是本申请实施例提供的一种用于实现大模型记忆共享的方法的流程示意图二。
图2是本申请实施例提供的一种用于实现大模型记忆共享的方法在初始阶段进行信息加工的流程框图。
图3是本申请实施例提供的一种用于实现大模型记忆共享的方法在共享记忆创建阶段进行信息加工的流程框图。
图4是本申请实施例提供的一种知识问答方法的流程示意图。
图5是本申请实施例提供的一种知识问答方法在用户使用阶段进行信息加工的流程框图。
图6是本申请实施例提供的一种知识问答方法在更新阶段进行信息加工的流程框图。
图7是本申请实施例提供的一种用于实现大模型记忆共享装置的结构框图。
图8是本申请实施例提供的一种知识问答装置的结构框图。
图9是本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。
以下对本发明涉及的技术术语进行描述:
大语言模型,例如ChatGPT和LLaMA,是基于深度学习框架,例如Transformer模型,其结构可以包含多个层和大量的参数。大语言模型能够学习到语言的语法、句法结构、词汇和语义等信息,并可以通过输入文本生成相应的输出文本。
ChatGPT是由OpenAI开发的一种大语言模型,通过对大量互联网文本进行预训练而得到。它被设计用于生成与用户的对话交互类似的回复。ChatGPT具有强大的语言理解和生成能力,并可以产生连贯、相关的对话回复。
LLaMA是由Allen Institute for Artificial Intelligence (AI2)提出的一种大语言模型,旨在支持问答任务。LLaMA是基于BERT模型架构的改进版本,通过扩展预训练和微调阶段来提高问答能力。
在大语言模型中,可以包括大模型问题解析模块、大模型计算模块和大模型问答模块等模块,以处理不同的任务。
有鉴于背景技术提到的问题,本申请的目的是为了能够提供一种用于实现大模型记忆共享的方法、知识问答方法及其相关设备,以实现自然语言大模型具有共享记忆的能力,并实现自然语言大模型具有自我分辨能力、输出能力。
在本申请实施例中,首先定义了信息共享前提条件,例如包括:
前提1:不能共享用户的个人隐私信息,其中,个人隐私信息例如包含登录信息、用户信息等。
前提2:大模型在可以共享的信息,是经过大模型“自我思考”后的信息。
前提3:本申请设计方案是面向大模型系统,要求大模型自身是通过decode-only、encode-only或者decode-encode模式训练出来的,参数规模在70亿以上。
上述前提1保证了用户隐私,前提2保证了信息是加工后的,具有一定的可信度,前提3说明本申请面向的是大模型方案。
基于以上三个前提条件,保证了本申请的技术方案是对用户无害的、诚实的、有帮助的。
图1A是本申请实施例提供的一种用于实现大模型记忆共享的方法的流程示意图一,图2是本申请实施例提供的一种用于实现大模型记忆共享的方法在初始阶段进行信息加工的流程框图,图3是本申请实施例提供的一种用于实现大模型记忆共享的方法在共享记忆创建阶段进行信息加工的流程框图。
参考图1A、图2、图3所示,本申请一实施例提供了一种用于实现大模型记忆共享的方法,所述方法包括:
步骤S101,创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
步骤S102,获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
步骤S103,从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
以下将针对上述步骤S101~S103进行具体描述。
在步骤S101中,创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录。
在本实施例中,第一步,创建交互保存区、完整保存区以及共享记忆区。
具体地,交互保存区:定义为一个持久的保存区域,具体可以是数据库,用于保存用户与大模型的每次交互。需要说明的是,在交互保存区中,对于每个独立的用户的每次使用,都是单独保存的。从细节上可以理解为保存所有用户当前的交互记录,交互保存区是所有用户的数据信息收集区域,但是保存了相关的用户id,会话id,时间等信息,以用于后续完整保存区中的数据的整理。也即,当存在多人交互的场景下,交互保存区中的存储记录往往显得比较混乱。
完整保存区:定义为一个持久的保存区域,具体可以是数据库,保存用户与大模型的多轮对话交互信息。
共享记忆区:定义为一个持久的保存区域,具体可以是数据库,保存大模型从完整保存区提炼的共性知识。
在步骤S102中,获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区。
在本实施例中,由于用户的输入具有一定的随机性,同时用户的输入可能是具体的问题,也可能是具有知识型的输入,亦或者是具有部分隐私信息的输入。因此,在初始化阶段,不区分用户的输入内容,此时在实现的过程中,会定义两个存储区域,分别是交互保存区与完整保存区。如图2所示,对于所有用户与大模型的每次交互全部会存储在交互保存区。对于整理后的每个用户与大模型的所有交互记录会以单独存储的方式独立存储在完整保存区中的存储节点上。
示例性地,所述将所述用户的输入和对应的回答结果存储在所述完整保存区的方法包括:获取每个用户在输入时的用户ID;针对每个用户ID,基于时间线将隶属于该用户ID的所有交互记录独立存储在所述完整保存区中的存储节点。从而实现将每个用户与大模型的所有交互记录以单独存储的方式独立存储在完整保存区中的存储节点上。
进一步地,为了便于数据的分类及整理,所述方法还包括:基于相同的数据格式在所述交互保存区和在所述完整保存区各自进行存储。
示例性地,使用JSON数据格式将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区。其中,JSON数据格式如下:
{
"input":"user some questions",
"llm_output":"large language model response for user input"
}
在步骤S103中,从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
在本实施例中,由于完整保存区中独立保存了所有用户的交互记录与信息,因此,可在大模型的系统后台,设计一个单独的进程来读取完整保存区中的数据。如图3所示,通过提取完整保存区中的共同信息,并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到提炼总结后的共识信息,并将所述共识信息存储至所述大模型的共享记忆区。需要说明的是,在本实施例中,从完整保存区提取得到的共同信息先输入至大模型识别之后再将其存储至共享记忆区的主要缘由是:不能泄露用户的隐私信息,从而提炼出一些具有共识的信息,比如都在问某个疾病的知识,或者都在询问最近发生的某个公共事件等。
示例性地,所述从所述完整保存区读取数据,提炼共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息的方法包括:
针对每个用户与所述大模型的所有交互记录,去除该用户与所述大模型的所有交互记录中的用户隐私属性;
基于所述大模型的编写知识摘要生成的能力,编写对应交互内容(对话)的摘要,并提取对应的关键词;
统计关键词的频次;
将频次出现超过预设阈值的关键词,通过知识的语义相似度,对其相关联的知识进行分类,以更高一级的提炼知识,从而得到所述共识信息。
图1B是本申请实施例提供的一种用于实现大模型记忆共享的方法的流程示意图二。
结合图1B所示,为了提升共享记忆区存储的共识信息的准确度,所述方法还包括:
步骤S104,从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结,并将提炼总结后的共识信息存储在所述共享记忆区。
进一步地,为了节省共享记忆区的存储空间,从而对存储资源进行优化配置,在本实施例中,所述从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结的方法包括:
提取所有的共识信息中的关键词,针对频次超过预设阈值的关键词,对其相关联的知识进行分类;
针对隶属于同一类别的知识进行归纳总结,得到总结后的共识信息,并将总结后的共识信息覆盖掉在归纳总结之前的该类别下的共识信息。
应理解,上述通过将总结后的共识信息覆盖掉在归纳总结之前的该类别下的共识信息的方案,在完善共识信息准确度的同时还能够在一定程度上提升共识信息的精简度,使得共享记忆区中所存储的共识信息既准确又精炼。
图4是本申请实施例提供的一种知识问答方法的流程示意图,图5是本申请实施例提供的一种知识问答方法在用户使用阶段进行信息加工的流程框图,图6是本申请实施例提供的一种知识问答方法在更新阶段进行信息加工的流程框图。
参考图4-图6所示,本申请一实施例提供了一种知识问答方法,所述方法包括:
步骤S201,获取目标问题,并根据所述目标问题输出初始的第一回答结果;
步骤S202,将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储前述的用于实现大模型记忆共享的方法得到的共识信息;
步骤S203,将初始的第一回答结果与所述第一检索结果进行融合,以得到完善的第一回答结果。
以下将针对上述步骤S202进行具体描述。
在步骤S202中,将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储前述的用于实现大模型记忆共享的方法得到的共识信息。
具体地,如图5所示,在用户的使用过程中,用户的完整的交互内容会被记录及保存,同时大模型基于用户输入会执行记忆检索,此时检索的即前述的共享记忆区。大模型将检索到的信息(第一检索结果),融合到用户的输入中,基于大模型的上下文学习能力,综合输出结果(完善的第一回答结果)。
在步骤S203中,将初始的第一回答结果与所述第一检索结果进行融合,以得到完善的第一回答结果。
应理解,在本实施例中,基于用户与所述大模型的每次交互,所述大模型能够实时获取所述共享记忆区中的数据。
在一些实施方式中,为了更完整记录每个用户的问题及回答结果,大模型基于所述目标问题所对应的用户ID,将所述目标问题及其对应的已完善的第一回答结果存储至所述完整保存区中对应的存储节点。
在一些实施方式中,为了进一步更新完善之前的回答结果,大模型将所述目标问题及其对应的已完善的第一回答结果更新存储至所述共享记忆区。
示例性地,如图6所示,基于用户与大模型的交互,大模型后台会自动更新共享记忆区,同时用户与大模型的交互可以实时获取共享记忆区的内容。需要说明的是,在实现过程中,用户交互流程与大模型的自我更新流程是两个独立的进程,大模型的自我更新流程是后台进程,用户无感知。
在一些实施例中,所述方法还包括:
基于所述目标问题所对应的用户ID,判断该用户ID是否在所述完整保存区的存储记录中,在是的情形下,则将所述目标问题输入至所述完整保存区,以根据所述目标问题进行检索,得到与所述目标问题相关联的目标会话内容;将所述目标会话内容与所述第一检索结果进行融合,得到综合后的第二检索结果;
将初始的第一回答结果与所述第二检索结果进行融合,以得到进一步完善的第一回答结果。
也即,通过判断输入时的用户ID,来对该用户ID进行个性化的检索输出,如找到其个人在完整保存区中的会话记录,采用联想记忆的方式将其当前的输入并关联其个人的历史会话记录,检索出与当前输入相关联的目标会话内容,并将目标会话内容与从共享记忆区中检索得到的第一检索结果进行融合,从而综合输出更高一级的共识信息的记忆检索结果。
示例性地,某用户A向大模型输入一个物理知识的问题,大模型通过判断该用户A并非第一次输入询问,例如,发现在一天前,两天前、三天前,该用户A都在问有关物理知识的问题,那么大模型会将当前物理知识的问题输入至完整保存区中对应用户A的存储节点,以根据当前物理知识的问题进行联想记忆检索,检索出与当前输入相关联的目标会话内容,大模型随后将目标会话内容与从共享记忆区中检索得到的第一检索结果进行融合,得到对应该用户A的综合后的检索结果。
应理解,对于任一个用户与大模型的交互,大模型后台可以进行检索其个人的完整保存区与共享记忆区的内容,从而综合回应用户当前的交流话题,实现了大模型的类人记忆能力。例如,实现的过程中用户A的交流过程中不可以去检索非用户A的完整保存区。
根据本申请的又一方面,提供了一种用于实现大模型记忆共享装置。
图7是本申请实施例提供的一种用于实现大模型记忆共享装置的结构框图。
如图7所示,所述装置300包括:
创建模块310,所述创建模块用于创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
获取模块320,所述获取模块用于获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
处理模块330,所述处理模块用于从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
需要说明的是,本实施例提供的用于实现大模型记忆共享的装置,可以执行本申请实施例(如执行步骤S101至步骤S104的实施例)所述的用于实现大模型记忆共享方法,其实现原理和技术效果类似,在此不再赘述。
根据本申请的又一方面,提供了一种知识问答装置。
图8是本申请实施例提供的一种知识问答装置的结构框图。
如图8所示,所述装置400包括:
问答模块410,所述问答模块用于获取目标问题,并根据所述目标问题输出初始的第一回答结果;
检索模块420,所述检索模块用于将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于前述的装置300得到的共识信息;
融合模块430,所述融合模块用于将初始的第一回答结果与所述第一检索结果进行融合,得到完善的第一回答结果。
需要说明的是,本实施例提供的知识问答装置,可以执行本申请实施例(如执行步骤S201至步骤S203的实施例)所述的知识问答方法,其实现原理和技术效果类似,在此不再赘述。
图9是本发明实施例提供的电子设备的结构示意图。
如图9所示,该电子设备可以包括:处理器(Processor)710、通信接口(Communications Interface)720、存储器(Memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行前面所描述的任一种用于实现大模型记忆共享的方法或者知识问答方法中的步骤。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
此外,本申请还提供一种计算机存储介质,其存储有计算机程序,该计算机程序能够被处理器加载以执行前面所描述的任一种用于实现大模型记忆共享的方法或者知识问答方法中的步骤。
对上述步骤的具体限定和实现方式可以参看用于实现大模型记忆共享的方法的实施例,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本申请提供的用于实现大模型记忆共享的方法、知识问答方法及其相关设备,在用于实现大模型记忆共享的方法中,首先通过创建大模型的交互保存区、完整保存区以及共享记忆区,然后获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;接着从所述完整保存区读取数据,并基于所述大模型的理解能力提炼共识信息,对所述共识信息进行去除隐私处理,以及将去除隐私处理后的共识信息存储至所述大模型的共享记忆区。
因此,本申请的技术方案有助于实现大模型在面向多个用户使用的场景下,能够具有类人的记忆能力,并且提炼得到共识信息是基于多数用户询问后具有正确结论的公开事实,而且所有的共识信息在存储至共享记忆区之前已经进行了去除隐私处理,从而保障了用户的隐私信息不会被泄漏。最终实现大模型具有自我分辨能力、输出能力。
本申请提出的技术方案在工业机器人、家用机器人上均可以进行应用,具有广阔的应用前景。例如,现有的家用机器人、教育机器人、娱乐机器人、搬运机器人、养老助残机器人等细分场景。但是不管哪一种机器人,采用本申请提出的技术方案所涉及的共享记忆区的技术加持后,可以帮助机器人记住用户的交互历史与指令历史等。后续机器人相关领域可以做到更加类人化的效果。
采用本申请提供的用于实现大模型记忆共享的方法、知识问答方法及相关设备解决了大模型在记忆上的缺陷问题。有助于在通用人工智能领域方向,使得自然语言大模型在认知智能方面的发展提供一个解决方案。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上对本申请实施例所提供的用于实现大模型记忆共享的方法、知识问答方法及其相关设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的技术方案及其核心思想;本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例的技术方案的范围。
Claims (14)
1.一种用于实现大模型记忆共享的方法,其特征在于,所述方法包括:
创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
2.根据权利要求1所述的用于实现大模型记忆共享的方法,其特征在于,所述将所述用户的输入和对应的回答结果存储在所述完整保存区的方法包括:
获取每个用户在输入时的用户ID;
针对每个用户ID,基于时间线将隶属于该用户ID的所有交互记录独立存储在所述完整保存区中的存储节点。
3.根据权利要求2所述的用于实现大模型记忆共享的方法,其特征在于,所述从所述完整保存区读取数据,提炼共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息的方法包括:
针对每个用户与所述大模型的所有交互记录,去除该用户与所述大模型的所有交互记录中的用户隐私属性;
基于所述大模型的编写知识摘要生成的能力,编写对应交互内容的摘要,并提取对应的关键词;
统计关键词的频次;
将频次出现超过预设阈值的关键词,通过知识的语义相似度,对其相关联的知识进行分类,以更高一级的提炼知识,从而得到所述共识信息。
4.根据权利要求1所述的用于实现大模型记忆共享的方法,其特征在于,所述方法还包括:
从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结,并将提炼总结后的共识信息存储在所述共享记忆区。
5.根据权利要求4所述的用于实现大模型记忆共享的方法,其特征在于,所述从所述共享记忆区读取数据,并基于所述大模型的理解能力对所述共识信息进行自我验证,以进一步提炼总结的方法包括:
提取所有的共识信息中的关键词,针对频次超过预设阈值的关键词,对其相关联的知识进行分类;
针对隶属于同一类别的知识进行归纳总结,得到总结后的共识信息,并将总结后的共识信息覆盖掉在归纳总结之前的该类别下的共识信息。
6.根据权利要求1所述的用于实现大模型记忆共享的方法,其特征在于,所述方法还包括:
基于相同的数据格式在所述交互保存区和在所述完整保存区各自进行存储。
7.一种知识问答方法,其特征在于,所述方法包括:
获取目标问题,并根据所述目标问题输出初始的第一回答结果;
将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储如权利要求1至6中任意一项所述的用于实现大模型记忆共享的方法得到的共识信息;
将初始的第一回答结果与所述第一检索结果进行融合,以得到完善的第一回答结果。
8.根据权利要求7所述的知识问答方法,其特征在于,所述方法还包括:
将所述目标问题及其对应的已完善的第一回答结果更新存储至所述共享记忆区。
9.根据权利要求7所述的知识问答方法,其特征在于,所述方法还包括:
基于所述目标问题所对应的用户ID,将所述目标问题及其对应的已完善的第一回答结果存储至所述完整保存区中对应的存储节点。
10.根据权利要求7所述的知识问答方法,其特征在于,所述方法还包括:
基于所述目标问题所对应的用户ID,判断该用户ID是否在所述完整保存区的存储记录中,在是的情形下,则将所述目标问题输入至所述完整保存区,以根据所述目标问题进行检索,得到与所述目标问题相关联的目标会话内容;将所述目标会话内容与所述第一检索结果进行融合,得到综合后的第二检索结果;
将初始的第一回答结果与所述第二检索结果进行融合,以得到进一步完善的第一回答结果。
11.一种用于实现大模型记忆共享的装置,其特征在于,所述装置包括:
创建模块,所述创建模块用于创建大模型的交互保存区、完整保存区以及共享记忆区,其中,所述交互保存区用于存储用户与所述大模型的每次交互,所述完整保存区用于独立存储每个用户与所述大模型的所有交互记录;
获取模块,所述获取模块用于获取用户的输入,并根据所述用户的输入输出对应的回答结果,将所述用户的输入和对应的回答结果存储在所述交互保存区和所述完整保存区;
处理模块,所述处理模块用于从所述完整保存区读取数据,以提取共同信息并进行去除隐私处理,以及基于所述大模型的理解能力提炼总结知识,以得到共识信息,并将所述共识信息存储至所述大模型的共享记忆区。
12.一种知识问答装置,其特征在于,所述装置包括:
问答模块,所述问答模块用于获取目标问题,并根据所述目标问题输出初始的第一回答结果;
检索模块,所述检索模块用于将所述目标问题输入至大模型的共享记忆区,以执行记忆检索,得到第一检索结果,其中,所述共享记忆区用于存储如权利要求11所述的装置得到的共识信息;
融合模块,所述融合模块用于将初始的第一回答结果与所述第一检索结果进行融合,得到完善的第一回答结果。
13.一种电子设备,包括存储器、处理器及其存储在所述存储器并在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任意一项所述的方法或如权利要求7至10中任意一项所述的方法中的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被处理器加载以执行如权利要求1至6中任意一项所述的方法或如权利要求7至10中任意一项所述的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410273038.XA CN117874208B (zh) | 2024-03-11 | 用于实现大模型记忆共享的方法、知识问答方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410273038.XA CN117874208B (zh) | 2024-03-11 | 用于实现大模型记忆共享的方法、知识问答方法及其相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117874208A true CN117874208A (zh) | 2024-04-12 |
CN117874208B CN117874208B (zh) | 2024-06-07 |
Family
ID=
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312375A (ja) * | 2001-04-18 | 2002-10-25 | Lealcom Kk | 知識転換・共有促進方法およびシステム |
JP2004029889A (ja) * | 2002-06-21 | 2004-01-29 | Kunimasa Noda | 知識共有サーバ |
CN108509519A (zh) * | 2018-03-09 | 2018-09-07 | 北京邮电大学 | 基于深度学习的通用知识图谱增强问答交互系统及方法 |
CN108763494A (zh) * | 2018-05-30 | 2018-11-06 | 苏州思必驰信息科技有限公司 | 对话系统间的知识分享方法、对话方法及装置 |
CN108984778A (zh) * | 2018-07-25 | 2018-12-11 | 南京瓦尔基里网络科技有限公司 | 一种智能交互自动问答系统以及自我学习方法 |
KR20190085823A (ko) * | 2018-01-11 | 2019-07-19 | 한국전자통신연구원 | 개인 정보 보호가 가능한 개인화된 질의응답 시스템, 클라우드 서버 및 이의 공통 신경망 모델 제공 방법 |
US20200167428A1 (en) * | 2018-11-26 | 2020-05-28 | International Business Machines Corporation | Utilizing external knowledge and memory networks in a question-answering system |
US20210406270A1 (en) * | 2020-06-30 | 2021-12-30 | Microsoft Technology Licensing, Llc | Leveraging Interlinking Between Information Resources to Determine Shared Knowledge |
CN115510194A (zh) * | 2022-10-12 | 2022-12-23 | 中国农业银行股份有限公司 | 问答语句检索方法、装置、电子设备及存储介质 |
WO2023161630A1 (en) * | 2022-02-22 | 2023-08-31 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
CN117610649A (zh) * | 2023-12-04 | 2024-02-27 | 羚羊工业互联网股份有限公司 | 知识图谱的构建方法、装置、存储介质及电子设备 |
CN117633178A (zh) * | 2023-11-28 | 2024-03-01 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种多轮问答对话方法、系统、电子设备及可读存储介质 |
CN117669717A (zh) * | 2023-12-04 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于知识增强的大模型问答方法、装置、设备及介质 |
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312375A (ja) * | 2001-04-18 | 2002-10-25 | Lealcom Kk | 知識転換・共有促進方法およびシステム |
JP2004029889A (ja) * | 2002-06-21 | 2004-01-29 | Kunimasa Noda | 知識共有サーバ |
KR20190085823A (ko) * | 2018-01-11 | 2019-07-19 | 한국전자통신연구원 | 개인 정보 보호가 가능한 개인화된 질의응답 시스템, 클라우드 서버 및 이의 공통 신경망 모델 제공 방법 |
CN108509519A (zh) * | 2018-03-09 | 2018-09-07 | 北京邮电大学 | 基于深度学习的通用知识图谱增强问答交互系统及方法 |
CN108763494A (zh) * | 2018-05-30 | 2018-11-06 | 苏州思必驰信息科技有限公司 | 对话系统间的知识分享方法、对话方法及装置 |
CN108984778A (zh) * | 2018-07-25 | 2018-12-11 | 南京瓦尔基里网络科技有限公司 | 一种智能交互自动问答系统以及自我学习方法 |
US20200167428A1 (en) * | 2018-11-26 | 2020-05-28 | International Business Machines Corporation | Utilizing external knowledge and memory networks in a question-answering system |
US20210406270A1 (en) * | 2020-06-30 | 2021-12-30 | Microsoft Technology Licensing, Llc | Leveraging Interlinking Between Information Resources to Determine Shared Knowledge |
WO2023161630A1 (en) * | 2022-02-22 | 2023-08-31 | Unlikely Artificial Intelligence Limited | Computer implemented methods for the automated analysis or use of data, including use of a large language model |
CN115510194A (zh) * | 2022-10-12 | 2022-12-23 | 中国农业银行股份有限公司 | 问答语句检索方法、装置、电子设备及存储介质 |
CN117633178A (zh) * | 2023-11-28 | 2024-03-01 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种多轮问答对话方法、系统、电子设备及可读存储介质 |
CN117610649A (zh) * | 2023-12-04 | 2024-02-27 | 羚羊工业互联网股份有限公司 | 知识图谱的构建方法、装置、存储介质及电子设备 |
CN117669717A (zh) * | 2023-12-04 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于知识增强的大模型问答方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200301954A1 (en) | Reply information obtaining method and apparatus | |
CN108446286B (zh) | 一种自然语言问句答案的生成方法、装置及服务器 | |
CN108363745B (zh) | 机器人客服转人工客服的方法和装置 | |
CN111507099A (zh) | 文本分类方法、装置、计算机设备及存储介质 | |
CN109243468B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN108073587B (zh) | 一种自动问答方法、装置及电子设备 | |
US10839017B2 (en) | Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure | |
CN109408821B (zh) | 一种语料生成方法、装置、计算设备及存储介质 | |
CN106649739B (zh) | 多轮交互信息继承识别方法、装置以及交互系统 | |
CN112667796B (zh) | 一种对话回复方法、装置、电子设备及可读存储介质 | |
CN111563192A (zh) | 实体对齐方法、装置、电子设备及存储介质 | |
CN116881428A (zh) | 一种语言模型训练方法及装置 | |
CN115914148A (zh) | 具有两侧建模的对话智能体 | |
CN114647713A (zh) | 基于虚拟对抗的知识图谱问答方法、设备及存储介质 | |
Huang et al. | Developing context-aware dialoguing services for a cloud-based robotic system | |
CN117251552B (zh) | 基于大型语言模型的对话处理方法、装置及电子设备 | |
CN113901837A (zh) | 一种意图理解方法、装置、设备及存储介质 | |
CN113342945A (zh) | 一种语音会话处理方法及装置 | |
CN117874208B (zh) | 用于实现大模型记忆共享的方法、知识问答方法及其相关设备 | |
CN112927692A (zh) | 一种自动语言交互方法、装置、设备和介质 | |
CN117874208A (zh) | 用于实现大模型记忆共享的方法、知识问答方法及其相关设备 | |
JP7044245B2 (ja) | 対話システム補強装置及びコンピュータプログラム | |
CN113407683A (zh) | 一种文本信息处理方法、装置、电子设备及存储介质 | |
CN111897943A (zh) | 会话记录搜索方法、装置、电子设备及存储介质 | |
CN111126066A (zh) | 基于神经网络的中文修辞手法的确定方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |