CN117725191A - 大语言模型的引导信息生成方法、装置及电子设备 - Google Patents

大语言模型的引导信息生成方法、装置及电子设备 Download PDF

Info

Publication number
CN117725191A
CN117725191A CN202410179992.2A CN202410179992A CN117725191A CN 117725191 A CN117725191 A CN 117725191A CN 202410179992 A CN202410179992 A CN 202410179992A CN 117725191 A CN117725191 A CN 117725191A
Authority
CN
China
Prior art keywords
task
information
processed
target
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410179992.2A
Other languages
English (en)
Other versions
CN117725191B (zh
Inventor
祝伟楠
周勤民
屠静
王亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuo Shi Zhi Xing Tianjin Technology Co ltd
Original Assignee
Zhuo Shi Zhi Xing Tianjin Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuo Shi Zhi Xing Tianjin Technology Co ltd filed Critical Zhuo Shi Zhi Xing Tianjin Technology Co ltd
Priority to CN202410179992.2A priority Critical patent/CN117725191B/zh
Publication of CN117725191A publication Critical patent/CN117725191A/zh
Application granted granted Critical
Publication of CN117725191B publication Critical patent/CN117725191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种大语言模型的引导信息生成方法、装置及电子设备,涉及人工智能技术领域;本申请可以待处理任务的基础描述信息预测辅助描述信息,响应于针对辅助描述信息的确认指令,获取待处理任务匹配的目标模型和引导模板;融合基础描述信息、辅助描述信息以及引导模板的语义,预测多个候选引导信息以及对应的质量参数;根据每个候选引导信息对应的质量参数确定目标引导信息。仅需输入简单的基础描述信息,辅助描述信息可预测得到,并且在用户确定辅助描述信息后,自动利用引导模板预测出目标模型适配的目标引导模型,无需技术人员进行人工适配,编写简单高效,可有效提升引导信息的编写效率。

Description

大语言模型的引导信息生成方法、装置及电子设备
技术领域
本申请涉及人工智能技术领域,具体涉及一种大语言模型的引导信息生成方法、装置及电子设备。
背景技术
大语言模型(Large Language Model,LLM)是指使用大量文本数据训练的深度学习模型,可以理解语言文本的语义或生成自然语言文本。引导信息是一种提供给大语言模型的文本,可用于引导大语言模型完成特定的任务,例如,在和大语言模型对话时,可利用引导信息指导大语言模型给出更加精准的回答。
目前,不同的大语言模型对引导信息有不同的要求,技术人员需要针对不同的大语言模型手动编写其适配的引导信息,编写过程繁琐,导致编写大语言模型的引导信息的效率低下。
发明内容
本申请实施例提供一种大语言模型的引导信息生成方法、装置及电子设备,可以提升大语言模型的引导信息的编写效率。
本申请实施例提供一种大语言模型的引导信息生成方法,该方法包括:
获取待处理任务的基础描述信息,所述基础描述信息包括执行所述待处理任务所需的必要信息;
利用所述基础描述信息预测辅助描述信息,所述辅助描述信息包括辅助执行所述待处理任务的信息;
响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板,所述引导模板为所述目标模型适配的引导信息的模板;
融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个所述候选引导信息对应的质量参数;
根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
本申请实施例还提供一种大语言模型的引导信息生成装置,该装置包括:
获取模块,用于获取待处理任务的基础描述信息,所述基础描述信息包括执行所述待处理任务所需的必要信息;
第一预测模块,用于利用所述基础描述信息预测辅助描述信息,所述辅助描述信息包括辅助执行所述待处理任务的信息;
响应模块,用于响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板,所述引导模板为所述目标模型适配的引导信息的模板;
第二预测模块,用于融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个所述候选引导信息对应的质量参数;
确定模块,用于根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
本申请实施例还提供一种电子设备,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行本申请实施例所提供的任一种大语言模型的引导信息生成方法中的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本申请实施例所提供的任一种大语言模型的引导信息生成方法中的步骤。
本申请实施例还提供一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现本申请实施例所提供的任一种大语言模型的引导信息生成方法中的步骤。
本申请实施例可以获取待处理任务的基础描述信息,使用基础描述信息预测辅助描述信息,再检测到针对辅助描述信息的确认指令时,获取目标模型和引导模板;融合引导模板、基础描述信息和辅助描述信息的语义,预测出候选引导信息以及对应的质量参数;最后利用质量参数从候选引导信息中确定目标引导信息。用户仅需输入简单的基础描述信息,辅助描述信息可预测得到,并且在用户确定辅助描述信息后,自动利用引导模板预测出目标模型适配的目标引导模型,无需技术人员进行人工适配,编写简单高效,可有效提升引导信息的编写效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的大语言模型的引导信息生成方法的应用场景示意图;
图2是本申请实施例提供的大语言模型的引导信息生成方法的流程示意图;
图3是本申请实施例提供的第一引导页面的示意图;
图4是本申请实施例提供的历史引导信息的示意图;
图5是本申请实施例提供的目标引导信息的示意图;
图6是本申请实施例提供的大语言模型的引导信息生成装置的结构示意图;
图7是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
大语言模型是使用大量的文本数据训练的深度学习模型,具备自然语言理解和生成自然语言的能力,通常被用于智能问答等场景中。引导信息是一种引导大语言模型给出更加符合预期的回复文本的文本,也被称为prompt,相同的问题采用不同的引导信息,大语言模型可输出不同的回复文本,引导信息可直接影响到大语言模型生成的内容的质量和准确性。
发明人在研究中发现,较高质量的引导信息需要编写的内容较多,且由于目前的大语言模型众多,不同的大语言模型通常对引导信息有不同的格式要求。为了适配不同的大语言模型,需要研究人员编写不同模型适配的引导信息,编写过程繁琐复杂,导致引导信息的编写效率低下。由此,发明人提出了本申请实施例中的大语言模型的引导信息生成方法,可有效提升引导信息的编写效率。
如,参考图1,示出了大语言模型的引导信息生成方法的应用场景示意图,其中,该应用场景中可以包括终端101和服务器102。终端101可以是手机、平板电脑、智能蓝牙设备、智能穿戴设备、笔记本电脑、或者个人电脑(Personal Computer,PC)、车载终端等设备;服务器102可以是单一服务器,也可以是由多个服务器组成的服务器集群。
终端101和服务器102之间可通过网络进行数据交互,例如,用户可使用终端101打开第一引导页面,以便在第一引导页面中填入待处理任务的基础描述信息,并发送给服务器102。从而服务器102可利用基础描述信息预测辅助描述信息并展示在第一引导页面中。终端101可检测用户针对该辅助描述信息的确认指令,并将该确认指令转发给服务器102,以便服务器102获取待处理任务匹配的目标模型和引导模板;融合基础描述信息、辅助描述信息以及引导模板的语义,预测多个候选引导信息以及每个候选引导信息对应的质量参数;根据每个候选引导信息对应的质量参数,从多个候选引导信息中确定目标引导信息。服务器102可将目标引导信息发送给终端101进行展示,以便用户为目标模型设置该目标引导信息,从而目标模型可按照该目标引导信息执行所述待处理任务。
下面将进行详细说明。
在本实施例中,提供了一种大语言模型的引导信息生成方法,如图2所示,该引导信息生成方法的具体流程可以如下:
S110、获取待处理任务的基础描述信息。
待处理任务是指需要大语言模型执行的任务,该待处理任务可以是问答任务、图文生成任务等。基础描述信息可用于描述待处理任务的基本信息,其可以包括执行待处理任务所需的必要信息,该基础描述信息的表现形式可以是文本。
在一些实施方式中,基础描述信息可以包括任务角色和任务目标,为了准确获取到基础描述信息,可以提供第一引导页面,以指示用户在第一引导页面中输入基础描述信息。例如,可以展示第一引导页面,所述第一引导页面包括角色描述区域以及目标描述区域;响应于针对所述角色描述区域的输入指令,在所述角色描述区域的关联区域内展示多个候选领域;响应于针对所述多个候选领域的选择指令,展示被选中的候选领域关联的多个预设角色;响应于针对所述多个预设角色的选择指令,将被选中的预设角色确定为任务角色;响应于针对所述目标描述区域的输入指令,获取任务目标。
其中,角色描述区域可输入执行该待处理任务时,大语言模型所需要扮演的角色,该目标描述区域内可输入待处理任务所需要达到的效果。关联区域是指和角色描述区域相连的一个区域,在检测到针对角色描述区域的输入指令时,可在该关联区域中展示多个候选领域,以供用户选择。
候选领域是指将预先内置的多个领域,例如金融、医疗、教育等领域。用户从多个候选领域中选择一个后,即可检测到针对候选领域的选择指令,在关联区域的子关联区域内展示被选中的候选领域关联的多个预设角色。例如,在医疗领域中,预设角色可以包括内科医生、皮肤科医生、心血管科医生等,在金融领域中,预设角色可以包括财务分析师、投资师、风险管理师等,在教育领域中,预设角色可以包括语文老师、数据老师、物理老师等。
例如,可参阅图3,示出了第一引导页面的示意图。其中,该第一引导页面可以包括角色描述区域201以及目标描述区域202,当检测到用户点击该角色描述区域201时,可在角色描述区域201的关联区域203内展示多个候选领域,如医疗、金融和教育。当用户点击医疗后,可在子关联区域204内展示和医疗关联的多个预设角色,如内科医生、皮肤科医生、心血管科医生。当用户选择皮肤科医生后,即可将皮肤科医生填入该角色描述区域201内。
然后,在目标描述区域202中,用户主动输入对应的内容,作为任务目标。为了便于用户可准确地描述待处理任务的目标,可在目标描述区域202展示提示(图中未示出),如“您希望达成一个什么目标,需要大语言模型做什么”。
在第一引导页面还可提供一确认控件205,当用户点击该确认控件205后,可认为用户确认基础描述信息无误,可将该基础描述信息提交给服务器,以供后续处理。
S120、利用所述基础描述信息预测辅助描述信息。
其中,辅助描述信息是指辅助大语言模型执行待处理任务的信息,该辅助描述信息可使得大语言模型在执行待处理任务时,更加具有逻辑性,从而可更加出色地完成待处理任务,该辅助描述信息也可以是文本形式。
辅助描述信息可包含任务背景、任务能力、任务约束以及任务流程等。其中,任务背景是指产生该待处理任务的背景信息;任务能力是指执行该待处理任务所具备的技能;任务约束是指执行该待处理任务时所需要遵循的基本规则;任务流程则是执行该待处理任务时所需要遵循的步骤。
若是依赖用户一一输入这些信息,用户需要花费较长的时间来理解这些辅助描述信息的含义,且难以准确地描述。由此,为了高效地生成更加准确的辅助描述信息,可直接使用基础描述信息预测辅助描述信息。
作为一种实施方式,利用基础描述信息预测辅助描述信息时,可以是从预设数据库中,获取历史引导信息以及所述任务角色关联的多个候选能力、背景模板以及预设约束,所述历史引导信息为在历史时间段内生成的目标引导信息;将所述任务角色以及所述任务目标填充至所述背景模板中,生成任务背景;将所述预设约束确定为任务约束;利用所述任务目标、所述历史引导信息以及所述候选能力,确定至少一个任务能力;对所述至少一个任务能力和所述任务目标进行语义融合处理,生成任务流程。
基础描述信息中可包括任务目标和任务角色,而预设数据库中,可预先存储多个候选角色、多个预设能力、多个预设背景模板以及多个预设约束等。其中,每个候选角色可预先关联有预设能力,类似的,每个候选角色也可关联有预设背景模板和预设约束。
历史引导信息是指在历史时间段内生成的目标引导信息,历史时间段是指在当前时间之前的时间段,例如,在当前时间之前的一个周、一年等,具体可根据实际需要进行设置。该历史引导信息可被存储至预设数据库中,即每生成一个目标引导信息,则将其作为历史引导信息存储。
根据任务角色,可在预设数据库中进行查找,将该任务角色关联的多个预设能力确定为候选能力,将该任务角色关联的预设背景模板确定为背景模板,将该任务角色关联的预设约束确定为任务约束。
其中,背景模板中可包含多个待填充槽位,待填充槽位可理解为背景模板中的占位符,如背景模板为“最近[角色槽位]繁忙,需要你[目标槽位]”。角色槽位可用于填充任务角色,目标槽位可用于填充任务目标,将填充完毕的背景模板作为任务背景。
历史引导信息中,可以包括具有历史匹配关系的历史任务目标和历史任务能力,历史匹配关系是指在完成该历史任务目标时,所需要使用的历史任务能力。候选能力是预先配置的,可能和实际的任务目标并不匹配,为了更加精准地确定出和任务目标匹配的任务能力,可以利用任务目标、历史引导信息以及候选能力,确定至少一个任务能力。
在一些实施方式中,可以是将与所述候选能力具有历史匹配关系的历史任务目标,确定为候选任务目标;计算所述任务目标和每个所述候选任务目标的语义相似度;按照所述语义相似度,从所述候选任务目标中确定待处理任务目标;获取所述待处理任务目标对应的待处理能力的出现频率,所述待处理能力为与所述待处理任务目标具有历史匹配关系的历史任务能力;根据每个待处理任务目标的语义相似度以及待处理能力的出现频率,计算每个待处理能力的重要性得分;将所述重要性得分大于预设阈值的待处理能力,确定为所述任务能力。
作为一种实施方式,历史引导信息可使用图数据的方式进行存储。例如,可参阅图4,示出了历史引导信息的示意图。其中,该图数据中可以包含任务节点和能力节点,任务节点表征历史引导信息中的历史任务目标,能力节点表征历史引导信息中的历史任务能力。任务节点和能力节点之间的边,表征历史任务目标和历史任务能力之间具有历史匹配关系,即处于同一个历史引导信息中。
其中,节点之间的边具有对应的权重,该权重可以是指在该历史匹配关系下,该历史任务能力的出现频率。例如图4中,节点1为任务节点,节点A为能力节点,节点1表征的历史任务目标出现了10次,其中有5次和节点A存在历史匹配关系,则节点1和节点A之间的边的权重为5/10=0.5。
然后,在图数据中,可将与候选能力具有历史匹配关系的历史任务目标,确定为候选任务目标,计算候选任务目标和任务目标之间的语义相似度,并按照语义相似度从候选任务目标中选择预设数量个待处理任务目标。
其中,计算语义相似度时,可以是利用词嵌入模型将候选任务目标转换为第一语义向量;利用词嵌入模型将任务目标转换为第二语义向量,再计算第一语义向量和第二语义向量之间的余弦相似度作为语义相似度。其中,语义相似度越高,表明候选任务目标和任务目标的语义越接近。词嵌入模型可以是BERT模型,预设数量可根据实际的需要进行设置。
确定待处理任务目标时,可以是利用语义相似度,对候选任务目标进行排序处理,得到候选任务目标序列,将与任务目标最相似的前预设数量个作为待处理任务目标。如按照语义相似度从大到小的顺序进行排序,得到候选任务目标序列,将该候选任务目标序列中的前预设数量个候选任务目标,确定为待处理任务目标。
待处理能力为与待处理任务目标具有历史匹配关系的历史任务能力,待处理能力的出现频率,在图数据中,则是指与待处理任务目标连接的历史处理能力之间的边的权重。通过确定和任务目标相似的待处理任务目标再反查得到待处理能力,可避免候选能力遗漏掉部分重要的能力,以提升后续确定任务能力的准确性。
作为一种实施方式,可以利用待处理任务目标的语义相似度,以及与待处理任务目标具有历史匹配关系的待处理能力的出现频率,计算待处理能力的重要性得分。可选地,可以是计算所有待处理任务目标的语义相似度之和,得到总相似度;以所述待处理任务目标的语义相似度以及所述总相似度,计算每个所述待处理任务的任务权重;按照所述历史匹配关系,使用所述任务权重对待处理能力的出现频率进行加权求和计算,得到每个待处理能力的重要性得分。
求和所有待处理任务目标的语义相似度,得到总相似度,利用各个待处理任务目标的语义相似度除以总相似度,可得到各个待处理任务目标的任务权重。然后,针对每个待处理能力,可获取到每个待处理能力的出现频率,将该出现频率和对应的待处理任务的任务权重相乘,并求和,则可以得到待处理能力的重要性得分。例如,图4中,节点A一共有4个出现频率,对应节点1为y1,对应节点2为y2,对应节点3为y3,对应节点5为y5,节点1至节点5的任务权重依次为x1、x2、x3、x4、x5,则节点A的重要性得分PA可通过如下公式计算:
最后,可将重要性得分大于预设阈值的待处理能力,确定为任务能力,其中,预设阈值可根据实际的需要进行设置,在此不做具体限定。
在确定出任务能力后,可对至少一个任务能力和任务目标进行语义融合处理,以生成任务流程。在一些实施方式中,可预先训练大语言模型,使得大语言模型具备语义理解和文本生成能力,此处训练好的大语言模型可记为第一模型,然后将至少一个任务能力和任务目标输入至第一模型中,即可得到任务流程。
例如,可以拼接所述至少一个任务能力和所述任务目标,得到待处理文本,所述待处理文本包括多个待处理词;融合每个待处理词在所述待处理文本中的位置信息以及所述待处理词的词向量,得到每个待处理词对应的待处理词向量;基于预设矩阵参数,对每个所述待处理词向量进行线性变换处理,得到变换后词向量;对所有变换后词向量进行交叉计算,得到每个变换后词向量的注意力得分;利用所有变换后词向量的注意力得分,生成多个预测数据对应的概率分布;根据所述预测数据对应的概率分布,生成任务执行流程。
直接拼接至少一个任务能力和任务目标,以得到待处理文本,然后可对待处理文本进行编码。其中,编码时,可以将先对待处理文本进行分词,得到多个待处理词;将待处理词转换为文本编码,并将待处理词在待处理文本中的位置转换为位置编码;然后融合文本编码和位置编码,可得到每个待处理词对应的待处理词向量。
预设矩阵参数是指第一模型在训练的过程中学习到的一组参数,基于该预设矩阵参数,可以对待处理词向量进行线性变化处理,得到变换后词向量,然后通过交叉计算,可计算得到各个词向量的注意力得分。
其中,预设矩阵参数中通常包含三个矩阵参数,通过线性变化后,待处理词向量可转换为三个变换后词向量,此处记为值词向量、键词向量、查询词向量。所有的值词向量被称为值向量,所有的键词向量被称为键向量,所有的查询词向量被称为查询向量。
其中,表示键向量K的维度;/>表示键向量K的转置;Q表示查询向量;V表示值向量;Z表示包含所有有待处理词向量的注意力得分的注意力向量。
然后可对注意力向量进行非线性变化和特征提取,再执行softmax操作,即可以得到预设数据的概率分布。其中,预测数据可以是指第一模型在训练阶段所学习到的数据,将概率最高的预测数据作为输出,通常,预测数据仅是某个词语,为了得到完整的任务流程,可将当前的输出和之前的输入拼接后,作为新的输入,重复上述过程,直到预测数据是一个终止符为止,整个过程中所有的输出,则为任务流程。
S130、响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板。
在预测得到辅助描述信息后,可将辅助描述信息展示在第二引导页面中,以便用户对辅助描述信息进行确认,当然,用户也可对辅助描述信息进行调整,在检测到针对辅助描述信息的确认指令后,可将该辅助描述信息存入预设数据库中。
由于不同的大语言模型对引导信息的要求不同,可以继续在第三引导页面中展示多个候选模型供用户选择,用户所选择的模型为目标模型,也是执行待处理任务的大语言模型。
在预设数据库中,可预先存储有每个候选模型对应的预设模板,该预设模板可以包括与候选模型适配的完整引导信息的模板。在确定出目标模型后,则可以将该目标模型对应的预设模板确定为引导模板。
S140、融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个所述候选引导信息对应的质量参数。
此步骤已经获取到了基础描述信息、辅助描述信息以及引导模板,可融合这三种数据的语义,以预测多个候选引导信息以及每个候选引导信息对应的质量参数。
在一些实施方式中,该步骤可以包括:对所述基础描述信息和所述辅助描述信息进行拼接处理,生成中间描述信息;通过关键字识别,将所述中间描述信息和所述引导模板进行融合,得到待处理引导信息;控制指定模型按照指定引导信息对所述待处理引导信息进行调整,生成指定数量个候选引导信息,所述指定引导信息包括所述指定数量;对所述候选引导信息和预设数据集进行聚类处理,以将所述候选引导信息映射为质量参数。
需要说明的是,基础描述信息和辅助描述信息均是按照中间描述信息的指定结构得到的,该中间描述信息可由键值对组成。如,任务角色可以为键,皮肤科医生可以为值。可将基础描述信息和辅助描述信息直接拼接在一起,得到中间描述信息。
例如,中间描述信息为“{任务角色:财务分析师}、{任务背景:我们公司的财务分析任务工作量很大,需要人工智能来协助财务总监进行相关工作处理}、{任务目标:协助公司财务总监进行财务状况分析}、{任务能力:分析解释,财务建模,预测技能,数据处理,良好沟通,商业头脑,辅助决策,不断学习和适应新环境}、{任务流程:数据收集,数据处理与分析,财务建模和预测,撰写报告和展示,提供决策支持}、{任务约束:分析的时候要严谨一些、不可以自己捏造数据、不要让用户了解你的工作流程、不要聊些有的没的}”。
在得到中间描述信息后,可对中间描述信息进行关键字识别,以识别出中间描述信息中的每个键。通常,引导模板中也可包括多个键,为了便于描述,可将中间描述信息中的键记为第一键,将引导模板中的键记为第二键。可预先建立第一键和第二键之间的映射关系,基于该映射关系,将第一键对应的值映射至引导模板中,得到待处理引导信息。
此时得到的待处理引导信息已经适配了目标模型对引导信息的格式要求,由于目标模型会按照引导信息执行任务,由此,引导信息中的任何一个字词或者字词的顺序等都会影响到任务的执行效果,也即引导信息的质量和任务执行效果是呈正比的,由此,可以利用指定模型对待处理引导信息进行调整优化,以提升目标引导信息的质量,进而确保目标模型的执行效果。
其中,指定模型可以是预先训练好的大语言模型,可专用于对引导信息进行优化。指定引导信息是指用于指引指定模型的引导信息,该指定引导信息中可包括指定数量,将指定引导信息和待处理引导信息输入该指定模型中,指定模型可按照指定引导信息对待处理引导信息进行调整优化,生成多个候选引导信息。需要说明的是,前述的第一模型和指定模型均可通过人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)的方式训练得到。
质量参数是指用于表征候选引导信息的质量的参数,该质量参数可以是质量等级、质量分数等,在本申请实施例中,仅以质量参数为质量等级为例进行说明。
作为一种实施方式,在利用聚类将候选引导信息映射为质量参数时,可以是从所述预设数据集中获取每个预设参数对应的多个种子引导信息;以每个预设参数对应的一个种子引导信息为聚类中心,对所述候选引导信息和所述多个预设引导信息进行聚类处理,得到多个聚类簇;针对每个聚类簇,利用所述聚类簇中各个预设参数的种子引导信息的数量分布,确定每个聚类簇对应的目标预设参数;将所述候选引导信息所在的聚类簇对应的目标预设参数,作为所述候选引导信息的质量参数。
其中,预设参数为预先配置的质量参数,例如,质量参数为质量等级时,预设参数可以包括高、中、低。预设数据集中可以包括多个预设引导信息,这些预设引导信息具有不同的预设参数。由于预设引导信息的质量评估较为主观,可由技术人员从预设引导信息中选择出每个预设参数对应的多个种子引导信息。其中,种子引导信息的数量可以是多个,即每个预设参数都可以对应有多个种子引导信息,多个种子引导信息的数量相同,可记为第一数量,第一数量可根据实际需要进行设置,在此不做具体限定。
由于一个预设参数对应有第一数量个种子引导信息,可以从每个预设参数的种子引导信息中选择一个作为聚类中心。具体在聚类时,可将候选引导信息,预设引导信息均转换为向量,以向量距离进行K-Means聚类,直到满足设定的条件时,可得到对应数量个聚类簇。如前述预设参数一共有3个,则有3个种子引导信息为聚类中心,则聚类完成后可得到3个聚类簇。
可以理解的是,所有的种子引导信息被分散在多个聚类簇中,针对每个聚类簇,可以统计种子引导信息在聚类簇中的分布。利用种子引导信息的数量分布,以及种子引导信息对应的预设参数,确定聚类簇的目标预设参数。
例如,可参阅表1,输出了3个聚类簇中各个种子引导信息的数量分布表。
表1
其中,聚类簇1中预设参数为高的种子引导信息的数量为α1,其余参数类似。在一些实施方式中,由于获知了聚类簇中各个预设参数的种子引导信息的数量分布,也就获知了每个预设参数的种子引导信息在各个聚类簇中数量分布。针对每个预设参数,可直接比较数量来确定聚类簇的预设目标参数。例如,若α1>α2>α3,则聚类簇1的质量参数为高;若β2>β1>β3,则聚类簇2的质量参数为中;若γ3 >γ1>γ2,则聚类簇3的质量参数为低。
在一些实施方式中,还可以是针对每个聚类簇,获取所述聚类簇中各个预设参数的种子引导信息的数量;根据各个预设参数对应的质量分数以及各个预设参数的种子引导信息的数量,计算聚类簇对应的质量得分;根据所述聚类簇对应的质量得分,对所有聚类簇进行排序处理,得到聚类簇序列;将所述聚类簇序列和预设参数序列进行匹配,确定每个聚类簇对应的目标预设参数。
每个预设参数可以预先设置有质量分数,例如高为λ1,中为λ2,低为λ3,且λ1>λ2>λ3。可直接利用质量分数和数量,计算聚类簇的质量得分。如表1中,聚类簇1的质量得分为:。其中,质量得分越高,该聚类簇中的引导信息质量越高。
然后,可按照质量得分从大到小的顺序排序聚类簇,得到聚类簇序列。类似的,预设参数也可按照质量高到低的顺序排列,得到预设参数序列。将聚类簇和预设参数序列匹配后,则可以得到聚类簇的目标预设参数。如,聚类簇序列为[聚类簇2、聚类簇1、聚类簇3],预设参数序列为[高、中、低],则聚类簇2的目标预设参数为高,聚类簇1的目标预设参数为中。
最后将候选引导信息所处于的聚类簇对应的目标预设参数,确定为候选引导信息的质量参数。如,候选引导信息处于目标预设参数为高的聚类簇中,则该候选引导信息的质量参数为高。
S150、根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
然后可将质量参数为高的候选引导信息确定为目标引导信息,若存在多个质量参数为高的候选引导信息,则从质量参数为高的候选引导信息中随机选择一个作为目标引导信息即可。
然后,可将该目标引导信息发送给目标模型,以便目标模型可按照该目标引导信息执行待处理任务。如,按照目标引导信息中的任务流程执行待处理任务,且遵循对应的任务约束。
其中,不同的目标模型其对应有不同的引导模板,则最终生成的目标引导信息也会有所不同。例如,前述举例的中间引导信息,在目标模型为文心一言时,生成的目标引导信息如下:
角色:一名专业的财务分析师。背景:公司的财务分析任务工作量很大,需要有人协助财务总监进行相关工作处理。任务目标:分析用户输入的财务资料,并整理生成相关材料。能力:你拥有良好的分析解释能力,擅长财务建模与预测,能够很好地处理数据,善于沟通,具有商业意识并能基于外部信息做出决策;工作流程:你要进行数据收集,并对收集到的数据进行处理和分析,在分析的结果上进行财务建模和预测,同时撰写报告,为公司的财务规划提供决策支持。注意,你的分析必须要严谨,不能捏造数据,也不要让用户了解你的工作流程,同时你要避免和用户进行不必要的闲聊。
在目标模型为ChatGPT时,生成的目标引导信息可参阅图5。由此可知,在不同的目标模型下,利用基础描述信息和辅助描述信息,可快速自动生成适配目标模型的目标引导信息。
本申请实施例提供的引导信息生成方案可以应用在各种使用大语言模型的场景中。比如,以医疗问答场景中可随意选择大语言模型为例,采用本申请实施例提供的方案能够更快速生成适配不同的大语言模型的目标引导信息。
通过本申请实施例提供的方法,可以获取待处理任务的基础描述信息,使用基础描述信息预测辅助描述信息,避免用户输入过多不准确的信息。若检测到针对辅助描述信息的确认指令,则获取目标模型以及与目标模型匹配的引导模板,再融合基础描述信息、辅助描述信息以及引导模板的语义,预测多个候选引导信息以及对应的质量参数,由于引导模板和目标模型适配,结合该引导模板可生成和目标模型适配的引导信息,无需每次针对不同的模型进行人工改写,提升引导信息的编写效率。最后利用质量参数从候选引导信息中确定目标引导信息,可确保生成具有较高质量的目标引信息,从而可实现高效高质地生成不同模型适配的引导信息。
为了更好地实施以上方法,本申请实施例还提供一种大语言模型的引导信息生成装置,该大语言模型的引导信息生成装置具体可以集成在电子设备中,该电子设备可以为终端、服务器等设备。其中,终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、个人电脑、智能手表、车载终端等设备;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群。
比如,在本实施例中,将以大语言模型的引导信息生成装置具体集成在服务器为例,对本申请实施例的方法进行详细说明。
例如,如图6所示,该大语言模型的引导信息生成装置200可以包括:
获取模块210,用于获取待处理任务的基础描述信息,所述基础描述信息包括执行所述待处理任务所需的必要信息;
第一预测模块220,用于利用所述基础描述信息预测辅助描述信息,所述辅助描述信息包括辅助执行所述待处理任务的信息;
响应模块230,用于响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板,所述引导模板为所述目标模型适配的引导信息的模板;
第二预测模块240,用于融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个所述候选引导信息对应的质量参数;
确定模块250,用于根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
在一些实施例中,所述基础描述信息包括任务角色和任务目标,所述辅助描述信息包括任务背景、任务能力、任务约束以及任务流程,第一预测模块220具体用于:
从预设数据库中,获取历史引导信息、所述任务角色关联的多个候选能力、背景模板以及预设约束,所述历史引导信息为在历史时间段内生成的目标引导信息;
将所述任务角色以及所述任务目标填充至所述背景模板中,生成任务背景;
将所述预设约束确定为任务约束;
利用所述任务目标、所述历史引导信息以及所述候选能力,确定至少一个任务能力;
对所述至少一个任务能力和所述任务目标进行语义融合处理,生成任务流程。
在一些实施例中,历史引导信息包括具有历史匹配关系的历史任务目标和历史任务能力,第一预测模块220具体用于:
将与所述候选能力具有历史匹配关系的历史任务目标,确定为候选任务目标;
计算所述任务目标和每个所述候选任务目标的语义相似度;
按照所述语义相似度,从所述候选任务目标中确定待处理任务目标;
获取所述待处理任务目标对应的待处理能力的出现频率,所述待处理能力为与所述待处理任务目标具有历史匹配关系的历史任务能力;
根据每个待处理任务目标的语义相似度以及待处理能力的出现频率,计算每个待处理能力的重要性得分;
将所述重要性得分大于预设阈值的待处理能力,确定为所述任务能力。
在一些实施例中,第一预测模块220具体用于:
计算所有待处理任务目标的语义相似度之和,得到总相似度;
以所述待处理任务目标的语义相似度以及所述总相似度,计算每个所述待处理任务的任务权重;
按照所述历史匹配关系,使用所述任务权重对对应的待处理能力的出现频率进行加权求和计算,得到每个待处理能力的重要性得分。
在一些实施例中,第一预测模块220具体用于:
拼接所述至少一个任务能力和所述任务目标,得到待处理文本,所述待处理文本包括多个待处理词;
融合每个待处理词在所述待处理文本中的位置信息以及所述待处理词的词向量,得到每个待处理词对应的待处理词向量;
基于预设矩阵参数,对每个所述待处理词向量进行线性变换处理,得到变换后词向量;
对所有变换后词向量进行交叉计算,得到每个变换后词向量的注意力得分;
利用所有变换后词向量的注意力得分,生成多个预测数据对应的概率分布;
根据所述预测数据对应的概率分布,生成任务流程。
在一些实施例中,第二预测模块240具体用于:
对所述基础描述信息和所述辅助描述信息进行拼接处理,生成中间描述信息;
通过关键字识别,将所述中间描述信息和所述引导模板进行融合,得到待处理引导信息;
控制指定模型按照指定引导信息对所述待处理引导信息进行调整,生成指定数量个候选引导信息,所述指定引导信息包括所述指定数量;
对所述候选引导信息和预设数据集进行聚类处理,以将所述候选引导信息映射为质量参数。
在一些实施例中,所述预设数据集中包括多个预设引导信息,第二预测模块240具体用于:
从所述预设数据集中获取每个预设参数对应的多个种子引导信息;
以每个预设参数对应的一个种子引导信息为聚类中心,对所述候选引导信息和所述多个预设引导信息进行聚类处理,得到多个聚类簇;
针对每个聚类簇,利用所述聚类簇中各个预设参数的种子引导信息的数量分布,确定每个聚类簇对应的目标预设参数;
将所述候选引导信息所在的聚类簇对应的目标预设参数,作为所述候选引导信息的质量参数。
在一些实施例中,第二预测模块240具体用于:
针对每个聚类簇,获取所述聚类簇中各个预设参数的种子引导信息的数量;
根据各个预设参数对应的质量分数以及各个预设参数的种子引导信息的数量,计算聚类簇对应的质量得分;
根据所述聚类簇对应的质量得分,对所有聚类簇进行排序处理,得到聚类簇序列;
将所述聚类簇序列和预设参数序列进行匹配,确定每个聚类簇对应的目标预设参数。
具体实施时,以上各个模块或单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个模块或单元的具体实施可参见前面的方法实施例,在此不再赘述。
由上可知,本实施例的大语言模型的引导信息生成装置可以基于基础描述信息智能预测辅助描述信息,并自动适配不同目标模型,可提升引导信息的编写效率,利用质量参数确定最终的目标引导信息,可确保生成具有较高质量的目标引信息,从而可实现高效高质地生成目标模型适配的引导信息。
本申请实施例还提供一种电子设备,该电子设备可以为终端、服务器等设备。在本实施例中,将以本实施例的电子设备是服务器为例进行详细描述,比如,如图7所示,其示出了本申请实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或者一个以上处理核心的处理器310、一个或一个以上计算机可读存储介质的存储器320、电源330、输入模块340以及通信模块350等部件。本领域技术人员可以理解,图7中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器310是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器320内的软件程序和/或模块,以及调用存储在存储器320内的数据,执行电子设备的各种功能和处理数据。在一些实施例中,处理器310可包括一个或多个处理核心;在一些实施例中,处理器310可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器310中。
存储器320可用于存储软件程序以及模块,处理器310通过运行存储在存储器320的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器320还可以包括存储器控制器,以提供处理器310对存储器320的访问。
电子设备还包括给各个部件供电的电源330,在一些实施例中,电源330可以通过电源管理系统与处理器310逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源330还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入模块340,该输入模块340可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该电子设备还可包括通信模块350,在一些实施例中通信模块350可以包括无线模块,电子设备可以通过该通信模块350的无线模块进行短距离无线传输,从而为用户提供了无线的宽带互联网访问。比如,该通信模块350可以用于帮助用户收发电子邮件、浏览网页和访问流式媒体等。
尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器310会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器320中,并由处理器310来运行存储在存储器320中的应用程序,从而实现本申请各实施例方法中的步骤。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本实施例的电子设备可以基于基础描述信息智能预测辅助描述信息,并自动适配不同目标模型,可提升引导信息的编写效率,利用质量参数确定最终的目标引导信息,可确保生成具有较高质量的目标引信息,从而可实现高效高质地生成目标模型适配的引导信息。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种大语言模型的引导信息生成方法中的步骤。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序/指令,该计算机程序/指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机程序/指令,处理器执行该计算机程序/指令,使得该电子设备执行上述实施例中提供大语言模型的引导信息生成方面的各种可选实现方式中提供的方法。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种大语言模型的引导信息生成方法中的步骤,因此,可以实现本申请实施例所提供的任一种大语言模型的引导信息生成方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种大语言模型的引导信息生成方法、装置、及电子设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种大语言模型的引导信息生成方法,其特征在于,所述方法包括:
获取待处理任务的基础描述信息,所述基础描述信息包括执行所述待处理任务所需的必要信息;
利用所述基础描述信息预测辅助描述信息,所述辅助描述信息包括辅助执行所述待处理任务的信息;
响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板,所述引导模板为所述目标模型适配的引导信息的模板;
融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个候选引导信息对应的质量参数;
根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
2.根据权利要求1所述的方法,其特征在于,所述基础描述信息包括任务角色和任务目标,所述辅助描述信息包括任务背景、任务能力、任务约束以及任务流程,所述利用所述基础描述信息预测辅助描述信息,包括:
从预设数据库中,获取历史引导信息、所述任务角色关联的多个候选能力、背景模板以及预设约束,所述历史引导信息为在历史时间段内生成的目标引导信息;
将所述任务角色以及所述任务目标填充至所述背景模板中,生成任务背景;
将所述预设约束确定为任务约束;
利用所述任务目标、所述历史引导信息以及所述候选能力,确定至少一个任务能力;
对所述至少一个任务能力和所述任务目标进行语义融合处理,生成任务流程。
3.根据权利要求2所述的方法,其特征在于,所述历史引导信息包括具有历史匹配关系的历史任务目标和历史任务能力,所述利用所述任务目标、所述历史引导信息以及所述候选能力,确定至少一个任务能力,包括:
将与所述候选能力具有历史匹配关系的历史任务目标,确定为候选任务目标;
计算所述任务目标和每个所述候选任务目标的语义相似度;
按照所述语义相似度,从所述候选任务目标中确定待处理任务目标;
获取所述待处理任务目标对应的待处理能力的出现频率,所述待处理能力为与所述待处理任务目标具有历史匹配关系的历史任务能力;
根据每个待处理任务目标的语义相似度以及待处理能力的出现频率,计算每个待处理能力的重要性得分;
将所述重要性得分大于预设阈值的待处理能力,确定为任务能力。
4.根据权利要求3所述的方法,其特征在于,所述根据每个待处理任务目标的语义相似度以及待处理能力的出现频率,计算每个待处理能力的重要性得分,包括:
计算所有待处理任务目标的语义相似度之和,得到总相似度;
根据所述待处理任务目标的语义相似度以及所述总相似度,计算每个待处理任务的任务权重;
按照历史匹配关系,使用所述任务权重对对应的待处理能力的出现频率进行加权求和计算,得到每个待处理能力的重要性得分。
5.根据权利要求2所述的方法,其特征在于,所述对所述至少一个任务能力和所述任务目标进行语义融合处理,生成任务流程,包括:
拼接至少一个任务能力和所述任务目标,得到待处理文本,所述待处理文本包括多个待处理词;
融合每个待处理词在所述待处理文本中的位置信息以及所述待处理词的词向量,得到每个待处理词对应的待处理词向量;
基于预设矩阵参数,对每个待处理词向量进行线性变换处理,得到变换后词向量;
对所有变换后词向量进行交叉计算,得到每个变换后词向量的注意力得分;
利用所有变换后词向量的注意力得分,生成多个预测数据对应的概率分布;
根据所述预测数据对应的概率分布,生成任务流程。
6.根据权利要求1所述的方法,其特征在于,所述融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个候选引导信息对应的质量参数,包括:
对所述基础描述信息和所述辅助描述信息进行拼接处理,生成中间描述信息;
通过关键字识别,将所述中间描述信息和所述引导模板进行融合,得到待处理引导信息;
控制指定模型按照指定引导信息对所述待处理引导信息进行调整,生成指定数量个候选引导信息,所述指定引导信息包括所述指定数量;
对所述候选引导信息和预设数据集进行聚类处理,以将所述候选引导信息映射为质量参数。
7.根据权利要求6所述的方法,其特征在于,所述预设数据集中包括多个预设引导信息,所述对所述候选引导信息和预设数据集进行聚类处理,以将所述候选引导信息映射为质量参数,包括:
从所述预设数据集中获取每个预设参数对应的多个种子引导信息;
以每个预设参数对应的一个种子引导信息为聚类中心,对所述候选引导信息和多个预设引导信息进行聚类处理,得到多个聚类簇;
针对每个聚类簇,利用所述聚类簇中各个预设参数的种子引导信息的数量分布,确定每个聚类簇对应的目标预设参数;
将所述候选引导信息所在的聚类簇对应的目标预设参数,作为所述候选引导信息的质量参数。
8.根据权利要求7所述的方法,其特征在于,所述针对每个聚类簇,利用所述聚类簇中各个预设参数的种子引导信息的数量分布,确定每个聚类簇对应的目标预设参数,包括:
针对每个聚类簇,获取每个聚类簇中各个预设参数的种子引导信息的数量;
根据各个预设参数对应的质量分数以及各个预设参数的种子引导信息的数量,计算聚类簇对应的质量得分;
根据所述聚类簇对应的质量得分,对所有聚类簇进行排序处理,得到聚类簇序列;
将所述聚类簇序列和预设参数序列进行匹配,确定每个聚类簇对应的目标预设参数。
9.一种大语言模型的引导信息生成装置,其特征在于,所述装置包括:
获取模块,用于获取待处理任务的基础描述信息,所述基础描述信息包括执行所述待处理任务所需的必要信息;
第一预测模块,用于利用所述基础描述信息预测辅助描述信息,所述辅助描述信息包括辅助执行所述待处理任务的信息;
响应模块,用于响应于针对所述辅助描述信息的确认指令,获取所述待处理任务匹配的目标模型和引导模板,所述引导模板为所述目标模型适配的引导信息的模板;
第二预测模块,用于融合所述基础描述信息、所述辅助描述信息以及所述引导模板的语义,预测多个候选引导信息以及每个候选引导信息对应的质量参数;
确定模块,用于根据每个所述候选引导信息对应的质量参数,从所述多个候选引导信息中确定目标引导信息,以便所述目标模型按照所述目标引导信息执行所述待处理任务。
10.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行如权利要求1~8任一项所述的大语言模型的引导信息生成方法中的步骤。
CN202410179992.2A 2024-02-18 2024-02-18 大语言模型的引导信息生成方法、装置及电子设备 Active CN117725191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410179992.2A CN117725191B (zh) 2024-02-18 2024-02-18 大语言模型的引导信息生成方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410179992.2A CN117725191B (zh) 2024-02-18 2024-02-18 大语言模型的引导信息生成方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN117725191A true CN117725191A (zh) 2024-03-19
CN117725191B CN117725191B (zh) 2024-05-28

Family

ID=90203901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410179992.2A Active CN117725191B (zh) 2024-02-18 2024-02-18 大语言模型的引导信息生成方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN117725191B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018624A (ja) * 2021-07-27 2023-02-08 ネイバー コーポレーション 言語モデルを利用したデータ生成方法、コンピュータ装置、およびコンピュータプログラム
KR20230040138A (ko) * 2021-09-15 2023-03-22 네이버 주식회사 타겟 정보 생성 방법 및 시스템
CN116522926A (zh) * 2023-04-28 2023-08-01 山东浪潮科学研究院有限公司 用于中文大规模语言模型的自动化提示生成与优化方法
US11765207B1 (en) * 2023-03-17 2023-09-19 strongDM, Inc. Declaring network policies using natural language
CN116842949A (zh) * 2023-05-29 2023-10-03 北京大学 事件提取方法、装置、电子设备和存储介质
CN116975288A (zh) * 2023-07-14 2023-10-31 杭州阿里巴巴飞天信息技术有限公司 文本处理方法及文本处理模型训练方法
US20230351661A1 (en) * 2022-04-28 2023-11-02 Theai, Inc. Artificial intelligence character models with goal-oriented behavior
CN117076668A (zh) * 2023-07-18 2023-11-17 腾讯科技(深圳)有限公司 文本信息处理方法、装置、设备、存储介质及程序产品
US11861321B1 (en) * 2023-06-29 2024-01-02 Casetext, Inc. Systems and methods for structure discovery and structure-based analysis in natural language processing models
CN117349424A (zh) * 2023-11-22 2024-01-05 百度在线网络技术(北京)有限公司 应用于语言模型的提示模板的处理方法、装置及电子设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018624A (ja) * 2021-07-27 2023-02-08 ネイバー コーポレーション 言語モデルを利用したデータ生成方法、コンピュータ装置、およびコンピュータプログラム
KR20230040138A (ko) * 2021-09-15 2023-03-22 네이버 주식회사 타겟 정보 생성 방법 및 시스템
US20230351661A1 (en) * 2022-04-28 2023-11-02 Theai, Inc. Artificial intelligence character models with goal-oriented behavior
US11765207B1 (en) * 2023-03-17 2023-09-19 strongDM, Inc. Declaring network policies using natural language
CN116522926A (zh) * 2023-04-28 2023-08-01 山东浪潮科学研究院有限公司 用于中文大规模语言模型的自动化提示生成与优化方法
CN116842949A (zh) * 2023-05-29 2023-10-03 北京大学 事件提取方法、装置、电子设备和存储介质
US11861321B1 (en) * 2023-06-29 2024-01-02 Casetext, Inc. Systems and methods for structure discovery and structure-based analysis in natural language processing models
CN116975288A (zh) * 2023-07-14 2023-10-31 杭州阿里巴巴飞天信息技术有限公司 文本处理方法及文本处理模型训练方法
CN117076668A (zh) * 2023-07-18 2023-11-17 腾讯科技(深圳)有限公司 文本信息处理方法、装置、设备、存储介质及程序产品
CN117349424A (zh) * 2023-11-22 2024-01-05 百度在线网络技术(北京)有限公司 应用于语言模型的提示模板的处理方法、装置及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARIANA MARTINO等: "Knowledge Injection to Counter Large Language Model (LLM) Hallucination", 《ESWC》, vol. 13998, 21 October 2023 (2023-10-21), pages 182 - 185, XP047673073, DOI: 10.1007/978-3-031-43458-7_34 *
LI, L等: "Prompt Distillation for Efficient LLM-based Recommendation", ACM, 31 December 2023 (2023-12-31) *
陈宇航等: "基于主题感知和语义增强的作文自动评分方法", 计算机工程, 9 February 2024 (2024-02-09) *

Also Published As

Publication number Publication date
CN117725191B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN111552880B (zh) 基于知识图谱的数据处理方法、装置、介质及电子设备
KR20200119393A (ko) 챗봇을 위한 학습 데이터 추천 장치 및 방법
CN116757652B (zh) 一种基于大语言模型的在线招聘推荐系统及方法
US20110173145A1 (en) Classification of a document according to a weighted search tree created by genetic algorithms
Izadikhah Using the Hamming distance to extend TOPSIS in a fuzzy environment
CN117236410B (zh) 一种可信的电子文件大语言模型训练、推理方法和装置
CN110399467A (zh) 提供用于自然语言问答系统的训练数据的方法和设备
CN116862166A (zh) 一种岗位匹配方法、装置、设备及计算机存储介质
CN115114974A (zh) 一种模型蒸馏方法、装置、计算机设备和存储介质
US11948387B2 (en) Optimized policy-based active learning for content detection
US11874843B1 (en) Apparatus and methods for tracking progression of measured phenomena
CN117370190A (zh) 测试用例生成方法、装置、电子设备和存储介质
CN117725191B (zh) 大语言模型的引导信息生成方法、装置及电子设备
CN116662527A (zh) 用于生成学习资源的方法及相关产品
US20210406758A1 (en) Double-barreled question predictor and correction
TWI419071B (zh) Active knowledge management system, method and computer program product for problem solving
CN118014087B (zh) 一种领域数据处理方法及装置
CN117336539B (zh) 一种用于短视频ip打造的视频脚本生产方法及系统
US11681870B2 (en) Reducing latency and improving accuracy of work estimates utilizing natural language processing
CN117708351B (zh) 基于深度学习的技术标辅助评审方法、系统及存储介质
KR102574784B1 (ko) Esg 문서를 자동 완성하는데 적합한 텍스트를 추천하는 방법 및 이를 수행하는 esg 서비스 제공 시스템
US20240134847A1 (en) Applied Artificial Intelligence Technology for Natural Language Generation that Chooses Content for Expression In Narratives Using a Graph Data Structure
US20240232179A9 (en) Applied Artificial Intelligence Technology for Natural Language Generation that Chooses Content for Expression In Narratives Using a Graph Data Structure
EP4318271A1 (en) Learning device, inference device, program, learning method, and inference method
CN118170983A (zh) 信息推荐方法、装置、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant