CN117668560A - 模型训练、插件预测方法、装置、设备、介质及产品 - Google Patents

模型训练、插件预测方法、装置、设备、介质及产品 Download PDF

Info

Publication number
CN117668560A
CN117668560A CN202311774577.3A CN202311774577A CN117668560A CN 117668560 A CN117668560 A CN 117668560A CN 202311774577 A CN202311774577 A CN 202311774577A CN 117668560 A CN117668560 A CN 117668560A
Authority
CN
China
Prior art keywords
plug
target
training
sample
language model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311774577.3A
Other languages
English (en)
Inventor
张丽
杜悦艺
王忠鹏
马永生
曹培治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202311774577.3A priority Critical patent/CN117668560A/zh
Publication of CN117668560A publication Critical patent/CN117668560A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了模型训练、插件预测方法、装置、设备、介质及产品,涉及人工智能领域,尤其涉及云计算、大数据、深度学习领域。具体实现方案为:基于插件管理系统中多个插件,确定训练数据集,所述训练数据集包括多个训练样本,所述训练样本包括用于查询插件的提示文本以及插件标签,所述提示文本包括聊天上下文和插件参照信息,所述插件参照信息是指与插件查询具有关联关系的信息;利用所述训练数据集,训练预设大型语言模型,获得目标大型语言模型,所述目标大型语言模型用于查询目标提示文本对应的目标插件,并调用所述目标插件以获得所述目标插件输出的插件运行结果。

Description

模型训练、插件预测方法、装置、设备、介质及产品
技术领域
本公开涉及人工智能领域中的云计算、大数据、深度学习领域,尤其涉及一种模型训练、插件预测方法、装置、设备、介质及产品。
背景技术
插件管理系统可以提供大量插件,并支持插件增加功能。插件可以应用于大模型。插件的具体应用场景是,用户输入查询文本(Query)之后,大模型可以从多个插件中查询与该查询文本对应的目标插件。
但是,目前大模型一般是基于关键词的查询,若查询文本中未包含插件的关键词,则查询较为困难,导致插件的查询准确率较差。
发明内容
本公开提供了一种模型训练、插件预测方法、装置、设备、介质及产品。
根据本公开的第一方面,提供了一种模型训练方法,包括:
基于插件管理系统中多个插件,确定训练数据集,所述训练数据集包括多个训练样本,所述训练样本包括用于查询插件的提示文本以及插件标签,所述提示文本包括聊天上下文和插件参照信息,所述插件参照信息是指与插件查询具有关联关系的信息;
利用所述训练数据集,训练预设大型语言模型,获得目标大型语言模型,所述目标大型语言模型用于查询目标提示文本对应的目标插件,并调用所述目标插件以获得所述目标插件输出的插件运行结果。
根据本公开的第二方面,提供了一种插件预测方法,包括:
接收用户触发的插件查询请求,所述插件查询请求包括目标查询文本;
获取与所述目标查询文本对应的目标聊天上下文;
基于所述目标聊天上下文和预设插件参照信息,生成目标提示文本,所述插件参照信息是指与插件查询具有关联关系的信息;
通过训练获得的目标大型语言模型,获得与所述目标提示文本对应的目标插件和所述目标插件对应的插件运行结果,所述目标大型语言模型是基于第一方面所述的模型训练方法训练获得。
根据本公开的第三方面,提供了一种模型训练装置,包括:
确定单元,用于基于插件管理系统中多个插件,确定训练数据集,所述训练数据集包括多个训练样本,所述训练样本包括用于查询插件的提示文本以及插件标签,所述提示文本包括聊天上下文和插件参照信息,所述插件参照信息是指与插件查询具有关联关系的信息;
训练单元,用于利用所述训练数据集,训练预设大型语言模型,获得目标大型语言模型,所述目标大型语言模型用于查询目标提示文本对应的目标插件,并调用所述目标插件以获得所述目标插件输出的插件运行结果。
根据本公开的第四方面,提供了一种插件预测装置,包括:
接收单元,用于接收用户触发的插件查询请求,所述插件查询请求包括目标查询文本;
目标单元,用于获取与所述目标查询文本对应的目标聊天上下文;
提示单元,用于基于所述目标聊天上下文和预设插件参照信息,生成目标提示文本,所述插件参照信息是指与插件查询具有关联关系的信息;
插件单元,用于通过训练获得的目标大型语言模型,查询与所述目标提示文本对应的目标插件和调用所述目标插件获得的插件运行结果,所述目标大型语言模型是基于第一方面所述的模型训练方法训练获得。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面或者第二方面所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据第一方面或第二方面的方法。
根据本公开的第七方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行第一方面或第二方面所述的方法。
根据本公开的技术方案中,在插件管理系统的多个插件的基础上,建立训练数据集。训练数据集可以包括用于描述插件的提示文本和该插件的插件标签,提示文本包括与插件关联的聊天上下文和插件参照信息。通过训练数据集可以对预设大型语言模型训练,获得目标大型语言模型。训练获得的目标大型语言模型能够完成模型的查询和调用,获得目标插件以及目标插件输出的插件运行结果。大型语言模型学习到训练数据集中提示文本和插件标签,通过训练预设大型语言模型,可以使得大型语言模型学习到大量的用于描述插件的提示文本,进而达到识别不同的提示文本的目标,获得准确的插件,实现插件的精确查询。此外,目标大型语言模型还可以对查询到的目标插件进行自动调用,获得目标插件输出的插件运行结果。在查询到插件之后,不需要人工调用,而是采用插件的自动调用,提高了插件运行效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例提供的一种数据处理系统的应用示意图;
图2是根据本公开第一实施例的示意图;
图3是根据本公开实施例提供的样本扩充的示意图;
图4是根据本公开实施例提供的预测路径的示意图;
图5是根据本公开第二实施例的示意图;
图6是根据本公开实施例提供的参数约束矩阵的示意图;
图7是根据本公开第三实施例的示意图;
图8是根据本公开第四实施例的示意图;
图9是根据本公开第五实施例的示意图;
图10是用来实现本公开实施例的模型训练或插件预测方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供一种模型训练、插件预测方法、装置、设备、介质及产品,应用于人工智能领域中的云计算、大数据、深度学习领域,通过训练获得用于插件的查询和调用的目标大型语言模型,以达到提高插件预测精度和使用效率的目的。
相关技术中,插件系统可以提供多个插件,每个插件可以实现预设插件功能,例如域名查询插件可以用于实现域名的查询。插件系统中的插件可以被查询和调用。目前,插件的查询一般是基于关键词的查询。具体地,可以为每个插件添加插件标签,插件标签例如可以包括插件的名称、功能、调用方法等信息。在存在查询需求时,可以输入用于查询插件的关键词,关键词可以包括插件的插件标签中的一个或多个词语。但是,通过关键词查询的方法获得目标插件并不准确。
为了解决上述问题,本公开将大型语言模型(LLM,Large Language Model)用于查询插件,但是大型语言模型查询插件时,并未学习到插件的相关知识,因此,可以在插件管理系统的多个插件的基础上,建立训练数据集。训练数据集可以包括用于描述插件的提示文本和该插件的插件标签,提示文本包括与插件关联的聊天上下文和插件参照信息。聊天上下文可以是指查询插件时的对话文本。插件参照信息可以是指与插件查询具有关联关系的信息。聊天上下文可以准确记录用于查询插件的文本,插件参照信息可以进一步丰富提示文本,进而通过聊天上下文和插件参照信息可以使得插件的提示文本具备更丰富的提示内容。插件标签可以用于标识插件。训练数据集可以包括多个训练样本。
本公开的技术方案中,通过训练数据集可以对预设大型语言模型训练,获得目标大型语言模型。训练获得的目标大型语言模型能够完成模型的查询和调用,获得目标插件以及目标插件输出的插件运行结果。大型语言模型学习到训练数据集中提示文本和插件标签,通过训练预设大型语言模型,可以使得大型语言模型学习到大量的用于描述插件的提示文本,进而达到识别不同的提示文本的目标,获得准确的插件,实现插件的精确查询。此外,目标大型语言模型还可以对查询到的目标插件进行自动调用,获得目标插件输出的插件运行结果。在查询到插件之后,不需要人工调用,而是采用插件的自动调用,提高了插件运行效率。
图1为本公开实施例提供的一种数据处理系统的应用示意图。该数据处理系统可以包括插件管理系统11、服务器12以及电子设备13。
其中,插件管理装置11可以包括多个插件,每个插件可以具有插件信息,插件信息可以包括插件标识、插件名称、插件版本、插件功能信息、插件调用方法等信息。
服务器12可以在插件管理系统11的多个插件的基础上,确定训练数据集,训练数据集,训练数据集可以包括多个训练样本,训练样本可以包括用于查询插件的提示文本和插件标签。插件标签可以用于区分不同插件。而提示文本可以包括聊天上下文和插件参照信息。聊天上下文可以用于记录插件查询过程。插件参照信息可以是指与插件查询具有关联关系的信息。通过训练数据集可以对预设的大型语言模型进行训练,获得目标大型语言模型。
之后,服务器12可以将目标大型语言模型发布于电子设备13。电子设备13可以获取用户触发的目标查询文本,并获取与目标查询文本对应的目标聊天上下文,通过目标聊天上下文和预设插件参照信息,生成目标提示文本。通过目标大型语言模型,查询目标提示文本对应的目标插件,并通过该目标大型语言模型自动调用目标插件,获得目标插件输出的插件运行结果。
图2是本公开第二实施例的示意图,参考图2所示的模型训练方法,可以包括下列步骤:
步骤201、基于插件管理系统中多个插件,确定训练数据集,训练数据集包括多个训练样本,训练样本包括用于查询插件的提示文本以及插件标签,提示文本包括聊天上下文和插件参照信息,插件参照信息是指与插件查询具有关联关系的信息。
本公开的技术方案可以配置为模型训练装置,模型训练装置可以位于电子设备中。电子设备可以为任意类型的终端设备,例如计算机、云服务器等。插件管理系统可以为提供插件管理的应用程序,插件管理系统可以为电子设备提供多个插件和各插件的插件信息。其中,插件信息可以包括插件标识、插件名称、插件功能信息、插件调用方法等信息。插件调用方法可以包括插件调用的接口和参数、链接等信息。
可选地,插件管理系统的多个插件可以为任意类型、任意功能的插件,本实施例中对各插件的功能和类型并不过多限定。
示例性地,多个插件可以包括AI(Artificial Intelligence,人工智能)画图插件、web(World Wide Web,万维网)漏洞扫描插件、编译工具插件、反编译工具插件、IP(Internet Protocol,网络协议)信息读取插件、ping(网络诊断工具)命令生成插件、URL(Uniform Resource Locator,统一资源定位符)地址转换插件、图片的exif(Exchangeableimage file format,可交换图像文件格式)信息获取插件、密码字典加密插件、漏洞检测插件、域名读取插件、爬虫插件、网址关联域名获取插件、网络资讯获取插件、子域名收集插件、端口扫描插件、网址安全判定插件、邮件读取插件、二维码生成插件、DNS(Domain NameSystem,域名解析系统)解析插件、目标的端口和服务扫描插件、浏览器插件、漏洞修复插件、DNSlog(Domain Name System log,域名解析系统的域名日志)插件、漏洞数据库插件、编解码插件等多种插件中的任意插件。
本实施例中用于查询插件的提示文本(prompt)可以包括聊天上下文和插件标签。
聊天上下文可以是指调用插件和使用插件过程中涉及到的对话文本。例如,用户输入“A网址的IP地址是什么”,则可以显示“IP地址查询插件”以及“IP地址查询插件的查询结果”,IP地址插件的查询结果例如可以是“A网址的IP地址是:B”。之后,用户再输入“扫描看看开了哪些端口和服务”,则可以显示“目标的端口和服务扫描插件”以及“目标的端口和服务扫描插件的扫描结果”,目标的端口和服务扫描插件的扫描结果例如可以为“根据扫描结果显示,B开发了端口80(http(Hyper Text Transfer Protocol,超文本传输协议)服务)和443端口(https(Hyper Text Transfer Protocol over Secure Socket Layer,通过安全套接字层超文本传输协议)服务)”。
当然,训练样本的聊天上下文可以通过人工提供获得,也可以通过模型预测获得。例如,可以通过现有插件调用方法结合人工描述,可以获得插件的聊天上下文。例如,可以通过上下文预测模型的预测获得聊天上下文。
插件标签可以包括插件信息和插件的调用结果。以web漏洞扫描插件为例,插件标签可以包括插件信息和漏洞扫描插件扫描到的漏洞。插件的调用结果是指插件输入参数被赋值之后运行插件产生的运行结果。
插件标签可以对大型语言模型的输出格式进行约束,使得大型语言模型除输出插件的插件信息之外还可以输出插件的运行结果。
插件参照信息是指与插件查询具有关联关系的信息,可以通过插件参照信息对插件的查询角色、查询范围、插件输出格式和插件查询过程进行表示,从多个维度对插件的查询过程进一步约束,可以提高插件的查询效率和准确性。
为了使得插件的查询场景更丰富,一个插件可以对应多个训练样本,也即样本数据集中的多个训练样本可以包括各插件的多个训练样本。
步骤202、利用训练数据集,训练预设大型语言模型,获得目标大型语言模型,目标大型语言模型用于查询目标提示文本对应的目标插件,并调用目标插件以获得目标插件输出的插件运行结果。
可选地,步骤202,可以包括:利用训练数据集,对已知LLM进行参数更新,获得参数更新后的LLM,基于参数更新后的LLM,确定目标大型语言模型。采用已知LLM进行训练,可以节约训练成本的基础上,使得LLM学习到插件的查询输入和输出,使得参数更新后的LLM能够适用于插件的查询和调用。
其中,已知LLM可以为现有的已训练获得的LLM,本实施例中对LLM所采用的具体类型并不过多限定。
可选地,目标大型语言模型查询到目标提示文本对应的目标插件之后可以输出目标插件的插件信息。目标大型语言模型调用目标插件获得目标插件输出的插件运行结果之后,可以输出目标插件的插件运行结果。
本公开实施例中,在插件管理系统中多个插件的基础上,可以建立与多个插件对应的训练数据集。该训练数据集可以包括多个训练样本,训练样本可以包括用于查询插件的提示文本以及插件标签。提示文本是用于查询插件的文本,可以包括聊天上下文和插件参照信息,插件参照信息可以是指与插件查询具有关联关系的信息,可以使得插件的提示文本具备更丰富的文本内容。利用训练数据集训练预设大型语言模型,获得目标大型语言模型,可以使得目标大型语言模型学习到大量的提示文本,进而对与插件查询相关的目标提示文本具备更强的查询能力,提高查询精度,获得准确的目标插件。在获得目标插件之后,目标大型语言模型还可以直接调用该目标插件,不需要再通过人工完成插件的运行,提高插件的运行效率,快速而准确地完成插件的查询和运行。
为使读者更深刻地理解本公开的实现原理,现结合以下图3-图6对图2所示的实施例进行进一步细化。
目前,通过插关键词查询是一种较为常见的插件查询方式,但是仅通过关键词的查询效果较差,查询到的插件的准确率较低。为了解决插件查询准确率较低的问题,可以收集插件查询过程中的对话,形成聊天上下文,将聊天上下文作为查询输入,可以使得输入数据的内容更全面。但是,聊天上下文的采集较为困难,导致现有数据集的样本数量较少。而大型语言模型需要大量的训练样本,因此,可以在现有的训练样本的基础上进行样本扩展,获得大量的训练样本。
此外,在聊天上下文的基础上,还可以增加插件查询过程中的插件参照信息,通过插件参照信息可以为插件的查询过程提供具体的参照物,使得插件的查询更明确,提高插件查询的准确度。
因此,作为一种可能的实现方式,基于插件管理系统中多个插件,确定用于训练大型语言模型的训练数据集,包括:
获取插件管理系统中多个插件预设的初始数据集,初始数据集包括多个初始样本,初始样本包括为插件设置的初始聊天上下文以及该插件的插件标签。
对初始数据集进行样本扩充处理,获得多个扩充样本,扩充样本包括:插件标签和基于插件标签预测的扩充聊天上下文。
基于多个初始样本和多个扩充样本,确定训练数据集。
可选地,初始数据集可以包括多个初始样本。多个初始样本可以包括各插件对应的多个初始样本。初始样本可以是指初始数据集中的训练样本。
初始聊天上下文可以是指为初始数据集中的初始样本设置的聊天上下文。初始聊天上下文可以通过人工提供或者已有插件调用过程中的对话采集获得。
对初始数据集进行样本扩充处理,获得多个扩充样本可以是指对初始数据集中的多个初始样本,对各个插件进行聊天上下文进行反向预测,利用反向预测的各插件的聊天上下文,确定各插件对应的扩充样本,以获得多个插件分别对应的扩充样本组成的多个扩充样本。扩充样本可以是指为插件扩充获得的训练样本。
扩充样本中可以包括插件标签,而扩充样本的聊天上下文通过插件标签反向预测获得。
本公开的技术方案中,可以获取插件管理系统的多个插件对应的初始数据集,该初始数据集包括多个初始样本,初始样本可以包括为插件设置的初始聊天上下文和该插件的插件标签。插件标签可以是指初始聊天上下文对应插件的标签。在初始数据集的基础上,可以进行样本扩充处理,获得多个扩充样本,扩充样本可以包括插件标签和基于该插件标签预测的扩充聊天上下文。通过插件标签可以反向预测插件的聊天上下文,实现对插件的样本扩充,获得多个扩充样本。进而以多个初始样本和多个扩充样本确定训练数据集,可以提高训练数据集的样本数量,进而通过更多数量的训练样本实现大型语言模型的插件查询训练。
进一步地,在上述任一实施例的基础上,对初始数据集进行样本扩充处理,获得多个扩充样本,包括:
获取训练获得的目标上下文生成模型,目标上下文生成模型基于初始数据集中多个初始样本训练获得;
基于目标上下文生成模型和插件的插件标签,对插件进行上下文预测,获得插件标签对应的扩充聊天上下文。
将插件标签和插件标签对应的扩充聊天上下文确定为扩充样本,以获得多个扩充样本。
本实施例中,基于目标上下文生成模型和插件的插件标签,对插件进行上下文预测,获得插件标签对应的扩充聊天上下文可以包括根据插件列表中插件的插件标签和目标上下文生成模型,对插件进行上下文预测,获得插件标签对应的扩充聊天上下文。
可选地,获取训练获得的目标上下文生成模型,可以包括:解析上下文生成模型的模型参数,以获得该模型参数对应的目标上下文生成模型。
可选地,基于目标上下文生成模型和插件的插件标签,对插件进行上下文预测,获得插件的扩充聊天上下文,可以包括:以插件的插件标签作为输入数据输入到目标上下文生成模型,获得该目标上下文生成模型输出的聊天上下文,该聊天上下文即为该插件标签对应的扩充聊天上下文。
本公开的技术方案中,获取训练获得的目标上下文生成模型,通过上下文生成模型对插件的插件标签进行训练,获得插件的扩充聊天上下文。目标上下文生成模型的获取,可以实现利用插件的插件标签自动生成聊天上下文,进而确定扩充聊天上下文和对应插件标签的扩充样本,快速完成样本扩充,提高样本扩充效率。
进一步地,为了实现目标上下文生成模型的训练,本公开的技术方案还包括:
将初始数据集中的插件标签确定为样本数据,并将初始样本的初始聊天上下文确定为样本标签,获得样本数据和样本标签构成的上下文样本。
利用多个初始样本分别对应的上下文样本,训练预设上下文生成模型,获得目标上下文生成模型。
可选地,初始数据集中训练样本可以包括:初始聊天上下文和插件标签。初始聊天上下文可以为样本数据,插件标签可以为样本标签。
而上下文生成模型对应训练样本的样本数据为初始数据集中训练样本的样本标签,上下文生成模型对应训练样本的样本标签为初始数据集中训练样本的样本数据。
也即,插件标签可以为上下文生成模型的输入数据,初始聊天上下为可以为上下文生成模型的真实输出结果,也即标签。
将初始样本转换为上下文样本可以是指将初始数据集中的插件标签确定为样本数据,并将初始样本的初始聊天上下文确定为样本标签,以获得插件标签和初始聊天上下文组成的上下文样本。
本实施例中的上下文生成模型也可以是指已知的LLM。通过已知的LLM,进一步对多个上下文样本进行学习,可以使得训练后的LLM具备上下文生成功能,获得目标上下文生成模型。
示例性地,假设训练数据集包含2000个训练样本,则可以将2000个训练样本中的聊天上下文作为初始聊天上下文,结合插件标签,确定2000个初始样本,以获得初始数据集。之后可以将初始数据集中多个初始样本的样本数据和样本标签对掉,获得2000个上下文样本。使用上述2000个上下文样本可以训练上下文生成模型。
本公开的技术方案中,以插件标签作为样本数据,以初始聊天上下文作为样本标签,获得样本数据和样本标签构成的上下文样本,进而利用上下文样本,训练预设的上下文生成模型,获得目标上下文生成模型。目标上下文生成模型学习到大量的插件标签和初始上下文,进而在反向预测插件标签的上下文的过程中,可以获得更准确的预测结果,提高生成的上下文的准确率。
为了便于理解,图3示出了本公开实施例中样本扩充的示意图。对于初始数据集中的N个初始样本,可以为各插件标签以及对应的初始聊天上下文。将插件标签和插件标签对应的初始聊天上下文反向,可以获得N个上下文样本。N个上下文样本可以用于训练上下文生成模型,获得目标上下文生成模型。进而基于初始数据集中的插件标签和/或插件列表中的插件标签进行上下文预测,以获得扩充聊天上下文,确定扩充聊天上下文和对应插件标签为一个扩充样本。初始数据集中的各初始样本和各扩充样本均可以转换为对应的训练样本,获得训练数据集。
进一步地,在上述实施例的基础上,基于多个初始样本和多个扩充样本,确定训练数据集,包括:
按照预设提示词格式,将扩充样本的扩充聊天上下文和插件参照信息转换为提示文本,以获得扩充样本对应的提示文本和插件标签构成的训练样本。
按照预设提示词格式,将初始样本的初始聊天上下文和插件参照信息转换为提示文本,以获得初始样本对应的提示文本和初始插件构成的训练样本。
将多个扩充样本分别对应的训练样本和多个初始样本分别对应的训练样本确定为训练数据集。
可选地,提示词格式可以是指预先设置的提示文本的各项信息的排列方式。插件参照信息包含插件预测角色信息、插件输出格式以及插件预测实例。可以将提示词格式设置为:第一部分为角色信息、第二部分为聊天上下文、第三部分为插件列表、第四部分为插件输出格式以及第五部分为插件预测实例。当然,上述提示词格式仅是示例性的,并不构成对本公开的具体限定。
本公开的技术方案中,按照提示词格式,将扩充样本的扩充聊天上下文和插件参照信息转换为提示文本,将初始样本的初始聊天上下文和插件参照信息转换为提示文本,获得多个训练样本。通过提示词格式,可以使得训练样本中的各个样本数据均符合提示词格式,使得训练数据集中的数据具备一致性,进而在利用训练数据集训练大型语言模型时,使得大型语言模型具备对相同类型的数据进行统一处理,避免数据格式不同导致的模型过度训练,实现模型的快速收敛。
进一步地,在上述任一实施例的基础上,还包括:
获取插件管理系统的插件列表,插件列表包括插件管理系统中多个插件分别对应的插件信息。
确定预设插件预测角色信息、插件输出格式以及插件预测实例;
将插件列表、插件预测角色信息、插件输出格式以及插件预测实例确定为插件参照信息。
可选地,插件列表可以包括多个插件分别对应的插件信息。插件的插件信息可以用于生成插件标签。具体地,可以从插件信息中按照标签内容需求提取插件标签。例如,可以从插件信息中提取插件标识和插件调用的链接作为插件标签。
其中,获取插件管理系统的插件列表可以包括:发送插件列表读取请求至插件管理系统,插件列表读取请求指示插件管理系统反馈插件列表。接收插件管理系统发送的插件列表。
可选地,确定预设插件预测角色信息、插件输出格式以及插件预测实例,可以包括:响应用户执行的训练配置操作,获得用户配置的插件预测角色信息、插件输出格式以及插件预测实例。
可选地,确定预设插件预测角色信息、插件输出格式以及插件预测实例,可以包括:从插件配置文件中读取预设的插件预测角色信息、插件输出格式以及插件预测实例。插件配置文件可以预先存储插件预测角色信息、插件输出格式以及插件预测实例。
本实施例中的插件预测实例(demo)可以是指插件查询和调用的演示示例。插件预测实例可以包括:输入文本、预测路径和插件的调用结果。预测路径可以是指从输入文本到输出正确的调用结果的过程信息。
例如,预测路径:可以包括当前输入文本以及与当前输入文本关联的对话以及该对话涉及到的插件。
为了便于理解,图4示出了预测路径的示意图。参考图4,预测路径可以为:根据当前输入文本401,也即“检测以上文件里的连接是否存在sql注入漏洞”,需要从该当前输入文本的上一轮对话402:“请帮我爬取网址C的请求链接,AI使用了D插件:D插件的插件名称,D插件的调用链接”中进行“链接”的查询,得到该链接“C网址”。之后,通过“是否存在sql漏洞”的理解,识别需要使用漏洞检测插件,从漏洞检测插件的插件信息中获取插件的调用方法,通过调用方法以及输入参数,也即上文“请帮我爬取网址C的请求链接”中的“C网址”,对该“C网址”进行漏洞检测。并输出漏洞检测插件的漏洞检测结果。可以按照插件输出格式输出漏洞检测插件的插件信息403例如插件名称、类型等信息和漏洞检测结果404。
插件输出格式可以是指对目标大型语言模型的输出设置的数据规范。插件输出格式例如可以包括:目标插件的插件信息和目标插件的插件运行结果。插件信息例如可以包括插件名称、插件的简介信息、插件的功能描述信息等信息中的至少一种。插件运行结果例如可以是指目标插件被正常调用产生的结果。
本公开的技术方案中,可以获取插件管理系统的插件列表,插件列表可以包括插件管理系统的多个插件分别对应的插件标签。此外还确定预设插件预测角色信息、插件输出格式以及插件预测实例,将上述信息确定为插件参照信息。插件参照信息可以为插件查询过程提供参考,插件列表可以提供插件的查询范围,避免在过大范围内查询插件提高插件查询效率和准确性。而插件预测角色信息可以指示大型语言模型对插件的查询角色快速确定,以实现插件的领域内查询。而插件输出格式则可以实现查询到的插件的输出约束,使得插件实现模式化输出,提供较高的输出效果。而插件预测实例可以作为插件预测过程的参照,对插件的查询过程具有积极的推动作用,提高插件的预测效率和准确性。
在大型语言模型的训练结束之后,在模型训练效果较高的情况下,可以直接应用训练获得的大型语言模型。在模型应用过程中发现,若输入的查询文本的某项信息存在异常时,模型的输出结果并不稳定,准确性也不高。
为了实现模型的稳定且准确的输出。图5示出了本公开第二实施例的示意图,参考图5所示的模型训练方法,与前述实施例的不同之处在于,步骤202:利用训练数据集,训练大型语言模型,获得目标大型语言模型,可以包括:
步骤501、利用训练数据集,训练大型语言模型,直至大型语言模型满足迭代终止条件。
可选地,步骤501,可以包括:获取已知LLM,将已知LLM确定为大型语言模型的初始模型,将训练数据集中多个训练样本分别对应的提示文本输入到初始模型,获得初始模型在多个训练样本分别对应的预测结果,预测结果可以包括预测插件与预测插件的运行结果。根据多个训练样本分别对应的预测结果和插件标签,判断初始模型是否满足迭代终止条件,若是,则确定初始模型为满足迭代终止条件的大型语言模型,若否,则更新初始模型,返回至将训练数据集中多个训练样本分别对应的提示文本输入到初始模型继续执行。
进一步地,根据多个训练样本分别对应的预测结果和插件标签,判断初始模型是否满足迭代终止条件,可以包括:根据多个训练样本分别对应的预测结果和插件标签,计算初始模型的损失误差;若该损失误差小于或等于预设的误差阈值,则确定初始模型满足迭代终止条件;若损失误差大于该误差阈值,则确定初始模型不满足迭代终止条件。
其中,可以通过损失函数对多个训练样本分别对应的预测结果和插件标签进行误差计算,计算初始模型的损失误差。损失函数可以为相关技术中任意一种损失函数,在此不再一一赘述。
此外,在模型训练过程中还可以根据多个训练样本分别对应的预测结果和插件标签,计算初始模型的预测准确率,根据预测准确率,判断初始模型是否满足迭代终止条件。
在模型训练过程中还可以确定初始模型的训练次数,并根据训练次数,判断初始模型是否满足迭代终止条件。还可以确定初始模型的训练时间,并根据训练时间,判断初始模型是否满足迭代终止条件。
当然,上述迭代终止条件的检测方法还可以叠加或者混用,以实现更复杂的迭代终止判别。
步骤502、通过参数约束算法,对满足迭代终止条件的大型语言模型进行参数约束处理,获得目标大型语言模型。
可选地,参数约束算法可以是指LORA(Low-Rank Adaptation of Large languagemodels,大型语言模型的参数微调算法)。通过LORA微调算法可以对满足迭代终止条件的大型语言模型进行参数约束,获得输入输出更具优势的目标大型语言模型。
本公开的技术方案中,利用训练数据集训练大型语言模型时,可以在大型语言模型满足迭代终止。对于满足迭代终止条件的大型语言模型,可以使用参数约束算法对训练获得的大型语言模型进行参数约束,获得目标大型语言模型。目标大型语言模型是在训练获得的大型语言模型的基础上,额外使用参数约束获得的模型,使得训练获得的大型语言模型的输入和输出受到参数约束算法的约束,输入的内容和输出的内容更稳定,进而提高模型输出的稳定性。
进一步地,通过参数约束算法,对满足迭代终止条件的大型语言模型进行参数约束处理,获得目标大型语言模型,包括:
构建与插件查询任务对应的参数约束矩阵,参数约束矩阵包括降维矩阵和升维矩阵,降维矩阵的输出端连接升维矩阵的输入端;
将参数约束矩阵和满足迭代终止条件的大型语言模型作为并列模型,在固定大型语言模型的情况下,利用训练数据集,训练参数约束矩阵,获得目标参数约束矩阵;
确定满足迭代终止条件的大型语言模型和目标参数约束矩阵构成的目标大型语言模型。
为了便于理解,图6示出了参数约束矩阵的示意图。如图6所示,训练获得的目标大型语言模型601可以与参数约束矩阵602并列。参数约束矩阵602可以包括降维矩阵6021和升维矩阵6022。输入数据输入到目标大型语言模型601和降维矩阵6022。降维矩阵6022的输出端连接升维矩阵的输入端。目标大型语言模型601的输出和升维矩阵6021的输出端可以融合以获得目标插件和目标插件的插件运行结果。
本公开的技术方案中,通过构建与插件查询任务对应的参数约束矩阵,参数约束矩阵可以包括降维矩阵和升维矩阵,降维矩阵的输出端可以连接升维矩阵的输入端。将参数约束矩阵和满足迭代终止条件的大型语言模型作为并列模型,在固定大型语言模型的情况下,利用训练数据集训练参数约束矩阵,获得目标参数约束矩阵。通过固定参数较多的大型语言模型,可以实现参数约束矩阵的快速训练。而训练获得的目标参数约束矩阵和满足迭代终止条件的大型语言模型可以共同组成的目标大型语言模型,使得目标大型语言模型即能够实现大型语言模型的插件查询,又能通过目标参数约束矩阵对模型计算过程中的参数的输入和输出进行约束,进而通过提高模型输入和输出的稳定性,进一步提高目标大型语言模型的模型使用效果。
在本实施例中,插件管理系统的插件可以不断更新,为了使得大型语言模型的插件查询和调用效果维持较高的时效性,可以为新增的插件构建训练样本,并利用该训练样本对目标大型语言模型进行参数更新。
进一步地,在上述任一实施例的基础上,该方法还可以包括:
获取插件管理系统的新增插件,并确定新增插件的新增训练样本,新增训练样本包括新增插件对应的提示文本以及新增插件的插件标签,提示文本包括基于新增插件确定的聊天上下文和插件参照信息。
基于新增训练样本,更新目标大型语言模型的模型参数,获得更新后的目标大型语言模型。
可选地,获取插件管理系统的新增插件,可以包括按照轮询策略,从插件管理系统获取新增插件。轮询策略可以是指通过预设查询频率进行新增插件的查询。查询频率可以根据插件更新速度确定,与插件更新速度成正比。例如插件更新速度较高,可以设置较高的查询频率,而若插件更新速度较低,则可以设置较小的查询频率。插件更新速度可以是指增加一个插件的平均时长,插件更新速度例如为:平均每天增加一个插件或者平均每周增加一个插件。
新增插件的样本获取方式与训练数据集中训练样本的获取方式相同,可以参考训练样本的具体获取步骤,在此不再赘述。
基于新增训练样本,更新目标大型语言模型的模型参数,获得更新后的目标大型语言模型,可以包括:将新增训练样本的提示文本输入目标大型语言模型,获得新增训练样本对应的预测结果。利用新增训练样本的预测结果和插件标签,判断目标大型语言模型是否满足预设的迭代终止条件,若是,则确定该目标大型语言模型为更新后的目标大型语言模型。若否,则更新目标大型语言模型,并返回至将新增训练样本的提示文本输入目标大型语言模型继续执行。
本公开的技术方案中,可以获取插件管理系统的新增插件,并确定新增插件的新增训练样本,新增训练样本可以用于更新目标大型语言模型的模型参数,获得更新后的目标大型语言模型,使得目标大型语言模型能够学习到新增插件的训练样本,使得目标大型语言模型能够查询到新增插件,不断完成新增插件的查询更新,扩展目标大型语言模型的模型适用范围。
进一步地,确定新增插件的新增训练样本,包括:
接收插件管理系统发送的插件增加请求,插件增加请求包括新增插件的插件标签;
基于训练获得的目标上下文生成模型和新增插件的插件标签,生成新增插件对应的聊天上下文。
根据新增插件的聊天上下文和插件参照信息,生成新增插件的提示文本。
将新增插件的提示文本和插件标签确定为新增训练样本。
可选地,根据新增插件的聊天上下文和插件参照信息,生成新增插件的提示文本,可以包括:按照预设提示词格式,将新增插件的聊天上下文和插件参照信息,生成新增插件的提示文本。插件参照信息中的插件列表可以是指更新后的插件列表。更新后的插件列表是指将新增插件的插件信息添加到原有插件列表后获得的插件列表。
本公开的技术方案中,接收插件管理系统发送的插件增加请求,插件增加请求可以包括新增插件的插件标签,通过训练获得的目标上下文生成模型,生成新增插件的插件标签对应的聊天上下文,实现新增插件的聊天上下文的自动获取。通过新增插件的聊天上下文和插件参照信息可以生成新增插件的提示文本,以确定提示文本和插件标签对应的新增训练样本,实现新增训练样本的自动建立,提高新增训练样本的建立效率。
图7示出了本公开第三实施例的示意图,参考图7所示的插件预测方法,可以包括下列步骤:
步骤701、接收用户触发的插件查询请求,插件查询请求包括目标查询文本。
步骤702、获取与目标查询文本对应的目标聊天上下文。
可选地,获取与目标查询文本对应的目标聊天上下文,可以包括以目标查询文本确定为目标聊天上下文。
可选地,获取与目标查询文本对应的目标聊天上下文,可以包括:通过目标上下文生成模型,将目标查询文本作为目标上下文生成模型的输入,获得目标上下文生成模型输出的聊天上下文,以确定该目标上下文生成模型输出的聊天上下文为目标聊天上下文。
步骤703、基于目标聊天上下文和预设插件参照信息,生成目标提示文本,插件参照信息是指与插件查询具有关联关系的信息。
可选地,步骤703,可以包括:按照预设提示词格式,将目标聊天上下文和预设插件参照信息转换为目标提示文本。
步骤704、通过训练获得的目标大型语言模型,查询与目标提示文本对应的目标插件和调用目标插件获得的插件运行结果,目标大型语言模型是基于上述任一实施例所提供的模型训练方法训练获得。
可选地,步骤704,可以包括:将目标提示文本输入目标大型语言模型,获得目标大型语言模型输出的目标插件的插件信息和插件运行结果。
步骤704之后,该方法还可以包括:输出目标插件的插件信息和目标插件的插件运行结果。
本公开的技术方案中,可以接收用户触发的插件查询请求,基于插件查询请求中的目标查询文本,获得对应的目标聊天上下文,实现对目标插件文本的聊天上下文的获取。基于与目标聊天上下文和预设插件参照信息,生成目标提示文本,使得目标提示文本包含了更丰富的内容。进而利用训练获得的目标大型语言模型,查询与目标提示文本对应的目标插件,并获取目标插件对应的插件运行结果。通过训练获得的目标大型语言模型实现插件的自动查询和调用,实现插件查询效率和准确性的提升的同时,提高插件调用效率。
本公开的插件预测方法可以应用于多种插件的查询场景中。下面将对其中三种查询场景进行举例说明。
实施例一、目标查询文本包括:目标机构的域名采集文本。
获取与目标查询文本对应的目标聊天上下文,包括:
获取与域名采集文本对应的目标聊天上下文。
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得目标插件以及目标插件输出的插件运行结果,包括:
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得域名查询插件和域名查询插件对目标机构进行域名查询获得的至少一个域名。
实施例二、目标查询文本包括:网络地址查询文本。
获取与目标查询文本对应的目标聊天上下文,包括:
获取与网络地址查询文本对应的目标聊天上下文。
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得目标插件以及目标插件输出的插件运行结果,包括:
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得网络地址查询插件以及网络地址查询插件查询获得的网络地址。
实施例三、目标查询文本包括:漏洞查询文本。
获取与目标查询文本对应的目标聊天上下文,包括:
获取与漏洞查询文本对应的目标聊天上下文。
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得目标插件以及目标插件输出的插件运行结果,包括:
将目标提示文本输入训练获得的目标大型语言模型,通过目标大型语言模型进行插件查询和调用,获得漏洞查询插件以及漏洞查询插件查询获得的网络漏洞。
当然,上述实施例一、实施例二和实施例三仅是示例性的,并不应构成对插件预测方法的具体的应用限定,本公开实施例可以应用于任意场景的插件查询和调用。
图8示出了本公开第四实施例的示意图,参考图8所示的模型训练装置,可以包括下列单元:
确定单元801、用于基于插件管理系统中多个插件,确定训练数据集,训练数据集包括多个训练样本,训练样本包括用于查询插件的提示文本以及插件标签,提示文本包括聊天上下文和插件参照信息,插件参照信息是指与插件查询具有关联关系的信息;
训练单元802、用于利用训练数据集,训练预设大型语言模型,获得目标大型语言模型,目标大型语言模型用于查询目标提示文本对应的目标插件,并调用目标插件以获得目标插件输出的插件运行结果。
进一步地,在上述任一实施例的基础上,确定单元,包括:
初始获取模块,用于获取为插件管理系统中多个插件预设的初始数据集,初始数据集包括多个初始样本,初始样本包括为插件设置的初始聊天上下文和插件标签;
样本扩充模块,用于对初始数据集进行样本扩充处理,获得多个扩充样本,扩充样本包括:插件标签和基于插件标签预测的扩充聊天上下文;
样本确定模块,用于基于多个初始样本和多个扩充样本,确定训练数据集。
进一步地,在上述任一实施例的基础上,样本扩充模块,包括:
生成获取子模块,用于获取训练获得的目标上下文生成模型,目标上下文生成模型基于初始数据集中多个初始样本训练获得;
聊天预测子模块,用于基于目标上下文生成模型和插件的插件标签,对插件进行上下文预测,获得插件的扩充聊天上下文;
样本扩充子模块,用于将插件标签和插件标签对应的扩充聊天上下文确定为扩充样本,以获得多个扩充样本。
进一步地,在上述任一实施例的基础上,还包括:
生成样本单元,用于将初始数据集中插件标签确定为样本数据,并将初始样本的初始聊天上下文确定为样本标签,获得样本数据和样本标签构成的上下文样本;
生成训练单元,用于利用多个初始样本分别对应的上下文样本,训练预设上下文生成模型,获得目标上下文生成模型。
进一步地,在上述任一实施例的基础上,样本确定模块,包括:
第一转换子模块,用于按照预设提示词格式,将扩充样本的扩充聊天上下文和插件参照信息转换为提示文本,以获得扩充样本对应的提示文本和已有插件标签构成的训练样本;
第一转换子模块,用于按照预设提示词格式,将初始样本的初始聊天上下文和插件参照信息转换为提示文本,以获得初始样本对应的提示文本和初始插件构成的训练样本;
样本确定子模块,用于将多个扩充样本分别对应的训练样本和多个初始样本分别对应的训练样本确定为训练数据集。
进一步地,在上述任一实施例的基础上,还包括:
列表获取单元,用于获取插件管理系统的插件列表,插件列表包括插件管理系统中多个插件分别对应的插件标签;
信息确定单元,用于确定预设插件预测角色信息、插件输出格式以及插件预测实例;
参照综合单元,用于将插件列表、插件预测角色信息、插件输出格式以及插件预测实例确定为插件参照信息。
进一步地,在上述任一实施例的基础上,训练单元,包括:
迭代训练模块,用于利用训练数据集,训练大型语言模型,直至大型语言模型满足迭代终止条件;
参数约束模块,用于通过参数约束算法,对满足迭代终止条件的大型语言模型进行参数约束处理,获得目标大型语言模型。
进一步地,在上述任一实施例的基础上,参数约束模块,包括:
矩阵构建子模块,用于构建与插件查询任务对应的参数约束矩阵,参数约束矩阵包括降维矩阵和升维矩阵,降维矩阵的输出端连接升维矩阵的输入端;
矩阵训练子模块,用于将参数约束矩阵和满足迭代终止条件的大型语言模型作为并列模型,在固定大型语言模型的情况下,利用训练数据集,训练参数约束矩阵,获得目标参数约束矩阵;
目标确定子模块,用于确定满足迭代终止条件的大型语言模型和目标参数约束矩阵构成的目标大型语言模型。
进一步地,在上述任一实施例的基础上,还包括:
新增获取单元,用于获取插件管理系统的新增插件,并确定新增插件的新增训练样本,新增训练样本包括新增插件对应的提示文本以及与新增插件的插件标签;提示文本包括:基于新增插件确定的聊天上下文和插件参照信息;
新增训练单元,用于基于新增训练样本,更新目标大型语言模型的模型参数,获得更新后的目标大型语言模型。
进一步地,在上述任一实施例的基础上,新增获取单元,包括:
增加处理模块,用于接收插件管理系统发送的插件增加请求,插件增加请求包括新增插件的插件标签;
聊天确定模块,用于基于训练获得的目标上下文生成模型和新增插件的插件标签,生成新增插件对应的聊天上下文;
提示新增模块,用于根据新增插件的聊天上下文和插件参照信息,生成新增插件的提示文本;
样本新增模块,用于将新增插件的提示文本和插件标签确定为新增训练样本。
图9示出了本公开第五实施例的示意图,参考图9所示的一种插件预测装置,可以包括下列单元:
接收单元901、用于接收用户触发的插件查询请求,插件查询请求包括目标查询文本;
目标单元902、用于获取与目标查询文本对应的目标聊天上下文;
提示单元903、用于基于目标聊天上下文和预设插件参照信息,生成目标提示文本,插件参照信息是指与插件查询具有关联关系的信息;
插件单元904、用于通过训练获得的目标大型语言模型,获得与目标提示文本对应的目标插件和目标插件对应的插件运行结果,目标大型语言模型是基于上述任一实施例的模型训练方法训练获得。
需要说明的是,本实施例中的大型语言模型并不是针对某一特定用户的大模型,并不能反映出某一特定用户的个人信息。需要说明的是,本实施例中的聊天上下文、插件来自于公开数据集。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,本公开还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如模型训练方法或插件预测方法。例如,在一些实施例中,模型训练方法或插件预测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的模型训练方法或插件预测方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法或插件预测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (25)

1.一种模型训练方法,包括:
基于插件管理系统中多个插件,确定训练数据集,所述训练数据集包括多个训练样本,所述训练样本包括用于查询插件的提示文本以及插件标签,所述提示文本包括聊天上下文和插件参照信息,所述插件参照信息是指与插件查询具有关联关系的信息;
利用所述训练数据集,训练预设大型语言模型,获得目标大型语言模型,所述目标大型语言模型用于查询目标提示文本对应的目标插件,并调用所述目标插件以获得所述目标插件输出的插件运行结果。
2.根据权利要求1所述的方法,其中,所述基于插件管理系统中多个初始插件,确定用于训练大型语言模型的训练数据集,包括:
获取为所述插件管理系统中多个所述插件预设的初始数据集,所述初始数据集包括多个初始样本,所述初始样本包括为所述插件设置的初始聊天上下文和插件标签;
对所述初始数据集进行样本扩充处理,获得多个扩充样本,所述扩充样本包括:插件标签和基于所述插件标签预测的扩充聊天上下文;
基于多个所述初始样本和多个所述扩充样本,确定所述训练数据集。
3.根据权利要求2所述的方法,其中,所述对所述初始数据集进行样本扩充处理,获得多个扩充样本,包括:
获取训练获得的目标上下文生成模型,所述目标上下文生成模型基于所述初始数据集中多个所述初始样本训练获得;
基于所述目标上下文生成模型和所述插件的插件标签,对所述插件进行上下文预测,获得所述插件标签对应的扩充聊天上下文;
将所述插件标签和所述插件标签对应的扩充聊天上下文确定为所述扩充样本,以获得多个所述扩充样本。
4.根据权利要求3所述的方法,还包括:
将所述初始数据集中所述插件标签确定为样本数据,并将所述初始样本的初始聊天上下文确定为样本标签,获得所述样本数据和所述样本标签构成的上下文样本;
利用多个所述初始样本分别对应的所述上下文样本,训练所述预设上下文生成模型,获得所述目标上下文生成模型。
5.根据权利要求2-4任一项所述的方法,其中,所述基于多个所述初始样本和多个所述扩充样本,确定所述训练数据集,包括:
按照预设提示词格式,将所述扩充样本的扩充聊天上下文和所述插件参照信息转换为提示文本,以获得所述扩充样本对应的提示文本和已有插件标签构成的训练样本;
按照所述预设提示词格式,将所述初始样本的初始聊天上下文和所述插件参照信息转换为提示文本,以获得所述初始样本对应的提示文本和初始插件构成的训练样本;
将多个所述扩充样本分别对应的训练样本和多个所述初始样本分别对应的训练样本确定为所述训练数据集。
6.根据权利要求1-5任一项所述的方法,还包括:
获取插件管理系统的插件列表,所述插件列表包括所述插件管理系统中多个插件分别对应的插件信息;
确定预设插件预测角色信息、插件输出格式以及插件预测实例;
将所述插件列表、插件预测角色信息、所述插件输出格式以及插件预测实例确定为所述插件参照信息。
7.根据权利要求1-6任一项所述的方法,其中,所述利用所述训练数据集,训练大型语言模型,获得目标大型语言模型,包括:
利用所述训练数据集,训练所述大型语言模型,直至所述大型语言模型满足迭代终止条件;
通过参数约束算法,对满足所述迭代终止条件的大型语言模型进行参数约束处理,获得所述目标大型语言模型。
8.根据权利要求7所述的方法,其中,所述通过参数约束算法,对满足所述迭代终止条件的大型语言模型进行参数约束处理,获得所述目标大型语言模型,包括:
构建与插件查询任务对应的参数约束矩阵,所述参数约束矩阵包括降维矩阵和升维矩阵,所述降维矩阵的输出端连接所述升维矩阵的输入端;
将所述参数约束矩阵和所述满足所述迭代终止条件的大型语言模型作为并列模型,在固定所述大型语言模型的情况下,利用所述训练数据集,训练所述参数约束矩阵,获得目标参数约束矩阵;
确定所述满足所述迭代终止条件的大型语言模型和所述目标参数约束矩阵构成的所述目标大型语言模型。
9.根据权利要求1-8任一项所述的方法,其中,还包括:
获取所述插件管理系统的新增插件,并确定所述新增插件的新增训练样本,所述新增训练样本包括所述新增插件对应的提示文本以及与所述新增插件的插件标签;所述提示文本包括:基于所述新增插件确定的聊天上下文和所述插件参照信息;
基于所述新增训练样本,更新所述目标大型语言模型的模型参数,获得更新后的目标大型语言模型。
10.根据权利要求9所述的方法,其中,所述确定新增插件的新增训练样本,包括:
接收所述插件管理系统发送的插件增加请求,所述插件增加请求包括新增插件的插件标签;
基于训练获得的目标上下文生成模型和所述新增插件的插件标签,生成所述新增插件对应的聊天上下文;
根据所述新增插件的聊天上下文和所述插件参照信息,生成所述新增插件的提示文本;
将所述新增插件的提示文本和插件标签确定为新增训练样本。
11.一种插件预测方法,包括:
接收用户触发的插件查询请求,所述插件查询请求包括目标查询文本;
获取与所述目标查询文本对应的目标聊天上下文;
基于所述目标聊天上下文和预设插件参照信息,生成目标提示文本,所述插件参照信息是指与插件查询具有关联关系的信息;
通过训练获得的目标大型语言模型,获得与所述目标提示文本对应的目标插件和所述目标插件对应的插件运行结果,所述目标大型语言模型是基于权利要求1-10任一项所述的模型训练方法训练获得。
12.一种模型训练装置,包括:
确定单元,用于基于插件管理系统中多个插件,确定训练数据集,所述训练数据集包括多个训练样本,所述训练样本包括用于查询插件的提示文本以及插件标签,所述提示文本包括聊天上下文和插件参照信息,所述插件参照信息是指与插件查询具有关联关系的信息;
训练单元,用于利用所述训练数据集,训练预设大型语言模型,获得目标大型语言模型,所述目标大型语言模型用于查询目标提示文本对应的目标插件,并调用所述目标插件以获得所述目标插件输出的插件运行结果。
13.根据权利要求12所述的装置,其中,所述确定单元,包括:
初始获取模块,用于获取为所述插件管理系统中多个所述插件预设的初始数据集,所述初始数据集包括多个初始样本,所述初始样本包括为所述插件设置的初始聊天上下文和插件标签;
样本扩充模块,用于对所述初始数据集进行样本扩充处理,获得多个扩充样本,所述扩充样本包括:插件标签和基于所述插件标签预测的扩充聊天上下文;
样本确定模块,用于基于多个所述初始样本和多个所述扩充样本,确定所述训练数据集。
14.根据权利要求13所述的装置,其中,所述样本扩充模块,包括:
生成获取子模块,用于获取训练获得的目标上下文生成模型,所述目标上下文生成模型基于所述初始数据集中多个所述初始样本训练获得;
聊天预测子模块,用于基于所述目标上下文生成模型和所述插件的插件标签,对所述插件进行上下文预测,获得所述插件的扩充聊天上下文;
样本扩充子模块,用于将所述插件标签和所述插件标签对应的扩充聊天上下文确定为所述扩充样本,以获得多个所述扩充样本。
15.根据权利要求14所述的装置,还包括:
生成样本单元,用于将所述初始数据集中所述插件标签确定为样本数据,并将所述初始样本的初始聊天上下文确定为样本标签,获得所述样本数据和所述样本标签构成的上下文样本;
生成训练单元,用于利用多个所述初始样本分别对应的所述上下文样本,训练所述预设上下文生成模型,获得所述目标上下文生成模型。
16.根据权利要求13-15任一项所述的装置,其中,所述样本确定模块,包括:
第一转换子模块,用于按照预设提示词格式,将所述扩充样本的扩充聊天上下文和所述插件参照信息转换为提示文本,以获得所述扩充样本对应的提示文本和已有插件标签构成的训练样本;
第一转换子模块,用于按照所述预设提示词格式,将所述初始样本的初始聊天上下文和所述插件参照信息转换为提示文本,以获得所述初始样本对应的提示文本和初始插件构成的训练样本;
样本确定子模块,用于将多个所述扩充样本分别对应的训练样本和多个所述初始样本分别对应的训练样本确定为所述训练数据集。
17.根据权利要求12-16任一项所述的装置,还包括:
列表获取单元,用于获取插件管理系统的插件列表,所述插件列表包括所述插件管理系统中多个插件分别对应的插件标签;
信息确定单元,用于确定预设插件预测角色信息、插件输出格式以及插件预测实例;
参照综合单元,用于将所述插件列表、插件预测角色信息、所述插件输出格式以及插件预测实例确定为所述插件参照信息。
18.根据权利要求12-17任一项所述的装置,其中,所述训练单元,包括:
迭代训练模块,用于利用所述训练数据集,训练所述大型语言模型,直至所述大型语言模型满足迭代终止条件;
参数约束模块,用于通过参数约束算法,对满足所述迭代终止条件的大型语言模型进行参数约束处理,获得所述目标大型语言模型。
19.根据权利要求18所述的装置,其中,所述参数约束模块,包括:
矩阵构建子模块,用于构建与插件查询任务对应的参数约束矩阵,所述参数约束矩阵包括降维矩阵和升维矩阵,所述降维矩阵的输出端连接所述升维矩阵的输入端;
矩阵训练子模块,用于将所述参数约束矩阵和所述满足所述迭代终止条件的大型语言模型作为并列模型,在固定所述大型语言模型的情况下,利用所述训练数据集,训练所述参数约束矩阵,获得目标参数约束矩阵;
目标确定子模块,用于确定所述满足所述迭代终止条件的大型语言模型和所述目标参数约束矩阵构成的所述目标大型语言模型。
20.根据权利要求1-19所述的装置,其中,还包括:
新增获取单元,用于获取所述插件管理系统的新增插件,并确定所述新增插件的新增训练样本,所述新增训练样本包括所述新增插件对应的提示文本以及与所述新增插件的插件标签;所述提示文本包括:基于所述新增插件确定的聊天上下文和所述插件参照信息;
新增训练单元,用于基于所述新增训练样本,更新所述目标大型语言模型的模型参数,获得更新后的目标大型语言模型。
21.根据权利要求20所述的装置,其中,所述新增获取单元,包括:
增加处理模块,用于接收所述插件管理系统发送的插件增加请求,所述插件增加请求包括新增插件的插件标签;
聊天确定模块,用于基于训练获得的目标上下文生成模型和所述新增插件的插件标签,生成所述新增插件对应的聊天上下文;
提示新增模块,用于根据所述新增插件的聊天上下文和所述插件参照信息,生成所述新增插件的提示文本;
样本新增模块,用于将所述新增插件的提示文本和插件标签确定为新增训练样本。
22.一种插件预测装置,包括:
接收单元,用于接收用户触发的插件查询请求,所述插件查询请求包括目标查询文本;
目标单元,用于获取与所述目标查询文本对应的目标聊天上下文;
提示单元,用于基于所述目标聊天上下文和预设插件参照信息,生成目标提示文本,所述插件参照信息是指与插件查询具有关联关系的信息;
插件单元,用于通过训练获得的目标大型语言模型,查询与所述目标提示文本对应的目标插件和调用所述目标插件获得的插件运行结果,所述目标大型语言模型是基于权利要求1-10任一项所述的模型训练方法训练获得。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10或11中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-10或11中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现权利要求1-10或11中任一项所述方法的步骤。
CN202311774577.3A 2023-12-21 2023-12-21 模型训练、插件预测方法、装置、设备、介质及产品 Pending CN117668560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311774577.3A CN117668560A (zh) 2023-12-21 2023-12-21 模型训练、插件预测方法、装置、设备、介质及产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311774577.3A CN117668560A (zh) 2023-12-21 2023-12-21 模型训练、插件预测方法、装置、设备、介质及产品

Publications (1)

Publication Number Publication Date
CN117668560A true CN117668560A (zh) 2024-03-08

Family

ID=90086339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311774577.3A Pending CN117668560A (zh) 2023-12-21 2023-12-21 模型训练、插件预测方法、装置、设备、介质及产品

Country Status (1)

Country Link
CN (1) CN117668560A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118484826A (zh) * 2024-07-15 2024-08-13 北京启明星辰信息安全技术有限公司 知识可控的大模型数据处理方法、系统、装置和介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118484826A (zh) * 2024-07-15 2024-08-13 北京启明星辰信息安全技术有限公司 知识可控的大模型数据处理方法、系统、装置和介质

Similar Documents

Publication Publication Date Title
CN110428058B (zh) 联邦学习模型训练方法、装置、终端设备及存储介质
CN109359194B (zh) 用于预测信息类别的方法和装置
KR20210146781A (ko) 영상을 인식하는 방법, 장치, 전자 기기, 매체 및 프로그램
CN114116065B (zh) 获取拓扑图数据对象的方法、装置、及电子设备
US20190147059A1 (en) Method and apparatus for generating to-be-played multimedia content
US20190114711A1 (en) Financial analysis system and method for unstructured text data
CN111382341A (zh) 一种基于大数据的科技信息资源检索查询系统及方法
JP7499946B2 (ja) インテリジェント推奨用のソートモデルトレーニング方法及び装置、インテリジェント推奨方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
KR20210105315A (ko) 데이터 주석 방법, 장치, 기기, 저장매체 및 컴퓨터 프로그램
CN111209325B (zh) 业务系统接口识别方法、装置及存储介质
CN116894078A (zh) 一种信息交互方法、装置、电子设备及介质
US11550788B2 (en) Data investigation and visualization system
CN118035415A (zh) 问答方法、装置、设备以及存储介质
KR102151322B1 (ko) 정보 푸시 방법 및 장치
US20230085684A1 (en) Method of recommending data, electronic device, and medium
CN116401372A (zh) 知识图谱表示学习方法、装置、电子设备及可读存储介质
CN113360672B (zh) 用于生成知识图谱的方法、装置、设备、介质和产品
CN117668560A (zh) 模型训练、插件预测方法、装置、设备、介质及产品
CN113468446B (zh) 一种支持识别第三方二维码数据的方法、系统及设备
CN112148847B (zh) 一种语音信息的处理方法及装置
CN113656731B (zh) 广告页面的处理方法、装置、电子设备和存储介质
CN110471708B (zh) 基于可重用组件的配置项获取的方法及装置
CN113779018A (zh) 一种数据处理方法和装置
CN113612777A (zh) 训练方法、流量分级方法、装置、电子设备以及存储介质
US10803115B2 (en) Image-based domain name system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination