CN116594757B - 利用大语言模型执行复杂任务的方法及装置 - Google Patents
利用大语言模型执行复杂任务的方法及装置 Download PDFInfo
- Publication number
- CN116594757B CN116594757B CN202310876882.7A CN202310876882A CN116594757B CN 116594757 B CN116594757 B CN 116594757B CN 202310876882 A CN202310876882 A CN 202310876882A CN 116594757 B CN116594757 B CN 116594757B
- Authority
- CN
- China
- Prior art keywords
- task
- language model
- subtasks
- large language
- subtask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000011156 evaluation Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims description 30
- 238000012795 verification Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 17
- 238000013519 translation Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 13
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000010006 flight Effects 0.000 description 18
- 238000012216 screening Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012163 sequencing technique Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
本申请涉及机器学习技术领域,提供了一种利用大语言模型执行复杂任务的方法及装置。该方法包括:在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正。采用上述技术手段,解决现有技术中,大语言模型处理复杂任务效果差的问题。
Description
技术领域
本申请涉及机器学习技术领域,尤其涉及一种利用大语言模型执行复杂任务的方法及装置。
背景技术
大语言模型在文本生成、文本分类、机器翻译等自然语言处理任务中表现出色,但是对于调研报告、论文、软件系统编写和预定车票等复杂任务的处理上却表现不行。一方面,复杂任务对结果的要求更加专业,大语言模型无法给出满意的结果,另一方面,用户缺少设置任务的专业性,无法充分利用大语言模型的处理能力。而且,大语言模型单次生成内容长度有限,无法一次满足用户需求,用户必须多次互动才能获得结果。
发明内容
有鉴于此,本申请实施例提供了一种利用大语言模型执行复杂任务的方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,大语言模型处理复杂任务效果差的问题。
本申请实施例的第一方面,提供了一种利用大语言模型执行复杂任务的方法,包括:在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正。
本申请实施例的第二方面,提供了一种利用大语言模型执行复杂任务的装置,包括:拆分模块,被配置为在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;转换模块,被配置为确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;执行模块,被配置为按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;校验模块,被配置为依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:因为本申请实施例通过在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正,因此,采用上述技术手段,可以解决现有技术中,大语言模型处理复杂任务效果差的问题,进而提升大语言模型处理复杂任务的能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种利用大语言模型执行复杂任务的方法的流程示意图;
图2是本申请实施例提供的另一种利用大语言模型执行复杂任务的方法的流程示意图;
图3是本申请实施例提供的一种利用大语言模型执行复杂任务的装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
图1是本申请实施例提供的一种利用大语言模型执行复杂任务的方法的流程示意图。图1的利用大语言模型执行复杂任务的方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该利用大语言模型执行复杂任务的方法包括:
S101,在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;
S102,确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;
S103,按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;
S104,依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正。
大语言模型(Large Language Model,LLM),包括:GPT(Generative Pre-trainedTransformer)、XLNet等。大语言模型的参数规模一般大于3billion。目标任务包括指明需要完成的工作和各种要求,一个预定机票的目标任务为“帮我预订从北京到上海的机票,要求经济舱,价格最低,时间最合适”。该目标任务拆分为存在先后执行顺序的多个子任务:查询北京到上海的航班信息;筛选出经济舱的航班;按照价格从低到高排序航班;按照本周六从早到晚排序航班;选择价格最低且时间最合适的航班;预订所选航班。
“查询北京到上海的航班信息”这个子任务需要调用的应用程序接口API包括航班查询API和计算器API等。将每个子任务转换为其对应应用程序接口所能处理的任务指令:航班查询API,格式为:{action:”查询航班”,from:”出发地”,dest:”目的地”,time:“2023年4月30日”};计算器API,格式为:{action:”计算器”,表达式:”要计算的数学表达式”}... ...需要说明的是,某些子任务可以不需要调用相应的应用程序接口,直接执行,比如“筛选出经济舱的航班”子任务不需要调用相应的应用程序接口,只需在“查询北京到上海的航班信息”子任务的基础上执行即可。
“查询北京到上海的航班信息”子任务对应的执行结果是一个航班列表;筛选出经济舱的航班;“按照价格从低到高排序航班”子任务对应的执行结果是按照价格排序后的航班列表;“按照本周六从早到晚排序航班”子任务对应的执行结果是按照时间排序后的航班列表;“选择价格最低且时间最合适的航班”子任务对应的执行结果是按照时间排序后的航班列表一个航班;“预订所选航班”子任务对应的执行结果是预定该航班。“预订所选航班”子任务对应的执行结果也就是该目标任务对应的最终结果。
在评估和检验通过的情况下,将最终结果发送给目标用户。
目标任务还可以是调研报告、论文、软件系统编写等复杂任务。
根据本申请实施例提供的技术方案,在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正,因此,采用上述技术手段,可以解决现有技术中,大语言模型处理复杂任务效果差的问题,进而提升大语言模型处理复杂任务的能力。
进一步地,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务,包括:多次利用大语言模型对目标任务进行拆分,得到多组拆分结果,每组拆分结果包括存在先后执行顺序的多个子任务;将多组拆分结果中出现次数最多的拆分结果中的多个子任务作为目标任务对应的多个子任务。
其中,多组拆分结果中存在相同的拆分结果。本申请实施例通过多次利用大语言模型对目标任务进行拆分,得到拆分最合适的拆分结果。
进一步地,按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果,包括:按照多个子任务之间的执行顺序,多次利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到多个最终结果;将多个最终结果中出现次数最多的最终结果作为目标任务对应的最终结果。
本申请实施例通过多次利用大语言模型执行各个子任务,得到最合适的最终结果。
图2是本申请实施例提供的另一种利用大语言模型执行复杂任务的方法的流程示意图。如图2所示,包括:
S201,判断i是否大于N,其中,i为子任务的序号,N为所有子任务的数量;
S202,当i大于N,将第N个子任务对应的执行结果作为目标任务对应的最终结果,退出循环;
S203,当i不大于N,利用大语言模型调用第i个子任务对应应用程序接口在第i-1个子任务对应的执行结果的基础上执行第i个子任务对应的任务指令,得到第i个子任务对应的执行结果,i加1。
i加1是用i加1的值更新i。
进一步地,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正,包括:在评估和检验不通过的情况下:重新多次执行如下步骤:按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果,依据目标任务,利用大语言模型对最终结果进行评估和检验;当评估和检验失败的次数大于预设阈值,重新多次执行如下步骤:利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务,确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令,按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果,依据目标任务,利用大语言模型对最终结果进行评估和检验,直至评估和检验通过。
本申请实施例通过多次利用大语言模型执行相应步骤的方法,对最终结果进行修正,得到最合适的最终结果。
进一步地,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务之前,方法还包括:对大语言模型进行复杂任务执行训练:对大语言模型进行复杂任务拆分训练,以使得大语言模型能将复杂任务拆分为存在先后执行顺序的多个子任务;对大语言模型进行任务执行训练,以使得大语言模型能调用各种任务对应的应用程序接口执行各种任务对应的任务指令,得到各种任务对应的执行结果,其中,执行一种任务对应的任务指令可以是在另一种任务对应的执行结果的基础上进行;对大语言模型进行任务执行结果评估和检验训练,以使得大语言模型能对各种任务对应的执行结果进行评估和检验。
复杂任务执行训练依次包括:复杂任务拆分训练、任务执行训练和任务执行结果评估和检验训练。需要说明的是,任务执行结果评估和检验训练是使得大语言模型学习到预先设置的对任务执行结果进行评估和检验的标准。
进一步地,对大语言模型进行复杂任务执行训练之前,方法还包括:将自回归语言任务作为主任务,将常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务作为辅助任务,对大语言模型进行多任务训练。
本申请实施例通过对大语言模型进行多任务训练和复杂任务执行训练,提高大语言模型对复杂任务的执行能力。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的一种利用大语言模型执行复杂任务的装置的示意图。如图3所示,该利用大语言模型执行复杂任务的装置包括:
拆分模块301,被配置为在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;
转换模块302,被配置为确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;
执行模块303,被配置为按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;
校验模块304,被配置为依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正。
大语言模型(Large Language Model,LLM),包括:GPT(Generative Pre-trainedTransformer)、XLNet等。大语言模型的参数规模一般大于3billion。目标任务包括指明需要完成的工作和各种要求,一个预定机票的目标任务为“帮我预订从北京到上海的机票,要求经济舱,价格最低,时间最合适”。该目标任务拆分为存在先后执行顺序的多个子任务:查询北京到上海的航班信息;筛选出经济舱的航班;按照价格从低到高排序航班;按照本周六从早到晚排序航班;选择价格最低且时间最合适的航班;预订所选航班。
“查询北京到上海的航班信息”这个子任务需要调用的应用程序接口API包括航班查询API和计算器API等。将每个子任务转换为其对应应用程序接口所能处理的任务指令:航班查询API,格式为:{action:”查询航班”,from:”出发地”,dest:”目的地”,time:“2023年4月30日”};计算器API,格式为:{action:”计算器”,表达式:”要计算的数学表达式”}... ...需要说明的是,某些子任务可以不需要调用相应的应用程序接口,直接执行,比如“筛选出经济舱的航班”子任务不需要调用相应的应用程序接口,只需在“查询北京到上海的航班信息”子任务的基础上执行即可。
“查询北京到上海的航班信息”子任务对应的执行结果是一个航班列表;筛选出经济舱的航班;“按照价格从低到高排序航班”子任务对应的执行结果是按照价格排序后的航班列表;“按照本周六从早到晚排序航班”子任务对应的执行结果是按照时间排序后的航班列表;“选择价格最低且时间最合适的航班”子任务对应的执行结果是按照时间排序后的航班列表一个航班;“预订所选航班”子任务对应的执行结果是预定该航班。“预订所选航班”子任务对应的执行结果也就是该目标任务对应的最终结果。
在评估和检验通过的情况下,将最终结果发送给目标用户。
根据本申请实施例提供的技术方案,在接收到目标用户发送的目标任务后,利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务;确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果;依据目标任务,利用大语言模型对最终结果进行评估和检验,在评估和检验不通过的情况下,利用大语言模型对最终结果进行修正,因此,采用上述技术手段,可以解决现有技术中,大语言模型处理复杂任务效果差的问题,进而提升大语言模型处理复杂任务的能力。
可选地,拆分模块301还被配置为多次利用大语言模型对目标任务进行拆分,得到多组拆分结果,每组拆分结果包括存在先后执行顺序的多个子任务;将多组拆分结果中出现次数最多的拆分结果中的多个子任务作为目标任务对应的多个子任务。
其中,多组拆分结果中存在相同的拆分结果。本申请实施例通过多次利用大语言模型对目标任务进行拆分,得到拆分最合适的拆分结果。
可选地,执行模块303还被配置为按照多个子任务之间的执行顺序,多次利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到多个最终结果;将多个最终结果中出现次数最多的最终结果作为目标任务对应的最终结果。
本申请实施例通过多次利用大语言模型执行各个子任务,得到最合适的最终结果。
可选地,执行模块303还被配置为判断i是否大于N,其中,i为子任务的序号,N为所有子任务的数量;当i大于N,将第N个子任务对应的执行结果作为目标任务对应的最终结果,退出循环;当i不大于N,利用大语言模型调用第i个子任务对应应用程序接口在第i-1个子任务对应的执行结果的基础上执行第i个子任务对应的任务指令,得到第i个子任务对应的执行结果,i加1。
i加1是用i加1的值更新i。
可选地,校验模块304还被配置为在评估和检验不通过的情况下:重新多次执行如下步骤:按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果,依据目标任务,利用大语言模型对最终结果进行评估和检验;当评估和检验失败的次数大于预设阈值,重新多次执行如下步骤:利用大语言模型将目标任务拆分为存在先后执行顺序的多个子任务,确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令,按照多个子任务之间的执行顺序,利用大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到目标任务对应的最终结果,依据目标任务,利用大语言模型对最终结果进行评估和检验,直至评估和检验通过。
本申请实施例通过多次利用大语言模型执行相应步骤的方法,对最终结果进行修正,得到最合适的最终结果。
可选地,拆分模块301还被配置为对大语言模型进行复杂任务执行训练:对大语言模型进行复杂任务拆分训练,以使得大语言模型能将复杂任务拆分为存在先后执行顺序的多个子任务;对大语言模型进行任务执行训练,以使得大语言模型能调用各种任务对应的应用程序接口执行各种任务对应的任务指令,得到各种任务对应的执行结果,其中,执行一种任务对应的任务指令可以是在另一种任务对应的执行结果的基础上进行;对大语言模型进行任务执行结果评估和检验训练,以使得大语言模型能对各种任务对应的执行结果进行评估和检验。
复杂任务执行训练依次包括:复杂任务拆分训练、任务执行训练和任务执行结果评估和检验训练。需要说明的是,任务执行结果评估和检验训练是使得大语言模型学习到预先设置的对任务执行结果进行评估和检验的标准。
可选地,拆分模块301还被配置为将自回归语言任务作为主任务,将常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务作为辅助任务,对大语言模型进行多任务训练。
本申请实施例通过对大语言模型进行多任务训练和复杂任务执行训练,提高大语言模型对复杂任务的执行能力。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (7)
1.一种利用大语言模型执行复杂任务的方法,其特征在于,包括:
在接收到目标用户发送的目标任务后,利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务;
确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;
按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果;
依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验,在所述评估和检验不通过的情况下,利用所述大语言模型对所述最终结果进行修正;
其中,按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,包括:判断i是否大于N,其中,i为子任务的序号,N为所有子任务的数量;当i大于N,将第N个子任务对应的执行结果作为所述目标任务对应的最终结果,退出循环;当i不大于N,利用所述大语言模型调用第i个子任务对应应用程序接口在第i-1个子任务对应的执行结果的基础上执行第i个子任务对应的任务指令,得到第i个子任务对应的执行结果,i加1;
其中,在所述评估和检验不通过的情况下,利用所述大语言模型对所述最终结果进行修正,包括:在所述评估和检验不通过的情况下:重新多次执行如下步骤:按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验;当所述评估和检验失败的次数大于预设阈值,重新多次执行如下步骤:利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务,确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令,按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验,直至所述评估和检验通过;
其中,对所述大语言模型进行复杂任务执行训练之前,所述方法还包括:将自回归语言任务作为主任务,将常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务作为辅助任务,对所述大语言模型进行多任务训练。
2.根据权利要求1所述的方法,其特征在于,利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务,包括:
多次利用大语言模型对所述目标任务进行拆分,得到多组拆分结果,每组拆分结果包括存在先后执行顺序的多个子任务;
将多组拆分结果中出现次数最多的拆分结果中的多个子任务作为所述目标任务对应的多个子任务。
3.根据权利要求1所述的方法,其特征在于,按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,包括:
按照多个子任务之间的执行顺序,多次利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到多个最终结果;
将多个最终结果中出现次数最多的最终结果作为所述目标任务对应的最终结果。
4.根据权利要求1所述的方法,其特征在于,利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务之前,所述方法还包括:
对所述大语言模型进行复杂任务执行训练:
对所述大语言模型进行复杂任务拆分训练,以使得所述大语言模型能将复杂任务拆分为存在先后执行顺序的多个子任务;
对所述大语言模型进行任务执行训练,以使得所述大语言模型能调用各种任务对应的应用程序接口执行各种任务对应的任务指令,得到各种任务对应的执行结果,其中,执行一种任务对应的任务指令是在另一种任务对应的执行结果的基础上进行;
对所述大语言模型进行任务执行结果评估和检验训练,以使得所述大语言模型能对各种任务对应的执行结果进行评估和检验。
5.一种利用大语言模型执行复杂任务的装置,其特征在于,包括:
拆分模块,被配置为在接收到目标用户发送的目标任务后,利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务;
转换模块,被配置为确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令;
执行模块,被配置为按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果;
校验模块,被配置为依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验,在所述评估和检验不通过的情况下,利用所述大语言模型对所述最终结果进行修正;
所述执行模块还被配置为判断i是否大于N,其中,i为子任务的序号,N为所有子任务的数量;当i大于N,将第N个子任务对应的执行结果作为所述目标任务对应的最终结果,退出循环;当i不大于N,利用所述大语言模型调用第i个子任务对应应用程序接口在第i-1个子任务对应的执行结果的基础上执行第i个子任务对应的任务指令,得到第i个子任务对应的执行结果,i加1;
所述校验模块被配置为在所述评估和检验不通过的情况下:重新多次执行如下步骤:按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验;当所述评估和检验失败的次数大于预设阈值,重新多次执行如下步骤:利用大语言模型将所述目标任务拆分为存在先后执行顺序的多个子任务,确定每个子任务需要调用的应用程序接口,并将每个子任务转换为其对应应用程序接口所能处理的任务指令,按照多个子任务之间的执行顺序,利用所述大语言模型依次调用各个子任务对应应用程序接口执行该子任务对应的任务指令,得到所述目标任务对应的最终结果,依据所述目标任务,利用所述大语言模型对所述最终结果进行评估和检验,直至所述评估和检验通过;
所述拆分模块还被配置为将自回归语言任务作为主任务,将常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务作为辅助任务,对所述大语言模型进行多任务训练。
6.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述方法的步骤。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310876882.7A CN116594757B (zh) | 2023-07-18 | 2023-07-18 | 利用大语言模型执行复杂任务的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310876882.7A CN116594757B (zh) | 2023-07-18 | 2023-07-18 | 利用大语言模型执行复杂任务的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116594757A CN116594757A (zh) | 2023-08-15 |
CN116594757B true CN116594757B (zh) | 2024-04-12 |
Family
ID=87590332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310876882.7A Active CN116594757B (zh) | 2023-07-18 | 2023-07-18 | 利用大语言模型执行复杂任务的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116594757B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117112777B (zh) * | 2023-10-24 | 2024-01-26 | 北京睿企信息科技有限公司 | 一种基于llm的多任务数据处理方法及存储介质 |
CN117311949A (zh) * | 2023-11-28 | 2023-12-29 | 三六零数字安全科技集团有限公司 | 任务安全运营方法、装置、设备及存储介质 |
CN117370638B (zh) * | 2023-12-08 | 2024-05-07 | 中国科学院空天信息创新研究院 | 思维图提示增强的基础模型任务分解与调度方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111506702A (zh) * | 2020-03-25 | 2020-08-07 | 北京万里红科技股份有限公司 | 基于知识蒸馏的语言模型训练方法、文本分类方法及装置 |
CN116185588A (zh) * | 2023-01-31 | 2023-05-30 | 深圳派氪司科技有限公司 | 一种任务调度方法、装置、电子设备及可读存储介质 |
CN116340584A (zh) * | 2023-05-24 | 2023-06-27 | 杭州悦数科技有限公司 | 一种自动生成复杂图数据库查询语句服务的实现方法 |
CN116401339A (zh) * | 2023-06-07 | 2023-07-07 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备、介质以及程序产品 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220405639A1 (en) * | 2019-11-21 | 2022-12-22 | Nippon Telegraph And Telephone Corporation | Information processing apparatus, information processing method and program |
CN115796299A (zh) * | 2021-10-01 | 2023-03-14 | 谷歌有限责任公司 | 经由机器学习语言模型的链的透明且可控的人智交互 |
-
2023
- 2023-07-18 CN CN202310876882.7A patent/CN116594757B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111506702A (zh) * | 2020-03-25 | 2020-08-07 | 北京万里红科技股份有限公司 | 基于知识蒸馏的语言模型训练方法、文本分类方法及装置 |
CN116185588A (zh) * | 2023-01-31 | 2023-05-30 | 深圳派氪司科技有限公司 | 一种任务调度方法、装置、电子设备及可读存储介质 |
CN116340584A (zh) * | 2023-05-24 | 2023-06-27 | 杭州悦数科技有限公司 | 一种自动生成复杂图数据库查询语句服务的实现方法 |
CN116401339A (zh) * | 2023-06-07 | 2023-07-07 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备、介质以及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN116594757A (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116594757B (zh) | 利用大语言模型执行复杂任务的方法及装置 | |
CN109558597B (zh) | 文本翻译方法及装置、设备及存储介质 | |
CN109298998B (zh) | 工作量评估及模型训练方法、电子设备及存储介质 | |
US20210256390A1 (en) | Computationally efficient neural network architecture search | |
EP3961384A1 (en) | Automatic derivation of software engineering artifact attributes from product or service development concepts | |
US11972341B2 (en) | Parallel processing for signal generation neural networks | |
CN110162322A (zh) | 一种升级方法及装置 | |
CN111401940A (zh) | 特征预测方法、装置、电子设备及存储介质 | |
CN110969600A (zh) | 一种产品缺陷检测方法、装置、电子设备及存储介质 | |
CN109324956B (zh) | 系统测试方法、设备及计算机可读存储介质 | |
CN111325031A (zh) | 简历解析方法及装置 | |
CN117235527A (zh) | 端到端容器化的大数据模型构建方法、装置、设备及介质 | |
CN116880900A (zh) | 一种代码审查方法、装置、终端设备及存储介质 | |
US8627273B2 (en) | Model checking of liveness property in a phase abstracted model | |
CN111127223A (zh) | 保险产品测试方法、装置和存储介质 | |
CN111859985B (zh) | Ai客服模型测试方法、装置、电子设备及存储介质 | |
CN110866605A (zh) | 数据模型训练方法、装置、电子设备及可读介质 | |
US20220019522A1 (en) | Automated sequencing of software tests using dependency information | |
CN111242449A (zh) | 一种企业情报流失预测方法 | |
US11720781B2 (en) | Parallel execution of gated activation unit operations | |
CN114443375A (zh) | 测试方法及装置、电子装置及计算机可读存储介质 | |
KR20210058127A (ko) | 인공지능 훈련용 데이터의 생산을 크라우드 소싱하는 방법 및 해당 데이터를 생산 및 검수하는 시스템 | |
CN114936148A (zh) | 页面测试方法、装置、电子设备及可读存储介质 | |
CN110825438B (zh) | 用于模拟人工智能芯片的数据处理的方法和装置 | |
CN112884573A (zh) | 在线尽调处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |