CN117762499A - 任务指令构建方法和任务处理方法 - Google Patents

任务指令构建方法和任务处理方法 Download PDF

Info

Publication number
CN117762499A
CN117762499A CN202410191450.7A CN202410191450A CN117762499A CN 117762499 A CN117762499 A CN 117762499A CN 202410191450 A CN202410191450 A CN 202410191450A CN 117762499 A CN117762499 A CN 117762499A
Authority
CN
China
Prior art keywords
task
instruction
information
candidate
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410191450.7A
Other languages
English (en)
Other versions
CN117762499B (zh
Inventor
陆笛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202410191450.7A priority Critical patent/CN117762499B/zh
Publication of CN117762499A publication Critical patent/CN117762499A/zh
Application granted granted Critical
Publication of CN117762499B publication Critical patent/CN117762499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种任务指令构建方法、任务处理方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。所述任务指令构建方法包括:获取目标任务的任务信息、以及包含多个指令信息的指令数据集;基于任务信息,确定目标任务的任务类型和任务需求;使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令;从各候选指令中,确定满足任务需求的任务指令;其中,任务指令用于引导大模型执行目标任务。采用上述方法能够提高任务指令构建过程中的工作效率。

Description

任务指令构建方法和任务处理方法
技术领域
本申请涉及计算机技术领域,特别是涉及一种任务指令构建方法、任务处理方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
背景技术
大模型又可以称为基石模型或基础模型(Foundation Model),在预训时大模型已经学习到了大部分知识,具有较好的泛化能力,在应用于不同的下游任务时,需要使用任务指令(prompt)以引导模型生成期望的输出。
传统技术中,由业务人员根据具体任务构建任务指令,任务指令的构建过程依赖于人机交互来实现,长时间的数据处理需要耗费较多的计算处理资源。因此,导致任务指令的构建过程中存在效率低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高工作效率的任务指令构建方法、任务处理方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种任务指令构建方法。所述方法包括:
获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
基于所述任务信息,确定所述目标任务的任务类型和任务需求;
使用基于所述任务类型确定的询问信息,引导大模型从所述指令数据集中筛选出与所述任务类型匹配的候选指令;
从各所述候选指令中,确定满足所述任务需求的任务指令;所述任务指令用于引导所述大模型执行所述目标任务。
第二方面,本申请还提供了一种任务处理方法。所述方法包括:
获取目标任务的任务需求、以及针对所述目标任务的待处理信息;
基于所述任务需求,从指令集中读取与所述目标任务匹配的任务指令;所述任务指令基于上述任务指令构建方法构建;
将所述待处理信息和所述任务指令输入大模型;所述大模型在所述任务指令的引导下,按照所述任务需求确定所述待处理信息的处理结果。
第三方面,本申请还提供了一种任务指令构建装置。所述装置包括:
任务信息获取模块,用于获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
需求确定模块,用于基于所述任务信息,确定所述目标任务的任务类型和任务需求;
候选指令筛选模块,用于使用基于所述任务类型确定的询问信息,引导大模型从所述指令数据集中筛选出与所述任务类型匹配的候选指令;
任务指令确定模块,用于从各所述候选指令中,确定满足所述任务需求的任务指令;所述任务指令用于引导所述大模型执行所述目标任务。
第四方面,本申请还提供了一种任务处理装置。所述装置包括:
待处理信息获取模块,用于获取目标任务的任务需求、以及针对所述目标任务的待处理信息;
任务指令读取模块,用于基于所述任务需求,从指令集中读取与所述目标任务匹配的任务指令;所述任务指令由所述任务指令构建装置构建;
任务处理模块,用于将所述待处理信息和所述任务指令输入大模型;所述大模型在所述任务指令的引导下,按照所述任务需求确定所述待处理信息的处理结果。
第五方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
第六方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
第七方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
上述任务指令构建方法、任务处理方法、装置、计算机设备、计算机可读存储介质和计算机程序产品,获取目标任务的任务信息、以及包含多个指令信息的指令数据集;基于任务信息,确定目标任务的任务类型和任务需求;使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令;从各候选指令中,确定满足任务需求的任务指令;其中,任务指令用于引导大模型执行目标任务。在任务指令构建过程中,利用大模型初筛指令,获得与任务类型匹配的候选指令,再进一步基于任务需求进行二次筛选,得到任务指令,一方面,能够在确保任务指令与目标任务的匹配度的同时,实现任务指令的自动生成,有利于提高任务指令构建过程中的工作效率;另一方面,先基于较粗粒度的任务类型进行一次筛选获得候选指令,再基于较细粒度的任务需求进行二次筛选得到任务指令,从而能够减少细粒度筛选的工作量,同样能够提高任务指令构建过程中的工作效率。因此,采用上述任务指令构建方法,能够提高任务指令构建过程中的工作效率,构建大批量的任务指令,为大模型落地提供基础。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中任务指令构建方法和任务处理方法的应用环境图;
图2为一个实施例中大模型落地任务的实现过程示意图;
图3为一个实施例中任务指令构建方法的流程示意图;
图4为一个实施例中编码器的结构示意图;
图5为一个实施例中解码器的结构示意图;
图6为一个实施例中任务指令构建的过程示意图;
图7为另一个实施例中任务指令构建的过程示意图;
图8为又一个实施例中任务指令构建的过程示意图;
图9为另一个实施例中任务指令构建方法的流程示意图;
图10为一个实施例中任务处理方法的流程示意图;
图11为另一个实施例中大模型落地任务的实现过程示意图;
图12为一个实施例中任务指令构建装置的结构框图;
图13为一个实施例中任务处理装置的结构框图;
图14为一个实施例中计算机设备的内部结构图;
图15为另一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
首先对本申请设计的专业术语进行介绍。
大模型是一类在机器学习和人工智能领域中的模型,其特点是拥有大量的参数和复杂的结构。这些模型通常由多层神经网络构成,每层包含大量的神经元。由于模型的规模和复杂性,训练和推理这类模型需要大量的计算资源,包括处理器时间和内存空间。大模型通常能够捕捉到数据中的复杂模式和关系,从而在各种任务上达到优秀的性能,如图像识别、自然语言处理、语音识别等。大模型又称预训练模型(Pre-training model)或基石模型,指具有大参量的深度神经网络(Deep neural network,DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(finetune)、参数高效微调(PEFT)、prompt-tuning等技术,适用于下游任务。因此,大模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT, CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。大模型是输出人工智能生成内容(AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。
任务指令,又称提示或指示,即Prompt,在计算机科学和自然语言处理领域,通常指的是给机器学习模型的输入文本或问题,用于引导模型生成相应的输出。它可以是一个问题、一句话、一段文字或一组指令,目的是引导模型产生特定的回答或生成特定类型的文本。
指令工程(Prompt Engineering)是大模型中的一种策略任务,主要指的是如何设计和优化输入指令(prompt)以引导模型生成期望的输出。这种策略可以包括选择特定的词汇、语法结构,或者提供一些上下文信息,以帮助模型更好地理解任务需求和生成更准确的回答。
束搜索(Beam Search):一种启发式图搜索算法,主要用于在图或树中搜索有限数量的最优解。在生成模型中,束搜索被用于减少搜索空间,提高生成效率,它在每一步只保留预测得分最高的前N个结果(N为束宽度),从而有效地缩小了搜索空间,提高了搜索效率。
大模型落地:指将大模型从理论研究阶段转化为实际应用阶段的过程。
本申请实施例提供的任务指令构建方法和任务处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。该通信网络可以是有线网络或无线网络。因此,终端102和服务器104可以通过有线或无线通信方式进行直接或间接的连接。比如,终端102可以通过无线接入点与服务器104间接地连接,或者终端102通过因特网与服务器104直接地连接,本申请在此不做限制。
其中,终端102可以但不限于是各种台式计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以单独设置,可以集成在服务器104上,也可以放在云上或其他服务器上。
需要说明的是,本申请实施例提供的任务指令构建方法和任务处理方法,各步骤的执行主体可以是计算机设备,计算机设备是指具备数据计算、处理和存储能力的电子设备。以图1所示的方案实施环境为例,可以由终端102执行任务指令构建方法和任务处理方法,也可以由服务器104执行任务指令构建方法和任务处理方法,或者由终端102和服务器104交互配合执行,本申请实施例对此不作限定。
以终端102执行任务指令构建方法和任务处理方法的情况为例。如图2所示,本申请可以应用于大模型落地任务,具体实现过程包括两个阶段:任务指令构建阶段、以及基于任务指令的任务处理阶段。其中,第一阶段可以构建多个目标任务分别对应的任务指令,且一个目标任务可以构建多个任务指令,进而得到应用于大模型的指令集。第一阶段的指令集,可以向第二阶段的大模型提供任务指令,这些任务指令能够实现多样化的指令表达,引导大模型执行任务指令对应的目标任务。
具体地,在第一阶段,终端102可以获取目标任务的任务信息、以及包含多个指令信息的指令数据集。其中,任务信息可以由业务人员输入终端102,也可以由终端102从其他设备获取。其他设备例如可以是服务器或其他终端。指令信息的数据来源可以包括网络数据、公开数据集和编辑撰写等。获取任务信息和指令数据集之后,终端102可以基于任务信息,确定目标任务的任务类型和任务需求,并进一步基于任务类型确定询问信息,以引导大模型从指令数据集中筛选出与任务类型匹配的候选指令,完成指令初筛。最后,终端102再从初筛得到的各候选指令中,确定满足任务需求的任务指令。在第二阶段,终端102可以获取目标任务的任务需求、以及针对目标任务的待处理信息。然后,基于任务需求,从第一阶段构建的指令集中读取与目标任务匹配的任务指令。最后,将待处理信息和任务指令输入大模型,以使大模型在任务指令的引导下,按照任务需求确定待处理信息的处理结果。
需要说明的是,本申请实施例提供的任务指令构建方法和任务处理方法,可以应用于各种应用领域,且对目标任务的任务类型和任务模态均不限定。其中,应用领域例如可以是健康、金融、科学研究、法律、教育等领域,任务类型例如可以是情感分析、专业考试、编程语言、软件开发和问题查找、图像理解、数学和科学问题解决、数据综合分析、事实核查、游戏和娱乐等,任务模态例如可以是图像、语音、文本等模态。该任务模态,是指任务处理阶段待处理信息的模态。以情感分析任务为例,实际应用中,可以针对图像和文字进行情感极性的分析。例如,不同的文本能够表达不同的情感极性;又如,人物的表情、肢体动作以及所说的话语均可以用于表达情感极性;再如,不同的图像也可以用于表达不同的情感极性,以色彩为例,蓝色能够表达忧郁和悲伤,红色能够表达快乐和兴奋。也就是说,情感分析任务具体可以是指针对文本、人物图像或风景图像等特定对象进行情感极性分析。从而,终端可以基于情感分析任务的任务信息,从包含多个指令信息的指令数据集中,筛选得到满足该情感分析任务的任务需求的任务指令,以引导大模型执行该情感分析任务。
在一个实施例中,如图3所示,提供了一种任务指令构建方法,该方法可以由计算机设备执行,该计算机设备可以是图1所示的终端或服务器,在本实施例中,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤S302,获取目标任务的任务信息、以及包含多个指令信息的指令数据集。
其中,目标任务是指需要构建任务指令的任务。也就是说,本申请是针对目标任务进行任务指令的构建。该目标任务的具体任务类型并不唯一,例如可以是文本分类、情感分析或内容审核等等。目标任务的任务信息,是指用于描述目标任务的信息。该任务信息例如可以包括语音、文字或图像中的至少一种模态的信息。在一个具体的实施例中,任务信息可以是指任务背景。以情感分析任务为例,该任务信息例如可以是“情感分析任务,需要分析<指定对象>的情感极性(正面/中性/负面)”,也可以是“对<指定对象>进行情感分析,确定情感极性(正面/中性/负面)”,等等。其中,指定对象可以是指定文本或指定图像。在一个可能的实现中,指定图像,可以是短视频中所包含的图像,也可以是人物图像或风景图像。在一个可能的实施例中,指定文本,可以是对话分析场景下的对话文本,也可以是图像分析场景下的图像文本。例如,可以将对话场景下的对话脚本作为对话文本,也可以通过对对话音频进行文本转换获得对话文本。又如,可以提取图像中所包含的文本信息,获得图像文本;也可以将针对图像的注释信息作为图像文本;还可以将对图像进行图像语义分析获得的文本信息,作为图像文本。
指令信息,是指符合任务指令的语法结构,可以作为输入模型的候选指令的信息。在计算机科学和自然语言处理领域,通过向机器学习模型的输入文本或问题,用于引导模型生成相应的输出,输入的文本或问题即为指令信息,它可以是一个问题、一句话、一段文字或一组指令,目的是引导模型产生特定的回答或生成特定类型的文本。进一步地,指令信息的数据来源可以包括网络数据、公开数据集和编辑撰写等。示例性的,终端可以通过数据爬取或下载等方式,收集大量的原始数据,进而获得包含多个指令信息的指令数据集。
具体地,终端可以获取目标任务的任务信息、以及包含多个指令信息的指令数据集。任务信息可以由业务人员输入终端,也可以由终端从其他设备获取。其他设备例如可以是服务器或其他终端。在一个具体的实施例中,本申请可以应用于针对特定的目标任务的任务指令的构建,在此情形下,可以由业务人员向终端提供目标任务的任务信息。在一个具体的实施例中,本申请可以应用于指令工程,也即,针对多个目标任务分别构建对应的任务指令,在此情形下,各目标任务可以构成一个任务集,终端可以依次从该任务集中取出不同的目标任务,获取该目标任务的任务信息,并针对该目标任务进行任务指令的构建,从而完成针对任务集的任务指令构建。
步骤S304,基于任务信息,确定目标任务的任务类型和任务需求。
其中,任务类型是指任务所要解决的问题的类型。具体到本申请,该任务类型例如可以是情感分析任务、图像理解任务或问题查找任务等等。任务需求是指任务的具体要求,也就是期望通过执行任务达到的目的。具体地,终端可以通过对任务信息进行语义识别,确定目标任务的任务类型和任务需求。示例性的,任务信息为“情感分析任务,需要分析<指定文本>的情感极性(正面/中性/负面)”或“对<指定文本>进行情感分析,确定情感极性(正面/中性/负面)”的情况下,任务类型例如可以是“情感分析任务”,任务需求例如可以是“确定<指定文本>的情感极性(正面/中性/负面)”;任务信息为“图像识别任务,需要分析<指定图像>中是否包含车辆A”或“对<指定图像>进行图像识别,确定其是否包含车辆A”的情况下,任务类型例如可以是“图像识别任务”,任务需求例如可以是“确定<指定图像>中是否包含车辆A”。
在一个具体的实施例中,基于任务信息,确定目标任务的任务类型,包括:获取多个候选任务类型;对任务信息进行语义分析,确定任务信息的任务语义;分别确定每一候选任务类型与任务语义的语义相似度,并将语义相似度最高的候选任务类型确定为目标任务的任务类型。
其中,候选任务类型是作为候选的任务类型。实际应用中,可以根据模型的常用应用场景,确定多个候选任务类型。示例性的,对于自然语言处理领域,可以将文本分类、情感分析、对话问答等作为候选任务类型;对于图像处理领域,可以将图像分类、图像识别、图像检测等作为候选任务类型。语义分析是一种基于自然语言进行语义信息分析的方法,具体可以包括词法分析、句法分析、语用分析、语境分析等等。语义相似度用于表征候选任务类型与任务信息在语义上的相似度。计算得到语义相似度的具体算法并不唯一,例如可以是余弦相似度、欧式距离、编辑距离或汉明距离等等。
具体地,终端在确定了目标任务的任务信息之后,可以从多个候选任务类型中,确定目标任务的任务类型。一方面,终端可以获取多个候选任务类型,另一方面,终端还可以对任务信息进行语义分析,确定任务信息的任务语义。然后,终端可以分别针对每一候选任务类型,计算该候选任务类型与任务语义的语义相似度,最后将语义相似度最高的候选任务类型确定为目标任务的任务类型。示例性的,终端可以对候选任务类型进行语义分析,确定该候选任务类型的候选语义,然后,再对候选语义和任务语义进行相似度的计算,得到候选任务类型和任务语义的语义相似度。
需要说明的是,对任务信息进行语义分析的方式并不唯一。可选的,终端可以在词典的帮助下,通过词法与句法分析进行自动分词、词性标注,使终端能够理解任务信息,确定任务信息的任务语义。可选的,终端可以预先设置语义模型,将任务信息的特征表示输入语义模型,基于输出的结果确定任务信息的任务语义。
本实施例中,通过计算任务信息与候选任务类型的语义相似度,将语义相似度最高的候选任务类型确定为目标任务的任务类型,能够简化任务类型的确定过程,有利于进一步提高工作效率。
步骤S306,使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令。
其中,大模型又称预训练模型或基石模型,是指具有大规模模型参数的深度学习模型,通常包含上亿、上百亿、甚至上千亿的模型参数。大模型的具体类型并不唯一,例如可以包括大型语言模型(Large Language Model,LLM)、大视觉模型和大音频模型等等。询问信息是指以询问的方式引导大模型进行指令筛选的信息。可以理解,询问信息的句式为疑问句,询问信息的具体内容可以包括询问指令信息是否与任务类型匹配。
具体地,终端可以基于任务类型确定询问信息,并使用该询问信息引导大模型对指令信息与任务类型进行匹配分析,从指令数据集中筛选出与任务类型匹配的候选指令。在一个具体的实施例中,终端可以获取询问信息的信息模板,该信息模板中包括任务类型信息,进而,终端可以将任务类型信息替换为目标任务的任务类型,得到目标任务对应的询问信息。示例性的,询问信息的信息模板例如可以是“下列指令是否能执行A类任务”或“下列指令是否与A类任务匹配”,其中,“A类任务”为任务类型信息,从而,在目标任务的任务类型为情感分析任务的情况下,询问信息可以是“下列指令信息是否能执行情感分析任务”或“下列指令是否与情感分析任务匹配”;在目标任务的任务类型为图像识别任务的情况下,询问信息可以是“下列指令信息是否能执行图像识别任务”或“下列指令是否与图像识别任务匹配”。其中,图像识别任务具体可以是识别图像中是否包含目标图像,该目标图像例如可以是目标人物或目标交通工具的图像信息,等等。示例性的,在车联网场景下,可能需要检测目标车辆的位置信息,从而,通过构建对应的任务指令,可以引导大模型对海量的交通图像进行图像识别,筛选出包含目标车辆的交通图像,从而进一步基于包含目标车辆的交通图像,确定该目标车辆的位置信息。
可以理解,由于大模型已经通过了预训练,具备一定的理解能力,因此,通过任务类型构建询问信息,能够完成指令信息的初筛,从多个指令数据中筛选得到与任务类型匹配的候选指令。
以情感分析任务为例,对于以下三条指令信息:
指令信息1,“请给<句子>这句话判断情感极性(正面/中性/负面)”;
指令信息2,“<句子>是正面,还是负面的?”;
指令信息3,“帮我做一个小任务,把句子改为正面的”。
对于上述三条指令信息,可以构建“这条指令能否完成情感分析任务”的询问信息,与指令信息一并输入大模型之后,指令信息1返回的结果为“是”,指令信息2返回的结果为“是”,指令信息3返回的结果为“否”,则指令信息1和指令信息2由于与任务类型匹配,可以作为候选指令,继续进行后续的筛选,指令信息3则由于与任务类型不匹配,需要在本轮筛选中被丢弃。
步骤S308,从各候选指令中,确定满足任务需求的任务指令。
其中,任务指令用于引导大模型执行目标任务。如前文所述的,任务类型是指任务所要解决的问题的类型,而任务需求是指任务的具体要求,也就是说,相对而言,任务类型是对任务的粗粒度描述,任务需求是对任务的细粒度描述。具体地,基于任务类型构建询问信息,引导大模型完成针对指令信息的初步筛选,得到候选指令之后,需要进一步从候选指令中筛选得到任务指令。在此情形下,可以基于任务需求确定筛选目标,进而从各候选指令中筛选得到满足任务需求的任务指令。示例性的,可以通过人工标注的方式,从候选指令中确定满足任务需求的任务指令;也可以使用训练好的分类模型,从候选指令中确定满足任务需求的任务指令;还可以通过对任务需求和候选指令进行语义相似度分析,将语义相似度满足相似条件的候选指令,确定为满足任务需求的任务指令。
同样以情感分析任务为例,在任务需求为“需要分析指定文本的情感极性(正面/中性/负面)”的情况下,对于“请给<句子>这句话判断情感极性(正面/中性/负面)”和“<句子>是正面,还是负面的?”这两条候选指令,由于任务需求为三分类任务,而“<句子>是正面,还是负面的?”被描述为二分类任务(正面/负面),与任务需求不符,因此不能作为目标任务的任务指令。也就是说,对于上述指令信息1、指令信息2和指令信息3,最终确定的任务指令为指令信息1。
上述任务指令构建方法,获取目标任务的任务信息、以及包含多个指令信息的指令数据集;基于任务信息,确定目标任务的任务类型和任务需求;使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令;从各候选指令中,确定满足任务需求的任务指令;其中,任务指令用于引导大模型执行目标任务。在任务指令构建过程中,利用大模型初筛指令,获得与任务类型匹配的候选指令,再进一步基于任务需求进行二次筛选,得到任务指令,一方面,能够在确保任务指令与目标任务的匹配度的同时,实现任务指令的自动生成,有利于提高任务指令构建过程中的工作效率;另一方面,先基于较粗粒度的任务类型进行一次筛选获得候选指令,再基于较细粒度的任务需求进行二次筛选得到任务指令,从而能够减少细粒度筛选的工作量,同样能够提高任务指令构建过程中的工作效率。因此,采用上述任务指令构建方法,能够提高任务指令构建过程中的工作效率,构建大批量的任务指令,为大模型落地提供基础。
在一个实施例中,任务指令构建方法还包括:基于目标任务的任务需求,从多个候选指令集中确定与目标任务匹配的目标指令集;将任务指令添加至目标指令集。
可以理解,由于任务需求是指任务的具体要求,那么不同任务的任务需求通常是不相同的。也即,任务需求与任务一一对应。具体地,可以针对不同任务分别配置对应的指令集,该指令集用于存储对应任务的任务指令。也就是说,对于目标任务而言,可以构建该目标任务对应的多个任务指令,这些任务指令可以向大模型提供针对目标任务的多样化指令表达,以确保大模型能够在任务指令的引导下高质量地完成目标任务。在本实施例中,同一目标任务的多个任务指令可以存储在同一目标指令集。
在一个具体的实施例中,终端可以预先配置任务需求与候选指令集之间的对应关系,然后,基于目标任务的任务需求、以及任务需求与候选指令集之间的对应关系,从多个候选指令集中确定与目标任务匹配的目标指令集,再将构建的任务指令添加至目标指令集。
上述实施例中,针对不同的目标任务建立对应的目标指令集,能够完成大模型指令集的批量构建,并且便于在应用过程中根据不同的应用需求,从对应的指令集中快速获得所需的任务指令,有利于进一步提高工作效率。
在一个实施例中,使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令,包括:确定与任务类型匹配的询问信息;针对每一指令信息,结合该指令信息和询问信息,确定与该指令信息匹配的输入信息;将输入信息输入大模型,在大模型的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
其中,询问信息与任务类型匹配,是指询问信息中包含表征任务类型的关键词。示例性的,任务类型为“情感分析任务”的情况下,表征任务类型的关键词为“情感分析”,在此情形下,与任务信息匹配的询问信息可以是“这条指令是否能完成情感分析任务”或者“这条指令能否引导模型进行情感分析”;任务类型为“图像识别任务”的情况下,表征任务类型的关键词为“图像识别”,在此情形下,与任务信息匹配的询问信息可以是“这条指令是否能完成图像识别任务”或者“这条指令能否引导模型进行图像识别”。
具体地,终端可以对目标任务的任务类型进行关键词提取,确定表征任务类型的关键词,并进一步确定包含该关键词的询问信息,以确保询问信息与任务类型匹配。然后,针对指令数据集中的每一条指令信息,结合该指令信息和询问信息,确定与该指令信息匹配的输入信息。接着,终端将输入信息输入大模型,使得大模型在询问信息的引导下输出针对指令信息的判断结果。该判断结果可以包括指令信息与任务类型匹配、以及指令信息与任务类型不匹配。最后,终端在大模型的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
示例性的,大模型的输出信息可以包括“是”和“否”,其中,“是”表征指令信息与任务类型匹配,“否”表征指令信息与任务类型不匹配。从而,终端可以在大模型的输出信息为“是”的情况下,将指令信息确定为候选指令,在输出信息为“否”的情况下,丢弃该指令信息。
本实施例中,先确定与任务类型匹配的询问信息,再将指令信息与询问信息结合获得针对该指令信息的输入信息,使得大模型在询问信息的引导下输出针对指令信息的判断结果,相当于能够在同一询问信息的基础上,完成多个指令信息的筛选,有利于进一步提高工作效率。
需要说明的是,结合指令信息和询问信息,确定与指令信息匹配的输入信息的具体方式并不唯一。
在一个具体的实施例中,对于同一目标任务而言,针对第一条指令信息,终端可以结合指令信息和询问信息,确定与指令信息匹配的输入信息;针对后续的指令信息,终端可以将前一条输入信息中所包含的指令信息替换为当前指令信息,得到与当前指令信息匹配的输入信息。
在一个具体的实施例中,针对每一指令信息,终端可以通过拼接该指令信息和询问信息,确定与指令信息匹配的输入信息。同样以情感分析任务为例,询问信息为“这条指令是否能完成情感分析任务”的情形下,输入信息可以是“‘指令A’,这条指令是否能完成情感分析任务”。
在一个具体的实施例中,结合指令信息和询问信息,确定与指令信息匹配的输入信息,包括:在询问信息中,确定指令信息的插入位置;按照插入位置将指令信息插入询问信息中,得到与指令信息匹配的输入信息。
具体地,询问信息中包括指令信息的关联信息。例如,询问信息为“这条指令是否能完成情感分析任务”的情形下,指令信息的关联信息为“这条指令”。从而,终端可以基于询问信息中该关联信息的所处位置,确定指令信息在询问信息中的插入位置。然后再按照该插入位置将指令信息插入询问信息中,得到与指令信息匹配的输入信息。
进一步地,指令信息的插入位置可以是关联信息的所处位置,也可以是与关联信息相邻的位置。以询问信息为“这条指令是否能完成情感分析任务”的情况为例,指令信息‘指令A’的插入位置可以是关联信息“这条指令”的所处位置,则得到的输入信息为“‘指令A’是否能完成情感分析任务”;指令信息‘指令A’的插入位置可以是关联信息“这条指令”的所处位置的相邻位置,则得到的输入信息为“‘指令A’,这条指令是否能完成情感分析任务”。
本实施例中,先在询问信息中确定指令信息的插入位置,再按照插入位置将指令信息插入询问信息中,得到与指令信息匹配的输入信息,只需确定一次插入位置,就能快速生成指令信息匹配的插入信息,有利于进一步提高工作效率。
在一个实施例中,大模型包括编码器和解码器。在该实施例的情形下,将输入信息输入大模型,在大模型的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令,包括:对输入信息进行特征提取,获得输入信息的信息特征;将信息特征输入编码器,以使编码器对该信息特征进行编码处理,获得信息特征的隐层表示;以信息特征作为解码器的原始输入,以隐层表示作为解码器的中间层输入,在解码器的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
其中,大模型可以基于编码器-解码器的结构实现。通过将输入信息输入编码网络,能够得到编码网络针对输入信息的特征提取结果,即编码信息。通过将编码信息输入解码网络,能够得到解码网络输出的输出信息,即与输入信息符合的预测信息。编码网络和解码网络均为N层的结构,编码网络为N个编码器级联的结构,解码网络为N个解码器级联的结构。编码网络每一层的结构一致,解码网络每一层的结构一致,且编码网络中每层的结构与解码网络相似。
示例性的,如图4所示,可以参考transformer的编码器结构,每一层的编码器中均包括:一个多头自注意力模块(Multi-Head Self-Attention Module),即图4编码器结构中的“自注意力机制”;一个前馈全连接网络,即图4中的“前馈网络”(Feed Forward Network,FFN);上述每一个模块(多头自注意力模块、前馈全连接模块)之后都设置有一个残差连接和层规范化(LayerNorm)层,即图4中的“加和&归一化”(Add&Norm)。
示例性的,如图5所示,每一层解码器中均包括:一个掩码多头自注意力模块(MaskMulti-Head Self-Attention Module,可视为一种多头自注意力模块),即图5解码器下方的“自注意力机制”;一个交叉编码器和解码器的自注意力模块(也称为交叉自注意力模块(Cross Self-Attention Module),可视为一种多头自注意力模块),即图5解码器中部的“自注意力机制”;以及一个前馈全连接模块,即图5解码器上方的“前馈网络”;上述每一个自注意力模块之后,都设置有一个残差连接和层规范化层,即图5中的“加和&归一化”。
其中,残差连接可视为使模型某模块的输出作为后面不相邻的某模块的输入的结构,用于降低模型复杂度、防止梯度消失。层规范化层用于对输入的信息进行规范化处理,例如归一化处理。上述残差连接和层规范化层的结构,均用来稳定模型的训练。
具体地,终端可以对输入信息进行特征提取,获得输入信息的信息特征,即向量化表示。然后,再将信息特征输入编码器,以使编码器对该信息特征进行编码处理,获得信息特征的隐层表示。最后,终端以信息特征作为解码器的原始输入,以隐层表示作为解码器的中间层输入,在解码器的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
在一个具体的实施例中,编码器的处理过程包括以下步骤:
步骤a,应用自注意力机制,自注意力机制计算方式:
其中,Q是输入信息的向量表示。如输入信息为“‘指令A’,这条指令是否能完成情感分析任务”的情况下,Q即其对向量表示。自注意力机制中,K=Q,V=Q。
步骤b,参考残差网络的思想,自注意力机制的输出与原始输入向量做加和,以增强原始信息,并做归一化。归一化后的结果x1即为Norm(Q+Attention(Q, K, V)), 其中Norm为归一化函数。
步骤c,归一化结果输出至前馈网络进一步计算,以充分融合信息。前馈网络输出的结果为Feed_forward(x1),其中Feed_forward为前馈网络的计算单元。
步骤d,参考残差网络的思想,对步骤c前馈网络的计算结果与原始输入信息加和并做归一化,即 Norm(x1+ Feed_forward(x1)),步骤d的输出即为编码器的最终输出。
在本实施例中,编码器层数为6,即N=6。编码器的最终输出即为隐层参数e和σ的取值(编码器-解码器之间的隐层计算方法),在本申请方案中,可以令σ=e ,即隐层参数e与对应扰动权重参数σ相同。
在一个具体的实施例中,在执行完编码器的计算之后,编码器的输出经过编码器-解码器之间的隐层计算方法,获得新的隐层表示,作为解码器中间层的输入。解码器的处理过程包括以下步骤:
步骤a,处理自编码器的输入信息。计算公式同编码器的步骤a,应用自注意力机制对解码器的输入做自注意力计算。特殊的,解码器是逐字生成的输出结果。
步骤b,加和以及归一化计算。计算公式同编码器的步骤b,对步骤a的输出与原始输入的向量表示进行加和以及归一化计算。
步骤c,将隐层表示与解码器输入信息融合。通过自注意力机制计算(计算公式同步骤a),将编码器输出到隐层获得的最终隐层表示作为自注意力机制的Q和K取值, 以上一步(步骤b)的输出作为V的取值。
步骤d,加和以及归一化计算。计算公式同步骤b, 对隐层表示与解码器输入信息融合(步骤c)得到的向量表示与融合之前(步骤b)的向量表示做加和以及归一化计算。
步骤e,对最终的信息融合的结果进行深度计算,计算公式同编码器的步骤c。最终融合信息(步骤e的输出)通过softmax分离器预测概率的字符(即归一化),预测下一个生成的字符。softmax分类器公式如下,其中w为模型参数(由模型训练),C为词表大小, p(y|x)为在前馈网络的输出x的条件下,softmax分类型预测输出为y的概率大小。
以输入信息为“<指令a>这个条指令是否能完成情感分析任务, 请回答‘是’或‘否’”的情况为例。待判定的指令信息为“请给<句子>这句话判断情感极性(正面/中性/负面)”,那么最终编码器原始输入为:“请给<句子>这句话判断情感极性(正面/中性/负面)”这个条指令是否能完成情感分析任务, 请回答“是”或“否”。大模型候选生成结果(例如生成“是”)取束搜索(beam search)的参数beam_number=1,示例如下:
编码器按照上述步骤对原始输入进行编码处理,获得隐层表示,输入到解码器的自注意力机制中。解码器输入起始符([CLS])作为初始输入,解码器输出取概率最大的结果,输出字符为“是”。拼接上一步骤的输入和输出字符(“[CLS]是”)作为解码器的输入,解码器输出取概率最大的结果,输出字符为终止符“[EOS]”,表示着生成结束。当解码器输出位终止符时,生成结束。最后进行后处理,即去掉起始符[CLS]和终止符[EOS],最终生成的结果为“是”。
以上是指令信息“请给<句子>这句话判断情感极性(正面/中性/负面)”经过大模型后获得预测结果“是”的示例过程。
上述实施例中,采用包含编码器和解码器的大模型,以编码器输出的隐层表示作为解码器的中间层输入,能够确保信息的充分融合,有利于提高筛选结果的准确性。
在一个实施例中,从各候选指令中,确定满足任务需求的任务指令,包括:获取针对候选指令的标注信息;在标注信息所表征的匹配度满足匹配条件的情况下,将标注信息所属的候选指令确定为目标任务的任务指令。
其中,标注信息用于表征候选指令与任务需求的匹配度。该标注信息的具体形式可以包括文字、符号或数字中的至少一种。匹配度满足匹配条件,可以是指匹配度大于或等于匹配度阈值。可选的,标注信息可以包括 “是”和“否”,其中,“是”表征候选指令与任务需求的匹配度满足匹配条件,“否”表征候选指令与任务需求的匹配度不满足匹配条件。可选的,标注信息可以是取值范围在[0,1]的数字,数字越大代表匹配度越高。
具体地,终端可以获取针对候选指令的标注信息,并在标注信息所表征的匹配度满足匹配条件的情况下,将标注信息所属的候选指令确定为目标任务的任务指令,在标注信息所表征的匹配度不满足匹配条件的情况下,则丢弃标注信息所属的候选指令。
示例性的,如图6所示,获得标注信息的具体方式,例如可以是人工标注。以任务信息为“情感分析任务,需要分析<指定文本>的情感极性(正面/中性/负面)”的情况下,则任务类型为“情感分析任务”,任务需求为“需要分析<指定文本>的情感极性(正面/中性/负面)”。在此情形下,终端收集指令信息之后,可以确定与任务类型匹配的询问信息“下列指令是否能执行情感分析任务”,并结合询问信息和指令信息确定大模型的输入信息。在大模型初筛阶段,在大模型的输出为“是”的情况下,将指令信息确定为候选指令,否则丢弃该指令信息。然后进入二次确认阶段。具体地,可以由业务人员基于任务需求对初筛阶段留存的候选指令进行人工标注,确定候选指令是否符合任务要求(即任务需求),并将符合任务需求的候选指令确定为目标任务的任务指令,将不符合任务需求的候选指令丢弃。最后,存储目标任务的任务指令。
上述实施例中,基于标注信息对候选指令进行二次筛选,获得任务指令,得益于标注信息相对较高的准确性,能够确保二次筛选所获得的任务指令的准确性。
在一个实施例中,携带有标注信息的候选指令为与任务类型匹配的候选指令中的至少一部分。在该实施例的情形下,任务指令构建方法还包括:在获取的标注信息的数量满足数量条件的情况下,基于携带标注信息的各候选指令对初始模型进行训练,得到与任务需求匹配的分类模型。
其中,分类模型,用于对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令。具体地,若使用人工标注的方式,需要投入大量人力,为了让流程能够自动化实施,可以通过构建分类模型实现流程的自动化。基于此,终端可以先基于标注的方式进行任务指令的筛选,随着时间的推进,获取的标注信息越来越多,在获取的标注信息的数量满足数量条件的情况下,终端可以基于携带标注信息的各候选指令对初始模型进行训练,得到与任务需求匹配的分类模型。
也就是说,在任务指令的批量化构建过程中,如图6所示,可以先通过标注的方式完成一部分指令信息的筛选,同时获得分类模型的训练样本。在训练样本数量足够的情况下,如图7所示,可以在使用训练样本对初始模型进行训练,获得与任务需求匹配的分类模型。从而,如图8所示,后续可以将分类模型筛选替换标注,完成从候选指令到任务指令的筛选。
上述实施例中,在获取的标注信息的数量满足数量条件的情况下,基于携带标注信息的各候选指令对初始模型进行训练,得到与任务需求匹配的分类模型,用于对与任务类型匹配且未携带标注信息的候选指令进行分类,能够实现全自动的任务指令构建,有利于进一步提高工作效率。
在一个具体的实施例中,终端可以使用分类模型确定候选指令满足任务需求的概率;将概率大于或等于概率阈值的候选指令,确定为满足任务需求的任务指令。
在一个具体的实施例中,基于携带标注信息的各候选指令对初始模型进行训练,得到与任务需求匹配的分类模型,包括:以匹配度满足匹配条件的各候选指令作为正样本,以匹配度不满足匹配条件的各候选指令作为负样本,构建包含正样本和负样本的训练集;使用训练集对初始模型进行训练,得到与任务需求匹配的分类模型。
具体地,分类模型具体可以是二分类模型,从而,终端可以以匹配度满足匹配条件的各候选指令作为正样本,以匹配度不满足匹配条件的各候选指令作为负样本,构建包含正样本和负样本的训练集,再使用训练集对初始模型进行训练,得到与任务需求匹配的分类模型。进一步地,终端可以采用少样本学习的方法训练得到分类模型。少样本学习,即Few-Shot Learning,在传统的机器学习和深度学习中,模型的性能通常与训练样本的数量成正比。也就是说,我们通常需要大量的标注数据来训练模型。然而,在现实世界中,获取大量标注数据并不总是可行的,因为标注数据可能需要大量的人力、物力和时间。少样本学习试图解决这个问题,使模型能够在只有少量训练样本的情况下也能进行有效的学习。
上述实施例中,使用二分类模型对候选指令进行筛选,获得任务指令,能够简化样本集的构建过程,有利于进一步提高工作效率。
在一个可能的实现中,使用二分类模型确定候选指令满足任务需求的概率,包括:对候选指令进行特征提取,获得候选指令的指令特征;将指令特征作为二分类模型的输入,将二分类模型的输出确定为候选指令满足任务需求的概率。
其中,二分类模型对应公式为:
其中,x为对应候选指令的向量表示,θT为待训练的二分类模型的参数,g(z)为归一化函数,将输出归一化为(0,1),即为候选指令符合任务需求的概率。
在一个实施例中,任务指令构建方法还包括:对分类模型进行性能测试;若分类模型的性能测试结果与期望性能不匹配,则返回获取针对候选指令的标注信息的步骤,并使用获取的标注信息对分类模型进行优化,直至分类模型的性能测试结果与期望性能匹配;若分类模型的性能测试结果与期望性能匹配,则使用分类模型对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令。
其中,对分类模型进行性能测试的具体方式可以包括准确率测试、鲁棒性分析等等。鲁棒可理解为模型对数据变化的容忍度。假设数据出现较小偏差或模型内部出现较小的扰动,只对模型输出产生较小的影响并依旧能产生正确结果,则称模型是鲁棒的。期望性能与性能测试结果对应,可以通过准确率阈值或鲁棒性阈值表征。例如,性能测试结果包括准确率的情况下,期望性能可以包括准确率大于或等于准确率阈值。
在训练得到分类模型之后,终端可以对分类模型进行性能测试,并根据性能测试结果确定是否使用分类模型替代标注,完成针对候选指令的筛选。具体地,若分类模型的性能测试结果与期望性能不匹配,则继续采用图6所示的构建过程,返回获取针对候选指令的标注信息的步骤,并使用获取的标注信息对分类模型进行优化,直至分类模型的性能测试结果与期望性能匹配。若分类模型的性能测试结果与期望性能匹配,则采用图8所示的构建过程,使用分类模型对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令。
在一个具体的实施例中,使用获取的标注信息对分类模型进行优化,包括:将匹配度大于或等于设定匹配度的候选指令作为正样本,将匹配度小于或等于预定匹配度的候选指令作为负样本,使用包含正样本和负样本的训练集对分类模型进行增量训练,得到更新的分类模型。
实际应用中,还可以根据分类模型的性能测试结果,进行训练集的优化。如前文所述的,匹配度满足匹配条件,可以是指匹配度大于或等于匹配度阈值。从而,在训练数据足够但所得到的分类模型性能不佳的情况下,可以适当提高匹配度阈值,以提高训练效果。也即,设定匹配度大于匹配度阈值,预定匹配度小于匹配度阈值。
上述实施例中,在训练得到分类模型后,还对该分类模型进行性能测试,并在其满足期望性能的情况下才上线,能够确保使用分类模型所确定的任务指令的准确性。
在一个实施例中,如图9所示,提供了一种任务指令构建方法,该方法可以由计算机设备执行,该计算机设备可以是图1所示的终端或服务器,以该计算机设备是终端为例,在本实施例中,该方法包括以下步骤:
步骤S901,获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
步骤S902,基于任务信息,确定目标任务的任务类型和任务需求;
步骤S903,确定与任务类型匹配的询问信息;
步骤S904,在询问信息中,确定指令信息的插入位置;
步骤S905,针对每一指令信息,按照插入位置将指令信息插入询问信息中,得到与指令信息匹配的输入信息;
步骤S906,对输入信息进行特征提取,获得输入信息的信息特征;
步骤S907,将信息特征输入编码器,以使编码器对信息特征进行编码处理,获得信息特征的隐层表示;
步骤S908,以信息特征作为解码器的原始输入,以隐层表示作为解码器的中间层输入,在解码器的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令;
步骤S909,获取针对候选指令的标注信息;
其中,标注信息用于表征候选指令与任务需求的匹配度;携带有标注信息的候选指令为与任务类型匹配的候选指令中的至少一部分;
步骤S910,在标注信息所表征的匹配度满足匹配条件的情况下,将标注信息所属的候选指令确定为目标任务的任务指令;
步骤S911,在获取的标注信息的数量满足数量条件的情况下,以匹配度满足匹配条件的各候选指令作为正样本,以匹配度不满足匹配条件的各候选指令作为负样本,构建包含正样本和负样本的训练集;
步骤S912,使用训练集对初始模型进行训练,得到与任务需求匹配的分类模型;
步骤S913,对分类模型进行性能测试;
步骤S914,若分类模型的性能测试结果与期望性能不匹配,则返回获取针对候选指令的标注信息的步骤,并使用获取的标注信息对分类模型进行优化,直至分类模型的性能测试结果与期望性能匹配;
步骤S915,若分类模型的性能测试结果与期望性能匹配,则使用分类模型对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令;
步骤S916,基于目标任务的任务需求,从多个候选指令集中确定与目标任务匹配的目标指令集,并将任务指令添加至目标指令集;
其中,目标指令集用于提供针对目标任务的多样化指令描述,以引导大模型执行目标任务。
上述任务指令构建过程中,利用大模型初筛指令,获得与任务类型匹配的候选指令,再进一步基于任务需求进行二次筛选,得到任务指令,一方面,能够在确保任务指令与目标任务的匹配度的同时,实现任务指令的自动生成,有利于提高任务指令构建过程中的工作效率;另一方面,先基于较粗粒度的任务类型进行一次筛选获得候选指令,再基于较细粒度的任务需求进行二次筛选得到任务指令,从而能够减少细粒度筛选的工作量,同样能够提高任务指令构建过程中的工作效率。因此,采用上述任务指令构建方法,能够提高任务指令构建过程中的工作效率,构建大批量的任务指令,为大模型落地提供基础。
在一个实施例中,如图10所示,本申请还提供了一种任务处理方法,该方法可以由计算机设备执行,该计算机设备可以是图1所示的终端或服务器,在本实施例中,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤S1002,获取目标任务的任务需求、以及针对目标任务的待处理信息;
步骤S1004,基于任务需求,从指令集中读取与目标任务匹配的任务指令;
步骤S1006,将待处理信息和任务指令输入大模型,以使大模型在任务指令的引导下,按照任务需求确定待处理信息的处理结果。
其中,任务指令基于上述任务指令构建方法构建。目标任务的待处理信息,是指在执行目标任务的过程中需要进行处理的信息。该信息例如可以包括文字、音频或图像等至少一类信息。示例性的,目标任务的任务信息为 “情感分析任务,需要分析<指定文本>的情感极性(正面/中性/负面)”的情况下,则待处理信息为指定文本。目标任务的任务信息为“图像识别任务,需要分析<指定图像>中是否包含人物图像”,则待处理信息为指定图像。指令集中存储有针对多个目标任务构建的任务指令。
具体地,终端可以获取目标任务的任务需求、以及针对目标任务的待处理信息。然后,基于任务需求,从指令集中读取与目标任务匹配的任务指令,并将待处理信息和任务指令输入大模型,以使大模型在任务指令的引导下,按照任务需求确定待处理信息的处理结果。
在一个具体的实施例中,指令集可以包括多个目标指令集,终端可以针对每一目标任务分别构建至少一个任务指令,并将这些任务指令存储至任务需求对应的目标指令集。从而,在应用过程中,终端可以基于任务信息确定任务需求,并进一步确定目标任务的目标指令集,再从该目标指令集中读取目标任务的任务指令。
上述任务处理方法,由于所使用的任务指令在构建过程中,利用大模型初筛指令,获得与任务类型匹配的候选指令,再进一步基于任务需求进行二次筛选,得到任务指令,一方面,能够在确保任务指令与目标任务的匹配度的同时,实现任务指令的自动生成,有利于提高任务指令构建过程中的工作效率;另一方面,先基于较粗粒度的任务类型进行一次筛选获得候选指令,再基于较细粒度的任务需求进行二次筛选得到任务指令,从而能够减少细粒度筛选的工作量,同样能够提高任务指令构建过程中的工作效率,并且还能确保大模型执行任务的效果。
在一个具体的实施例中,如图11所示,大模型落地的实现过程包括两个阶段:任务指令构建阶段、以及基于任务指令的任务处理阶段。其中,第一阶段可以构建多个目标任务分别对应的任务指令,且一个目标任务可以构建多个任务指令,进而得到应用于大模型的指令集。第一阶段的指令集,可以向第二阶段的大模型提供任务指令,这些任务指令能够实现多样化的指令表达,引导大模型执行任务指令对应的目标任务。
其中,指令集构建过程可以包括候选指令挖掘、候选指令分类、任务指令效果测试和任务指令入库等步骤。候选指令挖掘过程可以对应图6和图7,通过人工标注获得少量携带标注信息的候选指令,并通过训练得到与任务需求匹配的二分类模型。候选指令分类过程可以对应图8,在二分类模型的模型性能达到期望性能的情况下,使用该二分类模型替代人工标注,判断候选指令是否符合任务需求,并将符合任务需求的候选指令确定为任务指令。进一步地,在获得任务指令之后,还可以使用大模型对任务指令进行效果测试,保留任务执行效果较高的任务指令。最后,将保留下来的优质任务指令存入指令集,用于后续的任务执行。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的任务指令构建方法的任务指令构建装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个任务指令构建装置实施例中的具体限定可以参见上文中对于任务指令构建方法的限定,在此不再赘述。
在一个实施例中,如图12所示,提供了一种任务指令构建装置,包括:任务信息获取模块1201、需求确定模块1202、候选指令筛选模块1203和任务指令确定模块1204,其中:
任务信息获取模块1201,用于获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
需求确定模块1202,用于基于任务信息,确定目标任务的任务类型和任务需求;
候选指令筛选模块1203,用于使用基于任务类型确定的询问信息,引导大模型从指令数据集中筛选出与任务类型匹配的候选指令;
任务指令确定模块1204,用于从各候选指令中,确定满足任务需求的任务指令;任务指令用于引导大模型执行目标任务。
在一个实施例中,候选指令筛选模块1203包括:询问信息确定单元,用于确定与任务类型匹配的询问信息;输入信息确定单元,用于针对每一指令信息,结合指令信息和询问信息,确定与指令信息匹配的输入信息;候选指令筛选单元,用于将输入信息输入大模型,在大模型的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
在一个实施例中,输入信息确定单元具体用于:在询问信息中,确定指令信息的插入位置;按照插入位置将指令信息插入询问信息中,得到与指令信息匹配的输入信息。
在一个实施例中,大模型包括编码器和解码器。在该实施例的情形下,候选指令筛选单元具体用于:对输入信息进行特征提取,获得输入信息的信息特征;将信息特征输入编码器,以使编码器对该信息特征进行编码处理,获得信息特征的隐层表示;以信息特征作为解码器的原始输入,以隐层表示作为解码器的中间层输入,在解码器的输出信息表征指令信息与任务类型匹配的情况下,将指令信息确定为候选指令。
在一个实施例中,任务指令确定模块1204包括:标注信息获取单元,用于获取针对候选指令的标注信息;任务指令确定单元,用于在标注信息所表征的匹配度满足匹配条件的情况下,将标注信息所属的候选指令确定为目标任务的任务指令。其中,标注信息用于表征候选指令与任务需求的匹配度。
在一个实施例中,携带有标注信息的候选指令为与任务类型匹配的候选指令中的至少一部分。在该实施例的情形下,任务指令构建装置还包括训练模块,用于:在获取的标注信息的数量满足数量条件的情况下,基于携带标注信息的各候选指令对初始模型进行训练,得到与任务需求匹配的分类模型,该分类模型,用于对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令。
在一个实施例中,训练模块具体用于:以匹配度满足匹配条件的各候选指令作为正样本,以匹配度不满足匹配条件的各候选指令作为负样本,构建包含正样本和负样本的训练集;使用训练集对初始模型进行训练,得到与任务需求匹配的分类模型。
在一个实施例中,任务指令构建装置还包括性能测试模块,用于:对分类模型进行性能测试;若分类模型的性能测试结果与期望性能不匹配,则返回获取针对候选指令的标注信息的步骤,并使用获取的标注信息对分类模型进行优化,直至分类模型的性能测试结果与期望性能匹配;若分类模型的性能测试结果与期望性能匹配,则使用分类模型对与任务类型匹配且未携带标注信息的候选指令进行分类,确定满足任务需求的任务指令。
在一个实施例中,需求确定模块1202具体用于:获取多个候选任务类型;对任务信息进行语义分析,确定任务信息的任务语义;分别确定每一候选任务类型与任务语义的语义相似度,并将语义相似度最高的候选任务类型确定为目标任务的任务类型。
在一个实施例中,任务指令构建装置还包括存储模块,用于:基于目标任务的任务需求,从多个候选指令集中确定与目标任务匹配的目标指令集;将任务指令添加至目标指令集。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的任务处理方法的任务处理装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个任务处理装置实施例中的具体限定可以参见上文中对于任务处理方法的限定,在此不再赘述。
在一个实施例中,如图13所示,提供了一种任务处理装置,包括:待处理信息获取模块1301、任务指令读取模块1302和任务处理模块1303,其中:
待处理信息获取模块1301,用于获取目标任务的任务需求、以及针对目标任务的待处理信息;
任务指令读取模块1302,用于基于任务需求,从指令集中读取与目标任务匹配的任务指令;任务指令由任务指令构建装置构建;
任务处理模块1303,用于将待处理信息和任务指令输入大模型,以使大模型在任务指令的引导下,按照任务需求确定待处理信息的处理结果。
上述任务指令构建装置和任务处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器或终端,其内部结构图可以如图14所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储指令信息。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种任务指令构建方法或任务处理方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图15所示。该计算机设备包括处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种任务指令构建方法或任务处理方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图14或15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各方法实施例的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以上述各方法实施例的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关地域和地区的相关法律法规和标准。并且,对象可以选择不进行对象信息和相关数据的授权,也可以拒绝或可以便捷拒绝推送信息等。
本申请中,在实例应用时进行相关数据收集处理的过程中,应该严格根据相关地区法律法规的要求,获取个人信息主体的知情同意或单独同意,并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (16)

1.一种任务指令构建方法,其特征在于,所述方法包括:
获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
基于所述任务信息,确定所述目标任务的任务类型和任务需求;
使用基于所述任务类型确定的询问信息,引导大模型从所述指令数据集中筛选出与所述任务类型匹配的候选指令;
从各所述候选指令中,确定满足所述任务需求的任务指令;所述任务指令用于引导所述大模型执行所述目标任务。
2.根据权利要求1所述的方法,其特征在于,所述使用基于所述任务类型确定的询问信息,引导大模型从所述指令数据集中筛选出与所述任务类型匹配的候选指令,包括:
确定与所述任务类型匹配的询问信息;
针对每一所述指令信息,结合所述指令信息和所述询问信息,确定与所述指令信息匹配的输入信息;
将所述输入信息输入大模型,在所述大模型的输出信息表征所述指令信息与所述任务类型匹配的情况下,将所述指令信息确定为候选指令。
3.根据权利要求2所述的方法,其特征在于,所述结合所述指令信息和所述询问信息,确定与所述指令信息匹配的输入信息,包括:
在所述询问信息中,确定指令信息的插入位置;
按照所述插入位置将所述指令信息插入所述询问信息中,得到与所述指令信息匹配的输入信息。
4.根据权利要求2所述的方法,其特征在于,所述大模型包括编码器和解码器,所述将所述输入信息输入大模型,在所述大模型的输出信息表征所述指令信息与所述任务类型匹配的情况下,将所述指令信息确定为候选指令,包括:
对所述输入信息进行特征提取,获得所述输入信息的信息特征;
将所述信息特征输入所述编码器,以使所述编码器对所述信息特征进行编码处理,获得所述信息特征的隐层表示;
以所述信息特征作为所述解码器的原始输入,以所述隐层表示作为所述解码器的中间层输入,在所述解码器的输出信息表征所述指令信息与所述任务类型匹配的情况下,将所述指令信息确定为候选指令。
5.根据权利要求1所述的方法,其特征在于,所述从各所述候选指令中,确定满足所述任务需求的任务指令,包括:
获取针对所述候选指令的标注信息;所述标注信息用于表征所述候选指令与所述任务需求的匹配度;
在所述标注信息所表征的匹配度满足匹配条件的情况下,将所述标注信息所属的候选指令确定为所述目标任务的任务指令。
6.根据权利要求5所述的方法,其特征在于,携带有标注信息的候选指令为与所述任务类型匹配的候选指令中的至少一部分,所述方法还包括:
在获取的标注信息的数量满足数量条件的情况下,基于携带标注信息的各所述候选指令对初始模型进行训练,得到与所述任务需求匹配的分类模型;
所述分类模型,用于对与所述任务类型匹配且未携带标注信息的候选指令进行分类,确定满足所述任务需求的任务指令。
7.根据权利要求6所述的方法,其特征在于,所述基于携带标注信息的各所述候选指令对初始模型进行训练,得到与所述任务需求匹配的分类模型,包括:
以匹配度满足匹配条件的各所述候选指令作为正样本,以匹配度不满足所述匹配条件的各所述候选指令作为负样本,构建包含所述正样本和所述负样本的训练集;
使用所述训练集对初始模型进行训练,得到与所述任务需求匹配的分类模型。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
对所述分类模型进行性能测试;
若所述分类模型的性能测试结果与期望性能不匹配,则返回获取针对所述候选指令的标注信息的步骤,并使用获取的标注信息对所述分类模型进行优化,直至所述分类模型的性能测试结果与所述期望性能匹配;
若所述分类模型的性能测试结果与所述期望性能匹配,则使用所述分类模型对与所述任务类型匹配且未携带标注信息的候选指令进行分类,确定满足所述任务需求的任务指令。
9.根据权利要求1至8中任意一项所述的方法,其特征在于,所述基于所述任务信息,确定所述目标任务的任务类型,包括:
获取多个候选任务类型;
对所述任务信息进行语义分析,确定所述任务信息的任务语义;
分别确定每一所述候选任务类型与所述任务语义的语义相似度,并将语义相似度最高的候选任务类型确定为所述目标任务的任务类型。
10.根据权利要求1至8中任意一项所述的方法,其特征在于,所述方法还包括:
基于所述目标任务的任务需求,从多个候选指令集中确定与所述目标任务匹配的目标指令集;
将所述任务指令添加至所述目标指令集。
11.一种任务处理方法,其特征在于,所述方法包括:
获取目标任务的任务需求、以及针对所述目标任务的待处理信息;
基于所述任务需求,从指令集中读取与所述目标任务匹配的任务指令;所述任务指令基于如权利要求1至10中任意一项所述的方法构建;
将所述待处理信息和所述任务指令输入大模型,以使所述大模型在所述任务指令的引导下,按照所述任务需求确定所述待处理信息的处理结果。
12.一种任务指令构建装置,其特征在于,所述装置包括:
任务信息获取模块,用于获取目标任务的任务信息、以及包含多个指令信息的指令数据集;
需求确定模块,用于基于所述任务信息,确定所述目标任务的任务类型和任务需求;
候选指令筛选模块,用于使用基于所述任务类型确定的询问信息,引导大模型从所述指令数据集中筛选出与所述任务类型匹配的候选指令;
任务指令确定模块,用于从各所述候选指令中,确定满足所述任务需求的任务指令;所述任务指令用于引导所述大模型执行所述目标任务。
13.一种任务处理装置,其特征在于,所述装置包括:
待处理信息获取模块,用于获取目标任务的任务需求、以及针对所述目标任务的待处理信息;
任务指令读取模块,用于基于所述任务需求,从指令集中读取与所述目标任务匹配的任务指令;所述任务指令由如权利要求12所述的装置构建;
任务处理模块,用于将所述待处理信息和所述任务指令输入大模型,以使所述大模型在所述任务指令的引导下,按照所述任务需求确定所述待处理信息的处理结果。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11中任一项所述的方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤。
16.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤。
CN202410191450.7A 2024-02-21 2024-02-21 任务指令构建方法和任务处理方法 Active CN117762499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410191450.7A CN117762499B (zh) 2024-02-21 2024-02-21 任务指令构建方法和任务处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410191450.7A CN117762499B (zh) 2024-02-21 2024-02-21 任务指令构建方法和任务处理方法

Publications (2)

Publication Number Publication Date
CN117762499A true CN117762499A (zh) 2024-03-26
CN117762499B CN117762499B (zh) 2024-05-28

Family

ID=90320422

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410191450.7A Active CN117762499B (zh) 2024-02-21 2024-02-21 任务指令构建方法和任务处理方法

Country Status (1)

Country Link
CN (1) CN117762499B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078200A (zh) * 2019-11-29 2020-04-28 深圳前海微众银行股份有限公司 任务构建方法、装置、设备、介质及系统
CN111563220A (zh) * 2020-04-27 2020-08-21 平安国际智慧城市科技股份有限公司 业务网站项目构建方法、装置、计算机设备和存储介质
US20210279084A1 (en) * 2020-03-09 2021-09-09 Adobe Inc. Generating in-app guided edits including concise instructions and coachmarks
CN116560730A (zh) * 2022-01-29 2023-08-08 华为技术有限公司 一种指令调度方法及相关设备
CN116956934A (zh) * 2023-06-25 2023-10-27 腾讯科技(深圳)有限公司 任务处理方法、装置、设备及存储介质
CN117539548A (zh) * 2023-11-28 2024-02-09 上海思朗科技有限公司 基于wait机制的指令执行方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078200A (zh) * 2019-11-29 2020-04-28 深圳前海微众银行股份有限公司 任务构建方法、装置、设备、介质及系统
US20210279084A1 (en) * 2020-03-09 2021-09-09 Adobe Inc. Generating in-app guided edits including concise instructions and coachmarks
CN111563220A (zh) * 2020-04-27 2020-08-21 平安国际智慧城市科技股份有限公司 业务网站项目构建方法、装置、计算机设备和存储介质
CN116560730A (zh) * 2022-01-29 2023-08-08 华为技术有限公司 一种指令调度方法及相关设备
CN116956934A (zh) * 2023-06-25 2023-10-27 腾讯科技(深圳)有限公司 任务处理方法、装置、设备及存储介质
CN117539548A (zh) * 2023-11-28 2024-02-09 上海思朗科技有限公司 基于wait机制的指令执行方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周奇安;李舟军;: "基于BERT的任务导向对话系统自然语言理解的改进模型与调优方法", 中文信息学报, no. 05, 15 May 2020 (2020-05-15), pages 86 - 94 *

Also Published As

Publication number Publication date
CN117762499B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN113255755A (zh) 一种基于异质融合网络的多模态情感分类方法
CN110781306B (zh) 一种英文文本的方面层情感分类方法及系统
CN110457585B (zh) 负面文本的推送方法、装置、系统及计算机设备
Che et al. Visual relationship embedding network for image paragraph generation
CN117521675A (zh) 基于大语言模型的信息处理方法、装置、设备及存储介质
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN113988071A (zh) 一种基于金融知识图谱的智能对话方法及装置、电子设备
CN116975350A (zh) 图文检索方法、装置、设备及存储介质
CN114880307A (zh) 一种开放教育领域知识的结构化建模方法
Jia et al. Semantic association enhancement transformer with relative position for image captioning
CN117236338B (zh) 一种稠密实体文本的命名实体识别模型及其训练方法
CN117197569A (zh) 图像审核方法、图像审核模型训练方法、装置和设备
CN117113937A (zh) 一种基于大规模语言模型的电力领域阅读理解方法和系统
CN117762499B (zh) 任务指令构建方法和任务处理方法
CN115795010A (zh) 一种外部知识辅助的多因素层次建模共情对话生成方法
CN115455144A (zh) 用于小样本意图识别的完型填空式的数据增强方法
CN115359486A (zh) 一种文档图像中自定义信息的确定方法及系统
CN115129863A (zh) 意图识别方法、装置、设备、存储介质和计算机程序产品
CN114330285A (zh) 语料处理方法、装置、电子设备及计算机可读存储介质
Zhao et al. Fusion with GCN and SE-ResNeXt network for aspect based multimodal sentiment analysis
CN113129399A (zh) 纹样生成
CN111222533A (zh) 一种基于依赖树的深度学习视觉问答方法及系统
Xie et al. Enhancing multimodal deep representation learning by fixed model reuse
CN117521674B (zh) 对抗信息的生成方法、装置、计算机设备和存储介质
CN117689963B (zh) 一种基于多模态预训练模型的视觉实体链接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant