CN116757254B - 任务处理方法、电子设备及存储介质 - Google Patents

任务处理方法、电子设备及存储介质 Download PDF

Info

Publication number
CN116757254B
CN116757254B CN202311042178.8A CN202311042178A CN116757254B CN 116757254 B CN116757254 B CN 116757254B CN 202311042178 A CN202311042178 A CN 202311042178A CN 116757254 B CN116757254 B CN 116757254B
Authority
CN
China
Prior art keywords
sequence data
length
text
tasks
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311042178.8A
Other languages
English (en)
Other versions
CN116757254A (zh
Inventor
王凯
周躜
蔡寅翔
张欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN202311042178.8A priority Critical patent/CN116757254B/zh
Publication of CN116757254A publication Critical patent/CN116757254A/zh
Application granted granted Critical
Publication of CN116757254B publication Critical patent/CN116757254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种任务处理方法、电子设备及存储介质,涉及大模型技术、序列数据生成、文本生成领域。其中,该方法包括:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。本申请解决了相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。

Description

任务处理方法、电子设备及存储介质
技术领域
本申请涉及大模型技术、序列数据生成、文本生成领域,具体而言,涉及一种任务处理方法、电子设备及存储介质。
背景技术
目前,文本生成任务大多采用利用深度学习模型训练出来的千亿参数规模的神经网络模型,但是,即使是新模型架构取得了良好的效果,但在实际应用中,由于模型结构复杂、参数量较大等原因,导致文本生成任务的计算量仍然较大,进而导致文本生成的效率较低。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种任务处理方法、电子设备及存储介质,以至少解决相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。
根据本申请实施例的一个方面,提供了一种任务处理方法,包括:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
根据本申请实施例的另一方面,还提供了一种任务处理方法,包括:在目标对象与虚拟对象进行对话的过程中,基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;基于第一对话文本,预测得到第二对话文本的文本长度;基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的文本生成任务,得到第二对话文本。
根据本申请实施例的另一方面,还提供了一种任务处理方法,包括:响应作用于操作界面上的输入指令,在操作界面上显示多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;响应作用于操作界面上的任务处理指令,在操作界面上显示输出序列数据,其中,输出序列数据是并行执行至少一个任务集合中同一个任务集合包含的序列数据生成任务得到的,至少一个任务集合是基于输出序列数据的序列长度,对多个序列数据生成任务进行分组得到的,输出序列数据的序列长度是基于多个序列数据生成任务包含的输入序列数据预测得到的。
根据本申请实施例的另一方面,还提供了一种任务处理方法,包括:响应作用于目标对象与虚拟对象进行对话的操作界面上的输入指令,在操作界面上显示目标对象的多个第一对话文本;响应作用于操作界面上的任务处理指令,在操作界面上显示第二对话文本,其中,第二对话文本用于表征第一对话文本对应的回复文本,第二对话文本是并行执行至少一个任务集合中同一个任务集合包含的文本生成任务得到的,至少一个任务集合是基于第二对话文本的文本长度,对多个文本生成任务进行分组得到的,第二对话文本的文本长度是基于第一对话文本预测得到的,多个文本生成任务是基于多个第一对话文本构建的。
根据本申请实施例的另一方面,还提供了一种任务处理方法,包括:通过调用第一接口获取多个序列数据生成任务,其中,第一接口包括第一参数,第一参数的参数值为多个序列数据生成任务,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据;通过调用第二接口输出该输出序列数据,其中,第二接口包括第二参数,第二参数的参数值为输出序列数据。
根据本申请实施例的另一方面,还提供了一种任务处理方法,包括:通过调用第一接口获取目标对象与虚拟对象进行对话的多个第一对话文本,其中,第一接口包括第一参数,第一参数的参数值为第一对话文本;基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;基于第一对话文本,预测得到第二对话文本的文本长度;基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的文本生成任务,得到第二对话文本;通过调用第二接口输出第二对话文本,其中,第二接口包括第二参数,第二参数的参数值为第二对话文本。
在本申请实施例中,通过获取多个序列数据生成任务;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据,实现序列数据生成的目的。容易注意到的是,可以根据预测出的输出序列数据的序列长度对多个序列数据生成任务进行分组,使得同一个分组内的序列数据生成任务的计算量相似,进而可以并行执行同一个任务集合中所包含序列数据生成任务,从而减少了序列数据生成过程中的计算量,提高序列数据生成效率,进而解决了相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。
容易注意到的是,上面的通用描述和后面的详细描述仅仅是为了对本申请进行举例和解释,并不构成对本申请的限定。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种任务处理方法的应用场景的示意图;
图2是根据本申请实施例1的任务处理方法的流程图;
图3是根据本申请实施例的一种可选的任务处理方法的示意图;
图4是根据本申请实施例2的任务处理方法的流程图;
图5是根据本申请实施例3的任务处理方法的流程图;
图6是根据本申请实施例3的一种操作界面的示意图;
图7是根据本申请实施例4的任务处理方法的流程图;
图8是根据本申请实施例4的一种操作界面的示意图;
图9是根据本申请实施例5的任务处理方法的流程图;
图10是根据本申请实施例6的任务处理方法的流程图;
图11是根据本申请实施例1的任务处理装置的示意图;
图12是根据本申请实施例2的任务处理装置的示意图;
图13是根据本申请实施例3的任务处理装置的示意图;
图14是根据本申请实施例4的任务处理装置的示意图;
图15是根据本申请实施例5的任务处理装置的示意图;
图16是根据本申请实施例6的任务处理装置的示意图;
图17是根据本申请实施例的一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请提供的技术方案主要采用大模型技术实现,此处的大模型是指具有大规模模型参数的深度学习模型,通常可以包含上亿、上百亿、上千亿、上万亿甚至十万亿以上的模型参数。大模型又可以称为基石模型/基础模型(Foundation Model),通过大规模无标注的语料进行大模型的预训练,产出亿级以上参数的预训练模型,这种模型能适应广泛的下游任务,模型具有较好的泛化能力,例如大规模语言模型(Large Language Model, LLM)、多模态预训练模型(multi-modal pre-training model)等。
需要说明的是,大模型在实际应用时,可以通过少量样本对预训练模型进行微调,使得大模型可以应用于不同的任务中。例如,大模型可以广泛应用于自然语言处理(Natural Language Processing,简称NLP)、计算机视觉等领域,具体可以应用于如视觉问答(Visual Question Answering,简称VQA)、图像描述(Image Caption,简称IC)、图像生成等计算机视觉领域任务,也可以广泛应用于基于文本的情感分类、文本摘要生成、机器翻译等自然语言处理领域任务。因此,大模型主要的应用场景包括但不限于数字助理、智能机器人、搜索、在线教育、办公软件、电子商务、智能设计等。在本申请实施例中,以文本生成场景下通过生成模型进行数据处理为例进行解释说明,
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
AIGC:Artificial Intelligence Generated Content又称生成式AI,用于表示人工智能生成内容。
GPT:Generative Pre Trained Transformer,为一种基于互联网的,用于进行数据训练并生成对应文本的深度学习模型。
Transformer:一种神经网络,通过跟踪序列数据中的关系来学习上下文并学习含义。
GPU:Graphics Processing Unit,图形处理器,该图形处理器为一种用于执行模型训练和推理的主流计算设备。
CUDA:一种通用并行计算架构,该架构可以使得GPU能够解决复杂的计算问题。
Batching:一种优化GPU计算效率的方法。
实施例1
根据本申请实施例,提供了一种任务处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
考虑到大模型的模型参数量庞大,且移动终端的运算资源有限,图1是根据本申请实施例的一种任务处理方法的应用场景的示意图,本申请实施例提供的上述任务处理方法可以应用于如图1所示的应用场景,但不仅限于此。在如图1所示的应用场景中,大模型部署在服务器10中,服务器10可以通过局域网连接、广域网连接、因特网连接,或者其他类型的数据网络,连接一个或多个客户端设备20,此处的客户端设备20可以包括但不限于:智能手机、平板电脑、笔记本电脑、掌上电脑、个人计算机、智能家居设备、车载设备等。客户端设备20可以通过图形用户界面与用户进行交互,实现对大模型的调用,进而实现本申请实施例所提供的方法。
在本申请实施例中,客户端设备和服务器构成的系统可以执行如下步骤:客户端设备生成序列数据生成任务,并通过网络发送给服务器,服务器在获取到的多个序列数据生成任务后,可以利用长度预测模型根据序列数据生成任务中所包含的输入序列数据来预测输出序列数据的长度序列,从而可以根据输出序列数据的长度序列对序列数据生成任务进行分组,得到至少一个任务集合,最后可以并行执行任务集合中的多个序列数据生成任务。需要说明的是,在客户端设备的运行资源能够满足大模型的部署和运行条件的情况下,本申请实施例可以在客户端设备中进行。
在上述运行环境下,本申请提供了如图2所示的任务处理方法。图2是根据本申请实施例1的任务处理方法的流程图。如图2所示,该方法可以包括如下步骤:
步骤S202:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据。
上述的序列数据生成任务可以用于指示在具有大规模模型参数的深度学习模型(也称大模型)中输入一个输入序列数据,从而使得深度学习模型可以生成对应的输出序列数据,此处的输入序列数据可以是具有一定先后次序的多个数据,例如,文本数据、电力数据、气象数据等,但不仅限于此。可选的,上述的大模型可以包括但不限于:大规模语言模型、多模态预训练模型、神经网络模型、生成模型等模型,并且,可以使用GPU来进行模型的推理和计算。可选的,在本申请中以大模型为生成模型为例来进行说明。
在一种可选的实施例中,以文本生成场景为例,序列数据生成任务可以是文本生成任务,可以应用于数字助理、智能机器人、搜索、在线教育、办公软件、电子商务、语言翻译、智能设计等场景。可选的,在应用场景为上述场景的情况下,可以由本领域技术人员在客户端设备中输入多个不同的输入文本,从而客户端设备可以生成与输入文本对应的文本生成任务。例如,以语言翻译场景为例进行说明,用户可以在客户端设备显示的操作界面上输入需要翻译的语言,客户端设备在接收到用户输入的输入文本时,可以生成对应的语言翻译任务,也即上述的文本生成任务。
步骤S204:基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度。
在一种可选的实施例中,由于大模型的模型参数数量较大,推理过程需要进行大量的矩阵计算,因此,利用GPU进行计算时存在启动阶段和停止阶段的额外工作,同时,单个序列数据生成任务可并行执行的矩阵计算是无法充分利用GPU计算力,因此,在GPU架构下优化深度学习模型推理性能的一个重要方式就是将多个序列数据生成任务拼凑在一起进行计算。上述方案实现过程中的一个重要细节就是任务的整齐度,而对于序列数据生成任务,任务的整齐度由输出序列数据的长度的整齐度决定,因此,在确定出输入序列数据后,需要利用输入序列数据来预测该输入序列数据所对应的输出序列数据的序列长度,从而可以将可能产生的输出序列数据的序列长度相同或相似的序列数据生成任务进行并行处理,确保同一个分组的序列数据生成任务的处理时间相同或类似,从而减少模型推理和计算过程中的计算量。
步骤S206:基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合。
在一种可选的实施例中,在预测出输出序列数据的序列长度后,可以基于输出序列数据的序列长度对多个序列数据生成任务进行分组,从而得到不同的任务集合。可选的,在基于输出序列数据的序列长度对多个序列数据生成任务进行分组时,可以将多个序列数据生成任务根据输出序列数据的序列长度进行对比,并将预测出的输出序列数据的序列长度相同的序列数据生成任务划分为一组,或,也可以设定多个不同的序列长度的区间,将预测出的输出序列数据的序列长度位于同一个序列长度区间的序列数据生成任务划分为一组,从而得到至少一个任务集合。
步骤S208:并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
在一种可选的实施例中,在依据输出序列数据的序列长度,对序列数据生成任务进行分组,得到至少一个任务集合后,可以以任务集合为单位,并行执行同一个任务集合中所包含的所有序列数据生成任务,从而可以充分利用GPU计算力,优化计算过程,减少模型推理和计算过程中的计算量,从而提高文本生成的效率。
例如,以虚拟对话场景下的文本生成任务为例进行说明,用户可以在虚拟对话场景界面中输入对话信息,此时客户端设备可以将用户输入的对话信息作为输入文本,并生成相应的文本生成任务。服务器在接收到客户端设备发送的多个文本生成任务之后,可以根据多个文本生成任务中包含的多个输入文本,分别预测出多个输入文本所对应的输出文本的序列长度,也即,预测出回复信息的序列长度,从而可以根据预测出的输出文本的序列长度对多个输入文本进行分组,将序列长度相近的输出文本所对应的输入文本分为同一个任务集合,并将可能产生的输出文本的序列长度相同或相似的文本生成任务进行并行处理,得到相应的回复信息,并将回复信息作为输出文本,从而有效的减少了文本生成任务的计算时间,也减少文本生成任务计算过程中的计算量。客户端设备在接收到服务器返回的回复信息之后,可以显示在虚拟对话场景界面中供用户查看。
例如,以语言翻译场景下的文本生成任务为例来进行说明,用户可以在语言翻译场景界面中输入需要翻译的语言,此时客户端设备可以将用户输入的需要翻译的语言作为输入文本,并生成相应的文本生成任务。服务器在接收到客户端设备发送的多个文本生成任务之后,可以根据多个文本生成任务中所包含的多个输入文本,分别取预测多个输入文本所对应的多个输出文本的序列长度,也即,翻译后的语言的序列长度,从而可以根据预测出的输出文本的序列长度对多个文本生成任务进行分组,将序列长度相近的输出文本所对应的文本生成任务分为同一个任务集合,并将可能产生的输出文本的序列长度相同或相似的文本生成任务进行并行处理,得到相应的翻译后的语言,并将翻译后的语言作为输出文本。客户端设备在接收到服务器返回的翻译后的语言之后,可以显示在语言翻译场景界面中供用户查看,从而提升了语言翻译的效率,提高用户翻译体验感。
例如,以电力场景下的电力数据预测任务为例来进行说明,用户可以在电力数据预测界面中输入历史电力数据,此时客户端设备可以将用户输入的历史电力数据作为输入序列数据,并生成相应的电力数据预测任务。服务器在接收到客户端设备发送的多个电力数据预测任务之后,可以根据多个电力数据预测任务中所包含的多个历史电力数据,分别取预测多个历史电力数据所对应的多个预测电力数据的序列长度,也即,未来时间段的电力数据,从而可以根据预测出的预测电力数据的序列长度对多个电力数据预测任务进行分组,将序列长度相近的预测电力数据所对应的电力数据预测任务分为同一个任务集合,并将可能产生的预测电力数据的序列长度相同或相似的电力数据预测任务进行并行处理,得到未来时间段的电力数据,并将未来时间段的电力数据作为输出序列数据。客户端设备在接收到服务器返回的未来时间段的电力数据之后,可以显示在电力数据预测界面中供用户查看,从而提升了电力数据预测的效率,提高用户预测体验感。
例如,以遥感场景下的气象预测任务为例来进行说明,用户可以在气象预测界面中输入历史气象数据,此时客户端设备可以将用户输入的历史气象数据作为输入序列数据,并生成相应的气象数据预测任务。服务器在接收到客户端设备发送的多个气象数据预测任务之后,可以根据多个气象数据预测任务中所包含的多个历史气象数据,分别取预测多个历史气象数据所对应的多个预测气象数据的序列长度,也即,未来时间段的气象数据的序列长度,从而可以根据预测出的预测气象数据的序列长度对多个气象数据预测任务进行分组,将序列长度相近的预测气象数据所对应的气象数据预测任务分为同一个任务集合,并将可能产生的预测气象数据的序列长度相同或相似的气象数据预测任务进行并行处理,得到未来时间段的气象数据,并将未来时间段的气象数据作为输出序列数据。客户端设备在接收到服务器返回的未来时间段的气象数据之后,可以显示在气象预测界面中供用户查看,从而提升了气象预测的效率,提高用户预测体验感。
在本申请实施例中,通过获取多个序列数据生成任务;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据,实现序列数据生成的目的。容易注意到的是,可以根据预测出的输出序列数据的序列长度对多个序列数据生成任务进行分组,使得同一个分组内的序列数据生成任务的计算量相似,进而可以并行执行同一个任务集合中所包含序列数据生成任务,从而减少了序列数据生成过程中的计算量,提高序列数据生成效率,进而解决了相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。
在本申请上述实施例中,并行执行同一个任务集合的序列数据生成任务,得到输出序列数据,包括:基于同一个任务集合的序列数据生成任务,从至少一个设备中筛选出执行设备,其中,至少一个设备上均部署有大模型,大模型用于基于输入序列数据生成对应的输出序列数据;控制执行设备利用执行设备上部署的大模型,并行执行同一个任务集合的序列数据生成任务,得到输出序列数据。
上述的执行设备可以是至少一个设备中,用于并行执行同一个任务集合中的序列数据生成任务的设备,该执行设备的GPU的计算能力与该同一个任务集合的计算量相匹配,避免浪费GPU的计算资源。上述的设备可以包括但不限于服务器,设备上均部署有大模型,从而可以将序列数据生成任务中的输入序列数据输入至大模型,利用大模型生成对应的输出序列数据。
在一种可选的实施例中,在根据预测出的输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合后,可以从至少一个中确定出计算能力与每个任务集合的计算量相匹配的的设备,也即,确定出执行设备,从而可以控制执行设备上所部署的大模型并行执行同一个任务集合的序列数据生成任务,并得到输出序列数据。
例如,仍以语言翻译场景下的文本生成任务为例进行说明,输入序列数据可以为翻译前的语言,则在获取到文本生成任务后,可以从至少一个服务器中确定出部署有用于进行语言翻译的大模型的服务器,如果该服务器的计算能力与该任务集合中的语言翻译任务的计算量相匹配的,则可以将该服务器确定为执行设备,从而可以利用执行设备对语言翻译任务中的待翻译语义进行并行翻译,得到翻译后的语言,也即上述的输出序列数据。
在本申请上述实施例中,基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度,包括:利用长度预测模型基于输入序列数据,预测得到输出序列数据的序列长度,其中,长度预测模型的第一训练数据至少包括大模型的第二训练数据。
上述的第一训练数据可以为用于对长度预测模型进行训练的数据。
上述的第二训练数据可以为用于对大模型进行训练的数据。
需要说明的是,第一训练数据可以与第二训练数据完全相同,或者可以在第二训练数据的基础上增加其他数据,作为第一训练数据。
在一种可选的实施例中,上述的大模型通常是一种自回归模型,以GPT模型为例来进行说明,该模型的序列数据生成任务的执行过程为一个循环过程,一次循环预测输出序列数据的一个元素,直到模型给出了结束标记,可选的,不同循环的执行时间大致是相同的,由于直到最后一次循环才能确定序列数据生成任务的结束,因此难以根据输入序列数据衡量序列数据生成任务的计算量。
为了解决这个问题,可以预先训练一个长度预测模型,为了确保长度预测模型能够与大模型相匹配,也即,长度预测模型能够准确对输入至大模型的序列数据生成任务进行长度预测,可以利用用于对大模型训练的训练数据(即上述的第二训练数据),构建用于对长度预测模型进行训练的训练数据(即上述的第一训练数据),从而可以利用构建好的训练数据对长度预测模型进行训练。利用训练好的长度预测模型对多个序列数据生成任务的输出序列长度进行预测,并根据预测的长度衡量序列数据生成任务的计算量,再对多个序列数据生成任务进行分组,从以提高序列数据生成任务的整齐度,进而提高序列输出处理效率。
在本申请上述实施例中,该方法还包括:获取第二训练数据,其中,第二训练数据至少包括:输入训练序列、以及相应的输出训练序列;确定输出训练序列的预设长度;基于第二训练数据和输出训练序列的预设长度,构建第一训练数据;利用第一训练数据对初始预测模型进行训练,得到长度预测模型。
上述的输入训练序列可以为输入至大模型进行处理的序列数据。
上述的输出训练序列可以为用户输入该输入训练序列之后,大模型应该输出的序列数据,也即,可以作为大模型训练的真值。
在一种可选的实施例中,为了确保长度预测模型与大模型更加匹配,可以采用相同的训练数据对大模型和长度预测模型进行训练,由于大模型的训练数据(即上述的第二训练数据)只包含输入训练序列和输出训练序列,因此,可以通过人为标注,或者采用其他模型进行长度预测的方式,确定输出训练序列的预设长度,从而构建出用于训练长度预测模型的训练数据(即上述的第一训练数据),通过利用第一训练数据对初始预测模型进行训练,可以使得最终得到的长度预测模型的预测准确度更高,进一步的,可以提高对输出序列数据的序列长度预测的准确度。
在本申请上述实施例中,基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合,包括:基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;基于至少一个长度划分条件对多个序列数据生成任务进行分组,得到至少一个任务集合。
在一种可选的实施例中,在预测出输出序列数据的序列长度后,可以根据不同设备的处理性能确定出长度划分条件,从而可以基于确定出的长度划分条件对序列数据生成任务进行分组。可选的,在执行设备的性能较好时,可以将序列长度较长的序列数据生成任务划分为一个任务集合,在执行设备的性能较弱时,可以将序列长度较短的序列数据生成任务划分为一个任务集合。
在本申请上述实施例中,基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合,包括:在操作界面上显示多个序列数据生成任务和输出序列数据的序列长度;响应作用于操作界面上的第一反馈操作,获取第一反馈操作对应的反馈长度,其中,反馈长度是基于第一反馈操作对序列长度进行调整得到的长度;基于反馈长度对多个序列数据生成任务进行分组,得到至少一个任务集合。
上述的操作界面可以是客户端设备提供给用户的交互界面,用户可以在该界面上进行操作,输入序列数据并生成响应的序列数据生成任务。上述的反馈长度可以用于用户在查看操作界面上显示的多个序列数据生成任务后和输出序列数据的序列长度之后,人为手动对输出序列数据的序列长度进行调整所得到的长度。
在一种可选的实施例中,服务器在确定出多个序列数据生成任务和输出序列数据的序列长度后,可以将多个序列数据生成任务和输出序列数据的序列长度发送给客户端设备,由客户端设备显示在操作界面上给用户查看,用户可以对输出序列数据的序列长度进行确认,如果输出序列数据的序列长度预测错误,用户可以直接通过第一反馈操作对输出序列数据的序列长度进行修改,从而客户端设备可以通过响应第一反馈操作获取到反馈长度,客户端设备将反馈长度发送给服务器,服务器可以基于反馈长度对序列数据生成任务进行划分,并且可以基于反馈长度对长度预测模型进行参数优化,从而提高输出序列数据的序列长度的准确性,进而使得分组所得到的任务集合中的序列数据生成任务batch的整齐度,进而提高序列数据生成的效率。
在本申请上述实施例中,并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据,包括:在操作界面上显示多个序列数据生成任务和至少一个任务集合;响应作用于操作界面上的第二反馈操作,获取第二反馈操作对应的至少一个反馈任务集合,其中,反馈任务集合是基于第二反馈操作对至少一个任务集合进行调整得到的任务集合;并行执行同一个反馈任务集合包含的序列数据生成任务,得到输出序列数据。
在一种可选的实施例中,在服务器确定出多个序列数据生成任务和至少一个任务集合后,可以将多个序列数据生成任务和至少一个任务集合显示在客户端设备的操作界面上,从而使得用户可以对至少一个任务集合进行确认,如果某个任务集合中的序列数据生成任务所对应的输出序列数据的序列长度相差较远,用户可以通过第二反馈操作对至少一个任务集合进行调整,从而客户端设备可以通过响应第二反馈操作获取到反馈任务集合,客户端设备将反馈任务集合发送给服务器,服务器可以并行执行同一个反馈任务集合包含的序列数据生成任务,得到输出序列数据,从而可以使得执行设备能够在性能允许的情况下得到充分利用,提高序列数据生成的效率。
图3是根据本申请实施例的一种可选的任务处理方法的示意图,如图3所示,以文本生成场景为例,服务器到获取大模型的训练数据后,也即,获取到上述提到的第二训练数据,可以对大模型进行模型训练,可选的,还可以通过对大模型的训练数据进行数据处理,从而得到长度预测模型训练数据,也即,上述提到的第一训练数据,从而可以利用长度预测模型训练数据对长度预测模型进行模型训练,提高长度预测模型的预测准确度。进一步的,在模型训练结束后,服务器可以利用长度预测模型基于输入文本来预测输出文本的序列长度,并基于输出文本的序列长度对文本生成任务进行任务归组,得到至少一个任务集合,例如,[0,100]、[100,200]、[200,300],从而可以并行处理同一个组内的文本生成任务。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
实施例2
根据本申请实施例,还提供了一种任务处理方法。图4是根据本申请实施例2的任务处理方法的流程图,如图4所示,该方法包括如下步骤:
步骤S402:在目标对象与虚拟对象进行对话的过程中,基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;
步骤S404:基于第一对话文本,预测得到第二对话文本的文本长度;
步骤S406:基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;
步骤S408:并行执行同一个任务集合包含的文本生成任务,得到第二对话文本。
上述的目标对象可以为用户。
上述的虚拟对象可以为与目标对象进行对话的虚拟人物,例如,智能机器人、虚拟客服等。
上述的第一对话文本可以为目标对象输出的对话信息。
上述的第二对话文本可以为虚拟对象针对第一对话文本所输出的回复信息。
在一种可选的实施例中,在目标对象与计算机终端等设备中的虚拟对象进行对话时,可以先获取目标对象输出的对话信息,也即,第一对话文本。进一步的,可以利用长度预测模型根据第一对话文本预测出虚拟对象所回复的第二对话文本的文本长度。可选的,在得到第二对话文本的文本长度后,可以根据第二对话文本的文本长度对多个文本生成任务进行分组,得到至少一个任务集合,从而可以使得部署有生成模型的设备可以并行执行同一个任务集合包含的文本生成任务,得到第二对话文本。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例3
根据本申请实施例,还提供了一种任务处理方法。图5是根据本申请实施例3的任务处理方法的流程图,如图5所示,该方法包括如下步骤:
步骤S502:响应作用于操作界面上的输入指令,在操作界面上显示多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;
步骤S504:响应作用于操作界面上的任务处理指令,在操作界面上显示输出序列数据,其中,输出序列数据是并行执行至少一个任务集合中同一个任务集合包含的序列数据生成任务得到的,至少一个任务集合是基于输出序列数据的序列长度,对多个序列数据生成任务进行分组得到的,输出序列数据的序列长度是基于多个序列数据生成任务包含的输入序列数据预测得到的。
上述的操作界面可以为计算机终端界面,或手机界面,或平板电脑的界面,可选的,本申请中对操作界面的类型不做具体的限制。
上述的输入指令可以通过语音形式,触控屏幕形式等形式来表示。可选的,本申请中对输入指令的形式不做具体的限制。
上述的任务处理指令可以通过语音形式,触控屏幕形式等形式来表示。可选的,本申请中对任务处理指令的形式不做具体的限制。
图6是根据本申请实施例3的一种操作界面的示意图,如图6所示,用户可以在客户端的操作界面上的“输入框”内输入序列数据,并通过点击“发送”按钮,生成输入指令,从而客户端设备可以在接受到用户在操作界面上的输入指令后,在操作界面上的“输入序列数据显示区域”中显示出用户输入的序列数据,并基于用户输入的序列数据生成序列数据生成任务。进一步的,在“输入序列数据显示区域”中显示出用户输入的序列数据后,操作界面上会自动生成任务处理指令。服务器在接收到任务处理指令后,可以并行执行序列数据生成任务,从而得到对应的输出序列数据,并将输出序列数据显示在客户端的操作界面上的“输出序列数据显示区域”。其中,在并行执行序列数据生成任务时,可以基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合,使得可以仅对至少一个任务集合中所包含的多个序列数据生成任务进行并行执行即可,从而提高了序列数据生成的效率。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例4
根据本申请实施例,还提供了一种任务处理方法。图7是根据本申请实施例4的任务处理方法的流程图,如图7所示,该方法包括如下步骤:
步骤S702:响应作用于目标对象与虚拟对象进行对话的操作界面上的输入指令,在操作界面上显示目标对象的多个第一对话文本;
步骤S704:响应作用于操作界面上的任务处理指令,在操作界面上显示第二对话文本,其中,第二对话文本用于表征第一对话文本对应的回复文本,第二对话文本是并行执行至少一个任务集合中同一个任务集合包含的文本生成任务得到的,至少一个任务集合是基于第二对话文本的文本长度,对多个文本生成任务进行分组得到的,第二对话文本的文本长度是基于第一对话文本预测得到的,多个文本生成任务是基于多个第一对话文本构建的。
图8是根据本申请实施例4的一种操作界面的示意图,如图8所示,目标对象可以在客户端的操作界面上的“输入框”内输入第一对话文本,并通过点击“发送”按钮,生成输入指令,从而客户端设备可以在接受到用户在操作界面上的输入指令后,在操作界面上的“第一对话文本显示区域”中显示出目标对象输入的第一对话文本,并基于目标对象输入的第一对话文本生成对应文本生成任务。进一步的,在“第一对话文本显示区域”中显示出目标对象输入的第一对话文本后,目标对象可以操作界面上点击“任务处理”按钮,从而生成任务处理指令。服务器在接收到任务处理指令后,可以并行执行文本生成任务,从而得到对应的第二对话文本,并将第二对话文本显示在客户端的操作界面上的“第二对话文本显示区域”。其中,在并行执行文本生成任务时,可以基于第二对话文本的序列长度,对多个文本生成任务进行分组,得到至少一个任务集合,使得可以仅对至少一个任务集合中所包含的多个文本生成任务进行并行执行即可,从而提高了文本生成的效率。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例5
根据本申请实施例,还提供了一种任务处理方法。图9是根据本申请实施例5的任务处理方法的流程图,如图9所示,该方法包括如下步骤:
步骤S902:通过调用第一接口获取多个序列数据生成任务,其中,第一接口包括第一参数,第一参数的参数值为多个序列数据生成任务,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;
步骤S904:基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;
步骤S906:基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;
步骤S908:并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据;
步骤S910:通过调用第二接口输出输出序列数据,其中,第二接口包括第二参数,第二参数的参数值为输出序列数据。
上述的第一接口可以为数据传输接口,或虚拟接口,可选的,上述的第一接口可以用于将客户端设备生成的序列数据生成任务传输给服务器。
上述的第二接口可以为数据传输接口,或虚拟接口,可选的,上述的第二接口可以用于将服务器生成的输出序列数据传输给客户端设备。
在一种可选的实施例中,可以通过客户端上的第一接口来获取多个序列数据生成任务,其中,序列数据生成任务中包含输入序列数据,序列数据生成任务可以通过第一参数的形式输入第一接口。可选的,在服务端接收到多个序列数据生成任务后,可以通过长度预测模型来预测输入序列数据所对应的输出序列数据的长度序列,并根据输出序列数据的长度序列对多个序列数据生成任务进行分组,得到至少一个任务集合。进一步的,可以通过并行执行同一个任务集合包含的序列数据生成任务,从而得到输出序列数据,并利用第二接口以第二参数的形式将输出序列数据输出至客户端。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例6
根据本申请实施例,还提供了一种任务处理方法。图10是根据本申请实施例6的任务处理方法的流程图,如图10所示,该方法包括如下步骤:
步骤S1002:通过调用第一接口获取目标对象与虚拟对象进行对话的多个第一对话文本,其中,第一接口包括第一参数,第一参数的参数值为第一对话文本;
步骤S1004:基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;
步骤S1006:基于第一对话文本,预测得到第二对话文本的文本长度;
步骤S1008:基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;
步骤S1010:并行执行同一个任务集合包含的文本生成任务,得到第二对话文本;
步骤S1012:通过调用第二接口输出第二对话文本,其中,第二接口包括第二参数,第二参数的参数值为第二对话文本。
在一种可选的实施例中,在目标对象与虚拟对象进行对话的过程中,可以通过客户端上的第一接口来获取目标对象所发出的多个第一对话文本,其中,多个第一对话文本可以通过第一参数的形式输入第一接口。进一步的,在服务端获取到多个第一对话文本后可以通过长度预测模型来预测多个第一对话文本所对应的第二对话文本的文本长度,并根据第二对话文本的文本长度对多个文本生成任务进行分组,得到至少一个任务集合,通过并行执行同一个任务集合包含的文本生成任务,从而得到第二对话文本,并利用第二接口以第二参数的形式将第二对话文本输出至客户端。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例7
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图11是根据本申请实施例1的任务处理装置的示意图,如图11所示,该装置包括:获取模块1102、预测模块1104、分组模块1106、输出模块1108。
其中,上述获取模块1102,用于获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;预测模块1104,用于基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;分组模块1106,用于基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;输出模块1108,用于并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
此处需要说明的是,上述获取模块1102、预测模块1104、分组模块1106、输出模块1108对应于实施例1中的步骤S202至步骤S208,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块或单元可以是存储在存储器(例如,存储器104)中并由一个或多个处理器(例如,处理器102a,102b,……,102n)处理的硬件组件或软件组件,上述模块也可以作为装置的一部分可以运行在实施例一提供的服务器10中。
在本申请上述实施例中,输出模块1108,包括:筛选单元,用于基于同一个任务集合的序列数据生成任务,从至少一个设备中筛选出执行设备,其中,至少一个设备上均部署有大模型,大模型用于基于输入序列数据生成对应的输出序列数据;第一控制单元,用于控制执行设备利用执行设备上部署的大模型,并行执行同一个任务集合的序列数据生成任务,得到输出序列数据。
在本申请上述实施例中,预测模块1104,包括:预测单元,用于利用长度预测模型基于输入序列数据,预测得到输出序列数据的序列长度,其中,长度预测模型的第一训练数据至少包括大模型的第二训练数据。
在本申请上述实施例中,该装置还包括:第二获取模块,用于获取第二训练数据,其中,第二训练数据至少包括:输入训练序列、以及相应的输出训练序列;确定模块,用于确定输出训练序列的预设长度;构建模块,用于基于第二训练数据和输出训练序列的预设长度,构建第一训练数据;训练模块,用于利用第一训练数据对初始预测模型进行训练,得到长度预测模型。
在本申请上述实施例中,分组模块1106,包括:确定单元,用于基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;第一分组单元,用于基于至少一个长度划分条件对多个序列数据生成任务进行分组,得到至少一个任务集合。
在本申请上述实施例中,分组模块1106,还包括:第一显示单元,用于在操作界面上显示多个序列数据生成任务和输出序列数据的序列长度;第一响应单元,用于响应作用于操作界面上的第一反馈操作,获取第一反馈操作对应的反馈长度,其中,反馈长度是基于第一反馈操作对序列长度进行调整得到的长度;第二分组单元,用于基于反馈长度对多个序列数据生成任务进行分组,得到至少一个任务集合。
在本申请上述实施例中,输出模块1108,还包括:第二显示单元,用于在操作界面上显示多个序列数据生成任务和至少一个任务集合;第二响应单元,用响应作用于操作界面上的第二反馈操作,获取第二反馈操作对应的至少一个反馈任务集合,其中,反馈任务集合是基于第二反馈操作对至少一个任务集合进行调整得到的任务集合;第二控制单元,用于并行执行同一个反馈任务集合包含的序列数据生成任务,得到输出序列数据。
需要说明的是,本申请上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
实施例8
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图12是根据本申请实施例2的任务处理装置的示意图,如图12所示,该装置包括:构建模块1202、预测模块1204、分组模块1206、控制模块1208。
其中,上述构建模块1202,用于在目标对象与虚拟对象进行对话的过程中,基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;预测模块1204,用于基于第一对话文本,预测得到第二对话文本的文本长度;分组模块1206,用于基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;控制模块1208,用于并行执行同一个任务集合包含的文本生成任务,得到第二对话文本。
此处需要说明的是,上述构建模块1202、预测模块1204、分组模块1206、控制模块1208对应于实施例2中的步骤:S402至步骤S408,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例二所公开的内容。
实施例9
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图13是根据本申请实施例3的任务处理装置的示意图,如图15所示,该装置包括:显示模块1302、输出模块1304。
其中,上述显示模块1302,用于响应作用于操作界面上的输入指令,在操作界面上显示多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;输出模块1304,用于响应作用于操作界面上的任务处理指令,在操作界面上显示输出序列数据,其中,输出序列数据是并行执行至少一个任务集合中同一个任务集合包含的序列数据生成任务得到的,至少一个任务集合是基于输出序列数据的序列长度,对多个序列数据生成任务进行分组得到的,输出序列数据的序列长度是基于多个序列数据生成任务包含的输入序列数据预测得到的。
此处需要说明的是,上述显示模块1302、输出模块1304对应于实施例3中的步骤:S502至步骤S504,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例三所公开的内容。
实施例10
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图14是根据本申请实施例4的任务处理装置的示意图,如图14所示,该装置包括:第一显示模块1402、第二显示模块1404。
第一显示模块1402,用于响应作用于目标对象与虚拟对象进行对话的操作界面上的输入指令,在操作界面上显示目标对象的多个第一对话文本;第二显示模块1404,用于响应作用于操作界面上的任务处理指令,在操作界面上显示第二对话文本,其中,第二对话文本用于表征第一对话文本对应的回复文本,第二对话文本是并行执行至少一个任务集合中同一个任务集合包含的文本生成任务得到的,至少一个任务集合是基于第二对话文本的文本长度,对多个文本生成任务进行分组得到的,第二对话文本的文本长度是基于第一对话文本预测得到的,多个文本生成任务是基于多个第一对话文本构建的。
此处需要说明的是,上述第一显示模块1402、第二显示模块1404对应于实施例4中的步骤:S702至步骤S704,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例四所公开的内容。
实施例10
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图15是根据本申请实施例5的任务处理装置的示意图,如图15所示,该装置包括:第一输出模块1502、第二输出模块1504、分组模块1506、控制模块1508、第三输出模块1510。
第一输出模块1502,用于通过调用第一接口获取多个序列数据生成任务,其中,第一接口包括第一参数,第一参数的参数值为多个序列数据生成任务,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;第二输出模块1504,用于基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;分组模块1506,用于基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;控制模块1508,用于并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据;第三输出模块1510,用于通过调用第二接口输出输出序列数据,其中,第二接口包括第二参数,第二参数的参数值为输出序列数据。
此处需要说明的是,上述第第一输出模块1502、第二输出模块1504、分组模块1506、控制模块1508、第三输出模块1510对应于实施例5中的步骤:S902至步骤S910,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例五所公开的内容。
实施例11
根据本申请实施例,还提供了一种用于实施上述任务处理方法的装置,图16是根据本申请实施例6的任务处理装置的示意图,如图16所示,该装置包括:获取模块1602、构建模块1604、预测模块1606、分组模块1608、控制模块1610、输出模块1612。
获取模块1602,用于通过调用第一接口获取目标对象与虚拟对象进行对话的多个第一对话文本,其中,第一接口包括第一参数,第一参数的参数值为第一对话文本;构建模块1604,用于基于目标对象的多个第一对话文本,构建多个文本生成任务,其中,文本生成任务用于基于第一对话文本,生成第二对话文本,第二对话文本用于表征第一对话文本对应的回复文本;预测模块1606、用于基于第一对话文本,预测得到第二对话文本的文本长度;分组模块1608,用于基于第二对话文本的文本长度,对多个文本生成任务进行分组,得到至少一个任务集合;控制模块1610,用于并行执行同一个任务集合包含的文本生成任务,得到第二对话文本;输出模块1612,用于通过调用第二接口输出第二对话文本,其中,第二接口包括第二参数,第二参数的参数值为第二对话文本。
此处需要说明的是,上述获取模块1602、构建模块1604、预测模块1606、分组模块1608、控制模块1610、输出模块1612对应于实施例6中的步骤:S1002至步骤S1012,模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例六所公开的内容。
实施例12
本申请的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行任务处理方法中以下步骤的程序代码:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
可选地,图17是根据本申请实施例的一种计算机终端的结构框图。如图17所示,该计算机终端A可以包括:一个或多个(图中仅示出一个)处理器1702、存储器1704、存储控制器、以及外设接口,其中,外设接口与射频模块、音频模块和显示器连接。
其中,存储器可用于存储软件程序以及模块,如本申请实施例中的任务处理方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的任务处理方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端A。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
可选的,上述处理器还可以执行如下步骤的程序代码:基于同一个任务集合的序列数据生成任务,从至少一个设备中筛选出执行设备,其中,至少一个设备上均部署有大模型,大模型用于基于输入序列数据生成对应的输出序列数据;控制执行设备利用执行设备上部署的大模型,并行执行同一个任务集合的序列数据生成任务,得到输出序列数据。
可选的,上述处理器还可以执行如下步骤的程序代码:利用长度预测模型基于输入序列数据,预测得到输出序列数据的序列长度,其中,长度预测模型的第一训练数据至少包括大模型的第二训练数据。
可选的,上述处理器还可以执行如下步骤的程序代码:获取第二训练数据,其中,第二训练数据至少包括:输入训练序列、以及相应的输出训练序列;确定输出训练序列的预设长度;基于第二训练数据和输出训练序列的预设长度,构建第一训练数据;利用第一训练数据对初始预测模型进行训练,得到长度预测模型。
可选的,上述处理器还可以执行如下步骤的程序代码:基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;基于至少一个长度划分条件对多个序列数据生成任务进行分组,得到至少一个任务集合。
可选的,上述处理器还可以执行如下步骤的程序代码:在操作界面上显示多个序列数据生成任务和输出序列数据的序列长度;响应作用于操作界面上的第一反馈操作,获取第一反馈操作对应的反馈长度,其中,反馈长度是基于第一反馈操作对序列长度进行调整得到的长度;基于反馈长度对多个序列数据生成任务进行分组,得到至少一个任务集合。
可选的,上述处理器还可以执行如下步骤的程序代码:在操作界面上显示多个序列数据生成任务和至少一个任务集合;响应作用于操作界面上的第二反馈操作,获取第二反馈操作对应的至少一个反馈任务集合,其中,反馈任务集合是基于第二反馈操作对至少一个任务集合进行调整得到的任务集合;并行执行同一个反馈任务集合包含的序列数据生成任务,得到输出序列数据。
在本申请实施例中,通过获取多个序列数据生成任务;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据,实现序列数据生成的目的。容易注意到的是,可以根据预测出的输出序列数据的序列长度对多个序列数据生成任务进行分组,使得同一个分组内的序列数据生成任务的计算量相似,进而可以并行执行同一个任务集合中所包含序列数据生成任务,从而减少了序列数据生成过程中的计算量,提高序列数据生成效率,进而解决了相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。
本领域普通技术人员可以理解,图所示的结构仅为示意,计算机终端也可以是智能手机(如、平板电脑、掌上电脑以及移动互联网设备(MobileInternetDevices,MID)、PAD等终端设备。图17其并不对上述电子装置的结构造成限定。例如,计算机终端A还可包括比图17中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图17所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
实施例13
本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例一所提供的任务处理方法所执行的程序代码。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (13)

1.一种任务处理方法,其特征在于,包括:
获取多个序列数据生成任务,其中,所述序列数据生成任务用于基于所述序列数据生成任务包含的输入序列数据,生成输出序列数据;
基于多个所述序列数据生成任务包含的所述输入序列数据,预测得到所述输出序列数据的序列长度;
基于所述输出序列数据的序列长度,对多个所述序列数据生成任务进行分组,得到至少一个任务集合;
并行执行同一个所述任务集合包含的所述序列数据生成任务,得到所述输出序列数据;
其中,基于所述输出序列数据的序列长度,对多个所述序列数据生成任务进行分组,得到至少一个任务集合,包括:
基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;
基于至少一个所述长度划分条件对多个所述序列数据生成任务进行分组,得到所述至少一个任务集合,所述至少一个长度划分条件至少包括:将所述输出序列数据的序列长度处于同一个序列长度区间的所述序列数据生成任务划分为一组。
2.根据权利要求1所述的方法,其特征在于,并行执行同一个所述任务集合的所述序列数据生成任务,得到所述输出序列数据,包括:
基于同一个所述任务集合的所述序列数据生成任务,从至少一个设备中筛选出执行设备,其中,所述至少一个设备上均部署有大模型,所述大模型用于基于所述输入序列数据生成对应的输出序列数据;
控制所述执行设备利用所述执行设备上部署的所述大模型,并行执行同一个所述任务集合的所述序列数据生成任务,得到所述输出序列数据。
3.根据权利要求2所述的方法,其特征在于,基于多个所述序列数据生成任务包含的所述输入序列数据,预测得到所述输出序列数据的序列长度,包括:
利用长度预测模型基于所述输入序列数据,预测得到所述输出序列数据的序列长度,其中,所述长度预测模型的第一训练数据至少包括所述大模型的第二训练数据。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取所述第二训练数据,其中,所述第二训练数据至少包括:输入训练序列、以及相应的输出训练序列;
确定所述输出训练序列的预设长度;
基于所述第二训练数据和所述输出训练序列的预设长度,构建所述第一训练数据;
利用所述第一训练数据对初始预测模型进行训练,得到所述长度预测模型。
5.根据权利要求1所述的方法,其特征在于,基于所述输出序列数据的序列长度,对多个所述序列数据生成任务进行分组,得到至少一个任务集合,包括:
在操作界面上显示多个所述序列数据生成任务和所述输出序列数据的序列长度;
响应作用于所述操作界面上的第一反馈操作,获取所述第一反馈操作对应的反馈长度,其中,所述反馈长度是基于所述第一反馈操作对所述序列长度进行调整得到的长度;
基于所述反馈长度对多个所述序列数据生成任务进行分组,得到至少一个所述任务集合。
6.根据权利要求1所述的方法,其特征在于,并行执行同一个所述任务集合包含的所述序列数据生成任务,得到所述输出序列数据,包括:
在操作界面上显示多个所述序列数据生成任务和至少一个所述任务集合;
响应作用于所述操作界面上的第二反馈操作,获取所述第二反馈操作对应的至少一个反馈任务集合,其中,所述反馈任务集合是基于所述第二反馈操作对至少一个所述任务集合进行调整得到的任务集合;
并行执行同一个所述反馈任务集合包含的所述序列数据生成任务,得到所述输出序列数据。
7.一种任务处理方法,其特征在于,包括:
在目标对象与虚拟对象进行对话的过程中,基于所述目标对象的多个第一对话文本,构建多个文本生成任务,其中,所述文本生成任务用于基于所述第一对话文本,生成第二对话文本,所述第二对话文本用于表征所述第一对话文本对应的回复文本;
基于所述第一对话文本,预测得到所述第二对话文本的文本长度;
基于所述第二对话文本的文本长度,对多个所述文本生成任务进行分组,得到至少一个任务集合;
并行执行同一个所述任务集合包含的所述文本生成任务,得到所述第二对话文本;
其中,基于所述第二对话文本的文本长度,对多个所述文本生成任务进行分组,得到至少一个任务集合,包括:
基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;
基于至少一个所述长度划分条件对多个所述文本生成任务进行分组,得到所述至少一个任务集合,所述至少一个长度划分条件至少包括:将所述第二对话文本的文本长度处于同一个序列长度区间的所述文本生成任务划分为一组。
8.一种任务处理方法,其特征在于,包括:
响应作用于操作界面上的输入指令,在所述操作界面上显示多个序列数据生成任务,其中,所述序列数据生成任务用于基于所述序列数据生成任务包含的输入序列数据,生成输出序列数据;
响应作用于所述操作界面上的任务处理指令,在所述操作界面上显示所述输出序列数据,其中,所述输出序列数据是并行执行至少一个任务集合中同一个所述任务集合包含的所述序列数据生成任务得到的,至少一个所述任务集合是通过基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件,并基于至少一个所述长度划分条件对多个所述序列数据生成任务进行分组得到的,其中,所述至少一个长度划分条件至少包括:将所述输出序列数据的序列长度处于同一个序列长度区间的所述序列数据划分为一组,所述输出序列数据的序列长度是基于多个所述序列数据生成任务包含的所述输入序列数据预测得到的。
9.一种任务处理方法,其特征在于,包括:
响应作用于目标对象与虚拟对象进行对话的操作界面上的输入指令,在所述操作界面上显示所述目标对象的多个第一对话文本;
响应作用于所述操作界面上的任务处理指令,在所述操作界面上显示第二对话文本,其中,所述第二对话文本用于表征所述第一对话文本对应的回复文本,所述第二对话文本是并行执行至少一个任务集合中同一个所述任务集合包含的文本生成任务得到的,至少一个所述任务集合是基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件,并基于至少一个所述长度划分条件对多个所述文本生成任务进行分组得到的,其中,所述至少一个长度划分条件至少包括:将所述第二对话文本的文本长度处于同一个序列长度区间的所述文本生成任务划分为一组,所述第二对话文本的文本长度是基于所述第一对话文本预测得到的,多个所述文本生成任务是基于多个所述第一对话文本构建的。
10.一种任务处理方法,其特征在于,包括:
通过调用第一接口获取多个序列数据生成任务,其中,所述第一接口包括第一参数,所述第一参数的参数值为多个所述序列数据生成任务,所述序列数据生成任务用于基于所述序列数据生成任务包含的输入序列数据,生成输出序列数据;
基于多个所述序列数据生成任务包含的所述输入序列数据,预测得到所述输出序列数据的序列长度;
基于所述输出序列数据的序列长度,对多个所述序列数据生成任务进行分组,得到至少一个任务集合;
并行执行同一个所述任务集合包含的所述序列数据生成任务,得到所述输出序列数据;
通过调用第二接口输出所述输出序列数据,其中,所述第二接口包括第二参数,所述第二参数的参数值为所述输出序列数据;
其中,基于所述输出序列数据的序列长度,对多个所述序列数据生成任务进行分组,得到至少一个任务集合,包括:
基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;
基于至少一个所述长度划分条件对多个所述序列数据生成任务进行分组,得到所述至少一个任务集合,所述至少一个长度划分条件至少包括:将所述输出序列数据的序列长度处于同一个序列长度区间的所述序列数据生成任务划分为一组。
11.一种任务处理方法,其特征在于,包括:
通过调用第一接口获取目标对象与虚拟对象进行对话的多个第一对话文本,其中,所述第一接口包括第一参数,所述第一参数的参数值为所述第一对话文本;
基于所述目标对象的多个第一对话文本,构建多个文本生成任务,其中,所述文本生成任务用于基于所述第一对话文本,生成第二对话文本,所述第二对话文本用于表征所述第一对话文本对应的回复文本;
基于所述第一对话文本,预测得到所述第二对话文本的文本长度;
基于所述第二对话文本的文本长度,对多个所述文本生成任务进行分组,得到至少一个任务集合;
并行执行同一个所述任务集合包含的所述文本生成任务,得到所述第二对话文本;
通过调用第二接口输出所述第二对话文本,其中,所述第二接口包括第二参数,所述第二参数的参数值为所述第二对话文本;
其中,基于所述第二对话文本的文本长度,对多个所述文本生成任务进行分组,得到至少一个任务集合,包括:
基于至少一个设备中的不同设备的处理性能,确定至少一个长度划分条件;
基于至少一个所述长度划分条件对多个所述文本生成任务进行分组,得到所述至少一个任务集合,所述至少一个长度划分条件至少包括:将所述第二对话文本的文本长度处于同一个序列长度区间的所述文本生成任务划分为一组。
12.一种电子设备,其特征在于,包括:
存储器,存储有可执行程序;
处理器,用于运行所述程序,其中,所述程序运行时执行权利要求1至11中任意一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的可执行程序,其中,在所述可执行程序运行时控制所述计算机可读存储介质所在设备执行权利要求1至11中任意一项所述的方法。
CN202311042178.8A 2023-08-16 2023-08-16 任务处理方法、电子设备及存储介质 Active CN116757254B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311042178.8A CN116757254B (zh) 2023-08-16 2023-08-16 任务处理方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311042178.8A CN116757254B (zh) 2023-08-16 2023-08-16 任务处理方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116757254A CN116757254A (zh) 2023-09-15
CN116757254B true CN116757254B (zh) 2023-11-14

Family

ID=87953688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311042178.8A Active CN116757254B (zh) 2023-08-16 2023-08-16 任务处理方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116757254B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110162798A (zh) * 2018-08-09 2019-08-23 腾讯科技(深圳)有限公司 文档翻译方法、装置、计算机可读存储介质和计算机设备
CN111832292A (zh) * 2020-06-03 2020-10-27 北京百度网讯科技有限公司 文本识别处理方法、装置、电子设备和存储介质
WO2020228969A1 (en) * 2019-05-14 2020-11-19 NEC Laboratories Europe GmbH Bidirectional sequence generation
CN113536736A (zh) * 2020-04-17 2021-10-22 阿里巴巴集团控股有限公司 基于bert的序列生成方法及装置
WO2021217935A1 (zh) * 2020-04-29 2021-11-04 深圳壹账通智能科技有限公司 问题生成模型的训练方法、问题生成方法及其相关设备
CN113761888A (zh) * 2021-04-27 2021-12-07 腾讯科技(深圳)有限公司 文本翻译方法、装置、计算机设备及存储介质
WO2021249528A1 (zh) * 2020-06-12 2021-12-16 支付宝(杭州)信息技术有限公司 智能对话方法、装置和电子设备
CN113887237A (zh) * 2021-09-29 2022-01-04 平安普惠企业管理有限公司 多意图文本的槽位预测方法、装置及计算机设备
CN114547329A (zh) * 2022-01-25 2022-05-27 阿里巴巴(中国)有限公司 建立预训练语言模型的方法、语义解析方法和装置
CN114598926A (zh) * 2022-01-20 2022-06-07 中国科学院自动化研究所 一种视频生成方法、装置、电子设备及存储介质
CN114676669A (zh) * 2022-04-15 2022-06-28 网易(杭州)网络有限公司 赛事摘要文本的生成方法、装置、电子设备及存储介质
CN115114906A (zh) * 2022-04-24 2022-09-27 腾讯科技(深圳)有限公司 提取实体内容的方法、装置、电子设备及存储介质
CN115237618A (zh) * 2022-07-08 2022-10-25 深圳市优必选科技股份有限公司 请求处理方法、装置、计算机设备及可读存储介质
CN116306612A (zh) * 2021-12-21 2023-06-23 华为技术有限公司 一种词句生成方法及相关设备
CN116362265A (zh) * 2023-05-25 2023-06-30 鹏城实验室 文本翻译方法、装置、设备和存储介质
CN116435995A (zh) * 2023-03-31 2023-07-14 阿里巴巴达摩院(杭州)科技有限公司 时间序列的处理方法、计算机可读存储介质和电子设备
CN116560731A (zh) * 2022-01-29 2023-08-08 华为技术有限公司 一种数据处理方法及其相关装置

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110162798A (zh) * 2018-08-09 2019-08-23 腾讯科技(深圳)有限公司 文档翻译方法、装置、计算机可读存储介质和计算机设备
WO2020228969A1 (en) * 2019-05-14 2020-11-19 NEC Laboratories Europe GmbH Bidirectional sequence generation
CN113536736A (zh) * 2020-04-17 2021-10-22 阿里巴巴集团控股有限公司 基于bert的序列生成方法及装置
WO2021217935A1 (zh) * 2020-04-29 2021-11-04 深圳壹账通智能科技有限公司 问题生成模型的训练方法、问题生成方法及其相关设备
CN111832292A (zh) * 2020-06-03 2020-10-27 北京百度网讯科技有限公司 文本识别处理方法、装置、电子设备和存储介质
WO2021249528A1 (zh) * 2020-06-12 2021-12-16 支付宝(杭州)信息技术有限公司 智能对话方法、装置和电子设备
CN113761888A (zh) * 2021-04-27 2021-12-07 腾讯科技(深圳)有限公司 文本翻译方法、装置、计算机设备及存储介质
CN113887237A (zh) * 2021-09-29 2022-01-04 平安普惠企业管理有限公司 多意图文本的槽位预测方法、装置及计算机设备
CN116306612A (zh) * 2021-12-21 2023-06-23 华为技术有限公司 一种词句生成方法及相关设备
CN114598926A (zh) * 2022-01-20 2022-06-07 中国科学院自动化研究所 一种视频生成方法、装置、电子设备及存储介质
CN114547329A (zh) * 2022-01-25 2022-05-27 阿里巴巴(中国)有限公司 建立预训练语言模型的方法、语义解析方法和装置
CN116560731A (zh) * 2022-01-29 2023-08-08 华为技术有限公司 一种数据处理方法及其相关装置
CN114676669A (zh) * 2022-04-15 2022-06-28 网易(杭州)网络有限公司 赛事摘要文本的生成方法、装置、电子设备及存储介质
CN115114906A (zh) * 2022-04-24 2022-09-27 腾讯科技(深圳)有限公司 提取实体内容的方法、装置、电子设备及存储介质
CN115237618A (zh) * 2022-07-08 2022-10-25 深圳市优必选科技股份有限公司 请求处理方法、装置、计算机设备及可读存储介质
CN116435995A (zh) * 2023-03-31 2023-07-14 阿里巴巴达摩院(杭州)科技有限公司 时间序列的处理方法、计算机可读存储介质和电子设备
CN116362265A (zh) * 2023-05-25 2023-06-30 鹏城实验室 文本翻译方法、装置、设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Text Generation and Prediction System: Pre-training on New Corpora Using BERT and GPT-2;Yuanbin Qu等;《2020 IEEE 10th International Conference on Electronics Information and Emergency Communication(ICEIEC)》;323-326 *
BioGPT: generative pre-trained transformer for biomedical text generation and mining;Renqian Luo等;《Briefings in Bioinformatics》;第23卷(第6期);1-12 *
基于BERT的中文长文本分类算法研究;鲍闯;《中国优秀硕士学位论文全文数据库 信息科技辑》;第2023年卷(第1期);I138-3761 *
基于结构建模的会议纪要生成方法的研究与应用;苏彦源;《中国优秀硕士学位论文全文数据库 信息科技辑》;第2023年卷(第2期);I138-3943 *

Also Published As

Publication number Publication date
CN116757254A (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN110046221B (zh) 一种机器对话方法、装置、计算机设备及存储介质
US11733978B2 (en) AI facilitated collection of data
CN110766142A (zh) 模型生成方法和装置
CN109514586B (zh) 实现智能客服机器人的方法及系统
WO2018156942A1 (en) Optimizing neural network architectures
CN109086303A (zh) 基于机器阅读理解的智能对话方法、装置、终端
CN116579339B (zh) 任务执行方法和优化任务执行方法
US20230089268A1 (en) Semantic understanding method, electronic device, and storage medium
CN108733703A (zh) 问答系统的答案预测方法及装置、电子设备、存储介质
CN111435482A (zh) 一种外呼模型的构建方法、外呼方法、装置和存储介质
CN111651989B (zh) 命名实体识别方法和装置、存储介质及电子装置
CN111966361A (zh) 用于确定待部署模型的方法、装置、设备及其存储介质
EP3682379A1 (en) Augmenting neural networks
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
CN117648422A (zh) 问答提示系统、问答提示、库构建、模型训练方法和装置
CN117149996A (zh) 面向人工智能应用的人机界面数字会话挖掘方法及ai系统
CN116757254B (zh) 任务处理方法、电子设备及存储介质
CN116578423A (zh) 任务处理方法、自动问答方法以及图像生成方法
CN113366510A (zh) 经由训练的原始网络与双网络来执行多目标任务
CN115905490A (zh) 人机交互对话方法、装置以及设备
CN116074575A (zh) 用于真实世界视频问题回答的变换器
CN117556026B (zh) 数据生成方法、电子设备及存储介质
CN117786416B (zh) 一种模型训练方法、装置、设备、存储介质及产品
CN116776870B (zh) 意图识别方法、装置、计算机设备及介质
CN114942961A (zh) 一种基于ai和数字孪生技术的素材可视化调取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant