CN117194992A - 一种模型训练、任务执行方法、装置、存储介质及设备 - Google Patents

一种模型训练、任务执行方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN117194992A
CN117194992A CN202311454844.9A CN202311454844A CN117194992A CN 117194992 A CN117194992 A CN 117194992A CN 202311454844 A CN202311454844 A CN 202311454844A CN 117194992 A CN117194992 A CN 117194992A
Authority
CN
China
Prior art keywords
training
adjustment layer
model
downstream
round
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311454844.9A
Other languages
English (en)
Other versions
CN117194992B (zh
Inventor
徐恪
周广猛
赵乙
李琦
赵闻飙
王维强
傅幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202311454844.9A priority Critical patent/CN117194992B/zh
Publication of CN117194992A publication Critical patent/CN117194992A/zh
Application granted granted Critical
Publication of CN117194992B publication Critical patent/CN117194992B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本说明书公开一种模型训练、任务执行方法、装置、存储介质及设备,中心服务器可以基于各下游任务的共性样本对初始模型进行预训练,得到具有执行各下游任务的基础能力的预训练模型,进而可以通过将预训练模型的模型参数发送给每个下游服务器,以使得每个下游服务器基于本地样本对预训练模型中的调整层进行训练,得到训练后模型,并将训练后模型的调整层的网络参数返回,中心服务器可以根据各下游服务器返回的调整层网络参数,对预训练模型的调整层进行更新,得到目标模型,从而使得可以通过预训练模型的调整层学习到不同下游服务器所私有的本地样本和预训练过程中使用的共性样本之间的潜在联系,进而使得目标模型在下游任务中的性能得到提升。

Description

一种模型训练、任务执行方法、装置、存储介质及设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种模型训练、任务执行方法、装置、存储介质及设备。
背景技术
目前,多个涉及人工智能的下游任务之间通常会存在一部分共性需求,例如:在搜索推荐任务和智能客服任务中,均需要对用户输入的文本进行识别,以获取用户输入的文本对应的特征表示,进而可以基于识别出的用户输入的文本对应的特征表示,进行搜索推荐或进行客服回复,其中,如何对用户输入的文本进行识别,即为这两个下游任务的共性需求。
基于此,为了提高模型的训练效率,则可以通过构建预训练模型的方式,来通过预训练模型来学习多个下游任务之间的共性特征,进而可以针对每个下游任务,根据该下游任务所处的特定领域,来对预训练模型进行进一步地的调整,以得到用于执行该下游任务的模型。
但是,由于不同的下游任务对应于共性需求仍旧存在一定的差别,所以,这些差别使得预训练模型在各个下游任务中的性能受到限制,例如:在搜索推荐领域中用户输入的文本往往为简短的名词,而在智能客服任务中用户输入的文本往往为完整的一句话,从而使得基于普通文本训练得到的预训练模型在执行搜索推荐任务时所提取的简短的名词的特征表示不够精准,进而使得通过预训练模型进行搜索推荐的性能受限,同时,预训练模型在执行智能客服任务时所提取的用户输入文本的特征表示也不够准确,从而影响了智能客服任务的执行效果。
再例如:在不同的业务平台的下游任务中还会涉及部分业务平台的私有数据等(如:在计算机等专业领域中存在较多的普通文本中不常见的专业术语(如:三层网络、TCP协议等),从而使得基于普通文本训练得到的预训练模型在执行上述业务平台的下游任务时针对私有数据提取出的特征表示的准确率较低,进而影响了下游任务的执行效果。
因此,如何提升预训练模型在下游任务中的性能,则是一个亟待解决的问题。
发明内容
本说明书提供一种模型训练、任务执行方法、装置、存储介质及设备,以部分的解决现有技术存在的预训练模型在下游任务中的性能低的问题。
本说明书采用下述技术方案:
本说明书提供了一种模型训练方法,包括:
中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层;
根据各下游任务的任务属性信息,获取针对各下游任务的共性样本;
通过所述共性样本,对所述初始模型进行预训练,得到预训练模型;
将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到目标模型,以将所述目标模型部署到各下游服务器中执行各下游任务。
可选地,将所述预训练模型的模型参数发送给各下游服务器,具体包括:
针对每轮训练,所述中心服务器将所述预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定所述层标识信息对应的调整层,以在所述层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给所述中心服务器;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到更新后模型,具体包括:
将各下游服务器在该轮训练后返回的所述未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将所述下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到所述更新后模型。
可选地,根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,具体包括:
针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度;
根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
可选地,根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,具体包括:
针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层。
可选地,将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,具体包括:
针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重;
根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的所述各调整层的网络参数进行融合,得到每个调整层的融合参数。
本说明书提供了一种任务执行方法,具体包括:
接收用户发送的任务数据;
将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述目标模型是通过上述模型训练方法训练得到;
根据所述输出结果,进行任务执行。
本说明书提供了一种模型训练装置,包括:
第一获取模块,用于中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层;
第二获取模块,用于根据各下游任务的任务属性信息,获取针对各下游任务的共性样本;
预训练模块,用于通过所述共性样本,对所述初始模型进行预训练,得到预训练模型;
训练模块,用于将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同;
融合模块,用于将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到目标模型,以将所述目标模型部署到各下游服务器中执行各下游任务。
可选地,所述训练模块具体用于,针对每轮训练,所述中心服务器将所述预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定所述层标识信息对应的调整层,以在所述层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给所述中心服务器;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到更新后模型,具体包括:
将各下游服务器在该轮训练后返回的所述未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将所述下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到所述更新后模型。
可选地,所述训练模块具体用于,针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度;根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
可选地,所述训练模块具体用于,针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层。
可选地,所述融合模块具体用于,针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重;根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的所述各调整层的网络参数进行融合,得到每个调整层的融合参数。
本说明书提供了一种任务执行装置,包括:
接收模块,用于接收用户发送的任务数据;
确定模块,用于将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述目标模型是通过上述模型训练方法训练得到;
执行模块,用于根据所述输出结果,进行任务执行。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练、任务执行方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练、任务执行方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练方法,中心服务器获取初始模型,其中,这里的初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层,根据各下游任务的任务属性信息,获取针对各下游任务的共性样本,进而通过共性样本,对初始模型进行预训练,得到预训练模型,将预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给中心服务器,其中,至少部分下游服务器所执行的下游任务不同,将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对预训练模型进行更新,得到目标模型,以将目标模型部署到各下游服务器中执行各下游任务。
从上述方法中可以看出,中心服务器可以基于各下游任务的共性样本对初始模型进行预训练,得到具有执行各下游任务的基础能力的预训练模型,进而可以通过将预训练模型的模型参数发送给每个下游服务器,以使得每个下游服务器基于本地样本对预训练模型进行训练,得到训练后模型,并将训练后模型的调整层的网络参数返回,中心服务器可以根据各下游服务器返回的网络参数,对预训练模型进行更新,得到目标模型,从而使得可以通过预训练模型的调整层学习到不同下游服务器所私有的本地样本和预训练过程中使用的共性样本之间的潜在联系,进而使得目标模型在下游任务中的性能得到提升。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种数据库的测试方法的流程示意图;
图2为本说明书中提供的初始模型的示意图;
图3为本说明书中提供的训练过程的示意图;
图4为本说明书中提供的中心服务器以及各下游服务器的示意图;
图5为本说明书中提供的一种任务执行方法的流程示意图;
图6为本说明书提供的一种模型训练装置的示意图;
图7为本说明书提供的一种任务执行装置的示意图;
图8为本说明书提供的一种对应于图1的电子设备的示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种数据库的测试方法的流程示意图,包括以下步骤:
S100:中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层。
在本说明书中,业务平台可以通过预设的中心服务器获取初始模型,通过对初始模型进行预训练,得到预训练模型,从而可以针对每个下游业务平台,将预训练模型发送给该下游业务平台,以通过该下游业务平台所使用的下游服务器,基于该下游业务平台的本地样本对预训练模型进行进一步的训练,并将再次训练后的预训练模型的模型参数返回给业务平台,以使得业务平台能够根据各下游业务平台返回的模型参数对预训练模型进行更新,得到目标模型,进而可以通过将目标模型部署到各下游服务器中执行各下游任务,其中,上述的初始模型如图2所示。
图2为本说明书中提供的初始模型的示意图。
结合图2可以看出,上述的初始模型中可以包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层。
上述的调整层可以为适配器Adapter层,这里的Adapter层可以由两个全连接层、一个非线性函数层以及一个残差连接组成,其中,第一个全连接层用于对位于该调整层之前的上一网络层所输出的数据进行降维处理,非线性函数层用于对第一个全连接层输出的结果进行调整,第二个全连接层用于对非线性函数层的输出结果进行升维处理。
上述的下游服务器可以是指设置于各下游业务平台的服务器,也可以是指下游业务平台所使用的台式电脑、笔记本电脑等终端设备。
在本说明书中,用于实现模型训练方法的执行主体,可以是指服务器等设置于业务平台的指定设备,也可以是指诸如台式电脑、笔记本电脑等终端设备,为了便于描述,下面仅以中心服务器是执行主体为例,对本说明书提供的模型训练方法进行说明。
S102:根据各下游任务的任务属性信息,获取针对各下游任务的共性样本。
S104:通过所述共性样本,对所述初始模型进行预训练,得到预训练模型。
进一步地,中心服务器在获取到初始模型后,可以确定各下游任务的任务属性信息,并可以根据确定出的各下游任务的任务属性信息,获取针对各下游任务的共性样本。
其中,上述的任务属性信息可以为诸如:下游任务的类别、执行下游任务所需的数据的类型等。
例如:若下游任务为搜索推荐任务以及智能客服任务,则可以确定这两个下游任务所需的数据的类型均为文本类型,且下游任务的类型均为文本特征提取,进而可以确定各文本数据,作为针对各下游任务的共性样本。
进一步地,中心服务器可以通过各共性样本,对初始模型进行预训练,得到预训练模型。
例如:若初始模型为文本特征提取模型,则可以将作为共性样本的各文本数据输入到文本特征提取模型中,得到文本特征提取模型输出的作为共性样本的文本数据对应的文本特征表示,进而可以针对每个文本数据,以该文本数据的文本特征表示和与该文本数据语义相近的文本数据对应的文本特征表示之间的相似度相比于该文本数据的特征表示和其他文本数据对应的文本特征表示之间的相似度越大为训练目标,对文本特征提取模型进行训练,得到预训练模型。
S106:将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同。
进一步地,中心服务器在得到预训练模型后,可以将预训练模型以及预训练模型的模型参数发送给每个下游服务器,以使每个下游服务器通过获取到的模型参数进行本地模型部署,得到本地模型,进而可以通过多轮训练,得到训练后的模型。
具体地,针对每轮训练,中心服务器可以将预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定层标识信息对应的调整层,以在层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给中心服务器。
其中,在每轮训练中,中心服务器发送的每个下游服务器的预训练模型的模型参数可以是指预训练模型整体的模型参数,也可以是指在上一轮迭代中未锁定的各调整层对应的网络参数。在实际应用场景中,当处于第一轮训练时,中心服务器可以将预训练模型整体的模型参数发送给每个下游服务器,而在第一轮训练之后的每轮训练中,中心服务器可以仅将在上一轮迭代中未锁定的各调整层对应的网络参数发送给每个下游服务器。
进一步地,中心服务器可以针对每个下游服务器,判断是否接收到该下游服务器返回的各调整层的网络参数,当中心服务器确定每个下游服务器均返回各调整层的网络参数后,可以将各下游服务器在该轮训练后返回的未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到更新后模型。
其中,中心服务器根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层的方法可以为针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度,并判断该调整层对应的梯度是否超过预设的梯度阈值,若否,则可以在确定位于该调整层之前的调整层为确定出的需要锁定的调整层后,将该调整层作为下一轮训练中锁定的调整层,其中,该调整层对应的梯度越大,该调整层经该轮训练后对应的融合参数相比于该调整层经上一轮训练后对应的融合参数之间的变化量越大。
为了对上述内容进行详细说明,本说明书中还提供了中心服务器在每轮训练中逐层对调整层进行锁定的流程,具体如图3所示。
图3为本说明书中提供的训练过程的示意图。
结合图3可以看出,由于在实际应用场景中,预训练模型的底部的网络层(即,离输入数据最近的网络层)的模型参数以及调整层的网络参数,在训练过程中的变化往往较小或者往往没有变化,因此,中心服务器可以直接将这部分调整层作为初始锁定的调整层,例如:可以按照位置的先后顺序,将前四分之一的调整层作为初始锁定的调整层。
进一步地,在第一轮训练时,中心服务器可以将预训练模型的模型参数以及在初始锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定层标识信息对应的调整层,以在层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对本地模型进行训练,得到训练后模型,换句话说,下游服务器可以将除了被锁定的调整层之后其他层作为本地模型的一个子模型,进而可以将被锁定的调整层输出的中间特征,作为这个子模型的输入,以对子模型进行训练,得到训练后模型。
其中,下游服务器在得到训练后模型后,可以将该轮训练中未锁定的调整层的网络参数发送给中心服务器,中心服务器在接收到每个下游服务器返回该轮训练中未锁定的调整层的网络参数后,可以针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重,进而可以根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数。
进一步地,中心服务器可以根据针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层,如图3所示,可以根据位于初始锁定的各调整层之后的下一调整层对应的梯度,判断是否将下一调整层作为下一轮训练需要锁定的调整层,以此类推,直到满足预设的训练终止条件为止,得到更新后模型。
其中,上述的训练终止条件可以根据实际需求设置,例如:若确定训练轮数导致预设的轮数阈值时,则认为满足上述的训练终止条件。再例如:若确定本地模型中包含的所有调整层均被锁定时,则认为满足上述的训练终止条件。
除此之外,若中心服务器在任意一轮训练中确定存在任意一个下游服务器未返回各调整层的网络参数时,则可以在确定该下游服务器对应的响应时长超过预设的时长阈值时,可以将其他下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数。
从上述内容中可以看出,由于在每轮训练中,仅针对预训练模型中包含的调整层的网络参数进行调整,以及,在每轮训练中,可以逐层对各调整层中的网络参数进行锁定,从而可以使得训练的效率极大提升,并可以降低每轮训练的计算量。
另外,上述的中心服务器中包含:锁定检测模块、参数融合模块,上述的下游服务器中包含:锁定模块,模型训练模块,具体如图4所示。
图4为本说明书中提供的中心服务器以及各下游服务器的示意图。
结合图4可以看出,针对每轮训练,中心服务器可以将预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过锁定模块,根据中心服务器返回的层标识信息,确定被锁定的各调整层,并确定本地样本输入到被锁定的各调整层后得到中间特征,从而可以通过模型训练模块基于中间特征对未被锁定的各调整层进行训练,得到训练后模型,进而可以将该轮训练中未锁定的调整层的网络参数发送给中心服务器。
中心服务器可以通过参数融合模块,将各下游服务器返回的该轮训练中未锁定的调整层的网络参数进行融合,得到该轮训练中未锁定的调整层的融合参数,进而可以通过锁定检测模块,根据该轮训练中未锁定的调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
需要说明的是,上述的各下游服务器中的至少部分下游服务器所执行的下游任务不同,其中,这里的下游任务不同可以包括两种情况,第一种情况为下游任务本身不同,例如:上述的下游任务可以为搜索推荐任务和智能客服任务等任务,进而可以通过上述的模型训练方法训练得到一个搜索推荐任务和智能客服任务等任务均通用的预训练模型,并且该预训练模型在搜索推荐任务和智能客服任务中均具有较高的性能。第二种情况为下游任务本身相同,但是下游任务所使用的数据不同,例如:上述的下游任务可以为搜索推荐任务,但是在A业务平台的搜索推荐任务中所使用的数据主要为各类衣服名称等文本数据,而在B业务平台的搜索推荐任务中所使用的数据主要为各类食品名称等文本数据,进而可以通过上述的模型训练方法训练得到一个专用于搜索推荐任务的预训练模型,并且该预训练模型在输入数据为各类衣服名称、各类食品名称等文本数据的搜索推荐任务时,均具有较高的性能。
从上述内容中可以看出,中心服务器可以根据各下游任务的共性样本,对初始模型进行预训练,得到预训练模型,此时,预训练模型具有执行各下游任务的基础能力,为了提升预训练模型在下游任务中的性能,中心服务器可以通过将预训练模型的模型参数发送给每个下游服务器,以使得每个下游服务器基于每个下游服务器中私有的本地样本对预训练模型进行训练,得到训练后模型,并将训练后模型的调整层的网络参数返回,以使得中心服务器根据各下游服务器返回的网络参数,对预训练模型进行更新,从而使得可以通过预训练模型的调整层学习不同下游服务器所私有的本地样本和预训练过程中使用的共性样本之间的潜在联系,进而使得最终得到目标模型在下游任务中的性能得到提升。
为了进一步地对本说明书进行说明,下面详细描述通过上述方法训练得到的目标模型,进行任务执行的方法,如图5所示。
图5为本说明书中提供的一种任务执行方法的流程示意图,包括以下步骤:
S500:接收用户发送的任务数据。
S502:将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述任务模型是通过上述模型训练方法训练得到。
S504:根据所述输出结果,进行任务执行。
在本说明书中,下游业务平台接收到用户发送的任务数据时,可以将接收到的任务数据输入到预先训练的目标模型中,得到目标模型针对任务数据的输出结果,进而可以根据目标模型针对任务数据的输出结果,进行任务执行。
其中,上述的任务可以根据下游业务平台所执行的下游任务确定,例如:搜索推荐业务平台可以将用户输入的搜索关键词输入到目标模型中,得到目标模型针对搜索关键词输出的文本特征表示,进而可以根据目标模型输出的文本特征表示,为用户召回与用户输入的搜索关键词相匹配的商品信息并推荐给用户。
以上为本说明书的一个或多个实施例提供的模型训练、任务执行方法,基于同样的思路,本说明书还提供了相应的模型训练、任务执行装置,如图6、图7所示。
图6为本说明书提供的一种模型训练装置的示意图,包括:
第一获取模块601,用于中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层;
第二获取模块602,用于根据各下游任务的任务属性信息,获取针对各下游任务的共性样本;
预训练模块603,用于通过所述共性样本,对所述初始模型进行预训练,得到预训练模型;
训练模块604,用于将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同;
融合模块605,用于将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到目标模型,以将所述目标模型部署到各下游服务器中执行各下游任务。
可选地,所述训练模块604具体用于,针对每轮训练,所述中心服务器将所述预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定所述层标识信息对应的调整层,以在所述层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给所述中心服务器;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到更新后模型,具体包括:
将各下游服务器在该轮训练后返回的所述未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将所述下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到所述更新后模型。
可选地,所述训练模块604具体用于,针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度;根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
可选地,所述训练模块604具体用于,针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层。
可选地,所述融合模块605具体用于,针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重;根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的所述各调整层的网络参数进行融合,得到每个调整层的融合参数。
图7为本说明书提供的一种任务执行装置的示意图,包括:
接收模块701,用于接收用户发送的任务数据;
确定模块702,用于将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述目标模型是通过上述模型训练方法训练得到;
执行模块703,用于根据所述输出结果,进行任务执行。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种模型训练方法。
本说明书还提供了图8所示的一种对应于图1的电子设备的示意结构图。如图4,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1的模型训练方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (14)

1.一种模型训练方法,包括:
中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层;
根据各下游任务的任务属性信息,获取针对各下游任务的共性样本;
通过所述共性样本,对所述初始模型进行预训练,得到预训练模型;
将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到目标模型,以将所述目标模型部署到各下游服务器中执行各下游任务。
2.如权利要求1所述的方法,将所述预训练模型的模型参数发送给各下游服务器,具体包括:
针对每轮训练,所述中心服务器将所述预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定所述层标识信息对应的调整层,以在所述层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给所述中心服务器;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到更新后模型,具体包括:
将各下游服务器在该轮训练后返回的所述未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将所述下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到所述更新后模型。
3.如权利要求2所述的方法,根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,具体包括:
针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度;
根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
4.如权利要求3所述的方法,根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,具体包括:
针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层。
5.如权利要求1所述的方法,将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,具体包括:
针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重;
根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的所述各调整层的网络参数进行融合,得到每个调整层的融合参数。
6.一种任务执行方法,具体包括:
接收用户发送的任务数据;
将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述目标模型是通过上述权利要求1~5任一项所述的方法训练得到;
根据所述输出结果,进行任务执行。
7.一种模型训练装置,包括:
第一获取模块,用于中心服务器获取初始模型,所述初始模型中包含有若干调整层,针对每个调整层,该调整层用于对位于该调整层之前的上一网络层所输出的数据进行调整,并将调整后的数据传输给位于该调整层之后的下一网络层;
第二获取模块,用于根据各下游任务的任务属性信息,获取针对各下游任务的共性样本;
预训练模块,用于通过所述共性样本,对所述初始模型进行预训练,得到预训练模型;
训练模块,用于将所述预训练模型的模型参数发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,以将训练后模型中包含的各调整层的网络参数发送给所述中心服务器,其中,至少部分下游服务器所执行的下游任务不同;
融合模块,用于将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到目标模型,以将所述目标模型部署到各下游服务器中执行各下游任务。
8.如权利要求7所述的装置,所述训练模块具体用于,针对每轮训练,所述中心服务器将所述预训练模型的模型参数以及在该轮锁定的调整层的层标识信息发送给各下游服务器,以使每个下游服务器,通过获取到的模型参数进行本地模型部署,得到本地模型,并锁定所述层标识信息对应的调整层,以在所述层标识信息对应的调整层的网络参数不变的情况下,通过该下游服务器的本地样本对所述本地模型进行训练,得到训练后模型,并将该轮训练中未锁定的调整层的网络参数发送给所述中心服务器;
将各下游服务器返回的各调整层的网络参数进行融合,得到每个调整层的融合参数,并根据每个调整层的融合参数,对所述预训练模型进行更新,得到更新后模型,具体包括:
将各下游服务器在该轮训练后返回的所述未锁定的调整层的网络参数进行融合,得到每个在该轮训练中未锁定的调整层的融合参数,并根据在该轮训练中未锁定的每个调整层的融合参数,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层,以将所述下一轮训练中锁定的调整层的层标识信息发送给各下游服务器执行下一轮训练,直到满足预设的训练终止条件为止,得到所述更新后模型。
9.如权利要求8所述的装置,所述训练模块具体用于,针对该轮训练中未锁定的每个调整层,确定该调整层经该轮训练后对应的融合参数与该调整层经上一轮训练后对应的融合参数之间的差值,作为该调整层对应的梯度;根据该轮训练中未锁定的每个调整层对应的梯度,从该轮训练中未锁定的各调整层中确定出下一轮训练中锁定的调整层。
10.如权利要求9所述的装置,所述训练模块具体用于,针对该轮训练中未锁定的每个调整层,若确定该调整层对应的梯度不超预设的梯度阈值,且位于该调整层之前的调整层为确定出的需要锁定的调整层,则将该调整层作为下一轮训练中锁定的调整层。
11.如权利要求7所述的装置,所述融合模块具体用于,针对每个下游服务器,根据确定出的该下游服务器中的本地样本的数量,确定该下游服务器返回的各调整层的网络参数对应的权重;根据每个下游服务器返回的各调整层的网络参数对应的权重,将各下游服务器返回的所述各调整层的网络参数进行融合,得到每个调整层的融合参数。
12.一种任务执行装置,包括:
接收模块,用于接收用户发送的任务数据;
确定模块,用于将所述任务数据输入到预先训练的目标模型中,得到所述目标模型针对所述任务数据的输出结果,所述目标模型是通过上述权利要求1~5任一项所述的方法训练得到;
执行模块,用于根据所述输出结果,进行任务执行。
13.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~6任一项所述的方法。
14.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述权利要求1~6任一项所述的方法。
CN202311454844.9A 2023-11-01 2023-11-01 一种模型训练、任务执行方法、装置、存储介质及设备 Active CN117194992B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311454844.9A CN117194992B (zh) 2023-11-01 2023-11-01 一种模型训练、任务执行方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311454844.9A CN117194992B (zh) 2023-11-01 2023-11-01 一种模型训练、任务执行方法、装置、存储介质及设备

Publications (2)

Publication Number Publication Date
CN117194992A true CN117194992A (zh) 2023-12-08
CN117194992B CN117194992B (zh) 2024-04-19

Family

ID=89003789

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311454844.9A Active CN117194992B (zh) 2023-11-01 2023-11-01 一种模型训练、任务执行方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN117194992B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117909371A (zh) * 2024-03-18 2024-04-19 之江实验室 一种模型训练方法、装置、存储介质及电子设备
CN118378726A (zh) * 2024-06-25 2024-07-23 之江实验室 一种模型训练系统、方法、存储介质及电子设备

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190339688A1 (en) * 2016-05-09 2019-11-07 Strong Force Iot Portfolio 2016, Llc Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things
WO2020151329A1 (zh) * 2019-01-23 2020-07-30 平安科技(深圳)有限公司 基于目标检测的识别框确定方法、装置及终端设备
CN112307351A (zh) * 2020-11-23 2021-02-02 中国科学院计算技术研究所 用户行为的模型训练、推荐方法、装置和设备
CN114201156A (zh) * 2021-12-10 2022-03-18 北京百度网讯科技有限公司 接入方法、装置、电子设备及计算机存储介质
CN114386621A (zh) * 2021-12-09 2022-04-22 河南大学 基于联邦学习的人类活动识别方法和系统
CN114418085A (zh) * 2021-12-01 2022-04-29 清华大学 一种基于神经网络模型剪枝的个性化协作学习方法和装置
CN115131603A (zh) * 2022-05-27 2022-09-30 支付宝(杭州)信息技术有限公司 一种模型处理方法、装置、存储介质及电子设备
CN115766518A (zh) * 2022-11-23 2023-03-07 中国船舶集团有限公司第七〇九研究所 云边端系统的异常检测模型训练、异常检测方法及系统
CN115860153A (zh) * 2023-03-01 2023-03-28 北京邮电大学 基于个性化分组联邦学习的无线流量预测方法及系统
CN116011587A (zh) * 2022-12-30 2023-04-25 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置、存储介质及电子设备
CN116011815A (zh) * 2022-12-30 2023-04-25 支付宝(杭州)信息技术有限公司 一种模型训练的方法、装置、电子设备及存储介质
CN116186772A (zh) * 2023-02-23 2023-05-30 支付宝(杭州)信息技术有限公司 一种基于联邦学习的模型训练方法及装置
WO2023138419A1 (zh) * 2022-01-19 2023-07-27 支付宝(杭州)信息技术有限公司 模型的训练
CN116502176A (zh) * 2023-03-28 2023-07-28 支付宝(杭州)信息技术有限公司 一种语言模型的预训练方法、装置、介质及电子设备
CN116562399A (zh) * 2023-07-10 2023-08-08 支付宝(杭州)信息技术有限公司 端边云协同的模型训练方法及装置
CN116721334A (zh) * 2023-08-11 2023-09-08 腾讯科技(深圳)有限公司 图像生成模型的训练方法、装置、设备及存储介质
CN116756579A (zh) * 2023-08-22 2023-09-15 腾讯科技(深圳)有限公司 大语言模型的训练方法及基于大语言模型的文本处理方法
CN116881641A (zh) * 2023-07-12 2023-10-13 华院计算技术(上海)股份有限公司 预训练模型调整方法及装置、存储介质、计算设备

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190339688A1 (en) * 2016-05-09 2019-11-07 Strong Force Iot Portfolio 2016, Llc Methods and systems for data collection, learning, and streaming of machine signals for analytics and maintenance using the industrial internet of things
WO2020151329A1 (zh) * 2019-01-23 2020-07-30 平安科技(深圳)有限公司 基于目标检测的识别框确定方法、装置及终端设备
CN112307351A (zh) * 2020-11-23 2021-02-02 中国科学院计算技术研究所 用户行为的模型训练、推荐方法、装置和设备
CN114418085A (zh) * 2021-12-01 2022-04-29 清华大学 一种基于神经网络模型剪枝的个性化协作学习方法和装置
CN114386621A (zh) * 2021-12-09 2022-04-22 河南大学 基于联邦学习的人类活动识别方法和系统
CN114201156A (zh) * 2021-12-10 2022-03-18 北京百度网讯科技有限公司 接入方法、装置、电子设备及计算机存储介质
WO2023138419A1 (zh) * 2022-01-19 2023-07-27 支付宝(杭州)信息技术有限公司 模型的训练
CN115131603A (zh) * 2022-05-27 2022-09-30 支付宝(杭州)信息技术有限公司 一种模型处理方法、装置、存储介质及电子设备
CN115766518A (zh) * 2022-11-23 2023-03-07 中国船舶集团有限公司第七〇九研究所 云边端系统的异常检测模型训练、异常检测方法及系统
CN116011587A (zh) * 2022-12-30 2023-04-25 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置、存储介质及电子设备
CN116011815A (zh) * 2022-12-30 2023-04-25 支付宝(杭州)信息技术有限公司 一种模型训练的方法、装置、电子设备及存储介质
CN116186772A (zh) * 2023-02-23 2023-05-30 支付宝(杭州)信息技术有限公司 一种基于联邦学习的模型训练方法及装置
CN115860153A (zh) * 2023-03-01 2023-03-28 北京邮电大学 基于个性化分组联邦学习的无线流量预测方法及系统
CN116502176A (zh) * 2023-03-28 2023-07-28 支付宝(杭州)信息技术有限公司 一种语言模型的预训练方法、装置、介质及电子设备
CN116562399A (zh) * 2023-07-10 2023-08-08 支付宝(杭州)信息技术有限公司 端边云协同的模型训练方法及装置
CN116881641A (zh) * 2023-07-12 2023-10-13 华院计算技术(上海)股份有限公司 预训练模型调整方法及装置、存储介质、计算设备
CN116721334A (zh) * 2023-08-11 2023-09-08 腾讯科技(深圳)有限公司 图像生成模型的训练方法、装置、设备及存储介质
CN116756579A (zh) * 2023-08-22 2023-09-15 腾讯科技(深圳)有限公司 大语言模型的训练方法及基于大语言模型的文本处理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DONGQI CAI等: "FedAdapter: Efficient Federated Learning for Modern NLP", ARXIV, 8 May 2023 (2023-05-08), pages 1 - 14 *
刘姿杉等: "联邦学习在无线网络中的应用", 工程与应用, 15 September 2022 (2022-09-15), pages 1609 - 1617 *
朱应钊;: "异构迁移学习研究综述", 电信科学, no. 03, 20 March 2020 (2020-03-20) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117909371A (zh) * 2024-03-18 2024-04-19 之江实验室 一种模型训练方法、装置、存储介质及电子设备
CN118378726A (zh) * 2024-06-25 2024-07-23 之江实验室 一种模型训练系统、方法、存储介质及电子设备

Also Published As

Publication number Publication date
CN117194992B (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
CN117194992B (zh) 一种模型训练、任务执行方法、装置、存储介质及设备
CN110020427B (zh) 策略确定方法和装置
CN110008991B (zh) 风险事件的识别、风险识别模型的生成方法、装置、设备及介质
CN116502176A (zh) 一种语言模型的预训练方法、装置、介质及电子设备
CN117076650B (zh) 一种基于大语言模型的智能对话方法、装置、介质及设备
CN115828162B (zh) 一种分类模型训练的方法、装置、存储介质及电子设备
CN115712866B (zh) 数据处理方法、装置及设备
CN116049761A (zh) 数据处理方法、装置及设备
CN110516915B (zh) 业务节点训练、评估方法、装置及电子设备
CN116402108A (zh) 一种模型训练及图数据的处理方法、装置、介质及设备
CN117409466B (zh) 一种基于多标签控制的三维动态表情生成方法及装置
CN116578877B (zh) 一种模型训练及二次优化打标的风险识别的方法及装置
CN116434787B (zh) 一种语音情感识别的方法、装置、存储介质及电子设备
CN117786107A (zh) 一种文本分类模型的训练方法、装置、介质及电子设备
CN116186330B (zh) 一种基于多模态学习的视频去重方法及装置
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN115827880B (zh) 一种基于情感分类的业务执行方法及装置
CN113033819B (zh) 基于异构模型的联邦学习方法、装置及介质
CN117875413B (zh) 一种知识图谱本体中概念构建方法、装置、介质及设备
CN116996397B (zh) 一种网络丢包优化的方法、装置、存储介质及电子设备
CN117173438B (zh) 一种深度耦合多源传感特性的景象匹配方法
CN117034926A (zh) 一种针对多领域文本分类模型的模型训练的方法及装置
CN117520850A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN117592998A (zh) 一种风控的方法、装置、存储介质及电子设备
CN116401541A (zh) 一种模型训练的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant