CN117744826A - 模型训练方法、装置以及系统和存储介质 - Google Patents

模型训练方法、装置以及系统和存储介质 Download PDF

Info

Publication number
CN117744826A
CN117744826A CN202211117189.3A CN202211117189A CN117744826A CN 117744826 A CN117744826 A CN 117744826A CN 202211117189 A CN202211117189 A CN 202211117189A CN 117744826 A CN117744826 A CN 117744826A
Authority
CN
China
Prior art keywords
terminal
model
training
cloud
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211117189.3A
Other languages
English (en)
Inventor
王奕蓝
解浚源
刘琦
张梓晖
吴迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202211117189.3A priority Critical patent/CN117744826A/zh
Priority to PCT/CN2023/118478 priority patent/WO2024055979A1/zh
Publication of CN117744826A publication Critical patent/CN117744826A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种模型训练方法、装置、系统和存储介质。模型训练方法应用于服务器且用于对机器学习模型进行训练,机器学习模型包括云子模型和M个端子模型,模型训练方法包括:获取云端训练特征;利用云端训练特征对云子模型进行训练,以得到云子模型的云端输出结果;发送云端输出结果和M个端子模型的当前参数至至少一个终端;接收M个端子模型中的N个端子模型分别输出的端梯度,N个端子模型中的每个端子模型输出的端梯度包括端子模型的参数梯度和云输出梯度;基于N个端子模型分别输出的端梯度和云端输出结果计算得到云子模型的参数梯度;利用N个端子模型的参数梯度和云子模型的参数梯度,对N个端子模型的当前参数和云子模型的当前参数进行调整。

Description

模型训练方法、装置以及系统和存储介质
技术领域
本公开的实施例涉及一种模型训练方法、模型训练装置、模型训练系统和非瞬时性计算机可读存储介质。
背景技术
联邦学习(Federated Learning)是一种分布式机器学习技术,其核心思想是通过在多个拥有本地数据的数据源之间进行分布式模型训练,在不需要在多个数据源之间交换本地数据的前提下,仅通过交换模型参数或中间结果的方式,构建基于虚拟融合数据下的全局模型,实现跨机构的数据共享,从而实现数据隐私保护和数据共享计算的平衡,即“数据可用不可见”、“数据不动模型动”的应用模式。
发明内容
提供该内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开至少一个实施例提供一种模型训练方法,应用于服务器且用于对机器学习模型进行训练,其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在至少一个终端上运行,M为正整数,所述模型训练方法包括:获取云端训练特征;利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整。
本公开至少一个实施例提供一种模型训练方法,应用于第一终端且用于对机器学习模型进行训练,其中,所述机器学习模型包括云子模型和第一端子模型,所述云子模型在服务器上运行,所述第一端子模型在所述第一终端上运行,其中,所述模型训练方法包括:获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签;基于所述至少一个终端训练样本,发送训练请求至所述服务器;从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述第一端子模型的当前参数;利用所述云输出、所述第一端子模型的当前参数和所述至少一个终端训练样本对所述第一端子模型进行训练,以得到所述第一端子模型输出的端梯度,其中,所述端梯度包括所述第一端子模型的参数梯度和云输出梯度;输出所述端梯度至所述服务器,以使得所述服务器基于所述端梯度和所述云输出计算得到所述云子模型的参数梯度,并利用所述第一端子模型的参数梯度和所述云子模型的参数梯度,对所述第一端子模型的当前参数和所述云子模型的当前参数进行调整。
本公开至少一个实施例还提供一种模型训练装置,包括:一个或多个存储器,非瞬时性地存储有计算机可执行指令;一个或多个处理器,配置为运行所述计算机可执行指令,其中,所述计算机可执行指令被所述一个或多个处理器运行时实现根据本公开任一实施例所述的模型训练方法。
本公开至少一个实施例还提供一种模型训练系统,用于对机器学习模型进行训练且包括:至少一个终端和服务器,其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在所述至少一个终端上运行,M为正整数,所述服务器被配置为:获取云端训练特征;利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整;所述至少一个终端中的每个终端被配置为:获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签,所述云端训练特征包括与所述至少一个终端训练样本一一对应的至少一个子云端训练特征;从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述终端上运行的端子模型的当前参数,其中,所述云端输出结果包括所述云输出;利用所述云输出、所述终端上运行的端子模型的当前参数和所述至少一个终端训练样本对所述终端上运行的端子模型进行训练,以得到所述终端上运行的端子模型输出的端梯度;输出所述终端上运行的端子模型输出的端梯度至所述服务器。
本公开至少一个实施例还提供一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现根据本公开任一实施例所述的模型训练方法。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1A为本公开至少一个实施例提供的一种机器学习模型的示意图;
图1B为本公开至少一个实施例提供的另一种机器学习模型的示意图;
图2为本公开至少一个实施例提供的一种模型训练方法的示意性流程图;
图3为本公开至少一个实施例提供的一种终端和服务器进行交互的示意图;
图4为本公开至少一个实施例提供的另一种模型训练方法的示意图;
图5为本公开至少一个实施例提供的一种模型训练系统的示意图;
图6为本公开至少一个实施例提供的一种模型训练系统进行模型训练的整体流程的示意图;
图7为本公开至少一个实施例提供的一种模型训练系统进行模型训练的具体训练过程的示例图;
图8为本公开至少一个实施例提供的一种模型训练系统进行模型训练的具体训练过程的示例图;
图9为本公开至少一个实施例提供的一种模型训练装置的示意性框图;
图10为本公开至少一个实施例提供的一种非瞬时性计算机可读存储介质的示意图;
图11为本公开至少一个实施例提供的一种电子设备的硬件结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开的实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
伴随着隐私保护政策和用户隐私保护意识的不断提高,尤其是各种终端隐私保护的不断加强,给基于深度网络模型的大规模在线推荐系统带来了新的挑战。用户隐私数据不再能追踪和集中存储,传统的模型训练方式需要首先将数据进行汇聚,然后基于汇聚的数据进行模型训练,从而传统的模型训练方式无法适应这种场景。基于用户隐私和数据安全保护的联邦学习技术,正逐渐受到重视。
联邦学习是指通过联合多个拥有数据所有权的参与方(终端)共同进行机器学习建模的方法。在联邦学习过程中,拥有数据的参与方不需要向中心服务器(也叫做参数服务器)暴露自己的数据,而是通过参数或梯度更新来共同完成模型训练的过程。因此联邦学习可以在保护用户隐私数据,并且可以完成建模训练过程。
在大规模在线推荐系统场景下,机器学习模型往往非常庞大,需要大量的算力才能够快速的进行训练。传统的模型训练方式都是将用户的数据保存在云端,然后通过服务器强大的算力进行快速的模型训练。庞大的模型同样对应着大量的训练数据,从而会导致服务器的存储压力较大。为了在模型效果和训练速度上保持平衡,往往需要使用批量训练的方式。
本公开至少一个实施例提供一种模型训练方法,该模型训练方法应用于服务器且用于对机器学习模型进行训练。机器学习模型包括云子模型和M个端子模型,云子模型在服务器上运行,M个端子模型在至少一个终端上运行,M为正整数,模型训练方法包括:获取云端训练特征;利用云端训练特征对云子模型进行训练,以得到云子模型的云端输出结果;发送云端输出结果和M个端子模型的当前参数至至少一个终端;接收至少一个终端输出的M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,N个端子模型中的每个端子模型输出的端梯度包括该端子模型的参数梯度和云输出梯度;基于N个端子模型分别输出的端梯度和云端输出结果计算得到云子模型的参数梯度;利用N个端子模型的参数梯度和云子模型的参数梯度,对N个端子模型的当前参数和云子模型的当前参数进行调整。
本公开的实施例提供的模型训练方法通过将机器学习模型拆分为云子模型和端子模型,从而实现在服务器和终端之间进行联邦机器学习,实现用户隐私和数据安全保护,解决诸如车载娱乐设备之类的终端上的模型过大而无法训练的问题;此外,还可以根据不同的终端使用不同的端子模型,从而模型训练的过程更加灵活,应用场景更加广泛;服务器可以同时与多个终端进行联邦机器学习,在保证训练得到的机器学习模型的模型效果的基础上,大大提高模型训练速度,节省模型训练时间。
本公开至少一个实施例还提供一种模型训练装置、模型训练系统和非瞬时性计算机可读存储介质。该模型训练方法可应用于本公开实施例提供的模型训练装置,该模型训练装置可被配置于电子设备上。该电子设备可以是固定终端、移动终端等。
下面结合附图对本公开的实施例进行详细说明,但是本公开并不限于这些具体的实施例。为了保持本公开实施例的以下说明清楚且简明,本公开省略了部分已知功能和已知部件的详细说明。
图1A为本公开至少一个实施例提供的一种机器学习模型的示意图,图1B为本公开至少一个实施例提供的另一种机器学习模型的示意图,图2为本公开至少一个实施例提供的一种模型训练方法的示意性流程图。
例如,在一些实施例中,本公开的实施例提供的模型训练方法可以应用于服务器,即由服务器实现模型训练方法。服务器可以为云端服务器等,服务器可以包括中央处理单元(CPU)等具有数据处理能力和/或程序执行能力的器件。
例如,模型训练方法可以用于对机器学习模型进行训练,机器学习模型可以为神经网络模型等。
本公开从切图的方案出发,将建模完成的庞大的机器学习模型通过切图的方式拆分两个部分,第一部分是由终端执行的模型结构较小的端子模型,第二部分是由服务端执行的模型结构较大的云子模型。端子模型相对简单,由原机器学习模型最上层的几层神经网络层组成,从而适用于具有较小算力的终端,避免增加终端的算力负担。可以根据不同的终端使用不同的端子模型,即各个终端上的端子模型可以根据需求使用不一样的结构;此外,也可以根据各个终端的不同,而设置不同的端子模型的输入。云子模型包含了机器学习模型的大部分结构,因此云子模型相对复杂且主要在服务器执行,利用服务器的强大的算力完成模型训练。云子模型和各个端子模型配合完成联邦训练过程。
例如,机器学习模型可以包括云子模型和M个端子模型,图1A示出了三个端子模型,分别为端子模型A、端子模型B和端子模型C。每个端子模型和云子模型共同构成一个完整的模型,该完整的模型可以用于实现预定的功能,例如,分类、预测等功能。
例如,M个端子模型在至少一个终端上运行,M为正整数,每个终端上可以运行至少一个端子模型,例如,在一个示例中,每个终端上可以运行一个端子模型,此时,M个端子模型分别在M个终端上运行,例如,图1A示出的三个端子模型可以分别在三个终端上运行。例如,在另一些示例中,一个终端上可以运行多个端子模型,例如,图1A示出的三个端子模型中的至少两个端子模型也可以在同一个终端上运行,例如图1A所示的端子模型A和端子模型B由同一个终端执行。
例如,云子模型在服务器上运行。每个服务器上可以运行至少一个云子模型,在一个示例中,如图1B所示,云子模型A和端子模型D共同构成一个完整的模型,云子模型B和端子模型E共同构成一个完整的模型,云子模型A和云子模型B可以由同一个服务器运行,端子模型D和端子模型E可以由同一终端运行,也可以由不同的终端运行。
例如,每个云子模型可以对应至少一个端子模型,如图1A所示,一个云子模型可以对应三个端子模型,此时,该云子模型的输出可以被传输至三个端子模型;如图1B所示,一个云子模型对应一个端子模型,云子模型A对应端子模型D,云子模型B对应端子模型E,从而云子模型A的输出被传输至端子模型D,云子模型B的输出被传输至端子模型E。
需要说明的是,在本公开的实施例中,“云子模型对应端子模型”表示该端子模型和该云子模型能够共同构成一个完整的模型。
例如,M个端子模型的输入与云子模型的输出匹配,也就是说,云子模型将相同尺寸的特征图输出给M个端子模型,例如,如图1A所示,子云输出1、子云输出2和子云输出3的尺寸相同。
例如,每个端子模型的输入可以包括端输入和子云输出,如图1A所示,端子模型A的输入可以包括子云输出1和端输入1,端子模型B的输入可以包括子云输出2和端输入2,端子模型C的输入可以包括子云输出3和端输入3。端输入可以为存储在运行该端子模型的终端上的终端训练特征(下面描述)。
例如,M个端子模型实现相同的目标,例如,调节温度等。
例如,M个端子模型可以在不同的终端上运行,且不同的终端可以为应用在不同场景的同一类终端,也可以为应用在同一场景或不同场景的不同类终端。例如,在图1A所示的示例中,端子模型A可以在终端1上运行,端子模型B可以在终端2上运行,端子模型C可以在终端3上运行,在一个示例中,终端1、终端2和终端3可以均为空调,终端1可以为车载空调,终端2可以为客厅的空调,终端3可以为卧室的空调,此时,端子模型A、端子模型B和端子模型C所实现的目标可以均为调节温度。
例如,每个终端和服务器可以分开设置且通过网络实现通信连接。网络可以包括无线网络、有线网络、和/或无线网络和有线网络的任意组合。网络可以包括局域网、互联网、电信网、基于互联网和/或电信网的物联网(Internet of Things)、和/或以上网络的任意组合等。有线网络例如可以采用双绞线、同轴电缆或光纤传输等方式进行通信,无线网络例如可以采用3G/4G/5G移动通信网络、蓝牙、Zigbee或者WiFi等通信方式。本公开对网络的类型和功能在此不作限制。
例如,终端可以为各种移动终端、固定终端等,例如,终端可以包括移动终端的应用程序(application,App)。移动终端可以为平板电脑、车载设备、笔记本电脑、智能眼镜、智能手表、车载娱乐设备等。固定终端可以为台式计算机、智能家电(例如,智能空调、智能冰箱、智能净化器、智能开关、智能网关、智能电饭煲等)等。
如图2所示,模型训练方法可以包括以下步骤S100~S105。
在步骤S100中,获取云端训练特征。
在步骤S101中,利用云端训练特征对云子模型进行训练,以得到云子模型的云端输出结果。
在步骤S102中,发送云端输出结果和M个端子模型的当前参数至至少一个终端。
在步骤S103中,接收至少一个终端输出的M个端子模型中的N个端子模型分别输出的端梯度。例如,N为正整数,且小于等于M,N个端子模型中的每个端子模型输出的端梯度包括端子模型的参数梯度和云输出梯度。
在步骤S104中,基于N个端子模型分别输出的端梯度和云端输出结果计算得到云子模型的参数梯度。
在步骤S105中,利用N个端子模型的参数梯度和云子模型的参数梯度,对N个端子模型的当前参数和云子模型的当前参数进行调整。
步骤S100~S101表示云子模型的前向传播过程,步骤S103~S104表示云子模型的反向传播过程。
例如,在步骤S100中,云端训练特征可以包括与每个终端对应的至少一个子云端训练特征,子云端训练特征可以为终端的已经公开的信息和/或终端授权给服务器的信息等不涉及终端隐私的信息,在一些示例中,终端可以为车载空调,此时,该终端对应的子云端训练特征可以为该车载空调所属的机动车所在的位置的环境温度、地址、时间等信息。子云端训练特征的具体内容可以根据实际情况确定,本公开对此不作限制。
例如,至少一个子云端训练特征可以存储在服务器,当服务器接收到终端发出的训练请求,则可以根据该训练请求中的标识信息等信息获取与该终端对应的子云端训练特征。
在一些实施例中,至少一个终端包括第一终端,步骤S100可以包括:接收第一终端发出的训练请求;基于第一终端发出的训练请求,获取至少一个第一子云端训练特征。云端训练特征包括至少一个第一子云端训练特征,至少一个第一子云端训练特征与第一终端对应。
例如,第一终端发出的训练请求包括第一终端的标识信息和样本标识等,服务器可以根据第一终端的标识信息和样本标识获取该至少一个第一子云端训练特征。
需要说明的是,“样本标识”可以表示终端训练样本(下面将描述)的标识信息,基于该样本标识,可以确定哪些终端训练样本被用于进行训练,从而服务器可以获取与这些终端训练样本对应的子云端训练特征以进行训练。
每个终端会定期(每间隔一段时间,该一段时间为分钟级,例如,该一段时间可以为一分钟、两分钟、五分钟等)不断查询服务器以进行模型训练,在这段时间内,每个终端新增的终端训练特征一般不会很多。当有几千万个终端需要与服务器进行模型训练时,每一时刻,各个终端设备新增的样本量很少,如果服务器对每个终端单独进行训练,那么将会非常消耗服务器的资源,大大降低训练速度。因此,本公开的实施例提供的模型训练方法可以进行合并训练,即合并多个终端的终端训练特征以组成一个批次(batch)进行训练,从而提高训练速度,节省训练时间,优化或降低服务器的资源消耗,通过实时样本合并方案解决端上样本不足的问题。
在另一些实施例中,至少一个终端包括第一终端和第二终端,步骤S100可以包括:接收第一终端发出的训练请求;基于第一终端发出的训练请求,获取至少一个第一子云端训练特征;接收第二终端发出的训练请求;基于第二终端发出的训练请求,获取至少一个第二子云端训练特征;对至少一个第一子云端训练特征、至少一个第二子云端训练特征进行合并处理,以得到云端训练特征。
在本公开的实施例中,服务器可以同时与多个终端进行联邦机器学习,从而大大提高模型训练速度,降低服务器的资源消耗,减轻服务器的压力。
例如,第二终端发出的训练请求包括第二终端的标识信息和样本标识等。
例如,第一终端发出的训练请求的时间和第二终端发出的训练请求的时间之间的时间差的绝对值处于时间差范围内。例如,预设时间差范围可以为500毫秒等,具体根据实际情况设置。在本公开的实施例中,可以对特定时间差范围内获取的子云端训练特征进行合并处理,从而提高训练速度,节省训练时间。
例如,步骤S101可以包括:获取云子模型的当前参数;利用云端训练特征对具有云子模型的当前参数的云子模型进行训练,以得到云子模型的云端输出结果。例如,云子模型的当前参数表示在获取云端训练特征时云子模型的参数,由于在训练过程中,云子模型的参数会不断被更新优化,从而在执行云子模型的前向传播时,需要获取该云子模型的最新更新的参数(即当前参数),然后基于具有最新更新的参数的云子模型执行前向传播过程。
例如,云子模型对云端训练特征进行处理可以得到云端输出结果,云端输出结果可以包括至少一个子云输出,每个子云输出对应一个子云端训练特征(例如,上述第一子云端训练特征或上述第二子云端训练特征等),如图1A所示,云端输出结果包括子云输出1、子云输出2和子云输出3。
例如,服务器可以同时与多个终端进行训练,在一些实施例中,M个端子模型包括第一端子模型和第二端子模型,至少一个终端包括第一终端和第二终端,第一端子模型在第一终端上运行,第二端子模型在第二终端上运行。步骤S102可以包括:对云端输出结果进行拆分处理,以得到与第一端子模型对应的第一云输出和与第二端子模型对应的第二云输出;获取第一端子模型的当前参数和第二端子模型的当前参数;将第一云输出和第一端子模型的当前参数传输至第一终端;将第二云输出和第二端子模型的当前参数传输至第二终端。
在本公开的实施例中,可以根据不同的终端使用不同的端子模型(例如,上述第一端子模型和第二端子模型),从而实现模型训练的过程更加灵活,应用场景更加广泛;而且,不同的端子模型可以同时训练,从而进一步节省模型训练的时间。
例如,第一云输出可以包括至少一个子云输出,第二云输出可以包括至少一个子云输出。
例如,每个端子模型的当前参数表示在获取云端训练特征时端子模型的参数。
如图1A所示,第一端子模型的一个示例可以为端子模型A,第二端子模型的一个示例可以为端子模型B,第一云输出的一个示例可以为子云输出1,第二云输出的一个示例可以为子云输出2,子云输出1被传输至第一终端,并作为端子模型A的输入的一部分,子云输出2被传输至第二终端,并作为端子模型B的输入的一部分。
例如,每个终端同一时间内可以同时参与多个端子模型的训练过程。在一些实施例中,M个端子模型包括第一端子模型和第三端子模型,第一端子模型的结构和第三端子模型的结构可以不同,至少一个终端包括第一终端,第一端子模型和第三端子模型均在第一终端上运行。步骤S102可以包括:对云端输出结果进行拆分处理,以得到与第一端子模型对应的第一云输出和与第三端子模型对应的第三云输出;获取第一端子模型的当前参数和第三端子模型的当前参数;将第一云输出、第三云输出、第一端子模型的当前参数和第三端子模型的当前参数传输至第一终端。
例如,第三云输出可以包括至少一个子云输出。
如图1A所示,第一端子模型的一个示例可以为端子模型A,第三端子模型的一个示例可以为端子模型C,第一云输出的一个示例可以为子云输出1,第三云输出的一个示例可以为子云输出3。子云输出1和子云输出3可以均被传输至第一终端,但是,子云输出1作为端子模型A的输入的一部分,子云输出3作为端子模型C的输入的一部分。
上面的实施例中,以第一终端运行多个端子模型为例,但是本公开不限于此,第二终端也可以运行多个端子模型,具体操作流程参考上面的相关描述,重复之处不再赘述。
例如,在步骤S103中,可以从至少一个终端中的运行该N个端子模型的终端接收该N个端子模型分别输出的端梯度。在一些实施例中,在步骤S103中,可以在反馈时间范围内接收从终端传输的梯度信息,当在反馈时间范围内,没有接收到某个终端反馈的梯度信息,则表示该终端掉线了(此时,N小于M),从而在当前的训练过程中,不对该终端运行的端子模型的参数进行调整。例如,反馈时间范围可以为8秒、10秒、20秒等,可以根据实际情况设置。
例如,在步骤S103中,端子模型的参数梯度表示该端子模型中的各个层的参数的梯度,端子模型的云输出梯度表示该端子模型所接收的云输出的梯度。在一个示例中,第一端子模型接收第一云输出,从而第一端子模型的云输出梯度表示该第一云输出的梯度。
例如,在步骤S104中,可以基于N个端子模型分别输出的云输出梯度和云端输出结果计算得到云子模型的参数梯度。在一些实施例中,M大于1,N大于1,步骤S104可以包括:对N个端子模型的云输出梯度进行合并处理以得到合并输出梯度;基于合并输出梯度和云端输出结果计算得到云子模型的参数梯度。
需要说明的是,当N为1时,则可以省略合并梯度的过程,而直接基于端子模型输出的云输出梯度和云端输出结果计算得到云子模型的参数梯度。
例如,在一些实施例中,步骤S104还可以包括:对N个端子模型的参数梯度进行合并处理以得到合并参数梯度。
例如,在一些实施例中,步骤S105可以包括:利用N个端子模型的参数梯度,对N个端子模型的当前参数进行调整;利用云子模型的参数梯度,对云子模型的当前参数进行调整。
在对N个端子模型和云子模型进行参数调整之后,可以将N个端子模型的调整后的参数作为N个端子模型的当前参数和云子模型的调整后的参数作为云子模型的当前参数存储在服务器中。
例如,可以通过参数优化器调整机器学习模型的参数。
上述步骤S100~步骤S105表示一次完整的训练过程。
为了避免每个终端对每个端子模型都需要管理训练进度,并且避免服务器回滚机器学习模型到某一天时需要重制终端的训练进度的复杂性。在本公开的实施例中,可以将每个终端的训练进度信息保存在每个端子模型的参数中,当成端子模型的参数的一部分,并且被存储在服务器中。每个终端运行的多个端子模型的训练进度可以不一样。每个端子模型只需要为每个终端保存一个训练进度的数字即可,从而在几乎不增加数据传输量和数据存储量的基础上,通过服务器存储端子模型的训练进度,解决模型数据重复训练的问题,进一步提升模型的训练速度,节省模型训练的时间。
每个终端可以参与多个端子模型的训练,每个端子模型都需要为每个终端记录已训练的数据。当模型回滚时,需要回滚这个模型的所有终端的训练进度记录。
例如,M个端子模型分别一一对应M个存储训练进度信息,M个存储训练进度信息存储在服务器。
例如,在一些实施例中,模型训练方法还包括:针对至少一个终端中的每个终端:从终端接收在终端上运行的每个端子模型的当前训练进度信息;基于当前训练进度信息调整每个端子模型对应的存储训练进度信息。
例如,基于当前训练进度信息调整每个端子模型对应的存储训练进度信息可以包括:将端子模型对应的存储训练进度信息设置为端子模型的当前训练进度信息。由此,端子模型对应的存储训练进度信息指示端子模型的当前训练进度。
每个终端可以单独维护该终端对应的训练进度,训练进度是一个严格递增的数字(可以是时间戳或者在终端进行累加的数字等)。在终端,每个终端训练样本生成时,可以为该终端训练样本设置唯一的训练进度标识,例如,在一个示例中,训练进度标识可以为生成该终端训练样本时的时间戳。
例如,每个终端存储有用于训练在终端上运行的所有端子模型的训练样本集,训练样本集包括多个终端训练样本,每个终端训练样本包括终端训练特征和样本标签,多个终端训练样本中的终端训练特征按顺序依次生成,且每个终端训练样本具有对应的训练进度标识。例如,在每个端子模型的当前训练进度信息表示训练样本集中的已经用于训练每个端子模型的所有终端训练样本中的最后先生成的终端训练样本的训练进度标识。又例如,在每个端子模型的当前训练进度信息表示训练样本集中的尚未用于训练每个端子模型的所有终端训练样本中的最先生成的终端训练样本的训练进度标识。
需要说明的是,终端上运行的所有端子模型可以共享同一个训练样本集,或者,终端上运行的不同端子模型可以分别对应不同的训练样本集。
例如,终端训练样本可以是基于经验预先设置的,也可以是随着终端的使用过程而实时产生的。
例如,在一些实施例中,模型训练方法还包括:接收每个终端发送的与由终端运行的端子模型对应的训练进度查询请求;基于训练进度查询请求,获取与端子模型对应的存储训练进度信息;输出存储训练进度信息至终端,以供终端基于存储训练进度信息进行样本筛选操作。例如,响应于样本筛选操作得到至少一个终端训练样本,终端发送训练请求至服务器以进行模型训练;响应于样本筛选操作没有得到终端训练样本,则不进行模型训练。
图3为本公开至少一个实施例提供的一种终端和服务器进行交互的示意图。
在终端运行的一个端子模型可以对应多个终端训练样本,在某时刻,该多个终端训练样本包括依次生成的终端训练样本1~终端训练样本9。如图3所示,在该时刻,终端可以向服务器发送训练进度查询请求以查询终端中的端子模型的当前训练进度,服务器基于训练进度查询请求可以获取该端子模型的存储训练进度信息(即该端子模型的当前训练进度),并将该存储训练进度信息传输至终端,例如,若该端子模型的存储训练进度信息指示终端训练样本1~终端训练样本5已经用于对该端子模型进行训练,即该端子模型的当前训练进度可以为终端训练样本5对应的训练进度标识;然后,终端基于该存储训练进度信息进行样本筛选操作,以筛选出大于当前训练进度的终端训练样本,此时,筛选得到终端训练样本6~终端训练样本9;然后,终端基于满足条件的部分终端训练样本(例如,终端训练样本6~终端训练样本8)的信息(样本标识等)向服务器发送训练请求以请求进行模型训练,还可以例如调用pull接口以从服务器获取端子模型的当前参数和与该端子模型对应的云输出。最后,终端可以例如调用push接口以将端子模型的当前训练进度和端子模型输出的端梯度返回给服务器,从而使得服务器进行参数调整,并基于该端子模型的当前训练进度调整该端子模型对应的存储训练进度信息。在当前训练过程结束之后,端子模型的当前训练进度变为终端训练样本8对应的训练进度标识。
当该终端再次向服务器发送训练进度查询请求以发起训练时,可以过滤上一轮已经完成训练的终端训练样本,即可以过滤上述终端训练样本1~终端训练样本8,从而基于终端训练样本9对端子模型进行训练。
例如,终端可以为每个端子模型设置终端样本阈值,终端样本阈值表示在每次训练过程中,能够用于训练该端子模型的终端训练样本的数量的最大值,即每次训练过程中用于训练该端子模型的终端训练样本的数量不能超过该终端样本阈值。
例如,服务器可以为每个端子模型设置云端样本阈值,云端样本阈值表示在每次训练过程中,能够用于训练该端子模型的云端训练特征的数量的最大值,即每次训练过程用于训练该端子模型的云端训练特征的数量不能超过该云端样本阈值。
需要说明的是,终端样本阈值和云端样本阈值可以相同,也可以不相同。
例如,在一个示例中,终端为端子模型设置的终端样本阈值可以为8,而服务器为该端子模型设置的云端样本阈值可以为6,此时,在一次训练过程中,终端向服务器发出训练请求,该训练请求指示利用8个终端训练样本对该端子模型进行训练,在一个示例中,训练样本集可以包括终端训练样本1~终端训练样本20,该8个终端训练样本可以为终端训练样本10~终端训练样本17。此时,由于端子模型对应的云端样本阈值为6,从而服务器获取与该8个终端训练样本中的前6个终端训练样本(即终端训练样本10~终端训练样本15)分别对应的6个云端训练特征以进行训练过程。对应地,在终端中,利用该8个终端训练样本中的前6个终端训练样本(即终端训练样本10~终端训练样本15)对端子模型进行训练,此时,该端子模型对应的当前训练进度信息为终端训练样本15对应的样本标识。
在本公开的实施例提供的模型训练方法中,每个终端的上线时间是无法控制的,每个终端在线时会定时的访问服务器,查看是否有机器学习模型正在训练,然后将训练数据的信息(不包含敏感信息)上传到服务器,从而使得服务器获取云端训练特征以进行模型训练。
图4为本公开至少一个实施例提供的另一种模型训练方法的示意图。
例如,在一些实施例中,本公开的实施例提供的模型训练方法可以应用于终端(例如,第一终端),即由终端实现模型训练方法。关于终端的相关说明可以参考上述实施例中的描述。
例如,机器学习模型包括云子模型和第一端子模型,云子模型在服务器上运行,第一端子模型在第一终端上运行。需要说明的是,第一终端上还可以运行更多的端子模型。
如图4所示,模型训练方法可以包括以下步骤S200~S203。
在步骤S200中,获取至少一个终端训练样本。例如,每个终端训练样本包括终端训练特征和样本标签。
在步骤S201中,基于至少一个终端训练样本,发送训练请求至服务器。
在步骤S202中,从服务器接收与至少一个终端训练样本对应的云输出和第一端子模型的当前参数。例如,该云输出包括与至少一个终端训练样本一一对应的至少一个子云输出。
在步骤S203中,利用云输出、第一端子模型的当前参数和至少一个终端训练样本对第一端子模型进行训练,以得到第一端子模型输出的端梯度。例如,端梯度包括第一端子模型的参数梯度和云输出梯度,该云输出梯度可以为该云输出的梯度。
在步骤S204中,输出端梯度至服务器。当第一端子模型输出的端梯度被输出至服务器之后,可以使得服务器基于第一端子模型输出的端梯度和云输出计算得到云子模型的参数梯度,并利用第一端子模型的参数梯度和云子模型的参数梯度,分别对第一端子模型的当前参数和云子模型的当前参数进行调整。
步骤S200和步骤S203~S204表示第一端子模型的前向传播过程和反向传播过程。
本公开的实施例提供的模型训练方法通过将机器学习模型拆分为云子模型和端子模型,从而实现在服务器和终端之间进行联邦机器学习,实现用户隐私和数据安全保护,解决诸如车载娱乐设备之类的终端上的模型过大而无法训练的问题。在终端上运行的端子模型的结构较小,从而可以适应于算力较小的终端,使得联邦机器学习可以应用在具有较小算力的终端,进一步扩大联邦机器学习的应用范围和应用场景,能有效帮助多个终端在满足用户隐私保护和数据安全的要求下,进行数据使用和机器学习建模;而且,由于联合多个终端进行联邦训练,从而可以提高训练得到的机器学习模型的精度和准确度。
例如,第一终端可以存储有用于训练第一端子模型的训练样本集,训练样本集包括多个终端训练样本,每个终端训练样本包括终端训练特征和样本标签。终端训练样本可以是基于经验预先设置的,也可以是随着终端的使用过程而实时产生的。例如,在一些实施例中,第一终端可以为车载空调,在某个时刻,第一终端需要控制该车载空调所属的机动车的车内温度,此时,第一终端产生一个终端训练特征,该终端训练特征可以包括机动车的当前车内温度、当前车内人员数量等信息,对应于该终端训练特征,服务器产生对应的云端训练特征,此时,机器学习模型可以对该终端训练特征和云端训练特征进行处理,以得到一个预测温度,然后,车载空调可以调节到该预测温度。然后,当车内的人员发出一个反馈信息时,该反馈信息即为该终端训练特征对应的样本标签,反馈信息可以为温度不合适(温度较高或温度较低)或温度合适等;基于该预测温度和反馈信息,则可以生成梯度以调节机器学习模型的参数。该终端训练特征和样本标签即为一个终端训练样本,该终端训练样本对应的训练进度标识可以为产生该终端训练特征的时刻对应的时间戳或在第一终端进行累加的数字。
需要说明的是,当车内的人员没有发出反馈信息时,可以默认机器学习模型当前预测得到的结果达到用户的预期结果。例如,在上述示例中,当车内的人员没有发出反馈信息时,终端训练特征对应的样本标签为该预测温度合适。此外,终端训练特征的具体信息可以根据实际情况设置,本公开对此不作具体限定。
例如,在一些实施例中,步骤S200可以包括:发送训练进度查询请求至服务器;从服务器接收第一端子模型对应的存储训练进度信息;基于存储训练进度信息进行样本筛选操作;响应于样本筛选操作得到K个终端训练样本,基于K个终端训练样本获取至少一个终端训练样本。例如,K为正整数。例如,第一终端可以基于存储训练进度信息对该第一端子模型对应的训练样本集进行样本筛选操作,以获得用于训练该第一端子模型的K个终端训练样本,然后,从该K个终端训练样本中选择得到至少一个终端训练样本,当第一端子模型设置有对应的终端样本阈值,则该至少一个终端训练样本的数量小于等于该终端样本阈值,例如,当K小于等于该终端样本阈值时,可以选择该K个终端训练样本以进行模型训练;当K大于该终端样本阈值时,可以选择该K个终端训练样本中的部分终端训练样本以进行模型训练。当响应于样本筛选操作没有得到终端训练样本,则不进行模型训练。
例如,在一些实施例中,在步骤S201中,当获取至少一个终端训练样本之后,第一终端可以基于至少一个终端训练样本向服务器发送训练请求,第一终端发出的训练请求包括第一终端的标识信息和样本标识列表等,样本标识列表用于指示该至少一个终端训练样本分别对应的样本标识,然后,服务器基于第一终端发出的训练请求,获取与该至少一个终端训练样本分别对应的至少一个子云端训练特征以进行训练,以得到至少一个终端训练样本对应的至少一个子云输出;此外,服务器还获取第一端子模型的当前参数,然后,服务器将至少一个终端训练样本对应的至少一个子云输出和第一端子模型的当前参数输出至第一终端。
例如,在一些实施例中,步骤S203可以包括:针对至少一个终端训练样本中的每个终端训练样本:利用具有第一端子模型的当前参数的第一端子模型对终端训练样本对应的子云输出和终端训练样本中的终端训练特征进行处理,以得到第一端子模型的输出;基于第一端子模型的输出和终端训练样本中的样本标签,得到第一端子模型的损失值;基于损失值和第一端子模型的输出,得到端梯度。
例如,在一些实施例中,模型训练方法还包括:基于至少一个终端训练样本,确定与第一端子模型对应的当前训练进度信息;发送当前训练进度信息至服务器,以使得服务器将第一端子模型对应的存储训练进度信息更新为当前训练进度信息。
需要说明的是,关于服务器执行的具体操作,可以参考上述应用于服务器的模型训练方法的实施例中的描述,重复之处不再赘述。
图5为本公开至少一个实施例提供的一种模型训练系统的示意图。
本公开至少一个实施例还提供一种模型训练系统,该模型训练系统用于对机器学习模型进行训练,机器学习模型包括云子模型和M个端子模型,M为正整数。如图5所示,该模型训练系统1100可以包括至少一个终端1101和服务器1102,云子模型在服务器1102上运行,M个端子模型在至少一个终端1101上运行。
例如,服务器1102被配置为:获取云端训练特征;利用云端训练特征对云子模型进行训练,以得到云子模型的云端输出结果;发送云端输出结果和M个端子模型的当前参数至至少一个终端;接收至少一个终端输出的M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,N个端子模型中的每个端子模型输出的端梯度包括端子模型的参数梯度和云输出梯度;基于N个端子模型分别输出的端梯度和云端输出结果计算得到云子模型的参数梯度;利用N个端子模型的参数梯度和云子模型的参数梯度,对N个端子模型的当前参数和云子模型的当前参数进行调整。
至少一个终端1101中的每个终端被配置为:获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签,云端训练特征包括与至少一个终端训练样本一一对应的至少一个子云端训练特征;从服务器1102接收与至少一个终端训练样本对应的至少一个云输出和终端上运行的端子模型的当前参数,其中,云端输出结果包括至少一个云输出;利用至少一个云输出、终端上运行的端子模型的当前参数和至少一个终端训练样本对终端上运行的端子模型进行训练,以得到终端上运行的端子模型输出的端梯度;输出终端上运行的端子模型输出的端梯度至服务器1102。
服务器1102可以用于实现图2所示的模型训练方法,至少一个终端1101中的每个终端可以用于实现图4所示的模型训练方法。关于服务器1102和终端1101可以实现的具体操作请参考上述模型训练方法的实施例,重复之处不再赘述。
下面简单描述模型训练系统中的一个服务器和一个终端进行联邦训练的整体过程。
终端定期检查是否满足训练条件,训练条件包括样本量、网络环境等信息。如果满足训练条件,终端向服务器发现训练进度查询请求以查询是否可以进行训练,训练进度查询请求中包括终端的标识信息。服务器收到终端的训练进度查询请求时,会查找正在训练的模型,并根据终端的标识信息找到该终端上运行的端子模型的存储训练进度信息。然后将端子模型的名称和存储训练进度信息返回给终端。终端接收到服务器发送的端子模型的名称和存储训练进度信息后,查找本地的训练样本集的所有可以训练的终端训练样本。终端如果查找到可以训练的终端训练样本,将端子模型的名称和样本标识列表发送给服务器。样本标识列表可以包括各个终端训练样本的样本标识。
服务器收到终端的端子模型的名称和样本标识列表,通过样本标识列表在服务器端的样本库查找与样本标识列表中的样本标识指示的终端训练样本对应的云端训练样本,每个云端训练样本包括云端训练特征。然后通过参数模块获取云子模型的当前参数,将云端训练特征输入到云子模型中以得到云子模型的输出(如果需要合并训练,需要在此等待其他终端上报终端训练样本后,合并所有云端训练特征之后一并输入给云子模型)。同时,服务器还会通过参数模块获取端子模型的当前参数。最后,将云子模型的输出和端子模型的当前参数返回给终端,同时生成并返回一个会话标识信息。
终端收到云子模型的输出和端子模型的当前参数后,将终端训练样本的终端训练特征和云子模型的输出一同输入到端子模型以得到端子模型的输出(即预测结果),然后基于端子模型的输出和终端训练样本的样本标签得到端子模型的输出的损失值。通过损失值计算梯度,即反向传播得到端子模型输出的端梯度(包括端子模型的参数梯度和云输出梯度),最后将端子模型输出的端梯度返回给到服务器,同时带上之前的会话标识信息。
服务器收到端子模型输出的端梯度后,通过云输出梯度继续反向传播得到云子模型的参数梯度(如果需要合并训练,需要再次等待其他终端上报端梯度后,再进行反向传播)。这样,服务器就得到了云子模型的参数梯度和端子模型的参数梯度,也就是整个机器学习模型的梯度,然后,将云子模型的参数梯度和端子模型的参数梯度提交给参数服务器以更新机器学习模型的参数,同时更新该端子模型对应的存储训练进度信息(存储训练进度信息也一并存储在参数服务器)。
终端向服务器发送梯度后,即可认为一轮训练完成,等待下一次训练。
图6为本公开至少一个实施例提供的一种模型训练系统进行模型训练的整体流程的示意图。例如,模型训练系统可以为图5所示的模型训练系统。
在本公开的实施例中,模型训练系统进行模型训练的整体流程包括3个部分:云子模型的前向传播、端子模型的前向传播和反向传播以及云子模型的反向传播。
在一个示例中,机器学习模型可以包括一个云子模型和一个端子模型,如图6所示,云子模型可以包括第一层layer1和第二层layer2,端子模型可以包括第三层layer3,第一层layer1、第二层layer2和第三层layer3中的每一层可以为卷积层、全连接层、池化层等。云子模型在服务器上运行,端子模型在终端上运行。图6所示的云子模型和端子模型仅是示意性的,云子模型可以包括更多的层,端子模型也可以包括更多的层。
在云子模型的前向传播中,服务器将云端训练特征输入到云子模型,得到云子模型的前向传播结果(即上述云端输出结果),然后将该前向传播结果和端子模型的当前参数一起发到终端上。如图6所示,云子模型的第一层layer1对云端训练特征进行处理,以得到第一层layer1的输出O1,云子模型的第二层layer2对第一层layer1的输出O1进行处理,以得到第二层layer2的输出O2,该第二层layer2的输出O2可以表示云子模型的云端输出结果;然后,服务器将云端输出结果和端子模型的当前参数一起发送到用于运行端子模型的终端上。
在端子模型的前向传播和反向传播中,终端收到云子模型的云端输出结果和端子模型的当前参数,加上终端自身的端输入In(包括终端训练特征)以及样本标签一起输入到端子模型以进行前向传播和反向传播,从而得到端子模型输出的端梯度,然后将该端梯度一起发到服务器上。如图6所示,端子模型的第三层layer3对云端输出结果(即第二层layer2的输出O2)和端输入In进行处理,得到第三层layer3的输出O3,该第三层layer3的输出O3即为机器学习模型的预测结果,然后,基于预测结果和样本标签,利用损失函数计算得到机器学习模型的损失值;基于损失值和第三层layer3的输出O3,计算得到端子模型的参数梯度GL3(即第三层layer3的参数的梯度)和端子模型的云输出梯度GO;最后,该端子模型的参数梯度GL3和端子模型的云输出梯度GO被传输至服务器。
在云子模型的反向传播中,服务器收到端子模型的参数梯度和云输出梯度后,执行云子模型的反向传播过程,从而得到云子模型的参数梯度。最后,通过参数优化器更新机器学习模型的参数从而完成一轮训练。如图6所示,在云子模型的反向传播中,首先,基于端子模型的云输出梯度GO以及第二层layer2的输出O2,计算得到第二层layer2的参数梯度GL2;接着,基于第二层layer2的参数梯度GL2以及第一层layer1的输出O1,计算得到第一层layer1的参数梯度GL1。云子模型的参数梯度包括第一层layer1的参数梯度GL1和第二层layer2的参数梯度GL2。最后,参数优化器基于端子模型的参数梯度GL3更新端子模型(第三层layer3)的参数,基于第一层layer1的参数梯度GL1和第二层layer2的参数梯度GL2更新云子模型(第一层layer1和第二层layer2)的参数。
图7为本公开一些实施例提供的一种模型训练系统进行模型训练的具体训练过程的示例图,图8为本公开一些实施例提供的一种模型训练系统进行模型训练的具体训练过程的示例图。图7和图8示出了对多个终端进行合并训练的过程,图7和图8以三个终端为例进行描述。下面结合图7和图8详细描述模型训练系统进行模型训练的整体流程。
如图7所示,至少一个终端包括终端Tem1、终端Tem2和终端Tem3,M个端子模型包括由终端Tem1运行的端子模型10、由终端Tem2运行的端子模型20和由终端Tem3运行的端子模型30。
如图7和图8所示,在时刻t1,服务器接收到终端Tem1发出的训练请求,然后,基于该终端Tem1发出的训练请求,获取与终端Tem1对应的至少一个子云端训练特征CTF1,图8示出了两个子云端训练特征CTF1(每个矩形框代表一个子云端训练特征);在时刻t2,服务器接收到终端Tem2发出的训练请求,然后,基于该终端Tem2发出的训练请求,获取与终端Tem2对应的至少一个子云端训练特征CTF2,图8示出了三个子云端训练特征CTF2;在时刻t3,服务器接收到终端Tem3发出的训练请求,然后,基于该终端Tem3发出的训练请求,获取与终端Tem3对应的至少一个子云端训练特征CTF3,图8示出了两个子云端训练特征CTF3。然后,执行输入合并,即对与终端Tem1对应的至少一个子云端训练特征CTF1、与终端Tem2对应的至少一个子云端训练特征CTF2和与终端Tem3对应的至少一个子云端训练特征CTF3进行输入合并处理,以得到云端训练特征。
例如,时刻t1、时刻t2和时刻t3中的任意两个之间的时间差的绝对值处于预设时间差范围内。在一个示例中,时刻t1、时刻t2和时刻t3可以为同一时刻。
如图7和图8所示,在得到云端训练特征之后,可以从参数模块获取云子模型的当前参数,然后,基于云端训练特征和云子模型的当前参数,执行云子模型的前向传播,从而得到云端输出结果。然后,对云端输出结果执行输出拆分操作,以得到与端子模型10对应的云输出FCO1、与端子模型20对应的云输出FCO2和端子模型30对应的云输出FCO3。同时,可以从参数模块获取各个端子模型的当前参数,然后,将云输出FCO1和端子模型10的当前参数CP1传输至终端Tem1,以供终端Tem1执行端子模型10的前向传播和反向传播,从而得到端子模型10的参数梯度GP1和端子模型10的云输出梯度GO1;将云输出FCO2和端子模型20的当前参数CP2传输至终端Tem2,以供终端Tem2执行端子模型20的前向传播和反向传播,从而得到端子模型20的参数梯度GP2和端子模型20的云输出梯度GO2;将云输出FCO3和端子模型30的当前参数CP3传输至终端Tem3,以供终端Tem3执行端子模型30的前向传播和反向传播,从而得到端子模型30的参数梯度GP3和端子模型30的云输出梯度GO3。
如图7和图8所示,终端Tem1可以将端子模型10的参数梯度GP1和端子模型10的云输出梯度GO1传输至服务器,终端Tem2可以将端子模型20的参数梯度GP2和端子模型20的云输出梯度GO2传输至服务器,终端Tem3可以将端子模型30的参数梯度GP3和端子模型30的云输出梯度GO3传输至服务器。在接收到各个终端传输的梯度之后,服务器可以执行梯度合并。例如,服务器可以将端子模型10的参数梯度GP1、端子模型20的参数梯度GP2和端子模型30的参数梯度GP3进行合并,以得到合并参数梯度;将端子模型10的云输出梯度GO1、端子模型20的云输出梯度GO2和端子模型30的云输出梯度GO3进行合并,以得到合并输出梯度。
如图7和图8所示,在得到合并输出梯度之后,可以执行云子模型的反向传播,从而得到云子模型的参数梯度。机器学习模型的梯度可以包括云子模型的参数梯度和各个端子模型的参数梯度(即GP1~GP3,合并参数梯度)。然后,参数模块可以包括参数优化器,参数优化器可以接收合并参数梯度和云子模型的参数梯度,然后基于云子模型的参数梯度对云子模型的参数进行调整,以更新云子模型的参数;基于合并参数梯度对端子模型10的参数、端子模型20的参数和端子模型30的参数进行调整,以更新端子模型10的参数、端子模型20的参数和端子模型30的参数。至此完成一次模型训练的过程。
需要说明的是,在另一些实施例中,也可以不对各个端子模型的参数梯度进行合并,而是直接将各个端子模型的参数梯度输入到参数优化器,参数优化器基于各个端子模型的参数梯度分别对各个端子模型的参数进行调整。例如,此时,参数优化器可以基于端子模型10的参数梯度GP1对端子模型10的参数进行调整,以更新端子模型10的参数;基于端子模型20的参数梯度GP2对端子模型20的参数进行调整,以更新端子模型20的参数;基于端子模型30的参数梯度GP3对端子模型30的参数进行调整,以更新端子模型30的参数。
图9为本公开至少一个实施例提供的一种模型训练装置的示意性框图。
本公开至少一个实施例还提供一种模型训练装置,如图9所示,该模型训练装置1000可以包括一个或多个存储器1001和一个或多个处理器1002。应当注意,模型训练装置1000的组件只是示例性的,而非限制性的,根据实际应用需要,该模型训练装置1000还可以具有其他组件,本公开的实施例对此不作具体限制。
例如,一个或多个存储器1001用于非瞬时性地存储有计算机可执行指令;一个或多个处理器1002被配置为运行计算机可执行指令。计算机可执行指令被一个或多个处理器1002运行时实现根据本公开任一实施例所述的模型训练方法中的一个或多个步骤。例如,该模型训练装置1000可以用于图2所示的模型训练方法和/或图4所示的模型训练方法。
关于模型训练方法的各个步骤的具体实现以及相关解释内容可以参见上述模型训练方法的实施例,重复之处在此不作赘述。
例如,存储器1001和处理器1002之间可以直接或间接地互相通信。例如,在一些实施例中,模型训练装置1000还可以包括通信接口和通信总线。存储器1001、处理器1002和通信接口可以通过通信总线实现相互通信,存储器1001、处理器1002和通信接口等组件之间也可以通过网络连接进行通信,网络可以包括无线网络、有线网络、和/或无线网络和有线网络的任意组合。本公开对网络的类型和功能在此不作限制。
例如,通信总线可以是外设部件互连标准(PCI)总线或扩展工业标准结构(EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。
例如,通信接口用于实现模型训练装置1000与其他设备之间的通信。通信接口可以为通用串行总线(Universal Serial Bus,USB)接口等。
例如,存储器1001和处理器1002可以设置在服务器端(或云端)。
例如,处理器1002可以控制模型训练装置中的其它组件以执行期望的功能。处理器可以是中央处理器(CPU)、图形处理器(GPU)、网络处理器(NP)等;处理器还可以为具有模型训练能力和/或程序执行能力的其它形式的处理单元,例如,数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、张量处理单元(TPU)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。中央处理元(CPU)可以为X86或ARM架构等。
例如,存储器1001可以为计算机可读介质,且可以包括一个或多个计算机程序产品的任意组合,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机可读指令,处理器可以运行所述计算机可读指令,以实现模型训练装置1000的各种功能。在存储介质中还可以存储各种应用程序和各种数据等。
关于模型训练装置可以实现的技术效果可以参考上述模型训练方法的实施例中的相关描述,重复之处不再赘述。
图10为本公开至少一个实施例提供的一种非瞬时性计算机可读存储介质的示意图。例如,如图10所示,在非瞬时性计算机可读存储介质2000上可以非暂时性地存储一个或多个计算机可执行指令2001。例如,当计算机可执行指令2001由处理器执行时可以执行根据本公开任一实施例所述的模型训练方法中的一个或多个步骤。
例如,该非瞬时性计算机可读存储介质2000可以应用于上述模型训练装置1000中。例如,非瞬时性计算机可读存储介质2000可以包括上述模型训练装置1000中的存储器1001。
例如,关于非瞬时性计算机可读存储介质2000的说明可以参考模型训练装置1000的实施例中对于存储器1001的描述,重复之处不再赘述。
下面参考图11,图11示出了适于用来实现本公开实施例的电子设备3000的结构示意图。该电子设备3000可以为终端(例如,计算机)或处理器等,并可用于执行上述实施例的模型训练方法。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(Portable Media Player,简称PMP)、车载终端(例如车载导航终端)、可穿戴电子设备等等的移动终端以及诸如数字TV、台式计算机、智能家居设备等等的固定终端。图11示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备3000可以包括处理装置(例如中央处理器、图形处理器等)3001,其可以根据存储在只读存储器(ROM)3002中的程序或者从存储装置3008加载到随机访问存储器(RAM)3003中的程序而执行各种适当的动作和处理。在RAM 3003中,还存储有电子设备3000操作所需的各种程序和数据。处理装置3001、ROM 3002以及RAM 3003通过总线3004彼此相连。输入/输出(I/O)接口3005也连接至总线3004。
通常,以下装置可以连接至I/O接口3005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置3006;包括例如液晶显示器(Liquid CrystalDisplay,LCD)、扬声器、振动器等的输出装置3007;包括例如磁带、硬盘等的存储装置3008;以及通信装置3009。通信装置3009可以允许电子设备3000与其他设备进行无线或有线通信以交换数据。虽然图11示出了具有各种装置的电子设备3000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码,以执行根据上文所述的模型训练方法中的一个或多个步骤。在这样的实施例中,该计算机程序可以通过通信装置3009从网络上被下载和安装,或者从存储装置3008被安装,或者从ROM3002被安装。在该计算机程序被处理装置3001执行时,可以使得处理装置3001执行本公开实施例的模型训练方法中限定的上述功能。
需要说明的是,在本公开的上下文中,计算机可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是,但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述介质的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络(包括局域网(LAN)或广域网(WAN))连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。例如,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的用户信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供用户信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供用户信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
第一方面,根据本公开的一个或多个实施例,一种模型训练方法,应用于服务器且用于对机器学习模型进行训练,其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在至少一个终端上运行,M为正整数,所述模型训练方法包括:获取云端训练特征;利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整。
根据本公开的一个或多个实施例,所述M个端子模型分别一一对应M个存储训练进度信息,所述M个存储训练进度信息存储在所述服务器。
根据本公开的一个或多个实施例,模型训练方法还包括:针对所述至少一个终端中的每个终端:从所述终端接收在所述终端上运行的每个端子模型的当前训练进度信息;基于所述当前训练进度信息调整所述每个端子模型对应的存储训练进度信息。
根据本公开的一个或多个实施例,每个终端存储有用于训练在所述终端上运行的所有端子模型的训练样本集,所述训练样本集包括多个终端训练样本,每个终端训练样本包括终端训练特征和样本标签,所述多个终端训练样本中的终端训练特征按顺序依次生成,且每个终端训练样本具有对应的训练进度标识,在所述每个端子模型的当前训练进度信息表示所述训练样本集中的已经用于训练所述每个端子模型的所有终端训练样本中的最后生成的终端训练样本的训练进度标识。
根据本公开的一个或多个实施例,所述至少一个终端包括第一终端,其中,获取云端训练特征包括:接收所述第一终端发出的训练请求,其中,所述第一终端发出的训练请求包括所述第一终端的标识信息;基于所述第一终端发出的训练请求,获取至少一个第一子云端训练特征,其中,所述云端训练特征包括所述至少一个第一子云端训练特征。
根据本公开的一个或多个实施例,所述至少一个终端还包括第二终端,其中,获取云端训练特征还包括:接收所述第二终端发出的训练请求,其中,所述第二终端发出的训练请求包括所述第二终端的标识信息;基于所述第二终端发出的训练请求,获取至少一个第二子云端训练特征;对所述至少一个第一子云端训练特征、所述至少一个第二子云端训练特征进行合并处理,以得到所述云端训练特征。
根据本公开的一个或多个实施例,所述第一终端发出的训练请求的时刻和所述第二终端发出的训练请求的时刻之间的时间差的绝对值处于时间差范围内。
根据本公开的一个或多个实施例,M大于1,所述M个端子模型包括第一端子模型和第二端子模型,所述至少一个终端包括第一终端和第二终端,所述第一端子模型在所述第一终端上运行,所述第二端子模型在所述第二终端上运行,发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端,包括:对所述云端输出结果进行拆分处理,以得到与所述第一端子模型对应的第一云输出和与所述第二端子模型对应的第二云输出;获取所述第一端子模型的当前参数和所述第二端子模型的当前参数;将所述第一云输出和所述第一端子模型的当前参数传输至所述第一终端;将所述第二云输出和所述第二端子模型的当前参数传输至所述第二终端。
根据本公开的一个或多个实施例,所述M个端子模型包括第一端子模型和第三端子模型,所述至少一个终端包括第一终端,所述第一端子模型和所述第三端子模型均在所述第一终端上运行,发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端,包括:对所述云端输出结果进行拆分处理,以得到与所述第一端子模型对应的第一云输出和与所述第三端子模型对应的第三云输出;获取所述第一端子模型的当前参数和所述第三端子模型的当前参数;将所述第一云输出、所述第三云输出、所述第一端子模型的当前参数和所述第三端子模型的当前参数传输至所述第一终端。
根据本公开的一个或多个实施例,利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果,包括:获取所述云子模型的当前参数,其中,所述云子模型的当前参数表示在获取所述云端训练特征时所述云子模型的参数;利用所述云端训练特征对具有所述云子模型的当前参数的所述云子模型进行训练,以得到所述云子模型的云端输出结果。
根据本公开的一个或多个实施例,M大于1,N大于1,基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度,包括:对所述N个端子模型的云输出梯度进行合并处理以得到合并输出梯度;基于所述合并输出梯度和所述云端输出结果计算得到所述云子模型的参数梯度。
根据本公开的一个或多个实施例,所述M个端子模型的输入与所述云子模型的输出匹配。
根据本公开的一个或多个实施例,模型训练方法还包括:接收每个终端发送的与由所述终端运行的端子模型对应的训练进度查询请求;基于所述训练进度查询请求,获取与所述端子模型对应的存储训练进度信息;输出所述存储训练进度信息至所述终端,以供所述终端基于所述存储训练进度信息进行样本筛选操作;其中,响应于所述样本筛选操作得到至少一个终端训练样本,所述终端发送训练请求至所述服务器以进行模型训练。
第二方面,根据本公开的一个或多个实施例,一种模型训练方法,应用于第一终端且用于对机器学习模型进行训练,其中,所述机器学习模型包括云子模型和第一端子模型,所述云子模型在服务器上运行,所述第一端子模型在所述第一终端上运行,其中,所述模型训练方法包括:获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签;基于所述至少一个终端训练样本,发送训练请求至所述服务器;从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述第一端子模型的当前参数;利用所述云输出、所述第一端子模型的当前参数和所述至少一个终端训练样本对所述第一端子模型进行训练,以得到所述第一端子模型输出的端梯度,其中,所述端梯度包括所述第一端子模型的参数梯度和云输出梯度;输出所述端梯度至所述服务器,以使得所述服务器基于所述端梯度和所述云输出计算得到所述云子模型的参数梯度,并利用所述第一端子模型的参数梯度和所述云子模型的参数梯度,对所述第一端子模型的当前参数和所述云子模型的当前参数进行调整。
根据本公开的一个或多个实施例,获取至少一个终端训练样本,包括:发送训练进度查询请求至所述服务器;从所述服务器接收所述第一端子模型对应的存储训练进度信息;基于所述存储训练进度信息进行样本筛选操作;响应于所述样本筛选操作得到K个终端训练样本,基于所述K个终端训练样本获取所述至少一个终端训练样本,其中,K为正整数。
根据本公开的一个或多个实施例,模型训练方法还包括:基于所述至少一个终端训练样本,确定与所述第一端子模型对应的当前训练进度信息;发送所述当前训练进度信息至所述服务器,以使得所述服务器将所述第一端子模型对应的存储训练进度信息更新为所述当前训练进度信息。
根据本公开的一个或多个实施例,所述云输出包括与所述至少一个终端训练样本一一对应的至少一个子云输出,利用所述云输出、所述第一端子模型的当前参数和所述至少一个终端训练样本对所述第一端子模型进行训练,以得到所述第一端子模型输出的端梯度,包括:针对所述至少一个终端训练样本中的每个终端训练样本:利用具有所述第一端子模型的当前参数的所述第一端子模型对所述终端训练样本对应的子云输出和所述终端训练样本中的终端训练特征进行处理,以得到所述第一端子模型的输出;基于所述第一端子模型的输出和所述终端训练样本中的样本标签,得到所述第一端子模型的损失值;基于所述损失值和所述第一端子模型的输出,得到所述端梯度。
第三方面,根据本公开的一个或多个实施例,一种模型训练装置,包括:一个或多个存储器,非瞬时性地存储有计算机可执行指令;一个或多个处理器,配置为运行所述计算机可执行指令,其中,所述计算机可执行指令被所述一个或多个处理器运行时实现根据本公开任一实施例所述的模型训练方法。
第四方面,根据本公开的一个或多个实施例,一种模型训练系统,用于对机器学习模型进行训练且包括:至少一个终端和服务器,其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在所述至少一个终端上运行,M为正整数,所述服务器被配置为:获取云端训练特征;利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整;所述至少一个终端中的每个终端被配置为:获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签,所述云端训练特征包括与所述至少一个终端训练样本一一对应的至少一个子云端训练特征;从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述终端上运行的端子模型的当前参数,其中,所述云端输出结果包括所述云输出;利用所述云输出、所述终端上运行的端子模型的当前参数和所述至少一个终端训练样本对所述终端上运行的端子模型进行训练,以得到所述终端上运行的端子模型输出的端梯度;输出所述终端上运行的端子模型输出的端梯度至所述服务器。
第五方面,根据本公开的一个或多个实施例,一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现根据本公开任一实施例所述的模型训练方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
对于本公开,还有以下几点需要说明:
(1)本公开实施例附图只涉及到与本公开实施例涉及到的结构,其他结构可参考通常设计。
(2)在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合以得到新的实施例。
以上所述仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,本公开的保护范围应以所述权利要求的保护范围为准。

Claims (20)

1.一种模型训练方法,应用于服务器且用于对机器学习模型进行训练,
其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在至少一个终端上运行,M为正整数,
所述模型训练方法包括:
获取云端训练特征;
利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;
发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;
接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;
基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;
利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整。
2.根据权利要求1所述的模型训练方法,其中,所述M个端子模型分别一一对应M个存储训练进度信息,
所述M个存储训练进度信息存储在所述服务器。
3.根据权利要求2所述的模型训练方法,还包括:
针对所述至少一个终端中的每个终端:
从所述终端接收在所述终端上运行的每个端子模型的当前训练进度信息;
基于所述当前训练进度信息调整所述每个端子模型对应的存储训练进度信息。
4.根据权利要求3所述的模型训练方法,其中,每个终端存储有用于训练在所述终端上运行的所有端子模型的训练样本集,所述训练样本集包括多个终端训练样本,每个终端训练样本包括终端训练特征和样本标签,
所述多个终端训练样本中的终端训练特征按顺序依次生成,且每个终端训练样本具有对应的训练进度标识,
在所述每个端子模型的当前训练进度信息表示所述训练样本集中的已经用于训练所述每个端子模型的所有终端训练样本中的最后生成的终端训练样本的训练进度标识。
5.根据权利要求1所述的模型训练方法,其中,所述至少一个终端包括第一终端,
其中,获取云端训练特征包括:
接收所述第一终端发出的训练请求,其中,所述第一终端发出的训练请求包括所述第一终端的标识信息;
基于所述第一终端发出的训练请求,获取至少一个第一子云端训练特征,
其中,所述云端训练特征包括所述至少一个第一子云端训练特征。
6.根据权利要求5所述的模型训练方法,其中,所述至少一个终端还包括第二终端,
其中,获取云端训练特征还包括:
接收所述第二终端发出的训练请求,其中,所述第二终端发出的训练请求包括所述第二终端的标识信息;
基于所述第二终端发出的训练请求,获取至少一个第二子云端训练特征;
对所述至少一个第一子云端训练特征、所述至少一个第二子云端训练特征进行合并处理,以得到所述云端训练特征。
7.根据权利要求6所述的模型训练方法,其中,所述第一终端发出的训练请求的时刻和所述第二终端发出的训练请求的时刻之间的时间差的绝对值处于时间差范围内。
8.根据权利要求1~7任一项所述的模型训练方法,其中,M大于1,所述M个端子模型包括第一端子模型和第二端子模型,所述至少一个终端包括第一终端和第二终端,所述第一端子模型在所述第一终端上运行,所述第二端子模型在所述第二终端上运行,
发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端,包括:
对所述云端输出结果进行拆分处理,以得到与所述第一端子模型对应的第一云输出和与所述第二端子模型对应的第二云输出;
获取所述第一端子模型的当前参数和所述第二端子模型的当前参数;
将所述第一云输出和所述第一端子模型的当前参数传输至所述第一终端;
将所述第二云输出和所述第二端子模型的当前参数传输至所述第二终端。
9.根据权利要求1~7任一项所述的模型训练方法,其中,所述M个端子模型包括第一端子模型和第三端子模型,所述至少一个终端包括第一终端,所述第一端子模型和所述第三端子模型均在所述第一终端上运行,
发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端,包括:
对所述云端输出结果进行拆分处理,以得到与所述第一端子模型对应的第一云输出和与所述第三端子模型对应的第三云输出;
获取所述第一端子模型的当前参数和所述第三端子模型的当前参数;
将所述第一云输出、所述第三云输出、所述第一端子模型的当前参数和所述第三端子模型的当前参数传输至所述第一终端。
10.根据权利要求1~7任一项所述的模型训练方法,其中,利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果,包括:
获取所述云子模型的当前参数,其中,所述云子模型的当前参数表示在获取所述云端训练特征时所述云子模型的参数;
利用所述云端训练特征对具有所述云子模型的当前参数的所述云子模型进行训练,以得到所述云子模型的云端输出结果。
11.根据权利要求1~7任一项所述的模型训练方法,其中,M大于1,N大于1,
基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度,包括:
对所述N个端子模型的云输出梯度进行合并处理以得到合并输出梯度;
基于所述合并输出梯度和所述云端输出结果计算得到所述云子模型的参数梯度。
12.根据权利要求1~7任一项所述的模型训练方法,其中,所述M个端子模型的输入与所述云子模型的输出匹配。
13.根据权利要求1~7任一项所述的模型训练方法,还包括:
接收每个终端发送的与由所述终端运行的端子模型对应的训练进度查询请求;
基于所述训练进度查询请求,获取与所述端子模型对应的存储训练进度信息;
输出所述存储训练进度信息至所述终端,以供所述终端基于所述存储训练进度信息进行样本筛选操作;
其中,响应于所述样本筛选操作得到至少一个终端训练样本,所述终端发送训练请求至所述服务器以进行模型训练。
14.一种模型训练方法,应用于第一终端且用于对机器学习模型进行训练,其中,所述机器学习模型包括云子模型和第一端子模型,所述云子模型在服务器上运行,所述第一端子模型在所述第一终端上运行,
其中,所述模型训练方法包括:
获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签;
基于所述至少一个终端训练样本,发送训练请求至所述服务器;
从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述第一端子模型的当前参数;
利用所述云输出、所述第一端子模型的当前参数和所述至少一个终端训练样本对所述第一端子模型进行训练,以得到所述第一端子模型输出的端梯度,其中,所述端梯度包括所述第一端子模型的参数梯度和云输出梯度;
输出所述端梯度至所述服务器,以使得所述服务器基于所述端梯度和所述云输出计算得到所述云子模型的参数梯度,并利用所述第一端子模型的参数梯度和所述云子模型的参数梯度,对所述第一端子模型的当前参数和所述云子模型的当前参数进行调整。
15.根据权利要求14所述的模型训练方法,其中,获取至少一个终端训练样本,包括:
发送训练进度查询请求至所述服务器;
从所述服务器接收所述第一端子模型对应的存储训练进度信息;
基于所述存储训练进度信息进行样本筛选操作;
响应于所述样本筛选操作得到K个终端训练样本,基于所述K个终端训练样本获取所述至少一个终端训练样本,其中,K为正整数。
16.根据权利要求14所述的模型训练方法,还包括:
基于所述至少一个终端训练样本,确定与所述第一端子模型对应的当前训练进度信息;
发送所述当前训练进度信息至所述服务器,以使得所述服务器将所述第一端子模型对应的存储训练进度信息更新为所述当前训练进度信息。
17.根据权利要求14~16任一项所述的模型训练方法,其中,所述云输出包括与所述至少一个终端训练样本一一对应的至少一个子云输出,
利用所述云输出、所述第一端子模型的当前参数和所述至少一个终端训练样本对所述第一端子模型进行训练,以得到所述第一端子模型输出的端梯度,包括:
针对所述至少一个终端训练样本中的每个终端训练样本:
利用具有所述第一端子模型的当前参数的所述第一端子模型对所述终端训练样本对应的子云输出和所述终端训练样本中的终端训练特征进行处理,以得到所述第一端子模型的输出;
基于所述第一端子模型的输出和所述终端训练样本中的样本标签,得到所述第一端子模型的损失值;
基于所述损失值和所述第一端子模型的输出,得到所述端梯度。
18.一种模型训练装置,包括:
一个或多个存储器,非瞬时性地存储有计算机可执行指令;
一个或多个处理器,配置为运行所述计算机可执行指令,
其中,所述计算机可执行指令被所述一个或多个处理器运行时实现根据权利要求1~17任一项所述的模型训练方法。
19.一种模型训练系统,用于对机器学习模型进行训练且包括:至少一个终端和服务器,
其中,所述机器学习模型包括云子模型和M个端子模型,所述云子模型在所述服务器上运行,所述M个端子模型在所述至少一个终端上运行,M为正整数,
所述服务器被配置为:
获取云端训练特征;
利用所述云端训练特征对所述云子模型进行训练,以得到所述云子模型的云端输出结果;
发送所述云端输出结果和所述M个端子模型的当前参数至所述至少一个终端;
接收所述至少一个终端输出的所述M个端子模型中的N个端子模型分别输出的端梯度,其中,N为正整数,且小于等于M,所述N个端子模型中的每个端子模型输出的端梯度包括所述端子模型的参数梯度和云输出梯度;
基于所述N个端子模型分别输出的端梯度和所述云端输出结果计算得到所述云子模型的参数梯度;
利用所述N个端子模型的参数梯度和所述云子模型的参数梯度,对所述N个端子模型的当前参数和所述云子模型的当前参数进行调整;
所述至少一个终端中的每个终端被配置为:
获取至少一个终端训练样本,其中,每个终端训练样本包括终端训练特征和样本标签,所述云端训练特征包括与所述至少一个终端训练样本一一对应的至少一个子云端训练特征;
从所述服务器接收与所述至少一个终端训练样本对应的云输出和所述终端上运行的端子模型的当前参数,其中,所述云端输出结果包括所述云输出;
利用所述云输出、所述终端上运行的端子模型的当前参数和所述至少一个终端训练样本对所述终端上运行的端子模型进行训练,以得到所述终端上运行的端子模型输出的端梯度;
输出所述终端上运行的端子模型输出的端梯度至所述服务器。
20.一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现根据权利要求1~17任一项所述的模型训练方法。
CN202211117189.3A 2022-09-14 2022-09-14 模型训练方法、装置以及系统和存储介质 Pending CN117744826A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211117189.3A CN117744826A (zh) 2022-09-14 2022-09-14 模型训练方法、装置以及系统和存储介质
PCT/CN2023/118478 WO2024055979A1 (zh) 2022-09-14 2023-09-13 模型训练方法、装置以及系统和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211117189.3A CN117744826A (zh) 2022-09-14 2022-09-14 模型训练方法、装置以及系统和存储介质

Publications (1)

Publication Number Publication Date
CN117744826A true CN117744826A (zh) 2024-03-22

Family

ID=90274295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211117189.3A Pending CN117744826A (zh) 2022-09-14 2022-09-14 模型训练方法、装置以及系统和存储介质

Country Status (2)

Country Link
CN (1) CN117744826A (zh)
WO (1) WO2024055979A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241580B (zh) * 2020-01-09 2022-08-09 广州大学 一种基于可信执行环境的联邦学习方法
CN111753997B (zh) * 2020-06-28 2021-08-27 北京百度网讯科技有限公司 分布式训练方法、系统、设备及存储介质
CN112446544B (zh) * 2020-12-01 2024-09-24 平安科技(深圳)有限公司 交通流预测模型训练方法、装置、电子设备及存储介质
CN114202018A (zh) * 2021-11-29 2022-03-18 新智我来网络科技有限公司 一种模块化的联合学习方法及系统
CN114530245A (zh) * 2022-02-25 2022-05-24 山东浪潮科学研究院有限公司 一种基于边缘计算和联邦学习的云边协调医疗系统

Also Published As

Publication number Publication date
WO2024055979A1 (zh) 2024-03-21

Similar Documents

Publication Publication Date Title
JP7454529B2 (ja) 分散型モデルトレーニング装置および方法、電子機器、記憶媒体、ならびに、コンピュータプログラム
CN110909521B (zh) 在线文档信息的同步处理方法、装置及电子设备
CN113177645A (zh) 联邦学习方法、装置、计算设备及存储介质
CN110781373B (zh) 榜单更新方法、装置、可读介质和电子设备
CN112434620B (zh) 场景文字识别方法、装置、设备和计算机可读介质
CN111246228B (zh) 直播间礼物资源更新方法、装置、介质及电子设备
CN114863214A (zh) 图像生成模型训练、图像生成方法、装置、介质及设备
CN116703131A (zh) 电力资源分配方法、装置、电子设备和计算机可读介质
CN115759444A (zh) 电力设备分配方法、装置、电子设备和计算机可读介质
WO2024188197A1 (zh) 虚拟资源的处理方法、装置、设备、存储介质和程序产品
CN110555861B (zh) 光流计算方法、装置及电子设备
CN117236805B (zh) 电力设备控制方法、装置、电子设备和计算机可读介质
CN112380883B (zh) 模型训练方法、机器翻译方法、装置、设备及存储介质
CN117241092A (zh) 一种视频处理方法、装置、存储介质及电子设备
CN115022328B (zh) 服务器集群以及服务器集群的测试方法、装置和电子设备
CN117744826A (zh) 模型训练方法、装置以及系统和存储介质
CN114697206B (zh) 物联网节点管理方法、装置、设备和计算机可读介质
CN111738415B (zh) 模型同步更新方法、装置及电子设备
CN111709784B (zh) 用于生成用户留存时间的方法、装置、设备和介质
CN111625692B (zh) 特征抽取方法、装置、电子设备和计算机可读介质
CN114139731A (zh) 纵向联邦学习建模优化方法、设备、介质及程序产品
CN114510911A (zh) 文本处理方法、装置、计算机设备及存储介质
CN113887995A (zh) 电力项目信息展示方法、装置、设备和计算机可读介质
CN114723890B (zh) 虚拟对象的生成方法、装置、可读介质和电子设备
CN112328340B (zh) 模型流程显示方法,装置,电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination