CN116911403A - 联邦学习的服务器和客户端的一体化训练方法及相关设备 - Google Patents

联邦学习的服务器和客户端的一体化训练方法及相关设备 Download PDF

Info

Publication number
CN116911403A
CN116911403A CN202310664947.1A CN202310664947A CN116911403A CN 116911403 A CN116911403 A CN 116911403A CN 202310664947 A CN202310664947 A CN 202310664947A CN 116911403 A CN116911403 A CN 116911403A
Authority
CN
China
Prior art keywords
model
current
local
global
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310664947.1A
Other languages
English (en)
Other versions
CN116911403B (zh
Inventor
薛哲
臧煜
邵旭
杜军平
梁美玉
吴俊江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Youke Journal Publishing Beijing Co ltd
Beijing University of Posts and Telecommunications
Original Assignee
Youke Journal Publishing Beijing Co ltd
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Youke Journal Publishing Beijing Co ltd, Beijing University of Posts and Telecommunications filed Critical Youke Journal Publishing Beijing Co ltd
Priority to CN202310664947.1A priority Critical patent/CN116911403B/zh
Publication of CN116911403A publication Critical patent/CN116911403A/zh
Application granted granted Critical
Publication of CN116911403B publication Critical patent/CN116911403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer And Data Communications (AREA)

Abstract

本申请提供一种联邦学习的服务器和客户端的一体化训练方法及相关设备,所述方法包括对全局模型进行多轮迭代训练,其中,对于多轮迭代训练中的每一轮迭代执行如下操作,直至全局模型满足预设收敛条件为止,得到训练完成的全局模型:确定全局模型是否满足收敛条件,若不满足,服务器确定并随机发送当前全局模型参数和当前全局校正因子至多个客户端中的部分客户端;部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将局部模型的参数发送至服务器;服务器分别对当前全局模型参数和当前全局校正因子进行更新,解决了现有技术中联邦学习的通信效率低的技术问题,达到了对服务器和客户端一体化进行训练的目的。

Description

联邦学习的服务器和客户端的一体化训练方法及相关设备
技术领域
本申请涉及数据处理技术领域,尤其涉及一种联邦学习的服务器和客户端的一体化训练方法及相关设备。
背景技术
随着工业物联网的发展,产生的数据越来越多,机器学习通过数据收集和模型训练可以有效地利用数据,从而指导工业实践。但上述部分数据具有保密需求,例如,智能家居使用数据、医疗数据等。因此,联邦学习作为一种具有隐私保护基本目标的方法应运而生。联邦学习的基本学习过程如下:客户端接收服务器发送的全局模型的参数,基于全局模型的参数,每个客户端根据本地数据集训练局部模型,将局部模型的参数上传至服务器;服务器利用每个局部模型的参数对全局模型进行训练,并将全局模型的参数发送至每个客户端,不断迭代上述过程,直至全局模型收敛为止。
然而,由于客户端的本地数据集通常不是独立同分布数据,训练轮次的增多容易导致局部模型的参数偏离全局模型的参数,这也被称为客户端漂移。客户端漂移通常导致全局模型收敛缓慢,全局模型在服务器上的学习性能较差,从而需要较多客户端与服务器之间进行大量通信来使全局模型收敛。
发明内容
有鉴于此,本申请的目的在于提出一种联邦学习的服务器和客户端的一体化训练方法及相关设备,以克服现有技术中全部或部分不足。
基于上述目的,本申请提供了一种联邦学习的服务器和客户端的一体化训练方法,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,所述方法包括:对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型:确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端;基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器;基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
可选地,在对所述全局模型进行多轮迭代训练之前,所述方法还包括:所述服务器对所述全局模型进行参数初始化。
可选地,所述基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,包括:基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子;基于每个当前局部校正因子、所述当前全局模型参数和所述本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行预定步数的训练。
可选地,所述基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子,包括:所述部分客户端中的每个客户端通过以下公式确定与其关联的当前局部校正因子:其中,/>为第i个客户端的当前局部校正因子,/>为第i个客户端的当前全局校正因子,/>为第i个客户端在前轮迭代训练中的第K步的模型梯度,K为所述预定步数,ηl为所述部分客户端中的每个客户端的局部学习率,mt为所述当前全局校正因子,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量。
可选地,确定所述局部模型的参数,包括:部分客户端中的每个客户端通过以下公式确定所述局部模型的参数:其中,/>为第i个客户端在第k+1步的局部模型的参数,/>为第i个客户端在第k步的局部模型的参数,ηl为所述部分客户端中的每个客户端的局部学习率,/>为第i个客户端在当前轮迭代训练中的第k步的模型梯度,γ为调节校正因子的超参数,/>为第i个客户端的当前局部校正因子,t为当前迭代训练轮次,k+1≤K,k为当前步数,K为预定步数,i≤S,S为所述部分客户端的总数量。
可选地,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局模型参数进行更新,包括:所述服务器通过以下公式对所述当前全局模型参数进行更新:xt+1=xt2mt+(1+β)ηgg(xt),其中,xt+1为所述更新后的全局模型参数,xt为所述当前全局模型参数,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
可选地,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局校正因子进行更新,包括:所述服务器通过以下公式对所述全局校正因子进行更新:mt+1=βmtgg(xt),其中,mt+1为所述更新后的全局校正因子,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的数量集合,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
基于同一发明构思,本申请还提供了一种联邦学习的服务器和客户端的一体化训练装置,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,所述装置包括:第一训练模块,被配置为对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型:确定模块,被配置为确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端;第二训练模块,被配置为基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器;更新模块,被配置为基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
基于同一发明构思,本申请还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如上所述的方法。
基于同一发明构思,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行如上所述的方法。
从上面所述可以看出,本申请提供的联邦学习的服务器和客户端的一体化训练方法及相关设备,所述方法包括对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型,进而可以得到具有最优精度的全局模型,使得全局模型达到预期的预测效果。确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端,无需将上述数据发送至全部客户端,提高了服务器与客户端的通信效率。基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器,在保护客户端中的本地数据集隐私的前提下,加快全局模型的收敛速度。基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新,实现快速对全局模型进行聚合的目的,也使全局校正因子保持良好的前瞻性,总是能够为全局模型的更新方向提供引导,进而提高了服务器与客户端的通信效率。
附图说明
为了更清楚地说明本申请或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的联邦学习的服务器和客户端的一体化训练方法的流程示意图;
图2为本申请实施例的不同客户端数量对全局模型训练影响的示意图;
图3为本申请实施例的联邦学习的服务器和客户端的一体化训练装置的结构示意图;
图4为本申请实施例电子设备硬件结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如背景技术部分所述,随着工业物联网的发展,产生的数据越来越多,由于数据通常不是独立同分布数据,训练轮次的增多容易导致局部模型的参数偏离全局模型的参数,这也被称为客户端漂移。现有技术中,首先,在缓解客户端漂移方面,仅在客户端训练期间进行改进,并在服务器使用简单的加权平均聚合算法,无法有效地聚合全局模型。因此,这些方法在训练的早期阶段往往导致全局模型收敛缓慢,导致通信效率低。其次,在加速服务器聚合方面,没有考虑客户端漂移对局部模型训练的影响。即使服务器能够在全局模型训练的早期阶段快速聚合高质量全局模型,但是,全局模型参数在训练的后期会有较大的波动,从而限制了模型的准确性。最后,服务器聚合和客户端更新在联邦学习中是相互补充且不可分割的,现有方法没有将缓解客户端漂移和加速服务器聚合这两个方面结合到统一的框架中,通常只关注其中一个方面,而忽视另一个方面,限制了整体通信效率。
有鉴于此,本申请实施例提出了一种联邦学习的服务器和客户端的一体化训练方法,参考图1,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,包括以下步骤:
步骤101,对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型。
在该步骤中,全局模型需要进行多轮迭代训练,每一轮迭代训练过程中都具有需要执行的相应动作,直至全局模型满足预设收敛条件为止,停止执行上述相应动作,进而可以得到具有最优精度的全局模型,使得训练完成的全局模型达到预期的预测效果,其中,预设收敛条件可以根据历史经验设置。
步骤102,确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端。
在该步骤中,在全局模型未收敛的时候,需要对全局模型进行训练,在全局模型的每轮迭代训练过程中,服务器都需在多个客户端中随机挑选部分客户端发送当前全局模型参数和当前全局校正因子,无需将上述数据发送至全部客户端,既提高了服务器与客户端的通信效率,也满足了全局模型在后续训练过程中能学习到客户端的本地数据集中的数据特征信息。在服务器首次将上述数据发送至部分客户端时,当前全局校正因子为零,全局校正因子具有在每一轮更新中为全局模型提供前瞻性视角,为全局模型的更新方向提供引导,以达到使得全局模型快速聚合的目的。
步骤103,基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器。
在该步骤中,每个客户端的本地数据集是不相同的,每个客户端无需将本地数据集与其他客户端共享,保护了每个客户端的本地数据集的隐私,其中,本地数据集为需要保密的数据,示例性的,本地数据集可以为智能家居使用数据或医疗数据。部分客户端中的每个客户端将局部模型中的参数替换为当前全局模型参数,使得每个客户端在不与其他客户端进行数据集交换的情况下,也能学习到其他客户端数据集中的数据特征信息。并且当前全局校正因子具有修正客户端中的局部模型的训练方向的作用,使客户端中的局部模型能够快速向全局最优更新,进而有效地训练出高质量的局部模型。部分客户端中的每个客户端对与其关联的局部模型本轮训练完成后,得到训练后的局部模型参数,局部模型参数在本轮训练中进一步学习到了与其关联的客户端的本地数据集中的数据特征信息。且在局部模型的训练过程中也有当前全局校正因子的参与,为局部模型修正训练方向,使得局部模型在相对少的步数训练过程中,可以学习到较多的本地数据集中的数据特征信息,缩短了局部模型的训练时间。部分客户端中的每个客户端将训练后的局部模型参数发送至服务器,以便后续服务器中的全局模型能学习到多个客户端中的数据特征信息,进而在保护客户端中的本地数据集隐私的前提下,加快全局模型的收敛速度。
步骤104,基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
在该步骤中,在全局模型未收敛前,服务器需基于本轮迭代训练中客户端发送的局部模型的参数更新全局模型,继而实现对全局模型的参数的更新,达到了对服务器和客户端一体化进行训练的目的。同时,在更新全局模型的过程中,还需当前全局校正因子为全局模型的更新方向提供引导,进而实现快速对全局模型进行聚合的目的,使得全局模型具有鲁棒性。全局校正因子也需基于本轮训练中的局部模型参数进行更新,以便使全局校正因子保持良好的前瞻性,总是能够为全局模型的更新方向提供引导,进而提高了服务器与客户端的通信效率。
需要说明的是,训练完成的全局模型可以应用于智能家居场景。示例性的,在应用于智能家居场景时,用户希望自己的智能家居使用数据保密,但厂家又希望获取多个用户的智能家居使用数据,以对智能家居进行改进,针对上述冲突,可以采用联邦学习系统解决,代表用户的客户端基于接收的全局模型参数和全局校正因子在本地训练局部模型,全局模型的训练过程无需获取客户端的本地数据集,只需服务器接收客户端的局部模型参数,进而基于局部模型参数和全局校正因子,训练全局模型,进而厂家可以利用训练完成的全局模型对智能家居进行改进。训练完成的全局模型还可以应用于医疗场景。示例性的,在应用于医疗场景时,用户希望自己的医疗数据保密,但工程师又希望获取多个用户的医疗数据,以对疾病进行预测,针对上述冲突,可以采用联邦学习系统解决,代表用户的客户端基于接收的全局模型参数和全局校正因子在本地训练局部模型,全局模型的训练过程无需获取客户端的本地数据集,只需服务器接收客户端的局部模型参数,进而基于局部模型参数和全局校正因子,训练全局模型,进而工程师可以利用训练完成的全局模型对疾病进行预测。此外,可以想到的,训练完成的全局模型还可以应用于其他有对数据进行保密的情况,此处不再一一列举。
通过上述方案,对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型,进而可以得到具有最优精度的全局模型,使得全局模型达到预期的预测效果。确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端,无需将上述数据发送至全部客户端,提高了服务器与客户端的通信效率。基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器,在保护客户端中的本地数据集隐私的前提下,加快全局模型的收敛速度。基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新,实现快速对全局模型进行聚合的目的,也使全局校正因子保持良好的前瞻性,总是能够为全局模型的更新方向提供引导,进而提高了服务器与客户端的通信效率。
在一些实施例中,在对所述全局模型进行多轮迭代训练之前,所述方法还包括:所述服务器对所述全局模型进行参数初始化。
在本实施例中,在对全局模型进行多轮迭代训练之前,服务器需对全局模型进行初始处理,即将全局模型参数初始化为预设值,其中,预设值为根据经验值设定的,有利于提升全局模型收敛速度的值。
在一些实施例中,所述基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,包括:基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子;基于每个当前局部校正因子、所述当前全局模型参数和所述本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行预定步数的训练。
在本实施例中,如果只在服务器的全局模型更新中使用全局校正因子,无法解决由于客户端的本地数据集的非独立同分布而导致的客户端漂移问题,可能导致全局模型振荡和准确性降低。因此,也需要在客户端的局部模型更新中使用局部校正因子,以解决客户端漂移的问题。在训练局部模型之前,部分客户端中的每个客户端基于全局校正因子计算局部校正因子,有助于减轻局部模型收敛到局部最优解的趋势,使得局部模型的参数不偏离全局模型的参数。基于每个当前局部校正因子、当前全局模型参数和本地数据集,部分客户端中的每个客户端对局部模型进行预定步数的训练,局部模型能够快速向全局最优更新,并有效地训练出高质量的局部模型。需要说明说的是,部分客户端中的每个客户端对局部模型只需进行预定步数的训练,不用训练至收敛,这是因为,局部校正因子为局部模型的更新提供方向指引,使得局部模型在训练相对少的步数的情况下,也能学习到本地数据集中的相对多的数据特征信息。此外,服务器需要与客户端进行多轮通信,服务器中的全局模型不断学习客户端数据集的数据特征信息,全局模型可能在局部模型未收敛的时候就已经满足预设收敛条件,进而结束服务器与客户端的通信过程,从而节约了客户端训练局部模型所需的大量计算资源,也提高了服务器与客户端的通信效率。
在一些实施例中,所述基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子,包括:所述部分客户端中的每个客户端通过以下公式确定与其关联的当前局部校正因子: 其中,/>为第i个客户端的当前局部校正因子,/>为第i个客户端的当前全局校正因子,/>为第i个客户端在前轮迭代训练中的第K步的模型梯度,K为所述预定步数,ηl为所述部分客户端中的每个客户端的局部学习率,mt为所述当前全局校正因子,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量。
在本实施例中,服务器将当前全局校正因子和当前全局模型参数发送给随机选择的部分客户端。学习率控制模型中更新参数的幅度,其中,学习率包括局部学习率和全局学习率,局部学习率和全局学习率并不相同,可以根据实际情况对学习率进行设置。基于预定步数和局部学习率,部分客户端中的每个客户端对接收到的当前全局校正因子进行修正,以得到适用于局部模型的全局校正因子,进而使得后续可以得到更加优化的训练完成的局部模型。局部校正因子在局部模型训练过程中有助于减轻收敛到局部最优解的趋势,局部校正因子结合了修正后的全局校正因子和客户端的模型梯度,其主要作用是为客户端中的局部模型提供全局优化方向的前瞻性,使客户端中的局部模型能够快速向全局最优更新,并有效地训练出高质量的局部模型,而不是偏向局部最优的局部模型。
在一些实施例中,确定所述局部模型的参数,包括:部分客户端中的每个客户端通过以下公式确定所述局部模型的参数:其中,/>为第i个客户端在第k+1步的局部模型的参数,/>为第i个客户端在第k步的局部模型的参数,ηl为所述部分客户端中的每个客户端的局部学习率,/>为第i个客户端在当前轮迭代训练中的第k步的模型梯度,γ为调节校正因子的超参数,/>为第i个客户端的当前局部校正因子,t为当前迭代训练轮次,k+1≤K,k为当前步数,K为预定步数,i≤S,S为所述部分客户端的总数量。
在本实施例中,客户端使用局部校正因子来修正客户端的优化方向,基于每个当前局部校正因子、当前全局模型参数和本地数据集,部分客户端中的每个客户端对与其关联的局部模型进行预定步数的训练,避免局部模型陷入局部最优,并朝向全局最优进行优化,提高了局部模型训练的质量,有助于减轻客户端漂移问题,使模型收敛到全局最优解,并更快地训练出高质量的模型。在局部模型的训练过程中需利用调节校正因子的超参数调节局部校正因子,以保持局部校正因子在每步训练过程中的准确性。
在一些实施例中,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局模型参数进行更新,包括:所述服务器通过以下公式对所述当前全局模型参数进行更新:xt+1=xt2mt+(1+β)ηgg(xt),其中,xt+1为所述更新后的全局模型参数,xt为所述当前全局模型参数,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
在本实施例中,如果只在客户端更新中使用局部校正因子,会导致全局模型的准确性较低,进而导致在训练的前期迭代训练过程中局部校正因子不起作用,从而导致训练速度较慢和学习效率较低。因此,需要在服务器的全局模型更新中也使用全局校正因子,以对全局模型进行高效训练。基于部分客户端中的局部模型的参数和当前全局校正因子,服务器对当前全局模型参数进行更新,全局模型的参数更新过程无需获取客户端的本地数据集,保护了客户端的本地数据集的隐私。全局校正因子也为全局模型的参数更新提供了方向指引,使得全局模型的训练准确度较高。通过传递客户端和服务器中的模型参数,有效地最大化通信效率,减少局部和全局最优解之间发散的风险,实现全局模型的快速收敛,从而提高联邦学习的通信效率。
在一些实施例中,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局校正因子进行更新,包括:所述服务器通过以下公式对所述全局校正因子进行更新:mt+1=βmtgg(xt),其中,mt+1为所述更新后的全局校正因子,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的数量集合,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
在本实施例中,为了提高聚合速度并实现更快的收敛,提出了全局校正因子,它利用了历史梯度动量和前瞻梯度信息,加速了服务器中的全局模型聚合。全局校正因子有助于校正模型参数,获得更新模型参数的近似位置。服务器梯度是通过聚合当前通信轮中从选定客户端接收到的模型参数进行计算的。最后,服务器通过将历史动量方向和服务器梯度相结合来更新模型参数,上述更新过程由全局学习率和动量超参数控制。
在本申请的另一实施例中,在联邦学习中,不同应用程序中的客户端总数可能会有所不同,由于网络问题,客户端可能不会在每一轮中参与通信。为了研究客户端数量对全局模型训练的影响,在CIFAR-10数据集上进行了不同客户端数量和比例的客户端采样实验,结果如图2所示,其中,通信轮次设为100,FedPcf为本申请中的全局模型训练方法简称,实际参与通信的客户数是总客户数N和比例C的乘积。结果显示,基于相对少的客户端进行训练会降低全局模型的性能,这是因为,训练数据相对少,导致全局模型不能学习到相对多的数据特征信息。此外,当总客户端数量较大时,其他训练方法的准确性也都较低,这是因为,本地数据集变得更加分散,局部模型训练变得更加困难。而FedPcf在所有情况下都获得了最高的准确性,进而证明对客户端采样的鲁棒性和高效通信。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种联邦学习的服务器和客户端的一体化训练装置。
参考图3,所述联邦学习的服务器和客户端的一体化训练装置,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,包括:
第一训练模块10,被配置为对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型。
确定模块20,被配置为确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端。
第二训练模块30,被配置为基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器。
更新模块40,被配置为基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
通过上述装置,对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型,进而可以得到具有最优精度的全局模型,使得全局模型达到预期的预测效果。确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端,无需将上述数据发送至全部客户端,提高了服务器与客户端的通信效率。基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器,在保护客户端中的本地数据集隐私的前提下,加快全局模型的收敛速度。基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新,实现快速对全局模型进行聚合的目的,也使全局校正因子保持良好的前瞻性,总是能够为全局模型的更新方向提供引导。
在一些实施例中,还包括参数初始化模块,所述参数初始化模块还被配置为在对所述全局模型进行多轮迭代训练之前,所述服务器对所述全局模型进行参数初始化。
在一些实施例中,所述第二训练模块30,还被配置为基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子;基于每个当前局部校正因子、所述当前全局模型参数和所述本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行预定步数的训练。
在一些实施例中,所述第二训练模块30,还被配置为所述部分客户端中的每个客户端通过以下公式确定与其关联的当前局部校正因子: 其中,/>为第i个客户端的当前局部校正因子,/>为第i个客户端的当前全局校正因子,为第i个客户端在前轮迭代训练中的第K步的模型梯度,K为所述预定步数,ηl为所述部分客户端中的每个客户端的局部学习率,mt为所述当前全局校正因子,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量。
在一些实施例中,所述第二训练模块30,还被配置为部分客户端中的每个客户端通过以下公式确定所述局部模型的参数:其中,/>为第i个客户端在第k+1步的局部模型的参数,/>为第i个客户端在第k步的局部模型的参数,ηl为所述部分客户端中的每个客户端的局部学习率,/>为第i个客户端在当前轮迭代训练中的第k步的模型梯度,γ为调节校正因子的超参数,/>为第i个客户端的当前局部校正因子,t为当前迭代训练轮次,k+1≤K,k为当前步数,K为预定步数,i≤S,S为所述部分客户端的总数量。
在一些实施例中,所述更新模块40,还被配置为所述服务器通过以下公式对所述当前全局模型参数进行更新:xt+1=xt2mt+(1+β)ηgg(xt),其中,xt +1为所述更新后的全局模型参数,xt为所述当前全局模型参数,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
在一些实施例中,所述更新模块40,还被配置为所述服务器通过以下公式对所述全局校正因子进行更新:mt+1=βmtgg(xt),其中,mt+1为所述更新后的全局校正因子,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的数量集合,/>表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的联邦学习的服务器和客户端的一体化训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的联邦学习的服务器和客户端的一体化训练方法。
图4示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入/输出模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的联邦学习的服务器和客户端的一体化训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的联邦学习的服务器和客户端的一体化训练方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的联邦学习的服务器和客户端的一体化训练方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种联邦学习的服务器和客户端的一体化训练方法,其特征在于,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,所述方法包括:
对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型:
确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端;
基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器;
基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
2.根据权利要求1所述的方法,其特征在于,在对所述全局模型进行多轮迭代训练之前,所述方法还包括:
所述服务器对所述全局模型进行参数初始化。
3.根据权利要求1所述的方法,其特征在于,所述基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,包括:
基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子;
基于每个当前局部校正因子、所述当前全局模型参数和所述本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行预定步数的训练。
4.根据权利要求3所述的方法,其特征在于,所述基于所述当前全局校正因子,所述部分客户端中的每个客户端确定与其关联的当前局部校正因子,包括:
所述部分客户端中的每个客户端通过以下公式确定与其关联的当前局部校正因子:
其中,为第i个客户端的当前局部校正因子,/>为第i个客户端的当前全局校正因子,为第i个客户端在前轮迭代训练中的第K步的模型梯度,K为所述预定步数,ηl为所述部分客户端中的每个客户端的局部学习率,mt为所述当前全局校正因子,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量。
5.根据权利要求1所述的方法,其特征在于,确定所述局部模型的参数,包括:
部分客户端中的每个客户端通过以下公式确定所述局部模型的参数:
其中,为第i个客户端在第k+1步的局部模型的参数,/>为第i个客户端在第k步的局部模型的参数,ηl为所述部分客户端中的每个客户端的局部学习率,/>为第i个客户端在当前轮迭代训练中的第k步的模型梯度,γ为调节校正因子的超参数,hi t为第i个客户端的当前局部校正因子,t为当前迭代训练轮次,k+1≤K,k为当前步数,K为预定步数,i≤S,S为所述部分客户端的总数量。
6.根据权利要求1所述的方法,其特征在于,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局模型参数进行更新,包括:
所述服务器通过以下公式对所述当前全局模型参数进行更新:
其中,xt+1为所述更新后的全局模型参数,xt为所述当前全局模型参数,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的总数量,表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
7.根据权利要求1所述的方法,其特征在于,基于所述部分客户端中的局部模型的参数和所述当前全局校正因子,所述服务器对所述当前全局校正因子进行更新,包括:
所述服务器通过以下公式对所述全局校正因子进行更新:
其中,mt+1为所述更新后的全局校正因子,β为所述服务器的动量超参数,mt为所述当前全局校正因子,ηg为所述服务器的全局学习率,g(xt)为当前服务器梯度,t为当前迭代训练轮次,i≤S,S为所述部分客户端的数量集合,表示第i个客户端在当前轮迭代训练中的第K步的局部模型的参数,K为预定步数。
8.一种联邦学习的服务器和客户端的一体化训练装置,其特征在于,应用于联邦学习系统,所述联邦学习系统包括服务器和多个客户端,所述服务器中部署全局模型,每个客户端中部署一个局部模型,所述装置包括:
第一训练模块,被配置为对所述全局模型进行多轮迭代训练,其中,对于所述多轮迭代训练中的每一轮迭代执行如下操作,直至所述全局模型满足预设收敛条件为止,得到训练完成的全局模型:
确定模块,被配置为确定所述全局模型是否满足所述收敛条件,若不满足,所述服务器确定并随机发送当前全局模型参数和当前全局校正因子至所述多个客户端中的部分客户端;
第二训练模块,被配置为基于所述当前全局模型参数、所述当前全局校正因子和与所述部分客户端中的每个客户端相关联的本地数据集,所述部分客户端中的每个客户端对与其关联的局部模型进行训练,以确定训练后的局部模型的参数,并将所述局部模型的参数发送至所述服务器;
更新模块,被配置为基于所述部分客户端的局部模型的参数和所述当前全局校正因子,所述服务器分别对所述当前全局模型参数和所述当前全局校正因子进行更新。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任意一项所述的方法。
10.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,其特征在于,所述计算机指令用于使计算机执行权利要求1至7任一所述方法。
CN202310664947.1A 2023-06-06 2023-06-06 联邦学习的服务器和客户端的一体化训练方法及相关设备 Active CN116911403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310664947.1A CN116911403B (zh) 2023-06-06 2023-06-06 联邦学习的服务器和客户端的一体化训练方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310664947.1A CN116911403B (zh) 2023-06-06 2023-06-06 联邦学习的服务器和客户端的一体化训练方法及相关设备

Publications (2)

Publication Number Publication Date
CN116911403A true CN116911403A (zh) 2023-10-20
CN116911403B CN116911403B (zh) 2024-04-26

Family

ID=88351859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310664947.1A Active CN116911403B (zh) 2023-06-06 2023-06-06 联邦学习的服务器和客户端的一体化训练方法及相关设备

Country Status (1)

Country Link
CN (1) CN116911403B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011599A (zh) * 2021-03-23 2021-06-22 上海嗨普智能信息科技股份有限公司 基于异构数据的联邦学习系统
CN113139662A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦学习的全局及局部梯度处理方法、装置、设备和介质
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、系统及存储介质
CN114627202A (zh) * 2022-03-04 2022-06-14 哈尔滨工业大学(深圳) 一种基于特异性联邦学习的模型训练方法及装置
CN115374853A (zh) * 2022-08-22 2022-11-22 复旦大学 基于T-Step聚合算法的异步联邦学习方法及系统
CN115470932A (zh) * 2022-09-06 2022-12-13 哈尔滨理工大学 基于强化学习的联邦学习客户端智能选择方法
CN115660115A (zh) * 2022-11-11 2023-01-31 中国银联股份有限公司 一种联邦学习模型训练方法、装置、设备及存储介质
US20230090616A1 (en) * 2021-09-15 2023-03-23 Kabushiki Kaisha Toshiba Learning system, apparatus and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011599A (zh) * 2021-03-23 2021-06-22 上海嗨普智能信息科技股份有限公司 基于异构数据的联邦学习系统
CN113139662A (zh) * 2021-04-23 2021-07-20 深圳市大数据研究院 联邦学习的全局及局部梯度处理方法、装置、设备和介质
CN113435604A (zh) * 2021-06-16 2021-09-24 清华大学 一种联邦学习优化方法及装置
US20230090616A1 (en) * 2021-09-15 2023-03-23 Kabushiki Kaisha Toshiba Learning system, apparatus and method
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、系统及存储介质
CN114627202A (zh) * 2022-03-04 2022-06-14 哈尔滨工业大学(深圳) 一种基于特异性联邦学习的模型训练方法及装置
CN115374853A (zh) * 2022-08-22 2022-11-22 复旦大学 基于T-Step聚合算法的异步联邦学习方法及系统
CN115470932A (zh) * 2022-09-06 2022-12-13 哈尔滨理工大学 基于强化学习的联邦学习客户端智能选择方法
CN115660115A (zh) * 2022-11-11 2023-01-31 中国银联股份有限公司 一种联邦学习模型训练方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EMRE OZFATURA, ETAL.: "FedADC:Accelerated Federated Learning with Drift Control", 2021 IEEE ISIT, 1 September 2021 (2021-09-01) *
叶进等: "一种面向智联网的高效联邦学习算法", 计算机工程, vol. 49, no. 12, 25 April 2023 (2023-04-25), pages 243 - 261 *

Also Published As

Publication number Publication date
CN116911403B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
US10963783B2 (en) Technologies for optimized machine learning training
US8904149B2 (en) Parallelization of online learning algorithms
CN108733508B (zh) 用于控制数据备份的方法和系统
AU2020368222B2 (en) Adding adversarial robustness to trained machine learning models
CN107886198B (zh) 一种风控决策临界值的确定方法及装置
CN114330125A (zh) 基于知识蒸馏的联合学习训练方法、装置、设备及介质
CN112084017B (zh) 一种内存管理方法、装置、电子设备及存储介质
JP2021034060A (ja) ニューラルネットワークモデルの学習及び適用方法、装置、システム及び記憶媒体
WO2024099109A1 (zh) 一种联邦学习模型训练方法、装置、设备及存储介质
CN117010484B (zh) 基于注意力机制的个性化联邦学习泛化方法、设备、应用
CN116911403B (zh) 联邦学习的服务器和客户端的一体化训练方法及相关设备
CN115098262B (zh) 一种多神经网络任务处理方法及装置
CN115577798A (zh) 基于随机加速梯度下降的半联邦学习方法及装置
JP2020003860A (ja) 学習システム、処理装置、処理方法、およびプログラム
CN115082821A (zh) 过渡帧的生成方法、装置、电子设备及存储介质
CN115374954A (zh) 一种基于联邦学习的模型训练方法、终端以及存储介质
TW202219750A (zh) 機器學習模型訓練方法、電子設備、控制器及存儲介質
CN114758130A (zh) 图像处理及模型训练方法、装置、设备和存储介质
CN114638998A (zh) 模型更新方法、装置、系统及设备
CN114528893A (zh) 机器学习模型训练方法、电子设备及存储介质
CN113313248A (zh) 一种共享自适应度优化方法及装置
JP2020198135A (ja) ハイパーパラメータチューニング方法、装置及びプログラム
Kang et al. Particles resampling scheme using regularized optimal transport for sequential Monte Carlo filters
CN110738476A (zh) 一种样本迁移方法、装置及设备
CN115190021B (zh) 面向确定性时延业务的切片部署方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant