CN116629305A - 基于粒子群算法的联邦学习优化方法及装置 - Google Patents

基于粒子群算法的联邦学习优化方法及装置 Download PDF

Info

Publication number
CN116629305A
CN116629305A CN202310583573.0A CN202310583573A CN116629305A CN 116629305 A CN116629305 A CN 116629305A CN 202310583573 A CN202310583573 A CN 202310583573A CN 116629305 A CN116629305 A CN 116629305A
Authority
CN
China
Prior art keywords
model
parameters
client
global
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310583573.0A
Other languages
English (en)
Inventor
陈淑红
揭智勇
王国军
杨家维
吴建明
李汉俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN202310583573.0A priority Critical patent/CN116629305A/zh
Publication of CN116629305A publication Critical patent/CN116629305A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明提供了一种基于粒子群算法的联邦学习优化方法及装置,其中,方法包括:服务器根据场景确定全局模型的目标需求,初始化全局模型,并将全局模型广播给参与联邦学习的客户端;参与联邦学习的客户端采用粒子群优化算法对所述全局模型进行改进后得到模型更新参数;采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;将压缩后的模型更新参数上传至服务器,服务器在此基础上聚合参与联邦学习的客户端模型参数,基于参与联邦学习的客户端进行训练所用的数据集容量进行赋权,并聚合得到新的全局模型参数。本申请通过客户端模型采用粒子群优化算法,提高联邦学习的训练效率,优化联邦学习通信过程。

Description

基于粒子群算法的联邦学习优化方法及装置
技术领域
本文件涉及联邦学习技术领域,尤其涉及一种基于粒子群算法的联邦学习优化方法及装置。
背景技术
联邦学习是一种分布式机器学习框架,旨在数据不离开本地客户端的情况下共同训练一个可用公有模型,其训练的模型精确度能与集中式学习训练出的模型精确度相近,同时拥有天然的隐私保护特性,在客户端和服务器的数据传输过程中只涉及客户端的模型参数,而数据保存在本地,确保数据隐私不会泄露。联邦学习技术通过在多个设备之间共享虚拟数据集和模型,来实现模型训练。在这个技术中,每个设备只需要存储和处理自己收集的数据,然后通过加密技术将数据上传到云端。在云端,虚拟数据集和模型被创建,并在多个设备之间共享,每个设备只需要将本地数据与虚拟数据集和模型进行交互,以更新本地模型,最终多个设备之间的模型训练可以合并成一个全局的模型,并且数据隐私得到了保护。
在联邦学习中,存在异构性和通信开销两个问题。异构性指的是参与联邦学习的设备或数据中心具有不同的硬件、软件和网络配置,导致训练过程缓慢或难以优化,同时由于在现实场景中,各个客户端处于不同的位置或环境,所拥有的数据集分布不一致,导致联邦学习收集和聚合更新的模型精确度下降,而通信开销则是指多个设备之间进行数据交换所需的计算和传输成本,联邦学习中的设备可以是本地设备、云端服务器或者分布式设备,它们之间需要进行数据同步和模型训练。由于每个设备的数据量和计算能力不同,因此不同设备之间的通信开销也会不同,联邦学习中的设备需要相互交换数据进行模型训练,而不同设备之间的数据量和传输速度也会影响训练效率和质量。
现有的技术基本分为下述三类:联邦学习中解决数据异构性的方案、优化联邦学习训练过程的方案、基于仿生优化算法的联邦学习技术。
上述方案中存在下述缺点:
联邦学习需要客户端与服务器进行多次通信交换模型参数,传统联邦学习方案对于规模大或是数据量大的场景下所产生的通信代价高,模型参数随着训练迭代次数变大,无法在有限的计算资源中完成通信传输,训练的模型效果差。对于数据分布不平衡的客户端,训练所耗时间长,影响全局模型的训练效率,当客户端计算资源有限时,需要更长的时间更新模型,延长整体框架的迭代时间。联邦学习聚合模型参数接收了大量的模型参数,在不稳定的网络环境下,模型精确度会显著降低,无法在本地得到更好的模型参数进行上传。
发明内容
本发明实施例提供了一种基于粒子群算法的联邦学习优化方法及装置,旨在解决上述问题。
本发明实施例提供了一种基于粒子群算法的联邦学习优化方法,包括:
S1、服务器根据场景确定全局模型的目标需求,初始化全局模型,并将所述全局模型广播给参与联邦学习的客户端;
S2、参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对全局模型进行改进后得到模型更新参数;
S3、采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;
S4、将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
本发明实施例提供了一种基于粒子群算法的联邦学习优化装置,包括:
广播模块,用于服务器根据场景确定全局模型的目标需求,初始化全局模型,并将全局模型广播给参与联邦学习的客户端;
参数更新模块,用于将参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对全局模型进行改进后得到模型更新参数;
参数压缩模块,用于采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;
全局模型训练模块,用于将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
通过采用本发明实施例,在联邦学习训练过程中引入粒子群算法进行优化,客户端在使用本地数据进行训练前,将每个客户端模型参数依据全局最优和个体历史最优信息对训练模型进行优化,将每个客户端模型参数模拟为一个个粒子,依据服务器发送的全局最优模型参数和个体历史最优模型参数信息对将要训练模型进行优化,提高模型收敛速度及模型训练效果,减少通信代价。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的基于粒子群算法的联邦学习优化方法的流程图;
图2为本发明实施例的基于粒子群算法的联邦学习优化装置的示意图;
图3本发明实施例的训练模型示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
方法实施例
本发明实施例提供了一种基于粒子群算法的联邦学习优化方法,图1为本发明实施例的基于粒子群算法的联邦学习优化方法的流程图,根据图1所示,本发明实施例的基于粒子群算法的联邦学习优化方法具体包括:
步骤S1、服务器根据场景确定全局模型的目标需求,初始化全局模型,并将所述全局模型广播给参与联邦学习的客户端;
步骤S2、所述参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对所述全局模型进行改进后得到模型更新参数,步骤S2具体包括:
S1:中心服务器在根据自身需求初始化全局模型后,并将全局模型广播给参与客户端;
S2:将每一个客户端拥有的模型参数作为一个单独的粒子,以全局模型的结构为基础,对每个客户端模型参数进行随机初始化速度向量各个客户端的本地模型参数作为粒子群算法中粒子的位置,用于本地模型的粒子群优化更新,针对客户端神经网络模型的每一层模型参数进行初始化和更新操作;
S3:参与客户端根据自身模型的粒子速度向量和位置,与客户端存储的本地模型历史最优模型参数wpbest、广播的全局模型参数wg和全局历史最优模型参数wgbest一同进行客户端新一轮的模型参数粒子速度更新计算,得到新的客户端模型粒子速度更新参数该过程针对神经网络模型的每一层权重参数进行的;
S4:将粒子速度更新参数与该轮客户端的模型参数/>相加对模型参数进行计算更新,得到新的客户端模型参数/>这个新的模型参数/>就相当于粒子的更新位置,客户端再使用本地数据进行随机梯度下降训练模型参数/>得到最终的更新参数。
在每一轮联邦学习过程中,本地客户端依据模型参数的适应度值保存本地最优模型参数wpbest,服务器依据适应度值保存全局历史最优模型参数wgbest,适应度值由模型参数的训练损失值进行计算,损失值越低,则适应度值越高,在联邦学习不断训练迭代过程中对历史最优模型参数进行评估和更新。
基于粒子群算法的联邦学习客户端优化方案更新公式为:
其中/>是客户端k模拟粒子的当前速度,/>是客户端k更新后的速度,/>是当前客户端k的模型参数,/>是客户端k更新后的模型参数,wpbest表示客户端k的本地历史最优模型参数,wgbest表示全局历史最优模型参数,其中γ是惯量权重,c1和c2是学习因子,rand1和rand2是区间[0,1]内的两个随机数。
步骤S3、采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩,步骤S3具体包括:
客户端使用本地数据集进行模型训练时,由于神经网络深度逐渐增加和网络参数量增多,容易引起梯度消失和梯度爆炸,通信代价变得越来越高。为了减少客户端和服务器交流的通信消耗,采用梯度剪裁的方式对模型参数进行压缩处理。在每轮联邦学习训练中,服务器依据客户端模型的权值散度dk(t)和更新增量ik(t),为其动态分配压缩阈值ω。
在非独立同分布场景下,随着训练轮数的增多,每个客户端训练的权重的更新变化差异变得越来越大,且会导致最终服务器聚合出的模型结果与集中式学习训练的相比差别更大,本地客户端训练的模型与聚合得到的全局模型效果相差甚远,这种在联邦学习中客户端本地训练的模型参数与服务器聚合得到的模型参数的偏差程度,定义为权值散度。模型的权值散度越小说明本地客户端训练的模型与采用联邦平均算法中聚合的全局模型更加接近。权值散度更新更新为:其中wk(t)表示客户端k在第t轮的本地模型参数,wg(t-1)表示第t-1轮的全局模型参数,||·||表示L2范式计算。
在数据分布不平衡的情况下,每个客户端训练的模型精确度参差不齐,初始聚合的全局模型效果较差,需要更频繁的更新才能达到和数据分布平衡下聚合的模型效果,所以客户端需要较大的更新量来调整自己的模型参数,以更好地适应数据集的变化。因此在联邦学习中,更新增量会随着数据集分布情况的变化而变化,即在非独立同分布数据集上训练的本地模型更新增量将远高于独立同分布数据集上的模型更新增量。更新增量的更新公式为:其中wk(t)表示客户端k在第t轮的本地模型参数,wk(t-1)表示客户端k第t-1轮的本地模型参数。
客户端模型的权值散度dk(t)和更新增量Ik(t)越小,其分配的阈值ω则越大,以保证独立同分布程度高的客户端模型参数压缩后的可用性。客户端计算各自的梯度大小并与梯度压缩阈值比较,如果梯度大于压缩阈值ω,则将梯度所有值根据压缩因子压缩,以此控制客户端梯度的大小。客户端梯度压缩的计算公式为:
步骤S4、将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
上述选择的客户端上传其相对应的本地模型参数至服务器,服务器在此基础上聚合最终选定的客户端模型参数,基于上传模型的训练所用的数据集容量进行赋权,并聚合得到新的全局模型参数。全局模型参数用于全局模型的更新,迭代进行下一轮的联邦学习训练,直到模型收敛或符合要求为止。如图3所示,为本发明实施例的训练模型示意图。
通过采用本发明实施例,具备如下有益效果:
1、该基于粒子群算法的联邦学习优化方案,在联邦学习训练过程中引入粒子群算法进行优化,客户端在使用本地数据进行训练前,将每个客户端模型参数依据全局最优和个体历史最优信息对训练模型进行优化,从而获得更优的神经网络模型,提高联邦学习的训练效率,优化联邦学习通信过程。
2、该基于粒子群算法的联邦学习优化方案,对联邦学习方法过程进行了改进,提高模型的更新速度,在联邦学习训练过程中利用粒子群算法进行优化,通过随机方法获得最优解与联邦学习中训练模型的机制一致,适合于动态合异构的联邦学习环境。客户端在使用本地数据进行训练前,将每个客户端模型参数模拟为一个个粒子,依据服务器发送的全局最优模型参数和个体历史最优模型参数信息对将要训练模型进行优化,提高模型收敛速度及模型训练效果,减少通信代价。
装置实施例
本发明实施例提供了一种基于粒子群算法的联邦学习优化装置,图2为本发明实施例的基于粒子群算法的联邦学习优化装置的示意图,根据图2所示,本发明实施例的基于粒子群算法的联邦学习优化装置具体包括:
广播模块20,用于服务器根据场景确定全局模型的目标需求,初始化全局模型,并将全局模型广播给参与联邦学习的客户端;
参数更新模块22,用于将参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对全局模型进行改进后得到模型更新参数;
参数压缩模块24,用于采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;
全局模型训练模块26,用于将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
参数更新模块22具体用于:
S1:中心服务器在根据自身需求初始化全局模型后,并将全局模型广播给参与客户端;
S2:将每一个客户端拥有的模型参数作为一个单独的粒子,以全局模型的结构为基础,对每个客户端模型参数进行随机初始化速度向量各个客户端的本地模型参数作为粒子群算法中粒子的位置,用于本地模型的粒子群优化更新,针对客户端神经网络模型的每一层模型参数进行初始化和更新操作;
S3:参与客户端根据自身模型的粒子速度向量和位置,与客户端存储的本地模型历史最优模型参数wpbest、广播的全局模型参数wg和全局历史最优模型参数wgbest一同进行客户端新一轮的模型参数粒子速度更新计算,得到新的客户端模型粒子速度更新参数该过程针对神经网络模型的每一层权重参数进行的;
S4:将粒子速度更新参数与该轮客户端的模型参数/>相加对模型参数进行计算更新,得到新的客户端模型参数/>这个新的模型参数/>就相当于粒子的更新位置,客户端再使用本地数据进行随机梯度下降训练模型参数/>得到最终的更新参数。
在每一轮联邦学习过程中,本地客户端依据模型参数的适应度值保存本地最优模型参数wpbest,服务器依据适应度值保存全局历史最优模型参数wgbest,适应度值由模型参数的训练损失值进行计算,损失值越低,则适应度值越高,在联邦学习不断训练迭代过程中对历史最优模型参数进行评估和更新。
基于粒子群算法的联邦学习客户端优化方案更新公式为:
其中/>是客户端k模拟粒子的当前速度,/>是客户端k更新后的速度,/>是当前客户端k的模型参数,/>是客户端k更新后的模型参数,wpbest表示客户端k的本地历史最优模型参数,wgbest表示全局历史最优模型参数,其中γ是惯量权重,c1和c2是学习因子,rand1和rand2是区间[0,1]内的两个随机数。
参数压缩模块24具体用于:
客户端使用本地数据集进行模型训练时,由于神经网络深度逐渐增加和网络参数量增多,容易引起梯度消失和梯度爆炸,通信代价变得越来越高。为了减少客户端和服务器交流的通信消耗,采用梯度剪裁的方式对模型参数进行压缩处理。在每轮联邦学习训练中,服务器依据客户端模型的权值散度dk(t)和更新增量Ik(t),为其动态分配压缩阈值ω。
在非独立同分布场景下,随着训练轮数的增多,每个客户端训练的权重的更新变化差异变得越来越大,且会导致最终服务器聚合出的模型结果与集中式学习训练的相比差别更大,本地客户端训练的模型与聚合得到的全局模型效果相差甚远,这种在联邦学习中客户端本地训练的模型参数与服务器聚合得到的模型参数的偏差程度,定义为权值散度。模型的权值散度越小说明本地客户端训练的模型与采用联邦平均算法中聚合的全局模型更加接近。权值散度更新更新为:其中wk(t)表示客户端k在第t轮的本地模型参数,wg(t-1)表示第t-1轮的全局模型参数,||·||表示L2范式计算。
在数据分布不平衡的情况下,每个客户端训练的模型精确度参差不齐,初始聚合的全局模型效果较差,需要更频繁的更新才能达到和数据分布平衡下聚合的模型效果,所以客户端需要较大的更新量来调整自己的模型参数,以更好地适应数据集的变化。因此在联邦学习中,更新增量会随着数据集分布情况的变化而变化,即在非独立同分布数据集上训练的本地模型更新增量将远高于独立同分布数据集上的模型更新增量。更新增量的更新公式为:其中wk(t)表示客户端k在第t轮的本地模型参数,wk(t-1)表示客户端k第t-1轮的本地模型参数。
客户端模型的权值散度dk(t)和更新增量Ik(t)越小,其分配的阈值ω则越大,以保证独立同分布程度高的客户端模型参数压缩后的可用性。客户端计算各自的梯度大小并与梯度压缩阈值比较,如果梯度大于压缩阈值ω,则将梯度所有值根据压缩因子压缩,以此控制客户端梯度的大小。客户端梯度压缩的计算公式为:
S6:客户端将更新参数上传至服务器进行模型参数聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
全局模型训练模块26具体用于:
将压缩后的模型更新参数上传至服务器,服务器在此基础上聚合参与联邦学习的客户端模型参数,基于参与联邦学习的客户端进行训练所用的数据集容量进行赋权,并聚合得到新的全局模型参数,全局模型参数用于全局模型的更新,迭代进行下一轮的联邦学习训练,直到全局模型收敛或符合要求为止。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种基于粒子群算法的联邦学习优化方法,其特征在于,包括:
S1、服务器根据场景确定全局模型的目标需求,初始化全局模型,并将所述全局模型广播给参与联邦学习的客户端;
S2、所述参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对所述全局模型进行改进后得到模型更新参数;
S3、采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;
S4、将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
2.根据权利要求1所述的方法,其特征在于,所述S2具体包括:
S21、将客户端拥有的模型参数作为一个单独的粒子,以全局模型的结构为基础,对每个客户端拥有的模型参数进行随机初始化速度向量客户端的本地模型参数/>作为粒子群算法中粒子的位置,用于本地模型的粒子群优化更新,针对客户端神经网络模型的每一层模型参数进行初始化和更新操作;
S22、参与客户端根据自身模型的粒子速度向量和粒子的位置,与客户端存储的本地模型历史最优模型参数wpbest、广播的全局模型参数wg和全局历史最优模型参数wgbest一同进行客户端新一轮的模型参数粒子速度更新计算,得到新的客户端模型粒子速度更新参数该过程针对神经网络模型的每一层权重参数进行的;
S23、将所述粒子速度更新参数与该轮客户端的模型参数/>相加对模型参数进行计算更新,得到新的客户端模型参数/>将/>作为粒子的更新位置,客户端再使用本地数据进行随机梯度下降训练模型参数/>得到最终的模型更新参数。
3.根据权利要求2所述的方法,其特征在于,所述粒子速度更新参数及新的客户端模型参数/>通过公式1和公式2进行获取:
其中,是客户端k模拟粒子的当前速度,/>是客户端k更新后的速度,/>是当前客户端k的模型参数,/>是客户端k更新后的模型参数,wpbest表示客户端k的本地历史最优模型参数,wgbest表示全局历史最优模型参数,其中γ是惯量权重,c1和c2是学习因子,rand1和rand2是区间[0,1]内的两个随机数。
4.根据权利要求1所述的方法,其特征在于,所述S3具体包括:
服务器依据客户端模型的权值散度dk(t)和更新增量Ik(t),为其动态分配压缩阈值ω;
通过公式3获取权值散度dk(t):
其中,wk(t)表示客户端k在第t轮的本地模型参数,wg(t-1)表示第t-1轮的全局模型参数,||·||表示L2范式计算;
通过公式4获取更新增量Ik(t):
其中,wk(t-1)表示客户端k第t-1轮的本地模型参数;
客户端计算各自的梯度大小并与压缩阈值ω比较,如果梯度大于压缩阈值ω,则将梯度所有值通过公式5根据压缩因子进行压缩;
5.根据权利要求1所述的方法,其特征在于所述S4具体包括:
将压缩后的模型更新参数上传至服务器,服务器在此基础上聚合参与联邦学习的客户端模型参数,基于参与联邦学习的客户端进行训练所用的数据集容量进行赋权,并聚合得到新的全局模型参数,全局模型参数用于全局模型的更新,迭代进行下一轮的联邦学习训练,直到全局模型收敛或符合要求为止。
6.一种基于粒子群算法的联邦学习优化装置,其特征在于,包括:
广播模块,用于服务器根据场景确定全局模型的目标需求,初始化全局模型,并将所述全局模型广播给参与联邦学习的客户端;
参数更新模块,用于将所述参与联邦学习的客户端收到服务器发送的全局模型后,采用粒子群优化算法对所述全局模型进行改进后得到模型更新参数;
参数压缩模块,用于采用基于模型的权值散度和更新增量的梯度压缩方法,对模型更新参数进行压缩;
全局模型训练模块,用于将压缩后的模型更新参数上传至服务器进行模型聚合,得到新的全局模型,用于下一轮联邦学习迭代训练,直到满足条件或模型收敛为止。
7.根据权利要求6所述的装置,其特征在于,所述参数更新模块具体用于:
将客户端拥有的模型参数作为一个单独的粒子,以全局模型的结构为基础,对每个客户端拥有的模型参数进行随机初始化速度向量客户端的本地模型参数/>作为粒子群算法中粒子的位置,用于本地模型的粒子群优化更新,针对客户端神经网络模型的每一层模型参数进行初始化和更新操作;
参与客户端根据自身模型的粒子速度向量和粒子的位置,与客户端存储的本地模型历史最优模型参数wpbest、广播的全局模型参数wg和全局历史最优模型参数wgbest一同进行客户端新一轮的模型参数粒子速度更新计算,得到新的客户端模型粒子速度更新参数该过程针对神经网络模型的每一层权重参数进行的;
将所述粒子速度更新参数与该轮客户端的模型参数/>相加对模型参数进行计算更新,得到新的客户端模型参数/>将/>作为粒子的更新位置,客户端再使用本地数据进行随机梯度下降训练模型参数/>得到最终的模型更新参数。
8.根据权利要求7所述的装置,其特征在于,所述参数更新模块中的粒子速度更新参数及客户端模型参数/>通过公式1和公式2进行获取:
其中,是客户端k模拟粒子的当前速度,/>是客户端k更新后的速度,/>是当前客户端k的模型参数,/>是客户端k更新后的模型参数,wpbest表示客户端k的本地历史最优模型参数,wgbest表示全局历史最优模型参数,其中γ是惯量权重,c1和c2是学习因子,rand1和rand2是区间[0,1]内的两个随机数。
9.根据权利要求6所述的装置,其特征在于,所述参数压缩模块具体用于:
服务器依据客户端模型的权值散度dk(t)和更新增量Ik(t),为其动态分配压缩阈值ω;
通过公式3获取权值散度dk(t):
其中,wk(t)表示客户端k在第t轮的本地模型参数,wg(t-1)表示第t-1轮的全局模型参数,||·||表示L2范式计算;
通过公式4获取更新增量Ik(t):
其中,wk(t-1)表示客户端k第t-1轮的本地模型参数;
客户端计算各自的梯度大小并与压缩阈值ω比较,如果梯度大于压缩阈值ω,则将梯度所有值通过公式5根据压缩因子进行压缩;
10.根据权利要求6所述的装置,其特征在于,所述全局模型训练模块具体用于:
将压缩后的模型更新参数上传至服务器,服务器在此基础上聚合参与联邦学习的客户端模型参数,基于参与联邦学习的客户端进行训练所用的数据集容量进行赋权,并聚合得到新的全局模型参数,全局模型参数用于全局模型的更新,迭代进行下一轮的联邦学习训练,直到全局模型收敛或符合要求为止。
CN202310583573.0A 2023-05-22 2023-05-22 基于粒子群算法的联邦学习优化方法及装置 Pending CN116629305A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310583573.0A CN116629305A (zh) 2023-05-22 2023-05-22 基于粒子群算法的联邦学习优化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310583573.0A CN116629305A (zh) 2023-05-22 2023-05-22 基于粒子群算法的联邦学习优化方法及装置

Publications (1)

Publication Number Publication Date
CN116629305A true CN116629305A (zh) 2023-08-22

Family

ID=87635963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310583573.0A Pending CN116629305A (zh) 2023-05-22 2023-05-22 基于粒子群算法的联邦学习优化方法及装置

Country Status (1)

Country Link
CN (1) CN116629305A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117196014A (zh) * 2023-09-18 2023-12-08 深圳大学 基于联邦学习的模型训练方法、装置、计算机设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117196014A (zh) * 2023-09-18 2023-12-08 深圳大学 基于联邦学习的模型训练方法、装置、计算机设备及介质
CN117196014B (zh) * 2023-09-18 2024-05-10 深圳大学 基于联邦学习的模型训练方法、装置、计算机设备及介质

Similar Documents

Publication Publication Date Title
CN112367109B (zh) 空地网络中由数字孪生驱动的联邦学习的激励方法
CN111860581A (zh) 一种基于模型离散度的联邦学习训练方法
CN113010305B (zh) 部署在边缘计算网络中的联邦学习系统及其学习方法
CN112118287B (zh) 基于交替方向乘子算法与移动边缘计算的网络资源优化调度决策方法
CN112235384A (zh) 分布式系统中的数据传输方法、装置、设备及存储介质
Hashash et al. Towards a decentralized metaverse: Synchronized orchestration of digital twins and sub-metaverses
CN113691594B (zh) 一种基于二阶导数解决联邦学习中数据不平衡问题的方法
CN116629305A (zh) 基于粒子群算法的联邦学习优化方法及装置
CN110968426A (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN113469325A (zh) 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质
CN113378474B (zh) 一种基于贡献量的联邦学习客户机选择方法、系统及介质
CN111083232A (zh) 一种基于改进一致性哈希的服务器端负载均衡方法
CN115587633A (zh) 一种基于参数分层的个性化联邦学习方法
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN114625506A (zh) 一种基于自适应协方差矩阵进化策略的边缘云协同任务卸载方法
CN115659803A (zh) 一种无人机孪生网络映射误差情况下计算任务智能卸载方法
CN115115021A (zh) 基于模型参数异步更新的个性化联邦学习方法
CN114301910B (zh) 一种物联网环境下的云边协同计算任务卸载方法
CN116362327A (zh) 一种模型训练方法、系统及电子设备
CN113435125A (zh) 一种面向联邦物联网系统的模型训练加速方法与系统
CN110768827B (zh) 一种基于群智能算法的任务卸载方法
CN115756873B (zh) 一种基于联邦强化学习的移动边缘计算卸载方法和平台
CN116663644A (zh) 一种多压缩版本的云边端dnn协同推理加速方法
CN115150288B (zh) 一种分布式通信系统和方法
CN114118444B (zh) 一种利用启发式算法降低联邦学习中设备空跑时间的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination