CN113691594B - 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 - Google Patents

一种基于二阶导数解决联邦学习中数据不平衡问题的方法 Download PDF

Info

Publication number
CN113691594B
CN113691594B CN202110917450.7A CN202110917450A CN113691594B CN 113691594 B CN113691594 B CN 113691594B CN 202110917450 A CN202110917450 A CN 202110917450A CN 113691594 B CN113691594 B CN 113691594B
Authority
CN
China
Prior art keywords
global
global model
data
model
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110917450.7A
Other languages
English (en)
Other versions
CN113691594A (zh
Inventor
燕忠毅
曾艳
赵乃良
张纪林
任永坚
万健
沈鸿辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110917450.7A priority Critical patent/CN113691594B/zh
Publication of CN113691594A publication Critical patent/CN113691594A/zh
Application granted granted Critical
Publication of CN113691594B publication Critical patent/CN113691594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services

Abstract

本发明提出一种基于二阶导数解决联邦学习中数据不平衡问题的方法,可以解决局部和全局不平衡对全局模型训练的影响,本发明包括:云端服务器通过计算损失函数关于全局模型参数的二阶导数获得全局模型参数重要性权重,该权重可以反映参数对任务的重要程度,用于构造正则项;边缘客户端利用接收到的信息构建正则项添加到预先设置的优化目标,对重要的参数设置大的惩罚,对不那么重要的参数设置小的惩罚,从而达到如下效果:1)防止本地模型与全局模型差异过大;2)降低大类对全局模型的贡献;3)尽可能地将关于不同边缘客户端的知识集成到全局模型中;云端服务器利用接收到的本地模型更新全局模型。以次往复,直到全局模型精度达到预设要求。

Description

一种基于二阶导数解决联邦学习中数据不平衡问题的方法
技术领域
本发明涉及边缘计算领域,尤其涉及一种基于二阶导数解决联邦学习中数据不平衡问题的方法。
背景技术
随着各种各样边缘设备的增多,比如智能电脑、智能手机、物联网设备等,越来越多的数据被用于机器学习训练,但是将数据传输到服务器集中训练的传统训练模式会带来许多问题,比如巨大的通信开销、有限的计算资源以及隐私安全隐患。并且网络空间安全已经成为国家安全不可忽视的重要组成部分,重视用户数据隐私和安全已经称为世界性的趋势与共识,在2018年5月欧盟出台《通用数据保护条例》之后,更是对这种数据处理模式提出了重大挑战。如何在满足数据隐私、安全和监管要求的前提下,设计出一个分布式机器学习框架,让模型能在保证性能的基础上,更加高效准确使用各方数据但又不干涉各方数据隐私已经称为了当前的研究重点。
联邦学习框架被提出以解决上述问题。联邦学习的核心思想是:在各个数据提供方的数据不离开本地的前提下,通过某种加密机制进行参数交换,使得在不违反数据隐私法规的情况下,构建出一个虚拟的全局模型。这个全局模型所达到的效果如同将各方数据直接聚合在一起所建立的模型一样,甚至更好,所不同的是,在建立全局模型时数据本身不移动,因此不会泄露用户隐私和影响数据合规性。
然而,当前联邦学习仍然存在一些挑战:其中之一是统计挑战,即不同客户端拥有的数据来源不同并且可能包含他们自己的偏好,由此产生的多样性使得全局模型的收敛变的困难和缓慢。统计挑战分为三类:1)大小不平衡:每个客户端上数据量不均匀;2)局部不平衡:每个客户端上数据不遵循同一分布;3)全局不平衡:全局数据(所有客户端数据的集合)类别不平衡,样本数量多的类称为大类,样本数量少的类称为小类。
有研究表明全局模型精度的降低,特别是当本地数据以非独立同分布方式分布(即局部不平衡)时,可归因于本地模型和全局模型之间的权重差异。目前已经提出了很多联邦学习优化算法:联邦平均算法建议选择一部分客户端参加每轮的培训,此方法在处理独立同分布数据时可取得相对较优秀的结果,但是在面对非独立同分布数据时,联邦平均算法并没有减小权重差异,所以效果不尽人意。联邦曲率算法受弹性权重合并的启发,计算本地模型的费希尔信息矩阵,并使用它们来减少本地训练期间的权重发散,然而,即使使用带宽优化策略,要传输的参数数量是联邦平均算法的三倍;联邦修正算法在边缘客户端预设的损失函数中增加了一个正则项,从而通过保持本地更新接近全局模型来减少本地训练期间的权重发散,然而,它对所有参数都施加了一个相同程度的惩罚,虽然可以减少权重发散,但降低了全局模型的收敛速度。
为此,需要一种新的联邦学习优化算法同时提高全局模型的精度和收敛速度。
发明内容
针对现有技术的不足,本发明针对边缘计算场景中的统计挑战,提出了一种基于二阶导数解决联邦学习中数据不平衡问题的方法,通过给预设优化目标增加正则项来防止本地模型与全局模型差异过大以及减轻大类对全局模型的贡献,从而解决了局部和全局不平衡对全局模型训练的影响。
本发明可以在保证用户数据隐私的前提下共享数据,打破“数据孤岛”的困境,让不同参与方之间的数据在安全的前提下共享,实现联合建模,能够避免由于局部和全局不平衡而带来的全局模型精度低、收敛速度慢的问题。
为了实现上述目标,本发明提出一种基于二阶导数解决联邦学习中数据不平衡问题的方法,所述方法包括以下步骤:
S1:云端服务器初始化全局模型和代理数据集Dproxy,Dproxy由边缘客户端上传少量本地数据构成,是一个可以表征全局数据失衡信息的数据集;
S2:当第一轮全局迭代或者本轮迭代的测试精度相比于上轮迭代的测试精度小于某个阈值时,云端服务器通过计算损失函数关于全局模型参数的二阶导数来获得全局模型参数重要性权重;
S3:云端服务器向边缘客户端下发全局模型、全局模型参数重要性权重和全局数据失衡信息;
S4:边缘客户端根据收到的全局模型、全局模型参数重要性权重和全局数据失衡信息构建正则项,将正则项添加到预先设置的优化目标上构成新的优化目标,从而减小本地模型与全局模型之间的差异以及降低大类对全局模型的贡献,然后利用本地数据在本地执行模型训练,并将训练好的本地模型上传给云端服务器;
S5:云端服务器利用接收到的本地模型更新全局模型;
S6:云端服务器判定全局模型精度是否达到预设值,未达到则返回S2,达到则训练结束。
以上本发明的技术方案,与现有相比,其显著的有益效果在于:
(1)本发明在云端服务器设置一个可以反映全局数据失衡信息的代理数据集,通过计算损失函数关于全局模型参数的二阶导数获得全局模型参数重要性权重,该权重可以反映参数对任务的重要程度,由于模型精度的降低主要归因于本地模型和全局模型之间的差异,所以基于该权重给边缘客户端的预设优化目标添加正则项从而构成新的优化目标,对那些重要的参数设置大的惩罚,训练的目的是使优化目标尽可能的小,那么添加的正则项也需要尽可能的小,所以可以限制其改变,使其更接近全局模型,对那些不那么重要的参数设置小的惩罚。可以在防止本地模型与全局模型差异过大的同时,尽可能地将关于不同边缘客户端的知识集成到全局模型中,极大程度上解决了局部不平衡对全局模型训练的影响,使全局模型的训练更加高效。
(2)本发明通过分析代理数据集获得全局数据失衡信息,再利用关于大类的全局模型参数重要性权重,该权重可以反映参数对识别大类任务的重要程度,给边缘客户端的预设优化目标添加正则项从而构成新的优化目标,限制在识别大类任务中重要参数的变化,降低大类对全局模型的贡献,从而减轻全局不平衡对全局模型精度的影响,提高全局模型的训练效率。
附图说明
结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。
在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
图1是本发明一种基于二阶导数解决联邦学习中数据不平衡问题的方法的架构图。
图2是本发明一种基于二阶导数解决联邦学习中数据不平衡问题的方法的流程图。
具体实施方式
下面结合实施例和说明书附图对本发明做进一步说明,但不限于此。
如图1所示,本发明系统由两个实体构成:边缘客户端和云端服务器。描述如下:
(1)边缘客户端:用户的终端设备具有一定的数据计算和存储功能,利用本地数据在本地进行本地模型训练,为了解决隐私泄露问题,所述边缘客户端先独立地对本地数据和本地模型进行满足差分隐私的保护处理,然后仅上传本地模型给云端服务器进行聚合。
(2)云端服务器:存储在大型数据中心的云服务器具有强大的数据计算和存储能力,对边缘客户端上传的本地模型进行差分隐私聚合,然后将更新好的全局模型和全局模型参数重要性权重下发至边缘客户端,开始下一轮的训练。
结合图2,本发明提出的一种基于二阶导数解决联邦学习中数据不平衡问题的方法,所述方法包括以下步骤:
S1:云端服务器初始化全局模型和代理数据集Dproxy,Dproxy由边缘客户端上传少量本地数据构成,是一个可以表征全局数据失衡信息的数据集;
S2:当第一轮全局迭代或者本轮迭代的测试精度相比于上轮迭代的测试精度小于某个阈值时,云端服务器通过计算损失函数关于全局模型参数的二阶导数来获得全局模型参数重要性权重;
S3:云端服务器向边缘客户端下发全局模型、全局模型参数重要性权重和全局数据失衡信息;
S4:边缘客户端根据收到的全局模型、全局模型参数重要性权重和全局数据失衡信息构建正则项,将正则项添加到预先设置的优化目标上构成新的优化目标,从而减小本地模型与全局模型之间的差异以及降低大类对全局模型的贡献,然后利用本地数据在本地执行模型训练,并将训练好的本地模型上传给云端服务器;
S5:云端服务器利用接收到的本地模型更新全局模型;
S6:云端服务器判定全局模型精度是否达到预设值,未达到则返回S2,达到则训练结束。
进一步地,步骤S2中,所述获得全局模型参数重要性权重的具体过程如下:
S2-1:将代理数据集Dproxy按照数据类别划分为不同的子集记为S={S1,S2,...,Sp,...},例如汽车,火车,飞机等,给定一个数据样本
Figure BDA0003206161350000051
和全局模型wg,关于数据样本
Figure BDA0003206161350000052
的全局模型参数重要性权重
Figure BDA0003206161350000053
可用如下预设的损失函数关于全局模型参数的二阶导数公式计算:
Figure BDA0003206161350000054
其中L(.,.)是预设的损失函数,
Figure BDA0003206161350000055
是全局模型关于数据样本
Figure BDA0003206161350000056
的输出。
S2-2:通过累加Sp中所有数据样本的
Figure BDA0003206161350000057
以获得关于类别p的全局模型参数重要性权重
Figure BDA0003206161350000058
可以反映参数对识别类别p任务的重要程度,其中p可以是汽车,火车,飞机等,如下式所示:
Figure BDA0003206161350000059
其中|Ap|是代理数据集中类别p的样本数;
S2-3:通过累加S中所有类别的
Figure BDA00032061613500000510
以获得全局模型参数重要性权重γ,γ可以反映参数对交通工具图像识别任务的重要程度,如下式所示:
Figure BDA00032061613500000511
其中|S|是代理数据集中的类别数。
进一步地,步骤S3中,所述全局数据失衡信息具体是指:通过分析代理数据集Dproxy得到的大类和小类的信息,记为I,其中大类指代理数据集中样本数量更多的类别。
进一步地,步骤S4中,所述边缘客户端根据收到的全局模型、全局模型参数重要性权重和全局数据失衡信息I计算正则项的具体过程如下:
S4-1:根据收到的全局模型和全局模型参数重要性权重计算正则项
Figure BDA0003206161350000061
其中wk,ij为边缘客户端k本地模型中第i行第j列的模型参数,γi,j为全局模型中第i行第j列的模型参数的重要性权重,λ为超参数,R1可以限制本地模型与全局模型的权重差异,从而提高交通工具图像识别任务的精度。
S4-2:根据收到的全局模型参数重要性权重和全局数据失衡信息I计算正则项
Figure BDA0003206161350000062
其中wk为边缘客户端k的本地模型,μ为超参数,R2可以降低大类对全局模型的贡献,从而提高识别小类数据的精度。
进一步地,步骤S4中,新的优化目标具体是指:hk(wk)=Lk(wk)+R1+R2,其中Lk(wk)为边缘客户端k预设的优化目标。
进一步地,步骤S5中,云端服务器利用接收到的本地模型更新全局模型是采用加权平均的方法,具体是指:在第t轮训练中,更新的全局模型
Figure BDA0003206161350000063
Figure BDA0003206161350000064
其中
Figure BDA0003206161350000065
为第t轮训练中边缘客户端k的本地模型,n为上传本地模型的边缘客户端的数量。
综上所述,本发明提出的一种基于二阶导数解决联邦学习中数据不平衡问题的方法通过计算损失函数关于全局模型参数的二阶导数获得参数对任务的重要程度,然后有针对性的控制参数的变化,能够在防止本地模型和全局模型差异过大以及降低大类对全局模型贡献的同时,尽可能地将关于不同边缘客户端的知识集成到全局模型中,有效解决了局部和全局不平衡对联邦学习的影响,使模型训练更加高效。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。

Claims (4)

1.一种基于二阶导数解决联邦学习中数据不平衡问题的方法,其特征在于,所述方法包括以下步骤:
S1:云端服务器初始化全局模型和代理数据集,其中代理数据集由边缘客户端上传本地数据构成,是一个表征全局数据失衡信息的数据集;
S2:当第一轮全局迭代或者本轮迭代的测试精度相比于上轮迭代的测试精度小于某个阈值时,云端服务器通过计算损失函数关于全局模型参数的二阶导数来获得全局模型参数重要性权重;
S3:云端服务器向边缘客户端下发全局模型、全局模型参数重要性权重和全局数据失衡信息;
S4:边缘客户端根据收到的全局模型、全局模型参数重要性权重和全局数据失衡信息构建正则项,将正则项添加到预先设置的优化目标上构成新的优化目标,从而减小本地模型与全局模型之间的差异以及降低大类对全局模型的贡献,然后利用本地数据在本地执行模型训练,并将训练好的本地模型上传给云端服务器;
S5:云端服务器利用接收到的本地模型更新全局模型;
S6:云端服务器判定全局模型精度是否达到预设值,未达到则返回S2,达到则训练结束;
步骤S2中,所述获得全局模型参数重要性权重的具体过程如下:
S2-1:将代理数据集Dproxy按照数据类别划分为不同的子集记为S={S1,S2,...,Sp,...},给定一个数据样本
Figure FDA0003970788820000011
和全局模型wg,关于数据样本
Figure FDA0003970788820000012
的全局模型参数重要性权重
Figure FDA0003970788820000013
计算如下:
Figure FDA0003970788820000014
其中L(.,.)是损失函数,
Figure FDA0003970788820000015
是全局模型关于数据样本
Figure FDA0003970788820000016
的输出;
S2-2:通过累加Sp中所有数据样本的
Figure FDA0003970788820000017
以获得关于类别p的全局模型参数重要性权重
Figure FDA0003970788820000018
如下式所示:
Figure FDA0003970788820000019
其中|Sp|是代理数据集中类别p的样本数;
S2-3:通过累加子集S中所有类别的
Figure FDA0003970788820000021
以获得全局模型参数重要性权重γ,如下式所示:
Figure FDA0003970788820000022
其中|S|是代理数据集中的类别数。
2.根据权利要求1所述一种基于二阶导数解决联邦学习中数据不平衡问题的方法,其特征在于:步骤S3中,所述全局数据失衡信息具体是指:通过分析代理数据集Dproxy得到的大类和小类的信息,记为I,其中大类指代理数据集中样本数量更多的类别。
3.根据权利要求1所述一种基于二阶导数解决联邦学习中数据不平衡问题的方法,其特征在于:步骤S4中,所述边缘客户端根据收到的全局模型、全局模型参数重要性权重和全局数据失衡信息构建正则项的具体过程如下:
S4-1:根据收到的全局模型和全局模型参数重要性权重计算正则项
Figure FDA0003970788820000023
其中wk,ij为边缘客户端k本地模型中第i行第j列的模型参数,γi,j为全局模型中第i行第j列的模型参数的重要性权重,λ为超参数;
S4-2:根据收到的全局模型参数重要性权重和全局数据失衡信息I计算正则项
Figure FDA0003970788820000024
其中wk为边缘客户端k的本地模型,μ为超参数。
4.根据权利要求3所述一种基于二阶导数解决联邦学习中数据不平衡问题的方法,其特征在于:步骤S4中,新的优化目标具体是指:hk(wk)=Lk(wk)+R1+R2,其中Lk(wk)为边缘客户端k预设的优化目标。
CN202110917450.7A 2021-08-11 2021-08-11 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 Active CN113691594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110917450.7A CN113691594B (zh) 2021-08-11 2021-08-11 一种基于二阶导数解决联邦学习中数据不平衡问题的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110917450.7A CN113691594B (zh) 2021-08-11 2021-08-11 一种基于二阶导数解决联邦学习中数据不平衡问题的方法

Publications (2)

Publication Number Publication Date
CN113691594A CN113691594A (zh) 2021-11-23
CN113691594B true CN113691594B (zh) 2023-02-07

Family

ID=78579330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110917450.7A Active CN113691594B (zh) 2021-08-11 2021-08-11 一种基于二阶导数解决联邦学习中数据不平衡问题的方法

Country Status (1)

Country Link
CN (1) CN113691594B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120776A1 (ko) * 2021-12-23 2023-06-29 경희대학교 산학협력단 연합학습에서 프록시데이터 세트를 이용한 장치 간 지식 전달 방법 및 그 시스템
CN116305289B (zh) * 2023-05-15 2023-08-15 湖南工商大学 医疗隐私数据处理方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860581A (zh) * 2020-06-11 2020-10-30 南京邮电大学 一种基于模型离散度的联邦学习训练方法
CN112420187A (zh) * 2020-10-15 2021-02-26 南京邮电大学 一种基于迁移联邦学习的医疗疾病分析方法
CN112488322A (zh) * 2020-12-15 2021-03-12 杭州电子科技大学 一种基于数据特征感知聚合的联邦学习模型训练方法
CN113112027A (zh) * 2021-04-06 2021-07-13 杭州电子科技大学 一种基于动态调整模型聚合权重的联邦学习方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860581A (zh) * 2020-06-11 2020-10-30 南京邮电大学 一种基于模型离散度的联邦学习训练方法
CN112420187A (zh) * 2020-10-15 2021-02-26 南京邮电大学 一种基于迁移联邦学习的医疗疾病分析方法
CN112488322A (zh) * 2020-12-15 2021-03-12 杭州电子科技大学 一种基于数据特征感知聚合的联邦学习模型训练方法
CN113112027A (zh) * 2021-04-06 2021-07-13 杭州电子科技大学 一种基于动态调整模型聚合权重的联邦学习方法

Also Published As

Publication number Publication date
CN113691594A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
CN113762530B (zh) 面向隐私保护的精度反馈联邦学习方法
CN113112027A (zh) 一种基于动态调整模型聚合权重的联邦学习方法
CN113691594B (zh) 一种基于二阶导数解决联邦学习中数据不平衡问题的方法
CN113191484A (zh) 基于深度强化学习的联邦学习客户端智能选取方法及系统
CN112637883B (zh) 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法
CN115525038A (zh) 一种基于联邦分层优化学习的设备故障诊断方法
CN114553661A (zh) 一种面向无线联邦学习的移动用户设备分簇训练方法
CN115761378B (zh) 基于联邦学习的电力巡检图像分类和检测方法及系统
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN114625506A (zh) 一种基于自适应协方差矩阵进化策略的边缘云协同任务卸载方法
CN116681144A (zh) 基于动态自适应知识蒸馏的联邦学习模型聚合方法
WO2023036184A1 (en) Methods and systems for quantifying client contribution in federated learning
CN113778691A (zh) 一种任务迁移决策的方法、装置及系统
CN115879542A (zh) 一种面向非独立同分布异构数据的联邦学习方法
CN113435125A (zh) 一种面向联邦物联网系统的模型训练加速方法与系统
CN113378474A (zh) 一种基于贡献量的联邦学习客户机选择方法、系统及介质
CN116629376A (zh) 一种基于无数据蒸馏的联邦学习聚合方法和系统
CN115695429A (zh) 面向Non-IID场景的联邦学习客户端选择方法
CN114401192B (zh) 一种多sdn控制器协同训练方法
CN113516163B (zh) 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质
CN115115064A (zh) 一种半异步联邦学习方法及系统
Zhang et al. Optimizing federated edge learning on non-IID data via neural architecture search
CN114581750A (zh) 一种针对非独立同分布场景下快速准确的联邦学习方法及应用
CN117557870B (zh) 基于联邦学习客户端选择的分类模型训练方法及系统
Qi et al. Edge-edge Collaboration Based Micro-service Deployment in Edge Computing Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant