CN115018085B - 一种面向数据异构性的联邦学习参与设备选择方法 - Google Patents

一种面向数据异构性的联邦学习参与设备选择方法 Download PDF

Info

Publication number
CN115018085B
CN115018085B CN202210566609.XA CN202210566609A CN115018085B CN 115018085 B CN115018085 B CN 115018085B CN 202210566609 A CN202210566609 A CN 202210566609A CN 115018085 B CN115018085 B CN 115018085B
Authority
CN
China
Prior art keywords
model
local
data
mutual information
participating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210566609.XA
Other languages
English (en)
Other versions
CN115018085A (zh
Inventor
张博文
王煜炜
刘敏
梅嘉容
付艳波
王元卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Science And Technology Big Data Research Institute
Zhengzhou University
Original Assignee
China Science And Technology Big Data Research Institute
Zhengzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Science And Technology Big Data Research Institute, Zhengzhou University filed Critical China Science And Technology Big Data Research Institute
Priority to CN202210566609.XA priority Critical patent/CN115018085B/zh
Publication of CN115018085A publication Critical patent/CN115018085A/zh
Application granted granted Critical
Publication of CN115018085B publication Critical patent/CN115018085B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及联邦学习参与设备选择技术领域,具体涉及一种基于互信息进行参与设备选择的方法。该方法基于深度学习中使用互信息进行无监督特征提取的算法,充分考虑参与设备数据异构性,通过计算本地模型和聚合模型的互信息筛选出能够有效增加全局模型性能的参与方,有效解决本地异构数据导致的全局模型性能下降问题,同时实现快速收敛并能有效降低训练开销的联邦学习;而且本发明在聚类后的类别簇中构建互信息分布的箱线图,通过将箱线图可能存在的异常点对应的参与设备认定为异常参与设备而移除,可以更大程度地实现数据样本均衡,提高模型聚合效率。

Description

一种面向数据异构性的联邦学习参与设备选择方法
技术领域
本发明属于联邦学习参与设备选择技术领域,具体涉及一种面向数据异构性的联邦学习参与设备选择方法。
背景技术
随着训练数据的增大和多样化的增多,机器学习可以实现大规模的高性能网络模型,然而,传统机器学习却需要面临两大问题。首先就是数据隐私问题,法律规定不得共享个人数据,而单个参与者,要么数据持有量有限,要么数据多样性不足,甚至两者兼有;另外,海量训练数据传输到云端进行集中处理会带来巨大的网络负载压力以及通信成本,并且容易造成传输拥堵和延迟。
联邦学习允许多个参与设备在中央服务器的协调下,跨设备的进行模型训练和参数聚合。无需上传数据,而是上传模型,保持训练数据的本地化,从而减少隐私泄露,降低通信计算开销。联邦学习流程如图1所示,迭代选择参与设备执行下述四个步骤:
1)参与设备下载模型;
2)参与设备在本地数据进行模型训练;
3)向服务器上传训练好的本地模型参数;
4)服务器进行模型聚合,得到更新后的全局模型。
然而联邦学习框架面临着参与节点可能具有高度异构的本地数据集以及计算资源的问题,非独立同分布的异构数据会给模型训练带来偏差,导致模型训练需要更多轮次才能达到期望的收敛效果,甚至训练模型性能的下降。
在现实场景中,受限于用户状态、网络条件等多种因素,每轮训练只有很小一部分用户参与到模型训练中,而随机选择很可能会进一步加剧数据异构性的不利影响。因此,结合上述背景分析,开发和理解有偏差的参与方选择策略尤为重要。
发明内容
针对目前的联邦学习框架面对高度异构数据训练时存在偏差、训练性能下降的缺陷和问题,本发明提供一种面向数据异构性的联邦学习参与设备选择方法,该方法能够有偏差的选择参与设备,更大程度地实现数据样本均衡,提高模型聚合效率。
本发明解决其技术问题所采用的方案是:一种面向数据异构性的联邦学习参与设备选择方法,包括以下步骤:
步骤一、从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个子集中得到参与方子集St
步骤二、根据参与设备是否拥有历史的本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1,随后集合St-St-1中的参与设备进行本地更新得到本地模型并与St-1中参与设备的历史本地模型共同构成当前轮次的本地模型LocalModelt
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图,分别生成本地模型和全局模型的概率分布以及两者的联合分布,并计算两者的互信息;随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器;
步骤四、服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备
Figure BDA0003657885850000031
其中:k∈Cluster_numsr;然后统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除;
步骤五、剔除类别簇中的异常值后,服务器根据接收到的互信息集合
Figure BDA0003657885850000032
计算每个类别下互信息的选择阈值δ,
Figure BDA0003657885850000033
式中:
Figure BDA0003657885850000034
是剔除异常值后每个类别下参与设备的互信息集合;std(·)表示计算标准差,mean(·)表示求统计平均值运算;
步骤六、根据互信息选择阈值以及每个参与设备的互信息的值筛选出最为有效增加全局模型性能的参与设备集合S′t,判断被筛选出的参与设备是否具有当前轮次的本地更新模型,对于参与设备k∈S′t,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型;
步骤七、所有被选择的参与设备将其本地的当前轮次模型上传到服务器参与全局模型聚合。
上述的面向数据异构性的联邦学习参与设备选择方法,步骤二中对于有历史本地训练模型的St-1中的参与设备使用历史本地训练模型;对于没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度
Figure BDA0003657885850000041
随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
Figure BDA0003657885850000042
Figure BDA0003657885850000043
上述的面向数据异构性的联邦学习参与设备选择方法,步骤三中将一维数据的所有n个样本进行升序排列记作{x1,x2,...,xn},将整个取值范围[x1,xn]划分为一系列连续的间隔,计算间隔内的样本频数m,计算样本频率
Figure BDA0003657885850000044
将样本频率作为概率估计值,生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y),并计算两者的互信息,
Figure BDA0003657885850000045
式中:H(X)=-∑x∈χp(x)logp(x)表示熵。
上述的面向数据异构性的联邦学习参与设备选择方法,步骤七中采取基于互信息和数据量的复合权重方式参与全局模型聚合,
Figure BDA0003657885850000046
Figure BDA0003657885850000047
Figure BDA0003657885850000048
式中:wt是聚合得到的全局共享模型;
Figure BDA0003657885850000049
是集合S′t中参与设备k的本地模型;权重θk体现了参与设备k的互信息在S′t中所有互信息之和的比例;MIsec表示集合S′t中所有参与设备的互信息之和;MIk表示参与设备k的互信息;/>
Figure BDA0003657885850000051
是参与设备k的数据量占S′t中参与设备数据总量的比例;Nsec表示集合S′t中所有参与设备的数据总量;Nk表示参与设备k的数据量。
本发明的有益效果:本方法基于深度学习中无监督特征提取的互信息方法和聚类划分的K-Means算法,提出一种根据局部模型和全局模型之间互信息衡量参与方本地模型对全局模型的影响程度,进而有偏差的选择参与设备的机制。同时在聚类后的类别簇中构建互信息分布的箱线图,通过将箱线图可能存在的异常点对应的参与设备认定为异常参与设备而移除,可以更大程度地实现数据样本均衡,提高模型聚合效率。
本发明充分考虑参与设备数据异构性和选择公平性,能够有效应对数据异构性带来的模型性能下降和训练不稳定问题,同时实现更快收敛、更低开销的联邦学习。
附图说明
图1为联邦学习流程图。
图2为本发明选择方法流程图。
图3为本发明技术路线示意图。
图4为本发明实例示意图。
具体实施方式
为了实现理想的联邦学习参与设备选择,在数据异构性、数据隐私安全保障等多重因素约束条件下,实现模型性能(模型准确率和收敛速度)与训练开销之间的权衡,有效应对数据异构性带来的模型性能下降和训练不稳定问题,同时实现更快收敛、更低开销的联邦学习,本发明提供一种能够有效缓解本地数据异构性影响,并且实现模型训练快速收敛的基于互信息的参与设备选择策略,同时引入聚类分簇以及箱线图异常点的概念,从而保证每一轮相对均衡的数据样本选择的同时,实现稳定、快速的训练收敛的面向数据异构性的联邦学习参与设备选择方法。下面结合附图和实施例对本发明进一步说明。
实施例1:本实施例提供一种面向数据异构性的联邦学习参与设备选择方法,该方法包括以下步骤:
步骤一、随机选择参与方:从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个集合中得到参与方子集St;其中每个参与方都维护着自身持有的本地数据集的分布信息;所述分布信息包括数据类别分布和数据量大小;
步骤二、本地训练模型更新,包括以下步骤:
(1)确认历史模型
根据参与设备是否拥有历史的本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1
(2)本地模型更新
将没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度
Figure BDA0003657885850000061
随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
Figure BDA0003657885850000062
Figure BDA0003657885850000071
有历史本地训练模型的St-1中的参与设备使用历史本地训练模型,两者共同构成当前的本地模型LocalModelt
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图。
将一维数据的所有n个样本进行升序排列记作{x1,x2,...,xn};
将整个取值范围[x1,xn]划分为一系列连续的间隔,计算间隔内的样本频数m,计算样本频率
Figure BDA0003657885850000072
将样本频率作为概率估计值,生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y),并计算两者的互信息,
Figure BDA0003657885850000073
其中H(X)=-∑x∈χp(x)logp(x)表示熵;
随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器。
步骤四、聚类划分并进行异常值剔除
(1)聚类划分:服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备
Figure BDA0003657885850000074
其中:k∈Cluster_numsr,表示聚类划分得到的类别。
(2)异常值筛查:统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除,其中互信息过大以及过小均认为其为异常。
步骤五、计算各类别选择阈值
剔除类别簇中可能存在的异常值后,服务器根据接收到的互信息集合
Figure BDA0003657885850000081
计算每个类别下互信息的选择阈值δ:
Figure BDA0003657885850000082
其中
Figure BDA0003657885850000083
是剔除异常值后每个类别下参与设备的互信息集合;std(·)表示计算标准差,mean(·)表示求统计平均值运算。
步骤六、选择参与设备上传更新模型
结合计算得到的互信息选择阈值以及每个参与设备的互信息的值来筛选出最为有效增加全局模型性能的参与设备集合S′t
判断被选择的参与设备是否具有当前轮次的本地更新模型,具体的,对于参与设备k∈S′t,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型。
步骤七、聚合全局共享模型
所有被选择的参与设备上传其本地的当前轮次模型到服务器,采取基于互信息和数据量的复合权重方式聚合参与全局模型聚合,
Figure BDA0003657885850000084
Figure BDA0003657885850000085
Figure BDA0003657885850000086
式中:wt是聚合得到的全局共享模型;
Figure BDA0003657885850000091
是集合S′t中参与设备k的本地模型;权重θk体现了参与设备k的互信息在S′t中所有互信息之和的比例;MIsec表示集合S′t中所有参与设备的互信息之和;MIk表示参与设备k的互信息;/>
Figure BDA0003657885850000092
是参与设备k的数据量占S′t中参与设备数据总量的比例;Nsec表示集合S′t中所有参与设备的数据总量;Nk表示参与设备k的数据量。
实施例2:本实施例以具体示例为例对本发明的面向数据异构性的联邦学习参与设备选择方法进行进一步阐述。本实施例认为使用的数据集包含十个类别class0~class9,每个参与设备自身的数据构成都符合80%的主类别数据+20%的其他类别数据,比如某个参与设备拥有600条数据,其中480条数据属于class0,而剩余的120条数据属于其他9个类别。另外假设参与设备池共有100个参与设备,每次服务器会随机选择20个参与设备作为初始参与方子集St,然后再根据互信息从中筛选出对总的训练目标增益最为有效的一部分参与设备进行全局模型聚合。该方法技术路线如图3所示。
步骤一、随机选择参与方子集
服务器通过随机采样的方式从总的参与设备池
Figure BDA0003657885850000093
中选择出一小部分的C个参与方放入到一个子集,记为St。每个参与设备都维护着自身持有的本地数据集的分布信息(包括数据类别分布和数据量大小等内容)。如图4所示,当前轮次服务器初始选择了20个参与设备,即St[1,2,3,...,19,20],然后将全局共享模型下发到集合中的每一个参与设备作为其自己的本地模型进行更新。
步骤二、本地训练模型更新,分别包括以下两方面内容。
(1)确认历史模型
参与方子集St中的参与设备检查自身是否拥有历史的本地训练模型。
在本实施例中,假设此次随机选择的20个参与设备中共有5个拥有历史模型,如图4中被标记的5个参与设备,即St-1[5,9,12,15,18],所以此步骤中不进行本地模型更新。而另外15个参与设备(k∈St-St-1)上一轮次未参与联合训练,此步骤需要使用下载的全局模型在本地数据集上训练以更新本地模型。
(2)本地模型更新
将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度
Figure BDA0003657885850000101
随后使用学习率去更新本地模型/>
Figure BDA0003657885850000102
得到更新后的本地模型
Figure BDA0003657885850000103
m∈St-St-1;而5个有历史本地模型的参与设备则使用历史的本地模型
Figure BDA0003657885850000104
n∈St-1[5,9,12,15,18]。这5个参与设备只有在随后根据互信息被服务器选择后才会进行本轮次的本地模型更新,而如果没有被选择则本轮就不会进行模型更新,因此可以一定程度减少计算开销。两者共同构成当前的本地模型/>
Figure BDA0003657885850000105
k∈St[1,2,3,...,19,20]用以进行互信息计算。
步骤三、计算互信息:
分别根据步骤二中得到的本地模型
Figure BDA0003657885850000106
参数和上一轮次聚合得到的全局模型GlobalModelt-1参数构建一维频率直方图。将一维数据的所有n个样本升序排列,记作{x1,x2,...,xn};将整个取值范围[x1,xn]划分为一系列连续的间隔;计算间隔内的样本频数,将样本频率(频数/n)作为概率的估计值,从而生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y)。则可根据下式计算它们之间的互信息。
Figure BDA0003657885850000111
其中:H(X)=-∑x∈χp(x)logp(x)表示熵。最终得到20个参与设备与全局模型之间的互信息值,见表1。
表1参与设备的互信息值
编号 1 2 3 4 5 6 7 8 9 10
互信息 MI1 MI2 MI3 MI4 MI5 MI6 MI7 MI8 MI9 MI10
编号 11 12 13 14 15 16 17 18 19 20
互信息 MI11 MI12 MI13 MI14 MI15 MI16 MI17 MI18 MI19 MI20
之后,随机选择的20个参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器。
步骤四、聚类划分并剔除异常值,分为以下两个步骤;
(1)聚类划分
服务器在接收到由参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,如图4实例图所示,最终划分得到4个类别簇,以及每个类别下对应的参与设备,见表2。
表2每个类别下对应的参与设备
类别簇 Cluster1 Cluster2 Cluster3 Cluster4
包含设备 2,5,7,8,16,20 1,4,6,12,17 9,13,19 3,10,11,14,15,18
(2)筛选异常值
将类别簇中参与设备的互信息值构建箱线图,根据各个类别簇下互信息的箱线图存在的异常点,cluster1内8号和cluster4内14号被认为是异常参与设备而移除,得到新的各类别簇下对应的参与设备,见表3。
表3新的各类别簇下对应的参与设备
类别簇 Cluster1 Cluster2 Cluster3 Cluster4
包含设备 2,5,7,16,20 1,4,6,12,17 9,13,19 3,10,11,15,18
步骤五、计算各类别选择阈值
剔除异常值后,服务器根据参与设备的互信息值计算每个类别下剩余参与设备互信息的选择阈值
Figure BDA0003657885850000121
其中/>
Figure BDA0003657885850000122
是每个类别下剔除异常值后剩余参与设备的互信息集合,见表4。
表4每个类别下剔除异常值后的互信息选择阈值
类别簇 Cluster1 Cluster2 Cluster3 Cluster4
互信息阈值 δ1 δ2 δ3 δ4
步骤六、选择参与设备上传更新模型
根据每个类别簇中的参与设备互信息值以及对应类别簇的选择阈值,可以选择出符合条件的参与设备集合S′t,即互信息小于其所属类别簇对应的互信息阈值,见图4中被五角星标记的参与设备。根据前面分析可知,这些参与设备的本地模型对于提高全局模型性能最为有效,见表5。
表5每个类别簇下被选择的参与设备
类别簇 Cluster1 Cluster2 Cluster3 Cluster4
被选择参与设备S′t 2,20 4,6,17 9 11,15
结合步骤2可知,S′t中编号为9和15的参与设备使用的是历史本地模型计算互信息,还没有当前轮次模型,本步骤需要进行本地更新得到当前轮次的训练模型然后上传服务器参与聚合,而S′t中其他参与设备在步骤2中已经更新当前轮次模型,不需要再重复更新。参见见图2和图3。
步骤七、聚合全局共享模型
所有被选择的参与设备上传其本地的当前轮次模型到服务器参与全局模型聚合,聚合采取基于互信息和数据量的复合权重方式,如下所示:
Figure BDA0003657885850000131
Figure BDA0003657885850000132
Figure BDA0003657885850000133
式中:wt是聚合得到的全局共享模型;
Figure BDA0003657885850000134
是集合S′t中参与设备k的本地模型;权重θk体现了参与设备k的互信息在S′t中所有互信息之和的比例;MIsec表示集合S′t中所有参与设备的互信息之和;MIk表示参与设备k的互信息;/>
Figure BDA0003657885850000135
是参与设备k的数据量占S′t中参与设备数据总量的比例;Nsec表示集合S′t中所有参与设备的数据总量;Nk表示参与设备k的数据量。

Claims (2)

1.一种面向数据异构性的联邦学习参与设备选择方法,其特征在于:包括以下步骤:
步骤一、从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个子集中得到参与方子集St
步骤二、根据参与设备是否拥有历史本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1,随后集合St-St-1中的参与设备进行本地更新得到本地训练模型并与St-1中参与设备的历史本地训练模型共同构成当前轮次的本地模型LocalModelt;具体为:对于有历史本地训练模型的St-1中的参与设备使用历史本地训练模型;对于没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度
Figure FDA0004148079460000011
随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
Figure FDA0004148079460000012
Figure FDA0004148079460000013
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图,分别生成本地模型和全局模型的概率分布以及两者的联合分布,并计算两者的互信息;随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器;
步骤四、服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备
Figure FDA0004148079460000021
其中:k∈Cluster_numsr;然后统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除;
步骤五、剔除类别簇中的异常值后,服务器根据接收到的互信息集合
Figure FDA0004148079460000022
计算每个类别下互信息的选择阈值δ,
Figure FDA0004148079460000023
式中:
Figure FDA0004148079460000024
是剔除异常值后每个类别下参与设备的互信息集合;
std(·)表示计算标准差,mean(·)表示求统计平均值运算;
步骤六、根据互信息的选择阈值以及每个参与设备的互信息的值筛选出最为有效增加全局模型性能的参与设备集合St′,判断被筛选出的参与设备是否具有更新过的本地训练模型,对于参与设备k∈St′,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型;
步骤七、所有被选择的参与设备将其本地的当前轮次模型上传到服务器参与全局模型聚合;具体为:采取基于互信息和数据量的复合权重方式参与全局模型聚合
Figure FDA0004148079460000025
Figure FDA0004148079460000026
Figure FDA0004148079460000027
式中:wt是聚合得到的全局共享模型;
Figure FDA0004148079460000028
是集合St′中参与设备k的本地模型;权重θk体现了参与设备k的互信息在St′中所有互信息之和的比例;MIsec表示集合St′中所有参与设备的互信息之和;
MIk表示参与设备k的互信息;
Figure FDA0004148079460000031
是参与设备k的数据量占St′中参与设备数据总量的比例;Nsec表示集合St′中所有参与设备的数据总量;Nk表示参与设备k的数据量。
2.根据权利要求1所述的面向数据异构性的联邦学习参与设备选择方法,其特征在于:步骤三中将一维数据的所有n个样本进行升序排列记作{x1,x2,...,xn},将整个取值范围[x1,xn]划分为一系列连续的间隔,计算间隔内的样本频数m,计算样本频率
Figure FDA0004148079460000032
将样本频率作为概率估计值,生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y),并计算两者的互信息,
Figure FDA0004148079460000033
式中:H(X)=-∑x∈χp(x)logp(x)表示熵。
CN202210566609.XA 2022-05-23 2022-05-23 一种面向数据异构性的联邦学习参与设备选择方法 Active CN115018085B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210566609.XA CN115018085B (zh) 2022-05-23 2022-05-23 一种面向数据异构性的联邦学习参与设备选择方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210566609.XA CN115018085B (zh) 2022-05-23 2022-05-23 一种面向数据异构性的联邦学习参与设备选择方法

Publications (2)

Publication Number Publication Date
CN115018085A CN115018085A (zh) 2022-09-06
CN115018085B true CN115018085B (zh) 2023-06-16

Family

ID=83069280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210566609.XA Active CN115018085B (zh) 2022-05-23 2022-05-23 一种面向数据异构性的联邦学习参与设备选择方法

Country Status (1)

Country Link
CN (1) CN115018085B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364943A (zh) * 2020-12-10 2021-02-12 广西师范大学 一种基于联邦学习的联邦预测方法
CN112765559A (zh) * 2020-12-29 2021-05-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备
CN114048838A (zh) * 2021-10-26 2022-02-15 西北工业大学 一种基于知识迁移的混合联邦学习方法
CN114219097A (zh) * 2021-11-30 2022-03-22 华南理工大学 一种基于异构资源之上的联邦学习训练和预测方法及系统
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442696B2 (ja) * 2020-10-01 2024-03-04 エヌイーシー ラボラトリーズ アメリカ インク 投票に基づく差分プライベート連合学習のためのアプローチ
CN115775025A (zh) * 2022-12-21 2023-03-10 北京邮电大学 一种面向时空数据异构场景的轻量化联邦学习方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364943A (zh) * 2020-12-10 2021-02-12 广西师范大学 一种基于联邦学习的联邦预测方法
CN112765559A (zh) * 2020-12-29 2021-05-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备
CN114048838A (zh) * 2021-10-26 2022-02-15 西北工业大学 一种基于知识迁移的混合联邦学习方法
CN114219097A (zh) * 2021-11-30 2022-03-22 华南理工大学 一种基于异构资源之上的联邦学习训练和预测方法及系统
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FedSkel: Efficient Federated Learning on Heterogeneous Systems with Skeleton Gradients Update;Junyu Luo et al.;《arXiv:2108.09081V1》;第1-5页 *
Optimal task assignment for heterogeneous federated learning devices;Laércio Lima Pilla;《2021 IEEE International Parallel and Distributed Processing Symposium (IPDPS)》;第661-670页 *
基于秘密分享和梯度选择的高效安全联邦学习;董业等;《计算机研究与发展》;第57卷(第10期);第2241-2250页 *
面向异构IoT设备协作的DNN推断加速研究;孙胜等;《计算机研究与发展》;第57卷(第04期);第709-722页 *
面向网络性能优化的虚拟计算资源调度机制研究;王煜炜;《通信学报》;第37卷(第8期);第105-118 *

Also Published As

Publication number Publication date
CN115018085A (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
CN112181971A (zh) 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质
CN114841364B (zh) 一种满足个性化本地差分隐私需求的联邦学习方法
CN113806735A (zh) 一种执行与评价双网络个性化联邦学习入侵检测方法及系统
CN110968426A (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN112637883A (zh) 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法
CN113225370B (zh) 一种基于物联网的区块链多目标优化方法
CN113691594B (zh) 一种基于二阶导数解决联邦学习中数据不平衡问题的方法
CN113537509A (zh) 协作式的模型训练方法及装置
CN112417500A (zh) 一种隐私保护的数据流统计发布方法
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN115018085B (zh) 一种面向数据异构性的联邦学习参与设备选择方法
CN110610434A (zh) 基于人工智能的社区发现方法
CN114417095A (zh) 一种数据集划分方法及装置
CN116702881A (zh) 一种基于抽样聚合优化的多层联邦学习方案
CN117217328A (zh) 基于约束因子的联邦学习客户端选择方法
CN116244612B (zh) 一种基于自学习参数度量的http流量聚类方法及装置
Shi et al. PSO-based community detection in complex networks
CN117494123A (zh) 一种联邦学习中二维的投毒攻击防御方法
CN115952860A (zh) 一种面向异质统计的分簇联邦学习方法
CN114819181A (zh) 基于改进nsga-iii的多目标联邦学习进化方法
CN114298319A (zh) 联合学习贡献值的确定方法、装置、电子设备及存储介质
CN114723071A (zh) 一种基于客户端分类和信息熵的联邦学习方法及装置
CN114494643A (zh) 基于网络划分的疾病传播控制方法
CN111651683A (zh) 一种参数可调的无标度网络生成方法
CN108846543B (zh) 一种非重叠社区集合质量度量指标的计算方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant