CN115018085B - 一种面向数据异构性的联邦学习参与设备选择方法 - Google Patents
一种面向数据异构性的联邦学习参与设备选择方法 Download PDFInfo
- Publication number
- CN115018085B CN115018085B CN202210566609.XA CN202210566609A CN115018085B CN 115018085 B CN115018085 B CN 115018085B CN 202210566609 A CN202210566609 A CN 202210566609A CN 115018085 B CN115018085 B CN 115018085B
- Authority
- CN
- China
- Prior art keywords
- model
- local
- data
- mutual information
- participating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及联邦学习参与设备选择技术领域,具体涉及一种基于互信息进行参与设备选择的方法。该方法基于深度学习中使用互信息进行无监督特征提取的算法,充分考虑参与设备数据异构性,通过计算本地模型和聚合模型的互信息筛选出能够有效增加全局模型性能的参与方,有效解决本地异构数据导致的全局模型性能下降问题,同时实现快速收敛并能有效降低训练开销的联邦学习;而且本发明在聚类后的类别簇中构建互信息分布的箱线图,通过将箱线图可能存在的异常点对应的参与设备认定为异常参与设备而移除,可以更大程度地实现数据样本均衡,提高模型聚合效率。
Description
技术领域
本发明属于联邦学习参与设备选择技术领域,具体涉及一种面向数据异构性的联邦学习参与设备选择方法。
背景技术
随着训练数据的增大和多样化的增多,机器学习可以实现大规模的高性能网络模型,然而,传统机器学习却需要面临两大问题。首先就是数据隐私问题,法律规定不得共享个人数据,而单个参与者,要么数据持有量有限,要么数据多样性不足,甚至两者兼有;另外,海量训练数据传输到云端进行集中处理会带来巨大的网络负载压力以及通信成本,并且容易造成传输拥堵和延迟。
联邦学习允许多个参与设备在中央服务器的协调下,跨设备的进行模型训练和参数聚合。无需上传数据,而是上传模型,保持训练数据的本地化,从而减少隐私泄露,降低通信计算开销。联邦学习流程如图1所示,迭代选择参与设备执行下述四个步骤:
1)参与设备下载模型;
2)参与设备在本地数据进行模型训练;
3)向服务器上传训练好的本地模型参数;
4)服务器进行模型聚合,得到更新后的全局模型。
然而联邦学习框架面临着参与节点可能具有高度异构的本地数据集以及计算资源的问题,非独立同分布的异构数据会给模型训练带来偏差,导致模型训练需要更多轮次才能达到期望的收敛效果,甚至训练模型性能的下降。
在现实场景中,受限于用户状态、网络条件等多种因素,每轮训练只有很小一部分用户参与到模型训练中,而随机选择很可能会进一步加剧数据异构性的不利影响。因此,结合上述背景分析,开发和理解有偏差的参与方选择策略尤为重要。
发明内容
针对目前的联邦学习框架面对高度异构数据训练时存在偏差、训练性能下降的缺陷和问题,本发明提供一种面向数据异构性的联邦学习参与设备选择方法,该方法能够有偏差的选择参与设备,更大程度地实现数据样本均衡,提高模型聚合效率。
本发明解决其技术问题所采用的方案是:一种面向数据异构性的联邦学习参与设备选择方法,包括以下步骤:
步骤一、从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个子集中得到参与方子集St;
步骤二、根据参与设备是否拥有历史的本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1,随后集合St-St-1中的参与设备进行本地更新得到本地模型并与St-1中参与设备的历史本地模型共同构成当前轮次的本地模型LocalModelt;
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图,分别生成本地模型和全局模型的概率分布以及两者的联合分布,并计算两者的互信息;随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器;
步骤四、服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备其中:k∈Cluster_numsr;然后统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除;
步骤六、根据互信息选择阈值以及每个参与设备的互信息的值筛选出最为有效增加全局模型性能的参与设备集合S′t,判断被筛选出的参与设备是否具有当前轮次的本地更新模型,对于参与设备k∈S′t,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型;
步骤七、所有被选择的参与设备将其本地的当前轮次模型上传到服务器参与全局模型聚合。
上述的面向数据异构性的联邦学习参与设备选择方法,步骤二中对于有历史本地训练模型的St-1中的参与设备使用历史本地训练模型;对于没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
上述的面向数据异构性的联邦学习参与设备选择方法,步骤三中将一维数据的所有n个样本进行升序排列记作{x1,x2,...,xn},将整个取值范围[x1,xn]划分为一系列连续的间隔,计算间隔内的样本频数m,计算样本频率将样本频率作为概率估计值,生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y),并计算两者的互信息,
式中:H(X)=-∑x∈χp(x)logp(x)表示熵。
上述的面向数据异构性的联邦学习参与设备选择方法,步骤七中采取基于互信息和数据量的复合权重方式参与全局模型聚合,
式中:wt是聚合得到的全局共享模型;是集合S′t中参与设备k的本地模型;权重θk体现了参与设备k的互信息在S′t中所有互信息之和的比例;MIsec表示集合S′t中所有参与设备的互信息之和;MIk表示参与设备k的互信息;/>是参与设备k的数据量占S′t中参与设备数据总量的比例;Nsec表示集合S′t中所有参与设备的数据总量;Nk表示参与设备k的数据量。
本发明的有益效果:本方法基于深度学习中无监督特征提取的互信息方法和聚类划分的K-Means算法,提出一种根据局部模型和全局模型之间互信息衡量参与方本地模型对全局模型的影响程度,进而有偏差的选择参与设备的机制。同时在聚类后的类别簇中构建互信息分布的箱线图,通过将箱线图可能存在的异常点对应的参与设备认定为异常参与设备而移除,可以更大程度地实现数据样本均衡,提高模型聚合效率。
本发明充分考虑参与设备数据异构性和选择公平性,能够有效应对数据异构性带来的模型性能下降和训练不稳定问题,同时实现更快收敛、更低开销的联邦学习。
附图说明
图1为联邦学习流程图。
图2为本发明选择方法流程图。
图3为本发明技术路线示意图。
图4为本发明实例示意图。
具体实施方式
为了实现理想的联邦学习参与设备选择,在数据异构性、数据隐私安全保障等多重因素约束条件下,实现模型性能(模型准确率和收敛速度)与训练开销之间的权衡,有效应对数据异构性带来的模型性能下降和训练不稳定问题,同时实现更快收敛、更低开销的联邦学习,本发明提供一种能够有效缓解本地数据异构性影响,并且实现模型训练快速收敛的基于互信息的参与设备选择策略,同时引入聚类分簇以及箱线图异常点的概念,从而保证每一轮相对均衡的数据样本选择的同时,实现稳定、快速的训练收敛的面向数据异构性的联邦学习参与设备选择方法。下面结合附图和实施例对本发明进一步说明。
实施例1:本实施例提供一种面向数据异构性的联邦学习参与设备选择方法,该方法包括以下步骤:
步骤一、随机选择参与方:从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个集合中得到参与方子集St;其中每个参与方都维护着自身持有的本地数据集的分布信息;所述分布信息包括数据类别分布和数据量大小;
步骤二、本地训练模型更新,包括以下步骤:
(1)确认历史模型
根据参与设备是否拥有历史的本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1;
(2)本地模型更新
将没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
有历史本地训练模型的St-1中的参与设备使用历史本地训练模型,两者共同构成当前的本地模型LocalModelt。
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图。
将一维数据的所有n个样本进行升序排列记作{x1,x2,...,xn};
将整个取值范围[x1,xn]划分为一系列连续的间隔,计算间隔内的样本频数m,计算样本频率将样本频率作为概率估计值,生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y),并计算两者的互信息,
其中H(X)=-∑x∈χp(x)logp(x)表示熵;
随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器。
步骤四、聚类划分并进行异常值剔除
(1)聚类划分:服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备其中:k∈Cluster_numsr,表示聚类划分得到的类别。
(2)异常值筛查:统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除,其中互信息过大以及过小均认为其为异常。
步骤五、计算各类别选择阈值
步骤六、选择参与设备上传更新模型
结合计算得到的互信息选择阈值以及每个参与设备的互信息的值来筛选出最为有效增加全局模型性能的参与设备集合S′t。
判断被选择的参与设备是否具有当前轮次的本地更新模型,具体的,对于参与设备k∈S′t,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型。
步骤七、聚合全局共享模型
所有被选择的参与设备上传其本地的当前轮次模型到服务器,采取基于互信息和数据量的复合权重方式聚合参与全局模型聚合,
式中:wt是聚合得到的全局共享模型;是集合S′t中参与设备k的本地模型;权重θk体现了参与设备k的互信息在S′t中所有互信息之和的比例;MIsec表示集合S′t中所有参与设备的互信息之和;MIk表示参与设备k的互信息;/>是参与设备k的数据量占S′t中参与设备数据总量的比例;Nsec表示集合S′t中所有参与设备的数据总量;Nk表示参与设备k的数据量。
实施例2:本实施例以具体示例为例对本发明的面向数据异构性的联邦学习参与设备选择方法进行进一步阐述。本实施例认为使用的数据集包含十个类别class0~class9,每个参与设备自身的数据构成都符合80%的主类别数据+20%的其他类别数据,比如某个参与设备拥有600条数据,其中480条数据属于class0,而剩余的120条数据属于其他9个类别。另外假设参与设备池共有100个参与设备,每次服务器会随机选择20个参与设备作为初始参与方子集St,然后再根据互信息从中筛选出对总的训练目标增益最为有效的一部分参与设备进行全局模型聚合。该方法技术路线如图3所示。
步骤一、随机选择参与方子集
服务器通过随机采样的方式从总的参与设备池中选择出一小部分的C个参与方放入到一个子集,记为St。每个参与设备都维护着自身持有的本地数据集的分布信息(包括数据类别分布和数据量大小等内容)。如图4所示,当前轮次服务器初始选择了20个参与设备,即St[1,2,3,...,19,20],然后将全局共享模型下发到集合中的每一个参与设备作为其自己的本地模型进行更新。
步骤二、本地训练模型更新,分别包括以下两方面内容。
(1)确认历史模型
参与方子集St中的参与设备检查自身是否拥有历史的本地训练模型。
在本实施例中,假设此次随机选择的20个参与设备中共有5个拥有历史模型,如图4中被标记的5个参与设备,即St-1[5,9,12,15,18],所以此步骤中不进行本地模型更新。而另外15个参与设备(k∈St-St-1)上一轮次未参与联合训练,此步骤需要使用下载的全局模型在本地数据集上训练以更新本地模型。
(2)本地模型更新
将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度随后使用学习率去更新本地模型/>得到更新后的本地模型m∈St-St-1;而5个有历史本地模型的参与设备则使用历史的本地模型n∈St-1[5,9,12,15,18]。这5个参与设备只有在随后根据互信息被服务器选择后才会进行本轮次的本地模型更新,而如果没有被选择则本轮就不会进行模型更新,因此可以一定程度减少计算开销。两者共同构成当前的本地模型/>k∈St[1,2,3,...,19,20]用以进行互信息计算。
步骤三、计算互信息:
分别根据步骤二中得到的本地模型参数和上一轮次聚合得到的全局模型GlobalModelt-1参数构建一维频率直方图。将一维数据的所有n个样本升序排列,记作{x1,x2,...,xn};将整个取值范围[x1,xn]划分为一系列连续的间隔;计算间隔内的样本频数,将样本频率(频数/n)作为概率的估计值,从而生成本地模型和全局模型的概率分布p(x),p(y)以及二者的联合分布p(x,y)。则可根据下式计算它们之间的互信息。
其中:H(X)=-∑x∈χp(x)logp(x)表示熵。最终得到20个参与设备与全局模型之间的互信息值,见表1。
表1参与设备的互信息值
编号 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
互信息 | MI1 | MI2 | MI3 | MI4 | MI5 | MI6 | MI7 | MI8 | MI9 | MI10 |
编号 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 |
互信息 | MI11 | MI12 | MI13 | MI14 | MI15 | MI16 | MI17 | MI18 | MI19 | MI20 |
之后,随机选择的20个参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器。
步骤四、聚类划分并剔除异常值,分为以下两个步骤;
(1)聚类划分
服务器在接收到由参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法,根据参与设备的数据分布情况对参与方进行聚类划分,如图4实例图所示,最终划分得到4个类别簇,以及每个类别下对应的参与设备,见表2。
表2每个类别下对应的参与设备
类别簇 | Cluster1 | Cluster2 | Cluster3 | Cluster4 |
包含设备 | 2,5,7,8,16,20 | 1,4,6,12,17 | 9,13,19 | 3,10,11,14,15,18 |
(2)筛选异常值
将类别簇中参与设备的互信息值构建箱线图,根据各个类别簇下互信息的箱线图存在的异常点,cluster1内8号和cluster4内14号被认为是异常参与设备而移除,得到新的各类别簇下对应的参与设备,见表3。
表3新的各类别簇下对应的参与设备
类别簇 | Cluster1 | Cluster2 | Cluster3 | Cluster4 |
包含设备 | 2,5,7,16,20 | 1,4,6,12,17 | 9,13,19 | 3,10,11,15,18 |
步骤五、计算各类别选择阈值
表4每个类别下剔除异常值后的互信息选择阈值
类别簇 | Cluster1 | Cluster2 | Cluster3 | Cluster4 |
互信息阈值 | δ1 | δ2 | δ3 | δ4 |
步骤六、选择参与设备上传更新模型
根据每个类别簇中的参与设备互信息值以及对应类别簇的选择阈值,可以选择出符合条件的参与设备集合S′t,即互信息小于其所属类别簇对应的互信息阈值,见图4中被五角星标记的参与设备。根据前面分析可知,这些参与设备的本地模型对于提高全局模型性能最为有效,见表5。
表5每个类别簇下被选择的参与设备
类别簇 | Cluster1 | Cluster2 | Cluster3 | Cluster4 |
被选择参与设备S′t | 2,20 | 4,6,17 | 9 | 11,15 |
结合步骤2可知,S′t中编号为9和15的参与设备使用的是历史本地模型计算互信息,还没有当前轮次模型,本步骤需要进行本地更新得到当前轮次的训练模型然后上传服务器参与聚合,而S′t中其他参与设备在步骤2中已经更新当前轮次模型,不需要再重复更新。参见见图2和图3。
步骤七、聚合全局共享模型
所有被选择的参与设备上传其本地的当前轮次模型到服务器参与全局模型聚合,聚合采取基于互信息和数据量的复合权重方式,如下所示:
Claims (2)
1.一种面向数据异构性的联邦学习参与设备选择方法,其特征在于:包括以下步骤:
步骤一、从包含所有参与方的集合中无偏差随机选择出C个参与方并放入一个子集中得到参与方子集St;
步骤二、根据参与设备是否拥有历史本地训练模型将参与方子集St中的参与设备分为有历史本地训练模型的St-1以及没有历史本地训练模型的St-St-1,随后集合St-St-1中的参与设备进行本地更新得到本地训练模型并与St-1中参与设备的历史本地训练模型共同构成当前轮次的本地模型LocalModelt;具体为:对于有历史本地训练模型的St-1中的参与设备使用历史本地训练模型;对于没有历史本地训练模型的参与设备St-St-1进行本地模型训练,将本地数据集按照给定的数据切片大小划分多个数据切片,然后每轮本地训练下在切分好的数据切片上进行本地梯度计算,最终得到全局模型在本地数据集上的平均梯度随后使用学习率η去更新参与设备k在当前轮次t的本地模型/>
步骤三、根据得到的本地模型LocalModelt参数和上一轮聚合得到的全局模型GlobalModelt-1参数构建各自的一维频率直方图,分别生成本地模型和全局模型的概率分布以及两者的联合分布,并计算两者的互信息;随机选择的参与方子集St中的所有参与设备将自己持有的数据分布信息以及计算得到的互信息上传到服务器;
步骤四、服务器接收到各参与设备上传的数据分布信息和计算的互信息后,使用K-Means算法根据参与设备的数据分布情况对参与方进行聚类划分,得到划分的类别数量Cluster_numsr和每个类别下对应的参与设备其中:k∈Cluster_numsr;然后统计得到每个类别簇中参与设备互信息值的箱线图,服务器通过将箱线图异常点认定为异常参与设备而将其剔除;
std(·)表示计算标准差,mean(·)表示求统计平均值运算;
步骤六、根据互信息的选择阈值以及每个参与设备的互信息的值筛选出最为有效增加全局模型性能的参与设备集合St′,判断被筛选出的参与设备是否具有更新过的本地训练模型,对于参与设备k∈St′,如果k∈St-St-1,不再重复进行本地训练;如果k∈St-1,在此步骤更新出当前轮次的本地训练模型;
步骤七、所有被选择的参与设备将其本地的当前轮次模型上传到服务器参与全局模型聚合;具体为:采取基于互信息和数据量的复合权重方式参与全局模型聚合
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210566609.XA CN115018085B (zh) | 2022-05-23 | 2022-05-23 | 一种面向数据异构性的联邦学习参与设备选择方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210566609.XA CN115018085B (zh) | 2022-05-23 | 2022-05-23 | 一种面向数据异构性的联邦学习参与设备选择方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115018085A CN115018085A (zh) | 2022-09-06 |
CN115018085B true CN115018085B (zh) | 2023-06-16 |
Family
ID=83069280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210566609.XA Active CN115018085B (zh) | 2022-05-23 | 2022-05-23 | 一种面向数据异构性的联邦学习参与设备选择方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115018085B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364943A (zh) * | 2020-12-10 | 2021-02-12 | 广西师范大学 | 一种基于联邦学习的联邦预测方法 |
CN112765559A (zh) * | 2020-12-29 | 2021-05-07 | 平安科技(深圳)有限公司 | 联邦学习的过程中模型参数的处理方法、装置及相关设备 |
CN114048838A (zh) * | 2021-10-26 | 2022-02-15 | 西北工业大学 | 一种基于知识迁移的混合联邦学习方法 |
CN114219097A (zh) * | 2021-11-30 | 2022-03-22 | 华南理工大学 | 一种基于异构资源之上的联邦学习训练和预测方法及系统 |
CN114357067A (zh) * | 2021-12-15 | 2022-04-15 | 华南理工大学 | 一种针对数据异构性的个性化联邦元学习方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7442696B2 (ja) * | 2020-10-01 | 2024-03-04 | エヌイーシー ラボラトリーズ アメリカ インク | 投票に基づく差分プライベート連合学習のためのアプローチ |
CN115775025A (zh) * | 2022-12-21 | 2023-03-10 | 北京邮电大学 | 一种面向时空数据异构场景的轻量化联邦学习方法及系统 |
-
2022
- 2022-05-23 CN CN202210566609.XA patent/CN115018085B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364943A (zh) * | 2020-12-10 | 2021-02-12 | 广西师范大学 | 一种基于联邦学习的联邦预测方法 |
CN112765559A (zh) * | 2020-12-29 | 2021-05-07 | 平安科技(深圳)有限公司 | 联邦学习的过程中模型参数的处理方法、装置及相关设备 |
CN114048838A (zh) * | 2021-10-26 | 2022-02-15 | 西北工业大学 | 一种基于知识迁移的混合联邦学习方法 |
CN114219097A (zh) * | 2021-11-30 | 2022-03-22 | 华南理工大学 | 一种基于异构资源之上的联邦学习训练和预测方法及系统 |
CN114357067A (zh) * | 2021-12-15 | 2022-04-15 | 华南理工大学 | 一种针对数据异构性的个性化联邦元学习方法 |
Non-Patent Citations (5)
Title |
---|
FedSkel: Efficient Federated Learning on Heterogeneous Systems with Skeleton Gradients Update;Junyu Luo et al.;《arXiv:2108.09081V1》;第1-5页 * |
Optimal task assignment for heterogeneous federated learning devices;Laércio Lima Pilla;《2021 IEEE International Parallel and Distributed Processing Symposium (IPDPS)》;第661-670页 * |
基于秘密分享和梯度选择的高效安全联邦学习;董业等;《计算机研究与发展》;第57卷(第10期);第2241-2250页 * |
面向异构IoT设备协作的DNN推断加速研究;孙胜等;《计算机研究与发展》;第57卷(第04期);第709-722页 * |
面向网络性能优化的虚拟计算资源调度机制研究;王煜炜;《通信学报》;第37卷(第8期);第105-118 * |
Also Published As
Publication number | Publication date |
---|---|
CN115018085A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112181971A (zh) | 一种基于边缘的联邦学习模型清洗和设备聚类方法、系统、设备和可读存储介质 | |
CN114841364B (zh) | 一种满足个性化本地差分隐私需求的联邦学习方法 | |
CN113806735A (zh) | 一种执行与评价双网络个性化联邦学习入侵检测方法及系统 | |
CN110968426A (zh) | 一种基于在线学习的边云协同k均值聚类的模型优化方法 | |
CN112637883A (zh) | 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法 | |
CN113225370B (zh) | 一种基于物联网的区块链多目标优化方法 | |
CN113691594B (zh) | 一种基于二阶导数解决联邦学习中数据不平衡问题的方法 | |
CN113537509A (zh) | 协作式的模型训练方法及装置 | |
CN112417500A (zh) | 一种隐私保护的数据流统计发布方法 | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN115018085B (zh) | 一种面向数据异构性的联邦学习参与设备选择方法 | |
CN110610434A (zh) | 基于人工智能的社区发现方法 | |
CN114417095A (zh) | 一种数据集划分方法及装置 | |
CN116702881A (zh) | 一种基于抽样聚合优化的多层联邦学习方案 | |
CN117217328A (zh) | 基于约束因子的联邦学习客户端选择方法 | |
CN116244612B (zh) | 一种基于自学习参数度量的http流量聚类方法及装置 | |
Shi et al. | PSO-based community detection in complex networks | |
CN117494123A (zh) | 一种联邦学习中二维的投毒攻击防御方法 | |
CN115952860A (zh) | 一种面向异质统计的分簇联邦学习方法 | |
CN114819181A (zh) | 基于改进nsga-iii的多目标联邦学习进化方法 | |
CN114298319A (zh) | 联合学习贡献值的确定方法、装置、电子设备及存储介质 | |
CN114723071A (zh) | 一种基于客户端分类和信息熵的联邦学习方法及装置 | |
CN114494643A (zh) | 基于网络划分的疾病传播控制方法 | |
CN111651683A (zh) | 一种参数可调的无标度网络生成方法 | |
CN108846543B (zh) | 一种非重叠社区集合质量度量指标的计算方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |