CN114065951A - 基于non-IID数据的半监督联邦学习方法 - Google Patents
基于non-IID数据的半监督联邦学习方法 Download PDFInfo
- Publication number
- CN114065951A CN114065951A CN202111361762.0A CN202111361762A CN114065951A CN 114065951 A CN114065951 A CN 114065951A CN 202111361762 A CN202111361762 A CN 202111361762A CN 114065951 A CN114065951 A CN 114065951A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- client
- supervised
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
基于non‑IID数据的半监督联邦学习方法,解决了现有联邦学习缺乏标记数据的问题,属于联邦学习应用技术领域。本发明包括:步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1;步骤3、第k个客户端使用本地无标签数据集来训练接收到的全局模型ωt,并获得无监督模型发送给服务器;步骤4、服务器聚合客户端上传的得到第t+1轮的全局无监督模型ψt+1;步骤5、服务器将ψt+1、σt+1和ωt聚合得到新的全局模型ωt+1:ωt+1=αψt+1+βσt+1+γωt;t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
Description
技术领域
本发明涉及一种基于non-IID数据的半监督联邦学习方法,属于联邦学习应用技术领域。
背景技术
联邦学习是一种分布式机器学习范式,它允许多个边缘设备(或客户端)协作训练一个共享的全局模型。然而,目前的主流工作是基于一个不切实际的假设:本地客户端的训练数据都有真实标签的。此外,在大多数情况下,为给定的联邦学习任务组合一个适当标记的数据集是一个耗时、昂贵且复杂的工作。因此,在缺乏标记数据的真实场景下,训练高质量的全局模型具有挑战性。
半监督学习可以使用少量的标记数据和大量的未标记数据来训练AI模型,从而减少了模型对标记数据的依赖性。面对上述挑战,学术界的研究员们提出了一个半监督联邦学习系统,可以有效地将半监督学习集成到联邦学习技术中。其次,客户端之间数据的非独立同分布(non-IID)一直是联邦学习中一个关键和具有挑战性的问题。原因是在客户端之间的数据分布、特征和标签数量上存在太多的差异,不利于全局模型的收敛。目前,许多工作已经有效地缓解了non-IID问题,如利用局部批归一化来缓解平均聚合局部模型之前的特征转移。及通过在局部目标函数中引入一个额外的L2正则化项来限制局部模型更新的大小,进而限制局部模型和全局模型之间的距离。但是,诸如这样的方法为服务器或客户端增加了额外的计算和通信开销。
发明内容
针对现有联邦学习缺乏标记数据的问题,本发明提供一种基于non-IID数据的半监督联邦学习方法。
本发明的一种基于non-IID数据的半监督联邦学习方法,所述方法包括:
步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1;
步骤5、服务器将第t+1轮的全局无监督模型ψt+1,监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1:
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1^α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
本发明的
步骤3中,第k个客户端使用的本地无标签数据集包括c类数据,通过调整Dirichlet分布函数的参数μ1,..,μc来生成不同non-IID水平的数据分布;
其中,Γ(·)表示Gamma函数,对于第k个客户端第i类数据占客户端所有数据的比例,作如下定义:
这里,i=1,2,L c;
本发明的步骤2中,服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt的方法为:设定目标函数:
本发明的步骤3中,
设定目标函数:
其中表示无监督模型的输入到输出的映射函数,λL1表示惩罚项系数,λ1,λ2是控制损失项之间比率的超参数,是第k个客户端在第t轮的无监督模型,u来自本地无标签数据集Dk,π1(·)是移位数据增强的扰动,π2(·)是翻转数据增强的扰动,是表示伪标签;
其中Max(·)是一个可以输出未标记数据属于某个类的最大概率的函数,1(·)表示将数值更改为1的单热函数,A表示数据增强的次数,τ表示阈值。
本发明的有益效果,本发明为了解决缺乏标记数据的问题,提出了基于non-IID数据的半监督联邦学习方法,该方法对监督模型(在标记数据上学习)、无监督模型(在未标记数据上学习)和全局模型进行不相交学习的参数分解策略。特别地,该算法以细粒度的方式分析了全局模型在迭代之间的隐式效应。为了解决联邦学习中的non-IID问题,本发明提出了一种新的聚合规则,联邦频率(FedFreq),该规则通过记录客户端的训练频率来动态调整相应的局部模型的权重,以缓解non-IID问题。此外,本发明引入了狄克雷分布函数来模拟不同的non-IID水平场景。
附图说明
图1为本发明的原理示意图;
图2为argmax方法的原理示意图;
图3为不同参数的Dirichlet数据分布的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施方式将在标记数据集上训练的监督模型定义为σ,在无标签数据集上训练的无监督模型定义为ψ,将聚合的全局模型定义为ω。具体来说,本实施方式设计一种参数分解策略,分别将三个权重α,β和γ分配给无监督模型ψ,监督模型σ和上一轮的全局模型ω。本实施方式的方法可以以细粒度的方式捕获全局模型的每次迭代之间的隐式关系。本实施方式的基于non-IID数据的半监督联邦学习方法包括:
步骤1,初始化:服务器随机从全部客户端中选择设定比例F的客户端,初始化的全局模型ω0。请注意,全局模型ω0也保留在服务器端。0<F<1;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1;
与联邦学习不同,在本实施方式的半监督联邦学习系统中,服务器不仅聚合客户端上传的模型,而且还在标签数据集Ds上训练监督模型σt(σt←ωt)。因此,服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt。目标函数的最小化定义如下:
其中,其中表示无监督模型的输入到输出的映射函数,λL1表示惩罚项系数,λ1,λ2是控制损失项之间比率的超参数,是第k个客户端在第t轮的无监督模型,u来自本地无标签数据集,π1(·)是移位数据增强的扰动,即π1是移位数据增强,π2是翻转数据增强,π2(·)是翻转数据增强的扰动,是表示伪标签;而是通过使用本实施方式提出的argmax方法获得的伪标签。Argmax方法的定义如下:
其中Max(·)是一个可以输出未标记数据属于某个类的最大概率的函数,1(·)是一个可以将数值更改为1的单热函数,A表示数据增强的次数,而u来自无标签的数据集Dk。本实施方式还设置对超过阈值τ=0.80的无标签样本打上伪标签。
本实施方式提出了设计的FedFreq聚合算法,该算法可以根据客户端的训练频率动态调整相应的局部模型的权重,以缓解non-IID问题。本实施方式观察到,全局模型的参数分布将偏向于经常参与联邦训练的客户,这显然对全局模型的稳健性不友好。因此,本实施方式的见解是降低具有高训练频率的客户对全局模型的影响,以提高模型的鲁棒性。FedFreq聚合算法的形式表达式如下:
步骤5、服务器将第t+1轮的全局无监督模型ψt+1,监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1:
ωt+1=αψt+1+βσt+1+γωt
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1∧α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
本实施方式基于non-IID数据的半监督联邦学习方法的算法流程:
输入:客户端集合K,服务器每轮的训练批次Bserver,服务器每轮的训练次数Eserver,客户端每轮的训练批次Bclient,客户端每轮的训练次数Eclient,学习率η
输出:收敛的全局模型ω*
1.服务器执行
2.初始化全局模型ω0
3.for每一轮t=0,1,2,...do
4.σt←ωt
5.Bserver←(将服务器数据划分为Bserver大小的批次)
6.for训练次数e=1to Eserver do
7.σt+1=σt-η▽Ls(σt,Ds,Bserver,Eserver)
8.end for
9.St←(从K个客户端中随机选择F·K个客户端)
10.for每一个被选择的客户端k∈St同步do
13.end for
14.ωt+1=αψt+1+βσt+1+γωt
15.服务器存储ωt+1
16.end for
18.Bclient←(将客户端数据划分为Bclient大小的批次)
19.for训练次数e=1to Eclient do
21.end for
22.返回ω*
传统的半监督联邦学习在训练过程中简单地使用了无监督模型和监督模型的参数分解策略,即ωt=ψt+σt。通过这种方式,学习到的全局模型将偏向于未标记数据(无监督模型)或标记数据(有监督模型),而不是整体数据。因此,为了避免全局模型的漂移问题,本实施方式的本实施方式的基于non-IID数据的半监督联邦学习方法将前一轮的全局模型添加到模型参数聚合中,即ωt=αψt+βσt+γωt-1。
本实施方式的基于non-IID数据的半监督联邦学习方法对不同水平的non-IID数据具有鲁棒性。在本实施方式的实验中,本实施方式引入了狄利克雷分布函数来模拟联邦学习中本地客户端的non-IID数据分布。结果表明,在不同水平的non-IID设置下,本实施方式的模型的性能差异不超过1%。
为了更好地评估本实施方式所设计的系统对non-IID数据的鲁棒性,本实施方式引入了Dirchlet分布函数(一个常用的non-IID函数)来调整本地客户端数据的non-IID水平。具体来说,步骤3中,第k个客户端使用的本地无标签数据集包括c类数据,通过调整Dirichlet分布函数的参数μ1,..,μc来生成不同non-IID水平的数据分布;
其中,Γ(·)表示Gamma函数,对于第k个客户端第i类数据占客户端所有数据的比例,作如下定义:
这里,i=1,2,L c;
狄利克雷分布函数的参数μ越小,每个客户端数据分布的non-IID水平就越高;否则,客户端的数据分布倾向于IID设置。
本实施方式研究了标签在服务器上的场景,并解决了联邦学习中的数据可用性和non-IID问题。为了解决第一个问题,本实施方式设计了一个鲁棒的半监督联邦学习系统,它使用本实施方式的基于non-IID数据的半监督联邦学习方法算法来实现高精度的半监督学习。为了解决non-IID问题,本实施方式提出了一种新的聚合算法FedFreq,该算法在不增加额外计算开销的情况下,有效地实现了全局模型在训练过程中稳定的性能。通过实验验证,本实施方式鲁棒的半监督联邦学习系统的性能明显优于基线。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。
Claims (4)
1.基于non-IID数据的半监督联邦学习方法,其特征在于,所述方法包括:
步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1;
步骤5、服务器将第t+1轮的全局无监督模型ψt+1、监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1:
ωt+1=αψt+1+βσt+1+γωt
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1∧α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111361762.0A CN114065951A (zh) | 2021-11-17 | 2021-11-17 | 基于non-IID数据的半监督联邦学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111361762.0A CN114065951A (zh) | 2021-11-17 | 2021-11-17 | 基于non-IID数据的半监督联邦学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114065951A true CN114065951A (zh) | 2022-02-18 |
Family
ID=80273142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111361762.0A Pending CN114065951A (zh) | 2021-11-17 | 2021-11-17 | 基于non-IID数据的半监督联邦学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114065951A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115511108A (zh) * | 2022-09-27 | 2022-12-23 | 河南大学 | 一种基于数据集蒸馏的联邦学习个性化方法 |
CN115526313A (zh) * | 2022-10-11 | 2022-12-27 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN115544873A (zh) * | 2022-09-27 | 2022-12-30 | 南京邮电大学 | 个性化联邦学习的训练效率与个性化效果量化评估方法 |
CN117216566A (zh) * | 2023-09-14 | 2023-12-12 | 西南交通大学 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021158313A1 (en) * | 2020-02-03 | 2021-08-12 | Intel Corporation | Systems and methods for distributed learning for wireless edge dynamics |
CN113469325A (zh) * | 2021-06-09 | 2021-10-01 | 南京邮电大学 | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 |
CN113490254A (zh) * | 2021-08-11 | 2021-10-08 | 重庆邮电大学 | 一种基于联邦学习双向gru资源需求预测的vnf迁移方法 |
-
2021
- 2021-11-17 CN CN202111361762.0A patent/CN114065951A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021158313A1 (en) * | 2020-02-03 | 2021-08-12 | Intel Corporation | Systems and methods for distributed learning for wireless edge dynamics |
CN113469325A (zh) * | 2021-06-09 | 2021-10-01 | 南京邮电大学 | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 |
CN113490254A (zh) * | 2021-08-11 | 2021-10-08 | 重庆邮电大学 | 一种基于联邦学习双向gru资源需求预测的vnf迁移方法 |
Non-Patent Citations (2)
Title |
---|
ZHE ZHANG等: "Semi-Supervised Federated Learning with non-IID Data: Algorithm and System Design", 《HTTPS://ARXIV.ORG/ABS/2110.13388》 * |
王树芬等: "迈向鲁棒的半监督联邦学习系统", 《计算机工程.HTTPS://DOI.ORG/10.19678/J.ISSN.1000-3428.0061911》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115511108A (zh) * | 2022-09-27 | 2022-12-23 | 河南大学 | 一种基于数据集蒸馏的联邦学习个性化方法 |
CN115544873A (zh) * | 2022-09-27 | 2022-12-30 | 南京邮电大学 | 个性化联邦学习的训练效率与个性化效果量化评估方法 |
CN115544873B (zh) * | 2022-09-27 | 2023-10-17 | 南京邮电大学 | 个性化联邦学习的训练效率与个性化效果量化评估方法 |
CN115526313A (zh) * | 2022-10-11 | 2022-12-27 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN115526313B (zh) * | 2022-10-11 | 2023-10-24 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN117216566A (zh) * | 2023-09-14 | 2023-12-12 | 西南交通大学 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
CN117216566B (zh) * | 2023-09-14 | 2024-04-09 | 西南交通大学 | 一种基于局部-全局伪标记的联邦半监督学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114065951A (zh) | 基于non-IID数据的半监督联邦学习方法 | |
You et al. | Adversarial noise layer: Regularize neural network by adding noise | |
Bai et al. | Stabilizing equilibrium models by jacobian regularization | |
CN113112027A (zh) | 一种基于动态调整模型聚合权重的联邦学习方法 | |
Diao et al. | SemiFL: Communication efficient semi-supervised federated learning with unlabeled clients | |
CN111429340A (zh) | 一种基于自注意力机制的循环图像翻译方法 | |
CN103745482B (zh) | 一种基于蝙蝠算法优化模糊熵的双阈值图像分割方法 | |
Wu et al. | Enhancing TripleGAN for semi-supervised conditional instance synthesis and classification | |
CN113743474A (zh) | 基于协同半监督卷积神经网络的数字图片分类方法与系统 | |
CN111931814A (zh) | 一种基于类内结构紧致约束的无监督对抗域适应方法 | |
Santos et al. | Learning implicit generative models by matching perceptual features | |
CN116468938A (zh) | 一种在标签带噪数据上鲁棒的图像分类方法 | |
CN114782742A (zh) | 基于教师模型分类层权重的输出正则化方法 | |
CN106709566A (zh) | 一种基于深度学习的数据缺失值回填方法 | |
Li et al. | Class balanced adaptive pseudo labeling for federated semi-supervised learning | |
Ding et al. | Take a close look at mode collapse and vanishing gradient in GAN | |
CN114170461A (zh) | 基于特征空间重整化的师生架构含噪声标签图像分类方法 | |
CN109858543B (zh) | 基于低秩稀疏表征和关系推断的图像可记忆度预测方法 | |
CN116562366A (zh) | 一种基于特征选择和特征对齐的联邦学习方法 | |
CN116151366A (zh) | 一种基于在线蒸馏的噪声标签鲁棒性学习方法 | |
Guo et al. | Dual class-aware contrastive federated semi-supervised learning | |
US11328179B2 (en) | Information processing apparatus and information processing method | |
CN114444374A (zh) | 一种基于相似性度量的多源到多目标域自适应的方法 | |
Wang et al. | DualMatch: Robust Semi-supervised Learning with Dual-Level Interaction | |
Panda et al. | Implicit Generative Modeling of Random Noise during Training Improves Adversarial Robustness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220218 |
|
WD01 | Invention patent application deemed withdrawn after publication |