CN114065951A - 基于non-IID数据的半监督联邦学习方法 - Google Patents

基于non-IID数据的半监督联邦学习方法 Download PDF

Info

Publication number
CN114065951A
CN114065951A CN202111361762.0A CN202111361762A CN114065951A CN 114065951 A CN114065951 A CN 114065951A CN 202111361762 A CN202111361762 A CN 202111361762A CN 114065951 A CN114065951 A CN 114065951A
Authority
CN
China
Prior art keywords
model
data
client
supervised
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111361762.0A
Other languages
English (en)
Inventor
伍一
张哲�
马士尧
刘桢谋
张泷玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heilongjiang University
Original Assignee
Heilongjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heilongjiang University filed Critical Heilongjiang University
Priority to CN202111361762.0A priority Critical patent/CN114065951A/zh
Publication of CN114065951A publication Critical patent/CN114065951A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

基于non‑IID数据的半监督联邦学习方法,解决了现有联邦学习缺乏标记数据的问题,属于联邦学习应用技术领域。本发明包括:步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1;步骤3、第k个客户端使用本地无标签数据集来训练接收到的全局模型ωt,并获得无监督模型
Figure DDA0003359559580000011
发送给服务器;步骤4、服务器聚合客户端上传的
Figure DDA0003359559580000012
得到第t+1轮的全局无监督模型ψt+1;步骤5、服务器将ψt+1、σt+1和ωt聚合得到新的全局模型ωt+1:ωt+1=αψt+1+βσt+1+γωt;t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。

Description

基于non-IID数据的半监督联邦学习方法
技术领域
本发明涉及一种基于non-IID数据的半监督联邦学习方法,属于联邦学习应用技术领域。
背景技术
联邦学习是一种分布式机器学习范式,它允许多个边缘设备(或客户端)协作训练一个共享的全局模型。然而,目前的主流工作是基于一个不切实际的假设:本地客户端的训练数据都有真实标签的。此外,在大多数情况下,为给定的联邦学习任务组合一个适当标记的数据集是一个耗时、昂贵且复杂的工作。因此,在缺乏标记数据的真实场景下,训练高质量的全局模型具有挑战性。
半监督学习可以使用少量的标记数据和大量的未标记数据来训练AI模型,从而减少了模型对标记数据的依赖性。面对上述挑战,学术界的研究员们提出了一个半监督联邦学习系统,可以有效地将半监督学习集成到联邦学习技术中。其次,客户端之间数据的非独立同分布(non-IID)一直是联邦学习中一个关键和具有挑战性的问题。原因是在客户端之间的数据分布、特征和标签数量上存在太多的差异,不利于全局模型的收敛。目前,许多工作已经有效地缓解了non-IID问题,如利用局部批归一化来缓解平均聚合局部模型之前的特征转移。及通过在局部目标函数中引入一个额外的L2正则化项来限制局部模型更新的大小,进而限制局部模型和全局模型之间的距离。但是,诸如这样的方法为服务器或客户端增加了额外的计算和通信开销。
发明内容
针对现有联邦学习缺乏标记数据的问题,本发明提供一种基于non-IID数据的半监督联邦学习方法。
本发明的一种基于non-IID数据的半监督联邦学习方法,所述方法包括:
步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1
步骤3、第k个客户端使用本地无标签数据集来训练接收到的全局模型ωt,并获得无监督模型
Figure BDA0003359559560000021
发送给服务器;
步骤4、服务器聚合客户端上传的无监督模型
Figure BDA0003359559560000022
得到全局无监督模型ψt+1
Figure BDA0003359559560000023
其中,
Figure BDA0003359559560000024
是第k个客户端在第t+1次培训轮次中的无监督模型,
Figure BDA0003359559560000025
是第k个客户端的权重,
Figure BDA0003359559560000026
K为客户端的总数,
Figure BDA0003359559560000027
Figure BDA0003359559560000028
是第k个客户端被训练到第t+1轮累计的次数,St+1表示服务器在t+1轮中选择的客户端集;
步骤5、服务器将第t+1轮的全局无监督模型ψt+1,监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1^α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
本发明的
步骤3中,第k个客户端使用的本地无标签数据集包括c类数据,通过调整Dirichlet分布函数的参数μ1,..,μc来生成不同non-IID水平的数据分布;
假设
Figure BDA0003359559560000029
是从狄利克雷分布函数中随机抽取的一组c个实数值,即Θ~Dir(μ1,...,μc),狄利克雷分布函数为:
Figure BDA00033595595600000210
其中,Γ(·)表示Gamma函数,对于第k个客户端第i类数据占客户端所有数据的比例,作如下定义:
Figure BDA00033595595600000211
这里,i=1,2,L c;
根据获取的c个
Figure BDA0003359559560000031
设置第k个客户端使用的本地无标签数据集中c类数据的比例。
本发明的步骤2中,服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt的方法为:设定目标函数:
Figure BDA0003359559560000032
其中,λs是超参数,x和y来自标签数据集Ds,而
Figure BDA0003359559560000033
表示在第t轮训练中标签样本在监督模型σt上的输出,σ表示监督模型参数,Rd表示d维的实数矩阵。
本发明的步骤3中,
设定目标函数:
Figure BDA0003359559560000034
其中
Figure BDA0003359559560000035
表示无监督模型
Figure BDA0003359559560000036
的输入到输出的映射函数,λL1表示惩罚项系数,λ1,λ2是控制损失项之间比率的超参数,
Figure BDA0003359559560000037
是第k个客户端在第t轮的无监督模型,u来自本地无标签数据集Dk,π1(·)是移位数据增强的扰动,π2(·)是翻转数据增强的扰动,
Figure BDA0003359559560000038
是表示伪标签;
Figure BDA0003359559560000039
其中Max(·)是一个可以输出未标记数据属于某个类的最大概率的函数,1(·)表示将数值更改为1的单热函数,A表示数据增强的次数,τ表示阈值。
本发明的有益效果,本发明为了解决缺乏标记数据的问题,提出了基于non-IID数据的半监督联邦学习方法,该方法对监督模型(在标记数据上学习)、无监督模型(在未标记数据上学习)和全局模型进行不相交学习的参数分解策略。特别地,该算法以细粒度的方式分析了全局模型在迭代之间的隐式效应。为了解决联邦学习中的non-IID问题,本发明提出了一种新的聚合规则,联邦频率(FedFreq),该规则通过记录客户端的训练频率来动态调整相应的局部模型的权重,以缓解non-IID问题。此外,本发明引入了狄克雷分布函数来模拟不同的non-IID水平场景。
附图说明
图1为本发明的原理示意图;
图2为argmax方法的原理示意图;
图3为不同参数的Dirichlet数据分布的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施方式将在标记数据集上训练的监督模型定义为σ,在无标签数据集上训练的无监督模型定义为ψ,将聚合的全局模型定义为ω。具体来说,本实施方式设计一种参数分解策略,分别将三个权重α,β和γ分配给无监督模型ψ,监督模型σ和上一轮的全局模型ω。本实施方式的方法可以以细粒度的方式捕获全局模型的每次迭代之间的隐式关系。本实施方式的基于non-IID数据的半监督联邦学习方法包括:
步骤1,初始化:服务器随机从全部客户端中选择设定比例F的客户端,初始化的全局模型ω0。请注意,全局模型ω0也保留在服务器端。0<F<1;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1
与联邦学习不同,在本实施方式的半监督联邦学习系统中,服务器不仅聚合客户端上传的模型,而且还在标签数据集Ds上训练监督模型σtt←ωt)。因此,服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt。目标函数的最小化定义如下:
Figure BDA0003359559560000041
其中λs是超参数,x和y来自标签数据集Ds,而
Figure BDA0003359559560000042
表示在第t轮训练中标签样本在监督模型σt上的输出。σ表示监督模型参数,Rd表示d维的实数矩阵。
步骤3、第k个客户端使用本地无标签数据集来训练接收到的全局模型ωt,并获得无监督模型
Figure BDA0003359559560000051
发送给服务器;
第k个客户端使用本地无标签的数据来训练接收到的全局模型
Figure BDA0003359559560000052
然后获得无监督的模型
Figure BDA0003359559560000053
因此,本实施方式定义以下目标函数:
Figure BDA0003359559560000054
其中,其中
Figure BDA0003359559560000055
表示无监督模型
Figure BDA0003359559560000056
的输入到输出的映射函数,λL1表示惩罚项系数,λ1,λ2是控制损失项之间比率的超参数,
Figure BDA0003359559560000057
是第k个客户端在第t轮的无监督模型,u来自本地无标签数据集,π1(·)是移位数据增强的扰动,即π1是移位数据增强,π2是翻转数据增强,π2(·)是翻转数据增强的扰动,
Figure BDA0003359559560000058
是表示伪标签;而
Figure BDA0003359559560000059
是通过使用本实施方式提出的argmax方法获得的伪标签。Argmax方法的定义如下:
Figure BDA00033595595600000510
其中Max(·)是一个可以输出未标记数据属于某个类的最大概率的函数,1(·)是一个可以将数值更改为1的单热函数,A表示数据增强的次数,而u来自无标签的数据集Dk。本实施方式还设置对超过阈值τ=0.80的无标签样本打上伪标签。
步骤4、服务器聚合客户端上传的无监督模型
Figure BDA00033595595600000514
得到全局无监督模型ψt+1
服务器使用FedFreq聚合算法来聚合客户端上传的无监督模型,得到全局的无监督模型,即
Figure BDA00033595595600000511
其中
Figure BDA00033595595600000512
是第k个客户端在第t+1次培训轮次中的无监督模型,
Figure BDA00033595595600000513
是第k个客户端的权重。
本实施方式提出了设计的FedFreq聚合算法,该算法可以根据客户端的训练频率动态调整相应的局部模型的权重,以缓解non-IID问题。本实施方式观察到,全局模型的参数分布将偏向于经常参与联邦训练的客户,这显然对全局模型的稳健性不友好。因此,本实施方式的见解是降低具有高训练频率的客户对全局模型的影响,以提高模型的鲁棒性。FedFreq聚合算法的形式表达式如下:
Figure BDA0003359559560000061
然后,对于客户端,FedFreq聚合规则表示如下:
Figure BDA0003359559560000062
其中,
Figure BDA0003359559560000063
是第k个客户端在第t+1次培训轮次中的无监督模型,
Figure BDA0003359559560000064
是第k个客户端的权重,
Figure BDA0003359559560000065
K为客户端的总数,
Figure BDA0003359559560000066
Figure BDA0003359559560000067
是第k个客户端被训练到第t+1轮累计的次数,St+1表示服务器在t+1轮中选择的客户端集;
步骤5、服务器将第t+1轮的全局无监督模型ψt+1,监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1
ωt+1=αψt+1+βσt+1+γωt
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1∧α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
本实施方式基于non-IID数据的半监督联邦学习方法的算法流程:
输入:客户端集合K,服务器每轮的训练批次Bserver,服务器每轮的训练次数Eserver,客户端每轮的训练批次Bclient,客户端每轮的训练次数Eclient,学习率η
输出:收敛的全局模型ω*
1.服务器执行
2.初始化全局模型ω0
3.for每一轮t=0,1,2,...do
4.σt←ωt
5.Bserver←(将服务器数据划分为Bserver大小的批次)
6.for训练次数e=1to Eserver do
7.σt+1=σt-η▽Lst,Ds,Bserver,Eserver)
8.end for
9.St←(从K个客户端中随机选择F·K个客户端)
10.for每一个被选择的客户端k∈St同步do
11.
Figure BDA0003359559560000071
12.ψt+1←客户端执行
Figure BDA0003359559560000072
//FedFreq聚合
13.end for
14.ωt+1=αψt+1+βσt+1+γωt
15.服务器存储ωt+1
16.end for
17.客户端执行
Figure BDA0003359559560000073
18.Bclient←(将客户端数据划分为Bclient大小的批次)
19.for训练次数e=1to Eclient do
20.
Figure BDA0003359559560000074
21.end for
22.返回ω*
传统的半监督联邦学习在训练过程中简单地使用了无监督模型和监督模型的参数分解策略,即ωt=ψtt。通过这种方式,学习到的全局模型将偏向于未标记数据(无监督模型)或标记数据(有监督模型),而不是整体数据。因此,为了避免全局模型的漂移问题,本实施方式的本实施方式的基于non-IID数据的半监督联邦学习方法将前一轮的全局模型添加到模型参数聚合中,即ωt=αψt+βσt+γωt-1
本实施方式的基于non-IID数据的半监督联邦学习方法对不同水平的non-IID数据具有鲁棒性。在本实施方式的实验中,本实施方式引入了狄利克雷分布函数来模拟联邦学习中本地客户端的non-IID数据分布。结果表明,在不同水平的non-IID设置下,本实施方式的模型的性能差异不超过1%。
为了更好地评估本实施方式所设计的系统对non-IID数据的鲁棒性,本实施方式引入了Dirchlet分布函数(一个常用的non-IID函数)来调整本地客户端数据的non-IID水平。具体来说,步骤3中,第k个客户端使用的本地无标签数据集包括c类数据,通过调整Dirichlet分布函数的参数μ1,..,μc来生成不同non-IID水平的数据分布;
假设
Figure BDA0003359559560000081
是从狄利克雷分布函数中随机抽取的一组c个实数值,即Θ~Dir(μ1,...,μc),狄利克雷分布函数为:
Figure BDA0003359559560000082
其中,Γ(·)表示Gamma函数,对于第k个客户端第i类数据占客户端所有数据的比例,作如下定义:
Figure BDA0003359559560000083
这里,i=1,2,L c;
根据获取的c个
Figure BDA0003359559560000084
设置第k个客户端使用的本地无标签数据集中c类数据的比例。
狄利克雷分布函数的参数μ越小,每个客户端数据分布的non-IID水平就越高;否则,客户端的数据分布倾向于IID设置。
本实施方式研究了标签在服务器上的场景,并解决了联邦学习中的数据可用性和non-IID问题。为了解决第一个问题,本实施方式设计了一个鲁棒的半监督联邦学习系统,它使用本实施方式的基于non-IID数据的半监督联邦学习方法算法来实现高精度的半监督学习。为了解决non-IID问题,本实施方式提出了一种新的聚合算法FedFreq,该算法在不增加额外计算开销的情况下,有效地实现了全局模型在训练过程中稳定的性能。通过实验验证,本实施方式鲁棒的半监督联邦学习系统的性能明显优于基线。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。

Claims (4)

1.基于non-IID数据的半监督联邦学习方法,其特征在于,所述方法包括:
步骤1、服务器随机从全部客户端中选择设定比例F的客户端,发送全局模型ωt给选择的客户端;
步骤2、服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt,获得监督模型σt+1
步骤3、第k个客户端使用本地无标签数据集来训练接收到的全局模型ωt,并获得无监督模型
Figure FDA0003359559550000011
发送给服务器;
步骤4、服务器聚合客户端上传的无监督模型
Figure FDA0003359559550000012
得到全局无监督模型ψt+1
Figure FDA0003359559550000013
其中,
Figure FDA0003359559550000014
是第k个客户端在第t+1次培训轮次中的无监督模型,
Figure FDA0003359559550000015
是第k个客户端的权重,
Figure FDA0003359559550000016
K为客户端的总数,
Figure FDA0003359559550000017
Figure FDA0003359559550000018
是第k个客户端被训练到第t+1轮累计的次数,St+1表示服务器在t+1轮中选择的客户端集;
步骤5、服务器将第t+1轮的全局无监督模型ψt+1、监督模型σt+1和上一轮的全局模型ωt聚合得到新的全局模型ωt+1
ωt+1=αψt+1+βσt+1+γωt
其中α,β和γ分别是全局无监督模型、监督模型和上一轮的全局模型ωt对应的权重,并且(α,β,γ)∈{α+β+γ=1∧α,β,γ…0};
t=t+1,重复步骤1至步骤5,直到全局模型ωt+1收敛。
2.根据权利要求1所述的基于non-IID数据的半监督联邦学习方法,其特征在于,步骤3中,第k个客户端使用的本地无标签数据集包括c类数据,通过调整Dirichlet分布函数的参数μ1,..,μc来生成不同non-IID水平的数据分布;
假设
Figure FDA0003359559550000019
是从狄利克雷分布函数中随机抽取的一组c个实数值,即Θ~Dir(μ1,...μ,c,狄利克雷分布函数为:
Figure FDA0003359559550000021
其中,Γ(·)表示Gamma函数,对于第k个客户端第i类数据占客户端所有数据的比例,作如下定义:
Figure FDA0003359559550000022
这里,i=1,2,L c;
根据获取的c个
Figure FDA0003359559550000023
设置第k个客户端使用的本地无标签数据集中c类数据的比例。
3.根据权利要求1所述的基于non-IID数据的半监督联邦学习方法,其特征在于,步骤2中,服务器在标记的数据集Ds上使用本地优化器来训练监督模型σt的方法为:设定目标函数:
Figure FDA0003359559550000024
其中,λs是超参数,x和y来自标签数据集Ds,而
Figure FDA0003359559550000025
表示在第t轮训练中标签样本在监督模型σt上的输出,σ表示监督模型参数,Rd表示d维的实数矩阵。
4.根据权利要求1所述的基于non-IID数据的半监督联邦学习方法,其特征在于,步骤3中,
设定目标函数:
Figure FDA0003359559550000026
其中
Figure FDA0003359559550000027
表示无监督模型
Figure FDA0003359559550000028
的输入到输出的映射函数,λL1表示惩罚项系数,λ1,λ2是控制损失项之间比率的超参数,
Figure FDA0003359559550000029
是第k个客户端在第t轮的无监督模型,u来自本地无标签数据集Dk,π1(·)是移位数据增强的扰动,π2(·)是翻转数据增强的扰动,
Figure FDA00033595595500000210
是表示伪标签;
Figure FDA00033595595500000211
其中Max(·)是一个可以输出未标记数据属于某个类的最大概率的函数,1(·)表示将数值更改为1的单热函数,A表示数据增强的次数,τ表示阈值。
CN202111361762.0A 2021-11-17 2021-11-17 基于non-IID数据的半监督联邦学习方法 Pending CN114065951A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111361762.0A CN114065951A (zh) 2021-11-17 2021-11-17 基于non-IID数据的半监督联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111361762.0A CN114065951A (zh) 2021-11-17 2021-11-17 基于non-IID数据的半监督联邦学习方法

Publications (1)

Publication Number Publication Date
CN114065951A true CN114065951A (zh) 2022-02-18

Family

ID=80273142

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111361762.0A Pending CN114065951A (zh) 2021-11-17 2021-11-17 基于non-IID数据的半监督联邦学习方法

Country Status (1)

Country Link
CN (1) CN114065951A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511108A (zh) * 2022-09-27 2022-12-23 河南大学 一种基于数据集蒸馏的联邦学习个性化方法
CN115526313A (zh) * 2022-10-11 2022-12-27 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN115544873A (zh) * 2022-09-27 2022-12-30 南京邮电大学 个性化联邦学习的训练效率与个性化效果量化评估方法
CN117216566A (zh) * 2023-09-14 2023-12-12 西南交通大学 一种基于局部-全局伪标记的联邦半监督学习方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021158313A1 (en) * 2020-02-03 2021-08-12 Intel Corporation Systems and methods for distributed learning for wireless edge dynamics
CN113469325A (zh) * 2021-06-09 2021-10-01 南京邮电大学 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质
CN113490254A (zh) * 2021-08-11 2021-10-08 重庆邮电大学 一种基于联邦学习双向gru资源需求预测的vnf迁移方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021158313A1 (en) * 2020-02-03 2021-08-12 Intel Corporation Systems and methods for distributed learning for wireless edge dynamics
CN113469325A (zh) * 2021-06-09 2021-10-01 南京邮电大学 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质
CN113490254A (zh) * 2021-08-11 2021-10-08 重庆邮电大学 一种基于联邦学习双向gru资源需求预测的vnf迁移方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHE ZHANG等: "Semi-Supervised Federated Learning with non-IID Data: Algorithm and System Design", 《HTTPS://ARXIV.ORG/ABS/2110.13388》 *
王树芬等: "迈向鲁棒的半监督联邦学习系统", 《计算机工程.HTTPS://DOI.ORG/10.19678/J.ISSN.1000-3428.0061911》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511108A (zh) * 2022-09-27 2022-12-23 河南大学 一种基于数据集蒸馏的联邦学习个性化方法
CN115544873A (zh) * 2022-09-27 2022-12-30 南京邮电大学 个性化联邦学习的训练效率与个性化效果量化评估方法
CN115544873B (zh) * 2022-09-27 2023-10-17 南京邮电大学 个性化联邦学习的训练效率与个性化效果量化评估方法
CN115526313A (zh) * 2022-10-11 2022-12-27 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN115526313B (zh) * 2022-10-11 2023-10-24 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN117216566A (zh) * 2023-09-14 2023-12-12 西南交通大学 一种基于局部-全局伪标记的联邦半监督学习方法
CN117216566B (zh) * 2023-09-14 2024-04-09 西南交通大学 一种基于局部-全局伪标记的联邦半监督学习方法

Similar Documents

Publication Publication Date Title
CN114065951A (zh) 基于non-IID数据的半监督联邦学习方法
You et al. Adversarial noise layer: Regularize neural network by adding noise
Bai et al. Stabilizing equilibrium models by jacobian regularization
CN113112027A (zh) 一种基于动态调整模型聚合权重的联邦学习方法
Diao et al. SemiFL: Communication efficient semi-supervised federated learning with unlabeled clients
CN111429340A (zh) 一种基于自注意力机制的循环图像翻译方法
CN103745482B (zh) 一种基于蝙蝠算法优化模糊熵的双阈值图像分割方法
Wu et al. Enhancing TripleGAN for semi-supervised conditional instance synthesis and classification
CN113743474A (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN111931814A (zh) 一种基于类内结构紧致约束的无监督对抗域适应方法
Santos et al. Learning implicit generative models by matching perceptual features
CN116468938A (zh) 一种在标签带噪数据上鲁棒的图像分类方法
CN114782742A (zh) 基于教师模型分类层权重的输出正则化方法
CN106709566A (zh) 一种基于深度学习的数据缺失值回填方法
Li et al. Class balanced adaptive pseudo labeling for federated semi-supervised learning
Ding et al. Take a close look at mode collapse and vanishing gradient in GAN
CN114170461A (zh) 基于特征空间重整化的师生架构含噪声标签图像分类方法
CN109858543B (zh) 基于低秩稀疏表征和关系推断的图像可记忆度预测方法
CN116562366A (zh) 一种基于特征选择和特征对齐的联邦学习方法
CN116151366A (zh) 一种基于在线蒸馏的噪声标签鲁棒性学习方法
Guo et al. Dual class-aware contrastive federated semi-supervised learning
US11328179B2 (en) Information processing apparatus and information processing method
CN114444374A (zh) 一种基于相似性度量的多源到多目标域自适应的方法
Wang et al. DualMatch: Robust Semi-supervised Learning with Dual-Level Interaction
Panda et al. Implicit Generative Modeling of Random Noise during Training Improves Adversarial Robustness

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220218

WD01 Invention patent application deemed withdrawn after publication