CN115511108A - 一种基于数据集蒸馏的联邦学习个性化方法 - Google Patents

一种基于数据集蒸馏的联邦学习个性化方法 Download PDF

Info

Publication number
CN115511108A
CN115511108A CN202211182116.2A CN202211182116A CN115511108A CN 115511108 A CN115511108 A CN 115511108A CN 202211182116 A CN202211182116 A CN 202211182116A CN 115511108 A CN115511108 A CN 115511108A
Authority
CN
China
Prior art keywords
data
distillation
local
model
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211182116.2A
Other languages
English (en)
Other versions
CN115511108B (zh
Inventor
翟锐
张玉涛
刘杭
于俊洋
王瑛琦
宋亚林
刘文明
苑昆永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202211182116.2A priority Critical patent/CN115511108B/zh
Priority claimed from CN202211182116.2A external-priority patent/CN115511108B/zh
Publication of CN115511108A publication Critical patent/CN115511108A/zh
Application granted granted Critical
Publication of CN115511108B publication Critical patent/CN115511108B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于数据集蒸馏的联邦学习个性化方法。该方法包括:在客户端,利用预设的数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure DDA0003867257760000011
并将蒸馏数据加密后上传至服务器;服务器利用所有的加密蒸馏数据
Figure DDA0003867257760000012
进行全局模型训练,得到全局模型的初始参数G0,将
Figure DDA0003867257760000013
和G0下发至各客户端;在客户端,根据本地数据的数据分布特征利用
Figure DDA0003867257760000014
进行数据增强得到新的本地数据,并利用G0对本地模型进行参数初始化,然后利用新的本地数据对当前本地模型的参数进行更新并上传至服务器;服务器对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;重复前述的两个步骤,直至更新后的全局模型满足要求。

Description

一种基于数据集蒸馏的联邦学习个性化方法
技术领域
本发明涉及联邦学习技术领域,尤其涉及一种基于数据集蒸馏的联邦学习个性化方法。
背景技术
在人工智能蓬勃发展的时代背景下,机器学习技术的发展为社会生产带来了翻天覆地的变化,生物认证,智能驾驶,语音助理等一系列技术得到广泛应用。随着技术的不断发展,隐私安全问题也成为人们日渐关注的话题。
联邦学习是一种特殊的分布式机器学习框架,用于解决机器学习实际应用中的数据隐私问题。它可以在不上传原始数据的条件下进行机器学习训练,缓解了数据孤岛问题,同时也有效的保护了用户的隐私安全。然而,联邦学习在实际应用中仍面临诸多严峻挑战,例如用户习惯不同,导致本地数据分布不均衡,在这种情况下全局预测模型的准确率会大大降低。因此,基于非独立同步数据分布、设备异质性、模型异质性等现实问题所来带的挑战,需要对全局模型进行个性化处理,实现个性化的联邦学习。
目前,关于个性化的联邦学习的研究多数是通过用户聚类、模型插值或数据增强来实现的。其中,用户聚类法是指通过聚类算法,将客户端分组,并为每组训练一个模型,这个模型是全局模型和本地模型之间的中间模型,最理想的情况是用户可以利用全局模型中的信息来补偿其有限的局部训练数据,然而将客户端分组需要借助客户端原始的数据特征,有隐私泄露的风险,并且存在泛化性不足的问题。模型插值法也是通过生成中间模型来实现联邦学习个性化,相对于用户聚类法,模型插值法提高了个性化模型的泛化性,但计算成本偏高,影响全局网络的收敛速度。数据增强法的主要目的是构建独立同分布的本地数据集,基于数据增强的个性化联邦学习与其他算法相比拥有更快的收敛速度以及更高的准确率。虽然有大量的算法通过数据增强的方式来改进联邦学习算法,但是仍有如下几个问题:1.使用公共数据集的方法不具有普适性。例如FedShare算法使用公共数据集作为数据增强的数据来源,虽然这种方法可以提高准确度,在实际应用中不能准确匹配客户端的数据类型;2.获取客户端数据分布有可能泄露用户隐私。例如Astraea方法在增强数据前获取了客户端本地数据分布的统计信息,包括每一类数据的数量、平均值以及标准差值。这些统计信息会暴露用户的偏好,存在隐私泄露的风险。3.数据增强的方法增加了系统的通信开销。例如FAug方法,在服务器端训练生成对抗模型(Generative adversarial networks,GAN),再将训练好的GAN模型下发到客户端。GAN模型的训练与下发增加了系统的计算开销,也降低了整体的通信效率。
发明内容
针对现有的个性化联邦学习方法存在的上述问题,本发明提供一种基于数据集蒸馏的联邦学习个性化方法。
本发明提供的一种基于数据集蒸馏的联邦学习个性化方法,包括:
步骤1:在客户端,利用预设的数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure BDA0003867257740000021
并将所述蒸馏数据加密后上传至服务器;
步骤2:服务器接收到各客户端上传的加密蒸馏数据
Figure BDA0003867257740000022
后,将所有的加密蒸馏数据记作
Figure BDA0003867257740000023
利用
Figure BDA0003867257740000024
进行全局模型训练,得到全局模型的初始参数G0,将
Figure BDA0003867257740000025
和G0下发至各客户端;N表示客户端的数量;
步骤3:在客户端,根据本地数据的数据分布特征利用
Figure BDA0003867257740000026
进行数据增强得到新的本地数据,并利用G0对本地模型进行参数初始化;
步骤4:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
步骤5:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
步骤6:重复步骤4至步骤5,直至更新后的全局模型满足要求。
进一步地,步骤1具体包括:
步骤1.1:将公式(1)设置为优化目标函数,利用公共数据集训练得到数据集蒸馏模型:
Figure BDA0003867257740000027
其中,
Figure BDA0003867257740000028
为生成的合成数据集,
Figure BDA0003867257740000029
为学习率,θ0为初始化参数,
Figure BDA00038672577400000210
表示拉普拉斯算子,
Figure BDA00038672577400000211
表示元学习函数;
步骤1.2:将数据集蒸馏模型下发至各客户端,客户端利用数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure BDA0003867257740000031
并采用差分隐私算法对所述蒸馏数据
Figure BDA0003867257740000032
记进行加密,得到加密蒸馏数据
Figure BDA0003867257740000033
进一步地,步骤3具体包括:
步骤3.1:使用狄利克雷分布对本地数据分布进行统计,得到本地数据的数据分布参数α;
步骤3.2:利用
Figure BDA0003867257740000034
对本地数据进行补充使得本地数据的数据分布参数α不断逼近0.5,将α最接近0.5时的本地数据作为新的本地数据。
进一步地,步骤4具体包括:对于客户端k,对第t轮次的梯度
Figure BDA0003867257740000035
进行随机梯度下降,得到更新后的梯度
Figure BDA0003867257740000036
Figure BDA0003867257740000037
上传至服务器。
进一步地,步骤5具体包括:
步骤5.1:按照公式(2)对所有本地模型的梯度进行聚合:
Figure BDA0003867257740000038
其中,mk表示第k个客户端所拥有的样本数量,m表示样本总数;
步骤5.2:按照公式(3)进行梯度下降:
w=wt-ηΔFt(wt) (3)
其中,w表示更新后的梯度,η为本地模型的学习率,ΔFt表示目标函数在第t次聚合时的变化量;
步骤5.3:服务器在计算出最新梯度w后进行反向传播更新全局模型,之后下发模型参数θ至各客户端。
本发明的有益效果:
(1)本发明通过数据集蒸馏的方法实现数据增强,所有参与训练的客户端将本地数据集通过数据集蒸馏模型进行数据增强得到蒸馏图像数据;如此扩充了系统的样本丰富度,为构建独立同分布的数据集提供了数据支持。
(2)本发明将所有客户端上传的蒸馏图像数据作为公共蒸馏图像数据,并利用其在拥有非独立同分布数据的客户端上构建独立同分布的数据集;客户端构建独立同分布的数据集之后,解决了客户端上数据不均衡的问题,最终提高了模型训练的精度与速度。
(3)本发明使用公共蒸馏图像数据对全局模型进行初步训练,随后将训练后的初始模型参数下发,如此客户端不再使用随机的模型参数,最终提高了系统整体的运行效率。
附图说明
图1为本发明实施例提供的一种基于数据集蒸馏的联邦学习个性化方法的流程示意图;
图2为本发明实施例提供的全局模型和本地模型的初始化示意图;
图3为本发明实施例提供的全局模型和本地模型的训练过程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于数据集蒸馏的联邦学习个性化方法,包括以下步骤:
S101:在客户端,利用预设的数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure BDA0003867257740000041
并将所述蒸馏数据加密后上传至服务器;
具体地,本步骤具体包括以下子步骤:
S1011:将公式(1)设置为优化目标函数,利用公共数据集训练得到数据集蒸馏模型:
Figure BDA0003867257740000042
其中,
Figure BDA0003867257740000043
为生成的合成数据集,
Figure BDA0003867257740000044
为学习率,θ0为初始化参数,
Figure BDA0003867257740000045
表示拉普拉斯算子,
Figure BDA0003867257740000046
表示元学习函数;可以理解,用户可以根据需求对元学习函数进行自定义。
S1012:将数据集蒸馏模型下发至各客户端,客户端利用数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure BDA0003867257740000047
并采用差分隐私算法对所述蒸馏数据
Figure BDA0003867257740000048
记进行加密,得到加密蒸馏数据
Figure BDA0003867257740000049
S102:服务器接收到各客户端上传的加密蒸馏数据
Figure BDA00038672577400000410
后,将所有的加密蒸馏数据记作
Figure BDA0003867257740000051
利用
Figure BDA0003867257740000052
进行全局模型训练,得到全局模型的初始参数G0,将
Figure BDA0003867257740000053
和G0下发至各客户端;N表示客户端的数量;如图2所示。
具体地,服务器接收到客户端上传的加密蒸馏数据之后,无需解密即可进行全局模型训练,原因在于:本次训练的目的是为了得到一个粗精度的初始模型。采用本地差分隐私在用户侧进行,服务器无法获得真实的隐私信息,其核心思想是随机化算法,即每一个采集的数据都加入了噪声。若采集的数据足够多,那么就可得到相对准确的统计分布。如此,服务器在可获得统计行为的同时,能够避免用户隐私的泄露。
S103:在客户端,根据本地数据的数据分布特征利用
Figure BDA0003867257740000054
进行数据增强得到新的本地数据,并利用G0对本地模型进行参数初始化;如图2所示。
具体地,本步骤具体包括以下子步骤:
S1031:使用狄利克雷分布对本地数据分布进行统计,得到本地数据的数据分布参数α;
狄利克雷分布是关于一组d个连续变量xi∈[0,1]的概率分布,∑ixi=1。令μ=(μ1,μ2,…,μd),参数α=(α1,α2,…,αd),其中αi>0且
Figure BDA0003867257740000055
那么狄利克雷分布表示为:
Figure BDA0003867257740000056
S1032:利用
Figure BDA0003867257740000057
对本地数据进行补充使得本地数据的数据分布参数α不断逼近0.5,将α最接近0.5时的本地数据作为新的本地数据。
S104:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
具体地,客户端在平衡好数据之后进行随机梯度下降,在满足一定的轮次后将本轮梯度上传至服务器进行聚合。其中,对于客户端k,对第t轮次的梯度
Figure BDA0003867257740000058
进行随机梯度下降,得到更新后的梯度
Figure BDA0003867257740000059
Figure BDA00038672577400000510
上传至服务器。
对于每一个客户端执行更新操作,公式描述为
Figure BDA00038672577400000511
S105:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
具体地,本步骤具体包括以下子步骤:
S1051:按照公式(2)对所有本地模型的梯度进行聚合:
Figure BDA0003867257740000061
其中,mk表示第k个客户端所拥有的样本数量,m表示样本总数量。
S1052:按照公式(3)进行梯度下降:
w=wt-ηΔFt(wt) (3)
其中,w表示更新后的梯度,η为本地模型的学习率,ΔFt表示目标函数在第t次聚合时的变化量。
S1053:服务器在计算出最新梯度w后进行反向传播更新全局模型,之后下发模型参数θ至各客户端。
S106:重复步骤S104至步骤S105,直至更新后的全局模型满足要求,如直至全局模型收敛。如图3所示。
本发明通过数据集蒸馏的方法实现数据增强,所有参与训练的客户端将本地数据集通过数据集蒸馏模型进行数据增强得到蒸馏图像数据;如此扩充了系统的样本丰富度,为构建独立同分布的数据集提供了数据支持
本发明将所有客户端上传的蒸馏图像数据作为公共蒸馏图像数据,并利用其在拥有非独立同分布数据的客户端上构建均匀的数据集;客户端构建独立同分布的数据集之后,解决了客户端上数据不均衡的问题,最终提高了模型训练的精度与速度。
本发明使用公共蒸馏图像数据对全局模型进行初步训练,随后将训练后的初始模型参数下发,如此客户端不再使用随机的模型参数,最终提高了系统整体的运行效率。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (5)

1.一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,包括:
步骤1:在客户端,利用预设的数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure FDA0003867257730000011
并将所述蒸馏数据加密后上传至服务器;
步骤2:服务器接收到各客户端上传的加密蒸馏数据
Figure FDA0003867257730000012
后,将所有的加密蒸馏数据记作
Figure FDA0003867257730000013
利用
Figure FDA0003867257730000014
进行全局模型训练,得到全局模型的初始参数G0,将
Figure FDA0003867257730000015
和G0下发至各客户端;N表示客户端的数量;
步骤3:在客户端,根据本地数据的数据分布特征利用
Figure FDA0003867257730000016
进行数据增强得到新的本地数据,并利用G0对本地模型进行参数初始化;
步骤4:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
步骤5:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
步骤6:重复步骤4至步骤5,直至更新后的全局模型满足要求。
2.根据权利要求1所述的一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,步骤1具体包括:
步骤1.1:将公式(1)设置为优化目标函数,利用公共数据集训练得到数据集蒸馏模型:
Figure FDA0003867257730000017
其中,
Figure FDA0003867257730000018
为生成的合成数据集,
Figure FDA0003867257730000019
为学习率,θ0为初始化参数,
Figure FDA00038672577300000110
表示拉普拉斯算子,
Figure FDA00038672577300000111
表示元学习函数;
步骤1.2:将数据集蒸馏模型下发至各客户端,客户端利用数据集蒸馏模型对本地数据进行处理生成蒸馏数据
Figure FDA00038672577300000112
并采用差分隐私算法对所述蒸馏数据
Figure FDA00038672577300000113
记进行加密,得到加密蒸馏数据
Figure FDA00038672577300000114
3.根据权利要求1所述的一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,步骤3具体包括:
步骤3.1:使用狄利克雷分布对本地数据分布进行统计,得到本地数据的数据分布参数α;
步骤3.2:利用
Figure FDA0003867257730000021
对本地数据进行补充使得本地数据的数据分布参数α不断逼近0.5,将α最接近0.5时的本地数据作为新的本地数据。
4.根据权利要求1所述的一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,步骤4具体包括:对于客户端k,对第t轮次的梯度
Figure FDA0003867257730000022
进行随机梯度下降,得到更新后的梯度
Figure FDA0003867257730000023
Figure FDA0003867257730000024
上传至服务器。
5.根据权利要求4所述的一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,步骤5具体包括:
步骤5.1:按照公式(2)对所有本地模型的梯度进行聚合:
Figure FDA0003867257730000025
其中,mk表示第k个客户端所拥有的样本数量,m表示样本总数量;
步骤5.2:按照公式(3)进行梯度下降:
w=wt-ηΔFt(wt) (3)
其中,w表示更新后的梯度,η为本地模型的学习率,ΔFt表示目标函数在第t次聚合时的变化量;
步骤5.3:服务器在计算出最新梯度w后进行反向传播更新全局模型,之后下发模型参数θ至各客户端。
CN202211182116.2A 2022-09-27 一种基于数据集蒸馏的联邦学习个性化方法 Active CN115511108B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211182116.2A CN115511108B (zh) 2022-09-27 一种基于数据集蒸馏的联邦学习个性化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211182116.2A CN115511108B (zh) 2022-09-27 一种基于数据集蒸馏的联邦学习个性化方法

Publications (2)

Publication Number Publication Date
CN115511108A true CN115511108A (zh) 2022-12-23
CN115511108B CN115511108B (zh) 2024-07-12

Family

ID=

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114148A (zh) * 2023-08-18 2023-11-24 湖南工商大学 一种轻量级联邦学习训练方法
CN117973507A (zh) * 2024-03-29 2024-05-03 山东省计算中心(国家超级计算济南中心) 一种基于数据增强与隐私增强的组联邦元学习方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020000281T5 (de) * 2019-03-22 2021-10-14 International Business Machines Corporation Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation
CN113705610A (zh) * 2021-07-26 2021-11-26 广州大学 一种基于联邦学习的异构模型聚合方法和系统
CN113947156A (zh) * 2021-10-22 2022-01-18 河南大学 一种健康群智感知系统及其成本优化的联邦学习方法
CN114065951A (zh) * 2021-11-17 2022-02-18 黑龙江大学 基于non-IID数据的半监督联邦学习方法
CN114091667A (zh) * 2021-11-22 2022-02-25 北京理工大学 一种面向非独立同分布数据的联邦互学习模型训练方法
CN114091682A (zh) * 2020-08-24 2022-02-25 三星电子株式会社 用于联邦学习的方法和设备
CN114154643A (zh) * 2021-11-09 2022-03-08 浙江师范大学 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质
CN114429219A (zh) * 2021-12-09 2022-05-03 之江实验室 一种面向长尾异构数据的联邦学习方法
CN114580663A (zh) * 2022-03-01 2022-06-03 浙江大学 面向数据非独立同分布场景的联邦学习方法及系统
CN114821179A (zh) * 2022-05-05 2022-07-29 安徽大学 一种基于联邦模型蒸馏的混合隐私保护图像分类方法
CN114862416A (zh) * 2022-04-11 2022-08-05 北京航空航天大学 一种联邦学习环境下的跨平台信用评价方法
CN115063630A (zh) * 2022-06-14 2022-09-16 北京邮电大学深圳研究院 基于解耦迁移的联邦学习方法在计算机视觉上的应用

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020000281T5 (de) * 2019-03-22 2021-10-14 International Business Machines Corporation Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation
CN114091682A (zh) * 2020-08-24 2022-02-25 三星电子株式会社 用于联邦学习的方法和设备
CN113705610A (zh) * 2021-07-26 2021-11-26 广州大学 一种基于联邦学习的异构模型聚合方法和系统
CN113947156A (zh) * 2021-10-22 2022-01-18 河南大学 一种健康群智感知系统及其成本优化的联邦学习方法
CN114154643A (zh) * 2021-11-09 2022-03-08 浙江师范大学 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质
CN114065951A (zh) * 2021-11-17 2022-02-18 黑龙江大学 基于non-IID数据的半监督联邦学习方法
CN114091667A (zh) * 2021-11-22 2022-02-25 北京理工大学 一种面向非独立同分布数据的联邦互学习模型训练方法
CN114429219A (zh) * 2021-12-09 2022-05-03 之江实验室 一种面向长尾异构数据的联邦学习方法
CN114580663A (zh) * 2022-03-01 2022-06-03 浙江大学 面向数据非独立同分布场景的联邦学习方法及系统
CN114862416A (zh) * 2022-04-11 2022-08-05 北京航空航天大学 一种联邦学习环境下的跨平台信用评价方法
CN114821179A (zh) * 2022-05-05 2022-07-29 安徽大学 一种基于联邦模型蒸馏的混合隐私保护图像分类方法
CN115063630A (zh) * 2022-06-14 2022-09-16 北京邮电大学深圳研究院 基于解耦迁移的联邦学习方法在计算机视觉上的应用

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YANLIN ZHOU 等: "Distilled One-Shot Federated Learning", 《《HTTPS://ARXIV.ORG/PDF/2009.07999.PDF》》, 6 June 2021 (2021-06-06), pages 1 - 16 *
于俊洋 等: "基于多尺度融合CNN的图像超分辨率重建", 《计算机系统应用》, 31 July 2022 (2022-07-31) *
郭斌 等: "《人机物融合群智计算》", 1 July 2022, 机械工业出版社, pages: 303 - 307 *
黄国鹏 等: "基于联邦学习的隐私安全和高效通信模型", 《无线电工程》, 31 March 2022 (2022-03-31) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114148A (zh) * 2023-08-18 2023-11-24 湖南工商大学 一种轻量级联邦学习训练方法
CN117114148B (zh) * 2023-08-18 2024-04-09 湖南工商大学 一种轻量级联邦学习训练方法
CN117973507A (zh) * 2024-03-29 2024-05-03 山东省计算中心(国家超级计算济南中心) 一种基于数据增强与隐私增强的组联邦元学习方法
CN117973507B (zh) * 2024-03-29 2024-06-04 山东省计算中心(国家超级计算济南中心) 一种基于数据增强与隐私增强的组联邦元学习方法

Similar Documents

Publication Publication Date Title
CN111967910A (zh) 一种用户客群分类方法和装置
EP3542319B1 (en) Training neural networks using a clustering loss
CN105874474A (zh) 用于面部表示的系统和方法
CN111242230A (zh) 基于人工智能的图像处理方法及图像分类模型训练方法
CN108287857A (zh) 表情图片推荐方法及装置
CN113657607B (zh) 一种面向联邦学习的连续学习方法
EP3707612B1 (en) Duplicative data detection
Sun et al. Lightweight image classifier using dilated and depthwise separable convolutions
WO2022105496A1 (zh) 智能回访方法、装置、电子设备及可读存储介质
CN115907001B (zh) 基于知识蒸馏的联邦图学习方法及自动驾驶方法
CN113065143A (zh) 基于区块链的工业数据安全共享
US20200167448A1 (en) Anonymous cross-device, cross-channel, and cross-venue user identification using adaptive deep learning
CN112163637B (zh) 基于非平衡数据的图像分类模型训练方法、装置
CN115049076A (zh) 基于原型网络的迭代聚类式联邦学习方法
CN112668482B (zh) 人脸识别训练方法、装置、计算机设备及存储介质
CN110929806A (zh) 基于人工智能的图片处理方法、装置及电子设备
CN111552865A (zh) 用户兴趣画像方法及相关设备
CN102693258A (zh) 高精度的类似检索系统
CN117078312B (zh) 一种基于人工智能的广告投放管理方法及系统
CN115511108A (zh) 一种基于数据集蒸馏的联邦学习个性化方法
CN108960186A (zh) 一种基于人脸的广告机用户识别方法
CN105159918A (zh) 一种基于信任关联度的微博网络社区发现方法
Xie et al. Cloud computing image recognition system assists the construction of the internet of things model of administrative management event parameters
CN113962417A (zh) 一种视频处理方法、装置、电子设备和存储介质
Hashemian et al. A privacy-preserving distributed transfer learning in activity recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant