CN115511108A - 一种基于数据集蒸馏的联邦学习个性化方法 - Google Patents
一种基于数据集蒸馏的联邦学习个性化方法 Download PDFInfo
- Publication number
- CN115511108A CN115511108A CN202211182116.2A CN202211182116A CN115511108A CN 115511108 A CN115511108 A CN 115511108A CN 202211182116 A CN202211182116 A CN 202211182116A CN 115511108 A CN115511108 A CN 115511108A
- Authority
- CN
- China
- Prior art keywords
- data
- distillation
- local
- model
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004821 distillation Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000009826 distribution Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 241000055285 Astraea <gastropod> Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
技术领域
本发明涉及联邦学习技术领域,尤其涉及一种基于数据集蒸馏的联邦学习个性化方法。
背景技术
在人工智能蓬勃发展的时代背景下,机器学习技术的发展为社会生产带来了翻天覆地的变化,生物认证,智能驾驶,语音助理等一系列技术得到广泛应用。随着技术的不断发展,隐私安全问题也成为人们日渐关注的话题。
联邦学习是一种特殊的分布式机器学习框架,用于解决机器学习实际应用中的数据隐私问题。它可以在不上传原始数据的条件下进行机器学习训练,缓解了数据孤岛问题,同时也有效的保护了用户的隐私安全。然而,联邦学习在实际应用中仍面临诸多严峻挑战,例如用户习惯不同,导致本地数据分布不均衡,在这种情况下全局预测模型的准确率会大大降低。因此,基于非独立同步数据分布、设备异质性、模型异质性等现实问题所来带的挑战,需要对全局模型进行个性化处理,实现个性化的联邦学习。
目前,关于个性化的联邦学习的研究多数是通过用户聚类、模型插值或数据增强来实现的。其中,用户聚类法是指通过聚类算法,将客户端分组,并为每组训练一个模型,这个模型是全局模型和本地模型之间的中间模型,最理想的情况是用户可以利用全局模型中的信息来补偿其有限的局部训练数据,然而将客户端分组需要借助客户端原始的数据特征,有隐私泄露的风险,并且存在泛化性不足的问题。模型插值法也是通过生成中间模型来实现联邦学习个性化,相对于用户聚类法,模型插值法提高了个性化模型的泛化性,但计算成本偏高,影响全局网络的收敛速度。数据增强法的主要目的是构建独立同分布的本地数据集,基于数据增强的个性化联邦学习与其他算法相比拥有更快的收敛速度以及更高的准确率。虽然有大量的算法通过数据增强的方式来改进联邦学习算法,但是仍有如下几个问题:1.使用公共数据集的方法不具有普适性。例如FedShare算法使用公共数据集作为数据增强的数据来源,虽然这种方法可以提高准确度,在实际应用中不能准确匹配客户端的数据类型;2.获取客户端数据分布有可能泄露用户隐私。例如Astraea方法在增强数据前获取了客户端本地数据分布的统计信息,包括每一类数据的数量、平均值以及标准差值。这些统计信息会暴露用户的偏好,存在隐私泄露的风险。3.数据增强的方法增加了系统的通信开销。例如FAug方法,在服务器端训练生成对抗模型(Generative adversarial networks,GAN),再将训练好的GAN模型下发到客户端。GAN模型的训练与下发增加了系统的计算开销,也降低了整体的通信效率。
发明内容
针对现有的个性化联邦学习方法存在的上述问题,本发明提供一种基于数据集蒸馏的联邦学习个性化方法。
本发明提供的一种基于数据集蒸馏的联邦学习个性化方法,包括:
步骤4:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
步骤5:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
步骤6:重复步骤4至步骤5,直至更新后的全局模型满足要求。
进一步地,步骤1具体包括:
步骤1.1:将公式(1)设置为优化目标函数,利用公共数据集训练得到数据集蒸馏模型:
进一步地,步骤3具体包括:
步骤3.1:使用狄利克雷分布对本地数据分布进行统计,得到本地数据的数据分布参数α;
进一步地,步骤5具体包括:
步骤5.1:按照公式(2)对所有本地模型的梯度进行聚合:
其中,mk表示第k个客户端所拥有的样本数量,m表示样本总数;
步骤5.2:按照公式(3)进行梯度下降:
w=wt-ηΔFt(wt) (3)
其中,w表示更新后的梯度,η为本地模型的学习率,ΔFt表示目标函数在第t次聚合时的变化量;
步骤5.3:服务器在计算出最新梯度w后进行反向传播更新全局模型,之后下发模型参数θ至各客户端。
本发明的有益效果:
(1)本发明通过数据集蒸馏的方法实现数据增强,所有参与训练的客户端将本地数据集通过数据集蒸馏模型进行数据增强得到蒸馏图像数据;如此扩充了系统的样本丰富度,为构建独立同分布的数据集提供了数据支持。
(2)本发明将所有客户端上传的蒸馏图像数据作为公共蒸馏图像数据,并利用其在拥有非独立同分布数据的客户端上构建独立同分布的数据集;客户端构建独立同分布的数据集之后,解决了客户端上数据不均衡的问题,最终提高了模型训练的精度与速度。
(3)本发明使用公共蒸馏图像数据对全局模型进行初步训练,随后将训练后的初始模型参数下发,如此客户端不再使用随机的模型参数,最终提高了系统整体的运行效率。
附图说明
图1为本发明实施例提供的一种基于数据集蒸馏的联邦学习个性化方法的流程示意图;
图2为本发明实施例提供的全局模型和本地模型的初始化示意图;
图3为本发明实施例提供的全局模型和本地模型的训练过程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于数据集蒸馏的联邦学习个性化方法,包括以下步骤:
具体地,本步骤具体包括以下子步骤:
S1011:将公式(1)设置为优化目标函数,利用公共数据集训练得到数据集蒸馏模型:
具体地,服务器接收到客户端上传的加密蒸馏数据之后,无需解密即可进行全局模型训练,原因在于:本次训练的目的是为了得到一个粗精度的初始模型。采用本地差分隐私在用户侧进行,服务器无法获得真实的隐私信息,其核心思想是随机化算法,即每一个采集的数据都加入了噪声。若采集的数据足够多,那么就可得到相对准确的统计分布。如此,服务器在可获得统计行为的同时,能够避免用户隐私的泄露。
具体地,本步骤具体包括以下子步骤:
S1031:使用狄利克雷分布对本地数据分布进行统计,得到本地数据的数据分布参数α;
S104:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
S105:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
具体地,本步骤具体包括以下子步骤:
S1051:按照公式(2)对所有本地模型的梯度进行聚合:
其中,mk表示第k个客户端所拥有的样本数量,m表示样本总数量。
S1052:按照公式(3)进行梯度下降:
w=wt-ηΔFt(wt) (3)
其中,w表示更新后的梯度,η为本地模型的学习率,ΔFt表示目标函数在第t次聚合时的变化量。
S1053:服务器在计算出最新梯度w后进行反向传播更新全局模型,之后下发模型参数θ至各客户端。
S106:重复步骤S104至步骤S105,直至更新后的全局模型满足要求,如直至全局模型收敛。如图3所示。
本发明通过数据集蒸馏的方法实现数据增强,所有参与训练的客户端将本地数据集通过数据集蒸馏模型进行数据增强得到蒸馏图像数据;如此扩充了系统的样本丰富度,为构建独立同分布的数据集提供了数据支持
本发明将所有客户端上传的蒸馏图像数据作为公共蒸馏图像数据,并利用其在拥有非独立同分布数据的客户端上构建均匀的数据集;客户端构建独立同分布的数据集之后,解决了客户端上数据不均衡的问题,最终提高了模型训练的精度与速度。
本发明使用公共蒸馏图像数据对全局模型进行初步训练,随后将训练后的初始模型参数下发,如此客户端不再使用随机的模型参数,最终提高了系统整体的运行效率。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (5)
1.一种基于数据集蒸馏的联邦学习个性化方法,其特征在于,包括:
步骤4:在客户端,利用新的本地数据对当前本地模型的参数进行更新,并将更新后的本地模型的参数上传至服务器;
步骤5:服务器接收到各客户端上传的本地模型的参数后,对所有本地模型的参数进行聚合以更新全局模型的参数,并将更新后的全局模型的参数下发至各客户端;
步骤6:重复步骤4至步骤5,直至更新后的全局模型满足要求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211182116.2A CN115511108B (zh) | 2022-09-27 | 一种基于数据集蒸馏的联邦学习个性化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211182116.2A CN115511108B (zh) | 2022-09-27 | 一种基于数据集蒸馏的联邦学习个性化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115511108A true CN115511108A (zh) | 2022-12-23 |
CN115511108B CN115511108B (zh) | 2024-07-12 |
Family
ID=
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117114148A (zh) * | 2023-08-18 | 2023-11-24 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
CN117973507A (zh) * | 2024-03-29 | 2024-05-03 | 山东省计算中心(国家超级计算济南中心) | 一种基于数据增强与隐私增强的组联邦元学习方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112020000281T5 (de) * | 2019-03-22 | 2021-10-14 | International Business Machines Corporation | Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation |
CN113705610A (zh) * | 2021-07-26 | 2021-11-26 | 广州大学 | 一种基于联邦学习的异构模型聚合方法和系统 |
CN113947156A (zh) * | 2021-10-22 | 2022-01-18 | 河南大学 | 一种健康群智感知系统及其成本优化的联邦学习方法 |
CN114065951A (zh) * | 2021-11-17 | 2022-02-18 | 黑龙江大学 | 基于non-IID数据的半监督联邦学习方法 |
CN114091667A (zh) * | 2021-11-22 | 2022-02-25 | 北京理工大学 | 一种面向非独立同分布数据的联邦互学习模型训练方法 |
CN114091682A (zh) * | 2020-08-24 | 2022-02-25 | 三星电子株式会社 | 用于联邦学习的方法和设备 |
CN114154643A (zh) * | 2021-11-09 | 2022-03-08 | 浙江师范大学 | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 |
CN114429219A (zh) * | 2021-12-09 | 2022-05-03 | 之江实验室 | 一种面向长尾异构数据的联邦学习方法 |
CN114580663A (zh) * | 2022-03-01 | 2022-06-03 | 浙江大学 | 面向数据非独立同分布场景的联邦学习方法及系统 |
CN114821179A (zh) * | 2022-05-05 | 2022-07-29 | 安徽大学 | 一种基于联邦模型蒸馏的混合隐私保护图像分类方法 |
CN114862416A (zh) * | 2022-04-11 | 2022-08-05 | 北京航空航天大学 | 一种联邦学习环境下的跨平台信用评价方法 |
CN115063630A (zh) * | 2022-06-14 | 2022-09-16 | 北京邮电大学深圳研究院 | 基于解耦迁移的联邦学习方法在计算机视觉上的应用 |
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112020000281T5 (de) * | 2019-03-22 | 2021-10-14 | International Business Machines Corporation | Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation |
CN114091682A (zh) * | 2020-08-24 | 2022-02-25 | 三星电子株式会社 | 用于联邦学习的方法和设备 |
CN113705610A (zh) * | 2021-07-26 | 2021-11-26 | 广州大学 | 一种基于联邦学习的异构模型聚合方法和系统 |
CN113947156A (zh) * | 2021-10-22 | 2022-01-18 | 河南大学 | 一种健康群智感知系统及其成本优化的联邦学习方法 |
CN114154643A (zh) * | 2021-11-09 | 2022-03-08 | 浙江师范大学 | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 |
CN114065951A (zh) * | 2021-11-17 | 2022-02-18 | 黑龙江大学 | 基于non-IID数据的半监督联邦学习方法 |
CN114091667A (zh) * | 2021-11-22 | 2022-02-25 | 北京理工大学 | 一种面向非独立同分布数据的联邦互学习模型训练方法 |
CN114429219A (zh) * | 2021-12-09 | 2022-05-03 | 之江实验室 | 一种面向长尾异构数据的联邦学习方法 |
CN114580663A (zh) * | 2022-03-01 | 2022-06-03 | 浙江大学 | 面向数据非独立同分布场景的联邦学习方法及系统 |
CN114862416A (zh) * | 2022-04-11 | 2022-08-05 | 北京航空航天大学 | 一种联邦学习环境下的跨平台信用评价方法 |
CN114821179A (zh) * | 2022-05-05 | 2022-07-29 | 安徽大学 | 一种基于联邦模型蒸馏的混合隐私保护图像分类方法 |
CN115063630A (zh) * | 2022-06-14 | 2022-09-16 | 北京邮电大学深圳研究院 | 基于解耦迁移的联邦学习方法在计算机视觉上的应用 |
Non-Patent Citations (4)
Title |
---|
YANLIN ZHOU 等: "Distilled One-Shot Federated Learning", 《《HTTPS://ARXIV.ORG/PDF/2009.07999.PDF》》, 6 June 2021 (2021-06-06), pages 1 - 16 * |
于俊洋 等: "基于多尺度融合CNN的图像超分辨率重建", 《计算机系统应用》, 31 July 2022 (2022-07-31) * |
郭斌 等: "《人机物融合群智计算》", 1 July 2022, 机械工业出版社, pages: 303 - 307 * |
黄国鹏 等: "基于联邦学习的隐私安全和高效通信模型", 《无线电工程》, 31 March 2022 (2022-03-31) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117114148A (zh) * | 2023-08-18 | 2023-11-24 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
CN117114148B (zh) * | 2023-08-18 | 2024-04-09 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
CN117973507A (zh) * | 2024-03-29 | 2024-05-03 | 山东省计算中心(国家超级计算济南中心) | 一种基于数据增强与隐私增强的组联邦元学习方法 |
CN117973507B (zh) * | 2024-03-29 | 2024-06-04 | 山东省计算中心(国家超级计算济南中心) | 一种基于数据增强与隐私增强的组联邦元学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111967910A (zh) | 一种用户客群分类方法和装置 | |
EP3542319B1 (en) | Training neural networks using a clustering loss | |
CN105874474A (zh) | 用于面部表示的系统和方法 | |
CN111242230A (zh) | 基于人工智能的图像处理方法及图像分类模型训练方法 | |
CN108287857A (zh) | 表情图片推荐方法及装置 | |
CN113657607B (zh) | 一种面向联邦学习的连续学习方法 | |
EP3707612B1 (en) | Duplicative data detection | |
Sun et al. | Lightweight image classifier using dilated and depthwise separable convolutions | |
WO2022105496A1 (zh) | 智能回访方法、装置、电子设备及可读存储介质 | |
CN115907001B (zh) | 基于知识蒸馏的联邦图学习方法及自动驾驶方法 | |
CN113065143A (zh) | 基于区块链的工业数据安全共享 | |
US20200167448A1 (en) | Anonymous cross-device, cross-channel, and cross-venue user identification using adaptive deep learning | |
CN112163637B (zh) | 基于非平衡数据的图像分类模型训练方法、装置 | |
CN115049076A (zh) | 基于原型网络的迭代聚类式联邦学习方法 | |
CN112668482B (zh) | 人脸识别训练方法、装置、计算机设备及存储介质 | |
CN110929806A (zh) | 基于人工智能的图片处理方法、装置及电子设备 | |
CN111552865A (zh) | 用户兴趣画像方法及相关设备 | |
CN102693258A (zh) | 高精度的类似检索系统 | |
CN117078312B (zh) | 一种基于人工智能的广告投放管理方法及系统 | |
CN115511108A (zh) | 一种基于数据集蒸馏的联邦学习个性化方法 | |
CN108960186A (zh) | 一种基于人脸的广告机用户识别方法 | |
CN105159918A (zh) | 一种基于信任关联度的微博网络社区发现方法 | |
Xie et al. | Cloud computing image recognition system assists the construction of the internet of things model of administrative management event parameters | |
CN113962417A (zh) | 一种视频处理方法、装置、电子设备和存储介质 | |
Hashemian et al. | A privacy-preserving distributed transfer learning in activity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |