CN114154643A - 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 - Google Patents
基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 Download PDFInfo
- Publication number
- CN114154643A CN114154643A CN202111321688.XA CN202111321688A CN114154643A CN 114154643 A CN114154643 A CN 114154643A CN 202111321688 A CN202111321688 A CN 202111321688A CN 114154643 A CN114154643 A CN 114154643A
- Authority
- CN
- China
- Prior art keywords
- local
- model
- federal
- output vector
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000004821 distillation Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims abstract description 96
- 238000013140 knowledge distillation Methods 0.000 claims abstract description 16
- 238000010606 normalization Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 abstract description 19
- 238000012545 processing Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 17
- 238000009826 distribution Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001077660 Molo Species 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于联邦蒸馏的联邦学习模型的训练方法、系统和介质,可应用于模型处理技术领域。本发明方法包括:客户端采用联邦学习算法和本地私有数据集训练并更新本地模型,采用公共数据集和更新后的本地模型预测局部归一化层的第一输出向量,并向服务器上传第一输出向量对应的局部平均输出向量;服务器对所有局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有客户端下发所述全局平均输出向量;客户端在公共数据集上,采用全局平均输出向量和更新后的本地模型进行知识蒸馏,并在本地私有数据集上训练回调本地模型。本发明能使通信成本只取决于模型输出,不会随模型大小倍数增加,从而有效提高通讯的稳定性和减少延迟。
Description
技术领域
本发明涉及教育大数据和模型处理技术领域,尤其是一种基于联邦蒸馏的联邦学习模型的训练方法、系统和介质。
背景技术
随着互联网及人工智能(AI)的快速发展,用户无时无刻不在使用无数移动设备来产生大量数据,久而久之,数据是爆炸且呈指数增长的,例如,容量巨大且类型冗余的教育大数据。众所周知,机器学习(Machine Leaming,简称ML)等人工智能技术在科学研究和商业决策中的成功应用正得益于大数据的驱动,具有高表征能力的数据可以帮助我们构建更复杂、更准确的ML模型。但是,日常生活中的数据往往以数据孤岛形式存在,数据难以聚合和存储。数据孤岛成为机器学习的一大挑战之一。最典型的就是目前海量碎片化存在于各地区学校、培训机构的教育资源数据。加上通用数据保护条例(GDPR)的发表及限制,数据隐私保护成为机器学习的又一大瓶颈。在这种情况下,学者们开始将注意力从数据聚合转向模型聚合。联邦学习(Federated Leaming,简称FL)作为一种新的分布式机器学习框架应运而生。相关技术中,在联邦学习中参与的用户数量可以达到几十、几百甚至更多,每个客户端本地数据的数据异质性致使联邦学习无法学习更好的全局模型。此外,客户端和中心服务器之间的通讯也存在高延迟和不稳定性。
发明内容
本发明面向教育大数据旨在至少解决现有联邦学习技术中存在的技术问题之一。为此,本发明提出一种基于联邦蒸馏的联邦学习模型的训练方法、系统和介质,能够有效提升联邦学习模型的准确度,提高客户端和中心服务器之间通讯的稳定性及收敛速度。
一方面,本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练方法,包括以下步骤:
客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型;
所述客户端采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量,并向服务器上传所述第一输出向量对应的局部平均输出向量;
服务器对所有所述局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有所述客户端下发所述全局平均输出向量;
所述客户端在所述公共数据集上,采用所述全局平均输出向量和更新后的所述本地模型进行知识蒸馏,并在所述本地私有数据集上训练回调本地模型。
在一些实施例中,在执行所述客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型这一步骤之前,所述方法还包括以下步骤:
所述服务器向每个所述客户端发送初始化模型。
在一些实施例中,所述客户端与服务器之间传输模型平均输出向量。
在一些实施例中,所述客户端更新本地模型,包括:
获取部分所述本地私有数据集;
确定本地模型的目标函数对应的梯度信息;
根据所述梯度信息和所述本地私有数据集,采用迭代一阶方式获取近似值。
在一些实施例中,在所述客户端采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量之前,所述方法还包括以下步骤:
计算每个标签的第二输出向量。
在一些实施例中,所述客户端在所述公共数据集上,采用所述全局平均输出向量和更新后的所述本地模型进行知识蒸馏,包括:
所述客户端根据所述全局平均输出向量,控制更新后的所述本地模型,采用知识蒸馏学习所述公共数据集上的共识信息。
在一些实施例中,所述归一化层包括softmax层;所述第一输出向量包括softmax层输出的logit向量。
另一方面,本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练系统,包括:
客户端,所述客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型;采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量,并向服务器上传所述第一输出向量对应的局部平均输出向量;以及在所述公共数据集上,采用服务器下发的全局平均输出向量和更新后的所述本地模型进行知识蒸馏,并在所述本地私有数据集上训练回调本地模型;
服务器,所述服务器对所有所述局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有所述客户端下发所述全局平均输出向量。
另一方面,本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行所述的基于联邦蒸馏的联邦学习模型的训练方法。
另一方面,本发明实施例提供了一种存储介质,其中存储有计算机可执行的程序,所述计算机可执行的程序被处理器执行时用于实现所述的基于联邦蒸馏的联邦学习模型的训练方法。
本发明实施例提供的一种基于联邦蒸馏的联邦学习模型的训练方法,具有如下有益效果:
本实施例的客户端先采用联邦学习算法,基于本地私有数据集训练并更新本地模型,并采用公共数据集和更新后的本地模型预测局部归一化层的第一输出向量,并向服务器上传第一输出向量对应的局部平均输出向量,接着服务器对所有局部平均输出向量进行全局共识操作并确定全局平均输出向量后,向所有客户端下发全局平均输出向量,然后客户端在公共数据集上,采用全局平均输出向量和更新后的本地模型进行知识蒸馏,并在本地私有数据集上训练回调本地模型。本实施例通过联邦蒸馏完成模型更新,使用个性化联邦学习完成局部个性化,同时联邦蒸馏使每个客户端能够在公共数据集上训练自己的本地模型,并使用模型的归一化层的输出向量上传服务器完成模型更新,使得通信成本只取决于模型输出,不会随模型大小倍数增加,从而有效提高客户端和中心服务器之间通讯的稳定性和减少延迟。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
下面结合附图和实施例对本发明做进一步的说明,其中:
图1为一种现有的联邦学习的实施例示意图;
图2为本发明实施例的个性化联邦蒸馏示意图;
图3为本发明实施例的一种基于联邦蒸馏的联邦学习模型的训练方法的流程图;
图4为在MNIST数据集内处于强凸设置下本本发明实施例与其他方法的准确率曲线示意图;
图5为在MNIST数据集内处于强凸设置下本本发明实施例与其他方法的损失曲线示意图;
图6为在MNIST数据集内处于非凸设置下本本发明实施例与其他方法的准确率曲线示意图;
图7为在MNIST数据集内处于非凸设置下本本发明实施例与其他方法的损失曲线示意图;
图8为在Synthetic数据集内处于强凸设置下本本发明实施例与其他方法的准确率曲线示意图;
图9为在Synthetic数据集内处于强凸设置下本本发明实施例与其他方法的损失曲线示意图;
图10为在Synthetic数据集内处于非凸设置下本本发明实施例与其他方法的准确率曲线示意图;
图11为在Synthetic数据集内处于非凸设置下本本发明实施例与其他方法的损失曲线示意图;
图12为本发明实施例在MNIST数据集内处于强凸设置下K值对准确率影响的示意图;
图13为本发明实施例在MNIST数据集内处于强凸设置下K值对训练损失影响的示意图;
图14为本发明实施例在MNIST数据集内处于非凸设置下K值对准确率影响的示意图;
图15为本发明实施例在MNIST数据集内处于非凸设置下K值对训练损失影响的示意图;
图16为本发明实施例在Synthetic数据集内处于强凸设置下K值对准确率影响的示意图;
图17为本发明实施例在Synthetic数据集内处于强凸设置下K值对训练损失影响的示意图;
图18为本发明实施例在Synthetic数据集内处于非凸设置下K值对准确率影响的示意图;
图19为本发明实施例在Synthetic数据集内处于非凸设置下K值对训练损失影响的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个以上,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
本发明的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
联邦学习是一种分布式机器学习框架。联邦学习可以使多个称为客户端的用户共同协作训练共享的全局模型,而训练期间无需暴露来自其本地设备的隐私数据。如图1所示,传统联邦学习是在客户端110和服务器120之间进行交互,其交互过程的数据处理过程包含客户端进行本地更新、客户端将更新后的模型上传服务器、服务器进行聚合平均及广播分发到各个客户端这四个步骤。由整个训练过程可知,联邦学习通过学习各个本地用户的数据特征,运用模型聚合代替数据聚合,更好的利用散列各处的小数据打破现存的数据孤岛窘态。于此同时,用户数据永远不会直接与第三方共享。数据隐私保护的联邦学习也因此备受关注且衍生出许多应用。
但是,在联邦学习中参与的用户数量可以达到几十、几百甚至更多,每个客户端本地数据的数据异质性致使联邦学习无法学习更好的全局模型。此外,客户端和中心服务器之间的通讯存在高延迟和不稳定性。这些因素使得联邦学习在实际应用需求时面临诸多挑战。因此,本实施例通过采用联邦蒸馏算法设计一种个性化的联邦学习来克服上述问题,并实现以下目标:第一、确保数据异质性下的每个客户端获得更高准确率的个性化模型;第二、在少量的通信迭代轮次中促进模型的快速收敛。
具体地,在传统联邦学习中,由一组客户端和一个中央参数服务器组成,旨在最小化优化公式(1)的目标函数而共同协作训练。在公式(1)中,m代表参与客户端总量(k=1…m),w为全局模型权重,fk:Rd→R,fk(w)为客户端k的本地目标函数,如公式(2)所示。在公式2中,Dk代表了客户端k的本地私有数据集,ξk是从私有数据集中随机选择出来的数据集合(x,y),是客户端k在ξk数据分布和w下的损失函数,加权平均得到fk(w)。但是由于客户端之间的数据在数量、质量、环境及应用等各方面的差异,ξk和ξk+1中存在严重的数据差异,呈现非独立同分布(non-i.i.d)的数据特征。此外,客户端的用户数据呈现出各式各样的non-i.i.d数据分布,如偏态特征分布、偏态标签分布、概念转移等。
然而,在联邦学习的实际应用环境中保证边缘参与设备的隐私数据分布为i.i.d是不切实际的。本实施例假设f*(w)和分别表示f(w)和fk(w)的最小值,令的差值表示数据异质性程度,pk代表第k个客户端的权重。因此,当数据是i.i.d时,随着样本数量的增加,差值会越来越接近于零。而如果数据是non-i.i.d,则差值不为零,其大小表示数据分布的异质性程度。反观现实中普遍存在的non-i.i.d数据分布,则使客户端每个局部目标函数的优化方向发生偏离,局部目标函数的加权最小值不等于全局目标函数的最小值。这无疑损害了全局训练模型的性能。因此,需要重点设计模型算法,以实现面对non-i.i.d数据时表现出良好的鲁棒性,使其在数据异质性的情况下训练出通讯高效且个性化的联邦学习模型是很有必要的。
如上所述,联邦学习性能受数据异质性的影响。数据异质性越高,联邦学习性能越差。为了解决数据异质性问题,现有的研究过程旨在减少数据异质性引起的模型偏差。通过在客户端设备、数据和模型层面谈论并给出了各种个性化处理方法,以减少全局模型和局部模型的目标损失函数之间的差异。类似的个性化联邦学习方法是pFedMe。pFedMe将目标函数优化更改为如公式(3)所示:
其中g是多个外部客户端数据聚合得到的全局模型,θk是通过优化客户端k的数据分布得到的个性化模型,fk(θk)为客户端k的本地个性化模型目标函数,的定义是莫罗包络函数。pFedMe优化了本地客户端数据分布,并保持本地模型与全局模型之间存在有限距离,以减少数据异质性导致的模型偏移。但是,由于内部优化器的黑盒化,pFedMe需要通过多步更新的迭代方法获得个性化模型,这无疑增加了模型通讯成本。再者,pFedMe采用的模型更新通讯方式仍然是传统联邦学习的参数交换方式,该方式的参数交换会使通讯成本随着模型大小进行扩展,从而产生高额通信开销,尤其是在边缘无线设备的分布式联邦学习中。
因此,本实施例提出引入联邦蒸馏的思想来解决pFedMe算法的通信开销瓶颈。联邦蒸馏使用整体蒸馏技术,允许在中央服务器和参与客户端之间交换模型输出,即在任何迭代次数的信息交换中,客户端传输的是平均输出向量而不是模型梯度等参数信息。与传统的联邦学习相比,联邦蒸馏产生的通信开销仅取决于模型输出维度,与蒸馏数据的大小成正比,不会根据模型的大小进行扩展。
具体地,如图2所示,本发明在服务器220与参与客户端210之间的信息交换期间,客户端先进行本地模型更新310,并预测本地模型归一化层的输出向量320,接着传递本地模型归一化层的输出向量330,服务器对接收的本地模型的输出向量进行聚合平均340,然后将聚合平均后的全局平均向量和公共数据集光波分发到各个客户端350,客户端在根据全局向量和公共数据集进行蒸馏学习360。由此可知,本实施例可以大大减少联邦学习训练过程中的通信成本,同时采取知识蒸馏学习公共数据集知识以趋近共识,之后在本地训练回调调整模型参数,缩进本地与全局模型之间的偏差,提高模型性能。
下面以流程图的形式,阐述本实施例的具体实施过程。
参照图3,本实施例提供了本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练方法,包括以下步骤:
S410、客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型。本地私有数据包括表1中的MNIST数据集。
S420、客户端采用公共数据集和更新后的本地模型预测局部归一化层的第一输出向量,并向服务器上传第一输出向量对应的局部平均输出向量。其中,归一化层包括softmax层。第一输出向量包括logit向量。具体地,将softmax层的输出向量放在logit中,以表示softmax层的输出向量。
S430、服务器对所有局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有客户端下发全局平均输出向量。
S440、客户端在公共数据集上,采用全局平均输出向量和更新后的本地模型进行知识蒸馏,并在本地私有数据集上训练回调本地模型。例如,每个客户端本地进行知识蒸馏,下载全局平均输出向量在公共数据集上训练本地模型已接近共识。最后,每个客户端训练在本地私有数据集上本地模型以进行回调。具体地,在蒸馏阶段,此时的客户端已经获得了公共平均输出向量。客户端使用知识蒸馏,根据公共数据集学习共识信息。最后,每个客户端继续对私有数据集进行一些批量训练以进行回调。
在一些实施例中,在每次开始训练之前,服务器为所有客户端发送初始化模型。
在完成一次步骤S410至步骤S440后,即完成一次迭代过程。随着客户端不断学习全局模型的知识,局部目标函数与全局目标函数的偏差会逐渐减小,最终可以在数据异质性环境中用较低的通讯成本取得具有较高精度个性化本地模型。
具体地,本实施例包括客户端和远程服务器的训练过程两部分。客户端训练阶段主要包括更新、预测、蒸馏等步骤。其中,在更新阶段,本实施例使用pFedMe算法在本地私有数据集上进行模型的本地训练和更新。首先,要得到个性化模型,需要计算梯度信息。本实施例通过对部分本地私有数据Dk进行采样,使用公式(4)计算的无偏估计。在公式(4)中,客户端k在本地私有数据集Dk上的本地个性化目标函数的梯度近似于其在数据分布ξk下本地个性化目标函数梯度的平均。其中,θk是通过优化客户端k的数据分布得到的个性化模型,为客户端k在数据分布ξk下的本地个性化模型目标函数,则表示的梯度。之后使用迭代一阶方法获得如公式(5)所示的近似值其中,表示在全局回合数t和本地回合数r下客户端k的局部模型,λ表示控制个性化模型强度的正则化参数。梯度信息在预测阶段,客户端使用公共数据集和本地模型来预测本地Softmax层的输出向量。每个客户端k在softmax层输出之前计算的每个标签如公式(6)所示的输出向量作为第二输出向量。在公式6中,表示每个标签的模型输出向量,其中c是协变量向量,l是对应标签的编码向量,是每个客户端运行神经网络后生成的对数向量。在蒸馏阶段,此时的客户端已经获得了公共平均输出向量。客户端使用知识蒸馏,根据公共数据集学习共识信息。最后,每个客户端继续对私有数据集进行一些批量训练以进行回调。
在远程服务器训练阶段,主要进行模型输出聚合和广播。在任何迭代次数t的信息交换中,设备传输的是平均输出向量而不是参数信息。如公式(7)所示,所有客户端上传的输出向量在参数服务器中进行平均,得到全局平均输出向量之后,服务器将聚合平均后的全局平均输出向量广播给每个客户端。
综上所述,本实施例使用联邦蒸馏完成模型更新,使用个性化联邦学习完成局部个性化。联邦蒸馏使每个客户端能够在公共数据集上训练自己的本地模型,并使用模型的softmax层的输出向量上传服务器完成模型更新。这样,通信成本只取决于模型输出,不会随着模型大小增加一倍。本文提出的联邦蒸馏算法有望实现具有通信效率的个性化联邦学习方案。
本实施例在真实数据集(MNIST)和合成数据集(Synthetic)上执行分类任务。考虑数据大小和类别的异构设置,将MNIST分成N=20份。它们各自分配了不同的数据量,数据量范围为[1165,3834],对于类别,只允许每个客户拥有10个标签中的2个;在生成和分发Synthetic数据集时,使用α控制本地模型的差异,β控制本地数据与其他客户端数据的差异。因此,本实施例生成了一个具有α=β=0.5异构特征的Synthetic数据集,同样分成N=20份,数据量范围为[250,25810]。上述数据集的异质性设置确保了用于联邦学习的训练和测试数据集是non-IID的。考虑到联邦蒸馏的数据集设置,无论是MNIST还是Synthetic数据集,提取其中的一份数据集作为公共数据集。最后,为MNIST数据集和Synthetic数据集均定义了S=5个客户端进行联邦学习训练。
在实验中,将具有Softmax激活和交叉熵损失函数的l2-正则化多项逻辑回归模型(MLR)作为μ-强凸模型设置进行训练。同时,还使用了一个两层神经网络(DNN)作为非凸案例。其中,一个隐藏层是Relu激活函数,最后一层是Softmax层。在MNIST上使用大小为100的隐藏层,在Synthetic数据集上使用大小为20的隐藏层。为了突出PFD的算法性能,将PFD与FedAvg、Per-FedAvg和PFedMe进行了比较。由于联邦蒸馏设置,将比较上述算法的局部模型性能。为了与Per-FedAvg进行比较,使用其局部个性化模型,该模型可以在SGD步骤之后从全局模型中获得。对于pFedMe,使用由个性化参数θ评估的本地个性化模型作为对比实验。所有的实验都使用Pytorch1.4.0版本,GPU是可选的。
实验结果对比如附表1、图4至图11所示。其中,图4至图11在测试过程中,学习率设置为0.005,客户端数为5、计算复杂度为5。由图4、图5、图6和图7可知,在MNIST数据集上,无论是强凸设置还是非凸设置,PFD得到的局部个性化模型在测试准确率和训练损失方面都优于对比方案。对于基准解决方案pFedMe,PFD使本地客户端能够更好地学习公共数据集的知识,其中,PFD表示本实施例的方法。同时PFD转换模型输出替代参数更新,有效减少模型训练回合,模型收敛更快。在DNN设置中,PFD的性能与其他算法基本相同。由图4、图5、图6、图7、图8、图9、图10和图11可知,与MNIST相比,各个对比模型在Synthetic数据集上的测试准确率和训练损失都表现出明显的波动。PFD和pFedMe的个性化联邦学习算法在合成数据环境中取得了更好的测试准确率。在强凸设置下,PFD的模型性能仍然领先于其他解决方案。与pFedMe相比,它具有更快的收敛速度和更小的训练损失。在非凸设置下,PFD和pFedMe的测试准确率相当,并且领先于FedAvg和Per-FedAvg。总的来讲,PFD的收敛速度明显快于其他比较方案。这是因为通过联邦蒸馏,可以避免通过多次梯度更新近似优化个性化模型,使得PFD个性化模型在收敛速度和计算复杂度方面比其他基准模型更具优势。测试准确率结果表明,异质性数据时,PFD算法仍然表现良好。同时,局部模型训练的准确率也提升到了前所未有的水平。这表明PFD可以有效地为客户个性化全局模型。
表1
除开上述的对比实验之外,本实施例还分析计算复杂度K对PFD的影响。在消融实验中,使用K=1,3,5,7来评估PFD的性能。实验仍然在强凸、非凸设置以及两个数据集上进行。实验结果如图12到图19所示,其中,图12为在MNIST数据集内处于强凸设置下K值对准确率影响的示意图、图13为在MNIST数据集内处于强凸设置下K值对训练损失影响的示意图、图14为在MNIST数据集内处于非凸设置下K值对准确率影响的示意图、图15为在MNIST数据集内处于非凸设置下K值对训练损失影响的示意图、图16为在Synthetic数据集内处于强凸设置下K值对准确率影响的示意图、图17为在Synthetic数据集内处于强凸设置下K值对训练损失影响的示意图、图18为在Synthetic数据集内处于非凸设置下K值对准确率影响的示意图、图19为在Synthetic数据集内处于非凸设置下K值对训练损失影响的示意图。从图12到图15可知,在MNIST数据集上,K值的变化对非凸设置下的模型性能影响不大。对于强凸设置,当K=5和K=7时,PFD可以达到更高的测试准确率。当K=3时,PFD的损失最小。从图16到图19可知,在Synthetic数据集上,K值的波动明显强于上组。从图12到图19中可以看出,当K=3时,PFD在强凸设置和非凸设置下都能达到更高的测试准确率和更少的损失。这也进一步验证了本实施例提出的PFD方案可以保证异构数据环境下联邦学习中每个客户端的本地个性化模型的准确性。
本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练系统,包括:
客户端,所述客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型;采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量,并向服务器上传所述第一输出向量对应的局部平均输出向量;以及在所述公共数据集上,采用服务器下发的全局平均输出向量和更新后的所述本地模型进行知识蒸馏,并在所述本地私有数据集上训练回调本地模型;
服务器,所述服务器对所有所述局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有所述客户端下发所述全局平均输出向量。
本发明方法实施例的内容均适用于本系统实施例,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
本发明实施例提供了一种基于联邦蒸馏的联邦学习模型的训练系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行图3所示的的基于联邦蒸馏的联邦学习模型的训练方法。
本发明方法实施例的内容均适用于本系统实施例,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
本发明实施例提供了一种存储介质,其中存储有计算机可执行的程序,所述计算机可执行的程序被处理器执行时用于实现图3所示的基于联邦蒸馏的联邦学习模型的训练方法。
本发明实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行图3所示的基于联邦蒸馏的联邦学习模型的训练方法。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。此外,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
Claims (10)
1.一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,包括以下步骤:
客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型;
所述客户端采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量,并向服务器上传所述第一输出向量对应的局部平均输出向量;
服务器对所有所述局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有所述客户端下发所述全局平均输出向量;
所述客户端在所述公共数据集上,采用所述全局平均输出向量和更新后的所述本地模型进行知识蒸馏,并在所述本地私有数据集上训练回调本地模型。
2.根据权利要求1所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,在执行所述客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型这一步骤之前,所述方法还包括以下步骤:
所述服务器向每个所述客户端发送初始化模型。
3.根据权利要求1所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,所述客户端与服务器之间传输模型平均输出向量。
4.根据权利要求1所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,所述客户端更新本地模型,包括:
获取部分所述本地私有数据集;
确定本地模型的目标函数对应的梯度信息;
根据所述梯度信息和所述本地私有数据集,采用迭代一阶方式获取近似值。
5.根据权利要求1所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,在所述客户端采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量之前,所述方法还包括以下步骤:
计算每个标签的第二输出向量。
6.根据权利要求1所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,所述客户端在所述公共数据集上,采用所述全局平均输出向量和更新后的所述本地模型进行知识蒸馏,包括:
所述客户端根据所述全局平均输出向量,控制更新后的所述本地模型,采用知识蒸馏学习所述公共数据集上的共识信息。
7.根据权利要求1-6任一项所述的一种基于联邦蒸馏的联邦学习模型的训练方法,其特征在于,所述归一化层包括softmax层;所述第一输出向量包括softmax层输出的logit向量。
8.一种基于联邦蒸馏的联邦学习模型的训练系统,其特征在于,包括:
客户端,所述客户端采用联邦学习算法,基于本地私有数据集训练并更新本地模型;采用公共数据集和更新后的所述本地模型预测局部归一化层的第一输出向量,并向服务器上传所述第一输出向量对应的局部平均输出向量;以及在所述公共数据集上,采用服务器下发的全局平均输出向量和更新后的所述本地模型进行知识蒸馏,并在所述本地私有数据集上训练回调本地模型;
服务器,所述服务器对所有所述局部平均输出向量进行全局共识操作并确定全局平均输出向量,向所有所述客户端下发所述全局平均输出向量。
9.一种基于联邦蒸馏的联邦学习模型的训练系统,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行如权利要求1-7任一项所述的基于联邦蒸馏的联邦学习模型的训练方法。
10.一种存储介质,其特征在于,其中存储有计算机可执行的程序,所述计算机可执行的程序被处理器执行时用于实现如权利要求1-7任一项所述的基于联邦蒸馏的联邦学习模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111321688.XA CN114154643A (zh) | 2021-11-09 | 2021-11-09 | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111321688.XA CN114154643A (zh) | 2021-11-09 | 2021-11-09 | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114154643A true CN114154643A (zh) | 2022-03-08 |
Family
ID=80459725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111321688.XA Pending CN114154643A (zh) | 2021-11-09 | 2021-11-09 | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114154643A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114626550A (zh) * | 2022-03-18 | 2022-06-14 | 支付宝(杭州)信息技术有限公司 | 分布式模型协同训练方法和系统 |
CN114863499A (zh) * | 2022-06-30 | 2022-08-05 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN115018087A (zh) * | 2022-07-26 | 2022-09-06 | 北京融数联智科技有限公司 | 一种多方纵向逻辑回归算法模型的训练方法及系统 |
CN115271033A (zh) * | 2022-07-05 | 2022-11-01 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN115511108A (zh) * | 2022-09-27 | 2022-12-23 | 河南大学 | 一种基于数据集蒸馏的联邦学习个性化方法 |
CN115578369A (zh) * | 2022-10-28 | 2023-01-06 | 佐健(上海)生物医疗科技有限公司 | 一种基于联邦学习的在线宫颈细胞tct切片检测方法和系统 |
WO2023185539A1 (zh) * | 2022-03-28 | 2023-10-05 | 华为技术有限公司 | 机器学习模型训练方法、业务数据处理方法、装置及系统 |
CN117114148A (zh) * | 2023-08-18 | 2023-11-24 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
WO2024065709A1 (zh) * | 2022-09-30 | 2024-04-04 | 华为技术有限公司 | 一种通信方法及相关设备 |
CN117829320A (zh) * | 2024-03-05 | 2024-04-05 | 中国海洋大学 | 一种基于图神经网络和双向深度知识蒸馏的联邦学习方法 |
CN118153666A (zh) * | 2024-05-11 | 2024-06-07 | 山东第二医科大学 | 一种个性化联邦知识蒸馏模型构建方法 |
-
2021
- 2021-11-09 CN CN202111321688.XA patent/CN114154643A/zh active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114626550A (zh) * | 2022-03-18 | 2022-06-14 | 支付宝(杭州)信息技术有限公司 | 分布式模型协同训练方法和系统 |
WO2023185539A1 (zh) * | 2022-03-28 | 2023-10-05 | 华为技术有限公司 | 机器学习模型训练方法、业务数据处理方法、装置及系统 |
CN114863499A (zh) * | 2022-06-30 | 2022-08-05 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN114863499B (zh) * | 2022-06-30 | 2022-12-13 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN115271033A (zh) * | 2022-07-05 | 2022-11-01 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN115271033B (zh) * | 2022-07-05 | 2023-11-21 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN115018087A (zh) * | 2022-07-26 | 2022-09-06 | 北京融数联智科技有限公司 | 一种多方纵向逻辑回归算法模型的训练方法及系统 |
CN115018087B (zh) * | 2022-07-26 | 2023-05-09 | 北京融数联智科技有限公司 | 一种多方纵向逻辑回归算法模型的训练方法及系统 |
CN115511108A (zh) * | 2022-09-27 | 2022-12-23 | 河南大学 | 一种基于数据集蒸馏的联邦学习个性化方法 |
WO2024065709A1 (zh) * | 2022-09-30 | 2024-04-04 | 华为技术有限公司 | 一种通信方法及相关设备 |
CN115578369B (zh) * | 2022-10-28 | 2023-09-15 | 佐健(上海)生物医疗科技有限公司 | 一种基于联邦学习的在线宫颈细胞tct切片检测方法和系统 |
CN115578369A (zh) * | 2022-10-28 | 2023-01-06 | 佐健(上海)生物医疗科技有限公司 | 一种基于联邦学习的在线宫颈细胞tct切片检测方法和系统 |
CN117114148A (zh) * | 2023-08-18 | 2023-11-24 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
CN117114148B (zh) * | 2023-08-18 | 2024-04-09 | 湖南工商大学 | 一种轻量级联邦学习训练方法 |
CN117829320A (zh) * | 2024-03-05 | 2024-04-05 | 中国海洋大学 | 一种基于图神经网络和双向深度知识蒸馏的联邦学习方法 |
CN118153666A (zh) * | 2024-05-11 | 2024-06-07 | 山东第二医科大学 | 一种个性化联邦知识蒸馏模型构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114154643A (zh) | 基于联邦蒸馏的联邦学习模型的训练方法、系统和介质 | |
Li et al. | Improved techniques for training adaptive deep networks | |
CN113191484A (zh) | 基于深度强化学习的联邦学习客户端智能选取方法及系统 | |
WO2022166115A1 (en) | Recommendation system with adaptive thresholds for neighborhood selection | |
US20240135191A1 (en) | Method, apparatus, and system for generating neural network model, device, medium, and program product | |
Liu et al. | Resource-constrained federated edge learning with heterogeneous data: Formulation and analysis | |
CN113469325A (zh) | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 | |
WO2023022727A1 (en) | Prompt tuning using one or more machine-learned models | |
Zhang et al. | Privacy and efficiency of communications in federated split learning | |
CN115840900A (zh) | 一种基于自适应聚类分层的个性化联邦学习方法及系统 | |
CN113313266B (zh) | 基于两阶段聚类的联邦学习模型训练方法和存储设备 | |
CN115169575A (zh) | 个性化联邦学习方法、电子设备及计算机可读存储介质 | |
CN115495771A (zh) | 基于自适应调整权重的数据隐私保护方法及系统 | |
CN112836822A (zh) | 基于宽度学习的联邦学习策略优化方法和装置 | |
Qi et al. | Graph neural bandits | |
Chiang et al. | Optimal Transport based one-shot federated learning for artificial intelligence of things | |
Castellon et al. | Federated learning with incremental clustering for heterogeneous data | |
Yang et al. | FedRich: Towards efficient federated learning for heterogeneous clients using heuristic scheduling | |
Yi et al. | pFedLHNs: Personalized federated learning via local hypernetworks | |
Wang | Multimodal emotion recognition algorithm based on edge network emotion element compensation and data fusion | |
Liu et al. | Adaptive block-wise regularization and knowledge distillation for enhancing federated learning | |
CN113743012B (zh) | 一种多用户场景下的云-边缘协同模式任务卸载优化方法 | |
CN116151366A (zh) | 一种基于在线蒸馏的噪声标签鲁棒性学习方法 | |
CN113033653B (zh) | 一种边-云协同的深度神经网络模型训练方法 | |
CN114792114A (zh) | 一种基于黑盒多源域通用场景下的无监督域适应方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |