CN114492847A - 一种高效个性化联邦学习系统和方法 - Google Patents
一种高效个性化联邦学习系统和方法 Download PDFInfo
- Publication number
- CN114492847A CN114492847A CN202210400890.XA CN202210400890A CN114492847A CN 114492847 A CN114492847 A CN 114492847A CN 202210400890 A CN202210400890 A CN 202210400890A CN 114492847 A CN114492847 A CN 114492847A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- module
- server
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 101
- 238000013138 pruning Methods 0.000 claims abstract description 99
- 230000010354 integration Effects 0.000 claims abstract description 39
- 238000004891 communication Methods 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000009826 distribution Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 claims description 7
- 230000000873 masking effect Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000013500 data storage Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000007405 data analysis Methods 0.000 claims description 4
- 230000007812 deficiency Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 229910002056 binary alloy Inorganic materials 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 abstract description 11
- 238000013461 design Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 13
- 230000006399 behavior Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer And Data Communications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种高效个性化联邦学习系统和方法,该系统中的终端设备包括:终端设备数据模块、终端设备模型下载模块、两个终端设备模型训练模块和终端设备模型上传模块,中心服务器包括服务器端数据模块、两个服务器端模型整合模块和服务器端模型派发模块。本发明设计合理,其将剪枝处理及模型训练完全放在终端设备进行,降低了中心服务器的负担,提高了处理效率,并且充分考虑数据分布的差异性,实现了模型的个性化功能,能够有效地对不同终端设备上采集到的数据进行分析,在大幅降低通信成本的同时保证用户的隐私信息和个性化,以及终端设备数据缺失情况下的新模型发送。
Description
技术领域
本发明属于人工智能技术领域,涉及联邦学习系统,尤其是一种高效个性化联邦学习系统和方法。
背景技术
人工智能所取得的成功主要依赖于大量的优质数据。例如对客户行为的分析和评估中,往往依赖大量异质性数据共同综合的分析。此类数据不仅数据量大,其具有极高的个性化及隐私信息。国内外监管环境正在逐步加强数据保护,因此数据在安全合规的前提下自由流动,成了大势所趋。此外在用户和企业角度下,商业公司所拥有的数据往往都有巨大的潜在价值。基于利益的考虑,这些机构不会提供各自数据与他人共享,导致即使在同一个公司内,数据也往往以孤岛形式出现,阻碍了数据的使用效率和应用价值。
联邦学习是一种新兴的人工智能基础技术,用于解决上述数据孤岛问题,并使得多个数据拥有方在不泄露数据隐私的前提下联合训练机器学习模型。在一个典型的联邦学习系统中,由多个终端设备(数据拥有方)和一个服务器共同完成训练。基于这种训练方法,终端设备只需要上传本地模型的参数或更新,并不需要直接分享本地数据,从而有效地缓解了隐私泄露的问题。
然而,目前联邦学习的发展遇到两大瓶颈:第一是通信开销,由于大量的终端设备需要周期性地和服务器进行通信交互,自然带来巨大的通信成本;第二是异质性数据,数据类型不同,数据量也不同,由于每个终端设备所采集的数据存在显著的差异性,比如数量、数据类别、数据特征等,导致设备之间的数据分布不再满足独立同分布的条件。中央服务器无法照顾到每一个终端设备上的数据,从而使得通过传统联邦学习得到的机器学习模型的准确率显著下降。又由于传统联邦学习在所有终端设备端多为全局的泛化模型,当一台设备或中心服务器被破解后,会使其他设备端数据造成隐私安全隐患。
综上所述,现有联邦学习技术普遍存在通信成本高、个性化程度低、隐私保护较差以及由于数据不足或缺失导致预测精度降低等问题。
发明内容
本发明的目的在于克服现有技术的不足,提供一种高效个性化联邦学习系统和方法,能够有效地对不同终端设备上采集到的巨量及多模态的行为数据进行分析,在大幅降低通信成本的同时保证用户的隐私信息和个性化(精度),以及终端设备数据缺失情况下的新模型发送。
本发明解决现有的技术问题是采取以下技术方案实现的:
一种高效个性化联邦学习系统,由中心服务器和多个终端设备连接构成,所述终端设备包括:
终端设备数据模块:用于原始数据的收集、储存及预处理,并将处理结果传送给终端设备模型下载模块和第一终端设备模型训练模块;
所述中心服务器包括:
服务器端数据模块:用于终端设备所上传模型数据的收集及储存,并分发给第一服务器端模型整合模块、第二服务器端模型整合模块和服务器端模型派发模块;
其中,θ为任意模型中所有参数的集合,m为一个代表模型的结构二进制的模型掩码,N和k分别表示第N个终端设备和第k个终端设备,角标g标注某参数/掩码为全局参数:/全局模型掩码:,t代表通信轮次,第一次全局模型派发时为第0轮通信,t=0,x为模型中代表本地数据的自变量, 为第N台终端设备经剪枝后产生的稀疏化子模型掩码,N={1,2,3,…},为第k台终端设备设备经剪枝后产生的模型掩码, k ={1,2,3,…},k≦N。
进一步,所述终端设备数据模块包括如下三个终端数据子模块:
第一终端数据子模块:用于识别传感器所采集的有效数据并传输给第二数据终端子模块;
第二终端数据子模块:用于存储数据,该数据用于第一终端设备模型训练模块和第二终端设备模型训练模块的模型训练;
第三终端数据子模块:用于数据的统计及预处理,包括:对所存储数据量的统计,用于中心服务器整合数据时权重的计算,并判断是否足够进行本轮模型训练,若足够则通知终端设备模型下载模块,进行本轮全局模型下载;对数据的预处理,根据数据量及模型训练时的需要分割数据,并将数据分割结果传输给第一终端设备模型训练模块。
进一步,所述第一终端设备模型训练模块包括如下三个模型训练子模块:
第二模型训练子模块:用于对模型进行迭代剪枝处理,直到模型剪枝率大于或等于预设的总剪枝率 ,并在每轮迭代后与第三模型训练子模块进行交互获得最佳剪枝策略;最终得到剪枝后的稀疏化子模型,并传递给第二终端设备模型训练模块;
第三模型训练子模块:用于剪枝策略的优化,对第二模型训练子模块中模型的剪枝过程进行监督,并根据结果调整剪枝策略;策略包括细粒度剪枝、向量剪枝、核剪枝和滤波器剪枝。
进一步,所述服务器端数据模块包括如下三个服务器数据子模块:
第一服务器数据子模块:对全部终端设备上传数据的核对和标注;
第二服务器数据子模块:对全部终端设备上传数据的存储;
第三服务器数据子模块:将全部终端设备的模型掩码传递至服务器端模型派发模块;随机选取k个终端设备所上传数据,包括:将k个模型掩码发送给第一服务器端模型整合模块,将k个终端设备的稀疏化子模型发送给第二服务器端模型整合模块,将终端设备模型数据量发送给第二服务器端模型整合模块。
进一步,所述第二服务器端模型整合模块包括如下两个模型整合子模块:
进一步,所述服务器端模型派发模块包括以下二个模型派发子模块:
一种高效个性化联邦学习方法,包括以下步骤:
步骤1、终端设备下载中心服务器派发的全局模型;
步骤2、终端设备对收到的全局模型,利用剪枝技术生成新的稀疏化子模型掩码;
步骤3、终端设备基于新的稀疏化子模型掩码,通过本地数据对模型进行训练后,更新模型参数;
步骤4、终端设备根据模型参数生成新的稀疏化子模型,并将新的稀疏化子模型上传至中心服务器;
步骤5、中心服务器利用上传的不同模型掩码重叠形成新的全局模型掩码;
步骤6、中心服务器利用泛化模型掩码捕获终端设备所上传新参数对其进行加权平均,得到加权平均后的新参数;
步骤7、中心服务器将加权平均后的新参数与新的全局模型掩码结合,得到一个新的完整全局模型;
步骤8、中心服务器根据上轮终端所上传的模型掩码,将新的完整全局模型个性化后派发给相应终端设备用于数据分析及新一轮模型训练。
进一步,所述步骤2利用剪枝技术生成新的稀疏化子模型掩码的方法包括以下步骤:
进一步,所述步骤8的具体实现方法为:
本发明的优点和积极效果是:
1、本发明可大幅降低通信和训练成本:首先,其在每个终端设备的每一轮训练中生成新的稀疏化子模型,由于新的稀疏化子模型复杂度小于原始模型,在终端设备上传和训练这些模型时,使通信成本和本地计算成本同时降低;其次,其在中心服务器派发全局模型前会根据各终端设备所上传的模型掩码,对完整全局模型进行进一步精简,从而再次降低通信成本。
2、本发明可有效提高个性化度:相对于传统联邦学习,本发明可最大限度地维护每个终端设备的子模型的个性化属性,首先,所有模型剪枝操作全部在客户端使用本地数据完成,不需要中心服务器的参与;其次中心服务器聚合操作只对每个子模型之间有重叠的参数进行加权平权,其他未重叠的参数并不进行聚合操作;此外,在中心服务器派发全局模型前会根据各终端设备所上传的模型掩码,对完整全局模型进行进一步个性化优化。
3、本发明可以很好地保护用户隐私:在传统的联邦学习中,通常各终端设备所使用模型具有极高的泛化性,相同的数据在终端设备会产生相同且唯一的模型。本发明通过剪枝方法在终端设备所产生的模型不具备泛化性,而且此专化模型由于在每次剪枝过程中均有很高的随机性,故相同数据所产生的稀疏化子模型并不唯一,因此,几乎不可能通过破解某些终端设备和中心中心服务器,推断出其他终端设备中的原始客户数据,进一步增加隐私安全。
4、本发明可以对数据缺失进行有效处理:行为采集的终端设备上的数据遗失和损坏并不会影响新一轮的中心服务器的模型派发工作,在一个终端设备上即使在上一轮或几轮的模型上传中均缺失,在下一轮训练中依然可以接收最新的中心服务器全局模型,用于最新一轮训练及数据分析,因此,本发明保证了几乎任何时间的终端设备的高效性和准确性。
5、本发明构建的系统体系操作可控性强,相对于传统联邦学习迭代计算时预设迭代次数的方式(预设迭代次数需大量先验实验),可以直接通过调整剪枝率和预设模型精度的手段,对整个体系进行精准操作。
6、本发明设计合理,其将剪枝处理安排在终端设备本地进行,中心服务器不需要任何数据,避免了中心服务器需要额外的数据来进行剪枝,降低了中心服务器的负担;同时,本发明的模型训练在终端设备就已经完成,终端设备和中心服务器通信能够更好地对新一轮数据进行有效分析,提高了处理效率;并且,本发明的处理策略本质上是稀疏化,并且充分考虑数据分布的差异性,实现了模型的个性化功能。
附图说明
图1为本发明的系统连接示意图;
图2为本发明的系统功能示意图(图中默认M=N=k);
图3为本发明的方法流程图;
图4位本发明应用效果对比示意图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
本发明的设计思想为:本发明采用神经网络剪枝技术简化联邦学习系统的网络掩码,从而减少大量训练网络的参数量,减少存储需求,提高推理的计算性能而不影响精度。本发明利用机器学习中的彩票理论(一个随机初始化的密集神经网络包含一个稀疏子网络,该子网络初始化后,在隔离训练时,它可以在训练相同次数的迭代后匹配甚至超过原始网络的测试精度),在每个客户端的每个通信轮中产生各自的LTN(稀疏子网络模型),在整个联邦学习过程中,无论是用户间还是用户与中心服务器之间只交流这些稀疏子网络模型。考虑到在每个客户端上的数据为非独立同分布,则各个其生成的稀疏子网络模型可能不会完全相互显著重叠。因此,在中心服务器上执行聚合之后,会保留每个LTN的个性化属性。在中心服务器整合客户端的这些稀疏子网络模型之后, 会将更新的稀疏子网络模型分发给相应的每个客户端。最后,在每个客户端将会学习形成一个兼顾了个性化和全局性的模型,而非初始的共享的全球模型。此外,由于稀疏子网络的数据量更加精简,需要通信的模型参数的大小也减少了,因此可以显著提高联邦学习的通信效率以及准确程度,同时降低隐私泄露的风险。
本发明的创新之处是:对联邦学习中终端设备计算和服务器模型派发使用如下策略:
首先,在终端设备上,我们利用机器学习中的彩票理论,(1)对模型进行多次无精度损失的迭代剪枝;(2)每次迭代剪枝效果会累积;(3)直到累计剪枝率达到预设目标值(最高可达90%),找到在不损失(或是提高)计算精度的前提下的一个新的代表稀疏化子模型结构的二进制掩码m;(4)完成稀疏化化后,利用新优化的模型掩码再对全局模型参数进行优化,最终在终端设备得到一个全新的稀疏化子模型,该子模型信息量将远小于(根据预设剪枝率)原始模型,相当于大幅降低设备的本地计算成本和与服务器的通信成本,此模型将不再适用于其他设备上数据的计算,保证了用户个性化的需求;(5)在上传此终端设备的稀疏化子模型时,同时上传该模型掩码。
其次,在中心服务器,在每一轮(非第一轮)整合及派发新的全局模型前,会对模型进行进额外两步优化。(1)在整合模型前,找出各个终端设备所上传掩码的重叠部分,利用所有掩码的重叠部分形成一个新的全局模型掩码(只有在新全局模型掩码之内的终端设备参数才会被用于中心服务器的加权平均计算,其他参数不参与计算,得到新的全局参数(目的是保证模型重叠掩码内参数的泛化性,以及保持模型非重叠部分参数的个性化),在新一轮模型派发前,利用新的全局模型掩码和新的全局参数形成一个新的全局模型。(2)利用先前各自终端设备所上传的掩码(对新的全局模型进行过滤,过滤后,各终端设备仅会下载到与上一轮所上传模型掩码一致的新模型,而非全部新的完整全局模型,从而进一步降低了通信成本,并且保证了各个终端设备个性化需求。
在本发明中,为了便于说明,对于集合的说明,除第一次或需特别强调集合的群体意义时,通常以最大序数的元素代表整个集合,如模型掩码集合:可以用表示,根据上下文含义亦可表示第N个终端设备上的模型掩码。这种表示方式在本发明中亦应用于模型参数q和模型f上。
在本发明中,使用f(x)表示一个模型,其完全等价于f(x;θ) 以及f(x;θ⊙m)形式。为了对模型中各个元素进行分别描述,故用f(x;θ⊙m)等形式进行表示。θ为模型中所有参数的集合,m为一个代表模型结构的二进制的掩码。f(x; θ)强调模型整体,而f(x; θ⊙m)则强调当前语境下二进制掩码m在模型中的作用。
基于上述设计思想,本发明提出一种高效个性化联邦学习系统,如图1及图2所示,由中心服务器(S)和多个终端设备连接构成。在中心服务器上进行的是对于N个终端设备所上传子模型进行加权平均等一系列计算,整合生成新的全局模型,并将新生成模型根据终端设备需求进行派发。在终端设备上进行本地训练,使用数据D N对原始的全局模型进行训练,经过对模型剪枝和本地训练的方法生成新的稀疏化子模型。其中,
中心服务器(S)功能为:
(3)整合足够多的(k个)终端设备所上传的带有参数的稀疏化子模型,生成带有新参数的新的完整全局模型,并根据各个终端设备在本轮所上传的稀疏化子模型掩码产生新的个性化全局模型,重新派发给所有终端设备。如果上一轮计算中第N+1个终端设备因数据缺失造成无任何子模型上传,而本轮数据未缺失,则直接派发新的完整全局模型,用于此轮模型训练。
中心服务器实现模型整合功能: 目的在于从大量的终端设备上的数据中,通过所上传的参数找到一般性的规律,主要是在兼顾个性化的基础上,对终端设备所上传的模型中具体参数的数值进行修正,使其泛化性更强,同时对模型进行个性化处理,降低通信成本。
中心服务器生成新的全局模型,具体而言:
(4)根据第N个终端设备所上传的掩码整合出与第N个终端设备相应的新的个性化全局模型。通过此次操作,终端设备不会得到完整新模型信息,而是得到与该终端设备所上传模型掩码相应的新的新全局模型,过滤掉了与上一轮所上传参数无关的信息,保证了个性化,降低了通信成本。
为了实现上述系统功能,下面对终端设备及中心设备的具体结构进行说明:
终端设备包括如下模块:
1、终端设备数据模块:用于原始数据的收集、储存及预处理,并将处理结果传送给终端设备模型下载模块和第一终端设备模型训练模块。包括以下三个子模块:
第一终端数据子模块(图1中的终端数据子模块1):用于识别传感器所采集的有效数据并传输给数据终端子模块2。
第二终端数据子模块(图1中的终端数据子模块2):用于存储数据,该数据用于下一阶段模型训练。
第三终端数据子模块(图1中的终端数据子模块3):用于数据的统计及预处理,其功能包括但不限于:(1)对所存储数据量的统计,未来用于中心服务器整合数据时权重的计算,并判断是否足够进行本轮模型训练,若足够则通知终端设备模型下载模块,进行本轮全局模型下载。(2)对数据的预处理,即:根据数据量及模型训练时的需要分割数据,如将数据分为多个训练集和验证集等,并将相关信息传输给第一终端设备模型训练模块。
终端设备数据模块如图2中的A所示。
终端设备模型下载模块如图2中B所示。
第二模型训练子模块(图1中的模型训练子模块2):用于对模型进行迭代剪枝处理,直到模型剪枝率大于或等于预设的总剪枝率 ,并在每轮迭代后与模型训练子模块3进行交互获得最佳剪枝策略,最终得到剪枝后的模型掩码,并传递给第二终端设备模型训练模块。
第三模型训练子模块(图1中的模型训练子模块3):用于剪枝策略的优化,对每一轮模型训练子模块2中模型的剪枝过程进行监督,并根据结果调整剪枝策略,其策略包括但不限于:细粒度剪枝,向量剪枝,核剪枝,滤波器剪枝等。
第一终端设备模型训练模块如图2中的C所示。
终端设备模型上传模块如图2中的E所示。
中心服务器包括如下模块:
1、服务器端数据模块:实现所有终端设备上传模型数据的收集、储存及分发功能。服务器端数据模块包括如下三个子模块:
第一服务器数据子模块(图1中的服务器数据子模块1):对全部终端设备上传数据的核对和标注。
第二服务器数据子模块(图1中的服务器数据子模块2):对全部终端设备上传数据的存储。
第三服务器数据子模块(图1中的服务器数据子模块3):将全部N个终端设备的模型掩码:传递至服务器端模型派发模块;随机选取k个终端设备所上传数据:包括(1)k个模型掩码发送给第一服务器端模型整合模块,(2)将k个终端设备的稀疏化子模型发送给第二服务器端模型整合模块,(3)终端设备模型数据量发送给第二服务器端模型整合模块。
2、第一服务器端模型整合模块:利用k个终端设备的模型掩码整合新的全局模型掩码。依据k个终端设备中的k个二进制模型掩码:,利用在这些掩码直接有重叠的部分形成一个新的全局模型掩码。并将此模型掩码传递给第二服务器端模型整合模块。
第一服务器端模型整合模块的功能如图2中的F所述。
3、第二服务器端模型整合模块型整合模块:对k个终端设备的稀疏化子模型中的参数筛选后进行加权平均,并结合新的全局模型掩码形成新的全局模型,传输给服务器端模型派发模块。第二服务器端模型整合模块包括如下两个子模块:
第二模型整合子模块(图1中的模型整合子模块2):使用加权平均的方法对所找出的参数进行整合(其他未重叠的参数并不进行聚合操作),得到新全局参数,其权重依据为终端设备所上传数据量大小,如图2中的G所示,并利用新全局参数与新的全局模型掩码形成新的完整全局模型,如图2中的H所示,并传输给服务器端模型派发模块。
4、服务器端模型派发模块:用于生成并对发送与每个终端设备所对应的个性化全局模型。服务器端模型派发模块包括以下二个子模块:
第二模型派发子模块(图1中的模型派发子模块2):向对应终端设备派发与其上传的模型掩码一致的个性化全局模型,如图2中的J所示。向上一轮因数据缺失或不足而未形成并上传稀疏化子模型的终端设备直接派发完整全局模型。
上述高效个性化联邦学习系统的核心是围绕模型中的两个部分:模型参数θ及模型掩码m展开。主旨在于不降低模型精度的前提下大规模降低掩码的复杂程度,增加终端设备的个性化程度,降低通信成本和服务器计算成本。通过迭代剪枝的方式使终端设备形成的模型在牺牲了大量泛化性后成为了一个简约的个性化全局模型。相应的,之后通过在中心服务器对所上传的各个新参数θ和新及模型掩码m进行整合后,又一次形成了相对泛化的全局模型,再次根据上传模型掩码返回给各终端设备,至此完成一轮循环。
需要说明的是:在本系统中,中心服务器只要得到足够多的k个终端设备数据即开始计算,若收集终端设备的数量N大于k,则随机选择k个终端设备进行下一轮计算,并不需要等待全部M个终端设备上传数据。
本系统的工作原理为:一个随机初始化的密集神经网络应包含一个稀疏子网络,该子网络初始化后,在隔离训练时,它可以在训练相同次数的迭代后匹配甚至超过原始网络的测试精度。具体来说就是对于初始神经网络,初始参数, 初始模型掩码。 在利用训练集进行剪枝优化时,f在迭代j处达到最小验证损失l,测试精度为a。 在同一训练集上使用剪枝进行优化时,f在迭代j’时达到最小验证损失l’,测试精度为a’。 此时应存在一个新的网络掩码m’,使得j’≤j(训练时间相称),a’≥a(精度相称)以及(结构大幅简化)。
基于上述高效个性化联邦学习系统,本发明还提出一种高效个性化联邦学习方法,如图3所示,包括以下步骤:
步骤1、未缺少数据的终端设备下载中心服务器派发的全局模型。
在本步骤中,终端设备对收到的全局模型分别使用本地所收集的相应类型的数据对模型进行优化,通过多轮的剪枝(其策略包括但不限于:细粒度剪枝,向量剪枝,核剪枝,滤波器剪枝等),直至将剪枝率积累至预设的总剪枝率。比如说预设的总剪枝率为70%, 则代表我们将进行多次迭代后将模型的参数数量降低至原本的30%。每次迭代将会剪除一定比例的参数,新一轮迭代是建立在上一轮剪枝后的新模型的基础上,经过多次迭代最终使总剪枝率达到70%,此时会得到一个新的稀疏化子模型掩码。
本发明通过训练网络并裁剪其最小权重来确定稀疏化子网络。也就是计算出模型中哪些参数是重要的,不重要的参数就抹掉,剩余的、未修剪的连接构成子网络的体系结构。剪枝的目的在于找到全局密集网络下的稀疏子网络,这种稀疏子网络结构简单,使终端设备运算成本更低,且大幅降低通信成本,且准确性在特定终端设备上(个性化)更高。
为达到预设的总剪枝率,我们将使用迭代剪枝的方式,每次迭代将会修剪掉重量的参数,每次迭代未修剪的连接的值在被训练之前会从原始网络重置到初始化,这些未修剪的连接的值,可能在下一轮迭代中被修剪掉。迭代剪枝(稀疏化)具体步骤:
在迭代剪枝步骤中,完成以预设的总剪枝率为目标的模型稀疏化是多次剪枝的累计过程,n是完成预设的总剪枝率所需要累计剪枝的次数,也就是步骤(2)~(3)重复的次数。
在本步骤中,为了得到基于原始模型下的新的稀疏化子模型,终端设备需使用本地数据对模型进行优化。也就是对模型进行逐步剪枝(计算出哪些内部参数是重要的,不重要的内部参数就抹掉)以及准确率测试。在其保证准确率大于预设的准确阈值a(原始模型的准确率)的前提下,对模型进行足够大比例(大于或等于预设的总剪枝率)的剪枝操作。这个过程是一个逐步的随机梯度降低过程。而被剪枝后的新模型,其复杂度和内部参数规模小于模型,且其准确率与原始模型相当甚至更高。而剪枝后的模型结构被记录在一个二进制的掩码,重新将模型参数设置为初始参数,生成一个新的稀疏化子模型:。
步骤5、中心服务器利用上传的不同模型掩码重叠形成新的全局模型掩码。
在本步骤中,假如M个终端设备中如果有N个终端设备中数据可用并且上传了新的模型至中心服务器,中心服务器无需等待所有终端设备,随机选取其中足够的终端设备(k个终端设备)所上传的新模型进行下一步操作。首先利用各个终端设备中k个不同的模型掩码,找出两个以上重叠部分生成新的全局模型掩码,也就是新的全局模型掩码。在判断掩码m是否重叠时只需在两个掩码间重复即认为重叠。
步骤6、中心服务器利用新的全局模型掩码捕获终端设备所上传新参数对其进行加权平均,得到加权平均后的新参数。
在本步骤中,中心服务器对上传的k个稀疏化子模型整合,具体而言,依据新的全局模型掩码,捕获在k个终端设备中的那些参数集中位于新全局模型掩码之内的参数,对这些参数进行加权平均(未捕获的参数并不进行聚合操作),得到最新的全局参数。
在本步骤中,权重来自于各自设备收集的数据量。
步骤8、中心服务器根据上轮终端所上传的模型掩码,将新的完整全局模型个性化后派发给相应终端设备用于数据分析及新一轮模型训练。本步骤包括两种处理方式:
为了对本发明效果进行验证,本发明对三个不同类型的非独立同分布数据进行实际模拟,其中对数据集1进行了400轮通讯模拟,对数据集2和3均进行了2000轮通讯模拟,得到如图4所示的对比结果,从图中可以看出,当剪枝率为70%时,和传统的联邦学习相比,减少3.86倍通信开销;将准确率作为个性化评价指标,和传统的联邦学习相比,提高47.67%。在有10%终端设备数据缺失的情况下,本专利不仅在通信成本上有所下降,总体精度下降仅为1%~2%,而传统方法则在3%~9%。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (10)
1.一种高效个性化联邦学习系统,由中心服务器和多个终端设备连接构成,其特征在于:所述终端设备包括:
终端设备数据模块:用于原始数据的收集、储存及预处理,并将处理结果传送给终端设备模型下载模块和第一终端设备模型训练模块;
所述中心服务器包括:
服务器端数据模块:用于终端设备所上传模型数据的收集及储存,并分发给第一服务器端模型整合模块、第二服务器端模型整合模块和服务器端模型派发模块;
2.根据权利要求1所述的一种高效个性化联邦学习系统,其特征在于:所述终端设备数据模块包括如下三个终端数据子模块:
第一终端数据子模块:用于识别传感器所采集的有效数据并传输给第二数据终端子模块;
第二终端数据子模块:用于存储数据,该数据用于第一终端设备模型训练模块和第二终端设备模型训练模块的模型训练;
第三终端数据子模块:用于数据的统计及预处理,包括:对所存储数据量的统计,用于中心服务器整合数据时权重的计算,并判断是否足够进行本轮模型训练,若足够则通知终端设备模型下载模块,进行本轮全局模型下载;对数据的预处理,根据数据量及模型训练时的需要分割数据,并将数据分割结果传输给第一终端设备模型训练模块。
7.一种高效个性化联邦学习方法,在权利要求1至6任一项所述高效个性化联邦学习系统上实现,其特征在于:包括以下步骤:
步骤1、终端设备下载中心服务器派发的全局模型;
步骤2、终端设备对收到的全局模型,利用剪枝技术生成新的稀疏化子模型掩码;
步骤3、终端设备基于新的稀疏化子模型掩码,通过本地数据对模型进行训练后,更新模型参数;
步骤4、终端设备根据模型参数生成新的稀疏化子模型,并将新的稀疏化子模型上传至中心服务器;
步骤5、中心服务器利用上传的不同模型掩码重叠形成新的全局模型掩码;
步骤6、中心服务器利用泛化模型掩码捕获终端设备所上传新参数对其进行加权平均,得到加权平均后的新参数;
步骤7、中心服务器将加权平均后的新参数与新的全局模型掩码结合,得到一个新的完整全局模型;
步骤8、中心服务器根据上轮终端所上传的模型掩码,将新的完整全局模型个性化后派发给相应终端设备用于数据分析及新一轮模型训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210400890.XA CN114492847B (zh) | 2022-04-18 | 2022-04-18 | 一种高效个性化联邦学习系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210400890.XA CN114492847B (zh) | 2022-04-18 | 2022-04-18 | 一种高效个性化联邦学习系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114492847A true CN114492847A (zh) | 2022-05-13 |
CN114492847B CN114492847B (zh) | 2022-06-24 |
Family
ID=81489422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210400890.XA Active CN114492847B (zh) | 2022-04-18 | 2022-04-18 | 一种高效个性化联邦学习系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492847B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024013905A1 (ja) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | ニューラルネットワーク枝刈りシステム、ニューラルネットワーク枝刈り方法及びニューラルネットワーク枝刈りプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190362235A1 (en) * | 2018-05-23 | 2019-11-28 | Xiaofan Xu | Hybrid neural network pruning |
CN112668726A (zh) * | 2020-12-25 | 2021-04-16 | 中山大学 | 一种高效通信且保护隐私的个性化联邦学习方法 |
US20210287114A1 (en) * | 2020-03-13 | 2021-09-16 | International Business Machines Corporation | Adaptively adjusting influence in federated learning model updates |
CN113469340A (zh) * | 2021-07-06 | 2021-10-01 | 华为技术有限公司 | 一种模型处理方法、联邦学习方法及相关设备 |
CN113595993A (zh) * | 2021-07-12 | 2021-11-02 | 广东工业大学 | 边缘计算下模型结构优化的车载感知设备联合学习方法 |
CN114077755A (zh) * | 2022-01-19 | 2022-02-22 | 南京邮电大学 | 保护隐私的可控轻量化联邦学习方法、系统和检测方法 |
CN114154646A (zh) * | 2021-12-07 | 2022-03-08 | 南京华苏科技有限公司 | 一种移动边缘网络中联邦学习的效率优化方法 |
WO2022067355A1 (en) * | 2020-09-28 | 2022-03-31 | Qualcomm Incorporated | Sparsity-inducing federated machine learning |
-
2022
- 2022-04-18 CN CN202210400890.XA patent/CN114492847B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190362235A1 (en) * | 2018-05-23 | 2019-11-28 | Xiaofan Xu | Hybrid neural network pruning |
US20210287114A1 (en) * | 2020-03-13 | 2021-09-16 | International Business Machines Corporation | Adaptively adjusting influence in federated learning model updates |
WO2022067355A1 (en) * | 2020-09-28 | 2022-03-31 | Qualcomm Incorporated | Sparsity-inducing federated machine learning |
CN112668726A (zh) * | 2020-12-25 | 2021-04-16 | 中山大学 | 一种高效通信且保护隐私的个性化联邦学习方法 |
CN113469340A (zh) * | 2021-07-06 | 2021-10-01 | 华为技术有限公司 | 一种模型处理方法、联邦学习方法及相关设备 |
CN113595993A (zh) * | 2021-07-12 | 2021-11-02 | 广东工业大学 | 边缘计算下模型结构优化的车载感知设备联合学习方法 |
CN114154646A (zh) * | 2021-12-07 | 2022-03-08 | 南京华苏科技有限公司 | 一种移动边缘网络中联邦学习的效率优化方法 |
CN114077755A (zh) * | 2022-01-19 | 2022-02-22 | 南京邮电大学 | 保护隐私的可控轻量化联邦学习方法、系统和检测方法 |
Non-Patent Citations (2)
Title |
---|
ANG LI ET AL.: "LotteryFL: Empower Edge Intelligence with Personalized and Communication-Efficient Federated Learning", 《2021 ACM/IEEE 6TH SYMPOSIUM ON EDGE COMPUTING (SEC)》 * |
吴兰 等: "一种基于移动式服务器的联邦学习", 《中国科技论文》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024013905A1 (ja) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | ニューラルネットワーク枝刈りシステム、ニューラルネットワーク枝刈り方法及びニューラルネットワーク枝刈りプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114492847B (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Son et al. | Hybrid coevolutionary programming for Nash equilibrium search in games with local optima | |
CN103853786B (zh) | 数据库参数的优化方法与系统 | |
CN113515770A (zh) | 基于隐私保护确定目标业务模型的方法及装置 | |
CN110363286A (zh) | 神经网络模型的生成方法及装置 | |
CN113595993B (zh) | 边缘计算下模型结构优化的车载感知设备联合学习方法 | |
CN112101532A (zh) | 一种基于边云协同的自适应多模型驱动设备故障诊断方法 | |
CN114154646A (zh) | 一种移动边缘网络中联邦学习的效率优化方法 | |
CN114492847B (zh) | 一种高效个性化联邦学习系统和方法 | |
CN108629408A (zh) | 一种基于fpga的深度学习动态模型剪裁推理系统及方法 | |
CN101667292B (zh) | 基于免疫克隆和投影寻踪的sar图像分割系统及分割方法 | |
CN111831354B (zh) | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 | |
CN111932396A (zh) | 一种配电网拓扑网络自动识别方法 | |
CN115019510A (zh) | 一种基于动态自适应生成对抗网络的交通数据修复方法 | |
CN116542322A (zh) | 一种联邦学习方法 | |
CN115374479A (zh) | 一种非独立同分布数据场景下的联邦学习隐私保护方法 | |
CN114169506A (zh) | 一种基于工业物联网平台的深度学习边缘计算系统框架 | |
CN110275868A (zh) | 一种智能工厂中多模态制造数据预处理的方法 | |
Zhou et al. | Big data and knowledge graph based fault diagnosis for electric power systems | |
CN109977977A (zh) | 一种识别潜在用户的方法及对应装置 | |
CN115758643A (zh) | 一种基于时空特征融合的网络流量预测方法、装置及存储介质 | |
CN103679267A (zh) | 基于无标记样本的rbf神经网络构建方法及其装置 | |
CN115310607A (zh) | 一种基于注意力图的视觉Transformer模型剪枝方法 | |
CN113052189B (zh) | 一种基于改进的MobileNetV3特征提取网络 | |
CN117033997A (zh) | 数据切分方法、装置、电子设备和介质 | |
CN115277789A (zh) | 一种梯级水电站安全防护系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231029 Address after: Rehabilitation Industry Incubator 301-31, Block D, No. 100 Torch Road, High tech Zone, Qingdao, Shandong Province, 266000 Patentee after: Yinuoke Rehabilitation Medical Technology (Qingdao) Co.,Ltd. Address before: 300480 No. 209, floor 2, area C, animation building, No. 126, animation Middle Road, Tianjin eco city, Binhai New Area, Tianjin (No. 1903 entrusted by Tianjin Haobang business secretary Co., Ltd.) Patentee before: Aoluo Technology (Tianjin) Co.,Ltd. |