CN113222179A - 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 - Google Patents

一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 Download PDF

Info

Publication number
CN113222179A
CN113222179A CN202110291738.8A CN202110291738A CN113222179A CN 113222179 A CN113222179 A CN 113222179A CN 202110291738 A CN202110291738 A CN 202110291738A CN 113222179 A CN113222179 A CN 113222179A
Authority
CN
China
Prior art keywords
model
weight
representing
client
sparse matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110291738.8A
Other languages
English (en)
Other versions
CN113222179B (zh
Inventor
赵中原
王屹东
纪晓东
陈柏平
周惠宣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202110291738.8A priority Critical patent/CN113222179B/zh
Publication of CN113222179A publication Critical patent/CN113222179A/zh
Application granted granted Critical
Publication of CN113222179B publication Critical patent/CN113222179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,所述方法包括以下步骤:步骤1,客户端使用本地数据集进行本地模型训练;步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化;步骤3,客户端对稀疏化之后的矩阵进行权重量化;步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器;步骤5,服务器对接收到的权重矩阵进行解压缩,并完成联邦学习聚合。本发明的优越效果在于有效解决了联邦学习训练过程中的资源不足问题,并通过优化算法提升了联邦学习的训练精度。

Description

一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
技术领域
本发明属于数据处理领域,尤其涉及一种基于模型稀疏化与权重量化的联邦学习模型压缩方法。
背景技术
目前,前所未有的数据增长以及计算与并行处理的进步引发了包括了无线通信在内的领域对机器学习的研究兴趣。对于无线通信,由于传统的基于模型的方法不足以捕获现代无线网络日益增长的复杂性和异构性,采用机器学习进行系统设计和分析尤其有吸引力。例如,申请号为2018106746983的专利申请公开了一种基于非对称三元权重量化的深度神经网络模型压缩方法,包括:在深度神经网络训练时,在每一次前向计算之前,将网络的每一层浮点权重量化为非对称的三元值,参数更新阶段使用原始的浮点型网络权重;对训练完成的深度神经网络进行压缩存储。去除深度神经网络的冗余参数,对网络模型进行压缩。申请号为2019102115318的专利申请公开了一种基于Q-Learning算法的自动化模型压缩方法,其通过将深度神经网络的模型性能包括推理时间,模型大小,能耗及准确率作为约束条件,设计可以根据网络结构自动选择模型压缩方法的算法,从而获得性能最优的压缩方案选择。通过这种自动化模型压缩框架在五种不同网络结构下的模型使用。
由于管理大规模数据以保持机器学习算法的效率和扩展性是个挑战,在无线网络中,数据是由数十亿个设备生成并分发的,这就需要探索能够有效处理分布式数据集的解决方案。传统的集中式机器学习方案不适合此类情景是因为它们需要在中央实体中传输和处理数据,由于私有数据的不可访问性,在实践中无法实现。因此,分布式学习解决方案的思想得以产生。联邦学习是一种新兴的分布式方法,它意识到上述挑战中的问题,包括隐私和资源限制且将训练数据集保留在本地并在本地进行模型训练。之后,每个学习者都将其本地模型参数(而不是原始训练数据集)传输到中央聚合器。聚合器利用本地模型参数更新全局模型,本地模型最终反馈给各个本地学习者,每个本地学习者仅通过聚合器共享的全局模型从其他学习者的数据集中受益,而无需显式访问其隐私敏感数据。除了保护隐私之外,联邦学习也大量减少了本地学习者与中央聚合器之间的通信开销。然而,联邦学习的参与设备数量众多且网络连接速度缓慢或不稳定,互联网速度的不对称性导致上行链路比下行链路质量更差。此外,在某些加密协议为了保证用户更新不被监视而在上行传输时将增加大量额外的数据比特。在某些资源受限的条件下,上述这些因素将导致本地学习者无法将完整的模型发送到服务器进行全局聚合,从而使得联邦学习的训练精度降低,这成为联邦学习的发展瓶颈。
发明内容
本发明的目的在于提供一种能够克服上述技术问题的基于模型稀疏化与权重量化的联邦学习模型压缩方法,本发明所述方法包括以下步骤:
步骤1,客户端使用本地数据集进行本地模型训练:
各个客户端根据其本地数据集独立地进行模型更新,在任意一个客户端,使用随机梯度下降(SGD)算法减少本地模型的损失函数,本地模型采用如下公式(1)进行更新:
Figure BDA0002982420000000021
公式(1)中,ωt,m与ωt-1,m分别表示客户端Um在t次与t-1次迭代中的本地模型更新结果;Dt,m表示用于更新ωt,m的训练数据集,数据集从客户端Um的本地数据集Dm中随机生成;ηt为第t次迭代的学习率;
Figure BDA0002982420000000022
为损失函数F(ωt-1,m,Dt,m)关于ωt-1,m的梯度;
步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化,对本地模型训练生成的权重ωt,m进行模型稀疏化:
st,m=At,mωt,m……(2),
公式(2)中,st,m表示对ωt,m模型稀疏化后得到的权重向量,At,m表示d×d的稀疏矩阵,并采取了对稀疏矩阵At,m的优化算法;
步骤3,客户端对稀疏化之后的矩阵进行权重量化:
在模型稀疏化完成后对权重向量st,m中的每一个元素进行独立量化,独立量化后的参数向量通过如下公式(3)获得:
xt,m=st,m+qt,m……(3),
公式(3)中,qt,m表示一个d×1的量化噪声向量,qt,m~CN(0,Ωt,m),Ωt,m表示协方差矩阵,独立量化后的qt,m的各元素之间保持独立,Ωt,m表示为
Figure BDA0002982420000000023
步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器:
客户端Um将压缩后的权重向量xt,m通过无线信道传输到服务器,假设信道为平坦衰落模型,则服务器接收到的权重向量yt,m能够表示为以下公式(4):
yt,m=ht,mxt,m+nt,m……(4),
公式(4)中,ht,m表示客户端Um与服务器之间的平坦信道衰落,nt,m表示服务器端的加性高斯白噪声;
步骤5,服务器对接收到的权重矩阵进行解压缩并完成联邦学习聚合:
通过解压缩将接收到的权重向量yt,m还原为本地模型更新后地权重,本发明所述方法采用最小均方误差(MMSE)准则进行解压缩,解压缩结果通过如下公式(5)得到:
Figure BDA0002982420000000031
公式(5)中,Dt,m为d×d的解压缩矩阵,实现对yt,m的解稀疏化,C表示由所有可能的量化参数向量组成的集合并采取对解稀疏矩阵Dt,m的优化算法,在完成解压缩之后,用所有解压缩得到的权重向量进行全局更新,之后服务器将全局更新后的权重向量返回各个客户端,完成联邦学习的一次迭代过程。
进一步的,步骤2中,所述损失函数F(ωt,m,Dt,m)通过以下公式计算:
Figure BDA0002982420000000032
公式(6)中,l(ωt,m;x)表示属于Dt,m的数据元素x的损失值,Nt,m表示Dt,m的大小。
进一步的,如图3所示,步骤5中,所述对稀疏矩阵At,m与解稀疏矩阵Dt,m的优化算法的具体步骤如下:
步骤A1,初始化相关参数:
通过迭代的方式对稀疏矩阵At,m和解稀疏矩阵Dt,m相关参数进行初始化,需要初始的参数包括迭代次数K1与KA,收敛门限ε1与εA,其中,KA和εA表示总的迭代轮数和收敛门限,K1与ε1表示每一轮中更新稀疏矩阵At,m所需的迭代轮数和收敛门限;
步骤A2,迭代更新稀疏矩阵At,m与解稀疏矩阵Dt,m
在第ka轮中,执行以下3个步骤:
步骤A201,对稀疏矩阵At,m进行优化,优化方式为迭代的方式,在第k1轮中,通过优化下述第m个用户的目标函数对At,m进行更新:表示为以下公式(7):
Figure BDA0002982420000000041
公式(7)中的参数的含义为:ω1和ω2代表精度损失和资源消耗代价函数的权重值,zt,m表示用户调度参数,当用户调度参数为1表示用户参与联邦学习聚合,当用户调度参数为0表示用户不参与联邦学习聚合,Nm为第m个用户的训练样本数,N为所有用户总的训练样本数,β2表示资源开销中通信开销所占的权重,公式(7)中,G1,m表示模型精度损失函数中与At,m相关的项,如以下公式(8)所示:
Figure BDA0002982420000000042
公式(8)中,G2,m表示通信代价函数中与At,m相关的项,如以下公式(9)所示:
Figure BDA0002982420000000043
G2,m的非凸性且不满足后续优化的条件,通过使用一阶泰勒展开将G2,m近似为一种凸的形式
Figure BDA0002982420000000044
如以下公式(10)所示:
Figure BDA0002982420000000045
G3,m表示通信传输所消耗能量与计算所消耗能量和最大能耗的差值,小于等于零构成约束条件,表示通信和计算资源应小于电池的电量资源,G3,m的表达式为以下公式(11):
Figure BDA0002982420000000046
公式(11)中,Pm表示联邦学习第t轮中允许的最大能耗;
其中,公式(7)中为满足KKT条件的凸问题并通过使用优化包有效地解决,当迭代次数k1>K1或者差值小于收敛门限
Figure BDA0002982420000000047
时,终止步骤A201的迭代过程;
步骤A202,优化解稀疏矩阵Dt,m
解稀疏矩阵Dt,m仅与精度有关且在完成稀疏矩阵At,m的优化后,优化Dt,m即找到使得精度损失函数G1,m最小的Dt,m值;
G1,m是对于Dt,m的凸函数,在G1,m中Dt,m与At,m是旋转对称的,对Dt,m的优化问题则转化为求解
Figure BDA0002982420000000051
能够解得Dt,m的值表示为以下公式(12):
Figure BDA0002982420000000052
步骤A203,利用更新后的稀疏矩阵At,m和解稀疏矩阵Dt,m更新所有用户总的目标函数
Figure BDA0002982420000000053
表示为以下公式(13):
Figure BDA0002982420000000054
步骤A3,终止对At,m和Dt,m的更新:
当达到终止条件ka≥KA
Figure BDA0002982420000000055
时,终止对At,m和Dt,m的更新,返回At,m的优化值
Figure BDA0002982420000000056
与Dt,m的优化值
Figure BDA0002982420000000057
本发明所述方法具有以下优越的技术效果:
1、本发明所述方法提出了对稀疏矩阵和解稀疏矩阵进行迭代优化的优化算法,在资源受限的场景下利用模型压缩方法能保证联邦学习在满足资源的限制条件下使得训练的模型精度不受影响,本发明所述方法能够应用到边缘计算的通信资源相对不足的场景中并具有广泛的应用前景。
2、本发明所述方法在联邦学习训练过程中结合了模型稀疏化与权重量化的深度学习压缩方法并节约了上行信道传输所需的通信资源。
3、本发明所述方法结合联邦学习过程对模型稀疏化的稀疏矩阵与解稀疏矩阵进行了优化,提高了联邦学习训练的模型精度。
附图说明
图1是本发明所述方法实施例所应用的边缘计算场景图;
图2是本发明所述方法的流程图;
图3是本发明所述方法对稀疏矩阵At,m与解稀疏矩阵Dt,m进行优化的算法流程图;
图4是本发明所述方法的模型压缩方案与常规模型压缩方案的MSE仿真性能对比图。
具体实施方式
下面结合说明书附图对本发明的实施方式进行详细描述。
本发明所述方法在联邦学习迭代过程中加入了模型稀疏化与权重量化的模型压缩步骤,以使模型能在有限的通信资源条件下传输到服务器端并在服务器端加入解压缩步骤,将接收到的权重矩阵还原为传输之前的权重矩阵,以最大限度地保证联邦学习模型精度不受影响;图1为本发明所述方法实施例所应用的边缘计算场景图,在某个边缘计算场景中实现联邦学习,边缘计算场景包括一个边缘接入点E与多个用户客户端U1,...,Um,边缘计算服务器SE配置在边缘接入点E,本地计算单元Sm配置在用户客户端Um,m=1,...,M,联邦学习过程通过一台服务器与多个客户端之间的协作来实现。
以下参见图2,具体说明本发明所述方法的步骤:
步骤1,客户端接收上一轮聚合的模型,使用本地数据集与随机梯度下降算法进行本地模型训练,各个客户端根据其本地数据集独立地进行本地模型更新,对于任意一个客户端Um,使用随机梯度下降(SGD)算法减少本地模型的损失函数,本地模型采用如下公式(1)进行更新:
Figure BDA0002982420000000061
公式(1)中,ωt,m与ωt-1,m分别表示客户端Um在t次与t-1次迭代中的本地模型更新结果,Dt,m表示用于更新ωt,m的训练数据集,数据集从客户端Um的本地数据集Dm中随机生成,ηt为第t次迭代的学习率,
Figure BDA0002982420000000062
为损失函数F(ωt-1,m,Dt,m)关于ωt-1,m的梯度;
步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化:
模型稀疏化是指通过去掉高维模型中一些不重要的元素,将模型转化为稀疏版本,采用的模型稀疏化方法为一种基于稀疏矩阵的方法,是将模型矩阵乘以一个稀疏矩阵以达到降维的目的,对本地模型训练生成的权重ωt,m进行模型稀疏化的公式为以下公式(2):
st,m=At,mωt,m……(2),
公式(2)中,st,m表示对ωt,m模型稀疏化后得到的权重向量,At,m表示d×d的稀疏矩阵,为了使得模型稀疏化后模型精度不受到影响,需要对稀疏矩阵At,m进行优化,稀疏矩阵At,m进行优化算法;
步骤3,客户端对稀疏化之后的矩阵进行权重量化:
本地更新的模型参数是高精度的且不适合于无线传输,本发明所述方法在模型稀疏化完成后对权重向量st,m中的每一个元素进行独立的量化,量化后的参数向量通过如下公式(3)获得:
xt,m=st,m+qt,m……(3),
公式(3)中,qt,m表示一个d×1的量化噪声向量,qt,m~CN(0,Ωt,m),Ωt,m表示协方差矩阵,本发明所述方法实施独立量化且qt,m的各元素之间保持独立,Ωt,m表示为
Figure BDA0002982420000000071
步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器:
客户端Um将压缩后的权重向量xt,m通过无线信道传输到服务器,假设信道为平坦衰落模型,则服务器接收到的权重向量yt,m能够表示为以下公式(4):
yt,m=ht,mxt,m+nt,m……(4),
公式(4)中,ht,m表示客户端Um与服务器之间的平坦信道衰落,nt,m表示服务器端的加性高斯白噪声;
步骤5,服务器对接收到的权重矩阵进行解压缩并完成联邦学习聚合:
通过解压缩将接收到的权重向量yt,m还原为本地模型更新后地权重,本发明所述方法采用最小均方误差(MMSE)准则进行解压缩,解压缩结果通过如下公式(5)得到:
Figure BDA0002982420000000072
公式(5)中Dt,m为d×d的解压缩矩阵以实现对yt,m的解稀疏化,C表示由所有量化参数向量组成的集合,要对解稀疏矩阵Dt,m进行优化,以使模型稀疏化后模型精度不受影响,相应的优化方式将在图3所述的优化算法流程中详细描述;在完成解压缩之后,用所有解压缩得到的权重向量进行全局更新,之后服务器将全局更新后的权重向量返回各个客户端以完成联邦学习的一次迭代过程,对稀疏矩阵At,m与解稀疏矩阵Dt,m进行优化设计,以使模型压缩后模型精度不受影响。
进一步的,步骤2中,所述损失函数F(ωt,m,Dt,m)通过以下公式计算:
Figure BDA0002982420000000073
公式(6)中,l(ωt,m;x)表示属于Dt,m的数据元素x的损失值,Nt,m表示Dt,m的大小。
进一步的,如图3所示,步骤5中,所述对稀疏矩阵At,m与解稀疏矩阵Dt,m优化算法的步骤如下:
步骤A1,初始化相关参数:
通过迭代的方式对稀疏矩阵At,m和解稀疏矩阵Dt,m相关参数进行初始化,需要初始的参数包括迭代次数K1与KA,收敛门限ε1与εA,其中,KA和εA表示总的迭代轮数和收敛门限,K1与ε1表示每一轮中更新稀疏矩阵At,m所需的迭代轮数和收敛门限;
步骤A2,迭代更新稀疏矩阵At,m与解稀疏矩阵Dt,m
在第ka轮中,执行以下3个步骤:
步骤A201,对稀疏矩阵At,m进行优化,优化方式为迭代的方式,在第k1轮中,通过优化下述第m个用户的目标函数对At,m进行更新:表示为以下公式(7):
Figure BDA0002982420000000081
公式(7)中的参数的含义为:ω1和ω2代表精度损失和资源消耗代价函数的权重值,zt,m表示用户调度参数,当用户调度参数为1表示用户参与联邦学习聚合,当用户调度参数为0表示用户不参与联邦学习聚合,Nm为第m个用户的训练样本数,N为所有用户总的训练样本数,β2表示资源开销中通信开销所占的权重,公式(7)中,G1,m表示模型精度损失函数中与At,m相关的项,如以下公式(8)所示:
Figure BDA0002982420000000082
公式(8)中,G2,m表示通信代价函数中与At,m相关的项,如以下公式(9)所示:
Figure BDA0002982420000000083
G2,m的非凸性且不满足后续优化的条件,通过使用一阶泰勒展开将G2,m近似为一种凸的形式
Figure BDA0002982420000000084
如以下公式(10)所示:
Figure BDA0002982420000000091
G3,m表示通信传输所消耗能量与计算所消耗能量和最大能耗的差值,小于等于零构成约束条件,表示通信和计算资源应小于电池的电量资源,G3,m的表达式为以下公式(11):
Figure BDA0002982420000000092
公式(11)中,Pm表示联邦学习第t轮中允许的最大能耗;
其中,公式(7)中为满足KKT条件的凸问题并通过使用优化包有效地解决,当迭代次数k1>K1或者差值小于收敛门限
Figure BDA0002982420000000093
时,终止步骤A201的迭代过程;
步骤A202,优化解稀疏矩阵Dt,m
解稀疏矩阵Dt,m仅与精度有关且在完成稀疏矩阵At,m的优化后,优化Dt,m即找到使得精度损失函数G1,m最小的Dt,m值;
G1,m是对于Dt,m的凸函数,在G1,m中Dt,m与At,m是旋转对称的,对Dt,m的优化问题则转化为求解
Figure BDA0002982420000000094
能够解得Dt,m的值表示为以下公式(12):
Figure BDA0002982420000000095
步骤A203,利用更新后的稀疏矩阵At,m和解稀疏矩阵Dt,m更新所有用户总的目标函数
Figure BDA0002982420000000096
表示为以下公式(13):
Figure BDA0002982420000000097
步骤A3,终止对At,m和Dt,m的更新:
当达到终止条件ka≥KA
Figure BDA0002982420000000098
时,终止对At,m和Dt,m的更新,返回At,m的优化值
Figure BDA0002982420000000099
与Dt,m的优化值
Figure BDA00029824200000000910
申请人需要说明的是,为了评估本发明所述方法的可行性,在本发明实施例中通过软件仿真评估了采用本发明所述方法的模型性能与没有采用模型稀疏性的常规均匀压缩方案的性能进行对比;如图4所示,以均方误差(MSE)作为评估模型压缩性能的性能指标,分别设置权重量化精度q为1和2,图4中纵坐标为均方误差值,横坐标为平均信噪比(SNR),实线为本发明实施例的性能,虚线为常规均匀压缩方案的性能;从仿真结果能够看出,使用本发明所述方法比使用常规的均匀压缩方案能够获得更优的性能,特别地,当权重量化精度为1时,使用本发明所述方法较常规方案MSE性能提升24.04%;当权重量化精度为2时,使用本发明所述方法较常规方案MSE性能提升29.97%。综上,采用本发明所述方法较采用常规的均匀压缩方法在性能上有很大提升。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明公开的范围内,能够轻易想到的变化或替换,都应涵盖在本发明权利要求的保护范围内。

Claims (3)

1.一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,其特征在于,包括以下步骤:
步骤1,客户端使用本地数据集进行本地模型训练:
各个客户端根据其本地数据集独立地进行模型更新,在任意一个客户端,使用随机梯度下降(SGD)算法减少本地模型的损失函数,本地模型采用如下公式(1)进行更新:
Figure RE-FDA0003106681650000011
公式(1)中,ωt,m与ωt-1,m分别表示客户端Um在t次与t-1次迭代中的本地模型更新结果;Dt,m表示用于更新ωt,m的训练数据集,数据集从客户端Um的本地数据集Dm中随机生成;ηt为第t次迭代的学习率;
Figure RE-FDA0003106681650000012
为损失函数F(ωt-1,m,Dt,m)关于ωt-1,m的梯度;
步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化,对本地模型训练生成的权重ωt,m进行模型稀疏化:
st,m=At,mωt,m……(2),
公式(2)中,st,m表示对ωt,m模型稀疏化后得到的权重向量,At,m表示d×d的稀疏矩阵,并采取了对稀疏矩阵At,m的优化算法;
步骤3,客户端对稀疏化之后的矩阵进行权重量化:
在模型稀疏化完成后对权重向量st,m中的每一个元素进行独立的量化,量化后的参数向量通过如下公式(3)获得:
xt,m=st,m+qt,m……(3),
公式(3)中,qt,m表示一个d×1的量化噪声向量,qt,m~CN(0,Ωt,m),Ωt,m表示协方差矩阵,独立量化后的qt,m的各元素之间保持独立,Ωt,m表示为
Figure RE-FDA0003106681650000013
步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器:
客户端Um将压缩后的权重向量xt,m通过无线信道传输到服务器,假设信道为平坦衰落模型,则服务器接收到的权重向量yt,m能够表示为以下公式(4):
yt,m=ht,mxt,m+nt,m……(4)
公式(4)中,ht,m表示客户端Um与服务器之间的平坦信道衰落,nt,m表示服务器端的加性高斯白噪声;
步骤5,服务器对接收到的权重矩阵进行解压缩并完成联邦学习聚合:
通过解压缩将接收到的权重向量yt,m还原为本地模型更新后地权重,本发明所述方法采用最小均方误差(MMSE)准则进行解压缩,解压缩结果通过如下公式(5)得到:
Figure RE-FDA0003106681650000021
公式(5)中,Dt,m为d×d的解压缩矩阵,实现对yt,m的解稀疏化,C表示由所有可能的量化参数向量组成的集合,并采取对解稀疏矩阵Dt,m的优化算法,在完成解压缩之后,用所有解压缩得到的权重向量进行全局更新,之后服务器将全局更新后的权重向量返回各个客户端,完成联邦学习的一次迭代过程。
2.根据权利要求1所述的一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,其特征在于,所述步骤2中,步骤2中,所述损失函数F(ωt,m,Dt,m)通过以下公式计算:
Figure RE-FDA0003106681650000022
公式(6)中,l(ωt,m;x)表示属于Dt,m的数据元素x的损失值,Nt,m表示Dt,m的大小。
3.根据权利要求1所述的一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,其特征在于,步骤5中,所述对稀疏矩阵At,m与解稀疏矩阵Dt,m的优化算法的具体步骤如下:
步骤A1,初始化相关参数:
通过迭代的方式对稀疏矩阵At,m和解稀疏矩阵Dt,m相关参数进行初始化,需要初始的参数包括迭代次数K1与KA,收敛门限ε1与εA,其中,KA和εA表示总的迭代轮数和收敛门限,K1与ε1表示每一轮中更新稀疏矩阵At,m所需的迭代轮数和收敛门限;
步骤A2,迭代更新稀疏矩阵At,m与解稀疏矩阵Dt,m
在第ka轮中,执行以下三个步骤:
步骤A201,对稀疏矩阵At,m进行优化,优化方式为迭代的方式,在第k1轮中,通过优化下述第m个用户的目标函数对At,m进行更新:表示为以下公式(7):
Figure RE-FDA0003106681650000031
Figure RE-FDA0003106681650000032
公式(7)中的参数的含义为:ω1和ω2代表精度损失和资源消耗代价函数的权重值,zt,m表示用户调度参数,当用户调度参数为1表示用户参与联邦学习聚合,当用户调度参数为0表示用户不参与联邦学习聚合,Nm为第m个用户的训练样本数,N为所有用户总的训练样本数,β2表示资源开销中通信开销所占的权重,公式(7)中,G1,m表示模型精度损失函数中与At,m相关的项,如以下公式(8)所示:
Figure RE-FDA0003106681650000033
公式(8)中,G2,m表示通信代价函数中与At,m相关的项,如以下公式(9)所示:
Figure RE-FDA0003106681650000034
G2,m的非凸性且不满足后续优化的条件,通过使用一阶泰勒展开将G2,m近似为一种凸的形式
Figure RE-FDA0003106681650000035
如以下公式(10)所示:
Figure RE-FDA0003106681650000036
Figure RE-FDA0003106681650000037
G3,m表示通信传输所消耗能量与计算所消耗能量和最大能耗的差值,小于等于零构成约束条件,表示通信和计算资源应小于电池的电量资源,G3,m的表达式为以下公式(11):
Figure RE-FDA0003106681650000038
公式(11)中,Pm表示联邦学习第t轮中允许的最大能耗;
其中,公式(7)中为满足KKT条件的凸问题并通过使用优化包有效地解决,当迭代次数k1>K1或者差值小于收敛门限
Figure RE-FDA0003106681650000039
时,终止步骤A201的迭代过程;
步骤A202,优化解稀疏矩阵Dt,m
解稀疏矩阵Dt,m仅与精度有关且在完成稀疏矩阵At,m的优化后,优化Dt,m即找到使得精度损失函数G1,m最小的Dt,m值;
G1,m是对于Dt,m的凸函数,在G1,m中Dt,m与At,m是旋转对称的,对Dt,m的优化问题则转化为求解
Figure RE-FDA0003106681650000041
能够解得Dt,m的值表示为以下公式(12):
Figure RE-FDA0003106681650000042
步骤A203,利用更新后的稀疏矩阵At,m和解稀疏矩阵Dt,m更新所有用户总的目标函数
Figure RE-FDA0003106681650000043
Figure RE-FDA0003106681650000044
表示为以下公式(13):
Figure RE-FDA0003106681650000045
步骤A3,根据终止条件,终止对At,m和Dt,m的更新:
当达到终止条件ka≥KA
Figure RE-FDA0003106681650000046
时,终止对At,m和Dt,m的更新,返回At,m的优化值
Figure RE-FDA0003106681650000047
与Dt,m的优化值
Figure RE-FDA0003106681650000048
CN202110291738.8A 2021-03-18 2021-03-18 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 Active CN113222179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110291738.8A CN113222179B (zh) 2021-03-18 2021-03-18 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110291738.8A CN113222179B (zh) 2021-03-18 2021-03-18 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法

Publications (2)

Publication Number Publication Date
CN113222179A true CN113222179A (zh) 2021-08-06
CN113222179B CN113222179B (zh) 2023-06-20

Family

ID=77083791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110291738.8A Active CN113222179B (zh) 2021-03-18 2021-03-18 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法

Country Status (1)

Country Link
CN (1) CN113222179B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114139688A (zh) * 2021-12-09 2022-03-04 福州大学 基于马尔可夫链共识的工业物联网分布式联邦学习方法
CN114205905A (zh) * 2021-12-13 2022-03-18 江苏第二师范学院 一种基于集成联邦学习的复杂环境室内指纹定位方法
CN114219094A (zh) * 2021-11-10 2022-03-22 华南理工大学 基于多任务联邦学习的通信成本和模型鲁棒性优化方法
CN114301889A (zh) * 2021-12-16 2022-04-08 南京理工大学 一种基于权重压缩的高效联邦学习方法及系统
CN114564746A (zh) * 2022-02-28 2022-05-31 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN114757350A (zh) * 2022-04-22 2022-07-15 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于强化学习的卷积网络通道裁剪方法及系统
CN114861790A (zh) * 2022-04-29 2022-08-05 深圳大学 联邦学习压缩通信的优化方法、系统及装置
CN115278709A (zh) * 2022-07-29 2022-11-01 南京理工大学 一种基于联邦学习的通信优化方法
WO2023036184A1 (en) * 2021-09-08 2023-03-16 Huawei Cloud Computing Technologies Co., Ltd. Methods and systems for quantifying client contribution in federated learning
WO2023082278A1 (en) * 2021-11-15 2023-05-19 Intel Corporation Apparatus and method for reinforcement learning based post-training sparsification
CN116341689A (zh) * 2023-03-22 2023-06-27 深圳大学 机器学习模型的训练方法、装置、电子设备及存储介质
WO2023142828A1 (zh) * 2022-01-29 2023-08-03 华为技术有限公司 信息处理方法及装置
CN117216596A (zh) * 2023-08-16 2023-12-12 中国人民解放军总医院 基于梯度聚类的联邦学习优化通信方法、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401552A (zh) * 2020-03-11 2020-07-10 浙江大学 一种基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN111882133A (zh) * 2020-08-03 2020-11-03 重庆大学 一种基于预测的联邦学习通信优化方法及系统
CN111901829A (zh) * 2020-07-10 2020-11-06 江苏智能交通及智能驾驶研究院 基于压缩感知和量化编码的无线联邦学习方法
CN111931950A (zh) * 2020-09-28 2020-11-13 支付宝(杭州)信息技术有限公司 一种基于联邦学习进行模型参数更新的方法及系统
US20210073639A1 (en) * 2018-12-04 2021-03-11 Google Llc Federated Learning with Adaptive Optimization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210073639A1 (en) * 2018-12-04 2021-03-11 Google Llc Federated Learning with Adaptive Optimization
CN111401552A (zh) * 2020-03-11 2020-07-10 浙江大学 一种基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN111901829A (zh) * 2020-07-10 2020-11-06 江苏智能交通及智能驾驶研究院 基于压缩感知和量化编码的无线联邦学习方法
CN111882133A (zh) * 2020-08-03 2020-11-03 重庆大学 一种基于预测的联邦学习通信优化方法及系统
CN111931950A (zh) * 2020-09-28 2020-11-13 支付宝(杭州)信息技术有限公司 一种基于联邦学习进行模型参数更新的方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JED MILLS 等: "Communication-Efficient Federated Learning for Wireless Edge Intelligence in IoT", 《IEEE INTERNET OF THINGS JOURNAL》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023036184A1 (en) * 2021-09-08 2023-03-16 Huawei Cloud Computing Technologies Co., Ltd. Methods and systems for quantifying client contribution in federated learning
CN114219094A (zh) * 2021-11-10 2022-03-22 华南理工大学 基于多任务联邦学习的通信成本和模型鲁棒性优化方法
CN114219094B (zh) * 2021-11-10 2024-03-19 华南理工大学 基于多任务联邦学习的通信成本和模型鲁棒性优化方法
WO2023082278A1 (en) * 2021-11-15 2023-05-19 Intel Corporation Apparatus and method for reinforcement learning based post-training sparsification
CN114139688A (zh) * 2021-12-09 2022-03-04 福州大学 基于马尔可夫链共识的工业物联网分布式联邦学习方法
CN114205905A (zh) * 2021-12-13 2022-03-18 江苏第二师范学院 一种基于集成联邦学习的复杂环境室内指纹定位方法
CN114301889A (zh) * 2021-12-16 2022-04-08 南京理工大学 一种基于权重压缩的高效联邦学习方法及系统
CN114301889B (zh) * 2021-12-16 2024-06-11 南京理工大学 一种基于权重压缩的高效联邦学习方法及系统
WO2023142828A1 (zh) * 2022-01-29 2023-08-03 华为技术有限公司 信息处理方法及装置
CN114564746B (zh) * 2022-02-28 2024-05-14 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN114564746A (zh) * 2022-02-28 2022-05-31 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN114757350B (zh) * 2022-04-22 2024-09-27 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于强化学习的卷积网络通道裁剪方法及系统
CN114757350A (zh) * 2022-04-22 2022-07-15 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于强化学习的卷积网络通道裁剪方法及系统
CN114861790A (zh) * 2022-04-29 2022-08-05 深圳大学 联邦学习压缩通信的优化方法、系统及装置
CN115278709B (zh) * 2022-07-29 2024-04-26 南京理工大学 一种基于联邦学习的通信优化方法
CN115278709A (zh) * 2022-07-29 2022-11-01 南京理工大学 一种基于联邦学习的通信优化方法
CN116341689B (zh) * 2023-03-22 2024-02-06 深圳大学 机器学习模型的训练方法、装置、电子设备及存储介质
CN116341689A (zh) * 2023-03-22 2023-06-27 深圳大学 机器学习模型的训练方法、装置、电子设备及存储介质
CN117216596B (zh) * 2023-08-16 2024-04-30 中国人民解放军总医院 基于梯度聚类的联邦学习优化通信方法、系统及存储介质
CN117216596A (zh) * 2023-08-16 2023-12-12 中国人民解放军总医院 基于梯度聚类的联邦学习优化通信方法、系统及存储介质

Also Published As

Publication number Publication date
CN113222179B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN113222179B (zh) 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
CN113191484B (zh) 基于深度强化学习的联邦学习客户端智能选取方法及系统
Tang et al. Computational intelligence and deep learning for next-generation edge-enabled industrial IoT
Qin et al. Federated learning and wireless communications
CN111800828B (zh) 一种超密集网络的移动边缘计算资源分配方法
CN111628855B (zh) 基于深度强化学习的工业5g动态多优先级多接入方法
CN116054888A (zh) 一种天线信号的原始信号重构方法及装置
CN109818775B (zh) 一种短期网络流量预测方法
CN103763782B (zh) 一种mu‑mimo下行链路基于加权用户相关的公平调度方法
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
CN110300417B (zh) 无人机通信网络的能量效率优化方法和装置
CN115767562B (zh) 基于强化学习联合协作多点传输的服务功能链部署方法
CN116017507B (zh) 基于无线空中计算和二阶优化的去中心化联邦学习方法
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
Elbir et al. Hybrid federated and centralized learning
CN115481748A (zh) 一种基于数字孪生辅助的联邦学习新鲜度优化方法与系统
CN112836822A (zh) 基于宽度学习的联邦学习策略优化方法和装置
Wu et al. FedProf: Optimizing federated learning with dynamic data profiling
CN114268348A (zh) 一种基于深度强化学习的无蜂窝大规模mimo功率分配方法
Foukalas Federated-learning-driven radio access networks
CN116887205A (zh) 一种面向物联网协同智能的无线联邦分割学习算法
CN116128070A (zh) 基于无线空中计算和多比特量化压缩感知的联邦学习方法
CN106886463A (zh) 一种智能动态调整多图形处理器负载的控制系统
CN113033653A (zh) 一种边-云协同的深度神经网络模型训练方法
Zheng et al. Deep Reinforcement Learning-based Quantization for Federated Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant