CN115564062A - 一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 - Google Patents
一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 Download PDFInfo
- Publication number
- CN115564062A CN115564062A CN202211173605.1A CN202211173605A CN115564062A CN 115564062 A CN115564062 A CN 115564062A CN 202211173605 A CN202211173605 A CN 202211173605A CN 115564062 A CN115564062 A CN 115564062A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- global model
- sparse
- transmission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于模型剪枝和传输压缩联合优化的联邦学习系统及方法,该系统包括服务器端和多个客户端;方法为:首先客户端清洗数据并归一化成结构化的数据;然后服务器端将原始全局模型修剪成为稀疏全局模型,并下发至客户端;客户端用本地数据集计算稀疏全局模型权重,并对稀疏全局模型权重数据进行压缩后上传至服务器端;服务器端使用稀疏全局模型权重数据更新稀疏全局模型,然后再下发至客户端进行本地训练;重复进行稀疏全局模型和稀疏全局模型权重数据更新,直至稀疏全局模型收敛,使用最终数据训练原始全局模型,得到根据每个客户端的数据训练出的最终全局预测模型。本发明降低了客户端训练模型的复杂程度,降低了通信成本。
Description
技术领域
本发明涉及机器学习技术领域,特别是一种基于模型剪枝和传输压缩优化的联邦学习系统及方法。
背景技术
接些年来,机器学习技术越来越普遍的应用于日常生活中,例如智能家居、智能零售、自动驾驶等。然而,先进的人工智能系统通常需要大型标记数据集、大量计算资源、众多专家等资源用于训练和推理。由于数据隐私法规和通信带宽的限制,在一个中心位置传输和存储所有训练数据通常是不可行的。因此联邦学习成为一种新的分布式学习范式,它使多个客户端能够在不共享本地数据的情况下协作学习全局模型。虽然联邦学习可以将数据保存在本地,缓解了传统范式中传输训练数据带来的较大负担,但联邦学习中的客户端设备通常资源受限,例如计算能力、通信带宽、内存和存储大小等。因此,需要训练一个可用的联邦学习模型,通过协作资源有限的边缘设备,来适应各种情况,例如智能医疗保健和服务推荐等场景。
因此,研究人员提出了模型梯度压缩技术,该技术不上传具有完整参数值的模型,而从原始模型中提取一个小模型用于在融合阶段进行传输。模型梯度压缩技术包括量化技术和稀疏化技术。量化技术常用的方法是具有各种模式的桶量化方法,即随机量化、计数草图和分位数桶量化,量化技术在通信效率之间具有更好的权衡和学习性能。稀疏化技术是减少客户端设备传输比特的经典方法,其仅传输上传向量的重要元素的一小部分。然而,这些方法只能减少通信开销,不能生成用于高效计算的小模型。
深度神经网络(DNN)的稀疏性,例如模型修剪,是提高通信开销和计算复杂度的另一种选择。有研究人员提出了一种改进的稀疏进化训练算法来减少联邦学习中神经网络的连接,从而间接减少要发送到服务器的模型参数的数量。但是,这种稀疏化方法只能应用于全连接层,应用范围有限。因为单个客户端的剪枝模型依赖于客户端的数据分布,不能应用于具有异构数据统计的客户端。现有的工作旨在通过利用彩票假设框架,来设计个性化且通信效率高的联邦学习框架。因此,如何减少服务器端的模型大小,以实现最有效的训练,并进一步压缩客户端设备的传输,仍然是联邦学习中亟需解决的问题。
发明内容
本发明的目的在于提供一种客户端训练模型的复杂程度低、通信成本低的基于模型剪枝和传输压缩优化的联邦学习系统及方法。
实现本发明目的的技术解决方案为:一种基于模型剪枝和传输压缩优化的联邦学习系统,包括服务器端和多个客户端;
所述服务器端,用于执行基本运算、建立初始化全局模型、接受各个用户端上传全局模型参数;
所述客户端,用于进行数据清洗和归一化、模型权重数据计算、模型权重数据压缩、模型参数接收和上传。
一种基于模型剪枝和传输压缩优化的联邦学习方法,包括以下步骤:
步骤1、客户端清洗数据并归一化成结构化的数据;
步骤2、服务器端对原始全局模型进行修剪,得到一个稀疏全局模型;
步骤3、服务器端将稀疏全局模型下发至客户端;
步骤4、客户端接收到稀疏全局模型后,用本地数据集运行优化方法,进行若干次本地迭代后,获得本地更新的稀疏全局模型权重,应用传输量化和传输稀疏化对稀疏全局模型权重数据进行压缩后上传至服务器端;
步骤5、服务器端对接收到的稀疏全局模型权重数据进行压缩和聚合,更新稀疏全局模型,然后再下发至客户端进行本地训练;
步骤6、重复步骤4和步骤5直至稀疏全局模型收敛,使用最终数据训练原始全局模型,得到根据每个客户端的数据训练出的最终全局预测模型。
本发明与现有技术相比,其显著优点为:(1)在服务器端对原始全局模型中不重要的模型参数进行修剪,降低了客户端训练模型的复杂程度;(2)使用传输量化和传输稀疏化对稀疏全局模型权重数据进行压缩,降低了通信成本。
附图说明
图1是本发明基于模型剪枝和传输压缩优化的联邦学习方法的流程示意图。
图2是本发明实施例中模型训练过程的系统示意图。
图3是本发明实施例中本发明的算法和传统算法的性能对比曲线图。
具体实施方式
结合图1~图2,本发明一种基于模型剪枝和传输压缩优化的联邦学习系统,包括服务器端和多个客户端;
所述服务器端,用于执行基本运算、建立初始化全局模型、接受各个用户端上传全局模型参数;
所述客户端,用于进行数据清洗和归一化、模型权重数据计算、模型权重数据压缩、模型参数接收和上传。
进一步地,所述的基于模型剪枝和传输压缩优化的联邦学习系统,所述客户端的数量为2个以上。
本发明一种基于模型剪枝和传输压缩优化的联邦学习方法,包括以下步骤:
步骤1、客户端清洗数据并归一化成结构化的数据;
步骤2、服务器端对原始全局模型进行修剪,得到一个稀疏全局模型;
步骤3、服务器端将稀疏全局模型下发至客户端;
步骤4、客户端接收到稀疏全局模型后,用本地数据集运行优化方法,进行若干次本地迭代后,获得本地更新的稀疏全局模型权重,应用传输量化和传输稀疏化对稀疏全局模型权重数据进行压缩后上传至服务器端;
步骤5、服务器端对接收到的稀疏全局模型权重数据进行压缩和聚合,更新稀疏全局模型,然后再下发至客户端进行本地训练;
步骤6、重复步骤4和步骤5直至稀疏全局模型收敛,使用最终数据训练原始全局模型,得到根据每个客户端的数据训练出的最终全局预测模型。
进一步地,步骤1所述的客户端清洗数据并归一化成结构化的数据,具体如下:
每个客户端利用自然语言处理、图像特征提取技术清洗收集得到的数据,并归一化形成结构化的数据。
进一步地,步骤2所述的服务器端对原始全局模型进行修剪,得到一个稀疏全局模型,具体如下:
对原始全局模型的目标函数应用泰勒展开式,得到:
使用累积更新来估计全局梯度的动量:
Δut+1=βΔut+(1-β)Δwt+1
其中,β是动量率,Δu0是零向量,Δut+1表示从0到第t+1轮的累积更新向量,由此得到去除[wt]j的效用成本:
[T(wt,Δut)]j=|[(Δut)Twt]j|
其中,[wt]j表示模型中的第j个参数权重;[T(wt,Δut)]j表示移除参数[wt]j的效用成本,因此保留使得[T(wt,Δut)]j大于设定值的[wt]j,对模型性能影响小于设定值的更新(Δut)T清零。
进一步地,步骤2中所述的稀疏全局模型,具体如下:
定义一个掩码函数来生成一个二进制掩码向量:
其中Ts(wt,Δut)是控制修建率p的阈值,客户端的稀疏训练过程表示为:
进一步地,步骤4中所述的传输量化,是对稀疏全局模型所有层和所有通道的未修剪权重进行非均匀量化,所有待上传参数在同一轮通信时共享一个共同的量化策略和量化的赋值;
进一步地,步骤4中所述的传输稀疏化,是通过仅保留部分传输值来减少传输比特,具体为用差分编码进一步减少通信开销。
进一步地,所述的差分编码,具体如下:
传输稀疏化引起的传输代价表示为:
通过对稀疏更新数据分布的分析,存在三个特征:
首先,密钥是不重复的;
其次,键按升序排列;
第三,两个相邻键之间的差异比键本身小;
因此,计算两个相邻密钥之间的差异,并仅存储密钥的增量以降低传输成本,称为差分编码;
基于差分编码构造以下传输稀疏化的优化问题:
下面结合附图和具体实施例,对本发明做进一步的详细说明。
实施例
本实施例使用一种基于模型剪枝和传输压缩优化的联邦学习方法,对医疗领域的数据孤岛问题进行模型训练。
医疗领域的数据孤岛问题是一个很棘手但极具价值的问题,联邦学习规定各医院的特征输入一致,构建同一套数据标准形成的疾病标签集与特征集,在此特征标准上构建同一套模型,该技术可以不泄露数据的情况下整合多家医院的数据联合进行训练,可应用到重大慢性病的发病预测中,具体过程如下:
步骤1、每个参与医院利用自然语言处理,图像特征提取等人工智能技术清洗从医院收集得到的患者数据,并归一化形成结构化的医疗数据;
步骤2、服务器端随机初始化全局模型参数,并对模型中不重要的参数进行修剪,具体为对模型应用泰拉展开式,忽略展开式中的高阶项,使用累积更新来估计客户端数据集的全局梯度,通过这个估计,去除对模型性能影响不大的参数,报留对模型效用成本很大的参数;
步骤3、服务器端将模型下发给每个参与医院;
步骤4、每个医院的客户端用本地数据集通过本地随机梯度下降的优化方法不断更新模型的精度,当达到预定的本地训练次数时,对模型的参数进行压缩,具体为对模型所有层和所有通道的未修剪权重进行非均匀量化和差异编码:一个层的所有通道在通信时共享一个共同的量化策略和量化的bin/centers;计算两个相邻键之间的差异,并仅存储键的增量以降低传输成本;
步骤5、服务器端接收到每个医院上传的模型压缩压缩后进行聚合更新全局模型,并再次下发给客户端进行本地训练;
步骤6、重复步骤4、步骤5直至全局模型收敛,得到一个根据每个参与医院数据训练出的疾病预测模型。
图3是基于模型剪枝和传输压缩优化的联邦学习框架的性能效果图。从图中可以看出,传统的联邦学习框架全局模型中存在复杂结构和无意义层浪费大量算力以及传输过程中巨大的通信开销,本发明一种模型剪枝和传输压缩优化的联邦学习训练方法,对不重要模型参数进行修剪,对模型参数传输过程进行压缩,两种方法的联合优化,在保证模型性能前提下,减小了算力消耗和通信开销,提升了联邦学习的效率。
Claims (9)
1.一种基于模型剪枝和传输压缩优化的联邦学习系统,其特征在于,包括服务器端和多个客户端;
所述服务器端,用于执行基本运算、建立初始化全局模型、接受各个用户端上传全局模型参数;
所述客户端,用于进行数据清洗和归一化、模型权重数据计算、模型权重数据压缩、模型参数接收和上传。
2.根据权利要求1所述的基于模型剪枝和传输压缩优化的联邦学习系统,其特征在于,所述客户端的数量为2个以上。
3.一种基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,包括以下步骤:
步骤1、客户端清洗数据并归一化成结构化的数据;
步骤2、服务器端对原始全局模型进行修剪,得到一个稀疏全局模型;
步骤3、服务器端将稀疏全局模型下发至客户端;
步骤4、客户端接收到稀疏全局模型后,用本地数据集运行优化方法,进行若干次本地迭代后,获得本地更新的稀疏全局模型权重,应用传输量化和传输稀疏化对稀疏全局模型权重数据进行压缩后上传至服务器端;
步骤5、服务器端对接收到的稀疏全局模型权重数据进行压缩和聚合,更新稀疏全局模型,然后再下发至客户端进行本地训练;
步骤6、重复步骤4和步骤5直至稀疏全局模型收敛,使用最终数据训练原始全局模型,得到根据每个客户端的数据训练出的最终全局预测模型。
4.根据权利要求3所述的基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,步骤1所述的客户端清洗数据并归一化成结构化的数据,具体如下:
每个客户端利用自然语言处理、图像特征提取技术清洗收集得到的数据,并归一化形成结构化的数据。
5.根据权利要求3所述的基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,步骤2所述的服务器端对原始全局模型进行修剪,得到一个稀疏全局模型,具体如下:
对原始全局模型的目标函数应用泰勒展开式,得到:
使用累积更新来估计全局梯度的动量:
Δut+1=βΔut+(1-β)Δwt+1
其中,β是动量率,Δu0是零向量,Δut+1表示从0到第t+1轮的累积更新向量,由此得到去除[wt]j的效用成本:
[T(wt,Δut)]j=|[(Δut)Twt]j|
其中,[wt]j表示模型中的第j个参数权重;[T(wt,Δut)]j表示移除参数[wt]j的效用成本,因此保留使得[T(wt,Δut)]j大于设定值的[wt]j,对模型性能影响小于设定值的更新(Δut)T清零。
7.根据权利要求3所述的基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,步骤4中所述的传输量化,是对稀疏全局模型所有层和所有通道的未修剪权重进行非均匀量化,所有待上传参数在同一轮通信时共享一个共同的量化策略和量化的赋值;
8.根据权利要求3所述的基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,步骤4中所述的传输稀疏化,是通过仅保留部分传输值来减少传输比特,具体为用差分编码进一步减少通信开销。
9.根据权利要求8所述的基于模型剪枝和传输压缩优化的联邦学习方法,其特征在于,所述的差分编码,具体如下:
传输稀疏化引起的传输代价表示为:
通过对稀疏更新数据分布的分析,存在三个特征:
首先,密钥是不重复的;
其次,键按升序排列;
第三,两个相邻键之间的差异比键本身小;
因此,计算两个相邻密钥之间的差异,并仅存储密钥的增量以降低传输成本,称为差分编码;
基于差分编码构造以下传输稀疏化的优化问题:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211173605.1A CN115564062A (zh) | 2022-09-26 | 2022-09-26 | 一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211173605.1A CN115564062A (zh) | 2022-09-26 | 2022-09-26 | 一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115564062A true CN115564062A (zh) | 2023-01-03 |
Family
ID=84742923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211173605.1A Pending CN115564062A (zh) | 2022-09-26 | 2022-09-26 | 一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115564062A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306884A (zh) * | 2023-03-03 | 2023-06-23 | 北京泰尔英福科技有限公司 | 联邦学习模型剪枝方法、装置及非易失性存储介质 |
CN116341689A (zh) * | 2023-03-22 | 2023-06-27 | 深圳大学 | 机器学习模型的训练方法、装置、电子设备及存储介质 |
CN116578674A (zh) * | 2023-07-07 | 2023-08-11 | 北京邮电大学 | 联邦变分自编码主题模型训练方法、主题预测方法及装置 |
CN117151174A (zh) * | 2023-10-30 | 2023-12-01 | 国网浙江省电力有限公司杭州供电公司 | 基于模型剪枝和量化的联邦学习模型轻量化方法及系统 |
CN117196014A (zh) * | 2023-09-18 | 2023-12-08 | 深圳大学 | 基于联邦学习的模型训练方法、装置、计算机设备及介质 |
CN117808129A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
-
2022
- 2022-09-26 CN CN202211173605.1A patent/CN115564062A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306884A (zh) * | 2023-03-03 | 2023-06-23 | 北京泰尔英福科技有限公司 | 联邦学习模型剪枝方法、装置及非易失性存储介质 |
CN116306884B (zh) * | 2023-03-03 | 2024-02-06 | 北京泰尔英福科技有限公司 | 联邦学习模型剪枝方法、装置及非易失性存储介质 |
CN116341689A (zh) * | 2023-03-22 | 2023-06-27 | 深圳大学 | 机器学习模型的训练方法、装置、电子设备及存储介质 |
CN116341689B (zh) * | 2023-03-22 | 2024-02-06 | 深圳大学 | 机器学习模型的训练方法、装置、电子设备及存储介质 |
CN116578674A (zh) * | 2023-07-07 | 2023-08-11 | 北京邮电大学 | 联邦变分自编码主题模型训练方法、主题预测方法及装置 |
CN116578674B (zh) * | 2023-07-07 | 2023-10-31 | 北京邮电大学 | 联邦变分自编码主题模型训练方法、主题预测方法及装置 |
CN117196014A (zh) * | 2023-09-18 | 2023-12-08 | 深圳大学 | 基于联邦学习的模型训练方法、装置、计算机设备及介质 |
CN117196014B (zh) * | 2023-09-18 | 2024-05-10 | 深圳大学 | 基于联邦学习的模型训练方法、装置、计算机设备及介质 |
CN117151174A (zh) * | 2023-10-30 | 2023-12-01 | 国网浙江省电力有限公司杭州供电公司 | 基于模型剪枝和量化的联邦学习模型轻量化方法及系统 |
CN117808129A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
CN117808129B (zh) * | 2024-02-29 | 2024-05-24 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115564062A (zh) | 一种基于模型剪枝和传输压缩优化的联邦学习系统及方法 | |
Mills et al. | Communication-efficient federated learning for wireless edge intelligence in IoT | |
CN111079781A (zh) | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 | |
CN109445935B (zh) | 云计算环境下一种高性能大数据分析系统自适应配置方法 | |
CN109635935A (zh) | 基于模长聚类的深度卷积神经网络模型自适应量化方法 | |
Gao et al. | Rate distortion for model compression: From theory to practice | |
CN112215353B (zh) | 一种基于变分结构优化网络的通道剪枝方法 | |
CN113469367B (zh) | 一种联邦学习方法、装置及系统 | |
Saravanan et al. | Intelligent Satin Bowerbird Optimizer Based Compression Technique for Remote Sensing Images. | |
CN114422382B (zh) | 网络流量预测方法、计算机装置、产品及存储介质 | |
CN112906747A (zh) | 一种基于知识蒸馏的图像分类方法 | |
CN114897155A (zh) | 一种用于卫星的集成模型无数据压缩方法 | |
WO2023207836A1 (zh) | 一种图像编码方法、图像解压方法以及装置 | |
CN110765582A (zh) | 基于马尔可夫链的自组织中心K-means微电网场景划分方法 | |
Pilipović et al. | Compression of convolutional neural networks: A short survey | |
CN110263917B (zh) | 一种神经网络压缩方法及装置 | |
Sapra et al. | Deep learning model reuse and composition in knowledge centric networking | |
CN114169506A (zh) | 一种基于工业物联网平台的深度学习边缘计算系统框架 | |
Li et al. | Attention-based feature compression for cnn inference offloading in edge computing | |
CN117436485A (zh) | 基于权衡时延和精度的多退出点的端-边-云协同系统及方法 | |
CN114492847B (zh) | 一种高效个性化联邦学习系统和方法 | |
CN116244484A (zh) | 一种面向不平衡数据的联邦跨模态检索方法及系统 | |
CN109716288A (zh) | 网络模型编译器及相关产品 | |
Zhen et al. | A Secure and Effective Energy-Aware Fixed-Point Quantization Scheme for Asynchronous Federated Learning. | |
CN114330672A (zh) | 多信息聚合的图残差生成模型、分类方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |