CN112817940B - 基于梯度压缩的联邦学习数据处理系统 - Google Patents
基于梯度压缩的联邦学习数据处理系统 Download PDFInfo
- Publication number
- CN112817940B CN112817940B CN202110169210.3A CN202110169210A CN112817940B CN 112817940 B CN112817940 B CN 112817940B CN 202110169210 A CN202110169210 A CN 202110169210A CN 112817940 B CN112817940 B CN 112817940B
- Authority
- CN
- China
- Prior art keywords
- model
- value
- client
- server
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/217—Database tuning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于梯度压缩的联邦学习数据处理系统,包括服务器、M个客户端、处理器和存储有计算机程序的存储器,其中,所述服务器中存储有第一数据库和第二数据库,所述第一数据库的字段包括客户端id和客户端最近一次参与联邦聚合的轮次,所述第二数据库的字段包括联邦聚合的轮次和该轮次对应的全局模型,所述第一数据库和第二数据库均随联邦聚合模型的训练动态更新。本发明减少了服务器与客户端之间传输的字节数,从而减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于梯度压缩的联邦学习数据处理系统。
背景技术
联邦学习是一种机器学习设置,在保证训练数据分散在各个客户端并且不出本地的前提下,多个客户端在服务器的协调下协同训练模型。整个模型的训练是一个迭代,包含若干轮次服务器与客户端通信的过程。在每轮中,服务器随机选中若干个客户端,并将服务器上保存的最新的联邦平均模型下发给所有选中的客户端。每个客户端根据本地数据进行模型训练,更新模型参数若干次,并将模型更新连同其本地训练集的样本总数上传给服务器。服务器在收到所有选中客户端的模型更新之后,以训练集样本总数为权重,将最新的联邦聚合模型更新为所有模型更新的加权求和。至此,完成了服务器与客户端的一次通信过程,按此迭代达到预先设定的次数为止。
但是,联邦学习在训练的过程中包含服务器与客户端的频繁通信,相比于在客户端上模型训练所耗用的时间,服务器与客户端通信所耗用的时间更大,使得模型训练总时间长,模型训练效率低。由此可知,如何减少服务器与客户端通信所耗用的时间,提高联邦聚合模型训练的效率,成为亟待解决的技术问题。
发明内容
本发明目的在于,提供一种基于梯度压缩的联邦学习数据处理系统,减少了服务器与客户端之间传输的字节数,从而减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
根据本发明第一方面,提供了一种基于梯度压缩的联邦学习数据处理系统,包括服务器、M个客户端、处理器和存储有计算机程序的存储器,其中,所述服务器中存储有第一数据库和第二数据库,所述第一数据库的字段包括客户端id和客户端最近一次参与联邦聚合的轮次,所述第二数据库的字段包括联邦聚合的轮次和该轮次对应的全局模型,所述第一数据库和第二数据库均随联邦聚合模型的训练动态更新,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、所述服务器初始化联邦聚合模型、第一数据库和第二数据库,并将初始联邦聚合模型w0发送至每一客户端作为每一客户端对应的本地初始模型,初始第一数据库中,每一客户端对应的最近一次参与联邦聚合的轮次均为0,初始第二数据库中,联邦聚合的轮次0对应的全局模型为w0;
步骤S2、对于第t轮训练,所述服务器对应的当前全局模型为Wt-1,t从1开始取值,所述服务器从所述M个客户端中随机选择m个客户端 表示第t轮训练的第k个客户端,k的取值为1到m,m<M,从所述第一数据库中获取最近一次参与联邦聚合的轮次,并从所述第二数据库中获取最近一次参与联邦聚合的轮次对应的全局模型获取对应的第一模型更新并更新所述第一数据库;
步骤S6、所述服务器基于本轮所选择的m个客户端对应的第二模型更新数据,更新当前全局模型为Wt-1生成Wt,并更新所述第二数据库;
步骤S7、判断t是否达到预设通信轮次阈值,若达到,则结束训练,否则,令t=t+1,返回执行步骤S2。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种基于梯度压缩的联邦学习数据处理系统可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明将服务器和客户端之间传输的数据进行了压缩,减少了服务器与客户端之间传输的字节数,从而减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的基于梯度压缩的联邦学习数据处理系统示意图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于梯度压缩的联邦学习数据处理系统的具体实施方式及其功效,详细说明如后。
本发明实施例提供了一种基于梯度压缩的联邦学习数据处理系统,如图1所示,包括服务器、M个客户端、处理器和存储有计算机程序的存储器,其中,所述服务器中存储有第一数据库和第二数据库,所述第一数据库的字段包括客户端id和客户端最近一次参与联邦聚合的轮次,所述第二数据库的字段包括联邦聚合的轮次和该轮次对应的全局模型,所述第一数据库和第二数据库均随联邦聚合模型的训练动态更新,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、所述服务器初始化联邦聚合模型、第一数据库和第二数据库,并将初始联邦聚合模型w0发送至每一客户端作为每一客户端对应的本地初始模型,初始第一数据库中,每一客户端对应的最近一次参与联邦聚合的轮次均为0,初始第二数据库中,联邦聚合的轮次0对应的全局模型为w0;
步骤S2、对于第t轮训练,所述服务器对应的当前全局模型为Wt-1,t从1开始取值,所述服务器从所述M个客户端中随机选择m个客户端 表示第t轮训练的第k个客户端,k的取值为1到m,m<M,从所述第一数据库中获取最近一次参与联邦聚合的轮次,并从所述第二数据库中获取最近一次参与联邦聚合的轮次对应的全局模型获取对应的第一模型更新并更新所述第一数据库;
可以理解的是,在进行第一轮训练时,服务器对应的当前全局模型为w0,服务器所选择的m个客户端的最近一次参与联邦聚合的轮次对应的全局模型也w0,因此第一轮训练时,对应的第一模型更新是为0的,即第一轮训练时,直接采用w0作为本地模型进行本地模型训练。
其中,更新所述第一数据库具体包括,将本轮参加训练的m个客户端在第一数据库中对应的最近一次参与联邦聚合的轮次更新。
步骤S6、所述服务器基于本轮所选择的m个客户端对应的第二模型更新数据,更新当前全局模型为Wt-1生成Wt,并更新所述第二数据库;
步骤S7、判断t是否达到预设通信轮次阈值,若达到,则结束训练,否则,令t=t+1,返回执行步骤S2。
其中,预设通信轮次阈值可以根据具体模型训练精确度需求等因素具体设定。
本发明实施例所述系统将服务器和客户端之间传输的数据进行了压缩,减少了服务器与客户端之间传输的字节数,从而减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
作为一种实施例,所述服务器针对每一客户端维护一个服务器模型更新误差D,D包括第一更新误差和第二更新误差,D的初始值为全零的列表,D随着模型训练动态更新,对应的最近一次参与联邦聚合的轮次的服务器模型更新误差为所述步骤S3包括、
步骤S33、将中所有的valuek的绝对值按照从大到小的顺序排序,设置N,获取前N个作为待处理的(keyk,valuek),表示排序后的第n个(keyk,valuek),n的取值为1到N,将除待处理的(keyk,valuek)外的剩余的(keyk,valuek)作为本轮第一更新误差;
步骤S34、设置第一分位函数、P个第一数据区域和每一第一数据区域的上界值和下界值,基于每一第一数据区域的上界值和下界值获取对应的第一数据区域的均值,P个第一数据区域从00开始采用二进制编号;
其中,P值、每一第一数据区域的上界值和下界值根据模型训练精确度和模型训练效率等需求来具体设定。
步骤S362、连续写入r个1,最后写入一个0作为结束,记为S1;
步骤S363、取二进制形式的低r位作为offset的码元,记为S2;
通过上述实施例,服务器可以将第二累计模型更新中的梯度分量较高的一部分模型更新数据进行压缩,传输给对应的客户端,并将压缩部分所产生的误差,以及将其余未发送的模型更新数据存放在服务器本地,作为下一轮模型训练的客户端对应累积误差,这样既能减少在客户端和服务器之间传输的模型更新数据,又能保证模型训练的准确度。
每一客户端在收到服务器发送的经过压缩编码后的第一模型更新数据后,需要进行对应的解码处理,再进行本地模型更新,作为一种实施例,所述步骤S4包括:
通过步骤S3和步骤S4的具体实施例,大大减少了服务器和客户端之间的数据传输字节数,使得第一模型更新数据在服务器本地进行压缩编码,压缩后的第一模型更新数据在客户端本地解码,并结合服务器针对每一客户端维护一个服务器模型更新误差D进行客户端本地模型更新,减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
为了进一步提高联邦聚合模型训练的效率,在客户端向服务器发送的模型更新数据也进行压缩处理,作为一种实施例,所述客户端维护一个客户端模型更新误差e,包括第三更新误差和第四更新误差,e的初始值为全零的列表,e随着模型训练动态更新,对应的最近一次参与联邦聚合的轮次的模型更新误差为所述步骤S5包括、
步骤S52、所述由一组第二梯度分量组成,根据每一第二梯度分量在对应的位置和参数值,获取每一第二梯度分量对应的下标key*和对应第二梯度分量值value*组成(key*k,value*k),从而将转换为
步骤S53、将的所有value*的绝对值按照从大到小的顺序排序,设置S,获取前S个作为待处理的(key*k,value*k),表示排序后的第s个(key*k,value*k),s的取值为1到S,将除待处理的(key*k,value*k)外的剩余的(key*k,value*k)作为本轮第三更新误差;
步骤S54、设置第二分位函数、Q个第二数据区域和每一第二数据区域的上界值和下界值,基于每一第二数据区域的上界值和下界值获取对应的第二数据区域的均值,Q个第二数据区域从00开始采用二进制编号;
其中,Q值、每一第二数据区域的上界值和下界值根据模型训练精确度和模型训练效率等需求来具体设定。
步骤S562、连续写入r*个1,最后写入一个0作为结束,记为S3;
步骤S563、取二进制形式的低r*位作为offset*的码元,记为S4;
通过上述实施例,客户端可以将第二累计模型更新中的梯度分量较高的一部分模型更新数据进行压缩,传输给服务器,并将压缩部分所产生的误差,以及将其余未发送的模型更新数据存放在客户端本地,作为下一轮模型训练的对应累积误差,这样既能减少在客户端和服务器之间传输的模型更新数据,又能保证模型训练的准确度。
服务器在收到每一客户端发送的经过压缩编码后的第二模型更新数据后,需要进行对应的解码处理,再进行本地联邦聚合模型更新,作为一种实施例,所述步骤S6包括:
进一步的,所述步骤S6还包括:
其中,nz为参与本轮训练的m个客户端总的样本数量;
步骤S65、基于当前全局模型为Wt-1和第二目标模型总更新δt更新当前全局模型得到Wt:
Wt=Wt-1-δt。
通过上述步骤S5和步骤S6的具体实施例,大大减少了服务器和客户端之间的数据传输字节数,使得第二模型更新数据在客户端本地进行压缩编码,压缩后的第二模型更新数据在服务器本地解码进行服务器联邦聚合模型的更新,减少了服务器与客户端之间通信所耗用的时间,提高了联邦聚合模型训练的效率。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (8)
1.一种基于梯度压缩的联邦学习数据处理系统,其特征在于,
包括服务器、M个客户端、处理器和存储有计算机程序的存储器,其中,所述服务器中存储有第一数据库和第二数据库,所述第一数据库的字段包括客户端id和客户端最近一次参与联邦聚合的轮次,所述第二数据库的字段包括联邦聚合的轮次和该轮次对应的全局模型,所述第一数据库和第二数据库均随联邦聚合模型的训练动态更新,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、所述服务器初始化联邦聚合模型、第一数据库和第二数据库,并将初始联邦聚合模型w0发送至每一客户端作为每一客户端对应的本地初始模型,初始第一数据库中,每一客户端对应的最近一次参与联邦聚合的轮次均为0,初始第二数据库中,联邦聚合的轮次0对应的全局模型为w0;
步骤S2、对于第t轮训练,所述服务器对应的当前全局模型为Wt-1,t从1开始取值,所述服务器从所述M个客户端中随机选择m个客户端 表示第t轮训练的第k个客户端,k的取值为1到m,m<M,从所述第一数据库中获取最近一次参与联邦聚合的轮次,并从所述第二数据库中获取最近一次参与联邦聚合的轮次对应的全局模型获取对应的第一模型更新并更新所述第一数据库;
步骤S6、所述服务器基于本轮所选择的m个客户端对应的第二模型更新数据,更新当前全局模型为Wt-1生成Wt,并更新所述第二数据库;
步骤S7、判断t是否达到预设通信轮次阈值,若达到,则结束训练,否则,令t=t+1,返回执行步骤S2。
2.根据权利要求1所述的系统,其特征在于,
所述服务器针对每一客户端维护一个服务器模型更新误差D,D包括第一更新误差和第二更新误差,D的初始值为全零的列表,D随着模型训练动态更新,对应的最近一次参与联邦聚合的轮次的服务器模型更新误差为所述步骤S3包括、
步骤S33、将中所有的valuek的绝对值按照从大到小的顺序排序,设置N,获取前N个作为待处理的(keyk,valuek),表示排序后的第n个(keyk,valuek),n的取值为1到N,将除待处理的(keyk,valuek)外的剩余的(keyk,valuek)作为本轮第一更新误差;
步骤S34、设置第一分位函数、P个第一数据区域和每一第一数据区域的上界值和下界值,基于每一第一数据区域的上界值和下界值获取对应的第一数据区域的均值,P个第一数据区域从00开始采用二进制编号;
5.根据权利要求1所述的系统,其特征在于,
步骤S52、所述由一组第二梯度分量组成,根据每一第二梯度分量在对应的位置和参数值,获取每一第二梯度分量对应的下标key*和对应第二梯度分量值value*组成(key*k,value*k),从而将转换为
步骤S53、将的所有value*的绝对值按照从大到小的顺序排序,设置S,获取前S个作为待处理的(key*k,value*k),表示排序后的第s个(key*k,value*k),s的取值为1到S,将除待处理的(key*k,value*k)外的剩余的(key*k,value*k)作为本轮第三更新误差;
步骤S54、设置第二分位函数、Q个第二数据区域和每一第二数据区域的上界值和下界值,基于每一第二数据区域的上界值和下界值获取对应的第二数据区域的均值,Q个第二数据区域从00开始采用二进制编号;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110169210.3A CN112817940B (zh) | 2021-02-07 | 2021-02-07 | 基于梯度压缩的联邦学习数据处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110169210.3A CN112817940B (zh) | 2021-02-07 | 2021-02-07 | 基于梯度压缩的联邦学习数据处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112817940A CN112817940A (zh) | 2021-05-18 |
CN112817940B true CN112817940B (zh) | 2022-03-04 |
Family
ID=75862220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110169210.3A Active CN112817940B (zh) | 2021-02-07 | 2021-02-07 | 基于梯度压缩的联邦学习数据处理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112817940B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113919508B (zh) * | 2021-10-15 | 2022-07-19 | 河南工业大学 | 一种基于移动式服务器的联邦学习系统及方法 |
CN114301889B (zh) * | 2021-12-16 | 2024-06-11 | 南京理工大学 | 一种基于权重压缩的高效联邦学习方法及系统 |
CN114861790B (zh) * | 2022-04-29 | 2023-03-17 | 深圳大学 | 联邦学习压缩通信的优化方法、系统及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553483B (zh) * | 2020-04-30 | 2024-03-29 | 同盾控股有限公司 | 基于梯度压缩的联邦学习的方法、装置及系统 |
CN111553484B (zh) * | 2020-04-30 | 2023-09-08 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
CN111625361B (zh) * | 2020-05-26 | 2022-11-01 | 华东师范大学 | 一种基于云端服务器和IoT设备协同的联合学习框架 |
CN112288097B (zh) * | 2020-10-29 | 2024-04-02 | 平安科技(深圳)有限公司 | 联邦学习数据处理方法、装置、计算机设备及存储介质 |
-
2021
- 2021-02-07 CN CN202110169210.3A patent/CN112817940B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112817940A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112817940B (zh) | 基于梯度压缩的联邦学习数据处理系统 | |
CN110659734B (zh) | 深度可分离卷积结构的低比特量化方法 | |
JP2021060992A (ja) | マシンラーニングシステム及び方法 | |
CN110334580A (zh) | 基于集成增量的动态权重组合的设备故障分类方法 | |
CN107291785A (zh) | 一种数据查找方法及装置 | |
CN111158912B (zh) | 云雾协同计算环境下一种基于深度学习的任务卸载决策方法 | |
CN106777318A (zh) | 基于协同训练的矩阵分解跨模态哈希检索方法 | |
CN113328755B (zh) | 一种面向边缘计算的压缩数据传输方法 | |
CN116523079A (zh) | 一种基于强化学习联邦学习优化方法及系统 | |
CN107666370A (zh) | 编码方法和设备 | |
CN112766537B (zh) | 一种短期电负荷预测方法 | |
CN109190759A (zh) | 一种基于{-1,+1}编码的神经网络模型压缩与加速方法 | |
CN112990478A (zh) | 联邦学习数据处理系统 | |
CN115829027A (zh) | 一种基于对比学习的联邦学习稀疏训练方法及系统 | |
CN111541900A (zh) | 基于gan的安防视频压缩方法、装置、设备及存储介质 | |
CN111832817A (zh) | 基于mcp罚函数的小世界回声状态网络时间序列预测方法 | |
CN110263917B (zh) | 一种神经网络压缩方法及装置 | |
CN115168326A (zh) | Hadoop大数据平台分布式能源数据清洗方法及系统 | |
CN114301889A (zh) | 一种基于权重压缩的高效联邦学习方法及系统 | |
CN110135465B (zh) | 模型参数表示空间大小估计方法及装置、推荐方法 | |
Sun et al. | A novel fractal coding method based on MJ sets | |
CN101477686B (zh) | 基于克隆选择的无监督图像分割方法 | |
CN113487036B (zh) | 机器学习模型的分布式训练方法及装置、电子设备、介质 | |
CN116843774A (zh) | 点云数据压缩方法、装置、设备及存储介质 | |
Al-Bundi et al. | Crowding Optimization Method to Improve Fractal Image Compressions Based Iterated Function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |