CN112532451B - 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 - Google Patents
基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN112532451B CN112532451B CN202011375130.5A CN202011375130A CN112532451B CN 112532451 B CN112532451 B CN 112532451B CN 202011375130 A CN202011375130 A CN 202011375130A CN 112532451 B CN112532451 B CN 112532451B
- Authority
- CN
- China
- Prior art keywords
- client
- edge server
- global model
- cluster
- clients
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明提供的基于异步通信的分层联邦学习方法、装置、终端设备及存储介质,涉及无线通信网络技术领域;该方法包括边缘服务器下发的全局模型至所属簇内客户端;客户端利用本地数据对模型进行更新并上传到各所属簇边缘服务器;边缘服务器根据客户端更新上传时间确定更新簇内客户端;边缘服务器对接收到的模型参数进行平均,并根据当前客户端更新次数选择异步上传到中央服务器或直接下发到客户端;中央服务器对边缘服务器上传参数进行加权平均,再下发至客户端训练,直到本地模型收敛或者达到预期标准;本发明能高效执行联邦学习任务,降低联邦学习模型参数所需的通信代价,并动态选择客户端对接的边缘服务器,提高联邦学习整体训练效率。
Description
技术领域
本发明涉及无线通信网络技术领域,具体涉及一种基于异步通信的分层联邦学习方法、装置、终端设备及存储介质。
背景技术
近年来,随着物联网、移动通信、可穿戴设备等技术的兴起,网络中的数据量呈爆炸式地增长,直接推动了数据驱动的机器学习技术(尤其是深度学习)的迅速发展。然而,近期出现的几起信息泄露事件将人们的眼光拉回到数据安全上。手机、可穿戴设备收集的信息大多与个人隐私相关,随着人们对隐私保护的意识不断增强,用户往往不愿意将自己的信息分享给机构、组织或他人,导致传统的将各设备收集的信息上传到云中心进行统一分析处理的分布式计算体系面临新的巨大挑战。
因此,数据不出本地的分布式计算框架——联邦学习应运而生,它允许参与训练的客户端将数据保存在本地并且训练过程不共享,只在训练过程中分享本地数据上训练的机器学习模型的参数,而且模型参数可以利用压缩机制、安全多方计算、差分隐私等技术进行保护,在很大程度上保护了用户的隐私安全。
然而,作为新兴的技术,联邦学习仍然存在一些问题。通过浏览分析对比,发现现有联邦学习存在的问题和缺陷如下:
联邦学习存在系统异构性问题,具体表现为:联邦学习的参与者之间计算能力不平均、网络条件难以预测、各自拥有的数据量差异较大等;联邦学习同步迭代存在等待时长问题,具体表现为:联邦服务器与客户端之间以同步的方式交换模型参数需要等待所有客户端模型全部更新完毕才能开始新的迭代过程,因为存在系统异构性问题,计算能力强的、网络状态好的客户端存在大量空闲等待时间;部分场景下联邦学习通信效率不高,例如工业网络环境,各传感器与服务器之间需要及时、高效的通信,而传统联邦学习每个客户端全部与中央服务器建立连接,并且需要等待所有客户端模型更新完毕,这显然不符合工业应用场景的需求,如何将联邦学习应用到工业网络环境也是一个难题。
发明内容
本发明目的在于提供一种基于异步通信的分层联邦学习方法、装置、终端设备及存储介质,解决联邦学习系统异构性问题,可以明显提升模型训练效率;解决同步迭代问题和通信效率问题可以更好地发挥联邦学习的特长,将联邦学习应用到更多实际场景中。
为达成上述目的,本发明提出如下技术方案:一种基于异步通信的分层联邦学习方法,应用于联邦学习系统,所述联邦学习系统包括中央服务器、连接于中央服务器的若干边缘服务器,以及分别与各边缘服务器成簇分布的若干客户端;
所述基于异步通信的分层联邦学习方法包括定义联邦学习系统的学习问题;具体为:假设联邦学习系统包括N个客户端,每个客户端存储有本地数据Di,则本地损失函数Fi(w)和全局损失函数F(w)分别为:
其中,i、j分别为联邦学习系统中的任一个客户端,w为全局模型的权重矩阵,D为所有客户端存储的本地数据集合;
所述基于异步通信的分层联邦学习方法应用于边缘服务器,包括:
边缘服务器接收广播的全局模型参数并下发至其所属簇内所有客户端;所述全局模型参数由中央服务器初始化并广播,所述全局模型参数用于各客户端根据其拥有的本地数据进行训练;
边缘服务器接收其簇内所有客户端上传的经本地训练后更新的全局模型参数、记录各客户端信息上传时间,对接收的经本地训练后更新的全局模型参数进行平均,并统计边缘服务器接收其簇内客户端的更新次数;
边缘服务器根据其预设的客户端信息上传时间阈值区间,更新其所属簇内客户端;所属簇内客户端更新过程为:集聚客户端信息上传时间在边缘服务器预设的客户端信息上传时间阈值区间内的所有客户端构成对应于该边缘服务器的簇;
边缘服务器预设的接收其簇内客户端的更新次数阈值,边缘服务器在更新次数阈值内任一次客户端更新后下发该次更新平均得到的全局模型参数至其所属簇中所有客户端;边缘服务器向中央服务器上传客户端第更新次数阈值次更新平均得到的全局模型参数,并向其所属簇中所有客户端下发中央服务器根据其接收的客户端第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端根据加权平均全局模型参数进行本地训练;
边缘服务器重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
进一步的,所述基于异步通信的分层联邦学习方法应用于中央服务器,包括:
中央服务器广播经其初始化的全局模型参数至各边缘服务器,以使得各边缘服务器将该全局模型参数下发至各边缘服务器所属簇中的所有客户端;所述全局模型参数用于各客户端根据其拥有的本地数据进行训练,以便将经本地训练后更新的全局模型参数上传至所属簇的边缘服务器进行平均、记录各客户端信息的上传时间和统计各客户端的更新次数;所述客户端信息的上传时间用于与边缘服务器预设的客户端信息上传时间阈值区间进行比对,以更新客户端至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器所在的簇;
中央服务器接收边缘服务器发送的第更新次数阈值次更新平均得到的全局模型参数,并向该边缘服务器反馈加权平均全局模型参数,以便该边缘服务器向其所属簇中所有客户端下发该加权平均全局模型参数,使得客户端根据该加权平均全局模型参数进行本地训练;所述更新次数阈值为边缘服务器预设的向中央服务器上传全局模型参数时其所属簇内客户端最大更新次数,并且在更新次数阈值内任一次客户端经本地训练更新后上传至边缘服务器平均得到的全局模型参数直接经该边缘服务器下发至其所属簇中所有客户端,直至客户端更新次数达到更新次数阈值。
中央服务器重复执行在客户端达到更新次数阈值时边缘服务器上传第更新次数阈值次更新平均得到的全局模型参数并向该边缘服务器反馈加权平均全局模型参数,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
进一步的,所述基于异步通信的分层联邦学习方法应用于客户端,包括:
客户端接收全局模型参数,并根据其拥有的本地数据进行训练;所述全局模型参数由中央服务器初始化并广播至边缘服务器,经由边缘服务器下发至其所属簇内所有客户端;
客户端发送其经本地训练后更新的全局模型参数至其所属簇内边缘服务器,以便边缘服务器记录各客户端信息的上传时间、对各客户端更新的全局模型参数进行平均、以及统计其簇内客户端的更新次数;所述客户端信息的上传时间用于边缘服务器根据其预设的客户端信息上传时间阈值区间,更新其所属簇内客户端;所述客户端在边缘服务器的簇内更新过程为:客户端信息的上传时间与边缘服务器预设的客户端信息上传时间阈值区间进行比对,更新客户端至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器所在的簇;
客户端的更新次数用于与边缘服务器预设的接收其簇内客户端的更新次数阈值进行比较;当客户端更新次数在更新次数阈值内,客户端在其任一次更新后接收其所属簇的边缘服务器发来的该次更新平均得到的全局模型参数,再根据其拥有的本地数据进行训练;当客户端更新次数达到更新次数阈值,客户端接收其所属簇的边缘服务器下发的、由该边缘服务器向中央服务器上传第更新次数阈值次更新平均得到的全局模型参数后反馈的加权平均全局模型参数,再根据其拥有的本地数据进行本地训练;
客户端重复执行根据其所属簇的边缘服务器下发的全局模型参数进行本地训练,并将训练后更新的全局模型参数再上传至其所属簇的边缘服务器,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
进一步的,所述全局模型参数的初始化模型为将全局损失函数中包含的全局模型的权重矩阵w初始化为0。
进一步的,所述中央服务器和边缘服务器网络连接。
进一步的,所述客户端根据其拥有的本地数据进行训练过程为在本地数据上进行一次或多次的梯度下降更新。
本发明提供一种基于异步通信的分层联邦学习装置,所述装置应用于联邦学习系统,所述联邦学习系统包括中央服务器、连接于中央服务器的若干边缘服务器,以及分别与各边缘服务器成簇分布的若干客户端;
所述基于异步通信的分层联邦学习装置包括定义联邦学习系统的学习问题;具体为:假设联邦学习系统包括N个客户端,每个客户端存储有本地数据Di,则本地损失函数Fi(w)和全局损失函数F(w)分别为:
其中,i、j分别为联邦学习系统中的任一个客户端,w为全局模型的权重矩阵,D为所有客户端存储的本地数据集合;
所述基于异步通信的分层联邦学习装置应用于边缘服务器,包括如下模块:
第一接收模块,用于边缘服务器接收广播的全局模型参数,所述全局模型参数由中央服务器初始化并广播;
第一下发模块,用于边缘服务器下发其接收的全局模型参数至其所属簇内所有客户端,所述全局模型参数用于各客户端根据其拥有的本地数据进行训练;
第二接收模块,用于边缘服务器接收其簇内所有客户端上传的经本地训练后更新的全局模型参数,对接收的经本地训练后更新的全局模型参数进行平均;
记录模块,用于记录边缘服务器所属簇内各客户端信息上传时间;
统计模块,用于统计边缘服务器所属簇内客户端的更新次数;
更新模块,用于根据边缘服务器预设的客户端信息上传时间阈值区间,更新边缘服务器所属簇内客户端;所属簇内客户端更新过程为:集聚客户端信息上传时间在边缘服务器预设的客户端信息上传时间阈值区间内的所有客户端构成对应于该边缘服务器的簇;
阈值设定模块,用于预设边缘服务器接收其簇内客户端的更新次数阈值;
第二下发模块,用于边缘服务器在更新次数阈值内任一次客户端更新后下发该次更新平均得到的全局模型参数至其所属簇中所有客户端;
上传模块,用于边缘服务器向中央服务器上传第更新次数阈值次更新平均得到的全局模型参数;
第三下发模块,用于边缘服务器向其所属簇中所有客户端下发中央服务器根据其接收的客户端第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端根据该加权平均全局模型参数进行本地训练;
判断模块,用于判断联邦学习系统中所有客户端内全局模型是否全部收敛或达到设定全局模型精度;
重复执行模块,用于当联邦学习系统中所有客户端内全局模型存在未收敛或未达到设定全局模型精度时,使边缘服务器重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数过程。
本发明提供一种终端设备,该终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的联邦学习系统的控制程序,所述联邦学习系统的控制程序被所述处理器执行时实现上述的基于异步通信的分层联邦学习方法。
本发明还提供一种存储介质,该存储介质应用于计算机,所述存储介质上存储有联邦学习系统的控制程序,所述联邦学习系统的控制程序被处理器执行时实现上述的基于异步通信的分层联邦学习方法。
由以上技术方案可知,本发明的技术方案提供的基于异步通信的分层联邦学习方法、装置、终端设备及存储介质,获得了如下有益效果:
本发明公开的基于异步通信的分层联邦学习方法、装置、终端设备及存储介质,其方法能解决联邦学习系统异构性问题,明显提升模型训练效率,解决同步迭代导致等待时间长、通信效率低的问题,使得联邦学习可应用到更多实际场景中;其方法实现中央服务器、边缘服务器和客户端间的异步通信,具体为:中央服务器广播经其初始化的全局模型参数至各边缘服务器,边缘服务器接收并下发至其所属簇内所有客户端,客户端接收后根据其拥有的本地数据进行训练更新上传至边缘服务器;边缘服务器接收其簇内所有客户端更新上传的全局模型参数、记录各客户端信息上传时间、统计其簇内客户端的更新次数,并对接收的全局模型参数进行平均;边缘服务器根据其预设的客户端信息上传时间阈值区间,更新其所属簇内客户端;边缘服务器预设的接收其簇内客户端的更新次数阈值,根据当前客户端更新次数与更新次数阈值的比较结果选择异步上传到中央服务器或直接下发到客户端进行本地训练;中央服务器对边缘服务器上传的平均参数进行加权平均,再经边缘服务器下发至客户端进行本地训练,直至客户端本地模型收敛或者达到预期标准。
本发明通过对边缘服务器更新其所属簇内客户端,使得同一簇内客户端更新速度处于相同时间阈值区间,减弱同一簇中客户端系统异构性的影响,从而到达簇内同步迭代、簇间异步的更新状态的效果,高效执行联邦学习任务,降低联邦学习模型参数所需的通信代价,并动态选择客户端对接的边缘服务器,提高联邦学习整体训练效率。
应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本公开的发明主题的一部分。
结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。
附图说明
附图不意在按比例绘制。在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
图1是本发明提出的分层联邦学习系统结构图;
图2是本发明基于异步通信的分层联邦学习方法流程图。
图中,各标记的具体意义为:
1-中央服务器,2-边缘服务器,3-客户端,4-簇。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。
本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,除非上下文清楚地指明其它情况,否则单数形式的“一个”“一”或者“该”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的特征、整体、步骤、操作、元素和/或组件,并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。“上”“下”“左”“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
针对现有技术中联邦学习存在系统异构性问题,导致联邦学习系统内更新速度快的客户端存在大量空闲等待时间、部分场景下联邦学习通信效率不高,不符合工业应用场景的需求的技术问题,本发明提供了一种基于异步通信的分层联邦学习方法、装置、终端设备及存储介质,解决联邦学习系统异构性问题。
下面结合附图所示的实施例,对本发明的基于异步通信的分层联邦学习方法、装置、终端设备及存储介质作进一步具体介绍。
一种基于异步通信的分层联邦学习方法,应用于联邦学习系统,联邦学习系统如图1所示的,包括中央服务器1、连接于中央服务器1的若干边缘服务器2,以及分别与各边缘服务器2成簇4分布的若干客户端3;中央服务器1和边缘服务器2通过网络连接。
本发明公开的基于异步通信的分层联邦学习方法在具体应用时需要定义联邦学习系统的学习问题;具体为:
假设联邦学习系统包括N个客户端,每个客户端存储有本地数据Di,则本地损失函数Fi(w)和全局损失函数F(w)分别为:
其中,i、j分别为联邦学习系统中的任一个客户端3,w为全局模型的权重矩阵,D为所有客户端存储的本地数据集合。本地损失函数是在单个客户端3的本地数据上训练所得的平均损失函数,全局损失函数为所有客户端3组成的本地数据集合上训练的损失函数。机器学习问题的核心就是通过输入数据集迭代更新求解损失函数的参数集合,使损失函数减小到设定值;联邦学习系统的训练任务同样也是求解权重矩阵w,权重矩阵w是使全局损失函数最优的解。
结合图2所示,所述基于异步通信的分层联邦学习方法应用于边缘服务器2,包括:
边缘服务器2接收广播的全局模型参数并下发至其所属簇4内所有客户端3;所述全局模型参数由中央服务器1初始化并广播,所述全局模型参数用于各客户端3根据其拥有的本地数据进行训练;全局模型参数的初始化模型为将全局损失函数中包含的全局模型的权重矩阵w初始化为0;客户端3训练过程为在本地数据上进行一次或多次的梯度下降更新。
边缘服务器2接收其簇4内所有客户端3上传的经本地训练后更新的全局模型参数、记录各客户端信息上传时间、统计接收其簇内客户端3的更新次数,对接收的经本地训练后更新的全局模型参数进行平均;
边缘服务器2根据其预设的客户端信息上传时间阈值区间,更新其所属簇4内客户端3;所属簇3内客户端4更新过程为:集聚客户端信息上传时间在边缘服务器2预设的客户端信息上传时间阈值区间内的所有客户端3构成对应于该边缘服务器2的簇4;
边缘服务器2预设接收其簇4内客户端3的更新次数阈值,边缘服务器2在更新次数阈值内任一次客户端3更新后下发该次更新平均得到的全局模型参数至其所属簇4中所有客户端3;边缘服务器2向中央服务器1上传客户端4第更新次数阈值次更新平均得到的全局模型参数,并向其所属簇4中所有客户端3下发中央服务器1根据其接收的客户端3第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端4根据加权平均全局模型参数进行本地训练;
边缘服务器2重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数,直至联邦学习系统中所有客户端3内全局模型收敛或达到设定全局模型精度。
本发明公开的基于异步通信的分层联邦学习方法能应用于中央服务器1,包括:
中央服务器1广播经其初始化的全局模型参数至各边缘服务器2,以使得各边缘服务器2将该全局模型参数下发至各边缘服务器2所属簇4中的所有客户端3;所述全局模型参数用于各客户端根据其拥有的本地数据进行训练,以便将经本地训练后更新的全局模型参数上传至所属簇4的边缘服务器2进行平均、记录各客户端信息的上传时间和统计各客户端3的更新次数;所述客户端信息的上传时间用于与边缘服务器2预设的客户端信息上传时间阈值区间进行比对,以更新客户端2至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器2所在的簇4;
中央服务器1接收边缘服务器2发送的第更新次数阈值次更新平均得到的全局模型参数,并向该边缘服务器2反馈加权平均全局模型参数,以便该边缘服务器2向其所属簇4中所有客户端3下发该加权平均全局模型参数,使得客户端3根据该加权平均全局模型参数进行本地训练;所述更新次数阈值为边缘服务器2预设的向中央服务器1上传全局模型参数时其所属簇4内客户端3最大更新次数,并且在更新次数阈值内任一次客户端3经本地训练更新后上传至边缘服务器2平均得到的全局模型参数直接经该边缘服务器2下发至其所属簇4中所有客户端3,直至客户端3迭代更新次数达到更新次数阈值。
中央服务器1重复执行在客户端3达到更新次数阈值时边缘服务器2上传第更新次数阈值次更新平均得到的全局模型参数并向该边缘服务器2反馈加权平均全局模型参数,直至联邦学习系统中所有客户端3内全局模型收敛或达到设定全局模型精度。
本发明公开的基于异步通信的分层联邦学习方法能应用于客户端3,该方法包括:
客户端3接收全局模型参数,并根据其拥有的本地数据进行训练;所述全局模型参数由中央服务器1初始化并广播至边缘服务器2,经由边缘服务器2下发至其所属簇4内所有客户端3;
客户端3发送其经本地训练后更新的全局模型参数至其所属簇4内边缘服务器2,以便边缘服务器2记录各客户端信息的上传时间、对各客户端3更新的全局模型参数进行平均、以及统计其簇4内客户端3的更新次数;所述客户端信息的上传时间用于边缘服务器2根据其预设的客户端信息上传时间阈值区间,更新其所属簇4内客户端3;所述客户端3在边缘服务器2的簇4内更新过程为:客户端信息的上传时间与边缘服务器2预设的客户端信息上传时间阈值区间进行比对,更新客户端3至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器2所在的簇4;
客户端3的更新次数用于与边缘服务器2预设的接收其簇内客户端的更新次数阈值进行比较;当客户端3更新次数在更新次数阈值内,客户端4在其任一次更新后接收其所属簇4的边缘服务器2发来的该次更新平均得到的全局模型参数,再根据其拥有的本地数据进行迭代训练;当客户端3更新次数达到更新次数阈值,客户端3接收其所属簇4的边缘服务器2下发的、由该边缘服务器2向中央服务器1上传第更新次数阈值次更新平均得到的全局模型参数后反馈得到的加权平均全局模型参数,再根据其拥有的本地数据进行本地训练;
客户端3重复执行根据其所属簇4的边缘服务器2下发的全局模型参数进行本地训练,并将训练后更新的全局模型参数再上传至其所属簇4的边缘服务器2,直至联邦学习系统中所有客户端3内全局模型收敛或达到设定全局模型精度。
本发明公开的上述方法在具体应用时,一般会在初始更新阶段划分边缘服务器2及其所属簇4内的客户端3,即第一轮迭代是通过对n个边缘服务器2、N个客户端3随机均分产生的,如每个边缘服务器2负责N/n个客户端3,第一轮之后每个簇4成员客户端3将通过竞争的方式评选,根据计算能力、网络条件,动态划分每个簇4的客户端3,上述方法中是通过客户端信息上传时间与边缘服务器2预设的客户端信息上传时间阈值区间进行比对实现的。比对方式为:客户端3将本地更新的模型参数上传到所属簇4的边缘服务器2之后,边缘服务器2记录每个客户端3信息的送达时间,超过设定的时间阈值区间上界的客户端3在下一轮迭代更新时被分配到低优先级边缘服务器2所在的簇4,低于时间阈值区间下界的客户端3在下一轮迭代更新被分配到高优先级边缘服务器2所在的簇4,做到高优先级到低优先级边缘服务器2对应的客户端4更新速度是从快到慢,即处于同一设定时间阈值区间内的客户端3被分配到同一边缘服务器2所管理的簇4,减弱同一簇4中客户端3系统异构性的影响,从而到达簇4内客户端3同步迭代的效果。
对于边缘服务器2,其在接收到客户端3经本地训练迭代更新的全局模型参数,将本轮簇4内客户端3更新的模型参数进行平均后,分两种情况进行处理:1)当边缘服务器2接收簇4内客户端3的更新次数达到规定的更新次数阈值,如k次后,将平均后的模型参数发送到中央服务器1,中央服务器1记录每个边缘服务器2上传次数,作为权重对边缘服务器2发送的模型参数进行加权平均,该步骤的目的是消除异步分布式更新带来的延时问题;2)当边缘服务器2接收的本轮簇4内客户端3更新次数未达到更新次数阈值,即k次以内,则直接将平均后的模型参数下发到所在簇4内客户端3,重复迭代更新,直至客户端迭代更新次数达到规定的更新次数阈值。
本发明另一实施例还公开了一种基于异步通信的分层联邦学习装置,该装置应用于联邦学习系统,联邦学习系统包括中央服务器1、连接于中央服务器1的若干边缘服务器2,以及分别与各边缘服务器2成簇4分布的若干客户端3;所述基于异步通信的分层联邦学习装置应用于边缘服务器2。基于异步通信的分层联邦学习装置在应用时实现上述的基于异步通信的分层联邦学习方法,该方法可以被分割成多个模块或单元,多个模块或单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述本发明的基于异步通信的分层联邦学习装置中的执行过程。例如,本发明装置包括如下模块:
第一接收模块,用于边缘服务器接收广播的全局模型参数,所述全局模型参数由中央服务器初始化并广播;
第一下发模块,用于边缘服务器下发其接收的全局模型参数至其所属簇内所有客户端,所述全局模型参数用于各客户端根据其拥有的本地数据进行训练;
第二接收模块,用于边缘服务器接收其簇内所有客户端上传的经本地训练后更新的全局模型参数,对接收的经本地训练后更新的全局模型参数进行平均;
记录模块,用于记录边缘服务器所属簇内各客户端信息上传时间;
统计模块,用于统计边缘服务器所属簇内客户端的更新次数;
更新模块,用于根据边缘服务器预设的客户端信息上传时间阈值区间,更新边缘服务器所属簇内客户端;所属簇内客户端更新过程为:集聚客户端信息上传时间在边缘服务器预设的客户端信息上传时间阈值区间内的所有客户端构成对应于该边缘服务器的簇;
阈值设定模块,用于预设边缘服务器接收其簇内客户端的更新次数阈值;
第二下发模块,用于边缘服务器在更新次数阈值内任一次客户端更新后下发该次更新平均得到的全局模型参数至其所属簇中所有客户端;
上传模块,用于边缘服务器向中央服务器上传第更新次数阈值次更新平均得到的全局模型参数;
第三下发模块,用于边缘服务器向其所属簇中所有客户端下发中央服务器根据其接收的客户端第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端根据该加权平均全局模型参数进行本地训练;
判断模块,用于判断联邦学习系统中所有客户端内全局模型是否全部收敛或达到设定全局模型精度;
重复执行模块,用于当联邦学习系统中所有客户端内全局模型存在未收敛或未达到设定全局模型精度时,使边缘服务器重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数过程。
本发明实施例还提供一种终端设备,该终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的联邦学习系统的控制程序,所述联邦学习系统的控制程序被所述处理器执行时实现上述的基于异步通信的分层联邦学习方法。该终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备系统。所述终端设备可包括,但不仅限于,处理器、存储器,还可以包括其它元器件。
所述处理器可以是计算机的中央处理单元,还可以是其它通用处理器、数字信号处理器、专用集成电路、现成可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是终端设备的控制中心,利用各种接口和线路连接终端设备所有的各个模单元组装。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明实施例中的基于异步通信的分层联邦学习方法对应的程序指令/模块,处理器通过运行存储在存储器的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施例中的基于异步通信的分层联邦学习方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器所创建的数据等。此外,存储器优选但不限于高速随机存取存储器,例如,还可以是非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器还可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、工业网络、企业内部网、局域网、移动通信网及其组合。
本发明公开的基于异步通信的分层联邦学习方法作为计算机程序一软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述联邦学习系统的控制程序,基于异步通信的分层联邦学习方法实施例的步骤和结果。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;存储介质还可以包括上述种类的存储器的组合。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (9)
1.一种基于异步通信的分层联邦学习方法,其特征在于,所述基于异步通信的分层联邦学习方法应用于联邦学习系统,所述联邦学习系统包括中央服务器、连接于中央服务器的若干边缘服务器,以及分别与各边缘服务器成簇分布的若干客户端;
所述基于异步通信的分层联邦学习方法包括定义联邦学习系统的学习问题;具体为:假设联邦学习系统包括N个客户端,每个客户端存储有本地数据Di,则本地损失函数Fi(w)和全局损失函数F(w)分别为:
其中,i、j分别为联邦学习系统中的任一个客户端,w为全局模型的权重矩阵,D为所有客户端存储的本地数据集合;
所述基于异步通信的分层联邦学习方法应用于边缘服务器,包括:
边缘服务器接收广播的全局模型参数并下发至其所属簇内所有客户端;所述全局模型参数由中央服务器初始化并广播,所述全局模型参数用于各客户端根据其拥有的本地数据进行训练;
边缘服务器接收其簇内所有客户端上传的经本地训练后更新的全局模型参数、记录各客户端信息上传时间,对接收的经本地训练后更新的全局模型参数进行平均,并统计边缘服务器接收其簇内客户端的更新次数;
边缘服务器根据其预设的客户端信息上传时间阈值区间,更新其所属簇内客户端;所属簇内客户端更新过程为:集聚客户端信息上传时间在边缘服务器预设的客户端信息上传时间阈值区间内的所有客户端构成对应于该边缘服务器的簇;
边缘服务器预设接收其簇内客户端的更新次数阈值,边缘服务器在更新次数阈值内任一次客户端更新后下发该次更新平均得到的全局模型参数至其所属簇中所有客户端;边缘服务器向中央服务器上传客户端第更新次数阈值次更新平均得到的全局模型参数,并向其所属簇中所有客户端下发中央服务器根据其接收的客户端第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端根据加权平均全局模型参数进行本地训练;
边缘服务器重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
2.根据权利要求1所述的基于异步通信的分层联邦学习方法,其特征在于,所述基于异步通信的分层联邦学习方法应用于中央服务器,包括:
中央服务器广播经其初始化的全局模型参数至各边缘服务器,以使得各边缘服务器将该全局模型参数下发至各边缘服务器所属簇中的所有客户端;所述全局模型参数用于各客户端根据其拥有的本地数据进行训练,以便将经本地训练后更新的全局模型参数上传至所属簇的边缘服务器进行平均、记录各客户端信息的上传时间和统计各客户端的更新次数;所述客户端信息的上传时间用于与边缘服务器预设的客户端信息上传时间阈值区间进行比对,以更新客户端至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器所在的簇;
中央服务器接收边缘服务器发送的第更新次数阈值次更新平均得到的全局模型参数,并向该边缘服务器反馈加权平均全局模型参数,以便该边缘服务器向其所属簇中所有客户端下发该加权平均全局模型参数,使得客户端根据该加权平均全局模型参数进行本地训练;所述更新次数阈值为边缘服务器预设的向中央服务器上传全局模型参数时其所属簇内客户端最大更新次数,并且在更新次数阈值内任一次客户端经本地训练更新后上传至边缘服务器平均得到的全局模型参数直接经该边缘服务器下发至其所属簇中所有客户端,直至客户端更新次数达到更新次数阈值;
中央服务器重复执行在客户端达到更新次数阈值时边缘服务器上传第更新次数阈值次更新平均得到的全局模型参数并向该边缘服务器反馈加权平均全局模型参数,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
3.根据权利要求1所述的基于异步通信的分层联邦学习方法,其特征在于,所述基于异步通信的分层联邦学习方法应用于客户端,包括:
客户端接收全局模型参数,并根据其拥有的本地数据进行训练;所述全局模型参数由中央服务器初始化并广播至边缘服务器,经由边缘服务器下发至其所属簇内所有客户端;
客户端发送其经本地训练后更新的全局模型参数至其所属簇内边缘服务器,以便边缘服务器记录各客户端信息的上传时间、对各客户端更新的全局模型参数进行平均、以及统计其簇内客户端的更新次数;所述客户端信息的上传时间用于边缘服务器根据其预设的客户端信息上传时间阈值区间,更新其所属簇内客户端;所述客户端在边缘服务器的簇内更新过程为:客户端信息的上传时间与边缘服务器预设的客户端信息上传时间阈值区间进行比对,更新客户端至包含其上传时间在客户端信息上传时间阈值区间内的边缘服务器所在的簇;
客户端的更新次数用于与边缘服务器预设的接收其簇内客户端的更新次数阈值进行比较;当客户端更新次数在更新次数阈值内,客户端在其任一次更新后接收其所属簇的边缘服务器发来的该次更新平均得到的全局模型参数,再根据其拥有的本地数据进行训练;当客户端更新次数达到更新次数阈值,客户端接收其所属簇的边缘服务器下发的、由该边缘服务器向中央服务器上传第更新次数阈值次更新平均得到的全局模型参数后反馈的加权平均全局模型参数,再根据其拥有的本地数据进行本地训练;
客户端重复执行根据其所属簇的边缘服务器下发的全局模型参数进行本地训练,并将训练后更新的全局模型参数再上传至其所属簇的边缘服务器,直至联邦学习系统中所有客户端内全局模型收敛或达到设定全局模型精度。
4.根据权利要求1所述的基于异步通信的分层联邦学习方法,其特征在于,所述全局模型参数的初始化模型为将全局损失函数中包含的全局模型的权重矩阵w初始化为0。
5.根据权利要求1所述的基于异步通信的分层联邦学习方法,其特征在于,所述中央服务器和边缘服务器网络连接。
6.根据权利要求1所述的基于异步通信的分层联邦学习方法,其特征在于,所述客户端根据其拥有的本地数据进行训练过程为在本地数据上进行一次或多次的梯度下降更新。
7.一种基于异步通信的分层联邦学习装置,其特征在于,所述基于异步通信的分层联邦学习装置应用于联邦学习系统,所述联邦学习系统包括中央服务器、连接于中央服务器的若干边缘服务器,以及分别与各边缘服务器成簇分布的若干客户端;
所述基于异步通信的分层联邦学习装置包括定义联邦学习系统的学习问题;具体为:假设联邦学习系统包括N个客户端,每个客户端存储有本地数据Di,则本地损失函数Fi(w)和全局损失函数F(w)分别为:
其中,i、j分别为联邦学习系统中的任一个客户端,w为全局模型的权重矩阵,D为所有客户端存储的本地数据集合;
所述基于异步通信的分层联邦学习装置应用于边缘服务器,包括如下模块:
第一接收模块,用于边缘服务器接收广播的全局模型参数,所述全局模型参数由中央服务器初始化并广播;
第一下发模块,用于边缘服务器下发其接收的全局模型参数至其所属簇内所有客户端,所述全局模型参数用于各客户端根据其拥有的本地数据进行训练;
第二接收模块,用于边缘服务器接收其簇内所有客户端上传的经本地训练后更新的全局模型参数,对接收的经本地训练后更新的全局模型参数进行平均;
记录模块,用于记录边缘服务器所属簇内各客户端信息上传时间;
统计模块,用于统计边缘服务器所属簇内客户端的更新次数;
更新模块,用于根据边缘服务器预设的客户端信息上传时间阈值区间,更新边缘服务器所属簇内客户端;所属簇内客户端更新过程为:集聚客户端信息上传时间在边缘服务器预设的客户端信息上传时间阈值区间内的所有客户端构成对应于该边缘服务器的簇;
阈值设定模块,用于预设边缘服务器接收其簇内客户端的更新次数阈值;
第二下发模块,用于边缘服务器在更新次数阈值内任一次客户端更新后下发该次更新平均得到的全局模型参数至其所属簇中所有客户端;
上传模块,用于边缘服务器向中央服务器上传第更新次数阈值次更新平均得到的全局模型参数;
第三下发模块,用于边缘服务器向其所属簇中所有客户端下发中央服务器根据其接收的客户端第更新次数阈值次更新平均得到的全局模型参数加权平均后反馈的加权平均全局模型参数,以便客户端根据该加权平均全局模型参数进行本地训练;
判断模块,用于判断联邦学习系统中所有客户端内全局模型是否全部收敛或达到设定全局模型精度;
重复执行模块,用于当联邦学习系统中所有客户端内全局模型存在未收敛或未达到设定全局模型精度时,使边缘服务器重复执行接收其所属簇内客户端更新上传的全局模型参数和接收中央服务器反馈的加权平均全局模型参数过程。
8.一种终端设备,其特征在于,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的联邦学习系统的控制程序,所述联邦学习系统的控制程序被所述处理器执行时实现如权利要求1至6中任一项所述的基于异步通信的分层联邦学习方法。
9.一种存储介质,其特征在于,应用于计算机,所述存储介质上存储有联邦学习系统的控制程序,所述联邦学习系统的控制程序被处理器执行时实现如权利要求1至6中任一项所述的基于异步通信的分层联邦学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011375130.5A CN112532451B (zh) | 2020-11-30 | 2020-11-30 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011375130.5A CN112532451B (zh) | 2020-11-30 | 2020-11-30 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112532451A CN112532451A (zh) | 2021-03-19 |
CN112532451B true CN112532451B (zh) | 2022-04-26 |
Family
ID=74995261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011375130.5A Active CN112532451B (zh) | 2020-11-30 | 2020-11-30 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112532451B (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966832B (zh) * | 2021-03-31 | 2022-10-11 | 上海嗨普智能信息科技股份有限公司 | 基于多服务器的联邦学习系统 |
CN113052334B (zh) * | 2021-04-14 | 2023-09-29 | 中南大学 | 一种联邦学习实现方法、系统、终端设备及可读存储介质 |
CN113095513A (zh) * | 2021-04-25 | 2021-07-09 | 中山大学 | 双层公平联邦学习方法、装置和存储介质 |
CN113033712B (zh) * | 2021-05-21 | 2021-09-14 | 华中科技大学 | 一种基于联邦学习的多用户协同训练人流统计方法及系统 |
CN118709804A (zh) * | 2021-05-25 | 2024-09-27 | 华为技术有限公司 | 一种联邦学习方法、装置及系统 |
CN113420888B (zh) * | 2021-06-03 | 2023-07-14 | 中国石油大学(华东) | 一种基于泛化域自适应的无监督联邦学习方法 |
CN113382066B (zh) * | 2021-06-08 | 2022-08-30 | 江南大学 | 基于联邦边缘平台的车辆用户选择方法及系统 |
CN113469325B (zh) * | 2021-06-09 | 2023-07-25 | 南京邮电大学 | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 |
CN113221470A (zh) * | 2021-06-10 | 2021-08-06 | 南方电网科学研究院有限责任公司 | 一种用于电网边缘计算系统的联邦学习方法及其相关装置 |
CN113298268B (zh) * | 2021-06-11 | 2024-03-19 | 浙江工业大学 | 一种基于对抗噪声注入的垂直联邦学习方法和装置 |
CN113391897B (zh) * | 2021-06-15 | 2023-04-07 | 电子科技大学 | 一种面向异构场景的联邦学习训练加速方法 |
CN113516249B (zh) * | 2021-06-18 | 2023-04-07 | 重庆大学 | 基于半异步的联邦学习方法、系统、服务器及介质 |
CN113360514B (zh) * | 2021-07-02 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 联合更新模型的方法、装置及系统 |
CN113505881B (zh) * | 2021-07-15 | 2023-06-02 | 华侨大学 | 面向异构设备的分布式神经网络训练方法、装置及介质 |
CN113504999B (zh) * | 2021-08-05 | 2023-07-04 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
CN113762533B (zh) * | 2021-09-07 | 2023-06-06 | 北京航空航天大学 | 无线边缘网络中对数据污染具有鲁棒性的联邦学习方法 |
CN113762526B (zh) * | 2021-09-07 | 2024-02-09 | 京东科技信息技术有限公司 | 联邦学习的方法及分层网络系统、存储介质、电子设备 |
CN113742778B (zh) * | 2021-09-17 | 2023-10-31 | 上海交通大学 | 基于联邦学习和alq压缩的分布式机器学习方法及系统 |
CN113919512B (zh) * | 2021-09-26 | 2022-09-23 | 重庆邮电大学 | 基于计算资源逻辑分层的联邦学习通信优化方法及系统 |
CN113849806B (zh) * | 2021-09-30 | 2024-06-18 | 支付宝(杭州)信息技术有限公司 | 多方安全计算中的任务执行方法及装置 |
CN114302421B (zh) * | 2021-11-29 | 2024-06-18 | 北京邮电大学 | 通信网络架构的生成方法、装置、电子设备及介质 |
CN113989627B (zh) * | 2021-12-29 | 2022-05-27 | 深圳市万物云科技有限公司 | 一种基于异步联邦学习的城市防控图像检测方法和系统 |
CN114462573B (zh) * | 2022-01-20 | 2023-11-14 | 内蒙古工业大学 | 一种面向边缘智能的高效层次化参数传输时延优化方法 |
CN114553661B (zh) * | 2022-01-29 | 2023-08-18 | 南京邮电大学 | 一种面向无线联邦学习的移动用户设备分簇训练方法 |
CN114584581B (zh) * | 2022-01-29 | 2024-01-09 | 华东师范大学 | 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法 |
CN114493906A (zh) * | 2022-02-10 | 2022-05-13 | 杭州博盾习言科技有限公司 | 基于联邦学习的社区划分方法、装置、系统、介质及设备 |
CN114710330B (zh) * | 2022-03-22 | 2023-01-24 | 华东师范大学 | 一种基于异构分层联邦学习的异常检测方法 |
CN116862012A (zh) * | 2022-03-28 | 2023-10-10 | 华为技术有限公司 | 机器学习模型训练方法、业务数据处理方法、装置及系统 |
CN114866545B (zh) * | 2022-04-19 | 2023-04-25 | 郑州大学 | 一种基于空中计算的半异步分层联邦学习方法及系统 |
CN115037669B (zh) * | 2022-04-27 | 2023-05-02 | 东北大学 | 一种基于联邦学习的跨域数据传输方法 |
CN114584406B (zh) * | 2022-05-09 | 2022-08-12 | 湖南红普创新科技发展有限公司 | 一种联邦学习的工业大数据隐私保护系统及方法 |
CN115150918A (zh) * | 2022-06-06 | 2022-10-04 | 西北农林科技大学 | 一种分簇网络架构下的可靠联邦学习方法、系统、设备及终端 |
CN115173924A (zh) * | 2022-07-06 | 2022-10-11 | 多彩贵州印象网络传媒股份有限公司 | 一种基于云边协同技术的无人机无人巡检管理系统 |
CN115130683A (zh) * | 2022-07-18 | 2022-09-30 | 山东大学 | 一种基于多代理模型的异步联邦学习方法及系统 |
CN115481752B (zh) * | 2022-09-23 | 2024-03-19 | 中国电信股份有限公司 | 模型训练方法、装置、电子设备以及存储介质 |
CN115376031B (zh) * | 2022-10-24 | 2023-03-24 | 江西省科学院能源研究所 | 基于联邦自适应学习的公路无人机巡检数据处理方法 |
CN117808128B (zh) * | 2024-02-29 | 2024-05-28 | 浪潮电子信息产业股份有限公司 | 数据异构条件下的图像处理方法及装置 |
CN117808126B (zh) * | 2024-02-29 | 2024-05-28 | 浪潮电子信息产业股份有限公司 | 机器学习方法、装置、设备、联邦学习系统及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299781A (zh) * | 2018-11-21 | 2019-02-01 | 安徽工业大学 | 基于动量和剪枝的分布式深度学习系统 |
CN110909865A (zh) * | 2019-11-18 | 2020-03-24 | 福州大学 | 边缘计算中基于分层张量分解的联邦学习方法 |
CN111178538A (zh) * | 2019-12-17 | 2020-05-19 | 杭州睿信数据科技有限公司 | 垂直数据的联邦学习方法及装置 |
CN111369042A (zh) * | 2020-02-27 | 2020-07-03 | 山东大学 | 一种基于加权联邦学习的无线业务流量预测方法 |
CN111708640A (zh) * | 2020-06-23 | 2020-09-25 | 苏州联电能源发展有限公司 | 一种面向边缘计算的联邦学习方法和系统 |
CN111931949A (zh) * | 2019-05-13 | 2020-11-13 | 国际商业机器公司 | 联邦学习环境中的通信 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242473B2 (en) * | 2017-03-22 | 2019-03-26 | Sas Institute Inc. | Computer system to generate scalable plots using clustering |
US11676008B2 (en) * | 2018-09-27 | 2023-06-13 | Google Llc | Parameter-efficient multi-task and transfer learning |
CN111553484B (zh) * | 2020-04-30 | 2023-09-08 | 同盾控股有限公司 | 联邦学习的方法、装置及系统 |
CN111723947A (zh) * | 2020-06-19 | 2020-09-29 | 深圳前海微众银行股份有限公司 | 一种联邦学习模型的训练方法及装置 |
-
2020
- 2020-11-30 CN CN202011375130.5A patent/CN112532451B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299781A (zh) * | 2018-11-21 | 2019-02-01 | 安徽工业大学 | 基于动量和剪枝的分布式深度学习系统 |
CN111931949A (zh) * | 2019-05-13 | 2020-11-13 | 国际商业机器公司 | 联邦学习环境中的通信 |
CN110909865A (zh) * | 2019-11-18 | 2020-03-24 | 福州大学 | 边缘计算中基于分层张量分解的联邦学习方法 |
CN111178538A (zh) * | 2019-12-17 | 2020-05-19 | 杭州睿信数据科技有限公司 | 垂直数据的联邦学习方法及装置 |
CN111369042A (zh) * | 2020-02-27 | 2020-07-03 | 山东大学 | 一种基于加权联邦学习的无线业务流量预测方法 |
CN111708640A (zh) * | 2020-06-23 | 2020-09-25 | 苏州联电能源发展有限公司 | 一种面向边缘计算的联邦学习方法和系统 |
Non-Patent Citations (2)
Title |
---|
Distributed Active Learning Strategies on Edge Computing;Jia Qian,etc;《IEEE》;20191003;全文 * |
基于WGAN反馈的深度学习差分隐私保护方法(英文);陶陶等;《中国科学技术大学学报》;20200815;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112532451A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112532451B (zh) | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 | |
CN109685202B (zh) | 数据处理方法及装置、存储介质和电子装置 | |
JP6587330B2 (ja) | ランダムフォレストモデルの訓練方法、電子装置及び記憶媒体 | |
CN106850589B (zh) | 一种管控云计算终端和云服务器运作的方法 | |
CN108595461B (zh) | 兴趣探索方法、存储介质、电子设备及系统 | |
WO2014183427A1 (en) | Method and apparatus for displaying webcast rooms | |
CN105245577A (zh) | 信息推送方法、装置及系统 | |
CN112132942B (zh) | 一种三维场景漫游实时渲染方法 | |
CN105847367A (zh) | 服务请求处理方法及装置 | |
CN112104867B (zh) | 一种视频处理方法、视频处理装置、智能设备及存储介质 | |
CN106130972A (zh) | 资源访问控制方法和装置 | |
CN108540568A (zh) | 计算能力共享方法及智能设备 | |
US20230379763A1 (en) | Dynamic continuous quality of service adjustment system | |
CN111953923A (zh) | 网络会议处理方法、装置、电子设备及存储介质 | |
CN114358307A (zh) | 基于差分隐私法的联邦学习方法及装置 | |
CN112181678A (zh) | 业务数据的处理方法、装置和系统、存储介质、电子装置 | |
CN110750749A (zh) | 社群的维护方法、电子设备及计算机可读存储介质 | |
CN113886674B (zh) | 资源推荐方法、装置、电子设备及存储介质 | |
CN111193661B (zh) | 一种基于企业通信渠道融合系统的管理方法及装置 | |
CN114528893A (zh) | 机器学习模型训练方法、电子设备及存储介质 | |
CN104980685A (zh) | 视频服务提供方法及视频服务提供系统 | |
CN118175052A (zh) | 模型训练方法、终端及网络侧设备 | |
US20160132783A1 (en) | User Modelling by Domain Adaptation | |
CN112087365A (zh) | 应用于群组的即时通信方法、装置、电子设备及存储介质 | |
CN112087632A (zh) | 视频处理系统、方法、存储介质及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |