CN111708640A - 一种面向边缘计算的联邦学习方法和系统 - Google Patents
一种面向边缘计算的联邦学习方法和系统 Download PDFInfo
- Publication number
- CN111708640A CN111708640A CN202010578292.2A CN202010578292A CN111708640A CN 111708640 A CN111708640 A CN 111708640A CN 202010578292 A CN202010578292 A CN 202010578292A CN 111708640 A CN111708640 A CN 111708640A
- Authority
- CN
- China
- Prior art keywords
- model
- edge
- server
- training
- global model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5013—Request control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种面向边缘计算的联邦学习方法,包括:处于空闲的所有设备主动向服务器获取当前全局模型,按照预设的优化目标在本地异步执行模型训练,再将训练好的局部模型上传服务器;所述服务器接收任意一个设备上传的模型式,采用加权平均的方法更新全局模型。本发明能够将异步训练与联邦学习进行结合,在本发明的异步联邦优化中,所有空闲设备被用于异步模型训练,服务器使用加权平均来更新全局模型,充分利用了各个边缘设备的空闲时间,使模型训练更加高效。
Description
技术领域
本发明涉及模型训练领域,具体而言涉及一种面向边缘计算的联邦学习方法和系统。
背景技术
随着各种各样的边缘设备的增多,比如智能电网、智能手机、物联网设备等,越来越多的数据被用于机器学习的训练,因此将用于模型训练的数据传输到服务器中集中训练的传统的模型训练方式会带来许多问题,比如巨大的通信开销、有限的计算资源、以及隐私安全隐患。相比于带来巨大的通信开销和极大的安全隐患等问题的传统的直接在服务器中训练机器学习模型,联邦学习可以很好地解决这些问题。在联邦学习中,模型的训练被转移到各个边缘设备或边缘节点上,很好地解决了由于大量数据传输造成的通信开销问题,同时避免了传输数据时可能涉及的用户隐私问题。
相比于传统的SGD方式,联邦学习很大程度上提高了模型训练的效率。通常情况下,联邦学习大多都是采用同步训练的方式,即服务器将初始化的全局模型下发给选择的某些边缘设备,被选择的边缘设备再使用本地数据进行模型更新,然后由服务器将更新后的本地模型进行聚合得到更新后的全局模型。许多研究学者针对联邦学习效率的优化几乎都是在同步训练的基础上。在同步联邦优化中,服务器需要等到所有选中的边缘设备本地更新完成才能更新全局模型。但大多数边缘设备的计算资源以及通信能力是受限的,比如电池能量低、网络拥堵、GPU数量和计算能力有限、以及网络流量收费等,这导致它们训练模型以及上传模型所需的时间可能较长,因此整个联邦学习过程效率较低。而且,同步联邦优化未能充分利用设备的空闲时间进行模型训练。比如,在某一轮训练时那些未被选中的空闲设备没有被利用起来,或者设备在上传完更新后的本地模型就空闲下来可能不再被选中。此外,由于边缘设备的异构性,训练本地模型的数据是非独立同分布的,因此联邦学习还需要解决非独立同分布造成的模型差异问题。
发明内容
本发明目的在于提供一种面向边缘计算的联邦学习方法和系统,将异步训练与联邦学习进行结合,在本发明的异步联邦优化中,所有空闲设备被用于异步模型训练,服务器使用加权平均来更新全局模型,充分利用了各个边缘设备的空闲时间,使模型训练更加高效。
为达成上述目的,结合图1,本发明提出一种面向边缘计算的联邦学习方法,所述方法包括:
处于空闲的所有设备主动向服务器获取当前全局模型,按照预设的优化目标在本地异步执行模型训练,再将训练好的局部模型上传服务器;所述服务器接收任意一个设备上传的模型式,采用加权平均的方法更新全局模型。
进一步地,所述方法还包括:
S1,服务器初始化全局模型;
S2,服务器接收空闲的边缘设备向服务器发送的获取训练任务请求,将接收到的获取训练任务请求放入请求队列;
S3,服务器的协调程序依次从请求队列中选取获取训练任务请求,从获取训练任务请求中提取设备信息,将当前全局模型发送给对应的边缘设备,使该边缘设备在本地异步训练接收到的当前全局模型,得到更新后的局部模型;
S4,服务器的更新程序接收到任意一个设备上传的更新后的局部模型,采用加权平均方法更新当前全局模型,转入步骤S2,直至服务器上的全局模型达到预期性能。
进一步地,所述协调程序和更新程序并行运行。
进一步地,步骤S3中,所述边缘设备在本地对接收到的模型进行异步训练后,按照接收到模型的时间戳h生成更新后的局部模型(ωnew,h),ωnew是训练后得到的局部模型。
进一步地,所述采用加权平均的方法更新全局模型是指:
设其中一个设备上传至服务器的本地模型为(ωnew,h),采用下述公式更新当前全局模型ωt:
ωt=αtωnew+(1-αt)ωt-1
其中,αt←α×(t-h+1)-0.5,α∈(0,1)。
进一步地,所述预设的优化目标为:
其中k为第k个设备其中N为联邦学习环境中所有边缘设备的总数;xk是第k个设备所拥有的数据Dk分布下的样本;ω为全局模型的权重,F(ω)则为在权重ω下的全局局模型的损失;f(ω;xk)表示第k个设备在使用其参数为ω的模型对样本xk进行推断的损失,则Exk~Dkf(ω;xk)表示第k个设备在样本xk服从本地数据Dk分布下损失的期望。
进一步地,所述方法还包括:
引入惩罚项,将所述预设的优化目标更新为:
其中,λ≥0,在训练过程根据损失大小的变化以预设步长自动调整其大小。
8、根据权利要求7所述的面向边缘计算的联邦学习方法,其特征在于,所述预设步长为0.005。
基于前述方法,本发明还提及一种面向边缘计算的联邦学习系统,所述系统包括服务器和N个边缘设备,所述N为大于1的正整数;
所述边缘设备包括空闲和忙碌两种工作状态;
所述服务器包括初始化模块、请求处理模块、请求队列、协调模块和更新模块;
所述初始化模块用于初始化全局模型;
所述请求处理模块用于接收空闲的边缘设备向服务器发送的获取训练任务请求,将接收到的获取训练任务请求放入请求队列;
所述协调模块用于依次从请求队列中选取获取训练任务请求,从获取训练任务请求中提取设备信息,将当前全局模型发送给对应的边缘设备,使该边缘设备在本地异步训练接收到的当前全局模型,得到更新后的局部模型;
所述更新模块用于接收到任意一个设备上传的更新后的局部模型,采用加权平均方法更新当前全局模型,发布下一轮全局训练指令直至服务器上的全局模型达到预期性能。
以上本发明的技术方案,与现有相比,其显著的有益效果在于,
(1)将异步训练与联邦学习进行结合,在异步联邦优化中,所有空闲设备被用于异步模型训练,服务器使用加权平均来更新全局模型,充分利用了各个边缘设备的空闲时间,使模型训练更加高效。
(2)无需考虑非独立同分布造成的模型差异问题,训练过程清晰高效,适用性强。
(3)合理设置边缘设备本地训练时的优化目标,提高训练效率;另外,添加惩罚项,避免本地的局部最优解可能会影响全局模型的收敛的问题,使模型更趋于在t轮下的全局模型。
(4)协调程序和更新程序并行运行,进一步提高服务器运行效率和模型训练效率。
应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本公开的发明主题的一部分。另外,所要求保护的主题的所有组合都被视为本公开的发明主题的一部分。
结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。
附图说明
附图不意在按比例绘制。在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
图1是本发明的面向边缘计算的联邦学习方法的流程图。
图2是协调程序和更新程序的协议流程示意图。
图3是其中一种用于实现本发明的联邦学习方法的程序示意图。
具体实施方式
为了更了解本发明的技术内容,特举具体实施例并配合所附图式说明如下。
在本公开中参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本公开的实施例不必定义在包括本发明的所有方面。应当理解,上面介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
结合图1,本发明提出一种面向边缘计算的联邦学习方法,所述方法包括:
处于空闲的所有设备主动向服务器获取当前全局模型,按照预设的优化目标在本地异步执行模型训练,再将训练好的局部模型上传服务器;所述服务器接收任意一个设备上传的模型式,采用加权平均的方法更新全局模型。
假设联邦学习环境中有N设备,这N个设备每当有空闲时间就使用各自的数据通过异步的方式在本地进行模型训练,在服务器端每当有设备上传模型时则使用加权平均来更新全局模型,因此全局的优化目标如下:
由于异步方式下,设备获取到的全局模型和时间戳(ωh,h)相比当前时刻的(ωt,t)存在滞后性,因此当任意设备上传本地模型(ωnew,h)时,服务器端在聚合模型时根据采用加权平均的方式:
ωt=αtωnew+(1-αt)ωt-1
其中αt←α×(t-h+1)-0.5,α∈(0,1)。
不同设备所拥有的数据分布不同,因此在弱凸问题的求解时,本地的局部最优解可能会影响全局模型的收敛,为了限制这种影响使模型更趋于在t轮下的全局模型,我们添加了惩罚项即在整体数据的非独立同分布下,任意的本地设备训练时的优化目标如下:
其中λ≥0,在训练过程根据损失大小的变化以步长0.005自动调整其大小。
在提出的框架中,协议如下,本地设备在空闲时会主动向服务器发出获取训练任务的请求,然后服务器的协调程序收到请求后将其放入请求队列,并在请求队列中获取客户端,并将当前最新的全局模型发送给获取的设备;服务器的更新程序接收客端发来的本地模型使用加权平均的方式来更新全局模型。协调程序和更新程序是并行的,协议流程如图2。具体过程详见表1。
表1
综上所述,本发明提出的面向边缘计算的联邦学习方法能够充分利用了各个边缘设备的空闲时间,将异步训练与联邦学习进行结合。在该异步联邦优化过程中,所有空闲设备被用于异步模型训练,服务器使用加权平均来更新全局模型,有效提高了模型训练效率。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (9)
1.一种面向边缘计算的联邦学习方法,其特征在于,所述方法包括:
处于空闲的所有设备主动向服务器获取当前全局模型,按照预设的优化目标在本地异步执行模型训练,再将训练好的局部模型上传服务器;所述服务器接收任意一个设备上传的模型式,采用加权平均的方法更新全局模型。
2.根据权利要求1所述的面向边缘计算的联邦学习方法,其特征在于,所述方法还包括:
S1,服务器初始化全局模型;
S2,服务器接收空闲的边缘设备向服务器发送的获取训练任务请求,将接收到的获取训练任务请求放入请求队列;
S3,服务器的协调程序依次从请求队列中选取获取训练任务请求,从获取训练任务请求中提取设备信息,将当前全局模型发送给对应的边缘设备,使该边缘设备在本地异步训练接收到的当前全局模型,得到更新后的局部模型;
S4,服务器的更新程序接收到任意一个设备上传的更新后的局部模型,采用加权平均方法更新当前全局模型,转入步骤S2,直至服务器上的全局模型达到预期性能。
3.根据权利要求2所述的面向边缘计算的联邦学习方法,其特征在于,所述协调程序和更新程序并行运行。
4.根据权利要求2所述的面向边缘计算的联邦学习方法,其特征在于,步骤S3中,所述边缘设备在本地对接收到的模型进行异步训练后,按照接收到模型的时间戳h生成更新后的局部模型(ωnet,h),ωnew是训练后得到的局部模型。
5.根据权利要求2所述的面向边缘计算的联邦学习方法,其特征在于,所述采用加权平均的方法更新全局模型是指:
设其中一个设备上传至服务器的本地模型为(ωnew,h),采用下述公式更新当前全局模型ωt:
ωt=αtωnew+(1-αt)ωt-1
其中,αt←α×(t-h+1)-0.5,α∈(0,1)。
8.根据权利要求7所述的面向边缘计算的联邦学习方法,其特征在于,所述预设步长为0.005。
9.一种面向边缘计算的联邦学习系统,其特征在于,所述系统包括服务器和N个边缘设备,所述N为大于1的正整数;
所述边缘设备包括空闲和忙碌两种工作状态;
所述服务器包括初始化模块、请求处理模块、请求队列、协调模块和更新模块;
所述初始化模块用于初始化全局模型;
所述请求处理模块用于接收空闲的边缘设备向服务器发送的获取训练任务请求,将接收到的获取训练任务请求放入请求队列;
所述协调模块用于依次从请求队列中选取获取训练任务请求,从获取训练任务请求中提取设备信息,将当前全局模型发送给对应的边缘设备,使该边缘设备在本地异步训练接收到的当前全局模型,得到更新后的局部模型;
所述更新模块用于接收到任意一个设备上传的更新后的局部模型,采用加权平均方法更新当前全局模型,发布下一轮全局训练指令直至服务器上的全局模型达到预期性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010578292.2A CN111708640A (zh) | 2020-06-23 | 2020-06-23 | 一种面向边缘计算的联邦学习方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010578292.2A CN111708640A (zh) | 2020-06-23 | 2020-06-23 | 一种面向边缘计算的联邦学习方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111708640A true CN111708640A (zh) | 2020-09-25 |
Family
ID=72541538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010578292.2A Pending CN111708640A (zh) | 2020-06-23 | 2020-06-23 | 一种面向边缘计算的联邦学习方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111708640A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质 |
CN112532451A (zh) * | 2020-11-30 | 2021-03-19 | 安徽工业大学 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
CN112532746A (zh) * | 2020-12-21 | 2021-03-19 | 北京邮电大学 | 一种云边协同感知的方法及系统 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112598150A (zh) * | 2020-11-09 | 2021-04-02 | 西安君能清洁能源有限公司 | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 |
CN112668877A (zh) * | 2020-12-25 | 2021-04-16 | 西安电子科技大学 | 结合联邦学习和强化学习的事物资源信息分配方法及系统 |
CN112814854A (zh) * | 2020-12-31 | 2021-05-18 | 新智数字科技有限公司 | 基于联合学习的涡轮风机维护方法和装置 |
CN112949868A (zh) * | 2021-01-29 | 2021-06-11 | 北京邮电大学 | 一种基于区块链的异步联邦学习方法、装置及电子设备 |
CN113010305A (zh) * | 2021-02-08 | 2021-06-22 | 北京邮电大学 | 部署在边缘计算网络中的联邦学习系统及其学习方法 |
CN113011599A (zh) * | 2021-03-23 | 2021-06-22 | 上海嗨普智能信息科技股份有限公司 | 基于异构数据的联邦学习系统 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN113076553A (zh) * | 2021-03-11 | 2021-07-06 | 佳讯飞鸿(北京)智能科技研究院有限公司 | 一种智能体节点插件管理方法 |
CN113094181A (zh) * | 2021-05-06 | 2021-07-09 | 苏州联电能源发展有限公司 | 面向边缘设备的多任务联邦学习方法及装置 |
CN113139662A (zh) * | 2021-04-23 | 2021-07-20 | 深圳市大数据研究院 | 联邦学习的全局及局部梯度处理方法、装置、设备和介质 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
CN113206887A (zh) * | 2021-05-08 | 2021-08-03 | 武汉理工大学 | 边缘计算下针对数据与设备异构性加速联邦学习的方法 |
CN113283177A (zh) * | 2021-06-16 | 2021-08-20 | 江南大学 | 一种基于异步联邦学习的移动感知缓存方法 |
CN113382066A (zh) * | 2021-06-08 | 2021-09-10 | 江南大学 | 基于联邦边缘平台的车辆用户选择方法及系统 |
CN113391897A (zh) * | 2021-06-15 | 2021-09-14 | 电子科技大学 | 一种面向异构场景的联邦学习训练加速方法 |
CN113516249A (zh) * | 2021-06-18 | 2021-10-19 | 重庆大学 | 基于半异步的联邦学习方法、系统、服务器及介质 |
CN113554181A (zh) * | 2021-07-07 | 2021-10-26 | 南京信息工程大学 | 一种基于批增量方式的联邦学习训练模型 |
CN113989627A (zh) * | 2021-12-29 | 2022-01-28 | 深圳市万物云科技有限公司 | 一种基于异步联邦学习的城市防控图像检测方法和系统 |
CN114202070A (zh) * | 2021-11-23 | 2022-03-18 | 国网北京市电力公司 | 电力数据处理方法、装置、非易失性存储介质及处理器 |
WO2022099512A1 (zh) * | 2020-11-11 | 2022-05-19 | 北京小米移动软件有限公司 | 数据处理方法及装置、通信设备和存储介质 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN115081002A (zh) * | 2022-06-28 | 2022-09-20 | 西安电子科技大学 | 用于去中心化联邦学习的聚合服务器选择方法 |
CN115830709A (zh) * | 2022-11-23 | 2023-03-21 | 深圳市大数据研究院 | 基于联邦边缘学习的动作识别方法、服务器及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190385043A1 (en) * | 2018-06-19 | 2019-12-19 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
CN110766169A (zh) * | 2019-10-31 | 2020-02-07 | 深圳前海微众银行股份有限公司 | 强化学习的迁移训练优化方法、装置、终端及存储介质 |
CN111176929A (zh) * | 2019-11-29 | 2020-05-19 | 广东工业大学 | 一种面向边缘联邦学习的高能效计算通信联合优化方法 |
-
2020
- 2020-06-23 CN CN202010578292.2A patent/CN111708640A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190385043A1 (en) * | 2018-06-19 | 2019-12-19 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
CN110766169A (zh) * | 2019-10-31 | 2020-02-07 | 深圳前海微众银行股份有限公司 | 强化学习的迁移训练优化方法、装置、终端及存储介质 |
CN111176929A (zh) * | 2019-11-29 | 2020-05-19 | 广东工业大学 | 一种面向边缘联邦学习的高能效计算通信联合优化方法 |
Non-Patent Citations (1)
Title |
---|
MICHAEL R. SPRAGUE等: "Asynchronous Federated Learning for Geospatial Applications", 《ECML PKDD 2018 WORKSHOPS》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质 |
CN112181666B (zh) * | 2020-10-26 | 2023-09-01 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112598150A (zh) * | 2020-11-09 | 2021-04-02 | 西安君能清洁能源有限公司 | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 |
CN112598150B (zh) * | 2020-11-09 | 2024-03-08 | 西安君能清洁能源有限公司 | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 |
WO2022099512A1 (zh) * | 2020-11-11 | 2022-05-19 | 北京小米移动软件有限公司 | 数据处理方法及装置、通信设备和存储介质 |
CN112532451A (zh) * | 2020-11-30 | 2021-03-19 | 安徽工业大学 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
CN112532451B (zh) * | 2020-11-30 | 2022-04-26 | 安徽工业大学 | 基于异步通信的分层联邦学习方法、装置、终端设备及存储介质 |
CN112532746A (zh) * | 2020-12-21 | 2021-03-19 | 北京邮电大学 | 一种云边协同感知的方法及系统 |
CN112532746B (zh) * | 2020-12-21 | 2021-10-26 | 北京邮电大学 | 一种云边协同感知的方法及系统 |
CN112668877A (zh) * | 2020-12-25 | 2021-04-16 | 西安电子科技大学 | 结合联邦学习和强化学习的事物资源信息分配方法及系统 |
CN112668877B (zh) * | 2020-12-25 | 2023-05-30 | 西安电子科技大学 | 结合联邦学习和强化学习的事物资源信息分配方法及系统 |
CN112814854A (zh) * | 2020-12-31 | 2021-05-18 | 新智数字科技有限公司 | 基于联合学习的涡轮风机维护方法和装置 |
CN112814854B (zh) * | 2020-12-31 | 2022-04-29 | 新智数字科技有限公司 | 基于联合学习的涡轮风机维护方法和装置 |
CN112949868A (zh) * | 2021-01-29 | 2021-06-11 | 北京邮电大学 | 一种基于区块链的异步联邦学习方法、装置及电子设备 |
CN113010305A (zh) * | 2021-02-08 | 2021-06-22 | 北京邮电大学 | 部署在边缘计算网络中的联邦学习系统及其学习方法 |
CN113011602B (zh) * | 2021-03-03 | 2023-05-30 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN113076553A (zh) * | 2021-03-11 | 2021-07-06 | 佳讯飞鸿(北京)智能科技研究院有限公司 | 一种智能体节点插件管理方法 |
CN113076553B (zh) * | 2021-03-11 | 2023-10-17 | 佳讯飞鸿(北京)智能科技研究院有限公司 | 一种智能体节点插件管理方法 |
CN113011599A (zh) * | 2021-03-23 | 2021-06-22 | 上海嗨普智能信息科技股份有限公司 | 基于异构数据的联邦学习系统 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
CN113139662B (zh) * | 2021-04-23 | 2023-07-14 | 深圳市大数据研究院 | 联邦学习的全局及局部梯度处理方法、装置、设备和介质 |
CN113139662A (zh) * | 2021-04-23 | 2021-07-20 | 深圳市大数据研究院 | 联邦学习的全局及局部梯度处理方法、装置、设备和介质 |
CN113094181A (zh) * | 2021-05-06 | 2021-07-09 | 苏州联电能源发展有限公司 | 面向边缘设备的多任务联邦学习方法及装置 |
CN113206887A (zh) * | 2021-05-08 | 2021-08-03 | 武汉理工大学 | 边缘计算下针对数据与设备异构性加速联邦学习的方法 |
CN113382066B (zh) * | 2021-06-08 | 2022-08-30 | 江南大学 | 基于联邦边缘平台的车辆用户选择方法及系统 |
CN113382066A (zh) * | 2021-06-08 | 2021-09-10 | 江南大学 | 基于联邦边缘平台的车辆用户选择方法及系统 |
CN113391897A (zh) * | 2021-06-15 | 2021-09-14 | 电子科技大学 | 一种面向异构场景的联邦学习训练加速方法 |
CN113283177A (zh) * | 2021-06-16 | 2021-08-20 | 江南大学 | 一种基于异步联邦学习的移动感知缓存方法 |
CN113283177B (zh) * | 2021-06-16 | 2022-05-24 | 江南大学 | 一种基于异步联邦学习的移动感知缓存方法 |
CN113516249A (zh) * | 2021-06-18 | 2021-10-19 | 重庆大学 | 基于半异步的联邦学习方法、系统、服务器及介质 |
CN113554181A (zh) * | 2021-07-07 | 2021-10-26 | 南京信息工程大学 | 一种基于批增量方式的联邦学习训练模型 |
CN113554181B (zh) * | 2021-07-07 | 2023-06-23 | 南京信息工程大学 | 一种基于批增量方式的联邦学习训练方法 |
CN114202070A (zh) * | 2021-11-23 | 2022-03-18 | 国网北京市电力公司 | 电力数据处理方法、装置、非易失性存储介质及处理器 |
CN113989627A (zh) * | 2021-12-29 | 2022-01-28 | 深圳市万物云科技有限公司 | 一种基于异步联邦学习的城市防控图像检测方法和系统 |
CN114938372B (zh) * | 2022-05-20 | 2023-04-18 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114938372A (zh) * | 2022-05-20 | 2022-08-23 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN115081002A (zh) * | 2022-06-28 | 2022-09-20 | 西安电子科技大学 | 用于去中心化联邦学习的聚合服务器选择方法 |
CN115081002B (zh) * | 2022-06-28 | 2024-05-14 | 西安电子科技大学 | 用于去中心化联邦学习的聚合服务器选择方法 |
CN115830709A (zh) * | 2022-11-23 | 2023-03-21 | 深圳市大数据研究院 | 基于联邦边缘学习的动作识别方法、服务器及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111708640A (zh) | 一种面向边缘计算的联邦学习方法和系统 | |
CN110889509B (zh) | 一种基于梯度动量加速的联合学习方法及装置 | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN110533183A (zh) | 一种流水线分布式深度学习中异构网络感知的模型划分与任务放置方法 | |
CN112911608B (zh) | 一种面向边缘智能网络的大规模接入方法 | |
CN111556516B (zh) | 面向时延和能效敏感业务的分布式无线网络任务协同分配方法 | |
CN112637883A (zh) | 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法 | |
CN113469325A (zh) | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 | |
CN113312177B (zh) | 一种基于联邦学习的无线边缘计算系统、优化方法 | |
CN105224393B (zh) | 一种JT-CoMP在C-RAN架构下的虚拟机调度机制 | |
CN116156563A (zh) | 基于数字孪生的异构任务与资源端边协同调度方法 | |
CN109548161A (zh) | 一种无线资源调度的方法、装置和终端设备 | |
CN108376099B (zh) | 一种优化时延与能效的移动终端计算迁移方法 | |
CN114943342A (zh) | 一种联邦学习系统的优化方法 | |
CN113556764A (zh) | 一种基于移动边缘计算网络的计算速率确定方法及系统 | |
CN115481748A (zh) | 一种基于数字孪生辅助的联邦学习新鲜度优化方法与系统 | |
Lin et al. | Federated learning with dynamic aggregation based on connection density at satellites and ground stations | |
CN117829307A (zh) | 一种面向数据异构性的联邦学习方法及系统 | |
CN117076132B (zh) | 分层联邦学习系统的资源分配及聚合优化方法及装置 | |
CN117151208B (zh) | 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质 | |
CN111538560B (zh) | 一种虚拟机部署方法、装置、电子设备及其存储介质 | |
CN113094180A (zh) | 无线联邦学习调度优化方法及装置 | |
US20240086717A1 (en) | Model training control method based on asynchronous federated learning, electronic device and storage medium | |
CN115118591B (zh) | 一种基于联盟博弈的簇联邦学习方法 | |
CN115345306A (zh) | 深度神经网络调度方法及调度器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200925 |