CN113312177B - 一种基于联邦学习的无线边缘计算系统、优化方法 - Google Patents
一种基于联邦学习的无线边缘计算系统、优化方法 Download PDFInfo
- Publication number
- CN113312177B CN113312177B CN202110508909.8A CN202110508909A CN113312177B CN 113312177 B CN113312177 B CN 113312177B CN 202110508909 A CN202110508909 A CN 202110508909A CN 113312177 B CN113312177 B CN 113312177B
- Authority
- CN
- China
- Prior art keywords
- edge
- node
- resource consumption
- model
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000006870 function Effects 0.000 claims abstract description 146
- 238000012549 training Methods 0.000 claims abstract description 75
- 238000004088 simulation Methods 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000004220 aggregation Methods 0.000 claims description 64
- 230000002776 aggregation Effects 0.000 claims description 59
- 230000005540 biological transmission Effects 0.000 claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000012958 reprocessing Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 9
- 238000012546 transfer Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种基于联邦学习的无线边缘计算仿真系统和模拟真实系统收敛过程的优化方法。中心节点在每轮全局更新时统计各边缘设备的时间和物理空间资源消耗量,将统计结果与消耗资源总预算量做比对,判断是否进行下一轮全局更新或者创建对应指针,向各边缘设备发送停止标志以结束全局更新流程;中心节点考量各边缘节点数据集规模,从而为各子节点设计不同权重;中心节点针对权重数据创建对应指针,通过计划函数进行传递数据,之后中心节点进行迭代训练。本发明可以实现对无线边缘计算进行仿真,通过加入对各设备资源消耗量的考量,附加仿真系统训练收敛条件,根据各边缘节点数据集规模优化中心节点训练过程,从而提高仿真系统训练效果与真实性。
Description
技术领域
本发明涉及边缘计算技术领域,具体而言涉及一种基于联邦学习的无线边缘计算系统、 模拟真实系统收敛过程的优化方法。
背景技术
随着万物互联时代的到来,网络边缘设备产生的数据量快速增加,带来了更高的数据传输 带宽需求,同时,新型应用也对数据处理的实时性提出了更高要求,传统云计算模型已经无法 有效应对,因此,边缘计算应运而生。在已经被提上研究议程的新一代移动网络中,无线边缘计算被视作关键支柱技术。图7是现有技术中一种典型的边缘计算体系结构,多个边缘节点 与远程云一起工作,执行涉及本地处理和远程协调/执行的大规模分布式任务。无线边缘计算 的新兴技术使本地数据存储和处理成为可能,其中边缘节点,如传感器、家庭网关和微服务 器都具备存储和计算能力。从长远看,移动终端智能性不断以提升,充分利用边缘设备计算 能力、降低智能终端功耗、降低延迟,将云计算下沉到网络边缘,通过终端及边缘节点在无 线资源、计算资源层面的协同,可以提升用户体验。
边缘计算节点的分布式和异构型也决定其难以进行统一的管理,从而导致一系列新的安 全问题和隐私泄露等问题,而联邦学习能够在数据不共享的条件下实现数据信息的交流和整 合。因此,结合联邦学习来实现边缘计算可以满足现下的发展要求。
发明内容
本发明针对现有技术中的不足,提供一种基于联邦学习的无线边缘计算仿真系统、模拟 真实系统收敛过程的优化方法,可以实现无线边缘计算仿真仿真系统的优化,通过考量系统 所消耗的时间和物理空间资源,自定义约束条件、自定义损失函数和附加仿真系统训练收敛条件,提高整个仿真系统的训练效果与真实性,适用于人工智能、物联网、车联网、视频优 化加速、增强现实(AR)以及监控视频分析等诸多领域。
为实现上述目的,本发明采用以下技术方案:
第一方面,本发明实施例提及了一种基于联邦学习的无线边缘计算仿真系统,所述无线 边缘计算系统包括采用主机设备仿真得到的中心节点和多个采用嵌入式设备仿真得到的边缘 节点;在所述中心节点中通过基于主机设备本地数据训练得到中心节点模型,在所述边缘节点中通过基于当前边缘设备本地数据训练得到边缘节点模型;
所述边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参 数的指针,通过边缘节点中的计划函数接收中心节点传输的参数,采用中心节点的参数对本 地边缘节点模型进行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练得到的新的边缘节点的参数再次通过边缘节点中的计划函数发送给中心节点;所述中心节点 用于接收各个边缘设备发送的边缘节点的参数,在中心节点创建所需传输参数的指针,创建 各个边缘设备的设备号,通过中心节点中的计划函数向边缘节点传输参数,对中心节点的参 数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全局更新;
所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空 间资源消耗总量b判断是否向各边缘设备发送停止标志以结束全局更新流程;
所述边缘设备接收中心节点的参数为:中心节点模型参数ec和两次全局聚合之间的目前 本地最优更新步数tf;所述中心节点接收边缘节点的参数为:边缘节点模型参数ef、各边缘 设备的时间资源消耗量afi、物理资源消耗量bfi、各边缘节点损失函数和训练算法所需超参数; 所述中心节点在每轮全局更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以 及各边缘设备的时间资源消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束 条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结 束全局更新流程。
进一步地,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数; 同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练; 各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的各类别概率分布相同。
进一步地,所述中心节点根据本次迭代中心节点和边缘节点之间参数传输过程中的时间 资源消耗量和物理空间资源消耗量、本次迭代边缘节点训练时间资源消耗量afi和物理空间资 源消耗量bfi、本次迭代中心节点训练时间资源消耗量和物理空间资源消耗量、本次迭代边缘 节点和中心节点总的时间资源消耗量a和总的物理空间消耗量b、梯度下降步长s以及两次全 局聚合之间边缘节点模型参数训练次数tfi,计算得到资源消耗量约束条件。
进一步地,所述边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针, 通过计划函数进行传递;所述通信数据包括边缘节点模型的模型参数ef、各边缘设备更新的 时间资源消耗量afi和物理空间资源消耗量bfi、各边缘设备损失函数、中心节点模型的模型参 数ec、两次全局聚合之间的目前边缘节点更新最优步数tf。
进一步地,所述边缘设备包括:
边缘初始化单元,用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计 划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
边缘参数获取单元,用于接收中心节点发送的中心节点模型的模型参数ec及两次全局聚 合之间目前的边缘节点更新最优步数tf;
边缘计算单元,用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模 型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量afi和物理空间资源消耗 量bfi;
边缘数据传输单元,用于创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间 资源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本 边缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗 量bfi和本边缘设备的损失函数;
边缘判断单元,用于判断是否接收到中心节点发送的停止标志;
边缘再处理单元,用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到中心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的 指针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心 节点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数tf;
边缘输出单元,用于在模型迭代训练终止后输出本边缘设备的损失函数。
进一步地,所述主机设备包括:
主机输入单元,用于输入包括时间资源消耗总预设量a和物理空间资源消耗总预设量b, 中心节点迭代次数t,预设两次全局聚合之间边缘节点更新最优步数tf及两次全局聚合之间边 缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创 建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经 网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数ec及两次全局聚合之间的目前边缘节点 更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合 之间的目前边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理 空间资源消耗量bfi及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前 本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;
主机判断单元,用于判断时间资源消耗总量和物理空间资源消耗总量是否满足资源约束 条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务; 其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创 建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新 中心节点的模型参数ec和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更新最优步数tf的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间的目前边 缘节点更新最优步数tf至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
进一步地,所述边缘设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议, 并对协议进行部署,基于神经网络搭建边缘节点模型;
S12,接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节 点更新最优步数tf;
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新 的时间资源消耗量afi和物理空间资源消耗量bfi;
S14,创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理 空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型 参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的 损失函数至中心节点;
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则 接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边 缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12;
S16,输出本边缘设备的损失函数。
进一步地,所述主机设备的工作流程包括:
S21,输入包括时间资源消耗总预算量a和物理空间资源消耗总预算量b,中心节点迭代 次数t,预设两次全局聚合之间边缘设备本地更新最优步数tf及两次全局聚合之间边缘设备本 地更新最大步数在内的各项参数;S22,初始化两次全局聚合之间本地更新的最优步数tf及迭 代次数,创建挂钩,创建各个边缘设备的编号,获取数据集,构建计划函数,制定协议并对 协议进行部署,基于神经网络搭建中心节点模型;
S23,创建中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数 的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
S24,接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及 损失函数;
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步 数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;S26,判断时间资源消耗总 量a和物理空间资源消耗总量b是否满足资源约束条件或者中心节点是否达到设定迭代次数:若超出资源消耗总量或者中心节点达到设定迭代次数,则训练中心节点模型,创建参数指针, 通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点 的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新中心节点模型 的模型参数ec和损失函数,更新目前边缘节点最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数,转入步骤S27;否则返回步骤S23;
S27,输出中心节点的损失函数。
第二方面,本发明实施例提及了一种模拟真实系统收敛过程的优化方法,所述模拟真实 系统收敛过程优化方法包括:
中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空间资 源消耗总量b判断是否向个边缘设备发送停止标志以结束全局更新流程。所述边缘设备接收中心节点的参数为:中心节点模型参数ec,两次全局聚合之间的目前本地最优更新步数tf。 所述中心节点接收边缘节点的参数为:边缘节点模型参数ef,各边缘设备的时间资源消耗量afi, 物理资源消耗量bfi,各边缘节点损失函数,训练算法所需超参数。所述中心节点在每轮全局 更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以及各边缘设备的时间资源 消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束条件,根据是否满足约束 判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程;
进一步地,各边缘节点参数训练过程中,自定义新的损失函数。其中,自定义损失函数 基于均方误差损失函数定义,同时考量各边缘节点数据集规模,而为各边缘节点赋予不同权 重后进行迭代式训练。其中,各边缘节点数据集规模定义为,各边缘节点初始分配到的数据集量级。其中,各边缘节点数据集特征为,各类别概率分布相同。
所述的中心节点资源消耗量约束条件所需参数为:本次迭代中心节点和边缘节点之间参 数传输过程中的时间资源消耗量和物理空间资源消耗量、本次迭代边缘节点训练时间资源消 耗量afi和物理空间资源消耗量bfi、本次迭代中心节点训练时间资源消耗量和物理空间资源消 耗量、本次迭代边缘节点和中心节点总的时间资源消耗量a和总的物理空间消耗量b、梯度 下降步长s以及两次全局聚合之间边缘节点模型参数训练次数tfi。
所述的边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针,通过计划 函数进行传递;所述通信数据包括边缘节点模型的模型参数ef、各边缘设备更新的时间资源 消耗量afi和物理空间资源消耗量bfi、各边缘设备损失函数、中心节点模型的模型参数ec、两 次全局聚合之间的目前边缘节点更新最优步数tf。
本发明的有益效果是:
(1)本发明可以实现无线边缘计算仿真系统的优化,通过考量整个系统所消耗的时间和 物理空间资源,自定义约束条件、自定义损失函数和附加仿真系统训练收敛条件,提高整个 仿真系统的训练效果与真实性,适用于人工智能、物联网、车联网、视频优化加速、增强现实(AR)以及监控视频分析等诸多领域。
(2)通过加入对各设备时间和物理空间资源消耗量的考量,附加仿真系统训练收敛条件, 根据各边缘节点数据集规模优化中心节点的训练过程,从而提高仿真系统训练效果与真实性。
附图说明
图1是本实施例的基于联邦学习的无线边缘计算系统和模拟真实系统收敛过程的优化 方法模型示意图。
图2是本实施例的边缘节点结构示意图。
图3是本实施例的中心节点结构示意图。
图4是本实施例提供的边缘设备的数据传输模块、参数训练模块与中心节点的数据传输 模块、参数训练模块的整体架构。
图5是本实施例提供的边缘节点基于联邦学习的无线边缘计算系统的具体流程图。
图6是本实施例提供的中心节点基于联邦学习的无线边缘计算系统的具体流程图。
图7是现有技术中一种典型的边缘计算体系结构。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
需要注意的是,发明中所引用的如“上”、“下”、“左”、“右”、“前”、“后” 等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变 或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
实施例一
图1是本实施例的基于联邦学习的无线边缘计算系统和模拟真实系统收敛过程优化方 法模型示意图。参见图1,该无线边缘计算系统包括采用主机设备仿真得到的中心节点和多 个采用嵌入式设备仿真得到的边缘节点;在中心节点中通过基于主机设备本地数据训练得到中心节点模型,在边缘节点中通过基于当前边缘设备本地数据训练得到边缘节点模型。图2 是本实施例的边缘节点结构示意图,通过可灵活部署操作系统并进行深度学习运算的嵌入式 设备,通过该嵌入式设备仿真各边缘节点,进行本地学习,更新在线无线/计算分配资源模型。 图3是本实施例的中心节点结构示意图。在中心节点中指定各边缘设备的位置,使用中心节 点作为中央协调实体,负责将模型参数分发给当前在边缘设备上运行的工作程序。中心节点和边缘设备通过各自所属的数据传输模块进行数据交互。
中心节点创建挂钩,然后初始化模型参数。每个数据所有者首先在本地对模型进行几次 迭代训练,然后对模型参数进行更新,边缘设备再将他们更新的模型参数发送给主机部分。
边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参数的 指针,通过计划函数接收中心节点传输的参数,采用中心节点的参数对本地边缘节点模型进 行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练得到的新的边缘节点的模型再次通过计划函数发送给中心节点。中心节点用于接收各个边缘设备发送的边缘节 点的参数,对中心节点的参数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全 局更新。需要强调的是,为了确保节点之间的数据私密性,本实施例是在不访问远程和私有 数据的情况下,采用本地数据训练模型。对于每一批训练数据,边缘设备进行模型参数更新后将其发送到中心节点,中心节点进行模型参数更新后再发送给边缘设备,不停地迭代,接 近最佳训练模型为止。
具体的,首先,各边缘设备即嵌入式设备开始训练各边缘节点模型,各边缘节点模型是 利用各边缘设备(嵌入式设备)的本地数据训练得到的,各边缘设备(嵌入式设备)本地数 据为储存在对应边缘设备(嵌入式设备)的数据集。中心节点即主机设备开始训练中心节点 模型,中心节点模型是利用中心节点(主机设备)的本地数据训练得到的,中心节点(主机 设备)的本地数据为储存在对应设备(主机设备)的数据集。其次,各边缘节点向中心节点 传输本地训练模型参数efi,本地训练模型参数efi为各边缘节点在一个周期内训练模型结果。 最后,由中心节点即主机设备将各个边缘节点即嵌入式设备的传输的模型参数efi进行聚合, 得到的模型参数训练结果再传输给各个边缘节点,边缘节点更新本地模型参数ec后,继续训 练,进而实现全局更新。
图4是本实施例提供的边缘设备的数据传输模块、参数训练模块与中心节点的数据传输 模块、参数训练模块的整体架构。
(一)边缘设备
在本实施例中,边缘设备包括边缘初始化单元、边缘参数获取单元、边缘计算单元、边 缘数据传输单元、边缘判断单元、边缘再处理单元和边缘输出单元。
边缘初始化单元用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划 函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型。
边缘参数获取单元用于接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合 之间目前的边缘节点更新最优步数tf。
边缘计算单元用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模型, 得到相应的模型参数,以及计算本次本地更新总的时间资源消耗量afi和物理空间资源消耗量 bfi。
边缘数据传输单元用于创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资 源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边 缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量 bfi和本边缘设备的损失函数。
边缘判断单元用于判断是否接收到中心节点发送的停止标志。
边缘再处理单元用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到中 心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指 针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心节 点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数tf。
边缘输出单元用于在模型迭代训练终止后输出本边缘设备的损失函数。
图5是本实施例提供的边缘节点基于联邦学习的无线边缘计算系统的具体流程图。边缘 设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议, 并对协议进行部署,基于神经网络搭建边缘节点模型。
S12,接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节 点更新最优步数tf。
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新 的时间资源消耗量afi和物理空间资源消耗量bfi。
S14,创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理 空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型 参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的 损失函数至中心节点。
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则 接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边 缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12。
S16,输出本边缘设备的损失函数。
(二)主机设备
主机设备包括主机输入单元、主机初始化单元、主机数据传输单元、主机参数获取单元、 主机计算单元、主机判断单元、主机再处理单元和主机输出单元。
主机输入单元,用于输入包括时间资源消耗总预设量a和物理空间资源消耗总预设量b, 中心节点迭代次数,预设两次全局聚合之间边缘节点更新最优步数的步长tf及两次全局聚合 之间边缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创 建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经 网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数ec及两次全局聚合之间的目前边缘节点 更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合 之间的目前边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理 空间资源消耗量bfi及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前 本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;
主机判断单元,用于判断时间资源消耗总量和物理空间资源消耗总量是否满足资源约束 条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务; 其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创 建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新 中心节点的模型参数ec和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更新最优步数tf的指针,通过计划函数传输中心节点参数ec及两次全局聚合之间的目前边缘节 点更新最优步数tf至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
图6是本实施例提供的中心节点基于联邦学习的无线边缘计算系统的具体流程图。主机 设备的工作流程包括:
S21,输入包括时间资源消耗总预算量a和物理空间资源消耗总预算量b,中心节点迭代 次数,预设两次全局聚合之间边缘设备本地更新最优步数tf及两次全局聚合之间边缘设备本 地更新最大步数在内的各项参数。
S22,初始化两次全局聚合之间本地更新的最优步数及迭代次数,创建挂钩,创建各个边缘设备的编号,获取数据集,构建计划函数,制定协议并协议进行部署,基于神经网络搭建 中心节点模型。
S23,创建中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数 的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数 tf及迭代次数至各个边缘设备,使其更新迭代次数。
S24,接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及 损失函数。
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步 数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b。
S26,判断时间资源消耗总量a和物理空间资源消耗总量b是否满足资源约束条件或者中 心节点是否达到设定迭代次数:若超出资源消耗总量或者中心节点达到设定迭代次数,则训 练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志, 更新迭代次数,接收各个边缘节点模的模型参数efi、时间资源消耗量afi、物理空间资源消耗 量bfi及损失函数,更新中心节点模型的模型参数ec和损失函数,更新目前边缘节点最优模型 参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节 点的损失函数,得到最终的最优模型参数,转入步骤S27;否则返回步骤S23。
S27,输出中心节点的损失函数。
本实施例通过可灵活部署操作系统并进行深度学习运算的嵌入式设备,通过该嵌入式设 备仿真各边缘节点,进行本地学习,更新在线无线/计算分配资源模型。在中心节点(主机设备)和边缘节点(嵌入式设备)上部署基于联邦学习的无线边缘计算架构,基于联邦学习算 法对传输数据进行加密保护;仿真各边缘节点,并更新本地无线资源分配方案;仿真中心节点, 汇聚模型参数,并更新分布式模型的参数,从而实现全局无线资源分配方案。可以有效减少对计算资源的消耗,提高数据精度,达到提高整个无线边缘计算仿真系统训练效果与真实性 的目的。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于 本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术 人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (10)
1.一种基于联邦学习的无线边缘计算系统,其特征在于,所述无线边缘计算系统包括采用主机设备仿真得到的中心节点和多个采用嵌入式设备仿真得到的边缘节点;在所述中心节点中通过基于主机设备本地数据训练得到中心节点模型,在所述边缘节点中通过基于当前边缘设备本地数据训练得到边缘节点模型;
所述边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参数的指针,通过边缘节点中的计划函数接收中心节点传输的参数,采用中心节点的参数对本地边缘节点模型进行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练得到的新的边缘节点的参数再次通过边缘节点中的计划函数发送给中心节点;所述中心节点用于接收各个边缘设备发送的边缘节点的参数,在中心节点创建所需传输参数的指针,创建各个边缘设备的设备号,通过中心节点中的计划函数向边缘节点传输参数,对中心节点的参数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全局更新;
所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量或物理空间资源消耗总量判断是否向各边缘设备发送停止标志以结束全局更新流程;
所述边缘设备接收中心节点的参数为:中心节点模型参数和两次全局聚合之间的目前本地最优更新步数/>;所述中心节点接收边缘节点的参数为:边缘节点模型参数/>、各边缘设备的时间资源消耗量/>、物理空间资源消耗量/>、各边缘节点损失函数和训练算法所需超参数;所述中心节点在每轮全局更新时统计中心节点时间资源消耗量/>和物理空间资源消耗量/>以及各边缘设备的时间资源消耗量/>和物理空间资源消耗量/>,根据各资源消耗量自定义约束条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程。
2.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数;同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练;各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的各类别概率分布相同。
3.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述中心节点根据本次迭代中心节点和边缘节点之间参数传输过程中的时间资源消耗量和物理空间资源消耗量、本次迭代边缘设备的时间资源消耗量和物理空间资源消耗量/>、本次迭代中心节点训练时间资源消耗量和物理空间资源消耗量、本次迭代边缘节点和中心节点的时间资源消耗总量a和物理空间资源消耗总量b、梯度下降步长s以及两次全局聚合之间边缘节点模型参数训练次数/>,计算得到资源消耗量约束条件。
4.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针,通过计划函数进行传递;所述通信数据包括边缘节点模型的模型参数、各边缘设备更新的时间资源消耗量/>和物理空间资源消耗量/>、各边缘设备损失函数、中心节点模型的模型参数/>、两次全局聚合之间的目前边缘节点更新最优步数/>。
5.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘设备包括:
边缘初始化单元,用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
边缘参数获取单元,用于接收中心节点发送的中心节点模型的模型参数及两次全局聚合之间目前的边缘节点更新最优步数/>;
边缘计算单元,用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量和物理空间资源消耗量/>;
边缘数据传输单元,用于创建本边缘节点模型的模型参数、本次边缘设备更新的时间资源消耗量/>,物理空间资源消耗量/>和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型参数/>、本次本边缘设备更新的时间资源消耗量/>,物理空间资源消耗量/>和本边缘设备的损失函数;
边缘判断单元,用于判断是否接收到中心节点发送的停止标志;
边缘再处理单元,用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到中心节点发送的停止标志,则接收中心节点模型的模型参数,创建本边缘节点损失函数的指针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心节点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数/>;
边缘输出单元,用于在模型迭代训练终止后输出本边缘设备的损失函数。
6.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述主机设备包括:
主机输入单元,用于输入包括时间资源消耗总预设量和物理空间资源消耗总预设量,中心节点迭代次数t,预设两次全局聚合之间边缘节点更新最优步数及两次全局聚合之间边缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数及迭代次数,创建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数及两次全局聚合之间的目前边缘节点更新最优步数/>及迭代次数的指针,通过计划函数传输中心节点模型参数/>及两次全局聚合之间的目前边缘节点更新最优步数/>及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数、时间资源消耗量/>、物理空间资源消耗量/>及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步数,计算时间资源消耗总量a和物理空间资源消耗总量b;
主机判断单元,用于判断时间资源消耗总量a和物理空间资源消耗总量b是否满足资源约束条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务;其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数、时间资源消耗量/>、物理空间资源消耗量/>及损失函数,更新中心节点的模型参数/>和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更新最优步数/>的指针,通过计划函数传输中心节点模型参数/>及两次全局聚合之间的目前边缘节点更新最优步数/>至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
7.根据权利要求6所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
S12,接收中心节点发送的中心节点模型的模型参数及两次全局聚合之间目前的边缘节点更新最优步数/>;
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量和物理空间资源消耗量/>;
S14,创建本边缘节点模型的模型参数、本次边缘设备更新的时间资源消耗量/>,物理空间资源消耗量/>和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型参数/>、本次本边缘设备更新的时间资源消耗量/>,物理空间资源消耗量/>和本边缘设备的损失函数至中心节点;
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则接收中心节点模型的模型参数,创建本边缘节点损失函数的指针,通过计划函数传递本边缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12;
S16,输出本边缘设备的损失函数。
8.根据权利要求7所述的基于联邦学习的无线边缘计算系统,其特征在于,所述主机设备的工作流程包括:
S21,输入包括时间资源消耗总预设量和物理空间资源消耗总预设量,中心节点迭代次数t,预设两次全局聚合之间边缘设备本地更新最优步数及两次全局聚合之间边缘设备本地更新最大步数在内的各项参数;
S22,初始化两次全局聚合之间本地更新的最优步数及迭代次数,创建挂钩,创建各个边缘设备的编号,获取数据集,构建计划函数,制定协议并对协议进行部署,基于神经网络搭建中心节点模型;
S23,创建中心节点模型参数及两次全局聚合之间边缘节点更新最优步数/>及迭代次数的指针,通过计划函数传输中心节点模型参数/>及两次全局聚合之间边缘节点更新最优步数/>及迭代次数至各个边缘设备,使其更新迭代次数;
S24,接收到各个边缘设备的模型参数、时间资源消耗量/>、物理空间资源消耗量/>及损失函数;
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步数,计算时间资源消耗总量a和物理空间资源消耗总量b;
S26,判断时间资源消耗总量a和物理空间资源消耗总量b是否满足资源约束条件或者中心节点是否达到设定迭代次数:若超出资源消耗总量或者中心节点达到设定迭代次数,则训练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数、时间资源消耗量/>、物理空间资源消耗量/>及损失函数,更新中心节点模型的模型参数/>和损失函数,更新目前边缘节点最优模型参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型参数,转入步骤S27;否则返回步骤S23;
S27,输出中心节点的损失函数。
9.一种基于权利要求1-8任一项所述系统的模拟真实系统收敛过程的优化方法,其特征在于,所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量或物理空间资源消耗总量判断是否向各边缘设备发送停止标志以结束全局更新流程;所述边缘设备接收中心节点的参数为:中心节点模型参数,两次全局聚合之间的目前本地最优更新步数/>;所述中心节点接收边缘节点的参数为:边缘节点模型参数/>,各边缘设备的时间资源消耗量/>,物理空间资源消耗量/>,各边缘节点损失函数,训练算法所需超参数;所述中心节点在每轮全局更新时统计中心节点时间资源消耗量/>和物理空间资源消耗量/>以及各边缘设备的时间资源消耗量/>和物理空间资源消耗量/>,根据各资源消耗量自定义约束条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程。
10.根据权利要求9所述的模拟真实系统收敛过程的优化方法,其特征在于,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数;同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练;各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的各类别概率分布相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110508909.8A CN113312177B (zh) | 2021-05-11 | 2021-05-11 | 一种基于联邦学习的无线边缘计算系统、优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110508909.8A CN113312177B (zh) | 2021-05-11 | 2021-05-11 | 一种基于联邦学习的无线边缘计算系统、优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113312177A CN113312177A (zh) | 2021-08-27 |
CN113312177B true CN113312177B (zh) | 2024-03-26 |
Family
ID=77372971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110508909.8A Active CN113312177B (zh) | 2021-05-11 | 2021-05-11 | 一种基于联邦学习的无线边缘计算系统、优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113312177B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837108B (zh) * | 2021-09-26 | 2023-05-23 | 重庆中科云从科技有限公司 | 人脸识别方法、装置及计算机可读存储介质 |
CN113971090B (zh) * | 2021-10-21 | 2022-09-13 | 中国人民解放军国防科技大学 | 分布式深度神经网络的分层联邦学习方法及装置 |
CN116318465B (zh) * | 2023-05-25 | 2023-08-29 | 广州南方卫星导航仪器有限公司 | 一种多源异构网络环境下的边缘计算方法及其系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110719158A (zh) * | 2019-09-11 | 2020-01-21 | 南京航空航天大学 | 基于联合学习的边缘计算隐私保护系统及保护方法 |
CN110889509A (zh) * | 2019-11-11 | 2020-03-17 | 安徽超清科技股份有限公司 | 一种基于梯度动量加速的联合学习方法及装置 |
CN111176929A (zh) * | 2019-11-29 | 2020-05-19 | 广东工业大学 | 一种面向边缘联邦学习的高能效计算通信联合优化方法 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112700639A (zh) * | 2020-12-07 | 2021-04-23 | 电子科技大学 | 一种基于联邦学习与数字孪生的智能交通路径规划方法 |
-
2021
- 2021-05-11 CN CN202110508909.8A patent/CN113312177B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110719158A (zh) * | 2019-09-11 | 2020-01-21 | 南京航空航天大学 | 基于联合学习的边缘计算隐私保护系统及保护方法 |
CN110889509A (zh) * | 2019-11-11 | 2020-03-17 | 安徽超清科技股份有限公司 | 一种基于梯度动量加速的联合学习方法及装置 |
CN111176929A (zh) * | 2019-11-29 | 2020-05-19 | 广东工业大学 | 一种面向边缘联邦学习的高能效计算通信联合优化方法 |
CN112565331A (zh) * | 2020-11-02 | 2021-03-26 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
CN112700639A (zh) * | 2020-12-07 | 2021-04-23 | 电子科技大学 | 一种基于联邦学习与数字孪生的智能交通路径规划方法 |
Non-Patent Citations (2)
Title |
---|
Adaptive Federated Learning in Resource Constrained Edge Computing Systems;Shiqiang Wang等;《IEEE Journal on Selected Areas in Communications》;全文 * |
联邦学习安全与隐私保护综述;陈兵等;《南京航空航天大学学报》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113312177A (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113312177B (zh) | 一种基于联邦学习的无线边缘计算系统、优化方法 | |
Lin et al. | Task offloading for wireless VR-enabled medical treatment with blockchain security using collective reinforcement learning | |
CN101973031B (zh) | 云机器人系统及实现方法 | |
CN111629380B (zh) | 面向高并发多业务工业5g网络的动态资源分配方法 | |
CN111708640A (zh) | 一种面向边缘计算的联邦学习方法和系统 | |
CN110968426B (zh) | 一种基于在线学习的边云协同k均值聚类的模型优化方法 | |
CN112598150B (zh) | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 | |
CN110401964A (zh) | 一种面向用户为中心网络基于深度学习的功率控制方法 | |
Liu et al. | Task scheduling in fog enabled Internet of Things for smart cities | |
CN109788489A (zh) | 一种基站规划方法及装置 | |
CN110300417B (zh) | 无人机通信网络的能量效率优化方法和装置 | |
CN113033712A (zh) | 一种基于联邦学习的多用户协同训练人流统计方法及系统 | |
CN115310360A (zh) | 基于联邦学习的数字孪生辅助工业物联网可靠性优化方法 | |
CN114298178A (zh) | 一种多智能体的通信学习方法 | |
Li et al. | Data analytics for fog computing by distributed online learning with asynchronous update | |
Wang | Collaborative task offloading strategy of UAV cluster using improved genetic algorithm in mobile edge computing | |
Guo et al. | A novel cluster-head selection algorithm based on hybrid genetic optimization for wireless sensor networks | |
CN116489708B (zh) | 面向元宇宙的云边端协同的移动边缘计算任务卸载方法 | |
CN116542319A (zh) | 边缘计算环境中基于数字孪生的自适应联邦学习方法及系统 | |
CN112215326A (zh) | 一种分布式ai系统 | |
Chen et al. | Research on network management technology of power line carrier communication in low-voltage distribution network based on digital twin | |
CN114022731A (zh) | 基于drl的联邦学习节点选择方法 | |
Shi et al. | Multi-UAV-assisted computation offloading in DT-based networks: A distributed deep reinforcement learning approach | |
Zhang et al. | Deploying GIS services into the edge: A study from performance evaluation and optimization viewpoint | |
CN102882727B (zh) | 一种层次化监测网络的监测区域划分方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |