CN113312177A - 一种基于联邦学习的无线边缘计算系统、优化方法 - Google Patents

一种基于联邦学习的无线边缘计算系统、优化方法 Download PDF

Info

Publication number
CN113312177A
CN113312177A CN202110508909.8A CN202110508909A CN113312177A CN 113312177 A CN113312177 A CN 113312177A CN 202110508909 A CN202110508909 A CN 202110508909A CN 113312177 A CN113312177 A CN 113312177A
Authority
CN
China
Prior art keywords
edge
node
resource consumption
model
central node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110508909.8A
Other languages
English (en)
Other versions
CN113312177B (zh
Inventor
黄洋
陈丽宇
秦尉博
崔璨
王绍宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110508909.8A priority Critical patent/CN113312177B/zh
Publication of CN113312177A publication Critical patent/CN113312177A/zh
Application granted granted Critical
Publication of CN113312177B publication Critical patent/CN113312177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/502Proximity

Abstract

本发明公开了一种基于联邦学习的无线边缘计算仿真系统和模拟真实系统收敛过程的优化方法。中心节点在每轮全局更新时统计各边缘设备的时间和物理空间资源消耗量,将统计结果与消耗资源总预算量做比对,判断是否进行下一轮全局更新或者创建对应指针,向各边缘设备发送停止标志以结束全局更新流程;中心节点考量各边缘节点数据集规模,从而为各子节点设计不同权重;中心节点针对权重数据创建对应指针,通过计划函数进行传递数据,之后中心节点进行迭代训练。本发明可以实现对无线边缘计算进行仿真,通过加入对各设备资源消耗量的考量,附加仿真系统训练收敛条件,根据各边缘节点数据集规模优化中心节点训练过程,从而提高仿真系统训练效果与真实性。

Description

一种基于联邦学习的无线边缘计算系统、优化方法
技术领域
本发明涉及边缘计算技术领域,具体而言涉及一种基于联邦学习的无线边缘计算系统、 模拟真实系统收敛过程的优化方法。
背景技术
随着万物互联时代的到来,网络边缘设备产生的数据量快速增加,带来了更高的数据传输 带宽需求,同时,新型应用也对数据处理的实时性提出了更高要求,传统云计算模型已经无法 有效应对,因此,边缘计算应运而生。在已经被提上研究议程的新一代移动网络中,无线边缘 计算被视作关键支柱技术。图7是现有技术中一种典型的边缘计算体系结构,多个边缘节点 与远程云一起工作,执行涉及本地处理和远程协调/执行的大规模分布式任务。无线边缘计算 的新兴技术使本地数据存储和处理成为可能,其中边缘节点,如传感器、家庭网关和微服务 器都具备存储和计算能力。从长远看,移动终端智能性不断以提升,充分利用边缘设备计算 能力、降低智能终端功耗、降低延迟,将云计算下沉到网络边缘,通过终端及边缘节点在无 线资源、计算资源层面的协同,可以提升用户体验。
边缘计算节点的分布式和异构型也决定其难以进行统一的管理,从而导致一系列新的安 全问题和隐私泄露等问题,而联邦学习能够在数据不共享的条件下实现数据信息的交流和整 合。因此,结合联邦学习来实现边缘计算可以满足现下的发展要求。
发明内容
本发明针对现有技术中的不足,提供一种基于联邦学习的无线边缘计算仿真系统、模拟 真实系统收敛过程的优化方法,可以实现无线边缘计算仿真仿真系统的优化,通过考量系统 所消耗的时间和物理空间资源,自定义约束条件、自定义损失函数和附加仿真系统训练收敛 条件,提高整个仿真系统的训练效果与真实性,适用于人工智能、物联网、车联网、视频优 化加速、增强现实(AR)以及监控视频分析等诸多领域。
为实现上述目的,本发明采用以下技术方案:
第一方面,本发明实施例提及了一种基于联邦学习的无线边缘计算仿真系统,所述无线 边缘计算系统包括采用主机设备仿真得到的中心节点和多个采用嵌入式设备仿真得到的边缘 节点;在所述中心节点中通过基于主机设备本地数据训练得到中心节点模型,在所述边缘节 点中通过基于当前边缘设备本地数据训练得到边缘节点模型;
所述边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参 数的指针,通过边缘节点中的计划函数接收中心节点传输的参数,采用中心节点的参数对本 地边缘节点模型进行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练 得到的新的边缘节点的参数再次通过边缘节点中的计划函数发送给中心节点;所述中心节点 用于接收各个边缘设备发送的边缘节点的参数,在中心节点创建所需传输参数的指针,创建 各个边缘设备的设备号,通过中心节点中的计划函数向边缘节点传输参数,对中心节点的参 数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全局更新;
所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空 间资源消耗总量b判断是否向各边缘设备发送停止标志以结束全局更新流程;
所述边缘设备接收中心节点的参数为:中心节点模型参数ec和两次全局聚合之间的目前 本地最优更新步数tf;所述中心节点接收边缘节点的参数为:边缘节点模型参数ef、各边缘 设备的时间资源消耗量afi、物理资源消耗量bfi、各边缘节点损失函数和训练算法所需超参数; 所述中心节点在每轮全局更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以 及各边缘设备的时间资源消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束 条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结 束全局更新流程。
进一步地,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数; 同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练; 各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的 各类别概率分布相同。
进一步地,所述中心节点根据本次迭代中心节点和边缘节点之间参数传输过程中的时间 资源消耗量和物理空间资源消耗量、本次迭代边缘节点训练时间资源消耗量afi和物理空间资 源消耗量bfi、本次迭代中心节点训练时间资源消耗量和物理空间资源消耗量、本次迭代边缘 节点和中心节点总的时间资源消耗量a和总的物理空间消耗量b、梯度下降步长s以及两次全 局聚合之间边缘节点模型参数训练次数tfi,计算得到资源消耗量约束条件。
进一步地,所述边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针, 通过计划函数进行传递;所述通信数据包括边缘节点模型的模型参数ef、各边缘设备更新的 时间资源消耗量afi和物理空间资源消耗量bfi、各边缘设备损失函数、中心节点模型的模型参 数ec、两次全局聚合之间的目前边缘节点更新最优步数tf
进一步地,所述边缘设备包括:
边缘初始化单元,用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计 划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
边缘参数获取单元,用于接收中心节点发送的中心节点模型的模型参数ec及两次全局聚 合之间目前的边缘节点更新最优步数tf
边缘计算单元,用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模 型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量afi和物理空间资源消耗 量bfi
边缘数据传输单元,用于创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间 资源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本 边缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗 量bfi和本边缘设备的损失函数;
边缘判断单元,用于判断是否接收到中心节点发送的停止标志;
边缘再处理单元,用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到 中心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的 指针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心 节点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数tf
边缘输出单元,用于在模型迭代训练终止后输出本边缘设备的损失函数。
进一步地,所述主机设备包括:
主机输入单元,用于输入包括时间资源消耗总预设量a和物理空间资源消耗总预设量b, 中心节点迭代次数t,预设两次全局聚合之间边缘节点更新最优步数tf及两次全局聚合之间边 缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创 建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经 网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数ec及两次全局聚合之间的目前边缘节点 更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合 之间的目前边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理 空间资源消耗量bfi及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前 本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;
主机判断单元,用于判断时间资源消耗总量和物理空间资源消耗总量是否满足资源约束 条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务; 其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创 建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收 各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新 中心节点的模型参数ec和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更 新最优步数tf的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间的目前边 缘节点更新最优步数tf至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
进一步地,所述边缘设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议, 并对协议进行部署,基于神经网络搭建边缘节点模型;
S12,接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节 点更新最优步数tf
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新 的时间资源消耗量afi和物理空间资源消耗量bfi
S14,创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理 空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型 参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的 损失函数至中心节点;
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则 接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边 缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12;
S16,输出本边缘设备的损失函数。
进一步地,所述主机设备的工作流程包括:
S21,输入包括时间资源消耗总预算量a和物理空间资源消耗总预算量b,中心节点迭代 次数t,预设两次全局聚合之间边缘设备本地更新最优步数tf及两次全局聚合之间边缘设备本 地更新最大步数在内的各项参数;S22,初始化两次全局聚合之间本地更新的最优步数tf及迭 代次数,创建挂钩,创建各个边缘设备的编号,获取数据集,构建计划函数,制定协议并对 协议进行部署,基于神经网络搭建中心节点模型;
S23,创建中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数 的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
S24,接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及 损失函数;
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步 数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;S26,判断时间资源消耗总 量a和物理空间资源消耗总量b是否满足资源约束条件或者中心节点是否达到设定迭代次数: 若超出资源消耗总量或者中心节点达到设定迭代次数,则训练中心节点模型,创建参数指针, 通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点 的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新中心节点模型 的模型参数ec和损失函数,更新目前边缘节点最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数,转入步骤S27;否则返回步骤S23;
S27,输出中心节点的损失函数。
第二方面,本发明实施例提及了一种模拟真实系统收敛过程的优化方法,所述模拟真实 系统收敛过程优化方法包括:
中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空间资 源消耗总量b判断是否向个边缘设备发送停止标志以结束全局更新流程。所述边缘设备接收 中心节点的参数为:中心节点模型参数ec,两次全局聚合之间的目前本地最优更新步数tf。 所述中心节点接收边缘节点的参数为:边缘节点模型参数ef,各边缘设备的时间资源消耗量afi, 物理资源消耗量bfi,各边缘节点损失函数,训练算法所需超参数。所述中心节点在每轮全局 更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以及各边缘设备的时间资源 消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束条件,根据是否满足约束 判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程;
进一步地,各边缘节点参数训练过程中,自定义新的损失函数。其中,自定义损失函数 基于均方误差损失函数定义,同时考量各边缘节点数据集规模,而为各边缘节点赋予不同权 重后进行迭代式训练。其中,各边缘节点数据集规模定义为,各边缘节点初始分配到的数据 集量级。其中,各边缘节点数据集特征为,各类别概率分布相同。
所述的中心节点资源消耗量约束条件所需参数为:本次迭代中心节点和边缘节点之间参 数传输过程中的时间资源消耗量和物理空间资源消耗量、本次迭代边缘节点训练时间资源消 耗量afi和物理空间资源消耗量bfi、本次迭代中心节点训练时间资源消耗量和物理空间资源消 耗量、本次迭代边缘节点和中心节点总的时间资源消耗量a和总的物理空间消耗量b、梯度 下降步长s以及两次全局聚合之间边缘节点模型参数训练次数tfi
所述的边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针,通过计划 函数进行传递;所述通信数据包括边缘节点模型的模型参数ef、各边缘设备更新的时间资源 消耗量afi和物理空间资源消耗量bfi、各边缘设备损失函数、中心节点模型的模型参数ec、两 次全局聚合之间的目前边缘节点更新最优步数tf
本发明的有益效果是:
(1)本发明可以实现无线边缘计算仿真系统的优化,通过考量整个系统所消耗的时间和 物理空间资源,自定义约束条件、自定义损失函数和附加仿真系统训练收敛条件,提高整个 仿真系统的训练效果与真实性,适用于人工智能、物联网、车联网、视频优化加速、增强现 实(AR)以及监控视频分析等诸多领域。
(2)通过加入对各设备时间和物理空间资源消耗量的考量,附加仿真系统训练收敛条件, 根据各边缘节点数据集规模优化中心节点的训练过程,从而提高仿真系统训练效果与真实性。
附图说明
图1是本实施例的基于联邦学习的无线边缘计算系统和模拟真实系统收敛过程的优化 方法模型示意图。
图2是本实施例的边缘节点结构示意图。
图3是本实施例的中心节点结构示意图。
图4是本实施例提供的边缘设备的数据传输模块、参数训练模块与中心节点的数据传输 模块、参数训练模块的整体架构。
图5是本实施例提供的边缘节点基于联邦学习的无线边缘计算系统的具体流程图。
图6是本实施例提供的中心节点基于联邦学习的无线边缘计算系统的具体流程图。
图7是现有技术中一种典型的边缘计算体系结构。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
需要注意的是,发明中所引用的如“上”、“下”、“左”、“右”、“前”、“后” 等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变 或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
实施例一
图1是本实施例的基于联邦学习的无线边缘计算系统和模拟真实系统收敛过程优化方 法模型示意图。参见图1,该无线边缘计算系统包括采用主机设备仿真得到的中心节点和多 个采用嵌入式设备仿真得到的边缘节点;在中心节点中通过基于主机设备本地数据训练得到 中心节点模型,在边缘节点中通过基于当前边缘设备本地数据训练得到边缘节点模型。图2 是本实施例的边缘节点结构示意图,通过可灵活部署操作系统并进行深度学习运算的嵌入式 设备,通过该嵌入式设备仿真各边缘节点,进行本地学习,更新在线无线/计算分配资源模型。 图3是本实施例的中心节点结构示意图。在中心节点中指定各边缘设备的位置,使用中心节 点作为中央协调实体,负责将模型参数分发给当前在边缘设备上运行的工作程序。中心节点 和边缘设备通过各自所属的数据传输模块进行数据交互。
中心节点创建挂钩,然后初始化模型参数。每个数据所有者首先在本地对模型进行几次 迭代训练,然后对模型参数进行更新,边缘设备再将他们更新的模型参数发送给主机部分。
边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参数的 指针,通过计划函数接收中心节点传输的参数,采用中心节点的参数对本地边缘节点模型进 行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练得到的新的边缘节 点的模型再次通过计划函数发送给中心节点。中心节点用于接收各个边缘设备发送的边缘节 点的参数,对中心节点的参数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全 局更新。需要强调的是,为了确保节点之间的数据私密性,本实施例是在不访问远程和私有 数据的情况下,采用本地数据训练模型。对于每一批训练数据,边缘设备进行模型参数更新 后将其发送到中心节点,中心节点进行模型参数更新后再发送给边缘设备,不停地迭代,接 近最佳训练模型为止。
具体的,首先,各边缘设备即嵌入式设备开始训练各边缘节点模型,各边缘节点模型是 利用各边缘设备(嵌入式设备)的本地数据训练得到的,各边缘设备(嵌入式设备)本地数 据为储存在对应边缘设备(嵌入式设备)的数据集。中心节点即主机设备开始训练中心节点 模型,中心节点模型是利用中心节点(主机设备)的本地数据训练得到的,中心节点(主机 设备)的本地数据为储存在对应设备(主机设备)的数据集。其次,各边缘节点向中心节点 传输本地训练模型参数efi,本地训练模型参数efi为各边缘节点在一个周期内训练模型结果。 最后,由中心节点即主机设备将各个边缘节点即嵌入式设备的传输的模型参数efi进行聚合, 得到的模型参数训练结果再传输给各个边缘节点,边缘节点更新本地模型参数ec后,继续训 练,进而实现全局更新。
图4是本实施例提供的边缘设备的数据传输模块、参数训练模块与中心节点的数据传输 模块、参数训练模块的整体架构。
(一)边缘设备
在本实施例中,边缘设备包括边缘初始化单元、边缘参数获取单元、边缘计算单元、边 缘数据传输单元、边缘判断单元、边缘再处理单元和边缘输出单元。
边缘初始化单元用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划 函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型。
边缘参数获取单元用于接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合 之间目前的边缘节点更新最优步数tf
边缘计算单元用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模型, 得到相应的模型参数,以及计算本次本地更新总的时间资源消耗量afi和物理空间资源消耗量 bfi
边缘数据传输单元用于创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资 源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边 缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量 bfi和本边缘设备的损失函数。
边缘判断单元用于判断是否接收到中心节点发送的停止标志。
边缘再处理单元用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到中 心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指 针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心节 点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数tf
边缘输出单元用于在模型迭代训练终止后输出本边缘设备的损失函数。
图5是本实施例提供的边缘节点基于联邦学习的无线边缘计算系统的具体流程图。边缘 设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议, 并对协议进行部署,基于神经网络搭建边缘节点模型。
S12,接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节 点更新最优步数tf
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新 的时间资源消耗量afi和物理空间资源消耗量bfi
S14,创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理 空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型 参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的 损失函数至中心节点。
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则 接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边 缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12。
S16,输出本边缘设备的损失函数。
(二)主机设备
主机设备包括主机输入单元、主机初始化单元、主机数据传输单元、主机参数获取单元、 主机计算单元、主机判断单元、主机再处理单元和主机输出单元。
主机输入单元,用于输入包括时间资源消耗总预设量a和物理空间资源消耗总预设量b, 中心节点迭代次数,预设两次全局聚合之间边缘节点更新最优步数的步长tf及两次全局聚合 之间边缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创 建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经 网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数ec及两次全局聚合之间的目前边缘节点 更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合 之间的目前边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理 空间资源消耗量bfi及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前 本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;
主机判断单元,用于判断时间资源消耗总量和物理空间资源消耗总量是否满足资源约束 条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务; 其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创 建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收 各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新 中心节点的模型参数ec和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数 传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型 参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更 新最优步数tf的指针,通过计划函数传输中心节点参数ec及两次全局聚合之间的目前边缘节 点更新最优步数tf至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
图6是本实施例提供的中心节点基于联邦学习的无线边缘计算系统的具体流程图。主机 设备的工作流程包括:
S21,输入包括时间资源消耗总预算量a和物理空间资源消耗总预算量b,中心节点迭代 次数,预设两次全局聚合之间边缘设备本地更新最优步数tf及两次全局聚合之间边缘设备本 地更新最大步数在内的各项参数。
S22,初始化两次全局聚合之间本地更新的最优步数及迭代次数,创建挂钩,创建各个边 缘设备的编号,获取数据集,构建计划函数,制定协议并协议进行部署,基于神经网络搭建 中心节点模型。
S23,创建中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数 的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数 tf及迭代次数至各个边缘设备,使其更新迭代次数。
S24,接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及 损失函数。
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步 数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b。
S26,判断时间资源消耗总量a和物理空间资源消耗总量b是否满足资源约束条件或者中 心节点是否达到设定迭代次数:若超出资源消耗总量或者中心节点达到设定迭代次数,则训 练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志, 更新迭代次数,接收各个边缘节点模的模型参数efi、时间资源消耗量afi、物理空间资源消耗 量bfi及损失函数,更新中心节点模型的模型参数ec和损失函数,更新目前边缘节点最优模型 参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节 点的损失函数,得到最终的最优模型参数,转入步骤S27;否则返回步骤S23。
S27,输出中心节点的损失函数。
本实施例通过可灵活部署操作系统并进行深度学习运算的嵌入式设备,通过该嵌入式设 备仿真各边缘节点,进行本地学习,更新在线无线/计算分配资源模型。在中心节点(主机设 备)和边缘节点(嵌入式设备)上部署基于联邦学习的无线边缘计算架构,基于联邦学习算 法对传输数据进行加密保护;仿真各边缘节点,并更新本地无线资源分配方案;仿真中心节点, 汇聚模型参数,并更新分布式模型的参数,从而实现全局无线资源分配方案。可以有效减少 对计算资源的消耗,提高数据精度,达到提高整个无线边缘计算仿真系统训练效果与真实性 的目的。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于 本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术 人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (10)

1.一种基于联邦学习的无线边缘计算系统,其特征在于,所述无线边缘计算系统包括采用主机设备仿真得到的中心节点和多个采用嵌入式设备仿真得到的边缘节点;在所述中心节点中通过基于主机设备本地数据训练得到中心节点模型,在所述边缘节点中通过基于当前边缘设备本地数据训练得到边缘节点模型;
所述边缘设备用于接收中心节点传输回的中心节点的参数,在边缘节点创建所需传输参数的指针,通过边缘节点中的计划函数接收中心节点传输的参数,采用中心节点的参数对本地边缘节点模型进行更新后,采用本地数据对本地边缘节点模型继续进行迭代训练,将训练得到的新的边缘节点的参数再次通过边缘节点中的计划函数发送给中心节点;所述中心节点用于接收各个边缘设备发送的边缘节点的参数,在中心节点创建所需传输参数的指针,创建各个边缘设备的设备号,通过中心节点中的计划函数向边缘节点传输参数,对中心节点的参数进行聚合更新,并将更新结果反馈至各个边缘节点,以进行全局更新;
所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空间资源消耗总量b判断是否向各边缘设备发送停止标志以结束全局更新流程;
所述边缘设备接收中心节点的参数为:中心节点模型参数ec和两次全局聚合之间的目前本地最优更新步数tf;所述中心节点接收边缘节点的参数为:边缘节点模型参数ef、各边缘设备的时间资源消耗量afi、物理资源消耗量bfi、各边缘节点损失函数和训练算法所需超参数;所述中心节点在每轮全局更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以及各边缘设备的时间资源消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程。
2.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数;同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练;各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的各类别概率分布相同。
3.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述中心节点根据本次迭代中心节点和边缘节点之间参数传输过程中的时间资源消耗量和物理空间资源消耗量、本次迭代边缘节点训练时间资源消耗量afi和物理空间资源消耗量bfi、本次迭代中心节点训练时间资源消耗量和物理空间资源消耗量、本次迭代边缘节点和中心节点总的时间资源消耗量a和总的物理空间消耗量b、梯度下降步长s以及两次全局聚合之间边缘节点模型参数训练次数tfi,计算得到资源消耗量约束条件。
4.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘节点与中心节点之间的通信方式为:针对通信数据创建对应指针,通过计划函数进行传递;所述通信数据包括边缘节点模型的模型参数ef、各边缘设备更新的时间资源消耗量afi和物理空间资源消耗量bfi、各边缘设备损失函数、中心节点模型的模型参数ec、两次全局聚合之间的目前边缘节点更新最优步数tf
5.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘设备包括:
边缘初始化单元,用于创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
边缘参数获取单元,用于接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节点更新最优步数tf
边缘计算单元,用于根据边缘参数获取单元的接收数据更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量afi和物理空间资源消耗量bfi
边缘数据传输单元,用于创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的损失函数;
边缘判断单元,用于判断是否接收到中心节点发送的停止标志;
边缘再处理单元,用于根据边缘判断单元的判断结果执行再处理任务,其中,若接收到中心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边缘设备的损失函数;否则驱使边缘参数获取单元再次接收中心节点发送的中心节点的参数及两次全局聚合之间的目前边缘节点更新最优步数tf
边缘输出单元,用于在模型迭代训练终止后输出本边缘设备的损失函数。
6.根据权利要求1所述的基于联邦学习的无线边缘计算系统,其特征在于,所述主机设备包括:
主机输入单元,用于输入包括时间资源消耗总预设量a和物理空间资源消耗总预设量b,中心节点迭代次数t,预设两次全局聚合之间边缘节点更新最优步数tf及两次全局聚合之间边缘设备本地更新最大步数在内的各项参数;
主机初始化单元,用于初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创建挂钩,创建各个边缘设备的编号,构建计划函数,制定协议并对协议进行部署,基于神经网络搭建中心节点模型;
主机数据传输单元,用于创建中心节点模型参数ec及两次全局聚合之间的目前边缘节点更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间的目前边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
主机参数获取单元,用于接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数;
主机计算单元,用于更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;
主机判断单元,用于判断时间资源消耗总量和物理空间资源消耗总量是否满足资源约束条件,中心节点是否达到设定迭代次数;
主机再处理单元,用于根据主机判断单元的判断结果判断是否终止模型迭代训练任务;其中,若不满足资源约束条件或者中心节点已达到设定迭代次数,则训练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新中心节点的模型参数ec和损失函数,更新目前最优模型参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型参数;否则驱使主机数据传输单元创建中心节点参数及两次全局聚合之间的目前边缘节点更新最优步数tf的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间的目前边缘节点更新最优步数tf至各个边缘设备,使其更新迭代次数;
主机输出单元,用于在模型迭代训练终止后输出中心节点的损失函数。
7.根据权利要求6所述的基于联邦学习的无线边缘计算系统,其特征在于,所述边缘设备的工作流程包括以下步骤:
S11,创建挂钩,创建中心节点设备的编号,获取本地数据集,构建计划函数,制定协议,并对协议进行部署,基于神经网络搭建边缘节点模型;
S12,接收中心节点发送的中心节点模型的模型参数ec及两次全局聚合之间目前的边缘节点更新最优步数tf
S13,更新迭代次数,训练边缘节点模型,得到相应的模型参数,以及计算本次本地更新的时间资源消耗量afi和物理空间资源消耗量bfi
S14,创建本边缘节点模型的模型参数ef、本次边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备损失函数的指针,通过计划函数传递本边缘节点模型的模型参数ef、本次本边缘设备更新的时间资源消耗量afi,物理空间资源消耗量bfi和本边缘设备的损失函数至中心节点;
S15,判断是否接收到中心节点发送的停止标志:若接收到中心节点发送的停止标志,则接收中心节点模型的模型参数ec,创建本边缘节点损失函数的指针,通过计划函数传递本边缘设备的损失函数至中心节点,进入步骤S16;否则,返回步骤S12;
S16,输出本边缘设备的损失函数。
8.根据权利要求7所述的基于联邦学习的无线边缘计算系统,其特征在于,所述主机设备的工作流程包括:
S21,输入包括时间资源消耗总预算量a和物理空间资源消耗总预算量b,中心节点迭代次数t,预设两次全局聚合之间边缘设备本地更新最优步数tf及两次全局聚合之间边缘设备本地更新最大步数在内的各项参数;S22,初始化两次全局聚合之间本地更新的最优步数tf及迭代次数,创建挂钩,创建各个边缘设备的编号,获取数据集,构建计划函数,制定协议并对协议进行部署,基于神经网络搭建中心节点模型;
S23,创建中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数的指针,通过计划函数传输中心节点模型参数ec及两次全局聚合之间边缘节点更新最优步数tf及迭代次数至各个边缘设备,使其更新迭代次数;
S24,接收到各个边缘设备的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数;
S25,更新中心节点损失函数、最优模型参数及两次全局聚合之间的目前本地更新最优步数tf,计算总的时间资源消耗量a和总的物理空间资源消耗量b;S26,判断时间资源消耗总量a和物理空间资源消耗总量b是否满足资源约束条件或者中心节点是否达到设定迭代次数:若超出资源消耗总量或者中心节点达到设定迭代次数,则训练中心节点模型,创建参数指针,通过计划函数传递参数,并向各边缘设备发送停止标志,更新迭代次数,接收各个边缘节点的模型参数efi、时间资源消耗量afi、物理空间资源消耗量bfi及损失函数,更新中心节点模型的模型参数ec和损失函数,更新目前边缘节点最优模型参数,创建参数指针,通过计划函数传递参数,接收各个边缘设备的损失函数,更新中心节点的损失函数,得到最终的最优模型参数,转入步骤S27;否则返回步骤S23;
S27,输出中心节点的损失函数。
9.一种基于权利要求1-8任一项所述系统的模拟真实系统收敛过程的优化方法,其特征在于,所述中心节点根据是否达到设定迭代次数或者达到预设的时间资源消耗总量a或物理空间资源消耗总量b判断是否向各边缘设备发送停止标志以结束全局更新流程;所述边缘设备接收中心节点的参数为:中心节点模型参数ec,两次全局聚合之间的目前本地最优更新步数tf。所述中心节点接收边缘节点的参数为:边缘节点模型参数ef,各边缘设备的时间资源消耗量afi,物理资源消耗量bfi,各边缘节点损失函数,训练算法所需超参数。所述中心节点在每轮全局更新时统计中心节点时间资源消耗量ac和物理空间资源消耗量bc以及各边缘设备的时间资源消耗量afi和物理空间资源消耗量bfi,根据各资源消耗量自定义约束条件,根据是否满足约束判断是否进行下一轮全局更新或者向各边缘设备发送停止标志以结束全局更新流程。
10.根据权利要求9所述的模拟真实系统收敛过程的优化方法,其特征在于,在各边缘节点参数训练过程中,基于均方误差损失函数自定义新的损失函数;同时在考量各边缘节点数据集规模的基础上,为各边缘节点赋予不同权重后进行迭代式训练;各边缘节点数据集规模定义为:各边缘节点初始分配到的数据集量级,各边缘节点数据集的各类别概率分布相同。
CN202110508909.8A 2021-05-11 2021-05-11 一种基于联邦学习的无线边缘计算系统、优化方法 Active CN113312177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110508909.8A CN113312177B (zh) 2021-05-11 2021-05-11 一种基于联邦学习的无线边缘计算系统、优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110508909.8A CN113312177B (zh) 2021-05-11 2021-05-11 一种基于联邦学习的无线边缘计算系统、优化方法

Publications (2)

Publication Number Publication Date
CN113312177A true CN113312177A (zh) 2021-08-27
CN113312177B CN113312177B (zh) 2024-03-26

Family

ID=77372971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110508909.8A Active CN113312177B (zh) 2021-05-11 2021-05-11 一种基于联邦学习的无线边缘计算系统、优化方法

Country Status (1)

Country Link
CN (1) CN113312177B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837108A (zh) * 2021-09-26 2021-12-24 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN113971090A (zh) * 2021-10-21 2022-01-25 中国人民解放军国防科技大学 分布式深度神经网络的分层联邦学习方法及装置
CN116318465A (zh) * 2023-05-25 2023-06-23 广州南方卫星导航仪器有限公司 一种多源异构网络环境下的边缘计算方法及其系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法
CN110889509A (zh) * 2019-11-11 2020-03-17 安徽超清科技股份有限公司 一种基于梯度动量加速的联合学习方法及装置
CN111176929A (zh) * 2019-11-29 2020-05-19 广东工业大学 一种面向边缘联邦学习的高能效计算通信联合优化方法
CN112565331A (zh) * 2020-11-02 2021-03-26 中山大学 一种基于边缘计算的端-边协同联邦学习优化方法
CN112700639A (zh) * 2020-12-07 2021-04-23 电子科技大学 一种基于联邦学习与数字孪生的智能交通路径规划方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法
CN110889509A (zh) * 2019-11-11 2020-03-17 安徽超清科技股份有限公司 一种基于梯度动量加速的联合学习方法及装置
CN111176929A (zh) * 2019-11-29 2020-05-19 广东工业大学 一种面向边缘联邦学习的高能效计算通信联合优化方法
CN112565331A (zh) * 2020-11-02 2021-03-26 中山大学 一种基于边缘计算的端-边协同联邦学习优化方法
CN112700639A (zh) * 2020-12-07 2021-04-23 电子科技大学 一种基于联邦学习与数字孪生的智能交通路径规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHIQIANG WANG等: "Adaptive Federated Learning in Resource Constrained Edge Computing Systems", 《IEEE JOURNAL ON SELECTED AREAS IN COMMUNICATIONS》 *
陈兵等: "联邦学习安全与隐私保护综述", 《南京航空航天大学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837108A (zh) * 2021-09-26 2021-12-24 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN113837108B (zh) * 2021-09-26 2023-05-23 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN113971090A (zh) * 2021-10-21 2022-01-25 中国人民解放军国防科技大学 分布式深度神经网络的分层联邦学习方法及装置
CN113971090B (zh) * 2021-10-21 2022-09-13 中国人民解放军国防科技大学 分布式深度神经网络的分层联邦学习方法及装置
CN116318465A (zh) * 2023-05-25 2023-06-23 广州南方卫星导航仪器有限公司 一种多源异构网络环境下的边缘计算方法及其系统
CN116318465B (zh) * 2023-05-25 2023-08-29 广州南方卫星导航仪器有限公司 一种多源异构网络环境下的边缘计算方法及其系统

Also Published As

Publication number Publication date
CN113312177B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
CN113312177A (zh) 一种基于联邦学习的无线边缘计算系统、优化方法
Tang et al. Survey on digital twin edge networks (DITEN) toward 6G
CN101973031B (zh) 云机器人系统及实现方法
CN113282368B (zh) 一种用于变电站巡视的边缘计算资源调度方法
CN113435472A (zh) 车载算力网络用户需求预测方法、系统、设备、介质
CN113033712A (zh) 一种基于联邦学习的多用户协同训练人流统计方法及系统
CN110300417B (zh) 无人机通信网络的能量效率优化方法和装置
CN110224763A (zh) 基于哈密尔顿学习的新型量子态转移方法
Lin et al. Multiobjective trajectory optimization with a cutting and padding encoding strategy for single-UAV-assisted mobile edge computing system
CN107358325A (zh) 一种物流配送中心选址方法、装置及计算机可读存储介质
CN114298178A (zh) 一种多智能体的通信学习方法
CN115954933A (zh) 电网数字孪生系统构建方法、装置、电子设备和存储介质
CN115310360A (zh) 基于联邦学习的数字孪生辅助工业物联网可靠性优化方法
Li et al. Feel: Federated end-to-end learning with non-iid data for vehicular ad hoc networks
Lin et al. A PDDQNLP algorithm for energy efficient computation offloading in UAV-assisted MEC
CN115686846A (zh) 边缘计算中融合图神经网络和强化学习的容器集群在线部署方法
Zhang et al. Graph-based traffic forecasting via communication-efficient federated learning
CN110175680B (zh) 利用分布式异步更新在线机器学习的物联网数据分析方法
CN114548416A (zh) 数据模型训练方法及装置
Jia et al. Online V2X scheduling for raw-level cooperative perception
Chen et al. Research on network management technology of power line carrier communication in low-voltage distribution network based on digital twin
Zou et al. Efficient orchestration of virtualization resource in ran based on chemical reaction optimization and q-learning
Ren et al. Balanced allocation method of physical education distance education resources based on linear prediction
CN114022731A (zh) 基于drl的联邦学习节点选择方法
CN115618532A (zh) 一种网络系统仿真方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant