CN116996941A - 基于配网云边端协同的算力卸载方法、装置及系统 - Google Patents

基于配网云边端协同的算力卸载方法、装置及系统 Download PDF

Info

Publication number
CN116996941A
CN116996941A CN202310736108.6A CN202310736108A CN116996941A CN 116996941 A CN116996941 A CN 116996941A CN 202310736108 A CN202310736108 A CN 202310736108A CN 116996941 A CN116996941 A CN 116996941A
Authority
CN
China
Prior art keywords
edge
task
cloud
task sequence
unloading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310736108.6A
Other languages
English (en)
Inventor
谢凡
甄岩
张金帅
郑利斌
徐铭铭
白晖峰
霍超
尹志斌
罗安琴
张楠
丁啸
张港红
高建
苑佳楠
申振东
李丰君
谢芮芮
冯光
尚博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
State Grid Henan Electric Power Co Ltd
Electric Power Research Institute of State Grid Henan Electric Power Co Ltd
Beijing Smartchip Microelectronics Technology Co Ltd
Original Assignee
State Grid Corp of China SGCC
State Grid Henan Electric Power Co Ltd
Electric Power Research Institute of State Grid Henan Electric Power Co Ltd
Beijing Smartchip Microelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, State Grid Henan Electric Power Co Ltd, Electric Power Research Institute of State Grid Henan Electric Power Co Ltd, Beijing Smartchip Microelectronics Technology Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN202310736108.6A priority Critical patent/CN116996941A/zh
Publication of CN116996941A publication Critical patent/CN116996941A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0917Management thereof based on the energy state of entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0925Management thereof using policies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/08Load balancing or load distribution
    • H04W28/09Management thereof
    • H04W28/0958Management thereof based on metrics or performance parameters
    • H04W28/0967Quality of Service [QoS] parameters
    • H04W28/0975Quality of Service [QoS] parameters for reducing delays

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Power Sources (AREA)

Abstract

本发明涉及通信技术领域,提供一种基于配网云边端协同的算力卸载方法、装置及系统。所述方法包括:确定端侧、边缘侧及云侧的待执行的任务序列;在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,所述算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。本发明基于配网云边端全局的总能耗和总时延进行考虑,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,实现云边端算力资源的协同卸载,从而实现云边端的算力均衡,降低时延。

Description

基于配网云边端协同的算力卸载方法、装置及系统
技术领域
本发明涉及通信技术领域,具体地涉及一种基于配网云边端协同的算力卸载方法、一种基于配网云边端协同的算力卸载装置、一种云边端协同系统以及一种计算机可读存储介质。
背景技术
传统集约化的数据中心算力和智能终端算力的可增长空间面临极大挑战。若要支持数据持续增长的机器智能时代,只有终端和数据中心两级处理无法满足要求,算力必然会从云和端向网络边缘进行扩散。数据处理的三级架构为终端、边缘和数据中心,边缘处理能力未来将高速增长,尤其是随着5G网络的全面建设,其大带宽和低时延的特征,将加速算力需求从端、云向边缘的扩散。实现高效算力需要“计算+网络”深度融合的新型网络架构“算力网络”,实现数据与算力的高吞吐、敏捷连接和均衡随选。
在电力系统中,云边端协同的网络架构已基本落地,如何实现云边端算力资源的协同卸载是目前亟需解决的问题。
发明内容
本发明提供了一种基于配网云边端协同的算力卸载方法、装置及系统。
本发明第一方面提供一种基于配网云边端协同的算力卸载方法,包括:
确定端侧、边缘侧及云侧的待执行的任务序列;
在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
本发明实施例中,所述确定端侧、边缘侧及云侧的待执行的任务序列,包括:根据执行任务所允许的最大时延确定任务优先级;根据任务优先级确定任务调度顺序;根据任务调度顺序确定任务序列。
本发明实施例中,所述根据执行任务所允许的最大时延确定任务优先级,包括:根据本地计算时延与执行任务所允许的最大时延的比值确定任务优先级。
本发明实施例中,所述算力卸载方法还包括:基于自适应阈值方法确定卸载目的侧,具体为:形成端侧、边缘侧及云侧的任务优先级矩阵;对任务优先级矩阵中元素按照从小到大排序,分别从端侧、边缘侧及云侧的任务优先级矩阵中选出中位数作为本侧任务优先级阈值;在端侧、边缘侧及云侧的任务优先级阈值下,计算端侧、边缘侧及云侧中某一侧到另一侧的卸载转移概率;根据卸载转移概率得到相应的转移函数,根据转移函数确定卸载目的侧。
本发明实施例中,所述算力卸载方法还包括:计算端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、以及云侧的任务序列被执行所需的时间和能耗。
本发明实施例中,计算端侧的任务序列被执行所需的时间和能耗,包括:计算端侧执行端侧的任务序列所需的时间和能耗;或者,计算端侧的任务序列被卸载到边缘侧执行所需的时间和能耗;
计算边缘侧的任务序列所需的执行时间和能耗,包括:计算边缘侧执行边缘侧的任务序列所需的时间和能耗;或者,计算边缘侧的任务序列被卸载到云侧执行所需的时间和能耗;
计算云侧的任务序列所需的执行时间和能耗,包括:计算云侧执行云侧的任务序列所需的时间和能耗;或者,计算云侧的任务序列被卸载到边缘侧执行所需的时间和能耗。
本发明实施例中,计算端侧执行端侧的任务序列所需的时间和能耗,包括:根据端侧设备的运行速度、所运行的任务数量以及任务的负载量计算端侧执行任务序列所需的时间;根据端侧执行任务序列所需的时间以及端侧设备在运行状态下的功率计算端侧执行任务序列的能耗。
本发明实施例中,端侧的任务序列被卸载到边缘侧执行所需的时间和能耗的计算模型为:
其中,di为任务i的数据量,Psed为端侧本地设备发送信息状态下的功率,Peg为边缘侧设备发送信息状态下的功率,Pfree-d为端侧本地设备在空闲状态下的功率,v1为边缘侧设备将数据发送给边缘服务器时的上传速度,v2为端侧本地设备接收边缘服务器信息时的速度;
根据任务量的大小及边缘服务器的运行速度确定端侧本地设备等待边缘服务器反馈结果的时间,计算公式为:
其中,Sec为边缘服务器的运行速度,ci为任务i的负载量,Tec为卸载到边缘服务器上运行的任务i的运行耗时。
本发明实施例中,所述利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,包括:
将任务序列的初始状态输入预测网络,基于所述任务序列被执行所需的时间和能耗,得到多个任务分配方案;
利用改进的多目标粒子群算法计算优化函数;
利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;
基于任务分配方案确定算力卸载方式。
本发明实施例中,所述利用改进的多目标粒子群算法计算优化函数,包括:通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
本发明实施例中,所述改进的多目标粒子群算法的粒子寻优公式为:
vid(k+1)=α{ωvid(k)+c1r1[pbid(k)-xid(k)]}+β{c2r2[gbid(k)-xid(k)]}
xid(k+1)=xid(k)+vid(k+1)
其中,v为迭代时的速度,x为迭代时的位置变量,α、β为缩放因子,ω为惯性权重因子,r1、r2为(0,1)间的任意值,c1、c2为学习权重因子,pb为个体最优粒子,gb为全局最优粒子。
本发明实施例中,惯性权重因子ω的修正公式为:
其中,k表示迭代次数,kmax表示最大迭代次数,ωmax表示迭代次数为0时的惯性权重因子取值,ωmin表示迭代次数为kmax时的惯性权重因子取值。
本发明第二方面提供一种基于配网云边端协同的算力卸载装置,包括:
任务确定模块,用于确定端侧、边缘侧及云侧的待执行的任务序列;
预测网络模块,用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
本发明实施例中,所述预测网络模块具体用于:
将任务序列的初始状态输入预测网络,基于所述任务序列被执行所需的时间和能耗,得到多个任务分配方案;
利用改进的多目标粒子群算法计算优化函数;
利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;
基于任务分配方案确定算力卸载方式。
本发明实施例中,所述利用改进的多目标粒子群算法计算优化函数,包括:通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
本发明第三方面提供一种云边端协同系统,包括:
终端系统,用于确定端侧的待执行的任务序列,计算端侧的任务序列被执行所需的时间和能耗;
边缘计算系统,用于确定边缘侧的待执行的任务序列,计算边缘侧的任务序列被执行所需的时间和能耗;
云计算系统,用于确定云侧的待执行的任务序列,计算云侧的任务序列被执行所需的时间和能耗;
所述边缘计算系统还用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
本发明实施例中,所述边缘计算系统包括:
边缘算力感知单元,用于获取端侧、边缘侧及云侧的算力数据,所述算力数据包括:端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、云侧的任务序列被执行所需的时间和能耗;
边缘算力调度单元,用于确定端侧、边缘侧、云侧之间的算力卸载方式,根据确定的算力卸载方式,对边缘侧的容器集群和算力资源进行综合调度,具体包括:将任务序列的初始状态输入预测网络,基于端侧、边缘侧及云侧的任务序列被执行所需的时间和能耗,得到多个任务分配方案;利用改进的多目标粒子群算法计算优化函数;利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;基于任务分配方案确定算力卸载方式。
本发明实施例中,所述边缘算力调度单元利用改进的多目标粒子群算法计算预测网络的优化函数,具体包括:通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现上述的基于配网云边端协同的算力卸载方法。
本发明基于配网云边端全局的总能耗和总时延进行考虑,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,实现云边端算力资源的协同卸载,从而实现云边端的算力均衡,降低时延。
本发明技术方案的其它特征和优点将在下文的具体实施方式部分予以详细说明。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例提供的基于配网云边端协同的算力卸载方法的流程图;
图2为本发明实施例提供的利用预测网络确定算力卸载方式的流程图;
图3为本发明实施例提供的基于配网云边端协同的算力卸载装置的框图;
图4为本发明实施例提供的云边端协同系统的架构图。
具体实施方式
为了使本发明实施例中的技术方案及优点更加清楚明白,以下结合附图对本发明的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本发明的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
图1为本发明实施例提供的基于配网云边端协同的算力卸载方法的流程图。如图1所示,本实施例提供的基于配网云边端协同的算力卸载方法,包括以下步骤:
步骤100,确定端侧、边缘侧及云侧的待执行的任务序列;
步骤200,在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
本发明基于配网云边端全局的总能耗和总时延进行考虑,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,实现云边端算力资源的协同卸载,从而实现云边端的算力均衡,降低时延。
上述步骤100中,确定端侧、边缘侧及云侧的待执行的任务序列,具体包括:根据执行任务所允许的最大时延确定任务优先级,根据任务优先级确定任务调度顺序,根据任务调度顺序确定任务序列。其中,根据本地计算时延与执行任务所允许的最大时延的比值确定任务优先级。例如,对任务进行排列划分,首先计算待执行任务的优先级,通过调度算法对任务优先级进行排序,优先处理优先级高的业务,从而得到业务的调度顺序。对于第i个任务优先级可表示为:
其中,pi数值越大,任务的优先级就越高,di表示本地计算时延,Di local表示执行任务所允许的最大时延,即每个任务必须在该时延(时段)内处理完成。
在一实施例中,采用自适应阈值方法确定卸载目的侧,即确定是卸载端侧的任务序列到边缘侧执行,或是卸载边缘侧的任务序列到云侧执行,又或是卸载云侧的任务序列到边缘侧执行。首先,形成端侧、边缘侧及云侧的任务优先级矩阵,例如端侧任务优先级矩阵为PD=[pD,1,pD,2,...,pD,j],边缘侧任务优先级矩阵为Peg=[peg,1,peg,2,...,peg,j],云侧任务优先级矩阵为Pec=[pec,1,pec,2,...,pec,j],对矩阵中元素进行从小到大排序:P=[p'x,1,p'x,2,...,p'x,j](x∈{eg,ec,D}),选出矩阵中的中位数作为本侧任务优先级阈值,中位数表示为:
同时比较原数据优先级与另外两侧优先级中位数的大小,表示为:d=|px,0,5-py,i|,其中
计算计算端侧、边缘侧及云侧中某一侧到另一侧卸载算力优先级的卸载转移概率:
保留相应的转移概率,得到相应的转移函数:
其中γ+μ=1;
根据转移函数确定卸载目的侧。
在一实施例中,在确定端侧、边缘侧及云侧的待执行的任务序列之后,计算计算端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、以及云侧的任务序列被执行所需的时间和能耗。具体包括:计算端侧执行端侧的任务序列所需的时间和能耗,或者,计算端侧的任务序列被卸载到边缘侧执行所需的时间和能耗;计算边缘侧执行边缘侧的任务序列所需的时间和能耗,或者,计算边缘侧的任务序列被卸载到云侧执行所需的时间和能耗;计算云侧执行云侧的任务序列所需的时间和能耗,或者,计算云侧的任务序列被卸载到边缘侧执行所需的时间和能耗。
在具体实施例中,根据端侧设备的运行速度、所运行的任务数量以及任务的负载量计算端侧执行任务序列所需的时间。根据端侧执行任务序列所需的时间以及端侧设备在运行状态下的功率计算端侧执行任务序列的能耗。在一个工作流分配方案中,假设有n个任务需要在本地设备上运行,则完成该部分任务所需的时间为:
其中,ci为任务i的负载量,VD为端侧本地设备的运行速度,n为端侧本地设备上的任务数量,TD为端侧本地设备完成n个任务运算所需要的时间;
则完成该部分任务所需要消耗的能耗为ED=TD*PD,PD为端侧本地设备在运行状态下的功率,ED为端侧本地设备完成任务所需要消耗的能量。
对于边缘侧卸载模式(卸载端侧的任务序列到边缘侧执行),当端侧本地设备无法处理任务时,将任务传送给边缘侧执行;在边缘侧执行任务期间等待边缘算力服务器的反馈结果;任务执行结束后,端侧接收从边缘服务器返回的数据。整个任务发送至反馈的过程中需要产生的能量消耗包括发送数据产生的能耗、等待结果产生的能耗、接收数据产生的能耗。此种情况下参与信息传输的设备能耗数学模型为:
其中,di为任务i的数据量,Psed为端侧本地设备发送信息状态下的功率,Peg为边缘侧设备发送信息状态下的功率,Pfree-d为端侧本地设备在空闲状态下的功率,v1为边缘侧设备将数据发送给边缘服务器时的上传速度,v2为端侧本地设备接收边缘服务器信息时的速度。
Tec为端侧本地设备等待边缘服务器反馈结果的时间,该值取决于任务量的大小及边缘服务器的运行速度。Tec的计算公式为:
其中,Sec为边缘服务器的运行速度,ci为任务i的负载量,Tec为卸载到边缘服务器上运行的任务i的运行耗时。
如果分配到边缘服务器上运行的任务向量为R={r1,r2,…,rk},则参与任务的设备产生的总能耗为:
其中,Eegde为任务在边缘服务器上运行时设备所产生的能耗总和,Eeci为任务i在边缘服务器上运行时的能耗。同理,边缘侧完成总任务量所需要的总时间Tegde为:
其中,Teci为任务i在边缘服务器上运行的时间。
对于云卸载模式(卸载边缘侧的任务序列到云侧执行),边缘侧设备将计算任务分配给云服务器执行情况下的能耗模型,与将任务分配给边缘服务器上执行所产生的能耗模型类似,同理,其能量消耗的数学模型为:
其中,di为任务i的数据量,Psed-cl为边缘侧设备发送信息状态下的功率,Pcl为云侧设备发送信息状态下的功率,Pfree-eg为边缘侧设备在空闲状态下的功率,v3为边缘侧设备将数据发送给云端服务器时的上传速度,v4为边缘设备接收云端服务器信息时的速度。
Teg为边缘设备等待云端服务器反馈结果的时间,该值取决于任务量的大小及云端服务器的运行速度。Teg的计算公式为:
其中,Seg为边缘服务器的运行速度,ci为任务i的负载量,Teg为卸载到云端服务器上运行的任务i的运行耗时。
如果分配在云端服务器上运行的任务向量为R={r1,r2,…,rk},则参与任务的设备产生的总能耗Ecloud为:
同理,云侧完成总任务量所需要的时间为:
其中,为任务i在端侧服务器上运行的时间。
如图2所示,上述步骤200中,所述利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,包括:
步骤201,将任务序列的初始状态输入预测网络,基于任务序列被执行所需的时间和能耗,得到多个任务分配方案;
步骤202,利用改进的多目标粒子群算法计算优化函数,
步骤203,利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;
步骤204,基于任务分配方案确定算力卸载方式。
本发明实施例中,需要按顺序依次对所有任务进行状态决策,研究目标是最小化时延约束下任务执行的总功耗和时延,包括本地执行时间、边缘卸载时间和卸载到云端的时间。其研究目标可表示为:
E=max(ED+Eegde+Ecloud)
T=max(Tegde+TD+Tcloud)
优化函数表示为:
min E
min T
s.t.C1:max{pi}
多目标粒子群(MOPSO)算法是一种优化算法,MOPSO算法既保存了个体和全局的最优信息,又具备协同搜寻能力。粒子在寻优的过程中,采用的更新公式为:
vid(k+1)=α{ωvid(k)+c1r1[pbid(k)-xid(k)]}+β{c2r2[gbid(k)-xid(k)]}
xid(k+1)=xid(k)+vid(k+1)
其中,v为迭代时的速度,x为迭代时的位置变量,α、β为缩放因子,ω为惯性权重因子,r1、r2为(0,1)间的任意值,c1、c2为学习权重因子,pb为个体最优粒子,gb为全局最优粒子。
其中,惯性权重因子ω是反映粒子维持其运动速率的一个关键指标。当ω随着迭代的不断减少时,其收敛性要比ω始终不变更快速,ω在前期数值越高,对全局寻优能力越有提升;在后期数值越小,对局部寻优能力越有提升。本发明实施例对多目标粒子群算法进行改进,对惯性权重因子ω进行动态修正,使其在迭代次数k为0和kmax时,惯性权重因子取ωmax和ωmin,从而使其具有更优的搜索性能与收敛速度。惯性权重因子ω的修正公式为:
其中,k表示迭代次数,kmax表示最大迭代次数,ωmax表示迭代次数为0时的惯性权重因子取值,ωmin表示迭代次数为kmax时的惯性权重因子取值。
传统粒子群算法根据粒子当前位置及个体粒子最优值、社会粒子最优值来确定位置的方向,在一定程度上容易陷入局部最优。为进一步防止粒子算法陷入局部最优解的困局,本发明实施例提出一种适用于多任务多资源环境下配电设备计算任务卸载的改进粒子群算法。改进的多目标粒子群算法,对惯性权重因子ω进行动态修正,并实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新最优方案的迭代次数,适时对粒子位置进行重置,使其具有更优的搜索性能和收敛速度,避免搜索算法陷入局部最优的状态。
在一具体示例中,利用预测网络实现任务卸载决策的过程为:
(1)初始化任务序列R={r1,r2,…,rk};
(2)任务优先级排序;
(3)获取初始状态S;
(4)将初始状态S输入到预测网络中,计算卸载到各种资源执行任务情况下边缘设备的能耗与耗时;
(5)计算分配方案St,总能耗、总时耗以及对应的适应度;
(6)采用改进的多目标粒子群算法计算优化函数,从k个已经分配的任务分配方案中,根据适应度分别找到能耗最优的分配方案;
(7)依据最新的速度更新所有分配方案,更新状态获得St+1,
(8)更新每一个分配方案的搜索速度;
(9)计算目标E、T值,重新分配所有粒子的初始位置;
(10)更新目标网络参数,输出最佳卸载决策。
图3为本发明实施例提供的基于配网云边端协同的算力卸载装置的框图。如图3所示,本实施例提供的基于配网云边端协同的算力卸载装置,包括:任务确定模块以及预测网络模块。任务确定模块用于确定端侧、边缘侧及云侧的待执行的任务序列。预测网络模块用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
在一实施例中,确定端侧、边缘侧及云侧的待执行的任务序列,具体包括:根据执行任务所允许的最大时延确定任务优先级,根据任务优先级确定任务调度顺序,根据任务调度顺序确定任务序列。其中,根据本地计算时延与执行任务所允许的最大时延的比值确定任务优先级。例如,对任务进行排列划分,首先计算待执行任务的优先级,通过调度算法对任务优先级进行排序,优先处理优先级高的业务,从而得到业务的调度顺序。对于第i个任务优先级可表示为:
其中,pi数值越大,任务的优先级就越高,di表示本地计算时延,Di local表示执行任务所允许的最大时延,即每个任务必须在该时延(时段)内处理完成。
在一实施例中,所述预测网络模块将任务序列的初始状态输入预测网络,基于任务序列被执行所需的时间和能耗,得到多个任务分配方案;利用改进的多目标粒子群算法计算优化函数;利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;基于任务分配方案确定算力卸载方式。
改进的多目标粒子群(MOPSO)算法,粒子在寻优的过程中,采用的更新公式为:
vid(k+1)=α{ωvid(k)+c1r1[pbid(k)-xid(k)]}+β{c2r2[gbid(k)-xid(k)]}
xid(k+1)=xid(k)+vid(k+1)
其中,v为迭代时的速度,x为迭代时的位置变量,α、β为缩放因子,ω为惯性权重因子,r1、r2为(0,1)间的任意值,c1、c2为学习权重因子,pb为个体最优粒子,gb为全局最优粒子。
其中,惯性权重因子ω是反映粒子维持其运动速率的一个关键指标。当ω随着迭代的不断减少时,其收敛性要比ω始终不变更快速,ω在前期数值越高,对全局寻优能力越有提升;在后期数值越小,对局部寻优能力越有提升。本发明实施例对多目标粒子群算法进行改进,对惯性权重因子ω进行动态修正,使其在迭代次数k为0和kmax时,惯性权重因子取ωmax和ωmin,从而使其具有更优的搜索性能与收敛速度。惯性权重因子ω的修正公式为:
其中,k表示迭代次数,kmax表示最大迭代次数,ωmax表示迭代次数为0时的惯性权重因子取值,ωmin表示迭代次数为kmax时的惯性权重因子取值。
传统粒子群算法根据粒子当前位置及个体粒子最优值、社会粒子最优值来确定位置的方向,在一定程度上容易陷入局部最优。为进一步防止粒子算法陷入局部最优解的困局,本发明实施例提出一种适用于多任务多资源环境下配电设备计算任务卸载的改进粒子群算法。改进的多目标粒子群算法,对惯性权重因子ω进行动态修正,并实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新最优方案的迭代次数,适时对粒子位置进行重置,使其具有更优的搜索性能和收敛速度,避免搜索算法陷入局部最优的状态。
本实施例提供的算力卸载装置,对于端侧、边缘侧、云侧的任务序列被执行的能耗和时间(耗时)的具体计算方式,可以参照上述实施例提供的算力卸载方法中的描述,此处不再赘述。
图4为本发明实施例提供的云边端协同系统的架构图。如图4所示,本实施例提供的云边端协同系统包括:终端系统、边缘计算系统以及云计算系统。终端系统用于确定端侧的待执行的任务序列,计算端侧的任务序列被执行所需的时间和能耗。边缘计算系统用于确定边缘侧的待执行的任务序列,计算边缘侧的任务序列被执行所需的时间和能耗。云计算系统用于确定云侧的待执行的任务序列,计算云侧的任务序列被执行所需的时间和能耗。边缘计算系统还用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
上述的云边端协同系统可将本机(终端)容器化的业务流程和设备管理拓展到主站云端和边端主机上,基于Kubernetes实现系统的构建,并为云、边、端之间的网络、应用程序部署以及云与边缘之间的元数据同步提供核心基础支持,支持MQTT、HTTP、Modbus、OPC-UA、Bluetooth、WIFI、HPLC、微功率、载波通信等通信协议接入边缘侧,对应用进行容器化,然后在边缘侧或云端的任何一个更合适的位置运行应用程序。让本地生成的数据,进行大量数据处理操作并对其进行保护,减少边缘和云之间的网络带宽需求和消耗,提高响应速度,降低成本并保护数据隐私。该系统允许现场电力巡检、设备开发人员编写自定义逻辑,并在边缘端上启用资源受限的设备通信、管理设备并监视应用程序和设备状态。在系统算力方面,可实现现场计算、边缘计算、云计算的同时还集成了算力交易、算力协同等功能,可实现云边端算力资源的协同调控,保障算力卸载、交易的安全性。
本实施例中,终端系统由具有计算能力的电力终端设备作为算力节点。云计算系统(云侧)包括:云端算力交互单元、边缘控制器、终端控制器、云边端算力资源管理单元、云端算力感知单元及算法库。云端算力交互单元用于在云端缓存信息、监视变更,并向边缘侧端发送消息。边缘控制器用于管理边缘节点、元数据,以便可以将数据定位到对应的边缘节点。终端控制器用于管理边缘设备,确保设备信息、设备状态的云边同步。云边端算力资源管理单元用于负责云侧算力服务编排和调度,将元数据存储到数据库。云端算力感知单元用于搜集云端算力节点之间的路径信息,根据智能算法测量各个节点之间的时延情况。算法库中内嵌多种智能算法实现云边端算力的均衡和调控。
边缘计算系统(边缘侧)包括:边缘算力感知单元、边缘算力服务器、边缘算力调度单元、终端孪生单元、元数据管理单元、任务总线、服务总线及算法库。边缘算力感知单元用于搜集边缘侧、端侧算力节点之间的路径信息,根据智能算法测量各个节点之间的时延情况。边缘算力服务器用于与云侧服务器进行交互以实现边缘计算,并将云侧资源和端侧资源同步更新到边缘侧,并将边缘侧主机、算力资源和设备状态变更等信息报告给云端。算力调度单元在边缘节点上运行并管理容器化应用程序、算力编排调度的代理,实现边缘侧容器集群、算力资源的综合调度。终端孪生单元用于存储终端设备算力资源状态并同步至云端,同时为应用程序提供查询接口。元数据管理单元用于边缘侧算力调度单元与服务总线之间的信息处理,将元数据存储到数据库。任务总线直接与MQTT映射协议库相连,为终端侧设备或其他组件提供算力注册、发布、订阅、交互功能。服务总线接受来自云端服务的请求,与运行在边缘端的服务器交互,提供云端服务通过通信协议访问边缘端服务器的能力。算法库内嵌多种智能算法实现边、端算侧力的均衡和调控。
在一实施例中,边缘算力感知单元用于获取端侧、边缘侧及云侧的算力数据,所述算力数据包括:端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、云侧的任务序列被执行所需的时间和能耗。对于端侧、边缘侧、云侧的任务序列被执行的能耗和时间(耗时)的具体计算方式,可以参照上述实施例提供的算力卸载方法中的描述。
在一实施例中,边缘算力调度单元根据执行任务所允许的最大时延确定任务优先级,根据任务优先级确定任务调度顺序,根据任务调度顺序确定任务序列。其中,根据本地计算时延与执行任务所允许的最大时延的比值确定任务优先级。例如,对任务进行排列划分,首先计算待执行任务的优先级,通过调度算法对任务优先级进行排序,优先处理优先级高的业务,从而得到业务的调度顺序。
在一实施例中,边缘算力调度单元在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,具体为:将任务序列的初始状态输入预测网络,基于端侧、边缘侧及云侧的任务序列被执行所需的时间和能耗,得到多个任务分配方案;利用改进的多目标粒子群算法计算优化函数;利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;基于任务分配方案确定算力卸载方式。
改进的多目标粒子群(MOPSO)算法,粒子在寻优的过程中,采用的更新公式为:
vid(k+1)=α{ωvid(k)+c1r1[pbid(k)-xid(k)]}+β{c2r2[gbid(k)-xid(k)]}
xid(k+1)=xid(k)+vid(k+1)
其中,v为迭代时的速度,x为迭代时的位置变量,α、β为缩放因子,ω为惯性权重因子,r1、r2为(0,1)间的任意值,c1、c2为学习权重因子,pb为个体最优粒子,gb为全局最优粒子。
其中,惯性权重因子ω是反映粒子维持其运动速率的一个关键指标。当ω随着迭代的不断减少时,其收敛性要比ω始终不变更快速,ω在前期数值越高,对全局寻优能力越有提升;在后期数值越小,对局部寻优能力越有提升。本发明实施例对多目标粒子群算法进行改进,对惯性权重因子ω进行动态修正,使其在迭代次数k为0和kmax时,惯性权重因子取ωmax和ωmin,从而使其具有更优的搜索性能与收敛速度。惯性权重因子ω的修正公式为:
其中,k表示迭代次数,kmax表示最大迭代次数,ωmax表示迭代次数为0时的惯性权重因子取值,ωmin表示迭代次数为kmax时的惯性权重因子取值。
传统粒子群算法根据粒子当前位置及个体粒子最优值、社会粒子最优值来确定位置的方向,在一定程度上容易陷入局部最优。为进一步防止粒子算法陷入局部最优解的困局,本发明实施例提出一种适用于多任务多资源环境下配电设备计算任务卸载的改进粒子群算法。改进的多目标粒子群算法,对惯性权重因子ω进行动态修正,并实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新最优方案的迭代次数,适时对粒子位置进行重置,使其具有更优的搜索性能和收敛速度,避免搜索算法陷入局部最优的状态。
本发明实施方式还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行以实现上述的基于配网云边端协同的算力卸载方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本发明实施例中的方案可以采用各种计算机语言实现,例如,面向对象的程序设计语言Java和直译式脚本语言JavaScript等。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (19)

1.一种基于配网云边端协同的算力卸载方法,其特征在于,包括:
确定端侧、边缘侧及云侧的待执行的任务序列;
在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
2.根据权利要求1所述的基于配网云边端协同的算力卸载方法,其特征在于,所述确定端侧、边缘侧及云侧的待执行的任务序列,包括:
根据执行任务所允许的最大时延确定任务优先级;
根据任务优先级确定任务调度顺序;
根据任务调度顺序确定任务序列。
3.根据权利要求2所述的基于配网云边端协同的算力卸载方法,其特征在于,所述根据执行任务所允许的最大时延确定任务优先级,包括:
根据本地计算时延与执行任务所允许的最大时延的比值确定任务优先级。
4.根据权利要求2所述的基于配网云边端协同的算力卸载方法,其特征在于,所述方法还包括:
基于自适应阈值方法确定卸载目的侧,具体为:
形成端侧、边缘侧及云侧的任务优先级矩阵;
对任务优先级矩阵中元素按照从小到大排序,分别从端侧、边缘侧及云侧的任务优先级矩阵中选出中位数作为本侧任务优先级阈值;
在端侧、边缘侧及云侧的任务优先级阈值下,计算端侧、边缘侧及云侧中某一侧到另一侧的卸载转移概率;
根据卸载转移概率得到相应的转移函数,根据转移函数确定卸载目的侧。
5.根据权利要求1所述的基于配网云边端协同的算力卸载方法,其特征在于,所述方法还包括:
计算端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、以及云侧的任务序列被执行所需的时间和能耗。
6.根据权利要求5所述的基于配网云边端协同的算力卸载方法,其特征在于,计算端侧的任务序列被执行所需的时间和能耗,包括:计算端侧执行端侧的任务序列所需的时间和能耗;或者,计算端侧的任务序列被卸载到边缘侧执行所需的时间和能耗;
计算边缘侧的任务序列所需的执行时间和能耗,包括:计算边缘侧执行边缘侧的任务序列所需的时间和能耗;或者,计算边缘侧的任务序列被卸载到云侧执行所需的时间和能耗;
计算云侧的任务序列所需的执行时间和能耗,包括:计算云侧执行云侧的任务序列所需的时间和能耗;或者,计算云侧的任务序列被卸载到边缘侧执行所需的时间和能耗。
7.根据权利要求6所述的基于配网云边端协同的算力卸载方法,其特征在于,计算端侧执行端侧的任务序列所需的时间和能耗,包括:
根据端侧设备的运行速度、所运行的任务数量以及任务的负载量计算端侧执行任务序列所需的时间;
根据端侧执行任务序列所需的时间以及端侧设备在运行状态下的功率计算端侧执行任务序列的能耗。
8.根据权利要求6所述的基于配网云边端协同的算力卸载方法,其特征在于,端侧的任务序列被卸载到边缘侧执行所需的时间和能耗的计算模型为:
其中,di为任务i的数据量,Psed为端侧本地设备发送信息状态下的功率,Peg为边缘侧设备发送信息状态下的功率,Pfree-d为端侧本地设备在空闲状态下的功率,v1为边缘侧设备将数据发送给边缘服务器时的上传速度,v2为端侧本地设备接收边缘服务器信息时的速度;
根据任务量的大小及边缘服务器的运行速度确定端侧本地设备等待边缘服务器反馈结果的时间,计算公式为:
其中,Sec为边缘服务器的运行速度,ci为任务i的负载量,Tec为卸载到边缘服务器上运行的任务i的运行耗时。
9.根据权利要求1所述的基于配网云边端协同的算力卸载方法,其特征在于,所述利用预测网络确定端侧、边缘侧、云侧之间的算力卸载方式,包括:
将任务序列的初始状态输入预测网络,基于所述任务序列被执行所需的时间和能耗,得到多个任务分配方案;
利用改进的多目标粒子群算法计算优化函数;
利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;
基于任务分配方案确定算力卸载方式。
10.根据权利要求9所述的基于配网云边端协同的算力卸载方法,其特征在于,所述利用改进的多目标粒子群算法计算优化函数,包括:
通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
11.根据权利要求9所述的基于配网云边端协同的算力卸载方法,其特征在于,所述改进的多目标粒子群算法的粒子寻优公式为:
vid(k+1)=α{ωvid(k)+c1r1[pbid(k)-xid(k)]}+β{c2r2[gbid(k)-xid(k)]}
xid(k+1)=xid(k)+vid(k+1)
其中,v为迭代时的速度,x为迭代时的位置变量,α、β为缩放因子,ω为惯性权重因子,r1、r2为(0,1)间的任意值,c1、c2为学习权重因子,pb为个体最优粒子,gb为全局最优粒子。
12.根据权利要求11所述的基于配网云边端协同的算力卸载方法,其特征在于,惯性权重因子ω的修正公式为:
其中,k表示迭代次数,kmax表示最大迭代次数,ωmax表示迭代次数为0时的惯性权重因子取值,ωmin表示迭代次数为kmax时的惯性权重因子取值。
13.一种基于配网云边端协同的算力卸载装置,其特征在于,包括:
任务确定模块,用于确定端侧、边缘侧及云侧的待执行的任务序列;
预测网络模块,用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
14.根据权利要求13所述的基于配网云边端协同的算力卸载装置,其特征在于,所述预测网络模块具体用于:
将任务序列的初始状态输入预测网络,基于所述任务序列被执行所需的时间和能耗,得到多个任务分配方案;
利用改进的多目标粒子群算法计算优化函数;
利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;
基于任务分配方案确定算力卸载方式。
15.根据权利要求14所述的基于配网云边端协同的算力卸载装置,其特征在于,所述利用改进的多目标粒子群算法计算优化函数,包括:
通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
16.一种云边端协同系统,其特征在于,包括:
终端系统,用于确定端侧的待执行的任务序列,计算端侧的任务序列被执行所需的时间和能耗;
边缘计算系统,用于确定边缘侧的待执行的任务序列,计算边缘侧的任务序列被执行所需的时间和能耗;
云计算系统,用于确定云侧的待执行的任务序列,计算云侧的任务序列被执行所需的时间和能耗;
所述边缘计算系统还用于在端侧的任务序列、边缘侧的任务序列以及云侧的任务序列被执行的总能耗和总时延最小的约束条件下,确定端侧、边缘侧、云侧之间的算力卸载方式,所述端侧、边缘侧、云侧之间的算力卸载方式包括:卸载端侧的任务序列到边缘侧执行、卸载边缘侧的任务序列到云侧执行、卸载云侧的任务序列到边缘侧执行。
17.根据权利要求16所述的云边端协同系统,其特征在于,所述边缘计算系统包括:
边缘算力感知单元,用于获取端侧、边缘侧及云侧的算力数据,所述算力数据包括:端侧的任务序列被执行所需的时间和能耗、边缘侧的任务序列被执行所需的时间和能耗、云侧的任务序列被执行所需的时间和能耗;
边缘算力调度单元,用于确定端侧、边缘侧、云侧之间的算力卸载方式,根据确定的算力卸载方式,对边缘侧的容器集群和算力资源进行综合调度,具体包括:将任务序列的初始状态输入预测网络,基于端侧、边缘侧及云侧的任务序列被执行所需的时间和能耗,得到多个任务分配方案;利用改进的多目标粒子群算法计算优化函数;利用优化函数从多个任务分配方案中找到总能耗和总时延最小的任务分配方案;基于任务分配方案确定算力卸载方式。
18.根据权利要求17所述的云边端协同系统,其特征在于,所述边缘算力调度单元利用改进的多目标粒子群算法计算预测网络的优化函数,具体包括:
通过实时校验粒子迭代过程中连续未检测到新全局最优方案的次数,并根据设定的最大连续未检测到新全局最优方案的次数对粒子位置进行重置。
19.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行以实现如权利要求1至权利要求12任一项所述的基于配网云边端协同的算力卸载方法。
CN202310736108.6A 2023-06-20 2023-06-20 基于配网云边端协同的算力卸载方法、装置及系统 Pending CN116996941A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310736108.6A CN116996941A (zh) 2023-06-20 2023-06-20 基于配网云边端协同的算力卸载方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310736108.6A CN116996941A (zh) 2023-06-20 2023-06-20 基于配网云边端协同的算力卸载方法、装置及系统

Publications (1)

Publication Number Publication Date
CN116996941A true CN116996941A (zh) 2023-11-03

Family

ID=88527413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310736108.6A Pending CN116996941A (zh) 2023-06-20 2023-06-20 基于配网云边端协同的算力卸载方法、装置及系统

Country Status (1)

Country Link
CN (1) CN116996941A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117519991A (zh) * 2024-01-04 2024-02-06 中国矿业大学 基于边云混合的智能化安全双重预防风险识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117519991A (zh) * 2024-01-04 2024-02-06 中国矿业大学 基于边云混合的智能化安全双重预防风险识别方法
CN117519991B (zh) * 2024-01-04 2024-03-12 中国矿业大学 基于边云混合的智能化安全双重预防风险识别方法

Similar Documents

Publication Publication Date Title
Tran-Dang et al. Reinforcement learning based resource management for fog computing environment: Literature review, challenges, and open issues
CN104636204B (zh) 一种任务调度方法与装置
Zhang et al. A new task offloading algorithm in edge computing
CN105656999B (zh) 一种移动云计算环境中能耗优化的合作任务迁移方法
CN111274036A (zh) 一种基于速度预测的深度学习任务的调度方法
Liu et al. Deep reinforcement learning based approach for online service placement and computation resource allocation in edge computing
Wang et al. Microservice-oriented service placement for mobile edge computing in sustainable internet of vehicles
Mostafavi et al. A stochastic approximation approach for foresighted task scheduling in cloud computing
Dai et al. Task offloading for vehicular edge computing with edge-cloud cooperation
CN116996941A (zh) 基于配网云边端协同的算力卸载方法、装置及系统
Yadav et al. An opposition-based hybrid evolutionary approach for task scheduling in fog computing network
Yan et al. A task offloading algorithm with cloud edge jointly load balance optimization based on deep reinforcement learning for unmanned surface vehicles
CN113315669B (zh) 基于云边协同的吞吐量优化的机器学习推断任务部署方法
Xu et al. Online learning algorithms for offloading augmented reality requests with uncertain demands in MECs
Salehnia et al. An optimal task scheduling method in IoT-Fog-Cloud network using multi-objective moth-flame algorithm
Tahmasebi-Pouya et al. A blind load-balancing algorithm (BLBA) for distributing tasks in fog nodes
US20230143270A1 (en) Apparatus and method with scheduling
Zhang et al. Octopus: SLO-Aware Progressive Inference Serving via Deep Reinforcement Learning in Multi-tenant Edge Cluster
Mahjoubi et al. Optimal placement of recurrent service chains on distributed edge-cloud infrastructures
Zhu et al. Research on fog resource scheduling based on cloud-fog collaboration technology in the electric internet of things
Fang et al. A Scheduling Strategy for Reduced Power Consumption in Mobile Edge Computing
Shi et al. Workflow migration in uncertain edge computing environments based on interval many-objective evolutionary algorithm
Masdari et al. Energy-aware computation offloading in mobile edge computing using quantum-based arithmetic optimization algorithm
CN114035919A (zh) 基于配电网分层分布特征的任务调度系统及方法
Yadav E-MOGWO Algorithm for Computation Offloading in Fog Computing.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination