CN113766037B - 面向大规模边缘计算系统的任务卸载控制方法及系统 - Google Patents

面向大规模边缘计算系统的任务卸载控制方法及系统 Download PDF

Info

Publication number
CN113766037B
CN113766037B CN202111325318.3A CN202111325318A CN113766037B CN 113766037 B CN113766037 B CN 113766037B CN 202111325318 A CN202111325318 A CN 202111325318A CN 113766037 B CN113766037 B CN 113766037B
Authority
CN
China
Prior art keywords
server group
server
mobile users
task
unloading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111325318.3A
Other languages
English (en)
Other versions
CN113766037A (zh
Inventor
吕丰
董哲
吴帆
张尧学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202111325318.3A priority Critical patent/CN113766037B/zh
Publication of CN113766037A publication Critical patent/CN113766037A/zh
Application granted granted Critical
Publication of CN113766037B publication Critical patent/CN113766037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明公开了面向大规模边缘计算系统的任务卸载控制方法及系统,通过对边缘计算系统中的边缘服务器进行分组,得到多个服务器组;对于任意一组服务器组
Figure 823010DEST_PATH_IMAGE001
,获取历史数据预测服务器组
Figure 859580DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,并根据服务器组
Figure 724768DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计算服务器组
Figure 863625DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小时对应的最优卸载概率;再在预测时刻以最优卸载概率控制服务器组
Figure 447053DEST_PATH_IMAGE001
下的移动用户进行任务卸载;本发明通过历史数据预测服务器组
Figure 759086DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,并根据预测的平均任务到达速率控制用户任务往用户计算成本最小的方向进行卸载,能减少服务器过载以及服务器卸载的计算成本。

Description

面向大规模边缘计算系统的任务卸载控制方法及系统
技术领域
本发明涉及边缘计算领域,尤其涉及面向大规模边缘计算系统的任务卸载控制方法及系统。
背景技术
在传统的云计算模式下,数据中心(DataCenter,DC)具有强大的计算能力,可以同时为大量的用户提供计算服务。为了保证资源的利用率,DC的覆盖范围往往较大,这就导致某些用户与DC的距离较远、通信延迟较高。对于传统的周期性数据收集和处理任务,通信延迟是可以接受的,但是随着移动智能设备的普及,实时性较高的任务逐渐增多,DC的高延迟已经不能满足移动用户的计算需求。
边缘计算(EdgeComputing,EC)是一种新的云计算模式。将服务器部署在网络边缘,为用户提供计算服务。网络边缘并不是终端设备,而是靠近终端设备的网络位置,其特点是可以以较低的延迟与终端设备通信。EC正是基于这一特性来满足移动设备任务对实时性的要求。但是由于部署在网络边缘,EC服务器的覆盖范围和计算能力相较于传统的云都有较大的差距,为了在较大规模的环境中(如校园,工厂,港口等)为用户提供边缘计算服务,我们就需要部署较多的移动边缘计算服务器(MobileEdgeServer,MES)来保证覆盖率。由于用户的实时移动特性,如何在具有较大规模MES的边缘计算环境中进行最优的任务调度是一个难题。首先,在接入用户量过大时,服务器被阻塞导致服务质量下降。另外,用户的分布不均会导致MES的负载不均,进而导致整体资源利用率的下降。因此需要研究设计相应的任务调度策略来最大化利用计算资源为移动用户提供服务。
任务调度大致可以从两个角度来考虑。一是用户角度,控制用户的任务卸载使得MES的计算资源被充分利用的同时不会导致服务器阻塞,二是服务器角度,设计合理的策略使得MES之间的负载达到均衡的状态。在动态的边缘计算场景中,用户的地理位置在实时变化,用户的任务到达率也在实时变化,这就导致服务器不能确定自己的用户群特征,也就无法准确控制用户任务卸载,进而可能导致服务器过载,处理延迟增大。另外,用户的动态特性导致服务器的负载也在动态变化,这就要求负载均衡策略也需要实时调整,而传统的负载均衡策略往往求解时间复杂度较大,不能满足实时性的需求。
发明内容
本发明提供了面向大规模边缘计算系统的任务卸载控制方法及系统,用于解决现有的任务卸载方法由于用户的地理位置在实时变化导致服务器不能确定自己的用户群特征,也就无法准确控制用户任务卸载的技术问题。
为解决上述技术问题,本发明提出的技术方案为:
一种面向大规模边缘计算系统的任务卸载控制方法,包括以下步骤:
对边缘计算系统中的边缘服务器进行分组,得到多个服务器组;
对于任意一组服务器组
Figure 570604DEST_PATH_IMAGE001
,获取所述服务器组
Figure 674826DEST_PATH_IMAGE001
下的移动用户的历史平均任务到 达速率,并根据所述历史平均任务到达速率预测所述服务器组
Figure 831001DEST_PATH_IMAGE001
下的移动用户在预测时刻 的平均任务到达速率,并根据所述服务器组
Figure 690373DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速 率计算所述服务器组
Figure 299209DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小时对应的最优卸载概率;再在 预测时刻以所述最优卸载概率控制所述服务器组
Figure 472701DEST_PATH_IMAGE001
下的移动用户进行任务卸载。
优选的,获取所述服务器组
Figure 566207DEST_PATH_IMAGE001
下的移动用户的历史平均任务到达速率,并根据所 述历史平均任务到达速率预测所述服务器组
Figure 799742DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达 速率,包括以下步骤:
Figure 427033DEST_PATH_IMAGE002
时隙末尾,统计所述服务器组
Figure 138637DEST_PATH_IMAGE001
内的所有服务器在当前时隙收到的任务 量之和
Figure 534983DEST_PATH_IMAGE003
和所述服务器组
Figure 673840DEST_PATH_IMAGE001
下的移动用户的数量
Figure 257268DEST_PATH_IMAGE004
,其中,
Figure 569301DEST_PATH_IMAGE005
为当前时隙;
基于得到的所述服务器组
Figure 554575DEST_PATH_IMAGE001
内的所有服务器在当前时隙收到的任务量之和
Figure 864333DEST_PATH_IMAGE003
和所述服务器组
Figure 997374DEST_PATH_IMAGE001
下的移动用户的数量
Figure 50781DEST_PATH_IMAGE006
,通过以下公式计算所述服务器组
Figure 890561DEST_PATH_IMAGE001
内的所有 移动用户在当前时隙的平均任务到达速率
Figure 371221DEST_PATH_IMAGE007
Figure 991558DEST_PATH_IMAGE008
基于计算得到的所述服务器组
Figure 848656DEST_PATH_IMAGE001
内的所有移动用户在当前时隙的平均任务到达 速率
Figure 542942DEST_PATH_IMAGE007
,通过卡尔曼滤波估计所述服务器组
Figure 256820DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务 到达速率
Figure 302137DEST_PATH_IMAGE009
优选的,根据所述服务器组
Figure 697346DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计算 所述服务器组
Figure 308456DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小时对应的最优卸载概率,包括以下步 骤:
根据所述服务器组
Figure 396498DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务到达速率计算所 述服务器组
Figure 663531DEST_PATH_IMAGE001
内的所有移动用户预测时刻将任务卸载到边缘进行执行的时延;
构建以所述服务器组
Figure 596852DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小为优化目标,以所述 服务器组内的所有移动用户将任务卸载到边缘进行执行的时延以及卸载概率为变量的目 标优化模型;
将计算得到的所述服务器组
Figure 596556DEST_PATH_IMAGE001
内的所有移动用户预测时刻将任务卸载到边缘进 行执行的时延输入到所述目标优化模型中,求解所述目标优化模型的最优解作为所述服务 器组
Figure 855499DEST_PATH_IMAGE001
的最优卸载概率。
优选的,服务器组
Figure 344250DEST_PATH_IMAGE001
内的所有服务器共享所述服务器组
Figure 409158DEST_PATH_IMAGE001
的最优卸载概率;所述目 标优化模型为:
Figure 198122DEST_PATH_IMAGE010
Figure 627966DEST_PATH_IMAGE011
Figure 400750DEST_PATH_IMAGE012
Figure 941453DEST_PATH_IMAGE013
式中,
Figure 319345DEST_PATH_IMAGE014
表示服务器组
Figure 920090DEST_PATH_IMAGE001
下的所有移动用户的计算成本之和,
Figure 711329DEST_PATH_IMAGE015
表示服务器组
Figure 55722DEST_PATH_IMAGE001
下的第
Figure 553700DEST_PATH_IMAGE015
个移动用户,
Figure 856505DEST_PATH_IMAGE004
为服务器组
Figure 338302DEST_PATH_IMAGE001
下的移动用户总数;
Figure 220808DEST_PATH_IMAGE016
表示服务器组
Figure 573291DEST_PATH_IMAGE001
的卸载概率 值,
Figure 312577DEST_PATH_IMAGE017
表示服务器组
Figure 750512DEST_PATH_IMAGE001
下的第
Figure 436708DEST_PATH_IMAGE015
个移动用户的计算成本;
Figure 971595DEST_PATH_IMAGE018
表示服务器组
Figure 350623DEST_PATH_IMAGE001
下的第
Figure 541433DEST_PATH_IMAGE015
个移 动用户在本地执行任务的计算成本,
Figure 31321DEST_PATH_IMAGE019
表示服务器组
Figure 621046DEST_PATH_IMAGE001
下的第
Figure 905397DEST_PATH_IMAGE015
个移动用户将任务卸载到 边缘进行执行的计算成本;
Figure 52345DEST_PATH_IMAGE020
Figure 142660DEST_PATH_IMAGE021
分别表示所述服务器组
Figure 324243DEST_PATH_IMAGE001
下第
Figure 779495DEST_PATH_IMAGE015
个移动用户在本地执行 任务的时延、功耗;
Figure 741635DEST_PATH_IMAGE022
Figure 307745DEST_PATH_IMAGE023
分别表示所述服务器组
Figure 343835DEST_PATH_IMAGE001
下第
Figure 969988DEST_PATH_IMAGE015
个移动用户将任务卸载到边缘进 行执行的时延、功耗;
Figure 419424DEST_PATH_IMAGE024
表示计算成本中时延的比重,
Figure 789225DEST_PATH_IMAGE024
越大表示任务对时延越敏感,反之则 对功耗敏感,且0<
Figure 945400DEST_PATH_IMAGE024
<1。
优选的,根据所述服务器组
Figure 804772DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务到达速率 计算所述服务器组
Figure 413608DEST_PATH_IMAGE001
内的移动用户预测时刻将任务卸载到边缘进行执行的时延,通过以下 公式实现:
Figure 321521DEST_PATH_IMAGE025
式中,
Figure 660098DEST_PATH_IMAGE022
所述服务器组
Figure 628054DEST_PATH_IMAGE001
下第
Figure 724186DEST_PATH_IMAGE015
个移动用户将任务卸载到边缘进行执行的时延,
Figure 232528DEST_PATH_IMAGE026
表示服务器组
Figure 628874DEST_PATH_IMAGE001
内的所有的移动用户的平均任务大小,
Figure 767732DEST_PATH_IMAGE027
表示服务器组
Figure 85580DEST_PATH_IMAGE001
内的所有的移动 用户的平均传输速率,
Figure 663192DEST_PATH_IMAGE028
为服务器组
Figure 648466DEST_PATH_IMAGE001
的任务处理速率
Figure 958224DEST_PATH_IMAGE029
表示服务器组
Figure 828616DEST_PATH_IMAGE001
的卸载概率 值,
Figure 413181DEST_PATH_IMAGE004
为服务器组
Figure 518540DEST_PATH_IMAGE001
下的移动用户总数;
Figure 264779DEST_PATH_IMAGE030
为所述服务器组
Figure 88379DEST_PATH_IMAGE001
下的所有移动用户在预测时 刻的平均任务到达速率。
优选的,在计算得到边缘计算系统中各个服务器组的最优卸载概率后,在预测时刻以所述最优卸载概率控制所述服务器下的移动用户进行任务卸载前,还包括以下步骤:
对边缘计算系统中各个服务器组的最优卸载概率按数值大小进行排序,从排序中选取最优卸载概率中的最大值以及最小值,并计算二者差值的绝对值:
若二者差值的绝对值不大于预设阈值,则判断所述边缘计算系统内的各个服务器负载均衡,再以各个服务器组的预测时刻的最优卸载概率控制各个服务器组下的移动用户在预测时刻进行任务卸载;
若二者差值的绝对值大于预设阈值,则判断所述边缘计算系统内的各个服务器负载不均衡,对所述边缘计算系统的各个服务器进行重新分组,并计算重新分组后的各个服务器组的最优卸载概率,直至计算的重新分组后的各个服务器组的最优卸载概率中的最大值和最小值的差值绝对值不大于预设阈值,再以计算的重新分组后的各个服务器组的最优卸载概率控制重新分组后的各个服务器组下的移动用户在预测时刻进行任务卸载。
优选的,所述边缘计算系统的各个服务器进行重新分组,包括以下步骤:
构建强化学习分组模型,所述强化学习分组模型以所述边缘计算系统中所有服务器的负载情况作为状态,以任意两个服务器的同组或异组作为动作,以所述边缘计算系统中所有移动用户在本地执行任务的计算成本与将任务卸载到边缘进行执行的计算成本之差的平均值作为奖励值;
获取所述边缘计算系统中所有服务器当前的负载情况,将所述边缘计算系统中所有服务器当前的负载情况作为状态输入到构建好的强化学习分组模型中,得到所述边缘计算系统的各个服务器的重新分组。
优选的,所述强化学习分组模型的动作为
Figure 211056DEST_PATH_IMAGE031
,A表示动作集合;
Figure 436501DEST_PATH_IMAGE015
Figure 353641DEST_PATH_IMAGE032
表示两个不同的服务器,
Figure 133378DEST_PATH_IMAGE033
Figure 528588DEST_PATH_IMAGE034
为1表示此时的动作是将
Figure 405277DEST_PATH_IMAGE015
Figure 758898DEST_PATH_IMAGE032
两个服务器所在 的服务器组融合为同一个服务器组,如果二者已经在同一组,则不做任何动作;
Figure 291510DEST_PATH_IMAGE034
为0则 表示将服务器
Figure 755990DEST_PATH_IMAGE032
从二者所处的同一个服务器组拆离出去,如果二者本就属于不同组,则不做 任何动作;
所述强化学习分组模型的奖励值计算公式如下:
Figure 690448DEST_PATH_IMAGE035
式中,
Figure 683811DEST_PATH_IMAGE027
为奖励值,
Figure 438141DEST_PATH_IMAGE036
为所述边缘计算系统中所有移动用户的数量,
Figure 503049DEST_PATH_IMAGE018
表示服务器 组
Figure 26434DEST_PATH_IMAGE001
下的第
Figure 190699DEST_PATH_IMAGE015
个移动用户在本地执行任务的计算成本,
Figure 494641DEST_PATH_IMAGE019
表示服务器组
Figure 35344DEST_PATH_IMAGE001
下的第
Figure 413236DEST_PATH_IMAGE015
个移动用 户将任务卸载到边缘进行执行的计算成本。
一种计算机系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现任一方法的步骤。
本发明具有以下有益效果:
1、本发明中的面向大规模边缘计算系统的任务卸载控制方法及系统,通过对边缘 计算系统中的边缘服务器进行分组,得到多个服务器组;对于任意一组服务器组
Figure 13981DEST_PATH_IMAGE001
,获取历 史数据预测所述服务器组
Figure 802290DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,并根据所述服 务器组
Figure 146684DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计算所述服务器组
Figure 379082DEST_PATH_IMAGE001
内的所有移动 用户计算成本之和最小时对应的最优卸载概率;再在预测时刻以所述最优卸载概率控制所 述服务器组
Figure 213046DEST_PATH_IMAGE001
下的移动用户进行任务卸载;相比现有技术,本发明通过历史数据预测所述 服务器组
Figure 163684DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,进而确定自己的用户群特征, 从而准确控制用户任务往用户计算成本最小的方向进行卸载,能在减少服务器过载的同 时,大大减少服务器卸载的计算成本。
2、在优选方案中,本发明基于卡尔曼滤波对任务量进行估计并据此计算任务卸载概率,以控制用户卸载行为,并根据所有服务器的任务卸载概率判断此时是否存在负载不均,若存在就启动强化学习分组模型对服务器进行重分组,重复这个过程直至负载均衡。相比现有技术,本发明设计的任务调度策略计算复杂度较低,满足动态场景的实时性要求,并且有效的解决了在较大规模的边缘计算场景中的负载均衡问题。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例中的TOC算法的流程图;
图2是本发明优选实施例中的面向大规模边缘计算系统的任务卸载控制方法的流程图;
图3是本发明的面向大规模边缘计算系统的任务卸载控制方法的流程图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
实施例一:
如图3所示,本实施中公开了一种面向大规模边缘计算系统的任务卸载控制方法,包括以下步骤:
对边缘计算系统中的边缘服务器进行分组,得到多个服务器组;
对于任意一组服务器组
Figure 46190DEST_PATH_IMAGE001
,获取所述服务器组
Figure 460991DEST_PATH_IMAGE001
下的移动用户的历史平均任务到 达速率,并根据所述历史平均任务到达速率预测所述服务器组
Figure 403539DEST_PATH_IMAGE001
下的移动用户在预测时刻 的平均任务到达速率,并根据所述服务器组
Figure 841473DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速 率计算所述服务器组
Figure 527670DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小时对应的最优卸载概率;再在 预测时刻以所述最优卸载概率控制所述服务器组
Figure 62556DEST_PATH_IMAGE001
下的移动用户进行任务卸载。
此外,在本实施例中,还公开了一种计算机系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现任一方法的步骤。
本发明中的面向大规模边缘计算系统的任务卸载控制方法及系统,通过对边缘计 算系统中的边缘服务器进行分组,得到多个服务器组;对于任意一组服务器组
Figure 176006DEST_PATH_IMAGE001
,获取历史 数据预测所述服务器组
Figure 101236DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,并根据所述服务 器组
Figure 387861DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计算所述服务器组
Figure 714937DEST_PATH_IMAGE001
内的所有移动用 户计算成本之和最小时对应的最优卸载概率;再在预测时刻以所述最优卸载概率控制所述 服务器组
Figure 733709DEST_PATH_IMAGE001
下的移动用户进行任务卸载;相比现有技术,本发明通过历史数据预测所述服 务器组
Figure 146236DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,进而确定自己的用户群特征,从 而准确控制用户任务往用户计算成本最小的方向进行卸载,能在减少服务器过载的同时, 大大减少服务器卸载的计算成本。
实施例二:
实施例二是实施例一的优选实施例,其与实施例一的不同之处在于,对面向大规模边缘计算系统的任务卸载控制方法的具体步骤进行了细化,包括以下步骤:
为解决大规模边缘计算场景中难以有效的进行任务卸载控制的问题,本发明提出面向大规模边缘计算系统的任务卸载控制方法,其为一种基于卡尔曼滤波和强化学习算法的任务调度策略。该控制方法首先初始化为每个服务器都是一个服务器组(ServerGroup,SG),并且每个组的任务卸载概率(TaskOffloadingProbability,TOP)初始设置为100%。服务器接收用户卸载过来的任务并以SG为单位统计任务量,获得统计值之后,基于卡尔曼滤波对下一时隙的任务量进行估计,并计算下一时隙的平均任务到达率,最后依据下一时隙的平均任务到达率计算下一时隙的TOP值,再根据所有SG的TOP判断此时是否需要重新分组,若需要分组,再用强化学习算法对服务器进行重新分组。该控制方法具体包括以下步骤:
1、边缘计算场景初始化:设定环境中的初始SG数量与服务器数量一致,即每个SG仅包含一个任务卸载概率(TaskOffloadingProbability,TOP),所有MES的TOP初始设定为1。
其中,任务卸载概率用于限制用户任务卸载。每个MES都会计算出一个TOP并将其广播给该MES下的所有移动用户(MobileUser,MU),移动用户据此进行任务卸载,以实现任务卸载的控制。具体得,当MU有任务需要处理时,生成一个随机数s(0<s<1),如果s小于TOP,表明这个任务可以卸载到MES执行,否则只能选择本地执行。初始化TOP为1表示在开始时不对用户的任务卸载进行限制,但是如果MU较多或者单个MU的任务量较大时,就需要调小TOP避免MES被阻塞,当MU较少时,可以调大TOP来提高MES的资源利用率。
2、TaskOffloadingControl(TOC)流程:如图1所示,ECS将初始TOP广播给用户之后,所有的MU就根据TOP决定是否将其计算任务卸载到MES执行,若是,就将任务卸载到边缘服务器。在用户群完成卸载动作之后,SG统计收到的任务量,如果发现任务量过多,就需要调小下一时隙的TOP来限制MU的任务卸载,反之就需要调大。然后下一时隙用户群按照新TOP卸载任务。
在动态的边缘计算场景中,MU在实时变化,TOP也需要实时更新。TOP的更新是以SG 为单位的,SG内的所有服务器共享一个TOP。在计算TOP时,组内的全部物理服务器被视为一 个逻辑服务器,并在这个逻辑服务器的基础上计算最优TOP,对于每个服务器组
Figure 502131DEST_PATH_IMAGE001
,其TOP的 计算过程如下:
首先列出求解最优TOP的公式
Figure 683713DEST_PATH_IMAGE037
其中,
Figure 138965DEST_PATH_IMAGE016
表示服务器组
Figure 569947DEST_PATH_IMAGE001
的TOP。
Figure 136057DEST_PATH_IMAGE014
表示服务器组
Figure 437726DEST_PATH_IMAGE001
下所有MU的计算成本之和。 即,使得所有MU计算成本之和最小的
Figure 391775DEST_PATH_IMAGE016
为最优TOP。
Figure 781824DEST_PATH_IMAGE038
Figure 417205DEST_PATH_IMAGE011
Figure 104538DEST_PATH_IMAGE012
Figure 901593DEST_PATH_IMAGE013
其中,
Figure 510428DEST_PATH_IMAGE024
(0<
Figure 418342DEST_PATH_IMAGE024
<1)表示计算成本中时延的比重,
Figure 491340DEST_PATH_IMAGE024
越大表示任务对时延越敏感,反 之则对功耗敏感。
Figure 459296DEST_PATH_IMAGE020
Figure 555428DEST_PATH_IMAGE021
分别是第
Figure 594928DEST_PATH_IMAGE015
个MU在本地执行任务的时延和功耗,同理
Figure 725695DEST_PATH_IMAGE022
Figure 130132DEST_PATH_IMAGE023
表示将 任务卸载到边缘进行执行的时延和功耗,
Figure 979139DEST_PATH_IMAGE022
与组内用户的平均任务到达率
Figure 760013DEST_PATH_IMAGE030
相关。
Figure 479707DEST_PATH_IMAGE025
式中,
Figure 789466DEST_PATH_IMAGE022
所述服务器组
Figure 922507DEST_PATH_IMAGE001
下第
Figure 975914DEST_PATH_IMAGE015
个移动用户将任务卸载到边缘进行执行的时延,
Figure 815694DEST_PATH_IMAGE026
表示服务器组
Figure 358671DEST_PATH_IMAGE001
内的所有的移动用户的平均任务大小,
Figure 447849DEST_PATH_IMAGE027
表示服务器组
Figure 304947DEST_PATH_IMAGE001
内的所有的移动 用户的平均传输速率,
Figure 264813DEST_PATH_IMAGE028
为服务器组
Figure 447532DEST_PATH_IMAGE001
的任务处理速率
Figure 227269DEST_PATH_IMAGE029
表示服务器组
Figure 622479DEST_PATH_IMAGE001
的卸载概率 值,
Figure 496238DEST_PATH_IMAGE004
为服务器组
Figure 318701DEST_PATH_IMAGE001
下的移动用户总数;
Figure 585734DEST_PATH_IMAGE030
为所述服务器组
Figure 846951DEST_PATH_IMAGE001
下的所有移动用户在预测时 刻的平均任务到达速率。
为了求解
Figure 781409DEST_PATH_IMAGE005
时刻下服务器组
Figure 774773DEST_PATH_IMAGE001
的最优TOP,就需要已知此时组内所有MU的平均任务 到达率
Figure 529102DEST_PATH_IMAGE039
,由于MU是动态变化的,因此我们只能基于历史任务到达率对其进行估计,这里 我们采用卡尔曼滤波算法进行估计。
其中,卡尔曼滤波算法的具体过程如下,对于每个服务器组
Figure 328431DEST_PATH_IMAGE001
而言:
(1)
Figure 851816DEST_PATH_IMAGE002
时隙末尾,统计组内所有服务器在本时隙收到的任务量之和
Figure 281660DEST_PATH_IMAGE003
Figure 585603DEST_PATH_IMAGE006
(2)根据
Figure 860726DEST_PATH_IMAGE003
Figure 566514DEST_PATH_IMAGE004
以及本时隙TOP计算本时隙的MU平均任务到达速率
Figure 901681DEST_PATH_IMAGE007
,其中
Figure 630602DEST_PATH_IMAGE005
表示本时隙。计算公式为:
Figure 709417DEST_PATH_IMAGE040
(3)根据
Figure 535290DEST_PATH_IMAGE007
基于卡尔曼滤波估计下一时隙的任务到达速率
Figure 306937DEST_PATH_IMAGE009
得到估计值
Figure 257576DEST_PATH_IMAGE009
之后,就可以求解得到此时服务器组
Figure 202398DEST_PATH_IMAGE001
的最优TOP。
3、负载均衡流程:在所有服务器组计算得到下一时隙的
Figure 86040DEST_PATH_IMAGE041
之后,对于这个服务器 组内的服务器i而言,
Figure 294168DEST_PATH_IMAGE042
,此时就得到了一个TOP集合,
Figure 997681DEST_PATH_IMAGE043
,
Figure 686807DEST_PATH_IMAGE044
表示服务 器的数量。某个服务器的
Figure 159377DEST_PATH_IMAGE045
较大,说明服务器对用户任务卸载的限制较小,也即其负载较 轻,反之则负载较重。当
Figure 272827DEST_PATH_IMAGE046
中最大值和最小值的差值大于我们的设定值时,我们就认为此时 是负载不均的。此时就需要启动强化学习算法对服务器进行重分组。接下来介绍强化学习 分组算法的细节。
(1)状态空间(StationSpace):
Figure 260374DEST_PATH_IMAGE045
可以用于描述某个服务器的负载情况,则集合
Figure 750261DEST_PATH_IMAGE046
就可以用于描述所有服务器的负载情况,我们以此作为环境的状态。
(2)动作空间(ActionSpace):在观测到环境的状态之后,如果此时判定为负载不 均,就需要选择此时的动作来解决负载不均的问题。我们设定动作为
Figure 811758DEST_PATH_IMAGE031
,A 表示动作集合。
Figure 96109DEST_PATH_IMAGE015
Figure 570953DEST_PATH_IMAGE032
表示服务器,
Figure 598952DEST_PATH_IMAGE033
Figure 780534DEST_PATH_IMAGE034
为1表示此时的动作是将
Figure 32524DEST_PATH_IMAGE015
Figure 197926DEST_PATH_IMAGE032
两个服务 器所在的SG组合为同一个SG,如果二者已经在同一组,则不做任何动作。
Figure 29616DEST_PATH_IMAGE034
为0则表示将 服务器
Figure 862443DEST_PATH_IMAGE032
从二者所处的同一个服务器组拆离出去,如果二者本就属于不同组,则不做任何动 作。注意,此时每次分组动作仅能将两个服务器组合或拆分,通过这种方式可以显著降低动 作空间分规模,提高网络参数学习效率。
(3)奖励值(Reward):在观测到某个状态并做出动作之后,需要用Reward来评估动 作的好坏。我们定义每个MU的奖励值为本地执行成本和边缘执行成本的差值,取所有MU的 平均值作为此时的环境奖励值。
Figure 223017DEST_PATH_IMAGE036
为环境中MU数量。
Figure 610136DEST_PATH_IMAGE035
奖励值的含义是用户的平均收益,收益是指用户任务本地处理和边缘处理的计算成本之差。如果分组效果较好,MES之间负载较为平均,所有服务器的资源都得到有效的利用,则此时的边缘计算成本势必较低,收益值就会较高。
判断MES之间是否出现了负载不均的情况,若是,就启动基于强化学习实现的分组算法,对服务器进行重分组,分组之后,对每个新的SG重新计算TOP,如果判断此时的场景仍然为负载不均,则继续分组,直到负载均衡为止。在负载均衡之后,由于用户在不断移动,经过一段时间仍可能出现负载不均的情况,此时就需要重复上述行为直到再次均衡。
强化学习算法收集所有服务器的TOP作为此时的状态值
Figure 979937DEST_PATH_IMAGE047
,判断此时是否出现了 负载不均,若是,将其输入D3QN算法,得到此时的最佳动作
Figure 198429DEST_PATH_IMAGE048
并据此将服务器重新分组,重 新分组之后,我们分别统计用户任务在本地处理和边缘处理的成本并求其差值作为奖励 值,如果差值较大,说明分组效果较好。
需要注意,分组的时间间隔为
Figure 995484DEST_PATH_IMAGE049
,而TOC控制算法的时间间隔为
Figure 604320DEST_PATH_IMAGE005
。二者是不同的, 原因在于每次通过TOC控制算法得到TOP集合
Figure 840129DEST_PATH_IMAGE046
之后,并不一定会出现负载不均,也就是不一 定会触发强化学习分组动作,所以分组的时间间隔
Figure 850810DEST_PATH_IMAGE049
并不是一个固定值,可能包含多个
Figure 818766DEST_PATH_IMAGE005
如图2所示,本发明中的控制方法,首先通过SG与环境中的移动用户交互计算最佳TOP,交互过程分为3个阶段:1、广播TOP,2、收集用户任务,3、计算新的TOP。在第三阶段的计算中,为了求解最佳TOP,需要已知下一时隙的任务量,这里采用卡尔曼滤波算法估计下一时隙的任务到达率,然后据此求解最佳TOP。在SG与移动用户群交互完成之后,就可以得到所有MES的TOP,此时需要判断最大TOP与最小TOP之间的差距是否大于设定值,若是,则需要启动RL算法对MES进行重分组,直至差距小于设定值。由于场景的动态特性,这个过程会一直持续。
综上所述,本发明中的面向大规模边缘计算系统的任务卸载控制方法及系统,先基于卡尔曼滤波对任务量进行估计并据此计算任务卸载概率,以控制用户卸载行为,并根据所有服务器的任务卸载概率判断此时是否存在负载不均,若存在就启动强化学习分组模型对服务器进行重分组,重复这个过程直至负载均衡。相比现有技术,本发明设计的任务调度策略计算复杂度较低,满足动态场景的实时性要求,并且有效的解决了在较大规模的边缘计算场景中的负载均衡问题。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种面向大规模边缘计算系统的任务卸载控制方法,其特征在于,包括以下步骤:
对边缘计算系统中的边缘服务器进行分组,得到多个服务器组;
对于任意一组服务器组
Figure 211153DEST_PATH_IMAGE001
,获取所述服务器组
Figure 580954DEST_PATH_IMAGE001
下的移动用户的历史平均任务到达速 率,并根据所述历史平均任务到达速率预测所述服务器组
Figure 940391DEST_PATH_IMAGE001
下的移动用户在预测时刻的平 均任务到达速率,并根据所述服务器组
Figure 455555DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计 算所述服务器组
Figure 329970DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小时对应的最优卸载概率;再在预测 时刻以所述最优卸载概率控制所述服务器组
Figure 706725DEST_PATH_IMAGE001
下的移动用户进行任务卸载;
获取所述服务器组
Figure 982986DEST_PATH_IMAGE001
下的移动用户的历史平均任务到达速率,并根据所述历史平均任 务到达速率预测所述服务器组
Figure 154204DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率,包括以下 步骤:
Figure 515915DEST_PATH_IMAGE002
时隙末尾,统计所述服务器组
Figure 165202DEST_PATH_IMAGE001
内的所有服务器在当前时隙收到的任务量之和
Figure 561549DEST_PATH_IMAGE003
和所述服务器组
Figure 147076DEST_PATH_IMAGE001
下的移动用户的数量
Figure 199346DEST_PATH_IMAGE004
,其中,
Figure 714641DEST_PATH_IMAGE005
为当前时隙;
基于得到的所述服务器组
Figure 903177DEST_PATH_IMAGE001
内的所有服务器在当前时隙收到的任务量之和
Figure 478515DEST_PATH_IMAGE003
和所述 服务器组
Figure 18081DEST_PATH_IMAGE001
下的移动用户的数量
Figure 524017DEST_PATH_IMAGE004
,通过以下公式计算所述服务器组
Figure 629376DEST_PATH_IMAGE001
内的所有移动用户 在当前时隙的平均任务到达速率
Figure 313299DEST_PATH_IMAGE006
Figure 74581DEST_PATH_IMAGE007
其中,
Figure 197258DEST_PATH_IMAGE008
Figure 94807DEST_PATH_IMAGE009
时隙的服务器组
Figure 11947DEST_PATH_IMAGE001
的卸载概率值;
基于计算得到的所述服务器组
Figure 509794DEST_PATH_IMAGE001
内的所有移动用户在当前时隙的平均任务到达速率
Figure 170582DEST_PATH_IMAGE006
,通过卡尔曼滤波估计所述服务器组
Figure 922637DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务到达 速率
Figure 276258DEST_PATH_IMAGE010
2.根据权利要求1所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于, 根据所述服务器组
Figure 12133DEST_PATH_IMAGE001
下的移动用户在预测时刻的平均任务到达速率计算所述服务器组
Figure 148716DEST_PATH_IMAGE001
内 的所有移动用户计算成本之和最小时对应的最优卸载概率,包括以下步骤:
根据所述服务器组
Figure 83174DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务到达速率计算所述服务 器组
Figure 794647DEST_PATH_IMAGE001
内的所有移动用户预测时刻将任务卸载到边缘进行执行的时延;
构建以所述服务器组
Figure 548977DEST_PATH_IMAGE001
内的所有移动用户计算成本之和最小为优化目标,以所述服务 器组内的所有移动用户将任务卸载到边缘进行执行的时延以及卸载概率为变量的目标优 化模型;
将计算得到的所述服务器组
Figure 754830DEST_PATH_IMAGE001
内的所有移动用户预测时刻将任务卸载到边缘进行执行 的时延输入到所述目标优化模型中,求解所述目标优化模型的最优解作为所述服务器组
Figure 543795DEST_PATH_IMAGE001
的最优卸载概率。
3.根据权利要求2所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于, 服务器组
Figure 911322DEST_PATH_IMAGE011
内的所有服务器共享所述服务器组
Figure 621789DEST_PATH_IMAGE001
的最优卸载概率;所述目标优化模型为:
Figure 428071DEST_PATH_IMAGE012
Figure 258493DEST_PATH_IMAGE013
Figure 124817DEST_PATH_IMAGE014
Figure 791422DEST_PATH_IMAGE015
式中,
Figure 401395DEST_PATH_IMAGE016
表示服务器组
Figure 368214DEST_PATH_IMAGE001
下的所有移动用户的计算成本之和,
Figure 77544DEST_PATH_IMAGE017
表示服务器组
Figure 559341DEST_PATH_IMAGE001
下的 第
Figure 894376DEST_PATH_IMAGE017
个移动用户,
Figure 715702DEST_PATH_IMAGE004
为服务器组
Figure 658250DEST_PATH_IMAGE001
下的移动用户总数;
Figure 299447DEST_PATH_IMAGE018
表示服务器组
Figure 251222DEST_PATH_IMAGE001
的卸载概率值,
Figure 661475DEST_PATH_IMAGE019
表示服务器组
Figure 40504DEST_PATH_IMAGE001
下的第
Figure 418264DEST_PATH_IMAGE017
个移动用户的计算成本;
Figure 908152DEST_PATH_IMAGE020
表示服务器组
Figure 438490DEST_PATH_IMAGE001
下的第
Figure 191682DEST_PATH_IMAGE017
个移动 用户在本地执行任务的计算成本,
Figure 604209DEST_PATH_IMAGE021
表示服务器组
Figure 835470DEST_PATH_IMAGE001
下的第
Figure 282632DEST_PATH_IMAGE017
个移动用户将任务卸载到边 缘进行执行的计算成本;
Figure 190414DEST_PATH_IMAGE022
Figure 355816DEST_PATH_IMAGE023
分别表示所述服务器组
Figure 125189DEST_PATH_IMAGE001
下第
Figure 426858DEST_PATH_IMAGE017
个移动用户在本地执行任务 的时延、功耗;
Figure 256273DEST_PATH_IMAGE024
Figure 643392DEST_PATH_IMAGE025
分别表示所述服务器组
Figure 482035DEST_PATH_IMAGE001
下第
Figure 96600DEST_PATH_IMAGE017
个移动用户将任务卸载到边缘进行执 行的时延、功耗;
Figure 159233DEST_PATH_IMAGE026
表示计算成本中时延的比重,
Figure 971332DEST_PATH_IMAGE026
越大表示任务对时延越敏感,反之则对功 耗敏感,且0<
Figure 144824DEST_PATH_IMAGE026
<1。
4.根据权利要求1所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于,
根据所述服务器组
Figure 624347DEST_PATH_IMAGE001
内的所有移动用户在预测时刻的平均任务到达速率计算所述服务 器组
Figure 795565DEST_PATH_IMAGE001
内的移动用户预测时刻将任务卸载到边缘进行执行的时延,通过以下公式实现:
Figure 157276DEST_PATH_IMAGE027
式中,
Figure 321410DEST_PATH_IMAGE024
所述服务器组
Figure 717757DEST_PATH_IMAGE001
下第
Figure 59876DEST_PATH_IMAGE017
个移动用户将任务卸载到边缘进行执行的时延,
Figure 846567DEST_PATH_IMAGE028
表示 服务器组
Figure 627441DEST_PATH_IMAGE001
内的所有的移动用户的平均任务大小,
Figure 815977DEST_PATH_IMAGE029
表示服务器组
Figure 391315DEST_PATH_IMAGE001
内的所有的移动用户的 平均传输速率,
Figure 648989DEST_PATH_IMAGE030
为服务器组
Figure 967975DEST_PATH_IMAGE001
的任务处理速率
Figure 11018DEST_PATH_IMAGE031
表示服务器组
Figure 960519DEST_PATH_IMAGE001
的卸载概率值,
Figure 784119DEST_PATH_IMAGE004
为 服务器组
Figure 578899DEST_PATH_IMAGE001
下的移动用户总数;
Figure 804344DEST_PATH_IMAGE032
为所述服务器组
Figure 908435DEST_PATH_IMAGE001
下的所有移动用户在预测时刻的平均 任务到达速率。
5.根据权利要求4所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于,在计算得到边缘计算系统中各个服务器组的最优卸载概率后,在预测时刻以所述最优卸载概率控制所述服务器下的移动用户进行任务卸载前,还包括以下步骤:
对边缘计算系统中各个服务器组的最优卸载概率按数值大小进行排序,从排序中选取最优卸载概率中的最大值以及最小值,并计算二者差值的绝对值:
若二者差值的绝对值不大于预设阈值,则判断所述边缘计算系统内的各个服务器负载均衡,再以各个服务器组的预测时刻的最优卸载概率控制各个服务器组下的移动用户在预测时刻进行任务卸载;
若二者差值的绝对值大于预设阈值,则判断所述边缘计算系统内的各个服务器负载不均衡,对所述边缘计算系统的各个服务器进行重新分组,并计算重新分组后的各个服务器组的最优卸载概率,直至计算的重新分组后的各个服务器组的最优卸载概率中的最大值和最小值的差值绝对值不大于预设阈值,再以计算的重新分组后的各个服务器组的最优卸载概率控制重新分组后的各个服务器组下的移动用户在预测时刻进行任务卸载。
6.根据权利要求5所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于,所述边缘计算系统的各个服务器进行重新分组,包括以下步骤:
构建强化学习分组模型,所述强化学习分组模型以所述边缘计算系统中所有服务器的负载情况作为状态,以任意两个服务器的同组或异组作为动作,以所述边缘计算系统中所有移动用户在本地执行任务的计算成本与将任务卸载到边缘进行执行的计算成本之差的平均值作为奖励值;
获取所述边缘计算系统中所有服务器当前的负载情况,将所述边缘计算系统中所有服务器当前的负载情况作为状态输入到构建好的强化学习分组模型中,得到所述边缘计算系统的各个服务器的重新分组。
7.根据权利要求6所述的面向大规模边缘计算系统的任务卸载控制方法,其特征在于, 所述强化学习分组模型的动作为
Figure 953752DEST_PATH_IMAGE033
,A表示动作集合;
Figure 552223DEST_PATH_IMAGE017
Figure 632175DEST_PATH_IMAGE034
表示两个不同的 服务器,
Figure 657900DEST_PATH_IMAGE035
Figure 393775DEST_PATH_IMAGE036
为1表示此时的动作是将
Figure 858254DEST_PATH_IMAGE017
Figure 979663DEST_PATH_IMAGE034
两个服务器所在的服务器组融合 为同一个服务器组,如果二者已经在同一组,则不做任何动作;
Figure 238606DEST_PATH_IMAGE036
为0则表示将服务器
Figure 196197DEST_PATH_IMAGE034
从二者所处的同一个服务器组拆离出去,如果二者本就属于不同组,则不做任何动作;
所述强化学习分组模型的奖励值计算公式如下:
Figure 464368DEST_PATH_IMAGE037
式中,
Figure 191015DEST_PATH_IMAGE029
为奖励值,
Figure 620860DEST_PATH_IMAGE038
为所述边缘计算系统中所有移动用户的数量,
Figure 65747DEST_PATH_IMAGE020
表示服务器组
Figure 872029DEST_PATH_IMAGE001
下 的第
Figure 968030DEST_PATH_IMAGE017
个移动用户在本地执行任务的计算成本,
Figure 772038DEST_PATH_IMAGE021
表示服务器组
Figure 500960DEST_PATH_IMAGE001
下的第
Figure 48616DEST_PATH_IMAGE017
个移动用户将任 务卸载到边缘进行执行的计算成本。
8.一种计算机系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7任一所述方法的步骤。
CN202111325318.3A 2021-11-10 2021-11-10 面向大规模边缘计算系统的任务卸载控制方法及系统 Active CN113766037B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111325318.3A CN113766037B (zh) 2021-11-10 2021-11-10 面向大规模边缘计算系统的任务卸载控制方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111325318.3A CN113766037B (zh) 2021-11-10 2021-11-10 面向大规模边缘计算系统的任务卸载控制方法及系统

Publications (2)

Publication Number Publication Date
CN113766037A CN113766037A (zh) 2021-12-07
CN113766037B true CN113766037B (zh) 2022-02-11

Family

ID=78784814

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111325318.3A Active CN113766037B (zh) 2021-11-10 2021-11-10 面向大规模边缘计算系统的任务卸载控制方法及系统

Country Status (1)

Country Link
CN (1) CN113766037B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114466023B (zh) * 2022-03-07 2023-07-11 中南大学 面向大规模边缘计算系统的计算服务动态定价方法及系统
CN115878227B (zh) * 2023-03-02 2023-05-12 江西师范大学 一种基于人群分类的边缘计算任务卸载方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023115A1 (en) * 2018-07-27 2020-01-30 Futurewei Technologies, Inc. Task offloading and routing in mobile edge cloud networks
CN111163143A (zh) * 2019-12-21 2020-05-15 浙江大学 一种面向移动边缘计算的低时延任务卸载方法
CN111258677A (zh) * 2020-01-16 2020-06-09 重庆邮电大学 面向异构网络边缘计算的任务卸载方法
CN111580943A (zh) * 2020-04-01 2020-08-25 浙江大学 一种面向低时延边缘计算中多跳卸载的任务调度方法
CN112512056A (zh) * 2020-11-14 2021-03-16 北京工业大学 一种移动边缘计算网络中多目标优化的计算卸载方法
CN113254095A (zh) * 2021-04-25 2021-08-13 西安电子科技大学 云边结合平台的任务卸载、调度与负载均衡系统、方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11470176B2 (en) * 2019-01-29 2022-10-11 Cisco Technology, Inc. Efficient and flexible load-balancing for clusters of caches under latency constraint

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023115A1 (en) * 2018-07-27 2020-01-30 Futurewei Technologies, Inc. Task offloading and routing in mobile edge cloud networks
CN111163143A (zh) * 2019-12-21 2020-05-15 浙江大学 一种面向移动边缘计算的低时延任务卸载方法
CN111258677A (zh) * 2020-01-16 2020-06-09 重庆邮电大学 面向异构网络边缘计算的任务卸载方法
CN111580943A (zh) * 2020-04-01 2020-08-25 浙江大学 一种面向低时延边缘计算中多跳卸载的任务调度方法
CN112512056A (zh) * 2020-11-14 2021-03-16 北京工业大学 一种移动边缘计算网络中多目标优化的计算卸载方法
CN113254095A (zh) * 2021-04-25 2021-08-13 西安电子科技大学 云边结合平台的任务卸载、调度与负载均衡系统、方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Wenhao Fan ; Le Yao ; Junting Han ; Fan Wu.Game-Based Multitype Task Offloading Among.《IEEE INTERNET OF THINGS JOURNAL》.2021, *
李邱苹 ; 赵军辉 ; 贡毅.移动边缘计算中的计算卸载和资源管理方案.《电信科学》.2019,全文. *

Also Published As

Publication number Publication date
CN113766037A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN111240701B (zh) 一种端-边-云协同计算的任务卸载优化方法
CN110971706B (zh) Mec中近似最优化与基于强化学习的任务卸载方法
CN110377353B (zh) 计算任务卸载系统与方法
CN109857546B (zh) 基于Lyapunov优化的多服务器移动边缘计算卸载方法及装置
Baek et al. Managing fog networks using reinforcement learning based load balancing algorithm
CN113766037B (zh) 面向大规模边缘计算系统的任务卸载控制方法及系统
CN109829332B (zh) 一种基于能量收集技术的联合计算卸载方法及装置
CN110096362B (zh) 一种基于边缘服务器协作的多任务卸载方法
CN110798849A (zh) 一种超密网边缘计算的计算资源分配与任务卸载方法
CN109802998B (zh) 一种基于博弈的雾网络协同调度激励方法及系统
CN111061560B (zh) 云渲染资源调度方法、装置、电子设备及存储介质
CN111711666B (zh) 一种基于强化学习的车联网云计算资源优化方法
CN110519370B (zh) 一种基于设施选址问题的边缘计算资源分配方法
CN114340016A (zh) 一种电网边缘计算卸载分配方法及系统
CN113810233A (zh) 一种在随机网络中基于算网协同的分布式计算卸载方法
CN109639833A (zh) 一种基于无线城域网微云负载均衡的任务调度方法
CN115421930B (zh) 任务处理方法、系统、装置、设备及计算机可读存储介质
CN113573363A (zh) 基于深度强化学习的mec计算卸载与资源分配方法
CN113992945A (zh) 一种基于博弈论的多服务器多用户视频分析任务卸载方法
CN115473896A (zh) 基于dqn算法的电力物联网卸载策略和资源配置优化方法
CN112596910A (zh) 一种多用户mec系统中的云计算资源调度方法
CN112511652A (zh) 一种边缘计算下的合作计算任务分配方法
CN115499875B (zh) 一种卫星互联网任务卸载方法、系统以及可读存储介质
CN111580943A (zh) 一种面向低时延边缘计算中多跳卸载的任务调度方法
CN116302578A (zh) 一种QoS约束的流应用延迟确保方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant