CN110177055A - 一种边缘计算场景下边缘域资源的预分配方法 - Google Patents
一种边缘计算场景下边缘域资源的预分配方法 Download PDFInfo
- Publication number
- CN110177055A CN110177055A CN201910454827.2A CN201910454827A CN110177055A CN 110177055 A CN110177055 A CN 110177055A CN 201910454827 A CN201910454827 A CN 201910454827A CN 110177055 A CN110177055 A CN 110177055A
- Authority
- CN
- China
- Prior art keywords
- level
- service
- edge domain
- domain
- resource
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/78—Architectures of resource allocation
- H04L47/783—Distributed allocation of resources, e.g. bandwidth brokers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/104—Peer-to-peer [P2P] networks
- H04L67/1074—Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种边缘计算场景下边缘域资源的预分配方法,其包括以下步骤:预测到达率并测量转发时延,在一级边缘域中根据到达率和服务的权重决定服务预缓存的类型,并根据第一时延决定每个服务的分配比例;在二级边缘域中根据第二时延决定服务预缓存的类型,并通过内点法获取初始缓存方案;通过随机选取服务缓存类型的方式获取新的资源缓存方案,从初始缓存方案和新的资源缓存方案中选取平均时延较小的方案作为最终的预分配方案,进而完成预分配。本发明利用统计数据,对下一周期内用户的需求进行预估,根据预估数据对边缘的服务器进行服务种类及数量的预分配,使得本发明可进行更高效的资源配置,提高资源的利用率并缩短应用的时延。
Description
技术领域
本发明涉及通信领域,具体涉及一种边缘计算场景下边缘域资源的预分配方法。
背景技术
移动边缘计算(Multi-access edge computing,MEC),是一个新兴的生态系统,旨在融合电信和IT服务,在无线接入网的边缘提供云计算平台。MEC在边缘提供存储和计算资源,减少移动终端用户的延迟,更有效地利用移动网络中的带宽资源。MEC在移动网络的边缘提供云计算和存储资源,创造了诸如超低延迟,密集计算能力以及减少网络拥塞等显着优势,这对于诸如物联网,视频流分析,增强现实和联网汽车等新兴应用是必需的。
用户对用户设备(User Equipment,UE)的计算能力的要求正在上升,这是由于计算需求以诸如面部/对象识别,视频/语音处理等应用的形式执行的任务。然而,由于UE由具有有限容量的电池供电,由于高能耗,这些应用程序仅可以在有限的时间内使用。此外,如果UE不能提供足够的计算能力,则应用程序根本无法运行。随着技术的发展,人们在终端的应用越来越智能化、多样化,许多应用的实现需要较高的计算性能作为支撑。而为了便携性,通常人们希望在可穿戴设备上就能支撑这些应用,这意味着设备必须偏向小型化的方向发展。在现阶段看来,高性能与便携性几乎是一对矛盾。因为更小的设备尺寸决定了设备只能配备更小的处理芯片、更小的电池。计算卸载这一模式的出现就是为了解决这个矛盾。
计算卸载是指资源受限的设备将资源密集型计算任务转移到外部平台。云计算的形式是设备将任务发送到云端的数据中心进行处理,但该种方式存在着延迟大,占用带宽多等问题。所以移动边缘计算的方式正在逐渐受到重视。移动边缘计算是将计算资源推向处在网络边缘的用户,用户设备卸载的计算任务可以无需经过广域网,在网络边缘就可以完成处理,并返回结果。移动边缘计算相比于云计算存在着更低的时延。
在移动边缘计算场景下,设备一般通过无线的方式进行传输。移动边缘计算的典型场景为移动设备或者物联网设备通过基站接入移动网络。而边缘网络存在着一些服务器称为边缘服务器,其与基站直接相连。这些服务器运行了某些种类的虚拟机,可以代为执行某些类型的服务,具体的服务种类根据边缘服务器上缓存的虚拟机决定。用户设备可以将计算密集型的任务通过无线传输的方式传输到这些边缘服务器上代为执行,边缘服务器将得到的结果返回给用户设备。
移动边缘计算场景下的计算卸载,会引入一定的问题。1)其中一个问题是计算资源分配。边缘服务器是通过虚拟机的方式对用户设备提供计算服务的。而通常边缘服务器资源相对受限只能缓存某几种服务的虚拟机。对需要缓存的虚拟机种类和虚拟机之间资源的分配决策就显得尤为重要。因为更好的缓存或资源分配决策可以提高任务的命中率(即用户需要某种服务,而边缘服务器上正好存在该种服务的虚拟机),从而减少用户的时延。2)另一个问题是计算任务的调度。由用户设备卸载的计算任务,需要决策传输到哪里进行执行。可选的卸载目标有用户设备直连的边缘服务器(本文中的一级边缘域)、非用户直连的边缘服务器(本文中的二级边缘域)和云端。一般情况下,我们希望任务可以在直连的边缘服务器进行执行,但有时因为边缘该种服务的任务过多超过了直连服务器的承载能力,此时将过多的任务交由直连服务器,引起从延迟甚至可能超过云端计算卸载的时延。所以需要对边缘的计算任务进行一定的调度降低整体的时延情况,这就需要边缘具有一定的任务调度策略。通常上述的资源分配策略和任务调度策略是在一个决策中完成的,因为资源分配和任务调度的决策结果会互相影响。
发明内容
针对现有技术中的上述不足,本发明提供的一种边缘计算场景下边缘域资源的预分配方法解决了边缘计算场景下边缘域资源的预分配问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种边缘计算场景下边缘域资源的预分配方法,其包括以下步骤:
S1、根据与用户的距离将边缘服务器划分为一级边缘域和二级边缘域;预测每种服务至一级边缘域中每个基站的到达率,得到到达率预测值;
S2、根据到达率预测值对一级边缘域进行服务类型预缓存;
S3、测量各种类型服务从一级边缘域转发并接收所需时间,得到第一时延;
S4、根据到达率预测值和第一时延获取一级边缘域中每个服务器对每个服务的分配比例,得到一级边缘域的资源预分配方案,并更新寻址表;
S5、测量各种类型服务从二级边缘域转发并接收所需时间,得到第二时延;
S6、对二级边缘域中的服务器进行遍历,获取二级边缘域中每个服务器的资源余量和服务的缓存优先指标;
S7、根据缓存优先指标降序将二级边缘域中大于资源门限的计算资源余量所对应的服务进行缓存,得到二级边缘域的资源缓存方案;
S8、根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案;设置随机次数的初始值;
S9、判断随机次数是否小于随机次数阈值,若是则在二级边缘域中按照服务的缓存优先指标降序取出服务并生成一个与该服务对应的随机数,进入步骤S10;否则将二级边缘域的备选方案作为二级边缘域的资源预分配方案;
S10、判断该服务的最低资源门限和对应的随机数是否分别小于二级边缘域中与该服务对应的计算资源余量和随机数阈值,若是则将该服务进行缓存并从计算资源余量中扣除对应的最低资源门限,否则不对该服务进行缓存,得到二级边缘域新的资源缓存方案并进入步骤S11;
S11、根据第二时延和二级边缘域新的资源缓存方案,通过内点法获取二级边缘域的再选最优方案;
S12、判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选方案的平均时延,若是则将二级边缘域的再选最优方案最为新的二级边缘域的备选方案,将随机次数加1并返回步骤S9;否则舍去当前二级边缘域的再选最优方案,将随机次数加1并返回步骤S9。
进一步地,步骤S1中预测用户至一级边缘域的到达率的具体方法包括以下子步骤:
S1-1、将第一个周期中每种服务至一级边缘域每个基站的到达率预测值设置为1;
S1-2、对于每个基站每种服务,在整个周期内将用户的访问总数进行求和后除以周期长度,得到每个基站每种服务的实际到达率;
S1-3、判定下一周期前是否经历了至少五个周期,若是则将前五个周期中每个基站每种服务实际的平均到达率做线性回归,并将回归结果作为下一周期的到达率预测值,进入步骤S2;否则进入步骤S1-4;
S1-4、将前面所有周期中每个基站每种服务实际的平均到达率做线性回归,将回归结果作为下一周期的到达率预测值,进入步骤S2。
进一步地,步骤S2的具体方法包括以下子步骤:
S2-1、根据服务的延迟敏感程度对每种服务分配权重;
S2-2、将到达率预测值与对应服务的权重相乘,得到与每种服务对应的缓存优先值;
S2-3、对一级边缘域中的服务器进行遍历,获取一级边缘域中每个服务器的资源余量;
S2-4、根据缓存优先值的降序在一级边缘域内依次判断每个服务在一级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到一级边缘域中每个服务器的缓存方案,完成服务类型预缓存。
进一步地,步骤S4的具体方法包括以下子步骤:
S4-1、将每个已进行类型预缓存的服务的资源门限作为其计算资源分配数量决策变量的初始值;将到达率预测值作为业务量迁入迁出决策变量的初始值;设置精度调整迭代轮数初始值为1,并设置精度调整迭代轮数阈值;设置梯度下降迭代轮数初始值为1,并设置梯度下降迭代轮数阈值;初始化对数障碍参数值;
S4-2、判断当前精度调整迭代轮数是否小于等于精度调整迭代轮数阈值,若是则进入步骤S4-3;否则进入步骤S4-7;
S4-3、判断当前梯度下降迭代轮数是否小于等于梯度下降迭代轮数阈值,若是则进入步骤S4-4;否则进入步骤S4-6;
S4-4、分别根据公式
获取计算资源分配决策变量梯度Δfi,j和业务量迁入迁出决策变量梯度Δdi,j;其中θi为第i种服务的权重,M为服务的总类数;totali为第i种服务在一级边缘域中总的实际到达率;xi,j为一级边缘域中的缓存决策变量,第i种服务在一级边缘域的第j个服务器上进行缓存时xi,j=1,第i种服务在一级边缘域的第j个服务器上不进行缓存时xi,j=0;ki为第i种服务的服务率系数,为常数;fi,j为将第i种服务在一级边缘域第j个服务器上的当前计算资源分配数量决策变量;di,j为第i种服务在一级边缘域第j个服务器上的当前业务量迁入迁出决策变量;λi,j为第i种服务在一级边缘域第j个服务器上的到达率预测值;r为当前对数障碍参数值;C为一级边缘域中单台服务器的CPU总频率;Ti为第一时延中第i种服务的时延;ti为第i种服务在一级边缘域内的服务器间转发所经历的时间,其在每个周期中为常数;N为一级边缘域中服务器的总数;
S4-5、分别根据公式
获取更新后的计算资源分配决策变量和更新后的业务量迁入迁出决策变量将梯度下降迭代轮数加1并返回步骤S4-3;其中α和β均为下降步长;
S4-6、根据公式
r1=r×0.1
获取更新后的对数障碍参数值r1,将精度调整迭代轮数加1并返回步骤S4-2;
S4-7、根据当前业务量迁入迁出决策变量和到达率预测值更新寻址表,并分别根据公式
获取一级边缘域中第j个服务器上第i个服务所分得的任务比例ρi,j,进而得到一级边缘域中每个服务器对每个服务的分配比例,以及将服务向二级边缘域或云服务器发送的比例ρup;
S4-8、将一级边缘域中每个服务器对每个服务的分配比例作为一级边缘域的资源预分配方案对一级边缘域进行资源预分配。
进一步地,步骤S7的具体方法为:
根据缓存优先指标的降序在二级边缘域内依次判断每个服务在二级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到二级边缘域的缓存方案,完成服务类型预缓存。
进一步地,步骤S8中根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案的具体方法为:
根据公式
fi'>Thri
ρi'=1-ρup
采用内点法获取二级边缘域的资源分配方案(xi',f'i,ρi'),即二级边缘域的备选方案;其中xi'为二级边缘域的备选方案中的缓存决策变量,当第i种服务在二级边缘域的备选方案中缓存时xi'=1,当第i种服务不在二级边缘域的备选方案中缓存时xi'=0;f'i为二级边缘域的备选方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi'为二级边缘域的备选方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
进一步地,步骤S11的具体方法为:
根据公式
fi″>Thri
ρi″=1-ρup
采用内点法获取二级边缘域新的资源分配方案(xi″,f″i,ρi″),即二级边缘域的再选最优方案;其中xi″为二级边缘域的再选最优方案中的缓存决策变量,在二级边缘域的再选最优方案中第i种服务缓存时xi″=1,在二级边缘域的再选最优方案中第i种服务不缓存时xi″=0;f″i为二级边缘域的再选最优方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi″为二级边缘域的再选最优方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
进一步地,步骤S12中判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选最优方案的平均时延的具体方法为:
分别将二级边缘域的再选最优方案和二级边缘域的备选方案带入delay函数,分别得到与二级边缘域的再选最优方案和二级边缘域的备选方案相对应的平均时延,将获取的两个平均时延进行大小比较。
本发明的有益效果为:
1、本发明利用统计数据,对下一周期内用户的需求进行预估,根据预估数据对边缘的服务器进行服务种类及数量的预分配,使得本发明可进行更高效的资源配置,提高资源的利用率并缩短应用的时延。
2、本发明在一级边缘域内从整体的角度进行任务调度和资源分配,避免了个别服务器过载问题,可进一步提高边缘域的计算资源利用率,提高用户体验。
3、本发明采用了最低资源要求,使得只有为该种服务的虚拟机分配了相应数量以上的资源,该服务才能正常运行,可有效防止将较大的服务分配至较小计算资源的服务器,进而缩短应用的时延。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该边缘计算场景下边缘域资源的预分配方法包括以下步骤:
S1、根据与用户的距离将边缘服务器划分为一级边缘域和二级边缘域;预测每种服务至一级边缘域中每个基站的到达率,得到到达率预测值;
S2、根据到达率预测值对一级边缘域进行服务类型预缓存;
S3、测量各种类型服务从一级边缘域转发并接收所需时间,得到第一时延;
S4、根据到达率预测值和第一时延获取一级边缘域中每个服务器对每个服务的分配比例,得到一级边缘域的资源预分配方案,并更新寻址表;
S5、测量各种类型服务从二级边缘域转发并接收所需时间,得到第二时延;
S6、对二级边缘域中的服务器进行遍历,获取二级边缘域中每个服务器的资源余量和服务的缓存优先指标;
S7、根据缓存优先指标降序将二级边缘域中大于资源门限的计算资源余量所对应的服务进行缓存,得到二级边缘域的资源缓存方案;
S8、根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案;设置随机次数的初始值;
S9、判断随机次数是否小于随机次数阈值,若是则在二级边缘域中按照服务的缓存优先指标降序取出服务并生成一个与该服务对应的随机数,进入步骤S10;否则将二级边缘域的备选方案作为二级边缘域的资源预分配方案;
S10、判断该服务的最低资源门限和对应的随机数是否分别小于二级边缘域中与该服务对应的计算资源余量和随机数阈值,若是则将该服务进行缓存并从计算资源余量中扣除对应的最低资源门限,否则不对该服务进行缓存,得到二级边缘域新的资源缓存方案并进入步骤S11;
S11、根据第二时延和二级边缘域新的资源缓存方案,通过内点法获取二级边缘域的再选最优方案;
S12、判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选方案的平均时延,若是则将二级边缘域的再选最优方案最为新的二级边缘域的备选方案,将随机次数加1并返回步骤S9;否则舍去当前二级边缘域的再选最优方案,将随机次数加1并返回步骤S9。
步骤S1中预测用户至一级边缘域的到达率的具体方法包括以下子步骤:
S1-1、将第一个周期中每种服务至一级边缘域每个基站的到达率预测值设置为1;
S1-2、对于每个基站每种服务,在整个周期内将用户的访问总数进行求和后除以周期长度,得到每个基站每种服务的实际到达率;
S1-3、判定下一周期前是否经历了至少五个周期,若是则将前五个周期中每个基站每种服务实际的平均到达率做线性回归,并将回归结果作为下一周期的到达率预测值,进入步骤S2;否则进入步骤S1-4;
S1-4、将前面所有周期中每个基站每种服务实际的平均到达率做线性回归,将回归结果作为下一周期的到达率预测值,进入步骤S2。
步骤S2的具体方法包括以下子步骤:
S2-1、根据服务的延迟敏感程度对每种服务分配权重;
S2-2、将到达率预测值与对应服务的权重相乘,得到与每种服务对应的缓存优先值;
S2-3、对一级边缘域中的服务器进行遍历,获取一级边缘域中每个服务器的资源余量;
S2-4、根据缓存优先值的降序在一级边缘域内依次判断每个服务在一级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到一级边缘域中每个服务器的缓存方案,完成服务类型预缓存。
步骤S4的具体方法包括以下子步骤:
S4-1、将每个已进行类型预缓存的服务的资源门限作为其计算资源分配数量决策变量的初始值;将到达率预测值作为业务量迁入迁出决策变量的初始值;设置精度调整迭代轮数初始值为1,并设置精度调整迭代轮数阈值;设置梯度下降迭代轮数初始值为1,并设置梯度下降迭代轮数阈值;初始化对数障碍参数值;
S4-2、判断当前精度调整迭代轮数是否小于等于精度调整迭代轮数阈值,若是则进入步骤S4-3;否则进入步骤S4-7;
S4-3、判断当前梯度下降迭代轮数是否小于等于梯度下降迭代轮数阈值,若是则进入步骤S4-4;否则进入步骤S4-6;
S4-4、分别根据公式
获取计算资源分配决策变量梯度Δfi,j和业务量迁入迁出决策变量梯度Δdi,j;其中θi为第i种服务的权重,M为服务的总类数;totali为第i种服务在一级边缘域中总的实际到达率;xi,j为一级边缘域中的缓存决策变量,第i种服务在一级边缘域的第j个服务器上进行缓存时xi,j=1,第i种服务在一级边缘域的第j个服务器上不进行缓存时xi,j=0;ki为第i种服务的服务率系数,为常数;fi,j为将第i种服务在一级边缘域第j个服务器上的当前计算资源分配数量决策变量;di,j为第i种服务在一级边缘域第j个服务器上的当前业务量迁入迁出决策变量;λi,j为第i种服务在一级边缘域第j个服务器上的到达率预测值;r为当前对数障碍参数值;C为一级边缘域中单台服务器的CPU总频率;Ti为第一时延中第i种服务的时延;ti为第i种服务在一级边缘域内的服务器间转发所经历的时间,其在每个周期中为常数;N为一级边缘域中服务器的总数;
S4-5、分别根据公式
获取更新后的计算资源分配决策变量和更新后的业务量迁入迁出决策变量将梯度下降迭代轮数加1并返回步骤S4-3;其中α和β均为下降步长;
S4-6、根据公式
r1=r×0.1
获取更新后的对数障碍参数值r1,将精度调整迭代轮数加1并返回步骤S4-2;
S4-7、根据当前业务量迁入迁出决策变量和到达率预测值更新寻址表,并分别根据公式
获取一级边缘域中第j个服务器上第i个服务所分得的任务比例ρi,j,进而得到一级边缘域中每个服务器对每个服务的分配比例,以及将服务向二级边缘域或云服务器发送的比例ρup;
S4-8、将一级边缘域中每个服务器对每个服务的分配比例作为一级边缘域的资源预分配方案对一级边缘域进行资源预分配。
步骤S7的具体方法为:根据缓存优先指标的降序在二级边缘域内依次判断每个服务在二级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到二级边缘域的缓存方案,完成服务类型预缓存。
步骤S8中根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案的具体方法为:根据公式
fi'>Thri
ρi'=1-ρup
采用内点法获取二级边缘域的资源分配方案(xi',f'i,ρi'),即二级边缘域的备选方案;其中xi'为二级边缘域的备选方案中的缓存决策变量,当第i种服务在二级边缘域的备选方案中缓存时xi'=1,当第i种服务不在二级边缘域的备选方案中缓存时xi'=0;f'i为二级边缘域的备选方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi'为二级边缘域的备选方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
步骤S11的具体方法为:根据公式
fi″>Thri
ρi″=1-ρup
采用内点法获取二级边缘域新的资源分配方案(xi″,f″i,ρi″),即二级边缘域的再选最优方案;其中xi″为二级边缘域的再选最优方案中的缓存决策变量,在二级边缘域的再选最优方案中第i种服务缓存时xi″=1,在二级边缘域的再选最优方案中第i种服务不缓存时xi″=0;f″i为二级边缘域的再选最优方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi″为二级边缘域的再选最优方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
步骤S12中判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选最优方案的平均时延的具体方法为:分别将二级边缘域的再选最优方案和二级边缘域的备选方案带入delay函数,分别得到与二级边缘域的再选最优方案和二级边缘域的备选方案相对应的平均时延,将获取的两个平均时延进行大小比较。
在本发明的一个实施例中,以视频流业务为例说明计算卸载的流程。假设用户通过具有摄像功能的手持设备对实景画面进行采集,采集得到的画面需要一定的渲染,比如通过增强现实的手段来辅助认知,而这一处理过程需要通过计算卸载到边缘设备或者云端来完成,并将处理后的结果返回给客户端,并在客户端渲染呈现。首先客户端需要对边缘服务器或者云服务器发起计算卸载的请求时,会先对某个具体地址进行访问,这个地址对应了寻址服务器。这个地址可以是控制器在用户接入的时候广播发布的。因为存在多层计算节点的缘故,也存在两层寻址服务器(每级边缘域中均有寻址服务器),分别为各自边缘域内的计算卸载提供寻址。
客户首先请求直接相连的一级边缘域的寻址服务器,告知其需要请求的服务类型,如果一级边缘域预分配了相应的计算节点提供该类型的服务,则返回该计算节点的地址。一级寻址服务器在收到客户端请求时,会对一级寻址表进行匹配。当寻址表中存在匹配项时,寻址服务器会根据负载比例随机选择一个地址进行返回。当随机得到的地址是重定向或者不存在匹配的服务,则一级寻址服务器会将该请求转交给二级寻址服务器,寻址表中的重定向代表的就是离用户更远的边缘域。同样二级寻址服务器会执行相同的表项匹配流程,如果匹配到二级节点,则会返回相应的地址。不同的是当二级节点发现二级边缘域不存在相应的节点提供服务时,会直接返回云端地址。
当客户端取得计算卸载的目标地址后,将会尝试与该地址建立连接。连接的建立需要通过一定的协议,本文举例说明使用的是http协议,http协议有现成的实现,并且应用广泛,比较便于应用的开发。也可以采用其他类型的协议,来适应自身的应用场景,比如基于TCP或者UDP进行协议设计和开发。当连接建立后,客户端会将计算卸载请求进行封装,包括用户的认证方式、需要代为执行的功能和参与运算的数据。视频流的例子为:当用户设备的应用程序通过摄像头捕捉到画面之后,可以提取出关键帧作为待处理的数据,并标明需要代为执行的过程。因为http是面向文本的协议,可以采用多种方式对数据进行序列化,同样也可以在请求中注明返回的格式要求。客户端发送请求之后,等待结果返回,并对结果进行渲染,完成整个计算卸载流程。
综上所述,本发明利用统计数据,对下一周期内用户的需求进行预估,根据预估数据对边缘的服务器进行服务种类及数量的预分配,使得本发明可进行更高效的资源配置,提高资源的利用率并缩短应用的时延。
Claims (8)
1.一种边缘计算场景下边缘域资源的预分配方法,其特征在于,包括以下步骤:
S1、根据与用户的距离将边缘服务器划分为一级边缘域和二级边缘域;预测每种服务至一级边缘域中每个基站的到达率,得到到达率预测值;
S2、根据到达率预测值对一级边缘域进行服务类型预缓存;
S3、测量各种类型服务从一级边缘域转发并接收所需时间,得到第一时延;
S4、根据到达率预测值和第一时延获取一级边缘域中每个服务器对每个服务的分配比例,得到一级边缘域的资源预分配方案,并更新寻址表;
S5、测量各种类型服务从二级边缘域转发并接收所需时间,得到第二时延;
S6、对二级边缘域中的服务器进行遍历,获取二级边缘域中每个服务器的资源余量和服务的缓存优先指标;
S7、根据缓存优先指标降序将二级边缘域中大于资源门限的计算资源余量所对应的服务进行缓存,得到二级边缘域的资源缓存方案;
S8、根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案;设置随机次数的初始值;
S9、判断随机次数是否小于随机次数阈值,若是则在二级边缘域中按照服务的缓存优先指标降序取出服务并生成一个与该服务对应的随机数,进入步骤S10;否则将二级边缘域的备选方案作为二级边缘域的资源预分配方案;
S10、判断该服务的最低资源门限和对应的随机数是否分别小于二级边缘域中与该服务对应的计算资源余量和随机数阈值,若是则将该服务进行缓存并从计算资源余量中扣除对应的最低资源门限,否则不对该服务进行缓存,得到二级边缘域新的资源缓存方案并进入步骤S11;
S11、根据第二时延和二级边缘域新的资源缓存方案,通过内点法获取二级边缘域的再选最优方案;
S12、判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选方案的平均时延,若是则将二级边缘域的再选最优方案最为新的二级边缘域的备选方案,将随机次数加1并返回步骤S9;否则舍去当前二级边缘域的再选最优方案,将随机次数加1并返回步骤S9。
2.根据权利要求1所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S1中预测用户至一级边缘域的到达率的具体方法包括以下子步骤:
S1-1、将第一个周期中每种服务至一级边缘域每个基站的到达率预测值设置为1;
S1-2、对于每个基站每种服务,在整个周期内将用户的访问总数进行求和后除以周期长度,得到每个基站每种服务的实际到达率;
S1-3、判定下一周期前是否经历了至少五个周期,若是则将前五个周期中每个基站每种服务实际的平均到达率做线性回归,并将回归结果作为下一周期的到达率预测值,进入步骤S2;否则进入步骤S1-4;
S1-4、将前面所有周期中每个基站每种服务实际的平均到达率做线性回归,将回归结果作为下一周期的到达率预测值,进入步骤S2。
3.根据权利要求1所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S2的具体方法包括以下子步骤:
S2-1、根据服务的延迟敏感程度对每种服务分配权重;
S2-2、将到达率预测值与对应服务的权重相乘,得到与每种服务对应的缓存优先值;
S2-3、对一级边缘域中的服务器进行遍历,获取一级边缘域中每个服务器的资源余量;
S2-4、根据缓存优先值的降序在一级边缘域内依次判断每个服务在一级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到一级边缘域中每个服务器的缓存方案,完成服务类型预缓存。
4.根据权利要求1所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S4的具体方法包括以下子步骤:
S4-1、将每个已进行类型预缓存的服务的资源门限作为其计算资源分配数量决策变量的初始值;将到达率预测值作为业务量迁入迁出决策变量的初始值;设置精度调整迭代轮数初始值为1,并设置精度调整迭代轮数阈值;设置梯度下降迭代轮数初始值为1,并设置梯度下降迭代轮数阈值;初始化对数障碍参数值;
S4-2、判断当前精度调整迭代轮数是否小于等于精度调整迭代轮数阈值,若是则进入步骤S4-3;否则进入步骤S4-7;
S4-3、判断当前梯度下降迭代轮数是否小于等于梯度下降迭代轮数阈值,若是则进入步骤S4-4;否则进入步骤S4-6;
S4-4、分别根据公式
获取计算资源分配决策变量梯度Δfi,j和业务量迁入迁出决策变量梯度Δdi,j;其中θi为第i种服务的权重,M为服务的总类数;totali为第i种服务在一级边缘域中总的实际到达率;xi,j为一级边缘域中的缓存决策变量,第i种服务在一级边缘域的第j个服务器上进行缓存时xi,j=1,第i种服务在一级边缘域的第j个服务器上不进行缓存时xi,j=0;ki为第i种服务的服务率系数,为常数;fi,j为将第i种服务在一级边缘域第j个服务器上的当前计算资源分配数量决策变量;di,j为第i种服务在一级边缘域第j个服务器上的当前业务量迁入迁出决策变量;λi,j为第i种服务在一级边缘域第j个服务器上的到达率预测值;r为当前对数障碍参数值;C为一级边缘域中单台服务器的CPU总频率;Ti为第一时延中第i种服务的时延;ti为第i种服务在一级边缘域内的服务器间转发所经历的时间,其在每个周期中为常数;N为一级边缘域中服务器的总数;
S4-5、分别根据公式
获取更新后的计算资源分配决策变量和更新后的业务量迁入迁出决策变量将梯度下降迭代轮数加1并返回步骤S4-3;其中α和β均为下降步长;
S4-6、根据公式
r1=r×0.1
获取更新后的对数障碍参数值r1,将精度调整迭代轮数加1并返回步骤S4-2;
S4-7、根据当前业务量迁入迁出决策变量和到达率预测值更新寻址表,并分别根据公式
获取一级边缘域中第j个服务器上第i个服务所分得的任务比例ρi,j,进而得到一级边缘域中每个服务器对每个服务的分配比例,以及将服务向二级边缘域或云服务器发送的比例ρup;
S4-8、将一级边缘域中每个服务器对每个服务的分配比例作为一级边缘域的资源预分配方案对一级边缘域进行资源预分配。
5.根据权利要求1所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S7的具体方法为:
根据缓存优先指标的降序在二级边缘域内依次判断每个服务在二级边缘域中每个服务器的计算资源余量是否大于资源门限,若是则将该服务进行缓存,并从计算资源余量中扣除该服务对应的资源门限,否则不对该服务进行缓存,得到二级边缘域的缓存方案,完成服务类型预缓存。
6.根据权利要求5所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S8中根据第二时延和二级边缘域的资源缓存方案,通过内点法获取二级边缘域的资源分配方案,进而得到二级边缘域的备选方案的具体方法为:
根据公式
fi'>Thri
ρi'=1-ρup
采用内点法获取二级边缘域的资源分配方案(xi',f'i,ρi'),即二级边缘域的备选方案;其中xi'为二级边缘域的备选方案中的缓存决策变量,当第i种服务在二级边缘域的备选方案中缓存时xi'=1,当第i种服务不在二级边缘域的备选方案中缓存时xi'=0;f'i为二级边缘域的备选方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi'为二级边缘域的备选方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
7.根据权利要求6所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S11的具体方法为:
根据公式
fi”>Thri
ρi”=1-ρup
采用内点法获取二级边缘域新的资源分配方案(xi”,f”i,ρi”),即二级边缘域的再选最优方案;其中xi”为二级边缘域的再选最优方案中的缓存决策变量,在二级边缘域的再选最优方案中第i种服务缓存时xi”=1,在二级边缘域的再选最优方案中第i种服务不缓存时xi”=0;f”i为二级边缘域的再选最优方案中第i种服务在二级边缘域上的计算资源分配数量决策变量;ρi”为二级边缘域的再选最优方案中第i种服务在二级边缘域上的任务卸载比例决策变量;Ti'为第二时延中第i种服务的时延;Thri为第i种服务的资源门限;λi为第i种服务在二级边缘域上的到达率预测值。
8.根据权利要求7所述的边缘计算场景下边缘域资源的预分配方法,其特征在于,所述步骤S12中判断二级边缘域的再选最优方案的平均时延是否小于二级边缘域的备选最优方案的平均时延的具体方法为:
分别将二级边缘域的再选最优方案和二级边缘域的备选方案带入delay函数,分别得到与二级边缘域的再选最优方案和二级边缘域的备选方案相对应的平均时延,将获取的两个平均时延进行大小比较。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910454827.2A CN110177055B (zh) | 2019-05-29 | 2019-05-29 | 一种边缘计算场景下边缘域资源的预分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910454827.2A CN110177055B (zh) | 2019-05-29 | 2019-05-29 | 一种边缘计算场景下边缘域资源的预分配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110177055A true CN110177055A (zh) | 2019-08-27 |
CN110177055B CN110177055B (zh) | 2020-08-18 |
Family
ID=67695847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910454827.2A Active CN110177055B (zh) | 2019-05-29 | 2019-05-29 | 一种边缘计算场景下边缘域资源的预分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110177055B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110519370A (zh) * | 2019-08-28 | 2019-11-29 | 湘潭大学 | 一种基于设施选址问题的边缘计算资源分配方法 |
CN110753126A (zh) * | 2019-10-28 | 2020-02-04 | 国网河南省电力公司信息通信公司 | 服务节点选择方法、设备管理方法、装置、系统和介质 |
CN112188631A (zh) * | 2020-10-09 | 2021-01-05 | 上海海事大学 | 基于梯度估计的海洋雾节点资源管理方法 |
CN112468547A (zh) * | 2020-11-13 | 2021-03-09 | 广州中国科学院沈阳自动化研究所分所 | 一种基于区域化的工业边缘计算任务云协同卸载方法 |
CN113534829A (zh) * | 2021-06-11 | 2021-10-22 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105068755A (zh) * | 2015-07-08 | 2015-11-18 | 南京邮电大学 | 一种面向云计算内容分发网络的数据副本存储方法 |
CN107612987A (zh) * | 2017-09-08 | 2018-01-19 | 浙江大学 | 一种面向边缘计算基于缓存的服务供应优化方法 |
CN108880893A (zh) * | 2018-06-27 | 2018-11-23 | 重庆邮电大学 | 一种移动边缘计算服务器联合能量收集及任务卸载方法 |
CN109413724A (zh) * | 2018-10-11 | 2019-03-01 | 重庆邮电大学 | 一种基于mec的任务卸载和资源分配方案 |
CN109814951A (zh) * | 2019-01-22 | 2019-05-28 | 南京邮电大学 | 移动边缘计算网络中任务卸载及资源分配的联合优化方法 |
-
2019
- 2019-05-29 CN CN201910454827.2A patent/CN110177055B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105068755A (zh) * | 2015-07-08 | 2015-11-18 | 南京邮电大学 | 一种面向云计算内容分发网络的数据副本存储方法 |
CN107612987A (zh) * | 2017-09-08 | 2018-01-19 | 浙江大学 | 一种面向边缘计算基于缓存的服务供应优化方法 |
CN108880893A (zh) * | 2018-06-27 | 2018-11-23 | 重庆邮电大学 | 一种移动边缘计算服务器联合能量收集及任务卸载方法 |
CN109413724A (zh) * | 2018-10-11 | 2019-03-01 | 重庆邮电大学 | 一种基于mec的任务卸载和资源分配方案 |
CN109814951A (zh) * | 2019-01-22 | 2019-05-28 | 南京邮电大学 | 移动边缘计算网络中任务卸载及资源分配的联合优化方法 |
Non-Patent Citations (3)
Title |
---|
PAVEL MACH ET AL.: ""Mobile Edge Computing: A Survey on Architecture"", 《HTTPS://ARXIV.ORG/PDF/1702.05309.PDF》 * |
ZHAOHUI YANG ET AL.: ""Energy Efficient Resource Allocation for Mobile-Edge Computation Networks with NOMA"", 《HTTPS://WWW.RESEARCHGATE.NET/PUBLICATION/327434250_ENERGY_EFFICIENT_RESOURCE_ALLOCATION_FOR_MOBILE-EDGE_COMPUTATION_NETWORKS_WITH_NOMA》 * |
李玲 等: ""移动边缘计算中两阶段多应用资源分配算法"", 《吉林大学学报(信息科学版)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110519370A (zh) * | 2019-08-28 | 2019-11-29 | 湘潭大学 | 一种基于设施选址问题的边缘计算资源分配方法 |
CN110519370B (zh) * | 2019-08-28 | 2022-03-25 | 湘潭大学 | 一种基于设施选址问题的边缘计算资源分配方法 |
CN110753126A (zh) * | 2019-10-28 | 2020-02-04 | 国网河南省电力公司信息通信公司 | 服务节点选择方法、设备管理方法、装置、系统和介质 |
CN110753126B (zh) * | 2019-10-28 | 2022-06-17 | 国网河南省电力公司信息通信公司 | 服务节点选择方法、装置、系统和介质 |
CN112188631A (zh) * | 2020-10-09 | 2021-01-05 | 上海海事大学 | 基于梯度估计的海洋雾节点资源管理方法 |
CN112468547A (zh) * | 2020-11-13 | 2021-03-09 | 广州中国科学院沈阳自动化研究所分所 | 一种基于区域化的工业边缘计算任务云协同卸载方法 |
CN112468547B (zh) * | 2020-11-13 | 2023-04-07 | 广州中国科学院沈阳自动化研究所分所 | 一种基于区域化的工业边缘计算任务云协同卸载方法 |
CN113534829A (zh) * | 2021-06-11 | 2021-10-22 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
CN113534829B (zh) * | 2021-06-11 | 2024-04-05 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110177055B (zh) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110177055A (zh) | 一种边缘计算场景下边缘域资源的预分配方法 | |
Liu et al. | Adaptive multi-resource allocation for cloudlet-based mobile cloud computing system | |
Ma et al. | Cooperative service caching and workload scheduling in mobile edge computing | |
Yang et al. | Joint computation partitioning and resource allocation for latency sensitive applications in mobile edge clouds | |
Zhang et al. | Fog computing in multi-tier data center networks: A hierarchical game approach | |
De Maio et al. | First hop mobile offloading of dag computations | |
Mazzucco et al. | Maximizing cloud providers' revenues via energy aware allocation policies | |
CN109547555B (zh) | 基于公平性准则的非平衡边缘云网络接入与资源分配方法 | |
Maia et al. | Optimized placement of scalable IoT services in edge computing | |
Liu et al. | Performance modeling of representative load sharing schemes for clustered servers in multiaccess edge computing | |
CN108418718B (zh) | 一种基于边缘计算的数据处理延迟优化方法及系统 | |
EP1472846A1 (en) | Method and apparatus for web farm traffic control | |
CN111464323A (zh) | 节点带宽的调度方法和调度装置 | |
Toczé et al. | ORCH: Distributed orchestration framework using mobile edge devices | |
CN111988787B (zh) | 一种任务的网络接入和服务放置位置选择方法及系统 | |
Ma et al. | Dynamic task scheduling in cloud-assisted mobile edge computing | |
CN109005211B (zh) | 一种无线城域网环境下的微云部署及用户任务调度方法 | |
CN113347267A (zh) | 一种移动边缘云计算网络中的mec服务器部署方法 | |
Shao et al. | An online orchestration mechanism for general-purpose edge computing | |
Xu et al. | An adaptive mechanism for dynamically collaborative computing power and task scheduling in edge environment | |
Ghosh et al. | A high performance hierarchical caching framework for mobile edge computing environments | |
CN113010317B (zh) | 联合服务部署与任务卸载方法、装置、计算机设备及介质 | |
Carvalho et al. | Edge servers placement in mobile edge computing using stochastic Petri nets | |
Chen et al. | S-cache: Function caching for serverless edge computing | |
Leconte et al. | Designing adaptive replication schemes in distributed content delivery networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |