发明内容
为了对任务执行时延进行优化,提升用户体验和网络性能,本发明提出一种基于数据压缩的雾接入网计算卸载方法,具体包括以下步骤:
S1、构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1-βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;
S2、构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布,满足该时延分布才能成功压缩,并根据该分布即可获取卸载时延;
S3、通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载。
进一步的,基于数据压缩的计算卸载模型至少包括终端层、接入层以及云计算层,其中终端层由多个用户设备构成,接入层由多个雾节点构成,且每个雾节覆盖的用户设备数量不一样且已知,云计算层包括雾接入点和云计算中心,多个雾节点连接到一个雾接入点,云计算中心具有解压和计算能力。
进一步的,步骤S1中从用户设备产生计算任务到完成压缩卸载的过程包括以下步骤:
用户设备产生计算任务,该计算任务在该用户设备排队等待;
计算任务的1-βi部分在用户设备排队进行压缩,压缩后的任务与该任务未压缩部分通过上行链路卸载到雾节点;
任务未压缩部分在雾节点进行压缩,压缩后的计算任务通过回传链路卸载到雾接入点,雾接入点通过光纤链路卸载到云计算;
云计算中心将收到的压缩任务进行解压并进行计算处理,将完成计算的任务返回用户设备。
进一步的,步骤S3完成卸载的过程具体包括以下步骤:
对任务进行压缩计算时,记在本地压缩的任务为A,其压缩后为A’,压缩时延为T1;
上传到雾节点进行压缩的部分任务记为B,A’和B从本地上传到雾节点的传输时延记为T2;
任务B在雾节点进行压缩后记为B’,其计算时延记为T3;
判断雾节点卸载到雾接入点的数据量是否小于最大接入数据量;
若小于则将A’和B’通过受限的回传链路卸载到雾接入点,传输时延记为T
4;否则固定计算任务在雾节点的计算概率β
i,通过迭代算法计算最佳的压缩比例,直到雾节点卸载到雾接入点的数据量小于回传链路容量的最大值
计算任务在中心云排队解压与计算,产生的时延记为T5;
判断T
1、T
2、T
3、T
4和T
5相加的值T
tot是否小于时延阈值
若小于则保存T
tot和优化参数;
否则通过固定压缩比例,通过迭代算法调整计算任务在雾节点进行压缩的概率。
进一步的,基于数据压缩的网络时延性能优化算法包括:
其中,
为任务压缩时延、上行链路传输时延、回传链路传输时延、解压和计算时延的总和;T
H,dc为任务卸载过程中产生的压缩任务时延和排队任务时延;T
H,ut为平均上行链路传输时延;T
bh为回传链路的传输时延;
为基于M/G/1的时延分布模型中数据解压和计算产生的时延,
为时延T
dp的时延分布;N
U为连接到FN的最大UE个数;
为雾节点端分配给每个用户的计算资源;
表示雾端可以提供给所有用户的最大计算资源限制,
表示云端可以提供给所有用户的最大计算资源限制;N
F为连接到FAP的最大FN个数;
为云计算端分配给每个用户的计算资源;β
i为任务在第j个雾节点的压缩概率;
为任务在用户设备的压缩比例;D
i,j为任务的计算大小;γ
i,j为任务的压缩率;
为回传链路容量的最大值;
端对端最大时延限制;
为任务在雾节点的压缩比例。
其中,
为雾接入点的解压服务率与服务率之和;Λ
A为云计算中心计算任务到达率;μ
dd为雾接入点进行数据解压的服务率;μ
cp为雾接入点进行计算的服务率;η
n是与Λ
A、
μ
dd和μ
cp有关表达式的简写,表示为
进一步的,任务能够压缩成功需要满足的任务执行时延时延分布Ξ表示为:
其中,τ为端对端时延阈值;τ’=τ-TH,ut-Tbh。
本发明提出基于M/G/1排队理论分析推导云计算中心压缩时延分布的方案,该方案通过Pollaczek-Khinchin变换方程,拉普拉斯变换(Laplace Transform,LT)和拉普拉斯反变换(Laplace Inversion Transform,LIT)等计算过程,得到云计算中心压缩计算时延分布的表达式;此外,本发明提出了一种最小化时延性能的优化方案,通过联合优化计算资源和通信资源的分配,达到整个系统时延性能的提升。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种基于数据压缩的雾接入网计算卸载方法,具体包括以下步骤:
S1、构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1-βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;
S2、构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布;
S3、通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载。
实施例1
本发明提供的网络模型模型包括三层:第一层为设备层(前端),包括智能手机、平板电脑、可穿戴智能设备等;第二层为接入层(近端),包括FNs;第三层为云计算层(远端),包括FAP和云计算中心,在远端提供强大的计算服务。
前段的UE计算能力有限,必须将计算密集型和时延敏感型计算任务卸载到附近能提供计算资源的FNs。UEi将计算任务的βi部分卸载到FNj,其余1-βi部分在UEi中计算。
近端的FNs具有计算和缓存能力,可以支持网络中的大多数业务流量,有效缓解了前传链路的容量负担。因此,FNs为日益增多的时延敏感类应用程序的用户提供了高质量低时延的通信服务。由于实际生活中UE和FN的位置存在相关性,例如用户常常分布在距离基站较近的位置,因此考虑将UE均匀分布在以FN为圆心,半径为r的圆内。
远端的FAP通过高传输速率的光纤链路连接到计算能力强大的中心云。此模型的目标是构建既接近实际情况又易于处理的模型,通过充分利用雾接入网的计算资源和通信资源,执行日渐增长的实时业务流量,提高网络时延性能和用户体验。
在FN j覆盖的小区内有N
U个UE,UE i产生的计算任务T
i,j用参数元组<D
i,j,γ
i,j>表示,D
i,j表示计算任务的大小,单位为bit;γ
i,j表示任务的压缩率。UE和FN压缩1bit分别需要g
L,dc,g
N,dc个CPU周期,单位为cycles/bit。UE和FN的计算能力分别为s
L,dc和s
N,dc,单位为(CPU cycles/bit),上行链路传输速率用
表示,回传链路容量用C
bh表示。UE数据压缩过程和FN数据压缩过程按照M/M/1队列排队处理,其压缩卸载流程如下:
步骤1:UEi产生计算任务Ti,j;
步骤2:Ti,j在UEi排队等待;
步骤3:Ti,j的1-βi部分在FNj排队进行压缩;
步骤4:压缩后的任务部分表示为T'i,j,与未压缩任务部分通过上行链路卸载到FNj;
步骤5:Ti,j的βi部分在FNj进行压缩;
步骤6:经过FNj压缩后的计算任务T”i,j通过回传链路卸载到FAP,FAP通过光纤链路卸载到云计算中心;
步骤7:T”i,j在云计算中心排队等待;
步骤8:T”i,j在云计算中心进行解压直至恢复原计算任务大小后,进行计算;
步骤9:处理完成的计算任务将结果返回给终端设备。
本发明基于数据压缩的计算卸载机制,至少包括以下几种时延:上行链路传输时延T
ut,回传链路传输时延T
bh,UE/FN压缩时延T
H,dc,和云计算中心压缩计算时延T
dp。其中,云计算中心压缩计算时延分布用
表示。
回传链路传输时延,云计算压缩计算时延与任务计算卸载模式无关,而压缩时延和上行链路传输时延会受到压缩计算卸载模式的影响。
若所有计算任务在UEi进行压缩,即βi=0,压缩过程按照M/M/1队列排队。产生的时延包括压缩时延和排队时延,分别表示为:
若所有计算任务在FNj进行压缩,即βi=1,压缩过程按照M/M/1队列排队。产生的时延包括压缩时延和排队时延,分别表示为:
若计算任务Ti,j有1-βi的概率在UEi进行压缩,有βi的概率卸载到FNj进行压缩。产生的压缩时延和排队时延表示为:
TH,dc=(1-βi)TL,dc+βiTN,dc (5)
平均上行链路传输时延TH,ut可以表示为:
其中,
为信干比SIR的阈值,
表示SIR大于
的概率。
回传链路过传输时延Tbh可以表示为:
为了得到云计算中心排队和计算时延,利用M/G/1排队理论Pollaczek-Khinchin变换方程,并结合LT和LIT等计算过程,得到云计算中心压缩计算时延分布
综上所述,混合数据压缩模式的端对端时延可以表示为:
本实施例考虑了一种基于数据压缩的网络时延性能优化算法,优化目标为包括压缩时延、传输时延和云计算中心压缩计算时延在内的端对端时延,可表示为T
H,优化参数包括计算任务在UEi压缩的概率1-β
i和计算任务在FNj压缩的概率β
i,任务在UE和FN的压缩比例
和
当β
i=0,
时表示本地压缩时延,当β
i=1,
时表示边缘压缩时延。限制条件考虑了计算资源、通信资源限制和时延限制,其中,雾端和云端的最大计算资源限制分别用
和
表示,雾端和云端分配给每个用户的计算资源分别用
和
表示,最大回传链路容量用时延限制用
表示,最大时延限制用
表示。
实施例2
图1中的模型在结合了本地数据压缩和边缘数据压缩两种压缩模式,将数据压缩技术同时应用于本地和边缘,保证UEj和FNj的计算能力得到充分利用,同时解决了由于回传链路容量有限导致时延过大的问题。为了满足时延敏感型和计算密集型应用程序的时延要求,计算任务以1-βi的概率在UE进行压缩,并通过上行链路卸载到边缘,边缘节点将剩余计算任务的βi部分进行压缩,经过UEj和FNj压缩后的计算任务通过回传链路卸载到FAP,并进一步卸载到云计算中心进行解压和计算。其中,压缩过程采用M/M/1队列,解压和计算过程采用M/G/1队列。
本实施例从网络通信模型、时延估计模型以及时延优化三个方面对对本发明进行进一步说明:
(一)网络通信模型
本实施例考虑了一个大规模随机密集部署F-RAN模型,包括密度为λN的NF个FN,每个FN覆盖的小区内的UE数量不同且已知,所有FN连接到同一个FAP。FN覆盖范围内的小区UEs使用正交频率资源,因此在其他小区只存在一个干扰UE。假定UE通过无线链路连接到FN,FN通过受限的回传链路连接到FAP,FAP通过光纤链路连接到中心云。
假定位于原点的FN为目标FN,目标UE到目标FN的距离表示为Y0,干扰UE与目标FN的距离表示为Yi,j(i=2,3...NU),干扰UE与其所访问的FN之间的距离表示为Ri,j(i=2,3...NU)。同时目标FN与目标UE和干扰UE的小规模衰落系数分别表示为h0和hi,j(i=2,3,...,NU),路损指数表示为α。UEi与FNj之间上行链路的信干比可表示为:
当目标链路的SIR大于上行链路传输速率阈值
时,UEi将计算任务要卸载到FNj,表示为:
其中,假设连接到FNj的干扰UE表示为UEi,k,他们之间的距离表示为Ri,k,FNk与目标FNj之间的距离表示为Xi,k,则UEi,k与目标FNk之间的距离表示为:
其中,θ
i,k表示链路距离R
i,k与X
i,k之间的夹角。假设Y
0、Y
i,j、R
i,j在
内服从均匀分布,θ
i,k在(0~2π)内服从均匀分布,则
可以表示为:
为了简便表示,假定UE
i,k与FN k之间的距离近似为X
i,k,通过将
定义为ζ,并引入指数积分函数,上述
可以近似表示为:
(二)时延估计模型
假设UEi和FNj都具有数据压缩的能力,计算任务Ti,j可以在UEi或FNj进行压缩,基于该方案建立时延预估模型。
压缩时延阶段:Ti,j的1-βi部分在UEi进行压缩,βi部分在UEi进行压缩,此阶段产生的压缩时延如公式(5)所示。
传输时延阶段:UE向目标FNj请求卸载已在本地压缩完成的数据和未经压缩的数据,此阶段产生的上行链路传输时延如公式(6)所示。
回传链路传输时延阶段:假设FNj与FAP之间的回传链路容量表示为Cbh,经
过压缩后的计算任务通过回传链路卸载到FAP中,产生的回传时延如公式(7)所示。
云计算中心排队和计算时延阶段:计算任务卸载到FAP,并进一步卸载到云计算中心进行解压和计算,解压和计算过程服从M/G/1排队模型,产生的时延用T
dp表示,云计算中心计算任务到达率用Λ
A表示,FAP进行数据解压的服务率用μ
dd表示且
FAP进行计算的服务率用μ
cp表示且
假设μ
dd和μ
cp分别服从指数分布(Exponential Distribution,ED),那么μ
dd和μ
cp的总服务率,用μ
A表示,服从亚指数分布(Hypoexponential Distribution,HD)。则总服务率μ
A的概率密度函数(probabilitydensity function,PDF)可以表示为:
若FAP的服务强度用ρ表示,且ρ用ΛAΕ[Tdp,se]计算,则服务强度ρ可以表示为:
计算任务在FAP的处理时延用T
dp,se表示,它的拉普拉斯变换(Laplace Transform,LT)用
表示,结合总服务率μ
A的PDF公式(14),则
可以表示为:
按照M/G/1排队模型的Pollaczek-Khinchin变换方程,数据解压和计算产生时延Tdp的LT可以表示为:
联立公式(14)-(17),通过拉普拉斯反变换(Inverse Laplace Transform,ILT)
T
dpt时刻的时延分布
可以表示为:
其中,
为FAP的解压服务率与服务率之和,η
n是与Λ
A、
μ
dd和μ
dd有关表达式的简写,分别表示为:
通过上述时延分布模型,计算任务执行时延分布。其中,T
N,dc和T
L,dc服从M/M/1排队模型,那么二者分别服从参数为σ
N和σ
U的指数分布,
且
则任务执行时延时延分布,用Ξ表示,如下所示:
(三)时延优化
本发明是优化目标是在满足计算、通信资源和时延的限制条件下,对计算任务的端对端总时延进行优化。因此,优化问题可建模为:
约束条件C1表示FN和云计算中心分配给所有用户的计算资源不超过其所能提供的最大资源限制;约束条件C2表示UEi产生的计算的计算任务会卸载到FNj和云计算中心;约束条件C3表示FNj将计算任务卸载到云计算中心计算时,回传链路容量受到限制;约束条件C4表示计算任务的端对端时延不超过最大时延约束
约束条件C5表示计算任务在FNj压缩的概率β
i,在UEi和FNj的压缩比例在0到1之间。
实施例3
本实施给出本发明系统流程,如图2,本发明基于数据压缩的雾接入网计算卸载,具体的步骤如下:
步骤201:算法初始化;
步骤202:UE产生计算任务,按照将计算任务在FNj压缩的概率βi将任务分成两部分,分别表示为A和B;
步骤203:A在本地压缩为A’,产生的压缩时延记为T1;
步骤204:A’和B通过上行链路卸载到FN,产生的上行链路传输时延记为T2;
步骤205:B在FN压缩为B’,产生的压缩时延记为T3;
步骤207:若小于,A’和B’整合过后通过受限的回传链路卸载到FAP,产生的传输时延为T
4,否则固定计算任务在FNj压缩的概率β
i,通过迭代法分别得到最佳的压缩比例
和
步骤208:计算任务在中心云排队解压与计算,产生的时延记为T5;
步骤209:将T
1、T
2、T
3、T
4和T
5相加,判断是否小于时延阈值
步骤210:若小于,保存T
tot=T
1+T
2+T
3+T
4+T
5和优化参数值,若大于,则固定压缩比例
和
通过迭代法调整计算任务在FNj压缩的概率β
i;
步骤211:输出优化参数和优化目标值;
步骤212:算法结束。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。