CN113613270A - 一种基于数据压缩的雾接入网计算卸载方法 - Google Patents

一种基于数据压缩的雾接入网计算卸载方法 Download PDF

Info

Publication number
CN113613270A
CN113613270A CN202110829760.3A CN202110829760A CN113613270A CN 113613270 A CN113613270 A CN 113613270A CN 202110829760 A CN202110829760 A CN 202110829760A CN 113613270 A CN113613270 A CN 113613270A
Authority
CN
China
Prior art keywords
task
delay
compression
fog
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110829760.3A
Other languages
English (en)
Other versions
CN113613270B (zh
Inventor
胡昊南
郑亚楠
殷波
姜言
张继良
张�杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhongan Communication Technology Co ltd
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110829760.3A priority Critical patent/CN113613270B/zh
Publication of CN113613270A publication Critical patent/CN113613270A/zh
Application granted granted Critical
Publication of CN113613270B publication Critical patent/CN113613270B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/06Testing, supervising or monitoring using simulated traffic

Abstract

本发明属于移动通信技术领域,具体涉及一种基于数据压缩的雾接入网计算卸载方法,包括构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1‑βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布,满足该时延分布才能成功压缩,并根据该分布即可获取卸载时延;通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载;本发明提出基于M/G/1排队理论分析推导云计算中心压缩时延分布的方案,并通过联合优化计算资源和通信资源的分配,达到整个系统时延性能的提升。

Description

一种基于数据压缩的雾接入网计算卸载方法
技术领域
本发明属于移动通信技术领域,具体涉及一种基于数据压缩的雾接入网计算卸载方法。
背景技术
随着移动通信技术发展,计算密度型和时延敏感型等新型应用程序(例如虚拟现实技术、增强现实技术)呈现出爆炸式增长的趋势,Gartner预测,到2020年,网络终端的设备数量将达到208亿,复合增长率为34%。根据美国发布的关于2016-2045年新兴技术趋势的报告,到2045年,将有超过1000亿个设备连接到接入网中。随着用户可接入设备的激增,产生了海量的数据及网络流量,随之而来的问题是极大的端对端处理时延和用户体验急剧下降。为了解决此类问题,时延性能成为评估移动通信质量的关键指标之一。与此同时,在未来的B5G网络中,时延的要求甚至被限制在1ms内,为了满足这样的时延要求,提出了一种新型网络架构:F-RAN架构。F-RAN充分利用了UE和边缘设备的计算能力,部署F-RAN能够有效降低处理终端计算任务所需时延。将计算任务从终端卸载到具备更高计算能力的FN或者FAP进行计算,能够降低计算任务的处理时延。然而,当上行链路传输速率和回传链路容量受限时,计算任务的传输时延成为了降低处理终端计算任务所需时延的难题。因此,迫切需要新的技术来应对传输时延过大的问题。数据压缩的独特技术特征应用于F-RAN中,可以有效解决处理终端计算任务时延过大的问题。通过将初始计算任务进行压缩,降低了需要传输的数据量,改善了通信资源受限的问题。但是,如何设计基于数据压缩的计算卸载方法成为了降低端对端时延、提高网络时延性能的瓶颈,受到研究机构、设备制造商和移动通信运营商等广泛重视。
综上所述,本发明设计了一种基于数据压缩的雾接入网计算卸载模型。在该模型下,计算任务可以在UE和FN进行压缩,压缩后的计算任务最终上传至云计算中心进行解压和计算。此外,本方案根据计算卸载模型提出了相应的任务处理时延预估方法,旨在解决云计算中心排队和计算时延难以解决的问题。基于该时延预估方法,通过对计算任务压缩位置、任务压缩比例等的联合优化,实现网络时延性能的提升。
发明内容
为了对任务执行时延进行优化,提升用户体验和网络性能,本发明提出一种基于数据压缩的雾接入网计算卸载方法,具体包括以下步骤:
S1、构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1-βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;
S2、构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布,满足该时延分布才能成功压缩,并根据该分布即可获取卸载时延;
S3、通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载。
进一步的,基于数据压缩的计算卸载模型至少包括终端层、接入层以及云计算层,其中终端层由多个用户设备构成,接入层由多个雾节点构成,且每个雾节覆盖的用户设备数量不一样且已知,云计算层包括雾接入点和云计算中心,多个雾节点连接到一个雾接入点,云计算中心具有解压和计算能力。
进一步的,步骤S1中从用户设备产生计算任务到完成压缩卸载的过程包括以下步骤:
用户设备产生计算任务,该计算任务在该用户设备排队等待;
计算任务的1-βi部分在用户设备排队进行压缩,压缩后的任务与该任务未压缩部分通过上行链路卸载到雾节点;
任务未压缩部分在雾节点进行压缩,压缩后的计算任务通过回传链路卸载到雾接入点,雾接入点通过光纤链路卸载到云计算;
云计算中心将收到的压缩任务进行解压并进行计算处理,将完成计算的任务返回用户设备。
进一步的,步骤S3完成卸载的过程具体包括以下步骤:
对任务进行压缩计算时,记在本地压缩的任务为A,其压缩后为A’,压缩时延为T1
上传到雾节点进行压缩的部分任务记为B,A’和B从本地上传到雾节点的传输时延记为T2
任务B在雾节点进行压缩后记为B’,其计算时延记为T3
判断雾节点卸载到雾接入点的数据量是否小于最大接入数据量;
若小于则将A’和B’通过受限的回传链路卸载到雾接入点,传输时延记为T4;否则固定计算任务在雾节点的计算概率βi,通过迭代算法计算最佳的压缩比例,直到雾节点卸载到雾接入点的数据量小于回传链路容量的最大值
Figure BDA0003175057620000031
计算任务在中心云排队解压与计算,产生的时延记为T5
判断T1、T2、T3、T4和T5相加的值Ttot是否小于时延阈值
Figure BDA0003175057620000032
若小于则保存Ttot和优化参数;
否则通过固定压缩比例,通过迭代算法调整计算任务在雾节点进行压缩的概率。
进一步的,基于数据压缩的网络时延性能优化算法包括:
Figure BDA0003175057620000033
Figure BDA0003175057620000041
Figure BDA0003175057620000042
Figure BDA0003175057620000043
Figure BDA0003175057620000044
Figure BDA0003175057620000045
其中,
Figure BDA0003175057620000046
为任务压缩时延、上行链路传输时延、回传链路传输时延、解压和计算时延的总和;TH,dc为任务卸载过程中产生的压缩任务时延和排队任务时延;TH,ut为平均上行链路传输时延;Tbh为回传链路的传输时延;
Figure BDA0003175057620000047
为基于M/G/1的时延分布模型中数据解压和计算产生的时延,
Figure BDA0003175057620000048
为时延Tdp的时延分布;NU为连接到FN的最大UE个数;
Figure BDA0003175057620000049
为雾节点端分配给每个用户的计算资源;
Figure BDA00031750576200000410
表示雾端可以提供给所有用户的最大计算资源限制,
Figure BDA00031750576200000411
表示云端可以提供给所有用户的最大计算资源限制;NF为连接到FAP的最大FN个数;
Figure BDA00031750576200000412
为云计算端分配给每个用户的计算资源;βi为任务在第j个雾节点的压缩概率;
Figure BDA00031750576200000413
为任务在用户设备的压缩比例;Di,j为任务的计算大小;γi,j为任务的压缩率;
Figure BDA00031750576200000414
为回传链路容量的最大值;
Figure BDA00031750576200000415
端对端最大时延限制;
Figure BDA00031750576200000416
为任务在雾节点的压缩比例。
进一步的,时延Tdp的时延分布
Figure BDA00031750576200000417
表示为:
Figure BDA00031750576200000418
其中,
Figure BDA00031750576200000419
为雾接入点的解压服务率与服务率之和;ΛA为云计算中心计算任务到达率;μdd为雾接入点进行数据解压的服务率;μcp为雾接入点进行计算的服务率;ηn是与ΛA
Figure BDA00031750576200000420
μdd和μcp有关表达式的简写,表示为
Figure BDA0003175057620000051
进一步的,任务能够压缩成功需要满足的任务执行时延时延分布Ξ表示为:
Figure BDA0003175057620000052
其中,τ为端对端时延阈值;τ’=τ-TH,ut-Tbh
本发明提出基于M/G/1排队理论分析推导云计算中心压缩时延分布的方案,该方案通过Pollaczek-Khinchin变换方程,拉普拉斯变换(Laplace Transform,LT)和拉普拉斯反变换(Laplace Inversion Transform,LIT)等计算过程,得到云计算中心压缩计算时延分布的表达式;此外,本发明提出了一种最小化时延性能的优化方案,通过联合优化计算资源和通信资源的分配,达到整个系统时延性能的提升。
附图说明
图1为本发明基于数据压缩的雾接入网计算卸载模型;
图2为本发明实施例中基于数据数据压缩的雾接入网计算卸载优化算法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种基于数据压缩的雾接入网计算卸载方法,具体包括以下步骤:
S1、构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1-βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;
S2、构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布;
S3、通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载。
实施例1
本发明提供的网络模型模型包括三层:第一层为设备层(前端),包括智能手机、平板电脑、可穿戴智能设备等;第二层为接入层(近端),包括FNs;第三层为云计算层(远端),包括FAP和云计算中心,在远端提供强大的计算服务。
前段的UE计算能力有限,必须将计算密集型和时延敏感型计算任务卸载到附近能提供计算资源的FNs。UEi将计算任务的βi部分卸载到FNj,其余1-βi部分在UEi中计算。
近端的FNs具有计算和缓存能力,可以支持网络中的大多数业务流量,有效缓解了前传链路的容量负担。因此,FNs为日益增多的时延敏感类应用程序的用户提供了高质量低时延的通信服务。由于实际生活中UE和FN的位置存在相关性,例如用户常常分布在距离基站较近的位置,因此考虑将UE均匀分布在以FN为圆心,半径为r的圆内。
远端的FAP通过高传输速率的光纤链路连接到计算能力强大的中心云。此模型的目标是构建既接近实际情况又易于处理的模型,通过充分利用雾接入网的计算资源和通信资源,执行日渐增长的实时业务流量,提高网络时延性能和用户体验。
在FN j覆盖的小区内有NU个UE,UE i产生的计算任务Ti,j用参数元组<Di,ji,j>表示,Di,j表示计算任务的大小,单位为bit;γi,j表示任务的压缩率。UE和FN压缩1bit分别需要gL,dc,gN,dc个CPU周期,单位为cycles/bit。UE和FN的计算能力分别为sL,dc和sN,dc,单位为(CPU cycles/bit),上行链路传输速率用
Figure BDA0003175057620000071
表示,回传链路容量用Cbh表示。UE数据压缩过程和FN数据压缩过程按照M/M/1队列排队处理,其压缩卸载流程如下:
步骤1:UEi产生计算任务Ti,j
步骤2:Ti,j在UEi排队等待;
步骤3:Ti,j的1-βi部分在FNj排队进行压缩;
步骤4:压缩后的任务部分表示为T'i,j,与未压缩任务部分通过上行链路卸载到FNj;
步骤5:Ti,j的βi部分在FNj进行压缩;
步骤6:经过FNj压缩后的计算任务T”i,j通过回传链路卸载到FAP,FAP通过光纤链路卸载到云计算中心;
步骤7:T”i,j在云计算中心排队等待;
步骤8:T”i,j在云计算中心进行解压直至恢复原计算任务大小后,进行计算;
步骤9:处理完成的计算任务将结果返回给终端设备。
本发明基于数据压缩的计算卸载机制,至少包括以下几种时延:上行链路传输时延Tut,回传链路传输时延Tbh,UE/FN压缩时延TH,dc,和云计算中心压缩计算时延Tdp。其中,云计算中心压缩计算时延分布用
Figure BDA0003175057620000072
表示。
回传链路传输时延,云计算压缩计算时延与任务计算卸载模式无关,而压缩时延和上行链路传输时延会受到压缩计算卸载模式的影响。
若所有计算任务在UEi进行压缩,即βi=0,压缩过程按照M/M/1队列排队。产生的时延包括压缩时延和排队时延,分别表示为:
Figure BDA0003175057620000073
Figure BDA0003175057620000074
若所有计算任务在FNj进行压缩,即βi=1,压缩过程按照M/M/1队列排队。产生的时延包括压缩时延和排队时延,分别表示为:
Figure BDA0003175057620000081
Figure BDA0003175057620000082
若计算任务Ti,j有1-βi的概率在UEi进行压缩,有βi的概率卸载到FNj进行压缩。产生的压缩时延和排队时延表示为:
TH,dc=(1-βi)TL,dciTN,dc (5)
平均上行链路传输时延TH,ut可以表示为:
Figure BDA0003175057620000083
其中,
Figure BDA0003175057620000084
为信干比SIR的阈值,
Figure BDA0003175057620000085
表示SIR大于
Figure BDA0003175057620000086
的概率。
回传链路过传输时延Tbh可以表示为:
Figure BDA0003175057620000087
为了得到云计算中心排队和计算时延,利用M/G/1排队理论Pollaczek-Khinchin变换方程,并结合LT和LIT等计算过程,得到云计算中心压缩计算时延分布
Figure BDA00031750576200000815
综上所述,混合数据压缩模式的端对端时延可以表示为:
Figure BDA0003175057620000088
本实施例考虑了一种基于数据压缩的网络时延性能优化算法,优化目标为包括压缩时延、传输时延和云计算中心压缩计算时延在内的端对端时延,可表示为TH,优化参数包括计算任务在UEi压缩的概率1-βi和计算任务在FNj压缩的概率βi,任务在UE和FN的压缩比例
Figure BDA0003175057620000089
Figure BDA00031750576200000810
当βi=0,
Figure BDA00031750576200000811
时表示本地压缩时延,当βi=1,
Figure BDA00031750576200000812
时表示边缘压缩时延。限制条件考虑了计算资源、通信资源限制和时延限制,其中,雾端和云端的最大计算资源限制分别用
Figure BDA00031750576200000813
Figure BDA00031750576200000814
表示,雾端和云端分配给每个用户的计算资源分别用
Figure BDA0003175057620000091
Figure BDA0003175057620000092
表示,最大回传链路容量用时延限制用
Figure BDA0003175057620000093
表示,最大时延限制用
Figure BDA0003175057620000094
表示。
实施例2
图1中的模型在结合了本地数据压缩和边缘数据压缩两种压缩模式,将数据压缩技术同时应用于本地和边缘,保证UEj和FNj的计算能力得到充分利用,同时解决了由于回传链路容量有限导致时延过大的问题。为了满足时延敏感型和计算密集型应用程序的时延要求,计算任务以1-βi的概率在UE进行压缩,并通过上行链路卸载到边缘,边缘节点将剩余计算任务的βi部分进行压缩,经过UEj和FNj压缩后的计算任务通过回传链路卸载到FAP,并进一步卸载到云计算中心进行解压和计算。其中,压缩过程采用M/M/1队列,解压和计算过程采用M/G/1队列。
本实施例从网络通信模型、时延估计模型以及时延优化三个方面对对本发明进行进一步说明:
(一)网络通信模型
本实施例考虑了一个大规模随机密集部署F-RAN模型,包括密度为λN的NF个FN,每个FN覆盖的小区内的UE数量不同且已知,所有FN连接到同一个FAP。FN覆盖范围内的小区UEs使用正交频率资源,因此在其他小区只存在一个干扰UE。假定UE通过无线链路连接到FN,FN通过受限的回传链路连接到FAP,FAP通过光纤链路连接到中心云。
假定位于原点的FN为目标FN,目标UE到目标FN的距离表示为Y0,干扰UE与目标FN的距离表示为Yi,j(i=2,3...NU),干扰UE与其所访问的FN之间的距离表示为Ri,j(i=2,3...NU)。同时目标FN与目标UE和干扰UE的小规模衰落系数分别表示为h0和hi,j(i=2,3,...,NU),路损指数表示为α。UEi与FNj之间上行链路的信干比可表示为:
Figure BDA0003175057620000095
当目标链路的SIR大于上行链路传输速率阈值
Figure BDA0003175057620000101
时,UEi将计算任务要卸载到FNj,表示为:
Figure BDA0003175057620000102
其中,假设连接到FNj的干扰UE表示为UEi,k,他们之间的距离表示为Ri,k,FNk与目标FNj之间的距离表示为Xi,k,则UEi,k与目标FNk之间的距离表示为:
Figure BDA0003175057620000103
其中,θi,k表示链路距离Ri,k与Xi,k之间的夹角。假设Y0、Yi,j、Ri,j
Figure BDA0003175057620000104
内服从均匀分布,θi,k在(0~2π)内服从均匀分布,则
Figure BDA0003175057620000105
可以表示为:
Figure BDA0003175057620000106
为了简便表示,假定UEi,k与FN k之间的距离近似为Xi,k,通过将
Figure BDA0003175057620000107
定义为ζ,并引入指数积分函数,上述
Figure BDA0003175057620000108
可以近似表示为:
Figure BDA0003175057620000109
(二)时延估计模型
假设UEi和FNj都具有数据压缩的能力,计算任务Ti,j可以在UEi或FNj进行压缩,基于该方案建立时延预估模型。
压缩时延阶段:Ti,j的1-βi部分在UEi进行压缩,βi部分在UEi进行压缩,此阶段产生的压缩时延如公式(5)所示。
传输时延阶段:UE向目标FNj请求卸载已在本地压缩完成的数据和未经压缩的数据,此阶段产生的上行链路传输时延如公式(6)所示。
回传链路传输时延阶段:假设FNj与FAP之间的回传链路容量表示为Cbh,经
过压缩后的计算任务通过回传链路卸载到FAP中,产生的回传时延如公式(7)所示。
云计算中心排队和计算时延阶段:计算任务卸载到FAP,并进一步卸载到云计算中心进行解压和计算,解压和计算过程服从M/G/1排队模型,产生的时延用Tdp表示,云计算中心计算任务到达率用ΛA表示,FAP进行数据解压的服务率用μdd表示且
Figure BDA0003175057620000111
FAP进行计算的服务率用μcp表示且
Figure BDA0003175057620000112
假设μdd和μcp分别服从指数分布(Exponential Distribution,ED),那么μdd和μcp的总服务率,用μA表示,服从亚指数分布(Hypoexponential Distribution,HD)。则总服务率μA的概率密度函数(probabilitydensity function,PDF)可以表示为:
Figure BDA0003175057620000113
若FAP的服务强度用ρ表示,且ρ用ΛAΕ[Tdp,se]计算,则服务强度ρ可以表示为:
Figure BDA0003175057620000114
计算任务在FAP的处理时延用Tdp,se表示,它的拉普拉斯变换(Laplace Transform,LT)用
Figure BDA0003175057620000115
表示,结合总服务率μA的PDF公式(14),则
Figure BDA0003175057620000116
可以表示为:
Figure BDA0003175057620000117
按照M/G/1排队模型的Pollaczek-Khinchin变换方程,数据解压和计算产生时延Tdp的LT可以表示为:
Figure BDA0003175057620000118
联立公式(14)-(17),通过拉普拉斯反变换(Inverse Laplace Transform,ILT)
Figure BDA0003175057620000121
Tdpt时刻的时延分布
Figure BDA0003175057620000122
可以表示为:
Figure BDA0003175057620000123
其中,
Figure BDA0003175057620000124
为FAP的解压服务率与服务率之和,ηn是与ΛA
Figure BDA0003175057620000125
μdd和μdd有关表达式的简写,分别表示为:
Figure BDA0003175057620000126
Figure BDA0003175057620000127
通过上述时延分布模型,计算任务执行时延分布。其中,TN,dc和TL,dc服从M/M/1排队模型,那么二者分别服从参数为σN和σU的指数分布,
Figure BDA0003175057620000128
Figure BDA0003175057620000129
则任务执行时延时延分布,用Ξ表示,如下所示:
Figure BDA00031750576200001210
其中,
Figure BDA00031750576200001211
关于的TL,dc期望可以表示为:
Figure BDA00031750576200001212
联立公式(17),则
Figure BDA00031750576200001213
关于Tdp的期望可以表示为:
Figure BDA00031750576200001214
(三)时延优化
本发明是优化目标是在满足计算、通信资源和时延的限制条件下,对计算任务的端对端总时延进行优化。因此,优化问题可建模为:
Figure BDA0003175057620000131
约束条件C1表示FN和云计算中心分配给所有用户的计算资源不超过其所能提供的最大资源限制;约束条件C2表示UEi产生的计算的计算任务会卸载到FNj和云计算中心;约束条件C3表示FNj将计算任务卸载到云计算中心计算时,回传链路容量受到限制;约束条件C4表示计算任务的端对端时延不超过最大时延约束
Figure BDA0003175057620000132
约束条件C5表示计算任务在FNj压缩的概率βi,在UEi和FNj的压缩比例在0到1之间。
实施例3
本实施给出本发明系统流程,如图2,本发明基于数据压缩的雾接入网计算卸载,具体的步骤如下:
步骤201:算法初始化;
步骤202:UE产生计算任务,按照将计算任务在FNj压缩的概率βi将任务分成两部分,分别表示为A和B;
步骤203:A在本地压缩为A’,产生的压缩时延记为T1
步骤204:A’和B通过上行链路卸载到FN,产生的上行链路传输时延记为T2
步骤205:B在FN压缩为B’,产生的压缩时延记为T3
步骤206:判断FNj卸载到FAP数据量是否小于
Figure BDA0003175057620000133
步骤207:若小于,A’和B’整合过后通过受限的回传链路卸载到FAP,产生的传输时延为T4,否则固定计算任务在FNj压缩的概率βi,通过迭代法分别得到最佳的压缩比例
Figure BDA0003175057620000134
Figure BDA0003175057620000135
步骤208:计算任务在中心云排队解压与计算,产生的时延记为T5
步骤209:将T1、T2、T3、T4和T5相加,判断是否小于时延阈值
Figure BDA0003175057620000141
步骤210:若小于,保存Ttot=T1+T2+T3+T4+T5和优化参数值,若大于,则固定压缩比例
Figure BDA0003175057620000142
Figure BDA0003175057620000143
通过迭代法调整计算任务在FNj压缩的概率βi
步骤211:输出优化参数和优化目标值;
步骤212:算法结束。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (7)

1.一种基于数据压缩的雾接入网计算卸载方法,其特征在于,具体包括以下步骤:
S1、构建基于数据压缩的计算卸载模型,令用户设备将在本地产生的计算任务的1-βi进行压缩计算,将计算任务卸载到零节点并对未进行压缩计算的βi进行压缩计算;
S2、构建基于M/G/1的时延分布模型,并通过该模型计算任务执行时延分布;
S3、通过任务执行时延分布,执行基于数据压缩的网络时延性能优化算法,完成卸载。
2.根据权利要求1所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,基于数据压缩的计算卸载模型至少包括终端层、接入层以及云计算层,其中终端层由多个用户设备构成,接入层由多个雾节点构成,且每个雾节覆盖的用户设备数量不一样且已知,云计算层包括雾接入点和云计算中心,多个雾节点连接到一个雾接入点,云计算中心具有解压和计算能力。
3.根据权利要求1所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,步骤S1中从用户设备产生计算任务到完成压缩卸载的过程包括以下步骤:
用户设备产生计算任务,该计算任务在该用户设备排队等待;
计算任务的1-βi部分在用户设备排队进行压缩,压缩后的任务与该任务未压缩部分通过上行链路卸载到雾节点;
任务未压缩部分在雾节点进行压缩,压缩后的计算任务通过回传链路卸载到雾接入点,雾接入点通过光纤链路卸载到云计算;
云计算中心将收到的压缩任务进行解压并进行计算处理,将完成计算的任务返回用户设备。
4.根据权利要求1所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,步骤S3完成卸载的过程具体包括以下步骤:
对任务进行压缩计算时,记在本地压缩的任务为A,其压缩后为A’,压缩时延为T1
上传到雾节点进行压缩的部分任务记为B,A’和B从本地上传到雾节点的传输时延记为T2
任务B在雾节点进行压缩后记为B’,其计算时延记为T3
判断雾节点卸载到雾接入点的数据量是否小于最大接入数据量;
若小于则将A’和B’通过受限的回传链路卸载到雾接入点,传输时延记为T4;否则固定计算任务在雾节点的计算概率βi,通过迭代算法计算最佳的压缩比例,直到雾节点卸载到雾接入点的数据量小于回传链路容量的最大值
Figure FDA0003175057610000021
计算任务在中心云排队解压与计算,产生的时延记为T5
判断T1、T2、T3、T4和T5相加的值Ttot是否小于时延阈值
Figure FDA0003175057610000022
若小于则保存Ttot和优化参数;
否则通过固定压缩比例,通过迭代算法调整计算任务在雾节点进行压缩的概率。
5.根据权利要求1所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,基于数据压缩的网络时延性能优化算法包括:
Figure FDA0003175057610000023
Figure FDA0003175057610000024
Figure FDA0003175057610000025
Figure FDA0003175057610000026
Figure FDA0003175057610000027
Figure FDA0003175057610000028
其中,
Figure FDA0003175057610000029
为任务压缩时延、上行链路传输时延、回传链路传输时延、解压和计算时延的总和;TH,dc为任务卸载过程中产生的压缩任务时延和排队任务时延;TH,ut为平均上行链路传输时延;Tbh为回传链路的传输时延;
Figure FDA0003175057610000031
为基于M/G/1的时延分布模型中数据解压和计算产生的时延,
Figure FDA0003175057610000032
为时延Tdp的时延分布;NU为连接到FN的最大UE个数;
Figure FDA0003175057610000033
为雾节点端分配给每个用户的计算资源;
Figure FDA0003175057610000034
表示雾端可以提供给所有用户的最大计算资源限制,
Figure FDA0003175057610000035
表示云端可以提供给所有用户的最大计算资源限制;NF为连接到FAP的最大FN个数;
Figure FDA0003175057610000036
为云计算端分配给每个用户的计算资源;βi为任务在第j个雾节点的压缩概率;
Figure FDA0003175057610000037
为任务在用户设备的压缩比例;Di,j为任务的计算大小;γi,j为任务的压缩率;
Figure FDA0003175057610000038
为回传链路容量的最大值;
Figure FDA0003175057610000039
端对端最大时延限制;
Figure FDA00031750576100000310
为任务在雾节点的压缩比例。
6.根据权利要求5所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,时延Tdp的时延分布
Figure FDA00031750576100000311
表示为:
Figure FDA00031750576100000312
其中,
Figure FDA00031750576100000313
为雾接入点的解压服务率与服务率之和;ΛA为云计算中心计算任务到达率;μdd为雾接入点进行数据解压的服务率;μcp为雾接入点进行计算的服务率;ηn是与ΛA
Figure FDA00031750576100000314
μdd和μcp有关表达式的简写,表示为
Figure FDA00031750576100000315
7.根据权利要求1或5所述的一种基于数据压缩的雾接入网计算卸载方法,其特征在于,构建基于M/G/1的时延分布模型,并通过该模型计算任务能够压缩成功需要满足的任务执行时延分布,任务执行时延时延分布Ξ表示为:
Figure FDA0003175057610000041
其中,τ为端对端时延阈值;τ’=τ-TH,ut-Tbh
CN202110829760.3A 2021-07-22 2021-07-22 一种基于数据压缩的雾接入网计算卸载方法 Active CN113613270B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110829760.3A CN113613270B (zh) 2021-07-22 2021-07-22 一种基于数据压缩的雾接入网计算卸载方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110829760.3A CN113613270B (zh) 2021-07-22 2021-07-22 一种基于数据压缩的雾接入网计算卸载方法

Publications (2)

Publication Number Publication Date
CN113613270A true CN113613270A (zh) 2021-11-05
CN113613270B CN113613270B (zh) 2024-02-20

Family

ID=78305132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110829760.3A Active CN113613270B (zh) 2021-07-22 2021-07-22 一种基于数据压缩的雾接入网计算卸载方法

Country Status (1)

Country Link
CN (1) CN113613270B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114520992A (zh) * 2022-02-18 2022-05-20 重庆邮电大学 一种基于簇过程的雾接入网时延性能优化方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018023051A (ja) * 2016-08-05 2018-02-08 日本電気株式会社 無線アクセスネットワークノード、Mobile Edge Computingサーバ、および通信システム
CN109729543A (zh) * 2018-12-29 2019-05-07 南京邮电大学 一种基于数据压缩的高能效计算任务卸载方法
CN109951869A (zh) * 2019-03-01 2019-06-28 重庆邮电大学 一种基于云雾混合计算的车联网资源分配方法
CN111199740A (zh) * 2019-12-31 2020-05-26 重庆大学 一种基于边缘计算加速自动语音识别任务的卸载方法
CN111930436A (zh) * 2020-07-13 2020-11-13 兰州理工大学 一种基于边缘计算的随机型任务排队卸载优化方法
CN112416603A (zh) * 2020-12-09 2021-02-26 北方工业大学 一种基于雾计算的联合优化系统和方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018023051A (ja) * 2016-08-05 2018-02-08 日本電気株式会社 無線アクセスネットワークノード、Mobile Edge Computingサーバ、および通信システム
CN109729543A (zh) * 2018-12-29 2019-05-07 南京邮电大学 一种基于数据压缩的高能效计算任务卸载方法
CN109951869A (zh) * 2019-03-01 2019-06-28 重庆邮电大学 一种基于云雾混合计算的车联网资源分配方法
CN111199740A (zh) * 2019-12-31 2020-05-26 重庆大学 一种基于边缘计算加速自动语音识别任务的卸载方法
CN111930436A (zh) * 2020-07-13 2020-11-13 兰州理工大学 一种基于边缘计算的随机型任务排队卸载优化方法
CN112416603A (zh) * 2020-12-09 2021-02-26 北方工业大学 一种基于雾计算的联合优化系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TI TI NGUYEN: "Joint Data Compression and Computation Offloading in Hierarchical Fog-Cloud Systems", 《IEEE TRANSACTIONS ON WIRELESS COMMUNICATIONS》 *
崔一石: "移动边缘网络中最小化时延的资源优化方法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114520992A (zh) * 2022-02-18 2022-05-20 重庆邮电大学 一种基于簇过程的雾接入网时延性能优化方法

Also Published As

Publication number Publication date
CN113613270B (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN113612843B (zh) 一种基于深度强化学习的mec任务卸载和资源分配方法
CN111401552B (zh) 基于调整批量大小与梯度压缩率的联邦学习方法和系统
CN108920280B (zh) 一种单用户场景下的移动边缘计算任务卸载方法
CN110087318B (zh) 基于5g移动边缘计算的任务卸载和资源分配联合优化方法
CN111930436A (zh) 一种基于边缘计算的随机型任务排队卸载优化方法
CN112888002B (zh) 一种基于博弈论的移动边缘计算任务卸载及资源分配方法
CN111475274B (zh) 云协同多任务调度方法及装置
CN110928654A (zh) 一种边缘计算系统中分布式的在线任务卸载调度方法
CN107708152B (zh) 异构蜂窝网络的任务卸载方法
CN111918339A (zh) 移动边缘网络中基于强化学习的ar任务卸载和资源分配方法
CN109144719B (zh) 移动云计算系统中基于马尔科夫决策过程的协作卸载方法
CN111836284B (zh) 基于移动边缘计算的能耗优化计算、卸载方法和系统
CN112650581A (zh) 一种面向智能楼宇的云边协同任务调度方法
CN112118312A (zh) 一种面向边缘服务器的网络突发负载疏散方法
CN116489708B (zh) 面向元宇宙的云边端协同的移动边缘计算任务卸载方法
CN107820278B (zh) 蜂窝网络时延与成本均衡的任务卸载方法
CN112491957A (zh) 一种边缘网络环境下的分布式计算卸载方法及系统
CN113613270B (zh) 一种基于数据压缩的雾接入网计算卸载方法
CN114449490A (zh) 基于d2d通信的多任务联合计算卸载与资源分配方法
CN113504949A (zh) Mar客户端在边缘计算中的任务卸载与参数优化方法及系统
CN112486685A (zh) 一种电力物联网的计算任务分配方法、装置及计算机设备
Yu et al. Efficient QoS provisioning for adaptive multimedia in mobile communication networks by reinforcement learning
CN114615705B (zh) 一种基于5g网络下单用户资源分配策略方法
CN114374694B (zh) 一种基于优先级的任务卸载方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230705

Address after: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant after: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

Address before: 400065 Chongwen Road, Nanshan Street, Nanan District, Chongqing

Applicant before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240119

Address after: 518110 Building 8A, South China Digital Valley, Shenzhen International, Minxin Community, Minzhi Street, Longhua District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen Zhongan Communication Technology Co.,Ltd.

Address before: 710000 No. B49, Xinda Zhongchuang space, 26th Street, block C, No. 2 Trading Plaza, South China City, international port district, Xi'an, Shaanxi Province

Applicant before: Xi'an Huaqi Zhongxin Technology Development Co.,Ltd.

GR01 Patent grant
GR01 Patent grant