CN112667406A - 一种云边融合异构网络中任务卸载与数据缓存方法 - Google Patents

一种云边融合异构网络中任务卸载与数据缓存方法 Download PDF

Info

Publication number
CN112667406A
CN112667406A CN202110027374.2A CN202110027374A CN112667406A CN 112667406 A CN112667406 A CN 112667406A CN 202110027374 A CN202110027374 A CN 202110027374A CN 112667406 A CN112667406 A CN 112667406A
Authority
CN
China
Prior art keywords
task
transmission power
val
user
unloading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110027374.2A
Other languages
English (en)
Inventor
邝祝芳
陈清林
高坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University of Forestry and Technology
Original Assignee
Central South University of Forestry and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University of Forestry and Technology filed Critical Central South University of Forestry and Technology
Priority to CN202110027374.2A priority Critical patent/CN112667406A/zh
Publication of CN112667406A publication Critical patent/CN112667406A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开一种云边融合异构网络中任务卸载与数据缓存方法。主要步骤包括:1、生成任务描述集合I={Hi|1≤i≤η},Hi=(Si,Wi),Si=(Di,Ui),构建云边融合异构网络中任务卸载、数据缓存和资源分配的数学模型P1。2、在给定传输功率和CPU频率
Figure DDA0002890813830000011
的情况下构造数学模型P2。基于深度学习DQN算法求解问题P2,求得任务卸载和数据缓存决策向量
Figure DDA0002890813830000012
求得目标值Val_old。3、基于求得的卸载和缓存决策
Figure DDA0002890813830000013
构造数学模型P3。采用序列二次规划法求得传输功率和CPU频率
Figure DDA0002890813830000014
求得目标值Val_new。4、比较目标值Val_old和Val_new的差值,如果Val_old‑Val_new<δ,则退出,否则重复步骤2和步骤3。应用本发明,解决了云边融合异构网络中任务卸载、数据缓存和资源分配优化问题,有效地降低了任务的执行时延和能耗。

Description

一种云边融合异构网络中任务卸载与数据缓存方法
技术领域
本发明属于无线网络技术领域,涉及一种云边融合异构网络中任务卸载与数据缓存方法。
背景技术
在物联网(IoT)迅猛发展的推动下,各种移动应用(如远程医疗系统,监视和安全监控系统)的数据量爆炸性增长,以及对超低延迟和高可靠性的严格要求,给物联网设备带来了沉重的处理负担。移动云计算允许移动设备将本地计算任务部分或全部迁移到远程云服务器上,减少移动设备的能源消耗,但是,将任务卸载到核心网络的云服务器上需要消耗回程链路资源,产生额外的延迟或者能耗开销,无法满足5G场景的低延迟、高可靠性要求。
移动边缘计算是一项在近距离为移动用户提供云服务和IT服务的新兴技术。在移动边缘计算中,移动边缘服务器部署在基站,移动边缘计算平台通过为边缘设备提供计算和存储能力来减少网络延迟。移动设备和物联网设备常利用移动边缘计算服务为计算密集型应用程序执行计算卸载,例如图像处理,移动游戏等。但是,移动边缘计算忽略了云服务器中巨大的计算资源。而云边融合(计算)异构网络系统是集中式云计算和移动边缘计算并存的形式,通过计算卸载、数据缓存和资源分配来提高用户体验以及能量和网络资源利用率。因此,在云边计算异构网络系统中充分利用云和边缘处的强大资源特别必要和重要。经查阅相关文献,未见有关针对云边计算异构网络中卸载、缓存决策和资源分配迭代优化问题的报道。
鉴于以上考虑,本发明提出了一种云边计算异构网络中任务卸载、数据缓存和资源分配方法:1、先初始用户的传输功率和CPU频率,在对应功率和频率下求能达到最小完成时间的任务卸载决策与缓存决策。2、在求得卸载决策和缓存决策的情况下求最优传输功率和CPU频率。反复进行这两步迭代直到求得最优解。
发明内容
本发明所要解决的技术问题是提出一种云边计算异构网络中任务卸载和数据缓存方法。通过对卸载决策、缓存决策、传输功率和CPU频率进行联合优化,目标是最小化执行延迟和能耗。
发明的技术解决方案如下:
一种云边计算异构网络中任务卸载、数据缓存和资源分配方法,首先构建云边计算异构网络场景,当前网络环境由具有单个天线的η个移动用户、
Figure BDA0002890813810000024
个AP和1个云服务器组成,其中I={1,…,η}表示移动用户的集合,
Figure BDA0002890813810000025
表示AP的集合。每个移动用户通过无线链接到其关联的AP,而AP和云服务器通过光纤有线链接。每个AP都配备了具有缓存空间的边缘服务器,在其无线覆盖范围内向移动用户提供计算服务。云服务器可以视为计算和数据中心。每一个移动用户(边缘设备)有一个计算任务,边缘设备i∈I的任务为Hi=(Si,Wi),其中Si为任务的数据量大小,单位为比特。Wi为完成任务所需的CPU周期数。Si分成Di和Ui两部分,其中Di为在本地采集的动态变化的数据,Ui为计算任务需要的相关数据,存储在云服务器的数据库中,该部分数据属于不变的数据。
本发明提出的云边计算异构网络中任务卸载与数据缓存方法,步骤如下:
1、构建云边计算异构网络中系统的数学模型,步骤如下:
每个任务可以在本地,边缘服务器或运算能力更强的云服务器上执行计算。令ai,m∈{0,1}表示是否用户i的任务卸载到MEC服务器,ai,m=1表示卸载用户i的任务到MEC服务器m∈M上进行计算,并且用集合
Figure BDA0002890813810000026
表示对应于用户i的卸载决策。令bi,m∈{0,1}表示是否卸载用户i的任务到云服务器上进行计算,bi,m=1表示用户i的任务通过MEC服务器m∈M卸载到云服务器上进行计算,集合
Figure BDA0002890813810000027
表示相应的决策。令ci,m∈{0,1}表示数据Ui是否在边缘服务器m∈M上进行缓存,ci,m=1表示用户i的所需远程数据库数据Ui缓存到MEC服务器上,集合
Figure BDA0002890813810000028
表示相应的缓存决策。相应地,每个用户的任务只能选择在本地执行、卸载到边缘服务器执行或卸载到云服务器执行,因此,用户i的任务卸载缓存决策满足下面的约束条件:
m∈M(ai,m+bi,m)≤1,i∈I (1)
每个AP的计算资源为Om,每个AP的缓存容量为Cm,需满足如下约束:
i∈Iai,mWi≤Om,m∈M (2)
i∈Ici,mUi≤Cm,m∈M (3)
用户i与边缘服务器m的上行/下行链路传输速率为
Figure BDA0002890813810000021
Figure BDA0002890813810000022
公式如下:
Figure BDA0002890813810000023
Figure BDA0002890813810000031
其中,
Figure BDA0002890813810000032
为信道增益;gi,m为信道功率增益;di,m为AP与用户的距离;α为通道损失系数;pi为用户i到AP(MEC服务器m∈M)的上行链路传输功率,单位为W;qi为MEC服务器m∈M到用户i的下行链路传输功率,单位为W;B为信道带宽,单位为Hz,N0表示噪声功率谱密度。
用户i的任务Hi在本地执行的时延表示为
Figure BDA0002890813810000033
公式如下:
Figure BDA0002890813810000034
其中,
Figure BDA0002890813810000035
表示把数据Ui从AP下行传输到用户i的传输时间;
Figure BDA0002890813810000036
为计算任务需要的相关数据从云服务器到AP的传输时间,rMC为云服务器到AP的传输速率;
Figure BDA0002890813810000037
为用户i的任务Hi在本地的计算时间,fi L为本地计算的CPU频率,单位为周期/S;ci,m∈{0,1}为缓存决策,ci,m=1表示用户i任务Hi的Ui缓存到边缘服务器m∈M,ci,m=0表示用户i的任务Hi的Ui没有缓存到边缘服务器m∈M。
用户i的任务Hi在边缘服务器执行的时延表示为
Figure BDA0002890813810000038
公式如下:
Figure BDA0002890813810000039
其中,
Figure BDA00028908138100000310
表示把数据Di从用户i上行传输到AP的传输时间;
Figure BDA00028908138100000311
为用户i的任务Hi在卸载到边缘服务器计算的时间,fi M表示边缘服务器m∈M给用户i的任务分配的CPU频率,单位为周期/S。
用户i的任务Hi在云服务器执行的时延表示为
Figure BDA00028908138100000312
公式如下:
Figure BDA00028908138100000313
其中,
Figure BDA0002890813810000041
为计算把数据Di从AP上行传输到云服务器的传输时间;
Figure BDA0002890813810000042
为用户i的任务Hi通过边缘服务器m∈M卸载到云服务器计算的时间,fi C表示云服务器给用户i的任务分配的CPU频率,单位为周期/S。
用户i的任务Hi在本地执行能耗表示为
Figure BDA0002890813810000043
公式如下:
Figure BDA0002890813810000044
其中,
Figure BDA0002890813810000045
表示把数据Ui从AP下行传输到用户i的传输时间;ε是能量消耗参数;fi L为本地计算的CPU频率。
用户i的任务Hi在边缘服务器m∈M执行能耗表示为
Figure BDA0002890813810000046
公式如下:
Figure BDA0002890813810000047
其中,
Figure BDA0002890813810000048
表示把数据Di从用户i上行传输到AP的传输时间;fi M表示边缘服务器m∈M给用户i的任务分配的CPU频率。
用户i的任务Hi通过边缘服务器m∈M卸载到云服务器执行能耗表示为
Figure BDA0002890813810000049
公式如下:
Figure BDA00028908138100000410
其中,fi C表示云服务器给用户i的任务分配的CPU频率。
定义数学模型Ρ1的目标函数,在满足MEC边缘服务器缓存约束的情况下,最小化执行时延和最小化能量消耗,如下所示:
Figure BDA00028908138100000411
其中τ=(ai,bi,ci,pi,qi,fi L,fi M,fi C),为优化变量,ai,m,bi,m为卸载决策,表示用户i的任务是否卸载到边缘服务器或云服务器执行,ci,m为缓存决策,表示Ui是否缓存到边缘服务器,pi为用户i到AP(MEC服务器m∈M)的上行链路传输功率,qi为MEC服务器m∈M到用户i的下行链路传输功率,fi L为本地计算的CPU频率,fi M表示边缘服务器m∈M给用户i的任务分配的CPU频率,fi C表示云服务器给用户i的任务分配的CPU频率。
数学模型的约束条件如下:
(1),(2),(3),
Figure BDA0002890813810000051
Figure BDA0002890813810000052
Figure BDA0002890813810000053
Figure BDA0002890813810000054
Figure BDA0002890813810000055
Figure BDA0002890813810000056
Figure BDA0002890813810000057
公式(1)表示卸载决策约束,用户i的任务只能卸载到边缘服务器或云服务器,或者本地执行。
公式(2)表示每个MEC服务器的计算资源约束。
公式(3)表示边缘服务器m∈M的缓存约束。
公式(12b)表示在本地、边缘服务器或云服务器执行的时间不应超过最大延迟T。
公式(12c)表示在本地、边缘服务器或云服务器执行的能耗不应超过最大能耗E。
公式(12d)表示用户i的上行传输功率不应超过最大上行传输
Figure BDA0002890813810000058
公式(12f)表示边缘服务器m∈M的下行传输功率不应超过最大下行传输
Figure BDA0002890813810000059
公式(12f)表示用户i的最大CPU频率约束,FL表示本地用户的最大CPU频率。
公式(12g)表示边缘服务器m∈M的最大CPU频率约束,FM表示边缘服务器m的最大CPU频率。
公式(12h)表示云服务器的最大CPU频率约束,FC表示云服务器的最大CPU频率。
2、基于深度强化学习DQN算法求卸载和缓存决策向量,步骤如下:
1)构造给定传输功率和CPU频率情况下的数学模型,在给定传输功率和CPU频率
Figure BDA00028908138100000510
的情况下,优化所有用户的卸载决策和缓存决策,采用DQN算法进行求解。求解用户的卸载决策和缓存决策的目标与问题P1一致,为最小化所有任务的能量消耗和执行时间的加权和。优化问题的数学模型P2可写成如下所示:
Figure BDA0002890813810000061
(1),(2),(3)
Figure BDA0002890813810000062
Figure BDA0002890813810000063
其中(13a)为目标函数,(1),(2),(3),(13b),(13c)为约束条件,τ'=(ai,m,bi,m,ci,m)是优化变量,ai,m,bi,m为卸载决策,表示用户i的任务是否边缘服务器或者云服务器执行。ci,m为缓存决策,表示Ui是否缓存到边缘服务器。
2)基于深度强化学习DQN算法的卸载决策和缓存决策的三个关键要素定义,深度强化学习方法中有三个关键要素,即状态、动作、奖励,具体定义如下:
(1)系统状态S:用S表示系统状态,S={cost,om,cm},其中cost表示问题P2的目标值(总效益值),om表示所有边缘服务器的剩余可用计算资源,其中
Figure BDA0002890813810000066
Figure BDA0002890813810000064
i∈I是用户集合I={1,…,η},m∈M是AP集合
Figure BDA00028908138100000610
cm表示边缘服务器m的剩余可用缓存容量,
Figure BDA0002890813810000067
(2)系统动作A:用A表示系统动作,系统动作包括卸载决策和缓存决策,卸载决策包括向量Λ=(a1,...,ai,...,aη)和向量Π=(b1,...,bi,...,bη),其中
Figure BDA0002890813810000068
表示用户i的任务是否卸载到边缘服务器m计算的决策向量,
Figure BDA0002890813810000069
表示用户i的任务所需数据是否卸载到云服务器计算的决策向量,向量Υ=(c1,...,ci,...,cη)表示缓存决策,其中
Figure BDA00028908138100000611
表示用户i的任务所需数据是否缓存到边缘服务器m的决策向量。结合向量Λ、Π和Υ,系统动作可设为A={a1,...,am,...,aη,b1,...,bm,...,bη,c1,...,cm,...,cη}。
(3)系统奖励R:每一步,代理agent在执行完每一个可能的动作后,都会得到一个奖励R,强化学习的目标是获得最大的累计奖励,将立即奖励定义为:R=(c1-c2)/c1,其中c1表示所有任务在本地执行,计算得到的效益;c2表示任务在执行当前策略的情况下,计算得到的效益。如果c1>c2,则R>0,说明执行当前策略会得到更大的奖励,反之,R为负值,说明执行当前策略不会得到比本地执行更大的奖励。
3)基于深度强化学习DQN算法,求解所有用户的任务的卸载决策和缓存决策。为了解决大空间问题,DQN使用深度神经网络来估计动作价值函数Q(S,A),该函数值可视为累计奖励,如下所示:
Q(S,A)=R+βmaxA'Q(S',A') (14)
其中R为奖励,β为衰减因子,S',A'表示下一个状态和动作,下一时刻的Q值可更新公式为:
Q(S,A)←Q(S,A)+γ(R'+βmaxA'Q(S',A')-Q(S,A)) (15)
在给出基于深度强化学习DQN算法求解所有用户的任务的卸载决策和缓存决策的步骤之前,首先给出相关参数的含义和相应的初始化值,初始化经验池容量为N,初始化评估Q网络,随机生成网络参数θ,初始化目标Q网络,网络参数θ-=θ,初始化训练轮数z=0,每轮训练步数t=0。其中训练最大轮数为Z,每轮到达终止状态的步数为Γ,经验池采样前的元组存储条数Φ,评估网络与目标网络参数同步的步数
Figure BDA0002890813810000074
。整个神经网络的总步数step=Z×Γ,初始step=0。
下来给出DQN算法求解所有用户的任务的卸载决策和缓存决策的具体步骤:
①如果z=Z,结束训练,否则跳转至步骤②。
②取初始状态St
③选择当前动作,将St输入评估Q网络中,以ε的概率随机选择当前动作At,以1-ε的概率选择最大Q值对应的动作为当前动作At,即
Figure BDA0002890813810000075
根据选择的动作At计算其对应的奖励Rt,以及对应的下一步状态St+1
④将元组(St,At,Rt,St+1)存储进经验池中,经验池的大小有限,当数据记录满了之后,下一个数据会覆盖经验回放中的第一个数据。
⑤step=step+1,t=t+1,如果t=Γ,则z=z+1,t=0,跳转至步骤①;如果t<Γ且step<Φ,跳转至步骤③,否则跳转至步骤⑥。
⑥随机从经验池中选择一组数据(Sj,Aj,Rj,Sj+1),将Sj输入评估Q网络中,得到估计值Qθ(Sj,Aj);将Sj+1输入目标Q网络中,得到
Figure BDA0002890813810000071
则目标Q网络的Q值为
Figure BDA0002890813810000072
计算Qθ(Sj,Aj)与
Figure BDA0002890813810000073
之间的误差,使用梯度下降法更新评估Q网络的参数θ。使用均方误差(mean-squared error,MSE)来定义损失函数,公式如下:
Figure BDA0002890813810000081
利用梯度下降方法来对网络参数θ进行更新,公式如下:
Figure BDA0002890813810000082
θ=θ-Δθ (18)
⑦如果
Figure BDA0002890813810000083
则将评估Q网络的参数θ赋值给目标Q网络的参数θ-,即θ-=θ。跳转至步骤②。
训练结束以后,累计奖励达到最大,通过训练好的神经网络可以得到任务的卸载决策和缓存决策
Figure BDA0002890813810000084
4)根据以上求解的卸载和缓存决策
Figure BDA0002890813810000085
和已给定的传输功率和CPU频率的代入目标式(13a)求得目标值Val_old。
3、根据步骤2求得的卸载和缓存决策向量
Figure BDA0002890813810000086
求解用户集合I中所有任务的传输功率和CPU频率,采用序列二次规划法SQP进行求解,任务传输功率和CPU频率的求解步骤如下:
1)联合功率分配和CPU频率分配问题的目标是最小化所有任务的能量消耗和完成时间,优化问题的数学模型P3可写成如下所示:
Figure BDA0002890813810000087
其中τ”=(pi,qi,fi L,fi M,fi C),数学模型的约束条件如下:
Figure BDA0002890813810000088
Figure BDA0002890813810000089
Figure BDA00028908138100000810
Figure BDA0002890813810000091
Figure BDA0002890813810000092
Figure BDA0002890813810000093
Figure BDA0002890813810000094
2)根据步骤2求得卸载决策向量之后,可以确定卸载决策,所有任务是在本地执行、边缘服务器执行或云服务器执行都可得知。当任务在边缘服务器执行时,
Figure BDA0002890813810000095
令vari=(pi,fi M),约束条件
Figure BDA0002890813810000096
g4(vari)=FM-fi M,则对步骤1)的数学模型P3转换为数学模型P4:
Figure BDA0002890813810000097
s.t.
gj(vari)≥0,(j=1,...,4,i=1,...,I) (20b)
3)将数学模型P4中的优化变量传输功率pi进变量替换,令
Figure BDA0002890813810000098
进行变量替换之后的问题如P5:
Figure BDA0002890813810000099
Figure BDA00028908138100000910
Figure BDA00028908138100000911
Figure BDA00028908138100000912
FM-fi M>0 (21e)
其中
Figure BDA00028908138100000913
是P5的优化变量。约束条件
Figure BDA00028908138100000914
Figure BDA00028908138100000915
4)采用二次规划方法求解任务在边缘服务器执行时的传输功率和CPU频率,具体步骤如下:
i)给定初始点
Figure BDA0002890813810000101
收敛精度
Figure BDA0002890813810000102
令H0=I(I为单位矩阵),置k=0,k为迭代次数。
ii)利用泰勒展开式把目标函数(21a)在迭代点
Figure BDA0002890813810000103
处简化成二次函数,将单个任务的约束函数简化成线性函数后得到如下的二次规划问题P6:
Figure BDA0002890813810000104
Figure BDA0002890813810000105
iii)对问题P6中的ri、fi M求导,可得:
Figure BDA0002890813810000106
Figure BDA0002890813810000107
Figure BDA0002890813810000108
Figure BDA0002890813810000109
Figure BDA00028908138100001010
将公式(23)、(24)、(25)、(26)和(27)代入问题P6,得到二次规划问题P7:
Figure BDA00028908138100001011
s.t.
Akd+Bk≤0 (28b)
其中
Figure BDA00028908138100001012
Hk
Figure BDA00028908138100001013
以拟牛顿法计算的二次偏导近似值。
iv)求解二次规划问题,引入拉格朗日乘子向量λ=[λ1,...,λj],问题P7的对偶问题如下所示:
Figure BDA0002890813810000111
其中
Figure BDA0002890813810000112
为目标式的二次泰勒展开式,Akd+Bk为不等式约束式的一次泰勒展开式。
v)利用KKT条件求解对偶问题,令▽L(d,λ)=0得:
Hkd+Ckd+(Ak)Tλ=0 (30)
Akd+Bk=0 (31)
写成矩阵形式,即:
Figure BDA0002890813810000113
利用消元变换求出该方程的唯一解,记作[dk λk]T
vi)根据KKT条件,若此解中的乘子向量λk不全为0,则d*=dk,为二次规划问题(28)的最优解。
vii)在搜索方向d*上对目标函数(21a)进行约束一维搜索,求得
Figure BDA0002890813810000114
α为搜索步长。若
Figure BDA0002890813810000115
满足给定精度的终止准则
Figure BDA0002890813810000116
则求得目标式(21a)的最优解为
Figure BDA0002890813810000117
最优值为
Figure BDA0002890813810000118
求得最优传输功率
Figure BDA0002890813810000119
和CPU频率fi M*,终止计算;否则转至下一步骤。
viii)令k=k+1,按照拟牛顿法近似修正Hk+1,转至步骤v)继续迭代求解。
5)同样可通过步骤2)、3)和步骤4)求得任务在本地执行和云服务器执行时的最优传输功率和CPU频率
Figure BDA00028908138100001110
fi L*、fi C*
6)将步骤2)、3)、4)、5)求得的所有任务最优解
Figure BDA00028908138100001111
fi L*、fi M*、fi C*代入目标式(19a)求得目标值Val_new。
4、计算Val_old和Val_new之间的差值,如果差值小于阈值δ,即Val_old-Val_new<δ,则循环迭代结束,否则重复步骤2和步骤3。
有益效果
本发明解决了一种云边计算异构网络中任务卸载与数据缓存方法。有效求得能源消耗和执行延迟的最优值,从而提高用户体验和降低设备能耗。
附图说明
下面结合附图对本发明作进一步的详细描述
图1为本发明场景模型示意图;
图2为本发明任务卸载、缓存决策和功率、频率分配方法流程图;
图3为本发明DQN算法求解任务卸载决策和缓存决策的流程图;
图4为本发明基于SQP优化的卸载任务传输功率和CPU频率优化求解流程图;
具体实施方式
以下将结合附图和具体实施例对本发明做进一步详细说明:
实施例1:
本实施例中,图1所示为移动边缘计算场景模型示意图,含有
Figure BDA0002890813810000121
个AP,每个AP配备边缘服务器,有η=7个移动边缘设备,每一个边缘设备有一个独立的任务,边缘服务器的缓存容量Cm为10Mb,计算资源Om为5Gcycles。设计算任务的集合为I={H1,H2,H3,H4,H5,H6,H7}。每个任务Hi所需处理的数据量分成用户收集的数据Di和相应的计算任务数据库数据Ui,每个任务Hi的处理每单位数据所需CPU周期为Wi。移动设备的最大CPU频率为FL=4GHz,移动设备的最大传输功率Pi max=0.5W;边缘服务器的最大CPU频率为FM=5GHz,边缘服务器的最大传输功率
Figure BDA0002890813810000122
云服务器的最大CPU频率为FC=8GHz。设每个任务的最大执行时延T=1.5s,最大执行能耗E=1J。
S1-1初始化任务集合,任务Hi的Wi和Di、Ui如表1所示,初始化每个任务对应的上行/下行传输功率为pi、qi,单位W。移动设备的CPU频率为fi L,边缘服务器的CPU频率为fi M,云服务器的CPU频率为fi C,单位MHz。用户与AP之间的距离为di,m,单位m。w值为1/2,初始化的值如表1和表2所示。
表1各个任务的参数表
H<sub>i</sub> H<sub>1</sub> H<sub>2</sub> H<sub>3</sub> H<sub>4</sub> H<sub>5</sub> H<sub>6</sub> H<sub>7</sub>
W<sub>i</sub> 1463.1 1046.8 511 731.6 988.9 1124.1 1379.1
D<sub>i</sub> 3288.2 2827.1 1960.4 807.6 1840.4 1419 955
U<sub>i</sub> 3677.2 643.2 1746.2 707.8 937.1 4205.6 3626.7
p<sub>i</sub> 0.4902 0.1321 0.3642 0.2406 0.109 0.382 0.1688
q<sub>i</sub> 0.5305 0.2441 1.0 0.9799 0.4047 0.99 0.1877
f<sub>i</sub><sup>L</sup> 799.3 1418.7 3303.6 602.3 3751 3056.2 2210.1
f<sub>i</sub><sup>M</sup> 2669.1 1198.6 4610.9 4779.1 2963.5 2957 2350.9
f<sub>i</sub><sup>C</sup> 6441.0 5889.0 7234.1 5566.9 7060.3 5550.5 6105.5
表2用户与3个AP之间的距离
d<sub>i,m</sub>(m) i=1 i=2 i=3 i=4 i=5 i=6 i=7
AP1 150 140 110 145 194 196 158
AP2 149 105 145 131 122 151 110
AP3 143 118 190 198 144 102 126
S1-2根据深度学习中的DQN算法求卸载、缓存决策向量:
S2-1在给定传输功率和CPU频率
Figure BDA0002890813810000134
的情况下,将优化问题P1转化为优化问题P2,利用DQN算法对优化问题P2进行求解。
S2-2深度强化学习方法中有三个关键要素,即状态、动作、奖励,如下所示
(1)系统状态S:S={cost,om,cm},其中cost表示整个系统的总效益值也就是目标值;om表示所有边缘服务器m的剩余可用计算资源,其中
Figure BDA0002890813810000135
Figure BDA0002890813810000131
cm表示边缘服务器m的剩余可用缓存容量,
Figure BDA0002890813810000132
Figure BDA0002890813810000133
(2)系统动作A:A={a1,...,am,...,aη,b1,...,bm,...,bη,c1,...,cm,...,cη}
系统动作包括卸载决策和缓存决策。卸载决策包括向量Λ=(a1,...,ai,...,aη)和向量Π=(b1,...,bi,...,bη),缓存决策向量Υ=(c1,...,ci,...,cη)。结合向量Λ、Π和Υ,A={a1,...,am,...,aη,b1,...,bm,...,bη,c1,...,cm,...,cη}。
(3)系统奖励:将立即奖励定义为:R=(c1-c2)/c1,其中c1表示所有任务在本地执行,计算得到的效益;c2表示任务在执行当前策略的情况下,计算得到的效益。通过表1和表2的数据计算c1=5.5345。则R=(5.5345-c2)/5.5345。
S2-3初始化经验池容量为N=500。初始化训练轮数z=1,每轮训练步数t=1。训练最大轮数为Z=500,ε每轮到达终止状态的步数为Γ=7。整个神经网络的总步数step=500*7,初始step=1。为选择当前动作的概率。
DQN算法求卸载、缓存决策的具体步骤如下:
①z=1,进入步骤②。
②取初始状态S1,将St输入评估Q网络中。
③以ε=0.1的概率随机选择当前动作At,否则选择最大Q值对应的动作,即
Figure BDA0002890813810000142
计算A1对应的奖励R1,以及对应的下一步状态S2
④将(St,At,Rt,St+1)存储进经验池中。
⑤step=2,t=2,此时若t<7且step<200,跳转至步骤③,若t=7,则z=2,t=0,跳转至步骤①;若step>200,跳转至步骤⑥。
⑥经过200步之后,随机从经验池中取一组元组进行训练,使用梯度下降法更新评估Q网络的参数θ。
⑦若(step-200)%5==0,将评估Q网络的参数θ赋值给目标Q网络的参数θ-,即θ-=θ。跳转至步骤②。
最终,通过训练好的神经网络得到所有任务的最终策略,如表3所示。
表3卸载决策ai
Figure BDA0002890813810000141
表4卸载决策bi
Figure BDA0002890813810000151
表5缓存决策ci
Figure BDA0002890813810000152
S2-4根据表3、4和表5的卸载决策缓存决策求得目标函数值Val_old=4.31。
S1-3集合I中所有的上行/下行传输功率和CPU频率采用序列二次规划法进行求解:
S3-1将步骤S1-2求得的卸载决策和缓存决策
Figure BDA0002890813810000153
代入目标式(12a)中,构造优化问题P3。
S3-2根据步骤S1-2求得卸载决策向量之后,可以确定卸载决策,所有任务在本地执行、边缘服务器执行或云服务器执行都可得知。当任务在边缘服务器执行时,将问题转换为P4。由于目标式为凸函数,故可采用序列二次规划法对其进行求解。
S3-3将表1中任务参数的pi、fi M设置为初始点
Figure BDA0002890813810000154
收敛精度
Figure BDA0002890813810000155
令H0=I(I为单位矩阵),置k=1(k为迭代次数)。
S3-4利用泰勒展开式把目标函数在迭代点
Figure BDA0002890813810000156
处简化成二次函数,将单个任务的约束函数简化成线性函数后,得到数学模型P7。
S3-5根据KKT条件求解P7的对偶问题,若此解中的乘子向量λk不全为0,则dk为二次规划问题(28)的最优解d*
S3-6此时dk=d*,在方向d*上对目标函数(21a)进行约束一维搜索,得点
Figure BDA0002890813810000157
Figure BDA0002890813810000158
满足给定的精度的终止准则
Figure BDA0002890813810000159
则目标式(21a)最优解
Figure BDA00028908138100001510
最优值
Figure BDA00028908138100001511
输出最优解,求得最优传输功率
Figure BDA00028908138100001512
和和CPU频率fi M*,终止计算,否则转至下一步骤。
S3-7按照拟牛顿法近似修正Hk+1,令k=k+1,转至步骤S3-5继续迭代求解。则由上步骤求得最优传输功率和CPU频率最优值,如表6所示,
表6
Figure BDA0002890813810000161
fi M*最优解
Figure BDA0002890813810000162
S3-8同样可通过步骤S3-2至S3-7求得任务在本地执行和云服务器执行时的最优传输功率和CPU频率
Figure BDA0002890813810000163
fi L*、fi C*,如表7所示。
表7
Figure BDA0002890813810000164
fi L*fi C*最优解
Figure BDA0002890813810000165
S3-9根据式(19a)和表6、表7的最优解计算目标值Val_new=4.0989。
S1-4重复步骤S1-2至步骤S1-3,比较Val_old和Val_new,如果经过步骤S1-2的DQN优化策略之后的目标值与步骤S1-3求解的目标值的差值小于阈值δ=10-4,即Val_old Val_new<δ,则迭代结束。经过多次迭代优化之后,此时最终目标值为3.6392,最终卸载决策和缓存决策向量如表8、9和表10所示,各任务的传输功率和处理频率如表11所示。
表8卸载决策ai
Figure BDA0002890813810000166
Figure BDA0002890813810000171
表9卸载决策bi
Figure BDA0002890813810000172
表10缓存决策ci
Figure BDA0002890813810000173
表11最终传输功率和CPU频率
Figure BDA0002890813810000174

Claims (1)

1.一种云边融合异构网络中任务卸载与数据缓存方法,其特征在于,包括以下步骤:
步骤1:构造云边融合异构网络中任务卸载、数据缓存和资源分配的数学模型P1,
步骤2:在给定传输功率和CPU频率的情况下,构造给定传输功率和CPU频率情况下的数学模型P2。基于深度学习DQN算法求解问题P2,求得任务卸载和数据缓存决策向量,求得目标值Val_old,
步骤3:基于步骤3求得的优化变量,构造数学模型P3,采用序列二次规划法对传输功率和CPU频率进行求解,求得目标值Val_new,
步骤4:比较目标值Val_old和Val_new的差值,如果差值小于阈值,则循环迭代结束,否则重复步骤2至步骤4;
步骤1中云边融合异构网络中任务卸载、数据缓存和资源分配的数学模型P1,定义数学模型的优化变量,包括任务计算卸载向量
Figure FDA0002890813800000011
ai,m∈{0,1}表示是否将用户i的任务卸载到MEC服务器,ai,m=1表示卸载用户i的任务到MEC服务器m∈M上进行计算;计算卸载向量
Figure FDA0002890813800000012
bi,m∈{0,1}表示是否卸载用户i的任务到云服务器上进行计算,bi,m=1表示用户i的任务通过MEC服务器m∈M卸载到云服务器上进行计算;任务数据缓存向量
Figure FDA0002890813800000013
ci,m∈{0,1}表示数据Ui是否在边缘服务器m∈M上进行缓存,ci,m=1表示用户i的所需远程数据库数据Ui缓存到MEC服务器上,边缘设备的传输功率变量pi,表示第i个用户的上行传输功率,边缘设备最大传输功率为Pi max,边缘服务器的传输功率变量qi,表示第i个用户所需相应数据通过边缘服务器传输的下行传输功率,边缘服务器最大传输功率为
Figure FDA0002890813800000014
定义用户i的数据率为
Figure FDA0002890813800000015
边缘服务器的数据率为
Figure FDA0002890813800000016
每个用户的任务最大等待时延为T,每个用户的任务最大能耗为E,最小化效益的目标函数为
Figure FDA0002890813800000017
定义目标问题优化的数学模型Ρ1;
步骤2中在给定传输功率和CPU频率
Figure FDA0002890813800000018
的情况下,构造给定传输功率和CPU频率情况下的数学模型P2,基于深度学习DQN算法求解问题P2。采用DQN算法对任务的卸载决策和缓存决策进行求解,求得任务卸载和数据缓存决策向量
Figure FDA0002890813800000019
求得目标值Val_old;
步骤4基于求得的卸载和缓存决策
Figure FDA0002890813800000021
代入数学模型P1,构造数学模型P3,采用序列二次规划法SQP将P3转化为二次规划问题进行求解,求得优化变量传输功率和CPU频率
Figure FDA0002890813800000022
求得目标值Val_new;
步骤4中比较目标值Val_old和Val_new的差值,如果差值小于阈值,则循环迭代结束,否则重复步骤2和步骤3,比较步骤2求得的目标值Val_old和步骤3求得目标值Val_new的差值,如果Val_old-Val_new<δ,则退出,否则重复步骤2和步骤3。
CN202110027374.2A 2021-01-10 2021-01-10 一种云边融合异构网络中任务卸载与数据缓存方法 Pending CN112667406A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110027374.2A CN112667406A (zh) 2021-01-10 2021-01-10 一种云边融合异构网络中任务卸载与数据缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110027374.2A CN112667406A (zh) 2021-01-10 2021-01-10 一种云边融合异构网络中任务卸载与数据缓存方法

Publications (1)

Publication Number Publication Date
CN112667406A true CN112667406A (zh) 2021-04-16

Family

ID=75413992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110027374.2A Pending CN112667406A (zh) 2021-01-10 2021-01-10 一种云边融合异构网络中任务卸载与数据缓存方法

Country Status (1)

Country Link
CN (1) CN112667406A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132943A (zh) * 2021-04-18 2021-07-16 中南林业科技大学 一种车联网中车边协同的任务卸载调度及资源分配方法
CN113157338A (zh) * 2021-04-22 2021-07-23 杭州电子科技大学 边缘云环境中安全任务卸载的效益最大化方法
CN113296953A (zh) * 2021-06-04 2021-08-24 北京大学 云边端异构边缘计算网络的分布式计算架构、方法与装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767117A (zh) * 2019-01-11 2019-05-17 中南林业科技大学 移动边缘计算中联合任务调度的功率分配方法
CN111245651A (zh) * 2020-01-08 2020-06-05 上海交通大学 一种基于功率控制和资源分配的任务卸载方法
CN111556143A (zh) * 2020-04-27 2020-08-18 中南林业科技大学 移动边缘计算中协作卸载机制下的最小化时延方法
CN112039950A (zh) * 2020-08-03 2020-12-04 威胜信息技术股份有限公司 边缘计算网络任务调度与资源分配方法和边缘计算系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767117A (zh) * 2019-01-11 2019-05-17 中南林业科技大学 移动边缘计算中联合任务调度的功率分配方法
CN111245651A (zh) * 2020-01-08 2020-06-05 上海交通大学 一种基于功率控制和资源分配的任务卸载方法
CN111556143A (zh) * 2020-04-27 2020-08-18 中南林业科技大学 移动边缘计算中协作卸载机制下的最小化时延方法
CN112039950A (zh) * 2020-08-03 2020-12-04 威胜信息技术股份有限公司 边缘计算网络任务调度与资源分配方法和边缘计算系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
万鹏: "基于移动边缘云计算的车联网计算卸载调度", 硕士电子期刊出版, pages 1 - 61 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113132943A (zh) * 2021-04-18 2021-07-16 中南林业科技大学 一种车联网中车边协同的任务卸载调度及资源分配方法
CN113132943B (zh) * 2021-04-18 2022-04-19 中南林业科技大学 一种车联网中车边协同的任务卸载调度及资源分配方法
CN113157338A (zh) * 2021-04-22 2021-07-23 杭州电子科技大学 边缘云环境中安全任务卸载的效益最大化方法
CN113157338B (zh) * 2021-04-22 2022-08-12 杭州电子科技大学 边缘云环境中安全任务卸载的效益最大化方法
CN113296953A (zh) * 2021-06-04 2021-08-24 北京大学 云边端异构边缘计算网络的分布式计算架构、方法与装置
CN113296953B (zh) * 2021-06-04 2022-02-15 北京大学 云边端异构边缘计算网络的分布式计算架构、方法与装置

Similar Documents

Publication Publication Date Title
CN113242568B (zh) 一种不确定网络环境中的任务卸载和资源分配方法
CN112667406A (zh) 一种云边融合异构网络中任务卸载与数据缓存方法
CN110928654B (zh) 一种边缘计算系统中分布式的在线任务卸载调度方法
CN113543176B (zh) 基于智能反射面辅助的移动边缘计算系统的卸载决策方法
CN113873022A (zh) 一种可划分任务的移动边缘网络智能资源分配方法
CN112105062B (zh) 时敏条件下移动边缘计算网络能耗最小化策略方法
Chen et al. Multiuser computation offloading and resource allocation for cloud–edge heterogeneous network
CN113573363B (zh) 基于深度强化学习的mec计算卸载与资源分配方法
CN116260871A (zh) 一种基于本地和边缘协同缓存的独立任务卸载方法
WO2022242468A1 (zh) 任务卸载方法、调度优化方法和装置、电子设备及存储介质
Zhang et al. A deep reinforcement learning approach for online computation offloading in mobile edge computing
Dai et al. Deep reinforcement learning for edge computing and resource allocation in 5G beyond
CN113821346B (zh) 基于深度强化学习的边缘计算中计算卸载与资源管理方法
CN111930435A (zh) 一种基于pd-bpso技术的任务卸载决策方法
CN113157344B (zh) 移动边缘计算环境下基于drl的能耗感知任务卸载方法
CN115580900A (zh) 一种基于深度强化学习的无人机辅助协作式任务卸载方法
CN114025359B (zh) 基于深度强化学习的资源分配与计算卸载方法、系统、设备及介质
CN115499441A (zh) 超密集网络中基于深度强化学习的边缘计算任务卸载方法
CN115413044A (zh) 一种工业无线网络的计算和通信资源联合分配方法
Sang et al. A Hybrid Heuristic Service Caching and Task Offloading Method for Mobile Edge Computing.
Ansere et al. Quantum Deep Reinforcement Learning for Dynamic Resource Allocation in Mobile Edge Computing-based IoT Systems
Shi et al. Multi-UAV-assisted computation offloading in DT-based networks: A distributed deep reinforcement learning approach
Wang et al. Adaptive Compute Offloading Algorithm for Metasystem Based on Deep Reinforcement Learning
CN113360203B (zh) 一种电力物联网的任务卸载方法及装置
CN113590279B (zh) 一种面向多核边缘计算服务器的任务调度和资源分配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination