CN112910716B - 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 - Google Patents
一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 Download PDFInfo
- Publication number
- CN112910716B CN112910716B CN202110250524.6A CN202110250524A CN112910716B CN 112910716 B CN112910716 B CN 112910716B CN 202110250524 A CN202110250524 A CN 202110250524A CN 112910716 B CN112910716 B CN 112910716B
- Authority
- CN
- China
- Prior art keywords
- computing
- fog
- unloading
- layer
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/04—Network management architectures or arrangements
- H04L41/044—Network management architectures or arrangements comprising hierarchical management structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/04—Network management architectures or arrangements
- H04L41/042—Network management architectures or arrangements comprising distributed management centres cooperatively managing the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
- H04L67/025—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种基于分布式DNN的移动雾计算损耗联合优化系统和方法,包括:本地计算层、雾计算层和云计算层。本地计算层通过用户设备计算任务。雾计算层用于为卸载任务提供雾计算服务,以降低用户设备本身计算的时延和能耗。云计算层用于处理大规模计算和高复杂性计算。卸载任务通过无线网络先发送至离本地层雾接收节点,通过雾接收节点上传至雾计算层,最后由雾计算层上传至云计算层,用户独立决定是否将任务卸载到雾服务器进行计算,雾服务器可以决定是否将任务再次卸载到上层的云服务器进行计算。本发明的优点是:短时间内给出每个卸载任务的最优卸载决策,卸载的平均准确率高,对每个神经网络模型进行优化,能够更快速地达到收敛状态。
Description
技术领域
本发明涉及移动雾计算决策判决领域和总体效能联合优化技术领域,特别涉及一种基于分布式DNN的移动雾计算中计算卸载、卸载决策判决、时延和能耗均衡的联合优化系统和方法。
背景技术
随着智能设备的不断普及,智能应用在提供丰富的用户体验的同时却对计算能力有着严苛的要求。由于移动设备的局限性,当传统设备面对繁重的计算需求时,如何维持其服务质量变成了一项难题。为了解决这个问题,人们提出了移动云计算(MCC),通过将计算任务卸载到具有强大计算能力的远程云服务器上,来弥补本地设备计算能力的不足。
由于用户更倾向于进行卸载计算,大量任务被传输至云服务器以至于发生过载,部分数据进入云后处于排队队列中凭添了较高的等待延时,增加了实时卸载的难度。为了解决此类问题,移动雾计算(MFC)孕育而生。它被视为一种富有前景的技术,通过在网络边缘层布置雾服务器,把一些低时延敏感型数据或中等规模数据在该层直接处理,这样就能大大减小云端过载机率,同时也满足了时延和能耗需求。
对于MFC,迄今为止,通过对文献的阅读发现现有的研究均是从时延性能的优化和系统能耗的均衡,两个方面来进行研究。然而,现存的方案大多数只关心一侧的性能,对另一方考虑较少,如:专注于降低延时而忽略能耗需求。随着雾卸载网络日益复杂化,迫切需要一种更全面、更适应的算法来兼顾延时和能耗需求。
现有技术一
在[M.Chen,Y.Hao,Y.Li,C.Lai and D.Wu,〞On the computation o ffloadingat ad hoc cloudlet:architecture and service modes,〞in IEEECommunicationsMagazine,vol.53,no.6,pp.18-24,June 2015.]中,作者考虑到UE对F-AP的WIFI信道竞争和卸载任务大小,提出了一种机会卸载方案。
现有技术一的缺点:
作者只考虑了机会卸载算法对时延的优化,没有考虑经算法处理后部分任务卸载所需能耗增加对于卸载成本的影响。
现有技术二
在[M.Xu,Z.Zhao,M.Peng,Z.Ding,T.Q.S.Quek and W.Bai,〞Pe rformanceAnalysis of Computation Offloading in Fog-Radio Access Netwo rks,〞2019IEEEICC,Shanghai,China,2019,pp.1-6.]中,作者通过对计算分流的性能分析,提出了一种混合计算卸载方案,来优化卸载延时。
现有技术二的缺点
没有考虑卸载的能量损耗。
现有技术三
在[S.Ahn,J.Lee,S.Park,S.H.S.Newaz and J.K.Choi,〞Compet itive PartialComputation Offloading for Maximizing Energy Efficiency in Mobile CloudComputing,〞in IEEE Access,vol.6,pp.899-912,2018.]中,作者提出了一种竞争性部分计算卸载方案。在一个以能耗为导向的算法前提下,通过联合考虑UE和服务器的状态以及传输网络的拥塞情况构建一个竞争算法。凭借该算法,系统找到卸载任务的最佳大小以达到均衡能效的目的。
现有技术三的缺点:
在使用竞争算法的结果中,卸载任务的时延依旧很高。
现有技术四
在[H.Wu and K.Wolter,〞Stochastic Analysis of Delayed Mobile Offloading in Heterogeneous Networks,〞in IEEE Transactions on Mobile Com puting,vol.17,no.2,pp.461-474,1Feb.2018.]中,作者提出了延时卸载的概念。卸载分为部分卸载模型和完全卸载模型,将延迟敏感型任务通过部分卸载模型共同在本地端和服务器中联合计算,完全卸载模型是将延迟容忍性好的任务等待至WIFI通道良好时再进行传输,以达到进一步节省能耗的目的。
现有技术四的缺点:
任务在经过延时卸载后,总延时会增加。
现有技术五
在[X.Chen,J.Wu,Y.Cai,H.Zhang and T.Chen,〞Energy-Efficienc y OrientedTraffic Offloading in Wireless Networks:A Brief Survey anda Learning Approachfor Heterogeneous Cellular Networks,〞in IEEE Jou rnal on Selected Areas inCommunications,vol.33,no.4,pp.627-640,April 2015.]中,作者通过深度强化学习解决了卸载决策生成问题,提出了一种采用紧凑表示算法的集中式QC学习。
现有技术五的缺点:
算法过于复杂,生成单个任务卸载决策的耗时过长,不满足实时卸载计算的需求。
现有技术六
在[H.Shahzad and T.H.Szymanski,〞A dynamic programming offloadi ngalgorithm for mobile cloud computing,〞2016IEEE Canadian Conferenc e onElectrical and Computer Engineering(CCECE),Vancouver,BC,2016,pp.1-5,doi:10.1109/CCECE.2016.7726790.]中,作者提出了一种基于动态规划的卸载算法(DPOA)。
现有技术六的缺点:
算法对使用情景有着严苛的要求,不适合多用户、多任务场景下的卸载。
缩略语和关键术语定义
MFC:移动雾计算;
MCC:移动云计算;
DPOA:基于动态规划的卸载算法;
DDOA:基于分布式DNN的雾卸载算法;
DNN:分布式神经网络;
QC学习:深度强化学习
UE:移动用户;
F-AP:雾接收节点;
WIFI:无线网络。
发明内容
本发明针对现有技术的缺陷,提供了一种基于分布式DNN的移动雾计算损耗联合优化系统和方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种基于分布式DNN的移动雾计算损耗联合优化系统,包括:本地计算层、雾计算层和云计算层。
本地计算层处于卸载网络的最底层,由手机、穿戴设备和移动式物联网设备的这些用户设备构成,本地计算层的计算任务通过用户设备本身来计算;由于任务在本地处理,因此无需与F-AP通信即可直接获得结果。
雾计算层处于卸载网络的网络边缘层,该层与本地计算层较近;由一个F-AP和多个分布式雾服务器构成;雾计算层用于为卸载任务提供雾计算服务,以降低用户设备本身计算的时延和能耗。
云计算层处于网络的最顶层,是离用户最远的一层;由云计算服务器构成;有着强大的计算能力,用于处理大规模计算和高复杂性计算。
卸载任务通过无线网络先发送至离本地层最近的F-AP,进而通过F-AP上传至雾计算层,最后由雾计算层上传至云计算层,F-AP和雾服务器、雾服务器和云服务器之间通过有线链路相互连接。每个UE可以独立决定是否将任务卸载到雾服务器进行计算,雾服务器可以决定是否将任务再次卸载到上层的云服务器进行计算。
三层均可以为用户提供任务计算服务,但任务在每层的时延和能量损耗各不相同,任务在不同层计算各有利弊。因此要选择最佳的一层为用户提供计算服务,以达到最小化时延和能量损耗的目的,这就是本发明的出发点。
本发明还公开了一种基于移动雾计算的联合优化方法,包括以下步骤:
步骤1:将卸载任务进行人为的分级处理,分别为:本地计算模式M1、雾计算模式M2、云计算模式M3。任意的任务都可以使用以上三种模式来处理。
步骤2:利用基于分布式DNN的雾卸载算法,对每个用户的全部卸载任务预先给出预估的卸载决策组。
步骤3:根据算法给出的预估卸载决策,对于三种模式下任务的时延和能量损耗进行推导。
1)时延推导:
第n个UE中处于M1模式计算任务的总延迟为:
在雾端计算的任务m延迟为:
将任务m卸载到雾服务器的传输延迟为:
第n个UE中处于M2模式计算任务的总延迟表示为:
任务m在云端的计算延迟表示为:
将任务m卸载到云端的传输延迟为:
第n个UE中处于M3模式计算任务的总延迟表示为:
用户n的卸载总时延可以表示为:
2)能耗推导:
用户进行计算卸载的目的是为了处理复杂数据,因此在能耗分析时本文仅关心本地计算和传输数据所耗能,而选择忽略服务器的计算能耗。用户n在本地计算任务m的能耗为:
任务m在从本地端到雾端和雾端到云端的传输能耗分别为:
用户n卸载的总能耗为:
步骤4:基于对卸载时延和能耗进行权衡,我们提出了一个DEWP指标用来评估和优化卸载网络效能。
步骤5:挑选DEWP指标值最低时的卸载决策组,将组内的卸载决策作为该用户每个任务的最终卸载决策。依据卸载决策对计算任务进行分发。
公式推导中所涉及的符号说明详见表1。
表1:符号说明表
与现有技术相比,本发明的优点在于:
本发明综合考虑了计算卸载的时延与能量损耗,创新性地提出了DEWP评价指标,通过挑选当用户整体DEWP指值最小值时所对应的卸载决策组,来找到卸载任务的最优卸载决策。
与传统单一脱机卸载模式不同的是本发明采用深度学习的方式,通过对每个卸载任务特征值的提取,对深度学习卸载算法进行训练,利用经深度学习后的智能算法生成卸载决策。经训练后的分布式DNN卸载算法能够在0.7s内给出每个卸载任务的最优卸载决策,且实测结果表明卸载的平均准确率达到98%。
与现有的深度学习算法过度依赖训练集不同的是本发明采取经验中继技术对分布式DNN卸载算法进行训练,对不同训练集的差异敏感度极低。当获得了最优卸载决策后,我们将其标记为Data的新条目,并保存在一个有限内存的训练集中。这些被保存的数据将被用来训练所有的DNNs,并且最老的Data将在内存满时被清除。所有的DNN共同使用该训练集,每个DNN从中随机选取一部分数据用作训练,而不是使用全部。
与现有的神经网络纠错算法不同的是本发明采取了反向传播算法来对神经网络进行纠错和优化。通过引入交叉熵来作为损失函数,采用梯度下降法对损失函数进行最优化求极小值,进而达到对每个神经网络模型进行优化的目的。与现有的神经网络相比,经反向传播算法修正的神经网络能够更快速地达到收敛状态。
附图说明
图1是本发明实施例基于移动雾计算的联合优化系统架构图。
图2是本发明实施例移动雾计算中分级卸载模式框架图。
图3是本发明实施例分布式DNN卸载阵列模型图。
图4是本发明实施例内部神经网络的模型图。
图5是本发明实施例不同DNN数量下算法准确率和收敛情况变化的折线图。
图6是本发明实施例不同神经网络隐藏层数量下算法准确率和收敛情况变化的折线图。
图7是本发明实施例公共训练集不同大小下算法准确率和收敛情况变化的折线图。
图8是本发明实施例不同学习率下算法准确率和收敛情况变化的折线图。
图9是本发明实施例不同DNN数量和不同学习率下算法平均决策时间变化的柱状图。
图10是本发明实施例不同DNN数量和不同公共训练集大小下算法平均决策时间变化的柱状图。
图11是本发明实施例在不同卸载任务数量下算法生成决策的平均时间变化图,总时间变化图以及对平均决策耗时变化的拟合曲线图。
图12是本发明实施例与现有DPOA算法DEWP指标值的对比图。
图13是本发明实例可视化参数配置界面。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
如图1所示,MFC网络架构由一个云计算中心、多个分布式雾服务器和多用户组成,其中雾服务器和云计算中心都可以为用户的计算任务提供需要的计算资源。特别的,每个F-AP(Fog Access Point)与雾服务器、每个雾服务器与云计算中心通过有线回程链路连接。每个用户之间互无关联,但都有多个任务需要进行本地处理或进行卸载计算,并关联同一个F-AP进行传输。
如图2所示,本发明在分级卸载模型中,将MFC的计算卸载模式人为的分为了3种。(1)本地计算模式M1:低复杂度任务会在本地计算层的局部计算处理器中进行计算。(2)雾计算卸载模式M2:中等大小任务和时延敏感型任务将通过F-AP与雾服务器之间的有线链路卸载到雾计算层,雾端系统会根据实际情况对数据再次分发。(3)云计算卸载模式M3:高复杂性任务将先上传到雾端,再通过有线链路卸载到云计算层,由具有高计算力的云计算中心来进行计算。
如图3所示,本发明提出的基于分布式DNN的MFC卸载算法(DDOA),由卸载动作生成者和卸载算法修正两部分构成。卸载决策由卸载动作生成者生成,而系统通过卸载算法修正部分不断对算法进行自我改进。
对于输入的每个任务,本发明使用一个由2H个卸载动作生成者组成的二维卸载阵列,来生成H2个候选卸载决策{θh|h∈H},H={1,2,...,H2},最后选择DEWP指标最低的卸载决策作为输出。
首先卸载任务进入L1阵列,经运算后得到H个处于雾计算层的卸载决策θF。其次将生成卸载决策θF和所对应的任务导入L2阵列,经运算后输出H2个卸载决策θC,通过筛选选择整体DEWP指标最低时所对应卸载决策(θF,θC),即为最优决策θ*。
每个DNN网络均采取向前传播法来求得所需的卸载决策,对于DNN向前传播算法而言,第H层的输出为:
当卸载决策给定后就可以将问题(P1)转换成一个在已知卸载决策下的带宽分配问题(P2),如下:
对于(P2)问题,采取均匀分配的方式来分配带宽,即每个UE所分配到的带宽与其此时要卸载的任务总数据量大小成正比:
根据交叉熵定义的损失函数如下:
代入梯度下降法表达式后,新的损失函数如下:
J(W,b,θ*)=-(θ*)T·logσ(WHaH-1+bH)-(1-θ*)T·log(1-σ(WHaH-1+bH))更新后的梯度为:
根据所求得的梯度,设学习率为μ,有梯度下降法可知更新后的WH,Wb分别为:
对上述理论进行了仿真实验,以检验DDOA算法的性能。具体而言,设置UE的数量N=10,每个UE产生M=10个互无关联的计算任务,任务大小在10MB到80MB之间随机分布,ω取值为0.5。此外,预设移动设备算力为2.5Mbit/s,雾端服务器算力为7.5Mbit/s,云服务器算力为45Mbit/s[9]。网络传输带宽均为200Mbps,服务器之间传输耗能为1.42×10-7J/bit。本地计算时,本地处理耗能为3.25×10-7J/bit[11],本地端上传至雾端耗能为1×10-7J/bit。具体参数如表2所示。
表2.系统参数
仿真结果:
如图5所示,体现了DNN隐藏层数量的不同对算法命中率的影响。经实测后发现在DNN隐藏层仅为1层时无法得到正确决策,算法一直处于发散状态。当隐藏层数变为2层时算法开始收敛,但所需较长的训练步长方可收敛且命中率偏低。当层数大于4时随着层数的增加,算法达到收敛状态时所需的步长逐渐减小且收敛后的命中率有所提高。当隐藏层数大于6层时收敛后的命中率不再随层数增加而变动。
如图6所示,体现了不同隐藏层数量对算法的影响,可以发现在保证其他参数不变的前提下只改变DNN隐藏层的层数无法改变算法的收敛速率,算法达到收敛所需步骤维持在1000步左右。当层数为3或4层时,与其他层数时相比算法在收敛后的准确率更高。相比之下,当层数大于5层时由于DNN模型的过度拟合,算法陷入局部最优解情况,进而导致收敛后的算法准确率下降。
如图7所示,体现了不同大小的公共训练集对算法优化的影响,对于所测的不同大小的公共训练集而言算法均可以收敛。当训练集大小低于256时,算法需经过较长的训练后方可收敛,且存在易出现局部最优解和命中率偏低的情况。随着公共训练集大小的增加,算法达到收敛状态所需的步长逐渐减小且收敛后的命中率有所提高。当空间过大时,如2048或4096,由于老的训练数据无法及时被清除,受老的训练集影响,算法在达收敛前的准确率有所下降。
如图8所示,展示了不同的学习率μ对算法优化的影响,当学习率过大如0.1时,算法在对交叉熵进行最小化计算时可能略过最小值,导致收敛速度较慢且命中率较低。适当的降低学习率能够提高算法命中率,在一定范围内学习率越低达到收敛所需步长越少。但当学习率过低,如0.0001时,算法会发生过拟合情况进而导致识别率降低。
如图9和图10所示,不同的学习率和公共训练集大小对算法的平均决策时间影响并不大。随着DNN隐藏层数的增加,算法所需决策时间也在逐渐增加,但在不同参数下算法的决策时间均可以保持在0.7s内。
如图11所示,本发明还对用户在不同卸载任务数情景下,使用DDOA算法生成决策的耗时性能进行分析。由图11中的柱状图,可以发现随着任务数的均匀增加,卸载决策总时间也在增加。这主要是由于更多数量的任务会导致训练后的算法进行更多次的反向传播修正(如10个任务时算法将进行10次自我修正,而35个任务时修正次数将为35次),进而增添了总决策时间。特别地,我们对图11中平均卸载决策时间的变化情况进行了线性拟合,拟合曲线见图11中红色曲线,拟合后的线性函数为:f(x)=(1.7×10-3)x+(1.976×10-1)。拟合曲线表明平均决策时间几乎与任务数量呈线性增长,这表明了该发明具有一定的自稳定性,也表明DDOA算法可以处理较大规模的卸载情景。
如图12所示,本发明将所提出的DDOA算法与动态规划算法(DPOA)进行对比,绘制了在不同任务数下两种算法的DEWP值变化情况。通过将任务仅于本地计算和仅于云端计算的指标值作为参照,根据图像可以发现采用算法时的性能优于仅进行本地计算或仅云端计算。经对比发现当任务数量较少时,DDOA算法和DPOA算法的性能差异并不大。随着任务数量的增加二者之间的差异逐渐明显,且动态规划算法的DEWP值始终高于DDOA算法。由此可见本发明所提出的基于分布式DNN的移动雾计算损耗联合优化算法优于现有的动态规划算法。
如图13所示,当运行本发明程序后即会弹出可视化参数设置界面。用户可通过UI界面对发明的基本参数进行配置,如训练步长、DNN层数等,适应了不同用户情景下模拟仿真的需求。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (1)
1.一种基于分布式神经网络的移动雾计算损耗联合优化方法,其特征在于:所述移动雾计算损耗联合优化方法是在移动雾计算损耗联合优化系统的基础上运行的;
所述移动雾计算损耗联合优化系统,包括:本地计算层、雾计算层和云计算层;
本地计算层处于卸载网络的最底层,由用户设备构成,所述用户设备具体为手机、穿戴设备和移动式物联网设备,本地计算层的计算任务通过用户设备本身来计算;
雾计算层处于卸载网络的网络边缘层,该层与本地计算层较近;由一个F-AP和多个分布式雾服务器构成;雾计算层用于为计算任务提供雾计算服务,以降低用户设备本身计算的时延和能耗;
云计算层处于卸载网络的最顶层,是离用户设备最远的一层;由云计算服务器构成;有着强大的计算能力,用于处理大规模计算和高复杂性计算;
计算任务通过无线网络先发送至离本地计算层最近的F-AP,进而通过F-AP上传至雾计算层,最后由雾计算层上传至云计算层,F-AP和分布式雾服务器、分布式雾服务器和云计算服务器之间通过有线链路相互连接;每个用户设备独立决定是否将计算任务卸载到分布式雾服务器进行计算,分布式雾服务器决定是否将计算任务再次卸载到上层的云计算服务器进行计算;
所述移动雾计算损耗联合优化方法,包括以下步骤:
步骤1:将计算任务进行人为的分级处理,分别为:本地计算模式M1、雾计算模式M2、云计算模式M3;任意的计算任务都能够使用以上三种模式来处理;
步骤2:利用基于分布式神经网络的雾卸载算法,对每个用户设备的全部计算任务预先给出预估卸载决策组,具体如下:
基于分布式神经网络的雾卸载算法由卸载动作生成者和卸载算法修正两部分构成;卸载决策由卸载动作生成者生成,而移动雾计算损耗联合优化系统通过基于分布式神经网络的雾卸载算法修正部分不断对算法进行自我改进;
对于输入的每个计算任务,使用一个由2H个卸载动作生成者组成的二维卸载阵列,来生成H2个候选卸载决策{θh|h∈H},H={1,2,...,H2},最后选择DEWP指标最低的卸载决策作为输出;
首先计算任务进入L1阵列,经运算后得到H个处于雾计算层的卸载决策θF;其次将生成的卸载决策θF和所对应的计算任务导入L2阵列,经运算后输出H2个卸载决策θC,通过筛选选择整体DEWP指标最低时所对应卸载决策(θF,θC),即为最优决策θ*;
将所有用户的计算任务大小记为D;每个卸载动作生成者的内部包含一个分布式神经网络,用以生成二进制卸载决策;用参数化函数来表示生成的过程:
其中为第h个分布式神经网络的参数;对于这H个分布式神经网络他们有着相同的结构,但具有不同的参数值;
每个分布式神经网络均采取向前传播法来求得所需的卸载决策,对于分布式神经网络向前传播算法而言,第H层的输出为:
其中W为分布式神经网络网络的线性系数矩阵,b为偏倚向量,σ为激活函数,aH,aH-1分别为第H和H-1层的输出,且
当卸载决策给定后就将问题转换成一个在已知卸载决策下的带宽分配问题P2,如下:
(P2):
对于P2,采取均匀分配的方式来分配带宽,即每个用户设备所分配到的带宽与其此时要卸载的计算任务总数据量大小成正比:
在解决问题P2之后,由DEWP指标计算出每个θh的指标值,挑选出最小值时所对应的θh,即为D的最优决策θ*;
对于卸载算法的修正,采用分布式神经网络反向传播算法来优化;引入交叉熵来作为损失函数,采用梯度下降法对损失函数进行最优化求极小值,进而优化各分布式神经网络的参数值
根据交叉熵定义的损失函数如下:
代入梯度下降法表达式后,新的损失函数如下:
J(W,b,θ*)=-(θ*)T·logσ(WHaH-1+bH)-(1-θ*)T·log(1-σ(WHaH-1+bH))
更新后的梯度为:
根据所求得的梯度,设学习率为μ,由梯度下降法得出更新后的WH,Wb分别为:
步骤3:根据雾卸载算法给出的预估卸载决策组,对于三种模式下计算任务的时延和能量损耗进行推导;
1)时延推导:
第n个用户设备的第m个计算任务大小表示为第m个计算任务的本地计算延迟为:
第n个用户设备中处于M1模式计算任务的总延迟为:
在雾计算层计算的第m个计算任务延迟为:
将第m个计算任务卸载到分布式雾服务器的传输延迟为:
第n个用户设备中处于M2模式计算任务的总延迟表示为:
第m个计算任务在云计算层的计算延迟表示为:
将第m个计算任务卸载到云计算层的传输延迟为:
第n个用户设备中处于M3模式计算任务的总延迟表示为:
第n个用户设备的卸载总时延表示为:
2)能耗推导:
用户设备进行计算卸载的目的是为了处理复杂数据,因此在能耗分析时仅关心本地计算和传输数据所耗能,而选择忽略服务器的计算能耗;第n个用户设备在本地第m个计算任务的能耗为:
第m个计算任务在从本地计算层到雾计算层和雾计算层到云计算层的传输能耗分别为:
第n个用户设备卸载的总能耗为:
步骤4:基于对卸载时延和能耗进行权衡,提出了一个DEWP指标用来评估和优化卸载网络效能;
上述公式推导中所涉及的符号说明详见表1;
表1:符号说明表
步骤5:挑选DEWP指标值最低时的卸载决策组,将组内的卸载决策作为该用户设备每个计算任务的最终卸载决策;依据最终卸载决策对计算任务进行分发。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110250524.6A CN112910716B (zh) | 2021-03-08 | 2021-03-08 | 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110250524.6A CN112910716B (zh) | 2021-03-08 | 2021-03-08 | 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112910716A CN112910716A (zh) | 2021-06-04 |
CN112910716B true CN112910716B (zh) | 2023-04-18 |
Family
ID=76106986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110250524.6A Active CN112910716B (zh) | 2021-03-08 | 2021-03-08 | 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112910716B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114326827B (zh) * | 2022-01-12 | 2023-06-09 | 北方工业大学 | 一种无人机集群多任务动态分配方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110098969A (zh) * | 2019-05-21 | 2019-08-06 | 重庆邮电大学 | 一种面向物联网的雾计算任务卸载方法 |
CN110113140A (zh) * | 2019-03-08 | 2019-08-09 | 北京邮电大学 | 一种雾计算无线网络中的计算卸载方法 |
CN112416603A (zh) * | 2020-12-09 | 2021-02-26 | 北方工业大学 | 一种基于雾计算的联合优化系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10628222B2 (en) * | 2016-05-17 | 2020-04-21 | International Business Machines Corporation | Allocating compute offload resources |
-
2021
- 2021-03-08 CN CN202110250524.6A patent/CN112910716B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110113140A (zh) * | 2019-03-08 | 2019-08-09 | 北京邮电大学 | 一种雾计算无线网络中的计算卸载方法 |
CN110098969A (zh) * | 2019-05-21 | 2019-08-06 | 重庆邮电大学 | 一种面向物联网的雾计算任务卸载方法 |
CN112416603A (zh) * | 2020-12-09 | 2021-02-26 | 北方工业大学 | 一种基于雾计算的联合优化系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112910716A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113242568B (zh) | 一种不确定网络环境中的任务卸载和资源分配方法 | |
CN110347500B (zh) | 用于边缘计算环境中面向深度学习应用的任务卸载方法 | |
CN111586720B (zh) | 一种多小区场景下的任务卸载和资源分配的联合优化方法 | |
CN112380008B (zh) | 一种面向移动边缘计算应用的多用户细粒度任务卸载调度方法 | |
CN114662661B (zh) | 边缘计算下异构处理器加速多出口dnn推理的方法 | |
CN111800828A (zh) | 一种超密集网络的移动边缘计算资源分配方法 | |
CN112598150B (zh) | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 | |
CN112788605B (zh) | 基于双延迟深度确定性策略边缘计算资源调度方法和系统 | |
CN110233755B (zh) | 一种物联网中雾计算的计算资源和频谱资源分配方法 | |
CN113286329B (zh) | 基于移动边缘计算的通信和计算资源联合优化方法 | |
CN112650581A (zh) | 一种面向智能楼宇的云边协同任务调度方法 | |
CN113573363B (zh) | 基于深度强化学习的mec计算卸载与资源分配方法 | |
CN111901400A (zh) | 一种配备缓存辅助装置的边缘计算网络任务卸载方法 | |
CN114285853A (zh) | 设备密集型工业物联网中基于端边云协同的任务卸载方法 | |
CN114745383A (zh) | 一种移动边缘计算辅助多层联邦学习方法 | |
CN114650228A (zh) | 一种异构网络中基于计算卸载的联邦学习调度方法 | |
CN112910716B (zh) | 一种基于分布式dnn的移动雾计算损耗联合优化系统和方法 | |
CN114528987A (zh) | 一种神经网络边缘-云协同计算分割部署方法 | |
CN113038612B (zh) | 基于深度学习的认知无线电功率控制方法 | |
CN111930435B (zh) | 一种基于pd-bpso技术的任务卸载决策方法 | |
CN114615705B (zh) | 一种基于5g网络下单用户资源分配策略方法 | |
CN116455768A (zh) | 面向全局时延优化的云边端协同cnn推理方法及系统 | |
CN114745386B (zh) | 一种多用户边缘智能场景下的神经网络分割及卸载方法 | |
CN115413044A (zh) | 一种工业无线网络的计算和通信资源联合分配方法 | |
Zhao et al. | C-LSTM: CNN and LSTM Based Offloading Prediction Model in Mobile Edge Computing (MEC) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |