CN111432436B - 基于服务缓存和基站激活的联合优化方法 - Google Patents
基于服务缓存和基站激活的联合优化方法 Download PDFInfo
- Publication number
- CN111432436B CN111432436B CN202010216304.7A CN202010216304A CN111432436B CN 111432436 B CN111432436 B CN 111432436B CN 202010216304 A CN202010216304 A CN 202010216304A CN 111432436 B CN111432436 B CN 111432436B
- Authority
- CN
- China
- Prior art keywords
- base station
- service
- user
- task
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0268—Traffic management, e.g. flow control or congestion control using specific QoS parameters for wireless networks, e.g. QoS class identifier [QCI] or guaranteed bit rate [GBR]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/06—Testing, supervising or monitoring using simulated traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供的是一种基于服务缓存和基站激活的联合优化方法。建立基站激活、服务缓存和任务分配联合优化方法的总模型,通过基于逻辑的Benders分割思想分解为解决基站激活和任务分配的主问题和解决服务缓存的子问题两个子模型进行求解,忽略根据服务对应要求来分配任务的这一粒度,对总模型进行松弛与转化,采用贪婪算法对主问题模型就行求解,得到每个时隙基站的激活状态和任务的分配情况;根据解决主问题得到的解,在开着的基站之上通虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法。通过迭代,最终得到同时满足主问题模型和子问题模型的解,而这个解,也正是基站激活和服务缓存的两盒优化方法的总模型的最优解。
Description
技术领域
本发明涉及的是一种边缘计算方法,尤其是一种基于服务缓存和基站激活的联合优化方法。
背景技术
近年来,由于移动计算和物联网的快速发展,产生了许多对延迟敏感的计算需求,例如认知辅助、移动游戏和增强现实等。由于无法预测的网络延迟和昂贵的带宽,使得云计算无法满足这些应用程序的需求。为了克服这些问题,移动边缘计算通过将计算资源部署的更靠近用户来提供一种新的解决方案。为了满足用户对计算能力的巨大需求,一种可行的方案是在5G网络下部署大量的微基站或接入点,进而通过边缘计算卸载的方式处理用户请求的任务。
大量微基站的密集部署与微基站本身能力的限制,造成了巨大的能量消耗和无法缓存所有服务(无法处理所有种类任务)的缺陷。针对该领域,提出的基站激活和服务缓存策略可以在能量限制的前提下很好的提高用户服务质量。由于服务缓存是一个新兴的领域,以前的很多工作都是单独研究基站激活或者服务缓存问题。第一类研究针对大量微基站的密集部署而导致的能量消耗问题,考虑到用户任务请求的时空差异性,提出了一种动态切换开关进行能量成本优化,以达到在满足用户服务质量的前提下最小化蜂窝网络的能量消耗,但没有考虑到微基站服务缓存的问题(Wu J,Zhou S,Niu Z.Traffic-Aware BaseStation Sleeping Control and Power Matching for Energy-Delay Tradeoffs inGreen Cellular Networks.IEEE Transactions on Wireless Communications.2013;12(8):4196-209)。第二种研究针对微基站本身能力的限制,无法处理所有种类的任务,提出服务缓存策略,并与任务卸载进行联合优化以最大化整体系统性能,但没有考虑到基站缓存服务时会出现服务过剩的情况(Xu J,Chen L,Zhou P,editors.Joint Service Cachingand Task Offloading for Mobile Edge Computing in Dense Networks.IEEE INFOCOM2018 IEEE Conference on Computer Communications;2018 16-19April 2018.)。第三种研究表明激活策略应该与文件缓存策略相互耦合,缓存策略将流行的内容文件放在基站缓存中,内容被有效地提取到更靠近移动终端用户,同时尽可能多地关闭基站,以提高能效,但其没有考虑微基站计算能力有限这一约束(Poularakis K,Iosifidis G,Tassiulas L,editors.Joint caching and base station activation for green heterogeneouscellular networks.2015IEEE International Conference on Communications(ICC);2015 8-12June 2015.)。
综上所述,目前的研究工作主要存在以下问题:
(1)在进行基站激活时,没有考虑微基站本身能力的限制,例如无法处理所有种类任务的缺陷。
(2)在进行服务缓存研究时,没有考虑到用户任务请求的时空差异性,导致基站缓存服务时出现服务过剩的情况。
(3)在激活策略与文件缓存策略相互耦合的研究中,只考虑了微基站存储能力的限制,而没有考虑微基站计算能力的限制。
根据以上分析,目前研究工作的不足,主要是没有对基站激活、服务缓存以及衍生出的任务分配进行联合优化。
考虑到服务缓存和基站开关有内在的交互是很重要的,因为如果基站关闭,基站就无法就行相应的服务缓存,进而无法为用户提供服务。考虑到基站覆盖是否重叠这一问题,如果基站覆盖范围是相互独立的,那么可以通过基站开关的情况很容易的建模出要进行的服务缓存;但如果基站的覆盖范围是相互重叠的,由于基站开关和服务缓存的耦合性,会给联合优化带来新的挑战性。特别的,由于用户无法访问关闭的基站,进而会影响运行着的基站的服务缓存方案,从而影响基站的开关策略。
发明内容
本发明的目的在于提供一种能够对用户请求的任务进行最优的调度,在满足能量约束的前提下能最大化用户的服务质量,提高基站的能量效率的基于服务缓存和基站激活的联合优化方法。
本发明的目的是这样实现的:
步骤一:通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到总模型θ;
步骤二:根据总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出该情况下基站处理任务数
步骤四:通过Benders分割依据主问题模型得到最优解情况下处理的任务数和子问题求解结果是否相等进行迭代求解,如果不相等,则产生相应的Benders切;如果则该情况下的基站激活、服务缓存与任务分配就是总模型的最优解。
本发明还可以包括:
1.步骤一具体包括以下步骤:
(1.1)通过缓存服务k,允许其对应的k类任务可以卸载到微基站进行处理,并且在该网络中,所有微基站都根据用户需求的改变而定期更新缓存的服务,用二元变量表示在时隙τ中服务k是否被微基站i缓存,于是,微基站i的缓存决策被表示为同时,基站的缓存策略受限于下边的存储约束:
(1.2)通过表示基站i在时隙τ里的状态,当时,基站处于激活状态;当时,基站处于关闭状态,假定关闭的基站其能量消耗为0,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的;
通过公式表示用户j在时隙τ里卸载到微基站i的计算任务量:
通过公式表示用户j在时隙τ里上传到基站i的数据量:
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率,通过香农公式表示用户j到基站i之间上行链路的传输速率:
(1.7)将基站激活个数约束添加到总模型θ中:
微基站进行服务缓存的存储约束如下:
微基站进行任务处理的计算约束如下:
假定用户请求的一个任务只能卸载到一个基站的约束如下:
(1.8)默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数转化为最大化微基站平均处理的任务数:
2.步骤二具体包括:
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供一个上界,通过增加不等式约束来消减主问题模型的解空间,
3.步骤三具体包括:
(3.1)在得到基站开关和任务分配调度最优解后,将得到的最优解带入到子问题模型中,求出最优的基站缓存,表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2:
4.步骤四具体包括:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始,通过贪婪初始化算法求出主问题的一个可行解RMP;
本发明提出了一种基于服务缓存和基站激活的方法。其主要思想是通过把基站激活、服务缓存和衍生出的任务分配进行联合优化,并且以在满足基站激活个数的约束下,最大化用户的服务质量;然后建立基站激活、服务缓存和任务分配联合优化方法的总模型,并将其通过基于逻辑的Benders分割思想分解为解决基站激活和任务分配的主问题和解决服务缓存的子问题两个子模型进行求解,首先忽略根据服务对应要求来分配任务的这一粒度,对总模型进行松弛与转化,并采用贪婪算法对主问题模型就行求解,得到每个时隙基站的激活状态和任务的分配情况;然后根据解决主问题得到的解,在开着的基站之上通过考虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法。然后通过Benders分割的思想,通过迭代,最终得到同时满足主问题模型和子问题模型的解,而这个解,也正是基站激活和服务缓存的两盒优化方法的总模型的最优解。
本发明研究了基站激活和服务缓存问题。当用户因为基站激活且缓存了其请求的服务而进行任务卸载时,会提高用户的服务质量;反之,若因为基站关闭或基站没有缓存用户请求的服务,则会消减用户的服务质量。与此同时,若因基站激活和服务缓存策略不合理,还会额外增加基站的能耗。本发明考虑了以下几个方面的问题:(1)如何对基站进行激活在满足用户服务需求的前提下减少能耗。(2)如何进行服务缓存以提高用户服务质量。(3)如何联合优化基站激活和服务缓存这一高度耦合的情况,以最大化基站的能量效率。
本发明求能够对用户请求的任务进行最优的调度,从而在满足能量约束的前提下,最大化用户的服务质量,以提高基站的能量效率。
本发明的有益效果是:
(1)本发明提出的方法考虑到了用户请求任务种类的不同和用户任务请求的时空差异性,解决了在大量微基站密集部署与微基站本身能力限制条件下造成的额外能量消耗和无法处理所有种类任务的缺陷,显著提高了基站的能量效率。
(2)本发明针对服务缓存和基站激活的联合优化,把该问题定义为混合整数规划问题,并在基于逻辑的Benders分解的基础上提出一个新的分解方法,降低了初始问题的复杂度,提高了求解的效率,缩短了基站激活和服务缓存的优化时间。
附图说明
图1基于服务缓存和基站激活的联合优化方法示例图。
图2基于服务缓存和基站激活的联合优化方法解决方法流程图。
图3基于服务缓存和基站激活的联合优化方法网络二分图。
图4为基于服务缓存和基站激活的联合优化方法参数表。
具体实施方式
下面举例对本发明作进一步描述。
本发明的基于服务缓存和基站激活的联合优化方法,主要包括以下具体步骤:
(1)通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,进而通过考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到基站激活和服务缓存联合优化方法的总模型θ。
(2)根据上一步基站激活和服务缓存联合优化方法的总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解。在不考虑任务请求分类的情况下,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出该情况下基站处理任务数
(4)通过Benders分割依据主问题模型得到最优解情况下处理的任务数和子问题求解结果是否相等的思想进行迭代求解。如果不相等,则产生相应的Benders切;如果则该情况下的基站激活、服务缓存与任务分配就是总模型的最优解。
前述的步骤(1)中基于联合服务缓存和用户调度进行建模方法具体还包括以下步骤:
(1.1)通过缓存服务k,从而允许其对应的k类任务可以卸载到微基站进行处理,并且在该网络中,所有微基站都会根据用户需求的改变而定期更新缓存的服务。用二元变量表示在时隙τ中服务k是否被微基站i缓存。于是,微基站i的缓存决策被表示为同时,基站的缓存策略受限于下边的存储约束:
(1.2)通过表示基站i在时隙τ里的状态,当时,基站处于激活状态;当时,基站处于关闭状态。假定关闭的基站其能量消耗为0。为了方便表示,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的。
通过公式表示用户j在时隙τ里卸载到微基站i的计算任务量:
通过公式表示用户j在时隙τ里上传到基站i的数据量:
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率。通过香农公式可以表示出用户j到基站i之间上行链路的传输速率:
(1.5)计算处理延迟:如果微基站i缓存了服务k,就能处理相应的服务请求,但会产生计算延迟;除此之外,计算任务还可以卸载到宏基站,这也会产生高延迟,从而影响用户的服务质量。
(1.7)将基站激活个数约束添加到总模型θ中:
微基站进行服务缓存的存储约束如下:
微基站进行任务处理的计算约束如下:
假定用户请求的一个任务只能卸载到一个基站的约束如下:
(1.8)为了简单起见,我们默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数就可转化为最大化微基站平均处理的任务数:
前述的步骤(2)中处理基站激活和任务调度的主问题模型θ1具体还包括以下步骤:
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供了一个上界。分析表明,其在处理大用例的时候效率没有足够的高,故通过增加不等式约束来消减主问题模型的解空间。
前述的步骤(3)中处理服务缓存的子问题模型的划分具体还包括以下步骤:
(3.1)在得到基站开关和任务分配调度最优解后,将得到的最优解带入到子问题模型中,来求出最优的基站缓存。通过表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2:
前述的步骤(4)中通过Benders分割求解具体还包括以下步骤:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始的,我们通过贪婪初始化算法求出主问题的一个可行解RMP。
(4.4)对于通过贪婪算法求出主问题的每种可行解,如果则一个Benders cut(Benders分割中一种特定的约束条件)就会产生并会被添加到主问题中去调整基站的开关状态以及任务的分配情况,即跳转至步骤(4.2)。从而适应任务在有服务缓存约束条件下的分配情况。
本发明提出一种基于服务缓存和基站激活的联合优化方法,该发明将基站激活和服务缓存相结合,即能保证用户的服务质量又能减少能量消耗,最大化基站能量效率。下面结合附图进行详细说明。
如图1,用户请求的任务只能卸载到处于激活状态并且缓存有对应服务的基站进行处理。
如图2,Benders分割是通过解决主问题开始的,然后通过比较主问题和子问题的解,来决定迭代求解过程。
如图3,在该实施实例中,共有十种服务,每个微基站都可以缓存其中六种服务,且微基站的覆盖范围内都有三个用户,并且微基站之间的覆盖范围重叠。假设在τ={1,2,3...,10}时隙中,每个用户请求的任务需要的计算量是需要的上传数据量
基于服务缓存和基站激活的联合优化方法主要包括以下步骤:
(4)计算传输延迟Tj,i,i={1,2,3,4},j={1,2,...,6}。
(10)基于逻辑的Benders分割通过解决主问题模型开始的,我们通过贪婪初始化算法求出主问题的一个可行解RMP。
Claims (3)
1.一种基于服务缓存和基站激活的联合优化方法,其特征是包括如下步骤:
步骤一:通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到总模型θ;
(1.1)通过缓存服务k,允许其对应的k类任务可以卸载到微基站进行处理,所有微基站都根据用户需求的改变而定期更新缓存的服务,用二元变量表示在时隙τ中服务k是否被微基站i缓存,于是,微基站i的缓存决策被表示为同时,基站的缓存策略受限于下边的存储约束:
(1.2)通过表示基站i在时隙τ里的状态,当时,基站处于激活状态;当时,基站处于关闭状态,假定关闭的基站其能量消耗为0,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的;
通过公式表示用户j在时隙τ里上传到基站i的数据量:
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率,通过香农公式表示用户j到基站i之间上行链路的传输速率:
(1.7)将基站激活个数约束添加到总模型θ中:
微基站进行服务缓存的存储约束如下:
微基站进行任务处理的计算约束如下:
其中:zi基站同一时隙最大处理任务数;
假定用户请求的一个任务只能卸载到一个基站的约束如下:
(1.8)默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数转化为最大化微基站平均处理的任务数:
步骤二:根据总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出基站处理任务数
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供一个上界,通过增加不等式约束来消减主问题模型的解空间,
对于每个基站,在其打开服务的时候,必须保证其收益为正,即 表示用户j在时隙τ里执行任务带来的收益;然后根据先验知识,确保开着的基站必须能缓存所有种类的服务,故其中K为总的服务类型数,l为每个基站能缓存的服务类型数;
3.根据权利要求1所述的基于服务缓存和基站激活的联合优化方法,其特征是步骤四具体包括:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始,通过贪婪初始化算法求出主问题的一个可行解RMP;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010216304.7A CN111432436B (zh) | 2020-03-25 | 2020-03-25 | 基于服务缓存和基站激活的联合优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010216304.7A CN111432436B (zh) | 2020-03-25 | 2020-03-25 | 基于服务缓存和基站激活的联合优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111432436A CN111432436A (zh) | 2020-07-17 |
CN111432436B true CN111432436B (zh) | 2022-08-02 |
Family
ID=71549425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010216304.7A Active CN111432436B (zh) | 2020-03-25 | 2020-03-25 | 基于服务缓存和基站激活的联合优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111432436B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014029892A1 (en) * | 2012-08-24 | 2014-02-27 | Actix Gmbh | Method for joint and coordinated load balancing and coverage and capacity optimization in cellular communication networks |
CN108882269A (zh) * | 2018-05-21 | 2018-11-23 | 东南大学 | 结合缓存技术的超密集网络小站开关方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101618483B1 (ko) * | 2011-10-21 | 2016-05-04 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 서버로부터 클라이언트로 미디어 콘텐츠를 전달하기 위한 라디오 리소스 관리 개념 |
-
2020
- 2020-03-25 CN CN202010216304.7A patent/CN111432436B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014029892A1 (en) * | 2012-08-24 | 2014-02-27 | Actix Gmbh | Method for joint and coordinated load balancing and coverage and capacity optimization in cellular communication networks |
CN108882269A (zh) * | 2018-05-21 | 2018-11-23 | 东南大学 | 结合缓存技术的超密集网络小站开关方法 |
Non-Patent Citations (2)
Title |
---|
Optimal Content Caching Policy Considering Mode Selection and User Preference under Overlay D2D;Yue Wang;《2018 14th International Conference on Mobile Ad-Hoc and Sensor Networks (MSN)》;20190418;全文 * |
面向用户体验及服务质量的移动云计算网络动态资源管理方法研究;张倩;《中国优秀硕士学位论文全文数据库》;20170315;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111432436A (zh) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022121097A1 (zh) | 一种移动用户计算任务的卸载方法 | |
Zhao et al. | Edge caching and computation management for real-time internet of vehicles: An online and distributed approach | |
CN111836283B (zh) | 一种基于mec多服务器的车联网资源分配方法 | |
CN107995660B (zh) | 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法 | |
CN107919986B (zh) | 超密集网络中mec节点间vm迁移优化方法 | |
CN111930436B (zh) | 一种基于边缘计算的随机型任务排队卸载优化方法 | |
Masoudi et al. | Device vs edge computing for mobile services: Delay-aware decision making to minimize power consumption | |
CN111475274B (zh) | 云协同多任务调度方法及装置 | |
CN110996393A (zh) | 一种单边缘计算服务器与多用户协同的计算卸载与资源分配方法 | |
Zhang et al. | Joint task offloading and data caching in mobile edge computing networks | |
WO2019200716A1 (zh) | 面向雾计算的节点计算任务调度方法及其设备 | |
CN108809695A (zh) | 一种面向移动边缘计算的分布上行链路卸载策略 | |
Li et al. | Capacity-aware edge caching in fog computing networks | |
CN110719641B (zh) | 边缘计算中用户卸载与资源分配联合优化方法 | |
CN112491957B (zh) | 一种边缘网络环境下的分布式计算卸载方法及系统 | |
CN109756912A (zh) | 一种多用户多基站联合任务卸载及资源分配方法 | |
CN109194763A (zh) | 一种超密集网络中基于小型基站自组织协作的缓存方法 | |
CN111885147A (zh) | 边缘计算中的一种资源动态定价方法 | |
CN112689296B (zh) | 一种异构IoT网络中的边缘计算与缓存方法及系统 | |
CN108093435A (zh) | 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法 | |
CN112512065B (zh) | 支持mec的小小区网络中在移动感知下的卸载和迁移方法 | |
Li et al. | Distributed task offloading strategy to low load base stations in mobile edge computing environment | |
Zhang et al. | Delay minimized task scheduling in fog-enabled IoT networks | |
CN115396953A (zh) | 移动边缘计算中一种基于改进粒子群算法的计算卸载方法 | |
El Haber et al. | Computational cost and energy efficient task offloading in hierarchical edge-clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |