CN111432436B - 基于服务缓存和基站激活的联合优化方法 - Google Patents

基于服务缓存和基站激活的联合优化方法 Download PDF

Info

Publication number
CN111432436B
CN111432436B CN202010216304.7A CN202010216304A CN111432436B CN 111432436 B CN111432436 B CN 111432436B CN 202010216304 A CN202010216304 A CN 202010216304A CN 111432436 B CN111432436 B CN 111432436B
Authority
CN
China
Prior art keywords
base station
service
user
task
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010216304.7A
Other languages
English (en)
Other versions
CN111432436A (zh
Inventor
李亚飞
冯光升
吕宏武
李冰洋
王慧强
张悦
郭方方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202010216304.7A priority Critical patent/CN111432436B/zh
Publication of CN111432436A publication Critical patent/CN111432436A/zh
Application granted granted Critical
Publication of CN111432436B publication Critical patent/CN111432436B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/0268Traffic management, e.g. flow control or congestion control using specific QoS parameters for wireless networks, e.g. QoS class identifier [QCI] or guaranteed bit rate [GBR]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/06Testing, supervising or monitoring using simulated traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供的是一种基于服务缓存和基站激活的联合优化方法。建立基站激活、服务缓存和任务分配联合优化方法的总模型,通过基于逻辑的Benders分割思想分解为解决基站激活和任务分配的主问题和解决服务缓存的子问题两个子模型进行求解,忽略根据服务对应要求来分配任务的这一粒度,对总模型进行松弛与转化,采用贪婪算法对主问题模型就行求解,得到每个时隙基站的激活状态和任务的分配情况;根据解决主问题得到的解,在开着的基站之上通虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法。通过迭代,最终得到同时满足主问题模型和子问题模型的解,而这个解,也正是基站激活和服务缓存的两盒优化方法的总模型的最优解。

Description

基于服务缓存和基站激活的联合优化方法
技术领域
本发明涉及的是一种边缘计算方法,尤其是一种基于服务缓存和基站激活的联合优化方法。
背景技术
近年来,由于移动计算和物联网的快速发展,产生了许多对延迟敏感的计算需求,例如认知辅助、移动游戏和增强现实等。由于无法预测的网络延迟和昂贵的带宽,使得云计算无法满足这些应用程序的需求。为了克服这些问题,移动边缘计算通过将计算资源部署的更靠近用户来提供一种新的解决方案。为了满足用户对计算能力的巨大需求,一种可行的方案是在5G网络下部署大量的微基站或接入点,进而通过边缘计算卸载的方式处理用户请求的任务。
大量微基站的密集部署与微基站本身能力的限制,造成了巨大的能量消耗和无法缓存所有服务(无法处理所有种类任务)的缺陷。针对该领域,提出的基站激活和服务缓存策略可以在能量限制的前提下很好的提高用户服务质量。由于服务缓存是一个新兴的领域,以前的很多工作都是单独研究基站激活或者服务缓存问题。第一类研究针对大量微基站的密集部署而导致的能量消耗问题,考虑到用户任务请求的时空差异性,提出了一种动态切换开关进行能量成本优化,以达到在满足用户服务质量的前提下最小化蜂窝网络的能量消耗,但没有考虑到微基站服务缓存的问题(Wu J,Zhou S,Niu Z.Traffic-Aware BaseStation Sleeping Control and Power Matching for Energy-Delay Tradeoffs inGreen Cellular Networks.IEEE Transactions on Wireless Communications.2013;12(8):4196-209)。第二种研究针对微基站本身能力的限制,无法处理所有种类的任务,提出服务缓存策略,并与任务卸载进行联合优化以最大化整体系统性能,但没有考虑到基站缓存服务时会出现服务过剩的情况(Xu J,Chen L,Zhou P,editors.Joint Service Cachingand Task Offloading for Mobile Edge Computing in Dense Networks.IEEE INFOCOM2018 IEEE Conference on Computer Communications;2018 16-19April 2018.)。第三种研究表明激活策略应该与文件缓存策略相互耦合,缓存策略将流行的内容文件放在基站缓存中,内容被有效地提取到更靠近移动终端用户,同时尽可能多地关闭基站,以提高能效,但其没有考虑微基站计算能力有限这一约束(Poularakis K,Iosifidis G,Tassiulas L,editors.Joint caching and base station activation for green heterogeneouscellular networks.2015IEEE International Conference on Communications(ICC);2015 8-12June 2015.)。
综上所述,目前的研究工作主要存在以下问题:
(1)在进行基站激活时,没有考虑微基站本身能力的限制,例如无法处理所有种类任务的缺陷。
(2)在进行服务缓存研究时,没有考虑到用户任务请求的时空差异性,导致基站缓存服务时出现服务过剩的情况。
(3)在激活策略与文件缓存策略相互耦合的研究中,只考虑了微基站存储能力的限制,而没有考虑微基站计算能力的限制。
根据以上分析,目前研究工作的不足,主要是没有对基站激活、服务缓存以及衍生出的任务分配进行联合优化。
考虑到服务缓存和基站开关有内在的交互是很重要的,因为如果基站关闭,基站就无法就行相应的服务缓存,进而无法为用户提供服务。考虑到基站覆盖是否重叠这一问题,如果基站覆盖范围是相互独立的,那么可以通过基站开关的情况很容易的建模出要进行的服务缓存;但如果基站的覆盖范围是相互重叠的,由于基站开关和服务缓存的耦合性,会给联合优化带来新的挑战性。特别的,由于用户无法访问关闭的基站,进而会影响运行着的基站的服务缓存方案,从而影响基站的开关策略。
发明内容
本发明的目的在于提供一种能够对用户请求的任务进行最优的调度,在满足能量约束的前提下能最大化用户的服务质量,提高基站的能量效率的基于服务缓存和基站激活的联合优化方法。
本发明的目的是这样实现的:
步骤一:通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到总模型θ;
步骤二:根据总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出该情况下基站处理任务数
Figure BDA0002424560840000021
步骤三:借用解决主问题得到的基站激活和任务分配情况,在开着的基站之上通过考虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法,进而求出该情况下基站处理任务数
Figure BDA0002424560840000022
步骤四:通过Benders分割依据主问题模型得到最优解情况下处理的任务数
Figure BDA0002424560840000023
和子问题求解结果
Figure BDA0002424560840000031
是否相等进行迭代求解,如果不相等,则产生相应的Benders切;如果
Figure BDA0002424560840000032
则该情况下的基站激活、服务缓存与任务分配就是总模型的最优解。
本发明还可以包括:
1.步骤一具体包括以下步骤:
(1.1)通过缓存服务k,允许其对应的k类任务可以卸载到微基站进行处理,并且在该网络中,所有微基站都根据用户需求的改变而定期更新缓存的服务,用二元变量
Figure BDA0002424560840000033
表示在时隙τ中服务k是否被微基站i缓存,于是,微基站i的缓存决策被表示为
Figure BDA0002424560840000034
同时,基站的缓存策略受限于下边的存储约束:
Figure BDA0002424560840000035
通过
Figure BDA0002424560840000036
表示在时隙τ里缓存有用户j请求的服务k并能为提供用户请求服务的基站集合,如果在用户j的通信范围之内,没有微基站能提供服务,则用户的请求被宏基站处理;
(1.2)通过
Figure BDA0002424560840000037
表示基站i在时隙τ里的状态,当
Figure BDA0002424560840000038
时,基站处于激活状态;当
Figure BDA0002424560840000039
时,基站处于关闭状态,假定关闭的基站其能量消耗为0,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的;
(1.3)通过
Figure BDA00024245608400000310
表示用户在时隙τ请求的任务k是否被基站
Figure BDA00024245608400000311
服务,如果
Figure BDA00024245608400000312
表示用户请求的服务被基站i服务,反之则不能被基站i服务,并且每个用户每个时隙只产生一个任务请求,只能被一个基站处理,
通过公式表示用户j在时隙τ里卸载到微基站i的计算任务量:
Figure BDA00024245608400000313
通过公式表示用户j在时隙τ里上传到基站i的数据量:
Figure BDA00024245608400000314
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率,通过香农公式表示用户j到基站i之间上行链路的传输速率:
Figure BDA0002424560840000041
Figure BDA0002424560840000042
表示在时隙τ用户j上传到基站i总的数据量,则用户j在时隙τ产生的总能耗表示为:
Figure BDA0002424560840000043
(1.5)计算处理延迟:用户j在把请求卸载到微基站i的过程中,产生传输延迟:
Figure BDA0002424560840000044
发送到微基站上之后,产生相应的计算延迟:
Figure BDA0002424560840000045
(1.6)通过考虑在有限基站激活个数的约束下,联合基站缓存和用户调度,将最大化用户的服务质量作为目标,得到基站激活和服务缓存联合优化方法的总模型θ,即
Figure BDA0002424560840000046
求解
Figure BDA0002424560840000047
并得到用户最优的服务质量;
(1.7)将基站激活个数约束添加到总模型θ中:
Figure BDA0002424560840000048
微基站进行服务缓存的存储约束如下:
Figure BDA0002424560840000049
微基站进行任务处理的计算约束如下:
Figure BDA00024245608400000410
假定用户请求的一个任务只能卸载到一个基站的约束如下:
Figure BDA00024245608400000411
(1.8)默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数转化为最大化微基站平均处理的任务数:
Figure BDA0002424560840000051
2.步骤二具体包括:
(2.1)在主问题中,
Figure BDA0002424560840000052
表示基站i在时隙τ时的激活状态,
Figure BDA0002424560840000053
表示用户j卸载到基站i的任务,总模型θ转化为主问题模型θ1
Figure BDA0002424560840000054
(2.2)
Figure BDA0002424560840000055
表示用户的一个任务请求最多只能卸载到一个基站,
Figure BDA0002424560840000056
表示基站计算能力的约束,即基站处理任务分配的计算能力不能超过基站最大的计算能力;
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供一个上界,通过增加不等式约束来消减主问题模型的解空间,
对于每个基站,在其打开服务的时候,必须保证其收益为正,即
Figure BDA0002424560840000057
然后根据先验知识,确保开着的基站必须能缓存所有种类的服务,故
Figure BDA0002424560840000058
其中K为总的服务类型数,l为每个基站能缓存的服务类型数。
3.步骤三具体包括:
(3.1)在得到基站开关和任务分配调度最优解后,将得到的最优解带入到子问题模型中,求出最优的基站缓存,
Figure BDA0002424560840000059
表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2
Figure BDA00024245608400000510
(3.2)其中该子问题受一些约束:通过
Figure BDA00024245608400000511
表示基站i的计算约束,
Figure BDA00024245608400000512
表示基站缓存服务的存储空间约束,上述子问题模型为总模型最优解提供了一个下界。
4.步骤四具体包括:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始,通过贪婪初始化算法求出主问题的一个可行解RMP
(4.2)在可行解的基础之上,得出在该情况下任务分配的情况βij,从而得到处理的任务数
Figure BDA0002424560840000061
(4.3)子问题模型通过来自求解主问题得到的基站开关和用户调度情况,进行服务缓存,得到该情况下新的任务分配情况βijk,进而得到子问题模型的任务处理数
Figure BDA0002424560840000062
(4.4)对于通过贪婪算法求出主问题的每种可行解,如果
Figure BDA0002424560840000063
则一个Benders cut就会产生并会被添加到主问题中去调整基站的开关状态以及任务的分配情况,即跳转至步骤(4.2);
(4.5)此过程将被循环执行直到
Figure BDA0002424560840000064
此时求得原问题的最优解。
本发明提出了一种基于服务缓存和基站激活的方法。其主要思想是通过把基站激活、服务缓存和衍生出的任务分配进行联合优化,并且以在满足基站激活个数的约束下,最大化用户的服务质量;然后建立基站激活、服务缓存和任务分配联合优化方法的总模型,并将其通过基于逻辑的Benders分割思想分解为解决基站激活和任务分配的主问题和解决服务缓存的子问题两个子模型进行求解,首先忽略根据服务对应要求来分配任务的这一粒度,对总模型进行松弛与转化,并采用贪婪算法对主问题模型就行求解,得到每个时隙基站的激活状态和任务的分配情况;然后根据解决主问题得到的解,在开着的基站之上通过考虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法。然后通过Benders分割的思想,通过迭代,最终得到同时满足主问题模型和子问题模型的解,而这个解,也正是基站激活和服务缓存的两盒优化方法的总模型的最优解。
本发明研究了基站激活和服务缓存问题。当用户因为基站激活且缓存了其请求的服务而进行任务卸载时,会提高用户的服务质量;反之,若因为基站关闭或基站没有缓存用户请求的服务,则会消减用户的服务质量。与此同时,若因基站激活和服务缓存策略不合理,还会额外增加基站的能耗。本发明考虑了以下几个方面的问题:(1)如何对基站进行激活在满足用户服务需求的前提下减少能耗。(2)如何进行服务缓存以提高用户服务质量。(3)如何联合优化基站激活和服务缓存这一高度耦合的情况,以最大化基站的能量效率。
本发明求能够对用户请求的任务进行最优的调度,从而在满足能量约束的前提下,最大化用户的服务质量,以提高基站的能量效率。
本发明的有益效果是:
(1)本发明提出的方法考虑到了用户请求任务种类的不同和用户任务请求的时空差异性,解决了在大量微基站密集部署与微基站本身能力限制条件下造成的额外能量消耗和无法处理所有种类任务的缺陷,显著提高了基站的能量效率。
(2)本发明针对服务缓存和基站激活的联合优化,把该问题定义为混合整数规划问题,并在基于逻辑的Benders分解的基础上提出一个新的分解方法,降低了初始问题的复杂度,提高了求解的效率,缩短了基站激活和服务缓存的优化时间。
附图说明
图1基于服务缓存和基站激活的联合优化方法示例图。
图2基于服务缓存和基站激活的联合优化方法解决方法流程图。
图3基于服务缓存和基站激活的联合优化方法网络二分图。
图4为基于服务缓存和基站激活的联合优化方法参数表。
具体实施方式
下面举例对本发明作进一步描述。
本发明的基于服务缓存和基站激活的联合优化方法,主要包括以下具体步骤:
(1)通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,进而通过考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到基站激活和服务缓存联合优化方法的总模型θ。
(2)根据上一步基站激活和服务缓存联合优化方法的总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解。在不考虑任务请求分类的情况下,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出该情况下基站处理任务数
Figure BDA0002424560840000071
(3)借用解决主问题得到的基站激活和任务分配情况,在开着的基站之上通过考虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法,进而求出该情况下基站处理任务数
Figure BDA0002424560840000072
(4)通过Benders分割依据主问题模型得到最优解情况下处理的任务数
Figure BDA0002424560840000073
和子问题求解结果
Figure BDA0002424560840000074
是否相等的思想进行迭代求解。如果不相等,则产生相应的Benders切;如果
Figure BDA0002424560840000075
则该情况下的基站激活、服务缓存与任务分配就是总模型的最优解。
前述的步骤(1)中基于联合服务缓存和用户调度进行建模方法具体还包括以下步骤:
(1.1)通过缓存服务k,从而允许其对应的k类任务可以卸载到微基站进行处理,并且在该网络中,所有微基站都会根据用户需求的改变而定期更新缓存的服务。用二元变量
Figure BDA0002424560840000081
表示在时隙τ中服务k是否被微基站i缓存。于是,微基站i的缓存决策被表示为
Figure BDA0002424560840000082
同时,基站的缓存策略受限于下边的存储约束:
Figure BDA0002424560840000083
通过
Figure BDA0002424560840000084
表示在时隙τ里缓存有用户j请求的服务k并能为提供用户请求服务的基站集合。如果在用户j的通信范围之内,没有微基站能提供服务,则用户的请求将被宏基站处理。
(1.2)通过
Figure BDA0002424560840000085
表示基站i在时隙τ里的状态,当
Figure BDA0002424560840000086
时,基站处于激活状态;当
Figure BDA0002424560840000087
时,基站处于关闭状态。假定关闭的基站其能量消耗为0。为了方便表示,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的。
(1.3)通过
Figure BDA0002424560840000088
表示用户在时隙τ请求的任务k是否被基站
Figure BDA0002424560840000089
服务。如果
Figure BDA00024245608400000810
表示用户请求的服务被基站i服务,反之则不能被基站i服务。并且每个用户每个时隙只产生一个任务请求,只能被一个基站处理。
通过公式表示用户j在时隙τ里卸载到微基站i的计算任务量:
Figure BDA00024245608400000811
通过公式表示用户j在时隙τ里上传到基站i的数据量:
Figure BDA00024245608400000812
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率。通过香农公式可以表示出用户j到基站i之间上行链路的传输速率:
Figure BDA00024245608400000813
Figure BDA0002424560840000091
表示在时隙τ用户j上传到基站i总的数据量,则用户j在时隙τ产生的总能耗表示为:
Figure BDA0002424560840000092
(1.5)计算处理延迟:如果微基站i缓存了服务k,就能处理相应的服务请求,但会产生计算延迟;除此之外,计算任务还可以卸载到宏基站,这也会产生高延迟,从而影响用户的服务质量。
用户j在把请求卸载到微基站i的过程中,会产生传输延迟:
Figure BDA0002424560840000093
发送到微基站上之后,会产生相应的计算延迟:
Figure BDA0002424560840000094
(1.6)通过考虑在有限基站激活个数的约束下,联合基站缓存和用户调度,将最大化用户的服务质量作为目标,得到基站激活和服务缓存联合优化方法的总模型θ,即
Figure BDA0002424560840000095
求解
Figure BDA0002424560840000096
并得到用户最优的服务质量。
(1.7)将基站激活个数约束添加到总模型θ中:
Figure BDA0002424560840000097
微基站进行服务缓存的存储约束如下:
Figure BDA0002424560840000098
微基站进行任务处理的计算约束如下:
Figure BDA0002424560840000099
假定用户请求的一个任务只能卸载到一个基站的约束如下:
Figure BDA00024245608400000910
(1.8)为了简单起见,我们默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数就可转化为最大化微基站平均处理的任务数:
Figure BDA00024245608400000911
前述的步骤(2)中处理基站激活和任务调度的主问题模型θ1具体还包括以下步骤:
(2.1)在主问题中,通过定义
Figure BDA00024245608400000912
来表示基站i在时隙τ时的激活状态,通过
Figure BDA0002424560840000101
表示用户j卸载到基站i的任务,将总模型θ转化为主问题模型θ1
Figure BDA0002424560840000102
(2.2)通过
Figure BDA0002424560840000103
表示用户的一个任务请求最多只能卸载到一个基站。通过
Figure BDA0002424560840000104
表示基站计算能力的约束,即基站处理任务分配的计算能力不能超过基站最大的计算能力。
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供了一个上界。分析表明,其在处理大用例的时候效率没有足够的高,故通过增加不等式约束来消减主问题模型的解空间。
对于每个基站,在其打开服务的时候,必须保证其收益为正,即
Figure BDA0002424560840000105
然后根据先验知识,确保开着的基站必须能缓存所有种类的服务,故
Figure BDA0002424560840000106
其中K为总的服务类型数,l为每个基站能缓存的服务类型数。
前述的步骤(3)中处理服务缓存的子问题模型的划分具体还包括以下步骤:
(3.1)在得到基站开关和任务分配调度最优解后,将得到的最优解带入到子问题模型中,来求出最优的基站缓存。通过
Figure BDA0002424560840000107
表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2
Figure BDA0002424560840000108
(3.2)其中该子问题受一些约束:我们通过
Figure BDA0002424560840000109
表示基站i的计算约束。通过
Figure BDA00024245608400001010
表示基站缓存服务的存储空间约束。上述子问题模型为总模型最优解提供了一个下界。
前述的步骤(4)中通过Benders分割求解具体还包括以下步骤:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始的,我们通过贪婪初始化算法求出主问题的一个可行解RMP
(4.2)然后在可行解的基础之上,得出在该情况下任务分配的情况βij,从而得到处理的任务数
Figure BDA00024245608400001011
(4.3)子问题模型通过来自求解主问题得到的基站开关和用户调度情况,进行服务缓存,从而得到该情况下新的任务分配情况βijk,进而得到子问题模型的任务处理数
Figure BDA0002424560840000111
(4.4)对于通过贪婪算法求出主问题的每种可行解,如果
Figure BDA0002424560840000112
则一个Benders cut(Benders分割中一种特定的约束条件)就会产生并会被添加到主问题中去调整基站的开关状态以及任务的分配情况,即跳转至步骤(4.2)。从而适应任务在有服务缓存约束条件下的分配情况。
(4.5)此过程将被循环执行直到
Figure BDA0002424560840000113
此时求得原问题的最优解。
本发明提出一种基于服务缓存和基站激活的联合优化方法,该发明将基站激活和服务缓存相结合,即能保证用户的服务质量又能减少能量消耗,最大化基站能量效率。下面结合附图进行详细说明。
如图1,用户请求的任务只能卸载到处于激活状态并且缓存有对应服务的基站进行处理。
如图2,Benders分割是通过解决主问题开始的,然后通过比较主问题和子问题的解,来决定迭代求解过程。
如图3,在该实施实例中,共有十种服务,每个微基站都可以缓存其中六种服务,且微基站的覆盖范围内都有三个用户,并且微基站之间的覆盖范围重叠。假设在τ={1,2,3...,10}时隙中,每个用户请求的任务需要的计算量是
Figure BDA0002424560840000114
需要的上传数据量
Figure BDA0002424560840000115
Figure BDA0002424560840000116
基于服务缓存和基站激活的联合优化方法主要包括以下步骤:
(1)计算用户j在时隙τ里卸载到微基站i的计算任务量
Figure BDA0002424560840000117
Figure BDA0002424560840000118
(2)计算用户j在时隙τ里上传到基站i的数据量
Figure BDA0002424560840000119
(3)计算用户j传输能耗
Figure BDA00024245608400001110
(4)计算传输延迟Tj,i,i={1,2,3,4},j={1,2,...,6}。
(5)得到基站激活和服务缓存联合优化方法的总模型θ,设置基站激活个数约束:
Figure BDA00024245608400001111
设置服务缓存存储约束:
Figure BDA00024245608400001112
设置基站处理任务计算约束:
Figure BDA0002424560840000121
(6)通过定义
Figure BDA0002424560840000122
来表示基站i在时隙τ时的激活状态,通过
Figure BDA0002424560840000123
表示用户j卸载到基站i的任务,将总模型θ转化为主问题模型θ1
(7)设置用户任务分配约束:
Figure BDA0002424560840000124
设置基站正收益约束:
Figure BDA0002424560840000125
设置基站激活数限制:
Figure BDA0002424560840000126
(8)通过
Figure BDA0002424560840000127
表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2
(9)设置基站i的计算约束:
Figure BDA0002424560840000128
设置基站i缓存服务的存储空间约束
Figure BDA0002424560840000129
(10)基于逻辑的Benders分割通过解决主问题模型开始的,我们通过贪婪初始化算法求出主问题的一个可行解RMP
(11)然后在可行解的基础之上,得出在该情况下任务分配的情况βij,从而得到处理的任务数
Figure BDA00024245608400001210
(12)子问题模型通过来自求解主问题得到的基站开关和用户调度情况,进行服务缓存,从而得到该情况下新的任务分配情况βijk,进而得到子问题模型的任务处理数
Figure BDA00024245608400001211
(13)如果
Figure BDA00024245608400001212
则一个Benders cut就会产生并会被添加到主问题中去调整基站的开关状态以及任务的分配情况,直到
Figure BDA00024245608400001213
此时求得原问题的最优解。

Claims (3)

1.一种基于服务缓存和基站激活的联合优化方法,其特征是包括如下步骤:
步骤一:通过用户执行任务时的延迟和消耗的能量来表示用户服务质量,考虑在一定基站激活个数的约束下,联合服务缓存和用户调度,最大化用户的服务质量并得到总模型θ;
(1.1)通过缓存服务k,允许其对应的k类任务可以卸载到微基站进行处理,所有微基站都根据用户需求的改变而定期更新缓存的服务,用二元变量
Figure FDA0003677560220000011
表示在时隙τ中服务k是否被微基站i缓存,于是,微基站i的缓存决策被表示为
Figure FDA0003677560220000012
同时,基站的缓存策略受限于下边的存储约束:
Figure FDA0003677560220000013
其中:Λk表示缓存服务k需要的存储空间;
Figure FDA0003677560220000014
表示微基站i的最大缓存服务数;
通过
Figure FDA0003677560220000015
表示在时隙τ里缓存有用户j请求的服务k并能为提供用户请求服务的基站集合,如果在用户j的通信范围之内,没有微基站能提供服务,则用户的请求被宏基站处理;
(1.2)通过
Figure FDA0003677560220000016
表示基站i在时隙τ里的状态,当
Figure FDA0003677560220000017
时,基站处于激活状态;当
Figure FDA0003677560220000018
时,基站处于关闭状态,假定关闭的基站其能量消耗为0,假定网络拓扑和基站开关模式在一个时隙中是静态不变的,在整个时间段中是动态变化的;
(1.3)通过
Figure FDA0003677560220000019
表示用户在时隙τ请求的任务k是否被基站
Figure FDA00036775602200000110
服务,如果
Figure FDA00036775602200000111
表示用户请求的服务被基站i服务,反之则不能被基站i服务,并且每个用户每个时隙只产生一个任务请求,只能被一个基站处理,
通过公式表示用户j在时隙τ里卸载到微基站i的计算任务量:
Figure FDA00036775602200000112
通过公式表示用户j在时隙τ里上传到基站i的数据量:
Figure FDA00036775602200000113
(1.4)计算传输能耗:用Pj表示用户j的传输功率,W表示信道带宽,N0表示噪声功率,通过香农公式表示用户j到基站i之间上行链路的传输速率:
Figure FDA00036775602200000114
其中:
Figure FDA0003677560220000021
表示时隙τ内用户j到微基站i之间的信道增益;
Figure FDA0003677560220000022
表示在时隙τ用户j上传到基站i总的数据量,则用户j在时隙τ产生的总能耗表示为:
Figure FDA0003677560220000023
(1.5)计算处理延迟:用户j在把请求卸载到微基站i的过程中,产生传输延迟:
Figure FDA0003677560220000024
发送到微基站上之后,产生相应的计算延迟:
Figure FDA0003677560220000025
fi,j表示微基站i分配给用户j的计算能力;
(1.6)通过考虑在有限基站激活个数的约束下,联合基站缓存和用户调度,将最大化用户的服务质量作为目标,得到基站激活和服务缓存联合优化方法的总模型θ,即
Figure FDA0003677560220000026
求解
Figure FDA0003677560220000027
并得到用户最优的服务质量;
(1.7)将基站激活个数约束添加到总模型θ中:
Figure FDA0003677560220000028
微基站进行服务缓存的存储约束如下:
Figure FDA0003677560220000029
微基站进行任务处理的计算约束如下:
Figure FDA00036775602200000210
其中:zi基站同一时隙最大处理任务数;
假定用户请求的一个任务只能卸载到一个基站的约束如下:
Figure FDA00036775602200000211
(1.8)默认为每个用户请求的任务都能在一个时隙内能被执行完成,又由于基于服务缓存和基站激活策略,有最优的任务调度,那么原目标函数转化为最大化微基站平均处理的任务数:
Figure FDA00036775602200000212
步骤二:根据总模型θ的特性,利用Benders分割思想将总模型θ分为主问题和子问题两个模型进行求解,将总模型简化为主问题模型θ1,并通过改进的贪婪算法进行求解,求出每个时隙的基站激活和任务调度的最优解,进而求出基站处理任务数
Figure FDA00036775602200000213
(2.1)在主问题中,
Figure FDA0003677560220000031
表示基站i在时隙τ时的激活状态,
Figure FDA0003677560220000032
表示用户j卸载到基站i的任务,总模型θ转化为主问题模型θ1
Figure FDA0003677560220000033
(2.2)
Figure FDA0003677560220000034
表示用户的一个任务请求最多只能卸载到一个基站,
Figure FDA0003677560220000035
表示基站计算能力的约束,即基站处理任务分配的计算能力不能超过基站最大的计算能力;
(2.3)通过贪婪算法,获得主问题模型的初始解,为原始问题最优解提供一个上界,通过增加不等式约束来消减主问题模型的解空间,
对于每个基站,在其打开服务的时候,必须保证其收益为正,即
Figure FDA0003677560220000036
Figure FDA0003677560220000037
表示用户j在时隙τ里执行任务带来的收益;然后根据先验知识,确保开着的基站必须能缓存所有种类的服务,故
Figure FDA0003677560220000038
其中K为总的服务类型数,l为每个基站能缓存的服务类型数;
步骤三:借用解决主问题得到的基站激活和任务分配情况,在开着的基站之上通过考虑存储限制,根据用户任务分配的情况求出子问题模型中最优的服务缓存方法,进而求出该情况下基站处理任务数
Figure FDA0003677560220000039
步骤四:通过Benders分割依据主问题模型得到最优解情况下处理的任务数
Figure FDA00036775602200000310
和子问题求解结果
Figure FDA00036775602200000311
是否相等进行迭代求解,如果不相等,则产生相应的Benders切;如果
Figure FDA00036775602200000312
则该情况下的基站激活、服务缓存与任务分配就是总模型的最优解。
2.根据权利要求1所述的基于服务缓存和基站激活的联合优化方法,其特征是步骤三具体包括:
(3.1)在得到基站开关和任务分配调度最优解后,将得到的最优解带入到子问题模型中,求出最优的基站缓存,
Figure FDA00036775602200000313
表示基站i在时隙τ时的服务缓存情况,βijk={0,1}表示在基站存储约束的限制下,将总模型θ转化为解决服务缓存的子问题模型θ2
Figure FDA00036775602200000314
(3.2)其中该子问题受一些约束:通过
Figure FDA00036775602200000315
表示基站i的计算约束,
Figure FDA0003677560220000041
表示基站缓存服务的存储空间约束,上述子问题模型为总模型最优解提供了一个下界。
3.根据权利要求1所述的基于服务缓存和基站激活的联合优化方法,其特征是步骤四具体包括:
(4.1)基于逻辑的Benders分割通过解决主问题模型开始,通过贪婪初始化算法求出主问题的一个可行解RMP
(4.2)在可行解的基础之上,得出在该情况下任务分配的情况βij,从而得到处理的任务数
Figure FDA0003677560220000042
(4.3)子问题模型通过来自求解主问题得到的基站开关和用户调度情况,进行服务缓存,得到该情况下新的任务分配情况βijk,进而得到子问题模型的任务处理数
Figure FDA0003677560220000043
(4.4)对于通过贪婪算法求出主问题的每种可行解,如果
Figure FDA0003677560220000044
则一个Benderscut就会产生并会被添加到主问题中去调整基站的开关状态以及任务的分配情况,即跳转至步骤(4.2);
(4.5)此过程将被循环执行直到
Figure FDA0003677560220000045
此时求得原问题的最优解。
CN202010216304.7A 2020-03-25 2020-03-25 基于服务缓存和基站激活的联合优化方法 Active CN111432436B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010216304.7A CN111432436B (zh) 2020-03-25 2020-03-25 基于服务缓存和基站激活的联合优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010216304.7A CN111432436B (zh) 2020-03-25 2020-03-25 基于服务缓存和基站激活的联合优化方法

Publications (2)

Publication Number Publication Date
CN111432436A CN111432436A (zh) 2020-07-17
CN111432436B true CN111432436B (zh) 2022-08-02

Family

ID=71549425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010216304.7A Active CN111432436B (zh) 2020-03-25 2020-03-25 基于服务缓存和基站激活的联合优化方法

Country Status (1)

Country Link
CN (1) CN111432436B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014029892A1 (en) * 2012-08-24 2014-02-27 Actix Gmbh Method for joint and coordinated load balancing and coverage and capacity optimization in cellular communication networks
CN108882269A (zh) * 2018-05-21 2018-11-23 东南大学 结合缓存技术的超密集网络小站开关方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618483B1 (ko) * 2011-10-21 2016-05-04 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 서버로부터 클라이언트로 미디어 콘텐츠를 전달하기 위한 라디오 리소스 관리 개념

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014029892A1 (en) * 2012-08-24 2014-02-27 Actix Gmbh Method for joint and coordinated load balancing and coverage and capacity optimization in cellular communication networks
CN108882269A (zh) * 2018-05-21 2018-11-23 东南大学 结合缓存技术的超密集网络小站开关方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Optimal Content Caching Policy Considering Mode Selection and User Preference under Overlay D2D;Yue Wang;《2018 14th International Conference on Mobile Ad-Hoc and Sensor Networks (MSN)》;20190418;全文 *
面向用户体验及服务质量的移动云计算网络动态资源管理方法研究;张倩;《中国优秀硕士学位论文全文数据库》;20170315;全文 *

Also Published As

Publication number Publication date
CN111432436A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
WO2022121097A1 (zh) 一种移动用户计算任务的卸载方法
Zhao et al. Edge caching and computation management for real-time internet of vehicles: An online and distributed approach
CN111836283B (zh) 一种基于mec多服务器的车联网资源分配方法
CN107995660B (zh) 支持d2d-边缘服务器卸载的联合任务调度及资源分配方法
CN107919986B (zh) 超密集网络中mec节点间vm迁移优化方法
CN111930436B (zh) 一种基于边缘计算的随机型任务排队卸载优化方法
Masoudi et al. Device vs edge computing for mobile services: Delay-aware decision making to minimize power consumption
CN111475274B (zh) 云协同多任务调度方法及装置
CN110996393A (zh) 一种单边缘计算服务器与多用户协同的计算卸载与资源分配方法
Zhang et al. Joint task offloading and data caching in mobile edge computing networks
WO2019200716A1 (zh) 面向雾计算的节点计算任务调度方法及其设备
CN108809695A (zh) 一种面向移动边缘计算的分布上行链路卸载策略
Li et al. Capacity-aware edge caching in fog computing networks
CN110719641B (zh) 边缘计算中用户卸载与资源分配联合优化方法
CN112491957B (zh) 一种边缘网络环境下的分布式计算卸载方法及系统
CN109756912A (zh) 一种多用户多基站联合任务卸载及资源分配方法
CN109194763A (zh) 一种超密集网络中基于小型基站自组织协作的缓存方法
CN111885147A (zh) 边缘计算中的一种资源动态定价方法
CN112689296B (zh) 一种异构IoT网络中的边缘计算与缓存方法及系统
CN108093435A (zh) 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法
CN112512065B (zh) 支持mec的小小区网络中在移动感知下的卸载和迁移方法
Li et al. Distributed task offloading strategy to low load base stations in mobile edge computing environment
Zhang et al. Delay minimized task scheduling in fog-enabled IoT networks
CN115396953A (zh) 移动边缘计算中一种基于改进粒子群算法的计算卸载方法
El Haber et al. Computational cost and energy efficient task offloading in hierarchical edge-clouds

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant