CN113282413A - 车辆边缘计算网络中QoS需求自适应的资源配置方法 - Google Patents
车辆边缘计算网络中QoS需求自适应的资源配置方法 Download PDFInfo
- Publication number
- CN113282413A CN113282413A CN202110549761.2A CN202110549761A CN113282413A CN 113282413 A CN113282413 A CN 113282413A CN 202110549761 A CN202110549761 A CN 202110549761A CN 113282413 A CN113282413 A CN 113282413A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- type
- service
- rsu
- vehicles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013468 resource allocation Methods 0.000 title claims abstract description 26
- 230000007774 longterm Effects 0.000 claims abstract description 38
- 238000007726 management method Methods 0.000 claims abstract description 27
- 238000005457 optimization Methods 0.000 claims abstract description 27
- 239000012530 fluid Substances 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000014509 gene expression Effects 0.000 claims description 17
- 230000006978 adaptation Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 11
- 230000008901 benefit Effects 0.000 abstract description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000012913 prioritisation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种车辆边缘计算网络中QoS需求自适应的资源配置方法。所述方法在一个车辆流和任务随机到达的车辆边缘系统中,以具有计算卸载请求的车辆分配到的边缘计算资源为决策变量,来实现网络运营商的长期管理利润最大化。为了从边缘计算服务需求和服务支付费用的角度描述不同车辆之间的异构性,本发明采用了一个多级管理框架。考虑到系统具有动态演化的稳态特性,本发明建立了一个新的流体模型,便于相应的资源优化问题的求解,且本发明中,车辆的服务质量需求等级会根据服务质量自适应的变化。本发明基于阈值的计算资源配置方法,实现了长期管理效益最大化。
Description
技术领域
本发明属于边缘计算网络中的计算资源优化配置技术,具体涉及到边缘计算任务的卸载处理,尤其涉及一种车辆边缘计算网络中QoS需求自适应的资源配置方法。
背景技术
随着车辆智能程度的提高和智慧城市交通系统的建设,涌现了各种先进的移动物联网(IoMT)应用。这些应用程序通常需要消耗大量的计算处理资源,而单个车辆的计算能力是有限的。云计算具有强大的计算能力,可以用来进行在线大规模数据处理和存储。然而,基于云计算的处理需要从终端设备传输大量数据,消耗了大量的网络带宽,并且无法对车辆的服务请求提供快速响应和低延迟的计算服务。为了解决这些固有的冲突,车辆边缘计算近年来成为了研究的热点问题。车辆边缘计算通过将配备有计算和存储资源的边缘服务器部署在车联网的路侧单元(RSU)上,为附近行驶的车辆提供快速、敏捷的计算服务。
与具有强大计算能力的传统云服务器相比,边缘计算服务器的计算资源仍然有限。因此,如何有效地配置这些资源是一个值得研究的问题。然而,大多数工作集中在最大化用户端(即车辆)在计算卸载中的效用,或最小化用户端的成本,而忽略了路侧单元(也即服务器端)的性能。在实际应用中,为了便于车辆边缘计算系统的实现,系统的长期管理利润(从网络运营商的角度,如RSU的角度)也需要最大化。此外,由于不同车辆的计算任务在计算密集度和延迟敏感度方面可能是异构的,车辆会产生不同的服务质量(QOS,qualityof service)需求。值得注意的是,车辆的QoS需求在整个长期系统中并不是一成不变的,它会根据自身受到的服务质量而产生变化。我们将这个过程称为QoS需求自适应。例如,如果一个车辆的计算服务请求总是被边缘服务器拒绝,它必须在本地处理任务。显然,在这种情况下,RSU为该车辆提供的服务质量较低,车辆的计算负担逐渐累积。因此,车辆的QoS需求可能会进一步提升。这里我们将处在不同的QoS需求下的车辆离散化的表述为不同的车辆类型,即处在一种QoS需求下的车辆对应为一种类型的车辆,当车辆的QoS需求改变,该车辆的类型也随之改变。
发明内容
发明目的:针对现有的车辆边缘计算系统中,现有的边缘计算资源配置方案无法实现网络运营商长期管理利益最大化和资源配置最优化问题,且没有将车辆QoS需求自适应这一因素产生的影响考虑在内,本发明提供一种车辆边缘计算网络中QoS需求自适应的资源配置方法。
技术方案:一种车辆边缘计算网络中QoS需求自适应的资源配置方法,该方法实现车辆边缘计算网络中车辆QoS需求自适应的计算资源配置,包括如下步骤:
(1)构建具有多级服务优先级的流体模型以表征QoS需求自适应下车辆边缘计算系统的长期性能以及其交通流演化的稳态特性,该流体模型稳态下的表达式如下:
式中,λ0表示新车辆进入RSU通信覆盖范围的到达率,θ0i表示新到达的车辆在经过预处理后变为类型i的车辆的概率,和θ ij分别表示类型i的车辆被服务和被拒绝时变为类型j的车辆的概率,xi表示稳态下类型i的车辆在系统中的数量,qi表示车辆类型为i的服务概率,λ0表示新车辆进入RSU通信覆盖范围的到达率,ro表示i类型车辆的卸载请求的速率;
(2)定义价值指标Riηi来衡量提供一单位计算资源给i类型的车辆所能产生的长期利润,并按照该价值指标按照从高到低的顺序确定车辆的计算资源服务的优先级,其中,Ri是代表服务i类型车辆当前卸载请求能带来RSU的长期管理利润,ηi是一个CPU周期所能处理i类型的任务量;
(3)引入表示阈值为k的服务策略下RSU向任意一种车辆提供一单位的CPU周期能够获得的预期平均利润,基于QoS自适应确定使得最大的k值,并设定阈值k将车辆卸载计算任务的优先级划分为高价值类型和低价值类型;
(4)根据所确定阈值k和边缘服务器为车辆提供的计算资源Ni,重新确定车辆的服务优先级,高价值类车辆得到较高的服务优先级,对于低价值类车辆的服务请求采用贪婪策略进行边缘计算资源的分配。
进一步的,所述方法中计算资源配置优化目标函数为maxqi≥0URSU,URSU表示RSU的长期管理利润,其约束条件和优化问题转化的计算过程如下:
约束条件如下:
C2:qi≤1,i=0,1,...,m,
式中,用Tji表示类型j的车辆变为类型i的车辆后在系统内的停留时间,基于上述目标函数和约束,基于上述目标函数和约束,所述目标函数的求解转换为一个决策变量为Ni的表达式如下:
约束条件如下:
C1:N0≤λ0o0,
式中,λ0代表了新车辆进入RSU通信覆盖范围的到达率,c0表示一辆新到达的车辆的预处理请求被拒绝时获得的补偿;C表示边缘服务器在执行计算任务过程中每一个CPU周期产生的损耗,N则表示RSU上总的边缘计算资源;在不考虑QoS需求自适应时,o0表示一个新到达车辆的预处理请求所需要的CPU周期,oi(i=1,…,m)表示服务一个新车辆的预处理请求后,类型i的车辆可能会产生的预期工作负载;在考虑QoS需求自适应时,引入oji表示服务一个类型j的车辆的卸载请求后,类型i的车辆可能会产生的预期工作负载。
更进一步的,步骤(1)包括根据车辆服务质量的不同需求,将车辆划分为m种不同的类型,设定λ0代表新车辆进入RSU通信覆盖范围的到达率,用θij表示当考虑QoS需求自适应的情况时,类型i的车辆变为类型j的车辆的概率,θij取决于服务概率qi,存在如下计算表达式:
另一方面,本发明步骤(3)中,若是不考虑QoS需求自适应的情况时,计算表达式如下:
更进一步的,所述方法中,RSU的长期管理利润包括车辆终端收取的定金、所有车辆终端收取的边缘计算服务的服务费、由于无法满足部分卸载请求而支出的补偿费用和边缘服务器在工作中产生的损耗费用;
所述RSU的长期管理利润的表达式如下:
其中,Mi(i=1,…,m)表示一辆有卸载意愿的车进入系统后需要预先支付的定金,pi(i=0,1,…,m)表示当一辆类型i的车辆的卸载请求被接受时,需要为本次的边缘计算服务付出的服务费,ci(i=0,1,…,m)表示一辆类型i的车辆的卸载请求被拒绝时获得的补偿,C表示边缘服务器在执行计算任务过程中每一个CPU周期产生的损耗。
有益效果:与现有技术相比,本发明所述方法综合考虑了存在QoS需求自适应变化和不存在QoS需求自适应变化的情况,在一个车辆流和任务随机到达的车辆边缘系统中,以具有计算卸载请求的车辆分配到的边缘计算资源为决策变量,来实现网络运营商(即RSU)的长期管理利润最大化。另一方面,本发明为了从边缘计算服务需求和服务支付费用的角度描述不同车辆之间的异构性,采用了一个多级管理框架及系统模型。考虑到系统具有动态演化的稳态特性,建立了一个新的流体模型,便于相应的资源优化配置。最后,本发明中车辆的QoS需求会根据服务质量自适应的变化,基于阈值的计算资源配置方法实现了长期管理效益最大化。
附图说明
图1是车辆边缘计算网络系统的网络结构示意图;
图2是本发明所述方法中的流体模型示意图。
具体实施方式
为了详细的说明本发明所公开的技术方案,下面结合说明书附图做进一步的阐述。
本发明所针对的技术问题是在车辆边缘计算网络中,如何分配边缘服务器上的计算资源,考虑到车辆边缘计算系统具有动态演化的稳态特性,以最大化RSU的长期管理利润为目标,确定不同类型车辆的服务优先级顺序。该方法中,根据车辆QoS需求将其分为不同类型并按照降序排列,车辆类型会随着车辆QoS需求自适应的变化而改变。
根据实际的应用和系统的特点,在考虑车辆的QoS需求自适应变化的同时,要最大化车辆边缘计算系统在稳态下的长期管理利润,会从以下几个方面显著增加所涉及的资源分配问题的复杂性。
1)为了实现长期管理利润的最大化,在衡量为每辆车提供计算服务的价值时,必须考虑它在这个长期系统中的所有卸载决策;
2)由于车辆的QoS需求会自适应的跟随服务质量而变化,资源分配决策(即提供给每辆车的服务质量)会反过来影响每辆车的QoS需求,进而影响每辆车愿意支付的价格,这激励本发明探索一个最优的资源分配策略来解决整个问题;
3)车辆是高度动态的,并且有不同的应用服务需求,因此需要探索一个动态管理框架与简单但有效的调度方案。
本实施例首先设定一个单向道路的动态交通场景,包括一个配备有边缘计算服务器的RSU以及在RSU通信范围内行驶的车辆。车辆可以将计算密集型任务卸载到RSU上以缓解自身的计算负担,但RSU可以选择是否接收车辆的卸载请求,即是否向车辆提供边缘计算服务来获得相应的回报。每个新到达的车辆将首先向相关的RSU声明一个预处理请求,只有当预处理请求被接受时,新到达的车辆才被允许加入系统,这个过程可以看作是维持系统稳定的准入控制。在经过预处理之后,新到达的车辆(i=0)会转换为各基础类型(各QoS需求)的车辆(i=1,…,m)。如前所述,由于存在QoS需求自适应,基础类型的车辆会根据自身获得的服务质量(服务概率)转换为其他类型的车辆。对于每一辆允许进入系统的车辆,它不断生成计算密集型任务,并向RSU发送相应的卸载请求。显然,由于RSU边缘计算服务器的计算资源有限,不能满足所有车辆的卸载请求。因此本发明提出了一种新的资源配置策略,以使RSU的长期管理利润最大化。
本发明所述方法考虑到车辆边缘计算系统具有动态演化的稳态特性,构建了具有多级服务优先级的流体模型,便于相应的资源优化问题的求解。其决策主要是RSU上边缘计算资源的分配,即根据不同类型(QoS需求)车辆的价值,同时考虑到QoS需求自适应的存在,决定车辆的优先级顺序,并按照优先级顺序为每种类型的车辆分配一定量的边缘计算资源。根据该策略,车辆的计算任务会以一定的概率在边缘服务器上进行处理,我们将这个概率称为RSU为车辆提供的服务概率qi。而其余未被服务的计算任务则会在本地进行处理。
本发明所述方法及后续实施中,该方法基于实际的应用和计算过程中,其约束条件主要如下:
(a)车辆边缘计算系统保持长期稳定状态:针对每种类型的车辆,进出系统的车辆流达到平衡;
(b)服务概率不大于1:即为每种类型的车辆提供的计算资源不能超过车辆本身的需求;
(c)RSU资源能力限制:即分配给所有车辆的边缘计算资源受到RSU上配备的计算资源容量大小的约束。
进一步的,针对该优化问题,所述方法提出了一种解决方案。针对不考虑率QoS需求自适应的情况,以及考虑QoS需求自适应这两种情况分别有如下的计算过程。
本发明在不考虑QoS需求自适应的简化情况下,计算资源的优化配置过程如下:
S1、为了确定不同类型(QoS需求)车辆的优先级,需要衡量每种类型的车辆对RSU的长期贡献价值,并为高价值车型提供尽可能多的计算资源。为此,本发明定义一个价值指标Riηi来衡量提供一单位计算资源给i类型的车辆所能产生的长期利润,并按照该价值指标按照从高到低的顺序,给车辆进行一个初步的优先级排序。价值指标主要包括为车辆提供一次服务的即时利润以及车辆的长期终身价值两部分。其中,需要说明的是,该方法中对于新到达的车辆,由于它会在预处理后转换为其他基础类型的车辆,因此它的价值指标由自身的即时价值和其他类型车辆的终身价值构成;对于基础类型的车辆,它的终身价值由自身的即时价值和自身的终身价值构成。
S2、根据车辆分配到的计算资源与相应服务概率之间的关系以及现有技术的数学推导和证明,进行上述优化问题的等效数学变换,将优化问题中的决策变量由原来的服务概率变为分配给每种类型车辆的计算资源。
S3、由于基础类型的车辆是由新到达的车辆转换而来,因此每种类型的车辆在系统中的总流量以及它所产生的总的工作负载都是未知的,且在很大程度上取决于分配给新到达车辆的计算资源,因此服务新到达车辆的价值是不确定的。这意味着一个关键问题,即应该为新到达车辆的预处理分配多少资源。显然,按照S1中的顺序对车辆进行服务优先级排序无法达到最优。因此,本发明所述方法包括基于门限的计算资源配置方式来进一步确定车辆实际的优先级。具体的基于阈值的服务策略如下:
1)设k为阈值。对于新到达的车辆以及那些高价值类型的车辆(即按照S1中的排序排在k前的类型),在有限的RSU计算资源N下,其得到的服务优先级最高;
2)对于低价值类型的车辆(即按照S1中的排序排在k后的类型),在有限的RSU计算资源N下,以贪婪策略来分配剩余的边缘计算资源以满足它们的服务请求。
S4、按照S3中的服务策略对车辆重新进行优先级排序,并根据该优先级提出了一种合理的资源配置方案,最终得到最优资源分配决策和RSU获得的最大长期利润。
针对存在QoS需求自适应的情况,本发明所述方法对于计算资源配置优化过程具体实施过程如下:
s1:新到达的车辆的价值指标仍由自身的即时价值和其他类型车辆的终身价值构成;而基础车辆的价值指标由自身的即时价值和终身价值以及它转换为别的类型车辆的终身价值构成;
s2:根据证明,上述优化问题的等效数学转换仍然成立;
s3:在简化版中,由于存在新到达车辆向基础类型车辆的转换,新到达车辆的价值不仅取决于它自身的R0η0价值指标;而在基础类型车辆之间互相转换存在(QoS需求自适应存在)的情况下,拓展为每种类型车辆的价值都是不确定的。这是由于车辆可能会从一种类型变为另一种类型,为一种车辆提供边缘计算服务会对别的类型的车辆所能提供的工作负载产生影响。因此,要解决本优化问题必须从全局的角度出发。按照简化版中提出的TRCRS方案,重新计算车辆类型转换存在情况下的得到使最大的k值;
s4:根据S3中计算得到的k值,获得车辆的最终服务优先级排序。
上述S1-S4,以及s1-s4具体阐述了本发明的实施的基本步骤。下面更加具体阐述本发明所述的方法对于计算网络中服务质量自适应的计算资源配置优化过程和计算过程。
步骤1:构建具有多级服务优先级的流体模型,且优化问题构建
本实施例所构建系统模型如图1所示,图1为该方法应用的一个车辆边缘计算网络结构示意图。在RSU上部署一台具有一定计算资源N(单位为CPU cycles/s)的边缘计算服务器。对应于m种不同的服务质量(QoS,quality-of-service)需求,我们将车辆分为m种不同的类型。i=0表示新到达的车辆,i=1,…,m表示基础类型的车辆。λ0代表了新车辆进入RSU通信覆盖范围的到达率,q0则表示新到达车辆的准入概率,即进入RSU通信范围的车辆的预处理请求被接受的概率。经过预处理后,新到达车辆会以θ0i的概率转换为i型基础车辆(i=1,…,m)。基础类型为i的车辆会以ri的速率产生卸载请求,并以γ的速率驾驶离开RSU的通信范围。如上所述,基础类型的车辆产生的计算密集型任务将以qi和1-qi的概率分别进行边缘计算和本地计算,且车辆的类型会随着QoS需求自适应的改变而改变,我们用θij表示类型i的车辆变为类型j的车辆。显然,θij取决于服务概率qi,我们将其表示为
基于以上定义,将上述约束条件进行公式化,可以得到如下三点:
(a)稳态下,针对每种类型的车辆,进出系统的车辆流达到平衡,即存在如下表达式:
xi表示稳态下类型i的车辆在系统中的数量。用Tij表示类型i的车辆变为类型j的车辆后在系统内的停留时间,根据利特尔法则可以由上述等式求得Tij,由此获得C1约束,C1约束的表达式如下所示:
(b)服务概率不大于1的数学表达式如下所示:
qi≤1,i=0,1,...,m
(c)RSU资源能力限制的数学表达式如下所示:
其中Ni(i=1,…,m)表示分配给每种类型车辆的边缘计算资源。
本发明所述方法中,包括对于RSU的长期管理利润的计算,RSU的长期管理利润包括从车辆终端收取的定金、从所有车辆终端收取的边缘计算服务的服务费、由于无法满足部分卸载请求而支出的补偿和边缘服务器在工作中产生的损耗,具体的计算表达式如下:
从车辆终端收取的定金的计算公式:
Mi(i=1,…,m)表示一辆有卸载意愿的车进入系统后需要预先支付的定金;
从所有车辆终端收取的边缘计算服务的服务费的计算公式:
pi(i=0,1,...,m)表示当一辆类型i的车辆的卸载请求被接受时,需要为本次的边缘计算服务付出的服务费;
由于无法满足部分卸载请求而支出的补偿的计算公式:
ci(i=0,1,...,m)表示一辆类型i的车辆的卸载请求被拒绝时获得的补偿;
边缘服务器在工作中产生的损耗的计算公式:
CN
式中,C表示边缘服务器在执行计算任务过程中每一个CPU周期产生的损耗。
因此,RSU的长期管理利润可以表示为:
在得到以上所有约束条件和目标函数(即RSU的长期管理利润)的数学表达式之后,可以构建出优化问题P1:
subjectto
C2:qi≤1,i=0,1,...,m
上述步骤2和步骤3针对不考虑QoS需求自适应的情况下对优化问题P1进行求解,在步骤4中,将其拓展为QoS需求自适应存在的情况下问题P1的求解。
步骤2:问题等效变换
为了将问题从决策变量为服务概率qi等效变换为分配给每种类型车辆的边缘计算资源Ni,首先引入价值指标Riηi来衡量提供一单位计算资源给i类型的车辆所能产生的长期利润,并按照该价值指标对车辆从高到低进行排序。
R1η1>...>Riηi>...>Rmηm.
接着引入oi(i=1,…,m)表示服务一个新车辆的预处理请求后,类型i的车辆可能会产生的预期工作负载,oi可以表示为:
其中1/ηi表示计算一个类型i的车辆任务所需要的CPU周期。o0表示一个
新到达车辆的预处理请求所需要的CPU周期,则o0=1/η0。由此Ni和qi之间的关系可以表示为:
经过数学公式的推导证明,将原优化问题转变为一个决策变量为Ni的等效优化问题,即为每种类型的车辆找到最优的计算资源分配量的问题,如下所示:
sulbject to
Cl:N0≤λ0o0,
C2:Ni≤N0η0oi,i=1,...,m
步骤3:基于门限的计算资源优化配置
需要注意的是,直接按照价值指标Riηi的排序以贪婪的方式对边缘计算资源进行分配无法达到最优。这是因为每种类型的车辆在系统中的总流量以及它所产生的总的工作负载都是未知的,且在很大程度上取决于优化决策q0(N0),从P1和P2的约束C2可以明显看出这一点。意味着一个关键问题,即应该为预处理预留多少资源。显然,在衡量一辆新车的价值时,不仅要考虑它的R0η0指数,还可以考虑其他基本车辆类型的Riηi指数。为此,本发明所述方法的计算资源配置问题,进一步得按照如下步骤实现。
设k为阈值。对于新到达的车辆以及那些高价值类型的车辆(即按照S1中的排序排在k前的类型),在有限的RSU计算资源N下,其得到的服务优先级最高;对于低价值类型的车辆(即按照S1中的排序排在k后的类型),在有限的RSU计算资源N下,以贪婪策略来分配剩余的边缘计算资源以满足它们的服务请求。
根据该优先级排序,推导出最优计算资源分配策略
并计算出RSU的最优长期管理利润
步骤4:考虑车辆QoS需求自适应时的拓展情况
考虑最优计算资源配置策略在QoS需求自适应存在的情况下的扩展。引入oji表示服务一个类型j的车辆的卸载请求后,类型i的车辆可能会产生的预期工作负载,则oji可以表示为:
经过推导证明,原优化问题P1仍可以转化为一个决策变量为Ni的等效优化问题P3,具体表达式如下:
subject to
C1:N0≤λ0o0
如步骤3中所述,在不考虑车辆类型转换的情况下,每种类型的车辆在系统中的总流量以及它所产生的总的工作负载都是未知的,且在很大程度上取决于优化决策q0(N0);而当考虑车辆类型转换时,上述情况扩展为:每种类型的车辆在系统中的总流量会取决于除它以外其余车辆的优化决策,这点从P3的约束条件C2中可以看出。同理,一种类型车辆的价值都不仅仅取决于他自身的Riηi指数,而是会受到其他车辆的价值的影响。因此该优化问题需从全局的角度出发求最优解。由于问题P3和问题P2具有相同的计算结果表现形式,其表示计算资源优化配置的方法和影响因素结构相同,因此可以采用相同的服务策略。此时代表在存在QoS需求自适应的情况下,阈值为k的服务策略下RSU提供一单位的CPU周期能够获得的预期平均利润,同样计算得出使最大的k值,并由此为车辆分配服务优先级和边缘计算资源。
本实施例的仿真结果如下表所示:
N | 4 | 6 | 8 | 10 | 12 | 14 | 16 | 18 | 20 |
Profit1 | 11.23 | 17.35 | 23.46 | 29.59 | 35.70 | 41.81 | 46.16 | 48.99 | 48.99 |
Profit2 | 5.92 | 9.37 | 16.51 | 25.48 | 33.65 | 40.81 | 44.21 | 46.31 | 46.31 |
Profit3 | 5.92 | 9.37 | 13.90 | 18.96 | 24.02 | 29.08 | 34.14 | 36.79 | 39.45 |
上表所示为在RSU上配置不同的边缘计算资源N,采用三种不同的资源配置方案所能获得的长期管理利润。其中Profit1代表本发明所提出的基于阈值的计算资源配置方案所能获得的利润,Profit2代表采用贪心策略所能获得的利润,Profit3则代表随机策略下的盈利。显然,当边缘计算资源非常有限时(N较小),本发明所提出的方案要远远高于另外两种,而随着边缘计算资源N逐渐增长,系统负荷逐渐降低,三种方案之间的性能差异会随之减小。
Claims (5)
1.一种车辆边缘计算网络中QoS需求自适应的资源配置方法,其特征在于,该方法实现车辆边缘计算网络中车辆QoS需求自适应的计算资源配置,包括如下步骤:
(1)构建具有多级服务优先级的流体模型以表征QoS需求自适应下车辆边缘计算系统的长期性能以及其交通流演化的稳态特性,该流体模型稳态下的表达式如下:
式中,λ0表示新车辆进入RSU通信覆盖范围的到达率,θ0i表示新到达的车辆在经过预处理后变为类型i的车辆的概率,和θ ij分别表示类型i的车辆被服务和被拒绝时变为类型j的车辆的概率,xi表示稳态下类型i的车辆在系统中的数量,qi表示车辆类型为i的服务概率,λ0表示新车辆进入RSU通信覆盖范围的到达率,ri表示i类型车辆的卸载请求的速率;
(2)定义价值指标Riηi来衡量提供一单位计算资源给i类型的车辆所能产生的长期利润,并按照该价值指标按照从高到低的顺序确定车辆的计算资源服务的优先级,其中,Ri是代表服务i类型车辆当前卸载请求能带来RSU的长期管理利润,ηi是一个CPU周期所能处理i类型的任务量;
(3)引入表示阈值为k的服务策略下RSU向任意一种车辆提供一单位的CPU周期能够获得的预期平均利润,基于QoS自适应确定使得最大的k值,并设定阈值k将车辆卸载计算任务的优先级划分为高价值类型和低价值类型;
(4)根据所确定阈值k和边缘服务器为车辆提供的计算资源Ni,重新确定车辆的服务优先级,高价值类车辆得到较高的服务优先级,对于低价值类车辆的服务请求采用贪婪策略进行边缘计算资源的分配。
约束条件如下:
C2:qi≤1,i=0,1,...,m,
式中,用Tji表示类型j的车辆变为类型i的车辆后在系统内的停留时间,基于上述目标函数和约束,基于上述目标函数和约束,所述目标函数的求解转换为一个决策变量为Ni的表达式如下:
约束条件如下:
C1:N0≤λ0o0,
式中,λ0代表了新车辆进入RSU通信覆盖范围的到达率,c0表示一辆新到达的车辆的预处理请求被拒绝时获得的补偿;C表示边缘服务器在执行计算任务过程中每一个CPU周期产生的损耗,N则表示RSU上总的边缘计算资源;在不考虑QoS需求自适应时,o0表示一个新到达车辆的预处理请求所需要的CPU周期,oi(i=1,…,m)表示服务一个新车辆的预处理请求后,类型i的车辆可能会产生的预期工作负载;在考虑QoS需求自适应时,引入oji表示服务一个类型j的车辆的卸载请求后,类型i的车辆可能会产生的预期工作负载。
5.根据权利要求1所述的车辆边缘计算网络中QoS需求自适应的资源配置方法,其特征在于,所述方法中,RSU的长期管理利润包括车辆终端收取的定金、所有车辆终端收取的边缘计算服务的服务费、由于无法满足部分卸载请求而支出的补偿费用和边缘服务器在工作中产生的损耗费用;
所述RSU的长期管理利润的表达式如下:
其中,Mi(i=1,…,m)表示一辆有卸载意愿的车进入系统后需要预先支付的定金,pi(i=0,1,…,m)表示当一辆类型i的车辆的卸载请求被接受时,需要为本次的边缘计算服务付出的服务费,ci(i=0,1,…,m)表示一辆类型i的车辆的卸载请求被拒绝时获得的补偿,C表示边缘服务器在执行计算任务过程中每一个CPU周期产生的损耗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110549761.2A CN113282413B (zh) | 2021-05-20 | 2021-05-20 | 车辆边缘计算网络中QoS需求自适应的资源配置方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110549761.2A CN113282413B (zh) | 2021-05-20 | 2021-05-20 | 车辆边缘计算网络中QoS需求自适应的资源配置方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113282413A true CN113282413A (zh) | 2021-08-20 |
CN113282413B CN113282413B (zh) | 2024-03-05 |
Family
ID=77280171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110549761.2A Active CN113282413B (zh) | 2021-05-20 | 2021-05-20 | 车辆边缘计算网络中QoS需求自适应的资源配置方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113282413B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019024445A1 (zh) * | 2017-07-31 | 2019-02-07 | 上海交通大学 | 地理分布交互服务云资源协同优化方法 |
CN111124647A (zh) * | 2019-12-25 | 2020-05-08 | 大连理工大学 | 一种车联网中的智能边缘计算方法 |
CN111400001A (zh) * | 2020-03-09 | 2020-07-10 | 清华大学 | 一种面向边缘计算环境的在线计算任务卸载调度方法 |
CN111556461A (zh) * | 2020-04-29 | 2020-08-18 | 南京邮电大学 | 一种基于深度q网络的车载边缘网络任务分发卸载方法 |
CN111950076A (zh) * | 2020-07-10 | 2020-11-17 | 北京航空航天大学 | 一种降低复合材料旋翼动应力水平的设计方法 |
CN111994079A (zh) * | 2020-09-18 | 2020-11-27 | 南京航空航天大学 | 考虑驾驶风格特性的非合作博弈换道辅助决策系统及方法 |
-
2021
- 2021-05-20 CN CN202110549761.2A patent/CN113282413B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019024445A1 (zh) * | 2017-07-31 | 2019-02-07 | 上海交通大学 | 地理分布交互服务云资源协同优化方法 |
CN111124647A (zh) * | 2019-12-25 | 2020-05-08 | 大连理工大学 | 一种车联网中的智能边缘计算方法 |
CN111400001A (zh) * | 2020-03-09 | 2020-07-10 | 清华大学 | 一种面向边缘计算环境的在线计算任务卸载调度方法 |
CN111556461A (zh) * | 2020-04-29 | 2020-08-18 | 南京邮电大学 | 一种基于深度q网络的车载边缘网络任务分发卸载方法 |
CN111950076A (zh) * | 2020-07-10 | 2020-11-17 | 北京航空航天大学 | 一种降低复合材料旋翼动应力水平的设计方法 |
CN111994079A (zh) * | 2020-09-18 | 2020-11-27 | 南京航空航天大学 | 考虑驾驶风格特性的非合作博弈换道辅助决策系统及方法 |
Non-Patent Citations (2)
Title |
---|
吴振铨;黄旭民;余荣;何昭水;: "车载边缘计算中基于信誉值的计算卸载方法研究", 计算机应用研究, no. 09 * |
张海波;栾秋季;朱江;贺晓帆;: "基于移动边缘计算的V2X任务卸载方案", 电子与信息学报, no. 11 * |
Also Published As
Publication number | Publication date |
---|---|
CN113282413B (zh) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111277437B (zh) | 一种智能电网的网络切片资源分配方法 | |
Liang et al. | A novel adaptive resource allocation model based on SMDP and reinforcement learning algorithm in vehicular cloud system | |
Sun et al. | BARGAIN-MATCH: A game theoretical approach for resource allocation and task offloading in vehicular edge computing networks | |
CN111163519B (zh) | 系统收益最大化的无线体域网资源分配与任务卸载方法 | |
CN100556024C (zh) | 用于网络场通信控制的方法和网络场 | |
Yu et al. | Efficient task sub-delegation for crowdsourcing | |
CN111711666B (zh) | 一种基于强化学习的车联网云计算资源优化方法 | |
Wang et al. | Application-aware offloading policy using SMDP in vehicular fog computing systems | |
CN111614754B (zh) | 面向雾计算的成本效率优化的动态自适应任务调度方法 | |
Mekala et al. | Resource offload consolidation based on deep-reinforcement learning approach in cyber-physical systems | |
CN115421930B (zh) | 任务处理方法、系统、装置、设备及计算机可读存储介质 | |
CN113377516B (zh) | 面向边缘计算的车辆任务卸载的集中式调度方法与系统 | |
Mishra et al. | A collaborative computation and offloading for compute-intensive and latency-sensitive dependency-aware tasks in dew-enabled vehicular fog computing: A federated deep Q-learning approach | |
Tran-Dang et al. | Task priority-based resource allocation algorithm for task offloading in fog-enabled IoT systems | |
CN111131447A (zh) | 一种基于中介节点任务分配的负载均衡方法 | |
CN115967990A (zh) | 一种基于分类和预测的边端协同业务卸载方法 | |
Nguyen et al. | Flexible computation offloading in a fuzzy-based mobile edge orchestrator for IoT applications | |
CN112817741A (zh) | 一种边缘计算的dnn任务控制方法 | |
Ma et al. | Truthful computation offloading mechanisms for edge computing | |
Xu | RETRACTED ARTICLE: A novel machine learning-based framework for channel bandwidth allocation and optimization in distributed computing environments | |
CN113282413A (zh) | 车辆边缘计算网络中QoS需求自适应的资源配置方法 | |
Zhu et al. | Computation resource configuration with adaptive QoS requirements for vehicular edge computing: A fluid-model based approach | |
CN115756772A (zh) | 面向边缘云混合作业的动态编排与任务调度方法及系统 | |
Kambalimath et al. | Cost optimization based resource allocation scheme for vehicular cloud networks | |
Li et al. | Edge–Cloud Collaborative Computation Offloading for Mixed Traffic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |