CN111708620B - 一种具有计费机制的任务卸载方法 - Google Patents
一种具有计费机制的任务卸载方法 Download PDFInfo
- Publication number
- CN111708620B CN111708620B CN202010379869.7A CN202010379869A CN111708620B CN 111708620 B CN111708620 B CN 111708620B CN 202010379869 A CN202010379869 A CN 202010379869A CN 111708620 B CN111708620 B CN 111708620B
- Authority
- CN
- China
- Prior art keywords
- task
- user equipment
- slice
- vector
- tasks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000007246 mechanism Effects 0.000 title claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 239000013598 vector Substances 0.000 claims description 103
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000001939 inductive effect Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005265 energy consumption Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241001591024 Samea Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000010391 action planning Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/042—Backward inferencing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种具有计费机制的任务卸载方法,首先,为了最小化总任务处理延迟并释放本地计算负担,用户设备首先将其子任务划分为本地任务和云端任务;其次,为了避免MEC服务器上卸载任务的拥塞,构建总成本模型,提出了瞬时负荷计费机制,根据MEC服务器每个时间片的瞬时负荷向用户设备收费,若某一时间片扎堆执行的切片任务越多,其价格越高;也就是说,本发明通过向高峰时间卸载任务的用户设备收取更多费用,以此激励用户设备将切片任务由高峰时间片转移到非高峰时间片执行;最后,采用博弈论来获得最佳的任务分流策略,从而能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。
Description
技术领域
本发明属于无线虚拟导轨领域,尤其涉及一种具有计费机制的任务卸载方法。
背景技术
无处不在的移动设备提供越来越多的移动服务,例如面部识别或自然语言处理。尽管这些服务有助于建立高度连接的社会,但它们要求移动设备具有强大的计算能力。然而,当前的移动设备具有有限的计算能力和高能耗,这不能赶上对移动服务的日益高的需求。为了提高移动设备的计算能力,提出了移动边缘计算。通过计算分流,移动边缘计算可以将任务从移动设备分流到边缘服务器或其他设备。计算分流可以显着减轻移动设备的计算负担并扩展其计算能力,这为实现复杂服务的计算提供了可能性。
作为一个受欢迎的研究点,已经进行了许多研究以减轻负荷,以减少工艺延迟和能耗。S.Guo等人提供了一种动态卸载和资源调度策略,以在应用程序完成时间的严格约束下实现节能计算卸载。他们还提出了一种分布式算法,该算法由计算卸载选择,时钟频率控制和传输功率分配三个子算法组成,以获得最佳策略。L.Liu等人为了平衡计算卸载过程中的能耗和延迟性能,还利用排队论来研究能耗,执行延迟和移动设备卸载过程的支付成本;最后基于理论分析,制定了一个具有联合目标的多目标优化问题,以通过找到每个移动设备的最佳卸载概率和发射功率来最小化能耗,执行延迟和支付成本。H.Chen利用采用瞬时负荷计费方案来研究实际的需求侧管理方案,在这种方案中,有的的消费者通过安排未来的能源消耗状况,竞争以最小化其个人能源成本。近来,聚合博弈已被用来设计无线通信中的最佳策略。在聚合博弈中,每个玩家都旨在通过行动计划来最大程度地降低其成本。聚合博弈的特征在于其优化问题与所有玩家的聚合动作结合在一起。P.Zhou采用聚合博弈对大型,异构和动态网络中的频谱共享进行建模。同时,他们利用过去的信道访问经验,提出了一种在线学习算法,以提高每个用户的效用。但是,上述工作通常通过耗时的迭代或借助完整的信息来达到博弈的纳什均衡。因此,如何利用有限的信息来加速迭代过程是一个挑战。
发明内容
为解决上述问题,本发明提供一种具有计费机制的任务卸载方法,将计算分流过程设计为具有瞬时负荷计费方案的聚合博弈,能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。
一种具有计费机制的任务卸载方法,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示;
S2:各用户设备分别将自己的云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片;
S3:为各用户设备构建总成本模型Bn(Xn,X∑)如下:
其中,Ph为第h个时间片的价格,h=1,2,…,H,ah与bh为第h个时间片的设定参数,为第n个用户设备在第h个时间片待执行的切片任务的任务量,Xn为第n个用户设备的切片任务向量, 为MEC服务器在第h个时间片待执行的切片任务的总任务量,X∑为任务处理时间内待执行的切片任务的总任务量向量,T为转置;
S4:为各用户设备根据总成本模型Bn(Xn,X∑)构建如下目标函数:
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x∑;
S52:将步骤S51得到的总任务量向量x∑代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量;
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量;
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
进一步地,所述本地任务和云端任务的任务量的计算方法为:
其中,为本地任务的任务量,为云端任务的任务量,为用户设备的计算能力,qn为子任务的总任务量,Tp为云端任务的处理时间,rn为云端任务上传到MEC服务器的速率,cn为每处理一单位任务量所需要的CPU周期数量。
进一步地,所述切片任务向量估计值的计算公式如下:
其中,wii(k)是当前用户设备i为其自身设置的非负权重,wij(k)是当前用户设备i为其直接邻居用户设备j设置的非负权重,Ni为当前用户设备i的直接邻居的数量,k为迭代的次数,为第k次迭代时当前用户设备i的切片任务量向量,为第k次迭代时用户设备j的切片任务量向量,为第k次迭代时当前用户设备i对应的切片任务向量估计值,且当k=0时,与分别为当前用户设备i与用户设备j的在步骤S2中得到的切片任务量向量。
进一步地,步骤S54中按照设定更新规则更新当前用户设备对应的切片任务向量估计值的方法为:
其中,为当前用户设备i在下一次迭代所需的切片任务向量更新值,为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且 为在集合Ki上的欧几里得投影,Ki为切片任务向量的取值范围,定义为:
进一步地,当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大。
进一步地,根据切片任务向量估计值获取总任务量向量x∑的方法为:
将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x∑。
有益效果:
本发明提供一种具有计费机制的任务卸载方法,首先,为了最小化总任务处理延迟并释放本地计算负担,用户设备首先将其子任务划分为本地任务和云端任务;其次,为了避免MEC服务器上卸载任务的拥塞,构建总成本模型,提出了瞬时负荷计费机制,根据MEC服务器每个时间片的瞬时负荷向用户设备收费,若某一时间片扎堆执行的切片任务越多,其价格越高;也就是说,本发明通过向高峰时间卸载任务的用户设备收取更多费用,以此激励用户设备将切片任务由高峰时间片转移到非高峰时间片执行;最后,采用博弈论来获得最佳的任务分流策略,从而能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。
附图说明
图1为本发明提供的一种具有计费机制的任务卸载方法的流程图;
图2为本发明提供的总处理时间示意图;
图3为本发明提供的每个UE的传输或处理延迟示意图;
图4为本发明提供的每个UE的卸载计算成本示意图;
图5为本发明提供的每个UE的平均卸载计算成本示意图;
图6为本发明提供的每个UE的平均卸载计算成本示意图;
图7为本发明提供的每个UE的平均卸载计算成本示意图;
图8为本发明提供的每个UE的平均卸载计算成本示意图;
图9为本发明提供的每个UE的卸载计算成本示意图;
图10为本发明提供的每个UE的卸载计算成本示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本发明主要使用聚合博弈研究了多个用户设备(UE)与一台MEC服务器之间的计算分流问题。由于将从多个UE卸载的任务将由一台MEC服务器执行,因此有必要适当地安排任务处理顺序以提高服务器的效率。因此,本发明设计了一种瞬时负载计费方案,以激励UE将其高峰时间执行计算转移到非高峰时间;然后,采用具有有限邻居决策信息的聚合博弈来获得最优的计算卸载策略。
如图1所示,一种具有计费机制的任务卸载方法,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示。
假设有N个用户设备UE,一个MEC服务器,UE的集合N={1,2,3,……,N},存在一种通信方案,直接连接的UE可以低成本相互通信。每个UE的每个任务都可以分为多个子任务。
其中,rn为云端任务上传到MEC服务器的速率。
进而,得到本地任务和云端任务的任务量的计算方法如下:
其中,为本地任务的任务量,为云端任务的任务量,为用户设备的计算能力,qn为子任务的总任务量,Tp为云端任务的处理时间,rn为云端任务上传到MEC服务器的速率,cn为每处理一单位任务量所需要的CPU周期数量。
S2:各用户设备分别将自己的将云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片。
在第二阶段中,为了在云端任务的处理时间Tp内有效地处理这些卸载子任务,提出了一个任务拆分模型,以提供一种安排卸载任务以适当顺序进行处理的可能性;如图2所示,云端任务被划分为H个切片任务,H={1,2,3,……,H},各切片任务的任务量不全为0,指的是虽然云端任务均被划分为H个切片任务,但某些切片任务的任务量为0,则对应时间片被分配到的任务量也为0;也就是说,如果某个时间片的价格过高,用户设备UE将不选取该时间片来执行云端任务,则该时间片对应的切片任务的任务量为0。
S3:为各用户设备构建总成本模型Bn(Xn,X∑)如下:
其中,Ph为第h个时间片的价格,由公式(5)可知,其与X∑有关,X∑为任务处理时间内待执行的切片任务的总任务量向量,T为转置,为MEC服务器在第h个时间片待执行的切片任务的总任务量,h=1,2,…,H,ah与bh为第h个时间片的设定参数,其中,ah决定价格的线性变化程度,bh决定价格的指数变化程度,为第n个用户设备在第h个时间片待执行的切片任务的任务量,由公式(6)可知,其与Xn有关,Xn为第n个用户设备的切片任务向量,
也就是说,基于上述的计算拆分模型,本发明参考了瞬时负荷计费方案,并设计了一种公平的计费方案来激励用户设备UE将其高峰时间执行计算转移到非高峰时间;计费机制在策略设计中非常重要,因为它会影响玩家参与博弈的动机;在该方案中,假设将某个时间片的执行计算价格设置为该时间片中总需求的递增和平滑函数;具体而言,第h(h∈H)个时间片的执行计算价格函数为:价格函数可以有效地说服UE将其峰值时间处理计算转移到非高峰时间,因为递增和凸出的价格函数可以确保执行的计算价格随着聚合处理需求的增长而更快地增加。因此,考虑的执行计算价格模型将通过使总体处理计算需求曲线平坦化而提高MEC服务器的效率;然后,若用户设备要在某一时间片执行切片任务,则根据每个时间片中MEC服务器执行的计算量,根据价格函数中的价格向UE收费,每个UE的总卸载计算成本是每个时间片中执行计算成本之和,由下式给出:
S4:为各用户设备根据总成本模型Bn(Xn,x∑)构建如下目标函数:
其中,为云端任务的任务量,Sh为第h个时间片中MEC服务器可处理任务量的上限,由MEC服务器的并行计算能力确定,N为用户设备的总数,IIi≠n为指标函数,其中,如果其下标条件满足,即i≠n,则IIi≠n=1,如果其下标条件不满足,即i=n,则IIi≠n=0;
由此可知,对于任意一个用户设备,均需要选择一个最优策略以最小化其成本,而每个用户设备的策略Xn的取值范围是Kn,即用户设备UE的策略必须使得各个时间片中MEC服务器待执行的切片任务的任务量不大于MEC服务器可处理任务量的上限Sh。
优化问题与所有UE的聚合计算耦合在一起。根据聚合博弈论,可以通过以下纳什均衡问题对执行执行调度场景进行建模:
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x∑;
其中,切片任务向量估计值的计算公式如下:
其中,wii(k)是当前用户设备i为其自身设置的非负权重,wij(k)是当前用户设备i为其直接邻居用户设备j设置的非负权重,Ni为当前用户设备i的直接邻居的数量,k为迭代的次数,为第k次迭代时当前用户设备i的切片任务量向量,为第k次迭代时用户设备j的切片任务量向量,为第k次迭代时当前用户设备i对应的切片任务向量估计值,且当k=0时,与分别为当前用户设备i与用户设备j的在步骤S2中得到的切片任务量向量。
其中,1是一个N×1向量,其元素都等于1。
可选的,在当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大;此外,将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x∑。
S52:将步骤S51得到的总任务量向量x∑代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量。
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量。
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
需要说明的是,由于最优问题与所有UE的聚合计算结合在一起,因此在UE更新其各自的UE之后,无需获取所有UE的最新策略,只需要获取汇总的执行计算配置文件的最新信息x∑。然而,由于没有中央单元来向UE提供正确的x∑,所以UE可以通过与它们的直接邻居交换信息来估计x∑。具体地,将UE的第i个的直接邻居表示为Ni。对于这些设置,本发明开发了一种信息有限的分布式算法,通过该算法,UE可以实现博弈G的NE。
算法基于一个假设:UE的连接拓扑是无向静态图,这样的假设是可行的。例如,可以利用蜂窝网络的资源来建立虚拟专用网络,这样UE的无向静态连接是可行的,进而将图中连接的UE定义为直接邻居。
基于现有协议的启发,本发明提出了一种邻居通信模型来模拟UE的通信和x∑估计值的交换,在此模型中,假设拥有全局时钟,在每一个时间片中,UE可以根据泊松分布唤醒;当UE唤醒时,它会与其直接邻居联系,使用Zk表示总时间片为[Z0,ZN)的全局时钟的第k个时间;然后离散化全局时钟,以便瞬时k对应于时间片[Zk-1,Zk),在时间Zk,假设第i个醒来并从所有邻居j∈Ni接收估计的
其中,为当前用户设备i在下一次迭代所需的切片任务向量更新值,为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且 为在集合Ki上的欧几里得投影,Ki为切片任务向量的取值范围,定义为:
其中,为对切片任务向量求偏导,为当前用户设备i对应的总成本模型,k表示第i个UE一直执行到时间k的更新次数,是当前用户设备i在第k次迭代使用的总任务量向量估计,而不是用户设备决策的真实估计根据现有技术可知,在稳定的条件下,用户设备的权重W(k)(即W(k)∈S)并逐步确定αk,i,迭代矩阵xk可以收敛到NE点x*。
由此可见,本发明为了使总延迟Tn最小,每个UE根据其确定卸载策略然后,为了提高处理效率,服务器通过瞬时负载计费方案使每个UE进一步将其卸载的子任务划分为H个计算。结果,UE以聚合博弈理论方法最小化其卸载计算成本。具体地,UE根据泊松分布唤醒,如果用户设备i在第k个时间,即第k次迭代醒来,它将与附近的邻居联系,然后通过等式(11)获得汇总计算配置文件x∑的估计值(即)。最后,苏醒的UE根据等式(13)更新其迭代和估计,直到xk的方差稳定为止。
因此,本发明的主要贡献在于:(1)设计了一个两阶段的计算卸载方案。在第一阶段,为了最小化总任务处理延迟并释放本地计算负担,UE可以确定其卸载计算和本地计算。然后在第二阶段,使用聚合博弈安排卸载计算的处理顺序,以提高服务器的能源效率。(2)提出了一种新颖的聚合博弈理论框架,以使UE自愿分担任务。本发明采用瞬时负载计费方案来激励UE将其高峰时间执行计算转移到非高峰时间。(3)通过有限的邻居决策信息和几次迭代,即可实现最佳的计算分流策略。(4)仿真结果证明了本发明的方案在最大程度地减少每个UE的任务处理延迟和提高服务器的处理效率方面的优势。
下面从多个方面评价本发明提供的用于卸载计算的基于聚合博弈的调度机制(称为AGG)的性能。
首先讨论比较基准,从最近的现有技术中选择以下代表性的任务分配方案作为基准:
现有技术一:基于拥塞游戏的边缘计算任务分配(COG):一种基于拥塞游戏的边缘计算任务分配方案,其中通过UE之间的信息共享将所有UE的总成本降至最低。
现有技术二:集中式基于服务器的分配(CSA):一种集中式任务分配方案,其中每个UE将其所有计算任务发送到服务器。
如图3所示,在AGG,COG和CSA下评估每个UE的传输延迟,本地处理延迟和总任务处理延迟(即和Tn)。注意,由于每个UE将其所有计算任务发送到服务器,因此CSA中没有本地处理延迟。由此可见,与CSA相比,AGG可以显着减少60%以上的所有延迟,这表明计算分流可以减少任务处理延迟并加速UE的服务响应。同时,从图3可以观察到,AGG的和Tn与COG几乎相同。这是因为在AGG和COG中使用了相同的任务卸载策略以实现最小的总任务处理延迟。此外,从图3还可以观察到,在AGG和COG中,延迟随着一个CPU周期中本地计算能力的增加而减小,这是由于具有较高计算能力的UE可以在较短的持续时间内处理更多的任务,这有助于减轻服务器的负担。
接着,本发明对在AGG,COG和CSA下每个UE的总卸载计算成本Bn进行对比,如图4所示,与在H个时间片之间随机分配卸载任务的CSA相比,AGG可以将每个UE的Bn显著降低近90%。有两个原因可以解释:首先,在CSA中,UE将所有任务都分担给服务器,这会导致服务器工作量繁重且执行成本较高。其次,在CSA中,时隙之间的任务分配是随机的,这可能导致某些时隙中的执行成本极高。同时,图4显示,AGG和COG下的Bn几乎相同。实际上,由于COG可以通过UE之间的信息共享来实现所有UE的最小总成本,因此可以被认为是最优策略。但是,AGG可以在信息不完整且迭代次数有限的情况下,实现所有UE的最小总成本。因此,AGG在功能上等效,但需要的信息较少,因此AGG更实用。另外,我们注意到在一个CPU周期中具有较高本地计算能力的UE在AGG和COG中具有较少的Bn。这是因为具有较高的UE的任务较少,因此它们可以为服务器中的执行支付较少的费用。但是,在CSA中,由于没有本地执行的任务,因此与Bn没有关系。
下面对AGG的迭代收敛过程进行评估。假设有N个UE具有相同的如图5所示,该图显示了平均卸载计算成本如何随着N的增长而变化,可以观察到,当N较小时,AGG具有快速收敛性能。当N变大时,该算法几乎可以在30次迭代中实现收敛。另外,本发明发现平均卸载计算成本随着N的增加而增加。这是因为服务器的工作量随N的增加而增加,并且每个时间片工作量的价值也随之增加。
在图4中,设置5个UE组,在每个组中,有6个具有相同的UE。该图表明,随着迭代次数的增加,平均卸载计算成本在开始时迅速降低,然后在20次迭代后保持稳定。它进一步证明了AGG具有快速的收敛性能。另外,当保持平稳时,随着的增加而减小。这意味着,当大时,UE可以在本地处理更多任务,然后减少分担给服务器的工作量。
下面评估系统参数对最佳调度策略的影响。在图7中,给出了UE的数量N与平均卸载计算成本之间的关系,以及时间片数量H与之间的关系。由图7可以观察到,随着N的增加而线性增加。同时,当H小时,斜率比H大时的斜率大。此外,在H小时迅速下降,而在H大时缓慢下降。图8中,给出了价格参数ah,bh和平均卸载计算成本之间的关系,可以观察到,随着ah或bh的增加而线性增加。在图7中,设置了5个具有不同的卸载计算qn的UE,并且研究了卸载计算差异和时间片H的数量对每个UE卸载计算成本的影响。从图7中可以发现,qn较小的UE成本较低;同时,当qn相同时,H较小的UE与H较大的UE相比要付出更多。因为当H大时,分配给相同时间片的任务不会太多,这降低了每个时间片的价格。在图10中,设置了5个具有不同的卸载计算qn的UE,并且研究了本地计算能力差异和时间片H的数量对每个UE的卸载计算成本的影响,同时,从中发现本地计算能力更强的UE成本更低。此外,当相同时,H较小的UE与H较大的UE相比要付出更多,这与图9的分析一致。
由此可见,本发明设计了一个两阶段的计算卸载方案来释放UE的计算负担。在第一阶段,每个UE通过确定要卸载到服务器的工作量来达到最小的任务处理延迟。在第二阶段,为了提高服务器的处理效率,使用聚合博弈来激励将其子任务卸载到服务器的UE,以将其高峰时间执行计算转移到非高峰时间。此外,为了获得聚合博弈的纳什均衡,提出了一种分布式算法,其中UE与直接邻居进行通信,以估计每次迭代的聚合执行计算配置文件。本发明的算法既实用又快速收敛,实验结果表明,本发明所实现的最优的卸载策略,最大程度地减少了每个UE的任务处理时延,同时提高了服务器的处理效率。
当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当然可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (6)
1.一种具有计费机制的任务卸载方法,其特征在于,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示;
S2:各用户设备分别将自己的云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片;
S3:为各用户设备构建总成本模型Bn(Xn,X∑)如下:
其中,Ph为第h个时间片的价格,h=1,2,…,H,ah与bh为第h个时间片的设定参数,为第n个用户设备在第h个时间片待执行的切片任务的任务量,Xn为第n个用户设备的切片任务向量, 为MEC服务器在第h个时间片待执行的切片任务的总任务量,X∑为任务处理时间内待执行的切片任务的总任务量向量,T为转置;
S4:为各用户设备根据总成本模型Bn(Xn,X∑)构建如下目标函数:
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x∑;
S52:将步骤S51得到的总任务量向量x∑代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量;
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量;
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
4.如权利要求3所述的一种具有计费机制的任务卸载方法,其特征在于,步骤S54中按照设定更新规则更新当前用户设备对应的切片任务向量估计值的方法为:
其中,为当前用户设备i在下一次迭代所需的切片任务向量更新值,为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且 为在集合Ki上的欧几里得投影,Ki为切片任务向量的取值范围,定义为:
5.如权利要求3所述的一种具有计费机制的任务卸载方法,其特征在于,当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大。
6.如权利要求1所述的一种具有计费机制的任务卸载方法,其特征在于,根据切片任务向量估计值获取总任务量向量x∑的方法为:
将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x∑。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010379869.7A CN111708620B (zh) | 2020-05-08 | 2020-05-08 | 一种具有计费机制的任务卸载方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010379869.7A CN111708620B (zh) | 2020-05-08 | 2020-05-08 | 一种具有计费机制的任务卸载方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111708620A CN111708620A (zh) | 2020-09-25 |
CN111708620B true CN111708620B (zh) | 2023-04-25 |
Family
ID=72536690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010379869.7A Active CN111708620B (zh) | 2020-05-08 | 2020-05-08 | 一种具有计费机制的任务卸载方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111708620B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114780163A (zh) * | 2021-01-05 | 2022-07-22 | 中国移动通信有限公司研究院 | 一种任务处理方法、装置和电子设备 |
CN113596106B (zh) * | 2021-07-07 | 2023-06-06 | 北京信息科技大学 | 基于多边缘服务器协作的时延敏感型切片资源调度方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107249218A (zh) * | 2017-06-05 | 2017-10-13 | 东南大学 | 一种mec中无线资源和云资源的联合分配方法 |
CN107819840A (zh) * | 2017-10-31 | 2018-03-20 | 北京邮电大学 | 超密集网络架构中分布式移动边缘计算卸载方法 |
CN107820278A (zh) * | 2017-11-28 | 2018-03-20 | 重庆邮电大学 | 蜂窝网络时延与成本均衡的任务卸载方法 |
CN108541027A (zh) * | 2018-04-24 | 2018-09-14 | 南京邮电大学 | 一种基于边缘云网络的通信计算资源置换方法 |
CN109922479A (zh) * | 2019-01-11 | 2019-06-21 | 西安电子科技大学 | 一种基于时延预估的计算任务卸载方法 |
CN109947545A (zh) * | 2019-03-11 | 2019-06-28 | 重庆邮电大学 | 一种基于用户移动性的任务卸载及迁移的决策方法 |
CN109951897A (zh) * | 2019-03-08 | 2019-06-28 | 东华大学 | 一种能耗与延迟约束下的mec卸载方法 |
CN110048992A (zh) * | 2018-01-17 | 2019-07-23 | 北京中科晶上超媒体信息技术有限公司 | 一种构建动态异构冗余架构的方法 |
CN110287034A (zh) * | 2019-07-04 | 2019-09-27 | 重庆大学 | 一种可充电移动边缘计算中能量-延迟平衡的动态任务分配方法 |
CN114697333A (zh) * | 2022-03-22 | 2022-07-01 | 重庆邮电大学 | 一种能量队列均衡的边缘计算方法 |
-
2020
- 2020-05-08 CN CN202010379869.7A patent/CN111708620B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107249218A (zh) * | 2017-06-05 | 2017-10-13 | 东南大学 | 一种mec中无线资源和云资源的联合分配方法 |
CN107819840A (zh) * | 2017-10-31 | 2018-03-20 | 北京邮电大学 | 超密集网络架构中分布式移动边缘计算卸载方法 |
CN107820278A (zh) * | 2017-11-28 | 2018-03-20 | 重庆邮电大学 | 蜂窝网络时延与成本均衡的任务卸载方法 |
CN110048992A (zh) * | 2018-01-17 | 2019-07-23 | 北京中科晶上超媒体信息技术有限公司 | 一种构建动态异构冗余架构的方法 |
CN108541027A (zh) * | 2018-04-24 | 2018-09-14 | 南京邮电大学 | 一种基于边缘云网络的通信计算资源置换方法 |
CN109922479A (zh) * | 2019-01-11 | 2019-06-21 | 西安电子科技大学 | 一种基于时延预估的计算任务卸载方法 |
CN109951897A (zh) * | 2019-03-08 | 2019-06-28 | 东华大学 | 一种能耗与延迟约束下的mec卸载方法 |
CN109947545A (zh) * | 2019-03-11 | 2019-06-28 | 重庆邮电大学 | 一种基于用户移动性的任务卸载及迁移的决策方法 |
CN110287034A (zh) * | 2019-07-04 | 2019-09-27 | 重庆大学 | 一种可充电移动边缘计算中能量-延迟平衡的动态任务分配方法 |
CN114697333A (zh) * | 2022-03-22 | 2022-07-01 | 重庆邮电大学 | 一种能量队列均衡的边缘计算方法 |
Non-Patent Citations (3)
Title |
---|
ad hoc云环境中分布式博弈卸载策略;曹傧等;《通信学报》(第11期);第24-34页 * |
基于边-端协同的任务卸载资源分配联合优化算法;吴柳青等;《电信科学》(第03期);第42-52页 * |
移动边缘计算中计算卸载与资源分配的联合优化策略;龙隆等;《高技术通讯》;第30卷(第8期);第765-773页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111708620A (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Eshraghi et al. | Joint offloading decision and resource allocation with uncertain task computing requirement | |
CN112286677B (zh) | 一种面向资源受限边缘云的物联网应用优化部署方法 | |
Li et al. | Deep reinforcement learning based computation offloading and resource allocation for MEC | |
CN110275758B (zh) | 一种虚拟网络功能智能迁移方法 | |
CN113810233B (zh) | 一种在随机网络中基于算网协同的分布式计算卸载方法 | |
CN108920280A (zh) | 一种单用户场景下的移动边缘计算任务卸载方法 | |
CN108415763B (zh) | 一种边缘计算系统的分配方法 | |
CN110971706A (zh) | Mec中近似最优化与基于强化学习的任务卸载方法 | |
CN111708620B (zh) | 一种具有计费机制的任务卸载方法 | |
CN113342409B (zh) | 多接入边缘计算系统时延敏感型任务卸载决策方法及系统 | |
Zhu et al. | Computing offloading strategy using improved genetic algorithm in mobile edge computing system | |
Long et al. | An efficient task offloading approach based on multi-objective evolutionary algorithm in cloud-edge collaborative environment | |
CN113590279B (zh) | 一种面向多核边缘计算服务器的任务调度和资源分配方法 | |
KR20230007941A (ko) | 에지 컴퓨팅 기반 산업용 사물 인터넷 환경에서 강화학습을 활용한 태스크 오프로딩 방법 | |
Chen et al. | Green parallel online offloading for DSCI-type tasks in IoT-edge systems | |
Gao et al. | Com-DDPG: A multiagent reinforcement learning-based offloading strategy for mobile edge computing | |
CN116209084A (zh) | 一种能量收集mec系统中任务卸载和资源分配方法 | |
CN113821346B (zh) | 基于深度强化学习的边缘计算中计算卸载与资源管理方法 | |
Ma et al. | A cyclic game for joint cooperation and competition of edge resource allocation | |
Yang et al. | Multi-objective deep reinforcement learning for mobile edge computing | |
CN114615705B (zh) | 一种基于5g网络下单用户资源分配策略方法 | |
CN113342529B (zh) | 基于强化学习的无小区大规模多天线架构下移动边缘计算卸载方法 | |
Xiao et al. | Task offloading and resources allocation based on fairness in edge computing | |
Ren et al. | A reinforcement learning approach to optimize energy usage in RF-Charging sensor networks | |
Li et al. | Real-time optimal resource allocation in multiuser mobile edge computing in digital twin applications with deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |