CN111708620B - 一种具有计费机制的任务卸载方法 - Google Patents

一种具有计费机制的任务卸载方法 Download PDF

Info

Publication number
CN111708620B
CN111708620B CN202010379869.7A CN202010379869A CN111708620B CN 111708620 B CN111708620 B CN 111708620B CN 202010379869 A CN202010379869 A CN 202010379869A CN 111708620 B CN111708620 B CN 111708620B
Authority
CN
China
Prior art keywords
task
user equipment
slice
vector
tasks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010379869.7A
Other languages
English (en)
Other versions
CN111708620A (zh
Inventor
高明晋
沈茹婧
孙昊
周一青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Jingshang Hypermedia Information Technology Co ltd
Original Assignee
Beijing Zhongke Jingshang Hypermedia Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Jingshang Hypermedia Information Technology Co ltd filed Critical Beijing Zhongke Jingshang Hypermedia Information Technology Co ltd
Priority to CN202010379869.7A priority Critical patent/CN111708620B/zh
Publication of CN111708620A publication Critical patent/CN111708620A/zh
Application granted granted Critical
Publication of CN111708620B publication Critical patent/CN111708620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/042Backward inferencing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种具有计费机制的任务卸载方法,首先,为了最小化总任务处理延迟并释放本地计算负担,用户设备首先将其子任务划分为本地任务和云端任务;其次,为了避免MEC服务器上卸载任务的拥塞,构建总成本模型,提出了瞬时负荷计费机制,根据MEC服务器每个时间片的瞬时负荷向用户设备收费,若某一时间片扎堆执行的切片任务越多,其价格越高;也就是说,本发明通过向高峰时间卸载任务的用户设备收取更多费用,以此激励用户设备将切片任务由高峰时间片转移到非高峰时间片执行;最后,采用博弈论来获得最佳的任务分流策略,从而能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。

Description

一种具有计费机制的任务卸载方法
技术领域
本发明属于无线虚拟导轨领域,尤其涉及一种具有计费机制的任务卸载方法。
背景技术
无处不在的移动设备提供越来越多的移动服务,例如面部识别或自然语言处理。尽管这些服务有助于建立高度连接的社会,但它们要求移动设备具有强大的计算能力。然而,当前的移动设备具有有限的计算能力和高能耗,这不能赶上对移动服务的日益高的需求。为了提高移动设备的计算能力,提出了移动边缘计算。通过计算分流,移动边缘计算可以将任务从移动设备分流到边缘服务器或其他设备。计算分流可以显着减轻移动设备的计算负担并扩展其计算能力,这为实现复杂服务的计算提供了可能性。
作为一个受欢迎的研究点,已经进行了许多研究以减轻负荷,以减少工艺延迟和能耗。S.Guo等人提供了一种动态卸载和资源调度策略,以在应用程序完成时间的严格约束下实现节能计算卸载。他们还提出了一种分布式算法,该算法由计算卸载选择,时钟频率控制和传输功率分配三个子算法组成,以获得最佳策略。L.Liu等人为了平衡计算卸载过程中的能耗和延迟性能,还利用排队论来研究能耗,执行延迟和移动设备卸载过程的支付成本;最后基于理论分析,制定了一个具有联合目标的多目标优化问题,以通过找到每个移动设备的最佳卸载概率和发射功率来最小化能耗,执行延迟和支付成本。H.Chen利用采用瞬时负荷计费方案来研究实际的需求侧管理方案,在这种方案中,有的的消费者通过安排未来的能源消耗状况,竞争以最小化其个人能源成本。近来,聚合博弈已被用来设计无线通信中的最佳策略。在聚合博弈中,每个玩家都旨在通过行动计划来最大程度地降低其成本。聚合博弈的特征在于其优化问题与所有玩家的聚合动作结合在一起。P.Zhou采用聚合博弈对大型,异构和动态网络中的频谱共享进行建模。同时,他们利用过去的信道访问经验,提出了一种在线学习算法,以提高每个用户的效用。但是,上述工作通常通过耗时的迭代或借助完整的信息来达到博弈的纳什均衡。因此,如何利用有限的信息来加速迭代过程是一个挑战。
发明内容
为解决上述问题,本发明提供一种具有计费机制的任务卸载方法,将计算分流过程设计为具有瞬时负荷计费方案的聚合博弈,能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。
一种具有计费机制的任务卸载方法,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示;
S2:各用户设备分别将自己的云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片;
S3:为各用户设备构建总成本模型Bn(Xn,X)如下:
Figure BDA0002481567400000021
Figure BDA0002481567400000031
Figure BDA0002481567400000032
其中,Ph为第h个时间片的价格,h=1,2,…,H,ah与bh为第h个时间片的设定参数,
Figure BDA0002481567400000033
为第n个用户设备在第h个时间片待执行的切片任务的任务量,Xn为第n个用户设备的切片任务向量,
Figure BDA0002481567400000034
Figure BDA0002481567400000035
为MEC服务器在第h个时间片待执行的切片任务的总任务量,X为任务处理时间内待执行的切片任务的总任务量向量,
Figure BDA0002481567400000036
T为转置;
S4:为各用户设备根据总成本模型Bn(Xn,X)构建如下目标函数:
Figure BDA0002481567400000037
Figure BDA0002481567400000038
其中,
Figure BDA0002481567400000039
为云端任务的任务量,Sh为第h个时间片中MEC服务器可处理任务量的上限,N为用户设备的总数,IIi≠n为指标函数,其中,如果i≠n,则IIi≠n=1,如果i=n,则IIi≠n=0;
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x
S52:将步骤S51得到的总任务量向量x代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量;
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量;
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
进一步地,所述本地任务和云端任务的任务量的计算方法为:
Figure BDA0002481567400000041
其中,
Figure BDA0002481567400000042
为本地任务的任务量,
Figure BDA0002481567400000043
为云端任务的任务量,
Figure BDA0002481567400000044
为用户设备的计算能力,qn为子任务的总任务量,Tp为云端任务的处理时间,rn为云端任务上传到MEC服务器的速率,cn为每处理一单位任务量所需要的CPU周期数量。
进一步地,所述切片任务向量估计值的计算公式如下:
Figure BDA0002481567400000045
其中,wii(k)是当前用户设备i为其自身设置的非负权重,wij(k)是当前用户设备i为其直接邻居用户设备j设置的非负权重,Ni为当前用户设备i的直接邻居的数量,k为迭代的次数,
Figure BDA0002481567400000046
为第k次迭代时当前用户设备i的切片任务量向量,
Figure BDA0002481567400000051
为第k次迭代时用户设备j的切片任务量向量,
Figure BDA0002481567400000052
为第k次迭代时当前用户设备i对应的切片任务向量估计值,且当k=0时,
Figure BDA0002481567400000053
Figure BDA0002481567400000054
分别为当前用户设备i与用户设备j的在步骤S2中得到的切片任务量向量。
进一步地,步骤S54中按照设定更新规则更新当前用户设备对应的切片任务向量估计值的方法为:
S54a:获取当前用户设备i在下一次迭代中计算切片任务向量估计值所需的切片任务量向量
Figure BDA0002481567400000055
Figure BDA0002481567400000056
Figure BDA0002481567400000057
其中,
Figure BDA0002481567400000058
为当前用户设备i在下一次迭代所需的切片任务向量更新值,
Figure BDA0002481567400000059
为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且
Figure BDA00024815674000000510
Figure BDA00024815674000000511
为在集合Ki上的欧几里得投影,Ki为切片任务向量
Figure BDA00024815674000000512
的取值范围,
Figure BDA00024815674000000513
定义为:
Figure BDA00024815674000000514
其中,
Figure BDA00024815674000000515
为对切片任务向量
Figure BDA00024815674000000516
求偏导,
Figure BDA00024815674000000517
为当前用户设备i对应的总成本模型;
S54b:将切片任务量向量
Figure BDA00024815674000000518
将代入公式(10),得到当前用户设备i在下一次迭代中对应的切片任务向量估计值
Figure BDA00024815674000000519
进一步地,当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大。
进一步地,根据切片任务向量估计值获取总任务量向量x的方法为:
将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x∑。
有益效果:
本发明提供一种具有计费机制的任务卸载方法,首先,为了最小化总任务处理延迟并释放本地计算负担,用户设备首先将其子任务划分为本地任务和云端任务;其次,为了避免MEC服务器上卸载任务的拥塞,构建总成本模型,提出了瞬时负荷计费机制,根据MEC服务器每个时间片的瞬时负荷向用户设备收费,若某一时间片扎堆执行的切片任务越多,其价格越高;也就是说,本发明通过向高峰时间卸载任务的用户设备收取更多费用,以此激励用户设备将切片任务由高峰时间片转移到非高峰时间片执行;最后,采用博弈论来获得最佳的任务分流策略,从而能够在最大程度地减少每个用户设备的任务处理延迟和提高MEC服务器的处理效率。
附图说明
图1为本发明提供的一种具有计费机制的任务卸载方法的流程图;
图2为本发明提供的总处理时间示意图;
图3为本发明提供的每个UE的传输或处理延迟示意图;
图4为本发明提供的每个UE的卸载计算成本示意图;
图5为本发明提供的每个UE的平均卸载计算成本示意图;
图6为本发明提供的每个UE的平均卸载计算成本示意图;
图7为本发明提供的每个UE的平均卸载计算成本示意图;
图8为本发明提供的每个UE的平均卸载计算成本示意图;
图9为本发明提供的每个UE的卸载计算成本示意图;
图10为本发明提供的每个UE的卸载计算成本示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本发明主要使用聚合博弈研究了多个用户设备(UE)与一台MEC服务器之间的计算分流问题。由于将从多个UE卸载的任务将由一台MEC服务器执行,因此有必要适当地安排任务处理顺序以提高服务器的效率。因此,本发明设计了一种瞬时负载计费方案,以激励UE将其高峰时间执行计算转移到非高峰时间;然后,采用具有有限邻居决策信息的聚合博弈来获得最优的计算卸载策略。
如图1所示,一种具有计费机制的任务卸载方法,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示。
假设有N个用户设备UE,一个MEC服务器,UE的集合N={1,2,3,……,N},存在一种通信方案,直接连接的UE可以低成本相互通信。每个UE的每个任务都可以分为多个子任务。
在第一个阶段,通过将一些子任务卸载到MEC服务器,UE就可以节省处理时间并释放其本地计算负担;本发明把子任务总大小表示为qn,在本地计算的任务大小为
Figure BDA0002481567400000071
从UE卸载到MEC服务器的任务大小为
Figure BDA0002481567400000072
且有
Figure BDA0002481567400000073
对于每个UE,它将确定其任务卸载策略
Figure BDA0002481567400000074
以最小化其总任务处理时间,该总处理时间由Tn表示。
其中,UE在处理本地任务所需要的时间为本地延迟时间
Figure BDA0002481567400000075
计算方法为:本地计算延迟=任务执行所需的总CPU周期数/该设备的计算能力,用公式表示如下:
Figure BDA0002481567400000081
其中,cn为每处理一单位任务量所需要的CPU周期数量,
Figure BDA0002481567400000082
为用户设备的计算能力;
UE将云端任务卸载到MEC服务器所花费的时间为传输延迟
Figure BDA0002481567400000083
具体的,传输延迟的计算方法为:传输延迟=任务传输的大小/任务上传速率,用公式表示如下:
Figure BDA0002481567400000084
其中,rn为云端任务上传到MEC服务器的速率。
如图2所示,云端任务的处理时间为传输延迟
Figure BDA0002481567400000085
与云端任务处理时间Tp的总和,本地任务的处理时间为本地延迟时间
Figure BDA0002481567400000086
则该子任务的总处理时间即为云端任务的处理时间与本地任务的处理时间之间的较大值。
进而,得到本地任务和云端任务的任务量的计算方法如下:
Figure BDA0002481567400000087
其中,
Figure BDA0002481567400000088
为本地任务的任务量,
Figure BDA0002481567400000089
为云端任务的任务量,
Figure BDA00024815674000000810
为用户设备的计算能力,qn为子任务的总任务量,Tp为云端任务的处理时间,rn为云端任务上传到MEC服务器的速率,cn为每处理一单位任务量所需要的CPU周期数量。
S2:各用户设备分别将自己的将云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片。
在第二阶段中,为了在云端任务的处理时间Tp内有效地处理这些卸载子任务,提出了一个任务拆分模型,以提供一种安排卸载任务以适当顺序进行处理的可能性;如图2所示,云端任务被划分为H个切片任务,
Figure BDA0002481567400000091
H={1,2,3,……,H},各切片任务的任务量不全为0,指的是虽然云端任务均被划分为H个切片任务,但某些切片任务的任务量为0,则对应时间片被分配到的任务量也为0;也就是说,如果某个时间片的价格过高,用户设备UE将不选取该时间片来执行云端任务,则该时间片对应的切片任务
Figure BDA0002481567400000092
的任务量为0。
S3:为各用户设备构建总成本模型Bn(Xn,X)如下:
Figure BDA0002481567400000093
Figure BDA0002481567400000094
Figure BDA0002481567400000095
其中,Ph为第h个时间片的价格,由公式(5)可知,其与X有关,X为任务处理时间内待执行的切片任务的总任务量向量,
Figure BDA0002481567400000096
T为转置,
Figure BDA0002481567400000097
为MEC服务器在第h个时间片待执行的切片任务的总任务量,h=1,2,…,H,ah与bh为第h个时间片的设定参数,其中,ah决定价格的线性变化程度,bh决定价格的指数变化程度,
Figure BDA0002481567400000098
为第n个用户设备在第h个时间片待执行的切片任务的任务量,由公式(6)可知,其与Xn有关,Xn为第n个用户设备的切片任务向量,
Figure BDA0002481567400000099
也就是说,基于上述的计算拆分模型,本发明参考了瞬时负荷计费方案,并设计了一种公平的计费方案来激励用户设备UE将其高峰时间执行计算转移到非高峰时间;计费机制在策略设计中非常重要,因为它会影响玩家参与博弈的动机;在该方案中,假设将某个时间片的执行计算价格设置为该时间片中总需求的递增和平滑函数;具体而言,第h(h∈H)个时间片的执行计算价格函数为:
Figure BDA0002481567400000101
价格函数可以有效地说服UE将其峰值时间处理计算转移到非高峰时间,因为递增和凸出的价格函数可以确保执行的计算价格随着聚合处理需求的增长而更快地增加。因此,考虑的执行计算价格模型将通过使总体处理计算需求曲线平坦化而提高MEC服务器的效率;然后,若用户设备要在某一时间片执行切片任务,则根据每个时间片中MEC服务器执行的计算量,根据价格函数中的价格向UE收费,每个UE的总卸载计算成本是每个时间片中执行计算成本之和,由下式给出:
Figure BDA0002481567400000102
S4:为各用户设备根据总成本模型Bn(Xn,x)构建如下目标函数:
Figure BDA0002481567400000103
Figure BDA0002481567400000104
其中,
Figure BDA0002481567400000105
为云端任务的任务量,Sh为第h个时间片中MEC服务器可处理任务量的上限,由MEC服务器的并行计算能力确定,N为用户设备的总数,IIi≠n为指标函数,其中,如果其下标条件满足,即i≠n,则IIi≠n=1,如果其下标条件不满足,即i=n,则IIi≠n=0;
需要说明的是,上述优化问题为基于所有UE都是自私的假设,这意味着第n个用户设备
Figure BDA0002481567400000116
旨在通过确定自己的执行计算配置文件xn来最小化其总卸载计算成本Bn(Xn,X),从数学上讲,这将涉及解决优化问题如下:
Figure BDA0002481567400000111
由此可知,对于任意一个用户设备,均需要选择一个最优策略以最小化其成本,而每个用户设备的策略Xn的取值范围是Kn,即用户设备UE的策略必须使得各个时间片中MEC服务器待执行的切片任务的任务量不大于MEC服务器可处理任务量的上限Sh
优化问题与所有UE的聚合计算耦合在一起。根据聚合博弈论,可以通过以下纳什均衡问题对执行执行调度场景进行建模:
Figure BDA0002481567400000112
其中N是玩家,即用户设备UE的集合,Kn是第n个玩家,即第n个用户设备UE的策略的集合,总卸载计算成本Bn(xn,x)是要由玩家n最小化的成本函数,解决这一问题等价方式是找到G的
Figure BDA0002481567400000113
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x
其中,切片任务向量估计值的计算公式如下:
Figure BDA0002481567400000114
其中,wii(k)是当前用户设备i为其自身设置的非负权重,wij(k)是当前用户设备i为其直接邻居用户设备j设置的非负权重,
Figure BDA0002481567400000115
Ni为当前用户设备i的直接邻居的数量,k为迭代的次数,
Figure BDA0002481567400000121
为第k次迭代时当前用户设备i的切片任务量向量,
Figure BDA0002481567400000122
为第k次迭代时用户设备j的切片任务量向量,
Figure BDA0002481567400000123
为第k次迭代时当前用户设备i对应的切片任务向量估计值,且当k=0时,
Figure BDA0002481567400000124
Figure BDA0002481567400000125
分别为当前用户设备i与用户设备j的在步骤S2中得到的切片任务量向量。
通过指定wij(k)=wji(k)=0,
Figure BDA0002481567400000126
j≠i,将上式重写为:
Figure BDA0002481567400000127
其中,
Figure BDA0002481567400000128
是初始的随机UE决策,基于上式,得出权重矩阵W(k)如下:
Figure BDA0002481567400000129
其中,1是一个N×1向量,其元素都等于1。
可选的,在当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大;此外,将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x
S52:将步骤S51得到的总任务量向量x代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量。
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量。
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
需要说明的是,由于最优问题与所有UE的聚合计算结合在一起,因此在UE更新其各自的UE之后,无需获取所有UE的最新策略,只需要获取汇总的执行计算配置文件的最新信息x。然而,由于没有中央单元来向UE提供正确的x,所以UE可以通过与它们的直接邻居交换信息来估计x。具体地,将UE的第i个的直接邻居表示为Ni。对于这些设置,本发明开发了一种信息有限的分布式算法,通过该算法,UE可以实现博弈G的NE。
算法基于一个假设:UE的连接拓扑是无向静态图,这样的假设是可行的。例如,可以利用蜂窝网络的资源来建立虚拟专用网络,这样UE的无向静态连接是可行的,进而将图中连接的UE定义为直接邻居。
基于现有协议的启发,本发明提出了一种邻居通信模型来模拟UE的通信和x估计值的交换,在此模型中,假设拥有全局时钟,在每一个时间片中,UE可以根据泊松分布唤醒;当UE唤醒时,它会与其直接邻居联系,使用Zk表示总时间片为[Z0,ZN)的全局时钟的第k个时间;然后离散化全局时钟,以便瞬时k对应于时间片[Zk-1,Zk),在时间Zk,假设第i个
Figure BDA0002481567400000134
醒来并从所有邻居j∈Ni接收估计的
Figure BDA0002481567400000131
具体的,当前用户设备
Figure BDA0002481567400000135
拥有自己的迭代
Figure BDA0002481567400000132
和上次迭代中的平均估计
Figure BDA0002481567400000133
根步骤S54中按照设定更新规则更新当前用户设备对应的切片任务向量估计值的方法为:
S54a:获取当前用户设备i在下一次迭代中计算切片任务向量估计值所需的切片任务量向量
Figure BDA0002481567400000141
Figure BDA0002481567400000142
Figure BDA0002481567400000143
其中,
Figure BDA0002481567400000144
为当前用户设备i在下一次迭代所需的切片任务向量更新值,
Figure BDA0002481567400000145
为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且
Figure BDA0002481567400000146
Figure BDA0002481567400000147
为在集合Ki上的欧几里得投影,Ki为切片任务向量
Figure BDA0002481567400000148
的取值范围,
Figure BDA0002481567400000149
定义为:
Figure BDA00024815674000001410
其中,
Figure BDA00024815674000001411
为对切片任务向量
Figure BDA00024815674000001412
求偏导,
Figure BDA00024815674000001413
为当前用户设备i对应的总成本模型,k表示第i个UE一直执行到时间k的更新次数,
Figure BDA00024815674000001414
是当前用户设备i在第k次迭代使用的总任务量向量估计,而不是用户设备决策的真实估计
Figure BDA00024815674000001415
根据现有技术可知,在稳定的条件下,用户设备的权重W(k)(即W(k)∈S)并逐步确定αk,i,迭代矩阵xk可以收敛到NE点x*。
S54b:将切片任务量向量
Figure BDA00024815674000001416
将代入公式(10),得到当前用户设备i在下一次迭代中对应的切片任务向量估计值
Figure BDA00024815674000001417
由此可见,本发明为了使总延迟Tn最小,每个UE根据其确定卸载策略
Figure BDA00024815674000001418
然后,为了提高处理效率,服务器通过瞬时负载计费方案使每个UE进一步将其卸载的子任务划分为H个计算。结果,UE以聚合博弈理论方法最小化其卸载计算成本。具体地,UE根据泊松分布唤醒,如果用户设备i在第k个时间,即第k次迭代醒来,它将与附近的邻居联系,然后通过等式(11)获得汇总计算配置文件x的估计值(即
Figure BDA00024815674000001419
)。最后,苏醒的UE根据等式(13)更新其迭代和估计,直到xk的方差稳定为止。
因此,本发明的主要贡献在于:(1)设计了一个两阶段的计算卸载方案。在第一阶段,为了最小化总任务处理延迟并释放本地计算负担,UE可以确定其卸载计算和本地计算。然后在第二阶段,使用聚合博弈安排卸载计算的处理顺序,以提高服务器的能源效率。(2)提出了一种新颖的聚合博弈理论框架,以使UE自愿分担任务。本发明采用瞬时负载计费方案来激励UE将其高峰时间执行计算转移到非高峰时间。(3)通过有限的邻居决策信息和几次迭代,即可实现最佳的计算分流策略。(4)仿真结果证明了本发明的方案在最大程度地减少每个UE的任务处理延迟和提高服务器的处理效率方面的优势。
下面从多个方面评价本发明提供的用于卸载计算的基于聚合博弈的调度机制(称为AGG)的性能。
首先讨论比较基准,从最近的现有技术中选择以下代表性的任务分配方案作为基准:
现有技术一:基于拥塞游戏的边缘计算任务分配(COG):一种基于拥塞游戏的边缘计算任务分配方案,其中通过UE之间的信息共享将所有UE的总成本降至最低。
现有技术二:集中式基于服务器的分配(CSA):一种集中式任务分配方案,其中每个UE将其所有计算任务发送到服务器。
如图3所示,在AGG,COG和CSA下评估每个UE的传输延迟,本地处理延迟和总任务处理延迟(即
Figure BDA0002481567400000151
和Tn)。注意,由于每个UE将其所有计算任务发送到服务器,因此CSA中没有本地处理延迟。由此可见,与CSA相比,AGG可以显着减少60%以上的所有延迟,这表明计算分流可以减少任务处理延迟并加速UE的服务响应。同时,从图3可以观察到,AGG的
Figure BDA0002481567400000161
和Tn与COG几乎相同。这是因为在AGG和COG中使用了相同的任务卸载策略以实现最小的总任务处理延迟。此外,从图3还可以观察到,在AGG和COG中,延迟随着一个CPU周期
Figure BDA0002481567400000162
中本地计算能力的增加而减小,这是由于具有较高计算能力的UE可以在较短的持续时间内处理更多的任务,这有助于减轻服务器的负担。
接着,本发明对在AGG,COG和CSA下每个UE的总卸载计算成本Bn进行对比,如图4所示,与在H个时间片之间随机分配卸载任务的CSA相比,AGG可以将每个UE的Bn显著降低近90%。有两个原因可以解释:首先,在CSA中,UE将所有任务都分担给服务器,这会导致服务器工作量繁重且执行成本较高。其次,在CSA中,时隙之间的任务分配是随机的,这可能导致某些时隙中的执行成本极高。同时,图4显示,AGG和COG下的Bn几乎相同。实际上,由于COG可以通过UE之间的信息共享来实现所有UE的最小总成本,因此可以被认为是最优策略。但是,AGG可以在信息不完整且迭代次数有限的情况下,实现所有UE的最小总成本。因此,AGG在功能上等效,但需要的信息较少,因此AGG更实用。另外,我们注意到在一个CPU周期
Figure BDA0002481567400000163
中具有较高本地计算能力的UE在AGG和COG中具有较少的Bn。这是因为具有较高
Figure BDA0002481567400000164
的UE的任务较少,因此它们可以为服务器中的执行支付较少的费用。但是,在CSA中,由于没有本地执行的任务,因此
Figure BDA0002481567400000165
与Bn没有关系。
下面对AGG的迭代收敛过程进行评估。假设有N个UE具有相同的
Figure BDA0002481567400000166
如图5所示,该图显示了平均卸载计算成本
Figure BDA0002481567400000167
如何随着N的增长而变化,可以观察到,当N较小时,AGG具有快速收敛性能。当N变大时,该算法几乎可以在30次迭代中实现收敛。另外,本发明发现平均卸载计算成本随着N的增加而增加。这是因为服务器的工作量随N的增加而增加,并且每个时间片工作量的价值也随之增加。
在图4中,设置5个UE组,在每个组中,有6个具有相同
Figure BDA0002481567400000171
的UE。该图表明,随着迭代次数的增加,平均卸载计算成本
Figure BDA0002481567400000172
在开始时迅速降低,然后在20次迭代后保持稳定。它进一步证明了AGG具有快速的收敛性能。另外,当
Figure BDA0002481567400000173
保持平稳时,
Figure BDA0002481567400000174
随着
Figure BDA0002481567400000175
的增加而减小。这意味着,当
Figure BDA0002481567400000176
大时,UE可以在本地处理更多任务,然后减少分担给服务器的工作量。
下面评估系统参数对最佳调度策略的影响。在图7中,给出了UE的数量N与平均卸载计算成本
Figure BDA0002481567400000177
之间的关系,以及时间片数量H与
Figure BDA0002481567400000178
之间的关系。由图7可以观察到,
Figure BDA0002481567400000179
随着N的增加而线性增加。同时,当H小时,斜率比H大时的斜率大。此外,
Figure BDA00024815674000001710
在H小时迅速下降,而在H大时缓慢下降。图8中,给出了价格参数ah,bh和平均卸载计算成本
Figure BDA00024815674000001711
之间的关系,可以观察到,
Figure BDA00024815674000001712
随着ah或bh的增加而线性增加。在图7中,设置了5个具有不同的卸载计算qn的UE,并且研究了卸载计算差异和时间片H的数量对每个UE卸载计算成本的影响。从图7中可以发现,qn较小的UE成本较低;同时,当qn相同时,H较小的UE与H较大的UE相比要付出更多。因为当H大时,分配给相同时间片的任务不会太多,这降低了每个时间片的价格。在图10中,设置了5个具有不同的卸载计算qn的UE,并且研究了本地计算能力差异和时间片H的数量对每个UE的卸载计算成本的影响,同时,从中发现本地计算能力更强的UE成本更低。此外,当
Figure BDA00024815674000001713
相同时,H较小的UE与H较大的UE相比要付出更多,这与图9的分析一致。
由此可见,本发明设计了一个两阶段的计算卸载方案来释放UE的计算负担。在第一阶段,每个UE通过确定要卸载到服务器的工作量来达到最小的任务处理延迟。在第二阶段,为了提高服务器的处理效率,使用聚合博弈来激励将其子任务卸载到服务器的UE,以将其高峰时间执行计算转移到非高峰时间。此外,为了获得聚合博弈的纳什均衡,提出了一种分布式算法,其中UE与直接邻居进行通信,以估计每次迭代的聚合执行计算配置文件。本发明的算法既实用又快速收敛,实验结果表明,本发明所实现的最优的卸载策略,最大程度地减少了每个UE的任务处理时延,同时提高了服务器的处理效率。
当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当然可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (6)

1.一种具有计费机制的任务卸载方法,其特征在于,包括以下步骤:
S1:各用户设备分别将自己的子任务划分为本地任务和云端任务,其中,本地任务在用户设备处理,云端任务在MEC服务器处理,同时,MEC服务器的工作时间被划分为两个以上的时间片,且时间片的数量用H表示;
S2:各用户设备分别将自己的云端任务划分为H个切片任务,得到切片任务量向量,且各切片任务的任务量不全为0,同时,将云端任务的任务处理时间划分为H个时间片;
S3:为各用户设备构建总成本模型Bn(Xn,X)如下:
Figure FDA0002481567390000011
Figure FDA0002481567390000012
Figure FDA0002481567390000013
其中,Ph为第h个时间片的价格,h=1,2,…,H,ah与bh为第h个时间片的设定参数,
Figure FDA0002481567390000014
为第n个用户设备在第h个时间片待执行的切片任务的任务量,Xn为第n个用户设备的切片任务向量,
Figure FDA0002481567390000015
Figure FDA0002481567390000016
为MEC服务器在第h个时间片待执行的切片任务的总任务量,X为任务处理时间内待执行的切片任务的总任务量向量,
Figure FDA0002481567390000017
T为转置;
S4:为各用户设备根据总成本模型Bn(Xn,X)构建如下目标函数:
Figure FDA0002481567390000018
Figure FDA0002481567390000019
其中,
Figure FDA0002481567390000021
为云端任务的任务量,Sh为第h个时间片中MEC服务器可处理任务量的上限,N为用户设备的总数,IIi≠n为指标函数,其中,如果i≠n,则IIi≠n=1,如果i=n,则IIi≠n=0;
S5:将各用户设备分别作为当前用户设备执行以下步骤,得到当前用户设备对应的云端任务分布在各时间片的任务量:
S51:当前用户设备根据自身的直接邻居发送来的切片任务向量计算切片任务向量估计值,然后根据切片任务向量估计值获取总任务量向量x
S52:将步骤S51得到的总任务量向量x代入步骤S4中的目标函数,然后采用博弈论求解所述目标函数,得到当前用户设备对应的切片任务向量;
S53:判断本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值是否小于设定阈值,如果小于,则本次迭代通过博弈论求解得到的切片任务向量作为当前用户设备所需的云端任务分布在各时间片的任务量;否则,进入步骤S54;其中,第一次迭代时,上一次迭代得到的切片任务向量为步骤S2中得到的切片任务量向量;
S54:按照设定更新规则,采用本次迭代得到的切片任务向量更新当前用户设备对应的切片任务向量估计值,然后采用更新后的切片任务向量估计值重复执行步骤S51~S3,直到本次迭代得到的切片任务向量与上一次迭代得到的切片任务向量之间的差值小于设定阈值。
2.如权利要求1所述的一种具有计费机制的任务卸载方法,其特征在于,所述本地任务和云端任务的任务量的计算方法为:
Figure FDA0002481567390000031
其中,
Figure FDA0002481567390000032
为本地任务的任务量,
Figure FDA0002481567390000033
为云端任务的任务量,
Figure FDA0002481567390000034
为用户设备的计算能力,qn为子任务的总任务量,Tp为云端任务的处理时间,rn为云端任务上传到MEC服务器的速率,cn为每处理一单位任务量所需要的CPU周期数量。
3.如权利要求1所述的一种具有计费机制的任务卸载方法,其特征在于,所述切片任务向量估计值的计算公式如下:
Figure FDA0002481567390000035
其中,wii(k)是当前用户设备i为其自身设置的非负权重,wij(k)是当前用户设备i为其直接邻居用户设备j设置的非负权重,Ni为当前用户设备i的直接邻居的数量,k为迭代的次数,
Figure FDA0002481567390000036
为第k次迭代时当前用户设备i的切片任务量向量,
Figure FDA0002481567390000037
为第k次迭代时用户设备j的切片任务量向量,
Figure FDA0002481567390000038
为第k次迭代时当前用户设备i对应的切片任务向量估计值,且当k=0时,
Figure FDA0002481567390000039
Figure FDA00024815673900000310
分别为当前用户设备i与用户设备j的在步骤S2中得到的切片任务量向量。
4.如权利要求3所述的一种具有计费机制的任务卸载方法,其特征在于,步骤S54中按照设定更新规则更新当前用户设备对应的切片任务向量估计值的方法为:
S54a:获取当前用户设备i在下一次迭代中计算切片任务向量估计值所需的切片任务量向量
Figure FDA00024815673900000311
Figure FDA00024815673900000312
Figure FDA0002481567390000041
其中,
Figure FDA0002481567390000042
为当前用户设备i在下一次迭代所需的切片任务向量更新值,
Figure FDA0002481567390000043
为当前用户设备i在本次迭代采用博弈论求解的切片任务向量,αk,i为当前用户设备i设定的步长,且
Figure FDA0002481567390000044
Figure FDA00024815673900000413
为在集合Ki上的欧几里得投影,Ki为切片任务向量
Figure FDA0002481567390000045
的取值范围,
Figure FDA0002481567390000046
定义为:
Figure FDA0002481567390000047
其中,
Figure FDA0002481567390000048
为对切片任务向量
Figure FDA0002481567390000049
求偏导,
Figure FDA00024815673900000410
为当前用户设备i对应的总成本模型;
S54b:将切片任务量向量
Figure FDA00024815673900000411
将代入公式(10),得到当前用户设备i在下一次迭代中对应的切片任务向量估计值
Figure FDA00024815673900000412
5.如权利要求3所述的一种具有计费机制的任务卸载方法,其特征在于,当前用户设备i为其直接邻居用户设备j设置非负权重时,用户设备j与当前用户设备i的距离越近,所述非负权重越大。
6.如权利要求1所述的一种具有计费机制的任务卸载方法,其特征在于,根据切片任务向量估计值获取总任务量向量x的方法为:
将切片任务向量估计值与用户设备的总数N的乘积作为总任务量向量x
CN202010379869.7A 2020-05-08 2020-05-08 一种具有计费机制的任务卸载方法 Active CN111708620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010379869.7A CN111708620B (zh) 2020-05-08 2020-05-08 一种具有计费机制的任务卸载方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010379869.7A CN111708620B (zh) 2020-05-08 2020-05-08 一种具有计费机制的任务卸载方法

Publications (2)

Publication Number Publication Date
CN111708620A CN111708620A (zh) 2020-09-25
CN111708620B true CN111708620B (zh) 2023-04-25

Family

ID=72536690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010379869.7A Active CN111708620B (zh) 2020-05-08 2020-05-08 一种具有计费机制的任务卸载方法

Country Status (1)

Country Link
CN (1) CN111708620B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114780163A (zh) * 2021-01-05 2022-07-22 中国移动通信有限公司研究院 一种任务处理方法、装置和电子设备
CN113596106B (zh) * 2021-07-07 2023-06-06 北京信息科技大学 基于多边缘服务器协作的时延敏感型切片资源调度方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107249218A (zh) * 2017-06-05 2017-10-13 东南大学 一种mec中无线资源和云资源的联合分配方法
CN107819840A (zh) * 2017-10-31 2018-03-20 北京邮电大学 超密集网络架构中分布式移动边缘计算卸载方法
CN107820278A (zh) * 2017-11-28 2018-03-20 重庆邮电大学 蜂窝网络时延与成本均衡的任务卸载方法
CN108541027A (zh) * 2018-04-24 2018-09-14 南京邮电大学 一种基于边缘云网络的通信计算资源置换方法
CN109922479A (zh) * 2019-01-11 2019-06-21 西安电子科技大学 一种基于时延预估的计算任务卸载方法
CN109947545A (zh) * 2019-03-11 2019-06-28 重庆邮电大学 一种基于用户移动性的任务卸载及迁移的决策方法
CN109951897A (zh) * 2019-03-08 2019-06-28 东华大学 一种能耗与延迟约束下的mec卸载方法
CN110048992A (zh) * 2018-01-17 2019-07-23 北京中科晶上超媒体信息技术有限公司 一种构建动态异构冗余架构的方法
CN110287034A (zh) * 2019-07-04 2019-09-27 重庆大学 一种可充电移动边缘计算中能量-延迟平衡的动态任务分配方法
CN114697333A (zh) * 2022-03-22 2022-07-01 重庆邮电大学 一种能量队列均衡的边缘计算方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107249218A (zh) * 2017-06-05 2017-10-13 东南大学 一种mec中无线资源和云资源的联合分配方法
CN107819840A (zh) * 2017-10-31 2018-03-20 北京邮电大学 超密集网络架构中分布式移动边缘计算卸载方法
CN107820278A (zh) * 2017-11-28 2018-03-20 重庆邮电大学 蜂窝网络时延与成本均衡的任务卸载方法
CN110048992A (zh) * 2018-01-17 2019-07-23 北京中科晶上超媒体信息技术有限公司 一种构建动态异构冗余架构的方法
CN108541027A (zh) * 2018-04-24 2018-09-14 南京邮电大学 一种基于边缘云网络的通信计算资源置换方法
CN109922479A (zh) * 2019-01-11 2019-06-21 西安电子科技大学 一种基于时延预估的计算任务卸载方法
CN109951897A (zh) * 2019-03-08 2019-06-28 东华大学 一种能耗与延迟约束下的mec卸载方法
CN109947545A (zh) * 2019-03-11 2019-06-28 重庆邮电大学 一种基于用户移动性的任务卸载及迁移的决策方法
CN110287034A (zh) * 2019-07-04 2019-09-27 重庆大学 一种可充电移动边缘计算中能量-延迟平衡的动态任务分配方法
CN114697333A (zh) * 2022-03-22 2022-07-01 重庆邮电大学 一种能量队列均衡的边缘计算方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ad hoc云环境中分布式博弈卸载策略;曹傧等;《通信学报》(第11期);第24-34页 *
基于边-端协同的任务卸载资源分配联合优化算法;吴柳青等;《电信科学》(第03期);第42-52页 *
移动边缘计算中计算卸载与资源分配的联合优化策略;龙隆等;《高技术通讯》;第30卷(第8期);第765-773页 *

Also Published As

Publication number Publication date
CN111708620A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
Eshraghi et al. Joint offloading decision and resource allocation with uncertain task computing requirement
CN112286677B (zh) 一种面向资源受限边缘云的物联网应用优化部署方法
Li et al. Deep reinforcement learning based computation offloading and resource allocation for MEC
CN110275758B (zh) 一种虚拟网络功能智能迁移方法
CN113810233B (zh) 一种在随机网络中基于算网协同的分布式计算卸载方法
CN108920280A (zh) 一种单用户场景下的移动边缘计算任务卸载方法
CN108415763B (zh) 一种边缘计算系统的分配方法
CN110971706A (zh) Mec中近似最优化与基于强化学习的任务卸载方法
CN111708620B (zh) 一种具有计费机制的任务卸载方法
CN113342409B (zh) 多接入边缘计算系统时延敏感型任务卸载决策方法及系统
Zhu et al. Computing offloading strategy using improved genetic algorithm in mobile edge computing system
Long et al. An efficient task offloading approach based on multi-objective evolutionary algorithm in cloud-edge collaborative environment
CN113590279B (zh) 一种面向多核边缘计算服务器的任务调度和资源分配方法
KR20230007941A (ko) 에지 컴퓨팅 기반 산업용 사물 인터넷 환경에서 강화학습을 활용한 태스크 오프로딩 방법
Chen et al. Green parallel online offloading for DSCI-type tasks in IoT-edge systems
Gao et al. Com-DDPG: A multiagent reinforcement learning-based offloading strategy for mobile edge computing
CN116209084A (zh) 一种能量收集mec系统中任务卸载和资源分配方法
CN113821346B (zh) 基于深度强化学习的边缘计算中计算卸载与资源管理方法
Ma et al. A cyclic game for joint cooperation and competition of edge resource allocation
Yang et al. Multi-objective deep reinforcement learning for mobile edge computing
CN114615705B (zh) 一种基于5g网络下单用户资源分配策略方法
CN113342529B (zh) 基于强化学习的无小区大规模多天线架构下移动边缘计算卸载方法
Xiao et al. Task offloading and resources allocation based on fairness in edge computing
Ren et al. A reinforcement learning approach to optimize energy usage in RF-Charging sensor networks
Li et al. Real-time optimal resource allocation in multiuser mobile edge computing in digital twin applications with deep reinforcement learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant