CN117251296A - 一种具有缓存机制的移动边缘计算任务卸载方法 - Google Patents

一种具有缓存机制的移动边缘计算任务卸载方法 Download PDF

Info

Publication number
CN117251296A
CN117251296A CN202311518680.1A CN202311518680A CN117251296A CN 117251296 A CN117251296 A CN 117251296A CN 202311518680 A CN202311518680 A CN 202311518680A CN 117251296 A CN117251296 A CN 117251296A
Authority
CN
China
Prior art keywords
task
representing
indicate
individual
tasks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311518680.1A
Other languages
English (en)
Other versions
CN117251296B (zh
Inventor
沈艳
陈姣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Information Technology
Original Assignee
Chengdu University of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Information Technology filed Critical Chengdu University of Information Technology
Priority to CN202311518680.1A priority Critical patent/CN117251296B/zh
Publication of CN117251296A publication Critical patent/CN117251296A/zh
Application granted granted Critical
Publication of CN117251296B publication Critical patent/CN117251296B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种具有缓存机制的移动边缘计算任务卸载方法,属于边缘计算技术领域,为了减少任务卸载和处理的时延和能耗,进一步提高边缘计算任务卸载的效率和准确性,包括:S1:基于用户任务请求建立具有缓存机制的任务卸载总时延模型和移动设备侧的总能耗模型;S2:根据所述任务卸载总时延模型和移动设备侧的总能耗模型,以任务卸载总时延和移动设备侧的总能耗最小化为目标,建立具有约束条件的任务卸载和缓存联合优化模型;S3:将所述联合优化模型转化为粒子的适应度函数,其中,所述用户任务请求为粒子;S4:利用基于所述适应度函数的联合优化决策算法确定所述粒子的最优解,其中,粒子的最优解为用户任务请求的最优任务卸载决策。

Description

一种具有缓存机制的移动边缘计算任务卸载方法
技术领域
本发明涉及边缘计算技术领域,具体涉及一种具有缓存机制的移动边缘计算任务卸载方法。
背景技术
随着移动设备的普及和应用的快速发展,越来越多的应用需要进行计算和存储。传统的云计算模式存在着计算延迟高、网络带宽瓶颈、能耗大的问题。为了解决这些问题,移动边缘计算(Mobile Edge Computing,MEC)应运而生。移动边缘计算能够将计算资源和存储资源放置在距离用户更近的边缘网络中,更快地响应用户的请求,降低网络带宽压力,同时还可以减少能源消耗。但是,移动边缘计算也存在着资源有限、任务多样化、用户数量庞大的问题。
大部分文献对移动边缘计算任务卸载策略主要考虑时延和能耗。部分文献考虑缓存机制,主要是结合延迟。
发明内容
本发明的目的在于提供一种具有缓存机制的移动边缘计算任务卸载方法,以减少任务卸载和处理的时延和能耗,进一步提高边缘计算任务卸载的效率和准确性。
本发明解决上述技术问题的技术方案如下:
本发明提供一种具有缓存机制的移动边缘计算任务卸载方法,所述具有缓存机制的移动边缘计算任务卸载方法包括:
S1:基于用户任务请求建立具有缓存机制的任务卸载总时延模型和移动设备侧的总能耗模型;
S2:根据所述任务卸载总时延模型和移动设备侧的总能耗模型,以任务卸载总时延和移动设备侧的总能耗最小化为目标,建立具有约束条件的任务卸载和缓存联合优化模型;
S3:将所述联合优化模型转化为粒子的适应度函数,其中,所述用户任务请求为粒子;
S4:利用基于所述适应度函数的粒子群算法确定所述粒子的最优解,其中,所述粒子的最优解为用户任务请求的最优任务卸载决策。
可选择地,所述S1中,所述缓存机制包括:
根据用户任务请求确定任务的流行度、新鲜度和大小因子;
其中,所述流行度为:
所述新鲜度为:
所述大小因子为:
表示任务/>的请求概率,/>表示任务/>的访问时间,/>表示任务/>的平均请求时间间隔,/>表示任务/>的请求数,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示最近一次请求任务/>的时刻,/>表示首次请求任务的时刻,/>表示有/>个任务,/>表示第/>个任务,/>表示第/>次请求,/>表示当前时刻,表示任务/>的生成时刻,/>表示任务/>的输入数据大小,/>表示用户任务请求集合中最大的任务数据大小,/>表示大小因子的计算函数;
根据所述任务的流行度、所述新鲜度和所述大小因子,得到任务的函数值;
其中,
其中,、/>和/>分别表示不同的权重参数,/>表示任务/>的流行度,/>表示任务/>的新鲜度,/>表示任务/>的大小因子,/>表示第/>个任务;
利用任务的函数值对缓存空间进行更新。
可选择地,所述利用任务的函数值对缓存空间进行更新包括:
A1:将请求周期划分为若干时隙;
A2:获取每个时隙用户任务请求的请求集合中当前任务的处理结果大小和当前服务器缓存空间可用大小;
A3:判断当前服务器缓存空间可用大小是否大于当前任务的处理结果大小;若是,进入A6,否则,进入A4;
A4:判断当前任务是否已缓存,若是,更新当前任务的函数值并进入A5;否则,将当前任务的处理结果加入到缓存空间中并进入A5;
A5:对缓存空间内所有任务的函数值进行比较,将最小值标记为,将下一个任务作为当前任务并返回A2;
A6:计算当前任务的函数值,比较缓存空间内历史任务的函数值,将最小值标记为
A7:若当前任务的函数值大于最小值,则从缓存空间中驱逐最小值所对应的任务,更新当前缓存空间可用大小,并返回;否则,不更新缓存空间,将下一个任务作为当前任务并返回A2。
可选择地,所述任务卸载总时延模型为:
所述移动设备侧的总能耗模型为:
其中,表示第/>个用户执行第/>个任务的总延迟,/>表示第/>个任务在第/>个用户本地的计算时延且/>,/>表示第/>个用户执行第/>个任务时移动设备的CPU计算能力,即每秒执行的CPU周期数;/>表示完成第/>个任务所需的计算资源数,即CPU周期总数;/>表示第/>个任务的数据大小,/>表示第/>个任务中每位数据所需的周期数,/>表示第/>个任务卸载和缓存的联合决策变量;/>表示第/>个任务的缓存命中率且缓存命中率/>,/>表示第/>个任务的请求概率,/>表示第/>个任务的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个用户将第/>个任务卸载到服务器时的持续时延且/>,/>表示第/>个用户将第/>个输入大小为/>的任务卸载到服务器上的上行链路传输时延,/>表示第/>个用户通过无线链路连接到服务器的上行数据速率且/>,/>表示信道带宽,/>表示为第/>个用户的移动设备的传输功率,/>表示第/>个用户和服务器之间的信道增益,/>表示加性高斯白噪声功率,/>表示第/>个用户执行第/>个任务在服务器上处理时的时延且/>,/>表示第/>个用户将服务器资源分配给执行中任务的计算能力,/>表示将第/>个任务的处理结果反馈给第/>个用户的时延且/>,/>表示第/>个用户通过无线链路连接到服务器的下行数据速率且/>,/>表示第/>个用户请求已缓存的第/>个任务所需的时延且/>,/>表示为服务器缓存的读取速率,/>表示第/>个用户执行第/>个任务的总能量,/>表示第/>个用户执行第/>个任务的本地计算能耗且/>,/>表示能量系数,/>表示第/>个用户发送第/>个任务到服务器过程中的能耗且/>,/>表示第/>个用户缓存第/>个任务所需的能耗且/>,/>表示服务器的传输功率。
可选择地,所述S2中,所述具有约束条件的任务卸载和缓存联合优化模型为:
其中,表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行第个任务的卸载总时延,/>表示用户执行过程中能耗的权重因子,/>表示移动设备侧的总能耗,/>表示任务卸载和缓存的联合决策,/>表示第/>个用户,/>表示用户总数,/>表示有/>个任务。
可选择地,约束条件包括:
其中,表示第/>个用户执行第/>个任务的总能量,/>表示能耗阈值,/>表示第个用户执行第/>个任务的总延迟,/>表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行过程中能耗的权重因子,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示任务/>卸载和缓存的联合决策变量,/>表示任务/>在用户本地处理,/>表示任务/>卸载到服务器处理,/>表示任务/>已缓存;/>表示第/>个用户用于计算卸载任务的计算资源,/>表示服务器的最大计算能力,/>表示任务/>的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个任务。
可选择地,所述S3中,所述适应度函数为:
其中,表示适应度值,/>表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行过程中能耗的权重因子,/>表示第/>个用户执行第/>个任务的总能量,表示能耗阈值,/>表示第/>个用户执行第/>个任务的总延迟,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示第/>个任务,/>表示用户总数,/>表示有/>个任务,/>表示总的请求次数。
本发明具有以下有益效果:
(1)本发明在用户数量越多的情况下,有效降低成本;
(2)本发明在减少时延方面是高效的,尤其是在处理较大数据大小的任务时;
(3)随着请求时隙的增加,所提出的方案可以更有效地利用缓存资源从而降低系统开销成本;
(4)本发明所提出的缓存更新策略可以更有效地利用缓存空间。
附图说明
图1为本发明具有缓存机制的移动边缘计算任务卸载方法的流程图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明提供一种具有缓存机制的移动边缘计算任务卸载方法,参考图1所示,所述具有缓存机制的移动边缘计算任务卸载方法包括:
S1:基于用户任务请求建立具有缓存机制的任务卸载总时延模型和移动设备侧的总能耗模型;
为了降低任务卸载过程中的时延和能耗,提高数据访问效率,可以将任务缓存在服务器中。缓存允许用户直接从缓存空间中获得处理结果,无需卸载和重新计算,从而节省了时间和资源。但是,由于缓存空间有限,并非所有任务都可以缓存。为了解决这个问题,本发明的缓存机制包括:
根据用户任务请求确定任务的流行度、新鲜度和大小因子;
根据所述任务的流行度、所述新鲜度和所述大小因子,得到任务的函数值;其中,任务的函数值为:
,/>、/>和/>分别表示不同的权重参数,/>表示任务/>的流行度,/>表示任务/>的新鲜度,/>表示任务/>的大小因子,/>表示第/>个任务。
其中,流行度是指某些任务被普遍使用或请求的程度。对网络流量的研究表明,流行的任务会被更多的用户访问,而不流行的任务被访问的频率较低。本发明的流行度受三个主要因素的影响:请求概率、访问时间、平均请求时间间隔。
任务的请求概率计算为任务的请求数量与特定时间段内所有任务的请求总数的比率。该值表示任务在当前用户请求中的重要性,请求概率越高表示该任务越受欢迎。因此任务的请求概率/>表示为:
其中,为任务/>的请求数。
任务访问时间是服务器处理任务请求所需的持续时间,可以通过将访问任务所花费的总时间除以任务访问请求的数量来计算。访问一次任务所花费的总时间是通过任务每一次请求的完成时刻与请求时刻之间的时间差之和来计算的。任务访问时间越短,表示任务检索越快,增加了将来请求的可能性。因此任务的访问时间/>可以表示为:
其中,为任务/>的第/>次请求的完成时刻,即处理结果返回给用户的时间,/>为任务/>第/>次请求的请求时刻。在评估任务的流行度时,考虑任务访问时间很重要,因为它会直接影响用户体验。
任务的平均请求时间间隔表示用户对任务的连续请求之间的平均时间间隔。如果平均请求时间间隔短,则意味着任务被频繁请求,这也增加了它在缓存中的重要性。任务的平均请求时间间隔/>可以表示为:
表示为最近一次请求任务/>的时刻。/>表示为首次请求任务/>的时刻。
因此,通过考虑任务的请求概率、访问时间、平均请求时间间隔等因素,可以将任务的流行度定义为:
新鲜度是指缓存任务的最新程度。通过考虑任务的新鲜度,有助于确保缓存的任务结果是相对较新的。在本发明中,任务的流行度和新鲜度都被考虑在内,以确保缓存的任务既流行又相对新鲜。其中表示当前时刻,/>表示任务的生成时刻,因此新鲜度用/>表示为:
自生成任务以来所经过的时间被计算为当前时刻与任务生成时刻之间的差,他们之间的差值越小,代表任务越新鲜,逆函数确保新鲜度始终介于0和1之间。
缓存的任务不仅受流行度和新鲜度的影响,还受与任务相关联的数据大小的影响。通过引入大小因子,系统可以更有效地根据存储资源需求对任务进行缓存。例如,如果任务具有较高的流行度值,但由于其数据大小还需要大量的处理资源,则其大小因子将低于具有相似流行度值,但数据大小较小的任务。以下给出大小因子的表达式:
得到一个介于0和1之间的值,为任务/>的输入数据大小,/>为请求集合中最大的任务数据大小。
表示任务/>的请求概率,/>表示任务/>的访问时间,/>表示任务/>的平均请求时间间隔,/>表示任务/>的请求数,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示最近一次请求任务/>的时刻,/>表示首次请求任务的时刻,/>表示有/>个任务,/>表示第/>个任务,/>表示第/>次请求,/>表示当前时刻,表示任务/>的生成时刻,/>表示任务/>的输入数据大小,/>表示用户任务请求集合中最大的任务数据大小,/>表示大小因子的计算函数。
利用任务的函数值对缓存空间进行更新。
可选择地,所述利用任务的函数值对缓存空间进行更新包括:
A1:将请求周期划分为若干时隙;
A2:获取每个时隙用户任务请求的请求集合中当前任务的处理结果大小和当前服务器缓存空间可用大小;
A3:判断当前服务器缓存空间可用大小是否大于当前任务的处理结果大小;若是,进入A6,否则,进入A4;
A4:判断当前任务是否已缓存,若是,更新当前任务的函数值并进入A5;否则,将当前任务的处理结果加入到缓存空间中并进入A5;
A5:对缓存空间内所有任务的函数值进行比较,将最小值标记为,将下一个任务作为当前任务并返回A2;
A6:计算当前任务的函数值,比较缓存空间内历史任务的函数值,将最小值标记为
A7:若当前任务的函数值大于最小值,则从缓存空间中驱逐最小值所对应的任务,更新当前缓存空间可用大小,并返回;否则,不更新缓存空间,将下一个任务作为当前任务并返回A2。
S2:根据所述任务卸载总时延模型和移动设备侧的总能耗模型,以任务卸载总时延和移动设备侧的总能耗最小化为目标,建立具有约束条件的任务卸载和缓存联合优化模型;
任务卸载总时延模型为:
移动设备侧的总能耗模型为:
其中,表示第/>个用户执行第/>个任务的总延迟,/>表示第/>个任务在第/>个用户本地的计算时延且/>,/>表示第/>个用户执行第/>个任务时移动设备的CPU计算能力,即每秒执行的CPU周期数;/>表示完成第/>个任务所需的计算资源数,即CPU周期总数;/>表示第/>个任务的数据大小,/>表示第/>个任务中每位数据所需的周期数,/>表示第/>个任务卸载和缓存的联合决策变量;/>表示第/>个任务的缓存命中率且缓存命中率/>,/>表示第/>个任务的请求概率,/>表示第/>个任务的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个用户将第/>个任务卸载到服务器时的持续时延且/>,/>表示第/>个用户将第/>个输入大小为/>的任务卸载到服务器上的上行链路传输时延,/>表示第/>个用户通过无线链路连接到服务器的上行数据速率且/>,/>表示信道带宽,/>表示为第/>个用户的移动设备的传输功率,/>表示第/>个用户和服务器之间的信道增益,/>表示加性高斯白噪声功率,/>表示第/>个用户执行第/>个任务在服务器上处理时的时延且/>,/>表示第/>个用户将服务器资源分配给执行中任务的计算能力,/>表示将第/>个任务的处理结果反馈给第/>个用户的时延且/>,/>表示第/>个用户通过无线链路连接到服务器的下行数据速率且/>,/>表示第/>个用户请求已缓存的第/>个任务所需的时延且/>,/>表示为服务器缓存的读取速率,/>表示第/>个用户执行第/>个任务的总能量,/>表示第/>个用户执行第/>个任务的本地计算能耗且/>,/>表示能量系数,/>表示第/>个用户发送第/>个任务到服务器过程中的能耗且/>,/>表示第/>个用户缓存第/>个任务所需的能耗且/>,/>表示服务器的传输功率。
可选择地,具有约束条件的任务卸载和缓存联合优化模型为:
其中,表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行第个任务的卸载总时延,/>表示用户执行过程中能耗的权重因子,/>表示移动设备侧的总能耗,/>表示任务卸载和缓存的联合决策,/>表示第/>个用户,/>表示用户总数,/>表示有/>个任务。如果粒子违反了第一个能耗约束,则向适应度函数添加违反量的1000倍的惩罚。如果违反了第二个时延约束,则将违反量的1000倍的惩罚添加到适应度函数中。
可选择地,约束条件包括:
,约束给定能耗阈值;
,表示任务的执行时延不超过最大完成时间,保证每项任务要在规定的时间内完成;
;确保用于计算卸载任务的计算资源为正,并且分配给所有用户的计算资源总和不超过服务器的最大计算能力;
,缓存的任务结果不能超过服务器的缓存容量;
,不同的用户可以选择不同的权重参数,这两个值表示优化问题时对能耗和时延的偏好;
,任务卸载和缓存的联合决策变量。
其中,表示第/>个用户执行第/>个任务的总能量,/>表示能耗阈值,/>表示第个用户执行第/>个任务的总延迟,/>表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行过程中能耗的权重因子,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示任务/>卸载和缓存的联合决策变量,/>表示任务/>在用户本地处理,/>表示任务/>卸载到服务器处理,/>表示任务/>已缓存,缓存命中率越高,从缓存中检索任务的频率就越高,从而减少了通信时延和计算时延。相反,较低的缓存命中率会增加将任务卸载到MEC服务器的频率,从而导致更高的时延;/>表示第个用户用于计算卸载任务的计算资源,/>表示服务器的最大计算能力,/>表示任务/>的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个任务。
S3:将所述联合优化模型转化为粒子的适应度函数,其中,所述用户任务请求为粒子;
可选择地,适应度函数为:
其中,表示适应度值,/>表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行过程中能耗的权重因子,/>表示第/>个用户执行第/>个任务的总能量,表示能耗阈值,/>表示第/>个用户执行第/>个任务的总延迟,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示第/>个任务,/>表示用户总数,/>表示有/>个任务,/>表示总的请求次数。
S4:利用基于所述适应度函数的粒子群算法确定所述粒子的最优解,其中,所述粒子的最优解为用户任务请求的最优任务卸载决策。
具体包括:
步骤1. 在每一次时隙中,用户随机请求任务,每个请求的决策就代表粒子的解。计算粒子的/>并更新缓存空间。其中粒子总数为/>
步骤2. 初始化粒子。每个粒子有两个属性,速度和位置,速度表示粒子下一步迭代时移动的方向和距离,位置即粒子的解。并初始化粒子最佳位置、适应度值、全局最佳位置/>和总成本/>
步骤3.通过迭代找到最优解。在每次迭代中,粒子通过和/>来更新/>。将每个粒子的最优/>加入到决策数组/>中,并更新/>。每个粒子/>在迭代数/>的位置更新方程为:
其中,是粒子/>在迭代/>的当前位置,/>是粒子/>在迭代/>的更新速度,并且/>是粒子/>在迭代/>的位置。
每个粒子的速度更新方程为:
其中是惯性权重,在[0.4,2]范围取值,/>和/>为个体学习因子和群体学习因子,当两者值较大时,搜索速度会很快,可能会错过最优解。当两个值较小时,搜索速度会较慢,可能会产生局部最优值。因此,取/>和/>。/>和/>是(0,1)中的随机数,用以增加搜索的随机性。
步骤4. 返回最优决策解和总成本。
本发明存在以下技术效果:
(1)为了减少重复任务卸载和处理的时延和能耗,引入了一种缓存机制。该机制考虑了任务请求概率、任务访问时间、任务平均请求时间、新鲜度和数据大小,以决定缓存哪些任务。通过考虑这些因素,缓存机制可以有效地优化用于缓存的任务的选择。
(2)为了进一步提高缓存机制的性能和准确性,基于上述缓存机制提出了一种缓存更新策略。通过监控一段时间内的缓存利用率和缓存命中率来评估该策略的有效性。
(3)本发明主要研究多用户单MEC服务器环境中任务卸载和缓存的联合优化模型,以最小化任务总时延和总能耗为目标。该模型的优化问题是一个混合整数非线性规划问题(MINLP)。为了解决该优化问题,将总时延和能耗定义为目标函数,并使用惩罚函数处理约束条件。将优化问题转化为适应度函数,并采用粒子群优化算法求得最优联合决策。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述具有缓存机制的移动边缘计算任务卸载方法包括:
S1:基于用户任务请求建立具有缓存机制的任务卸载总时延模型和移动设备侧的总能耗模型;
S2:根据所述任务卸载总时延模型和移动设备侧的总能耗模型,以任务卸载总时延和移动设备侧的总能耗最小化为目标,建立具有约束条件的任务卸载和缓存联合优化模型;
S3:将所述联合优化模型转化为粒子的适应度函数,其中,所述用户任务请求为粒子;
S4:利用基于所述适应度函数的粒子群算法确定所述粒子的最优解,其中,所述粒子的最优解为用户任务请求的最优任务卸载决策。
2.根据权利要求1所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述S1中,所述缓存机制包括:
根据用户任务请求确定任务的流行度、新鲜度和大小因子;
根据所述任务的流行度、所述新鲜度和所述大小因子,得到任务的函数值;
利用任务的函数值对缓存空间进行更新。
3.根据权利要求2所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述流行度为:
所述新鲜度为:
所述大小因子为:
表示任务/>的请求概率,/>表示任务/>的访问时间,/>表示任务/>的平均请求时间间隔,/>表示任务/>的请求数,/>表示任务/>第/>次请求的完成时刻,/>表示任务第/>次请求的请求时刻,/>表示最近一次请求任务/>的时刻,/>表示首次请求任务/>的时刻,/>表示有/>个任务,/>表示第/>个任务,/>表示第/>次请求,/>表示当前时刻,/>表示任务/>的生成时刻,/>表示任务/>的输入数据大小,/>表示用户任务请求集合中最大的任务数据大小,/>表示大小因子的计算函数。
4.根据权利要求2所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述任务的函数值为:
其中,、/>和/>分别表示不同的权重参数,/>表示任务/>的流行度,/>表示任务的新鲜度,/>表示任务/>的大小因子,/>表示第/>个任务。
5.根据权利要求2所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述利用任务的函数值对缓存空间进行更新包括:
A1:将请求周期划分为若干时隙;
A2:获取每个时隙用户任务请求的请求集合中当前任务的处理结果大小和当前服务器缓存空间可用大小;
A3:判断当前服务器缓存空间可用大小是否大于当前任务的处理结果大小;若是,进入A6,否则,进入A4;
A4:判断当前任务是否已缓存,若是,更新当前任务的函数值并进入A5;否则,将当前任务的处理结果加入到缓存空间中并进入A5;
A5:对缓存空间内所有任务的函数值进行比较,将最小值标记为,将下一个任务作为当前任务并返回A2;
A6:计算当前任务的函数值,比较缓存空间内历史任务的函数值,将最小值标记为
A7:若当前任务的函数值大于最小值,则从缓存空间中驱逐最小值所对应的任务,更新当前缓存空间可用大小,并返回;否则,不更新缓存空间,将下一个任务作为当前任务并返回A2。
6.根据权利要求1所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述任务卸载总时延模型为:
所述移动设备侧的总能耗模型为:
其中,表示第/>个用户执行第/>个任务的总延迟,/>表示第/>个任务在第/>个用户本地的计算时延且/>,/>表示第/>个用户执行第/>个任务时移动设备的CPU计算能力,即每秒执行的CPU周期数;/>表示完成第/>个任务所需的计算资源数,即CPU周期总数;/>表示第/>个任务的数据大小,/>表示第/>个任务中每位数据所需的周期数,表示第/>个任务卸载和缓存的联合决策变量;/>表示第/>个任务的缓存命中率且缓存命中率/>,/>表示第/>个任务的请求概率,/>表示第/>个任务的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个用户将第/>个任务卸载到服务器时的持续时延且/>,/>表示第/>个用户将第/>个输入大小为/>的任务卸载到服务器上的上行链路传输时延,/>表示第/>个用户通过无线链路连接到服务器的上行数据速率且/>,/>表示信道带宽,/>表示为第/>个用户的移动设备的传输功率,/>表示第/>个用户和服务器之间的信道增益,/>表示加性高斯白噪声功率,/>表示第/>个用户执行第/>个任务在服务器上处理时的时延且,/>表示第/>个用户将服务器资源分配给执行中任务的计算能力,/>表示将第/>个任务的处理结果反馈给第/>个用户的时延且/>,/>表示第/>个用户通过无线链路连接到服务器的下行数据速率且/>,/>表示第个用户请求已缓存的第/>个任务所需的时延且/>,/>表示为服务器缓存的读取速率,/>表示第/>个用户执行第/>个任务的总能量,/>表示第/>个用户执行第/>个任务的本地计算能耗且/>,/>表示能量系数,/>表示第/>个用户发送第/>个任务到服务器过程中的能耗且/>,/>表示第/>个用户缓存第/>个任务所需的能耗且/>,/>表示服务器的传输功率。
7.根据权利要求1所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述S2中,所述具有约束条件的任务卸载和缓存联合优化模型为:
其中,表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行第/>个任务的卸载总时延,/>表示用户执行过程中能耗的权重因子,/>表示移动设备侧的总能耗,/>表示任务卸载和缓存的联合决策,/>表示第/>个用户,/>表示用户总数,/>表示有/>个任务。
8.根据权利要求7所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,约束条件包括:
其中,表示第/>个用户执行第/>个任务的总能量,/>表示能耗阈值,/>表示第/>个用户执行第/>个任务的总延迟,/>表示第/>个用户执行过程中时延的权重因子,/>表示第/>个用户执行过程中能耗的权重因子,/>表示任务/>第/>次请求的完成时刻,/>表示任务第/>次请求的请求时刻,/>表示任务/>卸载和缓存的联合决策变量,/>表示任务/>在用户本地处理,/>表示任务/>卸载到服务器处理,/>表示任务/>已缓存;/>表示第/>个用户用于计算卸载任务的计算资源,/>表示服务器的最大计算能力,/>表示任务/>的处理结果大小,/>表示服务器缓存容量大小,/>表示第/>个任务。
9.根据权利要求1所述的具有缓存机制的移动边缘计算任务卸载方法,其特征在于,所述S3中,所述适应度函数为:
其中,表示适应度值,/>表示第/>个用户执行过程中时延的权重因子,/>表示第个用户执行过程中能耗的权重因子,/>表示第/>个用户执行第/>个任务的总能量,/>表示能耗阈值,/>表示第/>个用户执行第/>个任务的总延迟,/>表示任务/>第/>次请求的完成时刻,/>表示任务/>第/>次请求的请求时刻,/>表示第/>个任务,/>表示用户总数,/>表示有/>个任务,/>表示总的请求次数。
CN202311518680.1A 2023-11-15 2023-11-15 一种具有缓存机制的移动边缘计算任务卸载方法 Active CN117251296B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311518680.1A CN117251296B (zh) 2023-11-15 2023-11-15 一种具有缓存机制的移动边缘计算任务卸载方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311518680.1A CN117251296B (zh) 2023-11-15 2023-11-15 一种具有缓存机制的移动边缘计算任务卸载方法

Publications (2)

Publication Number Publication Date
CN117251296A true CN117251296A (zh) 2023-12-19
CN117251296B CN117251296B (zh) 2024-03-12

Family

ID=89126689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311518680.1A Active CN117251296B (zh) 2023-11-15 2023-11-15 一种具有缓存机制的移动边缘计算任务卸载方法

Country Status (1)

Country Link
CN (1) CN117251296B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3648436A1 (en) * 2018-10-29 2020-05-06 Commissariat à l'énergie atomique et aux énergies alternatives Method for clustering cache servers within a mobile edge computing network
CN111132191A (zh) * 2019-12-12 2020-05-08 重庆邮电大学 移动边缘计算服务器联合任务卸载、缓存及资源分配方法
CN111818130A (zh) * 2020-06-17 2020-10-23 华北电力大学(保定) 基于强化学习缓存与计算的联合优化
WO2021012584A1 (zh) * 2019-07-25 2021-01-28 北京工业大学 一种移动边缘计算场景下制定单任务迁移策略的方法
CN113434212A (zh) * 2021-06-24 2021-09-24 北京邮电大学 基于元强化学习的缓存辅助任务协作卸载与资源分配方法
CN114863683A (zh) * 2022-05-11 2022-08-05 湖南大学 基于多目标优化的异构车联网边缘计算卸载调度方法
CN116260871A (zh) * 2023-03-03 2023-06-13 南京理工大学 一种基于本地和边缘协同缓存的独立任务卸载方法
CN116361009A (zh) * 2023-05-19 2023-06-30 南京邮电大学 一种mec计算卸载、资源分配及缓存联合优化方法
CN116566838A (zh) * 2023-06-14 2023-08-08 重庆邮电大学 一种区块链与边缘计算协同的车联网任务卸载和内容缓存方法
CN116963182A (zh) * 2023-08-18 2023-10-27 网络通信与安全紫金山实验室 时延最优任务卸载方法、装置、电子设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3648436A1 (en) * 2018-10-29 2020-05-06 Commissariat à l'énergie atomique et aux énergies alternatives Method for clustering cache servers within a mobile edge computing network
WO2021012584A1 (zh) * 2019-07-25 2021-01-28 北京工业大学 一种移动边缘计算场景下制定单任务迁移策略的方法
CN111132191A (zh) * 2019-12-12 2020-05-08 重庆邮电大学 移动边缘计算服务器联合任务卸载、缓存及资源分配方法
CN111818130A (zh) * 2020-06-17 2020-10-23 华北电力大学(保定) 基于强化学习缓存与计算的联合优化
CN113434212A (zh) * 2021-06-24 2021-09-24 北京邮电大学 基于元强化学习的缓存辅助任务协作卸载与资源分配方法
CN114863683A (zh) * 2022-05-11 2022-08-05 湖南大学 基于多目标优化的异构车联网边缘计算卸载调度方法
CN116260871A (zh) * 2023-03-03 2023-06-13 南京理工大学 一种基于本地和边缘协同缓存的独立任务卸载方法
CN116361009A (zh) * 2023-05-19 2023-06-30 南京邮电大学 一种mec计算卸载、资源分配及缓存联合优化方法
CN116566838A (zh) * 2023-06-14 2023-08-08 重庆邮电大学 一种区块链与边缘计算协同的车联网任务卸载和内容缓存方法
CN116963182A (zh) * 2023-08-18 2023-10-27 网络通信与安全紫金山实验室 时延最优任务卸载方法、装置、电子设备和存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SHUAI YU等: "Computation Offloading With Data Caching Enhancement for Mobile Edge Computing", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》, vol. 67, no. 11, pages 11098 - 11112, XP011702874, DOI: 10.1109/TVT.2018.2869144 *
WENQI ZHOU等: "Offloading Strategy with PSO for mobile edge computing based on cache mechanism", 《CLUSTER COMPUTING》, pages 2389 - 2401 *
桑永宣等: "具有边缘缓存机制的混合启发式任务卸载方法", 《计算机工程》, pages 1 - 13 *
赵婵婵等: "缓存辅助移动边缘计算的任务卸载与资源分配联合优化策略", 《科学技术与工程》, vol. 23, no. 09, pages 3812 - 3819 *

Also Published As

Publication number Publication date
CN117251296B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN109343904B (zh) 一种基于Lyapunov优化的雾计算动态卸载方法
CN112601197A (zh) 一种基于非正交多址的车联网络中资源优化方法
CN110213627A (zh) 基于多小区用户移动性的流媒体缓存分配装置及其工作方法
CN113255004B (zh) 一种安全且高效的联邦学习内容缓存方法
CN113382059B (zh) 一种雾无线接入网中基于联邦强化学习的协作缓存方法
CN114553963B (zh) 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法
CN114760311A (zh) 一种面向移动边缘网络系统的优化服务缓存及计算卸载方法
CN115809147B (zh) 多边缘协作缓存调度优化方法、系统及模型训练方法
CN111818130A (zh) 基于强化学习缓存与计算的联合优化
CN113687960A (zh) 一种基于深度强化学习的边缘计算智能缓存方法
CN114626298A (zh) 无人机辅助车联网中高效缓存和任务卸载的状态更新方法
CN114863683B (zh) 基于多目标优化的异构车联网边缘计算卸载调度方法
Chen et al. DDPG-based computation offloading and service caching in mobile edge computing
CN115361710A (zh) 一种边缘缓存中的内容放置方法
Ghosh et al. A high performance hierarchical caching framework for mobile edge computing environments
Gao et al. Joint computing, pushing, and caching optimization for mobile edge computing networks via soft actor-critic learning
Li et al. Collaborative optimization of edge-cloud computation offloading in internet of vehicles
CN117251296B (zh) 一种具有缓存机制的移动边缘计算任务卸载方法
CN113992770A (zh) 雾无线接入网中基于策略的联邦强化学习的协作缓存方法
Gao et al. Soft actor-critic learning-based joint computing, pushing, and caching framework in mec networks
CN117082470A (zh) 基于noma-mec系统的车联网任务卸载和资源分配方法
Singh et al. Optimized resource allocation and trust management schemes for non-orthogonal multiple access on the internet of vehicles
CN109818788B (zh) 一种基于次模优化的边缘缓存c-ran中计算资源分配方法
Fang et al. Offloading strategy for edge computing tasks based on cache mechanism
Wang et al. Agile Cache Replacement in Edge Computing via Offline-Online Deep Reinforcement Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant