CN113504986A - 基于缓存的边缘计算系统卸载方法、装置、设备及介质 - Google Patents
基于缓存的边缘计算系统卸载方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113504986A CN113504986A CN202110734156.2A CN202110734156A CN113504986A CN 113504986 A CN113504986 A CN 113504986A CN 202110734156 A CN202110734156 A CN 202110734156A CN 113504986 A CN113504986 A CN 113504986A
- Authority
- CN
- China
- Prior art keywords
- edge server
- file
- cache
- edge
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/0842—Multiuser, multiprocessor or multiprocessing cache systems for multiprocessing or multitasking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/172—Caching, prefetching or hoarding of files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/509—Offload
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
- G06F2212/1024—Latency reduction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1028—Power efficiency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/15—Use in a specific computing environment
- G06F2212/154—Networked environment
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了基于缓存的边缘计算系统卸载方法、装置、设备及介质,方法包括:在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。本发明在考虑了边缘服务器有限空间的情况下,选择用户中流行度高的文件缓存在边缘服务器当中,同时也为任务卸载计算节省了系统的时延和能耗,可广泛应用于边缘计算技术领域。
Description
技术领域
本发明涉及边缘计算技术领域,尤其是基于缓存的边缘计算系统卸载方法、装置、设备及介质。
背景技术
随着物联网设备的发展和用户对计算和实时服务需求的增长,人工智能被用于降低未来网络系统的系统成本。为了满足网络服务的需求,边缘网络的模式正日益向计算、通信和边缘缓存服务的联合设计转变。因此,缓存驱动的移动边缘计算(Cache-enabled MEC)系统成为了边缘计算热门研究方向之一,它将边缘卸载计算与边缘缓存相结合,以降低系统成本。然而,在这个研究领域中,“边缘缓存为MEC网络提供的资源分配”是需要解决的重要问题之一。由于当前边缘服务器的存储空间有限,难以满足所有用户的计算请求,有限的资源和用户需求之间的这种不匹配给如何为服务缓存分配资源带来了挑战。因此,在边缘计算卸载中,我们需要考虑一个合理的边缘缓存算法,来解决服务器存储空间不足带来的资源分配的挑战。
发明内容
有鉴于此,本发明实施例提供基于缓存的边缘计算系统卸载方法、装置、设备及介质,以解决存储空间不足带来的资源分配问题,能够节省系统的时延和能耗。
本发明的一方面提供了一种基于缓存的边缘计算系统卸载方法,包括:
在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
可选地,所述在第一时刻,由用户向边缘服务器推荐流行文件集,包括:
在所述第一时刻,所述用户选取最受欢迎的前N个文件;
根据所述前N个文件生成文件推荐表,将所述文件推荐表发送至所述边缘服务器。
可选地,所述边缘服务器从所述流行文件集中选取目标文件进行缓存,包括:
所述边缘服务器从所有用户发送的多个文件推荐表中,选取最流行的前M个文件;
根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存。
可选地,所述根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存,包括:
当所述边缘服务器中具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件进行缓存;
当所述边缘服务器中不具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件替换所述边缘服务器中当前不流行的文件。
可选地,所述方法还包括:
当请求计算的文件没有缓存在所述边缘服务器中时:
采用粒子群优化算法确定卸载比例;
根据所述卸载比例确定本地的第一计算任务和边缘服务器的第二计算任务;
获取所述第一计算任务和所述第二计算任务的结果,确定卸载计算的结果。
可选地,所述采用粒子群优化算法确定卸载比例,包括:
构建时延优化的第一目标函数和能耗优化的第二目标函数;
根据所述第一目标函数和所述第二目标函数进行粒子群迭代优化,确定每个粒子的更新速度;
根据所述粒子的更新速度,确定所述粒子的更新位置;
根据所述粒子的更新位置,确定最优的卸载比例。
可选地,所述文件的流行度的计算公式为:
本发明实施例的另一方面提供了一种基于缓存的边缘计算系统卸载装置,包括:
第一模块,用于在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
第二模块,用于在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
本发明实施例的另一方面提供了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
本发明实施例的另一方面提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
本发明的实施例在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。本发明在考虑了边缘服务器有限空间的情况下,选择用户中流行度高的文件缓存在边缘服务器当中,同时也为任务卸载计算节省了系统的时延和能耗。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于缓存的边缘计算网络架构示意图;
图2为本发明实施例提供的缓存算法的实现原理图;
图3为本发明在Python仿真环境下,所提出方法在时间变化下系统时延的仿真结果;
图4为本发明在Python仿真环境下,所提出方法在时间变化下系统能耗的仿真结果。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
针对现有技术存在的问题,本发明实施例提供了一种基于缓存的边缘计算系统卸载方法,
包括:
在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
可选地,所述在第一时刻,由用户向边缘服务器推荐流行文件集,包括:
在所述第一时刻,所述用户选取最受欢迎的前N个文件;
根据所述前N个文件生成文件推荐表,将所述文件推荐表发送至所述边缘服务器。
可选地,所述边缘服务器从所述流行文件集中选取目标文件进行缓存,包括:
所述边缘服务器从所有用户发送的多个文件推荐表中,选取最流行的前M个文件;
根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存。
可选地,所述根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存,包括:
当所述边缘服务器中具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件进行缓存;
当所述边缘服务器中不具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件替换所述边缘服务器中当前不流行的文件。
可选地,所述方法还包括:
当请求计算的文件没有缓存在所述边缘服务器中时:
采用粒子群优化算法确定卸载比例;
根据所述卸载比例确定本地的第一计算任务和边缘服务器的第二计算任务;
获取所述第一计算任务和所述第二计算任务的结果,确定卸载计算的结果。
可选地,所述采用粒子群优化算法确定卸载比例,包括:
构建时延优化的第一目标函数和能耗优化的第二目标函数;
根据所述第一目标函数和所述第二目标函数进行粒子群迭代优化,确定每个粒子的更新速度;
根据所述粒子的更新速度,确定所述粒子的更新位置;
根据所述粒子的更新位置,确定最优的卸载比例。
可选地,所述文件的流行度的计算公式为:
本发明实施例的另一方面提供了一种基于缓存的边缘计算系统卸载装置,包括:
第一模块,用于在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
第二模块,用于在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
本发明实施例的另一方面提供了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
本发明实施例的另一方面提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
下面结合说明书附图,对本发明的边缘计算卸载方法的实现原理进行详细描述:
本发明是为了解决在边缘服务器有限的存储空间下,因任务计算卸载内容重复请求和计算造成的时间延迟和能量损耗而提出的一种基于缓存的边缘计算系统的卸载方法。该方法结合了所提出的缓存替代算法,并采用粒子群优化算法计算卸载比例,从而达到了优化系统的时延和能耗的目的。
为达到上述目的,本发明实施的技术方案包括以下四个步骤:
步骤1:在当前时刻,每个用户根据文件的流行度选择最受欢迎的前N个文件,文件的流行度服从Zipf分布,这是一个热门的文件流行度模型,它可以表示为:
其中,ζ表示该文件的流行级别,P(r)表示该文件出现的频率,C为常数。我们使用这个模型在实施例中对用户的请求文件进行建模。
步骤2:产生请求文件后,用户通过计算文件的流行度选择前N个最受欢迎的文件,用户m中文件k的流行度计算方法可以表示为:
接着,用户将包含最受欢迎的前N个文件的文件推荐表发送给边缘服务器,服务器根据用户的推荐进行计数,并选择用户推荐最多的前M个流行文件作为缓存的候选文件,候选文件的集合用Dc表示。根据候选文件,服务器将分以下两种情况对文件进行缓存。
1)若服务器还有存储空间,即剩余缓存空间的大小Ωsize大于或等于文件的大小βd,则服务器将选择一个这M个文件当中流行度最高且没有被缓存过的文件d*∈Dc,并缓存到缓存空间Ω中。
2)若服务器存储空间已满,即剩余缓存空间的大小Ωsize小于文件的大小βd,则服务器将选择一个这M个文件当中流行度最高且没有被缓存过的文件d*∈Dc,以此文件来替换缓存空间中当前不流行的文件其中,本发明实施例的步骤1-2的具体流程伪代码展示如表1所示。
表1
步骤3:在下一个时刻,用户进行卸载计算时,若请求计算的文件已缓存在边缘服务器中,则用户可以直接得到服务器返回的计算结果而不需要进行卸载和计算。未缓存的文件则需要通过卸载比例来分配哪些任务卸载到边缘服务器计算,而哪些任务留在本地计算。整个计算卸载过程中,用户m在本地计算的时延和能耗可以表示为:
其中,ρm∈[0,1]是卸载到服务器的任务比例,xm,i∈{0,1}表示文件是否被服务器缓存(xm,i=1表示文件未被缓存),sm,i是用户m中文件i的数据大小,km是用户m请求的文件数量,fm为用户的本地CPU周期频率,εl是本地计算的能耗系数。用户m卸载时的传输速率、时延和能耗可以表示为:
其中,Bm为无线信道的带宽,Pm为发射功率,hm为用户m连接到服务器的无线信道参数,σ2为高斯白噪声的方差。接着,任务在边缘服务器的计算时延和能耗可以表示为:
其中,fes为服务器CPU周期频率,εes是服务器计算的能耗系数。卸载的总时延和能耗可以表示为:
根据以上公式,可以得到每个用户计算任务所需要的总时延和能耗为:
因此,系统的总时延和能耗可以表示为:
Ltotal=max(L1,L2,…,Lm)
P1:min Ltotal
能耗优化的目标函数可以表示为:
P2:min Etotal
结合以上表达式,当采用粒子群进行优化时,每一次迭代tp,每个粒子j的更新速度可以表示为:
其中,c1、c2为加速常数,表示引导粒子朝最优结果的方向加速的权重,一般取c1=c2=2,和表示上一次迭代粒子j的最优位置(粒子的最优卸载比例)和全局最优位置(全局最优卸载比例)。每个粒子位置更新的表达式为:
经过Tp次迭代后,得到全局最优的卸载比例,实现目标函数,即最小化时延和能耗。其中,本发明实施例的步骤3-4的具体流程伪代码展示如表2所示。
表2
图1示出了本发明实施例的基于缓存的边缘计算网络的机构图,如图1所示,根据本发明的边缘计算卸载方法,用户1-M可以向边缘服务器发送文件推荐表,在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取计算结果。
图2示出了本发明实施例的缓存算法实现原理图,如图2所示,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所有用户发送的多个文件推荐表中,选取最流行的前M个文件;根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存;所述用户从所述边缘服务器中直接获取文件的计算结果
本实施记载了一种基于缓存的边缘计算系统卸载方法,在Python仿真环境下,使用计算机对本发明所提方法的系统时延随时间的变化进行仿真,仿真结果如附图说明中图3所示。在仿真实验中,参数Bm=40MHz,Pm=2W,σ2=1×10-9w,sm,i=80MHz,fm=400MHz和fes=800MHz,用户和服务器的能耗系数分别设置为εl=1×10-26和εes=1×10-28。同时,缓存空间大小设置为5,用户数量设置为3。通过与传统的缓存算法对比,基于本发明所提出的缓存算法的卸载方法有更低的系统时延,验证了本方法的有效性。
本实施例记载了一种基于缓存机制边缘计算卸载方法,在Python仿真环境下,使用计算机对本发明所提方法的系统能耗随时间的变化进行仿真,仿真结果如附图说明中图4所示。在仿真实验中,参数Bm=40MHz,Pm=2W,σ2=1×10-9w,sm,i=80MHz,fm=400MHz和fes=800MHz,用户和服务器的能耗系数分别设置为εl=1×10-26和εes=1×10-28。同时,缓存空间大小设置为5,用户数量设置为3。通过对比基于传统缓存算法的卸载方法,基于本发明所提出的缓存算法的卸载方法有更低的系统能耗,验证了本方法的有效性。
综上所述,本发明基于缓存的边缘计算系统卸载方法,实现了更好的资源分配,同时也降低了系统的时延和能耗。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种基于缓存的边缘计算系统卸载方法,其特征在于,包括:
在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
2.根据权利要求1所述的基于缓存的边缘计算系统卸载方法,其特征在于,所述在第一时刻,由用户向边缘服务器推荐流行文件集,包括:
在所述第一时刻,所述用户选取最受欢迎的前N个文件;
根据所述前N个文件生成文件推荐表,将所述文件推荐表发送至所述边缘服务器。
3.根据权利要求2所述的基于缓存的边缘计算系统卸载方法,其特征在于,所述边缘服务器从所述流行文件集中选取目标文件进行缓存,包括:
所述边缘服务器从所有用户发送的多个文件推荐表中,选取最流行的前M个文件;
根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存。
4.根据权利要求3所述的基于缓存的边缘计算系统卸载方法,其特征在于,所述根据所述边缘服务器的存储空间状态,从所述前M个文件中选取目标文件进行缓存,包括:
当所述边缘服务器中具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件进行缓存;
当所述边缘服务器中不具备满足预设条件的存储空间时,从所述前M个文件中选取流行度最高且没有被缓存过的目标文件替换所述边缘服务器中当前不流行的文件。
5.根据权利要求4所述的基于缓存的边缘计算系统卸载方法,其特征在于,所述方法还包括:
当请求计算的文件没有缓存在所述边缘服务器中时:
采用粒子群优化算法确定卸载比例;
根据所述卸载比例确定本地的第一计算任务和边缘服务器的第二计算任务;
获取所述第一计算任务和所述第二计算任务的结果,确定卸载计算的结果。
6.根据权利要求5所述的基于缓存的边缘计算系统卸载方法,其特征在于,所述采用粒子群优化算法确定卸载比例,包括:
构建时延优化的第一目标函数和能耗优化的第二目标函数;
根据所述第一目标函数和所述第二目标函数进行粒子群迭代优化,确定每个粒子的更新速度;
根据所述粒子的更新速度,确定所述粒子的更新位置;
根据所述粒子的更新位置,确定最优的卸载比例。
8.一种基于缓存的边缘计算系统卸载装置,其特征在于,包括:
第一模块,用于在第一时刻,由用户向边缘服务器推荐流行文件集,所述边缘服务器从所述流行文件集中选取目标文件进行缓存;
第二模块,用于在第二时刻,所述用户基于所述边缘服务器的缓存进行卸载计算;其中,当请求计算的文件已经缓存在所述边缘服务器中时,所述用户从所述边缘服务器中直接获取文件的计算结果。
9.一种电子设备,其特征在于,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734156.2A CN113504986A (zh) | 2021-06-30 | 2021-06-30 | 基于缓存的边缘计算系统卸载方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110734156.2A CN113504986A (zh) | 2021-06-30 | 2021-06-30 | 基于缓存的边缘计算系统卸载方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113504986A true CN113504986A (zh) | 2021-10-15 |
Family
ID=78009443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110734156.2A Pending CN113504986A (zh) | 2021-06-30 | 2021-06-30 | 基于缓存的边缘计算系统卸载方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113504986A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002212A (zh) * | 2022-04-12 | 2022-09-02 | 广州大学 | 基于交叉熵优化算法的联合缓存和卸载方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108011836A (zh) * | 2017-11-21 | 2018-05-08 | 广州大学 | 基于二级缓存的传输方法、装置、终端设备及存储介质 |
CN108549719A (zh) * | 2018-04-23 | 2018-09-18 | 西安交通大学 | 一种移动边缘计算网络中基于聚类的自适应缓存方法 |
CN109474961A (zh) * | 2018-12-05 | 2019-03-15 | 安徽大学 | 一种移动边缘计算服务器的网络能效优化方法、系统 |
CN109756908A (zh) * | 2017-11-01 | 2019-05-14 | 上海交通大学 | 无线网络缓存策略的优化方法/系统、存储介质及设备 |
CN110177310A (zh) * | 2019-06-28 | 2019-08-27 | 三星电子(中国)研发中心 | 一种内容分发系统和方法 |
CN111586191A (zh) * | 2020-05-25 | 2020-08-25 | 安徽大学 | 一种数据协作缓存方法、系统及电子设备 |
CN112272390A (zh) * | 2020-10-20 | 2021-01-26 | 广州大学 | 基于物理层的任务卸载及带宽分配的处理方法和系统 |
CN112512056A (zh) * | 2020-11-14 | 2021-03-16 | 北京工业大学 | 一种移动边缘计算网络中多目标优化的计算卸载方法 |
CN112860350A (zh) * | 2021-03-15 | 2021-05-28 | 广西师范大学 | 一种边缘计算中基于任务缓存的计算卸载方法 |
-
2021
- 2021-06-30 CN CN202110734156.2A patent/CN113504986A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109756908A (zh) * | 2017-11-01 | 2019-05-14 | 上海交通大学 | 无线网络缓存策略的优化方法/系统、存储介质及设备 |
CN108011836A (zh) * | 2017-11-21 | 2018-05-08 | 广州大学 | 基于二级缓存的传输方法、装置、终端设备及存储介质 |
CN108549719A (zh) * | 2018-04-23 | 2018-09-18 | 西安交通大学 | 一种移动边缘计算网络中基于聚类的自适应缓存方法 |
CN109474961A (zh) * | 2018-12-05 | 2019-03-15 | 安徽大学 | 一种移动边缘计算服务器的网络能效优化方法、系统 |
CN110177310A (zh) * | 2019-06-28 | 2019-08-27 | 三星电子(中国)研发中心 | 一种内容分发系统和方法 |
CN110536179A (zh) * | 2019-06-28 | 2019-12-03 | 三星电子(中国)研发中心 | 一种内容分发系统和方法 |
CN111586191A (zh) * | 2020-05-25 | 2020-08-25 | 安徽大学 | 一种数据协作缓存方法、系统及电子设备 |
CN112272390A (zh) * | 2020-10-20 | 2021-01-26 | 广州大学 | 基于物理层的任务卸载及带宽分配的处理方法和系统 |
CN112512056A (zh) * | 2020-11-14 | 2021-03-16 | 北京工业大学 | 一种移动边缘计算网络中多目标优化的计算卸载方法 |
CN112860350A (zh) * | 2021-03-15 | 2021-05-28 | 广西师范大学 | 一种边缘计算中基于任务缓存的计算卸载方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115002212A (zh) * | 2022-04-12 | 2022-09-02 | 广州大学 | 基于交叉熵优化算法的联合缓存和卸载方法及系统 |
CN115002212B (zh) * | 2022-04-12 | 2024-02-27 | 广州大学 | 基于交叉熵优化算法的联合缓存和卸载方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113434212B (zh) | 基于元强化学习的缓存辅助任务协作卸载与资源分配方法 | |
CN111124647B (zh) | 一种车联网中的智能边缘计算方法 | |
CN109802998B (zh) | 一种基于博弈的雾网络协同调度激励方法及系统 | |
Baccour et al. | PCCP: Proactive video chunks caching and processing in edge networks | |
CN108366089B (zh) | 一种基于内容流行度和节点重要度的ccn缓存方法 | |
CN113282786B (zh) | 一种基于深度强化学习的全景视频边缘协作缓存替换方法 | |
Li et al. | Joint edge caching and dynamic service migration in SDN based mobile edge computing | |
CN114818454A (zh) | 模型训练方法、数据处理方法、电子设备和程序产品 | |
CN113504986A (zh) | 基于缓存的边缘计算系统卸载方法、装置、设备及介质 | |
Hao et al. | A multi-update deep reinforcement learning algorithm for edge computing service offloading | |
CN115714814B (zh) | 一种基于多智能体强化学习的边缘缓存替换方法 | |
Li et al. | An optimized content caching strategy for video stream in edge-cloud environment | |
Yang et al. | Collaborative edge caching and transcoding for 360° video streaming based on deep reinforcement learning | |
Zhao et al. | Popularity-based and version-aware caching scheme at edge servers for multi-version VoD systems | |
CN115344395A (zh) | 面向异质任务泛化的边缘缓存调度、任务卸载方法和系统 | |
Ma et al. | Deep reinforcement learning for pre-caching and task allocation in internet of vehicles | |
CN117221403A (zh) | 一种基于用户移动和联邦缓存决策的内容缓存方法 | |
Liu et al. | Mobility-aware video prefetch caching and replacement strategies in mobile-edge computing networks | |
Hsu | Mec-assisted fov-aware and qoe-driven adaptive 360 video streaming for virtual reality | |
Chen et al. | A multi-stage heuristic method for service caching and task offloading to improve the cooperation between edge and cloud computing | |
Shi et al. | Allies: Tile-based joint transcoding, delivery and caching of 360 videos in edge cloud networks | |
CN113342504A (zh) | 基于缓存的智能制造边缘计算任务调度方法及系统 | |
CN114143541B (zh) | 一种面向语义分割的云边协同视频压缩上载方法及装置 | |
Wang et al. | Content-centric caching using deep reinforcement learning in mobile computing | |
Wei et al. | Joint reinforcement learning and game theory bitrate control method for 360-degree dynamic adaptive streaming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |