CN110471621B - 一种面向实时数据处理应用的边缘协同存储方法 - Google Patents
一种面向实时数据处理应用的边缘协同存储方法 Download PDFInfo
- Publication number
- CN110471621B CN110471621B CN201910687788.0A CN201910687788A CN110471621B CN 110471621 B CN110471621 B CN 110471621B CN 201910687788 A CN201910687788 A CN 201910687788A CN 110471621 B CN110471621 B CN 110471621B
- Authority
- CN
- China
- Prior art keywords
- server
- edge
- model data
- neighbor
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,该方法首先确定邻居服务器集合;然后为所有边缘服务器计算每个应用对应的模型数据相对于存储在云端的存储效益,生成初始存储效益矩阵,该存储效益主要体现在时延的降低上;从存储效益矩阵中寻找具有最大存储效益的存储候选方案;如果对应的边缘服务器还有足够的空间容纳模型数据,则进行存储并更新其剩余存储空间与受本次存储操作影响的其他模型数据的存储效益,否则将该效益值设置为无穷小,不再考虑该存储候选方案;重复上述两个步骤,直到所有边缘服务器的存储空间都不足以容纳新的模型数据为止。
Description
技术领域
本发明涉及边缘计算平台及边缘服务器管理领域,尤其涉及一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法。
背景技术
随着移动互联网、物联网等技术的进一步发展,手机和可穿戴设备等智能终端快速普及,成为日常生活中不可或缺的一部分。与此同时,运行在智能终端上的实时数据处理应用层出不穷。比如,智能语音助手能够理解用户发出的语音指令,了解用户习惯;智能相机应用能够智能识别拍摄场景,优化相机参数;在这类应用中,一张图片的识别、一个场景的渲染、一次语音文本转换等操作均可视为一个实时数据处理任务。这些任务拥有计算密集、数据密集和时延敏感三大特性,执行这些任务需要额外的模型数据输入,如预先训练好的深度学习模型和渲染材料等。
为了保证终端应用的同时提升服务质量,学术界提出了边缘计算,通过给予网络边缘设备一定的计算和存储能力,形成“端—边缘—云”三层的系统架构,在网络的边缘提供通信和IT服务、存储和计算资源,以降低应用的处理延迟以及更有效地利用移动网络。这些具有一定计算、存储和通信能力的网络边缘设备被称为边缘服务器。相比于云服务器而言,在边缘计算模式下,边缘服务器离终端距离较近,终端和边缘服务器交互,可以获得更快的响应和更高的服务质量。
然而对于实时数据处理任务,边缘服务器不仅需要提供足够的计算资源,还需提供任务所需的模型数据,才能为终端提供相应的服务,而资源有限的单个边缘服务器往往无法存储所有的模型数据。由于可充当边缘服务器的设备多样化,故各边缘服务器的计算、存储能力可能都不相同从而导致在不同边缘服务器上的模型存储分布不均。传统方法中,当实时数据处理任务被迁移到与终端对应的边缘服务器计算时,若当前边缘服务器缺失相应模型,则需先从其他设备下载所需模型后才能进行任务处理。但是这在现有网络状态下很有可能因为超过截止期而导致大量任务失败。而更为有效的一种方法就是用计算的迁移来代替模型数据的迁移,将实时数据处理任务迁移到具有该应用对应的模型的边缘服务器上执行可以减少迁移的时延。
因此,在异构的边缘计算环境下,如何尽可能多而合理地在边缘服务器之间协同存储模型数据,尽可能满足实时数据处理任务的模型数据需求,对降低任务时延、最大化任务成功率、保证实时数据处理应用性能至关重要。
发明内容
发明目的:针对以上现有技术存在的问题,本发明提出了一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储机制,着重解决在各边缘服务器存储能力不同的异构边缘环境下,对模型数据的协同存储问题。在给定的边缘服务器集合和模型数据集下,正确建立存储效益模型并设计合理的边缘层模型数据放置策略,降低模型数据对应任务在边缘服务器间迁移处理的代价。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,该方法包括以下步骤:
(1)确定需要参与协同存储的边缘服务器集合,对各边缘服务器来说,集合中的其它边缘服务器即为其邻居服务器,云数据中心被认为是所有边缘服务器共同的邻居服务器,因为云数据中心是边缘层的补充,每个边缘服务器均可从云数据中心下载实时数据处理应用所需的模型数据或者迁移自身无法及时处理的任务,因此认为云数据中心是每个边缘服务器的邻居,故与边缘服务器相邻的各邻居服务器加上唯一的云数据中心构成邻居服务器集合,以此确定边缘服务器的邻居服务器集合;
(2)以storePropose<z,m,income>的格式表示存储候选方案,表示将模型数据m存储在边缘服务器z上的存储效益为income,每个边缘服务器都存储一定数量与实时数据处理应用相关的模型数据,如在人脸识别应用中经过训练的人脸识别模型、目标检测应用中经过训练的目标检测模型等。只有存储模型数据才能执行与该模型相关的计算任务,为每个边缘服务器分别计算所有模型数据对其的存储效益income,生成初始存储效益矩阵,可将存储效益矩阵理解为一个矩阵或二维数组,列序号代表边缘服务器的编号,行序号代表模型编号,矩阵元素的值表示将模型数据m存储在边缘服务器z上的存储效益值income;
(3)对于每个边缘服务器z,可能都需要存放若干模型数据,这需要进行若干次的存放,每次存储一个模型数据,在每次选取下一个模型数据存储时,都需要先确定z中还未存储的模型数据集合,然后从存储效益矩阵中寻找这些未存储的模型数据中,在边缘服务器z上具有最大存储效益的存储候选方案;
(4)如果(3)中选出的存储候选方案<z,m,incomemax>中对应的边缘服务器z 还有足够的空间容纳模型数据m,则将模型数据m存储到边缘服务器z并更新其剩余存储空间与受本次存储操作影响的其他模型数据的存储效益;
有两种情况会导致其他模型数据的存储效益会受本次更新的影响,一是由于边缘服务器z存储模型数据m之后,其自身的惩罚时间λz增加,需要更新边缘服务器z上未存储模型数据的存储效益;二是未存储模型数据m的邻居服务器k需要重新计算自身存储模型数据m的存储效益;若边缘服务器z中没有足够的空间容纳模型数据,则将选择的存储候选方案中的存储效益值income设置为无穷小,往后都不再考虑该存储候选方案。
(5)重复步骤(3)、(4),直到所有边缘服务器的存储空间都不足以容纳新的模型数据为止。
进一步的,其特征在于,在步骤(2)中,所述每个模型数据对边缘服务器的存储效益计算方法如下:
(2.1)以变量Z表示边缘服务器集合,以z表示边缘服务器的编号,统一用z表示边缘服务器,用k表示z的邻居服务器,用k’表示k的邻居服务器,cloud表示云数据中心,以变量fz和sz分别表示边缘服务器z的计算能力和存储空间,以变量表示边缘服务器z和邻居服务器k之间的带宽,以集合Ez表示边缘服务器的邻居服务器集合,该集合中包括一群与其相邻的边缘服务器与一个共同的云数据中心;
(2.2)对于模型数据,以M表示模型数据集合,以m表示模型数据编号,{Xzm} 表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置;ωzm表示边缘服务器z对模型数据m的偏好程度,即z收到m对应任务的概率, sizem、inputm以及cm分别表示模型数据m的大小、对应任务的平均输入大小以及对应的计算量;
(2.3)若边缘服务器z或其邻居服务器存有模型数据m,则由存有模型数据的边缘服务器中处理代价最小的进行任务处理;当边缘服务器z及其邻居均未存储模型数据m 时,该模型对应任务只能被丢弃或者迁移给云数据中心处理,迁移到云数据中心时,边缘服务器z处理该模型数据m对应任务的代价为任务迁移给云数据中心处理所需时间,记作因为计算任务可以由存有对应模型数据的任意边缘服务器执行,故任务可能会被迁移到各个邻居服务器,各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和,并且用边缘服务器z对模型数据m对应任务的处理代价和邻居服务器k对m对应任务的处理代价的加权和来表示m对应的任务在边缘服务器z上的处理代价,记为tzm,最终通过和 tzm之间的差值表示边缘服务器z存储模型数据m的效益income,公式如下:
(2.4)存储效益计算所得结果即为存储候选方案storePropose<z,m,income>中的income值,将各存储效益计算后存入存储效益矩阵,而异构边缘环境下边缘层模型数据存储优化模型的优化目标是最大化模型数据存储效益,即最小化任务平均迁移处理代价,具体计算公式如下:
进一步的,步骤(2.4)中,用边缘服务器z对模型数据m对应任务的处理代价和z 的邻居服务器k对m对应任务的处理代价的加权和来表示模型数据m对应的任务在边缘服务器z上的迁移计算代价,具体方法如下:
(a)若边缘服务器z或其邻居服务器k存有模型数据m,则在执行任务时,首先从所有存储了m的边缘服务器中,选出执行m对应的任务的处理代价最小的边缘服务器,其中处理代价等于迁移计算代价加上惩罚时间项λk,若本地的边缘服务器z的处理代价最小,则直接计算不需要迁移;若邻居服务器k的处理代价最小,则需要将任务迁移给它进行计算;若所有边缘服务器均未存储m,则需将任务迁移给云数据中心进行计算;
(b)将模型数据m对应的计算任务迁移到z的邻居服务器k的迁移计算代价记为 的计算根据邻居服务器是否已经存储模型数据m分为两种情况计算,若邻居服务器存有模型数据m,则将任务迁移到该邻居服务器进行处理;若邻居服务器没有存储模型数据m,则需将任务迁移至云数据中心进行处理;fk表示z的邻居服务器k的计算能力,Xkm表示邻居服务器k上是否存有模型数据m,Xkm=1表示存储,Xkm=0表示未存储,迁移计算代价的具体计算公式如下:
(c)因为计算任务可以由存有对应模型数据的任意边缘服务器执行,故任务可能会被迁移到各个邻居服务器。在满足任务模型数据需求的前提下,边缘服务器的处理代价越小,任务迁移至该服务器上的概率越大。将各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和。本方法以边缘服务器z对模型数据m对应任务的处理代价和z的所有邻居服务器对m对应任务处理代价的加权和,来表示模型数据m对应的计算任务在边缘服务器z上的处理代价,记为tzm。
由下文权重的计算公式可知,对于未存储m的边缘服务器,其权重接近于0,不会对迁移计算代价产生影响,其中m在z的邻居服务器k上的处理代价由从z到k的迁移计算代价与k的惩罚项λk的和表示,参数为将模型数据m对应的任务从边缘服务器z迁移到其邻居服务器k上的权重,λk为z的邻居服务器k的惩罚项,为执行任务时将模型数据m对应的计算任务从z迁移到邻居服务器k的迁移计算代价,则表示将计算任务从边缘服务器z迁移到邻居服务器k的时间开销,则处理代价tzm计算方法如下:
进一步的,若多个边缘服务器都能处理模型数据m对应的任务,则需要根据各边缘服务器对m对应任务的处理代价来确定一个权重,以决定任务迁移的偏好程度,权重越大的边缘服务器,收到任务的可能性越大,由Ez表示边缘服务器z的邻居服务器集合, k代表邻居服务器,表示将模型数据m对应任务从边缘服务器z上迁移到其邻居服务器k上的权重,权重由边缘服务器的处理代价决定,处理代价越大,权重越低,权重计算公式如下:
进一步的,边缘服务器z的邻居服务器k的惩罚项λk计算方法如下:
当边缘服务器z存储的模型数据数量大于邻居服务器k或其存储的模型数据对应任务的计算量大于k时,该边缘服务器z收到自身及邻居服务器k迁移的任务负载就会更高,导致任务排队时间增加。因此,为了均衡边缘服务器间的负载,本方法给各边缘服务器的任务处理代价均增加一个惩罚项,λk表示边缘服务器z的邻居服务器k的惩罚项, k’表示邻居服务器k的邻居服务器,cloud表示云数据中心,表示将模型数据m从k 的邻居服务器k’迁移到k的权重,cm表示任务的计算量,Ek表示k的邻居服务器,fk表示z的邻居服务器k的计算能力,该惩罚由一个惩罚因子λ和边缘服务器模型存储情况以及自身计算能力决定,为了与前文tzm的计算公式统一符号,此处计算邻居服务器k 的惩罚项,具体计算公式如下:
由tzm的计算公式可见,在计算处理代价时,处理代价由迁移计算代价与惩罚项的和表示。λk表示边缘服务器k的惩罚项,如果边缘服务器k存储了模型数据m,那么该边缘服务器k处理任务的代价时间均会增加λk。边缘服务器k存储的模型数据越多,该边缘服务器的任务负载也随之增加,惩罚时间λk越大,则边缘服务器k处理任务所需的处理代价越大。在存储模型的过程中,随着模型的存储,自身的惩罚时间λk逐渐增加,这会使得边缘服务器k上当前还未存储的模型数据在k上的存储效益随之更新下降,则再将下一个待存储的模型数据存储到该边缘服务器的可能性也随之下降,以此避免单个边缘服务器集中存储大量模型数据,造成计算时的负载不均。
进一步的,在步骤(3)中,使用优先级队列存储效益,降低每一轮寻找最大存储效益的时间开销。
进一步的,在步骤(3)中,存储模型数据的过程中设定约束条件,具体方法如下:
存储效益函数需要遵循一定的约束条件,如边缘服务器存储的模型数据大小总和不能超过该边缘服务器的最大存储空间,其中,Xzm表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置,sizem表示模型数据m的大小; Sz表示边缘服务器z的存储空间,具体约束公式如下:
为了尽可能多地存储更多种类的模型数据,单个边缘服务器至多存储一个相同模型数据,故Xzm取值为0、1,其中若为0则表示未存储,为1则表示存储,则单个边缘服务器及其邻居服务器存储的相同模型数据种类个数不超过边缘服务器及其邻居服务器的个数,用|Ez|表示边缘服务器的个数,且存储模型数量至少大于1,具体约束公式如下:
1≤∑m∈MXzm≤|Ez|+1。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
(1)减少获取模型数据的平均时延。多个边缘服务器协同存储模型数据,允许弱存储能力边缘服务器从邻居服务器获取模型数据,从而避免访问远端的云计算数据中心,减少数据传输时延。
(2)有利于边缘服务器间负载均衡。模型数据存储与计算均偏好处理能力强的边缘服务器,然而,如果大量模型数据被放置于处理能力较强的部分边缘服务器上,会导致在执行计算的时候负载失衡。本发明在进行存储决策时引入了惩罚项,能够有效遏制这类因模型数据存储不当而引发的负载失衡。
(3)有利于提升任务完成率。保证边缘服务器间负载均衡,可以减少任务在负载严重的服务器中等待时间过长而导致的失败,有效地提升任务完成率。
(4)协同存储决策简单有效。一方面,基于贪心策略的决策方法能够快速应对不同情况做出决策,降低了决策算法的复杂性。另一方面,对存储效益的正确建模保证了存储决策的有效性。
附图说明
图1边缘计算系统架构;
图2本发明实现的异构边缘计算环境下面向实时数据处理应用的边缘协同存储机制流程图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明在计算迁移代价敏感的异构边缘服务器群中运行,如图1所示,边缘服务器指的是更靠近终端的,具有一定计算与存储能力的边缘设备,能够及时处理终端卸载的任务并在较低时延内及时反馈结果。边缘计算环境指的是由智能终端、边缘服务器、云计算中心所组成的三层架构,异构边缘指的是边缘服务器之间的计算与存储能力不一致,其性能存在显著差异的边缘计算环境。异构边缘环境下,单个边缘服务器有限的计算能力和任务动态到达特性导致任务可能无法从单个边缘服务器上获得足够的计算资源,故需要考虑协同存储模型数据的方法。本发明提出了一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储机制,流程如图2所示。具体执行步骤如下:
(1)确定需要参与协同存储的边缘服务器集合,对各边缘服务器来说,集合中的其它边缘服务器即为其邻居服务器,云数据中心被认为是所有边缘服务器共同的邻居服务器,因为云数据中心是边缘层的补充,每个边缘服务器均可从云数据中心下载实时数据处理应用所需的模型数据或者迁移自身无法及时处理的任务,因此认为云数据中心是每个边缘服务器的邻居,故与边缘服务器相邻的各邻居服务器加上唯一的云数据中心构成邻居服务器集合,以此确定边缘服务器的邻居服务器集合;
(2)以storePropose<z,m,income>的格式表示存储候选方案,表示将模型数据m存储在边缘服务器z上的存储效益为income,每个边缘服务器都存储一定数量与实时数据处理应用相关的模型数据,如在人脸识别应用中经过训练的人脸识别模型、目标检测应用中经过训练的目标检测模型等。只有存储模型数据才能执行与该模型相关的计算任务,为每个边缘服务器分别计算所有模型数据对其的存储效益income,生成初始存储效益矩阵,可将存储效益矩阵理解为一个矩阵或二维数组,列序号代表边缘服务器的编号,行序号代表模型编号,矩阵元素的值表示将模型数据m存储在边缘服务器z上的存储效益值income;
(3)对于每个边缘服务器z,可能都需要存放若干模型数据,这需要进行若干次的存放,每次存储一个模型数据,在每次选取下一个模型数据存储时,都需要先确定z中还未存储的模型数据集合,然后从存储效益矩阵中寻找这些未存储的模型数据中,在边缘服务器z上具有最大存储效益的存储候选方案;
(4)如果(3)中选出的存储候选方案<z,m,incomemax>中对应的边缘服务器z 还有足够的空间容纳模型数据m,则将模型数据m存储到边缘服务器z并更新其剩余存储空间与受本次存储操作影响的其他模型数据的存储效益;
有两种情况会导致其他模型数据的存储效益会受本次更新的影响,一是由于边缘服务器z存储模型数据m之后,其自身的惩罚时间λz增加,需要更新边缘服务器z上未存储模型数据的存储效益;二是未存储模型数据m的邻居服务器k需要重新计算自身存储模型数据m的存储效益;若边缘服务器z中没有足够的空间容纳模型数据,则将选择的存储候选方案中的存储效益值income设置为无穷小,往后都不再考虑该存储候选方案。
(5)重复步骤(3)、(4),直到所有边缘服务器的存储空间都不足以容纳新的模型数据为止。
进一步的,其特征在于,在步骤(2)中,所述每个模型数据对边缘服务器的存储效益计算方法如下:
(2.1)以变量Z表示边缘服务器集合,以z表示边缘服务器的编号,统一用z表示边缘服务器,用k表示z的邻居服务器,用k’表示k的邻居服务器,cloud表示云数据中心,以变量fz和sz分别表示边缘服务器z的计算能力和存储空间,以变量表示边缘服务器z和邻居服务器k之间的带宽,以集合Ez表示边缘服务器的邻居服务器集合,该集合中包括一群与其相邻的边缘服务器与一个共同的云数据中心;
(2.2)对于模型数据,以M表示模型数据集合,以m表示模型数据编号,{Xzm} 表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置;ωzm表示边缘服务器z对模型数据m的偏好程度,即z收到m对应任务的概率, sizem、inputm以及cm分别表示模型数据m的大小、对应任务的平均输入大小以及对应的计算量;
(2.3)若边缘服务器z或其邻居服务器存有模型数据m,则由存有模型数据的边缘服务器中处理代价最小的进行任务处理;当边缘服务器z及其邻居均未存储模型数据m 时,该模型对应任务只能被丢弃或者迁移给云数据中心处理,迁移到云数据中心时,边缘服务器z处理该模型数据m对应任务的代价为任务迁移给云数据中心处理所需时间,记作因为计算任务可以由存有对应模型数据的任意边缘服务器执行,故任务可能会被迁移到各个邻居服务器,各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和,并且用边缘服务器z对模型数据m对应任务的处理代价和邻居服务器k对m对应任务的处理代价的加权和来表示m对应的任务在边缘服务器z上的处理代价,记为tzm,最终通过和 tzm之间的差值表示边缘服务器z存储模型数据m的效益income,公式如下:
(2.4)存储效益计算所得结果即为存储候选方案storePropose<z,m,income>中的income值,将各存储效益计算后存入存储效益矩阵,而异构边缘环境下边缘层模型数据存储优化模型的优化目标是最大化模型数据存储效益,即最小化任务平均迁移处理代价,具体计算公式如下:
进一步的,步骤(2.4)中,用边缘服务器z对模型数据m对应任务的处理代价和z 的邻居服务器k对m对应任务的处理代价的加权和来表示模型数据m对应的任务在边缘服务器z上的迁移计算代价,具体方法如下:
(a)若边缘服务器z或其邻居服务器k存有模型数据m,则在执行任务时,首先从所有存储了m的边缘服务器中,选出执行m对应的任务的处理代价最小的边缘服务器,其中处理代价等于迁移计算代价加上惩罚时间项λk,若本地的边缘服务器z的处理代价最小,则直接计算不需要迁移;若邻居服务器k的处理代价最小,则需要将任务迁移给它进行计算;若所有边缘服务器均未存储m,则需将任务迁移给云数据中心进行计算;
(b)将模型数据m对应的计算任务迁移到z的邻居服务器k的迁移计算代价记为 的计算根据邻居服务器是否已经存储模型数据m分为两种情况计算,若邻居服务器存有模型数据m,则将任务迁移到该邻居服务器进行处理;若邻居服务器没有存储模型数据m,则需将任务迁移至云数据中心进行处理;fk表示z的邻居服务器k的计算能力,Xkm表示邻居服务器k上是否存有模型数据m,Xkm=1表示存储,Xkm=0表示未存储,迁移计算代价的具体计算公式如下:
(c)因为计算任务可以由存有对应模型数据的任意边缘服务器执行,故任务可能会被迁移到各个邻居服务器。在满足任务模型数据需求的前提下,边缘服务器的处理代价越小,任务迁移至该服务器上的概率越大。将各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和。本方法以边缘服务器z对模型数据m对应任务的处理代价和z的所有邻居服务器对m对应任务处理代价的加权和,来表示模型数据m对应的计算任务在边缘服务器z上的处理代价,记为tzm。
由下文权重的计算公式可知,对于未存储m的边缘服务器,其权重接近于0,不会对迁移计算代价产生影响,其中m在z的邻居服务器k上的处理代价由从z到k的迁移计算代价与k的惩罚项λk的和表示,参数为将模型数据m对应的任务从边缘服务器z迁移到其邻居服务器k上的权重,λk为z的邻居服务器k的惩罚项,为执行任务时将模型数据m对应的计算任务从z迁移到邻居服务器k的迁移计算代价,则表示将计算任务从边缘服务器z迁移到邻居服务器k的时间开销,则处理代价tzm计算方法如下:
进一步的,若多个边缘服务器都能处理模型数据m对应的任务,则需要根据各边缘服务器对m对应任务的处理代价来确定一个权重,以决定任务迁移的偏好程度,权重越大的边缘服务器,收到任务的可能性越大,由Ez表示边缘服务器z的邻居服务器集合, k代表邻居服务器,表示将模型数据m对应任务从边缘服务器z上迁移到其邻居服务器k上的权重,权重由边缘服务器的处理代价决定,处理代价越大,权重越低,权重计算公式如下:
进一步的,边缘服务器z的邻居服务器k的惩罚项λk计算方法如下:
当边缘服务器z存储的模型数据数量大于邻居服务器k或其存储的模型数据对应任务的计算量大于k时,该边缘服务器z收到自身及邻居服务器k迁移的任务负载就会更高,导致任务排队时间增加。因此,为了均衡边缘服务器间的负载,本方法给各边缘服务器的任务处理代价均增加一个惩罚项,λk表示边缘服务器z的邻居服务器k的惩罚项, k’表示邻居服务器k的邻居服务器,cloud表示云数据中心,表示将模型数据m从k 的邻居服务器k’迁移到k的权重,cm表示任务的计算量,Ek表示k的邻居服务器,fk表示z的邻居服务器k的计算能力,该惩罚由一个惩罚因子λ和边缘服务器模型存储情况以及自身计算能力决定,为了与前文tzm的计算公式统一符号,此处计算邻居服务器k 的惩罚项,具体计算公式如下:
由tzm的计算公式可见,在计算处理代价时,处理代价由迁移计算代价与惩罚项的和表示。λk表示边缘服务器k的惩罚项,如果边缘服务器k存储了模型数据m,那么该边缘服务器k处理任务的代价时间均会增加λk。边缘服务器k存储的模型数据越多,该边缘服务器的任务负载也随之增加,惩罚时间λk越大,则边缘服务器k处理任务所需的处理代价越大。在存储模型的过程中,随着模型的存储,自身的惩罚时间λk逐渐增加,这会使得边缘服务器k上当前还未存储的模型数据在k上的存储效益随之更新下降,则再将下一个待存储的模型数据存储到该边缘服务器的可能性也随之下降,以此避免单个边缘服务器集中存储大量模型数据,造成计算时的负载不均。
进一步的,在步骤(3)中,使用优先级队列存储效益,降低每一轮寻找最大存储效益的时间开销。
进一步的,在步骤(3)中,存储模型数据的过程中设定约束条件,具体方法如下:
存储效益函数需要遵循一定的约束条件,如边缘服务器存储的模型数据大小总和不能超过该边缘服务器的最大存储空间,其中,Xzm表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置,sizem表示模型数据m的大小; Sz表示边缘服务器z的存储空间,具体约束公式如下:
为了尽可能多地存储更多种类的模型数据,单个边缘服务器至多存储一个相同模型数据,故Xzm取值为0、1,其中若为0则表示未存储,为1则表示存储,则单个边缘服务器及其邻居服务器存储的相同模型数据种类个数不超过边缘服务器及其邻居服务器的个数,用|Ez|表示边缘服务器的个数,且存储模型数量至少大于1,具体约束公式如下:
1≤∑m∈MXzm≤|Ez|+1。
Claims (7)
1.一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,其特征在于,该方法包括以下步骤:
(1)确定需要参与协同存储的边缘服务器集合,对各边缘服务器来说,集合中的其它边缘服务器即为其邻居服务器,云数据中心被认为是所有边缘服务器共同的邻居服务器,与边缘服务器相邻的各邻居服务器加上唯一的云数据中心构成邻居服务器集合,以此确定边缘服务器的邻居服务器集合;
(2)以storePropose<z,m,income>的格式表示存储候选方案,表示将模型数据m存储在边缘服务器z上的存储效益为income,每个边缘服务器都存储一定数量与实时数据处理应用相关的模型数据,只有存储模型数据才能执行与该模型相关的计算任务,为每个边缘服务器分别计算所有模型数据对其的存储效益income,生成初始存储效益矩阵,存储效益矩阵为一个矩阵或二维数组,列序号代表边缘服务器的编号,行序号代表模型编号,矩阵元素的值表示将模型数据m存储在边缘服务器z上的存储效益值income;
(3)对于每个边缘服务器z,每次存储一个模型数据,在每次选取下一个模型数据存储时,都需要先确定z中还未存储的模型数据集合,然后从存储效益矩阵中寻找这些未存储的模型数据中,在边缘服务器z上具有最大存储效益的存储候选方案;
(4)如果(3)中选出的存储候选方案<z,m,incomemax>中对应的边缘服务器z还有足够的空间容纳模型数据m,则将模型数据m存储到边缘服务器z并计算更新其剩余存储空间与受本次存储操作影响的其他模型数据的存储效益;
(5)重复步骤(3)、(4),直到所有边缘服务器的存储空间都不足以容纳新的模型数据为止。
2.根据权利要求1所述的一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,其特征在于,在步骤(2)中,每个模型数据对边缘服务器的存储效益计算方法如下:
(2.1)以变量Z表示边缘服务器集合,以z表示边缘服务器的编号,统一用z表示边缘服务器,用k表示z的邻居服务器,用k’表示k的邻居服务器,cloud表示云数据中心,以变量fz和sz分别表示边缘服务器z的计算能力和存储空间,以变量表示边缘服务器z和邻居服务器k之间的带宽,以集合Ez表示边缘服务器的邻居服务器集合,该集合中包括与其相邻的边缘服务器与一个共同的云数据中心;
(2.2)对于模型数据,以M表示模型数据集合,以m表示模型数据编号,{Xzm}表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置;ωzm表示边缘服务器z对模型数据m的偏好程度,即z收到m对应任务的概率,sizem、inputm以及cm分别表示模型数据m的大小、对应任务的平均输入大小以及对应的计算量;
(2.3)若边缘服务器z或其邻居服务器存有模型数据m,则由存有模型数据的边缘服务器中处理代价最小的进行任务处理;当边缘服务器z及其邻居均未存储模型数据m时,该模型对应任务只能被丢弃或者迁移给云数据中心处理,迁移到云数据中心时,边缘服务器z处理该模型数据m对应任务的代价为任务迁移给云数据中心处理所需时间,记作各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和,并且用边缘服务器z对模型数据m对应任务的处理代价和邻居服务器k对m对应任务的处理代价的加权和来表示m对应的任务在边缘服务器z上的处理代价,记为tzm,最终通过和tzm之间的差值表示边缘服务器z存储模型数据m的效益income,公式如下:
(2.4)存储效益计算所得结果即为存储候选方案storePropose<z,m,income>中的income值,将各存储效益计算后存入存储效益矩阵,而异构边缘环境下边缘层模型数据存储优化模型的优化目标是最大化模型数据存储效益,即最小化任务平均迁移处理代价,具体计算公式如下:
3.根据权利要求2所述的一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,其特征在于,步骤(2.3)中,用边缘服务器z对模型数据m对应任务的处理代价和z的邻居服务器k对m对应任务的处理代价的加权和来表示模型数据m对应的任务在边缘服务器z上的迁移计算代价,具体方法如下:
(a)若边缘服务器z或其邻居服务器k存有模型数据m,则在执行任务时,首先从所有存储了m的边缘服务器中,选出执行m对应的任务的处理代价最小的边缘服务器,其中处理代价等于迁移计算代价加上惩罚时间项λk,若本地的边缘服务器z的处理代价最小,则直接计算不需要迁移;若邻居服务器k的处理代价最小,则需要将任务迁移给邻居服务器k进行计算;若所有边缘服务器均未存储m,则需将任务迁移给云数据中心进行计算;
(b)将模型数据m对应的计算任务迁移到z的邻居服务器k的迁移计算代价记为的计算根据邻居服务器是否已经存储模型数据m分为两种情况计算,若邻居服务器存有模型数据m,则将任务迁移到该邻居服务器进行处理;若邻居服务器没有存储模型数据m,则需将任务迁移至云数据中心进行处理;fk表示z的邻居服务器k的计算能力,Xkm表示邻居服务器k上是否存有模型数据m,Xkm=1表示存储,Xkm=0表示未存储,迁移计算代价的具体计算公式如下:
(c)将各边缘服务器处理任务的处理代价表示为将任务迁移到该服务器自身计算的迁移计算代价与该服务器自身的惩罚时间之和,以边缘服务器z对模型数据m对应任务的处理代价和z的所有邻居服务器对m对应任务处理代价的加权和,来表示模型数据m对应的计算任务在边缘服务器z上的处理代价,记为tzm;
其中,m在z的邻居服务器k上的处理代价由从z到k的迁移计算代价与k的惩罚项λk的和表示,参数为将模型数据m对应的任务从边缘服务器z迁移到其邻居服务器k上的权重,λk为z的邻居服务器k的惩罚项,为执行任务时将模型数据m对应的计算任务从z迁移到邻居服务器k的迁移计算代价,则表示将计算任务从边缘服务器z迁移到邻居服务器k的时间开销,则处理代价tzm计算方法如下:
6.根据权利要求1或2或4所述的一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,其特征在于,在步骤(3)中,使用优先级队列存储效益,降低每一轮寻找最大存储效益的时间开销。
7.根据权利要求2或4所述的一种异构边缘计算环境下面向实时数据处理应用的边缘协同存储方法,其特征在于,在步骤(3)中,在存储模型数据的过程中设定约束条件,具体方法如下:边缘服务器存储的模型数据大小总和不能超过该边缘服务器的最大存储空间,其中,Xzm表示数据放置策略,即模型数据m是否存放在边缘服务器z上,0表示不放置、1表示放置,sizem表示模型数据m的大小;Sz表示边缘服务器z的存储空间,具体约束公式如下:
单个边缘服务器至多存储一个相同模型数据,则单个边缘服务器及其邻居服务器存储的相同模型数据种类个数不超过边缘服务器及其邻居服务器的个数,用|Ez|表示边缘服务器的个数,且存储模型数量至少大于1,具体约束公式如下:
1≤∑m∈MXzm≤|Ez|+1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910687788.0A CN110471621B (zh) | 2019-07-29 | 2019-07-29 | 一种面向实时数据处理应用的边缘协同存储方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910687788.0A CN110471621B (zh) | 2019-07-29 | 2019-07-29 | 一种面向实时数据处理应用的边缘协同存储方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110471621A CN110471621A (zh) | 2019-11-19 |
CN110471621B true CN110471621B (zh) | 2020-12-29 |
Family
ID=68509524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910687788.0A Active CN110471621B (zh) | 2019-07-29 | 2019-07-29 | 一种面向实时数据处理应用的边缘协同存储方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110471621B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111262944B (zh) * | 2020-01-20 | 2021-05-25 | 北京大学 | 异构移动边缘计算网络中分层任务卸载的方法与系统 |
CN111158612B (zh) * | 2020-04-02 | 2020-07-24 | 中国人民解放军国防科技大学 | 一种协同移动设备的边缘存储加速方法、装置及设备 |
CN111491332B (zh) * | 2020-04-20 | 2021-08-27 | 中国石油大学(北京) | 动态服务迁移方法及装置 |
CN114285854B (zh) * | 2022-03-03 | 2022-07-05 | 成都工业学院 | 具备存储优化和安全传输能力的边缘计算系统与方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105786681A (zh) * | 2016-02-18 | 2016-07-20 | 中国科学院计算技术研究所 | 数据中心的服务器性能评估及服务器更新方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9325805B2 (en) * | 2004-08-02 | 2016-04-26 | Steve J Shattil | Content delivery in wireless wide area networks |
CN101977242A (zh) * | 2010-11-16 | 2011-02-16 | 西安电子科技大学 | 一种分层分布式云计算体系结构及服务提供方法 |
CN105068755B (zh) * | 2015-07-08 | 2017-10-03 | 南京邮电大学 | 一种面向云计算内容分发网络的数据副本存储方法 |
CN107465748B (zh) * | 2017-08-18 | 2020-07-31 | 东南大学 | 移动边缘云计算系统中基于演进博弈的动态资源分配方法 |
CN109104464B (zh) * | 2018-07-23 | 2021-02-09 | 东南大学 | 一种边缘计算环境下面向协同存储的分布式数据更新方法 |
CN109669768B (zh) * | 2018-12-11 | 2023-03-14 | 北京工业大学 | 一种面向边云结合架构的资源分配和任务调度方法 |
CN109982104B (zh) * | 2019-01-25 | 2020-12-01 | 武汉理工大学 | 移动边缘计算中移动感知的视频预取与缓存替换决策方法 |
-
2019
- 2019-07-29 CN CN201910687788.0A patent/CN110471621B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105786681A (zh) * | 2016-02-18 | 2016-07-20 | 中国科学院计算技术研究所 | 数据中心的服务器性能评估及服务器更新方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110471621A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110471621B (zh) | 一种面向实时数据处理应用的边缘协同存储方法 | |
CN114338504B (zh) | 一种基于网络边缘系统的微服务部署和路由方法 | |
CN111625361B (zh) | 一种基于云端服务器和IoT设备协同的联合学习框架 | |
CN108958916B (zh) | 一种移动边缘环境下工作流卸载优化方法 | |
CN111694656B (zh) | 基于多智能体深度强化学习的集群资源调度方法及系统 | |
CN111835827A (zh) | 物联网边缘计算任务卸载方法及系统 | |
CN109710374A (zh) | 移动边缘计算环境下最小化任务卸载费用的vm迁移策略 | |
CN113098714A (zh) | 一种基于深度强化学习的低时延网络切片的方法 | |
CN112000388B (zh) | 基于多边缘集群协同的并发任务调度方法及装置 | |
CN113032120A (zh) | 一种基于边缘计算的工业现场大数据任务协调度方法 | |
CN111163178A (zh) | 一种边缘计算中基于博弈论的服务部署及任务卸载方法 | |
CN111988787B (zh) | 一种任务的网络接入和服务放置位置选择方法及系统 | |
CN112463337A (zh) | 一种用于移动边缘计算环境下的工作流任务迁移方法 | |
CN113485826A (zh) | 一种边缘服务器负载均衡方法、系统 | |
CN114691372A (zh) | 一种多媒体端边云系统的群体智能控制方法 | |
CN117579701A (zh) | 一种移动边缘网络计算卸载方法及系统 | |
CN117202264A (zh) | Mec环境中面向5g网络切片的计算卸载方法 | |
CN112911618A (zh) | 一种基于资源退出场景的无人机服务器任务卸载调度方法 | |
CN112506658A (zh) | 一种服务链中动态资源分配和任务调度方法 | |
CN115955685A (zh) | 多智能体协同路由方法、设备及计算机存储介质 | |
CN114742166A (zh) | 一种基于时延优化的通信网现场维护模型迁移方法 | |
CN115499875A (zh) | 一种卫星互联网任务卸载方法、系统以及可读存储介质 | |
CN114968402A (zh) | 边缘计算任务处理方法、装置及电子设备 | |
CN117527590B (zh) | 基于边缘网络的微服务部署与请求路由方法、系统及介质 | |
CN113347016B (zh) | 基于资源占用和时延敏感的虚拟化网络功能迁移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |