CN114363962A - 一种协作式边缘服务器部署和资源调度方法、存储介质及系统 - Google Patents
一种协作式边缘服务器部署和资源调度方法、存储介质及系统 Download PDFInfo
- Publication number
- CN114363962A CN114363962A CN202111483496.9A CN202111483496A CN114363962A CN 114363962 A CN114363962 A CN 114363962A CN 202111483496 A CN202111483496 A CN 202111483496A CN 114363962 A CN114363962 A CN 114363962A
- Authority
- CN
- China
- Prior art keywords
- edge server
- base station
- edge
- deployment
- servers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0917—Management thereof based on the energy state of entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/101—Server selection for load balancing based on network conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0925—Management thereof using policies
- H04W28/0933—Management thereof using policies based on load-splitting ratios
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0958—Management thereof based on metrics or performance parameters
- H04W28/0967—Quality of Service [QoS] parameters
- H04W28/0975—Quality of Service [QoS] parameters for reducing delays
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Computer Hardware Design (AREA)
- Genetics & Genomics (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明请求保护一种协作式边缘服务器部署和资源调度方法、存储介质及系统,具体包括步骤:S1,根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型;S2,获取初始解,基站映射多个边缘服务器;根据容量和延迟约束调整已有映射;S3,采用基于失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得合理的边缘服务器部署方案;S4,基于部署结果,建立动态资源调度的预期响应时间优化模型,S5,利用结合裸骨烟花算法和遗传算法的混合算法,动态调整边缘服务器与基站之间的映射。本发明考虑了服务器之间的协作性,提高了用户体验;降低了系统整体能耗和部署成本,降低了基站的预期响应时间。
Description
技术领域
本发明属于移动边缘计算边缘服务器部署领域,特别是涉及协作式边缘服务器部署和资源调度策略。
背景技术
随着移动互联网的快速发展,远程办公、远程医疗、增强现实、交互式游戏、虚拟现实、车联网等应用激增,它们所产生的海量数据都依赖于云平台来处理。但是集中式的数据处理模式已经无法满足它们在时延、安全性和可靠性等方面的要求。移动边缘计算是一种在网络边缘为用户提供IT服务和计算能力的技术,具有邻近性、低时延、高带宽等特点,因此被作为解决以上问题的关键技术。许多互联网公司和科研机构都投入到移动边缘计算的研究中,推动其快速发展。在移动边缘计算中,多数研究都假设边缘服务器已经得到合适的部署或者每个基站上都有边缘服务器,他们只关注任务卸载、资源分配和服务迁移策略对延迟、能耗等目标的影响,忽略了科学地部署边缘服务器也是重要的影响因素。边缘服务器部署问题是指根据一片区域的网络状态选择合适的位置来部署边缘服务器。它是处理计算卸载、资源分配和服务迁移等问题的前提。在部署边缘服务器时,考虑到大多数边缘节点不适合部署边缘服务器和随机部署成本高等特点,一般将边缘服务器部署在基站上,也有一些研究考虑到用户的移动性,将边缘服务器安装在无人机或智能机器人上。科学地部署边缘服务器不仅可以降低系统能耗,减少服务提供商的支出成本,而且可以减少任务响应时间,提高用户的体验质量。
边缘服务器的部署涉及众多因素,包括资本支出、运营支出、服务质量和体验质量等。综合权衡各方因素,将合理地部署边缘服务器与资源分配策略相结合,能够有效提高边缘服务器的资源利用率,增加服务提供商的收入,降低边缘服务器整体能耗和任务延迟,满足用户的个性化需求,提高服务质量和用户体验。因此,研究一种合理的边缘服务器部署策略至关重要。
经过检索,申请公开号CN109819046B,一种基于边缘协作的物联网虚拟计算资源调度方法,属于虚拟化无线网络领域,尤其涉及面向物联网应用的边缘协作中的计算资源调度。该发明设计了一种基于边缘协作的虚拟计算资源调度架构,充分利用边缘水平智能IOT设备、垂直传感器节点及基础设施的空闲虚拟化资源,显著提升资源利用率、智能物联网应用的QoS。此外,所提出的算法能够选出最优的计算卸载路径,在优化数据传输时延的前提下,最小化应用占用的计算资源,使更多的物联网设备获得计算资源,保证应用的正常运行。
区别:该文的计算资源调度第一部分是基于每个任务组件为单位来进行考虑的,为其选择合适的边缘服务器进行计算卸载。第二部分是考虑任务相关性,将前一部分任务产生的结果传输到后续任务计算节点,开启后续节点的任务计算过程,任务组件是不可拆分计算的任务。表示对于基站中的每个任务都会参与动态调度。
本发明的资源调度方案是以一段时间内的基站的总任务量来考虑的,表示该段时间内的任务只能卸载到我所映射的边缘服务器。我的应该可以作为他选择边缘服务器的前一部分,表示该段时间内,将任务卸载到我所映射的两个边缘服务器可以满足容量约束。然后将他的第一部分用过来,用于确定每个任务应该卸载到所映射的两个边缘服务器中的哪一个进行执行。
不同的话,本发明的方案在运行时间会更短,但响应时间会略高,因为本发明是从基站总体进行考虑的;而他的方案由于考虑了每个任务的卸载问题,在运行时间上会更长。本发明的是从整体上去考虑的,他更侧重于细节。我的在映射时连接了两个边缘服务器,可以将一个任务同时卸载到两个边缘服务器上,而他只考虑了一对一映射的问题。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种在延迟约束下降低能耗和成本,同时考虑到用户移动引起的边缘服务器总任务到达率超过其执行能力的情况,提出了一种动态资源调度策略,以降低预期响应时间的协作式边缘服务器部署和资源调度方法、存储介质及系统。本发明的技术方案如下:
一种协作式边缘服务器部署和资源调度方法,其包括以下步骤:
根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型;
获取成本和能耗优化模型的初始解,基站映射多个边缘服务器;根据容量和延迟约束调整已有映射,获取边缘服务器的第一次优化部署方案。部署方案所用参数包括;基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。
采用基于改进失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案。本方案所用参数包括:基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。本文对烟花爆炸范围的计算方法进行了改进,本文中爆炸范围的大小表示迭代优化中修改的边缘服务器数目。原来的算法中的爆炸范围与前一次迭代中的爆炸范围有关,但由于算法多次迭代后,适应度值常常保持不变,导致爆炸范围不断缩小,最终变为0,陷入局部最优解,因此,本文将烟花的爆炸范围计算方法改进为只与该烟花所部署的边缘服务器数量有关,当本代中,烟花产生了适应度值优于自身的火花,爆炸范围将会缩小,计算方法为该烟花所部署的边缘服务器数目的一半乘以缩小系数;否则爆炸范围将会扩大,即该烟花所部署的边缘服务器数目的一半乘以放大系数。
根据边缘服务器部署结果,建立动态资源调度的预期响应时间最小化模型;
利用结合裸骨烟花算法和遗传算法的混合算法,动态调整边缘服务器与基站之间的映射。
进一步的,所述根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型,具体包括;
基于基站数据集获取基站的位置,构建基站集合B={B1,B2,...,BM}和边缘服务器集合S={S1,S2,...,SN}(M≥N),基站和边缘服务器的拓扑结构表示为无向图G=(V,E),V=BUS表示基站和边缘服务器的集合,假设边缘服务器与基站位于同一位置,因此它总共有M个可能的部署位置;获取基站和边缘服务器的参数,包括基站的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建成本和能耗最小化模型。
进一步的,所述部署成本和能耗模型具体包括;
边缘服务器的能耗由运行时能耗和空闲时能耗两部分组成,公式为:
P(u(t))=KPmax+(1-K)Pmax*u(t) (2)
其中Energy表示系统的整体能耗,P(u(t))表示t1时刻到t2时刻的系统功率,t1表示开始进行任务卸载的时刻,t2表示所有任务执行完成的时刻,n表示第n个边缘服务器,Pmax表示边缘服务器在满载状态下的功率,u(t)表示t1时刻到t2时刻的CPU利用率,表示边缘服务器Sn的总任务到达率,p表示边缘服务器处理任务的速率,K表示边缘服务器的空闲状态占满载状态的百分比,u表示CPU利用率。边缘服务器的部署成本与部署的服务器数量呈正相关,因此边缘服务器的部署成本可以表示为:
其中,xm表示是否在Bm处部署边缘服务器,若xm被设置为1表示在部署Bm处部署边缘服务器,反之Bm被设置为0,采用z-score标准化方法分别对能耗、成本进行规范化。
进一步的,所述获取成本和能耗优化模型的初始解,具体包括:
首先建立映射关系,考虑若基站与边缘服务器处于同一位置,则只映射该边缘服务器,否则需映射两个边缘服务器;然后根据容量和延迟约束调整已有映射,并分配基站任务到达率到边缘服务器,获取第一次优化的初始部署方案。
进一步的,所述部署成本和能耗模型的约束条件具体包括;
映射约束:当某个基站与边缘服务器位于同一位置时,它只能映射到该边缘服务器,且该边缘服务器为基站的近端边缘服务器;否则,该基站需要连接一个近端边缘服务器和一个远端边缘服务器,公式为:
其中二进制变量表示基站Bm是否连接近端边缘服务器Sn,值为1表示连接,为0表示不连接;表示基站Bm是否连接远端边缘服务器Sn,值为1表示连接,为0表示不连接。Bm表示第m个基站,B表示包含所有基站的集合,S表示包含所有边缘服务器的集合。
延迟约束:每个边缘服务器有一个固定覆盖范围,当基站与边缘服务器的欧氏距离超过这个阈值时,基站的任务无法卸载到该边缘服务器上执行,设Rcover表示边缘服务器的覆盖范围,则公式为:
服务器连接基站的数量约束:每个边缘服务器连接的基站数量不能超过阈值,当映射到同一边缘服务器的基站数目过多时,会增大同一时刻到达边缘服务器的任务数,增大任务响应时间;设Rln表示边缘服务器能同时服务的最大基站数量,则公式为:
其中Rln表示边缘服务器连接基站数量的上限值,当超过这个上限时将会大大降低边缘服务器的服务质量。
进一步的,所述采用基于失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案,具体包括:
(2)获取每个烟花的初始部署方案,烟花中包含边缘服务器数量、整体能耗、边缘服务器位置及映射方案四个数据,根据部署方案计算成本和能耗z-score标准化后的值作为适应度值;
(3)根据公式计算出每个烟花产生的火花数量,其中SNrank表示适应度值排名为rank的烟花产生的火花数,表示所有烟花产生的火花总数,表示烟花的数目,rank为该烟花的适应度值排名。同时计算出每个烟花的爆炸范围,即每个烟花产生火花时需要修改的边缘服务器数量,公式为:
(4)根据爆炸幅度随机删除部分已部署的边缘服务器,然后按照映射、延迟和容量要求再重新部署一些服务器,以满足基站需求;
(5)更新烟花并重新初始化被淘汰的烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行(3)。
进一步的,所述根据边缘服务器部署结果,建立动态资源调度的预期响应时间最小化模型,具体包括:
获取基站和边缘服务器的参数,包括基站的前一次参与计算的任务到达率当前的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建预期响应时间最小化模型。
进一步的,所述结合裸骨烟花算法和遗传算法的混合算法具体包括:
(2)定时监测是否有基站的任务到达率波动,若没有则保持原有映射不变,否则需要利用结合裸骨烟花算法和遗传算法的混合算法调整映射;
(4)获取初始映射方案,随机选择未分配基站映射到边缘服务器,映射时优先考虑剩余容量较多的边缘服务器,分配完成后考虑是否有边缘服务器的总任务到达率超过λavg;直到分配完所有的基站;初始映射方案执行次,其中最优方案作为烟花,其余的为火花;
(5)对每个火花执行交叉变异过程;对于火花中每个基站的映射方案,若发生变异操作,则删除该映射方案;否则发生交叉操作,该基站有一半概率选择烟花中对应基站的映射方案,另一半概率保持映射方案不变;
(6)查找并重映射违反映射和容量约束的基站;
(7)更新烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行5;
一种计算机可读存储介质,其该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如任一项所述的协作式边缘服务器部署和资源调度方法。
一种基于任一项所述方法的调度系统,其包括:
成本和能耗优化模型建立模块:用于根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型;
第一次优化模块:用于获取成本和能耗优化模型的初始解,基站映射多个边缘服务器;根据容量和延迟约束调整已有映射,获取边缘服务器的第一次优化部署方案。部署方案所用参数包括:基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。
第二次优化模块:采用基于改进失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案。本方案所用参数包括;基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。本文对烟花爆炸范围的计算方法进行了改进,本文中爆炸范围的大小表示迭代优化中修改的边缘服务器数目。原来的算法中的爆炸范围与前一次迭代中的爆炸范围有关,但由于算法多次迭代后,适应度值常常保持不变,导致爆炸范围不断缩小,最终变为0,陷入局部最优解,因此,本文将烟花的爆炸范围计算方法改进为只与该烟花所部署的边缘服务器数量有关,当本代中,烟花产生了适应度值优于自身的火花,爆炸范围将会缩小,计算方法为该烟花所部署的边缘服务器数目的一半乘以缩小系数;否则爆炸范围将会扩大,即该烟花所部署的边缘服务器数目的一半乘以放大系数。
动态调整模块:根据边缘服务器的部署结果,建立动态资源调度的预期响应时间最小化模型;利用结合裸骨烟花算法和遗传算法的混合算法,动态调整边缘服务器与基站之间的映射。
本发明的优点及有益效果如下:
1.本发明在边缘服务器部署时考虑了边缘服务器的协作性,更符合现实情况,同时可以解决任务卸载过程中的单点故障问题,并且有效地减少了部署成本和整体能耗。
2.在合理部署边缘服务器的基础上,引入了动态资源调度策略,根据用户移动引起的基站任务到达率波动问题,动态调整基站与边缘服务器之间的映射,从而降低了预期任务响应时间。
创新点1在边缘服务器的部署阶段和资源调度阶段都考虑的边缘服务器的协作性,让与边缘服务器不处于同一位置的基站映射两个边缘服务器。优点:服务器协作可以解决因服务器单点故障引发的用户体验下降问题,其次,在一对多的映射模式下,基站可以将自己的多个任务同时卸载到多个服务器,或将自己的一个任务的不同部分卸载到不同服务器,以降低任务响应时间。基于服务器协作定义的公式主要包括:(1),(8-15),(20),(21-25),其中(8),(10),(12),(15),(21),(23),(25)是单映射时已存在的公式,(1),(9),(11),(13),(14),(20),(22),(24)是双映射新添加的公式,为自己定义的公式。这个点难想到的原因是连接两个边缘服务器时不知道如何合理分配基站负载到边缘服务器,本文利用了排队论的相关知识,根据近端服务器的缓存队列满的概率来进行负载分配,相关公式来自《运筹学教程(第五版)》。
创新点2在部署阶段获取初始解时将映射过程与负载分配过程分开,在映射过程中,为了合理部署边缘服务器,引入了边缘服务器映射的最大基站数Rln,让映射和部署更加合理,然后在根据映射关系,按照公式(1)进行负载分配。不容易想到的原因:因为原有的单映射中,部署方案的获取较为容易,映射过程与负载分配过程是否拆分对部署效果的影响不大,而双映射中,服务器之间存在联系,往往一次映射的建立需要修改多个边缘服务器的负载,因此将两过程拆分较容易获取好的解。
创新点3在部署阶段使用了基于改进失败者淘汰的烟花算法,使用这个算法的原因是在迭代优化过程中,我发现较好解的获取往往需要一个较优的初始解,而较优的初始解获取较难,因此引入失败者淘汰机制的烟花算法,在每次迭代中都会重新初始化几个烟花,若初始化的解更好则会替换原有烟花的解,提高对好解的获取效率。其次对烟花爆炸范围的计算方法进行了改进,本文中爆炸范围的大小表示迭代优化中修改的边缘服务器数目。计算方法为:当本代中,烟花产生了适应度值优于自身的火花,爆炸范围将会缩小,计算方法为该烟花所部署的边缘服务器数目的一半乘以缩小系数;否则爆炸范围将会扩大,即该烟花所部署的边缘服务器数目的一半乘以放大系数。
创新点4在资源调度阶段使用了结合裸骨烟花算法和遗传算法的混合算法。资源调度要求算法效率高,结果较好,而基于改进失败者淘汰的烟花算法运行效率低,且在映射时优先考虑访问延迟因素,不适于解决资源调度问题。遗传算法常被用于解决该问题,但存在种群较大,选择过程复杂等问题,本文采用了裸骨烟花算法来克服这方面的问题,同时对遗传算法中的交叉变异机制进行了改进,并用于裸骨烟花算法的迭代优化。改进如下:对于火花中每个基站的映射方案,若发生变异操作,则删除该映射方案;否则发生交叉操作,该基站有一半概率选择烟花中对应基站的映射方案,另一半概率保持映射方案不变。优点:能较好的适用于本文的资源调度模型,提高了算法的运行效率,依然能获取较好的解。不容易想到的原因:可以是因为使用的场景不同,不同的场景对应于不同的改进。
附图说明
图1是本发明提供优选实施例为本发明的流程图;
图2为获取初始部署方案时建立映射的流程图;
图3为取初始部署方案时分配负载的流程图;
图4为本发明的协作式边缘服务器部署算法流程图;
图5为本发明的动态资源调度算法流程图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
协作式边缘服务器部署和资源调度策略,其包括以下步骤:
S1,基于上海电信基站数据集获取基站的位置,构建基站集合B={B1,B2,...,BM}和边缘服务器集合S={S1,S2,...,SN}(M≥N)。基站和边缘服务器的拓扑结构表示为无向图G=(V,E),V=BU S表示基站和边缘服务器的集合。假设边缘服务器与基站位于同一位置,因此它总共有M个可能的部署位置。获取基站和边缘服务器的参数,包括基站的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建成本和能耗最小化模型;
S2,获取初始解,首先建立映射关系,随机选择基站部署边缘服务器,若基站与边缘服务器处于同一位置,则只映射该边缘服务器,否则需映射两个边缘服务器,直到所有基站分配完成;然后根据容量和延迟约束调整已有映射,当边缘服务器的总任务到达率大于其服务能力时,将与其链接的一部分基站重新映射边缘服务器,若找不到合适的边缘服务器,则在该基站上部署一个新的边缘服务器,直到所有基站分配完成;
S3,对基于失败者淘汰的烟花算法进行改进并应用于求解成本和能耗最小化问题;
S4,根据边缘服务器的部署结果,确定了边缘服务器的部署位置。在移动边缘计算环境中,用户具有移动性,它会导致边缘服务器总任务到达率超过其服务能力,因此需要进行资源调度。本方案需要获取基站和边缘服务器的参数,包括基站的前一次参与计算的任务到达率当前的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建预期响应时间最小化模型;
S5,混合算法以裸骨烟花算法为基础,迭代过程改用遗传算法的交叉变异机制,并应用于求解预期响应时间最小化问题;
优选的,所述步骤S1中包括:
(1)采用m/m/1/n队列模型来描述边缘服务器Sn的任务处理过程。根据基站与边缘服务器不处于同一位置时,该基站会映射两个服务器,我们定义距离基站较近的边缘服务器为近端服务器(NEES),另一个为远端服务器(FEES)。其次,当基站与边缘服务器处于同一位置时,该基站映射的边缘服务器也被认为是近端服务器。当基站连接两个边缘服务器时,它首先考虑向近端边缘服务器卸载任务,当近端边缘服务器缓存队列没有剩余空间时,则它会向远端边缘服务器卸载任务。故边缘服务器Sn的总任务到达率和缓存队列满的概率αn的计算公式为:
(2)部署成本和能耗模型;边缘服务器的能耗由运行时能耗和空闲时能耗两部分组成。公式为:
P(u(t))=KPmax+(1-K)Pmax*u(t) (5)
其中K表示边缘服务器的空闲状态占满载状态的百分比,u表示CPU利用率。边缘服务器的部署成本与部署的服务器数量呈正相关。因此边缘服务器的部署成本可以表示为:
其中,xm表示是否在Bm处部署边缘服务器,若xm被设置为1表示在部署Bm处部署边缘服务器,反之Bm被设置为0。采用z-score标准化方法分别对能耗、成本进行规范化。
(3)约束条件;映射约束:当某个基站与边缘服务器位于同一位置时,它只能映射到该边缘服务器,且该边缘服务器为基站的近端边缘服务器;否则,该基站需要连接一个近端边缘服务器和一个远端边缘服务器。公式为:
延迟约束:每个边缘服务器有一个固定覆盖范围,当基站与边缘服务器的欧氏距离超过这个阈值时,基站的任务无法卸载到该边缘服务器上执行。设Rcover表示边缘服务器的覆盖范围,则公式为:
服务器连接基站的数量约束:每个边缘服务器连接的基站数量不能超过阈值。当映射到同一边缘服务器的基站数目过多时,会增大同一时刻到达边缘服务器的任务数,增大任务响应时间。设Rln表示边缘服务器能同时服务的最大基站数量,则公式为:
优选的,所述步骤所述步骤S3中基于失败者淘汰的烟花算法的应用包括:
(2)根据步骤S2获取每个烟花的初始部署方案。烟花中包含边缘服务器数量,整体能耗,边缘服务器位置,映射方案四个数据。根据部署方案计算成本和能耗z-score标准化后的值作为适应度值;
其中,Amg为第g代烟花中边缘服务器数目的一半,f(Xg)为第g代烟花的适应度值;
(4)根据爆炸幅度随机删除部分已部署的边缘服务器,然后按照映射、延迟和容量要求再重新部署一些服务器,以满足基站需求;
(5)更新烟花并重新初始化被淘汰的烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行3;
优选的,所述步骤S4中预期响应时间模型包括:
(1)基站的预期响应时间由通信延迟和任务执行延迟组成。其次,由于本文中每个基站连接了两个边缘服务器,而我们计算任务响应时间是基于每个基站的单个任务来进行考虑的,考虑到基站向边缘服务器卸载任务的概率越大时,该基站从该边缘服务器获得的资源也就越多,该基站与边缘服务器之间产生的任务响应时间对于该基站的预期任务响应时间的影响也越大,因此,系统的预期响应时间公式为:
其中,d(Bm,Sn)表示基站Bm和边缘服务器Sn之间的欧几里德距离,常量和非负变量Dm分别表示电磁波传播速率和基站Bm的平均任务数据量,表示基站Bm到边缘服务器Sn的通信容量,表示单位时间内边缘服务器Sn中的平均任务数,常数μ表示在单位时间内边缘服务器Sn可以完成的任务数。
(2)约束条件。映射约束:确保与边缘服务器处于同一位置的基站映射了一个边缘服务器,其他基站映射了两个边缘服务器。部署位置约束:确保每个边缘服务器准确地部署在基站上。容量约束:确保每个边缘服务器的总任务到达率小于其计算能力。公式为:
优选的,所述步骤S5中混合算法的应用包括:
(2)定时监测是否有基站的任务到达率波动,若没有则保持原有映射不变,否则需要调用动态资源调度算法调整映射;
(4)获取初始映射方案,随机选择未分配基站映射到边缘服务器,映射时优先考虑剩余容量较多的边缘服务器,分配完成后考虑是否有边缘服务器的总任务到达率超过λavg;直到分配完所有的基站。初始映射方案执行次,其中最优方案作为烟花,其余的为火花。
(5)对每个火花执行交叉变异过程;对于火花中每个基站的映射方案,若发生变异操作,则删除该映射方案;否则发生交叉操作,该基站有一半概率选择烟花中对应基站的映射方案,另一半概率保持映射方案不变。
(6)查找并重映射违反映射和容量约束的基站,
(7)更新烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行5;
具体的,本发明公开了协作式边缘服务器部署和资源调度策略,如图1所示,包括以下步骤:
第一步:基于上海电信基站数据集获取基站的位置,获取所有基站的位置信息,获取基站和边缘服务器的参数,包括基站的数量M,基站的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建成本和能耗最小化模型。
在本实施方案中,运用以上获取的数据信息,建立混合整数线性规划模型,获取合理的边缘服务器部署方案。
第二步:获取初始解,首先建立映射关系,考虑若基站与边缘服务器处于同一位置,则只映射该边缘服务器,否则需映射两个边缘服务器;然后根据容量和延迟约束调整已有映射,当边缘服务器的总任务到达率大于其服务率时,将与其链接的一部分基站重新映射边缘服务器,若找不到合适的边缘服务器,则在该基站上部署一个新的边缘服务器。
在本实施方式中,将映射过程与负载分配过程分开,同时映射时优先考虑距离该基站最近的边缘服务器,该部署方案的成本和能耗更低。
第三步:对基于失败者淘汰的烟花算法进行改进并应用于求解成本和能耗最小化问题。
在本实施方式中,根据第二步获取的初始部署方案,计算成本和能耗z-score标准化后的值作为适应度值,计算出每个烟花产生的火花数量和爆炸范围,根据爆炸幅度随机删除部分已部署的边缘服务器,然后按照映射、延迟和容量要求再重新部署一些服务器,以满足基站需求,重映射时优先考虑距离基站最近的边缘服务器,更新烟花并重新初始化被淘汰的烟花,达到最大迭代次数则算法结束,否则迭代次数加1,继续优化。
第四步:根据边缘服务器的部署结果,确定了边缘服务器的部署位置,为解决用户移动引起的边缘服务器总任务到达率超过服务率问题,需要获取基站和边缘服务器的参数,包括基站的前一次参与计算的任务到达率当前的任务到达率边缘服务器的计算能力p,缓存队列长度len,同时服务的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn),基于这些参数构建预期响应时间最小化模型。
在本实施方式中,运用以上获取的数据信息,建立混合整数线性规划模型,优化目标为预期响应时间,约束条件包括映射约束,部署位置约束和容量约束,获取合理的动态资源调度方案。
第五步:混合以裸骨烟花算法为基础,迭代过程改用遗传算法的交叉变异机制,并应用于求解预期响应时间最小化问题。
在本实施方式中,定时监测是否有基站的任务到达率波动,若没有则保持原有映射不变,否则需要调用动态资源调度算法调整映射。动态资源调度过程首先计算每个边缘服务器预期任务到达率λavg,当边缘服务器分配的资源超过λavg时,它将不会在分配资源给任何基站;其次,获取初始映射方案,随机选择未分配基站映射到边缘服务器,映射时优先考虑剩余容量较多的边缘服务器,分配完成后考虑是否有边缘服务器的总任务到达率超过λavg,直到分配完所有的基站;初始映射方案执行次,其中最优方案作为烟花,其余的为火花;对每个火花执行交叉变异过程;对于火花中每个基站的映射方案,若发生变异操作,则删除该映射方案;否则发生交叉操作,该基站有一半概率选择烟花中对应基站的映射方案,另一半概率保持映射方案不变;查找并重映射违反映射和容量约束的基站,更新烟花,达到最大迭代次数则算法结束,否则迭代次数加1,继续优化。
以下利用一个具体实例对本发明进行进一步说明:
其中,数据集选取2014年上海电信基站数据集,所获基站数据包括基站的经纬度,用户以及为该用户服务的开始时间和结束时间。
由于本文研究的是协作式边缘服务器的部署和资源调度方案,所以选取1500个基站的位置信息,假设基站的覆盖范围为10km,其他信息根据移动边缘计算环境,在合理范围内随机取值。
假设每个基站的任务到达率在[4×106,6×108]范围内随机取值,基站的平均任务大小为60Kb,链路的通信容量为[100,1000],电磁波的传播速度为2×105km/s。
我们选择了浪潮NP3020作为边缘服务器,它配备4核心,每个核心的工作频率为3.4GHz。服务器的缓存队列长度为4,满载状态的功率为300W,边缘服务器的空闲功率占满载状态功率的60%。假设边缘服务器的任务执行时间服从正态分布,平均20ms,方差5,则有μ为0.05。根据基站平均任务量和服务器的计算能力我们设置边缘服务器服务的最大基站数为30。
随机选取基站部署边缘服务器,建立边缘服务器与基站的映射,然后根据映射分配基站负载,获取满足映射、延迟和容量要求的初始部署方案(烟花),计算每个烟花产生的火花和爆炸范围,根据爆炸范围调整部署的边缘服务器数量和映射关系来获取新解(火花),根据每个烟花生成的火花更新烟花,对适应度值最差的两个烟花进行重新初始化,直到达到最大迭代次数算法结束,否则迭代次数加1,继续产生火花迭代优化。
此时共部署了153个边缘服务器,整体能耗为43246kWh,而基准算法的部署方案中需要部署了192个边缘服务器,整体能耗为50086kWh。显然,本发明有效减少了部署的边缘服务器数量和能耗,相应的降低了部署成本。
监测基站任务到达率是否发生变化,若没变则保持原有调度策略不变;若发生变化则调用动态资源调度算法。计算出每个边缘服务器的预期总任务到达率λavg。随机选择基站映射到剩余容量最高的边缘服务器,并分配基站负载,判断边缘服务器的总任务到达率是否超过λavg,若超过则该边缘服务器不在映射基站,循环这一过程直到所有基站都被分配。重复次上述过程获取初始资源调度方案,其中最优解为烟花,其余为火花。对火花执行交叉变异过程,贪婪选取最优解作为烟花,直到达到最大迭代次数算法结束,否则迭代次数加1,继续产生火花迭代优化。
此时预期任务响应时间为60.10ms,而继续采用基于失败者淘汰的烟花算法的实验结果为62.81ms,使用传统的遗传算法的实验结果为60.25ms。显然,本发明有效减少了预期响应时间。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (10)
1.一种协作式边缘服务器部署和资源调度方法,其特征在于,包括以下步骤:
根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型;
获取成本和能耗优化模型的初始解,基站映射多个边缘服务器;根据容量和延迟约束调整已有映射,获取边缘服务器的第一次优化部署方案,部署方案所用参数包括;基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn);
采用基于改进失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案;部署方案所用参数包括:基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn);本文对烟花爆炸范围的计算方法进行了改进,爆炸范围的大小表示迭代优化中修改的边缘服务器数目,每次迭代优化会修改一部分已部署的边缘服务器,先删除这些服务器,然后根据时延和容量等要求继续部署来获取新解,原来的算法中的爆炸范围与前一次迭代中的爆炸范围有关,但由于算法多次迭代后,适应度值常常保持不变,导致爆炸范围不断缩小,最终变为0,陷入局部最优解,因此,本文将烟花的爆炸范围计算方法改进为只与该烟花所部署的边缘服务器数量有关,当本代中,烟花产生了适应度值优于自身的火花,爆炸范围将会缩小,计算方法为该烟花所部署的边缘服务器数目的一半乘以缩小系数;否则爆炸范围将会扩大,即该烟花所部署的边缘服务器数目的一半乘以放大系数;
根据边缘服务器部署结果,建立动态资源调度的预期响应时间最小化模型;
利用结合裸骨烟花算法和遗传算法的混合算法,动态调整边缘服务器与基站之间的映射。
2.根据权利要求1所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型,具体包括;
3.根据权利要求2所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述部署成本和能耗模型具体包括;
边缘服务器的能耗由运行时能耗和空闲时能耗两部分组成,公式为:
P(u(t))=KPmax+(1-K)Pmax*u(t) (2)
其中Energy表示系统的整体能耗,P(u(t))表示t1时刻到t2时刻的系统功率,t1表示开始进行任务卸载的时刻,t2表示所有任务执行完成的时刻,n表示第n个边缘服务器,Pmax表示边缘服务器在满载状态下的功率,u(t)表示t1时刻到t2时刻的CPU利用率,表示边缘服务器Sn的总任务到达率,p表示边缘服务器处理任务的速率,K表示边缘服务器的空闲状态占满载状态的百分比。边缘服务器的部署成本与部署的服务器数量呈正相关,因此边缘服务器的部署成本可以表示为:
其中,xm表示是否在Bm处部署边缘服务器,若xm被设置为1表示在部署Bm处部署边缘服务器,反之Bm被设置为0,采用z-score标准化方法分别对能耗、成本进行规范化。
4.根据权利要求3所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述获取成本和能耗优化模型的初始解,具体包括:
首先建立映射关系,考虑若基站与边缘服务器处于同一位置,则只映射该边缘服务器,否则需映射两个边缘服务器;然后根据容量和延迟约束调整已有映射,并分配基站任务到达率到边缘服务器,获取第一次优化的初始部署方案。
5.根据权利要求4所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述部署成本和能耗模型的约束条件具体包括;
映射约束:当某个基站与边缘服务器位于同一位置时,它只能映射到该边缘服务器,且该边缘服务器为基站的近端边缘服务器;否则,该基站需要连接一个近端边缘服务器和一个远端边缘服务器,公式为:
其中二进制变量表示基站Bm是否连接近端边缘服务器Sn,值为1表示连接,为0表示不连接;表示基站Bm是否连接远端边缘服务器Sn,值为1表示连接,为0表示不连接。Bm表示第m个基站,B表示包含所有基站的集合,S表示包含所有边缘服务器的集合。
延迟约束:每个边缘服务器有一个固定覆盖范围,当基站与边缘服务器的欧氏距离超过这个阈值时,基站的任务无法卸载到该边缘服务器上执行,设Rcover表示边缘服务器的覆盖范围,则公式为:
服务器连接基站的数量约束:每个边缘服务器连接的基站数量不能超过阈值,当映射到同一边缘服务器的基站数目过多时,会增大同一时刻到达边缘服务器的任务数,增大任务响应时间,则公式为:
其中Rln表示边缘服务器连接基站数量的上限值,当超过这个上限时将会大大降低边缘服务器的服务质量。
6.根据权利要求5所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述采用基于失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案,具体包括:
(2)获取每个烟花的初始部署方案,烟花中包含边缘服务器数量、整体能耗、边缘服务器位置及映射方案四个数据,根据部署方案计算成本和能耗z-score标准化后的值作为适应度值;
(3)根据公式计算出每个烟花产生的火花数量。其中SNrank表示适应度值排名为rank的烟花产生的火花数,表示所有烟花产生的火花总数,表示烟花的数目,rank为该烟花的适应度值排名。同时计算出每个烟花的爆炸范围,即每个烟花产生火花时需要修改的边缘服务器数量,公式为:
(4)根据爆炸幅度随机删除部分已部署的边缘服务器,然后按照映射、延迟和容量要求再重新部署一些服务器,以满足基站需求;
(5)更新烟花并重新初始化被淘汰的烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行(3)。
8.根据权利要求7所述的一种协作式边缘服务器部署和资源调度方法,其特征在于,所述结合裸骨烟花算法和遗传算法的混合算法具体包括:
(2)定时监测是否有基站的任务到达率波动,若没有则保持原有映射不变,否则需要利用结合裸骨烟花算法和遗传算法的混合算法调整映射;
(4)获取初始映射方案,随机选择未分配基站映射到边缘服务器,映射时优先考虑剩余容量较多的边缘服务器,分配完成后考虑是否有边缘服务器的总任务到达率超过λavg;直到分配完所有的基站;初始映射方案执行次,其中最优方案作为烟花,其余的为火花;
(5)对每个火花执行交叉变异过程;对于火花中每个基站的映射方案,若发生变异操作,则删除该映射方案;否则发生交叉操作,该基站有一半概率选择烟花中对应基站的映射方案,另一半概率保持映射方案不变;
(6)查找并重映射违反映射和容量约束的基站;
(7)更新烟花,达到最大迭代次数则算法结束,否则迭代次数加1,执行5。
9.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如权利要求1-8任一项所述的协作式边缘服务器部署和资源调度方法。
10.一种基于权利要求1-8任一项所述方法的调度系统,其特征在于,包括:
成本和能耗优化模型建立模块:用于根据访问延迟和边缘服务器的容量,建立协作式边缘服务器部署的成本和能耗优化模型;
第一次优化模块:用于获取成本和能耗优化模型的初始解,基站映射多个边缘服务器;根据容量和延迟约束调整已有映射,获取边缘服务器的第一次优化部署方案;部署方案所用参数包括;基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。
第二次优化模块:采用基于改进失败者淘汰的烟花算法,调整部署的边缘服务器数量和映射关系,获得边缘服务器的第二次优化部署方案。部署方案所用参数包括;基站的任务到达率边缘服务器处理任务的速率p,缓存队列长度len,边缘服务器连接的最大基站数量Rln,满载功耗Pmax,覆盖范围Rcover,基站与边缘服务器的距离d(Bm,Sn)。本文对烟花爆炸范围的计算方法进行了改进,爆炸范围的大小表示迭代优化中修改的边缘服务器数目,原来的算法中的爆炸范围与前一次迭代中的爆炸范围有关,但由于算法多次迭代后,适应度值常常保持不变,导致爆炸范围不断缩小,最终变为0,陷入局部最优解,因此,本文将烟花的爆炸范围计算方法改进为只与该烟花所部署的边缘服务器数量有关,当本代中,烟花产生了适应度值优于自身的火花,爆炸范围将会缩小,计算方法为该烟花所部署的边缘服务器数目的一半乘以缩小系数;否则爆炸范围将会扩大,即该烟花所部署的边缘服务器数目的一半乘以放大系数。
动态调整模块:根据边缘服务器的部署结果,建立动态资源调度的预期响应时间最小化模型;利用结合裸骨烟花算法和遗传算法的混合算法,动态调整边缘服务器与基站之间的映射。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111483496.9A CN114363962A (zh) | 2021-12-07 | 2021-12-07 | 一种协作式边缘服务器部署和资源调度方法、存储介质及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111483496.9A CN114363962A (zh) | 2021-12-07 | 2021-12-07 | 一种协作式边缘服务器部署和资源调度方法、存储介质及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114363962A true CN114363962A (zh) | 2022-04-15 |
Family
ID=81097303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111483496.9A Pending CN114363962A (zh) | 2021-12-07 | 2021-12-07 | 一种协作式边缘服务器部署和资源调度方法、存储介质及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114363962A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115118728A (zh) * | 2022-06-21 | 2022-09-27 | 福州大学 | 基于蚁群算法的边缘负载均衡任务调度方法 |
CN115277416A (zh) * | 2022-06-23 | 2022-11-01 | 西安邮电大学 | 工业互联网中边缘计算的容器部署方法及系统 |
CN115277698A (zh) * | 2022-07-20 | 2022-11-01 | 福州大学 | 基于可靠性的遥测收集方案部署方法 |
CN115883568A (zh) * | 2023-02-22 | 2023-03-31 | 云南省交通规划设计研究院有限公司 | 一种隧道边缘计算节点部署方法和系统 |
CN116847365A (zh) * | 2023-08-22 | 2023-10-03 | 北京航空航天大学杭州创新研究院 | 一种部署方法、装置、设备及存储介质 |
-
2021
- 2021-12-07 CN CN202111483496.9A patent/CN114363962A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115118728A (zh) * | 2022-06-21 | 2022-09-27 | 福州大学 | 基于蚁群算法的边缘负载均衡任务调度方法 |
CN115118728B (zh) * | 2022-06-21 | 2024-01-19 | 福州大学 | 基于蚁群算法的边缘负载均衡任务调度方法 |
CN115277416A (zh) * | 2022-06-23 | 2022-11-01 | 西安邮电大学 | 工业互联网中边缘计算的容器部署方法及系统 |
CN115277416B (zh) * | 2022-06-23 | 2023-06-23 | 西安邮电大学 | 工业互联网中边缘计算的容器部署方法及系统 |
CN115277698A (zh) * | 2022-07-20 | 2022-11-01 | 福州大学 | 基于可靠性的遥测收集方案部署方法 |
CN115277698B (zh) * | 2022-07-20 | 2024-01-16 | 福州大学 | 基于可靠性的遥测收集方案部署方法 |
CN115883568A (zh) * | 2023-02-22 | 2023-03-31 | 云南省交通规划设计研究院有限公司 | 一种隧道边缘计算节点部署方法和系统 |
CN116847365A (zh) * | 2023-08-22 | 2023-10-03 | 北京航空航天大学杭州创新研究院 | 一种部署方法、装置、设备及存储介质 |
CN116847365B (zh) * | 2023-08-22 | 2023-11-03 | 北京航空航天大学杭州创新研究院 | 一种部署方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114363962A (zh) | 一种协作式边缘服务器部署和资源调度方法、存储介质及系统 | |
CN109857546B (zh) | 基于Lyapunov优化的多服务器移动边缘计算卸载方法及装置 | |
CN111240701B (zh) | 一种端-边-云协同计算的任务卸载优化方法 | |
CN111010434B (zh) | 一种基于网络时延和资源管理的优化任务卸载方法 | |
CN113950103A (zh) | 一种移动边缘环境下多服务器完全计算卸载方法及系统 | |
CN111163178B (zh) | 一种边缘计算中基于博弈论的服务部署及任务卸载方法 | |
CN112416554A (zh) | 一种任务迁移方法、装置、电子设备及存储介质 | |
CN107708152B (zh) | 异构蜂窝网络的任务卸载方法 | |
CN111885147A (zh) | 边缘计算中的一种资源动态定价方法 | |
CN110769512B (zh) | 星载资源分配方法、装置、计算机设备及存储介质 | |
CN111147604B (zh) | 一种车联网边缘计算的负载均衡方法 | |
CN112887905B (zh) | 一种车联网中基于周期性资源调度的任务卸载方法 | |
CN112600895A (zh) | 移动边缘计算的服务调度方法、系统、终端以及存储介质 | |
CN109144730B (zh) | 一种小小区下任务卸载方法及装置 | |
CN111131486A (zh) | 执行节点的负载调节方法、装置、服务器及存储介质 | |
CN109348454A (zh) | 一种d2d缓存通信内容共享方法 | |
CN113365290B (zh) | 天地融合网络中基于贪心策略的博弈论计算卸载方法 | |
CN114513838A (zh) | 移动边缘计算方法、框架和介质 | |
CN115150893A (zh) | 基于任务划分与d2d的mec任务卸载策略方法 | |
CN113596106B (zh) | 基于多边缘服务器协作的时延敏感型切片资源调度方法 | |
CN109600432B (zh) | 内容中心移动边缘网络用户动态接入方法 | |
US9184936B2 (en) | Systems and methods for estimating processing workloads | |
CN108628551B (zh) | 一种数据处理方法及装置 | |
CN114785692B (zh) | 一种虚拟电厂聚合调控通信网络流量均衡方法及装置 | |
CN110856183A (zh) | 基于异构负载互补的边缘服务器部署方法及应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |