CN116546053A - 一种资源受限物联网场景下的边缘计算服务放置系统 - Google Patents
一种资源受限物联网场景下的边缘计算服务放置系统 Download PDFInfo
- Publication number
- CN116546053A CN116546053A CN202310605223.XA CN202310605223A CN116546053A CN 116546053 A CN116546053 A CN 116546053A CN 202310605223 A CN202310605223 A CN 202310605223A CN 116546053 A CN116546053 A CN 116546053A
- Authority
- CN
- China
- Prior art keywords
- edge server
- edge
- service
- user
- computing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013468 resource allocation Methods 0.000 claims abstract description 44
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 238000005265 energy consumption Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 43
- 238000005457 optimization Methods 0.000 claims description 39
- 230000005540 biological transmission Effects 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 7
- 230000002068 genetic effect Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 3
- 230000000737 periodic effect Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/02—Resource partitioning among network components, e.g. reuse partitioning
- H04W16/10—Dynamic resource partitioning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
- H04W28/18—Negotiating wireless communication parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
- H04W28/18—Negotiating wireless communication parameters
- H04W28/20—Negotiating bandwidth
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种资源受限物联网场景下的边缘计算服务放置系统,包括云端、边缘端和设备端,云端中设有多个云计算服务器,边缘端中设有多个边缘服务器,一个云计算服务器通过以太网管理至少一个边缘服务器,多组用户设置在设备端中,用户与边缘服务器通过无线链路传输数据,边缘服务器设置有服务放置决策,带宽资源分配决策和计算资源分配决策,本申请采用了边缘计算架构设计,能够有效降低云端的带宽和计算资源压力,本申请设计了物联网场景下边缘计算服务器的服务放置决策、计算资源分配决策以及带宽资源分配决策,减少了系统消耗的能量,并且本申请提出的算法具有普适性,适应于任意边缘计算服务器数量以及用户数量下的物联网边缘计算场景。
Description
技术领域
本发明属于移动边缘计算技术领域,具体涉及一种资源受限物联网场景下的边缘计算服务放置系统。
背景技术
随着物联网技术的发展,物联网终端设备数量急剧增加,并且终端设备的功能再不局限于感知,而是逐渐向智能终端方向发展,但是物联网终端节点的算力是极其有限的,只能将自身的计算任务卸载到其他具有丰富算力资源的设备上去。传统的云计算架构下,物联网设备与云端协同,由设备完成数据采集,云端接收设备的计算任务。
但是在传统云计算架构下,由于云端服务器往往距离终端设备较远,不免存在服务高延迟问题,并且随着物联网设备数量的增加,高频率上报的信息也为云端造成了较大的负担。
为了解决传统云端计算范式下引起的服务高时延问题,以及在物联网场景下大量的信息上报造成的云端压力问题,可以在更靠近端设备的近场侧引入边缘计算层,提供具有一定计算能力的设备来为端设备解决部分计算需求,文章在之后统称该类设备为边缘计算服务器。
边缘计算引入的意义不只是在于将计算资源下沉到更靠近于设备的近场,同时是将计算资源分散到近场,重点在于规模小、覆盖广,因此边缘计算不是在边缘端设立多个云计算节点,而是将云计算的部分计算能力分割下沉。考虑到此层因素以及成本原因,单个边缘服务器并不能提供云计算级别的计算能力,每一个边缘计算服务器的算力资源是极其有限的。
首先边缘计算服务器内的存储能力是有限的,每一个计算服务都会占用硬盘等存储资源来存储本身服务以及一些服务所必须的数据,比如在AR服务中,需要放置对象数据库以及视觉识别模型,以便能及时为用户提供分类和对象识别。
同时需要考虑带宽因素,服务需要用户上传请求以及数据,作为服务执行的输入,以及将输出下行回传至设备端。考虑设备端和边缘端通过无线信道传输,带宽的大小将直接影响请求传输的速率,因此需要根据当前辖区通信的拥塞情况来判断服务的放置决策。本文还会考虑计算资源的限制,该计算资源具体体现为CPU资源,一个计算服务所需的计算资源可以量化为完成服务所需的CPU周期数,边缘计算服务器会为每一个计算服务分配对应的计算资源,该分配策略同样会影响到服务请求的计算时延。
综上所述,由于边缘端的存储、带宽以及计算资源的限制,并且用户请求呈多样化分布,区域热点分布具有一定差异性等问题的存在,导致边缘端的负载均衡问题成为巨大的挑战,高负载的边缘计算服务器覆盖区域内的请求的服务质量将很难满足用户需求,服务放置策略就成为了解决以上问题的关键。
并且在边缘计算的场景下,服务放置策略与边缘服务器的资源分配是不可分割的两个问题,当制定出一个良好的服务放置策略时,边缘服务器的资源不加以考虑,可能会导致边缘端的处理时延远大于云端,这与边缘端的设计初衷相悖,同样的,如果能制定出适宜的资源分配决策,也能在服务部署决策进一步优化边缘端的性能。
发明内容
为解决上述背景技术中提出的问题,本发明提供一种资源受限物联网场景下的边缘计算服务放置系统,制定出边缘端最优的服务放置策略,并且根据设备端的服务质量要求,将边缘端和云端的计算资源进行分配,在尽可能满足端设备的时延要求的前提下,使得系统整体能耗最小化。
为实现上述目的,本发明提供如下技术方案:
一种资源受限物联网场景下的边缘计算服务放置系统,包括:
云端;云端中设有多个云计算服务器;
边缘端;边缘端中设有多个边缘服务器,每一个边缘服务器均设有固定的覆盖区域,覆盖区域两两之间无重叠区域,一个云计算服务器通过以太网管理至少一个边缘服务器;
设备端;多组用户设置在设备端中,一个边缘服务器覆盖一组用户,在动态用户场景中,每个时隙内每一个边缘服务器覆盖区域内的用户数量服从泊松分布,用户与边缘服务器通过无线链路传输数据;
边缘服务器设置有根据边缘服务器硬盘大小、边缘服务器的服务类型、边缘服务器服务占用储存资源大小和服务的放置变量设计的服务放置决策;
边缘服务器设置有根据用户通信的拥塞情况设计的带宽资源分配决策;
边缘服务器还设置有根据边缘服务器的带宽资源分配决策、边缘服务器存储容量大小和边缘服务器CPU算力设计的计算资源分配决策。
优选地,边缘服务器存在多种资源限制:
每一个边缘服务器有存储容量限制,每一个边缘服务器e的硬盘大小为Storagee;
每一个边缘服务器有相应带宽资源限制,用于和用户在无线链路进行数据交互,边缘服务器e的带宽资源总量为Be;
边缘服务器e具有计算能力为Cyclee的CPU;
边缘端可以为用户提供服务,其中服务s集合以S表示;
每一个服务部署到边缘服务器都需要占用一定量存储资源,服务的大小为storages;
每一个服务发出的请求的数据大小是固定的,服务s的数据大小表示为Ds(t);
边缘服务器或者是云端接收到服务s的请求时,服务s所需要的计算资源为Fs(t);
边缘服务器e覆盖区域内用户u的计算任务可以表述为:
Se,u(t)指的是边缘服务器e覆盖范围下的用户u在t时间段所请求的服务类型;
Fe,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求所需的计算资源大小;
De,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求的数据量;
Te,u,max(t)是边缘服务器e覆盖范围下的用户u在t时间段为了保证服务质量请求所能容忍的最大时延。
优选地,设为服务的放置变量,该变量取值为0或1;
当取值为1时代表决策在边缘服务器e上放置服务s;
当取值为0时则是不在边缘服务器e上放置计算服务s;
每一个边缘服务器都有存储资源限制,因此任一边缘服务器e在任意时刻的放置决策需要满足如下条件:
优选地,边缘服务器e会为其覆盖区域内的用户组Ue(t)分配带宽资源,边缘服务器e的带宽总量为Be,设边缘服务器e为它覆盖范围内的用户u分配的带宽比例为那么在t时间段内边缘服务器e为其覆盖区域内的每一个用户u分配的带宽大小为:
变量具有以下约束:
用户在边缘服务器覆盖范围内的位置随机分布,并且在不断移动;
设用户在一个单位时间段内位置保持不变,de,u(t)为在t时间段内边缘服务器e和用户u之间的距离,Pe,u(t)为在t时间段内边缘服务器e的覆盖区域内用户u的发射功率;
设单位距离的信道增益为H0,考虑信道存在噪声,并设噪声功率为N0;
根据香农公式可得用户u在t时刻与边缘服务器e之间的可达传输速率表示为:
边缘服务器e到云端的传输速率表示为
设用户u所在区域内的边缘服务器为e,若边缘服务器缓存了用户u所请求的服务,则用户u发出请求的传输时延为:
若边缘服务器没有缓存用户u所请求的服务,那么用户u发出请求的传输时延为用户将请求传输到边缘端,再转发到云端的时延为:
综合以上公式可知,边缘服务器e覆盖区域内的用户u的请求传输时延公式为:
优选地,边缘服务器e给用户u分配的计算资源比例为满足以下约束条件:
边缘服务器e处理用户u的计算时延为:
当边缘服务器没有放置目标服务时,将由云端来处理该请求,设云端的计算资源总量为Cyclecloud,并且按服务所需计算比例,分配给每一个服务,那么云端的分配给服务s的计算资源可以表示为:
云端的计算时延可以表示为:
则在t时间段内,当边缘服务器e覆盖区域内用户u发出计算请求之后,该请求的计算时延为:
优选地,当边缘服务器e内并没有缓存用户u所请求的服务Su(t)时,边缘服务器会将请求发送到云端,产生能耗;
用户u的传输能耗表达为:
设边缘服务器的CPU频率是固定的,边缘服务器e每一个计算周期产生的周期能耗如下为:
其中κ为常数取决于芯片结构,设κ=10-26;
Cyclee为边缘服务器e的计算频率,同理也可以计算出云端的每一个计算周期产生的周期能耗;
云端的每一个计算周期的周期能耗如下:
φcloud=κCyclecloud 2;
当边缘服务器e覆盖范围内的用户u发出计算请求时,若边缘服务器e缓存了用户u所请求的服务Se,u(t),那么边缘服务器就会产生计算能耗,否则云端会产生计算能耗,因此用户u的计算能耗可以表达为:
优选地,在满足用户的服务质量前提下,通过优化边缘服务器服务放置和资源分配来使得系统能耗最小化,优化问题表示为:
优化问题:
约束条件:
约束1:
约束2:
约束3:
约束4:
约束5:
约束6:
约束7:
约束8:
代表是边缘服务器e分配给用户u的计算资源占自身计算资源的比例;
代表的是边缘服务器分配给用户u的带宽资源占自身带宽资源的比例;
约束1代表计算服务决策的取值范围,只能取值0或者1;
约束2代表边缘服务器计算资源分配的取值范围,由于该变量表征的是分配比例,因此在0到1之间;
约束3代表边缘服务器分配计算资源时不能超过自身总量;
约束4代表边缘服务器给用户分配的带宽的取值范围,同样表征分配的比例,因此取值范围也在0到1之间;
约束5代表边缘服务器分配给用户的带宽不能超出自身总量;
约束6代表如果边缘服务器如果放置服务的话,一定要为该服务分配计算资源;
约束7代表边缘服务器e上放置的服务不能超出边缘服务器e的容量;
约束8代表用户请求的时延要低于用户的最大容忍时延。
优选地,将优化问题分解为两个子问题,对于每个子问题分别求解,最后提出了一个迭代算法将各个子问题的解进行迭代求得最终解,具体步骤如下:
A1:初始放置矩阵初始计算资源分配/>初始带宽分配/>迭代次数r=0,迭代阈值σ,迭代最大次数rmax;
A2:对于给定的以及先验个体/>优化问题变为一个只以放置决策为优化变量的整数规划问题,利用遗传算法可以得到当前局部最优/>
A3;对于给定的优化问题变成了两个优化变量的凸优化问题,根据标准的凸优化求解器,得到当前局部最优/>
A4:用求得当前迭代的能耗Er+1,σ为设定的迭代阈值,如果/>更新迭代次数r=r+1,返回A2;否则直接结束。
与现有技术相比,本发明的有益效果是:
1、系统采用了边缘计算架构设计,能够有效降低云端的带宽和计算资源压力,并且有助于保证用户隐私不在网络中传输。
2、设计了物联网场景下边缘计算服务器的服务放置决策、计算资源分配决策以及带宽资源分配决策,在保证用户设备服务质量的前提下,减少了系统消耗的能量。
3、提出的算法具有普适性,适应于任意边缘计算服务器数量以及用户数量下的物联网边缘计算场景。
附图说明
图1为本发明的系统结构示意图;
图2为本发明的优化问题求解过程示意图;
图3为本发明的资源分配示意图;
图4为本发明的用户时延示意图;
图5为不同时隙下优化结果示意图;
图6为不同方法对服务质量的提升情况示意图;
图7为增大云散规模之后本申请的表现情况示意图。
具体实施方式
为便于本领域技术人员理解本发明的技术内容,以下结合附图和具体的实例对本发明作进一步地详细说明。应当理解,此处所描述的具体实例仅用以解释本发明,并不用于限定本发明。
实施例1
如图1所示,一种资源受限物联网场景下的边缘计算服务放置系统,包括:
云端;云端中设有云计算服务器;
边缘端;边缘端中设有边缘服务器,每一个边缘服务器均设有固定的覆盖区域,覆盖区域两两之间无重叠区域,一个云计算服务器通过以太网管理三个边缘服务器;
设备端;多组用户设置在设备端中,一个边缘服务器覆盖一组用户,在动态用户场景中,每个时隙内每一个边缘服务器覆盖区域内的用户数量服从泊松分布,用户与边缘服务器通过无线链路传输数据;
边缘服务器设置有根据边缘服务器硬盘大小、边缘服务器的服务类型、边缘服务器服务占用储存资源大小和服务的放置变量设计的服务放置决策;
边缘服务器设置有根据用户通信的拥塞情况设计的带宽资源分配决策;
边缘服务器还设置有根据边缘服务器的带宽资源分配决策、边缘服务器存储容量大小和边缘服务器CPU算力设计的计算资源分配决策。
在本实施例中,本申请采用了边缘计算架构设计,能够有效降低云端的带宽和计算资源压力,并且有助于保证用户隐私不在网络中传输,本申请设计了物联网场景下边缘计算服务器的服务放置决策、计算资源分配决策以及带宽资源分配决策,在保证用户设备服务质量的前提下,减少了系统消耗的能量,并且本申请提出的算法具有普适性,适应于任意边缘计算服务器数量以及用户数量下的物联网边缘计算场景。
图1是本发明的系统模型,是一个物联网场景下的云端-边缘端-设备端三层的架构系统,该系统中只有一个集中式云计算中心,该计算中心后文统称为远端云。远端云具有以下功能:首先,远端云的服务器中缓存了全量的计算服务,因此他能接收所有种类的计算需求,当边缘端没有放置某一用户所请求的计算服务时,此时边缘端可以将消息转发至云端,由云端来完成此次计算任务的响应和反馈。其次,远端云能同时集中控制所有边缘节点的服务部署,并且远端云也充当着Docker镜像仓库的角色,存放着所有服务的镜像实体。当服务放置以及资源分配决策制定完成之后,边缘节点可以根据需求在云端下载所需服务实体,并且由云端控制边缘端的资源分配情况
实施例2
本实施例与实施例1的区别在于:边缘服务器存在多种资源限制:
每一个边缘服务器有存储容量限制,每一个边缘服务器e的硬盘大小为Storagee;
每一个边缘服务器有相应带宽资源限制,用于和用户在无线链路进行数据交互,边缘服务器e的带宽资源总量为Be;
边缘服务器e具有计算能力为Cyclee的CPU;
边缘端可以为用户提供服务,其中服务s集合以S表示;
每一个服务部署到边缘服务器都需要占用一定量存储资源,服务的大小为storages;
每一个服务发出的请求的数据大小是固定的,服务s的数据大小表示为Ds(t);
边缘服务器或者是云端接收到服务s的请求时,服务s所需要的计算资源为Fs(t)。
边缘服务器e覆盖区域内用户u的计算任务可以表述为:
Se,u(t)指的是边缘服务器e覆盖范围下的用户u在t时间段所请求的服务类型;
Fe,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求所需的计算资源大小;
De,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求的数据量;
Te,u,max(t)是边缘服务器e覆盖范围下的用户u在t时间段为了保证服务质量请求所能容忍的最大时延。
实施例3
本实施例与实施例2的区别在于:设为服务的放置变量,该变量取值为0或1;
当取值为1时代表决策在边缘服务器e上放置服务s;
当取值为0时则是不在边缘服务器e上放置计算服务s;
每一个边缘服务器都有存储资源限制,因此任一边缘服务器e在任意时刻的放置决策需要满足如下条件:
实施例4
本实施例与实施例3的区别在于:边缘服务器e会为其覆盖区域内的用户组Ue(t)分配带宽资源,边缘服务器e的带宽总量为Be,设边缘服务器e为它覆盖范围内的用户u分配的带宽比例为那么在t时间段内边缘服务器e为其覆盖区域内的每一个用户分配的带宽大小为:
变量具有以下约束:
用户在边缘服务器覆盖范围内的位置随机分布,并且在不断移动;
设用户在一个单位时间段内位置保持不变,de,u(t)为在t时间段内边缘服务器e和用户u之间的距离,Pe,u(t)为在t时间段内边缘服务器e的覆盖区域内用户u的发射功率;
设单位距离的信道增益为H0,考虑信道存在噪声,并设噪声功率为N0;
根据香农公式可得用户u在t时刻与边缘服务器e之间的可达传输速率表示为:
边缘服务器e到云端的传输速率表示为
设用户u所在区域内的边缘服务器为e,若边缘服务器缓存了用户u所请求的服务,则用户u发出请求的传输时延为:
若边缘服务器没有缓存用户u所请求的服务,那么用户u发出请求的传输时延为用户将请求传输到边缘端,再转发到云端的时延为:
综合以上公式可知,边缘服务器e覆盖区域内的用户u的请求传输时延公式为:
实施例5
本实施例与实施例4的区别在于:边缘服务器e给用户u分配的计算资源比例为满足以下约束条件:
边缘服务器e处理用户u的计算时延为:
当边缘服务器没有放置目标服务时,将由云端来处理该请求,设云端的计算资源总量为Cyclecloud,并且按服务所需计算比例,分配给每一个服务,那么云端的分配给服务s的计算资源可以表示为:
云端的计算时延可以表示为:
则在t时间段内,当边缘服务器e覆盖区域内用户u发出计算请求之后,该请求的计算时延为:
实施例6
本实施例与实施例5的区别在于:当边缘服务器e内并没有缓存用户u所请求的服务Su(t)时,边缘服务器会将请求发送到云端,产生能耗;
用户u的传输能耗表达为:
设边缘服务器的CPU频率是固定的,边缘服务器e每一个计算周期产生的周期能耗如下为:
其中κ为常数取决于芯片结构,设κ=10-26;
Cyclee为边缘服务器e的计算频率,同理也可以计算出云端的每一个计算周期产生的周期能耗;
云端的每一个计算周期的周期能耗如下:
φcloud=κCyclecloud 2;
当边缘服务器e覆盖范围内的用户u发出计算请求时,若边缘服务器e缓存了用户u所请求的服务Se,u(t),那么边缘服务器就会产生计算能耗,否则云端会产生计算能耗,因此用户u的计算能耗可以表达为:
实施例7
本实施例与实施例6的区别在于:在满足用户的服务质量前提下,通过优化边缘服务器服务放置和资源分配来使得系统能耗最小化,优化问题表示为:
优化问题:
约束条件:
约束1:
约束2:
约束3:
约束4:
约束5:
约束6:
约束7:
约束8:
其中代表的是计算服务的放置决策,取值为0代表的是边缘服务器e上不放置服务s,取值为1代表的是边缘服务器上放置服务s;
代表的是计算资源分配决策,也就是边缘服务器e分配给用户u的计算资源占自身计算资源的比例;
代表的是带宽资源的分配决策,即边缘服务器分配给用户u的带宽资源占自身带宽资源的比例;
约束1是计算服务决策的取值范围,只能取值0或者1;
约束2代表的是边缘服务器计算资源分配的取值范围,由于该变量表征的是分配比例,因此在0到1之间;
约束3代表的是边缘服务器分配计算资源时不能超过自身总量;
约束4代表的是边缘服务器给用户分配的带宽的取值范围,同样表征分配的比例,因此取值范围也在0到1之间;
约束5代表的是边缘服务器分配给用户的带宽不能超出自身总量;
约束6代表的是,如果边缘服务器如果放置服务的话,一定要为该服务分配计算资源;
约束7代表的是边缘服务器e上放置的服务不能超出边缘服务器e的容量;
约束8代表的是用户请求的时延要低于用户的最大容忍时延。
在本实施例中,图4是使用了联合资源分配的边缘计算服务放置算法之后每一位用户的时延情况,虽然本算法的优化目标是最小化系统能耗,但是在最小化时需要保证每一位用户的服务质量,也就是必须保证边缘计算的引入之后的时延需要低于用户所能容忍的时延,容忍时延为边缘计算服务器仅提供通信作用时用户的请求时延,实际测试可知本算法能有效保证用户的服务质量,并且能降低部分用户的请求时延,最差的情况只是用户的时延在引用算法前后不发生改变,满足本算法的设计思想。
实施例8
本实施例与实施例7的区别在于:将优化问题分解为两个子问题,对于每个子问题分别求解,最后提出了一个迭代算法将各个子问题的解进行迭代求得最终解,具体步骤如下:
A1:初始放置矩阵初始计算资源分配/>初始带宽分配/>迭代次数r=0,迭代阈值σ,迭代最大次数rmax;
A2:对于给定的以及先验个体/>优化问题变为一个只以放置决策为优化变量的整数规划问题,利用遗传算法可以得到当前局部最优/>
A3;对于给定的优化问题变成了两个优化变量的凸优化问题,根据标准的凸优化求解器,得到当前局部最优/>
A4:用求得当前迭代的能耗Er+1,σ为设定的迭代阈值,如果/>更新迭代次数r=r+1,返回A2;否则直接结束。
在本实施例中,图2是本专利的优化问题求解过程图,首先设置初始放置矩阵、初始资源分配矩阵以及初始带宽分配矩阵,在本算法设计中,初始的放置决策为在任何边缘计算服务器上均不放置计算服务,初始资源分配矩阵为将每一个边缘计算服务器的所有计算资源均匀分配给每一个覆盖区域内的用户,初始带宽分配矩阵也是将每一个边缘计算服务器的所有带宽资源均匀分配给每一个覆盖区域内的用户。然后根据初始资源分配和带宽分配矩阵作为已知,将初始放置矩阵作为先验种群输入到精英策略下的遗传算法中,得到局部最优的计算服务放置决策然后根据/>可以通过标准的CVX工具箱求解到在当前放置决策下最优的计算和带宽资源分配方案/>得到了当前最新的迭代结果/>更新迭代的计数变量r,判断是否需要结束迭代,如果还未到结束迭代条件,那么继续将/>作为先验种群,将/>作为已知条件代入下一轮迭代,直到满足迭代终止判定条件,得到边缘计算服务器的服务放置决策/>计算资源分配决策/>带宽资源分配决策/>
图3是在一次问题求解之后边缘计算服务器的资源分配情况,每一行代表一个边缘计算服务器,每一列代表对于该边缘计算服务器的一个评价指标。第一列描述的是边缘计算服务器覆盖区域内用户对于服务的喜好,每一个颜色所描述的是不同的服务,颜色所占的比例即代表了对于请求该服务的用户数占该边缘计算服务器覆盖区域内总用户的比例。其他几列也可以同样类比,第二列表示的是边缘计算服务器为服务分配的磁盘比例情况,空白部分代表的是未进行分配的磁盘。第三列代表的是边缘计算服务器为计算服务分配的计算资源比例情况,第四列是磁盘为服务分配的带宽资源情况。可以看出,除了磁盘之外,计算资源和带宽资源每一个边缘计算服务器的利用率都是百分之百,磁盘未能百分之百利用的原因主要是剩余磁盘空间不能支持放置其他所需服务。并且可以看出CPU资源只会为在本边缘计算服务器放置了的服务进行分配,这样能够使得CPU资源不会造成任何浪费。但是可以看到带宽资源会为没有放置的服务进行分配,这是因为服务背后反应的是用户,即便计算服务没有放置在边缘计算服务器,边缘计算服务器也要承担通信作用将该用户的请求发送到云端,因此同样要分配带宽资源。
本申请的实验数据:
图5是不同时隙下算法的优化结果,在不同的时隙下,每一个边缘计算服务器的硬件参数以及位置不会发生变化,但每个时隙都会更新用户。在上文中论述过了算法会保证每一个用户的服务质量,因此接下来就用平均时延来反映算法对于用户服务质量的提升。本算法中综合了几类方案进行比较,其中包含了本章提到的联合计算和带宽资源分配的边缘计算服务放置算法,传统云端架构下的两层架构设计方案,边缘端随机部署计算服务方案,根据Top N算法进行边缘端服务放置以及进行边缘端服务放置但不根据计算资源再次优化的方案。传统云端架构下的方案即边缘端不承担任何计算功能,只提供通信作用,并且带宽资源均匀分配给每一个用户,由云端来完成对于用户的计算请求响应。边缘端随机部署计算服务方案指的是边缘计算服务器能够完成计算任务响应,但是边缘计算服务器上放置的服务是根据其覆盖范围内的用户请求的服务随机产生,并且为每一个用户均匀分配带宽和计算资源。根据Top N算法进行服务放置指的是,每一个边缘计算服务器根据用户的请求情况对于计算服务进行排序,优先放置请求数量多的计算服务,直到服务器磁盘空间不足以放置服务。在边缘端进行服务放置但不进行资源分配算法是指借用本章算法的边缘计算服务器服务放置的子问题,同样利用遗传算法等进行求解,但不会通过资源分配进一步优化。本次仿真假设有四个边缘计算服务器,五类计算服务,边缘计算服务器以及计算服务相关参数均采用随机生成。观察四个方案的能耗优化结果可知,云端-边缘计算端-设备端的三层架构相较于传统云计算在能耗方面优势较为明显,在本次仿真测试中,无论是随机部署、采用Top N算法以及本章算法能耗均能实现能耗大幅度降低。其次来看,只进行边缘计算放置和本章提出的联合资源分配的边缘计算服务放置算法相较于随机放置以及Top N算法放置具有一定的优势。优势的来源在于随机放置是没有目标地进行放置,其对于能耗的优化是随机不可控的,而Top N算法关注的是边缘计算服务器能够尽最大可能性地对用户的服务进行响应,但实际上并不是所有服务都是放置在边缘计算服务器就能降低能耗,或者说能耗与响应次数之间的关系并非简单的线性关系,因此需要专门地利用服务放置算法进行全局搜索。最后可以看出资源分配对于系统能耗有一定程度上的优化,但效果相对较小,该部分的能耗优化主要来源于牺牲部分小功率端设备的传输时延,减少他们的带宽,从而使得大功率设备获取到更多带宽,尽快传输完成减少能耗,因此该优化服务取决于实际应用场景。
图6表述的是不同算法对于服务质量的提升情况,整体的优化情况与能耗优化情况保持一致,边缘计算层的引入对于用户的服务质量提升也是极为明显的。唯一不同的地方在于本章提出的算法在服务质量方面相对于服务放置子问题表现较差,根据上文的分析也是可以知道由于本章的优化目标是能耗,因此在两个子问题的相互迭代中资源分配子问题牺牲了部分服务质量使得系统在满足服务质量最低要求的情况下尽可能降低系统能耗。
图7是在增大运算规模之后本章算法的表现情况,实验结果如图7所示,本次实验逐步增加边缘计算服务器数量以及服务种类,初始设置边缘计算服务器的数量为1,计算服务种类为4,服务器以及计算服务参数均随机生成,每次迭代之后都增加一台边缘计算服务器,增加一种计算服务,最终迭代情况也能看出随着部署规模的增加,整体能耗也呈上升趋势,联合资源分配的边缘计算服务放置算法均表现出优秀的优化结果,并且与其他算法相比优势较为明显。
Claims (8)
1.一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,包括:
云端;云端中设有多个云计算服务器;
边缘端;边缘端中设有多个边缘服务器,每一个边缘服务器均设有固定的覆盖区域,覆盖区域两两之间无重叠区域,一个云计算服务器通过以太网管理至少一个边缘服务器;
设备端;多组用户设置在设备端中,一个边缘服务器覆盖一组用户,在动态用户场景中,每个时隙内每一个边缘服务器覆盖区域内的用户数量服从泊松分布,用户与边缘服务器通过无线链路传输数据;
边缘服务器设置有根据边缘服务器硬盘大小、边缘服务器的服务类型、边缘服务器服务占用储存资源大小和服务的放置变量设计的服务放置决策;
边缘服务器设置有根据用户通信的拥塞情况设计的带宽资源分配决策;
边缘服务器还设置有根据边缘服务器的带宽资源分配决策、边缘服务器存储容量大小和边缘服务器CPU算力设计的计算资源分配决策。
2.根据权利要求1所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,边缘服务器存在多种资源限制:
每一个边缘服务器有存储容量限制,每一个边缘服务器e的硬盘大小为Storagee;
每一个边缘服务器有相应带宽资源限制,用于和用户在无线链路进行数据交互,边缘服务器e的带宽资源总量为Be;
边缘服务器e具有计算能力为Cyclee的CPU;
边缘端可以为用户提供服务,其中服务s集合以S表示;
每一个服务部署到边缘服务器都需要占用一定量存储资源,服务的大小为storages;
每一个服务发出的请求的数据大小是固定的,服务s的数据大小表示为Ds(t);
边缘服务器或者是云端接收到服务s的请求时,服务s所需要的计算资源为Fs(t);
边缘服务器e覆盖区域内用户u的计算任务可以表述为:
Se,u(t)指的是边缘服务器e覆盖范围下的用户u在t时间段所请求的服务类型;
Fe,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求所需的计算资源大小;
De,u(t)是边缘服务器e覆盖范围下的用户u在t时间段发出的请求的数据量;
Te,u,max(t)是边缘服务器e覆盖范围下的用户u在t时间段为了保证服务质量请求所能容忍的最大时延。
3.根据权利要求2所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,设为服务的放置变量,该变量取值为0或1;
当取值为1时代表决策在边缘服务器e上放置服务s;
当取值为0时则是不在边缘服务器e上放置计算服务s;
每一个边缘服务器都有存储资源限制,因此任一边缘服务器e在任意时刻的放置决策需要满足如下条件:
4.根据权利要求3所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,边缘服务器e会为其覆盖区域内的用户组Ue(t)分配带宽资源,边缘服务器e的带宽总量为Be,设边缘服务器e为它覆盖范围内的用户u分配的带宽比例为那么在t时间段内边缘服务器e为其覆盖区域内的每一个用户u分配的带宽大小为:
变量具有以下约束:
用户在边缘服务器覆盖范围内的位置随机分布,并且在不断移动;
设用户在一个单位时间段内位置保持不变,de,u(t)为在t时间段内边缘服务器e和用户u之间的距离,Pe,u(t)为在t时间段内边缘服务器e的覆盖区域内用户u的发射功率;
设单位距离的信道增益为H0,考虑信道存在噪声,并设噪声功率为N0;
根据香农公式可得用户u在t时刻与边缘服务器e之间的可达传输速率表示为:
边缘服务器e到云端的传输速率表示为
设用户u所在区域内的边缘服务器为e,若边缘服务器缓存了用户u所请求的服务,则用户u发出请求的传输时延为:
若边缘服务器没有缓存用户u所请求的服务,那么用户u发出请求的传输时延为用户将请求传输到边缘端,再转发到云端的时延为:
综合以上公式可知,边缘服务器e覆盖区域内的用户u的请求传输时延公式为:
5.根据权利要求4所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,边缘服务器e给用户u分配的计算资源比例为满足以下约束条件:
边缘服务器e处理用户u的计算时延为:
当边缘服务器没有放置目标服务时,将由云端来处理该请求,设云端的计算资源总量为Cyclecloud,并且按服务所需计算比例,分配给每一个服务,那么云端的分配给服务s的计算资源可以表示为:
云端的计算时延可以表示为:
则在t时间段内,当边缘服务器e覆盖区域内用户u发出计算请求之后,该请求的计算时延为:
6.根据权利要求5所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,当边缘服务器e内并没有缓存用户u所请求的服务Su(t)时,边缘服务器会将请求发送到云端,产生能耗;
用户u的传输能耗表达为:
设边缘服务器的CPU频率是固定的,边缘服务器e每一个计算周期产生的周期能耗如下为:
其中κ为常数取决于芯片结构,设κ=10-26;
Cyclee为边缘服务器e的计算频率,同理也可以计算出云端的每一个计算周期产生的周期能耗;
云端的每一个计算周期的周期能耗如下:
φcloud=κCyclecloud 2;
当边缘服务器e覆盖范围内的用户u发出计算请求时,若边缘服务器e缓存了用户u所请求的服务Se,u(t),那么边缘服务器就会产生计算能耗,否则云端会产生计算能耗,因此用户u的计算能耗可以表达为:
7.根据权利要求6所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,在满足用户的服务质量前提下,通过优化边缘服务器服务放置和资源分配来使得系统能耗最小化,优化问题表示为:
优化问题:
约束条件:
约束1:
约束2:
约束3:
约束4:
约束5:
约束6:
约束7:
约束8:
代表是边缘服务器e分配给用户u的计算资源占自身计算资源的比例;
代表的是边缘服务器分配给用户u的带宽资源占自身带宽资源的比例;
约束1代表计算服务决策的取值范围,只能取值0或者1;
约束2代表边缘服务器计算资源分配的取值范围,由于该变量表征的是分配比例,因此在0到1之间;
约束3代表边缘服务器分配计算资源时不能超过自身总量;
约束4代表边缘服务器给用户分配的带宽的取值范围,同样表征分配的比例,因此取值范围也在0到1之间;
约束5代表边缘服务器分配给用户的带宽不能超出自身总量;
约束6代表如果边缘服务器如果放置服务的话,一定要为该服务分配计算资源;
约束7代表边缘服务器e上放置的服务不能超出边缘服务器e的容量;
约束8代表用户请求的时延要低于用户的最大容忍时延。
8.根据权利要求7所述的一种资源受限物联网场景下的边缘计算服务放置系统,其特征在于,将优化问题分解为两个子问题,对于每个子问题分别求解,最后提出了一个迭代算法将各个子问题的解进行迭代求得最终解,具体步骤如下:
A1:初始放置矩阵初始计算资源分配/>初始带宽分配/>迭代次数r=0,迭代阈值σ,迭代最大次数rmax;
A2:对于给定的以及先验个体/>优化问题变为一个只以放置决策为优化变量的整数规划问题,利用遗传算法可以得到当前局部最优/>
A3;对于给定的优化问题变成了两个优化变量的凸优化问题,根据标准的凸优化求解器,得到当前局部最优/>
A4:用求得当前迭代的能耗Er+1,σ为设定的迭代阈值,如果更新迭代次数r=r+1,返回A2;否则直接结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310605223.XA CN116546053A (zh) | 2023-05-26 | 2023-05-26 | 一种资源受限物联网场景下的边缘计算服务放置系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310605223.XA CN116546053A (zh) | 2023-05-26 | 2023-05-26 | 一种资源受限物联网场景下的边缘计算服务放置系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116546053A true CN116546053A (zh) | 2023-08-04 |
Family
ID=87450533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310605223.XA Pending CN116546053A (zh) | 2023-05-26 | 2023-05-26 | 一种资源受限物联网场景下的边缘计算服务放置系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116546053A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117370035A (zh) * | 2023-12-08 | 2024-01-09 | 国网浙江省电力有限公司宁波供电公司 | 一种实时仿真计算资源的划分系统及方法 |
-
2023
- 2023-05-26 CN CN202310605223.XA patent/CN116546053A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117370035A (zh) * | 2023-12-08 | 2024-01-09 | 国网浙江省电力有限公司宁波供电公司 | 一种实时仿真计算资源的划分系统及方法 |
CN117370035B (zh) * | 2023-12-08 | 2024-05-07 | 国网浙江省电力有限公司宁波供电公司 | 一种实时仿真计算资源的划分系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110996393B (zh) | 一种单边缘计算服务器与多用户协同的计算卸载与资源分配方法 | |
Wang et al. | Hypergraph-based wireless distributed storage optimization for cellular D2D underlays | |
CN111262619B (zh) | 一种多波束卫星资源分配方法及系统 | |
Zeng et al. | Efficient caching in vehicular edge computing based on edge-cloud collaboration | |
Chen et al. | Dynamic task offloading for internet of things in mobile edge computing via deep reinforcement learning | |
CN111010684B (zh) | 一种基于mec缓存服务的车联网资源分配方法 | |
CN108600998B (zh) | 超密度蜂窝与d2d异构融合网络缓存优化决策方法 | |
CN115002113B (zh) | 一种移动基站边缘计算力资源调度方法、系统、电子设备 | |
CN111800812B (zh) | 一种应用在非正交多址接入的移动边缘计算网络中的用户接入方案的设计方法 | |
Zhang et al. | DMRA: A decentralized resource allocation scheme for multi-SP mobile edge computing | |
CN112004265B (zh) | 一种基于srm算法的社交网络资源分配方法 | |
CN116546053A (zh) | 一种资源受限物联网场景下的边缘计算服务放置系统 | |
Souri et al. | A survey for replica placement techniques in data grid environment | |
CN114375058A (zh) | 任务队列感知的边缘计算实时信道分配和任务卸载方法 | |
CN103281374A (zh) | 一种云存储中数据快速调度的方法 | |
Yaqub et al. | Multi-objective resource optimization for hierarchical mobile edge computing | |
CN111953547A (zh) | 一种基于业务的异构基站重叠分组及资源配置方法及装置 | |
CN110062356B (zh) | 一种d2d网络中的缓存副本布设方法 | |
CN114449671B (zh) | 一种网络边缘异质资源协同调度方法 | |
Huang et al. | D2D-assisted VR video pre-caching strategy | |
He et al. | An Offloading Scheduling Strategy with Minimized Power Overhead for Internet of Vehicles Based on Mobile Edge Computing. | |
Wu et al. | Deep reinforcement learning-based video quality selection and radio bearer control for mobile edge computing supported short video applications | |
Chen et al. | Dynamic task caching and computation offloading for mobile edge computing | |
Shashidhara et al. | A novel location aware content prefetching technique for mobile adhoc network | |
CN111556531A (zh) | 一种微蜂窝无线网中的协作缓存优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |