CN117573353A - 一种边缘计算智能调度方法 - Google Patents
一种边缘计算智能调度方法 Download PDFInfo
- Publication number
- CN117573353A CN117573353A CN202311573550.8A CN202311573550A CN117573353A CN 117573353 A CN117573353 A CN 117573353A CN 202311573550 A CN202311573550 A CN 202311573550A CN 117573353 A CN117573353 A CN 117573353A
- Authority
- CN
- China
- Prior art keywords
- resource
- node
- task
- memory
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 238000004458 analytical method Methods 0.000 claims abstract description 20
- 238000001914 filtration Methods 0.000 claims abstract description 19
- 239000000523 sample Substances 0.000 claims description 17
- 238000012545 processing Methods 0.000 abstract description 6
- 238000012544 monitoring process Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明提供的一种边缘计算智能调度方法,所述调度方法包括:步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据;步骤S2:分析调度任务,获得分析结果;步骤S3:过滤掉不符合条件的节点;步骤S4:确定边缘节点的评分公式;步骤S5:计算节点最终评分,再结合节点能源效率数据推选最终节点。构建一种低时延和高处理性能的双模型结构,支持调整自定义模型中的参数权重,并结合调度任务的特征,来动态优化参数权重的方式,从众多的边缘节点中,推荐出最适合处理此任务的节点,以尽最大可能满足用户的需求,提高用户体验质量。
Description
技术领域
本发明涉及边缘云计算领域,尤其涉及一种边缘计算智能调度方法。
背景技术
在边缘云计算平台中,客户会根据实际需求进行资源的创建,比如创建一台虚机,从而搭建自己的业务环境,实现云计算的应用。传统的云计算系统大多数是在底层的基础上做业务的开发,所以在创建资源的时候通常都是上层调用opentack或者k8s底层相关的接口进行资源的拉取及创建。当一个用户纳管了多个底层的时候,就存在创建资源调用哪一个底层更能高速、快捷、稳定地创建出资源的问题。
传统的解决方案是借助任务队列的调度,量化边缘计算节点的服务能力,辅助用户选择最优节点,但这种方案无法动态调整任务权重,在实现的过程中不够稳定快捷,无法高效地决策出最优节点,且精确度不高。
发明内容
鉴于上述问题,提出了本发明以便提供克服上述问题或者至少部分地解决上述问题的一种边缘计算智能调度方法。
根据本发明的一个方面,提供了一种边缘计算智能调度方法,所述调度方法包括:
步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据;
步骤S2:分析调度任务,获得分析结果;
步骤S3:过滤掉不符合条件的节点;
步骤S4:确定边缘节点的评分公式;
步骤S5:计算节点最终评分,再结合节点能源效率数据推选最终节点。
可选的,所述步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据具体包括:
获取边缘节点的资源数据;
获取探测点到边缘节点的时延数据;
所述时延数据包括:探测点的坐标和IP;边缘节点的坐标和IP;探测点向边缘节点发送请求的时间戳;探测点向边缘节点发送请求的时延。
可选的,所述步骤S2:分析调度任务,获得分析结果具体包括:
任务要服务的地点,为终端用户的地点;
任务请求的资源量;
根据任务请求的资源量进行任务特征智能分析。
可选的,所述根据任务请求的资源量进行任务特征智能分析具体包括:
查看该任务是否带有特征分类标识;
如果任务中给出了相关特征,则直接使用;如果未给出时延特征,则默认为时延通用型;如果未给出资源特征,则进行分析任务的资源特征,计算CPU和内存的比值;
如果是1:4,认为是资源通用型;
如果大于1:4,认为是资源计算型;
如果小于1:4,认为资源是内存型。
可选的,所述步骤S3:过滤掉不符合条件的节点具体包括:
特殊资源过滤,若任务要求特殊资源,不是所有的边缘计算节点都有这些资源,所以要先做过滤,排除掉不满足条件的节点;
资源量过滤,若任务需要的资源数量超过阈值,先做过滤,排除掉不满足条件的节点。
可选的,所述步骤S4:确定边缘节点的评分公式具体包括:
评分公式,公式中:S是Score的缩写,为评分;W是Weight的缩写,为权重;latency为时延;resource为资源;
本模型中,节点评分公式如下:
公式一:S(node)=W(latency)*S(latency)+W(resource)*S(resource)
公式表示:最终节点的得分=时延的权重*时延的分数+资源的权重*资源的分数;
其中S(latency)的取值方式在下文步骤5阐述;
W(latency)、W(resource)的取值方式,会在下文步骤7中进行阐述;
其中,公式里的S(resource)评分公式如下:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*S(memory)+W(storage)*S(storage)
计算资源的得分情况:
资源得分=cpu权重*cpu得分+内存权重*内存得分+存储权重*存储得分。
可选的,所述公式一中S(latency)计算方式包括:
获取任务中的坐标信息,和所有探测点的坐标信息比对,计算出直线距离最短的那个探测点,使用数据作为样本数据;
获取探测点到各个边缘节点的时延性能,获得时延值:
根据得到的时延值,和常用的时延判断标准,给出一个自定义的得分S(latency)。
可选的,所述公式二中S(cpu)、S(memory)、S(storage)计算方式:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*
S(memory)+W(storage)*S(storage)
其中,cpu评分S(cpu)、memory评分S(memory)、storage评分S(storage)的计算方式如下:
本模型中挑选CPU、内存、存储作为模型里的基本评分因子;
采用空余资源比例越高,得分越高的方式进行计算,公式如下:
S(cpu)=节点CPU剩余量/节点CPU总量*100;
S(memory)=节点内存剩余量/节点内存总量*100;
S(storage)=节点存储剩余量/节点存储总量*100;
模型根据实际需要添加其他资源作为基本评分因子,计算公式一致。
可选的,所述公式一中W(latency)、W(resource)定义方式为:
公式一:S(node)=W(latency)*S(latency)+W(resource)*S(resource)
有两个权重参数W(latency)和W(resource),W(latency)+W(resource)=1;
权重取值范围是[0.3,0.7],管理页面调整步长为0.05;
初始默认值:W(latency)=0.5,W(resource)=0.5;
默认计算公式为:S(node)=0.5*S(latency)+0.5*S(resource);
结合对任务类型的分析,在默认值基础上,动态调整权重值:
如果是时延敏感型任务,则在给定的默认值上,W(latency)增加0.1,需在[0.3,0.7]的范围内,同时W(resource)=1-W(latency);
如果是时延普通型任务,则保持默认值不变;
如果是时延不敏感型任务,则在给定的默认值上,W(latency)减少0.1,但需在[0.3,0.7]的范围,同时W(resource)=1-W(latency)。
可选的,所述公式二中W(cpu)、W(memory)、W(storage)定义方式为:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*
S(memory)+W(storage)*S(storage)
公式二中有3个权重参数:W(cpu)、W(memory)、W(storage),分别对应CPU、内存、存储的权重。
本发明提供的一种边缘计算智能调度方法,所述调度方法包括:步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据;步骤S2:分析调度任务,获得分析结果;步骤S3:过滤掉不符合条件的节点;步骤S4:确定边缘节点的评分公式;步骤S5:计算节点最终评分,再结合节点能源效率数据推选最终节点。构建一种低时延和高处理性能的双模型结构,支持调整自定义模型中的参数权重,并结合调度任务的特征,来动态优化参数权重的方式,从众多的边缘节点中,推荐出最适合处理此任务的节点,以尽最大可能满足用户的需求,提高用户体验质量。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的系统整体架构图;
图2为本发明实施例提供的边缘节点上报资源数据到监控中心;
图3为本发明实施例提供的探测节点,定时发送命令,探测到边缘节点的时延图;
图4为本发明实施例提供的探测装置将获取的时延数据,上传到监控平台图;
图5为本发明实施例提供的任务分析和调度流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明的说明书实施例和权利要求书及附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元。
下面结合附图和实施例,对本发明的技术方案做进一步的详细描述。
实施例1
本发明中的系统由以下4个部分组成(如下图1-图5):
(1)中心调度平台:用于将任务调度到边缘节点。通过调用中心监控平台接口,获取数据进行模型计算,推荐最优边缘节点;同时也可以对模型中权重默认值进行修改。
(2)中心监控平台:负责统计众多边缘节点的资源数据,和探测装置到边缘节点的时延数据。同时对外提供接口,供中心调度平台调取数据。
(3)众多边缘节点:任务实际被处理的地方,本质是一个靠近数据源的云计算平台;同时会将本地的资源数据上传到中心监控平台。
(4)众多探测点:探测点为实际的物理地点,部署特定设备,用于探测该地点到每个边缘节点的时延情况,并上传数据到中心监控平台。
本发明的工作原理,由以下9个步骤组成:
步骤1:获取边缘节点的资源数据和探测点到边缘节点的时延数据
1.获取边缘节点的资源数据:
通过在边缘节点部署数据采集工具(比如Prometheus),采集节点资源数据并上报到监控平台,包括但不限于以下监控指标:
指标类型 | 具体指标 |
CPU | CPU总量、CPU已使用量、CPU负载率 |
内存 | 内存总量、内存已使用量 |
存储 | 存储总量、存储已使用量、存储设备类型 |
网络 | 网络带宽 |
GPU | GPU总量、GPU已使用量 |
表1:边缘节点监控指标表
2.获取探测点到边缘节点的时延数据:
探测点指的是具体的物理地点,一般分布在最终用户所在地。假设目标用户分布在广东省,广东省下辖广州市、珠海市、汕头市等21个地级市,每个地级市下辖多个区,区又下辖街道;可以以区为单位部署探测设备,甚至精细到某个街道,某个基站。
这些探测设备每隔一小时,发送命令(比如PING)到边缘节点,以获取此探测点到每个边缘节点的时延数据,并将数据上报给监控平台。
时延数据包括但不限于以下信息:
*探测点的坐标和IP;
*边缘节点的坐标和IP;
*探测点向边缘节点发送请求的时间戳;
*探测点向边缘节点发送请求的时延(单位:毫秒);
步骤2:分析调度任务
注:本步骤得到的分析结果,会在下述步骤7和步骤8中使用
1.任务要服务的地点,即终端用户的地点;(比如IP或坐标);
2.任务请求的资源量(比如CPU、内存、磁盘、GPU等);
3.任务特征,详见下表(注:任务中不是必须包含此项,若不包含,则通过下述智能分析步骤,确定任务特征);
特征类型 | 特征分类 |
时延特征 | 时延敏感型、时延不敏感型、时延通用型 |
资源特征 | 资源计算型、资源内存型、资源通用型 |
表2:调度任务特征表
任务特征智能分析步骤:
查看该任务是否带有特征分类标识,即表2任务特征表中的特征分类内容。如果任务中给出了相关特征,则直接使用;如果未给出时延特征,则默认为时延通用型;如果未给出资源特征,则进行下面一步计算;
分析任务的资源特征,计算CPU和内存的比值。
如果是1:4,则认为是资源通用型;
如果大于该比值,比如是1:2,则认为是资源计算型;
如果小于该比值,比如是1:8,则认为资源是内存型;
步骤3:过滤掉不符合条件的节点:
1.特殊资源过滤:若任务要求特殊资源,比如GPU,增强型网卡,SSD盘等,不是所有的边缘计算节点都有这些资源,所以要先做过滤,排除掉不满足条件的节点;
2.资源量过滤:若任务需要的资源较多,比如任务需要512c的CPU,12T的硬盘空间。不是所有的边缘计算节点剩余资源都满足要求,所以要先做过滤,排除掉不满足条件的节点;
步骤4:边缘节点评分公式注:1.最终的推荐的边缘节点,是按照给节点评分后,推荐最高评分的节点;
2.本步骤给出评分公式,公式中:S是Score的缩写,代表评分;W是Weight的缩写,代表权重;latency代表时延;resource代表资源;
1.本模型中,节点评分公式如下:
公式一:S(node)=W(latency)*S(latency)+W(resource)*S(resource)
该公式表示:最终节点的得分=时延的权重*时延的分数+资源的权重*资源的分数
其中S(latency)的取值方式在下文步骤5阐述;
W(latency)、W(resource)的取值方式,会在下文步骤7中进行阐述;其中,公式里的S(resource)评分公式如下:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*S(memory)+W(storage)*S(storage)
该公式计算资源的得分情况:
资源得分=cpu权重*cpu得分+内存权重*内存得分+存储权重*存储得分...
其中S(cpu)、S(memory)、S(storage)等的取值方式,会在下文步骤6中进行阐述;
W(cpu)、W(memmory)、W(storage)等的取值方式,会在下文步8中进行阐述;
步骤5:公式一中S(latency)计算方式
S(latency)指的是探测点到边缘节点的时延性能的评分。
获取S(latency)的过程分为三步:
1.评估任务中用户地点,距离哪个探测点距离最近:
a.获取任务中的坐标信息,和所有探测点的坐标信息比对,计算出直线距离最短的那个探测点,使用其数据作为样本数据;
2.获取探测点到各个边缘节点的时延性能:
a.样本数据:
取过去30天的时延统计数据,作为样本。上面步骤一的时延数据中,包含以下两项数据:探测点向边缘节点发送请求的时间,和探测点向边缘节点发送请求的时延。每隔一小时会有一条时延数据产生,30天便是:30*24=720条。
b.计算方式:
统计数据一般是呈现为正态分布,如果使用样本数据的平均值,来作为时延数据的最终取值,可能因为样本数据离散程度过大,导致平均值失真,无法代表真正的时延;依据数学里的置信区间概念,本发明取u+2α的值(u代表一组数据的平均值,α代表标准差),作为时延值。在数学中,置信区间取值为[u-2α,u+2α]时,大约有95.4%的数据会落在此范围。本模型取u+2α的值作为时延值时,数据的范围应该落在[0,u+2α]范围内,数据落在[0,u+2α]范围内的概率,等于落在[0,u-2α)的概率加上落在[u-2α,u+2α]的概率。而数据落在[0,u-2α)的概率等于(1-95.4%)/2=2.3%。所以最终数据落在[0,u+2α]范围内的概率,大约是95.4%+2.3%=97.7%。
3.获取时延得分S(latency)
通过一步中得到的时延值,和常用的时延判断标准,给出一个自定义的得分S(latency)
注:下表中前三项为常用的时延判断标准,第四项为自定义的值
步骤6:公式二中S(cpu)、S(memory)、S(storage)计算方式:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*S(memory)+W(storage)*S(storage)
其中cpu评分S(cpu)、memory评分S(memory)、storage评分S(storage)的计算方式如下:
边缘节点的资源有很多种,本模型中挑选CPU、内存、存储作为模型里的基本评分因子。采用空余资源比例越高,得分越高的方式进行计算,公式如下(结果取2位小数):
S(cpu)=节点CPU剩余量/节点CPU总量*100;
S(memory)=节点内存剩余量/节点内存总量*100;
S(storage)=节点存储剩余量/节点存储总量*100;
模型也可根据实际需要添加其他资源作为基本评分因子,计算公式一致。
步骤7:公式一中W(latency)、W(resource)定义方式
注:调度中心的管理界面,自定义权重值,如下。
公式一:S(node)=W(latency)*S(latency)+W(resource)*S(resource)
此公式中有两个权重参数W(latency)和W(resource),本发明要求:
*W(latency)+W(resource)=1;
*权重取值范围是[0.3,0.7],管理页面调整步长为0.05。
*初始默认值:W(latency)=0.5,W(resource)=0.5
*默认计算公式为:S(node)=0.5*S(latency)+0.5*S(resource)
2.结合步骤2中对任务类型的分析,在默认值基础上,动态调整权重值:
a.如果是时延敏感型任务,则在给定的默认值上,W(latency)增加0.1,但需在[0.3,0.7]的范围内,同时W(resource)=1-W(latency);
b.如果是时延普通型任务,则保持默认值不变;
c.如果是时延不敏感型任务,则在给定的默认值上,W(latency)减少0.1,但需在[0.3,0.7]的范围,同时W(resource)=1-W(latency);
步骤8:公式二中W(cpu)、W(memory)、W(storage)定义方式
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*S(memory)+W(storage)*S(storage)
此公式中有3个权重参数:W(cpu)、W(memory)、W(storage),分别对应CPU、内存、存储的权重。
本发明要求:
W(cpu)+W(memory)+W(storage)=1,
W(XXX)范围在[0.2,0.5]内,调整步长为0.05。
初始默认值:W(cpu)=0.35,W(memory)=0.35,W(storage)=0.3
默认计算公式:S(resource)=0.35*S(cpu)+0.35*S(memory)+0.3*S(storage)
结合步骤2中对任务类型的分析,在默认值基础上,动态调整权重值:
A.如果是计算型任务,则修改W(cpu)值,在基础上增加0.1,且在[0.2,0.5]范围内,相应的W(storage)=1-W(cpu)-W(memory);
B.如果是普通型任务,则保持默认值不变;
C.如果是内存任务,则修改W(memory)值,在基础上增加0.1,且在[0.2,0.5]范围内,相应的W(storage)=1-W(cpu)-W(memory);
步骤9:计算评分,再结合节点能源效率数据推选节点
根据上面步骤给出的公式和参数计算方式,计算节点最终评分,再结合从监控中心的获取的能源效率数据,推选出最终节点。
推选规则如下:
1.按节点分数从高到低排序,选取分数最高的前3个节点;再计算得分第二和第三的节点,与排名第一节点的分差,若分差大于5,则排除该节点。
例如:有5个边缘节点A、B、C、D、E,得分数依次为83分,92分,90.5分,77分,86分。取得分前三节点,依次为B(92),C(90.5),E(86);然后因为E(86)与B(92)相差6分,所以再排除节点E。排除后,待选节点还剩下B和C。
若上一步中只剩下1个节点,则直接把该节点作为最终推荐节点;否则,就从监控中心,获取待选节点的能源效率指标数据(本发明中采用PUE指标),选取PUE值最接近1的那个节点,作为最终推荐节点。
实施例2
1)数据采集
a:边缘节点上的资源数据:假设一共4个边缘节点,资源情况如下:
b:监测点到边缘节点间的延时数据:假设一共10个监测点,到4个节点的网络延迟取值分别为:
注:由于源数据样本过大,此处假设的延时值,为经过计算的u+2α值(单位:毫秒)
边缘节点A | 边缘节点B | 边缘节点C | 边缘节点D | |
监测点1 | 54 | 71 | 47 | 130 |
监测点2 | 28 | 25 | 45 | 77 |
监测点3 | 26 | 68 | 23 | 98 |
监测点4 | 93 | 93 | 59 | 62 |
监测点5 | 48 | 18 | 16 | 61 |
监测点6 | 57 | 82 | 72 | 210 |
监测点7 | 113 | 55 | 82 | 87 |
监测点8 | 10 | 77 | 35 | 212 |
监测点9 | 114 | 98 | 84 | 267 |
监测点10 | 134 | 75 | 69 | 179 |
2)任务分析
假设要调度的任务:
资源需求为:16核CPU,32GB内存,300GB硬盘空间和1个GPU;
任务特征:时延敏感型;
终端用户地点:假设离监测点2最近。
任务分析:
任务给出了特征是时延敏感型,然后计算其所需的CPU和内存比例,结果为1:2,所以该任务还属于资源计算型任务。
3)节点过滤
该任务需要1个GPU资源,因为节点B无剩余GPU资源,所以过滤节点B。此步骤后,还剩下A,C,D作为备选节点。
4)计算S(latency)
取监测点2到边缘节点A,C,D的时延,并对比得分表得到:
边缘节点 | 时延值 | 得分 |
边缘节点A | 28 | 100 |
边缘节点C | 45 | 90 |
边缘节点D | 77 | 70 |
评分计算公式变成:
边缘节点 | 得分 |
边缘节点A | W(latency)*100+W(resource)*S(resource) |
边缘节点C | W(latency)*90+W(resource)*S(resource) |
边缘节点D | W(latency)*70+W(resource)*S(resource) |
5)计算S(cpu),S(memory),S(storage)
边缘节点 | S(cpu) | S(memory) | S(storage) |
边缘节点A | 75 | 70 | 60 |
边缘节点C | 80 | 83 | 60 |
边缘节点D | 50 | 25 | 62.5 |
6)计算W(latency),W(resource)
按照默认的权重,W(latency)=0.5,W(resource)=0.5
另外,因为该任务是时延敏感型,所以W(latency)加0.1,变成0.6,相应的W(resource)变成0.4;
节点评分公式变成S(node)=0.6*S(latency)+0.4*S(resource)
评分计算公式变成:
边缘节点 | 得分 |
边缘节点A | 0.6*100+0.4*S(resource) |
边缘节点C | 0.6*90+0.4*S(resource) |
边缘节点D | 0.6*70+0.4*S(resource) |
7)计算W(cpu),W(memory),W(storage)
按照默认的权重:W(cpu)=0.35,W(memory)=0.35,W(storage)=0.3另外,因为该任务是计算型,所以W(cpu)加0.1,变成0.45,W(memory)不变,相应的W(storage)变成0.2;
8)计算节点最终得分:
结合上面已计算出的S(cpu),S(memory),S(storage)。所以
节点A:S(resource)=0.45*75+0.35*70+0.2*60=70.25
节点C:S(resource)=0.45*80+0.35*83+0.2*60=77.05
节点D:S(resource)=0.45*50+0.35*25+0.2*62.5=43.75
将S(resource)值,带入最终的节点评分公式:
S(node_A)=0.6*100+0.4*70.25=88.1
S(node_C)=0.6*90+0.4*77.05=84.82
S(node_D)=0.6*70+0.4*43.75=59.5依照规则,先按得分从高到低顺序,筛选出排名前3的节点,因为只剩3个节点,所有都满足条件;然后,筛除与评分最高节点,分差在5分以上的节点,则节点D被排除,还剩下节点A和节点C。最后,按照能耗监控数据PUE(节点A的PUE=1.37,节点C的PUE=1.22),因为节点C的PUE值更接近1,所以最终推选节点C最为最终调度节点。
9)界面创建资源:
以上步骤1到步骤8为云平台系统后端算法整体逻辑,从该算法计算得出最优节点,在云平台界面进行资源创建的时候自动将最优节点推出,从而在创建资源的时候向最优节点拉取资源,实现资源的智能调度。
有益效果:通过本发明的方案,无需借助传统的任务队列,而是通过构建一种低时延和高处理性能的双模型结构,支持调整自定义模型中的参数权重,并结合调度任务的特征,来动态优化参数权重的方式,从众多的边缘节点中,推荐出最适合处理此任务的节点,以尽最大可能满足用户的需求,提高用户体验质量。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种边缘计算智能调度方法,其特征在于,所述调度方法包括:
步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据;
步骤S2:分析调度任务,获得分析结果;
步骤S3:过滤掉不符合条件的节点;
步骤S4:确定边缘节点的评分公式;
步骤S5:计算节点最终评分,再结合节点能源效率数据推选最终节点。
2.根据权利要求1所述的一种边缘计算智能调度方法,其特征在于,所述步骤S1:获取边缘节点的资源数据和探测点到边缘节点的时延数据具体包括:
获取边缘节点的资源数据;
获取探测点到边缘节点的时延数据;
所述时延数据包括:探测点的坐标和IP;边缘节点的坐标和IP;探测点向边缘节点发送请求的时间戳;探测点向边缘节点发送请求的时延。
3.根据权利要求1所述的一种边缘计算智能调度方法,其特征在于,所述步骤S2:分析调度任务,获得分析结果具体包括:
任务要服务的地点,为终端用户的地点;
任务请求的资源量;
根据任务请求的资源量进行任务特征智能分析。
4.根据权利要求3所述的一种边缘计算智能调度方法,其特征在于,所述根据任务请求的资源量进行任务特征智能分析具体包括:
查看该任务是否带有特征分类标识;
如果任务中给出了相关特征,则直接使用;如果未给出时延特征,则默认为时延通用型;如果未给出资源特征,则进行分析任务的资源特征,计算CPU和内存的比值;
如果是1:4,认为是资源通用型;
如果大于1:4,认为是资源计算型;
如果小于1:4,认为资源是内存型。
5.根据权利要求1所述的一种边缘计算智能调度方法,其特征在于,所述步骤S3:过滤掉不符合条件的节点具体包括:
特殊资源过滤,若任务要求特殊资源,不是所有的边缘计算节点都有这些资源,所以要先做过滤,排除掉不满足条件的节点;
资源量过滤,若任务需要的资源数量超过阈值,先做过滤,排除掉不满足条件的节点。
6.根据权利要求1所述的一种边缘计算智能调度方法,其特征在于,所述步骤S4:确定边缘节点的评分公式具体包括:
评分公式,公式中:S是Score的缩写,为评分;W是Weight的缩写,为权重;latency为时延;resource为资源;
本模型中,节点评分公式如下:
公式一:S(node)=W(latency)*S(latency)+W(resource)*S(resource)
公式表示:最终节点的得分=时延的权重*时延的分数+资源的权重*资源的分数;
其中S(latency)的取值方式在下文步骤5阐述;
W(latency)、W(resource)的取值方式,会在下文步骤7中进行阐述;
其中,公式里的S(resource)评分公式如下:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*S(memory)+W(storage)*S(storage)
计算资源的得分情况:
资源得分=cpu权重*cpu得分+内存权重*内存得分+存储权重*存储得分。
7.根据权利要求6所述的一种边缘计算智能调度方法,其特征在于,所述公式一中S(latency)计算方式包括:
获取任务中的坐标信息,和所有探测点的坐标信息比对,计算出直线距离最短的那个探测点,使用数据作为样本数据;
获取探测点到各个边缘节点的时延性能,获得时延值:
根据得到的时延值,和常用的时延判断标准,给出一个自定义的得分S(latency)。
8.根据权利要求6所述的一种边缘计算智能调度方法,其特征在于,所述公式二中S(cpu)、S(memory)、S(storage)计算方式:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*
S(memory)+W(storage)*S(storage)
其中,cpu评分S(cpu)、memory评分S(memory)、storage评分S(storage)的计算方式如下:
本模型中挑选CPU、内存、存储作为模型里的基本评分因子;
采用空余资源比例越高,得分越高的方式进行计算,公式如下:
S(cpu)=节点CPU剩余量/节点CPU总量*100;
S(memory)=节点内存剩余量/节点内存总量*100;
S(storage)=节点存储剩余量/节点存储总量*100;
模型根据实际需要添加其他资源作为基本评分因子,计算公式一致。
9.根据权利要求6所述的一种边缘计算智能调度方法,其特征在于,所述公式一中W(latency)、W(resource)定义方式为:
公式一:S(node)=W(latency)*S(latency)+W(resource)*
S(resource)
有两个权重参数W(latency)和W(resource),W(latency)+W(resource)=1;
权重取值范围是[0.3,0.7],管理页面调整步长为0.05;
初始默认值:W(latency)=0.5,W(resource)=0.5;
默认计算公式为:S(node)=0.5*S(latency)+0.5*S(resource);
结合对任务类型的分析,在默认值基础上,动态调整权重值:
如果是时延敏感型任务,则在给定的默认值上,W(latency)增加0.1,需在[0.3,0.7]的范围内,同时W(resource)=1-W(latency);
如果是时延普通型任务,则保持默认值不变;
如果是时延不敏感型任务,则在给定的默认值上,W(latency)减少0.1,但需在[0.3,0.7]的范围,同时W(resource)=1-W(latency)。
10.根据权利要求6所述的一种边缘计算智能调度方法,其特征在于,所述公式二中W(cpu)、W(memory)、W(storage)定义方式为:
公式二:S(resource)=W(cpu)*S(cpu)+W(memory)*
S(memory)+W(storage)*S(storage)
公式二中有3个权重参数:W(cpu)、W(memory)、W(storage),分别对应CPU、内存、存储的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311573550.8A CN117573353A (zh) | 2023-11-23 | 2023-11-23 | 一种边缘计算智能调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311573550.8A CN117573353A (zh) | 2023-11-23 | 2023-11-23 | 一种边缘计算智能调度方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117573353A true CN117573353A (zh) | 2024-02-20 |
Family
ID=89885851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311573550.8A Pending CN117573353A (zh) | 2023-11-23 | 2023-11-23 | 一种边缘计算智能调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117573353A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221915A (zh) * | 2019-05-21 | 2019-09-10 | 新华三大数据技术有限公司 | 节点调度方法和装置 |
CN113726846A (zh) * | 2021-07-14 | 2021-11-30 | 阿里巴巴新加坡控股有限公司 | 边缘云系统、资源调度方法、设备及存储介质 |
CN114090251A (zh) * | 2021-11-23 | 2022-02-25 | 浪潮云信息技术股份公司 | 一种边缘计算资源自适应动态调度方法及系统 |
-
2023
- 2023-11-23 CN CN202311573550.8A patent/CN117573353A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221915A (zh) * | 2019-05-21 | 2019-09-10 | 新华三大数据技术有限公司 | 节点调度方法和装置 |
CN113726846A (zh) * | 2021-07-14 | 2021-11-30 | 阿里巴巴新加坡控股有限公司 | 边缘云系统、资源调度方法、设备及存储介质 |
CN114090251A (zh) * | 2021-11-23 | 2022-02-25 | 浪潮云信息技术股份公司 | 一种边缘计算资源自适应动态调度方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109167835B (zh) | 一种基于kubernetes的物理资源调度方法及系统 | |
WO2021179462A1 (zh) | 基于改进量子蚁群算法的Spark平台任务调度方法 | |
CN111459617B (zh) | 基于云平台的容器化应用自动分配优化系统及其方法 | |
CN108829494A (zh) | 基于负载预测的容器云平台智能资源优化方法 | |
US20180247265A1 (en) | Task grouping method and apparatus, electronic device, and computer storage medium | |
CN111752678A (zh) | 面向边缘计算中分布式协同学习的低功耗容器放置方法 | |
CN112019620B (zh) | 基于Nginx动态加权的Web集群负载均衡方法及系统 | |
CN112527448A (zh) | 基于openstack的动态负载调整方法及其系统 | |
CN108447255B (zh) | 一种城市道路动态交通网络结构信息系统 | |
CN112764920B (zh) | 一种边缘应用部署方法、装置、设备和存储介质 | |
CN107566535B (zh) | 基于Web地图服务并发访问时序规则的自适应负载均衡方法 | |
CN112835698A (zh) | 一种基于异构集群的请求分类处理的动态负载均衡方法 | |
CN106535204A (zh) | 一种业务覆盖质量评估方法及装置 | |
CN106779272A (zh) | 一种风险预测方法和设备 | |
CN101217427B (zh) | 不确定网络环境中网络服务评价和优选方法 | |
CN109150845A (zh) | 监测终端流量的方法以及系统 | |
CN110471761A (zh) | 服务器的控制方法、用户设备、存储介质及装置 | |
CN117573353A (zh) | 一种边缘计算智能调度方法 | |
CN116866440A (zh) | 一种集群节点选择调度方法、装置、电子设备和存储介质 | |
CN116820767A (zh) | 一种云资源管理方法、装置、电子设备及存储介质 | |
CN116521335A (zh) | 一种倾斜影像模型生产的分布式任务调度方法及系统 | |
CN116248676A (zh) | 边缘云节点组合确定方法及装置 | |
CN115525394A (zh) | 容器数量的调整方法及装置 | |
CN114860788A (zh) | 一种技术推广信息服务系统及方法 | |
CN110134575B (zh) | 一种服务器集群的服务能力计算方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |