CN114489944B - 基于Kubernetes的预测式弹性伸缩方法 - Google Patents

基于Kubernetes的预测式弹性伸缩方法 Download PDF

Info

Publication number
CN114489944B
CN114489944B CN202210080539.7A CN202210080539A CN114489944B CN 114489944 B CN114489944 B CN 114489944B CN 202210080539 A CN202210080539 A CN 202210080539A CN 114489944 B CN114489944 B CN 114489944B
Authority
CN
China
Prior art keywords
load
sequence
model
prediction model
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210080539.7A
Other languages
English (en)
Other versions
CN114489944A (zh
Inventor
郭雯
郑霁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202210080539.7A priority Critical patent/CN114489944B/zh
Publication of CN114489944A publication Critical patent/CN114489944A/zh
Application granted granted Critical
Publication of CN114489944B publication Critical patent/CN114489944B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Abstract

本发明公开了基于Kubernetes的预测式弹性伸缩方法,涉及计算机应用技术领域,解决了现有技术提供的方法占用资源较多,且无法有效改善响应延迟的技术问题;本发明结合预测负载和当前负载对容器进行调整,实现弹性伸缩的目的;本发明通过建立或者更新的负载预测模型获取预测负载,根据预测负载和当前负载的对比结果更新当前负载,最后结合当前负载、系统使用率、Kubernetes自带模型获取目标副本数,实现容器的调整;本发明所占用的资源较少,且能够改善响应延迟;本发明在训练获取负载预测模型时,根据历史负载序列的数据量选择调用空闲节点或者公有云平台,通过空闲节点或者公有云平台的介入,提高数据处理效率。

Description

基于Kubernetes的预测式弹性伸缩方法
技术领域
本发明属于计算机应用领域,涉及基于Kubernetes的预测式弹性伸缩技术,具体是基于Kubernetes的预测式弹性伸缩方法。
背景技术
在容器云环境中,Kubernetes从不同的维度提供了多种组件,来满足不同的弹性伸缩需求;Kubernetes针对最小管理单元Pod,提供了垂直伸缩VPA(Vertical PodAutoscaler)和水平伸缩HPA(Horizontal Pod Autoscaler)两种方式;水平伸缩HPA是目前使用最广泛的弹性伸缩组件,也是本申请的基础。
Kubernetes中的弹性伸缩采用的是响应式策略,存在明显的滞后性,在一段时间内无法保证服务质量,对业务系统的使用造成负面影响;现有技术中,西南石油大学的陈雁等在Kubernetes中引入弹性伸缩容忍度的概念,提出步长容忍度算法,提高系统的可靠性与灵活性;广西大学的闫承鑫等利用灰色预测算法,研究了面向突变负载的容器云服务弹性供给服务策略;西安邮电大学的杨茂等采用指数平滑法进行负载预测,改善响应延迟;现有技术所用方法占用资源较多,且响应延迟改善不明显;因此,亟需一种基于Kubernetes的预测式弹性伸缩方法。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一;为此,本发明提出了基于Kubernetes的预测式弹性伸缩方法,用于解决现有技术提供的方法占用资源较多,且无法有效改善响应延迟的技术问题,本发明中引入了负载预测模型,通过负载预测模型预测负载,结合预测负载和当前负载对容器进行调整,实现弹性伸缩的目的。
为实现上述目的,根据本发明的第一方面的实施例提出基于Kubernetes的预测式弹性伸缩方法,包括:
历史负载序列结合公有云平台或者空闲节点建立或者更新负载预测模型;其中,负载预测模型基于时间序列模型或者人工智能模型建立,历史负载序列为包括负载数据以及对应时间的时间序列;
基于负载预测模型获取预测负载,并结合预测负载对当前负载重新定义,同时计算系统使用率;
当前负载、系统使用率结合Kubernetes自带模型获取目标副本数,根据目标副本数对容器进行调整,同时将当前负载更新至历史负载序列中;
通过更新后的历史负载序列对负载预测模型进行更新。
优选的,根据所述历史负载序列选择空闲节点或者公有云平台,包括:
获取历史负载序列的数据总量,并标记为LSZ;
获取空闲节点的数据处理量,并标记为KSC;
根据公式JPX=LSZ/(m×KSC)+1获取节点评估系数JPX;其中,m为空闲节点数量;
当节点评估系数JPX≥2时,则通过空闲节点更新或者训练负载预测模型;否则,调用公有云平台更新或者训练负载预测模型。
优选的,根据基于所述人工智能模型建立的负载预测模型获取预测负载,包括:
以当前时刻为基准,获取时序参数序列;其中,时序参数序列包括若干个时刻对应的内存使用率、CPU使用率和容器副本数;
将时序参数序列输入至负载预测模型中获取下一时刻的预测负载。
优选的,基于所述人工智能模型建立负载预测模型,包括:
获取历史负载序列;其中,历史负载序列包括时序参数序列以及对应的负载值;
将历史负载序列中时序参数序列与下一时刻的负载值整合标准数据;
通过N条标准数据对人工智能模型进行训练,将训练完成的人工智能模型标记为负载预测模型;其中,人工智能模型包括RBF神经网络或者深度卷积神经网络,N为大于等于50的整数。
优选的,所述负载预测模型基于自回归移动平均模型建立,且自回归移动平均模型是自回归模型和移动平均模型的组合;
自回归移动平均模型定义为:
Figure BDA0003485917870000031
Figure BDA0003485917870000032
表示为ARMA(p,q);其中,p为自回归阶数,q为移动平均阶数。
优选的,所述自回归模型定义为:
Figure BDA0003485917870000033
Figure BDA0003485917870000034
其中,ut为随机干扰序列,即白噪声,且E(ut)=0时,表示随机波动相互抵消,
Figure BDA0003485917870000035
为自回归系数,p为自回归阶数。
优选的,所述移动平均模型定义为:
Figure BDA0003485917870000036
Figure BDA0003485917870000037
其中,
Figure BDA0003485917870000038
为移动回归系数,q为移动平均阶数。
优选的,当所述历史负载序列不稳定时,则引入差分次数将自回归移动平均模型变换为差分自回归移动平均模型,表示为ARMA(p,d,q);其中,d为时间序列平稳时所做的差分次数。
优选的,所述差分自回归移动平均模型的建立包括:
步骤11:获取历史负载序列;
步骤12:对历史负载序列进行预处理,当历史负载序列是非稳定序列时,则通过d阶差分运算转换为平稳序列;
步骤13:确定p和q;其中,p和q的确定方法包括ACF或者PACF;
步骤14:通过参数估计方法进行参数拟合;其中,参数估计方法包括最小二乘法和最大似然法;
步骤15:将p、q和拟合获取的参数带入差分自回归移动平均模型公式中计算预测值,并与真实值对比核验。
优选的,结合所述预测负载对当前负载重新定义,包括:
基于负载预测模型获取预测负载;
读取系统中预测负载对应时刻的当前负载;
将预测负载大于当前负载,则将预测负载赋值给当前负载;当预测负载小于等于当前负载时,当前负载不变。
优选的,所述系统使用率的计算公式为:usageRatio=utilization/targetUtilization;其中,usageRatio为系统使用率,utilization为当前需要使用的资源数值;targetUtilization为目标使用的资源数值。
优选的,通过所述当前负载对历史负载序列进行更新,并通过更新后的历史负载序列完成负载预测模型的更新,再通过负载预测模型进行新一阶段计算。
与现有技术相比,本发明的有益效果是:
1、本发明通过建立或者更新的负载预测模型获取预测负载,根据预测负载和当前负载的对比结果更新当前负载,最后结合当前负载、系统使用率、Kubernetes自带模型获取目标副本数,实现容器的调整;本发明所占用的资源较少,且能够改善响应延迟。
2、本发明在训练获取负载预测模型时,根据历史负载序列的数据量选择调用空闲节点或者公有云平台,通过空闲节点或者公有云平台的介入,提高数据处理效率。
附图说明
图1为本发明的工作步骤示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在互联网时代,业务系统的弹性属性对保证其SLA(Service Level Agreement)至关重要。所谓弹性,即当访问量增加,系统压力增大时,业务系统相关资源能够及时得到扩充,保证服务质量QoS(Quality of Service);而当访问量下降,系统压力降低时,业务系统能回收相关资源,达到提高资源利用率的目的。
另一方面,在互联网时代,业务上云已是大势所趋,而容器技术凭借其“轻量级”,“快响应”,“易移植”等特点得到了越来越广泛的应用,正逐渐成为云计算基础设施层面建设的新趋势。开源引擎docker作为容器技术的代表,可以将应用软件及其依赖的环境打包起来,以标准镜像的形式交付,部署在任何装有docker的操作系统上,从而实现“一次构建,到处运行”的理念,也为构建业务系统的弹性伸缩机制提供了基础。Kubernetes通过集群管理技术对集群中的Docker主机资源进行统一管理和容器的编排调度。但是Kubernetes中的弹性伸缩采用的是响应式策略,存在明显的滞后性,即当负载超出业务系统所能承受范围时,业务系统被动做出改变,再加上容器的启动,应用系统的启动都需要一定的时间,因此无法实时响应业务需求,在一段时间内无法保证服务质量,对业务系统的使用造成负面影响。
本发明解决的就是在容器云环境下,基于Kubernetes的预测式弹性伸缩问题。
Kubernetes中的弹性伸缩采用的是响应式策略,存在明显的滞后性,在一段时间内无法保证服务质量,对业务系统的使用造成负面影响;现有技术中,西南石油大学的陈雁等在Kubernetes中引入弹性伸缩容忍度的概念,提出步长容忍度算法,提高系统的可靠性与灵活性;广西大学的闫承鑫等利用灰色预测算法,研究了面向突变负载的容器云服务弹性供给服务策略;西安邮电大学的杨茂等采用指数平滑法进行负载预测,改善响应延迟;现有技术所用方法占用资源较多,且响应延迟改善不明显;本发明中引入了负载预测模型,通过负载预测模型预测负载,结合预测负载和当前负载对容器进行调整,实现弹性伸缩的目的。
请参阅图1,本申请提供了基于Kubernetes的预测式弹性伸缩方法,包括:
历史负载序列结合公有云平台或者空闲节点建立或者更新负载预测模型;且负载预测模型基于时间序列模型或者人工智能模型建立;
基于负载预测模型获取预测负载,并结合预测负载对当前负载重新定义,同时计算系统使用率;
当前负载、系统使用率结合Kubernetes自带模型获取目标副本数,根据目标副本数对容器进行调整,同时将当前负载更新至历史负载序列中;
通过更新后的历史负载序列对负载预测模型进行更新。
本申请考虑到建立或者更新负载预测模型是需要一定算力的,仅在Kubernetes的控制节点上进行计算可能会降低Kubernetes的工作效率,因此考虑在Kubernetes的控制节点负载较大的情况下,通过公有云平台或者其他空闲节点来建立和更新负载预测模型,以保证负载预测模型的获取效率和Kubernetes的工作效率。
本申请中获取目标副本数的过程具体为:将负载预测模型计算处的预测负载,取预测负载和当前负载中的较大值,然后较大值结合Kubernetes自带的算法计算出目标副本数。
本申请中根据目标副本数对容器进行调整,主要利用Kubernetes自带机制,结合系统资源使用率和目标资源使用率,计算得到需要的容器副本数,根据生成对应数量的容器副本。
在一个实施例中,根据历史负载序列选择空闲节点或者公有云平台,包括:
获取历史负载序列的数据总量,并标记为LSZ;
获取空闲节点的数据处理量,并标记为KSC;
根据公式JPX=LSZ/(m×KSC)+1获取节点评估系数JPX;其中,m为空闲节点数量;
当节点评估系数JPX≥2时,则通过空闲节点更新或者训练负载预测模型;否则,调用公有云平台更新或者训练负载预测模型。
在一个实施例中,根据基于人工智能模型建立的负载预测模型获取预测负载,包括:
以当前时刻为基准,获取时序参数序列;其中,时序参数序列包括若干个时刻对应的内存使用率、CPU使用率和容器副本数;
将时序参数序列输入至负载预测模型中获取下一时刻的预测负载。
在一个具体的实施例中,基于人工智能模型建立负载预测模型,包括:
获取历史负载序列;其中,历史负载序列包括时序参数序列以及对应的负载值;
将历史负载序列中时序参数序列与下一时刻的负载值整合标准数据;
通过N条标准数据对人工智能模型进行训练,将训练完成的人工智能模型标记为负载预测模型;其中,人工智能模型包括RBF神经网络或者深度卷积神经网络,N为大于等于50的整数。
本实施例中的时序参数序列与下一时刻的负载值整合成标准数据,才能够保证获取的负载训练模型具有预测功能。
本申请中的负载预测模型基于时间序列模型建立,具体是基于自回归移动平均模型建立,自回归移动平均模型是自回归模型和移动平均模型的组合;
自回归移动平均模型定义为:
Figure BDA0003485917870000081
Figure BDA0003485917870000082
表示为ARMA(p,q);其中,p为自回归阶数,q为移动平均阶数。
自回归模型是研究当前时间点和过去时间点之间的数据关系,通过自身前面部分的数据和后面部分的数据之间的相关关系(自相关)来建立回归方程,是历史时序值的线性组合,自回归模型定义为:
Figure BDA0003485917870000083
Figure BDA0003485917870000084
其中,ut为随机干扰序列,即白噪声,且E(ut)=0时,表示随机波动相互抵消,
Figure BDA0003485917870000085
为自回归系数,p为自回归阶数。
移动平均模型通过将白噪声加权,得到移动平均方程,是历史白噪声的线性组合,解决的是随机变动,即噪声问题;移动平均模型定义为:
Figure BDA0003485917870000086
其中,
Figure BDA0003485917870000087
为移动回归系数,q为移动平均阶数。
值得注意的是,自回归移动平均模型要求时间序列是稳定的,对于不稳定的时间序列,可以通过差分方式使其达到稳定状态,即引入差分次数将自回归移动平均模型变换为差分自回归移动平均模型。
也就是当历史负载序列不稳定时,则引入差分次数将自回归移动平均模型变换为差分自回归移动平均模型,表示为ARMA(p,d,q);差分自回归移动平均模型的建立包括:
步骤11:获取历史负载序列;
步骤12:对历史负载序列进行预处理,当历史负载序列是非稳定序列时,则通过d阶差分运算转换为平稳序列;
步骤13:确定p和q;
步骤14:通过参数估计方法进行参数拟合(通过一些算法对需要的参数进行拟合);其中,参数估计方法包括最小二乘法和最大似然法;
步骤15:将p、q和拟合的参数带入模型公式中计算预测值,并与真实值对比核验。
在Kubernetes中应用预测式弹性伸缩方法,其核心思想是用预测模型计算得出的预测负载值去替代Kubernetes中性能采集器收集到的实际负载值,从而提前做好容器副本数增加或减少的准备。这样的方法在扩容阶段,即流量上升阶段较为合理,但是在某些时段也面临着一些问题:
1)在缩容阶段可以用同样的方法做预测,但缩容阶段没有延迟相应造成的降低服务质量问题,且预测式缩容可能会导致容器副本数下降导致服务质量降低。
2)遇到突发流量的问题,预测式扩容对于这种突发流量很难做出正确判断。
为了解决上面两个问题,在每次预测的过程中加入一个校验环节,将预测值和真实值做比较,取较大值带入最终计算;也就是说,负载预测模型和Kubernetes原有的内置算法是同时运行的,相互兼容,对上述方法中用到的参数定义见表1。
表1预测式方法的变量及定义
参数 描述
Webdata 历史负载序列
Util(present) 系统当前负载
Util(predict) 系统预测负载
usageRatio 系统利用率
以表1定义的参数为例,说明本申请技术方案的工作步骤:
步骤21:创建Webdata;
步骤22:利用Webdata和负载预测模型获取Util(predict);
步骤23:读取Util(present);
步骤24:将Util(predict)大于当前负载,则将Util(predict)赋值给Util(present);当Util(predict)小于等于Util(present)时,Util(present)不变;通过公式usageRatio=utilization/targetUtilization获取usageRatio;
步骤25:用新的Util(predict)、usageRatio结合Kubernetes内置算法模型,计算出容器新的副本数,根据新的副本数进行后续相关操作;
步骤26:将新的Util(predict)补充进Webdata中,然后返回步骤21。
上述公式中的部分数据均是去除量纲取其数值计算,公式是由采集的大量数据经过软件模拟得到最接近真实情况的一个公式;公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者通过大量数据模拟获得。
本发明的工作原理:
历史负载序列结合公有云平台或者空闲节点建立或者更新负载预测模型;基于负载预测模型获取预测负载,并结合预测负载对当前负载重新定义,同时计算系统使用率。
当前负载、系统使用率结合Kubernetes自带模型获取目标副本数,根据目标副本数对容器进行调整,同时将当前负载更新至历史负载序列中;通过更新后的历史负载序列对负载预测模型进行更新。
以上实施例仅用以说明本发明的技术方法而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方法进行修改或等同替换,而不脱离本发明技术方法的精神和范围。

Claims (4)

1.基于Kubernetes的预测式弹性伸缩方法,其特征在于,包括:
历史负载序列结合公有云平台或者空闲节点建立或者更新负载预测模型;其中,负载预测模型基于时间序列模型或者人工智能模型建立,历史负载序列为包括负载数据以及对应时间的时间序列;
基于负载预测模型获取预测负载,并结合预测负载对当前负载重新定义,同时计算系统使用率;
当前负载、系统使用率结合Kubernetes自带模型获取目标副本数,根据目标副本数对容器进行调整,同时将当前负载更新至历史负载序列中;
通过更新后的历史负载序列对负载预测模型进行更新;
所述时间序列模型包括差分自回归移动平均模型,且差分自回归移动平均模型根据自回归模型和移动平均模型获取;
所述差分自回归移动平均模型的建立包括:
步骤11:获取历史负载序列;
步骤12:对历史负载序列进行预处理,当历史负载序列是非稳定序列时,则通过
Figure DEST_PATH_IMAGE002
阶差分运算转换为平稳序列;
步骤13:确定p和q;其中,p和q的确定方法包括ACF或者PACF;
步骤14:通过参数估计方法进行参数拟合;其中,参数估计方法包括最小二乘法和最大似然法;
步骤15:利用训练好的模型计算预测值,并与真实值对比核验;
根据基于所述人工智能模型建立的负载预测模型获取预测负载,包括:
以当前时刻为基准,获取时序参数序列;其中,时序参数序列包括若干个时刻对应的内存使用率、CPU使用率和容器副本数;
将时序参数序列输入至负载预测模型中获取下一时刻的预测负载;
基于所述人工智能模型建立负载预测模型,包括:
获取历史负载序列;其中,历史负载序列包括时序参数序列以及对应的负载值;
将历史负载序列中时序参数序列与下一时刻的负载值整合标准数据;
通过N条标准数据对人工智能模型进行训练,将训练完成的人工智能模型标记为负载预测模型;其中,人工智能模型包括RBF神经网络或者深度卷积神经网络,N为大于等于50的整数。
2.根据权利要求1所述的基于Kubernetes的预测式弹性伸缩方法,其特征在于,根据所述历史负载序列选择空闲节点或者公有云平台,包括:
获取历史负载序列的数据总量,并标记为LSZ;
获取空闲节点的数据处理量,并标记为KSC;
根据公式JPX=LSZ/(m×KSC)+1获取节点评估系数JPX;其中,m为空闲节点数量;
当节点评估系数JPX≥2时,则通过空闲节点更新或者训练负载预测模型;否则,调用公有云平台更新或者训练负载预测模型。
3.根据权利要求1所述的基于Kubernetes的预测式弹性伸缩方法,其特征在于,结合所述预测负载对当前负载重新定义,包括:
基于负载预测模型获取预测负载;
读取系统中预测负载对应时刻的当前负载;
将预测负载大于当前负载,则将预测负载赋值给当前负载;当预测负载小于等于当前负载时,当前负载不变。
4.根据权利要求1所述的基于Kubernetes的预测式弹性伸缩方法,其特征在于,通过所述当前负载对历史负载序列进行更新,并通过更新后的历史负载序列完成负载预测模型的更新,再通过负载预测模型进行新一阶段计算。
CN202210080539.7A 2022-01-24 2022-01-24 基于Kubernetes的预测式弹性伸缩方法 Active CN114489944B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210080539.7A CN114489944B (zh) 2022-01-24 2022-01-24 基于Kubernetes的预测式弹性伸缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210080539.7A CN114489944B (zh) 2022-01-24 2022-01-24 基于Kubernetes的预测式弹性伸缩方法

Publications (2)

Publication Number Publication Date
CN114489944A CN114489944A (zh) 2022-05-13
CN114489944B true CN114489944B (zh) 2022-12-20

Family

ID=81475168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210080539.7A Active CN114489944B (zh) 2022-01-24 2022-01-24 基于Kubernetes的预测式弹性伸缩方法

Country Status (1)

Country Link
CN (1) CN114489944B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115118602B (zh) * 2022-06-21 2024-05-07 中船重工信息科技有限公司 一种基于使用量预测的容器资源动态调度方法及系统
CN115412449B (zh) * 2022-08-31 2024-02-27 西安交通大学 一种基于负载预测的容器动态伸缩方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069535B (zh) * 2015-08-19 2020-07-24 中国电力科学研究院 一种基于arima模型的配电网运行可靠性的预测方法
CN108196957A (zh) * 2017-12-28 2018-06-22 福州大学 一种云环境下的主机负载预测方法
CN108874542A (zh) * 2018-06-07 2018-11-23 桂林电子科技大学 基于神经网络的Kubernetes调度优化方法
CN109787855A (zh) * 2018-12-17 2019-05-21 深圳先进技术研究院 基于马尔可夫链和时间序列模型的服务器负载预测方法及系统
US11303534B2 (en) * 2019-12-13 2022-04-12 Hewlett Packard Enterprise Development Lp Proactively accomodating predicted future serverless workloads using a machine learning prediction model and a feedback control system
CN111913803B (zh) * 2020-07-21 2023-12-29 哈尔滨工程大学 一种基于akx混合模型的服务负载细粒度预测方法
CN113010260A (zh) * 2020-09-29 2021-06-22 证通股份有限公司 容器数量弹性伸缩方法以及容器数量弹性伸缩方法系统

Also Published As

Publication number Publication date
CN114489944A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN114489944B (zh) 基于Kubernetes的预测式弹性伸缩方法
CN112181666B (zh) 一种基于边缘智能的设备评估和联邦学习重要性聚合方法
CN111182637B (zh) 一种基于生成对抗强化学习的无线网络资源分配方法
WO2021143883A1 (zh) 神经网络的自适应搜索方法及装置
CN113794748B (zh) 一种性能感知的服务功能链智能部署方法及装置
CN112785184B (zh) 考虑需求响应的源网荷协调分布鲁棒长期扩展规划方法
CN112861362B (zh) 一种基于整车油耗的动力总成性能参数优化方法和装置
CN113099474A (zh) 卫星互联网用户终端短期业务量需求预测方法及装置
CN114090108B (zh) 算力任务执行方法、装置、电子设备及存储介质
CN112312299A (zh) 服务卸载方法、装置及系统
CN116302569B (zh) 一种基于用户请求信息的资源分区智能化调度方法
CN110392377B (zh) 一种5g超密集组网资源分配方法及装置
CN116340393A (zh) 数据库饱和度的预测方法、存储介质及数据库系统
CN109301820A (zh) 一种企业电力控制方法及系统
TW202327380A (zh) 基於聯邦強化學習的邊緣計算卸載優化方法及通信系統
CN114123236A (zh) 电力电子设备的频率响应控制方法及装置
CN114090239A (zh) 一种基于模型的强化学习的边缘资源调度方法和装置
CN115528712B (zh) 一种源网荷储备不同区储能容量平衡方法及系统
CN113033783B (zh) 一种基于bp神经网络的带宽调整方法
CN117713176B (zh) 源网荷储低碳运行方法、装置、电子设备及存储介质
CN115189908B (zh) 一种基于网络数字孪生体的随机攻击生存性评估方法
CN113067329B (zh) 一种电力系统的可再生能源适应性优化方法及终端
CN109816247B (zh) 关联改造措施与线路重载的电网投资决策建模方法及装置
CN116933453A (zh) 基站节能模型训练方法及装置、基站节能方法及装置
Setia et al. Neural Network Based Prefetching Control Mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant