CN113934542A - 一种容器资源调整方法、系统、介质及电子终端 - Google Patents

一种容器资源调整方法、系统、介质及电子终端 Download PDF

Info

Publication number
CN113934542A
CN113934542A CN202111209791.5A CN202111209791A CN113934542A CN 113934542 A CN113934542 A CN 113934542A CN 202111209791 A CN202111209791 A CN 202111209791A CN 113934542 A CN113934542 A CN 113934542A
Authority
CN
China
Prior art keywords
resource
sequence
container
consumption
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111209791.5A
Other languages
English (en)
Inventor
胡恂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Unisinsight Technology Co Ltd
Original Assignee
Chongqing Unisinsight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Unisinsight Technology Co Ltd filed Critical Chongqing Unisinsight Technology Co Ltd
Priority to CN202111209791.5A priority Critical patent/CN113934542A/zh
Publication of CN113934542A publication Critical patent/CN113934542A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Abstract

本发明提供一种容器资源调整方法、系统、介质及电子终端,方法包括:预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;根据所述服务访问次数序列,建立访问次数预测模型;根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;利用所述容器资源预测模型,进行容器资源预测与调整;本发明中的容器资源调整方法,实现了访问次数和资源需求的有机结合,同时,实现了对微服务应用的资源量的动态调整,有效提高资源利用率。

Description

一种容器资源调整方法、系统、介质及电子终端
技术领域
本发明涉及计算机技术领域,尤其涉及一种容器资源调整方法、系统、介质及电子终端。
背景技术
K8s(Kubernetes)通过QoS(Quality of Service,服务质量)来对pod(容器)进行服务质量管理,提供了requests(需求)和limits(限制)两种类型对资源进行分配和使用限制。目前通用的动态资源调节方法一般分为2种,一种为HPA(horizontal podautoscaling,容器水平自动扩展),另一种为VPA(Vertical pod autoscaler,容器垂直自动扩展)。HAP基于CPU利用率来动态调整容器的数量,对于一些对持久化存储有强依赖的场景不会起到较好的作用,因为当缩容发生时,被缩容的容器所持久化的数据无法自动转移到正在运行的容器中,可能会造成数据丢失;VPA在特定情况下无法有效避免内存OOM(outof memery,内存不足),VPA的建议可能会超出可用资源,VPA在某些特定的情景下会导致删除的pod不会重新建立。
然而,以上方法均未考虑应用资源需求的周期性特点,亦未考虑微服务的访问次数与应用跟资源需求之间的关系,只是较为被动地调整pod的数量或pod的资源量,不能较好地支持容器资源的动态伸缩与调整,资源利用率较低。
发明内容
本发明提供一种容器资源调整方法、系统、介质及电子终端,以解决现有技术中对于容器资源调整未考虑应用资源需求的周期性特点,亦未考虑微服务的访问次数与应用跟资源需求之间的关系,只是较为被动地调整pod的数量或pod的资源量,不能较好地支持容器资源的动态伸缩与调整,以及资源利用率较低的问题。
本发明提供的容器资源调整方法,包括:
预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;
根据所述服务访问次数序列,建立访问次数预测模型;
根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;
根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;
利用所述容器资源预测模型,进行容器资源预测与调整。
可选的,所述服务为微服务,根据所述服务访问次数序列,建立访问次数预测模型的步骤包括:
对所述服务访问次数序列进行一阶累加,获取第一一阶累加序列;
对所述第一一阶累加序列建立白化形式的微分方程;
根据所述服务访问次数序列和第一一阶累加序列,利用最小二乘法,获取所述微分方程中的可变常量;
根据所述可变常量和所述微分方程,获取第二一阶累加序列;
利用所述第二一阶累加序列,进行访问次数预测,获取访问次数预测序列;
根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型。
可选的,根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型的步骤包括:
获取所述访问次数预测序列和所述服务访问次数序列之间的差值,获取差值序列;
将所述差值序列用预设的差分自回归移动平均模型进行表示,获取自回归方程和移动平均方程;
根据所述自回归方程和移动平均方程,获取自回归移动平均模型;
对所述自回归移动平均模型中的差值序列进行差分处理,获取差分处理后的差值序列;
根据所述差分处理后的差值序列,获取差值预测序列;
根据所述访问次数预测序列和差值预测序列,完成所述访问次数预测模型的建立。
可选的,根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型的步骤包括:
构建资源消耗预测线性方程,所述资源消耗预测方程包括用于表示服务访问次数和资源消耗之间的关联关系的关联参数;
对所述资源消耗预测线性方程进行矩阵转换,获取第一资源消耗预测矩阵方程,所述第一资源消耗预测矩阵方程为资源消耗预测线性方程的矩阵表示;
将所述服务访问次数序列和所述资源消耗序列代入所述第一资源消耗预测矩阵方程中,利用最小二乘法,确定所述关联参数的取值;
根据所述关联参数的取值,确定第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建。
可选的,对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型的步骤包括:
根据所述访问次数预测模型和所述资源消耗预测模型中的第二资源消耗预测方程,获取基于访问次数的容器资源预测模型;
所述容器资源预测模型的数学表达为:
Figure BDA0003308429970000031
其中,
Figure BDA0003308429970000032
为k1时刻的资源消耗的预测值,α和β为第二资源消耗预测方程中的关联参数,
Figure BDA0003308429970000033
为k1时刻的访问次数预测值,ε1(k1)为访问次数预测差值。
可选的,利用所述容器资源预测模型,进行容器资源预测与调整的步骤包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的资源平均消耗预测值和资源峰值消耗预测值,所述资源平均消耗为固定时间段内服务所消耗资源的平均值,所述资源峰值消耗为固定时间段内服务所消耗资源的最大值;
将所述资源平均消耗预测值作为资源需求量,并将所述资源峰值消耗预测值作为资源限制量;
根据所述资源需求量和所述资源限制量,对服务的容器资源进行调整。
可选的,利用所述容器资源预测模型,进行容器资源预测与调整的步骤还包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值;
根据所述CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值,获取CPU需求量、CPU限制量、内存需求量和内存限制量;
根据所述CPU需求量、CPU限制量、内存需求量和内存限制量,进行容器资源调整。
本发明还提供一种容器资源调整系统,包括:
访问次数预测模型构建模块,用于预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;根据所述服务访问次数序列,建立访问次数预测模型;
资源消耗预测模型构建模块,用于根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
容器资源预测模型获取模块,用于对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;
资源调整模块,用于利用所述容器资源预测模型,进行容器资源预测与调整。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述方法。
本发明还提供一种电子终端,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行如上述任一项所述方法。
本发明的有益效果:本发明中的容器资源调整方法、系统、介质及电子终端,通过按照预先设置的采集周期,采集服务中前端容器的访问次数,获取服务访问次数序列,根据服务访问次数序列,建立访问次数预测模型,根据采集周期,采集服务中容器的资源消耗量,获取资源消耗序列,根据服务访问次数序列和资源消耗序列,确定资源消耗预测模型,并对访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型,进而利用容器资源预测模型进行容器资源预测与调整,实现了访问次数和资源需求的有机结合,同时,实现了对微服务应用的资源量的动态调整,有效提高资源利用率。
附图说明
图1是本发明实施例中容器资源调整方法的流程示意图。
图2是本发明实施例中容器资源调整方法中建立访问次数预测模型的流程示意图。
图3是本发明实施例中容器资源调整方法中确定资源消耗预测模型的流程示意图。
图4是本发明实施例中容器资源调整方法中获取容器资源预测模型的流程示意图。
图5是本发明实施例中容器资源调整方法中利用容器资源预测模型,进行容器资源预测与调整的流程示意图。
图6是本发明实施例中实施例一的通用微服务的框架示意图。
图7是本发明实施例中容器资源调整系统的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
发明人发现,K8s(Kubernetes)通过QoS(Quality of Service,服务质量)来对pod(容器)进行服务质量管理,提供了requests和limits两种类型对资源进行分配和使用限制,requests定义了对应的容器所需要的最小资源量,limits定义了对应容器最大可以消耗的资源上限。目前通用的动态资源调节方法一般分为2种,一种为HPA(horizontal podautoscaling,容器水平自动扩展),另一种为VPA(Vertical pod autoscaler,容器垂直自动扩展)。HAP基于CPU利用率来动态调整容器的数量,对于一些对持久化存储有强依赖的场景不会起到较好的作用,因为当缩容发生时,被缩容的容器所持久化的数据无法自动转移到正在运行的容器中,可能会造成数据丢失;VPA在特定情况下无法有效避免内存OOM,VPA的建议可能会超出可用资源,且VPA在某些特定的情景下会导致删除的pod不会重新建立。然而,以上方法均未考虑应用资源需求的周期性特点,亦未考虑微服务的访问次数与应用跟资源需求之间的关系,只是较为被动地调整pod的数量或pod的资源量,不能较好地支持容器资源的动态伸缩与调整,资源利用率较低。因此,发明人提出一种容器资源调整方法、系统、介质及电子终端,通过按照预先设置的采集周期,采集服务中前端容器的访问次数,获取服务访问次数序列,根据服务访问次数序列,建立访问次数预测模型,根据采集周期,采集服务中容器的资源消耗量,获取资源消耗序列,根据服务访问次数序列和资源消耗序列,确定资源消耗预测模型,并对访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型,进而利用容器资源预测模型进行容器资源预测与调整,充分考虑了应用资源需求的周期性特点,实现了访问次数和资源需求的有机结合,可以动态地预测出各阶段微服务的应用的所需资源量,同时,实现了对微服务应用的资源量的主动调整,有效提高资源利用率,可实施性较高,成本较低。
如图1所示,本实施例中的容器资源调整方法,包括:
S101:预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;所述服务为微服务,所述采集周期可以根据实际情况进行设置,如每三分钟统计一次服务的前端容器的访问次数等,此处不再赘述。在典型的服务框架中,前后端容器通常为分离状态,即相互独立,因此,通过采集服务的前端容器的访问次数,能够较好地获取预设时间段内服务的访问次数,便于后续对服务的访问次数进行预测。上述采集的服务的前端容器的访问次数为周期时间内的总访问次数。
S102:根据所述服务访问次数序列,建立访问次数预测模型;所述访问次数预测模型为联合灰色代谢模型(metabolic grey model,MGM)及差分自回归移动平均模型(autoregressive integrated moving average model,ARIMA)的拟合模型,通过根据服务访问次数序列,建立访问次数预测模型,能够较好地实现对服务的访问次数的预测,准确率较高,可实施性较强。
S103:根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;通过定期采集服务的容器的资源消耗量,能够便于对微服务的消耗资源进行统计,且便于后续对容器的资源消耗进行预测。
S104:根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;即根据服务访问次数序列和资源消耗序列,确定服务的访问次数和资源消耗量之间的关联关系,进而确定资源消耗预测模型。
S105:对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;通过对访问次数预测模型和资源消耗预测模型进行拟合,能够较好地获取基于访问次数的容器资源预测模型,模型预测准确率较高,实现对各阶段服务应用的所需资源量进行动态预测,实施较方便。
S106:利用所述容器资源预测模型,进行容器资源预测与调整。即利用容器资源预测模型,对服务的容器的资源消耗量和资源限制量进行预测和调整。通过利用容器资源预测模型进行容器资源预测与调整,能够实现对微服务所需资源的主动预测与调整,有效提高服务中容器的资源利用率。
如图2所示,根据所述服务访问次数序列,建立访问次数预测模型的步骤包括:
S201:对所述服务访问次数序列进行一阶累加,获取第一一阶累加序列;
例如:根据预先设置的采集周期,定期采集服务的前端容器的访问次数,获取服务访问次数序列,设采集到的某一服务的访问次数序列为:
X(0)={x(0)(1),x(0)(2),...,x(0)(n)}
其中,X(0)为服务访问次数序列,x(0)(n)为从第n-1时刻到第n时刻的某一服务的总访问次数。
对上述服务访问次数序列进行一阶累加,获取第一一阶累加序列,所述第一一阶累加序列的数学表达为:
X(1)={x(1)(1),x(1)(2),...,x(1)(n)}
Figure BDA0003308429970000061
其中,X(1)为第一一阶累加序列。
S202:对所述第一一阶累加序列建立白化形式的微分方程;所述微分方程的数学表达为:
Figure BDA0003308429970000062
其中,x(1)(t)为第一一阶累加序列中的数据,t为时间序列,a和b是微分方程中的可变常量。
S203:根据所述服务访问次数序列和第一一阶累加序列,利用最小二乘法,获取所述微分方程中的可变常量;即利用最小二乘法,得到微分方程中可变常量的取值。获取所述微分方程中的可变常量的数学表达为:
[a,b]T=(BTB)-1BTYN
其中,
Figure BDA0003308429970000071
YN=[x(0)(2),x(0)(3),…,x(0)(n)]T
Figure BDA0003308429970000072
由上述数学表达,可以得到微分方程中的a和b的取值。
S204:根据所述可变常量和所述微分方程,获取第二一阶累加序列;即将所述可变常量a、b的值代入上述微分方程中,获取第二一阶累加序列。
S205:利用所述第二一阶累加序列,进行访问次数预测,获取访问次数预测序列;即利用第二一阶累加序列,得到MGM模型,所述MGM模型的数学表达为:
Figure BDA0003308429970000073
其中,
Figure BDA0003308429970000074
为k3+1时刻的访问次数预测值,
Figure BDA0003308429970000075
利用所述MGM模型,进行访问次数预测,获取访问次数预测序列,所述访问次数预测序列的数学表达为:
Figure BDA0003308429970000076
其中,
Figure BDA0003308429970000077
为访问次数预测序列,
Figure BDA0003308429970000078
为第n时刻的访问次数预测值。
S206:根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型。通过建立访问次数预测模型,能够实现对微服务的访问次数的预测,自动化程度较高。
在一些实施例中,根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型的步骤包括:
S2061:获取所述访问次数预测序列和所述服务访问次数序列之间的差值,获取差值序列;即将MGM模型预测的访问次数预测序列
Figure BDA0003308429970000079
减去真实采集的服务访问次数序列X(0)={x(0)(1),x(0)(2),...,x(0)(n)},得到差值序列。
S2062:将所述差值序列用预设的差分自回归移动平均模型ARIMA进行表示,获取自回归方程和移动平均方程;在差分自回归移动平均模型ARIMA(p,d,q)中,AR表示自回归,I为差分,MA为移动平均,p为自回归项,q为移动平均项,d为时间序列成为平稳时所做的差分次数。
P阶自回归方程AR(p)的数学表达为:
Figure BDA0003308429970000081
其中,Et表示差值序列{ε(0)(1),ε(0)(2),…,ε(0)(n)},μt为白噪声序列,p为自回归项,即自回归阶数,
Figure BDA0003308429970000082
为自回归参数。
q阶移动平均方程MA(q)的数学表达为:
Et=μt1Et-12Et-2-…-θqEt-q
其中,q为移动平均项,即滑动平均阶数,θ12,…,θq为估计参数。
S2063:根据所述自回归方程和移动平均方程,获取自回归移动平均模型;即结合上述自回归方程和移动平均方程,得到自回归移动平均模型,所述自回归移动平均模型的数学表达为:
Figure BDA0003308429970000083
S2064:对所述自回归移动平均模型中的差值序列进行差分处理,获取差分处理后的差值序列;通过对自回归移动平均模型中的差值序列Et进行差分处理,能够实现对差值序列Et的平滑处理。
S2065:根据所述差分处理后的差值序列,获取差值预测序列;即根据差分处理后的差值序列和预设的差值预测规则,获取差值预测序列,所述差值预测序列的数学表达为:
Et *=(1-B*)dEt
Figure BDA0003308429970000084
其中,
Figure BDA0003308429970000085
为Et的差值预测序列{ε(1)(1),ε(1)(2),…,ε(1)(n)},d值可以通过现有的ADF(Augmented Dickey-Fluller)方法得到,p,q的值可以通过现有技术中的函数确定,如python中statsmodels库的arma_order_select_ic函数等,此处不再赘述。
S2066:根据所述访问次数预测序列和差值预测序列,完成所述访问次数预测模型的建立。即将所述访问次数预测序列减去相应的差值预测序列,完成对服务的访问次数的预测,所述访问次数预测模型的数学表达为:
Figure BDA0003308429970000086
其中,x*(k1)为第k1时刻的最终访问次数预测值,
Figure BDA0003308429970000091
为MGM模型输出的第k1时刻的访问次数预测值,ε1(k1)为第k1时刻的访问次数预测差值。通过将差值序列用差分自回归移动平均模型表示,并预测新的差值序列,即差值预测序列,能够实现对预测访问次数进行误差校准,减少误差,提高访问次数预测的精准度。
如图3所示,根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型的步骤包括:
S301:构建资源消耗预测线性方程,所述资源消耗预测方程包括用于表示服务访问次数和资源消耗之间的关联关系的关联参数;
例如:根据预设的采集周期,定期采集预设时间段内服务容器的资源消耗量,获取资源消耗序列,所述资源消耗序列的数学表达为:C={c(1),c(1),…,c(n)},其中,c(n)为第n时刻的服务容器的资源消耗量。由于服务的访问次数与其资源消耗量成正相关,因此,设其资源消耗预测线性方程的数学表达为:
c=αx(0)
其中,x0为采集的服务访问次数,c为资源消耗量,α和β为关联参数。
S302:对所述资源消耗预测线性方程进行矩阵转换,获取第一资源消耗预测矩阵方程,所述第一资源消耗预测矩阵方程为资源消耗预测线性方程的矩阵表示;所述第一资源消耗预测矩阵方程的数学表达为:
c=B**θ
其中,
Figure BDA0003308429970000092
S303:将所述服务访问次数序列和所述资源消耗序列代入所述第一资源消耗预测矩阵方程中,利用最小二乘法,确定所述关联参数的取值;利用最小二乘法,确定所述关联参数的取值的数学表达为:θ=(B**TB**)B**Tc,即[α β]=(B**TB**)B**Tc,完成关联参数的取值的确定。
S304:根据所述关联参数的取值,确定第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建,即将关联参数的取值代入所述第一资源消耗预测矩阵方程,得到第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建。
如图4所示,对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型的步骤包括:
S401:根据所述访问次数预测模型和所述资源消耗预测模型中的第二资源消耗预测方程,获取基于访问次数的容器资源预测模型;即将第二资源消耗预测方程代入访问次数预测模型中,获取基于访问次数的容器资源预测模型。
所述容器资源预测模型的数学表达为:
Figure BDA0003308429970000101
其中,
Figure BDA0003308429970000102
为k1时刻的资源消耗的预测值,α和β为第二资源消耗预测方程中的关联参数,
Figure BDA0003308429970000103
为k1时刻的访问次数预测值,ε1(k1)为访问次数预测差值。
如图5所示,利用所述容器资源预测模型,进行容器资源预测与调整的步骤包括:
S501:利用所述容器资源预测模型进行容器消耗资源预测,获取服务的资源平均消耗预测值和资源峰值消耗预测值,所述资源平均消耗为固定时间段内服务所消耗资源的平均值,所述资源峰值消耗为固定时间段内服务所消耗资源的最大值;
在一些实施例中,利用所述容器资源预测模型进行容器消耗资源预测,获取服务的资源平均消耗预测值和资源峰值消耗预测值的步骤包括:
根据预设的采集周期,采集预设时间段内某一服务的资源平均消耗和资源峰值消耗;
将所述资源平均消耗和所述资源峰值消耗分别输入所述容器资源预测模型,获取所述资源平均消耗预测值和资源峰值消耗预测值。例如:定期采集某一服务的资源平均消耗cavg(k1)和资源峰值消耗cpeak(k1),cavg(k1)表示从k1-1时刻到k1时刻该服务的资源平均消耗,cpeak(k1)表示从k1-1时刻到k1时刻该服务的资源峰值消耗,将cavg(k1)和cpeak(k1)分别输入容器资源预测模型中,获取k时刻的容器资源的资源平均消耗预测值和资源峰值消耗预测值,即相应的服务资源的资源平均消耗预测值和资源峰值消耗预测值。
S502:将所述资源平均消耗预测值作为资源需求量,并将所述资源峰值消耗预测值作为资源限制量;
S503:根据所述资源需求量和所述资源限制量,对服务的容器资源进行调整。
在kebenetes容器系统中,需要调节的资源包括CPU及内存大小,按需求量和限制量进行区分,共有4种维度需要调节,即[CPU需求量,CPU限制量,内存需求量,内存限制量],因此,利用所述容器资源预测模型,进行容器资源预测与调整的步骤还包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值;例如:将某一服务的CPU平均资源消耗、CPU峰值资源消耗、内存平均资源消耗和内存峰值资源消耗分别输入容器资源预测模型,获取对应的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值。
根据所述CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值,获取CPU需求量、CPU限制量、内存需求量和内存限制量;即将CPU资源平均消耗预测值作为CPU需求量,将CPU资源峰值消耗预测值作为CPU限制量,将内存资源平均消耗预测值作为内存需求量,将内存资源峰值消耗预测值作为内存限制量。
根据所述CPU需求量、CPU限制量、内存需求量和内存限制量,进行容器资源调整。较好地实现了对各阶段的微服务应用或容器的所需资源量的预测与调整,主动调整微服务应用的所需资源量,从而提高资源利用率,自动化程度较高,资源调整效果较优。
实施例一:
如图6所示,通用微服务框架一般分为业务层、网关层和内部服务,其主要特点是:一、前后端分离,二、统一的API网关,本实施例通过追踪一个典型微服务的访问次数及资源消耗情况,来说明如何动态地预测出各阶段微服务应用的所需资源量,主动地调整相应微服务应用或容器的所需资源量,从而在系统级提高资源利用率。
步骤1:通过在网关层的API网关中部署的采集模块,定期采集一定时间段内微服务的前端容器的访问次数,获取服务访问次数序列X(0)={x(0)(1),x(0)(2),...,x(0)(n)},其中,X(0)为服务访问次数序列,x(0)(n)为从第n-1时刻到第n时刻的某一微服务的总访问次数。如每5分钟统计一次微服务的访问次数等。
对上述服务访问次数序列进行一阶累加,获取第一一阶累加序列,所述第一一阶累加序列的数学表达为:
X(1)={x(1)(1),x(1)(2),...,x(1)(n)}
Figure BDA0003308429970000111
其中,X(1)为第一一阶累加序列。
步骤2:根据所述服务访问次数序列,建立访问次数预测模型,所述访问次数预测模型为联合灰色代谢模型(metabolic grey model,MGM)及差分自回归移动平均模型(autoregressive integrated moving average model,ARIMA)的拟合模型;
具体的,对所述第一一阶累加序列建立白化形式的微分方程;所述微分方程的数学表达为:
Figure BDA0003308429970000112
其中,x(1)(t)为第一一阶累加序列中的数据,t为时间序列,a和b是微分方程中的可变常量。
根据所述服务访问次数序列和第一一阶累加序列,利用最小二乘法,获取所述微分方程中的可变常量;即利用最小二乘法,得到微分方程中可变常量的取值。获取所述微分方程中的可变常量的数学表达为:
[a,b]T=(BTB)-1BTYN
其中,
Figure BDA0003308429970000121
YN=[x(0)(2),x(0)(3),…,x(0)(n)]T
Figure BDA0003308429970000122
由上述数学表达,得到微分方程中的a和b的值。
根据所述可变常量和所述微分方程,获取第二一阶累加序列;即将所述可变常量a、b的值代入上述微分方程中,获取第二一阶累加序列;利用所述第二一阶累加序列,进行访问次数预测,获取访问次数预测序列;即利用第二一阶累加序列,得到MGM模型,所述MGM模型的数学表达为:
Figure BDA0003308429970000123
其中,
Figure BDA0003308429970000124
为k3+1时刻的访问次数预测值,
Figure BDA0003308429970000125
利用所述MGM模型,进行访问次数预测,获取访问次数预测序列,所述访问次数预测序列的数学表达为:
Figure BDA0003308429970000126
其中,
Figure BDA0003308429970000127
为访问次数预测序列,
Figure BDA0003308429970000128
为第n时刻的访问次数预测值。
获取所述访问次数预测序列和所述服务访问次数序列之间的差值,获取差值序列;即将MGM模型预测的访问次数预测序列
Figure BDA0003308429970000129
减去真实采集的服务访问次数序列X(0)={x(0)(1),x(0)(2),...,x(0)(n)},得到差值序列;将所述差值序列用预设的差分自回归移动平均模型ARIMA进行表示,获取自回归方程和移动平均方程;在差分自回归移动平均模型ARIMA(p,d,q)中,AR表示自回归,I为差分,MA为移动平均,p为自回归项,q为移动平均项,d为时间序列成为平稳时所做的差分次数。
P阶自回归方程AR(p)的数学表达为:
Figure BDA0003308429970000131
其中,Et表示差值序列{ε(0)(1),ε(0)(2),…,ε(0)(n)},μt为白噪声序列,p为自回归项,即自回归阶数,
Figure BDA0003308429970000132
为自回归参数。
q阶移动平均方程MA(q)的数学表达为:
Et=μt1Et-12Et-2-…-θqEt-q
其中,q为移动平均项,即滑动平均阶数,θ12,…,θq为估计参数。
根据所述自回归方程和移动平均方程,获取自回归移动平均模型;即结合上述自回归方程和移动平均方程,得到自回归移动平均模型,所述自回归移动平均模型的数学表达为:
Figure BDA0003308429970000133
对所述自回归移动平均模型中的差值序列进行差分处理,获取差分处理后的差值序列;根据所述差分处理后的差值序列,获取差值预测序列;即根据差分处理后的差值序列和预设的差值预测规则,获取差值预测序列,所述差值预测序列的数学表达为:
Figure BDA0003308429970000134
Figure BDA0003308429970000135
其中,
Figure BDA0003308429970000136
为Et的差值预测序列{ε(1)(1),ε(1)(2),…,ε(1)(n)},d值可以通过现有的ADF(Augmented Dickey-Fluller)方法得到,p,q的值可以通过现有技术中的函数确定,如python中statsmodels库的arma_order_select_ic函数等,此处不再赘述。
根据所述访问次数预测序列和差值预测序列,完成所述访问次数预测模型的建立。即将所述访问次数预测序列减去相应的差值预测序列,完成对微服务的访问次数的预测,所述访问次数预测模型的数学表达为:
Figure BDA0003308429970000137
其中,x*(k1)为第k1时刻的最终访问次数预测值,
Figure BDA0003308429970000138
为MGM模型输出的第k1时刻的访问次数预测值,ε1(k1)为第k1时刻的访问次数预测差值。
步骤3:根据所述采集周期,采集微服务的容器的资源消耗量,获取资源消耗序列;根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
具体的,定期采集一定时间段内各微服务容器的资源消耗量,得到资源消耗序列C={c(1),c(1),…,c(n)},其中,c(n)为第n时刻的微服务容器的资源消耗量。由于微服务的访问次数与其资源消耗量成正相关,因此,设其资源消耗预测线性方程的数学表达为:
c=αx(0)
其中,x0为采集的服务访问次数,c为资源消耗量,α和β为关联参数。
对所述资源消耗预测线性方程进行矩阵转换,获取第一资源消耗预测矩阵方程,所述第一资源消耗预测矩阵方程为资源消耗预测线性方程的矩阵表示;所述第一资源消耗预测矩阵方程的数学表达为:
c=B**θ
其中,
Figure BDA0003308429970000141
将所述服务访问次数序列和所述资源消耗序列代入所述第一资源消耗预测矩阵方程中,利用最小二乘法,确定所述关联参数的取值;利用最小二乘法,确定所述关联参数的取值的数学表达为:θ=(B**TB**)B**Tc,即[α β]=(B**TB**)B**Tc,完成关联参数的取值的确定;将关联参数的取值代入所述第一资源消耗预测矩阵方程,得到第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建。
步骤3:对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;利用所述容器资源预测模型,进行容器资源预测与调整。
具体的,将第二资源消耗预测方程代入访问次数预测模型中,获取基于访问次数的容器资源预测模型,所述容器资源预测模型的数学表达为:
Figure BDA0003308429970000142
其中,
Figure BDA0003308429970000143
为k1时刻的资源消耗的预测值,α和β为第二资源消耗预测方程中的关联参数,
Figure BDA0003308429970000144
为k1时刻的访问次数预测值,ε1(k1)为访问次数预测差值。
利用所述容器资源预测模型进行容器消耗资源预测,获取微服务的资源平均消耗预测值和资源峰值消耗预测值,所述资源平均消耗为固定时间段内微服务所消耗资源的平均值,所述资源峰值消耗为固定时间段内微服务所消耗资源的最大值;
在一些实施例中,利用所述容器资源预测模型进行容器消耗资源预测,获取微服务的资源平均消耗预测值和资源峰值消耗预测值的步骤包括:
根据预设的采集周期,采集预设时间段内某一微服务的资源平均消耗和资源峰值消耗;
将所述资源平均消耗和所述资源峰值消耗分别输入所述容器资源预测模型,获取所述资源平均消耗预测值和资源峰值消耗预测值。例如:定期采集某一微服务的资源平均消耗cavg(k1)和资源峰值消耗cpeak(k1),cavg(k1)表示从k1-1时刻到k1时刻该微服务的资源平均消耗,cpeak(k1)表示从k1-1时刻到k1时刻该微服务的资源峰值消耗,将cavg(k1)和cpeak(k1)分别输入容器资源预测模型中,获取k时刻的容器资源的资源平均消耗预测值和资源峰值消耗预测值,即相应的微服务资源的资源平均消耗预测值和资源峰值消耗预测值。
进一步地,由于在kebenetes容器系统中,需要调节的资源包括CPU及内存大小,按需求量和限制量进行区分,共有4种维度需要调节,即[CPU需求量,CPU限制量,内存需求量,内存限制量],因此,利用所述容器资源预测模型,进行容器资源预测与调整的步骤还可以为:利用所述容器资源预测模型进行容器消耗资源预测,获取微服务的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值;例如:将某一微服务的CPU平均资源消耗、CPU峰值资源消耗、内存平均资源消耗和内存峰值资源消耗分别输入容器资源预测模型,获取对应的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值。根据所述CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值,获取CPU需求量、CPU限制量、内存需求量和内存限制量;即将CPU资源平均消耗预测值作为CPU需求量,将CPU资源峰值消耗预测值作为CPU限制量,将内存资源平均消耗预测值作为内存需求量,将内存资源峰值消耗预测值作为内存限制量。根据所述CPU需求量、CPU限制量、内存需求量和内存限制量,进行容器资源调整,实现对微服务中容器资源的动态调整,精确度较高,资源利用率较高。
如图7所示,本实施例还提供一种容器资源调整系统,包括:
访问次数预测模型构建模块,用于预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;根据所述服务访问次数序列,建立访问次数预测模型;
资源消耗预测模型构建模块,用于根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
容器资源预测模型获取模块,用于对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;
资源调整模块,用于利用所述容器资源预测模型,进行容器资源预测与调整;所述访问次数预测模型构建模块、资源消耗预测模型构建模块、容器资源预测模型获取模块和资源调整模块连接。本实施例中的容器资源调整系统,通过按照预先设置的采集周期,采集服务中前端容器的访问次数,获取服务访问次数序列,根据服务访问次数序列,建立访问次数预测模型,根据采集周期,采集服务中容器的资源消耗量,获取资源消耗序列,根据服务访问次数序列和资源消耗序列,确定资源消耗预测模型,并对访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型,进而利用容器资源预测模型进行容器资源预测与调整,实现了访问次数和资源需求的有机结合,同时,实现了对微服务应用的资源量的动态调整,有效提高资源利用率,成本较低,自动化程度较高。
在一些实施例中,所述服务为微服务,根据所述服务访问次数序列,建立访问次数预测模型的步骤包括:
对所述服务访问次数序列进行一阶累加,获取第一一阶累加序列;
对所述第一一阶累加序列建立白化形式的微分方程;
根据所述服务访问次数序列和第一一阶累加序列,利用最小二乘法,获取所述微分方程中的可变常量;
根据所述可变常量和所述微分方程,获取第二一阶累加序列;
利用所述第二一阶累加序列,进行访问次数预测,获取访问次数预测序列;
根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型。
在一些实施例中,根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型的步骤包括:
获取所述访问次数预测序列和所述服务访问次数序列之间的差值,获取差值序列;
将所述差值序列用预设的差分自回归移动平均模型进行表示,获取自回归方程和移动平均方程;
根据所述自回归方程和移动平均方程,获取自回归移动平均模型;
对所述自回归移动平均模型中的差值序列进行差分处理,获取差分处理后的差值序列;
根据所述差分处理后的差值序列,获取差值预测序列;
根据所述访问次数预测序列和差值预测序列,完成所述访问次数预测模型的建立。
在一些实施例中,根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型的步骤包括:
构建资源消耗预测线性方程,所述资源消耗预测方程包括用于表示服务访问次数和资源消耗之间的关联关系的关联参数;
对所述资源消耗预测线性方程进行矩阵转换,获取第一资源消耗预测矩阵方程,所述第一资源消耗预测矩阵方程为资源消耗预测线性方程的矩阵表示;
将所述服务访问次数序列和所述资源消耗序列代入所述第一资源消耗预测矩阵方程中,利用最小二乘法,确定所述关联参数的取值;
根据所述关联参数的取值,确定第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建。
在一些实施例中,对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型的步骤包括:
根据所述访问次数预测模型和所述资源消耗预测模型中的第二资源消耗预测方程,获取基于访问次数的容器资源预测模型;
所述容器资源预测模型的数学表达为:
Figure BDA0003308429970000171
其中,
Figure BDA0003308429970000172
为k1时刻的资源消耗的预测值,α和β为第二资源消耗预测方程中的关联参数,
Figure BDA0003308429970000173
为k1时刻的访问次数预测值,ε1(k1)为访问次数预测差值。
在一些实施例中,利用所述容器资源预测模型,进行容器资源预测与调整的步骤包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的资源平均消耗预测值和资源峰值消耗预测值,所述资源平均消耗为固定时间段内服务所消耗资源的平均值,所述资源峰值消耗为固定时间段内服务所消耗资源的最大值;
将所述资源平均消耗预测值作为资源需求量,并将所述资源峰值消耗预测值作为资源限制量;
根据所述资源需求量和所述资源限制量,对服务的容器资源进行调整。
在一些实施例中,利用所述容器资源预测模型,进行容器资源预测与调整的步骤还包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值;
根据所述CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值,获取CPU需求量、CPU限制量、内存需求量和内存限制量;
根据所述CPU需求量、CPU限制量、内存需求量和内存限制量,进行容器资源调整。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本实施例中的任一项方法。
本实施例还提供一种电子终端,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行本实施例中任一项方法。
本实施例中的计算机可读存储介质,本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本实施例提供的电子终端,包括处理器、存储器、收发器和通信接口,存储器和通信接口与处理器和收发器连接并完成相互间的通信,存储器用于存储计算机程序,通信接口用于进行通信,处理器和收发器用于运行计算机程序,使电子终端执行如上方法的各个步骤。
在本实施例中,存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (10)

1.一种容器资源调整方法,其特征在于,包括:
预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;
根据所述服务访问次数序列,建立访问次数预测模型;
根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;
根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;
利用所述容器资源预测模型,进行容器资源预测与调整。
2.根据权利要求1所述的容器资源调整方法,其特征在于,所述服务为微服务,根据所述服务访问次数序列,建立访问次数预测模型的步骤包括:
对所述服务访问次数序列进行一阶累加,获取第一一阶累加序列;
对所述第一一阶累加序列建立白化形式的微分方程;
根据所述服务访问次数序列和第一一阶累加序列,利用最小二乘法,获取所述微分方程中的可变常量;
根据所述可变常量和所述微分方程,获取第二一阶累加序列;
利用所述第二一阶累加序列,进行访问次数预测,获取访问次数预测序列;
根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型。
3.根据权利要求2所述的容器资源调整方法,其特征在于,根据所述服务访问次数序列和访问次数预测序列,建立访问次数预测模型的步骤包括:
获取所述访问次数预测序列和所述服务访问次数序列之间的差值,获取差值序列;
将所述差值序列用预设的差分自回归移动平均模型进行表示,获取自回归方程和移动平均方程;
根据所述自回归方程和移动平均方程,获取自回归移动平均模型;
对所述自回归移动平均模型中的差值序列进行差分处理,获取差分处理后的差值序列;
根据所述差分处理后的差值序列,获取差值预测序列;
根据所述访问次数预测序列和差值预测序列,完成所述访问次数预测模型的建立。
4.根据权利要求1所述的容器资源调整方法,其特征在于,根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型的步骤包括:
构建资源消耗预测线性方程,所述资源消耗预测方程包括用于表示服务访问次数和资源消耗之间的关联关系的关联参数;
对所述资源消耗预测线性方程进行矩阵转换,获取第一资源消耗预测矩阵方程,所述第一资源消耗预测矩阵方程为资源消耗预测线性方程的矩阵表示;
将所述服务访问次数序列和所述资源消耗序列代入所述第一资源消耗预测矩阵方程中,利用最小二乘法,确定所述关联参数的取值;
根据所述关联参数的取值,确定第二资源消耗预测矩阵方程,完成资源消耗预测模型的构建。
5.根据权利要求1所述的容器资源调整方法,其特征在于,对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型的步骤包括:
根据所述访问次数预测模型和所述资源消耗预测模型中的第二资源消耗预测方程,获取基于访问次数的容器资源预测模型;
所述容器资源预测模型的数学表达为:
Figure FDA0003308429960000021
其中,
Figure FDA0003308429960000022
为k1时刻的资源消耗的预测值,α和β为第二资源消耗预测方程中的关联参数,
Figure FDA0003308429960000023
为k1时刻的访问次数预测值,ε1(k1)为访问次数预测差值。
6.根据权利要求1所述的容器资源调整方法,其特征在于,利用所述容器资源预测模型,进行容器资源预测与调整的步骤包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的资源平均消耗预测值和资源峰值消耗预测值,所述资源平均消耗为固定时间段内服务所消耗资源的平均值,所述资源峰值消耗为固定时间段内服务所消耗资源的最大值;
将所述资源平均消耗预测值作为资源需求量,并将所述资源峰值消耗预测值作为资源限制量;
根据所述资源需求量和所述资源限制量,对服务的容器资源进行调整。
7.根据权利要求1所述的容器资源调整方法,其特征在于,利用所述容器资源预测模型,进行容器资源预测与调整的步骤还包括:
利用所述容器资源预测模型进行容器消耗资源预测,获取服务的CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值;
根据所述CPU资源平均消耗预测值、CPU资源峰值消耗预测值、内存资源平均消耗预测值和内存资源峰值消耗预测值,获取CPU需求量、CPU限制量、内存需求量和内存限制量;
根据所述CPU需求量、CPU限制量、内存需求量和内存限制量,进行容器资源调整。
8.一种容器资源调整系统,其特征在于,包括:
访问次数预测模型构建模块,用于预先设置采集周期,采集服务的前端容器的访问次数,获取服务访问次数序列;根据所述服务访问次数序列,建立访问次数预测模型;
资源消耗预测模型构建模块,用于根据所述采集周期,采集服务的容器的资源消耗量,获取资源消耗序列;根据所述服务访问次数序列和资源消耗序列,确定资源消耗预测模型;
容器资源预测模型获取模块,用于对所述访问次数预测模型和资源消耗预测模型进行拟合,获取容器资源预测模型;
资源调整模块,用于利用所述容器资源预测模型,进行容器资源预测与调整。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法。
10.一种电子终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行如权利要求1至7中任一项所述方法。
CN202111209791.5A 2021-10-18 2021-10-18 一种容器资源调整方法、系统、介质及电子终端 Pending CN113934542A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111209791.5A CN113934542A (zh) 2021-10-18 2021-10-18 一种容器资源调整方法、系统、介质及电子终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111209791.5A CN113934542A (zh) 2021-10-18 2021-10-18 一种容器资源调整方法、系统、介质及电子终端

Publications (1)

Publication Number Publication Date
CN113934542A true CN113934542A (zh) 2022-01-14

Family

ID=79280319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111209791.5A Pending CN113934542A (zh) 2021-10-18 2021-10-18 一种容器资源调整方法、系统、介质及电子终端

Country Status (1)

Country Link
CN (1) CN113934542A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114780170A (zh) * 2022-04-11 2022-07-22 远景智能国际私人投资有限公司 容器资源的配置方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114780170A (zh) * 2022-04-11 2022-07-22 远景智能国际私人投资有限公司 容器资源的配置方法、装置、设备及存储介质
CN114780170B (zh) * 2022-04-11 2023-07-21 远景智能国际私人投资有限公司 容器资源的配置方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN109951873B (zh) 一种物联网雾计算中信息不对称不确定下的任务卸载机制
US20160359725A1 (en) Method and System to Represent the Impact of Load Variation on Service Outage Over Multiple Links
CN110380881B (zh) 一种网络扩容预测方法及装置
CN113553165B (zh) 一种基于博弈论的移动边缘计算任务卸载和资源调度方法
CN113691596B (zh) 一种网关控制方法、装置、电子设备及存储介质
CN113934542A (zh) 一种容器资源调整方法、系统、介质及电子终端
CN114363962A (zh) 一种协作式边缘服务器部署和资源调度方法、存储介质及系统
CN111654561B (zh) 一种ip地址数量确定方法、装置、电子设备及存储介质
CN111126594A (zh) 基于边缘计算的神经网络模型动态切分方法及装置
CN111935825B (zh) 移动边缘计算系统中基于深度值网络的协作资源分配方法
CN113766037A (zh) 面向大规模边缘计算系统的任务卸载控制方法及系统
CN112312299A (zh) 服务卸载方法、装置及系统
CN111278039B (zh) 用户感知压抑识别方法、装置、设备及介质
CN110856183A (zh) 基于异构负载互补的边缘服务器部署方法及应用
CN115086940B (zh) 基于5G的QoS调整方法、系统、装置及存储介质
CN111124439A (zh) 一种云边协同的智能动态卸载算法
CN113271221B (zh) 网络能力开放方法、系统及电子设备
CN110557339A (zh) 一种流量规划方法、装置、计算机设备、存储介质
Bensalem et al. Scaling Serverless Functions in Edge Networks: A Reinforcement Learning Approach
CN109739513B (zh) 一种多边缘云下服务请求动态调度方法及装置
CN113163408A (zh) 一种无线资源分配方法及装置
KR102056894B1 (ko) 포그 산업용 사물인터넷 네트워크의 동적 리소스 재분배 방법
CN115237610B (zh) 一种基于Kubernetes容器云平台的弹性伸缩方法、装置及应用
CN117896577A (zh) 数据处理方法、装置、电子设备及计算机存储介质
CN114003378B (zh) 容器集群负载均衡方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination