CN114629858A - Kubernetes中基于自适应处理率的网状微服务资源控制方法 - Google Patents
Kubernetes中基于自适应处理率的网状微服务资源控制方法 Download PDFInfo
- Publication number
- CN114629858A CN114629858A CN202210114513.XA CN202210114513A CN114629858A CN 114629858 A CN114629858 A CN 114629858A CN 202210114513 A CN202210114513 A CN 202210114513A CN 114629858 A CN114629858 A CN 114629858A
- Authority
- CN
- China
- Prior art keywords
- service
- processing rate
- rate
- control method
- adaptive processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003044 adaptive effect Effects 0.000 title claims description 16
- 230000001360 synchronised effect Effects 0.000 claims abstract description 16
- 230000004044 response Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/83—Admission control; Resource allocation based on usage prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/80—Actions related to the user profile or the type of traffic
- H04L47/805—QOS or priority aware
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种Kubernetes中基于自适应处理率的网状微服务资源控制方法,面向基于Kubernetes的云中网状微服务系统,考虑同步调用对容器性能的负面影响。本发明主要工作有:A)提出一种自适应处理率的排队模型来应对不同业务类型请求的比例变化对容器处理率的影响;B)提出基于预测的前馈控制方法;C)提出排队长度感知基于排队长度感知的反馈控制方法;考虑每个微服务的排队长度,构建Jackson排队网络准确计算瓶颈服务对其他服务的影响;D)基于线性规划的虚拟机供应策略,最大化资源利用率。本发明应用在基于Kubernetes部署的网状微服务系统,通过上述方法,能够大幅度提高系统服务质量。
Description
技术领域
本发明属于云计算资源供应领域,具体涉及一种Kubernetes中基于自适应处理率的网状微服务资源控制方法。
背景技术
基于微服务的体系结构有利于构建灵活的软件系统。由于容器比虚拟机(VM)更轻量和便捷,在从公共云供应商租用的容器中部署微服务能够提供弹性处理能力。Kubernetes(简称K8s)是一种流行的容器应用编排和管理系统。许多公有云厂商提供基于K8s的容器应用运行平台,如Amazon Elastic Kubernetes Service(Amazon EKS)和阿里云Kubernetes(ACK)。
应用解耦为多个微服务,并部署在K8s集群中时,如何为每一个微服务供给合适的资源是一个关键问题。大部分基于K8s平台的容器调度算法研究针对单独批处理任务或批处理任务与Web系统混合负载的资源调度方法,动态申请与释放Pods,以降低资源成本。在这些工作中,它们假定批处理作业和Web系统消耗固定数量的资源。但是对于Web系统来说,系统消耗的资源是随着负载的改变而改变的。有许多研究针对单一微服务,提出了一些资源缩放策略。K8s内置的HPA(Horizontal Pod Autoscaler,水平Pod自动缩放器)是基于阈值的资源伸缩策略。HPA根据CPU或内存利用率调整pod的数量。它对性能变化的反应很慢。Toka等人提出了HPA+(Toka L,Dobreff G,Fodor B,et al.Adaptive AI-based auto-scaling for Kubernetes[C]//2020 20th IEEE/ACM International Symposium onCluster,Cloud and Internet Computing(CCGRID).IEEE,2020:599-608.),将CPU消耗与用户的请求数目联系起来。它使用LSTM(Long Short-Term Memory)来预测请求的数量,以提高系统对变化的负载的处理能力,。然而,纯基于阈值的方法总是会导致控制延迟。通过动态地调整分配的容器数量,排队论和控制理论的混合方法(Cai Z,Buyya R.InverseQueuing Model based Feedback Control for Elastic Container Provisioning ofWeb Systems in Kubernetes[J].IEEE Transactions on Computers,2021:1.DOI:10.1109/TC.2021.3049598.)几乎能够使平均响应时间遵循给定的参考时间。但这些方法都是针对单层系统设计的,没有考虑网状微服务之间的影响。
现有的只有少数工作考虑网状服务系统,而且大多数工作都是考虑资源的分配或者迁移并没有考虑服务之间的调用关系。DAI等人(DAI Zhiming,ZHOU Mingtuo,YANGYang,LI Jian,LIU Jun.Fog computing resource scheduling in intelligentfactories[J].Journal of University of Chinese Academy of Sciences,2021,38(5):702-711.)利用Socks Shop这个网状微服务容器系统开展仿真实验,基于遗传算法IDGSA指导为处理任务的容器分配资源,同时调度容器的位置。Xu等人(Xu M,BuyyaR.BrownoutCon:A software system based on brownout and containers for energy-efficient cloud computing[J].Journal of Systems and Software,2019,155:91-103.)结合滑动窗口策略,对Socks Shop的每个微服务的容器资源进行伸缩,但主要考虑的是在负载增加的情况下利用断开策略,保证系统性能,并且节约了能耗。Jackson排队网络(Jackson queuing network,JQN)被广泛应用于建模网状多服务队列之间的影响。例如Lei等(Lei Y,Cai Z,Wu H,et al.Cloud Resource Provisioning and BottleneckEliminating for Meshed Web Systems[C]//2020 IEEE 13th InternationalConference on Cloud Computing(CLOUD).IEEE,2020:512-516.)提出的JPRM,利用Holt-Winter预测模型加上JQN来预测各层的到达率以及瓶颈层对其他层的影响,同时利用M/M/N排队模型估计租赁的虚拟机数目。但是JPRM没有考虑各层的排队长度在计算瓶颈层对其他层的影响时。同时在真实生产环境下,同步调用其他服务会占用一些服务器线程和连接数。同步调用使容器处理能力的估计和系统瓶颈的识别变得复杂。
发明内容
本发明的目的在于提供一种Kubernetes中基于自适应处理率的网状微服务资源控制方法,面向基于Kubernetes的云中网状微服务系统,考虑同步调用对容器性能的负面影响;采用排队长度感知的Jackson排队网络,量化瓶颈层对其他微服务的影响。
实现本发明目的的技术解决方案为:一种Kubernetes中基于自适应处理率的网状微服务资源控制方法,包括以下步骤:
A)基于服务产生同步调用的比例,为微服务集群建立自适应处理率的排队模型;
B)按照虚拟机的定价间隔执行基于预测的前馈控制,生成微服务之间的调用概率矩阵;
C)按照控制间隔执行基于排队长度感知的反馈控制;
D)基于线性规划的虚拟机供应策略:采用线性规划计算能够刚好满足容器需求的虚拟机数目;策略要求立即租赁需要的虚拟机,释放虚拟机需要等到下一次定价间隔。
进一步的,步骤A)具体如下:
给定一个系统:S={Si|i∈{1,2,3...,n}},其中S是系统中服务的集合;B={bl|l∈{1,2,3...,L}},其中B是系统中业务的集合;bl=(Sl,1,...,Sl,k,...),Sl,k∈S是bl中第k个被访问的服务;服务同步调用其他服务会降低自身的请求处理率;根据用户访问系统业务不同,建立自适应处理率的排队模型。
进一步的,步骤B)按照虚拟机的定价间隔执行基于预测的前馈控制方法,过程如下:
统计用户历史访问数据,利用负载预测方法预测下一区间的用户请求到率;根据预测的请求到达率以及步骤A中的排队模型租赁供应合适的容器数目。
进一步的,步骤C)中,反馈控制方法在前馈控制方法之间执行,检测系统瓶颈服务;并且根据用户访问业务比例生成服务之间的调用概率矩阵Ψ,利用排队长度感知的JQN量化服务之间的影响,计算最终的请求到达率;并根据步骤A中的排队模型供应合适的容器数目,保证系统的稳定。
进一步的,步骤D)中,根据步骤B)、C)中的容器数目,为系统中所有服务所需的Pod的总和,Ni为服务Si的Pod数目;采用线性规划计算能够刚好满足容器需求的虚拟机数目;策略要求立即租赁需要的虚拟机,释放虚拟机需要等到下一次定价间隔。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的Kubernetes中基于自适应处理率的网状微服务资源控制方法。
本发明与现有的技术相比,其优点在于:(1)考虑业务类型比例变化的自适应处理速率计算方法有助于提高排队模型的精度;(2)基于预测的前馈控制方法可以预防负载变化带来的负面影响;(3)排队长度感知的JQN反馈控制方法通过同时考虑新到达请求和累积请求的影响,能够提高系统稳定性;(4)容器与虚拟机结合的资源供应策略能够在保证服务质量的同时,控制租赁成本。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是基于Kubernetes的资源管理架构示意图。
图2是用户访问不同业务的例子示意图。
图3是基于预测方法的前馈控制方法活动图。
图4是基于排队长感知的反馈控制方法活动图。
具体实施方式
本发明改进了JPRM的前馈控制和反馈控制的混合资源配置体系结构。在基于实际生产平台的测试中,容器对于不同业务类型下的请求的处理能力是变化的。为此,本发明提出了一种基于自适应处理速率的排队模型,该模型根据同步调用的比例动态调整容器的处理速率。在前馈控制算法部分,利用时间序列分析方法对每个服务的请求到达速率进行了预测。然后通过自适应排队模型得到每一个服务所需要的容器的最小数量。当某些服务的资源由于供应不足或者其他原因成为瓶颈时,通过该服务去调用其他服务的请求会受到该服务总处理率(小于到达速率)的限制。许多请求会阻塞在服务请求队列中。JPRM假设增加的调用其他服务的速率等于到达率减去原始的处理率,这就忽略了瓶颈层队列中有许多任务,这些任务也会生成对其他层的调用。因此,本发明将考虑排队任务的影响。在反馈控制算法部分,利用JQN考虑瓶颈层(服务)对其他层的影响,快速消除瓶颈。对比其他方法能够提高服务质量。
下面结合具体实施例和说明书附图对本发明作进一步说明。
图1描述了本发明中的Kubernetes资源管理架构。Master节点负责管理K8s集群。每个容器通常嵌入在一个Pod中,Pod是K8s中的最小调度单元。Pod需要部署在节点中,每个节点是从云服务供应商租赁的虚拟机。每个服务的容器可能来自不同Worker节点。Traefik是一个前端负载均衡器,负责将访问系统中服务的请求分发到后端容器。本发明搭建了Kubernetes Controller资源控制器,其中Resource Auto-scaler(资源自动缩放器)组件通过API连接K8s集群根据算法动态调整节点或者Pod数量;Log Manager(日志管理器)收集和分析前端负载均衡器的日志,获得每个服务的平均响应时间、排队长度等信息。
本发明提出一种Kubernetes中基于自适应处理率的网状微服务资源控制方法,面向云中的网状微服务系统,考虑同步调用对容器性能的负面影响;采用排队长度感知的Jackson排队网络(Jackson Queuing Network,JQN),量化瓶颈层对其他微服务的影响。
面向网状微服务系统的资源控制器Kubernetes Controller根据用户负载动态调整资源,包括以下步骤:
步骤1,如图2展示了用户访问系统中业务的例子。不同用户调用系统业务有不同的服务访问路径。基于服务产生同步调用的比例,为微服务集群建立自适应处理率的排队模型,过程如下:
步骤1.1,假定μi是没有同步调用时候的原始处理率,ρi是服务产生同步调用时的处理率降低率。因此在业务类型bl下Si的处理率被计算为μi,l=μi×αl,bl∈Bi,Bi是包含Si的业务的集合,αl为系数;当业务bl中的Si会产生同步调用时,αl=ρi,否则αl=1;因此业务bl中Si的平均处理时间为同时服务Si中处于bl业务中的请求到达率是λi,l,Si的总请求到达率是λi。因此Si所有请求的响应时间期望是:
Si的容器处理率更新为:
步骤1.2,基于M/M/N排队模型,服务Si里没有请求的概率为
期望响应时间为
其中Z+是正整数集。
步骤2,如图3展示了基于预测的前馈控制方法活动图。按照定价间隔执行基于预测的前馈控制方法包括以下步骤:
步骤2.1,收集每种服务的总到达率λi和业务到达率λi,l;
步骤2.5,如果预测得到的处理率低于当前的处理率,那就使用当前的到达率来计算需要的容器数量。
步骤2.6,根据得到的容器数量Ni来决定是新增还是释放容器。
步骤3,如图4展示了基于排队长感知的反馈控制方法活动图。按照控制间隔排队长感知的反馈控制方法的具体步骤包括:
步骤3.1,收集每种服务的总到达率λi和业务到达率λi,l,服务的排队长qi;
步骤3.3,由下式计算瓶颈层产生的多余的向其他层的调用(增加的请求率);
步骤3.4,根据用户调用不同业务的负载模式构建矩阵Ψ,即
其中ψij(i,j≠0)是Si调用Sj的比率;Ψ随着系统中各种业务的比例的改变而改变;因此在每一个前馈控制周期,根据当前的业务模式可以更新矩阵Ψ;
步骤3.5,基于Ψ和Δλ,最终的到达率λ′i为:
步骤3.6,每一个服务Si所需的容器数目Ni可以通过排队模型计算得到;
步骤4,基于线性规划的虚拟机供应策略的具体步骤为:
步骤4.1,Hm,m∈{1,2,...,M}为第m种虚拟机所能容纳的Pod(容器)数量;为当前所有服务的已经分配的Pod数目之和;当 个Pod应该被增加;建立如下所示的整数线性规划(ILP)模型,求解得到最优的虚拟机数量;
minΔCpod
s.t.ΔCpod>gap
minΔCpod
s.t.ΔCpod<gap
利用本发明与K8s内置的两种HPA作比较,分别是HPA-CPU(以CPU利用率阈值作为伸缩依据)与HPA-Request(以请求到达率阈值作为伸缩依据)。Kubernetes系统包含如图2所示的网状微服务以及业务系统。采用JMeter作为负载发生器,利用基于维基百科的用户访问数据发送请求。实验持续时间1200min,前馈控制方法调度间隔720s,反馈控制方法调度间隔为180s。对比不同控制器的SLA(服务等级协议)违反区间所占百分比,本发明取得了最好的性能表现,保证了系统的服务质量。
Claims (10)
1.一种Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,包括以下步骤:
A)基于服务产生同步调用的比例,为微服务集群建立自适应处理率的排队模型;
B)按照虚拟机的定价间隔执行基于预测的前馈控制,生成微服务之间的调用概率矩阵;
C)按照控制间隔执行基于排队长度感知的反馈控制;
D)基于线性规划的虚拟机供应策略:采用线性规划计算能够刚好满足容器需求的虚拟机数目;策略要求立即租赁需要的虚拟机,释放虚拟机需要等到下一次定价间隔。
2.根据权利要求1所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,步骤A)具体如下:
给定一个系统:S={Si|i∈{1,2,3...,n}},其中S是系统中服务的集合;B={bl|l∈{1,2,3...,L}},其中B是系统中业务的集合;bl=(Sl,1,...,Sl,k,...),Sl,k∈S是bl中第k个被访问的服务;服务同步调用其他服务会降低自身的请求处理率;根据用户访问系统业务不同,建立自适应处理率的排队模型。
3.根据权利要求2所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,建立自适应处理率的排队模型,具体步骤包括:
A1.排队模型常常被用于建模处理率μ,服务器数目N,请求到达率λ和期望响应时间之间的关系;假定μi是没有同步调用时候的原始处理率,ρi是服务产生同步调用时的处理率降低率;因此在业务类型bl下Si的处理率被计算为μi,l=μi×αl,bl∈Bi,Bi是包含Si的业务的集合,αl为系数;当业务bl中的Si会产生同步调用时,αl=ρi,否则αl=1;因此业务bl中Si的平均处理时间为同时服务Si中处于bl业务中的请求到达率是λi,l,Si的总请求到达率是λi;因此Si所有请求的响应时间期望是:
Si的容器处理率更新为:
A2.基于M/M/N排队模型,服务Si里没有请求的概率为:
期望响应时间为:
其中Z+是正整数集。
4.根据权利要求1所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,步骤B)按照虚拟机的定价间隔执行基于预测的前馈控制方法,过程如下:
统计用户历史访问数据,利用负载预测方法预测下一区间的用户请求到率;根据预测的请求到达率以及步骤A中的排队模型租赁供应合适的容器数目。
5.根据权利要求4所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,按照定价间隔执行基于预测的前馈控制方法包括以下步骤:
B1.收集每种服务的总到达率λi和业务到达率λi,l;
B5.如果预测得到的处理率低于当前的处理率,则使用当前的到达率来计算需要的容器数量;
B6.根据得到的容器数量Ni来决定是新增还是释放容器。
6.根据权利要求1所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,步骤C)中,反馈控制方法在前馈控制方法之间执行,检测系统瓶颈服务;并且根据用户访问业务比例生成服务之间的调用概率矩阵Ψ,利用排队长度感知的JQN量化服务之间的影响,计算最终的请求到达率;并根据步骤A中的排队模型供应合适的容器数目,保证系统的稳定。
7.根据权利要求6所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,按照控制间隔排队长感知的反馈控制,具体步骤包括:
C1.收集每种服务的总到达率λi、业务到达率λi,l和排队请求长qi;
C2.当服务Si的平均响应时间大于响应时间限制,Si被判定为瓶颈层;
C3.由下式计算瓶颈层产生的多余的向其他层的调用;
C4.根据用户调用不同业务的负载模式构建矩阵Ψ,即
其中ψij是Si调用Sj的比率,i,j≠0;Ψ随着系统中各种业务的比例的改变而改变;因此在每一个前馈控制周期,根据当前的业务模式可更新矩阵Ψ;
C5.基于Ψ和Δλ,最终的到达率λi′可由下式得到;
C6.每一个服务Si所需的容器数目Ni通过自适应处理率的排队模型计算得到;
9.根据权利要求8所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法,其特征在于,基于线性规划的虚拟机供应策略,具体步骤为:
minΔCpod
s.t.ΔCpod>gap
minΔCpod
s.t.ΔCpod<gap
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-9中任一所述的Kubernetes中基于自适应处理率的网状微服务资源控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210114513.XA CN114629858A (zh) | 2022-01-30 | 2022-01-30 | Kubernetes中基于自适应处理率的网状微服务资源控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210114513.XA CN114629858A (zh) | 2022-01-30 | 2022-01-30 | Kubernetes中基于自适应处理率的网状微服务资源控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114629858A true CN114629858A (zh) | 2022-06-14 |
Family
ID=81899037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210114513.XA Pending CN114629858A (zh) | 2022-01-30 | 2022-01-30 | Kubernetes中基于自适应处理率的网状微服务资源控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114629858A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698865A (zh) * | 2021-01-06 | 2021-04-23 | 浪潮云信息技术股份公司 | Java动态配置方法、装置及计算机可读介质 |
CN112955869A (zh) * | 2018-11-08 | 2021-06-11 | 英特尔公司 | 功能即服务(faas)系统增强 |
US20210349749A1 (en) * | 2012-02-14 | 2021-11-11 | Aloke Guha | Systems and methods for dynamic provisioning of resources for virtualized |
-
2022
- 2022-01-30 CN CN202210114513.XA patent/CN114629858A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210349749A1 (en) * | 2012-02-14 | 2021-11-11 | Aloke Guha | Systems and methods for dynamic provisioning of resources for virtualized |
CN112955869A (zh) * | 2018-11-08 | 2021-06-11 | 英特尔公司 | 功能即服务(faas)系统增强 |
CN112698865A (zh) * | 2021-01-06 | 2021-04-23 | 浪潮云信息技术股份公司 | Java动态配置方法、装置及计算机可读介质 |
Non-Patent Citations (3)
Title |
---|
YAMIN LEI等: "Cloud Resource Provisioning and Bottleneck Eliminating for Meshed Web Systems", IEEE, 18 December 2020 (2020-12-18) * |
ZHICHENG CAI等: "Inverse Queuing Model-Based Feedback Control for Elastic Container Provisioning of Web Systems in Kubernetes", IEEE, 6 January 2021 (2021-01-06) * |
吴梦玲: "基于GPU的Spark计算框架性能模型研究", 中国优秀硕士论文全文数据库, 30 January 2020 (2020-01-30) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Moschakis et al. | Evaluation of gang scheduling performance and cost in a cloud computing system | |
TWI382318B (zh) | 協調的服務效能以及應用程式置放管理 | |
Sharma et al. | Performance analysis of load balancing algorithms | |
LaCurts et al. | Cicada: Introducing predictive guarantees for cloud networks | |
Spinner et al. | Runtime vertical scaling of virtualized applications via online model estimation | |
Sarker et al. | Performance-driven live migration of multiple virtual machines in datacenters | |
Zhu et al. | SLA based dynamic virtualized resources provisioning for shared cloud data centers | |
Shojafar et al. | Minimizing computing-plus-communication energy consumptions in virtualized networked data centers | |
Lu et al. | On the performance-driven load distribution for heterogeneous computational grids | |
Björkqvist et al. | Dynamic replication in service-oriented systems | |
Zheng et al. | Dynamic load balancing and pricing in grid computing with communication delay | |
Chatterjee et al. | A new clustered load balancing approach for distributed systems | |
Sah et al. | Scalability of efficient and dynamic workload distribution in autonomic cloud computing | |
CN114629858A (zh) | Kubernetes中基于自适应处理率的网状微服务资源控制方法 | |
Nandagopal et al. | Hierarchical status information exchange scheduling and load balancing for computational grid environments | |
Kaur et al. | Challenges to task and workflow scheduling in cloud environment | |
Casanova | On the harmfulness of redundant batch requests | |
Bader et al. | Invasive computing on high performance shared memory systems | |
Sofia et al. | Energy efficient task scheduling to implement green cloud | |
Badgujar et al. | Cloud resource allocation as preemptive scheduling approach | |
KR20190061241A (ko) | 리소스 통합관리를 위한 메소스 처리 장치 및 방법 | |
Mohan et al. | Application level resource scheduling with optimal schedule interval filling (RS-OSIF) for distributed cloud computing environments | |
Thiruvenkadam et al. | Resource Request Handling Mechanisms for Effective VM Placements in Cloud Environment | |
Xie et al. | Stochastic scheduling with availability constraints in heterogeneous clusters | |
Kloh et al. | Static job scheduling for environments with vertical elasticity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |