CN111344688A - 云计算中资源提供的方法及系统 - Google Patents

云计算中资源提供的方法及系统 Download PDF

Info

Publication number
CN111344688A
CN111344688A CN201880072807.2A CN201880072807A CN111344688A CN 111344688 A CN111344688 A CN 111344688A CN 201880072807 A CN201880072807 A CN 201880072807A CN 111344688 A CN111344688 A CN 111344688A
Authority
CN
China
Prior art keywords
resources
sla
application
additional physical
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880072807.2A
Other languages
English (en)
Other versions
CN111344688B (zh
Inventor
许伟
孙岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN111344688A publication Critical patent/CN111344688A/zh
Application granted granted Critical
Publication of CN111344688B publication Critical patent/CN111344688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/20Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Mathematical Physics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明提供了一种将计算服务节点网络中的资源分配给应用程序的方法和装置。根据第一应用程序的第一服务等级协议(service level agreement,SLA),确定满足所述第一SLA所需的多个物理中央处理器(central processing unit,CPU)内核以及相应数量的附加物理资源(510);选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存(last level cache,LLC)(520);将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序(530);以及将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用。

Description

云计算中资源提供的方法及系统
本申请要求于2017年11月9日提交的标题为“云计算中资源提供的方法和系统”的第15/807,912号美国非临时专利申请的优先权,其全部内容通过引用的方式并入本文中。
技术领域
本公开大体上涉及云计算,更具体地,涉及一种用于发放云计算资源的方法和系统。
背景技术
云计算已经成为一种非常流行的技术,在企业和市场中有着巨大的潜力。云计算使得从任何地方访问应用程序和相关数据成为可能。公司可以从云计算系统租用资源用于存储和其它计算目的,从而可以显著降低其基础设施成本。然而,云计算的一个主要困难在于如何优化分配给应用程序的资源。资源分配的挑战之一在于为用户提供可靠的定制化和有服务质量(Quality of Service,QoS)保证的动态计算环境。
发明内容
一个示例性实施例包括一种由控制器实施的将计算服务节点网络中的资源分配给应用程序的方法,所述方法包括:根据第一应用程序的第一服务等级协议(servicelevel agreement,SLA)确定满足所述第一SLA所需的多个物理中央处理器(centralprocessing unit,CPU)内核以及相应数量的一个或多个附加物理资源;选择一个或多个所述服务节点,所述服务节点都能够使用所述可用多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存(lastlevel cache,LLC);将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;以及将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
可选地,在任一前述实施例中,所述附加物理资源还包括动态随机存取存储器(dynamic random access memory,DRAM)带宽、L1缓存、L2缓存、L3缓存、最后一级缓存(last level cache,LLC)或磁盘带宽。
可选地,在任一前述实施例中,所述SLA指定每秒请求数量、网络延迟、DRAM带宽、磁盘带宽或网络带宽中的一项或多项。
可选地,在任一前述实施例中,在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
可选地,在任一前述实施例中,所述第一虚拟机和所述第二虚拟机分配在同一个服务节点上。
可选地,在任一前述实施例中,所述确定还包括:收集执行所述第一应用程序时资源使用情况的参数,并将所述收集到的参数与所述第一SLA进行比较,以及计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的所述多个物理中央处理器(central processing unit,CPU)内核以及所述相应数量的一个或多个附加物理资源。
可选地,在任一前述实施例中,所述确定还包括:重新计算所述第一应用程序所需的所述预测资源;释放先前的资源分配以供所述第二应用程序使用;以及除了根据所述第一SLA,还根据重新计算的结果重新分配资源。
可选地,在任一前述实施例中,所述方法还包括:专门为所述第一应用程序预留所有必要的物理资源和虚拟资源。
一个示例性实施例包括一种分配给应用程序的计算服务节点的网络中的控制器装置。所述装置包括:存储指令的存储器;以及耦合到所述存储器的一个或多个处理器,其中,所述一个或多个处理器执行所述指令以:根据第一应用程序的第一服务等级协议(service level agreement,SLA)确定满足所述第一SLA所需的多个物理中央处理器(central processing unit,CPU)内核以及相应数量的一个或多个附加物理资源;选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存(last level cache,LLC);将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;以及将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
可选地,在任一前述实施例中,所述附加物理资源还包括动态随机存取存储器(dynamic random access memory,DRAM)带宽、L1缓存、L2缓存、L3缓存、最后一级缓存(last level cache,LLC)或磁盘带宽。
可选地,在任一前述实施例中,在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
可选地,在任一前述实施例中,所述第一虚拟机和所述第二虚拟机分配在同一个服务节点上。
可选地,在任一前述实施例中,所述确定还可以包括:收集执行所述第一应用程序时资源使用情况的参数,并将所述收集到的参数与所述第一SLA进行比较;以及计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的所述多个物理中央处理器(central processing unit,CPU)内核以及所述相应数量的一个或多个附加物理资源。
可选地,在任一前述实施例中,专门为所述第一应用程序预留所有必要的物理资源和虚拟资源。
一个示例性实施例包括一种将计算服务节点网络中的资源分配给应用程序的系统。所述系统包括:服务节点中的控制器,用于:根据第一应用程序的第一服务等级协议(service level agreement,SLA)确定满足所述第一SLA所需的多个物理中央处理器(central processing unit,CPU)内核以及相应数量的一个或多个附加物理资源;选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存(last level cache,LLC);将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;所述一个或多个所述服务节点中的存储指令的存储器;以及所述一个或多个服务节点中的耦合到所述存储器的一个或多个处理器,,所述一个或多个处理器执行所述指令以:将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
可选地,在任一前述实施例中,所述附加物理资源还包括动态随机存取存储器(dynamic random access memory,DRAM)带宽、L1缓存、L2缓存、L3缓存、最后一级缓存(last level cache,LLC)或磁盘带宽。
可选地,在任一前述实施例中,在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
可选地,在任一前述实施例中,所述第一虚拟机和所述第二虚拟机分配在同一个服务节点上。
可选地,在任一前述实施例中,所述控制器还用于专门为所述第一应用程序预留所有必要的物理资源和虚拟资源。
附图说明
图1为现有技术中包括多个计算节点的云基础设施的框图。
图2示出了根据本公开实施例的云服务结构的抽象模型层。
图3为关于云资源分配的全栈隔离方案的资源分配过程的流程图。
图4示出了根据本公开实施例的资源拓扑示例。
图5示出了将计算服务节点网络中资源分配给应用程序的流程图示例。
图6为处理系统的框图,所述处理系统可以用来实现本文公开的设备和方法。
图7A和图7B分别示出了在执行资源隔离和没有执行资源隔离情况下的测试情形1和测试情形2的模拟比较结果。
具体实施方式
现在将详细地参考本公开的实施例,其示例在附图中示出。在下文详细描述中,阐述了许多具体的细节,以便提供对本公开的通彻理解。然而,对于本领域的普通技术人员将显而易见的是,可以在没有这些具体细节的情况下实践所述实施例,或者在不脱离本公开的精神和范围的情况下可以对其进行各种改变和替换。在其它实例中没有详细描述众所周知的方法、流程、组件和电路,以免对所述实施例的各方面造成不必要地模糊。
计算服务网络中的资源可以包括物理资源和逻辑资源。云基础设施的资源可以包括物理服务器、虚拟机(virtual machines,VM)、物理中央处理器(central processingunits,CPU)、虚拟CPU、存储器、存储数据库、磁盘甚至缓存等。附加资源可以包括动态随机存取存储器(dynamic random access memory,DRAM)带宽、L1缓存(L1)、L2缓存(L2)、L3缓存(L3)、最后一级缓存(last level cache,LLC)、磁盘带宽或网络带宽。
虚拟机(Virtual Machine,VM)是指基于模拟专用硬件的软件安装的操作系统或应用程序环境。VM能够通过专用软件使用CPU、存储器、磁盘等资源。所述专用软件可以称为代理。
云计算的目标是提供分布式处理、并行处理和网格计算。用户数据可能不会存储在本地,而是存储在计算服务网络中的网络数据中心。用户可以通过连接到因特网的任何终端设备,使用云提供商提供的应用程序编程接口(Application ProgrammingInterface,API)来随时访问所述存储的数据。所述云提供商可以管理和维护这些数据中心的运营。随着多租户云服务的出现,云管理系统(cloud management system,CMS)负责云基础设施的资源管理和租户或用户的计算实例发放。从云资源的角度进行深入分析,可以根据服务等级协议(service levelagreements,SLA)进行云资源分配,要求预留一定数量和质量的资源。
服务等级协议(service level agreements,SLA)可以是双方或多方之间的协议或合同。所述SLA的一方可以是客户端,另一方可以是服务提供商。SLA可以包括服务要求的各个方面,例如服务质量、每秒接受的请求、网络延迟、完成某个任务所需的时间、服务中断后恢复所需的时间、网络带宽等。
通常,SLA跨越云计算,实现共享资源,并且由服务提供商提供,作为基于服务的协议而不是基于客户的协议。根据终端用户或其消耗资源的能力来衡量、监控和报告云性能。
图1为现有技术中包括多个计算节点的云基础设施的框图。云基础设施100包括经由数据中心因特网101对应的网络交换机110、120互连的多个服务节点130、140、150、160。交换机110、120可在选择的服务节点上部署用于特定应用程序的资源。服务节点130、140、150、160是将提供计算服务的网络中的多个资源聚集在一起的实体。计算服务网络可以包括多个服务节点。不同的服务节点可以配置有不同的资源能力。例如,服务节点130可以包括微处理器131、缓存132、存储器133、数据库134以及虚拟资源,例如一个或多个虚拟机(virtual machines,VM)135和一个或多个容器136等。控制器137可以配置在提供计算服务的网络中的一个或多个服务节点上。控制器137可以向在多个服务节点中的至少一个服务节点上运行的不同应用程序分配资源1371。
图2示出了根据本公开实施例的云服务结构的抽象模型层。所示为云计算环境200提供的一组功能抽象层。应当理解的是,所示出的组件、层和功能仅是说明性的,本发明实施例不限于此。如图所示,提供了以下层和相应的功能。
特定的应用程序201、202将作为服务请求由云系统进行处理。
管理层210可以包括SLA管理组件211和服务监控组件212。管理层210可以提供本文描述的功能。资源供应实现计算资源和其它资源的动态采购,这些其它资源用于在所述云计算环境中执行任务。SLA管理组件211提供云计算资源分配要求,例如,每秒请求数量、网络延迟、DRAM带宽、磁盘带宽或网络带宽。SLA管理组件211还可以提供根据SLA预计未来要求的云计算资源。SLA管理组件211可以提供检查是否满足所需服务等级的依据。当资源在云计算环境中使用时,服务监控组件212可以跟踪资源使用情况和资源消耗情况。
虚拟化层230可以包括多个虚拟机(virtual machine,VM)231(VM 0、VM 1、VM 2、VM 3)、调度器232、负载均衡器233、多个容器234、虚拟服务器235(图中未示出)、虚拟存储器236(图中未示出)、控制器237(图中未示出)等。控制器237可以配置在集中服务节点上,所述集中服务节点与多个其它服务节点通信,以在所述多个其它服务节点和所述集中服务节点上进行资源分配。控制器237可以配置在交换机上,这样配置的作用与配置在所述集中式服务节点上的作用类似。所述交换机可以是如图1所示的交换机110、120。交换机110、120或控制器237或调度器232可以为选择的服务节点上的特定应用程序分配资源。控制器237可以指示调度器232执行所述分配。调度器232可以配置在服务节点或其它计算设备上。
物理资源层250可以集中驻留在云服务结构的网络中的一个或多个服务节点上。物理资源层250可以包括多个物理中央处理器(central processing unit,CPU)内核251(内核0、内核1、内核2、内核3、内核4)、多个缓存252、动态随机存取存储器(dynamic randomaccess memory,DRAM)253、网络带宽254以及其它资源255。多个缓存252可以是,例如一级(L1)缓存、二级(L2)缓存、三级(L3)缓存和最后一级缓存(last level cache,LLC)。其它资源255可以是,例如DRAM带宽、磁盘带宽等。
所述云系统结构的各个层可以通过客户端、第三方通知服务、监控系统等与仪表盘等多个功能模块203进行通信。
面向用户的服务,例如社交媒体、搜索引擎、软件即服务、在线地图、网络邮件、机器翻译、在线购物和广告,通常跨数千台服务器进行扩展,并跨这些服务器访问存储在存储器中的分布式状态。虽然由于用户访问的昼夜模式和不可预测峰值,这类服务的负载变化很大,但是这种面向用户的服务还是属于延迟关键型(latency-critical,LC)的服务。为了保证资源使用,目前为服务应用程序预留了更多的资源,以避免最坏的情况发生,但是虚拟环境下的网络性能不稳定,实际上还是浪费了资源。在生产服务中,很少会将这些资源重复利用到其它任务中,因为竞争共享资源可能会导致延迟峰值,这违反了延迟敏感任务的服务级目标。由此造成的资源利用不足影响到大型数据中心的可负担性和能源效率。
根据图2提供了本公开的一个实施例,针对的是关于云资源分配的全栈隔离方案。通过采用所述方案,可以提高资源利用率,因为与现有技术相比,所述方案需要为第一应用程序预留的资源少得多。所述全栈隔离方案是指隔离调度可以在所有资源层中执行。例如,云服务的资源可以包括CPU内核、缓存、存储器、存储带宽、DRAM带宽、磁盘带宽的物理资源和/或虚拟机、虚拟CPU内核、调度器等的虚拟资源。网络带宽可以定义为物理资源或虚拟资源。换句话说,全栈隔离解决方案是指,将执行所述第一应用程序所需的包括物理资源和/或虚拟资源在内的整个云资源层进行专门配置,以满足相同的SLA。除所述第一应用程序外,在专为所述第一应用程序配置的所述资源上不调度其它应用程序,直到被隔离的资源被释放。
例如,根据特定应用程序201、202,SLA中有如下要求:
·SLA规格:
·“每秒请求数量”:500,
·“延迟”:99.9%,小于130ms
根据所述SLA规格,计算实现这些要求可能需要多少资源。例如,这些所需资源可以是:
·应用程序1:
·内核:2
·LLC:三路缓存
·DRAM带宽;
·磁盘带宽;
·网络带宽等。
这类资源要求被发送到例如图1中的节点160等主节点上的控制器237。控制器237使用位于每个节点上的代理来检查每个节点上的资源信息,并根据现有算法选择合适的具有可用资源的节点。可以将所述合适的节点配置为物理机0上的VM 0。控制器237可以与调度器232进行功能集成,例如,为了使用调度器232,可对调度器232进行扩展,并且可以接收查询,该查询使用诸如REST API等已被定义好的API来指示。
另外,选择两个CPU内核(内核0、内核1)251和3个LLC(LLC 0、LLC 1、LLC 2)252,对所述选择的三个LLC执行硬件隔离,以将所述选择的三个LLC固定在所述选择的两个CPU内核(内核0、内核1)251上。可以根据支持缓存分配技术(Cache allocation Technique,CAT)的
Figure BDA0002485028350000051
服务器芯片等硬件支持技术执行隔离。
在虚拟化层230中,隔离两个虚拟CPU内核231,例如VM 2、VM 3,并将两个虚拟CPU内核231固定到所述选择的两个CPU内核(内核0、内核1)251。
在物理资源层250中,隔离其它资源并将其绑定到所述选择的两个CPU内核(内核0、内核1)251上。例如,监控DRAM带宽使用情况,如果其它内核(内核2、内核3)占用了过多的DRAM带宽,则暂停或终止其它内核(内核2、内核3)上占用过多DRAM带宽的应用程序,以保证所选择的内核(内核0,内核1)的DRAM带宽使用。例如,监控网络带宽,使用流量控制为所述选择的CPU内核(内核0、内核1)分配足够的网络带宽,当其它内核(内核2、内核3)占用过多网络带宽时,所述流量控制可能会丢弃来自所述其它内核(内核2、内核3)的包。可选地,带有分层令牌桶的Linux内核中的传输速率受限,以此来控制所述网络带宽。
特定应用程序201、202运行在所述虚拟CPU内核(VM 2、VM 3)上,但实际上是运行在所述两个选择的物理CPU内核(内核0、内核1)上,因为所述选择的虚拟CPU内核(VM2、VM3)被固定在所述两个选择的物理CPU内核(内核0、内核1)上。
在除所述两个选择的物理CPU内核(内核0、内核1)之外的其它内核251(内核2、内核3)上调度除特定应用程序201、202之外的其它应用程序。
优选地,一个具有SLA的应用程序与专用物理CPU内核、专用LLC、专用DRAM带宽、专用磁盘带宽以及专用网络带宽隔离。虚线261、262简要示出了如上所述的特定应用程序201、202的资源隔离的示例。
图3为关于云资源分配的全栈隔离方案的资源分配过程的流程图300。所述过程也可以参照图2进行。
在第一应用程序301的SLA中定义的规格要求可以列为服务等级目标(servicelevel objective,SLO)规格321,SLO规格321是服务提供商和客户之间的SLA的关键要素。通常,SLO认为是衡量所述服务提供商绩效的一种手段。SLO规格示例可以如下所示:
·“Spec”:“{“AppName”:“mysql”,
“AppId”:2,
“RequestPerSecond”:500,
“ConcurrentUsers”:4,
“ConnectionsPerUser”:10,
“Latency”:130}”
根据为第一应用程序301定义的SLO规格321,在SLA建模功能模块303处为第一应用程序301计算资源预测327。向控制器305发送资源预测327和资源需求323以及SLO规格321。控制器305可以包括调度器311。调度器311或控制器305根据SLO规格321选择可用来满足资源要求的一个或多个合适的节点。控制器305可以配置在集中式服务节点上,所述集中式服务节点与多个其它服务节点通信以对所述多个其它服务节点上以及所述集中式服务节点进行资源分配。
控制器305根据SLO规格321进行资源隔离313。第一应用程序301只在隔离的资源上运行。
监控器或监控系统315(图中描述为监控器315)收集第一应用程序301的资源使用情况和统计信息。所述资源使用情况和统计信息从物理CPU内核341、LLC缓存342、DRAM带宽343、主机的网络带宽344、交换机的网络带宽345、磁盘I/O 346、软件网络队列347、软件锁348等资源340收集而来。网络带宽可以被定义为虚拟资源或物理资源。网络带宽可以是或可以不是作为所述全栈结构隔离的一部分的元素资源。
监控器315可以使用SLO验证(模块)325或深度报文检测(deep packageinspection,DPI)报告模块331上报的网络SLO报告来计算所述第一应用程序执行的统计信息。可以生成L2、L3、LLC(L4)332的报告并将其发送到SLO验证(模块)325,作为网络SLO报告输入。
SLO验证(模块)325和资源使用信息也可以由监控器315收集以作为机器学习参数输入。监控器315可以使用核典型相关分析(Kernel Canonical Correlation Analysis,KCCA)算法来学习或预测应用程序满足SLA特定要求所需的资源。例如,监控器315可以包括几个模型,作为资源学习和预测的基础;模型可以根据不同工作负载下的不同资源隔离堆栈来描述应用程序的性能;还可以生成每个应用程序的性能和隔离资源的映射以获得所有应用程序可能的资源操作的描述文件;监控器315考虑述SLA规格信息321以预测特定应用程序201、202、301需要多少隔离资源;调度合适的服务节点来运行特定应用程序201、202、301;监控性能和资源使用情况,并选择模型进行进一步检查;当不满足所述SLA要求或需要所述SLA要求时,重新计算资源,并在重新分配的资源上重新调度执行所述特定应用程序。这种过程可以重复进行。
然后,可以根据收集的学习结果调整或改进资源分配。如果所述资源使用信息显示不满足所述SLO规格要求,则可以更新资源分配,所述收集的学习结果可以作为更新的依据。通过更新资源分配,可以调度新的服务节点,并且可以重复所述资源分配隔离过程,如上文各个实施例所述。
通过提供如上文各个实施例所述的全栈资源隔离,使得网络性能在云等虚拟环境中更加稳定和可预测。这也有利于软件和硬件设计。
图4示出了本文提供的资源隔离方案的资源拓扑示例。应用程序任务401在图4中示出为T0,0、T0,1、T0,2、T1,0、T1,1。所述应用程序任务将由控制器(X)或调度器402(U0、U1)根据其不同的SLA要求进行调度。所有所需的物理资源的资源分配拓扑403可以是如图4所示的示例。例如,所述所需的物理资源可以为:
R(R0、R1):机架,表示资源所在的物理位置。
M(M0、M1、M2、M3):为应用程序任务选择的物理机。
Sock(Sock0、Sock1):CPU插槽,表示已为所述应用程序任务选择的CPU所在的位置。
L3(L3$):三级缓存,通常为最后一级缓存(last level cache,LLC)。
L2(L2$):二级缓存。
L1(L1$):一级缓存。
C(C0、C1、C2、C3、C4、C5、C6、C7):内核,表示为所述应用程序任务选择了哪个CPU内核。
S:接收器,也可能是服务的监控器。
控制器402可以具有所有这样的资源拓扑和隔离调度。因此,可以切换或选择为具有SLA的特定应用程序部署的具有可用资源的合适节点。
图5示出了将计算服务节点网络中资源分配给应用程序的流程图示例500。例如,示例500可以由所述控制器执行。在步骤510中,根据第一应用程序的第一服务等级协议(service level agreement,SLA)确定满足所述第一SLA所需的多个物理中央处理器(central processing unit,CPU)内核以及相应数量的一个或多个附加物理资源;这种资源确定可以在分配开始之前进行,也可以在处理所述第一应用程序的过程中再次进行。在步骤520中,选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存(last level cache,LLC);在步骤530中,将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;在步骤540中,将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机专用;可选地,将所述选择的服务节点中的一个服务节点上的第二虚拟机分配给第二应用程序,其中,所述第二虚拟机不能使用所述预留的CPU内核并且不能使用所述预留数量的附加物理资源。在释放所述预留资源时,可以将所述第二虚拟机重新分配给已经为所述第一虚拟机预留的所述资源。所述第一虚拟机和所述第二虚拟机可以分配在同一个服务节点上。
资源使用情况可以通过以下方式进行安排:在执行所述第一应用程序时收集资源的参数,将所述收集到的参数与所述第一SLA进行比较,以及计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的所述多个物理中央处理器(physical center processing unit,CPU)内核以及所述相应数量的一个或多个附加物理资源。可以重新计算所述第一应用程序所需的资源使用情况;可以释放先前的资源分配以供所述第二虚拟机或第二应用程序使用;除了根据所述第一SLA,还可以根据重新计算的结果重新分配资源。
所述SLA可以指定每秒请求数量、网络延迟、DRAM带宽、磁盘带宽或网络带宽中的至少一项。
在步骤540中预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,如果所述第一应用程序的性能不满足所述第一SLA,则据此确定附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
可以专门为所述第一虚拟机或所述第一应用程序预留所有必要的物理资源以及虚拟资源。
图6是处理系统600的框图。处理系统600可用于实现本文公开的系统、装置、设备和方法。
特定设备可以利用所有所示的组件或仅仅所述组件的子集,并且设备与设备之间的集成程度可能不同。此外,设备可以包括组件的多个实例,例如多个处理单元、处理器、存储器、发射器、接收器等。所述处理系统可以包括配备有一个或多个输入/输出设备的处理单元610,所述输入/输出设备包括,例如扬声器、麦克风、鼠标、触摸屏、按键、键盘、打印机、显示器等。处理单元610可以包括连接至总线的中央处理器(central processing unit,CPU)630、存储器660、大容量存储器设备640、视频适配器670以及I/O接口680。
所述总线可以是一个或多个任意类型的若干总线架构,所述总线架构包括存储总线或存储控制器、外设总线、视频总线等等。CPU 630可以包括任何类型的电子数据处理器。存储器660可以包括任意类型的系统存储器,例如静态随机存取存储器(static randomaccess memory,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步DRAM(synchronous DRAM,SDRAM)、只读存储器(read-only memory,ROM)或其组合等等。在一个实施例中,存储器660可以包括在启动时使用的ROM,以及在执行程序时使用的用于程序和数据存储的DRAM。
大容量存储器设备640可以包括任意类型的存储设备,其用于存储数据、程序和其它信息,并使得这些数据、程序和其它信息可以通过所述总线进行访问。大容量存储器设备640可以包括如下项目中的一种或多种:固态驱动器、硬盘驱动器、磁盘驱动器、光盘驱动器等等。
视频适配器670和I/O接口680提供接口以将外部输入和输出设备耦合到处理单元610。如图所示,输入和输出设备的示例包括耦合到视频适配器670的显示器611以及耦合到I/O接口680的鼠标/键盘/打印机612。其它设备可以耦合到处理单元610,并且可以利用附加的或较少的接口卡。举例来说,串行接口卡(图中未示出)可以用于为打印机提供串行接口。
处理单元610还包括一个或多个网络接口650,网络接口可以包括例如以太网电缆等等有线链路,和/或用以接入节点或不同网络620的无线链路。网络接口650允许处理单元610经由网络620与远程单元通信。举例来说,网络接口650可以经由一个或多个发射器/发射天线以及一个或多个接收器/接收天线提供无线通信。在一个实施例中,处理单元610耦合到局域网或广域网上以用于数据处理以及与远程设备通信,所述远程设备包括例如其它处理单元、因特网、远程存储设施等等。
图7A示出了在执行资源隔离和没有执行资源隔离情况下的测试情形1的模拟比较结果。所述结果由表1直接生成的柱状图示出,仅供参考。在所述测试案例1中,具有SLA的第一应用程序拥有10个用户,同时每秒查询率(query per second,QPS)是50,而不具有SLA的第二应用程序拥有100个用户,QPS是1500。所述表1示出了情形1下的延迟比例比较的数字,一列显示两个应用程序的CPU资源混合(CPU混合)时的延迟比例数字。另一列显示当所述具有SLA的第一应用程序的CPU资源分配隔离(CPU隔离)时的延迟比例数字。最右边的一列显示在CPU混合与CPU隔离的两列中的数字的比例(加速x倍)。与没有执行隔离的情况相比,执行隔离情况下的性能至少提高了3.1倍。
表1
Figure BDA0002485028350000091
图7B示出了在执行资源隔离和没有执行资源隔离情况下的测试情形2的模拟比较结果。所述结果由下表2直接生成的柱状图示出,仅供参考。在所述测试案例2中,具有SLA的第一应用程序拥有20个用户,同时每秒查询率QPS为50,而不具有SLA的第二应用程序拥有100个用户,同时每秒查询率QPS为100。所述表2示出了情形2下的延迟比例比较的数字,一列显示两个应用程序的CPU资源混合(CPU混合)时的延迟比例数字。另一列显示当所述具有SLA的第一应用程序的CPU资源分配隔离(CPU隔离)时的延迟比例数字。最右边的一列显示在CPU混合与CPU隔离的两列中的数字的比例(加速x倍)。
表2
Figure BDA0002485028350000101
与没有执行隔离的情况相比,执行隔离情况下的性能至少提高了3.2倍。
尽管对本公开的说明参照了具体特征和相应的实施例,但是应当理解的是,在不脱离如下权利要求书所定义的本发明的精神和范围的情况下,可对本公开的实施例做出各种变化和替换。

Claims (19)

1.一种由控制器实施的将计算服务节点网络中的资源分配给应用程序的方法,其特征在于,所述方法包括:
根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源;
选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存LLC;
将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;以及
将所述选择的服务节点上的多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
2.根据权利要求1所述的方法,其特征在于,所述附加物理资源还包括动态随机存取存储器DRAM、L1缓存、L2缓存、L3缓存、最后一级缓存LLC或磁盘带宽。
3.根据权利要求1所述的方法,其特征在于,所述SLA指定每秒请求数量、网络延迟、DRAM带宽、磁盘带宽或网络带宽中的一项或多项。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
5.根据权利要求1所述的方法,其特征在于,所述第一虚拟机和第二虚拟机分配在同一个服务节点上。
6.根据权利要求1所述的方法,其特征在于,所述根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源还包括:
收集执行所述第一应用程序时资源使用情况的参数,并将所述收集到的参数与所述第一SLA进行比较;以及
计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的多个物理中央处理器CPU内核以及所述相应数量的一个或多个附加物理资源。
7.根据权利要求6所述的方法,其特征在于,所述根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源还包括:
重新计算所述第一应用程序所需的所述预测资源;释放先前的资源分配以供第二应用程序使用;以及除了根据所述第一SLA,还根据重新计算的结果重新分配资源。
8.一种面向应用程序的在计算服务节点的网络中的控制器装置,其特征在于,所述装置包括:
存储指令的存储器;以及
耦合到所述存储器的一个或多个处理器,其中,所述一个或多个处理器执行所述指令以:
根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源;
选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存LLC;
将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;以及
将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
9.根据权利要求8所述的控制器装置,其特征在于,所述附加物理资源还包括动态随机存取存储器DRAM、L1缓存、L2缓存、L3缓存、最后一级缓存LLC或磁盘带宽。
10.根据权利要求8所述的控制器装置,其特征在于,所述控制器还包括:
在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
11.根据权利要求8所述的控制器装置,其特征在于,所述第一虚拟机和第二虚拟机分配在同一个服务节点上。
12.根据权利要求8所述的控制器装置,其特征在于,所述根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源还包括:
收集执行所述第一应用程序时资源使用情况的参数,并将所述收集到的参数与所述第一SLA进行比较;以及
计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的所述多个物理中央处理器CPU内核以及所述相应数量的一个或多个附加物理资源。
13.根据权利要求8所述的控制器装置,其特征在于,所述控制器装置还包括:
专门为所述第一应用程序预留所有必要的物理资源和虚拟资源。
14.一种将计算服务节点网络中的资源分配给应用程序的系统,其特征在于,所述系统包括:
服务节点中的控制器,用于:
根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源;
选择一个或多个所述服务节点,所述服务节点都能够使用所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源,其中,所述一个或多个附加物理资源包括最后一级缓存LLC;
将所述选择的服务节点中的一个服务节点上的第一虚拟机分配给所述第一应用程序;
所述一个或多个所述服务节点中的存储指令的存储器;以及
所述一个或多个服务节点中的耦合到所述存储器的一个或多个处理器,其中,所述一个或多个处理器执行所述指令以:
将所述选择的服务节点上的所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源预留给所述第一虚拟机使用,使得在所述服务节点上分配的其它虚拟机都无法使用所述预留资源。
15.根据权利要求14所述的系统,其特征在于,所述附加物理资源还包括动态随机存取存储器DRAM、L1缓存、L2缓存、L3缓存、最后一级缓存LLC或磁盘带宽。
16.根据权利要求14所述的系统,其特征在于,所述系统还包括:
在预留所述多个物理CPU内核以及所述相应数量的一个或多个附加物理资源之后,确定所述第一应用程序的性能不满足所述第一SLA,据此预留附加物理CPU内核或附加物理资源以供所述第一虚拟机专用。
17.根据权利要求14所述的系统,其特征在于,所述第一虚拟机和第二虚拟机分配在同一个服务节点上。
18.根据权利要求14所述的系统,其特征在于,所述根据第一应用程序的第一服务等级协议SLA确定满足所述第一SLA所需的多个物理中央处理器CPU内核以及相应数量的一个或多个附加物理资源还包括:
收集执行所述第一应用程序时的资源使用情况的参数,并将所述收集到的参数与所述第一SLA进行比较;以及
计算所述第一应用程序所需的预测资源,其中,所述预测资源包括满足所述第一SLA所需的所述多个物理中央处理器CPU内核以及所述相应数量的一个或多个附加物理资源。
19.根据权利要求14所述的系统,其特征在于,还包括:
所述控制器还用于专门为所述第一应用程序预留所有必要的物理资源和虚拟资源。
CN201880072807.2A 2017-11-09 2018-11-07 云计算中资源提供的方法及系统 Active CN111344688B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/807,912 US11206193B2 (en) 2017-11-09 2017-11-09 Method and system for provisioning resources in cloud computing
US15/807,912 2017-11-09
PCT/CN2018/114279 WO2019091387A1 (en) 2017-11-09 2018-11-07 Method and system for provisioning resources in cloud computing

Publications (2)

Publication Number Publication Date
CN111344688A true CN111344688A (zh) 2020-06-26
CN111344688B CN111344688B (zh) 2022-12-06

Family

ID=66329075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880072807.2A Active CN111344688B (zh) 2017-11-09 2018-11-07 云计算中资源提供的方法及系统

Country Status (3)

Country Link
US (1) US11206193B2 (zh)
CN (1) CN111344688B (zh)
WO (1) WO2019091387A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112416958A (zh) * 2020-12-07 2021-02-26 恩亿科(北京)数据科技有限公司 实时qps控制方法、系统、计算机及计算机可读存储介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972491B1 (en) * 2018-05-11 2021-04-06 Amazon Technologies, Inc. Anomaly detection with missing values and forecasting data streams
US11785084B2 (en) * 2018-06-20 2023-10-10 Netapp, Inc. Machine learning based assignment of service levels in a networked storage system
CA3057032C (en) * 2018-09-28 2023-03-21 Element Ai Inc. System and method for managing network resources
US11204761B2 (en) * 2018-12-03 2021-12-21 International Business Machines Corporation Data center including cognitive agents and related methods
US11836525B2 (en) 2020-12-17 2023-12-05 Red Hat, Inc. Dynamic last level cache allocation for cloud real-time workloads
CN113419811A (zh) * 2021-05-20 2021-09-21 曙光信息产业股份有限公司 Cpu添加方法、设备、计算机设备及可读存储介质
US11726933B2 (en) * 2021-06-16 2023-08-15 Fisher-Rosemount Systems, Inc. I/O server services configured to facilitate control in a process control environment by containerized controller services
CN113791873B (zh) * 2021-11-16 2022-12-30 统信软件技术有限公司 一种虚拟机创建方法、计算设备及存储介质
CN115333962A (zh) * 2022-07-20 2022-11-11 山东财经大学 一种基于公平与效率权衡的云渲染容器资源调度方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2513809A2 (en) * 2009-12-14 2012-10-24 Citrix Systems Inc. Systems and methods for service isolation
US20130304923A1 (en) * 2012-05-14 2013-11-14 International Business Machines Corporation Allocation and reservation of virtualization-based resources
US20130318303A1 (en) * 2012-03-22 2013-11-28 Iosif Gasparakis Application-reserved cache for direct i/o
CN103559089A (zh) * 2013-10-30 2014-02-05 南京邮电大学 一种基于服务等级协议约束的虚拟机需求预测实现方法
WO2014026524A1 (zh) * 2012-08-14 2014-02-20 华为技术有限公司 一种分配资源的方法及装置
CN104142864A (zh) * 2014-08-07 2014-11-12 浪潮电子信息产业股份有限公司 一种基于虚拟化技术的多租户性能隔离框架
US20150295789A1 (en) * 2014-04-09 2015-10-15 International Business Machines Corporation Management of virtual machine placement in computing environments
CN107003887A (zh) * 2014-12-22 2017-08-01 英特尔公司 Cpu超载设置和云计算工作负荷调度机构

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8291411B2 (en) * 2007-05-21 2012-10-16 International Business Machines Corporation Dynamic placement of virtual machines for managing violations of service level agreements (SLAs)
WO2009058042A1 (en) * 2007-10-29 2009-05-07 Intel Corporation A method of external performance monitoring for virtualized environments
CN102014159A (zh) 2010-11-29 2011-04-13 华中科技大学 一种云计算环境下的分层资源预留系统
CN103649910A (zh) 2011-07-11 2014-03-19 惠普发展公司,有限责任合伙企业 虚拟机放置
US8745216B2 (en) * 2011-11-17 2014-06-03 Infosys Limited Systems and methods for monitoring and controlling a service level agreement
CN106712998A (zh) 2015-11-18 2017-05-24 中兴通讯股份有限公司 一种云平台资源管理方法、装置及系统
US10742522B2 (en) * 2016-11-14 2020-08-11 Huawei Technologies Co., Ltd. Creation and modification of shareable slice instances

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2513809A2 (en) * 2009-12-14 2012-10-24 Citrix Systems Inc. Systems and methods for service isolation
US20130318303A1 (en) * 2012-03-22 2013-11-28 Iosif Gasparakis Application-reserved cache for direct i/o
US20130304923A1 (en) * 2012-05-14 2013-11-14 International Business Machines Corporation Allocation and reservation of virtualization-based resources
WO2014026524A1 (zh) * 2012-08-14 2014-02-20 华为技术有限公司 一种分配资源的方法及装置
CN103559089A (zh) * 2013-10-30 2014-02-05 南京邮电大学 一种基于服务等级协议约束的虚拟机需求预测实现方法
US20150295789A1 (en) * 2014-04-09 2015-10-15 International Business Machines Corporation Management of virtual machine placement in computing environments
CN104142864A (zh) * 2014-08-07 2014-11-12 浪潮电子信息产业股份有限公司 一种基于虚拟化技术的多租户性能隔离框架
CN107003887A (zh) * 2014-12-22 2017-08-01 英特尔公司 Cpu超载设置和云计算工作负荷调度机构

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112416958A (zh) * 2020-12-07 2021-02-26 恩亿科(北京)数据科技有限公司 实时qps控制方法、系统、计算机及计算机可读存储介质

Also Published As

Publication number Publication date
WO2019091387A1 (en) 2019-05-16
US20190140918A1 (en) 2019-05-09
CN111344688B (zh) 2022-12-06
US11206193B2 (en) 2021-12-21

Similar Documents

Publication Publication Date Title
CN111344688B (zh) 云计算中资源提供的方法及系统
Zhang et al. Dynamic heterogeneity-aware resource provisioning in the cloud
JP6850344B2 (ja) 非集約コンピューティング・システムにおけるパワーマネジメント
US10623481B2 (en) Balancing resources in distributed computing environments
Vakilinia et al. Modeling of the resource allocation in cloud computing centers
Gunasekaran et al. Fifer: Tackling resource underutilization in the serverless era
Mansouri et al. Cost-based job scheduling strategy in cloud computing environments
US8458334B2 (en) Optimized capacity planning
Hashem et al. MapReduce scheduling algorithms: a review
US20110202925A1 (en) Optimized capacity planning
US20120011254A1 (en) Network-aware virtual machine migration in datacenters
WO2017010922A1 (en) Allocation of cloud computing resources
Dehnavi et al. A reliability-aware resource provisioning scheme for real-time industrial applications in a Fog-integrated smart factory
Zhu et al. FPGA resource pooling in cloud computing
Duong et al. A framework for dynamic resource provisioning and adaptation in iaas clouds
Simao et al. Flexible slas in the cloud with a partial utility-driven scheduling architecture
Fuerst et al. Kraken: Online and elastic resource reservations for cloud datacenters
Ataie et al. Modeling and evaluation of dispatching policies in IaaS cloud data centers using SANs
Himthani et al. Comparative analysis of VM scheduling algorithms in cloud environment
Phi et al. Load balancing algorithm on cloud computing for optimize response time
Jiang et al. Resource allocation in contending virtualized environments through VM performance modeling and feedback
Stein Adaptive event dispatching in serverless computing infrastructures
Kumar et al. Resource allocation for heterogeneous cloud computing using weighted fair-share queues
Krishnamurthy et al. Towards automated HPC scheduler configuration tuning
Qiu et al. Performability analysis of a cloud system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant