CN106687926A - 被克隆的虚拟机的负载均衡 - Google Patents

被克隆的虚拟机的负载均衡 Download PDF

Info

Publication number
CN106687926A
CN106687926A CN201580048352.7A CN201580048352A CN106687926A CN 106687926 A CN106687926 A CN 106687926A CN 201580048352 A CN201580048352 A CN 201580048352A CN 106687926 A CN106687926 A CN 106687926A
Authority
CN
China
Prior art keywords
virtual machine
virtual
host computer
page
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580048352.7A
Other languages
English (en)
Inventor
K·萨拉迪
G·尚穆加纳坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VMware LLC
Original Assignee
VMware LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VMware LLC filed Critical VMware LLC
Publication of CN106687926A publication Critical patent/CN106687926A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Stored Programmes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)

Abstract

公开了一种用于管理虚拟机网络中的虚拟机的布置的方法、非暂时性计算机可读存储介质和计算机系统。在实施例中,方法包括确定支持进程并在第一主机计算机上运行的虚拟机的集合中的至少一个虚拟机是否需要与该集合中的其他虚拟机分离。如果至少一个虚拟机需要被分离,则至少一个虚拟机基于被改变的存储器页的数目被选择被分离。然后所选择的VM与该集合中的其他虚拟机分离。

Description

被克隆的虚拟机的负载均衡
背景技术
云计算和虚拟机(VM)网络极大地改进了资源分配的灵活性以解决计算中心中的工作负载。灵活性源于根据工作负载的需求利用真实数目的物理机和VM实例的能力。通常,当在VM网络中启动进程时,进程以低资源需求开始(例如,在一个VM上运行)。随着进程处理的工作负载增加,额外的VM可以根据需要被实例化以支持该进程。例如,简单计算最初由单个VM所支持。当针对计算的请求开始以比VM能够执行计算更快的速率进行时,第二VM被实例化以与第一VM并行地执行计算。
在典型的VM网络中,工作负载可以快速地增加和减少。因此,期望额外的VM的快速实例化。然而,通常,新实例化的VM的配置可以是耗时的过程,并且经常限制VM网络对工作负载中的增加的响应性。替选地,可以通过克隆已经被配置为支持该进程的VM(父VM)来实例化新的VM(子VM)。通过克隆父VM,父VM的设置和状态可以被快速地映射到子VM,而没有必要配置子VM。因此,可以使用该进程所需的适当设置和状态来创建新的子VM。
然而,新的子VM的创建对由现有VM利用的资源提出了进一步的需求,这可能否定克隆的好处或导致现有VM的性能不足。为了管理资源利用,VM可能需要在整个VM网络中被迁移或移动。例如,如果在相同主机计算机上被实例化的父VM和几个子VM过度利用主机计算机中可用的存储器(例如,需要比可用的存储器更多的存储器),则VM的子集可能需要被迁移到另一主机计算机。
发明内容
在一个实施例中,公开了一种用于管理虚拟机网络中的虚拟机的布置的方法。该方法包括确定虚拟机的集合中的至少一个虚拟机是否需要与该集合中的其他虚拟机分离,该虚拟机的集合支持进程并在第一主机计算机上运行。如果至少一个虚拟机需要被分离,则至少一个虚拟机基于被改变的存储器页的数目被选择被分离。然后所选择的VM与该集合中的其他虚拟机分离。
在第二实施例中,公开了一种非暂时性计算机可读存储介质。该非暂时性计算机可读存储介质包含程序指令,当由一个或多个处理器执行时,使得该一个或多个处理器确定虚拟机的集合中的至少一个虚拟机是否需要与该集合中的其他虚拟机分离,该虚拟机的集合支持进程并在第一主机计算机上运行。如果该虚拟机的集合中的至少一个虚拟机需要与该虚拟机的集合分离,则来自该虚拟机的集合的该虚拟机中的至少一个基于被改变的存储器页的数目而被选择,并且该虚拟机与该集合中的该其他虚拟机分离。
在第三实施例中,公开了一种具有至少一个主机计算设备的计算机系统,该主机计算设备包括用于运行被实例化的虚拟机的处理器和存储器。至少一个主机计算设备被配置为确定虚拟机的集合中的至少一个虚拟机是否需要与该集合中的其他虚拟机分离,该虚拟机的集合支持进程并在第一主机计算机上运行,以及如果该虚拟机的集合中的至少一个虚拟机需要与该虚拟机的集合分离,则基于被改变的存储器页的数目从该虚拟机的集合选择该虚拟机中的至少一个,并且将该虚拟机与该集合中的该其他虚拟机分离。
从结合附图的以下详细描述中,本发明的实施例的其他方面和优点将变得显而易见,附图通过本发明的原理的示例被示出。
附图说明
图1是虚拟机网络的框图。
图2是来自图1的虚拟机网络的主机计算机的框图。
图3示出了支持进程的父虚拟机,该父虚拟机具有从该父虚拟机克隆几个子VM以帮助支持该进程。
图4是示出了图1的子VM的存储器使用的框图。
图5是根据本发明的实施例的用于管理虚拟机网络中的虚拟机的布置并选择要分离的虚拟机的技术的流程图。
图6A示出了根据本发明的实施例通过将VM迁移到第二主机计算机以将该VM与支持进程的其他VM分离。
图6B示出了根据本发明的实施例通过将其他VM迁移到第二主机计算机以将该VM与支持进程的其他VM分离。
在整个说明书中,相似的附图标记可以用于标识相似的元件。
具体实施方式
将容易理解,如在本文中大体描述的和在附图中示出的实施例的组件可以以各种各样的不同配置来布置和设计。因此,如图所示,以下各种实施例的更详细的描述不旨在限制本公开的范围,而仅是代表各种实施例。虽然在附图中呈现了实施例的各个方面,但是除非特别指出,附图不必按比例绘制。
在不脱离本发明的精神或本质特性的情况下,本发明可以以其他具体形式被实施。所描述的实施例在所有方面都被认为仅是说明性的而非限制性的。因此,本发明的范围由所附权利要求书而不是由本具体实施方式来指示。在权利要求的等同物的含义和范围内的所有改变将被包括在其范围内。
贯穿本说明书对特征、优点或类似语言的引用并不意味着可以用本发明实现的所有特征和优点应当或在本发明的任何单个实施例中。相反,涉及特征和优点的语言被理解为意味着结合实施例描述的具体特征、优点或特性被包括在本发明的至少一个实施例中。因此,贯穿本说明书的特征和优点以及类似语言的讨论可以,但不必,指代相同的实施例。
此外,本发明的所描述的特征、优点和特性可以以任何合适的方式组合在一个或多个实施例中。根据本文的描述,相关领域的技术人员将认识到本发明可以在没有特定实施例的具体特征或优点的一个或多个具体特征或优点的情况下实施。在其他示例中,在某些实施例中可以识别到可能不存在于本发明的所有实施例中的额外的特征和优点。
贯穿本说明书对“一个实施例”、“实施例”或类似语言的引用意味着结合所指示的实施例描述的特定特征、结构或特性被包括在本发明的至少一个实施例中。因此,贯穿本说明书的短语“在一个实施例中”、“在实施例中”和类似语言可以,但不必,都指代相同的实施例。
现在转到图1,示出了虚拟机网络100(VM网络)的框图。VM网络包括网络102,主机计算机的集群C-1、C-2...CN(其中N是正整数)和数据存储集群104。包括在分布式计算机系统中的主机计算机集群的准确数目可以是,例如从几个集群到几十个集群或更多。不同集群的主机计算机和数据存储集群连接到网络。因此,集群中的每个主机计算机能够经由网络访问数据存储集群,并且可以与其他主机计算机共享由数据存储集群提供的资源。因此,在任何主机计算机上运行的任何进程也可以经由网络访问数据存储集群。
在图示的实施例中,集群C-1、C-2...CN中的每一个包括多个主机计算机H-1、H-2...HM(其中M是正整数)以及集群管理服务器110。包括在每个集群中的主机计算机的数目可以是任何数目,例如从一个到几百个或更多。此外,包括在每个集群中的主机计算机的数目可以变化,使得不同集群可以具有不同数目的主机计算机。虽然主机计算机中的至少一些主机计算机可以被虚拟化,但在图1的实施例中,主机计算机是物理计算机系统,该物理计算机系统托管或支持一个或多个VM,使得VM在物理计算机系统上执行。主机计算机可以是通常在数据中心中找到的服务器。作为示例,主机计算机可以是安装在一个或多个服务器机架中的服务器。通常,一个集群的主机计算机位于相同的服务器机架内。
集群C-1、C-2...C-N中的每个集群管理服务器110操作以监视和管理相应集群中的主机计算机H-1、H-2...H-M。每个集群管理服务器可以被配置为监视主机计算机和在相应集群中的主机计算机上运行的VM(例如,虚拟机(VM))的当前配置。所监视的配置可以包括每个主机计算机的硬件配置、诸如CPU类型和存储器大小,和/或每个主机计算机的软件配置、诸如操作系统(OS)类型和安装的应用或软件程序。所监视的配置还可以包括VM托管信息,即,哪些VM被托管并运行在哪些主机计算机上。所监视的配置还可以包括VM信息。VM信息可以包括每个VM的大小、针对每个VM的虚拟化硬件配置(诸如虚拟CPU类型和虚拟存储器大小)、针对每个VM的软件配置(诸如OS类型和在每个VM上运行的安装的应用或软件程序)、以及每个VM的虚拟存储大小。VM信息还可以包括资源参数设置,诸如VM所消耗的各种资源(例如,CPU、存储器、网络带宽和存储装置)的需求、限制、预留和共享值。VM针对可消耗资源的需求由托管VM的主机通过监视VM对资源的当前使用(例如CPU处理使用、存储器使用、网络使用和/或存储装置使用)而被确定,并且被提供给相应的集群管理服务器。
在一些实施例中,集群管理服务器110可以在单独的物理计算机上实现。在其他实施例中,集群管理服务器可以被实现为在主机计算机上运行的或在主机计算机上运行的虚拟计算机(未示出)上运行的软件程序。在一个实现中,集群管理服务器是具有可用于这样的服务器的特征中的至少一些的VMware vCenterTM服务器,并且每个资源管理模块(RMM)112是VMware分布式资源调度器TM,其提供如本领域所知的分布式资源调度器(DRS)服务。
网络102可以是允许连接到网络的设备之间的、使用例如TCP或UDP传输层的通信的任何类型的计算机网络或网络的组合。网络102可以包括因特网、广域网(WAN)、局域网(LAN)、存储区域网络(SAN)、光纤信道网络和/或其他网络。网络102可以被配置为支持适于与存储阵列通信的协议,诸如光纤信道、因特网小型计算机系统接口(iSCSI)、以太网光纤信道(FCoE)和HyperSCSI。
数据存储集群104用于存储针对集群C-1、C-2...C-N的主机计算机的数据,其可以像通常连接到计算机系统的任何其他类型的存储设备那样被访问。在一个实施例中,可以由使用任何文件系统(例如,虚拟机文件系统(VMFS)或网络文件系统(NFS))的实体(例如在主机计算机上运行的VM)访问数据存储集群。数据存储集群包括一个或多个计算机数据存储设备116,其可以是任何类型的存储设备,诸如固态设备(SSD)、硬盘或两者的组合。这些存储设备中的至少一些可以是主机计算机的本地存储设备,例如主机计算机内的本地附接盘或SSD。存储设备可以作为网络附加存储(NAS)和/或存储区域网络(SAN)的组件来操作。数据存储集群包括存储管理模块118,其管理数据存储集群的操作。在一个实施例中,存储管理模块是在数据存储集群的一个或多个计算机系统(未示出)上执行的计算机程序。数据存储集群支持多个数据存储DS-1、DS-2...DS-X(其中X是正整数),其可以使用逻辑单元号(LUN)来标识。在一个实施例中,数据存储是存储设施的虚拟化表示。因此,每个数据存储可以使用来自包括在数据存储集群中的多于一个存储设备的资源。数据存储用于存储与由集群C-1、C-2...C-N的主机计算机支持的VM相关联的数据。对于虚拟机,数据存储可以用作虚拟存储或虚拟盘来存储虚拟机需要的用于操作的文件。一个或多个数据存储可以与一个或多个集群相关联。在一个实施例中,相同的数据存储可以与多于一个集群相关联。
现在转到图2,代表主机计算机H-1、H-2...H-M的主机计算机200的组件被示出。在图2中,主机计算机的各种组件之间的物理连接未被图示出。在图示的实施例中,主机计算机被配置为支持多个VM 220A、220B...220L(其中L是正整数)。主机计算机支持的VM的数目可以是从一个到多于一百的任何数目。主机计算机支持的VM的准确数目由主机计算机的物理资源或诸如许可的其他约束而被限制。VM共享主机计算机的硬件资源中的至少一些硬件资源,其包括系统存储器222、一个或多个处理器224、存储接口226和网络接口228。系统存储器222(其可以是随机存取存储器(RAM))是主机的主存储器。处理器224可以是任何类型的处理器,诸如通常在服务器中找到的中央处理单元(CPU)。存储接口226是允许主机计算机与图1中的数据存储集群104通信的接口。作为示例,存储接口可以是主机总线适配器或网络文件系统接口。网络接口228是允许主机计算机与集群中的其他设备以及连接到图1中的网络102的设备通信的接口。作为示例,网络接口可以是网络适配器。客户操作系统是客户VM的主控制程序,并且除了其他之外形成客户应用在其上运行的软件平台。在一个实施例中,客户应用是个体程序,诸如例如电子邮件管理器、系统记录器或用户直接与其通信的另一程序。
在图2的实施例中,VM 220A、220B...220L在包括内核(未示出)的管理程序230上运行。在其他实施例中,VM中的一个或多个可以是嵌套的,即,在另一VM中运行的VM。例如,VM中的一个可以在同样运行在另一个VM中的VM中运行。管理程序可以在主机计算机的操作系统上或直接在主机计算机的硬件上运行。在具有管理程序的支持的情况下,VM提供虚拟化的计算机系统,其给出与主机计算机不同并且彼此不同的外观。
类似于连接到图1中的网络102的任何其他计算机系统,图2所示的VM 220A、220B...220L能够使用主机计算机200的网络接口228与连接到网络的其他计算机系统通信。此外,VM能够使用图2中的主机计算机的存储接口226访问图1中的数据存储集群104。
主机计算机200还包括作为资源管理系统(例如分布式资源调度器系统)的一部分操作的本地资源分配模块236,以管理由VM 220A、220B...220L所消耗的资源。每个主机计算机中的本地资源分配模块与网络计算机系统100的其他主机计算机中的本地资源分配模块协同地操作,以生成资源分配设置和执行资源调度,其包括在主机计算机集群C-1、C-2...CN的主机计算机H-1、H-2...H-M之间均衡软件进程的负载和/或存储资源调度。虽然本地资源分配模块在图2中被示出为与管理程序230分离,但是本地资源分配模块可以被实现为管理程序的一部分。在一些实施例中,本地资源分配模块被实现为在主机计算机上运行的软件程序。然而,在其他实施例中,本地资源分配模块可以使用软件和硬件的任何组合来实现。
如上文参考图2所描述的主机计算机中的VM可以被配置为支持用于处理给定工作负载的进程。图3是被配置为运行VM的集合的主机计算机的框图,该VM的集合支持用于处理给定工作负载的进程。如图3所示,主机计算机包括父VM 302、四个子VM 304和由VM使用的存储器306。通常,当主机计算机被配置为支持进程时,被实例化为支持该进程的第一VM被称为“父VM”。如图3的示例中,当父VM被实例化和配置时,配置被存储在配置文件308中,配置文件308指示父VM在主机计算机的存储器中或从另一共享存储器源访问存储器的选择页310。父VM处理工作负载,直到到达称为“分叉点(fork point)”的预定义点,并且一旦到达分叉点,则从父VM克隆被称为“子VM”的额外的VM(即,用与父VM相同的配置文件被实例化)以帮助支持父VM。例如,如图3所示,父VM的配置文件被复制到每个子VM,并且子VM被指示也使用主机计算机的存储器或共享存储器源中的页。因此,最初,父VM被实例化为支持处理新的工作负载,并且配置文件指示父VM利用主机计算机的存储器中或共享存储器源的页。在父进程对工作负载执行一些初始计算之后,到达分叉点,并且子VM被实例化为运行子进程以进一步修改初始计算的结果或增加处理工作负载的VM的数目。子VM用与父VM相同的配置文件被实例化,并且被指示也使用主机计算机的存储器或共享存储器源的页。
实例化子VM以进一步修改初始计算的结果或增加支持进程的VM的数目可以产生资源消耗的显著节省以及增加吞吐量。然而,增加可用于支持进程的VM的数目并非没有成本。每个子VM用与父VM相同的配置(例如,相同的存储器量)被实例化。因此,除了所需的其他资源之外,支持进程的VM所需的总存储器量与VM的数目成比例地增加。例如,所需的存储器量可以计算如下:
总存储器=n*MemSize
其中n等于支持进程的VM的数目,并且MemSize等于父VM所需的存储器量。通过用固定的存储器量来实例化每个子VM,所需的存储器量可以增长非常大。
为了减少所需的存储器量,子VM可以被配置为共享父VM的存储器页,并且如果子VM中的一个需要写入页,则共享存储器页的页可以在VM需要写入该页时被复制到针对子VM的专用存储器。图4是示出了图3的子VM的存储器使用的框图。在图4的框图中,子VM 304每个使用共享存储器402和专用存储器404。共享存储器和专用存储器由如索引切片所指示的存储器的页412、414组成。当子VM需要读取共享存储器中的页时,子VM访问共享存储器中的页。备选地,当子VM尝试写入页时,子VM从共享存储器创建页412的副本到针对子VM的专用存储器中,并且写入专用存储器中的复制页414。因此,不是为每个子VM创建共享存储器中的所有页的完整复制,而是可以针对每个子VM根据需要创建来自共享存储器的页的复制。例如,在图4中,当子VM1需要写入页x007和x011时,每个页被复制到针对VM1的专用存储器中,并且子VM1在其专用存储器中写入复制的页。
通过共享存储器的页,被实例化为支持该进程的所有VM所需的存储器量可以计算如下:
总存储器=(n*(1-△))*MemSize
其中n等于支持该进程的VM的数目,△等于由支持该进程的VM共享的页的百分比,并且MemSize等于父VM所需的存储器量。因此,共享存储器的页需要当针对每个VM的存储器的全部页被复制时所需的存储器的一部分。例如,在图4中,不需要存储器的100页(即,针对每个子VM的共享存储器的25页的完整复制),仅需要存储器的35页(即,共享存储器的25页的一个复制,针对子VM 1的专用存储器的2页,针对子VM 2的专用存储器的1页,以及针对子VM 4的专用存储器的7页)。
尽管使用共享存储器减少了父VM和子VM所需的存储器量,但是为了使子VM使用存储器的共享页,子VM必须能够访问与共享该页的其他VM相同的存储器。通常,在相同主机计算机上运行的VM都可以访问相同存储器,而存储在不同主机计算机上的VM可能不能访问相同存储器。因此,如果支持父进程所需的额外的子VM被创建或迁移到不能访问与父VM相同的存储器的主机计算机,则存储器页不能与额外的子VM共享。
虽然在与父VM相同的主机计算机上的或者使用相同共享存储器源的VM可以共享存储器页,但是并非所有VM都将共享相同量的存储器页(例如,一个子VM可能不需要任何页被复制到其专用存储器,而另一子VM可能需要许多页被复制到其专用存储器)。因此,一些子VM将需要比其他VM更少的存储器。例如,在图4中,子VM 3不写入存储器的任何页,并且因此除了来自共享存储器的页之外不需要存储器的专用页,而子VM 4写入存储器的七个页,并且除了来自共享存储器的页之外需要专用存储器的七个页。
如果比单个主机计算机可以支持的更多的子VM被实例化,则一些子VM将需要与其他子VM分离。根据本发明的实施例,如果确定VM需要与其他VM分离,则将基于已经被改变的存储器页的数目(例如,被复制到VM的专用存储器的页的数目)来选择VM。例如,被复制到专用存储器的页的数目被用作确定如何最佳迁移VM的指示器。在一个实施例中,已经改变了最高数目的存储器页(例如,将最高数目的页复制到其专用存储器)的VM将被选择并被分离到单独的主机计算机上。因此,通过从支持进程的VM的集合选择已经改变了最高数目的存储器页的VM,并且将该VM分离到单独的主机计算机上,与在已经改变了更少的存储器页的VM被选择和分离的情况相比,更多的存储器将对支持该进程的其他VM可用。
图5是用于管理虚拟机网络中的VM的布置的技术的流程图。在判断点502,确定在第一主机计算机上的VM中运行的进程是否需要额外的VM来帮助支持该进程。在一个实施例中,由在主机计算机位于的集群中运行的DRS进行确定。如果需要额外的VM(即,子VM),则在判断点504,确定额外的VM是否可以被添加到第一主机计算机。如果额外的VM可以被添加到第一主机计算机,则在框506,在第一主机计算机上实例化额外的VM,VM被添加到支持进程的VM的集合,并且流程返回到判断点502。在一个实施例中,被实例化的VM是从已经在第一主机计算机上运行的父VM克隆的子VM(即,具有与已经在第一主机计算机上运行的VM相同的配置文件)。备选地,如果VM不能被添加到第一主机计算机,则在框508,计算由在第一主机计算机上运行的每个VM改变的存储器页的数目。在框510,基于被改变的存储器页的数目,VM被选择与其他VM分离。在一个实施例中,已经改变了最高数目的存储器页的VM被选择。在另一实施例中,已经改变了超过预定义阈值的数目的存储器页的至少一个VM被选择。例如,如果用户将阈值设置为20%,则已经改变了20%或更多存储器页的几个VM中的至少一个被选择。一旦VM已经被选择,则将VM与支持该进程的VM的集合中的其他VM分离,并且流程返回到判断点504,以确定所需的额外的VM是否现在可以被添加到第一主机计算机。如果额外的VM仍然不能被添加,则重复用于选择要被分离的VM的步骤。
根据本发明的一个实施例,VM可以以许多方式与其他VM分离。图6A描绘了将VM与其他VM分离的第一种方式。在图6A中,子VM 1 304、子VM 2 304、子VM 3 304和子VM 4 304在主机计算机A 200上运行。如上面参考图4所描述的,子VM 4已经改变了最高数目的存储器页。根据本发明的一个实施例,子VM 4被选择,并且通过被迁移到主机计算机B 200而与子VM 1、子VM 2和子VM 3分离。图6B描绘了将VM与其他VM分离的第二种方式。在图6B中,子VM 1 304、子VM 2 304、子VM 3 304和子VM 4 304在主机计算机A 200上运行。如上面参考图4所描述的,子VM 4已经改变了最高数目的存储器页,并且因此被选择为与支持该进程的VM的集合中的其他VM分离。根据本发明的一个实施例,子VM4被选择,并且通过将子VM1、子VM2和子VM3迁移到主机计算机B200而与子VM1、子VM2和子VM3分离。
因此,当需要额外的VM时,分离对存储器页做出较少改变的VM(被称为具有“低脏(dirtying)率”)比分离对存储器页做出许多改变的VM(被称为具有“高脏率”)更被偏好。通过偏好具有低脏率的VM,除了共享存储器之外,需要更少的专用存储器,允许VM使用更少的存储器。
尽管本文中的一个或多个方法的操作以特定顺序被示出和描述,但是每个方法的操作的顺序可以被改变,使得某些操作可以以相反的顺序被执行,或者使得某些操作可以至少部分地与其他操作同时地被执行。在另一实施例中,不同操作的指令或子操作可以以间歇和/或交替方式被实现。
还应当注意,针对该方法的操作中的至少一些操作可以使用存储在计算机可用存储介质上的用于由计算机执行的软件指令而被实现。作为示例,计算机程序产品的实施例包括用于存储计算机可读程序的计算机可用存储介质,当在计算机上执行该计算机可读程序时,使得计算机执行如本文所述的操作。
此外,本发明的至少部分的实施例可以采用从计算机可用或计算机可读介质可访问的计算机程序产品的形式,该计算机可用或计算机可读介质提供由计算机或任何指令执行系统使用或与其结合使用的程序代码。为了本描述的目的,计算机可用或计算机可读介质可以是可以包含、存储、传送、传播或传输由指令执行系统、装置或设备使用或与其结合使用的程序的任何装置。
计算机可用或计算机可读介质可以是电子、磁、光、电磁、红外或半导体系统(或装置或设备)或传播介质。计算机可读介质的示例包括半导体或固态存储器、磁带、可移除计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、刚性磁盘和光学盘。光学盘的当前示例包括具有只读存储器的光盘(CD-ROM)、具有读/写的光盘(CD-R/W)、数字视频盘(DVD)和蓝光盘。
在上面的描述中,提供了各种实施例的具体细节。然而,一些实施例可以用少于所有这些具体细节来实践。在其他实例中,为了简洁和清楚起见,不再比实现本发明的各种实施例更详细描述某些方法、过程、组件、结构和/或功能。
虽然已经描述和示出了本发明的具体实施例,但是本发明不限于如此描述和示出的部分的具体形式或布置。本发明的范围由所附的权利要求及其等同物限定。

Claims (27)

1.一种用于管理虚拟机网络中的虚拟机的集合的布置的方法,所述方法包括:
确定虚拟机的集合中的至少一个虚拟机是否需要与所述集合中的其他虚拟机分离,所述虚拟机的集合支持进程并在第一主机计算机上运行;以及
如果所述虚拟机的集合中的至少一个虚拟机需要与所述虚拟机的集合分离,则基于被改变的存储器页的数目从所述虚拟机的集合选择所述虚拟机中的至少一个虚拟机,并将所述虚拟机与所述集合中的所述其他虚拟机分离。
2.根据权利要求1所述的方法,其中分离所述虚拟机包括将所述虚拟机迁移到第二主机计算机。
3.根据权利要求1所述的方法,其中分离所述虚拟机包括将所述虚拟机的集合中的所述其他虚拟机迁移到第二主机计算机,并将所述虚拟机留在所述第一主机计算机上。
4.根据权利要求1所述的方法,其中支持进程的所述虚拟机的集合包括父虚拟机和从所述父虚拟机克隆的至少一个子虚拟机。
5.根据权利要求1所述的方法,其中所述虚拟机的集合中的虚拟机被初始化为使用共享存储器的页,并且被初始化为当所述虚拟机需要写入页时,将所述页从所述共享存储器复制到专用存储器。
6.根据权利要求5所述的方法,其中虚拟机基于可比作所述虚拟机对专用存储器的利用的、对共享存储器的利用而从所述虚拟机的集合被选择。
7.根据权利要求1所述的方法,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是多个虚拟机中的、具有最高数目的被改变的存储器页的至少一个虚拟机。
8.根据权利要求1所述的方法,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是已经进行超过预定义阈值的数目的存储器页改变的所述虚拟机中的至少一个虚拟机。
9.根据权利要求1所述的方法,其中当第一主机计算机不能支持虚拟机的集合中的所有所述虚拟机时,所述虚拟机的集合中的至少一个虚拟机需要被迁移,所述虚拟机的集合支持进程并在所述第一主机计算机上运行。
10.一种包含程序指令的非暂时性计算机可读存储介质,其中一个或多个处理器对所述程序指令的执行使得所述一个或多个处理器执行包括以下的步骤:
确定虚拟机的集合中的至少一个虚拟机是否需要与所述集合中的其他虚拟机分离,所述虚拟机的集合支持进程并在第一主机计算机上运行;以及
如果所述虚拟机的集合中的至少一个虚拟机需要与所述虚拟机的集合分离,则基于被改变的存储器页的数目从所述虚拟机的集合选择所述虚拟机中的至少一个虚拟机,并且将所述虚拟机与所述集合中的所述其他虚拟机分离。
11.根据权利要求10所述的非暂时性计算机可读存储介质,其中分离所述虚拟机包括将所述虚拟机迁移到第二主机计算机。
12.根据权利要求10所述的非暂时性计算机可读存储介质,其中分离所述虚拟机包括将所述虚拟机的集合中的所述其他虚拟机迁移到第二主机计算机,并将所述虚拟机留在所述第一主机计算机上。
13.根据权利要求10所述的非暂时性计算机可读存储介质,其中支持进程的所述虚拟机的集合包括父虚拟机和从所述父虚拟机克隆的至少一个子虚拟机。
14.根据权利要求10所述的非暂时性计算机可读存储介质,其中所述虚拟机的集合中的虚拟机被初始化为使用共享存储器的页,并且被初始化为当所述虚拟机需要写入页时,将所述页从所述共享存储器复制到专用存储器。
15.根据权利要求14所述的非暂时性计算机可读存储介质,其中虚拟机基于可比作所述虚拟机对专用存储器的利用的、对共享存储器的利用而从所述虚拟机的集合被选择。
16.根据权利要求10所述的非暂时性计算机可读存储介质,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是多个虚拟机中的、具有最高数目的被改变的存储器页的至少一个虚拟机。
17.根据权利要求10所述的非暂时性计算机可读存储介质,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是已经进行超过预定义阈值的数目的存储器页改变的所述虚拟机中的至少一个虚拟机。
18.根据权利要求10所述的非暂时性计算机可读存储介质,其中当第一主机计算机不能支持虚拟机的集合中的所有所述虚拟机时,所述虚拟机的集合中的至少一个虚拟机需要被迁移,所述虚拟机的集合支持进程并在所述第一主机计算机上运行。
19.一种计算机系统,包括:
至少一个主机计算设备,所述主机计算设备包括用于运行被实例化的虚拟机的处理器和存储器;以及
所述至少一个主机计算设备被配置为:
确定虚拟机的集合中的至少一个虚拟机是否需要与所述集合中的其他虚拟机分离,所述虚拟机的集合支持进程并在第一主机计算机上运行;以及
如果所述虚拟机的集合中的至少一个虚拟机需要与所述虚拟机的集合分离,则基于被改变的存储器页的数目从所述虚拟机的集合选择所述虚拟机中的至少一个虚拟机,并且将所述虚拟机与所述集合中的所述其他虚拟机分离。
20.根据权利要求19所述的计算机系统,其中分离所述虚拟机包括将所述虚拟机迁移到第二主机计算机。
21.根据权利要求19所述的计算机系统,其中分离所述虚拟机包括将所述虚拟机的集合中的所述其他虚拟机迁移到第二主机计算机,并将所述虚拟机留在所述第一主机计算机上。
22.根据权利要求19所述的计算机系统,其中支持进程的所述虚拟机的集合包括父虚拟机和从所述父虚拟机克隆的至少一个子虚拟机。
23.根据权利要求19所述的计算机系统,其中所述虚拟机的集合中的虚拟机被初始化为使用共享存储器的页,并且被初始化为当所述虚拟机需要写入页时,将所述页从所述共享存储器复制到专用存储器。
24.根据权利要求19所述的计算机系统,其中虚拟机基于可比作所述虚拟机对专用存储器的利用的、对共享存储器的利用而从所述虚拟机的集合被选择。
25.根据权利要求19所述的计算机系统,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是多个虚拟机中的、具有最高数目的被改变的存储器页的至少一个虚拟机。
26.根据权利要求19所述的计算机系统,其中与所述集合中的所述其他虚拟机分离的所述虚拟机是已经进行超过预定义阈值的数目的存储器页改变的所述虚拟机中的至少一个虚拟机。
27.根据权利要求19所述的计算机系统,其中当第一主机计算机不能支持虚拟机的集合中的所有所述虚拟机时,所述虚拟机的集合中的至少一个虚拟机需要被迁移,所述虚拟机的集合支持进程并在所述第一主机计算机上运行。
CN201580048352.7A 2014-09-09 2015-09-08 被克隆的虚拟机的负载均衡 Pending CN106687926A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/481,832 US9389901B2 (en) 2014-09-09 2014-09-09 Load balancing of cloned virtual machines
US14/481,832 2014-09-09
PCT/US2015/048997 WO2016040357A2 (en) 2014-09-09 2015-09-08 Load balancing of cloned virtual machines

Publications (1)

Publication Number Publication Date
CN106687926A true CN106687926A (zh) 2017-05-17

Family

ID=55437605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580048352.7A Pending CN106687926A (zh) 2014-09-09 2015-09-08 被克隆的虚拟机的负载均衡

Country Status (4)

Country Link
US (3) US9389901B2 (zh)
EP (1) EP3191954A4 (zh)
CN (1) CN106687926A (zh)
WO (1) WO2016040357A2 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3274822A4 (en) * 2015-03-27 2018-11-07 Intel Corporation Technologies for virtual machine migration
US10749808B1 (en) * 2015-06-10 2020-08-18 Amazon Technologies, Inc. Network flow management for isolated virtual networks
US11429442B2 (en) * 2015-06-29 2022-08-30 Vmware, Inc. Parallel and distributed computing using multiple virtual machines
US9977696B2 (en) * 2015-07-27 2018-05-22 Mediatek Inc. Methods and apparatus of adaptive memory preparation
US9870248B2 (en) * 2015-08-13 2018-01-16 Red Hat Israel, Ltd. Page table based dirty page tracking
US20180246751A1 (en) * 2015-09-25 2018-08-30 Intel Corporation Techniques to select virtual machines for migration
US10116750B2 (en) * 2016-04-01 2018-10-30 Intel Corporation Mechanism for highly available rack management in rack scale environment
US10447591B2 (en) * 2016-08-30 2019-10-15 Oracle International Corporation Executing multiple virtual private network (VPN) endpoints associated with an endpoint pool address
US10346191B2 (en) * 2016-12-02 2019-07-09 Wmware, Inc. System and method for managing size of clusters in a computing environment
US10838624B2 (en) 2018-01-31 2020-11-17 Hewlett Packard Enterprise Development Lp Extent pool allocations based on file system instance identifiers
US11108687B1 (en) 2018-09-12 2021-08-31 Amazon Technologies, Inc. Scalable network function virtualization service
US10834044B2 (en) 2018-09-19 2020-11-10 Amazon Technologies, Inc. Domain name system operations implemented using scalable virtual traffic hub
US11113109B2 (en) * 2020-01-14 2021-09-07 Vmware, Inc. Cluster resource management using adaptive memory demand
US20220035905A1 (en) * 2020-07-31 2022-02-03 Palo Alto Networks, Inc. Malware analysis through virtual machine forking

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080098154A1 (en) * 2002-07-11 2008-04-24 Microsoft Corporation Method for forking or migrating a virtual machine
US20110131569A1 (en) * 2009-11-30 2011-06-02 Itamar Heim Mechanism for Load Balancing in a Memory-Constrained Virtualization System

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005018249A1 (en) 2003-08-19 2005-02-24 Telecom Italia S.P.A. System architecture method and computer program product for managing telecommunication networks
US8151263B1 (en) * 2006-03-31 2012-04-03 Vmware, Inc. Real time cloning of a virtual machine
US7673113B2 (en) 2006-12-29 2010-03-02 Intel Corporation Method for dynamic load balancing on partitioned systems
US7925850B1 (en) * 2007-02-16 2011-04-12 Vmware, Inc. Page signature disambiguation for increasing the efficiency of virtual machine migration in shared-page virtualized computer systems
US8468288B2 (en) * 2009-12-10 2013-06-18 International Business Machines Corporation Method for efficient guest operating system (OS) migration over a network
US9389895B2 (en) 2009-12-17 2016-07-12 Microsoft Technology Licensing, Llc Virtual storage target offload techniques
US8726275B2 (en) * 2009-12-18 2014-05-13 International Business Machines Corporation Selective partial cloning of virtual machines in a virtual computing environment
US8631405B2 (en) * 2010-02-26 2014-01-14 Red Hat Israel, Ltd. Identification and placement of new virtual machines based on similarity of software configurations with hosted virtual machines
US9317314B2 (en) * 2010-06-29 2016-04-19 Microsoft Techology Licensing, Llc Techniques for migrating a virtual machine using shared storage
US9183157B2 (en) * 2011-03-15 2015-11-10 Huawei Technologies Co., Ltd. Method for creating virtual machine, a virtual machine monitor, and a virtual machine system
US8793684B2 (en) * 2011-03-16 2014-07-29 International Business Machines Corporation Optimized deployment and replication of virtual machines
US9116803B1 (en) * 2011-09-30 2015-08-25 Symantec Corporation Placement of virtual machines based on page commonality
WO2013125160A1 (ja) 2012-02-22 2013-08-29 パナソニック株式会社 仮想計算機制御装置、及び仮想計算機制御方法
US9501224B2 (en) * 2012-04-03 2016-11-22 Goolge Inc. Method and system for memory oversubscription for virtual machines
US9172587B2 (en) * 2012-10-22 2015-10-27 International Business Machines Corporation Providing automated quality-of-service (‘QoS’) for virtual machine migration across a shared data center network
US9372726B2 (en) * 2013-01-09 2016-06-21 The Research Foundation For The State University Of New York Gang migration of virtual machines using cluster-wide deduplication
US10241814B2 (en) * 2013-01-29 2019-03-26 Red Hat Israel, Ltd. Virtual machine memory migration by storage
US9280385B2 (en) * 2013-12-19 2016-03-08 International Business Machines Corporation Optimally provisioning and merging shared resources to maximize resource availability
US9513949B2 (en) * 2014-08-23 2016-12-06 Vmware, Inc. Machine identity persistence for users of non-persistent virtual desktops
US11074092B2 (en) * 2015-12-18 2021-07-27 Intel Corporation Virtual machine batch live migration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080098154A1 (en) * 2002-07-11 2008-04-24 Microsoft Corporation Method for forking or migrating a virtual machine
EP1380947A3 (en) * 2002-07-11 2008-11-05 Microsoft Corporation Method for forking or migrating a virtual machine
US20110131569A1 (en) * 2009-11-30 2011-06-02 Itamar Heim Mechanism for Load Balancing in a Memory-Constrained Virtualization System

Also Published As

Publication number Publication date
US11809913B2 (en) 2023-11-07
WO2016040357A2 (en) 2016-03-17
EP3191954A4 (en) 2018-05-02
US9389901B2 (en) 2016-07-12
US20170249188A1 (en) 2017-08-31
US20220019468A1 (en) 2022-01-20
US20160070587A1 (en) 2016-03-10
US11132234B2 (en) 2021-09-28
WO2016040357A3 (en) 2016-05-06
EP3191954A2 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
CN106687926A (zh) 被克隆的虚拟机的负载均衡
CN112470127B (zh) 用于高效资源管理的自动集群合并
US11595260B2 (en) Automatic placement of clients in a distributed computer system satisfying constraints
US10146591B2 (en) Systems and methods for provisioning in a virtual desktop infrastructure
US10241674B2 (en) Workload aware NUMA scheduling
US20190213647A1 (en) Numa-based client placement
US20200142753A1 (en) Dynamic reallocation of resources in accelerator-as-a-service computing environment
EP3425883B1 (en) Load balancing of resources
US9298512B2 (en) Client placement in a computer network system using dynamic weight assignments on resource utilization metrics
US10298512B2 (en) System and method for performing resource allocation for a host computer cluster
US20130339956A1 (en) Computer system and optimal arrangement method of virtual machine in computer system
EP2819010A2 (en) Performance-driven resource management in a distributed computer system
US20150212856A1 (en) System and method for performing resource allocation for a host computer cluster
US20150120931A1 (en) Automatic remediation in a distributed computer system with multiple clusters of host computers
US20140130048A1 (en) Dynamic scaling of management infrastructure in virtual environments
US10069906B2 (en) Method and apparatus to deploy applications in cloud environments
JP7003692B2 (ja) 情報処理装置,情報処理システムおよび制御プログラム
CN108509147A (zh) 数据块迁移
US20210303327A1 (en) Gpu-remoting latency aware virtual machine migration
US10374967B2 (en) Profile-based placement of clients
US9313263B2 (en) Assignment of applications in a virtual machine environment based on data access pattern
US9971785B1 (en) System and methods for performing distributed data replication in a networked virtualization environment
US11886926B1 (en) Migrating workloads between computing platforms according to resource utilization
US10129331B2 (en) Load balancing using a client swapping operation
US12045664B1 (en) Classifying workloads for burstable compute platforms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170517