CN115167984A - 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法 - Google Patents

基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法 Download PDF

Info

Publication number
CN115167984A
CN115167984A CN202210817053.7A CN202210817053A CN115167984A CN 115167984 A CN115167984 A CN 115167984A CN 202210817053 A CN202210817053 A CN 202210817053A CN 115167984 A CN115167984 A CN 115167984A
Authority
CN
China
Prior art keywords
virtual machine
machine
physical machine
physical
resources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210817053.7A
Other languages
English (en)
Other versions
CN115167984B (zh
Inventor
于俊洋
王锦江
谷航宇
宋亚林
翟瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202210817053.7A priority Critical patent/CN115167984B/zh
Publication of CN115167984A publication Critical patent/CN115167984A/zh
Application granted granted Critical
Publication of CN115167984B publication Critical patent/CN115167984B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/502Proximity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/503Resource availability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明公开一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,包括:输入物理机和待迁移的虚拟机列表;将虚拟机列表按CPU利用率降序排序,将物理机列表按能效降序排序;基于排序后的物理机和虚拟机的列表,判断物理机的CPU、内存和带宽资源是否满足可支配资源多于虚拟机的请求资源的条件,如果满足该条件且物理机的状态、物理机被虚拟机放置的位置没有过载,则执行下一步;计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离,将距离最短的物理机作为最终的迁移目的物理机。本发明有利于节约能源和减少违反服务水平协议的比例。

Description

基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置 方法
技术领域
本发明涉及动态虚拟机整合技术领域,尤其涉及基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法。
背景技术
随着互联网的快速发展,为满足用户所需的计算、网络、存储、平台和应用服务,云计算已逐步得到广泛应用,同时可扩展和弹性的云服务可以满足用户的实时需求。虚拟化技术的应用使得多个租户可以共享物理资源。同时,随着云租户的迅速增加,多个物理服务器的低利用率最终使云数据中心产生了大量的能源消耗和温室气体。根据亚马逊的估计,一个数据中心42%的运营成本来自其能源消耗。高能耗源于云基础设施中使用的大量计算资源以及这些低能效资源。由于其增加了其总成本,因此对云供应商而言是一个巨大的威胁。动态虚拟机整合是近年来的一个热点,它是一种减少云数据中心的能耗的有效方法。在整合的过程中,旨在通过将多个虚拟机从低利用率的PM迁移到高利用率的PM,同时保证服务质量(Qos),然后将低利用率的活跃PM切换到空闲状态,从而降低能耗。
虚拟机放置(VMP)是虚拟机整合的一个重要组成部分,对提高云计算数据中心的生产力有重大影响。VMP的可执行解决方案为解决云数据中心的资源浪费、额外迁移和能源消耗等问题提供了一种新的方法。大多数工作将VMP视为一个多维的装箱问题,常见的解决方案是尽可能地将几乎所有的虚拟机放置在多维资源的PM上,从而提高整个数据中心的资源利用率,但忽略了虚拟机对同一PM的物理资源(CPU、RAM、BW)的竞争和放置在高资源利用率的PM上对虚拟机工作性能的影响。更详细地说,如果一个PM的资源利用率较低,放在该PM上的虚拟机的性能几乎不受影响。但是,如果虚拟机放在资源利用率高的 PM上,虚拟机的性能就会下降。因此,保持云数据中心的虚拟机的高工作状态,并在一定程度上提高PM的资源利用率是至关重要的。
发明内容
本发明针对在虚拟机的放置过程中,大量的工作只是对传统的算法PABFD 的应用,只考虑虚拟机放置在物理机上前后的能量消耗,尽可能减少放置虚拟机产生的能源消耗,但忽略了数据中心中虚拟机对高资源利用率的主机的资源抢占而导致的虚拟机工作性能下降的问题,提出一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法。
为了实现上述目的,本发明采用以下技术方案:
一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,包括:
步骤1:输入物理机和待迁移的虚拟机列表;
步骤2:将虚拟机列表按CPU利用率降序排序,将物理机列表按能效降序排序;
步骤3:基于排序后的物理机和虚拟机的列表,判断物理机的CPU、内存和带宽资源是否满足可支配资源多于虚拟机的请求资源的条件,如果满足该条件且物理机的状态、物理机被虚拟机放置的位置没有过载,则执行步骤4;
步骤4:计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离,将距离最短的物理机作为最终的迁移目的物理机。
进一步地,所述步骤4包括:
在三维空间中,用平面N表示等分物理机的资源,用平面M表示虚拟机的请求资源,其中,N由O、E、F、D四点组成,坐标分别为(0,0,0)、(0,1,0)、(1,1,1)、 (1,0,1);M由A、B、C三点组成,坐标分别为
Figure BDA0003742832840000021
Figure BDA0003742832840000022
其中
Figure BDA0003742832840000023
表示虚拟机vj的CPU请求资源所占物理机pi的比例,
Figure BDA0003742832840000024
表示虚拟机vj的带宽请求资源所占物理机pi的比例,
Figure BDA0003742832840000025
表示虚拟机vj的Ram请求资源所占物理机pi的比例;
假设平面M的法向量为
Figure BDA0003742832840000026
Figure BDA0003742832840000027
的求解过程如下:
Figure BDA0003742832840000028
平面N的法向量为
Figure BDA0003742832840000029
Figure BDA00037428328400000210
的求解过程如下:
Figure BDA00037428328400000211
法向量
Figure BDA00037428328400000212
Figure BDA00037428328400000213
的夹角为:
Figure BDA00037428328400000214
用cosα表征计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离;
服务水平协议SLA定义如下:
Figure BDA0003742832840000031
约束条件为:
Figure BDA0003742832840000032
Figure BDA0003742832840000033
其中
Figure BDA0003742832840000034
表示第j个虚拟机请求分配的CPU资源,
Figure BDA0003742832840000035
表示能给第j个虚拟机分配的CPU资源,xij表示第j个虚拟机和第i个物理机之间的映射关系,
Figure BDA0003742832840000036
表示第i个物理机的最大CPU容量,
Figure BDA0003742832840000037
表示能给第j个虚拟机的分配内存资源,
Figure BDA0003742832840000038
表示第i个物理机的最大内存容量,m表示待迁移虚拟机总个数;
按照如下方式求解距离最短的物理机:
Minmizecosα (20)
Minmize:E (21)
Minmize:SLA (22)
其中E表示总能耗。
进一步地,按照如下方式计算第j个虚拟机和第i个物理机之间的映射关系:
Figure BDA0003742832840000039
其中vj表示第j个虚拟机,j∈<1,...,m>;pi表示第i个物理机,i∈<1,...,n>, n表示活动状态物理机总个数。
进一步地,按照如下方式计算总能耗E:
Figure BDA00037428328400000310
Figure BDA00037428328400000311
Figure BDA0003742832840000041
其中,P(ui)表示物理机pi的功耗,
Figure BDA0003742832840000042
表示物理机pi0%的CPU利用率时的最小待机功率,
Figure BDA0003742832840000043
表示物理机pi 100%的CPU利用率时的最大功率,
Figure BDA0003742832840000044
表示物理机pi的CPU利用率,
Figure BDA0003742832840000045
表示物理机pi产生的能耗,P(ui(t))表示t时刻的物理机pi的功耗,t1,t2表示任意两个时间节点,t2大于t1
与现有技术相比,本发明具有的有益效果:
为了使放置虚拟机的方式更加平衡,本发明引入整体资源(CPU、内存、带宽)之间的距离来评估其平衡性。本发明在保证服务质量的前提下,减少云数据中心的能源消耗和迁移次数,同时考虑到PM的高资源利用率对虚拟机性能下降的影响,该方法有利于节约能源和减少违反服务水平协议的比例。
与BCAVMP算法相比,所提出的方法能够使云数据中心的能耗、迁移次数、 SLAV、ESV分别平均降低3.50%、9.40%、78.40%和79.91%。
附图说明
图1为本发明实施例一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法的流程图;
图2为本发明实施例的系统架构图;
图3为本发明实施例被迁移的虚拟机所占用的总体资源(CPU、RAM、BW) 的百分比示意图;
图4为本发明实施例迁移目的物理机得出伪代码之一;
图5为本发明实施例迁移目的物理机得出伪代码之二;
图6为本发明实施例迁移目的物理机得出伪代码之三;
图7为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的能耗对比;
图8为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的迁移数量对比;
图9为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的PDM对比;
图10为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的SLATAH 对比;
图11为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的SLAV对比;
图12为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的ESV对比;
图13为本发明实施例PABFD与LBVMP在不同虚拟机选择算法的主机关闭数量对比。
具体实施方式
为了便于理解,对本发明的具体实施方式中出现的部分名词作以下解释说明:
物理资源竞争:虚拟机放置在高利用率的物理机上会使虚拟机之间竞争物理资源,影响虚拟机正常的工作性能与状态。
下面结合附图和具体的实施例对本发明做进一步的解释说明:
如图1所示,一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,包括:
步骤1:输入物理机和待迁移的虚拟机列表;
步骤2:将虚拟机列表按CPU利用率降序排序,将物理机列表按能效降序排序;
步骤3:基于排序后的物理机和虚拟机的列表,判断物理机的CPU、内存和带宽资源是否满足可支配资源多于虚拟机的请求资源的条件,如果满足该条件且物理机的状态、物理机被虚拟机放置的位置没有过载,则执行步骤4;
步骤4:计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离,将距离最短的物理机作为最终的迁移目的物理机。
具体地,图2显示了本方法的系统架构。我们假设该框架由M个虚拟机、 N个虚拟机管理系统和N个物理机组成,N个物理机(PM)的状态有三种,过载、正常和欠载。每个PM都嵌入了虚拟机管理系统,该系统用于不断监测PM 的状态。该系统包含重要的组件,即虚拟机监控(VMM)模块和VMP模块。根据PM的工作状态,VM的性能被实时监控。当VMM模块监测到PM的工作状态是过载或欠载时,基于LBVMP的VMP模块就会触发,将所有的虚拟机放置在高能效的PM上,并以更平衡的方式减少云数据中心中高资源利用率的PM 数量,包括CPU、RAM和BW。如果PM处于过载状态,产生更多的能源消耗,放在这个PM上的虚拟机的性能就会受到影响,因为本地资源的竞争,为了性能,将一些虚拟机从过载的PM上迁移是非常必要的。而且,如果PM处于欠载状态,系统会迁移所有的虚拟机并将PM切换到空闲状态以节省能源。表1列出了用于本方法使用的符号,以方便理解本发明。
表1.本方法使用部分符号释义
Figure BDA0003742832840000061
当云数据中心中的一组PM处于活动状态时,由于PM工作状态的改变,PM 的CPU会瞬间改变,功率根据CPU的利用率而变化。功率消耗定义如下:
Figure BDA0003742832840000062
其中P(ui)表示物理机pi的功耗。
PM的功率将随着CPU利用率的变化而波动,这意味着PM的能量消耗是功率和CPU利用率的函数。因此,能量消耗定义如下:
Figure BDA0003742832840000071
其中t1,t2表示任意两个时间节点,t2大于t1
因此,总能耗是由云数据中心中处于活动状态的一组PM产生的,用E表示,其定义如下:
Figure BDA0003742832840000072
其中n表示活动状态物理机总个数。
当使用虚拟机实时迁移技术时,一组虚拟机可以在主机之间转移而不挂起。平均性能下降相当于迁移期间虚拟机CPU利用率的10%。因此,虚拟机迁移的开销被表示为:
Figure BDA0003742832840000073
其中迁移时间为:
Figure BDA0003742832840000074
在本节中,我们使用数学公式来表达所提出的概念来解决虚拟机放置问题。我们假设,在一个数据中心里。一组PM呈现为PM={p1,p2,...,pn},(i∈<1,..., n>),而一组虚拟机则表现为VM={v1,v2,...,vm},(j∈<1,...,m>)。一组PM和虚拟机的特点是由三种资源组成,即CPU、RAM和BW。我们使用xij,虚拟机和PM之间的映射关系定义如下:
Figure BDA0003742832840000075
在云计算数据中心中,能效指标是所有类型的PM的特征,它的优势在于以更高的CPU单位功率来降低能耗。单位功率,用ρi表示,定义为:
Figure BDA0003742832840000076
随着虚拟机迁移的实施,虚拟机放置模块会触发,然后选择最合适的目标 PM,并发生迁移。如果迁移的虚拟机放置了PM,相关的资源(PM的CPU、 RAM和BW)将被改变。剩余的CPU、RAM和BW的资源定义如下:
Figure BDA0003742832840000081
Figure BDA0003742832840000082
Figure BDA0003742832840000083
当虚拟机迁移过程发生时,虚拟机将被迁移到新的PM,同时满足PM有足够的资源容量使用VM的条件。剩余资源(CPU、RAM、BW)的比例,即VM 占用的PM资源,定义如下:
Figure BDA0003742832840000084
Figure BDA0003742832840000085
Figure BDA0003742832840000086
一个虚拟机从高资源利用率的PM迁移到正常利用率或低利用率的PM,这可能会减少物理资源竞争的可能性。考虑到实现资源平衡的目标,这一点非常重要。为了在三维资源空间中实现PM的资源平衡的目的,它可以实现云数据中心的负载平衡。
图3显示了被迁移的虚拟机所占用的总体资源(CPU、RAM、BW)的百分比,用于实现所提出的负载均衡方案。
如图3所示,在三维空间中,现有平面可以将资源空间分解为等份,即平面 N由四个点(O、E、F、D)围成等分PM的资源,四个点坐标分别为(0,0,0)、 (0,1,0)、(1,1,1)、(1,0,1);平面M被由公式(12)、公式(11)和公式(13)计算的 VM的请求资源(A、B、C三个点)所占用的PM剩余资源包围,三个点坐标分别为
Figure BDA0003742832840000087
定义:资源平衡。为了实现负载平衡,根据PM的剩余资源被VM的请求资源所占据,以及那么从平面M到平面N的最短距离。最终,平面M和平面N 之间的距离越短,资源分配就越平衡,可以减少资源竞争。
我们假设平面M的法向量为
Figure BDA0003742832840000091
其中两点
Figure BDA0003742832840000092
Figure BDA0003742832840000093
属于这个M,
Figure BDA0003742832840000094
的求解过程如下:
Figure BDA0003742832840000095
平面N的法向量为
Figure BDA0003742832840000096
其中两点F(1,1,1),E(0,1,0)为平面N的两点,那么法向量
Figure BDA0003742832840000097
的解就如下:
Figure BDA0003742832840000098
法向量
Figure BDA0003742832840000099
Figure BDA00037428328400000910
的夹角为:
Figure BDA00037428328400000911
当cosα值较小时,负载均衡、节能的目标可以满足云数据中心的虚拟机和性能。具体地,用cosα表征计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离。
同时,更少的迁移将降低服务水平协议SLA违规。SLA定义如下:
Figure BDA00037428328400000912
约束条件为:
Figure BDA00037428328400000913
Figure BDA00037428328400000914
其中
Figure BDA00037428328400000915
表示虚拟机vj请求分配的CPU资源,m表示待迁移虚拟机总个数。
约束条件说明,放置目标PM的新VM应该满足以下条件,该虚拟机的请求资源小于PM在CPU和内存方面的剩余的CPU和内存资源容量。
在本方法中,为了对一组PM进行负载平衡,其目标是最小的能源消耗,关于云数据中心的公式(16)和(17)的最小值,这些问题定义如下:
Minmize:cosα (20)
Minmize:E (21)
Minmize:SLA (22)
其中E表示总能耗。
最终通过上述方式得到距离最短的物理机,并作为最终的迁移目的物理机。
为更好的理解本发明,对本发明进行一步展开阐述:
当虚拟机管理系统的监控模块检测到资源利用率较高的PM时,物理资源将被多个虚拟机相互争夺,这对虚拟机的工作性能产生了影响。同时,虚拟机会产生SLA违约率、能源消耗和性能下降的情况。然后,管理系统与VMP管理模块进行通信以触发迁移,使PM的利用率达到正常水平。虚拟机放置是虚拟机整合的主要内容,也被称为多维bin-packing过程,是一个映射虚拟机和PM之间关系的N-P难问题。基于所提出的方法,虚拟机以更平衡的方式放置PM,可以实现减少额外的迁移以避免违反SLA,并通过达到资源平衡来减少能源消耗的目标。算法1说明了虚拟机放置的过程,其中包括算法2这个关键模块,即为虚拟机寻找最合适的目标PM,通过使用公式(16)计算距离如算法3所示。相关算法介绍如下。
正如在算法1中所示,解决虚拟机和PM之间的映射关系的算法。该算法的输入是一个准备迁移的主机和虚拟机的列表。首先,在第1行初始化映射关系,在第2行启动PM分配。在第3-4行,按CPU利用率降序排列虚拟机列表,按能源效率降序排列PM列表。然后,在循环中,虚拟机放置的核心是在第6行使用算法2选择基于提议的方法的最合适的PM,如果PM存在,则在第8至12 行将虚拟机和PM添加到迁移列表中,最后在第14行返回该映射关系。
在虚拟机整合过程中,为虚拟机找到最合适的PM起着重要的作用,在本方法中,考虑到云数据中心中PM的物理平衡资源,能够实现我们的目标。
如算法2显示了虚拟机和PM之间的映射关系。首先,算法的输入是主机和虚拟机的列表,并在第1行启动分配的PM,在第2至15行的这个循环中,从列表中选择最合适的主机。其次,在第4-12行中,如果PM的CPU、RAM和 BW资源满足可支配资源多于VM的请求资源的条件,那么如果满足这个条件并受制于下一个条件,即PM的状态和PM被VM放置的位置没有过载。只有满足这两个条件,才能在第9-12行用算法3选择距离最短的PM,最后在第13行返回最合适的PM。
如上述算法3所示,计算PM占用的虚拟机剩余资源与负载均衡资源之间的距离。首先,该算法的输入是PM和VM,输出是距离。
在第1-3行,通过公式(12)、(13)和(11),计算PM占用的剩余资源(CPU、 BW和Ram)的比例。第4行启动向量m、n,在第6-7行使用公式(14)和公式(15)计算法向量的结果。最后,第9行使用公式(16)来获得最终距离。
时间复杂度分析:我们假设迁移的虚拟机数量为M,并选择了一组N个PM,时间复杂度为O(NlogN),因为执行排序的能效是降级排序的。当虚拟机被放置在PM上时,很明显,PM的选择时间复杂度为O(M),算法1的时间复杂度为 O(N logN+MN),同时,在最坏情况下,当M等于N时,时间复杂度为O(N2)。
为了验证所提出方法的有效性。本实验的模拟平台使用cloudsim工具包,该工具模拟了云数据拥有800台异构服务器的中心。有两种类型的服务器:HP ProLiantML110 G4(英特尔至强3040 2核*1860MHz,4GB)和HP ProLiant ML110 G5(英特尔至强3075 2核*2260MHz,4GB)。每台服务器由CPU的处理能力指定,以每秒百万条指令(MIPS)为单位,数量为RAM和网络带宽以及表2中的具体信息。瓦特单位是用于测量服务器的能耗,以及服务器的能耗,表4详细描述了不同使用级别的服务器。然后我们使用四种类型的Amazon EC2虚拟机,详细信息在表3。为了评判所提算法在真实云中的工作性能,本方法使用planetlab提供的10个工作负载,这是一个计算机集群项目分布在世界各地。它收集CPU利用率来自全球500多个地点的服务器的虚拟机数据。该项目每五分钟测量一次每台服务器的CPU利用率测量周期为1天。我们选择了一个为期10天的工作负载跟踪2011年3月至2011年4月。表5显示了10 天的具体信息。
表2.服务器类型
Figure BDA0003742832840000111
表3.虚拟机类型
Figure BDA0003742832840000121
表4.不同利用率下主机(物理机)的功率
Figure BDA0003742832840000122
表5.planetlab测量数据
Figure BDA0003742832840000123
(1)性能评估
在云数据中心,用户提交资源请求以创建虚拟机,并与数据中心签订服务水平协议。根据论文,服务水平协议由能力定义即物理机和之前推荐的软件测量环境必须满足服务质量要求。
SLATAH表示利用率所在的活动主机的百分比,定义为:
Figure BDA0003742832840000124
N是所有PM的数量,
Figure BDA0003742832840000125
是PM pi经历超载的时间状态,CPU利用率为 100%,而
Figure BDA0003742832840000126
是pi处于活动状态的总时间(为虚拟机提供服务)的状态。
当VMP的监控器触发时,一些虚拟机将迁移到目标PM上,虚拟机的性能将受到影响。迁移到目标PM上,从而影响虚拟机的性能。PDM,即由于虚拟机迁移而导致的性能下降,定义如下:
Figure BDA0003742832840000131
其中M是虚拟机的数量,Dj是vj引起的性能下降迁移造成的性能下降,而
Figure BDA0003742832840000132
是vj在其生命周期内要求的CPU容量。
提出了一个违反服务水平协议(SLA)的综合度量,以衡量由PM和VM的过载状态引起的性能下降和服务质量障碍:
SLAV=SLATAH*PDM (25)
我们使用SLATAH、PDM和SLA指标来评估违反服务水平协议的程度并表达服务质量。
由于能源消耗可以在增加违反服务水平协议的代价下减少,所以根据ESV 结合能源消耗和违反服务水平协议(SLAV)的性能指标进行了讨论。其定义如下:
ESV=E*SLAV (26)
其中,E表示云数据中心中所有PM产生的能量消耗。
虚拟机迁移的数量:在虚拟机迁移的过程中,虚拟机的性能会下降,并且会造成PM的额外成本。这将导致一些应用程序关闭。因此,必须减少虚拟机迁移的次数。
能源消耗:大多数研究已经确定,CPU的使用与内存、网络接口或磁盘存储相比,CPU资源的使用可能产生更多的能源消耗。测量的能源消耗是基于 SPECpower基准结果的真实数据SPECpower基准测试结果。如表4所示,当利用率低的服务器被切换到低功耗状态时,服务器产生的能量消耗会显著减少。因此,有必要减少活动服务器的数量来实现节能的目标。
(2)对比方法
为了有效验证所提出的方法(LBVMP)的性能。与功率感知最佳拟合递减启发式算法(PABFD)进行了比较。这五种主机状态检测算法由THR、IQR,LR, MAD,和LRR,以及两种重要的虚拟机迁移选择算法由最小迁移时间(MMT) 和最大相关度(MC)组成。嵌入PABFD,并与提议的方法(LBVMP)进行了比较。同时,IQR、LR、LRR和MAD的安全参数设置为1.2,THR的安全参数设置为0.8,THR设定为0.8。所有的比较实验都是在10个工作负载的状态下使用cloudsim进行比较的。
(3)实验结果分析
在本小节中,提出的LBVMP算法的性能与基线方法进行对比,并基于性能指标使用10个工作负载进行评估。
表6.算法LBVMP与BCAVMP的对比结果
Figure BDA0003742832840000141
为了证明所提出的方法(LBVMP)与最先进的方法BCAVMP算法相比的性能,表6显示了基于性能指标的仿真结果。首先,LBVMP在迁移方面的表现优于BCAVMP,平均减少了9.40%的迁移次数,而在iqr_mmt、mad_mmt和 three_mmt的迁移方面,LBVMP的结果小于BCAVMP。第二,LBVMP与BCAVMP 相比在SLAV方面具有优势,平均减少了78.04%。第三,LBVMP在节能方面有更好的表现,与BCAVMP相比,它平均降低了云数据中心的能耗3.50%。最后,LBVMP在ESV的性能指标上有更大的优势。与BCAVMP相比,平均降低了 79.91%。对BCAVMP和LBVMP的分析表明,所提出的方法在降低能耗、SLAV 和ESV方面具有优势,同时保证了云数据中心的SLA违反率。
图7所示的仿真结果表明,在iqr_mmt,lr_mmt,lrr_mmt,mad_mmt,thr_mmt, iqr_mc,lr_mc,lrr_mc,mad_mc和thr_mc的组合算法中,使用LBVMP算法与 PABFD相比,云数据中心的所有PM产生的能量消耗分别为44。22%、21.7%、 21.7%、36.9%、38.35%、44.54%、23.37%、23.37%、37.51%和37.7已经减少。如图7(a)和图7(b)所示,当虚拟机选择算法为最小迁移时间(MMT)和选择算法为最大相关性(MC)时,所提出的算法与基线方法PABFD算法相比,可分别实现平均32.57%、33.30%的节能改善。所提出的LBVMP方法优先将虚拟机放置在由公式(7)计算出的能效值较高的PM上,并强调了云数据中心的资源平衡,这就得出了一个结论:以更平衡的方式分配资源可以减少由高利用率的活跃PM数量产生的大量能源消耗,在一定程度上违反了节能的有效性。
(4)虚拟机迁移数量对比
仿真结果如图8所示,表明在云数据中心的管理系统中,使用LBVMP算法与PABFD的组合算法iqr_mmt,lr_mmt,lrr_mmt,mad_mmt,three_mmt,iqr_mc,lr_mc, lrr_mc,mad_mc和three_mc相比,PM的虚拟机放置模块引发的迁移数量方面,性能指标分别为12.52%、43.88%、43.88%、25.71%、9.44%、39.28%、54.98%、 54.98%、43.12%和24.51%有所下降。如图8(a)和8(b)所示,当虚拟机选择算法为最小迁移时间(MMT)和选择算法为最大相关性(MC)时,与PABFD算法相比,所提出的算法可以分别平均减少27.09%、43,37%的迁移次数。考虑到云计算数据中心中所有PM的平衡资源,它可以尽可能地满足虚拟机的请求资源,以避免额外的迁移引起虚拟机的性能下降。因此,所提出的方法对云数据中心的服务质量是有帮助的。
图9展示的仿真结果表明,与PABFD相比,在iqr_mmt,lr_mmt,lrr_mmt, mad_mmt,thr_mmt,iqr_mc,lr_mc,lrr_mc,mad_mc和thr_mc等组合算法中,云数据中心的管理系统放置模块触发的虚拟机迁移的性能下降,分别为53.1%、 68.63%、68.63%、55.13%、42.06%、35.26%、55.2%、55.2%、41.07%和23.36%已经减少。当虚拟机选择算法为最小迁移时间(mmt)时,如图9(a)所示,选择算法为最大相关性(MC)时,所提出的算法与PABFD算法相比,可以分别平均减少57.51%、41.98%的关于PDM的性能指标。额外的迁移会增加虚拟机性能下降的成本,所以迁移的数量越少,PDM的值就越低。建议的方法LBVMP 以更均衡的方式分配资源,以减少迁移的数量,避免额外的迁移,这证实了虚拟机的工作性能将得到改善。
仿真结果如图10所示,使用LBVMP算法与PABFD的组合算法 iqr_mmt,lr_mmt,lrr_mmt,mad_mmt,thr_mmt,iqr_mc,lr_mc,lrr_mc,mad_mc, thr_mc相比,云数据中心的PM经历时间的分别被降低41.94%、54.51%、54.94%、 44.76%、42.03%、17.43%、39.25%、39.25%、22.22%、18.54%。如图10所示,当虚拟机选择算法为最小迁移时间(MMT)和选择算法为最大相关性(MC)时,所提出的算法可以将SLATAH方面的性能指标分别平均降低49.06%和27.39%。所提出的基于LBVMP方法的算法是在PM有足够的资源容量时,满足离平衡资源的平面距离最短的条件,可以减少成为过载PM的概率,缩短过载状态下PM的运行时间。
(5)基于SLAV的评估
图11显示的仿真结果表明,在云数据中心使用LBVMP算法与PABFD的组合算法iqr_mmt,lr_mmt,lrr_mmt,mad_mm计算出的SLA违反情况。在云数据中心使用LBVMP算法与PABFD的组合算法iqr_mmt,lr_mmt,lrr_mmt,mad_mmt, thr_mmt,iqr_mc,lr_mc,lrr_mc,mad_mc,and thr_mc相比,分别为73%,85.84%、 85.84%、75.3%、66.37%、46.55%、72.7%、72.7%、53.97%和37.27%有明显下降。如图11(a)所示,当虚拟机选择算法为最小迁移时间(MMT)和如图11(b) 所示选择算法为最大相关性(MC)时,所提出的算法LBVMP与基准方法相比,可以分别平均减少77.27%和56.64%的SLA违反率。主要原因是性能指标,SLAV 与PDM和SLATAH有关。仿真结果显示,根据SLATAH和PDM的性能指标下降,因此,SLAV的值将大大下降,然后它将改善数据中心的服务质量(QoS)。
(6)基于ESV的评估
图12所示的仿真结果表明,在云数据中心使用LBVMP算法与PABFD相比,在iqr_mmt、lr_mmt、lrr_mmt、mad_mmt、thr_mmt、iqr_mc、lr_mc、lrr_mc、 mad_mc和thr_mc等组合中,通过公式(26)计算的ESV分别84.73%、88.81%、 88.81%、83.43%、79.31%、70.16%、79.12%、79.12%、71.73%和61.14%的大幅度下降。如图12所示,当虚拟机选择算法为最小迁移时间(MMT)和选择算法为最大关联度(MC)时,所提出的算法LBVMP与基准方法PABFD相比,可以分别平均降低ESV 85.02%和72.25%。这一结果在平均78.64%的水平上是显著的。性能指标被引入来评估云数据中心违反服务水平协议和能源消耗的整体情况。与PABFD算法相比,结果获得了很大的改善,原因是LBVMP强调了负载平衡的安置,以分配资源,同时虚拟机搜索适当的PM,那么关于ESV的值较低,这象征着所提出的方法在改善能源节约和服务质量方面有更好的表现。
(7)基于主机关闭数量的评估
如图13所示的仿真结果表明,在云数据中心中,使用LBVMP方法与PABFD 的组合算法iqr_mmt,lr_mmt,lrr_mmt,mad_mmt,thr_mmt,iqr_mc,lr_mc,lrr_mc, mad_mc和three_mc相比,性能指标分别为80.74%、80.17%、80.17%、81.54%、80.25%、78.91%、77.1%,77.1%、79.56%和78.87%已经下降。如图13所示,当虚拟机选择算法为最小迁移时间(MMT)和选择算法为最大相关性(MC)时,所提出的算法与PABFD算法相比,可以分别平均减少80.57%、78.31%的主机关闭次数。造成这种结果的主要原因包括:将所有的虚拟机放在由公式(7)估计的能源效率高的PM上,首先是减少CPU利用率低的活动PM的数量,以更平衡的方式解决VMP问题,最后减少数据中心低CPU利用率的活动PM的数量。
综上,为了使放置虚拟机的方式更加平衡,本发明引入整体资源(CPU、内存、带宽)之间的距离来评估其平衡性。本发明在保证服务质量的前提下,减少云数据中心的能源消耗和迁移次数,同时考虑到PM的高资源利用率对虚拟机性能下降的影响,该方法有利于节约能源和减少违反服务水平协议的比例。与 BCAVMP算法相比,所提出的方法能够使云数据中心的能耗、迁移次数、SLAV、 ESV分别平均降低3.50%、9.40%、78.40%和79.91%。
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,其特征在于,包括:
步骤1:输入物理机和待迁移的虚拟机列表;
步骤2:将虚拟机列表按CPU利用率降序排序,将物理机列表按能效降序排序;
步骤3:基于排序后的物理机和虚拟机的列表,判断物理机的CPU、内存和带宽资源是否满足可支配资源多于虚拟机的请求资源的条件,如果满足该条件且物理机的状态、物理机被虚拟机放置的位置没有过载,则执行步骤4;
步骤4:计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离,将距离最短的物理机作为最终的迁移目的物理机。
2.根据权利要求1所述的基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,其特征在于,所述步骤4包括:
在三维空间中,用平面N表示等分物理机的资源,用平面M表示虚拟机的请求资源,其中,N由O、E、F、D四点组成,坐标分别为(0,0,0)、(0,1,0)、(1,1,1)、(1,0,1);M由A、B、C三点组成,坐标分别为
Figure FDA0003742832830000011
Figure FDA0003742832830000012
其中
Figure FDA0003742832830000013
表示虚拟机vj的CPU请求资源所占物理机pi的比例,
Figure FDA0003742832830000014
表示虚拟机vj的带宽请求资源所占物理机pi的比例,
Figure FDA0003742832830000015
表示虚拟机vj的Ram请求资源所占物理机pi的比例;
假设平面M的法向量为
Figure FDA0003742832830000016
的求解过程如下:
Figure FDA0003742832830000017
平面N的法向量为
Figure FDA0003742832830000018
的求解过程如下:
Figure FDA0003742832830000019
法向量
Figure FDA00037428328300000110
Figure FDA00037428328300000111
的夹角为:
Figure FDA00037428328300000112
用cosα表征计算物理机占用的虚拟机剩余资源与负载均衡资源之间的距离;
服务水平协议SLA定义如下:
Figure FDA0003742832830000021
约束条件为:
Figure FDA0003742832830000022
Figure FDA0003742832830000023
其中
Figure FDA0003742832830000024
表示第j个虚拟机请求分配的CPU资源,
Figure FDA0003742832830000025
表示能给第j个虚拟机分配的CPU资源,xij表示第j个虚拟机和第i个物理机之间的映射关系,
Figure FDA0003742832830000026
表示第i个物理机的最大CPU容量,
Figure FDA0003742832830000027
表示能给第j个虚拟机的分配内存资源,
Figure FDA0003742832830000028
表示第i个物理机的最大内存容量,m表示待迁移虚拟机总个数;
按照如下方式求解距离最短的物理机:
Minmize:cosα (20)
Minmize:E (21)
Minmize:SLA (22)
其中E表示总能耗。
3.根据权利要求2所述的基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,其特征在于,按照如下方式计算第j个虚拟机和第i个物理机之间的映射关系:
Figure FDA0003742832830000029
其中vj表示第j个虚拟机,j∈<1,...,m>;pi表示第i个物理机,i∈<1,...,n>,n表示活动状态物理机总个数。
4.根据权利要求3所述的基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法,其特征在于,按照如下方式计算总能耗E:
Figure FDA00037428328300000210
Figure FDA0003742832830000031
Figure FDA0003742832830000032
其中,P(ui)表示物理机pi的功耗,
Figure FDA0003742832830000033
表示物理机pi0%的CPU利用率时的最小待机功率,
Figure FDA0003742832830000034
表示物理机pi100%的CPU利用率时的最大功率,
Figure FDA0003742832830000035
表示物理机pi的CPU利用率,
Figure FDA0003742832830000036
表示物理机pi产生的能耗,P(ui(t))表示t时刻的物理机pi的功耗,t1,t2表示任意两个时间节点,t2大于t1
CN202210817053.7A 2022-07-12 2022-07-12 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法 Active CN115167984B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210817053.7A CN115167984B (zh) 2022-07-12 2022-07-12 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210817053.7A CN115167984B (zh) 2022-07-12 2022-07-12 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法

Publications (2)

Publication Number Publication Date
CN115167984A true CN115167984A (zh) 2022-10-11
CN115167984B CN115167984B (zh) 2023-05-30

Family

ID=83493199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210817053.7A Active CN115167984B (zh) 2022-07-12 2022-07-12 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法

Country Status (1)

Country Link
CN (1) CN115167984B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117032906A (zh) * 2023-10-09 2023-11-10 新立讯科技股份有限公司 农产品基础数据资源池管理方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096601A (zh) * 2011-02-11 2011-06-15 浪潮(北京)电子信息产业有限公司 一种虚拟机迁移的管理方法和系统
CN102236582A (zh) * 2011-07-15 2011-11-09 浙江大学 虚拟化集群负载在多台物理机中均衡分配的方法
WO2012067431A2 (en) * 2010-11-18 2012-05-24 Wisetodd Pte. Ltd. Resource distribution apparatus and method in cloud computing
CN106598733A (zh) * 2016-12-08 2017-04-26 南京航空航天大学 一种云计算能耗关键的三维度虚拟资源调度方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012067431A2 (en) * 2010-11-18 2012-05-24 Wisetodd Pte. Ltd. Resource distribution apparatus and method in cloud computing
CN102096601A (zh) * 2011-02-11 2011-06-15 浪潮(北京)电子信息产业有限公司 一种虚拟机迁移的管理方法和系统
CN102236582A (zh) * 2011-07-15 2011-11-09 浙江大学 虚拟化集群负载在多台物理机中均衡分配的方法
CN106598733A (zh) * 2016-12-08 2017-04-26 南京航空航天大学 一种云计算能耗关键的三维度虚拟资源调度方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
龙恳;胡渝纺;: "一种基于C-RAN架构下资源负载预测方法", 科学技术与工程 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117032906A (zh) * 2023-10-09 2023-11-10 新立讯科技股份有限公司 农产品基础数据资源池管理方法及系统
CN117032906B (zh) * 2023-10-09 2023-12-19 新立讯科技股份有限公司 农产品基础数据资源池管理方法及系统

Also Published As

Publication number Publication date
CN115167984B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
Melhem et al. Markov prediction model for host load detection and VM placement in live migration
Yu et al. Stochastic load balancing for virtual resource management in datacenters
Farahnakian et al. Utilization prediction aware VM consolidation approach for green cloud computing
Yadav et al. Mums: Energy-aware vm selection scheme for cloud data center
Wood et al. Sandpiper: Black-box and gray-box resource management for virtual machines
Liu et al. Optimizing virtual machine consolidation performance on NUMA server architecture for cloud workloads
US20090228589A1 (en) Server and storage-aware method for selecting virtual machine migration targets
WO2016134542A1 (zh) 虚拟机的迁移方法、装置及设备
CN111813330B (zh) 用于分派输入-输出的系统及方法
US20080168457A1 (en) Method for trading resources between partitions of a data processing system
Monil et al. QoS-aware virtual machine consolidation in cloud datacenter
Chae et al. CMcloud: Cloud platform for cost-effective offloading of mobile applications
CN115167984B (zh) 基于云计算平台的考虑物理资源竞争的虚拟机负载均衡放置方法
Xu et al. Chronos: A unifying optimization framework for speculative execution of deadline-critical mapreduce jobs
CN112954012B (zh) 基于负载的改进模拟退火算法的云任务调度方法
JP6795536B2 (ja) Vm性能保証システムおよびvm性能保証方法
Melhem et al. A Markov-based prediction model for host load detection in live VM migration
Wang et al. Effects of correlation-based VM allocation criteria to cloud data centers
CN110865871A (zh) 基于资源合理化应用的虚拟化集群资源调度方法
Banerjee et al. Sla-aware stochastic load balancing in dynamic cloud environment
Arockia et al. Virtual machine consolidation framework for energy and performance efficient cloud data centers
Arianyan et al. New six-phase on-line resource management process for energy and sla efficient consolidation in cloud data centers.
Zhang et al. Workload modeling for virtual machine-hosted application
Kuity et al. chpce: Data locality and memory bandwidth contention-aware containerized hpc
Monteiro et al. Qmapper: Dynamic power and performance management in virtualized web servers clusters

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant