WO2011110026A1 - 一种实现数据中心资源负载均衡的方法及装置 - Google Patents

一种实现数据中心资源负载均衡的方法及装置 Download PDF

Info

Publication number
WO2011110026A1
WO2011110026A1 PCT/CN2010/078247 CN2010078247W WO2011110026A1 WO 2011110026 A1 WO2011110026 A1 WO 2011110026A1 CN 2010078247 W CN2010078247 W CN 2010078247W WO 2011110026 A1 WO2011110026 A1 WO 2011110026A1
Authority
WO
WIPO (PCT)
Prior art keywords
physical machine
load
current
physical
task
Prior art date
Application number
PCT/CN2010/078247
Other languages
English (en)
French (fr)
Inventor
田文洪
卢国明
景晨
钟元椋
胡金安
董旭
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to CN201080005220.3A priority Critical patent/CN102232282B/zh
Priority to PCT/CN2010/078247 priority patent/WO2011110026A1/zh
Publication of WO2011110026A1 publication Critical patent/WO2011110026A1/zh
Priority to US13/451,164 priority patent/US8510747B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5019Workload prediction

Definitions

  • the present invention relates to the field of computer data processing, and more particularly to a method and apparatus for implementing load balancing of data center resources.
  • cloud computing data centers have a large number of physical servers with different specifications.
  • each physical server can virtualize multiple virtual machines to deploy and schedule resources for users.
  • the main process of the cloud computing data center scheduling system is shown in Figure 1: The user initiates a request through the Internet; the super scheduling center submits the request to the appropriate data center according to the user's identity characteristics and the requested service characteristics, and then the data center
  • the management program is submitted to a scheduling domain, and a scheduling algorithm is executed in the scheduling domain to allocate the resource request.
  • the scheduling center simultaneously performs optimization operations in the background, and the resources of different data centers are classified according to the optimization objective function, idleness, and configuration information. Sorting, for later use; After the resource request is allocated, the scheduling task is executed, the resources are deployed, and the user starts using the resource.
  • the cloud computing data center dynamically and dynamically assigns virtual machines to users according to user requirements specifications.
  • user requirements specifications due to the user's requirement specification and the specification configuration of all physical servers in the data center, it is likely to be inconsistent.
  • the common rotation method, weighted rotation method, minimum load (or number of links) is preferred, weighted minimum load priority method, hash method, etc. are simple.
  • the allocation scheduling method is difficult to achieve physical server load balancing.
  • the rotation method assigns a rotation period to a different physical server in turn by setting a rotation period in advance, and restarts a new rotation after the end of a rotation period. It can be seen that this method does not consider load balancing when allocating virtual machines. The problem.
  • the weighted rotation method sets the weight of the physical server in advance, and selects the physical server in the process of load balancing the virtual machine. If the weight of the selected physical server is 0, the server is skipped and the next one is selected. If the weight of the selected server is not 0, the server is selected and the weight of the server is decremented by 1. The subsequent selection is rotated on the basis of the previous selection, so the number of services obtained by the physical server with high weight is obtained. It is directly proportional to its weight.
  • the minimum load (or number of links) priority method is to check the load status of all physical servers in the current period of time each time the virtual machine is allocated, and then select the physical server to allocate the virtual machine with the least load in the current period of time, but the method It is reasonable to allocate the average amount of access to achieve equalization, not the scheduling and allocation of virtual machines, and can not achieve load balancing of physical resources in the data center.
  • the weighted minimum load first method is similar to the weighted round robin method. Different weights are set for physical servers whose specifications are inconsistent, and the virtual machines are selected according to the weights set by the server.
  • Hash method mainly by pre-designing a hash function, which is used to map the virtual machine of the user's needs to the corresponding physical server, and the execution speed is faster, but how to design the user specification and meet the requirements of different physical server specifications.
  • a hash function that solves the problem of load imbalance is almost impossible.
  • the object of the present invention is to provide a method and device for realizing data center resource load balancing, which can solve user requirement specifications and The physical server load imbalance caused by inconsistent physical server configuration.
  • the embodiment of the invention provides a method for implementing load balancing of data center resources, including:
  • a method for implementing data center resource load balancing which is characterized by comprising:
  • An embodiment of the present invention provides an apparatus for implementing data center resource load balancing, including:
  • the control module is configured to obtain a current utilization rate of each physical machine attribute in the scheduling domain, and determine, according to the current utilization rate, a physical machine that has a remaining capacity to meet the currently allocated task, where the attribute includes a CPU load, a memory load, and a network load;
  • a calculation processing module configured to determine a load average value of the scheduling domain attribute according to the current utilization rate, and calculate a load variance value of the physical machine according to the load average value and a load prediction value of the physical machine attribute;
  • a deployment execution module configured to select the physical machine with the smallest load variance value to deploy the current allocated task.
  • FIG. 1 is a schematic diagram of a reference architecture of an existing scheduling system
  • FIG. 2 is a flowchart of a method for implementing data center resource load balancing according to an embodiment of the present invention
  • FIG. 3 is a specific flowchart of a method for implementing data center resource load balancing according to an embodiment of the present invention
  • FIG. 4 is a schematic structural diagram of an apparatus for implementing data center resource load balancing according to an embodiment of the present invention
  • FIG. 5 is a schematic structural diagram of an apparatus for implementing data center resource load balancing according to an embodiment of the present invention.
  • the embodiment of the present invention provides a method and an apparatus for implementing data center resource load balancing, which can determine, according to the current utilization rate of each physical machine attribute in the acquired scheduling domain, a physical machine whose remaining capacity meets the current assigned task; Configuring a load average value of the domain attribute, and calculating a load variance value of the physical machine according to the load average value and a load prediction value of the physical machine attribute; selecting the physical machine with the smallest load variance value to deploy the current Assignments. Since the remaining capacity is determined according to the current utilization rate of each physical machine attribute obtained, the remaining capacity represents the actual state of each physical machine in the scheduling; in the process of calculating the load variance value, the deployment is performed according to the user task requirement. The load level of the physical machine after the virtual machine is predicted.
  • the existing simple scheduling allocation method in the cloud computing data center cannot solve the problem of load imbalance caused by different user requirements specifications and data center physical server configuration specifications.
  • the utilization of a CPU is defined as: The average utilization of the CPU during time t;
  • the CPU utilization of a physical machine lc is defined as: The average of the utilization of all CPUs on this physical machine;
  • the memory utilization of a physical machine is defined as: The average utilization of the physical machine within the time t;
  • the utilization rate of the network of a physical machine is defined as: the average utilization of the physical machine network in time t; the definition of the network load mean Vn: the utilization of the network of all physical machines in a scheduling domain, based on The average network bandwidth of the physical machine is weighted averaged by the average value Vn;
  • Step 201 Obtain a current utilization rate of physical machine attributes in a scheduling domain, and determine remaining capacity according to the current utilization rate.
  • a physical machine that satisfies the currently assigned task including CPU load, memory load, and network load;
  • Step 202 Determine a load average value of the scheduling domain attribute according to the current utilization rate, and calculate a load variance value of the physical machine according to the load average value and a load prediction value of the physical machine attribute.
  • Step 203 Select a physical machine with the smallest load variance value to deploy the current allocated task.
  • step 201 determining, according to the current utilization rate, a physical machine whose remaining capacity meets the current allocation task, includes:
  • the total load capacity of the physical machine attribute refers to the total size of the CPU, the memory, and the network of the physical machine; the current utilization rate of each physical machine CPU is the actual utilization rate of the CUP. average value.
  • the remaining capacity of each physical machine can be calculated using the formula for the above definition (5) residual capacity.
  • the physical load of the physical machine is defined by the physical machine integrated load form proposed in (4).
  • the specific form of the physical machine PM1 is:
  • step 202 determines a load average value of the scheduling domain attribute according to the current utilization rate, and calculates the physical machine according to the load average value and a load prediction value of the physical machine attribute.
  • Load variance value including:
  • the a%, b%, and c% are the predicted values of the CPU, memory, and network obtained after the virtual machine is deployed on the physical machine, and ⁇ , y, and z are the current CPU load averages in the scheduling domain, and the memory load is Mean and network load mean.
  • the load averages Vc, Vm, and Vn of the attributes in the scheduling domain can be calculated according to the current utilization ratios lc, lm, and In obtained by the obtained attributes according to the method described in the definition (1) (2) (3).
  • a predetermined rule is followed in the prediction of the attribute utilization of the physical machine after the virtual machine is deployed.
  • the predetermined rule includes:
  • the physical load of the physical server is increased for the physical server, so the attribute prediction value is always calculated according to the maximum share required by the virtual machine attributes (CPU, memory, network).
  • the virtual machine attributes CPU, memory, network
  • the method may further include: Determining whether the current assigned task is a single virtual machine task;
  • the physical machine clusters in the scheduling domain are arranged into an n X 3 matrix, and each of the matrix acts as a CPU of a physical machine cluster - utilization in a period of time, memory utilization Rate and network utilization, each column is a cluster of physical machines in the scheduling domain.
  • the optimal physical machine deployment virtual machine task is determined according to the two-dimensional grid algorithm, so the attribute information of each physical machine is arranged in a matrix form.
  • each row of the two-dimensional grid calculates the weighted variance of each attribute of each physical machine in parallel, forming a column of values, and then sorting each column to find the physical machine with the smallest variance value for deployment. .
  • the step 203 selects the physical machine with the smallest load variance value to deploy the current allocated task, including:
  • the current allocation task is a non-single virtual machine task, selecting a physical machine that has the smallest load variance value in the physical machine cluster that satisfies the currently allocated task for deployment;
  • an optional physical or physical machine cluster deploys the currently assigned task.
  • the method may further include:
  • the alarm migration process is triggered.
  • the CPU load value of the current alarm can be used to subtract the CPU load average of the scheduling domain to obtain a difference.
  • the difference is used to compare the CPU utilization of all virtual machines on the physical machine. To determine which virtual machines to remove, specifically, when at least one of the CPU utilizations of the current virtual machine is greater than or equal to the difference, one or more virtual machines are removed, and then the difference is recalculated, and the Whether the CPU of the physical machine still has an alarm. If the alarm still exists, continue to remove the virtual machine.
  • the locating the physical machine for the removed virtual machine is deployed, and the method further includes: Determining, according to the current utilization rate of each physical machine, a physical machine whose remaining capacity satisfies the removed virtual machine allocation task;
  • the process of deploying the removed virtual machine is the same as the process of deploying the task described in the foregoing steps 201, 202, and 203, that is, after the alarm processing, Re-define one or more physical machines for the removed virtual machine task for deployment. Therefore, the process of determining the deployment of the physical machine for the removed virtual machine can be referred to the related content in the foregoing steps 201, 202, and 203, and details are not described herein.
  • the method may further include:
  • the optimization target value is optimized according to the administrator's experience during the optimization process.
  • the virtual machine attribute utilization is used to remove the virtual machine by using the difference between the current utilization rate and the optimization destination value.
  • the process and purpose are similar to the technical solution for removing the virtual machine in the above alarm processing process, for example: when at least one of the current virtual machine CPU utilization is greater than or equal to the difference, one or more virtual files are to be removed. The machine then recalculates the difference until the virtual machine CPU is determined to be less than the difference, ending the removal process of the virtual machine.
  • selecting the physical machine for the removed virtual machine to be deployed further includes: determining, according to the current utilization rate of each physical machine, a physical machine whose remaining capacity meets the removed virtual machine allocation task;
  • the process of deploying the removed virtual machine in the embodiment of the present invention is the same as the process of deploying the task described in the foregoing steps 201, 202, and 203, that is, after the optimization operation, Re-define one or more physical machines for the removed virtual machine task for deployment. Therefore, the process of determining the deployment of the physical machine for the removed virtual machine can be referred to the related content in the foregoing steps 201, 202, and 203, and details are not described herein.
  • the processing priority is set for each of the foregoing three processes, and (2) is greater than (3) is greater than (1), and the foregoing three processes may be performed in the order of the priority, but the embodiment of the present invention does not Limit with this priority order.
  • FIG. 3 is a flowchart showing a specific implementation of the technical solution of the embodiment of the present invention according to the foregoing priority levels:
  • the task allocation process described in the above embodiment is implemented, and if not, an indication that the current task is empty is output.
  • an embodiment of the present invention provides an apparatus for implementing data center resource load balancing, including:
  • the selection control module 41 is configured to obtain a current utilization rate of each physical machine attribute in the scheduling domain, and determine, according to the current utilization rate, a physical machine whose remaining capacity meets the current allocation task, where the attribute includes a CPU load, a memory load, and a network load;
  • the calculation processing module 42 is configured to determine a load average value of the scheduling domain attribute according to the current utilization rate, and calculate a load variance value of the physical machine according to the load average value and a load prediction value of the physical machine attribute ;
  • the deployment execution module 43 is configured to select the physical machine with the smallest load variance value to deploy the current allocated task.
  • the selection control module 41 may include:
  • the calculating unit 411 is configured to use a difference between a total load capacity of each physical machine attribute in the scheduling domain and a current utilization rate of each physical machine attribute as a remaining capacity of each physical machine attribute;
  • the determining unit 412 is configured to compare the remaining capability with the current allocation task, and determine that the remaining capability is greater than or equal to the physical machine currently assigned the task specification.
  • the calculation processing module 42 may include:
  • the prediction unit 421 is configured to predict, according to the physical machine that meets the current allocation task, the utilization rate of the attribute after the virtual machine deploys the virtual machine, to obtain the load prediction value;
  • a determining unit 422 configured to obtain, according to the load average value and the load predicted value, the load variance value; the calculation formula of the load variance value includes:
  • the a%, b%, and c% are the predicted values of the CPU, memory, and network obtained after the virtual machine is deployed on the physical machine, and x, y, and z are the current CPU load averages in the scheduling domain, and the memory load is Mean and network load mean.
  • the device further includes:
  • the task processing module 44 is configured to determine whether the currently allocated task is a single virtual machine task
  • the physical machine clusters in the scheduling domain are arranged into an n X 3 matrix, and each of the matrix acts as a CPU of a physical machine cluster - utilization in a period of time, memory utilization Rate and network utilization, each column is a cluster of physical machines in the scheduling domain.
  • the deployment execution module 43 may include:
  • the selecting unit 431 is configured to determine whether the number of the physical machine or the physical machine cluster having the smallest load variance value is greater than one; and the executing unit 432, when the number of the physical or physical machine cluster is one, Selecting a physical machine or a physical machine cluster with the smallest load variance value in the physical or physical machine cluster that meets the current assigned task for deployment; when the number of the physical or physical machine cluster is greater than one, select one physical The machine or physical machine cluster deploys the current assigned task.
  • the apparatus may further include:
  • the alarm monitoring module 45 is configured to monitor the utilization rate of each physical machine attribute in the scheduling domain;
  • the alarm migration module 46 is configured to determine, when the physical device triggers the alarm migration that the utilization of the attribute exceeds a predetermined value, the removal of the physical machine according to the difference between the alarm value of the attribute and the average value of the attribute load in the scheduling domain.
  • the migration deployment module 47 is configured to find a physical machine for the removed virtual machine for deployment.
  • the migration deployment module 47 further includes:
  • the calculation processing unit 471 is configured to determine, according to the current utilization rate of each physical machine, a physical machine whose remaining capacity meets the removed virtual machine allocation task; and determine a load average value of the scheduling domain attribute according to the current utilization rate of each physical machine, and Calculating a load variance value of the physical machine according to the load mean value and a load predicted value of the physical machine attribute;
  • the deployment execution unit 472 is configured to select the physical machine with the smallest load variance value to deploy the current allocated task.
  • the apparatus may further include:
  • An optimization selection module 48 configured to determine an ID of a physical machine that needs to perform an optimization operation
  • the optimization operation module 49 is configured to compare the current utilization of the attributes of the physical machine with the optimization destination value, and compare the attribute utilization of each virtual machine on the physical machine to determine the virtual machine to be removed;
  • the optimization deployment module 50 is configured to select a physical machine for the removed virtual machine for deployment.
  • the optimization deployment module 50 further includes:
  • the optimization calculation unit 501 is configured to determine, according to the current utilization rate of each physical machine, a physical machine whose remaining capacity meets the removed virtual machine allocation task; and determine a load average value of the scheduling domain attribute according to the current utilization rate of each physical machine, and Calculating a load variance value of the physical machine according to the load mean value and a load predicted value of the physical machine attribute;
  • the optimization deployment unit 502 is configured to select the physical machine with the smallest load variance value to deploy the current allocated task.
  • the device embodiment of the present invention is obtained based on the foregoing method embodiment of FIG. 2, wherein each functional module corresponds to each step in the method embodiment of FIG. 2, and thus the device implemented by the present invention is implemented.
  • the method embodiment of FIG. 2 includes the same or corresponding technical features.
  • the specific technical solutions involved in the device embodiment of the present invention have been similarly described in the embodiment of FIG. 2. For details, refer to FIG. 2 Method embodiments are not described herein.
  • the tasks for assigning virtual machines are as follows:
  • Input Task Virtual Machine Deployment Task Specification VMx: 2CU (2 CPU Compute Unit), 1G RAM, 10M Bandwidth, the task specification can be expressed as (2, 1, 10);
  • Step 100 Obtain a current utilization rate of each physical machine attribute in the scheduling domain.
  • the following three physical machines are set in the scheduling domain, and the total load capacity of the PM1 is 4CU, 3G, and 100M, and the actual utilization rates of the four CPUs obtained are 30%, 30%, 30%, and 20%, respectively. Therefore, the current utilization rate of the CPU obtained according to the actual utilization rate is 30%, the current utilization rate of the obtained memory is 50%, and the current utilization rate of the network is 10% ;
  • the total load capacity of PM2 is 6CU, 3G, 100M, and the actual utilization rate of each of the 6 CPUs obtained is 10%, 10%, 5%, 10%, 10%, 15%, so according to the actual utilization rate.
  • the current CPU utilization rate is 10%
  • the current memory utilization rate is 10%
  • the current network utilization rate is 30%.
  • the total load capacity of the PM1 is 2CU, 2G, and 100M.
  • the actual utilization rate of the two CPUs obtained is 70% and 70%. Therefore, the current CPU utilization rate obtained according to the actual utilization rate is 70%.
  • the current memory utilization rate is 60%, and the current network utilization rate is 40%;
  • PM1 (4CU, 3G, 100M, 30%, 50%, 10%)
  • it includes: calculating, by using the algorithm proposed in the above definition (1) (2) (3), the CPU load mean value Vc, the memory load mean value Vm, and the network load mean value Vn in the scheduling domain.
  • the load variance value D1 is calculated as follows:
  • PM1 (4CU, 2G, 100M, 30%, 50%, 10%);
  • PM2 (6CU, 3G, 100M, 10%, 10%, 30%);
  • the parallel calculation of the previous step generates 2 sub- and Dl, D2, as a column, one-dimensional sorting of this column, find a suitable physical machine with the smallest D value, where the sort result is PM2; PM2 as the physical machine to be deployed;
  • the current load balancing scheduling algorithm is difficult to solve the problem of physical server load imbalance caused by user requirements and physical server specifications inconsistency, and a load balancing algorithm based on dynamic load feedback adjustment is proposed.
  • a load balancing algorithm based on dynamic load feedback adjustment.
  • the load of each physical machine after deploying the virtual machine can be better known. State, select the best physical machine for deployment, in order to ensure load balancing of each physical machine. It is possible to more objectively find the physical machine that balances the system load to solve the problem of unbalanced load caused by different demand rules and server specifications.
  • the storage medium may be a magnetic disk, an optical disk, a read-only memory (ROM), or a random access memory (RAM).

Abstract

本发明涉及一种实现数据中心资源负载均衡的方法及装置,技术方案中所述方法包括:获取调度域内各物理机属性的当前利用率,并根据所述当前利用率确定剩余能力满足当前分配任务的物理机,所述属性包括CPU负载、内存负载及网络负载;根据所述当前利用率确定所述调度域属性的负载均值,并根据所述负载均值及对所述物理机属性的负载预测值计算所述物理机的负载方差值;选择所述负载方差值最小的物理机部署所述当前分配任务。本发明所述装置包括选择控制模块、计算处理模块及部署执行模块。采用本发明的技术方案,能够解决用户需求规定和物理服务器规定不一致造成的物理服务器负载不均衡问题。

Description

一种实现数据中心资源负载均衡的方法及装置 技术领域
本发明涉及计算机数据处理领域, 更具体的说, 涉及一种实现数据中心资源负载均衡的方法及 装置。
发明背景
云计算数据中心作为一些大型服务器集群, 存在大量规格配置存在差异的的物理服务器, 通过 虚拟化技术, 每个物理服务器可以虚拟出多个虚拟机为用户来部署和调度资源。 通常云计算数据中 心调度系统的主要流程如图 1所示: 用户通过 Internet发起请求; 超级调度中心依据用户的身份特 征和请求的业务特征, 将该请求提交给合适的数据中心, 再由数据中心的管理程序提交给某个调度 域, 在调度域内执行某种调度算法, 对该资源请求分配; 调度中心在后台同时执行优化操作, 将不 同数据中心的资源按照优化目标函数和空闲及配置等信息排序, 以备后来者使用; 对该资源请求分 配后, 执行调度任务, 部署资源, 用户开始使用资源。
云计算数据中心将虚拟机按用户需求规格动态地自动化地分配给用户。 但是由于用户的需求规 格和数据中心所有物理服务器的规格配置很可能不一致, 如果采用常用的轮转法, 加权轮转法, 最 小负载 (或链接数) 优先, 加权最小负载优先法, 哈希法等简单的分配调度方法, 很难达到物理服 务器负载均衡。
轮转法通过预先设定一个轮转周期, 依次将用户需求的虚拟机分配给不同的物理服务器, 一个 轮转周期结束后重新开始新一个轮转,可以看出此方法在分配虚拟机时并没有考虑负载均衡的问题。
加权轮转法通过预先对物理服务器设定权值, 在负载均衡分配虚拟机的过程中, 轮转选择物理 服务器, 如果被选择的物理服务器的权值为 0, 则跳过该服务器并选择下一台, 如被选择的服务器的 权值不为 0, 则选中该服务器并将该服务器的权值减 1, 后继的选择在前次选择的基础上轮转, 因此 权值高的物理服务器获得的服务次数就与其权值成正比。
最小负载 (或链接数)优先法在每次分配虚拟机时, 要先检査当前一段时间内所有物理服务器 的负载情况, 然后选择当前一段时间内负载最小的物理服务器分配虚拟机, 但该方法是合理的平均 分配访问量来实现均衡, 不是虚拟机的调度与分配, 不能实现数据中心内各物理资源的负载均衡。
加权最小负载优先法, 与加权轮转法类似, 对规格配置不一致的物理服务器设定不同的权值, 按照服务器设定的权值来选择分配虚拟机。
哈希法, 主要是通过预先设计一个哈希函数, 用于映射用户需求的虚拟机到相应的物理服务器 上, 执行速度较快, 但如何设计既满足用户规格需求又满足不同物理服务器规格配置, 并能解决负 载不均衡的问题的一个哈希函数几乎是不可能的。
在实现本发明过程中, 发明人发现现有技术中至少存在如下问题: 上述简单的分配调度方法, 均不能解决用户规格需求和物理服务器规格配置不一致造成的各物理服务器负载不均衡问题。 发明内容
本发明的目的是提供一种实现数据中心资源负载均衡的方法及装置, 能够解决用户需求规格与 物理服务器配置不一致造成的物理服务器负载不均衡的问题。
本发明实施例提供了一种实现数据中心资源负载均衡的方法, 包括:
一种实现数据中心资源负载均衡的方法, 其特征在于, 包括:
获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定剩余能力满足当前分配 任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载均值及对所述物理机属 性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
本发明实施例提供了一种实现数据中心资源负载均衡的装置, 包括:
选择控制模块, 用于获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定剩 余能力满足当前分配任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
计算处理模块, 用于根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载均 值及对所述物理机属性的负载预测值计算所述物理机的负载方差值;
部署执行模块, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
由上述本发明的实施例提供的技术方案可以看出, 通过对调度域中各物理机的属性以及当前利 用率进行监控, 能够及时确定物理机当前的负载状态, 同时采用均方差最小值法来选择合适的物理 机, 解决了需求规格不同造成的负载不均衡的问题。
附图简要说明
图 1为现有调度系统参考体系结构示意图;
图 2为本发明实施例一种实现数据中心资源负载均衡的方法流程图;
图 3为本发明实施例一种实现数据中心资源负载均衡的方法具体流程图;
图 4为本发明实施例一种实现数据中心资源负载均衡的装置结构示意图;
图 5为本发明实施例一种实现数据中心资源负载均衡的装置具体结构示意图。
实施本发明的方式
本发明实施例一种实现数据中心资源负载均衡的方法及装置, 能够根据获取的调度域内各物理 机属性的当前利用率来确定剩余能力满足当前分配任务的物理机; 根据当前利用率确定所述调度域 属性的负载均值, 并根据所述负载均值及对所述物理机属性的负载预测值计算所述物理机的负载方 差值; 选择所述负载方差值最小的物理机部署所述当前分配任务。 由于剩余能力是根据获取到的各 物理机属性的当前利用率确定的, 因此该剩余能力代表了调度中各物理机的实际状态; 在计算负载 方差值的过程中, 根据用户任务需求对部署虚拟机后的物理机的负载程度进行了预测, 因此能够准 确的考虑到部署虚拟机后各物理机的负载状态, 从而选择合适的虚拟机进行任务部署。 解决了云计 算数据中心现有简单调度分配方法不能解决用户需求规格和数据中心物理服务器配置规格不一样产 生的负载不均衡问题。
下面为了进一步理解本发明实施例的技术方案, 下面结合附图进行说明。
首先, 对本发明实施例的实现过程中涉及的参数进行定义, 具体如下: ( 1 ) 一个 CPU的利用率定义为: 该 CPU在时间 t内的平均利用率;
一台物理机的 CPU的利用率 lc定义为: 这台物理机上所有 CPU的利用率的平均值;
一个调度域内的 CPU负载均值 Vc定义为: 一个调度域内的所有物理机的 CPU利用率, 依据物理机 各自的 CPU个数 (nUi)进行加权平均,得到 CPU负载均值 Vc,负载告警值 δ c=b+Vc,其中 b为自定义常量,
Figure imgf000005_0001
( 2 ) 一台物理机的内存的利用率 lm定义为: 该物理机内存在时间 t内的平均利用率; 内存负载均值 Vm的定义: 一个调度域内的所有物理机的内存的利用率, 依据物理机各自的内存 大小 nu进行加权平均的平均值 Vm;
负载告警值 S m=b+Vm,其中 b为自定义常量, Vm= (∑1π¾ *π¾ ) /∑mi ;
( 3 ) 一台物理机的网络的利用率 In定义为: 此物理机网络在时间 t内的平均利用率; 网络负载均值 Vn的定义: 一个调度域内的所有物理机的网络的利用率, 依据物理机各自的网络 带宽大小 进行加权平均的平均值 Vn;
负载告警值 S n=b+Vn,其中 b为自定义常量, Vn= ( Σ
Figure imgf000005_0002
) /∑ni ;
(4)一台物理机的综合负载 M的定义: 综合负载是一个六维向量, Mi = (Ci, mi, bi, lCi, 1ι¾, lm) ; 其中 Ci 代表物理服务器 i的 CPU计算能力 (可用 CPU clock speed Ghz或等价值衡量) , 1¾表 示物理服务器 i的内存总大小 (可用 Giga byte为单位衡量) , ^表示物理服务器 i的对外总带宽 (可 用 Mbps为单位衡量) , (lCi, lmi, l )分别为前一段时间 t内物理服务器 i的 CPU, 内存和网络带宽的 利用率平均值;
( 5 )物理服务器的剩余能力 (CPU, 内存, 网络) =该物理服务器的总(CPU, 内存, 网络) 能力 -该物理服务器已被暂用的 (CPU, 内存, 网络) 能力; 其中, 剩余能力可以从 (4) 定义的综合负载 六维向量计算出。
如图 2所示, 本发明实施例一种实现数据中心资源负载均衡的方法, 技术方案包括: 步骤 201、获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定剩余能力满足 当前分配任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
步骤 202、根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载均值及对所述 物理机属性的负载预测值计算所述物理机的负载方差值;
步骤 203、 选择所述负载方差值最小的物理机部署所述当前分配任务。
可见, 通过获取调度域内各物理机属性的当前利用率, 能够充分获知当前物理机的实际剩余能 力, 同时, 由于在选择部署的物理机的过程中, 采用了均方差最小值法, 解决了需求规格不同造成 的负载不均衡问题。
在本发明的一个实施例中,步骤 201中根据所述当前利用率确定剩余能力满足当前分配任务的物 理机, 包括:
( 1 )将所述调度域内各物理机属性的总负载能力与所述各物理机属性的当前利用率的差值, 做 为所述各物理机属性的剩余能力;
( 2 )将所述剩余能力与所述当前分配任务的规格做比较, 确定所述剩余能力大于或等于当前分 配任务规格的物理机。
需要说明的是, 本发明实施例中物理机属性的总负载能力是指该物理机具有的 CPU、 内存及网络 的总大小; 各物理机 CPU的当前利用率是其所具有的 CUP实际利用率的平均值。 各物理机的剩余能力 可以采用上述定义 (5 ) 剩余能力的公式计算出来。
例如: 一个物理机 PM1的总负载能力为, (4CU, 3G, 100M) , 该物理机内存的当前利用率是 50%, 网络当前利用率是 10%, 该物理机包含了 4个 CPU, 第一个 CPU实际利用率是 30%, 第二个 CPU实际利用 率是 30%, 第三个 CPU实际利用率是 40%, 第 4个 CPU实际利用率是 20%, 那么该物理机 CPU的当前利用率 为(30%+30%+40%+20%) /4=30%;
用定义 (4)提出的物理机综合负载形式表示该物理机的综合负载 PM1的具体形式为:
PM1= (4CU, 3G, 100M, 30%, 50%, 10%)
PM1属性的剩余能力= (4* ( 1-30%) , 3* ( 1-50%) , 100* ( 1-10%) ) = (2. 8, 1. 5, 90) .
用 PM1的剩余能力与当前分配任务的规格做比较, 来判断是否满足当前分配任务, 例如: 当前分 配任务为 (2, 1 , 10) , 该 PM1的剩余能力满足当前分配任务。 在本发明的一个实施例中, 步骤 202根据所述当前利用率确定所述调度域属性的负载均值, 并根 据所述负载均值及对所述物理机属性的负载预测值计算所述物理机的负载方差值, 具体包括:
( 1 )针对满足所述当前分配任务的物理机, 对所述物理机部署虚拟机后的属性的利用率进行预 测, 获得所述负载预测值;
( 2 )根据所述负载均值及所述负载预测值计算获得所述负载方差值; 所述负载方差值的计算公 式包括:
D= (a%-x) 2+ (b%-y) 2+ (c%- z) 2
其中, a%、 b%、 c%为对所述物理机预测部署虚拟机后获得的 CPU、 内存及网络的负载预测值, χ、 y、 z为所述调度域内当前 CPU负载均值, 内存负载均值及网络负载均值。
具体的说, 调度域内属性的负载均值 Vc、 Vm、 Vn可以根据定义(1 ) ( 2 ) (3)中描述的方法, 来 根据获得的属性当前利用率 lc、 lm、 In计算获得。
在对物理机部署虚拟机后的属性利用率进行预测时, 本发明实施例中要遵循预定的规则, 所述 预定规则包括:
在预测部署虚拟机时, 对于所在物理服务器来说, 该物理服务器的综合负载要增加, 因此总是 按照虚拟机属性(CPU、 内存、 网络)所需的最大份额计算其属性预测值, 以留足资源; 同时若在观 察一段时间 t后发现该虚拟机并未使用到所要求的最大份额, 则再分配虚拟机时进行动态调整。
也就是说, 对于一个物理机来说, 其 CPU预测值 =CPU当前利用率 + (虚拟机所占 CPU/该物理机总 CPU) *100%; 内存预测值 =内存当前利用率 + (虚拟机所占内存 /该物理机总内存) *100%; 网络预测 值=网络当前利用率 + (虚拟机所占网络负载 /该物理机总网络负载) *100%。 在本发明的一个实施例中, 所述方法还可以包括: 判断所述当前分配任务是否为单虚拟机任务;
当所述当前分配任务为单虚拟机任务时, 将所述调度域内的各物理机排列成 n X (m+2)矩阵, m=MAX (单物理机 CPU的个数), 矩阵的每一行为每个物理机各 CPU在一段时间内的利用率、 内存利用率 及网络利用率, 每一列为所述调度域中各物理机;
当所述当前分配任务非单虚拟机任务时, 将所述调度域内各物理机集群排列成 n X 3矩阵, 矩阵 的每一行为一个物理机集群的 CPU—段时间内的利用率, 内存利用率及网络利用率, 每一列为所述调 度域中各物理机集群。
需要说明的是, 由于本发明实施例中是要根据二维网格算法来确定最佳的物理机部署虚拟机任 务, 因此要将每个物理机的属性信息, 排列成矩阵的形式。 使用二维网格算法时, 二维网格每一行 并行计算出每个物理机的各属性的加权后的方差, 形成一列值, 然后每一列再排序找出方差值最小 的物理机进行部署。
由于物理机集群属于特殊业务, 因此集群的 CPU当前利用率用一个能力值来表示, 此能力值为集 群内所有物理机的 CPU实际能力的平均值。 在本发明的一个实施例中, 步骤 203选择所述负载方差值最小的物理机部署所述当前分配任务, 包括:
当所述当前分配任务为单虚拟机任务时, 选择满足所述当前分配任务的物理机中负载方差值最 小的物理机进行部署;
当所述当前分配任务为非单虚拟机任务时, 选择满足所述当前分配任务的物理机集群中负载方 差值最小的物理机进行部署;
当所述负载方差值最小的物理机或物理机集群的数量为大于一个时, 任选一个物理机或物理机 集群部署当前分配任务。 在本发明的一个实施例中, 所述方法还可以包括:
( 1 )对所述调度域内各物理机属性的利用率进行监控;
( 2 )在所述属性的利用率超出预定值的物理机触发告警迁移时, 根据所述属性的告警值与调度 域内该属性负载均值的差值, 确定移除所述物理机上的虚拟机;
( 3 ) 为移除的所述虚拟机寻找物理机进行部署。
具体的说, 本发明实施例中当调度域中某台物理机的属性, 如: CPU、 内存、 网络一种或多种超 过各自的告警值 δ时,将触发告警迁移流程。例如:某个物理机的 CPU告警时,可以用当前告警的 CPU 负载值减去该调度域的 CPU负载均值, 得到一个差值, 用该差值比较此物理机上所有虚拟机的 CPU利 用率, 来决定移除哪些虚拟机, 具体可以是当当前虚拟机的 CPU利用率中至少有一个大于等于该差值 时, 要移除一个或多个虚拟机, 然后重新计算该差值, 并确定该物理机的 CPU是否仍存在告警, 如果 告警仍存在, 则继续对虚拟机进行移除。
在本发明的一个实施例中, 为移除的所述虚拟机寻找物理机进行部署, 进一步包括: 根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的物理机;
根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对所述物理机 属性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
需要说明的是, 本发明实施例中为移除的虚拟机进行部署的过程, 与为上述步骤 201、 202、 203 所述的分配任务部署的过程相同, 也就是说, 在告警处理之后, 需要为移除的虚拟机任务重新确定 一个或多个物理机进行部署。 因此, 为移除的虚拟机确定物理机的部署过程可以参见上述关于步骤 201、 202、 203中的相关内容, 在此不作一一赘述。
在本发明的一个实施例中, 所述方法还可以包括:
( 1 ) 确定需要进行优化操作的物理机的 ID;
( 2 )用所述物理机各属性的当前利用率与优化目的值的差值, 与所述物理机上各虚拟机的属性 利用率做比较, 以便确定要移除的虚拟机;
( 3 ) 为移除的所述虚拟机选择物理机进行部署。
需要说明的是, 在优化过程中优化目的值是根据管理员的经验预先设定的, 同时, 在用当前利 用率与优化目的值的差值, 比较虚拟机各属性利用率来移除虚拟机的过程和目的, 与上述告警处理 过程中移除虚拟机的技术方案相似, 例如: 同样在当前虚拟机的 CPU利用率中至少有一个大于等于该 差值时, 要移除一个或多个虚拟机, 然后重新计算该差值, 直到确定虚拟机 CPU全部小于该差值时, 结束对虚拟机的移除过程。
在本发明的一个实施例中, 为移除的所述虚拟机选择物理机进行部署, 进一步包括: 根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的物理机;
根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对所述物理机 属性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
需要说明的是, 本发明实施例中为移除的虚拟机进行部署的过程, 与为上述步骤 201、 202、 203 所述的分配任务部署的过程相同, 也就是说, 在优化操作之后, 需要为移除的虚拟机任务重新确定 一个或多个物理机进行部署。 因此, 为移除的虚拟机确定物理机的部署过程可以参见上述关于步骤 201、 202、 203中的相关内容, 在此不作一一赘述。
需要说明的是,上述实施例分别说明了一种实现数据中心资源负载均衡的方法的三个处理过程: ( 1 ) 当前任务的分配过程; (2 ) 告警迁移处理过程; (3 ) 优化操作过程;
本发明实施例为上述三个处理过程分别设定了处理优先级, (2 )大于 (3 )大于 (1 ) , 可以按 照该优先级的顺序执行上述三个过程, 但本发明实施例并不限定与该优先级顺序。
图 3所示, 表示出按照上述优先级执行本发明实施例技术方案的具体流程图:
首先, 判断告警迁移队列中是否有待处理的告警任务, 如果有, 则实施上述实施例中描述的告 警迁移流程; 如果没有, 则判断优化队列中是否有待处理的优化任务;
如果优化队列中有待处理的优化任务时, 则实施上述实施例中描述的优化处理流程; 如果没有, 则继续判断新任务队列中是否有待处理的分配任务;
当新任务队列中有待处理的分配任务时, 实施上述实施例中描述的任务分配流程, 没有, 则输 出当前任务为空的指示。
上述本发明实施例一种实现数据中心资源负载均衡的方法, 实际应用中的具体算法如下:
1) checkAlertQueue (); (优先级最高)
2) if (AlertQueue!=null)
3) {
4) allocTask(FirstTask);
5) getdownVM(PMID)
6) {
7) 〃计算当前负载超越值
8) getValue=PMLoad- δ;
9) 〃计算得出该迁移下哪些 VM
10) ObtainVM(getValue);
11) }
12) 〃得到物理机矩阵
13) matri [] [] =getMatri (PM[n] );
14) 〃二维网格算法找出平均负载最低的 PM
15) Algorithm 2D- mesh (matrix口口)
16) {
17) For(i=l;i<=m+2;i++)
18) For(AllCPU)
19) ComputeLoad ();
20) For(j=l; j<=n; j++)
21) BubbleSort (PMLoadi);
22) }
23) return PM;
24) }
25) Else
26) {
27) checkOptimQueue (); (优先级次于告警队列)
28) if (OptimQueue !=null)
29)
30) allocTask(FirstTask);
31) getdownVM(PMID)
32) {
33) 〃计算当前负载超越值
34) getValue=PMLoad-EndLoad;
35) 〃计算得出该迁移哪些 VM
36) ObtainVM(getValue);
37) }
38) 〃得到物理机矩阵
39) matri [] [] =getMatri (PM[n] );
40) 〃二维网格算法找出平均负载最低的 PM
41) Algorithm 2D- mesh (matrix口口)
42) {
43) For(i=l;i<=m+2;i++)
44) For(AllCPU)
45) ComputeLoad ();
46) For(j=l; j<=n; j++) 47, BubbleSort (PMLoadi) :48: }
:49: return PM;
:50:
51:
:52:
:53: checkTaskAllocQueue (); (优先级最低)
:54: if (TaskAllocQueue !=null)
55: {
:56: allocTask(FirstTask);
57: switch (tasktype)
:58: {
:59: case (SingleVMTask):
60: {
61: 〃得到物理机矩阵
62: matri [] []=getMatrix(PM[n]); :63: 〃二维网格算法找出平均负载最低的 PM :64: Algorithm 2D- mesh (matrix口口) :65: {
:66: For(i=l;i<=m+2;i++)
:67: For(AllCPU)
ComputeLoad ();
For(j=l; j<=n; j++)
BubbleSort (PMLoadi);
}
return PM;
}
74: case (ClusterTask):
{
〃得到物理机集群矩阵
matrix [] [] =getMatr ix (PCluster [n] );
78: 〃二维网格算法找出平均负载最低的 PCluster 79: Algorithm 2D- mesh (matrix口口) :80: {
:81: For(i=l;i<=m+2;i++)
:82: For (All PCluster)
83: ComputeLoad ();
84: For(j=l; j<=n; j++)
85: BubbleSort (PCluster Loadi); 86: }
87: return PCluster;
88: }
89: default:
90: return Error;
91: }
92: }
93: Else
94: {
95: return NoTask;
:96:
:97:
98: 如图 4所示, 基于上述图 2的方法实施例, 本发明实施例提供了一种实现数据中心资源负载均衡 的装置, 包括:
选择控制模块 41, 用于获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定 剩余能力满足当前分配任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
计算处理模块 42, 用于根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载 均值及对所述物理机属性的负载预测值计算所述物理机的负载方差值;
部署执行模块 43, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
如图 5所示, 在本发明的一个实施例中, 选择控制模块 41可以包括:
计算单元 411,用于将所述调度域内各物理机属性的总负载能力与所述各物理机属性的当前利用 率的差值, 做为所述各物理机属性的剩余能力;
判定单元 412, 用于将所述剩余能力与所述当前分配任务的规格做比较, 确定所述剩余能力大于 或等于当前分配任务规格的物理机。
在本发明的一个实施例中, 计算处理模块 42可以包括:
预测单元 421, 用于针对满足所述当前分配任务的物理机, 对所述物理机部署虚拟机后的属性的 利用率进行预测, 获得所述负载预测值;
确定单元 422, 用于根据所述负载均值及所述负载预测值计算获得所述负载方差值; 所述负载方 差值的计算公式包括:
D= (a%- X) 2+ (b%-y) 2+ (c%- z) 2
其中, a%、 b%、 c%为对所述物理机预测部署虚拟机后获得的 CPU、 内存及网络的负载预测值, x、 y、 z为所述调度域内当前 CPU负载均值, 内存负载均值及网络负载均值。
在本发明的一个实施例中, 所述装置还包括:
任务处理模块 44, 用于判断所述当前分配任务是否为单虚拟机任务;
当所述当前分配任务为单虚拟机任务时, 将所述调度域内的各物理机排列成 n X (m+2)矩阵, m=MAX (单物理机 CPU的个数), 矩阵的每一行为每个物理机各 CPU在一段时间内的利用率、 内存利用率 及网络利用率, 每一列为所述调度域中各物理机;
当所述当前分配任务非单虚拟机任务时, 将所述调度域内各物理机集群排列成 n X 3矩阵, 矩阵 的每一行为一个物理机集群的 CPU—段时间内的利用率, 内存利用率及网络利用率, 每一列为所述调 度域中各物理机集群。
在本发明的一个实施例中, 部署执行模块 43可以包括:
选择单元 431, 用于判断当所述负载方差值最小的物理机或物理机集群的数量是否为大于一个; 执行单元 432, 用于当所述物理机或物理机集群的数量为一个时, 选择满足所述当前分配任务的 物理机或物理机集群中负载方差值最小的物理机或物理机集群进行部署; 当所述物理机或物理机集 群的数量为大于一个时, 任选一个物理机或物理机集群部署当前分配任务。
在本发明的一个实施例中, 所述装置还可以包括: 告警监控模块 45, 用于对所述调度域内各物理机属性的利用率进行监控;
告警迁移模块 46, 用于在所述属性的利用率超出预定值的物理机触发告警迁移时, 根据所述属 性的告警值与调度域内该属性负载均值的差值, 确定移除所述物理机上的虚拟机;
迁移部署模块 47, 用于为移除的所述虚拟机寻找物理机进行部署。
在本发明的一个实施例中, 迁移部署模块 47进一步包括:
计算处理单元 471,用于根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务 的物理机; 以及, 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及 对所述物理机属性的负载预测值计算所述物理机的负载方差值;
部署执行单元 472, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
在本发明的一个实施例中, 所述装置还可以包括:
优化选择模块 48, 用于确定需要进行优化操作的物理机的 ID;
优化操作模块 49, 用于用所述物理机各属性的当前利用率与优化目的值的差值, 与所述物理机 上各虚拟机的属性利用率做比较, 以便确定要移除的虚拟机;
优化部署模块 50, 用于为移除的所述虚拟机选择物理机进行部署。
在本发明的一个实施例中, 优化部署模块 50进一步包括:
优化计算单元 501,用于根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务 的物理机; 以及, 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及 对所述物理机属性的负载预测值计算所述物理机的负载方差值;
优化部署单元 502, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
需要说明的是, 本发明所述的装置实施例是基于上述图 2的方法实施例获得的, 其中各功能模块 与图 2方法实施例中各步骤一一对应, 因此本发明所述的装置实施例与图 2的方法实施例包含了相同 或相应的技术特征,本发明所述的装置实施例中涉及的具体技术方案已经在图 2实施例中作出了同样 的描述, 具体可以参见图 2的方法实施例, 在此不作赘述。
下面将结合具体实例进一步说明本发明的技术方案, 以上述三个处理过程中的新任务分配过程 为例, 对本发明的技术方案进行说明。
分配虚拟机任务如下:
输入任务: 虚拟机部署任务规格 VMx: 2CU (2个 CPU计算能力单元) 、 1G内存、 10M带宽, 该 任务规格可以表示为 (2, 1, 10) ;
步骤 100、 获取调度域内各物理机属性的当前利用率;
具体包括: 该调度域内设定有三个物理机, PM1 的总负载能力为 4CU, 3G, 100M,其中获取到的 4 个 CPU各自的实际利用率是 30%、 30%, 30%, 20%, 因此根据所述实际利用率获得的 CPU当前利用率 为 30%, 获取到的内存当前利用率为 50%, 网络当前利用率为 10%;
PM2的总负载能力为 6CU, 3G, 100M,其中获取到的 6个 CPU各自的实际利用率是 10%、 10%, 5%, 10%、 10%、 15%, 因此根据所述实际利用率获得的 CPU当前利用率为 10%, 获取到的内存当前利用率 为 10%, 网络当前利用率为 30%; PM1的总负载能力为 2CU, 2G, 100M,其中获取到的 2个 CPU各自的实际利用率是 70%、 70%, 因此 根据所述实际利用率获得的 CPU当前利用率为 70%, 获取到的内存当前利用率为 60%, 网络当前利用 率为 40%;
为了更清楚的表述出 PM1的综合负载状态,采用定义(4 )将三个物理机的综合负载能力表述为: PM1= (4CU, 3G, 100M, 30%, 50%, 10%)
PM2= (6CU, 3G, 100M, 10%, 10%, 30%)
PM3= (2CU, 2G, 100M, 70%, 60%, 40%)
200、 根据所述当前利用率确定剩余能力满足当前分配任务的物理机;
具体包括: 将调度域内的 n个物理机列成 n X (m+2)矩阵 (m=MAX (单物理机 CPU的个数)), 矩阵 的每一行为物理机的各个 CPU各自在一段时间 (比如时间 t ) 内的实际利用率、 内存当前利用率、 网络当前利用率, 每一列为此调度域内所有物理机;
在本实施例中 n=3, m=6,因此, 矩阵表示为:
PM1 30% 30% 40% 20% * * 50% 10%
PM2 10% 10% 5% 10% 10% 15% 10% 30%
PM3 70% 70% * * * * 60% 40%, 其中 *号处表示对应的位置为空。
通过二维网格算法确定三个物理机的剩余能力:
首先, 采用定义 (5 ) 中剩余能力 =总能力一 已被暂用的能力, 并行计算所有物理机的剩余能 力:
PM1= (4* ( 1-30%) , 3* (1-50%), 100* (1-10%) ) = (2. 8, 1. 5, 90);
PM2= (6* ( 1-10%) , 3* (1-10%), 100* (1-30%) ) = (5. 4, 2. 7, 70);
PM3= (2* ( 1-70%) , 2* (1-60%), 100* (1-40%) ) = (0. 6, 0. 8, 60);
与输入一任务规格 (2, 1, 10) 相对比, 确定 PM3剩余能力 (CPU,内存) 不够, 只有 PM1和 PM2 剩余能力满足;
300、 根据所述当前利用率确定所述调度域属性的负载均值;
具体包括: 采用上述定义 (1 ) (2 ) ( 3 ) 中提出的算法计算获得该调度域中 CPU负载均值 Vc, 内存负载均值 Vm以及网络负载均值 Vn。
具体的 Vc= (∑lCi*nUi ) /∑nui=40%
Figure imgf000013_0001
400、 根据所述负载均值及对所述物理机属性的负载预测值计算所述物理机的负载方差值; 具体的负载方差值通过 D= (a%-x) 2+ (b%-y) 2+ (c%-z) 2计算获得, 其中, a%、 b%、 c%为预测部署 虚拟机后 CPU、 内存、 网络的利用率, x、 y、 z为调度域内当前 CPU负载均值 Vc, 内存负载均值 Vm, 网络负载均值 Vn。
预测该物理机部署虚拟机后的负载预测值时, 按照上述实施例提出的预测规则进行预测, 总是 考虑该虚拟机 (CPU, 内存, 网络)所需的最大份额计算, 以留足资源; 同时若在观察一段时间 t后 发现该虚拟机并未使用到其所要求的最大份额, 则再分配虚拟机时动态调整。
对于第一个物理机 PM1的负载方差值 D1的计算过程如下:
PM1 = (4CU, 2G, 100M, 30%, 50%, 10%);
计算放置虚拟机后的 CPU利用率预测值 a%=30%+ (2/4) *100%=80%;
内存利用率预测值 b%=50%+ (1/3) *100%=83%;
网络利用率预测值 c%=10%+ (10/100) *100%=20%;
Dl= (80%- 40%) 2+ (83%- 50%) 2+ (20%- 20%) 2=0. 2689。
对于第二个物理机 PM2负载方差值 D2的计算过程如下:
PM2 = (6CU, 3G, 100M, 10%, 10%, 30%);
计算放置虚拟机后的 CPU利用率预测值 a%=10%+ (2/6) *100%=43% ;
内存利用率预测值 b%=10%+ (1/3) *100%=43%;
网络利用预测值率 c%=30%+ (10/100) *100%=40%;
D2= (43%- 40%) 2+ (43%- 50%) 2+ (40%- 20%) 2=0. 0458。
500、 上一步的并行计算生成 2个子和 Dl、 D2, 作为一列, 对这一列进行一维的排序, 査找出 D 值最小的一个合适的物理机, 此处排序结果为 PM2; 即选定 PM2作为要部署的物理机;
600、 当找到有几个物理机的 D值相同时, 则认为他们等价, 则任选一个 PMx作为部署的物理 机;
700、 输出分配结果: 将此虚拟机分配任务部署到物理机 PM2上。
由上述实施例可知, 本发明实施例针对目前常用的负载均衡调度算法很难解决用户需求和物理 服务器规格不一致造成的物理服务器负载不均衡问题, 提出了一个依据动态负载反馈调整的负载均 衡算法。 通过对物理机属性当前利用率进行获取, 能够准确获得各物理机的实际剩余能力; 通过对 该物理机部署虚拟机后的属性进行预测, 能够更好的获知各物理机部署虚拟机后的负载状态, 选择 最佳的物理机进行部署, 以便保证各物理机的负载均衡。 能够更客观的找到使系统负载最均衡的物 理机进行分配, 解决了需求规则与服务器规格不同带来的负载不均衡的问题。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程, 是可以通过计算机程 序来指令相关的硬件来完成, 所述的程序可存储于一计算机可读取存储介质中, 该程序在执行时, 可包括如上述各方法的实施例的流程。 其中, 所述的存储介质可为磁碟、 光盘、 只读存储记忆体 (Read- Only Memory, ROM) 或随机存储记忆体 (Random Access Memory, RAM) 等。

Claims

权利要求
1、 一种实现数据中心资源负载均衡的方法, 其特征在于, 包括:
获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定剩余能力满足当前分配 任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载均值及对所述物理机属 性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
2、 根据权利要求 1所述的方法, 其特征在于, 根据所述当前利用率确定剩余能力满足当前分配 任务的物理机, 包括:
将所述调度域内各物理机属性的总负载能力与所述各物理机属性的当前利用率的差值, 做为所 述各物理机属性的剩余能力;
将所述剩余能力与所述当前分配任务的规格做比较, 确定所述剩余能力大于或等于当前分配任 务规格的物理机。
3、 根据权利要求 2所述的方法, 其特征在于, 根据所述负载均值及对所述物理机属性的负载预 测值计算所述物理机的负载方差值, 包括:
针对满足所述当前分配任务的物理机, 对所述物理机部署虚拟机后的属性的利用率进行预测, 获得所述负载预测值;
根据所述负载均值及所述负载预测值计算获得所述负载方差值; 所述负载方差值的计算公式包 括:
D= (a%- X) 2+ (b%-y) 2+ (c%- z) 2
其中, a%、 b%、 c%为对所述物理机预测部署虚拟机后获得的 CPU、 内存及网络的负载预测值, x、 y、 z为所述调度域内当前 CPU负载均值, 内存负载均值及网络负载均值。
4、 根据权利要求 1或 2所述的方法, 其特征在于, 所述方法还包括:
判断所述当前分配任务是否为单虚拟机任务;
当所述当前分配任务为单虚拟机任务时, 将所述调度域内的各物理机排列成 n X (m+2)矩阵, m=MAX (单物理机 CPU的个数), 矩阵的每一行为每个物理机各 CPU在一段时间内的利用率、 内存利用率 及网络利用率, 每一列为所述调度域中各物理机;
当所述当前分配任务非单虚拟机任务时, 将所述调度域内各物理机集群排列成 n X 3矩阵, 矩阵 的每一行为一个物理机集群的 CPU—段时间内的利用率, 内存利用率及网络利用率, 每一列为所述调 度域中各物理机集群。
5、 根据权利要求 4所述的方法, 其特征在于, 选择所述负载方差值最小的物理机部署所述当前 分配任务, 包括:
当所述当前分配任务为单虚拟机任务时, 选择满足所述当前分配任务的物理机中负载方差值最 小的物理机进行部署;
当所述当前分配任务为非单虚拟机任务时, 选择满足所述当前分配任务的物理机集群中负载方 差值最小的物理机进行部署;
当所述负载方差值最小的物理机或物理机集群的数量为大于一个时, 任选一个物理机或物理机 集群部署当前分配任务。
6、 根据权利要求 1所述的方法, 其特征在于, 所述方法还包括:
对所述调度域内各物理机属性的利用率进行监控;
在所述属性的利用率超出预定值的物理机触发告警迁移时, 根据所述属性的告警值与调度域内 该属性负载均值的差值, 确定移除所述物理机上的虚拟机;
为移除的所述虚拟机寻找物理机进行部署。
7、 根据权利要求 6所述的方法, 其特征在于, 为移除的所述虚拟机寻找物理机进行部署, 进一 步包括:
根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的物理机; 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对所述物理机 属性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
8、 根据权利要求 1所述的方法, 其特征在于, 所述方法还包括:
确定需要进行优化操作的物理机的 ID;
用所述物理机各属性的当前利用率与优化目的值的差值, 与所述物理机上各虚拟机的属性利用 率做比较, 以便确定要移除的虚拟机;
为移除的所述虚拟机选择物理机进行部署。
9、 根据权利要求 8所述的方法, 其特征在于, 为移除的所述虚拟机选择物理机进行部署, 进一 步包括:
根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的物理机; 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对所述物理机 属性的负载预测值计算所述物理机的负载方差值;
选择所述负载方差值最小的物理机部署所述当前分配任务。
10、 一种实现数据中心资源负载均衡的装置, 其特征在于, 包括:
选择控制模块, 用于获取调度域内各物理机属性的当前利用率, 并根据所述当前利用率确定剩 余能力满足当前分配任务的物理机, 所述属性包括 CPU负载、 内存负载及网络负载;
计算处理模块, 用于根据所述当前利用率确定所述调度域属性的负载均值, 并根据所述负载均 值及对所述物理机属性的负载预测值计算所述物理机的负载方差值;
部署执行模块, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
11、 根据权利要求 10所述的装置, 其特征在于, 选择控制模块包括:
计算单元, 用于将所述调度域内各物理机属性的总负载能力与所述各物理机属性的当前利用率 的差值, 做为所述各物理机属性的剩余能力;
判定单元, 用于将所述剩余能力与所述当前分配任务的规格做比较, 确定所述剩余能力大于或 等于当前分配任务规格的物理机。
12、 根据权利要求 11所述的装置, 其特征在于, 计算处理模块包括:
预测单元, 用于针对满足所述当前分配任务的物理机, 对所述物理机部署虚拟机后的属性的利 用率进行预测, 获得所述负载预测值;
确定单元, 用于根据所述负载均值及所述负载预测值计算获得所述负载方差值; 所述负载方差 值的计算公式包括:
D= (a%- X) 2+ (b%-y) 2+ (c%- z) 2
其中, a%、 b%、 c%为对所述物理机预测部署虚拟机后获得的 CPU、 内存及网络的负载预测值, x、 y、 z为所述调度域内当前 CPU负载均值, 内存负载均值及网络负载均值。
13、 根据权利要求 11或 12所述的装置, 其特征在于, 所述装置还包括:
任务处理模块, 用于判断所述当前分配任务是否为单虚拟机任务;
当所述当前分配任务为单虚拟机任务时, 将所述调度域内的各物理机排列成 n X (m+2)矩阵, m=MAX (单物理机 CPU的个数), 矩阵的每一行为每个物理机各 CPU在一段时间内的利用率、 内存利用率 及网络利用率, 每一列为所述调度域中各物理机;
当所述当前分配任务非单虚拟机任务时, 将所述调度域内各物理机集群排列成 n X 3矩阵, 矩阵 的每一行为一个物理机集群的 CPU—段时间内的利用率, 内存利用率及网络利用率, 每一列为所述调 度域中各物理机集群。
14、 根据权利要求 10或 13所述的装置, 其特征在于, 部署执行模块包括:
选择单元, 用于判断当所述负载方差值最小的物理机或物理机集群的数量是否为大于一个; 执行单元, 用于当所述物理机或物理机集群的数量为一个时, 选择满足所述当前分配任务的物 理机或物理机集群中负载方差值最小的物理机或物理机集群进行部署; 当所述物理机或物理机集群 的数量为大于一个时, 任选一个物理机或物理机集群部署当前分配任务。
15、 根据权利要求 10所述的装置, 其特征在于, 所述装置还包括:
告警监控模块, 用于对所述调度域内各物理机属性的利用率进行监控;
告警迁移模块, 用于在所述属性的利用率超出预定值的物理机触发告警迁移时, 根据所述属性 的告警值与调度域内该属性负载均值的差值, 确定移除所述物理机上的虚拟机;
迁移部署模块, 用于为移除的所述虚拟机寻找物理机进行部署。
16、 根据权利要求 15所述的装置, 其特征在于, 迁移部署模块进一步包括:
计算处理单元, 用于根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的 物理机; 以及, 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对 所述物理机属性的负载预测值计算所述物理机的负载方差值;
部署执行单元, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
17、 根据权利要求 10所述的装置, 其特征在于, 所述装置还包括:
优化选择模块, 用于确定需要进行优化操作的物理机的 ID;
优化操作模块, 用于用所述物理机各属性的当前利用率与优化目的值的差值, 与所述物理机上 各虚拟机的属性利用率做比较, 以便确定要移除的虚拟机;
优化部署模块, 用于为移除的所述虚拟机选择物理机进行部署。
18、 根据权利要求 17所述的装置, 其特征在于, 优化部署模块进一步包括:
优化计算单元, 用于根据各物理机的当前利用率确定剩余能力满足被移除的虚拟机分配任务的 物理机; 以及, 根据各物理机的当前利用率确定调度域属性的负载均值, 并根据所述负载均值及对 所述物理机属性的负载预测值计算所述物理机的负载方差值;
优化部署单元, 用于选择所述负载方差值最小的物理机部署所述当前分配任务。
PCT/CN2010/078247 2010-10-29 2010-10-29 一种实现数据中心资源负载均衡的方法及装置 WO2011110026A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201080005220.3A CN102232282B (zh) 2010-10-29 2010-10-29 一种实现数据中心资源负载均衡的方法及装置
PCT/CN2010/078247 WO2011110026A1 (zh) 2010-10-29 2010-10-29 一种实现数据中心资源负载均衡的方法及装置
US13/451,164 US8510747B2 (en) 2010-10-29 2012-04-19 Method and device for implementing load balance of data center resources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/078247 WO2011110026A1 (zh) 2010-10-29 2010-10-29 一种实现数据中心资源负载均衡的方法及装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/451,164 Continuation US8510747B2 (en) 2010-10-29 2012-04-19 Method and device for implementing load balance of data center resources

Publications (1)

Publication Number Publication Date
WO2011110026A1 true WO2011110026A1 (zh) 2011-09-15

Family

ID=44562853

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2010/078247 WO2011110026A1 (zh) 2010-10-29 2010-10-29 一种实现数据中心资源负载均衡的方法及装置

Country Status (3)

Country Link
US (1) US8510747B2 (zh)
CN (1) CN102232282B (zh)
WO (1) WO2011110026A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102624865A (zh) * 2012-01-09 2012-08-01 浙江大学 集群负载预测方法及分布式集群管理系统
CN103248659A (zh) * 2012-02-13 2013-08-14 北京华胜天成科技股份有限公司 一种云计算资源调度方法和系统
CN103595780A (zh) * 2013-11-08 2014-02-19 中国人民解放军理工大学 基于消重的云计算资源调度方法
CN105208119A (zh) * 2015-09-21 2015-12-30 重庆大学 一种云数据中心任务分配方法、装置和系统
CN105491138A (zh) * 2015-12-15 2016-04-13 国网智能电网研究院 一种基于负载率分级触发的分布式负载调度方法
CN106886478A (zh) * 2017-02-22 2017-06-23 郑州云海信息技术有限公司 一种数据过滤方法及监控服务器
EP3467652A4 (en) * 2016-06-30 2019-05-15 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR BALANCING DATA
CN113626282A (zh) * 2021-07-16 2021-11-09 济南浪潮数据技术有限公司 云计算物理节点负载监控方法、装置、终端及存储介质

Families Citing this family (155)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8028090B2 (en) 2008-11-17 2011-09-27 Amazon Technologies, Inc. Request routing utilizing client location information
US7991910B2 (en) 2008-11-17 2011-08-02 Amazon Technologies, Inc. Updating routing information based on client location
US7962597B2 (en) 2008-03-31 2011-06-14 Amazon Technologies, Inc. Request routing based on class
US8606996B2 (en) 2008-03-31 2013-12-10 Amazon Technologies, Inc. Cache optimization
US8321568B2 (en) 2008-03-31 2012-11-27 Amazon Technologies, Inc. Content management
US7970820B1 (en) 2008-03-31 2011-06-28 Amazon Technologies, Inc. Locality based content distribution
US9407681B1 (en) 2010-09-28 2016-08-02 Amazon Technologies, Inc. Latency measurement in resource requests
US8782236B1 (en) 2009-06-16 2014-07-15 Amazon Technologies, Inc. Managing resources using resource expiration data
US9122537B2 (en) * 2009-10-30 2015-09-01 Cisco Technology, Inc. Balancing server load according to availability of physical resources based on the detection of out-of-sequence packets
US8346935B2 (en) 2010-01-15 2013-01-01 Joyent, Inc. Managing hardware resources by sending messages amongst servers in a data center
US9495338B1 (en) 2010-01-28 2016-11-15 Amazon Technologies, Inc. Content distribution network
US10958501B1 (en) 2010-09-28 2021-03-23 Amazon Technologies, Inc. Request routing information based on client IP groupings
US8468247B1 (en) 2010-09-28 2013-06-18 Amazon Technologies, Inc. Point of presence management in request routing
US9003035B1 (en) 2010-09-28 2015-04-07 Amazon Technologies, Inc. Point of presence management in request routing
US9712484B1 (en) 2010-09-28 2017-07-18 Amazon Technologies, Inc. Managing request routing information utilizing client identifiers
US8452874B2 (en) 2010-11-22 2013-05-28 Amazon Technologies, Inc. Request routing processing
US8555276B2 (en) * 2011-03-11 2013-10-08 Joyent, Inc. Systems and methods for transparently optimizing workloads
US10467042B1 (en) 2011-04-27 2019-11-05 Amazon Technologies, Inc. Optimized deployment based upon customer locality
US9489222B2 (en) * 2011-08-24 2016-11-08 Radware, Ltd. Techniques for workload balancing among a plurality of physical machines
US9766986B2 (en) 2013-08-08 2017-09-19 Architecture Technology Corporation Fight-through nodes with disposable virtual machines and rollback of persistent state
US9094449B2 (en) 2011-09-14 2015-07-28 Architecture Technology Corporation Fight-through nodes for survivable computer network
US8640238B2 (en) * 2011-09-14 2014-01-28 Architecture Technology Corporation Fight-through nodes for survivable computer network
US9838415B2 (en) 2011-09-14 2017-12-05 Architecture Technology Corporation Fight-through nodes for survivable computer network
US9769250B2 (en) 2013-08-08 2017-09-19 Architecture Technology Corporation Fight-through nodes with disposable virtual machines and rollback of persistent state
DE102012217202B4 (de) * 2011-10-12 2020-06-18 International Business Machines Corporation Verfahren und System zum Optimieren des Platzierens virtueller Maschinen in Cloud-Computing-Umgebungen
US9218212B2 (en) * 2011-11-11 2015-12-22 International Business Machines Corporation Pairing physical devices to virtual devices to create an immersive environment
CN103116524A (zh) * 2011-11-16 2013-05-22 鸿富锦精密工业(深圳)有限公司 Cpu使用率调整系统及方法
TW201324357A (zh) * 2011-12-01 2013-06-16 Univ Tunghai 虛擬機叢集之綠能管理方法
CN103179167B (zh) * 2011-12-26 2017-02-22 深圳光启高等理工研究院 一种云计算的方法、系统及负载均衡服务器
EP2713270A4 (en) * 2011-12-29 2014-10-22 Huawei Tech Co Ltd METHOD AND DEVICE FOR PLANNING RESOURCES
US8547379B2 (en) 2011-12-29 2013-10-01 Joyent, Inc. Systems, methods, and media for generating multidimensional heat maps
US8782224B2 (en) 2011-12-29 2014-07-15 Joyent, Inc. Systems and methods for time-based dynamic allocation of resource management
CN102446115B (zh) * 2012-01-09 2014-06-18 浙江大学 一种虚拟机的动态部署方法
CN102622273B (zh) * 2012-02-23 2015-04-15 中国人民解放军国防科学技术大学 基于自学习负载预测的集群按需启动方法
TW201338537A (zh) * 2012-03-09 2013-09-16 Ind Tech Res Inst 動態派工錄影系統與方法
US9086929B2 (en) 2012-04-06 2015-07-21 International Business Machines Corporation Dynamic allocation of a workload across a plurality of clouds
US9071613B2 (en) * 2012-04-06 2015-06-30 International Business Machines Corporation Dynamic allocation of workload deployment units across a plurality of clouds
CN102710503B (zh) * 2012-05-15 2017-03-15 郑州云海信息技术有限公司 一种基于“云海os”的网络负载均衡方法
US9154551B1 (en) 2012-06-11 2015-10-06 Amazon Technologies, Inc. Processing DNS queries to identify pre-processing information
EP2898410B1 (en) * 2012-09-20 2022-04-27 Amazon Technologies, Inc. Automated profiling of resource usage
JP6114829B2 (ja) * 2012-09-28 2017-04-12 サイクルコンピューティング エルエルシー 仮想環境における演算インフラストラクチャのリアルタイム最適化
CN102932170B (zh) 2012-10-22 2016-06-22 中兴通讯股份有限公司 网元负载不均检测处理方法、装置及其系统
CN103812895A (zh) * 2012-11-12 2014-05-21 华为技术有限公司 调度方法、管理节点以及云计算集群
CN102938790B (zh) * 2012-11-20 2015-10-21 无锡城市云计算中心有限公司 云计算系统中的资源分配方法
CN103856521A (zh) * 2012-12-04 2014-06-11 鸿富锦精密工业(深圳)有限公司 文件上传系统及方法
WO2014088397A1 (en) * 2012-12-06 2014-06-12 Mimos Berhad A system and method for dynamic scheduling and management of cloud resources based on roles and profiles
CN103873498B (zh) * 2012-12-11 2017-06-23 中国电信股份有限公司 云平台资源自适应预警方法与系统
CN103036979B (zh) * 2012-12-12 2015-07-01 广州尚融网络科技有限公司 一种服务器负载均衡方法及负载均衡器
CN103885831B (zh) * 2012-12-19 2017-06-16 中国电信股份有限公司 虚拟机宿主机的选择方法与装置
US9430257B2 (en) * 2013-01-03 2016-08-30 Red Hat Israel, Inc. Scheduling virtual machines using user-defined rules
WO2014110743A1 (zh) * 2013-01-16 2014-07-24 华为技术有限公司 一种数据中心间资源调度方法和设备
CN103095599A (zh) * 2013-01-18 2013-05-08 浪潮电子信息产业股份有限公司 一种云计算操作系统中动态反馈加权综合负载调度方法
US8881279B2 (en) 2013-03-14 2014-11-04 Joyent, Inc. Systems and methods for zone-based intrusion detection
US8677359B1 (en) 2013-03-14 2014-03-18 Joyent, Inc. Compute-centric object stores and methods of use
US9104456B2 (en) 2013-03-14 2015-08-11 Joyent, Inc. Zone management of compute-centric object stores
US8943284B2 (en) 2013-03-14 2015-01-27 Joyent, Inc. Systems and methods for integrating compute resources in a storage area network
US8826279B1 (en) 2013-03-14 2014-09-02 Joyent, Inc. Instruction set architecture for compute-based object stores
US8775485B1 (en) 2013-03-15 2014-07-08 Joyent, Inc. Object store management operations within compute-centric object stores
US8793688B1 (en) 2013-03-15 2014-07-29 Joyent, Inc. Systems and methods for double hulled virtualization operations
US9092238B2 (en) 2013-03-15 2015-07-28 Joyent, Inc. Versioning schemes for compute-centric object stores
CN103297499B (zh) * 2013-04-19 2017-02-08 无锡成电科大科技发展有限公司 一种基于云平台的调度方法及系统
CN103353853A (zh) * 2013-07-26 2013-10-16 浪潮电子信息产业股份有限公司 一种负载自动调节的方法
CN103412635B (zh) * 2013-08-02 2016-02-24 清华大学 数据中心节能方法及装置
CN103401939B (zh) * 2013-08-08 2017-04-26 中国航天科工集团第三研究院第八三五七研究所 一种采用混合调度策略的负载均衡方法
US9887924B2 (en) 2013-08-26 2018-02-06 Vmware, Inc. Distributed policy-based provisioning and enforcement for quality of service
US10747475B2 (en) 2013-08-26 2020-08-18 Vmware, Inc. Virtual disk blueprints for a virtualized storage area network, wherein virtual disk objects are created from local physical storage of host computers that are running multiple virtual machines
US11016820B2 (en) * 2013-08-26 2021-05-25 Vmware, Inc. Load balancing of resources
US9672115B2 (en) 2013-08-26 2017-06-06 Vmware, Inc. Partition tolerance in cluster membership management
US9811531B2 (en) 2013-08-26 2017-11-07 Vmware, Inc. Scalable distributed storage architecture
CN103473115B (zh) * 2013-09-06 2017-04-05 华为技术有限公司 虚拟机放置方法和装置
CN103514046B (zh) * 2013-09-24 2017-04-26 华为技术有限公司 一种虚拟机放置方法及集群管理服务器
CN103530189B (zh) * 2013-09-29 2018-01-19 中国科学院信息工程研究所 一种面向流式数据的自动伸缩及迁移的方法及装置
US20150094985A1 (en) * 2013-09-30 2015-04-02 International Business Machines Corporation Graphical identification of misbehaving systems
EP2854370B1 (en) * 2013-09-30 2016-04-06 Fujitsu Limited Computing device, method, and program for distributing computational load
WO2015071946A1 (ja) * 2013-11-12 2015-05-21 株式会社日立製作所 管理計算機、配置管理方法、及び非一時的なコンピュータ可読記憶媒体
JP2015119472A (ja) * 2013-11-18 2015-06-25 株式会社リコー 選択システム、通信管理システム、通信システム、プログラム、及び選択方法
CN103605574A (zh) * 2013-11-18 2014-02-26 浪潮(北京)电子信息产业有限公司 一种服务器集群中的虚拟机资源调度方法及系统
CN103684916A (zh) * 2013-12-13 2014-03-26 国家计算机网络与信息安全管理中心 一种云计算下智能监控分析方法及系统
US10104169B1 (en) * 2013-12-18 2018-10-16 Amazon Technologies, Inc. Optimizing a load balancer configuration
CN103812949B (zh) * 2014-03-06 2016-09-07 中国科学院信息工程研究所 一种面向实时云平台的任务调度与资源分配方法及系统
CN103902384B (zh) * 2014-03-28 2017-08-11 华为技术有限公司 为虚拟机分配物理机的方法及装置
CN104301241B (zh) * 2014-06-05 2018-01-09 中国人民解放军信息工程大学 一种soa动态负载分发方法与系统
CN105335229B (zh) * 2014-07-25 2020-07-07 新华三技术有限公司 一种业务资源的调度方法和装置
CN104133727A (zh) * 2014-08-08 2014-11-05 成都致云科技有限公司 基于实时资源负载分配的方法
CN104270416B (zh) * 2014-09-12 2018-03-13 杭州华为数字技术有限公司 负载均衡控制方法及管理节点
CN104270418B (zh) * 2014-09-15 2017-09-15 中国人民解放军理工大学 面向用户需求Deadline的云代理预约分配方法
US9871855B2 (en) * 2014-09-19 2018-01-16 Facebook, Inc. Balancing load across cache servers in a distributed data store
CN104375897B (zh) * 2014-10-27 2018-02-27 西安工程大学 基于最小相对负载不均衡度的云计算资源调度方法
US10097448B1 (en) 2014-12-18 2018-10-09 Amazon Technologies, Inc. Routing mode and point-of-presence selection service
CN104580440A (zh) * 2014-12-29 2015-04-29 芜湖乐锐思信息咨询有限公司 利于资源优化配置的产品协作开发系统及方法
CN104581227A (zh) * 2014-12-31 2015-04-29 银江股份有限公司 一种基于任务调度的流媒体负载均衡方法
US10225326B1 (en) 2015-03-23 2019-03-05 Amazon Technologies, Inc. Point of presence based data uploading
US9875169B2 (en) * 2015-03-26 2018-01-23 Ca, Inc. Modeling real capacity consumption changes using process-level data
CN104750542B (zh) * 2015-04-22 2018-01-16 成都睿峰科技有限公司 一种基于云平台的数据迁移方法
CN104750541B (zh) * 2015-04-22 2018-01-16 成都睿峰科技有限公司 一种虚拟机迁移方法
CN104794098B (zh) * 2015-04-28 2017-05-10 湖北邮电规划设计有限公司 一种数据中心物理主机及存储设计方法及系统
US9832141B1 (en) 2015-05-13 2017-11-28 Amazon Technologies, Inc. Routing based request correlation
US9846589B2 (en) 2015-06-04 2017-12-19 Cisco Technology, Inc. Virtual machine placement optimization with generalized organizational scenarios
CN105162844B (zh) * 2015-08-05 2018-07-13 中国联合网络通信集团有限公司 一种任务分配的方法及装置
CN105373430A (zh) * 2015-10-13 2016-03-02 惠州Tcl移动通信有限公司 一种动态分配编译机的系统及其方法
US10270878B1 (en) 2015-11-10 2019-04-23 Amazon Technologies, Inc. Routing for origin-facing points of presence
CN106686039B (zh) * 2015-11-10 2020-07-21 华为技术有限公司 一种云计算系统中的资源调度方法及装置
CN105959252A (zh) * 2015-11-12 2016-09-21 杭州迪普科技有限公司 处理会话日志的方法及装置
US10412116B1 (en) 2015-12-17 2019-09-10 Architecture Technology Corporation Mechanism for concealing application and operation system identity
US10284592B1 (en) 2015-12-17 2019-05-07 Architecture Technology Corporation Application randomization mechanism
US10200401B1 (en) 2015-12-17 2019-02-05 Architecture Technology Corporation Evaluating results of multiple virtual machines that use application randomization mechanism
US10412114B1 (en) 2015-12-17 2019-09-10 Architecture Technology Corporation Application randomization mechanism
US10007498B2 (en) 2015-12-17 2018-06-26 Architecture Technology Corporation Application randomization mechanism
US10200406B1 (en) 2015-12-17 2019-02-05 Architecture Technology Corporation Configuration of application randomization mechanism
RU2632125C1 (ru) * 2016-04-29 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система обработки задач в облачном сервисе
US10075551B1 (en) 2016-06-06 2018-09-11 Amazon Technologies, Inc. Request management for hierarchical cache
US10110694B1 (en) 2016-06-29 2018-10-23 Amazon Technologies, Inc. Adaptive transfer rate for retrieving content from a server
CN106445629B (zh) * 2016-07-22 2019-05-21 平安科技(深圳)有限公司 一种负载均衡的方法及其装置
CN106101276B (zh) * 2016-08-10 2019-07-09 东方网力科技股份有限公司 一种集群负载均衡方法及装置
CN106371893A (zh) * 2016-08-31 2017-02-01 开封大学 一种云计算调度系统和方法
US10616250B2 (en) 2016-10-05 2020-04-07 Amazon Technologies, Inc. Network addresses with encoded DNS-level information
US10831549B1 (en) 2016-12-27 2020-11-10 Amazon Technologies, Inc. Multi-region request-driven code execution system
US10938884B1 (en) 2017-01-30 2021-03-02 Amazon Technologies, Inc. Origin server cloaking using virtual private cloud network environments
CN106790726B (zh) * 2017-03-30 2020-08-11 电子科技大学 一种基于Docker云平台的优先级队列动态反馈负载均衡资源调度方法
US10554685B1 (en) 2017-05-25 2020-02-04 Architecture Technology Corporation Self-healing architecture for resilient computing services
US11075987B1 (en) 2017-06-12 2021-07-27 Amazon Technologies, Inc. Load estimating content delivery network
CN107291389A (zh) * 2017-06-16 2017-10-24 郑州云海信息技术有限公司 一种存储策略智能触发执行的方法和装置
CN107273185B (zh) * 2017-06-19 2020-09-29 观典防务技术股份有限公司 一种基于虚拟机的负载均衡控制方法
CN107566443A (zh) * 2017-07-12 2018-01-09 郑州云海信息技术有限公司 一种分布式资源调度方法
US10742593B1 (en) 2017-09-25 2020-08-11 Amazon Technologies, Inc. Hybrid content request routing system
US10616318B1 (en) * 2017-11-28 2020-04-07 Amazon Technologies, Inc. Load balancer employing slow start, weighted round robin target selection
CN109936606A (zh) * 2017-12-18 2019-06-25 浙江宇视科技有限公司 任务分配方法和装置
CN108259568B (zh) * 2017-12-22 2021-05-04 东软集团股份有限公司 任务分配方法、装置、计算机可读存储介质及电子设备
CN108710540B (zh) * 2018-05-23 2021-05-04 深信服科技股份有限公司 一种分布式集群中的资源调度方法、装置及设备
CN110727392B (zh) * 2018-07-17 2023-07-14 阿里巴巴集团控股有限公司 一种云存储数据单元调度方法和装置
CN108984273A (zh) * 2018-07-23 2018-12-11 郑州云海信息技术有限公司 一种虚拟机调度的方法及装置
CN109067867A (zh) * 2018-07-30 2018-12-21 北京航空航天大学 面向数据中心负载监控的虚拟化容器服务弹性伸缩方法
CN109377408A (zh) * 2018-09-29 2019-02-22 青海大学 一种提高可再生能源利用率的资源调度方法及系统
US10862852B1 (en) 2018-11-16 2020-12-08 Amazon Technologies, Inc. Resolution of domain name requests in heterogeneous network environments
US11025747B1 (en) 2018-12-12 2021-06-01 Amazon Technologies, Inc. Content request pattern-based routing system
US11579908B2 (en) * 2018-12-18 2023-02-14 Vmware, Inc. Containerized workload scheduling
CN110505195A (zh) * 2019-06-26 2019-11-26 中电万维信息技术有限责任公司 虚拟主机的部署方法以及系统
CN110795208B (zh) * 2019-10-11 2023-05-05 南京航空航天大学 基于改进粒子群的移动云计算自适应虚拟机调度方法
CN111580955A (zh) * 2020-04-03 2020-08-25 上海非码网络科技有限公司 计算机利用率智能分析系统及方法
CN115398399A (zh) * 2020-04-14 2022-11-25 深圳市欢太科技有限公司 确定内存的方法、统计服务器、物理机和存储介质
CN111752710B (zh) * 2020-06-23 2023-01-31 中国电力科学研究院有限公司 数据中心pue动态优化方法、系统、设备及可读存储介质
WO2022018466A1 (en) * 2020-07-22 2022-01-27 Citrix Systems, Inc. Determining server utilization using upper bound values
CN114077524A (zh) * 2020-08-07 2022-02-22 展讯半导体(南京)有限公司 算力共享异常上报、处理方法及装置、存储介质、终端设备
CN111836139B (zh) * 2020-09-14 2020-12-08 南京嘉环科技股份有限公司 Otn环形网络业务优化方法、计算机系统与服务器
CN112733401B (zh) * 2020-12-30 2024-03-12 杭州电子科技大学 面向反应堆堆芯组件数值模拟的有限元撕裂对接法及系统
CN112579280B (zh) * 2020-12-30 2022-11-29 奇瑞汽车股份有限公司 云资源的调度方法、装置及计算机存储介质
CN113641124B (zh) * 2021-08-06 2023-03-10 珠海格力电器股份有限公司 一种算力分配方法、装置、控制器及楼宇控制系统
CN113806089B (zh) * 2021-09-17 2023-06-27 中国联合网络通信集团有限公司 集群负载资源调度方法、装置、电子设备及可读存储介质
CN114185488A (zh) * 2021-11-29 2022-03-15 广东财经大学 一种大数据集群的存储优化方法及系统
CN113867973B (zh) * 2021-12-06 2022-02-25 腾讯科技(深圳)有限公司 资源分配的方法和装置
CN115242797B (zh) * 2022-06-17 2023-10-27 西北大学 一种面向微服务架构的客户端负载均衡方法及系统
CN115827179B (zh) * 2022-09-15 2023-08-18 江西锋铄新能源科技有限公司 一种物理机设备的算力调度方法、装置、设备及存储介质
CN116737394B (zh) * 2023-08-14 2023-10-27 中海智(北京)科技有限公司 一种动态调整的安检集中判图任务分配方法
CN116880965B (zh) * 2023-09-08 2024-02-09 苏州浪潮智能科技有限公司 一种节点分配方法、系统、装置及介质
CN117272329A (zh) * 2023-11-21 2023-12-22 明阳时创(北京)科技有限公司 一种基于分布式虚拟化漏洞扫描方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101309208A (zh) * 2008-06-21 2008-11-19 华中科技大学 一种适用于网格环境的基于可靠性代价的作业调度系统
CN101639793A (zh) * 2009-08-19 2010-02-03 南京邮电大学 一种基于支持向量回归机的网格负载预测方法
US7669029B1 (en) * 2006-11-15 2010-02-23 Network Appliance, Inc. Load balancing a data storage system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109638A (ja) * 1999-10-06 2001-04-20 Nec Corp 推定伸長率に基づくトランザクション負荷分散方法及び方式並びにコンピュータ可読記録媒体
US7213065B2 (en) * 2001-11-08 2007-05-01 Racemi, Inc. System and method for dynamic server allocation and provisioning
KR100715674B1 (ko) * 2005-09-15 2007-05-09 한국전자통신연구원 부하 분산 방법 및 장치, 그리고 이를 이용한 소프트웨어스트리밍 시스템
US8209687B2 (en) * 2007-08-31 2012-06-26 Cirba Inc. Method and system for evaluating virtualized environments
JP4906686B2 (ja) * 2007-11-19 2012-03-28 三菱電機株式会社 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム
US8051174B2 (en) * 2008-03-03 2011-11-01 Microsoft Corporation Framework for joint analysis and design of server provisioning and load dispatching for connection-intensive server
US8230069B2 (en) * 2008-03-04 2012-07-24 International Business Machines Corporation Server and storage-aware method for selecting virtual machine migration targets
US8849971B2 (en) * 2008-05-28 2014-09-30 Red Hat, Inc. Load balancing in cloud-based networks
CN101504620A (zh) * 2009-03-03 2009-08-12 华为技术有限公司 一种虚拟化集群系统负载平衡方法、装置及系统
US8464267B2 (en) * 2009-04-10 2013-06-11 Microsoft Corporation Virtual machine packing method using scarcity
US8489744B2 (en) * 2009-06-29 2013-07-16 Red Hat Israel, Ltd. Selecting a host from a host cluster for live migration of a virtual machine
US9116731B2 (en) * 2010-04-07 2015-08-25 Accenture Global Services Limited Cloud reference model framework

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7669029B1 (en) * 2006-11-15 2010-02-23 Network Appliance, Inc. Load balancing a data storage system
CN101309208A (zh) * 2008-06-21 2008-11-19 华中科技大学 一种适用于网格环境的基于可靠性代价的作业调度系统
CN101639793A (zh) * 2009-08-19 2010-02-03 南京邮电大学 一种基于支持向量回归机的网格负载预测方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102624865B (zh) * 2012-01-09 2014-06-18 浙江大学 集群负载预测方法及分布式集群管理系统
CN102624865A (zh) * 2012-01-09 2012-08-01 浙江大学 集群负载预测方法及分布式集群管理系统
CN103248659B (zh) * 2012-02-13 2016-04-20 北京华胜天成科技股份有限公司 一种云计算资源调度方法和系统
CN103248659A (zh) * 2012-02-13 2013-08-14 北京华胜天成科技股份有限公司 一种云计算资源调度方法和系统
CN103595780A (zh) * 2013-11-08 2014-02-19 中国人民解放军理工大学 基于消重的云计算资源调度方法
CN103595780B (zh) * 2013-11-08 2017-01-04 中国人民解放军理工大学 基于消重的云计算资源调度方法
CN105208119A (zh) * 2015-09-21 2015-12-30 重庆大学 一种云数据中心任务分配方法、装置和系统
CN105208119B (zh) * 2015-09-21 2018-06-22 重庆大学 一种云数据中心任务分配方法、装置和系统
CN105491138A (zh) * 2015-12-15 2016-04-13 国网智能电网研究院 一种基于负载率分级触发的分布式负载调度方法
EP3467652A4 (en) * 2016-06-30 2019-05-15 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR BALANCING DATA
CN106886478A (zh) * 2017-02-22 2017-06-23 郑州云海信息技术有限公司 一种数据过滤方法及监控服务器
CN113626282A (zh) * 2021-07-16 2021-11-09 济南浪潮数据技术有限公司 云计算物理节点负载监控方法、装置、终端及存储介质
CN113626282B (zh) * 2021-07-16 2023-12-22 济南浪潮数据技术有限公司 云计算物理节点负载监控方法、装置、终端及存储介质

Also Published As

Publication number Publication date
US8510747B2 (en) 2013-08-13
CN102232282B (zh) 2014-03-26
US20120204176A1 (en) 2012-08-09
CN102232282A (zh) 2011-11-02

Similar Documents

Publication Publication Date Title
WO2011110026A1 (zh) 一种实现数据中心资源负载均衡的方法及装置
CN106790726B (zh) 一种基于Docker云平台的优先级队列动态反馈负载均衡资源调度方法
CN102185779B (zh) 与综合配置能力成比例的数据中心资源负载均衡的方法及装置
Nashaat et al. Smart elastic scheduling algorithm for virtual machine migration in cloud computing
CN107239336B (zh) 一种实现任务调度的方法及装置
WO2018076791A1 (zh) 一种资源负载均衡控制方法及集群调度器
US10623481B2 (en) Balancing resources in distributed computing environments
US8185893B2 (en) Starting up at least one virtual machine in a physical machine by a load balancer
Dhari et al. An efficient load balancing scheme for cloud computing
McDaniel et al. A two-tiered approach to I/O quality of service in docker containers
CN106133693A (zh) 虚拟机的迁移方法、装置及设备
CN111666158A (zh) 一种基于Kubernetes的容器调度方法、装置、存储介质及电子设备
Zheng et al. Auto-scaling in Kubernetes-based fog computing platform
Kanniga Devi et al. Load monitoring and system-traffic-aware live VM migration-based load balancing in cloud data center using graph theoretic solutions
Komarasamy et al. A novel approach for Dynamic Load Balancing with effective Bin Packing and VM Reconfiguration in cloud
Seth et al. Dynamic threshold-based dynamic resource allocation using multiple VM migration for cloud computing systems
Chandrasekaran et al. Load balancing of virtual machine resources in cloud using genetic algorithm
Emara et al. Genetic-Based Multi-objective Task Scheduling Algorithm in Cloud Computing Environment.
Kumar et al. Load balancing algorithm to minimize the makespan time in cloud environment
Wu et al. Abp scheduler: Speeding up service spread in docker swarm
US20170031972A1 (en) Providing consistent tenant experiences for multi-tenant databases
Neelakantan et al. Task allocation in distributed systems
Alatawi et al. Hybrid load balancing approach based on the integration of QoS and power consumption in cloud computing
Mirtaheri et al. Adaptive load balancing dashboard in dynamic distributed systems
Kumar et al. Resource allocation for heterogeneous cloud computing using weighted fair-share queues

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080005220.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10847284

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10847284

Country of ref document: EP

Kind code of ref document: A1