WO2012164624A1 - 仮想マシンのリソース管理装置及び管理方法 - Google Patents

仮想マシンのリソース管理装置及び管理方法 Download PDF

Info

Publication number
WO2012164624A1
WO2012164624A1 PCT/JP2011/003095 JP2011003095W WO2012164624A1 WO 2012164624 A1 WO2012164624 A1 WO 2012164624A1 JP 2011003095 W JP2011003095 W JP 2011003095W WO 2012164624 A1 WO2012164624 A1 WO 2012164624A1
Authority
WO
WIPO (PCT)
Prior art keywords
physical server
logical group
virtual machine
cpu
migration
Prior art date
Application number
PCT/JP2011/003095
Other languages
English (en)
French (fr)
Inventor
陽介 佐藤
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2011/003095 priority Critical patent/WO2012164624A1/ja
Publication of WO2012164624A1 publication Critical patent/WO2012164624A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration

Definitions

  • the present invention is managed by a virtual machine resource management apparatus and management method, and is particularly suitable for application to a management server equipped with a DRS (Distributed Resource Scheduler) function.
  • DRS Distributed Resource Scheduler
  • VMotion refers to a function of moving a virtual machine running on a physical server to another physical server while operating.
  • a virtual machine can be moved to another physical server without changing the IP (Internet Protocol) address or MAC (Media Access Control), etc., while maintaining a session such as TCP (Transmission Control Protocol) completely. can do.
  • the VMotion function is a function to move the data of the execution instance of the virtual machine, not to move the actual data, and the actual data is arranged in the shared storage.
  • DRS means that a plurality of physical servers in the computer system are divided into a plurality of logical groups called VM clusters (hereinafter referred to as logical groups), and the load (CPU) of the physical server groups in these logical groups.
  • This is a function for managing the variation of the utilization rate and the memory utilization rate as a standard deviation.
  • VMotion is automatically executed, and the virtual machine is migrated to another physical server in the logical group.
  • the DRS function aims at maximizing performance by leveling the load balance between physical servers. Further, according to the DRS function, a migration rule for each virtual machine such as “virtual machine A and virtual machine B cannot coexist” and “virtual machine C and virtual machine D coexist” can be formulated.
  • Patent Document 1 includes a movement time, a virtual machine identifier, and a migration source and a migration destination physical server identifier each time a virtual machine is moved to another physical server in relation to the DRS function.
  • the migration history is stored, and when an event such as a virtual machine failure occurs, a link is made to the log file of the physical server where the virtual machine concerned with the failure currently exists and the physical server that existed in the past.
  • a technique for generating an event message and displaying the generated event message on a screen of a management terminal is disclosed.
  • the DRS function for configuring the placement of virtual machines by autonomously balancing the load is an effective means.
  • the operator Since it is necessary to limit the range or to divide the responsibility according to authority, it is necessary for the operator to group resources to some extent and to construct multiple logical groups.
  • the present invention has been made in consideration of the above points, and aims to realize a virtual machine resource management apparatus and management method capable of stabilizing the entire system.
  • a plurality of physical servers each implemented with a virtualization program are divided into a plurality of logical groups and managed, and the load balance of each physical server in each logical group is leveled.
  • a monitoring unit that can set a movement pattern of the virtual machine that occurs when resources in a group are insufficient as an error rule, and monitors whether the virtual machine corresponding to the set error rule is moved, and the error rule If the monitoring unit detects that the virtual machine corresponding to the One physical server is selected from the physical servers belonging to the logical group other than the logical group in which the virtual machine has moved, and the same virtual machine that is operating or scheduled to operate on the selected physical server is selected.
  • a plurality of physical servers each implemented with a virtualization program are managed by dividing them into a plurality of logical groups, and the load balance of each physical server in each logical group is leveled.
  • the resource in the logical group A first step of setting, as an error rule, a movement pattern of the virtual machine that occurs when there is a shortage; monitoring whether or not the movement of the virtual machine corresponding to the set error rule has occurred; When it is detected that the corresponding virtual machine has moved, the virtual machine has moved.
  • One physical server is selected from the physical servers belonging to the logical group other than the logical group, and the virtual machines that are operating or scheduled to operate on the selected physical server A second step of changing the configuration of the corresponding logical group so that the selected physical server is lent to the logical group in which the movement of the virtual machine corresponding to the error rule has occurred after being moved to the physical server; And so on.
  • a physical server is lent from another logical group to a logically insufficient logical group, so that the load balance between logical groups can be leveled.
  • a virtual machine resource management apparatus and management method capable of leveling load balance between logical groups and suppressing occurrence of movement of virtual machines within each logical group and thus stabilizing the entire system. Can be realized.
  • reference numeral 1 denotes a computer system according to this embodiment as a whole.
  • the computer system 1 is configured by connecting a plurality of physical servers 2, a management server 3, and a management client 4 to each other via a communication network 5.
  • the physical server 2 is a computer device configured by a personal computer or the like, and includes information processing resources such as a CPU (Central Processing Unit) 10, a memory 11, and a storage device 12.
  • a hypervisor 13 that is a virtualization program is stored in the memory 11 of the physical server 2.
  • the CPU 10 executes the hypervisor 13, one or a plurality of virtual machines 14 are built on the memory 11.
  • Various services are provided to the user by the virtual machine 14.
  • the management server 3 includes, for example, a personal computer, a workstation, or a main frame, and includes information processing resources such as a CPU 20, a memory 21, and a storage device 22.
  • the management server 3 collects and manages various information of each physical server 2 and each virtual machine 14 existing in the computer system 1 from each physical server 2.
  • the management server 3 collects one or a plurality of physical servers 2 to construct a logical group (hereinafter referred to as a logical group) LG according to the settings of the system administrator, and sets the CPU in units of logical groups LG. Resources such as performance and memory capacity can also be managed. Management related to the virtual machine 14 such as generation, stop, and movement of the virtual machine 14 on the physical server 2 is performed by the management server 3.
  • the management client 4 is a computer device that includes information processing resources such as a CPU 30, a storage device 31, and a memory (not shown), an input device 32, an output device 33, and the like, and includes, for example, a personal computer.
  • information processing resources such as a CPU 30, a storage device 31, and a memory (not shown), an input device 32, an output device 33, and the like, and includes, for example, a personal computer.
  • the user acquires configuration information of each physical server 2 and each virtual machine 14 from the management server 3, and makes various settings such as reservations for creating, starting and stopping the virtual machine 14. 3 can be performed.
  • the necessary virtual machines 14 are arranged so that the load balance between the physical servers 2 is leveled.
  • the management server 3 is equipped with a DRS function for performing hot migration to other physical servers 2 in the same logical group LG.
  • the management server 3 manages the load status of each physical server 2 in the computer system 1 in units of logical groups LG set in advance by the system administrator, and the physical servers 2 in any of the logical groups LG. When the load balance between them is lost, by controlling the corresponding physical server 2, the corresponding virtual machine 14 operating on the physical server 2 is hot-migrated to another physical server 2 in the same logical group LG. .
  • This error rule is a hot migration occurrence pattern that is considered to occur when resources in the logical group LG run short.
  • the management server 3 when hot migration corresponding to the error rule occurs, the management server 3 does not converge hot migration in the logical group LG (insufficient resources in the logical group LG).
  • the logical resources are searched so that the surplus resources of the other logical group LG are searched and the physical server 2 is lent out from the other logical group LG to the logical group LG in which the hot migration corresponding to the error rule occurs.
  • a logical group configuration change function for changing the configuration of the group LG is installed.
  • a first pattern of such an “error rule” after a virtual machine 14 is hot-migrated, the migration destination is stored within a predetermined time (hereinafter, 30 minutes or less).
  • a predetermined time hereinafter, 30 minutes or less.
  • another virtual machine 14 that has been operating on the physical server 2 is hot-migrated to another physical server 2 (hereinafter referred to as a first error rule) is defined. This is because although hot migration of the virtual machine 14 is executed in the logical group LG in consideration of the load balance of the physical server 2, such hot migration induces other hot migration. This is because when migration occurs, it can be determined that resources are insufficient in the logical group LG.
  • the frequency of occurrence of hot migration of a specific virtual machine 14 in a certain logical group LG is set in advance (hereinafter, one day). 3 times) (hereinafter referred to as the second error rule). This is because hot migration of virtual machines autonomously performed in consideration of the load balance of the physical servers 2 in the logical group LG has not converged. If such hot migration occurs, the logical machine This is because it can be determined that resources are insufficient in the group.
  • the management server 3 determines whether the hot migration is an event corresponding to the first or second error rule, and the hot migration is the first. If the event corresponds to the first or second error rule, the surplus resource amount in the other logical group LG is confirmed, and the first or second error is detected from the logical group LG having the remaining resources.
  • the configuration of the corresponding logical group LG is temporarily changed (logical group configuration change processing) so as to lend a physical server after determining the time limit for the logical group LG that has performed hot migration corresponding to the rule.
  • the management server 3 manages the lending time limit of the physical server 2 lent from one logical group LG to another logical group LG, and notifies the system administrator when the lending time limit approaches (lending time notification processing) On the other hand, if it is within one day of the lending time limit, the configuration of the logical group LG is changed so that the physical server 2 is returned to the lending source logical group LG (borrowed resource return process).
  • the management server 3 cancels the lending state of the physical server 2 that has been lent from one logical group LG to another logical group LG in accordance with the input operation of the system administrator, and the physical server 2 is left as it is as the lending destination logical.
  • a process of belonging to the group LG (hereinafter referred to as a lending cancellation process) is also executed.
  • the memory 21 of the management server 3 includes a logical group configuration change program 40 and a physical server configuration table as shown in FIG. 41, a virtual machine reservation information list 42, a hot migration information table 43, an event list 44, a resource acquisition destination list 45, a migration destination candidate list 46, a borrowed resource management table 47, and a physical server list 48 are stored.
  • the logical group configuration change program 40 is a program for executing various processes based on the logical group configuration change function according to the present embodiment as described above.
  • the physical server configuration table 41 is a table used for managing the configuration information of the physical servers 2 collected from each physical server 2 existing in the computer system 1 by the management server 3, as shown in FIG. And a physical server column 41A, a CPU performance column 41B, a memory capacity column 41C, and an assigned logical group column 41D.
  • the server name (for example, device ID) of the corresponding physical server 2 is stored.
  • the CPU performance column 41B stores the performance of the CPU 10 (FIG. 1) mounted on the physical server
  • the memory capacity column 41C stores the memory of the memory 11 (FIG. 1) mounted on the physical server 2.
  • the capacity is stored.
  • the group name of the logical group LG to which the physical server 2 belongs is stored in the belonging logical group column 41D.
  • the physical server 2 called “physical server 1” is equipped with a CPU 10 having four cores each having a processing performance of “2 GHz” and a memory 11 having a capacity of “6 GB”. It is shown that the system administrator is set to belong to a logical group LG called “logical group E”.
  • the virtual machine reservation information list 42 is a list used for managing the virtual machines 14 (FIG. 1) that are operating or scheduled to operate on the physical server 2, and the management client 4 to the management server 3 according to user operations. Are created for each logical group LG in response to the reservation setting request of the virtual machine 14 given to the virtual machine 14.
  • the virtual machine reservation information list 42 includes a virtual machine column 42A, a CPU allocation column 42B, a memory allocation column 42C, an allocation destination column 42D, a start date / time column 42E, and an end date / time column 42F.
  • the virtual machine column 42A stores the host name of the virtual machine 14 specified in the reservation setting request to operate on any physical server 2 belonging to the logical group LG corresponding to the virtual machine reservation information list 42.
  • the CPU allocation amount column 42B the performance of the CPU 10 to be allocated to the virtual machine 14 is stored.
  • the memory allocation field 42C stores the memory capacity to be allocated to the virtual machine 14, and the allocation destination field 42D stores the server name of the physical server 2 on which the virtual machine 14 is to be operated.
  • the start date and time column 42E stores the date and time when the operation of the virtual machine 14 should start (start date and time)
  • the end date and time column 42F stores the date and time when the operation of the virtual machine 14 should end (end date and time). Stored.
  • the information stored in the virtual machine column 42A, CPU allocation column 42B, memory allocation column 42C, allocation destination column 42D, start date / time column 42E, and end date / time column 42F are all received from the management client 4 according to user operations. This is specified in the reservation setting request given to the management server 3.
  • the CPU allocation is made on the physical server 2 called “physical server 1” from “2010/07/10 00:00:00” to “2011/08/10 00:00:00”. It is shown that the user has set the virtual machine 14 called “virtual machine A” having the amount “2 GHz ⁇ 1 core” and the memory allocation amount “2 GB” to be operated.
  • the hot migration information table 43 is a table used for managing hot migration that has occurred in each logical group LG.
  • the management server 3 controls the physical server 2 by the DRS function to execute hot migration, the management server 3 registers and manages various information related to the hot migration in the hot migration information table 43.
  • the hot migration information table 43 includes an occurrence date / time column 43A, a migration virtual machine column 43B, a migration source column 43C, a migration destination column 43D, and a logical group column 43E.
  • the occurrence date and time column 43A stores the date and time when the corresponding hot migration occurred
  • the migration virtual machine column 43B stores the virtual machine that has been migrated to another physical server 2 in the same logical group LG by the hot migration.
  • 14 host names are stored.
  • the migration source column 43C stores the server name of the migration source physical server 2 of the virtual machine 14
  • the migration destination column 43D stores the server name of the migration destination physical server 2 of the virtual machine 14.
  • the Further, the logical group column 43E stores the group name of the logical group LG in which the hot migration has occurred.
  • the event list 44 is a list for managing hot migration corresponding to the first or second error rule that occurred in the computer system 1, and as shown in FIG. It consists of a column 44B, a source column 44C, and a cause virtual machine column 44D.
  • the event content column 44A stores the error rule type corresponding to the hot migration
  • the occurrence date / time column 44B stores the date / time when the hot migration occurred.
  • the source column 44C stores the group name of the logical group LG in which the hot migration has occurred
  • the cause virtual machine column 44D stores the host name of the virtual machine 14 that has caused the hot migration. Is done. In the figure, “error rule 1” corresponds to the first error rule, and “error rule 2” corresponds to the second error rule.
  • hot migration corresponding to “error rule 1 (first error rule)” occurs in “2011/2/4 14:00” in the logical group LG called “logical group A”. It is indicated that the host name of the causing virtual machine 14 is “virtual machine A_A”.
  • the resource acquisition destination list 45 It is a list created temporarily to calculate the loan deadline.
  • the resource acquisition destination list 45 includes a physical server column 45A, a surplus CPU performance column 45B, a surplus memory capacity column 45C, a lending term column 45D, and a lending source column 45E.
  • the server name of the physical server 2 detected as the physical server 2 having surplus capacity by such search is stored.
  • the surplus CPU performance column 45B stores the surplus CPU performance of the physical server 2 (hereinafter referred to as surplus CPU performance).
  • This surplus CPU performance is the CPU performance to be allocated to the virtual machine 14 running on the physical server 2 from the total CPU performance (core performance ⁇ number of cores) of the CPU 10 (FIG. 1) mounted on the physical server 2. It is a value calculated by subtracting the sum.
  • surplus memory capacity column 45C stores the surplus memory capacity of the physical server 2 (hereinafter referred to as surplus memory capacity).
  • This surplus memory capacity is also a value calculated by subtracting the total memory capacity to be allocated to the virtual machine 14 running on the physical server 2 from the capacity of the memory 11 mounted on the physical server 2.
  • the lending time limit column 45D stores a time limit (lending time limit) at which the physical server 2 can be lent to the logical group LG in which hot migration corresponding to the first or second error rule has occurred. Stores the group name of the logical group LG that is the lending source of the physical server 2.
  • the physical server 2 “physical server 1” belonging to the logical group LG “logical group E” has a total surplus CPU performance of “6 GHz” and a surplus memory capacity of “4 GB”. It is shown that the lending time limit is “2011/08/10 00:00”.
  • FIG. 8 is a list temporarily created to determine the physical server 2 that can be the migration destination of the virtual machine 14 operating above, and includes a virtual machine column 46A and a migration destination candidate column 46B as shown in FIG. The
  • the virtual machine column 46A operates on a rent candidate physical server (hereinafter referred to as a rent candidate physical server) 2 for the logical group LG in which hot migration corresponding to the first or second error rule has occurred.
  • the host name of each virtual machine 14 is stored, and the server name of the physical server 2 that can be the migration destination of the corresponding virtual machine 14 is stored in the migration destination candidate column 46B.
  • the virtual machine 14 called “virtual machine B” is operating on the rental candidate physical server 2, and the physical server 2 called “physical server 1” is listed as a candidate for the movement destination. It has been shown.
  • the borrowed resource management table 47 is a list used for managing the physical server 2 lent out from another logical group LG with respect to a certain logical group LG. As shown in FIG. , A lending term column 47B, a borrower column 47C and a borrower column 47D.
  • the server name of the physical server 2 lent out from another logical group LG (borrower) to a certain logical group LG (borrower) is stored.
  • a lending time limit indicating the time limit until which the physical server 2 can be lent is stored.
  • the borrower column 47C stores the group name of the logical group LG of the renter (borrower) of the physical server 2, and the borrower column 47D stores the logical name of the renter (borrower) of the physical server 2. Stores the group name of the group LG.
  • the physical server 2 “physical server 2” from the logical group LG “logical group E” is changed to “2011/08/09 00:00” with respect to the logical group LG “logical group B”. It is shown that it is loaned up to the loan deadline.
  • the physical server list 48 includes the migration destination physical server determination process (FIG. 18) for determining the lending candidate physical server 2 as described above, and the physical server 2 lent to another logical group LG to the renting source logical group LG. It is a list created temporarily during the borrowed resource return process to be returned (FIG. 21A and FIG. 21B).
  • the physical server list 48 includes a physical server column 48A, a CPU performance column 48B, a memory capacity column 48C, and a belonging logical group column 48D.
  • the information stored in the physical server column 48A, the CPU performance column 48B, the memory capacity column 48C, and the assigned logical group column 48D are the physical server column 41A, the CPU performance column 41B, and the physical server configuration table 41 (FIG. 3). Since it is the same as the information stored in the memory capacity column 41C and the assigned logical group column 41D, further explanation is omitted here.
  • FIG. 11 shows a processing procedure of a first event monitoring process that is executed periodically (for example, once a day) by the CPU 20 of the management server 3.
  • a virtual machine 14 is hot-migrated
  • another virtual machine 14 operating on the migration destination physical server 2 becomes another physical machine.
  • the case of hot migration to the server 2 is defined as hot migration corresponding to the first error rule. Therefore, the CPU 20 of the management server 3 monitors the occurrence of hot migration corresponding to the first error rule by periodically executing the first event monitoring process shown in FIG.
  • the CPU 20 when starting the first event monitoring process, the CPU 20 first selects one logical group LG from a plurality of logical groups LG set in advance by the system administrator (SP1), and selects the selected logical group LG. All information related to hot migration occurring in the group LG (hereinafter referred to as hot migration information) is acquired from the hot migration information table 43 (SP2).
  • hot migration information All information related to hot migration occurring in the group LG (hereinafter referred to as hot migration information) is acquired from the hot migration information table 43 (SP2).
  • the CPU 20 selects one hot migration information from the hot migration information acquired in step SP2 (SP3), and the physical server 2 of the “migration destination” of the hot migration corresponding to the hot migration information is “moved”. It is determined whether the information (hot migration information) related to the hot migration of the “original” physical server 2 is included in the hot migration information acquired in step SP2 (SP4).
  • the CPU 20 obtains a negative result in this determination, it returns to step SP3.
  • the “migration destination” physical server 2 from among the hot migrations corresponding to the respective hot migration information acquired at step SP2 is “migration source”.
  • One hot migration information of the hot migration that is the physical server 2 is selected (SP5), and the hot migration occurrence date corresponding to the hot migration information is within 30 minutes of the hot migration occurrence date selected in step SP3. It is determined whether or not there is (SP6).
  • the CPU 20 obtains a negative result in this determination, it proceeds to step SP8.
  • the generation time is earlier based on the hot migration information for hot migration selected at step SP3 and the hot migration information for hot migration selected at step SP5.
  • the hot migration is identified as the hot migration that caused the occurrence of the hot migration corresponding to the first error rule that occurred at that time, the occurrence time of the hot migration, the contents of the event, the group name of the logical group LG of the occurrence and its
  • the host name of the virtual machine 14 that caused the event is registered in the event list 44 (FIG. 6) (SP7).
  • step SP8 determines whether or not the same processing has been executed for all the hot migrations that can obtain a positive result in the determination at step SP4 (SP8). If the CPU 20 obtains a negative result in this determination, it returns to step SP5, and thereafter repeats the processing of step SP5 to step SP8.
  • step SP3 is performed for all hot migrations for which hot migration information has been acquired in step SP2. It is determined whether or not the processing of step SP8 has been completed (SP9).
  • step SP3 When the CPU 20 obtains a negative result in this determination, it returns to step SP3, and then repeats the processing of step SP3 to step SP9 while sequentially switching the hot migration information selected in step SP3 to other hot migration information that has not been processed.
  • step SP9 When the CPU 20 eventually obtains a positive result in step SP9 by completing the processing of steps SP3 to SP9 for all the hot migrations for which hot migration information has been acquired in step SP2, the CPU 20 performs steps SP2 to SP for all the logical groups LG. It is determined whether or not the processing of step SP9 has been completed (SP10).
  • step SP10 If the CPU 20 obtains a negative result in this determination, it returns to step SP1, and thereafter repeats the processing of step SP1 to step SP10.
  • the CPU 20 eventually obtains an affirmative result in step SP10 by completing the execution of the processing of steps SP2 to SP9 for all the logical groups LG, it ends this first event monitoring processing.
  • FIG. 12 shows a processing procedure of the second event monitoring process that is executed periodically (for example, once a day) by the CPU 20 of the management server 3.
  • a hot corresponding to the second error rule is a case where hot migration of a specific virtual machine 14 occurs in a certain logical group LG three times or more per day. It is defined as migration. Therefore, the CPU 20 of the management server 3 monitors the occurrence of hot migration corresponding to the second error rule by periodically executing the second event monitoring process shown in FIG.
  • the CPU 20 when starting the second event monitoring process, the CPU 20 first selects one logical group LG from a plurality of logical groups LG set in advance by the system administrator (SP20), and selects the selected logical group LG. Of the hot migrations that occurred in the group LG, the hot migration information of all hot migrations that occurred within one day (all hot migrations that occurred after the previous second event monitoring process was executed) Obtained from the table (SP21).
  • the CPU 20 selects one virtual machine 14 from the virtual machines 14 moved to the other physical server 2 by the hot migration that acquired the hot migration information in step SP21 (SP22), and relates to the selected virtual machine 14 All the hot migration information is acquired from the hot migration information acquired in step SP21 (SP23).
  • the CPU 20 determines whether there are three or more pieces of hot migration information acquired in step SP23 (SP24).
  • step SP22 When the CPU 20 obtains a negative result in this determination, it returns to step SP22, and thereafter repeats the processing after step SP22 while sequentially switching the virtual machine 14 selected in step SP22 to another virtual machine 14 that has not been processed.
  • the hot error with the earliest occurrence time is set to the second error rule that occurred at that time.
  • the hot migration that has caused the corresponding hot migration is identified as the hot migration occurrence time, the event content, the group name of the logical group LG that is the occurrence source, and the host name of the virtual machine 14 that has caused the event.
  • the event list 44 (FIG. 6) is registered (SP25).
  • step SP22 determines whether or not the processing of step SP22 to step SP25 has been completed for all the corresponding virtual machines 14 (that is, the virtual machines 14 related to any of the hot migration information acquired in step SP21). (SP26).
  • step SP22 If the CPU 20 obtains a negative result in this determination, it returns to step SP22, and thereafter repeats the processing of step SP22 to step SP26 while sequentially switching the virtual machine 14 selected in step SP22 to another virtual machine 14 that has not been processed. .
  • step SP26 when the CPU 20 eventually obtains a positive result in step SP26 by completing the processing of step SP22 to step SP26 for all corresponding virtual machines 14, it executes the processing of step SP21 to step SP25 for all the logical groups LG. It is determined whether or not the processing has been completed (SP27).
  • step SP20 If the CPU 20 obtains a negative result in this determination, it returns to step SP20, and thereafter repeats the processing of step SP20 to step SP27. If the CPU 20 eventually obtains a positive result in step SP27 by completing the execution of the processing of step SP21 to step SP26 for all the logical groups LG, it ends this second event monitoring processing.
  • FIG. 13 shows the hot migration corresponding to the first or second error rule by the CPU 20 of the management server 3 by the first and second event monitoring processes described above.
  • a specific processing procedure of logical group configuration change processing that is subsequently executed by the CPU 20 when detected.
  • the CPU 20 changes the configuration of the logical group LG in the computer system 1 according to the processing procedure shown in FIG.
  • the CPU 20 when starting the logical group configuration change process, the CPU 20 first selects a resource (from the physical server 2 belonging to the logical group LG other than the logical group LG in which the hot migration corresponding to the error rule has occurred within the past week.
  • the physical server 2 having a surplus in CPU performance and memory capacity is searched, and the above-described resource acquisition destination list 45 (FIG. 7), which is a list of such physical servers 2, is created based on the search result (SP30). .
  • the CPU 20 selects one unprocessed physical server 2 registered at the top of the resource acquisition destination list 45 among the physical servers 2 registered in the resource acquisition destination list 45 (SP31).
  • the reservation information of all virtual machines 14 reserved to run on the physical server 2 is acquired from the virtual machine reservation information list 42 (FIG. 4) (SP31).
  • the CPU 20 selects one reservation information from the reservation information acquired in step SP32 (SP33), and the physical server 2 in the same logical group LG that can be the migration destination of the virtual machine 14 corresponding to the selected reservation information. Are searched and determined, and a destination candidate list 46 (FIG. 8) is created based on the determination result (SP34).
  • the CPU 20 determines whether or not the physical server 2 that can be the migration destination of the virtual machine 14 corresponding to the reservation information selected in step SP33 has been determined by the processing in step SP34 (SP35). If the CPU 20 obtains a negative result in this determination, it proceeds to step SP37.
  • the CPU 20 determines whether or not the physical server 2 that can move the corresponding virtual machine 14 has been determined for all the reservation information acquired at step SP32. Judgment is made (SP36).
  • step SP33 If the CPU 20 obtains a negative result in this determination, it returns to step SP33, and thereafter, the reservation information selected in step SP33 is sequentially switched to other unprocessed reservation information in the reservation information acquired in step SP32. The processing from step SP33 to step SP36 is repeated.
  • step SP30 When the CPU 20 eventually determines the migration destination of all the virtual machines 14 reserved to run on the physical server 2 selected in step SP31 and obtains a positive result in step SP36, the CPU 20 creates it in step SP30. It is determined whether or not the processing of step SP32 to step SP36 has been executed for all physical servers 2 registered in the resource acquisition destination list 45 (SP37).
  • step SP31 If the CPU 20 obtains a negative result in this determination, it returns to step SP31, and then selects the physical server 2 selected in step SP31 as another physical server 2 that has not been processed among the physical servers 2 registered in the resource acquisition destination list 45. While sequentially switching to the server 2, the processing of step SP31 to step SP37 is repeated.
  • step SP37 When the CPU 20 eventually obtains an affirmative result in step SP37 by completing the same processing for all the physical servers 2 registered in the resource acquisition destination list 45, all the physical registered in the resource acquisition destination list 45 are obtained. It is determined whether or not there is a physical server 2 in the server 2 that has been able to determine the migration destinations of all virtual machines 14 reserved to operate on the physical server 2 (SP38).
  • the CPU 20 obtains a negative result in this determination, it ends this logical group configuration change processing without changing the configuration of the logical group LG.
  • the CPU 20 obtains a positive result in the determination at step SP38, it is the physical server 2 registered in the resource acquisition destination list 45 and all virtual machines reserved to operate on the physical server 2 Among the physical servers 2 that have been able to determine 14 migration destinations, the physical server 2 registered at the top of the resource acquisition destination list 45 (hereinafter referred to as the “rental target physical server”) 2 is on the target physical server 2 All the virtual machines 14 that are reserved to run in are moved to the corresponding physical servers 2 registered in the migration destination candidate list 46. At the same time, the CPU 20 lends the lending target physical server 2 to the logical group LG in which hot migration corresponding to the first or second error rule has occurred (SP39).
  • the lending of the lending target physical server 2 is the logical stored in the belonging logical group column 41D (FIG. 3) of the entry (row) corresponding to the lending physical server 2 in the physical server configuration table 41 (FIG. 3). This is done by updating the group name to the group name of the lent destination logical group LG.
  • the CPU 20 stores the server name of the rented physical server 2 in the borrowed resource management table 47 (FIG. 9) provided corresponding to the lent destination logical group LG of the rented physical server 2, and The lending period of the lending target physical server 2 and the lending destination of the lending target physical server 2 and the group name of each lending logical group LG are registered (SP40), and then the logical group configuration change processing is terminated. To do.
  • FIG. 14 shows specific processing contents of the CPU 20 in step SP30 of the logical group configuration change processing (FIG. 13).
  • the CPU 20 follows the processing procedure shown in FIG. 14 from the physical servers 2 belonging to the logical group LG other than the logical group LG in which the hot migration corresponding to the error rule has occurred within the past one week.
  • a resource acquisition destination list 45 (FIG. 7), which is a list of physical servers 2 having surplus memory capacity), is created.
  • the CPU 20 starts the resource acquisition destination list creation process shown in FIG. 14, and first refers to the event list 44 (FIG. 6) to see the past week. All logical groups LG in which an event corresponding to the first or second error rule (hot migration) has occurred are detected (SP50).
  • the CPU 20 selects one logical group LG other than the logical group LG detected in step SP50 (SP51), and for each physical server 2 belonging to the logical group LG for the selected logical group LG,
  • the virtual machine 14 (the virtual machine 14 to which the hot migration corresponding to the first or second error rule has been performed) is activated or is operating on the physical server 2
  • the lending period that can be lent to the logical group LG to which the existing physical server 2 belongs is calculated (SP52).
  • the CPU 20 determines all the logical groups LG other than the logical group LG detected in step SP50 (the logical group LG in which an event corresponding to the first or second error rule (hot migration) has occurred within the past week). It is determined whether or not the processing of step SP52 has been completed (SP53).
  • step SP51 When the CPU 20 obtains a negative result in this determination, it returns to step SP51, and thereafter repeats the processing of step SP51 to step SP53 while sequentially switching the logical group LG selected in step SP51 to another unprocessed logical group LG.
  • step SP53 When the CPU 20 eventually obtains an affirmative result in step SP53 by completing the processing of step SP51 to step SP53 for all the logical groups LG other than the logical group LG detected in step SP50, it obtains a positive result based on the processing result of step SP52.
  • the resource acquisition destination list 45 described above is created (SP54).
  • the CPU 20 thereafter sorts the physical servers 2 registered in the resource acquisition destination list 45 created in step SP54 so that they are arranged in order from the one with the least available resources (SP55).
  • the destination list creation process ends.
  • FIGS. 15A and 15B show a specific processing procedure of the CPU 20 in step SP52 of the resource acquisition destination list process (FIG. 14).
  • the CPU 20 follows each of the physical servers belonging to the logical group LG other than the logical group LG in which the hot migration corresponding to the first or second error rule has occurred within the past week according to the processing procedure shown in FIGS. 15A and 15B. 2, the period that can be lent to the logical group LG in which hot migration corresponding to the first or second error rule has occurred within the past week is calculated.
  • step SP52 of the resource acquisition destination list process the CPU 20 starts the lending period calculation process shown in FIGS. 15A and 15B.
  • step SP51 of the resource acquisition destination list process The CPU performance and memory capacity of each physical server 2 belonging to the selected logical group LG (hereinafter referred to as the selected logical group LG) are acquired from the physical server configuration table 41 (FIG. 3), and the selected logical group LG The total amount of resources is calculated (SP60).
  • the CPU 20 turns off an internal flag used to calculate the lending period of the physical server 2 belonging to the selected logical group LG (hereinafter referred to as a lending time limit flag) (SP61). Thereafter, the CPU 20 refers to the corresponding virtual machine reservation information list 42 (FIG. 4) and acquires the end date and time of the error virtual machine 14 (SP63).
  • the CPU 20 creates a resource acquisition destination list 45 (FIG. 7), which is a list of physical servers 2 having resources in the physical servers 2 belonging to the selected logical group LG (SP63).
  • the lending time limit is not stored in the lending time limit column 45D of each entry (row) in the resource acquisition destination list 45.
  • the CPU 20 selects one physical server 2 registered in the resource acquisition destination list 45 created in step SP63 (SP64), and performs the processing from step SP65 to step SP71 for the selected physical server 2. From the current date and time to the end date and time of the error virtual machine 14 acquired in step SP62, the processing is sequentially executed in units of one day.
  • the CPU 20 first determines the date (hereinafter referred to as the first calculation target date) that is the target of the calculation executed in steps SP65 to SP70 (SP65). Then, the CPU 20 refers to the virtual machine reservation information list 42 (FIG. 4) and assigns the first calculation target date to each virtual machine 14 operating on the physical server 2 belonging to the selected logical group LG.
  • the total value of the resource amount to be calculated (the maximum resource usage amount on the first calculation target date of the selected logical group LG, hereinafter referred to as the maximum resource usage amount on the first calculation target date) (SP66). Note that the maximum amount of resource used is calculated for each of CPU performance and memory capacity.
  • the CPU 20 subtracts the maximum used resource amount of the first calculation target day of the selected logical group LG calculated in step SP66 from the total resource amount of the selected logical group LG calculated in step SP60.
  • the surplus amount of resources (surplus CPU performance and surplus memory capacity) of the selected logical group LG on the first calculation target date is calculated (SP67).
  • the CPU 20 determines whether or not the surplus resource amount (surplus CPU performance and surplus memory capacity) calculated in step SP67 is equal to or less than the resource amount (both CPU performance and memory capacity) of the physical server 2 selected in step SP64. Is determined (SP68).
  • step SP65 When the CPU 20 obtains a negative result in this determination, it returns to step SP65, and then switches the first calculation target date determined in step SP65 to the next day, and then executes the processing after step SP66.
  • the CPU 20 obtains a positive result in the determination at step SP68, it sets the lending time limit flag to on (SP69). Further, the CPU 20 displays the previous day of the first calculation target date in the lending time limit column 45D (FIG. 7) corresponding to the physical server 2 that is the target in the resource acquisition destination list 45 (FIG. 7) created in step SP63. (SP70), it is determined whether or not the current first calculation target date has exceeded the end date and time of the error virtual machine 14 acquired in step SP62 (SP71).
  • step SP65 When the CPU 20 obtains a negative result in this determination, the CPU 20 returns to step SP65, and thereafter switches the first calculation target date determined in step SP65 to the next day, and then executes the processing after step SP65.
  • step SP71 When the CPU 20 obtains an affirmative result in step SP71 by ending the processing of step SP65 to step SP70 from the current date and time to the end date and time acquired in step SP62 for the physical server 2 that is the target at that time, It is determined whether or not is set to off (SP72).
  • step SP74 If the CPU 20 obtains a negative result in this determination, it proceeds to step SP74. If it obtains an affirmative result, the lending time limit corresponding to the physical server 2 that is the target in the resource acquisition destination list 45 created in step SP63. The day before the end date and time of the error virtual machine 14 acquired in step SP63 is set in the field 45D (SP73). The reason why the day before the end date / time is set in this way is to provide a margin for one day as a buffer for performing return processing of the physical server 2.
  • step SP74 determines whether or not the processing of step SP64 to step SP73 has been executed for all the physical servers 2 registered in the resource acquisition destination list 45 created in step SP63 (SP74).
  • step SP64 When the CPU 20 obtains a negative result in this determination, the CPU 20 returns to step SP64, and thereafter, while sequentially switching the physical server 2 selected in step SP64 to another physical server 2 that has not been registered in the resource acquisition destination list 45, Similar processing is repeated.
  • step SP74 When the CPU 20 eventually obtains a positive result in step SP74 by completing the processing of step SP64 to step SP73 for all the physical servers 2 registered in the resource acquisition destination list 45, it ends this lending period calculation processing. .
  • FIG. 16 shows the specific processing contents of the CPU 20 in step SP63 of the above-described lending period calculation processing (FIGS. 15A and 15B).
  • the CPU 20 creates a resource acquisition destination list 45 according to the processing procedure shown in FIG.
  • the CPU 20 starts this resource acquisition destination list creation process, and first refers to the virtual machine reservation information list 42 (FIG. 4) to refer to the error virtual machine 14 CPU performance and memory capacity are acquired (SP80).
  • the CPU 20 selects one physical server 2 belonging to the target logical group (selected logical group) LG at this time (SP81).
  • the CPU 20 secures one unused entry (row) on the resource acquisition destination list 45, and stores the entry in the physical server column 45A (FIG. 7) and the lending source column 45E (FIG. 7) in step SP81.
  • the server name of the selected physical server 2 and the group name of the logical group (selected logical group) LG to which the physical server 2 belongs are stored (SP82).
  • the CPU 20 stores an initial value in the lending time limit column 45D (FIG. 7) of the entry (SP82).
  • the CPU 20 acquires the CPU performance of the physical server 2 selected in step SP81 from the physical server configuration table 41 (FIG. 3), and acquires the error virtual machine 14 acquired in step SP80 from the acquired CPU performance of the physical server 2.
  • CPU performance is subtracted, and the subtraction result is stored as surplus CPU performance in the surplus CPU performance column 45B (FIG. 7) of the entry secured in step SP82 of the resource acquisition destination list 45 (SP83).
  • the CPU 20 acquires the memory capacity of the physical server 2 selected in step SP81 from the physical server configuration table 41, and subtracts the memory capacity of the error virtual machine 14 acquired in step SP80 from the acquired memory capacity of the physical server 2.
  • the subtraction result is stored as a surplus memory capacity in the surplus memory capacity column 45C (FIG. 7) of the entry secured in step SP82 of the resource acquisition destination list 45 (SP84).
  • step SP81 to step SP84 determines whether or not the processing of step SP81 to step SP84 has been executed for all the physical servers 2 belonging to the logical group (selected logical group) LG that is the target at that time (SP85).
  • step SP81 When the CPU 20 obtains a negative result in this determination, it returns to step SP81, and thereafter repeats the same processing while sequentially switching the physical server 2 selected in step SP81 to another physical server 2 that has not been processed.
  • step SP85 when the CPU 20 eventually obtains a positive result in step SP85 by completing the processing of step SP81 to step SP84 for all the physical servers 2 belonging to the target logical group LG, the resource acquisition created at this time is acquired.
  • a resource acquisition destination list sort process for sorting the entries in the destination list 45 based on the value of the surplus CPU performance or the surplus memory capacity is executed (SP86), and then the resource acquisition destination list creation process is terminated.
  • FIG. 17 shows a specific processing procedure of the resource acquisition destination list sorting process executed by the CPU 20 in step SP86 of the resource acquisition destination list creation process.
  • This surplus power priority flag is a flag that prescribes which of the surplus CPU performance and the surplus memory capacity should be considered when sorting each entry in the resource acquisition destination list 45 to sort these entries.
  • the CPU 20 rearranges the entries in the resource acquisition destination list according to the confirmation result of step SP90 (SP91). Specifically, for example, when the surplus power priority flag is set in a state in which surplus CPU performance should be preferentially considered, the CPU 20 starts from an entry with a small surplus CPU performance stored in the surplus CPU performance column 45B in order. The entries in the resource acquisition destination list 45 are sorted so that they are arranged. Further, when the surplus priority flag is set in a state where the surplus memory capacity should be preferentially considered, the CPU 20 sets the resources so that the surplus memory capacity stored in the surplus memory capacity column 45C is arranged in ascending order. The entries in the acquisition source list 45 are sorted.
  • the CPU 20 has the same resource amount (the surplus CPU performance or the surplus memory capacity) designated as the resource amount to be preferentially considered by the surplus power priority flag for the resource acquisition destination list 45 that has been sorted in step SP91. It is determined whether or not an entry exists (SP92).
  • the CPU 20 When the CPU 20 obtains a negative result in this determination, it ends this resource acquisition destination list sorting process. On the other hand, if the CPU 20 obtains a positive result in the determination at step SP92, the entry having the same value as the resource amount to be preferentially considered by the reserve power priority flag is changed to the one having a different value from the lease amount The resource amounts (the resource amount not designated as the resource amount to be preferentially considered by the surplus power priority flag) are sorted in ascending order (SP93), and then the resource acquisition destination list sorting process is terminated.
  • FIG. 18 shows a specific processing procedure of the migration destination physical server determination process executed by the CPU 20 in step SP34 of the logical group configuration change process described above with reference to FIG. Indicates.
  • the CPU 20 determines the physical server 2 as the migration destination candidate of the virtual machine 14 selected in step SP33 of the logical group configuration change process according to the processing procedure shown in FIG.
  • the CPU 20 when starting the migration destination physical server determination process, the CPU 20 first selects all the physical servers 2 belonging to the same logical group LG as the target physical server 2 selected at step SP31 of the logical group configuration change process. Information about the server is extracted from the physical server configuration table 41 to create a physical server list 48 (FIG. 10) (SP100).
  • the CPU 20 selects one physical server 2 other than the physical server 2 selected in step SP31 of the logical group configuration change process from among the physical servers registered in the physical server list 48 created in step SP100. (SP101).
  • the CPU 20 sequentially executes the processing from step SP102 to step SP108 for the physical server 2 selected in step SP101 from the current date and time to the end date and time of the error virtual machine 14 in units of one day.
  • the CPU 20 first determines a date (hereinafter, referred to as a second calculation target date) that is a target of calculation executed in steps SP103 to SP107 (SP102).
  • the CPU 20 refers to the virtual machine reservation information list 42 (FIG. 4), and the resource amount to be allocated to the second calculation target day for each virtual machine 14 operating on the physical server 2 selected in step SP101.
  • the maximum amount of resource used on the second calculation target date of the physical server 2 and hereinafter referred to as the maximum amount of resource used on the second calculation target date is calculated (SP103). . Note that the maximum amount of resource used is calculated for each of CPU performance and memory capacity.
  • the CPU 20 acquires the CPU performance and memory capacity of the physical server 2 selected in step SP101 from the physical server configuration table 41, and the second calculation target date calculated in step SP103 from the acquired CPU performance and memory capacity, respectively.
  • CPU performance or memory capacity of the physical server 2 selected in step SP101 is subtracted to calculate CPU performance and memory capacity remaining capacity (remaining resource amount) on the second calculation target date (SP104).
  • surplus CPU performance calculated in this way
  • surplus memory capacity is referred to as surplus memory capacity.
  • the CPU 20 determines whether or not there is a virtual machine 14 in which the physical server 2 selected in the current target step SP101 is set as a migration destination candidate in the candidate destination list 46 (FIG. 8) (SP105). . If the CPU 20 obtains a negative result in this determination, it proceeds to step SP107.
  • the virtual machine 14 (the physical server 2 selected at the current target step SP101 is selected from the remaining CPU performance calculated at step SP106).
  • the CPU 20 selects the physical server selected in step SP101 as a target based on the remaining CPU performance and remaining memory capacity calculated in step SP104 or the new remaining CPU performance and remaining memory capacity calculated in step SP106. 2 determines whether there is sufficient resource capacity to operate the virtual machine 14 selected in step SP33 of the logical group configuration change process that is the target at that time (SP107).
  • this determination can be obtained from the surplus CPU performance and surplus memory capacity calculated in step SP104 or step SP106, and the virtual machine reservation information list 42 (FIG. 4), and the logical group configuration change process that is the target at that time. This is performed by comparing the CPU performance and the memory capacity to be assigned to the virtual machine 14 selected in step SP33. Then, when the CPU capacity of the virtual machine 14 is larger than the CPU capacity of the virtual machine 14 and the memory capacity of the virtual machine 14 is larger than the memory capacity of the virtual machine 14, it is determined that “there is resource capacity” ( In step SP107, a positive result is obtained), and in other cases, it is determined that “there is no remaining resource” (a negative result is obtained in step SP107).
  • obtaining a negative result in the determination at step SP107 means that the physical server 2 that is the target at that time is the second calculation target date and time at that time, and the logical group configuration change processing that is the target at that time in step SP33. This means that the selected virtual machine 14 cannot be moved to.
  • the CPU 20 returns to step SP101 to switch the target physical server 2 to the other physical server 2 registered in the physical server list 48 created in step SP100, and thereafter performs steps SP102 to SP107. Process in the same way.
  • step SP107 to obtain an affirmative result in the determination at step SP107 is selected at step SP33 of the logical group configuration change processing that is the target at that time by the physical server 2 that is the target at that time at the second calculation target date and time at that time.
  • the CPU 20 refers to the virtual machine reservation information list 42, and the current second calculation target date is the end date / time of the virtual machine 14 selected in step SP33 of the logical group configuration change process targeted at that time. Is determined whether or not (SP108).
  • the CPU 20 When the CPU 20 obtains a negative result in this determination, it returns to step SP102, and thereafter repeats the same processing until it obtains a positive result at step SP108. When the CPU 20 eventually obtains a positive result in the determination at step SP108, it determines whether the same processing has been executed for all the physical servers 2 that have collected information at step SP100 (SP109).
  • step SP101 the CPU 20 returns to step SP101, and thereafter selects the physical server 2 selected in step SP101 for all the physical servers 2 registered in the physical server list 48 created in step SP100.
  • the processing of step SP101 to step SP109 is repeated while sequentially switching to another unprocessed physical server 2.
  • the CPU 20 When the CPU 20 eventually obtains a positive result at step SP109 by completing the processing of step SP102 to step SP108 for all the physical servers 2 registered in the physical server list 48, it acquires information at step SP100.
  • the physical servers 2 there is a physical server 2 that has sufficient resources to operate the virtual machine 14 for the entire period from the present to the end date and time of the virtual machine 14 (the physical server 2 that has obtained a positive result in the determination of step SP 107). Is determined (SP110).
  • the physical server 2 is regarded as a migration destination candidate list 46 (FIG. 8) as a migration destination candidate for the virtual machine 14 selected in step SP33 of the logical group configuration change process that is the target at that time. (SP111).
  • the CPU 20 has a resource surplus among the physical servers 2 registered in the physical server list 48 created at step SP100. Is registered in the migration destination candidate list 46 as a migration destination candidate of the virtual machine 14. This is because moving the virtual machine 14 to such a physical server 2 has the least influence. Then, the CPU 20 thereafter ends this migration destination physical server determination process.
  • FIG. 19 shows a specific processing procedure of the physical server lending process executed by the CPU 20 in step SP39 of the logical group configuration change process.
  • the CPU 20 lends a physical server to be lent (hereinafter referred to as a rented physical server) 2 to another logical group LG according to the processing procedure shown in FIG.
  • the CPU 20 starts this physical server lending process when proceeding to step SP39 of the logical group configuration change process.
  • the CPU 20 refers to the virtual machine reservation information list 42 and operates on the lending target physical server 2 or operates.
  • One scheduled virtual machine 14 is selected (SP120).
  • the CPU 20 performs hot migration of the virtual machine 14 selected in step SP120 to the corresponding physical server 2 registered in the migration destination candidate list 46 (FIG. 8) by controlling the rental target physical server 2. (SP121).
  • the CPU 20 determines whether or not all the virtual machines 14 that are or are scheduled to run on the rental target physical server 2 have been hot migrated to the corresponding physical server 2 specified in the migration destination candidate list 46. Is determined (SP122).
  • step SP120 If the CPU 20 obtains a negative result in this determination, it returns to step SP120, and thereafter repeats the processing of step SP120 to step SP122 while sequentially switching the virtual machine 14 selected in step SP120 to another virtual machine 14 that has not been processed. .
  • step SP122 When the CPU 20 eventually obtains an affirmative result in step SP122 by completing the processing of step SP121 for all the virtual machines 14 that are operating or scheduled to operate on the rental target physical server 2, the physical server configuration table 41 (FIG. The logical group name stored in the affiliation logical group column 41D (FIG. 3) of the entry corresponding to the rental target physical server 2 in 3) is the group name of the logical group LG that is the rental destination of the rental target physical server 2 at this time. (SP123), the physical server lending process is terminated.
  • the CPU 20 starts this hot migration process.
  • the physical server 2 on which the virtual machine 14 to be hot-migrated is operating that is, the lending target physical server 2.
  • a hot migration execution command specifying the migration target virtual machine 14 and the migration destination of the virtual machine 14 is transmitted (SP130).
  • the renting target physical server 2 causes the migration destination physical server 2 specified in the hot migration execution instruction to hot migrate the virtual machine 14 specified in the hot migration execution instruction.
  • the CPU 20 changes the server name of the physical server 2 stored in the assignment destination column 42D (FIG. 4) of the entry corresponding to the virtual machine 14 in the virtual machine reservation information list 42 (FIG. 4) to the hot migration.
  • the server name of the physical server 2 designated as the migration destination of the virtual machine 14 in the execution command is updated (SP131), and then the hot migration process is terminated.
  • FIGS. 21A and 21B show the processing procedure of the borrowed resource return processing that is periodically executed by the CPU 20 of the management server 3.
  • the CPU 20 returns the physical server 2 registered in the borrowed resource management table 47 (FIG. 9) to the logical group LG of the borrower (renter).
  • the CPU 20 selects one unprocessed physical server 2 from the physical servers 2 registered in the borrowed resource management table 47 (SP140), and thereafter borrows.
  • the resource management table 47 it is determined whether or not the remaining number of days for lending the physical server 2 is one day or less (SP141).
  • the CPU 20 determines whether or not the determination in step SP141 has been executed for all physical servers 2 registered in the borrowed resource management table 47 (SP157). If the CPU 20 obtains a positive result in this determination, it ends this borrowed resource return process.
  • step SP157 if the CPU 20 obtains a negative result in the determination at step SP157, the CPU 20 returns to step SP140. repeat.
  • the CPU 20 obtains a positive result in the determination at step SP141, the information about all virtual machines 14 that are or are scheduled to operate on the physical server 2 (the physical server 2 selected at step SP) that is the target at that time ( (Including the end date and time) is acquired from the virtual machine reservation information list 42 (SP142).
  • the CPU 20 refers to the physical server configuration table 41 and belongs to the logical group LG to which the physical server 2 selected in step SP140 is lent (the logical group LG to which the physical server 2 currently belongs).
  • a physical server list 48 (FIG. 10) in which all physical servers 2 other than the physical server 2 selected in SP140 are registered is created (SP143).
  • the CPU 20 selects one physical server 2 registered in the physical server list 48 created in step SP143 (SP144), and operates or is scheduled to run on the physical server 2 selected in step SP140. 14 is selected (SP145).
  • the CPU 20 performs the processing from step SP146 to step SP149 for the physical server selected at step SP144 and the virtual machine 14 selected at step SP145 in units of one day from the current date and time to the end date and time of the virtual machine 14. Run sequentially.
  • the CPU 20 first determines a date (hereinafter, referred to as a third calculation target date) to be calculated in steps SP146 to SP149 (SP146).
  • the CPU 20 refers to the virtual machine reservation information list 42 (FIG. 4), and the CPU performance to be assigned to the third calculation target date for each virtual machine 14 operating on the physical server 2 selected in step SP144.
  • the total value of the memory capacity (hereinafter referred to as the maximum amount of resources used on the third calculation target day) is calculated (SP147).
  • the maximum amount of resource used is calculated as the total CPU performance of each virtual machine for CPU performance, and the total memory capacity of the virtual machine 14 for the memory capacity.
  • the CPU 20 acquires the CPU performance and memory capacity of the physical server 2 selected in step SP144 from the physical server configuration table 41 (FIG. 3), and calculates the third calculated in step SP147 from the acquired CPU performance and memory capacity, respectively.
  • the surplus CPU performance and the surplus memory capacity on the third calculation target day of the physical server 2 selected in step SP144 are calculated (SP148).
  • the CPU 20 refers to the virtual machine reservation information list 42 (FIG. 4), and whether or not the current third calculation target date has exceeded the end date and time of the virtual machine 14 selected in the target step SP145 at that time. Is determined (SP149).
  • step SP149 determines whether the virtual machine 14 selected in step SP145 can be moved to the physical server 2 selected in step SP (SP150).
  • step SP150 the CPU 20 performs the entire period from the present to the end date / time in the processing of step SP146 to step SP149 performed in units of one day from the present to the end date / time of the virtual machine 14 selected in step SP145. If the surplus CPU performance and the surplus memory capacity calculated in step SP148 are 0 or more, it is determined that the “virtual machine 14 can be moved”, and the “virtual machine 14 cannot be moved” in other cases. It will be judged.
  • step SP152 If the CPU 20 obtains a negative result in this determination, it proceeds to step SP152. On the other hand, when the CPU 20 obtains a positive result in the determination at step SP150, it controls the physical server 2 selected at step SP140 to select the virtual machine 14 selected at step SP145 at that time at step SP144. Hot migration is performed to the physical server 2 (SP151).
  • the CPU 20 determines whether or not the same processing has been executed for all the virtual machines 14 operating on or scheduled to operate on the physical server 2 selected in step SP140 (SP152). If the CPU 20 obtains a negative result in this determination, it returns to step SP145, and thereafter repeats the processing of step SP145 to step SP152 while switching the virtual machine 14 selected in step SP145 to another virtual machine 14 that has not been processed.
  • step SP152 When the CPU 20 eventually obtains an affirmative result in step SP152 by completing the processing of step SP146 to step SP151 for all the virtual machines 14 that are to be run on or scheduled to run on the physical server 2 selected in step SP140, It is determined whether the same processing has been executed for all the physical servers 2 registered in the physical server list 48 (FIG. 10) created in SP143 (SP153).
  • step SP140 If the CPU 20 obtains a negative result in this determination, it returns to step SP140, and thereafter repeats the processing of step SP144 to step SP153 while sequentially switching the physical server 2 selected in step SP144 to another physical server 2 that has not been processed. .
  • step SP140 It is determined whether or not there is a virtual machine 14 that could not be moved from the physical server 2 to another physical server 2 among the virtual machines 14 that are operating or scheduled to operate on the selected physical server 2 (SP154).
  • the CPU 20 When the CPU 20 obtains a negative result in this determination, it ends this borrowed resource return process. On the other hand, when the CPU 20 obtains a positive result in the determination at step SP154, it controls the physical server 2 selected at step SP140 so as to put the virtual machine 14 that could not be moved into a stopped state, and displays that effect. Then, the system administrator is notified (SP155).
  • step SP156 the CPU 20 deletes the entry related to the physical server 2 from the borrowed resource management table 47 (FIG. 9) and corresponds to the physical server 2 in the physical server configuration table 41 (FIG. 3).
  • the logical group name stored in the belonging logical group column 41D (FIG. 3) of the entry to be updated is updated to the group name of the logical group LG of the return destination (rental source).
  • the physical server 2 is returned to the lending source even when the virtual machine 14 that could not be moved from the physical server 2 to be returned to another physical server 2 in the same logical group LG is stopped.
  • the purpose of the logical group configuration change processing described above with reference to FIG. 13 is to temporarily change the logical group configuration.
  • the virtual machine 14 is considered in consideration of the resource amount of the physical server 2. This is because there is a possibility that the reservation has been made. Therefore, in the present embodiment, priority is given to returning the physical server 2 to the lending source logical group LG.
  • the CPU 20 determines whether or not the above processing has been executed for all the physical servers 2 registered in the borrowed resource management table 47 (SP157). If the CPU 20 obtains a negative result in this determination, it returns to step SP140, and thereafter repeats the processing of step SP140 to step SP157 while sequentially switching the physical server 2 selected in step SP140 to another physical server 2 that has not been processed. .
  • step SP157 When the CPU 20 obtains an affirmative result in step SP157 by completing the same processing for all the physical servers 2 registered in the borrowed resource management table 47, it terminates the borrowed resource return processing.
  • FIG. 22 shows a processing procedure of lending term notification processing that is periodically executed by the CPU 20 of the management server 3.
  • the CPU 20 notifies the system administrator of the lending time limit of the physical server 2 for which the remaining days until the lending time limit has become a predetermined number of days (hereinafter, within one week).
  • the CPU 20 first selects one physical server 2 registered in the borrowed resource management table 47 with reference to the borrowed resource management table 47 (FIG. 9). (SP160), it is judged whether or not the lending time limit of the physical server 2 is within one week from the current date (SP161).
  • the CPU 20 obtains a negative result in this determination, it proceeds to step SP163, and if it obtains an affirmative result, it notifies the system administrator of the server name and lending time limit of the target physical server 2 (SP162). .
  • step SP161 determines whether or not the processing after step SP161 has been executed for all the physical servers 2 registered in the borrowed resource management table 47 (SP163), and if a negative result is obtained, returns to step SP160. Thereafter, the processing in steps SP161 to SP163 is repeated while sequentially switching the physical server 2 selected in step SP161 to another physical server 2 that has not been processed.
  • step SP163 When the CPU 20 eventually obtains a positive result in step SP163 by completing the processing of steps SP161 to SP163 for all the physical servers 2 registered in the borrowed resource management table 47, it ends this lending time limit notification processing. .
  • FIG. 23 shows a processing procedure of the lending cancel processing executed by the CPU 20 of the management server 3 by a predetermined operation.
  • the CPU 20 cancels the lending state of the physical server 2 that is rented to another logical group LG designated by the system administrator, and assigns the affiliation of the physical server 2 to the lending destination. To the logical group LG.
  • the CPU 20 displays a predetermined loan release setting screen (not shown) on which the contents of the borrowed resource management table 47 are displayed. (SP170).
  • the CPU 20 performs an input operation for closing the lending release setting screen, or designates the physical server 2 to be released from the lending state on the lending release setting screen, and releases the lending state of the physical server 2. It waits for an input operation of a power instruction (hereinafter referred to as a lending state cancellation instruction) (SP171, SP172).
  • a lending state cancellation instruction SP171, SP172
  • the CPU 20 releases the lending state of the physical server 2 specified in the lending state release command (S173P). Specifically, in step SP173, the CPU 20 deletes the entry corresponding to the physical server 2 from the borrowed resource management table 47, and belongs to the logical group column 41D of the entry corresponding to the physical server 2 in the physical server configuration table 41.
  • the group name stored in (FIG. 3) is updated to the group name of the logical group LG that has been the lending destination.
  • the CPU 20 returns to step SP171 and repeats the same processing. Then, when an input operation for closing the lending cancellation setting screen is performed on the lending cancellation setting screen, the CPU 20 ends the lending cancellation processing.
  • This function is used when a new resource is added to a logical group LG that has run out of resources, or when there is not enough resource in the rented logical group LG to return the lent resource. This is effective.
  • the logical server LG that has undergone hot migration corresponding to the first or second error rule as described above is lent out from the other logical group LG, the logical server 2 is lent.
  • the load balance between the groups LG can be leveled.
  • an error rule after a certain virtual machine 14 is hot-migrated, another error that has been operating on the physical server 2 that is the destination of movement within a predetermined time.
  • first error rule when a specific virtual machine 14 is frequently hot-migrated in a certain logical group LG
  • second error rule the hot migration pattern that occurs when resources in the logical group LG run short is defined as an error rule.
  • patterns other than the first and second error rules described above may be defined as error rules.
  • the monitoring unit that monitors the occurrence of hot migration corresponding to the first or second error rule and the monitoring unit detects that hot migration corresponding to the error rule has occurred. If one physical server 2 is selected from the physical servers 2 belonging to the logical group LG other than the logical group LG in which the hot migration has occurred, the virtual server that operates or is scheduled to operate on the selected physical server 2 After moving the machine 14 to another physical server 2 in the same logical group LG, the selected physical server 2 is moved to the logical group LG in which the movement of the virtual machine 14 corresponding to the first or second error rule has occurred.
  • a logical group configuration change unit that changes the configuration of the corresponding logical group LG so as to lend the management server 3 is described as being realized by the same CPU 20 and logical group configuration change program 40 in FIG. 3, but the present invention is not limited to this, and the monitoring unit and the logical group configuration change unit are realized by separate CPUs and programs. You may do it.
  • the present invention can be applied to a management server equipped with a DRS function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Abstract

 システム全体を安定化させ得る管理装置及び管理方法を提案する。 複数の物理サーバを複数の論理グループに分けて管理し、各論理グループ内における各物理サーバの負荷バランスを平準化するように、いずれかの物理サーバ上で稼働し又は稼働予定の仮想マシンを同一の論理グループ内の他の物理サーバに移動するよう対応する物理サーバを制御する管理装置及び方法において、論理グループ内のリソースが不足したときに発生する仮想マシンの移動パターンをエラールールとして設定し、当該エラールールに該当する仮想マシンの移動が発生した場合に、当該仮想マシンの移動が発生した論理グループ以外の論理グループに所属する物理サーバの中から1つの物理サーバを選択し、選択した物理サーバをエラールールに該当する仮想マシンの移動が発生した論理グループに貸し出すように、対応する論理グループの構成を変更するようにした。

Description

仮想マシンのリソース管理装置及び管理方法
 本発明は、仮想マシンのリソース管理装置及び管理方法に管理し、特に、DRS(Distributed Resource Scheduler)機能が搭載された管理サーバに適用して好適なものである。
 近年、物理的なサーバ装置(以下、これを物理サーバと呼ぶ)上に仮想的なサーバ装置(以下、これを仮想マシンと呼ぶ)を構築することでサーバの集約を行い、所有リソースの効率的な運用をサポートするシステムが普及している。また、「VMotion」及び「DRS」などのホットマイグレーション機能を利用した仮想化技術の進歩により、可用性の高いシステムの構築が進んでいる。
 ここで、「VMotion」とは、ある物理サーバ上で動作中の仮想マシンを動作させたまま別の物理サーバ上に移動する機能をいう。VMotion機能によれば、IP(Internet Protocol)アドレスやMAC(Media Access Control)などを変更することなく、TCP(Transmission Control Protocol)などのセッションも完全に維持したまま仮想マシンを他の物理サーバに移動することができる。VMotion機能は、実際のデータを移動するのではなく、仮想マシンの実行インスタンスのデータを移動する機能であり、実際のデータは共有ストレージに配置される。
 また「DRS」とは、計算機システム内の複数の物理サーバをVMクラスタという複数の論理的なグループ(以下、これを論理グループと呼ぶ)に分け、これら論理グループ内の物理サーバ群の負荷(CPU利用率及びメモリ利用率)のばらつきを標準偏差として管理する機能をいう。この標準偏差の値が予め設定された目標値を超えた場合に自動的に「VMotion」を実行し、仮想マシンを論理グループ内の他の物理サーバに移行させる。DRS機能は、物理サーバ間の負荷バランスの平準化を行うことによりパフォーマンスの最大化を行うことを目的とする。またDRS機能によれば、例えば「仮想マシンAと仮想マシンBとは共存不可」、「仮想マシンC及び仮想マシンDは共存」といった仮想マシンごとの移行ルールを策定することができる。
 なお、下記特許文献1には、DRS機能に関連して、仮想マシンを他の物理サーバに移動させるごとに、移動時刻と、仮想マシン識別子と、移動元及び移動先の物理サーバ識別子とを含む移動履歴を記憶しておき、仮想マシンの障害などのイベントが発生したときに、障害にかかる仮想マシンが現在存在する物理サーバ及び過去に存在していた物理サーバのログファイルへのリンクを張ったイベントメッセージを生成し、生成したイベントメッセージを管理端末の画面に表示する技術が開示されている。
特開2007-323244号公報
 ところで、計算機システムの管理コストを抑えるためには、自律的に負荷バランスをとって仮想マシンの配置を構成するDRS機能は有効な手段であるが、マルチテナント型のデータセンタなどでは、障害の影響範囲を限定したり、権限による担当の分割を行うなどの必要があるため、ある程度運用者がリソースのグルーピングを行い、複数の論理グループを構築する必要がある。
 既存技術では、論理グループ単位でのリソースの最適化ができるが、システム全体を最適な状態に移行することについては考慮されていない。そのため、ある論理グループ内のリソースが不足した状態となると、他の論理グループでは平衡状態であっても、リソースが不足した論理グループ内ではいつまでもホットマイグレーションが収束せず、ホットマイグレーションが頻発するという問題がある。
 また論理グループ内でホットマイグレーションが頻発すると、ネットワークの負荷が増大し、計算機システムに余分な負荷がかかる。計算機システムの安定稼働を実現するためには、仮想マシンを「動かさない」ことが鉄則であるため、不要なホットマイグレーションは抑止することが望ましい。
 本発明は以上の点を考慮してなされたもので、システム全体を安定化させ得る仮想マシンのリソース管理装置及び管理方法を実現しようとするものである。
 かかる課題を解決するため本発明においては、それぞれ仮想化プログラムが実装された複数の物理サーバを複数の論理グループに分けて管理し、各前記論理グループ内における各物理サーバの負荷バランスを平準化するように、いずれかの前記物理サーバ上で稼働し又は稼働予定の仮想マシンを同一の前記論理グループ内の他の前記物理サーバに移動するよう対応する前記物理サーバを制御する管理装置において、前記論理グループ内のリソースが不足したときに発生する前記仮想マシンの移動パターンをエラールールとして設定でき、設定された前記エラールールに該当する前記仮想マシンの移動の有無を監視する監視部と、前記エラールールに該当する前記仮想マシンの移動が発生したことが前記監視部により検出された場合に、当該仮想マシンの移動が発生した前記論理グループ以外の前記論理グループに所属する前記物理サーバの中から1つの前記物理サーバを選択し、選択した物理サーバ上で稼働し又は稼働予定の前記仮想マシンを同一論理グループ内の他の前記物理サーバに移動させた後に、当該選択した物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する論理グループ構成変更部とを設けるようにした。
 また本発明においては、それぞれ仮想化プログラムが実装された複数の物理サーバを複数の論理グループに分けて管理し、各前記論理グループ内における各物理サーバの負荷バランスを平準化するように、いずれかの前記物理サーバ上で稼働し又は稼働予定の仮想マシンを同一の前記論理グループ内の他の前記物理サーバに移動するよう対応する前記物理サーバを制御する管理方法において、前記論理グループ内のリソースが不足したときに発生する前記仮想マシンの移動パターンをエラールールとして設定する第1のステップと、設定された前記エラールールに該当する前記仮想マシンの移動の発生の有無を監視し、前記エラールールに該当する前記仮想マシンの移動が発生したことを検出した場合に、当該仮想マシンの移動が発生した前記論理グループ以外の前記論理グループに所属する前記物理サーバの中から1つの前記物理サーバを選択し、選択した物理サーバ上で稼働し又は稼働予定の前記仮想マシンを同一論理グループ内の他の前記物理サーバに移動させた後に、当該選択した物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する第2のステップとを設けるようにした。
 本発明の管理装置及び管理方法によれば、リソース不足の論理グループに対して他の論理グループから物理サーバが貸し出されるため、論理グループ間の負荷バランスを平準化することができる。また論理グループ内における仮想マシンの移動の発生を抑えることができる。
 本発明によれば、論理グループ間における負荷バランスの平準化及び各論理グループ内における仮想マシンの移動の発生を抑えることができ、かくしてシステム全体を安定化させ得る仮想マシンのリソース管理装置及び管理方法を実現できる。
本実施の形態による計算機システムの全体構成を示すブロック図である。 管理サーバのメモリに格納された各種プログラム及び各種情報の説明に供する概念図である。 物理サーバ構成テーブルの構成を示す概念図である。 仮想マシン予約情報一覧の構成を示す概念図である。 ホットマイグレーション情報テーブルの構成を示す概念図である。 イベント一覧の構成を示す概念図である。 リソース取得先一覧の構成を示す概念図である。 移動先候補一覧の構成を示す概念図である。 借用リソース管理テーブルの構成を示す概念図である。 物理サーバ一覧の構成を示す概念図である。 第1のイベント監視処理の処理手順を示すフローチャートである。 第2のイベント監視処理の処理手順を示すフローチャートである。 論理グループ構成変更処理の処理手順を示すフローチャートである。 リソース取得先一覧作成処理の処理手順を示すフローチャートである。 貸出し期限計算処理の処理手順を示すフローチャートである。 貸出し期限計算処理の処理手順を示すフローチャートである。 リソース取得先一覧作成処理の処理手順を示すフローチャートである。 リソース取得先一覧ソート処理の処理手順を示すフローチャートである。 移動先物理サーバ決定処理の処理手順を示すフローチャートである。 物理サーバ貸出し処理の処理手順を示すフローチャートである。 ホットマイグレーション処理の処理手順を示すフローチャートである。 借用リソース返却処理の処理手順を示すフローチャートである。 借用リソース返却処理の処理手順を示すフローチャートである。 貸出し期限通知処理の処理手順を示すフローチャートである。 貸出し解除処理の処理手順を示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による計算機システムの構成
 図1において、1は全体として本実施の形態による計算機システムを示す。この計算機システム1は、複数の物理サーバ2と、管理サーバ3及び管理クライアント4とが通信ネットワーク5を介して相互に接続されることにより構成されている。
 物理サーバ2は、パーソナルコンピュータなどから構成されるコンピュータ装置であり、CPU(Central Processing Unit)10、メモリ11及び記憶装置12等の情報処理資源を備えて構成される。物理サーバ2のメモリ11には、仮想化プログラムであるハイパーバイザ13が格納されており、このハイパーバイザ13をCPU10が実行することにより1又は複数の仮想マシン14がメモリ11上に構築され、これら仮想マシン14によりユーザに対して各種のサービスが提供される。
 管理サーバ3は、例えばパーソナルコンピュータや、ワークステーション又はメインフレームなどから構成され、CPU20、メモリ21及び記憶装置22等の情報処理資源を備えて構成される。管理サーバ3は、計算機システム1内に存在する各物理サーバ2及び各仮想マシン14の各種情報を各物理サーバ2から収集して管理する。また管理サーバ3は、システム管理者の設定に応じて、1又は複数の物理サーバ2をまとめて論理的なグループ(以下、これを論理グループと呼ぶ)LGを構築し、論理グループLG単位でCPU性能及びメモリ容量などのリソースを管理することもできる。物理サーバ2上における仮想マシン14の生成、停止及び移動などの仮想マシン14に関する管理は、この管理サーバ3により行われる。
 管理クライアント4は、CPU30、記憶装置31及びメモリ(図示せず)などの情報処理資源と、入力装置32及び出力装置33となどを備えたコンピュータ装置であり、例えばパーソナルコンピュータなどから構成される。ユーザは、この管理クライアント4を用いて、管理サーバ3から各物理サーバ2及び各仮想マシン14の構成情報を取得したり、仮想マシン14の生成、起動及び停止の予約などの各種設定を管理サーバ3に対して行うことができる。
(2)本実施の形態による論理グループ構成変更機能
(2-1)論理グループ構成変更機能の概要及び各種テーブルの構成
 次に、本実施の形態による計算機システム1に搭載された論理グループ構成変更機能について説明する。
 本実施の形態の計算機システム1の場合、個々の論理グループLG内の物理サーバ2の負荷バランスが崩れた場合に、これら物理サーバ2間の負荷バランスを平準化するように、必要な仮想マシン14を同じ論理グループLG内の他の物理サーバ2にホットマイグレーションさせるDRS機能が管理サーバ3に搭載されている。
 実際上、管理サーバ3は、計算機システム1内の各物理サーバ2の負荷状況をシステム管理者により予め設定された論理グループLG単位で管理しており、いずれかの論理グループLG内の物理サーバ2間の負荷バランスが崩れた場合に、対応する物理サーバ2を制御することにより、その物理サーバ2上で稼働する対応する仮想マシン14を同じ論理グループLG内の他の物理サーバ2にホットマイグレーションさせる。
 加えて、本実施の形態による計算機システム1では、システム全体で共通のホットマイグレーションのエラールールを設定することができる。このエラールールは、論理グループLG内のリソースが不足したときに発生すると考えられるホットマイグレーションの発生パターンである。そして本計算機システム1の場合、管理サーバ3には、そのエラールールに該当するホットマイグレーションが発生した場合に、論理グループLG内でホットマイグレーションが収束していない(その論理グループLG内のリソースが不足している)ものとして、他の論理グループLGの余剰リソースを検索し、エラールールに該当するホットマイグレーションが発生した論理グループLGに対して他の論理グループLGから物理サーバ2を貸し出すように、論理グループLGの構成を変更する論理グループ構成変更機能が搭載されている。
 ここで、本実施の形態においては、かかる「エラールール」の1つ目のパターンとして、ある仮想マシン14がホットマイグレーションされた後、所定時間内(以下、30分以内とする)に移動先の物理サーバ2上で稼働していた他の仮想マシン14が他の物理サーバ2にホットマイグレーションされた場合(以下、これを第1のエラールールと呼ぶ)が規定されている。これは、物理サーバ2の負荷バランスを考慮して論理グループLG内で仮想マシン14のホットマイグレーションを実行したにも関わらず、かかるホットマイグレーションが他のホットマイグレーションを誘発しており、このようなホットマイグレーションが発生した場合、その論理グループLG内でリソースが不足しているものと判断できるからである。
 また本実施の形態においては、かかる「エラールール」の2つ目のパターンとして、ある論理グループLG内で特定の仮想マシン14のホットマイグレーションの発生頻度が予め設定された頻度(以下、1日に3回とする)以上となっている場合(以下、これを第2のエラールールと呼ぶ)が規定されている。これは、論理グループLG内の物理サーバ2の負荷バランスを考慮して自律的に行われる仮想マシンのホットマイグレーションが収束していないため、このようなホットマイグレーションが発生している場合は、その論理グループ内でリソースが不足していると判断できるからである。
 そして管理サーバ3は、DRS機能により仮想マシン14のホットマイグレーションを実行させた場合、そのホットマイグレーションが第1又は第2のエラールールに該当するイベントであったか否かを判断し、そのホットマイグレーションが第1又は第2のエラールールに該当するイベントであった場合には、他の論理グループLGにおける余剰分のリソース量を確認し、リソースに余力がある論理グループLGからその第1又は第2のエラールールに該当するホットマイグレーションを行った論理グループLGに対して期限を決めて物理サーバを貸し出すように、対応する論理グループLGの構成を一時的に変更する(論理グループ構成変更処理)。
 また管理サーバ3は、ある論理グループLGから他の論理グループLGに貸し出した物理サーバ2の貸出し期限を管理し、その貸出し期限が近付くと、その旨をシステム管理者に通知する(貸出し期限通知処理)一方、かかる貸出し期限の1日以内となると、その物理サーバ2を貸出し元の論理グループLGに返却するように論理グループLGの構成を変更する(借用リソース返却処理)。
 さらに管理サーバ3は、システム管理者の入力操作に応じて、ある論理グループLGから他の論理グループLGに貸し出した物理サーバ2の貸出し状態を解除して、その物理サーバ2をそのまま貸出し先の論理グループLGに所属させる処理(以下、これを貸出し解除処理と呼ぶ)も実行する。
 以上のような本実施の形態による論理グループ構成変更機能を実現するための手段として、管理サーバ3のメモリ21には、図2に示すように、論理グループ構成変更プログラム40と、物理サーバ構成テーブル41、仮想マシン予約情報一覧42、ホットマイグレーション情報テーブル43、イベント一覧44、リソース取得先一覧45、移動先候補一覧46、借用リソース管理テーブル47及び物理サーバ一覧48とが格納されている。
 このうち論理グループ構成変更プログラム40は、上述のような本実施の形態による論理グループ構成変更機能に基づく各種処理を実行するためのプログラムである。
 また物理サーバ構成テーブル41は、管理サーバ3が計算機システム1内に存在する各物理サーバ2から収集したこれら物理サーバ2の構成情報を管理するために利用されるテーブルであり、図3に示すように、物理サーバ欄41A、CPU性能欄41B、メモリ容量欄41C及び所属論理グループ欄41Dから構成される。
 そして物理サーバ欄41Aには、対応する物理サーバ2のサーバ名(例えば装置ID)が格納される。またCPU性能欄41Bには、それぞれその物理サーバに搭載されたCPU10(図1)の性能が格納され、メモリ容量欄41Cには、当該物理サーバ2に搭載されたメモリ11(図1)のメモリ容量が格納される。さらに所属論理グループ欄41Dには、その物理サーバ2が所属する論理グループLGのグループ名が格納される。
 従って、図3の場合、「物理サーバ1」という物理サーバ2は、それぞれ「2GHz」の処理性能を有する4つのコアを有するCPU10と、「6GB」の容量を有するメモリ11とが搭載され、「論理グループE」という論理グループLGに所属するようシステム管理者により設定されていることが示されている。
 仮想マシン予約情報一覧42は、物理サーバ2上で稼働し又は稼働予定の仮想マシン14(図1)を管理するために利用される一覧であり、ユーザ操作に応じて管理クライアント4から管理サーバ3に与えられる仮想マシン14の予約設定要求に応じて論理グループLGごとに作成される。この仮想マシン予約情報一覧42は、図4に示すように、仮想マシン欄42A、CPU割当て欄42B、メモリ割当て欄42C、割当て先欄42D、開始日時欄42E及び終了日時欄42Fから構成される。
 そして仮想マシン欄42Aには、その仮想マシン予約情報一覧42に対応する論理グループLGに所属するいずれかの物理サーバ2上で稼働させるよう予約設定要求において指定された仮想マシン14のホスト名が格納され、CPU割当て量欄42Bには、その仮想マシン14に割り当てるべきCPU10の性能が格納される。またメモリ割当て量欄42Cには、その仮想マシン14に割り当てるべきメモリ容量が格納され、割当て先欄42Dには、その仮想マシン14を稼働させるべき物理サーバ2のサーバ名が格納される。さらに開始日時欄42Eには、その仮想マシン14の稼働を開始すべき日時(開始日時)が格納され、終了日時欄42Fには、その仮想マシン14の稼働を終了すべき日時(終了日時)が格納される。なお、これら仮想マシン欄42A、CPU割当て欄42B、メモリ割当て欄42C、割当て先欄42D、開始日時欄42E及び終了日時欄42Fにそれぞれ格納される情報は、すべてユーザ操作に応じて管理クライアント4から管理サーバ3に与えられる予約設定要求において指定されたものである。
 従って、図4の場合、「2010/07/10 00:00:00」から「2011/08/10 00:00:00」までの間、「物理サーバ1」という物理サーバ2上に、CPU割当て量が「2GHz×1コア」、メモリ割当て量が「2GB」の「仮想マシンA」という仮想マシン14を稼働すべきことがユーザにより設定されていることが示されている。
 ホットマイグレーション情報テーブル43は、各論理グループLG内で発生したホットマイグレーションを管理するために利用されるテーブルである。管理サーバ3は、DRS機能により物理サーバ2を制御してホットマイグレーションを実行させた場合に、そのホットマイグレーションに関する各種情報をホットマイグレーション情報テーブル43に登録して管理する。このホットマイグレーション情報テーブル43は、図5に示すように、発生日時欄43A、移動仮想マシン欄43B、移動元欄43C、移動先欄43D及び論理グループ欄43Eから構成される。
 そして発生日時欄43Aには、対応するホットマイグレーションが発生した日時が格納され、移動仮想マシン欄43Bには、そのホットマイグレーションにより同一の論理グループLG内の他の物理サーバ2に移動された仮想マシン14のホスト名が格納される。また移動元欄43Cには、かかる仮想マシン14の移動元の物理サーバ2のサーバ名が格納され、移動先欄43Dには、当該仮想マシン14の移動先の物理サーバ2のサーバ名が格納される。さらに論理グループ欄43Eには、そのホットマイグレーションが発生した論理グループLGのグループ名が格納される。
 従って、図5の場合、「論理グループE」という論理グループLGでは、「2011/02/03 18:00」に、「仮想マシンA_A」という仮想マシン14を「物理サーバA_A」という物理サーバ2から「物理サーバA_B」という物理サーバ2に移動させるホットマイグレーションが行われたことが示されている。
 一方、イベント一覧44は、計算機システム1内で発生した第1又は第2のエラールールに該当するホットマイグレーションを管理するための一覧であり、図6に示すように、イベント内容欄44A、発生日時欄44B、発生元欄44C及び原因仮想マシン欄44Dから構成される。
 そしてイベント内容欄44Aには、かかるホットマイグレーションが該当するエラールール種別が格納され、発生日時欄44Bには、そのホットマイグレーションが発生した日時が格納される。また発生元欄44Cには、そのホットマイグレーションが発生した論理グループLGのグループ名が格納され、原因仮想マシン欄44Dには、そのホットマイグレーションが発生する原因となった仮想マシン14のホスト名が格納される。なお、図中、「エラールール1」は第1のエラールールに該当し、「エラールール2」は第2のエラールールに該当する。
 従って、図6の場合、「2011/2/4 14:00」に「エラールール1(第1のエラールール)」に該当するホットマイグレーションが「論理グループA」という論理グループLGにおいて発生し、その原因となった仮想マシン14のホスト名が「仮想マシンA_A」であることが示されている。
 他方、リソース取得先一覧45は、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに対して他の論理グループLGから物理サーバ2を貸し出す際に、その物理サーバ2の貸出し期限を計算するために一時的に作成される一覧である。このリソース取得先一覧45は、図7に示すように、物理サーバ欄45A、余剰CPU性能欄45B、余剰メモリ容量欄45C、貸出し期限欄45D及び貸出し元欄45Eから構成される。
 そして物理サーバ欄45Aには、かかる検索により余力を有する物理サーバ2として検出された物理サーバ2のサーバ名が格納される。
 また余剰CPU性能欄45Bには、その物理サーバ2が有する余剰分のCPU性能(以下、これを余剰CPU性能と呼ぶ)が格納される。この余剰CPU性能は、その物理サーバ2に搭載されたCPU10(図1)のCPU性能の総量(コア性能×コア数)から、当該物理サーバ2上で稼働する仮想マシン14に割り当てるべきCPU性能の総和を減算することにより算出された値である。
 さらに余剰メモリ容量欄45Cには、その物理サーバ2が有する余剰分のメモリ容量(以下、これを余剰メモリ容量と呼ぶ)が格納される。この余剰メモリ容量も、その物理サーバ2に搭載されたメモリ11の容量から、当該物理サーバ2上で稼働する仮想マシン14に割り当てるべきメモリ容量の総和を減算することにより算出された値である。
 さらに貸出し期限欄45Dには、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに対してその物理サーバ2を貸し出し得る期限(貸出し期限)が格納され、貸出し元欄45には、その物理サーバ2の貸出し元となる論理グループLGのグループ名が格納される。
 従って、図7の例では、「論理グループE」という論理グループLGに所属する「物理サーバ1」という物理サーバ2は、合計で「6GHz」の余剰CPU性能と、「4GB」の余剰メモリ容量とを有しており、その貸出し期限は「2011/08/10 00:00」であることが示されている。
 移動先候補一覧46は、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに対して他の論理グループLGから物理サーバ2を貸し出す際に、その貸出し対象の物理サーバ2上で稼働する仮想マシン14の移動先となり得る物理サーバ2を決定するために一時的に作成される一覧であり、図8に示すように、仮想マシン欄46A及び移動先候補欄46Bから構成される。
 そして仮想マシン欄46Aには、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに対する貸出し候補の物理サーバ(以下、これを貸出し候補物理サーバと呼ぶ)2上で稼働する各仮想マシン14のホスト名が格納され、移動先候補欄46Bには、対応する仮想マシン14の移動先となり得る物理サーバ2のサーバ名が格納される。
 従って、図8の例では、貸出し候補物理サーバ2上では「仮想マシンB」という仮想マシン14が稼働しており、その移動先として「物理サーバ1」という物理サーバ2が候補として挙げられていることが示されている。
 また借用リソース管理テーブル47は、ある論理グループLGに対して他の論理グループLGから貸し出された物理サーバ2を管理するために利用される一覧であり、図9に示すように、物理サーバ欄47A、貸出し期限欄47B、借用元欄47C及び借用者欄47Dから構成される。
 そして物理サーバ欄47Aには、ある論理グループLG(借用者)に対して他の論理グループLG(借用元)から貸し出された物理サーバ2のサーバ名が格納され、貸出し期限欄47Bには、その物理サーバ2をいつまで貸し出せるかの期限を表す貸出し期限が格納される。
 また借用元欄47Cには、その物理サーバ2の貸出し元(借用元)の論理グループLGのグループ名が格納され、借用者欄47Dには、その物理サーバ2の貸出し先(借用者)の論理グループLGのグループ名が格納される。
 従って、図9の例では、「論理グループB」という論理グループLGに対して「論理グループE」という論理グループLGから「物理サーバ2」という物理サーバ2が「2011/08/09 00:00」までを貸出し期限として貸し出されていることが示されている。
 物理サーバ一覧48は、上述のように貸出し候補物理サーバ2を決定する移動先物理サーバ決定処理(図18)や、他の論理グループLGに貸し出された物理サーバ2を貸出し元の論理グループLGに返却する借用リソース返却処理(図21A及び図21B)時に一時的に作成される一覧である。
 この物理サーバ一覧48は、図10に示すように、物理サーバ欄48A、CPU性能欄48B、メモリ容量欄48C及び所属論理グループ欄48Dから構成される。なお、これら物理サーバ欄48A、CPU性能欄48B、メモリ容量欄48C及び所属論理グループ欄48Dに格納される情報は、物理サーバ構成テーブル41(図3)の物理サーバ欄41A、CPU性能欄41B、メモリ容量欄41C及び所属論理グループ欄41Dにそれぞれ格納される情報と同じであるため、ここでのこれ以上の説明は省略する。
(2-2)管理サーバのCPUの各種処理
 次に、論理グループ構成変更機能に関して管理サーバ3のCPU20により実行される各種処理の具体的な処理内容について説明する。
(2-2-1)第1のイベント監視処理
 図11は、管理サーバ3のCPU20により定期的(例えば1日1回)に実行される第1のイベント監視処理の処理手順を示す。上述のように本実施の形態による計算機システム1では、ある仮想マシン14がホットマイグレーションされてから30分以内に、移動先の物理サーバ2上で稼働していた他の仮想マシン14が他の物理サーバ2にホットマイグレーションされた場合を第1のエラールールに該当するホットマイグレーションとして規定されている。そこで、管理サーバ3のCPU20は、この図11に示す第1のイベント監視処理を定期的に実行することにより、かかる第1のエラールールに該当するホットマイグレーションの発生の有無を監視する。
 実際上、CPU20は、この第1のイベント監視処理を開始すると、まず、予めシステム管理者により設定された複数の論理グループLGの中から1つの論理グループLGを選択し(SP1)、選択した論理グループLGにおいて発生したホットマイグレーションに関する情報(以下、これをホットマイグレーション情報と呼ぶ)をすべてホットマイグレーション情報テーブル43から取得する(SP2)。
 続いて、CPU20は、ステップSP2において取得したホットマイグレーション情報の中から1つのホットマイグレーション情報を選択し(SP3)、そのホットマイグレーション情報に対応するホットマイグレーションの「移動先」の物理サーバ2が「移動元」の物理サーバ2となっているホットマイグレーションに関する情報(ホットマイグレーション情報)が、ステップSP2において取得したホットマイグレーション情報に含まれているか否かを判断する(SP4)。
 CPU20は、この判断で否定結果を得るとステップSP3に戻る。これに対してCPU20は、ステップSP4の判断で肯定結果を得ると、ステップSP2において取得した各ホットマイグレーション情報にそれぞれ対応するホットマイグレーションの中から「移動先」の物理サーバ2が「移動元」の物理サーバ2となっているホットマイグレーションのホットマイグレーション情報を1つ選択し(SP5)、当該ホットマイグレーション情報に対応するホットマイグレーションの発生日時がステップSP3で選択したホットマイグレーションの発生日時の30分以内であるか否かを判断する(SP6)。
 CPU20は、この判断で否定結果を得るとステップSP8に進む。これに対してCPU20は、ステップSP6の判断で肯定結果を得ると、ステップSP3で選択したホットマイグレーションのホットマイグレーション情報及びそのステップSP5で選択したホットマイグレーションのホットマイグレーション情報に基づいて、発生時刻が早いホットマイグレーションをそのとき発生した第1のエラールールに該当するホットマイグレーションの発生原因となったホットマイグレーションとして特定し、当該ホットマイグレーションの発生時刻、イベント内容、発生元の論理グループLGのグループ名及びそのイベントの原因となった仮想マシン14のホスト名をイベント一覧44(図6)に登録する(SP7)。
 またCPU20は、この後、ステップSP4の判断で肯定結果を得られるすべてのホットマイグレーションについて同様の処理を実行し終えたか否かを判断する(SP8)。そしてCPU20は、この判断で否定結果を得るとステップSP5に戻り、この後、ステップSP5~ステップSP8の処理を繰り返す。そしてCPU20は、やがて該当するすべてのホットマイグレーションについてステップSP5~ステップSP8の処理を実行し終えることによりステップSP8において肯定結果を得ると、ステップSP2においてホットマイグレーション情報を取得したすべてのホットマイグレーションについてステップSP3~ステップSP8の処理を実行し終えたか否かを判断する(SP9)。
 CPU20は、この判断で否定結果を得るとステップSP3に戻り、この後、ステップSP3において選択するホットマイグレーション情報を未処理の他のホットマイグレーション情報に順次切り替えながらステップSP3~ステップSP9の処理を繰り返す。
 そしてCPU20は、やがてステップSP2においてホットマイグレーション情報を取得したすべてのホットマイグレーションについてステップSP3~ステップSP9の処理を実行し終えることによりステップSP9において肯定結果を得ると、すべての論理グループLGについてステップSP2~ステップSP9の処理を実行し終えたか否かを判断する(SP10)。
 CPU20は、この判断で否定結果を得るとステップSP1に戻り、この後、ステップSP1~ステップSP10の処理を繰り返す。そしてCPU20は、やがてすべての論理グループLGについてステップSP2~ステップSP9の処理を実行し終えることによりステップSP10において肯定結果を得ると、この第1のイベント監視処理を終了する。
(2-2-2)第2のイベント監視処理
 図12は、管理サーバ3のCPU20により定期的(例えば1日1回)に実行される第2のイベント監視処理の処理手順を示す。上述のように本実施の形態による計算機システム1では、ある論理グループLG内で特定の仮想マシン14のホットマイグレーションが1日に3回以上発生している場合を第2のエラールールに該当するホットマイグレーションとして規定されている。そこで、管理サーバ3のCPU20は、この図12に示す第2のイベント監視処理を定期的に実行することにより、かかる第2のエラールールに該当するホットマイグレーションの発生を監視する。
 実際上、CPU20は、この第2のイベント監視処理を開始すると、まず、予めシステム管理者により設定された複数の論理グループLGの中から1つの論理グループLGを選択し(SP20)、選択した論理グループLGにおいて発生したホットマイグレーションのうち、発生日時が1日以内のすべてのホットマイグレーション(前回の第2のイベント監視処理を実行してから発生したすべてのホットマイグレーション)のホットマイグレーション情報をホットマイグレーション情報テーブルから取得する(SP21)。
 続いてCPU20は、ステップSP21においてホットマイグレーション情報を取得したホットマイグレーションにより他の物理サーバ2に移動された仮想マシン14の中から1つの仮想マシン14を選択し(SP22)、選択した仮想マシン14に関するホットマイグレーション情報を、ステップSP21において取得したホットマイグレーション情報の中からすべて取得する(SP23)。
 次いで、CPU20は、ステップSP23において取得したホットマイグレーション情報が3個以上存在するか否かを判断する(SP24)。
 そしてCPU20は、この判断で否定結果を得るとステップSP22に戻り、この後、ステップSP22において選択する仮想マシン14を未処理の他の仮想マシン14に順次切り替えながらステップSP22以降の処理を繰り返す。
 これに対してCPU20は、ステップSP24の判断で肯定結果を得ると、ステップSP21において取得したすべてのホットマイグレーション情報に基づいて、発生時刻が最も早いホットマイグレーションをそのとき発生した第2のエラールールに該当するホットマイグレーションの発生原因となったホットマイグレーションとして特定し、当該ホットマイグレーションの発生時刻、イベント内容、発生元の論理グループLGのグループ名及びそのイベントの原因となった仮想マシン14のホスト名をイベント一覧44(図6)に登録する(SP25)。
 続いて、CPU20は、該当するすべての仮想マシン14(つまりステップSP21において取得したホットマイグレーション情報のいずれかに関連する仮想マシン14)についてステップSP22~ステップSP25の処理を実行し終えたか否かを判断する(SP26)。
 CPU20は、この判断で否定結果を得るとステップSP22に戻り、この後、ステップSP22において選択する仮想マシン14を未処理の他の仮想マシン14に順次切り替えながら、ステップSP22~ステップSP26の処理を繰り返す。
 そしてCPU20は、やがて該当するすべての仮想マシン14についてステップSP22~ステップSP26の処理を実行し終えることによりステップSP26において肯定結果を得ると、すべての論理グループLGについてステップSP21~ステップSP25の処理を実行し終えたか否かを判断する(SP27)。
 CPU20は、この判断で否定結果を得るとステップSP20に戻り、この後、ステップSP20~ステップSP27の処理を繰り返す。そしてCPU20は、やがてすべての論理グループLGについてステップSP21~ステップSP26の処理を実行し終えることによりステップSP27において肯定結果を得ると、この第2のイベント監視処理を終了する。
(2-2-3)論理グループ構成変更処理
 一方、図13は、管理サーバ3のCPU20が上述の第1及び第2のイベント監視処理により第1又は第2のエラールールに該当するホットマイグレーションを検出した場合に、その後CPU20により実行される論理グループ構成変更処理の具体的な処理手順を示す。CPU20は、この図13に示す処理手順に従って、計算機システム1内の論理グループLGの構成を変更する。
 すなわちCPU20は、この論理グループ構成変更処理を開始すると、まず過去1週間以内にエラールールに該当するホットマイグレーションが発生した論理グループLG以外の論理グループLGに所属する物理サーバ2の中から、リソース(CPU性能及びメモリ容量)に余剰がある物理サーバ2を検索し、検索結果に基づいて、そのような物理サーバ2の一覧である上述のリソース取得先一覧45(図7)を作成する(SP30)。
 続いて、CPU20は、リソース取得先一覧45に登録された物理サーバ2のうち、リソース取得先一覧45の最も上段に登録されている未処理の物理サーバ2を1つ選択し(SP31)、選択した物理サーバ2上で稼働するよう予約されているすべての仮想マシン14の予約情報を仮想マシン予約情報一覧42(図4)から取得する(SP31)。
 次いで、CPU20は、ステップSP32において取得した予約情報の中から1つの予約情報を選択し(SP33)、選択した予約情報に対応する仮想マシン14の移行先となり得る同じ論理グループLG内の物理サーバ2を検索及び決定し、決定結果に基づいて移動先候補一覧46(図8)を作成する(SP34)。
 続いて、CPU20は、ステップSP34の処理により、ステップSP33において選択した予約情報に対応する仮想マシン14の移動先となり得る物理サーバ2を決定できたか否かを判断する(SP35)。そしてCPU20は、この判断で否定結果を得るとステップSP37に進む。
 これに対してCPU20は、ステップSP35の判断で肯定結果を得ると、ステップSP32において取得したすべての予約情報について、対応する仮想マシン14の移動先となり得る物理サーバ2を決定し終えたか否かを判断する(SP36)。
 CPU20は、この判断で否定結果を得るとステップSP33に戻り、この後、ステップSP33において選択する予約情報を、ステップSP32で取得した予約情報のうちの未処理の他の予約情報に順次切り替えながら、ステップSP33~ステップSP36の処理を繰り返す。
 そしてCPU20は、やがてステップSP31で選択した物理サーバ2上で稼働するよう予約されているすべての仮想マシン14の移動先を決定し終えることによりステップSP36で肯定結果を得ると、ステップSP30で作成したリソース取得先一覧45に登録されたすべての物理サーバ2についてステップSP32~ステップSP36の処理を実行し終えたか否かを判断する(SP37)。
 CPU20は、この判断で否定結果を得るとステップSP31に戻り、この後、ステップSP31において選択する物理サーバ2を、リソース取得先一覧45に登録された物理サーバ2のうち、未処理の他の物理サーバ2に順次切り替えながら、ステップSP31~ステップSP37の処理を繰り返す。
 そしてCPU20は、やがてリソース取得先一覧45に登録されたすべての物理サーバ2について同様の処理を実行し終えることによりステップSP37において肯定結果を得ると、リソース取得先一覧45に登録されたすべての物理サーバ2の中に、その物理サーバ2上で稼働するよう予約されたすべての仮想マシン14の移動先を決定できた物理サーバ2が存在するか否かを判断する(SP38)。
 そしてCPU20は、この判断で否定結果を得ると、論理グループLGの構成変更を行うことなく、この論理グループ構成変更処理を終了する。
 これに対してCPU20は、ステップSP38の判断で肯定結果を得ると、リソース取得先一覧45に登録された物理サーバ2であって、その物理サーバ2上で稼働するよう予約されたすべての仮想マシン14の移動先を決定できた物理サーバ2のうち、リソース取得先一覧45の最も上段に登録された物理サーバ(以下、これを貸出し対象物理サーバと呼ぶ)2について、その貸出し対象物理サーバ2上で稼働するよう予約された仮想マシン14をすべて移動先候補一覧46に登録された対応する物理サーバ2に移動させる。またCPU20は、これと併せて、かかる貸出し対象物理サーバ2を、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに貸し出す(SP39)。なお、かかる貸出し対象物理サーバ2の貸し出しは、物理サーバ構成テーブル41(図3)におけるその貸出し物理サーバ2に対応するエントリ(行)の所属論理グループ欄41D(図3)に格納されている論理グループ名を、貸出し先の論理グループLGのグループ名に更新することにより行われる。
 そしてCPU20は、この後、かかる貸出し対象物理サーバ2の貸出し先の論理グループLGに対応して設けられた借用リソース管理テーブル47(図9)に、その貸出し対象物理サーバ2のサーバ名と、その貸出し対象物理サーバ2の貸出し期間と、その貸出し対象物理サーバ2の貸出し先及び貸出し元の各論理グループLGのグループ名とをそれぞれ登録し(SP40)、この後、この論理グループ構成変更処理を終了する。
(2-2-4)リソース取得先一覧作成処理
 図14は、かかる論理グループ構成変更処理(図13)のステップSP30におけるCPU20の具体的な処理内容を示す。CPU20は、この図14に示す処理手順に従って、過去1週間以内にエラールールに該当するホットマイグレーションが発生した論理グループLG以外の論理グループLGに所属する物理サーバ2の中から、リソース(CPU性能及びメモリ容量)に余剰がある物理サーバ2の一覧であるリソース取得先一覧45(図7)を作成する。
 実際上、CPU20は、論理グループ構成変更処理のステップSP30に進むと、この図14に示すリソース取得先一覧作成処理を開始し、まず、イベント一覧44(図6)を参照して、過去1週間以内に第1又は第2のエラールールに該当するイベント(ホットマイグレーション)が発生した論理グループLGをすべて検出する(SP50)。
 続いて、CPU20は、ステップSP50において検出した論理グループLG以外の論理グループLGを1つ選択し(SP51)、選択した論理グループLGについて、その論理グループLGに所属する個々の物理サーバ2について、それらの物理サーバ2を、論理グループ構成変更処理の実行契機となった仮想マシン14(第1又は第2のエラールールに該当するホットマイグレーションが行われた仮想マシン14)が稼働している又は稼働していた物理サーバ2が所属する論理グループLGに貸し出し可能な貸出し期間を計算する(SP52)。
 続いて、CPU20は、ステップSP50において検出した論理グループLG(過去1週間以内に第1又は第2のエラールールに該当するイベント(ホットマイグレーション)が発生した論理グループLG)以外のすべての論理グループLGについてステップSP52の処理を実行し終えたか否かを判断する(SP53)。
 CPU20は、この判断で否定結果を得るとステップSP51に戻り、この後ステップSP51において選択する論理グループLGを、未処理の他の論理グループLGに順次切り替えながらステップSP51~ステップSP53の処理を繰り返す。
 そしてCPU20は、やがてステップSP50において検出した論理グループLG以外のすべての論理グループLGについてステップSP51~ステップSP53の処理を実行し終えることによりステップSP53において肯定結果を得ると、ステップSP52の処理結果に基づいて、上述したリソース取得先一覧45を作成する(SP54)。
 またCPU20は、この後、ステップSP54において作成したリソース取得先一覧45に登録された物理サーバ2を、リソースの余力が少ないものから順番に並べるようにソートし(SP55)、この後、このリソース取得先一覧作成処理を終了する。
(2-2-5)貸出し期間計算処理
 図15A及び図15Bは、かかるリソース取得先一覧処理(図14)のステップSP52におけるCPU20の具体的な処理手順を示す。CPU20は、この図15A及び図15Bに示す処理手順に従って、過去1週間以内に第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLG以外の論理グループLGに所属する各物理サーバ2について、過去1週間以内に第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに貸出し可能な期間を計算する。
 実際上、CPU20は、かかるリソース取得先一覧処理(図14)のステップSP52に進むと、この図15A及び図15Bに示す貸出し期間計算処理を開始し、まず、リソース取得先一覧処理のステップSP51において選択した論理グループLG(以下、これを選択論理グループLGと呼ぶ)に所属する各物理サーバ2のCPU性能及びメモリ容量をそれぞれ物理サーバ構成テーブル41(図3)から取得し、その選択論理グループLG全体の総リソース量を計算する(SP60)。
 例えば図3に示すように、「論理グループE」という選択論理グループLGに「物理サーバ1」、「物理サーバ2」及び「物理サーバ3」という3つの物理サーバ2のみが所属しており、これらの物理サーバ2のリソース量(CPU性能及びメモリ容量)が図3のような状態であるものとすると、CPU20は、次式
Figure JPOXMLDOC01-appb-M000001
      ……(1)
により、「論理グループE」全体のCPU性能(GHz×コア数の総量)RCPU1を計算すると共に、次式
Figure JPOXMLDOC01-appb-M000002
               ……(2)
により、「論理グループE」全体のメモリ容量(メモリ容量の総量)RMEMO1を計算する。
 続いて、CPU20は、かかる選択論理グループLGに所属する物理サーバ2の貸出し期間を計算するために利用する内部フラグ(以下、これを貸出し期限フラグと呼ぶ)をオフに設定する(SP61)。またCPU20は、この後、対応する仮想マシン予約情報一覧42(図4)を参照して、エラー仮想マシン14の終了日時を取得する(SP63)。
 次いで、CPU20は、かかる選択論理グループLGに所属する物理サーバ2のうちのリソースに余力がある物理サーバ2の一覧であるリソース取得先一覧45(図7)を作成する(SP63)。なお、この時点では、リソース取得先一覧45の各エントリ(行)の貸出し期限欄45Dに貸出し期限は格納されていない。
 この後、CPU20は、ステップSP63において作成したリソース取得先一覧45に登録されている物理サーバ2を1つ選択し(SP64)、選択した物理サーバ2について、ステップSP65~ステップSP71までの処理を、現在の日時からステップSP62において取得したエラー仮想マシン14の終了日時まで1日単位で順次実行する。
 すなわち、CPU20は、まず、ステップSP65~ステップSP70で実行する計算の対象となる日にち(以下、これを第1の計算対象日と呼ぶ)を決定する(SP65)。そしてCPU20は、仮想マシン予約情報一覧42(図4)を参照して、かかる選択論理グループLGに所属する物理サーバ2上で稼働する各仮想マシン14に対してその第1の計算対象日に割り当てるべきリソース量の合計値(その選択論理グループLGのその第1の計算対象日における最大のリソースの使用量であり、以下、これを第1の計算対象日の最大使用リソース量と呼ぶ)を計算する(SP66)。なお、この最大使用リソース量は、CPU性能及びメモリ容量のそれぞれについて計算される。
 続いて、CPU20は、ステップSP60において算出した選択論理グループLGの総リソース量から、ステップSP66において算出したその選択論理グループLGのその第1の計算対象日の最大使用リソース量を減算することにより、その選択論理グループLGのその第1の計算対象日におけるリソースの余剰量(余剰CPU性能及び余剰メモリ容量)を算出する(SP67)。
 例えば、選択論理グループLGに関連する仮想マシン予約情報一覧42が図4のような状態にあるものとし、第1の計算対象日が「2011/02/04」であるものとすると、選択論理グループLGのその第1の計算対象日における最大使用リソース量は、CPU性能RCPU2については、次式
Figure JPOXMLDOC01-appb-M000003

                                  ……(3)
により計算され、メモリ容量RMEMO2については、次式
Figure JPOXMLDOC01-appb-M000004
             ……(4)
により計算される。
 よって、「2011/02/04」における余剰CPU性能は、次式
Figure JPOXMLDOC01-appb-M000005
               ……(5)
のように算出することができ、余剰メモリ容量は、次式
Figure JPOXMLDOC01-appb-M000006
         ……(6)
のように算出することができる。
 次いで、CPU20は、ステップSP67において算出した余剰リソース量(余剰CPU性能及び余剰メモリ容量)が、ステップSP64において選択した物理サーバ2のリソース量(CPU性能及びメモリ容量の双方)以下であるか否かを判断する(SP68)。
 CPU20は、この判断で否定結果を得るとステップSP65に戻り、この後、ステップSP65において決定する第1の計算対象日をその翌日に切り換えた後、ステップSP66以降の処理を実行する。
 これに対してCPU20は、ステップSP68の判断で肯定結果を得ると、貸出し期限フラグをオンに設定する(SP69)。またCPU20は、ステップSP63において作成したリソース取得先一覧45(図7)におけるそのとき対象としている物理サーバ2に対応する貸出し期限欄45D(図7)にそのときの第1の計算対象日の前日を格納した後(SP70)、現在の第1の計算対象日がステップSP62において取得したエラー仮想マシン14の終了日時を超えたか否かを判断する(SP71)。
 CPU20は、この判断で否定結果を得るとステップSP65に戻り、この後、ステップSP65において決定する第1の計算対象日をその翌日に切り換えた後、ステップSP65以降の処理を実行する。
 そしてCPU20は、そのとき対象としている物理サーバ2について、ステップSP65~ステップSP70の処理を現在の日時からステップSP62において取得した終了日時まで終了することによりステップSP71において肯定結果を得ると、貸出し期限フラグがオフに設定されているか否かを判断する(SP72)。
 CPU20は、この判断で否定結果を得るとステップSP74に進み、これに対して肯定結果を得ると、ステップSP63において作成したリソース取得先一覧45におけるそのとき対象としている物理サーバ2に対応する貸出し期限欄45Dに、ステップSP63において取得したエラー仮想マシン14の終了日時の前日を設定する(SP73)。なお、このようにかかる終了日時の前日を設定するのは、その物理サーバ2の返却処理を行うためのバッファとして、1日分の余裕をもたせるためである。
 続いて、CPU20は、ステップSP64~ステップSP73の処理をステップSP63において作成したリソース取得先一覧45に登録されたすべての物理サーバ2について実行し終えたか否かを判断する(SP74)。
 CPU20は、この判断で否定結果を得るとステップSP64に戻り、この後、ステップSP64において選択する物理サーバ2をリソース取得先一覧45に登録された未処理の他の物理サーバ2に順次切り替えながら、同様の処理を繰り返す。
 そしてCPU20は、やがてリソース取得先一覧45に登録されたすべての物理サーバ2についてステップSP64~ステップSP73の処理を実行し終えることによりステップSP74において肯定結果を得ると、この貸出し期間計算処理を終了する。
(2-2-6)リソース取得先一覧作成処理
 図16は、上述の貸出し期間計算処理(図15A及び図15B)のステップSP63におけるCPU20の具体的な処理内容を示す。CPU20は、この図16に示す処理手順に従ってリソース取得先一覧45を作成する。
 実際上、CPU20は、かかる貸出し期間計算処理のステップSP63に進むと、このリソース取得先一覧作成処理を開始し、まず、仮想マシン予約情報一覧42(図4)を参照して、エラー仮想マシン14のCPU性能及びメモリ容量を取得する(SP80)。
 続いて、CPU20は、このとき対象としている論理グループ(選択論理グループ)LGに所属する物理サーバ2を1つ選択する(SP81)。
 次いで、CPU20は、リソース取得先一覧45上の1つの未使用のエントリ(行)を確保し、そのエントリの物理サーバ欄45A(図7)及び貸出し元欄45E(図7)に、ステップSP81において選択した物理サーバ2のサーバ名及びその物理サーバ2が所属する論理グループ(選択論理グループ)LGのグループ名をそれぞれ格納する(SP82)。またCPU20は、上述の処理と併せて、そのエントリの貸出し期限欄45D(図7)に初期値を格納する(SP82)。
 続いて、CPU20は、ステップSP81において選択した物理サーバ2のCPU性能を物理サーバ構成テーブル41(図3)から取得し、取得したその物理サーバ2のCPU性能からステップSP80において取得したエラー仮想マシン14のCPU性能を減算し、減算結果を余剰CPU性能として、リソース取得先一覧45のステップSP82において確保したエントリの余剰CPU性能欄45B(図7)に格納する(SP83)。
 またCPU20は、ステップSP81において選択した物理サーバ2のメモリ容量を物理サーバ構成テーブル41から取得し、取得したその物理サーバ2のメモリ容量からステップSP80において取得したエラー仮想マシン14のメモリ容量を減算し、減算結果を余剰メモリ容量として、リソース取得先一覧45のステップSP82において確保したエントリの余剰メモリ容量欄45C(図7)に格納する(SP84)。
 次いで、CPU20は、そのとき対象としている論理グループ(選択論理グループ)LGに所属するすべての物理サーバ2についてステップSP81~ステップSP84の処理を実行し終えたか否かを判断する(SP85)。
 そしてCPU20は、この判断で否定結果を得るとステップSP81に戻り、この後、ステップSP81において選択する物理サーバ2を未処理の他の物理サーバ2に順次切り替えながら、同様の処理を繰り返す。
 そしてCPU20は、やがてそのとき対象としている論理グループLGに所属するすべての物理サーバ2についてステップSP81~ステップSP84の処理を実行し終えることによりステップSP85において肯定結果を得ると、このとき作成したリソース取得先一覧45のエントリを余剰CPU性能又は余剰メモリ容量の値に基づいてソートするリソース取得先一覧ソート処理を実行し(SP86)、この後、このリソース取得先一覧作成処理を終了する。
 なお、かかるリソース取得先一覧作成処理のステップSP86においてCPU20により実行されるリソース取得先一覧ソート処理の具体的な処理手順を図17に示す。
 CPU20は、リソース取得先一覧作成処理のステップSP86に進むと、このリソース取得先一覧ソート処理を開始し、まず、予めシステム管理者により設定されている余力優先フラグを確認する(SP90)。この余力優先フラグは、リソース取得先一覧45の各エントリをソートする際に、余剰CPU性能及び余剰メモリ容量のいずれを優先的に考慮してこれらのエントリをソートするかを規定するフラグである。
 そしてCPU20は、ステップSP90の確認結果に従って、リソース取得先一覧のエントリの並べ替え(ソート)を実行する(SP91)。具体的に、CPU20は、例えば余剰CPU性能を優先的に考慮すべき状態に余力優先フラグが設定されている場合には、余剰CPU性能欄45Bに格納された余剰CPU性能が小さいエントリから順番に並べるようにリソース取得先一覧45の各エントリをソートする。またCPU20は、余剰メモリ容量を優先的に考慮すべき状態に余力優先フラグが設定されている場合には、余剰メモリ容量欄45Cに格納された余剰メモリ容量が小さいエントリから順番に並べるようにリソース取得先一覧45の各エントリをソートする。
 続いて、CPU20は、ステップSP91のソートを完了したリソース取得先一覧45について、余力優先フラグにより優先的に考慮すべきリソース量として指定されたリソース量(余剰CPU性能又は余剰メモリ容量)が同じ値のエントリが存在するか否かを判断する(SP92)。
 そしてCPU20は、この判断で否定結果を得ると、このリソース取得先一覧ソート処理を終了する。これに対してCPU20は、ステップSP92の判断で肯定結果を得ると、余力優先フラグにより優先的に考慮すべきリソース量として指定されたリソース量が同じ値のエントリを、当該リース量と異なる方のリソース量(余力優先フラグにより優先的に考慮すべきリソース量として指定されていない方のリソース量)が少ない順に並べ替え(SP93)、この後、このリソース取得先一覧ソート処理を終了する。
(2-2-7)移動先物理サーバ決定処理
 他方、図18は、図13について上述した論理グループ構成変更処理のステップSP34においてCPU20により実行される移動先物理サーバ決定処理の具体的な処理手順を示す。CPU20は、この図18に示す処理手順に従って、論理グループ構成変更処理のステップSP33において選択した仮想マシン14の移動先候補とする物理サーバ2を決定する。
 すなわちCPU20は、この移動先物理サーバ決定処理を開始すると、まず、論理グループ構成変更処理のステップSP31で選択したそのとき対象としている物理サーバ2と同一の論理グループLGに所属するすべての物理サーバ2に関する情報を物理サーバ構成テーブル41から抽出して物理サーバ一覧48(図10)を作成する(SP100)。
 続いて、CPU20は、ステップSP100において作成した物理サーバ一覧48に登録されている各物理サーバの中から論理グループ構成変更処理のステップSP31で選択した物理サーバ2以外の物理サーバ2を1つ選択する(SP101)。
 この後、CPU20は、ステップSP101で選択した物理サーバ2について、ステップSP102~ステップSP108までの処理を、現在の日時からエラー仮想マシン14の終了日時まで1日単位で順次実行する。
 すなわち、CPU20は、まず、ステップSP103~ステップSP107で実行する計算の対象となる日にち(以下、これを第2の計算対象日と呼ぶ)を決定する(SP102)。そしてCPU20は、仮想マシン予約情報一覧42(図4)を参照して、ステップSP101で選択した物理サーバ2上で稼働する各仮想マシン14に対してその第2の計算対象日に割り当てるべきリソース量の合計値(その物理サーバ2のその第2の計算対象日における最大のリソースの使用量であり、以下、これを第2の計算対象日の最大使用リソース量と呼ぶ)を計算する(SP103)。なお、この最大使用リソース量は、CPU性能及びメモリ容量のそれぞれについて計算される。
 続いて、CPU20は、ステップSP101において選択した物理サーバ2のCPU性能及びメモリ容量を物理サーバ構成テーブル41から取得し、取得したCPU性能及びメモリ容量からそれぞれステップSP103において算出した第2の計算対象日のCPU性能又はメモリ容量を減算することにより、ステップSP101において選択した物理サーバ2の第2の計算対象日におけるCPU性能及びメモリ容量の余力(余力リソース量)をそれぞれ算出する(SP104)。以下においては、このように計算されたCPU性能の余力を余力CPU性能と呼び、メモリ容量の余力を余力メモリ容量と呼ぶものとする。
 次いで、CPU20は、現在対象としているステップSP101において選択した物理サーバ2が候補先一覧46(図8)の移動先候補として設定されている仮想マシン14が存在するか否かを判断する(SP105)。そしてCPU20は、この判断で否定結果を得るとステップSP107に進む。
 これに対してCPU20は、ステップSP105の判断で肯定結果を得ると、ステップSP106において算出した余力CPU性能からその仮想マシン14(現在対象としているステップSP101において選択した物理サーバ2が候補先一覧46の移動先候補として設定されている仮想マシン14)のCPU性能を減算した新しい余力CPU性能と、ステップSP106において算出した余力メモリ容量からその仮想マシン14のメモリ容量を減算した新しい余力メモリ容量とをそれぞれ算出する(SP106)。
 この後、CPU20は、ステップSP104において算出した余力CPU性能及び余力メモリ容量、又は、ステップSP106において算出した新しい余力CPU性能及び余力メモリ容量に基づいて、そのとき対象としているステップSP101において選択した物理サーバ2が、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14を稼働できるだけのリソースの余力があるか否かを判断する(SP107)。
 具体的に、この判断は、ステップSP104又はステップSP106において算出した余力CPU性能及び余力メモリ容量と、仮想マシン予約情報一覧42(図4)から取得できる、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14に割り当てるべきCPU性能及びメモリ容量とをそれぞれ比較することにより行われる。そしてかかる仮想マシン14のCPU性能よりも余力CPU性能の方が大きく、かつ仮想マシン14のメモリ容量よりも余力メモリ容量の方が大きいときに「リソースの余力がある」との判断が得られ(ステップSP107で肯定結果が得られ)、これ以外のときに「リソースの余力がない」との判断が得られる(ステップSP107で否定結果が得られ)ことになる。
 ここで、ステップSP107の判断で否定結果を得ることは、そのとき対象としている物理サーバ2が、そのときの第2の計算対象日時において、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14の移動先とすることができないことを意味する。かくして、このときCPU20は、ステップSP101に戻って、対象とする物理サーバ2をステップSP100で作成した物理サーバ一覧48に登録されている他の物理サーバ2に切り換え、この後ステップSP102~ステップSP107を同様に処理する。
 一方、ステップSP107の判断で肯定結果を得ることは、そのとき対象としている物理サーバ2が、そのときの第2の計算対象日時において、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14の移動先とすることができることを意味する。かくして、このときCPU20は、仮想マシン予約情報一覧42を参照して、現在の第2の計算対象日が、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14の終了日時を超えたか否かを判断する(SP108)。
 CPU20は、この判断で否定結果を得るとステップSP102に戻り、この後、ステップSP108で肯定結果を得るまで同様の処理を繰り返す。そしてCPU20は、やがてステップSP108の判断で肯定結果を得ると、ステップSP100において情報を収集したすべての物理サーバ2について同様の処理を実行し終えたか否かを判断する(SP109)。
 またCPU20は、この判断で否定結果を得るとステップSP101に戻り、この後、ステップSP101において選択する物理サーバ2を、ステップSP100で作成した物理サーバ一覧48に登録されているすべての物理サーバ2のうちの未処理の他の物理サーバ2に順次切り換えながら、ステップSP101~ステップSP109の処理を繰り返す。
 そしてCPU20は、やがてかかる物理サーバ一覧48に登録されているすべての物理サーバ2についてステップSP102~ステップSP108の処理を実行し終えることによりステップSP109で肯定結果を得ると、ステップSP100で情報を取得した物理サーバ2の中に、現在からかかる仮想マシン14の終了日時までの全期間で仮想マシン14を稼働できるリソース余力がある物理サーバ2(ステップSP107の判断で肯定結果が得られた物理サーバ2)が存在するか否かを判断する(SP110)。
 CPU20は、この判断で肯定結果を得ると、その物理サーバ2を、そのとき対象としている論理グループ構成変更処理のステップSP33において選択した仮想マシン14の移動先候補として移動先候補一覧46(図8)に登録する(SP111)。この際、CPU20は、例えばステップSP110の判断で肯定結果が得られた物理サーバが複数存在する場合には、ステップSP100で作成した物理サーバ一覧48に登録されている物理サーバ2のうち、リソース余力が最も小さい物理サーバ2を、かかる仮想マシン14の移動先候補として移動先候補一覧46に登録する。これは、かかる仮想マシン14をこのような物理サーバ2に移動した方が最も影響が小さいからである。そしてCPU20は、この後、この移動先物理サーバ決定処理を終了する。
(2-2-8)物理サーバ貸出し処理
 図19は、論理グループ構成変更処理のステップSP39においてCPU20により実行される物理サーバ貸出し処理の具体的な処理手順を示す。CPU20は、この図19に示す処理手順に従って、貸出し対象の物理サーバ(以下、これを貸出し対象物理サーバと呼ぶ)2を他の論理グループLGに貸し出す。
 すなわち、CPU20は、論理グループ構成変更処理のステップSP39に進むとこの物理サーバ貸出し処理を開始し、まず、仮想マシン予約情報一覧42を参照して、貸出し対象物理サーバ2上で稼働し又は稼働が予定されている仮想マシン14を1つ選択する(SP120)。
 続いて、CPU20は、貸出し対象物理サーバ2を制御することにより、ステップSP120において選択した仮想マシン14を、移動先候補一覧46(図8)に登録されている対応する物理サーバ2にホットマイグレーションさせる(SP121)。
 次いで、CPU20は、貸出し対象物理サーバ2上で稼働し又は稼働が予定されているすべての仮想マシン14を移動先候補一覧46において指定されている対応する物理サーバ2にホットマイグレーションし終えたか否かを判断する(SP122)。
 CPU20は、この判断で否定結果を得るとステップSP120に戻り、この後、ステップSP120において選択する仮想マシン14を未処理の他の仮想マシン14に順次切り替えながら、ステップSP120~ステップSP122の処理を繰り返す。
 そしてCPU20は、やがて貸出し対象物理サーバ2上で稼働し又は稼働予定のすべての仮想マシン14についてステップSP121の処理を実行し終えることによりステップSP122において肯定結果を得ると、物理サーバ構成テーブル41(図3)における貸出し対象物理サーバ2に対応するエントリの所属論理グループ欄41D(図3)に格納されている論理グループ名を、このとき貸出し対象物理サーバ2の貸出し先となる論理グループLGのグループ名に更新した後(SP123)、この物理サーバ貸出し処理を終了する。
 なお、かかる物理サーバ貸出し処理のステップSP122においてCPU20により実行されるホットマイグレーション処理の具体的な処理内容を図20に示す。
 CPU20は、かかる物理サーバ貸出し処理のステップSP122に進むと、このホットマイグレーション処理を開始し、まず、ホットマイグレーションさせたい仮想マシン14が稼働している物理サーバ2(つまり貸出し対象物理サーバ2)に対して、移動対象の仮想マシン14及びその仮想マシン14の移動先を指定したホットマイグレーション実行命令を送信する(SP130)。かくして貸出し対象物理サーバ2は、このホットマイグレーション実行命令に従って、当該ホットマイグレーション実行命令において指定された移動先の物理サーバ2に、当該ホットマイグレーション実行命令において指定された仮想マシン14をホットマイグレーションさせる。
 続いて、CPU20は、仮想マシン予約情報一覧42(図4)におけるかかる仮想マシン14に対応するエントリの割当て先欄42D(図4)に格納されている物理サーバ2のサーバ名を、かかるホットマイグレーション実行命令において当該仮想マシン14の移動先として指定した物理サーバ2のサーバ名に更新し(SP131)、この後、このホットマイグレーション処理を終了する。
(2-2-9)借用リソース返却処理
 図21A及び図21Bは、管理サーバ3のCPU20により定期的に実行される借用リソース返却処理の処理手順を示す。CPU20は、この処理手順に従って、借用リソース管理テーブル47(図9)に登録されている物理サーバ2を借用元(貸出し元)の論理グループLGに返却する。
 実際上、CPU20は、この借用リソース返却処理を開始すると、借用リソース管理テーブル47に登録されている物理サーバ2の中から未処理の1つの物理サーバ2を選択し(SP140)、この後、借用リソース管理テーブル47を参照して、その物理サーバ2の貸出し期限の残り日数が1日以下となっているか否かを判断する(SP141)。
 CPU20は、この判断で否定結果を得ると、借用リソース管理テーブル47に登録されているすべての物理サーバ2に対するステップSP141の判断を実行し終えたか否かを判断する(SP157)。そしてCPU20は、この判断で肯定結果を得ると、この借用リソース返却処理を終了する。
 これに対してCPU20は、ステップSP157の判断で否定結果を得るとステップSP140に戻り、この後、ステップSP141において選択する物理サーバ2を未処理の他の物理サーバ2に順次切り換えながら、同様の判断を繰り返す。
 一方、CPU20は、ステップSP141の判断で肯定結果を得ると、そのとき対象としている物理サーバ2(ステップSPで選択した物理サーバ2)上で稼働し又は稼働予定のすべての仮想マシン14に関する情報(終了日時を含む)を仮想マシン予約情報一覧42から取得する(SP142)。
 続いて、CPU20は、物理サーバ構成テーブル41を参照して、ステップSP140において選択した物理サーバ2が貸し出されている論理グループLG(当該物理サーバ2が現在所属する論理グループLG)に所属する、ステップSP140において選択した物理サーバ2以外の物理サーバ2がすべて登録された物理サーバ一覧48(図10)を作成する(SP143)。
 次いで、CPU20は、ステップSP143において作成した物理サーバ一覧48に登録されている物理サーバ2を1つ選択すると共に(SP144)、ステップSP140において選択した物理サーバ2上で稼働し又は稼働予定の仮想マシン14を1つ選択する(SP145)。
 この後、CPU20は、ステップSP144で選択した物理サーバ及びステップSP145で選択した仮想マシン14について、ステップSP146~ステップSP149までの処理を、現在の日時からその仮想マシン14の終了日時まで1日単位で順次実行する。
 すなわち、CPU20は、まず、ステップSP146~ステップSP149で実行する計算の対象となる日にち(以下、これを第3の計算対象日と呼ぶ)を決定する(SP146)。そしてCPU20は、仮想マシン予約情報一覧42(図4)を参照して、ステップSP144で選択した物理サーバ2上で稼働する各仮想マシン14に対してその第3の計算対象日に割り当てるべきCPU性能及びメモリ容量の合計値(以下、これを第3の計算対象日の最大使用リソース量と呼ぶ)を計算する(SP147)。なお、この最大使用リソース量は、CPU性能については各仮想マシンのCPU性能の合計値として算出され、メモリ容量については、仮想マシン14のメモリ容量の合計値として算出される。
 続いて、CPU20は、ステップSP144で選択した物理サーバ2のCPU性能及びメモリ容量を物理サーバ構成テーブル41(図3)から取得し、取得したCPU性能及びメモリ容量からそれぞれステップSP147において算出した第3の計算対象日のCPU性能又はメモリ容量を減算することにより、ステップSP144において選択した物理サーバ2の第3の計算対象日における余力CPU性能及び余力メモリ容量をそれぞれ算出する(SP148)。
 次いで、CPU20は、仮想マシン予約情報一覧42(図4)を参照して、現在の第3の計算対象日が、そのとき対象としているステップSP145において選択した仮想マシン14の終了日時を超えたか否かを判断する(SP149)。
 CPU20は、この判断で否定結果を得るとステップSP146に戻り、この後、ステップSP149で肯定結果を得るまで同様の処理を繰り返す。そしてCPU20は、やがてステップSP149で肯定結果を得ると、ステップSP145において選択した仮想マシン14をステップSPで選択した物理サーバ2に移動できるか否かを判断する(SP150)。
 具体的に、CPU20は、このステップSP150において、現在からステップSP145において選択した仮想マシン14の終了日時まで1日単位で行ったステップSP146~ステップSP149の処理において、現在から当該終了日時までの全期間について、ステップSP148で計算した余力CPU性能及び余力メモリ容量が0以上である場合には、かかる「仮想マシン14を移動できる」と判断し、これ以外の場合にかかる「仮想マシン14を移動できない」と判断することになる。
 そしてCPU20は、この判断で否定結果を得るとステップSP152に進む。これに対してCPU20は、ステップSP150の判断で肯定結果を得ると、ステップSP140で選択した物理サーバ2を制御することにより、そのとき対象としているステップSP145で選択した仮想マシン14をステップSP144で選択した物理サーバ2にホットマイグレーションさせる(SP151)。
 なお、このように仮想マシン14を移動可能な物理サーバ2を最初に検出した段階でその仮想マシン14をその物理サーバ2に移動させるようにした場合、物理サーバ2間におけるリソースの負荷バランスが一時的に崩れるおそれがあるが、計算機システム1に適用されたDRS機能により、ほどなくして物理サーバ2間の負荷バランスが平準化されるため問題はない。
 続いて、CPU20は、ステップSP140で選択した物理サーバ2上で稼働し又は稼働予定のすべての仮想マシン14について同様の処理を実行し終えたか否かを判断する(SP152)。そしてCPU20は、この判断で否定結果を得るとステップSP145に戻り、この後、ステップSP145において選択する仮想マシン14を未処理の他の仮想マシン14に切り替えながらステップSP145~ステップSP152の処理を繰り返す。
 そしてCPU20は、やがてステップSP140で選択した物理サーバ2上で稼働し又は稼働予定のすべての仮想マシン14についてステップSP146~ステップSP151の処理を実行し終えることによりステップSP152で肯定結果を得ると、ステップSP143で作成した物理サーバ一覧48(図10)に登録されているすべての物理サーバ2について同様の処理を実行し終えたか否かを判断する(SP153)。
 CPU20は、この判断で否定結果を得るとステップSP140に戻り、この後、ステップSP144において選択する物理サーバ2を未処理の他の物理サーバ2に順次切り替えながら、ステップSP144~ステップSP153の処理を繰り返す。
 そしてCPU20は、やがてステップSP143において作成した物理サーバ一覧48に登録されているすべての物理サーバ2についてステップSP145~ステップSP152の処理を実行し終えることによりステップSP153で肯定結果を得ると、ステップSP140で選択した物理サーバ2上で稼働し又は稼働予定の仮想マシン14の中で当該物理サーバ2から他の物理サーバ2に移動できなかった仮想マシン14が存在するか否かを判断する(SP154)。
 そしてCPU20は、この判断で否定結果を得るとこの借用リソース返却処理を終了する。これに対してCPU20は、ステップSP154の判断で肯定結果を得ると、移動できなかった仮想マシン14を停止状態にするようステップSP140で選択した物理サーバ2を制御すると共に、その旨を表示するなどしてシステム管理者に通知する(SP155)。
 続いて、CPU20は、そのとき対象としているステップSP140において選択した物理サーバ2を貸出し元の論理グループLGに返却する(SP156)。具体的に、CPU20は、このステップSP156において、借用リソース管理テーブル47(図9)上からその物理サーバ2に関するエントリを削除すると共に、物理サーバ構成テーブル41(図3)におけるその物理サーバ2に対応するエントリの所属論理グループ欄41D(図3)に格納されている論理グループ名を、返却先(貸出し元)の論理グループLGのグループ名に更新する。
 なお、以上のように、返却対象の物理サーバ2から同一論理グループLG内の他の物理サーバ2に移動できなかった仮想マシン14を停止状態にしてまでもかかる物理サーバ2を貸出し元に返却するのは、図13について上述した論理グループ構成変更処理が論理グループ構成の一時的な変更を目的とするものであり、貸出し期限以降については、その物理サーバ2のリソース量を考慮して仮想マシン14の予約がなされている可能性があるためである。よって、本実施の形態においては、かかる物理サーバ2を貸出し元の論理グループLGに返却することを優先する。
 次いで、CPU20は、以上の処理を借用リソース管理テーブル47に登録されたすべての物理サーバ2について実行し終えたか否かを判断する(SP157)。そしてCPU20は、この判断で否定結果を得るとステップSP140に戻り、この後、ステップSP140において選択する物理サーバ2を未処理の他の物理サーバ2に順次切り替えながらステップSP140~ステップSP157の処理を繰り返す。
 そしてCPU20は、借用リソース管理テーブル47に登録されたすべての物理サーバ2について同様の処理を実行し終えることによりステップSP157で肯定結果を得ると、この借用リソース返却処理を終了する。
(2-2-10)貸出し期限通知処理
 図22は、管理サーバ3のCPU20により定期的に実行される貸出し期限通知処理の処理手順を示す。CPU20は、この図22に示す処理手順に従って、貸出し期限までの残り日数が所定日数(以下においては1週間以内とする)となった物理サーバ2の貸出し期限等をシステム管理者に通知する。
 実際上、CPU20は、この貸出し期限通知処理を開始すると、まず、借用リソース管理テーブル47(図9)を参照して、当該借用リソース管理テーブル47に登録されている物理サーバ2を1つ選択し(SP160)、その物理サーバ2の貸出し期限が現在日時から1週間以内であるか否かを判断する(SP161)。
 CPU20は、この判断で否定結果を得るとステップSP163に進み、これに対して肯定結果を得ると、そのとき対象としている物理サーバ2のサーバ名及び貸出し期限をシステム管理者に通知する(SP162)。
 続いて、CPU20は、借用リソース管理テーブル47に登録されているすべての物理サーバ2についてステップSP161以降の処理を実行し終えたか否かを判断し(SP163)、否定結果を得るとステップSP160に戻って、この後、ステップSP161において選択する物理サーバ2を未処理の他の物理サーバ2に順次切り換えながらステップSP161~ステップSP163の処理を繰り返す。
 そしてCPU20は、やがて借用リソース管理テーブル47に登録されたすべての物理サーバ2についてステップSP161~ステップSP163の処理を実行し終えることによりステップSP163で肯定結果を得ると、この貸出し期限通知処理を終了する。
(2-2-11)貸出し解除処理
 図23は、所定操作により管理サーバ3のCPU20により実行される貸出し解除処理の処理手順を示す。CPU20は、この図23に示す処理手順に従って、システム管理者により指定された他の論理グループLGに貸出し中の物理サーバ2について、その貸出し状態を解除して、その物理サーバ2の所属を貸出し先の論理グループLGに移動させる。
 実際上、CPU20は、管理サーバ3が操作されて貸出し解除画面の表示命令が入力されると、借用リソース管理テーブル47の内容が表示された所定の貸出し解除設定画面(図示せず)を表示する(SP170)。
 この後、CPU20は、かかる貸出し解除設定画面を閉じる入力操作が行われ、又は、貸出し解除設定画面上で貸出し状態を解除すべき物理サーバ2が指定され、その物理サーバ2の貸出し状態を解除すべき命令(以下、これを貸出し状態解除命令と呼ぶ)の入力操作が行われるのを待ち受ける(SP171、SP172)。
 そしてCPU20は、やがてかかる貸出し状態解除命令の入力操作が行われると、当該貸出し状態解除命令において指定された物理サーバ2の貸出し状態を解除する(S173P)。具体的に、CPU20は、このステップSP173において、借用リソース管理テーブル47からその物理サーバ2に対応するエントリを削除し、物理サーバ構成テーブル41におけるその物理サーバ2に対応するエントリの所属論理グループ欄41D(図3)に格納されているグループ名を、それまでの貸出し先であった論理グループLGのグループ名に更新する。
 この後、CPU20は、ステップSP171に戻り、同様の処理を繰り返す。そしてCPU20は、やがて貸出し解除設定画面上で、当該貸出し解除設定画面を閉じる入力操作が行われると、この貸出し解除処理を終了する。
 なお、この機能は、リソース不足となっていた論理グループLGに新規にリソースを追加した場合や、貸出し元の論理グループLGに十分なリソースがあるため貸し出したリソースを返却してもらう必要がない場合などに有効である。
(3)本実施の形態の効果
 以上のように本実施の形態による計算機システム1では、第1又は第2のエラールールに該当するホットマイグレーションが発生した場合に、当該ホットマイグレーションが発生した論理グループLGに対して他の論理グループLGから余剰分の物理サーバ2が貸し出されるため、第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGにおけるリソース不足を解消することができる。よって、かかるホットマイグレーションが発生した論理グループLGにおけるリソース不足に起因するホットマイグレーションの発生を抑制することができる。
 また本計算機システム1では、上述のように第1又は第2のエラールールに該当するホットマイグレーションが発生した論理グループLGに対して他の論理グループLGから余剰分の物理サーバ2を貸し出すため、論理グループLG間の負荷バランスを平準化することができる。
 従って、本計算機システム1によれば、システム内におけるホットマイグレーションの発生を効果的に低減させることができ、かくしてシステム全体の安定化を図ることができる。
(4)他の実施の形態
 なお上述の実施の形態においては、エラールールとして、ある仮想マシン14がホットマイグレーションされた後、所定時間内に移動先の物理サーバ2上で稼働していた他の仮想マシン14が他の物理サーバ2にホットマイグレーションされた場合(第1のエラールール)と、ある論理グループLG内で特定の仮想マシン14のホットマイグレーションが頻発している場合(第2のエラールール)とを規定するようにした場合について述べたが、本発明はこれに限らず、要は、論理グループLG内のリソースが不足したときに発生するホットマイグレーションのパターンをエラールールとして規定するのであれば、上述の第1及び第2のエラールール以外のパターンをエラールールとして規定するようにしても良い。
 また上述の実施の形態においては、第1又は第2のエラールールに該当するホットマイグレーションの発生の有無を監視する監視部と、エラールールに該当するホットマイグレーションが発生したことが監視部により検出された場合に、当該ホットマイグレーションが発生した論理グループLG以外の論理グループLGに所属する物理サーバ2の中から1つの物理サーバ2を選択し、選択した物理サーバ2上で稼働し又は稼働予定の仮想マシン14を同一論理グループLG内の他の物理サーバ2に移動させた後に、当該選択した物理サーバ2を第1又は第2のエラールールに該当する仮想マシン14の移動が発生した論理グループLGに貸し出すように、対応する論理グループLGの構成を変更する論理グループ構成変更部とを、管理サーバ3内の同じCPU20及び論理グループ構成変更プログラム40により実現するようにした場合について述べたが、本発明はこれに限らず、これら監視部及び論理グループ構成変更部を別個のCPU及びプログラムにより実現するようにしても良い。
 本発明は、DRS機能が搭載された管理サーバに適用することができる。
 1……計算機システム、2……物理サーバ、3……管理サーバ、10,20……CPU、11,21……メモリ、13……ハイパーバイザ、14……仮想マシン、40……論理グループ構成変更プログラム、41……物理サーバ構成テーブル、42……仮想マシン予約情報一覧、43……ホットマイグレーション情報テーブル、44……イベント一覧、45……リソース取得先一覧、46……移動先候補一覧、47……借用リソース管理テーブル、48……物理サーバ一覧、LG……論理グループ。

Claims (14)

  1.  それぞれ仮想化プログラムが実装された複数の物理サーバを複数の論理グループに分けて管理し、各前記論理グループ内における各物理サーバの負荷バランスを平準化するように、いずれかの前記物理サーバ上で稼働し又は稼働予定の仮想マシンを同一の前記論理グループ内の他の前記物理サーバに移動するよう対応する前記物理サーバを制御する管理装置において、
     前記論理グループ内のリソースが不足したときに発生する前記仮想マシンの移動パターンをエラールールとして設定でき、
     設定された前記エラールールに該当する前記仮想マシンの移動の有無を監視する監視部と、
     前記エラールールに該当する前記仮想マシンの移動が発生したことが前記監視部により検出された場合に、当該仮想マシンの移動が発生した前記論理グループ以外の前記論理グループに所属する前記物理サーバの中から1つの前記物理サーバを選択し、選択した物理サーバ上で稼働し又は稼働予定の前記仮想マシンを同一論理グループ内の他の前記物理サーバに移動させた後に、当該選択した物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する論理グループ構成変更部と
     を備えることを特徴とする管理装置。
  2.  前記エラールールとして、
     前記仮想マシンが他の前記物理サーバに移動されたために、所定時間内に、当該物理サーバ上で稼働していた他の前記仮想マシンがさらに他の前記物理サーバに移動される第1のパターンと、同一の前記論理グループ内で発生した同一の前記仮想マシンの移動頻度が予め設定された閾値以上である第2のパターンとの少なくとも一方が設定された
     ことを特徴とする請求項1に記載の管理装置。
  3.  前記論理グループ構成変更部は、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して、他の論理グループから前記物理サーバを貸出し期限を決めて貸し出す
     ことを特徴とする請求項1に記載の管理装置。
  4.  前記貸出し期限は、
     前記物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する処理の実行契機となった前記仮想マシンの終了日時の前日である
     ことを特徴とする請求項3に記載の管理装置。
  5.  前記論理グループ構成変更部は、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した各前記物理サーバの前記貸出し期限を管理し、
     前記貸出し期限までの残り日数が所定の第1の日数以下の物理サーバを、当該物理サーバの貸出し元の前記論理グループに返却するように、対応する前記論理グループの構成を変更する
     ことを特徴とする請求項3に記載の管理装置。
  6.  前記論理グループ構成変更部は、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した各前記物理サーバの前記貸出し期限を管理し、
     前記貸出し期限までの残り日数が所定の第2の日数以下の物理サーバが存在する場合には、当該物理サーバの前記貸出し期限を管理者に通知する
     ことを特徴とする請求項3に記載の管理装置。
  7.  前記論理グループ構成変更部は、
     外部操作に応じて、前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した前記物理サーバの貸出し状態を解除し、当該物理サーバを貸出し先の前記論理グループに所属するよう対応する前記論理グループの構成を変更する
     ことを特徴とする請求項1に記載の管理装置。
  8.  それぞれ仮想化プログラムが実装された複数の物理サーバを複数の論理グループに分けて管理し、各前記論理グループ内における各物理サーバの負荷バランスを平準化するように、いずれかの前記物理サーバ上で稼働し又は稼働予定の仮想マシンを同一の前記論理グループ内の他の前記物理サーバに移動するよう対応する前記物理サーバを制御する管理方法において、
     前記論理グループ内のリソースが不足したときに発生する前記仮想マシンの移動パターンをエラールールとして設定する第1のステップと、
     設定された前記エラールールに該当する前記仮想マシンの移動の発生の有無を監視し、前記エラールールに該当する前記仮想マシンの移動が発生したことを検出した場合に、当該仮想マシンの移動が発生した前記論理グループ以外の前記論理グループに所属する前記物理サーバの中から1つの前記物理サーバを選択し、選択した物理サーバ上で稼働し又は稼働予定の前記仮想マシンを同一論理グループ内の他の前記物理サーバに移動させた後に、当該選択した物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する第2のステップと
     を備えることを特徴とする管理方法。
  9.  前記エラールールとして、
     前記仮想マシンが他の前記物理サーバに移動されたために、所定時間内に、当該物理サーバ上で稼働していた他の前記仮想マシンがさらに他の前記物理サーバに移動される第1のパターンと、同一の前記論理グループ内で発生した同一の前記仮想マシンの移動頻度が予め設定された閾値以上となっている第2のパターンとの少なくとも一方が設定された
     ことを特徴とする請求項8に記載の管理方法。
  10.  前記第2のステップでは、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して、他の論理グループから前記物理サーバを貸出し期限を決めて貸し出す
     ことを特徴とする請求項8に記載の管理方法。
  11.  前記貸出し期限は、
     前記物理サーバを前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに貸し出すように、対応する前記論理グループの構成を変更する処理の実行契機となった前記仮想マシンの終了日時の前日である
     ことを特徴とする請求項10に記載の管理方法。
  12.  前記第2のステップでは、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した各前記物理サーバの前記貸出し期限を管理し、
     前記貸出し期限までの残り日数が所定の第1の日数以下の物理サーバを、当該物理サーバの貸出し元の前記論理グループに返却するように、対応する前記論理グループの構成を変更する
     ことを特徴とする請求項10に記載の管理方法。
  13.  前記第2のステップでは、
     前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した各前記物理サーバの前記貸出し期限を管理し、
     前記貸出し期限までの残り日数が所定の第2の日数以下の物理サーバが存在する場合には、当該物理サーバの前記貸出し期限を管理者に通知する
     ことを特徴とする請求項10に記載の管理方法。
  14.  前記第2のステップでは、
     外部操作に応じて、前記エラールールに該当する前記仮想マシンの移動が発生した前記論理グループに対して他の前記論理グループから貸し出した前記物理サーバの貸出し状態を解除し、当該物理サーバを貸出し先の前記論理グループに所属するよう対応する前記論理グループの構成を変更する
     ことを特徴とする請求項8に記載の管理方法。
PCT/JP2011/003095 2011-06-01 2011-06-01 仮想マシンのリソース管理装置及び管理方法 WO2012164624A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/003095 WO2012164624A1 (ja) 2011-06-01 2011-06-01 仮想マシンのリソース管理装置及び管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/003095 WO2012164624A1 (ja) 2011-06-01 2011-06-01 仮想マシンのリソース管理装置及び管理方法

Publications (1)

Publication Number Publication Date
WO2012164624A1 true WO2012164624A1 (ja) 2012-12-06

Family

ID=47258517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003095 WO2012164624A1 (ja) 2011-06-01 2011-06-01 仮想マシンのリソース管理装置及び管理方法

Country Status (1)

Country Link
WO (1) WO2012164624A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103353853A (zh) * 2013-07-26 2013-10-16 浪潮电子信息产业股份有限公司 一种负载自动调节的方法
CN104461728A (zh) * 2013-09-18 2015-03-25 Sap欧洲公司 迁移事件调度管理
CN110647381A (zh) * 2019-09-18 2020-01-03 上海擎创信息技术有限公司 一种虚拟机资源均衡和部署优化方法
CN111736953A (zh) * 2020-06-23 2020-10-02 深圳市云智融科技有限公司 虚拟资源投放方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178040A (ja) * 2001-12-10 2003-06-27 Hitachi Information Systems Ltd ウェブサイトの構成決定支援方法
WO2008102739A1 (ja) * 2007-02-23 2008-08-28 Nec Corporation 仮想サーバシステム及び物理サーバ選択方法
JP2009116380A (ja) * 2007-11-01 2009-05-28 Nec Corp 仮想サーバ移動制御装置、仮想サーバ移動制御方法およびプログラム
JP2010026699A (ja) * 2008-07-17 2010-02-04 Kddi Corp ネットワーク運用管理方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178040A (ja) * 2001-12-10 2003-06-27 Hitachi Information Systems Ltd ウェブサイトの構成決定支援方法
WO2008102739A1 (ja) * 2007-02-23 2008-08-28 Nec Corporation 仮想サーバシステム及び物理サーバ選択方法
JP2009116380A (ja) * 2007-11-01 2009-05-28 Nec Corp 仮想サーバ移動制御装置、仮想サーバ移動制御方法およびプログラム
JP2010026699A (ja) * 2008-07-17 2010-02-04 Kddi Corp ネットワーク運用管理方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOTARO NAGAI: "A method to share memories in virtual server cluster using ramfs, iSCSI and LVM", IPSJ SIG NOTES, HEISEI 21 NENDO 6, vol. 2010-IOT, no. 16, 15 April 2010 (2010-04-15), pages 1 - 6 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103353853A (zh) * 2013-07-26 2013-10-16 浪潮电子信息产业股份有限公司 一种负载自动调节的方法
CN104461728A (zh) * 2013-09-18 2015-03-25 Sap欧洲公司 迁移事件调度管理
CN104461728B (zh) * 2013-09-18 2019-06-14 Sap欧洲公司 迁移事件调度管理的计算机系统、介质和方法
CN110647381A (zh) * 2019-09-18 2020-01-03 上海擎创信息技术有限公司 一种虚拟机资源均衡和部署优化方法
CN110647381B (zh) * 2019-09-18 2023-06-06 上海擎创信息技术有限公司 一种虚拟机资源均衡和部署优化方法
CN111736953A (zh) * 2020-06-23 2020-10-02 深圳市云智融科技有限公司 虚拟资源投放方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
US11226750B2 (en) Flexible deprovisioning of distributed storage
Jung et al. Performance and availability aware regeneration for cloud based multitier applications
US8468548B2 (en) Multi-tenant, high-density container service for hosting stateful and stateless middleware components
US8752055B2 (en) Method of managing resources within a set of processes
JP6349264B2 (ja) 計算資源割当て方法およびシステム
EP3602296A1 (en) Event-driven scheduling using directed acyclic graphs
US11507417B2 (en) Job scheduling based on job execution history
US20140365626A1 (en) Pre-configure and pre-launch compute resources
US9571580B2 (en) Storage management in a multi-tiered storage architecture
US10616134B1 (en) Prioritizing resource hosts for resource placement
US20170093966A1 (en) Managing a shared pool of configurable computing resources having an arrangement of a set of dynamically-assigned resources
WO2012164624A1 (ja) 仮想マシンのリソース管理装置及び管理方法
Xu et al. IBIS: Interposed big-data I/O scheduler
CN106533961A (zh) 一种流量控制方法及装置
Ungureanu et al. Kubernetes cluster optimization using hybrid shared-state scheduling framework
Ludwig et al. Optimizing multi‐tier application performance with interference and affinity‐aware placement algorithms
Maleki et al. TMaR: a two-stage MapReduce scheduler for heterogeneous environments
JP5969340B2 (ja) リソース管理システム、リソース管理方法及びリソース管理プログラム
Yan et al. Affinity-aware virtual cluster optimization for mapreduce applications
CN117193987A (zh) 一种互为中立的独立分布式计算与节点管理方法
US9501517B2 (en) Providing consistent tenant experiences for multi-tenant databases
CN115102851B (zh) 一种面向hpc与ai融合计算的融合平台及其资源管理方法
Kumar et al. SERVmegh: Framework for green cloud
JP2012160045A (ja) 仮想化環境リソース管理構成変更システム、及びプログラム
Shi et al. Developing an optimized application hosting framework in clouds

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11866536

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11866536

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP