WO2012117507A1 - 管理計算機及び計算機システムの管理方法 - Google Patents

管理計算機及び計算機システムの管理方法 Download PDF

Info

Publication number
WO2012117507A1
WO2012117507A1 PCT/JP2011/054543 JP2011054543W WO2012117507A1 WO 2012117507 A1 WO2012117507 A1 WO 2012117507A1 JP 2011054543 W JP2011054543 W JP 2011054543W WO 2012117507 A1 WO2012117507 A1 WO 2012117507A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual machine
performance
volume
area
performance value
Prior art date
Application number
PCT/JP2011/054543
Other languages
English (en)
French (fr)
Inventor
健吾 森安
俊宏 藏
伸圭 坂井
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2011/054543 priority Critical patent/WO2012117507A1/ja
Priority to US13/133,307 priority patent/US8447850B2/en
Priority to JP2013502080A priority patent/JP5417553B2/ja
Publication of WO2012117507A1 publication Critical patent/WO2012117507A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Definitions

  • the present invention relates to a management computer and a management method for a computer system.
  • a computer system such as a data center executes a plurality of business processes by providing a large number of computers and a large number of storage devices.
  • the system administrator assigns a combination of a virtual machine and a logical volume to the business process according to the type of business process. For example, a high-performance computer and a high-performance logical volume in a computer system are allocated to business processing that requires high-speed processing.
  • a low-performance computer and a low-performance logical volume in the computer system are allocated to business processing sufficient for low-speed processing. This effectively uses the resources of the computer system.
  • Patent Document 1 A method for efficiently operating a plurality of virtual machines on a plurality of servers is known (Patent Document 1).
  • the conventional technology for operating multiple virtual machines among multiple servers is just a technology that distributes the load among multiple servers, and determines whether the combination of resources of the computer system is being used appropriately. I can't do it. Furthermore, the conventional technology cannot provide a combination of resources suitable for a plurality of business processes having different required performances. Therefore, unnecessarily high-performance resource combinations are allocated to sufficient business processing with low-speed processing, and as a result, high-performance resource combinations cannot be provided for business processing that requires high-speed processing. Challenges arise.
  • a management computer is a management computer for managing a computer system for communicating with a plurality of computers having one or more virtual computers and one or more storage devices having a plurality of logical volumes.
  • a communication interface a storage device that stores a predetermined computer program, and a microprocessor that reads and executes the predetermined computer program from the storage device.
  • the microprocessor executes a predetermined computer program and executes the following processing.
  • the microprocessor has a first axis indicating a virtual computer performance value, which is a performance value relatively determined in each virtual computer included in the computer system, and a performance determined relatively in each logical volume included in the computer system.
  • a coordinate plane configured from the second axis indicating the volume performance value that is a value, a plurality of areas are provided on the coordinate plane according to a predetermined standard, and a virtual computer performance value is calculated for each virtual computer, Calculate the volume performance value for the logical volume, and for each virtual machine and each logical volume, calculate which virtual machine and logical volume pair the virtual machine that constitutes the pair belongs to.
  • the determined area is held as an initial area, and at a predetermined timing, the virtual machine performance value for the virtual machine constituting the pair and the volume performance value for the logical volume constituting the pair are recalculated and recalculated. Based on the virtual machine performance values and volume performance values that have been determined, it is determined again which of the areas the pair belongs to, and the determined area is retained as the latest area, so that the initial area matches the latest area. If the initial area and the latest area do not match, a message indicating that they do not match is output.
  • the predetermined standard may be set according to the required performance for each business type.
  • the microprocessor may create a migration plan for matching the latest area with the initial area when the initial area and the latest area do not match.
  • the migration plan includes a virtual machine migration plan that migrates the virtual machines that make up the pair to other virtual machines in each virtual machine, and the logical volumes that make up the pair are migrated to other logical volumes in each logical volume. And / or a volume migration plan to be included.
  • the present invention may be grasped as a computer program.
  • the computer program can be distributed via a communication medium or a recording medium.
  • FIG. 1 is an explanatory diagram showing an overview of an embodiment.
  • FIG. 2 is a hardware configuration diagram of the computer system.
  • FIG. 3 is an explanatory diagram showing virtual machines and logical volumes.
  • FIG. 4 is an explanatory diagram showing the storage contents of the management server.
  • FIG. 5 is a table for setting the coordinates of the system configuration.
  • FIG. 6 is a table for managing a division policy for creating an area.
  • FIG. 7 is a table for managing coordinates.
  • FIG. 8 is an explanatory diagram of a state in which a table for managing virtual machines and a table for managing performance of virtual machines are integrated.
  • FIG. 9 is an explanatory diagram of a state in which a table for managing logical volumes and a table for managing performance of logical volumes are integrated.
  • FIG. 10 is a table for determining the performance order according to the drive type.
  • FIG. 11 shows an example of a screen for presenting the coordinates of the system configuration to the user.
  • FIG. 12 is an example of a setting screen.
  • FIG. 13 is a flowchart of processing for acquiring resource information.
  • FIG. 14 is a flowchart of the evaluation process.
  • FIG. 15 is a flowchart of processing for evaluating coordinates.
  • FIG. 16 is a flowchart of processing for migrating resources.
  • FIG. 17 is an explanatory diagram illustrating a state in which resources are migrated so that pairs with matching areas increase.
  • FIG. 18 is a flowchart of processing for monitoring resource migration.
  • FIG. 19 is a schematic diagram showing how an area is created.
  • FIG. 19 is a schematic diagram showing how an area is created.
  • FIG. 20 is a schematic diagram showing how resources are added to the computer system.
  • FIG. 21 is a schematic diagram showing how the relative position of an existing resource changes as a result of adding a new resource to the computer system.
  • FIG. 22 is a schematic diagram showing how a resource pair is returned to the original area.
  • FIG. 23 shows a virtual machine table and a virtual machine performance table when a resource (virtual machine) is added.
  • FIG. 24 shows a volume table and a volume performance table when a resource (volume) is added.
  • FIG. 25 is a coordinate table when resources are added.
  • FIG. 26 is a coordinate table when resource migration is completed.
  • FIG. 27 shows a virtual machine table and a virtual machine performance table when resource migration is completed.
  • FIG. 28 shows a virtual machine table and a virtual machine performance table when the performance index setting is changed.
  • FIG. 29 shows a volume table and a volume performance table when the performance index setting is changed.
  • FIG. 30 is a coordinate table when the performance index setting is changed.
  • FIG. 31 is a coordinate table when the resource migration is completed after the performance index setting is changed.
  • FIG. 32 shows a virtual machine table and a virtual machine performance table when resource migration is completed after the performance index setting is changed.
  • FIG. 33 is a flowchart of processing for proposing a pair of resources.
  • FIG. 34 shows an example of a screen that presents a pair of resources.
  • relative performance values are calculated for a plurality of system configurations (virtual machines, logical volumes, virtual machine / logical volume pairs) included in the computer system.
  • a plurality of system configurations are divided into a plurality of groups based on relative performance values and predetermined criteria.
  • these groups are called performance areas.
  • the relative performance value is expressed in a format such as a percentile, for example.
  • the change is displayed.
  • the system configuration is changed so that the system configuration of the pair can be returned to the first group. That is, at least a part of the system configuration of the pair is changed to another system configuration.
  • FIG. 1 schematically shows functions of the management server 3 for managing the computer system.
  • the computer system managed by the management server 3 includes, for example, a plurality of virtual machines 1 (1) and 1 (2) and a plurality of logical volumes 2 (1) and 2 (2) as resources.
  • the virtual machine 1 corresponds to a “virtual computer”.
  • the virtual machine 1 is a computer that is virtually generated using resources (processor, memory) of a physical computer.
  • virtual machines 1 (1) and 1 (2) are referred to as virtual machine 1
  • logical volumes 2 (1) and 2 (2) are referred to as logical volume 2.
  • the function of the management server 3 will be described.
  • the management server 3 includes, for example, a performance area setting unit 3A, a system configuration coordinate evaluation unit 3B, a resource information management unit 3C, a migration unit 3D, a screen control unit 3E, and a proposal unit 3F.
  • the performance area setting unit 3A is a function for setting a performance area.
  • the performance area may be abbreviated as area.
  • the performance area is an area created based on the performance value of the system configuration and the division policy.
  • a coordinate plane can be defined from the first performance axis (X axis) and the second performance axis (Y axis).
  • the coordinate plane is divided into a plurality of areas 1 to 4 based on the division policy.
  • FIG. 1 illustrates the case where the area is divided into four, the present invention is not limited to this, and the area may be divided into two, three, or five or more.
  • the area is created so that the required performance for each business type can be satisfied.
  • the area 1 that uses a high-performance virtual machine and a high-performance logical volume can be set so that it can be used for a database configuration that requires high-speed processing.
  • the area 2 that uses the high-performance virtual machine and the low-performance logical volume can be set so that it can be used for business processing such as scientific calculation.
  • the area 3 that uses the low-performance virtual machine and the high-performance logical volume can be set so that it can be used for backup processing, for example.
  • the area 4 in which the low-performance virtual machine and the low-performance logical volume are used can be set so that it can be used for business processing related to e-mail, for example.
  • the level of performance is relatively determined. If more high-performance resources are added, even those resources that have been high-performance in the past will have low performance. Also, the user can freely set what kind of business processing is to be executed using the combination of resources in each area.
  • the first performance axis is an axis for relatively evaluating a performance value (volume performance value) based on a predetermined volume performance index.
  • the volume performance index is an index for measuring the performance of the logical volume 2.
  • the volume performance index can be divided into, for example, a static performance index and a dynamic performance index.
  • the static performance index of a volume includes, for example, the type of storage device that constitutes a logical volume, the transfer speed of the storage device, and the number of rotations.
  • IOPS Input / Output Operations Per Second
  • the volume static performance index corresponds to the “first volume performance index”.
  • the volume dynamic performance index corresponds to the “second volume performance index”.
  • the second performance axis is an axis for relatively evaluating a performance value (virtual machine performance value) based on a predetermined virtual machine performance index.
  • the virtual machine performance index is an index for measuring the performance of the virtual machine 1.
  • the virtual machine performance index is also divided into a static performance index and a dynamic performance index. Examples of the virtual machine static performance index include a processor type, a processor driving frequency, and a memory size. Examples of the dynamic performance index of the virtual machine include a benchmark score when a performance measurement program is executed.
  • the static performance index of the virtual machine corresponds to the “first virtual machine performance index”.
  • the dynamic performance index of the virtual machine corresponds to the “second virtual machine performance index”.
  • the system configuration coordinate evaluation unit 3B is a function for evaluating the coordinates of the system configuration.
  • the system configuration indicates resources included in the computer system and combinations of resources. Specifically, the virtual machine 1, the logical volume 2, and the pair of the virtual machine 1 and the logical volume 2 correspond to the system configuration.
  • the system configuration coordinate evaluation unit 3B may be abbreviated as the evaluation unit 3B.
  • the evaluation unit 3B evaluates the coordinates of the system configuration at a predetermined timing. Examples of the predetermined timing include a case where the configuration of the computer system is changed, a case where the definition of the coordinate plane is changed (a case where the performance index is changed), and the like.
  • the resource information management unit 3C is a function for managing information related to each resource (for example, virtual volume and logical volume) in the computer system.
  • the migration unit 3D is a function for shifting a part of the system configuration of a pair (also referred to as a pair configuration) to another system configuration.
  • the migration unit 3D includes a function for switching the virtual machine 1 in the pair configuration to another virtual machine 1 and a function for switching the logical volume 2 in the pair configuration to another logical volume.
  • the migration unit 3D can create a plurality of migration plans, present them to the user, and execute the migration plan selected by the user. Alternatively, the migration unit 3D can automatically select any one of the plurality of migration plans based on a predetermined selection criterion and execute the selected migration plan.
  • the screen control unit 3E is a function that creates various screens including the screen G1 and controls each screen.
  • the screen G1 shows a state in which the coordinates of each system included in the computer system are mapped on a coordinate plane defined by the first performance axis and the second performance axis.
  • the coordinate Pc1 is the position of the single virtual machine 1 (2).
  • a single virtual machine is a virtual machine in which an access path to the logical volume 2 is not set.
  • the coordinate Pc3 is the position of the single logical volume 2 (2).
  • a single logical volume is a logical volume for which no access path is set with the virtual machine.
  • the coordinates Pc2 and Pc4 are the coordinates of the pair configuration. A description will be given by taking Pc4 as an example.
  • the coordinate Pc4 of the pair configuration is determined by the performance value of the virtual machine 1 (1) and the performance value of the logical volume 2 (1) included in the pair configuration.
  • the performance value of the virtual machine 1 and the performance value of the logical volume 2 are relatively determined using a percentile, for example. That is, even if the virtual machine 1 (1) is a high-performance virtual machine 1 (1) at the initial construction of the computer system, if a higher-performance virtual machine 1 (2) is subsequently added to the computer system, the virtual machine 1 (1 ) 'S status (position in the computer system) declines. Similarly, even if the logical volume 2 (1) is a high-performance logical volume at the initial construction of the computer system, if a higher-performance logical volume 2 (2) is added thereafter, the logical volume 2 (1) The status will decline.
  • the pair configuration that was the coordinate Pc4 at the initial construction of the computer system moves to the coordinate Pc5 when a new virtual machine 1 (2) and logical volume 2 (2) are added to the computer system.
  • the area to which the pair configuration belongs changes from the original area 1 to area 2.
  • the migration unit 3D creates a migration plan for resolving the mismatch when the area to which the pair configuration currently belongs does not match the initial area.
  • the migration unit 3D creates a migration plan so that the coordinates of the pair configuration move from Pc5 in area 2 to Pc6 in area 1.
  • the migration plan is not a plan for returning the pair configuration to the original coordinate Pc4.
  • the migration plan is created so that the latest area of the pair configuration matches the initial area. As long as the coordinate of the pair configuration returns to the original area, the difference between the original coordinate Pc4 and the coordinate Pc6 after the transfer does not matter.
  • the logical volume constituting the pair configuration is switched from the original logical volume 2 (1) to the newly added logical volume 2 (2). That is, the logical volume 2 (1) is transferred to the logical volume 2 (2).
  • the virtual machine 1 (1) in the pair configuration is maintained as it is and does not migrate.
  • An access path is set between the virtual machine 1 (1) and the logical volume 2 (2).
  • the migration unit 3D performs only logical volume migration.
  • the proposing unit 3F is a function for proposing to the system administrator a virtual machine and logical volume pair suitable for the business process designated by the system administrator through the screen G1.
  • the proposal unit 3F will be described in a second example described later. In the first embodiment, the proposal unit 3F is not necessary.
  • the proposing unit 3F searches for and displays a virtual machine and logical volume pair suitable for the specified business process.
  • FIG. 2 shows the hardware configuration of the computer system.
  • the computer system includes, for example, a plurality of virtualization servers 10, a plurality of storage apparatuses 20, and at least one management server 30. Furthermore, a client server 40 for operating the management server 30 may be provided in the computer system.
  • the virtualization server 10 corresponds to a “computer”.
  • the virtualization server 10 corresponds to the computer 1 in FIG.
  • the virtualization server 10 is a computer capable of operating a virtual machine 100 (described later in FIG. 3).
  • the virtualization server 10 includes, for example, a microprocessor (hereinafter referred to as CPU) 11, a memory 12, an auxiliary storage device 13, a NIC (Network Interface Card) 14, and an HBA (Host Bus Adapter) 15.
  • the memory 12 stores a computer program for controlling virtualization.
  • the CPU 11 is a physical CPU and includes a plurality of processor cores. Although one CPU 11 is shown in the drawing, the virtualization server 10 can actually have a plurality of multi-core CPUs. Note that the auxiliary storage device 13 may be eliminated when the size of the memory 12 is sufficiently large.
  • the virtualization server 10 communicates with the management server 30 via the NIC 14 and the management communication network CN2.
  • the virtualization server 10 communicates with the storage apparatus 20 via the HBA 15 and the data input / output communication network CN1.
  • the data input / output communication network CN1 is configured, for example, as an IP-SAN (Storage Area Network).
  • the management communication network CN2 is configured as, for example, a LAN (Local Area Network).
  • the data input / output communication network CN1 and the management communication network CN2 may be combined into one communication network.
  • the storage device 20 includes, for example, a plurality of channel adapters (CHA in the figure) 21, at least one controller 22, and a plurality of storage devices 23.
  • the channel adapter 21 is a communication control circuit for communicating with the virtualization server 10 via the data input / output communication network CN1.
  • Each channel adapter 22 has a plurality of communication ports.
  • the controller 22 controls the operation of the storage apparatus 20.
  • the controller 22 includes, for example, a CPU 221, a memory 222, a disk adapter (DKA in the figure) 223, and a NIC 224.
  • a plurality of controllers 22 may be provided.
  • the memory 222 stores, for example, a command processing program for interpreting and executing various commands issued from the server 10, a RAID (Redundant Array of Independent Disks) control program, and the like.
  • a command processing program for interpreting and executing various commands issued from the server 10
  • a RAID (Redundant Array of Independent Disks) control program and the like.
  • the disk adapter 223 is a communication control circuit for communicating with each storage device 23.
  • the NIC 224 is a communication interface circuit for communicating with the management server 30 via the management communication network CN2.
  • the storage device 23 for example, various devices capable of reading and writing data such as a hard disk device, a semiconductor memory device, and an optical disk device can be used.
  • a hard disk device for example, a FC (Fibre Channel) disk, a SCSI (Small Computer System Interface) disk, a SATA disk, an ATA (AT Attachment) disk, a SAS (Serial Attached SCSI) disk, or the like can be used.
  • FC Fibre Channel
  • SCSI Serial Computer System Interface
  • SATA Serial Advanced Technology Attachment
  • SAS Serial Attached SCSI
  • flash memory FeRAM (Ferroelectric Random Access Memory), MRAM (Magnetoresistive Random Access) Devices such as “Memory”, phase change memory (Ovonic Unified Memory), and RRAM (Resistance RAM) can also be used.
  • FeRAM Feroelectric Random Access Memory
  • MRAM Magneticoresistive Random Access
  • Different types of storage devices such as flash memory devices and hard disk drives can be mixed in a single storage device.
  • the storage structure of the storage device 20 will be described later with reference to FIG.
  • the management server 30 manages each virtualization server 10 and each storage device 20 included in the computer system.
  • the management server 30 includes, for example, a CPU 31, a memory 32, an auxiliary storage device 33, and a NIC 34.
  • the management server 30 is not necessarily composed of one computer, and may be composed of a plurality of computers.
  • the client server 40 gives an instruction to the management server 30 and extracts information from the management server 30.
  • the client server 40 includes, for example, a CPU 41, a memory 42, an auxiliary storage device 43, and a NIC 44.
  • the client server 40 is connected to the management server 30 via the NIC 44 and the communication network CN2.
  • the structure which communicates with the management server 30 using the operation terminal connected to the management server 30 without using the client server 40 may be sufficient.
  • FIG. 3 schematically shows the virtual machine 100 and the logical volume 232.
  • a plurality of virtual machines 100 can be provided in the virtualization server 10.
  • the physical resources (CPU, memory) of the physical server 10 can be virtualized and divided to obtain the virtual processor 11V and the memory 12V.
  • Each virtual machine 100 operates an operating system or the like independently of each other using the virtual processor 11V and the memory 12V.
  • a logical volume 232 is created by logically dividing the storage area of the RAID group 231.
  • the logical volume 232 is a logical storage area.
  • LUN Logical Unit Unit Number
  • LUN Logical Unit Unit Number
  • FIG. 4 schematically shows the storage contents of the management server 30.
  • the auxiliary storage device 33 as “storage device” stores a computer program and a management table.
  • the computer program includes, for example, a configuration management program P30 and a machine information collection program P31.
  • the management table includes, for example, a coordinate setting table T30, a division policy table T31, a coordinate table T32, a virtual machine table T33, a volume table T34, a virtual machine performance table T35, and a volume performance table T36. .
  • the configuration management program P30 manages each resource (system configuration) of the computer system. Although details will be described later, the configuration management program P30 relatively evaluates the performance values of the virtual machine 100 and the logical volume 232, and classifies and manages them based on the performance values. The configuration management program P30 executes migration when the area to which the virtual machine 100 and logical volume 232 pair belongs does not match the initial area. The machine information collection program P31 collects and manages information on each virtual machine 100 and the like.
  • the coordinate setting table T30 manages information for setting a predetermined coordinate plane (system configuration coordinate plane).
  • the division policy table T31 manages information for creating a plurality of performance areas on the coordinate plane.
  • the coordinate table T32 manages the coordinates of the virtual machine 100, the coordinates of the logical volume 232, and the coordinates of the system configuration composed of a pair of the virtual machine 100 and the logical volume 232.
  • the virtual machine table T33 manages each virtual machine 100 registered in the configuration management program P30.
  • the volume table T34 manages each logical volume 232 registered in the configuration management program P30.
  • the virtual machine performance table T35 manages the performance of each virtual machine 100 registered in the configuration management program P30.
  • the volume performance table T36 manages the performance of each logical volume 232 registered in the configuration management program P30.
  • computer programs or management tables may be stored in the storage device 33.
  • all or part of the computer programs and management tables may be stored in the memory 32 instead of the auxiliary storage device 33.
  • at least a part of each of the management tables may be divided into a plurality of tables, or the plurality of management tables may be combined into one.
  • FIG. 5 shows a configuration example of the table T30 for setting the coordinates of the system configuration.
  • the coordinate setting table T30 manages, for example, the performance data types C300 and C301 to be evaluated and the performance data ranking method C302 in association with each other.
  • the virtual machine performance value definition C300 defines the performance value of the virtual machine 100.
  • the element type and weight for evaluating the performance of the virtual machine 100 are set in the virtual machine performance value definition C300.
  • the volume performance value definition C301 defines the performance value of the logical volume 232. In the volume performance value definition C301, the type and weight of an element for evaluating the performance of the logical volume 232 are set.
  • a ranking method based on performance is set.
  • a percentile can be used as the ranking method. Any method other than the percentile may be used as long as the ranking method can realize the relative positioning in each virtual machine and the relative positioning in each logical volume.
  • the information in the coordinate setting table T30 can be changed by the system administrator during operation of the computer system.
  • a coordinate setting table T30A shown on the lower side of FIG. 5 shows a state after the setting is changed.
  • the virtual machine performance value definition C300 and the volume performance value definition C301 are changed.
  • the performance of the virtual machine 100 is evaluated based on the number of physical CPUs and the number of virtual processors.
  • the performance of the logical volume 232 is evaluated based on the drive type. That is, in the coordinate setting table T30 before the change, the performance is evaluated based on the static performance.
  • the resource performance is evaluated by paying attention to static performance that does not change before and after the operation, such as catalog specifications.
  • the performance of the virtual machine 100 is evaluated based on the result of the benchmark measurement program.
  • the performance of the logical volume 232 is evaluated based on IOPS.
  • the virtual machine 100 and the logical volume 232 can be appropriately managed according to the actual situation.
  • the coordinate setting table T30 is changed, the coordinates of each resource (virtual machine, logical volume, virtual machine and volume pair) are recalculated as described later.
  • FIG. 6 shows a configuration example of the division policy table T31.
  • the division policy table T31 in FIG. 6 shows a state at the time of initial setting.
  • the division policy is information for managing the coordinate plane defined by the coordinate setting table T30 by dividing it into a plurality of performance areas (sometimes abbreviated as areas).
  • the division policy table T31 includes, for example, an area ID C310, an area name C311, a virtual machine performance lower limit C312, a virtual machine performance upper limit C313, a volume performance lower limit C314, and a volume performance upper limit C315.
  • Area ID C310 is information for identifying each area.
  • the area name C311 is a name set for each area and can be freely set by the system administrator. For example, the system administrator can set the area name according to the type of business process executed in the computer system.
  • the area name “database configuration” is set to an area that the system administrator thinks is suitable for database processing.
  • the area name “scientific calculation” is set to an area that the system administrator thinks is suitable for scientific calculation.
  • the area name “backup” is set in an area that is considered by the system administrator to be suitable for backup processing.
  • the area name “mail” is set to an area that the system administrator thinks is suitable for mail processing.
  • “Database configuration”, “scientific calculation”, “backup”, and “mail” are merely examples, and other names may be set for each area. It may be a name (for example, a high-speed high-performance area, a low-speed low-performance area, etc.) indicating the performance characteristics of each area.
  • the virtual machine lower limit C312 indicates the lower limit of the performance value of the virtual machine belonging to the area.
  • the virtual machine upper limit C313 indicates the upper limit of the performance value of the virtual machine belonging to the area. That is, only the virtual machine 100 having the performance from the lower limit value C312 to the upper limit value C313 belongs to the area.
  • the volume performance lower limit C314 indicates the lower limit of the performance value of the logical volume belonging to the area.
  • the volume performance upper limit C315 indicates the upper limit of the performance value of the logical volume belonging to the area. Only the logical volume 232 having the performance from the lower limit value C314 to the upper limit value C315 belongs to the area.
  • the performance value is relatively evaluated by the percentile. For example, when 100 virtual machines are registered in the configuration management program P30, the virtual machines are arranged in ascending order of performance values. The virtual machine with a performance value of 50% is the 50th virtual machine counted from the one with the smallest performance value.
  • FIG. 7 shows a configuration example of the coordinate table T32.
  • a coordinate table T32 in FIG. 7 shows a state at the time of initial setting.
  • the coordinate table T32 is updated when the coordinate setting method is changed or when the performance value is evaluated.
  • the coordinate table T32 includes, for example, a coordinate ID C320, a coordinate name C321, a virtual machine IDC322, a volume IDC323, an initial area IDC324, an arrangement area IDC325, and a coordinate status C326.
  • the coordinate ID C320 is information for identifying each coordinate.
  • the coordinate name C321 is a name that can be set by the system administrator.
  • the virtual machine ID C322 is information for identifying the virtual machine 100 related to the coordinates.
  • the volume ID C323 is information for identifying the logical volume 232 related to the coordinates.
  • the initial area ID C324 is information for identifying the area to which the calculated coordinates originally belonged.
  • the arrangement area ID C325 is information for identifying an area to which the current coordinates belong.
  • the placement area corresponds to the “latest area”.
  • the coordinate status C326 is information indicating a coordinate status. Examples of the coordinate status include “match”, “not match”, “migrating”, and the like. When the initial area ID and the arrangement area ID match, “coincidence” is set in the coordinate status C326. If the initial area ID and the arrangement area ID do not match, the coordinate status C326 is set to “mismatch”. When either the virtual machine 100 or the logical volume 232 constituting the pair is being migrated, the coordinate status C326 is set to “migrating”. In the case of coordinates of the virtual machine 100 or logical volume 232 that do not constitute a pair, nothing is set in the coordinate status C326.
  • FIG. 8 shows the virtual machine table T33 and the virtual machine performance table T35 at the time of initial setting.
  • FIG. 8 shows a state in which the virtual machine table T33 and the virtual machine performance table T35 are integrated.
  • the virtual machine table T33 manages each virtual machine 100 registered in the configuration management program P30.
  • the virtual machine table T33 includes, for example, a virtual machine ID C330, a virtual machine name C331, and a virtualization server name C332.
  • the virtual machine ID C330 is information for identifying each virtual machine 100.
  • the virtual machine name C331 is the name of the virtual machine displayed on the coordinate plane.
  • the virtualization server name C332 is a name for identifying the virtualization server 10 in which a virtual machine or an empty virtual machine is stored.
  • an empty virtual machine that does not actually exist is also managed as a resource.
  • An empty virtual machine is a virtual machine that is set as a surplus of physical resources (CPU, memory) of the virtualization server 10.
  • the virtual machine 100 is generated using surplus physical resources.
  • the remaining one virtual processor is registered in the configuration management program P30 as an empty virtual machine.
  • the virtual machine performance table T35 manages virtual machine performance information.
  • the virtual machine performance table T35 includes, for example, a virtual machine ID C350, a CPU clock number C351, a processor number C352, a benchmark score C353, a static performance value C354, and a dynamic performance value C355.
  • the virtual machine ID C350 is the same as the virtual machine ID C330 of the virtual machine table T33.
  • the CPU clock number C351 is the number of clocks of the CPU 11 used by the virtual machine 100.
  • the benchmark score C352 indicates the measurement result of the benchmark measurement program.
  • the static performance value C354 is a static performance value calculated with the definition set in the virtual machine performance value definition C300 of the coordinate setting table T30.
  • the dynamic performance value C355 is a dynamic performance value calculated with the definition set in the virtual machine performance value definition C300.
  • FIG. 9 shows the volume table T34 and the volume performance table T36 at the time of initial setting.
  • FIG. 9 shows a state in which the volume table T34 and the volume performance table T36 are integrated.
  • the volume table T34 manages the logical volume 232 registered in the configuration management program P30.
  • the volume table T34 includes, for example, a volume ID C340, an LDEV ID C341, and a storage name C342.
  • Volume ID C340 is information for identifying each logical volume 232 and is set by the configuration management program P30.
  • LDEV ID C341 is identification information of the logical volume 232 displayed on the coordinate plane.
  • the storage name C342 is a name for identifying the storage apparatus 20 in which the logical volume 232 is stored.
  • the volume performance table T36 manages the performance information of the logical volume 232.
  • the volume performance table T36 has, for example, a volume ID C360, a drive type C361, an IOPS C362, a static performance value C363, and a dynamic performance value C364.
  • Volume ID C360 is common with volume ID C340 of volume table T34.
  • the drive type C361 indicates the type of the storage device 23 that constitutes the logical volume 232.
  • IOPS C362 is the IOPS of the logical volume 232.
  • the static performance value C363 is a static performance value calculated with the definition set in the volume performance value definition C301 of the coordinate setting table T30.
  • the dynamic performance value C364 is a dynamic performance value calculated according to the definition of the volume performance value definition C301.
  • the disk rotation speed, transfer speed, etc. may be managed by the volume performance table T36.
  • FIG. 10 is a table T360 for ordering performance according to drive type.
  • the ranking table T360 manages the drive type C3600 and the performance ranking C3601 in association with each other.
  • SSD flash memory device
  • FC / SAS flash memory device
  • SATA serial interface
  • 4 unknown types are shown in FIG.
  • the performance rank of the SSD is set highest.
  • the FC / SAS performance ranking is set to the second highest.
  • the SATA performance ranking is set to the third highest.
  • the performance rank of the unknown storage device is set to the fourth lowest.
  • FIG. 11 is an example of a screen G10 displaying the coordinates of the system configuration (resource and resource pair).
  • the coordinate display screen G10 includes, for example, a coordinate display part GP11 shown on the left side of FIG. 11, a summary display part GP12 shown on the upper right side of FIG. 11, and a management information display part GP13 shown on the lower right side of FIG.
  • the coordinate display unit GP11 displays the coordinates of each system configuration on the coordinate plane created based on the information registered in the coordinate setting table T30.
  • the coordinate plane is divided into, for example, four areas. Black circles indicate the coordinates of the pair configuration. White circles indicate the coordinates of a single system configuration.
  • VM virtual machine
  • Vol logical volume
  • the IDs of the areas are indicated by reference numerals 1 to 4. In the summary or the like, the ID of each area is indicated by reference signs A1 to A4.
  • the summary display part GP12 shows an outline of the coordinate plane displayed on the GP11.
  • the summary display part GP12 includes, for example, a virtual machine performance definition, a volume performance definition, an ordering method (these three are the contents of the coordinate setting table T30), the number of areas, the number of virtual machines, the number of logical volumes, and the number of pairs. Is displayed.
  • the number of pairs is displayed for each coordinate status. That is, the number of pairs in which the initial area and the arrangement area match, the number of pairs in which the initial area and the arrangement area do not match, and the number of pairs in the migration process are displayed.
  • the management information display part GP13 has, for example, a tab for displaying the contents of the division policy table T31 and a tab for displaying the contents of the coordinate table T32. In FIG. 11, a division policy is displayed.
  • the system administrator gives an instruction to the management server 30 to display the coordinate display screen G10 on the client server 40.
  • the system administrator can easily confirm the current state of the computer system by looking at the coordinate display screen G10.
  • FIG. 12 shows a creation screen G20 for creating a plane showing the coordinates of the system configuration.
  • the creation screen G20 includes, for example, a system configuration coordinate plan GP21, a basic setting unit GP22, and a division policy setting unit GP23.
  • the plan GP21 displays a plan on how to configure the coordinate plane.
  • FIG. 12 shows a state where the second area is set.
  • the basic setting unit GP22 sets information (contents of the coordinate setting table T30) for setting the coordinate plane.
  • the division policy setting unit GP23 sets a division policy (contents of the division policy table T31) for creating an area.
  • the system administrator gives an instruction to the management server 30 via the client server 40 to display the creation screen G20 on the client server 40.
  • the system administrator defines a coordinate plane or sets a plurality of areas via the creation screen G20. By this work, the coordinate setting table T30 and the division policy table T31 are created.
  • each process described below is realized by the microprocessor 31 reading and executing the configuration management program P30. Therefore, the subject of each process below may be the configuration management program P30 or a microprocessor. Alternatively, the subject of each process below can be described as a management server. In this embodiment, the management server will be described as a subject. The step is abbreviated as “S”.
  • FIG. 10 is a flowchart showing processing for acquiring resource information.
  • the management server 30 (specifically, the configuration management program P30 of the management server 30) creates a list of resources from which resource information is acquired (S10). When resources are added to the computer system, a list is created based on resource addition information input from the user. In other cases, a list is created based on registered resource information.
  • the management server 30 connects to each resource listed and acquires resource information (S11).
  • the management server 30 stores the acquired resource information in a predetermined management table (displayed as DB in the figure) (S12).
  • the resource information includes a virtual machine name, a virtualization server name, a CPU clock number, and a processor number.
  • the virtual machine name and the virtualization server name are stored in the virtual machine table T33.
  • the number of CPU clocks and the number of processors assigned to the virtual machine 100 are stored in the virtual machine performance table T35.
  • the virtual machine name and virtual ID are automatically set so that the configuration management program P30 is unique within the computer system.
  • the virtual machine name can be created, for example, by adding a serial number to the virtualization server name. If the virtual machine ID has already been registered, the information is overwritten.
  • the resource information includes LDEV ID, storage name, and drive type.
  • the LDEV ID and storage name are stored in the volume table T34.
  • the drive type is stored in the volume performance table T36.
  • the volume ID is automatically set by the configuration management program P30. If the volume ID has already been registered, the information is overwritten.
  • the management server 30 calculates the system configuration coordinates based on the resource information, and stores the calculated coordinates in the coordinate table T32 (S13). Specifically, the configuration management program P30 of the management server 30 creates an entry in the coordinate table T32 using the resource information, and registers a virtual machine ID or volume ID in the entry. If there is a paired resource, the resource ID is added to the same entry.
  • a specific example of the processing in FIG. 13 will be described using a virtual machine as an example.
  • the system administrator inputs the IP address, user name, and password of the virtualization server 10.
  • the programs (configuration management program P30, machine information collection program P31) temporarily store the input IP address on the memory.
  • the program attempts to connect to the virtualization server using the input information.
  • the program acquires the virtualization server name, the virtual machine host name, the performance of the virtual machine, and the like.
  • the program stores the information together with the IP address in a virtual machine table or the like.
  • the program discards the temporarily stored information.
  • the virtual machine name and the like are displayed on the GUI (Graphical User Interface) by the above procedure.
  • GUI Graphical User Interface
  • the system administrator uses the IP address stored in the database to connect to the virtual machine.
  • FIG. 14 is a flowchart showing processing for evaluating resources.
  • the management server 30 (configuration management program P30 of the management server 30) calculates the performance values of the virtual machines for all the virtual machines 100 under management (S20) (S21).
  • the performance value is calculated according to the contents set in the virtual machine performance value definition C300 in the coordinate setting table T30. When a static performance value is defined, a static performance value of the virtual machine 100 is calculated. If a dynamic performance value is defined, the dynamic performance value is calculated.
  • the management server 30 stores the calculated performance value in the virtual machine property table T35 (S22).
  • the management server 30 calculates the performance value of the logical volume for all the logical volumes 232 under management (S23).
  • the management server 30 stores the calculated performance value in the volume performance table T36 (S25).
  • the management server 30 calculates the volume performance value according to the contents set in the volume performance value definition C301 of the coordinate setting table T30.
  • the management server 30 evaluates all the coordinates under management (S26) (S27). The coordinate evaluation will be described with reference to FIG.
  • FIG. 15 is a flowchart showing details of the process of evaluating coordinates (S27).
  • the management server 30 (configuration management program P30 of the management server 30) calculates the ID of the area to which the coordinates of the system configuration belong based on the performance value and the division policy calculated in S21 and S24 (S270).
  • the management server 30 stores the calculated area ID in the arrangement area ID C325 of the coordinate table T32 (S271).
  • the management server 30 determines whether or not there is a pair configuration coordinate (pair coordinate) for which the initial area ID is not set (S272). When there is a pair coordinate in which the initial area ID is not set (S272: YES), the management server 30 stores the area ID calculated in S270 in the initial area ID C324 of the coordinate table T32 (S273). If there is no pair coordinate for which the initial area ID is not set (S272: NO), S273 is skipped.
  • the management server 30 sets the coordinate status C326 other than the pair coordinate entry in the coordinate status C326 of the coordinate table T32 to be empty (“ ⁇ ” in the drawing) (S274).
  • the management server 30 determines whether or not the initial area ID and the arrangement area ID match in the pair coordinates (S275). When the initial area ID and the arrangement area ID of the pair coordinates match (S275: YES), the management server 30 sets “match” in the coordinate status C326 of the coordinate table T32 (S276). When the initial area ID and the arrangement area ID of the pair coordinates do not match (S275: NO), the management server 30 sets “coincidence” in the coordinate status C326 (S277).
  • FIG. 16 is a flowchart showing processing for migrating resources.
  • the management server 30 (configuration management program P30 of the management server 30) obtains a list of pair coordinates set to “mismatch” in the coordinate status C326 of the coordinate table T32 (S30).
  • the management server 30 creates at least one migration plan (S31).
  • the management server 30 outputs the migration plan to the GUI (S32).
  • the system administrator can select any one of the presented migration plans and command the execution (S33: YES).
  • the management server 30 gives an instruction to the virtualization server 10 and / or the storage device 20 based on the migration plan to execute the migration plan (S34).
  • a configuration in which the management server 30 automatically selects according to a predetermined selection criterion may be used.
  • the management server 30 can create a migration plan based on a preset priority. For example, priorities are set for unused logical volumes, and a migration plan is created so that the priorities are used in order of priority. Similarly, priorities are set for empty virtual machines, and a migration plan is created so that the virtual machines are used in order of priority.
  • the management server 30 can create a migration plan so that the business process is not stopped as much as possible. For example, when raising the performance of a virtual machine, there are a method of shifting to a higher-performance virtual machine and a method of increasing the number of virtual processors allocated to the virtual machine.
  • the management server 30 selects migration between virtual machines from the viewpoint of non-disruptive operation of business processing.
  • the management server 30 can create a migration plan so that the number of pair coordinates where the initial area ID and the arrangement area ID match is maximized. This will be described with reference to FIG.
  • FIG. 17 is an explanatory diagram showing that the result varies depending on the execution order of the migration procedure. For convenience of explanation, a case will be described in which the performance of a virtual machine is improved in a situation where three areas are created.
  • FIG. 17A shows a state before the transition.
  • area 1 there is one empty virtual machine EM1.
  • area 2 there is an empty virtual machine EM2 and a pair coordinate Pc10. It is assumed that the pair coordinate Pc10 originally belonged to the area 1.
  • area 3 there are a pair coordinate Pc11 and a pair coordinate Pc12. Assume that the coordinates Pc11 and Pc12 originally belonged to the area 2.
  • FIG. 17B shows the first migration plan.
  • the virtual machine at the coordinate Pc10 in the area 2 is migrated to the empty virtual machine EM1 in the area 1.
  • the coordinate after transfer is shown as Pc13.
  • Pc13 When shifting from Pc10 to Pc13, a new empty virtual machine EM3 is born in area 2. Therefore, the virtual machines at the coordinates Pc11 and Pc12 in the area 3 are transferred to the empty virtual machines EM2 and EM3 in the area 2.
  • the virtual machines having the three coordinates Pc10, Pc11, and Pc12 return to their original areas (initial areas).
  • FIG. 17 (c) shows the second migration plan.
  • a virtual processor corresponding to the empty virtual machine EM2 in area 2 is added to the virtual machine at the coordinate Pc10 to improve the performance of the virtual machine.
  • the empty virtual machine EM2 and the virtual machine with the coordinate Pc10 need to exist in the same virtualization server 10.
  • the virtual machine at the coordinate Pc10 moves to the coordinate Pc14 in the area 1.
  • the virtual machine having the coordinates Pc11 and Pc12 in the area 3 cannot return to the area 2. This is because there is no available empty virtual machine in area 2. Therefore, in the second migration plan, only one virtual machine can be returned to the original area.
  • business processing is temporarily interrupted because a virtual processor is added to the virtual machine.
  • the management server 30 selects a migration plan in which the number of pair coordinates where the initial area ID matches the arrangement area ID increases from among a plurality of migration plans (migration plan candidates). be able to.
  • FIG. 18 is a flowchart showing a process for monitoring a migration plan.
  • the management server 30 (configuration management program P30 of the management server 30) monitors the resource migration state (S40) and determines whether or not the migration is completed (S41).
  • the management server 30 executes the coordinate evaluation process (S27) described in FIG. Furthermore, the management server 30 executes the next migration included in the migration plan (S42). In this way, the management server 30 executes a plurality of migration procedures included in the migration plan in a predetermined order.
  • the management server 30 automatically creates a migration plan when a pair coordinate where the initial area ID and the arrangement area ID do not match is detected. Instead of this, the system administrator may be notified that there is a pair coordinate in which the initial area ID and the arrangement area ID do not match. In this case, however, the system administrator must create a migration plan and manually execute the migration plan.
  • a configuration may be presented in which the system administrator is presented with a migration plan for solving it. In that case, the system administrator manually executes the migration plan.
  • FIG. FIG. 19 shows how the coordinate plane of the system configuration is defined.
  • FIG. 20 shows a state in which the system configuration (resource-resource pair) of the computer system is mapped on the coordinate plane.
  • the coordinates can be calculated by the following method. Percentile is used for the ranking method. You may rank in another method.
  • the coordinate plane is set to coordinates (0, 0) to (100, 100).
  • the Y coordinate is the virtual machine performance and the X coordinate is the volume performance (or vice versa).
  • the number of virtual machines registered in the configuration management program P30 is n (n> 1).
  • the performance ranking of the virtual machine is calculated based on the virtual machine performance value definition C300. For example, the CPUs are ranked in descending order of the number of clocks. The above is a prerequisite.
  • the management server 30 sets the performance value of the lowest-order virtual machine to 0, and sets the performance value (y_max) of the highest-order virtual machine to 100.
  • the management server 30 obtains the virtual machine performance value interval (y_intvl) according to Equation 1.
  • y_intvl y_max / (n ⁇ 1) (Formula 1)
  • the management server 30 sets i as the rank of the placement target (the rank is assigned from the first rank).
  • the management server 30 calculates the y-coordinate of the i-th position, excluding the lowest rank and the highest rank, using Equation 2.
  • y (i) y_intvl * (n ⁇ i) (Formula 2)
  • the management server 30 also calculates coordinates for the logical volume in the same manner as described above.
  • FIG. 21 shows a state in which a new virtual machine and a new logical volume are added to the computer system.
  • the relative performance of the added virtual machine is as high as 100%, and the relative performance of the added logical volume is as high as 100%. For this reason, the performance of the existing system configuration is relatively lowered.
  • the initial area is area 1, but it belongs to area 2 after the addition of the virtual machine and the logical volume. Therefore, the coordinate status of the coordinate P is “mismatch”.
  • the coordinate status is “match”.
  • FIG. 22 shows a case where the migration plan is executed. Or, it shows how the migration plan is presented to the system administrator. In order to match the area (arrangement area) to which the coordinate P belongs to the initial area, the logical volume constituting the coordinate P is shifted to a high-performance logical volume.
  • the migration destination logical volume is an unused logical volume that can match the area to which the coordinate P belongs to the initial area, and is selected from logical volumes that satisfy a predetermined volume condition.
  • a predetermined volume condition for example, the migration source logical volume and the migration destination logical volume are the same emulation type, and the sizes of the migration source logical volume and the migration destination logical volume match (in some cases, the migration destination logical volume The volume size may be larger than the migration source volume size).
  • FIG. 23 shows a virtual machine table T33 and a virtual machine performance table T35 when a virtual machine is added to the computer system.
  • FIG. 23 Compared with FIG. 8, in FIG. 23, a total of four virtual machines indicated by virtual machine IDs (H9) to (H12) are added.
  • the three virtual machines with virtual machine IDs (H10) to (H12) are empty virtual machines as indicated by the virtual machine name C331.
  • the virtual machine 100 with the virtual machine ID (H9) may be referred to as a virtual machine (H9) for convenience.
  • One virtual machine (H9) is actually created using the physical CPU and physical memory of the virtualization server 10 (VServer D). Furthermore, three virtual machines can be created by using the remaining portions of the physical CPU and physical memory. Therefore, in this embodiment, virtual machines (H10) to (H12) that can be created by using the surplus of the physical resources are registered in advance in the tables T33 and T35.
  • FIG. 24 shows a volume table T34 and a volume performance table T36 when a logical volume is added to the computer system. Compared to FIG. 9, in FIG. 24, a total of four logical volumes indicated by volume IDs (V5) to (V8) are added.
  • FIG. 25 shows a coordinate table T32 when resources are added to the computer system. Compared to FIG. 7, in FIG. 25, a total of seven coordinates indicated by coordinate IDs (C9) to (C15) are added. Among them, the coordinate ID (C9) is a pair coordinate in which the virtual machine (H9) and the logical volume (V8) form a pair.
  • the pair coordinates are controlled so that the affiliation area (currently arranged area) matches the initial area. Therefore, in the coordinate ID (C9), the initial area ID (A1) and the arrangement area ID (A1) are set.
  • Other coordinate IDs (C10) to (C15) are a single virtual machine (C10, C11, C12) or a single logical volume (C13, C14, C15).
  • the coordinate IDs (C10) to (C15) are not pair coordinates but single coordinates indicating a single system configuration. A single coordinate does not have to match its assigned area to the initial area. Therefore, for the coordinate IDs (C10) to (C15), no value is set in the initial area ID C324.
  • Coordinate IDs (C3), (C4), and (C7) do not match the initial area ID and the arrangement area ID. Therefore, “coincidence” is set in the coordinate status C326 of the coordinate IDs (C3), (C4), and (C7).
  • FIG. 26 shows a coordinate table T32 when resources constituting a pair are migrated to make the arrangement area coincide with the initial area.
  • the coordinate ID (C3) in FIG. 25 indicates a pair configuration of the virtual machine (H3) and the logical volume (V2).
  • the coordinate ID (C3) is changed to a coordinate indicating a pair of the virtual machine (H10) and the logical volume (V5). This indicates that the migration from the virtual machine (H3) to the virtual machine (H10) and the migration from the logical volume (V2) to the logical volume (V5) have been performed.
  • the coordinate ID (C4) in FIG. 25 is a coordinate indicating a pair of the virtual machine (H4) and the logical volume (V3).
  • the coordinate ID (C4) in FIG. 26 is changed to a coordinate indicating a pair of the virtual machine (H11) and the logical volume (V3). This indicates that the virtual machine (H4) has been migrated to the virtual machine (H11). The logical volume has not been migrated.
  • the coordinate ID (C7) in FIG. 25 is a coordinate indicating a pair of the virtual machine (H7) and the logical volume (V4).
  • the coordinate ID (C7) in FIG. 26 has changed to a coordinate indicating a pair of the virtual machine (H7) and the logical volume (V6). This indicates that the logical volume (V4) has been migrated to the logical volume (V6). The virtual machine has not been migrated.
  • the virtual machines (H10) and (H11) added as coordinate IDs (C10) and (C11) on the lower side of FIG. 25 constitute a part of the pair in the coordinate IDs (C3) and (C4) of FIG. Used for. Therefore, the coordinate IDs (C10) and (C11) in FIG. 25 are deleted in FIG.
  • the logical volumes (V5) and (V6) added as coordinate IDs (C13) and (C14) in FIG. 25 constitute part of the pair in the coordinate IDs (C3) and (C7) in FIG. Used for. Accordingly, the coordinate IDs (C13) and (C14) in FIG. 25 are deleted in FIG.
  • the system was removed from the pair and became a single system configuration. Therefore, in FIG. 26, the virtual machines (H3) and (H4) and the logical volumes (V2) and (V4) are displayed as coordinate IDs (C16) to (C19) indicating a single system configuration.
  • FIG. 27 shows the virtual machine table T33 and the virtual machine performance table T35 when the resource migration is completed. Comparing FIG. 23 and FIG. 27, the virtual machine IDs (H3) and (H4) in FIG. 23 are real virtual machines, but the virtual machine IDs (H3) and (H4) in FIG. It has become a machine. This is because the virtual machines with the virtual machine IDs (H3) and (H4) are removed from the pair configuration and returned to the unused state as described in FIG.
  • the virtual machine IDs (H10) and (H11) are empty virtual machines.
  • the virtual machine IDs (H10) and (H11) are actual virtual machines. This is because the virtual machines with the virtual machine IDs (H10) and (H11) are used as part of the pair configuration as described in FIG. In this way, by managing as an empty virtual machine, a virtual machine can be immediately generated at the time of resource migration and used as part of a pair.
  • FIG. 28 shows the virtual machine table T33 and the virtual machine performance table T35 when the definition of the performance value of the virtual machine is changed.
  • FIG. 29 shows the volume table T34 and the volume performance table T36 when the definition of the performance value of the logical volume is changed.
  • the index for evaluating the performance of the virtual machine and the performance of the logical volume can be appropriately changed by the system administrator.
  • the system administrator can switch from a static performance index (CPU clock number, drive type, etc.) to a dynamic performance index (benchmark score, IOPS, etc.).
  • a static performance index CPU clock number, drive type, etc.
  • a dynamic performance index benchmark score, IOPS, etc.
  • the system administrator can change some or all of the static performance metrics and continue to use the static performance metrics, or change some or all of the dynamic performance metrics. You can continue to use dynamic performance metrics.
  • the system administrator manages the resources (virtual machine, logical volume) of the computer system based on the static performance index. Then, the system administrator switches from the static performance index to the dynamic performance index in a time when the performance data based on the dynamic performance index is sufficiently accumulated. Thereby, resources can be efficiently managed in accordance with the actual state of the computer system.
  • the virtual machine may be managed with a dynamic performance index and the logical volume may be managed with a static performance index. Conversely, the virtual machine may be managed with a static performance index and the logical volume may be dynamically managed. May be managed with various performance indicators.
  • FIG. 30 shows the coordinate table T32 when the definition of the performance value is changed.
  • the management server 30 re-evaluates each coordinate. As a result of the re-evaluation, the coordinate status may change from “match” to “mismatch”. Comparing FIG. 26 and FIG. 30, the coordinate status C326 of the coordinate IDs (C1), (C7), and (C9) has changed from “match” to “mismatch”.
  • FIG. 31 shows the coordinate table T32 when resources are migrated after the performance value definition is changed.
  • the coordinate status C326 of the coordinate IDs (C1), (C7), and (C9) is changed from “mismatch” to “match”.
  • FIG. 32 shows the virtual machine table T33 and the virtual machine performance table T35 when resources are migrated after the performance value definition is changed.
  • the second embodiment will be described with reference to FIGS.
  • This embodiment is a modification of the first embodiment. Accordingly, the following description will focus on differences from the first embodiment.
  • FIG. 33 is a flowchart of processing for proposing a pair configuration to the system administrator.
  • the system administrator requests the management server 30 to create a paired system configuration (S50).
  • the request includes information for specifying an area designated by the system administrator.
  • the management server 30 detects an unused logical volume 232 and an empty virtual machine 100 belonging to the designated area (S51).
  • the management server 30 displays the coordinates indicating the pair of the detected unused logical volume 232 and the empty virtual machine 100 on the coordinate plane as shown in FIG. 34 (S52).
  • the management server 30 sets the approved pair (S53). In other words, the management server 30 causes an empty virtual machine approved by the user to exist and sets a communication path between the virtual machine and the unused logical volume 232.
  • FIG. 34 shows the case where the system administrator designates “Area 2”.
  • the management server 30 creates and presents a pair candidate from an unused logical volume belonging to area 2 and an empty virtual machine.
  • pair configuration candidates There are multiple methods for presenting pair configuration candidates. For example, only one pair with the highest performance in the designated area may be presented, or all pairs that can be created in the designated area may be presented, or the performance of all the pairs is high. A predetermined number of items may be presented.
  • This embodiment configured as described above also has the same effect as the first embodiment. Further, in this embodiment, when a system administrator causes a new business process to be executed by a computer system, the virtual machine and logical volume suitable for the business process are simply specified by specifying an area suitable for the business process. You can get a pair. Therefore, the trouble of the system administrator is reduced and the usability is improved.
  • the embodiment described above can be grasped as a management program for managing the computer system as follows.
  • a computer program that runs on a computer that manages a computer system that includes a plurality of computers having one or more virtual computers and one or more storage devices having a plurality of logical volumes
  • the computer is A first axis indicating a virtual machine performance value, which is a performance value relatively determined in each virtual computer included in the computer system, and a performance determined relatively in each logical volume included in the computer system
  • a coordinate plane configured from the second axis indicating the volume performance value, which is a value
  • a plurality of areas are provided on the coordinate plane according to a predetermined standard, Calculate the virtual machine performance value for each virtual machine, Calculate the volume performance value for each logical volume, Of the virtual machines and the logical volumes, the virtual machine that is calculated for the virtual machine that constitutes the pair, to which of the areas the virtual machine and logical volume pair belongs.
  • a virtual machine and a logical volume are taken as examples of resources of a computer system.
  • the switch may be managed as a resource.
  • a coordinate plane can be set based on virtual machine performance and switch performance, or a coordinate plane can be set based on logical volume performance and switch performance.
  • As the switch performance for example, pps (packet per second) can be used as an index. The pps is the number of frames that the switch can process per second.
  • the switch has a plurality of (for example, 64) ports.
  • the management server 30 manages resources in units of switch ports. For example, management is performed in units of ports, such as a pair of the first port of the virtual machine-switch SW1 and a pair of another virtual machine and the second port of the switch SW1.
  • management is performed in units of ports, such as a pair of the first port of the virtual machine-switch SW1 and a pair of another virtual machine and the second port of the switch SW1.
  • a management computer that manages a computer system including a plurality of first resources and a plurality of second resources, A communication interface for communicating with each first resource and each second resource, a storage device that stores a predetermined computer program, and a microprocessor that reads and executes the predetermined computer program from the storage device.
  • the microprocessor executes the predetermined computer program, A first axis that indicates a first resource performance value that is a performance value that is relatively determined among the first resources included in the computer system, and a relative value among the second resources included in the computer system.
  • a coordinate plane configured from the second axis indicating the second resource performance value, which is a performance value determined by A plurality of areas are provided on the coordinate plane according to a predetermined standard, Calculating the first resource performance value for each of the first resources; Calculating the second resource performance value for each of the second resources; Of each of the first resources and each of the second resources, a calculation is made for the first resource that constitutes the pair, to which of the areas the pair of the first resource and the second resource belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 管理サーバ3は、仮想マシン1の性能値を示す第1軸とボリューム2の性能値を示す第2軸とから座標平面を設定し、その座標平面を所定の基準に従って、複数のエリアに分割する。管理サーバは、仮想マシン及び論理ボリュームのペア構成が、各エリアのうちのいずれのエリアに属するかを算出して保持する。所定のタイミングで、管理サーバ3は、ペア構成の座標を再評価し、初期エリアと最新エリアとが一致するか否か判定する。管理サーバは、最新エリアが初期エリアに一致するように、移行計画を作成する。

Description

管理計算機及び計算機システムの管理方法
 本発明は、管理計算機及び計算機システムの管理方法に関する。
 データセンタ等の計算機システムでは、多数の計算機と多数のストレージ装置を備えることにより、複数の業務処理を実行する。計算機システムの初期構築時に、システム管理者は、業務処理の種別に応じて、仮想マシン及び論理ボリュームの組合せを業務処理に割り当てる。例えば、高速処理が要求される業務処理には、計算機システム内の高性能な計算機と高性能な論理ボリュームとを割り当てる。低速処理で十分な業務処理には、計算機システム内の低性能な計算機及び低性能な論理ボリュームを割り当てる。これにより、計算機システムのリソースを有効に利用する。
 なお、複数の仮想マシンを複数のサーバで効率的に稼働させる方法は知られている(特許文献1)。
特開2005-115653号公報
 複数の仮想マシンを複数のサーバ間で稼働させる従来技術は、複数のサーバ間で負荷を分散させるだけの技術に過ぎず、計算機システムの有するリソースの組合せが適切に使用されているか否かを判断することはできない。さらに、従来技術では、要求性能の異なる複数の業務処理に対して、それら業務処理に適したリソースの組合せを提供することもできない。従って、必要以上に高性能なリソースの組合せが、低速処理で十分な業務処理に割り当てられてしまい、その結果、高速処理を求められている業務処理に、高性能なリソースの組合せを提供できないといった課題が発生する。
 本発明は上記の課題に鑑みてなされたもので、その目的は、仮想計算機と論理ボリュームの組合せが適切に使用されているか否かを自動的に判断できる管理計算機及び計算機システムの管理方法を提供することにある。本発明の他の目的は、業務処理の種別に応じて、適切な仮想計算機及び論理ボリュームの組合せを提供することのできる管理計算機及び計算機システムの管理方法を提供することにある。
 本発明に従う管理計算機は、計算機システムを管理するための管理計算機であって、一つ以上の仮想計算機を有する複数の計算機と複数の論理ボリュームを有する一つ以上のストレージ装置とに通信するための通信インターフェースと、所定のコンピュータプログラムを格納する記憶装置と、記憶装置から所定のコンピュータプログラムを読み込んで実行するマイクロプロセッサとを備える。マイクロプロセッサは、所定のコンピュータプログラムを実行して、以下の処理を実行する。
 マイクロプロセッサは、計算機システムに含まれる各仮想計算機の中で相対的に定まる性能値である仮想計算機性能値を示す第1軸と、計算機システムに含まれる各論理ボリュームの中で相対的に定まる性能値であるボリューム性能値を示す第2軸とから、構成される座標平面を設定し、座標平面に、所定の基準に従って複数のエリアを設け、各仮想計算機について仮想計算機性能値を算出し、各論理ボリュームについてボリューム性能値を算出し、各仮想計算機と各論理ボリュームのうち、仮想計算機及び論理ボリュームのペアが、各エリアのうちのいずれのエリアに属するかを、ペアを構成する仮想計算機について算出される仮想計算機性能値と、ペアを構成する論理ボリュームについて算出されるボリューム性能値とに基づいて判定し、判定されたエリアを初期エリアとして保持し、所定のタイミングで、ペアを構成する仮想計算機についての仮想計算機性能値とペアを構成する論理ボリュームについてのボリューム性能値とをそれぞれ再び算出し、再び算出された仮想計算機性能値及びボリューム性能値に基づいて、ペアが各エリアのうちいずれのエリアに属するかを再び判定し、判定されたエリアを最新エリアとして保持し、初期エリアと最新エリアとが一致するか否かを判定し、初期エリアと最新エリアとが不一致の場合は、不一致である旨を出力する。
 所定の基準は、業務種別毎の要求性能に従って設定されてもよい。マイクロプロセッサは、初期エリアと最新エリアとが不一致の場合に、最新エリアを初期エリアに一致させるための移行計画を作成してもよい。移行計画には、ペアを構成する仮想計算機を各仮想計算機の中の他の仮想計算機に移行させる仮想計算機移行計画と、ペアを構成する論理ボリュームを各論理ボリュームの中の他の論理ボリュームに移行させるボリューム移行計画との、少なくともいずれか一方を含ませることができる。
 本発明は、コンピュータプログラムとして把握してもよい。そのコンピュータプログラムは、通信媒体または記録媒体を介して流通させることができる。
図1は、実施形態の概要を示す説明図。 図2は、計算機システムのハードウェア構成図。 図3は、仮想マシンと論理ボリュームを示す説明図。 図4は、管理サーバの記憶内容を示す説明図。 図5は、システム構成の座標を設定するためのテーブル。 図6は、エリアを作成するための分割ポリシーを管理するテーブル。 図7は、座標を管理するテーブル。 図8は、仮想マシンを管理するテーブルと仮想マシンの性能を管理するテーブルとを統合した状態の説明図。 図9は、論理ボリュームを管理するテーブルと論理ボリュームの性能を管理するテーブルとを統合した状態の説明図。 図10は、ドライブタイプに応じて性能の順位を決定するテーブル。 図11は、システム構成の座標等をユーザに提示する画面例。 図12は、設定画面の例である。 図13は、リソース情報を取得する処理のフローチャート。 図14は、評価処理のフローチャート。 図15は、座標を評価する処理のフローチャート。 図16は、リソースを移行させる処理のフローチャート。 図17は、エリアの一致するペアが増加するようにリソースを移行させる様子を示す説明図。 図18は、リソースの移行を監視する処理のフローチャート。 図19は、エリアを作成する様子を示す模式図。 図20は、計算機システムにリソースを追加する様子を示す模式図。 図21は、新規リソースが計算機システムに追加された結果、既存リソースの相対的位置が変化する様子を示す模式図。 図22は、リソースのペアを元のエリアに戻す様子を示す模式図。 図23は、リソース(仮想マシン)追加時の、仮想マシンテーブルと仮想マシン性能テーブル。 図24は、リソース(ボリューム)追加時の、ボリュームテーブルとボリューム性能テーブル。 図25は、リソース追加時の座標テーブル。 図26は、リソース移行完了時の座標テーブル。 図27は、リソース移行完了時の、仮想マシンテーブル及び仮想マシン性能テーブル。 図28は、性能指標の設定変更時の、仮想マシンテーブル及び仮想マシン性能テーブル。 図29は、性能指標の設定変更時の、ボリュームテーブル及びボリューム性能テーブル。 図30は、性能指標の設定変更時の座標テーブル。 図31は、性能指標の設定変更後において、リソースの移行が完了したときの座標テーブル。 図32は、性能指標の設定変更後において、リソースの移行が完了したときの、仮想マシンテーブル及び仮想マシン性能テーブル。 図33は、ペアとなるリソースを提案する処理のフローチャート。 図34は、ペアとなるリソースを提示する画面例。
 以下、図面に基づいて、本発明の実施形態を説明する。本実施形態では、後述のように、計算機システムの有する複数のシステム構成(仮想マシン、論理ボリューム、仮想マシンと論理ボリュームのペア)について、相対的な性能値をそれぞれ算出する。本実施形態では、相対的性能値と所定の基準とに基づいて、複数のシステム構成を複数のグループに分ける。実施形態では、それらグループを性能エリアと呼ぶ。なお、相対的な性能値は、例えば、パーセンタイルのような形式で表現される。
 計算機システムを運用する間に、新たなシステム構成が追加されたり、古いシステムが除去されたりする。さらに、計算機システムを運用すると、各システム構成に関する性能データが蓄積される。そこで所定のタイミングで、相対的性能値は見直される。見直しの結果、最初のグループ(初期エリア)から他のグループ(最新エリア)に移るシステム構成が出現することがある。
 本実施形態では、ペアのシステム構成(仮想マシンと論理ボリュームのペア)が最初のグループから他のグループに移った場合、その変化を表示させる。本実施形態では、ペアのシステム構成が最初のグループに戻れるように、システム構成を変化させる。即ち、ペアのシステム構成の少なくとも一部のシステム構成を他のシステム構成にする。
 図1は、計算機システムを管理するための管理サーバ3の機能を模式的に示す。管理サーバ3により管理される計算機システムは、リソースとして、例えば、複数の仮想マシン1(1),1(2)と、複数の論理ボリューム2(1),2(2)を有する。仮想マシン1は、「仮想計算機」に対応する。仮想マシン1は、後述のように、物理的計算機の有するリソース(プロセッサ、メモリ)を使用して仮想的に生成される計算機である。特に区別しない場合、仮想マシン1(1),1(2)を仮想マシン1と呼び、論理ボリューム2(1),2(2)を論理ボリューム2と呼ぶ。
 管理サーバ3の機能を説明する。管理サーバ3は、例えば、性能エリア設定部3Aと、システム構成座標評価部3Bと、リソース情報管理部3Cと、マイグレーション部3Dと、画面制御部3Eと、提案部3Fとを備える。
 性能エリア設定部3Aは、性能エリアを設定するための機能である。便宜上、性能エリアをエリアと略する場合がある。性能エリアとは、システム構成の性能値と分割ポリシーとに基づいて作成されるエリアである。
 画面G1に示すように、第1性能軸(X軸)と第2性能軸(Y軸)とから座標平面を定義できる。座標平面を分割ポリシーに基づいて複数のエリア1~4に分割する。図1では、エリアを4個に分割する場合を例示するが、これに限らず、2個、3個、または、5個以上に分割してもよい。
 エリアは、業務種別毎の要求性能を満たすことができるように、作成される。例えば、高性能の仮想マシンと高性能の論理ボリュームを使用するエリア1は、高速処理を要求されるデータベース構成などに使用できるように、設定することができる。高性能の仮想マシンと低性能の論理ボリュームを使用するエリア2は、例えば、科学計算などの業務処理に使用できるように、設定することができる。低性能の仮想マシンと高性能の論理ボリュームを使用するエリア3は、例えば、バックアップ処理などに使用できるように、設定することができる。低性能の仮想マシンと低性能の論理ボリュームを使用するエリア4は、例えば、電子メールに関する業務処理などに使用できるように、設定可能である。
 なお、性能の高低は、相対的に定まる。さらに高性能なリソースが追加された場合は、過去に高性能であったリソースであっても低性能になる。また、各エリアのリソースの組合せを用いてどのような業務処理を実行するかは、ユーザが自由に設定できる。
 第1性能軸は、所定のボリューム性能指標に基づく性能値(ボリューム性能値)を相対的に評価する軸である。ボリューム性能指標とは、論理ボリューム2の性能を測るための指標である。ボリューム性能指標は、例えば、静的性能指標と、動的性能指標とに分けることができる。ボリュームの静的性能指標としては、例えば、論理ボリュームを構成する記憶装置の種類、記憶装置の転送速度、回転数などがある。ボリュームの動的性能指標としては、例えば、IOPS(Input/Output Operations Per Second)がある。ボリュームの静的性能指標は、「第1のボリューム性能指標」に該当する。ボリュームの動的性能指標は、「第2のボリューム性能指標」に該当する。
 第2性能軸は、所定の仮想マシン性能指標に基づく性能値(仮想マシン性能値)を相対的に評価する軸である。仮想マシン性能指標とは、仮想マシン1の性能を測るための指標である。仮想マシン性能指標も、静的性能指標と、動的性能指標とに分けられる。仮想マシンの静的性能指標としては、例えば、プロセッサの種類、プロセッサの駆動周波数、メモリサイズなどがある。仮想マシンの動的性能指標としては、例えば、性能測定用プログラムを実行したときのベンチマークスコアなどがある。仮想マシンの静的性能指標は、「第1の仮想マシン性能指標」に該当する。仮想マシンの動的性能指標は、「第2の仮想マシン性能指標」に該当する。
 システム構成座標評価部3Bは、システム構成の座標を評価する機能である。システム構成とは、計算機システムに含まれるリソース、及び、リソースの組合せを示す。具体的には、仮想マシン1、論理ボリューム2、仮想マシン1と論理ボリューム2のペアは、システム構成に該当する。便宜上、システム構成座標評価部3Bを、評価部3Bと略する場合がある。評価部3Bは、所定のタイミングで、システム構成の座標を評価する。所定のタイミングには、例えば、計算機システムの構成が変更された場合、座標平面の定義が変更された場合(性能指標が変更された場合)などを挙げることができる。
 リソース情報管理部3Cは、計算機システム内の各リソース(例えば、仮想ボリューム及び論理ボリューム)に関する情報を管理する機能である。
 マイグレーション部3Dは、ペアのシステム構成(これをペア構成とも呼ぶ)について、一部を他のシステム構成に移行させる機能である。マイグレーション部3Dは、ペア構成内の仮想マシン1を他の仮想マシン1に切り替える機能と、ペア構成内の論理ボリューム2を他の論理ボリュームに切り替える機能とを含む。
 マイグレーション部3Dは、複数の移行計画を作成してユーザに提示し、ユーザにより選択された移行計画を実行することができる。または、マイグレーション部3Dは、複数の移行計画の中から所定の選択基準に基づいていずれか一つの移行計画を自動的に選択し、その選択した移行計画を実行することもできる。
 画面制御部3Eは、画面G1を含む各種画面を作成し、それら各画面を制御する機能である。画面G1は、第1性能軸と第2性能軸とで定義される座標平面上に、計算機システムの有する各システムの座標をマッピングした状態を示す。座標Pc1は、単独の仮想マシン1(2)の位置である。単独の仮想マシンとは、論理ボリューム2へのアクセスパスが設定されていない仮想マシンである。座標Pc3は、単独の論理ボリューム2(2)の位置である。単独の論理ボリュームとは、仮想マシンとの間にアクセスパスが設定されていない論理ボリュームである。
 座標Pc2,Pc4は、ペア構成の座標である。Pc4を例に挙げて説明する。ペア構成の座標Pc4は、そのペア構成に含まれる、仮想マシン1(1)の性能値及び論理ボリューム2(1)の性能値により定まる。
 仮想マシン1の性能値及び論理ボリューム2の性能値は、例えば、パーセンタイルを用いて相対的に定まる。つまり、計算機システムの初期構築時には高性能な仮想マシン1(1)であったとしても、その後に、より高性能の仮想マシン1(2)が計算機システムに追加された場合、仮想マシン1(1)の地位(計算機システムにおける位置づけ)は低下する。同様に、計算機システムの初期構築時には高性能な論理ボリューム2(1)であったとしても、その後に、より高性能の論理ボリューム2(2)が追加された場合、論理ボリューム2(1)の地位は低下する。
 従って、計算機システムの初期構築時に座標Pc4であったペア構成は、計算機システムに新たな仮想マシン1(2)及び論理ボリューム2(2)が追加されると、座標Pc5に移動する。これにより、ペア構成の属するエリアは、当初のエリア1からエリア2に変化する。
 マイグレーション部3Dは、ペア構成の現在属するエリアが初期のエリアと一致しない場合に、その不一致を解消させるための移行計画を作成する。マイグレーション部3Dは、ペア構成の座標がエリア2内のPc5からエリア1内のPc6に移動するように、移行計画を作成する。
 ここで、注意すべきは、移行計画は、ペア構成を元の座標Pc4に戻すための計画ではない点である。移行計画は、ペア構成の最新エリアが初期エリアに一致するように、作成される。ペア構成の座標が元のエリアに戻るのであれば、元の座標Pc4と移行後の座標Pc6との差異は問わない。
 図1の例では、ペア構成を構成する論理ボリュームを、当初の論理ボリューム2(1)から新たに追加された論理ボリューム2(2)に切り替える。つまり、論理ボリューム2(1)から論理ボリューム2(2)に移行させる。ペア構成内の仮想マシン1(1)は、そのまま維持され、移行しない。仮想マシン1(1)と論理ボリューム2(2)との間にアクセスパスが設定される。ペア構成の座標を元のエリア(初期エリア)に戻すためには、論理ボリューム2のみを移行させれば足りる。そこで、マイグレーション部3Dは、論理ボリュームの移行のみを実施する。
提案部3Fは、システム管理者に対し、システム管理者の指定する業務処理に適した仮想マシン及び論理ボリュームのペアを画面G1を通じて提案する機能である。提案部3Fは、後述の第2実施例で説明される。第1実施例では、提案部3Fは必要ではない。
システム管理者は、新たな業務処理を計算機システムで実行させる場合に、その業務処理に適したエリアを画面G1上で指定する。提案部3Fは、指定された業務処理に適した仮想マシン及び論理ボリュームのペアを検索して、表示する。
 このように構成される本実施形態では、複数のリソース(システム構成)を含む計算機システムにおいて、リソースの組合せが適切に使用されているか否かを自動的に判断して、判断結果を出力することができる。
 さらに、本実施形態では、計算機システムの構成が変更された場合でも、要求性能の異なる業務処理の種別毎に、それぞれ適したリソースの組合せを提供できる。特に、多数の仮想マシン1及び多数の論理ボリューム2を有する大規模な計算機システムにおいて、構成が変更された場合でも、業務処理の要求性能に応じた仮想マシン及び論理ボリュームの組合せを業務処理に割り当てることができる。
 つまり、本実施形態では、構成変更が度々生じる比較的大規模な計算機システムにおいて、その構成変更に対応して、各業務処理に適切なリソースを、自動的にまたは半自動的にあるいは手動で、割り当てることができる。この結果、システム管理者によるリソース割当て変更の手間を省くことができ、使い勝手が向上する。さらに、計算機システムのリソースを有効に活用することができる。
 図2~図32を参照して第1実施例を説明する。図2は、計算機システムのハードウェア構成を示す。計算機システムは、例えば、複数の仮想化サーバ10と、複数のストレージ装置20と、少なくとも一つの管理サーバ30とを備える。さらに、管理サーバ30を操作するためのクライアントサーバ40を計算機システムに設けてもよい。
 仮想化サーバ10は、「計算機」に該当する。仮想化サーバ10は、図1の計算機1に対応する。仮想化サーバ10は、仮想マシン100(図3で後述)を稼働させることのできる計算機である。
 仮想化サーバ10は、例えば、マイクロプロセッサ(以下CPU)11と、メモリ12と、補助記憶装置13と、NIC(Network Interface Card)14と、HBA(Host Bus Adapter )15とを備える。メモリ12には、仮想化を制御するためのコンピュータプログラムなどが記憶されている。CPU11は、物理CPUであり、複数のプロセッサコアを備える。図中では、1つのCPU11を示すが、実際には、仮想化サーバ10は、複数のマルチコアCPUを有することができる。なお、メモリ12のサイズが十分に大きい場合等には、補助記憶装置13を廃止してもよい。
 仮想化サーバ10は、NIC14及び管理用通信ネットワークCN2を介して、管理サーバ30と通信する。仮想化サーバ10は、HBA15及びデータ入出力用通信ネットワークCN1を介して、ストレージ装置20と通信する。
 データ入出力用通信ネットワークCN1は、例えば、IP-SAN(Storage Area Network)のように構成される。管理用通信ネットワークCN2は、例えば、LAN(Local Area Network)のように構成される。データ入出力用通信ネットワークCN1と管理用通信ネットワークCN2とを一つの通信ネットワークとしてまとめてもよい。
 ストレージ装置20は、例えば、複数のチャネルアダプタ(図中CHA)21と、少なくとも一つのコントローラ22と、複数の記憶装置23とを有する。
 チャネルアダプタ21は、データ入出力用通信ネットワークCN1を介して仮想化サーバ10と通信するための通信制御回路である。各チャネルアダプタ22は、それぞれ複数ずつの通信ポートを有する。
 コントローラ22は、ストレージ装置20の動作を制御する。コントローラ22は、例えば、CPU221と、メモリ222と、ディスクアダプタ(図中DKA)223と、NIC224とを備える。ストレージ装置20に冗長性を持たせるために、コントローラ22を複数設けることもできる。
 メモリ222には、例えば、サーバ10から発行される各種コマンドを解釈して実行するためのコマンド処理プログラムと、RAID(Redundant Array of Independent Disks)制御プログラム等が記憶されている。
 ディスクアダプタ223は、各記憶装置23と通信するための通信制御回路である。NIC224は、管理用通信ネットワークCN2を介して管理サーバ30と通信するための通信インターフェース回路である。
 記憶装置23としては、例えば、ハードディスク装置、半導体メモリ装置、光ディスク装置等のデータを読み書き可能な種々の装置を利用することができる。
 記憶装置としてハードディスク装置を用いる場合、例えば、FC(Fibre Channel)ディスク、SCSI(Small Computer System Interface)ディスク、SATAディスク、ATA(AT Attachment)ディスク、SAS(Serial Attached SCSI)ディスク等を用いることができる。
 さらに、記憶装置として、例えば、フラッシュメモリ、FeRAM(Ferroelectric Random Access Memory)、MRAM(MagnetoresistiveRandom Access
Memory)、相変化メモリ(Ovonic Unified Memory)、RRAM(Resistance RAM)」等の装置を用いることもできる。フラッシュメモリデバイスとハードディスクドライブのように、種類の異なる記憶装置を一つのストレージ装置内に混在させることもできる。ストレージ装置20の記憶構造については、図3で後述する。
 管理サーバ30は、計算機システムに含まれる、各仮想化サーバ10及び各ストレージ装置20を管理する。管理サーバ30は、例えば、CPU31と、メモリ32と、補助記憶装置33と、NIC34とを備える。管理サーバ30の有するコンピュータプログラム等については、図4で後述する。管理サーバ30は、一つの計算機から構成されるとは限らず、複数の計算機から構成されてもよい。
 クライアントサーバ40は、管理サーバ30に指示を与えたり、管理サーバ30から情報を取り出したりする。クライアントサーバ40は、例えば、CPU41と、メモリ42と、補助記憶装置43と、NIC44を備える。クライアントサーバ40は、NIC44及び通信ネットワークCN2を介して、管理サーバ30に接続される。なお、クライアントサーバ40を用いずに、管理サーバ30に接続される操作端末を用いて、管理サーバ30と通信する構成でもよい。
 図3は、仮想マシン100と論理ボリューム232を模式的に示す。仮想化サーバ10には、複数の仮想マシン100を設けることができる。物理サーバ10の有する物理資源(CPU、メモリ)を仮想化して分割し、仮想プロセッサ11Vとメモリ12Vを得ることができる。各仮想マシン100は、仮想プロセッサ11V及びメモリ12Vを用いて、オペレーティングシステムなどを互いに独立して動作させる。
 ストレージ装置20に着目する。複数の記憶装置23のそれぞれ有する物理記憶領域は、一つのRAIDグループ231にまとめることができる。RAIDグループ231の記憶領域を論理的に分割することにより、論理ボリューム232が生成される。論理ボリューム232は、論理的記憶領域である。論理ボリューム232にLUN(Logical Unit Number)が対応付けられ、LU233として仮想化サーバ10の各仮想マシン100に提供される。
 図4は、管理サーバ30の記憶内容を模式的に示す。「記憶装置」としての補助記憶装置33には、コンピュータプログラムと、管理テーブルとが記憶される。コンピュータプログラムには、例えば、構成管理プログラムP30と、マシン情報収集プログラムP31とが含まれる。管理テーブルには、例えば、座標設定テーブルT30と、分割ポリシーテーブルT31と、座標テーブルT32と、仮想マシンテーブルT33と、ボリュームテーブルT34と、仮想マシン性能テーブルT35と、ボリューム性能テーブルT36とが含まれる。
 構成管理プログラムP30は、計算機システムの有する各リソース(システム構成)を管理する。詳細は後述するが、構成管理プログラムP30は、仮想マシン100及び論理ボリューム232の性能値を相対的に評価し、性能値に基づいて分類管理する。構成管理プログラムP30は、仮想マシン100及び論理ボリューム232のペアの属するエリアが初期のエリアと一致しなくなると、マイグレーションを実行させる。マシン情報収集プログラムP31は、各仮想マシン100の情報などを収集して管理する。
 座標設定テーブルT30は、所定の座標平面(システム構成座標平面)を設定するための情報を管理する。分割ポリシーテーブルT31は、座標平面に複数の性能エリアを作成するための情報を管理する。座標テーブルT32は、仮想マシン100の座標、論理ボリューム232の座標、仮想マシン100と論理ボリューム232のペアからなるシステム構成の座標を管理する。仮想マシンテーブルT33は、構成管理プログラムP30に登録された各仮想マシン100を管理する。ボリュームテーブルT34は、構成管理プログラムP30に登録された各論理ボリューム232を管理する。仮想マシン性能テーブルT35は、構成管理プログラムP30に登録された各仮想マシン100の性能を管理する。ボリューム性能テーブルT36は、構成管理プログラムP30に登録された各論理ボリューム232の性能を管理する。
 上述の各コンピュータプログラム及び各管理テーブル以外の、コンピュータプログラムまたは管理テーブルが記憶装置33に記憶されてもよい。メモリサイズが十分に大きい場合等には、補助記憶装置33に代えて、メモリ32内に前記各コンピュータプログラム及び管理テーブルの全部または一部を記憶させてもよい。さらに、前記各管理テーブルの少なくとも一部を複数のテーブルに分割したり、または、複数の管理テーブルを一つにまとめたりしてもよい。
 図5は、システム構成の座標を設定するテーブルT30の構成例を示す。座標設定テーブルT30は、例えば、評価対象の性能データの種類C300,C301と、性能データの順位付け方法C302とを対応付けて管理する。
 仮想マシン性能値定義C300は、仮想マシン100の性能値を定義する。つまり、仮想マシン性能値定義C300には、仮想マシン100の性能を評価するための要素の種類と重みとが設定される。ボリューム性能値定義C301は、論理ボリューム232の性能値を定義する。ボリューム性能値定義C301には、論理ボリューム232の性能を評価するための要素の種類と重みが設定される。
 順位付け方法C302には、性能に基づく順位付けの方法が設定される。順位付け方法としては、例えば、パーセンタイルなどを用いることができる。各仮想マシンにおける相対的な位置づけと、各論理ボリュームにおける相対的な位置づけとが実現できる順位付け方法であればパーセンタイル以外の手法でもよい。
 座標設定テーブルT30の情報は、計算機システムの運用中に、システム管理者が変更することができる。図5の下側に示す座標設定テーブルT30Aは、設定変更後の状態を示す。座標設定テーブルT30Aでは、仮想マシン性能値定義C300及びボリューム性能値定義C301が変更されている。
 変更前の座標設定テーブルT30では、物理CPUの数と仮想プロセッサの数とに基づいて、仮想マシン100の性能を評価する。論理ボリューム232の性能は、ドライブタイプに基づいて評価される。即ち、変更前の座標設定テーブルT30では、静的な性能に基づいて性能を評価する。計算機システムの初期構築時には、カタログスペックのような運用前と運用後で変化しない静的な性能に着目して、リソースの性能を評価する。
 これに対し、変更後の座標設定テーブルT30Aでは、ベンチマーク測定用プログラムの結果に基づいて、仮想マシン100の性能を評価する。論理ボリューム232の性能は、IOPSに基づいて評価される。計算機システムの運用を開始して性能データが蓄積された場合は、その時々の状況に応じて変化する動的な性能に着目して、リソースの性能を評価することができる。
 計算機システムの構築時と計算機システムの運用後とで、性能を評価する方法を切り替えることにより、より実態に即して、仮想マシン100と論理ボリューム232とを適切に管理することができる。なお、座標設定テーブルT30を変更すると、後述のように各リソース(仮想マシン、論理ボリューム、仮想マシンとボリュームのペア)の座標が再計算される。
 図6は、分割ポリシーテーブルT31の構成例を示す。図6の分割ポリシーテーブルT31は、初期設定時の状態を示す。分割ポリシーとは、座標設定テーブルT30により定義される座標平面を、複数の性能エリア(エリアと略する場合がある)に分割して管理するための情報である。
 分割ポリシーテーブルT31は、例えば、エリアID C310と、エリア名C311と、仮想マシン性能下限値C312と、仮想マシン性能上限値C313と、ボリューム性能下限値C314と、ボリューム性能上限値C315とを備える。
 エリアID C310とは、各エリアを識別するための情報である。エリア名C311とは、各エリアに設定される名称であり、システム管理者が自由に設定できる。システム管理者は、例えば、計算機システム内で実行される業務処理の種別に応じて、エリア名を設定することができる。
 例えば、「データベース構成」というエリア名は、データベース処理に適するとシステム管理者の考えるエリアに設定される。「科学計算」というエリア名は、科学計算に適するとシステム管理者の考えるエリアに設定される。「バックアップ」というエリア名は、バックアップ処理に適するとシステム管理者の考えるエリアに設定される。さらに例えば、「メール」というエリア名は、メール処理に適するとシステム管理者の考えるエリアに設定される。「データベース構成」、「科学計算」、「バックアップ」、「メール」は例示に過ぎず、それら以外の他の名称を各エリアに設定してもよい。各エリアの性能上の特徴を示す名前(例えば、高速高性能エリア、低速低性能エリア等)でもよい。
 仮想マシン下限値C312は、エリアに属する仮想マシンの性能値の下限を示す。仮想マシン上限値C313は、そのエリアに属する仮想マシンの性能値の上限を示す。つまり、下限値C312から上限値C313までの性能を有する仮想マシン100のみが、そのエリアに属する。ボリューム性能下限値C314は、そのエリアに属する論理ボリュームの性能値の下限を示す。ボリューム性能上限値C315は、そのエリアに属する論理ボリュームの性能値の上限を示す。下限値C314から上限値C315までの性能を有する論理ボリューム232のみが、そのエリアに属する。
 本実施例では、パーセンタイルで性能値を相対的に評価する。例えば、100個の仮想マシンが構成管理プログラムP30に登録されている場合、性能値の小さい順番に仮想マシンを並べる。性能値が50%の仮想マシンとは、性能値が小さい方から数えて50番目の仮想マシンである。
 従って、より高性能の仮想マシンが計算機システム追加されると、追加前に50%の位置にあった仮想マシンは、50%よりも小さい位置に移動する。逆に、低性能の仮想マシンが計算機システムから取り除かれると、追加前に50%の位置にあった仮想マシンは、50%よりも大きい位置に移動する。
 図7は、座標テーブルT32の構成例を示す。図7の座標テーブルT32は、初期設定時の状態を示す。座標テーブルT32は、座標の設定方法が変更された場合、または、性能値が評価された場合に更新される。
 座標テーブルT32は、例えば、座標ID C320と、座標名C321と、仮想マシンIDC322と、ボリュームIDC323と、初期エリアIDC324と、配置エリアIDC325と、座標ステータスC326とを備える。
 座標ID C320は、各座標を識別するための情報である。座標名C321は、システム管理者により設定可能な名称である。仮想マシンID C322は、座標に関連する仮想マシン100を識別する情報である。ボリュームID C323は、座標に関連する論理ボリューム232を識別する情報である。
 初期エリアID C324は、算出された座標が最初に属していたエリアを識別する情報である。配置エリアID C325は、現在の座標が属しているエリアを識別する情報である。配置エリアは「最新エリア」に該当する。座標ステータスC326は、座標のステータスを示す情報である。座標ステータスとしては、例えば、「一致」、「不一致」、「移行中」などがある。初期エリアIDと配置エリアIDとが一致する場合、座標ステータスC326には「一致」と設定される。初期エリアIDと配置エリアIDが不一致の場合、座標ステータスC326には「不一致」と設定される。ペアを構成する、仮想マシン100または論理ボリューム232のいずれかが移行中の場合、座標ステータスC326には「移行中」と設定される。ペアを構成していない、仮想マシン100または論理ボリューム232の座標の場合、座標ステータスC326には何も設定されない。
 図8は、初期設定時における、仮想マシンテーブルT33及び仮想マシン性能テーブルT35を示す。図8では、仮想マシンテーブルT33と仮想マシン性能テーブルT35を統合した状態を示す。
 仮想マシンテーブルT33は、構成管理プログラムP30に登録された各仮想マシン100を管理する。仮想マシンテーブルT33は、例えば、仮想マシンID C330と、仮想マシン名C331と、仮想化サーバ名C332とを備える。仮想マシンID C330は、各仮想マシン100を識別する情報である。仮想マシン名C331は、座標平面上に表示される仮想マシンの名称である。仮想化サーバ名C332は、仮想マシンまたは空の仮想マシンが格納されている仮想化サーバ10を識別する名称である。
 本実施例では、実際に作成された仮想マシン100のほかに、実際には存在しない空の仮想マシンもリソースとして管理する。空の仮想マシンとは、仮想化サーバ10の物理資源(CPU、メモリ)の余剰分に設定される仮想マシンである。空の仮想マシンが選択されると、余剰の物理資源を用いて仮想マシン100が生成される。例えば、仮想化サーバ10が4個の仮想プロセッサを有しており、そのうちの3個を用いて仮想マシン100が生成されている場合を例に挙げて説明する。この場合、残り1個の仮想プロセッサを、空の仮想マシンとして、構成管理プログラムP30に登録する。これにより、本実施例では、未だ作成されていないが必要な場合には作成可能な仮想マシンを、リソースとして管理することができる。
 仮想マシン性能テーブルT35は、仮想マシンの性能情報を管理する。仮想マシン性能テーブルT35は、例えば、仮想マシンID C350と、CPUクロック数C351と、プロセッサ数C352と、ベンチマークスコアC353と、静的性能値C354と、動的性能値C355とを備える。
 仮想マシンID C350は、仮想マシンテーブルT33の仮想マシンID C330と共通である。CPUクロック数C351は、仮想マシン100が使用するCPU11のクロック数である。ベンチマークスコアC352は、ベンチマーク測定プログラムの測定結果を示す。静的性能値C354は、座標設定テーブルT30の仮想マシン性能値定義C300に設定された定義で算出された、静的な性能値である。動的性能値C355は、仮想マシン性能値定義C300に設定された定義で算出された、動的な性能値である。
 図9は、初期設定時における、ボリュームテーブルT34及びボリューム性能テーブルT36を示す。図9では、ボリュームテーブルT34とボリューム性能テーブルT36を統合した状態を示す。
 ボリュームテーブルT34は、構成管理プログラムP30に登録されている論理ボリューム232を管理する。ボリュームテーブルT34は、例えば、ボリュームID C340と、LDEV ID C341と、ストレージ名C342とを備える。
 ボリュームID C340は、各論理ボリューム232を識別する情報であり、構成管理プログラムP30により設定される。LDEV ID C341は、座標平面上に表示される論理ボリューム232の識別情報である。ストレージ名C342は、論理ボリューム232が格納されているストレージ装置20を識別する名称である。
 ボリューム性能テーブルT36は、論理ボリューム232の性能情報を管理する。ボリューム性能テーブルT36は、例えば、ボリュームID C360と、ドライブタイプC361と、IOPS C362と、静的性能値C363と、動的性能値C364を有している。
 ボリュームID C360は、ボリュームテーブルT34のボリュームID C340と共通である。ドライブタイプC361は、論理ボリューム232を構成する記憶装置23の種別を示す。IOPS C362は、論理ボリューム232のIOPSである。静的性能値C363は、座標設定テーブルT30のボリューム性能値定義C301に設定された定義で算出された、静的な性能値である。同様に、動的性能値C364は、ボリューム性能値定義C301の定義に従って算出された、動的な性能値である。なお、ドライブタイプに代えて、または、ドライブタイプと共に、ディスク回転数、転送速度などをボリューム性能テーブルT36で管理してもよい。
 図10は、ドライブタイプに応じて性能を順付けするテーブルT360である。順位付けテーブルT360は、ドライブタイプC3600と、性能順位C3601とを対応付けて管理する。
 ドライブタイプC3600としては、例えば、SSD(フラッシュメモリデバイス)、FC/SAS、SATA、未知の4種類が図10に示されている。SSDの性能順位は、一番高く設定される。FC/SASの性能順位は、2番目に高く設定される。SATAの性能順位は、3番目に高く設定される。未知の記憶装置の性能順位は、一番低い4番目に設定される。
 図11は、システム構成(リソース及びリソースのペア)の座標を表示する画面G10の例である。座標表示画面G10は、例えば、図11の左側に示す座標表示部GP11と、図11の右上に示すサマリー表示部GP12と、図11の右下に示す管理情報表示部GP13とを備える。
 座標表示部GP11は、座標設定テーブルT30に登録された情報に基づいて作成される座標平面上に、各システム構成の座標を表示させる。座標平面は、例えば、4つのエリアに区切られている。黒丸は、ペア構成の座標を示す。白丸は、単独のシステム構成の座標を示す。図中では、仮想マシンを「VM」と、論理ボリュームを「Vol」と、略記することがある。便宜上、座標平面では、各エリアのIDを1~4の符号で示す。サマリー等では、各エリアのIDをA1~A4の符号で示す。
 サマリー表示部GP12は、GP11に表示されている座標平面の概要を示す。サマリー表示部GP12には、例えば、仮想マシン性能定義、ボリューム性能定義、順付け方法(これら3つは座標設定テーブルT30の内容である)、エリア数、仮想マシン数、論理ボリューム数、ペア数が表示される。ペア数は、座標ステータス毎に表示される。即ち、初期エリアと配置エリアが一致しているペアの数、初期エリアと配置エリアが不一致のペアの数、移行処理中のペアの数が表示される。
 管理情報表示部GP13は、例えば、分割ポリシーテーブルT31の内容を表示させるためのタブと、座標テーブルT32の内容を表示させるためのタブを有する。図11では、分割ポリシーが表示されている。
 システム管理者は、管理サーバ30に指示を与えて、クライアントサーバ40に座標表示画面G10を表示させる。システム管理者は、座標表示画面G10を見ることにより、計算機システムの現状を容易に確認できる。
 図12は、システム構成の座標を示す平面を作成する作成画面G20である。作成画面G20は、例えば、システム構成座標プランGP21と、基本設定部GP22と、分割ポリシー設定部GP23を含む。
 プランGP21は、座標平面をどのように構成するかのプランを表示する。図12では、2つ目のエリアが設定された状態を示している。基本設定部GP22では、座標平面を設定するための情報(座標設定テーブルT30の内容)を設定する。分割ポリシー設定部GP23では、エリアを作成するための分割ポリシー(分割ポリシーテーブルT31の内容)を設定する。
 システム管理者は、クライアントサーバ40を介して管理サーバ30に指示を与えて、クライアントサーバ40に作成画面G20を表示させる。システム管理者は、作成画面G20を介して、座標平面を定義したり、複数のエリアを設定したりする。この作業により、座標設定テーブルT30及び分割ポリシーテーブルT31が作成される。
 図13~図18を参照して、管理サーバ30の動作を説明する。以下に述べる各処理は、構成管理プログラムP30をマイクロプロセッサ31が読み込んで実行することにより実現される。従って、以下の各処理の主語は、構成管理プログラムP30であってもよいし、マイクロプロセッサであってもよい。あるいは、以下の各処理の主語を管理サーバとして、説明することもできる。本実施例では、管理サーバを主語として説明する。なお、ステップを「S」と略記する。
 図10は、リソース情報を取得する処理を示すフローチャートである。管理サーバ30(詳しくは、管理サーバ30の構成管理プログラムP30)は、リソース情報を取得するリソースの一覧を作成する(S10)。リソースが計算機システムに追加される場合、ユーザから入力されるリソース追加情報に基づいて、一覧を作成する。それ以外の場合は、登録済のリソースの情報に基づいて一覧を作成する。
 管理サーバ30は、一覧に記載された各リソースに接続し、リソース情報を取得する(S11)。管理サーバ30は、取得したリソース情報を、所定の管理テーブル(図中、DBと表示)に格納させる(S12)。
 仮想マシン100の場合、リソース情報としては、仮想マシン名、仮想化サーバ名、CPUクロック数、プロセッサ数がある。仮想マシン名及び仮想化サーバ名は、仮想マシンテーブルT33に格納される。仮想マシン100に割り当てられているCPUのクロック数及びプロセッサ数は、仮想マシン性能テーブルT35に格納される。
 仮想マシン名及び仮想IDは、構成管理プログラムP30が計算機システム内で一意になるように自動的に設定する。仮想マシン名は、例えば、仮想化サーバ名に連続番号を加えることで作成できる。仮想マシンIDが既に登録済の場合、情報は上書きされる。
 論理ボリューム232の場合、リソース情報としては、LDEV ID、ストレージ名、ドライブタイプがある。LDEV ID及びストレージ名は、ボリュームテーブルT34に格納される。ドライブタイプは、ボリューム性能テーブルT36に格納される。ボリュームIDは、構成管理プログラムP30により、自動的に設定される。ボリュームIDが既に登録済の場合、情報は上書きされる。
 管理サーバ30は、リソース情報に基づいてシステム構成座標を算出し、算出された座標を座標テーブルT32に格納させる(S13)。詳しくは、管理サーバ30の構成管理プログラムP30は、リソース情報を使用して座標テーブルT32のエントリを作成し、そのエントリに仮想マシンIDまたはボリュームIDを登録する。ペアとなるリソースがある場合、そのリソースのIDを同一のエントリに追加する。
 図13の処理の具体例を、仮想マシンを例に挙げて説明する。
(1)システム管理者は、仮想化サーバ10のIPアドレスとユーザ名およびパスワードを入力する。
(2)プログラム(構成管理プログラムP30、マシン情報収集プログラムP31)は、入力されたIPアドレスをメモリ上で一時的に保存する。
(3)プログラムは、入力された情報を使って,仮想化サーバへの接続を試みる。
(4)プログラムは、正しく接続できたことを確認したら、仮想化サーバ名と、仮想マシンのホスト名と、仮想マシンの性能等を取得する。プログラムは、それら情報を、IPアドレスと共に仮想マシンテーブル等に格納する。
(5)データベースへの格納が終わったら、プログラムは、一時的に保存した情報を破棄する。
(6)以上の手順により、次回からは、GUI(Graphical User Interface)上に仮想マシン名等が表示される。システム管理者は、例えば、仮想マシンの最新の性能情報を取得したい場合、データベースに格納したIPアドレスを使用して仮想マシンに接続する。
 図14は、リソースを評価する処理を示すフローチャートである。管理サーバ30(管理サーバ30の構成管理プログラムP30)は、管理下の全ての仮想マシン100について(S20)、仮想マシンの性能値を算出する(S21)。
 座標設定テーブルT30の仮想マシン性能値定義C300に設定されている内容に従って、性能値が算出される。静的な性能値が定義されている場合は、仮想マシン100の静的な性能値が算出される。動的な性能値が定義されている場合は、動的な性能値が算出される。管理サーバ30は、算出された性能値を仮想マシン性のテーブルT35に格納する(S22)。
 管理サーバ30は、管理下の全ての論理ボリューム232について(S23)、論理ボリュームの性能値を算出する(S24)。管理サーバ30は、算出された性能値をボリューム性能テーブルT36に格納する(S25)。S21で述べたと同様に、管理サーバ30は、座標設定テーブルT30のボリューム性能値定義C301に設定されている内容に従って、ボリューム性能値を算出する。
 管理サーバ30は、管理下の全ての座標について(S26)、評価する(S27)。座標評価については図15で述べる。
 図15は、座標を評価する処理(S27)の詳細を示すフローチャートである。管理サーバ30(管理サーバ30の構成管理プログラムP30)は、S21及びS24で算出された性能値と分割ポリシーとに基づいて、システム構成の座標が属するエリアのIDを算出する(S270)。管理サーバ30は、算出されたエリアIDを座標テーブルT32の配置エリアID C325に格納する(S271)。
 管理サーバ30は、初期エリアIDが未設定のペア構成の座標(ペア座標)が有るか否かを判定する(S272)。初期エリアIDが未設定のペア座標が有る場合(S272:YES)、管理サーバ30は、S270で算出されたエリアIDを、座標テーブルT32の初期エリアID C324に格納する(S273)。初期エリアIDが未設定のペア座標が存在しない場合(S272:NO)、S273をスキップする。
 管理サーバ30は、座標テーブルT32の座標ステータスC326のうち、ペア座標のエントリ以外の座標ステータスC326を空(図中「-」)に設定する(S274)。管理サーバ30は、ペア座標において、初期エリアIDと配置エリアIDとが一致するか否かを判定する(S275)。ペア座標の初期エリアIDと配置エリアIDが一致する場合(S275:YES)、管理サーバ30は、座標テーブルT32の座標ステータスC326に「一致」と設定する(S276)。ペア座標の初期エリアIDと配置エリアIDが不一致の場合(S275:NO)、管理サーバ30は、座標ステータスC326に「不一致」と設定する(S277)。
 図16は、リソースを移行させる処理を示すフローチャートである。管理サーバ30(管理サーバ30の構成管理プログラムP30)は、座標テーブルT32の座標ステータスC326に「不一致」と設定されているペア座標の一覧を取得する(S30)。
 管理サーバ30は、少なくとも一つ以上の移行計画を作成する(S31)。管理サーバ30は、移行計画をGUIに出力する(S32)。システム管理者は、提示された移行計画の中からいずれか一つを選択して、実行を命じることができる(S33:YES)。管理サーバ30は、移行計画に基づき仮想化サーバ10及び/またはストレージ装置20に指示を与えて、移行計画を実行させる(S34)。
 なお、移行計画の候補の中からシステム管理者が手動で選択する構成に代えて、管理サーバ30が所定の選択基準に従って自動的に選択する構成でもよい。
 移行計画の作成方法には複数ある。例えば、管理サーバ30は、予め設定される優先度に基づいて移行計画を作成できる。例えば、未使用の論理ボリュームに優先度を設定しておき、優先度の高い順番で使用するように移行計画を作成する。同様に、空の仮想マシンに優先度を設定しておき、優先度の高い順番で使用するように移行計画を作成する。
 他の方法として、管理サーバ30は、業務処理ができるだけ停止しないような移行計画を作成することもできる。例えば、仮想マシンの性能を上げる場合、より高性能の仮想マシンに移行させる方法と、仮想マシンに割り当てる仮想プロセッサの数を増加させる方法とが考えられる。
 前者の場合、必要なデータ等を移行元の仮想マシンから移行先の仮想マシンに予め送信し、移行先の仮想マシンを起動し、移行元の仮想マシンを停止させるだけで、移行元仮想マシンから移行先仮想マシンへの移行が完了する。その仮想マシンで実行されている業務処理を停止させずに、移行が完了する。
 後者の場合、仮想マシンをいったん停止させてから、その仮想マシンに仮想プロセッサを追加する。従って、業務処理が中断する。従って、管理サーバ30は、業務処理の無停止運転の観点から、仮想マシン間の移行を選択する。
 さらに他の方法として、管理サーバ30は、初期エリアIDと配置エリアIDとが一致するペア座標の数が最大化するように、移行計画を作成することもできる。図17を参照して説明する。
 図17は、移行手順の実行順番によって結果が異なることを示す説明図である。説明の便宜上、3つのエリアが作成されている状況下で、仮想マシンの性能を上げる場合を説明する。
 図17(a)は、移行前の状態を示す。エリア1には、空の仮想マシンEM1が一つ存在する。エリア2には、空の仮想マシンEM2と、ペア座標Pc10が存在する。ペア座標Pc10は、元々エリア1に属していたとする。エリア3には、ペア座標Pc11とペア座標Pc12とが存在する。各座標Pc11,Pc12は、元々エリア2に属していたとする。
 図17(b)は、第1の移行計画を示す。第1の移行計画では、まず最初に、エリア2の座標Pc10の仮想マシンからエリア1の空の仮想マシンEM1に移行させる。移行後の座標をPc13として示す。Pc10からPc13に移行すると、エリア2には、新たな空の仮想マシンEM3が誕生する。そこで、エリア3の各座標Pc11,Pc12の仮想マシンを、エリア2の空の仮想マシンEM2,EM3に移行させる。この結果、第1の移行計画では、3つの座標Pc10,Pc11,Pc12の仮想マシンは、それぞれ元のエリア(初期エリア)に戻る。
 図17(c)は、第2の移行計画を示す。第2の移行計画では、エリア2の空の仮想マシンEM2に対応する仮想プロセッサを、座標Pc10の仮想マシンに追加して、仮想マシンの性能を高める。この場合、空の仮想マシンEM2と座標Pc10の仮想マシンとは、同一の仮想化サーバ10に存在している必要がある。
 座標Pc10の仮想マシンに仮想プロセッサを追加することにより、座標Pc10の仮想マシンは、エリア1内の座標Pc14に移動する。エリア3の各座標Pc11,Pc12の仮想マシンは、エリア2に戻ることはできない。エリア2には、使用可能な空の仮想マシンは無いためである。従って、第2の移行計画では、元のエリアに戻ることのできる仮想マシンは1つだけである。なお、第2の移行計画では、仮想マシンに仮想プロセッサを追加するため、一時的に業務処理が中断する。
 図17で示したように、管理サーバ30は、複数の移行計画(移行計画の候補)のうち、初期エリアIDと配置エリアIDとが一致するペア座標の数が増大する移行計画を、選択することができる。
 図18は、移行計画を監視する処理を示すフローチャートである。管理サーバ30(管理サーバ30の構成管理プログラムP30)は、リソースの移行状態を監視し(S40)、移行が完了したか否かを判定する(S41)。
 移行が完了した場合(S41:YES)、管理サーバ30は、図15で述べた座標評価処理(S27)を実行する。さらに、管理サーバ30は、移行計画に含まれている次の移行を実行する(S42)。このように、管理サーバ30は、移行計画に含まれる複数の移行手順を所定の順番で実行する。
 なお、初期エリアIDと配置エリアIDとが不一致のペア座標が検出された場合、管理サーバ30は、自動的に移行計画を作成すると述べた。これに代えて、初期エリアIDと配置エリアIDとが不一致のペア座標が存在することをシステム管理者に通知するだけの構成でもよい。但し、その場合は、システム管理者が移行計画を作成して、手動で移行計画を実行する必要がある。
 そこで、初期エリアIDと配置エリアIDとが不一致のペア座標が存在することをシステム管理者に伝えるだけでなく、それを解消するための移行計画をシステム管理者に提示する構成でもよい。その場合、システム管理者は、移行計画を手動で実行する。
 以下、図19~図32を参照して、本実施例をより具体的に説明する。図19は、システム構成の座標平面を定義する様子を示す。
 図20は、計算機システムの有するシステム構成(リソースとリソースのペア)を、座標平面上にマッピングする様子を示す。座標位置の計算方法には複数あるが、例えば、以下の方法で座標を算出できる。順位付け方法には、パーセンタイルを用いる。他の方法で順位付けしてもよい。
 前提条件として、座標平面を(0,0)~(100,100)の座標とする。さらに、Y座標を仮想マシン性能とし、X座標をボリューム性能とする(逆でもよい)。さらに、構成管理プログラムP30に登録されている仮想マシンの数をn(n>1)とする。さらに、仮想マシンの性能順位は,仮想マシン性能値定義C300に基づいて算出する。例えば、CPUのクロック数の高いものから順位付けする。以上が前提条件である。
 管理サーバ30は、最低順位の仮想マシンの性能値を0に設定し、最高順位の仮想マシンの性能値(y_max)を100に設定する。
 次に、管理サーバ30は、式1に従って、仮想マシン性能値の間隔(y_intvl)を求める。
   y_intvl = y_max/(n-1)・・・(式1)
 管理サーバ30は、配置対象の順位をiとする(順位は1位から割り当てる)。
 管理サーバ30は、最低順位と最高順位を除いたi位のy座標を式2で算出する。
   y(i)= y_intvl*(n-i)・・・(式2)
 管理サーバ30は、論理ボリュームについても前記同様に座標を算出する。
 図21は、新たな仮想マシンと新たな論理ボリュームを計算機システムに追加する様子を示す。追加された仮想マシンの相対的な性能は100%と高く、追加された論理ボリュームの相対的な性能も100%と高い。このため、既存のシステム構成の性能は、相対的に低下する。座標Pは、初期エリアがエリア1であったが、仮想マシン及び論理ボリュームの追加後には、エリア2に属している。従って、座標Pの座標ステータスは「不一致」となる。これに対し、座標Q,座標Rは、同一のエリア内で移動しているため、座標ステータスは「一致」になっている。
 図22は、移行計画を実行した場合を示す。または、移行計画をシステム管理者に提示する様子を示す。座標Pの所属するエリア(配置エリア)を初期エリアに一致させるために、座標Pを構成する論理ボリュームを高性能の論理ボリュームに移行させる。
 移行先の論理ボリュームは、座標Pの属するエリアを初期エリアに一致させることのできる未使用の論理ボリュームであって、かつ、所定のボリューム条件を満たす論理ボリュームの中から選択される。所定のボリューム条件としては、例えば、移行元論理ボリュームと移行先論理ボリュームが同一のエミュレーションタイプであること、移行元論理ボリュームと移行先論理ボリュームのサイズが一致すること(場合によっては、移行先のボリュームサイズが移行元のボリュームサイズ以上であればよい)等がある。
 図23~図32を参照して、管理テーブルの変化の一例を説明する。図23は、計算機システムに仮想マシンを追加した場合の、仮想マシンテーブルT33及び仮想マシン性能テーブルT35を示す。
 図8と比較して図23では、仮想マシンID(H9)~(H12)に示す合計4個の仮想マシンが追加されている。仮想マシンID(H10)~(H12)の3個の仮想マシンは、仮想マシン名C331に示すように、空の仮想マシンである。以下、仮想マシンID(H9)の仮想マシン100であることを、便宜上、仮想マシン(H9)と表記する場合がある。論理ボリュームについても同様である。
 仮想化サーバ10(VServer D)の有する物理CPU及び物理メモリを利用して、1つの仮想マシン(H9)が実際に作成されている。さらに、それら物理CPU及び物理メモリの余った部分を利用して、3個の仮想マシンを作成可能である。そこで、本実施例では、その物理リソースの余剰を利用して作成可能な仮想マシン(H10)~(H12)を、テーブルT33,T35に事前に登録する。
 図24は、計算機システムに論理ボリュームを追加した場合の、ボリュームテーブルT34及びボリューム性能テーブルT36を示す。図9と比較して図24では、ボリュームID(V5)~(V8)に示す合計4個の論理ボリュームが追加されている。
 図25は、リソースを計算機システムに追加した場合の座標テーブルT32を示す。図7と比較して図25では、座標ID(C9)~(C15)に示す合計7個の座標が追加されている。そのうち座標ID(C9)は、仮想マシン(H9)と論理ボリューム(V8)とがペアを構成しているペア座標である。
 ペア座標は、上述の通り、その所属先エリア(現在配置されているエリア)が初期エリアに一致するように制御される。従って、座標ID(C9)では、初期エリアID(A1)及び配置エリアID(A1)が設定されている。
 他の座標ID(C10)~(C15)は、単独の仮想マシン(C10,C11,C12)、または、単独の論理ボリューム(C13,C14,C15)である。座標ID(C10)~(C15)はペア座標ではなく、単独のシステム構成を示す単独座標である。単独の座標は、その所属先エリアを初期エリアに一致させる必要はない。従って、座標ID(C10)~(C15)については、初期エリアID C324に値は設定されない。
 座標ID(C3),(C4),(C7)は、初期エリアIDと配置エリアIDとが一致していない。従って、座標ID(C3),(C4),(C7)の座標ステータスC326には「不一致」が設定されている。
 図26は、配置エリアを初期エリアに一致させるためにペアを構成するリソースを移行させた場合の、座標テーブルT32を示す。
 図25で座標ステータスが「不一致」に設定されていた座標ID(C3),(C4),(C7)に着目する。図26では、座標ID(C3),(C4),(C7)の座標ステータスC326は、「一致」に変化している。
 図25の座標ID(C3)は、仮想マシン(H3)と論理ボリューム(V2)のペア構成を示していた。図26では、座標ID(C3)は、仮想マシン(H10)及び論理ボリューム(V5)のペアを示す座標に変化している。これは、仮想マシン(H3)から仮想マシン(H10)への移行と、論理ボリューム(V2)から論理ボリューム(V5)への移行とが実施されたことを示す。
 図25の座標ID(C4)は、仮想マシン(H4)と論理ボリューム(V3)のペアを示す座標であった。図26の座標ID(C4)は、仮想マシン(H11)と論理ボリューム(V3)のペアを示す座標に変化している。これは、仮想マシン(H4)から仮想マシン(H11)に移行されたことを示している。論理ボリュームは移行されていない。
 図25の座標ID(C7)は、仮想マシン(H7)と論理ボリューム(V4)のペアを示す座標であった。図26の座標ID(C7)は、仮想マシン(H7)と論理ボリューム(V6)のペアを示す座標に変化している。これは、論理ボリューム(V4)から論理ボリューム(V6)へ移行されたことを示す。仮想マシンは移行されていない。
 図25の下側に座標ID(C10),(C11)として追加された仮想マシン(H10),(H11)は、図26の座標ID(C3),(C4)においてペアの一部を構成するために使用された。従って、図25の座標ID(C10),(C11)は、図26では削除されている。同様に、図25に座標ID(C13),(C14)として追加された論理ボリューム(V5),(V6)は、図26の座標ID(C3),(C7)においてペアの一部を構成するための使用された。従って、図25の座標ID(C13),(C14)は、図26では削除されている。
 これに対し、図25の座標ID(C3),(C4),(C7)でペアの一部に使用されていた、仮想マシン(H3),(H4)及び論理ボリューム(V2),(V4)は、リソース移行の完了により、ペアから外されて単独のシステム構成になった。従って、図26では、仮想マシン(H3),(H4)及び論理ボリューム(V2),(V4)は、単独のシステム構成を示す座標ID(C16)~(C19)として表示される。
 図27は、リソースの移行を完了した場合の、仮想マシンテーブルT33及び仮想マシン性能テーブルT35を示す。図23と図27を比較すると、図23の仮想マシンID(H3),(H4)は実在の仮想マシンであったが、図27の仮想マシンID(H3),(H4)は、空の仮想マシンとなっている。これは、図26で述べたように、仮想マシンID(H3),(H4)の仮想マシンがペア構成から外されて、未使用状態に戻されたためである。
 本実施例では、不要となった仮想マシンは消滅させる。仮想化サーバ10の物理資源を有効に使用するためである。仮想マシンは消滅させるが、いつでも使用できるように、空の仮想マシンとしてテーブルT33,T35には登録しておく。
 図23では、仮想マシンID(H10),(H11)は、空の仮想マシンである。これに対し、図27では、仮想マシンID(H10),(H11)は、実在の仮想マシンとなっている。仮想マシンID(H10),(H11)の仮想マシンは、図26で述べたように、ペア構成の一部として使用されたためである。このように、空の仮想マシンとして管理しておくことにより、リソース移行時には直ちに仮想マシンを生成して、ペアの一部として使用することができる。
 図28は、仮想マシンの性能値の定義を変更した場合の仮想マシンテーブルT33及び仮想マシン性能テーブルT35を示す。図29は、論理ボリュームの性能値の定義を変更した場合のボリュームテーブルT34及びボリューム性能テーブルT36を示す。
 図5で述べたように、仮想マシンの性能及び論理ボリュームの性能を評価するための指標は、システム管理者により適宜変更できる。
 例えば、システム管理者は、静的な性能指標(CPUクロック数、ドライブタイプ等)から動的な性能指標(ベンチマークスコア、IOPS等)に切り替え可能である。場合によっては、システム管理者は、静的な性能指標の一部または全部を変更して、静的な性能指標を使い続けることもできるし、動的な性能指標の一部または全部を変更して、動的な性能指標を使い続けることもできる。
 計算機システムの運用を開始してから日が浅い場合、動的な性能指標に基づく性能データは、十分に蓄積されていない。従って、システム管理者は、静的な性能指標に基づいて、計算機システムのリソース(仮想マシン、論理ボリューム)を管理する。そして、動的な性能指標に基づく性能データが十分に蓄積された頃を見計らって、システム管理者は、静的な性能指標から動的な性能指標に切り替える。これにより、計算機システムの実態に合わせて、リソースを効率的に管理することができる。なお、仮想マシンを動的な性能指標で管理し、論理ボリュームを静的な性能指標で管理してもよいし、逆に、仮想マシンを静的な性能指標で管理し、論理ボリュームを動的な性能指標で管理してもよい。
 図30は、性能値の定義を変更した場合の座標テーブルT32を示す。座標設定テーブル宇T30の性能値定義が変更されると、管理サーバ30は、各座標を再評価する。その再評価の結果、座標ステータスが「一致」から「不一致」に変化する場合もある。図26と図30を比較すると、座標ID(C1),(C7),(C9)の座標ステータスC326が「一致」から「不一致」に変化している。
 図31は、性能値定義の変更後にリソースを移行させた場合の、座標テーブルT32を示す。図30と図31を比較すると、座標ID(C1),(C7),(C9)の座標ステータスC326は「不一致」から「一致」に変化している。
 図32は、性能値定義の変更後にリソースを移行させた場合の、仮想マシンテーブルT33及び仮想マシン性能テーブルT35を示す。
 このように構成される本実施例では、複数のリソースを含む計算機システムにおいて、リソースの組合せが適切に使用されているか否かを自動的に判断して、判断結果を出力することができる。
 さらに、本実施例では、計算機システムの構成が変更された場合でも、要求性能の異なる業務処理の種別毎に、それぞれ適したリソースの組合せを提供できる。特に、多数の仮想マシン及び多数の論理ボリュームを有する大規模な計算機システムにおいて、構成が変更された場合でも、業務処理の要求性能に応じた仮想マシン及び論理ボリュームの組合せを業務処理に割り当てることができる。
 図33,図34を参照して、第2実施例を説明する。本実施例は、第1実施例の変形例である。従って、以下、第1実施例との相違を中心に説明する。
 図33は、システム管理者にペア構成を提案する処理のフローチャートである。システム管理者は、ペアとなるシステム構成の作成を管理サーバ30に要求する(S50)。その要求は、システム管理者の指定するエリアを特定するための情報を含む。
 管理サーバ30は、指定されたエリアに属する、未使用の論理ボリューム232及び空の仮想マシン100を検出する(S51)。管理サーバ30は、検出された未使用論理ボリューム232と空の仮想マシン100とのペアを示す座標を、図34に示すように座標平面上に表示する(S52)。ユーザがペア座標を確認して承認すると、管理サーバ30は、承認されたペアを設定する(S53)。つまり、管理サーバ30は、ユーザにより承認された空の仮想マシンを実在化させ、その仮想マシンと未使用論理ボリューム232との間に通信パスを設定させる。
 図34は、システム管理者が「エリア2」を指定した場合を示す。システム管理者がエリア2を指定すると、管理サーバ30は、エリア2に属する未使用論理ボリューム及び空の仮想マシンの中からペア候補を作成して、提示する。
 ペア構成の候補を提示する方法には複数ある。例えば、指定エリア内で最も性能の高いペアを一つだけ提示してもよいし、または、指定エリア内で作成可能な全てのペアを提示してもよいし、全てのペアのうち性能の高いものから所定数だけ提示してもよい。
 このように構成される本実施例も第1実施例と同様の効果を奏する。さらに、本実施例では、システム管理者は、新たな業務処理を計算機システムで実行させる場合等に、その業務処理に適したエリアを指定するだけで、その業務処理に適した仮想マシン及び論理ボリュームのペアを得ることができる。従って、システム管理者の手間を軽減し、使い勝手が向上する。
 なお、本発明は、上述の実施形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
 例えば、上述の実施形態は、以下のように、計算機システムを管理するための管理プログラムとして把握することもできる。
 「一つ以上の仮想計算機を有する複数の計算機と複数の論理ボリュームを有する一つ以上のストレージ装置とを含む計算機システムを管理するコンピュータ上で動作するコンピュータプログラムであって、
 前記コンピュータが、
  前記計算機システムに含まれる前記各仮想計算機の中で相対的に定まる性能値である仮想計算機性能値を示す第1軸と、前記計算機システムに含まれる前記各論理ボリュームの中で相対的に定まる性能値であるボリューム性能値を示す第2軸とから、構成される座標平面を設定し、
  前記座標平面に、所定の基準に従って複数のエリアを設け、
  前記各仮想計算機について前記仮想計算機性能値を算出し、
  前記各論理ボリュームについて前記ボリューム性能値を算出し、
  前記各仮想計算機と前記各論理ボリュームのうち、仮想計算機及び論理ボリュームのペアが、前記各エリアのうちのいずれのエリアに属するかを、前記ペアを構成する前記仮想計算機について算出される前記仮想計算機性能値と、前記ペアを構成する前記論理ボリュームについて算出される前記ボリューム性能値とに基づいて判定し、判定されたエリアを初期エリアとして保持し、
  所定のタイミングで、前記ペアを構成する前記仮想計算機についての前記仮想計算機性能値と前記ペアを構成する前記論理ボリュームについての前記ボリューム性能値とをそれぞれ再び算出し、
  再び算出された前記仮想計算機性能値及び前記ボリューム性能値に基づいて、前記ペアが前記各エリアのうちいずれのエリアに属するかを再び判定し、判定されたエリアを最新エリアとして保持し、
  前記初期エリアと前記最新エリアとが一致するか否かを判定し、
  前記初期エリアと前記最新エリアとが不一致の場合は、不一致である旨を出力するように、
動作させるコンピュータプログラム。」
 前記実施形態では、計算機システムのリソースとして、仮想マシン及び論理ボリュームを例に挙げた。さらに、スイッチもリソースとして管理してもよい。スイッチも管理する場合、例えば、仮想マシン性能とスイッチ性能から座標平面を設定したり、または、論理ボリューム性能とスイッチ性能から座標平面を設定したりできる。スイッチ性能としては、例えば、pps(packet per second)を指標として用いることができる。ppsとは、スイッチが1秒間に処理できるフレームの数である。
 スイッチは、複数の(例えば64個の)ポートを備える。管理サーバ30は、スイッチのポート単位で、リソースを管理する。例えば、仮想マシン-スイッチSW1の第1ポートのペア、他の仮想マシンとスイッチSW1の第2ポートのペアのように、ポート単位で管理する。新しいスイッチを計算機システムに導入した結果として、仮想マシンとスイッチのペアが初期エリアと異なるエリアに移動した場合を検討する。この場合、仮想マシンが接続しているスイッチのポートを他のスイッチのポートに切り替えるよう、システム管理者に提案することができる。
 本実施形態の管理サーバでは、仮想マシン及び論理ボリュームを管理する場合を例示したが、それら以外のリソースを管理することもできる。そのような構成は、例えば、以下のように表現される。
 「複数の第1リソースと複数の第2リソースとを含む計算機システムを管理する管理計算機であって、
 前記各第1リソース及び前記各第2リソースと通信するための通信インターフェースと、所定のコンピュータプログラムを格納する記憶装置と、前記記憶装置から前記所定のコンピュータプログラムを読み込んで実行するマイクロプロセッサとを備え、
 前記マイクロプロセッサは、前記所定のコンピュータプログラムを実行して、
  前記計算機システムに含まれる前記各第1リソースの中で相対的に定まる性能値である第1リソース性能値を示す第1軸と、前記計算機システムに含まれる前記各第2リソースの中で相対的に定まる性能値である第2リソース性能値を示す第2軸とから、構成される座標平面を設定し、
  前記座標平面に、所定の基準に従って複数のエリアを設け、
  前記各第1リソースについて前記第1リソース性能値を算出し、
  前記各第2リソースについて前記第2リソース性能値を算出し、
  前記各第1リソースと前記各第2リソースのうち、第1リソース及び第2リソースのペアが、前記各エリアのうちのいずれのエリアに属するかを、前記ペアを構成する前記第1リソースについて算出される前記第1リソース性能値と、前記ペアを構成する前記第2リソースについて算出される前記第2リソース性能値とに基づいて判定し、判定されたエリアを初期エリアとして保持し、
  所定のタイミングで、前記ペアを構成する前記第1リソースについての前記第1リソース性能値と前記ペアを構成する前記第2リソースについての前記第2リソース性能値とをそれぞれ再び算出し、
  再び算出された前記第1リソース性能値及び前記第2リソース性能値に基づいて、前記ペアが前記各エリアのうちいずれのエリアに属するかを再び判定し、判定されたエリアを最新エリアとして保持し、
  前記初期エリアと前記最新エリアとが一致するか否かを判定し、
  前記初期エリアと前記最新エリアとが不一致の場合は、不一致である旨を出力する、管理計算機。」
 なお、前記実施形態では、仮想マシンを管理する場合を例に挙げて説明したが、物理的計算機を管理する構成でもよい。
 1:仮想マシン、2:論理ボリューム、3:管理サーバ、10:仮想化サーバ、20:ストレージ装置、30:管理サーバ、40:クライアントサーバ

Claims (15)

  1.  計算機システムを管理するための管理計算機であって、
     一つ以上の仮想計算機を有する複数の計算機と複数の論理ボリュームを有する一つ以上のストレージ装置とに通信するための通信インターフェースと、所定のコンピュータプログラムを格納する記憶装置と、前記記憶装置から前記所定のコンピュータプログラムを読み込んで実行するマイクロプロセッサとを備え、
     前記マイクロプロセッサは、前記所定のコンピュータプログラムを実行して、
      前記計算機システムに含まれる前記各仮想計算機の中で相対的に定まる性能値である仮想計算機性能値を示す第1軸と、前記計算機システムに含まれる前記各論理ボリュームの中で相対的に定まる性能値であるボリューム性能値を示す第2軸とから、構成される座標平面を設定し、
      前記座標平面に、所定の基準に従って複数のエリアを設け、
      前記各仮想計算機について前記仮想計算機性能値を算出し、
      前記各論理ボリュームについて前記ボリューム性能値を算出し、
      前記各仮想計算機と前記各論理ボリュームのうち、仮想計算機及び論理ボリュームのペアが、前記各エリアのうちのいずれのエリアに属するかを、前記ペアを構成する前記仮想計算機について算出される前記仮想計算機性能値と、前記ペアを構成する前記論理ボリュームについて算出される前記ボリューム性能値とに基づいて判定し、判定されたエリアを初期エリアとして保持し、
      所定のタイミングで、前記ペアを構成する前記仮想計算機についての前記仮想計算機性能値と前記ペアを構成する前記論理ボリュームについての前記ボリューム性能値とをそれぞれ再び算出し、
      再び算出された前記仮想計算機性能値及び前記ボリューム性能値に基づいて、前記ペアが前記各エリアのうちいずれのエリアに属するかを再び判定し、判定されたエリアを最新エリアとして保持し、
      前記初期エリアと前記最新エリアとが一致するか否かを判定し、
      前記初期エリアと前記最新エリアとが不一致の場合は、不一致である旨を出力する、管理計算機。
     
  2.  前記所定の基準は、業務種別毎の要求性能に従って設定され、
     前記マイクロプロセッサは、前記初期エリアと前記最新エリアとが不一致の場合に、前記最新エリアを前記初期エリアに一致させるための移行計画を作成し、
     前記移行計画には、前記ペアを構成する前記仮想計算機を前記各仮想計算機の中の他の仮想計算機に移行させる仮想計算機移行計画と、前記ペアを構成する前記論理ボリュームを前記各論理ボリュームの中の他の論理ボリュームに移行させるボリューム移行計画との、少なくともいずれか一方が含まれている、
    請求項1に記載の管理計算機。
     
  3.  前記仮想計算機性能値は、第1の仮想計算機性能指標に基づく仮想計算機性能値と、第2の仮想計算機性能指標に基づく仮想計算機性能値とのいずれか一方から選択され、
     前記ボリューム性能値は、第1のボリューム性能指標に基づくボリューム性能値と、第2のボリューム性能指標に基づくボリューム性能値とのいずれか一方から選択される、
    請求項2に記載の管理計算機。
     
  4.  前記所定のタイミングには、前記第1の仮想計算機性能指標と前記第2の仮想計算機性能指標との間で切り替えられた場合と、前記第1のボリューム性能指標と前記第2のボリューム性能指標との間で切り替えられた場合とが含まれる、
    請求項3に記載の管理計算機。
     
  5.  前記第1の仮想計算機性能指標は、前記仮想計算機を作成したときに定まる静的な指標であり、
     前記第2の仮想計算機性能指標は、前記仮想計算機の使用に応じて変化する動的な指標であり、
     前記第1のボリューム性能指標は、前記論理ボリュームを作成したときに定まる静的な指標であり、
     前記第2のボリューム性能指標は、前記論理ボリュームの使用に応じて変化する動的な指標である、
    請求項4に記載の管理計算機。
     
  6.  前記所定のタイミングには、前記計算機システムの構成が変化したときが含まれる、
    請求項3に記載の管理計算機。
     
  7.  前記マイクロプロセッサは、前記移行計画に基づいて前記計算機または前記ストレージ装置の少なくともいずれか一方に指示を与えて、前記移行計画を実行させる、
    請求項2に記載の管理計算機。
     
  8.  前記ペアは複数存在し、
     前記マイクロプロセッサは、前記初期エリアと前記最新エリアとが一致するペアの数が最大化するように、前記移行計画を作成する、
    請求項2に記載の管理計算機。
     
  9.  前記マイクロプロセッサは、前記ペアを構成する、前記仮想計算機及び前記論理ボリュームを用いる業務処理を継続させたままで、前記移行計画を実行させる、
    請求項2に記載の管理計算機。
     
  10.  前記マイクロプロセッサは、前記移行計画を複数作成して表示させる、
    請求項2に記載の管理計算機
     
  11.  前記マイクロプロセッサは、前記各仮想計算機のうち前記ペアを構成しない単独の仮想計算機の位置を前記第1軸上に設定し、前記各論理ボリュームのうち前記ペアを構成しない単独の論理ボリュームの位置を前記第2軸上に設定し、
     前記マイクロプロセッサは、前記座標平面上に、前記ペアの位置と、前記単独の仮想計算機の位置と、前記単独の論理ボリュームの位置とを表示させる、請求項2に記載の管理計算機。
     
  12.  前記マイクロプロセッサは、前記各エリアのうち指定されたエリアに含まれている、前記単独の仮想計算機と前記単独の論理ボリュームとの組合せを少なくとも一つ出力する、請求項11に記載の管理計算機。
     
  13.  前記所定の基準は、前記各エリアに適した業務処理が要求する性能に応じて設定することができる、
    請求項2に記載の管理計算機。
     
  14.  前記仮想計算機性能値及び前記ボリューム性能値は、パーセンタイル形式で表現される、請求項2に記載の管理計算機。
     
  15.  計算機システムを管理するための管理方法であって、
     前記計算機システムには、一つ以上の仮想計算機を有する複数の計算機と、複数の論理ボリュームを有する一つ以上のストレージ装置と、管理計算機とが含まれており、
     前記管理計算機は、
      前記計算機システムに含まれる前記各仮想計算機の中で相対的に定まる性能値である仮想計算機性能値を示す第1軸と、前記計算機システムに含まれる前記各論理ボリュームの中で相対的に定まる性能値であるボリューム性能値を示す第2軸とから、構成される座標平面を設定し、
      前記座標平面に、所定の基準に従って複数のエリアを設け、
      前記各仮想計算機について前記仮想計算機性能値を算出し、
      前記各論理ボリュームについて前記ボリューム性能値を算出し、
      前記各仮想計算機と前記各論理ボリュームのうち、仮想計算機及び論理ボリュームのペアが、前記各エリアのうちのいずれのエリアに属するかを、前記ペアを構成する前記仮想計算機について算出される前記仮想計算機性能値と、前記ペアを構成する前記論理ボリュームについて算出される前記ボリューム性能値とに基づいて判定し、判定されたエリアを初期エリアとして保持し、
      所定のタイミングで、前記ペアを構成する前記仮想計算機についての前記仮想計算機性能値と前記ペアを構成する前記論理ボリュームについての前記ボリューム性能値とをそれぞれ再び算出し、
      再び算出された前記仮想計算機性能値及び前記ボリューム性能値に基づいて、前記ペアが前記各エリアのうちいずれのエリアに属するかを再び判定し、判定されたエリアを最新エリアとして保持し、
      前記初期エリアと前記最新エリアとが一致するか否かを判定し、
      前記初期エリアと前記最新エリアとが不一致の場合は、不一致である旨を出力する、管理方法。
PCT/JP2011/054543 2011-02-28 2011-02-28 管理計算機及び計算機システムの管理方法 WO2012117507A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/054543 WO2012117507A1 (ja) 2011-02-28 2011-02-28 管理計算機及び計算機システムの管理方法
US13/133,307 US8447850B2 (en) 2011-02-28 2011-02-28 Management computer and computer system management method
JP2013502080A JP5417553B2 (ja) 2011-02-28 2011-02-28 管理計算機及び計算機システムの管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/054543 WO2012117507A1 (ja) 2011-02-28 2011-02-28 管理計算機及び計算機システムの管理方法

Publications (1)

Publication Number Publication Date
WO2012117507A1 true WO2012117507A1 (ja) 2012-09-07

Family

ID=46719767

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/054543 WO2012117507A1 (ja) 2011-02-28 2011-02-28 管理計算機及び計算機システムの管理方法

Country Status (3)

Country Link
US (1) US8447850B2 (ja)
JP (1) JP5417553B2 (ja)
WO (1) WO2012117507A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029133A1 (ja) * 2013-08-27 2015-03-05 株式会社日立製作所 ストレージシステム及びストレージシステム管理方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5541289B2 (ja) * 2009-10-09 2014-07-09 日本電気株式会社 仮想サーバシステム、その自律制御サーバ、そのデータ処理方法およびコンピュータプログラム
US20140196036A1 (en) * 2011-07-12 2014-07-10 Kok Leong Ryan Ko Tracing operations in a cloud system
US20130124714A1 (en) * 2011-11-11 2013-05-16 Vmware, Inc. Visualization of combined performance metrics
FR2991075B1 (fr) * 2012-05-25 2015-03-06 Schneider Electric Ind Sas Procede de gestion du demarrage d'instances d'applications sur des machines virtuelles d'un resau distribue
TWI610166B (zh) * 2012-06-04 2018-01-01 飛康國際網路科技股份有限公司 自動災難復原和資料遷移系統及方法
US9582219B2 (en) 2013-03-12 2017-02-28 Netapp, Inc. Technique for rapidly converting between storage representations in a virtualized computing environment
US9760389B2 (en) * 2013-03-15 2017-09-12 Excalibur Ip, Llc Activity initiated virtual machine migration
US9052938B1 (en) * 2014-04-15 2015-06-09 Splunk Inc. Correlation and associated display of virtual machine data and storage performance data
US10216531B2 (en) 2014-05-12 2019-02-26 Netapp, Inc. Techniques for virtual machine shifting
US9841991B2 (en) * 2014-05-12 2017-12-12 Netapp, Inc. Techniques for virtual machine migration
US9760398B1 (en) 2015-06-29 2017-09-12 Amazon Technologies, Inc. Automatic placement of virtual machine instances
US9697318B2 (en) * 2015-10-08 2017-07-04 Altera Corporation State visibility and manipulation in integrated circuits
US9817592B1 (en) 2016-04-27 2017-11-14 Netapp, Inc. Using an intermediate virtual disk format for virtual disk conversion
JP6957431B2 (ja) * 2018-09-27 2021-11-02 株式会社日立製作所 Hci環境でのvm/コンテナおよびボリューム配置決定方法及びストレージシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126195A (ja) * 1997-10-22 1999-05-11 Mitsubishi Electric Corp 分散システム
JP2004046372A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 分散処理システム、リソース割当方法およびプログラムならびにリソース割当プログラムが記録された記録媒体
JP2005234917A (ja) * 2004-02-20 2005-09-02 Hitachi Ltd 障害時のサーバ決定方法
JP2010224754A (ja) * 2009-03-23 2010-10-07 Nec Corp リソース割当装置、リソース割当方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3861087B2 (ja) 2003-10-08 2006-12-20 株式会社エヌ・ティ・ティ・データ 仮想マシン管理装置及びプログラム
US8175863B1 (en) * 2008-02-13 2012-05-08 Quest Software, Inc. Systems and methods for analyzing performance of virtual environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126195A (ja) * 1997-10-22 1999-05-11 Mitsubishi Electric Corp 分散システム
JP2004046372A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 分散処理システム、リソース割当方法およびプログラムならびにリソース割当プログラムが記録された記録媒体
JP2005234917A (ja) * 2004-02-20 2005-09-02 Hitachi Ltd 障害時のサーバ決定方法
JP2010224754A (ja) * 2009-03-23 2010-10-07 Nec Corp リソース割当装置、リソース割当方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029133A1 (ja) * 2013-08-27 2015-03-05 株式会社日立製作所 ストレージシステム及びストレージシステム管理方法
US9075530B2 (en) 2013-08-27 2015-07-07 Hitachi, Ltd. Storage system and the storage system management method

Also Published As

Publication number Publication date
US20120221699A1 (en) 2012-08-30
JP5417553B2 (ja) 2014-02-19
US8447850B2 (en) 2013-05-21
JPWO2012117507A1 (ja) 2014-07-07

Similar Documents

Publication Publication Date Title
JP5417553B2 (ja) 管理計算機及び計算機システムの管理方法
US9189344B2 (en) Storage management system and storage management method with backup policy
JP5478107B2 (ja) 仮想ストレージ装置を管理する管理サーバ装置及び仮想ストレージ装置の管理方法
US9785381B2 (en) Computer system and control method for the same
JP4235220B2 (ja) 計算機システムおよびデータ移行方法
US20180189109A1 (en) Management system and management method for computer system
US20170031699A1 (en) Multiprocessing Within a Storage Array System Executing Controller Firmware Designed for a Uniprocessor Environment
US20130290541A1 (en) Resource management system and resource managing method
US20150236974A1 (en) Computer system and load balancing method
US10248460B2 (en) Storage management computer
US8839242B2 (en) Virtual computer management method and virtual computer management system
WO2013171793A1 (en) Storage apparatus, storage system, and data migration method
US10002025B2 (en) Computer system and load leveling program
US20150234671A1 (en) Management system and management program
US20160357439A1 (en) Management system for storage system
JP2010257274A (ja) 仮想化環境におけるストレージ管理システム及びストレージ管理方法
WO2016117040A1 (ja) 計算機システム、計算機システムにおけるデータの移行方法
US20120246425A1 (en) Storage system and performance management method of storage system
JP2015532734A (ja) 物理ストレージシステムを管理する管理システム、物理ストレージシステムのリソース移行先を決定する方法及び記憶媒体
US20140164594A1 (en) Intelligent placement of virtual servers within a virtualized computing environment
JP6051233B2 (ja) 計算機システム、管理計算機及び管理方法
JP6244496B2 (ja) サーバストレージシステムの管理システム及び管理方法
JP4723361B2 (ja) 仮想化処理機能を有する情報処理装置
US10430216B1 (en) Virtual machine automated selection
US11755438B2 (en) Automatic failover of a software-defined storage controller to handle input-output operations to and from an assigned namespace on a non-volatile memory device

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13133307

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11859877

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013502080

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11859877

Country of ref document: EP

Kind code of ref document: A1