WO2017072933A1 - 計算機システムの管理システム及び管理方法 - Google Patents

計算機システムの管理システム及び管理方法 Download PDF

Info

Publication number
WO2017072933A1
WO2017072933A1 PCT/JP2015/080652 JP2015080652W WO2017072933A1 WO 2017072933 A1 WO2017072933 A1 WO 2017072933A1 JP 2015080652 W JP2015080652 W JP 2015080652W WO 2017072933 A1 WO2017072933 A1 WO 2017072933A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
app
storage
resource
computer
Prior art date
Application number
PCT/JP2015/080652
Other languages
English (en)
French (fr)
Inventor
崇之 永井
金子 聡
裕教 江丸
林 真一
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US15/740,688 priority Critical patent/US20180189109A1/en
Priority to PCT/JP2015/080652 priority patent/WO2017072933A1/ja
Publication of WO2017072933A1 publication Critical patent/WO2017072933A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Definitions

  • the present invention generally relates to management of computer systems.
  • a computer system having a server and storage is known. There is a need to aggregate a plurality of application programs (APP) in such a computer system.
  • the resource of the computer system is logically divided so that the performance of any APP does not affect the performance of any other APP, and different APPs are executed using different logically divided resources. Is desirable.
  • Patent Document 1 logical partitioning from a server system to a storage system is performed.
  • a server resource computer system computer resource
  • a storage resource for example, a logical volume
  • an adjacent virtual server for example, a logical partition (LPAR)
  • LPAR logical partition
  • the management system of a computer system including a plurality of resources receives designation of APP usage and refers to management information that is information including information on a plurality of resources.
  • the management system for the target virtual server (virtual server that executes the APP for the specified APP usage), according to the APP requirement associated with the specified APP usage, the resource specification that is exclusively allocated and the resource specification that is shared allocated Is determined.
  • the plurality of resources include a plurality of logical volumes and a plurality of computer resources including a plurality of types of computer resources.
  • the computer system includes a server system including two or more computer resources included in a plurality of computer resources.
  • the resource specification is at least one of a resource type, an APP usage associated with the resource, and the number of resources.
  • a resource belonging to a resource specification exclusively assigned to a virtual server is a resource occupied by the virtual server.
  • a resource belonging to a resource specification shared and allocated to a virtual server is a resource that can be shared by at least two virtual servers including the virtual server.
  • the “virtual server” implementation method there are at least one of LPAR and VM (Virtual Machine), but a software container or the like may be used instead.
  • LPAR Virtual Machine
  • VM Virtual Machine
  • FIG. 2 is a diagram illustrating an example of a connection configuration between a host computer and a storage apparatus. It is a figure which shows the structural example of a server port management table. It is a figure which shows the structural example of a server port management table. It is a figure which shows the structural example of a LPAR management table. It is a figure which shows the structural example of a LPAR management table. It is a figure which shows the structural example of a LPAR management table. It is a figure which shows the structural example of a LPAR management table. It is a figure which shows the structural example of a LPAR management table. It is a figure which shows the structural example of a LPAR management table.
  • FIG. 10 is a part of a flowchart illustrating an example of an overall flow of an APP requirement changing process according to Embodiment 2.
  • FIG. It is another part of the flowchart which shows the example of the whole flow of the APP requirement change process which concerns on Example 2.
  • FIG. 12 is the remainder of the flowchart illustrating an example of the overall flow of an APP requirement changing process according to the second embodiment.
  • FIG. 10 is a diagram illustrating an example of a host computer connection configuration according to the third embodiment. It is a figure which shows the structural example of the volume management table which concerns on Example 3.
  • FIG. 10 is a part of a flowchart illustrating an example of an overall flow of an APP requirement changing process according to Embodiment 3.
  • FIG. It is another part of the flowchart which shows the example of the whole flow of the APP requirement change process which concerns on Example 3.
  • FIG. FIG. 12 is the remainder of the flowchart illustrating an example of the overall flow of an APP requirement change process according to the third embodiment.
  • xxx table information may be described using the expression “xxx table”, but the information may be expressed in any data structure. That is, “xxx table” can be referred to as “xxx information” to indicate that the information does not depend on the data structure.
  • xxx information information may be described using the expression “xxx table”, but the information may be expressed in any data structure. That is, “xxx table” can be referred to as “xxx information” to indicate that the information does not depend on the data structure.
  • the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of the two or more tables may be one table. Good.
  • ID or name is used as element identification information, but other types of identification information may be used instead or in addition.
  • element identification information (element (Identification information such as an ID or a name) (or a reference sign) allocated to the ID.
  • an I / O (Input / Output) request is a write request or a read request, and may be referred to as an access request.
  • the “storage unit” may be one or more storage devices including a memory.
  • the storage unit may be at least a main storage device of a main storage device (typically a volatile memory) and an auxiliary storage device (typically a nonvolatile storage device).
  • the process may be described with “program” as the subject, but the program is executed by a processor (for example, a CPU (Central Processing Unit)) so that a predetermined process can be appropriately performed. Since the processing is performed using a storage unit (for example, a memory) and / or an interface device (for example, a communication port), the subject of processing may be a processor.
  • the processing described with the program as the subject may be processing performed by a processor or an apparatus or system having the processor.
  • the processor is an example of a control unit, and may include a hardware circuit that performs part or all of the processing.
  • the program may be installed in a computer-like device from a program source.
  • the program source may be, for example, a storage medium that can be read by a program distribution server or a computer.
  • the program distribution server may include a processor (for example, a CPU) and a storage unit, and the storage unit may further store a distribution program and a program to be distributed. Then, the processor of the program distribution server executes the distribution program, so that the processor of the program distribution server may distribute the distribution target program to other computers.
  • two or more programs may be realized as one program, or one program may be realized as two or more programs.
  • the management system may be composed of one or more computers.
  • the management computer displays information (specifically, for example, the management computer displays information on its own display device, or the management computer (eg, management server) displays the information for display).
  • a remote display computer (for example, when transmitting to a management client), the management computer is a management system.
  • the plurality of computers may include a display computer when the display computer performs display) is the management system. .
  • the management computer may include an interface device connected to an I / O system including a display system, a storage unit (eg, memory), and a processor connected to the interface device and the storage unit.
  • the display system may be a display device included in the management computer or a display computer connected to the management computer.
  • the I / O system may be an I / O device (for example, a keyboard and a pointing device or a touch panel) included in the management computer, a display computer connected to the management computer, or another computer. “Displaying display information” by the management computer means displaying the display information on the display system, which may be displaying the display information on a display device included in the management computer.
  • the management computer may transmit display information to the display computer (in the latter case, the display information is displayed by the display computer).
  • the management computer inputting / outputting information may be inputting / outputting information to / from an I / O device of the management computer, or a remote computer connected to the management computer (for example, a display)
  • Information may be input / output to / from the computer.
  • the information output may be a display of information.
  • the computer system includes at least a server system of a server system (one or more server apparatuses) and a storage system (one or more storage apparatuses).
  • “resource” refers to a server system and a storage system.
  • the component which at least 1 of has may be sufficient.
  • components there are physical components (for example, CPU, memory, HBA (Host bus adapter), port, drive (physical storage device)) and logical components (for example, VOL (logical volume)).
  • relay devices that exist between the server system and the storage system (for example, switches that have a routing function or port expansion devices that do not have a routing function), exist between server systems
  • Any of the relay device and the relay device existing between the storage systems may be treated as an example of the “resource”.
  • Such relay device components eg, ports, cores (controllers)
  • X is exclusively allocated to Y1” means that X (for example, resource) is allocated to Y1 (for example, the first LPAR), and Y2 (for example, the first type) is another object of the same type as Y1. 2 LPAR). As a result, X will be occupied by Y1.
  • X is shared and assigned to Y1” means that X is assigned to Y1 but can also be assigned to Y2. As a result, X can be shared by Y1 and Y2.
  • occupied resource is a resource that is exclusively allocated
  • shared resource is a resource that is allocated to share
  • 1 to 5 show a configuration example of an information system and a configuration example of devices in the information system.
  • 6 to 15 show configuration examples of the management table.
  • FIG. 1 is a diagram illustrating a physical configuration example of an information system.
  • the information system includes a storage device 20000, a host computer 10000, a server chassis 15000, a management server 30000, and a WEB browser activation server 35000. They are connected by a network 45000 (for example, an IP (Internet Protocol) switch 40000) and a PCIe bus 46000.
  • the computer system includes a storage device 20000 (an example of a storage system) and a server chassis 15000 (an example of a server system) including a plurality of host computers 10000.
  • the management system includes at least a management server 30000 of a management server 30000 (an example of a management computer that manages a computer system) and a WEB browser activation server 35000 (an example of a display computer such as a client).
  • the host computer 10000 is an example of a server device (physical server device).
  • the host computer 1000 receives a file I / O request from a client computer (not shown), and realizes access to the storage apparatus 20000 based on the I / O request.
  • the host computer 10000 and the storage device 20000 are connected by a PCIe (PCI-Express) bus 46000.
  • PCIe PCI-Express
  • the server chassis 15000 is equipped with a host computer 10000. Inside the server chassis 15000 is an internal network 47000 including a built-in switch 17000 (for example, an IP switch).
  • a built-in switch 17000 for example, an IP switch.
  • the management server 30000 manages the operation of the entire computer system via the network 45000.
  • the WEB browser activation server 35000 is a computer that communicates with the GUI display processing module 32300 (see FIG. 4) of the management server 30000 via the network 45000 and displays various types of information on the WEB browser.
  • the administrator manages the devices in the computer system by referring to the information displayed on the WEB browser on the WEB browser activation server 35000.
  • the management server 30000 and the WEB browser activation server 35000 may be configured by a single server.
  • FIG. 2 is a diagram illustrating a configuration example of the host computer 10000.
  • the host computer 10000 includes a port 11000 for connection to the network 45000, a management port 11100 for connection to the internal network 47000 of the server chassis 15000, a processor (CPU) 12000, a storage unit 12100, a management memory 13000 (memory Other physical storage devices), an I / O port 14000 for connection to the PCIe bus 46000, a controller 14200 connected to the I / O port 14000, an I / O port 14000 and a controller 14200.
  • HBA14100 These elements are connected to each other via a circuit such as an internal bus. At least one of these elements may be present in one or more.
  • One or more of the I / O port 14000 and the controller 14200 may exist in one HBA 14100.
  • the I / O port 14000 is an example of a server port.
  • the HBA 14100 is an example of an interface device that the server system (server apparatus) has and communicates with the storage system.
  • the management memory 13000 stores programs such as the LPAR management program 13200 and information such as the server port management table 13300 and the LPAR management table 13400.
  • the management memory 13000 is an example of a memory.
  • the LPAR management program 13200 creates an LPAR 15000 by logically dividing computer resources such as the I / O port 14000, the processor 12000, and the storage unit 12100 on the host computer 10000.
  • the I / O port 14000 may be shared between LPARs.
  • Resources that can be allocated to the LPAR 15000 include an I / O port 14000, a processor 12000, a storage unit 12100, a controller 14200, and an HBA 14100.
  • One example of the storage unit 12100 may be one or more memories.
  • the LPAR 15000 recognizes the logical volume on the storage device 20000 as a storage area via the PCIe bus 46000.
  • Each LPAR 15000 stores an OS (Operating System) 12200 and an APP 12300.
  • the LPAR 15000 executes the OS 12200 and the APP 12300.
  • One LPAR 12300 executes one or more APPs 12300.
  • a virtualization control program may be used instead of the LPAR management program 13200 described in FIG.
  • the virtualization control program may take a form of providing virtual hardware to a VM (virtual machine) by abstracting or standardizing physical resources such as the processor 12000 and the storage unit (memory) 12100.
  • VM virtual machine
  • the LPAR in the following description corresponds to the VM
  • the virtualization control program corresponds to the LPAR management program.
  • FIG. 3 is a diagram showing a configuration example of the storage apparatus 20000.
  • the storage device 20000 stores an I / O port 21000 for connection to the host computer 10000 via the PCIe bus 46000, a management port 21100 for connection to the management server 30000 via the network 45000, and various management tables.
  • Management memory 23000 for storing data a RAID group 24000 for storing data, a controller 25000 for executing control using the management table in the data and management memory, and an I / O target in accordance with an I / O request from the host computer
  • a cache memory (cache) 26000 for temporarily storing data.
  • These elements are connected to each other via a circuit such as an internal bus. At least one of these elements may be present in one or more.
  • the management memory 23000 (which may include a physical storage device other than the memory) includes a program such as a disk management program 23100, a storage port management table 23200, a RAID group management table 23300, a CLPR management table 23400, a volume management table 23500, and a storage. Information such as the partition management table 23600 is stored.
  • the management memory 23000 is an example of a memory.
  • the management program communicates with the management server 30000 via the management port 21100, and is at least a part of information on the storage device 20000 (for example, management tables 23200, 23300, 23400, 23500, and 23600).
  • the controller 25000 provides information regarding the configuration of the storage apparatus 2000.
  • the I / O port 21000 is an example of a storage port.
  • the RAID group 24000 is configured by one or a plurality of disk devices 24200. When the disk device is configured by a plurality of disk devices, the disk devices may form a RAID configuration. As a logical storage area based on the RAID group 24000, there is one or a plurality of logical volumes 24100.
  • the logical volume 24100 is an example of a storage resource, and may be provided to a host computer or may constitute a pool. In the latter case, instead of the logical volume 24100, a virtual volume (a logical volume that is composed of a plurality of virtual areas (virtual storage areas) and that conforms to capacity virtualization technology (typically Thin Provisioning)) is used by the host computer. May be provided.
  • a “pool” is a logical storage area (for example, a set of a plurality of logical volumes).
  • the pool may be a storage area composed of a plurality of real areas (substantial storage areas) (the logical volume 24100 may be divided into two or more real areas).
  • the controller 25000 allocates the real area from the pool and is allocated Write target data accompanying the write request may be written in the real area.
  • the logical volume 24100 need not have a RAID configuration as long as it is configured using a storage area of one or more disk devices 24200.
  • other physical storage devices such as a flash memory device may be employed instead of the disk device.
  • the controller 25000 may have a temporary storage area for temporarily storing data to be exchanged with the processor that controls the storage device 20000 and the host computer 10000.
  • the controller 25000 is interposed between the I / O port 21000 and the RAID group 24000, and exchanges data between them.
  • CLPRs 26100 may be prepared by logically dividing the cache 26000. “CLPR” is an abbreviation for cache LPAR. One or more CLPRs 26100 may be associated with each logical volume 24100. Thereby, interference of I / O performance between logical volumes in the cache 26000 can be prevented.
  • the storage device 20000 provides a logical volume (or virtual volume) to any host computer, receives an I / O request (may be called an access request), and receives the received I / O request.
  • an I / O request may be called an access request
  • the disk device that provides the storage area configurations other than those described in FIG. 3 and the above description may be used.
  • the storage device that provides the storage controller and the storage area You may store in another housing
  • the storage apparatus may be referred to as a storage system when the storage controller and the storage device are present in the same casing or as an expression including different casings.
  • FIG. 4 is a diagram illustrating a configuration example of the management server 30000.
  • the management server 30000 has a management port 31000 for connection to the network 45000, a processor 31100, a storage unit 33000, an output device 31200 such as a display device for outputting processing results to be described later, and an administrator inputs an instruction And an input device 31300 such as a keyboard. These elements are connected to each other via a circuit such as an internal bus. At least one of these elements may be present in one or more.
  • the management port 31000 is an example of an interface device.
  • the storage unit 33000 stores programs such as the management program 32000.
  • the management program 32000 includes a device management module 32100, a device communication module 32200, and a GUI display processing module 32300.
  • Each module is provided as a program module of the storage unit memory 33000, but may be provided as a hardware module. Further, the management program 32000 may not be configured by modules as long as the processing of each module can be realized. In other words, the description of each module in the following description may be replaced with the description related to the management program 32000.
  • the storage unit 33000 further stores information such as a host management table 33100, a template management table 33200, a storage port occupancy management table 33300, and a configuration DB 33400.
  • the configuration DB 33400 stores configuration information. At least a part of the information including these pieces of information is an example of management information.
  • the device information acquisition module 32200 collects each item of the server port management table 13200 collected from each host computer to be managed, each item of the LPAR management table 13300, and each storage to be managed.
  • Each item in the storage port management table 23200, each item in the RAID group management table 23300, each item in the CLPR management table 23400, each item in the volume management table 23500, and each item in the storage partition management table 23600 is there.
  • the configuration DB 33400 may not store all the tables of the management target device or all the items in the table.
  • the data representation format and data structure of each item stored in the configuration DB 33400 may not be the same as that of the management target device.
  • the management program 32000 may receive the items in the data structure or data representation format of the management target device.
  • the device communication module 32200 periodically or repeatedly accesses the managed device under management, and acquires configuration information of each component in the managed device. It should be noted that when the execution instruction is repeatedly issued, it is not necessarily strictly every fixed period, and may be repeated.
  • the device communication module 32200 instructs a managed device under management to change the configuration in response to a request from an administrator (an example of a user). After instructing the management target device to change the configuration, the configuration information of each component in the management target device is reacquired, and the configuration information stored in the configuration DB 33400 is kept up-to-date.
  • the GUI display processing module 32300 displays the acquired configuration management information via the output device 31200 in response to a request from the administrator via the input device 31300.
  • the input device and the output device may be separate devices, or one or more integrated devices.
  • the management server has, for example, a display, a keyboard, a pointer device, and the like as input / output devices, but may be other devices.
  • a serial interface or an Ethernet interface is used as an alternative to the input / output device, and a display computer (for example, a WEB browser activation server 35000) having a display, a keyboard, or a pointer device is connected to the interface, and display information is displayed.
  • the input and display on the input / output device may be replaced by displaying on the display computer or receiving input by transmitting to the computer or receiving input information from the display computer.
  • FIG. 5 is a diagram showing a connection configuration example of the host computer 10000 and the storage apparatus 20000.
  • the I / O ports (PORT11, PORT12,%) Of the host computer 10000 and the I / O ports (PORT1, PORT2,%) Of the storage device 20000 are connected to each other via the PCIe bus 46000. .
  • the host computer and storage I / O ports are connected by the PCIe bus, but the host computer and storage I / O ports need only be connected one-to-one. It may be connected via another medium such as an FC cable.
  • the number of PCIe buses connecting the host computer and storage I / O ports is not necessarily one per I / O port, and a plurality of I / O ports may be shared by one PCIe bus. According to FIG.
  • each of the host computers (HOST1 and HOST2) is divided into two host subsystems by logically dividing the host computer 10000 from the highest resource to the lowest resource.
  • the system is a host production system belonging to the production environment, and the other subsystem is a host development system belonging to the development environment (test environment).
  • the storage apparatus (SYS1) is also divided into two storage subsystems by logically dividing the storage apparatus from the highest resource to the lowest resource, and one storage subsystem is The storage production system that belongs to the production environment, and the other subsystem is the storage development system that belongs to the development environment.
  • LPAR including a part of the storage production system and the production system of HOST1 (LPAR in which a part of the storage production system and the production system of HOST1 are associated), another part of the storage production system and the home system of HOST2 There may be another LPAR (another LPAR in which another part of the storage production system and the home system of the HOST 2 are associated). All resources belonging to the development system including the host development system and the storage development system may be shared resources, but some resources belonging to the development system may be occupied resources.
  • resource identifiers may be used instead of resource names as appropriate.
  • FIGS. 6A and 6B are diagrams showing examples of the configuration of the server port management table 13300 in the host computer 10000, respectively. Specifically, FIG. 6A shows a configuration example of the server port management table 13300 of HOST1. FIG. 6B shows a configuration example of the server port management table 13300 of HOST2.
  • the server port management table 13300 includes information regarding the I / O port (an example of a server port) of the host computer. Specifically, for example, the server port management table 13300 includes a field 13310 for registering the identifier of the host computer, a field 13320 for registering the identifier of each HBA in the host computer, and an I / O mounted on the HBA. A field 13330 for registering an identifier in the host computer of the port, a field 13340 for registering an identifier in the host computer of the controller connected to the I / O port, and a field 13350 for registering the allocation type of each I / O port And a field 13360 for registering the allocation type of each controller as a configuration item.
  • HOST1 has HBA11.
  • HBA11 has PORT11.
  • the PORT 11 is connected to the CTL 11 and the CTL 12.
  • PORT11, CTL11, and CTL12 are occupied resources, respectively.
  • FIG. 7A to 7D are diagrams each showing an example of the configuration of the LPAR management table 13400 in the host computer 10000. Specifically, FIG. 7A and FIG. 7C each show a configuration example of the LPAR management table 13400 of HOST1. FIG. 7B and FIG. 7D each show a configuration example of the LPAR management table 13400 of HOST2.
  • the LPAR management table 13400 includes information on LPARs to which computer resources of the host computer are allocated. Specifically, for example, the LPAR management table 13400 includes a field 13410 for registering the identifier of the host computer, a field 13420 for registering the identifier of each LPAR in the host computer, and the number of CPUs assigned to each LPAR. A field 13430 to be registered, a field 13440 for registering the size of the memory allocated to each LPAR, a field 13450 for registering the ID of the I / O port allocated to each LPAR, and the controller ID allocated to each LPAR As a configuration item, and a field 13470 for registering whether the APP installed in each LPAR is for production or development.
  • LPAR1 there is LPAR1 to which a part of resources of HOST1 is allocated. LPAR1 is assigned 16 CPUs, 64 GB of memory, PORT11, CTL11, and CTL12. LPAR1 exists in the production system. LPAR1 is loaded with production APP.
  • 8A and 8B are diagrams each showing a configuration example of the storage port management table 23200 in the storage apparatus 20000.
  • the storage port management table 23200 has information on I / O ports (an example of storage ports) of the storage device. Specifically, for example, the storage port management table 23200 includes a field 23210 for registering an identifier of the storage device, a field 23420 for registering an HBA ID that is an identifier of the HBA in the storage device, and a storage of a port existing on the HBA.
  • the HBA1 on the storage device SYS1 has a PORT1.
  • PORT 1 of HOST 1 is directly connected to PORT 1.
  • directly connection means connection according to a 1: 1 connection relationship between the I / O port of the host computer and the I / O port of the storage apparatus.
  • FIG. 9 is a diagram showing a configuration example of the RAID group management table 23300 in the storage apparatus 20000.
  • the RAID group management table 23300 has information on RAID groups. Specifically, for example, the RAID group management table 23300 includes a field 23310 for registering an identifier of the storage apparatus, a field 23320 for registering a RAID group ID that is an identifier of each RAID group in the storage apparatus, and a RAID group RAID. It comprises a field 23330 for registering the level and a field 23340 for registering the capacity of each RAID group.
  • SYS1 has a RAID group RG1.
  • the RAID level of RG1 is RAID1, and the capacity of RG1 is 10 TB.
  • FIG. 10 is a diagram showing a configuration example of the CLPR management table 23400 in the storage apparatus 20000.
  • the CLPR management table 23400 has information regarding CLPR. Specifically, for example, the CLPR management table 23400 registers a field 23410 for registering an identifier of the storage device, a field 23420 for registering a CLPR ID as an identifier of each CLPR in the storage device, and a capacity of each CLPR. It consists of field 23430.
  • SYS1 has CLPR1.
  • the capacity of CLPR1 is 100 GB.
  • FIG. 11A to FIG. 11C are diagrams each showing a configuration example of the volume management table 23500 in the storage apparatus 20000.
  • the volume management table 23500 has information on logical volumes (in the case where a virtual volume is provided to the host computer, information on the virtual volume may be included). Specifically, for example, the volume management table 23500 registers a field 23510 for registering an identifier of the storage apparatus, a field 23520 for registering a volume ID that is an identifier of each volume in the storage apparatus, and a capacity of each volume.
  • the configuration field includes a field 23560 for registering a CLPR ID serving as an identifier of ID and a field 23570 for registering an ID of a connection destination port of each volume.
  • SYS1 has VOL1.
  • the capacity of VOL1 is 512 GB.
  • VOL1 belongs to RG1.
  • CTL1 and CLPR1 are used for accessing VOL1.
  • I / O request specifying VOL1 is received through PORT1, I / O according to the I / O request is performed.
  • FIG. 12 is a diagram showing the configuration of the storage partition management table 23600 in the storage apparatus 20000.
  • the storage partition management table 23600 has information regarding storage partitions (storage LPARs). Specifically, for example, the storage partition relation management table 23600 associates a storage device identifier with a field 23610, a storage partition ID field with which a storage partition ID in the storage device is registered, and a storage partition.
  • a field 23660 for registering the CLPRID as the CLPR identifiers in communicating Tagged storage device includes a field 23670 for registering the use of the storage partitions, as configuration items.
  • SYS1 has a storage partition SP1.
  • SP1, PORT1, PORT2, PORT3, PORT4, PORT5, PORT6, RG1, CTL1, and CLPR1 are assigned (associated).
  • FIGS. 13A to 13D are diagrams each showing a configuration example of the host management table 33100 in the management server 30000.
  • At least a part of the host management table 33100 is an example of at least a part of information included in the management information.
  • the host management table 33100 has information regarding the host computer. Specifically, for example, the host management table 33100 registers a field 33110 for registering the identifier of the host computer, a field 33120 for registering the number of processors (CPUs) possessed by the host computer, and the size of the memory possessed by the host computer.
  • a field 33160 for registering the size of usable memory other than APP is included as a configuration item.
  • HOST1 has 40 processors (CPUs) and 150 GB of memory.
  • FIG. 14 is a diagram showing a configuration example of the template management table 33200 in the management server 30000.
  • At least a part of the template management table 33200 is an example of at least a part of information included in the management information.
  • the template management table 33200 has information on the template of the APP requirement corresponding to the APP application.
  • the template management table 33200 includes a field 33210 for registering an identifier of a template designated when the administrator constructs an APP execution environment on the host computer and the storage device, and the name of the APP corresponding to the template.
  • a field 33230 for registering the use of the APP corresponding to the template a field 33240 for registering the size of the APP corresponding to the template, and the number of CPUs necessary for building the APP in the LPAR on the host ,
  • a field 33260 for registering the memory size necessary for constructing the APP in the LPAR on the host a field 33270 for registering the usage of the volume necessary for constructing the APP, and a volume support
  • a field 33295 for registering the degree as a configuration item A field 33230 for registering the use of the APP corresponding to the template, a field 33240 for registering the size of the APP corresponding to the template, and the number of CPUs necessary for building the APP in the LPAR on
  • the “APP usage” is a processing purpose such as whether it is OLTP (Online Transaction Processing) or OLAP (Online Analytical Processing), and an execution environment such as whether it is for production or development.
  • OLTP Online Transaction Processing
  • OLAP Online Analytical Processing
  • an execution environment such as whether it is for production or development.
  • And may be defined by a combination of an APP name and an APP size.
  • the definition of the APP application is not limited to such a definition, and the APP application may be defined by other types of methods.
  • other types of viewpoints may be adopted instead of or in addition to at least one of the processing purpose, execution environment, APP name, and APP size.
  • APP execution environment and “LPAR” are synonymous, but LPAR is an example of APP execution environment.
  • LPAR is an example of APP execution environment.
  • the template ID for constructing S-size APP1 for OLTP is TP1.
  • the APP requirements represented by TP1 are as follows. That is, LPAR that executes S-size APP1 for OLTP requires four CPUs and 16 GB of memory for APP1. The LPAR also needs one 128 GB volume for data and one 128 GB volume for logs for APP1.
  • APP1 is for production, one storage port with occupancy LV4 is required for the data volume, and one storage port with occupancy LV3 is required for the log volume.
  • one storage port with an occupancy LV1 is required for each of the data volume and the log volume.
  • FIG. 15 is a diagram showing a configuration example of the storage port occupancy management table 33300 in the management server 30000.
  • At least a part of the storage port occupancy management table 33300 is an example of at least a part of information included in the management information.
  • the storage port occupancy management table 33300 has information related to occupancy. Specifically, for example, the storage port occupancy management table 33300 includes a field 33310 for registering the occupancy identifier, a field 33320 for registering whether the controller on the host HBA is occupied in the occupancy, and the occupancy A field 33330 for registering the necessity of occupying the host and storage port, a field 33340 for registering the upper limit of the number of LPARs sharing the host and storage port in the occupancy degree, and a necessity of occupying the storage HBA in the occupancy degree are registered.
  • Field 33350 as a configuration item.
  • “Occupancy” refers to the degree of occupancy of a storage port. Specifically, the occupancy of a storage port is at least one of the following (a) to (d): (A) number of LPARs that can share a storage port; (B) Allocation type (occupied / shared) of the controller 14200 connected to the server port connected to the storage port; (C) Attributes of volumes that can be associated with the storage port (for example, occupation resources or occupancy of other storage ports associated with volumes as shared resources), (D) volume attributes that can be associated with the storage HBA 21200 having the storage port; May be defined. In other words, the port usage mode corresponding to the degree of occupancy may be defined by at least one of the above (a) to (d).
  • a controller (controller on the host HBA) connected to the server port connected to the storage port with the occupation level LV2 can be shared between LPARs (is a shared resource). Further, the occupancy of the storage port (and the server port connected to the storage port) can be shared between volumes associated with other storage ports of LV2 or LV3. The maximum number of LPARs that can share a storage port with occupancy LV2 is two. A storage HBA having a storage port with occupancy LV2 can be shared only between volumes associated with other storage ports with occupancy LV2 or LV3.
  • the template management table shown in FIG. 14 and the storage port occupancy management table shown in FIG. 15 are defined in advance as best practices by, for example, a higher-level administrator (an administrator with sufficient knowledge about hosts and storage). May have been.
  • a higher-level administrator an administrator with sufficient knowledge about hosts and storage. May have been.
  • an administrator super administrator or other administrator constructs an APP execution environment (LPAR) in the computer system
  • the template identifier defined in the template management table 33200 may be specified for the management server.
  • FIGS. 16A to 16C show flowcharts of storage partition creation processing.
  • the device management module 32100 receives designation of an APP template and the number of APPs to be constructed on the computer system from the administrator through the GUI provided by the GUI display processing module 32300 (step 61010).
  • the number of designated templates may be one or more.
  • the APP usage is an APP usage including the production usage.
  • the number of APPs may be designated for each designated template, or the number of APPs may be common to a plurality of designated templates.
  • Designation of a template means designation of an APP application.
  • the template may be specified by specifying (input) at least one of a template ID and an APP application.
  • the device management module 32100 refers to the template management table 33200, and calculates the volume capacity necessary for constructing the APP for the designated APP usage and the number of APPs according to the template input by the administrator in Step 61010. (Step 61020), it is confirmed whether or not the calculated volume capacity exceeds the RAID group capacity of the entire storage apparatus (Step 61030).
  • step 61030 If the confirmation result in step 61030 is affirmative (step 61030: Yes), the device management module 32100 notifies the administrator that the resources necessary for building the APP execution environment are insufficient via the GUI, and ends the processing. (Step 61270).
  • step 61030 If the confirmation result in step 61030 is negative (step 61030: No), the apparatus management module 32100 performs the following processing loop (F) for each template specified in step 61010. When a plurality of the same templates are designated, the following loop (F) is repeated by the designated number.
  • one of the designated templates is taken as an example (referred to as “target template” in the description of FIGS. 16A to 16C).
  • the device management module 32100 refers to the template management table 33200, and specifies the number of storage ports and the degree of occupancy according to the APP requirements corresponding to the target template (step 61050). Next, the device management module 32100 refers to the storage port occupancy management table 33300 and identifies the port usage mode corresponding to the occupancy identified in Step 61050 (Step 61060). The device management module 32100 determines whether the identified port usage form is “Occupied” or “Shared among volumes of the same occupancy” or “Shared” (Step 61070).
  • the device management module 32100 When the port usage form identified in step 61060 is “occupied” or “shared among volumes of the same occupation”, the device management module 32100 performs the following processing loop for each HBA defined in the storage port management table 23200. (G) is performed. Note that if the port usage form identified in step 61060 is “shared”, in the following processing loop (G), step 61955 is executed instead of step 61090, and step 61185 is executed instead of step 61180.
  • one storage HBA 21200 is taken as an example (in the description of the processing loop (G), it is referred to as “target storage HBA (G)”).
  • the device management module 32100 checks whether or not the first condition is satisfied (step 61090).
  • the first condition is that the storage port of all storage ports of the target storage HBA (G) is the same as the occupation level specified in step 61050 and the number of available LPARs is 1 or more. There are more ports (required number) according to the template. If the port usage mode identified in step 61060 is “shared”, the device management module 32100 checks whether or not the second condition is satisfied (step 61955).
  • the second condition is that the number of storage ports that are the same as the degree of occupancy specified in step 61050 for the target storage HBA (G) and the number of available LPARs is 1 or more (required number) specified in step 61050 That is all.
  • the device management module 32100 refers to the template management table 33200, and in the template specified in step 61040, the LPAR The number of CPUs and the memory size necessary for creation are specified (step 61110).
  • the device management module 32100 refers to the storage port management table 23200, and acquires the ID of the host directly connected to the port identified in Step 61090 (Step 61120).
  • the device management module 32100 refers to the host management table 33100 and checks whether there is room for defining the LPAR of the specification specified in step 61110 on the host specified in step 61120 (step 61130).
  • the device management module 32100 sets the number of CPUs to be used and the expected memory size of the host specified in step 61120 in the host management table 33100 to step 61110.
  • the required number of CPUs and the memory size specified in (1) are added, and the ID of the target template is added as the scheduled use APP (step 61150).
  • the device management module 32100 subtracts 1 from the number of available LPARs for the port specified in step 61090 among the ports under the HBA specified in step 61080 (step 61160). .
  • the device management module 32100 determines the storage HBA defined in the storage port management table 23200. Then, the processing loop (H) is performed.
  • one storage HBA 21200 is taken as an example (in the description of the processing loop (H), it is referred to as “target storage HBA (H)”).
  • the device management module 32100 checks whether or not the third condition is satisfied (step 61180).
  • the third condition is that the occupancy of all storage ports of the target storage HBA (H) is not specified, and the storage ports are equal to or greater than the number of ports (necessary number) for the template specified in step 61050. is there. If the port usage form identified in step 61260 is “shared”, the device management module 32100 checks whether or not to check whether the fourth condition is satisfied (step 61185).
  • the fourth condition is whether the target storage HBA (H) has more than the number of ports (necessary number) specified in step 61050 for storage ports whose occupancy is not specified.
  • the device management module 32100 refers to the template management table 33200 and corresponds to the APP application specified in step 61040. The number of CPUs and the memory size necessary for creating the LPAR to be created are specified (step 61200). Next, the device management module 32100 refers to the storage port management table 23200, and acquires the ID of the host directly connected to the port identified in Step 61180 (Step 61210). Next, the device management module 32100 refers to the host management table 33100 and confirms whether there is room to define the LPAR of the specification specified in step 6200 on the host specified in step 61210 (step 61220).
  • the device management module 32100 sets the number of CPUs to be used and the scheduled memory size of the host specified in step 61210 in the host management table 33100, respectively.
  • the required number of CPUs and memory size specified in step 61200 are added, and the ID of the target template is added as the scheduled use APP (step 61240).
  • the device management module 32100 sets the occupancy and the number of available LPARs for the port specified in step 61180 in the storage port management table 23200 (step 61250).
  • the device management module 32100 sets the number of available LPARs to “0” if the port is used by the LPAR, and the LPAR does not recognize the port. If it is used, the number of available LPARs is set to “1”.
  • the device management module 32100 sets the number of available LPARs to “the sharable LPAR corresponding to the degree of occupancy of the port” if the port uses the port.
  • step 61170 The value obtained by subtracting 1 from the number ”is used, and if the port does not use an LPAR, the“ number of sharable LPARs corresponding to the degree of occupancy of the port ”is used as the number of available LPARs. After performing the above process, the repetition process of step 61170 is complete
  • the device management module 32100 displays the number of CPUs to be used, the memory size to be used, the memory to be used in the host management table 33100, and the APP to be used.
  • the occupation level and the number of available LPARs in the management table 23200 are deleted (step 61260). Then, the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient through the GUI, and ends the processing (step 61270).
  • the device management module 32100 defines the production and development storage partitions. At this time, the device management module 32100 refers to the RAID group management table 23300, adds the RAID group to the production storage partition until the volume capacity calculated in Step 61020 is exceeded, and then uses the remaining RAID group as a development storage. It is added to the partition (step 61280). Next, the device management module 32100 adds, to the production storage partition, a port for which the occupancy has been entered among the ports defined in the storage port management table 23200, and makes the port that has not been entered a development storage partition. It is added (step 61290).
  • FIG. 17 shows a flowchart of the provisioning process in the production APP execution environment. This provisioning process is performed by the administrator as needed after the APP execution environment is required after the storage partition creation process is completed and the operation is started. For the development APP, this flowchart is not used during provisioning.
  • the device management module 32100 receives the designation of the template ID of the production APP to be constructed on the computer system from the administrator through the GUI provided by the GUI display processing module 32300 (step 62010).
  • the device management module 32100 refers to the host management table 33100, and searches the creation schedule APP for a host including the template APP input by the administrator (step 62020). When the corresponding host does not exist (step 62030: No), the device management module 32100 displays an error message to the administrator through the GUI, and ends the process.
  • the device management module 32100 refers to the template management table 33200, confirms the LPAR specifications necessary for the template specified by the administrator in step 62010, and then performs step LPAR creation is instructed to the host specified in 62020 (step 62040).
  • the device management module 32100 refers to the template management table 33200 and identifies the number and size of storage volumes and the number and occupancy of ports required in the template identified in step 62010 (step 62050).
  • the device management module 32100 refers to the storage port management table 23200 and identifies the storage port that is directly connected to the host identified in Step 62020 (Step 62060). Then, the device management module 32100 refers to the storage port management table 23200, and identifies, among the ports identified in step 62060, those having the same occupancy as the occupancy identified in step 62050 (step 62070).
  • the device management module 32100 refers to the storage partition management table 23600, and sets the storage device to create the volume of the number and size specified in step 62050 on the RAID group included in the production storage partition. Instruct (step 62080). The device management module 32100 then instructs the storage device to set the LPAR created in step 62040 so that the volume created in step 62080 can be accessed via the storage port identified in step 62070 (step 62090).
  • the device management module receives specification of the production APP template to be built on the computer system and the number of created APPs from the administrator through the GUI.
  • the administrator designates two templates, TP1 (APP1-OLTP-S) and TP5 (APP2-OLTP-S), which are indicated by an ID TP4 (APP1-OLAP-S) in the template management table shown in FIG. Assume a case where one template indicated by the ID is selected.
  • the device management module refers to the template management table, calculates the volume capacity necessary for constructing the APP according to the template input by the administrator, and checks whether the RAID group capacity of the entire storage is exceeded.
  • the total required volume capacity is 1536 GB, which is the sum of 1024 GB (TP4 ⁇ 2), 256 GB (TP1), and 256 GB (TP5), which is the RAID group management table shown in FIG. Less than the total RAID group capacity.
  • the device management module refers to the template management table, and specifies the number and occupancy of storage ports required for the APP usage defined in the template specified by the administrator.
  • the device management module refers to the port requirement definition management table and identifies the port usage mode at the identified degree of occupation. For example, for the template TP4 (APP1-OLAP-S), referring to the template management table shown in FIG. 14 and the port requirement definition management table shown in FIG. 15, one port is required, and the host HBA controller and host storage Must be occupied, and the storage HBA must be shared by volumes with the same occupancy LV4.
  • TP4 APP1-OLAP-S
  • the device management module checks whether the occupancy of all the ports under the HBA is LV4 for the HBA defined in the storage port management table. However, since there is no corresponding HBA, the device management module confirms whether the occupancy of all ports under the HBA is unspecified for the HBA defined in the storage port management table. . Referring to the storage port management table shown in FIG. 8A, the occupancy of all subordinate ports is unspecified for the HBA indicated by the ID HBA1.
  • the device management module refers to the template management table and specifies the number of CPUs and the memory size of the LPAR defined in the template. Referring to the template management table shown in FIG. 14, 16 CPUs and 64 GB of memory are required for template TP4 (APP1-OLAP-S).
  • the device management module refers to the storage port management table and acquires the ID of the host directly connected to the HBA port. Referring to the storage port management table shown in FIG. 8A, HOST1 is directly connected to the storage port indicated by the ID PORT1 of HBA1.
  • the device management module refers to the host management table and confirms whether there is room for defining the specified specification LPAR on the specified host.
  • the host management table shown in FIG. 13A the APP to be used is not yet defined for HOST1, LPAR is created in HOST1, and storage is accessed via PORT1 of HBA1 of SYS1, respectively.
  • the device management module adds the required number of CPUs and the memory size of TP4 to the number of CPUs scheduled to be used and the memory size to be used in the host management table, and adds the scheduled usage APP.
  • the device management module sets the occupancy for all ports under the HBA 1 that is the specified HBA.
  • the above processing is indicated by the remaining one of the templates indicated by the ID TP4 (APP1-OLAP-S) in the template management table, the IDs TP1 (APP1-OLTP-S), and TP5 (APP2-OLTP-S).
  • the record of the host management table shown in FIG. 13C and the records of the first to sixth lines of the storage port management table shown in FIG. 8B are finally generated.
  • the device management module defines the production and development storage partitions.
  • the device management module refers to the RAID group management table, adds the RAID group to the production storage partition until the calculated volume capacity is exceeded, and then adds the remaining RAID group to the development storage partition.
  • the device management module adds ports that have already been occupied to the production storage partition, and adds ports that have not been entered to the development storage partition. .
  • records in the first and second lines of the storage partition management table shown in FIG. 12 are generated.
  • the administrator After completing the storage partition creation process and starting operation, as soon as the APP execution environment becomes necessary, the administrator performs provisioning process as needed.
  • the administrator designates the template ID of the production APP to be constructed on the computer system through the GUI.
  • the administrator selects a template indicated by an ID TP4 (APP1-OLAP-S) in the template management table shown in FIG.
  • the device management module refers to the host management table and searches for hosts that contain the template APP entered by the administrator in the scheduled creation APP. Referring to the host management table shown in FIG. 13C, it can be seen that TP4 is scheduled to be created on HOST1.
  • the device management module refers to the template management table, confirms the LPAR specifications in the template specified by the administrator, and instructs the HOST 1 to create an LPAR.
  • the template management table shown in FIG. 14 16 CPUs and 64 GB of memory are required for TP4 (APP1-OLAP-S).
  • TP4 APP1-OLAP-S
  • the device management module refers to the template management table and identifies the number and size of storage volumes and the number and occupancy of ports in the template specified by the administrator.
  • TP4 APP1-OLAP-S
  • one port is required, the port occupancy is LV4, and the required volume capacity is 512 GB ⁇ 2.
  • the device management module refers to the storage port management table and identifies the storage port directly connected to the host. Then, the device management module refers to the storage port management table and identifies a port having the same occupancy as the specified occupancy. Referring to the storage port management table shown in FIG. 8A, the PORT 11 of the HOST 1 and the PORT 1 of the SYS 1 are directly connected, and the occupancy is LV4.
  • the device management module refers to the storage partition management table and instructs the storage to create a volume of the specified number and size on the RAID group included in the production storage partition.
  • the created LPAR instructs the storage SYS1 to access the created volume via the specified storage port PORT1.
  • records in the first and second lines of the volume management table shown in FIG. 11A are generated.
  • Example 2 will be described. At that time, differences from the first embodiment will be mainly described, and description of common points with the first embodiment will be omitted or simplified.
  • the APP management module 32100 performs APP requirement change processing.
  • the management server that manages the computer system automatically creates a storage partition based on a template that defines the amount of resources required for each business when it receives an APP input from the administrator to be constructed on the server. To do. However, even if the server and storage LPARs are created according to the template and the APP is constructed, it may be found that when the APP is actually operated, the APP performance requirements are not satisfied. For this reason, it is common to try the performance of the APP once in the test environment, and then change to the specifications of the logical partition for constructing the APP and then move to the production environment. At this time, by changing the amount of resources allocated to each APP, the balance between the storage partitions designed at the time of initial construction is lost, and as a result, the APP aggregation rate in the server and storage may be reduced.
  • the management server 30000 newly performs an APP requirement change process.
  • FIG. 18 shows an APP requirement change process executed by the device management module 32100 of the management server 30000 in the second embodiment. Others are the same as in the first embodiment.
  • 18A to 18C show flowcharts of the APP requirement changing process.
  • the device management module 32100 receives an input about correction of specifications required for the production APP to be constructed on the computer system from the administrator through the GUI provided by the GUI display processing module 32300 (step 63010).
  • step 63010 when the administrator changes the capacity or number of storage volumes required for the APP (step 63020), the device management module 32100 refers to the template management table 33200 and the host management table 33100, and sets the storage volume on the host.
  • the volume capacity required for the APP to be built is calculated, and it is confirmed whether or not the RAID group capacity of the production storage partition is exceeded (step 63030).
  • step 63040 If the RAID group capacity of the production storage partition is not exceeded (step 63040: No), the process proceeds to step 63090.
  • the device management module 32100 refers to the storage partition management table 23600 and the RAID group management table 23300, and determines the allocation destination of the unused RAID group from the development storage partition. It is confirmed whether the required volume capacity calculated in step 63030 can be satisfied by moving to the production storage partition (step 63050).
  • step 63060 If the required volume capacity cannot be satisfied (step 63060: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the processing (step 63080). .
  • step 63060 If the required volume capacity can be satisfied (step 63060: Yes), the device management module 32100 moves the unused RAID group from the development storage partition to the production storage partition until the required volume capacity calculated in step 63030 is satisfied. (Step 63070).
  • step 63010 when the administrator changes the number of ports required for APP (step 63090), the device management module 32100 refers to the host management table 33100, and the number of ports is changed in step 63010.
  • the host that plans to build the APP is specified (step 63100).
  • the device management module 32100 refers to the storage port management table 23200 and obtains a list of ports directly connected to the host identified in Step 63100 (Step 63110).
  • the device management module 32100 refers to the storage partition management table 23600 and the storage port management table 23200, and among the ports identified in step 63110, the ports belonging to the unused storage partition for development are used for development to production. It is confirmed whether the required number of ports can be satisfied by moving to the storage partition (step 63120).
  • step 63130 If the required number of ports can be satisfied (step 63130: Yes), the device management module 32100 moves an unused port from the development storage partition to the production storage partition (step 63140).
  • the device management module 32100 refers to the storage partition management table 23600 and the storage port management table 23200, and is unused among the ports of hosts other than those specified in step 63110. It is confirmed whether the required number of ports can be satisfied by using the ports belonging to the development storage partition (step 63150).
  • the device management module 32100 When the required number of ports cannot be satisfied (step 63160: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient through the GUI, and ends the processing (step 63080). .
  • the device management module 32100 refers to the LPAR management table 13400 and the server port management table 13300, and determines the unused port specified in step 63150 from the host specified in step 63100. It is confirmed whether there is an LPAR that can be migrated to the connected host (step 63170). If there is no LPAR that can be migrated (step 63180: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the processing (step 63080). ).
  • the device management module 32100 If there is a LPAR that can be migrated (step 63180: Yes), the device management module 32100 presents the plan for migrating the LPAR identified in step 63170 to the administrator through the GUI, and if the administrator permits, the host and storage To perform the LPAR transition. After the execution, the device management module 32100 rewrites the host management table 33100 and the storage port management table 23200 in accordance with the LPAR migration (step 63190).
  • step 63010 when the administrator changes the number of CPUs or memory size required for the APP (step 63200), the device management module 32100 refers to the host management table 33100, and in step 63010, the number of CPUs. Then, the host that plans to build the APP whose memory size has been changed is specified (step 63210). Then, the device management module 32100 refers to the host management table 33100 and the LPAR management table 13400, and determines the number of CPUs required for the development APP already built on the host and the production APP scheduled to be built on the host. The memory size is calculated, and it is confirmed whether the number of CPUs and the memory size of the host are exceeded (step 63220).
  • step 63230 If the number of CPUs and the memory size of the host are not exceeded (step 63230: No), the process proceeds to step 63290.
  • the device management module 32100 refers to the host management table 33100 and the LPAR management table 13400, and sets a host other than the host specified in step 63210. By moving some LPARs, it is confirmed whether the amount of resources necessary to define the LPAR to be initially created can be satisfied (step 63240).
  • step 63250 the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the processing (step 63080). .
  • the device management module 32100 can move from the host specified in step 63210 to the host specified in step 63240 with reference to the LPAR management table 13400 and the server port management table 13300. It is confirmed whether there is a valid LPAR (step 63260). At that time, the device management module 32100 gives priority to the migration of the development APP, but the production APP may be the migration target. If there is no LPAR that can be migrated (step 63270: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the processing (step 63080). ).
  • the device management module 32100 If there is a LPAR that can be migrated (step 63270: Yes), the device management module 32100 presents the plan for migrating the LPAR identified in step 63260 to the administrator through the GUI, and if the administrator permits, the host and storage To perform the LPAR transition. After the execution, the device management module 32100 rewrites the host management table 33100 and the storage port management table 23200 in accordance with the LPAR migration (step 63280).
  • the device management module 32100 reflects the specification input by the administrator in Step 63010 in the template management table 33200, and ends the process (Step 63290).
  • LPAR1 and LPAR2 of the LPARs shown in FIG. 5 have not yet been generated, the LPAR management tables of HOST1 and HOST2 are in the state shown in FIGS. 7C and 7B, and the storage port management table is 8B, the volume management table is in the state shown in FIG. 11B, the storage partition management table is in the state shown in FIG. 12, and the host management table is in the state shown in FIG. 13C.
  • the device management module receives input about correction of specifications required for the production APP to be built on the computer system from the administrator through the GUI.
  • the administrator corrects the number of CPUs required for LPAR from 16 to 20 for the template indicated by ID TP4 (APP1-OLAP-S) in the template management table shown in FIG. .
  • the device management module refers to the host management table and identifies a host that is planning to build an APP whose CPU number or memory size has been changed. Referring to the host management table shown in FIG. 13C, it can be seen that the host that is to construct the APP using the template indicated by the ID TP4 in the template management table is HOST1.
  • the device management module then refers to the host management table and the LPAR management table, and determines the number of CPUs and memory size required for the development APP already built on the host and the production APP scheduled to be built on the host. Calculate and confirm whether the number of CPUs or memory size of the host is exceeded.
  • the host management table shown in FIG. 13C it can be seen that the production APP to be built on the host requires 32 CPUs and 128 GB of memory.
  • the LPAR management table shown in FIG. 7C it can be seen that the development APP already built on the host requires four CPUs and 16 GB of memory.
  • HOST1 has only 40 CPUs, and it can be seen that if the number of CPUs required in TP4 is corrected from 16 to 20, the number of CPUs is insufficient.
  • the device management module refers to the host management table and the LPAR management table, and moves a part of the LPARs to a host other than the host, thereby satisfying the resource amount necessary to define the LPAR to be initially created.
  • the host management table shown in FIG. 13C it can be seen that the production APP to be constructed on the host requires 8 CPUs and 32 GB of memory.
  • the LPAR management table shown in FIG. 7A it can be seen that the development APP already constructed on the host requires four CPUs and 16 GB of memory. Therefore, it can be seen that the lack of the number of CPUs in HOST1 can be resolved by transferring LPAR3, which is an LPAR created for development on HOST1, to HOST2.
  • the device management module refers to the LPAR management table and the server port management table to check whether there is an LPAR that can be migrated from the host to the specified host.
  • LPAR3 on HOST1 can be migrated to host HOST2 by using PORT24, which is a port belonging to the development storage partition of HOST2.
  • the device management module presents a plan for migrating the LPAR to the administrator through the GUI, and instructs the host and storage to perform the LPAR migration if the administrator permits it.
  • the device management module rewrites the host management table and the storage port management table in accordance with the LPAR migration.
  • the LPAR management table of HOST2 has no record, and the LPAR management table of HOST2 is shown in FIG. 7D, the storage port management table is in the state of FIG. 8C, the volume management table of the storage SYS1 is in the state of FIG. 11C, and the host management table is in the state of FIG. 13D.
  • Example 3 will be described. At that time, the differences from the first and second embodiments will be mainly described, and the description of the common points with the first and second embodiments will be omitted or simplified.
  • hyper-converged infrastructure In recent years, computer systems in a form called hyper-converged infrastructure are becoming popular. This is a computer system in which a plurality of host computers are integrated and a virtual storage is constructed by using a host built-in disk without having a physical shared storage.
  • a virtual storage In a computer system, since an APP on a host frequently accesses an internal disk of another adjacent host, the speed of disk access can be increased by connecting the hosts with a dedicated high-speed line. Generally done.
  • FIG. 19 shows the configuration of the computer system and the configuration of the devices connected to the computer system in the third embodiment
  • FIG. 20 shows the management information newly provided in the management server in the third embodiment
  • the APP requirement change executed by the management server 30000 A conceptual diagram of the processing is shown in FIG.
  • the server port management table 13300, the storage port management table 23200, the CLPR management table 23400, and the storage port occupancy management table 33300 in the second embodiment are not present, and the RAID group management table 23300 is a host. It is assumed that it is stored on the management memory 13000 of the computer 10000.
  • the LPAR management table 13400 there is no information corresponding to the record 13450 and the record 13460, and only the CPU and the memory are allocated to each LPAR.
  • the storage partition management table 23600 information corresponding to the record 23630, the record 23650, and the record 23660 does not exist, and only a RAID group is assigned to each storage partition.
  • the assignment of the RAID group to each storage partition and the production APP to be created for each host are determined in advance by the administrator or by the management server 30000 corresponding to the storage partition creation process shown in FIG. Shall. At that time, it is necessary to arrange the LPAR and the volume so that the LPAR on the host does not access the virtual storage that does not exist on the host.
  • FIG. 19 is a diagram showing a connection configuration example of the host computer 10000 and the storage apparatus 20000.
  • the I / O ports of the host computer 10000 stored in the chassis 15000 are connected to each other via an internal network 47000 constructed by the built-in IP switch 17000.
  • the I / O ports of the host computer 10020 stored in the chassis 15010 are also connected to each other via the internal network 47010.
  • the host computer and the storage I / O port are connected by the built-in switch 17000.
  • the host computer I / O port only needs to be connected to each other. It may be connected via another medium such as an FC cable.
  • the HOST 1 port and the HOST 2, HOST 11, and HOST 12 ports are connected by a network 45000 via an IP switch 40000.
  • one or a plurality of RAID groups may be configured by using a plurality of storage units of HOST1 and HOST2 in the same server chassis.
  • one or a plurality of RAID groups may be configured using storage units of a plurality of HOSTs 11 and HOSTs 12 in the same server chassis.
  • FIG. 20 is a diagram showing a configuration example of the volume management table 23500 in the host 10000.
  • the volume management table 23500 includes a field 23510 for registering an identifier of a host on which the volume exists, a field 23520 for registering a volume ID serving as an identifier of each volume in the host, a field 23530 for registering the capacity of each volume, A field 23540 for registering a RAID group ID that is an identifier of the RAID group to which the volume belongs, a field 23590 for registering the ID of the allocation destination LPAR of each volume, and a field 23580 for registering the ID of the host on which the allocation destination LPAR exists , As a configuration item.
  • VOL1 exists across HOST1 and HOST2.
  • the capacity of VOL1 is 512 GB.
  • VOL1 belongs to RG1.
  • VOL1 is assigned to LPAR1 on HOST1.
  • FIG. 21 is a flowchart of the APP requirement changing process according to the third embodiment.
  • the process of step 63030 is changed to the process of step 63535
  • the process of step 63240 is changed to the process of step 63245
  • the processes of step 63080 to step 63190 are deleted
  • steps 64010 to The process of step 64070 has been added.
  • steps 64010 to The process of step 64070 has been added.
  • step 63010 when the administrator changes the capacity or number of storage volumes required for the APP (step 63020: Yes), the device management module 32100 refers to the template management table 33200 and the host management table 33100, The volume capacity required for the APP to be built on the host is calculated, and it is confirmed whether or not the RAID group capacity of the production storage partition is exceeded (step 63035).
  • step 63230 when the number of CPUs and the memory size of the host are exceeded (step 63230: Yes), the device management module 32100 refers to the host management table 33100 and the LPAR management table 13400, and identifies the host specified in step 63210. It is confirmed whether or not the amount of resources necessary to define the LPAR to be initially created can be satisfied by moving some LPARs to other hosts (step 63245).
  • the device management module 32100 refers to the host management table 33100 and the LPAR management table 13400, and step 63030 or step 63210 It is confirmed whether a part of LPAR can be moved to a host that does not share the same virtual storage as the host identified in step 4 to satisfy the amount of resources necessary to define the LPAR that is initially created (step 64010).
  • step 64020 If the required resource amount cannot be satisfied (step 64020: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the processing (step 64070). .
  • the device management module 32100 refers to the LPAR management table 13400 and the server port management table 13300, and from the host specified in step 63030 or step 63210, the host specified in step 64010 It is confirmed whether there is an LPAR that can be transferred to (step 64030). At that time, the device management module 32100 preferentially selects an LPAR with a development APP or an LPAR with an APP with a low frequency of access to a volume. If there is no LPAR that can be migrated (step 64040: No), the device management module 32100 notifies the administrator that the resources necessary for APP construction are insufficient via the GUI, and ends the process (step 64070). ).
  • the device management module 32100 If there is a LPAR that can be migrated (step 64040: Yes), the device management module 32100 presents the plan for migrating the LPAR identified in step 64030 to the administrator through the GUI, and if the administrator permits, the host and storage To perform the LPAR transition. After the execution, the device management module 32100 rewrites the host management table 33100 and the storage port management table 23200 in accordance with the LPAR migration (step 64050).
  • step 64060 the specification input by the administrator in step 63010 is reflected in the template management table 33200, and the process is terminated (step 64060).
  • the management server 30000 (or a system including the management server 30000 and the WEB browser activation server 35000) is an example of a management system for a computer system including a plurality of resources.
  • the management server 30000 includes a management port 31000 connected to the computer system, a storage unit 33000 for storing management information (33100 to 33400) including information related to a plurality of resources, and the management port 31000 and the storage unit 33000. And a processor 31100 connected thereto.
  • the plurality of resources include a plurality of logical volumes and a plurality of computer resources including a plurality of types of computer resources.
  • the computer system includes a host system including two or more computer resources included in a plurality of computer resources.
  • the management program 32000 is executed by the processor 31100.
  • Management program 32000 (A) Receive an application (APP) application designation from the administrator, (B) Refer to the management information, (C) Of the target LPAR 15000 that is the LPAR 15000 that executes the APP for the specified APP usage, according to the APP requirements associated with the specified APP usage, among the resource specifications that are exclusively allocated and the resource specifications that are commonly allocated Determine at least one of The resource specification is at least one of a resource type, an APP usage associated with the resource, and the number of resources.
  • the designation in (A) is a change for the designated APP usage among a plurality of APP uses (for example, combinations of information elements in the fields 33220, 33230 and 33240) represented by the template management table 33200 included in the management information.
  • the change designation is either a designation associated with a later APP requirement or a designation associated with a changed number of APPs for a designated APP usage.
  • the decision in (C) is a decision to add the shortage resource for the target LPAR 15000.
  • the computer system has a plurality of subsystems obtained by logically dividing the host system over a plurality of logical volumes.
  • the first subsystem among the plurality of subsystems is a production system that is a subsystem belonging to the production environment.
  • a second subsystem of the plurality of subsystems is a development system that is a subsystem belonging to the development environment.
  • a pool that is a set of one or more logical volumes is assigned to the target LPAR 15000.
  • a storage area is allocated from the pool allocated to the target LPAR 15000 to the virtual volume specified by the write request from the target LPAR 15000.
  • the determination in (C) is a determination to add a logical volume having insufficient capacity from the development system to the pool allocated to the target LPAR 15000.
  • the computer system includes two or more host systems including first and second host systems connected via a communication network.
  • the target LPAR 15000 is in the first host system.
  • the determination in (C) is a determination to allocate at least one of the dedicated allocation and the shared allocation of the resource in at least one of the two or more host systems for the target LPAR 15000.
  • Each of the first and second host systems has one or more logical volumes based on one or more storage devices included in the host system.
  • the determination in (C) is that the logical volume of the second host system is allocated to the target LPAR 15000 and the target LPAR 15000 is assigned to the first host system. To migrate to a second host system.
  • the computer system includes a host system and a storage system.
  • the host system has a plurality of host computers 10000 having a plurality of ports 14000.
  • the storage system has a plurality of ports 21000 connected to a plurality of ports 14000 and a plurality of logical volumes.
  • the plurality of resources include a plurality of ports 14000 and a plurality of ports 21000.
  • the connection relationship between the port 14000 and the port 21000 is a 1: 1 relationship.
  • An APP usage is associated with at least one of port 14000 and port 21000.
  • the port 14000 and the port 21000 that are exclusively allocated or shared to the LPAR 15000 is executed by the LPAR 15000. It is a port associated with the same APP usage as the APP usage of APP.
  • the decision in (C) Is added to the target LPAR 15000 from the target host computer 10000, which is the host computer 10000 that executes the target LPAR 15000.
  • the determination in (C) is associated with at least one of the port 14000 of the target host computer 10000 and the port 21000 connected to the port 14000. It is a decision to change the existing APP usage to the APP usage specified in (A). Further, when adding the insufficient resources from the target host computer 10000 to the target LPAR 15000, if the computer resources of the target host computer 10000 are insufficient, the determination in (C) is (x1) the destination host computer 10000 from the target host computer 10000. And (x2) at least one of the port 14000 of the destination host computer 10000 and the port 21000 connected to the port 14000, and (x2) the APP usage of the APP executed by the LPAR 15000.
  • Each of the production system and the development system includes at least a part of the plurality of host computers 10000, the designation in (A) is a designation associated with the changed APP requirement, and the changed APP When there is a shortage of computer resources for at least one of the same kind of computer resources between the requirement and the APP requirement before the change, and even if the shortage of resources is added to the target LPAR 15000 from the development system, The determination in (C) is the determination of (x1) and (x2).
  • the designation in (A) may be a designation associated with a set of APP uses and the number of APPs
  • the decision in (C) is a plurality of target LPARs 15000 that execute a plurality of APPs according to the designated APP uses and the number of APPs.
  • the resource specification may be determined for each of the above.
  • the management program 32000 logically divides the storage system (c1), and after (c2) and (c1), determines resource specifications to be allocated from the plurality of host computers 10000 for each of the plurality of target LPARs 15000. To do.
  • the management program 32000 runs out of resources even if the target computer resource specification is assigned to the port 21000 from the host computer 10000 having the port 14000 connected to the port 21000 among the specified APP uses. It associates APP usage that does not occur.
  • the target resource specification is a computer resource specification for the host system among the resource specifications conforming to the APP requirement corresponding to the associated APP usage.
  • the management program 32000 executes LPAR15000 initial placement processing including (A) to (C) and resource allocation change processing including (A) to (C).
  • the designation in (A) is a designation in which a set of APP usage and number of APPs is associated.
  • the determination in (C) is to determine a resource specification for each of a plurality of target LPARs 15000 that execute a plurality of APPs according to the designated APP usage and the number of APPs.
  • the designation in (A) is for the designation associated with the changed APP requirement for the designated APP usage among the plurality of APP uses represented by the template management table 33200, and for the designated APP usage.
  • the change designation is one of the designations associated with the number of APPs after the change.
  • the determination in (C) is a determination to change the resource specification of the target LPAR 15000 in accordance with the change specification.
  • the management program 32000 acquires the information acquired from the LPAR management table 13400 (for example, information acquired from the fields 13450 to 13470) and the storage port management table 23200 among the management information (33100 to 33400).
  • the information for example, information acquired from the fields 23240 to 23270
  • the correspondence between the storage port and the APP usage can be specified.
  • the above resource allocation is performed based on the management information stored in the management server by the management program of the management server.
  • the management program accepts designation of the APP usage from the administrator, and at least one of the following (Example 1) to (Example 8) based on the designated APP usage and management information. Can be realized.
  • the management information is information having a configuration that can realize at least one of the following (Example 1) to (Example 8). (Example 1)
  • an APP that issues an I / O request for a logical volume provided by a storage apparatus is executed.
  • the load characteristic of the LPAR is an I / O characteristic that is a characteristic of I / O to the logical volume provided to the LPAR.
  • the I / O characteristic of the LPAR is the I / O target data size associated with the I / O request issued in the LPAR. / O size is included.
  • Example 3 In (Example 1), for each of two or more LPARs, the I / O characteristics of the LPAR are the input of the usage of the APP executed by the LPAR, and the logical volume of the I / O destination by the APP And the characteristics determined based on the input of the application.
  • Example 4 In any one of (Example 1) to (Example 3), one or more controllers (CTLs) of one or more first interface devices (for example, server HBAs) in which a plurality of server resources are connected to the storage apparatus And one or more server ports of the one or more first interface devices.
  • CTLs controllers
  • the plurality of storage resources include one or more second interface devices connected to the host and one or more storage ports of one or more second interface devices (eg, storage HBA). Whether at least one of the CTL, the server port, the second interface device, and the storage port is occupied or shared for each of the two or more LPARs, the I / O size of the logical volume provided to the LPAR Depends on. (Example 5) In (Example 4), a different CTL, a different server port, and a different storage port are allocated to the LPAR provided with two or more logical volumes whose I / O size is assumed to be large. An interface device is assigned to be shared.
  • the second interface device to be shared and shared is shared by the LPAR to which the logical volume having the same I / O size is provided.
  • Example 6 In (Example 4) or (Example 5), an LPAR provided with a logical volume whose I / O size is large and an LPAR provided with a logical volume whose I / O size is small
  • Example 7 In (Example 4), different CTLs are assigned to two or more LPARs to which a logical volume having a small I / O size is provided, and a server port, a storage port, and a second interface device are provided. Shared allocation.
  • the second interface device and the storage port that are shared and shared are each shared by the LPAR to which the logical volume having the same I / O size is provided.
  • the computer system has a plurality of subsystems obtained by logically dividing from the host to the storage device.
  • the first subsystem among the plurality of subsystems is a production system that is a subsystem belonging to the production environment.
  • a second subsystem of the plurality of subsystems is a development system that is a subsystem belonging to the development environment.
  • the production system has two or more LPARs.
  • the computer system may be a system including a server device whose role is determined as a server in advance and a storage device whose role is determined as storage (or a storage controller) in advance, or is configured by a plurality of computers whose roles are not determined in advance.
  • the system may determine whether the role of each computer is a server, a storage (storage controller), or both by role setting from an administrator. When a computer has both server and storage roles, some of the resources of the computer are used as server resources, and another part of the resources of the computer are used as storage resources.
  • logical partitioning from a server system to a plurality of logical volumes is also performed based on logical partitioning based on at least one of I / O characteristics, APP usage, etc.
  • provision a plurality of types of resources respectively corresponding to a plurality of consecutive layers are logically divided (assignment control).
  • a plurality of hierarchies do not necessarily have to be strictly continuous. For example, even though the first and second resources are each a resource that can be logically divided, the third resource that is hierarchically between the first and second resources is a resource that cannot be logically divided. Sometimes it is.
  • the intermediate resource is not logically divided.
  • the resource is logically divided from the upper level to the lower level (for example, logical division applied to a plurality of logical volumes from the server system). Whether logical partitioning is possible or not may depend on at least one of the resource type and the storage system function.
  • 10000 host computer, 15000: server chassis, 20000: storage device, 30000: management server, 35000: WEB browser activation server, 40000: IP switch, 45000: network, 46000: PCIe bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

複数のリソースを含んだ計算機システムの管理システムは、APP用途の指定を受け、複数のリソースに関する情報を含んだ情報である管理情報を参照する。管理システムは、対象仮想サーバ(指定されたAPP用途のAPPを実行する仮想サーバ)について、指定されたAPP用途に関連付けられているAPP要件に従い、占有割当てされるリソーススペックと共有割当てされるリソーススペックとのうちの少なくとも1つを決定する。複数のリソースは、複数の論理ボリュームと、複数種類の計算機リソースを含んだ複数の計算機リソースとを含む。計算機システムは、複数の計算機リソースに含まれる2以上の計算機リソースを含んだサーバシステムを含む。リソーススペックは、リソースの種類、リソースに関連付けられたAPP用途、及び、リソースの数のうちの少なくとも1つである。

Description

計算機システムの管理システム及び管理方法
 本発明は、概して、計算機システムの管理に関する。
 サーバとストレージを有する計算機システムが知られている。このような計算機システムに複数のアプリケーションプログラム(APP)を集約することのニーズがある。いずれかのAPPの性能が別のいずれかのAPPの性能に影響を与えないよう、計算機システムのリソースを論理的に分割し、論理的に分割された異なるリソースで異なる複数のAPPを実行することが望ましい。特許文献1によれば、サーバシステムからストレージシステムにかけての論理分割が行われる。
日本特許公報4227035号
 サーバリソース(サーバシステムの計算機リソース)からストレージリソース(例えば論理ボリューム)にかけた論理分割を行うと、隣接する仮想サーバ(例えば論理区画(LPAR))の影響は抑止できる。しかし、割り当てられてたリソース以上のリソースが必要になっている場合であっても、他の仮想サーバに占有的に割り当てられたリソースを使うことはできない。全ての仮想サーバに関して、サーバリソースからストレージリソースにかけた論理分割を行うと、リソースの利用効率が低下する。
 また、論理分割に関して高度な専門知識を有していない管理者では、仮想サーバ間の性能競合を起こさない等の目的に応じた論理分割を実現することは困難である。
 複数のリソースを含んだ計算機システムの管理システムは、APP用途の指定を受け、複数のリソースに関する情報を含んだ情報である管理情報を参照する。管理システムは、対象仮想サーバ(指定されたAPP用途のAPPを実行する仮想サーバ)について、指定されたAPP用途に関連付けられているAPP要件に従い、占有割当てされるリソーススペックと共有割当てされるリソーススペックとのうちの少なくとも1つを決定する。複数のリソースは、複数の論理ボリュームと、複数種類の計算機リソースを含んだ複数の計算機リソースとを含む。計算機システムは、複数の計算機リソースに含まれる2以上の計算機リソースを含んだサーバシステムを含む。リソーススペックは、リソースの種類、リソースに関連付けられたAPP用途、及び、リソースの数のうちの少なくとも1つである。仮想サーバに占有割当てされたリソーススペックに属するリソースは、その仮想サーバに占有されるリソースである。仮想サーバに共有割当てされたリソーススペックに属するリソースは、その仮想サーバを含む少なくとも2つの仮想サーバに共有され得るリソースである。「仮想サーバ」の実現方式の一例として、LPARと、VM(Virtual Machine)とうちの少なくとも1つがあるが、それに代えて、ソフトウェアコンテナ等でもよい。以下、仮想サーバの一例としてLPARを対象として説明を行うが、当然ながら他の仮想サーバの実現方式が採用されてもよい。「仮想サーバ」の「サーバ」は、クライアントサーバモデルでのサーバの意味に限定されず、広義に計算機として解釈されてよい。
 APP集約率の向上と性能影響の防止の両方を実現する論理分割が管理者にとって簡単である。
情報システムの構成例を示す図である。 ホストコンピュータの構成例を示す図である。 ストレージ装置の構成例を示す図である。 管理サーバの構成例を示す図である。 ホストコンピュータとストレージ装置の接続構成例を示す図である。 サーバポート管理表の構成例を示す図である。 サーバポート管理表の構成例を示す図である。 LPAR管理表の構成例を示す図である。 LPAR管理表の構成例を示す図である。 LPAR管理表の構成例を示す図である。 LPAR管理表の構成例を示す図である。 ストレージポート管理表の構成例を示す図である。 ストレージポート管理表の構成例を示す図である。 ストレージポート管理表の構成例を示す図である。 RAIDグループ管理表の構成例を示す図である。 CLPR管理表の構成例を示す図である。 ボリューム管理表の構成例を示す図である。 ボリューム管理表の構成例を示す図である。 ボリューム管理表の構成例を示す図である。 ストレージパーティション管理表の構成例を示す図である。 ホスト管理表の構成例を示す図である。 ホスト管理表の構成例を示す図である。 ホスト管理表の構成例を示す図である。 ホスト管理表の構成例を示す図である。 テンプレート管理表の構成例を示す図である。 ストレージポート占有度管理表の構成例を示す図である。 ストレージパーティション作成処理の全体フロー例を示すフローチャートの一部である。 ストレージパーティション作成処理の全体フロー例を示すフローチャートの別の一部である。 ストレージパーティション作成処理の全体フロー例を示すフローチャートの残りである。 プロビジョニング処理の全体フロー例を示すフローチャートである。 実施例2に係るAPP要件変更処理の全体フロー例を示すフローチャートの一部である。 実施例2に係るAPP要件変更処理の全体フロー例を示すフローチャートの別の一部である。 実施例2に係るAPP要件変更処理の全体フロー例を示すフローチャートの残りである。 実施例3に係るホストコンピュータ接続構成例を示す図である。 実施例3に係るボリューム管理表の構成例を示す図である。 実施例3に係るAPP要件変更処理の全体フロー例を示すフローチャートの一部である。 実施例3に係るAPP要件変更処理の全体フロー例を示すフローチャートの別の一部である。 実施例3に係るAPP要件変更処理の全体フロー例を示すフローチャートの残りである。
 以下、幾つかの実施例を説明する。
 以下の説明では、「×××表」の表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていてもよい。すなわち、情報がデータ構造に依存しないことを示すために、「×××表」を「×××情報」と呼ぶことができる。また、以下の説明において、各表の構成は一例であり、1つの表は、2以上の表に分割されてもよいし、2以上の表の全部又は一部が1つの表であってもよい。
 また、以下の説明では、要素の識別情報として、ID又は名前が使用されるが、それに代えて又は加えて他種の識別情報が使用されてもよい。
 また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号(又は参照符号における共通符号)を使用し、同種の要素を区別して説明する場合は、要素識別情報(要素に割り振られたID又は名前等の識別情報)(又は参照符号)を使用することができる。
 また、以下の説明では、I/O(Input/Output)要求は、ライト要求又はリード要求であり、アクセス要求と呼ばれてもよい。
 また、以下の説明では、「記憶部」は、メモリを含んだ1以上の記憶デバイスでよい。例えば、記憶部は、主記憶デバイス(典型的には揮発性のメモリ)及び補助記憶デバイス(典型的には不揮発性の記憶デバイス)のうちの少なくとも主記憶デバイスでよい。
 また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶部(例えばメモリ)及び/又はインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主語がプロセッサとされてもよい。プログラムを主語として説明された処理は、プロセッサあるいはそのプロセッサを有する装置又はシステムが行う処理としてもよい。また、プロセッサは、制御部の一例であり、処理の一部または全部を行うハードウェア回路を含んでもよい。プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサ(例えばCPU)と記憶部を含み、記憶部はさらに配布プログラムと配布対象であるプログラムとを記憶してよい。そして、プログラム配布サーバのプロセッサが配布プログラムを実行することで、プログラム配布サーバのプロセッサは配布対象のプログラムを他の計算機に配布してよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
 また、以下の説明では、管理システムは、一以上の計算機で構成されてよい。具体的には、例えば、管理計算機が情報を表示する場合(具体的には、例えば、管理計算機が自分の表示デバイスに情報を表示する、或いは、管理計算機(例えば管理サーバ)が表示用情報を遠隔の表示用計算機(例えば管理クライアント)に送信する場合)、管理計算機が管理システムである。また、例えば、複数の計算機で管理計算機と同等の機能が実現されている場合は、当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機を含んでよい)が、管理システムである。管理計算機(例えば管理システム)は、表示システムを含むI/Oシステムに接続されたインターフェースデバイスと、記憶部(例えばメモリ)と、インターフェースデバイス及び記憶部に接続されたプロセッサとを有してよい。表示システムは、管理計算機が有する表示デバイスでもよいし、管理計算機に接続された表示用計算機でもよい。I/Oシステムは、管理計算機が有するI/Oデバイス(例えばキーボード及びポインティングデバイス、タッチパネル)でもよいし、管理計算機に接続された表示用計算機又は別の計算機でもよい。管理計算機が「表示用情報を表示する」ことは、表示システムに表示用情報を表示することであり、これは、管理計算機が有する表示デバイスに表示用情報を表示することであってもよいし、管理計算機が表示用計算機に表示用情報を送信することであってもよい(後者の場合は表示用計算機によって表示用情報が表示される)。また、管理計算機が情報を入出力するとは、管理計算機が有するI/Oデバイスとの間で情報の入出力を行うことであってもよいし、管理計算機に接続された遠隔の計算機(例えば表示用計算機)との間で情報の入出力を行うことであってもよい。情報の出力は、情報の表示であってもよい。
 また、計算機システムは、サーバシステム(1以上のサーバ装置)とストレージシステム(1以上のストレージ装置)のうちの少なくともサーバシステムを含むが、以下の説明では、「リソース」は、サーバシステム及びストレージシステムのうちの少なくとも1つが有するコンポーネントでよい。コンポーネントとして、物理的なコンポーネント(例えばCPU、メモリ、HBA(Host Bus Adapter)、ポート、ドライブ(物理記憶デバイス))もあれば、論理的なコンポーネント(例えばVOL(論理ボリューム))もある。また、サーバ及びストレージの外に存在するコンポーネント、例えば、サーバシステム及びストレージシステム間に存在する中継デバイス(例えば、ルーティング機能を有するスイッチ、或いはルーティング機能を有しないポート拡張デバイス)、サーバシステム間に存在する中継デバイス、及び、ストレージシステム間に存在する中継デバイスのいずれかも、「リソース」の一例として扱われてよい。また、そのような中継デバイスのコンポーネント(例えば、ポート、コア(コントローラ))も、「リソース」の一例として扱われてよい。
 また、以下の説明では、「XがY1に占有割当てされる」とは、X(例えばリソース)がY1(例えば第1のLPAR)に割り当てられY1と同種の他のオブジェクトであるY2(例えば第2のLPAR)に割り当てられないことを意味する。結果として、Xは、Y1に占有されることになる。一方、「XがY1に共有割当てされる」とは、XがY1に割り当てられるがY2にも割当て可能であることを意味する。結果として、Xは、Y1及びY2に共有され得る。
 また、以下の説明では、「占有リソース」は、占有割当てされたリソースであり、「共有リソース」は、共有割当てされたリソースである。
 図1~図5は、情報システムの構成例と、情報システム内の装置の構成例を示す。図6~図15は、管理表の構成例を示す。
 図1は、情報システムの物理的構成例を示す図である。
 情報システムは、ストレージ装置20000と、ホストコンピュータ10000と、サーバシャーシ15000と、管理サーバ30000と、WEBブラウザ起動サーバ35000とを有する。それらが、ネットワーク45000(例えばIP(Internet Protocol)スイッチ40000)、及び、PCIeバス46000によって接続される。計算機システムは、ストレージ装置20000(ストレージシステムの一例)と、複数のホストコンピュータ10000を含んだサーバシャーシ15000(サーバシステムの一例)とを含む。管理システムは、管理サーバ30000(計算機システムを管理する管理計算機の一例)と、WEBブラウザ起動サーバ35000(クライアントのような表示用計算機の一例)とのうちの少なくとも管理サーバ30000を含む。
 ホストコンピュータ10000は、サーバ装置(物理的なサーバ装置)の一例である。ホストコンピュータ1000は、例えば、クライアントコンピュータ(図示しない)からファイルのI/O要求を受信し、そのI/O要求に基づいてストレージ装置20000へのアクセスを実現する。ホストコンピュータ10000とストレージ装置20000は、PCIe(PCI-Express)バス46000によって接続されている。
 サーバシャーシ15000は、ホストコンピュータ10000を搭載している。サーバシャーシ15000の内部には、内蔵スイッチ17000(例えばIPスイッチ)を含んだ内部ネットワーク47000が存在する。
 管理サーバ30000は、ネットワーク45000を介して、計算機システム全体の運用を管理する。
 WEBブラウザ起動サーバ35000は、ネットワーク45000を介して、管理サーバ30000のGUI表示処理モジュール32300(図4参照)と通信し、WEBブラウザ上に各種情報を表示する計算機である。管理者はWEBブラウザ起動サーバ35000上のWEBブラウザに表示された情報を参照することで、計算機システム内の装置を管理する。ただし、管理サーバ30000と、WEBブラウザ起動サーバ35000は1台のサーバから構成されていてもよい。
 図2は、ホストコンピュータ10000の構成例を示す図である。
 ホストコンピュータ10000は、ネットワーク45000に接続するためのポート11000と、サーバシャーシ15000の内部ネットワーク47000に接続するための管理ポート11100と、プロセッサ(CPU)12000と、記憶部12100と、管理メモリ13000(メモリ以外の物理記憶デバイスを含んでもよい)と、PCIeバス46000に接続するためのI/Oポート14000と、I/Oポート14000に接続するコントローラ14200と、I/Oポート14000及びコントローラ14200を搭載したHBA14100とを有する。これらの要素は、内部バス等の回路を介して相互に接続される構成となっている。これらの要素のうちの少なくとも1つは、1又は複数存在してよい。1つのHBA14100に、I/Oポート14000及びコントローラ14200のうちの少なくとも1つが、1又は複数存在してよい。I/Oポート14000は、サーバポートの一例である。HBA14100が、サーバシステム(サーバ装置)が有しストレージシステムと通信するインターフェースデバイスの一例である。
 管理メモリ13000には、LPAR管理プログラム13200等のプログラムと、サーバポート管理表13300及びLPAR管理表13400等の情報とが格納される。管理メモリ13000は、メモリの一例である。
 LPAR管理プログラム13200は、ホストコンピュータ10000上のI/Oポート14000、プロセッサ12000、記憶部12100といった計算機リソースを論理分割することにより、LPAR15000を作成する。ただし、I/Oポート14000についてはLPAR間で共有してもよい。LPAR15000に割り当てられ得るリソースとして、I/Oポート14000、プロセッサ12000、記憶部12100、コントローラ14200及びHBA14100がある。記憶部12100の一例が、1以上のメモリでよい。
 LPAR15000は、PCIeバス46000を介してストレージ装置20000上の論理ボリュームを、記憶領域として認識する。また、各LPAR15000には、OS(オペレーティングシステム)12200と、APP12300と、が格納される。LPAR15000が、OS12200及びAPP12300を実行する。1つのLPAR12300が、1又は複数のAPP12300を実行する。
 また、図2で記載したLPAR管理プログラム13200の代わりに仮想化制御プログラムが利用されてよい。仮想化制御プログラムが、プロセッサ12000や記憶部(メモリ)12100といった物理リソースを抽象化又は標準化等して、VM(仮想マシン)に仮想的なハードウェアを提供する形態をとってもよい。その場合、以下の説明におけるLPARがVMに、仮想化制御プログラムがLPAR管理プログラムに相当する。
 図3は、ストレージ装置20000の構成例を示す図である。
 ストレージ装置20000は、PCIeバス46000を介してホストコンピュータ10000に接続するためのI/Oポート21000と、ネットワーク45000を介して管理サーバ30000に接続するための管理ポート21100と、各種管理表を格納するための管理メモリ23000と、データを格納するためのRAIDグループ24000と、データや管理メモリ内の管理表を用いた制御を実行するコントローラ25000と、ホストコンピュータからのI/O要求に従うI/O対象データを一時的に保持するキャッシュメモリ(キャッシュ)26000とを有する。これらの要素が内部バス等の回路を介して相互に接続される構成となっている。これらの要素のうちの少なくとも1つが、1又は複数存在してよい。
 管理メモリ23000(メモリ以外の物理記憶デバイスを含んでもよい)には、ディスク管理プログラム23100等のプログラムと、ストレージポート管理表23200、RAIDグループ管理表23300、CLPR管理表23400、ボリューム管理表23500及びストレージパーティション管理表23600等の情報が格納される。管理メモリ23000は、メモリの一例である。管理プログラムは管理ポート21100を経由して管理サーバ30000と通信が行われ、管理サーバに対しストレージ装置20000の情報(例えば、管理表23200、23300、23400、23500及び23600のうちの少なくとも一部であってストレージ装置2000の構成に関する情報)をコントローラ25000が提供する。I/Oポート21000が、ストレージポートの一例である。
 RAIDグループ24000は、1又は複数のディスクデバイス24200によって構成されている。複数のディスクデバイスによって構成されている場合、それらのディスクデバイスはRAID構成を組んでいてもよい。また、RAIDグループ24000に基づく論理記憶領域として、1又は複数の論理ボリューム24100がある。論理ボリューム24100は、ストレージリソースの一例であり、ホストコンピュータに提供されてもよいし、プールを構成してもよい。後者の場合、論理ボリューム24100に代えて、仮想ボリューム(複数の仮想領域(仮想的な記憶領域)で構成されており容量仮想化技術(典型的にはThin Provisioning)に従う論理ボリューム)が、ホストコンピュータに提供されてよい。「プール」は、論理的な記憶領域(例えば複数の論理ボリュームの集合)である。プールは、複数の実領域(実体的な記憶領域)で構成された記憶領域でよい(論理ボリューム24100が2以上の実領域に分割されてよい)。コントローラ25000が、ホストコンピュータから受信したライト要求が指定するアドレスが属する仮想領域(仮想ボリュームの仮想領域)に実領域が割り当てられていない場合、当該仮想領域にプールから実領域を割り当て、割り当てられた実領域に、そのライト要求に付随するライト対象データを書き込んでよい。
 なお、論理ボリューム24100は、1以上のディスクデバイス24200の記憶領域を用いて構成されるのであれば、RAID構成がなくてもよい。さらに、ディスクデバイスの代わりとしてフラッシュメモリデバイスなど他の物理記憶デバイスが採用されてもよい。
 コントローラ25000は、その内部に、ストレージ装置20000内の制御を行うプロセッサや、ホストコンピュータ10000との間でやりとりするデータを一時的に記憶する一時記憶領域を有してよい。コントローラ25000は、I/Oポート21000とRAIDグループ24000の間に介在し、両者の間でデータの受け渡しを行う。
 キャッシュ26000が論理分割されることにより1以上のCLPR26100が用意されてよい。「CLPR」は、キャッシュLPARの略である。論理ボリューム24100毎に1以上のCLPR26100が関連付けられてよい。これにより、キャッシュ26000における論理ボリューム間でのI/O性能の干渉を防ぐことができる。
 なお、ストレージ装置20000は、何れかのホストコンピュータに対して論理ボリューム(又は仮想ボリューム)を提供し、I/O要求(アクセス要求と呼ばれてもよい)を受信し、受信したI/O要求に応じてディスクデバイス24200への読み書きを行うストレージコントローラと、記憶領域を提供するディスクデバイスを含めば、図3及び上記説明以外の構成でもよく、例えば、ストレージコントローラと記憶領域を提供する記憶デバイスが別な筐体に格納されていてもよい。即ち、図3の例では管理メモリ23000と、コントローラ25000及び25110と、がストレージコントローラであってもよい。また、本明細書では、ストレージコントローラと記憶デバイスが同じ筐体に存在する場合または別な筐体を含む表現として、ストレージ装置がストレージシステムと呼ばれてもよい。
 図4は、管理サーバ30000の構成例を示す図である。
 管理サーバ30000は、ネットワーク45000に接続するための管理ポート31000と、プロセッサ31100と、記憶部33000と、後述する処理結果を出力するためのディスプレイ装置等の出力デバイス31200と、管理者が指示を入力するためのキーボード等の入力デバイス31300とを有する。これらの要素が内部バス等の回路を介して相互に接続される構成となっている。これらの要素のうちの少なくとも1つが、1又は複数存在してよい。管理ポート31000が、インターフェースデバイスの一例である。
 記憶部33000には、管理プログラム32000等のプログラムが格納される。管理プログラム32000は、装置管理モジュール32100と、装置通信モジュール32200と、GUI表示処理モジュール32300とを含む。なお、各モジュールは、記憶部メモリ33000のプログラムモジュールとして提供されているが、ハードウェアモジュールとして提供されるものであってもよい。また、管理プログラム32000は各モジュールの処理を実現できるのであれば、モジュールによって構成されなくてもよい。言い方を変えれば、以下の説明における各モジュールについての説明は管理プログラム32000に関する説明と置き換えてもよいということである。
 記憶部33000には、更に、ホスト管理表33100と、テンプレート管理表33200と、ストレージポート占有度管理表33300と、構成DB33400等の情報が格納される。構成DB33400には構成情報が格納される。これらの情報を含んだ情報の少なくとも一部が、管理情報の一例である。
 構成情報の例としては、装置情報取得モジュール32200が管理対象の各ホストコンピュータから収集してきたサーバポート管理表13200の各項目と、LPAR管理表13300の各項目と、管理対象の各ストレージから収集してきたストレージポート管理表23200の各項目と、RAIDグループ管理表23300の各項目と、CLPR管理表23400の各項目と、ボリューム管理表23500の各項目と、ストレージパーティション管理表23600の各項目と、である。なお、構成DB33400には、管理対象装置の全ての表、または表中の全ての項目が格納されなくてもよい。また、構成DB33400が格納する各項目のデータ表現形式及びデータ構造は、管理対象装置と同じでなくてもよい。また、管理プログラム32000が管理対象装置からこれら各項目を受信する場合、管理対象装置のデータ構造やデータ表現形式で受信してもよい。
 装置通信モジュール32200は、管理下の管理対象装置に定期的又は繰り返しアクセスし、管理対象装置内の各コンポーネントの構成情報を取得する。なお、当該実行指示を繰り返し出す場合は厳密に一定期間毎である必要は無く、繰り返しされしていればよい。
 また、装置通信モジュール32200は、管理者(ユーザの一例)からの要求に応じて、管理下の管理対象装置に対して構成変更を指示する。管理対象装置に対して構成変更を指示した後は、管理対象装置内の各コンポーネントの構成情報を再取得し、構成DB33400に格納された構成情報を最新の状態に保つ。
 GUI表示処理モジュール32300は、入力デバイス31300を介した管理者からの要求に応じ、取得した構成管理情報を、出力デバイス31200を介して表示する。なお、入力デバイスと出力デバイスは別々なデバイスでもよく、一つ以上のまとまったデバイスでもよい。
 なお、管理サーバ(管理計算機)は、例えば、入出力デバイスとして、ディスプレイとキーボードとポインタデバイス等を有しているが、これ以外の装置であってもよい。また、入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを用い、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機(例えば、WEBブラウザ起動サーバ35000)を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
 図5は、ホストコンピュータ10000とストレージ装置20000の接続構成例を示す図である。
 ホストコンピュータ10000のI/Oポート(PORT11、PORT12、…)と、ストレージ装置20000のI/Oポート(PORT1、PORT2、…)は、PCIeバス46000を介して相互に接続される構成となっている。なお、本実施例ではPCIeバスによりホストコンピュータ及びストレージのI/Oポート間が接続されているものとしているが、ホストコンピュータ及びストレージのI/Oポートが1対1に接続されていればよく、FCケーブルなど他の媒体経由で接続されていてもよい。ホストコンピュータ及びストレージのI/Oポートを接続するPCIeバスは1I/Oポートあたり1本である必要はなく、1つのPCIeバスを複数のI/Oポートが共有していてもよい。図5によれば、ホストコンピュータ(HOST1及びHOST2)の各々が、ホストコンピュータ10000の最上位リソースから最下位リソースにかけて論理分割されることより2つのホストサブシステムに分割されており、1つのホストサブシステムが、本番環境に属するホスト本番系であり、もう1つのサブシステムが、開発環境(テスト環境)に属するホスト開発系である。また、図5によれば、ストレージ装置(SYS1)も、ストレージ装置の最上位リソースから最下位リソースにかけて論理分割されることより2つのストレージサブシステムに分割されており、1つのストレージサブシステムが、本番環境に属するストレージ本番系であり、もう1つのサブシステムが、開発環境に属するストレージ開発系である。ストレージ本番系の一部とHOST1の本番系とを含んだLPAR(ストレージ本番系の一部とHOST1の本番系とが関連付けられたLPAR)と、ストレージ本番系の別の一部とHOST2の本場系とを含んだ別のLPAR(ストレージ本番系の別の一部とHOST2の本場系とが関連付けられた別のLPAR)があってよい。ホスト開発系及びストレージ開発系を含んだ開発系に属する全てのリソースは共有リソースでよいが、開発系に属する一部のリソースが占有リソースとされてもよい。
 以下の説明では、適宜、リソースの名称に代えて、リソースの識別子(図5に例示の識別子)を使用することがある。
 図6A及び図6Bは、それぞれ、ホストコンピュータ10000内のサーバポート管理表13300の構成例を示す図である。具体的には、図6Aは、HOST1のサーバポート管理表13300の構成例を示す。図6Bは、HOST2のサーバポート管理表13300の構成例を示す。
 サーバポート管理表13300は、ホストコンピュータのI/Oポート(サーバポートの一例)に関する情報を有する。具体的には、例えば、サーバポート管理表13300は、ホストコンピュータの識別子を登録するフィールド13310と、ホストコンピュータ内での各HBAの識別子を登録するフィールド13320と、HBA上に搭載されるI/Oポートのホストコンピュータ内での識別子を登録するフィールド13330と、I/Oポートと接続するコントローラのホストコンピュータ内での識別子を登録するフィールド13340と、各I/Oポートの割当て種別を登録するフィールド13350と、各コントローラの割当て種別を登録するフィールド13360と、を構成項目として含んでいる。
 図6Aによれば、例えば次のことが言える。HOST1がHBA11を有する。HBA11がPORT11を有する。PORT11は、CTL11及びCTL12に接続されている。PORT11、CTL11及びCTL12は、それぞれ占有リソースである。
 図7A~図7Dは、それぞれ、ホストコンピュータ10000内のLPAR管理表13400の構成例を示す図である。具体的には、図7A及び図7Cは、それぞれ、HOST1のLPAR管理表13400の構成例を示す。図7B及び図7Dは、それぞれ、HOST2のLPAR管理表13400の構成例を示す。
 LPAR管理表13400は、ホストコンピュータの計算機リソースが割り当てられたLPARに関する情報を有する。具体的には、例えば、LPAR管理表13400は、ホストコンピュータの識別子を登録するフィールド13410と、ホストコンピュータ内での各LPARの識別子を登録するフィールド13420と、各LPARに割り当てられたCPUの数を登録するフィールド13430と、各LPARに割り当てられたメモリのサイズを登録するフィールド13440と、各LPARに割り当てられたI/OポートのIDを登録するフィールド13450と、各LPARに割り当てられたコントローラのIDを登録するフィールド13460と、各LPARに搭載するAPPが本番用か開発用かを登録するフィールド13470と、を構成項目として含んでいる。
 図7Aによれば、例えば次のことが言える。HOST1の一部リソースが割り当てられたLPAR1がある。LPAR1には、16個のCPU、64GBのメモリ、PORT11、CTL11及びCTL12が割り当てられている。LPAR1は、本番系に存在する。LPAR1は、本番用APPを搭載している。
 図8A及び図8Bは、それぞれ、ストレージ装置20000内のストレージポート管理表23200の構成例を示す図である。
 ストレージポート管理表23200は、ストレージ装置のI/Oポート(ストレージポートの一例)に関する情報を有する。具体的には、例えば、ストレージポート管理表23200は、ストレージ装置の識別子を登録するフィールド23210と、ストレージ装置内でHBAの識別子となるHBAIDを登録するフィールド23420と、HBA上に存在するポートのストレージ装置内での識別子となるポートIDを登録するフィールド23430と、当該ポートと直結するホストコンピュータのポートのIDを登録するフィールド33240と、当該ポートが所属するホストコンピュータのIDを登録するフィールド33250と、各ポートの占有度を登録するフィールド23260と、各ポート上に作成可能なLPARの数を登録するフィールド23270と、を構成項目として含んでいる。
 図8Aによれば、例えば次のことが言える。ストレージ装置SYS1上のHBA1は、PORT1を有する。PORT1に、HOST1のPORT11が直結されている。ここで言う「直結」は、ホストコンピュータのI/Oポートとストレージ装置のI/Oポート
間の1:1の接続関係に従う接続を意味する。
 図9は、ストレージ装置20000内のRAIDグループ管理表23300の構成例を示す図である。
 RAIDグループ管理表23300は、RAIDグループに関する情報を有する。具体的には、例えば、RAIDグループ管理表23300は、ストレージ装置の識別子を登録するフィールド23310と、ストレージ装置内で各RAIDグループの識別子となるRAIDグループIDを登録するフィールド23320と、RAIDグループのRAIDレベルを登録するフィールド23330と、各RAIDグループの容量を登録するフィールド23340から構成されている。
 図9によれば、例えば次のことが言える。SYS1が、RAIDグループRG1を有する。RG1のRAIDレベルがRAID1であり、RG1の容量は10TBである。
 図10は、ストレージ装置20000内のCLPR管理表23400の構成例を示す図である。
 CLPR管理表23400は、CLPRに関する情報を有する。具体的には、例えば、CLPR管理表23400は、ストレージ装置の識別子を登録するフィールド23410と、ストレージ装置内で各CLPRの識別子となるCLPR IDを登録するフィールド23420と、各CLPRの容量を登録するフィールド23430から構成されている。
 図10によれば、例えば次のことが言える。SYS1が、CLPR1を有する。CLPR1の容量は100GBである。
 図11A~図11Cは、それぞれ、ストレージ装置20000内のボリューム管理表23500の構成例を示す図である。
 ボリューム管理表23500は、論理ボリュームに関する情報を有する(ホストコンピュータに仮想ボリュームが提供される場合、仮想ボリュームに関する情報を含んでもよい)。具体的には、例えば、ボリューム管理表23500は、ストレージ装置の識別子を登録するフィールド23510と、ストレージ装置内で各ボリュームの識別子となるボリュームIDを登録するフィールド23520と、各ボリュームの容量を登録するフィールド23530と、各ボリュームが所属するRAIDグループの識別子となるRAIDグループIDを登録するフィールド23540と、各ボリュームが使用するコントローラの識別子となるコントローラIDを登録するフィールド23550と、各ボリュームが使用するCLPRの識別子となるCLPR IDを登録するフィールド23560と、各ボリュームの接続先ポートのIDを登録するフィールド23570と、を構成項目として含んでいる。
 図11Aによれば、例えば次のことが言える。SYS1が、VOL1を有する。VOL1の容量は、512GBである。VOL1は、RG1に属する。VOL1へのアクセスに、CTL1及びCLPR1が利用される。VOL1を指定したI/O要求をPORT1を通じて受信した場合に、そのI/O要求に従うI/Oが行われる。
 図12は、ストレージ装置20000内のストレージパーティション管理表23600の構成を示す図である。
 ストレージパーティション管理表23600は、ストレージパーティション(ストレージLPAR)に関する情報を有する。具体的には、例えば、ストレージパーティション関連管理表23600は、ストレージ装置の識別子を登録するフィールド23610と、ストレージ装置内のストレージパーティションの識別子となるストレージパーティションIDを登録するフィールド23620と、ストレージパーティションと関連付けられたストレージ装置内のポートの識別子となるポートIDを登録するフィールド23630と、ストレージパーティションと関連付けられたストレージ装置内のRAIDグループの識別子となるRAIDグループIDを登録するフィールド23640と、ストレージパーティションと関連付けられたストレージ装置内のコントローラの識別子となるコントローラIDを登録するフィールド23650と、ストレージパーティションと関連付けられたストレージ装置内のCLPRの識別子となるCLPRIDを登録するフィールド23660と、ストレージパーティションの用途を登録するフィールド23670と、を構成項目として含んでいる。
 図12によれば、例えば次のことが言える。SYS1が、ストレージパーティションSP1を有する。SP1には、PORT1、PORT2、PORT3、PORT4、PORT5、PORT6、RG1、CTL1及びCLPR1が割り当てられている(関連付けられている)。
 図13A~図13Dは、それぞれ、管理サーバ30000内のホスト管理表33100の構成例を示す図である。
 ホスト管理表33100の少なくとも一部が、管理情報に含まれる情報の少なくとも一部の一例である。ホスト管理表33100は、ホストコンピュータに関する情報を有する。具体的には、例えば、ホスト管理表33100は、ホストコンピュータの識別子を登録するフィールド33110と、ホストコンピュータが持つプロセッサ(CPU)の数を登録するフィールド33120と、ホストコンピュータが持つメモリのサイズを登録するフィールド33130と、ホストコンピュータ上に構築予定のAPPに関する情報を登録するフィールド33140と、ホストコンピュータにおいて構築予定のAPP以外に利用可能なCPUの数を登録するフィールド33150と、ホストコンピュータにおいて構築予定のAPP以外に利用可能なメモリのサイズを登録するフィールド33160と、を構成項目として含んでいる。
 図13Aによれば、例えば次のことが言える。HOST1が、40個のプロセッサ(CPU)を有し、150GBのメモリを有する。
 図14は、管理サーバ30000内のテンプレート管理表33200の構成例を示す図である。
 テンプレート管理表33200の少なくとも一部が、管理情報に含まれる情報の少なくとも一部の一例である。テンプレート管理表33200は、APP用途に対応したAPP要件のテンプレートに関する情報を有する。具体的には、例えば、テンプレート管理表33200は、管理者がホストコンピュータ及びストレージ装置上にAPP実行環境を構築する際に指定するテンプレートの識別子を登録するフィールド33210と、テンプレートに対応するAPPの名称を登録するフィールド33220と、テンプレートに対応するAPPの用途を登録するフィールド33230と、テンプレートに対応するAPPのサイズを登録するフィールド33240と、APPをホスト上のLPARに構築する際に必要なCPU数を登録するフィールド33250と、APPをホスト上のLPARに構築する際に必要なメモリサイズを登録するフィールド33260と、APPを構築する際に必要なボリュームの用途を登録するフィールド33270と、ボリュームのサイズを登録するフィールド33280と、ボリュームの数を登録するフィールド33285と、APPを構築する際に必要なボリュームにホストからアクセスする際に用いるストレージポートの数を登録するフィールド33290と、ストレージポートの占有度を登録するフィールド33295と、を構成項目として含んでいる。
 本実施例では、「APP用途」は、OLTP(Online Transaction Processing)及びOLAP(Online Analytical Processing)のいずれであるか等の処理目的と、本番用及び開発用のいずれであるか等の実行環境と、APP名と、APPサイズとの組合せで定義されてよい。しかし、APP用途の定義は、このような定義に限らず、他種の方法でAPP用途が定義されてもよい。例えば、処理目的、実行環境、APP名及びAPPサイズのうちの一部がなくてもよい。また、例えば、処理目的、実行環境、APP名及びAPPサイズのうちの少なくとも1つに代えて又は加えて他種の観点が採用されてもよい。
 また、本実施例では、APP及びOSがLPAR15000上で実行されるため、「APP実行環境」と「LPAR」は同義であるが、LPARは、APP実行環境の一例である。APP及びOSがLPARを介さずにホストコンピュータ10000上で実行される場合、ホストコンピュータ10000がAPP実行環境である。
 図14によれば、例えば次のことが言える。OLTP向けでSサイズのAPP1を構築するためのテンプレートのIDは、TP1である。TP1が表すAPP要件は、次の通りである。すなわち、OLTP向けでSサイズのAPP1を実行するLPARに、APP1のために、4個のCPUと16GBのメモリが必要である。また、そのLPARに、APP1のために、データ用に128GBのボリューム1個と、ログ用に128GBのボリューム1個が必要である。APP1が本番用の場合、データ用ボリュームについて占有度LV4のストレージポート1個が必要であり、ログ用ボリュームについて占有度LV3のストレージポート1個が必要である。APP1が開発用の場合、データ用ボリューム及びログ用ボリュームの各々について占有度LV1のストレージポート1個が必要である。
 図15は、管理サーバ30000内のストレージポート占有度管理表33300の構成例を示す図である。
 ストレージポート占有度管理表33300の少なくとも一部が、管理情報に含まれる情報の少なくとも一部の一例である。ストレージポート占有度管理表33300は、占有度に関する情報を有する。具体的には、例えば、ストレージポート占有度管理表33300は、占有度の識別子を登録するフィールド33310と、占有度におけるホストHBA上のコントローラの占有の要否を登録するフィールド33320と、占有度におけるホスト、ストレージポートの占有の要否を登録するフィールド33330と、占有度においてホスト、ストレージポートを共有するLPAR数の上限を登録するフィールド33340と、占有度におけるストレージHBAの占有の要否を登録するフィールド33350と、を構成項目として含んでいる。「占有度」とは、ストレージポートに関する占有の度合のことであり、具体的には、ストレージポートの占有度は、下記(a)乃至(d)のうちの少なくとも1つ、
(a)ストレージポートを共有可能なLPARの数、
(b)そのストレージポートに接続されているサーバポートに接続されているコントローラ14200の割当て種別(占有/共有)、
(c)そのストレージポートに関連付け可能なボリュームの属性(例えば、占有リソース、或いは、共有リソースとしてのボリュームに関連付けられる他のストレージポートの占有度)、
(d)そのストレージポートを有するストレージHBA21200に関連付け可能なボリュームの属性、
により定義されてよい。言い換えれば、占有度に対応したポート利用形態が、上記(a)乃至(d)のうちの少なくとも1つにより定義されてよい。
 図15によれば、例えば次のことが言える。占有度LV2のストレージポートに接続されているサーバポートに接続されているコントローラ(ホストHBA上のコントローラ)は、LPAR間で共有可能である(共有リソースである)。また、そのストレージポート(及びそのストレージポートに接続されたサーバポート)には、占有度がLV2又はLV3の他のストレージポートに関連付けられるボリューム間で共有可能である。占有度LV2のストレージポートを共有可能なLPAR数は最大で2個である。占有度LV2のストレージポートを有するストレージHBAについては、占有度がLV2又はLV3の他のストレージポートに関連付けられるボリューム間でのみ共有可能である。
 なお、図14に示すテンプレート管理表と、図15に示すストレージポート占有度管理表は、例えば、上位管理者(ホストやストレージに関する十分な知識を持った管理者)により、ベストプラクティスとして事前に定義されていてよい。管理者(上位管理者又はその他の管理者)が計算機システムにAPP実行環境(LPAR)を構築する際は、管理サーバに対しテンプレート管理表33200に定義されたテンプレートの識別子を指定すればよい。
 以下、本実施例で行われる処理を説明する。
 図16A~図16Cは、ストレージパーティション作成処理のフローチャートを示す。
 装置管理モジュール32100は、GUI表示処理モジュール32300が提供するGUIを通じ、管理者から、計算機システム上に構築したいAPPのテンプレートとAPP数との指定を受ける(ステップ61010)。指定されたテンプレートの数は、1又は複数でよい。また、ステップ61010で指定されたテンプレートにおいて、APP用途は、本番用を含んだAPP用途である。指定されたテンプレート毎にAPP数が指定されてもよいし、指定された複数のテンプレートにAPP数は共通でもよい。テンプレートの指定は、APP用途の指定を意味する。テンプレートは、テンプレートID及びAPP用途のうちの少なくとも1つの指定(入力)により指定されてよい。
 次に、装置管理モジュール32100は、テンプレート管理表33200を参照し、ステップ61010で管理者が入力したテンプレートに従い、指定されたAPP用途及びAPP数のAPPを構築するために必要なボリューム容量を算出し(ステップ61020)、算出されたボリューム容量が、ストレージ装置全体のRAIDグループ容量を超過するか否かを確認する(ステップ61030)。
 ステップ61030の確認結果が肯定の場合(ステップ61030:Yes)、装置管理モジュール32100は、GUIを通じて、APP実行環境構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ61270)。
 ステップ61030の確認結果が否定の場合(ステップ61030:No)、装置管理モジュール32100は、ステップ61010で指定されたテンプレート毎に、以下の処理ループ(F)を行う。同じテンプレートを複数個指定された場合、以下のループ(F)は、指定された個数分繰り返される。以下、指定されたテンプレートのうち1つのテンプレートを例に取る(図16A~図16Cの説明において、「対象テンプレート」と言う)。
 装置管理モジュール32100は、テンプレート管理表33200を参照し、対象テンプレートに対応したAPP要件に従うストレージポートの数と占有度とを特定する(ステップ61050)。次に、装置管理モジュール32100は、ストレージポート占有度管理表33300を参照し、ステップ61050で特定した占有度に対応したポート利用形態を特定する(ステップ61060)。装置管理モジュール32100は、特定したポート利用形態が、「「占有」又は「同占有度のボリューム間で共有」」であるか或いは「共有」であるかを判断する(ステップ61070)。
 ステップ61060で特定したポート利用形態が「占有」又は「同占有度のボリューム間で共有」だった場合、装置管理モジュール32100は、ストレージポート管理表23200に定義されたHBA毎に、以下の処理ループ(G)を行う。なお、ステップ61060で特定したポート利用形態が「共有」だった場合、以下の処理ループ(G)において、ステップ61090の代わりにステップ61095が実行され、ステップ61180の代わりにステップ61185が実行される。以下、1つのストレージHBA21200を例に取る(処理ループ(G)の説明において、「対象ストレージHBA(G)」と言う)。
 装置管理モジュール32100は、第1の条件が満たされているか否かを確認する(ステップ61090)。第1の条件とは、対象ストレージHBA(G)が有する全てのストレージポートの占有度が、ステップ61050で特定した占有度と同じ、且つ、利用可能LPAR数が1以上であるストレージポートが、対象テンプレートに従うポート数(必要数)以上あることである。ステップ61060で特定したポート利用形態が「共有」だった場合は、装置管理モジュール32100は、第2の条件が満たされているか否かを確認する(ステップ61095)。第2の条件とは、対象ストレージHBA(G)に、ステップ61050で特定した占有度と同じ、且つ、利用可能LPAR数が1以上であるストレージポートがステップ61050で特定したポート数(必要数)以上あることである。
 対象ストレージHBA(G)について第1又は第2の条件が満たされている場合(ステップ61100:Yes)、装置管理モジュール32100は、テンプレート管理表33200を参照し、ステップ61040で特定したテンプレートにおいてLPARの作成に必要なCPU数とメモリサイズを特定する(ステップ61110)。次に、装置管理モジュール32100は、ストレージポート管理表23200を参照し、ステップ61090で特定したポートと直結しているホストのIDを取得する(ステップ61120)。次に、装置管理モジュール32100は、ホスト管理表33100を参照し、ステップ61120で特定したホスト上にステップ61110で特定したスペックのLPARを定義する余裕があるかを確認する(ステップ61130)。
 ホスト上にLPARを定義する余裕がある場合(ステップ61140:Yes)、装置管理モジュール32100は、ホスト管理表33100における、ステップ61120で特定したホストの利用予定CPU数及び利用予定メモリサイズに、ステップ61110で特定した所要CPU数及びメモリサイズをそれぞれ加算し、且つ、利用予定APPとして、対象テンプレートのIDを追加する(ステップ61150)。次に、装置管理モジュール32100は、ストレージポート管理表23200において、ステップ61080で特定したHBAの配下のポートのうち、ステップ61090で特定したポートについて、利用可能LPAR数を1だけ減算する(ステップ61160)。
 処理ループ(G)の繰り返し処理が終了しても、APPの作成予定ホスト(APPの配置先ホスト)が決まらなかった場合、装置管理モジュール32100は、ストレージポート管理表23200に定義されたストレージHBA毎に、処理ループ(H)を行う。以下、1つのストレージHBA21200を例に取る(処理ループ(H)の説明において、「対象ストレージHBA(H)」と言う)。
 装置管理モジュール32100は、第3の条件が満たされているか否かを確認する(ステップ61180)。第3の条件とは、対象ストレージHBA(H)が有する全てのストレージポートの占有度が全て未指定で、且つ、ストレージポートがステップ61050で特定したテンプレートに対するポート数(必要数)以上あることである。ステップ61260で特定したポート利用形態が「共有」だった場合は、装置管理モジュール32100は、第4の条件が満たされているか否かを確認するか否かを確認する(ステップ61185)。第4の条件とは、対象ストレージHBA(H)に、占有度が未指定のストレージポートが、ステップ61050で特定したポート数(必要数)以上あるかことである。
 対象ストレージHBA(H)について第3又は第4の条件が満たされている場合(ステップ61190:Yes)、装置管理モジュール32100は、テンプレート管理表33200を参照し、ステップ61040で特定したAPP用途に対応するLPARの作成に必要なCPU数とメモリサイズを特定する(ステップ61200)。次に、装置管理モジュール32100は、ストレージポート管理表23200を参照し、ステップ61180で特定したポートと直結しているホストのIDを取得する(ステップ61210)。次に、装置管理モジュール32100は、ホスト管理表33100を参照し、ステップ61210で特定したホスト上にステップ61200で特定したスペックのLPARを定義する余裕があるかを確認する(ステップ61220)。
 ホスト上にLPARを定義する余裕がある場合(ステップ61230:Yes)、装置管理モジュール32100は、ホスト管理表33100における、ステップ61210で特定したホストの利用予定CPU数及び利用予定メモリサイズに、それぞれ、ステップ61200で特定した所要CPU数及びメモリサイズを加算し、且つ、利用予定APPとして、対象テンプレートのIDを追加する(ステップ61240)。次に、装置管理モジュール32100は、ストレージポート管理表23200において、ステップ61180で特定したポートに対し占有度と利用可能LPAR数を設定する(ステップ61250)。当該ポートの占有度に対応するポート種別が「占有」の場合、装置管理モジュール32100は、そのポートをLPARが使用していれば、利用可能LPAR数を「0」とし、LPARがそのポートを未使用であれば利用可能LPAR数を「1」とする。当該ポートの占有度に対応するポート種別が「共有」の場合、装置管理モジュール32100は、そのポートをLPARが使用していれば利用可能LPAR数を「当該ポートの占有度に対応する共有可能LPAR数から1を引いた値」とし、そのポートをLPARが未使用であれば「当該ポートの占有度に対応する共有可能LPAR数」をそのまま利用可能LPAR数とする。
以上の処理を行った後、ステップ61170の繰り返し処理を終了する。
 処理ループ(H)が終了しても、APPの作成予定ホストが決まらなかった場合、装置管理モジュール32100は、ホスト管理表33100の利用予定CPU数、利用予定メモリサイズ及び利用予定APPと、ストレージポート管理表23200の占有度及び利用可能LPAR数とを削除する(ステップ61260)。そして、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ61270)。
 処理ループ(H)の繰り返し処理が終了した後、装置管理モジュール32100は、本番用及び開発用のストレージパーティションを定義する。その際、装置管理モジュール32100は、RAIDグループ管理表23300を参照し、ステップ61020で算出したボリューム容量を超過するまでRAIDグループを本番用のストレージパーティションに追加後、残ったRAIDグループを開発用のストレージパーティションに追加する(ステップ61280)。次に、装置管理モジュール32100は、ストレージポート管理表23200に定義されたポートのうち、占有度が入力済みのポートを本番用のストレージパーティションに追加し、未入力のポートを開発用のストレージパーティションに追加する(ステップ61290)。
 図17は、本番用APP実行環境のプロビジョニング処理のフローチャートを示す。本プロビジョニング処理は、ストレージパーティション作成処理を終え運用を開始した後に、APP実行環境が必要となり次第、管理者が随時実施するものである。なお、開発用APPについては、プロビジョニング時に本フローチャートは用いないものとする。
 装置管理モジュール32100は、GUI表示処理モジュール32300が提供するGUIを通じ、管理者から計算機システム上に構築したい本番用APPのテンプレートIDの指定を受ける(ステップ62010)。
 次に、装置管理モジュール32100は、ホスト管理表33100を参照し、作成予定APPに、管理者が入力したテンプレートのAPPが含まれるホストを検索する(ステップ62020)。該当するホストが存在しない場合(ステップ62030:No)、装置管理モジュール32100は、GUIを通じてエラーメッセージを管理者に表示し、処理を終了する。
 該当するホストが存在する場合(ステップ62030:Yes)、装置管理モジュール32100は、テンプレート管理表33200を参照し、ステップ62010で管理者が特定したテンプレートにおいて必要なLPARのスペックを確認した上で、 ステップ62020で特定したホストに対しLPAR作成を指示する(ステップ62040)。
 次に、装置管理モジュール32100は、テンプレート管理表33200を参照し、ステップ62010で特定したテンプレートにおいて必要なストレージボリュームの数とサイズ、及びポートの数と占有度を特定する(ステップ62050)。
 次に、装置管理モジュール32100は、ストレージポート管理表23200を参照し、ステップ62020で特定したホストと直結しているストレージポートを特定する(ステップ62060)。そして、装置管理モジュール32100は、ストレージポート管理表23200を参照し、ステップ62060で特定したポートのうち、占有度がステップ62050で特定した占有度と同じであるものを特定する(ステップ62070)。
 次に、装置管理モジュール32100は、ストレージパーティション管理表23600を参照し、本番用ストレージパーティションに含まれるRAIDグループ上に、ステップ62050で特定した数及びサイズのボリュームを作成するよう、ストレージ装置に設定を指示する(ステップ62080)。その上で、装置管理モジュール32100は、ステップ62040で作成したLPARから、ステップ62080で作成したボリュームに対し、ステップ62070で特定したストレージポートを経由してアクセスできるようストレージ装置に設定を指示する(ステップ62090)。
 以下、実施例1の一具体例として、管理者の入力に対しどのようにストレージパーティションが作成され且つプロビジョニングが実施されるかを説明する。ただし、本実施例では、HOST1が持つLPAR管理表と、SYS1が持つストレージパーティション管理表及びボリューム管理表には初期状態では何の情報も登録されていないものとする。また、SYS1が持つストレージポート管理表は図8Aの状態であり、管理サーバが持つホスト管理表は図13Aの状態であるものとする。
 装置管理モジュールは、GUIを通じ、管理者から計算機システム上に構築したい本番用APPのテンプレートとAPP作成数の指定を受ける。ここでは、管理者が図14に示すテンプレート管理表のTP4(APP1-OLAP-S)というIDで示されるテンプレートを2個、TP1(APP1-OLTP-S)及びTP5(APP2-OLTP-S)というIDで示されるテンプレートを各1個選択したケースを想定する。
 次に、装置管理モジュールは、テンプレート管理表を参照し、管理者が入力したテンプレートに沿ってAPPを構築するために必要なボリューム容量を算出し、ストレージ全体のRAIDグループ容量を超過するか確認する。図14に示すテンプレート管理表を参照すると、必要なボリューム容量の合計は1024GB(TP4×2)、256GB(TP1)、256GB(TP5)を合計した1536GBとなり、これは図9に示すRAIDグループ管理表のRAIDグループ容量の合計を下回る。
 次に、装置管理モジュールは、テンプレート管理表を参照し、管理者が指定したテンプレートにおいて定義されたAPP用途に対し必要なストレージポートの数と占有度を特定する。次に、装置管理モジュールは、ポート要件定義管理表を参照し、特定した占有度でのポート利用形態を特定する。例えば、テンプレートTP4(APP1-OLAP-S)については、図14に示すテンプレート管理表と図15に示すポート要件定義管理表を参照すると、1つのポートが必要で、ホストのHBAコントローラとホスト・ストレージのポートは占有で無ければならず、ストレージHBAは同じ占有度LV4のボリュームで共有する必要がある。
 次に、装置管理モジュールは、ストレージポート管理表に定義されたHBAに対し、当該HBAの配下の全てのポートの占有度が、全てLV4であるかどうかを確認する。しかし、該当するHBAは存在しないため、装置管理モジュールは、ストレージポート管理表に定義されたHBAに対し、当該HBAの配下の全てのポートの占有度が、全て未指定であるかどうかを確認する。図8Aに示すストレージポート管理表を参照すると、HBA1というIDで示されるHBAは配下の全てのポートの占有度が未指定である。
 次に、装置管理モジュールは、テンプレート管理表を参照し、テンプレートに定義されたLPARのCPU数とメモリサイズを特定する。図14に示すテンプレート管理表を参照すると、テンプレートTP4(APP1-OLAP-S)に対しては16個のCPUと64GBのメモリが必要である。次に、装置管理モジュールは、ストレージポート管理表を参照し、HBAのポートと直結しているホストのIDを取得する。図8Aに示すストレージポート管理表を参照すると、HBA1のPORT1というIDで示されるストレージポートと直結しているのはHOST1である。
 次に、装置管理モジュールは、ホスト管理表を参照し、特定したホスト上に特定したスペックのLPARを定義する余裕があるかを確認する。図13Aに示すホスト管理表を参照すると、HOST1に対してはまだ利用予定APPが定義されておらず、HOST1にLPARを作成し、それぞれSYS1のHBA1のPORT1を介してストレージアクセスするように設定すればよいことが分かる。
 そこで、装置管理モジュールは、ホスト管理表において、ホストの利用予定CPU数及び利用予定メモリサイズに、TP4の所要CPU数、メモリサイズを加算し、利用予定APPを追加する。次に、装置管理モジュールは、ストレージポート管理表において、特定したHBAであるHBA1の配下の全てのポートに対し占有度を設定する。以上の結果、テンプレートTP4(APP1-OLAP-S)で要件が示されるAPPを稼動させたいというユーザの入力に対し、図13Bに示すホスト管理表の1行目のレコードと、図8Bに示すストレージポート管理表の1行目~2行目のレコードが生成される。
 以上の処理を、テンプレート管理表のTP4(APP1-OLAP-S)というIDで示されるテンプレートの残り1個、TP1(APP1-OLTP-S)及びTP5(APP2-OLTP-S)というIDで示されるテンプレート各1個について繰り返した結果、最終的には図13Cに示すホスト管理表のレコードと、図8Bに示すストレージポート管理表の1行目~6行目のレコードが生成される。
 その後、装置管理モジュールは、本番用及び開発用のストレージパーティションを定義する。その際、装置管理モジュールは、RAIDグループ管理表を参照し、算出したボリューム容量を超過するまでRAIDグループを本番用のストレージパーティションに追加後、残ったRAIDグループを開発用のストレージパーティションに追加する。次に、装置管理モジュールは、ストレージポート管理表に定義されたポートのうち、占有度が入力済みのポートを本番用のストレージパーティションに追加し、未入力のポートを開発用のストレージパーティションに追加する。その結果、図12に示すストレージパーティション管理表の1行目~2行目のレコードが生成される。
 ストレージパーティション作成処理を終え運用を開始した後、APP実行環境が必要となり次第、管理者は、プロビジョニング処理を随時実施する。まず、管理者は、GUIを通じ、計算機システム上に構築したい本番用APPのテンプレートIDを指定する。ここでは、管理者が図14に示すテンプレート管理表のTP4(APP1-OLAP-S)というIDで示されるテンプレートを選択したケースを想定する。
 次に、装置管理モジュールは、ホスト管理表を参照し、作成予定APPに管理者が入力したテンプレートのAPPが含まれるホストを検索する。図13Cに示すホスト管理表を参照すると、HOST1上にTP4を作成予定となっていることが分かる。
 次に、装置管理モジュールは、テンプレート管理表を参照し、管理者が特定したテンプレートにおけるLPARのスペックを確認した上で、HOST1に対しLPAR作成を指示する。図14に示すテンプレート管理表を参照すると、TP4(APP1-OLAP-S)に対しては16個のCPUと64GBのメモリが必要である。HOST1に対しLPAR作成を指示した結果、図7Aに示すLPAR管理表の1行目のレコードが生成される。
 次に、装置管理モジュールは、テンプレート管理表を参照し、管理者が特定したテンプレートにおけるストレージボリュームの数とサイズ、及びポートの数と占有度を特定する。図14に示すテンプレート管理表を参照すると、TP4(APP1-OLAP-S)については、1つのポートが必要で、ポートの占有度はLV4で、必要なボリューム容量は512GB×2である。
 次に、装置管理モジュールは、ストレージポート管理表を参照し、ホストと直結しているストレージポートを特定する。そして、装置管理モジュールは、ストレージポート管理表を参照し、ポートのうち、占有度が特定した占有度と同じであるものを特定する。図8Aに示すストレージポート管理表を参照すると、HOST1のPORT11と、SYS1のPORT1が直結しており、その占有度はLV4である。
 次に、装置管理モジュールは、ストレージパーティション管理表を参照し、本番用ストレージパーティションに含まれるRAIDグループ上に特定した数及びサイズのボリュームを作成するようストレージに設定を指示する。その上で、作成したLPARから、作成したボリュームに対し、特定したストレージポートPORT1を経由してアクセスできるようストレージSYS1に設定を指示する。ストレージSYS1に対しボリューム作成及びパス設定を指示した結果、図11Aに示すボリューム管理表の1行目~2行目のレコードが生成される。
 実施例2を説明する。その際、実施例1との相違点を主に説明し、実施例1との共通点については説明を省略又は簡略する。
 実施例2では、装置管理モジュール32100によりAPP要件変更処理が行われる。
 実施例1において、計算機システムを管理する管理サーバは、管理者からサーバ上に構築したいAPPの入力を受けると、業務ごとに必要なリソース量を定義したテンプレートに基づき、自動的にストレージパーティションを作成する。しかし、テンプレート通りにサーバ及びストレージのLPARを作成し、APPが構築されても、実際にAPPを動作させるとAPPの性能要件を満たさないことが判明する場合もある。そのため、一度テスト環境でAPPの性能等を試した後、APPを構築する論理区画のスペックを変更したのち、本番環境へ移行することが一般的である。その際、各APPに割り当てるリソース量を変更することにより、初期構築時に設計していたストレージパーティション間のバランスが崩れ、結果としてサーバ及びストレージにおけるAPP集約率の低下が生じうる。
 このような課題を解決するため、実施例2では、管理サーバ30000は新たにAPP要件変更処理を実施する。実施例2において管理サーバ30000の装置管理モジュール32100が実施するAPP要件変更処理を図18に示す。なお、その他は実施例1と同様である。
 図18A~図18Cは、APP要件変更処理のフローチャートを示す。
 装置管理モジュール32100は、GUI表示処理モジュール32300が提供するGUIを通じ、管理者から計算機システム上に構築したい本番用APPに要求されるスペックの訂正について入力を受ける(ステップ63010)。
 ステップ63010において、管理者がAPPに要求されるストレージボリュームの容量、もしくは数を変更した場合(ステップ63020)、装置管理モジュール32100は、テンプレート管理表33200とホスト管理表33100を参照し、ホスト上に構築予定のAPPに求められるボリューム容量を算出し、本番用のストレージパーティションのRAIDグループ容量を超過するか確認する(ステップ63030)。
 本番用のストレージパーティションのRAIDグループ容量を超過しない場合(ステップ63040:No)、ステップ63090の処理へ移る。RAIDグループ容量を超過する場合(ステップ63040:Yes)、装置管理モジュール32100は、ストレージパーティション管理表23600とRAIDグループ管理表23300を参照し、未使用のRAIDグループの割当て先を開発用のストレージパーティションから本番用のストレージパーティションに移動することで、ステップ63030で算出した所要ボリューム容量を満たせるか確認する(ステップ63050)。
 所要ボリューム容量を満たせない場合(ステップ63060:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ63080)。
 所要ボリューム容量を満たせる場合(ステップ63060:Yes)、装置管理モジュール32100は、ステップ63030で算出した所要ボリューム容量を満たすまで、未使用のRAIDグループを開発用のストレージパーティションから本番用のストレージパーティションに移動する(ステップ63070)。
 次に、ステップ63010において、管理者がAPPに要求されるポートの数を変更した場合(ステップ63090)、装置管理モジュール32100は、ホスト管理表33100を参照し、ステップ63010でポート数が変更されたAPPを構築予定のホストを特定する(ステップ63100)。次に、装置管理モジュール32100は、ストレージポート管理表23200を参照し、ステップ63100で特定したホストと直結しているポートの一覧を取得する(ステップ63110)。
 次に、装置管理モジュール32100は、ストレージパーティション管理表23600とストレージポート管理表23200を参照し、ステップ63110で特定したポートのうち未使用かつ開発用のストレージパーティションに属するポートを、開発用から本番用のストレージパーティションに移動することで、所要ポート数を満たせるか確認する(ステップ63120)。
 所要ポート数を満たせる場合(ステップ63130:Yes)、装置管理モジュール32100は、未使用のポートを開発用のストレージパーティションから本番用のストレージパーティションに移動する(ステップ63140)。
 所要ポート数を満たせない場合(ステップ63130:No)、装置管理モジュール32100は、ストレージパーティション管理表23600とストレージポート管理表23200を参照し、ステップ63110で特定した以外のホストのポートのうち未使用かつ開発用のストレージパーティションに属するポートを使用することで、所要ポート数を満たせるか確認する(ステップ63150)。
 所要ポート数を満たせない場合(ステップ63160:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ63080)。
 所要ポート数を満たせる場合(ステップ63160:Yes)、装置管理モジュール32100は、LPAR管理表13400とサーバポート管理表13300を参照し、ステップ63100で特定したホストから、ステップ63150で特定した未使用ポートと接続するホストへ移行可能なLPARが存在するかを確認する(ステップ63170)。移行可能なLPARが存在しない場合(ステップ63180:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ63080)。
 移行可能なLPARが存在する場合(ステップ63180:Yes)、装置管理モジュール32100は、ステップ63170で特定したLPARを移行するプランを、GUIを通じて管理者に提示し、管理者が許可すればホスト及びストレージに指示してLPAR移行を実施させる。実施後、装置管理モジュール32100は、LPAR移行に合わせてホスト管理表33100とストレージポート管理表23200を書き換える(ステップ63190)。
 次に、ステップ63010において、管理者がAPPに要求されるCPUの数やメモリサイズを変更した場合(ステップ63200)、装置管理モジュール32100は、ホスト管理表33100を参照し、ステップ63010でCPUの数やメモリサイズが変更されたAPPを構築予定のホストを特定する(ステップ63210)。その上で、装置管理モジュール32100は、ホスト管理表33100とLPAR管理表13400を参照し、ホスト上に構築済みの開発用APPと、ホスト上に構築予定の本番用APPに求められるCPUの数やメモリサイズを算出し、当該ホストが持つCPUの数やメモリサイズを超過しないかを確認する(ステップ63220)。
 当該ホストが持つCPUの数やメモリサイズを超過しない場合(ステップ63230:No)、ステップ63290の処理へ移る。
 当該ホストが持つCPUの数やメモリサイズを超過する場合(ステップ63230:Yes)、装置管理モジュール32100は、ホスト管理表33100とLPAR管理表13400を参照し、ステップ63210で特定したホスト以外のホストに一部のLPARを移動することで、当初作成予定のLPARを定義するのに必要なリソース量を満たせるかを確認する(ステップ63240)。
 所要リソース量を満たせない場合(ステップ63250:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ63080)。
 所要リソース量を満たせる場合(ステップ63250:Yes)、装置管理モジュール32100は、LPAR管理表13400とサーバポート管理表13300を参照し、ステップ63210で特定したホストから、ステップ63240で特定したホストへ移行可能なLPARが存在するかを確認する(ステップ63260)。その際、装置管理モジュール32100は、開発用APPを移行することを優先するが、本番用APPを移行対象としてもよい。移行可能なLPARが存在しない場合(ステップ63270:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ63080)。
 移行可能なLPARが存在する場合(ステップ63270:Yes)、装置管理モジュール32100は、ステップ63260で特定したLPARを移行するプランを、GUIを通じて管理者に提示し、管理者が許可すればホスト及びストレージに指示してLPAR移行を実施させる。実施後、装置管理モジュール32100は、LPAR移行に合わせてホスト管理表33100とストレージポート管理表23200を書き換える(ステップ63280)。
 最後に、装置管理モジュール32100は、ステップ63010で管理者が入力したスペックをテンプレート管理表33200に反映し、処理を終了する(ステップ63290)。
 以下、実施例2の一具体例としてのAPP要件変更処理を説明する。ただし、本実施例では、図5に示すLPARのうちLPAR1とLPAR2のみがまだ生成されておらず、HOST1及びHOST2のLPAR管理表は図7C及び図7Bに示す状態にあり、ストレージポート管理表は図8Bに示す状態にあり、ボリューム管理表は図11Bの状態にあり、ストレージパーティション管理表は図12の状態にあり、ホスト管理表は図13Cに示す状態になっているものとする。
 装置管理モジュールは、GUIを通じ、管理者から計算機システム上に構築したい本番用APPに要求されるスペックの訂正について入力を受ける。ここでは、管理者が図14に示すテンプレート管理表のTP4(APP1-OLAP-S)というIDで示されるテンプレートについて、LPARに必要なCPUの数を16個から20個に訂正したケースを想定する。
 装置管理モジュールは、ホスト管理表を参照し、CPUの数やメモリサイズが変更されたAPPを構築予定のホストを特定する。図13Cに示すホスト管理表を参照すると、テンプレート管理表のTP4というIDで示されるテンプレートを用いてAPPを構築予定のホストはHOST1であることが分かる。
 その上で、装置管理モジュールは、ホスト管理表とLPAR管理表を参照し、ホスト上に構築済みの開発用APPと、ホスト上に構築予定の本番用APPに求められるCPUの数やメモリサイズを算出し、当該ホストが持つCPUの数やメモリサイズを超過しないかを確認する。図13Cに示すホスト管理表を参照すると、ホスト上に構築予定の本番用APPは32個のCPUと128GBのメモリを必要としていることが分かる。また、図7Cに示すLPAR管理表を参照すると、ホスト上に構築済みの開発用APPは4個のCPUと16GBのメモリを必要としていることが分かる。しかし、HOST1にはCPUが40個しかなく、TP4において必要なCPUの数を16個から20個に訂正すると、CPU数が不足することが分かる。
 次に、装置管理モジュールは、ホスト管理表とLPAR管理表を参照し、ホスト以外のホストに一部のLPARを移動することで、当初作成予定のLPARを定義するのに必要なリソース量を満たせるかを確認する。図13Cに示すホスト管理表を参照すると、ホスト上に構築予定の本番用APPは8個のCPUと32GBのメモリを必要としていることが分かる。また、図7Aに示すLPAR管理表を参照すると、ホスト上に構築済みの開発用APPは4個のCPUと16GBのメモリを必要としていることが分かる。そのため、HOST1上の開発用に作成されたLPARであるLPAR3をHOST2に移行することで、HOST1のCPU数の不足を解消できることが分かる。
 次に、装置管理モジュールは、LPAR管理表とサーバポート管理表を参照し、ホストから、特定したホストへ移行可能なLPARが存在するかを確認する。図8Bに示すストレージポート管理表を参照すると、HOST1上のLPAR3を、HOST2の開発用ストレージパーティションに属するポートであるPORT24を用いることで、ホストHOST2に移行することができる。
 次に、装置管理モジュールは、LPARを移行するプランを、GUIを通じて管理者に提示し、管理者が許可すればホスト及びストレージに指示してLPAR移行を実施させる。実施後、装置管理モジュールは、LPAR移行に合わせてホスト管理表とストレージポート管理表を書き換える。HOST1及びHOST2に対しLPARマイグレーションを指示し、LPAR移行に合わせてホスト管理表とストレージポート管理表を書き換えた結果、HOST2のLPAR管理表はレコードが存在しない状態になり、HOST2のLPAR管理表は図7Dに示す状態になり、ストレージポート管理表は図8Cの状態になり、ストレージSYS1が持つボリューム管理表は図11Cの状態になり、ホスト管理表は図13Dの状態になる。
 最後に、管理者が入力したスペックをテンプレート管理表に反映し、処理を終了する。
 実施例3を説明する。その際、実施例1及び2との相違点を主に説明し、実施例1及び2との共通点については説明を省略又は簡略する。
 実施例3では、管理プログラムの装置管理モジュール32100が実施する、別のストレージパーティション作成処理及びAPP要件変更処理について説明する。
 近年、ハイパーコンバージド・インフラストラクチャと呼ばれる形態の計算機システムが普及しつつある。これは、複数のホストコンピュータを統合し、物理的な共有ストレージを持たずにホストの内蔵ディスクにより仮想ストレージを構築している計算機システムである。計算機システムにおいては、あるホスト上のAPPが隣接する別のホストの内蔵ディスクにアクセスする頻度が高いため、ホスト間を専用の高速な回線で接続することで、ディスクアクセスの高速化を図ることが一般的に行われている。しかし、仮想ストレージを構築できるホストの数には上限があることが一般的である。仮想ストレージを共有しないホスト間は、IPスイッチを介してIPネットワークにより接続される。
 その場合、ホスト上のLPARが、当該ホスト上に存在しない仮想ストレージにアクセスすることを極力防ぐ必要がある。なぜなら、仮想ストレージを共有しないホスト間では、専用でないIPネットワークを介して通信を行うこととなり、仮想ストレージを共有する場合と比べてLPARからのボリュームアクセス速度が大きく低下するからである。
 上記の課題を解決するため、実施例3では管理サーバ30000における別のストレージパーティション作成処理及びAPP要件変更処理を変更する。実施例3における計算機システムの構成及び計算機システムに接続される装置の構成を図19に、実施例3において管理サーバが新たに具備する管理情報を図20に、管理サーバ30000が実施するAPP要件変更処理の概念図を図21に示す。
 なお、本実施例では実施例2までにおけるサーバポート管理表13300と、ストレージポート管理表23200と、CLPR管理表23400と、ストレージポート占有度管理表33300は存在せず、RAIDグループ管理表23300はホストコンピュータ10000の管理メモリ13000上に格納されているものとする。また、LPAR管理表13400においては、レコード13450とレコード13460に相当する情報は存在せず、各LPARにはCPUとメモリのみが割り当てられた状態となっているものとする。また、ストレージパーティション管理表23600においては、レコード23630とレコード23650とレコード23660に相当する情報は存在せず、各ストレージパーティションにはRAIDグループのみが割り当てられた状態となっているものとする。各ストレージパーティションに対するRAIDグループの割当てと、各ホストに作成予定の本番用APPは、管理者による手動か、図16に示したストレージパーティション作成処理に相当する管理サーバ30000の処理により予め決定されているものとする。その際、ホスト上のLPARが、当該ホスト上に存在しない仮想ストレージにアクセスすることのないよう、LPAR及びボリュームを配置する必要がある。
 図19は、ホストコンピュータ10000とストレージ装置20000の接続構成例を示す図である。
 シャーシ15000に格納されたホストコンピュータ10000のI/Oポートが、内蔵IPスイッチ17000が構築する内部ネットワーク47000を介して相互に接続される構成となっている。同様に、シャーシ15010に格納されたホストコンピュータ10020のI/Oポートも、内部ネットワーク47010を介して相互に接続される。なお、本実施例では内蔵スイッチ17000によりホストコンピュータ及びストレージのI/Oポート間が接続されているものとしているが、ホストコンピュータのI/Oポートが相互に接続されていればよく、PCIeバスやFCケーブルなど他の媒体経由で接続されていてもよい。一方、HOST1のポートと、HOST2、HOST11及びHOST12のポートは、IPスイッチ40000を介してネットワーク45000により接続される。また、同一サーバシャーシ内にある複数のHOST1及びHOST2の記憶部を用いて、1又は複数のRAIDグループが構成されてよい。同様に、同一サーバシャーシ内にある複数のHOST11及びHOST12の記憶部を用いて、1又は複数のRAIDグループが構成されてよい。
 図20は、ホスト10000内のボリューム管理表23500の構成例を示す図である。
 ボリューム管理表23500は、ボリュームが存在するホストの識別子を登録するフィールド23510と、ホスト内で各ボリュームの識別子となるボリュームIDを登録するフィールド23520と、各ボリュームの容量を登録するフィールド23530と、各ボリュームが所属するRAIDグループの識別子となるRAIDグループIDを登録するフィールド23540と、各ボリュームの割当先LPARのIDを登録するフィールド23590と、割当先LPARが存在するホストのIDを登録するフィールド23580と、を構成項目として含んでいる。
 図20によれば、次のことが言える。VOL1が、HOST1とHOST2にまたがって存在する。VOL1の容量は512GBである。VOL1は、RG1に属している。VOL1は、HOST1上のLPAR1に割り当てられている。
 図21に、実施例3に係るAPP要件変更処理のフローチャートを示す。実施例2では、実施例1と比べてステップ63030の処理がステップ63035の処理に、ステップ63240の処理がステップ63245の処理にそれぞれ変更され、ステップ63080~ステップ63190の処理が削除され、ステップ64010~ステップ64070の処理が追加されている。以下、変更のあった処理のみを説明する。
 ステップ63010において、管理者が、APPに要求されるストレージボリュームの容量、もしくは数を変更した場合(ステップ63020:Yes)、装置管理モジュール32100は、テンプレート管理表33200とホスト管理表33100を参照し、ホスト上に構築予定のAPPに求められるボリューム容量を算出し、本番用のストレージパーティションのRAIDグループ容量を超過するか確認する(ステップ63035)。
 ステップ63230において、当該ホストが持つCPUの数やメモリサイズを超過する場合(ステップ63230:Yes)、装置管理モジュール32100は、ホスト管理表33100とLPAR管理表13400を参照し、ステップ63210で特定したホスト以外のホストに一部のLPARを移動することで、当初作成予定のLPARを定義するのに必要なリソース量を満たせるかを確認する(ステップ63245)。
 ステップ63060またはステップ63250において所要リソース量を満たせないか、ステップ63270において移行可能なLPARが存在しない場合、装置管理モジュール32100は、ホスト管理表33100とLPAR管理表13400を参照し、ステップ63030またはステップ63210で特定したホストと同じ仮想ストレージを共有しないホストに、一部のLPARを移動することで、当初作成予定のLPARを定義するのに必要なリソース量を満たせるかを確認する(ステップ64010)。
 所要リソース量を満たせない場合(ステップ64020:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ64070)。
 所要リソース量を満たせる場合(ステップ64020:Yes)、装置管理モジュール32100は、LPAR管理表13400とサーバポート管理表13300を参照し、ステップ63030またはステップ63210で特定したホストから、ステップ64010で特定したホストへ移行可能なLPARが存在するかを確認する(ステップ64030)。その際、装置管理モジュール32100は、開発用APPを搭載したLPARや、ボリュームへのアクセス頻度の低いAPPを搭載したLPARを優先的に選択する。移行可能なLPARが存在しない場合(ステップ64040:No)、装置管理モジュール32100は、GUIを通じて、APP構築に必要なリソースが不足していることを管理者に通知し、処理を終了する(ステップ64070)。
 移行可能なLPARが存在する場合(ステップ64040:Yes)、装置管理モジュール32100は、ステップ64030で特定したLPARを移行するプランを、GUIを通じて管理者に提示し、管理者が許可すればホスト及びストレージに指示してLPAR移行を実施させる。実施後、装置管理モジュール32100は、LPAR移行に合わせてホスト管理表33100とストレージポート管理表23200を書き換える(ステップ64050)。
 最後に、ステップ63010で管理者が入力したスペックをテンプレート管理表33200に反映し、処理を終了する(ステップ64060)。
 以下、実施形態を総括する。なお、総括の説明において、適宜、実施形態の変形例等の新たな記載を追加することができる。
 管理サーバ30000(又は、管理サーバ30000とWEBブラウザ起動サーバ35000とを含んだシステム)が、複数のリソースを含んだ計算機システムの管理システムの一例である。管理サーバ30000は、計算機システムに接続された管理ポート31000と、複数のリソースに関する情報を含んだ情報である管理情報(33100~33400)を記憶する記憶部33000と、管理ポート31000及び記憶部33000に接続されたプロセッサ31100とを有する。複数のリソースは、複数の論理ボリュームと、複数種類の計算機リソースを含んだ複数の計算機リソースとを含む。計算機システムは、複数の計算機リソースに含まれる2以上の計算機リソースを含んだホストシステムを含む。プロセッサ31100により管理プログラム32000が実行される。管理プログラム32000が、
(A)APP(アプリケーションプログラム)用途の指定を管理者から受け、
(B)管理情報を参照し、
(C)指定されたAPP用途のAPPを実行するLPAR15000である対象LPAR15000について、指定されたAPP用途に関連付けられているAPP要件に従い、占有割当てされるリソーススペックと共有割当てされるリソーススペックとのうちの少なくとも1つを決定する。リソーススペックは、リソースの種類、リソースに関連付けられたAPP用途、及び、リソースの数のうちの少なくとも1つである。
 (A)での指定は、管理情報に含まれているテンプレート管理表33200が表す複数のAPP用途(例えば、フィールド33220、33230及び33240にある情報要素の組合せ)のうち指定されたAPP用途について変更後のAPP要件が関連付けられた指定と、指定されたAPP用途についての変更後のAPP数が関連付けられた指定とのうちのいずれかである変更指定である。変更指定に従う変更のために少なくとも1つの同種のリソースについてリソースが不足する場合、(C)での決定は、不足するリソースを対象LPAR15000について追加することの決定である。計算機システムが、ホストシステムから複数の論理ボリュームにかけて論理分割されることにより得られた複数のサブシステムを有する。記複数のサブシステムのうちの第1サブシステムが、本番環境に属するサブシステムである本番系である。複数のサブシステムのうちの第2サブシステムが、開発環境に属するサブシステムである開発系である。変更指定に従う変更のために少なくとも1つの同種のリソースについてリソースが不足する場合、(C)での決定は、本番系における対象LPAR15000について、不足するリソースを開発系から追加することの決定である。
 対象LPAR15000には、1以上の論理ボリュームの集合であるプールが割り当てられている。計算機システムでは、対象LPAR15000からのライト要求で指定される仮想ボリュームに、対象LPAR15000に割り当てられているプールから記憶領域が割り当てられるようになっている。同種のリソースが論理ボリュームの場合、(C)での決定は、不足する容量の論理ボリュームを、対象LPAR15000に割り当てられているプールに開発系から追加することの決定である。計算機システムは、通信ネットワークを介して接続された第1及び第2のホストシステムを含んだ2以上のホストシステムを含む。対象LPAR15000が第1のホストシステムにある。(C)での決定は、対象LPAR15000について、2以上のホストシステムのうちの少なくとも1つにおけるリソースを占有割当て及び共有割当てのうちの少なくとも1つの割当てをすることの決定である。第1及び第2のホストシステムの各々が、そのホストシステムが有する1以上の記憶デバイスに基づく1以上の論理ボリュームを有する。対象LPAR15000について論理ボリュームが第1のホストシステムに不足する場合、(C)での決定は、対象LPAR15000について第2のホストシステムの論理ボリュームを割り当てることの決定と、対象LPAR15000を第1のホストシステムから第2のホストシステムにマイグレーションすることの決定である。
 計算機システムは、ホストシステムとストレージシステムとを含む。ホストシステムは、複数のポート14000を有する複数のホストコンピュータ10000を有する。ストレージシステムは、複数のポート14000に接続されている複数のポート21000と、複数の論理ボリュームとを有する。複数のリソースは、複数のポート14000と複数のポート21000とを含む。ポート14000とポート21000間の接続関係は、1:1の関係である。ポート14000及びポート21000のうちの少なくとも1つにAPP用途が関連付けられる。複数のホストコンピュータ10000が有する複数の計算機リソースが割り当てられた複数のLPAR15000の各々について、そのLPAR15000に占有割当て又は共有割当てされるポート14000及びポート21000のうちの少なくとも1つは、そのLPAR15000が実行するAPPのAPP用途と同じAPP用途が関連付けられているポートである。(A)での指定が上記変更指定であり、且つ、その変更指定に従う変更のために少なくとも1つの同種の計算機リソースについて計算機リソースが不足する場合、(C)での決定は、不足する計算機リソースを、対象LPAR15000を実行するホストコンピュータ10000である対象ホストコンピュータ10000から対象LPAR15000について追加することの決定である。また、同種の計算機リソースがポート14000の場合、(C)での決定は、対象ホストコンピュータ10000のポート14000とそのポート14000に接続されているポート21000とのうちの少なくとも1つのポートに関連付けられているAPP用途を、(A)で指定されたAPP用途に変更することの決定である。また、不足するリソースを対象ホストコンピュータ10000から対象LPAR15000について追加すると対象ホストコンピュータ10000の計算機リソースが不足する場合、(C)での決定は、(x1)対象ホストコンピュータ10000から移動先のホストコンピュータ10000にLPAR15000を移動することの決定と、(x2)そのLPAR15000が実行するAPPのAPP用途を、移動先のホストコンピュータ10000のポート14000とそのポート14000に接続されているポート21000とのうちの少なくとも1つのポートに関連付けることの決定である。本番系及び開発系の各々が、複数のホストコンピュータ10000のうちの少なくとも一部を含み、(A)での指定が、変更後のAPP要件が関連付けられた指定であり、且つ、変更後のAPP要件と変更前のAPP要件との間でが少なくとも1つの同種の計算機リソースについて計算機リソースが不足しており、且つ、不足するリソースを開発系から対象LPAR15000に追加してもリソースが不足する場合、(C)での決定が、(x1)及び(x2)の決定である。
 (A)での指定は、APP用途及びAPP数の組が関連付けられた指定でよく、(C)での決定は、指定されたAPP用途及びAPP数に従う複数のAPPを実行する複数の対象LPAR15000の各々についてリソーススペックを決定することでよい。(C)において、管理プログラム32000は、(c1)ストレージシステムを論理的に分割し、(c2)(c1)の後に、複数の対象LPAR15000の各々について、複数のホストコンピュータ10000から割り当てるリソーススペックを決定する。(c1)において、管理プログラム32000は、ポート21000に、指定されたAPP用途のうち、そのポート21000に接続されているポート14000を有するホストコンピュータ10000から対象計算機リソーススペックが割り当てられてもリソース不足が生じないAPP用途を関連付けるようになっている。対象リソーススペックは、関連付けられたAPP用途に対応したAPP要件に従うリソーススペックのうちのホストシステムについての計算機リソーススペックである。ストレージパーティションを一旦作ると(ストレージシステムを一旦論理的に分割すると)、ストレージパーティションの変更が面倒である。例えば、RAIDグループ24000を別のストレージパーティションに動かす場合はRAIDグループ上のデータの移行が必要であり、故に、ストレージ装置20000に大きな負荷がかかる。そのため、ストレージパーティションについてはホストシステム(ホストコンピュータ10000)上にどんな業務(APP)を持ってくるかをある程度想定した上で、運用開始前に事前に定義することが好ましい。
 管理プログラム32000は、(A)~(C)を含むLPAR15000初期配置処理と、(A)~(C)を含むリソース割当て変更処理とを実行するようになっている。
 LPAR15000初期配置処理において、(A)での指定は、APP用途及びAPP数の組が関連付けられた指定である。(C)での決定は、指定されたAPP用途及びAPP数に従う複数のAPPを実行する複数の対象LPAR15000の各々についてリソーススペックを決定することである。
 リソース割当て変更処理において、(A)での指定は、テンプレート管理表33200が表す複数のAPP用途のうち指定されたAPP用途について変更後のAPP要件が関連付けられた指定と、指定されたAPP用途についての変更後のAPP数が関連付けられた指定とのうちのいずれかである変更指定である。(C)での決定は、変更指定に従い対象LPAR15000のリソーススペックを変更することの決定である。
 上述した説明において、管理プログラム32000は、管理情報(33100~33400)のうち、LPAR管理表13400から取得された情報(例えばフィールド13450~13470から取得された情報)と、ストレージポート管理表23200から取得された情報(例えばフィールド23240~23270から取得された情報)とを参照することで、ストレージポートとAPP用途との対応を特定できる。
 上述のリソース割当ては、管理サーバの管理プログラムにより、管理サーバが記憶する管理情報に基づいて行われる。具体的には、例えば、管理プログラムは、APP用途の指定を管理者から受け付け、指定されたAPP用途と管理情報とに基づいて、下記の(例1)~(例8)のうちの少なくとも1つを実現可能である。言い換えれば、管理情報が、下記の(例1)~(例8)のうちの少なくとも1つを実現可能なのような構成の情報である。
(例1)2以上のLPARの各々では、ストレージ装置により提供された論理ボリュームに対するI/O要求を発行するAPPが実行されるようになっている。2以上のLPARの各々について、そのLPARの負荷特性は、そのLPARへ提供された論理ボリュームへのI/Oの特性であるI/O特性である。
(例2)(例1)において、2以上のLPARの各々について、そのLPARのI/O特性は、そのLPARにおいて発行されるI/O要求に付随するI/O対象データのサイズであるI/Oサイズを含む。
(例3)(例1)において、2以上のLPARの各々について、そのLPARのI/O特性は、そのLPARで実行されるAPPの用途の入力と、そのAPPによるI/O先の論理ボリュームの用途の入力とに基づき決定された特性である。
(例4)(例1)~(例3)のいずれかにおいて、複数のサーバリソースが、ストレージ装置に接続される1以上の第1インターフェースデバイス(例えばサーバHBA)の1以上のコントローラ(CTL)と、1以上の第1インターフェースデバイスの1以上のサーバポートとを含む。複数のストレージリソースが、ホストに接続される1以上の第2インターフェースデバイスと、1以上の第2インターフェースデバイス(例えばストレージHBA)の1以上のストレージポートとを含む。CTL、サーバポート、第2インターフェースデバイス及びストレージポートのうちの少なくとも1つについて、2以上のLPARの各々に対して占有割当てか共有割当てかは、そのLPARへ提供された論理ボリュームのI/Oサイズに依存している。
(例5)(例4)において、I/Oサイズが大きいとされた2以上の論理ボリュームが提供されたLPARには、異なるCTL、異なるサーバポート、及び、異なるストレージポートが割り当てられ、第2インターフェースデバイスが共有割当てされる。共有割当てされる第2インターフェースデバイスは、同I/Oサイズの論理ボリュームが提供されたLPARに共有される。
(例6)(例4)又は(例5)において、I/Oサイズが大きいとされた論理ボリュームが提供されたLPARとI/Oサイズが小さいとされた論理ボリュームが提供されたLPARには、異なるCTL、及び、異なる第2インターフェースデバイスが割り当てられる。
(例7)(例4)において、それぞれI/Oサイズが小さいとされた論理ボリュームが提供された2以上のLPARには、異なるCTLが割り当てられ、サーバポート、ストレージポート及び第2インターフェースデバイスが共有割当てされる。共有割当てされる第2インターフェースデバイス及びストレージポートは、それぞれ、同I/Oサイズの論理ボリュームが提供されたLPARに共有される。
(例8)計算機システムが、ホストからストレージ装置にかけて論理分割されることにより得られた複数のサブシステムを有する。複数のサブシステムのうちの第1サブシステムが、本番環境に属するサブシステムである本番系である。複数のサブシステムのうちの第2サブシステムが、開発環境に属するサブシステムである開発系である。本番系が、2以上のLPARを有する。
 以上、幾つかの実施例を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施例にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。
 また、計算機システムは、予め役割がサーバとして決まったサーバ装置と予め役割がストレージ(又はストレージコントローラ)として決まったストレージ装置を含んだシステムでもよいし、予め役割が決まっていない複数の計算機で構成されていて管理者からの役割設定により各計算機の役割がサーバであるかストレージ(ストレージコントローラ)であるか或いは両方であるかが決められるシステムであってもよい。計算機が、サーバとストレージの両方の役割を有する場合、計算機の一部のリソースがサーバリソースとして使用され、計算機の別の一部のリソースがストレージリソースとして使用される。
 また、実施例(例えば図5)によれば、サーバシステムから複数の論理ボリュームにかけた論理分割も、I/O特性及びAPP用途等のうちの少なくとも1つに基づく論理分割(例えば本番系の論理分割)も、連続した複数の階層にそれぞれ対応した複数種類のリソースが論理分割(割当て制御)される。しかし、論理分割では、複数の階層が必ずしも厳密に連続している必要は無い。例えば、第1及び第2リソースは、それぞれ、論理分割可能な種類のリソースであっても、階層的に第1及び第2リソースの間にある第3リソースは、論理分割不可能な種類のリソースであることもある。この場合、上位から下位にかけたリソースの論理分割において、途中のリソースが論理分割されないことになる。しかし、このような場合も、実質的には、上位から下位にかけたリソースの論理分割(例えばサーバシステムから複数の論理ボリュームにかけた論理分割)と言うことができる。なお、論理分割可能であるか不可能であるかは、リソースの種類とストレージシステムの機能とのうちの少なくとも1つに依存してよい。
10000:ホストコンピュータ、15000:サーバシャーシ、20000:ストレージ装置、30000:管理サーバ、35000:WEBブラウザ起動サーバ、40000:IPスイッチ、45000:ネットワーク、46000:PCIeバス

Claims (15)

  1.  複数のリソースを含んだ計算機システムの管理システムであって、
     前記計算機システムに接続されたインターフェースデバイスと、
     前記複数のリソースに関する情報を含んだ情報である管理情報を記憶する記憶部と、
     前記インターフェースデバイス及び前記記憶部に接続されたプロセッサと
    を有し、
     前記複数のリソースは、複数の論理ボリュームと、複数種類の計算機リソースを含んだ複数の計算機リソースとを含み、
     前記計算機システムは、前記複数の計算機リソースに含まれる2以上の計算機リソースを含んだサーバシステムを含み、
     前記プロセッサは、
      (A)APP(アプリケーションプログラム)用途の指定を管理者から受け、
      (B)前記管理情報を参照し、
      (C)指定されたAPP用途のAPPを実行する仮想サーバである対象仮想サーバについて、前記指定されたAPP用途に関連付けられているAPP要件に従い、占有割当てされるリソーススペックと共有割当てされるリソーススペックとのうちの少なくとも1つを決定し、
     リソーススペックは、リソースの種類、リソースに関連付けられたAPP用途、及び、リソースの数のうちの少なくとも1つである、
    管理システム。
  2.  (A)での指定は、APP用途毎にAPP要件が関連付けられている情報であり前記管理情報に含まれているテンプレート情報が表す複数のAPP用途のうち指定されたAPP用途について変更後のAPP要件が関連付けられた指定と、指定されたAPP用途についての変更後のAPP数が関連付けられた指定とのうちのいずれかである変更指定であり、
     前記変更指定に従う変更のために少なくとも1つの同種のリソースについてリソースが不足する場合、(C)での決定は、不足するリソースを前記対象仮想サーバについて追加することの決定である、
    請求項1記載の管理システム。
  3.  前記計算機システムが、前記サーバシステムから前記複数の論理ボリュームにかけて論理分割されることにより得られた複数のサブシステムを有し、
     前記複数のサブシステムのうちの第1サブシステムが、本番環境に属するサブシステムである本番系であり、
     前記複数のサブシステムのうちの第2サブシステムが、開発環境に属するサブシステムである開発系であり、
     前記変更指定に従う変更のために少なくとも1つの同種のリソースについてリソースが不足する場合、(C)での決定は、前記本番系における前記対象仮想サーバについて、不足するリソースを前記開発系から追加することの決定である、
    請求項2記載の管理システム。
  4.  前記対象仮想サーバには、1以上の論理ボリュームの集合であるプールが割り当てられており、
     前記計算機システムでは、前記対象仮想サーバからのライト要求で指定される仮想ボリュームに、前記対象仮想サーバに割り当てられているプールから記憶領域が割り当てられるようになっており、
     前記同種のリソースが論理ボリュームの場合、(C)での決定は、不足する容量の論理ボリュームを、前記対象仮想サーバに割り当てられているプールに前記開発系から追加することの決定である、
    請求項3記載の管理システム。
  5.  前記計算機システムは、通信ネットワークを介して接続された第1及び第2のサーバシステムを含んだ2以上のサーバシステムを含み、
     前記対象仮想サーバが前記第1のサーバシステムにあり、
     (C)での決定は、前記対象仮想サーバについて、前記2以上のサーバシステムのうちの少なくとも1つにおけるリソースを占有割当て及び共有割当てのうちの少なくとも1つの割当てをすることの決定である、
    請求項1記載の管理システム。
  6.  前記第1及び第2のサーバシステムの各々が、そのサーバシステムが有する1以上の記憶デバイスに基づく1以上の論理ボリュームを有し、
     前記対象仮想サーバについて論理ボリュームが前記第1のサーバシステムに不足する場合、(C)での決定は、
      前記対象仮想サーバについて前記第2のサーバシステムの論理ボリュームを割り当てることの決定と、
      前記対象仮想サーバを前記第1のサーバシステムから前記第2のサーバシステムにマイグレーションすることの決定
    である、
    請求項5記載の管理システム。
  7.  前記計算機システムは、サーバシステムとストレージシステムとを含み、
     前記サーバシステムは、複数のサーバポートを有する複数のサーバ装置を有し、
     前記ストレージシステムは、前記複数のサーバポートに接続されている複数のストレージポートと、前記複数の論理ボリュームとを有し、
     前記複数のリソースは、前記複数のサーバポートと前記複数のストレージポートとを含み、
     サーバポートとストレージポート間の接続関係は、1:1の関係であり、
     サーバポート及びストレージポートのうちの少なくとも1つにAPP用途が関連付けられ、
     前記複数のサーバ装置が有する複数の計算機リソースが割り当てられた複数の仮想サーバの各々について、その仮想サーバに占有割当て又は共有割当てされるサーバポート及びストレージポートのうちの少なくとも1つは、その仮想サーバが実行するAPPのAPP用途と同じAPP用途が関連付けられているポートである、
    請求項1記載の管理システム。
  8.  (A)での指定は、APP用途毎にAPP要件が関連付けられている情報であり前記管理情報に含まれているテンプレート情報が表す複数のAPP用途のうち指定されたAPP用途について変更後のAPP要件が関連付けられた指定と、指定されたAPP用途についての変更後のAPP数が関連付けられた指定とのうちのいずれかである変更指定であり、
     前記変更指定に従う変更のために少なくとも1つの同種の計算機リソースについて計算機リソースが不足する場合、(C)での決定は、不足する計算機リソースを、前記対象仮想サーバを実行するサーバ装置である対象サーバ装置から前記対象仮想サーバについて追加することの決定である、
    請求項7記載の管理システム。
  9.  前記同種の計算機リソースがサーバポートの場合、(C)での決定は、前記対象サーバ装置のサーバポートとそのサーバポートに接続されているストレージポートとのうちの少なくとも1つのポートに関連付けられているAPP用途を、(A)で指定されたAPP用途に変更することの決定である、
    請求項8記載の管理システム。
  10.  不足するリソースを前記対象サーバ装置から前記対象仮想サーバについて追加すると前記対象サーバ装置の計算機リソースが不足する場合、(C)での決定は、
      (x1)前記対象サーバ装置から移動先のサーバ装置に仮想サーバを移動することの決定と、
      (x2)その仮想サーバが実行するAPPのAPP用途を、前記移動先のサーバ装置のサーバポートとそのサーバポートに接続されているストレージポートとのうちの少なくとも1つのポートに関連付けることの決定
    である、
    請求項7記載の管理システム。
  11.  前記計算機システムが、前記サーバシステムから前記ストレージシステムにかけて論理分割されることにより得られた複数のサブシステムを有し、
     前記複数のサブシステムのうちの第1サブシステムが、本番環境に属するサブシステムである本番系であり、
     前記複数のサブシステムのうちの第2サブシステムが、開発環境に属するサブシステムである開発系であり、
     前記本番系及び前記開発系の各々が、前記複数のサーバ装置のうちの少なくとも一部を含み、
     (A)での指定は、変更後のAPP要件が関連付けられた指定であり、
     前記変更後のAPP要件と変更前のAPP要件との間でが少なくとも1つの同種の計算機リソースについて計算機リソースが不足しており、且つ、不足するリソースを前記開発系から前記対象仮想サーバに追加してもリソースが不足する場合、(C)での決定が、(x1)及び(x2)の決定である、
    請求項10記載の管理システム。
  12.  (A)での指定は、APP用途及びAPP数の組が関連付けられた指定であり、
     (C)での決定は、前記指定されたAPP用途及びAPP数に従う複数のAPPを実行する複数の対象仮想サーバの各々についてリソーススペックを決定することである、
    請求項7記載の管理システム。
  13.  (C)において、前記プロセッサは、
      (c1)前記ストレージシステムを論理的に分割し、
      (c2)(c1)の後に、前記複数の対象仮想サーバの各々について、前記複数のサーバ装置から割り当てるリソーススペックを決定し、
     (c1)において、前記プロセッサは、ストレージポートに、指定されたAPP用途のうち、そのストレージポートに接続されているサーバポートを有するサーバ装置から対象計算機リソーススペックが割り当てられてもリソース不足が生じないAPP用途を関連付けるようになっており、
     前記対象リソーススペックは、関連付けられたAPP用途に対応したAPP要件に従うリソーススペックのうちの前記サーバシステムについての計算機リソーススペックである、
    請求項12記載の管理システム。
  14.  前記プロセッサは、(A)~(C)を含む仮想サーバ初期配置処理と、(A)~(C)を含むリソース割当て変更処理とを実行するようになっており、
     前記仮想サーバ初期配置処理において、
      (A)での指定は、APP用途及びAPP数の組が関連付けられた指定であり、
      (C)での決定は、前記指定されたAPP用途及びAPP数に従う複数のAPPを実行する複数の対象仮想サーバの各々についてリソーススペックを決定することであり、
     前記リソース割当て変更処理において、
      (A)での指定は、APP用途毎にAPP要件が関連付けられている情報であり前記管理情報に含まれているテンプレート情報が表す複数のAPP用途のうち指定されたAPP用途について変更後のAPP要件が関連付けられた指定と、指定されたAPP用途についての変更後のAPP数が関連付けられた指定とのうちのいずれかである変更指定であり、
      (C)での決定は、前記変更指定に従い前記対象仮想サーバのリソーススペックを変更することの決定である、
    請求項1記載の管理システム。
  15.  複数のリソースを含んだ計算機システムの管理方法であって、
     APP(アプリケーションプログラム)用途の指定を管理者から受け、
     前記複数のリソースに関する情報を含んだ情報である管理情報を参照し、
     指定されたAPP用途のAPPを実行する仮想サーバである対象仮想サーバについて、前記指定されたAPP用途に関連付けられているAPP要件に従い、占有割当てされるリソーススペックと共有割当てされるリソーススペックとのうちの少なくとも1つを決定し、
     前記複数のリソースは、複数の論理ボリュームと、複数種類の計算機リソースを含んだ複数の計算機リソースとを含み、
     前記計算機システムは、前記複数の計算機リソースに含まれる2以上の計算機リソースを含んだサーバシステムを含み、
     リソーススペックは、リソースの種類、リソースに関連付けられたAPP用途、及び、リソースの数のうちの少なくとも1つである、
    管理方法。
PCT/JP2015/080652 2015-10-30 2015-10-30 計算機システムの管理システム及び管理方法 WO2017072933A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/740,688 US20180189109A1 (en) 2015-10-30 2015-10-30 Management system and management method for computer system
PCT/JP2015/080652 WO2017072933A1 (ja) 2015-10-30 2015-10-30 計算機システムの管理システム及び管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/080652 WO2017072933A1 (ja) 2015-10-30 2015-10-30 計算機システムの管理システム及び管理方法

Publications (1)

Publication Number Publication Date
WO2017072933A1 true WO2017072933A1 (ja) 2017-05-04

Family

ID=58630947

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080652 WO2017072933A1 (ja) 2015-10-30 2015-10-30 計算機システムの管理システム及び管理方法

Country Status (2)

Country Link
US (1) US20180189109A1 (ja)
WO (1) WO2017072933A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824460B2 (en) 2017-12-28 2020-11-03 Fujitsu Limited Information processing apparatus, information processing method for reducing network traffic, and storage medium

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11132450B2 (en) * 2016-02-26 2021-09-28 Red Hat, Inc. Accessing file systems in a virtual environment
US10855464B2 (en) * 2016-11-23 2020-12-01 Vmware, Inc. Methods and apparatus to manage credentials in hyper-converged infrastructures
JP6763543B2 (ja) * 2016-12-16 2020-09-30 日本電気株式会社 管理装置、管理システム、管理装置の制御方法及びプログラム
US11188369B2 (en) 2018-11-26 2021-11-30 International Business Machines Corporation Interrupt virtualization
US11271804B2 (en) * 2019-01-25 2022-03-08 Dell Products L.P. Hyper-converged infrastructure component expansion/replacement system
US10740023B1 (en) 2019-01-29 2020-08-11 Dell Products L.P. System and method for dynamic application access-based mapping
US11442642B2 (en) 2019-01-29 2022-09-13 Dell Products L.P. Method and system for inline deduplication using erasure coding to minimize read and write operations
US10901641B2 (en) 2019-01-29 2021-01-26 Dell Products L.P. Method and system for inline deduplication
US10911307B2 (en) 2019-01-29 2021-02-02 Dell Products L.P. System and method for out of the box solution-level configuration and diagnostic logging and reporting
US10979312B2 (en) 2019-01-29 2021-04-13 Dell Products L.P. System and method to assign, monitor, and validate solution infrastructure deployment prerequisites in a customer data center
US10764135B2 (en) * 2019-01-29 2020-09-01 Dell Products L.P. Method and system for solution integration labeling
US20200241781A1 (en) 2019-01-29 2020-07-30 Dell Products L.P. Method and system for inline deduplication using erasure coding
US10972343B2 (en) 2019-01-29 2021-04-06 Dell Products L.P. System and method for device configuration update
US11372730B2 (en) 2019-07-31 2022-06-28 Dell Products L.P. Method and system for offloading a continuous health-check and reconstruction of data in a non-accelerator pool
US10963345B2 (en) 2019-07-31 2021-03-30 Dell Products L.P. Method and system for a proactive health check and reconstruction of data
US11328071B2 (en) 2019-07-31 2022-05-10 Dell Products L.P. Method and system for identifying actor of a fraudulent action during legal hold and litigation
US11609820B2 (en) 2019-07-31 2023-03-21 Dell Products L.P. Method and system for redundant distribution and reconstruction of storage metadata
US11775193B2 (en) 2019-08-01 2023-10-03 Dell Products L.P. System and method for indirect data classification in a storage system operations
US11416357B2 (en) 2020-03-06 2022-08-16 Dell Products L.P. Method and system for managing a spare fault domain in a multi-fault domain data cluster
US11301327B2 (en) 2020-03-06 2022-04-12 Dell Products L.P. Method and system for managing a spare persistent storage device and a spare node in a multi-node data cluster
US11119858B1 (en) 2020-03-06 2021-09-14 Dell Products L.P. Method and system for performing a proactive copy operation for a spare persistent storage
US11175842B2 (en) 2020-03-06 2021-11-16 Dell Products L.P. Method and system for performing data deduplication in a data pipeline
US11281535B2 (en) 2020-03-06 2022-03-22 Dell Products L.P. Method and system for performing a checkpoint zone operation for a spare persistent storage
US11418326B2 (en) 2020-05-21 2022-08-16 Dell Products L.P. Method and system for performing secure data transactions in a data cluster
US11392307B2 (en) * 2020-07-16 2022-07-19 Hitachi, Ltd. Data-protection-aware capacity provisioning of shared external volume

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217332A (ja) * 2007-03-02 2008-09-18 Nec Corp 仮想マシン管理システム、その方法及びそのプログラム
JP2010128911A (ja) * 2008-11-28 2010-06-10 Hitachi Ltd 仮想計算機の制御方法、仮想計算機の制御プログラム及び計算機装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040111513A1 (en) * 2002-12-04 2004-06-10 Shen Simon S. Automatic employment of resource load information with one or more policies to automatically determine whether to decrease one or more loads
US7610586B2 (en) * 2004-04-30 2009-10-27 Tvworks, Llc Resource manager for clients in an information distribution system
US7620953B1 (en) * 2004-10-05 2009-11-17 Azul Systems, Inc. System and method for allocating resources of a core space among a plurality of core virtual machines
JP4751265B2 (ja) * 2006-08-01 2011-08-17 株式会社日立製作所 リソース管理システム及びその方法
US7793101B2 (en) * 2006-10-19 2010-09-07 Novell, Inc. Verifiable virtualized storage port assignments for virtual machines
US8387041B2 (en) * 2008-01-09 2013-02-26 International Business Machines Corporation Localized multi-element processor resource sharing among logical partitions
US8146091B2 (en) * 2008-05-01 2012-03-27 International Business Machines Corporation Expansion and contraction of logical partitions on virtualized hardware
US9344401B2 (en) * 2009-02-04 2016-05-17 Citrix Systems, Inc. Methods and systems for providing translations of data retrieved from a storage system in a cloud computing environment
US8930539B1 (en) * 2009-03-26 2015-01-06 Symantec Corporation Method and apparatus for optimizing resource utilization within a cluster and facilitating high availability for an application
US8782238B2 (en) * 2010-11-05 2014-07-15 Verizon Patent And Licensing Inc. Server clustering in a computing-on-demand system
CN102958166B (zh) * 2011-08-29 2017-07-21 华为技术有限公司 一种资源分配方法及资源管理平台
US8856797B1 (en) * 2011-10-05 2014-10-07 Amazon Technologies, Inc. Reactive auto-scaling of capacity
US8924361B2 (en) * 2011-10-21 2014-12-30 Salesforce.Com, Inc. Monitoring entitlement usage in an on-demand system
US9058198B2 (en) * 2012-02-29 2015-06-16 Red Hat Inc. System resource sharing in a multi-tenant platform-as-a-service environment in a cloud computing system
US8756689B2 (en) * 2012-06-29 2014-06-17 Intel Corporation Method, system, and device for securely handling virtual function driver communications with a physical function driver
US8972990B2 (en) * 2012-08-29 2015-03-03 International Business Machines Corporation Providing a seamless transition for resizing virtual machines from a development environment to a production environment
WO2014080437A1 (en) * 2012-11-20 2014-05-30 Hitachi, Ltd. Computer system and virtual server migration control method for computer system
US9063782B2 (en) * 2013-04-04 2015-06-23 Harris Corporation Changing resource allocation among a plurality of concurrently executing applications in a portable multimode communication device in response to a change in usage scenario
US10129105B2 (en) * 2014-04-09 2018-11-13 International Business Machines Corporation Management of virtual machine placement in computing environments
CA2952886A1 (en) * 2014-06-20 2015-12-23 Cirba Ip Inc. System and method for optimizing placements of virtual machines on hypervisor hosts
US9961017B2 (en) * 2014-08-08 2018-05-01 Oracle International Corporation Demand policy-based resource management and allocation system
US9672054B1 (en) * 2014-12-05 2017-06-06 Amazon Technologies, Inc. Managing virtual machine migration
JP6349264B2 (ja) * 2015-01-19 2018-06-27 株式会社日立製作所 計算資源割当て方法およびシステム
JP6383861B2 (ja) * 2015-03-27 2018-08-29 株式会社日立製作所 ストレージ管理計算機

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217332A (ja) * 2007-03-02 2008-09-18 Nec Corp 仮想マシン管理システム、その方法及びそのプログラム
JP2010128911A (ja) * 2008-11-28 2010-06-10 Hitachi Ltd 仮想計算機の制御方法、仮想計算機の制御プログラム及び計算機装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824460B2 (en) 2017-12-28 2020-11-03 Fujitsu Limited Information processing apparatus, information processing method for reducing network traffic, and storage medium

Also Published As

Publication number Publication date
US20180189109A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
WO2017072933A1 (ja) 計算機システムの管理システム及び管理方法
US11663029B2 (en) Virtual machine storage controller selection in hyperconverged infrastructure environment and storage system
US8291412B2 (en) Method of checking a possibility of executing a virtual machine
US7730259B2 (en) Method, computer and system for managing a storage subsystem configuration
US20130290541A1 (en) Resource management system and resource managing method
US10248460B2 (en) Storage management computer
US20160156568A1 (en) Computer system and computer resource allocation management method
US20140282584A1 (en) Allocating Accelerators to Threads in a High Performance Computing System
US11709692B2 (en) Hot growing a cloud hosted block device
WO2015079528A1 (ja) 計算機システム及び計算機システムの制御方法
JP6055924B2 (ja) ストレージシステム及びストレージシステムの制御方法
US8898418B2 (en) Method, apparatus and computer program for provisioning a storage volume to a virtual server
JP6480955B2 (ja) 計算機システム、管理システム、及び、リソース管理方法
US8838768B2 (en) Computer system and disk sharing method used thereby
JP6448779B2 (ja) サーバストレージシステムを含んだ計算機システム
JP2012079245A (ja) 仮想計算機のボリューム割当て方法およびその方法を用いた計算機システム
JP6244496B2 (ja) サーバストレージシステムの管理システム及び管理方法
JP2011221634A (ja) 計算機システム、論理区画管理方法及び論理分割処理プログラム
WO2014148142A1 (ja) クラウド向け計算機システム
US11704426B1 (en) Information processing system and information processing method
US20230418648A1 (en) Efficient network device failover management for virtual machines
WO2016056050A1 (ja) 計算機システム及びそれの管理システム
JP2015230586A (ja) 情報処理装置、プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15907297

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15907297

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP