WO2013157094A1 - 管理システム及び管理方法 - Google Patents

管理システム及び管理方法 Download PDF

Info

Publication number
WO2013157094A1
WO2013157094A1 PCT/JP2012/060464 JP2012060464W WO2013157094A1 WO 2013157094 A1 WO2013157094 A1 WO 2013157094A1 JP 2012060464 W JP2012060464 W JP 2012060464W WO 2013157094 A1 WO2013157094 A1 WO 2013157094A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
storage device
access path
access
server
Prior art date
Application number
PCT/JP2012/060464
Other languages
English (en)
French (fr)
Inventor
佑樹 宮本
克利 朝木
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US13/576,479 priority Critical patent/US8850088B2/en
Priority to PCT/JP2012/060464 priority patent/WO2013157094A1/ja
Publication of WO2013157094A1 publication Critical patent/WO2013157094A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Definitions

  • the present invention relates to a management system for managing a computer system and a management method thereof.
  • a technology has been proposed in which a plurality of storage devices are virtualized into a single virtual storage device, which facilitates the operation and management thereof.
  • a host can access a virtual logical volume (hereinafter referred to as a “virtual volume”) provided by a virtual storage apparatus from any physical storage apparatus constituting the virtual storage apparatus. Further, data of one virtual volume is distributed and stored in a plurality of storage devices sharing the virtual volume.
  • a virtual volume virtual logical volume
  • data of one virtual volume is distributed and stored in a plurality of storage devices sharing the virtual volume.
  • access can be distributed so that the load is not concentrated on the control unit of one storage apparatus.
  • the free capacity of another storage device can be used even when the free capacity of one storage device is exhausted, there is an advantage that it is not necessary to manage the free space individually.
  • the virtual storage device configures a pool in which the storage areas of a plurality of storage devices are combined, creates a virtual volume based on the thin provisioning technology on the pool, and hosts the created virtual volume.
  • the host can access data on the virtual volume from any storage device that shares the virtual volume.
  • the storage device receives a read request from the host, it identifies which storage device the read target data is actually stored in, acquires the read target data from the specified storage device, and returns it to the host To do.
  • the storage device receives a write request from the host and it is a write request for new data, it selects the storage area for the new data from the free space of all storage devices sharing the pool. To do.
  • Patent Document 1 discloses a path management technique in a storage apparatus.
  • influence range the range of devices that are affected by the suspension of the storage device.
  • the administrator may judge the influence range to be larger than necessary.
  • the management system manages a computer system including a plurality of storage devices and a server that uses a virtual volume (virtual logical volume) shared by the plurality of storage devices.
  • the storage device of the management system stores access path information.
  • the access path information is one or more existing on the access path for each access path that is a path from the server to one storage apparatus, which is used when the server accesses each storage area of the plurality of storage apparatuses. This information indicates the storage device.
  • the control device of the management system accepts selection of the first storage device to be determined from among the plurality of storage devices, and there is a first access path including the first storage device based on the access path information A first determination is made as to whether or not to do so.
  • the control device uses the first access path when the server accesses the storage area allocated to the part used by the server of the virtual volume.
  • a second determination is made as to whether or not the access path is an active access path, and it is determined whether or not the first storage device can be stopped based on the result of the first determination or the result of the second determination.
  • FIG. 1 is a diagram illustrating an overview of the first embodiment.
  • FIG. 2 is a configuration diagram of an example of a computer system according to the first embodiment.
  • FIG. 3 is a configuration diagram of an example of a virtualization server according to the first embodiment.
  • FIG. 4 is a configuration diagram of an example of an operation VM management table according to the first embodiment.
  • FIG. 5 is a configuration diagram of an example of the VM data management table according to the first embodiment.
  • FIG. 6 is a configuration diagram of an example of the storage apparatus according to the first embodiment.
  • FIG. 7 is a configuration diagram of an example of a host access path management table according to the first embodiment.
  • FIG. 8 is a configuration diagram of an example of an inter-device access path management table according to the first embodiment.
  • FIG. 1 is a diagram illustrating an overview of the first embodiment.
  • FIG. 2 is a configuration diagram of an example of a computer system according to the first embodiment.
  • FIG. 3 is a configuration diagram of an example of a
  • FIG. 9 is a configuration diagram of an example of a virtual-real page correspondence management table according to the first embodiment.
  • FIG. 10 is a configuration diagram of an example of a management computer according to the first embodiment.
  • FIG. 11 is a configuration diagram of an example of a host management table according to the first embodiment.
  • FIG. 12 is a configuration diagram of an example of a host access path integrated management table according to the first embodiment.
  • FIG. 13 is a configuration diagram of an example of an inter-device access path integrated management table according to the first embodiment.
  • FIG. 14 is a configuration diagram of an example of a virtual-real page correspondence integrated management table according to the first embodiment.
  • FIG. 15 is a configuration diagram of an example of the VM data integration management table according to the first embodiment.
  • FIG. 16 is a configuration diagram of an example of an operation VM integrated management table according to the first embodiment.
  • FIG. 17 is a configuration diagram of an example of a VM data access path management table according to the first embodiment.
  • FIG. 18 is a configuration diagram of an example of the stop-time inaccessible path management table according to the first embodiment.
  • FIG. 19 is a configuration diagram of an example of an operation VM data storage destination management table according to the first embodiment.
  • FIG. 20 is a configuration diagram of an example of a migration management table that cannot be stopped according to the first embodiment.
  • FIG. 21 is a flowchart of the maintenance work support process according to the first embodiment.
  • FIG. 22 is a flowchart of a preliminary preparation process according to the first embodiment.
  • FIG. 23 is a flowchart of stop-time inaccessible path specifying processing according to the first embodiment.
  • FIG. 24 is a flowchart of the VM data access path specifying process according to the first embodiment.
  • FIG. 25 is a flowchart of stop access permission determination processing according to the first embodiment.
  • FIG. 26 is a flowchart of the active stop-time inaccessible path specifying process according to the first embodiment.
  • FIG. 27 is a flowchart of active / inactive determination processing according to the first embodiment.
  • FIG. 28 is a configuration diagram of an example of an initial screen according to the first embodiment.
  • FIG. 29 is a configuration diagram of an example of a first determination result display screen according to the first embodiment.
  • FIG. 30 is a configuration diagram of a first example of a second determination result display screen according to the first embodiment.
  • FIG. 31 is a configuration diagram of a second example of the second determination result display screen according to the first embodiment.
  • FIG. 32 is a configuration diagram of an example of a third determination result display screen according to the first embodiment.
  • FIG. 33 is a configuration diagram of an example of a management computer according to the second embodiment.
  • FIG. 34 is a configuration diagram of an example of a physical connection management table according to the second embodiment.
  • FIG. 35 is a configuration diagram of an example of a free space management table according to the second embodiment.
  • FIG. 36 is a configuration diagram of an example of a countermeasure plan management table according to the second embodiment.
  • FIG. 37 is a configuration diagram of an example of a countermeasure required volume management table according to the second embodiment.
  • FIG. 38 is a configuration diagram of an example of a volume capacity management table according to the second embodiment.
  • FIG. 39 is a flowchart of the maintenance work support process according to the second embodiment.
  • FIG. 40 is a flowchart of the countermeasure specifying process according to the second embodiment.
  • FIG. 41 is a flowchart of the countermeasure required volume specifying process according to the second embodiment.
  • FIG. 42 is a flowchart of countermeasure plan identification processing according to the second embodiment.
  • FIG. 43 is a configuration diagram of an example of a fourth determination result display screen according to the second embodiment.
  • the information of the present invention will be described using an expression such as “aaa table”.
  • the information may be expressed using a data structure other than a table, list, DB, queue, or the like. Therefore, the “aaa table” or the like may be referred to as “aaa information” to indicate that it does not depend on the data structure.
  • program may be used as the subject. However, since the program uses a memory and a communication port (SAN port, LAN port) to perform processing determined by being executed by the processor, The description may be based on the processor. Further, the processing disclosed with the program as the subject may be processing performed by a computer such as a management computer. Further, part or all of the program may be realized by dedicated hardware. Various programs may be installed in each computer by a program distribution server or a computer-readable storage medium.
  • a set of one or more computers that manage a computer system and display information for display may be referred to as a management system.
  • the management computer displays display information
  • the management computer is a management system
  • a combination of the management computer and the display computer is also a management system.
  • a plurality of computers may realize processing equivalent to that of the management computer.
  • the plurality of computers if the display computer performs the display, display (Including computers) is the management system.
  • FIG. 1 is a diagram for explaining the outline of the first embodiment.
  • the management system (the management computer 1 and the display computer 10) manages a computer system including a virtualization server SV serving as one or more hosts and one or more storage devices (also simply referred to as “storage”) ST. Do.
  • an administrator who is an operator of the management system instructs a storage device ST (first storage) to be stopped (determination target) to be stopped for maintenance work, and the management computer 1 uses the storage device ST.
  • An influence range when the device ST is stopped is specified.
  • the management computer 1 first uses the configuration information of the storage apparatus ST to use the virtual server SV to each storage apparatus ST, which is used when the virtualization server SV accesses each storage apparatus ST sharing the virtual volume 8.
  • Path hereinafter referred to as “VM data access path” or simply “access path”
  • access path when stopped an access path that becomes unavailable when the storage device ST to be stopped is stopped. It is determined whether or not (first access path) exists.
  • the management computer 1 uses the setting information of the host (virtualization server SV) to determine whether the inaccessible path at stop is active, that is, the host is stopped. It is determined whether or not an inaccessible path is actually used. If there is no inaccessible path at stop or there are inaccessible paths at stop, but all of the inaccessible paths at stop are inactive, the management computer 1 determines that the storage device ST to be stopped can be stopped. To do. When there is an active stop-inaccessible path, the management computer 1 determines that the storage device ST to be stopped cannot be stopped. Thereafter, the management computer 1 informs the administrator by displaying the determination result on the display computer 10.
  • One or more nodes in the access path may be one or more storage devices.
  • the management computer 1 determines that the storage device ST to be stopped can be stopped, the management computer 1 asks the administrator whether to continue the maintenance work.
  • the management computer 1 actually stops the storage device ST to be stopped and performs the maintenance work.
  • the management computer 1 is restricted by the presence of an inactive stop-time inaccessible path when the stop target storage apparatus ST is stopped when all the inactive paths at the time of stop are inactive.
  • an operation related to a computer system configuration change for example, a change in the configuration of the storage device ST, a change in the setting of the virtualization server SV, etc.
  • the management computer 1 When the management computer 1 informs the administrator of the determination result, the management computer 1 also informs the administrator of the contents of the operation restriction. The administrator confirms the operation restrictions, determines whether or not they are acceptable, and if so, instructs the management computer 1 to perform maintenance work.
  • the computer system includes two virtualization servers SV, ie, a virtualization server 1 and a virtualization server 2, and three storage apparatuses ST including a storage 1, a storage 2, and a storage 3. .
  • the virtualization server 1, the virtualization server 2, the storage 1, the storage 2, and the storage 3 are connected to each other via a storage area network (SAN) 41.
  • the storage 1 and the storage 2 and the storage 2 and the storage 3 are connected to each other via a dedicated line 43.
  • Data communication between the virtualization server SV and the storage apparatus ST is performed via the SAN 41.
  • data communication between the storages ST is performed via the dedicated line 43.
  • Data communication between the storages ST (storage 1 and storage 3) that are not directly connected via the dedicated line 43 is performed via another storage ST (storage 2) between them.
  • VM data Data (hereinafter referred to as “VM data”) 72 used for each VM 71 is stored on the virtual volume 8.
  • the virtualization server 1 and the virtualization server 2 access the virtual volume 8 in order to access the VM data 72 of the VM 71 operating on the virtualization server 1 and the virtualization server 2.
  • the virtualization server SV When accessing the virtual volume 8, the virtualization server SV issues an access request (write request or read request) with one storage device ST among a plurality of storage devices ST sharing the virtual volume 8 as a window.
  • the storage device serving as a window is hereinafter referred to as a “window storage apparatus”.
  • the virtualization server 1 uses the storage 1 as the window storage device ST and accesses the virtual volume 8 from the storage 1.
  • the virtualization server 2 uses the storage 3 as the window storage device ST and accesses the virtual volume 8 from the storage 3.
  • the VM data 72 of VMa, VMb, and VMc is actually stored in the storage area of the RAID group 26 of the storage 1.
  • the VM data 72 of VMd, VMe, and VMf is actually stored in the storage area of the RAID group 26 of the storage 3.
  • the virtualization server 1 accesses the VM data storage volume 8 from the storage 1, but the VM data 72 of VMd, VMe, and VMf is stored in the storage area of the RAID group 26 of the storage 3. This is because the storage 3 is accessed via the storage 2.
  • the virtual server 1 can continuously access the VM data 72 of the VMa, VMb, and VMc. This is because the storage 2 does not relate to the access, that is, the storage 2 does not exist on the access path 51 from the virtualization server 1 to the storage 1 storing the VM data 72 of VMa, VMb, and VMc ( It is not included).
  • access from the virtualization server 1 to the VM data 72 of VMd, VMe, and VMf becomes impossible. This is because the storage 2 is related to the access, that is, the storage 2 exists on the access path 52 from the virtualization server 1 to the storage 3 storing the VM data 72 of VMd, VMe, and VMf. It is.
  • the access path 52 is a path that cannot be accessed when stopped.
  • the virtual server 1 cannot access the VM data 72 of the VMd, VMe, and VMf
  • the operation of the VM 71 currently operating on the virtual server 1 is not affected.
  • the VMd, VMe, and VMf are not operating on the virtualization server 1 and the virtualization server 1 does not use the VM data 72 of the VMd, VMe, and VMf, that is, the access path 52 is inactive. That's why.
  • VMd cannot be migrated from the virtualization server 2 to the virtualization server 1 and operated on the virtualization server 1 while the storage 2 is stopped. This is an operation restriction when the storage 2 is stopped.
  • the management computer 1 determines whether or not the operation of the VM 71 is affected for the combination of each virtualization server SV and the VM 71, and informs the administrator of the determination result.
  • the configuration of FIG. 1 it can be seen that even if the storage 2 is stopped, the operation of the VM 71 operating on each of the virtualization server 1 and the virtualization server 2 is not affected. Therefore, no prior measures are required to stop the storage 2. However, some operations are not possible while stopped.
  • the management computer 1 also informs the administrator of the operations that are impossible, that is, the operation restrictions.
  • the virtual server SV is described as an example of a host that uses the storage apparatus ST.
  • a physical server may be the host.
  • VM migration migration of the VM 71 between virtualization servers SV
  • various operation restrictions may be considered in addition to the VM migration.
  • the storage device ST sharing the virtual volume 8 means the storage device ST constituting the virtual storage device, and the storage area of the storage device ST does not necessarily have to be allocated to the virtual volume 8.
  • FIG. 2 is a configuration diagram of an example of a computer system according to the first embodiment.
  • the computer system includes a management computer 1, a display computer 10, one or more (two in the figure) virtualization servers SV (virtualization server 1 and virtualization server 2), and a plurality (three in the figure).
  • Storage device ST storage 1, storage 2, and storage 3
  • SAN 41 storage 1, storage 2, and storage 3
  • management LAN Local Area Network
  • the virtualization server 1, the virtualization server 2, the storage 1, the storage 2, and the storage 3 are connected to each other via the SAN 41.
  • the storage 1 and the storage 2 and the storage 2 and the storage 3 are connected to each other via a dedicated line 43, respectively.
  • the management computer 1, each virtualization server SV, and each storage ST are connected to each other via the management LAN 42.
  • the combination of the management computer 1 and the display computer 10 constitutes a management system that manages the computer system.
  • the computer system may not include the display computer 10.
  • the management computer 1 becomes a management system.
  • the SAN 41 may adopt an FC (Fibre Channel) connection method or an iSCSI (Internet Small Computer ⁇ Interface) connection method.
  • the computer system according to this embodiment includes two virtualization servers SV and three storage apparatuses ST, but the number of virtualization servers SV and storage apparatuses ST may be any number.
  • FIG. 3 is a configuration diagram of an example of a virtualization server according to the first embodiment.
  • the virtualization server SV is a computer that executes a server program or the like and provides a predetermined service to the user.
  • the virtualization server SV functions as one or more virtual server machines by operating one or more VMs 71 thereon.
  • the virtualization server SV includes a CPU (Central Processing Unit) 31, a memory 32, a SAN port 33, a LAN port 34, and an internal bus 35.
  • the CPU 31, the memory 32, the SAN port 33 and the LAN port 34 are connected to each other via an internal bus 35.
  • the CPU 31 executes various programs stored in the memory 32.
  • the memory 32 may be a semiconductor storage device, a secondary storage device such as a hard disk drive (HDD), or a combination of a semiconductor storage device and a secondary storage device.
  • HDD hard disk drive
  • the SAN port 33 is an interface device for connecting to the SAN 41, and is mainly used when inputting / outputting user data, for example, data written to the virtual volume 8, data read from the virtual volume 8, and the like.
  • the LAN port 34 is an interface device for connecting to the management LAN 42, and is mainly used when inputting / outputting management data, for example, configuration information of each device constituting the computer system or the computer system. .
  • the memory 32 stores a VM data management table 321, an operation VM management table 322, a hypervisor 323, and one or more VM definition data 324.
  • the hypervisor 323 is a program for operating the VM 71.
  • the VM definition data 324 is data prepared for each VM 71 operating on the virtualization server SV, and information necessary for operating the VM 71, for example, the capacity of the memory allocated to the VM 71, the VM 71 can be used. This data includes the number of CPUs.
  • the VM data management table 321 and the operation VM management table 322 will be described later.
  • FIG. 4 is a configuration diagram of an example of an operation VM management table according to the first embodiment.
  • the operating VM management table 322 is data for managing a VM (hereinafter referred to as “operating VM”) 71 operating on the virtualization server SV.
  • the operation VM management table 322 includes a field of the VM 3221.
  • the name of the active VM 71 is stored in the VM 3221.
  • FIG. 4 is an operation VM management table 322 stored in the virtualization server 1. From the figure, it can be seen that VMa, VMb, and VMc are operating on the virtualization server 1.
  • FIG. 5 is a configuration diagram of an example of a VM data management table according to the first embodiment.
  • the VM data management table 321 is data for managing the virtual volume 8 in which the VM data 72 is stored and the storage position of the VM data 72 on the virtual volume 8 for each active VM 71.
  • the VM data management table 321 includes fields of a VM 3211, a size 3212, a LUN 3213, and a head address 3214.
  • the VM 3211 stores the name of the active VM 71.
  • the size 3212 stores the size of the VM data 72 of the active VM 71.
  • the LUN 3213 stores the LUN (Logical Unit Unit Number) of the virtual volume 8 in which the VM data 72 of the active VM 71 is stored.
  • the start address 3214 stores the start address of the area on the virtual volume 8 in which the VM data 72 of the active VM 71 is stored. For example, it can be seen from the first entry from the top in the figure that the VM data 72 of VMa is stored in a 100 GB area starting at the address “0x0000” on the virtual volume “LUN0”. In the present embodiment, it is assumed that the VM data 72 is stored sequentially on the virtual volume 8, but the storage form of the VM data 72 is not limited to this. For example, the VM data 72 may be distributed and stored in a plurality of pages on the virtual volume 8. In this case, for example, information specifying each of a plurality of storage destination pages is managed by the VM data management table 321.
  • FIG. 6 is a configuration diagram of an example of the storage apparatus according to the first embodiment.
  • the storage device ST is a device that provides a storage area to the virtualization server SV or the like.
  • the storage apparatus ST includes a CPU 21, a memory 22, one or more SAN ports 23, a LAN port 24, one or more physical storage devices 25, and an internal bus 27.
  • the CPU 21, memory 22, SAN port 23, LAN port 24, and physical storage device 25 are connected to each other via an internal bus 27.
  • the CPU 21 executes various programs stored in the memory 22.
  • the physical storage device 25 may be a hard disk drive, a solid storage medium, an optical storage medium, or another type of storage medium.
  • One or more RAID groups 26 are composed of one or more physical storage devices 25. A storage area of the RAID group 26, that is, a storage area on the physical storage device 25 constituting the RAID group 26 is allocated to the virtual volume 8.
  • a virtualization layer such as a storage area pool (storage pool) may be inserted between the virtual volume 8 and the RAID group 26.
  • the SAN port 23 is an interface device for connecting to the SAN 41, and is mainly used when inputting / outputting user data.
  • the LAN port 24 is an interface device for connecting to the management LAN 42 and is mainly used when inputting / outputting management data.
  • the memory 22 stores a storage control program 221, a host access path management table 222, an inter-device access path management table 223, and a virtual-real page correspondence management table 224.
  • the storage control program 221 is a program that controls the storage apparatus ST.
  • the host access path management table 222 is information (information between server storages) that indicates the virtualization server SV that uses the storage device ST that stores the host access path management table 222 as a window and the virtual volume 8 that the virtualization server SV uses. ).
  • the inter-device access path management table 223 is information (inter-storage information) indicating one or more storage devices ST existing on the path from the storage device ST storing the inter-device access path management table 223 to another storage device ST. It is.
  • the virtual-real page correspondence management table 224 is information (individual assignment information) indicating to which part (position) of the virtual volume 8 the storage area of the storage device ST storing the virtual-real page correspondence management table 224 is assigned. It is. Details of the host access path management table 222, the inter-device access path management table 223, and the virtual-real page correspondence management table 224 will be described later.
  • FIG. 7 is a configuration diagram of an example of a host access path management table according to the first embodiment.
  • the host access path management table 222 is a virtualization server (hereinafter referred to as FIG. 7) that has a storage device (hereinafter referred to as “target storage device” in the description of FIG. 7) ST that stores the host access path management table 222 as a window.
  • Data for managing a path from the target virtualization server SV to the target storage device ST (hereinafter referred to as “host access path”).
  • the host access path management table 222 includes fields of WWN 2221, virtual volume ID 2222, port 2223, and LUN 2224.
  • the WWN 2221 stores the WWN (World Wide Name) of the SAN port 33 of the target virtualization server SV.
  • the virtual volume ID 2222 stores the identifier of the virtual volume 8 accessed by the target virtualization server SV (more precisely, the operating VM 71 of the target virtualization server SV).
  • the port 2223 stores the identifier of the SAN port 23 of the target storage device ST that is used when the target virtualization server SV accesses the virtual volume 8.
  • the LUN 2224 stores the LUN of the virtual volume 8 that is used when the target virtualization server SV accesses the virtual volume 8. From the figure, it can be seen that the virtualization server SV having the SAN port “WWN-1” accesses the virtual volume of “Volume 3” by using the SAN port 23 of “Port 11” of the target storage device ST.
  • FIG. 8 is a configuration diagram of an example of an inter-device access path management table according to the first embodiment.
  • the inter-device access path management table 223 is a storage device (hereinafter referred to as “target storage device” in the description of FIG. 8) ST that stores the inter-device access path management table 223, and another storage device that shares the virtual volume 8. This is data for managing a route to the ST (hereinafter referred to as “inter-device access path”).
  • the inter-device access path management table 223 includes fields of an access destination storage 2231 and a via storage 2232.
  • the access destination storage 2231 stores the name of the access destination storage apparatus ST.
  • the storage device ST through which the target storage device ST accesses the storage device ST indicated by the access destination storage 2231 (through the access request data issued by the target storage device ST) Is stored.
  • FIG. 8 is an inter-device access path management table 223 stored in the storage 1. From the figure, it can be seen that the storage 1 directly accesses the storage 2 and accesses the storage 3 via the storage 2.
  • FIG. 9 is a configuration diagram of an example of a virtual-real page correspondence management table according to the first embodiment.
  • the virtual-real page correspondence management table 224 indicates which storage area of the storage device ST (hereinafter referred to as “target storage device” in the explanation of FIG. 9) ST stores the virtual-real page correspondence management table 224. This is data for managing whether the portion (position) is allocated.
  • the virtual-real page correspondence management table 224 manages the correspondence relationship between the virtual pages constituting the storage area of the virtual volume 8 and the real pages constituting the storage area of the RAID group 26 allocated to the virtual page. .
  • the virtual-real page correspondence management table 224 includes fields of a virtual volume ID 2241, an address 2242, a storage 2243, a RAID group 2244, and an address 2245.
  • the virtual volume ID 2241 stores the identifier of the virtual volume 8.
  • the address 2242 stores an address on the virtual volume 8 of the virtual page.
  • the storage 2243 stores the name of the target storage device ST.
  • the RAID group 2244 stores the name of the RAID group 26 that has a real page assigned to the virtual page at the address indicated by the address 2242.
  • an address on the RAID group 26 of the real page assigned to the virtual page of the address indicated by the address 2242 is stored. For example, from the first entry from the top in the figure, the real page of the address “0x0000” on the RAID group 1 of the storage 1 that is the target storage device ST is the virtual page of the address “0x0000” on the virtual volume “Volume3”. It can be seen that
  • FIG. 10 is a configuration diagram of an example of a management computer according to the first embodiment.
  • the management computer 1 is a computer that manages the computer system.
  • the management computer 1 has a CPU 11, a memory 12, a LAN port 13, and an internal bus 14.
  • the CPU 11, the memory 12, and the LAN port 13 are connected to each other via an internal bus 14.
  • the CPU 11 executes various programs stored in the memory 12.
  • the memory 12 may be a semiconductor storage device, a secondary storage device such as a hard disk drive (HDD), or a combination of a semiconductor storage device and a secondary storage device.
  • the memory 12 stores programs executed by the CPU 11 and various information used by the CPU 11.
  • the LAN port 13 is an interface device for connecting to the management LAN 42.
  • the memory 12 includes a management program 14, a host management table 151, a host access path integrated management table 152, a virtual-real page correspondence integrated management table 153, an inter-device access path integrated management table 154, and an operating VM integrated management table. 155, a VM data integrated management table 156, a migration management table 161 that cannot be stopped, a working VM data storage destination management table 162, a VM data access path management table 163, and a path management table 164 that cannot be accessed when stopped To do.
  • the management computer 1 receives the selection of the storage device ST to be stopped from the administrator, the management program 14 determines whether or not the storage device ST to be stopped can be stopped, displays the determination result, and performs other maintenance work.
  • the virtual-real page correspondence integrated management table 153 is information (allocation information) indicating to which part of the virtual volume 8 each storage area of the plurality of storage apparatuses ST is allocated.
  • the active VM integrated management table 155 and the VM data integrated management table 156 indicate which part of the virtual volume 8 the virtual server SV (each of one or more VMs 71 operating on the virtual server SV) uses.
  • Usage information (virtual machine usage information).
  • the VM data access path management table 163 is access path information indicating one or more storage apparatuses ST existing on the access path. Details of the various information 151 to 156 and 161 to 164 stored in the memory 12 will be described later.
  • the administrator inputs and outputs to the management computer 1 are performed via the display computer 10 connected to the management computer 1.
  • the display computer 10 includes, for example, an input device and an output device.
  • the input device is a device for the administrator to input information to the management computer 1, and is, for example, a keyboard or a mouse.
  • the output device is a device for outputting a result of processing executed by the management computer 1, and is, for example, a display.
  • FIG. 11 is a configuration diagram of an example of a host management table according to the first embodiment.
  • the host management table 151 is data for managing a host (in this embodiment, a virtualization server SV) existing in the computer system.
  • the host management table 151 includes fields for the host 1511 and the WWN 1512.
  • the host 1511 stores the name of the virtualization server SV.
  • the WWN 1512 stores the WWN of the SAN port 33 of the virtualization server SV. From the figure, there are two virtualization servers SV of the virtualization server 1 and the virtualization server 2 in the computer system, the WWN of the SAN port 33 of the virtualization server 1 is “WWN-1”, and the virtualization server 2 It can be seen that the WWN of the SAN port 33 is “WWN-2”.
  • the data stored in the host management table 151 may be collected from each virtualization server SV by the management computer 1 or may be input by the administrator.
  • FIG. 12 is a configuration diagram of an example of a host access path integrated management table according to the first embodiment.
  • the host access path integrated management table 152 is data in which the host access path management tables 222 of the plurality of storage apparatuses ST existing in the computer system are aggregated.
  • the host access path existing in the computer system is managed by the host access path integrated management table 152.
  • the host access path integrated management table 152 includes fields of a host 1521, a virtual volume ID 1522, a storage 1523, a port 1524, and a LUN 1525.
  • the host 1521 stores the name of the virtualization server SV.
  • the virtual volume ID 1522 stores the identifier of the virtual volume 8 accessed by the virtualization server (hereinafter referred to as “target virtualization server” in the description of FIG. 12) SV indicated by the host 1521.
  • the storage 1523 stores the name of the window storage device ST of the target virtualization server SV.
  • the port 1524 stores the identifier of the SAN port 23 of the window storage device ST of the target virtualization server SV that is used when the target virtualization server SV accesses the virtual volume 8.
  • the LUN 1525 stores the LUN of the virtual volume 8 that is used when the target virtualization server SV accesses the virtual volume 8. From the figure, the virtualization server 1 uses the storage 1 as the window storage device ST, accesses the virtual volume “Volume 3” using the SAN port “Port 11” of the storage 1, and the virtualization server 2 uses the storage 3 as the window. It can be seen that the storage device ST accesses the virtual volume “Volume 3” using the SAN port “Port 31” of the storage 3.
  • FIG. 13 is a configuration diagram of an example of an inter-device access path integration management table according to the first embodiment.
  • the inter-device access path integrated management table 154 is data in which the inter-device access path management table 223 of each of the plurality of storage devices ST existing in the computer system is aggregated.
  • the inter-device access path management table 154 manages inter-device access paths existing in the computer system.
  • the inter-device access path integrated management table 154 includes fields of an access source storage 1541, an access destination storage 1542, and a via storage 1543.
  • the access source storage 1541 stores the name of the access source storage device ST.
  • the access destination storage 1542 stores the name of the access destination storage apparatus ST.
  • the via storage 1543 stores the name of the storage device ST through which the storage device ST indicated by the access source storage 1541 accesses the storage device ST indicated by the access destination storage 1542.
  • “-” in the figure indicates that there is no storage device ST to pass through.
  • the names of the plurality of storage devices ST are stored in the via storage 1543. From the first entry from the top and the second entry from the top, it can be seen that the storage 1 directly accesses the storage 2 and accesses the storage 3 via the storage 2. Further, it can be seen from the third entry from the top and the fourth entry from the top that the storage 2 directly accesses the storage 1 and the storage 3 respectively. Also, it can be seen from the first entry from the bottom and the second entry from the bottom that the storage 3 directly accesses the storage 2 and accesses the storage 1 via the storage 2.
  • FIG. 14 is a configuration diagram of an example of a virtual-real page correspondence integrated management table according to the first embodiment.
  • the virtual-real page correspondence integrated management table 153 is data in which the virtual-real page correspondence management table 224 of each of the plurality of storage apparatuses ST existing in the computer system is aggregated.
  • the virtual-real page correspondence integrated management table 153 manages the correspondence between the virtual page and the real page for each of one or more virtual volumes 8 existing in the computer system.
  • the virtual-real page correspondence integrated management table 153 includes fields for a virtual volume ID 1531, an address 1532, a storage 1533, a RAID group 1534, and an address 1535.
  • the virtual volume ID 1531 stores the identifier of the virtual volume 8.
  • the address 1532 stores an address on the virtual volume 8 of the virtual page.
  • the storage 1533 stores the name of the storage device ST having the RAID group 26 having the real page assigned to the virtual page at the address indicated by the address 1532.
  • the RAID group 1534 stores the name of the RAID group 26 having a real page allocated to the virtual page at the address indicated by the address 1532.
  • the address 1535 stores the address on the RAID group 26 of the real page assigned to the virtual page of the address indicated by the address 1532. For example, from the first entry from the top in the figure, the real page of the address “0x0020” on the RAID group 1 of the storage 1 is allocated to the virtual page of the address “0x0000” on the virtual volume “Volume2”. I understand.
  • FIG. 15 is a configuration diagram of an example of the VM data integrated management table according to the first embodiment.
  • the VM data integrated management table 156 is data in which the VM data management tables 321 of one or more virtualization servers SV existing in the computer system are aggregated. With the VM data integrated management table 156, the virtual volume 8 in which the VM data 72 is stored and the storage position of each of the active VMs 71 of one or more virtualization servers SV existing in the computer system are managed.
  • the VM data integrated management table 156 includes fields of a VM 1561, a size 1562, a virtual volume ID 1563, and a head address 1564.
  • the VM 1561 stores the name of the active VM 71.
  • the size 1562 stores the size of the VM data 72 of the active VM 71.
  • the virtual volume ID 1563 stores the identifier of the virtual volume 8 in which the VM data 72 of the active VM 71 is stored.
  • the start address 1564 stores the start address of the area in the virtual volume 8 where the VM data 72 of the active VM 71 is stored. For example, it can be seen from the first entry from the top in the figure that the VM data 72 of VMa is stored in a 100 GB area starting at the address “0x0000” on the virtual volume “Volume3”.
  • FIG. 16 is a configuration diagram of an example of an operation VM integrated management table according to the first embodiment.
  • the operation VM integrated management table 155 is data in which the operation VM management tables 322 of one or more virtualization servers SV existing in the computer system are aggregated.
  • the operating VM integrated management table 155 manages the operating VMs 71 of each of the one or more virtualization servers SV existing in the computer system.
  • the operation VM integrated management table 155 includes fields for the virtualization server 1551 and the VM 1552.
  • the virtualization server 1551 stores the name of the virtualization server SV.
  • the VM 1552 stores the name of the operating VM 71 of the virtualization server SV indicated by the virtualization server 1551. From the figure, it can be seen that VMa, VMb and VMc are operating on the virtualization server 1, and VMd, VMe and VMf are operating on the virtualization server 2.
  • FIG. 17 is a configuration diagram of an example of a VM data access path management table according to the first embodiment.
  • the VM data access path management table 163 indicates a VM data access path existing in the computer system, that is, each storage device ST that the virtualization server SV shares the virtual volume 8 (more precisely, a storage that shares the virtual volume 8). This is data for managing the path from the virtualization server SV to each storage device ST, which is used when accessing each storage device ST to which a storage area is allocated to the virtual volume 8 of the device ST. .
  • the VM data access path management table 163 is created, for example, in maintenance work support processing after the management computer 1 accepts selection of the storage device ST to be stopped.
  • the VM data access path management table 163 includes fields for the virtualization server 1631, the access destination storage 1632, the data storage destination storage 1633, and the via storage 1634.
  • the virtualization server 1631 stores the name of the virtualization server (hereinafter referred to as “access source server”) SV as the access source.
  • the access destination storage 1632 stores the name of the access destination storage apparatus ST viewed from the access source server SV, that is, the name of the window storage apparatus ST of the access source server SV.
  • data used by the access source server SV (specifically, the VM data 72 of the operation VM 71 of the access source server SV) may be actually stored, that is, the storage device ST.
  • the name of the storage device ST to which the storage area is assigned to the virtual volume 8 used by the access source server SV is stored.
  • the storage apparatus ST indicated by the data storage destination storage 1633 is a storage apparatus ST (hereinafter referred to as “target storage apparatus”) that is the final destination accessed by the access source server SV via the VM data access path.
  • the via storage 1634 stores the name of a storage device ST (hereinafter referred to as “access path via storage device”) ST other than the window storage device ST through which the access source server SV accesses the target storage device ST.
  • “-” indicates that there is no access path storage device ST.
  • the names of the plurality of storage apparatuses ST are stored in the via storage 1634.
  • VM data access paths that is, an access path from the virtualization server 1 to the storage 1, an access path from the virtualization server 1 to the storage 3, and a storage server 1 from the virtualization server 2.
  • an access path from the virtualization server 2 to the storage 3 exists.
  • the storage device ST indicated by the access destination storage 1632 the window storage device ST of the access source server SV
  • the storage device ST indicated by the data storage destination storage 1633 target storage device
  • each of the storage apparatuses ST access path storage apparatus ST
  • the intermediate storage 1634 For example, from the second entry from the top in the figure, it can be seen that there are three storage devices ST of storage 1, storage 2, and storage 3 on the access path from the virtualization server 1 to the storage 3. .
  • FIG. 18 is a configuration diagram of an example of a stop-time inaccessible path management table according to the first embodiment.
  • the stop access inaccessible path management table 164 is data for managing a stop inaccessible path, that is, a VM data access path that cannot be used when the stop target storage apparatus ST is stopped.
  • the inaccessible path management table 164 at the time of stop is created, for example, in maintenance work support processing after the management computer 1 receives selection of the storage device ST to be stopped.
  • the stop-time inaccessible path management table 164 includes a virtualization server 1641, an access destination storage 1642, a data storage destination storage 1643, a via storage 1644, and an active / inactive field 1645.
  • the virtualization server 1641, the access destination storage 1642, the data storage destination storage 1643, and the via storage 1644 are fields for specifying an inaccessible path at the time of stop, and are substantially the same as the fields 1631 to 1634 of the VM data access path management table 163. Is the same.
  • the virtualization server 1641 stores the name of the access source server SV.
  • the access destination storage 1642 stores the name of the window storage device ST of the access source server SV.
  • the data storage destination storage 1643 stores the name of the target storage device ST.
  • the via storage 1644 stores the name of the access path transit storage device ST. Whether the VM data access path is active, that is, whether it is active 1645, that is, data indicating whether the access source server SV is actually using the path that cannot be accessed when stopped is stored.
  • the VM data 72 of the operation VM 71 of the access source server SV is stored in the target storage device ST, the inaccessible path at the time of stoppage is actually used by the access source server SV and becomes active. .
  • the VM data 72 of the active VM 71 of the access source server SV is not stored in the target storage device ST, the access-disabled path at the time of stoppage is not actually used by the access source server SV and is inactive. Become.
  • FIG. 19 is a configuration diagram of an example of an operation VM data storage destination management table according to the first embodiment.
  • the operating VM data storage destination management table 162 stores the VM data of each operating VM 71 of the virtualization server SV having an inaccessible path at the time of stopping (the virtual server SV that is the access source server SV of the inaccessible path at the time of stopping). Data for managing the storage device ST of 72 storage destinations.
  • the active VM data storage destination management table 162 is created, for example, in maintenance work support processing after the management computer 1 accepts selection of the storage device ST to be stopped.
  • the working VM data storage destination management table 162 includes fields for the virtualization server 1621, the VM 1622, and the data storage destination storage 1623.
  • the virtualization server 1621 stores the name of the virtualization server SV that has an inaccessible path at the time of stop.
  • the VM 1622 stores the name of the operating VM 71 of the virtualization server SV indicated by the virtualization server 1621.
  • the data storage destination storage 1623 stores the name of the storage device 1623 that stores the VM data 72 of the active VM 71 indicated by the VM 1622. For example, it can be seen from the first entry from the top in the figure that VM data 72 of VMa operating on the virtualization server 1 is stored in the storage 1.
  • FIG. 20 is a configuration diagram of an example of a migration management table that cannot be stopped according to the first embodiment.
  • the non-stop migration management table 161 is data for managing VM migration that is an operation restriction, that is, VM migration that cannot be performed when the storage device ST to be stopped is stopped (hereinafter referred to as “non-stop migration”). is there.
  • the non-stop migration management table 161 is created, for example, in maintenance work support processing after the management computer 1 receives selection of the storage device ST to be stopped.
  • the stop impossible migration management table 161 includes fields of the VM 1611 and the migration destination virtualization server 1612.
  • the VM 1611 stores the name of the VM 71.
  • the migration destination virtualization server 1612 stores the name of the migration destination virtualization server SV.
  • six migrations that cannot be performed at the time of stoppage that is, VM migration that migrates VMa, VMb, and VMc to the virtualization server 2, and VM that migrates VMd, VMe, and VMf to the virtualization server 1, respectively. It can be seen that migration exists.
  • FIG. 21 is a flowchart of the maintenance work support process according to the first embodiment.
  • the maintenance work support process is performed when the management computer 1 receives selection of the storage device ST to be stopped from the administrator.
  • the management program 14 performs pre-preparation processing (see FIG. 22) (step S101).
  • advance preparations for maintenance work support processes such as configuration change inhibition, VM migration function inhibition, and update of various management tables are performed.
  • the management program 14 performs an inaccessible path specifying process (see FIG. 23) at the time of stop (step S102).
  • an inaccessible path specifying process (see FIG. 23) at the time of stop (step S102).
  • a stop-time inaccessible path that currently exists in the computer system is specified, and an entry related to the specified stop-time inaccessible path is entered in the stop-time inaccessible path management table 164. be registered.
  • the management program 14 determines whether there is an entry in the stop-time inaccessible path management table 164, that is, whether there is a stop-time inaccessible path (step S103).
  • step S103 When there is no path that cannot be accessed at the time of stop (step S103: No), the management program 14 displays a first determination result display screen (see FIG. 29) indicating that the storage apparatus ST to be stopped can be stopped. In the state waiting for input from the administrator, the process proceeds to step S110 (step S104).
  • step S103 when there is an inaccessible path at the time of stop (step S103: Yes), the management program 14 performs an active stop-time inaccessible path specifying process (FIG. 26) (step S105).
  • active stop-time inaccessible path specifying process it is determined whether or not the stop-time inaccessible path specified in step S102 is currently active, and an active stop-time inaccessible path is specified.
  • the management program 14 refers to 1645 whether or not the stop-time inaccessible path management table 164 is active, and determines whether or not there is an active stop-time inaccessible path (step S106).
  • step S106 When there is an active stop-inaccessible path (step S106: Yes), the management program 14 displays a third determination result display screen (see FIG. 32) indicating that the stop target storage apparatus ST cannot be stopped. The information is displayed on the computer 10, and the process proceeds to step S112 (step S109).
  • the management program 14 makes a stop-time impossible migration based on the active VM data storage destination management table 162 and the stop-time inaccessible path management table 164. Is specified (step S107). Specifically, first, the management program 14 refers to the stop-time inaccessible path management table 164 and refers to the virtualization server SV having an inactive stop-time inaccessible path (that is, in the stop-time inaccessible path management table 164). The virtualization server SV) indicated by the virtualization server 1641 of the entry in which data indicating inactivity is stored in 1645 is specified as to whether the registered entry is active or not.
  • the management program 14 refers to the operating VM data storage management table 162 for each identified virtualization server (hereinafter referred to as “specific virtualization server” in the description of step S107), and identifies the specified virtualization server.
  • the VM 71 in which the VM data 72 is stored in the target storage device ST of the inactive stop-time inaccessible path (hereinafter referred to as “specific access path” in the description of step S107) of the server SV is specified.
  • the specified VM (hereinafter referred to as “specific VM” in the description of step S107) 71 is moved to the specific virtualization server SV, the VM data 72 of the specific VM 71 is stored in the specific access path of the specific virtualization server SV.
  • the management program 14 identifies the VM migration that moves the specific VM 71 to the specific virtualization server SV as a migration that cannot be performed when stopped.
  • the management program 14 creates an entry indicating the migration that cannot be stopped, and registers the created entry in the migration management table 161 that cannot be stopped.
  • the management program 14 causes the display computer 10 to display a second determination result display screen (see FIGS. 30 and 31) indicating that the storage device ST to be stopped can be stopped with operation restrictions.
  • the process proceeds to step S110 (step S108).
  • step S110 the management program 14 inputs the administrator's input to the first determination result display screen displayed in step S104 or the second determination result display screen displayed in step S108, specifically, maintenance work. Wait for input to instruct Then, the management program 14 determines whether the administrator has instructed the execution of the maintenance work or whether a certain time has passed without the administrator instructing the execution of the maintenance work.
  • step S110 When the administrator instructs the execution of the maintenance work (step S110: Yes), the management program 14 performs the maintenance work, for example, updating the firmware of the storage device ST to be stopped (step S111). Thereafter, the management program 14 advances the process to step S112.
  • step S110 timeout
  • step S112 the management program 14 cancels the suppression of the configuration change and the suppression of the VM migration function performed in the preliminary preparation process, and returns the computer system to the normal operation state. Note that the management program 14 does not need to perform the process of step S112 if the configuration change and the VM migration function are not suppressed in the preparation process. Thereafter, the management program 14 ends the maintenance work support process.
  • FIG. 22 is a flowchart of the preliminary preparation processing according to the first embodiment.
  • the pre-preparation process corresponds to the process of step S101 in FIG.
  • the management program 14 suppresses a change in the configuration of the storage apparatus ST, for example, a change in the allocation relationship between virtual pages and real pages (S201).
  • step S202 the management program 14 suppresses the VM migration function of the virtualization server SV (step S202).
  • the processing in step S201 and step S202 is performed to prevent the processing result from being inconsistent with the actual situation because the configuration of the storage apparatus ST and the setting of the virtualization server SV are changed during the subsequent processing. If it is known in advance that the configuration or the like will not be changed, the management program 14 does not need to perform these processes.
  • the management program 14 obtains necessary information from the storage device ST and the virtualization server SV (specifically, all or part of data of various management tables stored in each storage device ST and each virtualization server SV). ), The host access path integrated management table 152, the virtual-real page correspondence integrated management table 153, the inter-device access path integrated management table 154, the active VM integrated management table 155, and the VM data integrated management table 156 The content is updated to match the configuration of the computer system (step S203).
  • the management program 14 deletes all the entries of the migration management table 161 that cannot be stopped, the operation VM data storage destination management table 162, the VM data access path management table 163, and the path management table 164 that cannot be accessed when stopped (step). S204). Thereafter, the management program 14 ends the preliminary preparation process.
  • FIG. 23 is a flowchart of the stop-time inaccessible path specifying process according to the first embodiment.
  • the stop-access impossible path identification process corresponds to the process of step S102 in FIG.
  • the management program 14 performs a VM data access path specifying process (see FIG. 24) (step S301).
  • a VM data access path specifying process By this VM data access path specifying process, the VM data access path currently existing in the computer system is specified.
  • the management program 14 performs a stop access permission determination process (see FIG. 25) (step S302).
  • the stop access permission determination process it is determined whether or not the VM data access path specified in step S301 is a stop access impossible path. Thereafter, the management program 14 ends the stop-time inaccessible path identification process.
  • FIG. 24 is a flowchart of the VM data access path specifying process according to the first embodiment.
  • the VM data access path specifying process corresponds to the process of step S301 in FIG.
  • the management program 14 performs the processing from step S401 to step S409 on each entry registered in the host access path integrated management table 152.
  • the management program 14 selects one of the entries registered in the host access path integrated management table 152 (hereinafter referred to as “entry A” in the description of FIG. 24).
  • the management program 14 identifies an entry in which the value of the virtual volume ID 1531 matches the value of the virtual volume ID 1522 of the entry A from the entries of the virtual-real page correspondence integrated management table 153 (step S402). That is, in step S402, the virtual volume used by the virtualization server SV of entry A (more precisely, the virtualization server SV indicated by the host 1521 of entry A) in the virtual-real page correspondence integrated management table 153 (hereinafter referred to as the virtual volume SV). , The entry related to “8” (referred to as “target virtual volume”) is specified. The management program 14 can know which storage device ST's real page is allocated to the target virtual volume by referring to the specified entry.
  • the management program 14 performs steps S403 to S408 for each entry specified in step S402.
  • the management program 14 selects one of the entries identified in step S402 (hereinafter referred to as “entry B” in the description of FIG. 24).
  • the management program 14 stores the storage device ST of entry A (more precisely, the storage device ST indicated by the storage 1523 of entry A) and the storage device ST of entry B (more precisely, the storage device ST indicated by storage 1533 of entry B). Is matched (step S404). That is, in step S404, the storage device ST (entry B storage device ST) having a real page allocated to the target virtual volume 8 is changed to the window storage device ST of entry A virtual server SV (storage device ST of entry A). ) Or not.
  • step S404: Yes the management program 14 assigns the name of the virtualization server SV of entry A to the virtualization server 1631, and the access destination storage 1632 Create an entry in the VM data access path management table 163 in which the name of the storage device ST of the entry A is stored, the name of the storage device ST of the entry A is stored in the data storage destination storage 1633, and “-” is stored in the via storage 1634. Then, the created entry is registered in the management table 163 (step S405).
  • the storage device ST of entry B is the window storage device ST of the virtualization server SV of entry A
  • the virtualization server SV of entry A is the access source server SV
  • the storage device ST of entry A is the window storage device ST
  • a VM data access path that does not have the storage device ST via the access path is specified. If the same entry already exists in the VM data access path management table 163, it is not necessary to create and register the entry.
  • step S404 When the storage device ST of entry A and the storage device ST of entry B do not match (step S404: No), the management program 14 indicates that the value of the access source storage 1541 is the entry from the inter-device access path integrated management table 154.
  • An entry (hereinafter referred to as “entry C” in the description of FIG. 24) whose value matches the value of the storage 1523 of A and whose value of the access destination storage 1542 matches the value of the storage 1533 of the entry B is specified (step S406). ). That is, in step S406, an entry indicating an inter-device access path from the storage device ST of entry A to the storage device ST of entry B is specified.
  • the management program 14 stores the name of the virtualization server SV of entry A in the virtualization server 1631, the name of the storage device ST in entry A in the access destination storage 1632, and the storage device ST in entry B in the data storage destination storage 1633.
  • the VM data access path management table 163 each of which stores the storage device ST indicated by the entry storage 1543 of the entry C in the entry storage 1634 (all of them).
  • Registration in the management table 163 step S407). That is, when the storage device ST of entry B is not the window storage device ST of the virtualization server SV of entry A, the virtualization server SV of entry A is the access source server SV, and the storage device ST of entry A is the window storage device ST.
  • the VM data access path is specified in which the storage device ST of the entry B is the target storage device ST, and the storage device ST indicated by the entry storage 1543 is the access storage device ST via the access path. If the same entry already exists in the VM data access path management table 163, it is not necessary to create and register the entry.
  • the management program 14 finishes the processing of steps S403 to S408 for each entry specified in step S402, and performs the processing of steps S401 to S409 for each entry registered in the host access path integrated management table 152. After the completion, the VM data access path specifying process is terminated.
  • FIG. 25 is a flowchart of stop access permission determination processing according to the first embodiment.
  • the stop accessibility determination process corresponds to the process in step S302 in FIG.
  • the management program 14 performs the processing from step S501 to step S506 for each entry registered in the VM data access path management table 163.
  • the management program 14 selects one of the entries registered in the VM data access path management table 163 (hereinafter referred to as “entry A” in the description of FIG. 25).
  • entity A the entries registered in the VM data access path management table 163
  • target VM data access path the VM data access path indicated by the entry A is referred to as “target VM data access path”.
  • the management program 14 determines whether or not the storage device ST indicated by the access destination storage 1632 of the entry A, that is, the window storage device ST of the access source server SV of the target VM data access path is the storage device ST to be stopped. (Step S502).
  • the management program 14 stores the storage device ST indicated by the data storage destination storage 1633 of the entry A, that is, the target It is determined whether the target storage device ST of the VM data access path is the storage device ST to be stopped (step S503).
  • the management program 14 stores the storage device ST indicated by the intermediate storage 1634 of entry A, that is, the target VM. It is determined whether the storage device ST via the access path of the data access path is the storage device ST to be stopped (step S504).
  • step S502 If it is determined in step S502 that the storage device ST indicated by the access destination storage 1632 of entry A is the storage device ST to be stopped (step S502: Yes), the storage indicated by the data storage destination storage 1633 of entry A in step S503 When it is determined that the device ST is the storage device ST to be stopped (step S503: Yes), or one of the storage devices ST indicated by the intermediate storage 1634 in the entry A in step S504 is the storage device ST to be stopped. Is determined (step S504: Yes), the management program 14 stores the entry A in the virtualization server 1641, the access destination storage 1642, the data storage destination storage 1643, and the via storage 1644.
  • the created entry is registered in the stop-time inaccessible path management table 164. That is, in this case, it is determined that the VM data access path indicated by the entry A is an inaccessible path at the time of stop, and the entry related to the VM data access path indicated by the entry A is registered in the stop-time inaccessible path management table 164. . It should be noted that the value “ ⁇ ” of 1645 whether or not it is active indicates that it has not yet been determined whether or not the path that is inaccessible when stopped is active.
  • step S504 when none of the storage apparatuses ST indicated by the entry storage 1634 of the entry A is the storage apparatus ST to be stopped (step S504: No), the management program 14 cannot access the VM data access path indicated by the entry A when stopped. It is determined that the path is not passed, and the process for entry A is terminated.
  • the management program 14 finishes the processing in steps S501 to S506 for each entry registered in the VM data access path management table 163, and then terminates the access permission determination process at the time of stop.
  • the management computer 1 determines, for each VM data access path existing in the computer system, whether or not the storage device ST to be stopped exists on the VM data access path, and the storage device to be stopped. When the ST exists, the VM data access path is determined to be an inaccessible path when stopped.
  • FIG. 26 is a flowchart of active stop-time inaccessible path identification processing according to the first embodiment.
  • the active stop-inaccessible path identification process corresponds to the process of step S105 in FIG.
  • the management program 14 executes an operating VM data storage destination management table based on the virtual-real page correspondence integrated management table 153, the operating VM integrated management table 155, the VM data integrated management table 156, and the inaccessible path management table 164 when stopped. 162 entries are created, and the created entries are registered in the active VM data storage management table 162 (step S601). Specifically, first, the management program 14 refers to the active VM integrated management table 155 and the stop-time inaccessible path management table 164, and refers to the virtualization server SV having an inaccessible path at the time of stop (that is, an inaccessible path at stop time).
  • the virtualization server SV) indicated by the virtualization server 1641 in the management table 164 and its operating VM 71 are specified.
  • the management program 14 refers to the VM data integrated management table 156, and specifies the storage location of the VM data 72 on the virtual volume 8 for each active VM 71 of the virtualization server SV that has an inaccessible path at the time of stop. .
  • the management program 14 stores the storage location of the VM data 72 on the virtual volume 8 and the virtual-real page correspondence integrated management table 153 for each active VM 71 of the virtual server SV having an inaccessible path at the time of stoppage.
  • the storage device ST in which the VM data 72 is stored is specified.
  • the management program 14 creates an entry for each combination of the identified virtualized server SV having an inaccessible path at the time of stop, the operating VM 71, and the storage device ST in which the VM data 72 of the operating VM 71 is stored.
  • the created entry is registered in the active VM data storage management table 162.
  • the management program 14 performs an active / inactive determination process for the stop-accessible path (step S602). By this active / inactive determination process, it is determined whether or not the stop-inaccessible path is currently active. Thereafter, the management program 14 ends the active stop-time inaccessible path identifying process.
  • FIG. 27 is a flowchart of active / inactive determination processing according to the first embodiment.
  • the management program 14 performs the processing from step S701 to step S705 for each entry registered in the stop-time inaccessible path management table 164.
  • the management program 14 selects one of the entries registered in the stop-time inaccessible path management table 164 (hereinafter referred to as “entry A” in the description of FIG. 27).
  • the management program 14 stores data in the operating VM data storage destination management table 162 in which the value of the virtualization server 1621 matches the value of the virtualization server 1641 of the entry A and the value of the data storage destination storage 1623 is the data of the entry A. It is determined whether there is an entry that matches the value in the destination storage 1643 (step S702). That is, in step S702, for the inaccessible path at the time of stop indicated by the entry A, whether or not the VM data 72 of the active VM 71 of the access source server SV of the access path is stored in the target storage device ST of the access path, That is, it is determined whether or not the stop-time inaccessible path indicated by the entry A is actually used by the access source server SV of the access path.
  • the value of the virtualization server 1621 matches the value of the virtualization server 1641 of the entry A, and the value of the data storage destination storage 1623 is the value of the data storage destination storage 1643 of the entry A. That is, when the access source server SV of the access path actually uses the stop-time inaccessible path indicated by the entry A (step S702: Yes), the management program 14 Data indicating active is stored in 1645 as to whether it is active (step S703).
  • the value of the virtualization server 1621 matches the value of the virtualization server 1641 of the entry A, and the value of the data storage destination storage 1623 is the data storage destination storage 1643 of the entry A. If there is no entry that matches the value of the access path, that is, if the access-source server SV of the access path that is not being accessed is not actually used (No in step S702), the management program 14 Data indicating inactivity is stored in 1645 as to whether A is active (step S704).
  • the management program 14 terminates the active / inactive determination process after completing the processes of Steps S701 to S705 for each entry registered in the stop-time inaccessible path management table 164.
  • the management computer 1 determines whether or not the VM data 72 of the active VM 71 of the access source server SV of the access path is stored in the target storage device ST of the access path for each inaccessible path at the time of stop. If it is stored, it is determined that the inaccessible path at the time of stop is active, and if it is not stored, the inaccessible path at the time of stop is determined to be inactive.
  • a screen for causing the administrator to execute the maintenance work support process and a screen displayed in the maintenance work support process will be described.
  • the screen configuration and functions are not limited to the screen configuration described in the embodiments.
  • the management computer 1 may provide a single function for determining whether or not the storage device ST selected by the administrator can be stopped (hereinafter referred to as “stop determination”).
  • stop determination a single function for determining whether or not the storage device ST selected by the administrator can be stopped
  • a common screen including the result of the determination is displayed for any maintenance work or the like.
  • FIG. 28 is a configuration diagram of an example of an initial screen according to the first embodiment.
  • the initial screen 61 is a screen for allowing an administrator who is going to perform maintenance work to select a storage device ST to be stopped that is going to be stopped for the maintenance work.
  • the initial screen 61 includes an area 611 for allowing an administrator to select a storage device ST to be stopped, and a button 612 for causing the management computer 1 to execute a process for determining whether or not to stop (maintenance work support process in this embodiment). including.
  • a list of names of a plurality of storage apparatuses ST configuring the computer system is displayed.
  • FIG. 29 is a configuration diagram of an example of a first determination result display screen according to the first embodiment.
  • the first determination result display screen 62 notifies the administrator to that effect. It is a screen for.
  • the first determination result display screen 62 includes an area 621 for displaying the determination result of whether or not to stop, and a button 622 for instructing the administrator to update the firmware as the maintenance work.
  • area 621 content indicating that the storage device ST to be stopped (storage 2 in the example of FIG. 29) can be stopped (“storage 2 can be updated” in the example of FIG. 29) is displayed.
  • the administrator designates firmware data to be uploaded and presses the button 622
  • the management computer 1 starts the process of step S111 in the maintenance work support process, and performs the maintenance work, that is, the firmware of the storage device ST to be stopped. Update.
  • the administrator can know by referring to the area 621 that the storage device ST to be stopped can be stopped without taking any special measures.
  • FIG. 30 is a configuration diagram of a first example of a second determination result display screen according to the first embodiment.
  • FIG. 31 is a configuration diagram of a second example of the second determination result display screen according to the first embodiment.
  • the second determination result display screen 63 manages that when the management computer 1 determines that the storage device ST to be stopped can be stopped with operation restrictions in the maintenance work support process (step S108 in FIG. 21). It is a screen for notifying a person.
  • the second determination result display screen 63 displays an area 631 for displaying the determination result of whether or not to stop, a button 632 for instructing the administrator to update the firmware as maintenance work, and the contents of the operation restriction. And a region 633 for the purpose.
  • the region 631 and the region 632 are substantially the same as the region 621 and the region 622 of the first determination result display screen 62.
  • the area 631 displays a content indicating that the storage device ST to be stopped (storage 2 in the examples of FIGS.
  • the area 631 also displays content indicating that there is an operation restriction (“(with restriction)” in the examples of FIGS. 30 and 31).
  • the management computer 1 starts the process of step S111 in the maintenance work support process, and performs the maintenance work, that is, the firmware of the storage device ST to be stopped. Update.
  • a list unit 6330 corresponding to each entry of one or more operation restrictions that is, a migration-not-permitted migration management table 161 managed by a migration-cannot-stop-time migration table 161 is displayed as a list.
  • Each list unit 6330 includes information related to migration that cannot be stopped, for example, the name of the operation restriction ("VM migration" in this embodiment), the name of the VM 71 subject to migration that cannot be stopped, and migration of migration that cannot be stopped Including the name of the previous virtualization server SV.
  • the second determination result display screen 63 has a page function for displaying a part of each list unit 6330 when there are many lists, a function for filtering and displaying a part of the plurality of list units 6330, and a plurality of lists.
  • the unit 6330 is sorted and displayed. 30 shows the first page of the list in the list unit 6330, and FIG. 31 shows the second page of the list in the list unit 6330.
  • the administrator can know that the storage device ST to be stopped can be stopped and there is an operation limitation without requiring any special measures. Also, the administrator can confirm the contents of the migration not permitted when stopped, which is an operation restriction, by referring to the list unit 6330 of the migration prohibited when stopped in the area 633.
  • the administrator performs VM migration for migrating each of VMa, VMb, and VMc to the virtualization server 2, and VM migration for migrating each of VMd, VMe, and VMf to the virtualization server 1. You can know that you can't.
  • FIG. 32 is a configuration diagram of an example of a third determination result display screen according to the first embodiment.
  • the third determination result display screen 64 notifies the administrator to that effect. It is a screen for.
  • the third determination result display screen 64 includes an area 641 for displaying the determination result of the stop propriety determination, and a VM that becomes inoperable when the storage device ST to be stopped is stopped (hereinafter referred to as “inoperable VM”). And an area 643 for displaying information on 71.
  • the area 641 displays content indicating that the storage device ST to be stopped (storage 2 in the example of FIG. 32) cannot be stopped (“storage 2 cannot be updated” in the example of FIG. 32).
  • the area 641 also displays a warning mark for prompting the administrator to give a warning.
  • a list unit 6430 corresponding to one or more inoperable VMs 71 is displayed as a list.
  • Each list unit 6430 includes information on each inoperable VM 71, for example, the name of the inoperable VM 71, the name of the virtualization server SV in which the inoperable VM 71 is operating, and the virtual volume 8 used by the inoperable VM 71. It includes the identifier, the name of the window storage device ST of the virtualization server SV in which the inoperable VM 71 is operating, and the name of the storage device ST in which the VM data 72 of the inoperable VM 71 is stored.
  • the third determination result display screen 64 has a page function for displaying a part of each list unit 6430 when the number of list units 6430 is large, and a plurality of list units 6430. A function of filtering and displaying a part of them and a function of sorting and displaying a plurality of list units 6430 are provided.
  • the administrator can know that the storage device ST to be stopped cannot be stopped unless measures are taken by referring to the area 641. Further, the administrator cannot stop the VM data access path actually used by the inoperable VM 71, that is, the storage device ST to be stopped, by referring to the list unit 6430 of each inoperable VM 71 in the area 643. It is possible to know the VM data access path (that is, the active non-accessible path when stopped) (hereinafter referred to as “cause path”). By confirming the cause path, the administrator can examine measures necessary for stopping the storage apparatus ST to be stopped. For example, the administrator can consider measures such as moving the VM data 72 to another storage device ST. Note that the list unit 6430 may include work that is performed by the inoperable VM 71, for example, data specifying a business service. Thereby, the administrator can know which work cannot be performed in addition to the name of the inoperable VM 71.
  • Example 2 When the management computer 1 according to the second embodiment determines that the storage device ST to be stopped cannot be stopped in the maintenance work support processing of the first embodiment, the computer system for enabling the storage device ST to be stopped to be stopped A plan for countermeasures related to the change in configuration (hereinafter referred to as “measure plan”) is derived and communicated to the administrator.
  • the configuration change of the computer system includes, for example, a configuration change of the storage device ST, a setting change of the virtualization server SV, and the like.
  • the management computer 1 executes the countermeasure according to the countermeasure plan. As a result, it is possible to save the administrator from having to consider countermeasures themselves.
  • countermeasures for changing the configuration of the computer system so that the storage device ST to be stopped can be stopped that is, no active stop-accessible path (cause path) exists, for example, (1) Inoperable VM 71 (2) a second measure for using a new VM data access path instead of the cause path, and (3) a VM migration.
  • the second countermeasure is that, for example, the management computer 1 replaces the cause path based on the connection information (second storage information) between the virtualization server SV and the storage device ST and the connection information between the storage devices ST.
  • This can be specified by determining whether or not a new VM data access path (second access path) can be set.
  • the management computer 1 refers to the connection information between the virtualization server SV and the storage device ST and the connection information between the storage devices ST, so that the VM data 72 of the VMd is stored from the virtualization server 1.
  • an access path for directly accessing the storage 3 without going through the storage 1 and the storage 2 can be set.
  • This access path is not an inaccessible path when stopped. Therefore, the management computer 1 can specify as a countermeasure to set to use an access path for directly accessing the storage 3 from the virtualization server 1 instead of the VM data access path 52.
  • a different access path may be set for each VM 71. For example, when VMa and VMd are operating on the virtualization server 1, the virtualization server 1 uses the VM data access path 51 to access the VM data 72 of the VMd when accessing the VM data 72 of the VMa. In this case, an access path for directly accessing the storage 3 from the virtualization server 1 may be used.
  • the countermeasure-necessary volume the entire data of the virtual volume 8 (hereinafter referred to as “the countermeasure-necessary volume”) 8 storing the VM data 72 of the inoperable VM 71 is used as one or more virtual machines that use the countermeasure-necessary volume 8.
  • One storage device any storage device ST other than the storage device ST to be stopped, hereinafter referred to as “common direct access device” ST that can be directly accessed by any of the storage servers SV without going through the other storage device ST
  • the data of the entire volume requiring countermeasures is aggregated in the common direct access device ST.
  • the configuration of the computer system according to the second embodiment is substantially the same as the configuration of the computer system described in the first embodiment except for the configuration of the management computer 1.
  • the configuration of the management computer 1 according to the second embodiment will be described.
  • FIG. 33 is a configuration diagram of an example of a management computer according to the second embodiment.
  • the configuration of the management computer 1 according to the second embodiment is substantially the same except for a part of the configuration of the management computer 1 according to the first embodiment of FIG.
  • the same components as those in FIG. 10 are denoted by the same reference numerals, and description thereof is omitted.
  • the memory 12 further stores a physical connection management table 171, a free capacity management table 172, a countermeasure plan management table 173, a countermeasure required volume management table 174, and a volume capacity management table 175.
  • the physical connection management table 171 is second storage information indicating one or more storage devices ST (second storage) that can be directly accessed by the virtualization server SV without going through other storage devices ST.
  • the free capacity management table 172 is free capacity information indicating the free capacity of each storage area of one or more second storages.
  • the countermeasure plan management table 173 is a table for managing countermeasure plans.
  • the countermeasure required volume management table 174 is a table for managing the countermeasure required volume.
  • the volume capacity management table 175 is used capacity information indicating the current used capacity of the virtual volume 8. Details of various information 171 to 174 stored in the memory 12 will be described later.
  • FIG. 34 is a configuration diagram of an example of a physical connection management table according to the second embodiment.
  • the physical connection management table 171 is a storage device (that is, the second storage device) that can be directly accessed by the virtualization server SV without passing through the other storage device ST for each of the virtualization servers SV existing in the computer system. And a table for managing STs (hereinafter referred to as “direct access devices”).
  • the physical connection management table 171 includes fields for the host 1711 and the storage 1712.
  • the host 1711 stores the name of the virtualization server SV.
  • the storage 1712 stores the name of the direct access device for the virtualization server SV indicated by the host 1711. From the figure, for each of the virtualization server 1 and the virtualization server 2, each of the storage 1, the storage 2 and the storage 3 is a direct access device, that is, the storage 1, the storage 2 and the storage 3 respectively.
  • the data stored in the physical connection management table 171 may be collected by the management computer 1 from each network device (for example, a switch) constituting each virtualization server SV, each storage device ST, or SAN 41. May be entered.
  • each network device for example, a switch
  • FIG. 35 is a configuration diagram of an example of a free capacity management table according to the second embodiment.
  • the free capacity management table 172 is data for managing the free capacity of the storage area of the direct access device.
  • the free space management table 172 includes fields for a storage 1721, a current free space 1722, and a post-measurement free space 1723.
  • the storage 1721 stores the name of the direct access device.
  • the current free capacity 1722 stores a value indicating the free capacity of the storage area of the direct access device before the countermeasure plan specifying process (see FIG. 42) described later is performed.
  • a value indicating the free capacity of the storage area of the direct access device after the countermeasure according to the countermeasure plan specified by the countermeasure plan specifying process is performed is stored.
  • the free capacity of the storage 1 is 4 TB (terabyte) before the countermeasure plan specifying process is performed, and becomes 2 TB after the countermeasure is implemented.
  • the data stored in the free space management table 172 may be collected from each storage device ST by the management computer 1 or may be input by the administrator.
  • the post-measurement free capacity 1723 stores the same value as the current free capacity 1722.
  • FIG. 36 is a configuration diagram of an example of a countermeasure plan management table according to the second embodiment.
  • the countermeasure plan management table 173 is data for managing the countermeasure plan specified by the management computer 1.
  • the countermeasure plan management table 173 includes fields for a virtual volume ID 1731 and a migration destination storage 1732.
  • the virtual volume ID 1731 stores the identifier of the countermeasure-necessary volume 8.
  • the migration destination storage 1732 stores the name of the storage device ST that is the migration destination of the data of the entire countermeasure-necessary volume. From the figure, it can be seen that the management computer 1 has identified the countermeasure plan for moving the data of the entire countermeasure required volume “Volume 3” to the storage 1.
  • FIG. 37 is a configuration diagram of an example of a countermeasure required volume management table according to the second embodiment.
  • the countermeasure required volume management table 174 is data for managing the countermeasure required volume.
  • the countermeasure required volume management table 174 includes a field of a virtual volume ID 1741.
  • the virtual volume ID 1741 stores the identifier of the volume requiring countermeasures. From the figure, it can be seen that the virtual volume “Volume3” is a volume requiring countermeasures.
  • FIG. 38 is a configuration diagram of an example of a volume capacity management table according to the second embodiment.
  • the volume capacity management table 175 is data for managing the overall capacity and used capacity of each of the one or more virtual volumes 8 existing in the computer system.
  • the volume capacity management table 175 includes fields for virtual volume ID 1751, capacity 1752, and used capacity 1753.
  • the virtual volume ID 1751 stores the identifier of the virtual volume 8.
  • a value indicating the entire capacity of the virtual volume 8 is stored.
  • the used capacity 1753 a value indicating the used capacity of the virtual volume 8 is stored. For example, it can be seen from the first entry from the top in the figure that the total capacity of the virtual volume “Volume2” is 1 TB and the used capacity is 200 GB (gigabytes).
  • FIG. 39 is a flowchart of maintenance work support processing according to the second embodiment.
  • the maintenance work support process according to the second embodiment is substantially the same as the maintenance work support process according to the first embodiment of FIG.
  • the processes in steps S801 to S808 in FIG. 39 are the same as the processes in steps S101 to S108 in FIG.
  • the processing from step S813 to step S815 in FIG. 39 is similar to the processing from step S110 to step S112 in FIG. 22 is performed in step S801.
  • the physical connection management table 171, the free capacity management table 172, and the volume capacity management table 175 are also displayed at this time. The contents are updated to match the configuration of the computer system.
  • step S204 in FIG. 22 all entries of the countermeasure plan management table 173 and the countermeasure required volume management table 174 are deleted.
  • Step S806 when it is determined that there is an active stop-time inaccessible path (Step S806: Yes), the management program 14 performs countermeasure specification processing (Step S809). A countermeasure plan is identified by this countermeasure identification process.
  • the management program 14 displays on the display computer 10 a fourth determination result display screen (see FIG. 43) indicating the contents of the countermeasure plan specified in step S809 in addition to the fact that the storage device ST to be stopped cannot be stopped. Display, and the process proceeds to step S811 (step S810).
  • step S811 the management program 14 waits for the administrator's input to the fourth determination result display screen displayed in step S810, specifically, an input for instructing execution of the countermeasure plan. Then, the management program 14 determines whether the administrator has instructed the implementation of the countermeasure plan or whether a certain time has passed without the administrator instructing the implementation of the countermeasure plan.
  • the management program 14 implements the countermeasure according to the countermeasure plan (step S811). For example, when the identified countermeasure plan is a countermeasure plan for moving the data of the entire countermeasure required volume “Volume 3” to the storage 1, the management program 14 moves the data of the entire virtual volume “Volume 3” to the storage 1. Then, the management program 14 causes the storage 1 to set each window storage device ST of the virtualization server SV that uses the virtual volume “Volume3”. As a result, the virtualization server SV that accesses the virtual volume “Volume3” directly accesses the storage 1 in which data is actually stored, and the storage 1 is not the storage device ST to be stopped. There are no active inaccessible paths when stopped. Thereafter, the management program 14 advances the process to step S815.
  • step S811 timeout
  • the management program 14 advances the process to step S815. After completing the process of step S815, the management program 14 ends the maintenance work support process.
  • FIG. 40 is a flowchart of the measure specifying process according to the second embodiment.
  • the countermeasure identification process corresponds to the process of step S809 in FIG.
  • the management program 14 performs a countermeasure required volume specifying process (see FIG. 41) (step S901).
  • This countermeasure-necessary volume identification process identifies the countermeasure-necessary volume.
  • the management program 14 performs a countermeasure plan specifying process (see FIG. 42) (step S902).
  • a countermeasure plan is identified by this countermeasure plan identifying process.
  • the management program 14 ends the measure specifying process.
  • FIG. 41 is a flowchart of the countermeasure required volume specifying process according to the second embodiment.
  • the countermeasure required volume specifying process corresponds to the process of step S901 in FIG.
  • the management program 14 performs the processing from step S1001 to step S1007 for each entry in which data indicating active is stored in 1645 of the entries registered in the stop-time inaccessible path management table 164. I do.
  • the management program 14 determines whether one of the entries registered in the stop-time inaccessible path management table 164 is active or not, in which data indicating active is stored in 1645 (hereinafter, description of FIG. 41). In FIG. 2, “entry A” is selected.
  • target cause path the active stop-time inaccessible path indicated by the entry A, that is, the cause path is referred to as “target cause path”.
  • the management program 14 identifies an entry in which the value of the host 1521 matches the value of the virtualization server 1641 of the entry A from the entries of the host access path integrated management table 152 (step S1002). In other words, in step S1002, the entry related to the access source server SV of the target cause path in the host access path integrated management table 152 is specified. The management program 14 can know the virtual volume 8 accessed by the access source server SV of the target cause path by referring to the specified entry.
  • the management program 14 performs the processing from step S1003 to step S1006 for each entry specified in step S1002.
  • the management program 14 selects one of the entries specified in step S1002 (hereinafter referred to as “entry B” in the description of FIG. 41).
  • entity B the entries specified in step S1002
  • the virtual volume 8 indicated by the virtual volume ID 1522 of the entry B is referred to as “target virtual volume”.
  • the management program 14 matches the value of the virtual volume ID 1531 of the entry B with the value of the virtual volume ID 1522 and the value of the storage 1533 of the data storage destination storage 1643 of the entry A. It is determined whether there is an entry that matches the value (step S1004). That is, in step S1004, whether or not the storage area of the target storage device ST of the target cause path is allocated to the target virtual volume, that is, the access source server SV of the target cause path accesses using the target cause path. It is determined whether or not the VM data 72 is stored in the target virtual volume.
  • an entry in which the value of the virtual volume ID 1531 matches the value of the virtual volume ID 1522 of the entry B and the value of the storage 1533 matches the value of the data storage destination storage 1643 of the entry A if the VM data 72 accessed by the access source server SV of the target cause path using the target cause path is stored in the target virtual volume (step 1004: Yes), the management program 14 An entry indicating the target virtual volume is created, and the created entry is registered in the countermeasure required volume management table 174. That is, in this case, the target virtual volume is identified as a countermeasure-needed volume.
  • the value of the virtual volume ID 1531 matches the value of the virtual volume ID 1522 of the entry B, and the value of the storage 1533 matches the value of the data storage destination storage 1643 of the entry A. If there is no entry to be processed, that is, the VM data 72 accessed by the access source server SV of the target cause path using the target cause path is not stored in the target virtual volume (step 1004: No), the management program 14 Determines that the target virtual volume 8 is not a countermeasure-necessary volume.
  • the management program 14 finishes the processing of steps S1003 to S1006 for each entry specified in step S1002, and sets whether or not the entry registered in the stop-time inaccessible path management table 164 is active 1645. After the processing of steps S1001 to S1007 is completed for each entry storing the indicated data, the countermeasure-necessary volume specifying processing is terminated.
  • the management computer 1 stores the VM data 72 that is accessed by the virtualization server SV using the cause path among the one or more virtual volumes 8 used by the virtualization server SV having the cause path.
  • the identified virtual volume 8 is identified, and the identified virtual volume 8 is identified as a countermeasure-needed volume.
  • FIG. 42 is a flowchart of the measure plan specifying process according to the second embodiment.
  • the countermeasure plan identification process corresponds to the process of step S902 in FIG.
  • the management program 14 performs steps S1101 to S1113 for each entry registered in the countermeasure required volume management table 174.
  • the management program 14 selects one of the entries registered in the countermeasure required volume management table 174 (hereinafter referred to as “entry A” in the description of FIG. 42).
  • entity A the entries registered in the countermeasure required volume management table 174
  • target countermeasure required volume the countermeasure required volume indicated by the entry A is referred to as “target countermeasure required volume”.
  • the management program 14 performs the processing from step S1102 to step S1112 on each storage device ST other than the storage device ST to be stopped sharing the target countermeasure required volume.
  • the management program 14 selects one of the storage devices ST other than the storage device ST to be stopped (hereinafter referred to as “storage B” in the description of FIG. 42) that shares the target countermeasure required volume.
  • the management program 14 identifies an entry in which the value of the virtual volume ID 1522 matches the value of the virtual volume ID 1741 of the entry A from the entries of the host access path integrated management table 152 (step S1103). That is, in step S1103, an entry related to the target countermeasure required volume in the host access path integrated management table 152 is specified.
  • the management program 14 can know the virtualization server SV that accesses the target countermeasure required volume by referring to the specified entry.
  • the management program 14 performs the processing from step S1104 to step S1106 for each entry identified in step S1103.
  • the management program 14 selects one of the entries specified in step S1103 (hereinafter referred to as “entry C” in the description of FIG. 42).
  • entity C the entries specified in step S1103
  • target virtualization server the virtualization server SV indicated by the host 1521 of the entry C.
  • the management program 14 determines whether or not there is an entry in the physical connection management table 171 where the value of the host 1711 matches the value of the host 1521 of the entry C and the storage device ST indicated by the storage 1712 is the storage B. (Step S1105). That is, in step S1105, it is determined whether or not the storage B is a direct access device of the target virtualization server SV.
  • step S1105: No the management program 14 advances the process to step S1112. Then, if there is still a storage device ST other than the storage device ST to be stopped that shares the target countermeasure required volume, the management program 14 selects the storage device ST and performs the processing of steps S1102 to S1112 again. Do.
  • an entry in the physical connection management table 171 in which the value of the host 1711 matches the value of the host 1521 of the entry C and the storage device ST indicated by the storage 1712 is the storage B If it is determined that the storage B is a direct access device of the target virtualization server SV, the management program 14 advances the process to step S1107. That is, in this case, the storage B is a common direct access device of one or more virtualization servers SV that access the target countermeasure required volume.
  • step S1107 the management program 14 identifies an entry (hereinafter referred to as “entry D” in the description of FIG. 42) in which the storage apparatus ST indicated by the storage 1721 is the storage B from the entries of the free space management table 172. .
  • the management program 14 can know the free space in the storage area of the storage B that is a common direct access device by referring to the specified entry.
  • the management program 14 selects an entry in the volume capacity management table 175 whose virtual volume ID 1751 value matches the virtual volume ID 1741 value of the entry A (hereinafter referred to as “entry E” in the description of FIG. 42). (Step S1108).
  • the management program 14 can know the used capacity of the target countermeasure required volume by referring to the specified entry.
  • the management program 14 determines whether or not the value of the post-measure free space 1723 of the entry D is equal to or greater than the value of the used capacity 1753 of the entry E (step S1109). That is, it is determined whether or not the data of the entire target countermeasure required volume can be moved to the storage B that is a common direct access device.
  • step S1109: No If the value of the free space 1723 after countermeasure of the entry D is not equal to or greater than the value of the used capacity 1753 of the entry E (step S1109: No), the management program 14 advances the process to step S1112. Then, if there is still a storage device ST other than the storage device ST to be stopped that shares the target countermeasure required volume, the management program 14 selects the storage device ST and performs the processing of steps S1102 to S1112 again. Do.
  • the management program 14 stores the virtual volume ID 1741 of the entry A in the virtual volume ID 1731.
  • the management program 14 stores a value obtained by subtracting the value of the used capacity 1753 of the entry E from the value of the post-measurement free capacity 1723 of the entry D in the post-measurement free capacity 1723 of the entry D (step S1111). That is, in step S1111, the value of the post-measurement free space 1723 in the free space management table 172 is updated to the value when the measure according to the measure plan specified in step S1110 is implemented. Every time a countermeasure plan is specified, the management computer 1 can be prevented from deriving an impossible countermeasure plan by updating the value of the post-measurement free capacity 1723.
  • the management program 14 terminates the countermeasure plan specifying process after completing the processing of steps S1101 to S1113 for each entry registered in the countermeasure required volume management table 174.
  • the management computer 1 identifies the common direct access device of one or more virtualization servers SV that accesses the countermeasure required volume for the countermeasure required volume, and the used capacity of the countermeasure required volume and the storage area of the common direct access device. Based on the available capacity, determine whether the data for the entire volume requiring countermeasures can be moved to the common direct access device. If it is determined that the data can be moved, move the data for the entire volume requiring countermeasures to the common direct access device. Is specified as a countermeasure plan.
  • FIG. 43 is a configuration diagram of an example of a fourth determination result display screen according to the second embodiment.
  • the fourth determination result display screen 65 specifies that fact and the management computer 1. This is a screen for notifying the administrator of the contents of the countermeasure plan.
  • the fourth determination result display screen 65 displays an area 651 for displaying the determination result of whether or not to stop, an area 653 for displaying information on the inoperable VM 71, and the contents of the countermeasure plan specified by the management computer 1. And an area 654 for display.
  • the region 651 and the region 653 are substantially the same as the region 641 and the region 643 of the third determination result display screen 64 according to the first embodiment.
  • a list unit 6540 corresponding to one or more countermeasure plans is displayed in a list.
  • Each list unit 6540 includes information on each countermeasure plan, for example, an identifier of the countermeasure-necessary volume and the name of the storage device ST that is the migration destination of data of the entire countermeasure-necessary volume.
  • the fourth determination result display screen 65 is a page function for displaying a part of each list unit 6540 when the number of list units 6540 is large, and filtering and displaying a part of the plurality of list units 6540. And a function of sorting and displaying a plurality of list units 6540.
  • the area 654 includes a button 6544 for instructing the management computer 1 to implement a countermeasure according to the countermeasure plan.
  • the management computer 1 starts the process of step S812 in the maintenance work support process, and follows the countermeasure plan designated by the administrator. To implement.
  • the management computer 1 allows the administrator to designate a countermeasure plan to be executed, so that the administrator can cause the designated countermeasure plan among the plurality of countermeasure plans to be implemented when a plurality of countermeasure plans are specified. .
  • the administrator can know that the storage device ST to be stopped cannot be stopped unless measures are taken. Further, the administrator can know the cause path by referring to the list unit 6530 of each inoperable VM 71 in the area 653. Furthermore, the administrator can know what countermeasures are available as a countermeasure for stopping the storage apparatus ST to be stopped by referring to the list unit 6540 of each countermeasure plan in the area 654. As a result, it is possible to save the administrator from having to consider countermeasures themselves.
  • SYMBOLS 1 Management computer, ST ... Storage apparatus, SV ... Virtualization server, 41 ... SAN, 42 ... Management LAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 計算機システムが、複数のストレージ装置により共有される仮想ボリューム(仮想的な論理ボリューム)を利用するサーバを含む。この計算機システムを管理する管理システムは、複数のストレージ装置のうちから判定対象とする第1のストレージ装置の選択を受け付け、第1のストレージ装置が含まれる第1のアクセスパスが存在するか否かの第1の判定を行い、第1のアクセスパスが存在する場合、第1のアクセスパスが、仮想ボリュームのサーバが利用している部分に割当てられている記憶領域(ストレージ装置の記憶領域)に対して、当該サーバがアクセスする際に利用するアクティブなアクセスパスであるか否かの第2の判定を行い、第1の判定の結果又は第2の判定の結果に基づいて、第1のストレージ装置を停止できるか否かを判定する。アクセスパスは、サーバから一のストレージ装置までの経路である。

Description

管理システム及び管理方法
 本発明は、計算機システムの管理を行う管理システム及びその管理方法に関する。
 複数のストレージ装置を運用する環境において、複数のストレージ装置を仮想化して1つの仮想ストレージ装置とし、その運用及び管理を容易化する技術が提案されている。この技術によれば、ホストは、仮想ストレージ装置が提供する仮想的な論理ボリューム(以下「仮想ボリューム」という)に、仮想ストレージ装置を構成するいずれの物理的なストレージ装置からでもアクセス可能である。また、1つの仮想ボリュームのデータは、仮想ボリュームを共有する複数のストレージ装置に分散して格納される。これにより、複数のホストが同じ仮想ボリュームを利用する場合に、1つのストレージ装置の制御部に負荷が集中しないようにアクセスを分散させることができる。また、1つのストレージ装置の空き容量が枯渇した場合でも別のストレージ装置の空き容量を利用できるため、空き容量の管理をストレージ装置個別に行わずに済むというメリットもある。
 例えば、仮想ストレージ装置は、複数のストレージ装置のそれぞれの記憶領域をまとめたプールを構成し、そのプール上に、シンプロビジョニング(Thin Provisioning)技術に基づく仮想ボリュームを作成し、作成した仮想ボリュームをホストに提供する。ホストは、仮想ボリュームを共有するいずれのストレージ装置からでも仮想ボリューム上のデータにアクセス可能である。ストレージ装置は、ホストからリード要求を受信した場合、リード対象のデータがどのストレージ装置に実際に格納されているかを特定し、特定したストレージ装置からリード対象のデータを取得した上で、ホストに返却する。また、ストレージ装置は、ホストからライト要求を受信し、それが新規データのライト要求であった場合、プールを共有するすべてのストレージ装置の空き領域の中から、新規データの格納先の領域を選択する。
 また、特許文献1は、ストレージ装置におけるパス管理の技術を開示している。
特開2009-259031号公報
 ストレージ装置の仮想化技術では、仮想化により通常運用が容易になる反面、ストレージ装置の構成、例えば、複数のストレージの接続関係、記憶領域の割当て関係等を考慮する必要がある作業、例えば、保守作業、障害調査等が困難となる場合がある。
 例えば、複数のストレージ装置を含む計算機システムにおいて、ストレージ装置のファームウェアアップデートのような保守作業を行う為に、一部のストレージ装置を一時的に停止しなければならない場合がある。このとき、管理者は、ストレージ装置の停止によって影響を受ける装置の範囲(以下「影響範囲」という)を、ストレージ装置の構成から判断する。しかし、ストレージ装置の仮想化技術が導入された環境では、管理者は、影響範囲を必要以上に大きく判断してしまう場合がある。
 具体的には、ストレージ装置の仮想化技術が導入された環境では、複数のストレージ装置の記憶領域が同じ仮想ボリュームに割当てられている。そのため、仮想ボリュームを共有する複数のストレージ装置のうちのいずれか1つでも停止する場合には、記憶領域の割当て関係を有する仮想ボリューム全体、すなわち、仮想ボリュームを共有するストレージ装置全部に影響があると判断され得る。しかし、例えば、ホストの仮想ボリュームの利用状況(ホストが仮想ボリュームのどの部分を利用しているか等)、ストレージ装置間のデータ通信の有無等によっては、停止対象のストレージ装置と同じ仮想ボリュームを共有するストレージ装置であっても、停止の影響を受けない場合がある。影響範囲が大きく判断されてしまうと、システム管理における時間的なコスト、対策検討コスト等が増加し、場合によってはストレージ装置を停止できず保守作業等ができないという状況になりかねない。
 管理システムは、複数のストレージ装置と、複数のストレージ装置により共有される仮想ボリューム(仮想的な論理ボリューム)を利用するサーバとを含む計算機システムの管理を行う。管理システムの記憶デバイスは、アクセスパス情報を記憶する。アクセスパス情報は、サーバが複数のストレージ装置のそれぞれの記憶領域にアクセスする際に利用する、サーバから一のストレージ装置までの経路であるアクセスパスのそれぞれについて、当該アクセスパス上に存在する1以上のストレージ装置を示す情報である。管理システムの制御デバイスは、複数のストレージ装置のうちから判定対象とする第1のストレージ装置の選択を受け付け、アクセスパス情報に基づいて、第1のストレージ装置が含まれる第1のアクセスパスが存在するか否かの第1の判定を行う。第1のアクセスパスが存在する場合、制御デバイスは、第1のアクセスパスが、仮想ボリュームのサーバが利用している部分に割当てられている記憶領域に対して、当該サーバがアクセスする際に利用するアクティブなアクセスパスであるか否かの第2の判定を行い、第1の判定の結果又は第2の判定の結果に基づいて、第1のストレージ装置を停止できるか否かを判定する。
図1は、実施例1の概要を説明する図である。 図2は、実施例1に係る計算機システムの一例の構成図である。 図3は、実施例1に係る仮想化サーバの一例の構成図である。 図4は、実施例1に係る稼働VM管理表の一例の構成図である。 図5は、実施例1に係るVMデータ管理表の一例の構成図である。 図6は、実施例1に係るストレージ装置の一例の構成図である。 図7は、実施例1に係るホストアクセスパス管理表の一例の構成図である。 図8は、実施例1に係る装置間アクセスパス管理表の一例の構成図である。 図9は、実施例1に係る仮想-実ページ対応管理表の一例の構成図である。 図10は、実施例1に係る管理計算機の一例の構成図である。 図11は、実施例1に係るホスト管理表の一例の構成図である。 図12は、実施例1に係るホストアクセスパス統合管理表の一例の構成図である。 図13は、実施例1に係る装置間アクセスパス統合管理表の一例の構成図である。 図14は、実施例1に係る仮想-実ページ対応統合管理表の一例の構成図である。 図15は、実施例1に係るVMデータ統合管理表の一例の構成図である。 図16は、実施例1に係る稼働VM統合管理表の一例の構成図である。 図17は、実施例1に係るVMデータアクセスパス管理表の一例の構成図である。 図18は、実施例1に係る停止時アクセス不可パス管理表の一例の構成図である。 図19は、実施例1に係る稼働VMデータ格納先管理表の一例の構成図である。 図20は、実施例1に係る停止時不可マイグレーション管理表の一例の構成図である。 図21は、実施例1に係る保守作業支援処理のフローチャートである。 図22は、実施例1に係る事前準備処理のフローチャートである。 図23は、実施例1に係る停止時アクセス不可パス特定処理のフローチャートである。 図24は、実施例1に係るVMデータアクセスパス特定処理のフローチャートである。 図25は、実施例1に係る停止時アクセス可否判定処理のフローチャートである。 図26は、実施例1に係るアクティブな停止時アクセス不可パス特定処理のフローチャートである。 図27は、実施例1に係るアクティブ非アクティブ判定処理のフローチャートである。 図28は、実施例1に係る初期画面の一例の構成図である。 図29は、実施例1に係る第1の判定結果表示画面の一例の構成図である。 図30は、実施例1に係る第2の判定結果表示画面の第1の例の構成図である。 図31は、実施例1に係る第2の判定結果表示画面の第2の例の構成図である。 図32は、実施例1に係る第3の判定結果表示画面の一例の構成図である。 図33は、実施例2に係る管理計算機の一例の構成図である。 図34は、実施例2に係る物理接続管理表の一例の構成図である。 図35は、実施例2に係る空き容量管理表の一例の構成図である。 図36は、実施例2に係る対策プラン管理表の一例の構成図である。 図37は、実施例2に係る対策必要ボリューム管理表の一例の構成図である。 図38は、実施例2に係るボリューム容量管理表の一例の構成図である。 図39は、実施例2に係る保守作業支援処理のフローチャートである。 図40は、実施例2に係る対策特定処理のフローチャートである。 図41は、実施例2に係る対策必要ボリューム特定処理のフローチャートである。 図42は、実施例2に係る対策プラン特定処理のフローチャートである。 図43は、実施例2に係る第4の判定結果表示画面の一例の構成図である。
 本発明の実施例について、図面を参照して説明する。なお、以下に説明する実施例は特許請求の範囲にかかる発明を限定するものではなく、また実施例の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。これらの図面において、複数の図を通じて同一の符号は同一の構成要素を示している。
 なお、以後の説明では「aaa表」等の表現にて本発明の情報を説明するが、これら情報はテーブル、リスト、DB、キュー等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaa表」等について「aaa情報」と呼ぶことがある。
 また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについては互いに置換が可能である。
 以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムは、プロセッサによって実行されることで定められた処理をメモリ及び通信ポート(SANポート、LANポート)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理計算機等の計算機が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。
 以後、計算機システムを管理し、表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機が表示用情報を表示する場合は管理計算機が管理システムである、また、管理計算機と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
 図1は、実施例1の概要を説明する図である。
 管理システム(管理計算機1及び表示用計算機10)は、1以上のホストとなる仮想化サーバSVと、1以上のストレージ装置(単に「ストレージ」という場合もある)STとを含む計算機システムの管理を行う。
 実施例1では、管理システムの操作者である管理者が保守作業の為に停止しようとしている停止対象(判定対象)のストレージ装置ST(第1のストレージ)を指示し、管理計算機1がそのストレージ装置STを停止した場合の影響範囲を特定する。管理計算機1は、まず、ストレージ装置STの構成情報を用いて、仮想化サーバSVが仮想ボリューム8を共有する各ストレージ装置STにアクセスする際に利用する、仮想化サーバSVから各ストレージ装置STまでの経路(以下「VMデータアクセスパス」又は単に「アクセスパス」という)51、52の中に、停止対象のストレージ装置STを停止した場合に利用できなくなるアクセスパス(以下「停止時アクセス不可パス」という)(第1のアクセスパス)が存在するか否かを判定する。次に、管理計算機1は、停止時アクセス不可パスが存在する場合、ホスト(仮想化サーバSV)の設定情報を用いて、停止時アクセス不可パスがアクティブであるか否か、すなわち、ホストが停止時アクセス不可パスを実際に使っているか否かを判定する。停止時アクセス不可パスが存在しない又は停止時アクセス不可パスが存在するが、停止時アクセス不可パスがすべて非アクティブである場合、管理計算機1は、停止対象のストレージ装置STは停止可能であると判定する。アクティブな停止時アクセス不可パスが存在する場合、管理計算機1は、停止対象のストレージ装置STは停止不可能であると判定する。その後、管理計算機1は、判定結果を表示用計算機10に表示することにより管理者に伝える。アクセスパスの1以上のノードは、1以上のストレージ装置で良い。
 管理計算機1は、停止対象のストレージ装置STが停止可能であると判定した場合、続けて保守作業を行うか否かを管理者に尋ねる。管理者が保守作業を行うよう指示した場合、管理計算機1は、停止対象のストレージ装置STを実際に停止して、保守作業を行う。また、管理計算機1は、停止時アクセス不可パスが存在するがすべて非アクティブである場合、停止対象のストレージ装置STを停止したときに、非アクティブな停止時アクセス不可パスが存在することによって制限される操作であって、計算機システムの構成変更(例えば、ストレージ装置STの構成の変更、仮想化サーバSVの設定の変更等)に係る操作(以下「操作制限」という)を特定する。管理計算機1は、判定結果を管理者に伝える際に、操作制限の内容を合わせて管理者に伝える。管理者は、操作制限を確認し、それらが許容できるか否かを判断し、許容できれば管理計算機1に保守作業を行うよう指示する。
 実施例1の計算機システムは、図1に示すように、仮想化サーバ1及び仮想化サーバ2の2つの仮想化サーバSVと、ストレージ1、ストレージ2及びストレージ3の3つのストレージ装置STとを有する。仮想化サーバ1、仮想化サーバ2、ストレージ1、ストレージ2及びストレージ3は、ストレージエリアネットワーク(SAN)41を介して相互に接続されている。また、ストレージ1とストレージ2、ストレージ2とストレージ3は、それぞれ専用線43を介して相互に接続されている。仮想化サーバSVとストレージ装置STとの間のデータ通信は、SAN41を介して行われる。一方、ストレージST間のデータ通信は、専用線43を介して行われる。専用線43を介して直接接続されていないストレージST間(ストレージ1とストレージ3)のデータ通信は、その間の他のストレージST(ストレージ2)を介して行われる。
 仮想化サーバ1上では、VMa、VMb及びVMcの3つのVM(仮想マシン)71が稼動している。また、仮想化サーバ2上では、VMd、VMe及びVMfの3つのVM71が稼動している。ストレージ1、ストレージ2及びストレージ3は、仮想ボリューム8(VMデータ格納ボリューム)を共有しており、それを仮想化サーバ1及び仮想化サーバ2に提供する。仮想ボリューム8は、ストレージ1及びストレージ3のRAID(Redundant Arrays of Inexpensive Disks)グループ26の記憶領域が割当てられることにより形成されている。仮想ボリューム8上には、各VM71に利用されるデータ(以下「VMデータ」という)72が格納されている。仮想化サーバ1及び仮想化サーバ2は、自身の上で稼動するVM71のVMデータ72にアクセスするために、仮想ボリューム8にアクセスする。
 仮想化サーバSVは、仮想ボリューム8にアクセスする際、仮想ボリューム8を共有する複数のストレージ装置STのうちの1つのストレージ装置STを窓口としてアクセス要求(ライト要求又はリード要求)を発行する。ここで、窓口となるストレージ装置を、以下「窓口ストレージ装置」という。実施例1において、仮想化サーバ1は、ストレージ1を窓口ストレージ装置STとし、ストレージ1から仮想ボリューム8にアクセスする。また、仮想化サーバ2は、ストレージ3を窓口ストレージ装置STとし、ストレージ3から仮想ボリューム8にアクセスする。VMa、VMb及びVMcのVMデータ72は、実際にはストレージ1のRAIDグループ26の記憶領域に格納されている。また、VMd、VMe及びVMfのVMデータ72は、実際にはストレージ3のRAIDグループ26の記憶領域に格納されている。
 このような構成において、仮想化サーバ1がVMa、VMb、VMcのVMデータ72にアクセスする際、ストレージ1のみがそのアクセスに関係する。なぜなら、仮想化サーバ1は、仮想ボリューム8にストレージ1からアクセスし、また、VMa、VMb、VMcのVMデータ72は、ストレージ1のRAIDグループ26の記憶領域に格納されているからである。一方、仮想化サーバ1がVMd、VMe、VMfのVMデータ72にアクセスする際、ストレージ1、ストレージ2及びストレージ3がそのアクセスに関係する。なぜなら、仮想化サーバ1は、VMデータ格納ボリューム8にストレージ1からアクセスするが、VMd、VMe、VMfのVMデータ72は、ストレージ3のRAIDグループ26の記憶領域に格納されており、ストレージ1からストレージ2を介してストレージ3にアクセスすることとなるからである。
 ここで、ストレージ2を停止した場合、仮想化サーバ1からVMa、VMb、VMcのVMデータ72へのアクセスは、継続して可能である。なぜならば、そのアクセスにストレージ2が関係しないから、すなわち、仮想化サーバ1からVMa、VMb、VMcのVMデータ72が格納されているストレージ1までのアクセスパス51上に、ストレージ2が存在しない(含まれていない)からである。一方、仮想化サーバ1からVMd、VMe、VMfのVMデータ72へのアクセスは、不可能となる。なぜならば、そのアクセスにストレージ2が関係するから、すなわち、仮想化サーバ1からVMd、VMe、VMfのVMデータ72が格納されているストレージ3までのアクセスパス52上に、ストレージ2が存在するからである。従って、アクセスパス52は、停止時アクセス不可パスとなる。しかし、仮想化サーバ1からVMd、VMe、VMfのVMデータ72へのアクセスが不可能となっても、現在仮想化サーバ1上で稼動しているVM71の動作には影響がない。なぜならば、VMd、VMe、VMfは仮想化サーバ1上で稼動しておらず、仮想化サーバ1はVMd、VMe、VMfのVMデータ72を利用していないから、すなわち、アクセスパス52は非アクティブだからである。ただし、アクセスパス52が利用できなくなるため、ストレージ2の停止中に、例えばVMdを仮想化サーバ2から仮想化サーバ1へ移行して仮想化サーバ1で稼動させるようにする事はできない。これは、ストレージ2を停止した場合の操作制限となる。
 管理計算機1は、このようなVM71の動作に影響を与えるか否かの判定を、各仮想化サーバSVとVM71との組み合わせについて行い、判定結果を管理者に伝える。図1の構成においては、ストレージ2を停止しても、仮想化サーバ1及び仮想化サーバ2のそれぞれの上で稼動するVM71の動作には影響がないことが分かる。したがって、ストレージ2を停止するために、事前の対策は不要である。ただし、停止中は一部の操作が不可能となる。管理計算機1は、その不可能となる操作、すなわち操作制限についても管理者に伝える。
 なお、本実施例では、ストレージ装置STを利用するホストとして仮想化サーバSVを例にとって説明するが、仮想化サーバSV以外、例えば、物理サーバがホストであってもよい。また、本実施例では、操作制限として、仮想化サーバSV間のVM71の移行(以下「VMマイグレーション」という)を例にとって説明するが、VMマイグレーション以外にも様々な操作制限が考えられる。また、仮想ボリューム8を共有するストレージ装置STとは、仮想ストレージ装置を構成するストレージ装置STのことを意味し、必ずしもそのストレージ装置STの記憶領域が仮想ボリューム8に割当てられている必要はない。
 図2は、実施例1に係る計算機システムの一例の構成図である。
 計算機システムは、管理計算機1と、表示用計算機10と、1以上(同図では、2つ)の仮想化サーバSV(仮想化サーバ1及び仮想化サーバ2)と、複数(同図では、3つ)のストレージ装置ST(ストレージ1、ストレージ2及びストレージ3)と、SAN41と、管理用LAN(Local Area Network)42とを有する。仮想化サーバ1、仮想化サーバ2、ストレージ1、ストレージ2及びストレージ3は、SAN41を介して相互に接続される。また、ストレージ1とストレージ2、ストレージ2とストレージ3は、それぞれ専用線43を介して相互に接続される。また、管理計算機1、各仮想化サーバSV、各ストレージSTは、管理用LAN42を介して相互に接続される。管理計算機1と表示用計算機10の組み合わせは、計算機システムの管理を行う管理システムを構成する。なお、管理計算機1が、表示用計算機10の機能をも有している場合は、計算機システムは表示用計算機10を含まなくともよい。この場合は、管理計算機1が管理システムとなる。また、SAN41は、FC(Fibre Channel)の接続方式を採用してもよいし、iSCSI(Internet Small Computer System Interface)の接続方式を採用してもよい。本実施例に係る計算機システムは、2つの仮想化サーバSV、3つのストレージ装置STを有しているが、仮想化サーバSV及びストレージ装置STの数は、幾つでもよい。
 図3は、実施例1に係る仮想化サーバの一例の構成図である。
 仮想化サーバSVは、サーバプログラム等を実行し、ユーザに対して所定のサービスを提供する計算機である。仮想化サーバSVは、その上で1以上のVM71を稼働させることで1以上の仮想的なサーバマシンとして機能する。仮想化サーバSVは、CPU(Central Processing Unit)31と、メモリ32と、SANポート33と、LANポート34と、内部バス35とを有する。CPU31、メモリ32、SANポート33及びLANポート34は、内部バス35を介して相互に接続される。CPU31は、メモリ32に格納された各種プログラムを実行する。メモリ32は、半導体記憶装置であってもよいし、ハードディスクドライブ(HDD)等の二次記憶装置であってもよいし、半導体記憶装置及び二次記憶装置の組み合わせであってもよい。SANポート33は、SAN41に接続するためのインターフェースデバイスであり、主にユーザデータ、例えば、仮想ボリューム8に書き込まれるデータ、仮想ボリューム8から読み出されるデータ等の入出力を行う際に利用される。LANポート34は、管理用LAN42に接続するためのインターフェースデバイスであり、主に管理用データ、例えば、計算機システムや計算機システムを構成する各装置の構成情報等の入出力を行う際に利用される。
 メモリ32は、VMデータ管理表321と、稼働VM管理表322と、ハイパーバイザ323と、1以上のVM定義データ324とを記憶する。ハイパーバイザ323は、VM71を稼働させるためのプログラムである。VM定義データ324は、仮想化サーバSV上で稼働しているVM71ごとに用意されるデータであり、VM71を稼働させるために必要な情報、例えば、VM71に割当てられるメモリの容量、VM71が利用可能なCPUの個数等を含むデータである。VMデータ管理表321及び稼働VM管理表322については、後述する。
 図4は、実施例1に係る稼働VM管理表の一例の構成図である。
 稼働VM管理表322は、仮想化サーバSV上で稼働しているVM(以下「稼働VM」という)71を管理するためのデータである。稼働VM管理表322は、VM3221のフィールドを含む。VM3221には、稼働VM71の名前が格納される。なお、図4は、仮想化サーバ1が記憶している稼働VM管理表322である。同図から、仮想化サーバ1上では、VMa、VMb及びVMcが稼働していることがわかる。
 図5は、実施例1に係るVMデータ管理表の一例の構成図である。
 VMデータ管理表321は、各稼働VM71について、そのVMデータ72が格納されている仮想ボリューム8と、そのVMデータ72の仮想ボリューム8上の格納位置とを管理するためのデータである。VMデータ管理表321は、VM3211、サイズ3212、LUN3213及び先頭アドレス3214のフィールドを含む。VM3211には、稼働VM71の名前が格納される。サイズ3212には、稼働VM71のVMデータ72のサイズが格納される。LUN3213には、稼働VM71のVMデータ72が格納されている仮想ボリューム8のLUN(Logical Unit Number)が格納される。先頭アドレス3214には、稼働VM71のVMデータ72が格納されている、仮想ボリューム8上の領域の先頭アドレスが格納される。例えば、同図の上から1番目のエントリから、VMaのVMデータ72は、仮想ボリューム「LUN0」上のアドレス「0x0000」を先頭とする100GBの領域に格納されていることがわかる。なお、本実施例では、VMデータ72は、仮想ボリューム8上にシーケンシャルに格納されることを前提としているが、VMデータ72の格納形態は、これに限られない。例えば、VMデータ72が、仮想ボリューム8上の複数のページに分散して格納されてもよい。この場合、例えば、格納先の複数のページのそれぞれを特定する情報が、VMデータ管理表321で管理される。
 図6は、実施例1に係るストレージ装置の一例の構成図である。
 ストレージ装置STは、仮想化サーバSV等に記憶領域を提供する装置である。ストレージ装置STは、CPU21と、メモリ22と、1以上のSANポート23と、LANポート24と、1以上の物理記憶デバイス25と、内部バス27とを有する。CPU21、メモリ22、SANポート23、LANポート24及び物理記憶デバイス25は、内部バス27を介して相互に接続される。CPU21は、メモリ22に格納された各種プログラムを実行する。物理記憶デバイス25は、ハードディスクドライブ、固体記憶媒体、又は光記憶媒体のいずれであってもよく、また、他の種類の記憶媒体であってもよい。1以上のRAIDグループ26は、1以上の物理記憶デバイス25により構成される。RAIDグループ26の記憶領域、すなわち、RAIDグループ26を構成する物理記憶デバイス25上の記憶領域が、仮想ボリューム8に割当てられる。仮想ボリューム8とRAIDグループ26との間には、記憶領域のプール(ストレージプール)のような仮想化レイヤが入ってもよい。SANポート23は、SAN41に接続するためのインターフェースデバイスであり、主にユーザデータの入出力を行う際に利用される。LANポート24は、管理用LAN42に接続するためのインターフェースデバイスであり、主に管理用データの入出力を行う際に利用される。
 メモリ22は、ストレージ制御プログラム221と、ホストアクセスパス管理表222と、装置間アクセスパス管理表223と、仮想-実ページ対応管理表224とを記憶する。ストレージ制御プログラム221は、ストレージ装置STの制御を行うプログラムである。ホストアクセスパス管理表222は、当該ホストアクセスパス管理表222を記憶するストレージ装置STを窓口とする仮想化サーバSVと当該仮想化サーバSVが利用する仮想ボリューム8とを示す情報(サーバストレージ間情報)である。装置間アクセスパス管理表223は、当該装置間アクセスパス管理表223を記憶するストレージ装置STから他のストレージ装置STまでの経路上に存在する1以上のストレージ装置STを示す情報(ストレージ間情報)である。仮想-実ページ対応管理表224は、当該仮想-実ページ対応管理表224を記憶するストレージ装置STの記憶領域が仮想ボリューム8のどの部分(位置)に割当てられているか示す情報(個別割当て情報)である。ホストアクセスパス管理表222、装置間アクセスパス管理表223及び仮想-実ページ対応管理表224の詳細については、後述する。
 図7は、実施例1に係るホストアクセスパス管理表の一例の構成図である。
 ホストアクセスパス管理表222は、当該ホストアクセスパス管理表222を記憶するストレージ装置(以下、図7の説明において「対象ストレージ装置」という)STを窓口とする仮想化サーバ(以下、図7の説明において「対象仮想化サーバ」という)SVについての、対象仮想化サーバSVから対象ストレージ装置STまでの経路(以下「ホストアクセスパス」という)を管理するためのデータである。ホストアクセスパス管理表222は、WWN2221、仮想ボリュームID2222、ポート2223及びLUN2224のフィールドを含む。WWN2221には、対象仮想化サーバSVのSANポート33のWWN(World Wide Name)が格納される。仮想ボリュームID2222には、対象仮想化サーバSV(より正確には、対象仮想化サーバSVの稼働VM71)がアクセスする仮想ボリューム8の識別子が格納される。ポート2223には、対象仮想化サーバSVが仮想ボリューム8にアクセスする際に利用する、対象ストレージ装置STのSANポート23の識別子が格納される。LUN2224には、対象仮想化サーバSVが仮想ボリューム8にアクセスする際に利用する、仮想ボリューム8のLUNが格納される。同図から、SANポート「WWN-1」を有する仮想化サーバSVが、対象ストレージ装置STの「Port11」のSANポート23を利用して、「Volume3」の仮想ボリュームにアクセスすることがわかる。
 図8は、実施例1に係る装置間アクセスパス管理表の一例の構成図である。
 装置間アクセスパス管理表223は、当該装置間アクセスパス管理表223を記憶するストレージ装置(以下、図8の説明において「対象ストレージ装置」という)STと、仮想ボリューム8を共有する他のストレージ装置STとの間の経路(以下「装置間アクセスパス」)を管理するためのデータである。装置間アクセスパス管理表223は、アクセス先ストレージ2231及び経由ストレージ2232のフィールドを含む。アクセス先ストレージ2231には、アクセス先のストレージ装置STの名前が格納される。経由ストレージ2232には、対象ストレージ装置STが、アクセス先ストレージ2231が示すストレージ装置STにアクセスする際に経由(正確には、対象ストレージ装置STが発行したアクセス要求のデータが経由)するストレージ装置STの名前が格納される。図中の「-」は、経由するストレージ装置STがないこと、すなわち、対象ストレージ装置STが、アクセス先ストレージ2231が示すストレージ装置STに直接アクセスすることを示している。また、複数のストレージ装置STを経由する場合は、経由ストレージ2232には、経由する複数のストレージ装置STの名前が格納される。なお、図8は、ストレージ1が記憶している装置間アクセスパス管理表223である。同図から、ストレージ1は、ストレージ2には直接アクセスし、ストレージ3にはストレージ2を経由してアクセスすることがわかる。
 図9は、実施例1に係る仮想-実ページ対応管理表の一例の構成図である。
 仮想-実ページ対応管理表224は、当該仮想-実ページ対応管理表224を記憶するストレージ装置(以下、図9の説明において「対象ストレージ装置」という)STの記憶領域が、仮想ボリューム8のどの部分(位置)に割当てられているかを管理するためのデータである。仮想-実ページ対応管理表224は、仮想ボリューム8の記憶領域を構成する仮想ページと、その仮想ページに割当てられている、RAIDグループ26の記憶領域を構成する実ページとの対応関係を管理する。仮想-実ページ対応管理表224は、仮想ボリュームID2241、アドレス2242、ストレージ2243、RAIDグループ2244及びアドレス2245のフィールドを含む。仮想ボリュームID2241には、仮想ボリューム8の識別子が格納される。アドレス2242には、仮想ページの仮想ボリューム8上のアドレスが格納される。ストレージ2243には、対象ストレージ装置STの名前が格納される。RAIDグループ2244には、アドレス2242が示すアドレスの仮想ページに割当てられている実ページを有するRAIDグループ26の名前が格納される。アドレス2245には、アドレス2242が示すアドレスの仮想ページに割当てられている実ページのRAIDグループ26上のアドレスが格納される。例えば、同図の上から1番目のエントリから、対象ストレージ装置STであるストレージ1のRAIDグループ1上のアドレス「0x0000」の実ページが、仮想ボリューム「Volume3」上のアドレス「0x0000」の仮想ページに割当てられていることがわかる。
 図10は、実施例1に係る管理計算機の一例の構成図である。
 管理計算機1は、計算機システムの管理を行う計算機である。管理計算機1は、CPU11と、メモリ12と、LANポート13と、内部バス14とを有する。CPU11、メモリ12、及びLANポート13は、内部バス14を介して相互に接続される。CPU11は、メモリ12に格納された各種プログラムを実行する。メモリ12は、半導体記憶装置であってもよいし、ハードディスクドライブ(HDD)等の二次記憶装置であってもよいし、半導体記憶装置及び二次記憶装置の組み合わせであってもよい。メモリ12は、CPU11によって実行されるプログラムや、CPU11に利用される各種情報を記憶する。LANポート13は、管理用LAN42に接続するためのインターフェースデバイスである。
 メモリ12は、管理プログラム14と、ホスト管理表151と、ホストアクセスパス統合管理表152と、仮想-実ページ対応統合管理表153と、装置間アクセスパス統合管理表154と、稼働VM統合管理表155と、VMデータ統合管理表156と、停止時不可マイグレーション管理表161と、稼働VMデータ格納先管理表162と、VMデータアクセスパス管理表163と、停止時アクセス不可パス管理表164とを記憶する。管理プログラム14は、管理計算機1が管理者から停止対象のストレージ装置STの選択を受け付けた際に、停止対象のストレージ装置STを停止可能かどうかの判断及びその判断結果の表示その他の保守作業を支援する処理(以下「保守作業支援処理」という)(図21参照)を実行するプログラムである。仮想-実ページ対応統合管理表153は、複数のストレージ装置STのそれぞれの記憶領域が仮想ボリューム8のどの部分に割当てられているか示す情報(割当て情報)である。稼働VM統合管理表155及びVMデータ統合管理表156は、仮想化サーバSV(仮想化サーバSV上で稼働している1以上のVM71のそれぞれ)が仮想ボリューム8のどの部分を利用しているかを示す利用情報(仮想マシン利用情報)である。VMデータアクセスパス管理表163は、アクセスパス上に存在する1以上のストレージ装置STを示すアクセスパス情報である。メモリ12に記憶される各種情報151~156、161~164の詳細については、後述する。
 なお、管理計算機1に対する管理者の入出力は、管理計算機1に接続される表示用計算機10を介して行われる。表示用計算機10は、例えば、入力デバイスと、出力デバイスとを有する。入力デバイスは、管理者が管理計算機1に情報を入力するためのデバイスであり、例えば、キーボード、マウス等である。出力デバイスは、管理計算機1が実行した処理の結果等を出力するためのデバイスであり、例えば、ディスプレイ等である。
 図11は、実施例1に係るホスト管理表の一例の構成図である。
 ホスト管理表151は、計算機システム内に存在するホスト(本実施形態では、仮想化サーバSV)を管理するためのデータである。ホスト管理表151は、ホスト1511及びWWN1512のフィールドを含む。ホスト1511には、仮想化サーバSVの名前が格納される。WWN1512には、仮想化サーバSVのSANポート33のWWNが格納される。同図から、仮想化サーバ1及び仮想化サーバ2の2つの仮想化サーバSVが計算機システム内に存在し、仮想化サーバ1のSANポート33のWWNは「WWN-1」、仮想化サーバ2のSANポート33のWWNは「WWN-2」であることがわかる。なお、ホスト管理表151に格納するデータは、管理計算機1が各仮想化サーバSVから収集してもよいし、管理者が入力してもよい。
 図12は、実施例1に係るホストアクセスパス統合管理表の一例の構成図である。
 ホストアクセスパス統合管理表152は、計算機システム内に存在する複数のストレージ装置STのそれぞれのホストアクセスパス管理表222を集約したデータである。ホストアクセスパス統合管理表152によって、計算機システム内に存在するホストアクセスパスが管理される。ホストアクセスパス統合管理表152は、ホスト1521、仮想ボリュームID1522、ストレージ1523、ポート1524及びLUN1525のフィールドを含む。ホスト1521には、仮想化サーバSVの名前が格納される。仮想ボリュームID1522には、ホスト1521が示す仮想化サーバ(以下、図12の説明において「対象仮想化サーバ」という)SVがアクセスする仮想ボリューム8の識別子が格納される。ストレージ1523には、対象仮想化サーバSVの窓口ストレージ装置STの名前が格納される。ポート1524には、対象仮想化サーバSVが仮想ボリューム8にアクセスする際に利用する、対象仮想化サーバSVの窓口ストレージ装置STのSANポート23の識別子が格納される。LUN1525には、対象仮想化サーバSVが仮想ボリューム8にアクセスする際に利用する、仮想ボリューム8のLUNが格納される。同図から、仮想化サーバ1は、ストレージ1を窓口ストレージ装置STとし、ストレージ1のSANポート「Port11」を利用して仮想ボリューム「Volume3」にアクセスし、仮想化サーバ2は、ストレージ3を窓口ストレージ装置STとし、ストレージ3のSANポート「Port31」を利用して仮想ボリューム「Volume3」にアクセスすることがわかる。
 図13は、実施例1に係る装置間アクセスパス統合管理表の一例の構成図である。
 装置間アクセスパス統合管理表154は、計算機システム内に存在する複数のストレージ装置STのそれぞれの装置間アクセスパス管理表223を集約したデータである。装置間アクセスパス統合管理表154によって、計算機システム内に存在する装置間アクセスパスが管理される。装置間アクセスパス統合管理表154は、アクセス元ストレージ1541、アクセス先ストレージ1542及び経由ストレージ1543のフィールドを含む。アクセス元ストレージ1541には、アクセス元のストレージ装置STの名前が格納される。アクセス先ストレージ1542には、アクセス先のストレージ装置STの名前が格納される。経由ストレージ1543には、アクセス元ストレージ1541が示すストレージ装置STが、アクセス先ストレージ1542が示すストレージ装置STにアクセスする際に経由するストレージ装置STの名前が格納される。装置間アクセスパス管理表223と同様に、図中の「-」は、経由するストレージ装置STがないことを示している。また、複数のストレージ装置STを経由する場合は、経由ストレージ1543には、その複数のストレージ装置STの名前が格納される。同図の上から1番目のエントリ及び上から2番目のエントリから、ストレージ1は、ストレージ2には直接アクセスし、ストレージ3にはストレージ2を経由してアクセスすることがわかる。また、同図の上から3番目のエントリ及び上から4番目のエントリから、ストレージ2は、ストレージ1及びストレージ3のそれぞれに直接アクセスすることがわかる。また、同図の下から1番目のエントリ及び下から2番目のエントリから、ストレージ3は、ストレージ2には直接アクセスし、ストレージ1にはストレージ2を経由してアクセスすることがわかる。
 図14は、実施例1に係る仮想-実ページ対応統合管理表の一例の構成図である。
 仮想-実ページ対応統合管理表153は、計算機システム内に存在する複数のストレージ装置STのそれぞれの仮想-実ページ対応管理表224を集約したデータである。仮想-実ページ対応統合管理表153によって、計算機システム内に存在する1以上の仮想ボリューム8のそれぞれについて、仮想ページと実ページとの対応関係が管理される。仮想-実ページ対応統合管理表153は、仮想ボリュームID1531、アドレス1532、ストレージ1533、RAIDグループ1534及びアドレス1535のフィールドを含む。仮想ボリュームID1531には、仮想ボリューム8の識別子が格納される。アドレス1532には、仮想ページの仮想ボリューム8上のアドレスが格納される。ストレージ1533には、アドレス1532が示すアドレスにある仮想ページに割当てられている実ページを有するRAIDグループ26を有するストレージ装置STの名前が格納される。RAIDグループ1534には、アドレス1532が示すアドレスの仮想ページに割当てられている実ページを有するRAIDグループ26の名前が格納される。アドレス1535には、アドレス1532が示すアドレスの仮想ページに割当てられている実ページのRAIDグループ26上のアドレスが格納される。例えば、同図の上から1番目のエントリから、ストレージ1のRAIDグループ1上のアドレス「0x0020」の実ページが、仮想ボリューム「Volume2」上のアドレス「0x0000」の仮想ページに割当てられていることがわかる。
 図15は、実施例1に係るVMデータ統合管理表の一例の構成図である。
 VMデータ統合管理表156は、計算機システム内に存在する1以上の仮想化サーバSVのそれぞれのVMデータ管理表321を集約したデータである。VMデータ統合管理表156によって、計算機システム内に存在する1以上の仮想化サーバSVのそれぞれの稼働VM71について、そのVMデータ72が格納されている仮想ボリューム8及び格納位置が管理される。VMデータ統合管理表156は、VM1561、サイズ1562、仮想ボリュームID1563及び先頭アドレス1564のフィールドを含む。VM1561には、稼働VM71の名前が格納される。サイズ1562には、稼働VM71のVMデータ72のサイズが格納される。仮想ボリュームID1563には、稼働VM71のVMデータ72が格納されている仮想ボリューム8の識別子が格納される。先頭アドレス1564には、仮想ボリューム8における、稼働VM71のVMデータ72が格納されている領域の先頭アドレスが格納される。例えば、同図の上から1番目のエントリから、VMaのVMデータ72は、仮想ボリューム「Volume3」上のアドレス「0x0000」を先頭とする100GBの領域に格納されていることがわかる。
 図16は、実施例1に係る稼働VM統合管理表の一例の構成図である。
 稼働VM統合管理表155は、計算機システム内に存在する1以上の仮想化サーバSVのそれぞれの稼働VM管理表322を集約したデータである。稼働VM統合管理表155によって、計算機システム内に存在する1以上の仮想化サーバSVのそれぞれの稼働VM71が管理される。稼働VM統合管理表155は、仮想化サーバ1551及びVM1552のフィールドを含む。仮想化サーバ1551には、仮想化サーバSVの名前が格納される。VM1552には、仮想化サーバ1551が示す仮想化サーバSVの稼働VM71の名前が格納される。同図から、仮想化サーバ1上では、VMa、VMb及びVMcが稼働しており、仮想化サーバ2上では、VMd、VMe及びVMfが稼働していることがわかる。
 図17は、実施例1に係るVMデータアクセスパス管理表の一例の構成図である。
 VMデータアクセスパス管理表163は、計算機システム内に存在するVMデータアクセスパス、すなわち、仮想化サーバSVが仮想ボリューム8を共有する各ストレージ装置ST(より正確には、仮想ボリューム8を共有するストレージ装置STのうちのその仮想ボリューム8に記憶領域が割当てられている各ストレージ装置ST)にアクセスする際に利用する、仮想化サーバSVから各ストレージ装置STまでの経路を管理するためのデータである。VMデータアクセスパス管理表163は、例えば、管理計算機1が停止対象のストレージ装置STの選択を受け付けた後、保守作業支援処理において作成される。
 VMデータアクセスパス管理表163は、仮想化サーバ1631、アクセス先ストレージ1632、データ格納先ストレージ1633及び経由ストレージ1634のフィールドを含む。仮想化サーバ1631には、アクセス元となる仮想化サーバ(以下「アクセス元サーバ」という)SVの名前が格納される。アクセス先ストレージ1632には、アクセス元サーバSVから見たアクセス先のストレージ装置ST、すなわち、アクセス元サーバSVの窓口ストレージ装置STの名前が格納される。データ格納先ストレージ1633には、アクセス元サーバSVが利用するデータ(具体的には、アクセス元サーバSVの稼働VM71のVMデータ72)が実際に格納されている可能性のあるストレージ装置ST、すなわち、アクセス元サーバSVが利用する仮想ボリューム8に記憶領域が割当てられているストレージ装置STの名前が格納される。データ格納先ストレージ1633が示すストレージ装置STは、アクセス元サーバSVがVMデータアクセスパスを介してアクセスする最終的な目的地となるストレージ装置ST(以下「目的ストレージ装置」という)である。経由ストレージ1634には、アクセス元サーバSVが目的ストレージ装置STにアクセスする際に経由する、窓口ストレージ装置ST以外のストレージ装置(以下「アクセスパス経由ストレージ装置」という)STの名前が格納される。なお、図中の「-」は、アクセスパス経由ストレージ装置STがないことを示している。また、窓口ストレージ装置ST以外に複数のストレージ装置STを経由する場合は、経由ストレージ1634には、その複数のストレージ装置STの名前が格納される。
 同図から、計算機システム内には、4つのVMデータアクセスパス、すなわち、仮想化サーバ1からストレージ1までのアクセスパス、仮想化サーバ1からストレージ3までのアクセスパス、仮想化サーバ2からストレージ1までのアクセスパス、及び仮想化サーバ2からストレージ3までのアクセスパスが存在していることがわかる。また、同図から、各VMデータアクセスパス上には、アクセス先ストレージ1632が示すストレージ装置ST(アクセス元サーバSVの窓口ストレージ装置ST)、データ格納先ストレージ1633が示すストレージ装置ST(目的ストレージ装置ST)、及び経由ストレージ1634が示すストレージ装置ST(アクセスパス経由ストレージ装置ST)のそれぞれが存在していることがわかる。例えば、同図の上から2番目のエントリから、仮想化サーバ1からストレージ3までのアクセスパス上には、ストレージ1、ストレージ2及びストレージ3の3つのストレージ装置STが存在していることがわかる。
 図18は、実施例1に係る停止時アクセス不可パス管理表の一例の構成図である。
 停止時アクセス不可パス管理表164は、停止時アクセス不可パス、すなわち、停止対象のストレージ装置STを停止した場合に利用できなくなるVMデータアクセスパスを管理するためのデータである。停止時アクセス不可パス管理表164は、例えば、管理計算機1が停止対象のストレージ装置STの選択を受け付けた後、保守作業支援処理において作成される。
 停止時アクセス不可パス管理表164は、仮想化サーバ1641、アクセス先ストレージ1642、データ格納先ストレージ1643、経由ストレージ1644及びアクティブか否か1645のフィールドを含む。仮想化サーバ1641、アクセス先ストレージ1642、データ格納先ストレージ1643及び経由ストレージ1644は、停止時アクセス不可パスを特定するためのフィールドであり、VMデータアクセスパス管理表163のフィールド1631~1634と実質的に同じである。仮想化サーバ1641には、アクセス元サーバSVの名前が格納される。アクセス先ストレージ1642には、アクセス元サーバSVの窓口ストレージ装置STの名前が格納される。データ格納先ストレージ1643には、目的ストレージ装置STの名前が格納される。経由ストレージ1644には、アクセスパス経由ストレージ装置STの名前が格納される。アクティブか否か1645は、VMデータアクセスパスがアクティブか否か、すなわち、アクセス元サーバSVが停止時アクセス不可パスを実際に使っているか否かを示すデータが格納される。ここで、アクセス元サーバSVの稼働VM71のVMデータ72が、目的ストレージ装置STに格納されていれば、その停止時アクセス不可パスは、アクセス元サーバSVによって実際に使われており、アクティブとなる。一方、アクセス元サーバSVの稼働VM71のVMデータ72が、目的ストレージ装置STに格納されていなければ、その停止時アクセス不可パスは、アクセス元サーバSVによって実際に使われておらず、非アクティブとなる。
 同図から、2つの停止時アクセス不可パス、すなわち、仮想化サーバ1からストレージ3までのアクセスパス、及び仮想化サーバ2からストレージ1までのアクセスパスが存在していることがわかる。また、同図から、いずれの停止時不可パスも非アクティブであることがわかる。
 図19は、実施例1に係る稼働VMデータ格納先管理表の一例の構成図である。
 稼働VMデータ格納先管理表162は、停止時アクセス不可パスを持つ仮想化サーバSV(停止時アクセス不可パスのアクセス元サーバSVとなっている仮想化サーバSV)の各稼働VM71について、そのVMデータ72の格納先のストレージ装置STを管理するためのデータである。稼働VMデータ格納先管理表162は、例えば、管理計算機1が停止対象のストレージ装置STの選択を受け付けた後、保守作業支援処理において作成される。
 稼働VMデータ格納先管理表162は、仮想化サーバ1621、VM1622及びデータ格納先ストレージ1623のフィールドを含む。仮想化サーバ1621には、停止時アクセス不可パスを持つ仮想化サーバSVの名前が格納される。VM1622には、仮想化サーバ1621が示す仮想化サーバSVの稼働VM71の名前が格納される。データ格納先ストレージ1623には、VM1622が示す稼働VM71のVMデータ72を格納しているストレージ装置1623の名前が格納される。例えば、同図の上から1番目のエントリから、仮想化サーバ1上で稼働するVMaのVMデータ72が、ストレージ1に格納されていることがわかる。
 図20は、実施例1に係る停止時不可マイグレーション管理表の一例の構成図である。
 停止時不可マイグレーション管理表161は、操作制限となるVMマイグレーション、すなわち、停止対象のストレージ装置STを停止した場合に行えなくなるVMマイグレーション(以下「停止時不可マイグレーション」という)を管理するためのデータである。停止時不可マイグレーション管理表161は、例えば、管理計算機1が停止対象のストレージ装置STの選択を受け付けた後、保守作業支援処理において作成される。
 停止時不可マイグレーション管理表161は、VM1611及びマイグレーション先仮想化サーバ1612のフィールドを含む。VM1611には、VM71の名前が格納される。マイグレーション先仮想化サーバ1612には、移行先の仮想化サーバSVの名前が格納される。例えば、同図から、6つの停止時不可マイグレーション、すなわち、VMa、VMb及びVMcのそれぞれを仮想化サーバ2へ移行するVMマイグレーション、並びにVMd、VMe及びVMfのそれぞれを仮想化サーバ1へ移行するVMマイグレーションが存在することがわかる。すなわち、停止対象のストレージ装置STを停止した場合に、VMa、VMb及びVMcについては仮想化サーバ2への移行が、VMd、VMe及びVMfについては仮想化サーバ1への移行が、それぞれ行えなくなることがわかる。
 次に、実施例1に係る管理計算機1の動作を説明する。
 図21は、実施例1に係る保守作業支援処理のフローチャートである。
 保守作業支援処理は、管理計算機1が管理者から停止対象のストレージ装置STの選択を受け付けた際に行われる。
 まず、管理プログラム14は、事前準備処理(図22参照)を行う(ステップS101)。この事前準備処理により、構成変更の抑止、VMマイグレーション機能の抑止、各種管理表の更新等の保守作業支援処理のための事前準備が行われる。
 次に、管理プログラム14は、停止時アクセス不可パス特定処理(図23参照)を行う(ステップS102)。この停止時アクセス不可パス特定処理により、現時点で計算機システム内に存在している停止時アクセス不可パスが特定され、特定された停止時アクセス不可パスに関するエントリが、停止時アクセス不可パス管理表164に登録される。
 その後、管理プログラム14は、停止時アクセス不可パス管理表164にエントリがあるか否か、すなわち、停止時アクセス不可パスが存在するか否かを判定する(ステップS103)。
 停止時アクセス不可パスが存在しない場合(ステップS103:No)、管理プログラム14は、停止対象のストレージ装置STを停止できる旨を示す第1の判定結果表示画面(図29参照)を表示用計算機10に表示させ、管理者からの入力待ちの状態で、ステップS110へ処理を進める(ステップS104)。
 一方、停止時アクセス不可パスが存在する場合(ステップS103:Yes)、管理プログラム14は、アクティブな停止時アクセス不可パス特定処理(図26)を行う(ステップS105)。このアクティブな停止時アクセス不可パス特定処理により、ステップS102で特定された停止時アクセス不可パスが現時点でアクティブか否かが判定され、アクティブな停止時アクセス不可パスが特定される。
 その後、管理プログラム14は、停止時アクセス不可パス管理表164のアクティブか否か1645を参照し、アクティブな停止時アクセス不可パスが存在するか否かを判定する(ステップS106)。
 アクティブな停止時アクセス不可パスが存在する場合(ステップS106:Yes)、管理プログラム14は、停止対象のストレージ装置STを停止できない旨を示す第3の判定結果表示画面(図32参照)を表示用計算機10に表示させ、ステップS112へ処理を進める(ステップS109)。
 一方、アクティブな停止時アクセス不可パスが存在しない場合(ステップS106:No)、管理プログラム14は、稼働VMデータ格納先管理表162及び停止時アクセス不可パス管理表164に基づいて、停止時不可マイグレーションを特定する(ステップS107)。具体的には、まず、管理プログラム14は、停止時アクセス不可パス管理表164を参照し、非アクティブな停止時アクセス不可パスを持つ仮想化サーバSV(すなわち、停止時アクセス不可パス管理表164に登録されているエントリのうちのアクティブか否か1645に非アクティブを示すデータが格納されているエントリの仮想化サーバ1641が示す仮想化サーバSV)を特定する。次に、管理プログラム14は、特定した仮想化サーバ(以下、ステップS107の説明において「特定仮想化サーバ」という)SVのそれぞれについて、稼働VMデータ格納先管理表162を参照し、その特定仮想化サーバSVが持つ非アクティブな停止時アクセス不可パス(以下、ステップS107の説明において「特定アクセスパス」という)の目的ストレージ装置STにVMデータ72が格納されているVM71を特定する。ここで、特定したVM(以下、ステップS107の説明において「特定VM」という)71を特定仮想化サーバSVへ移動した場合、特定VM71のVMデータ72は、特定仮想化サーバSVが持つ特定アクセスパスの目的ストレージ装置STに格納されているため、特定アクセスパスは、特定仮想化サーバSVによって実際に使用されることになり、アクティブに変化する。従って、管理プログラム14は、特定VM71を特定仮想化サーバSVへ移動するVMマイグレーションを、停止時不可マイグレーションと特定する。管理プログラム14は、特定した停止時不可マイグレーションを示すエントリを作成し、作成したエントリを停止時不可マイグレーション管理表161へ登録する。
 その後、管理プログラム14は、操作制限ありで停止対象のストレージ装置STを停止できる旨を示す第2の判定結果表示画面(図30、図31参照)を表示用計算機10に表示させ、管理者からの入力待ちの状態で、ステップS110へ処理を進める(ステップS108)。
 ステップS110において、管理プログラム14は、ステップS104で表示させた第1の判定結果表示画面、又はステップS108で表示させた第2の判定結果表示画面に対する管理者の入力、具体的には、保守作業の実施を指示する入力を待つ。そして、管理プログラム14は、管理者が保守作業の実施を指示したか、或いは管理者が保守作業の実施を指示することなく一定時間が経過したかを判定する。
 管理者が保守作業の実施を指示した場合(ステップS110:Yes)、管理プログラム14は、保守作業、例えば、停止対象のストレージ装置STのファームウェアのアップデートを実施する(ステップS111)。その後、管理プログラム14は、処理をステップS112へ進める。
 一方、管理者が保守作業の実施を指示することなく一定時間が経過した場合(ステップS110:タイムアウト)、管理プログラム14は、処理をステップS112へ進める。
 ステップS112において、管理プログラム14は、事前準備処理で行った構成変更の抑止及びVMマイグレーション機能の抑止を解除し、計算機システムを通常運用状態に戻す。なお、管理プログラム14は、事前準備処理において構成変更の抑止及びVMマイグレーション機能の抑止を行っていない場合は、ステップS112の処理を行う必要はない。その後、管理プログラム14は、保守作業支援処理を終了する。
 図22は、実施例1に係る事前準備処理のフローチャートである。
 事前準備処理は、図21のステップS101の処理に対応する。
 まず、管理プログラム14は、ストレージ装置STの構成変更、例えば、仮想ページ及び実ページの割当て関係の変更等の抑止を行う(S201)。
 次に、管理プログラム14は、仮想化サーバSVのVMマイグレーション機能の抑止を行う(ステップS202)。ステップS201及びステップS202の処理は、以降の処理中にストレージ装置STの構成、仮想化サーバSVの設定が変更され、処理結果が実際の状況と食い違うのを防ぐために行われる。なお、構成等が変更されないことが事前に分かっている場合は、管理プログラム14は、これらの処理を行わなくともよい。
 その後、管理プログラム14は、ストレージ装置ST及び仮想化サーバSVから必要な情報(具体的には、各ストレージ装置ST、各仮想化サーバSVが記憶している各種管理表の全部又は一部のデータ)を収集し、ホストアクセスパス統合管理表152、仮想-実ページ対応統合管理表153、装置間アクセスパス統合管理表154、稼働VM統合管理表155及びVMデータ統合管理表156を、現時点での計算機システムの構成に合致する内容に更新する(ステップS203)。
 その後、管理プログラム14は、停止時不可マイグレーション管理表161、稼働VMデータ格納先管理表162、VMデータアクセスパス管理表163及び停止時アクセス不可パス管理表164のそれぞれのエントリを全て削除する(ステップS204)。その後、管理プログラム14は、事前準備処理を終了する。
 図23は、実施例1に係る停止時アクセス不可パス特定処理のフローチャートである。
 停止時アクセス不可パス特定処理は、図21のステップS102の処理に対応する。
 まず、管理プログラム14は、VMデータアクセスパス特定処理(図24参照)を行う(ステップS301)。このVMデータアクセスパス特定処理により、現時点で計算機システム内に存在しているVMデータアクセスパスが特定される。
 次に、管理プログラム14は、停止時アクセス可否判定処理(図25参照)を行う(ステップS302)。この停止時アクセス可否判定処理により、ステップS301で特定されたVMデータアクセスパスについて、停止時アクセス不可パスであるか否かが判定される。その後、管理プログラム14は、停止時アクセス不可パス特定処理を終了する。
 図24は、実施例1に係るVMデータアクセスパス特定処理のフローチャートである。
 VMデータアクセスパス特定処理は、図23のステップS301の処理に対応する。
 管理プログラム14は、ホストアクセスパス統合管理表152に登録されている各エントリに対して、ステップS401~ステップS409の処理を行う。管理プログラム14は、ホストアクセスパス統合管理表152に登録されているエントリのうちの一つ(以下、図24の説明において「エントリA」という)を選択する。
 管理プログラム14は、仮想-実ページ対応統合管理表153のエントリの中から、仮想ボリュームID1531の値が、エントリAの仮想ボリュームID1522の値と一致するエントリを特定する(ステップS402)。すなわち、ステップS402では、仮想-実ページ対応統合管理表153の、エントリAの仮想化サーバSV(正確には、エントリAのホスト1521が示す仮想化サーバSV)が利用している仮想ボリューム(以下、図24の説明において「対象仮想ボリューム」という)8に関係するエントリが特定される。管理プログラム14は、特定したエントリを参照することで、どのストレージ装置STの実ページが対象仮想ボリュームに割当てられているかを知ることができる。
 管理プログラム14は、ステップS402で特定した各エントリに対して、ステップS403~ステップS408の処理を行う。管理プログラム14は、ステップS402で特定したエントリのうちの一つ(以下、図24の説明において「エントリB」という)を選択する。
 管理プログラム14は、エントリAのストレージ装置ST(正確には、エントリAのストレージ1523が示すストレージ装置ST)とエントリBのストレージ装置ST(正確には、エントリBのストレージ1533が示すストレージ装置ST)とが一致するか否かを判定する(ステップS404)。すなわち、ステップS404では、対象仮想ボリューム8に割当てられている実ページを有するストレージ装置ST(エントリBのストレージ装置ST)が、エントリAの仮想化サーバSVの窓口ストレージ装置(エントリAのストレージ装置ST)であるか否かが判定される。
 エントリAのストレージ装置STとエントリBのストレージ装置STとが一致する場合(ステップS404:Yes)、管理プログラム14は、仮想化サーバ1631にエントリAの仮想化サーバSVの名前を、アクセス先ストレージ1632にエントリAのストレージ装置STの名前を、データ格納先ストレージ1633にエントリAのストレージ装置STの名前を、経由ストレージ1634に「-」をそれぞれ格納した、VMデータアクセスパス管理表163のエントリを作成し、作成したエントリを同管理表163に登録する(ステップS405)。すなわち、エントリBのストレージ装置STがエントリAの仮想化サーバSVの窓口ストレージ装置STである場合は、エントリAの仮想化サーバSVをアクセス元サーバSVとし、エントリAのストレージ装置STを窓口ストレージ装置ST及び目的ストレージ装置STとし、アクセスパス経由ストレージ装置STを持たないVMデータアクセスパスが特定される。なお、同じエントリがVMデータアクセスパス管理表163に既に存在している場合は、そのエントリの作成及び登録は必要ない。
 エントリAのストレージ装置STとエントリBのストレージ装置STとが一致しない場合(ステップS404:No)、管理プログラム14は、装置間アクセスパス統合管理表154の中から、アクセス元ストレージ1541の値がエントリAのストレージ1523の値と一致し、且つ、アクセス先ストレージ1542の値がエントリBのストレージ1533の値と一致するエントリ(以下、図24の説明において「エントリC」という)を特定する(ステップS406)。すなわち、ステップS406では、エントリAのストレージ装置STからエントリBのストレージ装置STまでの装置間アクセスパスを示すエントリが特定される。
 その後、管理プログラム14は、仮想化サーバ1631にエントリAの仮想化サーバSVの名前を、アクセス先ストレージ1632にエントリAのストレージ装置STの名前を、データ格納先ストレージ1633にエントリBのストレージ装置STの名前を、経由ストレージ1634にエントリCの経由ストレージ1543が示すストレージ装置ST(複数ある場合はその全て)をそれぞれ格納した、VMデータアクセスパス管理表163のエントリを作成し、作成したエントリを同管理表163に登録する(ステップS407)。すなわち、エントリBのストレージ装置STがエントリAの仮想化サーバSVの窓口ストレージ装置STでない場合は、エントリAの仮想化サーバSVをアクセス元サーバSVとし、エントリAのストレージ装置STを窓口ストレージ装置STとし、エントリBのストレージ装置STを目的ストレージ装置STとし、エントリCの経由ストレージ1543が示すストレージ装置STをアクセスパス経由ストレージ装置STとするVMデータアクセスパスが特定される。なお、同じエントリがVMデータアクセスパス管理表163に既に存在している場合は、そのエントリの作成及び登録は必要ない。
 管理プログラム14は、ステップS402で特定した各エントリに対してステップS403~ステップS408の処理を終え、ホストアクセスパス統合管理表152に登録されている各エントリに対してステップS401~ステップS409の処理を終えた後、VMデータアクセスパス特定処理を終了する。
 図25は、実施例1に係る停止時アクセス可否判定処理のフローチャートである。
 停止時アクセス可否判定処理は、図23のステップS302の処理に対応する。
 管理プログラム14は、VMデータアクセスパス管理表163に登録されている各エントリに対して、ステップS501~ステップS506の処理を行う。管理プログラム14は、VMデータアクセスパス管理表163に登録されているエントリのうちの一つ(以下、図25の説明において「エントリA」という)を選択する。以下、図25の説明において、エントリAが示すVMデータアクセスパスを「対象VMデータアクセスパス」という。
 管理プログラム14は、エントリAのアクセス先ストレージ1632が示すストレージ装置ST、すなわち、対象VMデータアクセスパスのアクセス元サーバSVの窓口ストレージ装置STが、停止対象のストレージ装置STであるか否かを判定する(ステップS502)。
 エントリAのアクセス先ストレージ1632が示すストレージ装置STが停止対象のストレージ装置STでない場合(ステップS502:No)、管理プログラム14は、エントリAのデータ格納先ストレージ1633が示すストレージ装置ST、すなわち、対象VMデータアクセスパスの目的ストレージ装置STが、停止対象のストレージ装置STであるか否かを判定する(ステップS503)。
 エントリAのデータ格納先ストレージ1633が示すストレージ装置STが停止対象のストレージ装置STでない場合(ステップS503:No)、管理プログラム14は、エントリAの経由ストレージ1634が示すストレージ装置ST、すなわち、対象VMデータアクセスパスのアクセスパス経由ストレージ装置STが、停止対象のストレージ装置STであるか否かを判定する(ステップS504)。
 ステップS502においてエントリAのアクセス先ストレージ1632が示すストレージ装置STが停止対象のストレージ装置STであると判定された場合(ステップS502:Yes)、ステップS503においてエントリAのデータ格納先ストレージ1633が示すストレージ装置STが停止対象のストレージ装置STであると判定された場合(ステップS503:Yes)、又はステップS504においてエントリAの経由ストレージ1634が示すストレージ装置STのいずれかが停止対象のストレージ装置STであると判定された場合(ステップS504:Yes)、管理プログラム14は、仮想化サーバ1641、アクセス先ストレージ1642、データ格納先ストレージ1643及び経由ストレージ1644に、エントリAの仮想化サーバ1631、アクセス先ストレージ1632、データ格納先ストレージ1633及び経由ストレージ1634の各値を、アクティブか否か1645に「-」をそれぞれ格納した、停止時アクセス不可パス管理表164のエントリを作成し、作成したエントリを停止時アクセス不可パス管理表164に登録する。すなわち、この場合、エントリAが示すVMデータアクセスパスが、停止時アクセス不可パスであると判定され、エントリAが示すVMデータアクセスパスに関するエントリが、停止時アクセス不可パス管理表164に登録される。なお、アクティブか否か1645の値「-」は、その停止時アクセス不可パスについてアクティブか否かの判定が未だ行われていないことを示している。
 一方、エントリAの経由ストレージ1634が示すストレージ装置STのいずれもが停止対象のストレージ装置STでない場合(ステップS504:No)、管理プログラム14は、エントリAが示すVMデータアクセスパスは停止時アクセス不可パスではないと判定し、エントリAに対する処理を終了する。
 管理プログラム14は、VMデータアクセスパス管理表163に登録されている各エントリに対してステップS501~ステップS506の処理を終えた後、停止時アクセス可否判定処理を終了する。
 このように、管理計算機1は、計算機システム内に存在する各VMデータアクセスパスについて、そのVMデータアクセスパス上に停止対象のストレージ装置STが存在するか否かを判定し、停止対象のストレージ装置STが存在する場合にそのVMデータアクセスパスを停止時アクセス不可パスと判定する。
 図26は、実施例1に係るアクティブな停止時アクセス不可パス特定処理のフローチャートである。
 アクティブな停止時アクセス不可パス特定処理は、図21のステップS105の処理に対応する。
 まず、管理プログラム14は、仮想-実ページ対応統合管理表153、稼働VM統合管理表155、VMデータ統合管理表156及び停止時アクセス不可パス管理表164に基づいて、稼働VMデータ格納先管理表162のエントリを作成し、作成したエントリを稼働VMデータ格納先管理表162に登録する(ステップS601)。具体的には、まず、管理プログラム14は、稼働VM統合管理表155及び停止時アクセス不可パス管理表164を参照し、停止時アクセス不可パスを持つ仮想化サーバSV(すなわち、停止時アクセス不可パス管理表164の仮想化サーバ1641が示す仮想化サーバSV)とその稼働VM71とを特定する。次に、管理プログラム14は、VMデータ統合管理表156を参照し、停止時アクセス不可パスを持つ仮想化サーバSVの各稼働VM71について、そのVMデータ72の仮想ボリューム8上の格納位置を特定する。そして、管理プログラム14は、停止時アクセス不可パスを持つ仮想化サーバSVの各稼働VM71について、そのVMデータ72の仮想ボリューム8上の格納位置、及び仮想-実ページ対応統合管理表153が示す仮想ページ及び実ページの割当て関係に基づいて、そのVMデータ72が格納されているストレージ装置STを特定する。管理プログラム14は、上記特定した、停止時アクセス不可パスを持つ仮想化サーバSVと、その稼働VM71と、その稼働VM71のVMデータ72が格納されているストレージ装置STとの各組み合わせについてエントリを作成し、作成したエントリを稼働VMデータ格納先管理表162に登録する。
 次に、管理プログラム14は、停止時アクセス不可パスに対して、アクティブ非アクティブ判定処理を行う(ステップS602)。このアクティブ非アクティブ判定処理により、停止時アクセス不可パスが現時点でアクティブか否かが判定される。その後、管理プログラム14は、アクティブな停止時アクセス不可パス特定処理を終了する。
 図27は、実施例1に係るアクティブ非アクティブ判定処理のフローチャートである。
 管理プログラム14は、停止時アクセス不可パス管理表164に登録されている各エントリに対して、ステップS701~ステップS705の処理を行う。管理プログラム14は、停止時アクセス不可パス管理表164に登録されているエントリのうちの一つ(以下、図27の説明において「エントリA」という)を選択する。
 管理プログラム14は、稼働VMデータ格納先管理表162に、仮想化サーバ1621の値がエントリAの仮想化サーバ1641の値と一致し、且つ、データ格納先ストレージ1623の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがあるか否かを判定する(ステップS702)。すなわち、ステップS702では、エントリAが示す停止時アクセス不可パスについて、そのアクセスパスのアクセス元サーバSVの稼働VM71のVMデータ72が、そのアクセスパスの目的ストレージ装置STに格納されているか否か、つまり、エントリAが示す停止時アクセス不可パスをそのアクセスパスのアクセス元サーバSVが実際に使っているか否かが判定される。
 稼働VMデータ格納先管理表162に、仮想化サーバ1621の値がエントリAの仮想化サーバ1641の値と一致し、且つ、データ格納先ストレージ1623の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがある場合、すなわち、エントリAが示す停止時アクセス不可パスをそのアクセスパスのアクセス元サーバSVが実際に使っている場合(ステップS702:Yes)、管理プログラム14は、エントリAのアクティブか否か1645にアクティブを示すデータを格納する(ステップS703)。
 一方、稼働VMデータ格納先管理表162に、仮想化サーバ1621の値がエントリAの仮想化サーバ1641の値と一致し、且つ、データ格納先ストレージ1623の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがない場合、すなわち、エントリAが示す停止時アクセス不可パスをそのアクセスパスのアクセス元サーバSVが実際に使っていない場合(ステップS702:No)、管理プログラム14は、エントリAのアクティブか否か1645に非アクティブを示すデータを格納する(ステップS704)。
 管理プログラム14は、停止時アクセス不可パス管理表164に登録されている各エントリに対してステップS701~ステップS705の処理を終えた後、アクティブ非アクティブ判定処理を終了する。
 このように、管理計算機1は、各停止時アクセス不可パスについて、そのアクセスパスのアクセス元サーバSVの稼働VM71のVMデータ72が、そのアクセスパスの目的ストレージ装置STに格納されているか否かを判定し、格納されている場合にその停止時アクセス不可パスをアクティブと判定し、格納されていない場合にその停止時アクセス不可パスを非アクティブと判定する。
 次に、保守作業支援処理を管理者に実行させるための画面及び保守作業支援処理において表示される画面の説明を行う。なお、本実施例では、保守作業がストレージ装置STのファームウェアのアップデートである場合の画面の一例について説明する。なお、画面の構成や機能は、実施例で説明する画面の構成等に限定されない。例えば、ストレージ装置STのファームウェアのアップデート以外の保守作業、障害調査等のための画面であれば、その保守作業等の支援に適した画面となる。また、管理計算機1は、管理者が選択したストレージ装置STについての停止可能か否かの判定(以下「停止可否判定」という)を行う機能を単体で提供してもよく、この場合、停止可否判定の結果を含む、どの保守作業等にも共通の画面が表示される。画面の構成等を或る保守作業等に特化した構成等とするメリットは、管理者が直感的に操作可能となることである。一方、どの保守作業等にも共通の画面を採用するメリットは、ストレージ装置STを停止したいすべての局面で利用可能となることである。
 図28は、実施例1に係る初期画面の一例の構成図である。
 初期画面61は、保守作業を行おうとしている管理者にその保守作業の為に停止しようとしている停止対象のストレージ装置STを選択させるための画面である。初期画面61は、停止対象のストレージ装置STを管理者に選択させるため領域611と、停止可否判定を行う処理(本実施例における保守作業支援処理)を管理計算機1に実行させるためのボタン612とを含む。領域611には、例えば、計算機システムを構成する複数のストレージ装置STの名前のリストが表示される。
 図29は、実施例1に係る第1の判定結果表示画面の一例の構成図である。
 第1の判定結果表示画面62は、管理計算機1が、保守作業支援処理において停止対象のストレージ装置STを停止できると判定した場合(図21のステップS104)に、その旨を管理者に通知するための画面である。第1の判定結果表示画面62は、停止可否判定の判定結果を表示するための領域621と、保守作業であるファームウェアのアップデートを管理者に指示させるためのボタン622とを含む。領域621には、停止対象のストレージ装置ST(図29の例では、ストレージ2)を停止できる旨を示す内容(図29の例では「ストレージ2はアップデート可能」)が表示される。管理計算機1は、管理者がアップロードするファームウェアデータを指定してボタン622を押下した場合に、保守作業支援処理におけるステップS111の処理を開始し、保守作業、すなわち、停止対象のストレージ装置STのファームウェアのアップデートを行う。
 管理者は、領域621を参照することにより、特に対策を行う必要なく停止対象のストレージ装置STを停止できることを知ることができる。
 図30は、実施例1に係る第2の判定結果表示画面の第1の例の構成図である。図31は、実施例1に係る第2の判定結果表示画面の第2の例の構成図である。
 第2の判定結果表示画面63は、管理計算機1が、保守作業支援処理において操作制限ありで停止対象のストレージ装置STを停止できると判定した場合(図21のステップS108)に、その旨を管理者に通知するための画面である。第2の判定結果表示画面63は、停止可否判定の判定結果を表示するための領域631と、保守作業であるファームウェアのアップデートを管理者に指示させるためのボタン632と、操作制限の内容を表示するための領域633とを含む。領域631及び領域632は、第1の判定結果表示画面62の領域621及び領域622と実質的に同じである。領域631には、停止対象のストレージ装置ST(図30、図31の例では、ストレージ2)を停止できる旨を示す内容(図30、図31の例では「ストレージ2はアップデート可能」)が表示される。また、領域631には、操作制限がある旨を示す内容(図30、図31の例では「(制限あり)」)も表示される。管理計算機1は、管理者がアップロードするファームウェアデータを指定してボタン632を押下した場合に、保守作業支援処理におけるステップS111の処理を開始し、保守作業、すなわち、停止対象のストレージ装置STのファームウェアのアップデートを行う。
 領域633には、例えば、1以上の操作制限、すなわち、停止時不可マイグレーション管理表161で管理されている停止時不可マイグレーションの各エントリに対応するリスト単位6330が、リストで表示される。各リスト単位6330は、各停止時不可マイグレーションに関する情報、例えば、操作制限の名前(本実施例では「VMマイグレーション」)と、停止時不可マイグレーションの対象のVM71の名前と、停止時不可マイグレーションの移行先の仮想化サーバSVの名前とを含む。第2の判定結果表示画面63は、リスト単位6330の数が多い場合にその一部ずつを表示するページ機能、複数のリスト単位6330のうちの一部をフィルタリングして表示する機能、複数のリスト単位6330をソートして表示する機能を有する。なお、図30は、リスト単位6330のリストの1ページ目を、図31は、リスト単位6330のリストの2ページ目をそれぞれ示している。
 管理者は、領域631を参照することにより、特に対策を行う必要なく停止対象のストレージ装置STを停止できること及び操作制限があることを知ることができる。また、管理者は、領域633の各停止時不可マイグレーションのリスト単位6330を参照することにより、操作制限である停止時不可マイグレーションの内容を確認することができる。図30、図31の例では、管理者は、VMa、VMb及びVMcのそれぞれを仮想化サーバ2へ移行するVMマイグレーション、並びにVMd、VMe及びVMfのそれぞれを仮想化サーバ1へ移行するVMマイグレーションができなくなることを知ることができる。
 図32は、実施例1に係る第3の判定結果表示画面の一例の構成図である。
 第3の判定結果表示画面64は、管理計算機1が、保守作業支援処理において停止対象のストレージ装置STを停止できないと判定した場合(図21のステップS109)に、その旨を管理者に通知するための画面である。第3の判定結果表示画面64は、停止可否判定の判定結果を表示するための領域641と、停止対象のストレージ装置STを停止した場合に動作不可能となるVM(以下「動作不可VM」という)71に関する情報を表示するための領域643とを含む。領域641には、停止対象のストレージ装置ST(図32の例では、ストレージ2)を停止できない旨を示す内容(図32の例では「ストレージ2はアップデート不可能」)が表示される。また、領域641には、管理者に警告を促すための警告マークも表示される。
 領域643には、例えば、1以上の動作不可VM71に対応するリスト単位6430が、リストで表示される。各リスト単位6430は、各動作不可VM71に関する情報、例えば、動作不可VM71の名前と、動作不可VM71が稼働している仮想化サーバSVの名前と、動作不可VM71が利用している仮想ボリューム8の識別子と、動作不可VM71が稼働している仮想化サーバSVの窓口ストレージ装置STの名前と、動作不可VM71のVMデータ72が格納されているストレージ装置STの名前とを含む。第2の判定結果表示画面63の領域633と同様に、第3の判定結果表示画面64は、リスト単位6430の数が多い場合にその一部ずつを表示するページ機能、複数のリスト単位6430のうちの一部をフィルタリングして表示する機能、複数のリスト単位6430をソートして表示する機能を有する。
 管理者は、領域641を参照することにより、対策を行わなければ停止対象のストレージ装置STを停止できないことを知ることができる。また、管理者は、領域643の各動作不可VM71のリスト単位6430を参照することにより、その動作不可VM71が実際に使用しているVMデータアクセスパス、すなわち、停止対象のストレージ装置STを停止できないことの原因となっているVMデータアクセスパス(つまり、アクティブな停止時アクセス不可パス)(以下「原因パス」という)を知ることができる。管理者は、原因パスを確認することで、停止対象のストレージ装置STを停止できるようにするために必要な対策を検討する事ができる。例えば、管理者は、VMデータ72を別のストレージ装置STに移動する等の対策を検討できる。なお、リスト単位6430には、動作不可VM71が行っている作業、例えば、業務サービスを特定するデータを含めてもよい。これにより、管理者は、動作不可VM71の名前に加えてどの作業が行えなくなるかを知ることができる。
 次に、実施例2について説明する。実施例2に係る管理計算機1は、実施例1の保守作業支援処理において停止対象のストレージ装置STを停止できないと判定した場合に、停止対象のストレージ装置STを停止できるようにするための計算機システムの構成変更に係る対策のプラン(以下「対策プラン」という)を導出し、管理者に伝える。計算機システムの構成変更としては、例えば、ストレージ装置STの構成の変更、仮想化サーバSVの設定の変更等がある。また、管理計算機1は、管理者が対策プランを実施するように指示した場合、対策プランに従って対策を実行する。これにより、管理者が自分で対策を検討する手間を省くことができる。
 停止対象のストレージ装置STを停止できるようにする、すなわち、アクティブな停止時アクセス不可パス(原因パス)が存在しないようにする計算機システムの構成変更に係る対策として、例えば、(1)動作不可VM71のVMデータ72の格納先のストレージ装置STを変更する第1の対策、(2)原因パスに代えて新たなVMデータアクセスパスを利用するようにする第2の対策、(3)VMマイグレーションを行ってVMデータアクセスパスの構成を変更する第3の対策、(4)停止対象のストレージ装置STを使わないようにする第4の対策等がある。
 第2の対策は、管理計算機1は、例えば、仮想化サーバSVとストレージ装置STとの間の接続情報(第2のストレージ情報)及びストレージ装置ST間の接続情報に基づいて、原因パスの代わりとなる新たなVMデータアクセスパス(第2のアクセスパス)を設定できるか否かを判定することにより、特定することができる。例えば、図1の構成において、仮想化サーバ1上でVMdが稼働していた場合、VMデータアクセスパス52は、アクティブな停止時アクセス不可パスとなる。この場合、管理計算機1は、仮想化サーバSVとストレージ装置STとの間の接続情報及びストレージ装置ST間の接続情報を参照することで、仮想化サーバ1から、VMdのVMデータ72が格納されているストレージ3へストレージ1及びストレージ2を経由せずに直接アクセスするアクセスパスを設定できることを知ることができる。このアクセスパスは、停止時アクセス不可パスではない。従って、管理計算機1は、VMデータアクセスパス52に代えて仮想化サーバ1からストレージ3へ直接アクセスするアクセスパスを利用するように設定することを対策として特定することができる。なお、VM71ごとに異なるアクセスパスが設定されてもよい。例えば、仮想化サーバ1上でVMa及びVMdが稼働している場合、仮想化サーバ1は、VMaのVMデータ72にアクセスする際にVMデータアクセスパス51を利用し、VMdのVMデータ72にアクセスする際に仮想化サーバ1からストレージ3へ直接アクセスするアクセスパスを利用してもよい。
 以下に、第1の対策についてより具体的に説明する。この対策は、具体的には、動作不可VM71のVMデータ72が格納されている仮想ボリューム(以下「対策必要ボリューム」という)8の全体のデータを、対策必要ボリューム8を利用する1以上の仮想化サーバSVのいずれもが他のストレージ装置STを経由せずに直接アクセスすることができる一のストレージ装置(停止対象のストレージ装置ST以外のストレージ装置STであり、以下「共通直接アクセス装置」という)STに移動させる、すなわち、対策必要ボリューム全体のデータを共通直接アクセス装置STに集約させるという対策である。
 実施例2に係る計算機システムの構成は、管理計算機1の構成を除き、実施例1で説明した計算機システムの構成と実質的に同じである。以下、実施例2に係る管理計算機1の構成を説明する。
 図33は、実施例2に係る管理計算機の一例の構成図である。
 実施例2に係る管理計算機1の構成は、図10の実施例1に係る管理計算機1の構成と一部を除き実質的に同じである。図10と同一の構成要素には、同一の符号を付し、説明を省略する。
 メモリ12は、物理接続管理表171と、空き容量管理表172と、対策プラン管理表173と、対策必要ボリューム管理表174と、ボリューム容量管理表175とをさらに記憶する。物理接続管理表171は、仮想化サーバSVが他のストレージ装置STを経由せずに直接アクセスすることができる1以上のストレージ装置ST(第2のストレージ)を示す第2のストレージ情報である。空き容量管理表172は、1以上の第2のストレージのそれぞれの記憶領域の空き容量を示す空き容量情報である。対策プラン管理表173は、対策プランを管理する表である。対策必要ボリューム管理表174は、対策必要ボリュームを管理する表である。ボリューム容量管理表175は、仮想ボリューム8の現在の使用容量を示す使用容量情報である。メモリ12に記憶される各種情報171~174の詳細については、後述する。
 図34は、実施例2に係る物理接続管理表の一例の構成図である。
 物理接続管理表171は、計算機システム内に存在する仮想化サーバSVのそれぞれについての、その仮想化サーバSVが他のストレージ装置STを経由せずに直接アクセスすることができるストレージ装置(すなわち、第2のストレージであり、以下「直接アクセス装置」という)STを管理するためのテーブルである。物理接続管理表171は、ホスト1711及びストレージ1712のフィールドを含む。ホスト1711には、仮想化サーバSVの名前が格納される。ストレージ1712には、ホスト1711が示す仮想化サーバSVに対する直接アクセス装置の名前が格納される。同図から、仮想化サーバ1及び仮想化サーバ2のいずれに対しても、ストレージ1、ストレージ2及びストレージ3のそれぞれが直接アクセス装置であること、すなわち、ストレージ1、ストレージ2及びストレージ3のそれぞれに直接アクセスできることがわかる。なお、物理接続管理表171に格納するデータは、管理計算機1が各仮想化サーバSV、各ストレージ装置ST或いはSAN41を構成する各ネットワーク装置(例えば、スイッチ)から収集してもよいし、管理者が入力してもよい。
 図35は、実施例2に係る空き容量管理表の一例の構成図である。
 空き容量管理表172は、直接アクセス装置の記憶領域の空き容量を管理するためのデータである。空き容量管理表172は、ストレージ1721、現空き容量1722及び対策後空き容量1723のフィールドを含む。ストレージ1721には、直接アクセス装置の名前が格納される。現空き容量1722には、後述する対策プラン特定処理(図42参照)が行われる以前の、直接アクセス装置の記憶領域の空き容量を示す値が格納される。対策後空き容量1723には、対策プラン特定処理によって特定された対策プランに従う対策が実施された後の、直接アクセス装置の記憶領域の空き容量を示す値が格納される。例えば、同図の上から1番目のエントリから、ストレージ1の空き容量は、対策プラン特定処理が行われる以前において4TB(テラバイト)あり、対策が実施された後に2TBになることがわかる。なお、空き容量管理表172に格納するデータは、管理計算機1が各ストレージ装置STから収集してもよいし、管理者が入力してもよい。なお、対策プラン特定処理が行われる以前において、対策後空き容量1723には、現空き容量1722と同じ値が格納される。
 図36は、実施例2に係る対策プラン管理表の一例の構成図である。
 対策プラン管理表173は、管理計算機1が特定した対策プランを管理するためのデータである。対策プラン管理表173は、仮想ボリュームID1731及び移動先ストレージ1732のフィールドを含む。仮想ボリュームID1731には、対策必要ボリューム8の識別子が格納される。移動先ストレージ1732には、対策必要ボリューム全体のデータの移動先のストレージ装置STの名前が格納される。同図から、管理計算機1によって、対策必要ボリューム「Volume3」全体のデータをストレージ1に移動させる対策プランが特定されたことがわかる。
 図37は、実施例2に係る対策必要ボリューム管理表の一例の構成図である。
 対策必要ボリューム管理表174は、対策必要ボリュームを管理するためのデータである。対策必要ボリューム管理表174は、仮想ボリュームID1741のフィールドを含む。仮想ボリュームID1741には、対策必要ボリュームの識別子が格納される。同図から、仮想ボリューム「Volume3」が対策必要ボリュームであることがわかる。
 図38は、実施例2に係るボリューム容量管理表の一例の構成図である。
 ボリューム容量管理表175は、計算機システム内に存在する1以上の仮想ボリューム8のそれぞれの全体の容量及び使用済み容量を管理するためのデータである。ボリューム容量管理表175は、仮想ボリュームID1751、容量1752及び使用済み容量1753のフィールドを含む。仮想ボリュームID1751には、仮想ボリューム8の識別子が格納される。容量1752には、仮想ボリューム8の全体の容量を示す値が格納される。使用済み容量1753には、仮想ボリューム8の使用済み容量を示す値が格納される。例えば、同図の上から1番目のエントリから、仮想ボリューム「Volume2」の全体の容量が1TB、使用済み容量が200GB(ギガバイト)であることがわかる。
 次に、実施例2に係る管理計算機1の動作を説明する。
 図39は、実施例2に係る保守作業支援処理のフローチャートである。
 実施例2に係る保守作業支援処理は、図21の実施例1に係る保守作業支援処理と一部を除き実質的に同じである。図39のステップS801~ステップS808の処理は、図21のステップS101~ステップS108と同様な処理である。また、図39のステップS813~ステップS815の処理は、図21のステップS110~ステップS112と同様な処理である。なお、ステップS801において図22の事前準備処理が行われるが、本実施例では、図22のステップS203において、物理接続管理表171、空き容量管理表172及びボリューム容量管理表175も、現時点での計算機システムの構成に合致する内容に更新される。また、図22のステップS204において、対策プラン管理表173及び対策必要ボリューム管理表174も、それぞれのエントリが全て削除される。
 ステップS806において、アクティブな停止時アクセス不可パスが存在すると判定された場合(ステップS806:Yes)、管理プログラム14は、対策特定処理を行う(ステップS809)。この対策特定処理により、対策プランが特定される。
 その後、管理プログラム14は、停止対象のストレージ装置STを停止できない旨に加えてステップS809で特定された対策プランの内容を示す第4の判定結果表示画面(図43参照)を表示用計算機10に表示させ、ステップS811へ処理を進める(ステップS810)。
 ステップS811において、管理プログラム14は、ステップS810で表示させた第4の判定結果表示画面に対する管理者の入力、具体的には、対策プランの実施を指示する入力を待つ。そして、管理プログラム14は、管理者が対策プランの実施を指示したか、或いは管理者が対策プランの実施を指示することなく一定時間が経過したかを判定する。
 管理者が対策プランの実施を指示した場合(ステップS811:Yes)、管理プログラム14は、対策プランに従う対策を実施する(ステップS811)。例えば、特定された対策プランが、対策必要ボリューム「Volume3」全体のデータをストレージ1に移動させる対策プランである場合、管理プログラム14は、仮想ボリューム「Volume3」全体のデータをストレージ1に移動させる。そして、管理プログラム14は、仮想ボリューム「Volume3」を利用する仮想化サーバSVのそれぞれの窓口ストレージ装置STをストレージ1に設定させる。これにより、仮想ボリューム「Volume3」にアクセスする仮想化サーバSVは、実際にデータが格納されているストレージ1に直接アクセスすることになり、また、ストレージ1は、停止対象のストレージ装置STではないため、アクティブな停止時アクセス不可パスが存在しなくなる。その後、管理プログラム14は、処理をステップS815へ進める。
 一方、管理者が対策プランの実施を指示することなく一定時間が経過した場合(ステップS811:タイムアウト)、管理プログラム14は、処理をステップS815へ進める。管理プログラム14は、ステップS815の処理を終えた後、保守作業支援処理を終了する。
 図40は、実施例2に係る対策特定処理のフローチャートである。
 対策特定処理は、図39のステップS809の処理に対応する。
 まず、管理プログラム14は、対策必要ボリューム特定処理(図41参照)を行う(ステップS901)。この対策必要ボリューム特定処理により、対策必要ボリュームが特定される。
 次に、管理プログラム14は、対策プラン特定処理(図42参照)を行う(ステップS902)。この対策プラン特定処理により、対策プランが特定される。その後、管理プログラム14は、対策特定処理を終了する。
 図41は、実施例2に係る対策必要ボリューム特定処理のフローチャートである。
 対策必要ボリューム特定処理は、図40のステップS901の処理に対応する。
 管理プログラム14は、停止時アクセス不可パス管理表164に登録されているエントリのうちのアクティブか否か1645にアクティブを示すデータが格納されている各エントリに対して、ステップS1001~ステップS1007の処理を行う。管理プログラム14は、停止時アクセス不可パス管理表164に登録されているエントリのうちのアクティブか否か1645にアクティブを示すデータが格納されているエントリのうちの一つ(以下、図41の説明において「エントリA」という)を選択する。以下、図41の説明において、エントリAが示すアクティブな停止時アクセス不可パス、すなわち、原因パスを「対象原因パス」という。
 管理プログラム14は、ホストアクセスパス統合管理表152のエントリの中から、ホスト1521の値が、エントリAの仮想化サーバ1641の値と一致するエントリを特定する(ステップS1002)。すなわち、ステップS1002では、ホストアクセスパス統合管理表152の、対象原因パスのアクセス元サーバSVに関係するエントリが特定される。管理プログラム14は、特定したエントリを参照することで、対象原因パスのアクセス元サーバSVがアクセスする仮想ボリューム8を知ることができる。
 管理プログラム14は、ステップS1002で特定した各エントリに対して、ステップS1003~ステップS1006の処理を行う。管理プログラム14は、ステップS1002で特定したエントリのうちの一つ(以下、図41の説明において「エントリB」という)を選択する。以下、図41の説明において、エントリBの仮想ボリュームID1522が示す仮想ボリューム8を「対象仮想ボリューム」という。
 管理プログラム14は、仮想-実ページ対応統合管理表153に、仮想ボリュームID1531の値がエントリBの仮想ボリュームID1522の値と一致し、且つ、ストレージ1533の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがあるか否かを判定する(ステップS1004)。すなわち、ステップS1004では、対象原因パスの目的ストレージ装置STの記憶領域が、対象仮想ボリュームに割当てられているか否か、すなわち、対象原因パスのアクセス元サーバSVが対象原因パスを利用してアクセスするVMデータ72が、対象仮想ボリュームに格納されているか否かがが判定される。
 仮想-実ページ対応統合管理表153に、仮想ボリュームID1531の値がエントリBの仮想ボリュームID1522の値と一致し、且つ、ストレージ1533の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがある場合、すなわち、対象原因パスのアクセス元サーバSVが対象原因パスを利用してアクセスするVMデータ72が、対象仮想ボリュームに格納されている場合(ステップ1004:Yes)、管理プログラム14は、対象仮想ボリュームを示すエントリを作成し、作成したエントリを対策必要ボリューム管理表174に登録する。すなわち、この場合、対象仮想ボリュームは、対策必要ボリュームと特定される。
 一方、仮想-実ページ対応統合管理表153に、仮想ボリュームID1531の値がエントリBの仮想ボリュームID1522の値と一致し、且つ、ストレージ1533の値がエントリAのデータ格納先ストレージ1643の値と一致するエントリがない場合、すなわち、対象原因パスのアクセス元サーバSVが対象原因パスを利用してアクセスするVMデータ72が、対象仮想ボリュームに格納されていない場合(ステップ1004:No)、管理プログラム14は、対象仮想ボリューム8対策必要ボリュームではないと判断する。
 管理プログラム14は、ステップS1002で特定した各エントリに対してステップS1003~ステップS1006の処理を終え、停止時アクセス不可パス管理表164に登録されているエントリのうちのアクティブか否か1645にアクティブを示すデータが格納されている各エントリに対してステップS1001~ステップS1007の処理を終えた後、対策必要ボリューム特定処理を終了する。
 このように、管理計算機1は、原因パスを持つ仮想化サーバSVが利用する1以上の仮想ボリューム8の中から、その仮想化サーバSVがその原因パスを利用してアクセスするVMデータ72が格納されている仮想ボリューム8を特定し、特定した仮想ボリューム8を対策必要ボリュームと特定する。
 図42は、実施例2に係る対策プラン特定処理のフローチャートである。
 対策プラン特定処理は、図40のステップS902の処理に対応する。
 管理プログラム14は、対策必要ボリューム管理表174に登録されている各エントリに対して、ステップS1101~ステップS1113の処理を行う。管理プログラム14は、対策必要ボリューム管理表174に登録されているエントリのうちの一つ(以下、図42の説明において「エントリA」という)を選択する。以下、図42の説明において、エントリAが示す対策必要ボリュームを「対象対策必要ボリューム」という。
 管理プログラム14は、対象対策必要ボリュームを共有する、停止対象のストレージ装置ST以外の各ストレージ装置STに対して、ステップS1102~ステップS1112の処理を行う。管理プログラム14は、対象対策必要ボリュームを共有する、停止対象のストレージ装置ST以外のストレージ装置STのうちの一つ(以下、図42の説明において「ストレージB」という)を選択する。
 管理プログラム14は、ホストアクセスパス統合管理表152のエントリの中から、仮想ボリュームID1522の値が、エントリAの仮想ボリュームID1741の値と一致するエントリを特定する(ステップS1103)。すなわち、ステップS1103では、ホストアクセスパス統合管理表152の、対象対策必要ボリュームに関係するエントリが特定される。管理プログラム14は、特定したエントリを参照することで、対象対策必要ボリュームにアクセスする仮想化サーバSVを知ることができる。
 管理プログラム14は、ステップS1103で特定した各エントリに対して、ステップS1104~ステップS1106の処理を行う。管理プログラム14は、ステップS1103で特定したエントリのうちの一つ(以下、図42の説明において「エントリC」という)を選択する。以下、図42の説明において、エントリCのホスト1521が示す仮想化サーバSVを「対象仮想化サーバ」という。
 管理プログラム14は、物理接続管理表171に、ホスト1711の値がエントリCのホスト1521の値と一致し、且つ、ストレージ1712が示すストレージ装置STがストレージBであるエントリがあるか否かを判定する(ステップS1105)。すなわち、ステップS1105では、ストレージBが対象仮想化サーバSVの直接アクセス装置であるか否かが判定される。
 物理接続管理表171に、ホスト1711の値がエントリCのホスト1521の値と一致し、且つ、ストレージ1712が示すストレージ装置STがストレージBであるエントリがない場合、すなわち、ストレージBが対象仮想化サーバSVの直接アクセス装置でない場合(ステップS1105:No)、管理プログラム14は、ステップS1112へ処理を進める。そして、管理プログラム14は、対象対策必要ボリュームを共有する、停止対象のストレージ装置ST以外のストレージ装置STが未だ存在する場合は、そのストレージ装置STを選択し、再度ステップS1102~ステップS1112の処理を行う。
 ステップS1103で特定したエントリの全てに対して、物理接続管理表171に、ホスト1711の値がエントリCのホスト1521の値と一致し、且つ、ストレージ1712が示すストレージ装置STがストレージBであるエントリがある、すなわち、ストレージBが対象仮想化サーバSVの直接アクセス装置であると判定した場合、管理プログラム14は、ステップS1107へ処理を進める。すなわち、この場合、ストレージBは、対象対策必要ボリュームにアクセスする1以上の仮想化サーバSVの共通直接アクセス装置である。
 ステップS1107において、管理プログラム14は、空き容量管理表172のエントリの中から、ストレージ1721が示すストレージ装置STがストレージBであるエントリ(以下、図42の説明において「エントリD」という)を特定する。管理プログラム14は、特定したエントリを参照することで、共通直接アクセス装置であるストレージBの記憶領域の空き容量を知ることができる。
 次に、管理プログラム14は、ボリューム容量管理表175のエントリの中から、仮想ボリュームID1751の値が、エントリAの仮想ボリュームID1741の値と一致するエントリ(以下、図42の説明において「エントリE」という)を特定する(ステップS1108)。管理プログラム14は、特定したエントリを参照することで、対象対策必要ボリュームの使用済み容量を知ることができる。
 その後、管理プログラム14は、エントリDの対策後空き容量1723の値が、エントリEの使用済み容量1753の値以上であるか否かを判定する(ステップS1109)。すなわち、対象対策必要ボリューム全体のデータを共通直接アクセス装置であるストレージBに移動できるか否かが判定される。
 エントリDの対策後空き容量1723の値が、エントリEの使用済み容量1753の値以上でない場合(ステップS1109:No)、管理プログラム14は、ステップS1112へ処理を進める。そして、管理プログラム14は、対象対策必要ボリュームを共有する、停止対象のストレージ装置ST以外のストレージ装置STが未だ存在する場合は、そのストレージ装置STを選択し、再度ステップS1102~ステップS1112の処理を行う。
 一方、エントリDの対策後空き容量1723の値が、エントリEの使用済み容量1753の値以上である場合(ステップS1109:Yes)、管理プログラム14は、仮想ボリュームID1731にエントリAの仮想ボリュームID1741の値(すなわち、対象対策必要ボリュームの識別子)を、移動先ストレージ1732にストレージBの名前をそれぞれ格納した、対策プラン管理表173のエントリを作成し、作成したエントリを同管理表173に登録する(ステップS1110)。すなわち、ステップS405において、対象対策必要ボリューム全体のデータをストレージB(第3のストレージ)に移動させる対策プランが特定され、その対策プランを示すエントリが対策プラン管理表173に登録される。
 その後、管理プログラム14は、エントリDの対策後空き容量1723の値からエントリEの使用済み容量1753の値を減算した値を、エントリDの対策後空き容量1723に格納する(ステップS1111)。すなわち、ステップS1111において、空き容量管理表172の対策後空き容量1723の値が、ステップS1110で特定した対策プランに従う対策が実施された場合の値に更新される。対策プランが特定される都度、対策後空き容量1723の値を更新することで、管理計算機1が不可能な対策プランを導出してしまうことを防ぐことができる。
 管理プログラム14は、対策必要ボリューム管理表174に登録されている各エントリに対してステップS1101~ステップS1113の処理を終えた後、対策プラン特定処理を終了する。
 このように、管理計算機1は、対策必要ボリュームについて、その対策必要ボリュームにアクセスする1以上の仮想化サーバSVの共通直接アクセス装置を特定し、対策必要ボリュームの使用済み容量及び共通直接アクセス装置の記憶領域の空き容量に基づいて、対策必要ボリューム全体のデータを共通直接アクセス装置に移動できるか否かを判定し、移動できると判定した場合に、その対象対策必要ボリューム全体のデータをその共通直接アクセス装置に移動させることを対策プランとして特定する。
 図43は、実施例2に係る第4の判定結果表示画面の一例の構成図である。
 第4の判定結果表示画面65は、管理計算機1が、保守作業支援処理において停止対象のストレージ装置STを停止できないと判定した場合(図39のステップS810)に、その旨及び管理計算機1が特定した対策プランの内容を管理者に通知するための画面である。第4の判定結果表示画面65は、停止可否判定の判定結果を表示するための領域651と、動作不可VM71に関する情報を表示するための領域653と、管理計算機1が特定した対策プランの内容を表示するための領域654とを含む。領域651及び領域653は、実施例1に係る第3の判定結果表示画面64の領域641及び領域643と実質的に同じである。
 領域654には、例えば、1以上の対策プランに対応するリスト単位6540が、リストで表示される。各リスト単位6540は、各対策プランに関する情報、例えば、対策必要ボリュームの識別子と、対策必要ボリューム全体のデータの移動先のストレージ装置STの名前とを含む。第4の判定結果表示画面65は、領域653と同様に、リスト単位6540の数が多い場合にその一部ずつを表示するページ機能、複数のリスト単位6540のうちの一部をフィルタリングして表示する機能、複数のリスト単位6540をソートして表示する機能を有する。また、領域654には、対策プランに従う対策の実施を管理計算機1に指示させるためのボタン6544を含む。管理計算機1は、管理者が管理計算機1に実施させる対策プランを指定してボタン6544を押下した場合に、保守作業支援処理におけるステップS812の処理を開始し、管理者が指定した対策プランに従う対策を実施する。管理計算機1が、実施する対策プランを管理者に指定させることで、管理者は、複数の対策プランが特定された場合に、複数の対策プランのうちの指定した対策プランを実施させることができる。
 管理者は、領域651を参照することにより、対策を行わなければ停止対象のストレージ装置STを停止できないことを知ることができる。また、管理者は、領域653の各動作不可VM71のリスト単位6530を参照することにより、原因パスを知ることができる。さらに、管理者は、領域654の各対策プランのリスト単位6540を参照することにより、停止対象のストレージ装置STを停止するための対策としてどのような対策があるかを知ることができる。これにより、管理者が自分で対策を検討する手間を省くことができる。
 なお、本発明は、以上説明した実施例に限定されるものでなく、その趣旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
1…管理計算機、ST…ストレージ装置、SV…仮想化サーバ、41…SAN、42…管理用LAN

Claims (15)

  1.  複数のストレージ装置と、前記複数のストレージ装置により共有される仮想的な論理ボリュームである仮想ボリュームを利用するサーバとを含む計算機システムの管理を行う管理システムであって、
     記憶デバイスと、
     前記記憶デバイスに接続された制御デバイスと
    を有し、
     前記記憶デバイスは、
     前記サーバが前記複数のストレージ装置のそれぞれの記憶領域にアクセスする際に利用する、前記サーバから一の前記ストレージ装置までの経路であるアクセスパスのそれぞれについて、当該アクセスパス上に存在する1以上のストレージ装置を示すアクセスパス情報と
    を記憶し、
     前記制御デバイスは、
     前記複数のストレージ装置のうちから判定対象とする第1のストレージ装置の選択を受け付け、
     前記アクセスパス情報に基づいて、前記第1のストレージ装置が含まれる第1のアクセスパスが存在するか否かの第1の判定を行い、
     前記第1のアクセスパスが存在する場合、前記第1のアクセスパスが、前記仮想ボリュームの前記サーバが利用している部分に割当てられている記憶領域に対して、当該サーバがアクセスする際に利用するアクティブなアクセスパスであるか否かの第2の判定を行い、
     前記第1の判定の結果又は前記第2の判定の結果に基づいて、前記第1のストレージ装置を停止できるか否かを判定する
    管理システム。
  2.  前記制御デバイスは、前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、前記第1のストレージ装置を停止できないと判定し、前記第1のストレージ装置を停止できないことを意味する情報と、当該アクティブな第1のアクセスパスに関する情報とを表示する
    請求項1に記載の管理システム。
  3.  前記記憶デバイスは、
     前記サーバが他のストレージ装置を経由せずに直接アクセスすることができる1以上の第2のストレージ装置を示す第2のストレージ装置情報と、前記1以上の第2のストレージ装置のそれぞれの記憶領域の空き容量を示す空き容量情報と、前記仮想ボリュームの現在の使用容量を示す使用容量情報とをさらに記憶し、
     前記制御デバイスは、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、前記第2のストレージ装置情報、前記空き容量情報、及び前記使用容量情報に基づいて、前記1以上の第2のストレージ装置の中から、前記第1のストレージ装置以外のストレージ装置であり、且つ記憶領域の空き容量が前記仮想ボリュームの現在の使用容量以上である第3のストレージ装置を特定し、前記仮想ボリューム全体のデータを前記第3のストレージ装置に移動させることを前記対策として特定する
    請求項2に記載の管理システム。
  4.  前記記憶デバイスは、前記ストレージ装置間の接続関係を示す接続情報をさらに記憶し、
     前記制御デバイスは、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、前記第2のストレージ装置情報及び前記接続情報に基づいて、前記アクティブな第1のアクセスパスの代わりとなる、前記第1のストレージ装置を含まない第2のアクセスパスを設定できるか否かを判定し、設定できると判定した場合、前記アクティブな第1のアクセスパスに代えて前記第2のアクセスパスを利用するように設定することを前記対策として特定する
    請求項3に記載の管理システム。
  5.  前記制御デバイスは、前記第1のアクセスパスが存在しない場合、又は、前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれもがアクティブなアクセスパスでない場合、前記第1のストレージ装置を停止できると判定し、前記第1のストレージ装置を停止できることを表す情報を表示する、
    請求項1記載の管理システム。
  6.  前記制御デバイスは、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、アクティブな第1のアクセスパスが存在しないようにするための対策であって、前記計算機システムの構成変更に係る対策を特定し、
     前記第1のストレージ装置を停止できない旨及び前記アクティブな第1のアクセスパスに関する情報とともに前記対策の内容を表示する
    請求項1に記載の管理システム。
  7.  前記制御デバイスは、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれもがアクティブなアクセスパスでない場合、前記第1のアクセスパスのいずれかをアクティブなアクセスパスに変化させ得る操作であって、前記計算機システムの構成変更に係る操作が存在するか否かを判定し、
     前記操作が存在する場合、前記第1のストレージ装置を停止できる旨とともに前記操作の内容を表示する
    請求項1に記載の管理システム。
  8.  前記記憶デバイスが、
     前記複数のストレージ装置のそれぞれの記憶領域が前記仮想ボリュームのどの部分に割当てられているか示す割当て情報と、
     前記サーバが前記仮想ボリュームのどの部分を利用しているかを示す利用情報と
    を記憶し、
     前記制御デバイスが、前記第2の判定を、前記割当て情報及び前記利用情報に基づいて行う、
    請求項1に記載の管理システム。
  9.  前記計算機システムは、前記サーバを複数含み、
     各サーバ上では、前記仮想ボリュームを利用する1以上の仮想マシンが稼働しており、
     前記記憶デバイスは、
     複数のサーバのそれぞれについて、当該サーバ上で稼働している1以上の前記仮想マシンのそれぞれが前記仮想ボリュームのどの部分を利用しているかを示す仮想マシン利用情報をさらに記憶し、
     前記制御デバイスは、
     前記第2の判定において、前記割当て情報及び前記仮想マシン利用情報に基づいて、前記第1のアクセスパスが、前記複数のサーバのうちのいずれかのサーバ上で稼働している前記仮想マシンが利用している前記仮想ボリュームの部分に割当てられている記憶領域に対して、当該サーバがアクセスする際に利用するアクセスパスである場合に、前記第1のアクセスパスをアクティブなアクセスパスと判定し、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれもがアクティブなアクセスパスでない場合、前記割当て情報、前記仮想マシン利用情報及び前記アクセスパス情報に基づいて、前記第1のアクセスパスを利用するサーバのそれぞれについて、当該サーバ以外のサーバ上で稼働している仮想マシンを当該サーバへ移動させる操作であって、当該サーバが利用する第1のアクセスパスをアクティブに変化させる操作が存在するか否かを判定する
    請求項8に記載の管理システム。
  10.  前記制御デバイスは、
     前記第1のストレージ装置の選択を受け付けた後、前記複数のストレージ装置のそれぞれから、当該ストレージ装置の記憶領域が前記仮想ボリュームのどの部分に割当てられているか示す個別割当て情報と、当該ストレージ装置から他のストレージ装置までの経路上に存在する1以上のストレージ装置を示すストレージ装置間情報とを取得し、
     前記第1のストレージ装置の選択を受け付けた後、1以上の前記ストレージ装置から、当該ストレージ装置が前記サーバによる前記仮想ボリュームに対するアクセス要求の発行先であることを示すサーバストレージ装置間情報を取得し、
     前記第1のストレージ装置の選択を受け付けた後、前記利用情報を前記サーバから取得し、
     前記個別割当て情報に基づいて前記割当て情報を生成し、前記割当て情報、前記ストレージ装置間情報及び前記サーバストレージ装置間情報に基づいて前記アクセスパス情報を生成する
    請求項8に記載の管理システム。
  11.  複数のストレージ装置と、前記複数のストレージ装置により共有される仮想的な論理ボリュームである仮想ボリュームを利用するサーバとを含む計算機システムの管理を行う管理システムにおける管理方法であって、
     前記複数のストレージ装置のうちから判定対象とする第1のストレージ装置の選択を受け付け、
     前記サーバから一の前記ストレージ装置までの経路であるアクセスパスのそれぞれについて当該アクセスパス上に存在する1以上のストレージ装置を示すアクセスパス情報に基づいて、前記第1のストレージ装置が含まれる第1のアクセスパスが存在するか否かの第1の判定を行い、
     前記第1のアクセスパスが存在する場合、前記第1のアクセスパスが、前記仮想ボリュームの前記サーバが利用している部分に割当てられている記憶領域に対して、当該サーバがアクセスする際に利用するアクティブなアクセスパスであるか否かの第2の判定を行い、
     前記第1の判定の結果又は前記第2の判定の結果に基づいて、前記第1のストレージ装置を停止できるか否かを判定する
    管理方法。
  12.  前記制御デバイスは、前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、前記第1のストレージ装置を停止できないと判定し、前記第1のストレージ装置を停止できないことを意味する情報と、当該アクティブな第1のアクセスパスに関する情報とを表示する
    請求項11に記載の管理方法。
  13.  前記制御デバイスは、前記第1のアクセスパスが存在しない場合、又は、前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれもがアクティブなアクセスパスでない場合、前記第1のストレージ装置を停止できると判定し、前記第1のストレージ装置を停止できることを表す情報を表示する、
    請求項11に記載の管理方法。
  14.  前記制御デバイスは、
     前記第1のアクセスパスが1以上存在し且つ前記第1のアクセスパスのいずれかがアクティブなアクセスパスである場合、アクティブな第1のアクセスパスが存在しないようにするための対策であって、前記計算機システムの構成変更に係る対策を特定し、
     前記第1のストレージ装置を停止できない旨及び前記アクティブな第1のアクセスパスに関する情報とともに前記対策の内容を表示する
    請求項11に記載の管理方法。
  15.  複数のストレージ装置と、前記複数のストレージ装置により共有される仮想的な論理ボリュームである仮想ボリュームを利用するサーバとを含む計算機システムの管理を行う計算機で実行されるコンピュータプログラムであって、
     前記複数のストレージ装置のうちから判定対象とする第1のストレージ装置の選択を受け付け、
     前記サーバから一の前記ストレージ装置までの経路であるアクセスパスのそれぞれについて当該アクセスパス上に存在する1以上のストレージ装置を示すアクセスパス情報に基づいて、前記第1のストレージ装置が含まれる第1のアクセスパスが存在するか否かの第1の判定を行い、
     前記第1のアクセスパスが存在する場合、前記第1のアクセスパスが、前記仮想ボリュームの前記サーバが利用している部分に割当てられている記憶領域に対して、当該サーバがアクセスする際に利用するアクティブなアクセスパスであるか否かの第2の判定を行い、
     前記第1の判定の結果又は前記第2の判定の結果に基づいて、前記第1のストレージ装置を停止できるか否かを判定する
    ことを前記計算機に実行させるコンピュータプログラム。
PCT/JP2012/060464 2012-04-18 2012-04-18 管理システム及び管理方法 WO2013157094A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/576,479 US8850088B2 (en) 2012-04-18 2012-04-18 Management system and management method
PCT/JP2012/060464 WO2013157094A1 (ja) 2012-04-18 2012-04-18 管理システム及び管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/060464 WO2013157094A1 (ja) 2012-04-18 2012-04-18 管理システム及び管理方法

Publications (1)

Publication Number Publication Date
WO2013157094A1 true WO2013157094A1 (ja) 2013-10-24

Family

ID=49381214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060464 WO2013157094A1 (ja) 2012-04-18 2012-04-18 管理システム及び管理方法

Country Status (2)

Country Link
US (1) US8850088B2 (ja)
WO (1) WO2013157094A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228076B (zh) * 2016-12-14 2020-10-16 华为技术有限公司 访问磁盘的方法和主机
CN111586725B (zh) * 2019-02-15 2022-04-22 华为技术有限公司 一种接入点更新方法及接入点

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134208A (ja) * 2004-11-09 2006-05-25 Fujitsu Ltd ストレージ仮想化装置
JP2007122463A (ja) * 2005-10-28 2007-05-17 Fujitsu Ltd 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
JP2009032014A (ja) * 2007-07-26 2009-02-12 Hitachi Ltd ストレージシステム及びこれの管理方法
JP2009146106A (ja) * 2007-12-13 2009-07-02 Hitachi Ltd 物理的な通信ポートに付加される仮想的な通信ポートを移行する機能を有したストレージシステム
WO2011043270A1 (ja) * 2009-10-07 2011-04-14 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4648751B2 (ja) * 2005-05-02 2011-03-09 株式会社日立製作所 記憶制御システム及び記憶制御方法
JP4963892B2 (ja) * 2006-08-02 2012-06-27 株式会社日立製作所 仮想ストレージシステムの構成要素となることが可能なストレージシステムの制御装置
JP4738438B2 (ja) 2008-04-17 2011-08-03 株式会社日立製作所 外部接続ストレージシステムのパス管理及び障害箇所検出方法
JP4815518B2 (ja) 2009-09-11 2011-11-16 株式会社日立製作所 ストレージシステムとサーバ計算機の両方でThin−Provisioning技術に従う容量仮想化が行われる計算機システム
US8656136B2 (en) 2010-02-05 2014-02-18 Hitachi, Ltd. Computer system, computer and method for performing thin provisioning capacity management in coordination with virtual machines
JP5079841B2 (ja) 2010-04-15 2012-11-21 株式会社日立製作所 ThinProvisioningに従う仮想的な論理ボリュームに対するデータのライトを制御する方法及びストレージ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134208A (ja) * 2004-11-09 2006-05-25 Fujitsu Ltd ストレージ仮想化装置
JP2007122463A (ja) * 2005-10-28 2007-05-17 Fujitsu Ltd 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
JP2009032014A (ja) * 2007-07-26 2009-02-12 Hitachi Ltd ストレージシステム及びこれの管理方法
JP2009146106A (ja) * 2007-12-13 2009-07-02 Hitachi Ltd 物理的な通信ポートに付加される仮想的な通信ポートを移行する機能を有したストレージシステム
WO2011043270A1 (ja) * 2009-10-07 2011-04-14 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法

Also Published As

Publication number Publication date
US20130282935A1 (en) 2013-10-24
US8850088B2 (en) 2014-09-30

Similar Documents

Publication Publication Date Title
EP2652586B1 (en) Information storage system and storage system management method
US9367265B2 (en) Storage system and method for efficiently utilizing storage capacity within a storage system
JP5478107B2 (ja) 仮想ストレージ装置を管理する管理サーバ装置及び仮想ストレージ装置の管理方法
JP5072692B2 (ja) 複数のストレージシステムモジュールを備えたストレージシステム
US9921781B2 (en) Storage system including multiple storage apparatuses and pool virtualization method
WO2013160944A1 (en) Provisioning of resources like cpu or virtual machines or virtualized storage in a cloud computing environment
US10437642B2 (en) Management system for computer system
JP2010039986A (ja) データのバックアップを管理する計算機システム及び方法
JP2009245387A (ja) ストレージシステム
WO2014155555A1 (ja) 管理システム及び管理プログラム
JP2007102760A (ja) ストレージエリアネットワークにおけるボリュームの自動割り当て
US20150234907A1 (en) Test environment management apparatus and test environment construction method
WO2012143965A1 (en) Plurality of coupled storage subsystems and method for setting port access limitation in a storage subsystem when migrating a logical volume
US9081509B2 (en) System and method for managing a physical storage system and determining a resource migration destination of a physical storage system based on migration groups
US9262437B2 (en) Storage system and control method for storage system
WO2013157094A1 (ja) 管理システム及び管理方法
US9239681B2 (en) Storage subsystem and method for controlling the storage subsystem
JP2016503522A (ja) ストレージシステム、ストレージシステムの制御方法及び管理システム
JP2015172958A (ja) 情報記憶システム
WO2016139749A1 (ja) 計算機システム、及び、記憶制御方法
US11704426B1 (en) Information processing system and information processing method
WO2016056050A1 (ja) 計算機システム及びそれの管理システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13576479

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12874419

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12874419

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP