WO2014068764A1 - システム冗長化確認方法及び計算機システム - Google Patents

システム冗長化確認方法及び計算機システム Download PDF

Info

Publication number
WO2014068764A1
WO2014068764A1 PCT/JP2012/078453 JP2012078453W WO2014068764A1 WO 2014068764 A1 WO2014068764 A1 WO 2014068764A1 JP 2012078453 W JP2012078453 W JP 2012078453W WO 2014068764 A1 WO2014068764 A1 WO 2014068764A1
Authority
WO
WIPO (PCT)
Prior art keywords
computers
information
server
computer
storage area
Prior art date
Application number
PCT/JP2012/078453
Other languages
English (en)
French (fr)
Inventor
敬太 嶋田
高本 良史
貴志 爲重
雄二郎 市川
智斉 内田
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2012/078453 priority Critical patent/WO2014068764A1/ja
Priority to JP2014544176A priority patent/JP5955977B2/ja
Priority to US14/426,279 priority patent/US9542249B2/en
Publication of WO2014068764A1 publication Critical patent/WO2014068764A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/008Reliability or availability analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/004Error avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques

Definitions

  • the present invention relates to a technique for determining whether or not a failover function operates in a computer system in which a cluster is configured without affecting an operating computer.
  • a conventional cluster system having a failover function is composed of an active server on which an application for executing business runs, and a standby server on which an application runs instead of the active server when a failure occurs in the active server .
  • As a method for confirming the operation of the failover function in the conventional cluster system it is necessary to confirm the following two points.
  • the standby server can access the LU (Logical Unit) accessed by the active server.
  • the standby server is physically connected (connected) to the LU accessed by the active server, but also that the logical connection be confirmed.
  • the logical connection represents a setting of a switch that connects between the LU accessed by the active server and the standby server, and various settings such as ports and paths in the storage apparatus.
  • a typical example of the invention disclosed in the present application is as follows. That is, a system redundancy check method in a computer system, wherein the computer system includes at least one or more first computers, at least one or more second computers, a storage system, and the at least one or more first computers. And a management computer that manages the at least one second computer.
  • the at least one or more first computers have a first processor, a first memory connected to the first processor, and a first I / O interface connected to the first processor.
  • the at least one second computer has a second processor, a second memory connected to the second processor, and a second I / O interface connected to the second processor.
  • the storage system includes a disk controller including one or more controllers having one or more ports, and a plurality of storage media, and the management computer is connected to a third processor and the third processor.
  • the at least one or more first computers execute business, and the at least one or more second computers take over the business when a failure occurs in the at least one or more first computers.
  • the storage system provides a storage area for storing data necessary for execution of the business to the at least one or more first computers.
  • the management computer has first hardware information related to a hardware configuration of the at least one or more first computers, and second hardware related to a hardware configuration of the at least one or more second computers.
  • the second computer receives the acquisition instruction, the second computer acquires the second storage area information from the storage system, and the management calculation
  • a fourth step of transmitting the acquired second storage area information to the management computer wherein the management computer acquires the acquired first hardware information, the acquired first storage area information, and the acquisition Comparing the obtained second hardware information and the obtained second storage area information, and based on the comparison result, the at least one first computer and the at least one second computer And a fifth step of determining whether or not failover is possible with the computer.
  • the task executed by the first computer since it is determined whether or not failover is possible by comparing information acquired from the first computer and the second computer, the task executed by the first computer may be affected. Absent.
  • FIG. 1 is a block diagram illustrating an example of a computer system according to a first embodiment of this invention.
  • FIG. It is a block diagram explaining the hardware constitutions and software constitutions of the management server of Example 1 of this invention. It is a block diagram explaining the hardware constitutions and software constitutions of the server of Example 1 of this invention. It is a block diagram explaining the disk controller with which the storage apparatus of Example 1 of this invention is provided.
  • FIG. 1 is a block diagram illustrating a configuration example of a computer system according to the first embodiment of this invention.
  • the computer system in this embodiment includes a management server 100, a client terminal 190, an NW-SW 110, a plurality of servers 120, an FC (Fiber Channel) -SW 140, and one or more storage devices 130.
  • the management server 100 is connected to the management interface 141 of the FC-SW 140, the management interface 121 of the plurality of servers 120, and the management interface 131 of the storage apparatus 130 via the NW-SW 100.
  • the management interfaces 121, 131, and 141 are I / O interfaces for transmitting information on each IT device (hereinafter simply referred to as “device”) in response to an inquiry from the management server 100.
  • An interface can be used.
  • the management server 100 is connected to a client terminal 190 from which an administrator issues an input / output instruction to the management server 100.
  • the present invention is not limited to the connection method between the management server 100 and the client terminal 190, and may be connected via, for example, a network or a physical cable. Note that the administrator may directly operate the management server 100 without using the client terminal 190.
  • the NW-SW 110 is a switch that constitutes a management network for the management server 100 to manage the plurality of servers 120, the FC-SW 140, and one or more storage apparatuses 130.
  • the management network is configured by one NW-SW 110, but the management network may be configured by a plurality of switches and routers.
  • the NW-SW 110 has a network management unit 111.
  • the network management unit 111 acquires information on the connection path between the server 120 and the LU 135. In the first embodiment, the network management unit 111 is not used. In the seventh embodiment, specific processing of the network management unit 111 will be described with reference to FIG.
  • the management server 100 performs various management of the entire computer system. For example, the management server 100 acquires various types of information from each server 120, operates the power source of each server 120, and manages the cluster system.
  • the cluster system is a system composed of one or more clusters, and the cluster is composed of one or more servers 120.
  • the management server 100 includes a control unit 101 and a management table group 102.
  • the control unit 101 executes various processes for realizing the management function in the management server 100.
  • the management table group 102 stores information necessary for the control unit 101 to execute processing.
  • the hardware configuration and software configuration of the management server 100 will be described later with reference to FIG.
  • a cluster is composed of a plurality of servers 120.
  • the servers 120 constituting the cluster include an active server 120 on which the application 311 (see FIG. 3) operates, and a standby server 120 that takes over work when the active server 120 fails. Note that the standby server 120 is normally in a power-off state.
  • Each server 120 is connected to the business network 105.
  • the business network 105 is a network used by an application 311 (see FIG. 3) running on each server 120.
  • the business network 105 is composed of switches and routers.
  • a server 120 on which an application 311 (see FIG. 3) operates is connected to a WAN or the like via the business network 105 and communicates with an external client computer.
  • Each server 120 is connected to an FC-SW 140 that constitutes a SAN (Storage Area Network) via an adapter 122.
  • the server 120 and the storage apparatus 130 are connected via a SAN, but the present invention is not limited to this, and may be an IP (Internet Protocol) network.
  • the adapter 122 includes I / O adapters or I / O devices such as NIC (Network Interface Card), HBA (Host Bus Adapter), and CNA (Converged Network Adapter) corresponding to the type of FC-SW 140. .
  • I / O adapters or I / O devices such as NIC (Network Interface Card), HBA (Host Bus Adapter), and CNA (Converged Network Adapter) corresponding to the type of FC-SW 140. .
  • configuration information described above may include hardware information and software information of the server 120.
  • the above-described configuration information is also referred to as confirmation configuration information.
  • the FC-SW 140 constitutes a SAN that connects each server 120 and the storage apparatus 130.
  • one FC-SW 140 constitutes a SAN, but a plurality of FC-SWs 140 may constitute a SAN.
  • the storage device 130 provides a storage area used by the server 120 on which the application 311 (see FIG. 3) operates.
  • the storage apparatus 130 includes a disk controller 132 and a plurality of storage devices (not shown).
  • the types of the management server 100 and the server 120 may be any of a physical server, a blade server, a virtualization server, a logical physical partition or a physically partitioned server, and the like.
  • the present invention is not limited to the types of the management server 100 and the server 120, and the effects of the present invention can be obtained.
  • FIG. 2 is a block diagram illustrating a hardware configuration and a software configuration of the management server 100 according to the first embodiment of this invention.
  • the CPU 201 includes one or more arithmetic devices and executes a program stored in the memory 202.
  • the functions provided in the management server 100 can be realized by the CPU 201 executing the program.
  • the description will be made mainly with a program, it indicates that the CPU 201 is executing the program.
  • the input / output device 206 includes an input device such as a keyboard and a mouse, and a display device such as a display.
  • the management server 100 may connect an external storage medium such as a USB memory via the input / output device 206.
  • one disk interface 204 and one network interface 205 are shown as representatives, but the management server 100 may include a plurality of disk interfaces 204 and network interfaces 205.
  • the memory 202 stores a program for realizing the control unit 101 and a management table group 102. Note that the memory 202 may store a program and information (not shown).
  • the control unit 101 includes a plurality of program modules, and executes processing for confirming the operation of the failover function.
  • processing for confirming the operation of the failover function is also referred to as cluster confirmation processing.
  • control unit 101 includes an opportunity reception unit 215, an information acquisition unit 212, a check list generation unit 211, an information comparison unit 213, an information reception unit 214, a storage operation unit 216, a priority setting unit 217, and a process notification unit. 218, a network management unit 111, and a standby system generation unit 219.
  • the CPU 201 operates as a functional unit that realizes a predetermined function by operating according to a program that implements each functional unit.
  • the CPU 201 functions as the information acquisition unit 212 by operating according to the information acquisition program. The same applies to other programs. Further, the CPU 201 also operates as a functional unit that realizes each of a plurality of processes executed by each program.
  • a computer and a computer system are an apparatus and a system including these functional units.
  • the trigger reception unit 215 detects a trigger for starting the cluster confirmation process.
  • the processing executed by the trigger reception unit 215 will be described later with reference to FIG.
  • the information acquisition unit 212 acquires information from the processing target server 120 in the cluster confirmation process.
  • the processing executed by the information acquisition unit 212 will be described later with reference to FIG.
  • the check list generation unit 211 generates a cluster check table 251 used when executing the cluster confirmation process.
  • the processing executed by the check list generation unit 211 will be described later with reference to FIG.
  • the information comparison unit 213 determines whether or not the failover function operates normally. The processing executed by the information comparison unit 213 will be described later with reference to FIG.
  • the information receiving unit 214 acquires various information necessary for the cluster confirmation process. The processing executed by the information receiving unit 214 will be described later with reference to FIGS. 13A, 13B, and 13C.
  • the storage operation unit 216 performs settings for the storage apparatus 130 when the cluster confirmation process is executed. The processing executed by the storage operation unit 216 will be described later with reference to FIG.
  • the standby system generation unit 219 instructs generation of a virtual computer when a virtual computer is used as the standby server 120. In the first embodiment, the standby system generation unit 219 is not used. In the ninth embodiment, a specific process of the standby system generation unit 219 will be described with reference to FIG.
  • the management table group 102 includes a management target table 250, a cluster check table 251, and a port performance table 252.
  • the management target table 250 is generated and updated by the information acquisition unit 212, and stores various pieces of information of devices such as the server 120 in the computer system managed by the management server 100. Details of the management target table 250 will be described later with reference to FIGS. 5A and 5B.
  • the port performance table 252 stores information used when setting priorities. In the first embodiment, the process using the port performance table 252 is not executed. Details of the port performance table 252 will be described in the sixth embodiment with reference to FIG.
  • the information of each table included in the management table group 102 may be automatically generated by another functional unit in the management server 100, or may be input manually or using the client terminal 190 by the administrator.
  • the program that implements the control unit 101 and the tables included in the management table group 102 can be read by a storage device 130, a nonvolatile semiconductor memory, a storage device such as an HDD or SSD, or a computer such as an IC card, SD card, or DVD It can be stored in a non-temporary storage medium.
  • the CPU 201 reads the program and table from the storage device 130, the storage device, or the computer-readable non-transitory storage medium, and loads the program and table onto the memory 202.
  • FIG. 3 is a block diagram illustrating a hardware configuration and a software configuration of the server 120 according to the first embodiment of this invention.
  • the server 120 includes a CPU 301, a memory 302, a BMC 303, a disk interface 304, and a network interface 305.
  • the CPU 301 includes one or more arithmetic devices and executes a program stored in the memory 302.
  • the functions of the server 120 can be realized by the CPU 301 executing the program.
  • the program when the program is mainly described, it indicates that the CPU 301 is executing the program.
  • the memory 302 stores a program executed by the CPU 301 and information necessary for executing the program.
  • the program and information stored in the memory 302 will be described later.
  • the BMC 303 controls the power supply and each interface.
  • the disk interface 304 is an interface for accessing the storage apparatus 130.
  • the network interface 305 is an interface for communicating with other devices via the IP network.
  • the server 120 may include an input device such as a keyboard and a mouse, and a display device such as a display.
  • the server 120 only needs to include one I / O interface that can be connected to an external device such as the management server 100 and the storage device 130 instead of the disk interface 304 and the network interface 305.
  • the memory 302 of the active server 120 stores a program for realizing the application 311 and the OS 310.
  • the OS 310 manages the entire server 120.
  • the application 311 executes various tasks. In this embodiment, it is assumed that a program for realizing the OS 310 and the application 311 is stored in the LU 135.
  • the standby server 120 since the memory 302 of the standby server 120 is normally in a power-off state, no program is stored. However, in the present embodiment, the standby server 120 loads a program for realizing the information acquisition application 123 into the memory 302 when receiving an activation instruction from the management server 100.
  • the information acquisition application 123 acquires configuration information necessary for cluster confirmation processing, that is, configuration information for confirmation. Details of processing executed by the information acquisition application 123 will be described later with reference to FIG.
  • the server 120 it is necessary to set the server 120 so that the information acquisition application 123 is activated.
  • BIOS Basic Input / Output System
  • UEFI Unified Extensible Firmware Interface
  • the server 120 is turned off again after the processing of the information acquisition application 123 is completed.
  • the standby server 120 may activate the OS 310 or the like after the processing of the information acquisition application 123 is completed.
  • one disk interface 304 and one network interface 305 are shown as representatives, but the server 120 may include a plurality of disk interfaces 304 and network interfaces 305.
  • the server 120 includes a network interface 305 for connecting to each of the management network and the business network 105.
  • a network interface 305 connected to the management network corresponds to the management interface 121.
  • FIG. 4 is a block diagram illustrating the disk controller 132 included in the storage apparatus 130 according to the first embodiment of this invention.
  • the CPU 401 includes one or more arithmetic devices and executes a program stored in the memory 402.
  • the functions provided in the storage apparatus 130 can be realized by the CPU 401 executing the program.
  • the program when the program is mainly described, it indicates that the CPU 401 is executing the program.
  • the memory 402 stores a program executed by the CPU 401 and information necessary for executing the program.
  • the program and information stored in the memory 402 will be described later.
  • the disk interface 403 is an interface for accessing the LU 135 or storage device in the storage apparatus 130.
  • the management interface 131 is an interface for connecting to the management server 100 via the management network.
  • the controller 133 manages input / output processing with a device such as the server 120 that accesses the storage device 130.
  • the controller 133 has a port 134 for connecting a device.
  • one disk interface 403 and one controller 133 are shown as representatives, but the storage apparatus 130 may include a plurality of disk interfaces 403 and controllers 133.
  • one port 134 is shown as a representative, but the controller 133 may include a plurality of ports 134.
  • the host group control unit 411 manages host group settings.
  • the host group is a group used for protecting the mapping between the server 120 and the LU 135 and the security of the data stored in the LU 135.
  • the LUs 135 that can be referred to or updated by the server 120 can be restricted.
  • the CPU 401 functions as the host group control unit 411 by loading a program for realizing the host group control unit 411 into the memory 402 and operating according to the program.
  • 5A and 5B are explanatory diagrams illustrating an example of the management target table 250 according to the first embodiment of this invention.
  • the management target table 250 stores configuration information of devices to be managed, cluster identification information, and the like.
  • the server 120 is a device to be managed.
  • the management target table 250 includes a server ID 501, a management IP address 502, a model 503, configuration information 504, WWN 505, LU information 506, operation information 507, a cluster ID 508, and a type 509.
  • the server ID 501 stores an identifier for uniquely identifying the server 120 in the computer system managed by the management server 100. Note that the data stored in the server 501 can be omitted by specifying one of the columns used in this table or a combination of a plurality of columns. Further, the management server 100 may automatically assign an identification number in ascending order to each server 120 as an identifier.
  • Management IP address 502 stores a management IP address assigned to the server 120.
  • the management server 100 connects to the server 120 that is a device to be managed based on the management IP address.
  • the model 503 stores information related to the model of the server 120.
  • the information stored in the model 503 is information related to the infrastructure, and based on this information, the manufacturer, performance, configurable system limit, and the like of the device to be managed can be grasped. In this embodiment, as described later, it is determined based on the model 503 whether or not the configuration of the management target server 120 is the same.
  • the WWN 505 stores the WWN used by the server 120 to perform fiber channel communication with the LU 135.
  • the WWN is a unique device identifier.
  • an identifier equivalent to WWN such as iSCSI Qualified Name is stored.
  • the LU information 506 stores information for specifying the LU 135 that accesses the server 120.
  • the LU information 506 stores Inquiry information.
  • the operation information 507 stores information indicating the operation state of the server 120.
  • the information indicating the operating state is information indicating whether the server 120 is powered on / off and whether the OS or the business system (application 311) is operating normally.
  • the operation information 507 may store information indicating that communication between the management server 100 and the management target server 120 is disabled.
  • the cluster ID 508 stores an identifier for uniquely identifying the cluster to which the server 120 belongs.
  • the data stored in the cluster ID 508 can be omitted by specifying any of the columns used in this table or a combination of a plurality of columns.
  • the management server 100 may automatically assign an identification number in ascending order to each cluster as an identifier.
  • the cluster ID 508 is blank or stores information indicating that it does not belong to the cluster.
  • the type 509 stores information indicating whether the server 120 is the active server 120 or the standby server 120 in the cluster to which the server 120 belongs.
  • the type 509 is blank or stores information indicating that it does not belong to a cluster.
  • 6A and 6B are explanatory diagrams illustrating an example of the cluster check table 251 according to the first embodiment of this invention.
  • the cluster check table 251 stores the result of determining whether failover is possible for each check pair as a result of the cluster confirmation process.
  • the check pair represents a combination of the active server 120 and the standby server 120 belonging to the same cluster.
  • the determination of whether or not failover is possible represents processing for determining whether or not failover is possible between the active server 120 and the standby server 120.
  • the cluster check table 251 includes a pair ID 601, cluster ID 602, active server ID 603, standby server ID 604, check flag 605, LU flag 606, confirmation result 607, reason 608, acquisition information 609, acquisition time 610, And priority 611.
  • the cluster ID 602 stores an identifier for uniquely identifying a cluster.
  • the cluster ID 602 is the same as the cluster 508 in the management target table 250.
  • the active server ID 603 stores an identifier for uniquely identifying the active server 120.
  • the active server ID 603 stores the server ID of the server 120 registered as the active server 120 among the servers 120 belonging to the cluster corresponding to the cluster ID 602.
  • the active server ID 603 stores the same identifier as that stored in the server ID 501.
  • the standby server ID 604 stores an identifier for uniquely identifying the standby server 120.
  • the spare server ID 604 stores the server ID of the server 120 registered as the spare server 120 among the servers 120 belonging to the cluster corresponding to the cluster ID 602.
  • the standby server ID 604 stores the same identifier as that stored in the server ID 501.
  • the check flag 605 stores a flag indicating whether or not a failover permission determination is performed for the check pair. In the present embodiment, when the determination as to whether or not failover is possible has been executed, “done” is stored in the check flag 605, and when the determination as to whether or not failover is possible has not been executed, the check flag 605 remains blank.
  • the LU flag 606 stores information indicating whether or not the confirmation configuration information has been acquired by the information acquisition application 123 running on the standby server 120 corresponding to the standby server ID 604.
  • the reason 608 stores the reason why failover is impossible. For example, when the LU 135 assigned to the active server 120 cannot be accessed from the standby server 120, “LU access not possible” or the like is stored. Based on the information indicated in the reason 608, the administrator can review the cluster settings and review the failover settings.
  • the acquisition information 609 stores the confirmation configuration information acquired by the information acquisition application 123.
  • the acquisition information 609 stores inquiry information for uniquely specifying the LU 135.
  • the configuration information for confirmation stored in the acquisition information 609 is not limited to inquiry information, and can be any information that can determine whether the standby server 120 can access the LU 135 assigned to the active server 120. Good.
  • the configuration information for confirmation may include server type, I / O information, and other information.
  • the acquisition time 610 stores the time taken for the information acquisition application 123 to acquire the confirmation configuration information. For example, the time from when a command for obtaining predetermined information is issued until a response is obtained is stored.
  • FIG. 7 is an explanatory diagram illustrating an example of the host group table 412 according to the first embodiment of this invention.
  • the host group table 412 stores information on the controller 133 and the port 134 through which the server 120 accesses the LU 135 in the storage apparatus 130, and information on the accessible LU 135. Specifically, the host group table 412 includes a host group ID 701, WWN 702, controller ID 703, port ID 704, LU ID 705, and authority 706.
  • the host group ID 701 stores an identifier for uniquely identifying the host group.
  • the host group is a group of WWNs of the servers 120 that are permitted to refer to and / or update the assigned LU 135.
  • the data stored in the host group ID 701 can be omitted by specifying any of the columns used in this table or a combination of multiple columns.
  • the management server 100 may automatically assign an identification number in ascending order to each host group as an identifier.
  • the WWN 702 stores the WWN of the server 120 that accesses the storage apparatus 130.
  • the server 120 having the adapter 122 corresponding to the WWN stored in the WWN 702 can access the LU 135 in the host group.
  • the controller ID 703 stores an identifier of the controller 133 that is used when the server 120 accesses the storage apparatus 130.
  • the port ID 704 stores the identifier of the port 134 that is used when the server 120 accesses the storage device 130.
  • LU ID 705 stores the identifier of LU 135 registered in the host group.
  • the authority 706 stores information on the authority that the server 120 having the adapter 122 corresponding to the WWN 702 is permitted to the LU 135 corresponding to the LU ID 705.
  • the management server 100 acquires configuration information of the server 120 to be managed from the computer system (step S802). Specifically, the information acquisition unit 212 acquires configuration information of the server 120 from a predetermined server 120.
  • the management server 100 generates and / or updates the cluster check table 251 (step S803). Specifically, the check list generation unit 211 generates a check pair by combining the active server 120 and the standby server 120, and adds an entry corresponding to the generated check pair to the cluster check table 251.
  • the management server 100 instructs the storage apparatus 130 to change the host group setting (step S804). Specifically, the storage operation unit 216 transmits a host group setting change instruction to the host group control unit 411. At this time, the storage operation unit 216 gives a reference authority to the host group to which the active server 120 belongs, and instructs to add the WWN of the standby server 120.
  • the storage apparatus 130 When the storage apparatus 130 receives the instruction from the management server 100, the storage apparatus 130 changes the setting of the host group based on the instruction (step S805). Specifically, the host group control unit 411 adds a reference authority to the host group to which the active server 120 belongs and adds the WWN of the standby server 120.
  • the storage apparatus 130 notifies the management server 100 that the setting of the host group has been changed (step S806). Specifically, the host group control unit 411 notifies the storage operation unit 216 that the host group setting has been changed.
  • the management server 100 transmits an activation instruction for the information acquisition application 123 to the standby server 120 (step S807). Specifically, the information receiving unit 214 transmits an activation instruction for the information acquisition application 123 to the standby server 120.
  • the standby server 120 When the standby server 120 receives the activation instruction of the information acquisition application 123, the standby server 120 activates the information acquisition application 123 and acquires the configuration information for confirmation (step S808).
  • the standby server 120 transmits the confirmation configuration information acquired by the execution of the information acquisition application 123 to the management server 100 (step S809). Specifically, the information acquisition application 123 transmits the confirmation configuration information to the information reception unit 214.
  • the configuration information for confirmation includes at least information about the LU 135 and information acquisition time.
  • the storage apparatus 130 When the storage apparatus 130 receives the host group setting change instruction, the storage apparatus 130 changes the host group setting (step S811). Specifically, the host group control unit 411 deletes the WWN of the standby server 120 from the host group to which the active server 120 belongs.
  • the storage apparatus 130 notifies the management server 100 that the setting of the host group has been changed (step S812). Specifically, the host group control unit 411 notifies the information reception unit 214 that the host group setting change has been completed.
  • the management server 100 determines whether or not failover is possible for each check pair (step S813). Specifically, the information comparison unit 213 compares the LU 135 information of the active server 120 with the LU 135 information acquired from the standby server 120 to determine whether failover is possible.
  • the management server 100 sets a priority that is the order of use of the standby server 120 in the failover process (step S814). Specifically, the priority setting unit 217 executes the priority setting process based on the cluster check table 251 and the result of the determination process.
  • the management server 100 notifies the administrator of the processing result of the cluster confirmation processing (step S815), and ends the processing.
  • the process notification unit 218 generates information for notifying the process result, and presents the generated information to the administrator.
  • step S813 and step S814 may be executed at any timing from step S809 to step S812 as long as the processing consistency can be maintained.
  • the management server 100 may determine whether or not failover is possible after acquiring the confirmation configuration information.
  • step S804 If the confirmation configuration information has been acquired, the processing from step S804 to step S812 can be omitted.
  • FIG. 9 is a flowchart illustrating an example of processing executed by the trigger reception unit 215 of the management server 100 according to the first embodiment of this invention. It is a flowchart which shows an example of the process performed by.
  • the opportunity receiving unit 215 detects the start instruction of the cluster confirmation process input from the administrator (step S901).
  • the trigger for starting the cluster confirmation process is not limited to when the start instruction input by the administrator is detected.
  • the processing may be started after a predetermined time elapses based on the schedule function of the management server 100, the processing may be started periodically, or a configuration change in the server 120 belonging to the cluster is detected. The processing may be started when it is done.
  • the cluster confirmation processing start instruction includes information for specifying the target of the cluster confirmation processing designated by the administrator.
  • the information for specifying the target of the cluster confirmation processing may be information that can specify the processing target such as the server 120 identifier or the cluster identifier.
  • the target of cluster confirmation processing is also described as processing target.
  • Information for specifying the processing target is also referred to as identification information of the processing target.
  • the opportunity reception unit 215 transmits a process start instruction to the information acquisition unit 212 (step S902), and ends the process.
  • the processing start instruction includes identification information of the processing target.
  • the process is executed for each cluster. That is, when the identifier of the server 120 is included as identification information to be processed, the cluster to which the server 120 belongs is a processing unit. Further, when a cluster identifier is included as identification information to be processed, the cluster is a processing unit.
  • cluster confirmation processing may be executed for a plurality of clusters.
  • FIG. 10 is a flowchart illustrating an example of processing executed by the information acquisition unit 212 of the management server 100 according to the first embodiment of this invention.
  • the information acquisition unit 212 refers to the management target table 250 based on the processing target identification information notified from the trigger reception unit 215, and identifies the server 120 that is the target of the failover determination process (step S1001).
  • the server 120 that is the target of the failover availability determination process is also referred to as a determination target server 120.
  • step S1001 the following processing is executed.
  • the information acquisition unit 212 refers to the management target table 250, and the active server 120 corresponding to the identifier and the active server 120 belong to it.
  • the standby server 120 included in the cluster is searched. In this case, the searched active server 120 and standby server 120 become the determination target server 120. The same applies when the identifier of the standby server 120 is notified.
  • the information acquisition unit 212 refers to the management target table 250 and searches all the servers 120 belonging to the cluster corresponding to the identifier. In this case, all the searched servers 120 are the determination target servers 120.
  • a cluster that is a processing unit can be specified by the processing in step S1001.
  • the information acquisition unit 212 may temporarily hold the identifier of the cluster that is a processing unit in the work area of the memory 202.
  • the information acquisition unit 212 acquires configuration information of the server 120 from the identified determination target server 120 (step S1002).
  • the information acquisition unit 212 executes configuration information acquisition processing for the identified determination target server 120. Since the configuration information acquisition process may use a known technique, a detailed description thereof will be omitted.
  • the configuration information of the server 120 such as the inquiry information for specifying the type of the server 120 to be processed and the LU 135 assigned to the server 120 is acquired.
  • the determination target server 120 is the standby server 120
  • the standby server 120 cannot access the LU 135, and therefore inquiry information is not acquired.
  • the information acquisition unit 212 adds a new entry to the management target table 250 and registers the configuration information of the server 120 acquired in the entry.
  • the information acquisition unit 212 overwrites the configuration information of the server 120 acquired in the entry.
  • the information acquisition unit 212 transmits a process completion notification to the check list generation unit 211 (step S1004), and ends the process.
  • FIG. 11 is a flowchart illustrating an example of processing executed by the check list generation unit 211 of the management server 100 according to the first embodiment of this invention.
  • the check list generation unit 211 starts processing upon receiving a processing completion notification from the information acquisition unit 212.
  • the check list generation unit 211 refers to the management target table 250 (step S1101) and generates a check pair (step S1102).
  • the process branches as follows depending on the identification information to be processed.
  • the checklist generation unit 211 When the identifier of the active server 120 is received as the processing target identification information, the checklist generation unit 211 generates a combination with the standby server 120 in the cluster to which the active server 120 belongs. Here, one combination corresponds to one check pair.
  • the checklist generation unit 211 identifies “server 4” and “server 5” as the standby server 120 belonging to the cluster having the cluster ID 220 of “cluster 1”. Further, the check list generation unit 211 generates a check pair of “server 1” and “server 4” and a check pair of “server 1” and “server 5”.
  • the check list generation unit 211 When the identifier of the standby server 120 is received as the processing target identification information, the same processing as described above is executed. That is, the check list generation unit 211 generates a combination with the active server 120 in the cluster to which the standby server 120 belongs.
  • the checklist generating unit 211 When the cluster identifier is received as the processing target identification information, the checklist generating unit 211 generates a predetermined number of combinations of the active server 120 and the standby server 120 belonging to the designated cluster.
  • the number of generated check pairs and the conditions of the generated check pairs can be arbitrarily set.
  • all combinations of the active server 120 and the standby server 120 may be generated as check pairs.
  • the number of check pairs to be generated is a number obtained by multiplying the number of active servers and the number of standby servers.
  • a combination with one standby server 120 may be generated as a check pair for each active server 120.
  • the number of check pairs generated is the number of active servers 120.
  • the check list generation unit 211 registers the generated check pair information in the cluster check table 251 (step S1103). Specifically, the following processing is executed.
  • the check list generation unit 211 generates a new entry for each check pair in the cluster check table 251.
  • the check list generation unit 211 stores a predetermined identifier in the pair ID 601 of the generated entry. Here, it is assumed that identifiers in ascending order are stored.
  • the check list generation unit 211 does not have to register the entry in the cluster check table 251.
  • the check list generation unit 211 sets “not yet” to the check flag 605 and the LU flag 606 of the newly added entry (step S1104).
  • the check list generation unit 211 transmits a processing completion notification to the information comparison unit 213 (step S1105), and ends the processing.
  • the check list generation unit 211 registers all combinations of the active server 120 and the standby server 120 belonging to the cluster as check pairs, and information as necessary. May be updated.
  • the management server 100 checks whether or not a check pair exists in the cluster check table 251 when executing a failover determination process described later, and if the check pair does not exist, the check list generation unit 211 newly A check pair may be added.
  • FIG. 12 is a flowchart illustrating an example of processing executed by the information comparison unit 213 of the management server 100 according to the first embodiment of this invention.
  • the information comparison unit 213 refers to the cluster check table 251 (step S1201), and selects one entry whose check flag 605 is “not yet” (step S1202).
  • the processing from step S1202 to step S1212 is a loop processing of the check flag 605, and is repeatedly executed until “done” is stored in the check flag 605 of all entries.
  • the information comparison unit 213 determines whether or not the LU flag 606 of the selected entry is “completed” (step S1203). That is, it is determined whether the confirmation configuration information has been acquired. When the LU flag 606 is “completed”, it indicates that the confirmation configuration information has been acquired.
  • step S1206 When it is determined that the LU flag 606 of the selected entry is “completed”, the information comparison unit 213 proceeds to step S1206.
  • the information comparison unit 213 transmits a process start instruction including the cluster ID 702 of the selected entry to the information reception unit 214 (step S1204). Thereafter, the information comparison unit 213 waits until a processing completion notification is received from the information reception unit 214.
  • the information comparison unit 213 receives the processing completion notification from the information reception unit 214 (step S1205), and then proceeds to step 1206.
  • the information comparison unit 213 refers to the cluster check table 251 and the management target table 250 (step S1206), and determines whether failover is possible (step S1207). That is, a failover determination process is performed. Specifically, the following processing is executed.
  • the information comparison unit 213 refers to the cluster check table 251 and acquires the active server ID 603 and the standby server ID 604 of the selected entry.
  • the information comparison unit 213 searches the management target table 250 for an entry that matches the active server ID 603 from which the server ID 501 is acquired, and an entry that matches the standby server ID 604 from which the server ID 501 is acquired.
  • failover decision processing including the following two comparison processes is executed.
  • the information comparison unit 213 compares the entry model 503 and configuration information 504 of the active server 120 in the management target table 250 with the entry model 503 and configuration information 504 of the standby server 120.
  • the information comparison unit 213 compares the LU information 506 of the active server entry in the management target table 250 with the acquisition information 609 of the selected entry in the cluster check table 251.
  • Comparison 1 it is determined whether or not the types of the servers 120 in the active server 120 and the standby server 120 match.
  • Comparison process it is determined whether or not the LU 135 accessed by the active server 120 and the LU 135 accessible by the standby server 120 match.
  • the comparison process of (Comparison 2) is a process for determining whether or not the standby server 120 can take over the job being executed by the active server 120.
  • the standby server 120 is completely accessible to the LU 135 used by the active server 120, it is possible to take over the business even after failover processing.
  • the standby server 120 cannot access the LU 135 used by the active server 120, or cannot access some of the LUs 135, there is a possibility of affecting the business after failover processing.
  • the present invention is not limited to the determination criteria described above.
  • the LU 135 accessed by the active server 120 can be taken over. It may be determined that the LU 135 accessible by the standby server 120 matches.
  • the information acquisition application 123 acquires confirmation configuration information including the configuration of the LU 135 and the type of the standby server 120, the model 503 of the entry of the active server 120 in the management target table 250 and the configuration information What is necessary is just to compare 504 and the acquisition information 609 of the selected entry of the check table 221. As a result, a process equivalent to the case where both the comparison processes (Comparison 1) and (Comparison 2) are executed can be realized.
  • step S1207 the information comparison unit 213 determines whether the active server 120 or the standby server 120 is a server type that does not support the failover function, in addition to the comparison processing described above. It is possible to determine whether or not failover processing cannot be performed because the standby server 120 is in operation.
  • the information comparison unit 213 stores “impossible” in the confirmation result 607 of the selected entry, and stores the reason why failover is impossible in the reason 608 (step S1208). ), The process proceeds to step S1210.
  • the information comparison unit 213 determines that the standby server 120 is the active server 120. It is determined that the LU 135 assigned to the server 120 cannot be accessed, and “LU access impossible” is stored in the column 708.
  • the information comparison unit 213 stores “OK” in the confirmation result 607 of the selected entry (step S1209), and proceeds to step S1210.
  • the information comparison unit 213 stores “Done” in the LU flag 606 of the selected entry (step S1210).
  • the information comparison unit 213 determines whether or not the check flags 605 of all the entries in the cluster check table 251 are “completed” (step S1211).
  • the processing completion notification includes an identifier of a cluster that is a processing unit.
  • FIGS. 13A, 13B, and 13C are flowcharts for explaining an example of processing executed by the information receiving unit 214 of the management server 100 according to the first embodiment of this invention.
  • the information receiving unit 214 refers to the management target table 250 based on the received cluster identifier (step S1301), and acquires the WWN of the standby server 120 belonging to the cluster corresponding to the received cluster identifier (step S1302). ).
  • the information receiving unit 214 searches for an entry that matches the cluster identifier received by the cluster ID 508.
  • the information receiving unit 214 selects an entry in which “standby” is stored in the type 509 of the searched entry. Further, the information receiving unit 214 acquires the WWN of the standby server 120 from the WWN 505 of the selected entry. When a plurality of standby servers 120 belong to the cluster, a plurality of WWNs are acquired.
  • the information receiving unit 214 selects one active server 120 belonging to the cluster corresponding to the received cluster identifier, and acquires the WWN of the selected active server 120 (step S1304).
  • the information receiving unit 214 refers to the management target table 250 and acquires the WWN of the active server 120 from the WWN 505 of the entry of the active server 120 belonging to the cluster.
  • the information receiving unit 214 transmits an additional processing start instruction to the storage operation unit 216 (step S1305).
  • the instruction includes the WWN of the active server 120 acquired in step S1304 and the WWNs of all the standby servers 120 acquired in step S1302.
  • the information receiving unit 214 waits until receiving a processing completion notification from the storage operation unit 216.
  • step S1306 When the information reception unit 214 receives the processing completion notification from the storage operation unit 216 (step S1306), whether or not the processing has been executed for all active servers 120 belonging to the cluster corresponding to the received cluster identifier. Is determined (step S1307).
  • the information receiving unit 214 returns to step S1305 to newly select the active server 120 and execute the same processing.
  • the information reception unit 214 activates the information acquisition application 123 for the standby server 120 belonging to the cluster corresponding to the received cluster identifier.
  • An instruction is transmitted (step S1309).
  • the information receiving unit 214 receives the confirmation configuration information acquired by the information acquisition application 123 from the standby server 120 (step S1312).
  • the received confirmation configuration information includes at least the information of the LU 135 accessed by the active server 120 and the information acquisition time.
  • the received confirmation configuration information may include information such as the server type and the number of I / Os of the active server 120 or the standby server 120.
  • the standby server 120 transmits its own identifier along with the information acquired by the information acquisition application 123. As a result, the information receiving unit 214 can ascertain from which standby server 120 the confirmation configuration information is transmitted.
  • the information reception unit 214 updates the cluster check table 251 based on the received confirmation configuration information (step S1313).
  • the information acquisition application 123 running on one standby server 120 can acquire information on LUs 135 of a plurality of active servers 120 that are paired. Therefore, when receiving a plurality of pieces of confirmation configuration information, the information reception unit 214 updates each entry by the number of pieces of confirmation configuration information received.
  • the information receiving unit 214 changes the LU flag 606 of the updated entry in the cluster check table 251 to “Done” (step S1314).
  • the reason for changing the LU flag 606 is that since the information acquisition application 123 operating on one standby server 120 acquires information on LUs 135 of a plurality of active servers 120, the same configuration information for confirmation is stored.
  • the purpose is to avoid duplicate acquisition. In other words, this is for preventing the same information from being acquired when information is acquired for each check pair.
  • the information receiving unit 214 determines whether or not the LU flag 606 of all entries corresponding to the received cluster identifier is “completed” (step S1315).
  • the information receiving unit 214 If it is determined that the LU flags 606 of all entries are not “completed”, the information receiving unit 214 returns to step S1312, and executes the same processing. Since information from the standby server 120 may not be transmitted, the information receiving unit 214 may proceed to step 1316 after a predetermined time has elapsed.
  • Step S1316 the information receiving unit 214 ends the loop processing of the information acquisition application 123 (step S1316), and sets the cluster corresponding to the received cluster identifier.
  • One active server 120 to which the user belongs is selected (step S1321).
  • Steps S1321 to S1325 are a loop process of the active server 120, and the process is repeatedly executed for all the active servers 120 until the process is completed.
  • the information reception unit 214 transmits a deletion processing start instruction to the storage operation unit 216 (step S1322).
  • the instruction includes the WWN of the selected active server 120 and the WWNs of all the standby servers 120 acquired in step 1302. After transmitting the instruction, the information receiving unit 214 waits until a processing completion notification is received from the storage operation unit 216.
  • step S1323 When the information reception unit 214 receives the processing completion notification from the storage operation unit 216 (step S1323), whether or not the processing has been executed for all active servers 120 belonging to the cluster corresponding to the received cluster identifier. Is determined (step S1324).
  • step S1322 selects one active server 120, and executes similar processing.
  • the information receiving unit 214 transmits a processing completion notification to the information comparing unit 213 (step S1326), and ends the processing.
  • FIG. 14 is a flowchart illustrating an example of processing executed by the storage operation unit 216 of the management server 100 according to the first embodiment of this invention.
  • the storage operation unit 216 starts processing upon receiving a processing start instruction from the information receiving unit 214.
  • the storage operation unit 216 acquires from the storage device 130 information on the host group to which the active server 120 belongs, which is included in the received process start instruction (step S1401).
  • the storage operation unit 216 makes an inquiry including the WWN of the active server 120 to the storage apparatus 130.
  • the storage apparatus 130 searches the host group table 412 for the host group ID 701 to which the active server 120 belongs based on the WWN of the active server 120 included in the inquiry. Further, the storage apparatus 130 transmits a response including the host group ID 701 to the storage operation unit 216.
  • the storage operation unit 216 determines whether or not the received process start instruction is an additional process start instruction (step S1402).
  • the storage operation unit 216 instructs the host group control unit 411 to delete the WWN of the standby server 120. Is transmitted (step S1403).
  • the storage operation unit 216 instructs to delete the WWN of the standby server 120 from the host group corresponding to the acquired host group ID 701.
  • the instruction includes the acquired host group ID 701.
  • the storage operation unit 216 waits until a processing completion notification is received from the host group control unit 411.
  • this process may be omitted and the process may proceed to step 1405.
  • the storage operation unit 216 transmits an instruction to add the WWN of the standby server 120 to the host group control unit 411 (step S1404).
  • the storage operation unit 216 gives a reference authority to the host group corresponding to the acquired host group ID 701 and instructs to add the WWN of the standby server 120.
  • the instruction includes the acquired host group ID 701 and the WWN of the standby server 120. After transmitting the instruction, the storage operation unit 216 waits until a processing completion notification is received from the host group control unit 411.
  • the storage operation unit 216 When the storage operation unit 216 receives the processing completion notification from the host group control unit 411 (step S1405), the storage operation unit 216 transmits the processing completion notification to the information reception unit 214 (step S1406). Thereafter, the storage operation unit 216 ends the process.
  • the storage operation unit 216 updates the host group table 412 by transmitting an operation instruction to the host group control unit 411.
  • the present invention is not limited to this.
  • the storage operation unit 216 may transmit a specific operation instruction to the host group table 412 using an API (Application Program Interface). Further, the storage operation unit 216 may acquire the host group table 412 and add or delete the WWN of the standby server 120 from the host group table 412 using the API.
  • API Application Program Interface
  • FIG. 15 is a flowchart illustrating an example of processing executed by the host group control unit 411 of the storage apparatus 130 according to the first embodiment of this invention.
  • the host group control unit 411 starts processing upon receiving an operation instruction from the storage operation unit 216.
  • the host group control unit 411 updates the host group table 412 in accordance with the received operation instruction (step S1501). Processing branches as follows according to the received operation instruction.
  • the host group control unit 411 searches for an entry of the target host group based on the host group ID 701 included in the delete instruction.
  • the host group control unit 411 deletes the WWN of the standby server 120 included in the deletion instruction from the searched host group entry.
  • the host group control unit 411 searches for an entry of the target host group based on the host group ID 701 included in the addition instruction.
  • the host group control unit 411 adds the WWN of the standby server 120 included in the addition instruction to the searched host group entry.
  • controller ID 703, port ID 704, and LU ID 705 store the same entries as other WWN entries.
  • the authority 706 stores “Read” indicating the reference authority.
  • the host group control unit 411 When the storage operation unit 216 transmits a specific operation instruction using the API, the host group control unit 411 does not need to execute the above-described processing, and the standby server 120 does not need to execute the process described above. Add or delete WWN.
  • the host group control unit 411 transmits a process completion notification to the storage operation unit 216 (step S1502), and ends the process.
  • FIG. 16 is a flowchart for explaining an example of processing executed by the information acquisition application 123 according to the first embodiment of the present invention.
  • the standby server 120 activates the information acquisition application 123 when receiving an activation instruction from the information receiving unit 214.
  • the information acquisition application 123 acquires the confirmation configuration information (step S1601). Specifically, the following processing is executed.
  • the information acquisition application 123 When acquiring the information of the LU 135 included in the confirmation configuration information, the information acquisition application 123 issues a predetermined command to the storage apparatus 130. For example, a command for acquiring inquiry information can be considered. At this time, the information acquisition application 123 calculates the response time for the command as the information acquisition time.
  • the information acquisition application 123 may acquire the information of the LU 135 by mounting the LU 135 and referring to the information in the LU 135.
  • a confirmation program may be stored in advance in the LU 135 accessed by the active server 120, and information may be acquired by executing the program.
  • the information acquisition application 123 transmits the acquired configuration information for confirmation to the information reception unit 214 (step S1602), and ends the process.
  • the standby server 120 may be turned off after the processing is completed.
  • the setting may be changed so that the information acquisition application 123 does not start.
  • the information acquisition application 123 acquires configuration information such as LU information of the active server 120 from the management server 100 in advance, and can failover be performed by comparing the acquired configuration information with the confirmation configuration information? It may be determined whether or not.
  • the failover availability determination process may be the same as the process of step S1207.
  • the information comparison unit 213 does not need to perform the comparison process in step S1207, and may determine whether or not failover is possible based on the determination result transmitted from the information acquisition application 123.
  • FIG. 17 is a flowchart illustrating an example of processing executed by the priority setting unit 217 of the management server 100 according to the first embodiment of this invention.
  • the priority setting unit 217 When the priority setting unit 217 receives a processing completion notification from the information comparison unit 213, the priority setting unit 217 starts processing.
  • the priority setting unit 217 refers to the cluster check table 251 based on the cluster identifier included in the received process completion notification (step S1701).
  • the priority setting unit 217 searches the cluster check table 251 for an entry that matches the identifier of the active server 120 for which the active server ID 603 is selected.
  • the priority setting unit 217 selects a check pair that is determined to be able to be failed over from the searched check pairs (step S1704).
  • the priority setting unit 217 selects an entry in which “OK” is stored in the confirmation result 607 of the entry corresponding to the searched check pair.
  • the priority setting unit 217 sets the priority for the selected check pair (step S1705).
  • the priority setting unit 217 refers to the acquisition time 610 of the entry corresponding to the selected check pair, and sets a higher priority in order from the shortest value.
  • the priority is represented by a number, and the priority is set so that the priority is high when the number is small, and the priority is low when the number is large.
  • the priority setting unit 217 may set the priority based on the pair ID 601 or the standby server ID 604. For example, a method of setting a high priority for an entry with a small pair ID 601 is conceivable.
  • the priority setting unit 217 transmits a processing completion notification to the processing notification unit 218 (step S1707), and ends the processing.
  • FIG. 18 is a flowchart illustrating an example of processing executed by the processing notification unit 218 of the management server 100 according to the first embodiment of this invention.
  • the process notification unit 218 When the process notification unit 218 receives the process completion notification from the priority setting unit 217, the process notification unit 218 starts the process.
  • the process notification unit 218 notifies the administrator that the cluster confirmation process has been completed (step S1801), and ends the process.
  • the processing result may be displayed on an output device such as a display provided in the management server 100, or the processing result may be displayed on a display of the client terminal 190 or the like.
  • a method of sending an email or alert to the administrator is also conceivable.
  • the first embodiment it is possible to determine whether or not failover is possible without actually executing failover processing between the active server 120 and the standby server 120.
  • the information comparison unit 213 compares the information of the LU 135 that is accessed by the active server 120 with the information of the LU 135 that is accessible by the standby server 120, thereby failing over. It was determined whether it was possible.
  • the present invention is not limited to this, and the following method can also be used.
  • step S1601 the information acquisition application 123 on the standby server 120 sends a command to the storage apparatus 130 to inquire whether the LU 135 can be connected.
  • the command includes the WWN of the standby server 120.
  • the host group control unit 411 of the storage apparatus 130 When the host group control unit 411 of the storage apparatus 130 receives the inquiry command, the host group control unit 411 transmits a response to the command to the information acquisition application 123.
  • step 1602 when the information acquisition application 123 receives a response from the storage apparatus 130, the information acquisition application 123 transmits a notification that failover is possible to the information reception unit 214.
  • the standby server 120 holds the information acquisition application 123 in advance, but in the second embodiment, the management server 100 holds the information acquisition application 123.
  • the information receiving unit 214 instructs the standby server 120 belonging to the cluster corresponding to the received cluster identifier to start.
  • the activation instruction includes an instruction to turn on the power.
  • the information reception unit 214 When the information reception unit 214 receives a transmission request for the information acquisition application 123 from the activated standby server 120, the information reception unit 214 transmits the information acquisition application 123 to the standby server 120.
  • the configuration of the computer system of the third embodiment and the hardware configuration and software configuration of the management server 100, the server 120, and the storage apparatus 130 are the same as those of the first embodiment, the description thereof is omitted. Hereinafter, the difference from the first embodiment will be mainly described.
  • the dedicated storage area may be prepared in advance in the storage apparatus 130, or an LU for storing the information acquisition application 123 may be generated as necessary.
  • a test LU for storing the information acquisition application 123 is generated in the storage apparatus 130.
  • the storage operation unit 216 sends the host group control unit 411 to the WWN of the standby server 120 from the host group to which the test LU 135 belongs and the host group corresponding to the acquired host group ID 701. To delete.
  • the WWN of the standby server 120 does not have to be deleted from the host group to which the test LU belongs. Further, the standby server WWN may be registered in advance in the host group to which the test LU belongs.
  • the third embodiment it is possible to reduce the trouble of storing the information acquisition application 123 in advance in the standby server 120 and reduce the storage resources of the standby server for storing the information acquisition application 123. In addition, it is possible to reduce the trouble of setting the BIOS and UEFI for starting the information acquisition application 123.
  • the fourth embodiment is different in that the information acquisition application 123 is stored in advance in an external storage device connected to the standby server 120.
  • the configuration of the computer system, and the hardware configuration and software configuration of the management server 100, the server 120, and the storage apparatus 130 are the same as those in the first embodiment, and a description thereof will be omitted. Hereinafter, the difference from the first embodiment will be mainly described.
  • the standby server 120 acquires and starts an information acquisition application from an external storage device.
  • the external storage device may be a nonvolatile semiconductor memory, a storage device such as HDD or SSD, or a computer-readable non-transitory storage medium such as an IC card, SD card or DVD.
  • step 1309 the processing in step 1309 is changed.
  • step 1309 the information receiving unit 214 activates the standby server 120 belonging to the cluster corresponding to the received cluster identifier.
  • the activation instruction includes an instruction to turn on the power.
  • the information receiving unit 214 changes the activation order (boot loader) of the standby server 120 so that it is activated from the external storage device in which the information acquisition application 123 is stored.
  • the information receiving unit 214 can change the activation order using the BIOS or UEFI of the standby server 120.
  • the information acquisition application 123 can be operated on the standby server 120 by connecting an external storage device to the standby server 120.
  • the fifth embodiment is different in that the information acquisition application 123 is stored in the LU 135 accessed by the active server 120.
  • the configuration of the computer system, and the hardware configuration and software configuration of the management server 100, the server 120, and the storage apparatus 130 are the same as those in the first embodiment, and a description thereof will be omitted. Hereinafter, the difference from the first embodiment will be mainly described.
  • the standby server 120 acquires and starts the information acquisition application 123 from the LU 135 accessed by the active server 120.
  • the LU 135 accessed by the active server 120 includes a storage area used by the active server 120 and a storage area for storing the information acquisition application 123.
  • a method may be considered in which the storage apparatus 130 generates a dedicated storage area in the LU 135 and stores the information acquisition application 123 when the LU 135 is generated.
  • step 1309 the processing in step 1309 is changed.
  • step 1309 the information receiving unit 214 activates the standby server 120 belonging to the cluster corresponding to the received cluster identifier.
  • the activation instruction includes an instruction to turn on the power.
  • the information receiving unit 214 instructs the standby server 120 to start the information acquisition application 123 from the dedicated storage area.
  • the information reception unit 214 can change the storage area in which the information acquisition application 123 is activated using the BIOS or UEFI of the standby server 120.
  • the information acquisition application 123 may store the acquired confirmation configuration information in a dedicated storage area, and the management server 100 may acquire the confirmation configuration information from the dedicated storage area.
  • the information acquisition application 123 can be operated on the standby server 120 without the standby server 120 holding the information acquisition application 123.
  • the priority is set based on the acquisition time 610, but in the sixth embodiment, the priority is set based on the performance information of the port 134 of the storage apparatus 130.
  • the configuration of the cluster check table 251 held by the management server 100 is different. Note that the hardware configuration and other software configurations of the management server 100 are the same as those in the first embodiment, and a description thereof will be omitted.
  • 19A and 19B are explanatory diagrams illustrating an example of the cluster check table 251 according to the sixth embodiment of this invention.
  • the cluster check table 251 in the sixth embodiment is different from the first embodiment in that it includes a storage ID 1901 and a port ID 1902.
  • the storage ID 1901 stores an identifier for uniquely identifying the storage device 130 connected to the standby server 120.
  • the port ID 1902 stores an identifier for uniquely identifying the port 134 included in the storage apparatus 130.
  • the standby server 120 accesses the LU 135 via the port 134 corresponding to the port ID 1902.
  • FIG. 20 is an explanatory diagram illustrating an example of the port performance table 252 according to the sixth embodiment of this invention.
  • the port performance table 252 stores performance information of the port 134 that is used when the server 120 connects to the storage apparatus 130.
  • the port performance table 252 includes a storage ID 2001, a port ID 2002, a measurement time 2203, and an IOPS 2004.
  • Storage ID 2001 and port ID 2002 are the same as storage ID 1901 and port ID 1902. Note that the data stored in the storage ID 2001 can be omitted by specifying one of the columns used in this table or a combination of a plurality of columns.
  • the management server 100 may automatically assign an identification number in ascending order to each storage apparatus 130 as an identifier.
  • Measurement time 2003 stores the measurement time of performance information of the port 134.
  • the measurement time may be the time when the performance information is acquired in the storage apparatus 130, or the time when the management server 100 acquires the performance information via the management interface 131 of the storage apparatus 130.
  • IOPS 2004 stores port 134 performance information.
  • IOPS Input Output Per Second
  • the IOPS here is an index representing the usage status at the measurement time 2003.
  • IOPS is used.
  • the transfer amount of read data or the transfer amount of write data may be used as the performance information of the port 134.
  • the priority setting unit 217 acquires the storage ID 1901 and the port ID 1902 from the entry corresponding to the selected check pair after the process of step S1704.
  • the priority setting unit 217 refers to the port performance table 252 based on the acquired storage ID 1901 and port ID 1902 and searches for an entry that matches the storage ID 1901 and port ID 1902 from which the storage ID 2001 and port ID 2002 are acquired. Furthermore, the priority setting unit 217 acquires the IOPS value from the IOPS 2004 of the searched entry.
  • step S1705 the priority setting unit 217 sets the priority based on the acquired IOPS value.
  • the priority setting unit 217 compares the IOPS 2004 values of the entries with the latest measurement time 2003, and sets the higher priorities in descending order of the IOPS 2004 values.
  • the priority setting unit 217 may calculate a value such as an average value or a change amount of the IOPS in the matching period of the same port, and set the priority based on the calculated value.
  • the performance of the standby server is lowered after the failover, thereby preventing the influence on the business executed on the standby server 120. It becomes possible.
  • the priority is set based on the acquisition time 610.
  • priority is given based on the cost in the network path connecting the standby server 120 and the storage apparatus 130, that is, the path cost. The difference is that the degree is set.
  • the configuration of the cluster check table 251 held by the management server 100 is different. Note that the hardware configuration and other software configurations of the management server 100 are the same as those in the first embodiment, and a description thereof will be omitted.
  • 21A and 21B are explanatory diagrams illustrating an example of the cluster check table 251 according to the seventh embodiment of this invention.
  • the check flag 605, the LU flag 606, the confirmation result 607, and the reason 608 are omitted for simplicity of explanation.
  • step S1701 to step S1704 is the same as that in the first embodiment.
  • the priority setting unit 217 acquires the standby server ID 604, the storage ID 1901, and the port ID 1902 from the entry corresponding to the selected check pair after the process of step S1704.
  • the priority setting unit 217 inquires of the network management unit 111 about the path cost including the acquired standby server ID 604, storage ID 1901, and port ID 1902.
  • the priority setting unit 217 waits until it receives responses for all the standby servers 120 from the network management unit 111. Further, when receiving a response from the network management unit 111, the priority setting unit 217 updates the path cost 2101 of the corresponding entry in the cluster check table 251 based on the response.
  • step S1705 the priority setting unit 217 sets the priority based on the value of the path cost 2101.
  • step S1706 and step S1707 Since the processing in step S1706 and step S1707 is the same as that in the first embodiment, description thereof is omitted.
  • FIG. 22 is a flowchart illustrating an example of processing executed by the network management unit 111 of the NW-SW 110 according to the seventh embodiment of the present invention.
  • the network management unit 111 When the network management unit 111 receives a path cost inquiry from the priority setting unit 217, the network management unit 111 starts processing.
  • the network management unit 111 acquires the path cost based on the standby server ID 604, the storage ID 1901, and the port ID 1902 included in the received inquiry (step S2201).
  • the network management unit 111 holds information that associates the identifier of the server 120, the identifier of the storage device 130, the identifier of the port 134, and the configuration of the network path, and determines the number of switches included in the network path from the information.
  • a method of obtaining the path cost is conceivable.
  • the network management unit 111 identifies the network path between the standby server 120 and the storage apparatus 130 based on the received standby server ID 604, storage ID 1901, and port ID 1902.
  • the network management unit 111 acquires the path cost by counting the number of switches included in the identified network path.
  • the network management unit 111 transmits the acquired path cost to the priority setting unit 217 (step S2202), and ends the process.
  • the NW-SW 110 has been described as including the network management unit 111, the present invention is not limited to this.
  • the management server 100 may include the network management unit 111.
  • the standby server 120 by setting the priority of the standby server 120 connected to the storage apparatus 130 via the network path with a low path cost, the standby server 120 has high network performance after the failover process. It can operate as the active server 120. This is because there is no delay or the like in communication between the server 120 and the storage apparatus 130 because the path cost is low.
  • Example 8> In the first embodiment, a plurality of clusters are configured in advance, and the cluster confirmation process is executed on an existing cluster.
  • the eighth embodiment is different in that, when configuring a cluster, the management server 100 executes a failover availability determination process and presents candidates for the server 120 that configures the cluster.
  • the configuration of the computer system, and the hardware configuration and software configuration of the management server 100, the server 120, and the storage apparatus 130 are the same as those in the first embodiment, and a description thereof will be omitted. Hereinafter, the difference from the first embodiment will be mainly described.
  • the processes executed by the trigger reception unit 215, the check list generation unit 211, and the process notification unit 218 are different. Hereinafter, each processing will be described.
  • the trigger for starting the process of the trigger receiver 215 is different. Specifically, the administrator selects a candidate for the server 120 configuring the cluster in advance, and inputs an instruction to start cluster confirmation processing including the identifier of the selected server 120.
  • the server 120 As the candidates for the server 120 to be selected, two types of servers, the active server 120 and the standby server 120, are conceivable.
  • the administrator wants to realize a redundant system, the administrator selects the active server 120. As a result, the selected server 120 is registered as the active server 120, and the standby server 120 is searched for the active server 120. In addition, the administrator selects the standby server 120 when it is desired to further make the cluster configuration redundant in order to improve fault tolerance and the like.
  • server 120 to be selected can designate all the servers 120 managed by the management server 100.
  • the trigger reception unit 215 When the trigger reception unit 215 detects the above-described confirmation processing start instruction, the trigger reception unit 215 transmits a processing start instruction including the identifier of the server 120 selected as a candidate to the information acquisition unit 212.
  • the processing executed by the checklist generation unit 211 is partially different.
  • the checklist generation unit 211 When the checklist generation unit 211 receives a processing completion notification from the information acquisition unit 212, the checklist generation unit 211 starts processing.
  • the notification includes the identifier of the server 120 selected by the administrator.
  • step S1101 the process of step S1101 is not executed, and the process starts from step S1102.
  • step S1102. since no cluster is configured, it is not necessary to search for the server 120 belonging to the cluster.
  • step S1102 the check list generation unit 211 generates a check pair based on the identifier of the server 120 included in the processing completion notification. For example, the following processing can be considered.
  • the check list generation unit 211 refers to the management target table 250 and searches for an entry that matches the received identifier of the server 120.
  • the check list generation unit 211 searches for one or more entries having the same model 503 and configuration information 504 of the searched entries.
  • FIG. 23 is a flowchart illustrating an example of processing executed by the processing notification unit 218 of the management server 100 according to the eighth embodiment of the present invention.
  • the process notification unit 218 notifies the administrator of information on the candidate server 120 for configuring the cluster (step S2301).
  • the process notification unit 218 transmits display information including information on a check pair that can be failed over as information of the candidate server 120 for configuring the cluster.
  • the screen displayed by the display information will be described later with reference to FIG.
  • the administrator selects the servers 120 constituting the cluster according to the operation screen displayed on the client terminal 190.
  • the client terminal 190 transmits cluster registration information including the identifier of the server 120 selected by the administrator to the management server 100.
  • the registration information includes at least the identifier of the cluster, the identifier of the server 120 selected as the active server 120, and the identifier of the server 120 selected as the standby server 120.
  • the process notifying unit 218 receives the cluster registration information from the client terminal 190 (step S2302), updates the management target table 250 based on the registration information (step S2303), and ends the process. Specifically, the following processing is executed.
  • the process notification unit 218 adds a new entry to the management target table 250, and the process notification unit 218 stores information necessary for the added entry.
  • the process notification unit 218 executes the process, but the management server 100 may include a cluster registration unit that executes a cluster configuration process. In this case, in step S2303, the process notification unit 218 may transmit a process start instruction including cluster registration information to the cluster registration unit.
  • FIG. 24 is an explanatory diagram showing an example of an operation screen according to the eighth embodiment of the present invention.
  • the operation screen 2400 displays information for newly configuring a cluster or updating the configuration of a configured cluster.
  • the operation screen 2400 is displayed on the display of the client terminal 190. It may be displayed via an input / output device provided in the management server 100.
  • the management server 100 or the client terminal 190 displays using a dedicated browser or a dedicated program.
  • the operation screen 2400 includes an active server selection unit 2410, a standby server selection unit 2420, an add button 2431, a delete button 2432, a cluster selection unit 2440, a cluster configuration display unit 2450, a cluster add button 2461, a cluster delete button 2462, and a confirmation.
  • Button 2463 is included.
  • the active server selection unit 2410 is a display unit that displays information about the servers 120 that are candidates for the active server 120 constituting the cluster.
  • the active server selection unit 2410 displays a server ID 2411 and a status 2412.
  • the server ID 2411 is an identifier of the server 120 that is a candidate for the active server 120.
  • the state 2412 is information indicating whether registration with the cluster is possible. In this embodiment, when registration with the cluster is possible, “OK” is displayed in the state 2412, and when selected as the server 120 to be registered with the cluster, “Selected” is displayed in the state 2412 and registration cannot be performed with the cluster. In this case, “NG” is displayed in the state 2412.
  • the administrator can select the active server 120 constituting the cluster from the servers 120 displayed in the active server selection unit 2410.
  • the server 120 whose server ID 2411 is “server 2” is selected.
  • the entry corresponding to the selected server 120 is highlighted.
  • the standby server selection unit 2420 is a display unit that displays information about the servers 120 that are candidates for the standby server 120 that constitutes the cluster.
  • the spare server selection unit 2420 displays a server ID 2421 and a status 2422.
  • the administrator can select the standby server 120 constituting the cluster from the servers 120 displayed in the standby server selection unit 2420.
  • the server 120 whose server ID 2421 is “server 5” is selected.
  • the entry corresponding to the selected server 120 is highlighted.
  • the cluster selection unit 2440 is an operation button for selecting a target cluster to which the server 120 is added. By operating the cluster selection unit 2440, the target cluster is highlighted.
  • the cluster configuration display unit 2450 is a display unit that displays the configuration of the target cluster.
  • the cluster configuration display unit 2450 displays an active server ID 2451 and a standby server ID 2452.
  • the active server ID 2451 displays the identifier of the server 120 scheduled to be added as the active server 120.
  • the spare server ID 2452 displays the identifier of the server 120 scheduled to be added as the spare server 120.
  • the add button 2431 is an operation button for registering each server 120 selected by the active server selection unit 2410 and the standby server selection unit 2420 as a candidate for the server 120 to be added to the cluster.
  • the administrator operates the add button 2431, the selected server 120 is registered in the cluster configuration display unit 2450.
  • the delete button 2432 is an operation button for canceling registration of the candidate server 120 to be added to the cluster.
  • the administrator selects the server 120 whose registration is to be canceled from the servers 120 displayed on the cluster configuration display unit 2450, and then operates the delete button 2432. As a result, the server 120 selected from the cluster configuration display unit 2450 is deleted.
  • the cluster addition button 2461 is a button operated when a new cluster is configured.
  • the confirmation button 2463 is a button for confirming the cluster configuration.
  • a cluster having the configuration of the server 120 displayed on the cluster configuration display unit 2450 is configured.
  • the client terminal 190 when the confirm button 2463 is operated, the client terminal 190 has registered information including the identifier of the cluster displayed on the cluster selection unit 2440 and the identifier of the server 120 displayed on the cluster configuration display unit 2450.
  • the generated registration information is transmitted to the processing notification unit 218.
  • a cluster is configured from the physical servers 120, but in the ninth embodiment, a cluster is configured using virtual servers.
  • the configuration of the computer system, and the hardware configuration and the software configuration of the management server 100 and the storage apparatus 130 are the same, and thus the description thereof is omitted.
  • the difference from the first embodiment will be mainly described.
  • the standby server ID 604 of the management target table 250 stores either the identifier of the server 120 or the virtual server 2500.
  • FIG. 25 is a block diagram illustrating the hardware configuration and software configuration of the server 120 according to the ninth embodiment of the present invention.
  • the hardware configuration of the server 120 is the same as that of the first embodiment, but the software configuration is different.
  • the memory 302 stores a program for realizing the virtualization unit 2510.
  • the virtualization unit 2510 generates and manages one or more virtual servers 2500. Specifically, the virtualization unit 2510 virtually divides computer resources included in the server 120 and assigns the divided computer resources to generate one or more virtual servers 2500.
  • the virtualization unit 2510 may be, for example, a hypervisor or a VMM (Virtual Machine Monitor).
  • the virtualization unit 3521 includes a virtual switch 2511 and a virtualization unit management interface 2512.
  • the virtual switch 2511 realizes communication between the virtual servers 2500 and communication between the virtual servers 2500 and external devices. Specifically, the virtual switch 2511 controls communication between the virtual server 2500 and an external device by connecting between an adapter connected to a physical interface such as the network interface 305 and the virtual server 32500. To do.
  • the virtualization unit management interface 2512 is a control interface for communicating with the management server 100.
  • the virtualization unit 2510 transmits information to the management server 100 and receives instructions from the management server 100 using the virtualization unit management interface 2512. It can also be used directly from a user terminal or the like.
  • the virtualization unit 2510 holds information that associates the computer resources of the server 120 with the virtual computer resources of the virtual server 2500, the configuration information of the virtual server 2500, the operation history, and the like.
  • processing executed by the priority setting unit 217 is different.
  • FIG. 26 is a flowchart illustrating an example of processing executed by the priority setting unit 217 of the management server 100 according to the ninth embodiment of this invention.
  • step S1701 to step S1704 Since the processing from step S1701 to step S1704 is the same as that in the first embodiment, description thereof is omitted.
  • the priority setting unit 217 determines whether there is a check pair that is determined to be capable of failover (step S2601).
  • the priority setting unit 217 transmits a processing start instruction to the standby system generation unit 219 (step S2602).
  • the instruction includes the identifier of the active server 120.
  • the priority setting unit 217 stands by until a processing completion notification is received from the standby system generation unit 219.
  • the priority setting unit 217 Upon receiving the processing completion notification from the standby system generation unit 219, the priority setting unit 217 proceeds to step S1706.
  • step S1706 the processing contents are the same, except that the standby server 120 configuring the check pair is a virtual server 2500.
  • step S2601 if the number of check pairs determined to be capable of failover is equal to or less than the preset number of standby servers 120, a processing start instruction is transmitted to the standby generation unit 219. It may be. As the number of standby servers 120 set in advance, the number of standby servers 120 necessary for the cluster may be set.
  • FIG. 27 is a flowchart illustrating an example of processing executed by the standby system generation unit 219 of the management server 100 according to the ninth embodiment of the present invention.
  • the standby system generation unit 219 instructs the server 120 on which the virtualization unit 2510 operates to generate the virtual server 2500 to be the standby server 120 and to change the configuration to the virtual server 2500 capable of failover. .
  • the virtual server 2500 generated as the standby server 120 is also referred to as a standby virtual server 2500.
  • the standby system generation unit 219 refers to the management target table 250 (step S2701) and searches for an entry of the standby virtual server 2500 (step S2702).
  • the standby generation unit 219 determines whether or not a virtual server 2500 that can be failed over with the active server 120 corresponding to the identifier of the active server 120 included in the processing start instruction can be generated (step S2703). . Specifically, the following processing is executed.
  • the standby system generation unit 219 searches for an entry that matches the identifier of the active server 120 included in the processing start instruction.
  • the standby system generation unit 219 acquires the model 503 and configuration information 504 of the retrieved entry.
  • the standby generation unit 219 inquires of the virtualization unit 2510 whether or not the configuration of the searched standby virtual server 2500 can be changed to a configuration capable of failover.
  • the management server 100 holds information in which the identifier of the virtualization unit 2510 is associated with the identifier of the virtual server 2500 managed by the virtualization unit 2510. A way to do this is conceivable.
  • the standby system generation unit 219 determines that a virtual server 2500 capable of failover can be generated.
  • the standby system generation unit 219 may make an inquiry including the model 503 and configuration information 504 of the active server 120 to all the virtualization units 2510 in the computer system.
  • the standby system generation unit 219 proceeds to step S2709.
  • the standby generation unit 219 transmits an instruction to generate the virtual server 2500 having a configuration requiring failover to the virtualization unit 2510 that has transmitted the response. (Step S2704).
  • the standby system generation unit 219 stands by until a processing completion notification is received from the virtualization unit 2510.
  • the standby system generation unit 219 receives a processing completion notification from the virtualization unit 2510 (step S2705).
  • the notification includes the generated configuration information of the virtual server 2500.
  • the standby system generation unit 219 updates the management target table 250 based on the configuration information of the virtual server 2500 included in the instruction.
  • the standby system generation unit 219 transmits a processing start instruction to the information comparison unit 213 (step S2706).
  • the instruction includes the identifier of the active server 120 and the identifier of the standby virtual server 2500.
  • the standby system generation unit 219 waits until a processing completion notification is received from the information comparison unit 213.
  • the information comparison unit 213 can omit the processing from step S1201 to step S1205.
  • the standby system generation unit 219 determines whether or not failover can be performed between the active server 120 and the generated virtual server 2500 (step S2707).
  • step S2710 If it is determined that failover is not possible, the standby system generation unit 219 proceeds to step S2710.
  • the standby generation unit 219 adds the generated virtual server as the standby server 120 to the management target table 250 (step S2708). There are two ways to add the virtual server 2500.
  • the standby system generation unit 219 updates the necessary column information of the entry.
  • the standby system generation unit 219 adds a new entry to the management target table 250 and stores necessary information in the added entry.
  • the process of adding the virtual server 2500 to the management target table 250 may be executed by a cluster registration unit (not shown).
  • the standby system generation unit 219 transmits a process completion notification to the priority setting unit 217 (step S2709) and ends the process.
  • the virtual server 2500 as the standby server 120, it is possible to configure a cluster without changing the configuration of the server 120 and the connection path between the active server 120 and the LU 135.
  • the various software illustrated in the present embodiment can be stored in various recording media (for example, non-temporary storage media) such as electromagnetic, electronic, and optical, and through a communication network such as the Internet. It can be downloaded to a computer.
  • recording media for example, non-temporary storage media
  • a communication network such as the Internet. It can be downloaded to a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Abstract

 業務に影響を与えることなく、現用系サーバと待機系サーバとの間でフェイルオーバが可能か否かを判定する方法及びシステムを提供する。 計算機システムにおけるシステム冗長化確認方法であって、計算機システムは、第1の計算機と、第2の計算機と、ストレージシステムと、管理計算機とを有し、管理計算機が、第1の計算機のハードウェア構成に関する第1のハードウェア情報、及び第2の計算機のハードウェア構成に関する第2のハードウェア情報を取得するステップと、第1の記憶領域情報を取得するステップと、第2の計算機が、ストレージシステムから第2の記憶領域情報を取得し、管理計算機に第2の記憶領域情報を送信するステップと、管理計算機が、第1のハードウェア情報及び第1の記憶領域情報と、第2のハードウェア情報及び第2の記憶領域情報とを比較し、第1の計算機と第2の計算機との間でフェイルオーバが可能か否かを判定するステップと、を含む。

Description

システム冗長化確認方法及び計算機システム
 本発明は、クラスタが構成された計算機システムにおいて、稼働中の計算機に影響を与えることなく、フェイルオーバ機能が稼働するか否かを判定する技術に関する。
 従来のフェイルオーバ機能を有するクラスタシステムは、業務を実行するアプリケーションが稼働する現用系サーバと、現用系サーバで障害が発生時に、当該現用系サーバの代わりにアプリケーション稼働させる予備系サーバとから構成される。従来のクラスタシステムにおけるフェイルオーバ機能の稼働を確認する方法としては、以下の二点を確認する必要がある。
 (確認1)現用系サーバ及び予備系サーバの構成(ブレードの型、I/Oデバイス等)が一致すること。
 (確認2)現用系サーバがアクセスするLU(Logical Unit)に対して予備系サーバがアクセス可能であること。
 特に、(確認2)については、予備系サーバが、現用系サーバがアクセスするLUと物理的に接続されている(結線されている)だけでなく、論理的な接続を確認する必要がある。ここで、論理的な接続とは、現用系サーバがアクセスするLUと予備系サーバとの間を接続するスイッチの設定、及びストレージ装置におけるポート、パス等の各種の設定を表す。
 そのため、従来のクラスタシステムにおけるフェイルオーバ機能の稼働確認方法では、クラスタシステムが構築された後、実際にフェイルオーバ処理を実行することによって、正常にフェイルオーバ機能が稼働する否かが確認する必要があった。
特開2007-249343号公報
 前述した従来技術は、パスが二重化されていない、現用系サーバ及び予備系サーバから構成されるクラスタシステムにおいて、現用系サーバ及び予備系サーバの両系故障等のシステムダウンとなるような二重障害を防ぐ方法であり、予備系サーバから共有ディスクに対して監視I/Oを発行して、パスに障害がないか否かが判定される。
 しかし、従来技術では、予備系サーバに監視モジュール、OS(Operationg System)及びクラスタソフトをインストールする必要がある。そのため、予めシステムディスクとなるLUが用意されていない予備系サーバでは、パスを確認することができない。
 また、従来技術では、実際にフェイルオーバ処理を実行する必要があるため、稼働中の業務を停止させる必要がある。そのため、稼働中の業務に影響を与えないフェイルオーバ機能の稼働確認方法が望まれている。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、計算機システムにおけるシステム冗長化確認方法であって、前記計算機システムは、少なくとも一以上の第1の計算機と、少なくとも一以上の第2の計算機と、ストレージシステムと、前記少なくとも一以上の第1の計算機及び前記少なくとも一以上の第2の計算機を管理する管理計算機と、を有する。前記少なくとも一以上の第1の計算機は、第1のプロセッサ、前記第1のプロセッサに接続される第1のメモリ、及び前記第1のプロセッサに接続される第1のI/Oインタフェースを有し、前記少なくとも一以上の第2の計算機は、第2のプロセッサ、前記第2のプロセッサに接続される第2のメモリ、及び前記第2のプロセッサに接続される第2のI/Oインタフェースを有し、前記ストレージシステムは、一つ以上のポートを有するコントローラを一つ以上含むディスクコントローラ、及び複数の記憶媒体を有し、前記管理計算機は、第3のプロセッサ、前記第3のプロセッサに接続される第3のメモリ、及び前記第3のプロセッサに接続される第3のI/Oインタフェースを有する。前記少なくとも一以上の第1の計算機は、業務を実行し、前記少なくとも一以上の第2の計算機は、前記少なくとも一以上の第1の計算機に障害が発生した場合に、前記業務を引き継ぐ。前記ストレージシステムは、前記少なくとも一以上の第1の計算機に、前記業務の実行に必要なデータを格納する記憶領域を提供する。前記方法は、前記管理計算機が、前記少なくとも一以上の第1の計算機のハードウェア構成に関する第1のハードウェア情報、及び前記少なくとも一以上の第2の計算機のハードウェア構成に関する第2のハードウェア情報を取得する第1のステップと、前記管理計算機が、前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第1の記憶領域情報を取得する第2のステップと、前記管理計算機が、前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第2の記憶領域情報の取得指示を、前記少なくとも一以上の第2の計算機に送信する第3のステップと、前記少なくとも一以上の第2の計算機が、前記取得指示を受信した場合に、前記ストレージシステムから前記第2の記憶領域情報を取得し、前記管理計算機に前記取得された第2の記憶領域情報を送信する第4のステップと、前記管理計算機が、前記取得された第1のハードウェア情報及び前記取得された第1の記憶領域情報と、前記取得された第2のハードウェア情報及び前記取得された第2の記憶領域情報とを比較し、前記比較の結果に基づいて、前記少なくとも一以上の第1の計算機と前記少なくとも一以上の第2の計算機との間でフェイルオーバが可能か否かを判定する第5のステップと、を含むことを特徴とする。
 本発明によれば、第1の計算機及び第2の計算機から取得される情報を比較することによってフェイルオーバが可能か否かを判定するため、第1の計算機が実行する業務に影響を与えることがない。
 前述した以外の課題、構成及び効果は、以下の実施形態の説明によって明らかにされる。
本発明の第1の実施例を示し、計算機システムの一例を示すブロック図である。 本発明の実施例1の管理サーバのハードウェア構成及びソフトウェア構成を説明するブロック図である。 本発明の実施例1のサーバのハードウェア構成及びソフトウェア構成を説明するブロック図である。 本発明の実施例1のストレージ装置が備えるディスクコントローラを説明するブロック図である。 本発明の実施例1における管理対象テーブルの一例を示す説明図である。 本発明の実施例1における管理対象テーブルの一例を示す説明図である。 本発明の実施例1におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例1におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例1におけるホストグループテーブルの一例を示す説明図である。 本発明の実施例1におけるクラスタ確認処理の流れを説明するシーケンス図である。 本発明の実施例1における管理サーバの契機受信部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの情報取得部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバのチェックリスト生成部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの情報比較部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの情報受信部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの情報受信部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの情報受信部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバのストレージ操作部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1におけるストレージ装置のホストグループ制御部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における情報取得アプリケーションが実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの優先度設定部が実行する処理の一例を説明するフローチャートである。 本発明の実施例1における管理サーバの処理通知部が実行する処理の一例を説明するフローチャートである。 本発明の実施例6におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例6におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例6におけるポート性能テーブルの一例を示す説明図である。 本発明の実施例7におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例7におけるクラスタチェックテーブルの一例を示す説明図である。 本発明の実施例7における管理サーバのネットワーク管理部が実行する処理の一例を説明するフローチャートである。 本発明の実施例8における管理サーバの処理通知部が実行する処理の一例を説明するフローチャートである。 本発明の実施例8における操作画面の一例を示す説明図である。 本発明の実施例9におけるサーバのハードウェア構成及びソフトウェア構成を説明するブロック図である。 本発明の実施例9における管理サーバの優先度設定部が実行する処理の一例を説明するフローチャートである。 本発明の実施例9における管理サーバの予備系生成部が実行する処理の一例を説明するフローチャートである。
 以下、本発明の一実施例について添付図面を用いて説明する。
<実施例1>
 図1は、本発明の実施例1における計算機システムの構成例を示すブロック図である。
 本実施例における計算機システムは、管理サーバ100、クライアント端末190、NW-SW110、複数のサーバ120、FC(Fiber Channel)-SW140、及び一つ以上のストレージ装置130から構成される。
 管理サーバ100は、NW-SW100を介して、FC-SW140の管理インタフェース141、複数のサーバ120の管理インタフェース121、及びストレージ装置130の管理インタフェース131と接続される。
 なお、管理インタフェース121、131、141は、管理サーバ100からの問い合わせに応じて各IT機器(以下、単に機器と記載)の情報を送信するためのI/Oインタフェースであり、例えば、後述のネットワークインタフェースを用いることができる。
 また、管理サーバ100は、管理者が管理サーバ100に対して入出力指示を行うクライアント端末190と接続される。本発明は、管理サーバ100とクライアント端末190との間の接続方式に限定されず、例えば、ネットワーク又は物理的なケーブルを介して接続してもよい。なお、管理者はクライアント端末190を用いずに、直接、管理サーバ100を操作してもよい。
 NW-SW110は、管理サーバ100が複数のサーバ120、FC-SW140及び一つ以上のストレージ装置130を管理するための管理ネットワークを構成するスイッチである。なお、図1では、一つのNW-SW110から管理ネットワークが構成されるが、複数のスイッチ及びルータ等から管理ネットワークが構成されてもよい。
 また、NW-SW110は、ネットワーク管理部111を有する。ネットワーク管理部111は、サーバ120とLU135との間の接続経路における情報を取得する。なお、実施例1では、ネットワーク管理部111は用いられない。実施例7において、図22を用いて、ネットワーク管理部111の具体的な処理について説明する。
 管理サーバ100は、計算機システム全体の各種管理を行う。例えば、管理サーバ100は、各サーバ120等から各種情報を取得し、各サーバ120の電源を操作し、また、クラスタシステムを管理する。ここで、クラスタシステムは一つ以上のクラスタから構成されるシステムであり、また、クラスタは一つ以上のサーバ120から構成される。
 管理サーバ100は、制御部101及び管理テーブル群102を有する。制御部101は、管理サーバ100における管理機能を実現するための各種処理を実行する。管理テーブル群102は、制御部101が処理を実行するために必要な情報を格納する。
 管理サーバ100のハードウェア構成及びソフトウェア構成については、図2を用いて後述する。
 サーバ120は、業務を実行するアプリケーション311(図3参照)が稼働する計算機である。
 本実施例では、複数のサーバ120からクラスタが構成される。また、クラスタを構成するサーバ120には、アプリケーション311(図3参照)が稼働する現用系サーバ120と、現用系サーバ120の障害発生時に業務を引き継ぐ予備系サーバ120とが含まれる。なお、予備系サーバ120は、通常、電源がOFFの状態となっている。
 本実施例では、全てのサーバ120がいずれかのクラスタに所属するものとする。なお、クラスタに所属していないサーバ120が存在してもよい。
 また、各サーバ120は、業務ネットワーク105と接続される。業務ネットワーク105は、各サーバ120上で稼働するアプリケーション311(図3参照)が使用するネットワークである。なお、業務ネットワーク105はスイッチ及びルータ等から構成される。アプリケーション311(図3参照)が稼働するサーバ120は、業務ネットワーク105を介してWAN等に接続され、外部のクライアント計算機と通信する。
 また、各サーバ120は、アダプタ122を介して、SAN(Storage Area Network)を構成するFC-SW140に接続される。本実施例では、サーバ120とストレージ装置130との間がSANを介して接続されるが、本発明はこれに限定されず、IP(Internet Protocol)ネットワークであってもよい。
 アダプタ122は、FC-SW140の種類に対応して、NIC(Network Interface Card)、HBA(Host Bus Adapter)、及びCNA(Converged Network Adapter)等のI/Oアダプタ又はI/Oデバイスから構成される。
 本実施例では、サーバ120は、情報取得アプリケーション123を有する。情報取得アプリケーション123は、マイグレーション機能の稼働を確認するために必要な構成情報を取得する。前述した構成情報は、少なくとも、現用系サーバ120がアクセスするLU135の情報を含む。LU135の情報としては、LU135の識別子、サイズ、性能等の情報が考えられるが、本発明は前述したものに限定されない。
 なお、前述した構成情報には、サーバ120のハードウェアの情報及びソフトウェアの情報等が含まれてもよい。以下、前述した構成情報を確認用構成情報とも記載する。
 FC-SW140は、各サーバ120とストレージ装置130とを接続するSANを構成する。なお、図1では、一つのFC-SW140がSANを構成するが、複数のFC-SW140からSANが構成されもよい。
 ストレージ装置130は、アプリケーション311(図3参照)が稼働するサーバ120が使用する記憶領域を提供する。ストレージ装置130は、ディスクコントローラ132、及び複数の記憶デバイス(図示省略)を備える。
 ディスクコントローラ132は、記憶領域の管理、及びサーバ120と記憶領域との接続等を管理する。ディスクコントローラ132は、複数のポート134を有するコントローラ133を複数備える。
 本実施例では、複数の記憶デバイスの記憶領域からLU135が生成され、LU135を現用系サーバ120に提供される。なお、LU135には、OS310(図3参照)及びアプリケーション311(図3参照)等のプログラム及びプログラムの実行に必要な各種情報が格納される。また、記憶デバイスとしては、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等が考えられる。また、ストレージ装置130は、複数の記憶デバイスを用いてRAIDを構成してもよい。
 なお、管理サーバ100及びサーバ120の種別は、物理サーバ、ブレードサーバ、仮想化サーバ、又は、論理物理分割若しくは物理分割されたサーバ等のいずれであってもよい。本発明は、管理サーバ100及びサーバ120の種別に限定されず、本発明の効果を得ることができる。
 図2は、本発明の実施例1の管理サーバ100のハードウェア構成及びソフトウェア構成を説明するブロック図である。
 管理サーバ100は、CPU(Central Processing Unit)201、メモリ202、BMC(Basement Management Controller)203、ディスクインタフェース204、ネットワークインタフェース205、及び入出力装置206を備える。
 CPU201は、一つ以上の演算装置を備え、メモリ202に格納されるプログラムを実行する。CPU201がプログラムを実行することによって、管理サーバ100が備える機能を実現することができる。以下、プログラムを主体にして説明する場合、CPU201によって当該プログラムが実行されていることを示す。
 メモリ202は、CPU201によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ202に格納されるプログラム及び情報については、後述する。
 BMC203は、電源の制御、及び各インタフェースの制御を行う。ディスクインタフェース204は、ストレージ装置130にアクセスするためのインタフェースである。ネットワークインタフェース205は、IPネットワークを介して、他の装置と通信するためのインタフェースである。
 入出力装置206は、キーボード及びマウス等の入力装置、及びディスプレイ等の表示装置を含む。管理サーバ100は、入出力装置206を介して、USBメモリなどの外部記憶媒体を接続してもよい。
 なお、管理サーバ100自身が入出力装置206を備えていなくてもよい。例えば、ネットワークインタフェース205等のインタフェース等を介して入出力装置206と接続する方法、入出力装置206を備えるクライアント端末190と接続する方法等が考えられる。
 図2では、ディスクインタフェース204及びネットワークインタフェース205を、それぞれ代表して一つずつ示しているが、管理サーバ100は、ディスクインタフェース204及びネットワークインタフェース205を複数備えてもよい。
 例えば、管理サーバ100が二つのネットワークインタフェース205を備える場合、一つのネットワークインタフェース205を介して管理用ネットワークと接続し、他方のネットワークインタフェース205を介して業務ネットワーク105と接続することが考えられる。
 また、管理サーバ100は、ディスクインタフェース204及びネットワークインタフェース205の代わりに、サーバ120及びストレージ装置130等の外部装置と接続可能な一つのI/Oインタフェースを備えていればよい。
 次に、メモリ202に格納されるプログラム及び情報について説明する。
 メモリ202は、制御部101を実現するプログラム及び管理テーブル群102を格納する。なお、メモリ202は、図示しないプログラム及び情報を格納してもよい。
 制御部101は、複数のプログラムモジュールから構成され、フェイルオーバ機能の稼働を確認するための処理を実行する。以下では、フェイルオーバ機能の稼働を確認するための処理をクラスタ確認処理とも記載する。
 具体的には、制御部101は、契機受信部215、情報取得部212、チェックリスト生成部211、情報比較部213、情報受信部214、ストレージ操作部216、優先度設定部217、処理通知部218、ネットワーク管理部111、及び予備系生成部219を含む。
 CPU201は、各機能部を実現するプログラムにしたがって動作することによって、所定の機能を実現する機能部として動作する。例えば、CPU201は、情報取得プログラムにしたがって動作することによって情報取得部212として機能する。他のプログラムについても同様である。さらに、CPU201は、各プログラムが実行する複数の処理のそれぞれを実現する機能部としても動作する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
 契機受信部215は、クラスタ確認処理を開始するための契機を検出する。契機受信部215が実行する処理については、図9を用いて後述する。情報取得部212は、クラスタ確認処理における処理対象のサーバ120から情報を取得する。情報取得部212が実行する処理については、図10を用いて後述する。
 チェックリスト生成部211は、クラスタ確認処理の実行時に用いるクラスタチェックテーブル251を生成する。チェックリスト生成部211が実行する処理については、図11を用いて後述する。情報比較部213は、フェイルオーバ機能が正常に稼働するか否かを判定する。情報比較部213が実行する処理については、図12を用いて後述する。
 情報受信部214は、クラスタ確認処理において必要な各種情報を取得する。情報受信部214が実行する処理については、図13A、図13B及び図13Cを用いて後述する。ストレージ操作部216は、クラスタ確認処理の実行時にストレージ装置130に対する設定を行う。ストレージ操作部216が実行する処理については、図14を用いて後述する。
 優先度設定部217は、一つのクラスタ内に複数の予備系サーバ120が存在する場合に、当該予備系サーバ120の使用順を表す優先度を設定する。優先度設定部217が実行する処理については、図17を用いて後述する。処理通知部218は、管理者にクラスタ確認処理の結果を通知する。処理通知部218が実行する処理については、図18を用いて後述する。
 予備系生成部219は、予備系サーバ120として仮想的な計算機を用いる場合に、仮想的な計算機の生成を指示する。なお、実施例1では、予備系生成部219は用いられない。実施例9において、図27を用いて、予備系生成部219の具体的な処理について説明する。
 管理テーブル群102は、管理対象テーブル250、クラスタチェックテーブル251、及びポート性能テーブル252を含む。
 管理対象テーブル250は、情報取得部212によって生成及び更新され、管理サーバ100が管理する計算機システム内のサーバ120等の機器の各種情報を格納する。管理対象テーブル250の詳細については、図5A及び図5Bを用いて後述する。
 クラスタチェックテーブル251は、チェックリスト生成部211によって生成及び更新され、クラスタ確認処理の結果を格納する。クラスタチェックテーブル251の詳細については、図6A及び図6Bを用いて後述する。
 ポート性能テーブル252は、優先度を設定するときに用いられる情報を格納する。なお、実施例1では、ポート性能テーブル252を用いた処理は実行されない。実施例6において、図20を用いて、ポート性能テーブル252の詳細について説明する。
 管理テーブル群102に含まれる各テーブルの情報は、管理サーバ100内の他の機能部によって自動生成されたものでもよいし、管理者が手動又はクライアント端末190を用いて入力してものでもよい。
 制御部101を実現するプログラム、及び管理テーブル群102に含まれるテーブルは、ストレージ装置130、不揮発性半導体メモリ、HDD若しくはSSD等の記憶デバイス、又は、ICカード、SDカード若しくはDVD等の計算機読み取り可能な非一時的記憶媒体に格納することができる。
 この場合、CPU201は、ストレージ装置130、記憶デバイス、又は計算機読み取り可能な非一時的記憶媒体からプログラム及びテーブルを読み出し、メモリ202上にロードする。
 図3は、本発明の実施例1のサーバ120のハードウェア構成及びソフトウェア構成を説明するブロック図である。
 サーバ120は、CPU301、メモリ302、BMC303、ディスクインタフェース304、及びネットワークインタフェース305を備える。
 CPU301は、一つ以上の演算装置を備え、メモリ302に格納されるプログラムを実行する。CPU301がプログラムを実行することによって、サーバ120が備える機能を実現することができる。以下、プログラムを主体にして説明する場合、CPU301によって当該プログラムが実行されていることを示す。
 メモリ302は、CPU301によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ302に格納されるプログラム及び情報については、後述する。
 BMC303は、電源の制御、及び各インタフェースの制御を行う。ディスクインタフェース304は、ストレージ装置130にアクセスするためのインタフェースである。ネットワークインタフェース305は、IPネットワークを介して、他の装置と通信するためのインタフェースである。
 サーバ120は、キーボード及びマウス等の入力装置、及びディスプレイ等の表示装置を備えていてもよい。
 また、サーバ120は、ディスクインタフェース304及びネットワークインタフェース305の代わりに、管理サーバ100及びストレージ装置130等の外部装置と接続可能な一つのI/Oインタフェースを備えていればよい。
 ここで、メモリ302に格納されるプログラム及び情報について説明する。図3では、現用系サーバ120及び予備系サーバ120のいずれもが保持可能なプログラムを示している。しかし、本実施例では、現用系サーバ120のメモリ302の内容と、予備系サーバ120のメモリ302の内容とが異なる。
 現用系サーバ120のメモリ302は、アプリケーション311及びOS310を実現するプログラムを格納する。
 OS310はサーバ120全体を管理する。アプリケーション311は、各種業務を実行する。本実施例では、OS310及びアプリケーション311を実現するプログラムはLU135に格納されるものとする。
 一方、予備系サーバ120のメモリ302には、通常、電源がOFFの状態であるため、プログラムが格納されない。ただし、本実施例では、予備系サーバ120は、管理サーバ100から起動指示を受信した場合に、情報取得アプリケーション123を実現するプログラムをメモリ302にロードする。
 情報取得アプリケーション123は、クラスタ確認処理に必要な構成情報、すなわち、確認用構成情報を取得する。情報取得アプリケーション123が実行する処理の詳細は、図16を用いて後述する。
 本実施例では、情報取得アプリケーション123を実現するプログラムは、予めサーバ120内の不揮発性メモリ(図示省略)に格納され、予備系サーバ120の起動時にメモリ302にロードされる。
 この場合、情報取得アプリケーション123が起動するように、サーバ120を設定する必要がある。例えば、BIOS(Basic Input/Output System)又はUEFI(Unified Extensible Firmware Interface)を用いて、管理サーバ100から起動指示又は情報取得指示等を受信した場合、予備系サーバ120の起動後に、情報取得アプリケーション123を起動するように設定する方法が考えられる。
 本実施例では、情報取得アプリケーション123の処理が終了した後に、サーバ120は再び電源OFFの状態になるものとする。なお、予備系サーバ120は、情報取得アプリケーション123の処理が終了した後に、OS310等を起動させてもよい。
 図3では、ディスクインタフェース304及びネットワークインタフェース305を、それぞれ代表して一つずつ示しているが、サーバ120は、ディスクインタフェース304及びネットワークインタフェース305を複数備えてもよい。
 本実施例では、サーバ120は、管理ネットワーク及び業務ネットワーク105のそれぞれに接続するためのネットワークインタフェース305を備える。管理ネットワークに接続するネットワークインタフェース305が、管理インタフェース121に対応する。
 図4は、本発明の実施例1のストレージ装置130が備えるディスクコントローラ132を説明するブロック図である。
 ディスクコントローラ132は、CPU401、メモリ402、ディスクインタフェース403、管理インタフェース131及び複数のコントローラ133を備える。
 CPU401は、一つ以上の演算装置を備え、メモリ402に格納されるプログラムを実行する。CPU401がプログラムを実行することによって、ストレージ装置130が備える機能を実現することができる。以下、プログラムを主体にして説明する場合、CPU401によって当該プログラムが実行されていることを示す。
 メモリ402は、CPU401によって実行されるプログラム及び当該プログラムの実行に必要な情報を格納する。メモリ402に格納されるプログラム及び情報については、後述する。
 ディスクインタフェース403は、ストレージ装置130内のLU135又は記憶デバイスにアクセスするためのインタフェースである。管理インタフェース131は、管理ネットワークを介して管理サーバ100と接続するためのインタフェースである。
 コントローラ133は、ストレージ装置130にアクセスするサーバ120等の機器との間の入出力処理を管理する。コントローラ133は、機器を接続するポート134を有する。
 図4では、ディスクインタフェース403及びコントローラ133をそれぞれ代表して一つずつ示しているが、ストレージ装置130はディスクインタフェース403及びコントローラ133を複数備えてもよい。また、図4では、ポート134を代表して一つ示しているが、コントローラ133はポート134を複数備えてもよい。
 メモリ402は、ホストグループ制御部411を実現するプログラム、及びホストグループテーブル412を格納する。
 ホストグループ制御部411は、ホストグループの設定を管理する。ここで、ホストグループは、サーバ120とLU135とのマッピング、LU135に格納されたデータのセキュリティを保護するために用いられるグループである。ホストグループを設定することによって、サーバ120が参照又は更新可能なLU135を制限できる。
 CPU401は、ホストグループ制御部411を実現するプログラムをメモリ402にロードし、当該プログラムにしたがって動作することによってホストグループ制御部411として機能する。
 図5A及び図5Bは、本発明の実施例1における管理対象テーブル250の一例を示す説明図である。
 管理対象テーブル250は、管理対象の機器の構成情報、クラスタの識別情報等を格納する。本実施例では、サーバ120が管理対象の機器となる。
 管理対象テーブル250は、サーバID501、管理IPアドレス502、モデル503、構成情報504、WWN505、LU情報506、稼働情報507、クラスタID508、及び種別509を含む。
 サーバID501は、管理サーバ100が管理する計算機システム内においてサーバ120を一意に識別するための識別子を格納する。なお、サーバ501に格納されるデータは、本テーブルで使用される各カラムのいずれか、又は複数カラムを組み合わせたものを指定することによって省略することができる。また、管理サーバ100は、各サーバ120に昇順となる識別番号を識別子として自動的に割り当ててもよい。
 管理IPアドレス502は、サーバ120に割り当てられた管理IPアドレスを格納する。管理サーバ100は、管理IPアドレスに基づいて、管理対象の機器であるサーバ120と接続する。
 モデル503は、サーバ120のモデルに関する情報を格納する。モデル503に格納される情報は、インフラに関する情報であり、当該情報に基づいて管理対象の機器のメーカ、性能、構成可能なシステムの限界等を把握することができる。本実施例では、後述するように、モデル503に基づいて、管理対象のサーバ120の構成が同一であるか否かが判定される。
 構成情報504は、サーバ120の構成に関する情報を格納する。構成に関する情報としては、サーバ120における、プロセッサのアーキテクチャ、シャーシ及びスロットなどの物理位置情報、並びに、ブレード間SMP(Symmetric Multi-Processing)及びHA(High Availability)構成など特徴機能の有無を示す情報が含まれる。
 WWN505は、サーバ120がLU135とファイバチャネル通信を行うために用いるWWNを格納する。WWNは、ユニークなデバイス識別子である。なお、サーバ120とストレージ装置とがIP-SANなどを介して接続される場合、iSCSI Qualified NameのようなWWNと同等の識別子が格納される。
 LU情報506は、サーバ120にアクセスするLU135を特定する情報を格納する。本実施例では、LU情報506には、Inquiry情報が格納される。
 稼働情報507は、サーバ120の稼働状態を示す情報を格納する。稼働状態を示す情報としては、サーバ120の電源ON/OFF、及び、OS又は業務システム(アプリケーション311)が正常に稼働しているか否かを示す情報である。また、稼働情報507には、管理サーバ100と管理対象のサーバ120との間の通信が不能になった旨を示す情報が格納されてもよい。
 クラスタID508は、サーバ120が所属するクラスタを一意に識別するための識別子を格納する。なお、クラスタID508に格納されるデータは、本テーブルで使用される各カラムのいずれか、又は複数カラムを組み合わせたものを指定することによって省略することができる。また、管理サーバ100は、各クラスタに昇順となる識別番号を識別子として自動的に割り当ててもよい。
 なお、サーバ120がいずれのクラスタにも所属していない場合、クラスタID508は、空欄、又は、クラスタに所属していないことを示す情報が格納される。
 種別509は、サーバ120が所属するクラスタにおいて、当該サーバ120が現用系サーバ120又は予備系サーバ120のいずれであるかを示す情報を格納する。
 なお、サーバ120がいずれのクラスタにも所属していない場合、種別509は、空欄、又は、クラスタに所属していないことを示す情報が格納される。
 以下では、管理対象テーブル250の各カラムに格納される情報をまとめてサーバ120の構成情報とも記載する。
 図6A及び図6Bは、本発明の実施例1におけるクラスタチェックテーブル251の一例を示す説明図である。
 クラスタチェックテーブル251は、クラスタ確認処理の結果として、チェックペアごとのフェイルオーバの可否判定の結果を格納する。ここで、チェックペアとは、同一クラスタに所属する現用系サーバ120と予備系サーバ120との組合せを表す。また、フェイルオーバの可否判定は、現用系サーバ120と予備系サーバ120との間でフェイルオーバが可能か否かを判定する処理を表す。
 具体的には、クラスタチェックテーブル251は、ペアID601、クラスタID602、現用系サーバID603、予備系サーバID604、チェックフラグ605、LUフラグ606、確認結果607、理由608、取得情報609、取得時間610、及び優先度611を含む。
 ペアID601は、チェックペアを一意に識別するための識別子を格納する。本実施例では、1台の現用系サーバ120と1台の予備系サーバ120との組合せに対して、一つのペアID601が割り当てられる。
 ペアID601に格納するデータは、本テーブルで使用される各カラムのいずれか、又は複数カラムを組み合わせたものを指定することによって省略することができる。また、管理サーバ100は、各チェックペアに昇順となる識別番号を識別子として自動的に割り当ててもよい。
 クラスタID602は、クラスタを一意に識別するための識別子を格納する。クラスタID602は、管理対象テーブル250のクラスタ508と同一のものである。
 現用系サーバID603は、現用系サーバ120を一意に識別するための識別子を格納する。現用系サーバID603には、クラスタID602に対応するクラスタに所属するサーバ120のうち、現用系サーバ120として登録されたサーバ120のサーバIDが格納される。なお、現用系サーバID603には、サーバID501に格納される識別子と同一のものが格納される。
 予備系サーバID604は、予備系サーバ120を一意に識別するための識別子を格納する。予備系サーバID604は、クラスタID602に対応するクラスタに所属するサーバ120のうち、予備系サーバ120として登録されたサーバ120のサーバIDが格納される。なお、予備系サーバID604には、サーバID501に格納される識別子と同一のものが格納される。
 チェックフラグ605は、チェックペアについてフェイルオーバの可否判定が実行された否かを示すフラグを格納する。本実施例では、フェイルオーバの可否判定が実行済みである場合、チェックフラグ605には「済」が格納され、フェイルオーバの可否判定が実行されていない場合、チェックフラグ605は空欄のままである。
 なお、前述したチェックフラグ605に格納される情報は、一例であって本発明はこれに限定されない。
 LUフラグ606は、予備系サーバID604に対応する予備系サーバ120上で稼働する情報取得アプリケーション123によって、確認用構成情報が取得済みであるか否かを示す情報を格納する。
 本実施例では、確認用構成情報が取得済みである場合、LUフラグ606には「済」が格納され、確認用構成情報が取得されていない場合、LUフラグ606は空欄のままである。なお、前述したLUフラグ606に格納される情報は、一例であって本発明はこれに限定されない。
 確認結果607は、フェイルオーバの可否判定の結果を格納する。本実施例では、現用系サーバID603に対応するサーバ120と予備系サーバID604に対応するサーバ120との間においてフェイルオーバが可能である場合、確認結果607には「可」が格納され、一方、フェイルオーバが不可能である場合、確認結果607には「不可」が格納される。
 なお、前述した確認結果607に格納される情報は、一例であって本発明はこれに限定されない。
 理由608は、フェイルオーバが不可能である理由を格納する。例えば、予備系サーバ120から現用系サーバ120に割り当てられたLU135へアクセスができない場合、「LUアクセス不可」等が格納される。管理者は、理由608に示された情報に基づいて、クラスタの設定を見直し、フェイルオーバの設定の見直し等が可能となる。
 取得情報609は、情報取得アプリケーション123によって取得された確認用構成情報を格納する。本実施例では、取得情報609には、LU135を一意に特定するためのInquiry情報が格納される。なお、取得情報609に格納される確認用構成情報は、Inquiry情報に限定されず、予備系サーバ120が現用系サーバ120に割り当てられたLU135へアクセス可能か否かを判定可能な情報であればよい。また、確認用構成情報には、サーバの型、I/O情報その他の情報が含まれてもよい。
 取得時間610は、情報取得アプリケーション123が確認用構成情報を取得するためにかかった時間を格納する。例えば、所定の情報を取得するためのコマンドが発行されてから応答が得られるまでの時間が格納される。
 優先度611は、クラスタに所属する複数の予備系サーバ120のうち、フェイルオーバ処理に用いる予備系サーバ120の使用順を表す値を格納する。本実施例では、優先度611の値が小さいものから順にフェイルオーバ処理に用いられる。なお、優先度611の値が大きいものから優先的に選択されてもよい。
 図7は、本発明の実施例1におけるホストグループテーブル412の一例を示す説明図である。
 ホストグループテーブル412は、サーバ120が、ストレージ装置130内のLU135にアクセスする場合に経由するコントローラ133及びポート134の情報、並びに、アクセス可能なLU135に関する情報を格納する。具体的には、ホストグループテーブル412は、ホストグループID701、WWN702、コントローラID703、ポートID704、LU ID705、及び権限706を含む。
 ホストグループID701は、ホストグループを一意に識別するための識別子を格納する。ホストグループは、割り当てられたLU135に対する参照及び/又は更新を許可されたサーバ120のWWNをまとめたものである。
 ホストグループID701に格納するデータは、本テーブルで使用される各カラムのいずれか、又は複数カラムを組み合わせたものを指定することによって省略することができる。また、管理サーバ100は、各ホストグループに昇順となる識別番号を識別子として自動的に割り当ててもよい。
 WWN702は、ストレージ装置130にアクセスするサーバ120のWWNを格納する。WWN702に格納されたWWNに対応するアダプタ122を有するサーバ120がホストグループ内のLU135にアクセスすることができる。
 コントローラID703は、サーバ120がストレージ装置130にアクセスする場合に使用されるコントローラ133の識別子を格納する。
 ポートID704は、サーバ120がストレージ装置130にアクセスする場合に使用されるポート134の識別子を格納する。
 LU ID705は、ホストグループに登録されたLU135の識別子を格納する。
 権限706は、WWN702に対応するアダプタ122を有するサーバ120が、LU ID705に対応するLU135に対して許可された権限の情報を格納する。
 本実施例では、LU135への参照権限及び書込権限が付与された場合、権限706には「Read/Write」が格納され、LU135への参照権限が付与された場合、権限706には「Read」が格納される。なお、前述した権限706に格納される情報は、一例であって本発明はこれに限定されない。
 なお、ホストグループテーブル412に、LU135に対する参照権限が付与された予備系サーバ120のWWNが追加された場合、予備系サーバ120が当該LU135にアクセスしても、書き込み処理が行えないため、現用系サーバ120に影響を与えることはない。
 以下、本発明の実施例1における各構成部の具体的な処理について説明する。まず、シーケンス図を用いてクラスタ確認処理の流れを説明する。
 図8は、本発明の実施例1におけるクラスタ確認処理の流れを説明するシーケンス図である。
 管理サーバ100は、管理者からのクラスタ確認処理の開始指示を受け付けると、クラスタ確認処理を開始する(ステップS801)。具体的には、契機受信部215が、クラスタ確認処理の開始指示を受け付けると、情報取得部212に処理開始を指示する。
 管理サーバ100は、計算機システムから管理対象のサーバ120の構成情報を取得する(ステップS802)。具体的には、情報取得部212が、所定のサーバ120から、当該サーバ120の構成情報を取得する。
 管理サーバ100は、クラスタチェックテーブル251を生成及び/又は更新する(ステップS803)。具体的には、チェックリスト生成部211が、現用系サーバ120と予備系サーバ120とを組み合わせてチェックペアを生成し、クラスタチェックテーブル251に、生成されたチェックペアに対応するエントリを追加する。
 管理サーバ100は、ストレージ装置130にホストグループの設定を変更するように指示する(ステップS804)。具体的には、ストレージ操作部216が、ホストグループ制御部411に対して、ホストグループの設定変更指示を送信する。このとき、ストレージ操作部216は、現用系サーバ120が所属するホストグループに、参照権限を付与して予備系サーバ120のWWNを追加するように指示する。
 ストレージ装置130は、管理サーバ100から指示を受信すると、当該指示に基づいて、ホストグループの設定を変更する(ステップS805)。具体的には、ホストグループ制御部411が、現用系サーバ120が所属するホストグループに、参照権限を付与して予備系サーバ120のWWNを追加する。
 ストレージ装置130は、管理サーバ100に、ホストグループの設定が変更された旨を通知する(ステップS806)。具体的には、ホストグループ制御部411が、ストレージ操作部216に対して、ホストグループの設定が変更された旨を通知する。
 管理サーバ100は、予備系サーバ120に、情報取得アプリケーション123の起動指示を送信する(ステップS807)。具体的には、情報受信部214が、予備系サーバ120に、情報取得アプリケーション123の起動指示を送信する。
 予備系サーバ120は、情報取得アプリケーション123の起動指示を受信すると、情報取得アプリケーション123を起動させて、確認用構成情報を取得する(ステップS808)。
 予備系サーバ120は、管理サーバ100に、情報取得アプリケーション123の実行によって取得された確認用構成情報を送信する(ステップS809)。具体的には、情報取得アプリケーション123が、情報受信部214に対して、確認用構成情報を送信する。なお、本実施例では、確認用構成情報には、少なくとも、LU135の情報及び情報取得時間が含まれる。
 管理サーバ100は、ストレージ装置130にホストグループの設定を戻すように指示する(ステップS810)。具体的には、情報受信部214が、変更されたホストグループの設定を戻すための設定変更指示を送信する。すなわち、ステップS805において、ホストグループに追加されたWWNを削除するように指示される。
 ストレージ装置130は、ホストグループの設定変更指示を受信すると、ホストグループの設定を変更する(ステップS811)。具体的には、ホストグループ制御部411が、現用系サーバ120が所属するホストグループから、予備系サーバ120のWWNを削除する。
 ストレージ装置130は、管理サーバ100に、ホストグループの設定が変更された旨を通知する(ステップS812)。具体的には、ホストグループ制御部411が、情報受信部214に対して、ホストグループの設定変更が完了した旨を通知する。
 管理サーバ100は、チェックペアごとに、フェイルオーバが可能か否かを判定する(ステップS813)。具体的には、情報比較部213は、現用系サーバ120のLU135の情報と、予備系サーバ120から取得されたLU135の情報とを比較して、フェイルオーバが可能か否かを判定する。
 管理サーバ100は、フェイルオーバ処理における予備系サーバ120の使用順である優先度を設定する(ステップS814)。具体的には、優先度設定部217が、クラスタチェックテーブル251及び判定処理の結果に基づいて、優先度設定処理を実行する。
 管理サーバ100は、管理者に、クラスタ確認処理の処理結果を通知し(ステップS815)、処理を終了する。具体的には、処理通知部218が、処理結果を通知するための情報を生成し、生成された情報を管理者に提示する。
 以上の処理によって、実際にフェイルオーバ処理を実行することなく、フェイルオーバが可能か否かを判定することができる。
 なお、ステップS813及びステップS814の処理は、処理の整合性を保つことが可能ならば、ステップS809からステップS812のいずれのタイミングで実行されてもよい。例えば、ステップS809において、管理サーバ100は、確認用構成情報を取得した後に、フェイルオーバが可能か否かを判定してもよい。
 なお、確認用構成情報が取得済みである場合、ステップS804からステップS812の処理を省略することができる。
 図9は、本発明の実施例1における管理サーバ100の契機受信部215が実行する処理の一例を説明するフローチャートである。で行われる処理の一例を示すフローチャートである。
 契機受信部215は、管理者から入力されたクラスタ確認処理の開始指示を検出する(ステップS901)。
 なお、クラスタ確認処理の開始契機は、管理者から入力された開始指示の検出時に限定されない。例えば、管理サーバ100が有するスケジュール機能に基づいて所定の時間経過後に処理を開始してもよいし、周期的に処理を開始してもよいし、クラスタに所属するサーバ120における構成の変更が検知された場合に処理を開始してもよい。
 なお、クラスタ確認処理の開始指示には、管理者によって指定されたクラスタ確認処理の対象を特定するための情報が含まれる。クラスタ確認処理の対象を特定するための情報は、サーバ120識別子、又はクラスタの識別子等の処理対象を特定できる情報であればよい。
 以下では、クラスタ確認処理の対象を処理対象とも記載する。また、処理対象を特定するための情報を処理対象の識別情報とも記載する。
 契機受信部215は、情報取得部212に処理開始指示を送信し(ステップS902)、処理を終了する。当該処理開始の指示には、処理対象の識別情報が含まれる。
 なお、クラスタ確認処理では、一つのクラスタ単位に処理が実行されることになる。すなわち、サーバ120の識別子が処理対象の識別情報として含まれる場合、当該サーバ120が所属するクラスタが処理単位となる。また、クラスタの識別子が処理対象の識別情報として含まれる場合、当該クラスタが処理単位となる。ただし、本発明はこれに限定されず、複数のクラスタについてクラスタ確認処理が実行されてもよい。
 図10は、本発明の実施例1における管理サーバ100の情報取得部212が実行する処理の一例を説明するフローチャートである。
 情報取得部212は、契機受信部215から通知された処理対象の識別情報に基づいて管理対象テーブル250を参照して、フェイルオーバの可否判定処理の対象となるサーバ120を特定する(ステップS1001)。以下、フェイルオーバの可否判定処理の対象となるサーバ120を判定対象サーバ120とも記載する。ステップS1001では、以下のような処理が実行される。
 処理対象の識別情報として現用系サーバ120の識別子を受信した場合、情報取得部212は、管理対象テーブル250を参照し、当該識別子に対応する現用系サーバ120、及び当該現用系サーバ120が所属するクラスタ内に含まれる予備系サーバ120を検索する。この場合、検索された現用系サーバ120及び予備系サーバ120が判定対象サーバ120となる。予備系サーバ120の識別子が通知された場合も同様である。
 また、処理対象の識別情報としてクラスタの識別子を受信した場合、情報取得部212は、管理対象テーブル250を参照して、当該識別子に対応するクラスタに所属するサーバ120を全て検索する。この場合、検索された全てのサーバ120が判定対象サーバ120となる。
 なお、ステップS1001の処理によって、処理単位であるクラスタを特定することができる。情報取得部212は、処理単位であるクラスタの識別子をメモリ202のワークエリア内に一時的に保持してもよい。
 情報取得部212は、特定された判定対象サーバ120から、サーバ120の構成情報を取得する(ステップS1002)。
 具体的には、情報取得部212は、特定された判定対象サーバ120に対し、構成情報取得処理を実行する。構成情報取得処理は、公知の技術を用いればよいため詳細な説明は省略する。
 構成情報取得処理を実行することによって、処理対象のサーバ120の型、及びサーバ120に割り当てられたLU135を特定するためのInquiry情報等のサーバ120の構成情報が取得される。なお、判定対象サーバ120が予備系サーバ120の場合、当該予備系サーバ120はLU135にアクセスできないため、Inquiry情報は取得されない。
 情報取得部212は、取得されたサーバ120の構成情報に基づいて、管理対象テーブル250を更新する(ステップS1003)。具体的には、以下のような処理が実行される。
 管理対象テーブル250に判定対象サーバ120のエントリが存在しない場合、情報取得部212は、管理対象テーブル250に新たなエントリを追加し、当該エントリに取得されたサーバ120の構成情報を登録する。管理対象テーブル250に判定対象サーバ120のエントリが存在する場合、情報取得部212は、当該エントリに取得されたサーバ120の構成情報を上書きする。
 情報取得部212は、チェックリスト生成部211に処理完了通知を送信し(ステップS1004)、処理を終了する。
 図11は、本発明の実施例1における管理サーバ100のチェックリスト生成部211が実行する処理の一例を説明するフローチャートである。
 チェックリスト生成部211は、情報取得部212から処理完了通知を受信すると処理を開始する。
 チェックリスト生成部211は、管理対象テーブル250を参照して(ステップS1101)、チェックペアを生成する(ステップS1102)。ここでは、処理対象の識別情報によって以下のように処理が分岐する。
 処理対象の識別情報として現用系サーバ120の識別子を受信した場合、チェックリスト生成部211は、当該現用系サーバ120が所属するクラスタ内の予備系サーバ120との組合せを生成する。ここで、一つの組合せが一つのチェックペアに対応する。
 例えば、図7に示すクラスタチェックテーブル251において、処理対象の識別情報として「サーバ1」を受信した場合、以下のようなチェックペアが生成される。チェックリスト生成部211は、クラスタID220が「クラスタ1」のクラスタに所属する予備系サーバ120として「サーバ4」及び「サーバ5」を特定する。さらに、チェックリスト生成部211は、「サーバ1」及び「サーバ4」のチェックペアと、「サーバ1」及び「サーバ5」のチェックペアを生成する。
 処理対象の識別情報として予備系サーバ120の識別子を受信した場合も、前述した処理と同様の処理が実行される。すなわち、チェックリスト生成部211は、予備系サーバ120が所属するクラスタ内の現用系サーバ120との組合せを生成する。
 処理対象の識別情報としてクラスタの識別子を受信した場合、チェックリスト生成部211は、指定されたクラスタに所属する現用系サーバ120及び予備系サーバ120の組合せを所定数生成する。
 ここで、生成されるチェックペアの数、及び生成されるチェックペアの条件は任意に設定できる。例えば、現用系サーバ120及び予備系サーバ120の全ての組合せをチェックペアとして生成してもよい。この場合、生成されるチェックペアの数は、現用系サーバの数と予備系サーバの数とを乗算した数となる。また、各現用系サーバ120に対して一つの予備系サーバ120との組合せをチェックペアとして生成してもよい。この場合、生成されるチェックペアの数は現用系サーバ120の数となる。
 以上が、ステップS1102の処理である。
 次に、チェックリスト生成部211は、クラスタチェックテーブル251に、生成されたチェックペアの情報を登録する(ステップS1103)。具体的には、以下のような処理が実行される。
 チェックリスト生成部211は、クラスタチェックテーブル251にチェックペアごとに新たなエントリを生成する。チェックリスト生成部211は、生成されたエントリのペアID601に所定の識別子を格納する。ここでは、昇順になる識別子が格納されるものとする。
 次に、チェックリスト生成部211は、新たに生成されたエントリに必要な情報を格納する。具体的には、クラスタID602、現用系サーバID603、及び予備系サーバID604のそれぞれに識別子が格納される。この時点では、その他のカラムは、空欄のままである。
 なお、既にチェックペアに対応するエントリが存在する場合、チェックリスト生成部211は、クラスタチェックテーブル251への登録は行わなくてよい。
 以上が、ステップS1103の処理である。
 次に、チェックリスト生成部211は、新たに追加されたエントリのチェックフラグ605及びLUフラグ606に「未」を設定する(ステップS1104)。
 チェックリスト生成部211は、情報比較部213に処理完了通知を送信し(ステップS1105)、処理を終了する。
 なお、クラスタが構築された時点において、チェックリスト生成部211が、当該クラスタ内に所属する現用系サーバ120及び予備系サーバ120の全ての組合せをチェックペアとして登録しておき、必要に応じて情報を更新してもよい。
 また、管理サーバ100は、後述するフェイルオーバの可否判定処理の実行時にクラスタチェックテーブル251にチェックペアが存在するか否かを確認し、チェックペアが存在しない場合に、チェックリスト生成部211が新たにチェックペアを追加するようにしてもよい。
 図12は、本発明の実施例1における管理サーバ100の情報比較部213が実行する処理の一例を説明するフローチャートである。
 情報比較部213は、クラスタチェックテーブル251を参照して(ステップS1201)、チェックフラグ605が「未」であるエントリを一つ選択する(ステップS1202)。ステップS1202からステップS1212の処理は、チェックフラグ605のループ処理であり、全てのエントリのチェックフラグ605に「済」が格納されるまで繰り返し実行される。
 情報比較部213は、選択されたエントリのLUフラグ606が「済」であるか否かを判定する(ステップS1203)。すなわち、確認用構成情報が取得済みであるか否かが判定される。LUフラグ606が「済」である場合、確認用構成情報が取得済みであること示す。
 選択されたエントリのLUフラグ606が「済」であると判定された場合、情報比較部213は、ステップS1206に進む。
 選択されたエントリのLUフラグ606が「済」でないと判定された場合、情報比較部213は、情報受信部214に、選択されたエントリのクラスタID702を含む処理開始指示を送信する(ステップS1204)。その後、情報比較部213は、情報受信部214から処理完了通知を受信するまで待機する。
 情報比較部213は、情報受信部214から処理完了通知を受信した後(ステップS1205)、ステップ1206に進む。
 情報比較部213は、クラスタチェックテーブル251及び管理対象テーブル250を参照し(ステップS1206)、フェイルオーバが可能か否かを判定する(ステップS1207)。すなわち、フェイルオーバの可否判定処理が実行される。具体的には、以下のような処理が実行される。
 情報比較部213は、クラスタチェックテーブル251を参照して、選択されたエントリの現用系サーバID603及び予備系サーバID604を取得する。
 情報比較部213は、管理対象テーブル250を参照して、サーバID501が取得された現用系サーバID603と一致するエントリ、及びサーバID501が取得された予備系サーバID604と一致するエントリを検索する。
 次に、以下のような二つの比較処理を含むフェイルオーバの可否判定処理が実行される。
 (比較1)情報比較部213は、管理対象テーブル250における現用系サーバ120のエントリのモデル503及び構成情報504と、予備系サーバ120のエントリのモデル503及び構成情報504とを比較する。
 (比較2)情報比較部213は、管理対象テーブル250における現用系サーバのエントリのLU情報506と、クラスタチェックテーブル251における選択されたエントリの取得情報609とを比較する。
 (比較1)の比較処理では、現用系サーバ120及び予備系サーバ120におけるサーバ120の型等が一致するか否かが判定される。また、(比較2)の比較処理では、現用系サーバ120がアクセスするLU135と、予備系サーバ120がアクセス可能なLU135とが一致するか否かが判定される。
 (比較2)の比較処理は、より具体的には、予備系サーバ120が、現用系サーバ120が実行している業務を引き継ぐことができるか否かを判定するための処理である。すなわち、予備系サーバ120が、現用系サーバ120が使用するLU135に完全にアクセス可能である場合には、フェイルオーバ処理後も、業務を引き継ぐことができる。一方、予備系サーバ120が、現用系サーバ120が使用するLU135にアクセスできない場合、又は、一部のLU135にアクセスできない場合には、フェイルオーバ処理後、業務に影響を与える可能性がある。
 そのため、(比較2)の比較処理では、現用系サーバ120がアクセスするLU135と、予備系サーバ120によって取得されたLU135が一致するか否かが判定される。
 本実施例では、(比較2)の比較処理において、LU情報506と取得情報609とが完全に一致している場合に、現用系サーバ120がアクセスするLU135と予備系サーバ120がアクセス可能なLU135とが一致すると判定する。ただし、本発明は、前述した判定基準に限定されない。
 例えば、OS311が格納されるLU135の情報が一致する場合、又は、アプリケーション312が格納されるLU135の情報が一致する場合でも、業務の引き継ぎが可能であるため、現用系サーバ120がアクセスするLU135と予備系サーバ120がアクセス可能なLU135とが一致すると判定されてもよい。
 なお、情報取得アプリケーション123によって、LU135の構成及び予備系サーバ120の型等を含む確認用構成情報が取得される場合には、管理対象テーブル250における現用系サーバ120のエントリのモデル503及び構成情報504と、チェックテーブル221の選択されたエントリの取得情報609とを比較すればよい。これによって、(比較1)及び(比較2)の両方の比較処理を実行した場合と同等の処理が実現できる。
 なお、ステップS1207では、情報比較部213は、前述した比較処理以外に、現用系サーバ120又は予備系サーバ120がフェイルオーバ機能に対応していないサーバの型であるか否かを判定し、また、予備系サーバ120が稼働中であるためフェイルオーバ処理が実行できない状態であるか否かを判定することができる。
 フェイルオーバが不可能であると判定された場合、情報比較部213は、選択されたエントリの確認結果607に「不可」を格納し、理由608にフェイルオーバが不可能である理由を格納し(ステップS1208)、ステップS1210に進む。
 例えば、(比較2)の比較処理の結果、現用系サーバ120と予備系サーバ120との間でLU135の情報が一致しないと判定された場合、情報比較部213は、予備系サーバ120が現用系サーバ120に割り当てられたLU135にアクセスできないと判定し、カラム708に「LUアクセス不可」を格納する。
 フェイルオーバが可能であると判定された場合、情報比較部213は、選択されたエントリの確認結果607に「可」を格納し(ステップS1209)、ステップS1210に進む。
 情報比較部213は、選択されたエントリのLUフラグ606に「済」を格納する(ステップS1210)。
 情報比較部213は、クラスタチェックテーブル251の全てのエントリのチェックフラグ605が「済」であるか否かを判定する(ステップS1211)。
 クラスタチェックテーブル251の全てのエントリのチェックフラグ605が「済」でないと判定された場合、情報比較部213は、ステップS1203に戻り、チェックフラグ605が「未」のエントリを一つ選択し、同様の処理を実行する。
 クラスタチェックテーブル251の全てのエントリのチェックフラグ605が「済」であると判定された場合、情報比較部213は、ループ処理を終了し(ステップS1212)、優先度設定部217に処理完了通知を送信し(ステップS1213)、処理を終了する。当該処理完了通知には、処理単位であるクラスタの識別子が含まれる。
 図13A、図13B、図13Cは、本発明の実施例1における管理サーバ100の情報受信部214が実行する処理の一例を説明するフローチャートである。
 情報受信部214は、受信したクラスタの識別子に基づいて管理対象テーブル250を参照し(ステップS1301)、受信したクラスタの識別子に対応するクラスタに所属する予備系サーバ120のWWNを取得する(ステップS1302)。
 具体的には、情報受信部214は、クラスタID508が受信したクラスタの識別子と一致するエントリを検索する。情報受信部214は、検索されたエントリの種別509に「予備系」が格納されるエントリを選択する。さらに、情報受信部214は、選択されたエントリのWWN505から予備系サーバ120のWWNを取得する。クラスタに複数の予備系サーバ120が所属する場合、複数のWWNが取得される。
 ステップS1303からステップS1308は、クラスタに所属する現用系サーバ120のループ処理であり、クラスタに所属する全ての現用系サーバ120に対して処理が完了するまで繰り返し実行される。
 情報受信部214は、受信したクラスタの識別子に対応するクラスタに所属する現用系サーバ120を一つ選択し、選択された現用系サーバ120のWWNを取得する(ステップS1304)。
 具体的には、情報受信部214は、管理対象テーブル250を参照して、当該クラスタに所属する現用系サーバ120のエントリのWWN505から現用系サーバ120のWWNを取得する。
 情報受信部214は、ストレージ操作部216に、追加処理開始指示を送信する(ステップS1305)。当該指示には、ステップS1304において取得された現用系サーバ120のWWNと、ステップS1302において取得された全ての予備系サーバ120のWWNとが含まれる。情報受信部214は、ストレージ操作部216から処理完了通知を受信まで待機する。
 情報受信部214は、ストレージ操作部216から処理完了通知を受信すると(ステップS1306)、受信したクラスタの識別子に対応するクラスタに所属する全ての現用系サーバ120に対して処理が実行されたか否かを判定する(ステップS1307)。
 全ての現用系サーバ120に対して処理が実行されていないと判定された場合、情報受信部214は、ステップS1305に戻り、新たに現用系サーバ120を選択して同様の処理を実行する。
 全ての現用系サーバ120に対して処理が実行されたと判定された場合、情報受信部214は、受信したクラスタの識別子に対応するクラスタに所属する予備系サーバ120に対して情報取得アプリケーション123の起動指示を送信する(ステップS1309)。
 ステップS1311からステップS1316では、クラスタに所属する全ての予備系サーバ120が処理を終了するまで繰り返し実行される。
 情報受信部214は、予備系サーバ120から、情報取得アプリケーション123によって取得された確認用構成情報を受信する(ステップS1312)。
 受信した確認用構成情報は、少なくとも、現用系サーバ120がアクセスするLU135の情報及び情報取得時間が含まれる。なお、受信した確認用構成情報には、現用系サーバ120又は予備系サーバ120のサーバ型及びI/O数等の情報も含まれてもよい。
 なお、予備系サーバ120は、情報取得アプリケーション123によって取得された情報とともに、自身の識別子を送信する。これによって、情報受信部214は、どの予備系サーバ120から送信された確認用構成情報であるかを把握できる。
 情報受信部214は、受信した確認用構成情報に基づいて、クラスタチェックテーブル251を更新する(ステップS1313)。
 具体的には、情報受信部214は、確認用構成情報に含まれるLU135の情報を取得情報609に格納し、確認用構成情報に含まれる情報取得時間を取得時間610に格納する。
 なお、一つの予備系サーバ120上で稼働する情報取得アプリケーション123は、ペアとなっている複数の現用系サーバ120のLU135の情報等を取得できる。したがって、情報受信部214は、複数の確認用構成情報を受信した場合、受信した確認用構成情報の数だけ各エントリを更新する。
 情報受信部214は、クラスタチェックテーブル251の更新されたエントリのLUフラグ606を「済」に変更する(ステップS1314)。
 ここで、LUフラグ606を変更する理由は、一つの予備系サーバ120上で稼働する情報取得アプリケーション123が複数の現用系サーバ120のLU135の情報等を取得するため、同一の確認用構成情報が重複して取得されるのを回避する目的である。すなわち、チェックペアごとに情報を取得した場合に同一の情報が取得されることを抑止するためである。
 情報受信部214は、受信したクラスタの識別子に対応する全てのエントリのLUフラグ606が「済」であるか否かを判定する(ステップS1315)。
 全てのエントリのLUフラグ606が「済」でないと判定された場合、情報受信部214は、ステップS1312に戻り同様の処理を実行する。なお、予備系サーバ120からの情報が送信されない場合も考えられるため、情報受信部214は、一定時間経過した後に、ステップ1316に進むようにしてもよい。
 全てのエントリのLUフラグ606が「済」であると判定された場合、情報受信部214は、情報取得アプリケーション123のループ処理が終了し(ステップS1316)、受信したクラスタの識別子に対応するクラスタに所属する現用系サーバ120を一つ選択する(ステップS1321)。ステップS1321からステップS1325は、現用系サーバ120のループ処理であり、全ての現用系サーバ120に対して処理が完了するまで繰り返し処理が実行される。
 情報受信部214は、ストレージ操作部216に、削除処理開始指示を送信する(ステップS1322)。当該指示には、選択された現用系サーバ120のWWNと、ステップ1302において取得された全ての予備系サーバ120のWWNとが含まれる。情報受信部214は、当該指示の送信後、ストレージ操作部216から処理完了通知を受信するまで待機する。
 情報受信部214は、ストレージ操作部216から処理完了通知を受信すると(ステップS1323)、受信したクラスタの識別子に対応するクラスタに所属する全ての現用系サーバ120に対して処理が実行されたか否かを判定する(ステップS1324)。
 全ての現用系サーバ120に対して処理が実行されていないと判定された場合、情報受信部214は、ステップS1322に戻り、現用系サーバ120を一つ選択して同様の処理を実行する。
 全ての現用系サーバ120に対して処理が実行されていると判定された場合、情報受信部214は、情報比較部213に処理完了通知を送信し(ステップS1326)、処理を終了する。
 図14は、本発明の実施例1における管理サーバ100のストレージ操作部216が実行する処理の一例を説明するフローチャートである。
 ストレージ操作部216は、情報受信部214から処理開始指示を受信すると処理を開始する。
 ストレージ操作部216は、ストレージ装置130から、受信した処理開始指示に含まれる現用系サーバ120が所属するホストグループの情報を取得する(ステップS1401)。
 具体的には、ストレージ操作部216は、ストレージ装置130に対して現用系サーバ120のWWNを含む問い合わせを行う。
 このとき、ストレージ装置130は、当該問い合わせに含まれる現用系サーバ120のWWNに基づいて、ホストグループテーブル412から現用系サーバ120が所属するホストグループID701を検索する。さらに、ストレージ装置130は、ストレージ操作部216に対してホストグループID701を含む応答を送信する。
 なお、現用系サーバ120のWWNと対応づけられたホストグループID701等の情報が管理対象テーブル250に含まれる場合、ステップS1401の処理を省略することができる。この場合、ストレージ操作部216は、直接、ホストグループID701を特定することができる。
 ストレージ操作部216は、受信した処理開始指示が追加処理開始指示であるか否かを判定する(ステップS1402)。
 受信した処理開始指示が追加処理開始指示でない、すなわち、削除処理開始指示であると判定された場合、ストレージ操作部216は、ホストグループ制御部411に対して、予備系サーバ120のWWNの削除指示を送信する(ステップS1403)。
 具体的には、ストレージ操作部216は、取得されたホストグループID701に対応するホストグループから予備系サーバ120のWWNを削除するように指示する。当該指示には、取得されたホストグループID701が含まれる。ストレージ操作部216は、当該指示の送信後、ホストグループ制御部411から処理完了通知を受信するまで待機する。
 なお、予備系サーバのWWNを削除する必要がない場合は、本処理を省略して、ステップ1405に進んでもよい。
 受信した処理開始指示が追加処理開始指示であると判定された場合、ストレージ操作部216は、ホストグループ制御部411に対して、予備系サーバ120のWWNの追加指示を送信する(ステップS1404)。
 具体的には、ストレージ操作部216は、取得されたホストグループID701に対応するホストグループに、参照権限を付与して予備系サーバ120のWWNを追加するように指示する。当該指示には、取得されたホストグループID701及び予備系サーバ120のWWNが含まれる。ストレージ操作部216は、当該指示の送信後、ホストグループ制御部411から処理完了通知を受信するまで待機する。
 ストレージ操作部216は、ホストグループ制御部411から処理完了通知を受信すると(ステップS1405)、情報受信部214に処理完了通知を送信する(ステップS1406)。その後、ストレージ操作部216は処理を終了する。
 なお、本実施例では、ストレージ操作部216は、ホストグループ制御部411に操作指示を送信することによって、ホストグループテーブル412を更新しているが、本発明はこれに限定されない。
 例えば、ストレージ操作部216が、API(Application Program Interface)を用いて、ホストグループテーブル412に対する具体的な操作指示を送信してもよい。また、ストレージ操作部216が、ホストグループテーブル412を取得し、APIを用いて、ホストグループテーブル412に対して予備系サーバ120のWWNを追加し、又は、削除してもよい。
 図15は、本発明の実施例1におけるストレージ装置130のホストグループ制御部411が実行する処理の一例を説明するフローチャートである。
 ホストグループ制御部411は、ストレージ操作部216から操作指示を受信すると処理を開始する。
 ホストグループ制御部411は、受信した操作指示にしたがって、ホストグループテーブル412を更新する(ステップS1501)。受信した操作指示によって以下のように処理が分岐する。
 受信した操作指示が削除指示である場合、ホストグループ制御部411は、削除指示に含まれるホストグループID701に基づいて対象となるホストグループのエントリを検索する。ホストグループ制御部411は、検索されたホストグループのエントリから、削除指示に含まれる予備系サーバ120のWWNを削除する。
 受信した操作指示が追加指示である場合、ホストグループ制御部411は、追加指示に含まれるホストグループID701に基づいて対象となるホストグループのエントリを検索する。ホストグループ制御部411は、検索されたホストグループのエントリに、追加指示に含まれる予備系サーバ120のWWNを追加する。
 このとき、コントローラID703、ポートID704及びLU ID705には、他のWWNのエントリと同一のものが格納される。また、権限706には参照権限を示す「Read」が格納される。
 なお、ストレージ操作部216がAPIを用いて具体的な操作指示を送信した場合、ホストグループ制御部411は、前述した処理を実行する必要はなく、受信した操作指示にしたがって、予備系サーバ120のWWNを追加し、又は、削除する。
 以上が、ステップS1501の処理である。
 ホストグループ制御部411は、ホストグループテーブル412が更新された後、ストレージ操作部216に対して処理完了通知を送信し(ステップS1502)、処理を終了する。
 図16は、本発明の実施例1における情報取得アプリケーション123が実行する処理の一例を説明するフローチャートである。
 予備系サーバ120は、情報受信部214から起動指示を受信した場合に情報取得アプリケーション123を起動する。
 情報取得アプリケーション123は、確認用構成情報を取得する(ステップS1601)。具体的には、以下のような処理が実行される。
 確認用構成情報に含まれるLU135の情報を取得する場合、情報取得アプリケーション123は、ストレージ装置130に対して所定のコマンドを発行する。例えば、Inquiry情報を取得するコマンドなどが考えられる。このとき、情報取得アプリケーション123は、コマンドに対する応答時間を情報取得時間として算出する。
 また、情報取得アプリケーション123が、LU135をマウントして、LU135内の情報を参照することによって、LU135の情報を取得してもよい。また、予め現用系サーバ120がアクセスするLU135に確認用プログラムを格納しておき、当該プログラムを実行して情報を取得してもよい。
 情報取得アプリケーション123は、情報受信部214に対して、取得された確認用構成情報を送信し(ステップS1602)、処理を終了する。
 なお、処理終了後、予備系サーバ120は、電源をOFFの状態にしてもよい。また、情報取得アプリケーション123が起動しないように設定を変更もよい。
 なお、情報取得アプリケーション123が、予め現用系サーバ120のLU情報等の構成情報を管理サーバ100から取得し、取得された構成情報と、確認用構成情報とを比較することによって、フェイルオーバが可能か否かを判定してもよい。フェイルオーバの可否判定処理は、ステップS1207の処理と同一のものを用いればよい。
 この場合、情報比較部213は、ステップS1207において、比較処理を実行する必要はなく、情報取得アプリケーション123から送信された判定結果に基づいてフェイルオーバが可能か否かを判定すればよい。
 図17は、本発明の実施例1における管理サーバ100の優先度設定部217が実行する処理の一例を説明するフローチャートである。
 優先度設定部217は、情報比較部213から処理完了通知を受信すると、処理を開始する。
 優先度設定部217は、受信した処理完了通知に含まれるクラスタの識別子に基づいて、クラスタチェックテーブル251を参照する(ステップS1701)。
 優先度設定部217は、受信したクラスタの識別子に対応するクラスタに所属する現用系サーバ120を一つ選択する(ステップS1702)。ステップS1702からステップS1706は、現用系サーバ120のループ処理であり、全ての現用系サーバ120に対して処理が完了するまで繰り返し処理が実行される。
 優先度設定部217は、選択された現用系サーバ120に関連するチェックペアを抽出する(ステップS1703)。
 具体的には、優先度設定部217は、クラスタチェックテーブル251を参照して、現用系サーバID603が選択された現用系のサーバ120の識別子と一致するエントリを検索する。
 優先度設定部217は、検索されたチェックペアのうち、フェイルオーバが可能であると判定されたチェックペアを選択する(ステップS1704)。
 具体的には、優先度設定部217は、検索されたチェックペアに対応するエントリの確認結果607に「可」が格納されるエントリを選択する。
 優先度設定部217は、選択されたチェックペアに対して優先度を設定する(ステップS1705)。
 具体的には、優先度設定部217は、選択されたチェックペアに対応するエントリの取得時間610を参照し、当該値が短いものから順に高い優先度を設定する。本実施例では、優先度を数字で表しており、数字が小さいと優先度を高く、数字が大きいと優先度が低くなるように設定される。
 なお、取得時間610の値が同一のチェックペアについては、優先度設定部217は、ペアID601、又は予備系サーバID604に基づいて、優先度を設定すればよい。例えば、ペアID601が小さいエントリに対して高い優先度を設定する方法が考えられる。
 全ての現用系サーバ120について処理が完了した場合(ステップS1706)、優先度設定部217は、処理通知部218に処理完了通知を送信し(ステップS1707)、処理を終了する。
 図18は、本発明の実施例1における管理サーバ100の処理通知部218が実行する処理の一例を説明するフローチャートである。
 処理通知部218は、優先度設定部217から処理完了通知を受信すると、処理を開始する。
 処理通知部218は、管理者に対してクラスタ確認処理が完了した旨を通知し(ステップS1801)、処理を終了する。
 通知方法としては、管理サーバ100が備えるディスプレイ等の出力装置に処理結果を表示してもよいし、クライアント端末190のディスプレイ等に処理結果を表示してもよい。また、メール又はアラートを管理者に送信する方法も考えられる。
 実施例1によれば、現用系サーバ120と予備系サーバ120との間で実際にフェイルオーバ処理を実行することなく、フェイルオーバが可能か否かを判定することができる。
<変形例>
 実施例1では、ステップS1207の判定処理において、情報比較部213が、現用系サーバ120がアクセスするLU135の情報と、予備系サーバ120がアクセス可能なLU135の情報とを比較することによって、フェイルオーバが可能か否かを判定していた。本発明はこれに限定されず、以下のような方法を用いることも可能である。
 ステップS1601において、予備系サーバ120上の情報取得アプリケーション123が、LU135に接続可能か否かを問い合わせるコマンドをストレージ装置130に送信する。当該コマンドには、予備系サーバ120のWWNが含まれる。
 ストレージ装置130のホストグループ制御部411は、問い合わせのコマンドを受信すると、情報取得アプリケーション123に対して当該コマンドに対する応答を送信する。
 ステップ1602において、情報取得アプリケーション123は、ストレージ装置130から応答を受信すると、情報受信部214に、フェイルオーバが可能である旨の通知を送信する。
 前述した処理を実行することによって、実施例1の処理より高速にフェイルオーバが可能か否かを判定することができる。
<実施例2>
 実施例1では、予備系サーバ120が予め情報取得アプリケーション123を保持していたが、実施例2では管理サーバ100が情報取得アプリケーション123を保持する点が異なる。
 実施例2の計算機システムの構成、並びに、管理サーバ100、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例2では、予備系サーバ120が備えるPXE(Preboot eXecution Environment)ブート機能を用いて情報取得アプリケーション123を起動させる。具体的には、管理サーバ100が、管理ネットワークを経由して、予備系サーバ120を起動させ、当該予備系サーバ120に情報取得アプリケーション123を送信する。
 実施例2では、ステップ1309の処理が変更される。
 情報受信部214は、受信したクラスタの識別子に対応するクラスタに所属する予備系サーバ120に対して起動を指示する。なお、当該起動の指示には、電源をON状態にする旨の指示が含まれる。
 情報受信部214は、起動した予備系サーバ120から情報取得アプリケーション123の送信要求を受信すると、当該予備系サーバ120に対して、情報取得アプリケーション123を送信する。
 その他の構成部の処理は、実施例1と同一であるため説明を省略する。
 実施例2によれば、予め、予備系サーバ120に対して情報取得アプリケーション123を格納する手間を削減し、情報取得アプリケーション123を格納するため予備系サーバ120の記憶リソースを削減できる。また、情報取得アプリケーション123を起動させるためのBIOS又はUEFIに対する設定の手間を削減することが可能となる。
<実施例3>
 実施例3では、ストレージ装置130内の専用記憶領域に情報取得アプリケーション123を格納する点が異なる。
 実施例3の計算機システムの構成、並びに、管理サーバ100、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例3では、予備系サーバ120が、ストレージ装置130の内の専用記憶領域から情報取得アプリケーション123を取得し、かつ、起動する。
 なお、専用記憶領域は、ストレージ装置130に予め用意してもよいし、必要に応じて情報取得アプリケーション123を格納するLUを生成してもよい。実施例3では、ストレージ装置130内に、情報取得アプリケーション123を格納するテスト用LUを生成する。
 また、実施例3では、ホストグループテーブル412に、テスト用LUが所属するホストグループのエントリが追加される。
 実施例3では、ステップS1403及びステップS1404の処理が変更される。
 ステップS1404の処理において、ストレージ操作部216は、ホストグループ制御部411に、テスト用LUが所属するホストグループ、及び取得されたホストグループID701に対応するホストグループに、参照権限を付与して予備系サーバ120のWWNを追加するように指示する。
 また、ステップ1403の処理において、ストレージ操作部216は、ホストグループ制御部411に、テスト用LU135が所属するホストグループ、及び取得されたホストグループID701に対応するホストグループから、予備系サーバ120のWWNを削除するように指示する。
 なお、テスト用LUが接続された状態を保ち続ける場合、テスト用LUが所属するホストグループから予備系サーバ120のWWNを削除しなくてもよい。また、テスト用LUが所属するホストグループに、予め、予備系サーバのWWNが登録されていてもよい。
 その他の構成部の処理は、実施例1と同一であるため説明を省略する。
 実施例3によれば、予め、予備系サーバ120に対して情報取得アプリケーション123を格納する手間の削減し、情報取得アプリケーション123を格納するための予備系サーバの記憶リソースを削減できる。また、情報取得アプリケーション123を起動させるためのBIOSやUEFIに対する設定の手間を削減することが可能となる。
<実施例4>
 実施例4では、予め、予備系サーバ120に接続された外部記憶装置に情報取得アプリケーション123を格納する点が異なる。
 計算機システムの構成、並びに、管理サーバ100、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例4では、予備系サーバ120が、外部の記憶装置から情報取得アプリケーションを取得し、かつ、起動する。なお、外部記憶装置は、不揮発性半導体メモリ、HDD若しくはSSD等の記憶デバイス、又は、ICカード、SDカード若しくはDVD等の計算機読み取り可能な非一時的記憶媒体等が考えられる。
 実施例4では、ステップ1309の処理が変更される。
 ステップ1309の処理では、情報受信部214は、受信したクラスタの識別子に対応するクラスタに所属する予備系サーバ120を起動させる。なお、当該起動の指示には、電源をON状態にする旨の指示が含まれる。
 さらに、情報受信部214は、情報取得アプリケーション123が格納された外部記憶装置から起動されるように、予備系サーバ120の起動順序(ブートローダ)を変更する。例えば、情報受信部214は、予備系サーバ120のBIOS又はUEFIを用いて、起動順序を変更することが可能である。
 その他の構成部の処理は、実施例1と同一であるため説明を省略する。
 実施例4によれば、予備系サーバ120に外部記憶装置を接続することによって、予備系サーバ120上で情報取得アプリケーション123を稼動させることが可能となる。
<実施例5>
 実施例5では、現用系サーバ120がアクセスするLU135内に情報取得アプリケーション123を格納する点が異なる。
 計算機システムの構成、並びに、管理サーバ100、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例5では、予備系サーバ120が、現用系サーバ120がアクセスするLU135から情報取得アプリケーション123を取得し、かつ、起動する。
 実施例5では、現用系サーバ120がアクセスするLU135が、現用系サーバ120が使用する記憶領域、及び情報取得アプリケーション123を格納する記憶領域を含む。この場合、LU135の生成時に、ストレージ装置130がLU135内に専用記憶領域を生成し、情報取得アプリケーション123を格納する方法が考えられる。
 実施例5では、ステップ1309の処理が変更される。
 ステップ1309の処理では、情報受信部214は、受信したクラスタの識別子に対応するクラスタに所属する予備系サーバ120を起動させる。なお、当該起動の指示には、電源をON状態にする旨の指示が含まれる。
 さらに、情報受信部214は、予備系サーバ120に対して、専用記憶領域から、情報取得アプリケーション123を起動するように指示する。例えば、情報受信部214は、予備系サーバ120のBIOS又はUEFIを用いて、情報取得アプリケーション123を起動させる記憶領域を変更することが可能である。
 また、情報取得アプリケーション123は、取得した確認用構成情報を専用記憶領域に格納し、管理サーバ100が専用記憶領域から確認用構成情報を取得してもよい。
 なお、その他の構成部の処理は、実施例1と同一であるため説明を省略する。
 実施例5によれば、予備系サーバ120が情報取得アプリケーション123を保持することなく、予備系サーバ120上で情報取得アプリケーション123を稼動させることが可能となる。
<実施例6>
 実施例1では、取得時間610に基づいて優先度を設定していたが、実施例6では、ストレージ装置130のポート134の性能情報に基づいて優先度を設定する点が異なる。
 計算機システムの構成、並びに、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例6では、管理サーバ100が保持するクラスタチェックテーブル251の構成が異なる。なお、管理サーバ100のハードウェア構成及びその他のソフトウェア構成は実施例1と同一であるため説明を省略する。
 図19A及び図19Bは、本発明の実施例6におけるクラスタチェックテーブル251の一例を示す説明図である。
 実施例6におけるクラスタチェックテーブル251は、ストレージID1901及びポートID1902を含む点が実施例1と異なる。
 ストレージID1901は、予備系サーバ120と接続されるストレージ装置130を一意に識別するための識別子を格納する。ポートID1902は、ストレージ装置130が有するポート134を一意に識別するための識別子を格納する。予備系サーバ120は、ポートID1902に対応するポート134を経由してLU135にアクセスする。
 図20は、本発明の実施例6におけるポート性能テーブル252の一例を示す説明図である。
 ポート性能テーブル252は、サーバ120がストレージ装置130に接続する場合に用いられるポート134の性能情報を格納する。具体的には、ポート性能テーブル252は、ストレージID2001、ポートID2002、測定時間2203及びIOPS2004を含む。
 ストレージID2001及びポートID2002は、ストレージID1901及びポートID1902と同一のものである。なお、ストレージID2001に格納されるデータは、本テーブルで使用される各カラムのいずれか、又は複数カラムを組合せたものを指定することによって省略することができる。また、管理サーバ100は、各ストレージ装置130に昇順となる識別番号を識別子として自動的に割り当ててもよい。
 測定時間2003は、ポート134の性能情報の測定時間を格納する。なお、測定時間は、ストレージ装置130内において性能情報が取得された時間でもよいし、管理サーバ100がストレージ装置130の管理インタフェース131を介して性能情報を取得した時間でもよい。
 IOPS2004は、ポート134の性能情報を格納する。本実施例では、ポート134の性能情報として、IOPS(Input Output Per Second)を用いている。ここでいうIOPSは測定時間2003における使用状況を表す指標である。また,本実施例では,IOPSを用いているが、読出データの転送量、又は書込データの転送量等をポート134の性能情報として用いてもよい。
 ここで、実施例6における優先度設定部217が実行する処理について説明する。
 ステップS1701からステップS1704までの処理は実施例1と同一の処理である。
 優先度設定部217は、ステップS1704の処理の後に、選択されたチェックペアに対応するエントリからストレージID1901及びポートID1902を取得する。
 優先度設定部217は、取得されたストレージID1901及びポートID1902に基づいてポート性能テーブル252を参照し、ストレージID2001及びポートID2002が取得されたストレージID1901及びポートID1902と一致するエントリを検索する。さらに、優先度設定部217は、検索されたエントリのIOPS2004からIOPSの値を取得する。
 その後、ステップS1705において、優先度設定部217は、取得されたIOPSの値に基づいて優先度を設定する。
 具体的には、優先度設定部217は、測定時間2003の時間が最新であるエントリのIOPS2004の値を比較し、IOPS2004の値が小さいものから順に高い優先度を設定する。
 なお、優先度設定部217は、同一のポートの一致期間のIOPSの平均値又は変化量等の値を算出し、算出された値に基づいて優先度を設定してもよい。
 ステップS1706及びステップS1707の処理は実施例1と同一であるため説明を省略する。また、その他の構成部の処理は、実施例1と同一であるため説明を省略する。
 実施例6によれば、ストレージ装置130のポートの性能情報を参照することによって、フェイルオーバ後に予備系サーバのパフォーマンスが低下して、予備系サーバ120上で実行される業務への影響を未然に防ぐことを可能となる。
<実施例7>
 実施例1では、取得時間610に基づいて優先度を設定していたが、実施例7では、予備系サーバ120とストレージ装置130とを接続するネットワーク経路におけるコスト、すなわち、パスコストに基づいて優先度を設定する点が異なる。
 計算機システムの構成、並びに、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例7では、管理サーバ100が保持するクラスタチェックテーブル251の構成が異なる。なお、管理サーバ100のハードウェア構成及びその他のソフトウェア構成は実施例1と同一であるため説明を省略する。
 図21A及び図21Bは、本発明の実施例7におけるクラスタチェックテーブル251の一例を示す説明図である。
 実施例7におけるクラスタチェックテーブル251は、ストレージID1901、ポートID1902及びパスコスト2101を含む点が実施例1と異なる。ストレージID1901及びポートID1902は、第6実施例において説明しているため省略する。
 なお、図21A及び図21Bでは、説明の簡単のために、チェックフラグ605、LUフラグ606、確認結果607、及び理由608を省略している。
 パスコスト2101は、予備系サーバ120とストレージ装置130とを接続するネットワーク経路のコスト、すなわち、パスコストの値を格納する。パスコストは、最短のネットワーク経路を表す指標である。例えば、ネットワーク経路におけるホップ数、又は、ネットワーク経路に含まれるスイッチの数等が考えられる。
 ここで、実施例6における優先度設定部217が実行する処理について説明する。
 ステップS1701からステップS1704までの処理は実施例1と同一の処理である。
 優先度設定部217は、ステップS1704の処理の後に、選択されたチェックペアに対応するエントリから、予備系サーバID604、ストレージID1901及びポートID1902を取得する。
 優先度設定部217は、ネットワーク管理部111に対して、取得された予備系サーバID604、ストレージID1901及びポートID1902を含むパスコストの問い合わせを行う。
 優先度設定部217は、ネットワーク管理部111から全ての予備系サーバ120についての応答を受信するまで待機する。また、優先度設定部217は、ネットワーク管理部111から応答を受信すると、当該応答に基づいて、クラスタチェックテーブル251の対応するエントリのパスコスト2101を更新する。
 その後、ステップS1705において、優先度設定部217は、パスコスト2101の値に基づいて優先度を設定する。
 具体的には、優先度設定部217は、パスコスト2101の値を比較し、パスコスト2101の値が低いものから順に高い優先度を設定する。
 ステップS1706及びステップS1707の処理は実施例1と同一であるため説明を省略する。
 次に、ネットワーク管理部111が実行する処理について説明する。
 図22は、本発明の実施例7におけるNW-SW110のネットワーク管理部111が実行する処理の一例を説明するフローチャートである。
 ネットワーク管理部111は、優先度設定部217からパスコストの問い合わせを受信すると処理を開始する。
 ネットワーク管理部111は、受信した問い合わせに含まれる予備系サーバID604、ストレージID1901、及びポートID1902に基づいてパスコストを取得する(ステップS2201)。
 例えば、ネットワーク管理部111は、サーバ120の識別子、ストレージ装置130の識別子、ポート134の識別子、及びネットワーク経路の構成を対応づけた情報を保持し、当該情報からネットワーク経路に含まれるスイッチの数をパスコストとして取得する方法が考えられる。
 この場合、ネットワーク管理部111は、受信した予備系サーバID604、ストレージID1901、及びポートID1902に基づいて、予備系サーバ120とストレージ装置130との間のネットワーク経路を特定する。ネットワーク管理部111は、特定されたネットワーク経路に含まれるスイッチの数をカウントすることによってパスコストを取得する。
 ネットワーク管理部111は、優先度設定部217に、取得されたパスコストを送信し(ステップS2202)、処理を終了する。
 なお、NW-SW110がネットワーク管理部111を備えるものとして説明したが、本発明は、これに限定されない。例えば、管理サーバ100がネットワーク管理部111を備えていてもよい。
 実施例7によれば、パスコストの低いネットワーク経路を介してストレージ装置130と接続される予備系サーバ120の優先度を高く設定することによって、予備系サーバ120がフェイルオーバ処理後、ネットワーク性能が高い現用系サーバ120として稼働することができる。これは、パスコストが低いため、サーバ120とストレージ装置130との間の通信に遅延等が生じないためである。
<実施例8>
 実施例1では、予め、複数のクラスタが構成され、既存のクラスタに対してクラスタ確認処理を実行するものであった。実施例8では、クラスタを構成する場合に、管理サーバ100が、フェイルオーバの可否判定処理を実行し、クラスタを構成するサーバ120の候補を提示する点が異なる。
 計算機システムの構成、並びに、管理サーバ100、サーバ120、及びストレージ装置130のハードウェア構成及びソフトウェア構成は、実施例1と同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例8では、契機受信部215、チェックリスト生成部211、及び処理通知部218が実行する処理が異なる。以下、それぞれの処理について説明する。
 実施例8では、契機受信部215の処理開始の契機が異なる。具体的には、管理者は、予め、クラスタを構成するサーバ120の候補を選択し、当該選択されたサーバ120の識別子を含むクラスタ確認処理の開始指示を入力する。
 選択されるサーバ120の候補としては、現用系サーバ120又は予備系サーバ120の二種類が考えられる。
 管理者は、冗長化されたシステムを実現したい場合に、現用系サーバ120を選択する。これによって、選択されたサーバ120が現用系サーバ120として登録され、かつ、当該現用系サーバ120に対して予備系サーバ120が検索される。また、管理者は、耐障害性等を向上させるためにクラスタの構成をさらに冗長化したい場合に、予備系サーバ120を選択する。
 なお、選択するサーバ120は、管理サーバ100が管理するサーバ120全てを指定することも可能である。
 契機受信部215は、前述した確認処理の開始指示を検出すると、情報取得部212に、候補として選択されたサーバ120の識別子を含む処理開始指示を送信する。
 実施例8では、チェックリスト生成部211が実行する処理が一部異なる。
 チェックリスト生成部211は、情報取得部212から処理完了通知を受信すると、処理を開始する。なお、当該通知には、管理者によって選択されたサーバ120の識別子が含まれる。
 実施例8では、ステップS1101の処理は実行されず、ステップS1102の処理から開始される。実施例8では、クラスタが構成されていないため、クラスタに所属するサーバ120を検索する必要がないためである。
 ステップS1102において、チェックリスト生成部211は、処理完了通知に含まれるサーバ120の識別子に基づいて、チェックペア生成する。例えば、以下のような処理が考えられる。
 チェックリスト生成部211は、管理対象テーブル250を参照して、受信したサーバ120の識別子に一致するエントリを検索する。チェックリスト生成部211は、検索されたエントリのモデル503及び構成情報504が同一であるエントリを一つ以上検索する。
 その他の処理は、実施例1と同一の処理であるため説明を省略する。
 図23は、本発明の実施例8における管理サーバ100の処理通知部218が実行する処理の一例を説明するフローチャートである。
 処理通知部218は、管理者に対して、クラスタを構成するための候補サーバ120の情報を通知する(ステップS2301)。
 具体的には、処理通知部218は、クラスタを構成するための候補サーバ120の情報として、フェイルオーバが可能なチェックペアに関する情報が含まれる表示情報を送信する。当該表示情報によって表示される画面については、図24を用いて後述する。
 管理者は、クライアント端末190に表示された操作画面にしたがって、クラスタを構成するサーバ120を選択する。クライアント端末190は、管理サーバ100に、管理者によって選択されたサーバ120の識別子等を含むクラスタの登録情報を送信する。
 なお、当該登録情報には、少なくとも、クラスタの識別子、現用系サーバ120として選択されたサーバ120の識別子、及び、予備系サーバ120として選択されたサーバ120の識別子が含まれる。
 処理通知部218は、クライアント端末190からクラスタの登録情報を受信すると(ステップS2302)、当該登録情報に基づいて管理対象テーブル250を更新し(ステップS2303)、処理を終了する。具体的には、以下のような処理が実行される。
 処理通知部218は、管理対象テーブル250に新たにエントリを追加する処理通知部218は、追加されたエントリに必要な情報を格納する。
 なお、本実施例では、処理通知部218が処理を実行したが、管理サーバ100がクラスタの構成処理を実行するクラスタ登録部を備えていてもよい。この場合、ステップS2303において、処理通知部218は、クラスタ登録部に、クラスタの登録情報を含む処理開始指示を送信すればよい。
 図24は、本発明の実施例8における操作画面の一例を示す説明図である。
 操作画面2400は、新たにクラスタを構成、又は、構成済みのクラスタの構成を更新するための情報を表示する。本実施例では、操作画面2400は、クライアント端末190が有するディスプレイに表示される。なお、管理サーバ100が備える入出力装置を介して表示されてもよい。なお、表示方法としては、管理サーバ100又はクライアント端末190が、専用のブラウザ又は専用のプログラム等を用いて表示する。
 操作画面2400は、現用系サーバ選択部2410、予備系サーバ選択部2420、追加ボタン2431、削除ボタン2432、クラスタ選択部2440、クラスタ構成表示部2450、クラスタ追加ボタン2461、クラスタ削除ボタン2462、及び確定ボタン2463を含む。
 現用系サーバ選択部2410は、クラスタを構成する現用系サーバ120の候補となるサーバ120の情報を表示する表示部である。現用系サーバ選択部2410には、サーバID2411、及び状態2412が表示される。
 サーバID2411は、現用系サーバ120の候補となるサーバ120の識別子である。状態2412は、クラスタに登録可能か否かを示す情報である。本実施例では、クラスタに登録可能な場合、状態2412には「OK」が表示され、クラスタに登録するサーバ120として選択された場合、状態2412には「Selected」が表示され、クラスタに登録できない場合、状態2412には「NG」が表示される。
 管理者は、現用系サーバ選択部2410に表示されたサーバ120の中から、クラスタを構成する現用系サーバ120を選択することができる。図24に示す例では、サーバID2411が「サーバ2」であるサーバ120が選択されている。また、図24に示す例では、選択されたサーバ120に対応するエントリが強調表示されている。
 予備系サーバ選択部2420は、クラスタを構成する予備系サーバ120の候補となるサーバ120の情報を表示する表示部である。予備系サーバ選択部2420には、サーバID2421、及び状態2422が表示される。
 サーバID2421は、予備系サーバ120の候補となるサーバ120の識別子である。状態2422は、クラスタに登録可能か否かを示す情報である。状態2422に表示される情報は、状態2421に表示されるものと同一である。
 管理者は、予備系サーバ選択部2420に表示されたサーバ120の中から、クラスタを構成する予備系サーバ120を選択することができる。図24に示す例では、サーバID2421が「サーバ5」であるサーバ120が選択されている。また、図24に示す例では、選択されたサーバ120に対応するエントリが強調表示されている。
 クラスタ選択部2440は、サーバ120を追加する対象のクラスタを選択するため操作ボタンである。クラスタ選択部2440を操作することによって、対象のクラスタが強調して表示される。
 クラスタ構成表示部2450は、対象のクラスタの構成を表示する表示部である。クラスタ構成表示部2450には、現用系サーバID2451及び予備系サーバID2452が表示される。
 現用系サーバID2451は、現用系サーバ120として追加される予定のサーバ120の識別子を表示する。予備系サーバID2452は、予備系サーバ120として追加される予定のサーバ120の識別子を表示する。
 追加ボタン2431は、現用系サーバ選択部2410及び予備系サーバ選択部2420において選択された各サーバ120を、クラスタに追加するサーバ120の候補として登録するための操作ボタンである。管理者が追加ボタン2431を操作すると、クラスタ構成表示部2450に、選択されたサーバ120が登録される。
 削除ボタン2432は、クラスタに追加する候補のサーバ120の登録を取り消すための操作ボタンである。管理者は、クラスタ構成表示部2450に表示されたサーバ120の中から、登録を取り消すサーバ120を選択し、その後削除ボタン2432を操作する。これによって、クラスタ構成表示部2450から選択されたサーバ120が削除される。
 クラスタ追加ボタン2461は、新たにクラスタを構成する場合に操作するボタンである。
 クラスタ削除ボタン2462は、クラスタ選択部2440において選択されたクラスタを削除するための操作ボタンである。
 確定ボタン2463は、クラスタの構成を確定するためのボタンである。管理者が確定ボタン2463を操作することによって、クラスタ構成表示部2450に表示されたサーバ120の構成のクラスタが構成される。
 本実施例では、確定ボタン2463が操作されると、クライアント端末190が、クラスタ選択部2440に表示されたクラスタの識別子、及びクラスタ構成表示部2450に表示されたサーバ120の識別子を含む登録情報が生成し、処理通知部218に対して、生成された登録情報を送信する。
 実施例8によれば、クラスタの構成時に、サーバ120間の構成を確認することによって、クラスタを構成するサーバ120の候補を提示することができる。これによって、管理者は、適切なサーバ120の組み合わせを任意選択できるため、クラスタの構成にかかる手間を削減することが可能となる。
<第9実施例>
 実施例1では、物理的なサーバ120からクラスタが構成されていたが、実施例9では、仮想的なサーバを用いてクラスタが構成されている点が異なる。
 実施例9では、計算機システムの構成、並びに、管理サーバ100及びストレージ装置130のハードウェア構成及びソフトウェア構成は同一であるため説明を省略する。以下、実施例1との差異を中心に説明する。
 実施例9では、管理対象テーブル250の予備系サーバID604には、サーバ120又は仮想サーバ2500のいずれかの識別子が格納される。
 図25は、本発明の実施例9におけるサーバ120のハードウェア構成及びソフトウェア構成を説明するブロック図である。
 実施例9では、サーバ120のハードウェア構成は実施例1と同一であるが、ソフトウェア構成が異なる。
 メモリ302には、仮想化部2510を実現するプログラムが格納される。仮想化部2510は、一つ以上の仮想サーバ2500を生成し、管理する。具体的には、仮想化部2510は、サーバ120が備える計算機リソースを仮想的に分割し、分割された計算機リソースを割り当てることによって、一つ以上の仮想サーバ2500を生成する。
 仮想化部2510は、例えば、ハイパバイザ又はVMM(Virtual Machine Monitor)等が考えられる。
 仮想化部3521は、仮想スイッチ2511及び仮想化部管理用インタフェース2512を含む。
 仮想スイッチ2511は、仮想サーバ2500間の通信、及び仮想サーバ2500と外部の装置との間の通信を実現する。具体的には、仮想スイッチ2511は、ネットワークインタフェース305等の物理的なインタフェースに接続されたアダプタと仮想サーバ32500との間を接続することによって、仮想サーバ2500と外部装置との間の通信を制御する。
 仮想化部管理用インタフェース2512は、管理サーバ100と通信するための制御用インタフェースである。仮想化部2510は、仮想化部管理用インタフェース2512を用いて、管理サーバ100に情報を送信し、また、管理サーバ100から指示受信する。また、ユーザ端末などから直接、使用することも可能である。
 なお、仮想化部2510は、サーバ120の計算機資源と仮想サーバ2500の仮想的な計算機資源とを対応づけた情報、仮想サーバ2500の構成情報、及び稼働履歴等を保持する。
 仮想サーバ2500は、仮想CPU2501、仮想メモリ2502、仮想BMC2503、仮想ネットワークインタフェース2504、仮想ディスクインタフェース2505、及び仮想PCIeインタフェース2506から構成される。
 実施例9では、優先度設定部217が実行する処理が異なる。
 図26は、本発明の実施例9における管理サーバ100の優先度設定部217が実行する処理の一例を説明するフローチャートである。
 ステップS1701からステップS1704の処理は実施例1と同一であるため説明を省略する。
 実施例9では、ステップS1704の後、優先度設定部217は、フェイルオーバが可能であると判定されたチェックペアが存在するか否かを判定する(ステップS2601)。
 フェイルオーバが可能であると判定されたチェックペアが存在する場合、以下実施例1と同一の処理となる。
 フェイルオーバが可能であると判定されたチェックペアが存在しない場合、優先度設定部217は、予備系生成部219に、処理開始指示を送信する(ステップS2602)。なお、当該指示には、現用系サーバ120の識別子が含まれる。優先度設定部217は、予備系生成部219から処理完了通知を受信するまで待機する。
 優先度設定部217は、予備系生成部219から処理完了通知を受信すると、ステップS1706に進む。
 ステップS1706では、処理内容は同一であるが、チェックペアを構成する予備系サーバ120が仮想サーバ2500である点が異なる。
 なお、ステップS2601では、フェイルオーバが可能であると判定されたチェックペアの数が、予め設定された予備系サーバ120の数以下である場合に、予備系生成部219に処理開始指示を送信するようにしてもよい。予め設定する予備系サーバ120の数としては、クラスタに必要な予備系サーバ120の数を設定すればよい。
 図27は、本発明の実施例9における管理サーバ100の予備系生成部219が実行する処理の一例を説明するフローチャートである。
 予備系生成部219は、仮想化部2510が稼働するサーバ120に、予備系サーバ120となる仮想サーバ2500の生成を指示し、また、フェイルオーバが可能な仮想サーバ2500への構成の変更を指示する。
 以下では、予備系サーバ120として生成された仮想サーバ2500を予備系仮想サーバ2500とも記載する。
 予備系生成部219は、管理対象テーブル250を参照し(ステップS2701)、予備系仮想サーバ2500のエントリを検索する(ステップS2702)。
 予備系生成部219は、処理開始指示に含まれる現用系サーバ120の識別子に対応する現用系サーバ120との間においてフェイルオーバが可能な仮想サーバ2500を生成できるか否かを判定する(ステップS2703)。具体的には以下のような処理が実行される。
 予備系生成部219は、処理開始指示に含まれる現用系サーバ120の識別子と一致するエントリを検索する。予備系生成部219は、検索されたエントリのモデル503及び構成情報504を取得する。
 予備系生成部219は、フェイルオーバが可能な構成に、検索された予備系仮想サーバ2500の構成を変更できるか否かを仮想化部2510に問い合わせる。なお、問い合わせ先の仮想化部2510を特定する方法としては、管理サーバ100が、仮想化部2510の識別子と、当該仮想化部2510が管理する仮想サーバ2500の識別子とを対応づけた情報を保持する方法が考えられる。
 フェイルオーバが可能な構成に変更できる旨の応答を受信した場合、予備系生成部219は、フェイルオーバが可能な仮想サーバ2500を生成できると判定する。
 なお、予備系生成部219は、計算機システム内の全ての仮想化部2510に対して、現用系サーバ120のモデル503及び構成情報504を含む問い合わせを行ってもよい。
 以上がステップS2703の処理である。
 フェイルオーバが可能な仮想サーバ2500を生成できないと判定された場合、予備系生成部219は、ステップS2709に進む。
 フェイルオーバが可能な仮想サーバ2500を生成できると判定された場合、予備系生成部219は、応答を送信した仮想化部2510に対して、フェイルオーバが必要な構成の仮想サーバ2500の生成指示を送信する(ステップS2704)。予備系生成部219は、仮想化部2510から処理完了通知を受信するまで待機する。
 予備系生成部219は、仮想化部2510から処理完了通知を受信する(ステップS2705)。当該通知には、生成された仮想サーバ2500の構成情報が含まれる。予備系生成部219は、当該指示に含まれる仮想サーバ2500の構成情報に基づいて、管理対象テーブル250を更新する。
 予備系生成部219は、情報比較部213に処理開始指示を送信する(ステップS2706)。なお、当該指示には、現用系サーバ120の識別子及び予備系仮想サーバ2500の識別子が含まれる。予備系生成部219は、情報比較部213から処理完了通知を受信するまで待機する。
 この場合、情報比較部213は、ステップS1201からステップS1205の処理を省略できる。
 予備系生成部219は、情報比較部213から処理完了通知を受信すると、現用系サーバ120と生成された仮想サーバ2500との間でフェイルオーバが可能であるか否かを判定する(ステップS2707)。
 フェイルオーバが可能でないと判定された場合、予備系生成部219は、ステップS2710に進む。
 フェイルオーバが可能であると判定された場合、予備系生成部219は、管理対象テーブル250に、生成された仮想サーバを予備系サーバ120として追加する(ステップS2708)。仮想サーバ2500の追加方法としては、二通り考えられる。
 管理対象テーブル250に仮想サーバ2500のエントリが存在する場合、予備系生成部219は、当該エントリの必要なカラムの情報を更新する。管理対象テーブル250に仮想サーバ2500のエントリが存在しない場合、予備系生成部219は、管理対象テーブル250に新たなエントリを追加し、追加されたエントリに必要な情報を格納する。
 なお、管理対象テーブル250への仮想サーバ2500の追加処理は、図示しないクラスタ登録部等が実行してもよい。
 予備系生成部219は、優先度設定部217に処理完了通知を送信し(ステップS2709)、処理を終了する。
 実施例9によれば、仮想サーバ2500を予備系サーバ120として用いることによって、サーバ120の構成及び現用系サーバ120とLU135との間の接続経路を変更することなくクラスタを構成することができる。
 なお、本実施例で例示した種々のソフトウェアは、電磁的、電子的及び光学式等の種々の記録媒体(例えば、非一時的な記憶媒体)に格納可能であり、インターネット等の通信網を通じて、コンピュータにダウンロード可能である。
 さらに、本実施例では、ソフトウェアによる制御を用いた例について説明したが、その一部をハードウェアによって実現することも可能である。
 以上、本発明を添付の図面を参照して詳細に説明したが、本発明はこのような具体的構成に限定されるものではなく、添付した請求の範囲の趣旨内における様々な変更及び同等の構成を含むものである。

Claims (15)

  1.  計算機システムにおけるシステム冗長化確認方法であって、
     前記計算機システムは、少なくとも一以上の第1の計算機と、少なくとも一以上の第2の計算機と、ストレージシステムと、前記少なくとも一以上の第1の計算機及び前記少なくとも一以上の第2の計算機を管理する管理計算機と、を有し、
     前記少なくとも一以上の第1の計算機は、第1のプロセッサ、前記第1のプロセッサに接続される第1のメモリ、及び前記第1のプロセッサに接続される第1のI/Oインタフェースを有し、
     前記少なくとも一以上の第2の計算機は、第2のプロセッサ、前記第2のプロセッサに接続される第2のメモリ、及び前記第2のプロセッサに接続される第2のI/Oインタフェースを有し、
     前記ストレージシステムは、一つ以上のポートを有するコントローラを一つ以上含むディスクコントローラ、及び複数の記憶媒体を有し、
     前記管理計算機は、第3のプロセッサ、前記第3のプロセッサに接続される第3のメモリ、及び前記第3のプロセッサに接続される第3のI/Oインタフェースを有し、
     前記少なくとも一以上の第1の計算機は、業務を実行し、
     前記少なくとも一以上の第2の計算機は、前記少なくとも一以上の第1の計算機に障害が発生した場合に、前記業務を引き継ぎ、
     前記ストレージシステムは、前記少なくとも一以上の第1の計算機に、前記業務の実行に必要なデータを格納する記憶領域を提供し、
     前記方法は、
     前記管理計算機が、前記少なくとも一以上の第1の計算機のハードウェア構成に関する第1のハードウェア情報、及び前記少なくとも一以上の第2の計算機のハードウェア構成に関する第2のハードウェア情報を取得する第1のステップと、
     前記管理計算機が、前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第1の記憶領域情報を取得する第2のステップと、
     前記管理計算機が、前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第2の記憶領域情報の取得指示を、前記少なくとも一以上の第2の計算機に送信する第3のステップと、
     前記少なくとも一以上の第2の計算機が、前記取得指示を受信した場合に、前記ストレージシステムから前記第2の記憶領域情報を取得し、前記管理計算機に前記取得された第2の記憶領域情報を送信する第4のステップと、
     前記管理計算機が、前記取得された第1のハードウェア情報及び前記取得された第1の記憶領域情報と、前記取得された第2のハードウェア情報及び前記取得された第2の記憶領域情報とを比較し、前記比較の結果に基づいて、前記少なくとも一以上の第1の計算機と前記少なくとも一以上の第2の計算機との間でフェイルオーバが可能か否かを判定する第5のステップと、
     を含むことを特徴とするシステム冗長化確認方法。
  2.  請求項1に記載のシステム冗長化確認方法であって、
     前記第5のステップは、
     前記第1のハードウェア情報と前記第2のハードウェア情報とを比較して、前記少なくとも一以上の第2の計算機がフェイルオーバが可能なハードウェア構成であるか否かを判定するステップと、
     前記第1の記憶領域情報と前記第2の記憶領域情報とを比較して、前記少なくとも一以上の第2の計算機が前記業務を引き継ぐために必要なデータを格納する記憶領域にアクセス可能か否かを判定するステップと、を含むことを特徴とするシステム冗長化確認方法。
  3.  請求項2に記載のシステム冗長化確認方法であって、
     前記少なくとも一以上の第2の計算機は、前記第2の記憶領域情報を取得する情報取得モジュールを有し、
     前記第4のステップは、
     前記少なくとも一以上の第2の計算機が、前記取得指示を受信した場合に、前記情報取得モジュールを起動するステップと、
     前記情報取得モジュールが、前記ストレージシステムに問い合わせることによって、前記少なくとも一つ以上の第1の計算機に提供される記憶領域のうち前記少なくとも一つ以上の第2の計算機がアクセス可能な記憶領域に関する情報を、前記第2の記憶領域情報として取得するステップと、
     前記情報取得モジュールが、前記管理計算機に、前記取得された第2の記憶領域情報を送信するステップと、
     前記少なくとも一以上の第2の計算機が、前記情報取得モジュールの処理が終了した後に、前記少なくとも一以上の第2の計算機を停止させるステップと、を含むことを特徴とするシステム冗長化確認方法。
  4.  請求項2に記載のシステム冗長化確認方法であって、
     前記計算機システムは、前記第2の記憶領域情報を取得する情報取得モジュールを有し、
     前記第4のステップは、
     前記少なくとも一以上の第2の計算機が、前記取得指示を受信した場合に、前記情報取得モジュールを取得するステップと、
     前記少なくとも一以上の第2の計算機が、前記取得された情報取得モジュールを実行するステップと、
     前記情報取得モジュールが、前記ストレージシステムに問い合わせることによって、前記少なくとも一つ以上の第1の計算機に提供される記憶領域のうち前記少なくとも一つ以上の第2の計算機がアクセス可能な記憶領域に関する情報を、前記第2の記憶領域情報として取得するステップと、
     前記情報取得モジュールが、前記管理計算機に、前記取得された第2の記憶領域情報を送信するステップと、
     前記少なくとも一以上の第2の計算機が、前記情報取得モジュールの処理が終了した後に、前記少なくとも一以上の第2の計算機を停止させるステップと、を含むことを特徴とするシステム冗長化確認方法。
  5.  請求項3又は請求項4に記載のシステム冗長化確認方法であって、
     前記第4のステップは、
     前記情報取得モジュールが、前記ストレージシステムに問い合わせてから前記第2の記憶領域情報が取得されるまでの取得時間を算出するステップと、
     前記情報取得モジュールが、前記取得された第2の記憶領域情報及び前記算出された取得時間を、前記管理計算機に送信するステップと、を含み、
     前記方法は、
     前記管理計算機が、フェイルオーバが可能であると判定された第2の計算機が複数存在する場合、当該複数の第2の計算機から受信した前記取得時間に基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定するステップを含むことを特徴とするシステム冗長化確認方法。
  6.  請求項3又は請求項4に記載のシステム冗長化確認方法であって、
     前記管理計算機が、フェイルオーバが可能であると判定された第2の計算機が複数存在する場合に、当該複数の第2の計算機が前記ストレージシステムへのアクセス時に用いるポートの性能を取得するステップと、
     前記管理計算機が、前記取得されたポートの性能に基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定するステップと、を含むことを特徴とするシステム冗長化確認方法。
  7.  請求項3又は請求項4に記載のシステム冗長化確認方法であって、
     前記管理計算機が、フェイルオーバが可能であると判定された第2の計算機が複数存在する場合、当該複数の第2の計算機と前記ストレージシステムとを接続する経路のコストを取得するステップと、
     前記管理計算機が、前記取得されたコストに基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定するステップと、を含むことを特徴とするシステム冗長化確認方法。
  8.  請求項3又は請求項4に記載のシステム冗長化確認方法であって、
     前記管理計算機が、前記少なくとも一以上の第1の計算機、及び前記少なくとも一以上の第1の計算機との間でフェイルオーバが可能であると判定された第2の計算機を表示するステップと、
     前記管理計算機が、前記表示に基づく操作を受け付けた場合に、当該操作によって選択された少なくとも一以上の第1の計算機及び少なくとも一以上の第2の計算機を用いて、冗長化されたシステムを構成するステップと、を含むことを特徴とするシステム冗長化確認方法。
  9.  請求項3又は請求項4に記載のシステム冗長化確認方法であって、
     前記少なくとも一以上の第2の計算機は、計算機資源を用いて仮想計算機を生成する仮想化部を有し、
     前記仮想化部によって生成された前記仮想計算機が前記業務を引き継ぎ、
     前記方法は、
     前記管理計算機が、フェイルオーバが可能な第2の計算機が存在するか否かを判定するステップと、
     前記管理計算機が、前記フェイルオーバが可能な第2の計算機が存在しないと判定された場合、前記少なくとも一以上の第2の計算機に、フェイルオーバが可能な仮想計算機の生成指示を送信するステップと、
     前記少なくとも一以上の第2の計算機が、前記仮想計算機の生成指示を受信した場合に、当該指示に基づいて、前記フェイルオーバが可能な仮想計算機を生成するステップと、
     前記管理計算機が、前記少なくとも一以上の第1の計算機及び前記生成された仮想計算機を用いて、冗長化されたシステムを構成するステップと、を含むことを特徴とするシステム冗長化確認方法。
  10.  少なくとも一以上の第1の計算機と、少なくとも一以上の第2の計算機と、ストレージシステムと、前記少なくとも一以上の第1の計算機及び前記少なくとも一以上の第2の計算機を管理する管理計算機と、を備える計算機システムであって、
     前記少なくとも一以上の第1の計算機は、第1のプロセッサ、前記第1のプロセッサに接続される第1のメモリ、及び前記第1のプロセッサに接続される第1のI/Oインタフェースを有し、
     前記少なくとも一以上の第2の計算機は、第2のプロセッサ、前記第2のプロセッサに接続される第2のメモリ、及び前記第2のプロセッサに接続される第2のI/Oインタフェースを有し、
     前記ストレージシステムは、一つ以上のポートを有するコントローラを一つ以上含むディスクコントローラ、及び複数の記憶媒体を有し、
     前記管理計算機は、第3のプロセッサ、前記第3のプロセッサに接続される第3のメモリ、及び前記第3のプロセッサに接続される第3のI/Oインタフェースを有し、
     前記少なくとも一以上の第1の計算機は、業務を実行し、
     前記少なくとも一以上の第2の計算機は、前記少なくとも一以上の第1の計算機に障害が発生した場合に、前記業務を引き継ぎ、
     前記ストレージシステムは、前記少なくとも一以上の第1の計算機に、前記業務の実行に必要なデータを格納する記憶領域を提供し、
     管理計算機は、
     前記少なくとも一以上の第1の計算機と前記少なくとも一以上の第2の計算機との間においてフェイルオーバが可能か否かを判定する制御部と、
     前記少なくとも一以上の第1の計算機の構成情報及び前記少なくとも一以上の第2の計算機の構成情報を格納する管理情報と、を有し、
     前記制御部は、
     前記管理情報を参照して、前記少なくとも一以上の第1の計算機のハードウェアに関する第1のハードウェア情報、及び前記少なくとも一以上の第2の計算機のハードウェアに関する第2のハードウェア情報を取得し、
     前記管理情報を参照して、前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第1の記憶領域情報を取得し、
     前記少なくとも一以上の第1の計算機に提供される記憶領域に関する第2の記憶領域情報の取得指示を、前記少なくとも一以上の第2の計算機に送信し、
     前記少なくとも一以上の第2の計算機は、前記取得指示を受信した場合に、前記ストレージシステムから前記第2の記憶領域情報を取得し、前記取得された第2の記憶領域情報を前記管理計算機に送信し、
     前記制御部は、
     前記取得された第1のハードウェア情報及び前記取得された第1の記憶領域情報と、前記取得された第2のハードウェア情報及び前記取得された第2の記憶領域情報とを比較し、
     前記比較の結果に基づいて、前記少なくとも一以上の第1の計算機と前記少なくとも一以上の第2の計算機との間でフェイルオーバが可能か否かを判定することを特徴とする計算機システム。
  11.  請求項10に記載の計算機システムであって、
     前記制御部は、
     前記少なくとも一以上の第1の計算機と前記少なくとも一以上の第2の計算機との間でフェイルオーバが可能か否かを判定する場合に、前記第1のハードウェア情報と前記第2のハードウェア情報とを比較して、前記少なくとも一以上の第2の計算機がフェイルオーバが可能なハードウェア構成であるか否かを判定し、
     前記第1の記憶領域情報と前記第2の記憶領域情報とを比較して、前記少なくとも一以上の第2の計算機が前記業務を引き継ぐために必要なデータを格納する記憶領域にアクセス可能か否かを判定することを特徴とする計算機システム。
  12.  請求項11に記載の計算機システムであって、
     前記少なくとも一以上の第2の計算機は、前記第2の記憶領域情報を取得する情報取得部を有し、
     前記少なくとも一以上の第2の計算機は、前記取得指示を受信した場合に、前記情報取得部を起動し、
     前記起動した情報取得部は、
     前記ストレージシステムに問い合わせることによって、前記少なくとも一つ以上の第1の計算機に提供される記憶領域のうち前記少なくとも一つ以上の第2の計算機がアクセス可能な記憶領域に関する情報を、前記第2の記憶領域情報として取得し、
     前記管理計算機に、前記取得された第2の記憶領域情報を送信し、
     前記少なくとも一以上の第2の計算機は、前記情報取得部の処理が終了した後に、前記少なくとも一以上の第2の計算機を停止させることを特徴とする計算機システム。
  13.  請求項12に記載の計算機システムであって、
     前記情報取得部は、
     前記ストレージシステムに問い合わせてから前記第2の記憶領域情報が取得されるまでの取得時間を算出し、
     前記管理計算機に、前記取得された第2の記憶領域情報及び前記算出された取得時間を送信し、
     前記制御部は、フェイルオーバが可能であると判定された第2の計算機が複数存在する場合、当該複数の第2の計算機から受信した前記取得時間に基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定することを特徴とする計算機システム。
  14.  請求項12に記載の計算機システムであって、
     前記制御部は、
     フェイルオーバが可能であると判定された第2の計算機が複数存在する場合、当該複数の第2の計算機が前記ストレージシステムへのアクセス時に用いるポートの性能を取得し、
     前記取得されたポートの性能に基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定することを特徴とする計算機システム。
  15.  請求項12に記載の計算機システムであって、
     前記制御部は、
     フェイルオーバが可能であると判定された第2の計算機が複数存在する場合、当該複数の第2の計算機と前記ストレージシステムとを接続する経路のコストを取得し、
     前記取得されたコストに基づいて、前記フェイルオーバが可能であると判定された複数の第2の計算機に、フェイルオーバ処理の実行時における前記複数の第2の計算機の使用順を示す優先度を設定することを特徴とする計算機システム。
PCT/JP2012/078453 2012-11-02 2012-11-02 システム冗長化確認方法及び計算機システム WO2014068764A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2012/078453 WO2014068764A1 (ja) 2012-11-02 2012-11-02 システム冗長化確認方法及び計算機システム
JP2014544176A JP5955977B2 (ja) 2012-11-02 2012-11-02 システム冗長化確認方法及び計算機システム
US14/426,279 US9542249B2 (en) 2012-11-02 2012-11-02 System redundancy verification method and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/078453 WO2014068764A1 (ja) 2012-11-02 2012-11-02 システム冗長化確認方法及び計算機システム

Publications (1)

Publication Number Publication Date
WO2014068764A1 true WO2014068764A1 (ja) 2014-05-08

Family

ID=50626728

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078453 WO2014068764A1 (ja) 2012-11-02 2012-11-02 システム冗長化確認方法及び計算機システム

Country Status (3)

Country Link
US (1) US9542249B2 (ja)
JP (1) JP5955977B2 (ja)
WO (1) WO2014068764A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016046951A1 (ja) * 2014-09-26 2016-03-31 株式会社日立製作所 計算機システム及びそのファイル管理方法
WO2016162916A1 (ja) * 2015-04-06 2016-10-13 株式会社日立製作所 管理計算機およびリソース管理方法
WO2024105891A1 (ja) * 2022-11-18 2024-05-23 日本電信電話株式会社 検査装置、検査方法、および検査プログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727357B2 (en) * 2013-10-01 2017-08-08 International Business Machines Corporation Failover detection and treatment in checkpoint systems
US9454416B2 (en) * 2014-10-14 2016-09-27 Netapp, Inc. Detecting high availability readiness of a distributed computing system
GB2546789A (en) * 2016-01-29 2017-08-02 Bombardier Primove Gmbh Arrangement with battery system for providing electric energy to a vehicle
US10552272B2 (en) * 2016-12-14 2020-02-04 Nutanix, Inc. Maintaining high availability during N-node failover
JP2018133764A (ja) * 2017-02-17 2018-08-23 株式会社リコー 冗長構成システム、切替方法、情報処理システムおよびプログラム
JP7032631B2 (ja) * 2017-07-04 2022-03-09 富士通株式会社 送受信システム、送受信システムの制御方法、及び送信装置
US11481296B2 (en) * 2018-09-10 2022-10-25 International Business Machines Corporation Detecting configuration errors in multiport I/O cards with simultaneous multi-processing
JP7099272B2 (ja) * 2018-11-19 2022-07-12 富士通株式会社 情報処理装置、ネットワークシステム及びチーミングプログラム
JP7017546B2 (ja) * 2019-09-27 2022-02-08 株式会社日立製作所 ストレージシステム、パス管理方法、及びパス管理プログラム
US11347601B1 (en) * 2021-01-28 2022-05-31 Wells Fargo Bank, N.A. Managing data center failure events
CN116980293A (zh) * 2022-04-22 2023-10-31 华为云计算技术有限公司 一种虚拟网络管理方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303509A (ja) * 1992-04-27 1993-11-16 Fujitsu Ltd 予備機制御システム
JP2007066216A (ja) * 2005-09-02 2007-03-15 Hitachi Ltd ブート構成変更方法
JP2009140194A (ja) * 2007-12-06 2009-06-25 Hitachi Ltd 障害回復環境の設定方法
JP2011086316A (ja) * 2011-01-31 2011-04-28 Hitachi Ltd 引継方法、計算機システム及び管理サーバ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249343A (ja) 2006-03-14 2007-09-27 Nec Corp 障害監視装置、クラスタシステム及び障害監視方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303509A (ja) * 1992-04-27 1993-11-16 Fujitsu Ltd 予備機制御システム
JP2007066216A (ja) * 2005-09-02 2007-03-15 Hitachi Ltd ブート構成変更方法
JP2009140194A (ja) * 2007-12-06 2009-06-25 Hitachi Ltd 障害回復環境の設定方法
JP2011086316A (ja) * 2011-01-31 2011-04-28 Hitachi Ltd 引継方法、計算機システム及び管理サーバ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016046951A1 (ja) * 2014-09-26 2016-03-31 株式会社日立製作所 計算機システム及びそのファイル管理方法
WO2016162916A1 (ja) * 2015-04-06 2016-10-13 株式会社日立製作所 管理計算機およびリソース管理方法
JPWO2016162916A1 (ja) * 2015-04-06 2017-12-07 株式会社日立製作所 管理計算機およびリソース管理方法
US10592268B2 (en) 2015-04-06 2020-03-17 Hitachi, Ltd. Management computer and resource management method configured to combine server resources and storage resources and allocate the combined resources to virtual machines
WO2024105891A1 (ja) * 2022-11-18 2024-05-23 日本電信電話株式会社 検査装置、検査方法、および検査プログラム

Also Published As

Publication number Publication date
US9542249B2 (en) 2017-01-10
JPWO2014068764A1 (ja) 2016-09-08
JP5955977B2 (ja) 2016-07-20
US20150205650A1 (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP5955977B2 (ja) システム冗長化確認方法及び計算機システム
US11079966B2 (en) Enhanced soft fence of devices
US20190317922A1 (en) Orchestrated disaster recovery
US8706859B2 (en) Method and apparatus of data center file system
US9336103B1 (en) Using a network bubble across multiple hosts on a disaster recovery site for fire drill testing of a multi-tiered application
WO2013157072A1 (ja) 計算機システム、リソース管理方法及び管理計算機
TW201624965A (zh) 網際網路小型電腦系統介面啓動參數部署系統及其方法
JP2014044553A (ja) プログラム、情報処理装置および情報処理システム
US20150234907A1 (en) Test environment management apparatus and test environment construction method
JP2015158773A (ja) 仮想装置の動作検証装置,仮想装置の動作検証システム及びプログラム
WO2013171865A1 (ja) 管理方法及び管理システム
JP5782563B2 (ja) 情報取得方法、計算機システム及び管理計算機
WO2015097738A1 (ja) ストレージシステム及び管理計算機
US9400761B2 (en) Management method for computer system, computer system, and non-transitory computer-readable storage medium
JP5439435B2 (ja) 計算機システムおよびその計算機システムにおけるディスク共有方法
KR101436101B1 (ko) 사용자 단말의 저장 장치를 대체하는 서비스를 제공하는 서버 장치 및 그 방법
JP6516875B2 (ja) 統合プラットフォーム、サーバ、及び、フェイルオーバ方法
JP5131336B2 (ja) ブート構成変更方法
US9652340B2 (en) Computer switching method, computer system, and management computer
JP5750169B2 (ja) 計算機システム、プログラム連携方法、及びプログラム
US10756953B1 (en) Method and system of seamlessly reconfiguring a data center after a failure
WO2014184944A1 (ja) 計算機システムの評価方法、計算機システムの制御方法及び計算機システム
JP5423855B2 (ja) ブート構成変更方法
US20240036988A1 (en) Disaster recovery pipeline for block storage and dependent applications
JP4877368B2 (ja) ディスク引き継ぎによるフェイルオーバ方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12887698

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14426279

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014544176

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12887698

Country of ref document: EP

Kind code of ref document: A1