WO2017119116A1 - 統合プラットフォーム、サーバ、及び、フェイルオーバ方法 - Google Patents

統合プラットフォーム、サーバ、及び、フェイルオーバ方法 Download PDF

Info

Publication number
WO2017119116A1
WO2017119116A1 PCT/JP2016/050475 JP2016050475W WO2017119116A1 WO 2017119116 A1 WO2017119116 A1 WO 2017119116A1 JP 2016050475 W JP2016050475 W JP 2016050475W WO 2017119116 A1 WO2017119116 A1 WO 2017119116A1
Authority
WO
WIPO (PCT)
Prior art keywords
boot
efi
server
luid
logical volume
Prior art date
Application number
PCT/JP2016/050475
Other languages
English (en)
French (fr)
Inventor
拓洋 川路
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2016/050475 priority Critical patent/WO2017119116A1/ja
Priority to JP2017560003A priority patent/JP6516875B2/ja
Priority to US15/761,116 priority patent/US10579486B2/en
Publication of WO2017119116A1 publication Critical patent/WO2017119116A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • G06F11/1484Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated

Definitions

  • the present invention relates generally to computer control, and more particularly to computer redundancy.
  • LUs Logical Units
  • the server may erroneously access an LU (for example, a logical volume (logical VOL)) that should not be accessed (I / O (Input / Output)) and update the data of the LU by mistake. is there.
  • the LU masking function is known as a technology for restricting access to an LU to a specific server.
  • This LU masking function creates an access control list for LUs for each port of the storage apparatus.
  • the access control list includes a WWN (World Wide Name) of a physical port of FC-HBA (Fibre Channel-Host Bus Adapter) that is permitted to access the LU in the storage apparatus.
  • WWN World Wide Name
  • FC-HBA Fibre Channel-Host Bus Adapter
  • the I / O ports (storage ports) of the storage device are conventionally as few as 1 to 2 ports, and access from a plurality of servers is possible using an FC switch.
  • storage ports are often equipped with 10 or more ports, and it has become possible to connect directly to a plurality of servers without using expensive FC switches.
  • the storage port and the physical port of the server are directly connected by an FC cable or a PCIe (Peripheral Component Interconnect Express) bus (in other words, the storage port and the physical port of the server have a one-to-one correspondence)
  • the I / O request issued by the active server before switching and the I / O request issued by the spare server after switching are received at different storage ports.
  • the spare server after switching sends out an LU search instruction based on the WWN of the storage port to which the I / O request is sent, but the WWN of the storage port that receives the I / O request has changed. Unable to find LU. Therefore, the spare server after switching cannot access the LU.
  • an object of the present invention is to enable a spare server to boot normally when a failover is executed.
  • An integrated platform includes active and spare servers and a storage device.
  • the storage device has a plurality of storage ports, and a World Wide Name (WWN) is assigned to each of the plurality of storage ports.
  • WWN World Wide Name
  • Each of the plurality of logical volumes provided by the storage device is assigned a Logical Unit ID (LUID) that can be uniquely identified.
  • the active server and the spare server are connected to the storage port on a one-to-one basis.
  • the active server has boot search information that associates the WWN of the connection destination storage port, the logical unit number (LUN) of the boot logical volume that is a logical volume accessed at the time of booting, and the LUID of the boot logical volume. When failover is executed, the boot search information of the active server is copied to the spare server.
  • LUN logical unit number
  • the spare server when a failover is executed, the spare server can boot normally.
  • a configuration example of an integrated platform is shown.
  • An example of the server configuration is shown.
  • 2 shows a configuration example of a storage apparatus.
  • the structural example of a management server is shown.
  • a reference example of Boot Order is shown.
  • An example of Boot Order according to the present embodiment is shown.
  • a configuration example of Boot Priority is shown.
  • a configuration example of Boot Priority is shown.
  • An example of the operation of failing over from the active server to the spare server is shown. It is a sequence chart which shows the boot operation example of an active server. It is a sequence chart which shows the boot operation example of the spare server after failover. It is a flowchart which shows the process example of the EFI driver which concerns on a present Example.
  • At least one of “name” and “ID” may be used as an example of identification information of each information element, and these may be replaced with each other.
  • “Boot Priority” is set as “Virtual Boot Priority” owned by virtual FC-HBA on LPAR
  • “Boot Order” is set as guest on LPAR. It can be replaced as a “virtual boot order” owned by EFI.
  • the name and reference symbol are used (for example, the server 100) when explaining without distinguishing the same type of element, and the identification assigned to the element when distinguishing and explaining the same type of element.
  • Information for example, the servers 100A and 100B may be used.
  • the process may be described with “program” as the subject, but the program performs the process defined by being executed by the processor using the memory and the communication port (communication control device). Therefore, the description of the processing may be a description of processing with the processor as the subject. Further, the processing disclosed with the program as the subject may be processing performed by a device (for example, a management system or a storage device) having a processor that executes the program. Further, part or all of the program may be realized by dedicated hardware. Various programs may be installed in each computer by a program distribution server or a storage medium.
  • FIG. 1 shows a configuration example of an integrated platform according to this embodiment.
  • the integrated platform 1 includes a storage device 200 and a plurality of servers 100.
  • the storage apparatus 200 and the plurality of servers 100 are connected via a PCIe bus 46 so as to be capable of bidirectional communication.
  • a plurality of servers 100 are mounted on the server chassis 15.
  • the storage apparatus 200 and the plurality of servers 100 are connected to the management server 300 via the management network 45 so as to be capable of bidirectional communication.
  • a management client 350 of the management server 300 and a service processor (SVP) 17 mounted on the server chassis 15 may be connected to the management network 45.
  • the management network 45 may be a communication network such as a LAN (Local Area Network), for example.
  • the server 100 may access the storage apparatus 200 based on the received I / O request. Access to the storage apparatus 200 may mean that the server 100 transmits an I / O request to the storage apparatus 200.
  • An internal network (for example, LAN) 47 may exist inside the server chassis 15.
  • the SVP 17 is an example of a controller, and manages each server 100 via the internal network 47.
  • the SVP 16 may be able to issue a failover instruction to at least one of the switching source server 100 and the switching destination server 100.
  • the SVP 17 may be connected to the maintenance port 16 inside the server chassis 15 via a circuit such as an internal bus so that bidirectional communication is possible.
  • the administrator may be able to operate the SVP 17 without going through the management network 45 by directly connecting a maintenance terminal to the maintenance port 16 and using the maintenance terminal.
  • the management server 300 is an example of a management system, and manages the computer system via the management network 45.
  • the management server 300 may also be able to issue a failover instruction to at least one of the switching source server 100 and the switching destination server 100.
  • each server 100 may be able to receive a failover instruction from at least one of the SVP 17 and the management server 30000.
  • the SVP 17 can detect a predetermined event in the server chassis 15 and automatically perform a failover without an instruction from the management server 300, or can receive an instruction from the management server 300 (for example, In response to a manual operation by the operator (administrator) of the management client 350, failover can also be performed.
  • the management client 350 is a computer that communicates with the GUI display processing module 32300 (see FIG. 4) of the management server 300 via the management network 45 and displays various information on the WEB browser.
  • the administrator can manage the devices in the computer system by referring to the information displayed on the WEB browser on the management client.
  • the management server 300 and the management client 350 may be composed of a single server.
  • FIG. 2 shows a configuration example of the server 100.
  • the server 100 includes a management port 11100 connected to the management network 45, a port 11000 connected to the internal network 47, one or more I / O ports 14000, and an FC connected to the storage apparatus 200 via a PCIe bus.
  • the processor 12000 may be composed of one or more processors.
  • the memory 13000 may be configured with one or more memories and may include a storage device such as an auxiliary storage device.
  • the EFI 190 has a boot order 180, and the boot order 180 is used to access the logical VOL of the storage apparatus 200.
  • the server 100 accesses the storage apparatus 200 via the FC-HBA 120.
  • the FC-HBA 120 has a boot priority 150 used by the server 100 to access the logical VOL.
  • the FC-HBA 120 also has an EFI driver 170 for initializing the FC-HBA 120 and accessing the storage apparatus 200.
  • the memory 13000 may store an OS 13100, an LPAR management program 13200, an I / O port management table 13300, an LPAR management table 13400, and an LPAR operation schedule management table 13500.
  • the LPAR management program 13200 logically divides physical resources (computer resources) such as the processor 12000 and the memory 13000 provided from the operating system 13100 to create an LPAR.
  • the LPAR can also be called a management computer.
  • the LPAR created by the LPAR management program 13200 recognizes a logical VOL on the storage apparatus 200 connected to the server 100 as a storage area via the PCIe bus 46000.
  • the LPAR management program 13200 exists in the memory 13000, but the LPAR management program does not exist, and the storage area provided from the operating system 13100 is used to perform I / O on the storage area.
  • the business application that performs That is, there may be a server 100 that cannot construct (execute) an LPAR.
  • the LPAR management program 13200 exists in the memory 13000.
  • a virtualization control program exists instead of the LPAR management program, and the virtualization control program is a physical resource such as the processor 12000 and the memory 13000. May be abstracted and standardized to provide virtual hardware to a virtual machine.
  • LPAR corresponds to a virtual machine
  • the virtualization control program corresponds to an LPAR management program.
  • FIG. 3 shows a configuration example of the storage apparatus 200.
  • the storage apparatus 200 is an example of a storage system, and includes a plurality of storage ports 21000, a management port 21100, a memory 23000, a RAID (Redundant Array of Inexpensive) Disks) group 24010, and a controller 25000. These elements are connected via a circuit such as an internal bus so that bidirectional communication is possible.
  • a circuit such as an internal bus so that bidirectional communication is possible.
  • the storage port 21000 may be connected to the server 100 via the PCIe bus 46.
  • the management port 21100 may be connected to the management server 300 via the management network 45.
  • the memory 23000 may store programs and management information.
  • the memory 23000 may be composed of one or more memories and may include a storage device such as an auxiliary storage device.
  • the RAID group 24010 may store various data.
  • the controller 25000 may control data and management information in the memory.
  • the memory 23000 includes a disk management program 23100, a port management table 23200, a host group management table 23300, a RAID group management table 23400, a volume management table 23500, a host group-volume related management table 23600, and a table size upper limit.
  • the management table 23700 is stored.
  • the disk management program 23100 communicates with the management server 300 via the management port 21100, and with respect to the management server 300, a port management table 23200, a host group management table 23300, a RAID group management table 23400, and a volume management table. 23500, the host group-volume association management table 23600, and the table size upper limit management table 23700, the information included in at least one table is provided to the storage apparatus 200.
  • the RAID group 24010 includes a plurality of nonvolatile storage devices 24220. Instead of the RAID group 24010, one non-volatile storage device 24220 may be employed.
  • a logical VOL 24110 is provided based on one or more nonvolatile storage devices 24220 such as a RAID group 24010. At least one logical VOL 24110 may be a virtual logical VOL such as a virtual volume according to Thin Provisioning.
  • the controller 25000 may include a processor that controls the storage apparatus 200 and a cache memory that temporarily stores data exchanged with the server 100. Each controller 25000 may be interposed between the storage port 21000 and the RAID group 24010 to control data exchange between the two.
  • the storage apparatus 200 receives an access request (pointing to an I / O request) specifying the logical VOL 24110 provided to the server 100, and transfers it to the logical VOL 24110 (for example, the storage device that is the basis of the logical VOL 24110).
  • 3 and the above-described storage device that provides a storage area may be included in configurations other than those shown in FIG.
  • a storage device that provides a storage controller and a storage area may be stored in a separate housing.
  • the memory 23000 and the controller 25000 may be storage controllers.
  • the storage apparatus may be called a storage system.
  • the storage system may be a plurality of storage devices.
  • FIG. 4 shows a configuration example of the management server 300.
  • the management server 300 is an example of a management system, and includes a management port 31000 for connection to the management network 45, a processor 31100, a storage resource 33000, and an output device 31200 such as a display device for outputting processing results to be described later. And an input device 31300 such as a keyboard for an administrator to input instructions. These elements are connected to each other via a circuit such as an internal bus so that bidirectional communication is possible.
  • the storage resource 33000 may be one or more memories (for example, semiconductor memories), or may include a mixture of nonvolatile storage devices.
  • the storage resource 33000 stores a management program 32000.
  • the management program 32000 may include a device management module 32100, a device communication module 32200, and a GUI display processing module 32300.
  • Each module is provided as a program module of the storage resource 33000, but may be provided as a hardware module.
  • the management program 32000 may not be configured by modules as long as the processing of each module can be realized. That is, the description of each module in the following description may be replaced with the description related to the management program 32000.
  • the storage resource 33000 may further store a device management table 33200, a host-storage path management table 33300, and a configuration table 93400.
  • the configuration table 93400 may store configuration information.
  • the configuration information includes, for example, each item of the I / O port management table 13300 collected from each server 100 managed by the device communication module 32200, each item of the LPAR management table 13400, and each item of the LPAR operation schedule management table 13500. Items, each item of the port management table 23200 collected from each managed storage, each item of the host group management table 23300, each item of the RAID group management table 23400, each item of the volume management table 23500, Each item of the host group-volume related management table 23600 and each item of the table size upper limit management table 23700 may be included.
  • the configuration table 93400 may not necessarily store all the tables of the management target device or all the items in the table.
  • the data representation format and data structure of each item stored in the configuration table 93400 may not be the same as that of the management target device.
  • the management program 32000 may receive each item in the data structure or data representation format of the management target device.
  • the device communication module 32200 periodically or repeatedly accesses the managed device under management, and acquires configuration information of each component in the managed device. Note that the repetition of the execution instruction does not have to be strictly every fixed period, and may be at any timing.
  • the device communication module 32200 may instruct the managed device under management to change the configuration in response to a request from the administrator. After instructing the management target device to change the configuration, the device communication module 32200 reacquires the configuration information of each component in the management target device and keeps the configuration information stored in the configuration table 93400 up to date. Good.
  • the GUI display processing module 32300 displays the acquired configuration management information via the output device 31200 in response to a request from the administrator via the input device 31300.
  • the input device and the output device may be separate devices, or may be one or more integrated devices.
  • the management server may have, for example, a display, a keyboard, a pointer device, etc. as input / output devices, or may have other devices.
  • a serial interface or an Ethernet interface may be used as an alternative to the input / output device, and a display computer (eg, management client 35000) having a display, a keyboard, and / or a pointer device may be connected to the interface.
  • the management server transmits the display information to the display computer via the interface, receives the input information from the display computer, displays the input information on the display computer, or accepts the input.
  • the input and display at the input / output device may be substituted.
  • a set of one or more computers that manage a computer system (information processing system) and display display information can be referred to as a “management system”.
  • a management computer that displays display information on a display device or a remote display computer can be called a management system, and a combination of a management computer and a display computer (for example, the management client 35000 in FIG. 1) can also be called a management system. it can.
  • a plurality of computers may realize processing equivalent to that of the management computer.
  • a plurality of computers are referred to as a management system. be able to.
  • FIG. 5 shows a reference example of Boot Order.
  • the Boot Order is a table for managing the priority of the Device Path used by the server.
  • the Boot Order may be composed of a description that the user describes in an arbitrary expression and a device path that indicates the location of the device to boot.
  • the description of Device Path is defined in the UEFI specification, and may be generated by an EFI or EFI driver.
  • Boot Order may be referred to as boot order information.
  • Each entry of Boot Order may be referred to as a Boot Option.
  • FIG. 5 is an example in which Boot Order's Device Path is configured with the WWN assigned to the Fiber Channel as a key.
  • FIG. 6 shows an example of Boot Order 1800 according to the present embodiment.
  • the Device Path of Boot Order 1800 is based on a GUID that a vendor assigns an arbitrary number in place of a WWN assigned to a Fiber Channel as shown in FIG. 5 and a LUID assigned to an LU (for example, a logical VOL). Composed.
  • VenMsg (Vender GUID, LUID # C)” in FIG. 6 is expressed as “LUID # C”.
  • “HD (1, MBR, 0xA06A915F, 0x800, 0xAF000)” of Device Path in FIG. 6 is represented as “LUN # z”.
  • the Device Path is used when the EFI driver 170 searches for a device, and may be a description different for each EFI driver 170.
  • the Boot Order 1800 in FIG. 6 indicates “FC1”, “FC2”, and “FC3” in descending order of priority.
  • the system referring to Boot Order in FIG. 6 tries to start from the Device Path of “FC1” of the entry “1”, and when it fails, next, it tries to start from the Device Path of “FC2” of the entry “2”. Repeat that.
  • FIG. 5 and 6 are both descriptions that satisfy the UEFI specification, and are typically used in the notation of FIG. However, in this embodiment, the notation shown in FIG. 6 is used.
  • FIG. 7 and 8 show a configuration example of the boot priority 1500 included in the FC-HBA 120.
  • FIG. 7 and 8 show a configuration example of the boot priority 1500 included in the FC-HBA 120.
  • the Boot Priority 1500 may have, as item values, the WWN of the storage device I / O port, the LUN of the storage device, and the LUID assigned to the logical VOL of the storage device.
  • the LUID is a unique ID for a plurality of logical VOLs existing in a plurality of storage apparatuses. For example, in FIG. 9, even when logical VOLs of different storage apparatuses are assigned to the active server and the spare server, the LUIDs of the respective logical VOLs do not overlap.
  • Boot Priority 1500 may be referred to as boot search information.
  • the item value of Boot Priority 1500 may be set by the user.
  • the EFI driver 170 may provide an interface for setting and changing the item value of the Boot Priority 1500.
  • the Boot Priority 1500 is used by the EFI driver 170 to respond with a priority to a device search instruction received from the EFI 190.
  • the LUID is such that the EFI driver 170 issues an Inquiry command requesting the Device Identification VPD Page to the storage device, and the Identifier Type or Identity Authentication from the information in the Identification Description list that is returned, , T10 Vendor Identification shows the value of Identification Descriptor.
  • FIG. 9 shows an example of the operation of switching from the active server to the spare server when a failure occurs in the redundant system.
  • the SVP copies the Boot Order 1800C included in the EFI 190 of the active server 100 to the EFI 190B of the spare server 100B as a failover process (the post order is referred to as Boot Order 1800D).
  • the SVP also copies the Boot Priority 1500C of the current FC-HBA 120A to the spare FC-HBA 120B (the copy is referred to as Boot Priority 1500D).
  • FIG. 10 shows an example of the boot operation of the active server 100A
  • FIG. 11 shows an example of the boot operation of the standby server 100C after failover.
  • FIG. 10 is a sequence chart showing an example of the boot operation of the active server 100A in FIG.
  • Device Path including LUID # C is set in the entry “1” of Boot Order 1800C of the active server 100A.
  • WWN # 1, LUN # z, and LUID # C are set in the entry “1” of the Boot Priority 1500C of the EFI driver 170A.
  • the EFI 190A and the EFI driver 170A start up in cooperation.
  • the EFI 190A first reads the Device Path of the entry “1” of the Boot Order 1800C (S40100), and issues an execution instruction to the EFI driver 170A (S40300). This execution instruction may include LUID # C described in the read Device Path. Then, the EFI 190A waits for completion of the execution of the EFI driver 170A (S40400).
  • the EFI driver 170A confirms that WWN # 1, LUN # z, and LUID # C are set in the entry “1” of the Boot Priority 1500C (S40200), and waits for the EFI 190A to be called (S40500). .
  • the EFI driver 190A When the EFI driver 190A receives an execution instruction from the EFI 190A, the EFI driver 190A specifies WWN # 1 and LUN # z corresponding to the LUID # C included in the execution instruction from the Boot Priority 1500C. Then, the EFI driver 190A searches for the logical VOL of LUN # z using the identified WWN # 1 as a key (S40600).
  • the EFI driver 170A can find a logical VOL of LUN # z using the WWN # 1 as a key.
  • the EFI driver 170A transmits the Device Path described using the found logical VOL LUID # C to the EFI 190A (S40700).
  • the EFI 190A compares the Device Path transmitted from the EFI driver 170A with the Device Path for which the execution instruction has been issued in S40300 (S40800).
  • FIG. 11 is a sequence chart showing an example of the boot operation of the spare server 100B after failover in FIG.
  • the EFI 190B and the EFI driver 170B start up in cooperation.
  • EFI190B Boot Order1800D is a copy of EFI190A Boot Order1800C.
  • boot priority 1500D of the FC-HBA 120B is a copy of the boot priority 1500C of the FC-HBA 120A.
  • the EFI 190B first reads the Device Path of the entry “1” of Boot Order 1800D (S50100), and issues an execution instruction to the EFI driver 170B (S50300). This execution instruction may include LUID # C described in the Device Path. Then, the EFI 190B waits for completion of the execution of the EFI driver 170B (S50400).
  • the EFI driver 170B confirms that WWN # 1, LUN # z, and LUID # C are set in the entry “1” of the Boot Priority 1500D (S50200), and waits for the EFI 190B to be called (S50500). .
  • the EFI driver 170B When the execution instruction is received from the EFI 190B, the EFI driver 170B specifies WWN # 1 and LUN # z corresponding to the LUID # C included in the execution instruction from the Boot Priority 1500D. Then, the EFI driver 170B searches for the logical VOL of the specified WWN # 1 and LUN # z (S50600).
  • the EFI driver 170B cannot find a logical VOL of LUN # z using the WWN # 1 as a key (S50700).
  • the EFI driver 170B next searches for a logical VOL of LUN # z using LUID # C as a key (S50800).
  • the EFI driver 170B can find the logical VOL of LUN # z using LUID # C as a key. Then, the EFI driver 170B recognizes that the path to the logical VOL of the LUN #z is WWN # 2 (S50900).
  • the EFI driver 170B rewrites WWN # 1 of the entry “1” of Boot Priority 1500D to WWN # 2 (S51000). By this rewriting, the logical VOL of LUN # z can be immediately discovered from the next time using WWN # 2 corresponding to LUID # C as a key, as in FIG.
  • the EFI driver 170B transmits the Device Path described using the discovered logical VOL LUID # C to the EFI 190B (S51100).
  • the EFI 190B compares the Device Path transmitted from the EFI driver 170B with the Device Path for which the execution instruction has been issued in S40300 (S51200).
  • FIG. 12 is a flowchart illustrating a processing example of the EFI driver 170 according to the present embodiment.
  • the EFI driver 170A of the working FC-HBA 120A may perform the processing of FIG. 12 in S40600 of FIG. 10, and the EFI driver 170B of the spare FC-HBA 120B may perform the processing of FIG. 12 in S50600, S50700, S50800, and S50900 of FIG.
  • the EFI driver 170 initializes a variable n (n is an integer) for managing the maximum number of entries (for example, “8”) of the Boot Priority 1500 to “1” (S70100).
  • the EFI driver 170 confirms the nth entry of the Boot Priority 1500 (S70200).
  • the EFI driver 170 searches for a logical VOL that matches the WWN and LUN set in the nth entry (S70400). Then, the process proceeds to S70500.
  • the EFI driver 170 stores the Device Path described using the LUID of the found logical VOL in the Boot Order 1800 (S71100). Then, the EFI driver 170 increments the variable n by 1 (S71000), and proceeds to S71200.
  • the EFI driver 170 stores the Device Path described using the LUID of the found logical VOL in the Boot Order 1800 (S71100). Then, the EFI driver 170 increments the variable n by 1 (S71000), and proceeds to S71200.
  • the EFI driver 170 ends the logical VOL search when n is larger than 8 (n ⁇ 8: NO), and returns to S70200 when n is 8 or less (n ⁇ 8: YES). Continue searching for VOL.
  • S40600 in FIG. 10 corresponds to the processing when the logical VOL having the same WWN and LUN is found in S70500 in the processing of FIG.
  • S50600, S50700, S50800, and S50900 in FIG. 11 correspond to the processing when the logical volume with the same WWN and LUN is not found in S70500 and the logical VOL with the same LUID is found in S70800 in the processing of FIG. .
  • the spare server 100B can be normally started. If the Boot Order is described as in the example of FIG. 5, the spare server cannot find a logical VOL in S50700 and fails to start.
  • a logical VOL is searched using WWN as a key, and if it is not found by the search, a logical VOL is searched using LUID as a key. This is because the search can be performed faster (that is, the boot time is shorter) than using as a key. Therefore, in this embodiment, as shown in FIGS. 7 and 8, when a logical VOL is found using the LUID as a key, the WWN of the Boot Priority 1500 is updated to the WWN on the path to the found logical VOL. The next boot time is shortened.
  • Integrated platform 100 Server 120: FC-HBA 200: Storage device 190: EFI 170: EFI driver 1500: Boot Priority 1800: Boot Order

Abstract

統合プラットフォームは、現用及び予備サーバと、ストレージ装置とを有する。ストレージ装置は、複数のストレージポートを有し、当該複数のストレージポートには、それぞれ、WWNが付与されている。ストレージ装置が提供する複数の論理ボリュームには、それぞれ、LUIDが付与されている。現用及び予備サーバは、それぞれ、ストレージポートと1対1で接続されている。現用サーバは、接続先のストレージポートのWWNと、ブート時にアクセスする論理ボリュームであるブート論理ボリュームのLUNと、当該ブート論理ボリュームのLUIDと、を関連付けるブート検索情報、を有する。フェイルオーバが実行される際、現用サーバが有するブート検索情報は、予備サーバへコピーされる。

Description

統合プラットフォーム、サーバ、及び、フェイルオーバ方法
 本発明は、概して、計算機制御に関し、特に、計算機の冗長化に関する。
 ストレージネットワークにおいては、LU(Logical Unit)へのアクセスを特定のサーバに限定することが望ましい。サーバが、アクセス(I/O(Input/Output))してはいけないLU(例えば論理ボリューム(論理VOL))に誤ってアクセスし、そのLUのデータを誤って更新してしまうおそれがあるからである。
 LUへのアクセスを特定のサーバに限定する技術として、LUマスキング機能が知られている。このLUマスキング機能は、ストレージ装置が有するポート毎に、LUについてのアクセス制御リストを作成する。アクセス制御リストは、ストレージ装置内でLUへのアクセスを許可されたFC-HBA(Fibre Channel-Host Bus Adapter)の物理ポートのWWN(World Wide Name)を含む。
 また、ストレージ装置のI/Oポート(ストレージポートという)は、従来、1から2ポート程度と少なく、FCスイッチを用いて、複数のサーバからのアクセスを可能とする。しかし、近年、ストレージポートは、10以上のポートを搭載していることも多く、高額なFCスイッチを用いずとも、複数のサーバと直結して接続できるようになってきている。
特許第4710518号公報 特開2014-41395号公報
 特許文献1では、FC-HBAとストレージ装置のFC(Fibre Channel)ポートとが、FCスイッチを介して接続されることが前提となっている。このため、FCスイッチの機能により、現用サーバから予備サーバへの切り替えの前後において、切り替え前の現用サーバが発行するI/O要求と、切り換え後の予備サーバが発行するI/O要求とは、同じストレージポートで受領される。LUについてのアクセス制御リストは、ストレージポート単位で適用される(例えばストレージポートにアクセス制御リストが割り当てられる)が、上記のように、同一LUを指定したI/O要求を受けるストレージポートは、現用サーバから予備サーバへの切り替えの前後で同じなので、切り替え前のサーバは、その同じLUにアクセスできてしまう。
 一方、ストレージポートとサーバの物理ポートとがFCケーブル又はPCIe(Peripheral Component Interconnect Express)バス等によって直結されている場合(言い換えれば、ストレージポートとサーバの物理ポートとが1対1で対応している場合)、現用サーバから予備サーバへの切り替えの前後において、切り替え前の現用サーバが発行するI/O要求と、切り換え後の予備サーバが発行するI/O要求とは、異なるストレージポートで受領される。切り換え後の予備サーバは、I/O要求の送出先のストレージポートのWWNを元に、LUの検索指示を送出するが、I/O要求を受けるストレージポートのWWNは変わってしまっているため、LUを見つけることができない。そのため、切換え後の予備サーバは、LUへアクセスすることができない。
 また、特許文献2では、仮想化したLPAR(Logical PARtition)の構成が条件となっているため、仮想化を行っていない計算機システムにおいて上述の課題を解決することができない。
 そこで、本発明の目的は、フェイルオーバが実行された際に、予備サーバが正常にブートできるようにすることにある。
 一実施例に係る統合プラットフォームは、現用及び予備サーバと、ストレージ装置とを有する。
 ストレージ装置は、複数のストレージポートを有し、当該複数のストレージポートには、それぞれ、World Wide Name(WWN)が付与されている。
 ストレージ装置が提供する複数の論理ボリュームには、それぞれ、一意に識別可能なLogical Unit ID(LUID)が付与されている。
 現用及び予備サーバは、それぞれ、ストレージポートと1対1で接続されている。
 現用サーバは、接続先のストレージポートのWWNと、ブート時にアクセスする論理ボリュームであるブート論理ボリュームのLogical Unit Number(LUN)と、当該ブート論理ボリュームのLUIDと、を関連付けるブート検索情報、を有する。
 フェイルオーバが実行される際、現用サーバが有するブート検索情報は、予備サーバへコピーされる。
 本発明によれば、フェイルオーバが実行された際に、予備サーバが正常にブートすることができる。
統合プラットフォームの構成例を示す。 サーバの構成例を示す。 ストレージ装置の構成例を示す。 管理サーバの構成例を示す。 Boot Orderの参考例を示す。 本実施例に係るBoot Orderの一例を示す。 Boot Priorityの構成例を示す。 Boot Priorityの構成例を示す。 現用サーバから予備サーバにフェイルオーバする動作の一例を示す。 現用サーバのブート動作例を示すシーケンスチャートである。 フェイルオーバ後の予備サーバのブート動作例を示すシーケンスチャートである。 本実施例に係るEFIドライバの処理例を示すフローチャートである。
 以下、図面を参照して、実施例を説明する。なお、以下の説明で、は「aaa表」、及び「aaaリスト」等の表現にて実施例の情報を説明するが、これらは表及びリスト等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために、「aaa表」及び「aaaリスト」等を「aaa情報」と呼ぶことができる。
 また、以下の説明では、各情報の要素の識別情報の一例として、「名前」及び「ID」の少なくとも1つを用いることがあるが、これらについては互いに置換が可能である。
 また、下記の説明では、仮想化の環境でも実現可能であり、その場合、「Boot Priority」をLPAR上の仮想FC-HBA所有する「仮想Boot Priority」として、「Boot Order」をLPAR上のゲストEFIが所有する「仮想Boot Order」として置換が可能である。
 また、以下の説明では、同種の要素を区別しないで説明する場合には名称及び参照符号を使用し(例えばサーバ100)、同種の要素を区別して説明する場合にはその要素に割り振られた識別情報を使用する(例えばサーバ100A、100B)を使用することがある。
 また、以下の説明では、「プログラム」を主語として処理の説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、当該処理の説明は、プロセッサを主語とした処理の説明としてもよい。また、プログラムを主語として開示された処理は、そのプログラムを実行するプロセッサを有する装置(例えば、管理システム又はストレージ装置)が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。また、各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
 図1は、本実施例に係る統合プラットフォームの構成例を示す。
 統合プラットフォーム1は、ストレージ装置200と、複数のサーバ100とを有する。ストレージ装置200と複数のサーバ100とは、PCIeバス46を介して双方向通信可能に接続されている。複数のサーバ100が、サーバシャーシ15に搭載されている。ストレージ装置200と複数のサーバ100とは、管理ネットワーク45を介して、管理サーバ300と双方向通信可能に接続されている。管理ネットワーク45には、管理サーバ300の管理クライアント350と、サーバシャーシ15に搭載されているサービスプロセッサ(SVP)17とが接続されてよい。管理ネットワーク45は、例えばLAN(Local Area Network)などの通信ネットワークであってよい。
 サーバ100は、例えば、図示しないクライアントコンピュータからファイルのI/O要求を受信すると、その受信したI/O要求に基づいて、ストレージ装置200にアクセスしてよい。ストレージ装置200へのアクセスとは、サーバ100がストレージ装置200にI/O要求を送信することであってよい。サーバシャーシ15の内部には、内部ネットワーク(例えばLAN)47が存在してよい。
 SVP17は、コントローラの一例であり、内部ネットワーク47を介して、各サーバ100を管理する。SVP16は、切り替え元のサーバ100及び切り替え先のサーバ100の少なくとも一方に、フェイルオーバの指示を出すことができてよい。SVP17は、サーバシャーシ15の内部の保守ポート16と、内部バス等の回路を介して、双方向通信可能に接続されてよい。管理者は、保守ポート16に保守用の端末を直接接続し、その保守用の端末を用いることにより、管理ネットワーク45を介することなく、SVP17を操作することができてよい。
 管理サーバ300は、管理システムの一例であり、管理ネットワーク45を介して、計算機システムを管理する。管理サーバ300も、切り替え元のサーバ100及び切り替え先のサーバ100の少なくとも一方に、フェイルオーバの指示を出すことができてよい。言い換えれば、各サーバ100が、SVP17及び管理サーバ30000の少なくとも一方からフェイルオーバの指示を受けることができてよい。これにより、SVP17は、サーバシャーシ15内において、所定のイベントを検出し、管理サーバ300からの指示無しに、自動的にフェイルオーバを行うこともできるし、管理サーバ300からの指示を受けて(例えば、管理クライアント350の操作者(管理者)によるマニュアル操作に応答して)、フェイルオーバを行うこともできる。
 管理クライアント350は、管理ネットワーク45を介して、管理サーバ300のGUI表示処理モジュール32300(図4参照)と通信し、WEBブラウザ上に各種情報を表示する計算機である。管理者は管理クライアント上のWEBブラウザに表示された情報を参照することで、計算機システム内の装置を管理することができる。管理サーバ300と管理クライアント350とは、1台のサーバから構成されてもよい。
 図2は、サーバ100の構成例を示す。
 サーバ100は、管理ネットワーク45に接続される管理ポート11100と、内部ネットワーク47に接続されるポート11000と、1以上のI/Oポート14000と、PCIeバスを介してストレージ装置200に接続されるFC-HBA120と、メモリ13000と、プロセッサ12000と、EFI190とを有する。これらの要素は、内部バス等の回路を介して双方向通信可能に接続されている。
 プロセッサ12000は、1以上のプロセッサで構成されてよい。メモリ13000は、1以上のメモリで構成されてよく、また、補助記憶デバイスのような記憶デバイスを含んでよい。EFI190は、Boot Order180を有し、Boot Order180は、ストレージ装置200の論理VOLへアクセスするために使用される。
 サーバ100は、FC-HBA120を介して、ストレージ装置200へアクセスする。FC-HBA120は、サーバ100が、論理VOLにアクセスするために使用するBoot Priority150を有する。また、FC-HBA120は、当該FC-HBA120の初期化やストレージ装置200へのアクセスを行うためのEFIドライバ170を有する。
 メモリ13000には、OS13100と、LPAR管理プログラム13200と、I/Oポート管理表13300と、LPAR管理表13400と、LPAR稼動スケジュール管理表13500と、が格納されてよい。
 LPAR管理プログラム13200は、オペレーティングシステム13100から提供されたプロセッサ12000及びメモリ13000のような物理資源(コンピュータリソース)を論理的に分割し、LPARを作成する。LPARは、管理計算機と呼ぶこともできる。LPAR管理プログラム13200が作成したLPARは、PCIeバス46000を介して、サーバ100に接続されたストレージ装置200上の論理VOLを、記憶領域として認識する。
 なお、図2では、LPAR管理プログラム13200がメモリ13000に存在しているが、LPAR管理プログラムが存在せず、オペレーティングシステム13100から提供された記憶領域を使用し、当該記憶領域に対してI/Oを行う業務アプリケーションが代わりに存在しても良い。つまり、LPARを構築できない(実行できない)サーバ100が存在してよい。
 また、図2では、LPAR管理プログラム13200がメモリ13000に存在しているが、LPAR管理プログラムの代わりに仮想化制御プログラムが存在し、仮想化制御プログラムが、プロセッサ12000及びメモリ13000のような物理資源を抽象化及び標準化して、仮想マシンに仮想的なハードウェアを提供してもよい。その場合、以下の説明において、LPARが仮想マシンに、仮想化制御プログラムがLPAR管理プログラムに相当する。
 図3は、ストレージ装置200の構成例を示す。
 ストレージ装置200は、ストレージシステムの一例であり、複数のストレージポート21000と、管理ポート21100と、メモリ23000と、RAID(Redundant Arrays of Inexpensive (or Independent) Disks)グループ24010と、コントローラ25000とを有する。それらの要素は、内部バス等の回路を介して双方向通信可能に接続されている。
 ストレージポート21000は、PCIeバス46を介してサーバ100に接続してよい。
 管理ポート21100は、管理ネットワーク45を介して管理サーバ300に接続してよい。
 メモリ23000には、プログラムや管理情報などが格納されてよい。メモリ23000は、1以上のメモリで構成されてよく、また、補助記憶デバイスのような記憶デバイスを含んでよい。
 RAIDグループ24010には、様々なデータが格納されてよい。
 コントローラ25000は、データやメモリ内の管理情報を制御してよい。
 メモリ23000には、ディスク管理プログラム23100と、ポート管理表23200と、ホストグループ管理表23300と、RAIDグループ管理表23400と、ボリューム管理表23500と、ホストグループ-ボリューム関連管理表23600と、テーブルサイズ上限管理表23700と、が格納される。
 ディスク管理プログラム23100は、管理ポート21100を経由して管理サーバ300と通信し、管理サーバ300に対して、ポート管理表23200と、ホストグループ管理表23300と、RAIDグループ管理表23400と、ボリューム管理表23500と、ホストグループ-ボリューム関連管理表23600と、テーブルサイズ上限管理表23700と、のうちの少なくとも1つの表が有する情報を、ストレージ装置200へ提供する。
 RAIDグループ24010は、複数の不揮発記憶デバイス24220によって構成されている。RAIDグループ24010に代えて1つの不揮発記憶デバイス24220が採用されてもよい。RAIDグループ24010のような1以上の不揮発記憶デバイス24220を基に、論理VOL24110が提供される。少なくとも1つの論理VOL24110は、Thin Provisioningに従う仮想ボリュームのような仮想的な論理VOLであってよい。
 コントローラ25000は、内部に、ストレージ装置200内の制御を行うプロセッサや、サーバ100との間でやりとりするデータを一時的に記憶するキャッシュメモリを有してよい。そして、それぞれのコントローラ25000は、ストレージポート21000とRAIDグループ24010との間に介在し、両者の間におけるデータの受け渡しを制御してよい。
 なお、ストレージ装置200は、サーバ100に提供した論理VOL24110を指定したアクセス要求(I/O要求を指す)を受信し、その論理VOL24110(例えば、その論理VOL24110の基になっている記憶デバイス)への読み書きを行うストレージコントローラと、記憶領域を提供する前述の記憶デバイスを含めば、図3及び前述以外の構成であってもよい。例えば、ストレージコントローラと記憶領域とを提供する記憶デバイスが別な筐体に格納されていてもよい。例えば、メモリ23000とコントローラ25000とがストレージコントローラであってもよい。ストレージコントローラと記憶デバイスとが同じ筐体に存在する場合及び別な筐体に存在する場合の両方を含む表現として、ストレージ装置を、ストレージシステムと呼び変えても良い。ストレージシステムは、複数のストレージ装置であってもよい。
 図4は、管理サーバ300の構成例を示す。
 管理サーバ300は、管理システムの一例であり、管理ネットワーク45に接続するための管理ポート31000と、プロセッサ31100と、記憶資源33000と、後述する処理結果を出力するためのディスプレイ装置等の出力デバイス31200と、管理者が指示を入力するためのキーボード等の入力デバイス31300とを有してよい。これらの要素は、内部バス等の回路を介して双方向通信可能に接続されている。記憶資源33000は、1以上のメモリ(例えば半導体メモリ)でもよいし、不揮発記憶デバイスが混在してよい。
 記憶資源33000には、管理プログラム32000が格納されている。管理プログラム32000は、装置管理モジュール32100と、装置通信モジュール32200と、GUI表示処理モジュール32300と、を含んでよい。各モジュールは、記憶資源33000のプログラムモジュールとして提供されているが、ハードウェアモジュールとして提供されてもよい。管理プログラム32000は、各モジュールの処理を実現できるのであれば、モジュールによって構成されなくてもよい。すなわち、以下の説明における各モジュールについての説明は、管理プログラム32000に関する説明に置き換えられてもよい。
 記憶資源33000には、さらに、装置管理表33200と、ホスト-ストレージパス管理表33300と、構成表93400とが格納されてよい。構成表93400には、構成情報が格納されてよい。構成情報は、例えば、装置通信モジュール32200が管理対象の各サーバ100から収集してきたI/Oポート管理表13300の各項目と、LPAR管理表13400の各項目と、LPAR稼動スケジュール管理表13500の各項目と、管理対象の各ストレージから収集してきたポート管理表23200の各項目と、ホストグループ管理表23300の各項目と、RAIDグループ管理表23400の各項目と、ボリューム管理表23500の各項目と、ホストグループ-ボリューム関連管理表23600の各項目と、テーブルサイズ上限管理表23700の各項目とを含んでよい。構成表93400には、必ずしも、管理対象装置の全ての表、又は、表中の全ての項目が格納されなくてもよい。構成表93400に格納される各項目のデータ表現形式及びデータ構造は、管理対象装置と同じでなくてもよい。管理プログラム32000は、管理対象装置からこれら各項目を受信する場合、管理対象装置のデータ構造やデータ表現形式でこれら各項目を受信してもよい。
 装置通信モジュール32200は、管理下の管理対象装置に定期的又は繰り返しアクセスし、管理対象装置内の各コンポーネントの構成情報を取得する。なお、当該実行指示の繰り返しは、厳密に一定期間毎である必要は無く、どのようなタイミングであってもよい。装置通信モジュール32200は、管理者からの要求に応じて、管理下の管理対象装置に対して構成変更を指示してよい。装置通信モジュール32200は、管理対象装置に対して構成変更を指示した後、管理対象装置内の各コンポーネントの構成情報を再取得し、構成表93400に格納された構成情報を最新の状態に保ってよい。
 GUI表示処理モジュール32300は、入力デバイス31300を介した管理者からの要求に応じ、取得した構成管理情報を、出力デバイス31200を介して表示する。入力デバイスと出力デバイスとは別々なデバイスでもよいし、一つ以上のまとまったデバイスであってもよい。
 管理サーバ(管理計算機)は、例えば、入出力デバイスとして、ディスプレイとキーボードとポインタデバイス等を有してもよいし、これ以外の装置を有してもよい。入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを用い、当該インターフェースに、ディスプレイ、キーボード及び/又はポインタデバイスを有する表示用計算機(例えば、管理クライアント35000)が接続されてもよい。そして、管理サーバは、当該インターフェースを介して、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信して表示用計算機に表示したり、入力を受け付けたりすることで、入出力デバイスでの入力及び表示を代替してもよい。
 本明細書では、計算機システム(情報処理システム)を管理し、表示用情報を表示する1つ以上の計算機の集合を「管理システム」と呼ぶことができる。表示デバイス又は遠隔の表示用計算機に表示用情報を表示する管理計算機を管理システムと呼ぶことができ、管理計算機と表示用計算機(例えば図1の管理クライアント35000)の組み合わせも管理システムと呼ぶことができる。また、処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は複数の計算機(表示用計算機を含んでよい)を管理システムと呼ぶことができる。
 図5は、Boot Orderの参考例を示す。
 Boot Orderは、サーバが使用するDevice Pathの優先順位を管理するためのテーブルである。Boot Orderは、ユーザが任意の表現で記述するDescriptionと、ブートするデバイスの場所を示すDevice Pathとで構成されてよい。Device Pathの記述は、UEFIの仕様で規定されており、EFIやEFIドライバによって生成されてよい。Boot Orderは、ブート順序情報と呼ばれてよい。Boot Orderの各エントリは、Boot Optionと呼ばれてよい。
 図5は、Boot OrderのDevice Pathが、Fibre Channelに割り当てられているWWNをキーとして構成されている例である。
 図6は、本実施例に係るBoot Order1800の一例を示す。
 本実施例に係るBoot Order1800のDevice Pathは、図5のようなFibre Channelに割り当てられるWWNに代えて、ベンダーが任意の番号を割り当てるGUIDと、LU(例えば論理VOL)に割り当てられたLUIDとによって構成される。
 なお、本実施例において、図6の「VenMsg(Vender GUID,LUID#C)」を、「LUID#C」と表記する。また、本実施例において、図6のDevice Pathの「HD(1,MBR,0xA06A915F,0x800,0xAF000)」を、「LUN#z」と表記する。
 Device Pathは、EFIドライバ170がデバイスを検索するときに使用され、EFIドライバ170毎に異なる記述であってよい。
 図6のBoot Order1800は、優先順位の高い順に、「FC1」、「FC2」、「FC3」であることを示す。図6のBoot Orderを参照したシステムは、エントリ「1」の「FC1」のDevice Pathから起動を試み、失敗した場合、次に、エントリ「2」の「FC2」のDevice Pathから起動を試みる、ということを繰り返す。
 図5及び図6のBoot Orderは、共にUEFIの仕様を満たした記述であり、典型的には、図5の表記で使用されることが多い。しかし、本実施例では、図6の表記を使用する。
 図7及び図8は、FC-HBA120が有するBoot Priority1500の構成例を示す。
 Boot Priority1500は、項目値として、ストレージ装置のI/OポートのWWNと、ストレージ装置のLUNと、ストレージ装置の論理VOLに割り当てられているLUIDとを有してよい。LUIDは、複数のストレージ装置に存在する複数の論理VOLに対してもユニークなIDである。例えば、図9において、現用サーバと予備サーバとに、それぞれ、別々のストレージ装置の論理VOLが割り当てられた場合であっても、それぞれの論理VOLのLUIDは重複しない。
 Boot Priority1500は、ブート検索情報と呼ばれてもよい。Boot Priority1500の項目値は、ユーザによって設定されてよい。Boot Priority1500の項目値を設定及び変更するためのインターフェースは、EFIドライバ170が提供してよい。Boot Priority1500は、EFIドライバ170が、EFI190から受領したデバイスの検索指示に対して、優先順位を応答するために使用される。
 典型的には、LUIDは、EFIドライバ170が、Device Identification VPD Pageを要求するInquiryコマンドをストレージ装置に発行し、返答してきたIdentification Descriptionリストの情報からDentifier TypeがName Address Authority、若しくは、Identifier Typeが、T10 Vendor IdentificationのIdentification Descriptorの値を示す。
 図9は、冗長化システムにおいて障害が発生し、現用サーバから予備サーバに切り替える動作の一例を示す。
 現用サーバ100Aに障害が発生した場合、SVPは、フェイルオーバ処理として、その現用サーバ100のEFI190が有するBoot Order1800Cを、予備サーバ100BのEFI190Bにコピーする(コピー後をBoot Order1800Dとする)。また、SVPは、現用FC-HBA120Aが有するBoot Priority1500Cも、予備FC―HBA120Bにコピーする(コピー後をBoot Priority1500Dとする)。
 次に、図10に現用サーバ100Aのブート動作例を、図11にフェイルオーバ後における待機サーバ100Cのブート動作の例を示す。
 図10は、図9において、現用サーバ100Aのブート動作例を示すシーケンスチャートである。
 ここで、現用サーバ100AのBoot Order1800Cのエントリ「1」には、LUID#Cを含むDevice Pathが設定されているとする。また、EFIドライバ170AのBoot Priority1500Cのエントリ「1」には、WWN#1、LUN#z、LUID#Cが設定されているとする。
 現用サーバ100Aに電源が投入されたとき、EFI190AとEFIドライバ170Aとは、連携しつつ起動する。
 EFI190Aは、最初に、Boot Order1800Cのエントリ「1」のDevice Pathを読み込み(S40100)、EFIドライバ170Aに対して実行指示を行う(S40300)。この実行指示には、読み込んだDevice Pathに記述されているLUID#Cが含まれてよい。そして、EFI190Aは、EFIドライバ170Aの実行完了を待つ(S40400)。
 一方、EFIドライバ170Aは、Boot Priority1500Cのエントリ「1」に、WWN#1、LUN#z、LUID#Cが設定されていることを確認し(S40200)、EFI190Aに呼び出されるのを待つ(S40500)。
 EFIドライバ190Aは、EFI190Aから実行指示を受けると、Boot Priority1500Cから、その実行指示に含まれるLUID#Cに対応するWWN#1及びLUN#zを特定する。そして、EFIドライバ190Aは、その特定したWWN#1をキーとして、LUN#zの論理VOLを検索する(S40600)。
 FC―HBA120Aは、ストレージ装置200のWWN#1に接続されているので、EFIドライバ170Aは、そのWWN#1をキーとして、LUN#zの論理VOLを発見できる。
 そこで、EFIドライバ170Aは、その発見した論理VOLのLUID#Cを用いて記述したDevice Pathを、EFI190Aに送信する(S40700)。
 EFI190Aは、EFIドライバ170Aから送信されたDevice Pathと、S40300で実行指示を行ったDevice Pathと、を比較する(S40800)。
 この比較の結果、何れのDevice PathもLUID#Cに対する記述で一致するので、EFI190Aは、エントリ「1」のDevice Pathからブートする(S40900)。
 図11は、図9において、フェイルオーバ後の予備サーバ100Bのブート動作例を示すシーケンスチャートである。
 予備サーバ100Bに電源が投入されたとき、EFI190BとEFIドライバ170Bとは、連携しつつ起動する。
 EFI190BのBoot Order1800Dは、EFI190AのBoot Order1800Cのコピーである。
 また、FC-HBA120BのBoot Priority1500Dは、FC-HBA120AのBoot Priority1500Cのコピーである。
 EFI190Bは、最初に、Boot Order1800Dのエントリ「1」のDevice Pathを読み込み(S50100)、EFIドライバ170Bに対して実行指示を行う(S50300)。この実行指示には、Device Pathに記述されているLUID#Cが含まれてよい。そして、EFI190Bは、EFIドライバ170Bの実行完了を待つ(S50400)。
 一方、EFIドライバ170Bは、Boot Priority1500Dのエントリ「1」に、WWN#1、LUN#z、LUID#Cが設定されていることを確認し(S50200)、EFI190Bに呼び出されるのを待つ(S50500)。
 EFIドライバ170Bは、EFI190Bから実行指示を受けると、Boot Priority1500Dから、その実行指示に含まれるLUID#Cに対応するWWN#1及びLUN#zを特定する。そして、EFIドライバ170Bは、その特定したWWN#1及びLUN#zの論理VOLを検索する(S50600)。
 しかし、FC―HBA120Bは、ストレージ装置200のWWN#2に接続されているので、EFIドライバ170Bは、そのWWN#1をキーとして、LUN#zの論理VOLを発見できない(S50700)。
 そこで、EFIドライバ170Bは、次に、LUID#Cをキーとして、LUN#zの論理VOLを検索する(S50800)。
 LUID#Cの論理VOLは、WWN#2に接続されているストレージ装置200に存在するので、EFIドライバ170Bは、LUID#Cをキーとして、LUN#zの論理VOLを発見できる。そして、EFIドライバ170Bは、そのLUN#zの論理VOLへの経路はWWN#2であることを認識する(S50900)。
 そこで、EFIドライバ170Bは、Boot Priority1500Dのエントリ「1」のWWN#1をWWN#2に書き換える(S51000)。この書き換えにより、次回からは、図10と同様、LUID#Cに対応するWWN#2をキーとして、LUN#zの論理VOLを直ちに発見できる。
 EFIドライバ170Bは、その発見した論理VOLのLUID#Cを用いて記述したDevice Pathを、EFI190Bに送信する(S51100)。
 EFI190Bは、EFIドライバ170Bから送信されたDevice Pathと、S40300で実行指示を行ったDevice Pathとを比較する(S51200)。
 この比較の結果、何れのDevice PathもLUID#Cに対する記述で一致するので、EFI190Bは、エントリ「1」のDevice Pathからブートする(S51300)。
 図12は、本実施例に係るEFIドライバ170の処理例を示すフローチャートである。
 現用FC-HBA120AのEFIドライバ170Aは、図10のS40600で、予備FC―HBA120BのEFIドライバ170Bは、図11のS50600、S50700、S50800、S50900で、この図12の処理を行ってよい。
 EFIドライバ170は、Boot Priority1500の最大エントリ数(例えば「8」)を管理するための変数n(nは整数)を「1」に初期化する(S70100)。
 EFIドライバ170は、Boot Priority1500のn番目のエントリを確認する(S70200)。
 EFIドライバ170は、そのn番目のエントリに設定が存在しない場合(S70300:NO)、nを1つインクリメントし(S71000)、S71200へ進む。
 EFIドライバ170は、そのn番目のエントリに設定が存在する場合(S70300:YES)、そのn番目のエントリに設定されているWWN及びLUNが一致する論理VOLを検索する(S70400)。そしてS70500へ進む。
 S70400の検索において、WWN及びLUNが一致する論理VOLが見つかった場合(S70500:YES)、EFIドライバ170は、その見つかった論理VOLのLUIDを、そのn番目のエントリに格納する(S70600)。
 そして、EFIドライバ170は、その見つかった論理VOLのLUIDを用いて記述したDevice Pathを、Boot Order1800に格納する(S71100)。そして、EFIドライバ170は、変数nを1つインクリメントし(S71000)、S71200へ進む。
 S70400の検索において、WWN及びLUNが一致する論理VOLが見つからなかった場合(S70500:NO)、EFIドライバ170は、そのn番目のエントリに設定されているLUIDが一致する論理VOLを検索する(S70700)。そして、S70800へ進む。
 S70700の検索において、LUIDが一致する論理VOLが見つかった場合(S70800:YES)、EFIドライバ170は、その見つかった論理VOLのWWN及びLUNを、そのn番目のエントリに上書きする(S70900)。
 そして、EFIドライバ170は、その見つかった論理VOLのLUIDを用いて記述したDevice Pathを、Boot Order1800に格納する(S71100)。そして、EFIドライバ170は、変数nを1つインクリメントし(S71000)、S71200へ進む。
 S70700の検索において、LUIDが一致する論理VOLが見つからなかった場合(S70800:NO)、EFIドライバ170は、変数nを1つインクリメントし(S71000)、S71200へ進む。
 S71200において、EFIドライバ170は、nが8よりも大きい場合(n≦8:NO)、論理VOLの検索を終了し、nが8以下の場合(n≦8:YES)、S70200に戻り、論理VOLの検索を続ける。
 図10のS40600は、当該図12の処理において、S70500でWWN及びLUNが一致する論理VOLが見つかった場合の処理に相当する。
 図11のS50600、S50700、S50800、S50900は、当該図12の処理において、S70500でWWN及びLUNが一致する論理ボリュームが見つからず、S70800でLUIDが一致する論理VOLが見つかった場合の処理に相当する。
 本実施例によれば、図11、図12の例に示すように、現用サーバ100Aから予備サーバ100Bにフェイルオーバが行われても、予備サーバ100Bが、正常に起動することができる。仮に、Boot Orderが図5の例のように記述されている場合、予備サーバは、S50700で論理VOLを見つけることができず、起動に失敗してしまう。
 図10乃至図12において、まず、WWNをキーとして論理VOLを検索し、その検索で見つからなかった場合にLUIDをキーとして論理VOLを検索しているのは、WWNをキーとする方が、LUIDをキーとするよりも、高速に検索できる(つまりブート時間が短くなる)からである。故に、本実施例では、図7及び図8に示すように、LUIDをキーとして論理VOLを見つけた場合に、Boot Priority1500のWWNを、その見つけた論理VOLへのパス上のWWNに更新し、次回のブート時間が短くなるようにしている。
 以上、幾つかの実施例を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施例にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。
 1:統合プラットフォーム 100:サーバ 120:FC-HBA 200:ストレージ装置 190:EFI 170:EFIドライバ 1500:Boot Priority 1800:Boot Order

Claims (9)

  1.  現用及び予備サーバと、ストレージ装置とを有する統合プラットフォームであって、
     前記ストレージ装置は、複数のストレージポートを有し、当該複数のストレージポートには、それぞれ、World Wide Name(WWN)が付与されており、
     前記ストレージ装置が提供する複数の論理ボリュームには、それぞれ、一意に識別可能なLogical Unit ID(LUID)が付与されており、
     前記現用及び予備サーバは、それぞれ、ストレージポートと1対1で接続されており、
     前記現用サーバは、接続先のストレージポートのWWNと、ブート時にアクセスする論理ボリュームであるブート論理ボリュームのLogical Unit Number(LUN)と、当該ブート論理ボリュームのLUIDと、を関連付けるブート検索情報、を有し、
     フェイルオーバが実行される際、前記現用サーバが有するブート検索情報は、前記予備サーバへコピーされる
    統合プラットフォーム。
  2.  前記現用及び予備サーバは、それぞれ、Extensible Firmware Interface(EFI)部と、EFIドライバ部とを含み、
     前記EFI部は、EFIの仕様に準拠し、前記ブート論理ボリュームへのデバイスパス情報を含むブート順序情報を有し、前記デバイスパス情報は、LUIDを用いて記述されており、
     前記EFIドライバ部は、前記ブート検索情報を有し、
     フェイルオーバが実行される際、前記現用サーバのEFI部が有するブート検索情報は、前記予備サーバのEFI部へコピーされ、前記現用サーバのEFIドライバ部が有する前記ブート順序情報は、前記予備サーバのEFIドライバ部へコピーされる
    請求項1に記載の統合プラットフォーム。
  3.  前記EFI部は、前記ブート順序情報のデバイスバス情報に含まれるLUIDを、前記EFIドライバ部へ発行し、
     前記EFIドライバ部は、
      前記ブート検索情報において、前記EFIから発行されたLUIDと関連付けられているWWNを用いて、前記ブート論理ボリュームを検索し、
      その検索の結果、前記ブート論理ボリュームを発見できない場合、当該ブート検索情報において、前記EFIから発行されたLUIDを用いて、前記ブート論理ボリュームを検索する
    請求項2に記載の統合プラットフォーム。
  4.  前記EFIドライバ部は、
      前記EFIから発行されたLUIDを用いた前記ブート論理ボリュームの検索の結果、前記ブート論理ボリュームを発見できた場合、前記ブート検索情報において、前記LUIDと関連付けられているWWNを、そのブート論理ボリュームを発見できた経路上のストレージポートのWWNに変更する
    請求項3に記載の統合プラットフォーム。
  5.  前記EFIドライバ部は、
      前記ブート論理ボリュームを発見できた場合、そのブート論理ボリュームへのLUIDを含むデバイスパス情報を、前記EFI部へ返し、
     前記EFI部は、
      前記EFIドライバ部へ発行したLUIDを含むデバイスパス情報と、前記EFIドライバ部から返されたLUIDを含むデバイスパス情報が一致する場合、当該デバイスパス情報の示すブート論理ボリュームからブートを開始する
    請求項4に記載の統合プラットフォーム。
  6.  ストレージ装置と接続されているサーバであって、
     前記ストレージ装置は、複数のストレージポートを有し、当該複数のストレージポートには、それぞれ、World Wide Name(WWN)が付与されており、
     前記ストレージ装置が提供する複数の論理ボリュームには、それぞれ、一意に識別可能なLogical Unit ID(LUID)が付与されており、
     前記サーバは、ストレージポートと1対1で接続されており、
     前記サーバは、接続先のストレージポートのWWNと、ブート時にアクセスする論理ボリュームであるブート論理ボリュームのLogical Unit Number(LUN)と、当該ブート論理ボリュームのLUIDと、を関連付けるブート検索情報、を有し、
     フェイルオーバが実行される際、前記サーバが有するブート検索情報は、他のサーバへコピーされる
    サーバ。
  7.  前記サーバは、Extensible Firmware Interface(EFI)部と、EFIドライバ部とを含み、
     前記EFI部は、EFIの仕様に準拠し、前記ブート論理ボリュームへのデバイスパス情報を含むブート順序情報を有し、前記デバイスパス情報は、LUIDを用いて記述されており、
     前記EFIドライバ部は、前記ブート検索情報を有し、
     フェイルオーバが実行される際、前記サーバのEFI部が有するブート検索情報は、前記他のサーバのEFI部へコピーされ、前記サーバのEFIドライバ部が有する前記ブート順序情報は、前記他のサーバのEFIドライバ部へコピーされる
    請求項6に記載のサーバ。
  8.  ストレージ装置に接続されている現用サーバ及び予備サーバ間におけるフェイルオーバ方法であって、
     前記ストレージ装置は、複数のストレージポートを有し、当該複数のストレージポートには、それぞれ、World Wide Name(WWN)が付与されており、
     前記ストレージ装置が提供する複数の論理ボリュームには、それぞれ、一意に識別可能なLogical Unit ID(LUID)が付与されており、
     前記現用及び予備サーバは、それぞれ、ストレージポートと1対1で接続されており、
     前記現用サーバは、接続先のストレージポートのWWNと、ブート時にアクセスする論理ボリュームであるブート論理ボリュームのLogical Unit Number(LUN)と、当該ブート論理ボリュームのLUIDと、を関連付けるブート検索情報、を有し、
     前記現用サーバから前記予備サーバに対してフェイルオーバを実行する際、前記現用サーバが有するブート検索情報を、前記予備サーバにコピーする
    フェイルオーバ方法。
  9.  前記現用及び予備サーバは、それぞれ、Extensible Firmware Interface(EFI)部と、EFIドライバ部とを含み、
     前記EFI部は、EFIの仕様に準拠し、前記ブート論理ボリュームへのデバイスパス情報を含むブート順序情報を有し、前記デバイスパス情報は、LUIDを用いて記述されており、
     前記EFIドライバ部は、前記ブート検索情報を有し、
     前記フェイルオーバを実行する際、前記現用サーバのEFI部が有するブート検索情報を、前記予備サーバのEFI部にコピーし、前記現用サーバのEFIドライバ部が有する前記ブート順序情報を、前記予備サーバのEFIドライバ部にコピーする
    請求項8に記載のフェイルオーバ方法。
PCT/JP2016/050475 2016-01-08 2016-01-08 統合プラットフォーム、サーバ、及び、フェイルオーバ方法 WO2017119116A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/050475 WO2017119116A1 (ja) 2016-01-08 2016-01-08 統合プラットフォーム、サーバ、及び、フェイルオーバ方法
JP2017560003A JP6516875B2 (ja) 2016-01-08 2016-01-08 統合プラットフォーム、サーバ、及び、フェイルオーバ方法
US15/761,116 US10579486B2 (en) 2016-01-08 2016-01-08 Integrated platform, server and failover method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/050475 WO2017119116A1 (ja) 2016-01-08 2016-01-08 統合プラットフォーム、サーバ、及び、フェイルオーバ方法

Publications (1)

Publication Number Publication Date
WO2017119116A1 true WO2017119116A1 (ja) 2017-07-13

Family

ID=59273390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050475 WO2017119116A1 (ja) 2016-01-08 2016-01-08 統合プラットフォーム、サーバ、及び、フェイルオーバ方法

Country Status (3)

Country Link
US (1) US10579486B2 (ja)
JP (1) JP6516875B2 (ja)
WO (1) WO2017119116A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11150911B2 (en) * 2018-06-15 2021-10-19 Dell Products, L.P. System and method for managing UEFI boot device path based on custom selection
CN116661688B (zh) * 2023-05-23 2023-12-12 无锡众星微系统技术有限公司 一种sas存储系统的业务响应方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175626A (ja) * 1999-12-22 2001-06-29 Toshiba Corp 最後に処理を行っていたサーバ計算機を判定するプログラムを記録した記録媒体、及び高可用性計算機システム
JP2013089148A (ja) * 2011-10-21 2013-05-13 Hitachi Ltd 計算機システムおよび計算機システムにおけるモジュール引き継ぎ方法
JP2015060474A (ja) * 2013-09-20 2015-03-30 日本電気株式会社 情報処理引き継ぎ制御装置、情報処理引き継ぎ制御方法、及び、情報処理引き継ぎ制御プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5146568A (en) * 1988-09-06 1992-09-08 Digital Equipment Corporation Remote bootstrapping a node over communication link by initially requesting remote storage access program which emulates local disk to load other programs
US6343324B1 (en) * 1999-09-13 2002-01-29 International Business Machines Corporation Method and system for controlling access share storage devices in a network environment by configuring host-to-volume mapping data structures in the controller memory for granting and denying access to the devices
US6931519B1 (en) * 2000-08-25 2005-08-16 Sun Microsystems, Inc. Method and apparatus for reliable booting device
US7421478B1 (en) * 2002-03-07 2008-09-02 Cisco Technology, Inc. Method and apparatus for exchanging heartbeat messages and configuration information between nodes operating in a master-slave configuration
US7039829B2 (en) * 2002-11-07 2006-05-02 Lsi Logic Corporation Apparatus and method for enhancing data availability by implementing inter-storage-unit communication
US7340638B2 (en) * 2003-01-30 2008-03-04 Microsoft Corporation Operating system update and boot failure recovery
US7676600B2 (en) * 2003-04-23 2010-03-09 Dot Hill Systems Corporation Network, storage appliance, and method for externalizing an internal I/O link between a server and a storage controller integrated within the storage appliance chassis
JP4462024B2 (ja) * 2004-12-09 2010-05-12 株式会社日立製作所 ディスク引き継ぎによるフェイルオーバ方法
US8924499B2 (en) * 2004-12-14 2014-12-30 International Business Machines Corporation Operating system migration with minimal storage area network reconfiguration
US7721138B1 (en) * 2004-12-28 2010-05-18 Acronis Inc. System and method for on-the-fly migration of server from backup
US8006125B1 (en) * 2005-04-29 2011-08-23 Microsoft Corporation Automatic detection and recovery of corrupt disk metadata
JP4710518B2 (ja) * 2005-09-28 2011-06-29 株式会社日立製作所 計算機システムとそのブート制御方法
JP4544146B2 (ja) * 2005-11-29 2010-09-15 株式会社日立製作所 障害回復方法
US7627584B2 (en) * 2005-11-30 2009-12-01 Oracle International Corporation Database system configured for automatic failover with no data loss
US8705344B2 (en) * 2006-11-14 2014-04-22 Cisco Technology, Inc. Graceful failover of a principal link in a fiber-channel fabric
US7945773B2 (en) * 2007-09-18 2011-05-17 International Business Machines Corporation Failover of blade servers in a data center
US8774052B2 (en) * 2011-02-24 2014-07-08 Brocade Communications Systems, Inc. Virtual port world wide names
US8707085B2 (en) * 2011-06-30 2014-04-22 International Business Machines Corporation High availability data storage systems and methods
US8626967B1 (en) * 2012-06-29 2014-01-07 Emc Corporation Virtualization of a storage processor for port failover
JP5856925B2 (ja) 2012-08-21 2016-02-10 株式会社日立製作所 計算機システム
CN104798349B (zh) * 2013-01-30 2018-08-07 慧与发展有限责任合伙企业 响应于端口故障的故障转移
US9747180B1 (en) * 2015-03-31 2017-08-29 EMC IP Holding Company LLC Controlling virtual endpoint failover during administrative SCSI target port disable/enable

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175626A (ja) * 1999-12-22 2001-06-29 Toshiba Corp 最後に処理を行っていたサーバ計算機を判定するプログラムを記録した記録媒体、及び高可用性計算機システム
JP2013089148A (ja) * 2011-10-21 2013-05-13 Hitachi Ltd 計算機システムおよび計算機システムにおけるモジュール引き継ぎ方法
JP2015060474A (ja) * 2013-09-20 2015-03-30 日本電気株式会社 情報処理引き継ぎ制御装置、情報処理引き継ぎ制御方法、及び、情報処理引き継ぎ制御プログラム

Also Published As

Publication number Publication date
JPWO2017119116A1 (ja) 2018-05-31
US20180260289A1 (en) 2018-09-13
JP6516875B2 (ja) 2019-05-22
US10579486B2 (en) 2020-03-03

Similar Documents

Publication Publication Date Title
US7346800B2 (en) Fail over method through disk take over and computer system having failover function
US8015396B2 (en) Method for changing booting configuration and computer system capable of booting OS
WO2015162660A1 (ja) 計算機システム
JP4448878B2 (ja) 障害回復環境の設定方法
US9886284B2 (en) Identification of bootable devices
US20070237162A1 (en) Method, apparatus, and computer product for processing resource change
WO2012004902A1 (ja) 計算機システム及び計算機システムの系切替制御方法
US20140244822A1 (en) Management apparatus and method of managing server node
JP2010257274A (ja) 仮想化環境におけるストレージ管理システム及びストレージ管理方法
JP5316616B2 (ja) 業務引き継ぎ方法、計算機システム、及び管理サーバ
WO2017119116A1 (ja) 統合プラットフォーム、サーバ、及び、フェイルオーバ方法
JP5267544B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
KR101436101B1 (ko) 사용자 단말의 저장 장치를 대체하는 서비스를 제공하는 서버 장치 및 그 방법
JP5750169B2 (ja) 計算機システム、プログラム連携方法、及びプログラム
KR101849708B1 (ko) 사용자 단말의 저장 장치를 대체하는 서비스를 제공하는 서버 장치 및 그 방법
JP4877368B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
Guide VMware, Inc.
US20140189129A1 (en) Information processing system and storage apparatus
WO2016056050A1 (ja) 計算機システム及びそれの管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16883619

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017560003

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15761116

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16883619

Country of ref document: EP

Kind code of ref document: A1