WO2018011882A1 - 計算機システム及びストレージ装置の制御方法 - Google Patents

計算機システム及びストレージ装置の制御方法 Download PDF

Info

Publication number
WO2018011882A1
WO2018011882A1 PCT/JP2016/070545 JP2016070545W WO2018011882A1 WO 2018011882 A1 WO2018011882 A1 WO 2018011882A1 JP 2016070545 W JP2016070545 W JP 2016070545W WO 2018011882 A1 WO2018011882 A1 WO 2018011882A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage device
logical device
remote copy
storage
logical
Prior art date
Application number
PCT/JP2016/070545
Other languages
English (en)
French (fr)
Inventor
梓 神
彰 出口
智大 川口
中川 弘隆
弘志 那須
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US16/081,539 priority Critical patent/US10761767B2/en
Priority to PCT/JP2016/070545 priority patent/WO2018011882A1/ja
Priority to JP2018527283A priority patent/JP6557785B2/ja
Publication of WO2018011882A1 publication Critical patent/WO2018011882A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2012Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant and using different communication protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Definitions

  • the present invention relates to a computer system and a storage apparatus control method.
  • Virtual machine information such as virtual machine images and usage data can be stored in the logical device of the storage device.
  • the logical device is failed over from the logical device of the primary site storage device storing the virtual machine information to the logical device of the secondary site storage device such as a remote site. Swap the primary and secondary. Therefore, the unit of the logical device associated with the virtual machine is important.
  • Patent Document 1 discloses a method of dividing one logical device of a storage apparatus into a plurality of virtual volumes on a host computer and storing data used by a virtual machine for each virtual volume.
  • Conglomerate LUN Structure has been proposed as a method for assigning logical devices to virtual machines.
  • multiple logical devices of a storage device are grouped into multiple logical groups (LUN Controllers), and logical paths are set for representative logical devices (ALU: Administrative Logical Unit) that serve as gateways within the logical group.
  • ALU Administrative Logical Unit
  • the input / output (I / O: Input Output) command from the host computer side is issued by designating the identifier of a logical device (SLU: Subsidy Logical Unit) other than the ALU in the logical group. Distribute the I / O processing to the SLU specified in.
  • SLU Subsidy Logical Unit
  • Failover includes formal failover that is automatically performed when an actual failure occurs, and test failover that is executed systematically for the purpose of verifying failover.
  • snapshots acquired from the remote copy destination logical device may be used so as not to affect the live operation and remote copy configuration. Furthermore, since the snapshot data at a predetermined point in time is used, there is a case where the actual operation is continued in the virtual machine that is executing the test failover. For example, a failure occurs in the virtual machine at the primary site while the virtual machine at the secondary site is performing a test failover using a snapshot.
  • the snapshot of the secondary site to which the virtual machine undergoing test failover was connected is treated as the latest data.
  • the snapshot from the secondary site at the failover destination is used to maintain the remote copy configuration. Is required to resume remote copy in the reverse direction.
  • An object of the present invention is to perform remote copy in the reverse direction from a snapshot at a secondary site that does not constitute a remote copy pair to a logical device at the primary site at high speed without causing an entire area copy.
  • the present invention is a computer system including a management computer, a first storage device, and a second storage device, wherein the first logical device of the first storage device and the second storage device
  • the second logical device constitutes a remote copy pair
  • the second logical device and the third logical device of the second storage device constitute a copy pair
  • the second logical device and the third logical device The logical device has a virtual ID recognized by the issuer of the I / O request
  • the second storage device receives an I / O request from the issuer of the I / O request to the third logical device.
  • the virtual IDs of the third logical device and the second logical device are switched to obtain an I / O request issuer account. Switching the Seth destination from a third logical device of the second logical device.
  • the present invention it is possible to speed up the resumption of remote copy in the reverse direction using the snapshot (third logical device) of the remote copy destination volume (second logical device) as the copy source.
  • FIG. 1 is a block diagram illustrating an example of a logical configuration of a computer system according to a first embodiment of this invention.
  • FIG. It is a figure which shows a 1st Example of this invention and shows an example of the process of I / O at the time of test failover execution.
  • FIG. 10 is a diagram illustrating an example of I / O processing during remote copy reconfiguration according to the first embodiment of this invention. It is a figure which shows the 1st Example and 2nd Example of this invention, and shows an example of the hierarchical structure of the storage area of a storage apparatus.
  • FIG. 1 shows an example of a flowchart of an I / O request processing program according to the first embodiment of this invention.
  • FIG. 1 shows an example of a flowchart of an I / O request processing program according to the first embodiment of this invention.
  • FIG. 3 shows an example of a flowchart of a remote copy resumption preparation program according to the first embodiment of this invention.
  • FIG. 1 shows an example of a flowchart of a remote copy restart program according to the first embodiment of this invention.
  • FIG. 10 is a diagram illustrating an example of I / O processing during remote copy reconfiguration according to the second embodiment of this invention. It is a figure which shows the 2nd Example of this invention and shows an example of a virtual LDEV management table. It is a figure which shows the 2nd Example of this invention and shows an example of a virtual LDEV-real LDEV management table.
  • the 2nd Example of this invention is shown and an example of the flowchart of a remote copy resumption preparation program is shown. It is a sequence diagram which shows a 1st Example of this invention and shows an example of the process from a test failover to remote copy resumption.
  • xxx table various types of information may be described using the expression “xxx table”, but the various types of information may be expressed using a data structure other than a table. In order to show that it does not depend on the data structure, the “xxx table” can be called “xxx information”.
  • the process may be described with “program” as the subject, but the program is executed by a processor (for example, a CPU (Central Processing Unit)) to appropriately store the determined process. Since processing is performed using resources (for example, memory) and communication interface devices (for example, communication ports), the subject of processing may be a processor.
  • the processor may have dedicated hardware in addition to the CPU.
  • the computer program may be installed on each computer from a program source.
  • the program source may be, for example, a program distribution server or a storage medium.
  • each element can be identified by an ID, a number, or the like, but other types of identification information such as a name may be used as long as it is identifiable information.
  • FIG. 1 is a block diagram showing a physical configuration of a computer system in the first embodiment and the second embodiment.
  • This computer system includes, for example, one or more host computers 110, one or more first storage devices 120, one or more second storage devices 130, and one or more management computers 140. Consists of including.
  • the host computer 110, the first storage device 120, and the second storage device 130 are connected to each other via communication lines 151, 152, and 153 via a SAN (Storage Area Network) 150, for example.
  • SAN Storage Area Network
  • the host computer 110, the first storage device 120, the second storage device 130, and the management computer 140 are connected via communication lines 161, 162, 163, and 164 via the management network 160, for example.
  • the first storage device 120 and the second storage device 130 are connected by communication lines 172 and 173 via a WAN (Wide Area Network) 170, for example.
  • WAN Wide Area Network
  • the communication lines 151, 152, 153, 161, 162, 163, 164, 172, and 173 described above are configured as wires such as metal cables and optical fiber cables, but may be connected wirelessly. In this case, these communication lines are omitted. Further, the number of these communication lines is not limited to one and may be plural.
  • the SAN 150, the management network 160, and the WAN 170 may be a common network. These are communication networks, and can be composed of, for example, a SAN, a WAN, a LAN (Local Area Network), or the like.
  • the host computer 110 is a computer device configured to include, for example, a CPU 111, a memory 112, a storage device 113, an input device 114, an output device 115, a host bus adapter (HBA: Host Bus Adapter) 116, and an interface control unit 117.
  • HBA Host Bus Adapter
  • HBA Host Bus Adapter
  • interface control unit 117 For example, it is composed of a personal computer, a workstation, a main frame, and the like.
  • the CPU 111 is a processor that controls the entire host computer 110, and reads various programs stored in the storage device 113 into the memory 112 and executes them.
  • the memory 112 is used not only for storing various programs read from the storage device 113 by the CPU 111 when the host computer 110 is started up, but also used as a work memory for the CPU 111.
  • the storage device 113 includes, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and is used to store and hold various programs and control data.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • the input device 114 includes, for example, a keyboard switch, a pointing device, a microphone, and the like.
  • the output device 115 is composed of, for example, a liquid crystal display.
  • the host bus adapter 116 performs protocol control during communication with the storage apparatuses 120 and 130.
  • the HBA 116 executes the protocol control function, data and commands can be transmitted and received between the host computer 110 and the storage apparatuses 120 and 130, and between the first storage apparatus 120 and the second storage apparatus 130. Done.
  • the interface control unit 117 is an adapter for connecting the host computer 110 to the management network 160.
  • the virtualization program 118 virtualizes resources of the CPU 111, the memory 112, the storage device 113, the input device 114, the output device 115, the HBA 116, and the interface control unit 117 of the host computer 110, and allocates and manages them in units of virtual machines.
  • the description of the second storage device 130 is omitted.
  • the first storage device 120 includes a plurality of storage devices 121 and a control unit 122 that controls input / output of data to / from the storage devices 121.
  • the storage device 121 is composed of, for example, an expensive disk such as a SCSI disk composed of an HDD or an SSD, or an inexpensive disk such as a SATA (Serial AT Attachment) disk or an optical disk.
  • a plurality of storage devices 121 form one RAID (Redundant Array of Inexpensive Disks) group, and one or more logical units are set on a physical storage area provided by one or more RAID groups. .
  • Data from the host computer 110 is stored in this logical unit in units of a predetermined size block.
  • the control unit 122 includes a CPU 123, a main memory 124, a nonvolatile memory 125, a cache memory 126, a plurality of host-side ports 127, a plurality of storage device-side ports 128, and an interface control unit 129.
  • the CPU 123 is a processor that controls the entire first storage device 120, and reads various programs stored in the storage device 121 into the main memory 124 and executes them.
  • the main memory 124 is used not only for storing various programs read from the nonvolatile memory 125 by the CPU 123 when the first storage device 120 is activated, but also as a work memory for the CPU 123.
  • the non-volatile memory 125 is used for storing and holding various programs and control data.
  • the cache memory 126 is mainly used as a storage area such as a queue for temporarily storing data exchanged between the host computer 110 and the storage device 121.
  • the host-side port 127 is an adapter for connecting the first storage device 120 to the SAN 150 or the WAN 170.
  • the storage device side port 128 is an adapter for connecting the control unit 122 to the storage device 121.
  • the interface control unit 129 is an adapter for connecting the first storage device 120 to the management network 160.
  • the management computer 140 is a computer device for managing the host computer 110, the first storage device 120, and the second storage device 130.
  • the CPU 141 the memory 142, the storage device 143, the input device 144, and the output device. 145 and an interface control unit 147.
  • the CPU 141 is a processor that controls the entire management computer 140, and reads various programs stored in the storage device 143 into the memory 142 and executes them.
  • the memory 142 is used not only for storing various programs read from the storage device 143 by the CPU 141 when the management computer 140 is activated, but also used as a work memory for the CPU 141.
  • the storage device 143 includes, for example, an HDD or an SSD, and is used for storing and holding various programs and control data.
  • the input device 144 includes, for example, a keyboard switch, a pointing device, a microphone, and the like.
  • the output device 145 is composed of, for example, a liquid crystal display.
  • the interface control unit 147 is an adapter for connecting the management computer 140 to the management network 160.
  • the storage management program 148 can transmit logical device operation requests to the control units 122 and 132 of the first storage device 120 and the second storage device 130 via the management network 160.
  • the storage management program 148 is read from the storage device 143 to the memory 142 and executed by the CPU 141.
  • FIG. 2 is a block diagram showing a logical configuration of the computer system in the first embodiment.
  • the storage apparatus in the present embodiment is not limited to either the first storage apparatus 120 or the second storage apparatus 130, and is described as the storage apparatuses 120 and 130.
  • the virtual machine 210 is a virtual computer that is virtualized by the virtualization program 118 and assigned a part of the computer resources of the host computer 110.
  • a virtual volume (VVOL: Virtual Volume) 212 is a logical device provided to the virtual machine 210 by the virtualization program 118, and the SLU 217 (described later) of the storage apparatuses 120 and 130 is a unit in which the host computer 110 recognizes the logical device. is there.
  • the virtualization program 118 reads an I / O request (Read, Write, etc.) from the virtual machine 210 to the VVOL 212 and issues an I / O command to the storage apparatuses 120, 130.
  • the VVOL 212 and the SLU 217 are associated with each other via an LU 214 and an ALU 215 described later.
  • a logical unit (LU) 214 is a unit obtained by dividing or consolidating a storage area provided by the storage device 121 into logical units.
  • the ALU 215 is a logical device recognized as a representative from the host computer 110 among the logical devices of the storage apparatuses 120 and 130.
  • the ALU 215 is managed in association with the SLU 217 of the storage apparatus 130.
  • the SLU 217 is a logical device managed by an SLU ID that is an ID recognized by the host by virtualizing the logical devices of the storage apparatuses 120 and 130, and is managed in association with the ALU 215.
  • An I / O command from the host computer 110 to the storage apparatuses 120 and 130 is issued by designating the identifier of the SLU 217.
  • FIG. 3 is a schematic diagram showing an example of I / O processing during test failover execution in the first embodiment.
  • the I / O path 310 shows an example of processing an I / O request issued from the virtual machine 210-A.
  • An I / O request issued from the virtual machine 210-A of the first host computer 110-A to the VVOL 212-A is transmitted to the first storage device 120 via the SAN 150.
  • the first storage device 120 in which the LU1 (214-A) associated with the VVOL 212-A of the first host computer 110-A is defined receives this I / O request, and LU1 ( 214-A) is associated with ALU1 (215-A), and further, I / O processing is performed on SLU1 (320), which is the SLU associated with VVOL 212-A.
  • the attribute of this SLU1 (320) is a remote copy primary volume (RC PVOL: Remote Copy Primary Volume).
  • the remote copy path 311 shows an example of remote copy for copying the data of SLU1 (320) of the first storage device 120 to SLU2 (321) of the second storage device 130.
  • the attribute of SLU2 (321) of the second storage device 130 is a remote copy secondary volume (RC SVOL: Remote Copy Secondary Volume).
  • the updated contents of SLU1 (320) of the first storage device 120 are transferred from the first storage device 120 to the second storage device 130 and reflected in SLU2 (321) of the second storage device 130.
  • snapshot creation path 312 replicates data in the SLU 2 (321) of the second storage device 130 to a snapshot VOL (SS VOL: Snapshot Volume) 322, which is another SLU in the second storage device 130. Is shown.
  • the data of SLU2 (321) of the second storage device 130 is replicated to the SS VOL 322 at a preset timing such as every predetermined time. At this time, it is possible to specify a different snapshot VOL for each replication.
  • the data of the SS VOL322 is used to stop the virtual machine 210- A test failover of A may be performed.
  • the virtual machine 210-B of the second host computer 110-B is designated as the failover destination
  • the SS VOL 322 of the second storage device 130 is associated with the VVOL 212-B
  • the virtual machine 210 The configuration provided to -B will be described.
  • the I / O path 313 is an I / O path that is generated when the second host computer 110-B receives a “test failover execution command” instructing the start of test failover from the management computer 140.
  • An example of processing an I / O request issued from the virtual machine 210-B is shown.
  • the I / O request issued from the virtual machine 210-B of the second host computer 110-B to the VVOL 212-B is transmitted to the second storage device 130 via the SAN 150.
  • the second storage device 130 in which the LU 2 (214-B) associated with the VVOL 212-B of the second host computer 110-B is defined receives this I / O request, and LU 2 ( 214-B) is associated with ALU2 (215-B), and further, I / O processing is performed on SS VOL322, which is the SLU associated with VVOL 212-B.
  • FIG. 4 is a schematic diagram of I / O processing at the time of switching the remote copy direction in the first embodiment.
  • the I / O path 313 may be used as a positive instead of the I / O path 310.
  • the I / O path 313 may be used as a positive instead of the I / O path 310.
  • redundancy by remote copy from the second storage device 130 to the first storage device 120 is required.
  • a route including the I / O route 410 and the I / O route 411 indicates the same route as the I / O route 313 in FIG.
  • the snapshot restore path 412 is a process executed when the second storage apparatus 130 receives from the management computer 140 a “remote copy resumption preparation command” instructing a transition to the formal failover state. This shows a process of copying the data of SS VOL322 created from SLU2 (321) of the second storage device 130 to SLU2 (321) again.
  • the I / O path 413 indicates processing when the SLU that processes the I / O request from the virtual machine 210-B is changed from the SS VOL 322 to the SLU 2 (321).
  • the change from the I / O path 411 to the I / O path 413 is performed by changing the ID of the SLU2 (321) from 2000 to 3000 and changing the ID of the SS VOL322 from 3000 to 2000 (details are shown in the figure). 12).
  • the remote copy path 414 is a data copy path that is set when the second storage apparatus 130 receives from the management computer 140 a “remote copy reconfiguration command” that instructs remote copy resumption in the reverse direction.
  • An example of remote copy processing for copying the data of SLU2 (321) after snapshot restoration to SLU1 (320) of the first storage device 120 is shown.
  • This remote copy restart is performed after changing the attribute of SLU2 (321) from RC SVOL to RC PVOL and changing the attribute of SLU1 (320) from RC PVOL to RC SVOL (details will be described later in FIG. 13). .
  • the updated contents of SLU2 (321) are transferred from the second storage device 130 to the first storage device 120 and reflected in SLU1 (320).
  • FIG. 5 is an explanatory diagram showing the hierarchical structure of the storage areas of the first storage device 120 and the second storage device 130 in the first embodiment and the second embodiment.
  • the first storage device 120 will be described, but the second storage device 130 has the same hierarchical structure, and thus the description thereof is omitted.
  • the first storage device 120 provides the storage area provided by the storage device 121 to the host computer 110 as a logical unit (LU) 530.
  • LU logical unit
  • a plurality of intermediate storage hierarchies for associating the storage device 121 and the logical unit 530 are provided between the storage device 121 and the logical unit 530.
  • the intermediate storage hierarchy can include, for example, a RAID group 510 and a logical device (LDEV: Logical Device) 520.
  • the RAID group 510 is an intermediate storage hierarchy that connects the storage device 121 that is the lower storage hierarchy and the logical device 520 that is the upper storage hierarchy, and is defined on a storage area provided by each storage device 121 that constitutes the RAID group. Is done.
  • the logical device 520 is an intermediate storage hierarchy that connects the RAID group 510, which is a lower storage hierarchy, and the logical unit 530, which is an upper storage hierarchy, and all or one storage area of one or more RAID groups 510 is stored. This is a storage area formed by extracting a part of the storage area of the RAID group 510.
  • the logical device 520 can have ALU 215 and SLU 217 attributes.
  • FIG. 6 is an explanatory diagram showing programs and table configurations in the nonvolatile memories 125 and 135 of the storage apparatuses 120 and 130 in the first embodiment.
  • the description of the second storage device 130 is omitted.
  • the nonvolatile memory 125 includes an SLU management table 601, an LDEV management table 602, a snapshot pair management table 603, a remote copy pair management table 604, an I / O request processing program 611, a remote copy restart preparation program 612, A remote copy restart program 613 is stored.
  • Each table 601 to 604 and each program 611 to 613 are transferred from the nonvolatile memory 125 to the main memory 124 and executed by the CPU 123.
  • the tables 601 to 604 are set by the management computer 140 in advance.
  • the first storage device 120 and the second storage device 130 communicate with each other at a predetermined timing to update the remote copy pair management table 604. For example, when the first storage device 120 updates the remote copy pair management table 604, the update content is notified to the second storage device. Alternatively, the management computer 140 may update the remote copy pair management table 604 at a predetermined timing.
  • the CPU 123 of the first storage device 120 for each port of its own storage device, LUN (Logical Unit Number) corresponding to the port, ALU ID, SLU ID, and I / O queue It is a table for storing an ing flag. Details of this table will be described with reference to FIG.
  • the LDEV management table 602 is, for example, a table for the CPU 123 of the first storage device 120 to store an LDEV ID, an LDEV start address, and an LDEV end address for each SLU defined in the own storage device. Details of this table will be described with reference to FIG.
  • the snapshot pair management table 603 includes, for example, the CPU 123 of the first storage device 120 for each snapshot pair defined in the own storage device, the LDEV ID of the snapshot creation source, the LDEV ID of the snapshot volume, It is a table for memorize
  • the remote copy pair management table 604 indicates that, for example, the CPU 123 of the first storage device 120 has an LDEV ID, a volume attribute, and an LDEV ID of a partner that forms a remote copy pair for each remote copy pair defined in the own storage device. And a table for storing the storage device ID of the partner that forms the remote copy pair. Details of this table will be described with reference to FIG.
  • the I / O request processing program 611 is a program for the CPU 123 of the first storage device 120 to process commands (Read command, Write command, etc.) that request input / output processing of data received from the host computer 110. is there. Details of this program will be described with reference to FIG.
  • the remote copy resumption preparation program 612 is a program for the CPU 123 of the first storage device 120 to process a command for requesting remote copy resumption preparation for the snapshot volume received from the management computer 140. Details of this program will be described with reference to FIG.
  • the remote copy restart program 613 is a program for the CPU 123 of the first storage device 120 to copy the SLU data of its own storage device to the SLU in a different storage device. Details of this program will be described with reference to FIG.
  • FIG. 7 is a diagram showing an example of the SLU management table 601 in the first embodiment.
  • the SLU management table 601 manages, for example, a port ID column 701, a LUN column 702, an ALU ID column 703, an SLU ID column 704, and an I / O queuing flag column 705 in association with each other.
  • the port ID column 701 stores identification information of the ports 128 and 138 defined in the own storage device.
  • LUN column 702 LUN that is identification information of the LU 214 is stored.
  • the SLU ID column 704 stores identification information (virtual ID) of the SLU 217 defined for each ALU.
  • the I / O queuing flag column 705 information indicating whether or not it is necessary to take out the I / O for the SLU from the queue is stored. If the queuing flag is ON, queuing is continued without taking out from the queue, and if the queuing flag is OFF, it indicates that it can be taken out from the queue.
  • the queue is set in advance in a predetermined area of the cache memories 126 and 136.
  • the SLU ID “1000” is associated with the ALU ID “000”, the LUN “00”, and the port ID “00”, and the I / O queuing flag of the SLU is “OFF”.
  • FIG. 8 is a diagram showing an example of the LDEV management table 602 in the first embodiment.
  • the LDEV management table 602 manages, for example, an SLU ID column 801, an LDEV ID column 802, an LDEV start address column 803, and an LDEV end address column 804 in association with each other.
  • the SLU ID column 801 stores SLU identification information (virtual ID) defined in the own storage device.
  • the LDEV ID column 802 stores LDEV identification information associated with the SLU.
  • the LDEV start address column 803 stores start address information of the LDEV area associated with the SLU.
  • the LDEV end address column 804 stores end address information of the LDEV area associated with the SLU.
  • the row 811 indicates that the LDEV ID associated with the SLU ID “2000” is “2222”, the start address of the LDEV area is “020000”, and the end address is “020999”.
  • FIG. 9 is a diagram showing an example of the snapshot pair management table 603 in the first embodiment and the second embodiment.
  • the snapshot pair management table 603 manages, for example, a pair ID column 901, a snapshot creation source LDEV ID column 902, a snapshot volume LDEV ID column 903, and a pair status column 904 in association with each other.
  • the pair ID column 901 stores the identification information of the snapshot pair defined in the own storage device.
  • the snapshot creation source LDEV ID column 902 stores the LDEV identification information of the volume that is the snapshot creation source of the snapshot pair.
  • the snapshot volume LDEV ID column 903 stores the identification information of the LDEV of the snapshot volume for which a pair relationship with the snapshot source LDEV is established.
  • the pair status column 904 stores copy pair status information (PAIR (duplex), Suspend (division), etc.) of the snapshot pair.
  • the row 911 indicates that the snapshot creation source LDEV ID of the snapshot pair ID “1-1” is “2222”, the LDEV ID of the snapshot volume is “3333”, and the pair status is “Suspend”. Indicates that there is.
  • FIG. 10 is a diagram showing an example of the remote copy pair management table 604 in the first embodiment and the second embodiment.
  • the remote copy pair management table 604 manages, for example, a pair ID column 1001, an LDEV ID column 1002, a pair attribute column 1003, a pair partner LDEV ID column 1004, and a pair partner storage device ID column 1005 in association with each other. To do.
  • the pair ID column 1001 stores the remote copy pair identification information defined in the local storage device.
  • the LDEV ID column 1002 stores LDEV identification information on the local storage device side of the remote copy pair.
  • pair attribute column 1003 information on the remote copy pair attribute (PVOL or SVOL) of the LDEV is stored.
  • the pair partner LDEV ID column 1004 the identification information of the LDEV of the remote copy partner of the LDEV is stored.
  • the pair partner storage device ID column 1005 stores the identification information of the remote copy partner storage device of the LDEV.
  • the LDEV ID on the local storage device side of the remote copy pair ID “1” is “2222”
  • the pair attribute of the LDEV is “SVOL”
  • the LDEV ID of the remote copy partner of the LDEV is “1111” and the remote copy partner storage device ID is “ST01”.
  • the remote copy pair defines a logical device replication relationship between different storage apparatuses (the first storage apparatus 120 and the second storage apparatus 130).
  • FIG. 11 is a flowchart showing processing performed by the I / O request processing program 611 in the first embodiment.
  • This process is started when the first storage device 120 and the second storage device 130 receive a write request from the host computer 110.
  • step S1101 the I / O request processing program 611 analyzes the SCSI command issued from the host computer 110 and stored in the queue, and the port ID, LUN, ALU ID, and SLU ID specified as the I / O destination. To get.
  • step S1102 the I / O request processing program 611 searches the SLU ID acquired in step S1101 from the “SLU ID” column 704 of the SLU management table 601, and the value of the corresponding “I / O queuing flag” column 705 is obtained. To get.
  • step S1103 if the value of the “I / O queuing flag” column 705 acquired in step S1102 is ON (S1103: YES), the I / O request processing program 611 ends the process, and OFF (S1103: YES). ), The process proceeds to step S1104.
  • step S1104 if the determination in step S1103 is NO, the I / O request processing program 611 acquires a request from the queued host computer 110 and performs a write process to SLU1 (320).
  • the I / O request processing program 611 completes the write processing to the SLU 1 (320).
  • the update data is written in the journal volume as a journal, and the process proceeds to step S1105.
  • step S1105 the journal written in the journal volume of the first storage device 120 is asynchronously copied to the journal volume of the second storage device 130 via the WAN 170, and the copied journal is It is reflected in SLU2 (321).
  • the I / O request processing program 611 is completed after the write processing to the SLU1 (320) is completed. After transferring the update data from SLU1 (320) to SLU2 (321) and receiving a response indicating that the transferred update data is reflected in SLU2 (321), the process proceeds to step S1105.
  • step S1105 the I / O request processing program 611 sends a response indicating that the write processing has been completed to the SCSI command that is the request of the host computer 110 taken out from the queue.
  • step S1106 if the I / O request processing program 611 is in a state where requests from the host computer 110 are queued in the first storage device 120 (S1106: YES), the process proceeds to step S1104 and the above processing is performed. If not queued, the process ends.
  • FIG. 12 is a flowchart showing processing performed by the remote copy resumption preparation program 612 in the first embodiment.
  • this process is performed when the second storage apparatus 130 receives a “remote copy resumption preparation command” for the SS VOL 322 from the management computer 140.
  • step S1201 the remote copy resumption preparation program 612 receives a remote copy resumption preparation command from the management computer 140.
  • step S1202 the remote copy resumption preparation program 612 acquires the SLU ID of the SS VOL 322, which is a snapshot VOL, from the remote copy resumption preparation command received from the management computer 140.
  • step S1203 the remote copy resumption preparation program 612 searches the “SLU ID” column 801 of the LDEV management table 602 for the SLU ID of the SS VOL 322 acquired in S1202, and the “LDEV ID” column corresponding to the search result. A value of 802 is acquired.
  • step S1204 the remote copy resumption preparation program 612 searches the LDEV ID of the SS VOL322 acquired in S1203 for the “snapshot VOL LDEV ID” column 903 of the snapshot pair management table 603, and corresponds to the search result.
  • the value in the “snapshot creation source LDEV ID” column 902 is acquired as the LDEV ID of SLU2 (321).
  • the remote copy resumption preparation program 612 searches the “LDEV ID” column 802 of the LDEV management table 602 for the LDEV ID of the SLU2 (321) acquired above, and the “SLU ID” column corresponding to the search result. The value 801 is acquired. This value is used in step S1209.
  • step S1206 the remote copy resume preparation program 612 searches the SLU ID of the SS VOL 322 identified in step S1202 from the “SLU ID” column 704 of the SLU management table 601, and “I / O queuing” corresponding to the search result.
  • the value of the “flag” column 705 is changed to ON.
  • step S1207 the remote copy resumption preparation program 612 kicks the snapshot restore processing from the SS VOL 322 specified in step S1202 to the SLU2 (321) specified in step S1204, and the process proceeds to step S1208.
  • the snapshot restore process performed in the background when kicked, only the difference data between the SS VOL 322 and the SLU 2 (321) is copied.
  • step S1208 the remote copy resumption preparation program 612 updates the SLU ID column 801 of the LDEV management table 602 that has an SLU ID of SS VOL322 to the SLU ID of SLU2 (321), and the value is SLU2.
  • the value that is the SLU ID of (321) is replaced with the value by updating to the SLU ID of SS VOL322.
  • the I / O request of the virtual machine 210-B shown in FIG. 4 is changed from the I / O path 411 to the I / O path 413 and transmitted to the SLU 2 (321).
  • step S1209 the remote copy resumption preparation program 612 reads the SLU ID of the SS VOL322 identified in step S1202 from the “SLU ID” column 704 of the SLU management table 601 (SLU ID of SLU2 (321) after SLU ID replacement). And the value of the “I / O queuing flag” column 705 corresponding to the search result is changed to OFF.
  • step S1210 the remote copy restart preparation program 612 notifies the management computer 140 of a response indicating that the processing of the remote copy restart preparation command has been completed, and the process ends.
  • the remote copy resumption preparation program 612 changes the value of the I / O queuing flag column 705 of the SS VOL 322 accessed by the virtual machine 210-B to ON, and the I After the issuance of the / O request is stopped, the I / O path 411 is switched to the I / O path 413 by replacing the SLU IDs of the SS VOL 322 and SLU 2 (321).
  • the remote copy resumption preparation program 612 kicks the snapshot restore process after queuing is started and executes it in the background.
  • the remote copy resumption preparation program 612 kicks the snapshot restore process after queuing is started and executes it in the background.
  • the differential data is copied from the SS VOL 322 to the SLU 2 (321), and the snapshot restore process is performed.
  • the remote copy resumption preparation program 612 changes the value of the I / O queuing flag column 705 of SLU2 (321) to OFF, so that the I / O request issued by the virtual machine 210-B is changed to SLU2 (321). Transmit to.
  • the logical volume read / written by the virtual machine 210-B is switched from the SS VOL 322 to the SLU 2 (321). Note that the snapshot restore process may continue even after queuing is completed.
  • FIG. 13 is a flowchart showing processing performed by the remote copy restart program 613 in the first embodiment.
  • this process is performed when the remote copy resume program 613 of the second storage device 130 receives a “remote copy resume (reverse direction) command” from the management computer 140.
  • step S1301 the remote copy restart program 613 receives a remote copy restart (reverse direction) command from the management computer 140.
  • step S1302 the remote copy restart program 613 acquires the SLU ID of SLU2 (321), which is the RC SVOL, from the remote copy restart (reverse) command received from the management computer 140.
  • step S1301 the SLU ID included in the remote copy resumption (reverse direction) command received from the management computer 140 by the remote copy resumption program 613 and the remote copy resumption preparation program 612 in FIG.
  • the SLU ID included in the remote copy restart preparation command received from 140 has the same value.
  • the SLU indicated by this SLU ID is a value changed from SS VOL322 to SLU2 (321). .
  • step S1303 the remote copy restart program 613 searches the “SLU ID column” 801 of the LDEV management table 602 for the SLU ID of SLU2 (321) acquired in step S1302, and the “LDEV ID” corresponding to the search result.
  • the value of the column 802 is acquired.
  • step S1304 the remote copy restart program 613 searches the LDEV ID corresponding to SLU2 (321) acquired in S1303 from the “LDEV ID” column 1002 of the remote copy pair management table 604 held by the second storage device 130. Then, the value of the “pair attribute” column 1003 corresponding to the search result is changed from SVOL to PVOL.
  • the remote copy restart program 613 changes the value of the “pair attribute” column 1003 of the row having the same pair ID in the remote copy pair management table 604 from the PVOL to the SVOL for the first storage device 120. To instruct.
  • step S1305 the remote copy restart program 613 performs differential copy from SLU2 (321) to SLU1 (320). Specifically, after the remote copy from SLU1 (320) to SLU2 (321) is divided, only the data in the area where the update has occurred in SLU2 (321) is copied from SLU2 (321) to SLU1 (320) Perform the process.
  • step S1306 the remote copy resumption program 613 notifies the management computer 140 of a response indicating completion of resumption of remote copy and ends the process. Note that the processing in this step may be performed at a predetermined timing, for example, after the end of S1304 and before the start of S1305.
  • FIG. 19 is a sequence diagram showing an example of processing performed in the entire computer system from the test failover to the remote copy restart.
  • the virtual machine 210-A when the virtual machine 210-A is operating at the primary site (active system) and the virtual machine 210-A writes to the first storage device 120 (S1), SLU1
  • the data written in (320) is remotely copied to SLU2 (321) of the second storage device 130 which is a remote copy pair (S2).
  • the management program 148 of the management computer 140 transmits a test failover instruction to the virtual machine 210-B of the second host computer 110-B (S3).
  • the virtual machine 210-B running on the secondary site (standby system) generates a snapshot volume (SS VOL322) of SLU2 in the second storage device 130 (S4), and performs a failover test using the SS VOL322. (S5).
  • the second storage apparatus 130 generates the SS VOL 322
  • the virtual ID (SLU ID) of the logical device is set, and the virtual machine 210-B that issues the I / O request recognizes the virtual ID.
  • a failure occurs in the virtual machine 210-A at the primary site during the execution of the test failover (S6).
  • the management computer 140 detects that a failure has occurred in the virtual machine 210-A, the management computer 140 sends a command to switch from the test failover to the formal failover to the virtual machine 210-B at the secondary site (S7). Then, the management computer 140 transmits a remote copy restart preparation command to the second storage device 130 constituting the standby system (S8).
  • the second storage device 130 starts queuing the SS VOL 322 and prevents the SS VOL 322 from being updated (S9), and then the second storage device 130 reads the SS VOL 322 and the SLU 2 (321) SLU.
  • the ID is changed, and the SLU accessed by the virtual machine 210-B is switched to SLU2 (321) of the copy pair S-VOL (S10).
  • the snapshot restoration process is executed in the background (S11), and the difference data between the SS VOL 322 and the SLU 2 (321) is copied to the SLU 2 (321).
  • the second storage device 130 finishes queuing and permits access to the SLU2 (321) of the virtual machine 210-B (S12).
  • the second storage device 130 notifies the management computer 140 that preparation for resuming remote copying has been completed (S13). Note that the snapshot restore process may continue even after queuing is completed as described above.
  • the management program 148 of the management computer 140 When the management program 148 of the management computer 140 receives that the preparation for resuming the remote copy is completed, it sends a remote copy resuming command to the second storage device 130 (S14).
  • the remote copy restart program 613 of the second storage device 130 changes the pair attribute column 1003 of SLU2 (322) from SVOL to PVOL in the remote copy pair management table 604 (S15).
  • the remote copy restart program 613 instructs the first storage device 120 to change the pair attribute of the SLU1 (320) that is the copy pair of the SLU2 (322) from PVOL to SVOL ( S16).
  • the remote copy restart program 613 copies the difference between SLU2 (322) and SLU1 (320) to SLU1 (320) (S17).
  • the remote copy restart program 613 notifies the management computer 140 that the remote copy restart has been completed (S18).
  • the second storage device 130 accepts the writing from the virtual machine 210-B, the second storage device 130 performs remote copy of the data written in the SLU2 (322) to the SLU1 (320).
  • the I / O request to the snapshot (SS VOL) used by the standby virtual machine 210-B is processed.
  • SLU2 the difference between the snapshot and the snapshot ID is written to SLU2 (322), which is the SVOL for remote copy, and the virtual machine 210-B Switch the path of the volume to be written.
  • the second storage device 130 permits the I / O request from the virtual machine 210-B to the SLU2, and then the first storage device that has a copy pair relationship with the SLU2 of the second storage device 130. After switching the relationship between the PVOL and SVOL of 120 SLU1 (320), differential copy is performed to restore SLU1.
  • the remote copy in the reverse direction from the snapshot at the secondary site that does not constitute the remote copy pair to the logical device at the primary site can be realized at high speed without performing the entire area copy.
  • FIG. 14 is a block diagram showing an example of the logical configuration of the computer system in the second embodiment.
  • the physical configuration is the same as that of the first embodiment of FIG.
  • the host computer 110, HBA 116, port 127, storage devices 120 and 130, SAN 150, virtual machine 210, and LU 214 in the second embodiment are the same as those in FIGS. .
  • the virtual logical device 1410 is a unit in which the host computer 110 recognizes the LU 214 of the storage apparatuses 120 and 130. In the second embodiment, a plurality of virtual machines 210 in the same host computer 110 can share the virtual logical device 1410.
  • An I / O request (Read, Write, etc.) from the virtual machine 210 to the virtual logical device 1410 is issued as an I / O command to the storage apparatuses 120, 130.
  • the LDEV 1420 of the first storage device 120 and the second storage device 130 is a logical device of the storage devices 120 and 130.
  • the LDEV 1420 is managed by an LDEV ID recognized by the host computer 110 or a virtual LDEV ID that is a virtual ID. In the second embodiment, an example of management by a virtual LDEV ID is shown.
  • the LDEV 1420 is managed in association with the LU 214 by the (virtual LDEV management table 1600) described later.
  • FIG. 15 is a conceptual diagram of processing performed in the I / O processing at the time of switching the remote copy direction in the second embodiment.
  • An I / O request issued from the virtual machine 210-B of the second host computer 110-B to the virtual logical device 1420-B is transmitted to the second storage device 130 via the SAN 150.
  • the second storage device 130 having the SS VOL 1522 associated with the virtual logical device 1420-B receives this I / O request and performs I / O processing on the SS VOL 1522.
  • the second storage device 130 changes the I / O path from the I / O path 1512 to the I / O path 1513 according to an instruction from the management computer 140. Specifically, this is performed after changing the ID of LDEV2 (1521) from 2000 to 3000 and changing the ID of SS VOL1522 from 3000 to 2000 (details will be described later in FIG. 18).
  • the processing and execution timing of the snapshot restore path 1514 and remote copy path 1515 are the same as those of the snapshot restore path 412 and remote copy path 414 in FIG. Since description can be made by replacing SLU1 (320) and SLU2 (321) in FIG. 4 with LDEV1 (1520) and LDEV2 (1521), description thereof is omitted.
  • FIG. 16 is a diagram showing an example of the virtual LDEV management table 1600 in the second embodiment.
  • the virtual LDEV management table 1600 manages, for example, a port ID column 1601, a LUN column 1602, a virtual LDEV ID column 1603, and an I / O queuing flag column 1604 in association with each other.
  • identification information (virtual ID) of the LDEV virtually assigned to the LDEV defined in the own storage device is stored.
  • the port ID column 1601, the LUN column 1602, and the I / O queuing flag column 1604 are the same as the port ID column 701, the LUN column 702, and the I / O queuing flag column 705 of FIG. Therefore, the description is omitted.
  • the row 1611 indicates that the virtual LDEV ID “1000” is associated with the LUN “00” and the port ID “00”, and the I / O queuing flag of the LDEV is “OFF”. .
  • FIG. 17 is a diagram showing an example of the virtual LDEV-real LDEV management table 1700 in the second embodiment.
  • the virtual LDEV-real LDEV management table 1700 manages, for example, a virtual LDEV ID 1701 column, an LDEV ID column 1702, an LDEV start address column 1703 column, and an LDEV end address column 1704 in association with each other.
  • the virtual LDEV ID column 1701 stores identification information (virtual ID) of the LDEV virtually assigned to the LDEV defined in the own storage device.
  • LDEV ID column 1702, LDEV start address column 1703 column, and LDEV end address column 1704 are the same as the LDEV ID column 802, LDEV start address column 803, and LDEV end address column 804 in FIG. To do.
  • the row 1711 indicates that the LDEV ID associated with the virtual LDEV ID “2000” is “2222”, the start address of the LDEV area is “020000”, and the end address is “020999”.
  • FIG. 18 is a flowchart showing an example of processing performed by the remote copy resumption preparation program 1800 in the second embodiment.
  • this process is performed when the second storage apparatus 130 receives a “remote copy resumption preparation command” for the SS VOL 1522 from the management computer 140.
  • step S1801 the remote copy resume preparation program 1800 receives a remote copy resume preparation command from the management computer 140.
  • step S1802 the remote copy restart preparation program 1800 acquires the LDEV ID of the SS VOL 1522 that is the snapshot VOL from the remote copy restart preparation command received from the management computer 140.
  • step S1803 the remote copy resume preparation program 1800 searches the LDEV ID of the SS VOL1522 acquired in step S1802 for the “virtual LDEV ID” column 1701 of the virtual LDEV-real LDEV management table 1700, and corresponds to the search result.
  • the value of the “LDEV ID” column 1702 is acquired.
  • step S1804 the remote copy restart preparation program 1800 searches the LDEV ID of the SS VOL1522 acquired in step S1803 for the “snapshot VOL LDEV ID” column 903 of the snapshot pair management table 603, and corresponds to the search result.
  • the value in the “snapshot creation source LDEV ID” column 902 is acquired as the LDEV ID of LDEV2 (1521).
  • the remote copy resumption preparation program 1800 searches the LDEV ID of LDEV2 (1521) acquired above for the “virtual LDEV ID” column 1701 of the virtual LDEV-real LDEV management table 1700, and corresponds to the search result.
  • the value of the “LDEV ID” column 1702 is acquired. This value is used in step S1809.
  • step S 1806 the remote copy resumption preparation program 1800 searches the “virtual LDEV ID” column 1603 of the virtual LDEV management table 1600 for the LDEV ID of the SS VOL 1522 identified in step S 1802, and the corresponding “I / O queuing flag” Change the value in column 1604 to ON.
  • step S1807 the remote copy restart preparation program 1800 kicks the snapshot restoration process from the SS VOL 1522 specified in step S1802 to the LDEV2 (1521) specified in step S1804, and the process proceeds to step S1808.
  • the snapshot restore process that is performed in the background when kicked, only the difference data between SS VOL1522 and LDEV2 (1521) is copied.
  • step S 1808 the remote copy resumption preparation program 1800 updates the LDEV ID of the LDEV 2 (1521) for the “virtual LDEV ID” column 1701 of the virtual LDEV-real LDEV management table 1700 whose value is the LDEV ID of SS VOL1522. Then, when the value is the LDEV ID of LDEV2 (1521), the ID is exchanged by updating to the LDEV ID of SS VOL1522. As a result, the I / O path is switched from the I / O path 1512 to the I / O path 1513.
  • step S1809 the remote copy resumption preparation program 1800 reads the LDEV ID of the SS VOL1522 identified in S1802 from the “virtual LDEV ID” column 1603 of the virtual LDEV management table 1600 (the LDEV ID of LDEV2 (1521) after the LDEV ID is replaced). ) And the value of the “I / O queuing flag” column 1604 corresponding to the search result is changed to OFF.
  • step S1810 the remote copy resumption preparation program 1800 notifies the management computer 140 of a response that the processing of the remote copy resumption preparation command has been completed and ends the processing.
  • the second embodiment when a failure occurs during the test failover, writing to the snapshot (SS VOL) used by the standby virtual machine 210-B is stopped. Then, the LDEV 2 and the virtual ID (virtual LDEV ID) of the snapshot are switched, and the volume path to be written by the virtual machine 210-B is switched. Also, the snapshot restore process is executed in the background, and the difference from the snapshot (SS VOL) is written to LDEV2 (1521) which is the SVOL of the remote copy.
  • the PVOL and SVOL of the LDEV1 of the first storage device 120 in the copy pair relationship with the LDEV2 of the second storage device 130 After switching the relationship, differential copy is performed to restore LDEV1. Note that the snapshot restore process may continue even after queuing is completed.
  • the second embodiment it is not necessary to perform all copies from the SS VOL used for the test failover as in the conventional example to the PVOL of the first storage device 120, and the difference copy and the ID of the LDEV 2 are switched. Since it is sufficient to switch the remote copy direction, the time required for recovery from failover can be shortened even when a virtual LDEV is adopted as a logical device.
  • the second storage apparatus 130 has received one command from the management computer 140 that combines information of two commands, that is, a remote copy pair restart preparation command and a remote copy pair restart (reverse direction).
  • the remote copy resumption program 613 may be executed continuously after the remote copy resumption preparation program 612 is executed excluding the completion response in S1210, upon receipt of the command.
  • each step of the remote copy resumption preparation program 612 and the remote copy resumption program 613 may be executed when a different command is received from the management computer 140.
  • the remote copy resumption preparation program 612 responds to the management computer 140 after executing S1202 to S1205, and the processes of S1206, S1207, S1208, and S1209 are executed upon receipt of different commands, and the remote copy resumes.
  • the program 613 may respond to the management computer 140 after executing S1302 to S1304, and the process of S1305 may be executed when another command is received.
  • the virtual machine in the server in the host computer functions as a host computer, and each program of the first storage device 120 and the second storage device 130, and each A configuration that does not include a part or all of the storage apparatus by operating the table in the host computer is also considered as a modification.
  • this invention is not limited to the above-mentioned Example, Various modifications are included.
  • the above-described embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • any of the additions, deletions, or substitutions of other configurations can be applied to a part of the configuration of each embodiment, either alone or in combination.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Software Systems (AREA)
  • Retry When Errors Occur (AREA)
  • Hardware Redundancy (AREA)

Abstract

管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、第1のストレージ装置の第1の論理デバイスと、第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える。

Description

計算機システム及びストレージ装置の制御方法
 本発明は、計算機システム及びストレージ装置の制御方法に関する。
 仮想化技術の進展により、複数の仮想マシンを1つの物理ホスト計算機上で稼動させることができ、システム障害発生時には仮想マシンが実行している処理を遠隔地のホスト計算機上の別の仮想マシンに引継いでフェイルオーバすることが可能となった。
 仮想マシンのイメージや利用データなどの仮想マシン情報は、ストレージ装置の論理デバイスに格納することができる。このような構成の場合、仮想マシンのフェイルオーバ実行に伴い、仮想マシン情報が格納された正サイトのストレージ装置の論理デバイスから遠隔地等の副サイトのストレージ装置の論理デバイスにフェイルオーバすることで論理デバイスの正副を入れ替える。そのため、仮想マシンと関連付ける論理デバイスの単位が重要となる。
 特許文献1では、ストレージ装置の一つの論理デバイスをホスト計算機上で複数の仮想ボリュームに区分けし、仮想マシンが用いるデータを仮想ボリューム毎に収める方法が開示されている。
特開2012-79245号公報
 仮想マシンに対して論理デバイスを割当てる方式として、Conglomerate LUN Structureが提案されている。この方式では、ストレージ装置の複数の論理デバイスを複数の論理グループ(LUN Conglomerate)に纏め、論理グループ内でゲートウェイの役割を果たす代表的な論理デバイス(ALU:Administrative Logical Unit)に論理パスを設定し、ホスト計算機側からの入出力(I/O:Input Output)コマンドは、論理グループ内のALU以外の論理デバイス(SLU:Subsidiary Logical Unit)の識別子を指定して発行し、ストレージ装置は、受信コマンドに指定されたSLUへI/O処理を分配する。これにより、ホスト計算機上の一つの仮想サーバに対して、一つまたは複数のSLUを割当てることにより、仮想サーバ単位にストレージ装置の論理デバイスを設定することができ、SLU単位でフェイルオーバが可能である。
 フェイルオーバには、実際の障害発生等を契機として自動的に行われる正式フェイルオーバと、フェイルオーバの検証等を目的として計画的に実行されるテストフェールオーバがある。
 テストフェールオーバでは、本番稼働中の業務やリモートコピー構成に影響を与えないよう、リモートコピー先の論理デバイスから取得したスナップショットを用いることがある。さらに、所定の時点のスナップショットデータを利用するため、テストフェールオーバ実行中の仮想マシンで本番の業務を継続する場合がある。例えば、副サイトの仮想マシンがスナップショットを利用してテストフェールオーバを実施中に、正サイトの仮想マシンで障害が発生した場合である。
 このとき、テストフェールオーバ実行中の仮想マシンが接続していた副サイトのスナップショットは、最新データとして扱われることとなる。さらに、最新データとして扱うこととなったスナップショットは、正サイトの論理デバイスとリモートコピー構成が組まれていない為、リモートコピー構成を維持するために、フェイルオーバ先の副サイトのスナップショットから正サイトの論理デバイスへ、逆方向のリモートコピーを再開することが要求される。
 正サイトから副サイトへリモートコピーを行っていた論理デバイスのペアに対して、副サイトから正サイトへ逆方向に論理デバイスのデータを同期する従来技術がある。しかし、副サイトのスナップショットと、正サイトの論理デバイスとの間にはリモートコピーペアが構成されておらず、新たにリモートコピーペアを構成する必要がある。
 新たにリモートコピーペアを構成する場合、副サイトから正サイトへボリューム全領域のデータをコピーする必要があり、リモートコピーの再構成に時間を要するという課題が発生する。
 本発明の目的は、リモートコピーペアを構成しない副サイトのスナップショットから正サイトの論理デバイスへの逆方向のリモートコピーを、全領域コピーを発生させず高速に行うことである。
 本発明は、管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える。
 本発明によれば、リモートコピー先ボリューム(第2の論理デバイス)のスナップショット(第3の論理デバイス)をコピー元とした、逆方向のリモートコピーの再開を高速化することが可能となる。
本発明の第1の実施例及び第2の実施例を示し、計算機システムの物理的な構成の一例を示すブロック図である。 本発明の第1の実施例を示し、計算機システムの論理的な構成の一例を示すブロック図である。 本発明の第1の実施例を示し、テストフェールオーバ実行時のI/Oの処理の一例を示す図である。 本発明の第1の実施例を示し、リモートコピー再構成時のI/Oの処理の一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、ストレージ装置の記憶領域の階層構造の一例を示す図である。 本発明の第1の実施例を示し、ストレージ装置内のプログラム及びテーブルの一例を示す図である。 本発明の第1の実施例を示し、SLU管理テーブルの一例を示す図である。 本発明の第1の実施例を示し、LDEV管理テーブルの一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、スナップショットペア管理テーブルの一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、リモートコピーペア管理テーブルの一例を示す図である。 本発明の第1の実施例を示し、I/O要求処理プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、リモートコピー再開準備プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、リモートコピー再開プログラムのフローチャートの一例を示す。 本発明の第2の実施例を示し、計算機システムの論理的な構成の一例を示すブロック図である。 本発明の第2の実施例を示し、リモートコピー再構成時のI/Oの処理の一例を示す図である。 本発明の第2の実施例を示し、仮想LDEV管理テーブルの一例を示す図である。 本発明の第2の実施例を示し、仮想LDEV-実LDEV管理テーブルの一例を示す図である。 本発明の第2の実施例を示し、リモートコピー再開準備プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、テストフェールオーバからリモートコピー再開までの処理の一例を示すシーケンス図である。
 以下、図を用いて、本発明の一実施例を説明する。以下の図中、同一の部分には同一の符号を付加する。ただし、本発明が本実施例に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。また、特に限定しない限り、各構成要素は複数でも単数でも構わない。
 なお、以下の説明では、「xxxテーブル」の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていても良い。データ構造に依存しないことを示すために「xxxテーブル」を「xxx情報」と呼ぶことができる。
 また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を適宜に記憶資源(例えばメモリ)及び通信インターフェース装置(例えば通信ポート)を用いながら行うため、処理の主語がプロセッサとされても良い。プロセッサは、CPUの他に専用ハードウェアを有していても良い。コンピュータプログラムは、プログラムソースから各計算機にインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアであっても良い。
 また、各要素は、ID、番号などで識別可能であるが、識別可能な情報であれば、名前など他種の識別情報が用いられても良い。
 本発明の第一の実施例について、図1~図13を用いて説明する。図1は、第一の実施例及び第二の実施例における、計算機システムの物理的な構成を示すブロック図である。
 この計算機システムは、例えば、一つまたは複数のホスト計算機110、一つまたは複数の第一のストレージ装置120、一つまたは複数の第二のストレージ装置130、及び一つまたは複数の管理計算機140を含んで構成される。
 ホスト計算機110と第一のストレージ装置120と第二のストレージ装置130とは、例えば、SAN(Storage Area Network)150を介して通信線151、152、153で接続される。
 ホスト計算機110と第一のストレージ装置120と第二のストレージ装置130と管理計算機140は、例えば、管理ネットワーク160を介して、通信線161、162、163、164で接続される。
 第一のストレージ装置120と第二のストレージ装置130は、例えば、WAN(Wide Area Network)170を介して、通信線172、173で接続される。
 なお、上述の通信線151、152、153、161、162、163、164、172、173は、例えば、メタルケーブルや光ファイバケーブル等の有線として構成されるが、無線で接続しても良い。この場合は、これらの通信線は省略される。また、これら通信線は1つに限らず複数でもよい。
 また、SAN150と管理ネットワーク160とWAN170が、共通のネットワークであっても良い。これらは通信ネットワークであり、例えば、SAN、WAN、LAN(Local Area Network)等で構成することができる。
 ホスト計算機110は、例えば、CPU111、メモリ112、記憶装置113、入力装置114、出力装置115、ホストバスアダプタ(HBA:Host Bus Adapter)116、及びインターフェース制御部117を含んで構成されたコンピュータ装置であり、例えば、パーソナルコンピュータや、ワークステーション、メインフレームなどから構成される。
 CPU111は、ホスト計算機110全体の制御を司るプロセッサであり、記憶装置113に格納された各種プログラムをメモリ112に読み出して実行する。
 メモリ112は、ホスト計算機110の起動時にCPU111により記憶装置113から読み出された各種プログラムを記憶するために用いられるほか、CPU111のワークメモリとしても用いられる。
 記憶装置113は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)から構成され、各種プログラムや制御データを記憶保持するために用いられる。
 入力装置114は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォン等から構成される。出力装置115は、例えば、液晶ディスプレイなどから構成される。
 ホストバスアダプタ116は、ストレージ装置120、130との通信時におけるプロトコル制御を行う。HBA116が、プロトコル制御機能を実行することで、ホスト計算機110とストレージ装置120、130との間や、第一のストレージ装置120と第二のストレージ装置130との間において、データやコマンドの送受信が行われる。
 インターフェース制御部117は、ホスト計算機110を管理ネットワーク160に接続するためのアダプタである。
 仮想化プログラム118は、ホスト計算機110のCPU111、メモリ112、記憶装置113、入力装置114、出力装置115、HBA116、インターフェース制御部117のリソースを仮想化し、仮想マシンの単位に割当てて管理するためのプログラムであり、CPU111により、記憶装置113からメモリ112に読み出されて実行される。
 第一のストレージ装置120、と第二のストレージ装置130は、本実施例では同様の構成を取るため、第二のストレージ装置130の説明は省略する。
 第一のストレージ装置120は、複数の記憶装置121と、記憶装置121に対するデータの入出力を制御するコントロール部122から構成される。
 記憶装置121は、例えば、HDD又はSSDから構成されるSCSIディスク等の高価なディスクや、SATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクなどから構成される。複数の記憶装置121により1つのRAID(Redundant Array of Inexpensive Disks)グループが構成され、一つまたは複数のRAIDグループが提供する物理的な記憶領域上に、一つまたは複数の論理ユニットが設定される。そして、ホスト計算機110からのデータは、この論理ユニット内に所定の大きさのブロックを単位として格納される。
 コントロール部122は、CPU123、主メモリ124、不揮発性メモリ125、キャッシュメモリ126、複数のホスト側ポート127、複数の記憶装置側ポート128及びインターフェース制御部129を含んで構成される。
 CPU123は、第一のストレージ装置120全体の制御を司るプロセッサであり、記憶装置121に格納された各種プログラムを主メモリ124に読み出して実行する。
 主メモリ124は、第一のストレージ装置120の起動時にCPU123により不揮発性メモリ125から読み出された各種プログラムを記憶するために用いられるほか、CPU123のワークメモリとしても用いられる。
 不揮発性メモリ125は、各種プログラムや制御データを記憶保持するために用いられる。キャッシュメモリ126は、主として、ホスト計算機110と記憶装置121との間で授受されるデータを一時的に格納するキューなどの記憶領域として用いられる。
 ホスト側ポート127は、第一のストレージ装置120をSAN150やWAN170に接続するためのアダプタである。記憶装置側ポート128は、コントロール部122を記憶装置121に接続するためのアダプタである。インターフェース制御部129は、第一のストレージ装置120を管理ネットワーク160に接続するためのアダプタである。
 管理計算機140は、ホスト計算機110、第一のストレージ装置120、及び第二のストレージ装置130を管理するためのコンピュータ装置であり、例えば、CPU141、メモリ142、記憶装置143、入力装置144、出力装置145、及びインターフェース制御部147を含んで構成される。
 CPU141は、管理計算機140全体の制御を司るプロセッサであり、記憶装置143に格納された各種プログラムをメモリ142に読み出して実行する。メモリ142は、管理計算機140の起動時にCPU141により記憶装置143から読み出された各種プログラムを記憶するために用いられるほか、CPU141のワークメモリとしても用いられる。
 記憶装置143は、例えば、HDDまたはSSDから構成され、各種プログラムや制御データを記憶保持するために用いられる。入力装置144は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォン等から構成される。出力装置145は、例えば、液晶ディスプレイなどから構成される。
 インターフェース制御部147は、管理計算機140を管理ネットワーク160に接続するためのアダプタである。ストレージ管理プログラム148は、管理ネットワーク160を介して、第一のストレージ装置120、第二のストレージ装置130のコントロール部122、132へ論理デバイスの操作要求を送信することができる。ストレージ管理プログラム148は、CPU141により、記憶装置143からメモリ142に読み出されて実行される。
 図2は、第一の実施例における、計算機システムの論理的な構成を示すブロック図である。本実施例中のストレージ装置は、第一のストレージ装置120、または第二のストレージ装置130の何れかに限定されるものではないため、ストレージ装置120、130と記載する。
 仮想マシン210は、仮想化プログラム118により仮想化され、ホスト計算機110の計算機リソースの一部を割当てられた仮想的な計算機である。
 仮想ボリューム(VVOL:Virtual VOLume)212は、仮想化プログラム118により仮想マシン210へ提供される論理デバイスであり、ストレージ装置120、130のSLU217(後述)をホスト計算機110が論理デバイスを認識する単位である。
 仮想化プログラム118は、仮想マシン210からVVOL212へのI/O要求(ReadやWrite等)を読み替えて、ストレージ装置120、130へI/Oコマンドを発行する。VVOL212とSLU217は、後述するLU214、ALU215を介して対応付けられている。
 論理ユニット(LU:Logical Unit)214は、記憶装置121が提供する記憶領域を、論理的な単位に分割または集約した単位である。
 ALU215は、ストレージ装置120、130の論理デバイスのうち、ホスト計算機110から代表として認識される論理デバイスである。ALU215は、ストレージ装置130のSLU217と対応付けて管理される。
 SLU217は、ストレージ装置120、130の論理デバイスを仮想化して、ホストが認識するIDであるSLU IDで管理される論理デバイスであり、ALU215と対応付けられて管理されている。ホスト計算機110からストレージ装置120、130へのI/Oコマンドは、SLU217の識別子を指定して発行する。
 図3は、第一の実施例における、テストフェールオーバ実行中のI/O処理の一例を示す概略図である。
 尚、図中で「-A」と「-B」を付与したものは、図2で「-A」と「-B」を付与せずに説明したものと同様であるが、説明のため、区別して記載する。
 I/O経路310は、仮想マシン210-Aから発行されたI/O要求を処理する例を示している。第一のホスト計算機110-Aの仮想マシン210-Aから、VVOL212-Aに対して発行されたI/O要求は、SAN150を経由して第一のストレージ装置120に伝送される。
 このとき、第一のホスト計算機110-AのVVOL212-Aに対応付けられたLU1(214-A)が定義されている第一のストレージ装置120は、このI/O要求を受信し、LU1(214-A)に対応付けられたALU1(215-A)と関連付けられ、さらに、VVOL212-Aと関連付けられたSLUであるSLU1(320)に対してI/O処理を行う。
 このSLU1(320)の属性は、リモートコピーの正ボリューム(RC PVOL:Remote Copy Primary Volume)である。
 リモートコピー経路311は、第一のストレージ装置120のSLU1(320)のデータを、第二のストレージ装置130のSLU2(321)に複製するリモートコピーの例を示している。
 第二のストレージ装置130のSLU2(321)の属性は、リモートコピーの副ボリューム(RC SVOL:Remote Copy Secondary Volume)である。
 第一のストレージ装置120のSLU1(320)の更新内容は、第一のストレージ装置120から、第二のストレージ装置130に転送され、第二のストレージ装置130のSLU2(321)に反映される。
 スナップショット作成経路312は、第二のストレージ装置130のSLU2(321)のデータを、第二のストレージ装置130内の別のSLUであるスナップショットVOL(SS VOL:Snapshot Volume)322へ複製する例を示している。
 第二のストレージ装置130のSLU2(321)のデータは、一定時間毎などの予め設定されたタイミングで、SS VOL322に複製される。このとき、複製の度に異なるスナップショットVOLを指定することが可能である。
 ここで、本番稼動している仮想マシン210-AからSLU1(320)に至るI/O経路310とリモートコピー経路311の処理を停止させることなく、SS VOL322のデータを用いて、仮想マシン210-Aのテストフェールオーバを行う場合がある。
 この方法を実施する構成例として、フェイルオーバ先に第二のホスト計算機110-Bの仮想マシン210-Bを指定し、第二のストレージ装置130のSS VOL322をVVOL212-Bと対応付け、仮想マシン210-Bへ提供する構成で説明する。
 I/O経路313は、第二のホスト計算機110-Bが管理計算機140から、テストフェールオーバの開始を指示する「テストフェールオーバ実行コマンド」を受信したことを契機として発生するI/Oの経路であり、仮想マシン210-Bから発行されたI/O要求を処理する例を示している。
 第二のホスト計算機110-Bの仮想マシン210-Bから、VVOL212-Bに対して発行されたI/O要求は、SAN150を経由して第二のストレージ装置130に伝送される。
 このとき、第二のホスト計算機110-BのVVOL212-Bと対応付けられたLU2(214-B)が定義されている第二のストレージ装置130は、このI/O要求を受領し、LU2(214-B)に対応付けられたALU2(215-B)と関連付けられ、さらに、VVOL212-Bと関連付けられたSLUであるSS VOL322に対してI/O処理を行う。
 図4は、第一の実施例における、リモートコピー方向の切替え時のI/O処理の概略図である。
 図3で例を挙げたテストフェールオーバの実施中に、I/O経路310に代わって、I/O経路313を正として運用したい場合がある。例えば、第一のホスト計算機110-Aで障害が発生した場合などである。このとき、リモートコピー経路311に代わって、第二のストレージ装置130から第一のストレージ装置120へのリモートコピーによる冗長化が必要となる。
 第二のストレージ装置130が管理計算機140からの指示により、I/Oの経路とリモートコピー経路が変更される処理について説明する。I/O経路410、及びI/O経路411を合わせた経路は、図3のI/O経路313と同一の経路を示している。
 スナップショットのリストア経路412は、第二のストレージ装置130が管理計算機140から、正式フェイルオーバ状態への遷移を指示する「リモートコピー再開準備コマンド」を受領したことを契機に実行される処理であり、第二のストレージ装置130のSLU2(321)から作成したSS VOL322のデータを、再びSLU2(321)にコピーする処理を示している。
 ここで、例えば仮想マシン210-Bから発行されたI/O要求によって、SS VOL322に更新された領域がある場合には、更新が発生している領域のみをSLU2(321)へコピーすることで、コピー時間を短縮することが可能となる。
 I/O経路413は、仮想マシン210-BからのI/O要求を処理するSLUを、SS VOL322からSLU2(321)に変更する時の処理を示している。I/O経路411からI/O経路413への変更は、SLU2(321)のIDを2000から3000へ変更し、SS VOL322のIDを3000から2000へ変更することで行われる(詳細は、図12で後述)。
 リモートコピー経路414は、第二のストレージ装置130が管理計算機140から、逆方向のリモートコピー再開を指示する「リモートコピー再構成コマンド」を受領したことを契機に設定するデータのコピー経路であり、スナップショットのリストア後のSLU2(321)のデータを、第一のストレージ装置120のSLU1(320)にコピーするリモートコピーの処理の例を示している。
 このリモートコピーの再開は、SLU2(321)の属性をRC SVOLからRC PVOLへ変更し、SLU1(320)の属性をRC PVOLからRC SVOLへ変更した後に行われる(詳細は、図13で後述)。
 ボリュームの属性変更後、SLU2(321)の更新内容は、第二のストレージ装置130から、第一のストレージ装置120へ転送され、SLU1(320)に反映される。
 図5は、第一の実施例及び第二の実施例における、第一のストレージ装置120、及び第二のストレージ装置130の記憶領域の階層構造を示す説明図である。以下、第一のストレージ装置120の説明を行うが、第二のストレージ装置130も同様の階層構造であるため説明を省略する。
 第一のストレージ装置120は、記憶装置121が提供する記憶領域を論理ユニット(LU)530としてホスト計算機110に提供する。
 この場合、記憶装置121と論理ユニット530の間には、記憶装置121と論理ユニット530を対応付けるための複数の中間記憶階層が設けられる。この中間記憶階層には、例えば、RAIDグループ510及び論理デバイス(LDEV:Logical DEVice)520を含めることができる。
 RAIDグループ510は、下位記憶階層である記憶装置121と、上位記憶階層である論理デバイス520とを接続する中間記憶階層であり、RAIDグループを構成する各記憶装置121が提供する記憶領域上に定義される。
 論理デバイス520は、下位記憶階層であるRAIDグループ510と、上位記憶階層である論理ユニット530とを接続する中間記憶階層であり、一つまたは複数のRAIDグループ510の記憶領域の全部、または、一部を集合してなる記憶領域、または、RAIDグループ510の記憶領域の一部を抜き出して構成される記憶領域である。
 論理デバイス520は、ALU215やSLU217の属性を有することができる。
 図6は、第一の実施例における、ストレージ装置120、130の不揮発性メモリ125、135内のプログラム及びテーブル構成を示す説明図である。
 第一のストレージ装置120と第二のストレージ装置130は、同様の構成であるため、第二のストレージ装置130の説明は省略する。
 図6において、不揮発性メモリ125には、SLU管理テーブル601、LDEV管理テーブル602、スナップショットペア管理テーブル603、リモートコピーペア管理テーブル604、I/O要求処理プログラム611、リモートコピー再開準備プログラム612、リモートコピー再開プログラム613が格納される。各テーブル601~604、及び、各プログラム611~613は、不揮発性メモリ125から主メモリ124に転送され、CPU123により実行される。なお、各テーブルは601~604は、予め管理計算機140が設定する。
 また、第一のストレージ装置120と第二のストレージ装置130は、所定のタイミングで通信を行ってリモートコピーペア管理テーブル604を更新させる。例えば、第一のストレージ装置120がリモートコピーペア管理テーブル604を更新すると、第二のストレージ装置130に更新内容を通知する。あるいは、管理計算機140が所定のタイミングでリモートコピーペア管理テーブル604を更新させてもよい。
 SLU管理テーブル601は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置の各ポートについて、ポートに対応するLUN(Logical Unit Number)と、ALU IDと、SLU IDと、I/Oキューイングフラグを記憶するためのテーブルである。このテーブルの詳細は、図7で説明する。
 LDEV管理テーブル602は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるSLU毎に、LDEV IDと、LDEV開始アドレスと、LDEV終了アドレスを記憶するためのテーブルである。このテーブルの詳細は、図8で説明する。
 スナップショットペア管理テーブル603は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるスナップショットペア毎に、スナップショット作成元のLDEV IDと、スナップショットボリュームのLDEV IDと、ペア状態を記憶するためのテーブルである。このテーブルの詳細は、図9で説明する。
 リモートコピーペア管理テーブル604は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるリモートコピーペア毎に、LDEV IDと、ボリューム属性と、リモートコピーペアを組む相手のLDEV IDと、リモートコピーペアを組む相手のストレージ装置IDを記憶するためのテーブルである。このテーブルの詳細は、図10で説明する。
 I/O要求処理プログラム611は、第一のストレージ装置120のCPU123が、ホスト計算機110から受信したデータの入出力処理などを要求するコマンド(Readコマンド、Writeコマンド等)を処理するためのプログラムである。このプログラムの詳細は、図11で説明する。
 リモートコピー再開準備プログラム612は、第一のストレージ装置120のCPU123が、管理計算機140から受信した、スナップショットボリュームに対するリモートコピー再開準備を要求するコマンドを処理するためのプログラムである。このプログラムの詳細は、図12で説明する。
 リモートコピー再開プログラム613は、第一のストレージ装置120のCPU123が、自ストレージ装置のSLUのデータを、異なるストレージ装置内のSLUへコピーするためのプログラムである。このプログラムの詳細は、図13で説明する。
 以下、本発明の第二のストレージ装置130の不揮発性メモリ146に記憶されている各テーブルについて、図7~図10を参照しながら説明する。
 図7は、第一の実施例における、SLU管理テーブル601の一例を示す図である。
 SLU管理テーブル601は、例えば、ポートID列701と、LUN列702と、ALU ID列703と、SLU ID列704と、I/Oキューイングフラグ列705と、を対応付けて管理する。
 ポートID列701には、自ストレージ装置に定義されているポート128、138の識別情報が格納される。LUN列702には、LU214の識別情報であるLUNが格納される。
 ALU ID列703には、ALU215の識別情報が格納される。SLU ID列704には、当該ALU毎に定義されるSLU217の識別情報(仮想ID)が格納される。
 I/Oキューイングフラグ列705には、当該SLUに対するI/Oをキューから取り出すことの要否を示す情報が格納される。キューイングフラグがONであれば、キューから取り出さずキューイングを継続し、キューイングフラグがOFFであれば、キューから取り出すことが可能であることを示す。なお、キューは、キャッシュメモリ126、136の所定の領域に予め設定される。
 例えば、行711には、SLU ID「1000」は、ALU ID「000」、LUN「00」、ポートID「00」と紐付けられており、当該SLUのI/Oキューイングフラグが「OFF」であることを示す。
 図8は、第一の実施例における、LDEV管理テーブル602の一例を示す図である。
 LDEV管理テーブル602は、例えば、SLU ID列801と、LDEV ID列802と、LDEV開始アドレス列803列と、LDEV終了アドレス列804と、を対応付けて管理する。
 SLU ID列801には、自ストレージ装置に定義されているSLUの識別情報(仮想ID)が格納される。LDEV ID列802には、当該SLUに紐づくLDEVの識別情報が格納される。
 LDEV開始アドレス列803には、当該SLUに紐づくLDEVの領域の開始アドレス情報が格納される。LDEV終了アドレス列804には、当該SLUに紐づくLDEVの領域の終了アドレス情報が格納される。
 例えば、行811には、SLU ID「2000」に紐づくLDEV IDは、「2222」であり、当該LDEV領域の開始アドレスは「020000」、終了アドレスは「020999」であることを示す。
 図9は、第一の実施例及び第二の実施例における、スナップショットペア管理テーブル603の一例を示す図である。
 スナップショットペア管理テーブル603は、例えば、ペアID列901と、スナップショット作成元LDEV ID列902と、スナップショットボリュームLDEV ID列903と、ペア状態列904を対応付けて管理する。
 ペアID列901には、自ストレージ装置に定義されているスナップショットペアの識別情報が格納されている。スナップショット作成元LDEV ID列902には、当該スナップショットペアのスナップショット作成元となっているボリュームのLDEVの識別情報が格納される。
 スナップショットボリュームLDEV ID列903には、当該スナップショット元LDEVとペア関係が構築されている、スナップショットボリュームのLDEVの識別情報が格納される。ペア状態列904には、当該スナップショットペアのコピーペア状態の情報(PAIR(二重化)、Suspend(分割)など)が格納されている。
 例えば、行911は、スナップショットペアID「1-1」のスナップショット作成元LDEV IDは「2222」、スナップショットボリュームのLDEV IDは「3333」であり、ペア状態は「Suspend(分割)」であることを示す。
 図示の異例では、図3の第二のストレージ装置130のSLU2(LDEV ID902=2222)と、SS VOL322(LDEV ID902=3333)がコピーペアの関係であることを示す。なお、コピーペアは、異なる論理デバイス間で複製の関係を定義したものである。
 図10は、第一の実施例及び第二の実施例における、リモートコピーペア管理テーブル604の一例を示す図である。
 リモートコピーペア管理テーブル604は、例えば、ペアID列1001と、LDEV ID列1002と、ペア属性列1003と、ペア相手LDEV ID列1004と、ペア相手ストレージ装置ID列1005と、を対応付けて管理する。
 ペアID列1001には、自ストレージ装置に定義されているリモートコピーペアの識別情報が格納される。LDEV ID列1002には、当該リモートコピーペアの自ストレージ装置側のLDEVの識別情報が格納される。
 ペア属性列1003には、当該LDEVのリモートコピーペア属性(PVOLまたはSVOL)の情報が格納される。ペア相手LDEV ID列1004には、当該LDEVのリモートコピー相手のLDEVの識別情報が格納される。
 ペア相手ストレージ装置ID列1005には、当該LDEVのリモートコピー相手のストレージ装置の識別情報が格納される。
 例えば、行1011には、リモートコピーペアID「1」の自ストレージ装置側のLDEV IDは「2222」で、そのLDEVのペア属性が「SVOL」であり、当該LDEVのリモートコピー相手のLDEV IDは「1111」であり、リモートコピー相手のストレージ装置IDは「ST01」であることを示す。
 なお、リモートコピーペアは、異なるストレージ装置(第一のストレージ装置120及び第二のストレージ装置130)間で論理デバイスの複製の関係を定義したものである。
 以下、図11~図13を用いて、本実施例1で行われる種々の処理を詳細に説明する。各フローチャートは、本発明の理解及び実施に必要な範囲で、各処理の概要を示すが、処理の順序は、図示の順序に限定されなくて良い。
 図11は、第一の実施例における、I/O要求処理プログラム611で行われる処理を示すフローチャートである。
 この処理は、第一のストレージ装置120、及び、第二のストレージ装置130がホスト計算機110から書込み要求を受領した契機で開始される。
 以下、第一のストレージ装置120が書込み要求を受領した例を用いて説明する。ステップS1101では、I/O要求処理プログラム611が、ホスト計算機110から発行され、キューに格納されたSCSIコマンドを解析し、I/O先として指定されているポートID、LUN、ALU ID、SLU IDを取得する。
 ステップS1102では、I/O要求処理プログラム611が、SLU管理テーブル601の「SLU ID」列704からステップS1101で取得したSLU IDを検索し、対応する「I/Oキューイングフラグ」列705の値を取得する。
 ステップS1103では、I/O要求処理プログラム611が、ステップS1102で取得した「I/Oキューイングフラグ」列705の値がON(S1103:YES)の場合は処理を終了し、OFF(S1103:YES)の場合はステップS1104に遷移する。
 ステップS1104では、ステップS1103の判定がNOの場合、I/O要求処理プログラム611は、キューイングされたホスト計算機110からの要求を取得して、SLU1(320)への書込み処理を行う。
 SLU1(320)から、第二のストレージ装置130のSLU2(321)へのリモートコピーが非同期リモートコピーである場合、I/O要求処理プログラム611は、SLU1(320)への書込み処理が完了した後、更新データをジャーナルとしてジャーナルボリュームへ書き込み、ステップS1105に遷移する。
 ステップS1105への遷移後も、第一のストレージ装置120のジャーナルボリュームに書き込まれたジャーナルは、WAN170を経由して、第二のストレージ装置130のジャーナルボリュームに非同期でコピーされ、コピーされたジャーナルはSLU2(321)に反映される。
 SLU1(320)から、第二のストレージ装置130のSLU2(321)へのリモートコピーが同期リモートコピーである場合は、SLU1(320)への書込み処理が完了した後、I/O要求処理プログラム611は、更新データをSLU1(320)からSLU2(321)へ転送し、転送した更新データがSLU2(321)へ反映されたことを示す応答を受信した後に、ステップS1105に遷移する。
 ステップS1105では、I/O要求処理プログラム611が、キューから取り出したホスト計算機110の要求であるSCSIコマンドに対して、書込み処理が完了したことを示す応答を行う。
 ステップS1106では、I/O要求処理プログラム611が、第一のストレージ装置120でホスト計算機110からの要求がキューイングされている状態であれば(S1106:YES)、ステップS1104に遷移して上記処理を繰り返し、キューイングされていなければ処理を終了する。
 本実施例では、SLU管理テーブル601の「I/Oキューイングフラグ」列705の値(ON/OFF)によって、I/O要求を受領したときに格納されるキューからの取り出しを制御する例を示したが、「I/Oキューイングフラグ」列705の値がONの場合にI/O要求を格納する別のキューを使用しても良いし、その他のキュー管理方法であっても良い。
 図12は、第一の実施例における、リモートコピー再開準備プログラム612で行われる処理を示すフローチャートである。
 本実施例1では、この処理は、第二のストレージ装置130が、管理計算機140から、SS VOL322に対する「リモートコピー再開準備コマンド」を受領したことを契機に処理を行う。
 ステップS1201では、リモートコピー再開準備プログラム612が、管理計算機140からリモートコピー再開準備コマンドを受領する。
 ステップS1202では、リモートコピー再開準備プログラム612が、管理計算機140から受領したリモートコピー再開準備コマンドから、スナップショットVOLであるSS VOL322のSLU IDを取得する。
 ステップS1203では、リモートコピー再開準備プログラム612が、LDEV管理テーブル602の「SLU ID」列801に対し、S1202で取得したSS VOL322のSLU IDの検索を行い、検索結果に対応する「LDEV ID」列802の値を取得する。
 ステップS1204では、リモートコピー再開準備プログラム612が、スナップショットペア管理テーブル603の「スナップショットVOL LDEV ID」列903に対し、S1203で取得したSS VOL322のLDEV IDの検索を行い、検索結果に対応する「スナップショット作成元LDEV ID」列902の値を、SLU2(321)のLDEV IDとして取得する。
 また、リモートコピー再開準備プログラム612は、LDEV管理テーブル602の「LDEV ID」列802に対し、上記で取得したSLU2(321)のLDEV IDの検索を行い、検索結果に対応する「SLU ID」列801の値を取得する。この値は、ステップS1209で使用する。
 ステップS1205では、リモートコピー再開準備プログラム612が、リモートコピーペア管理テーブル604の「LDEV ID」列1002に対し、ステップS1204で取得したSLU2(321)のLDEV IDの検索を行い、当該行が存在すること(=SLU2(321)がリモートコピーペアを構成済であること)を検証する。なお、SLU2(321)がリモートコピーペアを構成していない場合には処理を終了する。
 ステップS1206では、リモートコピー再開準備プログラム612が、SLU管理テーブル601の「SLU ID」列704から、ステップS1202で特定したSS VOL322のSLU IDを検索し、検索結果に対応する「I/Oキューイングフラグ」列705の値をONに変更する。
 ステップS1207では、リモートコピー再開準備プログラム612が、ステップS1202で特定したSS VOL322から、ステップS1204で特定したSLU2(321)へのスナップショットリストア処理をキックし、ステップS1208に遷移する。キックされたことを契機に、バックグラウンドで行われるスナップショットリストア処理では、SS VOL322とSLU2(321)との差分データのみがコピーされる。
 ステップS1208では、リモートコピー再開準備プログラム612が、LDEV管理テーブル602の「SLU ID」列801について、値がSS VOL322のSLU IDであるものはSLU2(321)のSLU IDに更新し、値がSLU2(321)のSLU IDであるものはSS VOL322のSLU IDに更新することで、値の入れ替えを行う。
 このSLU ID列801の変更により、図4に示した仮想マシン210-BのI/O要求はI/O経路411からI/O経路413へ変更されてSLU2(321)に伝送される。
 ステップS1209では、リモートコピー再開準備プログラム612が、SLU管理テーブル601の「SLU ID」列704から、ステップS1202で特定したSS VOL322のSLU ID(SLU ID入れ替え後は、SLU2(321)のSLU ID)を検索し、検索結果に対応する「I/Oキューイングフラグ」列705の値をOFFに変更する。
 ステップS1210では、リモートコピー再開準備プログラム612が、管理計算機140に対し、リモートコピー再開準備コマンドの処理が完了したことを示す応答を通知して処理を終了する。
 上記処理によって、第二のストレージ装置130では、リモートコピー再開準備プログラム612が、仮想マシン210-BがアクセスしているSS VOL322のI/Oキューイングフラグ列705の値をONに変更し、I/O要求の発行を停止してから、SS VOL322とSLU2(321)のSLU IDを入れ替えることで、I/O経路411からI/O経路413に切り替える。
 そして、リモートコピー再開準備プログラム612は、キューイングの開始後にスナップショットリストア処理をキックしてバックグラウンドで実行させる。これによりSS VOL322からSLU2(321)へ差分データのみがコピーされて、スナップショットリストア処理が実施される。
 その後、リモートコピー再開準備プログラム612が、SLU2(321)のI/Oキューイングフラグ列705の値をOFFに変更することで、仮想マシン210-Bが発行したI/O要求をSLU2(321)に伝送する。これにより、仮想マシン210-Bが読み書きする論理ボリュームは、SS VOL322からSLU2(321)に切り替えられる。なお、スナップショットリストア処理はキューイングの終了後にも継続される場合がある。
 図13は、第一の実施例における、リモートコピー再開プログラム613で行われる処理を示すフローチャートである。
 本実施例1では、この処理は、第二のストレージ装置130のリモートコピー再開プログラム613が、管理計算機140から「リモートコピー再開(逆方向)コマンド」を受領したことを契機に処理を行う。
 ステップS1301では、リモートコピー再開プログラム613が、管理計算機140からリモートコピー再開(逆方向)コマンドを受領する。
 ステップS1302では、リモートコピー再開プログラム613が、管理計算機140から受領したリモートコピー再開(逆方向)コマンドから、RC SVOLであるSLU2(321)のSLU IDを取得する。
 ここで、ステップS1301で、リモートコピー再開プログラム613が管理計算機140から受領したリモートコピー再開(逆方向)コマンドに含まれるSLU IDと、図12のステップS1201で、リモートコピー再開準備プログラム612が管理計算機140から受領したリモートコピー再開準備コマンドに含まれるSLU IDは、同一の値である。しかし、図12のステップS1207でSLU2(321)とSS VOL(322)のIDが交換されているため、このSLU IDが示すSLUは、SS VOL322からSLU2(321)に変更となった値である。
 ステップS1303では、リモートコピー再開プログラム613が、LDEV管理テーブル602の「SLU ID列」801に対し、ステップS1302で取得したSLU2(321)のSLU IDの検索を行い、検索結果に対応する「LDEV ID」列802の値を取得する。
 ステップS1304で、リモートコピー再開プログラム613は、第二のストレージ装置130が保有するリモートコピーペア管理テーブル604の「LDEV ID」列1002から、S1303で取得したSLU2(321)に対応するLDEV IDを検索し、検索結果に対応する「ペア属性」列1003の値をSVOLからPVOLに変更する。
 また、リモートコピー再開プログラム613は、第一のストレージ装置120に対して、リモートコピーペア管理テーブル604のうち、同じペアIDを有する行の「ペア属性」列1003の値をPVOLからSVOLに変更するよう指示を行う。
 ステップS1305では、リモートコピー再開プログラム613が、SLU2(321)からSLU1(320)へ差分コピーを実施する。具体的には、SLU1(320)からSLU2(321)へのリモートコピーが分割された後で、SLU2(321)に更新が発生した領域のデータのみをSLU2(321)からSLU1(320)へコピーする処理を行う。
 ステップS1306では、リモートコピー再開プログラム613が、管理計算機140に対し、リモートコピーの再開完了を示す応答を通知して処理を終了する。尚、本ステップの処理は、所定のタイミングでもよく、例えば、S1304の終了後、S1305の開始前に行っても良い。
 以上の処理によって、第一のストレージ装置120と第二のストレージ装置130のコピーペアの関係は逆転し、第二のストレージ装置130のSLU2(321)から第一のストレージ装置120のSLU1(320)へリモートコピーが行われる。
 図19は、テストフェールオーバからリモートコピー再開までに計算機システム全体で行われる処理の一例を示すシーケンス図である。
 第一のホスト計算機110-Aでは、仮想マシン210-Aが正サイト(現用系)で稼働しており、仮想マシン210-Aが第一のストレージ装置120へ書き込みを行うと(S1)、SLU1(320)に書き込まれたデータはリモートコピーペアである第二のストレージ装置130のSLU2(321)にリモートコピーされる(S2)。
 次に、管理計算機140の管理プログラム148が第二のホスト計算機110-Bの仮想マシン210-Bにテストフェールオーバの指示を送信する(S3)。副サイト(待機系)で稼働する仮想マシン210-Bは、第二のストレージ装置130にSLU2のスナップショットボリューム(SS VOL322)を生成させ(S4)、SS VOL322を利用してフェイルオーバのテストを実施する(S5)。なお、第二のストレージ装置130は、SS VOL322を生成すると当該論理デバイスの仮想ID(SLU ID)を設定して、I/O要求を発行する仮想マシン210-Bに当該仮想IDを認識させる。
 仮想マシン210-Bで、テストフェールオーバの実行中に正サイトの仮想マシン210-Aで障害が発生する(S6)。管理計算機140は、仮想マシン210-Aで障害が発生したことを検出すると、副サイトの仮想マシン210-Bにテストフェールオーバから正式なフェイルオーバに切り替える指令を送信する(S7)。そして、管理計算機140は、待機系を構成する第二のストレージ装置130に、リモートコピーの再開準備コマンドを送信する(S8)。
 第二のストレージ装置130は、SS VOL322のキューイングを開始してSS VOL322が更新されるのを抑止してから(S9)、第二のストレージ装置130は、SS VOL322とSLU2(321)のSLU IDを入れ替えて、仮想マシン210-BがアクセスするSLUをコピーペアのS-VOLのSLU2(321)に切り替える(S10)。また、スナップショットのリストア処理をバックグランドで実行し(S11)し、SS VOL322とSLU2(321)との差分データをSLU2(321)にコピーする。
 次に、第二のストレージ装置130は、キューイングを終了して仮想マシン210-BのSLU2(321)へのアクセスを許可する(S12)。第二のストレージ装置130は、リモートコピーの再開準備が完了したことを管理計算機140へ通知する(S13)。なお、上述のようにキューイングが終了した後にもスナップショットリストア処理が継続する場合がある。
 管理計算機140の管理プログラム148は、リモートコピーの再開準備が完了したことを受信すると、第二のストレージ装置130にリモートコピーの再開コマンドを送信する(S14)。
 第二のストレージ装置130のリモートコピーの再開プログラム613は、リモートコピーペア管理テーブル604でSLU2(322)のペア属性列1003をSVOLからPVOLに変更する(S15)。次に、リモートコピーの再開プログラム613は、第一のストレージ装置120に対して、SLU2(322)のコピーペアとなっているSLU1(320)のペア属性をPVOLからSVOLへ変更するよう指令する(S16)。
 そして、リモートコピーの再開プログラム613は、SLU2(322)とSLU1(320)の差分をSLU1(320)へコピーする(S17)。差分コピーが完了すると、リモートコピーの再開プログラム613は、管理計算機140へリモートコピーの再開が完了したことを管理計算機140に通知する(S18)。以降、第二のストレージ装置130は、仮想マシン210-Bからの書き込みを受け付けると、SLU2(322)に書き込んだデータをSLU1(320)へリモートコピーを行う。
 以上のように、本実施例1では、テストフェールオーバ中に障害が発生した場合には、待機系の仮想マシン210-Bが使用していたスナップショット(SS VOL)へのI/O要求を第二のストレージ装置130が停止してから、リモートコピーのSVOLとなっているSLU2(322)へスナップショットとの差分を書き込んでから、SLU2とスナップショットのIDを入れ替えて、仮想マシン210-Bが書き込むボリュームの経路を切り替える。
 次に、第二のストレージ装置130は、仮想マシン210-BからSLU2へのI/O要求を許可してから、第二のストレージ装置130のSLU2とコピーペアの関係にある第一のストレージ装置120のSLU1(320)のPVOLとSVOLの関係を切り替えてから、差分コピーを行ってSLU1をリストアする。
 本実施例1では、前記従来例のようにテストフェールオーバで使用していたSS VOLから第一のストレージ装置120のPVOLへ全コピーを行う必要がなくなって、差分コピーとSLU IDの切り替えと、リモートコピー方向の切り替えを行えば良いので、フェイルオーバに要する時間を短縮することが可能となる。換言すれば、リモートコピーペアを構成しない副サイトのスナップショットから正サイトの論理デバイスへの逆方向のリモートコピーを、全領域コピーを行うことなく高速に実現することができる。
 本発明の第二の実施例について、図14~図18を用いて説明する。
 図14は、第二の実施例における、計算機システムの論理的な構成の一例を示すブロック図である。物理構成は、前記図1の第一の実施例と同様である。本実施例2中のホスト計算機110、HBA116、ポート127、ストレージ装置120、130、SAN150、仮想マシン210、LU214は、前記実施例1の図1、図2と同様であるため、説明を省略する。
 仮想論理デバイス1410は、ストレージ装置120、130のLU214をホスト計算機110が認識する単位である。実施例2では、同一のホスト計算機110内の複数の仮想マシン210が、仮想論理デバイス1410を共有することができる。
 仮想マシン210から仮想論理デバイス1410へのI/O要求(ReadやWrite等)は、ストレージ装置120、130へのI/Oコマンドとして発行される。
 第一のストレージ装置120及び第二のストレージ装置130のLDEV1420は、ストレージ装置120、130の論理デバイスである。LDEV1420は、ホスト計算機110が認識するLDEV ID、或いは、仮想的なIDである仮想LDEV IDにより管理されるが、本実施例2では、仮想LDEV IDで管理する例を示す。LDEV1420は、LU214と、後述する(仮想LDEV管理テーブル1600)により対応付けて管理される。
 図15は、第二の実施例における、リモートコピー方向切替え時のI/O処理で行われる処理の概念図である。第一の実施例における、リモートコピー方向切替え時のI/O処理の概略図である図4との差異を中心に説明する。
 第二のホスト計算機110-Bの仮想マシン210-Bから、仮想論理デバイス1420-Bに対して発行されたI/O要求は、SAN150を経由して第二のストレージ装置130に伝送される。
 このとき、仮想論理デバイス1420-Bと対応付けられたSS VOL1522を有する第二のストレージ装置130は、このI/O要求を受領し、SS VOL1522に対してI/O処理を行っている。
 第二のストレージ装置130は、管理計算機140からの指示により、I/O経路1512からI/O経路1513へI/O経路の変更を行う。具体的には、LDEV2(1521)のIDを2000から3000へ変更し、SS VOL1522のIDを3000から2000へ変更した後で行われる(詳細は、図18で後述)。
 スナップショットのリストア経路1514、及び、リモートコピー経路1515の処理と実行契機は、図4のスナップショットのリストア経路412、及び、リモートコピー経路414と同様である。図4の説明のSLU1(320)、SLU2(321)を、LDEV1(1520)、LDEV2(1521)に読み替えることで説明できるため、記載を省略する。
 図16は、第二の実施例における、仮想LDEV管理テーブル1600の一例を示す図である。
 仮想LDEV管理テーブル1600は、例えば、ポートID列1601と、LUN列1602と、仮想LDEV ID列1603と、I/Oキューイングフラグ列1604と、を対応付けて管理する。
 仮想LDEV ID列1603には、自ストレージ装置に定義されているLDEVに対し、仮想的に付与したLDEVの識別情報(仮想ID)が格納される。
 その他、ポートID列1601、LUN列1602、I/Oキューイングフラグ列1604については、前記実施例1の図7のポートID列701、LUN列702、I/Oキューイングフラグ列705と同様であるため、説明を省略する。
 例えば、行1611には、仮想LDEV ID「1000」は、LUN「00」、ポートID「00」と紐付けられており、当該LDEVのI/Oキューイングフラグが「OFF」であることを示す。
 図17は、第二の実施例における、仮想LDEV-実LDEV管理テーブル1700の一例を示す図である。
 仮想LDEV-実LDEV管理テーブル1700は、例えば、仮想LDEV ID1701列と、LDEV ID列1702と、LDEV開始アドレス列1703列と、LDEV終了アドレス列1704と、を対応付けて管理する。
 仮想LDEV ID列1701には、自ストレージ装置に定義されているLDEVに対し、仮想的に付与したLDEVの識別情報(仮想ID)が格納される。
 その他、LDEV ID列1702、LDEV開始アドレス列1703列、LDEV終了アドレス列1704については、図8のLDEV ID列802、LDEV開始アドレス列803、LDEV終了アドレス列804と同様であるため、説明を省略する。
 例えば、行1711には、仮想LDEV ID「2000」に紐づくLDEV IDは、「2222」であり、当該LDEV領域の開始アドレスは「020000」、終了アドレスは「020999」であることを示す。
 図18は、第二の実施例における、リモートコピー再開準備プログラム1800で行われる処理の一例を示すフローチャートである。
 本実施例2では、この処理は、第二のストレージ装置130が、管理計算機140から、SS VOL1522に対する「リモートコピー再開準備コマンド」を受領したことを契機に処理を行う。
 ステップS1801では、リモートコピー再開準備プログラム1800が、管理計算機140からリモートコピー再開準備コマンドを受領する。ステップS1802では、リモートコピー再開準備プログラム1800が、管理計算機140から受領したリモートコピー再開準備コマンドから、スナップショットVOLであるSS VOL1522のLDEV IDを取得する。
 ステップS1803では、リモートコピー再開準備プログラム1800が、仮想LDEV-実LDEV管理テーブル1700の「仮想LDEV ID」列1701に対し、ステップS1802で取得したSS VOL1522のLDEV IDの検索を行い、検索結果に対応する「LDEV ID」列1702の値を取得する。
 ステップS1804では、リモートコピー再開準備プログラム1800が、スナップショットペア管理テーブル603の「スナップショットVOL LDEV ID」列903に対し、ステップS1803で取得したSS VOL1522のLDEV IDの検索を行い、検索結果に対応する「スナップショット作成元LDEV ID」列902の値を、LDEV2(1521)のLDEV IDとして取得する。
 また、リモートコピー再開準備プログラム1800は、仮想LDEV-実LDEV管理テーブル1700の「仮想LDEV ID」列1701に対し、上記で取得したLDEV2(1521)のLDEV IDの検索を行い、検索結果に対応する「LDEV ID」列1702の値を取得する。この値は、ステップS1809で使用する。
 ステップS1805では、リモートコピー再開準備プログラム1800が、リモートコピーペア管理テーブル604の「LDEV ID」列1002に対し、ステップS1804で取得したLDEV2(1521)のLDEV IDの検索を行い、当該行が存在すること(=LDEV2(1521)がリモートコピーペアを構成済であること)を判定検証する。
 ステップS1806では、リモートコピー再開準備プログラム1800は、仮想LDEV管理テーブル1600の「仮想LDEV ID」列1603から、ステップS1802で特定したSS VOL1522のLDEV IDを検索し、対応する「I/Oキューイングフラグ」列1604の値をONに変更する。
 ステップS1807では、リモートコピー再開準備プログラム1800は、ステップS1802で特定したSS VOL1522から、ステップS1804で特定したLDEV2(1521)へのスナップショットリストア処理をキックし、ステップS1808に遷移する。キックされたことを契機に、バックグラウンドで行われるスナップショットリストア処理では、SS VOL1522とLDEV2(1521)との差分データのみをコピーする。
 ステップS1808では、リモートコピー再開準備プログラム1800が、仮想LDEV-実LDEV管理テーブル1700の「仮想LDEV ID」列1701について、値がSS VOL1522のLDEV IDであるものはLDEV2(1521)のLDEV IDに更新し、値がLDEV2(1521)のLDEV IDであるものはSS VOL1522のLDEV IDに更新することで、IDの入れ替えを行う。これにより、I/O経路1512からI/O経路1513へI/O経路の切り替えを行う。
 ステップS1809では、リモートコピー再開準備プログラム1800が、仮想LDEV管理テーブル1600の「仮想LDEV ID」列1603から、S1802で特定したSS VOL1522のLDEV ID(LDEV ID入れ替え後は、LDEV2(1521)のLDEV ID)を検索し、検索結果に対応する「I/Oキューイングフラグ」列1604の値をOFFに変更する。
 ステップS1810では、リモートコピー再開準備プログラム1800が、管理計算機140に対し、リモートコピー再開準備コマンドの処理が完了した応答を通知して処理を終了する。
 以上のように、本実施例2では、テストフェールオーバ中に障害が発生した場合には、待機系の仮想マシン210-Bが使用していたスナップショット(SS VOL)への書き込みを停止してから、LDEV2とスナップショットの仮想ID(仮想LDEV ID)を入れ替えて、仮想マシン210-Bが書き込むボリュームの経路を切り替える。また、バックグラウンドにてスナップショットリストア処理が実行され、リモートコピーのSVOLとなっているLDEV2(1521)へスナップショット(SS VOL)との差分が書き込む。次に、仮想マシン210-BからLDEV2へのI/O要求を許可してから、第二のストレージ装置130のLDEV2とコピーペアの関係にある第一のストレージ装置120のLDEV1のPVOLとSVOLの関係を切り替えてから、差分コピーを行ってLDEV1をリストアする。なお、スナップショットリストア処理は、キューイングが終了した後も継続する場合がある。
 本実施例2においても、前記従来例のようにテストフェールオーバで使用していたSS VOLから第一のストレージ装置120のPVOLへ全コピーを行う必要がなくなって、差分コピーとLDEV2のIDの切り替えと、リモートコピー方向の切り替えを行えば良いので、論理デバイスとして仮想LDEVを採用した場合でもフェイルオーバからの復旧に要する時間を短縮することが可能となる。
 以上、本発明の実施例を説明したが、本発明は、これらの実施形態に限定されるものでなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、第一または第二の実施形態において、第二のストレージ装置130が管理計算機140から、リモートコピーペア再開準備コマンドとリモートコピーペア再開(逆方向)の2つのコマンドの情報を合わせた1つのコマンドを受領したことを契機に、リモートコピー再開準備プログラム612を、S1210の完了応答を除いて実行した後、リモートコピー再開プログラム613を連続して実行しても良い。
 また第一または第二の実施形態において、リモートコピー再開準備プログラム612やリモートコピー再開プログラム613の各ステップは、それぞれ管理計算機140からの異なるコマンドを受領したことを契機に実行されてもよい。例えば、リモートコピー再開準備プログラム612ではS1202~S1205を実行後に管理計算機140に応答を行い、S1206、S1207、S1208、S1209の処理はそれぞれ別のコマンドを受領したことを契機に実行され、リモートコピー再開プログラム613ではS1302~S1304を実行後に管理計算機140に応答を行い、S1305の処理は別のコマンドを受領したことを契機に実行されても良い。
 また、第一または第二の実施形態において、ホスト計算機内のサーバ内の仮想マシンがホスト計算機相当の働きをし、第一のストレージ装置120及び第二のストレージ装置130の各プログラム、及び、各テーブルが当該ホスト計算機内で稼働することにより、ストレージ装置の一部または全部を含まない構成も変形例の一つとして考えられる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。

Claims (10)

  1.  管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、
     前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、
     前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、
     前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替えることを特徴とする計算機システム。
  2.  請求項1に記載の計算機システムであって、
     前記第2のストレージ装置は、
     前記仮想IDの入れ替えを行っている間は、前記I/O要求をキューイングすることを特徴とする計算機システム。
  3.  請求項1に記載の計算機システムであって、
     前記第2のストレージ装置は、
     前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替える前に、前記第3の論理デバイスから第2の論理デバイスへ差分データをリストアすることを特徴とする計算機システム。
  4.  請求項1に記載の計算機システムであって、
     前記第2のストレージ装置は、
     前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記第2の論理デバイスから前記第1の論理デバイスへリモートコピーペアを実施することを特徴とする計算機システム。
  5.  請求項2に記載の計算機システムであって、
     前記第2のストレージ装置は、
     前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記I/O要求のキューイングを終了することを特徴とする計算機システム。
  6.  管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムで前記第1及び第2のストレージ装置を制御するストレージ装置の制御方法であって、
     前記管理計算機が、前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを設定する第1のステップと、
     前記第2のストレージ装置が、前記第2の論理デバイスと第3の論理デバイスにコピーペアを設定し、前記第2の論理デバイスと前記第3の論理デバイスにはI/O要求の発行元が認識する仮想IDを設定する第2のステップと、
     前記第2のストレージ装置が、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える第3のステップと、
    を含むことを特徴とするストレージ装置の制御方法。
  7.  請求項6に記載のストレージ装置の制御方法であって、
     前記第3のステップは、
     前記第2のストレージ装置が、前記仮想IDの入れ替えを行っている間は、前記I/O要求をキューイングすることを特徴とするストレージ装置の制御方法。
  8.  請求項6に記載のストレージ装置の制御方法であって、
     前記第3のステップは、
     前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替える前に、前記第3の論理デバイスから第2の論理デバイスへ差分データをリストアすることを特徴とするストレージ装置の制御方法。
  9.  請求項6に記載のストレージ装置の制御方法であって、
     前記第3のステップは、
     前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記第2の論理デバイスから前記第1の論理デバイスへリモートコピーペアを実施することを特徴とするストレージ装置の制御方法。
  10.  請求項7に記載のストレージ装置の制御方法であって、
     前記第3のステップは、
     前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記I/O要求のキューイングを終了することを特徴とするストレージ装置の制御方法。
PCT/JP2016/070545 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法 WO2018011882A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/081,539 US10761767B2 (en) 2016-07-12 2016-07-12 Computer system and method for controlling storage apparatus that has replication direction from first logical device (in first storage) to second logical device (in second storage) and from said second logical device to third logical device (in said second storage), wherein said replication direction is reversed when second computer takes over for first computer
PCT/JP2016/070545 WO2018011882A1 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法
JP2018527283A JP6557785B2 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070545 WO2018011882A1 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法

Publications (1)

Publication Number Publication Date
WO2018011882A1 true WO2018011882A1 (ja) 2018-01-18

Family

ID=60952465

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070545 WO2018011882A1 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法

Country Status (3)

Country Link
US (1) US10761767B2 (ja)
JP (1) JP6557785B2 (ja)
WO (1) WO2018011882A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10656877B2 (en) * 2016-12-06 2020-05-19 Nutanix, Inc. Virtual storage controller
US11061585B1 (en) 2017-10-19 2021-07-13 EMC IP Holding Company, LLC Integration of NVMe device with DRAM cache system and method
US10521137B1 (en) * 2017-10-31 2019-12-31 EMC IP Holding Company LLC Storage device array integration of dual-port NVMe device with DRAM cache and hostside portion of software stack system and method
US11397539B2 (en) * 2020-11-30 2022-07-26 EMC IP Holding Company LLC Distributed backup using local access

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302556A (ja) * 2003-03-28 2004-10-28 Hitachi Ltd 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法
JP2011090550A (ja) * 2009-10-23 2011-05-06 Hitachi Ltd コンピュータシステム及びプログラム記録媒体

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6886053B2 (en) * 2002-05-28 2005-04-26 Sun Microsystems, Inc. Method, system, and program for managing access to a device
US7103727B2 (en) * 2002-07-30 2006-09-05 Hitachi, Ltd. Storage system for multi-site remote copy
JP4591840B2 (ja) * 2004-02-26 2010-12-01 日本電気株式会社 ネットワーク間のプロセス移動方法およびそのネットワークシステム
US7058731B2 (en) * 2004-08-03 2006-06-06 Hitachi, Ltd. Failover and data migration using data replication
JP2006301820A (ja) * 2005-04-19 2006-11-02 Hitachi Ltd ストレージシステム及びストレージシステムのデータ移行方法
JP2007066162A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd ストレージシステム及びストレージシステムの管理方法
US9032164B2 (en) * 2006-02-17 2015-05-12 Emulex Corporation Apparatus for performing storage virtualization
JP4804218B2 (ja) * 2006-05-11 2011-11-02 株式会社日立製作所 記憶媒体への書き込み回数を管理する計算機システム及びその制御方法
JP2009093316A (ja) * 2007-10-05 2009-04-30 Hitachi Ltd ストレージシステム及び仮想化方法
JP5508798B2 (ja) * 2009-09-29 2014-06-04 株式会社日立製作所 クラスタを考慮してレプリケーションを管理する管理方法及びシステム
JP5492731B2 (ja) 2010-10-06 2014-05-14 株式会社日立製作所 仮想計算機のボリューム割当て方法およびその方法を用いた計算機システム
JP2012185575A (ja) * 2011-03-03 2012-09-27 Nec Corp ストレージシステム及びリビルド処理高速化方法
US8782358B2 (en) * 2011-04-27 2014-07-15 International Business Machines Corporation Transparent input / output switching between synchronously mirrored storage volumes
JP5807458B2 (ja) * 2011-08-31 2015-11-10 富士通株式会社 ストレージシステム、ストレージ制御装置およびストレージ制御方法
KR101850318B1 (ko) * 2011-12-09 2018-04-20 삼성전자주식회사 가상 메모리 관리 장치 및 방법
US9189341B1 (en) * 2012-03-30 2015-11-17 Emc Corporation Method and apparatus for multi-copy replication using a multi-splitter
US9043571B2 (en) * 2012-09-11 2015-05-26 Hitachi, Ltd. Management apparatus and management method
WO2014054075A1 (en) * 2012-10-04 2014-04-10 Hitachi, Ltd. System management method, and computer system
US9092449B2 (en) * 2012-10-17 2015-07-28 International Business Machines Corporation Bitmap selection for remote copying of updates
DE112013006658T5 (de) * 2013-05-08 2015-12-03 Hitachi, Ltd. Speichersystem und Datenverwaltungsverfahren
WO2016199232A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 ストレージ管理計算機、及びストレージ装置の管理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302556A (ja) * 2003-03-28 2004-10-28 Hitachi Ltd 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法
JP2011090550A (ja) * 2009-10-23 2011-05-06 Hitachi Ltd コンピュータシステム及びプログラム記録媒体

Also Published As

Publication number Publication date
US10761767B2 (en) 2020-09-01
JPWO2018011882A1 (ja) 2018-12-06
US20190065064A1 (en) 2019-02-28
JP6557785B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
US10394662B2 (en) Storage apparatus and storage apparatus migration method
US6880052B2 (en) Storage area network, data replication and storage controller, and method for replicating data using virtualized volumes
JP5718533B1 (ja) ストレージシステムのデータ移行方法
JP5620614B1 (ja) ストレージシステム
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
US8677090B2 (en) First storage apparatus and first storage apparatus control method
JP5286212B2 (ja) ストレージクラスタ環境でのリモートコピー制御方法及びシステム
WO2012117515A1 (ja) 計算機システム、管理システム及びデータ管理方法
JP6557785B2 (ja) 計算機システム及びストレージ装置の制御方法
JP5706808B2 (ja) 連続的なリモートコピーのためのネットワーク効率の改良
US20180267713A1 (en) Method and apparatus for defining storage infrastructure
JP2008269374A (ja) ストレージシステムおよびその制御方法
WO2014091600A1 (ja) ストレージ装置及びストレージ装置移行方法
JP6227771B2 (ja) 論理ボリュームを管理するためのシステム及び方法
JP6039818B2 (ja) 情報システム、ホストシステム、及びアクセス制御方法
JP2014038551A (ja) データ記憶装置、データ記憶装置の制御方法、及びデータ記憶装置の制御プログラム
JP6000391B2 (ja) ストレージシステムのデータ移行方法
JP5355603B2 (ja) ディスクアレイ装置及び論理ボリュームアクセス方法
US20150324418A1 (en) Storage device and data migration method
WO2014087465A1 (ja) ストレージ装置及びストレージ装置移行方法
JP2021033782A (ja) リモートコピーシステム
JP6343716B2 (ja) 計算機システム及び記憶制御方法
JP6013420B2 (ja) ストレージシステム
JP2016024656A (ja) ストレージ制御装置、ストレージシステム及びストレージ制御プログラム
WO2015132946A1 (ja) ストレージシステム及びストレージシステムの制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018527283

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16908786

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16908786

Country of ref document: EP

Kind code of ref document: A1