WO2015125221A1 - ストレージシステム及び移行方法 - Google Patents

ストレージシステム及び移行方法 Download PDF

Info

Publication number
WO2015125221A1
WO2015125221A1 PCT/JP2014/053829 JP2014053829W WO2015125221A1 WO 2015125221 A1 WO2015125221 A1 WO 2015125221A1 JP 2014053829 W JP2014053829 W JP 2014053829W WO 2015125221 A1 WO2015125221 A1 WO 2015125221A1
Authority
WO
WIPO (PCT)
Prior art keywords
migration
volume
storage device
host computer
data
Prior art date
Application number
PCT/JP2014/053829
Other languages
English (en)
French (fr)
Inventor
大祐 田中
圭史 田村
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US14/424,174 priority Critical patent/US9311012B2/en
Priority to PCT/JP2014/053829 priority patent/WO2015125221A1/ja
Publication of WO2015125221A1 publication Critical patent/WO2015125221A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0868Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0842Multiuser, multiprocessor or multiprocessing cache systems for multiprocessing or multitasking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0891Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using clearing, invalidating or resetting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/142Reconfiguring to eliminate the error
    • G06F11/1423Reconfiguring to eliminate the error by reconfiguration of paths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • G06F2212/1024Latency reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1032Reliability improvement, data loss prevention, degraded operation etc
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1041Resource optimization
    • G06F2212/1044Space efficiency improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/15Use in a specific computing environment
    • G06F2212/154Networked environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/28Using a specific disk cache architecture
    • G06F2212/285Redundant cache memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/31Providing disk cache in a specific location of a storage system
    • G06F2212/314In storage network, e.g. network attached cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/604Details relating to cache allocation

Definitions

  • the present invention relates to a storage system and a migration method.
  • Patent Document 1 discloses a configuration in which a storage device is connected to a host computer, an external connection storage device (hereinafter referred to as an external storage) is connected under the storage device, and these are used as one system.
  • an external storage device is connected to the migration source storage device (old model), and the volume of the external storage device is migrated to the migration destination storage device (new model).
  • the migration source storage apparatus receives a write request from the host computer
  • the write data is not stored in the cache of the migration source storage apparatus but directly transferred to the external storage apparatus.
  • the migration destination storage apparatus receives a write request from the host computer
  • the write request is transferred to the migration source storage apparatus. In this way, the data transfer of the old and new storage apparatuses including the externally connected volume by the external storage apparatus is performed without stopping the data transfer by the I / O request from the host computer.
  • a host computer and a management device are connected to the storage system, and the migration source storage device is a migration source
  • An external volume configured with a storage device of the external storage apparatus is associated with the cache memory and virtually provided to the host computer as a migration source volume.
  • the migration destination storage apparatus includes a migration destination cache memory, and is migrated by the management apparatus In response to a data migration instruction from the storage device to the migration destination storage device, the migration source volume is placed in association with the migration destination storage device as the migration destination volume, and the migration destination volume is associated with the external volume and virtually provided to the host computer, Migration source key After the stored data is reflected to the external volume with the purge command to the cache memory, the stored data is erased.
  • the write data is stored in the migration destination cache memory and the external volume, transferred to the migration source cache memory and stored, and the system configuration in the migration source storage device is changed to that in the migration destination storage device. Migrate data to the system configuration.
  • FIG. 1 is a diagram showing a basic configuration of a computer system.
  • FIG. 2 is a diagram illustrating a hardware configuration of the storage system.
  • FIG. 3 is a diagram showing the configuration of the alternate path software of the host computer.
  • FIG. 4 is a diagram illustrating a configuration example of the same device correspondence table.
  • FIG. 5 is a diagram showing the relationship between the cache and the virtual volume in the migration source volume and the migration destination volume.
  • FIG. 6 is a diagram illustrating a configuration example of a volume migration management table.
  • FIG. 7 is a diagram showing a data migration environment.
  • FIG. 8 is a diagram showing the migration source volume definition in the migration destination storage apparatus.
  • FIG. 9 is a flowchart showing migration source volume definition processing in the migration destination storage apparatus.
  • FIG. 1 is a diagram showing a basic configuration of a computer system.
  • FIG. 2 is a diagram illustrating a hardware configuration of the storage system.
  • FIG. 3 is a diagram showing the configuration of the alternate path software
  • FIG. 10 is a diagram showing the external volume definition and connection to the host computer in the migration destination storage apparatus.
  • FIG. 11 is a flowchart showing an external volume definition process and a connection process to the host computer in the migration destination storage apparatus.
  • FIG. 12 is a diagram showing the flow of I / O processing from the host computer.
  • FIG. 13 is a flowchart showing data writing from the host computer to the migration destination storage apparatus and the migration source storage apparatus.
  • FIG. 14 is a flowchart showing data read processing from the host computer to the migration destination storage apparatus.
  • FIG. 15 is a flowchart showing a data read process from the host computer to the migration source storage apparatus.
  • FIG. 16 is a diagram showing a cache purge instruction to the migration source storage apparatus.
  • FIG. 17 is a diagram showing the completion of the cache purge and the reservation reservation in the external storage apparatus.
  • FIG. 18 is a flowchart showing the cache purge process and the reserve securing process.
  • FIG. 19 is a flowchart showing data transfer processing from the host computer to the migration destination storage apparatus during data migration.
  • FIG. 20 is a diagram showing an I / O flow from the host computer to the migration destination storage apparatus during data migration.
  • FIG. 21 is a flowchart showing removal processing of the migration source storage apparatus.
  • FIG. 22 is a diagram showing a configuration change operation when a failure occurs in the migration destination storage apparatus.
  • FIG. 23 is a flowchart showing a configuration change process when a failure occurs in the migration destination storage apparatus.
  • management table various types of information may be described using an expression such as “management table”, but the various types of information may be expressed using a data structure other than a table. Further, the “management table” can be referred to as “management information” to indicate that it does not depend on the data structure.
  • the program is executed by a processor, for example, an MP (Micro Processor) or a CPU (Central Processing Unit), and performs a predetermined process.
  • a processor for example, an MP (Micro Processor) or a CPU (Central Processing Unit), and performs a predetermined process.
  • the subject of processing may be a processor because the storage resource (for example, memory) and the communication interface device (for example, communication port) are used as appropriate.
  • the processor may have dedicated hardware in addition to the CPU.
  • the computer program may be installed on each computer from a program source.
  • the program source may be provided by, for example, a program distribution server or a storage medium.
  • each element for example, the controller can be identified by a number or the like, but other types of identification information such as a name may be used as long as it is identifiable information.
  • identification information such as a name
  • the same reference numerals are given to the same parts, but the present invention is not limited to the present embodiment, and any application examples that meet the idea of the present invention are technical. Included in the range. Further, unless specifically limited, each component may be plural or singular.
  • FIG. 1 is a diagram showing a basic configuration of a computer system.
  • the computer system includes a host computer 51, a management device 52, a plurality of storage devices 11 (11a, 11b), and an external storage device 71.
  • the host computer 51 is connected to the storage apparatus 11 a and the storage apparatus 11 b by a SAN (Storage Area Network) 42.
  • SAN Storage Area Network
  • the external storage device 71 is connected to the storage device 11a and the storage device 11b by the SAN 43.
  • the external storage device 71 includes one or a plurality of storage volumes, that is, a logical device (LDEV) 711 (hereinafter referred to as an external volume 711) by a plurality of HDDs (Hard Disk Drives), the storage device 11a or the storage device 11b.
  • LDEV logical device
  • HDDs Hard Disk Drives
  • the storage apparatus 11a and the storage apparatus 11b are provided to the host computer 51 as virtual volumes.
  • the management device 52 is connected to the storage device 11a and the storage device 11b via a LAN (Local Area Network), and monitors and manages the operating state of the storage device 11 and the like. Further, the storage device 11a and the storage device 11b are connected by a dedicated line. In this embodiment, the storage device 11a is the migration source storage device, and the storage device 11b is the migration destination storage device.
  • LAN Local Area Network
  • FIG. 2 is a diagram illustrating a hardware configuration of the storage system.
  • the storage system 100 includes a plurality of storage apparatuses 11 (11a, 11b), an external storage apparatus 71, and a virtualization apparatus 53.
  • a management device 52 is connected to the storage device 11 via the network 41.
  • a host computer 51 is connected to the virtualization apparatus 53 and the storage apparatus 11 via the SAN 42.
  • the virtualization program (not shown) and the virtualization apparatus 53 in the host computer 51 identify the plurality of storage apparatuses 11 in the storage system 100 as one storage apparatus.
  • the host computer 51 (higher-order apparatus) can logically access one storage apparatus provided by the storage system 100.
  • a system including the storage system 100 and the virtualization device 53 is called a storage network system.
  • the storage device 11 a includes a CPU 21, a shared memory 22, a disk interface control unit 23, a plurality of disk devices 24, an FC (Fibre Channel) interface control unit 25/26, a LAN interface control unit 27, and a cache memory 28.
  • the storage device 11b has the same configuration as the storage device 11a.
  • the CPU 21 implements various control processes in the storage apparatus 11 a by executing various programs stored in the shared memory 22.
  • the cache memory 28 stores data from the host computer 51 or data to the host computer 51 read from the disk device 24.
  • the CPU 21 is connected to the disk device 24 via the disk interface control unit 23.
  • the disk interface control unit 23 converts the logical address transmitted from the CPU 21 into a logical block address, and realizes access to each logical device by the CPU 21.
  • the disk device 24 is a storage device having a RAID (Redundant Array of Independent (Independent) Disks) configuration with one or more HDDs. Access to each logical device (also referred to as a logical unit) is executed using a logical unit number (LUN: Logical Unit Number) and a logical block address (LBA: Logical Block Address).
  • LUN Logical Unit Number
  • LBA Logical Block Address
  • the FC interface control unit 25 is connected to, for example, an optical fiber cable or the like, and sends and receives FC protocol standard commands and data between the storage apparatus 11 and the external storage apparatus 71 via the SAN 43.
  • the host computer 51 is connected to the FC interface control unit 26 via the SAN 42 with an optical fiber cable or the like.
  • the host computer 51 executes the business program, writes the processing result to the storage apparatus 11, or uses data stored in the storage apparatus 11.
  • a communication protocol such as Fiber Channel or iSCSI is used.
  • the virtualization device 53 connects to the FC interface control unit 26 via the SAN 42.
  • the management device 52 is a management computer that executes management for the storage system 100, for example, creation of a volume in the storage device 11, allocation of a volume to the host computer 51, zoning, LUN masking setting, and the like.
  • the management device 52 is connected to the LAN interface control unit 27 of the storage device 11 via the LAN 41 and executes transmission / reception of commands and data to / from the storage device 11 using the TCP / IP protocol which is a communication protocol.
  • the external storage device 71 is a different type of storage device from the storage device 11.
  • the external storage device 71 is connected to the storage device 11 and is managed by the storage device 11.
  • the storage apparatus 11 allocates an LU to the external volume 711 in the external storage apparatus 71 and makes the LU appear to the host computer 51 as if it were the disk apparatus 24 inside the storage apparatus 11.
  • the host computer 51 issues a read / write request to the LU (virtual device VDEV: Virtual Device) virtually allocated in the storage apparatus 11.
  • the storage apparatus 11 converts the received request into a read / write command to the corresponding LU in the external storage apparatus 71 and transmits it to the external storage apparatus 71.
  • the external storage device 71 may be the same model as the storage device 11.
  • the storage apparatus 11 has a volume logically managed by itself as an entity in each storage apparatus 11 or in the external storage apparatus 71.
  • the hardware configuration of the host computer 51 / management device 52 / virtualization device 53 / external storage device 71 also has hardware resources such as a CPU, memory, storage device, and I / F controller, similar to the storage device 11.
  • FIG. 3 is a diagram showing the configuration of the alternate path software of the host computer.
  • An alternate path is a path failover function that switches to another path and performs I / O (Input / Output) access when a path fails, avoiding an access stop at the time of a path failure and improving system reliability Is.
  • the alternate path software 30 is a program and table for managing a plurality of paths to a logical volume and controlling which path is used when accessing a logical volume in the storage system 100 from the host computer 51.
  • the alternate path software 30 includes a path failure detection program 31, a multipath management program 32, a priority path control program 33, and the same device correspondence table 34.
  • the alternate path software 30 may be in the virtualization device 53.
  • the path failure detection program 31 detects a path abnormality or failure and notifies the host computer 51 of it.
  • the multipath management program 32 manages and controls the entire alternate path software 30.
  • the priority path control program 33 controls to use a part of the paths with priority by setting a usage rate for each path when multipaths are constructed in different storage apparatuses 11.
  • the same device correspondence table 34 shows correspondence of devices having different paths but the same entity.
  • FIG. 4 is a diagram illustrating a configuration example of the same device correspondence table.
  • the same device correspondence table 34 includes a path number 341, LUN # 342, a storage device identifier 343, and the same device correspondence identifier 344.
  • the same device correspondence identifier 344 indicates that the same device entity can be accessed even in cases where the pass numbers 0, 2, and 3 are different.
  • LUN # 342 differs between No. 2, No. 2 and No. 3 because the path passes through another storage apparatus 11 (housing).
  • FIG. 5 is a diagram showing the relationship between the cache and the virtual volume in the migration source volume and the migration destination volume.
  • I / O access from the host computer 51 to the virtual volume 241a of the migration source volume 29a is executed via the cache 28a.
  • I / O access from the host computer 51 to the virtual volume 241b of the migration destination volume 29b is executed via the cache 28b.
  • the virtual volume 241a is called a migration source volume (or migration source virtual volume)
  • the virtual volume 241b is called a migration destination volume (or migration destination virtual volume).
  • FIG. 6 is a diagram showing a configuration example of the volume migration management table.
  • the volume migration management table 60 is a table for managing the relationship between the migration source volume 29a and the migration destination volume 29b and the relationship with the external connection volume.
  • the volume migration management table 60 includes a management number 601, virtual LDEV 602, migration source LUN 603, migration source storage device connection path information 604, external connection storage device 605, external device LUN 606, external storage device connection path information 607, and external storage device path status. 608.
  • the virtual LDEV 602 is information for uniquely specifying the virtual LDEV in the migration source storage apparatus.
  • the migration source LUN 603 indicates the LUN assigned to the virtual LDEV 602.
  • the migration source storage device connection path information 604 indicates information on the connection path between the migration source storage device 11a and the migration destination storage device 11b.
  • the externally connected storage device 605 indicates information of the external storage device 71 connected to the migration source storage device 11a.
  • External storage device LUN 606 indicates LUN information in the external storage device 71 recognized by the migration source storage device 11a.
  • the external storage device connection path information 607 indicates information on the connection path between the migration destination storage device 11b and the external storage device 71.
  • the external storage device path status 608 indicates the status (offline / online) of the connection path between the migration destination storage device 11b and the external storage device 71.
  • a volume with blank entries from the externally connected storage device 605 to the external storage device path status 608 is a volume that is not associated with the external storage device 71.
  • FIG. 7 is a diagram showing a data migration environment.
  • the external volume 711 (LDEV (real volume)) of the external storage apparatus 71 is defined by the host computer 51 as a virtual volume 241a in the migration source storage apparatus 11a.
  • the virtual volume 241a is defined in a port (not shown) connected to the host computer 51. This state is shown in FIG.
  • the volume 241a in which the external storage device 71 is defined as a virtual volume in the migration source storage device 11a is referred to as a migration source volume 241a.
  • FIG. 8 is a diagram showing the migration source volume definition in the migration destination storage apparatus.
  • FIG. 9 is a flowchart showing migration source volume definition processing in the migration destination storage apparatus.
  • the main body of processing is each device, but the CPU of each device may be used, or a control program that operates on the CPU may be used.
  • the migration destination storage apparatus 11b and the migration source storage apparatus 11a are physically connected using a dedicated line 11c. That is, one or more ports of each storage device are used and connected by an optical fiber cable or the like.
  • the management device 52 issues an instruction to map the migration source volume 241a to the migration destination storage device 11b.
  • the migration destination storage apparatus 11b that received the mapping instruction in S902 inquires the migration source storage apparatus 11a about the information of the migration source volume 241a.
  • the migration source storage apparatus 11a notifies the migration destination storage apparatus 11b of the migration source volume number.
  • the migration destination storage apparatus 11b inquires the migration source storage apparatus 11a about the external volume information that is the substance of the migration source volume 241a. In S905, the migration source storage apparatus 11a notifies the migration destination storage apparatus 11b of the external volume information. In S906, the migration destination storage apparatus 11b maps the migration source volume 241a as a virtual volume based on the notified external volume information, and sets it as the migration destination volume 241b.
  • the acquired information is stored in the management number 601, virtual LDEV 602, migration source LUN 603, migration source storage device connection path information 604, external connection storage device 605, and external storage device LUN 606 in the volume migration management table 60. Is done. In this state, I / O from the host computer 51 is executed by the virtualization apparatus 53 to the storage apparatus 11a.
  • FIG. 10 is a diagram showing the external volume definition and connection to the host computer in the migration destination storage apparatus.
  • FIG. 11 is a flowchart showing an external volume definition process and a connection process to the host computer in the migration destination storage apparatus.
  • the migration destination storage apparatus 11b is connected to the host computer 51 and the external storage apparatus 71. That is, the external storage device 71 and the migration destination storage device 11b are physically connected by an optical fiber cable or the like.
  • the management device 52 issues an instruction to map the migration volume of the external storage device 71 to the migration destination storage device 11b.
  • the migration destination storage apparatus 11b inquires the external storage apparatus 71 about migration volume information.
  • the external storage apparatus 71 notifies the volume number to be migrated to the migration destination storage apparatus 11b. That is, the external storage apparatus 71 notifies the volume (logical device) information (number) provided to the migration source storage apparatus 11a.
  • the migration destination storage apparatus 11b searches the volume migration management table 60 for a volume whose number matches the volume number acquired from the external storage apparatus 71. In S1105, the migration destination storage apparatus 11b associates the migration source volume of the volume migration management table 60 with the external volume 711 of the external storage apparatus 71, and updates the volume migration management table 60.
  • the migration destination storage apparatus 11b sets the external storage apparatus path status 608 of the volume migration management table 60 corresponding to the volume with the matching volume number to “offline”. In S1107, the migration destination storage apparatus 11b sets a new LU of the migration destination volume in the volume migration management table 60.
  • the migration destination storage apparatus 11b instructs the virtualization apparatus 53 to register the new LU number of the migration destination volume.
  • the virtualization device 53 registers the new LU number of the migration destination volume in the management information inside the device.
  • the virtualization apparatus 53 causes the host computer 51 to recognize the registered migration destination volume LU as the same volume as the migration source volume 241a. It should be noted that the processing of S1109 and S1110 may be executed by a virtualization program (not shown) of the host computer 51 to recognize the same volume as the registration of a new LU number.
  • FIG. 12 is a diagram showing the flow of I / O processing from the host computer.
  • the cache memory 28a of the migration source storage apparatus 11a and the cache memory 28b of the migration destination storage apparatus 11b are always duplicated to store the same data.
  • FIG. 13 is a flowchart showing data writing from the host computer to the migration destination storage apparatus and the migration source storage apparatus.
  • (W1) Write to the migration destination storage apparatus 11b (reference numeral 91 in FIG. 12)
  • the host computer 51 transfers data to the volume (migration destination volume 241b) of the migration destination storage apparatus 11b.
  • the migration destination storage apparatus 11b stores the data from the host computer 51 in the cache memory 28b.
  • the migration destination storage apparatus 11b transfers the data stored in the cache memory 28b to the volume (migration source volume 241a) of the migration source storage apparatus 11a.
  • the data transmitted from the migration destination storage apparatus 11b is stored in the cache memory 28a of the migration source storage apparatus 11a.
  • the migration source storage apparatus 11a transfers the data stored in the cache memory 28a to the external storage apparatus 71. Then, the external storage device 71 stores the transferred data in a predetermined external volume 711.
  • (W2) Write to the migration source storage apparatus 11a (reference numeral 90 in FIG. 12)
  • the host computer 51 transfers data to the volume (migration source volume 241a) of the migration source storage apparatus 11a.
  • the migration source storage apparatus 11a stores the data from the host computer 51 in the cache memory 28a.
  • the migration source storage apparatus 11a transfers data to the external storage apparatus 71. Then, the external storage device 71 stores the transferred data in a predetermined external volume 711.
  • ⁇ Read data> 14 and 15 are flowcharts showing data read processing from the host computer to the migration destination storage apparatus.
  • 14 shows data read processing from the host computer 51 to the migration destination storage apparatus 11b
  • FIG. 15 shows data read processing from the host computer 51 to the migration source storage apparatus 11a.
  • the host computer 51 issues a data read instruction for the volume (migration destination volume 241b) to the migration destination storage apparatus 11b.
  • the migration destination storage apparatus 11b receives a data read instruction from the host computer 51.
  • the migration destination storage apparatus 11b issues a data read instruction for the volume (migration source volume 241a) to the migration source storage apparatus 11a.
  • a read instruction is issued from the migration source storage apparatus 11a to the external volume 711 of the external storage apparatus 71.
  • the external storage apparatus 71 reads predetermined data from the external volume 711.
  • the migration source storage apparatus 11a transfers the data transferred from the external storage apparatus 71 to the migration destination storage apparatus 11b.
  • the migration destination storage apparatus 11b receives the data transferred from the migration source storage apparatus 11a.
  • the migration destination storage apparatus 11b transfers the data transferred from the migration source storage apparatus 11a to the host computer 51.
  • the host computer 51 receives the data from the migration destination storage apparatus 11b and completes the reading process.
  • the host computer 51 issues a data read instruction to the migration source volume 241a of the migration source storage apparatus 11a.
  • the migration source storage apparatus 11a that has received the read instruction issues a read instruction to the external volume 711 of the external storage apparatus 71.
  • the external storage apparatus 71 reads data corresponding to the read instruction from the external volume 711. Then, the external storage device 71 transfers the read data to the migration source storage device 11a.
  • the migration source storage apparatus 11a transfers the data transferred from the external storage apparatus 71 to the host computer 51.
  • the host computer 51 receives data from the migration source storage apparatus 11a.
  • FIG. 16 is a diagram showing a cache purge instruction to the migration source storage apparatus.
  • FIG. 17 is a diagram showing the completion of the cache purge and the reservation reservation in the external storage apparatus.
  • FIG. 18 is a flowchart showing the cache purge process and the reserve ensuring process.
  • the cache purge the contents of the cache memory 24, which is a volatile memory, are stored in the disk device 24, which is a nonvolatile storage device, and the external storage device 71, the data is erased, and the memory is initialized.
  • the reservation reservation is to permit I / O access only to a specific path when there are a plurality of access paths to the specific apparatus (for example, the external storage apparatus 71).
  • the multipath management program 32 of the alternate path software 30 managed by the host computer 51 changes the path connecting the host computer 51 and the migration source storage apparatus 11a from online to offline.
  • the management apparatus 52 transmits an instruction to purge the data in the cache memory 28a of the migration source storage apparatus 11a via the migration destination storage apparatus 11b (reference numeral 161 in FIG. 16).
  • the data in the cache memory 28a of the migration source storage apparatus 11a is destaged (data stored) in the external volume 711 of the external storage apparatus 71.
  • the migration source storage apparatus 11a determines whether all the data in the cache memory 28a has been destaged. If the destage is not completed (No), the migration source storage apparatus 11a continues the destage, and if completed (Yes), executes S1804.
  • the migration source storage apparatus 11a transmits a data purge completion notification of the cache memory 241a (reference numeral 171 in FIG. 17).
  • the migration destination storage apparatus 11b receives a data purge completion notification of the cache memory 241a.
  • the migration destination storage apparatus 11b changes the path status 608 of the external storage apparatus in the volume migration management table 60 from offline to online.
  • the migration destination storage apparatus 11b sets reserve for the alternate path in the external volume 711 of the external storage apparatus 71. Due to this reserve setting, I / O access from the migration source storage apparatus 11a to the external storage apparatus 71 cannot be executed. Therefore, by unexpected data transmission from the migration source storage apparatus 11a to the external storage apparatus 71, The data stored in the external volume 711 of the external storage device 71 can be prevented from being destroyed.
  • FIG. 19 is a flowchart showing data write processing from the host computer to the migration destination storage apparatus during data migration.
  • data is transferred from the host computer 51 to the volume 24b of the migration destination storage apparatus 11b.
  • the migration destination storage apparatus 11b stores the data in the cache memory 241b.
  • the migration destination storage apparatus 11b changes the data stored in the cache memory 241b to an instruction that only writes the data to the cache in the volume of the migration source storage apparatus 11a, and transfers the data.
  • the migration source storage apparatus 11a stores the data transmitted from the migration destination storage apparatus 11b in the cache memory 241a.
  • the same data is written from the host computer 51 to the external storage device 71 in the cache memory 241b of the migration destination storage device 11b and the cache memory 241a of the migration source storage device 11a as shown in S1901 to S1904. . Thereby, the same write data can be held in the cache memory 241b and the cache memory 241a. Further, in data reading, the migration source storage apparatus 11a in FIG. 15 is replaced with the migration destination storage apparatus 11b, and the migration destination storage apparatus 11b reads data from the external storage apparatus 71 and transfers it to the host computer 51.
  • the migration source volume 241a and the migration destination volume 241b are recognized by the host computer 51 as the same by the volume mapping process by the processing from S1101 to S1106 and the registration of the new LU number of the migration destination volume by the processing from S1107 to S1110. be able to.
  • the write data is reflected in the cache memory 241 b and the external storage device 71.
  • the configuration of the external storage device 71 provided to the host computer 51 can be migrated without stopping I / O access from the host computer 51. This eliminates the need for data copy processing from the external storage device 71 to the migration destination storage device 11b and data copy processing from the migration destination storage device 11b to the external storage device 71, thereby reducing the migration time.
  • FIG. 20 is a diagram showing an I / O flow from the host computer to the migration destination storage apparatus.
  • the management device 52 connects the migration source storage device 11a and the migration destination storage device 11b, and creates the migration source storage device 11a and The connection with the external storage device 71 is cut off. After completing the connection blocking, the migration source storage apparatus 11a which is the old model is removed. I / O access from the host computer 51 to the virtual volume 241b is executed to the external volume 711 of the external storage apparatus 71 via the cache memory 28b of the new model migration source storage apparatus 11a.
  • FIG. 21 is a flowchart showing removal processing of the migration source storage apparatus.
  • the management apparatus 52 instructs the migration destination storage apparatus 11b to cancel the mapping of the volume 241b of the migration source storage apparatus 11a.
  • the migration destination storage apparatus 11b performs mapping release processing for the volume 241b.
  • the management apparatus 52 instructs the migration source storage apparatus 11a to cancel the mapping of the external volume 711 of the external storage apparatus 71.
  • the migration source storage apparatus 11a performs the mapping release processing of the external volume 711 of the external storage apparatus 71. After the mapping release processing is completed, the migration source storage apparatus 11a which is an old model can be removed by performing the above-described connection disconnection.
  • FIG. 22 is a diagram showing a configuration change operation when a failure occurs in the migration destination storage apparatus.
  • FIG. 23 is a flowchart showing a configuration change process when a failure occurs in the migration destination storage apparatus.
  • the host computer 51 and the storage apparatus 11b are connected from the connection between the host computer 51 and the migration destination storage apparatus 11b as shown by reference numeral 221 in the path between the host computer 51 and the storage apparatus 11. 51 to switch to the connection between the migration source storage apparatus 11a and continue the I / O access processing from the host computer 51 to the storage apparatus 11.
  • the path failure detection program 31 of the host computer 51 detects a path failure in the migration destination storage apparatus 11b.
  • the multipath management program 32 of the host computer 51 uses the same device correspondence table 34 and the volume migration management table 60 to set the alternate path to the volume 241a of the migration source storage apparatus 11a online. Then, the multipath management program 32 updates the external storage device path status 608 of the volume migration management table 60.
  • the host computer 51 performs I / O to the volume 241a of the migration source storage apparatus 11a.
  • connection information between the host computer 51 and the migration source storage apparatus 11a and connection information between the migration source storage apparatus 11a and the external storage apparatus 71 are obtained.
  • I / O access to the volume (external storage apparatus 71) can be continued in the migration source storage apparatus 11a.
  • this invention is not limited to the above-mentioned Example, Various modifications are included.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function may be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • 11a, 11b Storage device, 21: CPU, 28: Cache memory, 31: Path failure detection program, 34: Same device correspondence table, 51: Host computer, 52: Management device, 53: Virtualization device, 60: Volume migration Management table, 71: external storage device, 100: storage system, 711: LDEV (external volume)

Abstract

外部接続ストレージ装置のデータを移行先ストレージ装置にコピーせず、ホスト計算機からのIO無停止でデータ移行するストレージシステムを提供する。そのため、移行先ストレージ装置に移行元ストレージ装置での移行元ボリュームの構成情報を移行し、移行中はそれぞれの装置のキャッシュメモリを使用してホスト計算機からの書き込みデータを二重化して格納し、移行先ストレージ装置が外部接続ストレージ装置に書き込みデータを反映させる。また、データ読み出しも移行先ストレージ装置が行う。

Description

ストレージシステム及び移行方法
 本発明は、ストレージシステム及び移行方法に関する。
 近年、ストレージ業界では、分散する複数のコンピューティングリソースをあたかも一つであるかのように運用する概念が注目されている。その形態の一つとして、複数台のストレージ装置を纏めて一つのシステムとみなす構成が考えられる。例えば、ホスト計算機にストレージ装置が接続し、そのストレージ装置の下に外部接続ストレージ装置(以下、外部ストレージ)が接続され、それらを一つのシステムとする構成が特許文献1に開示されている。
 この技術は、移行元ストレージ装置(旧機種)に外部ストレージ装置が接続され、外部ストレージ装置のボリュームを移行先ストレージ装置(新機種)に移行するものである。そして、移行中は移行元ストレージ装置がホスト計算機からライト要求を受けると、移行元ストレージ装置のキャッシュにライトデータを格納せず直接外部ストレージ装置へ転送する。また、移行先ストレージ装置がホスト計算機からライト要求を受けた場合は、移行元ストレージ装置へライト要求を転送する。このようにして、ホスト計算機からI/O要求によるデータ転送を停止せず、外部ストレージ装置による外部接続ボリュームを含んだ新旧のストレージ装置のデータ移行を行うものである。
日本公開特許2007-115221号公報         (米国登録特許7702851号公報)
 従来技術では、移行元ストレージ装置と外部ストレージ装置で構成された外部接続ボリュームの環境を移行先ストレージ装置へ移行するためには、移行先ストレージ装置に内部ボリュームを生成して、移行する外部接続ボリュームの内容を一度内部ボリュームにデータ移行する。そして、移行先ストレージ装置で新たにホスト計算機にマッピングした外部接続ボリュームにコピー処理をする必要がある。そのため、移行するボリュームと同等の数と容量の内部ボリュームが必要で、外部ストレージ装置から移行先ストレージ装置へのデータコピー及び移行先ストレージ装置から外部ストレージ装置へデータコピーというコピー処理が2回発生するので移行時間の長期化と移行中の応答性能の低下が生じる。
 上記課題を解決するために、本発明では、移行元ストレージ装置、移行先ストレージ装置及び外部ストレージ装置を有するストレージシステムにおいて、ストレージシステムにホスト計算機と管理装置が接続され、移行元ストレージ装置は移行元キャッシュメモリを備え、外部ストレージ装置の記憶デバイスで構成された外部ボリュームを関連付けて移行元ボリュームとして仮想的にホスト計算機へ提供し、移行先ストレージ装置は移行先キャッシュメモリを備え、管理装置による移行元ストレージ装置から移行先ストレージ装置へのデータ移行指示により、移行元ボリュームを移行先ストレージ装置に移行先ボリュームとして関連付けて配置し、移行先ボリュームを外部ボリュームと関連付けて仮想的にホスト計算機へ提供し、移行元キャッシュメモリへのパージ命令で格納データを外部ボリュームに反映させた後に格納データを消去し、パージ命令の完了後に、ホスト計算機から外部ボリュームへのアクセスを移行先ストレージ経由に限定し、ホスト計算機から移行先ボリュームへのデータ書き込み命令において、書き込みデータを移行先キャッシュメモリ及び外部ボリュームに格納するとともに、移行元キャッシュメモリに転送して格納し、移行元ストレージ装置でのシステム構成を、移行先ストレージ装置でのシステム構成にデータ移行する。
 また、データ移行中にホスト計算機からのIOアクセスで移行先ストレージ装置の障害を検知した場合には、解除状態のホスト計算機と移行元ストレージ装置とのパス接続を再接続しIOアクセスを継続する。
 本発明のストレージ装置では、データコピー処理が不必要となり移行時間の短縮が図れ、また、ストレージリソースの浪費を防止できる。更に、キャッシュ二重化により、移行先ストレージ装置の障害発生時でも即座に移行元ストレージ装置へ切り替えでI/Oを継続することができる。前述以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
図1は、計算機システムの基本構成を示す図である。 図2は、ストレージシステムのハードウェア構成を示す図である。 図3は、ホスト計算機の交替パスソフトウェアの構成を示す図である。 図4は、同一デバイス対応テーブルの構成例を示す図である。 図5は、移行元ボリュームと移行先ボリュームにおけるキャッシュと仮想ボリュームの関係を示す図である。 図6は、ボリューム移行管理テーブルの構成例を示す図である。 図7は、データ移行環境を示す図である。 図8は、移行先ストレージ装置での移行元ボリューム定義を示す図である。 図9は、移行先ストレージ装置での移行元ボリューム定義処理を示すフローチャートである。 図10は、移行先ストレージ装置での外部ボリューム定義及びホスト計算機への接続を示す図である。 図11は、移行先ストレージ装置での外部ボリューム定義処理及びホスト計算機への接続処理を示すフローチャートである。 図12は、ホスト計算機からのI/O処理の流れを示す図である。 図13は、ホスト計算機から移行先ストレージ装置及び移行元ストレージ装置へのデータ書き込みを示すフローチャートである。 図14は、ホスト計算機から移行先ストレージ装置へのデータ読み出し処理を示すフローチャートである。 図15は、ホスト計算機から移行元ストレージ装置へのデータ読み出し処理を示すフローチャートである。 図16は、移行元ストレージ装置へのキャッシュパージ指示を示す図である。 図17は、キャッシュパージ完了と外部ストレージ装置へのリザーブ確保を示す図である。 図18は、キャッシュパージ処理とリザーブ確保処理を示すフローチャートである 図19は、データ移行中におけるホスト計算機から移行先ストレージ装置へのデータ転送処理を示すフローチャートである。 図20は、データ移行中におけるホスト計算機から移行先ストレージ装置へのI/Oの流れを示す図である。 図21は、移行元ストレージ装置の撤去処理を示すフローチャートである。 図22は、移行先ストレージ装置での障害発生時の構成変更動作を示す図である。 図23は、移行先ストレージ装置での障害発生時の構成変更処理を示すフローチャートである。
 以下、図面を参照しながら本発明の実施の形態を説明する。なお、以下の説明では、「管理テーブル」等の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていてもよい。また、データ構造に依存しないことを示すために「管理テーブル」を「管理情報」と呼ぶことができる。
 また、「プログラム」を主語として処理を説明する場合がある。そのプログラムは、プロセッサ、例えば、MP(Micro Processor)やCPU(Central Processing Unit)によって実行されるもので、定められた処理をするものである。なお、適宜に記憶資源(例えばメモリ)及び通信インタフェース装置(例えば、通信ポート)を用いながら行うため、処理の主語がプロセッサとされてもよい。プロセッサは、CPUの他に専用ハードウェアを有していても良い。コンピュータプログラムは、プログラムソースから各コンピュータにインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアなどで提供されるものであっても良い。
 また、各要素、例えば、コントローラは番号などで識別可能であるが、識別可能な情報であれば、名前など他種の識別情報が用いられても良い。本発明の図及び説明において同一部分には同一符号を付与しているが、本発明が本実施例に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。また、特に限定しない限り、各構成要素は複数でも単数でも構わない。
<システム構成>
 図1は、計算機システムの基本構成を示す図である。計算機システムは、ホスト計算機51、管理装置52、複数のストレージ装置11(11a、11b)及び外部ストレージ装置71を備える。ホスト計算機51はSAN(Storage Area Network)42でストレージ装置11a及びストレージ装置11bと接続する。
 また、外部ストレージ装置71は、SAN43でストレージ装置11a及びストレージ装置11bと接続する。外部ストレージ装置71は、複数のHDD(Hard Disk Drive)によって1または複数の記憶ボリューム、すなわち、論理デバイス(LDEV:Logical Device)711(以下、外部ボリューム711と呼ぶ)をストレージ装置11aまたはストレージ装置11bに提供し、ストレージ装置11a及びストレージ装置11bは仮想的なボリュームとしてホスト計算機51に提供する。
 また、管理装置52はLAN(Local Area Network)でストレージ装置11a及びストレージ装置11bに接続し、ストレージ装置11の稼働状態などを監視して管理する。また、ストレージ装置11a及びストレージ装置11bは専用線で接続される。なお、本実施例ではストレージ装置11aを移行元ストレージ装置とし、ストレージ装置11bを移行先ストレージ装置とする。
<ハードウェア構成>
 図2は、ストレージシステムのハードウェア構成を示す図である。ストレージシステム100は、複数のストレージ装置11(11a、11b)、外部ストレージ装置71、仮想化装置53を備える。ストレージ装置11には、管理装置52がネットワーク41を介して接続されている。また、ホスト計算機51が、SAN42を介して仮想化装置53やストレージ装置11に接続されている。ここで、ホスト計算機51における仮想化プログラム(図示せず)や仮想化装置53が、ストレージシステム100における複数のストレージ装置11を1つのストレージ装置として識別する。これによって、ホスト計算機51(上位装置)が、ストレージシステム100により提供される論理的に1つのストレージ装置にアクセスすることが可能となる。なお、ストレージシステム100および仮想化装置53を含んで構成されるシステムをストレージネットワークシステムと呼ばれる。
 ストレージ装置11aは、CPU21、共有メモリ22、ディスクインタフェース制御部23、複数のディスク装置24、FC(Fibre Channel)インタフェース制御部25/26、LANインタフェース制御部27及びキャッシュメモリ28を備えている。なお、ストレージ装置11bもストレージ装置11aと同様の構成である。CPU21は、共有メモリ22に格納されている各種プログラムなどを実行することによって、ストレージ装置11aにおける各種制御処理を実現する。キャッシュメモリ28には、ホスト計算機51からのデータないしディスク装置24から読み出したホスト計算機51へのデータを格納する。
 CPU21は、ディスクインタフェース制御部23を介してディスク装置24に接続されている。ディスクインタフェース制御部23は、CPU21から送信された論理アドレスを論理ブロックアドレスに変換して、CPU21による各論理デバイスへのアクセスを実現する。
 ディスク装置24は、1つ以上のHDDによるRAID(Redundant Array of Independent(Inexpensive) Disks)構成からなる記憶装置である。各論理デバイス(論理ユニットとも呼ぶ)に対するアクセスは、論理ユニット番号(LUN:Logical Unit Number)および論理ブロックアドレス(LBA:Logical Block Address)を用いて実行される。
 FCインタフェース制御部25は、例えば、光ファイバケーブル等に接続されており、ストレージ装置11と外部ストレージ装置71との間で、SAN43を介してFCプロトコル規格のコマンド、データの送受信が実行される。
 FCインタフェース制御部26には、光ファイバケーブル等でSAN42を介してホスト計算機51が接続されている。ホスト計算機51は業務プログラムを実行し、処理結果をストレージ装置11に対して書き込み、またはストレージ装置11に格納されているデータを利用する。SAN42/43では、ファイバチャネルやiSCSIといった通信プロトコルが用いられる。また、仮想化装置53がSAN42を介してFCインタフェース制御部26と接続する。
 管理装置52は、ストレージシステム100に対する管理、例えば、ストレージ装置11におけるボリュームの作成、ホスト計算機51へのボリュームの割り当て、ゾーニング、LUNマスキングの設定等を実行する管理計算機である。管理装置52は、LAN41を介してストレージ装置11のLANインタフェース制御部27に接続されており、通信プロトコルであるTCP/IPプロトコルによってストレージ装置11との間でコマンド、データの送受信を実行する。
 外部ストレージ装置71は、ストレージ装置11とは異なる機種のストレージ装置である。外部ストレージ装置71はストレージ装置11に接続され、ストレージ装置11により管理されている。ストレージ装置11は、外部ストレージ装置71内の外部ボリューム711に対しLUを割り付け、そのLUをホスト計算機51に対してあたかもストレージ装置11内部のディスク装置24であるように見せる。外部ストレージ装置71にデータをリード/ライトする場合は、ホスト計算機51がストレージ装置11内で仮想的に割り当てられたLU(仮想デバイスVDEV:Virtual Device)へのリード/ライト要求を出す。ストレージ装置11は、受信した要求を外部ストレージ装置71内の対応するLUへのリード/ライトコマンドに変換し、外部ストレージ装置71へ送信する。なお、外部ストレージ装置71は、ストレージ装置11と同じ機種であってもよい。以上により、ストレージ装置11は、自身が論理的に管理するボリュームを、実体として各ストレージ装置11内部または外部ストレージ装置71に有することになる。
 なお、ホスト計算機51/管理装置52/仮想化装置53/外部ストレージ装置71のハードウェア構成もストレージ装置11と同様にCPU、メモリ、記憶装置、I/Fコントローラ等のハードウェア資源を有する。
<ソフトウェア構成>
 図3は、ホスト計算機の交替パスソフトウェアの構成を示す図である。交替パスとは、パスが故障した場合、他のパスに切り替えてI/O(Input/Output)アクセスを行うパスフェイルオーバー機能でパス故障時のアクセス停止を回避し、システムの信頼性を向上させるものである。交替パスソフトウェア30は、ホスト計算機51からストレージシステム100内の論理ボリュームへアクセスする際、論理ボリュームへの複数パスを管理し、どのパスを使用するかを制御するプログラム及びテーブルである。交替パスソフトウェア30は、パス障害検知プログラム31、マルチパス管理プログラム32、優先パス制御プログラム33、同一デバイス対応テーブル34を備える。交替パスソフトウェア30は、仮想化装置53内にあってもよい。
 パス障害検知プログラム31は、パスの異常や障害を検知しホスト計算機51への通知を行う。マルチパス管理プログラム32は、交替パスソフトウェア30全体の管理、制御を行う。優先パス制御プログラム33は、異なるストレージ装置11にマルチパスを構築した場合、パス毎の使用率を設定することで、一部のパスを優先して使用する制御をする。同一デバイス対応テーブル34は、パスが異なるが実体を同一とするデバイスの対応を示すものである。
<テーブル>
 図4は、同一デバイス対応テーブルの構成例を示す図である。同一デバイス対応テーブル34は、パス番号341、LUN#342、ストレージ装置識別子343、同一デバイス対応識別子344を備える。同一デバイス対応識別子344は、パス番号の0番、2番および3番が異なる筐体であっても同一のデバイスの実体をアクセスできることを示している。ここで、同一デバイスであっても、0番、2番と3番とでLUN#342が異なっているのは、そのパスが別のストレージ装置11(筐体)を経由するからである。
 図5は、移行元ボリュームと移行先ボリュームにおけるキャッシュと仮想ボリュームの関係を示す図である。移行元ボリューム29aの仮想ボリューム241aへのホスト計算機51からのI/Oアクセスは、キャッシュ28aを経由して実行される。同じく、移行先ボリューム29bの仮想ボリューム241bへのホスト計算機51からのI/Oアクセスは、キャッシュ28bを経由して実行される。なお、仮想ボリューム241aを移行元ボリューム(ないしは移行元仮想ボリューム)と呼び、仮想ボリューム241bを移行先ボリューム(ないしは移行先仮想ボリューム)と呼ぶ。
 図6は、ボリューム移行管理テーブルの構成例を示す図である。ボリューム移行管理テーブル60は、移行元ボリューム29aと移行先ボリューム29bとの関連及び外部接続ボリュームとの関連を管理するテーブルである。ボリューム移行管理テーブル60は、管理番号601、仮想LDEV602、移行元LUN603、移行元ストレージ装置接続パス情報604、外部接続ストレージ装置605、外部装置LUN606、外部ストレージ装置接続パス情報607、外部ストレージ装置パス状態608を備える。
 仮想LDEV602は移行元ストレージ装置での仮想LDEVを一意に特定する情報である。移行元LUN603は、仮想LDEV602に割り当てられたLUNを示す。移行元ストレージ装置接続パス情報604は、移行元ストレージ装置11aと移行先ストレージ装置11bとの接続パスの情報を示す。外部接続ストレージ装置605は、移行元ストレージ装置11aに接続されている外部ストレージ装置71の情報を示す。
 外部ストレージ装置LUN606は、移行元ストレージ装置11aで認識される外部ストレージ装置71でのLUN情報を示す。外部ストレージ装置接続パス情報607は、移行先ストレージ装置11bと外部ストレージ装置71との接続パスの情報を示す。外部ストレージ装置パス状態608は、移行先ストレージ装置11bと外部ストレージ装置71との接続パスの状態(オフライン/オンライン)を示す。なお、外部接続ストレージ装置605から外部ストレージ装置パス状態608までのエントリが空白のボリュームは、外部ストレージ装置71と関連付けられていないボリュームである。
<<データ移行環境>>
 図7は、データ移行環境を示す図である。本実施例では、前提として外部ストレージ装置71の外部ボリューム711(LDEV(実ボリューム))が、移行元ストレージ装置11aに仮想的なボリューム241aとして、ホスト計算機51により定義されている。その仮想ボリューム241aがホスト計算機51に接続されているポート(図示せず)に定義されている。この状態が図7である。前述のように、外部ストレージ装置71を移行元ストレージ装置11aに仮想ボリュームとして定義したボリューム241aを移行元ボリューム241aと呼ぶ。
<移行元ボリューム定義処理>
 図8は、移行先ストレージ装置での移行元ボリューム定義を示す図である。図9は、移行先ストレージ装置での移行元ボリューム定義処理を示すフローチャートである。以降の説明では、処理の主体を各装置とするが、各装置のCPUでもよく、また、CPU上で動作する制御プログラムでもよい。
 次に、図8のように、移行先ストレージ装置11bと移行元ストレージ装置11aとを専用線11cを用いて物理的に接続する。つまり、各ストレージ装置のポートを1つ以上使用し、光ファイバケーブル等で接続する。
 図9のS901で管理装置52から移行先ストレージ装置11bへ移行元ボリューム241aをマッピングする指示を出す。S902でマッピングする指示を受けた移行先ストレージ装置11bは、移行元ストレージ装置11aに移行元ボリューム241aの情報を問い合わせる。S903で、移行元ストレージ装置11aは、移行先ストレージ装置11bへ移行元ボリューム番号を通知する。
 S904で、移行先ストレージ装置11bは、移行元ストレージ装置11aへ移行元ボリューム241aの実体である外部ボリューム情報を問い合わせる。S905で、移行元ストレージ装置11aは、移行先ストレージ装置11bへ外部ボリューム情報を通知する。S906で、移行先ストレージ装置11bは、通知された外部ボリューム情報を基に、移行元ボリューム241aを仮想ボリュームとしてマッピングし、移行先ボリューム241bとする。
 以上の動作で、ボリューム移行管理テーブル60の管理番号601、仮想LDEV602、移行元LUN603、移行元ストレージ装置接続パス情報604、外部接続ストレージ装置605、外部ストレージ装置LUN606の各エントリに取得した情報が格納される。なお、この状態で、ホスト計算機51からのI/Oは、仮想化装置53によりストレージ装置11aに対して実行される。
<外部ボリューム定義/ホスト計算機との接続処理>
 図10は、移行先ストレージ装置での外部ボリューム定義及びホスト計算機への接続を示す図である。図11は、移行先ストレージ装置での外部ボリューム定義処理及びホスト計算機への接続処理を示すフローチャートである。
 まず、図10のように移行先ストレージ装置11bとホスト計算機51及び外部ストレージ装置71との接続を実行する。つまり、外部ストレージ装置71と移行先ストレージ装置11bとを光ファイバケーブル等で物理的に接続する。
 図11のS1101で、管理装置52から移行先ストレージ装置11bへ外部ストレージ装置71の移行ボリュームをマッピングする指示を出す。S1102で、移行先ストレージ装置11bは、外部ストレージ装置71へ移行ボリューム情報を問い合わせる。S1103で、外部ストレージ装置71は、移行先ストレージ装置11bに移行するボリューム番号を通知する。つまり、外部ストレージ装置71が移行元ストレージ装置11aに提供しているボリューム(論理デバイス)の情報(番号)を通知する。
 S1104で、移行先ストレージ装置11bは、外部ストレージ装置71から取得したボリューム番号と番号が一致しているボリュームをボリューム移行管理テーブル60から探す。S1105で、移行先ストレージ装置11bは、ボリューム移行管理テーブル60の移行元ボリュームと外部ストレージ装置71の外部ボリューム711を関連付け、ボリューム移行管理テーブル60を更新する。
 S1106で、移行先ストレージ装置11bは、ボリューム番号が一致したボリュームに対応するボリューム移行管理テーブル60の外部ストレージ装置パス状態608を“オフライン”に設定する。S1107で、移行先ストレージ装置11bは、ボリューム移行管理テーブル60へ移行先ボリュームのLUを新規に設定する。
 S1108で、移行先ストレージ装置11bは、仮想化装置53に移行先ボリュームの新規LU番号を登録するよう指示する。S1109で、仮想化装置53は、装置内部の管理情報に移行先ボリュームの新規LU番号を登録する。S1110で、仮想化装置53は、登録した移行先ボリュームのLUをホスト計算機51に移行元ボリューム241aと同一ボリュームとして認識させる。なお、S1109及びS1110の処理をホスト計算機51の仮想化プログラム(図示せず)で実行し、新規LU番号の登録と同一ボリュームとしての認識をさせてもよい。
<<データ移行準備>>
<I/O処理の流れ>
 図12は、ホスト計算機からのI/O処理の流れを示す図である。データ移行中は、移行元ストレージ装置11aのキャッシュメモリ28aと、移行先ストレージ装置11bのキャッシュメモリ28bを常に二重化し同一のデータを格納しておく。
<データ書き込み>
 図13は、ホスト計算機から移行先ストレージ装置及び移行元ストレージ装置へのデータ書き込みを示すフローチャートである。
 (w1)移行先ストレージ装置11bへのライト(図12の符号91)
 S1301で、ホスト計算機51は移行先ストレージ装置11bのボリューム(移行先ボリューム241b)にデータを転送する。S1302で、移行先ストレージ装置11bは、キャッシュメモリ28bにホスト計算機51からのデータを格納する。S1303で、移行先ストレージ装置11bは、キャッシュメモリ28bに格納したデータを、移行元ストレージ装置11aのボリューム(移行元ボリューム241a)へデータを転送する。S1304で、移行元ストレージ装置11aのキャッシュメモリ28aに移行先ストレージ装置11bから送信されたデータを格納する。S1305で、移行元ストレージ装置11aは、外部ストレージ装置71へキャッシュメモリ28aに格納したデータを転送する。そして、外部ストレージ装置71は転送されたデータを所定の外部ボリューム711に格納する。
 (w2)移行元ストレージ装置11aへのライト(図12の符号90)
 S1311で、ホスト計算機51は移行元ストレージ装置11aのボリューム(移行元ボリューム241a)にデータを転送する。S1312で、移行元ストレージ装置11aは、キャッシュメモリ28aにホスト計算機51からのデータを格納する。S1313で、移行元ストレージ装置11aは、外部ストレージ装置71へデータを転送する。そして、外部ストレージ装置71は転送されたデータを所定の外部ボリューム711に格納する。
<データ読み出し>
 図14及び図15は、ホスト計算機から移行先ストレージ装置へのデータ読み出し処理を示すフローチャートである。図14はホスト計算機51から移行先ストレージ装置11bへデータ読み出し処理を、図15はホスト計算機51から移行元ストレージ装置11aへデータ読み出し処理を表す。
 S1401で、ホスト計算機51から移行先ストレージ装置11bに、ボリューム(移行先ボリューム241b)のデータ読み出し指示を出す。S1402で、移行先ストレージ装置11bは、ホスト計算機51からのデータ読み出し指示を受領する。S1403で、移行先ストレージ装置11bは、移行元ストレージ装置11aにボリューム(移行元ボリューム241a)のデータ読み出し指示を出す。
 S1404で、移行元ストレージ装置11aから外部ストレージ装置71の外部ボリューム711に読み出し指示を出す。S1405で、外部ストレージ装置71は、外部ボリューム711から所定のデータを読み出す。S1406で、移行元ストレージ装置11aは、外部ストレージ装置71から転送されたデータを移行先ストレージ装置11bに転送する。
 S1407で、移行先ストレージ装置11bは、移行元ストレージ装置11aから転送されたデータを受信する。S1408で、移行先ストレージ装置11bは、移行元ストレージ装置11aから転送されたデータをホスト計算機51に転送する。S1409で、ホスト計算機51は、移行先ストレージ装置11bからのデータを受領し、読み出し処理を完了する。
 S1501で、ホスト計算機51は、移行元ストレージ装置11aの移行元ボリューム241aにデータの読み出し指示を出す。S1502で、読み出し指示を受領した移行元ストレージ装置11aは、外部ストレージ装置71の外部ボリューム711に読み出し指示を出す。S1503で、外部ストレージ装置71は、外部ボリューム711から読み出し指示に該当するデータを読み出す。そして、読み出したデータを外部ストレージ装置71は、移行元ストレージ装置11aに転送する。
 S1504で、移行元ストレージ装置11aは、外部ストレージ装置71から転送されたデータをホスト計算機51に転送する。S1505で、ホスト計算機51は、移行元ストレージ装置11aからのデータを受領する。
<<データ移行実施>>
<キャッシュパージ/リザーブ確保>
 図16は、移行元ストレージ装置へのキャッシュパージ指示を示す図である。図17は、キャッシュパージ完了と外部ストレージ装置へのリザーブ確保を示す図である。図18は、キャッシュパージ処理とリザーブ確保処理を示すフローチャートである。キャッシュパージとは、揮発性メモリであるキャッシュメモリ24の内容を、不揮発性記憶デバイスであるディスク装置24や外部ストレージ装置71へ格納しデータを消去しメモリを初期化するものでる。また、リザーブ確保とは、特定装置(例えば、外部ストレージ装置71)に対しアクセス経路が複数ある場合、特定の経路のみI/Oアクセスの許可をすることである。
 まず、ホスト計算機51で管理している交替パスソフトウェア30のマルチパス管理プログラム32が、ホスト計算機51と移行元ストレージ装置11aとを接続しているパスをオンラインからオフラインにする。
 S1801で、管理装置52は、移行先ストレージ装置11b経由で移行元ストレージ装置11aのキャッシュメモリ28aのデータをパージする指示を送信する(図16の符号161)。S1802で、移行元ストレージ装置11aのキャッシュメモリ28aのデータを外部ストレージ装置71の外部ボリューム711にデステージ(データ格納)する。S1803で、移行元ストレージ装置11aは、キャッシュメモリ28aのデータが全てデステージを完了したかを判断する。デステージが完了していなければ(No)、移行元ストレージ装置11aはデステージを継続し、完了していれば(Yes)、S1804を実行する。
 S1804で、移行元ストレージ装置11aは、キャッシュメモリ241aのデータパージ完了通知を送信する(図17の符号171)。S1805で、移行先ストレージ装置11bは、キャッシュメモリ241aのデータパージ完了通知を受信する。S1806で、移行先ストレージ装置11bは、ボリューム移行管理テーブル60の外部ストレージ装置のパス状態608をオフラインからオンラインにする。
 S1807で、移行先ストレージ装置11bは、外部ストレージ装置71の外部ボリューム711に交替パスのリザーブを設定する。このリザーブ設定により、移行元ストレージ装置11aから外部ストレージ装置71へのI/Oアクセスは実行できない。そのため、移行元ストレージ装置11aから外部ストレージ装置71への予期しないデータ送信により、
外部ストレージ装置71の外部ボリューム711に格納されたデータが破壊されることを防止できる。
<移行中のデータライト>
 図19は、データ移行中におけるホスト計算機から移行先ストレージ装置へのデータライト処理を示すフローチャートである。S1901で、ホスト計算機51から移行先ストレージ装置11bのボリューム24bにデータを転送する。S1902で、移行先ストレージ装置11bは、キャッシュメモリ241bにデータを格納する。S1903で、移行先ストレージ装置11bは、キャッシュメモリ241bに格納したデータを、移行元ストレージ装置11aのボリュームへキャッシュに書き込むだけの指示に変更して、データを転送する。S1904で、移行元ストレージ装置11aは、移行先ストレージ装置11bから送信されたデータをキャッシュメモリ241aに格納する。
 データ移行中はホスト計算機51から外部ストレージ装置71へデータ書き込みをS1901からS1904に示すように、同一のデータを移行先ストレージ装置11bのキャッシュメモリ241bと、移行元ストレージ装置11aのキャッシュメモリ241aに行う。これにより、同一の書き込みデータをキャッシュメモリ241bとキャッシュメモリ241aに保持することができる。また、データ読み出しでは、図15の移行元ストレージ装置11aを移行先ストレージ装置11bと読み替え、移行先ストレージ装置11bが外部ストレージ装置71からデータを読み出し、ホスト計算機51に転送する。
 また、S1101からS1106までの処理によるボリュームマッピング処理と、S1107からS1110まで処理による移行先ボリュームの新規LU番号の登録により、移行元ボリューム241aと移行先ボリューム241bをホスト計算機51からは同一と認識させることができる。加えて、データ移行中に発生したホスト計算機51からデータ書き込みでは、書き込みデータをキャッシュメモリ241bと外部ストレージ装置71に反映される。
 以上のように、ホスト計算機51からのI/Oアクセスを停止することなく、ホスト計算機51に提供される外部ストレージ装置71の構成を移行することができる。そのため、外部ストレージ装置71から移行先ストレージ装置11bへのデータコピー処理と、移行先ストレージ装置11bから外部ストレージ装置71へのデータコピー処理とが不要となるので、移行時間を短縮できる。
<移行完了後のI/Oの流れ>
 図20は、ホスト計算機から移行先ストレージ装置へのI/Oの流れを示した図である。移行元ストレージ装置11aで作成された論理ボリュームも含め、全てのボリュームのデータ移行が完了したら、管理装置52は、移行元ストレージ装置11aと移行先ストレージ装置11bとの接続、移行元ストレージ装置11aと外部ストレージ装置71との接続を遮断する。接続遮断を完了した後に、旧機種である移行元ストレージ装置11aが撤去される。ホスト計算機51から仮想ボリューム241bへのI/Oアクセスは、新機種の移行元ストレージ装置11aのキャッシュメモリ28bを経由して、外部ストレージ装置71の外部ボリューム711に対して実行される。
<撤去処理>
 図21は、移行元ストレージ装置の撤去処理を示すフローチャートである。S2101で、管理装置52は、移行先ストレージ装置11bに移行元ストレージ装置11aのボリューム241bのマッピング解除の指示を出す。S2102で、移行先ストレージ装置11bは、ボリューム241bのマッピング解除処理を行う。S2103で、管理装置52は、移行元ストレージ装置11aに外部ストレージ装置71の外部ボリューム711のマッピング解除の指示を出す。S2104で、移行元ストレージ装置11aは、外部ストレージ装置71の外部ボリューム711のマッピング解除処理を行う。このマッピング解除処理完了後に、前述の接続遮断を行うことで旧機種である移行元ストレージ装置11aを撤去できる。
 第二の実施例として、データ移行中に移行先ストレージ装置11bで障害が発生した時、移行前のシステム構成に戻す動作及びその処理を図22及び図23で説明する。図22は、移行先ストレージ装置での障害発生時の構成変更動作を示す図である。図23は、移行先ストレージ装置での障害発生時の構成変更処理を示すフローチャートである。
 図22に示すように移行先ストレージ装置11bで障害が発生したら、ホスト計算機51とストレージ装置11とのパスを符号221に示すように、ホスト計算機51と移行先ストレージ装置11bとの接続からホスト計算機51と移行元ストレージ装置11aとの接続へ切り替え、ホスト計算機51からストレージ装置11へのI/Oアクセス処理を継続させる。
 S2301で、ホスト計算機51のパス障害検知プログラム31が移行先ストレージ装置11bでのパス障害を検知する。S2302で、ホスト計算機51のマルチパス管理プログラム32が、同一デバイス対応テーブル34とボリューム移行管理テーブル60を用いて、移行元ストレージ装置11aのボリューム241aへの交替パスをオンラインに設定する。そして、マルチパス管理プログラム32は、ボリューム移行管理テーブル60の外部ストレージ装置パス状態608を更新する。S2303で、ホスト計算機51は、移行元ストレージ装置11aのボリューム241aへI/Oを実施する。
 このように、ホスト計算機51が移行先ストレージ装置11bでのパス障害を検知すると、ホスト計算機51と移行元ストレージ装置11aとの接続情報及び移行元ストレージ装置11aと外部ストレージ装置71との接続情報を用いて、移行元ストレージ装置11aへの交替パスに接続パスを切り替えることで、ボリューム(外部ストレージ装置71)へのI/Oアクセスを移行元ストレージ装置11aで継続することができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置いてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 11a、11b:ストレージ装置、21:CPU、28:キャッシュメモリ、31:パス障害検知プログラム、34:同一デバイス対応テーブル、51:ホスト計算機、52:管理装置、53:仮想化装置、60:ボリューム移行管理テーブル、71:外部ストレージ装置、100:ストレージシステム、711:LDEV(外部ボリューム)

Claims (14)

  1.  移行元ストレージ装置、移行先ストレージ装置及び外部ストレージ装置を有するストレージシステムにおいて、
     前記ストレージシステムにホスト計算機と管理装置が接続され、
     前記移行元ストレージ装置は移行元キャッシュメモリを備え、外部ストレージ装置の記憶デバイスで構成された外部ボリュームを関連付けて移行元ボリュームとして仮想的にホスト計算機へ提供し、
     前記移行先ストレージ装置は移行先キャッシュメモリを備え、
     前記管理装置による前記移行元ストレージ装置から前記移行先ストレージ装置へのデータ移行指示により、
     前記移行元ボリュームを前記移行先ストレージ装置に移行先ボリュームとして関連付けて配置し、
     前記移行先ボリュームを前記外部ボリュームと関連付けて仮想的に前記ホスト計算機へ提供し、
     前記移行元キャッシュメモリへのパージ命令で格納データを前記外部ボリュームに反映させた後に格納データを消去し、
     前記パージ命令の完了後に、前記ホスト計算機から前記外部ボリュームへのアクセスを前記移行先ストレージ経由に限定し、
     前記ホスト計算機から移行先ボリュームへのデータ書き込み命令において、書き込みデータを前記移行先キャッシュメモリ及び前記外部ボリュームに格納するとともに、前記移行元キャッシュメモリに転送して格納し、
     前記移行元ストレージ装置でのシステム構成を、前記移行先ストレージ装置でのシステム構成にデータ移行する
     ことを特徴とするストレージシステム。
  2.  請求項1記載のストレージシステムであって、前記移行元ボリュームを前記移行先ストレージ装置に移行先ボリュームとして関連付けての配置は、
     前記移行元ボリュームの情報と、前記移行元ボリュームと前記外部ボリュームとの関連付け情報を取得して行う
     ことを特徴とするストレージシステム。
  3.  請求項1記載のストレージシステムであって、前記移行先ボリュームを前記外部ボリュームと関連付けて仮想的に前記ホスト計算機への提供は、
     前記外部ボリュームに関連付けられた前記移行元ボリュームの情報を基に前記移行先ボリュームを前記外部ボリュームへ関連付けて行い、前記移行先ボリュームと前記外部ボリュームとの接続を解除状態とする
     ことを特徴とするストレージシステム。
  4.  請求項1記載のストレージシステムであって、前記パージ命令発行前に前記ホスト計算機からのIOアクセスは、
     前記IOアクセスが、前記移行先ストレージ装置へのデータ書き込み命令の場合、移行先キャッシュメモリに書き込みデータを格納するとともに書き込みデータを前記移行元ストレージ装置に転送し、前記移行元キャッシュメモリ及び前記外部ボリュームに書き込みデータを格納し、
     前記IOアクセスが、前記移行先ストレージ装置からのデータ読み出し命令の場合は、前記移行先ストレージ装置は前記データ読み出し命令を前記移行元ストレージ装置に転送し、前記移行元ストレージ装置が前記外部ボリュームからデータ読み出し命令に該当するデータを読み出し、前記ホスト計算機に転送する
     ことを特徴とするストレージシステム。
  5.  請求項1記載のストレージシステムであって、前記ホスト計算機から前記外部ボリュームへのアクセスを前記移行先ストレージ経由に限定することは、
     前記ホスト計算機と前記移行元ストレージ装置とのパス接続を解除するとともに、前記移行先ストレージ装置と前記外部ストレージ装置間に、前記ホスト計算機からのIOアクセスを許可する1つ以上の接続パスを設けることで行う
     ことを特徴とするストレージシステム。
  6.  請求項1記載のストレージシステムであって、前記データ移行完了後に、前記移行元ストレージ装置の前記移行元ボリュームと前記移行先ストレージ装置の前記移行先ボリュームとの関連付け、及び前記移行元ボリュームと前記外部ストレージ装置の前記外部ボリュームとの関連付けを解除する
     ことを特徴とするストレージシステム。
  7.  請求項1記載のストレージシステムであって、前記データ移行中に前記ホスト計算機からのIOアクセスで前記移行先ストレージ装置の障害を検知した場合には、解除状態の前記ホスト計算機と前記移行元ストレージ装置とのパス接続を再接続しIOアクセスを継続する
     ことを特徴とするストレージシステム。
  8.  移行元ストレージ装置、移行先ストレージ装置及び外部ストレージ装置を有するストレージシステムの移行方法において、
     前記ストレージシステムにホスト計算機と管理装置が接続され、
     前記移行元ストレージ装置は移行元キャッシュメモリを備え、外部ストレージ装置の記憶デバイスで構成された外部ボリュームを関連付けて移行元ボリュームとして仮想的にホスト計算機へ提供し、
     前記移行先ストレージ装置は移行先キャッシュメモリを備え、
     前記管理装置による前記移行元ストレージ装置から前記移行先ストレージ装置へのデータ移行指示により、
     前記移行元ボリュームを前記移行先ストレージ装置に移行先ボリュームとして関連付けて配置し、
     前記移行先ボリュームを前記外部ボリュームと関連付けて仮想的に前記ホスト計算機へ提供し、
     前記移行元キャッシュメモリへのパージ命令で格納データを前記外部ボリュームに反映させた後に格納データを消去し、
     前記パージ命令の完了後に、前記ホスト計算機から前記外部ボリュームへのアクセスを前記移行先ストレージ経由に限定し、
     前記ホスト計算機から移行先ボリュームへのデータ書き込み命令において、書き込みデータを前記移行先キャッシュメモリ及び前記外部ボリュームに格納するとともに、前記移行元キャッシュメモリに転送して格納し、
     前記移行元ストレージ装置でのシステム構成を、前記移行先ストレージ装置でのシステム構成にデータ移行する
     ことを特徴とするストレージシステムの移行方法。
  9.  請求項8記載のストレージシステムの移行方法であって、前記移行元ボリュームを前記移行先ストレージ装置に移行先ボリュームとして関連付けての配置は、
     前記移行元ボリュームの情報と、前記移行元ボリュームと前記外部ボリュームとの関連付け情報を取得して行う
     ことを特徴とするストレージシステムの移行方法。
  10.  請求項8記載のストレージシステムの移行方法であって、前記移行先ボリュームを前記外部ボリュームと関連付けて仮想的に前記ホスト計算機への提供は、
     前記外部ボリュームに関連付けられた前記移行元ボリュームの情報を基に前記移行先ボリュームを前記外部ボリュームへ関連付けて行い、前記移行先ボリュームと前記外部ボリュームとの接続を解除状態とする
     ことを特徴とするストレージシステムの移行方法。
  11.  請求項8記載のストレージシステムの移行方法であって、前記パージ命令発行前に前記ホスト計算機からのIOアクセスは、
     前記IOアクセスが、前記移行先ストレージ装置へのデータ書き込み命令の場合、移行先キャッシュメモリに書き込みデータを格納するとともに書き込みデータを前記移行元ストレージ装置に転送し、前記移行元キャッシュメモリ及び前記外部ボリュームに書き込みデータを格納し、
     前記IOアクセスが、前記移行先ストレージ装置からのデータ読み出し命令の場合は、前記移行先ストレージ装置は前記データ読み出し命令を前記移行元ストレージ装置に転送し、前記移行元ストレージ装置が前記外部ボリュームからデータ読み出し命令に該当するデータを読み出し、前記ホスト計算機に転送する
     ことを特徴とするストレージシステムの移行方法。
  12.  請求項8記載のストレージシステムの移行方法であって、前記ホスト計算機から前記外部ボリュームへのアクセスを前記移行先ストレージ経由に限定することは、
     前記ホスト計算機と前記移行元ストレージ装置とのパス接続を解除するとともに、前記移行先ストレージ装置と前記外部ストレージ装置間に、前記ホスト計算機からのIOアクセスを許可する1つ以上の接続パスを設けることで行う
     ことを特徴とするストレージシステムの移行方法。
  13.  請求項8記載のストレージシステムの移行方法であって、前記データ移行完了後に、前記移行元ストレージ装置の前記移行元ボリュームと前記移行先ストレージ装置の前記移行先ボリュームとの関連付け、及び前記移行元ボリュームと前記外部ストレージ装置の前記外部ボリュームとの関連付けを解除する
     ことを特徴とするストレージシステムの移行方法。
  14.  請求項8記載のストレージシステムの移行方法であって、前記データ移行中に前記ホスト計算機からのIOアクセスで前記移行先ストレージ装置の障害を検知した場合には、解除状態の前記ホスト計算機と前記移行元ストレージ装置とのパス接続を再接続しIOアクセスを継続する
     ことを特徴とするストレージシステムの移行方法。
PCT/JP2014/053829 2014-02-19 2014-02-19 ストレージシステム及び移行方法 WO2015125221A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/424,174 US9311012B2 (en) 2014-02-19 2014-02-19 Storage system and method for migrating the same
PCT/JP2014/053829 WO2015125221A1 (ja) 2014-02-19 2014-02-19 ストレージシステム及び移行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/053829 WO2015125221A1 (ja) 2014-02-19 2014-02-19 ストレージシステム及び移行方法

Publications (1)

Publication Number Publication Date
WO2015125221A1 true WO2015125221A1 (ja) 2015-08-27

Family

ID=53877759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053829 WO2015125221A1 (ja) 2014-02-19 2014-02-19 ストレージシステム及び移行方法

Country Status (2)

Country Link
US (1) US9311012B2 (ja)
WO (1) WO2015125221A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010507A (ja) * 2016-07-14 2018-01-18 富士通株式会社 メモリ管理プログラム、メモリ管理方法及びメモリ管理装置
US11726979B2 (en) 2016-09-13 2023-08-15 Oracle International Corporation Determining a chronological order of transactions executed in relation to an object stored in a storage system
US10733159B2 (en) 2016-09-14 2020-08-04 Oracle International Corporation Maintaining immutable data and mutable metadata in a storage system
US10168943B2 (en) 2016-10-07 2019-01-01 International Business Machines Corporation Determining correct devices to use in a mass volume migration environment
US10860534B2 (en) 2016-10-27 2020-12-08 Oracle International Corporation Executing a conditional command on an object stored in a storage system
US10956051B2 (en) 2016-10-31 2021-03-23 Oracle International Corporation Data-packed storage containers for streamlined access and migration
US10169081B2 (en) 2016-10-31 2019-01-01 Oracle International Corporation Use of concurrent time bucket generations for scalable scheduling of operations in a computer system
US10191936B2 (en) 2016-10-31 2019-01-29 Oracle International Corporation Two-tier storage protocol for committing changes in a storage system
US10275177B2 (en) * 2016-10-31 2019-04-30 Oracle International Corporation Data layout schemas for seamless data migration
US10180863B2 (en) 2016-10-31 2019-01-15 Oracle International Corporation Determining system information based on object mutation events
JP6740911B2 (ja) * 2017-01-16 2020-08-19 富士通株式会社 ポート切替プログラム、ポート切替方法、および情報処理装置
US10592414B2 (en) * 2017-07-14 2020-03-17 International Business Machines Corporation Filtering of redundantly scheduled write passes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310495A (ja) * 2006-05-16 2007-11-29 Hitachi Ltd 計算機システム
JP2008117253A (ja) * 2006-11-07 2008-05-22 Hitachi Ltd 記憶装置システムと計算機システムおよびその処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4955996B2 (ja) 2005-09-20 2012-06-20 株式会社日立製作所 ボリューム移行方法およびストレージネットワークシステム
US7702851B2 (en) 2005-09-20 2010-04-20 Hitachi, Ltd. Logical volume transfer method and storage network system
JP4897499B2 (ja) * 2007-01-19 2012-03-14 株式会社日立製作所 記憶システム又はストレージ移行方法
WO2013118188A1 (en) * 2012-02-10 2013-08-15 Hitachi, Ltd. Storage system and method thereof for migrating data with cache bypass

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310495A (ja) * 2006-05-16 2007-11-29 Hitachi Ltd 計算機システム
JP2008117253A (ja) * 2006-11-07 2008-05-22 Hitachi Ltd 記憶装置システムと計算機システムおよびその処理方法

Also Published As

Publication number Publication date
US9311012B2 (en) 2016-04-12
US20160026409A1 (en) 2016-01-28

Similar Documents

Publication Publication Date Title
WO2015125221A1 (ja) ストレージシステム及び移行方法
US10394662B2 (en) Storage apparatus and storage apparatus migration method
US7558916B2 (en) Storage system, data processing method and storage apparatus
US9055044B2 (en) Computer system and method of controlling computer system
US8621603B2 (en) Methods and structure for managing visibility of devices in a clustered storage system
US9632701B2 (en) Storage system
JP6114397B2 (ja) 複合型ストレージシステム及び記憶制御方法
US8650381B2 (en) Storage system using real data storage area dynamic allocation method
JP4949088B2 (ja) 階層型ストレージシステム間でのリモートミラー方式
US10191685B2 (en) Storage system, storage device, and data transfer method
US20080177947A1 (en) Storage system and storage migration method
US9262087B2 (en) Non-disruptive configuration of a virtualization controller in a data storage system
JP2007279845A (ja) ストレージシステム
US20140143391A1 (en) Computer system and virtual server migration control method for computer system
US10394491B2 (en) Efficient asynchronous mirror copy of thin-provisioned volumes
US10620843B2 (en) Methods for managing distributed snapshot for low latency storage and devices thereof
JP5706808B2 (ja) 連続的なリモートコピーのためのネットワーク効率の改良
US7519786B2 (en) Storage system, storage access restriction method and computer program product
US9766824B2 (en) Storage device and computer system
CN113360082A (zh) 存储系统及其控制方法
JP6294569B2 (ja) ストレージシステム及びキャッシュ制御方法
US20170017403A1 (en) Storage system
WO2015068208A1 (ja) システムおよびその制御方法
WO2014087465A1 (ja) ストレージ装置及びストレージ装置移行方法
WO2014115184A1 (en) Storage system and control method for storage system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 14424174

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883100

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14883100

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP