WO2012017493A1 - 計算機システム及びデータ移行方法 - Google Patents

計算機システム及びデータ移行方法 Download PDF

Info

Publication number
WO2012017493A1
WO2012017493A1 PCT/JP2010/004982 JP2010004982W WO2012017493A1 WO 2012017493 A1 WO2012017493 A1 WO 2012017493A1 JP 2010004982 W JP2010004982 W JP 2010004982W WO 2012017493 A1 WO2012017493 A1 WO 2012017493A1
Authority
WO
WIPO (PCT)
Prior art keywords
logical unit
storage device
storage
logical
path
Prior art date
Application number
PCT/JP2010/004982
Other languages
English (en)
French (fr)
Inventor
斎藤秀雄
江口賢哲
山本政行
山本彰
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2012527471A priority Critical patent/JP5603941B2/ja
Priority to PCT/JP2010/004982 priority patent/WO2012017493A1/ja
Priority to US12/988,523 priority patent/US8443160B2/en
Publication of WO2012017493A1 publication Critical patent/WO2012017493A1/ja
Priority to US13/892,349 priority patent/US8892840B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Definitions

  • the present invention relates to a computer system and a data migration method, and is particularly suitable for application to data migration when switching between storage apparatuses.
  • data is managed using a large-capacity storage device that is provided separately from the host device.
  • Patent Document 1 after setting a logical unit as an external volume in an existing storage device, the access destination of the host computer is migrated to a new storage device using an alternate path program, and thereafter
  • a technology for transferring data by copying data stored in a logical unit included in an existing storage device to a logical unit included in the new storage device using a copy function is disclosed. Yes.
  • data migration method disclosed in Patent Document 1 data can be transferred without using a special function of an existing storage device or network, and without stopping data exchange between the host computer and the storage device. It is possible to migrate between storage devices.
  • the alternate path program installed in the host computer sets the path to the existing storage apparatus and the path to the new storage apparatus. It will be used exclusively. However, depending on the type of operating system installed in the host computer, the alternate path program may not be able to use the path exclusively. In such a case, the data migration method disclosed in Patent Document 1 cannot be used. There was a problem.
  • the data in the existing storage device and the data in the new storage device may be accessed in parallel.
  • a method for maintaining data consistency in such a situation there is a method in which an existing storage device and a new storage device perform remote copy with each other, but as a result, a special function of the existing storage device is used. Therefore, there was no data migration method that did not depend on the special functions of existing storage devices.
  • the present invention has been made in consideration of the above points, and a computer system and a data migration method that can perform data migration between storage devices without stopping the exchange of data and without using special functions of existing devices Is to try to propose.
  • the host computer has one or a plurality of first storage devices, and the storage area of the first storage device is used as the first logical unit.
  • a first storage device provided to a computer and a second storage device having one or more second storage devices are provided, and the second storage device is the first storage device in the first storage device.
  • the configuration information of each first logical unit is collected from the first storage device, and each collected first logical unit is collected.
  • Logical unit configuration information is set in the corresponding second logical unit, and the host computer replaces the path to the second logical unit with an alternate path.
  • the path to the first logical unit is deleted from the target of the alternate path, and the second storage device stores data stored in the first logical unit of the first storage device Is copied to a storage area provided by the second storage device, and the storage area is associated with the second logical unit.
  • the present invention also includes a host computer, a first storage device having one or a plurality of first storage devices, and providing a storage area of the first storage device to the host computer as a first logical unit.
  • a data migration method for migrating data from a first storage device to a second storage device in a computer system having a second storage device having one or a plurality of second storage devices the second storage device Virtualizes each of the first logical units in the first storage device and provides the first logical unit to the host computer as a second logical unit, and each of the first logical units from the first storage device.
  • the configuration information is collected, and the collected configuration information of each first logical unit is set in the corresponding second logical unit.
  • the host computer adds the path to the second logical unit to the target of the alternate path, deletes the path to the first logical unit from the target of the alternate path, and A device copies data stored in the first logical unit of the first storage device to a storage area provided by the second storage device, and associates the storage area with the second logical unit. 2 steps are provided.
  • data migration between storage devices can be performed without using special functions of existing devices and without stopping data exchange.
  • FIG. 3 is a conceptual diagram for explaining a hierarchical structure of storage areas in a migration source storage apparatus.
  • FIG. It is a conceptual diagram which shows notionally the data structure in the memory of a transfer origin storage apparatus.
  • 3 is a conceptual diagram for explaining a hierarchical structure of storage areas in a migration destination storage apparatus.
  • FIG. It is a conceptual diagram which shows notionally the data structure in the memory of a transfer destination storage apparatus. It is a conceptual diagram with which it uses for description of an access destination transfer process.
  • FIG. 1 indicates a computer system according to this embodiment as a whole.
  • the computer system 1 includes a host computer 2, a management computer 3, two storage devices 4A and 4B, a SAN (Storage Area Network) 5, and a LAN (Local Area Network) 6.
  • the host computer 2 is connected to each storage device 4A, 4B via a SAN (Storage Area Network) 5, and the management computer 3 is connected to the host computer 2 and each storage device 4A via a LAN (Local Area Network) 6. , 4B, respectively.
  • SAN Storage Area Network
  • LAN Local Area Network
  • the host computer 2 includes a CPU 10, a memory 11, a storage device 12, an input device 13, a display device 14, a plurality of ports 15, and an interface control unit 16.
  • the CPU 10 is a processor that controls operation of the entire host computer 2, and reads various programs stored in the storage device 12 into the memory 11 and executes them.
  • the memory 11 is used not only for storing various programs read from the storage device 12 by the CPU 10 when the host computer 2 is started up, but also used as a work memory for the CPU 10.
  • the storage device 12 includes, for example, a hard disk device or an SSD (Solid State Drive), and is used to store and hold various programs and control data.
  • the input device 13 is composed of, for example, a keyboard switch, a pointing device, a microphone, and the like, and the display device 14 is composed of, for example, a liquid crystal display.
  • Each port 15 is an adapter for connecting the host computer 2 to the SAN 5
  • the interface control unit 16 is an adapter for connecting the host computer 2 to the LAN 6.
  • the management computer 3 is a computer device for managing the host computer 2 and the storage devices 4A and 4B, and includes a CPU 20, a memory 21, a storage device 22, an input device 23, a display device 24, and an interface control unit 25. Is done.
  • the CPU 20 is a processor that controls the operation of the entire management computer 3, and reads various programs stored in the storage device 22 into the memory 21 and executes them.
  • the memory 21 is used not only for storing various programs read from the storage device 22 by the CPU 20 when the management computer 3 is started up, but also used as a work memory for the CPU 20.
  • the storage device 22 is composed of, for example, a hard disk device or an SSD, and is used for storing and holding various programs and control data.
  • the input device 23 is composed of, for example, a keyboard switch, a pointing device, a microphone, and the like, and the display device 24 is composed of, for example, a liquid crystal display.
  • the interface control unit 25 is an adapter for connecting the management computer 3 to the LAN 6.
  • the storage devices 4A and 4B are composed of a plurality of storage devices 30A and 30B and control units 31A and 31B that control input and output of data to and from the storage devices 30A and 30B.
  • the storage devices 30A and 30B are composed of, for example, an expensive disk such as a SCSI (Small Computer System Interface) disk or an inexpensive disk such as a SATA (Serial AT Attachment) disk or an optical disk.
  • a plurality of storage devices 30A and 30B constitute one RAID (Redundant Array Of Inexpensive Disks) group, and one or a plurality of logical units are set on a physical storage area provided by one or a plurality of RAID groups. .
  • Data from the host computer 2 is stored in this logical unit in units of a predetermined size block.
  • the control unit 31 includes CPUs 40A and 40B, memories 41A and 41B, cache memories 42A and 42B, a plurality of host side ports 43A and 43B, a plurality of storage device side ports 44A and 44B, and interface control units 45A and 45B.
  • the CPUs 40A and 40B are processors that control the overall operation of the storage devices 4A and 4B, and read various programs stored in the storage devices 30A and 30B into the memories 41A and 41B and execute them.
  • the memories 41A and 41B are used for storing various programs read from the specific storage devices 30A and 30B by the CPUs 40A and 40B when the storage devices 4A and 4B are activated, and also used as work memories for the CPUs 40A and 40B. It is done.
  • the cache memories 42A and 42B are constituted by semiconductor memories, and are mainly used for temporarily storing data exchanged between the host computer 2 and the storage devices 30A and 30B.
  • the host side ports 43A and 43B are adapters for connecting the storage apparatuses 4A and 4B to the SAN 5, and the storage apparatus side ports 44A and 44B are adapters for the storage apparatuses 30A and 30B.
  • the interface controllers 45A and 45B are adapters for connecting the storage apparatuses 4A and 4B to the LAN 6.
  • one of the two storage apparatuses 4A and 4B is an existing storage apparatus that is currently used (hereinafter referred to as the migration source storage apparatus 4A), and the other is , A new storage device introduced in place of the migration source storage device 4A (hereinafter referred to as the migration destination storage device 4B). Therefore, in the case of this computer system 1, data stored in the migration source storage apparatus 4A is migrated to the migration destination storage apparatus 4B by the method described later, and then the migration source storage apparatus 4A is removed.
  • the migration destination storage apparatus 4B is equipped with a so-called external connection function that virtualizes the logical units in the external storage apparatus (here, the migration source storage apparatus 4A) and provides them to the host computer 2. ing.
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B receives a read request for the logical unit in the virtualized migration source storage apparatus 4A, the migration destination storage apparatus 4B transfers the read request to the migration source storage apparatus 4A, thereby transferring the requested data to the migration source. Read from the storage device 4A and transfer the read data to the host computer 2. When the migration destination storage apparatus 4B receives a write request for the logical unit, the migration destination storage apparatus 4B transfers the write request and the write target data to the migration source storage apparatus 4A, thereby transferring the data in the logical volume. Write to the corresponding address location.
  • FIG. 2 shows a data structure in the memory 11 of the host computer 2.
  • the memory 11 of the host computer 2 stores a path management table 50, an alternate path program 51, and a plurality of application programs 52.
  • the path management table 50 is a table for managing a path connected to a logical volume that the host computer 2 recognizes as a storage area, and one or more path management provided corresponding to each individual logical volume. It consists of entries 53.
  • a logical volume number 54 that is identification information of the corresponding logical volume and a path number 55 that is identification information of each path connected to the logical volume, as will be described later. Accordingly, when a plurality of paths are set with a redundant configuration, a plurality of path numbers are registered in the path management entry 53.
  • the path managed by the path management table 50 may be a path to a logical unit of a different storage device. However, these logical units need to return the same response to the inquiry based on the inquiry request defined by the SCSI standard. This is because a storage device with a different interface may not be consistent with the interface command and access may be denied.
  • the alternate path program 51 is a program that issues an I / O request to the migration source storage apparatus 4A or the migration destination storage apparatus 4B based on various information registered in the path management table 50. With this alternate path program 51, the logical unit of the migration source storage apparatus 4A or the migration destination storage apparatus 4B can be provided to the application program 52.
  • the alternate path program 51 issues an I / O request to the migration source storage apparatus 4A or the migration destination storage apparatus 4B
  • the alternate path program 51 refers to the path management table 50 and selects one of the paths associated with the corresponding logical volume. One or more paths are selected, and an I / O request is issued to the migration source storage apparatus 4A or the migration destination storage apparatus 4B via the selected path.
  • the application program 52 is a program for executing processing according to the user's business, and is associated with the logical volume in the migration source storage apparatus 4A or the migration destination storage apparatus 4B via the logical volume assigned to itself. Read / write data required for the logical unit (connected to the logical volume via a path).
  • FIG. 3 shows a data structure in the memory 21 of the management computer 3.
  • a logical unit migration instruction program 60 is stored in the memory 21 of the management computer 3.
  • the logical unit migration instruction program 60 is a program for controlling data migration between the migration source storage device 4A and the migration destination storage device 4B, and the host computer 2 at the time of data migration between the migration source storage device 4A and the migration destination storage device 4B. Necessary instructions are given to the migration source storage apparatus 4A and the migration destination storage apparatus 4B.
  • FIG. 4 shows the hierarchical structure of the storage area in the migration source storage apparatus 4A.
  • the migration source storage apparatus 4A provides the storage area provided by the storage device 30A to the host computer 2 as a logical unit (hereinafter referred to as a migration source logical unit) 72A.
  • a plurality of intermediate storage hierarchies for associating the storage device 30A and the migration source logical unit 72A are provided between the storage device 30A and the migration source logical unit 72A.
  • the intermediate storage hierarchy can include, for example, a virtual device 70A and a logical device 71A.
  • the virtual device 70A is an intermediate storage hierarchy that connects the storage device 30A, which is the lower storage hierarchy, and the logical device 71A, which is the upper storage hierarchy.
  • the virtual device 70A is defined on a storage area provided by each storage device 30A constituting the RAID group.
  • the logical device 71A is an intermediate storage hierarchy that connects the virtual device 70A, which is a lower storage hierarchy, and the migration source logical unit 72A, which is an upper storage hierarchy, and is all or part of the storage area of one or more virtual devices 70A. Is a storage area formed by extracting a part of the storage area of the virtual device 70A.
  • FIG. 5 shows a data structure in the memory 41A of the migration source storage apparatus 4A.
  • the memory 41A of the migration source storage apparatus 4A stores a storage tier management program 84, a logical unit management table 80, a logical device management table 81, and a virtual device management table 82.
  • the memory 41A of the migration source storage apparatus 4A also stores a cache directory 83 for managing data temporarily stored in the cache memory 42A in the migration source storage apparatus 4A.
  • the storage hierarchy management program 84 is a program for managing the correspondence relationship between the lower storage apparatus and the upper storage apparatus in the migration source storage apparatus 4A, and includes a logical unit management table 80, a logical device management table 81, and a virtual device management table 82. Various processing described later is executed based on various information stored in the.
  • the logical unit management table 80 is a table used by the storage hierarchy management program 84 to manage the migration source logical unit 72A set in the migration source storage apparatus 4A, and is associated with each migration source logical unit 72A.
  • One or more logical unit management entries 85 are provided.
  • the logical unit management entry 85 includes LUN (Logical Unit Number) 86, which is identification information of the corresponding migration source logical unit 72A, and identification information of the logical device 71A (FIG. 4) constituting the migration source logical unit 72A.
  • LUN Logical Unit Number
  • the logical device number 87 and inquiry information 88 including configuration information such as the mounting state and the preparation state of the migration source logical unit 72A are registered.
  • Inquiry information 88 can include, for example, information such as a vendor identifier and a product identifier in addition to information such as a mounting state and a preparation state of the migration source logical unit 72A.
  • the logical device management table 81 is a table for managing the logical device 71A set in the migration source storage apparatus 4A, and is provided corresponding to each logical device 71A in the migration source storage apparatus 4A. It consists of one or more logical device management entries 90. Registered in the logical device management entry 90 are a logical device number 91 of the corresponding logical device 71A and a virtual device number 92 which is identification information of the virtual device 70A (FIG. 4) constituting the logical device 71A.
  • the virtual device management table 82 is a table for managing the virtual device 70A set in the migration source storage apparatus 4A, and is provided corresponding to each virtual device 70A in the migration source storage apparatus 4A. It is composed of one or more virtual device management entries 93. In the virtual device management entry 93, a virtual device number of the corresponding virtual device 70A and a storage device number 95 that is identification information of each storage device 30A that provides a storage area to the virtual device 70A are registered.
  • the cache directory 83 is information for managing data temporarily stored in the cache memory 42A (FIG. 1), and is provided corresponding to each piece of data stored in the cache memory 42A.
  • the directory entry 96 is configured as described above.
  • a cache address 97 of corresponding data stored in the cache memory 42A and data identification information 98 are registered.
  • the cache address 97 represents the head address of the storage area where the corresponding data in the cache memory 42A is stored.
  • the data identification information 98 is identification information of such data, and is generated from, for example, a combination of LUN and LBA (Logical Block Address).
  • FIG. 6 shows the hierarchical structure of the storage area in the migration destination storage apparatus 4B.
  • the migration destination storage device 4B has an external connection function as described above, and the storage source provided by the storage device 30A or the migration source logical unit 72A in the migration source storage device 4A connected externally is logically stored in the local storage device. It is provided to the host computer 2 as a unit (hereinafter referred to as a migration destination logical unit) 72B.
  • a hierarchy is provided.
  • the virtual device 70B and the logical device 71B can be included in the intermediate storage hierarchy, but the virtual device 70B and the logical device 71B are not necessarily required, and one or both of the virtual device 70B and the logical device 71B are omitted. Also good.
  • the virtual device 70B is an intermediate storage hierarchy that connects the storage device 30B or the migration source logical unit 72A, which is the lower storage hierarchy, and the logical device 71B, which is the upper storage hierarchy.
  • the virtual device 70B is defined on the storage area provided by each storage device 30B constituting the RAID group.
  • the virtual device 70B transfers the read request or write request from the host computer 2 to the migration source storage device 4A, and sends it to the migration source storage device 4A.
  • the migration source logical unit 72A is virtualized as if it were a logical unit (migration destination logical unit 72B) in the migration destination storage apparatus 4B.
  • the logical device 71B is an intermediate storage tier that connects the virtual device 70B that is the lower storage tier and the migration destination logical unit 72B that is the upper storage tier, and is all or part of the storage area of the one or more virtual devices 70B. Or a storage area obtained by extracting a part of the storage area of the virtual device 70B.
  • FIG. 7 shows a data configuration in the memory 41B of the migration destination storage apparatus 4B.
  • the memory 41B of the migration destination storage apparatus 4B has a storage tier management program 105 and a logical device copy program 106, a logical unit management table 100, a logical device management table 101, and a virtual device management table. 102 and the logical device copy management table 103 are stored.
  • the memory 41B of the migration destination storage apparatus 4B also stores a cache directory 104 for managing the data temporarily stored in the cache memory 42B (FIG. 1) in the migration destination storage apparatus 4B.
  • the storage hierarchy management program 105 is a program for managing the connection between the lower storage apparatus and the upper storage apparatus in the migration destination storage apparatus 4B, and is similar to the storage hierarchy management program 84 of the migration source storage apparatus 4A described above with reference to FIG. It has the function of.
  • the logical device copy program 106 is a program for controlling data migration from the migration source storage apparatus 4A to the migration destination storage apparatus 4B. Based on the logical device copy program 106, the migration destination storage apparatus 4B copies the data stored in the logical device 71A of the migration source storage apparatus 4A to the corresponding logical device 71B in the migration destination storage apparatus 4B.
  • the logical unit management table 100 is a table used by the storage hierarchy management program 105 to manage the migration destination logical unit 72B set in the migration destination storage apparatus 4B. Since this logical unit management table 100 has the same configuration as the logical unit management table 80 of the migration source storage apparatus 4A described above with reference to FIG. 5, the description thereof is omitted here.
  • the logical device management table 101 is a table for managing the logical device 71B set in the migration destination storage apparatus 4B, and one or more logical device management entries provided corresponding to the individual logical devices 71B. 111. Registered in the logical device management entry 111 are the logical device number 112 of the corresponding logical device 71B and the virtual device number 113 of the virtual device 70B constituting the logical device 71B. In the logical device management entry 111, a read cache mode flag 114 and a write cache mode flag 115 for the corresponding logical device 71B are also registered.
  • the read cache mode flag 114 is a flag indicating whether or not the read cache mode is set for the corresponding logical device 71B
  • the write cache mode flag 115 is whether or not the write cache mode is set for the corresponding logical device. Is a flag indicating Each of the read cache mode flag 114 and the write cache mode flag 115 takes a value of “on” or “off”.
  • the read cache mode flag 114 When the read cache mode flag 114 is “ON”, it indicates that the read cache mode is set to “ON”. In this case, when processing a read request from the host computer 2, the read data is temporarily stored in the cache memory 42B. Further, when the read cache mode flag 114 is “off”, it indicates that the read cache mode is set to “off”. In this case, read data is not temporarily stored in the cache memory 42B.
  • the write cache mode flag 115 when the write cache mode flag 115 is “ON”, this indicates that the write cache mode is set to “ON”. In this case, when processing the write request from the host computer 2, the write data is temporarily stored in the cache memory 42A. Further, when the write cache mode flag 115 is “off”, this indicates that the write cache mode is set to “off”. In this case, the write data is not temporarily stored in the cache memory 42B.
  • the virtual device management table 102 is a table for managing the virtual devices 70B in the migration source storage apparatus 4A, and one or more virtual devices 70B provided corresponding to the individual virtual devices 70B in the migration source storage apparatus 4A. It consists of a virtual device management entry 116. Registered in the virtual device management entry 116 are the virtual device number 117 of the corresponding virtual device 70B and lower storage hierarchy identification information 118, which is identification information of the lower storage device associated with the virtual device 70B.
  • the identification information of the storage device 30B is registered as the lower-level storage hierarchy identification information 118, and the lower-level storage device becomes the source logical In the case of the unit 72A, the network address (fiber channel address) and LUN of the migration source logical unit 72A are registered as the lower storage hierarchy identification information 118.
  • the logical device copy management table 103 is a table for the logical device copy program 106 to manage the progress status of data copying (data migration) between the migration source storage apparatus 4A and the migration destination storage apparatus 4B. It consists of one or more logical device copy management entries 119 provided in correspondence with the stored data.
  • the cache directory 104 is information for managing data temporarily stored in the cache memory 42B. Since the cache directory 104 has the same configuration as the cache directory 83 of the migration source storage apparatus 4A described above with reference to FIG. 5, the description thereof is omitted here.
  • (1-2) Data Migration Processing in the Computer System (1-2-1) Outline of Data Migration Processing in the Computer System
  • the migration source storage device 4A is replaced with the migration destination storage device 4B. The outline of the data migration process executed when the data stored in the migration source storage apparatus 4A is migrated to the migration destination storage apparatus 4B will be described.
  • the data migration processing includes access destination migration processing for migrating the access destination of the host computer 2 from the migration source logical unit 72A in the migration source storage apparatus 4A to the migration destination logical unit 72B in the migration destination storage apparatus 4B.
  • the data copy processing for copying the data stored in the migration source logical unit 72A of the migration source storage apparatus 4A to the corresponding migration destination logical unit 72B of the migration destination storage apparatus 4B consists of two steps.
  • FIG. 8 conceptually shows the flow of such access destination migration processing.
  • This access destination migration process is performed by the migration destination storage apparatus 4B and the host computer 2 executing necessary processes in accordance with instructions given from the management computer 3 to the migration destination storage apparatus 4B and the host computer 2, respectively.
  • the migration destination storage apparatus 4B first prepares for switching the correspondence destination of the logical volume VOL of the host computer 2 from the migration source logical unit 72A to the migration destination logical unit 72B according to the instruction given from the management computer 3. . Specifically, the migration destination storage apparatus 4B maps the migration source logical unit 72A to the migration destination logical unit 72B as an external volume (SP1). By this processing, the migration source logical unit 72A is virtualized as the migration destination logical unit 72B, and the host computer 2 can read / write data from / to the migration source logical unit 72A via the migration destination storage device 4B.
  • SP1 external volume
  • the migration destination storage apparatus 4B issues an Inquiry request to the migration source storage apparatus 4A, thereby acquiring the inquiry information of the migration source logical unit.
  • the acquired inquiry information is transferred to the migration source logical unit 72A. It is set as Inquiry information of the migration destination logical unit 72B that is mapped (SP2).
  • step SP2 when the host computer 2 adds a path PT2 to the migration destination logical unit 72B as a path related to the logical volume VOL as described later, the path PT1 to the migration source logical unit 72A and The host computer 2 can recognize the path PT2 to the migration destination logical unit 72B as an alternate path of the same logical volume VOL.
  • the host computer 2 thereafter deletes the path PT1 from the logical volume VOL to the migration source logical unit 72A as described later.
  • all read requests and write requests for the logical volume VOL are transmitted to the migration destination storage apparatus 4B, and read processing and write processing for the read requests and write requests are executed by the migration destination storage apparatus 4B.
  • the host computer 2 since the host computer 2 recognizes that the read request and the write request are still issued to the migration source storage apparatus 4A, the data input / output processing in the host computer 2 does not stop.
  • the management computer 3 adds the path PT2 to the migration destination logical unit 72B to the alternate path of the logical volume VOL for the host computer 2, and the path from the alternate path of the logical volume VOL to the migration source logical unit 72A.
  • An instruction is given to delete PT1. With this process, the logical unit associated with the logical volume VOL can be migrated from the migration source logical unit 72A to the migration destination logical unit 72B without stopping the data exchange.
  • the access destination of the host computer 2 can be switched from the migration source logical unit 72A to the migration destination logical unit 72B.
  • the path PT2 from the logical volume VOL to the migration destination logical unit 72B is added in the host computer 2
  • the path from the logical volume VOL to the migration source logical unit 72A is deleted before the host computer 2
  • a read request or a write request from is given to the migration destination storage apparatus 4B, data consistency between the migration source storage apparatus 4A and the migration destination storage apparatus 4B cannot be maintained.
  • the migration destination storage apparatus 4B may respond with old data stored in the cache memory 42B.
  • the host computer 2 when the host computer 2 adds a path PT2 to the migration destination logical unit 72B as a path from the logical volume VOL to the logical unit, the host computer 2 passes the path PT1 to the migration source logical unit 72A and the migration destination logical unit 72B.
  • the read request and the write request for the migration source logical unit 72A associated with the logical volume VOL are issued using any one of the paths PT2.
  • the host computer 2 updates the data stored in the migration source logical unit 72A via the path PT1 to the migration source logical unit 72A, and then migrates via the path PT2 to the migration destination logical unit 72B.
  • the read cache mode of the corresponding logical device 71B in the migration destination storage apparatus 4B is set to “on”, and the migration destination storage apparatus 4B If the data before the update of the data exists in the cache memory 42B, the data before the update is read from the cache memory 42B of the migration destination storage apparatus 4B and transmitted to the host computer 2. Become.
  • the write cache mode of the corresponding logical device 71B in the migration destination storage apparatus 4B is set to “ON”, and the host computer 2 further transfers the migration destination storage apparatus 4B via the path PT2 to the migration destination logical unit 72B.
  • the write data is stored in the cache memory 42B of the migration destination storage apparatus 4B and then transferred to the migration source storage apparatus 4A. Therefore, before the write data is transferred from the migration destination storage apparatus 4B to the migration source storage apparatus 4A, the write data is transferred to the migration source storage apparatus 4A via the path PT1 from the host computer 2 to the migration source logical unit 72A.
  • the data before update is read from the migration source storage apparatus 4A and transmitted to the host computer 2.
  • the management computer 3 sends the instruction of the corresponding logical device 71B before giving an instruction to the host computer 2 to add the path PT2 to the migration destination logical unit 72B as an alternate path of the logical volume VOL.
  • An instruction is given to the migration destination storage apparatus 4B to set both the read cache mode and the write cache mode to “off”. As a result, data consistency between the migration source storage apparatus 4A and the migration destination storage apparatus 4B can be ensured.
  • FIG. 9 conceptually shows the flow of data copy processing in the data migration processing.
  • This data copy processing is performed by the migration destination storage apparatus 4B executing necessary processing in accordance with an instruction given from the management computer 3 to the migration destination storage apparatus 4B.
  • the migration destination storage apparatus 4B creates a new virtual device 70BX associated with the storage apparatus 30B according to an instruction from the management computer 3, and also creates a new logical device 71BX associated with the new virtual device 70BX. Create
  • the migration destination storage apparatus 4B performs data copy from the logical device 71B to the new logical device 71BX, and then replaces the virtual device 70B with the new virtual device 70BX, thereby storing the migration destination logical unit 72B and the storage destination logical unit 72B.
  • the device 30B is associated.
  • FIG. 10 shows a logical unit migration instruction program 60 (FIG. 10) stored in the memory 21 of the management computer 3 in relation to the data migration processing according to the present embodiment described above. The process procedure of the data migration control process performed by 3) is shown.
  • the logical unit migration instruction program 60 When the logical unit migration instruction program 60 is instructed to perform data migration from the migration source storage apparatus 4A to the migration destination storage apparatus 4B by the system administrator via the input device 23 of the management computer 3, the data shown in FIG.
  • the migration control process is started.
  • one or more migration source logical units 72A designated by the system administrator are assigned to different migration destination logical units respectively designated by the system administrator.
  • 72B is instructed to be mapped as an external volume (hereinafter referred to as an external volume setting instruction) (SP10).
  • SP10 external volume setting instruction
  • the migration destination storage apparatus 4B maps each migration source logical unit 72A designated by the system administrator as an external volume to each migration destination logical unit 72B designated by the system administrator in accordance with this external volume setting instruction. Execute external volume setting processing. When the external volume setting process is completed, the migration destination storage apparatus 4B transmits an external volume setting process completion notification to the management computer 3.
  • the migration destination logical unit 72B corresponding to the inquiry information of each migration source logical unit 72A is transferred to the migration destination storage apparatus 4B.
  • an inquiry information hereinafter referred to as an inquiry information setting instruction (SP11).
  • the migration destination storage apparatus 4B executes the inquiry information setting process for setting the inquiry information of each migration source logical unit 72A as the inquiry information of the corresponding migration destination logical unit 72B in accordance with this inquiry information setting instruction. Further, when the inquiry information setting process is completed, the migration destination storage apparatus 4B transmits an inquiry information setting process completion notification to the management computer 3.
  • the logical cache migration instruction program 60 of the management computer 3 When the logical unit migration instruction program 60 of the management computer 3 receives the inquiry information setting process completion notification, the logical cache migration instruction program 60 sets both the read cache mode and the write cache mode of each migration destination logical unit 72B to the migration destination storage apparatus 4B.
  • An instruction (hereinafter referred to as a cache mode off instruction) is given to set each to "OFF" (SP12).
  • the migration destination storage apparatus 4B executes a cache mode off process for setting both the read cache mode and the write cache mode of each migration destination logical unit 72B to off. Further, when the cache mode off process is completed, the migration destination storage apparatus 4B transmits a cache mode off process completion notification to the management computer 3.
  • the logical unit migration instruction program 60 of the management computer 3 receives the notification of completion of the cache mode off process, the logical volume corresponding to the path PT2 (FIG. 8) to each migration destination logical unit 72B to the host computer 2 respectively.
  • An instruction to add a VOL replacement path (hereinafter referred to as a replacement path addition instruction) is given (SP13).
  • the host computer 2 executes an alternate path addition process for adding the path PT2 to each migration destination logical unit 72B as an alternate path for the corresponding logical volume VOL. Further, when the replacement path addition process is completed, the host computer 2 transmits a replacement path addition process completion notification to the management computer 3.
  • the alternate path program 51 of the host computer 2 sends read requests and write requests to the logical volume VOL not only to the migration source logical unit 72A but also to the corresponding migration destination logical unit 72B. It can also be issued against. Specifically, the alternate path program 51 randomly selects and selects one path number from a plurality of path numbers included in the path management entry 53 (FIG. 2) associated with the logical volume VOL. A read request and a write request are issued using the path PT1 or path PT2.
  • the host computer 2 executes an alternate path deletion process for deleting the path PT1 to the migration source logical unit 72A from the alternate path of the logical volume VOL in accordance with this alternate path deletion instruction.
  • the host computer 2 transmits an alternate path deletion process completion notification to the management computer 3.
  • the logical unit migration instruction program 60 of the management computer 3 When the logical unit migration instruction program 60 of the management computer 3 receives the exchange path deletion processing completion notification, the logical unit 71B read cache mode of the logical device 71B associated with the migration destination logical unit 72B is sent to the migration destination storage apparatus 4B. And an instruction to set both the write cache mode to “ON” (hereinafter referred to as a cache mode ON instruction) (SP15).
  • SP15 cache mode ON instruction
  • the migration destination storage apparatus 4B performs cache mode on processing for setting both the read cache mode and the write cache mode of each logical device 71B associated with the migration destination logical unit 72B to “on” in accordance with the cache mode on instruction. Execute. Further, when the cache mode on process is completed, the migration destination storage apparatus 4B transmits a cache mode on process completion notification to the management computer 3.
  • the logical unit migration instruction program 60 of the management computer 3 When the logical unit migration instruction program 60 of the management computer 3 receives the cache mode on process completion notification, it sets both the read cache mode and the write cache mode to “on” for the migration destination storage apparatus 4B as described above.
  • An instruction to create a new logical device 71BX (FIG. 9) corresponding to each logical device 71B (hereinafter referred to as a logical device creation instruction) is given (SP16).
  • the migration destination storage apparatus 4B executes logical device creation processing for creating the required number of new logical devices 71BX in accordance with this logical device creation instruction.
  • the migration destination storage apparatus 4B transmits a logical device creation process completion notification to the management computer 3.
  • the logical unit migration instruction program 60 of the management computer 3 When the logical unit migration instruction program 60 of the management computer 3 receives the logical device creation process completion notification, the logical unit migration instruction program 60 is stored in the logical device 71B associated with the migration destination logical unit 72B for the migration destination storage apparatus 4B. Is given an instruction (hereinafter referred to as a logical device copy instruction) to copy the existing data to the corresponding new logical device 71BX created in the migration destination storage apparatus 4B by the logical device creation instruction in step SP16 ( SP17).
  • a logical device copy instruction an instruction to copy the existing data to the corresponding new logical device 71BX created in the migration destination storage apparatus 4B by the logical device creation instruction in step SP16 ( SP17).
  • the migration destination storage apparatus 4B performs logical device copy processing for copying the data respectively stored in each logical device 71B in the migration source storage apparatus 4A to the corresponding new logical device 71BX in accordance with the logical device copy instruction. Execute. When the logical device copy process is completed, the migration destination storage apparatus 4B transmits a logical device copy process completion notification to the management computer 3.
  • the logical unit migration instruction program 60 of the management computer 3 When the logical unit migration instruction program 60 of the management computer 3 receives the logical device copy process completion notification, the logical unit migration instruction program 60 sends new virtual devices 70BX respectively associated with the new logical devices 71BX to the migration destination storage apparatus 4B.
  • An instruction to replace the corresponding virtual device 70B associated with the corresponding migration destination logical unit 72B (hereinafter referred to as a virtual device replacement instruction) is given (SP18).
  • the migration destination storage apparatus 4B replaces the virtual device 70B associated with the migration destination logical unit 72B and the corresponding new virtual device 70BX with respect to the migration destination storage apparatus 4B according to the virtual device replacement instruction. Perform replacement processing. Further, when the virtual device replacement process is completed, the migration destination storage apparatus 4B transmits a virtual device replacement process completion notification to the management computer 3.
  • FIG. 11 receives the external volume setting instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 at step SP10 of the data migration control process (FIG. 10). The processing procedure of the above-described external volume setting process executed by the storage tier management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage tier management program 105 When the storage tier management program 105 receives the external volume setting instruction, the storage tier management program 105 starts the external volume setting process shown in FIG. 11 and first adds the necessary number of virtual device management entries 116 to the virtual device management table 102. A number of new virtual devices 70B are created (SP20). At this time, the storage hierarchy management program 105 registers different unused virtual device numbers as the virtual device numbers 117 of these virtual devices 70B in the virtual device management entries 116, respectively, and the lower storage hierarchy of the virtual device 70B. The fiber channel address and LUN of the migration source logical unit 72A corresponding to the identification information 118 are registered in these virtual device management entries 116.
  • the storage hierarchy management program 105 creates the required number of new logical devices 71B by adding the required number of logical device management entries 111 to the logical device management table 101 (SP21). At this time, the storage hierarchy management program 105 registers an unused logical device number as the logical device number 112 of these logical devices 71B in the logical device management entry 111, and also performs virtual device management as the virtual device number 113 in step SP20. The virtual device number 117 registered in the corresponding virtual device management entry 116 added to the table 102 is registered in the logical device management entry 111.
  • the storage hierarchy management program 105 creates the required number of new migration destination logical units 72B by adding the required number of logical unit management entries 107 to the logical unit management table 100 (SP22). At this time, the storage hierarchy management program 105 registers an unused LUN in the logical unit management entry 107 as the LUN 108 of the newly created migration destination logical unit 72B, and at the step SP21, manages the logical device as the logical device number 109. The logical device number 112 registered in the corresponding logical device management entry 111 added to the table 101 is registered in the corresponding logical unit management entry 107.
  • FIG. 12 shows the inquiry information setting instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 in step SP11 of the data migration control process (FIG. 10). The processing procedure of the inquiry information setting process executed by the received storage hierarchy management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage hierarchy management program 105 When the storage hierarchy management program 105 receives the inquiry information setting instruction, it starts the inquiry information setting process shown in FIG. 12, and first sends an inquiry request that is a transfer request for inquiry information of each migration source logical unit 72A to the migration source storage. It transmits to the apparatus 4A (SP30).
  • the storage hierarchy management program 105 When the storage hierarchy management program 105 receives the inquiry information of each migration source logical unit 72A transferred from the migration destination storage apparatus 4B in response to the inquiry request (SP31), the storage hierarchy management program 105 converts the received inquiry information into the corresponding migration destination. It is set as inquiry information of the logical unit 72B (SP32). Specifically, the storage hierarchy management program 105 transfers the received inquiry information of the migration source logical unit 72A to the logical unit management entry 107 of the corresponding migration destination logical unit 72B in the logical unit management table 100 (FIG. 7). Registered as Inquiry information 110 of the logical unit 72B.
  • FIG. 13 receives the cache mode off instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 at step SP12 of the data migration control process (FIG. 10). The processing procedure of the cache mode off process executed by the storage tier management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage tier management program 105 When the storage tier management program 105 receives the cache mode off instruction, it starts the cache mode off process shown in FIG. 13, and first, each logical unit corresponding to each migration destination logical unit 72B designated in the cache mode off instruction is started.
  • the read cache mode of the device 71B is set to “off” (SP40).
  • the storage hierarchy management program 105 corresponds to each migration destination logical unit 72B specified in the cache mode off instruction among the logical device management entries 111 constituting the logical device management table 101 (FIG. 7).
  • Each of the read cache mode flags 114 of the logical device management entry 111 of the logical device 71B is set to “off”.
  • the storage hierarchy management program 105 sets the write cache mode of each logical device 71B corresponding to each migration destination logical unit 72B to “off” (SP41). Specifically, the storage hierarchy management program 105 turns off the write cache mode flag 115 of the logical device management entry 111.
  • FIG. 14 receives the alternate path addition instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 at step SP13 of the data migration control process (FIG. 10). The processing procedure of the alternate path addition process executed by the alternate path program 51 (FIG. 2) of the host computer 2 is shown.
  • the alternate path addition process starts the alternate path addition process shown in FIG. 14.
  • the migration destination storage apparatus 4 B provides the migration destination storage apparatus 4 B to the host computer 2.
  • a discovery request for requesting a list of migration destination logical units 72B (hereinafter referred to as a migration destination logical unit list) is transmitted (SP50).
  • each migration destination logical unit 72B is based on the migration destination logical unit list. Is added as an alternate path of the corresponding logical volume VOL (SP52). Specifically, the alternate path program 51 stores the path SP2 path to the migration destination logical unit 72B corresponding to the path management entry 53 (FIG. 2) corresponding to each logical volume VOL in the path management table 50 (FIG. 2). Number 55 (FIG. 2) is additionally registered.
  • FIG. 15 receives the alternate path deletion instruction transmitted from the three logical unit migration instruction program 60 of the management computer in step SP14 of the data migration control process (FIG. 10). The processing procedure of the alternate path deletion process executed by the alternate path program 51 of the host computer 2 is shown.
  • the alternate path program 51 When the alternate path program 51 receives such an alternate path deletion instruction, the logical volume VOL is connected to each path SP1 (FIG. 8) connecting the logical volume VOL and the migration source logical unit 72A in the migration source storage apparatus 4A. Delete from the VOL alternate path (SP60). Specifically, the alternate path program 51 deletes the path number 55 (FIG. 2) of the path SP1 from the path management entry 53 (FIG. 2) corresponding to the logical volume VOL in the path management table 50 (FIG. 2).
  • the alternate path program 51 transmits an alternate path deletion process completion notification to the management computer 3 (SP61), and thereafter ends this alternate path deletion process.
  • Cache Mode On Process FIG. 16 receives the cache mode on instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 at step SP15 of the data migration control process (FIG. 10). The processing procedure of the cache mode on process executed by the storage tier management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage hierarchy management program 105 When the storage hierarchy management program 105 receives the cache mode ON instruction, it starts the cache mode ON process shown in FIG. 16, and first sets the read cache mode of each migration destination logical unit 72B designated in the cache mode ON instruction. “ON” is set (SP70). Specifically, the storage hierarchy management program 105 corresponds to each of the migration source logical units 72B specified in the cache mode on instruction among the logical device management entries 111 constituting the logical device management table 101 (FIG. 7). The read cache mode flag 114 (FIG. 7) of the device management entry 111 is set to “ON”.
  • the storage hierarchy management program 105 sets the write cache mode of each migration source logical unit 72B to ON (SP71). Specifically, the storage hierarchy management program 105 sets the write cache mode flag 115 (FIG. 7) of each logical device management entry 111 described above to “ON”.
  • FIG. 17 received the logical device creation instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 at step SP16 of the data migration control processing (FIG. 10). The processing procedure of logical device creation processing executed by the storage tier management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage hierarchy management program 105 When the storage hierarchy management program 105 receives the logical device creation instruction, it starts the logical device creation processing shown in FIG. 17, and first adds the required number of virtual device management entries 116 to the virtual device management table 102 (FIG. 7). As a result, the necessary number of new virtual devices 70BX (FIG. 9) are created (SP80). At this time, the storage hierarchy management program 105 registers the unused virtual device number in the corresponding virtual device management entry 116 as the virtual device number 117 (FIG. 7) of the newly created virtual device 70BX and identifies the lower storage hierarchy. The identification information of the corresponding storage device 30B is registered as information 118.
  • the storage hierarchy management program 105 creates the required number of new logical devices 71BX (FIG. 9) by adding the required number of logical device management entries 111 to the logical device management table 101 (SP81). At this time, the storage hierarchy management program 105 registers an unused logical device number in the corresponding logical device management entry 111 as the logical device number 112 (FIG. 7) of the newly created logical device 71BX and creates the newly created logical device 71BX. As the virtual device number 113 (FIG. 7) of the virtual device 70BX corresponding to the logical device 71BX, the virtual device number 117 registered in the corresponding virtual device management entry 116 added to the virtual device management table 102 in step SP80 is Register in the logical device management entry 111.
  • FIG. 18 received the logical device copy instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 in step SP17 of the data migration control processing (FIG. 10).
  • the processing procedure of logical device copy processing executed by the logical device copy program 106 (FIG. 7) of the migration destination storage apparatus 4B is shown.
  • the logical device copy program 106 When the logical device copy program 106 receives the logical device copy instruction, it starts the logical device copy process shown in FIG. 18. First, one logical device 71B specified by the logical device copy instruction is selected from the logical device 71B to be copied. The device 71B is selected (SP90).
  • the logical device copy program 106 selects one unit area in the logical device 71B selected in step SP90 (SP91).
  • This unit area is a storage area having the same size as the data write unit for the logical device 71B.
  • the logical device copy program 106 determines whether or not the unit area selected in step SP91 is not updated (whether data is not yet stored) (SP92).
  • the logical device copy program 106 If the logical device copy program 106 obtains a positive result in this determination, it proceeds to step SP94. If it obtains a negative result, it proceeds to step SP93, and the data stored in the unit area in the logical device 71B. Is copied to the corresponding logical device 71BX among the new logical devices 71BX created in step SP81 of the logical device creation process described above with reference to FIG. 17 (SP93). Specifically, the logical device copy program 106 uses the external connection function to transfer the data stored in the unit area of the logical device 71B selected in step SP90 to the logical device 71B in the migration source storage apparatus 4A. The data is read from the migration source logical unit 72A mapped to, and the read data is stored in the new logical device 71BX.
  • the logical device copy program 106 determines whether or not the same processing has been executed for all the unit areas in the logical device 71B selected in step SP91 (SP94). If the logical device copy program 106 obtains a negative result in this determination, it returns to step SP91, and thereafter, the unit storage area selected in step SP91 is sequentially switched to an unprocessed unit storage area, and step SP91 to step SP94. Repeat the process.
  • step SP95 When the logical device copy program 106 eventually obtains an affirmative result in step SP94 by completing the execution of steps SP91 to SP94 for all the unit areas in the logical device 71B selected in step SP90, the logical device copy instruction It is determined whether or not the processing of step SP91 to step SP94 has been executed for all the logical devices 71B to be copied specified in (SP95).
  • step SP90 If the logical device copy program 106 obtains a negative result in this determination, it returns to step SP90, and thereafter repeats the same processing while sequentially switching the logical device 71B selected in step SP90.
  • step SP95 When the logical device copy program 106 obtains a positive result in step SP95 by completing the processing of steps SP91 to SP94 for all the logical devices 71B to be copied designated in the logical device copy instruction, the management computer 3 The logical device copy processing completion notification is transmitted to (SP96), and then this logical device copy processing is terminated.
  • the migration destination storage device 4B performs the write operation. If data is written to the corresponding logical device 71B, this write data is written to the corresponding migration source logical unit 72A of the migration source storage apparatus 4A, so that the data copied to the logical device 71BX becomes old data. End up.
  • FIG. 19 received the virtual device replacement instruction transmitted from the logical unit migration instruction program 60 of the management computer 3 in step SP18 of the data migration control process (FIG. 10). The processing procedure of the virtual device replacement process executed by the storage tier management program 105 of the migration destination storage apparatus 4B is shown.
  • the storage hierarchy management program 105 Upon receiving the virtual device replacement instruction, the storage hierarchy management program 105 newly creates each virtual device 70B associated with each migration destination logical unit 72B and the logical device creation processing step SP80 described above with reference to FIG.
  • the corresponding virtual device 70BX is replaced with the corresponding virtual device 70BX (SP100).
  • the storage hierarchy management program 105 includes the virtual device number 113 (FIG. 7) registered in the logical device management entry 111 (FIG. 7) of the corresponding logical device 71B in the logical device management table 101 (FIG. 7). Then, the virtual device number 113 registered in the logical device management entry 111 of the corresponding logical device 71BX newly created in step SP81 of the logical device creation process (FIG. 17) is replaced. By this processing, the migration source logical unit 72A, which is the upper storage layer of the logical device 71B, is associated with the storage device 30B, which is the lower storage layer of the virtual device 70BX, and the data of the data to the migration destination storage device 4B is associated with it. The migration is complete.
  • FIG. 20 shows a read process procedure executed when the migration destination storage apparatus 4B receives a read request from the host computer 2.
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B receives the read request from the host computer 2, it starts this read processing. First, it extracts the LUN of the migration destination logical unit 72B of the read destination from the read request, and at the same time the logical unit management table 100 ( Referring to FIG. 7), the logical unit management entry 107 (FIG. 7) corresponding to the extracted LUN is specified (SP110).
  • the migration destination storage apparatus 4B refers to the logical device management table 101 (FIG. 7) and corresponds to the logical device number 109 (FIG. 7) registered in the logical unit management entry 107 identified in step SP110.
  • the logical device management entry 111 (FIG. 7) is specified (SP111).
  • the migration destination storage apparatus 4B refers to the logical device management table 101 and checks whether the read cache mode flag 114 (FIG. 7) registered in the logical device management entry 111 identified in step SP111 is set to ON. It is determined whether or not (SP112).
  • the migration destination storage apparatus 4B obtains a negative result in this determination, it proceeds to step SP115, and if it obtains a positive result, it proceeds to step SP113. Therefore, for example, in the above-described data migration processing described with reference to FIGS. 10 to 19, the read cache mode of the logical device 71B associated with the migration destination logical unit 72B is set to “off”, and the read If the read request for the migration destination logical unit 72B is received before the cache mode is set to “ON”, the process proceeds to step SP115, and the read to the migration destination logical unit 72B is performed at other timings. When the request is received, the process proceeds to step SP113.
  • the migration destination storage apparatus 4B proceeds to step SP113 as the determination result of step SP112, the migration destination storage apparatus 4B refers to the cache directory 104 to determine whether or not the directory entry 122 corresponding to the read data exists in the cache directory 104. (SP113).
  • the migration destination storage apparatus 4B reads such data from the cache memory 42B and transmits the read data to the host computer 2 that is the source of the read request (SP118). The migration destination storage apparatus 4B then ends this read process.
  • obtaining a negative result in the determination at step SP113 means that the read data is not stored in the cache memory 42B.
  • the migration destination storage apparatus 4B adds the directory entry 122 (FIG. 7) corresponding to the data in the cache directory 104 (FIG. 7) (SP114).
  • the migration destination storage apparatus 4B registers the address of the unused area in the cache memory 42B as the cache address 123 (FIG. 7) in the directory entry 122 to be added and as the data identification information 124 in response to the read request.
  • the included data identification information is registered in the directory entry 122 to be added.
  • the migration destination storage apparatus 4B proceeds to step SP115.
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B proceeds to step SP115, it refers to the logical unit management table 100 (FIG. 7) and corresponds from the virtual device number 113 registered in the logical device management entry 111 identified in step SP111.
  • the virtual device 70B is specified, and the lower storage hierarchy (corresponding to the virtual device 70B) is identified from the lower storage hierarchy identification information 118 (FIG. 7) registered in the virtual device management entry 116 corresponding to the virtual device 70B.
  • the storage device 30B or the migration source logical unit 72A) is specified. Then, the migration destination storage apparatus 4B transfers the read request received at that time to the lower storage hierarchy (SP115).
  • the migration destination storage apparatus 4B when the migration destination storage apparatus 4B receives a response (read data) transmitted from the lower storage hierarchy in response to the read request (SP116), it stores the received read data in the cache memory 42B (SP117). In step SP117, only the cache memory 42B is used as a temporary storage location of data, and the directory entry 122 related to this read data is not added to the cache directory 104 (FIG. 7).
  • FIG. 21 shows a processing procedure of write processing that is executed when the migration destination storage apparatus 4B receives a write request and write data from the host computer 2.
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B receives a write request and write data from the host computer 2, it starts the write processing shown in FIG. 21, and first extracts the LUN of the write destination logical unit 72B from the write request. Referring to the logical unit management table 100 (FIG. 7), the logical unit management entry 107 (FIG. 7) corresponding to the extracted LUN is specified (SP120).
  • the migration destination storage apparatus 4B refers to the logical device management table 101 (FIG. 7) and corresponds to the logical device number 109 (FIG. 7) registered in the logical unit management entry 107 identified in step SP120.
  • the logical device management entry 111 (FIG. 7) is specified (SP121).
  • the migration destination storage apparatus 4B refers to the logical device management table 101 and determines whether the write cache mode flag 115 (FIG. 7) registered in the logical device management entry 111 identified in step SP121 is set to ON. It is determined whether or not (SP122).
  • step SP125 When the migration destination storage apparatus 4B obtains a negative result in this determination, it proceeds to step SP125, and if it obtains a positive result, it proceeds to step SP123. Accordingly, for example, in the above-described data migration processing described with reference to FIGS. 10 to 19, the write cache mode of the logical device 71B associated with the migration destination logical unit 72B is set to “off” (step SP12 in FIG. 10). And when the write request for the migration destination logical unit 72B is received after the write cache mode is set to “ON” (see step SP15 in FIG. 10 and FIG. 18). If the process proceeds to step SP125 and a write request for the migration destination logical unit 72B is received at a timing other than this, the process proceeds to step SP123.
  • step SP123 When the migration destination storage apparatus 4B proceeds to step SP123 as a result of the determination at step SP122, it refers to the cache directory 104 (FIG. 7) and whether there is a directory entry 122 (FIG. 7) corresponding to the write data. Is determined (SP123).
  • the migration destination storage apparatus 4B adds the directory entry 122 corresponding to the write data in the cache directory 104 (SP124). At this time, the migration destination storage apparatus 4B registers the address of the unused area in the cache memory 42B in the directory entry 122 to be added as the cache address 123, and also identifies the data included in the write request as the data identification information 124. Information is registered in the directory entry 122 to be added. Then, the migration destination storage apparatus 4B proceeds to step SP125.
  • obtaining a positive result in the determination at step SP123 means that the write data before update is stored in the cache memory 42B.
  • the migration destination storage apparatus 4B overwrites the write data in the cache memory 42B with the updated write data (SP125).
  • step SP125 only the cache memory 42B is used as a temporary data storage location, and the directory entry 122 related to the write data is not added to the cache directory 104.
  • the migration destination storage apparatus 4B refers to the logical device management table 101 (FIG. 7), and the write cache mode registered in the logical device management entry 111 (FIG. 7) of the logical device 71B identified in step SP121. It is determined again whether the flag 115 (FIG. 7) is set to “ON” (SP126).
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B obtains a positive result in the determination at step SP126, it sends a write response to the effect that the write process has been completed to the host computer 2 that is the transmission source of the write request (SP129). This write process is terminated.
  • the migration destination storage apparatus 4B obtains a negative result in the determination at step SP126, it refers to the logical unit management table 100 and is registered in the logical device management entry 111 of the logical device 71B identified at step SP121.
  • the corresponding virtual device 70B is identified from the virtual device number 113, and the lower storage hierarchy identification registered in the virtual device management entry 116 (FIG. 7) corresponding to the virtual device 70B in the virtual device management table 102 (FIG. 7) From the information 118 (FIG. 7), the lower storage hierarchy (storage device 30B or migration source logical unit 72A) associated with the virtual device 70B is specified. Then, the migration destination storage apparatus 4B transfers the write request and write data received at that time to the lower storage hierarchy (SP127).
  • the migration destination storage apparatus 4B When the migration destination storage apparatus 4B receives a response (write completion notification) transmitted from the lower storage hierarchy in response to the write request (SP128), the write process is completed for the host computer 2 that is the transmission source of the write request. A write response to that effect is transmitted (SP129), and then this write processing is terminated.
  • the migration source logical unit 72A of the migration source storage apparatus 4A is mapped to the migration destination logical unit 72B of the migration destination storage apparatus 4B.
  • the host computer 2 adds a path PT2 (FIG.
  • the migration source storage Performing data migration between di device 4A and the migration destination storage apparatus 4B.
  • the migration source storage apparatus 4A does not require a special function, and data is exchanged between the host computer 2 and the storage apparatus (migration source storage apparatus 4A or migration destination storage apparatus 4B). This data migration can be performed without stopping the process.
  • reference numeral 130 denotes a computer system according to the second embodiment.
  • the computer system 130 is configured in the same manner as the computer system 1 according to the first embodiment except that a part of the data migration processing is different.
  • FIG. 22 shows the configuration of the path management entry 140 according to this embodiment.
  • the path management entry 53 of the first embodiment has a corresponding logical volume VOL (FIG. 2) set in the host computer 2.
  • the logical volume number 54 of 8) and the path numbers 55 assigned to the paths PT1 and PT2 (FIG. 8) connected to the logical volume VOL are registered, whereas the path according to the present embodiment is registered.
  • the management entry 140 the logical volume number 141 of the corresponding logical volume VOL set in the host computer 2 and the path information 142 of each path connected to the logical volume VOL are registered.
  • This path information 142 is information composed of the path numbers 143 of the paths PT1 and PT2 connected to the corresponding logical volume VOL and the path status 144 of the paths PT1 and PT2.
  • the path status 144 is information indicating the status of the corresponding paths PT1 and PT2, and takes one of the values “Active”, “Standby”, and “Unavailable”. “Active” indicates that the storage device 30B, which is the physical device to which the corresponding paths PT1 and PT2 are connected, operates normally and the storage device 30B is assigned to the logical device 71B. “Standby” indicates that the storage device 30B is operating normally, but the storage device 30B is not allocated to the logical device 71B. Further, “Unavailable” indicates that a failure has occurred in the storage device 30B and the storage device 30B is not assigned to the logical device 71B.
  • the alternate path program 131 (FIG. 2) of the host computer 2 refers to the corresponding path management entry 140 in the path management table 132 (FIG. 2) when processing a read request or write request for the logical volume VOL. From the plurality of path information 142 associated with the logical volume number 141 of the logical volume VOL, one or more whose path status 144 is “Active” is selected. Then, the alternate path program 131 sends the read request and the write request to the migration source storage apparatus 4A or the migration destination using the one or more paths PT1, PT2 identified by the path number 143 of the selected one or more path information 142. The data is transmitted to the storage device 4B.
  • the alternate path program 131 detects a failure in the paths PT1 and PT2 in which “Active” is registered as the path status 144, the alternate path program 131 changes the path status 144 of the paths PT1 and PT2 to “Unavailable”.
  • the alternate path program 131 is included in the path management entry 140 when none of the path information 142 included in a path management entry 140 has a path status 144 of “Active”.
  • One or more of the plurality of path information 142 that have the path status 144 of “Standby” are identified, and the path status 144 of the identified path information 142 is changed to “Active”.
  • This failover processing as described above is transparent to the application program 52 (FIG. 2), and when viewed from the application program 52, read requests and write requests to the storage devices (migration source storage device 4A and migration destination storage device 4B). Issuance does not stop.
  • FIG. 23 shows a processing procedure of data migration control processing executed by the logical unit migration instruction program 133 (FIG. 3) of the management computer 3 according to the second embodiment in the present embodiment.
  • the data migration control process according to the present embodiment will be described in relation to the first embodiment.
  • the logical unit migration instruction program 133 issues a standby instruction instead of the alternate path deletion instruction after issuing the alternate path addition instruction.
  • the write cache mode associated with the corresponding logical device in the migration destination storage apparatus is set to “ON”, so that the migration destination storage apparatus Until the migration of the migration source logical unit is completed, new data is also stored in the migration source logical unit. Therefore, if a failure occurs in the migration destination storage device before the data migration from the migration source storage device to the migration destination storage device is completed, data can be read and written even if the path is returned to the migration source storage device. There is a merit that there is no influence.
  • the data migration control process will be described in more detail.
  • the logical unit migration instruction program 133 is instructed to execute data migration from the migration source storage apparatus 4A to the migration destination storage apparatus 4B via the input device 23 of the management computer 3, the logical unit migration instruction program 133 is shown in FIG.
  • the data migration control process is started, and steps SP130 to SP133 are processed in the same manner as steps SP10 to SP13 of the data migration control process according to the first embodiment described above with reference to FIG.
  • the logical unit migration instruction program 133 instructs the host computer 2 to change the state of the path PT1 corresponding to the migration source logical unit 72A to the “Standby” (standby) state (hereinafter referred to as the Standby instruction). (Referred to as SP134).
  • the host computer 2 corresponds to the path PT1 in the corresponding path management entry 140 (FIG. 22) on the path management table 132 (FIG. 2) stored in the memory 11 (FIG. 1) according to this Standby instruction.
  • the path status 144 is changed to “Standby”.
  • the host computer 2 sends the Set-Target-Port-Groups command defined by the SCSI standard to the migration source storage apparatus 4A, thereby setting the path PT1 connected to the migration source logical unit 72A in the Standby state. Is notified to the migration source storage apparatus 4A.
  • the state of the path PT1 corresponding to the migration source logical unit 72A transitions to the Standby state.
  • the host computer 2 receives a response from the migration source storage apparatus 4A to this notification, the host computer 2 transmits a path state update process completion notification to the management computer 3.
  • the alternate path program 131 uses only the path PT2 corresponding to the migration destination logical unit 72B when processing the read request or write request for the logical volume VOL.
  • the alternate path program 131 since the path PT1 corresponding to the migration source logical unit 72A remains as an alternate path of the logical volume VOL, the alternate path program 131 stores the data of the application program 52 (FIG. 2). It is possible to return to the state using the path PT1 corresponding to the migration source logical unit 72A without stopping the output.
  • the alternate path program 131 continues until the path PT1 connecting the logical volume VOL and the migration source logical unit 72A is deleted in the host computer 2 in accordance with the alternate path deletion instruction issued from the management computer 3 in step SP138 described later. , It is possible to return to the state using the path PT1. For example, when the alternate path program 131 returns to the state using the path PT1, a failure occurs in the path PT2 connected to the migration destination logical unit 72B, or the system administrator uses the migration source storage apparatus 4A and the migration destination. A case where an instruction to stop data migration between the storage apparatuses 4B is input to the management computer 3 or the like can be considered.
  • the logical unit migration instruction program 133 when the logical unit migration instruction program 133 receives the path status update process completion notification, the logical unit migration instruction program 133 sets the read cache mode of the logical device 71B associated with the migration destination logical unit 72B to “ON” for the migration destination storage apparatus 4B. (Hereinafter referred to as a read cache mode on instruction) (SP135).
  • the migration destination storage apparatus 4B sets the read cache mode flag of the logical device management entry 111 (FIG. 7) corresponding to the logical device 71B in the logical device management table 101 (FIG. 7) to “ON” in accordance with this read cache mode ON instruction. Execute read cache mode ON processing to change to When the read cache mode on process is completed, the migration destination storage apparatus 4B notifies the management computer 3 of a read cache mode on process completion notification.
  • the write cache mode of the corresponding logical device 71B is not set to “ON” in step SP135.
  • the latest data that is the same as the previous logical unit 72B is stored.
  • the alternate path program 131 can return to the state using the path PT1 connected to the migration source logical unit 72A while ensuring data consistency.
  • the logical unit migration instruction program 133 When the logical unit migration instruction program 133 receives the read cache mode on process completion notification, the logical unit migration instruction program 133 performs logical processing on the migration destination storage apparatus 4B as in the first embodiment (see step SP16 and step SP17 in FIG. 10). By sequentially issuing a device creation instruction and a data copy instruction, the logical device 71B is created in the migration destination storage apparatus 4B, and the data stored in the corresponding logical device 71A in the migration source storage apparatus 4A Copy (migrate) to the logical device 71B.
  • a device creation instruction and a data copy instruction By sequentially issuing a device creation instruction and a data copy instruction, the logical device 71B is created in the migration destination storage apparatus 4B, and the data stored in the corresponding logical device 71A in the migration source storage apparatus 4A Copy (migrate) to the logical device 71B.
  • the logical unit migration instruction program 133 instructs the host computer 2 to delete the path PT1 (FIG. 8) to the migration source logical unit 72A from the alternate path of the logical volume VOL (alternate path deletion instruction). ) Is provided (SP138).
  • the host computer 2 executes an alternate path deletion process for deleting the path PT1 to the migration source logical unit 72A from the alternate path of the logical volume VOL in accordance with this alternate path deletion instruction.
  • the host computer 2 transmits an alternate path deletion process completion notification to the management computer 3.
  • the logical unit migration instruction program 133 When the logical unit migration instruction program 133 receives the replacement path deletion process completion notification, the logical unit migration instruction program 133 sets the write cache mode of the logical device 71B associated with the migration destination logical unit 72B to “on” for the migration destination storage apparatus 4B.
  • the write cache mode on instruction is given to instruct to set the value (SP139).
  • the migration destination storage apparatus 4B Upon receiving this write cache mode on instruction, the migration destination storage apparatus 4B executes a write cache mode on setting process for setting the write cache mode associated with the logical device 71B to “on”. When the migration destination storage apparatus completes the write cache mode on setting process, it transmits a write cache mode on setting process completion notification to the management computer 3.
  • the logical unit migration instruction program 133 When the logical unit migration instruction program 133 receives the write cache mode on setting process completion notification, the logical unit migration instruction program 133 sends new virtual devices 70BX respectively associated with the temporary new logical devices 71BX to the migration destination storage apparatus 4B.
  • An instruction (virtual device replacement instruction) is given to replace the corresponding virtual device 70B associated with the corresponding migration destination logical unit 72B (SP140). Note that the migration destination storage apparatus 4B that has received this virtual device replacement instruction Since the processing content is the same as the processing content described above with respect to step SP18 in FIG. 10, the description thereof is omitted here.
  • the computer system 130 similarly to the computer system 1 according to the first embodiment, between the host computer 2 and the storage device (migration source storage device 4A or migration destination storage device 4B).
  • the data migration from the migration source storage apparatus 4A to the migration destination storage apparatus 4B can be performed without stopping the transfer of data.
  • the data stored in the logical device 71A in the migration source storage apparatus 4A is copied to the logical device 71B that virtualizes the logical device 71A in the migration destination storage apparatus 4B.
  • the migration source logical unit Since the new data is also stored in 72A and the host computer 2 deletes the path PT1 connected to the migration source logical unit 72A after the data copy of the logical device 71B in the migration destination storage apparatus 4B is completed, the data Failure in migration destination logical unit 72B during copy processing When that occurred, without stopping input and output of data in the host computer 2 it can be returned to the path PT1, which is immediately connected to the migration source logical unit 72A the path.
  • the present invention is not limited to this, and the virtual devices 70A, 70B and the logical devices 71A, 71B are not necessarily required. One or both of the logical devices 71A may be omitted.
  • another intermediate storage hierarchy may be provided.
  • the data stored in the migration source logical unit 72A to the migration destination logical unit 72B it is made to correspond to one or a plurality of first intermediate storage hierarchies that associate the migration source logical unit 72A and the storage device 30A.
  • a second intermediate storage tier associated with the storage device 30B is created in the second storage device 4B, and the second storage is transferred from the migration source logical unit 72A via the first and second intermediate storage tiers.
  • the data may be copied to the storage device 30B of the device 4B, and then a part or all of the first intermediate storage hierarchy and the second intermediate storage hierarchy may be exchanged.

Abstract

 既存のストレージ装置等の構成に依存することなく、ホスト計算機及びストレージ装置間のデータ授受の停止を回避しながらストレージ装置の入れ替え作業を行い得る計算機システム及びデータ移行方法を提案する。 ホスト計算機と、第1及び第2のストレージ装置とを有する計算機システムにおいて、第2のストレージ装置が、第1のストレージ装置内の第1の論理ユニットを仮想化して第2の論理ユニットとしてホスト計算機に提供すると共に、各第1の論理ユニットの構成情報を収集し、収集した各構成情報を対応する第2の論理ユニットに設定し、ホスト計算機が、第2の論理ユニットへのパスを追加すると共に、第1の論理ユニットへのパスを削除し、第2のストレージ装置が、第1の論理ユニットに格納されたデータを第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を第2の論理ユニットと対応付けるようにした。

Description

計算機システム及びデータ移行方法
 本発明は計算機システム及びデータ移行方法に関し、特にストレージ装置間の入替え時におけるデータ移行に適用して好適なものである。
 従来、大規模なデータを取り扱う計算機システムでは、ホスト装置とは別個に設けられた大容量のストレージ装置を用いてデータを管理している。
 かかる計算機システムにおいて、既存のストレージ装置を新たなストレージ装置に入れ替える場合、既存のストレージ装置に保存されているデータを継続して利用するために、当該ストレージ装置に保存されているデータを新たなストレージ装置に移行させる必要があるが、この際、ホスト計算機及びストレージ装置間のデータの授受を止めることなくデータ移行を行い得ることが望まれる。また、既存のストレージ装置及び新たなストレージ装置間でデータ移行を行う際に、既存のストレージ装置や、ホスト計算機及びネットワークなどの既設の装置に特殊な機能が要求されない方法が望ましい。
 この場合において、例えば、下記特許文献1には、既存のストレージ装置において、論理ユニットを外部ボリュームとして設定した後、交替パスプログラムを用いてホスト計算機のアクセス先を新たなストレージ装置に移行し、その後、新たなストレージ装置において、コピー機能を用いて既存のストレージ装置が有する論理ユニットに格納されるデータを、当該新たなストレージ装置が有する論理ユニットにコピーすることによりデータを移行させる技術が開示されている。そして、この特許文献1に開示されたデータ移行方法によれば、既存のストレージ装置やネットワークの特殊な機能を利用することなく、ホスト計算機及びストレージ装置間のデータの授受を止めずに、データをストレージ装置間で移行することができる。
特開2004-220450号公報
 ところで、かかる特許文献1に開示されたデータ移行方法では、データの整合性を保つために、ホスト計算機に実装された交替パスプログラムが既存のストレージ装置へのパスと新たなストレージ装置へのパスを排他的に利用することとなる。しかしながら、ホスト計算機に実装されたオペレーティングシステムの種類によっては、交替パスプログラムがパスを排他的に利用できない場合があり、このような場合には、特許文献1に開示されたデータ移行方法を利用できない問題があった。
 一方、ホスト計算機に実装された交替パスプログラムの排他機能に依存しない他のデータ移行方法によると、既存のストレージ装置のデータ及び新たなストレージ装置のデータが並列にアクセスされる可能性がある。そのような状況でデータの整合性を保つ方法として、既存のストレージ装置及び新たなストレージ装置が互いにリモートコピーを行う方法もあるが、結果的に、既存のストレージ装置の特殊な機能を利用することとなり、既存のストレージ装置の特殊な機能に依存しないデータ移行方法はなかった。
 本発明は以上の点を考慮してなされたもので、データの授受を止めずに、既設の装置の特殊な機能を利用することなくストレージ装置間のデータ移行を行い得る計算機システム及びデータ移行方法を提案しようとするものである。
 かかる課題を解決するため本発明においては、計算機システムにおいて、ホスト計算機と、1又は複数の第1の記憶装置を有し、前記第1の記憶装置の記憶領域を第1の論理ユニットとして前記ホスト計算機に提供する第1のストレージ装置と、1又は複数の第2の記憶装置を有する第2のストレージ装置とを設け、前記第2のストレージ装置は、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記ホスト計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定し、前記ホスト計算機は、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、前記第2のストレージ装置は、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付けるようにした。
 また本発明は、ホスト計算機と、1又は複数の第1の記憶装置を有し、前記第1の記憶装置の記憶領域を第1の論理ユニットとして前記ホスト計算機に提供する第1のストレージ装置と、1又は複数の第2の記憶装置を有する第2のストレージ装置とを有する計算機システムにおいて第1のストレージ装置から第2のストレージ装置にデータを移行するデータ移行方法において、前記第2のストレージ装置が、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記ホスト計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定する第1のステップと、前記ホスト計算機が、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、前記第2のストレージ装置が、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付ける第2のステップとを設けるようにした。
 本発明によれば、既設の装置の特殊な機能を利用することなく、データの授受を止めずに、ストレージ装置間のデータ移行を行うことができる。
第1及び第2の実施の形態による計算機システムの全体構成を示すブロック図である。 ホスト計算機のメモリにおけるデータ構成を概念的に示す概念図である。 管理計算機のメモリにおけるデータ構成を概念的に示す概念図である。 移行元ストレージ装置における記憶領域の階層構造の説明に供する概念図である。 移行元ストレージ装置のメモリにおけるデータ構成を概念的に示す概念図である。 移行先ストレージ装置における記憶領域の階層構造の説明に供する概念図である。 移行先ストレージ装置のメモリにおけるデータ構成を概念的に示す概念図である。 アクセス先移行処理の説明に供する概念図である。 データコピー処理の説明に供する概念図である。 データ移行制御処理の処理手順を示すフローチャートである。 外部ボリューム設定処理の処理手順を示すフローチャートである。 Inquiry情報設定処理の処理手順を示すフローチャートである。 キャッシュモードオフ処理の処理手順を示すフローチャートである。 交替パス追加処理の処理手順を示すフローチャートである。 交替パス削除処理の処理手順を示すフローチャート図である。 キャッシュモードオン設定処理の処理手順を示すフローチャートである。 論理デバイス作成処理の処理手順を示すフローチャートである。 論理デバイスコピー処理の処理手順を示すフローチャートである。 仮想デバイス入替え処理の処理手順を示すフローチャートである。 リード処理の処理手順を示すフローチャートである。 ライト処理の処理手順を示すフローチャートである。 第2の実施の形態によるパス管理エントリの説明に供する概念図である。 第2の実施の形態によるデータ移行制御処理の処理手順を示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態
(1-1)計算機システムの構成
 図1において、1は全体として本実施の形態による計算機システムを示す。本計算機システム1は、ホスト計算機2、管理計算機3、2台のストレージ装置4A,4B、SAN(Storage Area Network)5及びLAN(Local Area Network)6を備えて構成される。そしてホスト計算機2は、SAN(Storage Area Network)5を介して各ストレージ装置4A,4Bとそれぞれ接続され、管理計算機3は、LAN(Local Area Network)6を介してホスト計算機2及び各ストレージ装置4A,4Bとそれぞれ接続されている。
 ホスト計算機2は、CPU10、メモリ11、記憶装置12、入力装置13、表示装置14、複数のポート15及びインタフェース制御部16を備えて構成される。CPU10は、ホスト計算機2全体の動作制御を司るプロセッサであり、記憶装置12に格納された各種プログラムをメモリ11に読み出して実行する。メモリ11は、ホスト計算機2の起動時にCPU10により記憶装置12から読み出された各種プログラムを記憶するために用いられるほか、CPU10のワークメモリとしても用いられる。
 記憶装置12は、例えば、ハードディスク装置又はSSD(Solid State Drive)から構成され、各種プログラムや制御データを記憶保持するために用いられる。入力装置13は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォンなどから構成され、表示装置14は、例えば液晶ディスプレイなどから構成される。各ポート15は、ホスト計算機2をSAN5に接続するためのアダプタであり、インタフェース制御部16は、ホスト計算機2をLAN6に接続するためのアダプタである。
 管理計算機3は、ホスト計算機2及び各ストレージ装置4A,4Bを管理するためのコンピュータ装置であり、CPU20、メモリ21、記憶装置22、入力装置23、表示装置24及びインタフェース制御部25を備えて構成される。CPU20は、管理計算機3全体の動作制御を司るプロセッサであり、記憶装置22に格納された各種プログラムをメモリ21に読み出して実行する。メモリ21は、管理計算機3の起動時にCPU20により記憶装置22から読み出された各種プログラムを記憶するために用いられるほか、CPU20のワークメモリとしても用いられる。
 記憶装置22は、例えばハードディスク装置又はSSDから構成され、各種プログラムや制御データを記憶保持するために用いられる。入力装置23は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォンなどから構成され、表示装置24は、例えば液晶ディスプレイなどから構成される。インタフェース制御部25は、管理計算機3をLAN6に接続するためのアダプタである。
 ストレージ装置4A,4Bは、複数の記憶装置30A,30Bと、記憶装置30A,30Bに対するデータの入出力を制御するコントロール部31A,31Bとから構成される。
 記憶装置30A,30Bは、例えばSCSI(Small Computer System Interface)ディスク等の高価なディスクや、SATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクなどから構成される。複数の記憶装置30A,30Bにより1つのRAID(Redundant Array of Inexpensive Disks)グループが構成され、1又は複数のRAIDグループが提供する物理的な記憶領域上に、1又は複数の論理ユニットが設定される。そしてホスト計算機2からのデータは、この論理ユニット内に所定大きさのブロックを単位として格納される。
 コントロール部31は、CPU40A,40B、メモリ41A,41B、キャッシュメモリ42A,42B、複数のホスト側ポート43A,43B、複数の記憶装置側ポート44A,44B及びインタフェース制御部45A,45Bを備えて構成される。CPU40A,40Bは、ストレージ装置4A,4B全体の動作制御を司るプロセッサであり、記憶装置30A,30Bに格納された各種プログラムをメモリ41A,41Bに読み出して実行する。メモリ41A,41Bは、ストレージ装置4A,4Bの起動時にCPU40A,40Bにより特定の記憶装置30A,30Bから読み出された各種プログラムを記憶するために用いられるほか、CPU40A,40Bのワークメモリとしても用いられる。
 キャッシュメモリ42A,42Bは、半導体メモリから構成され、主としてホスト計算機2と記憶装置30A,30Bの間で授受されるデータを一時的に格納するために用いられる。ホスト側ポート43A,43Bは、ストレージ装置4A,4BをSAN5に接続するためのアダプタであり、記憶装置側ポート44A,44Bは、記憶装置30A,30Bに対するアダプタである。またインタフェース制御部45A,45Bは、ストレージ装置4A,4BをLAN6に接続するためのアダプタである。
 なお、本実施の形態の場合、2台のストレージ装置4A,4Bのうちの一方は、現在使用している既存のストレージ装置(以下、これを移行元ストレージ装置4Aと呼ぶ)であり、他方は、移行元ストレージ装置4Aに代えて導入される新たなストレージ装置(以下、これを移行先ストレージ装置4Bと呼ぶ)である。従って、本計算機システム1の場合、後述の方法により移行元ストレージ装置4Aに格納されたデータが移行先ストレージ装置4Bに移行され、その後、移行元ストレージ装置4Aが撤去されることとなる。
 また本実施の形態の場合、移行先ストレージ装置4Bには、外部ストレージ装置(ここでは移行元ストレージ装置4A)内の論理ユニットを仮想化してホスト計算機2に提供する、いわゆる外部接続機能が搭載されている。
 そして移行先ストレージ装置4Bは、仮想化した移行元ストレージ装置4A内の論理ユニットに対するリード要求を受信した場合、当該リード要求を移行元ストレージ装置4Aに転送することにより、要求されたデータを移行元ストレージ装置4Aから読み出し、読み出したデータをホスト計算機2に転送する。また移行先ストレージ装置4Bは、かかる論理ユニットを対象とするライト要求を受信した場合、当該ライト要求及びライト対象のデータを移行元ストレージ装置4Aに転送することにより、当該データをその論理ボリューム内の対応するアドレス位置に書き込ませる。
 図2は、ホスト計算機2のメモリ11におけるデータ構成を示す。この図2からも明らかなように、ホスト計算機2のメモリ11には、パス管理テーブル50、交替パスプログラム51及び複数のアプリケーションプログラム52が格納される。
 パス管理テーブル50は、ホスト計算機2が記憶領域として認識している論理ボリュームに接続されたパスを管理するためのテーブルであり、個々の論理ボリュームにそれぞれ対応させて設けられた1以上のパス管理エントリ53から構成される。
 パス管理エントリ53には、対応する論理ボリュームの識別情報である論理ボリューム番号54と、後述のようにその論理ボリュームと接続されている各パスの識別情報であるパス番号55とが登録される。従って、パスが冗長構成により複数設定された場合、パス管理エントリ53には複数のパス番号が登録されることになる。なお、パス管理テーブル50によって管理されるパスは、異なるストレージ装置の論理ユニットへのパスでも良い。ただし、それらの論理ユニットは、SCSI規格で定められたInquiry要求による問合せに対して、同じ応答を返す必要がある。これは、インタフェースの異なるストレージ装置では、インタフェースコマンドに対して整合性がとれずアクセスが拒否されてしまうといった問題が起きるおそれがあるからである。
 交替パスプログラム51は、パス管理テーブル50に登録された各種情報に基づいて、移行元ストレージ装置4A又は移行先ストレージ装置4Bに入出力要求を発行するプログラムである。この交替パスプログラム51により、移行元ストレージ装置4A又は移行先ストレージ装置4Bの論理ユニットをアプリケーションプログラム52に提供することができる。
 なお交替パスプログラム51は、移行元ストレージ装置4A又は移行先ストレージ装置4Bに入出力要求を発行する際、パス管理テーブル50を参照して、対応する論理ボリュームに対応付けられた複数のパスの中から1つ以上のパスを選択し、選択したパスを介して移行元ストレージ装置4A又は移行先ストレージ装置4Bに対して入出力要求を発行する。
 アプリケーションプログラム52は、ユーザの業務に応じた処理を実行するプログラムであり、自己に割り当てられた論理ボリュームを介して、移行元ストレージ装置4A又は移行先ストレージ装置4B内の当該論理ボリュームと対応付けられた(その論理ボリュームとパスを介して接続された)論理ユニットに必要なデータを読み書きする。
 図3は、管理計算機3のメモリ21におけるデータ構成を示す。この図3からも明らかなように、管理計算機3のメモリ21には、論理ユニット移行指示プログラム60が格納される。論理ユニット移行指示プログラム60は、移行元ストレージ装置4A及び移行先ストレージ装置4B間のデータ移行を制御するプログラムであり、移行元ストレージ装置4A及び移行先ストレージ装置4B間のデータ移行時にホスト計算機2、移行元ストレージ装置4A及び移行先ストレージ装置4Bに対して必要な指示を与える。
 図4は、移行元ストレージ装置4Aにおける記憶領域の階層構造を示す。移行元ストレージ装置4Aは、記憶装置30Aが提供する記憶領域を論理ユニット(以下、これを移行元論理ユニットと呼ぶ)72Aとしてホスト計算機2に提供する。この場合、記憶装置30A及び移行元論理ユニット72A間には、記憶装置30A及び移行元論理ユニット72Aを対応付けるための複数の中間記憶階層が設けられる。中間記憶階層には、例えば仮想デバイス70A及び論理デバイス71Aを含めることができる。
 仮想デバイス70Aは、下位記憶階層である記憶装置30Aと、上位記憶階層である論理デバイス71Aとを接続する中間記憶階層である。仮想デバイス70Aは、RAIDグループを構成する各記憶装置30Aが提供する記憶領域上に定義される。論理デバイス71Aは、下位記憶階層である仮想デバイス70Aと、上位記憶階層である移行元論理ユニット72Aとを接続する中間記憶階層であり、1若しくは複数の仮想デバイス70Aの記憶領域の全部若しくは一部を集合してなる記憶領域、又は仮想デバイス70Aの記憶領域の一部を抜き出してなる記憶領域である。
 図5は、移行元ストレージ装置4Aのメモリ41Aにおけるデータ構成を示す。この図5からも明らかなように、移行元ストレージ装置4Aのメモリ41Aには、記憶階層管理プログラム84と、論理ユニット管理テーブル80、論理デバイス管理テーブル81及び仮想デバイス管理テーブル82とが格納される。また、移行元ストレージ装置4Aのメモリ41Aには、当該移行元ストレージ装置4A内のキャッシュメモリ42Aに一時的に格納されたデータを管理するためのキャッシュディレクトリ83も格納される。
 記憶階層管理プログラム84は、移行元ストレージ装置4Aにおける下位記憶装置及び上位記憶装置間の対応関係を管理するためのプログラムであり、論理ユニット管理テーブル80、論理デバイス管理テーブル81及び仮想デバイス管理テーブル82に格納された各種情報に基づいて後述する各種処理を実行する。
 論理ユニット管理テーブル80は、記憶階層管理プログラム84が移行元ストレージ装置4A内に設定された移行元論理ユニット72Aを管理するために利用するテーブルであり、個々の移行元論理ユニット72Aにそれぞれ対応させて設けられた1つ以上の論理ユニット管理エントリ85から構成される。
 論理ユニット管理エントリ85には、対応する移行元論理ユニット72Aの識別情報であるLUN(Logical Unit Number)86と、その移行元論理ユニット72Aを構成する論理デバイス71A(図4)の識別情報である論理デバイス番号87と、その移行元論理ユニット72Aの実装状態及び準備状態などの構成情報を含むInquiry情報88とが登録される。Inquiry情報88には、移行元論理ユニット72Aの実装状態及び準備状態などの情報に加えて、例えば、ベンダ識別子及び製品識別子などの情報をも含ませることができる。
 論理デバイス管理テーブル81は、移行元ストレージ装置4A内に設定された論理デバイス71Aを管理するためのテーブルであり、移行元ストレージ装置4A内の個々の論理デバイス71Aにそれぞれ対応させて設けられた1つ以上の論理デバイス管理エントリ90から構成される。論理デバイス管理エントリ90には、対応する論理デバイス71Aの論理デバイス番号91と、その論理デバイス71Aを構成する仮想デバイス70A(図4)の識別情報である仮想デバイス番号92とが登録される。
 仮想デバイス管理テーブル82は、移行元ストレージ装置4A内に設定された仮想デバイス70Aを管理するためのテーブルであり、移行元ストレージ装置4A内の個々の仮想デバイス70Aにそれぞれ対応させて設けられた1つ以上の仮想デバイス管理エントリ93から構成される。仮想デバイス管理エントリ93には、対応する仮想デバイス70Aの仮想デバイス番号と、その仮想デバイス70Aに記憶領域を提供する各記憶装置30Aの識別情報である記憶装置番号95とが登録される。
 キャッシュディレクトリ83は、キャッシュメモリ42A(図1)に一時的に格納されているデータを管理するための情報であり、キャッシュメモリ42Aに格納された個々のデータにそれぞれ対応させて設けられた1つ以上のディレクトリエントリ96から構成される。ディレクトリエントリ96には、キャッシュメモリ42Aに格納されている対応するデータのキャッシュアドレス97と、データ識別情報98とが登録される。キャッシュアドレス97は、キャッシュメモリ42Aにおける対応するデータが格納されている記憶領域の先頭アドレスを表す。またデータ識別情報98は、かかるデータの識別情報であり、例えば、LUNとLBA(Logical Block Address)の組合せより生成される。
 図6は、移行先ストレージ装置4Bにおける記憶領域の階層構造を示す。移行先ストレージ装置4Bは、上述のように外部接続機能を有し、記憶装置30Aが提供する記憶領域又は外部接続された移行元ストレージ装置4A内の移行元論理ユニット72Aを自ストレージ装置内の論理ユニット(以下、これを移行先論理ユニットと呼ぶ)72Bとしてホスト計算機2に提供する。この場合、記憶装置30B又は移行元論理ユニット72Aと、移行先論理ユニット72Bとの間には、記憶装置30B又は移行元論理ユニット72Aと、移行先論理ユニット72Bとを対応付けるための複数の中間記憶階層が設けられる。中間記憶階層には、例えば仮想デバイス70B及び論理デバイス71Bを含めることができるが、これら仮想デバイス70B及び論理デバイス71Bは必ずしも必須ではなく、仮想デバイス70B及び論理デバイス71Bの一方又は両方を省略しても良い。
 仮想デバイス70Bは、下位記憶階層である記憶装置30B又は移行元論理ユニット72Aと、上位記憶階層である論理デバイス71Bとを接続する中間記憶階層である。下位記憶階層が記憶装置30Bである場合は、RAIDグループを構成する各記憶装置30Bが提供する記憶領域上に仮想デバイス70Bが定義される。一方、下位記憶階層が移行元論理ユニット72Aである場合は、仮想デバイス70Bは、ホスト計算機2からのリード要求又はライト要求を移行元ストレージ装置4Aに転送して、移行元ストレージ装置4Aに対してデータの読み書きを行うことにより、移行元論理ユニット72Aをあたかも移行先ストレージ装置4B内の論理ユニット(移行先論理ユニット72B)であるかのごとく仮想化する。
 論理デバイス71Bは、下位記憶階層である仮想デバイス70Bと、上位記憶階層である移行先論理ユニット72Bとを接続する中間記憶階層であり、1又は複数の仮想デバイス70Bの記憶領域の全部又は一部を集合してなる記憶領域、又は仮想デバイス70Bの記憶領域の一部を抜き出してなる記憶領域から構成される。
 図7は、移行先ストレージ装置4Bのメモリ41Bにおけるデータ構成を示す。この図7からも明らかなように、移行先ストレージ装置4Bのメモリ41Bには、記憶階層管理プログラム105及び論理デバイスコピープログラム106と、論理ユニット管理テーブル100、論理デバイス管理テーブル101、仮想デバイス管理テーブル102及び論理デバイスコピー管理テーブル103とが格納される。また、移行先ストレージ装置4Bのメモリ41Bには、当該移行先ストレージ装置4B内のキャッシュメモリ42B(図1)に一時的に格納されたデータを管理するためのキャッシュディレクトリ104も格納される。
 記憶階層管理プログラム105は、移行先ストレージ装置4Bにおける下位記憶装置と上位記憶装置間のつながりを管理するためのプログラムであり、図5について上述した移行元ストレージ装置4Aの記憶階層管理プログラム84と同様の機能を有する。また論理デバイスコピープログラム106は、移行元ストレージ装置4Aから移行先ストレージ装置4Bへのデータ移行を制御するためのプログラムである。移行先ストレージ装置4Bは、この論理デバイスコピープログラム106に基づいて、移行元ストレージ装置4Aの論理デバイス71Aに格納されているデータを移行先ストレージ装置4B内の対応する論理デバイス71Bにコピーする。
 論理ユニット管理テーブル100は、記憶階層管理プログラム105が移行先ストレージ装置4B内に設定された移行先論理ユニット72Bを管理するために利用するテーブルである。この論理ユニット管理テーブル100は、図5について上述した移行元ストレージ装置4Aの論理ユニット管理テーブル80と同様の構成を有するものであるため、ここでの説明は省略する。
 論理デバイス管理テーブル101は、移行先ストレージ装置4B内に設定された論理デバイス71Bを管理するためのテーブルであり、個々の論理デバイス71Bにそれぞれ対応させて設けられた1つ以上の論理デバイス管理エントリ111から構成される。論理デバイス管理エントリ111には、対応する論理デバイス71Bの論理デバイス番号112と、その論理デバイス71Bを構成する仮想デバイス70Bの仮想デバイス番号113とが登録される。また論理デバイス管理エントリ111には、対応する論理デバイス71Bを対象とするリードキャッシュモードフラグ114及びライトキャッシュモードフラグ115も登録される。
 リードキャッシュモードフラグ114は、対応する論理デバイス71Bにリードキャッシュモードが設定されているか否かを表すフラグであり、ライトキャッシュモードフラグ115は、対応する論理デバイスにライトキャッシュモードが設定されているか否かを表すフラグである。リードキャッシュモードフラグ114及びライトキャッシュモードフラグ115は、いずれも「オン」又は「オフ」の値をとる。
 リードキャッシュモードフラグ114が「オン」である場合は、リードキャッシュモードが「オン」に設定されていることを表す。この場合、ホスト計算機2からのリード要求を処理する際にリードデータがキャッシュメモリ42Bにおいて一時的に保存される。またリードキャッシュモードフラグ114が「オフ」である場合は、リードキャッシュモードが「オフ」に設定されていることを表す。この場合、リードデータのキャッシュメモリ42Bにおける一時的な保存は行われない。
 同様に、ライトキャッシュモードフラグ115が「オン」である場合は、ライトキャッシュモードが「オン」に設定されていることを表す。この場合、ホスト計算機2からのライト要求を処理する際にライトデータがキャッシュメモリ42Aにおいて一時的に保存される。またライトキャッシュモードフラグ115が「オフ」である場合は、ライトキャッシュモードが「オフ」に設定されていることを表す。この場合、ライトデータのキャッシュメモリ42Bにおける一時的な保存は行われない。
 仮想デバイス管理テーブル102は、移行元ストレージ装置4A内の仮想デバイス70Bを管理するためのテーブルであり、移行元ストレージ装置4A内の個々の仮想デバイス70Bにそれぞれ対応させて設けられた1つ以上の仮想デバイス管理エントリ116から構成される。仮想デバイス管理エントリ116には、対応する仮想デバイス70Bの仮想デバイス番号117と、その仮想デバイス70Bと対応付けられた下位記憶装置の識別情報である下位記憶階層識別情報118とが登録される。この場合において、仮想デバイス70Bと対応付けられた下位記憶装置が記憶装置30Bであるときには、下位記憶階層識別情報118として、その記憶装置30Bの識別情報が登録され、当該下位記憶装置が移行元論理ユニット72Aである場合には、下位記憶階層識別情報118として、その移行元論理ユニット72Aのネットワークアドレス(ファイバチャネルアドレス)及びLUNが登録される。
 論理デバイスコピー管理テーブル103は、論理デバイスコピープログラム106が、移行元ストレージ装置4A及び移行先ストレージ装置4B間のデータコピー(データ移行)の進捗状態を管理するためのテーブルであり、論理デバイス71Bに格納された各データにそれぞれ対応させて設けられた1つ以上の論理デバイスコピー管理エントリ119から構成される。
 論理デバイスコピー管理エントリ119には、対応するデータの識別情報120と、そのデータの更新状態を表す更新状態情報121とが登録される。
 キャッシュディレクトリ104は、キャッシュメモリ42Bに一時的に保存されているデータを管理するための情報である。このキャッシュディレクトリ104は、図5について上述した移行元ストレージ装置4Aのキャッシュディレクトリ83と同様の構成を有するものであるため、ここでの説明は省略する。
(1-2)本計算機システムにおけるデータ移行処理
(1-2-1)本計算機システムにおけるデータ移行処理の概要
 次に、かかる計算機システム1において、移行元ストレージ装置4Aを移行先ストレージ装置4Bに入れ替える際に実行される、移行元ストレージ装置4Aに格納されているデータを移行先ストレージ装置4Bに移行させるデータ移行処理の概要について説明する。
 本実施の形態によるデータ移行処理は、ホスト計算機2のアクセス先を移行元ストレージ装置4A内の移行元論理ユニット72Aから移行先ストレージ装置4B内の移行先論理ユニット72Bに移行させるアクセス先移行処理と、移行元ストレージ装置4Aの移行元論理ユニット72Aに格納されているデータを移行先ストレージ装置4Bの対応する移行先論理ユニット72Bにコピーするデータコピー処理との2つのステップからなる。
 図8は、かかるアクセス先移行処理の流れを概念的に示す。このアクセス先移行処理は、管理計算機3から移行先ストレージ装置4B及びホスト計算機2にそれぞれ与えられる指示に従って、移行先ストレージ装置4B及びホスト計算機2がそれぞれ必要な処理を実行することにより行われる。
 実際上、移行先ストレージ装置4Bは、管理計算機3から与えられる指示に従って、まず、ホスト計算機2の論理ボリュームVOLの対応先を移行元論理ユニット72Aから移行先論理ユニット72Bに切り替えるための準備を行う。具体的には、移行先ストレージ装置4Bは、移行元論理ユニット72Aを、外部ボリュームとして移行先論理ユニット72Bにマッピングする(SP1)。この処理により、移行元論理ユニット72Aが移行先論理ユニット72Bとして仮想化され、ホスト計算機2が移行先ストレージ装置4Bを介して移行元論理ユニット72Aにデータを読み書きできるようになる。
 次いで、移行先ストレージ装置4Bは、移行元ストレージ装置4Aに対してInquiry要求を発行することにより、かかる移行元論理ユニットのInquiry情報を取得し、取得したInquiry情報を、その移行元論理ユニット72Aをマッピングしている移行先論理ユニット72BのInquiry情報として設定する(SP2)。
 このステップSP2の処理によって、その後、後述のようにホスト計算機2が論理ボリュームVOLに関連するパスとして移行先論理ユニット72BへのパスPT2を追加したときに、移行元論理ユニット72AへのパスPT1と、移行先論理ユニット72BへのパスPT2とを、同じ論理ボリュームVOLの交替パスとしてホスト計算機2に認識させることが可能となる。
 また、移行元論理ユニット72AのInquiry情報を移行先論理ユニット72BのInquiry情報に設定することによって、その後、後述のようにホスト計算機2が論理ボリュームVOLから移行元論理ユニット72AへのパスPT1を削除した場合に、かかる論理ボリュームVOLに対するリード要求及びライト要求がすべて移行先ストレージ装置4Bに送信され、このリード要求及びライト要求に対するリード処理及びライト処理が移行先ストレージ装置4Bにより実行されるようになる。この際、ホスト計算機2は、依然としてリード要求及びライト要求を移行元ストレージ装置4Aに発行していると認識するため、ホスト計算機2におけるデータ入出力処理が停止することはない。
 この後、管理計算機3は、ホスト計算機2に対して、論理ボリュームVOLの交替パスに移行先論理ユニット72BへのパスPT2を追加し、論理ボリュームVOLの交替パスから移行元論理ユニット72AへのパスPT1を削除するよう指示を与える。この処理によって、データの授受を止めることなく、論理ボリュームVOLに関連付けられている論理ユニットを移行元論理ユニット72Aから移行先論理ユニット72Bに移行することができる。
 以上までの処理により、ホスト計算機2のアクセス先を移行元論理ユニット72Aから移行先論理ユニット72Bに切り替えることができる。しかしながら、このままでは、ホスト計算機2において論理ボリュームVOLから移行先論理ユニット72BへのパスPT2を追加した後、論理ボリュームVOLから移行元論理ユニット72AまでのパスPT1を削除するまでの間にホスト計算機2からのリード要求やライト要求が移行先ストレージ装置4Bに対して与えられた場合に、移行元ストレージ装置4A及び移行先ストレージ装置4B間におけるデータの整合性が保てない。
 これは、移行先ストレージ装置4Bにおいて、論理デバイス71Bに対応付けられた論理デバイス71Bのリードキャッシュモード及びライトキャッシュモードが「オン」に設定されていると、ホスト計算機2からのリード要求又はライト要求に対して、移行先ストレージ装置4Bが、キャッシュメモリ42Bに保存されている古いデータで応答してしまう可能性があるからである。
 すなわち、ホスト計算機2が論理ボリュームVOLから論理ユニットへのパスとして移行先論理ユニット72BへのパスPT2を追加した場合、ホスト計算機2は、移行元論理ユニット72AへのパスPT1及び移行先論理ユニット72BへのパスPT2のいずれか一方を利用して、論理ボリュームVOLと対応付けられた移行元論理ユニット72Aを対象とするリード要求及びライト要求を発行することになる。
 このため、例えばホスト計算機2が、移行元論理ユニット72AへのパスPT1を介して移行元論理ユニット72Aに格納されているデータを更新した後、移行先論理ユニット72BへのパスPT2を介して移行先ストレージ装置4Bにそのデータのリード要求を発行した場合において、移行先ストレージ装置4B内の対応する論理デバイス71Bのリードキャッシュモードが「オン」に設定されており、かつ、移行先ストレージ装置4Bのキャッシュメモリ42Bにそのデータの更新前のデータが存在している場合には、かかる更新前のデータが移行先ストレージ装置4Bのキャッシュメモリ42Bから読み出されてホスト計算機2に送信されてしまうことになる。
 また、移行先ストレージ装置4B内の対応する論理デバイス71Bのライトキャッシュモードが「オン」に設定されており、さらにホスト計算機2が移行先論理ユニット72BへのパスPT2を介して移行先ストレージ装置4Bにライト要求及びライトデータを送信した場合、ライトデータは移行先ストレージ装置4Bのキャッシュメモリ42Bに格納され、その後、移行元ストレージ装置4Aに転送される。このためかかるライトデータが移行先ストレージ装置4Bから移行元ストレージ装置4Aに転送されるまでの間にホスト計算機2から移行元論理ユニット72AへのパスPT1を介して移行元ストレージ装置4Aに対してそのデータのリード要求が送信された場合に、更新前のデータが移行元ストレージ装置4Aから読み出されてホスト計算機2に送信されてしまうことになる。
 そこで、本計算機システム1の場合、管理計算機3は、論理ボリュームVOLの交替パスとして移行先論理ユニット72BへのパスPT2を追加するようホスト計算機2に指示を与える前に、対応する論理デバイス71Bのリードキャッシュモード及びライトキャッシュモードを共に「オフ」に設定するよう移行先ストレージ装置4Bに指示を与える。これによって、移行元ストレージ装置4A及び移行先ストレージ装置4B間におけるデータの整合性を担保することができる。
 一方、図9は、データ移行処理のうちのデータコピー処理の流れを概念的に示している。このデータコピー処理は、管理計算機3から移行先ストレージ装置4Bに与えられる指示に従って移行先ストレージ装置4Bが必要な処理を実行することにより行われる。
 実際上、移行先ストレージ装置4Bは、管理計算機3からの指示に従って、記憶装置30Bを対応付けた新たな仮想デバイス70BXを作成すると共に、当該新たな仮想デバイス70BXを対応付けた新たな論理デバイス71BXを作成する。
 次いで、移行先ストレージ装置4Bは、論理デバイス71Bから新たな論理デバイス71BXへのデータコピーを行い、この後、仮想デバイス70Bと新たな仮想デバイス70BXとを入れ替えることによって、移行先論理ユニット72Bと記憶装置30Bとを対応付ける。
 以上までの処理により、移行元ストレージ装置4Aの論理デバイス71Aに格納されているデータが移行先ストレージ装置4Bの記憶装置30Bに移行され、この後、かかるデータの読み書きが移行先論理ユニット72B、新たな論理デバイス71BX及び新たな仮想デバイス70BXを介して移行先ストレージ装置4Bの記憶装置30Bに対して行われることとなる。
(1-2-2)各プログラムの具体的な処理
 次に、図10から図21を参照して、本実施の形態によるデータ移行処理に関する各種処理の処理内容をより詳細に説明する。なお、以下においては、各種処理の処理主体を「プログラム」として説明するが、実際上は、その「プログラム」に基づいてホスト計算機2、管理計算機3、移行元ストレージ装置4A又は移行先ストレージ装置4BのCPU10,20,40A,40Bがその処理を実行することは言うまでもない。
(1-2-2-1)データ移行制御処理
 図10は、上述した本実施の形態によるデータ移行処理に関連して管理計算機3のメモリ21に格納されている論理ユニット移行指示プログラム60(図3)により実行されるデータ移行制御処理の処理手順を示す。
 論理ユニット移行指示プログラム60は、管理計算機3の入力装置23を介してシステム管理者により移行元ストレージ装置4Aから移行先ストレージ装置4Bへのデータ移行の実行を指示されるとこの図10に示すデータ移行制御処理を開始し、まず、移行先ストレージ装置4Bに対して、システム管理者により指定された1又は複数の移行元論理ユニット72Aを、それぞれシステム管理者によりそれぞれ指定された異なる移行先論理ユニット72Bに外部ボリュームとしてマッピングするよう指示(以下、これを外部ボリューム設定指示と呼ぶ)を与える(SP10)。
 かくして、移行先ストレージ装置4Bは、この外部ボリューム設定指示に従って、システム管理者により指定された各移行元論理ユニット72Aを、それぞれシステム管理者によりそれぞれ指定された移行先論理ユニット72Bに外部ボリュームとしてマッピングする外部ボリューム設定処理を実行する。また移行先ストレージ装置4Bは、この外部ボリューム設定処理が完了すると、外部ボリューム設定処理完了通知を管理計算機3に送信する。
 管理計算機3の論理ユニット移行指示プログラム60は、かかる外部ボリューム設定処理完了通知を受信すると、移行先ストレージ装置4Bに対して、各移行元論理ユニット72AのInquiry情報をそれぞれ対応する移行先論理ユニット72BのInquiry情報として設定するよう指示(以下、これをInquiry情報設定指示と呼ぶ)を与える(SP11)。
 かくして移行先ストレージ装置4Bは、このInquiry情報設定指示に従って、各移行元論理ユニット72AのInquiry情報を対応する移行先論理ユニット72BのInquiry情報として設定するInquiry情報設定処理を実行する。また移行先ストレージ装置4Bは、このInquiry情報設定処理が完了すると、Inquiry情報設定処理完了通知を管理計算機3に送信する。
 そして管理計算機3の論理ユニット移行指示プログラム60は、かかるInquiry情報設定処理完了通知を受信すると、移行先ストレージ装置4Bに対して、各移行先論理ユニット72Bのリードキャッシュモード及びライトキャッシュモードを共に「オフ」にそれぞれ設定するよう指示(以下、これをキャッシュモードオフ指示と呼ぶ)を与える(SP12)。
 かくして移行先ストレージ装置4Bは、このキャッシュモードオフ指示に従って、各移行先論理ユニット72Bのリードキャッシュモード及びライトキャッシュモードを共にオフにそれぞれ設定するキャッシュモードオフ処理を実行する。また移行先ストレージ装置4Bは、このキャッシュモードオフ処理が完了すると、キャッシュモードオフ処理完了通知を管理計算機3に送信する。
 管理計算機3の論理ユニット移行指示プログラム60は、かかるキャッシュモードオフ処理完了通知を受信すると、ホスト計算機2に対して、各移行先論理ユニット72BへのパスPT2(図8)をそれぞれ対応する論理ボリュームVOLの交替パスとして追加するよう指示(以下、これを交替パス追加指示と呼ぶ)を与える(SP13)。
 かくしてホスト計算機2は、この交替パス追加指示に従って、各移行先論理ユニット72BへのパスPT2をそれぞれ対応する論理ボリュームVOLの交替パスとして追加する交替パス追加処理を実行する。またホスト計算機2は、この交替パス追加処理が完了すると、交替パス追加処理完了通知を管理計算機3に送信する。
 以上のような交替パスの追加が完了すると、ホスト計算機2の交替パスプログラム51は、論理ボリュームVOLへのリード要求及びライト要求を移行元論理ユニット72Aだけでなく、対応する移行先論理ユニット72Bに対しても発行できるようになる。具体的には、交替パスプログラム51は、論理ボリュームVOLと対応付けられているパス管理エントリ53(図2)に含まれる複数のパス番号の中から1つのパス番号をランダムに選択し、選択したパス番号のパスPT1又はパスPT2を用いてリード要求及びライト要求を発行するようになる。
 このとき、各移行先論理ユニット72Bとそれぞれ対応付けられている各論理デバイス71Bのリードキャッシュモード及びライトキャッシュモードが共にオフになっているため、移行元ストレージ装置4Aの論理デバイス71Aと、移行先ストレージ装置4Bの論理デバイス71Bとの間のデータの整合性は保たれる。
 一方、管理計算機3の論理ユニット移行指示プログラム60は、かかる交替パス追加処理完了通知を受信すると、ホスト計算機2に対して、論理ボリュームVOLの交替パスの中から移行元論理ユニット72AへのパスPT1(図8)を削除するよう指示(以下、これを交替パス削除指示と呼ぶ)を与える(SP14)。
 かくしてホスト計算機2は、この交替パス削除指示に従って、移行元論理ユニット72AへのパスPT1を論理ボリュームVOLの交替パスから削除する交替パス削除処理を実行する。またホスト計算機2は、この交替パス削除処理が完了すると、交替パス削除処理完了通知を管理計算機3に送信する。
 そして管理計算機3の論理ユニット移行指示プログラム60は、交換パス削除処理完了通知を受信すると、移行先ストレージ装置4Bに対して、その移行先論理ユニット72Bと対応付けられた論理デバイス71Bのリードキャッシュモード及びライトキャッシュモードを共に「オン」に設定するよう指示(以下、これをキャッシュモードオン指示と呼ぶ)を与える(SP15)。
 かくして移行先ストレージ装置4Bは、このキャッシュモードオン指示に従って、移行先論理ユニット72Bと対応付けられた各論理デバイス71Bのリードキャッシュモード及びライトキャッシュモードを共に「オン」に設定するキャッシュモードオン処理を実行する。また移行先ストレージ装置4Bは、このキャッシュモードオン処理が完了すると、キャッシュモードオン処理完了通知を管理計算機3に送信する。
 管理計算機3の論理ユニット移行指示プログラム60は、キャッシュモードオン処理完了通知を受信すると、移行先ストレージ装置に4B対して、上述のようにリードキャッシュモード及びライトキャッシュモードを共に「オン」に設定した各論理デバイス71Bにそれぞれ対応させて新たな論理デバイス71BX(図9)を作成するよう指示(以下、これを論理デバイス作成指示と呼ぶ)を与える(SP16)。
 かくして移行先ストレージ装置4Bは、この論理デバイス作成指示に従って、必要数の新たな論理デバイス71BXを作成する論理デバイス作成処理を実行する。また移行先ストレージ装置4Bは、この論理デバイス作成処理が完了すると、論理デバイス作成処理完了通知を管理計算機3に送信する。
 そして管理計算機3の論理ユニット移行指示プログラム60は、論理デバイス作成処理完了通知を受信すると、移行先ストレージ装置4Bに対して、移行先論理ユニット72Bにそれぞれ対応付けられた論理デバイス71Bに格納されているデータを、それぞれステップSP16の論理デバイス作成指示により移行先ストレージ装置4B内に作成された対応する新たな論理デバイス71BXにコピーするよう指示(以下、これを論理デバイスコピー指示と呼ぶ)を与える(SP17)。
 かくして移行先ストレージ装置4Bは、論理デバイスコピー指示に従って、移行元ストレージ装置4A内の各論理デバイス71Bにそれぞれ格納されているデータを、対応する新たな論理デバイス71BXにそれぞれコピーする論理デバイスコピー処理を実行する。また移行先ストレージ装置4Bは、この論理デバイスコピー処理が完了すると、論理デバイスコピー処理完了通知を管理計算機3に送信する。
 また管理計算機3の論理ユニット移行指示プログラム60は、論理デバイスコピー処理完了通知を受信すると、移行先ストレージ装置4Bに対して、新たな論理デバイス71BXにそれぞれ対応付けられた新たな仮想デバイス70BXを、それぞれ対応する移行先論理ユニット72Bに対応付けられた対応する仮想デバイス70Bとを入れ替えるよう指示(以下、これを仮想デバイス入替え指示と呼ぶ)を与える(SP18)。
 かくして移行先ストレージ装置4Bは、仮想デバイス入替え指示に従って、移行先ストレージ装置4Bに対して、移行先論理ユニット72Bに対応付けられた仮想デバイス70Bと、対応する新たな仮想デバイス70BXとを入れ替える仮想デバイス入替え処理を実行する。また移行先ストレージ装置4Bは、この仮想デバイス入替え処理が完了すると、仮想デバイス入替え処理完了通知を管理計算機3に送信する。
 そして管理計算機3の論理ユニット移行指示プログラム60は、この仮想デバイス入替え処理完了通知を受信すると、この一連のデータ移行制御処理を終了する。
(1-2-2-2)外部ボリューム設定処理
 図11は、かかるデータ移行制御処理(図10)のステップSP10において管理計算機3の論理ユニット移行指示プログラム60から送信された外部ボリューム設定指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行される上述の外部ボリューム設定処理の処理手順を示す。
 記憶階層管理プログラム105は、外部ボリューム設定指示を受信すると、この図11に示す外部ボリューム設定処理を開始し、まず、仮想デバイス管理テーブル102に必要数の仮想デバイス管理エントリ116を追加することにより必要数の新たな仮想デバイス70Bを作成する(SP20)。この際、記憶階層管理プログラム105は、これら仮想デバイス70Bの仮想デバイス番号117としてそれぞれ未使用の異なる仮想デバイス番号をこれらの仮想デバイス管理エントリ116にそれぞれ登録すると共に、当該仮想デバイス70Bの下位記憶階層識別情報118として対応する移行元論理ユニット72Aのファイバチャネルアドレス及びLUNをこれらの仮想デバイス管理エントリ116に登録する。
 続いて、記憶階層管理プログラム105は、論理デバイス管理テーブル101に必要数の論理デバイス管理エントリ111を追加することにより必要数の新たな論理デバイス71Bを作成する(SP21)。この際、記憶階層管理プログラム105は、これら論理デバイス71Bの論理デバイス番号112として未使用の論理デバイス番号をその論理デバイス管理エントリ111に登録すると共に、仮想デバイス番号113として、ステップSP20において仮想デバイス管理テーブル102に追加した対応する仮想デバイス管理エントリ116に登録されている仮想デバイス番号117をその論理デバイス管理エントリ111に登録する。
 次いで、記憶階層管理プログラム105は、論理ユニット管理テーブル100に必要数の論理ユニット管理エントリ107を追加することにより、必要数の新たな移行先論理ユニット72Bを作成する(SP22)。この際、記憶階層管理プログラム105は、新たに作成する移行先論理ユニット72BのLUN108として、未使用のLUNを論理ユニット管理エントリ107に登録すると共に、論理デバイス番号109として、ステップSP21において論理デバイス管理テーブル101に追加した対応する論理デバイス管理エントリ111に登録されている論理デバイス番号112を対応する論理ユニット管理エントリ107に登録する。
 さらに記憶階層管理プログラム105は、管理計算機3に外部ボリューム設定処理完了通知を送信し(SP23)、この後、この外部ボリューム設定処理を終了する。
(1-2-2-3)Inquiry情報設定処理
 他方、図12は、データ移行制御処理(図10)のステップSP11において管理計算機3の論理ユニット移行指示プログラム60から送信されたInquiry情報設定指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行されるInquiry情報設定処理の処理手順を示す。
 記憶階層管理プログラム105は、Inquiry情報設定指示を受信すると、この図12に示すInquiry情報設定処理を開始し、まず、各移行元論理ユニット72AのInquiry情報の転送要求であるInquiry要求を移行元ストレージ装置4Aに送信する(SP30)。
 そして、記憶階層管理プログラム105は、かかるInquiry要求に応じて移行先ストレージ装置4Bから転送される各移行元論理ユニット72AのInquiry情報を受信すると(SP31)、受信したInquiry情報を、対応する移行先論理ユニット72BのInquiry情報として設定する(SP32)。具体的に、記憶階層管理プログラム105は、受信した移行元論理ユニット72AのInquiry情報を、論理ユニット管理テーブル100(図7)における対応する移行先論理ユニット72Bの論理ユニット管理エントリ107に当該移行先論理ユニット72BのInquiry情報110として登録する。
 次いで、記憶階層管理プログラム105は、管理計算機3にInquiry情報設定処理完了通知を送信し(SP33)、この後、このInquiry情報設定処理を終了する。
(1-2-2-4)キャッシュモードオフ処理
 図13は、データ移行制御処理(図10)のステップSP12において管理計算機3の論理ユニット移行指示プログラム60から送信されたキャッシュモードオフ指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行されるキャッシュモードオフ処理の処理手順を示す。
 記憶階層管理プログラム105は、キャッシュモードオフ指示を受信すると、この図13に示すキャッシュモードオフ処理を開始し、まず、キャッシュモードオフ指示において指定された各移行先論理ユニット72Bにそれぞれ対応する各論理デバイス71Bのリードキャッシュモードをそれぞれ「オフ」に設定する(SP40)。具体的に、記憶階層管理プログラム105は、論理デバイス管理テーブル101(図7)を構成する論理デバイス管理エントリ111のうち、キャッシュモードオフ指示において指定された各移行先論理ユニット72Bにそれぞれ対応する各論理デバイス71Bの論理デバイス管理エントリ111のリードキャッシュモードフラグ114をそれぞれ「オフ」にする。
 続いて、記憶階層管理プログラム105は、かかる各移行先論理ユニット72Bにそれぞれ対応する各論理デバイス71Bのライトキャッシュモードをそれぞれ「オフ」に設定する(SP41)。具体的に、記憶階層管理プログラム105は、かかる論理デバイス管理エントリ111のライトキャッシュモードフラグ115をそれぞれオフにする。
 次いで、記憶階層管理プログラム105は、管理計算機3にキャッシュモードオフ処理完了通知を送信し(SP42)、この後、このキャッシュモードオフ処理を終了する。
(1-2-2-5)交替パス追加処理
 図14は、データ移行制御処理(図10)のステップSP13において管理計算機3の論理ユニット移行指示プログラム60から送信された交替パス追加指示を受信したホスト計算機2の交替パスプログラム51(図2)により実行される交替パス追加処理の処理手順を示す。
 交替パスプログラム51は、交替パス追加指示を受信すると、この図14に示す交替パス追加処理を開始し、まず、移行先ストレージ装置4Bに対して、当該移行先ストレージ装置4Bがホスト計算機2に提供している移行先論理ユニット72Bの一覧(以下、これを移行先論理ユニット一覧と呼ぶ)を要求するディスカバリ要求を送信する(SP50)。
 そして交替パスプログラム51は、かかるディスカバリ要求に応じて移行先ストレージ装置4Bから送信される移行先論理ユニット一覧を受信すると(SP51)、この移行先論理ユニット一覧に基づいて、各移行先論理ユニット72BへのパスSP2を、対応する論理ボリュームVOLの交替パスとして追加する(SP52)。具体的に、交替パスプログラム51は、パス管理テーブル50(図2)における各論理ボリュームVOLに対応するパス管理エントリ53(図2)に、それぞれ対応する移行先論理ユニット72BへのパスSP2のパス番号55(図2)を追加登録する。
 次いで、交替パスプログラム51は、管理計算機3に交替パス追加処理完了通知を送信し(SP53)、この後、この交替パス追加処理を終了する。
(1-2-2-6)交替パス削除処理
 図15は、データ移行制御処理(図10)のステップSP14において管理計算機の3論理ユニット移行指示プログラム60から送信された交替パス削除指示を受信したホスト計算機2の交替パスプログラム51により実行される交替パス削除処理の処理手順を示す。
 交替パスプログラム51は、かかる交替パス削除指示を受信すると、論理ボリュームVOLと、移行元ストレージ装置4A内の移行元論理ユニット72Aとの間を接続する各パスSP1(図8)をそれぞれその論理ボリュームVOLの交替パスから削除する(SP60)。具体的に、交替パスプログラム51は、パス管理テーブル50(図2)におけるその論理ボリュームVOLに対応するパス管理エントリ53(図2)からそのパスSP1のパス番号55(図2)を削除する。
 次いで、交替パスプログラム51は、管理計算機3に交替パス削除処理完了通知を送信し(SP61)、この後、この交替パス削除処理を終了する。
 以上の交替パス削除処理により、論理ボリュームVOLに接続されたパスは対応する移行先論理ユニット72BへのパスSP2(図8)だけとなるため、この後、交替パスプログラム51は、論理ボリュームVOLへのリード要求及びライト要求を、対応する移行先論理ユニット72Bに対してのみ行うようになる。
11)。
(1-2-2-7)キャッシュモードオン処理
 図16は、データ移行制御処理(図10)のステップSP15において管理計算機3の論理ユニット移行指示プログラム60から送信されたキャッシュモードオン指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行されるキャッシュモードオン処理の処理手順を示す。
 記憶階層管理プログラム105は、キャッシュモードオン指示を受信すると、この図16に示すキャッシュモードオン処理を開始し、まず、キャッシュモードオン指示において指定された各移行先論理ユニット72Bのリードキャッシュモードをそれぞれ「オン」に設定する(SP70)。具体的に、記憶階層管理プログラム105は、論理デバイス管理テーブル101(図7)を構成する論理デバイス管理エントリ111のうち、キャッシュモードオン指示において指定された各移行元論理ユニット72Bにそれぞれ対応する論理デバイス管理エントリ111のリードキャッシュモードフラグ114(図7)をそれぞれ「オン」に設定する。
 続いて、記憶階層管理プログラム105は、かかる各移行元論理ユニット72Bのライトキャッシュモードをそれぞれオンに設定する(SP71)。具体的に、記憶階層管理プログラム105は、上述の各論理デバイス管理エントリ111のライトキャッシュモードフラグ115(図7)をそれぞれ「オン」に設定する。
 さらに記憶階層管理プログラム105は、管理計算機3にキャッシュモードオン処理完了通知を送信し、この後、このキャッシュモードオン処理を終了する(SP72)。
(1-2-2-8)論理デバイス作成処理
 図17は、データ移行制御処理(図10)のステップSP16において管理計算機3の論理ユニット移行指示プログラム60から送信された論理デバイス作成指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行される論理デバイス作成処理の処理手順を示す。
 記憶階層管理プログラム105は、論理デバイス作成指示を受信すると、この図17に示す論理デバイス作成処理を開始し、まず、仮想デバイス管理テーブル102(図7)に必要数の仮想デバイス管理エントリ116を追加することによって、必要数の新たな仮想デバイス70BX(図9)を作成する(SP80)。この際、記憶階層管理プログラム105は、新たに作成した仮想デバイス70BXの仮想デバイス番号117(図7)として未使用の仮想デバイス番号を対応する仮想デバイス管理エントリ116に登録すると共に、下位記憶階層識別情報118として対応する記憶装置30Bの識別情報を登録する。
 続いて、記憶階層管理プログラム105は、論理デバイス管理テーブル101に必要数の論理デバイス管理エントリ111を追加することにより、必要数の新たな論理デバイス71BX(図9)を作成する(SP81)。この際、記憶階層管理プログラム105は、新たに作成した論理デバイス71BXの論理デバイス番号112(図7)として未使用の論理デバイス番号を対応する論理デバイス管理エントリ111に登録すると共に、当該新たに作成した論理デバイス71BXに対応する仮想デバイス70BXの仮想デバイス番号113(図7)として、ステップSP80において仮想デバイス管理テーブル102に追加した対応する仮想デバイス管理エントリ116に登録されている仮想デバイス番号117をその論理デバイス管理エントリ111に登録する。
 さらに記憶階層管理プログラム105は、管理計算機3に論理デバイス作成処理完了通知を送信し(SP82)、この後、この論理デバイス作成処理を終了する。
(1-2-2-9)論理デバイスコピー処理
 図18は、データ移行制御処理(図10)のステップSP17において管理計算機3の論理ユニット移行指示プログラム60から送信された論理デバイスコピー指示を受信した移行先ストレージ装置4Bの論理デバイスコピープログラム106(図7)により実行される論理デバイスコピー処理の処理手順を示す。
 論理デバイスコピープログラム106は、論理デバイスコピー指示を受信すると、この図18に示す論理デバイスコピー処理を開始し、まず、論理デバイスコピー指示において指定されたコピー対象の論理デバイス71Bの中から1つの論理デバイス71Bを選択する(SP90)。
 続いて、論理デバイスコピープログラム106は、ステップSP90において選択した論理デバイス71B内の1つの単位領域を選択する(SP91)。なお、この単位領域は、論理デバイス71Bに対するデータの書込み単位と同じ大きさを有する記憶領域である。
 次いで、論理デバイスコピープログラム106は、ステップSP91において選択した単位領域が未更新であるか否か(未だデータが格納されていないか否か)を判断する(SP92)。
 そして論理デバイスコピープログラム106は、この判断において肯定結果を得るとステップSP94に進み、これに対して否定結果を得るとステップSP93に進んで、その論理デバイス71Bにおけるその単位領域に格納されているデータを、図17について上述した論理デバイス作成処理のステップSP81において作成した新たな論理デバイス71BXのうちの対応する論理デバイス71BXにコピーする(SP93)。具体的に、論理デバイスコピープログラム106は、外部接続機能を利用して、ステップSP90において選択した論理デバイス71Bのかかる単位領域に格納されているデータを、移行元ストレージ装置4A内の当該論理デバイス71Bにマッピングされた移行元論理ユニット72Aから読み出し、読み出したデータをその新たな論理デバイス71BXに格納する。
 次いで、論理デバイスコピープログラム106は、ステップSP91において選択した論理デバイス71B内のすべての単位領域に対して同様の処理を実行し終えたか否かを判断する(SP94)。そして論理デバイスコピープログラム106は、この判断において否定結果を得ると、ステップSP91に戻り、この後、ステップSP91において選択する単位記憶領域を順次未処理の単位記憶領域に切り替えながら、ステップSP91~ステップSP94の処理を繰り返す。
 そして論理デバイスコピープログラム106は、やがてステップSP90において選択した論理デバイス71B内のすべての単位領域についてステップSP91~ステップSP94の処理を実行し終えることによりステップSP94において肯定結果を得ると、論理デバイスコピー指示において指定されたコピー対象のすべの論理デバイス71BについてステップSP91~ステップSP94の処理を実行し終えたか否かを判断する(SP95)。
 論理デバイスコピープログラム106は、この判断において否定結果を得るとステップSP90に戻り、この後、ステップSP90において選択する論理デバイス71Bを順次切り替えながら、同様の処理を繰り返す。
 そして論理デバイスコピープログラム106は、論理デバイスコピー指示において指定されたコピー対象のすべの論理デバイス71BについてステップSP91~ステップSP94の処理を実行し終えることによりステップSP95において肯定結果を得ると、管理計算機3に論理デバイスコピー処理完了通知を送信し(SP96)、この後、この論理デバイスコピー処理を終了する。
 なお、この論理デバイスコピー処理の際、既に論理デバイス71BXにコピーし終えたデータを対象とするライト要求がホスト計算機2から移行先ストレージ装置4Bに与えられたときに、移行先ストレージ装置4Bがライトデータを対応する論理デバイス71Bに書き込んでしまうと、このライトデータが移行元ストレージ装置4Aの対応する移行元論理ユニット72Aに書き込まれるため、論理デバイス71BXにコピーされたそのデータが古いデータとなってしまう。
 そこで、移行先ストレージ装置4Bは、かかる論理デバイスコピー処理の最中に移行先論理ユニット72Bを対象とするライト要求が与えられた場合、ライトデータを論理デバイス71Bに書き込むと同時に、そのライトデータをコピー先の論理デバイス71BXにコピーする。移行先ストレージ装置4Bは、この更新コピーを、後述する仮想デバイス入替え処理が完了するまで続ける。
(1-2-2-10)仮想デバイス入替え処理
 図19は、データ移行制御処理(図10)のステップSP18において管理計算機3の論理ユニット移行指示プログラム60から送信された仮想デバイス入替え指示を受信した移行先ストレージ装置4Bの記憶階層管理プログラム105により実行される仮想デバイス入替え処理の処理手順を示す。
 記憶階層管理プログラム105は、仮想デバイス入替え指示を受信すると、各移行先論理ユニット72Bにそれぞれ対応付けられている各仮想デバイス70Bと、図17について上述した論理デバイス作成処理のステップSP80において新たに作成した仮想デバイス70BXのうちの対応する仮想デバイス70BXとを入れ替える(SP100)。
 具体的に、記憶階層管理プログラム105は、論理デバイス管理テーブル101(図7)における対応する論理デバイス71Bの論理デバイス管理エントリ111(図7)に登録されている仮想デバイス番号113(図7)と、論理デバイス作成処理(図17)のステップSP81において新たに作成した対応する論理デバイス71BXの論理デバイス管理エントリ111に登録されている仮想デバイス番号113とを入れ替える。この処理によって、論理デバイス71Bの上位記憶層である移行元論理ユニット72Aと、仮想デバイス70BXの下位記憶層である記憶装置30Bとが対応付けられることになり、移行先ストレージ装置4Bへのデータの移行が完了する。
 次いで、記憶階層管理プログラム105は、管理計算機3に仮想デバイス入替え処理完了通知を送信し(101)、この後、この仮想デバイス入替え処理を終了する。
(1-3)移行先ストレージ装置による入出力処理
 次に、移行先ストレージ装置4Bにおけるリード処理及びライト処理の処理内容について説明する。
(1-3-1)リード処理
 図20は、移行先ストレージ装置4Bがホスト計算機2からのリード要求を受信したときに実行するリード処理の処理手順を示す。
 移行先ストレージ装置4Bは、ホスト計算機2からのリード要求を受信するとこのリード処理を開始し、まず、リード要求からリード先の移行先論理ユニット72BのLUNを抽出すると共に、論理ユニット管理テーブル100(図7)を参照して、抽出したLUNに対応する論理ユニット管理エントリ107(図7)を特定する(SP110)。
 続いて、移行先ストレージ装置4Bは、論理デバイス管理テーブル101(図7)を参照して、ステップSP110において特定した論理ユニット管理エントリ107に登録されている論理デバイス番号109(図7)に対応する論理デバイス管理エントリ111(図7)を特定する(SP111)。
 次いで、移行先ストレージ装置4Bは、論理デバイス管理テーブル101を参照して、ステップSP111において特定した論理デバイス管理エントリ111に登録されているリードキャッシュモードフラグ114(図7)がオンに設定されているか否かを判断する(SP112)。
 移行先ストレージ装置4Bは、この判断において否定結果を得るとステップSP115に進み、これに対して肯定結果を得るとステップSP113に進む。従って、例えば図10~図19を参照して説明した上述のデータ移行処理において、移行先論理ユニット72Bと対応付けられた論理デバイス71Bのリードキャッシュモードが「オフ」に設定されてから、かかるリードキャッシュモードが「オン」に設定されるまでの間にその移行先論理ユニット72Bに対するリード要求を受信した場合には、処理がステップSP115に進み、これ以外のタイミングでその移行先論理ユニット72Bに対するリード要求を受信した場合には、処理がステップSP113に進むことになる。
 そして移行先ストレージ装置4Bは、ステップSP112の判断結果としてステップSP113に進んだ場合、キャッシュディレクトリ104を参照して、リードデータに対応するディレクトリエントリ122がキャッシュディレクトリ104内に存在するか否かを判断する(SP113)。
 この判断において肯定結果を得ることは、リードデータがキャッシュメモリ42B(図1)内に保存されていることを意味する。かくして、このとき移行先ストレージ装置4Bは、かかるデータをキャッシュメモリ42Bから読み出し、読み出したデータをリード要求の送信元のホスト計算機2に送信する(SP118)。そして移行先ストレージ装置4Bは、この後、このリード処理を終了する。
 これに対してステップSP113の判断において否定結果を得ることは、リードデータがキャッシュメモリ42B内に保存されていないことを意味する。かくして、このとき移行先ストレージ装置4Bは、キャッシュディレクトリ104(図7)内にそのデータに対応するディレクトリエントリ122(図7)を追加する(SP114)。この際、移行先ストレージ装置4Bは、キャッシュアドレス123(図7)として、キャッシュメモリ42B内の未使用領域のアドレスを、追加するディレクトリエントリ122に登録すると共に、データ識別情報124として、リード要求に含まれるデータ識別情報を当該追加するディレクトリエントリ122に登録する。そして移行先ストレージ装置4Bは、この後、ステップSP115に進む。
 また移行先ストレージ装置4Bは、ステップSP115に進むと、論理ユニット管理テーブル100(図7)を参照して、ステップSP111において特定した論理デバイス管理エントリ111に登録されている仮想デバイス番号113から対応する仮想デバイス70Bを特定し、その仮想デバイス70Bに対応する仮想デバイス管理エントリ116に登録されている下位記憶階層識別情報118(図7)より、その仮想デバイス70Bに対応付けられている下位記憶階層(記憶装置30B又は移行元論理ユニット72A)を特定する。そして移行先ストレージ装置4Bは、そのとき受信したリード要求をその下位記憶階層に転送する(SP115)。
 また移行先ストレージ装置4Bは、かかるリード要求に応じて下位記憶階層から送信される応答(リードデータ)を受領すると(SP116)、受領したリードデータをキャッシュメモリ42Bに格納する(SP117)。なお、ステップSP117では、キャッシュメモリ42Bをデータの一時的な格納場所として用いるだけであり、キャッシュディレクトリ104(図7)にこのリードデータに関するディレクトリエントリ122を追加することはない。
 次いで、移行先ストレージ装置4Bは、ステップSP117においてキャッシュメモリ42Bに格納したデータを当該キャッシュメモリ42Bから読み出し、読み出したデータをリード要求の送信元のホスト計算機2に送信する(SP118)。そして移行先ストレージ装置4Bは、この後、このリード処理を終了する。
(1-3-2)ライト処理
 図21は、移行先ストレージ装置4Bがホスト計算機2からのライト要求及びライトデータを受信したときに実行するライト処理の処理手順を示す。
 移行先ストレージ装置4Bは、ホスト計算機2からのライト要求及びライトデータを受信するとこの図21に示すライト処理を開始し、まず、ライト要求からライト先の移行先論理ユニット72BのLUNを抽出すると共に、論理ユニット管理テーブル100(図7)を参照して、抽出したLUNに対応する論理ユニット管理エントリを107(図7)特定する(SP120)。
 続いて、移行先ストレージ装置4Bは、論理デバイス管理テーブル101(図7)を参照して、ステップSP120において特定した論理ユニット管理エントリ107に登録されている論理デバイス番号109(図7)に対応する論理デバイス管理エントリ111(図7)を特定する(SP121)。
 次いで、移行先ストレージ装置4Bは、論理デバイス管理テーブル101を参照して、ステップSP121において特定した論理デバイス管理エントリ111に登録されているライトキャッシュモードフラグ115(図7)がオンに設定されているか否かを判断する(SP122)。
 移行先ストレージ装置4Bは、この判断において否定結果を得るとステップSP125に進み、これに対して肯定結果を得るとステップSP123に進む。従って、例えば図10~図19を参照して説明した上述のデータ移行処理において、移行先論理ユニット72Bと対応付けられた論理デバイス71Bのライトキャッシュモードが「オフ」に設定(図10のステップSP12及び図13参照)されてから、かかるライトキャッシュモードが「オン」に設定(図10のステップSP15及び図18参照)されるまでの間にその移行先論理ユニット72Bに対するライト要求を受信した場合には、処理がステップSP125に進み、これ以外のタイミングでその移行先論理ユニット72Bに対するライト要求を受信した場合には、処理がステップSP123に進むことになる。
 そして移行先ストレージ装置4Bは、ステップSP122の判断結果としてステップSP123に進んだ場合、キャッシュディレクトリ104(図7)を参照して、ライトデータに対応するディレクトリエントリ122(図7)が存在するか否かを判断する(SP123)。
 この判断において否定結果を得ることは、更新前のライトデータがキャッシュメモリ42B(図1)に保存されていないことを意味する。かくして、このとき移行先ストレージ装置4Bは、キャッシュディレクトリ104内にそのライトデータに対応するディレクトリエントリ122を追加する(SP124)。この際、移行先ストレージ装置4Bは、キャッシュアドレス123として、キャッシュメモリ42B内の未使用領域のアドレスを、追加するディレクトリエントリ122に登録すると共に、データ識別情報124として、ライト要求に含まれるデータ識別情報を、当該追加するディレクトリエントリ122に登録する。そして移行先ストレージ装置4Bは、この後、ステップSP125に進む。
 これに対してステップSP123の判断において肯定結果を得ることは、更新前のライトデータがキャッシュメモリ42Bに保存されていることを意味する。かくして、このとき移行先ストレージ装置4Bは、かかるキャッシュメモリ42B内のライトデータを更新後のライトデータにより上書きする(SP125)。なお、ステップSP125では、キャッシュメモリ42Bをデータの一時的な格納場所として用いるだけであり、キャッシュディレクトリ104にこのライトデータに関するディレクトリエントリ122を追加することはない。
 続いて、移行先ストレージ装置4Bは、論理デバイス管理テーブル101(図7)を参照して、ステップSP121において特定した論理デバイス71Bの論理デバイス管理エントリ111(図7)に登録されているライトキャッシュモードフラグ115(図7)が「オン」に設定されているか否かを再度判断する(SP126)。
 そして移行先ストレージ装置4Bは、このステップSP126の判断において肯定結果を得ると、ライト要求の送信元のホスト計算機2に対してライト処理が完了した旨のライト応答を送信し(SP129)、この後、このライト処理を終了する。
 これに対して移行先ストレージ装置4Bは、ステップSP126の判断において否定結果を得ると、論理ユニット管理テーブル100を参照して、ステップSP121において特定した論理デバイス71Bの論理デバイス管理エントリ111に登録されている仮想デバイス番号113から対応する仮想デバイス70Bを特定し、仮想デバイス管理テーブル102(図7)におけるその仮想デバイス70Bに対応する仮想デバイス管理エントリ116(図7)に登録されている下位記憶階層識別情報118(図7)より、その仮想デバイス70Bに対応付けられている下位記憶階層(記憶装置30B又は移行元論理ユニット72A)を特定する。そして移行先ストレージ装置4Bは、そのとき受信したライト要求及びライトデータをその下位記憶階層に転送する(SP127)。
 また移行先ストレージ装置4Bは、かかるライト要求に応じて下位記憶階層から送信される応答(ライト完了通知)を受領すると(SP128)、ライト要求の送信元のホスト計算機2に対してライト処理が完了した旨のライト応答を送信し(SP129)、この後、このライト処理を終了する。
(1-4)本実施の形態の効果
 以上のように本実施の形態による計算機システム1では、移行先ストレージ装置4Bの移行先論理ユニット72Bに移行元ストレージ装置4Aの移行元論理ユニット72Aをマッピングすると共に移行元論理ユニット72AのInquiry情報を移行先論理ユニット72Bに設定する一方、ホスト計算機2において論理ボリュームVOL(図8)から移行先論理ユニット72BへのパスPT2(図8)を追加すると共に、当該論理ボリュームVOLから移行元論理ユニット72AへのパスPT1(図8)を削除し、その後、移行元論理ユニット72Aと対応付けられた論理デバイス71Aと、移行先論理ユニット72Bと対応付けられた論理デバイス71Bとの間でデータコピーを実行することにより、移行元ストレージ装置4A及び移行先ストレージ装置4B間におけるデータ移行を行う。
この場合、かかるデータ移行を実行するに際して、移行元ストレージ装置4Aは特殊な機能を必要とせず、またホスト計算機2及びストレージ装置(移行元ストレージ装置4A又は移行先ストレージ装置4B)間におけるデータの授受を停止させることなく、かかるデータ移行を行うことができる。かくするにつき、ストレージ装置の入れ替え作業を容易化させ得る計算機システムを実現できる。
(2)第2の実施の形態
 図1において、130は第2の実施の形態による計算機システムを示す。この計算機システム130は、データ移行処理の一部の処理内容が異なる点を除いて第1の実施の形態による計算機システム1と同様に構成されている。
 図22は、本実施の形態によるパス管理エントリ140の構成を示す。第1の実施の形態との関係で説明すると、図2について上述したように、第1の実施の形態のパス管理エントリ53には、ホスト計算機2内に設定された対応する論理ボリュームVOL(図8)の論理ボリューム番号54と、その論理ボリュームVOLに接続されている各パスPT1,PT2(図8)にそれぞれ付与されたパス番号55とが登録されるのに対し、本実施の形態によるパス管理エントリ140には、ホスト計算機2内に設定された対応する論理ボリュームVOLの論理ボリューム番号141と、その論理ボリュームVOLに接続されている各パスのパス情報142とが登録される。このパス情報142は、対応する論理ボリュームVOLに接続されている各パスPT1,PT2のパス番号143と、これらパスPT1,PT2のパス状態144とから構成される情報である。
 パス状態144は、対応するパスPT1,PT2の状態を表す情報であり、「Active」、「Standby」及び「Unavailable」のいずれかの値をとる。「Active」は、対応するパスPT1,PT2の接続先の物理デバイスである記憶装置30Bが正常に稼動し、かつその記憶装置30Bが論理デバイス71Bに割り当てられている状態であることを表す。また「Standby」は、かかる記憶装置30Bが正常に稼動しているものの、当該記憶装置30Bが論理デバイス71Bに未割当てであることを表す。さらに「Unavailable」は、かかる記憶装置30Bに障害が発生しており、当該記憶装置30Bが論理デバイス71Bに割り当てられていないことを表す。
 そしてホスト計算機2の交替パスプログラム131(図2)は、論理ボリュームVOLに対するリード要求又はライト要求を処理する際、パス管理テーブル132(図2)の対応するパス管理エントリ140を参照して、その論理ボリュームVOLの論理ボリューム番号141に対応付けられている複数のパス情報142の中から、パス状態144が「Active」であるものを1つ以上選択する。そして、交替パスプログラム131は、選択した1つ以上のパス情報142のパス番号143によって識別される1つ以上のパスPT1,PT2を用いてリード要求及びライト要求を移行元ストレージ装置4A又は移行先ストレージ装置4Bに送信する。
 また、交替パスプログラム131は、パス状態144として「Active」が登録されているパスPT1,PT2に障害を検知した場合、そのパスPT1,PT2のパス状態144を「Unavailable」に変更する。
 この場合において、交替パスプログラム131は、あるパス管理エントリ140に含まれるパス情報142の中にパス状態144が「Active」であるものが1つもなくなってしまった場合、そのパス管理エントリ140に含まれる複数のパス情報142の中から、パス状態144が「Standby」であるものを1つ以上特定し、特定したパス情報142のパス状態144を「Active」に変更する。
 以上のようなこのフェイルオーバ処理は、アプリケーションプログラム52(図2)に透過的であり、アプリケーションプログラム52から見ると、ストレージ装置(移行元ストレージ装置4A及び移行先ストレージ装置4B)に対するリード要求やライト要求の発行が停止しない。
 図23は、本実施の形態において、第2の実施の形態による管理計算機3の論理ユニット移行指示プログラム133(図3)により実行されるデータ移行制御処理の処理手順を示す。本実施の形態によるデータ移行制御処理は、第1の実施の形態との関係で説明すると、論理ユニット移行指示プログラム133は、交替パス追加指示を発行した後に交替パス削除指示の代わりにStandby指示を移行先ストレージ装置に送信し、この後、リードキャッシュオン指示及びライトキャッシュオン指示の代わりにリードキャッシュオン指示を移行先ストレージ装置に送信し、さらに論理デバイスコピー指示を発行してから仮想デバイス入替え指示を発行するまでの間に交替パス削除指示及びライトキャッシュオン指示を発行する点が第1の実施の形態によるデータ移行制御処理と相違する。
 このように、移行元論理ユニットに対応する交替パス削除指示を移行先ストレージ装置内での論理デバイスのデータコピーが完了した後に発行することによって、データコピー処理の進行中に移行先論理ユニットに障害が生じたときに、ホスト計算機におけるデータの入出力を停止させることなく、直ちに移行元論理ユニットに対応するパスにパスを戻すことができるメリットがある。
 また、移行元ストレージ装置内の仮想化された論理デバイスをコピーした後に移行先ストレージ装置内の対応する論理デバイスと対応付けられているライトキャッシュモードを「オン」にすることによって、移行先ストレージ装置内での移行元論理ユニットのコピーが終了するまで、移行元論理ユニットにも新しいデータが格納される。従って、移行元ストレージ装置から移行先スストレージ装置へのデータ移行が完了するまでの間に移行先ストレージ装置に障害が生じた場合に、移行元ストレージ装置にパスを戻してもデータの読み書きには影響がでないといったメリットがある。
 図23に戻って、本実施の形態によるデータ移行制御処理についてより詳細に説明する。論理ユニット移行指示プログラム133は、管理計算機3の入力装置23を介してシステム管理者により移行元ストレージ装置4Aから移行先ストレージ装置4Bへのデータ移行の実行を指示されると、この図23に示すデータ移行制御処理を開始し、ステップSP130~ステップSP133までを図10について上述した第1の実施の形態によるデータ移行制御処理のステップSP10~ステップSP13と同様に処理する。
 続いて、論理ユニット移行指示プログラム133は、ホスト計算機2に対して、移行元論理ユニット72Aに対応するパスPT1の状態を「Standby」(スタンバイ)状態に遷移させるよう指示(以下、これをStandby指示と呼ぶ)を与える(SP134)。
 かくしてホスト計算機2は、このStandby指示に従って、メモリ11(図1)に格納されているパス管理テーブル132(図2)上の対応するパス管理エントリ140(図22)内のそのパスPT1に対応するパス情報142について、パス状態144を「Standby」に変更する。また、ホスト計算機2は、移行元ストレージ装置4Aに、SCSI規格によって定められたSet Target Port Groupsコマンドを送信することによって、その移行元論理ユニット72Aと接続されているパスPT1をStandby状態にしたことを移行元ストレージ装置4Aに通知する。このような処理により、移行元論理ユニット72Aに対応するパスPT1の状態がStandby状態に遷移する。そして、ホスト計算機2は、この通知に対する移行元ストレージ装置4Aからの応答を受信すると、パス状態更新処理完了通知を管理計算機3に送信する。
 以上のパス状態更新処理が完了すると、交替パスプログラム131は、論理ボリュームVOLに対するリード要求又はライト要求を処理する際、移行先論理ユニット72Bに対応するパスPT2のみを用いるようになる。
 ただし、第1の実施の形態と異なり、移行元論理ユニット72Aに対応するパスPT1が論理ボリュームVOLの交替パスとして残っているので、交替パスプログラム131は、アプリケーションプログラム52(図2)のデータ入出力を停止させることなく、移行元論理ユニット72Aに対応するパスPT1を用いる状態に戻ることができる。
 また、後述のステップSP138において管理計算機3から発行される交替パス削除指示に従ってホスト計算機2において論理ボリュームVOL及び移行元論理ユニット72A間を接続するパスPT1が削除されるまでは、交替パスプログラム131は、そのパスPT1を用いる状態に戻ることができる。交替パスプログラム131がかかるパスPT1を用いる状態に戻る状況としては、例えば、移行先論理ユニット72Bと接続されたパスPT2に障害が発生した場合や、システム管理者が移行元ストレージ装置4A及び移行先ストレージ装置4B間のデータ移行を中止する指示を管理計算機3等に入力した場合が考えられる。
 一方、論理ユニット移行指示プログラム133は、パス状態更新処理完了通知を受信すると、移行先ストレージ装置4Bに対して、移行先論理ユニット72Bと対応付けられている論理デバイス71Bのリードキャッシュモードを「オン」に設定するよう指示(以下、これをリードキャッシュモードオン指示と呼ぶ)を与える(SP135)。
 かくして移行先ストレージ装置4Bは、このリードキャッシュモードオン指示に従って、論理デバイス管理テーブル101(図7)におけるかかる論理デバイス71Bに対応する論理デバイス管理エントリ111(図7)のリードキャッシュモードフラグを「オン」に変更するリードキャッシュモードオン処理を実行する。また移行先ストレージ装置4Bは、このリードキャッシュモードオン処理が完了すると、リードキャッシュモードオン処理完了通知を管理計算機3に通知する。
 このように本実施の形態においては、ステップSP135において、第1の実施の形態と異なり、対応する論理デバイス71Bのライトキャッシュモードを「オン」に設定しないので、移行元論理ユニット72Aには、移行先論理ユニット72Bと同じ最新のデータが格納されることになる。これにより交替パスプログラム131は、データの整合性を確保しながら、移行元論理ユニット72Aに接続されたパスPT1を用いる状態に戻ることができる。
 そして論理ユニット移行指示プログラム133は、リードキャッシュモードオン処理完了通知を受信すると、第1の実施の形態と同様に(図10のステップSP16及びステップSP17参照)、移行先ストレージ装置4Bに対して論理デバイス作成指示及びデータコピー指示を順次発行することにより、移行先ストレージ装置4B内に論理デバイス71Bを作成させ、かつ、移行元ストレージ装置4A内の対応する論理デバイス71Aに格納されているデータをその論理デバイス71Bにコピー(移行)させる。
 続いて、論理ユニット移行指示プログラム133は、ホスト計算機2に対して、論理ボリュームVOLの交替パスの中から移行元論理ユニット72AへのパスPT1(図8)を削除するよう指示(交替パス削除指示)を与える(SP138)。かくしてホスト計算機2は、この交替パス削除指示に従って、移行元論理ユニット72AへのパスPT1を論理ボリュームVOLの交替パスから削除する交替パス削除処理を実行する。またホスト計算機2は、この交替パス削除処理が完了すると、交替パス削除処理完了通知を管理計算機3に送信する。
 また論理ユニット移行指示プログラム133は、交替パス削除処理完了通知を受信すると、移行先ストレージ装置4Bに対して、移行先論理ユニット72Bと対応付けられている論理デバイス71Bのライトキャッシュモードを「オン」に設定することを指示するライトキャッシュモードオン指示を与える(SP139)。
 移行先ストレージ装置4Bは、このライトキャッシュモードオン指示を受信すると、かかる論理デバイス71Bと対応付けられているライトキャッシュモードを「オン」に設定するライトキャッシュモードオン設定処理を実行する。また移行先ストレージ装置は、このライトキャッシュモードオン設定処理を完了すると、ライトキャッシュモードオン設定処理完了通知を管理計算機3に送信する。
 そして論理ユニット移行指示プログラム133は、かかるライトキャッシュモードオン設定処理完了通知を受信すると、移行先ストレージ装置4Bに対して、仮新たな論理デバイス71BXにそれぞれ対応付けられた新たな仮想デバイス70BXを、それぞれ対応する移行先論理ユニット72Bに対応付けられた対応する仮想デバイス70Bとを入れ替えるよう指示(仮想デバイス入替え指示)を与える(SP140)なお、この仮想デバイス入替え指示を受信した移行先ストレージ装置4Bの処理内容は、図10のステップSP18について上述した処理内容と同様であるため、ここでの説明は省略する。
 以上のように本実施の形態による計算機システム130によれば、第1の実施の形態による計算機システム1と同様に、ホスト計算機2及びストレージ装置(移行元ストレージ装置4A又は移行先ストレージ装置4B)間のデータの授受を止めることなく、移行元ストレージ装置4Aから移行先ストレージ装置4Bへのデータ移行を行うことができる。
 加えて、本実施の形態による計算機システム130では、移行元ストレージ装置4A内の論理デバイス71Aに格納されたデータを移行先ストレージ装置4B内の当該論理デバイス71Aを仮想化した論理デバイス71Bにコピーした後に、移行先ストレージ装置4B内のその論理デバイス71Bのライトキャッシュモードを「オン」に設定するため、移行先ストレージ装置4B内での移行元論理ユニット72Aのコピーが終了するまで、移行元論理ユニット72Aにも新しいデータが格納され、さらにホスト計算機2が、移行先ストレージ装置4B内での論理デバイス71Bのデータコピーが完了した後に移行元論理ユニット72Aと接続されたパスPT1を削除するため、データコピー処理の進行中に移行先論理ユニット72Bに障害が生じたときに、ホスト計算機2におけるデータの入出力を停止させることなく、直ちにパスを移行元論理ユニット72Aと接続されたパスPT1に戻すことができる。
 従って、本実施の形態による計算機システム130によれば、移行元ストレージ装置4Aから移行先ストレージ装置4Bへのデータ移行が完了するまでの間に移行先ストレージ装置4Bに障害が生じた場合に、移行元ストレージ装置4Aにパスを戻してもデータの読み書きには影響がでないという効果をも得ることができる。
(3)他の実施の形態
 なお上述の実施の形態においては、移行元論理ユニット72A及び記憶装置30A間、並びに、移行先論理ユニット72B及び記憶装置30B間をそれぞれ対応付ける中間記憶階層として、仮想デバイス70A,70B及び論理デバイス71A,71Bを設けるようにした場合について述べたが、本発明はこれに限らず、これら仮想デバイス70A,70B及び論理デバイス71A,71Bは必ずしも必須ではなく、仮想デバイス70A及び論理デバイス71Aの一方又は両方を省略しても良い。
 また他の中間記憶階層を設けるようにしても良い。この場合、移行元論理ユニット72Aに格納されたデータを移行先論理ユニット72Bにコピーする際は、移行元論理ユニット72A及び記憶装置30A間を対応付ける1又は複数の第1の中間記憶階層に対応させて、記憶装置30Bと対応付けた第2の中間記憶階層を当該第2のストレージ装置4B内に作成し、移行元論理ユニット72Aから第1及び第2の中間記憶階層を介して第2のストレージ装置4Bの記憶装置30Bにデータをコピーし、その後、第1の中間記憶階層と、第2の中間記憶階層との一部又は全部を入れ替えるようにすれば良い。
 1,130……計算機システム、2……ホスト計算機、3……管理計算機、4A……移行元ストレージ装置、4B……移行先ストレージ装置、10,20,40A,40B……CPU、30A,30B……記憶装置、42A,42B……キャッシュメモリ、50……パス管理テーブル、51……交替パスプログラム、53,142……パス管理エントリ、60,133……論理ユニット移行指示プログラム、70A,70B,70BX……仮想デバイス、71A,71B,71BX……論理デバイス、72A……移行元論理ユニット,72B……移行先論理ユニット、105……記憶階層管理プログラム、106……論理デバイスコピープログラム、144……パス状態。

Claims (14)

  1.  計算機と、
     第1の記憶装置が搭載され、前記第1の記憶装置の記憶領域を第1の論理ユニットとして前記計算機に提供する第1のストレージ装置と、
     第2の記憶装置が搭載された第2のストレージ装置と
     を備え、
     前記第2のストレージ装置は、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定し、
     前記計算機は、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、
     前記第2のストレージ装置は、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付ける
     ことを特徴とする計算機システム。
  2.  前記第2のストレージ装置は、
     前記第2の論理ユニットに読み書きされるデータを一時的に保存するキャッシュメモリを備え、動作モードとして、計算機からのリード要求又はライト要求に応じて、リード対象又はライト対象のデータを前記キャッシュメモリから読み出し又は当該キャッシュメモリに書き込むキャッシュモードを有し、
     前記第1のストレージ装置から収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定した後、前記リード要求及び前記ライト要求に対する前記キャッシュモードをオフに設定し、
     前記計算機が前記第2の論理ユニットへのパスを追加すると共に、前記第1の論理ユニットへのパスを削除した後に、前記リード要求及び前記ライト要求に対する前記キャッシュモードをオンに設定する
     ことを特徴とする請求項1に記載の計算機システム。
  3.  前記第2のストレージ装置には、前記第1の論理ユニットと前記第2の論理ユニットとを対応付ける第1の中間記憶階層が設けられ、
     前記第2のストレージ装置は、
     前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーする際、
     前記第1の中間記憶階層に対応させて、前記第2の記憶装置と対応付けた第2の中間記憶階層を作成し、
     前記第1の論理ユニットから前記第1の中間記憶階層及び前記第2の中間記憶階層を介して前記第2の記憶装置にデータをコピーし、
     前記第1の中間記憶階層と、前記第2の中間記憶階層との一部又は全部を入れ替える
     ことを特徴とする請求項1に記載の計算機システム。
  4.  前記第1及び第2のストレージ装置間におけるデータ移行を管理する管理計算機を備え、
     前記第2のストレージ装置は、前記管理計算機の指示に従って、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定し、
     前記計算機は、前記管理計算機の指示に従って、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、
     前記第2のストレージ装置は、前記管理計算機の指示に従って、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付ける
     ことを特徴とする請求項1に記載の計算機システム。
  5.  前記第2のストレージ装置は、
     前記キャッシュメモリの前記キャッシュモードがオフのとき、前記計算機からのリード要求に対して、前記第1のストレージ装置へのリード要求に変換し、前記第1のストレージ装置は当該リード要求を処理し、また、前記計算機からのライト要求に対して、第2のストレージ装置及び第1のストレージ装置にデータが格納され、
     前記キャッシュメモリの前記キャッシュモードがオンのとき、前記計算機からのリード要求に対して、当該リード要求が前記第1のストレージ装置より前記第2のストレージ装置に移行されていないデータを対象にしているときは、前記第1のストレージ装置へのリード要求に変換し、前記第1のストレージ装置は当該リード要求を処理し、当該リード要求が前記第2のストレージ装置に格納されているデータを対象にしているときは、第2のストレージ装置が当該リード要求を処理し、また、前記計算機からのライト要求に対して、第2のストレージ装置にのみデータが格納される
     ことを特徴とする請求項1に記載の計算機システム。
  6.  前記計算機は、
     前記第2の論理ユニットへのパスを追加した後、前記第1の論理ユニットと接続されたパスの状態をスタンバイ状態に遷移させ、
     前記第1及び第2のストレージ装置間におけるデータのコピーが完了した後に、前記第1の論理ユニットと接続された前記パスを削除する
     ことを特徴とする請求項1に記載の計算機システム。
  7.  前記計算機は、
     前記第2の論理ユニットへのパスに障害が発生した場合に、前記第1の論理ユニットとスタンバイ状態で接続されたパスを、アクティブ状態に戻し、当該第1の論理ユニットへのパスを用いる状態に切り替える
     ことを特徴とする請求項1に記載の計算機システム。
  8.  計算機と、
     第1の記憶装置が搭載され、前記第1の記憶装置の記憶領域を第1の論理ユニットとして前記計算機に提供する第1のストレージ装置と、第2の記憶装置が搭載された第2のストレージ装置とを有する計算機システムにおいて第1のストレージ装置から第2のストレージ装置にデータを移行するデータ移行方法において、
     前記第2のストレージ装置が、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定する第1のステップと、
     前記計算機が、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、前記第2のストレージ装置が、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付ける第2のステップと
     を備えることを特徴とするデータ移行方法。
  9.  前記第2のストレージ装置は、
     前記第2の論理ユニットに読み書きされるデータを一時的に保存するキャッシュメモリを備え、動作モードとして、計算機からのリード要求又はライト要求に応じて、リード対象又はライト対象のデータを前記キャッシュメモリから読み出し又は当該キャッシュメモリに書き込むキャッシュモードを有し、
     前記第1のステップにおいて、前記第2のストレージ装置は、前記第1のストレージ装置から収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定した後、前記リード要求及び前記ライト要求に対する前記キャッシュモードをオフに設定し、
     前記第2のステップにおいて、前記第2のストレージ装置は、前記計算機が前記第2の論理ユニットへのパスを追加すると共に、前記第1の論理ユニットへのパスを削除した後に、前記リード要求及び前記ライト要求に対する前記キャッシュモードをオンに設定する
     ことを特徴とする請求項8に記載のデータ移行方法。
  10.  前記第2のストレージ装置には、前記第1の論理ユニットと前記第2の論理ユニットとを対応付ける前記第1の中間記憶階層が設けられ、
     前記第2のステップにおいて、
     前記第2のストレージ装置は、
     前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーする際、
     前記第1の中間記憶階層に対応させて、前記第2の記憶装置と対応付けた第2の中間記憶階層を作成し、
     前記第1の論理ユニットから前記第1の中間記憶階層及び前記第2の中間記憶階層を介して前記第2の記憶装置にデータをコピーし、
     前記第1の中間記憶階層と、前記第2の中間記憶階層との一部又は全部を入れ替える
     ことを特徴とする請求項8に記載のデータ移行方法。
  11.  前記第1及び第2のストレージ装置間におけるデータ移行を管理する管理計算機を備え、
     前記第1のステップにおいて、前記第2のストレージ装置は、前記管理計算機の指示に従って、前記第1のストレージ装置内の前記第1の論理ユニットをそれぞれ仮想化して第2の論理ユニットとして前記計算機に提供すると共に、前記第1のストレージ装置から各前記第1の論理ユニットの構成情報を収集し、収集した各前記第1の論理ユニットの構成情報をそれぞれ対応する前記第2の論理ユニットに設定し、
     前記第2のステップにおいて、前記計算機は、前記管理計算機の指示に従って、前記第2の論理ユニットへのパスを交替パスの対象に追加すると共に、前記第1の論理ユニットへのパスを交替パスの対象から削除し、前記第2のストレージ装置は、前記管理計算機の指示に従って、前記第1のストレージ装置の前記第1の論理ユニットに格納されたデータを前記第2の記憶装置が提供する記憶領域にコピーし、当該記憶領域を前記第2の論理ユニットと対応付ける
     ことを特徴とする請求項8に記載のデータ移行方法。
  12.  前記第2のストレージ装置は、
     前記第1のステップにおいて、
     前記キャッシュメモリの前記キャッシュモードがオフのとき、前記計算機からのリード要求に対して、前記第1のストレージ装置へのリード要求に変換し、前記第1のストレージ装置は当該リード要求を処理し、また、前記計算機からのライト要求に対して、第2のストレージ装置及び第1のストレージ装置にデータが格納され、
     前記第2のステップにおいて、
     前記キャッシュメモリの前記キャッシュモードがオンのとき、前記計算機からのリード要求に対して、当該リード要求が前記第1のストレージ装置より前記第2のストレージ装置に移行されていないデータを対象にしているときは、前記第1のストレージ装置へのリード要求に変換し、前記第1のストレージ装置は当該リード要求を処理し、当該リード要求が前記第2のストレージ装置に格納されているデータを対象にしているときは、第2のストレージ装置が当該リード要求を処理し、また、前記計算機からのライト要求に対して、第2のストレージ装置にのみデータが格納される
     ことを特徴とする請求項8に記載のデータ移行方法。
  13.  前記第2のステップにおいて、前記計算機は、
    前記第2の論理ユニットへのパスを追加した後、前記第1の論理ユニットと接続されたパスの状態をスタンバイ状態に遷移させ、
     前記第1及び第2のストレージ装置間におけるデータのコピーが完了した後に、前記第1の論理ユニットと接続された前記パスを削除する
     ことを特徴とする請求項8に記載のデータ移行方法。
  14.  前記第2のステップにおいて、前記計算機は、
     前記第2の論理ユニットへのパスに障害が発生した場合に、前記第1の論理ユニットとスタンバイ状態で接続されたパスを、アクティブ状態に戻し、当該第1の論理ユニットへのパスを用いる状態に切り替える
     ことを特徴とする請求項8に記載のデータ移行方法。
     
     
PCT/JP2010/004982 2010-08-06 2010-08-06 計算機システム及びデータ移行方法 WO2012017493A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012527471A JP5603941B2 (ja) 2010-08-06 2010-08-06 計算機システム及びデータ移行方法
PCT/JP2010/004982 WO2012017493A1 (ja) 2010-08-06 2010-08-06 計算機システム及びデータ移行方法
US12/988,523 US8443160B2 (en) 2010-08-06 2010-08-06 Computer system and data migration method
US13/892,349 US8892840B2 (en) 2010-08-06 2013-05-13 Computer system and data migration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/004982 WO2012017493A1 (ja) 2010-08-06 2010-08-06 計算機システム及びデータ移行方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/988,523 A-371-Of-International US8443160B2 (en) 2010-08-06 2010-08-06 Computer system and data migration method
US13/892,349 Continuation US8892840B2 (en) 2010-08-06 2013-05-13 Computer system and data migration method

Publications (1)

Publication Number Publication Date
WO2012017493A1 true WO2012017493A1 (ja) 2012-02-09

Family

ID=45556960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004982 WO2012017493A1 (ja) 2010-08-06 2010-08-06 計算機システム及びデータ移行方法

Country Status (3)

Country Link
US (2) US8443160B2 (ja)
JP (1) JP5603941B2 (ja)
WO (1) WO2012017493A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210924A (ja) * 2012-03-30 2013-10-10 Nec Corp 仮想化システム、ストレージ装置、ストレージデータ移行方法、及びストレージデータ移行プログラム
JP2014071534A (ja) * 2012-09-27 2014-04-21 Fujitsu Ltd ストレージ装置、設定方法および設定プログラム
WO2015025358A1 (ja) * 2013-08-20 2015-02-26 株式会社日立製作所 ストレージシステム及びストレージシステムの制御方法
US10503440B2 (en) 2015-01-21 2019-12-10 Hitachi, Ltd. Computer system, and data migration method in computer system

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8112607B2 (en) * 2009-05-07 2012-02-07 Sap Ag Method and system for managing large write-once tables in shadow page databases
CN102387175A (zh) * 2010-08-31 2012-03-21 国际商业机器公司 一种存储系统迁移的方法和系统
US11061597B2 (en) * 2010-11-09 2021-07-13 Pure Storage, Inc. Supporting live migrations and re-balancing with a virtual storage unit
WO2013118188A1 (en) * 2012-02-10 2013-08-15 Hitachi, Ltd. Storage system and method thereof for migrating data with cache bypass
JP6005446B2 (ja) * 2012-08-31 2016-10-12 富士通株式会社 ストレージシステム、仮想化制御装置、情報処理装置、および、ストレージシステムの制御方法
JP6135128B2 (ja) * 2012-12-28 2017-05-31 富士通株式会社 情報処理システム、記憶装置、情報処理装置、データ複製方法及びデータ複製プログラム
US10031703B1 (en) * 2013-12-31 2018-07-24 Emc Corporation Extent-based tiering for virtual storage using full LUNs
US10860220B2 (en) * 2015-01-07 2020-12-08 Microsoft Technology Licensing, Llc Method and system for transferring data between storage systems
WO2016109893A1 (en) * 2015-01-07 2016-07-14 Mover Inc. Method and system for transferring data between storage systems
CN114528022A (zh) * 2015-04-24 2022-05-24 优创半导体科技有限公司 实现虚拟地址的预转换的计算机处理器
JP6343716B2 (ja) 2015-06-24 2018-06-13 株式会社日立製作所 計算機システム及び記憶制御方法
US10306005B1 (en) * 2015-09-30 2019-05-28 EMC IP Holding Company LLC Data retrieval system and method
US10101940B1 (en) * 2015-09-30 2018-10-16 EMC IP Holding Company LLC Data retrieval system and method
US10402100B2 (en) * 2016-03-23 2019-09-03 Netapp Inc. Techniques for path optimization in storage networks
CN107506016B (zh) 2016-06-14 2020-04-21 伊姆西Ip控股有限责任公司 存储设备和对存储设备供电的方法
JP6955159B2 (ja) * 2017-11-21 2021-10-27 富士通株式会社 ストレージシステム、ストレージ制御装置およびプログラム
US10768844B2 (en) * 2018-05-15 2020-09-08 International Business Machines Corporation Internal striping inside a single device
JP7193732B2 (ja) * 2019-04-08 2022-12-21 富士通株式会社 管理装置、情報処理システムおよび管理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007310495A (ja) * 2006-05-16 2007-11-29 Hitachi Ltd 計算機システム
JP2008176627A (ja) * 2007-01-19 2008-07-31 Hitachi Ltd 記憶システム又はストレージ移行方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3918394B2 (ja) * 2000-03-03 2007-05-23 株式会社日立製作所 データ移行方法
US6766430B2 (en) 2000-07-06 2004-07-20 Hitachi, Ltd. Data reallocation among storage systems
JP4115093B2 (ja) 2000-07-06 2008-07-09 株式会社日立製作所 計算機システム
JP4183443B2 (ja) 2002-05-27 2008-11-19 株式会社日立製作所 データ再配置方法及び装置
JP2004013215A (ja) 2002-06-03 2004-01-15 Hitachi Ltd ストレージシステム、ストレージサブシステム、および、それらを含む情報処理システム
JP2004102374A (ja) 2002-09-05 2004-04-02 Hitachi Ltd データ移行装置を有する情報処理システム
US7263593B2 (en) * 2002-11-25 2007-08-28 Hitachi, Ltd. Virtualization controller and data transfer control method
JP2004220450A (ja) 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
US7093088B1 (en) * 2003-04-23 2006-08-15 Emc Corporation Method and apparatus for undoing a data migration in a computer system
JP2005018193A (ja) * 2003-06-24 2005-01-20 Hitachi Ltd ディスク装置のインタフェースコマンド制御方法ならびに計算機システム
US7149859B2 (en) * 2004-03-01 2006-12-12 Hitachi, Ltd. Method and apparatus for data migration with the efficient use of old assets
US7343467B2 (en) * 2004-12-20 2008-03-11 Emc Corporation Method to perform parallel data migration in a clustered storage environment
JP4852298B2 (ja) 2005-10-28 2012-01-11 株式会社日立製作所 仮想ボリュームを識別する情報を引き継ぐ方法及びその方法を用いたストレージシステム
JP4643456B2 (ja) 2006-01-13 2011-03-02 株式会社日立製作所 アクセスの設定方法
JP2008047142A (ja) 2007-09-18 2008-02-28 Hitachi Ltd 情報処理システム、および、情報処理システムのストレージ制御方法
US20090089498A1 (en) * 2007-10-02 2009-04-02 Michael Cameron Hay Transparently migrating ongoing I/O to virtualized storage
US20100070722A1 (en) 2008-09-16 2010-03-18 Toshio Otani Method and apparatus for storage migration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007310495A (ja) * 2006-05-16 2007-11-29 Hitachi Ltd 計算機システム
JP2008176627A (ja) * 2007-01-19 2008-07-31 Hitachi Ltd 記憶システム又はストレージ移行方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210924A (ja) * 2012-03-30 2013-10-10 Nec Corp 仮想化システム、ストレージ装置、ストレージデータ移行方法、及びストレージデータ移行プログラム
JP2014071534A (ja) * 2012-09-27 2014-04-21 Fujitsu Ltd ストレージ装置、設定方法および設定プログラム
WO2015025358A1 (ja) * 2013-08-20 2015-02-26 株式会社日立製作所 ストレージシステム及びストレージシステムの制御方法
JP5948504B2 (ja) * 2013-08-20 2016-07-06 株式会社日立製作所 ストレージシステム及びストレージシステムの制御方法
GB2549242B (en) * 2013-08-20 2020-10-28 Hitachi Ltd Storage system and control method for storage system
US10503440B2 (en) 2015-01-21 2019-12-10 Hitachi, Ltd. Computer system, and data migration method in computer system

Also Published As

Publication number Publication date
US8443160B2 (en) 2013-05-14
US20120036330A1 (en) 2012-02-09
JPWO2012017493A1 (ja) 2013-09-19
JP5603941B2 (ja) 2014-10-08
US20130254504A1 (en) 2013-09-26
US8892840B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
JP5603941B2 (ja) 計算機システム及びデータ移行方法
US7558916B2 (en) Storage system, data processing method and storage apparatus
JP4662548B2 (ja) スナップショット管理装置及び方法並びにストレージシステム
US9292211B2 (en) Computer system and data migration method
US8645653B2 (en) Data migration system and data migration method
JP5512833B2 (ja) ストレージの仮想化機能と容量の仮想化機能との両方を有する複数のストレージ装置を含んだストレージシステム
US8086808B2 (en) Method and system for migration between physical and virtual systems
EP1837767B1 (en) Storage system and data management method
JP5461216B2 (ja) 論理ボリューム管理の為の方法と装置
JP4990940B2 (ja) 計算機装置及びパス管理方法
WO2013046254A1 (en) Management server and data migration method
JP2009116809A (ja) 記憶制御装置、ストレージシステム及び仮想ボリュームの制御方法
JP2009048497A (ja) 論理ボリュームのペアを利用したデータ保存の方式を変更する機能を備えたストレージシステム
JP2009282800A (ja) ストレージ装置及びその制御方法
JP2006331158A (ja) ストレージシステム
JP2006031694A (ja) 1次ミラーシャドウを有するストレージシステム
US10884622B2 (en) Storage area network having fabric-attached storage drives, SAN agent-executing client devices, and SAN manager that manages logical volume without handling data transfer between client computing device and storage drive that provides drive volume of the logical volume
WO2010106694A1 (en) Data backup system and data backup method
JP5715297B2 (ja) ストレージ装置及びその制御方法
US11740823B2 (en) Storage system and storage control method
US10503440B2 (en) Computer system, and data migration method in computer system
JP5355603B2 (ja) ディスクアレイ装置及び論理ボリュームアクセス方法
WO2014087465A1 (ja) ストレージ装置及びストレージ装置移行方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 12988523

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10855585

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012527471

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10855585

Country of ref document: EP

Kind code of ref document: A1