WO2017026070A1 - Storage system and storage management method - Google Patents

Storage system and storage management method Download PDF

Info

Publication number
WO2017026070A1
WO2017026070A1 PCT/JP2015/072897 JP2015072897W WO2017026070A1 WO 2017026070 A1 WO2017026070 A1 WO 2017026070A1 JP 2015072897 W JP2015072897 W JP 2015072897W WO 2017026070 A1 WO2017026070 A1 WO 2017026070A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
data
storage device
volume
count
Prior art date
Application number
PCT/JP2015/072897
Other languages
French (fr)
Japanese (ja)
Inventor
築良 原
雄一郎 長島
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2015/072897 priority Critical patent/WO2017026070A1/en
Publication of WO2017026070A1 publication Critical patent/WO2017026070A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers

Definitions

  • the present invention has been made in consideration of the above points, and it is possible to rearrange redundant data in an optimal storage hierarchy and maintain I / O performance after a storage failure occurs and after a failure is restored.
  • a storage system and a storage management method are proposed.
  • a storage management method characterized by comprising:
  • program is used as the subject.
  • the program performs processing determined by being executed by the processor using the memory and the communication port (communication control device)
  • the processor is used as the subject.
  • the explanation may be as follows. Further, the processing disclosed with the program as the subject may be processing performed by a computer such as a management server or an information processing apparatus. Further, part or all of the program may be realized by dedicated hardware.
  • Hierarchical storage is a storage device that manages each storage area provided by a plurality of types of storage devices with different performances as a plurality of different types of storage tiers.
  • the volume P1 cut out from the first storage is a primary volume (PVOL), and the volume S1 cut out from the second storage is a secondary volume (SVOL).
  • PVOL primary volume
  • SVOL secondary volume
  • the host apparatus normally performs read / write with respect to the primary volume P1, and only the copy write of data of P1 occurs in the secondary volume S1.
  • the data arrangement in the storage tier of the first storage is determined based on the total number of read / write counts. Since only the copy write occurs in the secondary volume S1, the storage tier of the second storage is determined by the write count. Normally, when the read count number is larger than the write count number, the data arrangement differs between the first storage and the second storage device.
  • the first storage 100A mainly includes a CPU 110, a memory 120, ports 130A, 130B and 130C, and a storage device 150A.
  • the ports 130A, 130B, and 130C are interfaces connected to external devices, and are connection ports that can transmit data to the external devices.
  • the port 130A is connected to the port 230 of the first host 200A, and the port 130C is connected to the port 130C of the second storage device to transmit and receive data.
  • a RAID group is defined by one or more storage devices of the same type (SSD, SAS, SATA, etc.), and the storage device 150A is on a storage area provided by one or more storage devices constituting one RAID group.
  • One or more pool volumes are defined. Each pool volume defined on the storage area provided by the same type of storage device is managed as the same type of storage tier (Tier), and a plurality of pool volumes belonging to different storage tiers (Tier) Managed as a pool.
  • three types of storage devices are used as storage devices, and a pool volume defined on a storage area provided by one or more SSDs Defined as a first storage tier and a pool volume defined on a storage area provided by one or more SAS disks as a second storage tier and defined on a storage area provided by one or more SATA disks
  • the pool volume is managed as the third storage hierarchy.
  • three types of SSD, SAS disk, and SATA disk are described as examples.
  • the storage device is not limited to the above disk as long as it is a different type of storage device. It is sufficient that at least two storage hierarchies are configured.
  • the first host 200A performs data I / O with respect to the first storage 100A that provides the primary volume, and only the copyright occurs in the second storage 100B that provides the secondary volume. To do. For this reason, the first storage 100A and the second storage 100B have different data I / O count numbers and different storage tiers in which the data of each storage is stored.
  • a failure occurs in the storage device of the first storage 100A, a failure occurs by providing the I / O count number counted by the first storage 100A to the second storage 100B. Later performance degradation is reduced.
  • the first host 200A mainly includes a CPU 210, a memory 220, a port 230, and the like.
  • the CPU 210 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the first host 200A according to various programs.
  • the memory 220 stores programs and calculation parameters used by the CPU 210, and a program A240 is stored as a business program.
  • the program A handles data A and data B, for example.
  • the port 230 is an interface connected to an external device, and is a connection port capable of transmitting data with the external device.
  • the port 230 is connected to the port 130A of the first storage 100A or the port 130A of the second storage 100B, and transmits and receives data.
  • the management server 300 mainly includes a CPU 310, a memory 320, an HDD 330, and the like.
  • the CPU 310 functions as an arithmetic processing device and a control device, and controls the overall operation in the management server 300 according to various programs.
  • the memory 320 stores programs used by the CPU 310, calculation parameters, and the like.
  • the HDD 330 is an example of a storage device, and stores various data. For example, the count table 143 of the first storage 100A and the second storage 100B is stored.
  • the management server 300 has an input / output device.
  • input / output devices include a display, a keyboard, and a pointer device, but other devices may be used.
  • a serial interface or an Ethernet interface is used as the input / output device, a display computer having a display or a keyboard or a pointer device is connected to the interface, and the display information is transmitted to the display computer.
  • the display computer may perform the display, or the input may be replaced by the input / output device by receiving the input.
  • a set of one or more computers that manage the storage system and display the display information of the present invention may be referred to as a management system.
  • the management server 300 displays display information
  • the management server 300 is a management system
  • a combination of the management server 300 and a display computer is also a management system.
  • a plurality of computers may realize processing equivalent to that of the management server 300.
  • the plurality of computers (displays when the display computer performs display) Management computer) is the management system.
  • the first host 200A uses the volume P1 cut out from the first storage as a primary volume and the volume S1 cut out from the second storage as a secondary volume. .
  • the first host 200A normally recognizes the primary volume P1 as a logical volume LDEV1 that performs read / write.
  • the second storage 100B provides the secondary volume S1 that is a copy pair of the primary volume P1, and records the I / O for the secondary volume S1 in the count table 143.
  • the I / O count for the secondary volume S1 is referred to as a CS count
  • the CS count table 143 is referred to as a CS count table 143B.
  • the management server 300 periodically acquires a CP count table 143A that is an I / O count for the primary volume P1 recorded in the first storage 100A.
  • the data A is stored in the first storage hierarchy, and the data B Are stored in the second storage hierarchy.
  • the CS count table 143B since the secondary volume S1 is not subjected to data read processing, the read count is 0, the I / O count of data A in the secondary volume S1 is 3, and the I / O of data B is The count is 10. For this reason, data B is stored in the first storage hierarchy, and data A is stored in the second storage hierarchy.
  • the management server 300 provides the latest CP count acquired to the second storage 100B. If only the failure has occurred in the primary volume P1 and the first storage 100A is operating normally, the first storage 100A may provide the CP count to the second storage 100B.
  • the second storage 100B provided with the CP count of the primary volume P1 rearranges the data in the storage tier based on the CP count. Specifically, the second storage 100B arranges data A in the first storage hierarchy and arranges data B in the second storage hierarchy. As a result, the second storage 100B can immediately reproduce the same hierarchical arrangement as the first storage 100A and maintain the performance after failover.
  • the first host 100A recognizes the secondary volume S1 provided by the second storage 100B as the logical volume LDEV1, and issues I / O to the secondary volume S1.
  • the second storage 100B updates the CP count table 143A and the CS count table 143B according to the I / O issued from the first host 100A.
  • the CP count table 143A updates both the READ count and the WRITE count, but does not update the READ count of the CS count table 143B, but updates only the WRITE count.
  • the first storage 100A rearranges the data based on the CP count table 143A. Specifically, the first storage 100A arranges the data A in the first storage hierarchy and the data B in the second storage hierarchy. Further, the second storage 100B rearranges the data based on the CS count table 143B. Specifically, the second storage 100B arranges data B in the first storage hierarchy and data A in the second storage hierarchy. As a result, both the first storage 100A and the second storage 100B can arrange each data in an optimal storage hierarchy in consideration of the I / O count during the occurrence of a failure.
  • the first storage 100A has the primary volume P1 and the CP count table 143A that counts writes to the primary volume P1.
  • the second storage 100B has a secondary volume S1 that forms a copy pair with the primary volume P1, and a CS count table 143B that counts writes to the secondary volume S1.
  • the first host 200A writes “WRITE” to the primary volume P1 of the first storage 100A (S101).
  • the first storage 100A returns “ACK” to the first host 200A when the data copy to the secondary volume S1 is asynchronously copied (S102).
  • the write count (WRITE count) of the CP count table 143A is added (S103).
  • the first storage 100A writes “WRITE” to the secondary volume S1 of the second storage 100B (S104).
  • the second storage 100B returns ACK to the first storage 100B, “WRITE ACK” (S105), and adds the write count (WRITE count) of the CS count table 143B (S106).
  • the first storage 100A when there is a data read “READ” from the first host 200A (S107), the first storage 100A returns the data to be read “DATA” to the first host 200A (S108). Then, the first storage 100A adds the read count (READ count) of the CP count table 143A (S109).
  • the secondary volume S1 of the second storage 100B is recognized as the primary volume (PVOL) by the first host 100A (S111).
  • the second storage 100B sets the secondary volume S1 as the primary volume P1 (S112).
  • the first storage 100A transmits the CP count table 143A to the second storage 100B (S113).
  • the CP count table 143A may be transmitted from the management server 300 to the second storage 100B.
  • the second storage 100B rearranges data in the storage tier based on the count number of the CP count table 143A transmitted to the first storage 100A (S114).
  • the second storage 100B If there is a data write “WRITE” from the first host 200A during failover, the second storage 100B returns “ACK” to the first host 200A “WRITE ACK”.
  • the second storage 100B adds the write count “WRITE count” of the CP count table 143A (S117), and also adds the write count “WRITE count” of the CS count table 143B (S118).
  • the second storage 100B returns the data “DATA” to be read to the first host 200A (S120). Then, only the read count “READ count” in the CP count table 143A is added (S121).
  • the difference data updated to the primary volume P1 of the second storage 100B during the failover is copied to the primary volume P1 of the first storage (S133).
  • the second storage 100B sets the primary volume P1 as the secondary volume S1 (S134), and transmits the CP count table 143A of the second storage 100B to the first storage 100A (S135).
  • the first storage 100A rearranges data in the storage tier based on the count number of the CP count table 143A transmitted from the second storage 100B (S136).
  • the second storage 100B rearranges data in the storage tier based on the count number in the CS count table 143B (S137).
  • the storage tier relocation process shown in FIG. 11 is executed. As shown in FIG. 11, the second storage 100B determines whether the CP count table 143A has been passed from the first storage 100A (S201).
  • step S201 If it is determined in step S201 that the CP count table 143A has been passed, the second storage 100B executes the storage tier relocation processing according to the CP count table 143A passed from the first storage 100A. (S202). On the other hand, if it is determined in step S201 that the CP count table 143A is not passed, the storage tier rearrangement process is executed according to the CS count table 143B (S203).
  • step S211 it is determined whether the I / O from the first host A is the data read process “READ” (S211). If it is determined in step S211 that the process is a data reading process, the READ count in the CP count table 143A is incremented (S212).
  • step S211 if it is determined in step S211 that it is not data reading processing, the WRITE count of the CP count table 143A is counted up (S213), and the WRITE count of the CS count table 143B is counted up (S214).
  • the first storage 100A executes the processing shown in FIG. As shown in FIG. 13, the first storage 100A determines whether copying from the secondary volume S1 to the primary volume P1 has been completed (S212).
  • step S212 If it is determined in step S212 that the copy to the primary volume P1 has been completed, the first storage 100A determines whether or not the updated CP count table 143A has been passed from the second storage 100B (S213). ).
  • step S213 If it is determined in step S213 that the updated CP count table 143A has been delivered, the first storage 100A executes storage tier relocation processing according to the updated CP count table 143A (S214).
  • 14 to 16 are conceptual diagrams for explaining details of the data update process at the time of failback.
  • the CP count table 143A updated during failover is transferred from the second storage 100B to the first storage 100A.
  • data B is arranged in the first storage hierarchy of the storage device 150B of the second storage 100B
  • data A is arranged in the second storage hierarchy.
  • the data B is copied to the first storage hierarchy of the storage device 150A of the first storage 100A, and the second storage hierarchy Data A is copied to.
  • the first storage 100A performs data copy to the storage device 150A based on the count number of the CP count table 143A delivered from the second storage 100B at the time of failback.
  • the first storage 100A refers to the CP count table 143A and copies the data A having a larger count number than the data B to the first storage hierarchy.
  • the first storage 100A copies the data B having the next highest count number to the second storage hierarchy.
  • the second host 200B sends I / O to the second storage 100A.
  • the configuration differs from that of the first embodiment in that it is issued. Note that the hardware configuration and functional configuration of each device are the same as those in the first embodiment, and a detailed description thereof will be omitted.
  • the first host 200A issues the I / O to the volume by using the volume P1 cut out from the first storage 100A as the primary volume, and the second The volume S1 cut out from the storage 100B is used as the secondary volume.
  • the second host 200B issues I / O to the volume P2 that is cut out from the second storage 100B as a primary volume.
  • the first host 200A does not expect the second storage 100B to perform performance such as read / write. This means that there is no problem even if the data handled by the first host 200A is stored in the lower layer of the secondary volume of the second storage 100B that is not normally used by the first host 200A.
  • the copy from the primary volume P1 to the secondary volume S1 is a synchronous copy
  • the first host 200A expects performance such as read / write to the second storage 100B and may not expect it. Conceivable. If synchronous copy and performance such as read / write are expected, all of the data handled by the first host 200A and the data handled by the second host 200B through failover, failover, and fuel back It is necessary to rearrange data in consideration of the I / O count.
  • ⁇ Normal time> As shown in FIG. 18, in a normal state, data A and data B are arranged in the storage device 150A of the first storage 100A based on the CP count table 143A. That is, data A is arranged in the first storage hierarchy of the storage device 150A, and data B is arranged in the second storage hierarchy.
  • data A, data B, data C, and data D are arranged in the storage device 150B of the second storage 100B based on the CS count table 143B. That is, data C and data D are arranged in the first storage hierarchy of the storage device 150B, data B is arranged in the second storage hierarchy, and data A is arranged in the third storage hierarchy.
  • the data C and data D read / written from the second host 200B are required to have performance, and thus are arranged in the highest first storage hierarchy.
  • the data A and data B of the secondary volume S1 which is a copy pair of the primary volume P1 of the first storage 100A, are placed in the second storage tier or the third storage tier because performance is not required.
  • data B is written more frequently than data A, so data B is arranged in the second storage hierarchy and data C is arranged in the third storage hierarchy.
  • the data of the first host 200A is arranged in a lower hierarchy of the storage device 150B of the second storage 100B. Therefore, when the first host 200A reads the data or the like using the secondary volume S1 extracted from the storage device 150B as the primary volume (LDEV1), the performance deteriorates compared to before the failover. As described above, in the normal state, if the second storage 100B can exhibit performance only for the second host 200B, performance is not expected for the first host 200A.
  • the second storage 100B must exhibit performance not only for the first host 100A but also for the second host 100B.
  • the host 100A issues sufficient I / O. There has been a problem that the performance has deteriorated until the relocation is performed.
  • the count values of the CP count table 143A and the CS count table 143B are merged, and data rearrangement is performed based on the merged count values.
  • the performance of the second storage 100B can be exhibited to the first host 200A and the second host 200B immediately after failover.
  • the latest CP count of the first storage 100A after the failover is provided to the second storage 100B.
  • the management server 300 may provide the CP count table 143A to the second storage 100B.
  • the second storage 100B creates a CP + CS count table 143C in which the count values of the provided CP count table 143A and CS count table 143B are totaled.
  • the management server 300 may acquire the CP count 143A and the CS count 143B of the first storage 100A and the second storage 100B and create the CP + CS count table 143C.
  • the second storage 100B rearranges the data A to D in the storage hierarchy of the storage device 150B based on the CP + CS count table 143C.
  • the management server 300 creates the CP + CS count table 143C
  • the management server 300 provides the CP + CS count table to the second storage 100B.
  • data A having the largest count number (count number “5”) is arranged in the highest first hierarchy, and then data C having the largest count number (count number “4”) is also in the first hierarchy. Placed in.
  • the data D having the largest count number (count number “3”) is arranged in the second hierarchy, and the data B having the smallest count number (count number “2”) is arranged in the third lowest hierarchy. .
  • the first host 100A recognizes the secondary volume S1 provided by the second storage 100B as the logical volume LDEV1, and issues I / O to the secondary volume S1.
  • the second storage 100B updates the CP count table 143A and the CS count table 143B in accordance with the I / O issued from the first host 100A.
  • the CP count table 143A updates both the READ count and the WRITE count, but does not update the READ count of the CS count table 143B, but updates only the WRITE count.
  • the second storage 100B adds up the count values of the updated CP count table 143A and CS count table 143B to create a CP + CS count table 143C.
  • the second storage 100B rearranges data based on the CP + CS count table 143C when the data rearrangement period comes.
  • the first storage 100A rearranges data based on the CP count table 143A to which the I / O count during failover is added. Specifically, the first storage 100A arranges the data A in the first storage hierarchy and the data B in the second storage hierarchy.
  • the second storage 100B to which the I / O count during failover is added rearranges the data based on the CS count table 143B. Specifically, the second storage 100B arranges data B in the first storage hierarchy and data A in the second storage hierarchy.
  • both the first storage 100A and the second storage 100B can arrange each data in an optimal storage hierarchy in consideration of the I / O count during the occurrence of a failure.
  • the data read / write is performed with the volume configured from the storage area of the second storage device 150B as the primary volume.
  • the data is rearranged in the storage hierarchy of the second storage device 150B.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

[Problem] To reallocate redundant data to an optimum memory hierarchy, and maintain I/O performance after the occurrence of a storage failure and after restoration from the failure. [Solution] Provided is a storage system characterized in that a first memory unit and a second memory unit are configured from multiple kinds of memory units differing in performance, and each memory area provided by each of the multiple kinds of memory units are managed as multiple kinds of memory hierarchies differing from each other. The storage system is further characterized in that when a host device switches a secondary volume provided by a second storage device to a primary volume on which a data read and write is performed, and then performs a data read and write, the second storage device reallocates data to the multiple kinds of memory hierarchies of the second memory unit on the basis of the counts of data reads and writes to the first memory unit from before the switching to the primary volume.

Description

ストレージシステム及びストレージ管理方法Storage system and storage management method
 本発明は、ストレージシステム及びストレージ管理方法に関し、階層ストレージ機能を有するストレージシステム及びストレージ管理方法に適用して好適なるものである。 The present invention relates to a storage system and a storage management method, and is preferably applied to a storage system and a storage management method having a hierarchical storage function.
 最近では、複数のホスト装置が複数のストレージ装置を共有して、データを二重化したり冗長化したりすることにより、耐障害性を高め、システム全体の性能向上を図っている。 Recently, a plurality of host devices share a plurality of storage devices to make data redundant and redundant, thereby improving fault tolerance and improving the performance of the entire system.
 例えば、特許文献1では、複数のストレージ間でデータをコピーして、論理ボリュームのコピーペアを形成する場合に、コピー元の論理ボリュームとコピー先の論理ボリュームとで異なる記憶階層の記憶領域を割り当てて、論理ボリュームの用途に応じてデータを格納する記憶階層を選択することが行われている。 For example, in Patent Document 1, when data is copied between a plurality of storages to form a logical volume copy pair, storage areas having different storage hierarchies are allocated to the copy source logical volume and the copy destination logical volume. Thus, a storage hierarchy for storing data is selected according to the usage of the logical volume.
 上記したように、複数のストレージが階層ストレージ機能を有している場合には、複数のストレージは、各サーバからのI/O数をもとにデータの格納先の記憶階層を決定する。すなわち、各ストレージは、ホスト装置の要求に応じて、アクセス頻度の高いデータを高速及び高性能の記憶階層の記憶領域に格納し、アクセス頻度の低いデータを低速及び低性能の記憶階層の記憶領域に格納する。 As described above, when a plurality of storages have a tiered storage function, the plurality of storages determine the storage tier of the data storage destination based on the number of I / Os from each server. That is, each storage stores data with high access frequency in a storage area of a high-speed and high-performance storage hierarchy and data with low access frequency in a storage area of a low-speed and low-performance storage hierarchy in response to a request from the host device. To store.
特許第532982号明細書Japanese Patent No. 532982
 ここで、冗長化されたストレージのうちホスト装置がデータのリード及びライト(以下、リード/ライトと記す)を行う主ストレージとして利用している一方のストレージに障害が発生し、他方のストレージを主ストレージとして利用する場合に、記憶階層へのデータ配置が問題となる。すなわち、障害発生前後で記憶階層へのデータ配置が異なる場合には、障害発生後にI/O性能が低下してしまうという問題があった。また、障害発生中にデータの再配置が行われた場合には、障害復帰後のI/O性能にも影響してしまうという問題があった。 Here, of the redundant storages, a failure occurs in one storage that the host device uses as the main storage for reading and writing data (hereinafter referred to as read / write), and the other storage is used as the main storage. When used as storage, data placement in the storage hierarchy becomes a problem. That is, when the data arrangement in the storage tier is different before and after the failure occurs, there is a problem that the I / O performance is lowered after the failure occurs. Further, when data rearrangement is performed during the occurrence of a failure, there is a problem that the I / O performance after the failure is also affected.
 本発明は以上の点を考慮してなされたもので、冗長化されたデータを最適な記憶階層に再配置して、ストレージ障害発生後及び障害復帰後のI/O性能を維持することが可能なストレージシステム及びストレージ管理方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and it is possible to rearrange redundant data in an optimal storage hierarchy and maintain I / O performance after a storage failure occurs and after a failure is restored. A storage system and a storage management method are proposed.
 かかる課題を解決するために本発明においては、データのリード及びライトを要求するホスト装置と、第1の記憶装置の記憶領域から構成されるボリュームを正ボリュームとして、前記ホスト装置の要求に応じてデータのリード及びライトを行う第1のストレージ装置と、第2の記憶装置の記憶領域から構成されるボリュームを副ボリュームとして、前記正ボリュームのデータを副ボリュームにコピーする第2のストレージ装置と、を備え、前記第1の記憶装置及び第2の記憶装置は、性能の異なる複数種類の記憶装置から構成され、前記複数種類の記憶装置のそれぞれにより提供される各記憶領域がそれぞれ異なる複数種類の記憶階層として管理され、前記ホスト装置が、前記第2のストレージ装置が提供する前記副ボリュームを、データのリード及びライトを行う正ボリュームに切り替えてデータのリード及びライトを行う場合に、前記第2のストレージ装置は、前記正ボリューム切り替え前の前記第1の記憶装置に対するデータのリード及びライトのカウント数をもとに、前記第2の記憶装置の複数種類の記憶階層にデータを再配置することを特徴とする、ストレージシステムが提供される。 In order to solve such a problem, in the present invention, a volume composed of a host device that requests data read and write and a storage area of the first storage device is defined as a primary volume in response to a request from the host device. A first storage device that reads and writes data, a second storage device that copies the data of the primary volume to the secondary volume using a volume composed of storage areas of the second storage device as a secondary volume, The first storage device and the second storage device are configured from a plurality of types of storage devices having different performance, and each of the storage areas provided by each of the plurality of types of storage devices is a plurality of types. Managed as a storage tier, the host device provides the secondary volume provided by the second storage device as data. When the data is read and written by switching to the primary volume that performs the read and write operations, the second storage device counts the data read and write counts to the first storage device before the primary volume switch. Based on the above, a storage system is provided in which data is rearranged in a plurality of types of storage hierarchies of the second storage device.
 かかる課題を解決するために本発明においては、データのリード及びライトを要求するホスト装置と、第1の記憶装置の記憶領域から構成されるボリュームを正ボリュームとして前記ホスト装置に提供し、前記ホスト装置の要求に応じてデータのリード及びライトを行う第1のストレージ装置と、第2の記憶装置の記憶領域から構成されるボリュームを副ボリュームとして前記ホスト装置に提供し、前記正ボリュームのデータを前記副ボリュームにコピーする第2のストレージ装置と、を備えるストレージシステムにおけるストレージ管理方法であって、前記第1の記憶装置及び前記第2の記憶装置は、性能の異なる複数種類の記憶装置から構成され、前記複数種類の記憶装置のそれぞれにより提供される各記憶領域がそれぞれ異なる複数種類の記憶階層として管理され、前記ホスト装置が、前記第2のストレージ装置が提供する前記副ボリュームを、データのリード及びライトを行う正ボリュームに切り替えてデータのリード及びライトを行うステップと、前記第2のストレージ装置が、前記正ボリューム切り替え前の前記第1の記憶装置に対するデータのリード及びライトのカウント数をもとに、前記第2の記憶装置の複数種類の記憶階層にデータを再配置するステップと、を含むことを特徴とする、ストレージ管理方法が提供される。 In order to solve this problem, in the present invention, a volume composed of a host device that requests reading and writing of data and a storage area of the first storage device is provided to the host device as a primary volume, and the host device A volume composed of a storage area of the first storage device and the second storage device that reads and writes data in response to the request of the device is provided to the host device as a secondary volume, and the data of the primary volume is provided A storage management method in a storage system comprising: a second storage device for copying to the secondary volume, wherein the first storage device and the second storage device are composed of a plurality of types of storage devices having different performances A plurality of different storage areas provided by each of the plurality of types of storage devices. Managed as a kind of storage tier, the host device switching the secondary volume provided by the second storage device to a primary volume for reading and writing data, and reading and writing data; The second storage device rearranges the data in a plurality of types of storage tiers of the second storage device based on the data read and write counts to the first storage device before the primary volume switching A storage management method characterized by comprising:
 本発明によれば、冗長化されたデータを最適な記憶階層に配置して、ストレージ障害発生後及び障害復帰後のI/O性能を維持することができる。 According to the present invention, it is possible to arrange redundant data in an optimal storage hierarchy and maintain I / O performance after a storage failure occurs and after a failure is restored.
本発明の第1の実施形態に係るストレージシステムの構成を示す概略図である。1 is a schematic diagram showing a configuration of a storage system according to a first embodiment of the present invention. 同実施形態にかかるカウントテーブルの一例を示す図表である。It is a chart which shows an example of the count table concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるフェイルオーバ時及びフェイルバック時のデータ管理処理を示すシーケンス図である。It is a sequence diagram which shows the data management process at the time of failover and failback concerning the embodiment. 同実施形態にかかるフェイルオーバ時及びフェイルバック時のデータ管理処理を示すシーケンス図である。It is a sequence diagram which shows the data management process at the time of failover and failback concerning the embodiment. 同実施形態にかかる階層再配置処理を示すフローチャートである。It is a flowchart which shows the hierarchy rearrangement process concerning the embodiment. 同実施形態にかかるカウントテーブルのカウントアップ処理を示すフローチャートである。It is a flowchart which shows the count-up process of the count table concerning the embodiment. 同実施形態にかかる階層再配置処理を示すフローチャートである。It is a flowchart which shows the hierarchy rearrangement process concerning the embodiment. 同実施形態にかかるフェイルバック時のデータアップデート処理を説明する概念図である。It is a conceptual diagram explaining the data update process at the time of failback concerning the embodiment. 同実施形態にかかるフェイルバック時のデータアップデート処理を説明する概念図である。It is a conceptual diagram explaining the data update process at the time of failback concerning the embodiment. 同実施形態にかかるフェイルバック時のデータアップデート処理を説明する概念図である。It is a conceptual diagram explaining the data update process at the time of failback concerning the embodiment. 本発明の第2の実施形態に係るストレージシステムの構成を示す概略図である。It is the schematic which shows the structure of the storage system which concerns on the 2nd Embodiment of this invention. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment. 同実施形態にかかるデータ配置処理の具体例を説明する概念図である。It is a conceptual diagram explaining the specific example of the data arrangement | positioning process concerning the embodiment.
 以下図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
 なお、以後の説明では「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等の表現にて本発明の情報を説明するが、これら情報は必ずしもテーブル、リスト、DB、キュー、等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等について「aaa情報」と呼ぶことがある。 In the following description, the information of the present invention will be described using expressions such as “aaa table”, “aaa list”, “aaaDB”, “aaa queue”, etc., but these information are not necessarily limited to tables, lists, DBs, queues, It may be expressed by other than the data structure. Therefore, “aaa table”, “aaa list”, “aaaDB”, “aaa queue”, etc. may be referred to as “aaa information” to indicate that they are not dependent on the data structure.
 さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。 Furthermore, in describing the contents of each information, the expressions “identification information”, “identifier”, “name”, “name”, and “ID” are used, but these can be replaced with each other.
 以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御デバイス)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。 In the following description, there is a case where “program” is used as the subject. However, since the program performs processing determined by being executed by the processor using the memory and the communication port (communication control device), the processor is used as the subject. The explanation may be as follows. Further, the processing disclosed with the program as the subject may be processing performed by a computer such as a management server or an information processing apparatus. Further, part or all of the program may be realized by dedicated hardware.
 また、各種プログラムはプログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。この場合、プログラム配布サーバはCPUと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶している。そして、配布プログラムをCPUが実行することで、プログラム配布サーバのCPUは配布対象のプログラムを他の計算機に配布する。 Various programs may be installed in each computer by a program distribution server or a storage medium that can be read by the computer. In this case, the program distribution server includes a CPU and storage resources, and the storage resources further store a distribution program and a program to be distributed. When the distribution program is executed by the CPU, the CPU of the program distribution server distributes the distribution target program to other computers.
(1)第1の実施の形態
(1-1)本実施の形態の概要
 まず、本実施の形態の概要について説明する。本実施の形態は、階層型ストレージを有する2つのストレージ装置が存在することを前提としている。階層型ストレージとは、性能の異なる複数種類の記憶装置により提供される各記憶領域を、それぞれ異なる複数種類の記憶階層として管理するストレージ装置である。
(1) First Embodiment (1-1) Outline of the Present Embodiment First, an outline of the present embodiment will be described. This embodiment is based on the premise that there are two storage devices having hierarchical storage. Hierarchical storage is a storage device that manages each storage area provided by a plurality of types of storage devices with different performances as a plurality of different types of storage tiers.
 階層型ストレージでは、アクセス頻度の高いデータが格納された領域に対しては高速及び高性能の記憶階層から記憶領域を割り当て、仮想ボリュームにおけるアクセス頻度の低いデータが格納された領域に対しては低速及び低性能の記憶階層から記憶領域を割り当てる。このような階層型データ管理方法によれば、ストレージシステムにおけるコストパフォーマンスの向上を図ることができる。 In tiered storage, storage areas are allocated from high-speed and high-performance storage tiers for areas that store frequently accessed data, and slow for areas that store infrequently accessed data in virtual volumes. And a storage area is allocated from a low-performance storage hierarchy. According to such a hierarchical data management method, cost performance in the storage system can be improved.
 本実施の形態では、第1のストレージから切り出されたボリュームP1を正ボリューム(PVOL)とし、第2のストレージから切り出されたボリュームS1を副ボリューム(SVOL)とする。ホスト装置は、通常、正ボリュームP1に対してリード/ライトを行い、副ボリュームS1には、P1のデータのコピーライトのみが発生する。 In this embodiment, the volume P1 cut out from the first storage is a primary volume (PVOL), and the volume S1 cut out from the second storage is a secondary volume (SVOL). The host apparatus normally performs read / write with respect to the primary volume P1, and only the copy write of data of P1 occurs in the secondary volume S1.
 この場合、第1のストレージの記憶階層へのデータ配置は、リード/ライトのカウント数の合計値をもとに決定される。副ボリュームS1にはコピーライトしか発生しないため、第2のストレージの記憶階層は、ライトのカウント数で決定される。通常時、リードカウント数がライトカウント数より多い場合には、第1のストレージと第2のストレージ装置とでデータ配置が異なることとなる。 In this case, the data arrangement in the storage tier of the first storage is determined based on the total number of read / write counts. Since only the copy write occurs in the secondary volume S1, the storage tier of the second storage is determined by the write count. Normally, when the read count number is larger than the write count number, the data arrangement differs between the first storage and the second storage device.
 例えば、第1のストレージまたは正ボリュームP1に障害が発生(フェイルオーバ)した場合、ホスト装置は、データのリード/ライトを第2のストレージの副ボリュームS1に行うように切り替える。このとき、第2のストレージの記憶階層のデータ配置が第1のストレージと異なるため、第1のストレージの性能低下が発生してしまう。そこで、本実施の形態では、障害発生前の第1のストレージへのI/Oカウントをもとに障害発生後の第2のストレージのデータを最適な記憶階層に配置して、障害発生後の性能低下を防止することを目的としている。また、障害発生中の第2のストレージへのI/Oカウントをもとに障害復帰後の第1のストレージのデータを最適な記憶階層に配置して、障害復帰後の性能低下も防止する。 For example, when a failure occurs in the first storage or the primary volume P1 (failover), the host device switches to read / write data to the secondary volume S1 of the second storage. At this time, since the data arrangement of the storage hierarchy of the second storage is different from that of the first storage, the performance of the first storage is degraded. Therefore, in the present embodiment, the data of the second storage after the failure occurrence is arranged in the optimum storage tier based on the I / O count to the first storage before the failure occurrence, and after the failure occurrence, The purpose is to prevent performance degradation. Further, the data of the first storage after the failure recovery is arranged in the optimum storage hierarchy based on the I / O count to the second storage in which the failure has occurred, and the performance deterioration after the failure recovery is also prevented.
(1-2)ストレージシステムの構成
 次に、図1を参照して、本実施の形態にかかるストレージシステムの構成について説明する。図1に示すように、ストレージシステムは、第1のストレージ100A、第2のストレージ100B、第1のホスト200A及び管理サーバ300から構成される。第1のホスト200Aは、第1のストレージ100A及び第2のストレージ100Bと接続し、通常は第1のストレージ100Aに対してデータのリード/ライトを行う。管理サーバ300は、第1のストレージ100A及び第2のストレージ100Bと接続して、後述するデータのカウント数の情報を送受信する。
(1-2) Configuration of Storage System Next, the configuration of the storage system according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the storage system includes a first storage 100A, a second storage 100B, a first host 200A, and a management server 300. The first host 200A is connected to the first storage 100A and the second storage 100B, and normally reads / writes data to / from the first storage 100A. The management server 300 is connected to the first storage 100A and the second storage 100B, and transmits / receives information on the data count number described later.
 第1のストレージ100Aは、主に、CPU110、メモリ120、ポート130A、130B及び130C、記憶装置150Aから構成される。 The first storage 100A mainly includes a CPU 110, a memory 120, ports 130A, 130B and 130C, and a storage device 150A.
 CPU110は、演算処理装置および制御装置として機能し、各種プログラムに従って第1のストレージ100A内の動作全般を制御する。メモリ120は、CPU110が使用するプログラムや演算パラメータ等を記憶し、例えば、I/O制御プログラム141、再配置プログラム142、カウントテーブル143などが記憶される。 The CPU 110 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the first storage 100A according to various programs. The memory 120 stores programs and calculation parameters used by the CPU 110, and stores, for example, an I / O control program 141, a rearrangement program 142, a count table 143, and the like.
 I/O制御プログラム141は、第1のホスト100Aからの要求に応じて、記憶装置150Aに記憶されたデータのリード/ライト行う。再配置プログラム142は、定期的または障害発生時等所定のタイミングで、後述するカウントテーブル143をもとに記憶装置150Aのデータを適切な記憶階層に再配置する。 The I / O control program 141 reads / writes data stored in the storage device 150A in response to a request from the first host 100A. The rearrangement program 142 rearranges data in the storage device 150A to an appropriate storage hierarchy based on a count table 143, which will be described later, at a predetermined timing such as periodically or when a failure occurs.
 カウントテーブル143は、データのリード/ライトのカウント数を保持するテーブルである。なお、以下では、データのリード/ライトや再配置処理の主体を第1のストレージ100Aとしているが、実際には、I/O制御プログラム141または再配置プログラム142に基づいて、CPU110が各処理を実行する。 The count table 143 is a table that holds the count number of data read / write. In the following description, the subject of data read / write and relocation processing is the first storage 100A, but in reality, the CPU 110 performs each processing based on the I / O control program 141 or the relocation program 142. Execute.
 ポート130A、130B及び130Cは、外部機器と接続されるインタフェースであって、外部機器とのデータ伝送可能な接続口である。ポート130Aは、第1のホスト200Aのポート230と接続され、ポート130Cは、第2のストレージ装置のポート130Cと接続されて、データの送受信が行われる。 The ports 130A, 130B, and 130C are interfaces connected to external devices, and are connection ports that can transmit data to the external devices. The port 130A is connected to the port 230 of the first host 200A, and the port 130C is connected to the port 130C of the second storage device to transmit and receive data.
 記憶装置150Aは、同一種別(SSD、SAS、SATA等)の1または複数の記憶デバイスによりRAIDグループが定義され、1つのRAIDグループを構成する1または複数の記憶デバイスにより提供される記憶領域上に1または複数のプールボリュームが定義される。また、同一種別の記憶デバイスにより提供される記憶領域上に定義された各プールボリュームは同一種別の記憶階層(Tier)として管理され、互いに異なる記憶階層(Tier)に属する複数のプールボリュームが1つのプールとして管理される。 In the storage device 150A, a RAID group is defined by one or more storage devices of the same type (SSD, SAS, SATA, etc.), and the storage device 150A is on a storage area provided by one or more storage devices constituting one RAID group. One or more pool volumes are defined. Each pool volume defined on the storage area provided by the same type of storage device is managed as the same type of storage tier (Tier), and a plurality of pool volumes belonging to different storage tiers (Tier) Managed as a pool.
 本実施の形態では、上記したように、記憶デバイスとしてSSD、SASディスク及びSATAディスクの3種類の記憶デバイスが用いられており、1または複数のSSDが提供する記憶領域上に定義されたプールボリュームを第1の記憶階層とし、1または複数のSASディスクが提供する記憶領域上に定義されたプールボリュームを第2の記憶階層とし、1または複数のSATAディスクが提供する記憶領域上に定義されたプールボリューを第3の記憶階層として管理する。このように、SSD、SASディスク及びSATAディスクの3種類を例示して説明しているが、異なる種別の記憶デバイスであれば上記ディスクに限定されず、2種類以上の異なる種別の記憶デバイスにより2つ以上の記憶階層が構成されていればよい。 In this embodiment, as described above, three types of storage devices, SSD, SAS disk, and SATA disk, are used as storage devices, and a pool volume defined on a storage area provided by one or more SSDs Defined as a first storage tier and a pool volume defined on a storage area provided by one or more SAS disks as a second storage tier and defined on a storage area provided by one or more SATA disks The pool volume is managed as the third storage hierarchy. As described above, three types of SSD, SAS disk, and SATA disk are described as examples. However, the storage device is not limited to the above disk as long as it is a different type of storage device. It is sufficient that at least two storage hierarchies are configured.
 なお、これら記憶デバイスの種別(SSD、SAS及びSATA)のうち最も応答性能が高いのはSSDであり、次いで高いのはSASディスクであり、最も低いのはSATAディスクである。よって、本実施形態の場合、プールボリュームを構成する3つの階層のうち、最も応答性能が高い記憶階層は第1の記憶階層であり、次いで高い記憶階層は第2の記憶階層であり、最も低い記憶階層は第3の記憶階層である。 Of these storage device types (SSD, SAS, and SATA), the SSD has the highest response performance, the next highest is the SAS disk, and the lowest is the SATA disk. Therefore, in the case of this embodiment, among the three tiers constituting the pool volume, the storage tier with the highest response performance is the first storage tier, and the next highest storage tier is the second storage tier. The storage hierarchy is a third storage hierarchy.
 また、本実施の形態では、第1のストレージ100A及び第2のストレージ100BでデータのI/Oカウントを記録して、I/Oカウント数に基づいて各記憶階層にデータが配置される。すなわち、I/Oカウント数が大きいデータ(ページ)から順に上位の記憶階層に記憶される。第1のストレージ100では、データAは第1の記憶階層に記憶され、データB及びCは第2の記憶階層に記憶され、データDは第3の記憶階層に記憶されている。また、第2のストレージ100Bでは、データD及びCは第1の記憶階層に記憶され、データBは第2の記憶階層に記憶され、データAは第3の記憶階層に記憶されている。 In this embodiment, the I / O count of data is recorded in the first storage 100A and the second storage 100B, and the data is arranged in each storage tier based on the I / O count number. That is, data is stored in an upper storage hierarchy in order from data (page) having a larger I / O count. In the first storage 100, data A is stored in the first storage hierarchy, data B and C are stored in the second storage hierarchy, and data D is stored in the third storage hierarchy. In the second storage 100B, data D and C are stored in the first storage hierarchy, data B is stored in the second storage hierarchy, and data A is stored in the third storage hierarchy.
 データのI/Oカウントは、カウントテーブル143に記憶される。ここで、図2を参照して、カウントテーブル143について説明する。図2に示すように、カウントテーブル143は、DATA欄1430、READ欄1431、WRITE欄1432及び合計欄1433から構成される。DATA欄1430には、データを識別する名称等が格納される。READ欄1431には、READカウント数が格納される。WRITE欄1432には、WRITEカウント数が格納される。合計欄1433には、READカウント数とWRITEカウント数の合計値が格納される。 The data I / O count is stored in the count table 143. Here, the count table 143 will be described with reference to FIG. As shown in FIG. 2, the count table 143 includes a DATA column 1430, a READ column 1431, a WRITE column 1432, and a total column 1433. The DATA column 1430 stores a name for identifying data. The READ column 1431 stores the READ count number. The WRITE column 1432 stores the WRITE count number. The total column 1433 stores the total value of the READ count number and the WRITE count number.
 上記したように、第1のホスト200Aは、正ボリュームを提供する第1のストレージ100Aに対してデータのI/Oを行い、副ボリュームを提供する第2のストレージ100Bは、コピーライトのみが発生する。このため、第1のストレージ100Aと第2のストレージ100Bとでは、データのI/Oカウント数が異なり、各ストレージのデータが記憶される記憶階層が異なることとなる。本実施の形態では、第1のストレージ100Aの記憶装置に障害が発生した場合に、第1のストレージ100AでカウントされたI/Oカウント数を第2のストレージ100Bに提供することにより、障害発生後の性能低下を低減している。 As described above, the first host 200A performs data I / O with respect to the first storage 100A that provides the primary volume, and only the copyright occurs in the second storage 100B that provides the secondary volume. To do. For this reason, the first storage 100A and the second storage 100B have different data I / O count numbers and different storage tiers in which the data of each storage is stored. In this embodiment, when a failure occurs in the storage device of the first storage 100A, a failure occurs by providing the I / O count number counted by the first storage 100A to the second storage 100B. Later performance degradation is reduced.
 図1に戻り、第2のストレージ100Bは、第1のストレージ100Aと同様の構成のため、詳細な説明は省略する。 Referring back to FIG. 1, the second storage 100B has the same configuration as the first storage 100A, and a detailed description thereof will be omitted.
 第1のホスト200Aは、主に、CPU210、メモリ220及びポート230などを備える。CPU210は、演算処理装置および制御装置として機能し、各種プログラムに従って第1のホスト200A内の動作全般を制御する。メモリ220は、CPU210が使用するプログラムや演算パラメータ等を記憶し、業務プログラムとしてプログラムA240が記憶されている。プログラムAは、例えばデータA及びデータBを取り扱う。 The first host 200A mainly includes a CPU 210, a memory 220, a port 230, and the like. The CPU 210 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the first host 200A according to various programs. The memory 220 stores programs and calculation parameters used by the CPU 210, and a program A240 is stored as a business program. The program A handles data A and data B, for example.
 ポート230は、外部機器と接続されるインタフェースであって、外部機器とのデータ伝送可能な接続口である。ポート230は、第1のストレージ100Aのポート130Aまたは第2のストレージ100Bのポート130Aと接続されて、データの送受信が行われる。 The port 230 is an interface connected to an external device, and is a connection port capable of transmitting data with the external device. The port 230 is connected to the port 130A of the first storage 100A or the port 130A of the second storage 100B, and transmits and receives data.
 管理サーバ300は、主にCPU310、メモリ320及びHDD330などを備える。CPU310は、演算処理装置および制御装置として機能し、各種プログラムに従って管理サーバ300内の動作全般を制御する。メモリ320は、CPU310が使用するプログラムや演算パラメータ等を記憶する。HDD330は、記憶装置の一例であり、各種データが記憶され、例えば、上記した第1のストレージ100A及び第2のストレージ100Bのカウントテーブル143が記憶される。 The management server 300 mainly includes a CPU 310, a memory 320, an HDD 330, and the like. The CPU 310 functions as an arithmetic processing device and a control device, and controls the overall operation in the management server 300 according to various programs. The memory 320 stores programs used by the CPU 310, calculation parameters, and the like. The HDD 330 is an example of a storage device, and stores various data. For example, the count table 143 of the first storage 100A and the second storage 100B is stored.
 また、管理サーバ300は、入出力デバイスを有する。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外のデバイスであってもよい。また、入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを入出力デバイスとし、当該インタフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。 Also, the management server 300 has an input / output device. Examples of input / output devices include a display, a keyboard, and a pointer device, but other devices may be used. Also, as an alternative to the input / output device, a serial interface or an Ethernet interface is used as the input / output device, a display computer having a display or a keyboard or a pointer device is connected to the interface, and the display information is transmitted to the display computer. By receiving the input information from the display computer, the display computer may perform the display, or the input may be replaced by the input / output device by receiving the input.
 以後、ストレージシステムを管理し、本願発明の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理サーバ300が表示用情報を表示する場合は管理サーバ300が管理システムである、また、管理サーバ300と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理サーバ300と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。 Hereinafter, a set of one or more computers that manage the storage system and display the display information of the present invention may be referred to as a management system. When the management server 300 displays display information, the management server 300 is a management system, and a combination of the management server 300 and a display computer is also a management system. In addition, in order to increase the speed and reliability of management processing, a plurality of computers may realize processing equivalent to that of the management server 300. In this case, the plurality of computers (displays when the display computer performs display) Management computer) is the management system.
(1-3)データ配置処理の概要
 次に、図3~図8を参照して、本実施の形態にかかるデータ配置処理の具体例について説明する。
(1-3) Outline of Data Arrangement Process Next, a specific example of the data arrangement process according to the present embodiment will be described with reference to FIGS.
<通常時>
 図3に示すように、本実施の形態では、第1のホスト200Aは、第1のストレージから切り出されたボリュームP1を正ボリュームとし、第2のストレージから切り出されたボリュームS1を副ボリュームとしている。第1のホスト200Aは、通常、正ボリュームP1をリード/ライトを行う論理ボリュームLDEV1として認識している。
<Normal time>
As shown in FIG. 3, in the present embodiment, the first host 200A uses the volume P1 cut out from the first storage as a primary volume and the volume S1 cut out from the second storage as a secondary volume. . The first host 200A normally recognizes the primary volume P1 as a logical volume LDEV1 that performs read / write.
 第1のストレージ100Aは、正ボリュームP1に対するI/Oカウントをカウントテーブル143に記録する。以下では、正ボリュームP1に対するI/OカウントをCPカウントと称し、CPカウント記録するカウントテーブル143をCPカウントテーブル143Aと称する。 The first storage 100A records the I / O count for the primary volume P1 in the count table 143. Hereinafter, the I / O count for the primary volume P1 is referred to as a CP count, and the count table 143 for recording the CP count is referred to as a CP count table 143A.
 また、第2のストレージ100Bは、正ボリュームP1のコピーペアとなる副ボリュームS1を提供し、副ボリュームS1に対するI/Oをカウントテーブル143に記録する。以下では、副ボリュームS1に対するI/OカウントをCSカウントと称し、CSカウントテーブル143をCSカウントテーブル143Bと称する。管理サーバ300は、第1のストレージ100Aで記録される正ボリュームP1に対するI/OカウントであるCPカウントテーブル143Aを定期的に取得する。 Also, the second storage 100B provides the secondary volume S1 that is a copy pair of the primary volume P1, and records the I / O for the secondary volume S1 in the count table 143. Hereinafter, the I / O count for the secondary volume S1 is referred to as a CS count, and the CS count table 143 is referred to as a CS count table 143B. The management server 300 periodically acquires a CP count table 143A that is an I / O count for the primary volume P1 recorded in the first storage 100A.
 CPカウントテーブル143Aに示すように、正ボリュームP1のデータAのI/Oカウントは13、データBのI/Oカウントは12であるため、データAが第1の記憶階層に記憶され、データBが第2の記憶階層に記憶される。また、CSカウントテーブル143Bに示すように、副ボリュームS1は、データのリード処理がないため、リードカウントは0となり、副ボリュームS1のデータAのI/Oカウントは3、データBのI/Oカウントは10である。このため、データBが第1の記憶階層に記憶され、データAが第2の記憶階層に記憶される。 As shown in the CP count table 143A, since the I / O count of the data A of the primary volume P1 is 13, and the I / O count of the data B is 12, the data A is stored in the first storage hierarchy, and the data B Are stored in the second storage hierarchy. Further, as shown in the CS count table 143B, since the secondary volume S1 is not subjected to data read processing, the read count is 0, the I / O count of data A in the secondary volume S1 is 3, and the I / O of data B is The count is 10. For this reason, data B is stored in the first storage hierarchy, and data A is stored in the second storage hierarchy.
<正ボリュームP1障害時(フェイルオーバ時)>
 図4に示すように、正ボリュームP1に障害が発生(フェイルオーバ)した場合、管理サーバ300が、取得していた最新のCPカウントを第2のストレージ100Bに提供する。正ボリュームP1に障害が発生したのみで、第1のストレージ100Aが正常に稼働している場合には、第1のストレージ100Aが第2のストレージ100BにCPカウントを提供してもよい。
<When primary volume P1 fails (failover)>
As shown in FIG. 4, when a failure occurs in the primary volume P1 (failover), the management server 300 provides the latest CP count acquired to the second storage 100B. If only the failure has occurred in the primary volume P1 and the first storage 100A is operating normally, the first storage 100A may provide the CP count to the second storage 100B.
 図5に示すように、正ボリュームP1のCPカウントを提供された第2のストレージ100Bは、CPカウントをもとに、データを記憶階層に再配置する。具体的に、第2のストレージ100Bは、データAを第1の記憶階層に配置し、データBを第2の記憶階層に配置する。これにより、第2のストレージ100Bは、第1のストレージ100Aと同様の階層配置を即時に再現して、フェイルオーバ後の性能を維持することができる。 As shown in FIG. 5, the second storage 100B provided with the CP count of the primary volume P1 rearranges the data in the storage tier based on the CP count. Specifically, the second storage 100B arranges data A in the first storage hierarchy and arranges data B in the second storage hierarchy. As a result, the second storage 100B can immediately reproduce the same hierarchical arrangement as the first storage 100A and maintain the performance after failover.
<正ボリュームP1障害中(フェイル中)>
 障害中(フェイル中)は、第1のホスト100Aは、第2のストレージ100Bが提供する副ボリュームS1を論理ボリュームLDEV1と認識して、副ボリュームS1にI/Oを発行する。図6に示すように、第2のストレージ100Bは、第1のホスト100Aから発行されたI/Oにしたがって、CPカウントテーブル143A及びCSカウントテーブル143Bを更新する。ただし、CPカウントテーブル143AはREADカウント及びWRITEカウントの両カウントを更新するが、CSカウントテーブル143BのREADカウントは更新せず、WRITEカウントのみ更新する。
<During primary volume P1 failure (failing)>
During failure (failing), the first host 100A recognizes the secondary volume S1 provided by the second storage 100B as the logical volume LDEV1, and issues I / O to the secondary volume S1. As shown in FIG. 6, the second storage 100B updates the CP count table 143A and the CS count table 143B according to the I / O issued from the first host 100A. However, the CP count table 143A updates both the READ count and the WRITE count, but does not update the READ count of the CS count table 143B, but updates only the WRITE count.
 <正ボリューム回復時(フェイルバック時)>
 図7に示すように、正ボリュームP1が回復した場合には、障害発生中に副ボリュームS1に更新されたデータを正ボリュームP1にコピーする。そして、第2のストレージ100Bは、障害発生中に更新されたCPカウントテーブル143Aを第1のストレージ100Aに提供する。管理サーバ300が第1のストレージ100Aに更新されたCPカウントテーブル143Aを提供してもよい。
<When recovering primary volume (failback)>
As shown in FIG. 7, when the primary volume P1 is recovered, the data updated to the secondary volume S1 during the occurrence of the failure is copied to the primary volume P1. Then, the second storage 100B provides the first storage 100A with the CP count table 143A updated during the occurrence of the failure. The management server 300 may provide the updated CP count table 143A in the first storage 100A.
 次に、図8に示すように、第1のストレージ100Aは、CPカウントテーブル143Aをもとにデータを再配置する。具体的に、第1のストレージ100Aは、データAを第1の記憶階層に配置し、データBを第2の記憶階層に配置する。また、第2のストレージ100Bは、CSカウントテーブル143Bをもとにデータを再配置する。具体的に、第2のストレージ100Bは、データBを第1の記憶階層に配置し、データAを第2の記憶階層に配置する。これにより、第1のストレージ100Aも第2のストレージ100Bも、障害発生中のI/Oカウントを考慮して、各データを最適な記憶階層に配置することが可能となる。 Next, as shown in FIG. 8, the first storage 100A rearranges the data based on the CP count table 143A. Specifically, the first storage 100A arranges the data A in the first storage hierarchy and the data B in the second storage hierarchy. Further, the second storage 100B rearranges the data based on the CS count table 143B. Specifically, the second storage 100B arranges data B in the first storage hierarchy and data A in the second storage hierarchy. As a result, both the first storage 100A and the second storage 100B can arrange each data in an optimal storage hierarchy in consideration of the I / O count during the occurrence of a failure.
(1-4)フェイルオーバ時及びフェイルバック時のデータ管理処理の詳細
 次に、図9~図13を参照して、フェイルオーバ時及びフェイルバック時のデータ管理処理の詳細について説明する。
(1-4) Details of Data Management Processing at Failover and Failback Next, details of data management processing at failover and failback will be described with reference to FIGS.
 上記したように、第1のストレージ100Aは、正ボリュームP1、及び、正ボリュームP1への書き込みをカウントするCPカウントテーブル143Aを有する。また、第2のストレージ100Bは正ボリュームP1とコピーペアを形成する副ボリュームS1、及び、副ボリュームS1への書き込みをカウントするCSカウントテーブル143Bを有する。 As described above, the first storage 100A has the primary volume P1 and the CP count table 143A that counts writes to the primary volume P1. The second storage 100B has a secondary volume S1 that forms a copy pair with the primary volume P1, and a CS count table 143B that counts writes to the secondary volume S1.
 図9に示すように、フェイル前、つまり、通常時は、第1のホスト200Aが第1のストレージ100Aの正ボリュームP1にデータを書き込む「WRITE」(S101)。第1のストレージ100Aは、副ボリュームS1へのデータコピーを非同期でコピーする場合、第1のホスト200AにACKを返す「WRITE ACK」(S102)。そして、CPカウントテーブル143Aの書き込みカウント(WRITEカウント)を加算する(S103)。 As shown in FIG. 9, before the failure, that is, in normal time, the first host 200A writes “WRITE” to the primary volume P1 of the first storage 100A (S101). The first storage 100A returns “ACK” to the first host 200A when the data copy to the secondary volume S1 is asynchronously copied (S102). Then, the write count (WRITE count) of the CP count table 143A is added (S103).
 第1のストレージ100Aは、第2のストレージ100Bの副ボリュームS1にデータを書き込む「WRITE」(S104)。第2のストレージ100Bは、第1のストレージ100BにACKを返し「WRITE ACK」(S105)、CSカウントテーブル143Bの書き込みカウント(WRITEカウント)を加算する(S106)。 The first storage 100A writes “WRITE” to the secondary volume S1 of the second storage 100B (S104). The second storage 100B returns ACK to the first storage 100B, “WRITE ACK” (S105), and adds the write count (WRITE count) of the CS count table 143B (S106).
 続いて、第1のホスト200Aからデータの読み込み「READ」があると(S107)、第1のストレージ100Aは読み込み対象のデータ「DATA」を第1のホスト200Aに返す(S108)。そして、第1のストレージ100Aは、CPカウントテーブル143Aの読み込みカウント(READカウント)を加算する(S109)。 Subsequently, when there is a data read “READ” from the first host 200A (S107), the first storage 100A returns the data to be read “DATA” to the first host 200A (S108). Then, the first storage 100A adds the read count (READ count) of the CP count table 143A (S109).
 その後、正ボリュームP1がフェイルオーバすると(S110)、第2のストレージ100Bの副ボリュームS1を正ボリューム(PVOL)として、第1のホスト100Aに認識させる(S111)。 Thereafter, when the primary volume P1 fails over (S110), the secondary volume S1 of the second storage 100B is recognized as the primary volume (PVOL) by the first host 100A (S111).
 そして、第2のストレージ100Bは、副ボリュームS1を正ボリュームP1とする(S112)。第1のストレージ100Aは、CPカウントテーブル143Aを第2のストレージ100Bに送信する(S113)。上記したように、CPカウントテーブル143Aは、管理サーバ300が第2のストレージ100Bに送信してもよい。 Then, the second storage 100B sets the secondary volume S1 as the primary volume P1 (S112). The first storage 100A transmits the CP count table 143A to the second storage 100B (S113). As described above, the CP count table 143A may be transmitted from the management server 300 to the second storage 100B.
 第2のストレージ100Bは、第1のストレージ100Aに送信されたCPカウントテーブル143Aのカウント数をもとに、記憶階層へのデータの再配置を行う(S114)。 The second storage 100B rearranges data in the storage tier based on the count number of the CP count table 143A transmitted to the first storage 100A (S114).
 フェイルオーバ中に第1のホスト200Aからデータの書き込み「WRITE」があると、第2のストレージ100Bが第1のホスト200AにACKを返す「WRITE ACK」。第2のストレージ100Bは、CPカウントテーブル143Aの書き込みカウント「WRITEカウント」を加算し(S117)、CSカウントテーブル143Bの書き込みカウント「WRITEカウント」も加算する(S118)。 If there is a data write “WRITE” from the first host 200A during failover, the second storage 100B returns “ACK” to the first host 200A “WRITE ACK”. The second storage 100B adds the write count “WRITE count” of the CP count table 143A (S117), and also adds the write count “WRITE count” of the CS count table 143B (S118).
 次に、第1のホスト200Aからデータの読み込み「READ」があると、第2のストレージ100Bが読み込み対象のデータ「DATA」を第1のホスト200Aに返す(S120)。そして、CPカウントテーブル143Aの読み込みカウント「READカウント」のみ加算する(S121)。 Next, when there is a data read “READ” from the first host 200A, the second storage 100B returns the data “DATA” to be read to the first host 200A (S120). Then, only the read count “READ count” in the CP count table 143A is added (S121).
 次に図10に示すように、第1のストレージ100Aの正ボリュームP1が復活(フェイルバック)すると(S131)、第1のストレージ100Aの正ボリュームP1を正ボリューム(PVOL)として、第1のホスト100Aに認識させる(S132)。 Next, as shown in FIG. 10, when the primary volume P1 of the first storage 100A is restored (failed back) (S131), the primary volume P1 of the first storage 100A is made the primary volume (PVOL) and the first host Let 100A recognize (S132).
 そして、フェイルオーバ中に第2のストレージ100Bの正ボリュームP1に更新された差分データを第1のストレージの正ボリュームP1にコピーする(S133)。第2のストレージ100Bは正ボリュームP1を副ボリュームS1とし(S134)、第2のストレージ100BのCPカウントテーブル143Aを第1のストレージ100Aに送信する(S135)。 Then, the difference data updated to the primary volume P1 of the second storage 100B during the failover is copied to the primary volume P1 of the first storage (S133). The second storage 100B sets the primary volume P1 as the secondary volume S1 (S134), and transmits the CP count table 143A of the second storage 100B to the first storage 100A (S135).
 そして、第1のストレージ100Aは第2のストレージ100Bから送信されたCPカウントテーブル143Aのカウント数をもとに、記憶階層へのデータの再配置を行う(S136)。第2のストレージ100BはCSカウントテーブル143Bのカウント数をもとに、記憶階層へのデータの再配置を行う(S137)。 Then, the first storage 100A rearranges data in the storage tier based on the count number of the CP count table 143A transmitted from the second storage 100B (S136). The second storage 100B rearranges data in the storage tier based on the count number in the CS count table 143B (S137).
 次に、図11~図13を参照して、第1のストレージ100A及び第2のストレージ100Bにおけるカウントテーブル143の更新処理及び階層再配置処理について説明する。 Next, with reference to FIG. 11 to FIG. 13, the update process and the tier rearrangement process of the count table 143 in the first storage 100A and the second storage 100B will be described.
 フェイルオーバ時またはフェイルオーバ中に、第2のストレージ100Bが記憶階層の再配置処理を実行する場合には、図11に示す記憶階層の再配置処理を実行する。図11に示すように、第2のストレージ100Bは、第1のストレージ100AからCPカウントテーブル143Aを渡されたかを判定する(S201)。 When the second storage 100B executes the storage tier relocation process at the time of failover or during failover, the storage tier relocation process shown in FIG. 11 is executed. As shown in FIG. 11, the second storage 100B determines whether the CP count table 143A has been passed from the first storage 100A (S201).
 ステップS201において、CPカウントテーブル143Aを渡されたと判定された場合には、第2のストレージ100Bは、第1のストレージ100Aから渡されたCPカウントテーブル143Aに従って、記憶階層の再配置処理を実行する(S202)。一方、ステップS201において、CPカウントテーブル143Aを渡されていないと判定された場合には、CSカウントテーブル143Bに従って記憶階層の再配置処理を実行する(S203)。 If it is determined in step S201 that the CP count table 143A has been passed, the second storage 100B executes the storage tier relocation processing according to the CP count table 143A passed from the first storage 100A. (S202). On the other hand, if it is determined in step S201 that the CP count table 143A is not passed, the storage tier rearrangement process is executed according to the CS count table 143B (S203).
 また、フェイルオーバ中に第2のストレージ100Bに対して第1のホストAからのI/Oが発行された場合には、図12に示すカウントテーブル143のカウントアップ処理を実行する。 Further, when an I / O is issued from the first host A to the second storage 100B during the failover, the count-up process of the count table 143 shown in FIG. 12 is executed.
 図12に示すように、第1のホストAからのI/Oがデータの読み込み処理「READ」かを判定する(S211)。ステップS211において、データの読み込み処理であると判定された場合には、CPカウントテーブル143AのREADカウントをカウントアップする(S212)。 As shown in FIG. 12, it is determined whether the I / O from the first host A is the data read process “READ” (S211). If it is determined in step S211 that the process is a data reading process, the READ count in the CP count table 143A is incremented (S212).
 一方、ステップS211において、データの読み込み処理ではないと判定された場合には、CPカウントテーブル143AのWRITEカウントをカウントアップし(S213)、CSカウントテーブル143BのWRITEカウントをカウントアップする(S214)。 On the other hand, if it is determined in step S211 that it is not data reading processing, the WRITE count of the CP count table 143A is counted up (S213), and the WRITE count of the CS count table 143B is counted up (S214).
 また、フェイルバック時に第2のストレージ100Bの副ボリュームS1から第1のストレージ100Aの正ボリュームP1へのコピーが完了すると、第1のストレージ100Aは、図13に示す処理を実行する。図13に示すように、第1のストレージ100Aは、副ボリュームS1から正ボリュームP1へのコピーが完了したかを判定する(S212)。 Further, when copying from the secondary volume S1 of the second storage 100B to the primary volume P1 of the first storage 100A is completed at the time of failback, the first storage 100A executes the processing shown in FIG. As shown in FIG. 13, the first storage 100A determines whether copying from the secondary volume S1 to the primary volume P1 has been completed (S212).
 ステップS212において、正ボリュームP1へのコピーが完了したと判定された場合には、第1のストレージ100Aは、第2のストレージ100Bから更新されたCPカウントテーブル143Aを渡されたかを判定する(S213)。 If it is determined in step S212 that the copy to the primary volume P1 has been completed, the first storage 100A determines whether or not the updated CP count table 143A has been passed from the second storage 100B (S213). ).
 ステップS213において、更新されたCPカウントテーブル143Aを渡されたと判定された場合には、第1のストレージ100Aは、更新されたCPカウントテーブル143Aに従って記憶階層の再配置処理を実行する(S214)。 If it is determined in step S213 that the updated CP count table 143A has been delivered, the first storage 100A executes storage tier relocation processing according to the updated CP count table 143A (S214).
(1-5)フェイルバック時のデータアップデート処理の詳細
 次に、図10に示したフェイルバック時の更新処理について説明する。上記したように、フェイルバック時には、第2のストレージ100Bの副ボリュームS1から第1のストレージ100Aの正ボリュームP1へのデータコピーが行われる。その後、第1のストレージ100Aは、第2のストレージ100Bから渡されたCPカウントテーブル143Aにしたがって、正ボリュームP1の再配置を行う。ここで、データコピー時に再配置後の記憶階層にデータを直接コピーすることができれば、データコピー後の再配置処理を省略することができる。以下、詳細に説明する。
(1-5) Details of Data Update Processing at Failback Next, update processing at failback shown in FIG. 10 will be described. As described above, at the time of failback, data copying from the secondary volume S1 of the second storage 100B to the primary volume P1 of the first storage 100A is performed. Thereafter, the first storage 100A rearranges the primary volume P1 according to the CP count table 143A passed from the second storage 100B. Here, if data can be directly copied to the storage hierarchy after rearrangement at the time of data copying, the rearrangement process after data copying can be omitted. Details will be described below.
 図14~図16は、フェイルバック時のデータアップデート処理の詳細を説明する概念図である。 14 to 16 are conceptual diagrams for explaining details of the data update process at the time of failback.
 図14に示すように、フェイルオーバ中に更新されたCPカウントテーブル143Aは、第2のストレージ100Bから第1のストレージ100Aに渡される。例えば、フェイルバック時には、第2のストレージ100Bの記憶装置150Bの第1の記憶階層にデータBが配置され、第2の記憶階層にデータAが配置されているとする。この場合、このまま第2のストレージ100Bから第1のストレージ100Aにデータコピーが行われると、第1のストレージ100Aの記憶装置150Aの第1の記憶階層にデータBがコピーされ、第2の記憶階層にデータAがコピーされる。 As shown in FIG. 14, the CP count table 143A updated during failover is transferred from the second storage 100B to the first storage 100A. For example, at the time of failback, it is assumed that data B is arranged in the first storage hierarchy of the storage device 150B of the second storage 100B, and data A is arranged in the second storage hierarchy. In this case, when data is copied from the second storage 100B to the first storage 100A as it is, the data B is copied to the first storage hierarchy of the storage device 150A of the first storage 100A, and the second storage hierarchy Data A is copied to.
 そこで、第1のストレージ100Aは、フェイルバック時に第2のストレージ100Bから渡されたCPカウントテーブル143Aのカウント数をもとに、記憶装置150Aへのデータコピーを行う。 Therefore, the first storage 100A performs data copy to the storage device 150A based on the count number of the CP count table 143A delivered from the second storage 100B at the time of failback.
 具体的には、図15に示すように、第1のストレージ100Aは、CPカウントテーブル143Aを参照して、データBよりもカウント数の多いデータAを第1の記憶階層にコピーする。次いで、図16に示すように、第1のストレージ100Aは、次にカウント数の多いデータBを第2の記憶階層にコピーする。これにより、フェイルバック時に、データコピー後に記憶階層の再配置処理を行わずとも、データコピー時に最適な記憶階層にデータをコピーすることができるため、迅速に理想的な記憶階層にデータを配置することが可能となる。 Specifically, as shown in FIG. 15, the first storage 100A refers to the CP count table 143A and copies the data A having a larger count number than the data B to the first storage hierarchy. Next, as shown in FIG. 16, the first storage 100A copies the data B having the next highest count number to the second storage hierarchy. As a result, the data can be copied to the optimum storage hierarchy at the time of data copy without performing the storage hierarchy rearrangement process after the data copy at the time of failback. It becomes possible.
(1-6)本実施の形態の効果
 上記したように、本実施の形態によれば、第1のストレージ100Aの記憶装置150Aから切り出された正ボリュームP1に障害があった場合に、第2のストレージ100Bの記憶装置150Bから切り出された副ボリュームS1を第1のホスト100Aがデータのリード/ライトを行う正ボリュームに切り替える際に、障害発生直前の第1の記憶装置150Aに対するデータのリード/ライトのカウント数をもとに、第2の記憶装置150Bの記憶階層にデータを再配置する。これにより、第1のストレージ100A及び第2のストレージ100Bで冗長化されたデータを最適な記憶階層に配置して、ストレージ障害発生後及び障害復帰後のI/O性能を維持することができる。
(1-6) Effects of this Embodiment As described above, according to this embodiment, when there is a failure in the primary volume P1 cut out from the storage device 150A of the first storage 100A, the second When switching the secondary volume S1 cut out from the storage device 150B of the storage device 100B to the primary volume from which the first host 100A reads / writes data, the read / write of data to the first storage device 150A immediately before the occurrence of the failure Based on the write count, the data is rearranged in the storage hierarchy of the second storage device 150B. As a result, the data made redundant in the first storage 100A and the second storage 100B can be arranged in the optimum storage tier, and the I / O performance after the storage failure and after the failure recovery can be maintained.
(2)第2の実施の形態
(2-1)本実施の形態の概要
 本実施の形態では、図17に示すように、第2のホスト200Bが、第2のストレージ100AにI/Oを発行している点で第1の実施の形態と異なる構成をしている。なお、各装置のハードウェア構成及び機能構成は、第1の実施の形態と同様のため、詳細な説明は省略する。
(2) Second Embodiment (2-1) Outline of the Present Embodiment In this embodiment, as shown in FIG. 17, the second host 200B sends I / O to the second storage 100A. The configuration differs from that of the first embodiment in that it is issued. Note that the hardware configuration and functional configuration of each device are the same as those in the first embodiment, and a detailed description thereof will be omitted.
 本実施の形態では、第1のホスト200Aは、第1の実施の形態と同様に、第1のストレージ100Aから切り出されたボリュームP1を正ボリュームとして当該ボリュームにI/Oを発行し、第2のストレージ100Bから切り出されたボリュームS1を副ボリュームとしている。一方、第2のホスト200Bは、第2のストレージ100Bから切り出されたボリュームP2を正ボリュームとして当該ボリュームにI/Oを発行している。ここで、正ボリュームP1から副ボリュームS1へのコピーが非同期コピーであった場合には、第1のホスト200Aは、第2のストレージ100Bにリード/ライト等の性能を期待しない。これは、第1のホスト200Aが扱うデータは、第1のホスト200Aが通常時には利用しない第2のストレージ100Bの副ボリュームの下位下層に記憶されていても問題がないことを意味する。 In the present embodiment, similarly to the first embodiment, the first host 200A issues the I / O to the volume by using the volume P1 cut out from the first storage 100A as the primary volume, and the second The volume S1 cut out from the storage 100B is used as the secondary volume. On the other hand, the second host 200B issues I / O to the volume P2 that is cut out from the second storage 100B as a primary volume. Here, when the copy from the primary volume P1 to the secondary volume S1 is an asynchronous copy, the first host 200A does not expect the second storage 100B to perform performance such as read / write. This means that there is no problem even if the data handled by the first host 200A is stored in the lower layer of the secondary volume of the second storage 100B that is not normally used by the first host 200A.
 なお、正ボリュームP1から副ボリュームS1へのコピーが同期コピーであった場合には、第1のホスト200Aが第2のストレージ100Bにリード/ライト等の性能を期待する場合と、期待しない場合が考えられる。同期コピーであって、リード/ライト等の性能が期待される場合には、フェイルオーバ時、フェイルオーバ中、フィエルバック時を通して第1のホスト200Aが扱うデータ及び第2のホスト200Bが扱うデータのすべてのI/Oカウントを考慮してデータの再配置を行う必要がある。 When the copy from the primary volume P1 to the secondary volume S1 is a synchronous copy, there are cases where the first host 200A expects performance such as read / write to the second storage 100B and may not expect it. Conceivable. If synchronous copy and performance such as read / write are expected, all of the data handled by the first host 200A and the data handled by the second host 200B through failover, failover, and fuel back It is necessary to rearrange data in consideration of the I / O count.
(2-2)データ配置処理の概要
 図18~図24を参照して、本実施の形態にかかるデータ配置処理の概要について説明する。図18~図24では、第2のストレージ100Bの階層構造に着目するため、第1のホストが正ボリュームP1を論理ボリュームLDEV1として認識し、第2のホストが正ボリュームP2を論理ボリュームLDEV2として認識し、正ボリュームP1のコピーペアを副ボリュームS1とする。
(2-2) Outline of Data Arrangement Processing With reference to FIGS. 18 to 24, an outline of data arrangement processing according to the present embodiment will be described. 18 to 24, in order to focus on the hierarchical structure of the second storage 100B, the first host recognizes the primary volume P1 as the logical volume LDEV1, and the second host recognizes the primary volume P2 as the logical volume LDEV2. The copy pair of the primary volume P1 is set as the secondary volume S1.
<通常時>
 図18に示すように、通常時、第1のストレージ100Aの記憶装置150Aには、CPカウントテーブル143Aをもとに、データA及びデータBが配置される。すなわち、記憶装置150Aの第1の記憶階層にデータAが配置され、第2の記憶階層にデータBが配置される。
<Normal time>
As shown in FIG. 18, in a normal state, data A and data B are arranged in the storage device 150A of the first storage 100A based on the CP count table 143A. That is, data A is arranged in the first storage hierarchy of the storage device 150A, and data B is arranged in the second storage hierarchy.
 また、第2のストレージ100Bの記憶装置150Bには、CSカウントテーブル143Bをもとに、データA、データB、データC及びデータDが配置される。すなわち、記憶装置150Bの第1の記憶階層にデータC及びデータDが配置され、第2の記憶階層にデータBが配置され、第3の記憶階層にデータAが配置される。第2のストレージ100Bでは、第2のホスト200Bからリード/ライトされるデータC及びデータDは性能を求められるため、最上位の第1の記憶階層に配置される。 Also, data A, data B, data C, and data D are arranged in the storage device 150B of the second storage 100B based on the CS count table 143B. That is, data C and data D are arranged in the first storage hierarchy of the storage device 150B, data B is arranged in the second storage hierarchy, and data A is arranged in the third storage hierarchy. In the second storage 100B, the data C and data D read / written from the second host 200B are required to have performance, and thus are arranged in the highest first storage hierarchy.
 そして、第1のストレージ100Aの正ボリュームP1のコピーペアである副ボリュームS1のデータA及びデータBは、性能を求められないため、第2の記憶階層または第3の記憶階層に配置される。図18では、CSカウントテーブル143Bから、データBがデータAより書き込み回数が多いため、データBが第2の記憶階層にデータBが配置され、データCが第3の記憶階層に配置される。 The data A and data B of the secondary volume S1, which is a copy pair of the primary volume P1 of the first storage 100A, are placed in the second storage tier or the third storage tier because performance is not required. In FIG. 18, from the CS count table 143B, data B is written more frequently than data A, so data B is arranged in the second storage hierarchy and data C is arranged in the third storage hierarchy.
<正ボリュームP1障害時(フェイルオーバ時)>
 図19に示すように、正ボリュームP1に障害が発生(フェイルオーバ)した場合には、第1のホスト200Aは、第1のストレージ100AにI/Oを発行できなくなるため、第1のホスト200Aに、第2のストレージ100Bの副ボリュームS1を論理ボリュームLDEV1として認識させる。そして、第1のホスト200Aは、副ボリュームS1に対してI/Oを発行する。
<When primary volume P1 fails (failover)>
As shown in FIG. 19, when a failure occurs in the primary volume P1 (failover), the first host 200A cannot issue I / O to the first storage 100A. The secondary volume S1 of the second storage 100B is recognized as the logical volume LDEV1. Then, the first host 200A issues an I / O to the secondary volume S1.
 このとき、第1のホスト200Aのデータは、第2のストレージ100Bの記憶装置150Bの下位の階層に配置されている。したがって、第1のホスト200Aが記憶装置150Bから切り出された副ボリュームS1を正ボリューム(LDEV1)としてデータの読み込み等をすると、フェイルオーバ前と比べて性能が低下してしまう。上記したように、通常時は、第2のストレージ100Bは第2のホスト200Bに対してのみ性能を発揮できれば、第1のホスト200Aに対しては性能を期待されない。 At this time, the data of the first host 200A is arranged in a lower hierarchy of the storage device 150B of the second storage 100B. Therefore, when the first host 200A reads the data or the like using the secondary volume S1 extracted from the storage device 150B as the primary volume (LDEV1), the performance deteriorates compared to before the failover. As described above, in the normal state, if the second storage 100B can exhibit performance only for the second host 200B, performance is not expected for the first host 200A.
 しかし、フェイルオーバ中は、第2のストレージ100Bは、第1のホスト100Aだけでなく、第2のホスト100Bに対しても性能を発揮しなければならない。第2のストレージ100Bが第1のホスト100A及び第2のホスト100Bの両者に対して性能を発揮できるような最適な階層配置となるためには、ホスト100Aが十分にI/Oを発行して再配置が行われるまで待たなければならず、それまでの間性能が低下してしまうという問題があった。 However, during failover, the second storage 100B must exhibit performance not only for the first host 100A but also for the second host 100B. In order for the second storage 100B to have an optimal tier arrangement that can exhibit performance for both the first host 100A and the second host 100B, the host 100A issues sufficient I / O. There has been a problem that the performance has deteriorated until the relocation is performed.
 そこで、本実施の形態では、CPカウントテーブル143AとCSカウントテーブル143Bのカウント値をマージして、マージしたカウント値をもとにデータの再配置を行う。これにより、フェイルオーバ後即時に、第1のホスト200A及び第2のホスト200Bに対して、第2のストレージ100Bの性能を発揮させることができる。 Therefore, in the present embodiment, the count values of the CP count table 143A and the CS count table 143B are merged, and data rearrangement is performed based on the merged count values. As a result, the performance of the second storage 100B can be exhibited to the first host 200A and the second host 200B immediately after failover.
 具体的には、図20に示すように、フェイルオーバ後に第1のストレージ100Aが有する最新のCPカウントを第2のストレージ100Bに提供する。上記したように、管理サーバ300(図示せず)が定期的にCPカウントを取得している場合には、管理サーバ300が第2のストレージ100BにCPカウントテーブル143Aを提供してもよい。 Specifically, as shown in FIG. 20, the latest CP count of the first storage 100A after the failover is provided to the second storage 100B. As described above, when the management server 300 (not shown) regularly acquires the CP count, the management server 300 may provide the CP count table 143A to the second storage 100B.
 そして、図21に示すように、第2のストレージ100Bは、提供されたCPカウントテーブル143AとCSカウントテーブル143Bのカウント値を合計した、CP+CSカウントテーブル143Cを作成する。管理サーバ300が第1のストレージ100Aと第2のストレージ100BのCPカウント143AとCSカウント143Bを取得してCP+CSカウントテーブル143Cを作成してもよい。そして、第2のストレージ100BはCP+CSカウントテーブル143CをもとにデータA~Dを記憶装置150Bの記憶階層に再配置する。管理サーバ300がCP+CSカウントテーブル143Cを作成した場合は、管理サーバ300が第2のストレージ100BにCP+CSカウントテーブルを提供する。 Then, as shown in FIG. 21, the second storage 100B creates a CP + CS count table 143C in which the count values of the provided CP count table 143A and CS count table 143B are totaled. The management server 300 may acquire the CP count 143A and the CS count 143B of the first storage 100A and the second storage 100B and create the CP + CS count table 143C. Then, the second storage 100B rearranges the data A to D in the storage hierarchy of the storage device 150B based on the CP + CS count table 143C. When the management server 300 creates the CP + CS count table 143C, the management server 300 provides the CP + CS count table to the second storage 100B.
 図21では、カウント数の一番大きい(カウント数「5」)データAが最上位の第1の階層に配置され、次いでカウント数の大きい(カウント数「4」)データCも第1の階層に配置される。次いでカウント数の大きい(カウント数「3」)データDは第2の階層に配置され、カウント数の一番小さい(カウント数「2」)データBが最下位の第3の階層に配置される。 In FIG. 21, data A having the largest count number (count number “5”) is arranged in the highest first hierarchy, and then data C having the largest count number (count number “4”) is also in the first hierarchy. Placed in. Next, the data D having the largest count number (count number “3”) is arranged in the second hierarchy, and the data B having the smallest count number (count number “2”) is arranged in the third lowest hierarchy. .
<正ボリュームP1障害中(フェイルオーバ中)>
 障害中(フェイルオーバ中)は、第1のホスト100Aは、第2のストレージ100Bが提供する副ボリュームS1を論理ボリュームLDEV1と認識して、副ボリュームS1にI/Oを発行する。図22に示すように、第2のストレージ100Bは、第1のホスト100Aから発行されたI/Oにしたがって、CPカウントテーブル143A及びCSカウントテーブル143Bを更新する。ただし、CPカウントテーブル143AはREADカウント及びWRITEカウントの両カウントを更新するが、CSカウントテーブル143BのREADカウントは更新せず、WRITEカウントのみ更新する。
<During primary volume P1 failure (failover)>
During failure (failover), the first host 100A recognizes the secondary volume S1 provided by the second storage 100B as the logical volume LDEV1, and issues I / O to the secondary volume S1. As shown in FIG. 22, the second storage 100B updates the CP count table 143A and the CS count table 143B in accordance with the I / O issued from the first host 100A. However, the CP count table 143A updates both the READ count and the WRITE count, but does not update the READ count of the CS count table 143B, but updates only the WRITE count.
 そして、第2のストレージ100Bは、更新したCPカウントテーブル143AとCSカウントテーブル143Bのカウント値を合計して、CP+CSカウントテーブル143Cを作成する。第2のストレージ100Bは、データの再配置周期がくるとCP+CSカウントテーブル143Cに基づいてデータを再配置する。 Then, the second storage 100B adds up the count values of the updated CP count table 143A and CS count table 143B to create a CP + CS count table 143C. The second storage 100B rearranges data based on the CP + CS count table 143C when the data rearrangement period comes.
 <正ボリューム回復時(フェイルバック時)>
 図23に示すように、正ボリュームP1が回復した場合には、障害発生中に副ボリュームS1に更新されたデータを正ボリュームP1にコピーする。そして、第2のストレージ100Bは、障害発生中に更新されたCPカウントテーブル143Aを第1のストレージ100Aに提供する。管理サーバ300が第1のストレージ100Aに更新されたCPカウントテーブル143Aを提供してもよい。
<When recovering primary volume (failback)>
As shown in FIG. 23, when the primary volume P1 is recovered, the data updated to the secondary volume S1 during the occurrence of the failure is copied to the primary volume P1. Then, the second storage 100B provides the first storage 100A with the CP count table 143A updated during the occurrence of the failure. The management server 300 may provide the updated CP count table 143A in the first storage 100A.
 次に、図24に示すように、第1のストレージ100Aは、フェイルオーバ中のI/Oカウントが加算されたCPカウントテーブル143Aをもとにデータを再配置する。具体的に、第1のストレージ100Aは、データAを第1の記憶階層に配置し、データBを第2の記憶階層に配置する。また、フェイルオーバ中のI/Oカウントが加算された第2のストレージ100Bは、CSカウントテーブル143Bをもとにデータを再配置する。具体的に、第2のストレージ100Bは、データBを第1の記憶階層に配置し、データAを第2の記憶階層に配置する。これにより、第1のストレージ100Aも第2のストレージ100Bも、障害発生中のI/Oカウントを考慮して、各データを最適な記憶階層に配置することが可能となる。 Next, as shown in FIG. 24, the first storage 100A rearranges data based on the CP count table 143A to which the I / O count during failover is added. Specifically, the first storage 100A arranges the data A in the first storage hierarchy and the data B in the second storage hierarchy. The second storage 100B to which the I / O count during failover is added rearranges the data based on the CS count table 143B. Specifically, the second storage 100B arranges data B in the first storage hierarchy and data A in the second storage hierarchy. As a result, both the first storage 100A and the second storage 100B can arrange each data in an optimal storage hierarchy in consideration of the I / O count during the occurrence of a failure.
(2-3)本実施の形態の効果
 上記したように、本実施の形態によれば、第2の記憶装置150Bの記憶領域から構成されるボリュームを正ボリュームとしてデータのリード/ライトを行う第2のホスト200Bを備えている場合に、第1の記憶装置150Aの障害発生時に、第1のホスト200Aからのリード/ライトのカウント数及び第2のホスト200Bからのリード/ライトのカウント数をもとに、第2の記憶装置150Bの記憶階層にデータを再配置する。これにより、1つの記憶装置に正ボリューム及び正ボリュームのコピーペアとなる副ボリュームとが混在している場合でも、何れかの記憶装置の障害発生後及び障害復帰後のI/O性能を維持することができる。
(2-3) Effects of the Embodiment As described above, according to the present embodiment, the data read / write is performed with the volume configured from the storage area of the second storage device 150B as the primary volume. In the case where the second host 200B is provided, the read / write count from the first host 200A and the read / write count from the second host 200B when the failure of the first storage device 150A occurs. Originally, the data is rearranged in the storage hierarchy of the second storage device 150B. Thereby, even when a primary volume and a secondary volume that is a copy pair of the primary volume coexist in one storage device, the I / O performance after failure occurrence and recovery from the failure of any storage device is maintained. be able to.
 100A  第1のストレージ
 100B  第2のストレージ
 141   IO制御プログラム
 142   再配置プログラム
 143   カウントテーブル
 150A、150B 記憶装置
 200A  第1のホスト
 200B  第2のホスト
 300   管理サーバ
100A First storage 100B Second storage 141 IO control program 142 Relocation program 143 Count table 150A, 150B Storage device 200A First host 200B Second host 300 Management server

Claims (9)

  1.  データのリード及びライトを要求するホスト装置と、
     第1の記憶装置の記憶領域から構成されるボリュームを正ボリュームとして前記ホスト装置に提供し、前記ホスト装置の要求に応じてデータのリード及びライトを行う第1のストレージ装置と、
     第2の記憶装置の記憶領域から構成されるボリュームを副ボリュームとして前記ホスト装置に提供し、前記正ボリュームのデータを前記副ボリュームにコピーする第2のストレージ装置と、
     を備え、
     前記第1の記憶装置及び前記第2の記憶装置は、性能の異なる複数種類の記憶装置から構成され、前記複数種類の記憶装置のそれぞれにより提供される各記憶領域がそれぞれ異なる複数種類の記憶階層として管理され、
     前記ホスト装置が、前記第2のストレージ装置が提供する前記副ボリュームを、データのリード及びライトを行う正ボリュームに切り替えてデータのリード又はライトを行う場合に、前記第2のストレージ装置が、前記正ボリューム切り替え前の前記第1の記憶装置に対するデータのリード及びライトのカウント数をもとに、前記第2の記憶装置の複数種類の記憶階層にデータを再配置する
     ことを特徴とする、ストレージシステム。
    A host device that requests data read and write;
    A first storage device that provides a volume composed of a storage area of the first storage device as a primary volume to the host device, and reads and writes data in response to a request from the host device;
    A second storage device that provides a volume composed of a storage area of a second storage device to the host device as a secondary volume, and copies the data of the primary volume to the secondary volume;
    With
    The first storage device and the second storage device are composed of a plurality of types of storage devices having different performance, and a plurality of types of storage hierarchies in which each storage area provided by each of the plurality of types of storage devices is different. Managed as
    When the host device switches the secondary volume provided by the second storage device to a primary volume that reads and writes data and reads or writes data, the second storage device Storage is characterized in that data is rearranged in a plurality of types of storage hierarchies of the second storage device based on the read and write counts of data to the first storage device before switching the primary volume system.
  2.  前記ホスト装置は、
     前記第1の記憶装置の障害発生時に、前記第2のストレージ装置が提供する前記副ボリュームを、データのリード及びライトを行う正ボリュームに切り替えてデータのリード及びライトを行う
     ことを特徴とする、請求項1に記載のストレージシステム。
    The host device is
    When a failure occurs in the first storage device, the secondary volume provided by the second storage device is switched to a primary volume that reads and writes data, and data is read and written. The storage system according to claim 1.
  3.  前記第1のストレージ装置は、
     前記第1の記憶装置に対するリード及びライトのカウント数を保持する第1のカウントテーブルを有し、前記第2のストレージ装置は、前記第2の記憶装置に対するリード及びライトのカウント数を保持する第2のカウントテーブルを有し、前記第2の記憶装置の副ボリュームを正ボリュームに切り替える際に、前記第1のカウントテーブルを前記第2のストレージ装置に提供する
     ことを特徴とする、請求項2に記載のストレージシステム。
    The first storage device
    A first count table for holding a read / write count for the first storage device; and the second storage device holds a read / write count for the second storage device. 3. The second storage device is provided when the secondary volume of the second storage device is switched to the primary volume, and the first count table is provided to the second storage device. The storage system described in.
  4.  前記第2のストレージ装置は、
     前記第1のストレージ装置から提供された前記第1のカウントテーブルに保持されたリード及びライトのカウント数をもとに、前記第2の記憶装置の記憶階層にデータを再配置する
     ことを特徴とする、請求項3に記載のストレージシステム。
    The second storage device
    The data is rearranged in the storage hierarchy of the second storage device based on the read and write counts held in the first count table provided from the first storage device. The storage system according to claim 3.
  5.  前記第2のストレージ装置は、
     前記第1のストレージ装置の障害発生中に、前記第2のストレージ装置にデータのライトがあった場合、前記第1のカウントテーブル及び前記第2のカウントテーブルのライトのカウント数を更新し、前記第2のストレージ装置にデータのリードがあった場合、前記第2のカウントテーブルのリードのカウント数のみ更新する
     ことを特徴とする、請求項4に記載のストレージシステム。
    The second storage device
    If there is a data write in the second storage device during the occurrence of a failure in the first storage device, the write count numbers of the first count table and the second count table are updated, and 5. The storage system according to claim 4, wherein, when data is read from the second storage device, only the read count of the second count table is updated.
  6.  前記ホスト装置は、
     前記第1の記憶装置の回復時に、前記第1の記憶装置を正ボリュームとし、前記第2の記憶装置を副ボリュームとし、
     前記第1のストレージ装置は、
     前記第2のストレージ装置で更新されたデータを前記第1の記憶装置に反映し、前記第2のストレージ装置で更新されたデータのリード及びライトのカウント数をもとに、前記第1の記憶装置の記憶階層にデータを再配置する
     ことを特徴とする、請求項5に記載のストレージシステム。
    The host device is
    At the time of recovery of the first storage device, the first storage device is a primary volume, the second storage device is a secondary volume,
    The first storage device
    The data updated in the second storage device is reflected in the first storage device, and the first storage is performed based on the read and write counts of the data updated in the second storage device. The storage system according to claim 5, wherein the data is rearranged in a storage hierarchy of the device.
  7.  前記第1のストレージ装置は、
     障害発生中の前記第2のストレージ装置の前記第2の記憶装置の正ボリュームに対する更新データを、障害発生中に更新されたデータのリード及びライトのカウント数に基づいて、前記第1のストレージ装置の前記第1の記憶装置の記憶階層にコピーする
     ことを特徴とする、請求項6に記載のストレージシステム。
    The first storage device
    The update data for the primary volume of the second storage device of the second storage device in which the failure has occurred is updated based on the read and write counts of the data updated in the event of the failure. The storage system according to claim 6, wherein the storage system is copied to a storage hierarchy of the first storage device.
  8.  前記2の記憶装置の記憶領域から構成されるボリュームを正ボリュームとしてデータのリード及びライトを行う第2のホスト装置を備え、
     前記第2のストレージ装置は、
     前記第1の記憶装置の障害発生時に、前記第1のホスト装置からのリード及びライトのカウント数及び前記第2のホスト装置からのリード及びライトのカウント数をもとに、前記第2の記憶装置の記憶階層にデータを再配置する
     ことを特徴とする、請求項1に記載のストレージシステム。
    A second host device that reads and writes data with the volume configured from the storage area of the second storage device as a primary volume
    The second storage device
    When the failure occurs in the first storage device, the second storage is performed based on the read and write counts from the first host device and the read and write counts from the second host device. The storage system according to claim 1, wherein the data is rearranged in a storage hierarchy of the device.
  9.  データのリード及びライトを要求するホスト装置と、第1の記憶装置の記憶領域から構成されるボリュームを正ボリュームとして前記ホスト装置に提供し、前記ホスト装置の要求に応じてデータのリード及びライトを行う第1のストレージ装置と、第2の記憶装置の記憶領域から構成されるボリュームを副ボリュームとして前記ホスト装置に提供し、前記正ボリュームのデータを前記副ボリュームにコピーする第2のストレージ装置と、を備えるストレージシステムにおけるストレージ管理方法であって、
     前記第1の記憶装置及び前記第2の記憶装置は、性能の異なる複数種類の記憶装置から構成され、前記複数種類の記憶装置のそれぞれにより提供される各記憶領域がそれぞれ異なる複数種類の記憶階層として管理され、
     前記ホスト装置が、前記第2のストレージ装置が提供する前記副ボリュームを、データのリード及びライトを行う正ボリュームに切り替えてデータのリード及びライトを行うステップと、
     前記第2のストレージ装置が、前記正ボリューム切り替え前の前記第1の記憶装置に対するデータのリード及びライトのカウント数をもとに、前記第2の記憶装置の複数種類の記憶階層にデータを再配置するステップと、
     を含むことを特徴とする、ストレージ管理方法。
     
    A volume composed of a host device that requests data read and write and a storage area of the first storage device is provided as a primary volume to the host device, and data read and write is performed in response to a request from the host device A first storage device to be performed; a second storage device that provides a volume composed of a storage area of the second storage device as a secondary volume to the host device, and copies the data of the primary volume to the secondary volume; A storage management method in a storage system comprising:
    The first storage device and the second storage device are composed of a plurality of types of storage devices having different performance, and a plurality of types of storage hierarchies in which each storage area provided by each of the plurality of types of storage devices is different. Managed as
    The host device switching the secondary volume provided by the second storage device to a primary volume for reading and writing data, and reading and writing data;
    The second storage device re-sends data to a plurality of types of storage tiers of the second storage device based on the data read and write counts to the first storage device before switching the primary volume. Placing step;
    A storage management method.
PCT/JP2015/072897 2015-08-13 2015-08-13 Storage system and storage management method WO2017026070A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/072897 WO2017026070A1 (en) 2015-08-13 2015-08-13 Storage system and storage management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/072897 WO2017026070A1 (en) 2015-08-13 2015-08-13 Storage system and storage management method

Publications (1)

Publication Number Publication Date
WO2017026070A1 true WO2017026070A1 (en) 2017-02-16

Family

ID=57984361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/072897 WO2017026070A1 (en) 2015-08-13 2015-08-13 Storage system and storage management method

Country Status (1)

Country Link
WO (1) WO2017026070A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169772A (en) * 2017-03-29 2018-11-01 日本電気株式会社 Disaster recovery system, disaster recovery method and program
US11388026B2 (en) 2017-09-28 2022-07-12 Lenovo (Beijing) Limited Method and apparatus for sounding reference signal transmission on sidelink

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516442A (en) * 2011-08-01 2014-07-10 株式会社日立製作所 Computer system and data management method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516442A (en) * 2011-08-01 2014-07-10 株式会社日立製作所 Computer system and data management method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169772A (en) * 2017-03-29 2018-11-01 日本電気株式会社 Disaster recovery system, disaster recovery method and program
US11388026B2 (en) 2017-09-28 2022-07-12 Lenovo (Beijing) Limited Method and apparatus for sounding reference signal transmission on sidelink

Similar Documents

Publication Publication Date Title
AU2017201918B2 (en) Prioritizing data reconstruction in distributed storage systems
US8010485B1 (en) Background movement of data between nodes in a storage cluster
US10725878B2 (en) Storage apparatus, storage system, and control method of storage system for dynamically securing free space when a storage apparatus is disused
US7778960B1 (en) Background movement of data between nodes in a storage cluster
US7739677B1 (en) System and method to prevent data corruption due to split brain in shared data clusters
US7318138B1 (en) Preventing undesired trespass in storage arrays
US9098466B2 (en) Switching between mirrored volumes
US8078581B2 (en) Storage system and remote copy control method
JP4170056B2 (en) Backup / restore management method between replicated volumes and storage control device used in this method
US20120221813A1 (en) Storage apparatus and method of controlling the same
US10445295B1 (en) Task-based framework for synchronization of event handling between nodes in an active/active data storage system
JP2018073231A (en) Storage system and storage device
US10860224B2 (en) Method and system for delivering message in storage system
JP2022145964A (en) Storage system and control method therefor
US11422904B2 (en) Identifying fault domains for delta components of a distributed data object
WO2017026070A1 (en) Storage system and storage management method
US10846012B2 (en) Storage system for minimizing required storage capacity during remote volume replication pair duplication
US20150324418A1 (en) Storage device and data migration method
US10656867B2 (en) Computer system, data management method, and data management program
US9952805B2 (en) Storage system and data write method using a logical volume to either store data successfully onto a first memory or send a failure response to a server computer if the storage attempt fails
US11182261B1 (en) Synchronizing a stale component of a distributed object using multiple delta components during maintenance
JP2011192202A (en) Disk array device, logic disk reconfiguration method applied to the device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15901023

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15901023

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP