JP5331892B2 - ストレージシステム及びストレージシステムにおけるデータ複製方法 - Google Patents

ストレージシステム及びストレージシステムにおけるデータ複製方法 Download PDF

Info

Publication number
JP5331892B2
JP5331892B2 JP2011533950A JP2011533950A JP5331892B2 JP 5331892 B2 JP5331892 B2 JP 5331892B2 JP 2011533950 A JP2011533950 A JP 2011533950A JP 2011533950 A JP2011533950 A JP 2011533950A JP 5331892 B2 JP5331892 B2 JP 5331892B2
Authority
JP
Japan
Prior art keywords
storage system
data
secondary storage
pair
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011533950A
Other languages
English (en)
Other versions
JPWO2011039803A1 (ja
Inventor
亨 鈴木
勝博 奥元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2011039803A1 publication Critical patent/JPWO2011039803A1/ja
Application granted granted Critical
Publication of JP5331892B2 publication Critical patent/JP5331892B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2058Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using more than 2 mirrored copies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2082Data synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/855Details of asynchronous mirroring using a journal to transfer not-yet-mirrored changes

Description

本発明は、上位装置からのデータを記憶する正記憶システム、第1及び第2の副記憶システムを備えるストレージシステムに関し、特に、これらいずれかに障害が発生した場合であってもいずれかの記憶システムを用いてデータ処理を継続する技術に関する、ストレージシステム及びストレージシステムにおけるデータ複製方法に好適なものである。
近年の情報産業の発達により、様々なストレージシステムが開発されている。従来のストレージシステムは、上位装置からのデータを記憶するための複数の記憶システムを備え、一方の記憶システムに障害が生じたりメンテナンス中であった場合でも、他方の記憶システムを使用することができる冗長構成を採用している。
従来のストレージシステムにおいては、上位装置は、書き込みコマンドを一方の記憶システムに対して発行し、データを当該一方の記憶システム(以下「正記憶システム」という)のボリュームに記憶させる一方、この記憶処理に同期させて、そのデータの複写データを上記他方の記憶システム(以下「副記憶システム」という)のボリュームに記憶させている。このような冗長構成において、従来のストレージシステムによれば、正記憶システムに障害が発生した場合には、副記憶システムの複写データを用いて処理を継続することが可能であった。
さらに、近年のストレージシステムでは、この副記憶システムを二重化した構成を採用したものが存在している(特許文献1参照)。以下の説明では、これら副記憶システムを第1及び第2の副記憶システムと呼称する。このようなストレージシステムにおいては、第1の副記憶システムに格納された複写データが非同期で第2の副記憶システムに転送されている。即ち、従来のストレージシステムでは、正記憶システム、第1及び第2の副記憶システムという構成要素間においてデータ整合性の維持を図りつつ高速かつ効率的にデータの複製を行い、これら構成要素のいずれかで障害が発生した場合にデータの複製処理を再開するまでに要する時間を短くすることができる。
当該ストレージシステムでは、正記憶システム及び第1の副記憶システムに障害が発生している場合、又は、一方がメンテナンス中で他方に障害が発生している場合であっても、その後、ホストコンピュータは、第2の副記憶システムに残っているデータを用いて、その時点からデータ処理を進めることが可能であった。
特開2005−316684号公報
上述のように従来のストレージシステムでは、上述のような障害が生じた場合にでも、第2の副記憶システムを用いて動作を継続することはできるものの、次のような不都合があった。即ち、従来のストレージシステムでは、第1及び第2の副記憶システムの間において非同期でデータの複写が行われているため、障害が生じたタイミングによっては、正記憶システムと第1の副記憶システムとのデータが同一であったにもかかわらず、第1及び第2の副記憶システムの間においてはデータが異なる場合があった。
このような場合、従来のストレージシステムでは、第2の記憶システムを用いて当該障害が生ずる直前までのデータから続けて処理を再開することができず、データの一部が失われてしまうおそれがあった。これは、第1の副記憶システムがメンテナンス中である場合に正記憶システムに障害が発生した場合も、同様な理由により当該データの一部が失われてしまうおそれがあった。
本発明は、以上の点を考慮してなされたもので、正記憶システム及び第1の副記憶システムのいずれかがメンテナンス中の状態である場合に他方の記憶システムに障害が生じたときであっても、上位装置から受領済みのデータが失われないばかりでなく、当該データの続きから処理を再開することができるストレージシステム及びストレージシステムにおけるデータ複製方法を提案するものである。
かかる課題を解決するため、本発明においては、上位装置からのデータを格納する正ボリュームを有し、前記上位装置からのコマンドに基づいてデータの書き込みが停止される正記憶システムと、前記正ボリュームに格納されたデータの複写データを格納する第1の副ボリュームを有する第1の副記憶システムと、前記正ボリュームに格納されたデータの複写データを格納する第2の副ボリュームを有する第2の副記憶システムとを備え、前記上位装置は、前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを契機に、前記第1の副ボリューム及び前記第2の副ボリュームに格納済みの複写データ同士の差分データを、前記第1の副記憶システムから前記第2の副記憶システムに転送することを特徴とする。
かかる課題を解決するため、本発明においては、上位装置からのデータを格納する正ボリュームを有し、前記上位装置からのコマンドに基づいてデータの書き込みが停止される正記憶システムと、前記正ボリュームに格納されたデータの複写データを格納する第1の副ボリュームを有する第1の副記憶システムと、前記正ボリュームに格納されたデータの複写データを格納する第2の副ボリュームを有する第2の副記憶システムとを備えるストレージシステムにおけるデータ複製方法において、前記上位装置が前記正記憶システム及び前記第1の副記憶システムの状態を取得する取得ステップと、前記取得ステップにおいて、前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを契機に、前記上位装置が、前記第1の副ボリューム及び前記第2の副ボリュームに格納済みの複写データ同士の差分データを、前記第1の副記憶システムから前記第2の副記憶システムに転送する転送ステップとを備えることを特徴とする。
本発明によれば、正記憶システム及び第1の副記憶システムのいずれかがメンテナンス中の状態である場合に他方の副記憶システムに障害が生じたときであっても、上位装置から受領済みのデータが失われず、当該データから続けて処理を再開することができる。
本実施の形態によるストレージシステムの概略構成を示すブロック図である。 各記憶システムの構成例を示すブロック図である。 データ処理システムの基本的な構成例を示す図である。 通常運用中における各記憶システムにおける動作例を表す図である。 正記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 正記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 第1の副記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 第1の副記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 第2の副記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 第2の副記憶システムがメンテナンス中における各記憶システムの動作例を示す図である。 正記憶システムがメンテナンス中に第1の副記憶システムで障害が発生した場合の動作例を示す図である。 正記憶システムがメンテナンス中に第1の副記憶システムで障害が発生した場合の動作例を示す図である。 第1の副記憶システムのメンテナンス中に正記憶システムに障害が発生した場合の動作例を示す図である。 第1の副記憶システムのメンテナンス中に正記憶システムに障害が発生した場合の動作例を示す図である。 ペア状態管理テーブルにおいて同期ペアが形成される前の状態を示す図である。 ペア状態管理テーブルにおいて同期ペアが形成される様子の一例を示す図である。 ペア状態管理テーブルにおいて第1の非同期ペアを形成する様子の一例を示す図である。 ペア状態管理テーブルにおいて第1の非同期ペアを形成する様子の一例を示す図である。 正記憶システムをメンテナンスする場合におけるペア状態管理テーブルの状態を示す図である。 正記憶システムをメンテナンスする場合におけるペア状態管理テーブルの状態を示す図である。 正記憶システムをメンテナンスする場合におけるペア状態管理テーブルの状態を示す図である。 正記憶システムのメンテナンス中の第1の副記憶システムに障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。 正記憶システムのメンテナンス中の第1の副記憶システムに障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。 通常運用中に正記憶システムにおいて障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。 通常運用中に正記憶システムにおいて障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。 通常運用中に正記憶システムにおいて障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。 リシンク処理の手順の一例を示すフローチャートである。 同期ペアの構成情報ファイルの構成例を示す図である。 非同期ペアの構成情報ファイルの構成例を示す図である。 第1の副記憶システムにおける動作の一例を示すフローチャートである。 同期ペアのペア状態管理テーブルの構成例を示す図である。 第2の非同期ペアのリシンク処理の手順例を示すフローチャートである。 図32に示すリシンク処理の詳細な内容を示すフローチャートである。 Group#Zに所属するCU:VOL#の管理テーブルの一例を示す図である。 Group#Zに所属するCU:VOL#の管理テーブルの一例を示す図である。 CU:VOL#とペア管理IDの管理テーブルの一例を示す図である。 ペア管理ID毎のペア状態管理テーブルの一例を示す図である。 通常状態に戻す処理の一例を示すフローチャートである。 通常状態に戻す処理の詳細な内容を示すフローチャートである。 リシンク処理時における差分データの複写方法の手順の一例を示すフローチャートである。 ジャーナル制御情報の一例を示す図である。 ジャーナル管理テーブルの一例を示す図である。 ジャーナル管理テーブルの一例を示す図である。 差分データの作成方法の一例を示す図である。
1……ストレージシステム、100……ホストコンピュータ、100a……入出力制御部、100b……同期ペア状態管理部、100c……非同期ペア管理部、200……正記憶システム、200a……正ボリューム、200b……同期ペア、200c……非同期ペア、200d……ペア状態管理テーブル、300……第1の副記憶システム、300a……第1の副ボリューム、300b……同期ペア、300c……非同期ペア、300d……ペア状態管理テーブル、400……第2の副記憶システム、400a……第2の副ボリューム、400b……同期ペア、400c……非同期ペア、400d……ペア状態管理テーブル。
以下に、本発明が適用されるストレージシステムの一実施形態について、図面を参照して詳細に説明する。
(1)本実施の形態によるストレージシステムの構成
図1は、本実施の形態によるストレージシステム1の概略構成を示すブロック図である。ストレージシステム1は、データが格納される記憶領域を有する複数の記憶システムを備えている。ストレージステムは、このような記憶システムとして、記憶システム200,300,400を備え、上位装置としてのホストコンピュータ100からのデータをいずれかの記憶システム200等に格納する。ホストコンピュータ100は、デスクトップ若しくはノート型コンピュータ、ワークステーション又はメインフレームのようなコンピュータである。
ホストコンピュータ100は、CPU(Central Processing Unit)、メモリ、キャッシュ、ハードディスクドライブ、インターフェース及び各種インターフェースカードを備えている。ホストコンピュータ100は、内蔵するプロセッサが各種プログラムをメモリ上で実行することで、様々な機能を実現する。これら各種プログラムは、図示したホストアプリケーション101に相当する。ホストコンピュータ100は、主として正記憶システム200に格納されたデータにアクセスしてデータ処理を実行する。当該データは上記複製元データに相当する。
このようなストレージシステム1においては、ホストコンピュータ100が書き込みコマンドを記憶システム200に対して発行することでデータを記憶システム200に記憶させる一方、当該データを複製したデータを別の記憶システム300に記憶させておく。当該ストレージシステム1は、記憶システム200に障害が発生した場合、記憶システム300に複写済みのデータを用いて処理を継続する。
本実施の形態では、複製対象となるデータ(以下「複製元データ」という)を格納する記憶システムと、当該複製元データを複製して得たデータ(以下「複製データ」という)を格納する記憶システムとを区別するために、複製元データを格納する側を「正」、複製データを格納する側を「副」と定義する。本実施の形態では、この正副の状態に応じて、複製元データを格納する記憶システムを「正記憶システム」と呼称とともに、複製データを格納する記憶システムを「副記憶システム」と呼称こととする。なお、本実施の形態では、正記憶システムを「PVOL」と呼称し、副記憶システムを「SVOL」とも呼称する。
各記憶システム200,300,400の間は、ネットワークや専用線によって接続されており、所定の通信プロトコルにより通信が行われる。副記憶システム300は、後述する同期データ複製処理によって、正記憶システム200に格納済みのデータを複写して当該複製データを格納する。副記憶システム400は、後述する非同期データ複製処理によって、正記憶システム200に格納済みのデータを複写して当該複製データを格納する。
正記憶システム200は、複製元データが更新される時に当該更新内容に関するジャーナルを作成して記憶領域にジャーナルデータJNL1を格納し、このジャーナルデータJNL1をもとにデータを複製している。第1及び第2の副記憶システム300,400は、正記憶システム100とほぼ同様に、それぞれ、正記憶システム200からの複写データが更新される時に当該更新内容に関するジャーナルを作成して記憶領域にジャーナルデータJNL2,JNL3を格納している。正記憶システム200は、記憶システム300,400間で各々必要なジャーナルデータの転送を行い、当該ジャーナルデータにより他の記憶システムの複製データを更新することで、複製元データに一致させている。
記憶システム200間のデータ複製の方式(モード)としては、同期データ複製及び非同期データ複製がある。通常の運用時には、三つの記憶システム200,300,400間で、同期データ複製及び非同期データ複製の2種類のデータ複製を行うことで、一つの複製元データに対して2つの複製データが保持される。同期データ複製は、複製元データの更新に同期して複製データを更新する処理であり、複製データは複製元データと一致する。一方、非同期データ複製は、複製元データの更新に非同期で、ジャーナルに基づいて複製データを更新する処理であり、複製データは複製元データの更新後に一致する。
本実施の形態によるストレージシステム1では、通常運用時、記憶システム間でのデータ複製、つまり複製データの保持状態の維持を行うが、ある記憶システムに障害が生じた時には、障害状態でない記憶システム間でジャーナルの転送を行ってジャーナルのデータにより更新反映を行うことで上記データ複製を継続し、処理を再開する。
ここで、記憶システムの記憶領域は、論理的に分割して管理されており、分割された記憶領域は論理ボリュームと呼ばれている(以下単に「ボリューム」ともいう)。この論理ボリューム内及び論理ボリューム間におけるデータの更新順序を管理するために、グループという管理単位が設けられている。
<記憶システムの構成>
図2は、正記憶システム200のハードウェア構成例を示すブロック図である。なお、図2には、主として正記憶システム200のハードウェア構成について説明するが、上述した第1及び第2の副記憶システム300,400もほぼ同様な構成である。
正記憶システム200は、CHA(ホストアダプタ)110、DKA(ディスクアダプタ)120、CACHE(キャッシュメモリ)130、SM(共有メモリ)140、HDD(ハードディスクドライブ)150及びSWITCH(スイッチ)160を備えている。ホストアダプタ110、ディスクアダプタ120、キャッシュメモリ130及び共有メモリ140はスイッチ160を経由して接続されている。ハードディスクドライブ150は複数設けられており、いわゆるRAID(Redundant Arrays of Inexpensive Disks)を構成している。
正記憶システム200は、命令受信処理等の他、各種処理を制御する制御部として、ホストアダプタ110及びディスクアダプタ120を備え、内蔵するプロセッサによって各処理に対応するプログラムを実行する。当該プログラムは、後述するホストアプリケーションに相当する。ホストアダプタ110は、ホストコンピュータ100と通信を行うための通信インターフェイスと入出力命令を授受する機能を備え、ホストコンピュータ100とキャッシュメモリ130間のデータ転送を制御する。ホストアダプタ110は、ホストコンピュータ100及び副記憶システム200に接続されている。ディスクアダプタ120は、ハードディスクドライブ150に対するデータの読み出し及び書き込み等の制御を行い、キャッシュメモリ130とハードディスクドライブ150との間のデータ転送を制御する。
キャッシュメモリ130は、主としてホストコンピュータ100から受信したデータ又はハードディスクドライブ150から読み出したデータを一時的に記憶するメモリの一種である。共有メモリ140は、記憶システム200内の全てのホストアダプタ110及びディスクアダプタ120が共有して使用するメモリであり、主に制御情報等を記憶する。
<ジャーナルの構成>
ジャーナルは、記憶システム200の保持する複製元データ(正ボリューム)が更新される時に、データ更新に関する情報として作成されるデータである。ジャーナルは、ライトデータ及び更新情報を含んでいる。ライトデータは、ホストコンピュータ100からの正ボリュームのデータ更新処理時に用いられたデータのコピーである。当該データは更新位置に対する書き込みデータである。
当該更新情報は、更新毎のライトデータ及びジャーナルを管理する情報であり、ライトコマンドを受信したタイムスタンプとしての時刻(更新時刻)、管理番号、そのライトコマンドの論理アドレス、及び、ライトデータのデータサイズ等を含んでいる。当該更新情報は、データ更新の識別子として、上記ライトコマンドを受信したタイムスタンプとしての時刻(更新時刻)及び管理番号の少なくとも一方を含んでいる。当該更新情報によってデータの更新順序が識別される。
(2)ホストコンピュータ100の機能構成
図3は、ホストコンピュータ100及びストレージシステム1を備えるデータ処理システムの基本的な構成例を示す図である。ホストコンピュータ100は、そのプロセッサが動作させるホストアプリケーションとして、入出力(以下「IO」ともいう)制御部100a及び状態管理部100b,100cを搭載しており、ファイルとして、後述する同期ペア及び非同期ペアの構成情報ファイル100d,100eを有する。
同期ペアの構成情報ファイル100dは、後述する同期ペア情報を含んでいる。非同期ペアの構成情報ファイル100eは、後述する非同期ペア情報を含んでいる。この非同期ペア情報には、第1及び第2の非同期ペアに応じて2種類存在しており、これらは別々のファイルとして存在していても良い。本実施の形態では、上記入出力制御部100a、状態管理部100b,100cを総称してホストアプリケーションとも呼称する。
上記入出力制御部100aは、正記憶システム200、第1及び第2の副記憶システム300,400に対し、データの書き込みや読み出しを指示する場合に必要なコマンドを発行する機能を有する。
状態管理部100b,100cは、正記憶システム200並びに第1及び第2の副記憶システム300,400の各状態を取得して管理するアプリケーションソフトウェアである。状態管理部100b,100cは、上述した同期データ複製処理の実行による各状態を管理する同期ペア状態管理部100bと、上述した非同期データ複製処理の実行による各状態を管理する非同期ペア状態管理部100cとを備えている。これら同期及び非同期ペア状態管理部100b,100cは、ホスト側におけるアプリケーションであり、正記憶システム200、第1及び第2の副記憶システム300,400の各ペア状態を検知する機能を有する。
本実施の形態では、同期データ複製処理において同期させて設定される2つの記憶システムの動作状態(本実施形態では単に「状態」とも表現する)の組み合わせを「同期ペア」と呼称する一方、非同期データ複製処理において非同期で設定される2つの記憶システムの動作状態の組み合わせを「非同期ペア」と呼称する。ここでいう動作状態(状態)とは、例えば同期ペアであれば、同期してデータの複写処理等を実行することを表し、例えば非同期ペアであれば、非同期でデータの複写処理等を実行することを示している。
即ち、本実施の形態では、正記憶システム200と第1の副記憶システム300の状態同士が同期して変更されるため、「同期ペア」と呼称している。一方、第1及び第2の副記憶システム300,400の状態同士、及び、正記憶システム200と第2の副記憶システム400の状態同士は、それぞれ、同期しないで変更されるため、「非同期ペア」と呼称している。なお、同期ペア及び非同期ペアはそれぞれペア状態管理テーブルを有する。
なお、本実施の形態では、非同期ペアのうち前者を「第1の非同期ペア」と呼称し、後者を「第2の非同期ペア」と呼称する。本実施の形態では、これら同期ペア又は非同期ペアの状態を「ペア状態」とも呼称し、同期又は非同期でペア状態を設定することを「ペア形成」又は、単に「形成」とも表現する。
ペア状態としては、例えば、デュプレックス(Duplex)状態、サスペンド状態、Copy、Pair状態及び書き込み可能なサスペンド状態(後述するSusp(R)状態に相当)を挙げることができる。デュプレックス状態は、両記憶システムの各ボリュームに格納されているデータが一致していることを示している。サスペンド状態は、上記同期ペア又は非同期ペアの間でデータの複写処理が停止している状態を示している。Copy状態は、ボリューム間の差分データを複写しており、その複写が完了するまでの状態を示す。例えば、最初に同期ペアを形成した時は、正ボリューム200aと第1の副ボリューム300aとのデータ同士は異なっており、正ボリューム200aのデータを第1の副ボリューム300aに複写するが、この複写処理が開始してから完了するまでは、当該Copy状態に該当する。なお、サスペンド状態における後述するリシンクコマンドに応じて差分データが複写されている状態も当該Copy状態である。Pair状態は、Copy状態が終了した状態を示している。このPair状態は、正ボリューム200a及び第1の副ボリューム300aのデータ同士が一致していること、又は、正ボリューム200a及び第2の副ボリューム400aのデータ同士が一致していることを示している。正ボリューム200aのデータが更新されると、当該更新されたデータが副ボリューム300a,400aに複写される。書き込み可能なサスペンド状態は、基本的にはサスペンド状態であるが、複写先のボリュームにデータを書き込み可能な状態を示している。なお、Pair状態は、上記デュプレックス状態と同義である。
本実施の形態では、ホストコンピュータ100のプロセッサが、正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態(又は書き込み可能なサスペンド状態)となったことを契機に、第1及び第2の副記憶システム300,400に対してリシンクコマンドを発行する。即ち、プロセッサは、当該契機に、第1及び第2の副記憶システム300,400に対し、後述するリシンク処理を実行させる。
具体的には、同期ペア状態管理部100bが、定期的に、正記憶システム200(の正ボリューム200a)及び第1の副記憶システム300(の第1の副ボリューム300a)の各状態を取得しており、入出力制御部100aは、上述した事象を契機に、第1の副ボリューム300a及び第2の副ボリューム400aの複写データ同士の差分データを複写して第1の副記憶システム300から第2の副記憶システム400に転送させる。
<正記憶システムの構成>
正記憶システム200は、正ボリューム200a及びペア情報管理テーブル200dを備えている。ペア状態管理テーブル200dは、同期ペア200b及び非同期ペア200cに関するペア属性及びペア状態を管理している。ペア状態管理テーブル200dの詳細については後述する。
<第1の副記憶システムの構成>
第1の副記憶システム300は、正ボリューム300a及びペア状態管理テーブル300dを備えている。ペア状態管理テーブル200dは、同期ペア300b及び非同期ペア300cに関するペア属性及びペア状態を管理している。ペア状態管理テーブル300dの詳細については後述する。
<第2の副記憶システムの構成>
第2の副記憶システム400は、第1の副ボリューム400a及びペア状態管理テーブル400dを備えている。ペア状態管理テーブル400dは、非同期ペア400b及び非同期ペア400cに関するペア属性及びペア状態を管理している。このペア状態管理テーブル400dの詳細については後述する。
(3)ストレージシステムの動作例
ストレージシステム1は、以上のような構成により、次のような動作を実行する。
(3−1)各運用形態
通常運用中においては、正記憶システム200の正ボリューム200aに格納済みのデータと、第1の副記憶システム300の第1の副ボリューム300aに格納済みのデータとは一致している(ペア状態=デュプレックス状態)。ホストコンピュータ100は、入出力制御部100aが、当該正ボリュームにコマンドを発行する。正記憶システム200は、当該コマンドによって正ボリュームに格納されたライトデータを第1の副記憶システム300に同期させて転送する一方、第1の副記憶システム300は、転送された当該ライトデータを第1の副ボリューム300aに複写する。
さらに、正記憶システム200は、上記コマンドに応じて、正ボリュームに格納されたライトデータを、非同期で第2の副記憶システム400に転送する。当該第2の副記憶システム400は、当該転送されたライトデータを第2の副ボリューム400aaに複写する。
また、第1及び第2の副記憶システム300,400の間においても、非同期ペアが形成される。第2の非同期ペアは、上記第1及び第2の副ボリューム300a,400aの間における差分データを管理している。当該差分データの作成方法については後述する。
図4は、通常運用中における各記憶システムにおける動作例を表す図である。当該動作の項目としては、ペア状態、IO発行先及び正/副装置間のデータに分けることができる。ペア状態は、同期ペア、第1及び第2の非同期ペアの状態を表している。IO発行先とは、コマンドの発行先(の記憶システム)を表しており、図示の例では「正VOL(正ボリューム:PVOL)」となっている。なお、IO発行先が副ボリュームである場合には、第1の副ボリュームについては「副VOL1(第1の副記憶システム)」、第2の副ボリュームについては「副VOL2(第2の副ボリューム)」と図示している。正/副装置間のデータとは、各記憶システム間におけるデータの状態を表している。図示した正装置とは正記憶システムを表し、副装置とは副記憶システムを表している。
正/副装置間のデータに関しては、同期ペア(正記憶システム200及び第1の副記憶システム300の各状態)に関しては、データが正ボリューム200a(正VOL)から第1副ボリューム300a(副VOL1)に複写されており、正ボリューム200aのデータと第1の副ボリューム300aのデータが一致していることを表す。第1の非同期ペアに関しては、正ボリューム200aから第2の副ボリューム400a(副VOL2)にデータが複写されており、正ボリューム200aのデータと第2の副ボリューム400aのデータが一致していることを表している。第2の非同期ペアに関しては、第1の副ボリューム300aと第2の副ボリューム400aとの間で差分データが管理されていることを表している。
なお、これら各項目に関する説明は、後述する図5、図7、図9、図11及び図13においてもほぼ同様に適用することができる。
<正記憶システムのメンテナンス>
図5及び図6は、それぞれ、正記憶システム200がメンテナンス中における各記憶システムの動作例を示す図である。メンテナンス等を理由として、ホストコンピュータ100が正記憶システム200を使用できない場合、管理者などのオペレーションにより、ホストコンピュータ100は、図5に示すように第1の副ボリューム300aの同期ペア300bの状態を「書き込み可能なサスペンド状態(図示のSuspend(Reverse)」に変更し、そのコマンドを第1の副記憶システム300に対して発行する。なお、本実施の形態では、当該状態を「Susp(R)」とも省略して用いている。
図6に示すように、当該コマンドの発行により第1の副記憶システム300へ転送されたライトデータは、同期ペア300b及び第2の非同期ペア300cの各状態に応じて、第1の副記憶システム300において差分データが管理される。このとき、非同期ペア管理部100cは、同期ペア300bがサスペンド状態であることを検出すると、第1の副記憶システム300(の第2の非同期ペア300c)に対してリシンクすべき旨のコマンド(リシンクコマンド)を発行することで、リシンク処理を実行すべき旨の指示を行う。
第1の副記憶システム300(の第2の非同期ペア300c)に対してリシンク処理の実行が指示されると、第1及び第2の副記憶システム300,400の間の差分データを第2の副ボリューム400aに複写する。また、第2の副ボリューム300aに関してリシンク処理が実行されると、入れ替わりで、第1の非同期ペアがサスペンド状態にされ、第1及び第2の副ボリューム300a,400aの間の差分データが管理される。
<第1の副記憶システムのメンテナンス>
図7及び図8は、それぞれ、第1の副記憶システム300がメンテナンス中における各記憶システムの動作例を示す図である。第1の副記憶システム300をメンテナンスする場合、管理者などによるオペレーションにより、正ボリューム200a及び第1の副ボリューム300aのペア状態がサスペンド状態にされる。コマンドが正記憶システム200に対して発行され、当該コマンドによって正記憶システム200に転送されたライトデータは、正記憶システム200において差分が管理される。この場合、第1の副記憶システム300にはデータが複写されない。なお、第1の非同期ペアについては、ペア状態はデュプレックス状態を維持している。正記憶システム200に転送されたライトデータは、第2の副記憶システム400にも複写される。第2の非同期ペアについても、サスペンド状態が維持されており、第1の副記憶システム300と第2の副記憶システム400の間の差分データが管理されている。
<第2の副記憶システムのメンテナンス>
図9及び図10は、それぞれ、第2の副記憶システム400がメンテナンス中における各記憶システムの動作例を示す図である。第2の副記憶システム400をメンテナンスする場合、非同期ペア管理部100cが、管理者などによるオペレーションにより、正記憶システム200及び第2の副記憶システム400の間の非同期ペアのペア状態をサスペンド状態に設定する。すると、所定のコマンドが正記憶システム200に対して発行され、当該コマンドによって正記憶システム200に転送されたライトデータが第1の副記憶システム300に複写される。正記憶システム200及び第2の副記憶システム400の間の第1の非同期ペアによれば、データが第2の副記憶システム400に複写されず、データは差分が管理される。第2の非同期ペアについては、サスペンド状態が維持され、第1及び第2の副記憶システム300,400の間における差分データが管理される。
<正記憶システムのメンテナンス中に第1の副記憶システムに障害が発生>
図11及び図12は、それぞれ、正記憶システム200がメンテナンス中に第1の副記憶システム300で障害が発生した場合の動作例を示す図である。
正記憶システム200がメンテナンス中である場合、第1の副記憶システム300がホストコンピュータ100から受領したライトデータは、図11に示す第2の非同期ペアの設定によれば、図12に示すようにデータが第1の副記憶システム300から第2の副記憶システム400に複写される。従って、正記憶システム200のメンテナンス中に第1の副記憶システム300において障害が発生しても、第2の副記憶システム400に複写されたデータが存在するため、データが失われることはない。また、ホストコンピュータ100が第2の副記憶システム400に対してコマンドを発行することにより、停止したデータの入出力を再開することが可能となる。
<第1の副記憶システムのメンテナンス中に正記憶システムに障害が発生>
図13及び図14は、それぞれ、第1の副記憶システム300のメンテナンス中に正記憶システム200に障害が発生した場合の動作例を示す図である。第1の副記憶システム300のメンテナンス中に、正記憶システム200がホストコンピュータ100から受領したライトデータは、図13に示す第1の非同期ペアによれば、図14に示すように正記憶システム200から第2の副記憶システム400に複写される。
従って、第1の副記憶システム300のメンテナンス中に正記憶システム200において障害が発生しても、第2の副記憶システム400に複写されたデータが存在するため、データが失われることはない。また、ホストコンピュータ100は、第2の副記憶システム400にコマンドを発行することにより、停止したデータの入出力を再開することが可能となる。
(3−2)ペア状態の更新状況
<ペア形成前>
図15は、ペア状態管理テーブルにおいて同期ペアが形成される前の状態を示す図である。図15においては、左側から、正記憶システム200、第1及び第2の副記憶システム300,400のペア状態管理テーブル200d,300d,400dの構成例を表している。なお、本実施の形態では、図示の場合を含め、「#」マークはアドレスを示している。
正記憶システム200のペア状態管理テーブル200dは、同期ペア及び第1の非同期ペアの正ボリュームに関するペア属性及びペア状態を管理している。ペア属性は、当該ボリュームが正ボリュームであるか副ボリュームであるかを表している。一方、ペア状態は、上述のように、ペアを構成する両記憶システムのボリュームの状態を示している。
左側に図示した正記憶システム200のペア状態管理テーブル200dでは、アドレス「0」が同期ペアの正ボリュームを示しており、アドレス「1」が第1の非同期ペアの正ボリュームを示している。なお、この状態では、ホストコンピュータ100は、正記憶システム200を用いて業務を継続している。
中央に図示した第1の副記憶システム300のペア状態管理テーブル300dでは、アドレス「0」が同期ペアの第1の副ボリューム300aを示しており、アドレス「2」が第2の非同期ペアの正ボリューム200aを示している。
右側に図示した第2の副記憶システム400のペア状態管理テーブル400dでは、アドレス「0」が第1の非同期ペアの第1の副ボリューム300aを示しており、アドレス「1」が第2の非同期ペアの第2の副ボリューム400aを示している。
図15に示す正記憶システム200、第1及び第2の副記憶システム300,400における各ペア状態管理テーブルにおいては、いずれもペア状態が設定される前であるため、各ペア状態が「Simplex状態」に設定されている。
<同期ペアの形成>
図16は、ペア状態管理テーブルにおいて同期ペアが形成される様子の一例を示す図である。最新データは正記憶システム200管理されており、第1の副記憶システム300にデータが複写中である。この状態では、ホストコンピュータ100は、正記憶システム200を用いて業務を継続している。
当該図16では、同期ペアについて、正ボリューム200a及び第1の副ボリューム300a関するペア属性及びペア状態が設定されている。具体的には、同期ペアの正ボリューム200aに関しては、ペア属性が「PVOL(正ボリューム)」に設定されており、ペア状態が「Copy」及び「Pair」に設定されている。一方、同期ペアの第1の副ボリューム300aに関しては、ペア属性が「SVOL(副ボリューム)」に設定されており、ペア状態が「Copy」及び「Pair」に設定されている。
このように設定されると、正記憶システム200の正ボリューム200aに格納されているデータが複写され、第1の副記憶システム300の第1の副ボリューム300aに転送される。
<第1の非同期ペアの形成>
図17は、ペア状態管理テーブルにおいて第1の非同期ペアを形成する様子の一例を示す図である。図17に示す設定では、上記同期ペアの形成を完了した後であり、最新データは、正記憶システム200及び第1の副ボリューム300aに格納されるようにしている。
当該図17では、第1の非同期ペアについて、正ボリューム200a及び第2の副ボリューム400aに関するペア属性及びペア状態が設定されている。具体的には、第1の非同期ペアの正ボリューム200aに関しては、ペア属性が「PVOL(正ボリューム)」に設定されており、ペア状態が「Copy」及び「Pair」に設定されている。一方、第1の非同期ペアの第1の副ボリューム300aに関しては、ペア属性が「SVOL(副ボリューム)」に設定されており、ペア状態が「Copy」及び「Pair」に設定されている。
このような設定により、最新データは、正記憶システム200の正ボリューム200aと、第2の副記憶システム400の第2の副ボリューム400aとに格納される。
<第2の非同期ペアの形成>
図18は、ペア状態管理テーブルにおいて第1の非同期ペアを形成する様子の一例を示す図である。図17に示す設定では、上記第1の非同期ペアを形成した後に、第2の非同 期ペアを形成して、通常運用形態に設定し、最新データが正記憶システム200及び第1の副ボリューム300aに格納されるようにしている。
当該図18では、第1の非同期ペアについて、正ボリューム200a及び第2の副ボリューム400aのペア属性及びペア状態が設定されているとともに、第2の非同期ペアについて、第1の副ボリューム300a及び第2の副ボリューム400aのペア属性及びペア状態が設定されている。
具体的には、第1の非同期ペアの正ボリューム200aに関しては、ペア属性が「PVOL」に設定されており、ペア状態が「Pair」に設定されている。第1の非同期ペアの第2の副ボリューム400aに関しては、ペア属性が「SVOL」に設定されており、ペア状態が「Pair」に設定されている。一方、第2の非同期ペアの第1の副ボリューム300aに関しては、ペア状態が「PVOL」と指定されており、ペア状態が「Suspend状態」に指定されている。第2の非同期ペアの第2の副ボリューム400aに関しては、ペア状態が「SVOL」と指定されており、ペア属性が「SVOL」に指定されており、ペア状態が「Suspend状態」に指定されている。
このような設定により、ストレージシステム1は、通常運用形態に設定され、最新データが正ボリューム200a及び第1の副ボリューム300aに格納された状態となる。なお、このストレージシステム1は、非同期での複写ではあるが、非同期ペアにより最新データが正ボリューム200a及び第2の副ボリューム400aにも格納された状態となる。
<正記憶システムのメンテナンス>
図19〜21は、それぞれ、正記憶システム200をメンテナンスする場合におけるペア状態管理テーブルの状態を示す図である。図19に示す状態では、ホストコンピュータ100は、正記憶システム200を保守するための同期ペアをサスペンド状態とし、業務を第1の副記憶システム300で継続している。
図20に示す状態では、ホストコンピュータ100は、同期ペアのサスペンド状態を検知して、正記憶システム200と連携する上記アプリケーションによって第2の非同期ペアをリシンク状態とし、第1の非同期ペアは自動的にサスペンド状態とし、元々第1の非同期ペアにより第2の副記憶システム400にもデータが複写されているので、第2の副記憶システム400のデータはほぼ最新なものとなる。
図21に示す状態では、正記憶システム200の保守が実施される。ホストコンピュータ100のプロセッサにより設定された第2の非同期ペアにより、第2の副記憶システム400にもほぼ最新データが格納されている状態となっている。
<正記憶システムのメンテナンス中に第1の副記憶システムに障害が発生>
図22及び図23は、それぞれ、正記憶システム200のメンテナンス中の第1の副記憶システム300に障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。図22に示す状態は、正記憶システム200がメンテナンス中に第1の副記憶システム300に障害が発生し、入出力が停止した様子を示している。図23に示す状態では、ホストコンピュータ100は、第2の副記憶システム400に格納されているほぼ最新のデータを用いて入出力を再開する。具体的には、第1の非同期ペアは削除され、第2の非同期ペアは書き込み可能なサスペンド状態(図示の「Susp(R)」に相当)となっている。
<通常運用中に正記憶システムで障害が発生>
図24〜図26は、通常運用中に正記憶システム200において障害が発生した場合におけるペア状態管理テーブルの状態を示す図である。図24に示す状態は、通常運用中におけるペア状態管理テーブルの状態を示している。図25に示す状態は、正記憶システム200に障害が発生し、同期ペアの第1の副ボリューム300aを書き込み可能なサスペンド状態に変更され、第1の副記憶システム300で入出力を継続するようになる。
図26に示す状態では、ホストコンピュータ100は、同期ペアのサスペンド状態を検知して、記憶システムと連携するアプリケーションから第2の非同期ペアをリシンク状態とし、第1の非同期ペアは自動的にサスペンド状態とし、第2の非同期ペアによりデータは二重化されている。仮に、その後、第1の副記憶システム300において障害が発生しても、第2の副記憶システム400には、ほぼ最新のデータが格納されている状態となっている。
(3−3)リシンク処理
図27は、リシンク処理の手順の一例を示すフローチャートである。図示の各手順は、ホストコンピュータ100のプロセッサによって実行されている。
ステップS101では、ホストコンピュータ100のプロセッサが、図28に示す同期ペアの構成情報ファイルからペア数A(=N個)を取得する。ステップS102では、プロセッサが、図28に示す同期ペアの構成情報ファイル100dから同期ペア情報を取得する。同期ペア情報は、正記憶システムの製造番号等の情報を含んでいる。
図27に示すステップS103では、プロセッサがカウンタを初期化し、アドレス変数B=0とする。ステップS104では、プロセッサが、当該同期ペア情報におけるアドレス変数Bで表されるアドレスに該当する副ボリューム(SVOL)の状態を取得する。なお、本実施の形態では、上述のように「#」マークはアドレスを示す。プロセッサは、第1の副記憶システム300に対し、当該副ボリュームが移行すべき状態(例えば「Susp(R)」)に関するコマンドを発行する。
ステップS105では、プロセッサが、ペア状態が書き込み可能なサスペンド状態(「Susp(R)」)であるか否かを確認する。ペア状態が書き込み可能なサスペンド状態である場合、プロセッサは次のようなステップS106を実行する。
ステップS106では、プロセッサが上記アドレス変数Bを1カウントアップする。ステップS107では、プロセッサが全てのペア情報を取得済みであるか否かを判断し、取得済みでない場合には上記ステップS104に戻って実行する一方、取得済みの場合には次のようなステップS108を実行する。
ステップS108では、プロセッサが、図29に示す第2の非同期ペアの構成情報ファイルから第2の非同期ペア情報を取得する。図27に示すステップS109では、プロセッサが、第1の副記憶システム300に対し、リシンクすべき旨のコマンド(リシンクコマンド)を発行する。
一方、上述したステップS105においてペア状態が書き込み可能なサスペンド状態でない場合、プロセッサは、上記ペア状態が想定外のペア状態であるか否かを判断する(ステップS110)。プロセッサは、想定外のペア状態ではないときにはスリープ状態に遷移させて上記ステップS101に戻って実行する一方、想定外のペア状態であるとき、エラー処理を実行する。プロセッサは、このエラー処理として、例えばホストコンピュータ100とディスクコントローラ間におけるパス障害などで情報取得できない場合など、ユーザにエラーメッセージを表示するための信号を生成する。
<第1の副記憶システムにおける状態取得処理>
図30は、第1の副記憶システム300における動作の一例を示すフローチャートである。このフローチャートにおいては、第1の副記憶システム300のプロセッサが、同期ペアの第1の副記憶システム300(図示したSVOLに相当)のペア状態を取得する処理を実行している。当該プロセッサは、基本的に、ホストコンピュータ100のホストアプリケーションの1つである入出力制御部100aから、入力インターフェースで指定されたCU:VOL#のペア状態を状態管理部100b,100cに報告する。第1の副記憶システム300がホストコンピュータ100から状態取得コマンドを受け取った場合における処理の手順の一例を示すフローチャートである。
ステップS301では、第1の副記憶システム300のプロセッサが、ホストコンピュータ100からペア状態の取得指示を受領する。ステップS302では、プロセッサが、図31に示す同期ペアのペア状態管理テーブルからペア状態を取得する。当該同期ペアは、図示したCU:VOL単位に、ペア状態を管理するテーブルとしてペア状態管理テーブルを有する。
プロセッサは、同期ペア状態管理部100bから指定されたCU:VOL#のペア状態を取得して、ホストコンピュータ100に報告する。プロセッサは、この報告内容として、1ペア単位で報告するインターフェースと、複数ペアをまとめて報告するインターフェースとの両方が存在する。
<非同期ペア2のリシンク処理>
図32は、第2の非同期ペアのリシンク処理の手順例を示すフローチャートである。図示の手順は、第1の副記憶システム300のプロセッサによって実行される手順を表している。
ステップS310では、当該プロセッサが、ホストアプリケーションの1つである入出力制御部100aから、グループ#及びミラーID#を入力インターフェースとして第2の非同期ペアをリシンクすべき旨のコマンドを受領する。ステップS311では、当該プロセッサが、当該コマンドに含まれる当該グループ#を指定してリシンク処理を行う。ステップS311の詳細な手順については後述する。
図33は、図32に示すリシンク処理(ステップS311)の詳細な内容を示すフローチャートである。ステップS311aでは、プロセッサが、グループ#Zに所属するCU:VOL#を取得する。すると、プロセッサは、図34及び図35に示す内容を含む管理テーブルを得ることができる。当該管理テーブルには、グループ#に所属するCU:VOL#が管理されている。図34に示す管理テーブルは、ミラーID#0x01に対応しており、図35に示す管理テーブルは、ミラーID#0x02に対応している。
ここで、第1の副記憶システム300に限ってみれば、非同期ペアは第2の非同期ペアの正ボリューム(PVOL)しか存在しないが、例えば、第2の副記憶システム400では、第1の非同期ペアと第2の非同期ペアが同じ副ボリューム400aを共有する構成となっている。このように同様な副ボリューム同士であっても、第1の非同期ペアの副ボリュームのペア状態と、第2の非同期ペアの副ボリュームのペア状態とを、個々に管理するため、本実施の形態では、ミラーID(MirrorID)を付けることで各ボリュームを区別している。
次に、図33に示すステップS311bでは、当該プロセッサが、CU:VOL#及びミラーID(図示のMirrorIDに相当)からペア管理IDを取得する。当該取得されたペア管理IDを図示すると、図36に示す管理テーブルの内容となる。当該管理テーブルでは、CU:VOL#とペア管理IDとが関連付けられて管理されている。
図33に示すステップS311cでは、当該プロセッサが、図37に示すように、ペア管理ID#に対応するペア状態を「サスペンド状態」から「Copy状態」に変更し、正ボリュームから副ボリュームへの複写処理を実行する。図37に示す管理テーブルは、各ペア管理IDのペア状態を管理するためのテーブルである。なお、同期ペアでは、CU:VOL#とペア状態とが1対1となるように管理されているが、一方、非同期ペアは、1つのCU:VOL#で複数の非同期ペア状態を管理しているため、ペア管理IDを用いてペア状態と1対1で管理する。
ステップS311dでは、プロセッサが、上記ステップS311a〜311cをペア数分実行したか否かを確認し、ペア数分実行していなければステップS311aに戻って再度実行する一方、ペア数分実行していれば終了する。
<リシンク状態から通常状態に戻す処理>
図38は、通常状態に戻す処理の手順例を示すフローチャートである。図示の手順は、第1の副記憶システム300のプロセッサによって実行される手順を表している。ステップS320では、当該プロセッサが、ホストアプリケーションの1つである入出力制御部100aから、グループ#及びミラーID#を入力インターフェースとして第2の非同期ペアを、通常状態に戻すためのコマンドを受領する。ステップS321では、当該プロセッサが、当該コマンドに含まれる当該グループ#を指定して通常状態に戻す処理を行う。ステップS321の詳細な手順については後述する。
図39は、図38に示す通常状態に戻す処理(ステップS321)の詳細な内容を示すフローチャートである。ステップS321aでは、プロセッサが、グループ#Zに所属するCU:VOL#を取得し、グループ#に所属するCU:VOL#を含む管理テーブルを得る。次に、図39に示すステップS321bでは、当該プロセッサが、CU:VOL#及びミラーID(図示のMirrorIDに相当)からペア管理IDを取得する。
ステップS321cでは、当該プロセッサが、ペア管理ID#に対応するペア状態を「Copy状態」から「書き込み可能なサスペンド状態(Susp(R))」に変更し、正記憶システムの正ボリューム(PVOL)から副記憶システムの副ボリューム(SVOL)への複写処理を中止する。ステップS321dでは、プロセッサが、上記ステップS321a〜321cをペア数分実行したか否かを確認し、ペア数分実行していなければステップS321aに戻って再度実行する一方、ペア数分実行していれば終了する。
<リシンク操作時の差分データの複写>
図40は、リシンク処理時における差分データの複写方法の手順の一例を示すフローチャートである。以下、ジャーナルを作成済みの管理番号(以下「SEQ」と省略する)、及び、リストア済みのSEQ#について補足説明を行う。図40においては、左側が正記憶システム200、中央が第1の副記憶システム300、右側が第2の副記憶システム400における処理を示している。
通常運用中、正記憶システム200は、ホストコンピュータ100からライトコマンドを受領すると(ステップS220)、第1の副記憶システム300には同期させたデータの複写を行い、第2の副記憶システム400には非同期でデータを複写する。正記憶システム200は、ジャーナル制御情報(図示のJNL制御情報に相当)を作成し(ステップS221)、ジャーナルデータ(図示のJNLデータ)を格納する(ステップS222)。このジャーナル制御情報は、図41に示すように、例えばSEQ#及びタイムスタンプを含んでいる。正記憶システム200は、転送対象のライトデータに、当該ジャーナル制御情報等を付与して第1の副記憶システム300に転送する(ステップS223)。
ステップS320では、第1の副記憶システム300が、上記同期させた複写によって複写されたデータを受領すると、同期ペアの副ボリューム(SVOL)に当該複写データを書き込む。かつ、ステップS321では、プロセッサが、上記第2の非同期ペアに基づく複写において使用するためにジャーナルデータを作成する。ステップS322では、当該プロセッサが、ジャーナルボリュームに格納する。ここでプロセッサは、当該ジャーナルデータを第2の副記憶システム400に転送しない。ステップS323では、プロセッサが、上記ジャーナルデータ作成時にジャーナル作成済みSEQ#をカウントアップする。第1の副記憶システム300のジャーナル管理テーブルは、例えば図42に示すようになっている。
一方、第2の副記憶システム400は、正記憶システム200から非同期で複写されたジャーナルデータを受領すると(ステップS420)、当該ジャーナルデータを、第1の非同期ペアの副ボリューム(SVOL)にリストアする(ステップS421)。このリストアにあたっては、正確には、一旦、ジャーナルボリュームに格納し、当該ジャーナルボリュームから第1の非同期ペアの副ボリューム(SVOL)に書き込んでリストアしている。このとき、プロセッサは、リストア済みSEQ#をカウントアップする(ステップS422)。第2の副記憶システム400のジャーナル管理テーブルは、図43に示すようになっている。
なお、第1の副記憶システム300のジャーナルボリュームが満杯になるのを防ぐため、第1及び第2の副記憶システム300,400の間では、定期的に通信を行い、既に第2の副記憶システム400でリストア済みのジャーナルデータのSEQ#を第1の副記憶システム300に通信することで、第1の副記憶システム300のジャーナルボリュームから、第2の副記憶システム400にリストア済みのジャーナルデータを削除(パージ)する。
図44は、差分データの作成方法の一例を示す図である。第2の非同期ペアのリシンクオペレーションが実施されると、第1の副記憶システム300と第2の副記憶システム400との間で通信が行われ、ジャーナルを作成済みのSEQ#とリストア済みSEQ#をネゴシエーションして、差分データが、第1の副記憶システム300から第2の副記憶システム400に転送される。当該差分データは、第2の副記憶システム400の第2の非同期ペアの副ボリューム400a(SVOL)に書き込まれてリストアされる。
具体的には、第1の副記憶システム300のジャーナル作成済みSEQ#と、第2の副記憶システム400のリストア済みSEQ#の差Dが、第1の副記憶システム300と第2の副記憶システム400の差分データとなる。第2の非同期ペアのペアをリシンクする時には、この差分データが第1の副記憶システム300から第2の副記憶システム400に複写される。
(4)本実施の形態の効果等
以上説明したように、上記実施の形態におけるストレージシステム1では、ホストコンピュータ100が、正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態となったことを契機に、第1の副記憶システム300における第1の副ボリューム300aに格納されている複写データの差分データを、第2の副記憶システム400の第2の副ボリューム400aに複写している。
このような構成によれば、ホストコンピュータ100が、正記憶システム200及び第1の副記憶システム300がサスペンド状態となっても、ホストコンピュータ100から受領済みのデータを失うことなく、当該データから処理を継続することができる。例えば、第1及び第2の副記憶システム300,400の間において非同期でデータの複写が行われている場合、その障害が生じたことを契機に差分データが第2の副記憶システム400に転送されるため、その障害が生じたタイミングに関係なく、ホストコンピュータ100は、当該障害が生ずる直前までのデータから続けて処理を再開することができる。
上記ストレージシステム1においては、ホストコンピュータ100は、正記憶システム200、第1及び第2の副記憶システム300,400の各状態を取得する状態管理部100b,100cと、これら状態管理部100b,100cによって正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態であることが取得されたことを契機に、第1の副記憶システム300に対して、上記差分データを複写して第2の副記憶システム400に転送すべき旨のコマンドを発行する入出力制御部100aを備えている。
このようにすると、正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態となると、ホストコンピュータ100は、その入出力制御部100aが、第2の副記憶システム300における第2のボリューム300aの差分データを読み出して、当該サスペンド状態となった時点の続きから動作を継続することができる。
上記ストレージシステム1は、上記状態管理部100b,100cとして、ホストアプリケーションの一部として同期状態管理部100b及び非同期状態管理部100cを備えている。ここで、同期状態管理部100bは、正記憶システム200及び第1の副記憶システム300の各状態を同期させて管理する一方、非同期状態管理部100cは、正記憶システム200及び第2の副記憶システム400の各状態を非同期で管理するのみならず、前第1の副記憶システム300と第2の副記憶システム400の各状態を非同期で管理している。つまり、第1及び第2の非同期ペアは各々ホストアプリケーションによって管理されている。
このような構成とすると、第1及び第2の副記憶システム300,400の間において非同期でデータの複写が行われている場合においても、障害が生じたことを契機に差分データが第2の副記憶システム400に転送されるため、ホストコンピュータ100は、そのような障害が生じたタイミングに関係なく、当該障害が生ずる直前までのデータから続けて処理を再開することができる。ホストコンピュータ100は、上記障害が生じたタイミングに関係なく、上述のように当該障害が生じた直前のデータから連続して処理を継続することができることから、データが失われることがなくなる。
また、上記ストレージシステム1においては、第1及び第2の副記憶システム300,400が、それぞれ、自らの状態を管理するための第1及び第2の副状態管理テーブル300d,400dを備えている。
上記ストレージシステム1においては、第1及び第2の状態管理テーブル300d,400dでは、それぞれ、非同期状態管理部100cによって非同期で管理される、第1及び第2の副記憶システム300,400の各状態の組み合わせとしての非同期ペアを管理しており、第1の副記憶システム300は、ホストコンピュータ100から、差分データを複写すべき旨のコマンドを受領したことを契機に、第1ボリューム300aの差分データを、非同期ペアによって特定される相手先としての第2の記憶システム400aに対して複写して転送する。
また、上記ストレージシステム1は、第1の副記憶システム300は、ホストコンピュータ100から、差分データを複写すべき旨のコマンドを受領したことを契機に、データの更新順序を管理するためのグループに基づいて特定された記憶システムの各記憶システムの状態を変更し、当該差分データを第2の副記憶システム400に転送している。
また、上記ストレージシステム1では、非同期ペアには、正記憶システム200及び第2の副記憶システム400の各状態の組み合わせとしての第1の非同期ペアと、第1及び第2の副記憶システム300,400の各状態の組み合わせとしての第2の非同期ペアとが存在している。第1の副記憶システム300は、差分データを複写すべき旨のコマンドを受領したことを契機に、当該グループに対応するボリュームと、第2の非同期ペアに対応する第1及び第2の副ボリューム300a,400aを個々に管理するためのミラーIDと、に基づいて特定したボリュームの各状態を変更し、上記差分データを第2の副ボリューム400aに転送する。
上記ストレージシステム1では、ホストコンピュータ100は、正記憶システム200及び第1の副記憶システム300の少なくとも一方がメンテナンス状態に遷移され、かつ、他方に障害が発生したことにより、正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態となったことを契機に、差分データを第2の副記憶システム400における第2の副ボリューム400aに複写している。
上記実施の形態におけるストレージシステム1におけるデータ複製方法では、次のような取得ステップ及び転送ステップを実行する。当該取得ステップでは、ホストコンピュータ100が正記憶システム200及び第1の副記憶システム300の状態が共にサスペンド状態となったことを取得する。上記転送ステップでは、上記取得ステップにおいて正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態となったことを契機に、ホストコンピュータ100が、第1の副ボリューム300a及び第2の副ボリューム400aに格納済みの複写データ同士の差分データを、第1の副記憶システム300から第2の副記憶システム400に転送している。
上記データ複製方法においては、第1の副記憶システム300は、ホストコンピュータ100から、差分データを複写すべき旨のコマンドを受領したことを契機に、第1ボリューム300aの差分データを複写し、第1及び第2の副記憶システム300,400の各状態の組み合わせとしての非同期ペアによって特定される相手先として、第2の副記憶システム400に対して転送している。
上記データ複製方法においては、ホストコンピュータ100から、差分データを複写すべき旨のコマンドを受領したことを契機に、各ボリューム内又はボリューム同士の間におけるデータの更新順序を管理するためのグループに基づいて特定された記憶システムの各状態を変更し、上記差分データを第2の副記憶システム400に転送している。
上記データ複製方法においては、上記非同期ペアは、正記憶システム200及び第2の副記憶システム400の各状態の組み合わせとしての第1の非同期ペアと、第1及び第2の副記憶システム400の各状態の組み合わせとしての第2の非同期ペアとを含んでいる。しかも、第1の副記憶システム300は、ホストコンピュータ100から、差分データを複写すべき旨のコマンドを受領したことを契機に、上記グループに対応するボリュームと、第2の非同期ペアに対応する第1及び第2の副ボリューム300a,400aを個々に管理するためのミラーIDと、に基づいて特定したボリュームの各状態を変更し、上記差分データを第2の副ボリューム400aに転送する。
上記データ複製方法においては、上記取得ステップでは、正記憶システム200及び第1の副記憶システム300の少なくとも一方がメンテナンス状態に遷移され、かつ、他方に障害が発生したことにより、正記憶システム200及び第1の副記憶システム300の各状態が共にサスペンド状態となったことを取得している。
(5)その他の実施形態
上記実施形態は、本発明を説明するための例示であり、本発明をこれらの実施形態にのみ限定する趣旨ではない。本発明は、その趣旨を逸脱しない限り、様々な形態で実施することができる。例えば、上記実施形態では、各種プログラムの処理をシーケンシャルに説明したが、特にこれにこだわるものではない。従って、処理結果に矛盾が生じない限り、処理の順序を入れ替え又は並行動作するように構成しても良い。

Claims (13)

  1. 上位装置からのデータを格納する正ボリュームを有し、前記上位装置からのコマンドに基づいてデータの書き込みが停止される正記憶システムと、
    前記正ボリュームに格納されたデータの複写データを格納する第1の副ボリュームを有する第1の副記憶システムと、
    前記正ボリュームに格納されたデータの複写データを格納する第2の副ボリュームを有する第2の副記憶システムと
    を備え、
    前記上位装置は、
    前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを契機に、前記第1の副ボリューム及び前記第2の副ボリュームに格納済みの複写データ同士の差分データを、前記第1の副記憶システムから前記第2の副記憶システムに転送する
    ことを特徴とするストレージシステム。
  2. 前記上位装置は、
    前記正記憶システム、前記第1及び第2の副記憶システムの各状態を取得する状態管理部と、
    前記状態管理部によって前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態であることが取得されたことを契機に、前記第1の副記憶システムに対して、前記差分データを複写して前記第2の副記憶システムに転送すべき旨のコマンドを発行する入出力制御部と
    を備えることを特徴とする請求項1に記載のストレージシステム。
  3. 前記状態管理部は、
    前記正記憶システム及び前記第1の副記憶システムの各状態を同期させて管理する同期状態管理部と、
    前記正記憶システム及び前記第2の副記憶システムの各状態を非同期で管理する一方、前記第1の副記憶システムと前記第2の副記憶システムの各状態を非同期で管理する非同期状態管理部と
    を備えることを特徴とする請求項2に記載のストレージシステム。
  4. 前記第1の副記憶システムは、
    前記第1の副記憶システムの状態を管理するための第1の状態管理テーブルを備え、
    第2の副記憶システムは、
    前記第2の副記憶システムの状態を管理するための第2の状態管理テーブルを備える
    ことを特徴とする請求項3に記載のストレージシステム。
  5. 前記第1及び第2の状態管理テーブルでは、それぞれ、
    前記非同期状態管理部によって非同期で管理される、前記第1及び第2の副記憶システムの各状態の組み合わせとしての非同期ペアを管理しており、
    前記第1の副記憶システムは、
    前記上位装置から、前記差分データを複写すべき旨のコマンドを受領したことを契機に、前記差分データを、前記非同期ペアによって特定される相手先としての前記第2の記憶システムに対して複写して転送する
    ことを特徴とする請求項4に記載のストレージシステム。
  6. 前記第1の副記憶システムは、
    前記差分データを複写すべき旨のコマンドを受領したことを契機に、各前記ボリューム内又は前記ボリューム同士の間におけるデータの更新順序を管理するためのグループに基づいて特定された記憶システムの各状態を変更し、前記差分データを前記第2の副記憶システムに転送する
    ことを特徴とする請求項5に記載のストレージシステム。
  7. 前記非同期ペアは、
    前記正記憶システム及び前記第2の副記憶システムの各状態の組み合わせとしての第1の非同期ペアと、
    前記第1及び第2の副記憶システムの各状態の組み合わせとしての第2の非同期ペアとを含み、
    前記第1の副記憶システムは、
    前記差分データを複写すべき旨のコマンドを受領したことを契機に、前記グループに対応するボリュームと、前記第2の非同期ペアに対応する前記第1及び第2の副ボリュームを個々に管理するためのペア識別子と、に基づいて特定したボリュームの各状態を変更し、前記差分データを前記第2の副ボリュームに転送する
    ことを特徴とする請求項6に記載のストレージシステム。
  8. 前記上位装置は、
    前記正記憶システム及び前記第1の副記憶システムの少なくとも一方がメンテナンス状態に遷移され、かつ、他方に障害が発生したことにより、前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを契機に、前記差分データを前記第2の副記憶システムにおける第2の副ボリュームに複写する
    ことを特徴とする請求項1に記載のストレージシステム。
  9. 上位装置からのデータを格納する正ボリュームを有し、前記上位装置からのコマンドに基づいてデータの書き込みが停止される正記憶システムと、
    前記正ボリュームに格納されたデータの複写データを格納する第1の副ボリュームを有する第1の副記憶システムと、
    前記正ボリュームに格納されたデータの複写データを格納する第2の副ボリュームを有する第2の副記憶システムと
    を備えるストレージシステムにおけるデータ複製方法において、
    前記上位装置が前記正記憶システム及び前記第1の副記憶システムの各状態を取得する取得ステップと、
    前記取得ステップにおいて、前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを契機に、前記上位装置が、前記第1の副ボリューム及び前記第2の副ボリュームに格納済みの複写データ同士の差分データを、前記第1の副記憶システムから前記第2の副記憶システムに転送する転送ステップと
    を有することを特徴とするストレージシステムにおけるデータ複製方法。
  10. 前記第1の副記憶システムは、
    前記上位装置から、前記差分データを複写すべき旨のコマンドを受領したことを契機に、前記第1のボリュームの差分データを複写し、前記第1及び第2の副記憶システムの各状態の組み合わせとしての非同期ペアによって特定される相手先として、前記第2の記憶システムに対して転送する
    ことを特徴とする請求項9に記載のストレージシステムにおけるデータ複製方法。
  11. 前記第1の副記憶システムは、
    前記上位装置から、前記差分データを複写すべき旨のコマンドを受領したことを契機に、各前記ボリューム内又は前記ボリューム同士の間におけるデータの更新順序を管理するためのグループに基づいて特定された記憶システムの各状態を変更し、前記差分データを前記第2の副記憶システムに転送する
    ことを特徴とする請求項10に記載のストレージシステムにおけるデータ複製方法。
  12. 前記非同期ペアは、
    前記正記憶システム及び前記第2の副記憶システムの各状態の組み合わせとしての第1の非同期ペアと、
    前記第1及び第2の副記憶システムの各状態の組み合わせとしての第2の非同期ペアと
    を含み、
    前記第1の副記憶システムは、
    前記上位装置から、前記差分データを複写すべき旨のコマンドを受領したことを契機に、前記グループに対応するボリュームと、前記第2の非同期ペアに対応する前記第1及び第2の副ボリュームを個々に管理するためのペア識別子と、に基づいて特定したボリュームの各状態を変更し、前記差分データを前記第2の副ボリュームに転送する
    ことを特徴とする請求項11に記載のストレージシステムにおけるデータ複製方法。
  13. 前記取得ステップでは、
    前記正記憶システム及び前記第1の副記憶システムの少なくとも一方がメンテナンス状態に遷移され、かつ、他方に障害が発生したことにより、前記正記憶システム及び前記第1の副記憶システムの各状態が共にサスペンド状態となったことを取得する
    ことを特徴とする請求項9に記載のストレージシステムのデータ複製方法。
JP2011533950A 2009-09-29 2009-09-29 ストレージシステム及びストレージシステムにおけるデータ複製方法 Expired - Fee Related JP5331892B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/005003 WO2011039803A1 (ja) 2009-09-29 2009-09-29 ストレージシステム及びストレージシステムにおけるデータ複製方法

Publications (2)

Publication Number Publication Date
JPWO2011039803A1 JPWO2011039803A1 (ja) 2013-02-21
JP5331892B2 true JP5331892B2 (ja) 2013-10-30

Family

ID=43825660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011533950A Expired - Fee Related JP5331892B2 (ja) 2009-09-29 2009-09-29 ストレージシステム及びストレージシステムにおけるデータ複製方法

Country Status (3)

Country Link
US (1) US20110196825A1 (ja)
JP (1) JP5331892B2 (ja)
WO (1) WO2011039803A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5286212B2 (ja) * 2009-09-29 2013-09-11 株式会社日立製作所 ストレージクラスタ環境でのリモートコピー制御方法及びシステム
US8918672B2 (en) 2012-05-31 2014-12-23 International Business Machines Corporation Maximizing use of storage in a data replication environment
US20140164323A1 (en) * 2012-12-10 2014-06-12 Transparent Io, Inc. Synchronous/Asynchronous Storage System
US10423643B2 (en) * 2013-08-29 2019-09-24 Oracle International Corporation System and method for supporting resettable acknowledgements for synchronizing data in a distributed data grid
US9348715B2 (en) * 2014-03-20 2016-05-24 Netapp Inc. Storage device health status synchronization
JP6379914B2 (ja) * 2014-09-18 2018-08-29 日本電気株式会社 ストレージシステム、制御方法および制御プログラム
JP2018073231A (ja) * 2016-11-01 2018-05-10 富士通株式会社 ストレージシステムおよびストレージ装置
US11755725B2 (en) * 2019-01-30 2023-09-12 Salesforce, Inc. Machine learning anomaly detection mechanism

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099306A (ja) * 2001-09-25 2003-04-04 Hitachi Ltd 計算機システムおよび計算機システムにおけるバックアップ方法
JP2005316684A (ja) * 2004-04-28 2005-11-10 Hitachi Ltd データ処理システム
JP2006134204A (ja) * 2004-11-09 2006-05-25 Hitachi Ltd リモートコピーシステムおよびその制御方法
JP2007122117A (ja) * 2005-10-25 2007-05-17 Hitachi Ltd ストレージシステム及び記憶制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167962B2 (en) * 1999-08-19 2007-01-23 Hitachi, Ltd. Remote copy for a storage controller with reduced data size
US7043665B2 (en) * 2003-06-18 2006-05-09 International Business Machines Corporation Method, system, and program for handling a failover to a remote storage location
JP2005258850A (ja) * 2004-03-12 2005-09-22 Hitachi Ltd 計算機システム
JP4545529B2 (ja) * 2004-08-27 2010-09-15 株式会社日立製作所 スナップショットの作成方法及びプログラム並びにストレージシステム
JP2006072635A (ja) * 2004-09-01 2006-03-16 Hitachi Ltd データ処理システムおよびそのコピー処理方法
JP4376750B2 (ja) * 2004-10-14 2009-12-02 株式会社日立製作所 計算機システム
JP5036158B2 (ja) * 2005-10-05 2012-09-26 株式会社日立製作所 情報処理システム及び情報処理システムの制御方法
JP4800031B2 (ja) * 2005-12-28 2011-10-26 株式会社日立製作所 ストレージシステム及びスナップショット管理方法
JP5057366B2 (ja) * 2006-10-30 2012-10-24 株式会社日立製作所 情報システム及び情報システムのデータ転送方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099306A (ja) * 2001-09-25 2003-04-04 Hitachi Ltd 計算機システムおよび計算機システムにおけるバックアップ方法
JP2005316684A (ja) * 2004-04-28 2005-11-10 Hitachi Ltd データ処理システム
JP2006134204A (ja) * 2004-11-09 2006-05-25 Hitachi Ltd リモートコピーシステムおよびその制御方法
JP2007122117A (ja) * 2005-10-25 2007-05-17 Hitachi Ltd ストレージシステム及び記憶制御方法

Also Published As

Publication number Publication date
WO2011039803A1 (ja) 2011-04-07
US20110196825A1 (en) 2011-08-11
JPWO2011039803A1 (ja) 2013-02-21

Similar Documents

Publication Publication Date Title
JP5331892B2 (ja) ストレージシステム及びストレージシステムにおけるデータ複製方法
JP4887893B2 (ja) 計算機システム及び計算機システムの制御方法
US7827367B2 (en) Backup control method for acquiring plurality of backups in one or more secondary storage systems
US7302535B2 (en) Data replication in a storage system
JP4800031B2 (ja) ストレージシステム及びスナップショット管理方法
CN101578586B (zh) 在故障转移和故障回复环境中使用虚拟拷贝
JP5042644B2 (ja) リモートコピーシステム
US7278049B2 (en) Method, system, and program for recovery from a failure in an asynchronous data copying system
US7680994B2 (en) Automatically managing the state of replicated data of a computing environment, and methods therefor
JP4412989B2 (ja) 複数の記憶システムを有するデータ処理システム
US9576040B1 (en) N-site asynchronous replication
JP5286212B2 (ja) ストレージクラスタ環境でのリモートコピー制御方法及びシステム
JP2001337939A (ja) データ多重化方法およびデータ多重化システム
JP4170056B2 (ja) 複製ボリューム間でのバックアップ・リストア管理方法およびこの方法に用いる記憶制御装置
JP2006023889A (ja) リモートコピーシステム及び記憶装置システム
JP2002189570A (ja) 記憶システムの二重化方法および記憶システム
JP2007102579A (ja) 情報処理システム、情報処理システムの制御方法及びストレージ装置
JP2003507791A (ja) 遠隔ミラーリングシステム、装置及び方法
JP2001518210A (ja) 共通データセットに対する独立及び同時のアクセスに関する方法及び装置
US7752404B2 (en) Toggling between concurrent and cascaded triangular asynchronous replication
JP2008186142A (ja) リモートバックアップ方法及びストレージシステム
JP4425728B2 (ja) リモートコピーシステム
JP2006318077A (ja) リモートコピーシステム
JP4898609B2 (ja) ストレージ装置、データ回復方法及び計算機システム
US10846012B2 (en) Storage system for minimizing required storage capacity during remote volume replication pair duplication

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5331892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees