JP4122724B2 - Data replication method and information processing system - Google Patents
Data replication method and information processing system Download PDFInfo
- Publication number
- JP4122724B2 JP4122724B2 JP2001117617A JP2001117617A JP4122724B2 JP 4122724 B2 JP4122724 B2 JP 4122724B2 JP 2001117617 A JP2001117617 A JP 2001117617A JP 2001117617 A JP2001117617 A JP 2001117617A JP 4122724 B2 JP4122724 B2 JP 4122724B2
- Authority
- JP
- Japan
- Prior art keywords
- storage device
- replication
- storage
- disk array
- destination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Techniques For Improving Reliability Of Storages (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、データの複製を行うコンピュータシステム及びデータ複製の方法に関する。
【0002】
【従来の技術】
コンピュータシステムが有するデータに対して複数の異なる処理が行われる場合、処理対象となるデータが、記憶装置システムが有する複数の記憶装置に複製され、各々の記憶装置の同一内容のデータに対して、異なる処理が行われることがある。また、一つの処理を複数のコンピュータで並列に行う場合、処理の対象となるデータを複数の記憶装置に複製して、アクセス先を複数にする。このようにして、コンピュータシステムにおけるデータへのアクセスの負荷を分散し、システムの処理の高速化を図ることが実用化されている。
【0003】
24時間連続して処理を行うシステムでは、システムで使用されるアプリケーションプログラム(AP)の実行を中断しないでデータの複製を行う必要がある。このような場合、従来は、通常のシステム運用時に複数の記憶装置に同じデータを書き込むことにより、データをあらかじめ多重化(ミラーリング)しておくという技術が使用されてきた。尚、本明細書において、記憶装置とは、物理的な記憶装置及び論理的な記憶装置(Logical Unit:LU)の両方が含まれる。
【0004】
ミラーリングされたデータが格納された複数の記憶装置の個々を別々の処理に利用する際は、ミラーリングが中止されることにより、個々の記憶装置を独立して利用可能な状態とする。個々の記憶装置に対する独立した処理が終了すると、個々の記憶装置の内容が一致するように、一方の記憶装置のデータを他方の記憶装置へコピーする(以下、「同期を取る」と言う)。
【0005】
このようなデータの多重化は、従来は、APが実行されているコンピュータであるサーバ上のソフトウェアや、サーバに接続された記憶装置システムが備えているデータ多重化機能によって実現されていた。
【0006】
【発明が解決しようとする課題】
従来のデータの多重化の方法では、ミラーリングが行われる記憶装置の数が多い場合には、データを多重化するサーバ、又は記憶装置を有する記憶装置システムに負荷がかかる。したがって、コンピュータシステムの処理能力の多くがミラーリングの処理に使用されることとなり、コンピュータシステムで実行されるAPの処理速度が低下する。
【0007】
また、一方の記憶装置の内容を常に他方の記憶装置に同期させる必要があるため、新たな記憶装置が追加される場合や、複製された記憶装置の論理的な位置が変更される場合には、対象となるデータを新たに追加された記憶装置又は位置が変更された記憶装置に複製する必要がある。
【0008】
さらに、ミラーリングされる記憶装置の数が増加すると、複製領域の管理が複雑となる。この場合、複製されるべきではない記憶装置に誤ってデータが複製されてしまい、データの破壊を引き起こす可能性もある。
【0009】
本発明の第一の目的は、データの複製を多数作成する場合にも、複製時にコンピュータシステムで実行されているAPの処理速度の低下を防ぐコンピュータシステムを提供することである。
【0010】
本発明の第二の目的は、新たなデータの複製処理を伴わずに、複製先の記憶装置の追加、及び記憶装置の論理的な位置を変更することができるコンピュータシステムを提供することである。
【0011】
本発明の第三の目的は、誤った記憶装置にデータの複製を作成することによるデータ破壊を防止するコンピュータシステムを提供することである。
【0012】
【課題を解決するための手段】
上記目的を達成するために、本発明は、APから記憶装置システムに転送されるデータを、記憶装置システム内で2つの記憶装置にミラーリングして書き込む。複製を作成する際は、記憶装置システムは、計算機システムからの指示に応じてミラーリングを中断して1つの記憶装置へのアクセスを停止し、アクセスが停止された記憶ブロックの内容を複製先となる記憶ブロックにコピーする。コピーが終了したら、記憶装置システムは、中断していたデータ書き込みのミラーリングを再開し、2つの記憶装置の内容を一致させるという構成とする。
【0013】
また、複製先の記憶装置を定義する際に、記憶装置が複製先であることを示すマークを複製先の記憶装置を定義する情報に記録し、実際にデータのコピーを開始する前に複製元の記憶装置システムが、その定義情報に含まれるマークを確認して複製を行う構成も考えられる。
【0014】
さらに、複数の記憶装置システムに複製を作成する場合は、データをあらかじめ定義された複数のコピー先に書き込む機能を持つコピーモジュールを用いる構成とすることもできる。複製元の記憶装置システムは、異なる記憶装置システムの記憶装置に複製を作成する場合、データをコピーモジュールに転送し、コピーモジュールが複数の記憶装置にデータをコピーする構成も考えられる。
【0015】
【発明の実施の形態】
図1は、本発明を適用した計算機システムの第一の実施形態の構成を示す図である。
【0016】
本計算機システムは、データベースサーバ110、管理コンソール100、データウエアハウスサーバ120、バックアップサーバ130、FCハブ140、ディスクアレイ160、及びディスクアレイ180を有する。尚、管理コンソール100は独立した計算機ではなく、データベースサーバ110等がその役目を果たしても良い。
【0017】
データベースサーバ110、データウェアハウスサーバ120、及びバックアップサーバ130は、各々FCインタフェース114、122、132を有し、FCケーブル141〜145、及びFCハブ140を介してそれぞれディスクアレイ160及びディスクアレイ180と接続される。
【0018】
管理コンソール100、データベースサーバ110、ディスクアレイ160及びディスクアレイ180は、各々Local Area Network(以下「LAN」と称する。)インタフェース103、113、164、182を有し、LAN150を介して相互に接続される。LAN150は、システムが動作するために必要な制御情報の伝達に使用される。
【0019】
管理コンソール100には、ディスクアレイ管理プログラム102及びデータベース連携プログラム101が格納されている。
【0020】
ディスクアレイ管理プログラム102は、ディスクアレイ160及び180の動作を制御するプログラムである。ディスクアレイ管理プログラム102は、管理コンソール100が有する操作盤等のインタフェースから入力されるユーザの指示に基づいて、LAN150を介してディスクアレイ160等と制御情報の送受信を行い、ディスクアレイ160等内部の情報の取得や動作の指示を行う。ディスクアレイ管理プログラム102は、データベース連携プログラム101を起動する機能を有する。
【0021】
データベース連携プログラム101は、LAN150を介し、データベースサーバ110内のデータベース制御プログラム111にプログラムの実行開始の指示等を送信する。
【0022】
データベースサーバ110には、データベース制御プログラム111及びデータベースシステム112が格納されている。
データベース制御プログラム111は、データベース連携プログラム101の指示に基づいて、データベースシステム112の動作を制御する。制御の内容には、データベースサーバ110のバッファ内にあるデータをディスクアレイ160に書き込む(以下「フラッシュする」と称する。)こと、データベースをバックアップモードにする等の、データの複製を行う際に必要なデータベースシステム固有の動作が含まれる。
【0023】
データベースシステム112は、ディスクアレイ160内の論理的な記憶装置であるLU190に格納されたデータへのアクセスを制御する。データベースシステム112は、24時間無停止で動作する。
【0024】
データウェアハウスサーバ122には、データウエアハウスシステム121が格納される。データウェアハウスシステム121は、システムに割り当てられたLUに格納されたデータへのアクセスを制御する。本実施形態では、ディスクアレイ160内のLU192に保持されたデータへのアクセスを制御する。
【0025】
バックアップサーバ130には、バックアッププログラム131が格納される。バックアッププログラム131は、バックアップ用のLUに保持されたデータへのアクセスを制御する。本実施形態では、ディスクアレイ180内のLU193をバックアップ用のLUとする。
【0026】
ディスクアレイ160は、演算処理部(CPU)163、メモリ170、ディスクコントローラ165、ディスク166〜168、FCインターフェース161、及びLANインターフェース164を有する。又、ディスクアレイ160は、LU190〜193を有する。LUは、実際には、ディスク166〜168内で分散した記憶領域で構成されていても良い。本実施形態においては、一つのディスクの中に一つのLUが割り当てられているとする。
【0027】
CPU163は、LANインタフェース164、FCインタフェース161、及びディスクコントローラ165を制御する。CPU163は、メモリ170に記憶されたプログラムを実行する。ディスクコントローラ165は、ディスク166等の動作、特にディスク166等へのデータの読み書きの制御を行う。
【0028】
メモリ170には、LUミラープログラム171、LU管理表172、LU複製プログラム173、複製管理表174、及び装置ID175が格納される。LUミラープログラム171は、LUのミラーリングを実行するためのプログラムである。具体的には、LU管理表172に記録された内容に基づいて、LUへ書き込まれるデータを異なるLUにミラーリングする処理、ユーザからの指示に基づいてミラーリングを停止する処理、ミラーリングを再開し2つのLUの内容を一致させる処理等をディスクコントローラ165が実行するためのプログラムである。
【0029】
LU管理表172には、システム全体に存在するLUに与えられるLU番号、LUの記憶容量、ミラー先となるLUの情報、二重化動作中のディスクアレイ状態など、ディスクアレイのLU管理に必要な情報が記録される。
【0030】
LU複製プログラム173は、ユーザからの指示及び複製管理表174に記録された内容に基づいて、複製元となるLU(複製元LU)の内容を複製先となるLU(複製先LU)に複製する処理をディスクコントローラ165に実行させるプログラムである。複製管理表174には、ディスクアレイ160内におけるLUの複製状況が記録される。装置ID175には、各ディスクアレイに一意に与えられたIDの情報が格納される。
【0031】
ディスクアレイ180は、CPU183、メモリ184、ディスクコントローラ185、ディスク186、FCインターフェース181、及びLANインターフェース182を有する。又、ディスクアレイ180は、LU193を有する。ディスクアレイ180のメモリ184に格納されるプログラムは、ディスクアレイ160と同様なので、説明は省略する。
【0032】
本実施形態では、データベースシステム112がアクセスするLU190に記録されたデータが、LU192及びディスクアレイ180のLU193に複製される例を説明する。
前提として、LU190に記録されたデータは、LUミラープログラム171によって、LU191にミラーリングされているとする。
【0033】
データの複製を行う前に、複製元LU190を有するディスクアレイ160のメモリ170に記録された複製管理表174に、複製先となるLUのグループ(複製先LUグループ:この場合はLU192及びLU193)が設定される。
【0034】
図2は、複製管理表174の設定エントリを示す図である。グループIDエントリ300には、複製先LUグループに含まれるLU(この場合、LU192及びLU193)に一意に指定されるIDの情報が格納される。複製先LUグループの設定や複製の作成等の処理を行う場合、処理の対象となる複製先LUグループの特定は、すべてグループIDによって行われる。
【0035】
グループ状態エントリ301には、処理の対象となる複製先LUグループについて、複製処理が実行されている状態であることを示す「コピー中」、又は複製処理が行われていない状態であることを示す「通常」のどちらかの情報が保持される。複製元LUエントリ302には、複製元LU(ここではLU190)の情報が保持される。コピー位置エントリ303には、複製作成中のある時点で複製元LU内のどの位置のデータをコピー中かという情報が、例えばLBA(Logical Block Address)形式で保持されている。
【0036】
複製先LUエントリ304には、種別、FCインタフェース(FC I/F)、LU番号(LUN)、状態といった情報が記録される。種別とは、複製先LUが複製元LUと同じディスクアレイ内にあるか否かを示す情報である。ここでは、「ローカル」が同一ディスクアレイ内にある場合を指し(本実施形態ではLU192)、それ以外の場合は「リモート」で現される(本実施形態ではLU193)。
【0037】
FC I/Fは、複製先LUの種別が「リモート」の場合に、複製先LUへのアクセスパスとなる複製元及び複製先ディスクアレイが有するFCインターフェースに割り当てられているWorld Wide Nameを表す。LUNは、複製先LUに一意に指定される番号であるLU番号を示す。状態は、LUがアクセス可能か否かを示す情報である。アクセス可能であれば「通常」、そうでなければ「エラー」という情報が、状態を保持するエントリに格納される。複製先LUエントリ304は、複数設定することができる。
【0038】
複製先LUを設定する場合、ユーザは、ディスクアレイ管理プログラム102を介して、複製を作成したいディスクアレイ(ここでは、ディスクアレイ160及び180)に指示を送り、ディスクアレイのLU管理表172に登録されたLUのリスト及び装置IDを取得する。
【0039】
ユーザは、取得したLUのリストの中から、複製先とするLUを選択(ここではLU192及びLU193)する。ユーザは、LUN及び装置IDのペアからなるすべての複製先LUの情報を、グループIDおよび複製元LUのLUNの情報とともに、複製グループ定義命令として複製元ディスクアレイ(ここではディスクアレイ160)に送る。グループIDは、ユーザが指定するか、ユーザが識別しやすいものをディスクアレイ管理プログラム102が生成する。
【0040】
図3は、複製グループ定義命令を受信したディスクアレイ160の動作を示すフロー図である。以下の動作は、LU複製プログラム173に従って、CPU163によって実行される。
【0041】
命令を受信したディスクアレイ160のCPU163は、指定されたグループIDが複製管理表174内の既存のグループIDと重複していないかを確認する(201)。CPU163は、複製元LUとして指定されたLUNが、ディスクアレイ160に存在するか調べる(202)。グループIDが重複する、又は指定されたLUが存在しない場合、CPU163は、定義エラーとして管理コンソール100にステータスを返信し、処理を終了する。
【0042】
定義エラーがない場合、CPU163は、ディスクアレイ160が有するFCインタフェース161等からアクセス可能な全てのLUについて、LUが属する装置の装置IDを取得する。装置IDを取得するために、CPU163は、FCインタフェース161を介して各LUに対して装置ID取得のためのModeSense SCSIコマンドを発行する。ModeSenseコマンドを受信したディスクアレイ180等のLU複製プログラム173は、あらかじめ定義されたパラメータページで装置IDを返信する(203、204)。
【0043】
装置IDを取得したCPU163は、複製管理表174に新たな複製先LUグループのエントリを作成する。最初は、グループ状態エントリは「通常」と設定される(205)。CPU163は、指定された複製先LUを、複製管理表174の新たなエントリに登録する。CPU163は、各複製先LUについて、LUの装置IDが複製元の装置IDと同一かどうかを比較することにより、複製先LUの種別が「ローカル」か「リモート」か判断し、複製管理表174への登録を行う。
【0044】
リモートであった場合には、CPU163は、ステップ203及び204で得たFCインタフェース及び接続されている装置IDの情報に基づき、FCインターフェースの情報を複製管理表174に登録する。対応するインタフェースがない場合には、CPU163は、アクセス不可能なLUであると判断し、エラーステータスを管理コンソール100に返信する。複製先LUの初期状態は「通常」と設定される(206〜209)。全ての複製先LUの登録が終わると、CPU163は、ステータスを管理コンソール100に返信して定義処理を終了する(210、211)。
【0045】
尚、複製先LUグループにLUが追加される場合、ディスクアレイ管理プログラム102からLUを追加する旨の指示を受けた後、ディスクアレイ160において、図3のステップ201、202及び205を省略した処理が行われる。複製先LU、又は複製先LUグループ全体を削除する場合、ディスクアレイ管理プログラム102からLUを削除する旨の指示を受けた後、CPU163は、グループ状態エントリが「通常」であることを確認し、複製管理表174から該当するエントリを削除する。
【0046】
グループ状態エントリ301が「コピー中」である場合は、その複製先LUグループ内でデータのコピーが行われている途中であるため、削除は実行されず、エラーステータスが返信される。複製先LUの間には依存関係が存在しないため、任意の複製先LUを複製先LUグループから削除することができる。
【0047】
図3に示す複製先LUを設定する処理では、データベースシステム112は、複製先LUを設定する処理に何ら関与しない。したがって、複製先LUを設定する場合でも、データベースシステム112で実行されるAPの処理速度の低下を抑えることができる。
【0048】
また、同一の複製先LUを複数の複製先LUグループで指定できるため、必要なLUの数を低減できる。例えば、LU-Aの複製を2つ作り、LU-Bの複製を2つ作る場合、従来の方法では4つの複製先LUが必要であるが、それぞれの複製を作成・利用する時間帯が重ならない場合には、複製管理表174の設定を変更することによって、複製先として同じ2つのLUを利用できる。
【0049】
さらに、同じ複製元LUと異なる複製先LUを持つ複製先LUグループをあらかじめ複数定義しておき、複製作成時に複製先LUの位置を選択することも可能である。
【0050】
複製先LUグループが指定された後、実際に複製が作成されるときは、データベース連携プログラム101が、LANを介してデータベース制御プログラム111に指示を送る。データベース制御プログラム111は、バッファフラッシュやバックアップモードへの移行などのデータベースシステム112の前処理を行う。
【0051】
その後、ユーザは、ディスクアレイ管理プログラム102を介して、複製元LUの書き込みのミラーリングの停止をディスクアレイ160に指示する。
ミラーリングの停止の指示をディスクアレイ160に送信したディスクアレイ管理プログラム102は、複製を作成する複製先LUグループのIDを含んだ複製命令を、複製元LU190を持つディスクアレイ160に送る。
【0052】
図4は、複製命令を受信したディスクアレイ160の動作を示すフロー図である。本動作は、LU複製プログラム173に基づき、CPU163によって制御される。
【0053】
複製命令を受信したCPU163は、複製管理表174を参照し、複製命令に含まれるグループIDで指定された複製グループの状態が「コピー中」であるか調べる(401)。状態が「コピー中」、又は指定されたグループIDが存在しなかった場合、CPU163は、エラーステータスを管理コンソール100に返信して複製処理を終了する。
【0054】
エラー状態ではない場合、CPU163は、複製管理表174のグループ状態エントリの内容を「コピー中」に変更する(402)。CPU163は、複製元LUが二重化処理中でないことを、LU管理表172を参照して確認する(403)。CPU163は、LU管理表172を参照する際に複製元LUの容量を取得しておく。CPU163は、複製先LUの容量が複製元LU以上であることを確認する。複製先LUの容量は、種別が「ローカル」の複製先LUについてはLU管理表172を参照することにより確認される。「リモート」の複製先LUについては、FCインタフェース161等を介して、LUに対してReadCapacityコマンドを発行することによりLUの容量を取得する(404)。
【0055】
複製先LUの容量が複製元よりも小さい場合、CPU163は、複製管理表174の複製先LUエントリの内容を「エラー」に変更する(406)。全ての複製先LUエントリの状態が「エラー」となった場合、CPU163は、グループ状態エントリの内容を「通常」に戻し、管理コンソール100にエラーステータスを返信して処理を終了する(408、419、420)。
【0056】
以上の処理により、CPU163は、複製処理が実行可能であることを確認する。また、ここまでの処理(401〜408)のみを行う命令を定義しておけば、複製先LUグループが正しく定義されていることを確認するプレビュー機能を実現することもできる。
【0057】
CPU163は、データの複製を開始する。CPU163は、複製管理表174のコピー位置エントリ303のデータを、複製元LU190の先頭アドレスにセットする(409)。CPU163は、LU190の先頭から順番にデータをコピーするよう、ディスクコントローラ165を制御する。具体的には、ディスクコントローラ165は、複製管理表174のコピー位置303に指定された位置から、あらかじめ決められた大きさのデータを読み出し、グループIDで指定された複製先LUに書き込む(410)。
【0058】
複製先LUエントリ304の状態が「ローカル」の場合、CPU163は、ディスクコントローラ165に書き込みを指示する。複製先LUエントリ304の状態が「リモート」の場合、CPU163は、ファイバチャネルインタフェース161等からSCSI Writeコマンドを発行する(412)。書き込みがエラーとなった場合は、CPU163は、エラーとなった複製先LUエントリ304の状態を「エラー」に変更する(414)。
【0059】
CPU163は、1つのコピー位置でのデータの書き込みの処理を、グループとして指定された全ての複製先LU(ここではLU192、193)について繰り返すが、状態が「エラー」の複製先については書き込みを行わずに書き込み処理をスキップする(416)。全ての複製先にデータをコピーしたら、CPU163は、コピー位置エントリ303のデータを、一回で書きこむデータの大きさ分インクリメントすることでコピー位置を次のデータの位置に進め(417)、複製元LU全体のコピーが終了するまで繰り返す(418)。
【0060】
最後に、CPU163は、グループの状態エントリ301の内容を「通常」に戻し、管理コンソール100にステータスを返信する(419、420)。
【0061】
複製完了を示すステータスを受信したディスクアレイ管理プログラム102は、ディスクアレイ160に複製元LUのミラーリングの再開を指示する。データベース連携プログラム101が、バックアップモードの解除などデータベースシステムの後処理をデータベース制御プログラム111に指示する。指示を受けたデータウェアハウスシステム121及びバックアッププログラム131は、後処理を開始する。
【0062】
本実施形態においては、通常のシステム運用中は、複製先LUの数にかかわらず、データを少なくとも2つのLUに多重化するだけでよい。したがって、全ての複製先に多重化する従来の方式に比べ、APからのデータ書き込みが高速になる。また、複製を行う場合、複製先LUの追加、及び変更を行う場合、APを実行しているコンピュータからのデータへのアクセスが伴わないため、APの処理速度を低下させることなく複製先LUグループの編成を変更することができる。さらに、複数の異なるLUの複製先LUとして同一のLUを指定できるため、複製先LUとして必要な記憶装置の数を低減することができる。
【0063】
本発明の第二の実施形態について説明する。第一の実施形態では、複製管理表174によって、複製先LUがあらかじめ指定される。しかし、LUは、独立に複製管理表174から削除・登録される。従って、最初に複製先LUとして指定されたLUが削除され、削除されたLUに対応するLUNが別のデータを持つLUに割り当てられた場合、複製を作成することを意図していないLUにデータがコピーされ、格納されていたデータが破壊されてしまう。
【0064】
本実施形態は、誤操作によるデータ破壊を防止する仕組みを第一の実施形態に追加したものである。全体のシステム構成は図1と同様である。以下、第一の実施形態と異なる点のみ説明する。
【0065】
第一の実施形態では、ディスクアレイ管理プログラム102が、ユーザの複製グループ定義命令を複製元ディスクアレイ160に送信した。本実施形態では、複製グループ定義命令の送信前に、ディスクアレイ管理プログラム102が、複製先LUグループ毎にシステム全体で一意に定まる「マーク」を生成する。マークとしては、例えば「グループID + 複製元LUを持つディスクアレイの装置ID」のようなものを用いる。
【0066】
ディスクアレイ管理プログラム102は、生成したマークを複製先LUを持つ各ディスクアレイに送り、複製先LUにマークを付加するよう指示する。マークを指示する命令を受信したディスクアレイは、自己のLU管理表172に、マークを登録する。
【0067】
図7は、本実施形態におけるLU管理表172の内、本実施形態で使用される部分を示す図である。LU番号700には、LUを特定するためのLU番号が登録される。コピー状態エントリ701には、LU番号700で指定されるLUが複製作成処理で使用されているときには複製作成処理で用いられる複製先LUグループに与えられるマークが登録される。それ以外の場合、「無し」が登録される。コピー状態エントリ701の初期値は「無し」である。
【0068】
LUマークエントリ702には、LUが所属する複製先LUグループに付加されたマークが登録される。LUが複数の複製先LUグループで複製先LUとして指定された場合は、LUマークエントリ702も各グループに対応して複数個設定される。また、本図で示される表は、LU番号の数だけ設定される。
【0069】
LUが削除される場合、削除されたLUが属するディスクアレイのLU管理表172のLUのエントリが削除されるため、登録されていたマークも削除される。
【0070】
複製先LUのマークの作成が完了した後、ディスクアレイ管理プログラム102が、複製元ディスクアレイ160に複製グループ定義命令を送信する。その際、ディスクアレイ管理プログラム102が生成したマークも一緒に送信される。複製管理表174には、グループに割り当てられたマークを記録するためのエントリが追加されている。複製元ディスクアレイ160は、図2のステップ205の処理において、複製管理表174の追加されたエントリに、受信したマークを記録する。
【0071】
複製先LUグループに複製先LUを追加する場合、ディスクアレイ管理プログラム102は、第一の実施形態と同様の操作の他に、複製先LUグループに割り当てられたマークを複製元ディスクアレイ160の複製管理表174から取得する処理を行う。ディスクアレイ管理プログラム102は、新しい複製先LUを持つディスクアレイに、該ディスクアレイが有するLU管理表172に複製先LUグループのマークを登録するよう指示する。
【0072】
また、複製先LUグループから複製先LUを削除する場合は、ディスクアレイ管理プログラム102は、該当する複製先LUを持つディスクアレイに対して、LU管理表172からのマークの削除を指示する。複製先LUグループ全体を削除する場合は、該当するグループに含まれる全ての複製先LUに対して同様の操作を行う。
【0073】
複製を作成する処理は、第一実施形態とほぼ同様である。本実施形態においては、複製を行う前に、複製先LUが定義時に意図したLUと同一であるか否かを、LU複製プログラム173がマークを用いて確認する処理が行われる。また、LU複製プログラム173は、複製先LUが複数のコピー処理で同時に使用されていないか確認する。
【0074】
具体的には、本実施形態では、図4のステップ403〜407の処理を、図5のように変更する。
【0075】
LU複製プログラム173は、複製先LUエントリの種別が「リモート」であれば、複製先LUを有するディスクアレイ180に対し、複製先LUグループのマークをパラメータページに持つあらかじめ定義されたModeSelectコマンドを発行する。ModeSelectコマンドを受信したディスクアレイ180は、自己のLU管理表172を参照し、パラメータページが示すマークと同一のマークが記録されているかを確認する。また、ディスクアレイ160は、コピー状態エントリ701が「無し」であるか確認し、「無し」であればマークを記録する。そしてその結果をModeSelectコマンドのステータスとして複製元のディスクアレイ160に返送する(500)。
【0076】
ステータスを受信した複製元ディスクアレイ160は、ステータスがエラーであった場合(501)、マークが存在しない、すなわち意図しないLUが複製先になっている、あるいはLUが他の複製を作成するために使用中であると判断し、複製管理表174内の複製先LUの状態を「エラー」に変更する(406)。
【0077】
これにより、意図しないLUへの複製作成や複数の複製作成処理の重複を防止することができる。複製先LUエントリの種別が「ローカル」であれば、ディスクアレイ160は、ModeSelectコマンドを発行せず、直接自己のLU管理表172を参照してマークの有無を確認する。そして、コピー状態エントリ701が「無し」であればマークを記録する。
【0078】
複製処理の終了後、複製先ディスクアレイのLU管理表172に記録されたコピー状態エントリ701の内容を「無し」に戻す必要がある。本実施形態では、図4のステップ419の処理を、図6のステップ602、601、及び419の処理に変更する。
【0079】
複製先LUエントリの種別が「リモート」である場合、LU複製プログラム173は、複製先LUグループのマークをパラメータページに持つあらかじめ定義されたModeSelectコマンドを、各複製先LUを有するディスクアレイ180に送信する。ModeSelectコマンドを受信したディスクアレイ180は、LU管理表172のコピー状態エントリ701にマークが記録されているか確認し、記録されていればコピー状態エントリの内容を「無し」に戻す。
【0080】
パラメータページで指定された以外のマークが記録されていた場合は、他のコピー処理がLUを使用中であることを示すので、コマンドを受信したディスクアレイ180は何もしない。複製先LUエントリ304の種別が「ローカル」である場合は、ディスクアレイ160は、直接LU管理表172のコピー状態エントリ701にマークが記録されているか確認し、記録されていればコピー状態エントリ701の内容を「無し」に戻す(602)。
【0081】
本実施形態によれば、LUの構成を変更する場合等に、複製先LUグループを定義した時のLUと複製作成時に使用するLUが一致するかどうかを確認し、一致していなかった場合にはそのLUに対する複製データ書き込みを行わないことにより、既存のデータを保護することができる。また、1つのLUが同時に複数の複製を作成する処理で使用されることを防止することができる。
【0082】
第三の実施形態について説明する。第一、第二実施形態では、複製元のディスクアレイのCPU163及び183が、各複製先にデータを複製する処理を行った。しかし、複製先が多い場合にはコピー中におけるCPU163等の負荷が高くなり、APに提供できる性能が低下する。
【0083】
本実施形態では、複製元ディスクアレイの外部へのデータの複製を、コピー処理用の外部モジュールで行うことにより、CPUへの負荷を低減する。以下、第一、第二実施形態と異なる点のみ説明する。
【0084】
図8は、外部モジュール800の構成を示す図である。
【0085】
外部モジュール800は、CPU802、ファイバチャネルインタフェース803、804、LANインタフェース801、及びメモリ805を有する。
ファイバチャネルインタフェース803、804は、図1のファイバチャネルハブ140に接続される。また、LANインタフェース801は、図1のLAN150に接続される。
【0086】
メモリ805には、データコピープログラム806、仮想LU管理表807、及び装置ID808が格納される。データコピープログラム806は、管理コンソール100及びディスクアレイ160等との通信並びにデータコピー処理を行う。仮想LU管理表807は、複製管理表174に相当し、複製先LUなどを管理する。装置ID808は、装置ID175と同様である。
【0087】
外部モジュール800は、複製元のLUを有するディスクアレイから受信した指示及びデータを各複製先LUに中継する機能を持つ。外部モジュール800は、仮想LUと呼ぶ複数のLUを、外部モジュール800に接続されるディスクアレイに提供する。
【0088】
仮想LUは、それ自身のLUNを持ち、ファイバチャネルネットワーク142等で接続された他の装置からは通常のLU、すなわち論理的な記憶装置として認識される。しかし、実際には記憶装置は持たず、仮想LUへのアクセスはすべて複製先LUに中継される。仮想LUは、複製元のLUを有するディスクアレイからは、複製先LUの1つとして認識される。
【0089】
外部モジュール800が使用される場合、ディスクアレイ管理プログラム102は、外部モジュール800に対して、マーク及び複製先LUエントリ304の種別が「リモート」となる複製先LUを指定する複製先グループ定義命令を送信する。定義命令を受信した外部モジュール800のデータコピープログラム806は、図2と同様の処理を行う。ただし、ステップ201、202は省略され、ステップ205では、データコピープログラム806は、図9に示される仮想LU管理表807のエントリを設定する。
【0090】
仮想LU管理表807は、図1の複製管理表174のうち、グループ状態、複製元LU、コピー位置、及び複製先LUエントリ内の種別情報が省略され、グループIDの代わりに仮想LUのLUNが割り当てられたものである。割り当てられる仮想LUのLUNは、他のグループ定義で使用されていないものが用いられる。割り当てられたLUNの情報は、ディスクアレイ管理プログラム102に返送される。この処理により、仮想LUに割り当てられる転送先LUの情報が、仮想LU管理表807に登録されることとなる。
【0091】
次に、ディスクアレイ管理プログラム102は、第一及び第二実施形態と同様に、複製元ディスクアレイ160に複製グループ定義命令を送る。ただし、複製先LUとして、複製元ディスクアレイ内のLU及び先の処理で得られた外部モジュール800の仮想LUが指定される。すなわち、複製管理表174の複製先エントリにおいて、外部モジュール800の仮想LUのみが「リモート」の種別を持つ。
【0092】
複製元ディスクアレイ160は、第一及び第二実施形態と全く同様の処理を行う。外部モジュール800は、図2のステップ203において複製元ディスクアレイ160から装置IDを要求されると、他のディスクアレイと同様に自身の装置IDを返送する。
【0093】
複製先LUの追加・削除命令も第一、第二実施形態と同様に処理される。ただし、ディスクアレイ管理プログラム102から発行される命令は、指定される複製先LUが他のディスクアレイ内のLUであれば、外部モジュール800に送られる。外部モジュール800は、受信した追加・削除命令に応じて、仮想LU管理表807の複製先LUエントリを追加・削除する。
【0094】
ディスクアレイ管理プログラム102から複製先LUへのマーク命令の送信は、第二実施形態と同様に行われる。
【0095】
複製元ディスクアレイ160および複製先ディスクアレイは、第一および第二実施形態と全く同様の処理を行う。
【0096】
外部モジュール800の動作を、図4〜6のフローチャートに沿って説明する。ステップ404で、複製元ディスクアレイ160からReadCapacityコマンドを受信すると、外部モジュール800は、仮想LU管理表807に記録されている全ての複製先LUにReadCapacityコマンドを送信し、もっとも小さい容量を複製元ディスクアレイ160に返信する。また、ステップ500及びステップ602でModeSelectコマンドを受信すると、外部モジュール800は、全ての複製先LUにModeSelectコマンドを転送し、1つでもエラーがある場合はエラーステータスを複製元ディスクアレイ160に返信する。
【0097】
ステップ412で仮想LUに対するWriteコマンドを受信すると、外部モジュール800は、Writeコマンドで指定されたLBAとデータを用いて、全ての複製先LUにWriteコマンドを送信する。送信されたWriteコマンドに対して、エラーステータスが1つでも返された場合は、複製元ディスクアレイ160にエラーステータスを返す。
【0098】
本実施形態に拠れば、複製元ディスクアレイ160の外部にあるLUへのデータコピーを外部モジュール800が行うため、複製元ディスクアレイ160のCPUの負荷が軽減される。
【0099】
なお、本発明はデータベースシステムに限定されるものではなく、その他の連続運転システム、例えば工場監視システム等にも適用することができる。又、必ずしも無停止のシステムでなくても良い。
【0100】
【発明の効果】
本発明によれば、通常の運用において、記憶装置システムが書き込みをミラーリングするのは2つの記憶装置で十分なので、複製する記憶装置の数が増えた場合にも記憶装置システムの通常の運用時の負荷は変わらず、APの処理速度低下を防ぐことができる。
【0101】
また、複製先の追加や変更には、APを実行しているコンピュータからのアクセスが伴わないため、アプリケーションプログラムの処理速度を低下させることなく複製先を追加・変更することができる。複数の異なるデータの複製先として同一の複製先LUを指定できるため、複製先LUとして必要な記憶装置の数を低減することができる。また、複製先定義時に意図したLUと複製作成時に使用するLUが一致するかどうかを確認することにより、意図しないLUへの複製作成と既存のデータ破壊を防ぐことができる。
【0102】
また、1つのLUが同時に複数の複製作成処理で使用されることを防止できる。さらに、外部モジュールが、複製元ディスクアレイの外部にあるLUへのデータコピーを行うことにより、複製元ディスクアレイのCPU負荷を軽減することができる。
【0103】
また、複製先LUの内容を、通常の運用時に複製元LUの内容に一致させる必要がないため、その位置や数を変更した場合にもデータのコピー処理は不要である。
【図面の簡単な説明】
【図1】本発明の第一実施形態の構成を示す図である。
【図2】本発明の第一実施形態における複製管理表174のエントリ構成を示す図である。
【図3】本発明の第一実施形態における複製グループ定義処理のフローチャートである。
【図4】本発明の第一実施形態における複製作成処理のフローチャートである。
【図5】本発明の第二実施形態における複製先確認処理のフローチャートである。
【図6】本発明の第二実施形態におけるコピー状態リセット処理のフローチャートである。
【図7】本発明の第二実施形態におけるLU管理表172のエントリ構成を示す図である。
【図8】本発明の第三実施形態における外部コピーモジュールの構成を示す図である。
【図9】本発明の第三実施形態における外部コピーモジュールの複製管理表エントリ構成を示す図である。
【符号の説明】
100…管理コンソール、102…ディスクアレイ管理プログラム、110…データベースサーバ、120…データウェアハウスサーバ、130…バックアップサーバ、160…ディスクアレイ、171…LUミラープログラム、172…LU管理表、173…LU複製プログラム、174…複製管理表、175…装置ID。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer system for data replication and a data replication method.
[0002]
[Prior art]
When a plurality of different processes are performed on the data that the computer system has, the data to be processed is copied to the plurality of storage devices that the storage device system has, and the same content data in each storage device Different processing may be performed. Further, when one process is performed in parallel by a plurality of computers, data to be processed is copied to a plurality of storage devices so that a plurality of access destinations are provided. In this way, it has been put to practical use to distribute the load of access to data in a computer system and to increase the processing speed of the system.
[0003]
In a system that processes continuously for 24 hours, it is necessary to replicate data without interrupting execution of an application program (AP) used in the system. In such a case, conventionally, a technique of multiplexing data in advance (mirroring) by writing the same data to a plurality of storage devices during normal system operation has been used. In this specification, the storage device includes both a physical storage device and a logical storage device (Logical Unit: LU).
[0004]
When each of the plurality of storage devices storing the mirrored data is used for separate processing, the individual storage devices can be used independently by stopping the mirroring. When independent processing for each storage device is completed, data in one storage device is copied to the other storage device so that the contents of each storage device match (hereinafter referred to as “synchronization”).
[0005]
Conventionally, such data multiplexing has been realized by software on a server, which is a computer on which an AP is executed, and by a data multiplexing function provided in a storage system connected to the server.
[0006]
[Problems to be solved by the invention]
In the conventional data multiplexing method, when the number of storage devices to be mirrored is large, a load is applied to a server for multiplexing data or a storage device system having a storage device. Therefore, much of the processing capacity of the computer system is used for the mirroring process, and the processing speed of the AP executed in the computer system decreases.
[0007]
In addition, since it is necessary to always synchronize the contents of one storage device with the other storage device, when a new storage device is added or when the logical location of a replicated storage device is changed The target data needs to be copied to the newly added storage device or the storage device whose location has been changed.
[0008]
Further, when the number of storage devices to be mirrored increases, the management of the replication area becomes complicated. In this case, data may be mistakenly copied to a storage device that should not be duplicated, which may cause data corruption.
[0009]
A first object of the present invention is to provide a computer system that prevents a decrease in the processing speed of an AP executed in a computer system at the time of duplication even when a large number of data duplications are created.
[0010]
A second object of the present invention is to provide a computer system capable of adding a copy destination storage device and changing a logical position of the storage device without a new data copy process. .
[0011]
A third object of the present invention is to provide a computer system that prevents data corruption by creating a copy of data in an incorrect storage device.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, data transferred from an AP to a storage device system is mirrored and written to two storage devices in the storage device system. When creating a copy, the storage system interrupts mirroring in response to an instruction from the computer system, stops access to one storage device, and uses the contents of the storage block for which access has been stopped as the copy destination. Copy to storage block. When the copying is completed, the storage system is configured to resume mirroring of the suspended data writing and make the contents of the two storage devices coincide.
[0013]
Also, when defining the copy destination storage device, a mark indicating that the storage device is the copy destination is recorded in the information defining the copy destination storage device, and the copy source before actually starting the data copy A configuration in which the storage device system confirms the mark included in the definition information and performs replication is also conceivable.
[0014]
Further, when creating a copy in a plurality of storage device systems, a configuration using a copy module having a function of writing data to a plurality of predefined copy destinations may be used. When creating a copy in a storage device of a different storage device system, the copy source storage device system may transfer data to a copy module, and the copy module may copy the data to a plurality of storage devices.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a first embodiment of a computer system to which the present invention is applied.
[0016]
The computer system includes a
[0017]
The
[0018]
The
[0019]
The
[0020]
The disk
[0021]
The database cooperation program 101 transmits an instruction for starting execution of the program to the database control program 111 in the
[0022]
The
The database control program 111 controls the operation of the
[0023]
The
[0024]
A
[0025]
A
[0026]
The
[0027]
The
[0028]
The memory 170 stores an
[0029]
The LU management table 172 includes information necessary for LU management of the disk array, such as the LU number given to the LU existing in the entire system, the LU storage capacity, the LU information as the mirror destination, and the disk array status during the duplex operation. Is recorded.
[0030]
The
[0031]
The
[0032]
In the present embodiment, an example will be described in which data recorded in the
It is assumed that the data recorded in the
[0033]
Before performing data replication, the replication management table 174 recorded in the memory 170 of the
[0034]
FIG. 2 is a diagram showing setting entries in the replication management table 174. The group ID entry 300 stores information on IDs uniquely specified for LUs included in the copy destination LU group (in this case,
[0035]
The
[0036]
The replication
[0037]
FC I / F represents the World Wide Name assigned to the FC interface of the replication source and replication destination disk arrays that serve as access paths to the replication destination LU when the replication destination LU type is “remote”. The LUN indicates an LU number that is a number uniquely specified for the replication destination LU. The status is information indicating whether the LU is accessible. If it is accessible, “normal” information, otherwise “error” information is stored in the entry holding the state. A plurality of replication
[0038]
When setting the replication destination LU, the user sends an instruction to the disk array (in this case, the
[0039]
The user selects an LU as a replication destination from the acquired LU list (here,
[0040]
FIG. 3 is a flowchart showing the operation of the
[0041]
The
[0042]
When there is no definition error, the
[0043]
The
[0044]
If it is remote, the
[0045]
When an LU is added to the replication destination LU group, after receiving an instruction to add an LU from the disk
[0046]
If the
[0047]
In the process of setting the replication destination LU shown in FIG. 3, the
[0048]
Further, since the same replication destination LU can be specified by a plurality of replication destination LU groups, the number of necessary LUs can be reduced. For example, when creating two LU-A replicas and two LU-B replicas, the conventional method requires four replication destination LUs, but the time zone for creating and using each replica overlaps. If not, the same two LUs can be used as replication destinations by changing the settings of the replication management table 174.
[0049]
Furthermore, a plurality of replication destination LU groups having the same replication source LU and different replication destination LUs can be defined in advance, and the location of the replication destination LU can be selected when creating a replication.
[0050]
When a replication is actually created after the replication destination LU group is specified, the database cooperation program 101 sends an instruction to the database control program 111 via the LAN. The database control program 111 performs pre-processing of the
[0051]
Thereafter, the user instructs the
The disk
[0052]
FIG. 4 is a flowchart showing the operation of the
[0053]
The
[0054]
If not in the error state, the
[0055]
If the capacity of the replication destination LU is smaller than the replication source, the
[0056]
With the above processing, the
[0057]
The
[0058]
When the state of the replication
[0059]
The
[0060]
Finally, the
[0061]
The disk
[0062]
In this embodiment, during normal system operation, data need only be multiplexed into at least two LUs regardless of the number of replication destination LUs. Therefore, the data writing from the AP becomes faster than the conventional method of multiplexing to all the replication destinations. In addition, when duplicating, when adding or changing a replication destination LU, since there is no access to data from the computer executing the AP, the replication destination LU group does not decrease the processing speed of the AP. The organization of can be changed. Furthermore, since the same LU can be designated as the duplication destination LU of a plurality of different LUs, the number of storage devices required as the duplication destination LU can be reduced.
[0063]
A second embodiment of the present invention will be described. In the first embodiment, the replication destination LU is designated in advance by the replication management table 174. However, the LU is deleted and registered from the replication management table 174 independently. Therefore, when the LU specified as the replication destination LU is deleted first, and the LUN corresponding to the deleted LU is assigned to an LU having different data, data is not stored in the LU that is not intended to create a replica. Will be copied and the stored data will be destroyed.
[0064]
In this embodiment, a mechanism for preventing data destruction due to an erroneous operation is added to the first embodiment. The overall system configuration is the same as in FIG. Only differences from the first embodiment will be described below.
[0065]
In the first embodiment, the disk
[0066]
The disk
[0067]
FIG. 7 is a diagram showing a part used in the present embodiment in the LU management table 172 in the present embodiment. In the
[0068]
In the
[0069]
When an LU is deleted, the registered mark is also deleted because the LU entry in the LU management table 172 of the disk array to which the deleted LU belongs is deleted.
[0070]
After the creation of the mark of the replication destination LU is completed, the disk
[0071]
When adding a replication destination LU to a replication destination LU group, the disk
[0072]
When deleting the replication destination LU from the replication destination LU group, the disk
[0073]
The process of creating a replica is almost the same as in the first embodiment. In this embodiment, before duplication, a process is performed in which the
[0074]
Specifically, in this embodiment, the processing of
[0075]
If the type of the replication destination LU entry is “remote”, the
[0076]
When the status is error (501), the copy
[0077]
Thereby, it is possible to prevent duplication of unintended LU creation and duplication of a plurality of duplication creation processes. If the type of the replication destination LU entry is “local”, the
[0078]
After the replication process is completed, it is necessary to return the content of the
[0079]
When the type of the replication destination LU entry is “remote”, the
[0080]
If a mark other than that specified in the parameter page is recorded, it indicates that another copy process is using the LU, and the
[0081]
According to this embodiment, when changing the LU configuration, etc., it is checked whether the LU used when defining the replication destination LU group matches the LU used when creating the replica. Can protect existing data by not writing duplicate data to the LU. Further, it is possible to prevent one LU from being used in a process for creating a plurality of replicas simultaneously.
[0082]
A third embodiment will be described. In the first and second embodiments, the
[0083]
In this embodiment, the load on the CPU is reduced by copying data to the outside of the copy source disk array by an external module for copy processing. Only differences from the first and second embodiments will be described below.
[0084]
FIG. 8 is a diagram showing the configuration of the
[0085]
The
The
[0086]
The
[0087]
The
[0088]
The virtual LU has its own LUN, and is recognized as a normal LU, that is, a logical storage device by other devices connected by the
[0089]
When the
[0090]
In the virtual LU management table 807, the group status, the replication source LU, the copy position, and the type information in the replication destination LU entry are omitted from the replication management table 174 of FIG. 1, and the LUN of the virtual LU is replaced with the group ID. Assigned. As the LUN of the allocated virtual LU, one that is not used in other group definitions is used. The assigned LUN information is returned to the disk
[0091]
Next, the disk
[0092]
The replication
[0093]
The replication destination LU addition / deletion command is also processed in the same manner as in the first and second embodiments. However, an instruction issued from the disk
[0094]
Transmission of a mark command from the disk
[0095]
The replication
[0096]
The operation of the
[0097]
When receiving the Write command for the virtual LU in
[0098]
According to this embodiment, since the
[0099]
The present invention is not limited to the database system, but can be applied to other continuous operation systems such as a factory monitoring system. Further, the system is not necessarily a non-stop system.
[0100]
【The invention's effect】
According to the present invention, two storage devices are sufficient for the storage system to mirror the write in normal operation, so even when the number of storage devices to be replicated increases, The load does not change, and a decrease in AP processing speed can be prevented.
[0101]
In addition, since the addition or change of the copy destination does not involve access from the computer executing the AP, the copy destination can be added or changed without reducing the processing speed of the application program. Since the same replication destination LU can be designated as a plurality of different data replication destinations, the number of storage devices required as the replication destination LU can be reduced. Also, by confirming whether the LU intended when defining the replication destination matches the LU used when creating the replication, it is possible to prevent the creation of a replication to an unintended LU and the destruction of existing data.
[0102]
Further, it is possible to prevent one LU from being used simultaneously in a plurality of replica creation processes. Furthermore, the CPU load on the replication source disk array can be reduced by copying the data to the LU outside the replication source disk array by the external module.
[0103]
Further, since there is no need to match the contents of the replication destination LU with the contents of the replication source LU during normal operation, data copy processing is not required even when the position or number of the LU is changed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a first embodiment of the present invention.
FIG. 2 is a diagram showing an entry configuration of a replication management table 174 in the first embodiment of the present invention.
FIG. 3 is a flowchart of replication group definition processing in the first embodiment of the present invention.
FIG. 4 is a flowchart of copy creation processing in the first embodiment of the present invention.
FIG. 5 is a flowchart of a copy destination confirmation process in the second embodiment of the present invention.
FIG. 6 is a flowchart of a copy status reset process in the second embodiment of the present invention.
FIG. 7 is a diagram showing an entry configuration of an LU management table 172 according to the second embodiment of this invention.
FIG. 8 is a diagram showing a configuration of an external copy module according to a third embodiment of the present invention.
FIG. 9 is a diagram showing a replication management table entry configuration of an external copy module in the third embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
前記記憶装置システムと接続された第一の計算機と、前記記憶装置システムに接続された第二の計算機と、前記記憶装置システムに接続された第二の記憶装置システムとを有する情報処理システムであって、
前記記憶装置システムは、
前記第一の計算機から入力されるデータを前記複数の記憶装置のうちの第一の記憶装置及び第二の記憶装置に記憶する二重化記憶手段と、
前記第二の計算機から入力される信号に応答して、前記二重化記憶手段を停止する手段と、前記第一の記憶装置に記憶されたデータを該記憶記憶装置システムが有する第三の記憶装置に複製する複製手段とを有し、
前記第二の計算機は、
前記記憶装置システムに対して、前記第三の記憶装置を指定する指定手段を有し、
前記記憶装置システムは、
前記指定手段によって指定された前記第三の記憶装置に関する情報を保持する情報保持手段を有し、
前記複製手段は、
前記情報保持手段に保持された前記情報に基づいて、前記第三の記憶装置に前記第一の記憶装置に記憶されたデータを複製し、
前記第二の記憶装置システムは複数の記憶装置を有し、
前記指定手段は、前記第二の記憶装置システムが有する第四の記憶装置を指定し、
前記複製手段は、前記指定手段で指定される前記第四の記憶装置に前記第一の記憶装置からデータを複製することを特徴とする情報処理システム。A storage device system having a plurality of storage devices;
An information processing system comprising: a first computer connected to the storage device system; a second computer connected to the storage device system; and a second storage device system connected to the storage device system. And
The storage device system includes:
Duplex storage means for storing data input from the first computer in a first storage device and a second storage device of the plurality of storage devices;
In response to a signal input from the second computer, means for stopping the duplex storage means, and data stored in the first storage device are stored in a third storage device of the storage storage system. A duplicating means for duplicating,
The second calculator is
Designating means for designating the third storage device for the storage device system;
The storage device system includes:
Comprising information holding means for holding information relating to the third storage device designated by the designation means;
The duplicating means includes
Based on the information held in the information holding means, the data stored in the first storage device is copied to the third storage device,
The second storage device system has a plurality of storage devices,
The designation means designates a fourth storage device included in the second storage device system,
The information processing system, wherein the replicating unit replicates data from the first storage device to the fourth storage device specified by the specifying unit.
前記指定手段によって指定される前記第四の記憶装置に関する情報を保持する保持手段と、
前記記憶装置システムから転送された情報を前記保持手段に保持された情報に基づいて前記第二の記憶装置システムに転送する転送手段と、
を有する外部モジュールを有することを特徴とする請求項1記載の情報処理システム。Connected to the storage device system and the second storage device system;
Holding means for holding information about the fourth storage device specified by the specifying means;
Transfer means for transferring the information transferred from the storage device system to the second storage device system based on the information held in the holding means;
The information processing system according to claim 1, characterized in that it has an external module having.
前記記憶装置システムと接続された第一の計算機、及び前記記憶装置システムに接続された第二の計算機を有する情報処理システムであって、
前記第二の計算機は、
前記記憶装置システムに対して、第三及び第四の記憶装置を指定する指定手段と、
前記第三及び第四の記憶装置に共通する第一の符号を生成する生成手段とを有し、
前記記憶装置システムは、
第二の符号を格納する格納手段と、
前記第一の計算機から入力されるデータを前記複数の記憶装置のうちの第一の記憶装置及び第二の記憶装置に記憶する二重化記憶手段と、
前記第二の計算機から入力される信号に応答して、前記二重化記憶手段を停止する手段と、
前記指定手段によって指定された前記第三及び第四の記憶装置に関する情報及び前記第一の符号の情報を保持する情報保持手段と、
前記第一の記憶装置に記憶されたデータを、前記格納手段に格納された第二の符号及び前記情報保持手段に格納された前記第一の符号が同一である場合のみ、前記第三及び第四の記憶装置に複製する複製手段とを有することを特徴とする情報処理システム。A storage device system having a plurality of storage devices;
An information processing system having a first computer connected to the storage device system and a second computer connected to the storage device system,
The second calculator is
Designating means for designating third and fourth storage devices for the storage device system;
Generating means for generating a first code common to the third and fourth storage devices,
The storage device system includes:
Storage means for storing a second code;
Duplex storage means for storing data input from the first computer in a first storage device and a second storage device of the plurality of storage devices;
Means for stopping the duplex storage means in response to a signal input from the second computer;
Information holding means for holding information on the third and fourth storage devices specified by the specifying means and information on the first code;
Only when the second code stored in the storage means and the first code stored in the information holding means are the same for the data stored in the first storage device, the third and second An information processing system comprising: replicating means for copying to four storage devices.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001117617A JP4122724B2 (en) | 2001-04-17 | 2001-04-17 | Data replication method and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001117617A JP4122724B2 (en) | 2001-04-17 | 2001-04-17 | Data replication method and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002312251A JP2002312251A (en) | 2002-10-25 |
JP4122724B2 true JP4122724B2 (en) | 2008-07-23 |
Family
ID=18968135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001117617A Expired - Fee Related JP4122724B2 (en) | 2001-04-17 | 2001-04-17 | Data replication method and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4122724B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004192105A (en) | 2002-12-09 | 2004-07-08 | Hitachi Ltd | Connection device of storage device and computer system including it |
WO2005010766A1 (en) * | 2003-07-24 | 2005-02-03 | Fujitsu Limited | Data storage system |
JP4629342B2 (en) * | 2004-01-09 | 2011-02-09 | 株式会社日立製作所 | Storage apparatus and control method thereof |
-
2001
- 2001-04-17 JP JP2001117617A patent/JP4122724B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002312251A (en) | 2002-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3868708B2 (en) | Snapshot management method and computer system | |
JP3974538B2 (en) | Information processing system | |
JP4559046B2 (en) | Virtual tape library device | |
JP3726559B2 (en) | Direct backup method and storage system | |
JP4927408B2 (en) | Storage system and data restoration method thereof | |
JP4581518B2 (en) | How to get a snapshot | |
US7464236B2 (en) | Storage system and storage management method | |
JP4041656B2 (en) | Storage system and data transmission / reception method in storage system | |
JP4949088B2 (en) | Remote mirroring between tiered storage systems | |
JP5257672B2 (en) | Computer system and method for managing journal hierarchy | |
US7461201B2 (en) | Storage control method and system for performing backup and/or restoration | |
US20130283000A1 (en) | Storage System Comprising Function for Changing Data Storage Mode Using Logical Volume Pair | |
JP2005031716A (en) | Method and device for data backup | |
JP4170056B2 (en) | Backup / restore management method between replicated volumes and storage control device used in this method | |
US20020188802A1 (en) | Memory device system and method for copying data in memory device system | |
US20170017433A1 (en) | Storage system, storage device, and data transfer method | |
JP2008225616A (en) | Storage system, remote copy system and data restoration method | |
US7694089B2 (en) | Resource efficient remote copy pair for data retention | |
JP4104281B2 (en) | Database access method | |
JP2003084917A (en) | Remote file sharing method, and its device and system | |
JP3832223B2 (en) | Disk array disk failure recovery method | |
JP4122724B2 (en) | Data replication method and information processing system | |
JP3882467B2 (en) | Snapshot management method for storage system | |
JP4398596B2 (en) | Disk array device | |
US20050223180A1 (en) | Accelerating the execution of I/O operations in a storage system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050324 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080421 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110516 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110516 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120516 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120516 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130516 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130516 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |