JP4122724B2 - Data replication method and information processing system - Google Patents

Data replication method and information processing system Download PDF

Info

Publication number
JP4122724B2
JP4122724B2 JP2001117617A JP2001117617A JP4122724B2 JP 4122724 B2 JP4122724 B2 JP 4122724B2 JP 2001117617 A JP2001117617 A JP 2001117617A JP 2001117617 A JP2001117617 A JP 2001117617A JP 4122724 B2 JP4122724 B2 JP 4122724B2
Authority
JP
Japan
Prior art keywords
storage device
replication
storage
disk array
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001117617A
Other languages
Japanese (ja)
Other versions
JP2002312251A (en
Inventor
康行 味松
直人 松並
陽一 水野
健司 村岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001117617A priority Critical patent/JP4122724B2/en
Publication of JP2002312251A publication Critical patent/JP2002312251A/en
Application granted granted Critical
Publication of JP4122724B2 publication Critical patent/JP4122724B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、データの複製を行うコンピュータシステム及びデータ複製の方法に関する。
【0002】
【従来の技術】
コンピュータシステムが有するデータに対して複数の異なる処理が行われる場合、処理対象となるデータが、記憶装置システムが有する複数の記憶装置に複製され、各々の記憶装置の同一内容のデータに対して、異なる処理が行われることがある。また、一つの処理を複数のコンピュータで並列に行う場合、処理の対象となるデータを複数の記憶装置に複製して、アクセス先を複数にする。このようにして、コンピュータシステムにおけるデータへのアクセスの負荷を分散し、システムの処理の高速化を図ることが実用化されている。
【0003】
24時間連続して処理を行うシステムでは、システムで使用されるアプリケーションプログラム(AP)の実行を中断しないでデータの複製を行う必要がある。このような場合、従来は、通常のシステム運用時に複数の記憶装置に同じデータを書き込むことにより、データをあらかじめ多重化(ミラーリング)しておくという技術が使用されてきた。尚、本明細書において、記憶装置とは、物理的な記憶装置及び論理的な記憶装置(Logical Unit:LU)の両方が含まれる。
【0004】
ミラーリングされたデータが格納された複数の記憶装置の個々を別々の処理に利用する際は、ミラーリングが中止されることにより、個々の記憶装置を独立して利用可能な状態とする。個々の記憶装置に対する独立した処理が終了すると、個々の記憶装置の内容が一致するように、一方の記憶装置のデータを他方の記憶装置へコピーする(以下、「同期を取る」と言う)。
【0005】
このようなデータの多重化は、従来は、APが実行されているコンピュータであるサーバ上のソフトウェアや、サーバに接続された記憶装置システムが備えているデータ多重化機能によって実現されていた。
【0006】
【発明が解決しようとする課題】
従来のデータの多重化の方法では、ミラーリングが行われる記憶装置の数が多い場合には、データを多重化するサーバ、又は記憶装置を有する記憶装置システムに負荷がかかる。したがって、コンピュータシステムの処理能力の多くがミラーリングの処理に使用されることとなり、コンピュータシステムで実行されるAPの処理速度が低下する。
【0007】
また、一方の記憶装置の内容を常に他方の記憶装置に同期させる必要があるため、新たな記憶装置が追加される場合や、複製された記憶装置の論理的な位置が変更される場合には、対象となるデータを新たに追加された記憶装置又は位置が変更された記憶装置に複製する必要がある。
【0008】
さらに、ミラーリングされる記憶装置の数が増加すると、複製領域の管理が複雑となる。この場合、複製されるべきではない記憶装置に誤ってデータが複製されてしまい、データの破壊を引き起こす可能性もある。
【0009】
本発明の第一の目的は、データの複製を多数作成する場合にも、複製時にコンピュータシステムで実行されているAPの処理速度の低下を防ぐコンピュータシステムを提供することである。
【0010】
本発明の第二の目的は、新たなデータの複製処理を伴わずに、複製先の記憶装置の追加、及び記憶装置の論理的な位置を変更することができるコンピュータシステムを提供することである。
【0011】
本発明の第三の目的は、誤った記憶装置にデータの複製を作成することによるデータ破壊を防止するコンピュータシステムを提供することである。
【0012】
【課題を解決するための手段】
上記目的を達成するために、本発明は、APから記憶装置システムに転送されるデータを、記憶装置システム内で2つの記憶装置にミラーリングして書き込む。複製を作成する際は、記憶装置システムは、計算機システムからの指示に応じてミラーリングを中断して1つの記憶装置へのアクセスを停止し、アクセスが停止された記憶ブロックの内容を複製先となる記憶ブロックにコピーする。コピーが終了したら、記憶装置システムは、中断していたデータ書き込みのミラーリングを再開し、2つの記憶装置の内容を一致させるという構成とする。
【0013】
また、複製先の記憶装置を定義する際に、記憶装置が複製先であることを示すマークを複製先の記憶装置を定義する情報に記録し、実際にデータのコピーを開始する前に複製元の記憶装置システムが、その定義情報に含まれるマークを確認して複製を行う構成も考えられる。
【0014】
さらに、複数の記憶装置システムに複製を作成する場合は、データをあらかじめ定義された複数のコピー先に書き込む機能を持つコピーモジュールを用いる構成とすることもできる。複製元の記憶装置システムは、異なる記憶装置システムの記憶装置に複製を作成する場合、データをコピーモジュールに転送し、コピーモジュールが複数の記憶装置にデータをコピーする構成も考えられる。
【0015】
【発明の実施の形態】
図1は、本発明を適用した計算機システムの第一の実施形態の構成を示す図である。
【0016】
本計算機システムは、データベースサーバ110、管理コンソール100、データウエアハウスサーバ120、バックアップサーバ130、FCハブ140、ディスクアレイ160、及びディスクアレイ180を有する。尚、管理コンソール100は独立した計算機ではなく、データベースサーバ110等がその役目を果たしても良い。
【0017】
データベースサーバ110、データウェアハウスサーバ120、及びバックアップサーバ130は、各々FCインタフェース114、122、132を有し、FCケーブル141〜145、及びFCハブ140を介してそれぞれディスクアレイ160及びディスクアレイ180と接続される。
【0018】
管理コンソール100、データベースサーバ110、ディスクアレイ160及びディスクアレイ180は、各々Local Area Network(以下「LAN」と称する。)インタフェース103、113、164、182を有し、LAN150を介して相互に接続される。LAN150は、システムが動作するために必要な制御情報の伝達に使用される。
【0019】
管理コンソール100には、ディスクアレイ管理プログラム102及びデータベース連携プログラム101が格納されている。
【0020】
ディスクアレイ管理プログラム102は、ディスクアレイ160及び180の動作を制御するプログラムである。ディスクアレイ管理プログラム102は、管理コンソール100が有する操作盤等のインタフェースから入力されるユーザの指示に基づいて、LAN150を介してディスクアレイ160等と制御情報の送受信を行い、ディスクアレイ160等内部の情報の取得や動作の指示を行う。ディスクアレイ管理プログラム102は、データベース連携プログラム101を起動する機能を有する。
【0021】
データベース連携プログラム101は、LAN150を介し、データベースサーバ110内のデータベース制御プログラム111にプログラムの実行開始の指示等を送信する。
【0022】
データベースサーバ110には、データベース制御プログラム111及びデータベースシステム112が格納されている。
データベース制御プログラム111は、データベース連携プログラム101の指示に基づいて、データベースシステム112の動作を制御する。制御の内容には、データベースサーバ110のバッファ内にあるデータをディスクアレイ160に書き込む(以下「フラッシュする」と称する。)こと、データベースをバックアップモードにする等の、データの複製を行う際に必要なデータベースシステム固有の動作が含まれる。
【0023】
データベースシステム112は、ディスクアレイ160内の論理的な記憶装置であるLU190に格納されたデータへのアクセスを制御する。データベースシステム112は、24時間無停止で動作する。
【0024】
データウェアハウスサーバ122には、データウエアハウスシステム121が格納される。データウェアハウスシステム121は、システムに割り当てられたLUに格納されたデータへのアクセスを制御する。本実施形態では、ディスクアレイ160内のLU192に保持されたデータへのアクセスを制御する。
【0025】
バックアップサーバ130には、バックアッププログラム131が格納される。バックアッププログラム131は、バックアップ用のLUに保持されたデータへのアクセスを制御する。本実施形態では、ディスクアレイ180内のLU193をバックアップ用のLUとする。
【0026】
ディスクアレイ160は、演算処理部(CPU)163、メモリ170、ディスクコントローラ165、ディスク166〜168、FCインターフェース161、及びLANインターフェース164を有する。又、ディスクアレイ160は、LU190〜193を有する。LUは、実際には、ディスク166〜168内で分散した記憶領域で構成されていても良い。本実施形態においては、一つのディスクの中に一つのLUが割り当てられているとする。
【0027】
CPU163は、LANインタフェース164、FCインタフェース161、及びディスクコントローラ165を制御する。CPU163は、メモリ170に記憶されたプログラムを実行する。ディスクコントローラ165は、ディスク166等の動作、特にディスク166等へのデータの読み書きの制御を行う。
【0028】
メモリ170には、LUミラープログラム171、LU管理表172、LU複製プログラム173、複製管理表174、及び装置ID175が格納される。LUミラープログラム171は、LUのミラーリングを実行するためのプログラムである。具体的には、LU管理表172に記録された内容に基づいて、LUへ書き込まれるデータを異なるLUにミラーリングする処理、ユーザからの指示に基づいてミラーリングを停止する処理、ミラーリングを再開し2つのLUの内容を一致させる処理等をディスクコントローラ165が実行するためのプログラムである。
【0029】
LU管理表172には、システム全体に存在するLUに与えられるLU番号、LUの記憶容量、ミラー先となるLUの情報、二重化動作中のディスクアレイ状態など、ディスクアレイのLU管理に必要な情報が記録される。
【0030】
LU複製プログラム173は、ユーザからの指示及び複製管理表174に記録された内容に基づいて、複製元となるLU(複製元LU)の内容を複製先となるLU(複製先LU)に複製する処理をディスクコントローラ165に実行させるプログラムである。複製管理表174には、ディスクアレイ160内におけるLUの複製状況が記録される。装置ID175には、各ディスクアレイに一意に与えられたIDの情報が格納される。
【0031】
ディスクアレイ180は、CPU183、メモリ184、ディスクコントローラ185、ディスク186、FCインターフェース181、及びLANインターフェース182を有する。又、ディスクアレイ180は、LU193を有する。ディスクアレイ180のメモリ184に格納されるプログラムは、ディスクアレイ160と同様なので、説明は省略する。
【0032】
本実施形態では、データベースシステム112がアクセスするLU190に記録されたデータが、LU192及びディスクアレイ180のLU193に複製される例を説明する。
前提として、LU190に記録されたデータは、LUミラープログラム171によって、LU191にミラーリングされているとする。
【0033】
データの複製を行う前に、複製元LU190を有するディスクアレイ160のメモリ170に記録された複製管理表174に、複製先となるLUのグループ(複製先LUグループ:この場合はLU192及びLU193)が設定される。
【0034】
図2は、複製管理表174の設定エントリを示す図である。グループIDエントリ300には、複製先LUグループに含まれるLU(この場合、LU192及びLU193)に一意に指定されるIDの情報が格納される。複製先LUグループの設定や複製の作成等の処理を行う場合、処理の対象となる複製先LUグループの特定は、すべてグループIDによって行われる。
【0035】
グループ状態エントリ301には、処理の対象となる複製先LUグループについて、複製処理が実行されている状態であることを示す「コピー中」、又は複製処理が行われていない状態であることを示す「通常」のどちらかの情報が保持される。複製元LUエントリ302には、複製元LU(ここではLU190)の情報が保持される。コピー位置エントリ303には、複製作成中のある時点で複製元LU内のどの位置のデータをコピー中かという情報が、例えばLBA(Logical Block Address)形式で保持されている。
【0036】
複製先LUエントリ304には、種別、FCインタフェース(FC I/F)、LU番号(LUN)、状態といった情報が記録される。種別とは、複製先LUが複製元LUと同じディスクアレイ内にあるか否かを示す情報である。ここでは、「ローカル」が同一ディスクアレイ内にある場合を指し(本実施形態ではLU192)、それ以外の場合は「リモート」で現される(本実施形態ではLU193)。
【0037】
FC I/Fは、複製先LUの種別が「リモート」の場合に、複製先LUへのアクセスパスとなる複製元及び複製先ディスクアレイが有するFCインターフェースに割り当てられているWorld Wide Nameを表す。LUNは、複製先LUに一意に指定される番号であるLU番号を示す。状態は、LUがアクセス可能か否かを示す情報である。アクセス可能であれば「通常」、そうでなければ「エラー」という情報が、状態を保持するエントリに格納される。複製先LUエントリ304は、複数設定することができる。
【0038】
複製先LUを設定する場合、ユーザは、ディスクアレイ管理プログラム102を介して、複製を作成したいディスクアレイ(ここでは、ディスクアレイ160及び180)に指示を送り、ディスクアレイのLU管理表172に登録されたLUのリスト及び装置IDを取得する。
【0039】
ユーザは、取得したLUのリストの中から、複製先とするLUを選択(ここではLU192及びLU193)する。ユーザは、LUN及び装置IDのペアからなるすべての複製先LUの情報を、グループIDおよび複製元LUのLUNの情報とともに、複製グループ定義命令として複製元ディスクアレイ(ここではディスクアレイ160)に送る。グループIDは、ユーザが指定するか、ユーザが識別しやすいものをディスクアレイ管理プログラム102が生成する。
【0040】
図3は、複製グループ定義命令を受信したディスクアレイ160の動作を示すフロー図である。以下の動作は、LU複製プログラム173に従って、CPU163によって実行される。
【0041】
命令を受信したディスクアレイ160のCPU163は、指定されたグループIDが複製管理表174内の既存のグループIDと重複していないかを確認する(201)。CPU163は、複製元LUとして指定されたLUNが、ディスクアレイ160に存在するか調べる(202)。グループIDが重複する、又は指定されたLUが存在しない場合、CPU163は、定義エラーとして管理コンソール100にステータスを返信し、処理を終了する。
【0042】
定義エラーがない場合、CPU163は、ディスクアレイ160が有するFCインタフェース161等からアクセス可能な全てのLUについて、LUが属する装置の装置IDを取得する。装置IDを取得するために、CPU163は、FCインタフェース161を介して各LUに対して装置ID取得のためのModeSense SCSIコマンドを発行する。ModeSenseコマンドを受信したディスクアレイ180等のLU複製プログラム173は、あらかじめ定義されたパラメータページで装置IDを返信する(203、204)。
【0043】
装置IDを取得したCPU163は、複製管理表174に新たな複製先LUグループのエントリを作成する。最初は、グループ状態エントリは「通常」と設定される(205)。CPU163は、指定された複製先LUを、複製管理表174の新たなエントリに登録する。CPU163は、各複製先LUについて、LUの装置IDが複製元の装置IDと同一かどうかを比較することにより、複製先LUの種別が「ローカル」か「リモート」か判断し、複製管理表174への登録を行う。
【0044】
リモートであった場合には、CPU163は、ステップ203及び204で得たFCインタフェース及び接続されている装置IDの情報に基づき、FCインターフェースの情報を複製管理表174に登録する。対応するインタフェースがない場合には、CPU163は、アクセス不可能なLUであると判断し、エラーステータスを管理コンソール100に返信する。複製先LUの初期状態は「通常」と設定される(206〜209)。全ての複製先LUの登録が終わると、CPU163は、ステータスを管理コンソール100に返信して定義処理を終了する(210、211)。
【0045】
尚、複製先LUグループにLUが追加される場合、ディスクアレイ管理プログラム102からLUを追加する旨の指示を受けた後、ディスクアレイ160において、図3のステップ201、202及び205を省略した処理が行われる。複製先LU、又は複製先LUグループ全体を削除する場合、ディスクアレイ管理プログラム102からLUを削除する旨の指示を受けた後、CPU163は、グループ状態エントリが「通常」であることを確認し、複製管理表174から該当するエントリを削除する。
【0046】
グループ状態エントリ301が「コピー中」である場合は、その複製先LUグループ内でデータのコピーが行われている途中であるため、削除は実行されず、エラーステータスが返信される。複製先LUの間には依存関係が存在しないため、任意の複製先LUを複製先LUグループから削除することができる。
【0047】
図3に示す複製先LUを設定する処理では、データベースシステム112は、複製先LUを設定する処理に何ら関与しない。したがって、複製先LUを設定する場合でも、データベースシステム112で実行されるAPの処理速度の低下を抑えることができる。
【0048】
また、同一の複製先LUを複数の複製先LUグループで指定できるため、必要なLUの数を低減できる。例えば、LU-Aの複製を2つ作り、LU-Bの複製を2つ作る場合、従来の方法では4つの複製先LUが必要であるが、それぞれの複製を作成・利用する時間帯が重ならない場合には、複製管理表174の設定を変更することによって、複製先として同じ2つのLUを利用できる。
【0049】
さらに、同じ複製元LUと異なる複製先LUを持つ複製先LUグループをあらかじめ複数定義しておき、複製作成時に複製先LUの位置を選択することも可能である。
【0050】
複製先LUグループが指定された後、実際に複製が作成されるときは、データベース連携プログラム101が、LANを介してデータベース制御プログラム111に指示を送る。データベース制御プログラム111は、バッファフラッシュやバックアップモードへの移行などのデータベースシステム112の前処理を行う。
【0051】
その後、ユーザは、ディスクアレイ管理プログラム102を介して、複製元LUの書き込みのミラーリングの停止をディスクアレイ160に指示する。
ミラーリングの停止の指示をディスクアレイ160に送信したディスクアレイ管理プログラム102は、複製を作成する複製先LUグループのIDを含んだ複製命令を、複製元LU190を持つディスクアレイ160に送る。
【0052】
図4は、複製命令を受信したディスクアレイ160の動作を示すフロー図である。本動作は、LU複製プログラム173に基づき、CPU163によって制御される。
【0053】
複製命令を受信したCPU163は、複製管理表174を参照し、複製命令に含まれるグループIDで指定された複製グループの状態が「コピー中」であるか調べる(401)。状態が「コピー中」、又は指定されたグループIDが存在しなかった場合、CPU163は、エラーステータスを管理コンソール100に返信して複製処理を終了する。
【0054】
エラー状態ではない場合、CPU163は、複製管理表174のグループ状態エントリの内容を「コピー中」に変更する(402)。CPU163は、複製元LUが二重化処理中でないことを、LU管理表172を参照して確認する(403)。CPU163は、LU管理表172を参照する際に複製元LUの容量を取得しておく。CPU163は、複製先LUの容量が複製元LU以上であることを確認する。複製先LUの容量は、種別が「ローカル」の複製先LUについてはLU管理表172を参照することにより確認される。「リモート」の複製先LUについては、FCインタフェース161等を介して、LUに対してReadCapacityコマンドを発行することによりLUの容量を取得する(404)。
【0055】
複製先LUの容量が複製元よりも小さい場合、CPU163は、複製管理表174の複製先LUエントリの内容を「エラー」に変更する(406)。全ての複製先LUエントリの状態が「エラー」となった場合、CPU163は、グループ状態エントリの内容を「通常」に戻し、管理コンソール100にエラーステータスを返信して処理を終了する(408、419、420)。
【0056】
以上の処理により、CPU163は、複製処理が実行可能であることを確認する。また、ここまでの処理(401〜408)のみを行う命令を定義しておけば、複製先LUグループが正しく定義されていることを確認するプレビュー機能を実現することもできる。
【0057】
CPU163は、データの複製を開始する。CPU163は、複製管理表174のコピー位置エントリ303のデータを、複製元LU190の先頭アドレスにセットする(409)。CPU163は、LU190の先頭から順番にデータをコピーするよう、ディスクコントローラ165を制御する。具体的には、ディスクコントローラ165は、複製管理表174のコピー位置303に指定された位置から、あらかじめ決められた大きさのデータを読み出し、グループIDで指定された複製先LUに書き込む(410)。
【0058】
複製先LUエントリ304の状態が「ローカル」の場合、CPU163は、ディスクコントローラ165に書き込みを指示する。複製先LUエントリ304の状態が「リモート」の場合、CPU163は、ファイバチャネルインタフェース161等からSCSI Writeコマンドを発行する(412)。書き込みがエラーとなった場合は、CPU163は、エラーとなった複製先LUエントリ304の状態を「エラー」に変更する(414)。
【0059】
CPU163は、1つのコピー位置でのデータの書き込みの処理を、グループとして指定された全ての複製先LU(ここではLU192、193)について繰り返すが、状態が「エラー」の複製先については書き込みを行わずに書き込み処理をスキップする(416)。全ての複製先にデータをコピーしたら、CPU163は、コピー位置エントリ303のデータを、一回で書きこむデータの大きさ分インクリメントすることでコピー位置を次のデータの位置に進め(417)、複製元LU全体のコピーが終了するまで繰り返す(418)。
【0060】
最後に、CPU163は、グループの状態エントリ301の内容を「通常」に戻し、管理コンソール100にステータスを返信する(419、420)。
【0061】
複製完了を示すステータスを受信したディスクアレイ管理プログラム102は、ディスクアレイ160に複製元LUのミラーリングの再開を指示する。データベース連携プログラム101が、バックアップモードの解除などデータベースシステムの後処理をデータベース制御プログラム111に指示する。指示を受けたデータウェアハウスシステム121及びバックアッププログラム131は、後処理を開始する。
【0062】
本実施形態においては、通常のシステム運用中は、複製先LUの数にかかわらず、データを少なくとも2つのLUに多重化するだけでよい。したがって、全ての複製先に多重化する従来の方式に比べ、APからのデータ書き込みが高速になる。また、複製を行う場合、複製先LUの追加、及び変更を行う場合、APを実行しているコンピュータからのデータへのアクセスが伴わないため、APの処理速度を低下させることなく複製先LUグループの編成を変更することができる。さらに、複数の異なるLUの複製先LUとして同一のLUを指定できるため、複製先LUとして必要な記憶装置の数を低減することができる。
【0063】
本発明の第二の実施形態について説明する。第一の実施形態では、複製管理表174によって、複製先LUがあらかじめ指定される。しかし、LUは、独立に複製管理表174から削除・登録される。従って、最初に複製先LUとして指定されたLUが削除され、削除されたLUに対応するLUNが別のデータを持つLUに割り当てられた場合、複製を作成することを意図していないLUにデータがコピーされ、格納されていたデータが破壊されてしまう。
【0064】
本実施形態は、誤操作によるデータ破壊を防止する仕組みを第一の実施形態に追加したものである。全体のシステム構成は図1と同様である。以下、第一の実施形態と異なる点のみ説明する。
【0065】
第一の実施形態では、ディスクアレイ管理プログラム102が、ユーザの複製グループ定義命令を複製元ディスクアレイ160に送信した。本実施形態では、複製グループ定義命令の送信前に、ディスクアレイ管理プログラム102が、複製先LUグループ毎にシステム全体で一意に定まる「マーク」を生成する。マークとしては、例えば「グループID + 複製元LUを持つディスクアレイの装置ID」のようなものを用いる。
【0066】
ディスクアレイ管理プログラム102は、生成したマークを複製先LUを持つ各ディスクアレイに送り、複製先LUにマークを付加するよう指示する。マークを指示する命令を受信したディスクアレイは、自己のLU管理表172に、マークを登録する。
【0067】
図7は、本実施形態におけるLU管理表172の内、本実施形態で使用される部分を示す図である。LU番号700には、LUを特定するためのLU番号が登録される。コピー状態エントリ701には、LU番号700で指定されるLUが複製作成処理で使用されているときには複製作成処理で用いられる複製先LUグループに与えられるマークが登録される。それ以外の場合、「無し」が登録される。コピー状態エントリ701の初期値は「無し」である。
【0068】
LUマークエントリ702には、LUが所属する複製先LUグループに付加されたマークが登録される。LUが複数の複製先LUグループで複製先LUとして指定された場合は、LUマークエントリ702も各グループに対応して複数個設定される。また、本図で示される表は、LU番号の数だけ設定される。
【0069】
LUが削除される場合、削除されたLUが属するディスクアレイのLU管理表172のLUのエントリが削除されるため、登録されていたマークも削除される。
【0070】
複製先LUのマークの作成が完了した後、ディスクアレイ管理プログラム102が、複製元ディスクアレイ160に複製グループ定義命令を送信する。その際、ディスクアレイ管理プログラム102が生成したマークも一緒に送信される。複製管理表174には、グループに割り当てられたマークを記録するためのエントリが追加されている。複製元ディスクアレイ160は、図2のステップ205の処理において、複製管理表174の追加されたエントリに、受信したマークを記録する。
【0071】
複製先LUグループに複製先LUを追加する場合、ディスクアレイ管理プログラム102は、第一の実施形態と同様の操作の他に、複製先LUグループに割り当てられたマークを複製元ディスクアレイ160の複製管理表174から取得する処理を行う。ディスクアレイ管理プログラム102は、新しい複製先LUを持つディスクアレイに、該ディスクアレイが有するLU管理表172に複製先LUグループのマークを登録するよう指示する。
【0072】
また、複製先LUグループから複製先LUを削除する場合は、ディスクアレイ管理プログラム102は、該当する複製先LUを持つディスクアレイに対して、LU管理表172からのマークの削除を指示する。複製先LUグループ全体を削除する場合は、該当するグループに含まれる全ての複製先LUに対して同様の操作を行う。
【0073】
複製を作成する処理は、第一実施形態とほぼ同様である。本実施形態においては、複製を行う前に、複製先LUが定義時に意図したLUと同一であるか否かを、LU複製プログラム173がマークを用いて確認する処理が行われる。また、LU複製プログラム173は、複製先LUが複数のコピー処理で同時に使用されていないか確認する。
【0074】
具体的には、本実施形態では、図4のステップ403〜407の処理を、図5のように変更する。
【0075】
LU複製プログラム173は、複製先LUエントリの種別が「リモート」であれば、複製先LUを有するディスクアレイ180に対し、複製先LUグループのマークをパラメータページに持つあらかじめ定義されたModeSelectコマンドを発行する。ModeSelectコマンドを受信したディスクアレイ180は、自己のLU管理表172を参照し、パラメータページが示すマークと同一のマークが記録されているかを確認する。また、ディスクアレイ160は、コピー状態エントリ701が「無し」であるか確認し、「無し」であればマークを記録する。そしてその結果をModeSelectコマンドのステータスとして複製元のディスクアレイ160に返送する(500)。
【0076】
ステータスを受信した複製元ディスクアレイ160は、ステータスがエラーであった場合(501)、マークが存在しない、すなわち意図しないLUが複製先になっている、あるいはLUが他の複製を作成するために使用中であると判断し、複製管理表174内の複製先LUの状態を「エラー」に変更する(406)。
【0077】
これにより、意図しないLUへの複製作成や複数の複製作成処理の重複を防止することができる。複製先LUエントリの種別が「ローカル」であれば、ディスクアレイ160は、ModeSelectコマンドを発行せず、直接自己のLU管理表172を参照してマークの有無を確認する。そして、コピー状態エントリ701が「無し」であればマークを記録する。
【0078】
複製処理の終了後、複製先ディスクアレイのLU管理表172に記録されたコピー状態エントリ701の内容を「無し」に戻す必要がある。本実施形態では、図4のステップ419の処理を、図6のステップ602、601、及び419の処理に変更する。
【0079】
複製先LUエントリの種別が「リモート」である場合、LU複製プログラム173は、複製先LUグループのマークをパラメータページに持つあらかじめ定義されたModeSelectコマンドを、各複製先LUを有するディスクアレイ180に送信する。ModeSelectコマンドを受信したディスクアレイ180は、LU管理表172のコピー状態エントリ701にマークが記録されているか確認し、記録されていればコピー状態エントリの内容を「無し」に戻す。
【0080】
パラメータページで指定された以外のマークが記録されていた場合は、他のコピー処理がLUを使用中であることを示すので、コマンドを受信したディスクアレイ180は何もしない。複製先LUエントリ304の種別が「ローカル」である場合は、ディスクアレイ160は、直接LU管理表172のコピー状態エントリ701にマークが記録されているか確認し、記録されていればコピー状態エントリ701の内容を「無し」に戻す(602)。
【0081】
本実施形態によれば、LUの構成を変更する場合等に、複製先LUグループを定義した時のLUと複製作成時に使用するLUが一致するかどうかを確認し、一致していなかった場合にはそのLUに対する複製データ書き込みを行わないことにより、既存のデータを保護することができる。また、1つのLUが同時に複数の複製を作成する処理で使用されることを防止することができる。
【0082】
第三の実施形態について説明する。第一、第二実施形態では、複製元のディスクアレイのCPU163及び183が、各複製先にデータを複製する処理を行った。しかし、複製先が多い場合にはコピー中におけるCPU163等の負荷が高くなり、APに提供できる性能が低下する。
【0083】
本実施形態では、複製元ディスクアレイの外部へのデータの複製を、コピー処理用の外部モジュールで行うことにより、CPUへの負荷を低減する。以下、第一、第二実施形態と異なる点のみ説明する。
【0084】
図8は、外部モジュール800の構成を示す図である。
【0085】
外部モジュール800は、CPU802、ファイバチャネルインタフェース803、804、LANインタフェース801、及びメモリ805を有する。
ファイバチャネルインタフェース803、804は、図1のファイバチャネルハブ140に接続される。また、LANインタフェース801は、図1のLAN150に接続される。
【0086】
メモリ805には、データコピープログラム806、仮想LU管理表807、及び装置ID808が格納される。データコピープログラム806は、管理コンソール100及びディスクアレイ160等との通信並びにデータコピー処理を行う。仮想LU管理表807は、複製管理表174に相当し、複製先LUなどを管理する。装置ID808は、装置ID175と同様である。
【0087】
外部モジュール800は、複製元のLUを有するディスクアレイから受信した指示及びデータを各複製先LUに中継する機能を持つ。外部モジュール800は、仮想LUと呼ぶ複数のLUを、外部モジュール800に接続されるディスクアレイに提供する。
【0088】
仮想LUは、それ自身のLUNを持ち、ファイバチャネルネットワーク142等で接続された他の装置からは通常のLU、すなわち論理的な記憶装置として認識される。しかし、実際には記憶装置は持たず、仮想LUへのアクセスはすべて複製先LUに中継される。仮想LUは、複製元のLUを有するディスクアレイからは、複製先LUの1つとして認識される。
【0089】
外部モジュール800が使用される場合、ディスクアレイ管理プログラム102は、外部モジュール800に対して、マーク及び複製先LUエントリ304の種別が「リモート」となる複製先LUを指定する複製先グループ定義命令を送信する。定義命令を受信した外部モジュール800のデータコピープログラム806は、図2と同様の処理を行う。ただし、ステップ201、202は省略され、ステップ205では、データコピープログラム806は、図9に示される仮想LU管理表807のエントリを設定する。
【0090】
仮想LU管理表807は、図1の複製管理表174のうち、グループ状態、複製元LU、コピー位置、及び複製先LUエントリ内の種別情報が省略され、グループIDの代わりに仮想LUのLUNが割り当てられたものである。割り当てられる仮想LUのLUNは、他のグループ定義で使用されていないものが用いられる。割り当てられたLUNの情報は、ディスクアレイ管理プログラム102に返送される。この処理により、仮想LUに割り当てられる転送先LUの情報が、仮想LU管理表807に登録されることとなる。
【0091】
次に、ディスクアレイ管理プログラム102は、第一及び第二実施形態と同様に、複製元ディスクアレイ160に複製グループ定義命令を送る。ただし、複製先LUとして、複製元ディスクアレイ内のLU及び先の処理で得られた外部モジュール800の仮想LUが指定される。すなわち、複製管理表174の複製先エントリにおいて、外部モジュール800の仮想LUのみが「リモート」の種別を持つ。
【0092】
複製元ディスクアレイ160は、第一及び第二実施形態と全く同様の処理を行う。外部モジュール800は、図2のステップ203において複製元ディスクアレイ160から装置IDを要求されると、他のディスクアレイと同様に自身の装置IDを返送する。
【0093】
複製先LUの追加・削除命令も第一、第二実施形態と同様に処理される。ただし、ディスクアレイ管理プログラム102から発行される命令は、指定される複製先LUが他のディスクアレイ内のLUであれば、外部モジュール800に送られる。外部モジュール800は、受信した追加・削除命令に応じて、仮想LU管理表807の複製先LUエントリを追加・削除する。
【0094】
ディスクアレイ管理プログラム102から複製先LUへのマーク命令の送信は、第二実施形態と同様に行われる。
【0095】
複製元ディスクアレイ160および複製先ディスクアレイは、第一および第二実施形態と全く同様の処理を行う。
【0096】
外部モジュール800の動作を、図4〜6のフローチャートに沿って説明する。ステップ404で、複製元ディスクアレイ160からReadCapacityコマンドを受信すると、外部モジュール800は、仮想LU管理表807に記録されている全ての複製先LUにReadCapacityコマンドを送信し、もっとも小さい容量を複製元ディスクアレイ160に返信する。また、ステップ500及びステップ602でModeSelectコマンドを受信すると、外部モジュール800は、全ての複製先LUにModeSelectコマンドを転送し、1つでもエラーがある場合はエラーステータスを複製元ディスクアレイ160に返信する。
【0097】
ステップ412で仮想LUに対するWriteコマンドを受信すると、外部モジュール800は、Writeコマンドで指定されたLBAとデータを用いて、全ての複製先LUにWriteコマンドを送信する。送信されたWriteコマンドに対して、エラーステータスが1つでも返された場合は、複製元ディスクアレイ160にエラーステータスを返す。
【0098】
本実施形態に拠れば、複製元ディスクアレイ160の外部にあるLUへのデータコピーを外部モジュール800が行うため、複製元ディスクアレイ160のCPUの負荷が軽減される。
【0099】
なお、本発明はデータベースシステムに限定されるものではなく、その他の連続運転システム、例えば工場監視システム等にも適用することができる。又、必ずしも無停止のシステムでなくても良い。
【0100】
【発明の効果】
本発明によれば、通常の運用において、記憶装置システムが書き込みをミラーリングするのは2つの記憶装置で十分なので、複製する記憶装置の数が増えた場合にも記憶装置システムの通常の運用時の負荷は変わらず、APの処理速度低下を防ぐことができる。
【0101】
また、複製先の追加や変更には、APを実行しているコンピュータからのアクセスが伴わないため、アプリケーションプログラムの処理速度を低下させることなく複製先を追加・変更することができる。複数の異なるデータの複製先として同一の複製先LUを指定できるため、複製先LUとして必要な記憶装置の数を低減することができる。また、複製先定義時に意図したLUと複製作成時に使用するLUが一致するかどうかを確認することにより、意図しないLUへの複製作成と既存のデータ破壊を防ぐことができる。
【0102】
また、1つのLUが同時に複数の複製作成処理で使用されることを防止できる。さらに、外部モジュールが、複製元ディスクアレイの外部にあるLUへのデータコピーを行うことにより、複製元ディスクアレイのCPU負荷を軽減することができる。
【0103】
また、複製先LUの内容を、通常の運用時に複製元LUの内容に一致させる必要がないため、その位置や数を変更した場合にもデータのコピー処理は不要である。
【図面の簡単な説明】
【図1】本発明の第一実施形態の構成を示す図である。
【図2】本発明の第一実施形態における複製管理表174のエントリ構成を示す図である。
【図3】本発明の第一実施形態における複製グループ定義処理のフローチャートである。
【図4】本発明の第一実施形態における複製作成処理のフローチャートである。
【図5】本発明の第二実施形態における複製先確認処理のフローチャートである。
【図6】本発明の第二実施形態におけるコピー状態リセット処理のフローチャートである。
【図7】本発明の第二実施形態におけるLU管理表172のエントリ構成を示す図である。
【図8】本発明の第三実施形態における外部コピーモジュールの構成を示す図である。
【図9】本発明の第三実施形態における外部コピーモジュールの複製管理表エントリ構成を示す図である。
【符号の説明】
100…管理コンソール、102…ディスクアレイ管理プログラム、110…データベースサーバ、120…データウェアハウスサーバ、130…バックアップサーバ、160…ディスクアレイ、171…LUミラープログラム、172…LU管理表、173…LU複製プログラム、174…複製管理表、175…装置ID。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer system for data replication and a data replication method.
[0002]
[Prior art]
When a plurality of different processes are performed on the data that the computer system has, the data to be processed is copied to the plurality of storage devices that the storage device system has, and the same content data in each storage device Different processing may be performed. Further, when one process is performed in parallel by a plurality of computers, data to be processed is copied to a plurality of storage devices so that a plurality of access destinations are provided. In this way, it has been put to practical use to distribute the load of access to data in a computer system and to increase the processing speed of the system.
[0003]
In a system that processes continuously for 24 hours, it is necessary to replicate data without interrupting execution of an application program (AP) used in the system. In such a case, conventionally, a technique of multiplexing data in advance (mirroring) by writing the same data to a plurality of storage devices during normal system operation has been used. In this specification, the storage device includes both a physical storage device and a logical storage device (Logical Unit: LU).
[0004]
When each of the plurality of storage devices storing the mirrored data is used for separate processing, the individual storage devices can be used independently by stopping the mirroring. When independent processing for each storage device is completed, data in one storage device is copied to the other storage device so that the contents of each storage device match (hereinafter referred to as “synchronization”).
[0005]
Conventionally, such data multiplexing has been realized by software on a server, which is a computer on which an AP is executed, and by a data multiplexing function provided in a storage system connected to the server.
[0006]
[Problems to be solved by the invention]
In the conventional data multiplexing method, when the number of storage devices to be mirrored is large, a load is applied to a server for multiplexing data or a storage device system having a storage device. Therefore, much of the processing capacity of the computer system is used for the mirroring process, and the processing speed of the AP executed in the computer system decreases.
[0007]
In addition, since it is necessary to always synchronize the contents of one storage device with the other storage device, when a new storage device is added or when the logical location of a replicated storage device is changed The target data needs to be copied to the newly added storage device or the storage device whose location has been changed.
[0008]
Further, when the number of storage devices to be mirrored increases, the management of the replication area becomes complicated. In this case, data may be mistakenly copied to a storage device that should not be duplicated, which may cause data corruption.
[0009]
A first object of the present invention is to provide a computer system that prevents a decrease in the processing speed of an AP executed in a computer system at the time of duplication even when a large number of data duplications are created.
[0010]
A second object of the present invention is to provide a computer system capable of adding a copy destination storage device and changing a logical position of the storage device without a new data copy process. .
[0011]
A third object of the present invention is to provide a computer system that prevents data corruption by creating a copy of data in an incorrect storage device.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, data transferred from an AP to a storage device system is mirrored and written to two storage devices in the storage device system. When creating a copy, the storage system interrupts mirroring in response to an instruction from the computer system, stops access to one storage device, and uses the contents of the storage block for which access has been stopped as the copy destination. Copy to storage block. When the copying is completed, the storage system is configured to resume mirroring of the suspended data writing and make the contents of the two storage devices coincide.
[0013]
Also, when defining the copy destination storage device, a mark indicating that the storage device is the copy destination is recorded in the information defining the copy destination storage device, and the copy source before actually starting the data copy A configuration in which the storage device system confirms the mark included in the definition information and performs replication is also conceivable.
[0014]
Further, when creating a copy in a plurality of storage device systems, a configuration using a copy module having a function of writing data to a plurality of predefined copy destinations may be used. When creating a copy in a storage device of a different storage device system, the copy source storage device system may transfer data to a copy module, and the copy module may copy the data to a plurality of storage devices.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a first embodiment of a computer system to which the present invention is applied.
[0016]
The computer system includes a database server 110, a management console 100, a data warehouse server 120, a backup server 130, an FC hub 140, a disk array 160, and a disk array 180. Note that the management console 100 is not an independent computer, and the database server 110 or the like may play the role.
[0017]
The database server 110, the data warehouse server 120, and the backup server 130 have FC interfaces 114, 122, and 132, respectively, and the disk array 160 and the disk array 180 via the FC cables 141 to 145 and the FC hub 140, respectively. Connected.
[0018]
The management console 100, database server 110, disk array 160, and disk array 180 each have Local Area Network (hereinafter referred to as “LAN”) interfaces 103, 113, 164, and 182, and are connected to each other via the LAN 150. The The LAN 150 is used to transmit control information necessary for the system to operate.
[0019]
The management console 100 stores a disk array management program 102 and a database linkage program 101.
[0020]
The disk array management program 102 is a program that controls the operation of the disk arrays 160 and 180. The disk array management program 102 transmits / receives control information to / from the disk array 160 and the like via the LAN 150 based on a user instruction input from an interface such as an operation panel of the management console 100. Get information and give instructions for action. The disk array management program 102 has a function of starting the database cooperation program 101.
[0021]
The database cooperation program 101 transmits an instruction for starting execution of the program to the database control program 111 in the database server 110 via the LAN 150.
[0022]
The database server 110 stores a database control program 111 and a database system 112.
The database control program 111 controls the operation of the database system 112 based on an instruction from the database cooperation program 101. The contents of the control are necessary for data replication such as writing data in the buffer of the database server 110 to the disk array 160 (hereinafter referred to as “flushing”), putting the database in backup mode, etc. Includes database database specific operations.
[0023]
The database system 112 controls access to data stored in the LU 190 that is a logical storage device in the disk array 160. The database system 112 operates without interruption for 24 hours.
[0024]
A data warehouse system 121 is stored in the data warehouse server 122. The data warehouse system 121 controls access to data stored in the LU assigned to the system. In the present embodiment, access to data held in the LU 192 in the disk array 160 is controlled.
[0025]
A backup program 131 is stored in the backup server 130. The backup program 131 controls access to data held in the backup LU. In the present embodiment, the LU 193 in the disk array 180 is a backup LU.
[0026]
The disk array 160 includes an arithmetic processing unit (CPU) 163, a memory 170, a disk controller 165, disks 166 to 168, an FC interface 161, and a LAN interface 164. The disk array 160 has LU 190 to 193. The LU may actually be composed of storage areas distributed in the disks 166 to 168. In the present embodiment, it is assumed that one LU is assigned to one disk.
[0027]
The CPU 163 controls the LAN interface 164, the FC interface 161, and the disk controller 165. CPU 163 executes a program stored in memory 170. The disk controller 165 controls the operation of the disk 166 and the like, in particular, the reading and writing of data to and from the disk 166 and the like.
[0028]
The memory 170 stores an LU mirror program 171, an LU management table 172, an LU duplication program 173, a duplication management table 174, and a device ID 175. The LU mirror program 171 is a program for executing LU mirroring. Specifically, based on the contents recorded in the LU management table 172, a process for mirroring data written to the LU to a different LU, a process for stopping mirroring based on an instruction from the user, This is a program for the disk controller 165 to execute processing for matching the contents of LUs.
[0029]
The LU management table 172 includes information necessary for LU management of the disk array, such as the LU number given to the LU existing in the entire system, the LU storage capacity, the LU information as the mirror destination, and the disk array status during the duplex operation. Is recorded.
[0030]
The LU duplication program 173 duplicates the contents of the LU that is the duplication source (the duplication source LU) to the LU that is the duplication destination (the duplication destination LU) based on the instruction from the user and the contents recorded in the duplication management table 174. This is a program for causing the disk controller 165 to execute processing. The replication management table 174 records LU replication status in the disk array 160. The device ID 175 stores information on an ID uniquely assigned to each disk array.
[0031]
The disk array 180 includes a CPU 183, a memory 184, a disk controller 185, a disk 186, an FC interface 181, and a LAN interface 182. The disk array 180 has an LU 193. Since the program stored in the memory 184 of the disk array 180 is the same as that of the disk array 160, description thereof is omitted.
[0032]
In the present embodiment, an example will be described in which data recorded in the LU 190 accessed by the database system 112 is replicated to the LU 192 and the LU 193 of the disk array 180.
It is assumed that the data recorded in the LU 190 is mirrored in the LU 191 by the LU mirror program 171.
[0033]
Before performing data replication, the replication management table 174 recorded in the memory 170 of the disk array 160 having the replication source LU 190 stores the LU group to be the replication destination (replication destination LU group: in this case, LU 192 and LU 193). Is set.
[0034]
FIG. 2 is a diagram showing setting entries in the replication management table 174. The group ID entry 300 stores information on IDs uniquely specified for LUs included in the copy destination LU group (in this case, LU 192 and LU 193). When processing such as setting of a replication destination LU group and creation of replication is performed, identification of a replication destination LU group to be processed is all performed by a group ID.
[0035]
The group status entry 301 indicates “copying” indicating that the replication processing is being executed for the replication destination LU group to be processed, or indicates that the replication processing is not being performed. Either “normal” information is retained. The replication source LU entry 302 holds information on the replication source LU (here, LU 190). In the copy position entry 303, information indicating which position in the copy source LU is being copied at a certain point during the creation of a copy is held in, for example, an LBA (Logical Block Address) format.
[0036]
The replication destination LU entry 304 records information such as type, FC interface (FC I / F), LU number (LUN), and status. The type is information indicating whether the replication destination LU is in the same disk array as the replication source LU. Here, “local” indicates the case in the same disk array (in this embodiment, LU 192), otherwise “remote” is indicated (in this embodiment, LU 193).
[0037]
FC I / F represents the World Wide Name assigned to the FC interface of the replication source and replication destination disk arrays that serve as access paths to the replication destination LU when the replication destination LU type is “remote”. The LUN indicates an LU number that is a number uniquely specified for the replication destination LU. The status is information indicating whether the LU is accessible. If it is accessible, “normal” information, otherwise “error” information is stored in the entry holding the state. A plurality of replication destination LU entries 304 can be set.
[0038]
When setting the replication destination LU, the user sends an instruction to the disk array (in this case, the disk arrays 160 and 180) to be replicated via the disk array management program 102 and registers it in the LU management table 172 of the disk array. The obtained LU list and device ID are acquired.
[0039]
The user selects an LU as a replication destination from the acquired LU list (here, LU 192 and LU 193). The user sends the information of all the replication destination LUs composed of the LUN and device ID pair together with the group ID and LUN information of the replication source LU as a replication group definition command to the replication source disk array (here, the disk array 160). . The disk array management program 102 generates a group ID that is specified by the user or easily identified by the user.
[0040]
FIG. 3 is a flowchart showing the operation of the disk array 160 that has received the replication group definition command. The following operations are executed by the CPU 163 according to the LU duplication program 173.
[0041]
The CPU 163 of the disk array 160 that has received the command checks whether the specified group ID overlaps with an existing group ID in the replication management table 174 (201). The CPU 163 checks whether the LUN designated as the replication source LU exists in the disk array 160 (202). If the group IDs overlap or the designated LU does not exist, the CPU 163 returns a status to the management console 100 as a definition error, and ends the processing.
[0042]
When there is no definition error, the CPU 163 acquires the device ID of the device to which the LU belongs for all the LUs accessible from the FC interface 161 or the like included in the disk array 160. In order to acquire the device ID, the CPU 163 issues a ModeSense SCSI command for acquiring the device ID to each LU via the FC interface 161. The LU replication program 173 such as the disk array 180 that has received the ModeSense command returns a device ID in a predefined parameter page (203, 204).
[0043]
The CPU 163 that has acquired the device ID creates an entry for a new replication destination LU group in the replication management table 174. Initially, the group status entry is set to “normal” (205). The CPU 163 registers the designated replication destination LU in a new entry in the replication management table 174. The CPU 163 determines, for each replication destination LU, whether the type of the replication destination LU is “local” or “remote” by comparing whether the LU device ID is the same as the replication source device ID, and the replication management table 174. Register for.
[0044]
If it is remote, the CPU 163 registers the FC interface information in the replication management table 174 based on the FC interface information obtained in steps 203 and 204 and the connected device ID information. If there is no corresponding interface, the CPU 163 determines that the LU is inaccessible and returns an error status to the management console 100. The initial state of the replication destination LU is set to “normal” (206 to 209). When registration of all the replication destination LUs is completed, the CPU 163 returns the status to the management console 100 and ends the definition process (210, 211).
[0045]
When an LU is added to the replication destination LU group, after receiving an instruction to add an LU from the disk array management program 102, the disk array 160 omits steps 201, 202, and 205 in FIG. Is done. When deleting the replication destination LU or the entire replication destination LU group, after receiving an instruction to delete the LU from the disk array management program 102, the CPU 163 confirms that the group status entry is “normal”. The corresponding entry is deleted from the replication management table 174.
[0046]
If the group status entry 301 is “copying”, the data is being copied in the replication destination LU group, so that deletion is not executed and an error status is returned. Since there is no dependency relationship between the replication destination LUs, any replication destination LU can be deleted from the replication destination LU group.
[0047]
In the process of setting the replication destination LU shown in FIG. 3, the database system 112 is not involved in the process of setting the replication destination LU. Therefore, even when a replication destination LU is set, it is possible to suppress a decrease in AP processing speed executed in the database system 112.
[0048]
Further, since the same replication destination LU can be specified by a plurality of replication destination LU groups, the number of necessary LUs can be reduced. For example, when creating two LU-A replicas and two LU-B replicas, the conventional method requires four replication destination LUs, but the time zone for creating and using each replica overlaps. If not, the same two LUs can be used as replication destinations by changing the settings of the replication management table 174.
[0049]
Furthermore, a plurality of replication destination LU groups having the same replication source LU and different replication destination LUs can be defined in advance, and the location of the replication destination LU can be selected when creating a replication.
[0050]
When a replication is actually created after the replication destination LU group is specified, the database cooperation program 101 sends an instruction to the database control program 111 via the LAN. The database control program 111 performs pre-processing of the database system 112 such as buffer flush and transition to the backup mode.
[0051]
Thereafter, the user instructs the disk array 160 to stop mirroring writing of the replication source LU via the disk array management program 102.
The disk array management program 102 that has transmitted the mirroring stop instruction to the disk array 160 sends a replication command including the ID of the replication destination LU group for creating the replication to the disk array 160 having the replication source LU 190.
[0052]
FIG. 4 is a flowchart showing the operation of the disk array 160 that has received the replication command. This operation is controlled by the CPU 163 based on the LU duplication program 173.
[0053]
The CPU 163 that has received the replication command refers to the replication management table 174 and checks whether the status of the replication group specified by the group ID included in the replication command is “copying” (401). If the status is “copying” or the designated group ID does not exist, the CPU 163 returns an error status to the management console 100 and ends the replication process.
[0054]
If not in the error state, the CPU 163 changes the contents of the group status entry in the replication management table 174 to “copying” (402). The CPU 163 confirms that the duplication source LU is not being duplexed with reference to the LU management table 172 (403). The CPU 163 acquires the capacity of the replication source LU when referring to the LU management table 172. The CPU 163 confirms that the capacity of the replication destination LU is greater than or equal to the replication source LU. The capacity of the replication destination LU is confirmed by referring to the LU management table 172 for the replication destination LU of the type “local”. For the “remote” replication destination LU, the LU capacity is acquired by issuing a ReadCapacity command to the LU via the FC interface 161 or the like (404).
[0055]
If the capacity of the replication destination LU is smaller than the replication source, the CPU 163 changes the content of the replication destination LU entry in the replication management table 174 to “error” (406). When the status of all the replication destination LU entries becomes “error”, the CPU 163 returns the content of the group status entry to “normal”, returns an error status to the management console 100, and ends the processing (408, 419). 420).
[0056]
With the above processing, the CPU 163 confirms that the duplication processing can be executed. In addition, if an instruction for performing only the processes (401 to 408) so far is defined, a preview function for confirming that the replication destination LU group is correctly defined can be realized.
[0057]
The CPU 163 starts data replication. The CPU 163 sets the data in the copy location entry 303 of the replication management table 174 at the head address of the replication source LU 190 (409). The CPU 163 controls the disk controller 165 to copy data in order from the beginning of the LU 190. Specifically, the disk controller 165 reads data of a predetermined size from the position specified as the copy position 303 in the replication management table 174 and writes it to the replication destination LU specified by the group ID (410). .
[0058]
When the state of the replication destination LU entry 304 is “local”, the CPU 163 instructs the disk controller 165 to write. When the state of the replication destination LU entry 304 is “remote”, the CPU 163 issues a SCSI Write command from the fiber channel interface 161 or the like (412). If the writing fails, the CPU 163 changes the status of the replication destination LU entry 304 that has failed to “error” (414).
[0059]
The CPU 163 repeats the data writing process at one copy position for all the replication destination LUs (in this case, LU 192 and 193) designated as a group, but performs the writing for the replication destination whose state is “error”. The writing process is skipped (416). After copying the data to all the copy destinations, the CPU 163 advances the copy position to the position of the next data by incrementing the data of the copy position entry 303 by the size of the data to be written at one time (417). The process is repeated until the entire original LU is copied (418).
[0060]
Finally, the CPU 163 returns the contents of the group status entry 301 to “normal” and returns the status to the management console 100 (419, 420).
[0061]
The disk array management program 102 that has received the status indicating the completion of replication instructs the disk array 160 to resume mirroring of the replication source LU. The database cooperation program 101 instructs the database control program 111 to perform post-processing of the database system such as release of the backup mode. Upon receiving the instruction, the data warehouse system 121 and the backup program 131 start post-processing.
[0062]
In this embodiment, during normal system operation, data need only be multiplexed into at least two LUs regardless of the number of replication destination LUs. Therefore, the data writing from the AP becomes faster than the conventional method of multiplexing to all the replication destinations. In addition, when duplicating, when adding or changing a replication destination LU, since there is no access to data from the computer executing the AP, the replication destination LU group does not decrease the processing speed of the AP. The organization of can be changed. Furthermore, since the same LU can be designated as the duplication destination LU of a plurality of different LUs, the number of storage devices required as the duplication destination LU can be reduced.
[0063]
A second embodiment of the present invention will be described. In the first embodiment, the replication destination LU is designated in advance by the replication management table 174. However, the LU is deleted and registered from the replication management table 174 independently. Therefore, when the LU specified as the replication destination LU is deleted first, and the LUN corresponding to the deleted LU is assigned to an LU having different data, data is not stored in the LU that is not intended to create a replica. Will be copied and the stored data will be destroyed.
[0064]
In this embodiment, a mechanism for preventing data destruction due to an erroneous operation is added to the first embodiment. The overall system configuration is the same as in FIG. Only differences from the first embodiment will be described below.
[0065]
In the first embodiment, the disk array management program 102 transmits the user's replication group definition command to the replication source disk array 160. In this embodiment, before sending a replication group definition command, the disk array management program 102 generates a “mark” that is uniquely determined for the entire system for each replication destination LU group. For example, a mark such as “group ID + device ID of a disk array having a replication source LU” is used.
[0066]
The disk array management program 102 sends the generated mark to each disk array having a copy destination LU, and instructs to add a mark to the copy destination LU. The disk array that has received the instruction to instruct the mark registers the mark in its own LU management table 172.
[0067]
FIG. 7 is a diagram showing a part used in the present embodiment in the LU management table 172 in the present embodiment. In the LU number 700, an LU number for specifying an LU is registered. In the copy status entry 701, when the LU specified by the LU number 700 is used in the replication creation process, a mark given to the replication destination LU group used in the replication creation process is registered. Otherwise, “None” is registered. The initial value of the copy status entry 701 is “none”.
[0068]
In the LU mark entry 702, a mark added to the duplication destination LU group to which the LU belongs is registered. When an LU is designated as a duplication destination LU by a plurality of duplication destination LU groups, a plurality of LU mark entries 702 are also set corresponding to each group. Further, the number of LU numbers in the table shown in this figure is set.
[0069]
When an LU is deleted, the registered mark is also deleted because the LU entry in the LU management table 172 of the disk array to which the deleted LU belongs is deleted.
[0070]
After the creation of the mark of the replication destination LU is completed, the disk array management program 102 transmits a replication group definition command to the replication source disk array 160. At this time, the mark generated by the disk array management program 102 is also transmitted. An entry for recording a mark assigned to the group is added to the replication management table 174. The replication source disk array 160 records the received mark in the added entry of the replication management table 174 in the process of step 205 in FIG.
[0071]
When adding a replication destination LU to a replication destination LU group, the disk array management program 102 copies the mark assigned to the replication destination LU group to the replication of the replication source disk array 160 in addition to the same operation as in the first embodiment. The processing acquired from the management table 174 is performed. The disk array management program 102 instructs the disk array having the new replication destination LU to register the replication destination LU group mark in the LU management table 172 of the disk array.
[0072]
When deleting the replication destination LU from the replication destination LU group, the disk array management program 102 instructs the disk array having the corresponding replication destination LU to delete the mark from the LU management table 172. When deleting the entire replication destination LU group, the same operation is performed on all replication destination LUs included in the corresponding group.
[0073]
The process of creating a replica is almost the same as in the first embodiment. In this embodiment, before duplication, a process is performed in which the LU duplication program 173 uses a mark to check whether the duplication destination LU is the same as the LU intended at the time of definition. Further, the LU duplication program 173 confirms whether the duplication destination LU is used simultaneously in a plurality of copy processes.
[0074]
Specifically, in this embodiment, the processing of steps 403 to 407 in FIG. 4 is changed as shown in FIG.
[0075]
If the type of the replication destination LU entry is “remote”, the LU replication program 173 issues a predefined ModeSelect command having a replication destination LU group mark in the parameter page to the disk array 180 having the replication destination LU. To do. The disk array 180 that has received the ModeSelect command refers to its own LU management table 172 and confirms whether the same mark as the mark indicated by the parameter page is recorded. Further, the disk array 160 confirms whether the copy status entry 701 is “none”, and if it is “none”, records a mark. The result is returned to the copy source disk array 160 as the status of the ModeSelect command (500).
[0076]
When the status is error (501), the copy source disk array 160 that received the status has no mark, that is, an unintended LU is the copy destination, or the LU creates another copy. It is determined that it is in use, and the status of the replication destination LU in the replication management table 174 is changed to “error” (406).
[0077]
Thereby, it is possible to prevent duplication of unintended LU creation and duplication of a plurality of duplication creation processes. If the type of the replication destination LU entry is “local”, the disk array 160 does not issue a ModeSelect command and directly refers to its own LU management table 172 to confirm the presence or absence of a mark. If the copy status entry 701 is “none”, a mark is recorded.
[0078]
After the replication process is completed, it is necessary to return the content of the copy status entry 701 recorded in the LU management table 172 of the replication destination disk array to “None”. In the present embodiment, the process of step 419 in FIG. 4 is changed to the processes of steps 602, 601 and 419 in FIG.
[0079]
When the type of the replication destination LU entry is “remote”, the LU replication program 173 sends a predefined ModeSelect command having the replication destination LU group mark in the parameter page to the disk array 180 having each replication destination LU. To do. The disk array 180 that has received the ModeSelect command checks whether a mark is recorded in the copy status entry 701 of the LU management table 172, and if it is recorded, returns the content of the copy status entry to “none”.
[0080]
If a mark other than that specified in the parameter page is recorded, it indicates that another copy process is using the LU, and the disk array 180 that has received the command does nothing. When the type of the replication destination LU entry 304 is “local”, the disk array 160 directly checks whether a mark is recorded in the copy status entry 701 of the LU management table 172, and if it is recorded, the copy status entry 701 is recorded. Is returned to “none” (602).
[0081]
According to this embodiment, when changing the LU configuration, etc., it is checked whether the LU used when defining the replication destination LU group matches the LU used when creating the replica. Can protect existing data by not writing duplicate data to the LU. Further, it is possible to prevent one LU from being used in a process for creating a plurality of replicas simultaneously.
[0082]
A third embodiment will be described. In the first and second embodiments, the CPUs 163 and 183 of the replication source disk array performed a process of replicating data to each replication destination. However, when there are many copy destinations, the load on the CPU 163 and the like during copying increases, and the performance that can be provided to the AP decreases.
[0083]
In this embodiment, the load on the CPU is reduced by copying data to the outside of the copy source disk array by an external module for copy processing. Only differences from the first and second embodiments will be described below.
[0084]
FIG. 8 is a diagram showing the configuration of the external module 800.
[0085]
The external module 800 includes a CPU 802, fiber channel interfaces 803 and 804, a LAN interface 801, and a memory 805.
The fiber channel interfaces 803 and 804 are connected to the fiber channel hub 140 of FIG. The LAN interface 801 is connected to the LAN 150 in FIG.
[0086]
The memory 805 stores a data copy program 806, a virtual LU management table 807, and a device ID 808. The data copy program 806 communicates with the management console 100 and the disk array 160 and performs data copy processing. The virtual LU management table 807 corresponds to the replication management table 174 and manages the replication destination LU and the like. The device ID 808 is the same as the device ID 175.
[0087]
The external module 800 has a function of relaying instructions and data received from a disk array having a replication source LU to each replication destination LU. The external module 800 provides a plurality of LUs called virtual LUs to a disk array connected to the external module 800.
[0088]
The virtual LU has its own LUN, and is recognized as a normal LU, that is, a logical storage device by other devices connected by the fiber channel network 142 or the like. However, it actually has no storage device, and all accesses to the virtual LU are relayed to the replication destination LU. The virtual LU is recognized as one of the replication destination LUs from the disk array having the replication source LU.
[0089]
When the external module 800 is used, the disk array management program 102 issues a replication destination group definition command for designating a replication destination LU whose mark and replication destination LU entry 304 type is “remote” to the external module 800. Send. The data copy program 806 of the external module 800 that has received the definition command performs the same processing as in FIG. However, steps 201 and 202 are omitted, and in step 205, the data copy program 806 sets an entry in the virtual LU management table 807 shown in FIG.
[0090]
In the virtual LU management table 807, the group status, the replication source LU, the copy position, and the type information in the replication destination LU entry are omitted from the replication management table 174 of FIG. 1, and the LUN of the virtual LU is replaced with the group ID. Assigned. As the LUN of the allocated virtual LU, one that is not used in other group definitions is used. The assigned LUN information is returned to the disk array management program 102. With this processing, information on the transfer destination LU assigned to the virtual LU is registered in the virtual LU management table 807.
[0091]
Next, the disk array management program 102 sends a replication group definition command to the replication source disk array 160 as in the first and second embodiments. However, the LU in the replication source disk array and the virtual LU of the external module 800 obtained by the previous processing are designated as the replication destination LU. That is, in the replication destination entry of the replication management table 174, only the virtual LU of the external module 800 has the type “remote”.
[0092]
The replication source disk array 160 performs exactly the same processing as in the first and second embodiments. When the external module 800 requests a device ID from the copy source disk array 160 in step 203 of FIG. 2, the external module 800 returns its own device ID in the same manner as other disk arrays.
[0093]
The replication destination LU addition / deletion command is also processed in the same manner as in the first and second embodiments. However, an instruction issued from the disk array management program 102 is sent to the external module 800 if the designated replication destination LU is an LU in another disk array. The external module 800 adds / deletes the replication destination LU entry in the virtual LU management table 807 in response to the received add / delete command.
[0094]
Transmission of a mark command from the disk array management program 102 to the replication destination LU is performed in the same manner as in the second embodiment.
[0095]
The replication source disk array 160 and the replication destination disk array perform the same processing as in the first and second embodiments.
[0096]
The operation of the external module 800 will be described with reference to the flowcharts of FIGS. In step 404, when the ReadCapacity command is received from the replication source disk array 160, the external module 800 transmits the ReadCapacity command to all replication destination LUs recorded in the virtual LU management table 807, and allocates the smallest capacity to the replication source disk. Reply to array 160. When receiving the ModeSelect command in Step 500 and Step 602, the external module 800 transfers the ModeSelect command to all the replication destination LUs, and returns an error status to the replication source disk array 160 if there is any error. .
[0097]
When receiving the Write command for the virtual LU in Step 412, the external module 800 transmits the Write command to all the replication destination LUs using the LBA and data specified by the Write command. If even one error status is returned for the transmitted Write command, the error status is returned to the copy source disk array 160.
[0098]
According to this embodiment, since the external module 800 performs data copying to an LU outside the replication source disk array 160, the load on the CPU of the replication source disk array 160 is reduced.
[0099]
The present invention is not limited to the database system, but can be applied to other continuous operation systems such as a factory monitoring system. Further, the system is not necessarily a non-stop system.
[0100]
【The invention's effect】
According to the present invention, two storage devices are sufficient for the storage system to mirror the write in normal operation, so even when the number of storage devices to be replicated increases, The load does not change, and a decrease in AP processing speed can be prevented.
[0101]
In addition, since the addition or change of the copy destination does not involve access from the computer executing the AP, the copy destination can be added or changed without reducing the processing speed of the application program. Since the same replication destination LU can be designated as a plurality of different data replication destinations, the number of storage devices required as the replication destination LU can be reduced. Also, by confirming whether the LU intended when defining the replication destination matches the LU used when creating the replication, it is possible to prevent the creation of a replication to an unintended LU and the destruction of existing data.
[0102]
Further, it is possible to prevent one LU from being used simultaneously in a plurality of replica creation processes. Furthermore, the CPU load on the replication source disk array can be reduced by copying the data to the LU outside the replication source disk array by the external module.
[0103]
Further, since there is no need to match the contents of the replication destination LU with the contents of the replication source LU during normal operation, data copy processing is not required even when the position or number of the LU is changed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a first embodiment of the present invention.
FIG. 2 is a diagram showing an entry configuration of a replication management table 174 in the first embodiment of the present invention.
FIG. 3 is a flowchart of replication group definition processing in the first embodiment of the present invention.
FIG. 4 is a flowchart of copy creation processing in the first embodiment of the present invention.
FIG. 5 is a flowchart of a copy destination confirmation process in the second embodiment of the present invention.
FIG. 6 is a flowchart of a copy status reset process in the second embodiment of the present invention.
FIG. 7 is a diagram showing an entry configuration of an LU management table 172 according to the second embodiment of this invention.
FIG. 8 is a diagram showing a configuration of an external copy module according to a third embodiment of the present invention.
FIG. 9 is a diagram showing a replication management table entry configuration of an external copy module in the third embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Management console, 102 ... Disk array management program, 110 ... Database server, 120 ... Data warehouse server, 130 ... Backup server, 160 ... Disk array, 171 ... LU mirror program, 172 ... LU management table, 173 ... LU replication Program, 174 ... replication management table, 175 ... device ID.

Claims (3)

複数の記憶装置を有する記憶装置システムと、
前記記憶装置システムと接続された第一の計算機と、前記記憶装置システムに接続された第二の計算機と、前記記憶装置システムに接続された第二の記憶装置システムとを有する情報処理システムであって、
前記記憶装置システムは、
前記第一の計算機から入力されるデータを前記複数の記憶装置のうちの第一の記憶装置及び第二の記憶装置に記憶する二重化記憶手段と、
前記第二の計算機から入力される信号に応答して、前記二重化記憶手段を停止する手段と、前記第一の記憶装置に記憶されたデータを該記憶記憶装置システムが有する第三の記憶装置に複製する複製手段とを有し、
前記第二の計算機は、
前記記憶装置システムに対して、前記第三の記憶装置を指定する指定手段を有し、
前記記憶装置システムは、
前記指定手段によって指定された前記第三の記憶装置に関する情報を保持する情報保持手段を有し、
前記複製手段は、
前記情報保持手段に保持された前記情報に基づいて、前記第三の記憶装置に前記第一の記憶装置に記憶されたデータを複製し、
前記第二の記憶装置システムは複数の記憶装置を有し、
前記指定手段は、前記第二の記憶装置システムが有する第の記憶装置を指定し、
前記複製手段は、前記指定手段で指定される前記第の記憶装置に前記第一の記憶装置からデータを複製することを特徴とする情報処理システム。
A storage device system having a plurality of storage devices;
An information processing system comprising: a first computer connected to the storage device system; a second computer connected to the storage device system; and a second storage device system connected to the storage device system. And
The storage device system includes:
Duplex storage means for storing data input from the first computer in a first storage device and a second storage device of the plurality of storage devices;
In response to a signal input from the second computer, means for stopping the duplex storage means, and data stored in the first storage device are stored in a third storage device of the storage storage system. A duplicating means for duplicating,
The second calculator is
Designating means for designating the third storage device for the storage device system;
The storage device system includes:
Comprising information holding means for holding information relating to the third storage device designated by the designation means;
The duplicating means includes
Based on the information held in the information holding means, the data stored in the first storage device is copied to the third storage device,
The second storage device system has a plurality of storage devices,
The designation means designates a fourth storage device included in the second storage device system,
The information processing system, wherein the replicating unit replicates data from the first storage device to the fourth storage device specified by the specifying unit.
前記記憶装置システム及び前記第二の記憶装置システムとに接続され、
前記指定手段によって指定される前記第の記憶装置に関する情報を保持する保持手段と、
前記記憶装置システムから転送された情報を前記保持手段に保持された情報に基づいて前記第二の記憶装置システムに転送する転送手段と、
を有する外部モジュールを有することを特徴とする請求項記載の情報処理システム。
Connected to the storage device system and the second storage device system;
Holding means for holding information about the fourth storage device specified by the specifying means;
Transfer means for transferring the information transferred from the storage device system to the second storage device system based on the information held in the holding means;
The information processing system according to claim 1, characterized in that it has an external module having.
複数の記憶装置を有する記憶装置システムと、
前記記憶装置システムと接続された第一の計算機、及び前記記憶装置システムに接続された第二の計算機を有する情報処理システムであって、
前記第二の計算機は、
前記記憶装置システムに対して、第三及び第四の記憶装置を指定する指定手段と、
前記第三及び第四の記憶装置に共通する第一の符号を生成する生成手段とを有し、
前記記憶装置システムは、
第二の符号を格納する格納手段と、
前記第一の計算機から入力されるデータを前記複数の記憶装置のうちの第一の記憶装置及び第二の記憶装置に記憶する二重化記憶手段と、
前記第二の計算機から入力される信号に応答して、前記二重化記憶手段を停止する手段と、
前記指定手段によって指定された前記第三及び第四の記憶装置に関する情報及び前記第一の符号の情報を保持する情報保持手段と、
前記第一の記憶装置に記憶されたデータを、前記格納手段に格納された第二の符号及び前記情報保持手段に格納された前記第一の符号が同一である場合のみ、前記第三及び第四の記憶装置に複製する複製手段とを有することを特徴とする情報処理システム。
A storage device system having a plurality of storage devices;
An information processing system having a first computer connected to the storage device system and a second computer connected to the storage device system,
The second calculator is
Designating means for designating third and fourth storage devices for the storage device system;
Generating means for generating a first code common to the third and fourth storage devices,
The storage device system includes:
Storage means for storing a second code;
Duplex storage means for storing data input from the first computer in a first storage device and a second storage device of the plurality of storage devices;
Means for stopping the duplex storage means in response to a signal input from the second computer;
Information holding means for holding information on the third and fourth storage devices specified by the specifying means and information on the first code;
Only when the second code stored in the storage means and the first code stored in the information holding means are the same for the data stored in the first storage device, the third and second An information processing system comprising: replicating means for copying to four storage devices.
JP2001117617A 2001-04-17 2001-04-17 Data replication method and information processing system Expired - Fee Related JP4122724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001117617A JP4122724B2 (en) 2001-04-17 2001-04-17 Data replication method and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001117617A JP4122724B2 (en) 2001-04-17 2001-04-17 Data replication method and information processing system

Publications (2)

Publication Number Publication Date
JP2002312251A JP2002312251A (en) 2002-10-25
JP4122724B2 true JP4122724B2 (en) 2008-07-23

Family

ID=18968135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001117617A Expired - Fee Related JP4122724B2 (en) 2001-04-17 2001-04-17 Data replication method and information processing system

Country Status (1)

Country Link
JP (1) JP4122724B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192105A (en) 2002-12-09 2004-07-08 Hitachi Ltd Connection device of storage device and computer system including it
WO2005010766A1 (en) * 2003-07-24 2005-02-03 Fujitsu Limited Data storage system
JP4629342B2 (en) * 2004-01-09 2011-02-09 株式会社日立製作所 Storage apparatus and control method thereof

Also Published As

Publication number Publication date
JP2002312251A (en) 2002-10-25

Similar Documents

Publication Publication Date Title
JP3868708B2 (en) Snapshot management method and computer system
JP3974538B2 (en) Information processing system
JP4559046B2 (en) Virtual tape library device
JP3726559B2 (en) Direct backup method and storage system
JP4927408B2 (en) Storage system and data restoration method thereof
JP4581518B2 (en) How to get a snapshot
US7464236B2 (en) Storage system and storage management method
JP4041656B2 (en) Storage system and data transmission / reception method in storage system
JP4949088B2 (en) Remote mirroring between tiered storage systems
JP5257672B2 (en) Computer system and method for managing journal hierarchy
US7461201B2 (en) Storage control method and system for performing backup and/or restoration
US20130283000A1 (en) Storage System Comprising Function for Changing Data Storage Mode Using Logical Volume Pair
JP2005031716A (en) Method and device for data backup
JP4170056B2 (en) Backup / restore management method between replicated volumes and storage control device used in this method
US20020188802A1 (en) Memory device system and method for copying data in memory device system
US20170017433A1 (en) Storage system, storage device, and data transfer method
JP2008225616A (en) Storage system, remote copy system and data restoration method
US7694089B2 (en) Resource efficient remote copy pair for data retention
JP4104281B2 (en) Database access method
JP2003084917A (en) Remote file sharing method, and its device and system
JP3832223B2 (en) Disk array disk failure recovery method
JP4122724B2 (en) Data replication method and information processing system
JP3882467B2 (en) Snapshot management method for storage system
JP4398596B2 (en) Disk array device
US20050223180A1 (en) Accelerating the execution of I/O operations in a storage system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050324

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees