JP2005242403A - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP2005242403A
JP2005242403A JP2004047176A JP2004047176A JP2005242403A JP 2005242403 A JP2005242403 A JP 2005242403A JP 2004047176 A JP2004047176 A JP 2004047176A JP 2004047176 A JP2004047176 A JP 2004047176A JP 2005242403 A JP2005242403 A JP 2005242403A
Authority
JP
Japan
Prior art keywords
data
site
storage device
group
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004047176A
Other languages
English (en)
Inventor
Hideomi Idei
英臣 出射
Norifumi Nishikawa
記史 西川
Kazuhiko Mogi
和彦 茂木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004047176A priority Critical patent/JP2005242403A/ja
Priority to US10/820,858 priority patent/US7266718B2/en
Priority to DE602004005415T priority patent/DE602004005415T2/de
Priority to EP04009321A priority patent/EP1569120B1/en
Publication of JP2005242403A publication Critical patent/JP2005242403A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2074Asynchronous techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2076Synchronous techniques

Abstract

【課題】
DRシステムとDBを構築する際、DBデータ毎に復旧時間の要求が異なる場合も、従来技術ではそれらを考慮することはなく、最も条件の高いDBデータに対する要求がDRシステム構築の要件となり、システムがオーバースペックになる可能性が高いという課題がある。
【解決手段】
本発明では、ある管理単位毎にDBデータの優先度を設定する手段、そのデータ優先度順に正サイトから副サイトにデータをコピーする手段、正サイトに災害が発生し副サイトでDBの回復を行う際、データ優先度順にデータの回復を行い、順次使用可能な状態にする手段を設ける。
【選択図】 図6

Description

本発明は、計算機システム、特にデータベースを運用する計算機システム(以下「DBシステム」)において、通常運用されているDBシステム(以下「現用系システム」)と、現用系システムのデータが複製されて使用される計算機システム(以下「待機系システム」)間におけるデータコピー方法及び待機系システムにおけるデータ回復の方法に関する。
データベース(以下「DB」とも称する)が構築され、そのDBを運用しているDBシステムにおいて、DBを構成するデータ(以下「DBデータ」)のバックアップを取る方法として、現用系システムと同じ構成のDBシステムを待機系システムとして用意し、現用系システムのDBデータを待機系システムにコピーする技術がある。
上記方法を用いれば、現用系システムが何らかの理由により稼動を停止した際、待機系システムを稼動させることでシステム全体の可用性が向上する。また、現用系システムと待機系システムとを物理的に距離が離れた場所に各々設置することで、地震等の自然災害が現用系システムを設置した場所に発生した場合でも、待機系システムでDBデータを回復することが可能となる。以下、このような現用系、待機系システムを有するシステムをディザスタリカバリ(DR)システムと呼ぶ。
DRシステムにおいて、現用系システムと待機系システムとの間のデータ転送が、DBデータを格納するストレージ装置間で行われる場合がある。このようなストレージ装置間のデータ転送を以下リモートコピーと称する。
リモートコピーの手法として、同期リモートコピーと非同期リモートコピーの2種類がある。同期リモートコピーでは、現用系システムのストレージ装置と待機系システムのストレージ装置間でDBデータの更新の同期を取る(DBデータの内容の同一性を保証する)ため、待機系システムに転送されたデータの信頼性は高い。一方、DBデータの同期をとるため、現用系システムはDBデータを待機系システムへ転送している間処理の終了の報告を待つ必要があり、現用系システムの性能が低下する。
一方、非同期リモートコピーでは、現用系システムのストレージ装置と待機系システムのストレージ装置間でDBデータの同期を取らずにデータを転送するため、同期リモートコピーとは逆に、現用系システムの性能はそれほど低下しないが、待機系システムに転送されたデータの信頼性(あるいは最新性)は低くなる。
特許文献1では、現用系と待機系のストレージ装置間において、論理ボリュームグループ毎に優先度をつけ、その優先度に従って非同期リモートコピーを実行する方法を開示している。また、その一例としてDBのログが記憶される論理ボリュームの優先度を高くし、他のDBデータと比して、ログを優先的に待機系システムのストレージ装置へ転送することが開示されている。
特開2003−6016号公報
上述のDRシステムを構築する際、DBデータの種類毎に、待機系システムにおけるDBデータの復旧に掛けられる時間が異なる場合がある。しかし従来技術ではその復旧時間の差が考慮されておらず、通常、最優先に復旧処理を行わなければならないDBデータの復旧時間内で全てのDBデータの復旧処理を行うようなDRシステムが構築される。しかしこれではDRシステムがオーバースペックになる可能性が高く、最適なシステム構成とはならない。
本発明の目的は、最優先に復旧すべきデータ、例えばDBデータの待機系システムにおける復旧時間を短く保ちながら、効果対価格比の良いシステムを構築することにある。
上記目的を達成するため、本発明では以下の構成を採用する。具体的には、正サイトから副サイトへデータをリモートコピーする際に、予め副サイトにおいて要求されるデータの復旧時間に応じて正サイトでデータを区別(グループ化)し、その区別に応じてデータを転送する順序を決定し、正サイトがリモートコピーを行う。その後、副サイトにおいては、正サイトの障害発生時に、上述したグループに基づいてデータの復旧を行う構成とする。
データのグループ化を行う際には、副サイトにおいてデータ復旧に要求される時間が短い順にグループ化を行い、正サイトはそのグループに基づいてデータを転送し、かつ副サイトにおいてデータ復旧にかけられる時間が少ないグループ順に復旧を行う。
さらに、データ復旧にかけられる時間の多少に関わらず、データベースにおけるログデータについては最先にデータを副サイトに転送してもよい。さらにこの場合、同期リモートコピーを用いてログデータを副サイトに転送しても良い。
又、副サイトにおいてデータを復旧する際に、一旦全てのデータを閉塞し、復旧されたグループ単位で閉塞を解除しても良い。
本発明によれば、待機系システムにおいて重要度の高いデータの復旧時間を短くしながらより最適なDRシステムを構築することが可能となる。
以下、図1〜図14を用いて本発明の実施の形態を説明する。なお、これにより本発明が限定されるものではない。
図1は、本発明を適用した計算機システムの実施形態の例を示す図である。
計算機システムは、現用系システムである正サイト100、待機系システムである副サイト102、正サイト100と副サイト102とを接続するネットワーク172及び正サイト100と副サイト102を管理するために使用されるシステム管理サーバ150を有する。
正サイト100及び副サイト102は、データベースマネージメントシステム(以下、DBMS)が動作するDBサーバ110、DBデータを記憶するストレージ装置130並びにDBサーバ110及びストレージ装置130を相互に接続するネットワーク170を有する。以下、正サイト100と副サイト102の機器構成は同等として説明するが、全く同じでなくても良い。少なくとも双方のサイトでDBサーバとストレージ装置があれば良い。
DBサーバ110は一般的な計算機であり、ユーザが使用する計算機もしくは当該計算機が接続されるネットワークとのインタフェースであるI/F(A)112、制御装置(制御プロセッサ)114、入出力装置116、メモリ118、ネットワーク170とのインタフェースであるI/F(B)124を有する。また、メモリ118には、運用管理プログラム120及びDBMSを実行するプログラム(以下「DBMS」と略する)122が格納される。
ストレージ装置130は、ネットワーク170とのインタフェースであるI/F132、制御装置(制御プロセッサ)134、メモリ136及びディスク144を有する。また、メモリ136には、制御プログラム138、リモートコピー(以下「RC」)を実行するプログラム140及び制御情報142が格納される。尚、ディスク144は記憶媒体であり、ハードディスクドライブでも、光ディスクでも良い。また、ストレージ装置130は、複数のディスク144をRAID構成にしていても良い。
計算機システムの管理者は、正サイト100内のネットワーク170に接続されたシステム管理サーバ150により、計算機システムの設定・管理を行う。
システム管理サーバ150は一般的な計算機であり、制御装置(制御プロセッサ)152、入出力装置154、メモリ158及び正サイトのネットワーク170とのインタフェースであるI/F160を有する。なお、システム管理サーバ150と正サイトのDBサーバ110とを一体とした構成も考えられる。この場合、管理プログラム158がDBサーバ110で実行される。
又、上述した各種プログラムは、光ディスクやフロッピー(登録商標)ディスク等の記憶媒体を用いて各サイトにインストールされたり、ネットワークを介して各サイトの各装置にインストールされる。尚、以下でプログラムが主語になる場合は、実際はそのプログラムを実行する制御装置が処理を実行している。
図2の(a)は、ストレージ装置130が持つ制御情報142の構成例を示した図である。
制御情報142は、ストレージ装置130が有する論理的な記憶領域(論理ユニット:LU)の設定に関する情報であるLU情報200及びデータの優先度毎にグルーピングされるグループの情報であるグループ情報202を有する。尚、LUは、一つ又はそれ以上のディスク144から構成される。
図2の(b)は、LU情報200の構成例を示す図である。LU情報200は、各LU毎に対応するエントリを有する。各エントリは、エントリに対応するLUを識別する番号であるLUNを登録するフィールド210、対応するLUに割当てられたブロックの数を示すブロック数を登録するフィールド212及び対応するLUが割当てられるDBサーバ110を識別するためのサーバIDを登録するフィールド214を有する。なお、ブロックとは記憶領域を扱う際の単位を示し、通常512KBである。
図2の(c)は、グループ情報202の構成例を示す図である。グループ情報202は、優先度のグループ毎に対応するエントリを有する。各エントリは、エントリに対応するグループを識別するグループIDが登録されるフィールド220、対応するグループ内のデータの優先度を示すデータ優先度が登録されるフィールド222及び対応するグループに属するLUを示すLUNを登録するフィールド224を有する。
図3は、運用管理プログラム120が保持するローデバイス情報300の例を示した図である。このローデバイス情報300は、DBサーバ110のメモリ118に格納されている。
ローデバイス情報300は、DBサーバ100に登録されるローデバイス毎に対応するエントリを有する。ここでローデバイスとは、DBサーバ100で実行されるオペレーティングシステム、特にファイルシステムにおいて認識される仮想的な外部装置を指す。ファイルシステムはこのローデバイスを1つのファイルとして表現して操作する。これをローデバイスファイルと言う。
各エントリは、該エントリに対応するローデバイスファイルのファイル名を登録するフィールド302、ローデバイスファイルで表現されるローデバイスと関連付けられるLUを有するストレージ装置130の識別子を登録するフィールド304及びローデバイスに対応するLUのLUNを登録するフィールド306とを有する。
図4の(a)は、DBMS122の構成例を示した図である。
DBMS122は、DBMS実行プログラム400、DBデータの読み出しや書き込みの際にDBデータを一時保持するDBバッファ402、DBデータの更新に伴って追加されるログを一時保持するログバッファ404、DBMS122のシステム情報やログ、DBデータ等を記憶させるデータ領域の設定情報であるデータ領域設定情報406及び表や索引といったDBMS122のスキーマ情報であるDBスキーマ情報408を有する。
図4の(b)は、データ領域設定情報406の構成例を示す図である。データ領域設定情報406は、データ領域毎に対応するエントリを有する。各エントリは、該エントリに対応するデータ領域を識別するためのデータ領域IDを登録するフィールド410、対応するデータ領域の名前を示すデータ領域名を登録するフィールド412、対応するデータ領域が作成されるローデバイスファイルのファイル名が登録されるフィールド414、対応するデータ領域に格納されるデータの種類を示すデータ種別が登録されるフィールド416、対応するデータ領域の大きさを示す領域サイズが登録されるフィールド418及び対応するデータ領域に格納されるデータの優先度を示すデータ優先度を登録するフィールド420を有する。
図4の(c)は、DBスキーマ情報408の構成例を示す図である。DBスキーマ情報408は、DBスキーマ毎に対応するエントリを有する。各エントリは、エントリに対応するDBスキーマを識別するためのスキーマIDを登録するフィールド430、対応するDBスキーマの名前を示すスキーマ名を登録するフィールド432、対応するDBスキーマの種類を示すスキーマ種別を登録するフィールド434、対応するDBスキーマが作られるデータ領域を識別するデータ領域IDを登録するフィールド436及び対応するDBスキーマに割り当てている記憶領域のデータサイズを示すスキーマサイズを登録するフィールド438を有する。
なお、スキーマ種別が“TABLE”の場合はDBの表データ、“INDEX”の場合はDBの索引データがそのスキーマ内に格納される。
図5は、DBMS122によってストレージ装置130に作成されるデータ領域の構成例を示した図である。上述したように、データ領域はデバイスファイル名を介してストレージ装置130が有する各LUと対応付けられる。
データ領域500は、データ領域の管理情報を格納するデータ格納領域管理領域502及び実際のDBスキーマのデータを格納するデータ格納領域504を有する。データ領域管理領域502は、データ領域を識別するためのデータ領域ID510を格納する領域を有する。
図5(a)は、データ領域500にログデータを格納した例を示した図である。ログデータはデータ格納領域504に格納される。ログデータが格納される領域520には、複数のログエントリが格納される。一つのログエントリの領域は、対応するログエントリを識別するために付与されるログシーケンス番号(以下、LSN)を格納する領域530、対応するログの種類を識別するログ種別を格納する領域532、追加更新されたデータが記憶されているデータ領域を示すデータ領域IDが格納される領域534、ログエントリに対応するデータのアドレスが格納される領域536及び追加更新されたデータ内容が格納される領域538を有する。
このログデータの1つ1つのエントリは、DBへデータが追加更新された時や、DBがコミットされた際にDBMS122によって自動的に作成される。作成された後、このログエントリは一旦ログバッファ404に保持される。そして、ログバッファ404の記憶容量が不足した時や、ある決められた時間が経過した時、DBMS122はログバッファ404に保持されているログデータをストレージ装置130のデータ領域500に書き込む。
図5(b)は、データ領域にDBデータを格納した場合を示した図である。DBデータはデータ格納領域504に格納される。DBMS122がDBデータを追加又は更新した際、追加更新のDBデータは一旦DBバッファ402に保持される。そして、DBバッファの記憶容量が不足した時や、ある決められた時間が経過した時、DBMS122はDBバッファ402に保持されているDBデータをストレージ装置130のデータ領域に書き込む。
また、データ領域管理領域502は、そのデータ領域内で最も最近更新されたデータのLSNを格納する領域512を有する。例えば、あるデータ領域のデータが更新された時に作られたログデータのLSNが10の場合、この10という値が領域512に格納される。これにより、DBサーバ110が、LSN10までのログデータが当データ領域に反映されていることを判断することが可能となる。
図6、図7は、計算機システムにおける正サイト100から副サイト102へのデータ転送の概略を示した図である。
ストレージ装置130は、RCプログラム140を実行して、正サイト100から副サイト102へデータをコピーする。このリモートコピーは、グループ単位で優先度順に行われる。また、優先度(「データ優先度」とも言う)が0であるグループのデータ(本実施形態ではログデータ)は同期リモートコピー、データ優先度が0以外のグループのデータ(本実施の形態ではDBデータ)は非同期リモートコピーで転送される。
図6において、正サイト100のグループ0(600)はデータ優先度が0であるため、このグループ0(600)に属するLU内のデータが更新される度に、正サイト100のストレージ装置130は、同期リモートコピー(矢印610)によって副サイト102のストレージ装置130にデータを転送する。
一方、図6においてグループ1(602)、グループ2(604)、グループ3(606)のデータ優先度は、それぞれ1、5、3である。従って、これらのグループに属するLU内のデータを副サイト102にコピーする際、正サイト100のストレージ装置130は、グループ1(602)に属するLUのデータ、グループ3(606)に属するLUのデータ、グループ2(604)に属するLUのデータの順番で非同期リモートコピー(矢印612、614、616)で副サイト102のストレージ装置130へデータ転送を行う。
図7は、データ領域の観点から見た正副サイト間のデータ転送の概略を示した図である。以下、正サイト及び副サイトのストレージ装置130に、グループ1、2及び3に対応するデータ領域700、702及び704が構成されているとする。尚、データ領域700等は上述したデータ領域500の具体例であるとする。又、グループは同じ優先度に属するLUで構成される。
DBMS122によって、データ領域700にデータ「A」、データ領域702にデータ「B」、データ領域704にデータ「C」、データ領域700にデータ「D」、データ領域702にデータ「E」及びデータ領域704にデータ「F」という順番でデータ更新が行われた場合、図7のログデータ710(データ領域500の一種)に示されるログが作られる。
ログデータ710を格納するデータ領域は、データ優先度が0のグループに属しているLUに作られているため、データの書き込みがある度にそれらのデータは同期リモートコピー(矢印610)で副サイト102へ転送される。
データ領域700、データ領域702及びデータ領域704は、それぞれ前述のグループ1(602)、グループ2(604)及びグループ3(606)に属しているLUに作られているため、データ優先度に従い、データ領域700のデータ「A」「D」、データ領域704のデータ「B」「E」、データ領域702のデータ「C」「F」という順番で、非同期リモートコピーで正サイト100から副サイト102にデータが転送される。また、データが正サイト100から副サイト102へコピーされた際は、そのデータに対応するログのLSNも、副サイト102のデータ領域管理領域502のLSN512に転送される。
図8〜図14は、計算機システムにおける、記憶領域の設定処理から災害発生によるシステム回復処理までの一連の処理手順の例を示したフロー図である。
簡略に処理手順を説明すると、まず、計算機システムの管理者等は計算機システムが使用する記憶領域の設定を行う。この際、管理者等は副サイトでのデータの復旧時間に基づく優先順位に基づいて、記憶領域の優先度を決め、その情報を正ストレージ装置や副サイトへ登録する。その後、正副サイトは、設定された優先度に基づいてデータのリモートコピーを行う。
正サイトで障害が発生した場合、管理者は副サイトでシステムの復旧を図る。この際、副サイトの計算機システムは、あらかじめ設定された優先度の順番にデータの復旧処理を行う。この際、副サイトのストレージ装置は、一旦すべての記憶領域の使用を禁止し、その後、復旧が完了した記憶領域から順に使用禁止を解除していく。以下、各段階での処理手順を詳細に説明する。
図8は、記憶領域の割当て処理の手順例を示したフロー図である。
計算機システムの管理者は、計算機システムを構築するにあたり、まずシステム管理サーバ150の管理プログラム158を起動し、正サイト100のストレージ装置130内のLUを設定する。ここで設定された内容は、ネットワークを介してストレージ装置130が有するLU情報200に格納される。具体的には、例えばLU情報200のエントリ216は、管理者がLUNが0のLUに20971520ブロックを割り当て、かつサーバIDが0のDBサーバ110にLUN0のLUを割り当てたことを示している(ステップ802)。
続いて、システム管理者は、正サイト100のDBサーバ110上のローデバイスを設定する。ここで設定された内容は、ネットワークを介してDBサーバ110が有するローデバイス情報300に格納される。具体的には、例えばローデバイス情報300のエントリ308は、管理者が“/dev/rdsk/c0t0d1s6”というファイル名のローデバイスに、ストレージ装置ID0のストレージ装置130が有するLUN0のLUを対応付けた(以下「マッピング」)ことを示している。なお、ローデバイスにマッピング可能なLUは、ステップ802で設定したLUである(ステップ804)。
続いて管理者は、副サイト102のストレージ装置130内のLUを設定する。尚、設定の内容は、サーバID以外ステップ802で設定した内容と同じにする必要がある。これは、リモートコピー時の正副サイト間の整合性をとるためである(ステップ806)。
続いて管理者は、副サイト102のDBサーバ110のローデバイスを設定する。設定の内容は、ストレージ装置ID以外ステップ804で設定した内容と同じにする必要がある。これも、正副サイト間の整合性を取るためである(ステップ806)。
図9は、計算機システムにおけるDBシステムの構築処理の手順例を示したフロー図である。本処理は、記憶領域の割り当て処理の後に行われる。
DBの構築を行うDB設計者等は、正サイト100のDBMS122を起動し、データ領域の名前、データ領域を作成するローデバイスのローデバイスファイル名、データ領域に格納するデータの種別、データ領域のサイズ、格納するデータの優先度を指定したクエリを入出力装置116から入力してデータ領域を作成する。
データの優先度は具体的には以下のように決定する。まず、ログデータは副サイト102におけるデータ復旧に欠かせないため、ログデータを格納するデータ領域のデータ優先度は最も高く設定する。それ以外のDBデータは、データの重要度やDB処理の内容によって、障害発生時、副サイト102において早く復旧してほしい順にデータ優先度を決定する。例えば、常々更新処理が行われるオンライン系のDBデータは一刻も早く復旧して業務を再開する必要があるため、データ優先度を高く設定する。夜間などに一括して処理するバッチ系のDBデータは決められた時間内で処理されるため、優先度は中ほどに設定する。アーカイブ系のDBは検索/更新処理が頻繁に発生しないため、優先度は低く設定する。
データ領域を作成した時点で、DBMS122は、そのデータ領域に識別子(ID)を自動的に割り振る。ここで設定された内容は、DBMS122内のデータ領域設定情報406に格納される。具体的には、例えばデータ領域設定情報406のエントリ422は、データ領域IDに0が割り振られたデータ領域の領域名は“LOG”であり、“/dev/rdsk/c0t0d1s6”というローデバイスファイル上に作られていることを示す。又、このデータ領域に格納されるデータはDBMS122のログデータで、領域の大きさは4GB、データの優先度は0であることを示している(ステップ902)。
ステップ902でデータ領域が作られた後、DBサーバ110はデータ領域設定完了通知と一緒にローデバイス情報300及びデータ領域設定情報406をストレージ装置130に送信する。ストレージ装置130は、DBサーバ110からデータ領域設定完了通知、ローデバイス情報300及びデータ領域設定情報406を受信した後に、制御プログラム138のグループ作成処理1000を実行する。グループ作成処理1000については後述する。(ステップ904)。
続いて、DB作成者は、ステップ902で作成したデータ領域上に、DBスキーマの名前、種別、DBスキーマを作成するデータ領域のID、DBスキーマのサイズをDBMS122に指定してDBスキーマの作成を指示する。DBスキーマを作成した時点で、DBMS122はそのDBスキーマにスキーマIDを自動的に割り振る。ここで設定された内容は、DBMS122内のDBスキーマ情報408に格納される。
具体的には、例えばDBスキーマ情報408のエントリ440は、DBスキーマID0のスキーマ名は“LOG1”であり、データ領域IDが0のデータ領域に作られていることを示している。又、このDBスキーマはDBMSのログデータを格納するスキーマであり、スキーマの大きさは2GBであることを示している。
尚、一つのDBMS122によってログが複数発生する場合、例えばDBMS122が2つ以上のログを切り替えて使用するといった場合は、ログ用のデータ領域を複数作成することで対応する(ステップ906)。
続いて、DB作成者は、副サイト102のDBMS122を起動し、ステップ902で作成したデータ領域と同じデータ領域を副サイト102にも作成する(ステップ908)。
ステップ908で副サイト102にデータ領域が作られた後、副サイト102のストレージ装置130は、制御プログラム138のグループ作成処理1000を実行する。グループ作成処理1000については後述する(ステップ910)。
続いて、DB作成者は、ステップ908で作成したデータ領域に、ステップ906で作成したDBスキーマと同じDBスキーマを作成する。なお、ステップ908から本ステップにおいて正サイト100と同じ処理を繰り返す代わりに、正サイト100のデータ領域設定情報406や、DBスキーマ情報408を副サイト102へコピーして、正サイト100と同じDBを副サイト102上に構築しても良い(ステップ912)。
その後、正サイト100のDBMS122の運用を開始する(ステップ914)。
図10は、制御プログラム138によるグループ作成処理1000の処理手順の例を示したフロー図である。なお、上述したように本処理はデータ領域が作成されたときに実行される。
ストレージ装置130は、制御プログラム138を実行して、作られたデータ領域のデータ優先度とそのデータ領域が属するLUのLUNについての情報をDBサーバ110のローデバイス情報300及びデータ領域設定情報406から取得し、そのLUNに対応するLUのデータ優先度を決定する(ステップ1002)。
続いて、ストレージ装置130は、ステップ1002で取得したデータ優先度と同じデータ優先度のグループがあるか、グループ情報202を検索する(ステップ1004)。
ステップ1004で同じデータ優先度のグループがあった場合、ストレージ装置130は、同じデータ優先度のグループにステップ1002で取得したLUNを追加し、グループ情報202を更新する(ステップ1006)。
一方、ステップ1005で同じデータ優先度のグループがなかった場合、ストレージ装置130は、グループ情報202に新たなエントリを追加することで新しいグループを作成し、ステップ1002で取得したLUNをそのエントリのフィールド244に追加する(ステップ1008)。
上述のステップによって、グループ情報202が更新される。具体的には、例えばグループ情報202のエントリ226は、グループIDが0のグループ内のデータ優先度は0であり、LUN0のLUが当グループに属していることを示している。
図11は、DBMS122によるデータ更新処理の手順例を示したフロー図である。
正サイト100のDBMS122は、ユーザからのDB処理(データ更新)要求により、更新するデータをストレージ装置130からDBバッファ404に読み出してデータを更新する(ステップ1102)。
続いてDBMS122は、当データ更新を識別するために付与したLSN、ログの種別、更新されたデータのデータ領域ID、データのアドレス、更新データを一つのログとしてログバッファ402に書き込む(ステップ1104)。
続いてDBMS122は、ログバッファ402の記憶領域に空きが無くなったかどうか判定する(ステップ1106)。ログバッファ402の記憶領域に空きが無い場合、DBMS122は、ログバッファ402内のログデータを、データ領域500のうち、ログ格納用に作成したデータ領域に書き込む(ステップ1108)。
この際、ログ格納用のデータ領域のデータ優先度は0であるので、ストレージ装置130は、RCプログラム140を実行して、ログデータを副サイト102へ同期リモートコピーする。尚、リモートコピー処理1200については後述する(ステップ1110)。
続いて、DBMS122は、DBバッファ404の記憶領域に空きがあるかどうか判定する(ステップ1112)。DBバッファ404に空きが無くなった場合、DBMS122は、DBバッファ404内の更新されたデータを、対応するデータ領域の所定のアドレスで示される場所に書き込む(ステップ1114)。又、DBMS122は、データ領域管理領域502のLSN512に、書き込んだ更新データに対応するログのLSNを格納する(ステップ1116)。
なお、ログデータ及びDBデータのデータ領域への書き込み契機をログバッファ402及びDBバッファ404の記憶領域に空きが無くなった時で説明したが、各バッファの空きの有無ではなく、ある一定期間毎といった別の契機でDBMS122がデータ領域への書き込みを行ってもかまわない。
図12は、RCプログラム140によるリモートコピー処理1200の手順の例を示したフロー図である。
正サイト100のRCプログラム140は、データ優先度が0のグループに属するLUのデータが更新された場合(ステップ1202)、更新されたデータを副サイト102に送信し(ステップ1204)、副サイト102からの応答を待つ(ステップ1206)。正サイト100のRCプログラム140は、副サイト102からの応答を受信して次の処理に移る。
一方、正サイト100でのデータ更新がデータ優先度0以外の場合又はデータ更新が発生しない場合、正サイト100のRCプログラム140は決められたある一定時間の経過を待つ(ステップ1208)。一定時間経過後、正サイト100のRCプログラム140は、データ優先度が0以外のグループに含まれるLUに対して行われたデータ更新を検索し、その更新されたデータをグループのデータ優先度順で副サイト102に送信する(ステップ1210)。
図13は、副サイト102の運用管理プログラム120による災害監視処理の手順例を示したフロー図である。
副サイト102の運用管理プログラム120は、正サイト100の運用管理プログラム120に対し、定期的にアライブ通信を行う。アライブ通信とは、お互いがお互いを監視しあうために遣り取りされる通信で、一般的にはハートビート信号等が使用される(ステップ1302)。
ステップ1302のアライブ通信に対する応答が正サイト100から帰ってきた場合、副サイト102は、正サイト100が正常に動作していると判定し、一定期間をおいてステップ1302からの処理を繰り返す。
一方、正サイト100から応答がなかった場合、副サイト102は、正サイト100に障害、もしくは災害が発生したと判定する。そして、副サイト102の運用管理プログラム120は、副サイト102のDBMS122を起動して運用を開始するとともに(ステップ1306)、DBMS122は、DB回復処理1400を実行する。なお、このときDBMS122は、DBデータを記憶する各データ領域を閉塞状態にしておき、データの回復が終わったデータ領域から順次オープンしていく。ここで「閉塞状態」とは、データ領域のデータにDBサーバ110のアプリケーションプログラム等がアクセスができない状態のことを指す。又、「オープン」とは、閉塞状態が解除され、データ領域のデータがアプリケーションプログラム等によって使用可能な状態にすることを指す(ステップ1308)。
図14は、副サイト102のDBMS122によるDB回復処理1400の手順例を示したフロー図である。
副サイト102のDBMS112は、データ領域設定情報406を参照して、データ優先度が高いデータ領域からデータの回復を行い(ステップ1402)、データの回復が終わればそのデータ領域をオープンして使用可能状態にする(ステップ1404)
回復の方法の手順は次の通りである。まずDBMS122は、データ領域のデータ領域管理領域502内にある領域512のLSNを取得し、そのデータ領域で一番最後に更新されたデータのログを特定する。そして、DBMS122は、同期リモートコピーでコピーされたログデータから、LSNで特定したログより後のログの中でそのデータ領域のデータを更新したことを示すログがあれば、そのログのエントリに格納された更新データを用いてDBデータの更新を行う。
例えば、図7でデータ「A」「D」「C」が副サイト102の各データ領域にコピーされている状態からデータ回復を行う場合、データ優先度が最も高いデータ領域700のLSNは「13」であり、LSNが「13」以降のログデータ710の中でデータ領域700のデータ更新を示しているログはないため、DBMS122は、データ領域700をそのままオープンして使用可能状態にする。
次にデータ優先度が高いデータ領域704のLSNは「12」であり、LSNが「12」以降のログデータ710の中でLSNが「15」のログがデータ領域704のデータ更新を示している。従って、DBMS122は、LSNが「15」のログが持つ更新データ「F」をデータ領域704に書き込み、領域512のLSNを「15」に更新した後、データ領域704をオープンして使用可能状態にする。
最後に最もデータ優先度が低いデータ領域702のLSN512は「9」であり、LSNが「9」以降のログデータ710の中でLSNが「11」と「14」のログがデータ領域702のデータ更新を示している。従って、DBMS122は、LSNが「11」のログが持つ更新データ「B」と、LSN「14」のログが持つ更新データ「E」をデータ領域702に書き込み、LSN512を「14」に更新した後、データ領域702をオープンして使用可能状態にする。
ここで、従来技術と本発明とのデータ回復の処理の違いを図7を用いて説明する。
図7において、更新のあったデータ「A」〜「F」が正サイトから副サイトにリモートコピーされる際、従来技術ではデータの更新順で副サイトにデータが転送されるが、本発明では各データが書き込まれるデータ領域の優先度順でコピーされる。つまり、データ「A」〜「F」の順番ではなく、優先度が最も高いグループ1のデータ「A」「D」、次に優先度が高いグループ3のデータ「C」「F」、最後に優先度が最も低いグループ2のデータ「B」「E」の順番で副サイトにコピーされる。
ここで、4つ目のデータをコピーしている時に、正サイトに障害が発生し、副サイトでDBの復旧を図ると仮定する。従来技術ではデータ「A」、「B」及び「C」が副サイトにコピーされた状態から復旧を図ることになり、ログデータ710からデータ「D」、「E」及び「F」を回復する。つまり、どのデータ領域にも回復が必要なデータが存在する可能性があり、DBデータの復旧時間が延びてしまう。
一方、本発明ではデータ「A」、「D」及び「C」が副サイトにコピーされた状態から、優先度の高いグループに属するデータ領域順に復旧を図るため、グループ1に属するデータ領域、グループ3に属するデータ領域、グループ2に属するデータ領域の順番でデータの回復を行う。
ここで本発明においては、グループ1に属するデータ領域700のデータ「A」及び「D」は既にコピーされているため、副サイト側のDBMSはログデータ710からDBデータを回復する必要はなく、グループ1に属するデータ領域をそのままオープンして使用可能状態にすることができる。又、グループ3に属するデータ領域704のデータ「C」は既にコピーされているため、副サイト側のDBMSはログデータ710からデータ「F」のみを回復した後、グループ3に属するデータ領域をオープンして使用可能状態にする。一方、グループ2に属するデータ領域702のデータ「B」「E」はまだコピーされていないため、副サイト側のDBMSはログデータ710からデータ「B」及び「E」を回復した後、グループ2に属するデータ領域をオープンして使用可能状態にする。以上の手順により、本発明では、優先度の高いデータ領域の復旧時間を短くすることが可能となる。
上述したように、本発明では、優先度を高く設定したデータ領域のデータを優先的に福サイトにコピーし、障害等により福サイト上でDBの回復を図る際は高優先度のデータ領域のデータから復旧を図ることで、優先度の高いデータ領域のデータの復旧時間を短くすることができる。
つまり、本発明においては、ある時点において正サイトに障害が発生し、副サイト上でDB復旧が行われる際、復旧優先度の高いデータは復旧優先度の低いデータに比べ、副サイト上にコピーされている可能性が高くなるため、この場合ログからのデータ復旧を行う必要がなく、したがって復旧時間が短くなる。
計算機システムのシステム構成例を示す図である。 制御情報140の構成例を示した図である。 ローデバイス情報300の例を示した図である。 DBMS122の構成例を示した図である。 データ領域の構成例を示した図である。 正サイト100から副サイト102へのリモートコピーの概略を示した図である。 リモートコピーの概略を示した図である。 記憶領域の割当て処理の手順例を示したフロー図である。 DBの構築処理の手順例を示したフロー図である。 グループ作成処理の手順例を示したフロー図である。 データ更新処理の手順例を示したフロー図である。 リモートコピー処理の手順例を示したフロー図である。 副サイト102の運用管理プログラム120による災害監視処理の手順例を示したフロー図である。 副サイト102のDBMS122によるDB回復処理の手順例を示したフロー図である。
符号の説明
100…正サイト、102…副サイト、110…DBサーバ、112…I/F(A)、114…制御装置、116…入出力装置、118…メモリ、120…運用管理プログラム、122…DBMS、130…ストレージ装置、134…制御装置、136…メモリ、144…ディスク、150…システム管理サーバ、170…ネットワーク。

Claims (11)

  1. 第一の計算機及び第一のストレージ装置を有する第一のサイト、
    第二の計算機及び第二のストレージ装置を有する第二のサイト、及び
    管理用の計算機、前記第一のサイト、前記第二のサイト及び前記管理用の計算機とを相互に接続するネットワークとを有し、
    前記第一のストレージ装置は、前記管理用の計算機に入力された情報に基づいて該ストレージ装置が有する記憶領域に格納されるデータをグルーピングし、前記グルーピングされたグループ単位で該グループ内で更新されたデータを前記第二のストレージ装置へ転送し、
    前記第一のサイトが停止した際に、
    前記第二のサイトが前記グループ単位にデータを復旧することを特徴とする計算機システム。
  2. 前記第一のストレージ装置は、
    前記第二のサイトでデータを復旧する際に要求される復旧時間に基づいて優先順位をつけて前記グルーピングを行い、
    前記第二のサイトは、
    前記要求される復旧時間の優先順位が高い順に前記グルーピングされたグループに含まれるデータを復旧することを特徴とする請求項1記載の計算機システム。
  3. 前記第一のストレージ装置から前記第二のストレージ装置への前記グループ単位のデータ転送は非同期リモートコピーで行われることを特徴とする請求項2記載の計算機システム。
  4. 前記グルーピングされたデータは、データベースに使用されるデータであることを特徴とする請求項3記載の計算機システム。
  5. 前記グルーピングされるデータには、前記データベースで使用されるログデータが含まれており、
    前記ログデータが含まれるグループのデータは、同期リモートコピーで前記第一のストレージ装置から前記第二のストレージ装置へ転送されることを特徴とする請求項4記載の計算機システム。
  6. 前記ログデータが含まれるグループには一番高い復旧時間の優先順位が割り当てられていることを特徴とする請求項5記載の計算機システム。
  7. 前記第二のサイトは、前記第一のサイトの停止を前記ネットワークを介して検知することを特徴とする請求項6記載の計算機システム。
  8. 前記第二のサイトは、
    前記グループ単位でデータを復旧する際に、復旧前のデータが含まれているグループの使用を禁止し、グループ単位でのデータの復旧が完了するたびに復旧されたデータが含まれるグループの使用を許可することを特徴とする請求項7記載の計算機システム。
  9. 計算機及び管理用計算機と接続されるストレージ装置であって、
    他のストレージ装置とネットワークを介して接続され、
    制御部及びメモリを有し、
    前記制御部は、前記管理用計算機に入力された情報に基づいて該ストレージ装置が有する記憶領域に格納されるデータをグルーピングし、前記グルーピングの情報を前記メモリに格納し、
    前記メモリに格納された情報に基づいて、前記グルーピングされたグループ単位で該グループ内で更新されたデータを前記第二のストレージ装置へ転送することを特徴とするストレージ装置。
  10. 前記グルーピングは、前記他のストレージ装置におけるデータの復旧時間に基づいた優先順位に基づいて行われることを特徴とする請求項9記載のストレージ装置。
  11. 第一の計算機及び第一のストレージ装置を有する第一のサイト、
    第二の計算機及び第二のストレージ装置を有する第二のサイト、及び
    管理用の計算機、前記第一のサイト、前記第二のサイト及び前記管理用の計算機とを相互に接続するネットワークとを有し、
    前記第一のストレージ装置は、前記管理用の計算機に入力された前記第二のサイトでデータを復旧する際に要求される復旧時間に基づいた優先順位に基づいてストレージ装置が有する記憶領域に格納されるデータをグルーピングし、前記グルーピングされたグループ単位で該グループ内で更新されたデータを前記第二のストレージ装置へ転送し、
    前記第一のサイトが停止した際に、
    前記第二のサイトは、
    前記要求される復旧時間の優先順位が高い順に前記グルーピングされたグループに含まれるデータを復旧することを特徴とする計算機システム。
JP2004047176A 2004-02-24 2004-02-24 計算機システム Pending JP2005242403A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004047176A JP2005242403A (ja) 2004-02-24 2004-02-24 計算機システム
US10/820,858 US7266718B2 (en) 2004-02-24 2004-04-09 Computer system for recovering data based on priority of the data
DE602004005415T DE602004005415T2 (de) 2004-02-24 2004-04-20 Rechnersystem zur Wiedergewinnung von Daten auf Basis von Datenprioritäten
EP04009321A EP1569120B1 (en) 2004-02-24 2004-04-20 Computer system for recovering data based on priority of the data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004047176A JP2005242403A (ja) 2004-02-24 2004-02-24 計算機システム

Publications (1)

Publication Number Publication Date
JP2005242403A true JP2005242403A (ja) 2005-09-08

Family

ID=34747427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004047176A Pending JP2005242403A (ja) 2004-02-24 2004-02-24 計算機システム

Country Status (4)

Country Link
US (1) US7266718B2 (ja)
EP (1) EP1569120B1 (ja)
JP (1) JP2005242403A (ja)
DE (1) DE602004005415T2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140651A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 計算機システム
JP2007286860A (ja) * 2006-04-17 2007-11-01 Hitachi Ltd データ転送方法及び情報処理装置
JP2007293651A (ja) * 2006-04-26 2007-11-08 Hitachi Ltd ストレージシステム、リモートコピー、その管理方法
JP2007310788A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd ストレージ装置のデータ管理方法、ストレージ装置、および、計算機システム
JP2008117342A (ja) * 2006-11-08 2008-05-22 Hitachi Ltd ストレージシステムおよびリモートコピーを制御するためのコントローラ
JP2009064121A (ja) * 2007-09-05 2009-03-26 Nec Corp データ複製装置
JP2009151637A (ja) * 2007-12-21 2009-07-09 Nomura Research Institute Ltd 業務継続システム
JP2009245167A (ja) * 2008-03-31 2009-10-22 Fujitsu Ltd リストア管理プログラム、リストア管理方法およびリストア管理装置
JP2011043888A (ja) * 2009-08-19 2011-03-03 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置、方法、システム、およびプログラム
JP2011060292A (ja) * 2009-09-14 2011-03-24 Internatl Business Mach Corp <Ibm> 複製データベースのハイブリッド・レプリケーションのための装置、コンピュータ実装方法及びコンピュータ・ソフトウエア・プログラム
JP2011065625A (ja) * 2009-09-17 2011-03-31 Hitachi Ltd 大容量ディスクドライブの使用方法及び装置
JP2012069031A (ja) * 2010-09-27 2012-04-05 Nec Corp データベースシステム
JP2012510094A (ja) * 2008-10-21 2012-04-26 グーグル インコーポレイテッド 常にレディ状態のクライアント/サーバ同期
JP2012510652A (ja) * 2008-10-21 2012-05-10 グーグル インコーポレイテッド データの同期のための検索ベースの仕様
JP2013061883A (ja) * 2011-09-14 2013-04-04 Fujitsu Ltd リストア処理プログラム、リストア方法、及び情報処理装置
JP2014222451A (ja) * 2013-05-14 2014-11-27 株式会社東芝 データベース管理システムおよびその書き込み方式管理方法
US8965954B2 (en) 2008-10-21 2015-02-24 Google Inc. Always ready client/server data synchronization
JP2018005508A (ja) * 2016-06-30 2018-01-11 株式会社東芝 マスターサーバ、テーブル更新方法、およびプログラム

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4382602B2 (ja) * 2004-04-23 2009-12-16 株式会社日立製作所 リモートコピーシステム
US7620843B2 (en) * 2005-03-02 2009-11-17 International Business Machines Corporation Rebuilding a storage system
DE102005061394A1 (de) * 2005-12-22 2007-06-28 Robert Bosch Gmbh Fehlertolerantes Prozessorsystem
US7650369B2 (en) * 2006-03-30 2010-01-19 Fujitsu Limited Database system management method and database system
US20070234107A1 (en) * 2006-03-31 2007-10-04 International Business Machines Corporation Dynamic storage data protection
JP5280617B2 (ja) * 2006-09-01 2013-09-04 アイシン・エィ・ダブリュ株式会社 地図更新システム及び地図更新方法
US7558982B2 (en) * 2006-09-01 2009-07-07 Siemens Communications, Inc. Presence enhanced disaster/overload recovery
US7685386B2 (en) * 2007-01-24 2010-03-23 International Business Machines Corporation Data storage resynchronization using application features
US8463798B1 (en) 2007-03-31 2013-06-11 Emc Corporation Prioritized restore
US8924352B1 (en) 2007-03-31 2014-12-30 Emc Corporation Automated priority backup and archive
US8375005B1 (en) * 2007-03-31 2013-02-12 Emc Corporation Rapid restore
US8341121B1 (en) 2007-09-28 2012-12-25 Emc Corporation Imminent failure prioritized backup
US8583601B1 (en) 2007-09-28 2013-11-12 Emc Corporation Imminent failure backup
US7885938B1 (en) * 2008-02-27 2011-02-08 Symantec Corporation Techniques for granular recovery of data from local and remote storage
US8959182B1 (en) * 2008-04-15 2015-02-17 Crimson Corporation Systems and methods for computer data recovery and destruction
US8214687B2 (en) * 2009-02-13 2012-07-03 International Business Machines Corporation Disaster recovery based on journaling events prioritization in information technology environments
US8856879B2 (en) * 2009-05-14 2014-10-07 Microsoft Corporation Social authentication for account recovery
US20110313974A1 (en) * 2010-06-17 2011-12-22 Computer Associates Think, Inc. Prioritized data backup
KR20120041582A (ko) * 2010-10-21 2012-05-02 삼성전자주식회사 스냅샷 이미지 분할 처리 장치 및 스냅샷 이미지 분할 처리 방법
US9607065B2 (en) 2013-04-26 2017-03-28 Netapp, Inc. Hierarchical coherency log for managing a distributed data storage system
GB2514810A (en) * 2013-06-05 2014-12-10 Ibm Rebuilding data of a storage system
US9853873B2 (en) 2015-01-10 2017-12-26 Cisco Technology, Inc. Diagnosis and throughput measurement of fibre channel ports in a storage area network environment
US9900250B2 (en) 2015-03-26 2018-02-20 Cisco Technology, Inc. Scalable handling of BGP route information in VXLAN with EVPN control plane
US9830240B2 (en) * 2015-05-14 2017-11-28 Cisco Technology, Inc. Smart storage recovery in a distributed storage system
US10222986B2 (en) 2015-05-15 2019-03-05 Cisco Technology, Inc. Tenant-level sharding of disks with tenant-specific storage modules to enable policies per tenant in a distributed storage system
US11588783B2 (en) 2015-06-10 2023-02-21 Cisco Technology, Inc. Techniques for implementing IPV6-based distributed storage space
US10778765B2 (en) 2015-07-15 2020-09-15 Cisco Technology, Inc. Bid/ask protocol in scale-out NVMe storage
KR102277731B1 (ko) 2015-07-21 2021-07-14 삼성전자주식회사 스토리지 시스템의 구동 방법 및 스토리지 컨트롤러
JP6623692B2 (ja) * 2015-11-02 2019-12-25 富士通株式会社 ログ情報採取システム、ログ情報採取プログラムおよびログ情報採取方法
US9892075B2 (en) 2015-12-10 2018-02-13 Cisco Technology, Inc. Policy driven storage in a microserver computing environment
US10140172B2 (en) 2016-05-18 2018-11-27 Cisco Technology, Inc. Network-aware storage repairs
US20170351639A1 (en) 2016-06-06 2017-12-07 Cisco Technology, Inc. Remote memory access using memory mapped addressing among multiple compute nodes
US10664169B2 (en) 2016-06-24 2020-05-26 Cisco Technology, Inc. Performance of object storage system by reconfiguring storage devices based on latency that includes identifying a number of fragments that has a particular storage device as its primary storage device and another number of fragments that has said particular storage device as its replica storage device
US11563695B2 (en) 2016-08-29 2023-01-24 Cisco Technology, Inc. Queue protection using a shared global memory reserve
US10545914B2 (en) 2017-01-17 2020-01-28 Cisco Technology, Inc. Distributed object storage
US10243823B1 (en) 2017-02-24 2019-03-26 Cisco Technology, Inc. Techniques for using frame deep loopback capabilities for extended link diagnostics in fibre channel storage area networks
US10713203B2 (en) 2017-02-28 2020-07-14 Cisco Technology, Inc. Dynamic partition of PCIe disk arrays based on software configuration / policy distribution
US10254991B2 (en) 2017-03-06 2019-04-09 Cisco Technology, Inc. Storage area network based extended I/O metrics computation for deep insight into application performance
US10303534B2 (en) 2017-07-20 2019-05-28 Cisco Technology, Inc. System and method for self-healing of application centric infrastructure fabric memory
US10404596B2 (en) 2017-10-03 2019-09-03 Cisco Technology, Inc. Dynamic route profile storage in a hardware trie routing table
US10942666B2 (en) 2017-10-13 2021-03-09 Cisco Technology, Inc. Using network device replication in distributed storage clusters
CN111382199A (zh) * 2018-12-29 2020-07-07 中兴通讯股份有限公司 一种数据库同步复制的方法和装置
US11372734B1 (en) * 2021-01-26 2022-06-28 International Business Machines Corporation Database recovery based on workload priorities
US11960369B2 (en) * 2021-10-26 2024-04-16 International Business Machines Corporation Efficient creation of a secondary database system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440727A (en) * 1991-12-18 1995-08-08 International Business Machines Corporation Asynchronous replica management in shared nothing architectures
US5659614A (en) * 1994-11-28 1997-08-19 Bailey, Iii; John E. Method and system for creating and storing a backup copy of file data stored on a computer
US6101497A (en) * 1996-05-31 2000-08-08 Emc Corporation Method and apparatus for independent and simultaneous access to a common data set
US5966730A (en) * 1996-10-30 1999-10-12 Dantz Development Corporation Backup system for computer network incorporating opportunistic backup by prioritizing least recently backed up computer or computer storage medium
US6553401B1 (en) * 1999-07-09 2003-04-22 Ncr Corporation System for implementing a high volume availability server cluster including both sharing volume of a mass storage on a local site and mirroring a shared volume on a remote site
US6601187B1 (en) * 2000-03-31 2003-07-29 Hewlett-Packard Development Company, L. P. System for data replication using redundant pairs of storage controllers, fibre channel fabrics and links therebetween
JP2001356945A (ja) * 2000-04-12 2001-12-26 Anetsukusu Syst Kk データバックアップ・リカバリー方式
US8001190B2 (en) 2001-06-25 2011-08-16 Aol Inc. Email integrated instant messaging
US7398302B2 (en) * 2001-03-30 2008-07-08 Hitachi, Ltd. Remote copy with path selection and prioritization
US6728849B2 (en) * 2001-12-14 2004-04-27 Hitachi, Ltd. Remote storage system and method
JP2003006016A (ja) 2001-06-26 2003-01-10 Hitachi Ltd ディスクサブシステム、および、ディスクサブシステム間の非同期コピー方法
US6980988B1 (en) * 2001-10-01 2005-12-27 Oracle International Corporation Method of applying changes to a standby database system
US6880051B2 (en) * 2002-03-14 2005-04-12 International Business Machines Corporation Method, system, and program for maintaining backup copies of files in a backup storage device
US7003694B1 (en) * 2002-05-22 2006-02-21 Oracle International Corporation Reliable standby database failover
JP2004013367A (ja) * 2002-06-05 2004-01-15 Hitachi Ltd データ記憶サブシステム
GB2402297B (en) * 2003-05-15 2005-08-17 Sun Microsystems Inc Update dependency control for multi-master replication
JP2004348193A (ja) * 2003-05-20 2004-12-09 Hitachi Ltd 情報処理システムおよびそのバックアップ方法
US7246254B2 (en) * 2003-07-16 2007-07-17 International Business Machines Corporation System and method for automatically and dynamically optimizing application data resources to meet business objectives
JP4426280B2 (ja) * 2003-12-25 2010-03-03 株式会社日立製作所 バックアップ/リストアシステム及び方法
US7139851B2 (en) * 2004-02-25 2006-11-21 Hitachi, Ltd. Method and apparatus for re-synchronizing mirroring pair with data consistency
JP4452533B2 (ja) * 2004-03-19 2010-04-21 株式会社日立製作所 システムおよび記憶装置システム
JP4581500B2 (ja) * 2004-06-17 2010-11-17 株式会社日立製作所 ディザスタリカバリシステム、プログラム及びデータベースのリカバリ方法

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140651A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 計算機システム
JP2007286860A (ja) * 2006-04-17 2007-11-01 Hitachi Ltd データ転送方法及び情報処理装置
US8024537B2 (en) 2006-04-26 2011-09-20 Hitachi, Ltd. Storage system, remote copy and management method therefor
JP2007293651A (ja) * 2006-04-26 2007-11-08 Hitachi Ltd ストレージシステム、リモートコピー、その管理方法
US8307178B2 (en) 2006-04-26 2012-11-06 Hitachi, Ltd. Storage system, remote copy and management method therefor
JP2007310788A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd ストレージ装置のデータ管理方法、ストレージ装置、および、計算機システム
JP2008117342A (ja) * 2006-11-08 2008-05-22 Hitachi Ltd ストレージシステムおよびリモートコピーを制御するためのコントローラ
JP2009064121A (ja) * 2007-09-05 2009-03-26 Nec Corp データ複製装置
JP2009151637A (ja) * 2007-12-21 2009-07-09 Nomura Research Institute Ltd 業務継続システム
JP2009245167A (ja) * 2008-03-31 2009-10-22 Fujitsu Ltd リストア管理プログラム、リストア管理方法およびリストア管理装置
JP4579998B2 (ja) * 2008-03-31 2010-11-10 富士通株式会社 リストア管理プログラム、リストア管理方法およびリストア管理装置
US8074100B2 (en) 2008-03-31 2011-12-06 Fujitsu Limited Method and apparatus for restore management
JP2012510094A (ja) * 2008-10-21 2012-04-26 グーグル インコーポレイテッド 常にレディ状態のクライアント/サーバ同期
US9367599B2 (en) 2008-10-21 2016-06-14 Google Inc. Search based specification for data synchronization
JP2012510652A (ja) * 2008-10-21 2012-05-10 グーグル インコーポレイテッド データの同期のための検索ベースの仕様
US8965954B2 (en) 2008-10-21 2015-02-24 Google Inc. Always ready client/server data synchronization
JP2011043888A (ja) * 2009-08-19 2011-03-03 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置、方法、システム、およびプログラム
JP2011060292A (ja) * 2009-09-14 2011-03-24 Internatl Business Mach Corp <Ibm> 複製データベースのハイブリッド・レプリケーションのための装置、コンピュータ実装方法及びコンピュータ・ソフトウエア・プログラム
US9122787B2 (en) 2009-09-17 2015-09-01 Hitachi, Ltd. Method and apparatus to utilize large capacity disk drives
JP2011065625A (ja) * 2009-09-17 2011-03-31 Hitachi Ltd 大容量ディスクドライブの使用方法及び装置
US9389975B2 (en) 2009-09-17 2016-07-12 Hitachi, Ltd. Method and apparatus to utilize large capacity disk drives
JP2012069031A (ja) * 2010-09-27 2012-04-05 Nec Corp データベースシステム
JP2013061883A (ja) * 2011-09-14 2013-04-04 Fujitsu Ltd リストア処理プログラム、リストア方法、及び情報処理装置
JP2014222451A (ja) * 2013-05-14 2014-11-27 株式会社東芝 データベース管理システムおよびその書き込み方式管理方法
JP2018005508A (ja) * 2016-06-30 2018-01-11 株式会社東芝 マスターサーバ、テーブル更新方法、およびプログラム

Also Published As

Publication number Publication date
EP1569120A1 (en) 2005-08-31
DE602004005415D1 (de) 2007-05-03
US20050193248A1 (en) 2005-09-01
DE602004005415T2 (de) 2007-12-13
US7266718B2 (en) 2007-09-04
EP1569120B1 (en) 2007-03-21

Similar Documents

Publication Publication Date Title
JP2005242403A (ja) 計算機システム
JP4800031B2 (ja) ストレージシステム及びスナップショット管理方法
JP4993913B2 (ja) 記憶制御装置及びそのデータ管理方法
JP5254611B2 (ja) 固定内容分散データ記憶のためのメタデータ管理
JP5918243B2 (ja) 分散型データベースにおいてインテグリティを管理するためのシステム及び方法
US8266401B2 (en) Storage controller and data management method
JP4477950B2 (ja) リモートコピーシステム及び記憶装置システム
US8935211B2 (en) Metadata management for fixed content distributed data storage
EP1712998B1 (en) Remote copy system and remote copy method
JP4615344B2 (ja) データ処理システム及びデータベースの管理方法
JP2004334574A (ja) ストレージの運用管理プログラム、運用管理方法及び管理計算機
US7509467B2 (en) Storage controller and data management method
JP2005196683A (ja) 情報処理システム、情報処理装置、及び情報処理システムの制御方法
JP2013544386A5 (ja)
JP2004252686A (ja) 情報処理システム
US10846012B2 (en) Storage system for minimizing required storage capacity during remote volume replication pair duplication
AU2011265370B2 (en) Metadata management for fixed content distributed data storage
JP2008033967A (ja) 外部記憶装置及び外部記憶装置のデータ回復方法並びにプログラム
JP2006350460A (ja) 計算機システムおよび計算機制御方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071012

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100121