JP4515132B2 - ストレージシステム、ストレージ装置及びリモートコピー方法 - Google Patents

ストレージシステム、ストレージ装置及びリモートコピー方法 Download PDF

Info

Publication number
JP4515132B2
JP4515132B2 JP2004103821A JP2004103821A JP4515132B2 JP 4515132 B2 JP4515132 B2 JP 4515132B2 JP 2004103821 A JP2004103821 A JP 2004103821A JP 2004103821 A JP2004103821 A JP 2004103821A JP 4515132 B2 JP4515132 B2 JP 4515132B2
Authority
JP
Japan
Prior art keywords
data
update
volume
differential
transfer unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004103821A
Other languages
English (en)
Other versions
JP2005292952A5 (ja
JP2005292952A (ja
Inventor
信之 雑賀
直大 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004103821A priority Critical patent/JP4515132B2/ja
Priority to US10/898,356 priority patent/US7103713B2/en
Publication of JP2005292952A publication Critical patent/JP2005292952A/ja
Priority to US11/492,027 priority patent/US20060259725A1/en
Publication of JP2005292952A5 publication Critical patent/JP2005292952A5/ja
Application granted granted Critical
Publication of JP4515132B2 publication Critical patent/JP4515132B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1466Management of the backup or restore process to make the backup process non-disruptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1456Hardware arrangements for backup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Description

本発明は、スナップショット機能を有するストレージシステムに関し、特に、スナップショットのデータを転送する技術に関する。
情報化社会において、情報を蓄積するストレージシステムの重要な役割の一つに、データ保護がある。データ保護のもっとも一般的な方法は、テープをはじめとするバックアップメディアにストレージ上のデータの複製を保存するバックアップである。バックアップは、故障や障害、或いは、操作ミスなどによって、運用中のストレージ上のデータが失われたとしても、バックアップに基づいてデータを復元することで、保存した時点のデータに回復することを可能にし、被害を最小限に抑えることができる。
しかし、ストレージの大容量化に伴い、バックアップに要する時間が問題となってきている。さらに、データの更新頻度が高い用途では、一度バックアップを作成しても、すぐにバックアップとの差が拡大し、万が一の際、被害が増大してしまうため、頻繁にバックアップを作成することが必要となってきている。また、操作ミスなどによるファイル紛失や、ファイルの内容を過去の状態と比較したい場合などに備えて、定期的なバックアップを容易に参照可能にしたいという要求がある。
このような用途に応える機能として、スナップショット機能が注目されている。スナップショット機能は、スナップショットを取得した瞬間の運用中のストレージ上のデータイメージを維持すると共に、運用中のストレージとは別の手段によってアクセス可能にする機能である。スナップショットは、取得時点で、ストレージ上のデータ全体のコピー完了を待つことなく利用可能にすることにより、テープバックアップで問題となっていたバックアップ時間を極小化する。
このスナップショットを維持するため、スナップショット時のデータを保存する保存記憶領域を利用する方法がある(例えば、特許文献1参照。)。
これによれば、運用ボリュームのスナップショットを取得すると、それ以降に発生する未更新ブロックの更新時に、当該ブロックの旧データを、保存記憶領域にコピーするとともに、スナップショットを提供する仮想ボリュームを生成する。仮想ボリュームからの読み出しは、読み出すアドレスのブロックが保存記憶領域にコピー済であれば、そのブロックを返す。保存記憶領域にコピーがなければ、運用ボリュームに変更が生じていないため、運用ボリュームの同じアドレスのブロックを返す。
この技術によれば、スナップショット取得時点での運用ボリュームの全てのデータを別のボリュームに保存しておく場合と比較して、少ない記憶容量でスナップショット取得時点での運用ボリュームのイメージを維持することができる。
また、ストレージシステムに格納されたデータの移行には、上位装置(ホスト)からアクセス中のデータ移行には、拡張データ転送機能(XRC:Extended Remote Copy)、又は対等データ転送機能(PPRC:Peer-to-Peer Remote Copy)がIBM社から提案されている(例えば、非特許文献1参照。)。
米国特許第5649152号明細書 「Implementing ESS Copy Services on S/390」,IBM P.502.8.5 DASD migration
前述したスナップショットは、プライマリボリューム、差分ボリューム及びマッピングテーブルによって実現される。しかし、スナップショットデータを移行する際に、この3つを同期してコピーすることは考慮されていなかった。このため、例えば、プライマリボリューム、差分ボリューム及びマッピングテーブルのコピーに時間差が生じると、その間はスナップショットのデータが整合せず、スナップショット作成時のイメージ(仮想ボリューム)が構成できない問題が生じる。さらに、プライマリボリューム及び差分ボリュームをコピーしたところで、データ転送機能に障害が生じ、マッピングテーブルがコピーされなかった場合には、スナップショットの仮想ボリュームが構成できない問題が生じる。
本発明は、スナップショットデータを安全にコピーすることができるストレージシステムを提供することを目的とする。
本発明は、通常運用に供されるディスクドライブを有する第1ディスクサブシステムと、前記第1ディスクサブシステムに記憶されるデータの複製を記憶するディスクドライブを有する第2ディスクサブシステムと、前記第1ディスクサブシステムと前記第2ディスクサブシステムとの間を接続する通信回線と、を備え、前記第1ディスクサブシステムには、通常の読み書きを行う第1運用ボリュームと、前記第1運用ボリュームのスナップショットの差分データを記憶する第1差分ボリュームと、前記差分データを管理する第1管理情報保持部と、前記第2ディスクサブシステムとの間でデータを転送する第1データ転送部と、が設けられ、前記第2ディスクサブシステムには、前記第1運用ボリュームに記憶されるデータの複製を記憶する第2運用ボリュームと、前記第2運用ボリュームのスナップショットの差分データを記憶する第2差分ボリュームと、前記差分データを管理する第2管理情報保持部と、前記第1ディスクサブシステムとの間でデータを転送する第2データ転送部と、が設けられるストレージシステムであって、
前記第1データ転送部は、前記通信回線の負荷状況を判定し、前記通信回線の負荷が大きいと判定された場合、前記第1データ転送部は、前記第1運用ボリュームに書き込まれる更新データ、及び前記更新データが書き込まれる更新位置を前記第2データ転送部に送信し、
前記第2データ転送部は、前記更新データ及び前記更新位置を受信すると、前記第2運用ボリュームの前記受信した更新位置に格納されているデータを読み出して差分データとして前記第2差分ボリュームに格納し、前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、前記差分データの第2差分ボリュームへの格納位置に基づいて前記第2管理情報保持部を更新し、その後、データ更新の完了を前記第1データ転送部に通知し、
一方、前記通信回線の負荷が小さいと判定された場合、前記第1データ転送部は、前記第1運用ボリュームに書き込まれる更新データ、前記更新データが書き込まれる更新位置、前記第1運用ボリュームの前記更新位置に格納されている差分データ及び前記差分データの格納位置を示す管理情報を前記第2データ転送部に送信し、前記第2データ転送部は、前記更新データ、前記更新位置、前記差分データ及び前記管理情報を受信すると、前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、前記受信した差分データを前記第2差分ボリュームに格納し、前記受信した管理情報に基づいて前記第2管理情報保持部を更新し、その後、データ更新の完了を前記第1データ転送部に通知し、
前記第1データ転送部は、前記第2データ転送部からのデータ更新完了通知を受信すると、前記第1運用ボリュームの前記更新位置に格納されているデータを読み出して差分データとして前記第1差分ボリュームに格納し、前記更新データを前記第1運用ボリュームの前記更新位置に格納し、前記差分データの第1差分ボリュームへの格納位置に基づいて前記第1管理情報保持部を更新する。
本発明によると、スナップショットのデータの整合が保たれ、デイザスタリカバリを強化することができる。
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の実施の形態のストレージシステムの構成を示すブロック図である。
NAS(Network Attached Storage)1は、ディスクサブシステム2に接続されている。ローカル側のNAS1は、ネットワーク6を介してCIFS(Common Internet File System)を使用するクライアント7やNFS(Network File System)を使用するクライアントに接続されている。ネットワーク6は、例えば、TCP/IP等のプロトコルで通信を行う。なお、ファイバチャネルや、iSCSI(internet SCSI)によって通信可能なものであってもよい。NAS1は、ファイルサーバ(NEF/CIFSサーバ部)を備えており、ファイルサーバによってクライアント6、7に対してファイル共有サービスを提供する。
また、NAS1は、差分スナップショット部を備えている。差分スナップショット部は、後述する差分スナップショット作成プログラム122、差分スナップショット管理プログラム123、及び差分スナップショット合成プログラム124によって、スナップショットの作成、維持、仮想ボリュームの合成を行う。
ローカル側のディスクサブシステム2には、複数のディスクドライブが設けられている。ディスクドライブには、OSが単一のディスクとして認識できる単位である論理ユニット(LU)が設定されている。また、ディスクドライブは主ボリューム群を構成し、主ボリューム群にはプライマリボリューム201、差分ボリューム202、及びマッピングテーブル203を備える。
また、論理ユニットはRAID(Redundant Array of Independent Disks)によって構成されており、記憶されるデータに冗長性を持たせている。このため、ディスクドライブの一部に障害が生じても、記憶されたデータが消失しないようになっている。
プライマリボリューム201は、通常の運用に供されるボリュームであり、クライアント7、8からアクセスがされ、データが読み書きされる。差分ボリューム202は、スナップショットのコピーオンライト時に、プライマリボリューム201に記憶されていたデータが格納される。マッピングテーブル203は、スナップショットの世代毎に、プライマリボリューム201と差分ボリューム202との関係が記録されている。
また、ディスクサブシステム2にはリモートコピー部が備わっている。リモートコピー部は、主ボリューム群に記憶されたデータの変更箇所を検出し、リモート側ディスクサブシステム4にデータを転送するもので、主ボリューム群に記憶されたリモートコピープログラム204が実行されることによって実現される。
リモート側にはリモート側NAS3及びリモート側ディスクサブシステム4が設けられており、ローカル側NAS1及びローカル側ディスクサブシステム2と同じ機能を提供することができる。
ローカル側とリモート側とはデータ転送用ネットワーク5によって接続されている。ネットワーク5は、ローカル側のNAS1とリモート側のNAS3、及び、ローカル側のディスクサブシステム2とリモート側のディスクサブシステム4の間をデータ転送可能に接続しており、TCP/IPプロトコルによって信号(データ、制御信号)を送受信する。なお、ネットワーク5は、よりデータの転送に好適なファイバチャネル(Fibre Channel)プロトコルによって信号(データ、制御信号)を送受信するSAN(Storage Area Network)でもよい。
なお、ローカル側からリモート側へのデータのバックアップは、NAS間で行う場合と、ディスクサブシステム間で行う場合とが考えられる。以下の実施の形態ではディスクサブシステム間のデータバックアップについて説明するが、本発明はNAS間のデータバックアップに適用してもよい。
また、ローカル側、リモート側共にNASとディスクサブシステムを別に設ける実施の形態について説明したが、NASとディスクサブシステムを一体としたストレージ装置にも本発明を適用することができる。
図2は、本発明の実施の形態のNAS1の構成を示すブロック図である。
NAS1には、CPU11、メモリ12、ネットワークインターフェース14及びストレージインターフェース15が設けられている。
ネットワークインターフェース14は、クライアント6、7との間でTCP/IPプロトコルによってデータや制御信号を送受信する。
ストレージインターフェース15は、ディスクサブシステム2との間でファイバチャネル(Fibre Channel)に基づくデータや制御信号を送受信する。
メモリ12には、ディスクに読み書きされるデータを一時的に記憶するキャッシュメモリが設けられている。また、メモリ12には、ファイルサーバプログラム121、差分スナップショット作成プログラム122、差分スナップショット管理プログラム123、差分スナップショット合成プログラム124、及びファイルシステム処理プログラム125が記憶されており、CPU11がこれらのプログラムを呼び出して実行することによって、各種処理が行われる。
ファイルサーバプログラム121は、クライアント6、7からのデータアクセス要求に応じて、ファイルシステム処理プログラム125に対してファイルやディレクトリの読み出し処理又は書き込み処理の実行を要求し、その実行結果を要求元であるクライアント6、7に返送する。
スナップショット作成プログラム122は、スナップショット作成要求を受信すると、ディスクサブシステム2プライマリボリュームに対するスナップショットを作成する。具体的には、マッピングテーブル203の領域を設定する。
差分スナップショット管理プログラム123は、スナップショットの維持に必要な差分データを格納する差分ボリューム202を管理し、ファイルシステム処理プログラム125の要求に応じたデータ書き込み及びスナップショットを維持する処理を行う。具体的には、マッピングテーブル203を用いて、プライマリボリューム201にデータを書き込む際に、プライマリボリューム201に記憶されていた差分データを差分ボリュームにコピーした後、プライマリボリューム201に更新データを書き込み、記憶内容を更新する。
差分スナップショット合成プログラム124は、プライマリボリューム201及び差分ボリューム202を使用して、ファイルシステム管理プログラム125の要求に応じて仮想ボリュームの読み出し処理(すなわち、スナップショットを利用可能にする処理)を行う。具体的には、マッピングテーブル203を参照して、プライマリボリューム201又は差分ボリューム202のいずれからデータを読み出すかを決定し、決定されたボリュームからデータを読み出して、スナップショット作成要求時にプライマリボリューム201に記憶されていたデータを提供する仮想ボリュームを合成する。
ファイルシステム処理プログラム125は、ファイルサーバプログラム121や、差分スナップショット管理プログラム123が発行するファイルやディレクトリの読み出し要求及び書き込み要求に応じて、ファイルやディレクトリを格納しているボリューム及びアクセスするブロックの位置及びサイズを指定する。また、仮想ボリュームの読み出し処理や書き込み処理をスナップショット合成プログラム124に対して発行する。
次にスナップショットの管理について説明する。図3、図4は、本発明の実施の形態のスナップショットの管理の説明図である。
スナップショット作成プログラム122は、スナップショット作成要求を受信すると、マッピングテーブル203に新しい仮想ボリュームの識別情報(図3の「マッピングテーブルのスナップショット1差分ボリューム格納位置」欄)を登録する。この仮想ボリュームのブロックは、スナップショット作成時点では、マッピングテーブル203の差分ボリューム格納位置欄にデータの格納位置が登録されないことによって、プライマリボリューム201のブロックと一対一で対応付けられている。
その後、プライマリボリューム201内のデータが更新される際には、スナップショット管理プログラム123は、プライマリボリューム201内の更新前の差分データを差分ボリューム202に複写し、この複写後にプライマリボリューム201に更新データを書き込んで、プライマリボリューム201記憶内容を更新する。なお、このデータのプライマリボリューム201から差分ボリューム202へのデータの複写は、現実にデータを移動させても、データの格納場所を示すポインタを書き換えてもよい。
更に、スナップショット管理プログラム124は、データが更新されたプライマリボリューム201内のブロックに対応する仮想ボリューム202内のブロックを、スナップショット作成時点でプライマリボリューム201に格納されていたデータ(すなわち更新前のデータ)が格納されている差分ボリューム202のブロックと対応付けるようマッピングテーブル203を更新する。
例えば、図4において、スナップショット1の作成からスナップショット2の作成までの間に、プライマリボリュームのP1に格納されているデータが”aaaaa”に書き換えられる際に、プライマリボリュームのP1に格納されていた差分データ”AAAAA”が差分ボリュームのD1にコピーされた後、プライマリボリュームのP1に更新データ”aaaaa”が格納される。このとき、マッピングテーブルのP1欄には差分データの格納位置D1が記憶される。さらに、マッピングテーブルの変更有無ビットマップの上位第1ビットには、スナップショット1に対して差分データが記憶されていることを示す”1”が記憶される。
また、スナップショット2の作成から現時点までの間に、プライマリボリュームのP2が”bbbbb”に書き換えられる際に、プライマリボリュームのP2に格納されていた差分データ”BBBBB”が差分ボリュームのD2にコピーされた後、プライマリボリュームのP2に更新データ”bbbbb”が格納される。このとき、マッピングテーブルのP2欄には差分データの格納位置D2が記憶される。このとき、スナップショット2の差分ボリューム格納位置だけでなく、この差分データを必要とするスナップショット1の差分ボリューム格納位置にもD2が記憶される。さらに、マッピングテーブルの変更有無ビットマップの第1ビット及び第2ビットには、スナップショット1及び2に対して差分データが記憶されていることを示す”1”が記憶される(すなわち、変更有無ビットマップには”11”が記憶される)。
ファイルシステム処理プログラム125が仮想ボリュームに対するアクセス要求をスナップショット合成プログラム124に発行すると、スナップショット合成プログラム124はマッピングテーブルを参照して、仮想ボリュームのブロックと対応付けられているプライマリボリュームのブロック又は差分ボリュームのブロックからデータを読み出す。従って、ファイルシステム処理プログラム125は、仮想ボリュームにアクセスすることによって、スナップショットが作成要求が発行された時点においてプライマリボリュームに記憶されている情報を利用できるので、クライアント6、7にファイルシステムのスナップショットイメージを提供することができる。
すなわち、仮想ボリュームは1又は複数のディスク装置内の記憶領域からなる仮想的なボリュームであって、実際にはプライマリボリュームのブロックの一部と差分ボリュームのブロックの一部とから構成されている。
例えば、図4において、スナップショット1作成時のプライマリボリュームに対応する仮想ボリュームは、P1に対応する差分データである差分ボリュームのD1に記憶された”AAAAA”、P2に対応する差分データである差分ボリュームのD2に記憶された”BBBBB”、プライマリボリュームのP3に記憶された”CCCCC”(P3に対応する差分データはないためプライマリボリュームからデータを読み出す)の各々が読み出されて、これらのデータが合成されたものとなる。
図5は、本発明の第1の実施の形態のデータ転送処理のフローチャートである。
まず、ローカル側のデータ転送部は、差分スナップショット管理プログラム123によるデータ更新要求(すなわち、更新要求に基づくコピーオンライトの発生)を検出すると(S101)、更新要求を解析して、更新要求に含まれる更新データ(ディスクに書き込まれるデータ)とデータ更新位置(データを書き込むアドレス)を抽出する(S102)。その後、プライマリボリューム201の更新位置に記憶されている差分データ(更新前のデータ)を読み出す(S103)。さらに、差分データを格納する差分ボリュームの領域を決定し、当該データ更新後のマッピング情報(マッピングテーブルの更新位置に書き込まれる差分データを格納する領域の情報)を作成する(S104)。なお、この段階ではマッピングテーブル203にマッピング情報は書き込まれない。
そして、これら取得した更新データ、更新位置、差分データ及びマッピング情報をグループにまとめてリクエストに含めて、このリクエストをリモート側ディスクサブシステム4に送信する(S105)。
リモート側のデータ転送部は、リクエストの到着を監視している(S106)。リモート側のデータ転送部がローカル側ディスクサブシステム2からのリクエストを受信すると、受信したリクエストから更新データ、更新位置、差分データ及びマッピング情報を抽出する(S107〜S110)。
そして、プライマリボリューム401の更新位置にリクエストから抽出した更新データを書き込み(S111)、リクエストから抽出した差分データを差分ボリューム402に書き込む(S112)。この差分データの書き込み位置は、リクエストから抽出したマッピング情報に含まれる差分データの格納領域である。そして、リクエストから抽出したマッピング情報をマッピングテーブル403に書き込む(S113)。その後、リモート側のデータの更新が完了したので、ローカル側ディスクサブシステム2に完了通知を送信する(S114)。
リクエストを送信したローカル側のデータ転送部は、完了通知の到着を監視している(S115)。そして、ローカル側のデータ転送部がリモート側ディスクサブシステム4からの完了通知を受信すると、更新データをプライマリボリューム201に書き込み(S116)、S103で読み出した差分データを差分ボリューム202に書き込み(S117)、S104で作成したマッピング情報をマッピングテーブルに書き込む(S118)。
このように第1の実施の形態のデータ転送処理では、差分スナップショットに必要な更新データ、差分データ及びマッピング情報をグループ化して、ローカル側ディスクサブシステム2からリモート側ディスクサブシステム4に送信するので、ローカル側からリモート側へのデータ転送途中に障害が発生しても、スナップショットのデータの矛盾を回避することができる。
図6は、本発明の第2の実施の形態のデータ転送処理のフローチャートである。第2の実施の形態のデータ転送処理では、ローカル側からリモート側へ転送されるデータを必要最低限とし、転送性能重視している。
まず、ローカル側のデータ転送部は、差分スナップショット管理プログラム123によるデータ更新要求(すなわち、更新要求に基づくコピーオンライトの発生)を検出すると(S121)、更新要求を解析して、更新要求に含まれる更新データ(ディスクに書き込まれるデータ)とデータ更新位置(データを書き込むアドレス)を抽出する(S122)。そして、これら取得した更新データ及び更新位置をリクエストに含めて、このリクエストをリモート側ディスクサブシステム4に送信する(S123)。
リモート側のデータ転送部は、リクエストの到着を監視している(S124)。リモート側のデータ転送部がローカル側ディスクサブシステム2からのリクエストを受信すると、受信したリクエストから更新データ及び更新位置を抽出する(S125、S126)。
そして、プライマリボリューム401の更新位置(リクエストから抽出した更新位置)に格納されている差分データを読み出す(S127)。そして、差分データを書き込む領域を差分ボリューム402に確保し(S128)、S127で読み出した差分データをS128で確保した差分ボリューム402の領域に書き込む(S129)。その後、リクエストから抽出した更新データをリクエストから抽出した更新位置に書き込んで(S130)、マッピングテーブルの更新位置に差分データを格納した領域を書き込む(S131)。その後、リモート側のデータの更新が完了したので、ローカル側ディスクサブシステム2に完了通知を送信する(S132)。
リクエストを送信したローカル側のデータ転送部は、完了通知の到着を監視している(S133)。そして、ローカル側のデータ転送部がリモート側ディスクサブシステム4からの完了通知を受信すると、プライマリボリューム201の更新位置に格納されている差分データを読み出して、更新位置に更新データを書き込む(S134)。そして、更新位置から読み出した差分データを差分ボリューム202に格納し(S135)、マッピングテーブルの更新位置に差分データを格納した領域を書き込む(S136)。
このように第2の実施の形態のデータ転送処理では、ローカル側からリモート側へ転送されるデータを更新データと格納位置のみとし、コピーオンライトに必要な他の情報(差分データ、マッピングテーブルの情報)はリモート側で取得する。よって、ローカル側からリモート側へ転送されるデータを必要最低限に抑えることができ、転送処理に要する時間を短縮して、転送性能を向上させることができる。また、データ転送用ネットワーク5の負荷の増大を低減することができる。
図7は、本発明の第3の実施の形態のデータ転送処理のフローチャートである。第3の実施の形態のデータ転送処理では、差分データやマッピングテーブルの一致を確認した後にデータを更新し、データ同期の信頼性を向上させたものである。
まず、ローカル側のデータ転送部は、差分スナップショット管理プログラム123によるデータ更新要求(すなわち、更新要求に基づくコピーオンライトの発生)を検出すると(S141)、更新要求を解析して、更新要求に含まれる更新データ(ディスクに書き込まれるデータ)とデータ更新位置(データを書き込むアドレス)を抽出する(S142)。その後、プライマリボリューム201の更新位置に記憶されている差分データ(更新前のデータ)を読み出す(S143)。さらに、差分データを格納する差分ボリュームの領域を決定し、当該更新後のマッピング情報(マッピングテーブルの更新位置に書き込まれる差分データを格納する領域の情報)を作成する(S104)。なお、この段階ではマッピングテーブル203にマッピング情報は書き込まれない。
そして、これら取得した更新データ、更新位置、差分データ及びマッピング情報をグループにまとめてリクエストに含めて、このリクエストをリモート側ディスクサブシステム4に送信する(S145)。
リモート側のデータ転送部は、リクエストの到着を監視している(S146)。リモート側のデータ転送部がローカル側ディスクサブシステム2からのリクエストを受信すると、受信したリクエストから更新データ、更新位置、差分データ及びマッピング情報を抽出する(S147〜S150)。
そして、プライマリボリューム401の更新位置に記憶されているデータが、リクエストから抽出した差分データと等しいか否かを判定する(S151)。その結果、両データが等しくなければ、転送されたデータに異常があると判定し、管理者にエラーを報知する(S162)。一方、両データが等しければ、転送されたデータに異常はないと判定し、プライマリボリューム401の更新位置にリクエストから抽出した更新データを書き込む(S152)。
そして、リクエストから抽出した差分データを差分ボリューム402に書き込む(S153)。この差分データの書き込み位置は、リクエストから抽出したマッピング情報に含まれる差分データの格納領域である。その後、当該更新後のマッピング情報(マッピングテーブルの更新位置に書き込まれる差分データを格納する領域の情報)を作成する(S154)。
そして、S154で作成したマッピング情報と、リクエストから抽出したマッピング情報とが一致するか否かを判定する(S155)。その結果、両マッピング情報が一致しなければ、転送されたデータに異常があると判定し、管理者にエラーを報知する(S162)。なお、このとき、既にプライマリボリューム401に更新位置に差分データを書き込み、また、差分ボリューム402に書き込んだデータを消去することによって、プライマリボリューム401と差分ボリューム402をデータ更新前の状態に戻すとよい。
一方、両マッピング情報が等しければ、転送されたデータに異常はないと判定し、リクエストから抽出したマッピング情報をマッピングテーブル403に書き込む(S156)。その後、リモート側のデータの更新が完了したので、ローカル側ディスクサブシステム2に完了通知を送信する(S157)。
リクエストを送信したローカル側のデータ転送部は、完了通知の到着を監視している(S158)。そして、ローカル側のデータ転送部がリモート側ディスクサブシステム4からの完了通知を受信すると、更新データをプライマリボリューム201に書き込み(S159)、S143で読み出した差分データを差分ボリューム202に書き込み(S160)、S144で作成したマッピング情報をマッピングテーブルに書き込む(S161)。
このように第3の実施の形態のデータ転送処理では、更新データ、更新データの格納位置、差分データ及びマッピング情報を、ローカル側からリモート側へ転送し、ローカル側の差分データとリモート側の差分データとが一致することを確認して更新データを書き込む。さらに、ローカル側で作成されたマッピング情報とリモート側で作成されたマッピング情報とが一致することを確認してマッピングテーブルを更新する。よって、第1の実施の形態の効果に加え、データ転送の信頼性をさらに向上させることができる。
図8、図9、図10は、本発明の第4の実施の形態のデータ転送処理のフローチャートである。第4の実施の形態のデータ転送処理では、前述した他の実施の形態の処理と異なり、データ転送用ネットワーク5の混雑度によってデータ転送方法を変えるものである。
図8は、ローカル側ディスクサブシステムの転送処理のフローチャートである。
まず、ローカル側のデータ転送部は、差分スナップショット管理プログラム123によるデータ更新要求(すなわち、更新要求に基づくコピーオンライトの発生)を検出すると(S171)、更新要求を解析して、更新要求に含まれる更新データ(ディスクに書き込まれるデータ)とデータ更新位置(データを書き込むアドレス)を抽出する(S172)。その後、プライマリボリューム201の更新位置に記憶されている差分データ(更新前のデータ)を読み出す(S173)。さらに、差分データを格納する差分ボリュームの領域を決定し、当該データ更新後のマッピング情報(マッピングテーブルの更新位置に書き込まれる差分データを格納する領域の情報)を作成する(S174)。なお、この段階ではマッピングテーブル203にマッピング情報は書き込まれない。
その後、ローカル側のデータ転送部は、データ転送用ネットワーク5の利用率を監視しており、この利用率を計算する(S175)。この利用率の計算は、例えば、過去1時間に送信したデータ量を1時間あたりの回線速度(転送可能なデータ量)で除することによって求めることができる。
そして、計算された利用率と予め設定された上限値とを比較する(S176)。その結果、ネットワーク利用率が上限値を超えていれば、データ転送用ネットワーク5の負荷が大きいと判定する。そして、これら取得した更新データ及び更新位置をリクエストに含めて、リモート側ディスクサブシステム4の受信処理1にリクエストを送信する(S177)。
一方、ネットワーク利用率が上限値を超えていなければ、データ転送用ネットワーク5の負荷は小さい(まだ余裕がある)と判定し、これら取得した更新データ、更新位置、差分データ及びマッピング情報をグループにまとめてリクエストに含めて、リモート側ディスクサブシステム4の受信処理2にリクエストを送信する(S178)。
リクエストを送信したローカル側のデータ転送部は、完了通知の到着を監視している(S179)。そして、ローカル側のデータ転送部がリモート側ディスクサブシステム4からの完了通知を受信すると、更新データをプライマリボリューム201に書き込み(S180)、S173で読み出した差分データを差分ボリューム202に書き込み(S181)、S174で作成したマッピング情報をマッピングテーブルに書き込む(S182)。
図9は、リモート側ディスクサブシステムの受信処理1のフローチャートである。
リモート側のデータ転送部は、リクエストの到着を監視している(S191)。リモート側のデータ転送部がローカル側ディスクサブシステム2からの受信処理1に対するリクエストを受信すると、受信したリクエストから更新データ及び更新位置を抽出する(S192、S193)。
そして、プライマリボリューム401の更新位置(リクエストから抽出した更新位置)に格納されている差分データを読み出す(S194)。そして、差分データを書き込む領域を差分ボリューム402に確保し(S195)、S194で読み出した差分データをS195で確保した差分ボリューム402の領域に書き込む(S196)。その後、リクエストから抽出した更新データをリクエストから抽出した更新位置に書き込んで(S197)、マッピングテーブルの更新位置に差分データを格納した領域を書き込む(S198)。その後、リモート側のデータの更新が完了したので、ローカル側ディスクサブシステム2に完了通知を送信する(S199)。
図10は、リモート側ディスクサブシステムの受信処理1のフローチャートである。
リモート側のデータ転送部は、リクエストの到着を監視している(S201)。リモート側のデータ転送部がローカル側ディスクサブシステム2からの受信処理2に対するリクエストを受信すると、受信したリクエストから更新データ、更新位置、差分データ及びマッピング情報を抽出する(S202〜S205)。
そして、プライマリボリューム401の更新位置に記憶されているデータが、リクエストから抽出した差分データと等しいか否かを判定する(S206)。その結果、両データが等しくなければ、転送されたデータに異常があると判定し、管理者にエラーを報知する(S213)。一方、両データが等しければ、転送されたデータに異常はないと判定し、プライマリボリューム401の更新位置にリクエストから抽出した更新データを書き込む(S207)。
そして、リクエストから抽出した差分データを差分ボリューム402に書き込む(S208)。この差分データの書き込み位置は、リクエストから抽出したマッピング情報に含まれる差分データの格納領域である。その後、当該更新後のマッピング情報(マッピングテーブルの更新位置に書き込まれる差分データを格納する領域の情報)を作成する(S209)。
そして、S209で作成したマッピング情報と、リクエストから抽出したマッピング情報とが一致するか否かを判定する(S210)。その結果、両マッピング情報が一致しなければ、転送されたデータに異常があると判定し、管理者にエラーを報知する(S213)。なお、このとき、既にプライマリボリューム401に更新位置に差分データを書き込み、また、差分ボリューム402に書き込んだデータを消去することによって、プライマリボリューム401と差分ボリューム402をデータ更新前の状態に戻すとよい。
一方、両マッピング情報が等しければ、転送されたデータに異常はないと判定し、リクエストから抽出したマッピング情報をマッピングテーブル403に書き込む(S211)。その後、リモート側のデータの更新が完了したので、ローカル側ディスクサブシステム2に完了通知を送信する(S212)。
このように第4の実施の形態のデータ転送処理では、ローカル側とリモート側を接続するデータ転送用ネットワーク5の負荷状況(回線利用率)に応じて、ローカル側からリモート側へ転送されるデータを変更する。すなわち、回線が混雑しているときは転送データ量を減らし、空いているときはコピーオンライトに関する冗長データを付加して信頼性を確保することができる。
本発明の実施の形態のストレージシステムの構成を示すブロック図である。 本発明の実施の形態のNAS1の構成を示すブロック図である。 本発明の実施の形態のスナップショットの管理の説明図である。 本発明の実施の形態のスナップショットの管理の説明図である。 本発明の第1の実施の形態のデータ転送処理のフローチャートである。 本発明の第2の実施の形態のデータ転送処理のフローチャートである。 本発明の第3の実施の形態のデータ転送処理のフローチャートである。 本発明の第4の実施の形態のデータ転送処理のうちローカル側の転送処理のフローチャートフローチャートである。 本発明の第4の実施の形態のデータ転送処理のうちリモート側の受信処理1のフローチャートである。 本発明の第4の実施の形態のデータ転送処理のうちリモート側の受信処理2のフローチャートである。
符号の説明
1 ローカル側NAS
2 ローカル側ディスクサブシステム
3 リモート側NAS
4 リモート側ディスクサブシステム
5 データ転送用ネットワーク
6 LAN
7 CIFSクライアント
8 NFSクライアント
11 CPU
12 メモリ
14 ネットワークインターフェース
15 ストレージインターフェース
121 ファイルサーバプログラム
122 差分スナップショット作成プログラム
123 差分スナップショット管理プログラム
124 差分スナップショット合成プログラム
125 ファイルシステム処理プログラム
201、401 プライマリボリューム
202、402 差分ボリューム
203、403 マッピングテーブル

Claims (4)

  1. 通常運用に供されるディスクドライブを有する第1ディスクサブシステムと、前記第1ディスクサブシステムに記憶されるデータの複製を記憶するディスクドライブを有する第2ディスクサブシステムと、前記第1ディスクサブシステムと前記第2ディスクサブシステムとの間を接続する通信回線と、を備え、
    前記第1ディスクサブシステムには、通常の読み書きを行う第1運用ボリュームと、前記第1運用ボリュームのスナップショットの差分データを記憶する第1差分ボリュームと、前記差分データを管理する第1管理情報保持部と、前記第2ディスクサブシステムとの間でデータを転送する第1データ転送部と、が設けられ、
    前記第2ディスクサブシステムには、前記第1運用ボリュームに記憶されるデータの複製を記憶する第2運用ボリュームと、前記第2運用ボリュームのスナップショットの差分データを記憶する第2差分ボリュームと、前記差分データを管理する第2管理情報保持部と、前記第1ディスクサブシステムとの間でデータを転送する第2データ転送部と、が設けられるストレージシステムであって、
    前記第1データ転送部は、前記通信回線の負荷状況を判定し、
    前記通信回線の負荷が大きいと判定された場合、前記第1データ転送部は、前記第1運用ボリュームに書き込まれる更新データ、及び前記更新データが書き込まれる更新位置を前記第2データ転送部に送信し、
    前記第2データ転送部は、前記更新データ及び前記更新位置を受信すると、
    前記第2運用ボリュームの前記受信した更新位置に格納されているデータを読み出して差分データとして前記第2差分ボリュームに格納し、
    前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記差分データの第2差分ボリュームへの格納位置に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知し、
    一方、前記通信回線の負荷が小さいと判定された場合、前記第1データ転送部は、前記第1運用ボリュームに書き込まれる更新データ、前記更新データが書き込まれる更新位置、前記第1運用ボリュームの前記更新位置に格納されている差分データ及び前記差分データの格納位置を示す管理情報を前記第2データ転送部に送信し、
    前記第2データ転送部は、前記更新データ、前記更新位置、前記差分データ及び前記管理情報を受信すると、
    前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記受信した差分データを前記第2差分ボリュームに格納し、
    前記受信した管理情報に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知し、
    前記第1データ転送部は、前記第2データ転送部からのデータ更新完了通知を受信すると、
    前記第1運用ボリュームの前記更新位置に格納されているデータを読み出して差分データとして前記第1差分ボリュームに格納し、
    前記更新データを前記第1運用ボリュームの前記更新位置に格納し、
    前記差分データの第1差分ボリュームへの格納位置に基づいて前記第1管理情報保持部を更新するストレージシステム。
  2. 前記第2データ転送部は、前記更新データ、前記更新位置、前記差分データ及び前記管理情報を受信すると、
    前記受信した差分データと、前記第2差分ボリュームの前記更新位置に格納されているデータとを比較し、
    前記両データが一致している場合、前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記受信した差分データを前記第2差分ボリュームに格納し、
    前記受信した管理情報と、前記差分データの第2差分ボリュームへの格納位置に基づいて生成された管理情報とを比較し、
    前記両管理情報が一致している場合、前記受信した管理情報に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知する請求項1に記載のストレージシステム。
  3. 通常運用に供されるディスクドライブを有する第1ディスクサブシステムと、前記第1ディスクサブシステムに記憶されるデータの複製を記憶するディスクドライブを有する第2ディスクサブシステムと、前記第1ディスクサブシステムと前記第2ディスクサブシステムとの間を接続する通信回線と、を備え、
    前記第1ディスクサブシステムには、通常の読み書きが行われる第1運用ボリュームと、前記第1運用ボリュームのスナップショットの差分データを記憶する第1差分ボリュームと、前記差分データを管理する第1管理情報保持部と、前記第2ディスクサブシステムとの間でデータを転送する第1データ転送部と、が設けられ、
    前記第2ディスクサブシステムには、前記第1運用ボリュームに記憶されるデータの複製を記憶する第2運用ボリュームと、前記第2運用ボリュームのスナップショットの差分データを記憶する第2差分ボリュームと、前記差分データを管理する第2管理情報保持部と、前記第1ディスクサブシステムとの間でデータを転送する第2データ転送部と、が設けられるストレージシステムに用いられるリモートコピー方法であって、
    前記方法は、前記第1データ転送部が、前記通信回線の負荷状況を判定し、
    前記通信回線の負荷が大きいと判定された場合は、前記第1データ転送部が、前記第1運用ボリュームに書き込まれる更新データ、及び前記更新データが書き込まれる更新位置を前記第2データ転送部に送信する第1手順と、
    前記第2データ転送部が、前記更新データ及び前記更新位置を受信すると、
    前記第2運用ボリュームの前記受信した更新位置に格納されているデータを読み出して差分データとして前記第2差分ボリュームに格納し、
    前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記差分データの第2差分ボリュームへの格納位置に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知する第2手順と、を実行し、
    一方、前記通信回線の負荷が小さいと判定された場合、前記第1データ転送部が、前記第1運用ボリュームに書き込まれる更新データ、前記更新データが書き込まれる更新位置、前記第1運用ボリュームの前記更新位置に格納されている差分データ及び前記差分データの格納位置を示す管理情報を前記第2データ転送部に送信する第4手順と、
    前記第2データ転送部が、前記更新データ、前記更新位置、前記差分データ及び前記管理情報を受信すると、
    前記受信した更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記受信した差分データを前記第2差分ボリュームに格納し、
    前記受信した管理情報に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知する第5手順と、を実行し、
    前記第1データ転送部が、前記第2データ転送部からのデータ更新完了通知を受信すると、
    前記第1運用ボリュームの前記更新位置に格納されているデータを読み出して差分データとして前記第1差分ボリュームに格納し、
    前記更新データを前記第1運用ボリュームの前記更新位置に格納し、
    前記差分データの第1差分ボリュームへの格納位置に基づいて前記第1管理情報保持部を更新する第3手順と、を有するリモートコピー方法。
  4. 前記方法は、
    前記第2データ転送部が、前記更新データ、前記更新位置、前記差分データ及び前記管理情報を受信すると、
    前記受信した差分データと、前記第2差分ボリュームの前記更新位置に格納されているデータとを比較し、
    前記両差分データが一致している場合に、前記第1データ転送部から送信された更新データを前記第2運用ボリュームの前記更新位置に格納し、
    前記受信した差分データを前記第2差分ボリュームに格納し、
    前記受信した管理情報と、前記差分データの第2差分ボリュームへの格納位置に基づいて生成された管理情報とを比較し、
    前記両管理情報が一致している場合、前記受信した管理情報に基づいて前記第2管理情報保持部を更新し、
    その後、データ更新の完了を前記第1データ転送部に通知する手順を有する請求項3に記載のリモートコピー方法。
JP2004103821A 2004-03-31 2004-03-31 ストレージシステム、ストレージ装置及びリモートコピー方法 Expired - Fee Related JP4515132B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004103821A JP4515132B2 (ja) 2004-03-31 2004-03-31 ストレージシステム、ストレージ装置及びリモートコピー方法
US10/898,356 US7103713B2 (en) 2004-03-31 2004-07-26 Storage system, device and method using copy-on-write for synchronous remote copy
US11/492,027 US20060259725A1 (en) 2004-03-31 2006-07-25 Storage system, storage device, and remote copy method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004103821A JP4515132B2 (ja) 2004-03-31 2004-03-31 ストレージシステム、ストレージ装置及びリモートコピー方法

Publications (3)

Publication Number Publication Date
JP2005292952A JP2005292952A (ja) 2005-10-20
JP2005292952A5 JP2005292952A5 (ja) 2007-04-19
JP4515132B2 true JP4515132B2 (ja) 2010-07-28

Family

ID=35137856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004103821A Expired - Fee Related JP4515132B2 (ja) 2004-03-31 2004-03-31 ストレージシステム、ストレージ装置及びリモートコピー方法

Country Status (2)

Country Link
US (2) US7103713B2 (ja)
JP (1) JP4515132B2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7225210B2 (en) * 2003-11-20 2007-05-29 Overland Storage, Inc. Block level data snapshot system and method
JP2005302152A (ja) * 2004-04-12 2005-10-27 Sony Corp 複合型記憶装置、データ書込方法及びプログラム
JP4735100B2 (ja) * 2005-03-08 2011-07-27 ソニー株式会社 複合型記憶装置、データ処理方法及びプログラム
JP4809040B2 (ja) * 2005-11-08 2011-11-02 株式会社日立製作所 ストレージ装置及びスナップショットのリストア方法
JP4839841B2 (ja) * 2006-01-04 2011-12-21 株式会社日立製作所 スナップショット再起動方法
JP2007188267A (ja) * 2006-01-12 2007-07-26 Hitachi Ltd 記憶制御装置及びその制御方法
JP4856955B2 (ja) 2006-01-17 2012-01-18 株式会社日立製作所 Nasシステム及びリモートコピー方法
JP4676378B2 (ja) * 2006-05-18 2011-04-27 株式会社バッファロー データ記憶装置およびデータ記憶方法
US8949312B2 (en) * 2006-05-25 2015-02-03 Red Hat, Inc. Updating clients from a server
US20080086608A1 (en) * 2006-10-10 2008-04-10 Hitachi, Ltd. System and method for migration of CDP journal data between storage subsystems
US7831766B2 (en) * 2006-12-22 2010-11-09 Comm Vault Systems, Inc. Systems and methods of data storage management, such as pre-allocation of storage space
JP2008181461A (ja) * 2007-01-26 2008-08-07 Hitachi Ltd Nas装置間でのデータ移行を制御する装置及び方法
JP2008217209A (ja) * 2007-03-01 2008-09-18 Hitachi Ltd 差分スナップショット管理方法、計算機システム及びnas計算機
JP2009070143A (ja) 2007-09-13 2009-04-02 Hitachi Ltd Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム
JP4961319B2 (ja) * 2007-10-11 2012-06-27 株式会社日立製作所 仮想ボリュームにおける仮想領域に動的に実領域を割り当てるストレージシステム
JP4998737B2 (ja) * 2007-12-28 2012-08-15 日本電気株式会社 情報処理装置、プログラム及びバックアップ方法
US8321860B2 (en) * 2008-10-27 2012-11-27 Bank Of America Corporation Local collector
US8549327B2 (en) * 2008-10-27 2013-10-01 Bank Of America Corporation Background service process for local collection of data in an electronic discovery system
JP4886918B1 (ja) * 2008-10-30 2012-02-29 インターナショナル・ビジネス・マシーンズ・コーポレーション フラッシュコピー・プロセスを処理する方法、ならびにそのためのシステム、およびコンピュータ・プログラム
JP5317807B2 (ja) 2009-04-13 2013-10-16 株式会社日立製作所 ファイル制御システムおよびそれに用いるファイル制御計算機
US8498997B2 (en) * 2009-09-23 2013-07-30 Hitachi, Ltd. Server image migration
US8849966B2 (en) * 2009-10-13 2014-09-30 Hitachi, Ltd. Server image capacity optimization
US8447943B2 (en) * 2010-02-24 2013-05-21 Hitachi, Ltd. Reduction of I/O latency for writable copy-on-write snapshot function
KR20120052769A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 가상머신을 동기화시키기 위한 장치 및 방법
WO2012164618A1 (en) * 2011-05-31 2012-12-06 Hitachi, Ltd. Storage system and storage control method
US9069477B1 (en) * 2011-06-16 2015-06-30 Amazon Technologies, Inc. Reuse of dynamically allocated memory
JP5584186B2 (ja) * 2011-10-28 2014-09-03 株式会社ソニー・コンピュータエンタテインメント ストレージシステムおよびストレージ装置
US9639297B2 (en) 2012-03-30 2017-05-02 Commvault Systems, Inc Shared network-available storage that permits concurrent data access
US9063938B2 (en) 2012-03-30 2015-06-23 Commvault Systems, Inc. Search filtered file system using secondary storage, including multi-dimensional indexing and searching of archived files
JP5952631B2 (ja) * 2012-04-27 2016-07-13 富士通株式会社 情報処理装置、スナップショット作成プログラム、及び該方法
JP6194784B2 (ja) * 2013-12-13 2017-09-13 富士通株式会社 ストレージ制御装置、制御方法および制御プログラム
US9798596B2 (en) 2014-02-27 2017-10-24 Commvault Systems, Inc. Automatic alert escalation for an information management system
US9898213B2 (en) 2015-01-23 2018-02-20 Commvault Systems, Inc. Scalable auxiliary copy processing using media agent resources
US10313243B2 (en) 2015-02-24 2019-06-04 Commvault Systems, Inc. Intelligent local management of data stream throttling in secondary-copy operations
US9778879B2 (en) * 2015-10-23 2017-10-03 Microsoft Technology Licensing, Llc Flushless transactional layer
JP6708929B2 (ja) * 2016-08-15 2020-06-10 富士通株式会社 ストレージ制御装置、ストレージシステムおよびストレージ制御プログラム
US10798149B2 (en) 2017-02-24 2020-10-06 Hitachi, Ltd. File storage, object storage, and storage system
US10445004B2 (en) 2017-03-30 2019-10-15 Pavilion Data Systems, Inc. Low latency metadata log
US10191812B2 (en) * 2017-03-30 2019-01-29 Pavilion Data Systems, Inc. Recovery mechanism for low latency metadata log
US10838625B2 (en) 2018-10-06 2020-11-17 International Business Machines Corporation I/O response times in data replication environments

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214853A (ja) * 1992-12-02 1994-08-05 Internatl Business Mach Corp <Ibm> データベースのバックアップおよび復元の方法およびシステム
JPH11508071A (ja) * 1995-06-09 1999-07-13 オクトパス テクノロジーズ インコーポレイテッド 実時間データ保護システムおよび方法
JP2001159985A (ja) * 1999-12-02 2001-06-12 Sun Corp 二重化装置
JP2001236258A (ja) * 1999-12-16 2001-08-31 Hitachi Ltd 記憶制御装置
JP2002189570A (ja) * 2000-12-20 2002-07-05 Hitachi Ltd 記憶システムの二重化方法および記憶システム
JP2003167684A (ja) * 2001-12-04 2003-06-13 Nec Corp ディスクアレイ装置間の遠隔データコピー方式
JP2004062759A (ja) * 2002-07-31 2004-02-26 Hitachi Ltd データベースログの管理方法、その装置およびそのプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649152A (en) * 1994-10-13 1997-07-15 Vinca Corporation Method and system for providing a static snapshot of data stored on a mass storage system
US6269431B1 (en) 1998-08-13 2001-07-31 Emc Corporation Virtual storage and block level direct access of secondary storage for recovery of backup data
US6338126B1 (en) * 1999-12-06 2002-01-08 Legato Systems, Inc. Crash recovery without complete remirror
JP3800903B2 (ja) * 2000-02-17 2006-07-26 株式会社日立製作所 記憶装置及びそのアクセス制御方法
EP1255198B1 (en) * 2001-02-28 2006-11-29 Hitachi, Ltd. Storage apparatus system and method of data backup
JP2003202964A (ja) 2002-01-09 2003-07-18 Hitachi Ltd 計算機システムの制御方法、計算機システム、記憶装置の制御方法及び記憶装置
US6993539B2 (en) 2002-03-19 2006-01-31 Network Appliance, Inc. System and method for determining changes in two snapshots and for transmitting changes to destination snapshot
JP4704659B2 (ja) 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置
US7664771B2 (en) 2002-10-16 2010-02-16 Microsoft Corporation Optimizing defragmentation operations in a differential snapshotter

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214853A (ja) * 1992-12-02 1994-08-05 Internatl Business Mach Corp <Ibm> データベースのバックアップおよび復元の方法およびシステム
JPH11508071A (ja) * 1995-06-09 1999-07-13 オクトパス テクノロジーズ インコーポレイテッド 実時間データ保護システムおよび方法
JP2001159985A (ja) * 1999-12-02 2001-06-12 Sun Corp 二重化装置
JP2001236258A (ja) * 1999-12-16 2001-08-31 Hitachi Ltd 記憶制御装置
JP2002189570A (ja) * 2000-12-20 2002-07-05 Hitachi Ltd 記憶システムの二重化方法および記憶システム
JP2003167684A (ja) * 2001-12-04 2003-06-13 Nec Corp ディスクアレイ装置間の遠隔データコピー方式
JP2004062759A (ja) * 2002-07-31 2004-02-26 Hitachi Ltd データベースログの管理方法、その装置およびそのプログラム

Also Published As

Publication number Publication date
US7103713B2 (en) 2006-09-05
JP2005292952A (ja) 2005-10-20
US20050240803A1 (en) 2005-10-27
US20060259725A1 (en) 2006-11-16

Similar Documents

Publication Publication Date Title
JP4515132B2 (ja) ストレージシステム、ストレージ装置及びリモートコピー方法
US10248660B2 (en) Mechanism for converting one type of mirror to another type of mirror on a storage system without transferring data
US10002048B2 (en) Point-in-time snap copy management in a deduplication environment
US8990153B2 (en) Pull data replication model
EP1624376B1 (en) Storage system and data processing system
EP2953026B1 (en) Target-driven independent data integrity and redundancy recovery in a shared-nothing distributed storage system
US8738813B1 (en) Method and apparatus for round trip synchronous replication using SCSI reads
US7761732B2 (en) Data protection in storage systems
JP4152373B2 (ja) リモートミラーキャッシュ内の論理オブジェクトの完全性を保つシステム
US8538924B2 (en) Computer system and data access control method for recalling the stubbed file on snapshot
US20080320258A1 (en) Snapshot reset method and apparatus
US20060184502A1 (en) Method for file level remote copy of a storage device
JP2004252686A (ja) 情報処理システム
JP2005222110A (ja) ストレージサブシステム
US9569311B2 (en) Computer system for backing up data
US7353354B2 (en) Application-based commit for local storage subsystems and remote storage subsystems
EP4095695A1 (en) Co-located journaling and data storage for write requests

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100512

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees