JP2002281065A - データの完全性を伴いデータネットワークに接続される記憶装置システム - Google Patents

データの完全性を伴いデータネットワークに接続される記憶装置システム

Info

Publication number
JP2002281065A
JP2002281065A JP2001197685A JP2001197685A JP2002281065A JP 2002281065 A JP2002281065 A JP 2002281065A JP 2001197685 A JP2001197685 A JP 2001197685A JP 2001197685 A JP2001197685 A JP 2001197685A JP 2002281065 A JP2002281065 A JP 2002281065A
Authority
JP
Japan
Prior art keywords
data
remote
local
disk
sequence number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001197685A
Other languages
English (en)
Other versions
JP4066617B2 (ja
JP2002281065A5 (ja
Inventor
Akira Yamamoto
山本  彰
Kenji Yamakami
憲司 山神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JP2002281065A publication Critical patent/JP2002281065A/ja
Publication of JP2002281065A5 publication Critical patent/JP2002281065A5/ja
Application granted granted Critical
Publication of JP4066617B2 publication Critical patent/JP4066617B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/28Timers or timing mechanisms used in protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/326Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the transport layer [OSI layer 4]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/329Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the application layer [OSI layer 7]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols

Abstract

(57)【要約】 【解決手段】通信ネットワークによってリモート記憶装
置コンポーネントに結合されたローカル記憶装置コンポ
ーネントを備える記憶装置システム。通信ネットワーク
は、データパケットが送信されたものと同じ順序でのデ
ータパケットの受信を保証できないことにより特徴づけ
られる。 【効果】本発明に従った方法は、当該通信ネットワーク
の性質にもかかわらず、受信された要求を処理する適切
な順序づけを保証する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ記憶装置シ
ステム、詳細には、データネットワーク環境においてデ
ータ記憶装置システムのデータの完全性を維持すること
に関する。
【0002】
【従来の技術】従来、データ処理システムは、高速な高
信頼性データバスによって各自の関係するデータ記憶装
置システムにアクセスできる。しかし、その機会は、ネ
ットワーク通信の広範囲に及ぶ用途が拡大し続けるにつ
れ、ますます利用可能になっている。IP(インターネ
ットプロトコル)は、TCP/IP(伝送制御プロトコ
ル/インターネットプロトコル)ネットワークが確立さ
れる基本的なパケットデリバリサービスを提供する。I
Pは、十分に規定されたプロトコルであり、それゆえ、
IPを用いてサーバシステムが記憶装置システムとデー
タを交換し、記憶装置システムが他の記憶装置システム
とデータを交換する、ネットワークベースのデータ記憶
アクセスのためのトランスポート/ネットワーク層を提
供する自然な候補である。
【0003】しかし、IPの性質は、データ記憶アクセ
スシステムの領域におけるいくつかの独自な問題を呈す
る。第一に、IPはコネクションレス型プロトコルであ
る。これは、IPがデータの伝送に先んじてエンドツー
エンド接続を確立するために制御情報を交換しないこと
を意味する。IPは誤り検出・回復機構をまったく含ま
ない。従って、IPは接続されたネットワークにデータ
を送達するためには信頼できるが、そのデータが正しく
受信されたか、またはそれが送信された順序でデータが
受信されているかを保証するためのいかなる機構も存在
しない。コネクション型サービスが要求される場合、I
Pは、接続を確立するためにより高次の階層プロトコル
に頼る。
【0004】デュアルリモートコピー機能が必要とされ
るデータ記憶装置システムにおいて、IPベースの伝送
は問題を呈する。リモートコピー機能は、一次データ記
憶装置での災害回復を実現するという目的で、リモート
サイトにおける一次データ記憶装置のリアルタイムコピ
ーを可能にする。この機能がその目的を果たすために、
データの完全性を保証することが重要である。同期およ
び非同期の2種類のリモートコピーがある。
【0005】同期型リモートコピーでは、ローカルHO
STによるその関係するローカルディスクシステムへの
書込み要求は、書込まれたデータがローカルディスクシ
ステムからリモートディスクシステムに転送された後ま
で完了しない。従って、同期型コピーの場合、ローカル
およびリモートディスクシステム間のデータの完全性を
保証することは容易である。
【0006】非同期型リモートコピーでは、ローカルH
OSTによる書込み要求は、ローカルディスクがリモー
トディスクへのその転送を完了する前に、完了する。名
称が暗示する通り、ローカルディスクからリモートディ
スクへの転送動作が完了しているかどうかにかかわら
ず、制御はローカルHOSTに返される。従って、非同
期型コピー動作の間のデータの完全性は、リモートディ
スクのデータがローカルディスクにおけると同じ順序で
書込まれるように、リモートディスクシステムでのデー
タの正しい着信順序に依存する。
【0007】これを実現するために、ローカルディスク
システムは、リモートディスクに送られるデータととも
にタイムスタンプを含める。リモートにおいてデータは
そのタイムスタンプに従って書込まれる。従って例え
ば、リモートディスクがタイムスタンプ7:00を備え
るデータを受信した時には、それはすでに、タイムスタ
ンプが7:00より前である全部のデータを受信してい
る。
【0008】
【発明が解決しようとする課題】しかし、IPベースの
ネットワークにおいて、パケットが乱順で着信できる場
合、7:00のタイムスタンプを有するデータパケット
は、それ以前のタイムスタンプを有するデータパケット
が先行することもあればしないこともあり得る。その結
果、伝送プロトコルがIPのようなコネクションレス型
トランスポートモデルに基づく場合、リモートディスク
システムにおいてデータの完全性を保証することは難し
い。
【0009】IPが磁気テープシステムで使用された時
には別の問題が生じる。磁気テープへの読出しおよび書
込み動作はシーケンシャルであり、従って、アドレス指
定は固定である。従ってデータパケットが乱順でリモー
トサイトに着信した場合、データは間違った順序でテー
プに書込まれる。破壊された記憶装置システムをテープ
から復元するための以降の回復動作は結果として破損デ
ータを生じるであろう。
【0010】信頼できるIPベースのデータ回復システ
ムを提供するための必要性が存在する。
【0011】
【課題を解決するための手段】本発明に従ったデータ記
憶装置システムは、ローカル記憶装置コンポーネントお
よびリモート記憶装置コンポーネントよりなる。ローカ
ル記憶装置コンポーネントに書込まれるデータは、デー
タネットワークによってリモート記憶装置コンポーネン
トにデータパケットで送られる。
【0012】データパケットは、ローカル記憶装置コン
ポーネントで書込まれるデータのコピー、タイムスタン
プおよびシーケンス番号を含む。複数のそうしたデータ
パケットがリモート記憶装置コンポーネントで受信され
る。データパケットは、各データパケットに関係するシ
ーケンス番号およびタイムスタンプに基づきリモート記
憶装置コンポーネントでの書込みのために選択される。
【0013】本発明の1実施形態において、ローカルお
よびリモート記憶装置コンポーネントはそれぞれ、複数
のローカルおよびリモートディスク装置として構成され
る。各ローカルディスク装置はリモートディスク装置と
関係づけられる。そのような各対はリモートコピーペア
と呼ばれる。この実施形態では、各リモートコピー単位
は関係するシーケンス番号を有する。
【0014】本発明の別の実施形態において、ローカル
ディスク装置はローカルディスクシステムにグループ化
される。同様に、各リモートディスク装置はリモートデ
ィスクシステムにグループ化される。本発明のこの実施
形態では、少なくとも1個の共通のリモートコピーペア
を有する各対のローカルおよびリモートディスクシステ
ムについてシーケンス番号が存在する。
【0015】本発明の別の実施形態において、リモート
コピーペアはデータの完全性ペアグループにグループ化
される。この実施形態では、少なくとも1個のデータの
完全性ペアグループを共通に有するローカルおよびリモ
ートディスクシステムの各対についてシーケンス番号が
存在する。
【0016】本発明の教示は、添付する詳細な説明を以
下の図面とともに検討することによって容易に理解する
ことができる。
【0017】
【発明の実施の形態】図1を参照すれば、本発明の1実
施形態に従ったコンピュータシステムが示されている。
ローカルコンピュータシステム100は、少なくともロ
ーカルHOSTシステム102および少なくともローカ
ルディスクシステム104を含む。リモートコンピュー
タシステム101は少なくともリモートディスクシステ
ム105を含む。リモートHOSTシステム103は必
ずしもリモートコンピュータシステム101に必要なわ
けではない。個々のローカルディスクシステム104は
通信路112によってリモートディスクシステム105
と接続される。通信路112は、伝送されたデータパケ
ットが必ずしもそれらが送られた順序で着信するわけで
はないことを特徴とするネットワークである。IPベー
スのネットワークはこの振舞いを示す。一般に、コネク
ションレス型ネットワークはこの振舞いを示す。例え
ば、ワイドエリアネットワーク(WAN)はIPに基づ
くことができる。しかし、本発明はWANに限定される
ものではない。
【0018】ローカルディスクシステム104は、リモ
ートディスクシステム105において維持される関係す
るリアルタイムコピーを有する少なくともローカルディ
スク装置106を含む。リモートディスクシステム10
5は、ローカルディスク装置106のリアルタイムコピ
ーを含んでいる少なくともリモートディスク装置107
を含む。ローカルディスク装置106およびリモートデ
ィスク装置107よりなるペアは、リモートコピーペア
108と称する。その中においてデータの完全性が保証
されなければならないリモートコピーペア108のグル
ープは、データの完全性ペアグループ109と称する。
データの完全性ペアグループ109に属するローカルデ
ィスク装置106のグループは、データの完全性ローカ
ルディスクグループ110と称する。同様に、リモート
システムでは、1個のデータの完全性ペアグループ10
9に属するリモートディスク装置107のグループは、
データの完全性リモートディスクグループ111と称す
る。
【0019】データの完全性ローカルディスクグループ
110は、単一のローカルディスクシステム104か
ら、または、2個以上のローカルディスクシステム10
4からのローカルディスク装置106を含み得る。その
結果、ローカルディスクシステム104の構成要素であ
るローカルディスク装置106は、1個以上のデータの
完全性ペアグループ109に見ることができる。データ
の完全性リモートディスク装置グループ111は、1個
以上のリモートディスクシステム105に属するリモー
トディスク装置107より構成され得る。従って、リモ
ートディスクシステム105は、異なるデータの完全性
ペアグループ109に属するリモートディスク装置10
7を有することができる。
【0020】ローカルHOSTシステム102の動作の
経過の間に、データはローカルディスクシステム104
に書込まれる必要があるであろう。ローカルHOST
は、ローカルディスクシステム104に記憶される「書
込みデータ」113を転送する。ローカルディスクシス
テム104はまた、書込みデータ113をデータ回復の
ためにリモートディスクシステム105にも送る。本発
明によれば、ローカルディスクシステム104がリモー
トディスクシステム105に書込まれる書込みデータ1
13を送る際に、それはタイムスタンプ114およびシ
ーケンス番号115も送る。タイムスタンプ114は、
ローカルディスクシステムがローカルHOSTシステム
102からその要求を受信した時刻を示す。シーケンス
番号115は書込みデータ113のシーケンス番号であ
る。シーケンス番号115は、ローカルディスク装置1
04が書込みデータ113をリモートディスクシステム
105に送る時に生成される。ローカルディスクシステ
ム104は、シーケンス番号114を選定し、それらが
シーケンシャルに生成されていることを保証する。
【0021】データの完全性を実現するために、データ
の完全性ペアグループ109のリモートディスク装置1
07に書込まれるデータの順序は、そのデータの完全性
ペアグループの対応するローカルディスク装置106に
書込まれる同一データの順序と同じである必要がある。
データの完全性ペアグループ109におけるデータの完
全性を保証するために、リモートディスクシステム10
5の中でのタイムスタンプ114を比較することが必要
である。なぜなら、リモートディスクシステム105の
うちの1個が7:00のタイムスタンプ114を備える
書込みデータ113を受信したのに対して、リモートデ
ィスクシステム105の別のものがもっと早いタイムス
タンプを備える書込みデータ113をすでに受信してい
ることが起こり得るからである。
【0022】従って、リモートシステム101は、複数
のスレーブリミットタイムスケジュールプロセス116
を含む。各リモートディスクシステム105は、関係す
るスレーブリミットタイムスケジュールプロセス116
を有する。リモートシステムはさらに、単一のマスタリ
ミットタイムスケジュールプロセス117を含む。スレ
ーブリミットタイムスケジュールプロセス116はそれ
ぞれ、タイムスタンプ114の情報をマスタリミットタ
イムスケジュールプロセス117に送る。マスタリミッ
トタイムスケジュールプロセス117はその後、リモー
トディスク装置107にデステージングを許可するため
に最も早い時間を決定する。この最早時間は、タイムリ
ミット118として各スレーブタイムリミットスケジュ
ールプロセス116に送られる。
【0023】本発明によれば、ローカルディスクシステ
ム104は、データパケットが乱順でリモートシステム
に着信した場合でもリモートコピーシステムにおけるデ
ータの完全性を保証するために、書込みデータ113の
各パケットとともにシーケンス番号115を送る。
【0024】図2を参照すれば、本発明の実施形態にお
いて、この図は、すべてのリモートコピーペア108が
1個のシーケンス番号を有する、ローカルディスクシス
テムおよびリモートディスクシステムにおけるプロセス
を示す。ローカルディスクシステム104は、キャッシ
ュメモリ202を有するローカルディスク制御装置20
0を備える。リモートディスクシステム105は、キャ
ッシュメモリ203を備えるリモートディスク制御装置
201を含む。
【0025】プロセスは、ローカルコンピュータシステ
ム100において、L(ローカル)書込みデータ受信プ
ロセス210、L書込みデータ送信プロセス211、L
書込みデータ送信完了プロセス212およびL書込みデ
ータデステージプロセスを含む。リモートコンピュータ
システム101は、R(リモート)書込みデータ受信プ
ロセス214、R書込みデータデステージプロセス21
5、マスタリミットタイムスケジュールプロセス117
およびスレーブリミットタイムスケジュールプロセス1
16を含む。各プロセスは、その各自のローカルディス
ク制御装置200またはリモートディスク制御装置20
1において起動する。
【0026】各リモートコピーペア108について、ロ
ーカルディスクアドレス204、リモートディスクアド
レス205、データの完全性グループID206および
シーケンスカウンタ207を含むリモートコピーペアデ
ータ記憶装置203が存在する。ローカルディスクアド
レス204およびリモートディスクアドレス205はそ
れぞれ、書込み動作のためにリモートコピーペア108
を構成するローカルディスク装置およびリモートディス
ク装置の行先アドレスである。データの完全性ペアグル
ープID206は、リモートコピーペアが属するデータ
の完全性ペアグループ109を識別する。図2に例示す
る通り、各リモートコピーペア108は関係するシーケ
ンス番号115を有する。シーケンスカウンタ207
は、リモートディスクに送られる書込みデータ113と
関係づけられているシーケンス番号115を与える。
【0027】キャッシュメモリ202は、各リモートコ
ピーペア108について、書込みデータ113、リモー
トディスクアドレス208、位置決め情報209、シー
ケンス番号115およびタイムスタンプ114よりなる
データ構造も含む。このように、ローカルHOST10
2からローカルディスクシステムに送られる書込みデー
タの各ブロックについて1個の当該データ構造が存在
し、それによって、ローカルHOST102による典型
的な書込み動作のために複数の当該データ構造を生じ
る。例えば、位置決め情報は、パーソナルコンピュータ
に共通に見られるディスク駆動装置のディスクブロック
アドレスである。従来のメインフレームシステムでは、
位置決め情報は一般に、シリンダ番号、ヘッド番号およ
びレコード番号である。
【0028】ここで図2および5を参照して、L書込み
データ受信プロセス210の処理を説明する。このプロ
セスは、ローカルHOSTシステム102から書込み要
求を受信した時にローカルディスクシステムにおいて実
行される。最初に、ローカルディスクシステム104は
ローカルHOSTシステム102から書込み要求を受信
する(ステップ500)。書込み要求は、ローカルディ
スク装置106のアドレス情報および、書込みデータ1
13が書込まれるローカルディスク装置106の位置を
指定する。次に、ローカルディスクシステム104は、
書込まれる実際の書込みデータ113を受信し、それを
キャッシュメモリ202にキャッシュする(ステップ5
01)。ローカルディスクシステム104は、リモート
コピーペア108の対応するリモートディスク装置10
7のリモートディスクアドレス205をリモートコピー
ペアデータ記憶装置203から取得し、それをリモート
ディスクアドレス208としてキャッシュメモリに格納
する。書込み要求において指定された位置は、位置決め
情報209としてキャッシュメモリに格納される(ステ
ップ502)。ローカルディスクシステムはその後、ロ
ーカルHOSTシステムからタイムスタンプを受信し、
それをタイムスタンプ114としてキャッシュメモリ2
02に格納する(ステップ503)。タイムスタンプ1
14は、生成されるタイムスタンプ114がローカルデ
ィスクシステム104の全部に共通である限り、ローカ
ルHOSTシステム104以外によっても生成できる。
複数のローカルHOSTシステム102が存在する実施
形態では、HOSTシステム間で共通のタイムスタンプ
値を付与する共有クロックが存在することが前提とされ
る。最後に、ローカルディスクシステム104は、ロー
カルHOSTシステム102に書込み要求の完了を示す
(ステップ504)。
【0029】図2および6を参照して、L書込みデータ
送信プロセス211の処理を説明する。このプロセス
は、ローカルディスクシステムが書込みデータ113を
リモートディスクシステム105に送る準備ができた時
に実行される。図2に示す本発明の実施形態によれば、
各リモートコピーペア108について1個のL書込みデ
ータ送信プロセス211が存在する。このプロセスは、
L書込みデータ受信プロセス210に関して非同期に実
行される。
【0030】ローカルディスクシステム104は、リモ
ートディスクシステムに送られるリモートコピーペア1
08において待機している書込みデータ113の全部の
うちで時間的に最早関係するタイムスタンプ114を有
する書込みデータ113を選択する(ステップ60
0)。ローカルディスクシステムはその後、シーケンス
カウンタ207の現在値を、選択された書込みデータ1
13(すなわち、その関係するタイムスタンプが時間的
に最も早い書込みデータ)に関係づけられるシーケンス
番号115とみなす。シーケンスカウンタ207は増分
される(ステップ601)。次に、選択された書込みデ
ータ113ならびにその関係するタイムスタンプ11
4、シーケンス番号115、リモートディスクアドレス
情報208および位置決め情報209は、リモートディ
スクシステム105に送られる(ステップ602、図1
も参照)。
【0031】本発明によれば、L書込みデータ送信プロ
セス211はその後、完了に関するリモートディスクシ
ステム105からのいずれの指標も待たずに、次の書込
みデータ113を処理することに進む。このようにし
て、高速なデータ転送速度が実現される。しかし、パケ
ットが乱順で着信する可能性がある。それゆえ、ローカ
ルディスクシステム104は、リモートディスクシステ
ム105に属するいずれかの書込みデータ113が、ま
だ送られていないリモートコピーペア108に存在する
かどうかを確認する(ステップ603)。肯定であれ
ば、処理はステップ600に継続する。否定であれば、
プロセスはしばらく待機し(ステップ604)、その後
ステップ603に継続する。
【0032】ステップ604での待機は、送られる書込
みデータがまったく存在しない状況に適応するためであ
る。ステップ603で送信する書込みデータがまったく
存在しなければ、L書込みデータ送信プロセス211は
行うべき処理がまったくない。従って、ステップ604
は、送信すべき書込みデータがあるかどうかを知るため
に再び確認する前にプロセスを暫時休止するために使用
される。
【0033】次に図2および7を参照して、L書込みデ
ータ送信完了プロセス212の処理を説明する。このプ
ロセスは、ローカルディスクシステム104がリモート
ディスクシステム105への書込みデータ113の転送
の完了の通知を受信した時に実行される。ローカルディ
スクシステムは、リモートディスクシステム105から
書込みデータ113の転送の通知を受信する(ステップ
700)。ローカルディスクシステム104はその後、
対応するタイムスタンプ114およびシーケンス番号1
15の値をヌルにする。書込みデータ113はすでにリ
モートディスクシステム105に送られているので、こ
れらのフィールドはもはやローカルディスクシステム1
04によって使用されない。
【0034】リモートディスクシステム104への書込
みデータ113の転送が完了した後、書込みデータ11
3はL書込みデータデステージプロセス213によって
ローカルディスク装置104に書込まれる。このプロセ
スは、ローカルディスク装置106への書込みデータ1
13の実際の書込みをもたらし、公知の常法に従って実
行される。
【0035】次に図2および8を参照して、R書込みデ
ータ受信プロセス214を検討する。このプロセスは、
ローカルディスクシステム104から書込みデータ11
3を受信した時に、リモートディスクシステム105に
おいて実行される。図2に示す本発明の実施形態によれ
ば、各リモートコピーペア108についてR書込みデー
タ受信プロセス214が存在する。リモートディスクシ
ステム105は、受信された書込みデータ113ならび
にその関係するタイムスタンプ114、シーケンス番号
115、リモートディスクアドレス情報208および位
置決め情報209をキャッシュメモリ203に格納する
(ステップ800)。リモートディスクシステム105
は、そのシーケンス番号115とともに書込みデータ1
13の転送の完了指標をローカルディスクシステムに返
送する(ステップ801)。
【0036】キャッシュメモリ203は、各リモートコ
ピーペア108について、受信された書込みデータ11
3、リモートディスクアドレス208、位置決め情報2
09、シーケンス番号115およびタイムスタンプ11
4よりなるデータ構造を含む。従って、ローカルHOS
T102から受信された書込みデータ113の各ブロッ
クについて1個のそのようなデータ構造が存在し、それ
によって、複数の当該データ構造を生じる。
【0037】次に図2および9を参照して、スレーブリ
ミットタイムスケジュールプロセス116を説明する。
スレーブプロセス116は、ある時間実行し、終了す
る。このプロセスは周期的に起動する。図2に示す本発
明の実施形態において、各リモートコピーペア108が
関係するシーケンス番号115を有することを想起され
たい。実際、リモートコピーペア108において待機し
ている書込みデータ113の各ブロックについて、関係
するシーケンス番号115が存在する。従って、各リモ
ートコピーペア108はシーケンス番号115のリスト
を持ち得る。さらに、リモートディスクシステム105
が、それと関係する複数のリモートコピーペア108を
有し得ることを想記されたい。従って、各リモートディ
スクシステム105は複数のシーケンス番号のリストを
持ち得る。
【0038】各リモートコピーペア108について、ス
レーブリミットタイムスケジュールプロセス116は、
そのリモートコピーペアのシーケンス番号のリストを検
査する(ステップ901)。それは、連続している番号
の最長の連続を見つけ、その連続から最大シーケンス番
号を返す。例えば、リモートコピーペアが以下のシーケ
ンス番号のリストを含むと仮定する。...,11,1
2,13,14,15,16,17,18,19,2
0,21,22,23,24,25,26,28,29
【0039】上記の例では、シーケンス番号27がまだ
受信されていないので、26以下であるシーケンス番号
は連続している。従って、プロセスは、この連続の中で
最高値のシーケンス番号である「26」を選択する。次
に、プロセスは、その最高値の(最大の)シーケンス番
号と関係するタイムスタンプ114を検索する。これが
各リモートコピーペアについて繰り返され、タイムスタ
ンプのリストを生じる。
【0040】このタイムスタンプのリストから、最早タ
イムスタンプが選択される(ステップ901)。各スレ
ーブリミットタイムスケジュールプロセス116は、こ
のようにして1個のそうした最早タイムスタンプを生成
する。各スレーブプロセスからの最早タイムスタンプは
その後、マスタリミットタイムスケジュールプロセス1
17に送られる(ステップ902、図1も参照)。各ス
レーブプロセスはその後、マスタリミットタイムスケジ
ュールプロセス117からリミットタイム値118を受
信するために待ち(ステップ903)、値をキャッシュ
202に格納する(ステップ904、図1も参照)。
【0041】次に図2および10を参照して、マスタリ
ミットタイムスケジュールプロセス117を説明する。
このプロセスは、リモートディスクシステムがスレーブ
プロセス116のそれぞれからタイムスタンプ114を
受信した時に起動する。マスタプロセス117は、受信
されたタイムスタンプから最早タイムスタンプを選択し
(ステップ1000)、選択されたタイムスタンプをリ
ミットタイム118として各スレーブプロセス116に
送る(ステップ1001)。
【0042】次に図2および11を参照して、R書込み
データデステージプロセス215を説明する。このプロ
セスは、リモートディスクシステム105が、リモート
コピーペア108に関係する書込みデータ113を、そ
のリモートコピーペア108と関係するリモートディス
ク装置107にデステージした時に実行される。リモー
トディスクシステム104は、関係するタイムスタンプ
114が最も早い候補書込みデータ113を選択する
(ステップ1100)。その後それは、選択されたタイ
ムスタンプを、マスタリミットタイムスケジュールプロ
セス117により規定されたリミットタイム118と比
較する(ステップ1101)。選択されたタイムスタン
プ114がリミットタイム118より遅ければ、リモー
トディスク装置105は暫時待機し(ステップ110
2)、その後、処理をステップ1100で続ける。選択
されたタイムスタンプ114がリミットタイム118に
等しいか、またはそれより早い場合、リモートディスク
システム105は、その関係するリモートディスクアド
レス208および位置決め情報209に従って候補書込
みデータ113をデステージする(すなわち、ディスク
に書込む)(ステップ1103)。書込みデータならび
にその関係するタイムスタンプ、シーケンス番号、リモ
ートディスクアドレス情報208および位置決め情報2
09は、キャッシュメモリ203から除去される(ステ
ップ1104)。
【0043】以下の例が役立つであろう。以下を有する
と仮定する。 書込みデータA、タイムスタンプ10:00 書込みデータB、タイムスタンプ10:02 書込みデータC、タイムスタンプ10:04 リミットタイム:10:01
【0044】この例において、R書込みデータデータデ
ステージプロセスは書込みデータAを選択し、それは最
早タイムスタンプ(10:00)を有する。次に、R書
込みデータデステージプロセスは、そのタイムスタンプ
(10:00)がリミットタイム(10:01)より早
いので、書込みデータAをリモートディスク装置107
へデステージする。書込みデータAのデステージングの
後、書込みデータBが最早タイムスタンプを有する。し
かし、書込みデータBのタイムスタンプ(10:02)
よりリミットタイム(10:01)が早いので、書込み
データBはデステージされることができない。書込みデ
ータBのデステージングは、リミットタイム118がス
レーブリミットタイムスケジュールプロセス116およ
びマスタリミットタイムスケジュールプロセス117に
よって10:02より遅い時刻に更新された後に可能に
なる(図9および図10に示す)。
【0045】ここで図3を参照して本発明の別の実施形
態を説明する。図3のシステム図は、図2に示したもの
と本質的に同じであるが、以下の相違がある。図3に示
す本発明の実施形態では、ローカルディスクシステム1
04と関係づけられている各リモートディスクシステム
105についてシーケンス番号115が存在する。図2
では、各リモートコピーペア108についてシーケンス
番号が存在することを想起されたい。しかし、図3に示
す実施形態の場合、ローカルディスクシステム104
は、少なくとも1個のリモートコピーペア108をその
ローカルディスクシステムと共有する各リモートディス
ク104システムについて1個のシーケンス番号115
を有する。従って、図3においてわかる通り、各リモー
トディスクシステムについて、シーケンスカウンタ30
0およびリモートディスクシステムアドレス301より
なるデータペアが存在する。従って、ローカルディスク
システムが2個のリモートディスクシステムと関係づけ
られている場合、ローカルディスクシステムに含まれる
2個の当該データペアが存在するはずである。
【0046】図3に示す実施形態において、L書込みデ
ータ受信プロセス210は、図2に示す実施形態に関連
して説明したものと同じである。
【0047】ここで図2および12を参照して、図3に
示す本発明の実施形態についてL書込みデータ送信プロ
セス211を説明する。少なくとも1個のリモートコピ
ーペア108をこのローカルディスクシステム104と
共有する各リモートディスク装置について1個のL書込
みデータ送信プロセス211が存在する。ローカルディ
スクシステム104は、対応するリモートディスクシス
テム105に属する書込みデータ113の全部から、タ
イムスタンプ114が時間的に最も早く、リモートディ
スクシステム105にまだ送信されていない書込みデー
タ113を選択する(ステップ1200)。ローカルデ
ィスクシステム104はその後、そのリモートディスク
システムに対応するシーケンスカウンタ300の現在値
を、選択された書込みデータ133(すなわち、関係す
るタイムスタンプが時間的に最も早い書込みデータ)と
関係するシーケンス番号115にコピーする。シーケン
スカウンタ300が増分される(ステップ601)。次
に、選択された書込みデータ113ならびにその関係す
るタイムスタンプ114、シーケンス番号115、リモ
ートディスクアドレス情報208および位置決め情報2
09が、リモートディスクシステム105に送信される
(ステップ602)。プロセスはその後、図6の説明に
従って継続する。
【0048】図3に示す本発明の実施形態において、L
書込み送信完了プロセス212は、図2に示す本発明の
実施形態に関連して説明したものと同じである。
【0049】図3に示す実施形態において、リモートデ
ィスクシステム105は、リモートコピーペア108を
リモートディスクシステム105と共有するすべてのロ
ーカルディスクシステム104について、シーケンスカ
ウンタ300およびローカルディスクシステムアドレス
302よりなるデータペアを含む。リモートディスクシ
ステムと関係する各ローカルディスクシステムについて
1個の当該データペアが存在する。
【0050】リモートコピーペア108をローカルディ
スクシステム105と共有するすべてのローカルディス
クシステムについてR書込みデータ受信プロセス214
が存在する。図3の実施形態において、R書込みデータ
受信プロセス214は、図2に示す実施形態に関連して
説明したものと同じである。同様に、マスタリミットタ
イムスケジュールプロセス117およびR書込みデータ
デステージプロセス215も図2に示す本発明の実施形
態の説明と同じである。
【0051】ここで図13を参照して、図3に示す本発
明の実施形態に従ったスレーブリミットタイムスケジュ
ールプロセス116を検討する。各リモートディスクシ
ステム105について1個のスレーブプロセスが存在す
る。このプロセスは、以下の相違はあるが、図2の実施
形態に関してと本質的に同じである。
【0052】少なくとも1個のリモートコピーペア10
8を共有する各ローカルディスクシステム104につい
て、スレーブリミットタイムスケジュールプロセス11
6は、そのローカルディスクシステム104から受信さ
れたシーケンス番号のリストを検査する(ステップ13
00)。プロセスは、連続であるシーケンス番号114
の最大シーケンス番号を見つけ、その最大シーケンス番
号に対応するタイムスタンプ115を返す。これは、タ
イムスタンプのリストを生成するために、少なくとも1
個のリモートコピーペア108をリモートディスクシス
テムと共有する各ローカルディスクシステムについて繰
り返される。このタイムスタンプのリスト11から、最
早タイムスタンプが選択され(ステップ901)、マス
タタイムリミットスケジュールプロセス117に送達さ
れる(ステップ902)。このようにして、各スレーブ
リミットタイムスケジュールプロセス116は、各リモ
ートディスクシステム105について1個のそうした最
早タイムスタンプを探索する。プロセスはその後、マス
タリミットタイムスケジュールプロセス117からリミ
ットタイム値118を受信するために待機し(ステップ
903)、値をキャッシュ202に格納する(ステップ
904)。
【0053】次に図4を参照して、本発明の別の実施形
態を説明する。図4のシステム図は、以下の相違はある
が、図2に関して示したものと本質的に同じである。図
4に示す本発明の実施形態において、ローカルディスク
システムは、そのローカルディスクシステム104と共
通してデータの完全性ペアグループ109を有する各リ
モートディスクシステム105について1個のシーケン
ス番号115を有する。例えば、ローカルディスクシス
テムXが、関係するデータの完全性ペアグループZを有
するとする。データの完全性ペアグループはさらに、5
個のリモートコピーペアグループRCP1〜RCP5よ
りなる。さらに、リモートコピーペアグループRCP1
およびRCP2はリモートディスクシステムAと関係
し、リモートコピーペアRCP3はリモートディスクシ
ステムBと関係し、RCP4およびRCP5はリモート
ディスクシステムCと関係するとみなす。この特定の例
において、ローカルディスクシステムXは、データの完
全性ペアグループZと関係する3個のシーケンス番号を
有する。
【0054】
【表1】
【0055】図2〜4に示す実施形態の間の相違は、ロ
ーカルディスクシステム104が7個のローカルディス
ク装置および2個のリモートディスクシステム105を
有する、上記の例示的な機器構成に示されている。両矢
印はリモートコピーペアを示す。例えば、ローカルディ
スク装置5およびリモートディスク装置1は、リモート
コピーペア108を規定する。さらに、実線で描かれた
リモートコピーペアは一体で1個のデータの完全性グル
ープを規定するのに対し、破線で描かれたリモートコピ
ーペアは一体で第2のデータの完全性グループを規定す
る。
【0056】従って、図2に示された本発明の実施形態
によれば、ローカルディスクシステム104はそのディ
スク装置(合計7個のシーケンス番号)のそれぞれにつ
いて関係するシーケンス番号114を有するであろう。
図4に示す実施形態によれば、ローカルディスクシステ
ム104は、ローカルディスクシステム105と共通し
てリモートコピーペアを有する各リモートディスクシス
テム105について1個ずつ、2個の関係するシーケン
ス番号を有する。図4に示す実施形態によれば、ローカ
ルディスクシステム104は、データの完全性ペアグル
ープ109をローカルディスクシステム104と共有す
る各リモートディスクシステム105について1個ず
つ、4個の関係するシーケンス番号114を有する。実
線で描かれたデータの完全性ペアグループは2個のリモ
ートディスクシステム104間で共有され、同様に、破
線で描かれたデータの完全性ペアグループは2個のリモ
ートディスクシステム104間で共有される。
【0057】さらに図4について続ければ、図示の通
り、データの完全性ペアグループ109によってローカ
ルディスクシステム104と関係づけられている各リモ
ートディスクシステム105について、データの完全性
ペアグループ情報データ構造400がローカルディスク
システム104に存在する。データ構造400は、デー
タの完全性グループID401および、リモートディス
クシステムアドレス403およびシーケンスカウンタ4
02よりなる1個以上のデータペアを含む。データの完
全性ペアグループ109の各リモートディスクシステム
105について1個の当該データペアが存在する。リモ
ートディスクシステム105は、データの完全性ペアグ
ループ108によってリモートディスクシステム105
と関係づけられている各ローカルディスクシステム10
4について類似のデータ構造を備える。
【0058】図4に示す本発明の実施形態において、L
書込み送信完了プロセス210およびL書込み送信完了
プロセス212は、図2に示す本発明の実施形態に従っ
て動作する。
【0059】次に図14を参照して、図4に示す本発明
の実施形態のL書込みデータ送信プロセス211を説明
する。少なくとも1個のデータの完全性ペアグループ1
09をそのローカルディスクシステム104と共有する
各リモートディスク装置についてL書込みデータ送信プ
ロセス211が存在する。ローカルディスクシステム1
04は、対応するデータの完全性ペアグループ109に
属する書込みデータ113の全部から、タイムスタンプ
114が時間的に最も早く、リモートディスクシステム
105にまだ送信されていない書込みデータ113を選
択する(ステップ1400)。ローカルディスクシステ
ムはその後、ターゲットリモートディスクシステムに対
応するシーケンスカウンタ403の現在値を、選択され
た書込みデータ113(すなわち、関係するタイムスタ
ンプが時間的に最も早い書込みデータ)と関係するシー
ケンス番号115にコピーする。シーケンスカウンタ4
03が増分される(ステップ601)。次に、選択され
た書込みデータ113ならびにその関係するタイムスタ
ンプ114、シーケンス番号115、リモートディスク
アドレス情報208および位置決め情報209が、リモ
ートディスクシステムに送られる(ステップ602)。
プロセスはその後、図6に関する説明に従って継続す
る。
【0060】図4に示す本発明の実施形態において、R
書込みデータ受信プロセス214は、そのリモートディ
スクシステム105と関係するデータの完全性ペアグル
ープ109を共有する各ローカルディスク装置104と
関係づけられている。処理は図8に示すフローチャート
に従って進行する。
【0061】マスタリミットタイムスケジュールプロセ
ス117およびR書込みデータデステージプロセス21
5は、図2に示す本発明の実施形態に関する説明と同様
にして動作する。
【0062】次に図15を参照して、図4に示す本発明
の実施形態に従ったスレーブリミットタイムスケジュー
ルプロセス116を検討する。各リモートディスクシス
テム105について1個のスレーブプロセスが存在す
る。このプロセスは、以下の相違はあるが、図2の実施
形態に関してと本質的に同じである。
【0063】データの完全性ペアグループによってリモ
ートディスクシステムと関係づけられている各ローカル
ディスクシステム104について、スレーブリミットタ
イムスケジュールプロセス116は、そのローカルディ
スクシステムから受信されたシーケンス番号のリストを
検査する(ステップ1500)。プロセスは、連続であ
るシーケンス番号114の最大シーケンス番号を見つ
け、最大シーケンス番号に対応するタイムスタンプ11
5を返す。これは、タイムスタンプのリストを生成する
ために、データの完全性ペアグループ109によってリ
モートディスクシステムと関係する各ローカルディスク
システム104について繰り返される。タイムスタンプ
のこのリストから、最早タイムスタンプが選択され(ス
テップ901)、マスタタイムリミットスケジュールプ
ロセス117に送達される(ステップ902)。このよ
うにして、各スレーブリミットタイムスケジュールプロ
セス116は、各リモートディスクシステム105につ
いて1個のそうした最早タイムスタンプを探索する。プ
ロセスはその後、マスタリミットタイムスケジュールプ
ロセス117からリミットタイム値118を受信するた
めに待機し(ステップ903)、値をキャッシュ202
に格納する(ステップ904)。
【0064】ここで、リモートサイトに磁気テープ(M
T)記憶装置システムが配備された状況における本発明
の実施形態の検討のために図16に話を移す。ローカル
コンピュータシステム1600は、少なくともローカル
HOSTシステム1602および、ローカルディスクシ
ステムといった少なくともローカル記憶装置システム1
604を含む。ローカルコンピュータシステムはスイッ
チシステム1606を含み得る。少なくともリモートM
Tシステム1605を含むリモートコンピュータシステ
ム1601が存在する。リモートHOSTシステム16
03は、必ずしもリモートコンピュータシステム160
1に存在するわけではない。
【0065】ローカルHOSTシステム1601、ロー
カルディスクシステム1604およびスイッチシステム
1606は、通信路1613によってリモートディスク
システム1605と接続される。通信路1613は、そ
の送信データパケットが必ずしもそれらが送られた順序
で着信するわけではないことを特徴とするネットワーク
である。例えば、IPベースのネットワークはこの振舞
いを呈する。本発明のこの実施形態において、読取り/
書込みデータの単位をブロックと称する。各ブロック
は、自身を識別するために使用されるブロックIDを有
する。
【0066】ローカル記憶装置システム1604は、少
なくとも1個のローカル記憶装置1607および、キャ
ッシュメモリ1611を備える記憶制御装置1609を
有する。リモートMTシステム1605は、少なくとも
1個のリモートMT装置1608および、キャッシュメ
モリ1611を備えるMT制御装置1610を含む。ロ
ーカルHOSTシステム1602はメインメモリ161
2を有する。スイッチシステム1606はキャッシュメ
モリ1611も備える。
【0067】図16に示す本発明の実施形態によれば、
リモートMT装置1608への読出し要求および書込み
要求はそれぞれ、読み出されるデータ1624または書
込まれるデータ1625に伴うシーケンス番号1614
を含む。
【0068】図16はまた、ローカルHOSTシステム
1602、ローカルディスクシステム1604、リモー
トMTシステム1605およびスイッチシステム160
6のプロセスも示している。読出し要求発行プロセス1
615および書込み要求発行プロセス1616は、ロー
カルHOSTシステム1602、ローカルディスクシス
テム1604およびスイッチシステム1606において
提供される。リモートMTシステム1605は、読出し
要求受信プロセス1617および書込み要求受信プロセ
ス1618を含む。
【0069】読出し要求発行プロセス1615の処理は
図17に概説されている。このフローは、ローカルHO
STシステム1602、ローカル記憶装置システム16
04およびスイッチシステム1606の間で共通であ
る。ローカル記憶制御装置1609のキャッシュメモリ
1611に(またはメインメモリ1612に)コピーさ
れるシーケンスカウンタ1623が、読取り/書込み要
求が発行された時に、シーケンス番号1614の値を付
与する(ステップ1700)。プロセスはその後、読出
し要求をリモートMTシステム1605に発行する(ス
テップ1701)。プロセスはその後、シーケンスカウ
ンタ1623を増分する(ステップ1702)。
【0070】次に(ステップ1703)、読出し要求発
行プロセスは、発行された要求の数を確認する。その数
が値m未満であれば、処理は、次の要求を発行するため
にステップ1700に継続する。mの値は一般に>2で
あり、好ましくは経験的に決定される。その目的は、現
在の要求の完了前に次の要求を送信することによってよ
り良好な性能を得ることである。
【0071】数がm未満でなければ、プロセスは、リモ
ートMTシステム1605からのデータ転送通知を待つ
(ステップ1704)。読出し要求発行プロセス161
5がリモートMTシステム1605からのデータ転送通
知を受信すると、それは読出しデータ1624およびシ
ーケンス番号1614を受信し、シーケンスカウンタ1
623に従ってそれをキャッシュメモリ1611に(ま
たはメインメモリ1612に)格納する(ステップ17
05)。次に、読出し要求発行プロセス1615は、リ
モートMTシステム1605から全部のデータ転送通知
を受信したかどうかを確認する(ステップ1706)。
否定であれば、プロセスは、データ転送通知を待つため
にステップ1703に継続する。
【0072】書込み要求発行プロセス1616の処理
は、図18に示すフローチャートに概説されている。こ
のフローは、ローカルHOSTシステム1602、ロー
カル記憶装置システム1604およびスイッチシステム
1606間で共通である。書込み要求発行プロセスは、
シーケンス番号1614に対するシーケンスカウンタ1
623の内容をキャッシュメモリ1611に(またはメ
インメモリ1612に)コピーし(ステップ180
0)、シーケンス番号1614および書込みデータ16
25を伴う書込み要求をリモートMTシステム1605
に発行する(ステップ1801)。その後、シーケンス
カウンタ1623を増分する(ステップ1802)。ス
テップ1803において、書込み要求発行プロセス16
16は、発行された要求の数を確認する。その数が値m
未満であれば、次の要求を発行するためにステップ18
00にジャンプする。そうでなければ、プロセスはリモ
ートMTシステムからのデータ転送通知を待つ(ステッ
プ1804)。書込み要求発行プロセス1616がリモ
ートMTシステム1605から通知を受信すると(ステ
ップ1805)、プロセスはリモートMTシステム16
05から全部のデータ転送通知を受信したかどうかを確
認する(ステップ1806)。否定であれば、データ転
送通知を待つためにステップ1803にジャンプする。
【0073】リモートMTシステム1605の読出し要
求受信プロセス1617のフローは、図19に示す。リ
モートMTシステム1605は、MT制御装置1610
のキャッシュメモリ1611に読出しデータ1624を
有する。1群の読出しデータ1624が、1個のリモー
トMT装置1608から読み出され、MT待ち行列16
26に格納される。各待ち行列エントリは、読出しデー
タ1624およびその対応するブロックID情報162
7よりなるデータペアである。読出しデータ1624お
よびそのブロックID情報1627は、ブロックID情
報1627に従って待ち行列に挿入される。従って、M
T待ち行列1626はブロックID情報1627によっ
て順序づけられる。この順序づけは、データブロックが
要求側ローカルHOST1601に返送されるべき順序
を示している。従って、一連の読出し要求は、適切な順
番で受信されていれば、単に各データブロックを、それ
らがMT待ち行列1626に存在する順序で送ることに
よって満たされるであろう。
【0074】待ち行列1626は、二重連係データ構造
である。それゆえ、各待ち行列エントリはさらに、次の
ブロックID情報1627を含む待ち行列エントリをポ
イントする正方向ポインタ1630および、以前のブロ
ックID情報1627を含む待ち行列エントリをポイン
トする逆方向ポインタ1631を含む。ヘッドポインタ
1628がMT待ち行列1626の先頭をポイントし、
テールポインタ1629がMT待ち行列1626の末尾
をポイントする。次のシーケンス番号カウンタ1632
は、次の読出し要求によりアクセスされるべき読出しデ
ータ1624に対応するシーケンス番号1614を含
む。それゆえ、カウンタ1632の現在値は、MT待ち
行列の先頭のデータブロックに対応する。
【0075】動作時、読出し要求受信プロセス1617
は、ローカルHOST1601からシーケンス番号16
14とともに読出し要求を受信する(ステップ190
0)。読出し要求受信プロセスは、受信されたシーケン
ス番号1614を次のシーケンス番号カウンタ1632
と比較する(ステップ1901)。それが等しい場合、
プロセスは、受信されたシーケンス番号1614およ
び、(ヘッドポインタ1628によってポイントされ
る)MT待ち行列1626の先頭の読出しデータ162
4を、受信されたシーケンス番号1614とともに、読
出し要求発行プロセス1615へ送る(ステップ190
2)。シーケンス番号カウンタ1632はその後更新さ
れ、MT待ち行列の次の読出しデータ1624のブロッ
クID情報1627を参照する(ステップ1903)。
プロセスはその後ステップ1907に継続する。
【0076】受信されたシーケンス番号が次のシーケン
ス番号カウンタ1632と等しくない場合、それは、乱
順の読出し要求が受信されたことを意味する。ステップ
1904において、読出し要求受信プロセス1617
は、要求されている読出しデータのブロックID情報1
627を計算する。詳細には、読出し要求受信プロセス
は、次のシーケンス番号カウンタ1632と受信された
シーケンス番号1614との間の差Dを取得し、その差
DをMT待ち行列1626の先頭の読出しデータ162
4のブロックID情報Bに加算する。すなわち、B+D
は見つけるべきブロックID情報1627である。ステ
ップ1905において、読出し要求受信プロセスは、ブ
ロックID情報1627がB+Dである待ち行列エント
リを探索する。待ち行列1626のそのエントリにある
読出しデータ1624は、受信されたシーケンス番号1
614とともに、読出し要求発行プロセス1615に送
られる(ステップ1906)。処理はステップ1907
に続く。
【0077】ステップ1907において、読出し要求受
信プロセス1617は、送信された読出しデータ162
4に対応する待ち行列エントリを削除する。このよう
に、シーケンス番号1614を使用することによって、
リモートMTシステム1605は、たとえ読出し要求が
通信路1613の性質のため乱順になった場合でも間違
いなくアクセスされた読出しデータ1624を認識する
ことができる。図17に戻って言えば、受信データは、
受信されたシーケンス番号1614に従って組み立てら
れる。従って、リモートシステムにおける読出し要求が
乱順になった場合、シーケンス番号は、それらが正しい
順序で満たされるように保証する。同様に、ローカルシ
ステムにおいて受信データが乱順になった場合も、それ
はシーケンス番号1614により正しく組み立てられ
る。
【0078】リモートMTシステム1605における書
込み要求受信プロセス1618のフローは、図20に示
す。書込まれるデータのMT待ち行列1626の構造
は、読出しデータ1624のそれと同じである。書込み
データ1625の場合、MT装置1605の次のシーケ
ンス番号カウンタ1632は、テールポインタ1629
によってポイントされる書込みデータのシーケンス番号
1614よりも1だけ大きい。
【0079】リモートコンピュータにおける書込み要求
受信プロセス1618は、シーケンス番号1614およ
び書込みデータ1625を伴う書込み要求を受信し、書
込みデータをキャッシュメモリ1611に格納する(ス
テップ2000)。次に、書込み要求受信プロセス16
18は、シーケンス番号1614が次のシーケンス番号
カウンタ1632と等しいかまたはそれより大きいかど
うかを確認する(ステップ2001)。等しければ、そ
れは対応する書込みMT待ち行列1626の末尾の受信
された書込みデータ1625を挿入し、従ってMT待ち
行列の情報を更新する(ステップ2002)。プロセス
はその後、受信された書込みデータ1625のブロック
IDを計算し、それをブロックID情報1627に格納
する(ステップ2003)。その後、D2(シーケンス
番号1614と次のシーケンス番号カウンタ1632と
の差)+1を次のシーケンス番号カウンタ1632に加
算し(ステップ2004)、ステップ2009にジャン
プする。
【0080】受信されたシーケンス番号が次のシーケン
ス番号カウンタ1632より小さい場合、プロセスは、
次のシーケンス番号カウンタ1632と受信されたシー
ケンス番号1614との差を計算する(ステップ200
5)。プロセスは、書込みデータ1624を挿入するた
めのMT待ち行列1626の位置を見つけ、従ってMT
待ち行列の情報を更新する(ステップ2007)。その
後プロセスは、受信された書込みデータ1625のブロ
ックIDを計算し、それをブロックID情報1627に
格納する(ステップ2008)。次に、書込み要求受信
プロセスは書込み要求の完了を通知し、受信されたシー
ケンス番号1614を書込み要求発行プロセス1616
に返送する(ステップ2009)。このようにして、シ
ーケンス番号1614を使用することによって、リモー
トMTシステム1605はやはり、たとえ書込み要求が
通信路1613のために乱順になった場合でも間違いな
く書込みデータ1625のブロックIDを認識すること
ができる。
【0081】図21は、MT記憶装置システムに関する
本発明の別の実施形態を示す。本発明のこの実施形態
は、図16に示す実施形態と本質的に同じである。相違
は、乱順の発生を検出し、当該発生を訂正するために、
図16において使用されたシーケンス番号1614の代
わりに次のブロックID情報1700、1701を使用
することである。
【0082】
【発明の効果】本発明によれば、信頼できるIPベース
のデータ回復システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の一般化したシステム図である。
【図2】シーケンス番号がリモートコピーペアごとに割
り当てられる本発明の1実施形態の一般化したブロック
図である。
【図3】シーケンス番号がリモートディスクシステムご
とに維持される本発明の別の実施形態の一般化したブロ
ック図である。
【図4】シーケンス番号がデータの完全性ペアグループ
ごとに管理される本発明の別の実施形態の一般化したブ
ロック図である。
【図5】本発明の1実施形態に従ったプロセスフローを
概説する。
【図6】本発明の1実施形態に従ったプロセスフローを
概説する。
【図7】本発明の1実施形態に従ったプロセスフローを
概説する。
【図8】本発明の1実施形態に従ったプロセスフローを
概説する。
【図9】本発明の1実施形態に従ったプロセスフローを
概説する。
【図10】本発明の1実施形態に従ったプロセスフロー
を概説する。
【図11】本発明の1実施形態に従ったプロセスフロー
を概説する。
【図12】図6に示すプロセスフローの代替実施形態を
示す。
【図13】図9に示すプロセスフローの代替実施形態を
示す。
【図14】図6に示すプロセスフローの別の代替実施形
態を示す。
【図15】図9に示すプロセスフローの別の代替実施形
態を示す。
【図16】本発明の磁気テープ記憶装置システムの実施
形態を示す。
【図17】磁気テープ記憶装置システムによる本発明の
実施形態におけるプロセスフローを示す。
【図18】磁気テープ記憶装置システムによる本発明の
実施形態におけるプロセスフローを示す。
【図19】磁気テープ記憶装置システムによる本発明の
実施形態におけるプロセスフローを示す。
【図20】磁気テープ記憶装置システムによる本発明の
実施形態におけるプロセスフローを示す。
【図21】本発明の別の磁気テープ実施形態である。
【符号の説明】
100…ローカルコンピュータシステム、101…リモ
ートコンピュータシステム、102…ローカルHOST
システム、103…リモートHOSTシステム、104
…ローカルディスクシステム、105…リモートディス
クシステム、106…ローカルディスク装置、107…
リモートディスク装置、108…リモートコピーペア、
109…データの完全性ペアグループ、200…ローカ
ルディスク制御装置、201…リモートディスク制御装
置、202…キャッシュメモリ、402…シーケンスカ
ウンタ、1605…リモートMTシステム、1606…
スイッチシステム、1608…リモートMT装置、16
10…MT制御装置、1612…メインメモリ。

Claims (32)

    【特許請求の範囲】
  1. 【請求項1】 記憶装置システムであって、 第1の記憶装置コンポーネントを有する第1のコンピュ
    ータシステムと、 第2の記憶装置コンポーネントを有する第2のコンピュ
    ータシステムとを含み、 第1および第2の記憶装置コンポーネントはデータネッ
    トワークによってデータを交換するように構成されてお
    り、 第1のコンピュータシステムは、データのブロックを第
    1の記憶装置コンポーネントに書込み、データパケット
    を第2のコンピュータシステムに伝送するためにプログ
    ラムコードで構成されたメモリを有しており、データパ
    ケットはデータブロック、タイムスタンプおよびシーケ
    ンス番号を含むものであり、 第2のコンピュータシステムは、第1のコンピュータシ
    ステムからデータパケットを受信し、データパケットに
    含まれているタイムスタンプおよびシーケンス番号に基
    づき候補データパケットを選択し、候補データパケット
    を第2の記憶装置システムに書込むようにプログラムコ
    ードにより構成されたメモリを有しており、 ここにおいて、第1の記憶装置コンポーネントに書込ま
    れるデータのブロックは、第1の記憶装置コンポーネン
    トにおけると同じ順序で第2の記憶装置コンポーネント
    に書込まれるものである、システム。
  2. 【請求項2】 第2のメモリがさらに、タイムスタンプ
    の中からそれらの対応するシーケンス番号に基づきリミ
    ットタイムスタンプを取得し、それらの対応するタイム
    スタンプをリミットタイムスタンプと比較することによ
    ってデータパケットの中から候補データパケットを選択
    するようにプログラムコードにより構成されている、請
    求項1記載のシステム。
  3. 【請求項3】 データネットワークがコネクションレス
    型ネットワークである、請求項1記載のシステム。
  4. 【請求項4】 データパケットがそれらが送信されたも
    のと同じ順序で受信されると保証できないものとしてデ
    ータネットワークが特徴づけられる、請求項1記載のシ
    ステム。
  5. 【請求項5】 データネットワークがワイドエリアネッ
    トワークである、請求項4記載のシステム。
  6. 【請求項6】 第1の記憶装置コンポーネントが複数の
    第1のデータ記憶装置よりなり、第2の記憶装置コンポ
    ーネントが複数の第2のデータ記憶装置よりなり、第1
    のデータ記憶装置の各々は第2のデータ記憶装置の1個
    と対応しており、ここにおいて、第1のデータ記憶装置
    の1個に格納されたデータが対応する第2のデータ記憶
    装置の1個にも格納される、請求項1記載のシステム。
  7. 【請求項7】 第1の記憶装置コンポーネントが複数の
    第1のディスクシステムよりなり、第2の記憶装置コン
    ポーネントが複数の第2のディスクシステムよりなり、
    第1のディスクシステムは各々第2のディスクシステム
    の1個以上と関係づけられており、ここにおいて、第1
    のディスクシステムのうちの1個に格納されたデータが
    関係する1個以上の第2のディスクシステムにも格納さ
    れる、請求項1記載のシステム。
  8. 【請求項8】 第1のディスクシステムの各々が複数の
    第1のディスク装置よりなり、第2のディスクシステム
    の各々が複数の第2のディスク装置よりなり、第1のデ
    ィスク装置の各々は第2のディスク装置の1個と関係づ
    けられている、請求項7記載のシステム。
  9. 【請求項9】 第1のディスク装置は各々、第1のディ
    スク装置が属する第1のディスクシステムとは独立に、
    第2のディスク装置のうちの1個と関係づけられてい
    る、請求項8記載のシステム。
  10. 【請求項10】 ローカルシステムに含まれるデータを
    リモートシステムにバックアップする方法であって、 データのブロックをローカルデータ記憶装置に書込むこ
    とと、 データパケットをリモートシステムに送信することと、
    データパケットはデータのブロック、タイムスタンプお
    よびシーケンス番号を含むものであり、 ローカルシステムからデータパケットを受信すること
    と、 そのデータのブロックがリモートデータ記憶装置に書込
    まれるデータパケットを、データパケットのシーケンス
    番号およびタイムスタンプに基づき選択することとを含
    む、方法。
  11. 【請求項11】 次のデータパケットのシーケンス番号
    を増分することをさらに含む、請求項10記載の方法。
  12. 【請求項12】 データパケットを選択することが、タ
    イムスタンプの中からそれらの関係するシーケンス番号
    に基づきリミットタイムスタンプを取得することと、そ
    れらの関係するタイムスタンプをリミットタイムスタン
    プと比較することによってデータパケットの中からその
    データパケットを選択することを含む、請求項10記載
    の方法。
  13. 【請求項13】 ローカルデータ記憶装置が複数のロー
    カルディスク装置よりなり、リモートデータ記憶装置が
    複数のリモートディスク装置よりなり、各ローカルディ
    スク装置がリモートコピーペアを規定するためにリモー
    トディスク装置の1個と対にされている、請求項10記
    載の方法。
  14. 【請求項14】 ローカルディスク装置にデータの複数
    のブロックを書込むことと、各リモートディスク装置が
    その関係する複数のデータパケットに基づくシーケンス
    番号のリストを有するようにリモートディスク装置に複
    数のデータパケットを送信することとをさらに含み、該
    方法はさらに、シーケンス番号の各リストについて、シ
    ーケンス番号の最も長い連続を取得することと、その最
    も長い連続から最高値のシーケンス番号を取得すること
    と、最高値のシーケンス番号に対応するタイムスタンプ
    を取得することと、それによって、タイムスタンプのリ
    ストを生成することとを含み、該方法はさらに、タイム
    スタンプのリストの中で最早タイムスタンプに基づきデ
    ータパケットを選択することを含む、請求項13記載の
    方法。
  15. 【請求項15】 ローカルデータ記憶装置が複数のロー
    カルディスクシステムよりなり、リモートデータ記憶装
    置が複数のリモートディスクシステムよりなり、各ロー
    カルディスクシステムが1個以上のリモートディスクシ
    ステムと関係づけられており、ここにおいて、ローカル
    ディスクシステムの1個以上に格納されたデータが、関
    係する1個以上のリモートディスクシステムにも格納さ
    れる、請求項10記載の方法。
  16. 【請求項16】 ローカルディスクシステムの各々が複
    数のローカルディスク装置よりなり、リモートディスク
    システムの各々が複数のリモートディスク装置よりな
    り、ローカルディスク装置の各々がリモートディスク装
    置の1個と関係づけられている、請求項15記載の方
    法。
  17. 【請求項17】 各ローカルディスク装置が、ローカル
    ディスク装置が属するローカルディスクシステムとは独
    立に、リモートディスク装置の1個と関係づけられてい
    る、請求項16記載の方法。
  18. 【請求項18】 データのブロックをローカルデータ記
    憶装置に書込むこととデータパケットをリモートシステ
    ムに送信することが非同期に実行される、請求項10記
    載の方法。
  19. 【請求項19】 データパケットがコネクションレス型
    データネットワークによって送信される、請求項10記
    載の方法。
  20. 【請求項20】 データパケットが、それらが送信され
    たものと同じ順序で行先に着信すると保証できないもの
    として特徴づけられるデータネットワークによってデー
    タパケットが送信される、請求項10記載の方法。
  21. 【請求項21】 データネットワークがワイドエリアネ
    ットワークである、請求項20記載の方法。
  22. 【請求項22】 複数のローカルデータ記憶装置よりな
    るローカル記憶装置システムにおいて、ローカル記憶装
    置システムのデータを、複数のリモートデータ記憶装置
    よりなるリモート記憶装置システムにバックアップする
    方法であって、該方法が、 各ローカルデータ記憶装置において、それに書込まれる
    データブロックを受信することと、 各ローカルデータ記憶装置において、データブロック、
    タイムスタンプおよびシーケンス番号よりなるデータパ
    ケットをリモートデータ記憶装置の1個に伝送すること
    と、 リモートデータ記憶装置において、ローカルデータ記憶
    装置から複数のデータパケットを受信することと、ここ
    において、各リモートデータ記憶装置は、その関係する
    複数のデータパケット、シーケンス番号のリストおよ
    び、関係するデータパケットからのタイムスタンプのリ
    ストを有するものであり、 各リモートデータ記憶装置において、シーケンス番号の
    中で最も長い連続を識別し、最も長い連続の最高値のシ
    ーケンス番号のデータパケットを取得することと、 各リモートデータ記憶装置において、得られたデータパ
    ケットから最早タイムスタンプを取得することと、 得られたタイムスタンプのうちで最早のものをリミット
    タイムとして選択することと、 各リモートデータ記憶装置において、最早タイムスタン
    プを有する候補データパケットを選択することと、 タイムスタンプがリミットタイムより早い候補データパ
    ケットの中からデータパケットを選択することとを含
    む、方法。
  23. 【請求項23】 ローカル記憶装置システムが1個以上
    のローカルディスクシステムよりなり、各ローカルディ
    スクシステムが1個以上のローカルディスク駆動装置よ
    りなり、リモート記憶装置システムが1個以上のリモー
    トディスクシステムよりなり、各リモートディスクシス
    テムが1個以上のリモートディスク駆動装置よりなり、
    各ローカルディスク駆動装置がリモートコピーペアを規
    定するためにリモートディスク駆動装置の1個と関係づ
    けられている、請求項22記載の方法。
  24. 【請求項24】 各ローカルデータ記憶装置がローカル
    ディスク駆動装置の1個であり、各リモートデータ記憶
    装置がリモートディスク駆動装置のうちの1個であり、
    ここにおいて、各リモートコピーペアと関係づけられた
    シーケンス番号が存在する、請求項23記載の方法。
  25. 【請求項25】 受信された複数のデータパケットがリ
    モートコピーペアに従ってグループ化される、請求項2
    4記載の方法。
  26. 【請求項26】 シーケンス番号が、共通のリモートコ
    ピーペアを有するローカルおよびリモートディスクシス
    テムの各対と関係づけられている、請求項23記載の方
    法。
  27. 【請求項27】 複数のデータパケットの各々が、それ
    が送信された元のローカルディスクシステムに基づきグ
    ループ化される、請求項26記載の方法。
  28. 【請求項28】 各リモートコピーペアが複数のデータ
    の完全性ペアの1個と関係づけられており、ここにおい
    て、シーケンス番号が、共通のデータの完全性ペアグル
    ープを有するローカルおよびリモートディスクシステム
    の各対と関係づけられている、請求項23記載の方法。
  29. 【請求項29】 データアクセス方法であって、 データ転送要求を付与することと、データ転送要求はシ
    ーケンス番号を含むものであり、 データ転送要求をローカルシステムからリモートシステ
    ムに伝送することと、 リモートシステムにおいて、データのブロックを含んで
    いるエントリの待ち行列を付与することと、データ転送
    要求は待ち行列のターゲットエントリに向けられてお
    り、 リモートシステムにおいて、データ転送要求のシーケン
    ス番号をシーケンス番号カウンタの現在値と比較するこ
    とと、 シーケンス番号がシーケンス番号カウンタと等しくない
    場合、シーケンス番号とシーケンス番号カウンタとの差
    に基づくエントリの数だけ待ち行列をトラバースするこ
    とによって待ち行列のターゲットエントリへのアクセス
    を得ることと、 シーケンス番号がシーケンス番号カウンタに等しい場
    合、ターゲットエントリへのアクセスを得るために待ち
    行列の一方の端にアクセスすることと、 ターゲットエントリでデータ転送要求を実行することと
    を含む、方法。
  30. 【請求項30】 リモートシステムが磁気テープ記憶装
    置システムを含み、データ転送要求が磁気テープ記憶装
    置システムへの読出しおよび書込み要求である、請求項
    29記載の方法。
  31. 【請求項31】 データ転送要求が読出し要求であり、
    待ち行列のデータのブロックが読出し要求を満たすため
    に使用される、請求項29記載の方法。
  32. 【請求項32】 データ転送要求が、新しいエントリと
    して待ち行列に挿入される書込みデータを含む書込み要
    求であり、新しいエントリがターゲットエントリの前ま
    たは後に挿入される、請求項29記載の方法。
JP2001197685A 2000-06-30 2001-06-29 データの完全性を伴いデータネットワークに接続される記憶装置システム Expired - Fee Related JP4066617B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/607,807 US6859824B1 (en) 2000-06-30 2000-06-30 Storage system connected to a data network with data integrity
US09/607807 2000-06-30

Publications (3)

Publication Number Publication Date
JP2002281065A true JP2002281065A (ja) 2002-09-27
JP2002281065A5 JP2002281065A5 (ja) 2005-06-16
JP4066617B2 JP4066617B2 (ja) 2008-03-26

Family

ID=24433785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001197685A Expired - Fee Related JP4066617B2 (ja) 2000-06-30 2001-06-29 データの完全性を伴いデータネットワークに接続される記憶装置システム

Country Status (2)

Country Link
US (1) US6859824B1 (ja)
JP (1) JP4066617B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2393838B (en) * 2002-10-04 2006-08-30 William Powell Recording writing movements
EP1837769A2 (en) * 2003-06-27 2007-09-26 Hitachi, Ltd. Data mirroring system using journal data
JP2009271701A (ja) * 2008-05-07 2009-11-19 Hitachi Ltd ストレージ装置制御方法および計算機システム
US7725445B2 (en) 2003-06-27 2010-05-25 Hitachi, Ltd. Data replication among storage systems
US8234471B2 (en) 2003-06-27 2012-07-31 Hitachi, Ltd. Remote copy method and remote copy system

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302556A (ja) * 2003-03-28 2004-10-28 Hitachi Ltd 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP4374953B2 (ja) 2003-09-09 2009-12-02 株式会社日立製作所 データ処理システム
US8490096B2 (en) * 2003-07-11 2013-07-16 Ca, Inc. Event processor for job scheduling and management
US7489640B2 (en) * 2003-09-30 2009-02-10 Agere Systems Inc. Processor with continuity check cache
JP4563725B2 (ja) * 2004-05-17 2010-10-13 株式会社日立製作所 計算機システム
JP4396657B2 (ja) * 2006-03-16 2010-01-13 ソニー株式会社 通信装置及び送信制御方法及び送信制御プログラム
US8402201B2 (en) 2006-12-06 2013-03-19 Fusion-Io, Inc. Apparatus, system, and method for storage space recovery in solid-state storage
JP4786522B2 (ja) * 2006-12-25 2011-10-05 富士通株式会社 パケット中継方法及び装置
US7836226B2 (en) 2007-12-06 2010-11-16 Fusion-Io, Inc. Apparatus, system, and method for coordinating storage requests in a multi-processor/multi-thread environment
JP5112246B2 (ja) * 2008-10-09 2013-01-09 株式会社日立製作所 ストレージシステム及び通信方法
US10587688B2 (en) 2014-09-19 2020-03-10 Netapp, Inc. Techniques for coordinating parallel performance and cancellation of commands in a storage cluster system
US11734070B2 (en) * 2019-11-19 2023-08-22 Verizon Patent And Licensing Inc. Systems and methods for providing a compare and swap platform for sequence number generation in a cloud computing environment

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544347A (en) 1990-09-24 1996-08-06 Emc Corporation Data storage system controlled remote data mirroring with respectively maintained data indices
US5615329A (en) 1994-02-22 1997-03-25 International Business Machines Corporation Remote data duplexing
US5870537A (en) 1996-03-13 1999-02-09 International Business Machines Corporation Concurrent switch to shadowed device for storage controller and device errors
JP3414218B2 (ja) 1997-09-12 2003-06-09 株式会社日立製作所 記憶制御装置
US6324654B1 (en) * 1998-03-30 2001-11-27 Legato Systems, Inc. Computer network remote data mirroring system
US6301643B1 (en) * 1998-09-03 2001-10-09 International Business Machines Corporation Multi-environment data consistency
US6446175B1 (en) * 1999-07-28 2002-09-03 Storage Technology Corporation Storing and retrieving data on tape backup system located at remote storage system site
US6662213B1 (en) * 2000-01-10 2003-12-09 Sun Microsystems, Inc. System and method for ensuring delivery of a single communication between nodes
US6594786B1 (en) * 2000-01-31 2003-07-15 Hewlett-Packard Development Company, Lp Fault tolerant high availability meter
US6629264B1 (en) * 2000-03-30 2003-09-30 Hewlett-Packard Development Company, L.P. Controller-based remote copy system with logical unit grouping
US6526419B1 (en) * 2000-06-09 2003-02-25 International Business Machines Corporation Method, system, and program for remote copy in an open systems environment

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2393838B (en) * 2002-10-04 2006-08-30 William Powell Recording writing movements
US8566284B2 (en) 2003-06-27 2013-10-22 Hitachi, Ltd. Data replication among storage systems
EP1837769A3 (en) * 2003-06-27 2008-05-14 Hitachi, Ltd. Data mirroring system using journal data
US7725445B2 (en) 2003-06-27 2010-05-25 Hitachi, Ltd. Data replication among storage systems
US8135671B2 (en) 2003-06-27 2012-03-13 Hitachi, Ltd. Data replication among storage systems
US8234471B2 (en) 2003-06-27 2012-07-31 Hitachi, Ltd. Remote copy method and remote copy system
US8239344B2 (en) 2003-06-27 2012-08-07 Hitachi, Ltd. Data replication among storage systems
EP1837769A2 (en) * 2003-06-27 2007-09-26 Hitachi, Ltd. Data mirroring system using journal data
US8943025B2 (en) 2003-06-27 2015-01-27 Hitachi, Ltd. Data replication among storage systems
US9058305B2 (en) 2003-06-27 2015-06-16 Hitachi, Ltd. Remote copy method and remote copy system
JP2009271701A (ja) * 2008-05-07 2009-11-19 Hitachi Ltd ストレージ装置制御方法および計算機システム
JP4616898B2 (ja) * 2008-05-07 2011-01-19 株式会社日立製作所 ストレージ装置制御方法および計算機システム
US8661219B2 (en) 2008-05-07 2014-02-25 Hitachi, Ltd. Storage device control method and computer system

Also Published As

Publication number Publication date
US6859824B1 (en) 2005-02-22
JP4066617B2 (ja) 2008-03-26

Similar Documents

Publication Publication Date Title
EP0602822B1 (en) Method and apparatus for remote data duplexing
JP4066617B2 (ja) データの完全性を伴いデータネットワークに接続される記憶装置システム
US7516287B2 (en) Methods and apparatus for optimal journaling for continuous data replication
US7627612B2 (en) Methods and apparatus for optimal journaling for continuous data replication
US7496718B2 (en) Data transfer and access control between disk array systems
US7533181B2 (en) Apparatus, system, and method for data access management
US7925629B2 (en) Write ordering style asynchronous replication utilizing a loosely-accurate global clock
US5140689A (en) Data recovery system and method of distributed transaction processing system
JP4236049B2 (ja) データのミラー・コピーを提供するための方法、システム、およびプログラム
US6839706B2 (en) Block data storage within a computer network
US7693882B2 (en) Replicating data across the nodes in a cluster environment
US20080016300A1 (en) Asynchronous replication with write concurrency grouping
JP2008515112A (ja) 仮想順序付け書き込み
JP2007317186A (ja) バックアップデータおよびジャーナルを管理するための方法および装置
EP2201456A2 (en) Fast data recovery system
JP2003167684A (ja) ディスクアレイ装置間の遠隔データコピー方式
US7451283B2 (en) Method, system, and program for copying tracks between a primary storage and secondary storage
US20030154305A1 (en) High availability lightweight directory access protocol service
JP2005309793A (ja) データ処理システム
EP1566041B1 (en) High-performance lock management for flash copy in n-way shared storage systems
JP4259036B2 (ja) ネットワークデータのキャッシュ方法およびシステム
JP2006323663A (ja) 情報処理システムとレプリケーション方法並びに差分情報保持装置とプログラム
US20050120134A1 (en) Methods and structures for a caching to router in iSCSI storage systems
US7363431B1 (en) Message-based distributed synchronization in a storage system
JP4512386B2 (ja) バックアップシステムおよび方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071231

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees