JP3951547B2 - レプリケーションによるホスト間データ共有方式 - Google Patents

レプリケーションによるホスト間データ共有方式 Download PDF

Info

Publication number
JP3951547B2
JP3951547B2 JP2000088509A JP2000088509A JP3951547B2 JP 3951547 B2 JP3951547 B2 JP 3951547B2 JP 2000088509 A JP2000088509 A JP 2000088509A JP 2000088509 A JP2000088509 A JP 2000088509A JP 3951547 B2 JP3951547 B2 JP 3951547B2
Authority
JP
Japan
Prior art keywords
disk
storage device
computer
host
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000088509A
Other languages
English (en)
Other versions
JP2001273242A (ja
Inventor
学 北村
憲司 山神
山本  彰
稔 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000088509A priority Critical patent/JP3951547B2/ja
Priority to US09/697,088 priority patent/US7117249B1/en
Publication of JP2001273242A publication Critical patent/JP2001273242A/ja
Application granted granted Critical
Publication of JP3951547B2 publication Critical patent/JP3951547B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99955Archiving or backup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multi Processors (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理システムなどにおける記憶装置システムのデータ共有方法に係り、特に、複数のインタフェースを有する記憶装置サブシステムを備えた計算機システムにおいて、データを共有する方法に関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータ(パソコン)やワークステーションなどのオープンシステムで、従来、メインフレームで行われてきた業務を行う「ダウンサイジング」が盛んに行われている。メインフレームには、従来から行われてきた業務により大量の情報が蓄積されており、メインフレームによる業務処理で蓄積されてきた情報をパソコンなどの小型のコンピュータからもアクセスしたいという要求がある。
【0003】
例えば、日経コンピュータ別冊「メインフレーム'98」(日経BP社)214ページには、企業内の計算機システムにおいて、メインフレームとオープンシステムとの複合構成の事例が紹介されている。ここに紹介される計算機システムでは、メインフレームにより売り上げ情報の処理が行われ、この結果として蓄積されたデータは、集計されて1日1回オープンシステム側のコンピュータにネットワークを経由して転送される。ユーザは、オープンシステム側のコンピュータ上でデータを参照することができる。このような形態をとることで、メインフレームで扱われる基幹業務のデータを、オープンシステムからアクセスすることが可能になる。このような方式では、メインフレームで扱われる基幹業務が一時的に停止され、全てのデータがネットワークを経由してコピーされる。扱われるデータ量が多ければ、それだけコピーの時間も多くかかる。このため、ホストコンピュータやネットワークの負荷が大きくなり、さらには、長時間にわたって業務を止めなければならないといった問題が生じる恐れがある。
【0004】
このような問題の解決策の1つとして、複数のホストコンピュータから1つのディスク装置(ボリューム)にアクセスできるようにすることが考えられる。例えば、特開平9−258908号公報には、複数のインタフェースを持つ記憶装置と、その複数のインタフェースに接続されたそれぞれのホストコンピュータから、そのディスク装置にアクセスする方法が開示されている。この技術によれば、システム間でのデータのコピーが不要となりホストコンピュータの負荷を軽減することができる。
【0005】
【発明が解決しようとする課題】
上述したように、特開平9−258908号公報に開示された技術によれば、複数のホストコンピュータから共通のディスク装置にアクセスすることができる。ただし、実際にデータを使用するには、そのデータが論理的に整合性のとれたものでなければならない。例えば、メインフレームからあるファイルのデータの更新が行われているときに、オープンシステムからそのファイルのデータを読み込むと、一貫性のないデータが読み込まれる恐れがある。このため、オープンシステムからのファイルデータの読み込みは、メインフレーム側で行われている処理(トランザクション)が一旦途切れて、ディスク装置に書かれたデータの内容の一貫性が保たれている間に行われる必要がある。しかし、データの内容が一貫性のある状態となるのは、あるトランザクションが完了し、次のトランザクションが始まるまでのごく短い時間でしかない。したがって、特開平09-258908号公報に開示される技術においても、メインフレーム側の処理をオフライン状態にしてデータの内容に一貫性のある状態をある程度の時間保つようにしなければ、別のホストコンピュータから共通のディスク装置に格納されているデータを読み出して利用することは事実上不可能である。
【0006】
本発明の目的は、異なるホストコンピュータ間で、アプリケーションソフトの実行を極力中断することなく、共通のファイルにアクセスできるようにすることにある。
【0007】
【課題を解決するための手段】
本発明は、上記課題を解決するために、第1の計算機と、第2の計算機と、第1及び第2の計算機に接続する記憶装置サブシステムとを備える計算機システムにおいて、第1の計算機が使用する第1の記憶装置の内容と同一の内容を持つ第2の記憶装置を作成し、第2の記憶装置の内容を第2の計算機から使用できるようにする。
【0008】
好ましくは、第2の記憶装置は、第1の計算機による通常の処理において、第1の記憶装置に対する第1の計算機からの更新が反映されるように制御される。第2の記憶装置の内容を第2の計算機から利用できるようにする際には、第1の記憶装置への更新が第2の記憶装置に反映されないように制御される。
【0009】
本発明の一つの態様では、第2の記憶装置を、第2の計算機が使用していた第3の記憶装置と入れ替え、第2の計算機から第2の記憶装置を使用できるようにする。
【0010】
また、本発明の他の態様においては、第2の記憶装置の内容を第3の記憶装置にコピーし、第3の記憶装置を第2の計算機が使用していた第4の計算機と入れ替える。
【0011】
本発明のさらに他の態様によれば、第2の記憶装置に、ある時点における第1の記憶装置の内容の写しを保持しておく。第1の記憶装置の内容が更新されたとき、その更新の内容を第3の記憶装置に記録する。第1の記憶装置の内容を第2の計算機から使用できるようにするために、第3の記憶装置に記録された更新の内容に基づいて、第2の記憶装置の内容を書き換え、第1の記憶装置と同一の内容を第2の記憶装置に作成する。このように作成した第2の記憶装置を第2の計算機が使用していた第4の記憶装置と入れ替えることで、その内容を第2の記憶装置から使用できるようにする。
【0012】
以上のような構成を採ることにより、第1の計算機がアクセスしていたデータを第2の計算機で使用することができるようになる。
【0013】
【発明の実施の形態】
−第1の実施形態−
図1は、本発明が適用された計算機システムの一実施形態における構成例を示す機能ブロック図である。
【0014】
本実施形態における計算機システムは、ホストコンピュータ(以下、ホストと略す)1a、ホスト2a、ホスト1aとホスト2aに接続される記憶装置サブシステム3a、及び、ネットワーク5を含んで構成される。
【0015】
ホスト1aは、記憶装置サブシステム3aとの間のインタフェース11、ネットワークインタフェース12、オペレーティングシステム13、及び、アプリケーションプログラム14が存在する。ホスト1aは、物理的には、CPU、メモリなどのハードウェアを有して構成されるが、本実施形態の説明において、これらのハードウェアは、特に従来の計算機システムと変わるものではなく、本明細書では説明を省略する。このことは、本実施形態における他の装置についても同様である。オペレーティングシステム13、アプリケーションプログラム14は、実際には、図示しないメモリに格納され、やはり図示されていないCPUによって実行されることで種々の機能を実現する。
【0016】
ホスト2aは、記憶装置サブシステム3aとの間のインタフェース21、ネットワークインタフェース22、オペレーティングシステム23、及びアプリケーションプログラム24を有する。オペレーティングシステム23、及びアプリケーションプログラム24は、オペレーティングシステム13、アプリケーションプログラム14と同様に、図示しないメモリに格納され、やはり図示されていないCPUによって実行される。
【0017】
記憶装置サブシステム3aは、複数のディスク31、32、33、ホスト1aと接続するインタフェース41、ホスト2aと接続するインタフェース42、ディスク制御装置43、及びコンソール44を有する。ディスク31、32、33は、それぞれ単体の磁気ディスク装置、あるいは、ディスクアレイのように、複数の物理的な磁気ディスク装置(ドライブ)をまとめて、ホストから見て1または複数の論理的なディスク装置(論理ボリューム)として見えるものでも良い。後者の場合、ディスク31、32、33は、それぞれ論理ボリュームである。本実施形態では、ホスト1aからはディスク31に、またホスト2aからはディスク32、33にアクセスできるものとする。
【0018】
ディスク制御装置43は、その機能として、ディスクのミラーリング機能と、ディスクマッピング変更機能を有する。
【0019】
ミラーリング機能は、ある時点のディスクの内容をそのまま別ディスクにコピーとして残すことのできる機能である。ミラーリング機能の具体的な例として、ディスク31のコピーをディスク32にとる場合について考える。ここでは、コピー元となるディスク31を正ディスク、コピー先となるディスク32を副ディスクと呼ぶ。
【0020】
ユーザは、記憶装置サブシステム3aに対して、ディスク31、32をそれぞれ正/副ディスクとして関連付け、コピー開始を指示する。この処理をペア形成と呼ぶ。ここでの指示は、例えば、ホスト1aからインタフェース11を介して、あるいは、コンソール44から出される。コンソール44から指示を与える場合には、ユーザが直接コンソール44を操作して指示を出す他、ホスト1aからネットワーク経由でコンソール44に指示を出し、これを受けてコンソール44が記憶装置サブシステム3aに指示を出すようにしてもよい。本実施形態ではホスト1aからネットワーク経由でコンソール44に対して指示が出され、コンソールからの指示に基づいてコピーが開始されるものとして説明するが、いずれの方法をとっても本発明のおける機能は実現できる。
【0021】
ペア形成が指示されると、ディスク制御装置43がディスク31からディスク32へのコピーを実施する。コピー開始時点では、ディスク31、32のデータ内容は一致していない。この状態を「ペア形成中」と呼ぶ。ペア形成中状態では、記憶装置サブシステム3aは、ディスク31からディスク32へのデータのコピーを実施する。ディスク制御装置43は、この間も、ホスト1aからディスク31へのリード/ライトアクセスがあれば、これを受け付ける。ホスト1aからライトアクセスがあってディスク31の内容を更新したとき、ディスク制御装置43は、その更新内容をディスク32にも反映する。
【0022】
コピー処理が実施されて、ディスク31の内容がディスク32に完全にコピーされた状態を「duplex状態」と呼ぶ。duplex状態のとき、ホスト1aからディスク31へライトアクセスがあると、ディスク制御装置43は、その内容をディスク32へも反映させる。
【0023】
記憶装置サブシステム3aがduplex状態で動作中、ディスク31のある時点の状態をディスク32に保存したい時、ユーザは、記憶装置サブシステム3aに対して「ペア解除」の指示を送る。記憶装置サブシステム3は、ペア解除の指示を受けると、ディスク32をその時点の状態で保存する。すなわち、「ペア解除」の指示を受けると、ディスク制御装置43は、これ以降、ホスト1aからディスク31へライトアクセスによりディスク31の内容を更新しても、ディスク32へはその更新を反映しない。この状態を「simplex状態」と呼ぶ。
【0024】
simplex状態になった後、再度ディスク31とディスク32をduplex状態にしたい時、ユーザは、記憶装置サブシステム3aに対して、ディスク31、32間でのコピー開始を指示する。この場合、ディスク31とディスク32の多くのデータは同じ内容であり、コピー量は少なく、比較的短時間でduplex状態へと移行できる。
【0025】
ミラーリング機能では、あるディスクに対してもう1台ディスクを用意してペアを形成ておき、duplex状態からsimplex状態に変えることで、任意時点でのディスクのコピーを作成することができる。
【0026】
例えば、ディスクがSCSI(Small Computer System Interface)ディスクの場合、各ディスクにはターゲットID、LUN(Logical Unit Number)が付与されている。各ホストは、これらの識別子によりインタフェースから見える複数のディスクを識別し、アクセス対象のディスクを選定する。記憶装置サブシステム3aは、ディスクマッピング変更機能により、ホスト1a、2aに認識させるこれらの識別子を自由に変更できる。例えば、最初、ディスク32はターゲットIDが0、LUNが0であり、ディスク33はターゲットIDが1、LUNが0である場合に、記憶装置サブシステム3aは、ある時点でこれを逆にすることができる。すなわち、ディスク32のターゲットIDが1、LUNが0であり、ディスク33のターゲットIDが0、LUNが0であるように切り替えることができる。
【0027】
あるいは、ディスク33には最初ターゲットID、LUNを付与せず、ホストからは見えないようにしておき、ある時点でディスク33にターゲットIDとして1、LUNとして0を付与し、ホストから見えるようにすることもできる。各ホストはターゲットID、LUNでアクセス対象とするディスクを識別している。したがって、マッピング変更機能を用いることで、ホストに意識させることなく、任意の時点で、アクセス先のディスクを切り替えることが可能となる。
【0028】
図2は、ディスク31に格納されたホスト1aのデータをホスト2aで使用するときに行われる処理の流れを示すフローチャートである。ここでは、以下の点を想定して説明を行う。
【0029】
ディスク31とディスク32がduplex状態にされており、ホスト1aからは少なくともディスク31が、ホスト2aからは少なくともディスク33が見えるように制御されているものとする。ディスク32は、ホスト1a、2aから見えていても見えていなくても良いが、ここではホスト1a、2aからは見えない状態にあるものとする。
【0030】
ホスト1a上のアプリケーションプログラム14は、データベースなどのOLTP(OnLine Transaction Processing)処理を行い、ディスク31への更新を頻繁に行うプログラム、ホスト2のアプリケーションプログラム24はディスク33へのライトアクセスは行われないプログラムである。アプリケーションプログラム24が扱えるデータのフォーマットは、アプリケーションプログラム14と同じであり、最初の状態において、ディスク33にはディスク31のある時点でのデータのコピーが格納されている。アプリケーションプログラム14と、アプリケーションプログラム24には、ネットワーク5を介したアプリケーション間通信機構141、241、及びインタフェース11、21を介してディスクのミラーリングの機能やマッピング変更の機能の実行を指示するディスク制御機構142、242が含まれる。
【0031】
以上のような想定の下で、本実施形態における処理は、以下のように実施される。
【0032】
アプリケーションプログラム14は、まず、現在実行されているトランザクション処理を完了させる(ステップ1001)。これにより、ディスク31の内容が無矛盾な状態となる。次に、ディスク制御機構142を使用して記憶装置サブシステム3にペア解除を指示し、ディスク31、32をsimplex状態にする(ステップ1002)。ペア解除の後、アプリケーションプログラム14は、トランザクション処理を再開する(ステップ1003)。
【0033】
ステップ1004でアプリケーションプログラム14は、アプリケーション間通信機構141を使用し、ホスト2aに対してアプリケーションプログラム14での処理、すなわち、ディスクのsimplex状態への移行が完了したことを通知する。アプリケーションプログラム24は、この通知を受けて、ディスク33へのアクセス処理を一旦終了する(ステップ1101)。それから、アプリケーションプログラム24は、ディスク制御機構242を使用して、ディスク32、ディスク33とのマッピングを変更する(ステップ1102)。アプリケーションプログラム24のディスクアクセス処理は、必ずしも終了する必要はなく、例えば、データベースなどの検索処理を行っている場合、1つの処理が完了した時点であれば良い。
【0034】
ステップ1103で、アプリケーションプログラム24は処理を再開し、ステップ1104では、アプリケーション間通信機構241を使用して、ホスト1にアプリケーションプログラム24での処理が完了したことを通知する。
【0035】
アプリケーションプログラム24からの通知を受けると、アプリケーションプログラム14は、再びディスク31、32をペア状態にする(ステップ1005)。
【0036】
以上の処理により、アプリケーションプログラム14により使用されていたディスク31のデータをアプリケーションプログラム24で使用することができるようになる。この処理を繰り返すことにより、アプリケーションプログラム24は、アプリケーションプログラム14が使用する最新のデータを使用できる。
【0037】
本実施形態では、ステップ1102でのディスク32、33のマッピング変更は、記憶装置サブシステム3aのディスク制御装置43が行うが、記憶装置サブシステム3aがマッピング変更機能を持たない場合には、あらかじめホスト2aからディスク32、33を見えるようにしておき、ホスト2a側で、ディスク33をアンマウント、その後ディスク32をディスク33がマウントされていたディレクトリに対してマウントすることで、マッピング変更と同じ処理を実現できる。
【0038】
このように2つのシステムで同一のデータを使用するアプリケーションとしては、データマイニング、OLAP(Online Analytical Processing)などが挙げられる。
【0039】
本実施形態によれば、例えば、ホスト1aにおいて、アプリケーションプログラム14として、トランザクション型のデータベース処理を行うDBMSを適用して会計処理などを行い、ホスト2aにおいて、アプリケーションプログラム24として、OLAPサーバプログラムを動作させ、ホスト1での処理内容を利用するような場合、ホスト1aのDBMSによる会計処理をほとんど止めることなく、ホスト2aのOLAPサーバプログラムで会計処理の結果であるデータを利用することが可能となる。
【0040】
−第2の実施形態−
図3は、本発明の第2の実施形態における計算機システムの構成を示すブロック図である。
【0041】
本実施形態の計算機システムは、ホスト1b、ホスト2b、ホスト1bとホスト2bに接続される記憶装置サブシステム3b、及びホスト1bと2bとを接続するネットワーク5を含んで構成される。
【0042】
ホスト1bは、記憶装置サブシステム3bとの間のインタフェース11、ネットワークインタフェース12、オペレーティングシステム13、及びアプリケーションプログラム16を備える。
【0043】
ホスト2bは、記憶装置サブシステム3bとの間のインタフェース21、ネットワークインタフェース22を有し、オペレーティングシステム23、アプリケーションプログラム26、及び変換プログラム25を備える。
【0044】
記憶装置サブシステム3bは、ディスク31〜33に加え、さらに、第4のディスク34を備えており、第1の実施形態における記憶装置サブシステム3aと同様の機能を有する。
【0045】
本実施形態では、ホスト1bのアプリケーションプログラム16が扱うデータのフォーマットと、ホスト2bのアプリケーションプログラム26が扱うデータのフォーマットは異なる。変換プログラム25は、アプリケーションプログラム16により扱われるデータのフォーマットをアプリケーション26が扱うデータのフォーマットに変換するプログラムである。
【0046】
本実施形態では、ディスク31のデータをホスト2bで使用できるようにするために、ディスク31、32はduplex状態にしておく。ディスク制御装置43は、ホスト1bからは少なくともディスク31が見え、ホスト2bからはディスク32、33、34が見えるよう記憶装置サブシステム3bを制御する。アプリケーションプログラム26は、ディスク34を使用して処理を行う。最初の時点でディスク34には、変換プログラム25により変換されたディスク31のある時点のデータが格納されている。
【0047】
図4は、ディスク31のデータをホストb側で処理できるようにする際に行われる処理のフローチャートである。
【0048】
本処理において、ホスト1bにより行われる処理は、第1の実施形態におけるホスト1aの処理と同じである。ステップ1001から1004で、ディスク31と32のペア状態を解除し、ディスク32をホスト2bから利用できる状態とする。
【0049】
ホスト2bは、ホスト1のアプリケーションプログラム16から通知を受けると変換プログラム25によりディスク32の内容を読み出し、アプリケーションプログラム26によりアクセスできる形式に変換してディスク33に格納する(ステップ1201)。アプリケーションプログラム26は、ディスク34に格納されているデータを使用して処理を行うため、変換プログラム25の処理中も通常の処理を継続することが可能である。
【0050】
変換プログラム25による変換処理が完了すると、ホスト2bは、アプリケーションプログラム26によるディスクアクセス処理を一旦終了する(ステップ1101)。そして、ディスク33、ディスク34とのマッピングを変更し、アプリケーションプログラム26がデータアクセスを行うディスクをディスク34からディスク33に変更する(ステップ1102b)。
【0051】
ディスク33と34をスワップした後、アプリケーションプログラム26によるディスクアクセス処理を再開し(ステップ1103)、ホスト1bにアプリケーションプログラム26によるディスクのスワップ処理が完了したことを通知する(ステップ1104)。
【0052】
アプリケーションプログラム16は、ホスト2bからの通知を受けて、再びディスク31、32をペア状態にする。以上の処理により、アプリケーションプログラム16で使用していたディスク31と同じ内容のデータをアプリケーションプログラム26が使用することができるようになる(ステップ1005)。
【0053】
−第3の実施形態−
図5は、本発明の第3の実施形態における計算機システムの構成例を示すブロック図である。
【0054】
本実施形態の計算機システムは、ホスト1c、ホスト2c、そしてホスト1bとホスト2cに接続される記憶装置サブシステム3c、各ホストを相互に接続するネットワーク5、及び、記憶装置サブシステム3cに付随したプロセッサ6を含んで構成される。
【0055】
ホスト1cは、記憶装置サブシステム3cとの間のインタフェースとして、チャネルインタフェースのような、カウントキーデータ形式(以下、CKD形式と呼ぶ)に従うデータを扱う可変長インタフェース11、ネットワークインタフェース12、オペレーティングシステム13、及びアプリケーションプログラム16を有する。
【0056】
ホスト2cは、記憶装置サブシステム3cとの間のインタフェースとして例えば、SCSIインタフェースのような固定長データ形式を扱う固定長インタフェース21、ネットワークインタフェース22、オペレーティングシステム23、及びアプリケーションプログラム26を有する。
【0057】
記憶装置サブシステム3cは、複数のディスク31、32、33、34、ホスト1cと接続する可変長インタフェース41、ホスト2cと接続する固定長インタフェース42、ディスク制御装置43、プロセッサ6と接続する固定長インタフェース45を含んで構成される。ディスク制御装置43は、ホスト1cからは、少なくともディスク31に、ホスト2cからは少なくともディスク34に、プロセッサ6からは少なくともディスク32、33にアクセスできるよう記憶装置サブシステム3cを制御する。
【0058】
プロセッサ6は、記憶装置サブシステム3cとの間の固定長インタフェース61、ネットワークインタフェース62を有する。プロセッサ6は、また、そのメモリ上に、オペレーティングシステム63、変換プログラム64を保持している。
【0059】
本実施形態では、第2の実施の形態と同様、アプリケーションプログラム26が扱えるデータフォーマットは、アプリケーション16のものとは異なる。さらに、ホスト1cは、CKD形式に従ってディスク31にデータを格納する。プロセッサ6の変換プログラム64は、CKD形式に従って記憶装置サブシステム3cに格納されたデータを固定長形式に従った形で読み出し、それをアプリケーションプログラム16により扱われるデータの形式からアプリケーションプログラム26により扱われるデータの形式に変換する。
【0060】
変換プログラム64が記憶装置サブシステム3cからCKD形式に従って格納されたデータを読み出すには、例えば、特開平9-258908号公報に開示された技術を適用することができる。すなわち、変換プログラム64は、ホスト1c上で動作するアプリケーションプログラム16からデータの格納位置を表す情報をネットワーク5を介して受け取る。そして、その情報に基づき、固定長形式での格納位置を求めて記憶装置サブシステム3cからデータを読み出す。
【0061】
図6は、ディスク31のデータをホスト2cで使用できるようにする処理のフローチャートである。
【0062】
本実施形態においても、処理の開始前の状態として、ディスク31、32は基本的にduplex状態にしておく。ディスク制御装置43は、ホスト1cからディスク31が、ホスト2cからディスク34が、プロセッサ6からはディスク32、33、34が見えるように記憶装置サブシステム3cを制御する。
【0063】
本実施形態において、ステップ1001〜1004においてホスト1cにより第1あるいは第2の実施形態におけるステップ1001〜1004と同様の処理が行われる。なお、ホスト1cからプロセッサ6へのデータの格納場所に関する情報の転送は、この処理の開始前に予め通知しておき、プロセッサ6で保持しておくか、あるいは、ステップ1004においてホスト1c側でのペア状態の解除処理完了を通知の際に転送するようにすることができる。
【0064】
変換プログラム64は、ホスト1cからの通知を受けて、ディスク32の内容を読み出し、アプリケーションプログラム26からアクセスできる形式に変換してディスク33に書き込む。この処理の間、アプリケーションプログラム16は、ディスク31を使用して通常の処理を継続することができる。同様に、アプリケーションプログラム26は、ディスク34を使用して、通常の処理を行うことが可能である(ステップ1301)。
【0065】
ディスク32からディスク33へのデータの移動(コピー)を終えると、変換プログラム64は、アプリケーション間通信機構641を使用しホスト2cに処理の完了を通知する(ステップ1302)。
【0066】
アプリケーションプログラム26は、プロセッサ6からの通知を受けてディスク34へのアクセス処理を一旦終了する(ステップ1101)。ディスク34へのアクセス処理を停止後、アプリケーションプログラム26は、ディスク制御機構242を使用して、ディスク33とディスク34とのマッピングを変更し、ディスク33とディスク34を入れ替える(ステップ1102b)。その後、アプリケーションプログラム26は、入れ替え後のディスク34へのアクセス処理を再開し(ステップ1103)、ホスト1cにアプリケーションプログラム26での処理が完了したことを通知する(ステップ1104)。
【0067】
アプリケーションプログラム16は、ホスト2cからの通知を受けると再びディスク31、32をペア状態にする(ステップ1005)。
【0068】
以上の処理により、インタフェース形式の異なるホスト間でデータを共用することが可能となる。
【0069】
−第4 の実施形態−
以下に説明する第4の実施形態における計算機システムは、第3の実施形態における計算機システムと同様の構成を有する。ただし、本実施形態では、以下の点において第3の実施形態と相違する。
【0070】
ホスト1cのアプリケーションプログラム16は、通常の処理として、ディスク31に対するデータの書き込み、更新を行い、そのアドレスと更新データをディスク32に記録する。つまり、本実施形態では、ディスク32は、ログディスクとして用いられ、そのデータは、障害などの要因でアプリケーションプログラム16の処理が中断された場合のデータ復旧に使用される。
【0071】
更新データは、ディスク32の先頭から順に記録される。また一連の更新データは、トランザクション毎に管理され、各トランザクションごとに「チェックポイント」と呼ばれる識別IDが記録される。アプリケーションプログラム16のディスク31へのデータ書き込みがあるトランザクションの途中で中断した場合、ログディスクに記録された最新のチェックポイントの直前までの更新履歴を参照してデータの修正を行うことで、そのチェックポイントに対応したトランザクションの完了した時点の、データを無矛盾な状態で復元することができる。
【0072】
本実施形態では、ディスク33にディスク31のある時点のデータコピーが残っている場合には、ログディスク(ディスク32)を参照してディスク33に対するデータ更新を行い、アプリケーションプログラム16により実行されたトランザクションの最新結果を反映することができる。
【0073】
図8は、本実施形態において、ディスク31の内容をホスト2cで使えるようにするための処理のフローチャートである。
【0074】
ディスク制御装置43は、ホスト1からディスク31、32が、ホスト2からディスク34が、プロセッサ5からディスク32、33、34が見えるよう記憶装置サブシステム3cを制御する。ディスク31、33の内容は、本処理の開始前のある時点において同一にしておく。
【0075】
変換プログラム64は、ディスク32に格納されている更新データのうち、過去に行った処理により最後にアクセスした更新データのチェックポイントIDを保持している。変換プログラム64は、ディスク32に格納されている更新データを、保持しているチェックポイントIDに続くチェックポイントIDで特定される更新データから順に更新履歴に沿って読み出し、更新データに基づいてディスク33の内容を更新する。この更新処理は、ディスク32に記録された最新のチェックポイントIDの更新データまで実施される。この間、アプリケーションプログラム16及びアプリケーションプログラム26は、通常の処理を継続して行うことが可能である(ステップ1401)。
【0076】
ディスク33の更新が終了した後、変換プログラム64は、更新したディスク33の内容をディスク34に反映させるために、アプリケーション間通信機構641を用いてホスト2cのアプリケーションプログラム26に、処理の中断を要求する(ステップ1402)。
【0077】
アプリケーションプログラム26は、プロセッサ6からの要求に応答して、実行中の処理を中断する(ステップ1101)。処理の中断後、アプリケーションプログラム26は、処理を中断したことをプロセッサ6に通知する(ステップ1501)。
【0078】
変換プログラム64は、ディスク33、ディスク34をduplex状態にするために、記憶装置サブシステム3cに対しペア形成を指示する(ステップ1403)。ペア形成が終了し、ディスク34の内容がディスク33の内容と同一なduplex状態になった後、変換プログラム64は、ペア解除を記憶装置サブシステム3cに対して指示し、ディスク33、34をsimplex状態に戻す(ステップ1404)。
【0079】
ディスク33、34がsimplex状態に戻った後、変換プログラム64は、処理の完了をホスト2cに通知する(ステップ1405)。アプリケーションプログラム26は、この通知を受けると、中断していた処理を再開する(ステップ1103)。
【0080】
以上の処理を必要とされるタイミングで繰り返すことで、アプリケーションプログラム16により使用されるディスク31の任意の時点のデータをアプリケーションプログラム26から使用することができる。
【0081】
本実施形態によれば、ホスト1c側で稼働中のアプリケーションプログラムの処理を中断することなくディスク31の内容をホスト2c側で利用できるようにすることができる。これにより、例えば、ホスト1c上で複数のデータベースプログラムが稼働している場合、あるいは、それぞれデータベースが稼働している複数のホストがあり、1つのホストでそれらのデータを集約して処理しようとする場合などへの対応が容易となる。
【0082】
例えば、ホスト1で複数のデータベースプログラムが稼働していて、複数のデータベース及びデータベースログが存在している場合を考える。この場合、プロセッサ6の変換プログラム64でこれら複数のデータベースログからデータを読み出し、プロセッサ6上でその内容をマージして、ディスク33に集約したデータベースを作る。ホスト2からは、ディスク33に集約されたデータベースを利用することが可能になる。
【0083】
−第5の実施形態−
図8は、本発明の第5の実施形態における計算機システムの構成例を示すブロック図である。
【0084】
本実施形態における計算機システムは、ホスト1d、ホスト2d、てホスト1dに接続される記憶装置サブシステム30a、及び、ホスト2dに接続される記憶装置サブシステム30bを含んで構成される。
【0085】
ホスト1d、ほすと2dは、第2の実施形態におけるホスト1b、2bと同様の機能を有する。ただし、ホスト1dとホスト2dは、地理的に離れた場所に設置されており、それぞれ異なるLAN5a、5bに接続されている。LAN5aとLAN5bとは、例えば、インターネット5cにより相互に接続されている。
【0086】
記憶装置サブシステム30aは、ディスク31a、ホスト1dと接続するインタフェース41a、記憶装置サブシステム30bと接続するインタフェース42a、ディスク制御装置43aを有して構成される。また、記憶装置サブシステム30bは、ディスク31b、ディスク32b、ディスク33b、ホスト2dと接続するインタフェース41b、記憶装置サブシステム30aと接続するインタフェース42b、ディスク制御装置43bを有して構成される。記憶装置サブシステム30aと記憶装置サブシステム30bは、それぞれのインタフェース42a、42bにより接続される。
【0087】
記憶装置サブシステム30bは、上述した各実施形態の記憶装置サブシステムと同じく、ディスクマッピング変更機能を有する。また、記憶装置サブシステム30aと記憶装置サブシステム30bは、記憶装置サブシステム30a内のディスクの内容をインタフェース42a、42bを介して記憶装置サブシステム30b内のディスクにコピーするリモートコピー機能を備える。
【0088】
リモートコピー機能は、先に説明したミラーリング機能を複数のディスク装置間で実現したものである。例として、図8において、ディスク31aの内容をディスク32bにコピーすることを想定する。この時、ディスク31aのことを正ディスク、ディスク32bのことを副ディスクと呼ぶ。
【0089】
ユーザは記憶装置サブシステム30aに対して、ディスク31a、32bをそれぞれ正/副ディスクとして関連付け、コピー開始を指示する。この指示は、ホスト1dからインタフェース13を介して行う。第1の実施形態のように記憶装置サブシステム30a、30bにコンソールが接続されている場合には、ホスト1dからネットワーク経由でコンソールに指示を送るようにすることも可能である。
【0090】
コピー開始が指示されると、ディスク制御装置43aは、インタフェース42aを介して記憶装置サブシステム30bにコピー対象となるデータを転送し、コピー処理を実施する。コピー開始時点では、ディスク31aとディスク31bのデータの内容は一致していない。ディスク31aからディスク31bへのデータコピーを行っている状態を「ペア形成中」と呼ぶ。
【0091】
ペア形成中の状態にある間、ホスト1dからディスク31aに対するリード/ライトアクセスがあると、ディスク制御装置43は、これを受け付けて、ディスク30aのアクセスを行うと共に、ホスト1dからのライトアクセスによりディスク31aの内容が更新された場合には、その更新内容をディスク31bに反映する。
【0092】
コピー処理が完了して、ディスク31aの内容がディスク31bに完全にコピーされた状態を「duplex状態」と呼ぶ。duplex状態の時、ホスト1dからディスク31aへライトアクセスがあると、その内容はディスク31bにも反映される。これらのことは、先に説明したミラーリング機能と同じである。
【0093】
duplex状態にした後、任意の時点でディスク31aの状態をディスク31bに保存しておきたい時、ユーザは、記憶装置サブシステム3aに「ペア解除」の指示を送る。記憶装置サブシステム3aは、ペア解除の指示を受けると、それ以降ディスク31aに対するデータの更新をディスク31bに反映させず、ディスク31bの内容をその時点の状態で保存する。この状態を「simplex状態」と呼ぶ。
【0094】
リモートコピー機能では、あるディスクに対してもう1台ディスクを用意して、ペアを形成してduplex状態にし、その後任意の時点でsimplex状態にすることで、その時点でのコピーを作成できる。
【0095】
ホスト1dのアプリケーションプログラム16、ホスト2dのアプリケーションプログラム26、及び変換プログラム25は、第2の実施の形態と同様の機能を実現する。本実施形態で、ディスク31aのデータをホスト2dで使用できるようにする時の処理は、第2の実施形態と同様に、図4のフローチャートで示される。
【0096】
通常の処理では、ディスク31aとディスク31bがペア状態で使用される。ホスト1dは、ステップ1002、ステップ1005のペア解除、ペアの再形成では、ディスク31a、31bに対するペアの解除、再形成を行う。
【0097】
ホスト2d側では、ステップ1201において、変換プログラム25がディスク31bに保存されたデータをディスク32bにデータの形式を変換しつつコピーする。アプリケーションプログラム26は、ステップ102bのディスクマッピング変更処理で、ディスク32b、ディスク33bとのマッピングを変更して両者を入れ替え、入れ替え後のディスクを利用して処理を再開する。
【0098】
なお、本実施形態では、第2の実施形態の応用として、地理的に離れたサイトに設置されたホスト間でデータを共用する計算機システムについて説明した。同様に、第3の実施形態についても、図5のホスト1cと2cを図9に示すように地理的に離れたサイトに配置し、両者の間でデータを共用するようにすることができる。この場合、プロセッサ6は、ホスト2cと同じサイトに配置すればよい。
【0099】
以上説明した実施形態によれば、ホストやネットワークに大きな負荷を掛けることなく異なる2つのホストでデータを共用することが可能となる。
【0100】
また、ホスト上で稼働しているアプリケーションプログラムの実行を極力中断することなく、2つのホスト間で共通のファイルにアクセスすることができる。
【0101】
【発明の効果】
本発明によれば、ネットワークや計算機の負荷を極力抑えつつ2つのホスト間でデータを相互利用することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における計算機システムの構成例を示すブロック図である。
【図2】ホスト上のアプリケーションプログラムによるデータ共用のための処理の流れを示すフローチャートである。
【図3】本発明の第2の実施形態における計算機システムの構成例を示すブロック図である。
【図4】ホスト上のアプリケーションプログラムによるデータ共用のための処理の流れを示すフローチャートである。
【図5】本発明の第3及び第4の実施形態における計算機システムの構成例を示すブロック図である。
【図6】第3の実施形態において、ホスト上のアプリケーションプログラム、及びプロセッサ上の変換プログラムにより行われるデータ共用のための処理の流れを示すフローチャートである。
【図7】第4の実施形態において、ホスト上のアプリケーションプログラム、及びプロセッサ上の変換プログラムにより行われるデータ共用のための処理の流れを示すフローチャートである。
【図8】本発明の第5の実施形態における計算機システムの構成例を示すブロック図である。
【図9】本発明の第3の実施形態における計算機システムの応用構成例を示すブロック図である。
【符号の説明】
1a、1b、1c、1d、2a、2b、2c、2d・・・ホストコンピュータ、
3、3a、3b・・・記憶装置サブシステム、
5・・・ネットワーク、
14、16、24、26・・・アプリケーションプログラム、
25、64・・・変換プログラム、
31、32、33、34・・・ディスク、
43・・・ディスク制御装置、
44・・・コンソール。

Claims (1)

  1. 第1の計算機と第2の計算機とを含む計算機システムと、第1の記憶装置と第2の記憶装置と第3の記憶装置と前記第1、第2および第3の記憶装置を制御する制御部とを有する記憶装置システムとを含むシステムのデータ共有方法であって、
    前記第1の計算機が、前記第1の記憶装置のデータが前記第2の記憶装置へ完全にコピーされた状態である第1のデュプレックス状態を形成することを前記制御部へ指示する第1のステップと、
    前記制御部が、前記第1の記憶装置のデータを前記第2の記憶装置へコピーすることで前記第1のデュプレックス状態を形成する第2のステップと、
    前記第1のデュプレックス状態が形成された後、前記第1の計算機が、前記制御部に、前記第1の計算機からの書込みが前記第1の記憶装置に対してのみ行われるシンプレックス状態を形成させる第3のステップと、
    前記シンプレックス状態を形成後、前記第1の計算機が、前記シンプレックス状態が形成されたことを示す第1のメッセージを、前記第1の計算機から前記第2の計算機へ送信する第4のステップと、
    前記第1のメッセージを受信した前記第2の計算機が、前記第2の記憶装置を前記コピー対象であった記憶装置から前記第2の計算機のアクセス対象へ変更し、かつ、前記第3の記憶装置を前記第2の計算機のアクセス対象から前記コピー対象の記憶装置へ変更するマッピング変更を行うように、前記制御部へ指示する第5のステップと、
    前記制御部が、前記マッピング変更を実行する第6のステップと、
    前記第2の計算機が、前記マッピング変更処理を終了したことを示す第2のメッセージを前記第2の計算機から前記第1の計算機へ送信する第7のステップと、
    前記第2のメッセージを受信した前記第1の計算機が、前記第1の記憶装置のデータが前記マッピング変更後の第3の記憶装置へ完全にコピーされた状態である第2のデュプレックス状態を作成することを、前記制御部へ指示する第8のステップと、および、
    前記制御部が、前記第1の記憶装置のデータを前記マッピング変更後の第3の記憶装置へコピーすることで、前記第2のデュプレックス状態を形成する第9のステップとを有し、
    ここで、
    前記第1のデュプレックス状態では、前記第1の計算機からの書込み動作は前記第1の記憶装置と前記マッピング変更前の前記第2の記憶装置との両方に対して行われ、また、前記第2の計算機からの書込み動作は前記マッピング変更前の前記第3の記憶装置に対して行われ、
    前記シンプレックス状態では、前記第2の計算機からの書込み動作は、前記マッピング変更前ではマッピング変更前の前記第3の記憶装置に対して行われ、前記マッピング変更後ではマッピング変更後の前記第2の記憶装置に対して行われ、
    前記第2のデュプレックス状態では、前記第1の計算機からの書込み動作は前記第1の記憶装置と前記マッピング変更後の前記第3の記憶装置との両方に対して行われ、前記第2の計算機からの書込み動作はマッピング変更後の前記第2の記憶装置に対して行われることを特徴とするシステムのデータ共用方法。
JP2000088509A 2000-03-24 2000-03-24 レプリケーションによるホスト間データ共有方式 Expired - Fee Related JP3951547B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000088509A JP3951547B2 (ja) 2000-03-24 2000-03-24 レプリケーションによるホスト間データ共有方式
US09/697,088 US7117249B1 (en) 2000-03-24 2000-10-25 Computer system and data sharing method between computers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000088509A JP3951547B2 (ja) 2000-03-24 2000-03-24 レプリケーションによるホスト間データ共有方式

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006010605A Division JP2006185454A (ja) 2006-01-19 2006-01-19 レプリケーションによるホスト間データ共有方式

Publications (2)

Publication Number Publication Date
JP2001273242A JP2001273242A (ja) 2001-10-05
JP3951547B2 true JP3951547B2 (ja) 2007-08-01

Family

ID=18604382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000088509A Expired - Fee Related JP3951547B2 (ja) 2000-03-24 2000-03-24 レプリケーションによるホスト間データ共有方式

Country Status (2)

Country Link
US (1) US7117249B1 (ja)
JP (1) JP3951547B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4452438B2 (ja) * 2002-11-11 2010-04-21 株式会社日立製作所 記憶システム
US7330858B1 (en) 2003-06-30 2008-02-12 Symantec Operating Corporation Coordinated distributed logging in a multi-host environment
US7480699B2 (en) * 2004-01-20 2009-01-20 International Business Machines Corporation System and method for replacing an application on a server
JP4551096B2 (ja) * 2004-02-03 2010-09-22 株式会社日立製作所 ストレージサブシステム
US7360044B2 (en) * 2004-07-20 2008-04-15 Hewlett-Packard Development Company, L.P. Storage system with primary mirror shadow
US8185961B2 (en) * 2005-03-10 2012-05-22 Nippon Telegraph And Telephone Corporation Network system, method for controlling access to storage device, management server, storage device, log-in control method, network boot system, and method of accessing individual storage unit
JP2007286939A (ja) * 2006-04-18 2007-11-01 Pfu Ltd Nas装置
JP5246388B2 (ja) * 2007-03-08 2013-07-24 日本電気株式会社 仮想装置構成システム、及びその方法
CN102119506A (zh) * 2008-05-27 2011-07-06 科技研究局 共享数据的方法和系统
JP5242264B2 (ja) * 2008-07-07 2013-07-24 株式会社東芝 データ制御装置、ストレージシステムおよびプログラム
US9389982B2 (en) * 2011-04-18 2016-07-12 Sap Se Method and apparatus for monitoring an in-memory computer system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5404482A (en) * 1990-06-29 1995-04-04 Digital Equipment Corporation Processor and method for preventing access to a locked memory block by recording a lock in a content addressable memory with outstanding cache fills
US5544347A (en) * 1990-09-24 1996-08-06 Emc Corporation Data storage system controlled remote data mirroring with respectively maintained data indices
JPH05197496A (ja) 1992-01-22 1993-08-06 Nec Corp 異機種間疑似アクセス方式
JP3213766B2 (ja) * 1992-03-16 2001-10-02 株式会社日立製作所 レプリケートファイル更新システム
US5339427A (en) * 1992-03-30 1994-08-16 International Business Machines Corporation Method and apparatus for distributed locking of shared data, employing a central coupling facility
JP2953639B2 (ja) 1992-12-02 1999-09-27 株式会社日立製作所 バックアップ装置及びその方法
JP3422370B2 (ja) * 1992-12-14 2003-06-30 株式会社日立製作所 ディスクキャッシュ制御装置
US5758125A (en) * 1995-12-28 1998-05-26 Newframe Corporation Ltd. Method of sharing data in a heterogeneous computer system
US5848241A (en) * 1996-01-11 1998-12-08 Openframe Corporation Ltd. Resource sharing facility functions as a controller for secondary storage device and is accessible to all computers via inter system links
JP3713788B2 (ja) * 1996-02-28 2005-11-09 株式会社日立製作所 記憶装置および記憶装置システム
US6101497A (en) * 1996-05-31 2000-08-08 Emc Corporation Method and apparatus for independent and simultaneous access to a common data set
JPH117360A (ja) 1997-06-17 1999-01-12 Hitachi Ltd データ多重化方法およびデータ多重化システム
US6032216A (en) * 1997-07-11 2000-02-29 International Business Machines Corporation Parallel file system with method using tokens for locking modes
US6381674B2 (en) * 1997-09-30 2002-04-30 Lsi Logic Corporation Method and apparatus for providing centralized intelligent cache between multiple data controlling elements
US6341333B1 (en) * 1997-10-06 2002-01-22 Emc Corporation Method for transparent exchange of logical volumes in a disk array storage device
US6131148A (en) * 1998-01-26 2000-10-10 International Business Machines Corporation Snapshot copy of a secondary volume of a PPRC pair
US6324654B1 (en) * 1998-03-30 2001-11-27 Legato Systems, Inc. Computer network remote data mirroring system
US6253295B1 (en) * 1998-07-20 2001-06-26 International Business Machines Corporation System and method for enabling pair-pair remote copy storage volumes to mirror data in another pair of storage volumes
US6529944B1 (en) * 1999-01-06 2003-03-04 Emc Corporation Host system for remote control of mass storage volumes using cascading commands
US6209002B1 (en) * 1999-02-17 2001-03-27 Emc Corporation Method and apparatus for cascading data through redundant data storage units
US6631442B1 (en) * 1999-06-29 2003-10-07 Emc Corp Methods and apparatus for interfacing to a data storage system
US6401178B1 (en) * 1999-12-23 2002-06-04 Emc Corporatiion Data processing method and apparatus for enabling independent access to replicated data
US6594744B1 (en) * 2000-12-11 2003-07-15 Lsi Logic Corporation Managing a snapshot volume or one or more checkpoint volumes with multiple point-in-time images in a single repository

Also Published As

Publication number Publication date
US7117249B1 (en) 2006-10-03
JP2001273242A (ja) 2001-10-05

Similar Documents

Publication Publication Date Title
US7165163B2 (en) Remote storage disk control device and method for controlling the same
US7080202B2 (en) Remote storage disk control device with function to transfer commands to remote storage devices
JP4165747B2 (ja) 記憶システム、制御装置及び制御装置のプログラム
JP3868708B2 (ja) スナップショット管理方法及び計算機システム
US8028139B2 (en) Remote copy method and remote copy system
JP3478746B2 (ja) ディスク上の追加のアドレス空間を設ける方法
US7386598B2 (en) Computer system with virtualization function
JP5309263B2 (ja) 計算機システム及びその管理方法
EP1868098A2 (en) Data processing system including storage systems
US7836162B2 (en) Transaction processing system and transaction processing method
JP3952640B2 (ja) データバックアップ方法、メインフレーム系ストレージシステムおよびメインフレームホストコンピュータ
JP2003223287A (ja) 記憶装置、この記憶装置のバックアップ方法及びプログラム
JP2005284609A (ja) バックアップ方法、ストレージシステム及びそのプログラム
JP4278452B2 (ja) 計算機システム
JP3951547B2 (ja) レプリケーションによるホスト間データ共有方式
US20080320051A1 (en) File-sharing system and method of using file-sharing system to generate single logical directory structure
JP2006048300A (ja) ディスクアレイ装置群およびそのコピー処理方法
JPH1185576A (ja) データ移行方法および情報処理システム
JP2006185454A (ja) レプリケーションによるホスト間データ共有方式
JP4592735B2 (ja) 外部記憶装置及び外部記憶装置のデータ回復方法並びにプログラム
JP2000227868A (ja) バックアップ取得方法および計算機システム
JP4278917B2 (ja) デバイス間データ転送装置、デバイス間データ転送方法及びプログラム
JP2006011803A (ja) 情報処理システムおよびその制御方法
JPH1055297A (ja) ヒストリカルデータベース

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060119

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees