JP5424992B2 - 計算機システム、及びシステム制御方法 - Google Patents

計算機システム、及びシステム制御方法 Download PDF

Info

Publication number
JP5424992B2
JP5424992B2 JP2010138464A JP2010138464A JP5424992B2 JP 5424992 B2 JP5424992 B2 JP 5424992B2 JP 2010138464 A JP2010138464 A JP 2010138464A JP 2010138464 A JP2010138464 A JP 2010138464A JP 5424992 B2 JP5424992 B2 JP 5424992B2
Authority
JP
Japan
Prior art keywords
data
storage area
computer
replication
replica
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010138464A
Other languages
English (en)
Other versions
JP2012003544A5 (ja
JP2012003544A (ja
Inventor
美沙子 河野
晋広 牧
裕教 江丸
正靖 淺野
純一 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010138464A priority Critical patent/JP5424992B2/ja
Priority to PCT/JP2010/063405 priority patent/WO2011158386A1/ja
Priority to US12/988,546 priority patent/US8683154B2/en
Publication of JP2012003544A publication Critical patent/JP2012003544A/ja
Publication of JP2012003544A5 publication Critical patent/JP2012003544A5/ja
Application granted granted Critical
Publication of JP5424992B2 publication Critical patent/JP5424992B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、計算機システム、及システム制御方法に関し、例えば、ストレージシステムと計算機におけるレプリケーション処理の制御に関するものである。
データの喪失に備えて、データを複製するレプリケーション技術がある。レプリケーション技術を用いた処理として、バックアップやディザスタリカバリ(DR:Disaster Recovery)がある。アプリケーションのデータが格納されている記憶領域を、データボリュームという。バックアップは、ある時点のデータボリュームのデータを保存して、長期に渡って保存しておく処理である。DRは、データボリュームのデータを常にレプリカしておくことで、2重化したデータを他のシステムで使用することができる処理である。
また、レプリケーションには、ホスト計算機上で行われるホストベースレプリケーションと、ストレージシステム上で行われるアレイベースレプリケーションがある。
ホストベースレプリケーションでは、アプリケーションからデータボリュームに書きこまれるWriteデータ(書き込みデータ)をキャプチャして、データボリュームと同じデータが格納されるレプリカボリュームを作る。アプリケーションからのWriteデータを転送してメディアに書きこむため、ストレージ装置に依存せずにヘテロな環境に対応可能である。また、安価にレプリカボリュームを作成することが可能となる。
アレイベースレプリケーションでは、ストレージのレプリケーション機能を用いてレプリカボリュームを作成する。これは、ホストに負荷をかけず、複数ホストの整合性が保たれたレプリカボリュームを作成することが可能である。
そして、特許文献1のようにホストベースレプリケーションとストレージベースレプリケーションを併用した環境がある。この環境を用いると、それぞれの利点を活かすことができる。例えば、複数ホストの整合性が保たれたバックアップデータを取得したい場合には、管理者は、ローカルアレイベースレプリケーションを用いてバックアップ運用を行う。一方、コストをかけずに既存資産を活用してDR運用を行いたい場合には、管理者は、ホストベースレプリケーションを用いたDR運用を検討する。このように、ホストベースレプリケーションとアレイベースレプリケーションを併用して運用を行いたいという管理者が想定される。
特開2005−062928号公報
しかしながら、ホストベースレプリケーションでは、アプリケーションからデータボリュームに書きこまれるWriteデータをキャプチャしているが、アレイベースレプリケーションのリストア時に発生するデータボリュームへのWriteデータをキャプチャすることはできない。このため、ホストベースレプリケーションとアレイベースレプリケーションを併用した環境において、アレイベースレプリケーションにてバックアップデータをリストアした場合(ストレージシステムにおいてレプリカボリューム(副ボリューム、バックアップボリュームともいう)を用いて主ボリュームにリストアした場合)、ホストベースレプリケーションで用いるレプリカボリュームのデータの内容が、主ボリュームのデータの内容と異なってしまう。このとき、ホスト計算機のアプリケーションは、ストレージシステムの主ボリュームのデータの内容がリストアされた時点のデータ内容であると認識する。したがって、ホストベースレプリケーションが引き続きアプリケーションのWriteデータをキャプチャしてレプリカボリュームに反映した場合、ホストベースレプリケーションで用いているレプリカボリュームのデータが壊れてしまうという問題が生じる。
本発明はこのような状況に鑑みてされたものであり、主ボリュームのリストア処理が行われた場合に、ホストベースレプリケーションで用いるレプリカボリュームのデータの内容を主ボリュームのデータの内容と一致させるための技術を提供するものである。
上記課題を解決するために、本発明は、アレイベースレプリケーションとホストベースレプリケーションを併用した環境を実現するレプリケーション管理の方法を提案している。具体的には、第1の記憶領域(ストレージシステムの主ボリューム)のデータを、アレイベースレプリケーションエンジンを用いて第2の記憶領域(ストレージシステムの副ボリューム)にコピーする(バックアップを作成して格納する)。このとき、バックアップを作成した時点が分かるフラグを付与してレプリケーションの実行結果を管理する。また、第1のホスト計算機では、第1の記憶領域への書き込みのデータを、ホストベースレプリケーションエンジンを用いて、第2のホスト計算機の第3の記憶領域にコピーしてレプリカボリュームを作成する。更に、第3の記憶領域(レプリカボリューム)のデータを、第4の記憶領域にコピーして2次レプリカボリュームを作成する。そして、第2の記憶領域のデータを第1の記憶領域にリストアするときに、第3の記憶領域(レプリカボリューム)がリストア処理で用いた第2の記憶領域のデータと同じになるように、第4の記憶領域(2次レプリカボリューム)のデータを第3の記憶領域に戻す。
さらなる本発明の特徴は、以下本発明を実施するための形態および添付図面によって明らかになるものである。
本発明によれば、ホストベースレプリケーションとアレイベースレプリケーションを併用した環境を実現することが可能である。併用した環境が実現できると、ストレージ装置の種類や性質に依存せずにヘテロな環境に対応可能であり、安価で、かつホスト計算機に負荷をかけず、複数ホストの整合性を保ったレプリケーション運用が可能となる。
計算機システム1の概略構成を示すブロック図である。 ストレージシステム10の内部構成例を示すブロック図である。 ホスト計算機(業務サーバ)30の内部構成例を示すブロック図である。 ホスト計算機(待機サーバ)40の内部構成例を示すブロック図である。 管理計算機50の内部構成例を示すブロック図である。 構成情報テーブルの構成例を示す図である。 レプリケーション情報テーブルの構成例を示す図である。 アレイベースレプリケーション管理テーブルの構成例を示す図である。 ホストベースレプリケーション管理テーブルの構成例を示す図である。 アレイベースレプリケーションカタログテーブルの構成例を示す図である。 2次レプリカカタログテーブルの構成例を示す図である。 レプリケーション処理の概念を説明するための図である。 環境設定処理を説明するためのフローチャートである。 システム運用処理を説明するためのフローチャートである。 リストア処理を説明するためのフローチャートである。 業務引継ぎ処理を説明するためのフローチャートである。 計算機システム1Bの概略構成を示すブロック図である。 計算機システム1Cの概略構成を示すブロック図である。 Writeコマンドデータの構成例を示す図である。
以下、添付図面を参照して本発明の実施形態について説明する。ただし、本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。また、各図において共通の構成については同一の参照番号が付されている。
なお、以後の説明では「aaaテーブル」という表現にて本発明の情報を説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくても良く、リスト、DB、キュー等のデータ構造やそれ以外で表現されていても良い。そのため、データ構造に依存しないことを示すために「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等について「aaa情報」と呼ぶことがある。
また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
以後の説明では「プログラム」を主語として説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
(1)第1の実施形態
<システムの全体構成>
図1は、本発明の第1実施形態に係る計算機システム1の概略構成を示すブロック図である。図1に示すように本実施形態の計算機システム1は、ストレージシステム10、スイッチ装置20、ホスト計算機(業務サーバ)30、ホスト計算機(待機サーバ)40、及び管理計算機50を有している。
ストレージシステム10と、ホスト計算機(業務サーバ)30は、各々のデータインターフェースからスイッチ装置20Aを介してデータネットワーク21Aに接続される。本実施形態においてデータネットワーク21Aは、ストレージネットワーク(SAN)である。ただし、データネットワーク21Aは、IP(Internet Protocol)ネットワークであっても、その他のいかなる種類のデータ通信用のネットワークであってもよい。
ホスト計算機(業務サーバ)30と、ホスト計算機(待機サーバ)40は、各々のデータインターフェースからデータネットワーク21Bを介して互いに接続される。本実施形態においてデータネットワーク21BはIPネットワークである。ただし、ストレージネットワークであっても、その他のいかなる種類のデータ通信用のネットワークであってもよい。なお、本実施形態では、ホスト計算機40は、上述するようにレプリカボリュームを格納・管理するための待機サーバとして運用されているが、ホスト計算機30と同等の性能・構成を有する別の業務サーバであっても良い。この場合、複数のホスト計算機(業務サーバ)間で、別のホスト計算機のアプリケーションが使用する主ボリュームのレプリカボリュームを格納・管理し合う形態となる。
ストレージシステム10と、ホスト計算機(業務サーバ)30と、ホスト計算機(待機サーバ)40と、管理計算機50は、各々の管理インターフェースからスイッチ装置20Bを介して管理ネットワーク22に接続される。本実施形態において管理ネットワーク22は、IPネットワークである。ただし、管理ネットワーク22は、SANであっても、その他のいかなる種類のデータ通信用のネットワークであってもよい。あるいは、データネットワーク21と管理ネットワーク22とが同一のネットワークであってもよい。また、スイッチ装置20Aとスイッチ装置20Bは同一の装置であってもよい。なお、ホスト計算機(業務サーバ)30と、ホスト計算機(待機サーバ)40と、管理計算機50は、同一の計算機を使用する構成としてもよい。また、計算機システム1は、ストレージシステム10を1台、ホスト計算機を2台、管理計算機50を1台含んでいるが、台数は限定されない。
<ストレージシステムの内部構成>
図2は、本発明の実施形態に係るストレージシステム10の内部構成を示す図である。ストレージシステム10は、ストレージシステム10の全体を制御するストレージコントローラ11と、データを格納するストレージ装置12と、を有する。ストレージコントローラ11とストレージ装置12は、ストレージI/F112を介して接続される。
ストレージコントローラ11は、データI/F110と、CPU(Central Processing Unit)111と、ストレージI/F112と、管理I/F113と、メモリ114と、を有している。データI/F110は、データネットワーク21Aに対するインターフェースであって、一つ以上の通信用ポートを持つ。ストレージコントローラ11は、このポートを介してホスト計算機(業務サーバ)30とデータの送受信を行う。CPU111は、メモリ114に格納されたプログラムを実行するプロセッサである。ストレージI/F112は、ストレージ装置12に対するインターフェースである。ストレージI/F112を介してデータや制御命令の送受信を行う。管理I/F113は、管理ネットワーク22とのインターフェースであって、一つ以上の通信用ポートを持っている。ストレージコントローラ11は、このポートを介して、ホスト計算機(業務サーバ)30、ホスト計算機(待機サーバ)40、管理計算機50、及び他のストレージシステムとデータや制御命令の送受信を行うことができる。
メモリ114には、ストレージマイクロプログラム115とアレイベースレプリケーションエンジン116が格納されている。ストレージマイクロプログラム115は、ストレージ装置12を管理するプログラムでありCPU111によって実行され、ボリュームをホスト計算機(業務サーバ)30に認識させる機能などを実現する。ここで、ボリュームをホスト計算機(業務サーバ)30に認識させる機能とは、ストレージ装置12の物理リソース120(構成情報)を収集し、一つ以上の論理ボリュームとしてI/F経由でホスト計算機(業務サーバ)30に提供(通知)する機能である。具体的に、構成情報とは、正ボリューム、副ボリューム、RAID構成、ボリュームの使用状態(どのアプリケーションからアクセスされているか)についての情報を含み、これらは、定期的に、管理者による要求があったとき、或いは、構成に変化が発生したとき等に、収集される。
アレイベースレプリケーションエンジン116は、ストレージシステム10のレプリケーション機能を実現するプログラムである。ここで、ストレージシステムのレプリケーション機能とは、論理ボリューム内のデータを別の論理ボリュームにコピーする機能である。例えば、ストレージ装置12内の物理リソース120を一つの論理ボリュームとすると、物理リソース120Aから物理リソース120Bへデータをコピーする。
ストレージ装置12は、物理リソース120と、プール121とを含んでいる。物理リソース120は、計算機(例えば、ホスト計算機(業務サーバ)30)が操作するデータを格納する記憶領域である。例えば、物理リソース120Aは主ボリュームに相当し、物理リソース120Bは副ボリューム(アレイベースのレプリカボリューム)に相当する。物理リソース120は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの物理デバイスによって提供される記憶領域のリソースのことを表している。物理リソース120を提供する物理デバイスの種類については特に限定しない。また、プール121は物理リソース121のグループである。一般的にプール121は、RAID(Redundant Array of Independent Disks)と呼ばれる技術を用いて、物理リソース120を冗長化した上で構成される。但し、この限りではなく、物理リソース120をグループ化したものであれば良い。図中では、プール121が1つ、物理リソース120が4つ存在しているが、この限りではなく、1つ以上存在すれば良い。
<ホスト計算機(業務サーバ)の内部構成>
図3は、本発明の実施形態に係るホスト計算機(業務サーバ)30の内部構成を示す図である。ホスト計算機(業務サーバ)30は、キーボードやマウスなどの入力装置300と、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などの表示装置301と、CPU302と、データI/F(A)303と、メモリ304と、記憶領域307と、データI/F(B)308と、管理I/F309と、を有している。
CPU302は、メモリ304に格納されたプログラムを実行するプロセッサである。データI/F(A)303は、データネットワーク21Aに対するインターフェースであって、1つ以上の通信ポートを持つ。このポートを介してホスト計算機(業務サーバ)30は、ストレージシステム10とデータの送受信を行う。
メモリ304には、エージェント310と、アプリケーション305と、ホストベースレプリケーションエンジン306が記憶されている。これらは、CPU302によって実行される。アプリケーション305は、ストレージ装置12上の物理リソース120に対してデータを読み書きすることにより処理を実行するプログラムである。アプリケーション305は、例えばDBMS(Data Base Management System)やファイルシステムなどである。図中では、アプリケーション305が1つ存在しているが、本発明ではこの数は問わない。ホストベースレプリケーションエンジン306は、アプリケーション305がストレージシステム10に対して書き込むデータをキャプチャして、データI/F(B)308を介してホスト計算機(待機サーバ)40へデータを転送する機能を実現するが、これはアプリケーションの一機能であってもよい。エージェント310は、ホスト計算機30の構成情報を収集し、アプリケーションがどのボリュームにアクセスしているか等、アプリケーション305とストレージシステム10との関係を把握する機能を有している。
記憶領域307は、ホスト計算機30上でデータを格納するための領域である。アプリケーション305や、ホストベースレプリケーションエンジン306で用いるデータを格納してもよい。データI/F(B)308は、データネットワーク21Bとのインターフェースであって、ホスト計算機(待機サーバ)40とデータや制御命令の送受信を行う。管理I/F309は、管理ネットワーク22とのインターフェースであって、システム管理のためにストレージシステム10と、ホスト計算機(待機サーバ)40、及び管理計算機50とデータや制御命令の送受信を行う。
<ホスト計算機(待機サーバ)の内部構成>
図4は、本発明の実施形態に係るホスト計算機(待機サーバ)40の内部構成を示す図である。ホスト計算機(待機サーバ)40は、ホスト計算機(業務サーバ)30の構成と同様の構成を有しているが、ホストベースレプリケーションエンジン306がホストベースに限定されず、待機サーバ40内にレプリケーションを実行することができる(後述の2次レプリカボリュームを作成できる)レプリケーションエンジン406を有している点が業務サーバ30とは異なっている。
なお、レプリケーションエンジン406は、後述図7のようなレプリケーション機能5081を有するものであっても良い。また、レプリケーションエンジン406は、データボリュームの差分ビットマップを管理し、この差分ビットマップの情報からレプリカボリュームに転送する差分データの情報を特定し、アレイベースレプリケーションによるデータボリュームに対するリストアが終了した段階で、データボリュームからレプリカボリュームにデータを転送するものであっても良い。
<管理計算機の内部構成>
図5は、本発明の実施形態に係る管理計算機50の内部構成を示す図である。管理計算機50は、キーボードやマウスなどの入力装置500と、CRTなどの表示装置501と、CPU502と、管理I/F503と、メモリ504と、を有している。
CPU502は、メモリ504に格納されたプログラムを実行するプロセッサである。管理I/F503は、管理ネットワーク22とのインターフェースであって、システム管理のためにホスト計算機(業務サーバ)30、ホスト計算機(待機サーバ)40、及びストレージシステム10と、データや制御命令の送受信を行う。メモリ504は、レプリケーション管理プログラム506と、構成情報テーブル507と、レプリケーション情報テーブル508と、アレイベースレプリケーション管理テーブル509と、ホストベースレプリケーション管理テーブル510と、アレイベースレプリケーションカタログテーブル511と、2次レプリカカタログテーブル512と、を格納している。
レプリケーション管理プログラム506は、CPU502によって実行されることにより実現され、本発明の実施形態の処理を実現する。また、レプリケーション管理プログラム506は、管理者への設定画面の提供、ホスト計算機30及び40やストレージシステム10からの情報取得、レプリケーションエンジンの制御、各テーブルを管理するプログラムである。
構成情報テーブル507、レプリケーション情報テーブル508、アレイベースレプリケーション管理テーブル509、ホストベースレプリケーション管理テーブル510、アレイベースレプリケーションカタログテーブル511、及びホストベースレプリケーションカタログデータテーブル512については後述する。
なお、管理計算機50が有する入力装置400の例としてキーボードとポインタデバイスが考えられるが、これ以外の装置であっても良い。また、表示装置401に代えて、或いはそれに加えて、それ以外の出力装置(例えば、プリンタ)を設けるようにしても良い。
入力装置及び表示装置(出力装置)の代替としてシリアルインターフェースやイーサーネットインターフェースを入出力装置とし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。
以後、計算機システム1を管理し、本願発明の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機50が表示用情報を表示する場合は管理計算機50が管理システムであり、また、管理計算機50と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
<構成情報テーブル>
図6は、本発明の実施形態による構成情報テーブル507の例を示す図である。構成情報テーブル507は、ホスト計算機30及び40とストレージシステム10の構成情報を格納するためのテーブルである。構成情報テーブル507は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
構成情報テーブル507は、ホスト計算機30及び40を識別するためのホストID5070と、ホスト計算機30及び40上のアプリケーションを識別するためのアプリケーションID5071と、ストレージシステム10を識別するためのストレージID5072と、ストレージシステム10上のストレージ装置12内の物理リソース120を識別するボリュームID5073と、及び物理リソースの使用状況を表す使用状況5074と、を構成項目として有している。
レプリケーション管理プログラム506は、ホストID5070、アプリケーションID5071、ボリュームID5073の情報を、ホスト計算機30から取得し、ストレージID5072、ボリュームID5073、及び使用状況5074の情報をストレージシステム10から取得し、これらの情報を組み合わせて、構成情報テーブル507を作成する。なお、これらの情報は、あらかじめ管理者の入力により取得してもよい。また、図6の例では、使用状況5074のカラムには、便宜上「使用中」と「−」と記載しているが、使用中か未使用であるかを特定できれば特に表現の限定はしない。
<レプリケーション情報テーブル>
図7は、本発明の実施形態によるレプリケーション情報テーブル508の例を示す図である。レプリケーション情報テーブル508は、計算機システム1の機器上のレプリケーション機能の情報を格納するためのテーブルである。レプリケーション情報テーブル508は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
レプリケーション情報テーブル508は、各々のシステム機器を認識するためのシステム機器ID5080と、その機器に存在するレプリケーション機能5081と、をその構成項目として有している。
図7の例では、レプリケーション機能5081のカラムには機能名が記載され、「非同期リモートレプリケーション」や「ホストベースCDP(Continuous Data Protection)」と表現されているが、レプリケーション機能を特定できれば特に表現方法に制限はない。また、本項目では便宜上アレイベースレプリケーションエンジン116を「フルバックアップ」「差分バックアップ」と機能として記載している。同様に、ホストベースレプリケーションエンジン306を「非同期リモートレプリケーション」と、レプリケーションエンジン406を「ホストベースCDP」と機能として記載している。但し、これは一例であって、各レプリケーションエンジンがこれらのレプリケーション機能に限定するものではない。
<アレイベースレプリケーション管理テーブル>
図8は、本発明の実施形態によるアレイベースレプリケーション管理テーブル509の例を示す図である。アレイベースレプリケーション管理テーブル509は、アレイベースレプリケーションエンジンを用いたバックアップを管理するためのテーブルであり、アレイベースのバックアップ(レプリケーション)動作のスケジュールを管理するものである。アレイベースレプリケーション管理テーブル509は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
アレイベースレプリケーション管理テーブル509は、レプリケーションを管理するためのレプリケーションID5090と、バックアップの対象となるアプリケーションを識別するアプリケーションID5091と、バックアップの種別を識別する種別5092と、バックアップのスケジュール5093と、バックアップ対象アプリケーションのデータが格納されているデータVOLID5094と、バックアップ先のボリュームを識別するバックアップVOLID5095と、を構成項目として有している。
管理者が任意のアプリケーション305をバックアップしたいときに、アプリケーションID5091、種別5092、スケジュール5093、及びバックアップVOLID5095の情報が、レプリケーション管理プログラム506を用いて設定される。また、レプリケーションID5090は、管理者による設定時に付与されるが、管理者による手入力によって付与されても良い。データVOLID5094は、管理者によって設定されたアプリケーション305の情報から特定され、ボリュームID5073は構成情報テーブル507のアプリケーションID5071から特定される。なお、管理者が直接データVOLであるボリュームVOLID5073を設定してもよいし、他にデータVOLを特定できる情報を設定してボリュームIDを特定してもよい。バックアップVOLID5095は、管理者によって設定されてもよいし、レプリケーション管理プログラム506が、構成情報テーブル507の使用状況5074から使われていないボリュームを決定してもよい。
また、図8の例では、アプリケーションAP001が使用するボリュームであるVOL001のバックアップは、一日おきにバックアップボリュームVOL003及びVOL004に対して交互に実行されるようになっている。
また、図8の例では、スケジュール5093は「毎日23:00」との時間指定や、「1時間毎」との時間間隔で記入されているが、バックアップを開始する時刻が特定できればどのような記載方法であってもよい。
<ホストベースレプリケーション管理テーブル>
図9は、本発明の実施形態によるホストベースレプリケーション管理テーブル510の例を示す図である。ホストベースレプリケーション管理テーブル510は、ホストベースレプリケーションエンジンを用いたレプリケーションを管理するためのテーブルである。ホストベースレプリケーション管理テーブル510は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
ホストベースレプリケーション管理テーブル510は、レプリケーションを管理するためのレプリケーションID5100と、レプリケーションの対象となるアプリケーションを識別するアプリケーションID5101と、レプリケーションの種別5102と、レプリケーション対象アプリケーションのデータが格納されているデータVOLID5103と、レプリケーション先のホストを識別するターゲットホストID5104と、レプリケーション先のボリュームを識別するレプリカVOLID5105と、を構成項目として有している。
管理者が任意のアプリケーション305のデータをレプリケーションしたいときに、アプリケーションID5101、種別5102、ターゲットホストID5104、及びレプリカVOLID5105の情報が、レプリケーション管理プログラム506を用いて設定される。また、レプリケーションID5100は、管理者による設定時にレプリケーション管理プログラム506によって付与されるが、管理者による手入力によって付与されても良い。データVOLID5103は、管理者によって設定されたアプリケーション305の情報から特定され、ボリュームID5073は構成情報テーブル507のアプリケーションID5071から特定される。また、管理者が直接データVOLであるボリュームVOLIDを設定してもよいし、他にデータVOLを特定できる情報を設定してボリュームIDを特定してもよい。ターゲットホストID5104とレプリカVOLIDは、管理者によって設定されてもよいし、レプリケーション管理プログラム506が、構成情報テーブル507の使用状況5074から使われていないボリュームを決定してもよい。
<アレイベースレプリケーションカタログテーブル>
図10は、本発明の実施形態によるアレイベースレプリケーションカタログテーブル511の例を示す図である。アレイベースレプリケーションカタログテーブル511は、アレイベースレプリケーション管理テーブル509(図8参照)に従って実行したアレイベースレプリケーション処理の結果を管理するテーブルである。アレイベースレプリケーションカタログテーブル511は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
アレイベースレプリケーションカタログテーブル511は、レプリケーションの実行タスクを一意に特定するためのレプリケーションカタログID5110と、バックアップ開始時刻5111と、レプリケーションを管理するためのレプリケーションID5112と、バックアップ対象アプリケーションのデータが格納されているデータVOLID5113と、バックアップデータが格納されているバックアップVOLID5114と、を構成項目として有している。
上述のように、アレイベースレプリケーションカタログテーブル511には、アレイベースレプリケーション管理テーブル509の実行結果が格納される。アレイベースレプリケーションカタログテーブル511のレプリケーションID5112、データVOLID5113、及びバックアップVOLID5114の情報は、アレイベースレプリケーション管理テーブル509から取得される。バックアップVOLID5114は、アレイベースレプリケーション管理テーブル509のバックアップVOLID5095から選択される。レプリケーションIDに1つ以上のバックアップVOLIDが登録されている場合は、レプリケーション管理プログラム506が、順番に選択する。但し、管理者がバックアップVOLIDを選択してもよいし、選択の方法は問わない。また、バックアップ開始時に、レプリケーション管理プログラム506が、レプリケーションカタログID5110と時刻5111付与し、当該情報を当該テーブルに格納するが、管理者による手入力によって付与されても良い。
<2次レプリカカタログテーブル>
図11は、2次レプリカカタログテーブル512の例を示す図である。2次レプリカカタログテーブル512は、管理計算機50で実行されるレプリケーション管理プログラム506によって参照される。
2次レプリカカタログテーブル512は、レプリケーションの実行タスクを一意に特定するためのレプリケーションカタログID5120と、レプリケーションを管理するためのレプリケーションID5121と、2次レプリカデータ作成時刻5122と、2次レプリカデータを作成する元のデータが格納されているレプリカボリュームを示すレプリカVOLID5123と、2次レプリカデータが格納されている記憶領域を特定する2次レプリカデータ記憶領域5124と、アレイベースレプリケーションによって実行されているバックアップと整合性を持たせるためのバックアップフラグ5125と、を構成項目として有している。ここで、2次レプリカデータとは、ホストベースレプリケーションによって作成されたレプリカボリュームを複製することによって作成されたレプリカボリューム(レプリカのレプリカ)を意味するものである。
2次レプリカカタログテーブル512には、ホスト計算機(待機サーバ)40上のレプリケーションエンジン406によって実行された結果が格納される。これは、ホストベースレプリケーション管理テーブル510(図9参照)によって実行されたレプリケーションのデータが格納されているレプリカVOLのデータを更に2次レプリカデータ記憶領域5124に複製するものである。
2次レプリカカタログテーブル512のレプリケーションID5121とレプリカVOLID5123の情報は、ホストベースレプリケーション管理テーブル510から取得される。2次レプリカデータ記憶領域5124は、管理者が選択してもよいし、レプリケーション管理プログラム506が構成情報テーブル507の使用状況5070から空いているボリュームを選択してもよい。また、レプリケーション管理プログラム506は、2次レプリカデータ記憶領域5124にデータを保存した時、作成時刻5122と、レプリケーションカタログID(例えば、ストレージ装置でアレイベースレプリケーション(バックアップ)を実行した時刻をIDとする)の情報を格納する。さらに、レプリケーション管理プログラム506は、アレイベースレプリケーションエンジン116を用いたバックアップを実行したときに、バックアップフラグ5125を付与する。
図11からは、例えば、HRPC001に対応するSSVOL001のデータとHRPC002に対応するSSVOL002のデータをVOL011のレプリカボリューム(待機サーバ)に反映させると、待機サーバのレプリカボリュームが、2010/4/21の23:00におけるストレージ装置のレプリカボリュームのデータと同一内容となることが分かる。
<レプリケーション処理の概念>
図12は、本実施形態による、ホストベースレプリケーションとアレイベースレプリケーションが共有する環境におけるデータ処理の流れを説明するための図である。本実施形態では、ストレージシステム10上のアレイベースレプリケーションエンジンを用いてバックアップを、ホストベースレプリケーションを用いてディザスタリカバリ用にレプリケーションを行う。
図12において、ホスト計算機(業務サーバ)30上のアプリケーション305は、ストレージシステム10上のデータボリュームにデータを格納している。レプリケーション管理プログラム506は、アレイベースレプリケーションエンジン116を用いてデータボリューム(主ボリューム)のデータをターゲットボリューム(レプリカボリューム)にコピーする。コピーのタイミングは、アレイベースレプリケーションテーブル509(図8)に従って、レプリケーション管理プログラム506がバックアップデータとして保存しておきたい時刻の時点のデータをコピーする。
また、レプリケーション管理プログラム506は、ホストベースレプリケーションエンジン306を用いて、アプリケーション305のWriteデータをキャプチャしてホスト計算機(待機サーバ)40上のレプリカボリュームに転送する。
そして、更に、レプリケーションエンジン406は、レプリカボリュームに書き込まれたデータをスナップショットボリューム等の2次レプリカボリュームに保存し、当該2次レプリカボリュームを用いてレプリカボリュームが過去の状態に戻れるようにしている。
図19は、Writeコマンドデータ1900の構成例を示す図である。Writeコマンドデータ1900は、Writeコマンドを管理するためのデータである。Writeコマンドデータ1900は、アプリケーション305が使用しているデータに変更が発生した場合に、作成される。
Writeコマンドデータ1900は、例えば、命令コード、データ、生成時刻、データVOLID、格納先アドレス、順序番号、及びバックアップフラグを、構成項目として有している。
命令コードとデータは、アプリケーション305がWriteデータ(書き込みデータ)を発行するときに、追加される情報である。データVOIIDは、Writeデータの格納先となるデータVOLの識別子が格納されるフィールドである。格納先アドレスは、データVOLIDで示されるデータボリューム内での格納先アドレスが格納されるフィールドである。生成時刻は、ホストベースレプリケーションエンジン306が、アプリケーション305からのWriteコマンドをキャプチャした時刻である。
これらの値は、ホストベースレプリケーションエンジン306がアプリケーション305からのWriteコマンドをキャプチャしたときに、設定される値である。なお、バックアップフラグのみを転送する場合は、データにはNULLが設定される。
<環境設定処理>
まず、計算機システム1を運用するために必要な環境を設定する環境設定処理について説明する。
図13は、本実施形態に係る環境設定処理について説明するためのフローチャートである。ここでは、アレイベースレプリケーションとホストベースレプリケーションが共有しているボリュームを特定して、ホストベースレプリケーションで用いているボリュームが壊れても業務引継ぎできるように環境を設定する。
図13において、S1001からS1004の処理は、本実施形態による管理計算機50上のレプリケーション管理プログラム506によって実現される処理である。CPU502がメモリ504からプログラムを読み出して、この処理ステップを実行することにより実現される。以下、プログラムを主語にして説明する場合があるが、実際にはそのプログラムを実行する処理部であるCPUが処理している。
i)S1001
レプリケーション管理プログラム506は、ホスト計算機30とストレージシステム10から、構成情報(図6参照)と各機器に存在するレプリケーション機能(図7参照)の情報を取得する。ストレージシステム10から取得した構成情報には、ストレージシステム10を識別するストレージIDと、このストレージに格納されているボリュームを識別するボリュームIDの情報が含まれる。ホスト計算機30から取得した構成情報は、ホスト計算機を識別するホストIDと、このホスト計算機上で起動しているアプリケーション305を識別するアプリケーションIDと、このアプリケーション305のデータが格納されているボリュームを識別するボリュームIDと、このボリュームが属するストレージシステム10を識別するストレージIDの情報と、使用状況の情報と、を含んでいる。これらの情報が、構成情報テーブル507(図6)における、ホストIDと、アプリケーションIDと、ストレージIDと、ボリュームIDとに格納される。
また、レプリケーション管理プログラム506は、計算機システム1に属する機器のそれぞれから、その機器に存在するレプリケーション機能の情報を取得する。具体的に本実施形態においては、レプリケーション管理プログラム506は、ストレージ上に存在するアレイベースレプリケーションの機能の情報と、ホスト上に存在するホストベースレプリケーション機能の情報を取得する。これらの情報は、レプリケーション情報テーブル508のシステム機器IDと、レプリケーション機能とに格納される。
ii)S1002
レプリケーション管理プログラム506は、レプリケーションの設定情報を取得する。これは、レプリケーション管理プログラム506が、レプリケーション設定画面を表示し、管理者からの指示により処理を開始する。但し、画面は、GUI(Graphical User Interface)などのグラフィックな画面操作であってもよいし、CLI(Command Line Interface)などのコマンドによる入力であってもよい。また、管理者によって作られたプロパティファイルを参照してもよいし、レプリケーション管理プログラム506が自動で生成してもよい。設定方法については限定しない。また、この情報は、ホストベースレプリケーションエンジン306やアレイベースレプリケーションエンジン116が、あらかじめ保持している情報であって、その情報をレプリケーション管理プログラム506が、各エンジンから情報を取得してもよい。
例えば、管理計算機50の表示画面上にレプリケーション設定画面を提供した場合、管理者は、レプリケーション設定画面を用いて、レプリケーションを行いたいアプリケーション305のIDを登録する。また、管理者は、設定画面を用いて、このアプリケーション305に設定するレプリケーションの種類について、ホストベースレプリケーションか、アレイベースレプリケーションか選択する。そして、レプリケーション管理プログラム506は、選択されたレプリケーションの種類から、レプリケーション情報テーブル508のレプリケーション機能5081を参照し、管理者が選択可能なレプリケーション機能を提示する。これらの情報から、管理者がレプリケーション機能を選択し、設定する。また、管理者は、レプリケーション設定画面を用いて、レプリケーション先のボリュームを選択する。
さらに、管理者は、レプリケーション設定画面を用いて、レプリケーションのスケジュールに関する情報を設定する。そして、レプリケーション管理プログラム506は、設定されたこれらの情報を取得し、レプリケーションの種類に応じて、アレイベースレプリケーション管理テーブル509、または、ホストベースレプリケーション管理テーブル510に追加する。レプリケーション管理プログラム506は、ホストIDとデータVOLIDについては、管理者に指定されたアプリケーションIDに基づいて構成情報テーブル507を検索して取得し、それらの情報をアレイベースレプリケーション管理テーブル509、或いはホストベースレプリケーション管理テーブル510に格納する。
iii)S1003
レプリケーション管理プログラム506は、アレイベースレプリケーションと、ホストベースレプリケーションが共有しているボリュームを特定する。具体的には、レプリケーション管理プログラム506は、アレイベースレプリケーション管理テーブル509に登録されているデータVOLID5094と、ホストベースレプリケーション管理テーブル510に登録されているデータVOLID5103とを照合し、同じボリュームが存在するか検索することにより、両レプリケーション処理が実行されているボリュームを特定する。例えば、本実施形態の場合、図8のデータVOLID5094と、図9のデータVOLID5103を検索する。すると、アレイベースレプリケーションとホストベースレプリケーションが共有しているボリュームは、データVOLIDがVOL001のボリュームであることが分かる。
iv)S1004
レプリケーション管理プログラム506は、ホストベースレプリケーションのレプリケーション先である待機サーバにおける2次レプリカデータの保存方法を決定する。例えば、図7を参照すると、ホストベースレプリケーションのレプリケーション先であるHOST002に存在するレプリケーション機能はホストベースCDPである。よってホストベースCDPを使用する。
但し、レプリケーション管理プログラム506は、ホスト計算機(待機サーバ)40から関連するコピー機能を取得し、構築可能な環境を管理者に提示し、管理者が待機サーバ側データ保存方法を決定してもよい。
本ステップ終了後、環境設定処理は終了する。
<レプリケーションの運用>
次に、アレイベースレプリケーションによるバックアップと、ホストベースレプリケーションによるデータ転送の方法について説明する。図14は、本実施形態における、アレイベースレプリケーション及びホストベースレプリケーションの運用を説明するためのフローチャートである。
図14において、S2001からS2006の処理は、本実施形態による管理計算機50のメモリ上のレプリケーション管理プログラム506によって実現される処理である。
i)ステップS2001
レプリケーション管理プログラム506は、ホストベースレプリケーションエンジン306を用いて、アプリケーション305からのWriteデータをキャプチャして、ホスト計算機(待機サーバ)40側へ転送する。具体的には、ホストベースレプリケーション管理テーブル510を参照して、ホストベースレプリケーションエンジン306が、アプリケーション305からのWriteデータをキャプチャし、ホスト計算機(待機サーバ:ターゲットホスト)40のレプリカVOLID先のボリュームにデータを格納する。
ii)S2002
レプリケーション管理プログラム506は、レプリケーションエンジン406を用いて、ホスト計算機(待機サーバ)40内に(或いは、待機サーバ40の外部に設けられた記憶領域内に)、2次レプリカデータとしてデータを複製する。レプリケーション管理プログラム506は、レプリカデータを複製して2次レプリカデータを作成する度に、必要な情報を2次レプリカカタログテーブル512に追加する。
iii)S2003
レプリケーション管理プログラム506は、ストレージシステム10におけるバックアップ開始時刻を確認し、バックアップ開始時刻になるまでは、S2001とステップS2002の処理を繰り返す。バックアップ開始時刻になったときに、処理はステップS2004へ進む。
iv)S2004
レプリケーション管理プログラム506は、バックアップスケジュールの時刻になったときにはアプリケーションを静止化(フリーズ:アプリケーションを動作させたままでI/O処理を止める)する。具体的には、レプリケーション管理プログラム506は、アレイベースレプリケーション管理テーブル509のバックアップスケジュールを参照し、その時刻になったら、アプリケーションを静止化(フリーズ)する。
v)S2005
レプリケーション管理プログラム506は、アレイベースレプリケーションを用いてバックアップを開始する。まず、レプリケーション管理プログラム506は、管理者がS1002で設定したバックアップの取得方法によってバックアップを取得する。例えば、本実施形態では、図8のアレイベースレプリケーション管理テーブル509におけるレプリケーションIDAPR001を参照すると、VOL001のデータをVOL003へフルバックアップを行うことが分かる。そして、VOL001に格納されているデータをVOL003へ格納する。環境によって、このコピーの方法は異なるため、バックアップ方法はこれに限定されるものではない。バックアップが終了したら、必要な情報がアレイベースレプリケーションカタログテーブル511(図10)に追加される。つまり、レプリケーションIDがARP001なので、カラム5112にはARPC001が追加される。
vi)S2006
レプリケーション管理プログラム506は、ホストベースレプリケーションエンジン306を用いて、バックアップフラグをホスト計算機(待機サーバ)40側に転送する。これにより、このフラグが転送されるまでのデータと今バックアップしているデータとの整合性を取ることが可能となる。また、レプリケーション管理プログラム506は、2次レプリカカタログテーブル512(図11参照)のバックアップフラグ5125のカラムにこのバックアップ(ストレージシステムでのバックアップ)の時刻を付与する。バックアップフラグが転送される前までのレプリケーションカタログIDがHRPC001及びHRP002は「2010/04/20 23:00:00」のバックアップデータと同じである。フラグが転送された後は、書き込まれたデータであるHRPC003は次のバックアップで使われた時刻となる。
S2005のデータのコピーとS2006のフラグの転送が完了後、当該処理は終了する。
<リストア処理>
リストア処理とは、正ボリューム(データボリューム)と副ボリューム(レプリカボリューム)があった場合、正ボリューム内のデータが壊れたときに、副ボリュームを用いて正ボリュームをある時点(副ボリュームにレプリカを生成した時点)のデータに戻す処理をいい、正ボリュームが壊れたときに、違うボリューム(例えば、待機サーバ40のレプリカボリューム)を用いてアプリケーションの運用を再開する業務引継ぎ処理(後述する)とは異なるものである。
図15は、本実施形態における、アレイベースレプリケーションによってバックアップしたデータのリストアの処理について説明するためのフローチャートである。なお、図15において、ステップS3001からステップS3007の処理は、本実施形態による管理計算機50のメモリ504上のレプリケーション管理プログラム506によって実現される処理である。
i)S3001
レプリケーション管理プログラム506は、アレイベースレプリケーションのリストア指示を受け取る。具体的には、例えば、管理者がリストアしたいアプリケーションを選択して、レプリケーション管理プログラム506に対してリストアの指示を出す。そして、レプリケーション管理プログラム506は、アレイベースレプリケーションカタログテーブル511から、リストア可能な時刻を管理者に提示する。例えば、管理者がアプリケーションID=AP001のデータボリュームのリストアを指示したとすると、レプリケーション管理プログラム506は、アレイベースレプリケーション管理テーブル509のアプリケーションID=AP001に基づいて、対応するレプリケーションIDを検索し、それがARP001であると特定する。そして、レプリケーション管理プログラム506は、アレイベースレプリケーションカタログテーブル511において、レプリケーションID=ARP001に対応するレプリケーションカタログIDがARPC001とARPC003であると認識する。そこで、レプリケーション管理プログラム506は、リストア可能な時刻として「2010/04/20 23:00:00」と「2010/04/21 23:00:00」を管理者に提示する。
ii)S3002
続いて、レプリケーション管理プログラム506は、リストアするボリュームを特定する。具体的には、レプリケーション管理プログラム506は、ステップS3001で受け取ったリストアしたいアプリケーションとその時刻の情報から、リストアするボリュームを特定する。例えば、管理者がアプリケーションID=AP001の「2010/04/20 23:00:00」の時点のデータを指定した場合、アレイベースレプリケーションカタログテーブル511のバックアップVOLIDからバックアップデータが格納されているボリュームがVOL003であると特定できる。
iii)S3003
そして、レプリケーション管理プログラム506は、該当するアプリケーションを停止する。なお、ステップS3002とS3003の処理はどちらを先に実行してもよい。つまり、S3003を先に処理してもよい。
iv)S3004
レプリケーション管理プログラム506は、ホストベースレプリケーションエンジン306を用いて、未転送データをホスト計算機(待機サーバ)40に転送する。この処理は、ホストベースレプリケーションエンジン306が転送せずにホスト計算機(業務サーバ)30内に溜めていたデータを吐き出す処理である。この処理を行うことで、アプリケーション305を停止した時点のデータVOLと、レプリカVOLのデータを一致させることができる。より具体的には、レプリケーション管理プログラム506は、ホストベースレプリケーション管理テーブル510のアプリケーションIDより、管理者が指定したアプリケーションを検索し、ターゲットホストIDとレプリカVOLIDを特定し、特定したボリュームに対してデータを転送する。
v)S3005
レプリケーション管理プログラム506は、アレイベースレプリケーションエンジン116を用いて、リストア処理を実行する。具体的には、S3002で特定したボリューム(例えば、VOL003)をデータボリュームにコピーする。
vi)S3006
レプリケーション管理プログラム506は、レプリカボリュームに2次レプリカボリュームのデータを適用して、レプリカボリュームの内容をS3005でリストアされたデータボリュームと同じデータにする。より具体的には、レプリケーション管理プログラム506は、ホスト計算機(待機サーバ)40上のレプリカボリュームが指定時刻に作成されたバックアップデータ(副ボリューム)と同一内容となるように、2次レプリカボリュームのデータをレプリカボリュームに適用する。
2次レプリカボリュームのデータを適用するために、レプリケーション管理プログラム506は、2次レプリカカタログテーブル512のバックアップフラグを参照し、適用すべき2次レプリカデータ記憶領域5124を特定する。例えば、図11の2次レプリカカタログテーブル512では、バックアップフラグ「2010/04/20 23:00:00」に対応する2次レプリカデータ記憶領域「SSVOL001」及び「SSVOLC002」を特定することができる。そして、2次レプリカデータ保存方法の情報から、データを戻す方法を適用して、レプリカVOLIDがVOL011のボリュームにデータを戻す。
vii)S3007
レプリケーション管理プログラム506は、ステップS3003で停止したアプリケーションを再開する。これは、S3005とS3006の処理が完了し、データボリュームとレプリカボリュームのデータが一致した状態となっているためである。このように、ストレージシステム10におけるデータボリュームとホスト計算機(待機サーバ)40におけるレプリカボリュームのデータ内容が一致させることができるので、アプリケーションのWriteデータが発生して、ホストベースレプリケーション306によってデータがホスト計算機(待機サーバ)40に転送されてもレプリカボリュームのデータが破壊されることはない。
アプリケーションの再開後、リストア処理は終了する。
<業務引継ぎ(テイクオーバー)処理>
次に、本実施形態に係るホストベースレプリケーションにてレプリケーションしたデータを用いた業務引継ぎの処理について説明する。図16は、本実施形態による業務引継ぎ処理を説明するためのフローチャートである。図16において、ステップS4001からステップS4004の処理は、本実施形態による管理計算機50のメモリ504上のレプリケーション管理プログラム506によって実現される処理である。
i)S4001
レプリケーション管理プログラム506は、ホスト計算機(待機サーバ)40における業務引継ぎの指示を受け取る。具体的には、管理者がレプリケーション管理プログラム506に対して、業務を引継ぐホスト計算機とそのアプリケーションを選択して、ホスト計算機(待機サーバ)40に対して業務引継ぎの指示を出す。つまり、管理者は、例えばホスト計算機(業務サーバ)30が壊れたとき、この業務を継続して行うために、業務を引継ぐホスト計算機を選択し、そのホストに属しているアプリケーションを表示し、その中で継続して業務を引継ぐアプリケーションを選択・特定する。
ii)S4002
レプリケーション管理プログラム506は、業務を引継ぐボリュームを特定する。具体的には、S4001で受け取った業務を引継ぐホストとアプリケーションから、業務を引継ぐボリュームを特定する。管理者がホストベースレプリケーション管理テーブル510のアプリケーションID5101から、ターゲットホストID5104とレプリカVOLID5105を特定できる。例えば、業務を引継ぎたいHOST001上のAP0011のデータは、HOST002上のVOL011に格納されていることが分かる。
iii)S4003
レプリケーション管理プログラム506は、特定したボリュームをマウントする。
iv)S4004
レプリケーション管理プログラム506は、S4003でマウントしたボリュームを用いて、ホスト計算機(待機サーバ)40のアプリケーションを再開する。よって、ホスト計算機(業務サーバ)30及び、そのデータが格納されているストレージシステム10が壊れた場合でも、ホスト計算機(待機サーバ)30を使用して業務を再開することができる。また、ホストベースレプリケーションの転送が途中にシステムがダウンした場合でも、ホスト計算機(待機サーバ)40上の2次レプリカボリュームのデータを用いることで、業務の引継ぎが可能なデータを適用することが可能となる。
(2)第2の実施形態
本発明の第2実施形態は、第1の実施形態における計算機システム1においてホスト計算機30上でアプリケーション305のデータをキャプチャしていたのに対し、スイッチ装置20でアプリケーション305のデータをキャプチャしている点が異なる。本実施形態では、図1の構成との差異を中心に本環境における本発明を適用した場合について説明する。
<システム構成>
図17に、本実施形態に係る計算機システム1Bの概略構成を示す図である。図17に示すように、本実施形態の計算機システム1Bは、図1と同様に、ストレージシステム10と、スイッチ装置20と、ホスト計算機(業務サーバ)30と、ホスト計算機(待機サーバ)40、管理計算機50と、を有している。
ストレージシステム10と、ホスト計算機30及び40と、管理計算機50は、第1実施形態と同じ構成を有している。
図1のシステム構成との差異は、スイッチ装置20上にレプリケーションエンジン203が格納されている点である。また、ホスト計算機(業務サーバ)30のメモリ304上にホストベースレプリケーションエンジン306がなくてもよい。
スイッチ装置20のより具体的な構成について説明する。スイッチ装置20は、データI/F200と、CPU201と、メモリ202と、管理I/Fと、を有している。データI/F200は、データネットワーク21に対するインターフェースであって、1つ以上の通信ポートを持つ。このポートを介してホスト計算機(業務サーバ)30と、ホスト計算機(待機サーバ)40と、ストレージシステム10とがデータの送受信を行う。図中には3つのデータI/Fがあるが、その数は限定されるものではない。管理I/F204は、管理ネットワーク22に対するインターフェースであって、1つ以上の通信ポートを持ち、スイッチ装置20Bとの通信が可能となっている。
CPU201は、メモリ202に格納されたプログラムを実行するプロセッサである。メモリ202には、レプリケーションエンジン203が記憶されている。これらは、CPU201によって実行される。レプリケーションエンジン203は、ホスト計算機(業務サーバ)30上のアプリケーション305がストレージシステム10に対して書き込むデータをキャプチャして、データI/F200Bを介してホスト計算機(待機サーバ)40へデータを転送する。
また、本実施形態で用いる各種情報は、第1の実施形態で説明した図6から図11までの各テーブルに記録される情報と同じである。本実施形態におけるレプリケーション情報テーブル508は、例えば、図7のシステム機器ID5080「スイッチ」のレプリケーション機能5081に、「非同期リモートレプリケーション」が入る。
<処理動作>
次に、本実施形態の処理について説明する。具体的処理は、第1の実施形態と同様に、図13、14、15、及び16の処理によって実現される。但し、次のステップの処理が変更される。
つまり、ステップS2001では、管理計算機50のメモリ504上のレプリケーション管理プログラム506が、ホスト計算機(業務サーバ)30ではなく、スイッチ装置20A上のメモリ202上のレプリケーションエンジン203を用いて、アプリケーション305からのWriteデータをキャプチャして、待機サーバ側へ転送する。他にも、ホストベースレプリケーションエンジン306が行っていた処理は、スイッチ装置20上のレプリケーションエンジン203によって実行される。また、レプリケーション管理プログラム506は、ホスト計算機(業務サーバ)30ではなく、スイッチ装置20上のレプリケーションエンジンに対して指示を出す。
(3)第3の実施形態
第3の実施形態は、第1の実施形態における計算機システム1に含まれるホスト計算機30及び40の代わりにNAS(Network Attached Storage)装置60を設置した点が異なる。NAS装置60は、メモリ603上にファイルシステムプログラム604を格納しており、ファイルサーバとして機能する。本実施形態では、図1の構成との差異を中心にNASの環境における本発明を適用した場合について説明する。
<システム構成>
図18は、本実施形態に係る、NAS装置60を含む計算機システム1Cのシステム概略構成を示す図である。図18に示すように、本実施形態の計算機システム1Cは、ストレージシステム10と、スイッチ装置20と、NAS装置60と、管理計算機50と、を有している。ストレージシステム10と、スイッチ装置20と、管理計算機50は、第1の実施形態と同様の内部構成を有している。図1のシステム構成との差異は、ホスト計算機30及び40をNAS装置60で置き換えた点である。
NAS装置60の内部構成について説明する。NAS装置60は、管理I/F600と、CPU601と、データI/F602と、メモリ603とを有する。管理I/F600は、管理ネットワーク22に対するインターフェースであって、1つ以上の通信ポートを持つ。このポートを介して管理計算機50とデータや制御命令の送受信を行う。CPU601は、メモリ202に格納されたプログラムを実行するプロセッサである。データI/F602は、データネットワーク21に対するインターフェースであって、1つ以上の通信ポートを持つ。データI/F602Aは、ストレージシステム10とデータの送受信を行う。データI/F602Bは、NAS装置60Bとデータの送受信を行う。
メモリ603には、ファイルシステムプログラム604と、NASレプリケーションエンジン605が記憶されている。これらは、CPU601によって実行される。ファイルシステムプログラム604は、ファイルシステムを管理するプログラムである。NASレプリケーションエンジン605は、ファイルシステムプログラム604がストレージシステム10に対して書き込むデータをキャプチャして、データI/F602Bを介してNAS装置60Bへデータを転送する。
本実施形態の計算機システム1Cで用いられる各種情報は、第1の実施形態の図6から図11で示した各テーブルに記録されていた情報と同じである。但し、アプリケーションをファイルシステムと置き換える必要がある。また、NASレプリケーションエンジン605は、ファイル単位でデータを転送する。
<処理動作>
本実施形態による計算機システム1Cの処理動作については、第1の実施形態と同様に、図13、14、15及び16で示される処理を適用することができる。但し、アプリケーション405をファイルシステムプログラム604と、ホストベースレプリケーションエンジン306をNASレプリケーションエンジン605と置き換える。
NAS装置60BのNASレプリケーションエンジン605は、ファイルシステムプログラム604によるストレージシステム10に対しての書き込みデータをキャプチャし、それをデータI/F602Bを介してNAS装置60Bに転送し、第1の実施形態の場合と同様に、NAS装置60B内にレプリカボリュームを作成する。そして、NAS装置60Bのレプリケーションエンジンは、レプリカボリュームの複製である2次レプリカボリュームを作成する。
(4)まとめ
以上説明したように、本発明の実施形態による計算機システムは、第1の計算機(ホスト計算機30、スイッチ装置20A、NAS装置60A)と、第2の計算機(ホスト計算機40、NAS装置60B)と、ストレージシステムと、管理計算機と、によって構成されている。ストレージシステムでは、所定のタイミング(例えば、管理計算機からレプリケーションスケジュールが指定される)でアレイベースレプリケーションによって第1の記憶領域(主ボリューム)のバックアップデータ(レプリカ)が生成され、第2の記憶領域(副ボリューム)に格納される。一方、第1の計算機ではホストベースレプリケーションが実行され、第2のホスト計算機において、第1の記憶領域のレプリカデータが第3の記憶領域(レプリカボリューム)に格納される。また、第2の計算機では、レプリケーション(ホストベースである必要はない)が実行され、レプリカボリュームのレプリカが第4の記憶領域(2次レプリカボリューム)に2次レプリカデータとして保存される。そして、主ボリュームのデータが欠落した等、何らかの理由で副ボリュームから主ボリュームをリストア処理する際には、第2のホスト計算機のレプリカボリュームのデータ内容がリストア処理後の主ボリュームのデータ内容と同じになるように、2次レプリカデータをレプリカボリュームに適用する。このようにすることにより、主ボリュームをリストアした後でもホストベースレプリケーションによってレプリカボリュームを破壊することはなく、ホストベースレプリケーションとアレイベースレプリケーションの整合性を担保しつつ、両者を併用して運用できる環境を提供することが可能となる。
より具体的には、ストレージシステムにおいてアレイベースレプリケーションが実行され、第1の記憶領域のバックアップが第2の記憶領域に格納された時刻を示すバックアップ時刻と、ホストベースレプリケーション実行によってキャプチャされた書き込みデータの複製が2次レプリカデータとして第4の記憶領域に追加された時刻を示す2次レプリカ更新時刻と、が管理され、2次レプリカ更新時刻に第4の記憶領域に追加された書き込みデータが、どのバックアップ時刻に第2の記憶領域にバックアップされたかが分かるようになっている(図11参照)。そして、管理計算機は、リストア処理に使用した第2の記憶領域(副ボリューム)のデータのバックアップ時刻に対応する第4の記憶領域(2次レプリカボリューム)のデータを第3の記憶領域(レプリカボリューム)のデータに適用する。このようにすることにより、アプリケーションから主ボリュームへの書き込みが頻繁に行われ、副ボリュームとレプリカボリュームのデータ内容の違いが大きい状態にあっても、リストア処理が行われた場合には、リストア処理に用いられた副ボリュームの内容とレプリカボリュームの内容を一致させることが可能となる。
なお、本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
また、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
1、1B、1C 計算機システム
10 ストレージシステム
11 ストレージコントローラ
12 ストレージ装置
20 スイッチ装置
21 データネットワーク
22 管理ネットワーク
30 ホスト計算機(業務サーバ)
40 ホスト計算機(待機サーバ)
50 管理計算機
110、303、308、403、408 データI/F
111、302、402、502 CPU
112 ストレージI/F
113、309、409、503 管理I/F
114、304、404、504 メモリ
115 ストレージマイクロプログラム
116 アレイベースレプリケーションエンジン
120 物理リソース
121 プール
300、400、500 入力装置
301、401、501 表示装置
305、405 アプリケーション
306 ホストベースレプリケーションエンジン
307、407 記憶領域
406 レプリケーションエンジン
506 レプリケーション管理プログラム
507 構成情報テーブル
508 レプリケーション情報テーブル
509 アレイベースレプリケーション管理テーブル
510 ホストベースレプリケーション管理テーブル
511 アレイベースレプリケーションカタログテーブル
512 2次レプリカカタログテーブル

Claims (12)

  1. 第1の計算機と、当該第1の計算機に接続され、待機サーバとして機能する第2の計算機と、1つ以上の記憶領域を有し、前記第1の計算機に記憶領域を提供するストレージシステムと、前記第1及び第2の計算機と前記ストレージシステムとに接続され、それらを管理する管理計算機と、を有し、
    前記ストレージシステムは、第1の記憶領域と、そのバックアップデータを格納する第2の記憶領域と、を含み、
    前記第1の計算機は、前記第1の記憶領域への書き込みデータをキャプチャし、当該キャプチャした書き込みデータを前記第2の計算機に転送し、
    前記第2の計算機は、前記第1の計算機から転送された前記書き込みデータを前記第1の記憶領域のレプリカデータとして第3の記憶領域に格納すると共に当該第3の記憶領域のレプリカデータを第4の記憶領域に格納し
    前記管理計算機は、前記第2記憶領域のデータで前記第1の記録領域に対してリストア処理する際に、前記第3記憶領域のデータが前記リストア処理後の前記第1の記憶領域のデータと同じになるように、前記第1の記憶領域に対するリストア処理に用いたデータと同じバックアップ時刻を有する前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することを特徴とする計算機システム。
  2. 請求項1において
    記管理計算機は、前記第1の記憶領域のバックアップが実行され、当該バックアップが前記第2の記憶領域に格納された時刻を示すバックアップ時刻と、前記書き込みデータの複製が前記第4の記憶領域に追加された時刻を示す2次レプリカ更新時刻と、を管理し、
    前記管理計算機は、前記リストア処理に用いた前記第2の記憶領域の前記バックアップ時刻と、前記2次レプリカ時刻とを参照し、前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することを特徴とする計算機システム。
  3. 請求項2において、
    前記管理計算機は、前記2次レプリカ更新時刻に前記第4の記憶領域に追加された前記書き込みデータが、どのバックアップ時刻に前記第2の記憶領域にバックアップされたかが分かるように、前記バックアップ時刻と前記2次レプリカ更新時刻を対応させて管理し、前記リストア処理に使用した前記第2の記憶領域のデータの前記バックアップ時刻に対応する前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することを特徴とする計算機システム。
  4. 請求項1乃至3の何れか1項において、
    前記管理計算機は、前記第3の記憶領域のレプリカデータを作成し、前記第4の記憶領域に格納する方法を設定するための設定画面を表示装置に表示することを特徴とする計算機システム。
  5. 請求項1乃至4の何れか1項において、
    前記第1の計算機は業務サーバであり、前記第2の計算機は待機サーバであり、
    前記業務サーバは、前記第1の記憶領域を使用するアプリケーションと、ホストベースレプリケーションを実行し、前記アプリケーションによる前記第1の記憶領域に対する書き込みデータをキャプチャし、前記待機サーバに転送する第1のレプリケーションエンジンと、を有し、
    前記待機サーバは、前記第3の記憶領域のデータの複製を2次レプリカデータとして前記第4の記憶領域に格納する第2のレプリケーションエンジンを有し、
    前記ストレージシステムは、アレイベースレプリケーションを実行し、予め決められたスケジュールに従って、前記第1の記憶領域のデータのバックアップデータを前記第2の記憶領域に格納するアレイベースレプリケーションエンジンを有することを特徴とする計算機システム。
  6. 請求項1乃至4の何れか1項において、
    さらに、前記第1の記憶領域を使用するアプリケーションを有する業務サーバを有し、
    前記第1の計算機はスイッチ装置であり、前記第2の計算機は待機サーバであり、
    前記スイッチ装置は、レプリケーションを実行し、前記アプリケーションによる前記第1の記憶領域に対する書き込みデータをキャプチャし、前記待機サーバに転送する第1のレプリケーションエンジンと、を有し、
    前記第2の計算機は、前記第3の記憶領域のデータの複製を2次レプリカデータとして前記第4の記憶領域に格納する第2のレプリケーションエンジンを有し、
    前記ストレージシステムは、アレイベースレプリケーションを実行し、予め決められたスケジュールに従って、前記第1の記憶領域のデータのバックアップデータを前記第2の記憶領域に格納するアレイベースレプリケーションエンジンを有することを特徴とする計算機システム。
  7. 請求項1乃至4の何れか1項において、
    前記第1の計算機は第1のNAS装置であり、前記第2の計算機は第2のNAS装置であり、
    前記第1のNAS装置は、ファイルシステムプログラムによって前記第1の記憶領域を使用するファイルシステムを管理するプロセッサと、レプリケーションを実行し、前記ファイルシステムプログラムによる前記第1の記憶領域に対する書き込みデータをキャプチャし、前記第2のNAS装置に転送する第1のレプリケーションエンジンと、を有し、
    前記第2のNAS装置は、前記第3の記憶領域のデータの複製を2次レプリカデータとして前記第4の記憶領域に格納する第2のレプリケーションエンジンを有し、
    前記ストレージシステムは、アレイベースレプリケーションを実行し、予め決められたスケジュールに従って、前記第1の記憶領域のデータのバックアップデータを前記第2の記憶領域に格納するアレイベースレプリケーションエンジンを有することを特徴とする計算機システム。
  8. 第1の計算機と、
    第1の記憶領域と、そのバックアップデータを格納する第2の記憶領域と、を含み、前記第1の計算機に記憶領域を提供するストレージシステムと、
    前記第1の計算機に接続され、前記第1の記憶領域のレプリカデータを格納する第3の記憶領域と、前記第3の記憶領域のレプリカデータを格納する第4の記憶領域と、を含み、待機サーバとして機能する第2の計算機と、
    前記第1及び第2の計算機と前記ストレージシステムとに接続され、それらを管理する管理計算機と、を有する計算機システムを制御するシステム制御方法であって、
    前記第1の計算機は、前記第1の記憶領域への書き込みデータをキャプチャし、当該キャプチャした書き込みデータを前記第2の計算機に転送し、
    前記第2の計算機は、前記第1の計算機から転送された前記書き込みデータを前記第1の記憶領域のレプリカデータとして前記第3の記憶領域に格納すると共に、当該第3の記憶領域のレプリカデータを前記第4の記憶領域に格納し、
    前記システム制御方法は、
    前記管理計算機が、前記第2記憶領域のデータで前記第1の記録領域に対してリストア処理を実行することと
    前記管理計算機が、前記リストア処理実行の際に、前記第3記憶領域のデータが前記リストア処理後の前記第1の記憶領域のデータと同じになるように、前記第1の記憶領域に対するリストア処理に用いたデータと同じバックアップ時刻を有する前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することと、
    を含むことを特徴とするシステム制御方法。
  9. 請求項8において
    記管理計算機が、前記第1の記憶領域のバックアップが実行され、当該バックアップが前記第2の記憶領域に格納された時刻を示すバックアップ時刻と、前記書き込みデータの複製が前記第4の記憶領域に追加された時刻を示す2次レプリカ更新時刻と、を管理し、
    前記管理計算機が、前記リストア処理に用いた前記第2の記憶領域の前記バックアップ時刻と、前記2次レプリカ時刻とを参照し、前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することを特徴とするシステム制御方法。
  10. 請求項9において、
    前記管理計算機が、前記2次レプリカ更新時刻に前記第4の記憶領域に追加された前記書き込みデータが、どのバックアップ時刻に前記第2の記憶領域にバックアップされたかが分かるように、前記バックアップ時刻と前記2次レプリカ更新時刻を対応させて管理し、前記リストア処理に使用した前記第2の記憶領域のデータの前記バックアップ時刻に対応する前記第4の記憶領域のデータを前記第3の記憶領域のデータに適用することを特徴とするシステム制御方法。
  11. 請求項8乃至10の何れか1項において、さらに、
    前記管理計算機が、前記第3の記憶領域のレプリカデータを作成し、前記第4の記憶領域に格納する方法を設定するための設定画面を表示装置に表示することを特徴とするシステム制御方法。
  12. 請求項8乃至11の何れか1項において、さらに、
    前記管理計算機が、前記第1の記憶領域の業務引継ぎ処理の指示に応答し、前記第3の記憶領域のデータをマウントすることを特徴とするシステム制御方法。
JP2010138464A 2010-06-17 2010-06-17 計算機システム、及びシステム制御方法 Expired - Fee Related JP5424992B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010138464A JP5424992B2 (ja) 2010-06-17 2010-06-17 計算機システム、及びシステム制御方法
PCT/JP2010/063405 WO2011158386A1 (ja) 2010-06-17 2010-08-06 計算機システム、及びシステム制御方法
US12/988,546 US8683154B2 (en) 2010-06-17 2010-08-06 Computer system and system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010138464A JP5424992B2 (ja) 2010-06-17 2010-06-17 計算機システム、及びシステム制御方法

Publications (3)

Publication Number Publication Date
JP2012003544A JP2012003544A (ja) 2012-01-05
JP2012003544A5 JP2012003544A5 (ja) 2012-05-10
JP5424992B2 true JP5424992B2 (ja) 2014-02-26

Family

ID=45347806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010138464A Expired - Fee Related JP5424992B2 (ja) 2010-06-17 2010-06-17 計算機システム、及びシステム制御方法

Country Status (2)

Country Link
JP (1) JP5424992B2 (ja)
WO (1) WO2011158386A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838810B2 (ja) * 2011-12-28 2016-01-06 富士通株式会社 バックアップ制御プログラム、バックアップ制御方法およびバックアップ制御装置
US10592268B2 (en) * 2015-04-06 2020-03-17 Hitachi, Ltd. Management computer and resource management method configured to combine server resources and storage resources and allocate the combined resources to virtual machines

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6948089B2 (en) * 2002-01-10 2005-09-20 Hitachi, Ltd. Apparatus and method for multiple generation remote backup and fast restore
JP2005062928A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 複数のサイトにリモートコピーを行うシステム
JP4402992B2 (ja) * 2004-03-18 2010-01-20 株式会社日立製作所 バックアップシステム及び方法並びにプログラム
JP4843976B2 (ja) * 2005-03-25 2011-12-21 日本電気株式会社 レプリケーションシステムと方法
JP2007047892A (ja) * 2005-08-08 2007-02-22 Hitachi Ltd 計算機システム及び計算機システムの状態管理方法
JP2007066192A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd ストレージシステム及びその制御方法並びにコンピュータプログラム
JP2007310448A (ja) * 2006-05-16 2007-11-29 Hitachi Ltd 計算機システム、管理計算機、および、ストレージシステム管理方法
US7627729B2 (en) * 2006-09-07 2009-12-01 International Business Machines Corporation Apparatus, system, and method for an improved synchronous mirror swap
JP4902403B2 (ja) * 2006-10-30 2012-03-21 株式会社日立製作所 情報システム及びデータ転送方法
JP2009070143A (ja) * 2007-09-13 2009-04-02 Hitachi Ltd Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム
JP4249240B2 (ja) * 2007-11-19 2009-04-02 株式会社日立製作所 記憶システム
JP5026309B2 (ja) * 2008-03-06 2012-09-12 株式会社日立製作所 バックアップデータ管理システム及びバックアップデータ管理方法
JP5224240B2 (ja) * 2008-03-25 2013-07-03 株式会社日立製作所 計算機システム及び管理計算機
JP2009245004A (ja) * 2008-03-28 2009-10-22 Nippon Telegraph & Telephone West Corp 双方向データ配置システム、アクセス解析サーバ、データ移動サーバ、双方向データ配置方法、及び、プログラム
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法

Also Published As

Publication number Publication date
WO2011158386A1 (ja) 2011-12-22
JP2012003544A (ja) 2012-01-05

Similar Documents

Publication Publication Date Title
US12003581B2 (en) Enhanced network attached storage (NAS) interoperating with and overflowing to cloud storage resources
US11663099B2 (en) Snapshot-based disaster recovery orchestration of virtual machine failover and failback operations
US11323531B2 (en) Methods for backing up virtual-machines
US11016696B2 (en) Redundant distributed data storage system
US20180253361A1 (en) Hypervisor-independent reference copies of virtual machine payload data based on block-level pseudo-mount
JP5227887B2 (ja) バックアップ管理方法
JP5227125B2 (ja) ストレージシステム
JP5172574B2 (ja) アプリケーションデータのバックアップ構成構築に用いる管理計算機
US7979649B1 (en) Method and apparatus for implementing a storage lifecycle policy of a snapshot image
US20100306174A1 (en) Method and apparatus for block based volume backup
US20090089340A1 (en) Backup catalog recovery from replicated data
US7584339B1 (en) Remote backup and restore operations for ISB protocol systems
JP2004252686A (ja) 情報処理システム
JP2005031716A (ja) データバックアップの方法及び装置
US8386492B2 (en) Information processing system and data backup method in information processing system
JP6133396B2 (ja) 計算機システム、サーバ、及び、データ管理方法
US7487310B1 (en) Rotation policy for SAN copy sessions of ISB protocol systems
US20180314457A1 (en) Execution framework for a complex data protection operation
US8683154B2 (en) Computer system and system control method
CN106528338A (zh) 一种远程数据复制方法、存储设备及存储系统
US8769334B1 (en) Techniques for providing instant disaster recovery
US7587565B1 (en) Generating automated and scheduled SAN copy sessions for ISB protocol systems
US20140172802A1 (en) Information processor and backup method
JP5424992B2 (ja) 計算機システム、及びシステム制御方法
Bartkowski et al. High availability and disaster recovery options for DB2 for Linux, UNIX, and Windows

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131126

LAPS Cancellation because of no payment of annual fees