JP5508798B2 - クラスタを考慮してレプリケーションを管理する管理方法及びシステム - Google Patents

クラスタを考慮してレプリケーションを管理する管理方法及びシステム Download PDF

Info

Publication number
JP5508798B2
JP5508798B2 JP2009223617A JP2009223617A JP5508798B2 JP 5508798 B2 JP5508798 B2 JP 5508798B2 JP 2009223617 A JP2009223617 A JP 2009223617A JP 2009223617 A JP2009223617 A JP 2009223617A JP 5508798 B2 JP5508798 B2 JP 5508798B2
Authority
JP
Japan
Prior art keywords
information
host computer
replication
management
backup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009223617A
Other languages
English (en)
Other versions
JP2011076128A (ja
Inventor
晋広 牧
正靖 淺野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009223617A priority Critical patent/JP5508798B2/ja
Priority to US12/687,770 priority patent/US8086895B2/en
Publication of JP2011076128A publication Critical patent/JP2011076128A/ja
Priority to US13/237,229 priority patent/US8341455B2/en
Application granted granted Critical
Publication of JP5508798B2 publication Critical patent/JP5508798B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2087Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring with a common controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage

Description

本発明は、クラスタ環境におけるストレージシステムを用いたバックアップ、リカバリに関する。
近年、グローバル化や、オンライン業務の導入等により、企業情報システムは24時間365日、稼働し続けることが望まれている。上記を実現する技術として、クラスタリング技術がある。一般的に、クラスタリング技術とは、サーバ、ストレージシステムなどの情報システムの資源を冗長化し、可用性を高める技術で、情報システムの一部分に障害が起こっても、障害が発生していない資源を用いて、当該情報システム上のタスクを引き継ぐことができる。クラスタリング技術はデータを共有するローカルクラスタと、データを複製し、異なる装置間で冗長にデータを保持するリモートクラスタがある。
クラスタリング技術は冗長化のため、各情報システムの同一資源を複数持つ。この資源の増加は、結果として、利用者に複雑な設定を強いることになり、問題となっている。この問題については、たとえば、特許文献1の従来技術で、サーバ、ストレージシステムとも冗長構成をとるリモートクラスタ環境において、クラスタ対象のサーバを指定することで、複数のストレージシステム間でデータの内容を一致させるレプリケーション(後述する)を設定できる。
その一方、企業情報システムでは、誤操作や、機器障害などによるデータ崩壊、損失に備えるためバックアップが実施される。バックアップとは企業情報システムで使用されるデータを複製することを指す。データの複製は計算機にとって負荷が大きいため、この負荷を削減するためにレプリケーション技術が使用される。レプリケーション技術の従来技術としてたとえば、特許文献2がある。特許文献2では計算機がデータを複製するのではなく、ストレージシステムが当該ストレージシステムにおける記憶領域上のデータを別の記憶領域に複製する。
米国特許公開公報第2004/0181707号報 米国特許公開公報第2009/0055613号報
ここで、ローカル、リモートいずれかのクラスタリング技術を適用した企業情報システムで、利用者に複雑な設定を強いることになく、バックアップを実現することを考える。特許文献1にはバックアップに関する記載がないため、上記を満たさない。特許文献2には、レプリケーション技術の設定容易化に関する記載がないため、特許文献1との組み合わせをしても、上記は達成されない。さらに、特許文献1はリモートクラスタリングに関する記載のみで、ストレージシステムを冗長化しないローカルクラスタの記載もない。
以上のように、従来技術では上記の課題を解決できない。
本発明は、ローカル、リモートのいずれかのクラスタリング技術を適用した企業情報システムで、利用者に複雑な設定を強いることになく、バックアップできるシステムを提供することを目的とする。
ホスト計算機とストレージシステムを管理する管理システムはクラスタの情報を保持し、仮想ホスト識別子を指定したバックアップ指示に基いて活性状態のホスト計算機と非活性状態のホスト計算機を特定し、ディザスタリカバリ用途のレプリケーション実行の必要性の有無を判断し、必要な場合はバックアップ用途のレプリケーションを組み合わせて実行する。
ローカル、リモートのいずれかのクラスタリング技術を適用した計算機システムで、利用者に複雑な設定を強いることになく、バックアップを実現できる。
図1は、計算機システムの構成に関するブロック図である。 図2は、ストレージサブシステム1000の詳細図である。 図3は、管理計算機10の詳細図である。 図4は、ホスト計算機の詳細図である。 図5は、ローカルクラスタシステムでのバックアップ構成を示す。 図6は、リモートクラスタシステムでのバックアップ構成を示す。 図7は、管理計算機10に記憶される管理側ストレージ情報114Cの構成例を示す。 図8は、管理計算機10に記憶される管理側レプリケーション情報113Cの構成例を示す。 図9は、管理計算機10に記憶される管理側バックアップ情報18の構成例を示す。 図10は、管理計算機10に記憶される管理側カタログ情報18の構成例を示す。 図11は、管理計算機10に記憶される管理側カタログ情報15の構成例を示す。 図12は、管理計算機10に記憶される管理側APボリューム対応情報13の構成例を示す。 図13は、管理計算機10に記憶される管理側クラスタ構成情報19の構成例を示す。 図14は、本発明の実施例1のストレージサブシステム1000に記憶されるストレージ側レプリケーションペア情報1210の構成例である。 図15は、本発明の実施例1のストレージサブシステム1000に記憶されるストレージ側ボリューム管理情報1250の構成例を示す。 図16は、管理計算機10によるストレージサブシステム1000に関する管理側ストレージ情報114C作成のためのフローである。 図17は、管理計算機10によるクラスタシステムの管理情報で管理側クラスタ構成情報19の作成のためのフローである。 図18は、管理計算機による、クラスタシステムの構成情報を取得するための画面例である。 図19は、管理計算機10によるホスト計算機200上で動作するAPとそのAPが使用するボリュームを対応づけて管理する管理側APボリューム構成情報19を作成するためのフローである。 図20は、バックアップ対象のアプリケーションの情報を取得するための画面例である。 図21は、管理計算機10によるバックアップで必要な管理側バックアップ情報19、管理側カタログ情報14、管理側拠点カタログ情報14の作成のためのフローである。 図22は、バックアップ対象のアプリケーションが使用するデータの情報を取得するための画面例である。 図23は、バックアップ対象のアプリケーションが使用する詳細データの情報を取得するための画面例である。 図24は、バックアップスケジュールの情報を取得するための画面例である。 図25は、管理計算機10によるレプリケーション構成の構築処理である。 図26は、管理計算機による管理計算機10によるバックアップ処理のためのフローである。 図27は、管理計算機10によるリストア処理のためのフローである。 図28は、リストア処理の入力画面例を示す。 図29は、リストア処理の詳細データを決定する入力画面例である。 図30は、非活性状態のホスト計算機200による活性状態のホスト計算機200が障害になった後にバックアップ処理を引き継ぐためのフローを示す。 図31は、障害ホスト200a障害後のリストア処理である。 図32は、障害ホスト200aが障害前にバックアップしたデータをリストア対象のデータとして使用するか否かを判定するためのフローである。 図33は、障害ホスト200aが障害前に取得したデータをレプリケーション制御でリストア対象の論理ボリュームに転送する処理に関するフローである。 図34は、における、障害発生後に障害ホスト200aの作成したデータをレプリケーションの処理に関する説明図である。 図35は、正副ストレージサブシステム1000によって実行されるレプリケーションの開始処理のフローである。 図36は、ストレージサブシステム1000によって実行される定常コピー処理の一例を示すフローチャートである。 図37は、リモートレプリケーション実施時にストレージサブシステム1000によって生成されるデータ転送要求である。
以下、本発明を、図面を参照して説明する。
以後の説明では「xxxテーブル」、「xxxリスト」、「xxxDB」又は「xxxキュー」等の表現にて本発明の情報を説明するが、これら情報はテーブル、リスト、DB又はキュー等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「xxxテーブル」、「xxxリスト」、「xxxDB」及び「xxxキュー」等について「xxx情報」と呼ぶことがある。
また各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」及び「番号」という表現を用いるが、これらの表現は装置や部品などの物理的な存在に限らず、論理的な存在についても区別をつけるために割り当てられているものであるため、お互いに置換が可能である。
以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることによって定められた処理をメモリ及びインターフェースを用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理はストレージサブシステム、管理サーバ等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部または全ては専用ハードウェアによって実現されてもよい。これはストレージシステムに於いても同様であり、プログラムを主語として開示された処理を記憶制御装置又はストレージシステムが行う処理としてもよい。
また、各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
(1−1)システム構成
図1は、本発明の実施例1の計算機システムの構成に関するブロック図の一例である。
計算機システムは、主拠点、遠隔拠点に分かれてストレージサブシステム1000が配置されており、それぞれの拠点にあるストレージサブシステム1000は1か2以上のホスト計算機200と接続される構成である。ホスト計算機200は、クライアント計算機250と接続される。管理計算機10はそれぞれの拠点のホスト計算機200と制御線55を介して接続される。なお、図1では、管理計算機、ホスト計算機およびストレージサブシステムの各要素を拠点別に分け、それぞれ記号a、bを付与したが、明細書中特に記号を付記しない場合は共通の内容の説明であるものとする。また、ホスト計算機200及びストレージサブシステム1000は、何台備わっていてもよい。
ホスト計算機200、ストレージサブシステム1000はデータ通信線500を介して相互に接続される。
なお、データ通信線500は一つ以上のネットワークから構成されてもよい。さらに、データ通信線500は、データ通信線500と制御線55のいずれかまたは両方と共用の通信線やネットワークであってもよい。
図3に管理計算機10の詳細を示す。管理計算機10は、メモリ40、プロセッサ20及び管理ポート30を備える計算機である。メモリ40、プロセッサ20及び管理ポート30は、内部ネットワーク(図示省略)によって相互に接続される。なお、管理計算機10は管理ポート以外のポートを用いてホスト計算機200、ストレージサブシステム100と接続してもよい。なお、メモリ40は半導体メモリ又は/及びディスク装置、又はこれらを併用したものであってよい。メモリについては以後で説明するホスト計算機、ストレージサブシステムでも半導体メモリ又はディスク装置、又はこれら併用したものであってもよい。
プロセッサ20は、メモリ40に記憶されるプログラムを実行することによって、各種処理を行う。例えば、プロセッサ20は、ホスト計算機200に後述のバックアップ制御指示を出すことによって、ホスト計算機200を制御する。
メモリ40には、プロセッサ20によって実行されるプログラム及びプロセッサ20によって必要とされる情報等が記憶される。具体的には、メモリ40には、管理プログラム12、管理側APボリューム対応情報13、管理側カタログ情報14、管理側レプリケーション情報113C、管理側ストレージ情報114C、管理側バックアップ情報18、クラスタ構成情報19、及び管理側拠点カタログ情報15が記憶される。更に、メモリ40には、AP16プログラム(以下、AP)16及びOS(Operating System)17が記憶される。AP16は、各種処理を実現するアプリケーションプログラムである。例えば、AP16は、データベース機能、メールサーバ機能、又はWEBサーバ機能等を提供する。OS17は、管理計算機100の処理の全体を制御するプログラムである。
管理プログラム12は、制御線55を介して複数拠点(図1の場合は主拠点と遠隔拠点)にあるストレージサブシステム1000や、ホスト計算機200を集中管理するプログラムである。
管理側APボリューム対応情報13は、2つの拠点(主拠点、遠隔拠点)のそれぞれに存在するホスト計算機と当該ホスト計算機上で動作するAP211を管理するための情報である。なお、APボリューム対応情報13については、図12で詳細を説明する。
管理側カタログ情報14は、バックアップ済みデータに関する情報を保持ための情報である。なお、管理側カタログ情報14については、図10で詳細を説明する。
管理側拠点カタログ情報15は、バックアップデータとバックアップ時刻に関する情報である。なお、管理側拠点カタログ情報15については、図11で詳細を説明する。
管理側バックアップ情報18は、バックアップするために必要な情報を保持ための情報である。なお、管理側バックアップ情報18については、図9で詳細を説明する。
管理側クラスタ構成情報19は、クラスタシステムの構成を管理するための情報である。なお、管理側クラスタ構成情報19については、図13で詳細を説明する。
レプリケーション情報113Cは、レプリケーションの構成及び状態を管理するための情報である。なお、レプリケーション情報113Cについては、図8で詳細を説明する。
管理側ストレージ情報114Cは、当該管理計算機10によって管理されるストレージサブシステム1000に関する管理情報である。管理側ストレージ情報114Cは1台のストレージサブシステム1000につき1個のテーブルが作成される。管理側ストレージ情報114Cについては、図7で詳細を説明する。
管理ポート30は、制御線55を介してホスト計算機200に接続されるインターフェースである。制御線55は一つ以上のネットワークから構成されてもよい。さらに、制御線55は、データ通信線550とデータ通信線500のいずれかまたは両方と共用の通信線やネットワークであってもよい。
また、管理計算機10は入出力装置を有する。入出力装置の例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外の装置であってもよい。また、入出力装置の代替としてシリアルインターフェースやイーサーネットインターフェースを入出力装置とし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。
以後、計算機システムを管理し、本発明の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機が表示用情報を表示する場合は管理計算機が管理システムである、また、管理計算機と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
図4にホスト計算機200の詳細を示す。ホスト計算機200は、メモリ210、プロセッサ220、管理ポート240及びデータポート230を備える計算機である。
メモリ210、プロセッサ220及びデータポート230は、内部ネットワーク(図示省略)によって相互に接続される。
プロセッサ220は、メモリ210に記憶されるプログラムを実行することによって、各種処理を実現する。例えば、プロセッサ220は、ストレージサブシステム1000にIO要求を送信することによって、当該ストレージサブシステム1000によって提供される一つ以上の論理ボリューム(以後、単にボリュームと呼ぶことがある)Volにアクセスする。
メモリ210には、プロセッサ220によって実行されるプログラム及びプロセッサ220によって必要とされる情報等が記憶される。具体的には、メモリ210には、AP211、OS212、バックアッププログラム213、クラスタプログラム214、管理側拠点カタログ情報15L、管理側バックアップ情報18L、管理側レプリケーション情報113L、スケジューラ217が記憶される。
AP211は、各種処理を実現するプログラムである。なお、APとはApplication Programの略である。AP211は、例えば、データベース機能又はWEBサーバ機能を提供する。OS212は、ホスト計算機200の処理の全体を制御するプログラムである。バックアッププログラム213は管理計算機からの指示を受信し、当該指示に従った処理を実施するプログラムである。クラスタプログラム214は後述のクラスタ処理を実施するプログラムである。スケジューラ217は所定の時刻に所定のプログラムを実行するためのプログラムである。本実施例ではスケジューラ217は独立のプログラムとして記載したが、OS212の1機能であっても構わない。
管理側拠点カタログ情報15Lは、バックアップデータとバックアップ時刻に関する情報で、管理計算機10が保持する同名の情報の複製である。管理側拠点カタログ情報15Lの詳細の説明については管理計算機10の管理側拠点カタログ情報15と同様のため省略する。本明細書では管理計算機10の同名の情報区別をするため末尾にLをつけて記載する。
管理側バックアップ情報18Lはバックアップするために必要な情報を保持ための情報で、管理計算機10が保持する同名の情報の複製である。管理側バックアップ情報18Lの詳細の説明については管理計算機10の管理側バックアップ情報18と同様のため省略する。本明細書では管理計算機10の同名の情報区別をするため末尾にLをつけて記載する。
管理側レプリケーション情報113Lは、レプリケーションの構成及び状態を管理するための情報で、管理計算機10が保持する同名の情報の複製である。なお、レプリケーション情報113Lの詳細の説明については、管理計算機10の管理側レプリケーション情報114Cと同様のため省略する。本明細書では管理計算機10の同名の情報区別をするため末尾にLをつけて記載する。
データポート230は、データ通信線500を介して、ストレージサブシステム1000に接続されるインターフェースである。具体的には、データポート230は、ストレージサブシステム1000にIO要求を送信する。
管理ポート240は、制御線55を介して、管理計算機10に接続されるインターフェースである。具体的には、データポート230は、管理計算機10からの制御指示を送信する。
なおホスト計算機200は入出力装置を有してもよい。入出力装置の例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外の装置であってもよい。また、入出力装置の代替としてシリアルインターフェースやイーサーネットインターフェースを入出力装置とし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。また、ホスト計算機200、管理計算機10のそれぞれの入出力装置は同じである必要はない。
次に図2を用いてストレージサブシステム1000について説明する。
ストレージサブシステム1000aと、ストレージサブシステム1000bとはデータ通信線550を介して接続される。また、ストレージサブシステム1000は、記憶制御装置300及びディスク装置1500を備える。
なお、データ通信線550は一つ以上のネットワークから構成されてもよい。さらに、データ通信線550は、データ通信線500と通信線55のいずれかまたは両方と共用の通信線やネットワークであってもよい。
ディスク装置1500は、ディスク型の記憶メディアのドライブであり、ホスト計算機200から書き込み要求されたデータを記憶する。ディスク装置1500に代えて、他種の記憶デバイス(例えばフラッシュメモリドライブ)が採用されても良い。記憶制御装置300は、ストレージサブシステム1000の全体を制御する。具体的には、記憶制御装置300は、ディスク装置1500へのデータの書き込み及びディスク装置1500からのデータの読み出しを制御する。また、記憶制御装置300は、ディスク装置1500の記憶領域を、一つ以上の論理ボリュームVolとしてホスト計算機200に提供する。なお、ディスク装置1500は複数存在してもよい。
記憶制御装置300は、メモリ1200、キャッシュメモリ1100(メモリ1200と共用であってもよい)、ストレージポート1320、管理ポート1330、プロセッサ1310を備える。なお、記憶制御装置300の実装にあたって、一つ以上の回路基盤上に、前記ハードウェア構成物(例えば、ストレージポート1320、管理ポート1330、やプロセッサ1310)のそれぞれが一つ以上存在していればよい。例えば、信頼性を向上させるためや高性能化などの理由から記憶制御装置300を複数個から構成し、個々の記憶制御装置がメモリ1200やストレージポート1320やプロセッサ1310を有してもよく、さらに複数のコントロールユニットにキャッシュメモリ1100が接続されたハードウェア構成であってもかまわない。なお、図示は省略したが、記憶制御装置は一つ以上のバックエンドポートを有し、バックエンドポートがディスク装置1500と接続されている。しかし、バックエンドポート以外のハードウェアによって記憶制御装置1000がディスク装置と接続されてもよい。
キャッシュメモリ1100は、ディスク装置1500へ書き込まれるデータ及びディスク装置1500から読み出されるデータを、一時的に記憶する。
ストレージポート1320は、データ通信線500を介してホスト計算機200と接続され、また、データ通信線550を介して他のストレージサブシステム1000に接続されるインターフェースである。具体的には、ストレージポート1320は、ホスト計算機200からのIO要求を受信する。また、ストレージポート1320は、ディスク装置1500から読み出されたデータをホスト計算機200に返送する。更に、ストレージポート1320は、ストレージサブシステム1000同士で交換されるデータを送受信する。
管理ポート1330は、制御線55を介して、管理計算機10に接続されるインターフェースである。具体的には、管理ポート1330は、管理計算機10からの制御指示を受信する。ここで、制御指示はストレージ制御指示、バックアップ制御指示の2種類がある。ストレージ制御指示にはストレージ情報報告、レプリケーション構築指示、レプリケーション一時停止指示、レプリケーション再開指示、レプリケーションリバース指示、レプリケーション状態報告指示がある。バックアップ制御指示はホスト計算機200の上のバックアッププログラムへの指示である。バックアップ制御指示にはボリューム情報報告指示、AP構成情報報告、バックアップ状態報告、スケジューラ登録指示、リフレッシュ指示、タスクスケジューラ登録指示、リストア指示、複合リストア指示がある。
プロセッサ1310は、メモリ1200、に記憶されるプログラムを実行することによって、各種処理を行う。具体的には、プロセッサ1310は、ストレージポート1320によって受信されたIO要求を処理する。また、プロセッサ1310は、ディスク装置1500へのデータの書き込み及びディスク装置1500からのデータの読み出しを制御する。また、プロセッサ1310は、以下に示すプログラムの処理によって、一以上のディスク装置1500の記憶領域を基に論理ボリュームVolを設定する。
メモリ1200には、プロセッサ1310によって実行されるプログラム及びプロセッサ1310によって必要とされる情報等が記憶される。具体的には、メモリ1200には、ストレージ側レプリケーションペア情報1210、ストレージ側レプリケーション処理プログラム1230、ボリューム情報1250及びIO処理プログラム1290が記憶される。
IO処理プログラム1290は、ホスト計算機からストレージポートを介して受信した読み込み要求又は書き込み要求を処理するプログラムである。その処理の概要は以下の通りである:
* 読み込み要求の場合:当該要求は論理ボリューム及び論理ボリューム内のアドレス、及びリード長を指定し、指定内容に応じてIO処理プログラム1290はキャッシュメモリ1100またはディスク装置1500からデータを読み出し、ホスト計算機に送信する。
* 書き込み要求の場合:当該要求は論理ボリューム及び論理ボリューム内のアドレス、及び書き込みデータ長を指定し、また書き込みデータを伴う。IO処理プログラムは、書き込みデータをキャッシュメモリ1100に一次格納後、指定内容に対応したディスク装置へ書き込みデータを書き込む。
以上、ストレージサブシステム1000のハードウェア構成を示したが、ストレージサブシステム1000aとストレージサブシステム1000bが必ずしも同一のハードウェア構成でなくてもよい。
次にメモリ1200に格納されたプログラム及び情報について説明する。
ストレージ側レプリケーションペア情報1210は、レプリケーションペアを管理するための情報である。レプリケーションペアは、レプリケーションの対象となるストレージサブシステム1000上の二つの論理ボリュームVolの対である。また、ストレージ側レプリケーションペア情報1210については、図11で詳細を説明する。
ストレージ側レプリケーション処理プログラム1230は、レプリケーション処理(初期レプリケーション及び定常レプリケーション)を行う。レプリケーション処理については、図35、36で詳細を説明する。
ストレージ側ボリューム情報1250は、当該ストレージサブシステム1000によって提供される論理ボリュームVolを管理するための情報である。なお、ストレージ側ボリューム情報1250については、図15で詳細を説明する。
以上、説明した構成により、ホスト計算機200a、200b、200c、200dが送信した書き込みデータは主拠点のストレージサブシステム1000a(正ストレージサブシステム)の論理ボリュームVolへ格納される。また計算機システムがリモートクラスタの場合、論理ボリュームVolに格納された書き込みデータは正ストレージサブシステムが同期レプリケーション又は非同期レプリケーションによって遠隔拠点のストレージサブシステム1000b(副ストレージサブシステム)へ転送され、転送された書き込みデータは副ストレージサブシステムの論理ボリュームVolへ格納される。これにより正ストレージサブシステムの論理ボリュームVolのデータであって、データ二重化の対象となるデータを冗長化することができ、その結果として正ストレージサブシステムの論理ボリュームVolのデータが消失した場合も副ストレージサブシステムの論理ボリュームVolに格納した複製データを用いてホスト計算機200bもしくは200dにて所定の処理を再開することができる。
(1−2)実施例1の概要
次に実施例1の概要を説明する。なお、本概要に説明の無い事項について権利を放棄するものではない。
はじめに、本発明によるローカルクラスタを適用した計算機システム(以降ローカルクラスタシステムとよぶ)におけるバックアップについて説明する。ローカルクラスタシステムでのバックアップ構成を図5に示す。図5−1は、通常状態のローカルクラスタシステムの構成である。ローカルクラスタは同一拠点にある複数のホスト計算機が同一ストレージサブシステムの論理ボリュームVolを共有する。なお、論理ボリュームの共有とは、前述の複数のホスト計算機が、同時とは限らないが論理ボリュームを指定したアクセス要求を送信するということを少なくとも意味する。なお、アクセス要求には読み込み要求及び書き込み要求が含まれる。
ローカルクラスタシステムでは、ホスト計算機200aと200cの一方が活性状態で、もう一方が非活性状態となる。活性状態のホスト計算機は当該ホスト計算機上で動作する少なくとも1以上のアプリケーションプログラムが稼働し、クライアント計算機にアプリケーションプログラムのサービスを提供する。以下、クラスタシステムで制御対象となるアプリケーションプログラムを、クラスタ対象アプリケーションとよび、明細書中は単にAPと記載する。一方、非活性状態のホスト計算機ではクラスタ対象APは稼働しない、又はクライアント計算機に対象APによるサービスを提供しない。上記2つのホスト計算機それぞれはハードウェアや論理的な障害に備え、相手のホスト計算機の状態を監視する。また、バックアップは活性状態のホスト計算機が自計算機で生成した特定時期のデータをストレージサブシステムのレプリケーションで複製し、保存することで実現する。
ここで、活性状態のホスト計算機がバックアップ操作を指示を実施する理由は、APを静止化(バックアップ対象の論理ボリュームのデータをAPが回復可能な状態にするために短時間APの動きを停止する手続き)と、データレプリケーションのためのローカルレプリケーション制御を短時間に完了させる必要があるためである。短時間に上記バックアップのための手続きを完了できないと、いわゆるバックアップウィンドウ(バックアップのためにAPが停止する時間)が増大し、APの性能を著しく劣化させることになり、問題となる。
ここで、活性状態のホスト計算機200aが何らかの原因で故障した場合を考える。この場合、図5−2に示すように、非活性状態のホスト計算機200cのクラスタが活性状態のホスト計算機200aで障害が発生したことを検出する。次に、非活性のホスト計算機200cはAP引き継ぎのため、APを起動し、その状態を非活性状態から活性状態に変更し、クライアント計算機からのアクセスを当該ホスト計算機宛てに切り替わるようにネットワーク設定を変更する。このネットワークの設定の変更には、仮想的なIPアドレス又はホスト名IPといった仮想ホスト識別子を用意し、活性状態であるホスト計算機が変わった場合に、仮想ホスト識別子に対応するホスト計算機を、元は活性状態であったホスト計算機から新たに活性状態となったホスト計算機に切り替えることを含む。
なお、この対応付けの方法は仮想IPアドレスの場合は、ホスト計算機のEthernetポートのMACアドレスとの対応をARPによって切り替える方法がある。また、仮想ホスト名を用いる対応付けの方法の場合は、DNSを操作して、ホスト名をホスト計算期間で切り替える方式がある。以後の説明では仮想IPアドレス、仮想ホスト名を障害前後切り替える方式を前提として記載する。なお、前提方式では、クライアント計算機からは、ホスト計算機200ではなく仮想的なアドレスを持つ計算機を意識することになるため、仮想的なアドレスを持つホスト計算機を仮想ホスト計算機とよぶことにする。ただし、本発明は前提方式に限定するものでははい。それ以外の方式(例えば、DNS操作によるアドレス切り替え方式)であっても、本発明で扱う仮想ホスト計算機のアドレスを、障害前後で切り替えるアドレスとして取り扱うことで対処可能である。
ここで、上記のようなAPのホスト計算機間の引き継ぎをフェールオーバ処理とよぶ。フェールオーバ処理は障害を契機とする場合と、テスト目的とした手動を契機とする場合がある。また、フェールオーバ処理後のバックアップは、フェールオーバ後に活性になるホスト計算機200cがフェールオーバ後に自計算機がアクセスする論理ボリュームの特定時点のデータをローカルレプリケーションで複製し、保存することで実現する。また、活性状態のホスト計算機で障害発生後もバックアップされたデータはストレージサブシステム上に保存されているため、バックアップ時のデータ保存論理ボリュームVolやその履歴をまとめた管理側カタログ情報も、フェールオーバを契機に活性、非活性のホスト計算期間で引き継がれる。これを実現するため、バックアップカタログ管理側カタログ情報もAPのデータ同様にストレージサブシステム上の論理ボリュームVolに保存し、当該ホスト計算期間で共有する。
次に、リモートクラスタを適用した計算機システム(以降リモートクラスタシステムとよぶ)におけるバックアップについて説明する。リモートクラスタシステムでのバックアップ構成を図6に示す。
図6−1は、通常状態のリモートクラスタシステムの構成である。リモートクラスタシステムは主拠点、遠隔拠点のそれぞれに存在するホスト計算機が異なるストレージサブシステムの論理ボリュームVol上のデータをアクセスするクラスタ構成である。主拠点、遠隔拠点のホスト計算機間で、APが同一の処理を実施できるようにするために、両拠点のストレージサブシステムが論理ボリュームVol間のデータを、リモートレプリケーションで内容一致させる。リモートクラスタシステムでも、ホスト計算機200aと200bの一方が活性状態で、もう一方が非活性状態となる。活性状態のホスト計算機は当該ホスト計算機上で動作する少なくとも1以上のAPが稼働し、クライアント計算機にAPのサービスを提供する。バックアップは活性状態のホスト計算機200aが自計算機で生成した特定時期のデータをストレージサブシステムのローカルレプリケーションで複製し、保存することで実現する。
図6−2に示すように、フェールオーバ時、非活性状態のホスト計算機200bではAP引き継ぎのため、APを起動し、その状態を非活性状態から活性状態に変更する。また、フェールオーバ後バックアップデータの保存される主拠点ストレージサブシステムとは異なる遠隔拠点のストレージサブシステム上のデータをホスト計算機200bはアクセスすることになるため、ホスト計算機はローカルクラスタのように同一ストレージサブシステムにあるバックアップしたデータを使用することができない。ただし、ストレージサブシステム間のリモートレプリケーションおよびローカルレプリケーションを組み合わせて制御することで、バックアップデータを使用することが可能となる。この処理については後述する。フェールオーバを契機に活性、非活性のホスト計算期間で引き継ぎを実現するためには、フェールオーバ前後でバックアップデータ保存先論理ボリュームVolが異なることを考慮した管理側カタログ情報の管理が必要となる。なお、リモートクラスタ構成でのフェールオーバの要因の一例は活性状態であったホスト計算機の障害や、活性状態であったホスト計算機がアクセスしていたストレージサブシステムの障害にも対応できる点がローカルクラスタ構成とは異なる点である。
ここで、図5、6からもわかるように、ローカルクラスタシステム、リモートクラスタシステムそれぞれで、システムおよびバックアップで必要となるレプリケーションの設定や形態が変わる。本実施例では、ローカルクラスタシステム、リモートクラスタシステムで異なるレプリケーション構成の設定を容易化する。以降、本文で、ローカルクラスタ、リモートクラスタと使い分けせず単にクラスタと記載する場合、ローカル、リモートの違いなく、クラスタ全般を指すものとする。
なお、本発明でのリモートクラスタを構成するためのレプリケーションとバックアップを作成するためのレプリケーションは、コピー元の論理ボリュームのデータをコピー先の論理ボリュームに複製する点では類似するが、異なる点がある。リモートクラスタ用のレプリケーションの場合、データコピー処理を継続的又は繰り返し行うことで、コピー先の論理ボリュームのデータをできるだけコピー元の論理ボリュームの最新時点のデータに近づける。これによってコピー元の論理ボリュームを提供するストレージサブシステムが被災した場合でも出来るだけ新しいデータ(またはコピー元の論理ボリュームと同じデータ)を持つコピー先の論理ボリュームを用いることで、コピーし損ねた更新データをできるだけ少なくして業務を再開することができる。このような用途(ディザスタリカバリ用途と呼ぶことがある)で用いる場合、典型的には一つのコピー元の論理ボリュームに対して一つのコピー先論理ボリュームが対応する。ただし、マルチターゲット方式と呼ばれる、複数のストレージ装置にレプリケーションする場合は一つのコピー元の論理ボリュームに複数の論理ボリュームが対応する場合もある。
一方のバックアップ用途でレプリケーションを用いる場合は、所定の時点のコピー元の論理ボリュームのデータをコピー先の論理ボリュームに物理的又は仮想的に生成する。バックアップデータはデータ消失または破損したデータを復旧させる場合に用いるほか、前述のレプリケーションではコピー処理によってコピー先の論理ボリュームにも障害が伝わってしまう類の障害にも対応できる。こうした障害の例としては管理者による御操作または語設定、ウィルス感染、プログラムの誤動作がある。またより好適にはバックアップデータは複数世代を作成することが多い。
なお、バックアップ用途の場合は仮想的にバックアップデータを提供する技術として論理スナップショットと呼ばれる技術もあり、本発明のバックアップデータ作成の一手段として採用してもよい。また、バックアップ用途の場合もコピー元の論理ボリュームとコピー先の論理ボリュームが同一のストレージサブシステム内に存在する必要はない。以後の説明では説明を簡単にするために、ディザスタリカバリ用途のレプリケーションをリモートレプリケーション、バックアップ用途のレプリケーションをローカルレプリケーションと呼ぶ。
なお、以後の説明ではフェールオーバ前に活性状態であるホスト計算機で実行するAPが一つの仮想ホスト識別子に対応するものとして説明する。しかし、APと仮想ホスト識別子との対応はこれに限らない。例えば、活性状態であるホスト計算機で実行するAPが複数の場合に、あるAPに対してはある仮想ホスト識別子を割り当て、別なAPには別な仮想ホスト識別子を割り当てても良い。
なお、以後の説明では「レプリケーション(Replication)」を「レプリ(REPLI)」と略すことがある。
(1−3)本実施例1の計算機システムが扱う情報
(1−3−1)管理側ストレージ情報
図7は管理計算機10に記憶される管理側ストレージ情報114Cの構成例を示した図である。なお、管理側ストレージ情報114Cはストレージサブシステム1000から取得した情報を基に作成するテーブルであり、作成処理は後述で説明する。
管理側ストレージ情報114Cは、ホスト計算機200が認識する論理ボリュームVol(ボリュームID)とストレージサブシステムが割り当てる論理ボリュームVol(HWボリュームID)の対応関係を示すテーブルであり、ストレージサブシステムID11402、論理ボリュームID11403、HW論理ボリュームID11404を含む。
ストレージサブシステムID11402は、管理計算機10によって管理されるストレージサブシステム1000の識別子である。
ホストID11405は、計算機システムにおいてホスト計算機200をユニークに識別するために使用する識別子である。クラスタの場合、クライアント計算機との接続性を考慮し、仮想的なホスト計算機をクライアント計算機に提供する場合がある。当該ホストID11405には、ホストIDが設定される。
論理ボリュームID11403は、ホスト計算機がストレージサブシステム1000の内の論理ボリュームVolを識別するための論理ボリュームVolの識別子である。図5では23:10などの情報が格納されている。
HW論理ボリュームID11404は、ストレージサブシステムID11402が示すストレージサブシステム1000の内部処理で使用するために、ストレージサブシステム1000が自ストレージサブシステム内で付与して管理している論理ボリュームVolの識別子である。図5では23:10などの情報が格納されている。
以上の説明では管理側ストレージ情報114Cはテーブル構造を有する情報として説明したが、当該情報は各拠点が有するストレージサブシステム1000と、当該ストレージサブシステム1000が有するボリュームを特定できればテーブル以外のデータ構造であってもよい。
さらに、複数の管理側ストレージ情報114Cをまとめた前述の管理側ストレージ情報も各拠点に対応するストレージサブシステムと、当該ストレージサブシステムが有するボリュームを特定できればどの様なデータ構造であってもよい。
(1−3−2)管理側レプリケーション情報
図8は管理計算機10に記憶される管理側レプリケーション情報113Cの構成例を示した図である。なお、管理側レプリケーション情報113Cは、レプリケーションを管理するための情報で、管理計算機10が主拠点の管理側ストレージ情報テーブル113A、遠隔拠点の管理側ストレージ情報テーブル113Bの両方のテーブルを作成する。この動作の詳細は後述する。
管理側レプリケーション情報113Cは、管理計算機10がレプリケーションを構築するごとに作成されるテーブルであり、この要求ごとに当該テーブルにレプリケーショングループID(レプリケーショングループ識別子)が付与される。レプリケーショングループは複数のレプリケーションペアの集合である。
管理側レプリケーション情報113Cには、レプリケーショングループID11300、レプリケーションオプション情報11301、レプリケーション状態11302及びレプリケーション構成情報11303から11307が含まれる。
レプリケーショングループID11300は、複数のレプリケーションペアをまとめてグループで管理するための識別子である。
レプリケーションオプション情報11301は、レプリケーション種別及びレプリケーションオプション情報を含む。レプリケーション種別は、ストレージサブシステム1000が提供する機能である。レプリケーション種別には、ローカルレプリケーション、同期リモートレプリケーション、非同期リモートレプリケーションのいずれかを示す。ここで、レプリケーションの種別は大きくローカルレプリケーション、リモートレプリケーションある。リモートレプリケーションとは、異なるストレージサブシステム1000間で行われるレプリケーションであり、この場合、レプリケーション元の論理ボリュームVol(正論理ボリュームとよぶ)とレプリケーション先の論理ボリュームVol(副論理ボリュームとよぶ)とが別々のストレージサブシステム1000aとストレージサブシステム1000bに存在する。
リモートレプリケーションはさらに同期リモートレプリケーションか、非同期リモートレプリケーションがある。同期リモートレプリケーションはホスト計算機によるデータの書き込みと、正論理ボリュームと副論理ボリュームの内容の一致のためのレプリケーション処理の時期が一致しているリモートレプリケーションである。また、非同期リモートレプリケーションはホスト計算機によるデータの書き込みと、正論理ボリュームと副論理ボリュームの内容の一致のためのレプリケーション処理の時期が一致していないリモートレプリケーションある。また、レプリケーションオプション情報には、レプリケーション種別毎に備わるオプションを指定することも出来る。オプション情報には、例えば、リモートレプリケーションの一時停止時にレプリケーション先の論理ボリュームVol(副論理ボリューム)への書き込みが可能か否かを表すものがある。リモートレプリケーションの一時停止とは、管理計算機10からの要求によるリモートレプリケーションの一時停止である。
レプリケーション状態情報11302は、このレプリケーション情報113によって管理されるレプリケーションの現在の状態を示す。具体的には、例えば、レプリケーション状態情報11302は、このレプリケーション情報113によって管理されるレプリケーションの状態が、未コピー、コピー中、一時停止、ペア状態又は異常状態のいずれであるかを示す。
レプリケーション構成情報は、ペアID11303、正ストレージサブシステムID11304、HWボリュームID11305、副ストレージサブシステムID11306及び副HWボリュームID11407を含む。
ペアID11303は、管理計算機10がペアに付与する識別子である。
正ストレージサブシステムID11304は、正論理ボリュームを提供するレプリケーション元(以下、正側)のストレージサブシステム(以下、正ストレージサブシステム)1000aの識別子である。正ストレージサブシステム1000aは、拠点計算機装置100a、ホスト計算機200aからのデータを格納する。
正HWボリュームID11305は、正ストレージサブシステム1000aが自ストレージサブシステム内で管理するために付与する正論理ボリュームの識別子である。
副ストレージサブシステムID11306は、レプリケーション先の副論理ボリュームを提供するレプリケーション先(以下、副側)のストレージサブシステム1000b(以下、副ストレージサブシステム)の識別子である。
副HWボリューム11307は、副ストレージサブシステム1000bが自ストレージサブシステム内で管理するために付与する副論理ボリュームの識別子である。
なお、正論理ボリュームとはコピー元の論理ボリュームを指し、副論理ボリュームとはコピー先の論理ボリュームを指す。一つのストレージシステムは複数の論理ボリュームを提供し、それぞれは個別に正論理ボリュームと副論理ボリュームになり得る。従って、正ストレージサブシステムと呼ぶ場合は、当該サブシステムには正論理ボリュームしか存在しないということではなく、説明対象となる正論理ボリュームと副論理ボリュームのレプリケーションペアを説明の中心とした際に説明を簡単にするために割り当てた名前に過ぎない。このことは副ストレージサブシステムという用語についても同様である。
またレプリケーション状態のそれぞれの状態は以下の意味を持つ。
* 未コピー状態:コピーが開始されていないことを示す状態である。
* コピー中状態:正論理ボリュームのデータを副論理ボリュームにコピーしている途中の状態である。本状態は未コピー状態から遷移する他、一時停止状態又は異常状態から遷移する場合もある。
* ペア状態:正論理ボリュームのデータを副論理ボリュームにコピー完了し、さらに正論理ボリュームに対する書き込みデータを副論理ボリュームに反映する処理が動作していることを示す状態である。本状態はコピー中状態から遷移する。なお、ディザスタリカバリ用途の場合は、レプリケーションペアが本状態になっていないとより最新のデータを用いたAPの業務回復ができない。
* 一時停止状態:ペア状態における書き込みデータの反映を停止した状態で、副論理ボリュームには正論理ボリュームの反映処理を停止した時点のデータが格納される。なお、前述の論理スナップショット等のバックアップ用途のレプリケーションでは、副論理ボリュームが仮想的にでも所定の時点の正論理ボリュームのデータを格納しているようにホスト計算機に提供できれば良いため、反映処理が停止していなくても良い。さらに、本状態中の正論理ボリューム又は副論理ボリュームへの書き込みについては、書き込み位置をビットマップ等で記録してもよい。この書き込み位置情報は、コピー中状態に遷移した時のコピーを当該情報に記録した位置に限定することでコピー量を減らすことができるためである。
* 異常状態:何らかの障害、例えばストレージサブシステムやサブシステム間のネットワークの障害、によってコピー処理が異常停止したことを示す状態である。本状態はコピー中状態又はペア状態から遷移する。なお、本状態でも一時停止状態で説明したような書き込み位置情報を用いた書き込み位置の記録を行っても良い。
以上の説明では管理側レプリケーション情報113Cはテーブル構造を有する情報として説明したが、当該情報はレプリケーショングループと一つ以上のレプリケーションペアとの対応、またはレプリケーショングループ(またはレプリケーションペアの)レプリケーション状態、またはレプリケーションペアとストレージサブシステム1000とボリュームとの対応を有するのであれば、テーブル以外のデータ構造であってもよい。
さらに、複数の管理側レプリケーション情報113Cをまとめた情報をレプリケーション情報として扱ってもよく、この場合もレプリケーション情報はレプリケーショングループと一つ以上のレプリケーションペアとの対応、またはレプリケーショングループ(またはレプリケーションペアの)レプリケーション状態、またはレプリケーションペアとストレージサブシステム1000とボリュームとの対応を有するのであれば、テーブル以外のデータ構造であってもよい。
(1−3−3)管理側バックアップ情報
図9は管理計算機10に記憶される管理側バックアップ情報18の構成例を示す図である。
管理側バックアップ情報18は利用者に指定されたバックアップの要件を保持する。管理側バックアップ情報10は、バックアップID1801、ホストID1802、AP1803、データ1の1804、データ2の1805、Backup欄(開始1807、間隔1808、保護期間1809)が含まれる
バックアップID1801は管理計算機10がバックアップ対象に付与する識別子である。
仮想ホストID1802はホスト計算機の識別子である。クラスタの場合、クライアント計算機との接続性を考慮し、仮想的なホスト計算機をクライアント計算機に提供する場合がある。その場合、当該仮想ホストID1802には、仮想的なホストIDが設定される。また、クラスタでない場合は、通常のホストIDがID1802に格納される。
AP1803はAP211の識別子である。
データ1(1804)は、AP211動作中のホスト計算機200が参照するデータの名称である。AP211のデータが複数の階層で構成される場合は、最上位階層で識別されるデータ名称が格納される。
データ2(1805)は、AP211動作中のホスト計算機200が参照する階層化されたデータの内、上位2階層目で識別されるデータ名称である。AP211のデータが複数の階層で構成されない場合は格納されない。以後の実施例ではAP211のデータが2階層であることを前提としている。しかし、AP211のデータ階層が3階層以上の場合、その階層の数に応じ当該階層のデータ名称を保存する情報が追加すれば本発明は適用可能である。
Backup欄の開始1807はバックアップの開始時刻が保存される。Backup欄の間隔1808はバックアップを取得する時間間隔である。Backup欄の保護期間1809はバックアップされたデータを保護する期間である。
(1−3−4)管理側カタログ情報
図10は、管理計算機10に記憶される管理側カタログ情報18の構成例を示す図である。管理側カタログ情報18はバックアップデータに関する情報を保持する。管理側カタログ情報18は、バックアップID1401、Remote Cluster1403、ホストID(1stから2nd)、活性ホストID1407が含まれる。
バックアップID1401はバックアップを識別するための識別子である。
Remote Cluster1403は計算機システムがリモートクラスタか否かを示す。リモートクラスタの場合、さらに当該ホストIDに関連するレプリケーショングループIDがレプリケーショングループID1404に格納される。
ホストIDの1st1405にはホストIDが保存される。同様に、2nd1406には2つめのホストIDが保存される。図10では2ndまでしか欄が存在しないが、3rd以降の欄があっても構わない。前述のようにクラスタの場合、ホスト計算機が仮想化される場合があり、その場合、このホストIDには当該仮想ホスト計算機に対応する3つめ以降のホスト計算機IDを保存する。
活性ホストID1407はクラスタシステムにおける活性状態のホスト計算機を指す。
(1−3−5)管理側拠点カタログ情報
図11は、管理計算機10に記憶される管理側カタログ情報15の構成例を示す図である。
管理側拠点カタログ情報15はバックアップで使用するレプリケーションとバックアップ時刻に関する情報を保持する。管理側拠点カタログ情報15はバックアップID15001、ホストID15002、使用中世代15003、世代数15004、世代1のグループ15005、世代1の時刻15006、世代2のグループ15007、世代2の時刻15008、世代1のグループ15009、世代1の時刻15010を含む。
バックアップID15001は管理計算機10がバックアップ対象に付与する識別子である。
ホストID15002はホストIDが保存される。
使用中世代15003は、現在バックアップで使用中のレプリケーショングループを指す。
世代数15004は、同一バックアップ対象に使用するレプリケーションの世代数を示す。レプリケーションの世代とは複製元のデータが共通で複製先が異なるレプリケーショングループの数を表す。レプリケーションに世代を設けることで、同一データを異なる時間で複数複製することが出来る。すなわち、レプリケーションの世代数が3の場合、バックアップ対象のデータが同一ストレージサブシステム内に異なる3つの時間でバックアップされていることを指す。
次の世代1(グループ15005、時刻15006)から世代3(グループ15009、時刻15010)はバックアップの取得時間とそのバックアップが保存されるレプリケーショングループの関係を世代別に示す。前述の通り、世代数分、本情報15005から15006は存在する。なお、当然ながら本発明は3世代以外のバックアップ世代についても適用可能であることはいうまでもない。
(1−3−6)管理側APボリューム対応情報
図12は、管理計算機10に記憶される管理側APボリューム対応情報13の構成例を示す図である。
管理側APボリューム対応情報13はホスト計算機上で稼働するバックアップ対象のアプリケーションプログラム(AP)の扱うデータと当該データが配置される論理ボリュームVolの対応関係を管理するための情報である。管理側APボリューム対応情報13は、ホストID13001、仮想ホストID13002、アプリ名13002、データ1(13004)、データ2(13005)、ボリュームID13006が含まれる。
ホストID13001は、ホスト計算機200の識別子である。クラスタの場合、クライアント計算機との接続性を考慮し、仮想的なホスト計算機をクライアント計算機に提供する場合がある。その場合、当該ホストID1802には、仮想的なホストIDが設定される。また、クラスタでない場合は、通常のホストIDがID13001に格納される。
仮想ホストID13002は、クラスタ対象のホスト計算機に設定される仮想的なホスト計算機の識別子である。仮想ホストID13002は、クラスタ環境の場合、使用される。
アプリ名13003は、当該ホスト計算機200上で動作するAP211の名称である。
データ1(13004)は、AP211動作中のホスト計算機200が参照するデータの名称である。AP211のデータが複数の階層で構成される場合は、最上位階層のデータ名称が格納される。
データ2(13005)は、AP211動作中のホスト計算機200が参照する階層化されたデータの内、上位2階層目のデータ名称である。AP211のデータが複数の階層で構成されない場合は格納されない。
ボリュームID13006は、AP211のデータを格納する論理ボリュームVolで、当該ホスト計算機200がストレージサブシステム1000内の論理ボリュームVolを識別するための論理ボリュームVolの識別子である。
(1−3−7)管理側クラスタ構成情報
図13は、管理計算機10に記憶される管理側クラスタ構成情報19の構成例を示す図である。
管理側クラスタ構成情報19は本計算機システムのクラスタ構成を管理するための情報である。管理側クラスタ構成情報19は、仮想ホストID19001、Remote Cluster19002、ホストID(1st19003、2nd19004)が含まれる。
仮想ホストID19001は、クラスタ対象のホスト計算機200に設定される仮想的なホスト計算機の識別子である。
Remote Cluster19002は計算機システムがリモートクラスタか否かを示す。リモートクラスタの場合、さらに当該ホストIDに関連するレプリケーショングループIDがレプリケーショングループID1404に格納される。
ホストIDの1st19002には上記仮想ホスト計算機に対応するホストIDが保存される。同様に、2nd1406には上記仮想ホスト計算機に対応する2つめのホストIDが保存される。図13ではホスト計算機が2つの場合の例であり、ホスト計算機が2つであることを限定するものではない。たとえば、ホストが3つの場合、ホストIDには3rdまで情報欄が追加される。当然ながら本発明は一つの仮想ホストを提供するホストが3つ以外であってもよい。
(1−3−8)ストレージ側レプリケーションペア情報
図14は、本発明の実施例1のストレージサブシステム1000に記憶されるストレージ側レプリケーションペア情報1210の構成例を示す図である。
ストレージ側レプリケーションペア情報1210は、レプリケーションペアID121001、ボリュームID12102、レプリケーション状態情報12103、レプリ対象ストレージサブシステムID12104、レプリ対象ボリュームID12105、レプリケーション種別12106、およびレプリケーショングループID12107を含む。
レプリケーションペアID12102は、論理ボリュームID12102によって識別される論理ボリュームVol、及びレプリ対象ボリュームID12105によって識別される論理ボリュームVolを含むレプリケーションペアの識別子である。具体的には、上述のレプリケーション情報113のペアID11403が登録される。
ボリュームID12102は、当該レプリケーションペア情報1210を記憶するストレージサブシステム1000によって提供される論理ボリュームVolの識別子である。
レプリケーション状態情報12103は、論理ボリュームID12101によって識別される論理ボリュームVolに対するレプリケーションの現在の状態を示す。具体的には、レプリケーション状態情報12103は、当該レプリケーションペアIDが指すレプリケーションペアの状態が、未コピー、コピー中、一時停止中又は異常のいずれであるかを示す。
レプリ対象ストレージサブシステムID12104は、論理ボリュームID12101によって識別される論理ボリュームVolとレプリケーションペアになるレプリケーション先の論理ボリュームVolを提供するストレージサブシステム1000の識別子である。つまり、レプリ対象ストレージID12103には、副ストレージサブシステム1000の識別子が格納される。
レプリ対象ボリュームID12105は、論理ボリュームID12102によって識別される論理ボリュームVolとレプリケーションペアになる論理ボリュームVolの識別子である。つまり、レプリ対象ボリュームID12105には、論理ボリュームID12102によって識別される論理ボリュームVolに記憶されるデータのレプリケーション先となる副論理ボリュームの識別子が格納される。
レプリケーション種別ID12106は、ストレージサブシステム1000が提供する機能であり、同期リモートレプリケーションか、非同期リモートレプリケーション、ローカルレプリケーションのいずれであるかを示す。
レプリケーショングループID12100はレプリケーションペアID121012101によって識別されるレプリケーションペアが属するレプリケーショングループの識別子である。ストレージサブシステム1000は、一つ以上のレプリケーションペアを含むレプリケーショングループを管理する。そのため、管理計算機100は、レプリケーショングループを指定して、リモートレプリケーションの運用の一時停止、再開又は解除をグループに含まれるレプリケーションペアを一括して要求できる。
以上の説明ではレプリケーションペア情報1210はテーブル構造を有する情報として説明したが、当該情報は、レプリケーションペアとレプリケーショングループとの対応、レプリケーションペアとストレージのボリュームの対応、レプリケーションペアのレプリケーション種別とレプリケーション状態と、を有するのであればテーブル以外のデータ構造であってもよい。
また、ストレージサブシステム1000aのレプリケーションペア情報1210aとストレージサブシステム1000bのレプリケーションペア情報1210bは必ずしも同じデータ構造や同じデータを有しなくても良い。
(1−3−9)ストレージ側ボリューム管理情報
図15は、本発明の実施例1のストレージサブシステム1000に記憶されるストレージ側ボリューム管理情報1250の構成例を示す図である。
ストレージ側ボリューム管理情報1250は、論理ボリュームID12501、ボリューム状態情報12502、容量12503、レプリケーションペアID12504及びグループID12505を含む。
論理ボリュームID12501は、当該ボリューム管理情報1250を記憶するストレージサブシステム1000によって提供される論理ボリュームVolの識別子である。
ボリューム状態情報12502は、論理ボリュームID12501によって識別される論理ボリュームVolの現在の状態を示す。具体的には、ボリューム状態情報12502には、正論理ボリューム、副論理ボリューム、正常、異常又は未実装のうち少なくとも一つが格納される。
例えば、論理ボリュームID12501によって識別される論理ボリュームVolが正論理ボリュームの場合、ボリューム状態情報12502には「正論理ボリューム」が格納される。また、論理ボリュームID12501によって識別される論理ボリュームVolが副論理ボリュームの場合、ボリューム状態情報12502には「副論理ボリューム」が格納される。なお、正論理ボリュームとはリモートレプリケーションのレプリケーション元であるボリュームを示し、副論理ボリュームとはリモートレプリケーションのレプリケーション先であるボリュームを示す。
また、論理ボリュームID12501によって識別される論理ボリュームVolにホスト計算機200が正常にアクセスできる場合、ボリューム状態情報12502には「正常」が格納される。また、論理ボリュームID12501によって識別される論理ボリュームVolにホスト計算機200が正常にアクセスできない場合、ボリューム状態情報12502には「異常」が格納される。例えば、ディスク装置1500の故障時、レプリケーションの障害時に、ボリューム状態情報12502には「異常」が格納される。
また、論理ボリュームID12501によって識別される論理ボリュームVolにデータが格納されていない場合、ボリューム状態情報12502には「未実装」が格納される。
容量12503は、論理ボリュームID12501によって識別される論理ボリュームVolの容量である。レプリケーションペアID12505は、論理ボリュームID12501によって識別される論理ボリュームVolを含むレプリケーションペアの一意な識別子である。
レプリケーションペアID12504は、論理ボリュームID12501に関連するレプリケーションペアの識別子である。具体的には、図6で説明したレプリケーション情報113のペアID11303が格納される。
レプリケーショングループID12505は、レプリケーションペアID12504が属するレプリケーショングループの識別子である。管理計算機100がレプリケーション要求をするごとに作成されるレプリケーション情報テーブル114に付与されたレプリケーショングループIDが格納される。
以上の説明ではストレージ側ボリューム管理情報1250はテーブル構造を有する情報として説明したが、当該情報は論理ボリュームVolの状態、容量を有するのであればテーブル以外のデータ構造であってもよい。また、当該情報に論理ボリュームVolとレプリケーションペアとの対応や、論理ボリュームVolとレプリケーショングループとの対応を有しても良い。
また、ストレージサブシステム1000aのボリューム管理情報1250aとストレージサブシステム1000bのストレージ側ボリューム管理情報1250bは必ずしも同じデータ構造や同じデータを有しなくても良い。
(1−4)実施例1の計算機システムの情報作成処理動作
これより、実施例1の計算機システムの処理動作を説明する。なお、本実施例では、クラスタシステムに必要な設定はホスト計算機200において、実施されているものとする。ただし、リモートクラスタにおけるリモートレプリケーションは構築されておらず、ホスト計算機200上のクラスタプログラムは停止状態であるものとする。
(1−4−1)管理側ストレージ情報の作成処理
それでは、はじめに、管理側ストレージ情報114Cの作成処理について説明する。当該作成は、管理計算機10が管理プログラム12に基づいて実行する。
図16は管理計算機10によるストレージサブシステム1000に関する管理側ストレージ情報114C作成のためのフローである。
管理計算機10は、使用者からアドレスもしくはストレージサブシステムIDを受け取る。管理計算機10は受け取ったアドレスを基に、ストレージ制御指示を発行する(ステップ5000)。
次にストレージサブシステム1000は、ステップ5000から送られた制御指示を受け取ると、当該指示内容を解析する(ステップ5010)。
次に、ストレージサブシステム1000は、解析内容に基づき、メモリ1200からストレージ側ボリューム管理情報1250を参照し、当該管理情報の内容を前述の制御指示の応答として返信する(ステップ5020)。当該管理情報の内容には、HW論理ボリュームID、ボリューム状態情報、容量が含まれる。ここで、ストレージサブシステムIDはネットワークアドレス(たとえばIPアドレス)であっても、ハードウェア製品番号などのIDでも構わない。ただし、ハードウェア製品番号の場合、上記の管理情報には当該ハードウェア製品番号が含まれる。
管理計算機10は、ストレージサブシステム1000からの制御指示の応答を受信すると、その内容を解析し、正常か否かを判定する(ステップ5030)。
ストレージサブシステム1000からの制御指示の返答が正常であった場合(ステップ5030Yes)、管理計算機10は管理側ストレージ情報114Cを作成する。作成の際、ホストID11405、ボリュームID11403はストレージサブシステムでは得られない情報であるため、空白のままにする。
一方、ストレージサブシステム1000からの制御指示の応答が正常でなかった場合(ステップ5030No)、管理計算機10は指定されたアドレスにはストレージサブシステムが存在しないことを通知する。
(1−4−2)管理側クラスタ構成情報の作成処理
次に、管理側クラスタ構成情報の作成処理について説明する。当該作成は、管理計算機10が管理プログラム12に基づいて実行する。
図17は管理計算機10によるクラスタシステムの管理情報で管理側クラスタ構成情報19の作成のためのフローである。
管理計算機10は、端末等の入力画面を通して、使用者からクラスタシステムを管理する上で必要となるホスト計算機のアドレスと、当該ホスト計算機に対応する仮想ホスト計算機のアドレスを受け取る(ステップ5100)。ここで、当該アドレスとは、ホスト計算機のネットワークアドレス、もしくはネットワークホスト名で、本明細書では、ホストIDと同じ意味で扱う。通常、クラスタシステムの場合、1つの仮想ホスト計算機に複数のホスト計算機が対応する。図18に入力画面例を示す。図18ではアドレス“host1”の仮想ホスト計算機に対し、2つのホスト計算機(アドレス”phost1”,” phost2”)が入力されている。
次に、管理計算機10は使用者から入力されたアドレスを指示先にしたバックアップ制御指示(ボリューム情報報告)を作成し、ホスト計算機200に発行する(ステップ5110)。たとえば、図18の入力に対しては、2つのホスト計算機のアドレスが指定されているため、管理計算機10はバックアップ制御指示を2つの異なるホスト計算機に発行する。
ホスト計算機200は、当該指示を受け取ると、その指示内容を解析(ステップ5120)し、次に、OS212に当該OSが管理するボリューム情報を取得する。当該OSから得られるボリューム情報には、当該OSが管理する全ボリュームのボリュームIDとHWボリュームID、および、当該HWボリュームが存在するストレージサブシステムのIDが含まれる。次に、ホスト計算機200は、当該ボリューム情報を含めたバックアップ制御指示の応答を作成し、管理計算機10に返信する(ステップ5130)。
管理計算機10は、ホスト計算機200からバックアップ制御指示の応答を受信すると、その内容を解析し、正常な応答か否かを判定する(ステップ5140)。
ホスト計算機200の応答が正常であった場合(ステップ5140Yes)、管理計算機10は、全ホスト計算機200の応答から得た、ストレージサブシステムIDとHW論理ボリュームの組み合わせの中で、共通な組み合わせがあるか否かを判定する(ステップステップ5150)。
ストレージサブシステムIDとHW論理ボリュームの組み合わせが他のホスト計算機の応答から得られる組み合わせと共通なものがある場合(ステップ5150Yes)、管理計算機10はクラスタシステムがローカルクラスタであると判定し、当該判定を基に管理側クラスタ構成情報19を作成する。具体的に、管理側クラスタ構成情報19のRemote Cluster19002を“No”に設定し、さらに、使用者の入力情報の仮想ホスト計算機のアドレスを仮想ホストID19001に、ホスト計算機のアドレスを1以上含んだ、管理側クラスタ構成情報19を作成する。次に、管理計算機10は、ステップ5100で入力されたホスト計算機と、上記応答から得られたストレージサブシステム、ボリュームID、HWボリュームIDの対応関係(E2E情報とよぶことにする)がわかるため、図16で作成された管理側ストレージ情報114CのストレージサブシステムIDとHWボリュームIDが一致する上記E2E情報の内容を空白部分(ボリュームID、ホストID)に埋める。
ストレージサブシステムIDとHW論理ボリュームの組み合わせが他のホスト計算機の応答から得られる組み合わせとすべて異なる場合(ステップ5150No)、管理計算機10はクラスタシステムがリモートクラスタであると判定し、Remote Cluster19002の設定がYesである管理側クラスタ構成情報19を作成する。次に、管理計算機10は、ステップ5100で入力されたホスト計算機と、上記応答から得られたE2E情報がわかるため、図16で作成された管理側ストレージ情報114CのストレージサブシステムIDとHWボリュームIDが一致する上記E2E情報の内容を空白部分(ボリュームID、ホストID)に埋める。
(1−4−3)管理側APボリューム対応情報
次に、管理側APボリューム対応情報の作成処理について説明する。当該作成は、管理計算機10が管理プログラム12に基づいて実行する。
図19は管理計算機10によるホスト計算機200上で動作するAPとそのAPが使用するボリュームを対応づけて管理する管理側APボリューム構成情報19を作成するためのフローである。
管理計算機10は、端末等の入力画面を通して、使用者から仮想ホスト計算機のアドレスと当該仮想ホスト計算機が指すホスト計算機200上で動作するアプリケーション名を受け取る(ステップ5200)。ここで、仮想ホスト計算機のアドレスを指定する理由は、使用者の情報入力の手続きを削減するためである。従って、ホスト計算機200による入力でも構わないが、その場合、複数のホスト計算機200を指定する必要がある。また、複数のアプリケーション名が指定されても構わない。本実施例では、管理側クラスタ構成情報の作成と管理側APボリューム対応情報はそれぞれ個別の処理として記載するが、一連の手続きであっても構わない。また、図20に入力画面例を示す。
次に、管理計算機10は使用者から入力されたアドレスを指示先にしたバックアップ制御指示(AP構成情報報告)を作成し、指定された仮想ホスト計算機に対応する複数のホスト計算機200に発行する(ステップ5200)。たとえば、2つのホスト計算機と1つの仮想ホスト計算機が対応する場合、管理計算機10はバックアップ制御指示を2つの異なるホスト計算機に発行する。
ホスト計算機200は、当該指示を受け取ると、その指示内容を解析(ステップ5210)し、次に、AP211もしくはOS212が管理するAP211と使用ボリュームに関する情報を取得する。当該情報には、当該APが使用する全データの情報と当該データが配置されるボリュームIDが含まれる。ここで、上記AP211が使用するデータは複数の階層に分類される場合があり、その場合、それらすべての分類された情報をホスト計算機200は収集し、ボリュームの情報と対応づけた情報として、バックアップ制御指示の応答を作成し、管理計算機10に返信する(ステップ5220)。
管理計算機10は、ホスト計算機200からバックアップ制御指示の応答を受信すると、その内容を解析し、正常な応答か否かを判定する(ステップ5230)。
ホスト計算機200の応答が正常であった場合(ステップ5230Yes)、管理計算機10は、取得した応答から管理側APボリューム対応情報13を作成する(ステップ5150)。具体的に、管理計算機10は取得した応答から、APが使用する全データの情報をデータ1(13004)およびデータ2(13005)に、ボリュームIDを13006に格納した管理側APボリューム対応情報13を作成する。
ホスト計算機200の応答が正常ではなかった場合(ステップ5230No)、管理計算機10はアプリケーション情報取得を失敗したことを使用者に通知する。
(1−4−4)バックアップ設定のための処理
次に、管理計算機10はバックアップ設定を実施する。バックアップ設定の手続きでは、管理計算機10は管理側バックアップ情報19、管理側カタログ情報14、管理側拠点カタログ情報を作成する。以下、バックアップ設定中のそれぞれの情報の作成処理について説明する。上記すべての情報の作成は、管理計算機10が管理プログラム12に基づいて実行する。
図21は管理計算機10によるバックアップで必要な管理側バックアップ情報19、管理側カタログ情報14、管理側拠点カタログ情報14の作成のためのフローである。
はじめに、管理計算機10は、端末等の入力画面を通して、使用者からバックアップ対象のアプリケーションと、仮想ホスト計算機200の情報を取得する(ステップ5300)。入力画面例を図22に示す。
図22では、管理計算機10は、図上部のアプリケーションプログラム一覧から、バックアップ対象の情報として、仮想ホスト計算機がHost1、アプリケーション名がDBを得る。次に、管理計算機10は、図下部のアプリケーションのデータ情報から、バックアップ対象のデータとしてInstance1を取得する。図22の画面で、使用者は一通りの情報入力後、バックアップスケジュール作成ボタンを押下すると、バックアップデータを特定するための画面が現れる。当該画面により、管理計算機10は、バックアップ対象アプリケーションの保護対象データを取得する。図23に画面例を示す。具体的に、図23で、管理計算機は図22で指定したアプリケーション名DBのバックアップ対象データとして、Instance1のDB1を取得する。
次に、管理計算機10は、上記バックアップ対象AP名、データを基に、管理側バックアップ情報18を作成する(ステップ5315)。具体的に、管理計算機10は、ホストID1802、AP1803、データ1(1804)、データ2(1805)を上記使用者の入力から得た仮想ホスト計算機名(図22で取得)、アプリケーション名(図22で取得)、データ名(図22で取得)と詳細のデータ名(図23で取得)をそれぞれ登録し、さらに、管理計算機10は、あらかじめ定められたユニークなバックアップID1801を作成し、バックアップID1801に登録する。
次に、管理計算機10は、入力画面を通して、使用者からバックアップスケジュールの情報を取得する。バックアップスケジュールの情報には、即時、スケジュールの選択、スケジュールにはさらに、開始時刻、保護期間、バックアップ間隔がある。図24に入力画面例を示す。図24では、管理計算機10は、バックアップスケジュールとして、開始時刻が10:12、保護期間が3日、バックアップ間隔が1日を取得する。さらに管理計算機10はバックアップ頻度を開始時刻で指定した時刻をスケジュール形態で割ることで算出する。図24の例では、開始時刻の数(10:12の1つ)÷スケジュール形態(日単位)で、1となる。
次に、管理計算機10は、バックアップ世代数の計算を行う。バックアップ世代数の計算式例を以下に示す。
バックアップ世代数=バックアップ期間×バックアップ頻度
例えば、図24の例で世代数はバックアップ期間3日÷バックアップ頻度1日で、10となる。
次に、管理計算機10は、レプリケーション構成の構築処理5330を行う。
次に、管理計算機10は活性状態のホスト計算機200にバックアップ制御指示を発行する(ステップ5340)。具体的には、管理計算機10は、管理側拠点カタログ情報15、および、管理側バックアップ情報18を含めたバックアップ制御指示(スケジューラ登録指示)を活性状態のホスト計算機200に発行する。活性状態のホスト計算機200は、正側ストレージに接続されるホスト計算機であり、ホスト計算機のクラスタプログラム214の状態である。ローカルクラスタの場合は、任意の1ホスト計算機が活性状態となりうるため、ホスト計算機200のクラスタプログラム214の状態を参照し、活性状態のホスト計算機200を決定する。活性状態のホスト計算機200の動作については後述する。
次に、図25を用い、管理計算機10によるレプリケーション構成の構築処理を説明する。
はじめに、管理計算機10は管理側クラスタ構成情報19の仮想ホストIDが、ステップ5300で指定された仮想ホストIDに合致する管理側クラスタ構成情報19の該当行の情報(仮想ホストID、Remote Cluster、ホストIDの組み合わせ)のRemote Clusterが“Yes”であるか否かを確認する(ステップ5331)。
Remote Clusterが“Yes”の場合(ステップ5331Yes)、管理計算機10はリモートクラスタ向けの設定を行う。すなわち、管理計算機10はステップ5300で指定されたホストID11405、アプリ名を含む管理側APボリューム対応情報13を参照する。次に、管理計算機10は、当該管理側APボリューム対応情報13で該当する行情報に含まれるホストID13001、ボリュームID13006が合致する管理側ストレージ情報114CのストレージサブシステムID11402、HWボリュームID11404を検出する。管理計算機10は、このHWボリュームID11404をリモートクラスタで使用するリモートレプリケーションの正論理ボリュームか、副論理ボリュームのいずれかを設定する(ステップ5332)。正論理ボリューム、副論理ボリュームのいずれを設定するかは、例えば、管理計算機10がランダムに選択しても良いし、事前に決めておいても良いし、後で、使用者に指定されるものでも良い。
次に、管理計算機10は、ステップ5332で決定した当該正論理ボリュームと副論理ボリュームを基に、管理側レプリケーション情報113Cを作成する。具体的には、管理計算機10は正論理ボリュームに管理側ストレージ情報から得た情報を、正ストレージシステムID11304にストレージサブシステムID11402を、正HWボリュームID11305に同HWボリュームID11404を、管理側レプリケーション情報113Cに登録する。さらに、副論理ボリュームとして管理側ストレージ情報114Cから得た情報を用い、副ストレージサブシステムIDとして、副ストレージシステムID11306としてストレージサブシステムID11402を、副HWボリュームID11307として同HWボリュームID11404を管理側レプリケーション情報113Cに登録する。また、管理計算機10は、管理側レプリケーション情報113CのレプリケーショングループID11300として他のものと衝突しないレプリケーショングループ名を決定し、レプリケーションオプション情報11301としてリモートレプリケーションを登録する。さらに、管理計算機10は、管理側カタログ情報14を作成する。具体的に、管理計算機10はバックアップID1401に管理側バックアップ情報18(ステップ5315で作成)で登録したバックアップID1801を、Remote Cluster1403には管理側クラスタ構成情報19の仮想ホストIDが使用者の指定した値と合致する行情報のRemote Cluster19002、ホストID1st1405には同行情報の19003、ホストID2nd1405には同行情報の19004を登録する。さらに、管理計算機10は活性ホストIDとして、正ストレージサブシステム1000に接続されるホスト計算機を登録する(ステップ5333)。
次に、管理計算機10は、リモートクラスタの副ストレージサブシステムのバックアップ用のレプリケーション情報113Cを作成する。すなわち、管理計算機10は、ステップ5333で副論理ボリュームとして設定したHW論理ボリュームをローカルレプリケーションの正論理ボリュームとして設定する。さらに、管理計算機10は、現状レプリケーションとして使用されていない論理ボリュームVolを同一ストレージサブシステムID11402の管理側ストレージ情報から選択し、副論理ボリュームとして設定する。ここで、レプリケーションとして使用されていないボリュームを選択するには、ストレージサブシステム1000の情報をストレージ制御指示から取得する、あらかじめ使用者が定めた論理ボリュームVolを使用するといった方法がある。次に、管理計算機10は、管理側レプリケーション情報113CのレプリケーショングループID11300として他のものと衝突しないレプリケーショングループ名を決定し、レプリケーションオプション情報11301としてローカルレプリケーションを登録する。ここで、管理計算機10は管理側レプリケーション情報を図21で実施したバックアップ世代数(ステップ5320)分作成する。次に、管理計算機10は副ストレージサブシステム向けの管理側拠点カタログ情報15を作成する。具体的に、管理計算機10は管理側バックアップ情報として付与したバックアップID1801を15001に、ホスト15002は正論理ボリュームに設定した論理ボリュームVolを使用するホスト計算機200のID、使用中世代15003は初期値を設定し、世代数15004はステップ5320で計算した結果、世代1グループ15005、世代2グループ15007、世代1グループ15009には上記のリモートクラスタの副ストレージサブシステム向けに作成したレプリケーション情報113Cに登録したレプリケーショングループID11300を登録する(ステップ5334)。
次に、ステップ5331でRemote Clusterが“No”の場合、もしくは、ステップ5334の次の処理として、管理計算機10はローカルクラスタ、リモートクラスタ向け、正ストレージサブシステムのバックアップ用レプリケーション情報113Cを作成する。すなわち、管理計算機10は、ステップ5333で正論理ボリュームとして設定したHW論理ボリュームをローカルレプリケーションの正論理ボリュームに設定する。さらに、管理計算機10は、現状レプリケーションとして使用されていない論理ボリュームVolを同一ストレージサブシステムID11402の管理側ストレージ情報から選択し、副論理ボリュームとして設定する。次に、管理計算機10は、管理側レプリケーション情報113CのレプリケーショングループID11300として他のものと衝突しないレプリケーショングループ名を決定し、レプリケーションオプション情報11301としてローカルレプリケーションを登録する。ここで、管理計算機10は管理側レプリケーション情報を図21で実施したバックアップ世代(ステップ5320)分作成する。次に、管理計算機10は正ストレージサブシステム向けの管理側拠点カタログ情報15を作成する。具体的に、管理計算機10は管理側バックアップ情報として付与したバックアップID1801を15001に、ホスト15002は正論理ボリュームに設定した論理ボリュームを使用するホスト計算機200のID、使用中世代15003は初期値を設定し、世代数15004はステップ5320で計算した結果、世代1グループ15005、世代2グループ15007、世代1グループ15009には上記のリモートクラスタの副ストレージサブシステム向けに作成したレプリケーション情報113Cに登録したレプリケーショングループID11300を登録する(ステップ5335)。
最後に管理計算機10は上記ステップで作成した管理側レプリケーション情報からストレージ制御指示(レプリケーション構築)を作成し、ストレージサブシステム1000に発行する(ステップ5336)。ストレージサブシステム1000は当該ストレージ制御指示に従い、レプリケーションを構築する。
(1−5)実施例1の計算機システムにおける通常動作
(1−5−1)バックアップ処理
管理計算機10がバックアップ設定のための処理(図21)を完了すると、活性状態のホスト計算機200で、バックアップ処理が開始になる。当該作成は、ホスト計算機200がバックアッププログラム213に基づいて実行する。
図26は管理計算機10によるバックアップ処理のためのフローである。
はじめに、ホスト計算機200は管理計算機10からのバックアップ制御指示を受信(ステップ5400)すると、バックアップ制御指示の内容を解析し、当該指示の中に含まれる管理側バックアップ情報18と、管理側拠点カタログ情報15を取り出し、当該計算機内のメモリ210に格納する。図では、管理計算機20条の情報と区別するため、ホスト計算機200上に配置される上記情報をそれぞれ、管理側バックアップ情報18L、管理側拠点カタログ情報15Lと表記する。
次に、ホスト計算機200は、当該管理側バックアップ情報18と、管理側拠点カタログ情報15を読み出し、バックアップ対象アプリとそのデータ、バックアップ開始時刻、バックアップで使用するレプリケーショングループを特定する。次に、ホスト計算機200は、当該計算機上のスケジューラ217に、アプリケーションのデータに対するバックアップ実行指示が開始時刻に実行されるよう登録する(ステップ5410)。
次に、ホスト計算機200はスケジューラを監視し、バックアップ実行指示が完了するのを待つ(ステップ5420)。バックアップ実行指示が実施されると、ホスト計算機200は、当該計算機上で動作するAP211を静止化する。APの静止化とは、当該APを一時的に停止させ、APやOSに存在する当該APのデータの一時データを、すべてストレージサブシステムに書き出すことで、当該データを回復可能な状態にする手続きである。APの静止化後、ホスト計算機200は、該当するAPのデータのバックアップをレプリケーションで保管するため、ストレージ制御指示(レプリケーション一時停止)を発行する。ストレージサブシステム1000は当該指示を受け取ると、指定されたレプリケーショングループに含まれるレプリケーションペアのコピーを停止する。
バックアップ実行指示が完了した場合(5420Yes)、ホスト計算機200は次に実行実施すべきバックアップの時刻を計算する。具体的に、ホスト計算機200は、バックアップが完了した時刻にバックアップ間隔を加算することで算出する。次に、ホスト計算機200は、バックアップ開始時刻を変更したバックアップ指示をスケジューラ217に登録するために、ステップ5410に遷移する(ステップ5430)。
(1−5−2)リストア処理
リストア処理は、管理計算機10がバックアップ済みデータを回復するための処理である。当該リストア処理は、管理計算機10が管理プログラム12に、ホスト計算機200がバックアッププログラム213に基づいて実行される。
図27は管理計算機10によるリストア処理のためのフローである。
はじめに、端末等の入力画面を通して、使用者がリストアを実施する場合、管理計算機10は、活性状態のホスト計算機200にバックアップ制御指示(バックアップ状態報告)を発行する(ステップ5500)。バックアップ状態報告は物理計算機が管理する管理側拠点カタログ情報を取得することが出来る。
ホスト計算機200は、当該バックアップ状態制御指示を受信すると、その内容を解析し、指示内容がバックアップ状態報告であることが判明すると、自計算機200が管理する管理側拠点カタログ情報15Lを応答に含めて、返信する(ステップ5505)。
次に、管理計算機10は、当該情報の内容を、入力画面を通し出力し、使用者からリストアすべきアプリケーションのデータを取得する。次に、管理計算機10は、活性状態のホスト計算機にバックアップ制御指示(リストア指示)を発行する(ステップ5510)。ここで、リストア処理の入力画面例を図28に示す。
図28で、管理計算機10は、図上部のアプリケーションプログラム一覧から、リストア対象の情報として、仮想ホスト計算機がHost1、アプリケーション名がDBを得る。次に、管理計算機10は、図下部のアプリケーションのデータ情報から、リストア対象のデータとしてInstance1を取得する。図28の画面で、使用者は一通りの情報入力後、リストアボタンを押下すると、リストアデータを特定するための画面が現れる。当該画面により、管理計算機10は、リストア対象データを回復するためのすべて情報を得る。図29に画面例を示す。
具体的に、図29で、管理計算機は図28で指定したアプリケーション名DBのリストア対象のデータとして、Instance1のDB1とそのバックアップ時間(2009−08−12 11:12:20)を取得する。取得後、管理計算機10は当該情報を基にバックアップ制御指示(リストア指示)を活性状態のホスト計算機200に発行する。複数あるホスト計算機の中から活性状態のものを特定するため、管理計算機10は、管理側カタログ情報14の活性ホストIDを参照する。
ホスト計算機200は、当該バックアップ制御指示を受信すると、当該制御指示を解析し、当該制御指示がバックアップデータのリストア処理を開始する(ステップ5520)。
次に、ホスト計算機200は、AP211を停止させる。AP211の停止には例えば、AP専用の操作インターフェースや、AP211専用の制御コマンドを使用する(ステップ5530)。
次に、ホスト計算機200は、レプリケーション操作を行うために、活性ホスト計算機のホストIDを持つ管理側拠点カタログ情報を参照し、リストアの入力画面で指定された世代のレプリケーショングループIDを特定し、当該レプリケーショングループIDを指定してストレージ制御指示(レプリケーション一時停止指示)を当該レプリケーショングループに記載されるストレージサブシステム1000に発行する(ステップ5540)。すると、ストレージサブシステム1000は当該指示に従ってレプリケーション制御を実施する。具体的には、アプリケーションが使用する正論理ボリュームに副論理ボリュームの内容を上書きする。
次に、ホスト計算機200は、AP211を起動する。AP211が動作するとホスト計算機200はリストアしたデータを参照し、AP211のための処理を継続する。次にホスト計算機200は、APリストアが完了したことをバックアップ制御指示の応答で管理計算機10に返送する(ステップ5550)。
管理計算機10は、バックアップ制御指示の応答を受信すると、リストアが成功したか否かを当該応答から判定する(ステップ5560)。
当該応答がリストア成功の場合(ステップ5560Yes)、管理計算機10はリストアが成功したことを使用者に通知する(ステップ5570)。
一方、当該応答がリストア失敗の場合(ステップ5560No)、管理計算機10はリストアが失敗したことを使用者に通知する(ステップ5570)。使用者は再度リストア可能なデータを見つけるべくステップ5500からやり直す。
(1−6)実施例1のリモートクラスタを適用した計算機システムの障害時の動作
障害時の動作はローカルクラスタとリモートクラスタで異なる。ここでは、リモートクラスタの障害発生後の動作について説明する。
(1−6−1)活性状態のホスト計算機障害後のバックアップ処理
はじめに、活性状態のホスト計算機障害後のバックアップ処理について説明する。以後、上記障害が発生したホスト計算機を障害ホストとよぶ。当該処理は、ホスト計算機200がクラスタプログラム214に基づいて実行する。
図30は非活性状態のホスト計算機200による障害ホスト200aが障害になった後にバックアップ処理を引き継ぐためのフローである。
ホスト計算機200の障害を検出するため、クラスタシステム上の複数のホスト計算機200は自計算機とは異なる障害監視対象のホスト計算機が動作しているかを定期的に調査する(ステップ5600)。これは、ホスト計算機200が制御線55を介して別ホスト計算機200と簡単な情報を通信することで実現する。
ここで、活性状態のホスト計算機200aが障害になると、その障害を検出した非活性状態のホスト計算機200が当該活性状態のホスト計算機(障害ホスト)の処理を引き継ぐ、フェールオーバ処理を実施する(ステップ5600No)。具体的に、当該非活性状態のホスト計算機200b(以下、新活性ホストとよぶ)は以下の手続きを実施する。
はじめに、新活性ホスト200bは、自新活性ホスト200bがアクセスする論理ボリュームVolを使用可能にするため、レプリケーション操作を行う。具体的には、ストレージサブシステム1000間で実施するリモートレプリケーションの方向を変更する必要があり、新活性ホスト200bは、ストレージ制御指示(レプリケーションリバース指示)を副ストレージサブシステム1000bに発行する(ステップ5610)。副ストレージサブシステム1000bは少なくとも自ストレージサブシステム1000bが処理中のリモートレプリケーションを一時停止させ、副論理ボリュームであった論理ボリュームを正論理ボリュームに変更する。さらに、可能であれば副ストレージサブシステム1000bは当該リモートレプリケーションのレプリケーション方向を逆向きにする処理を実施する。レプリケーション方向を逆向きにする処理は、副ストレージサブシステム1000bが正ストレージサブシステム1000aと通信し、両者のレプリケーション処理の継続が可能な場合、両ストレージサブシステム1000が連携し、レプリケーションの方向を逆転させる。結果として、上記リモートレプリケーションの状態は逆方向にレプリケーションを実施するコピー中状態か、異常状態のいずれかになる。
次に、新活性ホスト200bは、クライアント計算機に見せるネットワークアドレスを障害ホスト200aが使用していたアドレスに変更する(ステップ5620)。
次に、新活性ホスト200bは、自新活性ホスト200b上のAP216を起動する。
次に、新活性ホスト200bは、自新活性ホスト200b上のバックアッププログラム213を起動する。バックアッププログラム213が起動すると新活性ホスト200bは、メモリ上に配置された、管理側拠点カタログ情報15Lおよび管理側バックアップ情報18Lを参照し、バックアップ処理を開始する。ここで、新活性ホスト200bのバックアップ処理は、障害ホスト200aで実施していたバックアップ処理を引き継ぐため、障害ホスト200aが、スケジューラに登録していたバックアップ実行指示が新活性ホスト200bのバックアップ実行指示になるように変更する。
(1−6−2)フェールオーバ後のリストア処理
フェールオーバ後のリストア処理について説明する。当該処理は、ホスト計算機200がクラスタプログラム214に基づいて実行する。
リストア処理は、管理計算機10がバックアップ済みデータを回復するための処理である。当該リストア処理は、管理計算機10が管理プログラム12に、ホスト計算機200がバックアッププログラム213に基づいて実行される。
フェールオーバ後のリストア処理は、基本的に通常状態のリストア処理と同様の処理になる。ただし、障害ホスト200aが障害前に取得していたバックアップデータをリストア可能にするための処理5590F、処理5540Fが追加になる。
図31は、フェールオーバ後のリストア処理であり、通常状態のリストア処理に比べ変更が生ずる。以下、変更を図32、図33を用いて説明する。
図32は障害ホスト200aがフェールオーバ前に正ストレージサブシステム1000aにバックアップしたデータをリストア対象のデータとして使用するか否かを判定するためのフローで、図31の5590Fの処理である。
はじめに、管理計算機10はストレージサブシステム間に構築されたリモートレプリケーションの状態を取得するために、ストレージ制御指示(レプリケーション状態報告)を副ストレージサブシステム1000bに発行する(ステップ5591)。
当該制御指示を受信した副ストレージサブシステム1000bは、指示内容を解析し、ストレージ側レプリケーションペア管理情報1210を参照し当該情報上のレプリ状態情報12103を読み出し、その状態情報を当該制御指示の応答として管理計算機10に返信する(ステップ5992)。
管理計算機10は当該制御指示の応答を受信すると、リモートレプリケーションが異常状態の場合(ステップ5593No)、障害ホスト200の障害だけでなく、正ストレージサブシステム1000aも障害が発生していると判定する。具体的には、管理計算機10は、当該正ストレージサブシステム200aにバックアップされたデータをリストア対象として使用せず、フェールオーバ後に新活性ホスト200bが取得したバックアップのみをリカバリ対象とするために、新活性ホスト200bが管理している管理側バックアップ情報18のみを参照する(ステップ5595)。
一方で、リモートレプリケーションが異常状態ではない場合(ステップ5593Yes)、フェールオーバ後も正ストレージサブシステム1000aは稼働しているものとして、管理計算機10が定期的に障害ホスト200aから取得していた、障害ホスト200a上の管理側拠点カタログ情報(以後、新活性ホストが管理する管理側拠点カタログ情報と区別するため、当該管理側拠点カタログ情報を残存拠点カタログ情報とよぶことにする)も、リストア対象にする(ステップ5594)。そのため、図28に示すリストア画面ではリストア候補が障害ホスト200aがフェールオーバ前に取得したバックアップのデータ分、増加する。ここで、ステップ5594の処理は、管理計算機10が障害前後によらず、定期的に対象のホスト計算機から管理側拠点カタログ情報を取得していることを前提としている。この情報が古い場合、リストア不可能なデータが当該管理側拠点カタログ情報に記載される場合があるため、物理サーバへの情報取得間隔はスケジュールされたバックアップ処理間隔よりも十分に短いものとする。
図31のステップ5510Fの処理は、図27で示した通常時のリストア処理と例外ケースをのぞき同一の処理である。例外ケースとはすなわち、使用者が障害ホストのバックアップデータをリストア対象として選択可能になる場合で、この場合、管理計算機10は、新活性ホスト計算機にバックアップ制御指示(複合リストア)を発行する。複合リストア処理とは、リストア対象のデータを得るために、リモートレプリケーションとローカルレプリケーションを組み合わせる処理である。そのために、複合リストア指示にはリストア対象のデータの情報に加え、正副ストレージサブシステム1000間に構築中のリモートレプリケーションの情報も含める。
図33は障害ホスト200aがフェールオーバ前に取得したデータをリストアする可能性がある場合の、リストア処理のためのレプリケーション制御処理フローで、図31の5540Fの処理である。
はじめに、新活性ホスト200bは、管理計算機10から受信したバックアップ制御指示に記載されるリストア対象が障害になったホスト計算機200aのデータか否かを判定する(ステップ5541)。
当該リストア対象が障害ホスト200aのデータでない場合(ステップ5541No)、ステップ5540で示したレプリケーション操作を行う(ステップ5543)。
一方、当該リストア対象が障害ホスト200aのバックアップデータの場合(ステップ5541Yes)、新活性ホスト200bは障害ホスト200aに接続される正ストレージサブシステム1000aに格納されたバックアップデータを副ストレージサブシステム1000bに転送するためのレプリケーション操作を行う。具体的に、新活性ホスト200bは、バックアップ制御指示のリストア指示に含まれるリストア対象のバックアップデータが保存されたレプリケーションのグループと、バックアップ制御指示に含まれるリモートレプリケーションのグループの両方を連続して制御する。図34は障害発生後に障害ホスト200aの作成したデータをレプリケーションの処理に関する説明図である。
図34で、新活性ホスト200bは、ストレージサブシステム1000内のレプリケーション(1)を逆向きにする。つぎに、新活性時ホスト200は、リモートレプリケーション(2)を逆向きにする。この2つの手続きにより、たとえ障害がホスト計算機で発生した後でも、当該データを含めた形でリストア対象にすることが出来る。
障害ホストのホストIDを持つ管理側拠点カタログ情報を参照し、当該レプリケーショングループIDを指定してストレージ制御指示(レプリケーション一時停止指示)を当該レプリケーショングループに記載されるストレージサブシステム1000に発行する。すると、ストレージサブシステム1000は当該指示に従ってレプリケーション制御を実施する。具体的には、障害ホスト200が使用する正論理ボリュームに副論理ボリュームの内容を上書きする。
(1−7)本実施例1のローカルクラスタを適用した計算機システムの障害時動作
障害時の動作はローカルクラスタとリモートクラスタで異なる。ここでは、ローカルクラスタの障害後の動作について説明する。
(1−7−1)ホスト計算機障害後のバックアップ処理
はじめに、ローカルクラスタはストレージサブシステム1000が複数存在しないため、リモートレプリケーションの制御が必要でなくなる。従って、図30のステップ5610が存在しないことがリモートクラスタしすてむにおけるバックアップ処理と大きく異なる。
また、ホスト計算機200間で同一ストレージサブシステム10000、論理ボリュームVolを使用するため、バックアップで必要となる管理側拠点カタログ情報、管理側カタログ情報をホスト計算機200間で共有する。そのため、ホスト計算機200が共有するストレージサブシステム1000上のデータ同様に、当該バックアップ情報をデータ同様にストレージサブシステム上に配置する。そのため、ホスト計算機200aに障害が発生し、別のホスト計算機200bにフェールオーバしても、新活性ホスト200はストレージサブシステムからバックアップ情報を読み込むのみで、バックアップ情報に障害ホスト200のバックアップ内容と変化が無く、使用者が使用するする画面も変化が生じない。
(1−7−2)ホスト計算機障害後のリストア処理
ローカルクラスタシステムにおけるリストア処理は、リモートクラスタシステムと比較すると、リモートレプリケーションの制御のための処理が存在しないことが相違となる。ローカルクラスタシステムにおけるリストア処理では、リモートクラスタシステムの場合とは異なり、障害ホスト200がバックアップしていたデータはストレージサブシステムが故障しない限り同一バックアップデータをリストア対象データとして利用できる。
(1−8)ストレージサブシステムのレプリケーション処理
ストレージサブシステムにおけるレプリケーション処理は2つの期間に分類される。初期コピーと定常コピーである。初期コピーはレプリケーションの開始処理で、レプリケーション元の論理ボリュームVolの内容をレプリケーション先に複製する処理である。定常コピーは初期コピー終了後のレプリケーション処理である。
(1−8−1)ストレージサブシステムによる初期コピー処理
次に、ストレージサブシステム1000による、リモートレプリケーションの開始処理について説明する。
図35は実施例1における正副ストレージサブシステム1000によって実行されるレプリケーションの開始処理(以後、初期コピー処理とよぶ)のフローチャートを示す図である。
(ステップ8010)正ストレージサブシステム1000aは、ストレージ制御指示(レプリケーション構築指示)を受信し、当該指示から抽出した情報に基づいて、ストレージ側レプリケーションペア管理情報1210を作成する。具体的には、正ストレージサブシステム1000aは、レプリケーション構築指示にて指定された正論理ボリュームのIDをコピー元の正論理ボリュームとしてストレージ側レプリケーションペア管理情報1210の論理ボリュームID12101に格納する。次に、正ストレージサブシステム1000aは、初期コピー中を、ストレージ側レプリケーションペア管理情報1210のレプリケーション状態情報12102に格納する。さらに、正ストレージサブシステム1000aは、当該要求に含まれるレプリケーションペアのIDをレプリケーションペアID12100に格納し、当該要求に含まれるコピーグループIDコピーグループID12100に格納し、当該要求に含まれるコピー種別を、ストレージ側レプリケーションペア管理情報1210のコピー種別12106に格納する。
(ステップ8020)ストレージサブシステム1000aは、リモートレプリケーション開始相手となるストレージサブシステム1000bへレプリケーションン構築指示に含まれる情報に対応する情報を含むストレージ間レプリケーションペア開始要求を作成する。
なお、ストレージ間レプリケーションペア開始要求に含まれる情報を以下に示す。
(1)開始対象のレプリケーションペアの正ストレージサブシステムのIDと正論理ボリュームのID。
(2)開始対象のレプリケーションペアの副ストレージサブシステムのIDと副論理ボリュームのID。
(3)開始対象のレプリケーションペアのコピー種別。
(4)開始対象のレプリケーションペアのID。
(5)開始対象のレプリケーションペアが含まれるコピーグループのID。
(ステップ8040)当該要求を受信した副ストレージサブシステム1000bはストレージ側レプリケーション管理情報1210bの生成または更新のため、当該要求に対応する処理として8010を行う。
(ステップ8050)次に、正ストレージサブシステム1000aは、正論理ボリュームが格納するデータを副ストレージサブシステムの副論理ボリュームにコピーする初期コピーを開始する。
なお、初期コピー中の正ストレージサブシステム300は、ストレージ側レプリケーションペア管理情報1210Aの論理ボリュームID12102によって識別される正論理ボリュームからデータを読み出し、読み出し元の正論理ボリュームのID(または対応する副論理ボリュームのID)と正論理ボリュームのアドレス(または対応する副論理ボリュームのアドレス)と読み出したデータを含む初期コピー要求を作成し、副ストレージサブシステム1000bへ送信する。
初期コピー要求を作成した副ストレージサブシステム1000bは当該リクエストが特定した副論理ボリュームと副論理ボリュームのアドレスに対して正論理ボリュームから読み出したデータを書き込む。
(1−8−2)ストレージサブシステムによる定常コピー処理
正副ストレージサブシステム1000は、初期コピー処理が終了すると、リモートコピーの継続処理(以後、定常コピーとよぶ)の運用を開始する。つまり、正副ストレージサブシステム1000は、正論理ボリュームのデータと副論理ボリュームのデータとが一致してから、定常コピーの運用を開始する。
具体的には、正ストレージサブシステム1000aは、初期コピー処理を終了してから書き込み要求を受信すると、定常コピー処理を実行する。例えば、正ストレージサブシステム1000aは、正論理ボリュームにデータを書き込むと、当該書き込みデータを副論理ボリュームにも書き込む。
図36は、本発明の実施例1のストレージサブシステム1000によって実行される定常コピー処理の一例を示すフローチャートである。なお、定常コピーは図27以外の処理によって実現してもよい。
正ストレージサブシステム1000aは、ホスト計算機200からIOを受信する。当該IOは、書き込み要求である。次に、正ストレージサブシステム1000aは、IO要求から、書き込みが要求されるデータ(書き込みデータ)を抽出する。次に、正ストレージサブシステム1000aは、IO要求から、ストレージID及びボリュームIDを抽出する。
次に、正ストレージサブシステム1000aは、抽出した書き込みデータを、取得した論理ボリュームIDによって識別される論理ボリュームVolに書き込む。
(ステップ8250)次に、正ストレージサブシステム1000aは、図37に示すデータ転送要求を作成する。
具体的には、コピー元の正ストレージサブシステム1000aは、取得した論理ボリュームIDとレプリケーションペア管理情報1210Aの論理ボリュームID12101とが一致するレプリケーションペア管理情報1210を選択する。次に、レプリケーション元の正ストレージサブシステム1000aは、選択したレプリケーションペア管理情報1210Aから、レプリケーション対象ストレージID12104及びレプリケーション対象ボリュームID12105を抽出する。
次に、正ストレージサブシステム1000aは、抽出したレプリケーション対象ボリュームID12105を、データ転送要求の論理ボリュームIDに格納する。次に、正ストレージサブシステム1000aは、書き込みデータを格納したブロックのアドレスを、データ転送要求のブロックアドレスに格納する。
次に、正ストレージサブシステム1000aは、書き込みデータの大きさを、データ転送要求の書き込みデータ長に格納する。次に、正ストレージサブシステム1000aは、書き込みデータの一部又は全部を、データ転送要求の転送データに格納する。
次に、正ストレージサブシステム1000aは、定常コピーにおいて当該転送要求を作成した順番を、データ転送要求の通し番号18405に格納する。次に、正ストレージサブシステム1000aは、抽出したレプリケーション対象ストレージIDを、データ転送要求1840の転送先ストレージID18406に格納する。
(ステップ8260)次に、正ストレージサブシステム1000aは、作成したデータ転送要求1840を、副ストレージサブシステム1000bに送信する。
(ステップ8270)副ストレージサブシステム1000bは、データ転送要求1840を受信する。すると、副ストレージサブシステム1000bは、データ転送要求1840の論理ボリュームID18401によって識別される論理ボリュームVolに、データ転送要求1840の転送データ23Dを書き込む。
そして、ストレージサブシステム1000は、一つのIO要求に対応する定常コピーの処理を終了する。
以上の説明によって、複数の論理ボリュームを提供し、一つ以上の装置から構成されるストレージシステムと、複数の計算機と、を管理し、前記複数のホスト計算機と接続するポートと、クラスタ情報を格納するメモリと、前記複数の計算機同士で発生したフェールオーバを検知して前記クラスタ情報を更新するプロセッサと、入力用の仮想ホスト識別子と、入力用のアプリケーションインスタンス識別子と、バックアップスケジュール入力値と、を含むバックアップ設定要求を受信する、入出力装置と、を有する管理システムについて説明した。
なお、前記プロセッサは、
(A)前記クラスタ情報を参照することで、前記複数のホスト計算機に含まれ、前記入力用の仮想ホスト識別子に対応する活性状態の計算機と、前記活性状態のホスト計算機に対応する非活性状態のホスト計算機とを特定し、
(B)前記入力用のアプリケーションインスタンス識別子にて識別されるアプリケーションプログラムを実行することで前記活性状態のホスト計算機がアクセスする、前記ストレージシステムに含まれる第一のストレージサブシステムと前記第一のストレージサブシステムが提供する第一の論理ボリュームとを特定し、
(C)前記非活性状態のホスト計算機が前記第一のストレージサブシステム及び前記第一の論理ボリュームにアクセス可能か判断し、
(D)前記非活性状態のホスト計算機が前記第一の論理ボリュームにアクセス可能でない場合、前記非活性状態のホスト計算機からアクセス可能な前記ストレージシステムに含まれる第二のストレージサブシステムを選択し、前記第一の論理ボリュームをコピー元として前記第二のストレージサブシステムが提供する第二の論理ボリュームをコピー先とするディザスタリカバリ用途のレプリケーション構築指示を前記第一のストレージシステムへ送信し、
(E)前記ポートを介して、前記バックアップスケジュール入力値に基づき作成したバックアップスケジュール指示情報を含むバックアップスケジュール登録指示を活性状態のホスト計算機計算機に送信することで、前記バックアップスケジュール入力値に従った前記第一の論理ボリュームをコピー元とし、前記第一のストレージサブシステムが含む一つ以上の第三の論理ボリュームをコピー先とする、バックアップ用レプリケーション処理の制御を前記活性状態のホスト計算機に行わせる、
ことについても説明した。
なお、前記プロセッサは、
(F)前記活性状態のホスト計算機からレプリケーション処理の情報を取得することで、前記バックアップスケジュール入力値に従って作成されたバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、管理用カタログ情報として前記メモリに格納し、
(G)前記管理用カタログ情報を参照することで、前記入力用仮想ホスト識別子及び前記入力用アプリケーションインスタンス識別子で指定された前記アプリケーションプログラムに対応するバックアップデータの生成時間を一つ以上、前記入出力装置に表示させてもよいことも説明した。
また、前記不活性状態のホスト計算機が、フェールオーバによって前記活性状態のホスト計算機から前記アプリケーションプログラムの処理を引き継ぐことで次の活性状態のホスト計算機となった場合、前記プロセッサは、
(H)前記次の活性状態のホスト計算機が前記活性状態のホスト計算機から引き継いだ、前記バックアップスケジュール入力値に基くバックアップ用レプリケーション処理の制御の次の情報を取得し、
(I)前記次の情報に従って、活性状態のホスト計算機が制御することで生成した次のバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、前記カタログ情報として前記メモリに格納し、
(J)前記管理用カタログ情報を参照することで、前記アプリケーションプログラムに対応するバックアップデータの生成時間として、前記次のバックアップデータの生成時間を前記入出力装置へ表示させてもよいことも説明した。
また、前記入力装置は、前記入力用の仮想ホスト識別子及び前記入力用のアプリケーションインスタンス識別子と、前記バックアップデータの生成時間表示に基いて入力された所定のバックアップデータを指定したリストア指示を受信し、前記プロセッサは、前記リストア指示で指定されたバックアップデータを格納する前記第三の論理ボリュームの一つを特定し、前記特定された第三の論理ボリュームの一つを指定したリストア指示を前記活性状態のホスト計算機へ送信することで、前記ストレージシステムに、前記第三の論理ボリュームの一つに格納されたバックアップデータを前記第一の論理ボリュームへ戻させてもよいことも説明した。
また、前記不活性状態のホスト計算機が、フェールオーバによって前記活性状態のホスト計算機から前記アプリケーションプログラムの処理を引き継ぐことで次の活性状態のホスト計算機となった場合、前記プロセッサは、
(H)前記次の活性状態のホスト計算機が前記活性状態のホスト計算機から引き継いだ、前記バックアップスケジュール入力値に基くバックアップ用レプリケーション処理の制御の次の情報を取得し、
(I)前記次の情報に従って、活性状態のホスト計算機が制御することで生成した次のバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、前記カタログ情報として前記メモリに格納し、
(J)前記管理用カタログ情報を参照することで、前記アプリケーションプログラムに対応するバックアップデータの生成時間として、前記次のバックアップデータの生成時間を前記入出力装置へ表示させても良いことも説明した。
また、前記不活性状態のホスト計算機が、前記第一のストレージサブシステムへアクセス可能でなく、フェールオーバによって前記活性状態のホスト計算機から前記アプリケーションプログラムの処理を引き継ぐことで次の活性状態のホスト計算機となった場合、前記プロセッサは、
(K)前記バックアップスケジュール入力値に基いた前記第二の論理ボリュームをコピー元として前記第二のストレージサブシステムが提供する一つ以上の第四の論理ボリュームをコピー先とする、次のバックアップ用レプリケーション処理の制御の次の情報を取得し、
(L)前記次の情報に従って、活性状態のホスト計算機が制御することで生成した次のバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、前記カタログ情報として前記メモリに格納し、
(M)前記管理用カタログ情報を参照することで、前記アプリケーションプログラムに対応するバックアップデータの生成時間として、前記第四の論理ボリュームに格納された前記次のバックアップデータの生成時間を前記入出力装置に表示し、前記第三の論理ボリュームに格納された前記バックアップデータの生成時間の表示を抑止してもよいことも説明した。
10…管理計算機 20…プロセッサ 30…管理ポート 40…メモリ 200…ホスト計算機 250…クライアント計算機 1000…ストレージサブシステム

Claims (5)

  1. 複数の論理ボリュームを提供し、一つ以上の装置から構成されるストレージシステムと、複数の計算機と、を管理する管理システムであって、
    前記管理システムは、
    前記複数のホスト計算機と接続するポートと、
    クラスタ情報を格納するメモリと、
    前記複数の計算機同士で発生したフェールオーバを検知して前記クラスタ情報を更新するプロセッサと、
    入力用の仮想ホスト識別子と、入力用のアプリケーションインスタンス識別子と、バックアップスケジュール入力値と、を含むバックアップ設定要求を受信する、入出力装置と、
    を有し、
    前記プロセッサは
    前記入出力装置より、前記仮想ホスト識別子とともに前記複数のホスト計算機のうちの第1ホスト計算機及び第2ホスト計算機を指定してクラスタの設定を受け付けると、
    前記第1ホスト計算機及び第2ホスト計算機より、前記ストレージシステムからそれぞれのホスト計算機に提供されている論理ボリュームの情報を取得し、
    前記第1ホスト計算機及び第2ホスト計算機に提供されている論理ボリュームの情報を比較することにより、前記設定するクラスタの種別を判断し、
    前記仮想ホスト識別子と、前記第1ホスト計算機及び第2ホスト計算機とを対応づけて、前記クラスタの種別とともに前記クラスタ情報に格納し、
    前記入出力装置より前記バックアップ設定要求を受け付けると、
    (A)前記クラスタ情報を参照して、前記複数のホスト計算機に含まれ、前記入力用の仮想ホスト識別子に対応する活性状態のホスト計算機と、前記活性状態のホスト計算機に対応する非活性状態のホスト計算機とを特定し、
    (B)前記入力用のアプリケーションインスタンス識別子にて識別されるアプリケーションプログラムを実行することで前記活性状態のホスト計算機がアクセスする、前記ストレージシステムに含まれる第一のストレージサブシステムと前記第一のストレージサブシステムが提供する第一の論理ボリュームとを特定し、
    (C)前記クラスタ情報を参照して、前記活性状態のホスト計算機と前記非活性状態のホスト計算機とが構成するクラスタの種別に基づき、前記非活性状態のホスト計算機が前記第一のストレージサブシステム及び前記第一の論理ボリュームにアクセス可能か判断し、
    (D)前記非活性状態のホスト計算機が前記第一の論理ボリュームにアクセス可能でない場合、前記非活性状態のホスト計算機からアクセス可能な前記ストレージシステムに含まれる第二のストレージサブシステムを選択し、前記第一の論理ボリュームをコピー元として前記第二のストレージサブシステムが提供する第二の論理ボリュームをコピー先とするディザスタリカバリ用途のレプリケーション構築指示を前記第一のストレージシステムへ送信し、
    (E)前記ポートを介して、前記バックアップスケジュール入力値に基づき作成したバックアップスケジュール指示情報を含むバックアップスケジュール登録指示を活性状態のホスト計算機に送信することで、前記バックアップスケジュール入力値に従った前記第一の論理ボリュームをコピー元とし、前記第一のストレージサブシステムが含む一つ以上の第三の論理ボリュームをコピー先とする、バックアップ用レプリケーション処理の制御を前記活性状態のホスト計算機に行わせる、
    ことを特徴とした管理システム。
  2. 請求項1記載の管理システムであって、
    前記プロセッサは
    (F)前記活性状態のホスト計算機からレプリケーション処理の情報を取得することで、前記バックアップスケジュール入力値に従って作成されたバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、管理用カタログ情報として前記メモリに格納し、
    (G)前記管理用カタログ情報を参照することで、前記入力用仮想ホスト識別子及び前記入力用アプリケーションインスタンス識別子で指定された前記アプリケーションプログラムに対応するバックアップデータの生成時間を一つ以上、前記入出力装置に表示させる、
    ことを特徴とした管理システム。
  3. 請求項2記載の管理システムであって、
    前記入力装置は、前記入力用の仮想ホスト識別子及び前記入力用のアプリケーションインスタンス識別子と、前記バックアップデータの生成時間表示に基いて入力された所定のバックアップデータを指定したリストア指示を受信し、
    前記プロセッサは、前記リストア指示で指定されたバックアップデータを格納する前記第三の論理ボリュームの一つを特定し、前記特定された第三の論理ボリュームの一つを指定したリストア指示を前記活性状態のホスト計算機へ送信することで、前記ストレージシステムに、前記第三の論理ボリュームの一つに格納されたバックアップデータを前記第一の論理ボリュームへ戻させる、
    ことを特徴とした管理システム。
  4. 請求項3記載の管理システムであって、
    前記不活性状態のホスト計算機が、フェールオーバによって前記活性状態のホスト計算機から前記アプリケーションプログラムの処理を引き継ぐことで次の活性状態のホスト計算機となった場合、前記プロセッサは
    (H)前記次の活性状態のホスト計算機が前記活性状態のホスト計算機から引き継いだ、前記バックアップスケジュール入力値に基くバックアップ用レプリケーション処理の制御の次の情報を取得し、
    (I)前記次の情報に従って、活性状態のホスト計算機が制御することで生成した次のバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、前記カタログ情報として前記メモリに格納し、
    (J)前記管理用カタログ情報を参照することで、前記アプリケーションプログラムに対応するバックアップデータの生成時間として、前記次のバックアップデータの生成時間を前記入出力装置へ表示させる、
    ことを特徴とした管理システム。
  5. 請求項3記載の管理システムであって、
    前記不活性状態のホスト計算機が、前記第一のストレージサブシステムへアクセス可能でなく、フェールオーバによって前記活性状態のホスト計算機から前記アプリケーションプログラムの処理を引き継ぐことで次の活性状態のホスト計算機となった場合、前記プロセッサは
    (K)前記バックアップスケジュール入力値に基いた前記第二の論理ボリュームをコピー元として前記第二のストレージサブシステムが提供する一つ以上の第四の論理ボリュームをコピー先とする、次のバックアップ用レプリケーション処理の制御の次の情報を取得し、
    (L)前記次の情報に従って、活性状態のホスト計算機が制御することで生成した次のバックアップデータの生成時間、及び前記バックアップデータを格納する前記一つ以上の第三の論理ボリュームの識別子を、前記カタログ情報として前記メモリに格納し、
    (M)前記管理用カタログ情報を参照することで、前記アプリケーションプログラムに対応するバックアップデータの生成時間として、前記第四の論理ボリュームに格納された前記次のバックアップデータの生成時間を前記入出力装置に表示し、前記第三の論理ボリュームに格納された前記バックアップデータの生成時間の表示を抑止する、
    ことを特徴とした管理システム。
JP2009223617A 2009-09-29 2009-09-29 クラスタを考慮してレプリケーションを管理する管理方法及びシステム Expired - Fee Related JP5508798B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009223617A JP5508798B2 (ja) 2009-09-29 2009-09-29 クラスタを考慮してレプリケーションを管理する管理方法及びシステム
US12/687,770 US8086895B2 (en) 2009-09-29 2010-01-14 Management method and system for managing replication by taking into account cluster storage accessibility a host computer
US13/237,229 US8341455B2 (en) 2009-09-29 2011-09-20 Management method and system for managing replication by taking into account cluster storage accessibility to a host computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009223617A JP5508798B2 (ja) 2009-09-29 2009-09-29 クラスタを考慮してレプリケーションを管理する管理方法及びシステム

Publications (2)

Publication Number Publication Date
JP2011076128A JP2011076128A (ja) 2011-04-14
JP5508798B2 true JP5508798B2 (ja) 2014-06-04

Family

ID=43781635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223617A Expired - Fee Related JP5508798B2 (ja) 2009-09-29 2009-09-29 クラスタを考慮してレプリケーションを管理する管理方法及びシステム

Country Status (2)

Country Link
US (2) US8086895B2 (ja)
JP (1) JP5508798B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11876380B2 (en) 2018-10-09 2024-01-16 Mitsubishi Heavy Industries Engine & Turbocharger, Ltd. Hybrid power generation system and control method of hybrid power generation system

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011024221A1 (en) * 2009-08-26 2011-03-03 Hitachi,Ltd. Remote copy system
US8812799B2 (en) 2009-12-11 2014-08-19 International Business Machines Corporation Cluster families for cluster selection and cooperative replication
US10387927B2 (en) * 2010-01-15 2019-08-20 Dell Products L.P. System and method for entitling digital assets
US9235399B2 (en) 2010-01-15 2016-01-12 Dell Products L.P. System and method for manufacturing and personalizing computing devices
US9256899B2 (en) 2010-01-15 2016-02-09 Dell Products, L.P. System and method for separation of software purchase from fulfillment
US8522069B2 (en) * 2010-01-21 2013-08-27 Wincor Nixdorf International Gmbh Process for secure backspacing to a first data center after failover through a second data center and a network architecture working accordingly
US9100396B2 (en) 2010-01-29 2015-08-04 Dell Products L.P. System and method for identifying systems and replacing components
US8170783B2 (en) 2010-03-16 2012-05-01 Dell Products L.P. System and method for handling software activation in entitlement
WO2011119173A1 (en) * 2010-03-26 2011-09-29 Carbonite, Inc. Transfer of user data between logical data sites
US20110270802A1 (en) * 2010-04-30 2011-11-03 International Business Machines Corporation Method for controlling changes of replication directions in a multi-site disaster recovery environment for high available application
US8812436B2 (en) * 2010-05-04 2014-08-19 Symantec Corporation Schedule based data lifecycle management
US8707087B2 (en) * 2010-05-18 2014-04-22 Dell Products L.P. Restoration of an image backup using information on other information handling systems
US8484503B2 (en) * 2010-08-18 2013-07-09 International Business Machines Corporation Disaster recovery replication throttling in deduplication systems
US9348712B1 (en) * 2010-12-22 2016-05-24 Netapp, Inc. Policy-based volume caching in a clustered storage system
US8380955B1 (en) * 2010-12-23 2013-02-19 Netapp, Inc. Method and system for naming replicated storage
US9020895B1 (en) * 2010-12-27 2015-04-28 Netapp, Inc. Disaster recovery for virtual machines across primary and secondary sites
US8751863B2 (en) * 2011-05-23 2014-06-10 Microsoft Corporation Implementing failover processes between storage stamps
US9575684B2 (en) * 2011-12-30 2017-02-21 Oracle International Corporation Logically partitioning remote virtual library extensions for use in disaster recovery of production data
JP5982826B2 (ja) * 2012-01-06 2016-08-31 富士通株式会社 環境構築装置、環境登録装置、環境切替装置、環境構築方法、環境登録方法、環境切替方法、環境構築プログラム、環境登録プログラム、及び環境切替プログラム
US9116862B1 (en) 2012-01-17 2015-08-25 Amazon Technologies, Inc. System and method for data replication using a single master failover protocol
US8843441B1 (en) 2012-01-17 2014-09-23 Amazon Technologies, Inc. System and method for maintaining a master replica for reads and writes in a data store
US9489434B1 (en) 2012-01-17 2016-11-08 Amazon Technologies, Inc. System and method for replication log branching avoidance using post-failover rejoin
US9069827B1 (en) 2012-01-17 2015-06-30 Amazon Technologies, Inc. System and method for adjusting membership of a data replication group
EP2825967A4 (en) * 2012-03-15 2015-10-14 Hewlett Packard Development Co ACCESS TO AND BACKUP OF SAVING DATA OBJECTS
WO2013136339A1 (en) 2012-03-15 2013-09-19 Hewlett-Packard Development Company, L.P. Regulating replication operation
JP5853819B2 (ja) * 2012-03-29 2016-02-09 富士通株式会社 制御プログラム、制御方法、記憶制御装置および情報処理システム
US8949401B2 (en) 2012-06-14 2015-02-03 Dell Products L.P. Automated digital migration
WO2014006661A1 (en) 2012-07-05 2014-01-09 Hitachi, Ltd. Management apparatus and management method
US8468139B1 (en) 2012-07-16 2013-06-18 Dell Products L.P. Acceleration of cloud-based migration/backup through pre-population
US9779219B2 (en) 2012-08-09 2017-10-03 Dell Products L.P. Method and system for late binding of option features associated with a device using at least in part license and unique ID information
US8874956B2 (en) * 2012-09-18 2014-10-28 Datadirect Networks, Inc. Data re-protection in a distributed replicated data storage system
US8904133B1 (en) 2012-12-03 2014-12-02 Hitachi, Ltd. Storage apparatus and storage apparatus migration method
US10440132B2 (en) * 2013-03-11 2019-10-08 Amazon Technologies, Inc. Tracking application usage in a computing environment
US10592347B2 (en) 2013-05-16 2020-03-17 Hewlett Packard Enterprise Development Lp Selecting a store for deduplicated data
US10496490B2 (en) 2013-05-16 2019-12-03 Hewlett Packard Enterprise Development Lp Selecting a store for deduplicated data
US9606870B1 (en) 2014-03-31 2017-03-28 EMC IP Holding Company LLC Data reduction techniques in a flash-based key/value cluster storage
US9389968B2 (en) * 2014-04-30 2016-07-12 Netapp, Inc. Preventing non-detectable data loss during site switchover
WO2015189925A1 (ja) * 2014-06-11 2015-12-17 株式会社日立製作所 ストレージシステム、ストレージ装置及びデータ移行方法
CN106605217B (zh) 2014-09-08 2019-08-27 微软技术许可有限责任公司 用于将应用从一个站点移动到另一站点的方法和系统
US10025843B1 (en) * 2014-09-24 2018-07-17 EMC IP Holding Company LLC Adjusting consistency groups during asynchronous replication
US10097630B2 (en) * 2014-10-01 2018-10-09 Red Hat, Inc. Transferring data between sites
US9087001B1 (en) * 2015-01-16 2015-07-21 Storagecraft Technology Corporation Virtualizing multiple networked machines using a predetermined network recovery policy
JP6000391B2 (ja) * 2015-03-18 2016-09-28 株式会社日立製作所 ストレージシステムのデータ移行方法
US10599676B2 (en) 2015-12-15 2020-03-24 Microsoft Technology Licensing, Llc Replication control among redundant data centers
US10235406B2 (en) 2015-12-15 2019-03-19 Microsoft Technology Licensing, Llc Reminder processing of structured data records among partitioned data storage spaces
US10248709B2 (en) 2015-12-15 2019-04-02 Microsoft Technology Licensing, Llc Promoted properties in relational structured data
US11226985B2 (en) 2015-12-15 2022-01-18 Microsoft Technology Licensing, Llc Replication of structured data records among partitioned data storage spaces
US10152527B1 (en) 2015-12-28 2018-12-11 EMC IP Holding Company LLC Increment resynchronization in hash-based replication
US10310951B1 (en) 2016-03-22 2019-06-04 EMC IP Holding Company LLC Storage system asynchronous data replication cycle trigger with empty cycle detection
US10324635B1 (en) 2016-03-22 2019-06-18 EMC IP Holding Company LLC Adaptive compression for data replication in a storage system
US10565058B1 (en) 2016-03-30 2020-02-18 EMC IP Holding Company LLC Adaptive hash-based data replication in a storage system
US9959073B1 (en) 2016-03-30 2018-05-01 EMC IP Holding Company LLC Detection of host connectivity for data migration in a storage system
US9959063B1 (en) * 2016-03-30 2018-05-01 EMC IP Holding Company LLC Parallel migration of multiple consistency groups in a storage system
US10095428B1 (en) 2016-03-30 2018-10-09 EMC IP Holding Company LLC Live migration of a tree of replicas in a storage system
US9983937B1 (en) 2016-06-29 2018-05-29 EMC IP Holding Company LLC Smooth restart of storage clusters in a storage system
US10013200B1 (en) 2016-06-29 2018-07-03 EMC IP Holding Company LLC Early compression prediction in a storage system with granular block sizes
US10048874B1 (en) 2016-06-29 2018-08-14 EMC IP Holding Company LLC Flow control with a dynamic window in a storage system with latency guarantees
US10761767B2 (en) * 2016-07-12 2020-09-01 Hitachi, Ltd. Computer system and method for controlling storage apparatus that has replication direction from first logical device (in first storage) to second logical device (in second storage) and from said second logical device to third logical device (in said second storage), wherein said replication direction is reversed when second computer takes over for first computer
US10310750B2 (en) 2016-10-12 2019-06-04 International Business Machines Corporation Managing disaster recovery replication for storage volumes
US10963356B2 (en) 2018-04-18 2021-03-30 Nutanix, Inc. Dynamic allocation of compute resources at a recovery site
WO2020148815A1 (ja) * 2019-01-15 2020-07-23 富士通株式会社 引継プログラム、引継方法、情報処理装置、および並列分散処理システム
US11093346B2 (en) * 2019-06-03 2021-08-17 EMC IP Holding Company LLC Uninterrupted backup operation using a time based approach
US10990464B1 (en) * 2019-09-04 2021-04-27 Amazon Technologies, Inc. Block-storage service supporting multi-attach and health check failover mechanism
CN111385377B (zh) * 2020-03-03 2022-08-09 深信服科技股份有限公司 一种ip地址冲突处理方法、设备及存储介质
US11556430B2 (en) * 2021-02-11 2023-01-17 EMC IP Holding Company LLC Selecting restore processes for applications hosted on storage volumes that are part of group replication sessions
US11853099B2 (en) * 2022-05-12 2023-12-26 Hitachi, Ltd Recovery method of remote copy

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638509A (en) * 1994-06-10 1997-06-10 Exabyte Corporation Data storage and protection system
US6185695B1 (en) * 1998-04-09 2001-02-06 Sun Microsystems, Inc. Method and apparatus for transparent server failover for highly available objects
US8195760B2 (en) * 2001-01-11 2012-06-05 F5 Networks, Inc. File aggregation in a switched file system
JP2003248596A (ja) * 2002-02-26 2003-09-05 Hitachi Ltd 多重計算機システムにおける処理の引継方法
US6865655B1 (en) * 2002-07-30 2005-03-08 Sun Microsystems, Inc. Methods and apparatus for backing up and restoring data portions stored in client computer systems
JP4345313B2 (ja) * 2003-01-24 2009-10-14 株式会社日立製作所 ポリシーに基づいたストレージシステムの運用管理方法
JP3974538B2 (ja) * 2003-02-20 2007-09-12 株式会社日立製作所 情報処理システム
US20040181707A1 (en) * 2003-03-11 2004-09-16 Hitachi, Ltd. Method and apparatus for seamless management for disaster recovery
US7380081B2 (en) * 2003-06-06 2008-05-27 Hewlett-Packard Development Company, L.P. Asynchronous data redundancy technique
JP2005062928A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 複数のサイトにリモートコピーを行うシステム
JP2006074339A (ja) * 2004-09-01 2006-03-16 Fuji Xerox Co Ltd 符号化装置、復号化装置、符号化方法、復号化方法、及びこれらのプログラム
JP4475079B2 (ja) * 2004-09-29 2010-06-09 株式会社日立製作所 計算機システムの構成管理方法
US7383406B2 (en) * 2004-11-19 2008-06-03 International Business Machines Corporation Application transparent autonomic availability on a storage area network aware file system
US7778984B2 (en) * 2004-11-19 2010-08-17 Microsoft Corporation System and method for a distributed object store
US7509530B2 (en) * 2005-01-19 2009-03-24 Sonic Solutions Method and system for use in restoring an active partition
EP1929412A4 (en) * 2005-08-23 2009-10-28 Mimosa Systems Inc MIGRATION ENTERPRISE SERVER VERSION BY PRESERVING IDENTITY
US7370235B1 (en) * 2005-09-29 2008-05-06 Emc Corporation System and method for managing and scheduling recovery after a failure in a data storage environment
JP4887893B2 (ja) * 2006-04-26 2012-02-29 株式会社日立製作所 計算機システム及び計算機システムの制御方法
JP4833734B2 (ja) * 2006-05-19 2011-12-07 株式会社日立製作所 データベースシステム、ストレージ装置、初期コピー方法及びログ適用方法
JP5142629B2 (ja) * 2007-08-22 2013-02-13 株式会社日立製作所 仮想ボリュームのバックアップを行うストレージシステム及び方法
JP4977595B2 (ja) * 2007-12-21 2012-07-18 株式会社日立製作所 リモートコピーシステム、リモートコピー環境設定方法、データリストア方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11876380B2 (en) 2018-10-09 2024-01-16 Mitsubishi Heavy Industries Engine & Turbocharger, Ltd. Hybrid power generation system and control method of hybrid power generation system

Also Published As

Publication number Publication date
US8086895B2 (en) 2011-12-27
US20110078494A1 (en) 2011-03-31
US20120011394A1 (en) 2012-01-12
JP2011076128A (ja) 2011-04-14
US8341455B2 (en) 2012-12-25

Similar Documents

Publication Publication Date Title
JP5508798B2 (ja) クラスタを考慮してレプリケーションを管理する管理方法及びシステム
US6598174B1 (en) Method and apparatus for storage unit replacement in non-redundant array
US6571354B1 (en) Method and apparatus for storage unit replacement according to array priority
US10146453B2 (en) Data migration using multi-storage volume swap
US7415506B2 (en) Storage virtualization and storage management to provide higher level storage services
JP4939102B2 (ja) ネットワークブート計算機システムの高信頼化方法
US8832372B2 (en) Network storage systems having clustered raids for improved redundancy and load balancing
JP4902403B2 (ja) 情報システム及びデータ転送方法
EP1760591B1 (en) System and method of managing access path
US8909985B2 (en) Multiple hyperswap replication sessions
US9395928B2 (en) Storage system group including scale-out storage system and management method therefor
JP4572250B2 (ja) 計算機切り替え方法、計算機切り替えプログラム及び計算機システム
JP5352115B2 (ja) ストレージシステム及びその監視条件変更方法
US20060179218A1 (en) Method, apparatus and program storage device for providing geographically isolated failover using instant RAID swapping in mirrored virtual disks
WO2014083598A1 (en) Hierarchical storage system and file management method
JP2008107896A (ja) 物理資源制御管理システム、物理資源制御管理方法および物理資源制御管理用プログラム
US20160342490A1 (en) Method and apparatus to virtualize remote copy pair in three data center configuration
JP2009043054A (ja) ストレージシステム及びバックアップ方法
US20150195167A1 (en) Availability device, storage area network system with availability device and methods for operation thereof
JP6335336B2 (ja) ストレージシステムおよびその制御方法
JP5484434B2 (ja) ネットワークブート計算機システム、管理計算機、及び計算機システムの制御方法
JP7142052B2 (ja) ハイブリッドクラウドにおけるデータを保護する方法
JP2004272318A (ja) 系切り替えシステムおよびその処理方法並びにその処理プログラム
Dell
WO2014155654A1 (ja) 情報処理装置及び情報処理装置の交換支援システム並びに交換支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R151 Written notification of patent or utility model registration

Ref document number: 5508798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees