JP2006134164A - ストレージシステムの管理方法 - Google Patents

ストレージシステムの管理方法 Download PDF

Info

Publication number
JP2006134164A
JP2006134164A JP2004323902A JP2004323902A JP2006134164A JP 2006134164 A JP2006134164 A JP 2006134164A JP 2004323902 A JP2004323902 A JP 2004323902A JP 2004323902 A JP2004323902 A JP 2004323902A JP 2006134164 A JP2006134164 A JP 2006134164A
Authority
JP
Japan
Prior art keywords
volume
application
program
pair
status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004323902A
Other languages
English (en)
Other versions
JP4596889B2 (ja
Inventor
Shogo Mikami
小吾 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004323902A priority Critical patent/JP4596889B2/ja
Priority to US11/033,402 priority patent/US7206912B2/en
Priority to EP05006928A priority patent/EP1662392A3/en
Publication of JP2006134164A publication Critical patent/JP2006134164A/ja
Priority to US11/714,744 priority patent/US7415629B2/en
Application granted granted Critical
Publication of JP4596889B2 publication Critical patent/JP4596889B2/ja
Anticipated expiration legal-status Critical
Active legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2058Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using more than 2 mirrored copies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/004Error avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】差分スナップショットとボリュームスナップショットを併用して、差分ボリュームの消費を抑制することを目的とする。
【解決手段】複数のプログラムから構成されたアプリケーションを提供するアプリケーションサーバと、プログラムが利用するデータを格納する第1のボリュームと、当該第1のボリュームの複製を格納するペア状態に設定された第2のボリュームを複数備え、複数のプログラムのうちのいずれかひとつを特定するとともに、前記特定したプログラムが利用する第1のボリュームを特定し(S11)、前記第1のボリュームとペア状態に設定された全ての第2のボリュームを抽出して(S14〜S17)、前記抽出した第1のボリュームと第2のボリュームを前記プログラム毎に集計する(S18)。
【選択図】図11

Description

本発明は、複数のボリューム間で、アプリケーションのデータを複製するストレージシステムに関する。
ネットワークを経由して複数のサーバから統合化されたストレージ装置にアクセスするSAN(Storage Area Network)や、NAS(Network Attached Storage)では、大規模化や高機能化が進みつつある。
高機能化の一例として、ストレージ装置に備えたリモートコピー機能を利用して、サーバ上で動作するアプリケーションのデータを、業務を継続しながら遠隔地などに複製(レプリケーション)を行い、冗長性を高める手法が知られている。
そして、複数のサーバが複数のストレージ装置を利用するため、ストレージ装置とネットワークからなるストレージシステムは大規模化、複雑化する傾向にあり、ストレージ装置を効率よく運用するため、ストレージ装置及びストレージ装置とサーバを接続するためのネットワークに発生する障害を迅速に検知するものが知られている(例えば、特許文献1)。
この従来例では、ストレージシステムを構成する機器からのイベント・メッセージを取得し、このイベント・メッセージの重要度に応じて、管理コンソールに障害を通知する。
特開2004−133897号
しかし、上記従来例では、障害の発生した位置、すなわち、機器を特定することはできるが、この障害が発生した結果、リモートコピー機能を行ったレプリケーションについては、どのような影響が発生したかを知ることができない、という問題がある。
すなわち、ストレージシステムを管理する管理者(以下、ストレージ管理者)は、障害の発生した機器を特定し、その機器について修復を行えばよい。一方、サーバ上の業務(アプリケーション)を管理する管理者(以下、アプリケーション管理者)は、ストレージシステムに発生した障害により、各アプリケーション毎のレプリケーションにどのような影響があったのかを把握し、データの整合性を確保する必要がある。
しかしながら、大規模化したストレージシステムにおいて、レプリケーションに関連する障害が発生した場合、アプリケーション管理者が障害の位置を知ったとしても、特定のアプリケーションが利用しているストレージ装置のボリュームと、このボリュームのレプリケーション先のボリュームまでのレプリケーション関係にどのような影響があるかを調査するのは極めて難しい。また、複数のアプリケーションについてレプリケーションを行っている環境では、同一のボリュームを複数のアプリケーションで利用する場合もあり、このような環境では、レプリケーション関係に対して、ストレージシステムに発生した障害による影響範囲を把握することは極めて難しいという問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、アプリケーション管理者がアプリケーション毎のレプリケーションに関する障害を容易かつ迅速に把握することを目的とする。
本発明は、複数のプログラムから構成されたアプリケーションを提供するアプリケーションサーバと、前記プログラムが利用するデータを格納する第1のボリュームと、当該第1のボリュームの複製を格納するペア状態に設定された第2のボリュームを複数備え、前記複数のプログラムのうちのいずれかひとつを特定し、前記特定したプログラムが利用する第1のボリュームを特定し、前記第1のボリュームとペア状態に設定された全ての第2のボリュームを抽出して、前記抽出した第1のボリュームと第2のボリュームを前記プログラム毎に集計する。
また、前記第1のボリューム及び第2のボリュームの動作情報を収集し、前記動作情報に基づいて、前記ペア状態の障害または障害に至る状態を接続状態として検出して、前記特定したアプリケーションのプログラム毎に、前記ペア状態に設定された前記第1のボリュームと第2のボリュームと前記接続状態を集約して集計する。
したがって、本発明は、特定のプログラムが使用しているボリュームと、このボリュームからペア状態に設定される全てのボリュームに対するペア状態(レプリケーション関係)を監視し、データのレプリケーションに問題が発生していないかを監視することができる。
また、アプリケーション管理者は自分の管理しているアプリケーションのデータ、およびその複製先においてペア状態に異常が発生しているかどうかを集約された情報により一目で確認することができ、アプリケーション毎のレプリケーションに関する障害を容易かつ迅速に把握することが可能となる。
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、本発明を適用するシステム構成図である。LAN(Local Area Network)6には、アプリケーションプログラムを実行するアプリケーションサーバ2〜4と、ストレージ装置及びSAN(Storage Area Network)7を管理する管理サーバ1と、アプリケーションサーバ2〜4のアプリケーションプログラムを管理するアプリケーション管理端末5と、ストレージ装置(ストレージサブシステム)10000から10003が接続されている。なお、LAN6は、例えば、TCP/IPネットワークなどで構成される。また、SAN7は、例えば、FC(Fiber Channel)で構成され、SAN7を構成するFCスイッチ(図示省略)などもLAN6に接続される。
各アプリケーションサーバ2〜4は、SAN7を介してストレージ装置10000〜10003に接続され、データなどの読み書きを行う。管理サーバ1は、LAN6を介してストレージ装置10000〜10003やFCスイッチの設定や、動作情報(性能情報)の収集を行う。アプリケーション管理端末5は、後述するように、アプリケーションサーバ2〜4を管理するアプリケーション管理者などが指定したアプリケーションについて、レプリケーション関係をアプリケーションサーバ2〜4と管理サーバ1に問い合わせ、管理サーバ1からレプリケーション関係の整合性などを含む情報得て、アプリケーション管理者に通知する。
図1のシステム構成において、管理サーバ1は、CPU11、メモリ12、LANインターフェース14及びディスク装置13が設けられている。そして、LANインターフェース14を介して管理サーバ1がLAN6に接続される。メモリ12には後述するような制御プログラムがロードされており、CPU11が制御プログラムを呼び出して実行することによって後述する各種処理が行われる。
アプリケーションサーバ2は、CPU21、メモリ22、SAN7に接続されるSANインターフェース23、LANインターフェース24が設けられている。アプリケーションサーバ2はSANインターフェース23を介してSAN7上のストレージ装置10000〜10003にアクセスし、データの読み書きを行う。アプリケーションサーバ2のメモリ22には後述するようなアプリケーションプログラムがロードされており、CPU21がアプリケーションプログラムを呼び出して実行することによって、LAN6上の図示しないクライアントに業務を提供する。
なお、アプリケーションサーバ3、4も上記アプリケーションサーバ2と同様に構成され、所定のアプリケーションプログラムを実行し、SAN7を介してストレージ装置10000〜10003にデータのアクセスを行い、LAN6上の図示しないクライアントに業務を提供する。
次に、ストレージ装置(ストレージサブシステム)10000は、ディスク装置104と、ディスク装置104を制御するディスクコントローラ100を含んで構成されている。
図1において、ストレージ装置10000のディスクコントローラ100には、CPU、メモリ、キャッシュ、SANインターフェース101に接続されるポート102、LANインターフェース103及びディスクインターフェース105が設けられている。ディスクコントローラ100はディスクインターフェースを介して、ディスク装置104に接続され、ディスク装置104に設定されたボリュームにアクセスする。なお、ディスク装置104は、複数のディスクを備えている。
ポート102はSAN7に接続されて、アプリケーションサーバ2〜4との間でデータの送受を行う。また、LANインターフェース103を介してLAN6に接続され、管理サーバ1の指令に応じて、ディスク装置104のボリューム(記憶領域)の設定や動作情報の収集等を行う。なお、ポート102の詳細については、後述するように、アプリケーションサーバ2〜4と通信を行うためのホスト側ポートと、レプリケーション先のストレージ装置と通信するためのリモート側ポートが設けられる。
ディスクコントローラ100のメモリには制御プログラムがロードされており、CPU101が制御プログラムを呼び出して実行することによって、管理サーバ1の指令に基づくボリュームの設定処理や、ボリューム間またはストレージ装置間のリモートコピー(シャドウイメージ、ユニバーサルレプリケーション、トゥルーコピー)や、各ボリュームまたは各ポートの動作情報の取得処理等が行われる。なお、ユニバーサルレプリケーションは、ジャーナル・ファイル(アプリケーションサーバ2〜4からの書き込みデータの履歴情報)の転送によるリモート・コピーを指す。
また、ストレージ装置10001〜10003も上記ストレージ装置10000と同様に構成され、所定の制御プログラムを実行し、SAN7を介してアプリケーションサーバ2〜4からの要求に応じて、ディスク装置204、304、404上に設けられたボリュームにアクセスする。
そして、各ストレージ装置10000〜10003間では、後述するように、各ディスク装置のボリューム間でレプリケーションの関係が設定されている。
<ソフトウェア構成>
次に、図2を参照しながら、本実施形態のソフトウェア構成について説明する。
アプリケーションサーバ2〜4上のアプリケーションプログラムは、所定のストレージ装置のボリュームにデータを格納し、後述するように、このボリュームには、他のボリュームへレプリケーションを作成するペアボリュームが設定される。すなわち、アプリケーションサーバ2〜4が読み書きを行うボリュームをプライマリボリュームとすると、このプライマリボリュームの内容を他のボリューム(セカンダリボリュームとする)に書き込んでレプリケーションを作成する関係を、本実施形態では、ペア状態(またはペアボリューム)という。さらに、このセカンダリボリュームの内容を他のボリュームに書き込んで、プライマリボリュームのレプリケーションを作成する場合も、ペア状態に含まれるものとする。また、ペア状態は、同一のストレージ装置内のボリューム間や、異なるストレージ装置のボリューム間に適用でき、異なるストレージ装置間でレプリケーションの連鎖を行う場合(ペア状態のカスケード)も、ペア状態に含むものとする。
本実施形態では、アプリケーションサーバ2〜4上のアプリケーションプログラムから見たボリューム間のペア状態を監視し、ペア状態の異常を検出し、アプリケーション管理者に通知するものである。
まず、管理サーバ1では、SAN7に接続されたストレージ装置10000〜10003を管理するストレージ管理プログラム15が稼動しており、このストレージ管理プログラム15は、アプリケーション単位でボリューム間のペア状態と動作状態を監視して異常を検出し、アプリケーション管理端末5に、監視結果を通知する。
このため、ストレージ管理プログラム15は、所定の周期などで各ストレージ装置10000〜10003の構成情報(例えば、ボリュームの構成や、パスの構成)を各ディスクコントローラ100〜400より収集し、同様に所定の周期などで各ストレージ装置10000〜10003の動作情報(例えば、ボリューム毎のI/O頻度、スループットやサイドファイル使用率)をディスクコントローラ100〜400より収集して構成情報・動作情報テーブル16を更新する。なお、ストレージ管理プログラム15は、上記の他に、ストレージ装置10000〜10003毎のボリューム構成等を設定・変更する機能を有していても良い。なお、上記動作情報のI/O頻度は、I/Oバイト数/sec等で示され、スループットは、各ボリュームのデータ転送速度(kB/sec)等で表される値である。また、サイドファイル使用率は、各ペア状態のコピーに使用しているディスクコントローラのデータキャッシュの比率を示し、サイドファイル使用率が低ければ、コピーの際にデータの書き込みが円滑に行われ、逆に高ければデータの書き込みに用いるポートのスループットが低下した場合などを示すことができる。
管理サーバ1に監視されるストレージ装置10000〜10003のディスクコントローラ100〜400には、各ストレージ装置のボリューム構成等を管理する構成情報管理部110〜410と、各ボリュームの動作情報を管理する動作情報管理部120〜420を備えている。そして、管理サーバ1は、各ストレージ装置10000〜10003のディスクコントローラ100〜400に対して、所定の周期などで構成情報と動作情報を問い合わせて収集する。なお、ストレージ装置10000〜10003のディスクコントローラ100〜400が、所定の周期で構成情報と動作情報を管理サーバ1へ通知するようにしても良い。
次に、アプリケーションサーバ2〜4では、それぞれアプリケーションプログラムが稼動している。例えば、アプリケーションサーバ2では、アプリケーションAPP1が実行され、アプリケーションサーバ2では、アプリケーションAPP2が実行され、アプリケーションサーバ3では、アプリケーションAPP3が実行されている。アプリケーションは、一般に複数のプログラムから構成される場合があるので、例えば、アプリケーションサーバ2のアプリケーションAPP1は、アプリケーションプログラムAPP1−1.exeとアプリケーションプログラムAPP1−2.exeから構成される場合を示し、アプリケーションサーバ3、4のアプリケーションAPP2、3はそれぞれ単一のアプリケーションプログラムAPP2−1.exeとアプリケーションプログラムAPP3−1.exeから構成される場合を示している。
さらに、アプリケーションサーバ2〜4では、各アプリケーションAPP1〜3を管理するアプリケーション管理プログラム25、35、45が各アプリケーションサーバの監視エージェントとして稼動している。
各アプリケーション管理プログラム25〜45は、各アプリケーション名を遂行するプログラム一覧、各プログラムが使用するストレージ装置10000〜10003のボリューム一覧、それらのボリュームが当該アプリケーションの他のプログラム及または他アプリケーションのプログラムに共有されているかを示す情報を構成情報テーブル26、36、46として各アプリケーションサーバ毎に管理している。
このアプリケーションプログラム25〜45は、アプリケーション管理端末5からの指令に応じて、構成情報テーブル26、36、46の情報を管理サーバ1へ通知する。
アプリケーション管理端末5では、アプリケーションサーバ2〜4の各アプリケーション毎のペア状態を監視するための監視プログラム55が稼動している。この監視プログラム55は、各アプリケーションサーバ2〜4で遂行されるアプリケーション名に対応するアプリケーションプログラムの一覧(アプリケーション構成情報テーブル550)を有しており、アプリケーション管理者がプログラム名を指定した場合には、このアプリケーションテーブルからアプリケーション名に対応するアプリケーションプログラムを抽出する。そして、各アプリケーションプログラムを実行するアプリケーションサーバ2〜4のアプリケーション管理プログラムに対して、アプリケーションプログラムの構成情報を管理サーバ1へ通知するよう指令する。
そして、管理サーバ1のストレージ管理プログラム15がアプリケーション名毎に、ペア状態について参照した結果を、アプリケーション管理端末5の監視プログラム55に返信する。監視プログラム55はストレージ管理プログラム15から受信した監視結果を、アプリケーション管理端末5の図示しない表示装置などに表示する。
<ボリューム構成>
次に、各ストレージ装置10000〜10003に設定されたボリュームの構成及びペア状態の一例について、図3を参照しながら説明する。
図3において、ストレージ装置10000のディスク装置104には、ボリューム001、010、020が設定される。同様に、ストレージ装置10001のディスク装置204には、ボリューム002、011、021が設定され、ストレージ装置10002のディスク装置304にはボリューム003、004、012が設定され、ストレージ装置10003のディスク装置404には、ボリューム005が設定される。
そして、ストレージ装置10000では、ホスト側ポートとしてポートCL1−Aが設けられ、ボリューム001、010、020が接続されて、アプリケーションサーバ2〜4と通信を行う。さらに、ボリューム001と020は、リモート側ポートとしてのポートCL1−Dを介してストレージ装置10001に接続される。
ストレージ装置10001では、ホスト側ポートとしてポートCL1−BとCL2−Bが設けられ、ボリューム002がポートCL1−Bに接続され、ボリューム011がポートCL2−Bに接続されて、アプリケーションサーバ2〜4と通信を行う。さらに、ボリューム002と011は、リモート側ポートとしてのポートCL1−Eを介してストレージ装置10002に接続される。
ここで、ストレージ装置10000のボリューム001はペア状態のプライマリ(コピーもと)となり、ストレージ装置10001のボリューム002はペア状態のセカンダリ(コピー先)に設定され、ボリューム001のレプリケーションをボリューム002に作成するペア状態が設定される。なお、このペア状態は、管理サーバ1により予め設定されるものである(以下同様)。
同様に、ストレージ装置10000のボリューム010とストレージ装置10001のボリューム011もペア状態(コピー関係)に設定され、ストレージ装置10000のボリューム020は、ストレージ装置10001のボリューム021とペア状態に設定される。ただし、ボリューム021はホスト側ポートがないので、ボリューム020と021のペア状態は、Simplex(図中SMPL)となる。
次に、ストレージ装置10002では、ホスト側ポートとしてポートCL2−BとCL1−Aが設けられ、ボリューム003がポートCL2−Bに接続され、ボリューム004がポートCL1−Aに接続されて、アプリケーションサーバ2〜4と通信を行う。さらに、ボリューム012は、リモート接続用ポートを介してストレージ装置10001に接続される。
ここで、ストレージ装置10002のボリューム003と004は、ボリューム003がプライマリとなるペア状態(ローカルコピー)に設定される。
また、ストレージ装置10001のボリューム002はペア状態のプライマリ(コピーもと)となり、ストレージ装置10002のボリューム003はペア状態のセカンダリ(コピー先)に設定され、ボリューム002のレプリケーションをボリューム003に作成し、さらに、ボリューム003のレプリケーションをボリューム004に作成するペア状態のカスケードが設定される。
また、ストレージ装置10001のボリューム011とストレージ装置10002のボリューム012もペア状態に設定される。
最後に、ストレージ装置10003のボリューム005はリモート接続用ポートを介してストレージ装置10002に接続され、ボリューム004とボリューム005がペア状態に設定される。
すなわち、ボリューム001のデータは、ボリューム002、003、004、005のペア状態のカスケードによりレプリケーションが行われる。また、ボリューム021のデータはボリューム021にレプリケーションが作成される単純なペア状態に設定される。また、ボリューム010のデータは、ボリューム011、012に順次レプリケーションが行われるペア状態のカスケードが設定される。
次に、アプリケーションサーバ2〜4とストレージ装置10000〜10003のボリュームの関係は、図4のアプリケーション構成情報テーブル550の例のように設定される。なお、このアプリケーション構成情報テーブル550は、アプリケーション管理者などがアプリケーション管理端末5から予め設定するものである。
この例では、アプリケーションAPP1のプログラムAPP1−1.exeとアプリケーションAPP3のプログラムAPP3−1.exeがストレージ装置10000のボリューム001を使用し、アプリケーションAPP1のプログラムAPP1−2.exeがストレージ装置10000のボリューム020を使用し、アプリケーションAPP2のプログラムAPP2−1.exeがストレージ装置10000のボリューム010を使用する。
<概要>
次に、アプリケーション管理端末5の監視プログラム55とアプリケーションサーバ2〜4のアプリケーション管理プログラム25〜45及び管理サーバ1で行われるアプリケーションから見たボリュームのペア状態監視について、まず、全体的な動作を説明する。
まず、管理サーバ1は、事前又は定期的に、ストレージ装置10000〜10003の各ディスクコントローラから構成情報、動作情報を収集し、管理サーバ1の構成情報・動作情報テーブル16に格納する。構成情報・動作情報テーブル16の中には、ボリュームのペア関係の連鎖(カスケードの構成)、割り当てられているポートの関係等を含み、その動作情報には、ペア状態、コピーの方向、I/O頻度、サイドファイル使用率、ポート間のスループット情報等を含む(図2のS1)。
この構成情報・動作情報テーブル16の一例を図5に示す。図5において、プライマリ欄1611には、コピー元となるボリュームの識別子とストレージ装置(ストレージサブシステム)の識別子が格納され、セカンダリ欄1612にはコピー先となるボリュームの識別子とストレージ装置の識別子が格納される。ホスト側ポートID1613には、プライマリ欄1611に指示されたボリュームのホスト側ポートの識別子が格納され、リモート側ポートID1614には、プライマリ欄1611に指示されたボリュームのリモート側ポートの識別子が格納される。
そして、接続状態1615には、プライマリ欄1611のボリューム(以下、プライマリボリューム)とセカンダリ欄1612のボリューム(以下、セカンダリボリューム)の接続状態が格納される。この接続状態は、例えば、「COPY」がレプリケーション(シャドウイメージ)が正常な状態を示し、「ERROR」はレプリケーションに問題(障害)が生じた場合を示し、「SMPL」は上記Simplexが正常な状態を示し、「WARN」はレプリケーションに問題(障害)の生じる恐れがある場合を示し、「PAIR」はレプリケーション(ユニバーサルレプリケーション)が正常な状態を示す。
I/O頻度1616は、プライマリボリュームのホスト側ポートの単位時間当たりのI/O転送量を示し、スループット1617はプライマリボリュームとセカンダリボリューム間の単位時間当たりのデータ転送速度を示し、サイドファイル使用率1618はペア状態のレプリケーションに用いるキャッシュの使用率を示す。なお、I/O頻度1616とスループット1617は、ホスト側ポートとリモート側ポートのそれぞれについて動作情報取得しても良い。
次に、アプリケーション管理者は、アプリケーション端末5から監視対象のアプリケーション名(業務名、アプリケーションプログラム名でも良い)を入力する(図2のS2)。
アプリケーション管理端末5には、予めアプリケーション構成情報テーブル550が設定されている。このアプリケーション構成情報テーブル550は、アプリケーション名551に対応するプログラムの識別子を格納するプログラム名552と、プログラム識別子で指し示すプログラムが使用するストレージ装置のボリューム識別子を格納するボリュームID553と、当該ボリュームIDを使用する他のアプリケーション名を格納する共有アプリケーション名554と、ボリュームIDで指示されたボリュームとペア状態にあるボリュームの状態が、電子メールにより通知(警告)を行うレベルを格納する通知レベル555と、通知を行う電子メールアドレスを格納する送付先556と、アプリケーション名551を実行するアプリケーションサーバの識別子を示すサーバ名557とから構成される。
上記入力がアプリケーションプログラム名ならば、監視プログラム55は図4に示すアプリケーション構成情報テーブル550を参照し、プログラム名552に該当するアプリケーションサーバ2のアプリケーション管理プログラム25〜45へ、当該プログラムの監視を通知する(図2のS3)。また、上記入力がアプリケーション名であれば、アプリケーション構成情報テーブル550を参照し、アプリケーション名551に該当するプログラム名552を抽出し、当該プログラムを実行するアプリケーションサーバのアプリケーション管理プログラム25〜45へそれぞれ当該プログラムの監視を通知する。
各アプリケーションサーバ2〜4では、アプリケーション管理端末5からのアプリケーション名またはプログラム名の特定に応じて、アプリケーション管理プログラム25〜45が構成情報テーブル26〜46を参照し、該当するプログラム名についてボリューム等の情報を取得する(図2のS4)。
ここで、構成情報テーブル26〜46は、上記図4に示したアプリケーション管理端末5のうち、アプリケーション名551、プログラム名552、ボリュームID553、共有アプリケーション名554から構成され、各アプリケーションサーバで実行しているアプリケーション名についての情報を有するテーブルである。
そして、アプリケーション管理プログラム25〜45は、該当するアプリケーション名について、各プログラムが使用するボリューム一覧と、それらのボリュームが当該アプリケーションの他のプログラム又は他アプリケーションのプログラムに共有されているかを示す情報を、管理サーバ1に送る(図2のS5)。
管理サーバ1のストレージ管理プログラム15は、各アプリケーションサーバ2〜4から受け取ったボリューム一覧について、構成情報・動作情報テーブル16を参照し、ボリューム一覧の各ボリュームに関してペア状態(ペアボリューム)の構成情報、及びそれらの動作状態を上記テーブル16から読み出す(図2のS6)。
管理サーバ1は、読み出したペア状態の構成情報と動作情報から、指定されたアプリケーション名に対応するプログラム一覧、各プログラムが使用するボリューム一覧、それらのボリュームが当該アプリケーションの他のプログラムまたは他アプリケーションのプログラムに共有されているかを示す情報と、ボリューム一覧の各ボリュームに関するペア情報、およびカスケードに含まれるボリュームの構成情報及び、それらの動作状態から、図6で示すように、プログラム名毎にボリュームのペア状態を集計し、各ペア状態の集約した接続状態を示すペア状態表示テーブル17を生成し、アプリケーション管理端末5へ送信する(図2のS7)。なお、図6はアプリケーション管理端末5で、アプリケーション名としてAPP1を入力したときの結果を示す。
この図6に示すペア状態表示テーブル17は、アプリケーション名561を構成するプログラムの識別子を格納するプログラム名562と、このプログラムが使用するペア状態のボリュームの識別子を一対で格納するペア名563と、各ペア毎の接続状態を格納する接続状態564と、各プログラム名毎にペアの接続状態を集約した接続状態(集約)565から構成される。
このペア状態表示テーブル17の接続状態(集約)565は、アプリケーション名561を構成する全てのペアのうち最も悪い状態を抽出したもので、例えば、「ERROR」が最悪の状態を示し、「WARN」が次に悪い状態を示し、その他が正常の状態の場合、図6のアプリケーションAPP1では、ペア名563のうち接続状態564が「ERROR」となっているペア名563の002−003の状態が、アプリケーションAPP1を代表するペアの状態として、監視プログラム55は「ERROR」を接続状態(集約)565に格納する。
そして、管理サーバ1のストレージ管理プログラム15は、上記のように編集されたペア状態表示テーブル17の情報を、アプリケーション管理端末5に送信する(図2のS7)。この情報を受信したアプリケーション管理端末5の監視プログラム55は、図示しない表示装置に上記ペア状態表示テーブル17を表示して、アプリケーション毎に集約されたペア状態をアプリケーション管理者などに通知する(図2のS8)。
このペア状態表示テーブル17を受信したアプリケーション管理端末5の監視プログラム55は、ペア状態表示テーブル17から各ペア名の接続状態564と、アプリケーション構成情報テーブル550の通知レベル555を比較し、該当するペアの接続状態564が、通知レベル555で設定された状態または設定された状態よりも悪いときには、所定の電子メール通知先556に対して、該当するアプリケーション名とペア状態と接続状態を含む電子メールを送信し、アプリケーション管理者に警告あるいは異常を通知する。
さらに、管理サーバ1は、ペア状態表示テーブル17の接続状態564にWARNまたはERRORがあれば、アプリケーションのレプリケーションに影響する範囲の特定を以下のように行う。
レプリケーション関係の影響範囲特定とは、監視対象となるアプリケーションに関連するペアボリュームの状態に対して異常が発生した、もしくは異常が発生しそうな場合に、アプリケーション管理者が対処を行なう必要のある範囲と、問題が影響を及ぼすと思われる範囲を選択的に表示する機能である。このとき、ストレージ管理プログラム15は発生した現象に関連する動作情報を取得し、その結果に応じて影響範囲の絞込みを行なうため、表面上、発生した現象が同じであった場合にも、その時の状況によって絞込みの行なわれる範囲は異なる。
以下に、ストレージ管理プログラム15が影響範囲を特定する例を二つ示す。なお、影響範囲の絞込みを行う処理の詳細については後述する。
1.I/O過多の場合
まず、アプリケーションのディスクI/O過多によるペア状態の異常発生の場合について説明する。
アプリケーション管理プログラム25〜45において「アプリケーションAPP2」が監視対象となっている場合に、ストレージ管理プログラム15が、上記図5において、ペア「010−011」のペア状態が「WARN」になっていることを検知した時点で、ストレージ管理プログラム15は表示情報の絞込みを行なうための追加情報取得を開始する。
ペア状態が「WARN」になる理由としては、大別して「ペアを連結するための接続に何らかの問題が発生した」か、「ペアのコピー元となるボリュームへの書き込みが多すぎるために、コピー処理(レプリケーション)に遅延が発生している」可能性が考えられる。そこで、ストレージ管理プログラム15は上記図5から「I/O頻度1616」、および「スループット1617」の統計情報を取得し、これらの値に対して急激な変化が発生していないかを調べる。本例の場合、I/O頻度1616がここ最近で大きく増えていることが統計情報から分かったとすると、ストレージ管理プログラム15は、ボリューム「010」がホスト接続に使用しているポート「CL1−A」に属しているボリューム「001」、「004」を上記図5の構成情報・動作情報テーブル16から抽出し、「対処を行なう必要のある範囲」として適切であると判断する。すなわち、図9で示すような状態である。
そして、図7に示した警告表示用テーブル18に必要な情報を格納した上で、アプリケーション管理端末5に、この警告表示テーブル18の情報を送る。そして、アプリケーション管理端末5の監視プログラム55は、受信した警告表示テーブル18を表示装置に出力する。
なお、図7の影響範囲表示テーブル18は、コピー元となるボリュームの識別子とストレージ装置(ストレージサブシステム)の識別子を格納するプライマリ欄1801と、コピー先となるボリュームの識別子とストレージ装置の識別子が格納されるセカンダリ欄1802と、プライマリ欄1801に指示されたボリュームにアクセスを行うアプリケーション名を格納する関連アプリケーション名1803と、プライマリ欄1801に指示されたボリュームのホスト側ポートの識別子を格納するホスト側ポートID1804と、ホスト側ポートID1804のI/O頻度1805と、同じくホスト側ポートのスループット1806と、ペア状態のレプリケーションに用いるキャッシュの使用率を格納するサイドファイル使用率1809と、プライマリ側のデータの整合性を格納するデータ整合性(プライマリ)1808と、セカンダリ側のデータの整合性を格納するデータ整合性(セカンダリ)1809とからなる。なお、ここではプライマリのボリュームとホスト(アプリケーションサーバ)側の経路情報としてポートIDを用いたが、パス情報などとしてもよい。
アプリケーション管理者は、アプリケーション管理端末5の表示装置に表示された影響範囲表示テーブル18により、アプリケーション「APP2」が使用しているボリューム「010」に対する負荷分散を行なうと共に、アプリケーション「APP1」、および「APP3」に関連するボリュームのホスト接続用の割り当てポートを変えることで、アプリケーションの性能劣化を未然に防ぐことができる。またこのとき、ペア「010−011」でのレプリケーション自体には異常が発生していないため、このペアボリュームとカスケード構成になっているペア「011−012」に関連するアプリケーション情報は影響範囲表示テーブル18に含まれない。
2.断線の場合
次に、SAN7を構成するファイバチャネルケーブル断線によりペア状態に異常が発生した場合を示す。
アプリケーション管理プログラム25〜45において「APP1」が監視対象となっている場合に、ストレージストレージ管理プログラム15が上記図5において、「002−003」のペア状態が「ERROR」になっていることを検知した時点で、ストレージ管理プログラム15は表示情報の絞込みを行なうための追加情報取得を開始する。
ペア状態が「ERROR」になる理由としては、大別して「ペアを連結するための接続に何らかの問題が発生した」か、「ペアのコピー元となるボリュームへの書き込みが多すぎるために、コピー処理に遅延が発生している」可能性が考えられる。
そこで、ストレージ管理プログラム15は上記図5の構成情報・動作情報テーブル16から「I/O頻度1616」、および「スループット1617」の統計情報を取得し、これらの値に対して急激な変化が発生していないかを調べる。本例の場合、スループット1617がある時点を境にして「0」になっていることが統計情報から分かったため、ストレージ管理プログラム15は、ボリューム「002」がリモートコピー用に使用しているリモート側のポート「CL1−E」に属しているペア「011−012」が「対処を行なう必要のある範囲」として適切であると判断する。すなわち、図10で示すような状態である。
そして、図8の影響範囲表示テーブル19に必要な情報を格納した上で、アプリケーション管理端末5にこの影響範囲表示テーブル19の情報を送る。影響範囲表示テーブル19を受信したアプリケーション管理端末5の監視プログラム55は、表示装置上に影響範囲表示テーブル19を出力する。
なお、図8の影響範囲表示テーブル19は、コピー元となるボリュームの識別子とストレージ装置(ストレージサブシステム)の識別子を格納するプライマリ欄1901と、コピー先となるボリュームの識別子とストレージ装置の識別子が格納されるセカンダリ欄1902と、プライマリ欄1901に指示されたボリュームにアクセスを行うアプリケーション名を格納する関連アプリケーション名1903と、プライマリ欄1901に指示されたボリュームのリモート側ポートの識別子を格納するリモート側ポートID1904と、リモート側ポートID1904のI/O頻度1905と、同じくリモート側ポートのスループット1906と、ペア状態のレプリケーションに用いるキャッシュの使用率を格納するサイドファイル使用率1909と、プライマリ側のデータの整合性を格納するデータ整合性(プライマリ)1908と、セカンダリ側のデータの整合性を格納するデータ整合性(セカンダリ)1909とからなる。
アプリケーション管理者はアプリケーション管理端末5上に表示された影響範囲表示テーブル19の情報により、アプリケーション「APP1」、および「APP3」が使用しているペア「002−003」に対するリンク障害の修復を行なうと共に、アプリケーション「APP2」に関連するペア「011−012」のリモートコピー接続用の割り当てポートを変えることで、レプリケーションに問題が生じるのを未然に防ぐことができる。またこのとき、ペア「002−003」においてレプリケーションが失敗しているため、これとカスケード構成になっているペア「003−004」については、プライマリボリュームの状態に問題があるものとして、影響範囲表示テーブル19に情報が格納されるが、ペア「004−005」については、ペア状態が「SMPL」になっているために影響はないと判断され、影響範囲表示テーブル19への情報の格納は行なわれない。
<処理の詳細>
次に、アプリケーション管理端末5、アプリケーションサーバ2〜4及び管理サーバ1で行われる各処理の詳細について、以下に説明する。
まず、図11はアプリケーションサーバ2〜4のアプリケーション管理プログラム25〜45、管理サーバ1のストレージ管理プログラム15で行われる処理の一例を示すフローチャートである。
S11がアプリケーション管理プログラム25〜45で行われる処理で、S12〜S19が管理サーバ1のストレージ管理プログラム15で行われる処理である。
まず、アプリケーション管理端末5の監視プログラム55は、上記図2のS1、S2で示したように、アプリケーション管理者など入力したアプリケーション名から、図4に示したアプリケーション構成情報テーブル550から対応するプログラム名とサーバ名を取得し、該当するプログラムを実行するアプリケーションサーバ2〜4に、監視するプログラム名を送信する。
次に、S11では、アプリケーション管理端末5の監視プログラム55からプログラム名を受信したアプリケーションサーバ2〜4のアプリケーション管理プログラム25〜45は、構成情報テーブル26、36、46を参照して、受信したプログラム名が使用するボリュームIDを取得して、管理サーバ1にアプリケーション名、プログラム名、ボリュームIDを送信する。
S12では、ストレージ管理プログラム15が、アプリケーションサーバ2〜4から受信したアプリケーション名とプログラム名を図6で示したペア状態表示テーブル17のアプリケーション名561とプログラム名562にそれぞれ格納する。
S13では、指定されたアプリケーション名が利用する全てのボリュームについてS14からS17の処理を行う。S13では、全てのボリュームについて処理が完了していなければS14へ進み、全て完了した場合にはS18へ進む。
S14では、ストレージ管理プログラム15は受信したボリュームIDから、上記図5に示した構成情報・動作情報テーブル16を検索して、セカンダリボリュームを取得し、プライマリ欄1611とセカンダリ欄1612のボリュームIDの組からペア名を決定し、該当するプライマリボリュームとセカンダリボリュームの接続状態1615を取得し、ペア名と接続状態をペア状態表示テーブル17のペア名563と、接続状態564に格納する。
次に、S15では該当するペアボリュームに対応するカスケード構成の有無を、上記図5の構成情報・動作情報テーブル16のリモート側ポート1614の情報の有無から判定する。リモート側ポート1614にポートIDが格納されて入れる場合には、カスケード構成が有りと判定してS16に進み、無しの場合にはS13に戻る。
S16では、セカンダリ欄1612のボリュームIDをプライマリとするプライマリ欄1611を検索してペア情報を選択する。
S17では、選択したプライマリ欄1611について上記S14と同様にして、ペア名を決定し、ペア状態を取得して、ペア状態表示テーブル17に格納する。その後、S15に戻って、カスケード構成の終点に達するまでS15〜S17の処理を繰り返した後、S13に戻る。
アプリケーションサーバ2〜4から指定されたプログラム名に対応するボリュームIDについて構成情報・動作情報テーブル16の検索が全て終了すると、S18に進んで、ペア状態表示テーブル17の接続状態(集約)565の設定を行ってペア状態表示テーブル17を生成する。
その後、ストレージ管理プログラム15は、ペア状態表示テーブル17の情報をアプリケーション管理端末5に送信して処理を終了する。そして、上述のように、アプリケーション管理端末5の監視プログラム55は、受信したペア状態表示テーブル17をアプリケーション管理端末5の表示装置に出力する。
アプリケーション管理者は、アプリケーション管理端末5にてペア状態表示テーブル17の接続状態(集約)565を見るだけで、指定したアプリケーション名について対処が必要なペア状態を即座に知ることができる。つまり、アプリケーション管理者は、ペア状態表示テーブル17の接続状態(集約)を見てERRORまたはWARNのアプリケーション名を探し、集約された接続状態565がERRORまたはWARNのアプリケーション名のうち、接続状態564がERRORまたはWARNとなっているペア名563を検索すれば、対処を行うべきペア状態を即座に把握することができる。
したがって、一つのアプリケーション名のデータについて多数のレプリケーションを行う場合や、レプリケーションをカスケード構成で実行する場合には、異常や警告となる状況がいずれのペア状態で生じたのかを即座に把握でき、迅速な対処を行うことができ、レプリケーションの欠損を回避し、あるいは欠損の回復を迅速に行うことが可能となる。
次に、上記図11のS18で行われるペア状態の集約処理について、図12のサブルーチンを参照しながら説明する。
S20では、ストレージ管理プログラム15は、ペア状態表示テーブル17のプログラム名に対応するペア名の接続状態(ペア状態)の一覧を取得する。
S21では、取得した接続状態の一覧の中に「ERROR」が存在するかを判定し、存在する場合にはS24に進んで、ペア状態(集約)565に「ERROR」を設定してサブルーチンを終了する。
「ERROR」がない場合には、S22へ進んで接続状態の一覧の中に「WARN」があるか否かを判定する。存在する場合には、S25に進んで、ペア状態(集約)565に「WARN」を設定してサブルーチンを終了する。
「WARN」がない場合には、S23へ進んで接続状態が正常であることを示す値(例えば、COPY、PAIR、SMPLあるいはNORMALなど)をペア状態(集約)565に設定してサブルーチンを終了する。
上記処理により、ペア状態表示テーブル17の集約された接続状態565が完成し、アプリケーション管理端末5に送信されて、アプリケーション管理者にペア状態の異常または警告の有無を通知する。
次に、図13を参照しながら、アプリケーション管理端末5の監視プログラム55で実行されるペア状態に異常があった場合の通知処理について説明する。
S30は、上記図11、図12に示した管理サーバ1のストレージ管理プログラム15の処理が完了し、ペア状態表示テーブル17をアプリケーション管理端末5へ送信する処理を示す。
S31以降は、管理サーバ1からペア状態表示テーブル17を受信したアプリケーション管理端末5の監視プログラム55の処理を示し、S31では監視プログラム55が、ペア状態表示テーブル17の情報を取得する。
S32では、処理の終了条件を判定するもので、ペア状態表示テーブル17の全プログラム名について処理が完了したか否かを判定し、完了していなければS33へ進む一方、完了していれば処理を終了する。
S33では、監視プログラム55が、ペア状態表示テーブル17の先頭のプログラム名から順に、プログラム名に対応する接続状態(集約)565を取得する。次に、S34では、図4に示したアプリケーション構成情報テーブル550から、該当するプログラム名の電子メールを送付すべき通知レベル555を取得する。
次にS35では、S33で取得した接続状態(集約)と、通知レベル555とを比較し、接続状態(集約)と通知レベル555が一致あるいは、接続状態(集約)が通知レベル555より悪い場合には、S36へ進んでプログラム名に該当する電子メール送付先556を取得し、このアドレスにERRORまたはWARNとなったプログラム名を記載して送信する。
なお、接続状態(集約)が通知レベル555よりも良い場合には、S32へ戻って次のプログラム名についてS33からS36の処理を繰り返して行う。
上記図13の処理を、受信したペア状態表示テーブル17の全てのプログラム名について繰り返して行うことで、アプリケーション管理端末5で指定したアプリケーション名が利用するボリュームのレプリケーションに異常または警告となる状態があれば、自動的に予め設定したアプリケーション管理者などへ異常または警告の通知を行うことができるのである。
例えば、図6のようにアプリケーション名「APP1」についてペア状態を調べた結果、プログラム名「APP1−1.exe」のペアボリューム「002−003」がERRORの場合、監視プログラム55はアプリケーション構成情報テーブル550のプログラム名「APP1−1.exe」に対応する通知レベル555がERRORであることから、接続状態(集約)と通知レベルが一致することから、あらかじめせっていした電子メール送付先であるaaa@x.co.jpへ上記メールを送信し、異常または異常が発生しうる状態をアプリケーション管理者などへ自動的に通知する。
次に、図14は、管理サーバ1のストレージ管理プログラム15で行われる、レプリケーション関係の影響範囲特定処理の一例を示すフローチャートである。
S40は、上記図11、図12に示した管理サーバ1のストレージ管理プログラム15の処理が完了し、ペア状態表示テーブル17をアプリケーション管理端末5へ送信するまでの処理を示す。この後、S41以降でレプリケーション関係の影響範囲特定処理が実行される。
S41では、処理の終了条件を判定するもので、ペア状態表示テーブル17の全プログラム名について処理が完了したか否かを判定し、完了していなければS42へ進む一方、完了していれば処理を終了する。
S42では、ペア状態表示テーブル17の先頭から順次プログラム名に対応する接続状態(集約)565を取得する。
S43では、接続状態(集約)が「WARN」であるかを判定し、「WARN」の場合にはS44に進む一方、そうでなければS45に進む。WARNの場合のS44では、ペア状態表示テーブル17のプログラム名に対応するボリュームIDから、図5の構成情報・動作情報テーブル16を参照し、プライマリ欄1611とセカンダリ欄1612からボリュームID及びサブシステムIDを取得し、図7に示した影響範囲表示テーブル18のプライマリ欄1801にプライマリのボリュームIDを、セカンダリ欄1802にセカンダリのボリュームIDを格納し、プライマリとセカンダリのデータ整合性1808、1809にデータの欠損のないことを示す「問題なし」を設定する。また、関連アプリケーション名1803に該当するアプリケーション名を設定する。
次に、S45では、接続状態(集約)が「ERROR」であるかを判定し、「ERROR」の場合にはS46に進む一方、そうでなければS47に進む。ERRORの場合のS46では、ペア状態表示テーブル17のプログラム名に対応するボリュームIDから、図5の構成情報・動作情報テーブル16を参照し、プライマリ欄1611とセカンダリ欄1612からボリュームID及びサブシステムIDを取得し、図8に示した影響範囲表示テーブル19のプライマリ欄1901にプライマリのボリュームIDを、セカンダリ欄1902にセカンダリのボリュームIDを格納し、プライマリとセカンダリのデータ整合性1908、1909に断線状態に応じたレプリケーション元またはレプリケーション先のデータ欠損の有無から「問題あり」または「問題なし」の何れかを後述するように設定する。また、関連アプリケーション名1903に該当するアプリケーション名を設定する。
次に、S47ではERRORまたはWARNとなったプライマリのボリュームに対応するI/O頻度とスループットの統計情報を取得する。この統計情報は、I/O頻度とスループットの変化が判別できるものであればよい。
S48では、該当するプライマリのボリュームのI/O頻度が急激に増加したか否かを判定する。急激に増加した場合にはS49へ進み、そうでない場合にはS51に進む。
S49では、現在のプログラム名に対応するボリュームのホスト側ポートに接続されるボリュームIDを、図5の構成情報・動作情報テーブル16から取得して影響範囲表示テーブル18に設定する。S50では、現在のプログラム名に対応する各ペア状態に必要な情報を影響範囲表示テーブル18に設定する。
S51では、該当するプライマリのボリュームのスループットが急激に減少したか否かを判定する。急激に減少した場合にはS52へ進み、そうでない場合にはS41に戻る。
S52では、現在のプログラム名に対応するボリュームのリモート側ポートに接続されたボリュームIDを、図5の構成情報・動作情報テーブル16から取得して影響範囲表示テーブル19に設定する。S53では、現在のプログラム名に対応する各ペア状態に必要な情報を影響範囲表示テーブル19に設定する。そしてS41の処理に戻り、全てのプログラム名について、上記S41〜S53を繰り返すことで、影響範囲表示テーブル18、19を作成し、I/O過多や断線による影響が、レプリケーション関係においてどのペアボリュームまで及んでいるのかを容易且つ迅速に把握できる。
次に、図15は上記図14のS46で行われるデータの整合性を影響範囲表示テーブル19に登録する処理の一例を示すサブルーチンである。
S60は、図6のペア状態表示テーブル17の接続状態564がERRORとなっているペア名563のボリュームIDについて、そのプライマリとセカンダリについてデータ整合性1908、1909に「問題あり」を設定する。
次にS61では、図5の構成情報・動作情報テーブル16を参照して、現在のプログラム名に対応するボリュームのカスケード構成がなし、またはペア状態がSMPLの場合には、そのままサブルーチンを終了する。一方、カスケード構成がある場合には、S62へ進んで、ペア名563のセカンダリ側のボリュームIDをプライマリとするペア状態を図5の構成情報・動作情報テーブル16から取得する。
そして、S63では上記S62で得たペア状態のプライマリとセカンダリのボリュームIDとデータの整合性として「問題あり」を影響範囲表示テーブル19に登録していく。さらに、上記S61へ戻って、カスケード構成の終端までS61からS63の処理を繰り返す。
上記処理により、接続状態がERRORとなったペアボリューム以降のカスケード構成については、データの欠損がある可能性が大であるのでデータ整合性に「問題あり」を設定する。
次に、図16は上記図14のS49で行われるホスト側ポートに接続されたボリュームIDを影響範囲表示テーブル18に登録する処理の一例を示すサブルーチンである。
S70では、ERROR(またはWARN)が発生したペア名について、図5の構成情報・動作情報テーブル16を参照してホスト側ポートのポートIDを取得する。
S71はサブルーチン終了条件を判定するもので、構成情報・動作情報テーブル16のプライマリ側の全ボリュームIDについて処理が完了したか否かを判定し、完了した場合にはサブルーチンを終了する一方、完了していなければS72へ進む。
S72では、構成情報・動作情報テーブル16の先頭から調べ、現在のプライマリのボリュームIDがペア状態表示テーブル17のペア名563に含まれているかを判定する。含まれている場合にはS71へ戻って次のボリュームIDについて調べる一方、含まれていない場合には、S73に進む。
S73では、構成情報・動作情報テーブル16からホスト側ポートのポートIDを取得し、S74では、このポートIDがERRORが発生したボリュームIDのポートIDに一致するかを判定する。一致する場合にはS75に進んで、プライマリとセカンダリのボリュームIDと、データ整合性として「問題なし」を影響範囲表示テーブル18に登録する。
この後、S71に戻って全てのプライマリのボリュームIDについてポートIDの比較が行われる。
上記処理により、ERRORまたはWARNが発生したボリュームが接続されたホスト側ポートのポートIDについて、ペアボリュームが影響範囲表示テーブル18に順次登録される。
次に、図17は上記図14のS52で行われるリモート側ポートに接続されたボリュームIDを影響範囲表示テーブル19に登録する処理の一例を示すサブルーチンである。
S80では、ERROR(またはWARN)が発生したペア名について、図5の構成情報・動作情報テーブル16を参照してリモート側ポートのポートIDを取得する。
S81はサブルーチン終了条件を判定するもので、構成情報・動作情報テーブル16のプライマリ側の全ボリュームIDについて処理が完了したか否かを判定し、完了した場合にはサブルーチンを終了する一方、完了していなければS82へ進む。
S82では、構成情報・動作情報テーブル16の先頭から調べ、現在のプライマリのボリュームIDがペア状態表示テーブル17のペア名563に含まれているかを判定する。含まれている場合にはS81へ戻って次のボリュームIDについて調べる一方、含まれていない場合には、S83に進む。
S83では、構成情報・動作情報テーブル16からリモート側ポートのポートIDを取得し、S84では、このポートIDがERRORが発生したボリュームIDのポートIDに一致するかを判定する。一致する場合にはS85に進んで、プライマリとセカンダリのボリュームIDと、データ整合性として「問題なし」を影響範囲表示テーブル19に登録する。
この後、S81に戻って全てのプライマリのボリュームIDについてポートIDの比較が行われる。
上記処理により、ERRORまたはWARNが発生したボリュームが接続されたリモート側ポートのポートIDについて、ペアボリュームが影響範囲表示テーブル19に順次登録される。
次に、図18は上記図14のS50で行われるホスト側ポートに関する影響範囲表示テーブル18に登録済みのペア状態に必要な情報を登録する処理の一例を示すサブルーチンである。
S90はサブルーチン終了条件を判定するもので、影響範囲表示テーブル18のプライマリ側の全ボリュームIDについて処理が完了したか否かを判定し、完了した場合にはサブルーチンを終了する一方、完了していなければS91へ進む。
S91では、影響範囲表示テーブル18の先頭のボリュームIDから順次調べ、ペア状態表示テーブル17に当該ボリュームIDが含まれているかを判定する。含まれている場合にはS93へ進み、含まれていない場合にはS92へ進む。
S92では、ペア状態表示テーブル17に含まれていないので、アプリケーション管理プログラム25、35、45にボリュームIDを問い合わせ、このボリュームIDに対応するアプリケーション名を取得する。一方S93では、ペア状態表示テーブル17からボリュームIDに対応するアプリケーション名を取得する。
次に、S94では、ボリュームIDに対応する位置で、取得したアプリケーション名を影響範囲表示テーブル18の関連アプリケーション名1803に登録する。
S95では、構成情報・動作情報テーブル16から、このボリュームIDに対応するホスト側ポートのポートIDを取得して、影響範囲表示テーブル18のホスト側ポートID1804に登録する。
S96では、同じく構成情報・動作情報テーブル16から、このボリュームIDに対応するI/O頻度を取得して影響範囲表示テーブル18のI/O頻度1805に登録し、S97では同様に構成情報・動作情報テーブル16からスループットを取得して影響範囲表示テーブル18のスループット1806に登録し、S98では同様に構成情報・動作情報テーブル16からサイドファイル使用率を取得して影響範囲表示テーブル18のサイドファイル使用率1807に登録する。
そして、上記S90〜S98の処理を影響範囲表示テーブル18の全てのプライマリのボリュームIDについて行うことで、影響範囲表示テーブル18が生成される。
次に、図19は上記図14のS53で行われるリモート側ポートに関する影響範囲表示テーブル19に登録済みのペア状態に必要な情報を登録する処理の一例を示すサブルーチンである。
S100〜S104は上記図18のS90〜S94と同様に、影響範囲表示テーブル19の全てのプライマリのボリュームIDについて行うものであり、上記図18のS95以降ではホスト側ポートIDを取得したのに対し、S105以降ではリモート側ポートIDを取得し、I/O頻度、スループット、サイドファイル使用率を影響範囲表示テーブル19に登録する点が異なり、その他は同様に行われる。
このS100〜S108の処理を影響範囲表示テーブル19の全てのプライマリのボリュームIDについて行うことで、影響範囲表示テーブル19が生成される。
以上のように、レプリケーション関係の影響範囲特定は、監視対象となるアプリケーションに関連するペアボリュームの状態に対して異常が発生した、もしくは異常が発生しそうな場合(警告)に、対処を行なう必要のある範囲と、問題が影響を及ぼすと思われる範囲を選択的に表示するものである。このとき、ストレージ管理プログラム15は発生した現象に関連する動作情報を取得し、その結果に応じて影響範囲の絞込みを行なうため、表面上、発生した現象が同じであった場合にも、その時の状況によって絞込みの行なわれる範囲は異なる。このため、アプリケーション管理者に対して、適切な影響範囲を示すことが可能となる。
以上のように、本発明によれば、特定のアプリケーションが使用しているボリューム、およびそこからカスケード構成あるいはペアになっているボリュームに対するペア状態(レプリケーション関係)を監視し、データのレプリケーションに問題が発生していないかを監視することができる。
アプリケーション管理端末5で図4に示したアプリケーション構成情報テーブル550から特定のアプリケーション名に対応するプログラム名、およびボリュームIDの情報を取得した後、これを管理サーバ1に送信する。管理サーバ1では図5に示した構成情報・動作情報テーブルからボリュームIDに対応するペア状態を取得し、ペア状態表示テーブルに情報を格納する。またこのとき、構成情報・動作情報テーブルからカスケード構成になっているボリュームのペア状態もあわせて取得し、同テーブルに追加する。最後に、これらのペア状態を集約した情報を同テーブルに追加したうえで、この情報をアプリケーション管理者が利用するアプリケーション管理端末5に対して提供することにより、アプリケーション管理者は自分の管理しているデータ、およびその複製先においてペア状態に異常が発生しているかどうかを集約された情報により一目で確認することができる。
なお、上記実施形態では、アプリケーションが使用するペアボリューム(レプリケーション関係)の追跡と障害の検知を管理サーバ1のストレージ管理プログラム15と、アプリケーション管理端末5の監視プログラム55で行ったが、ストレージ管理プログラム15と監視プログラム55を同一の計算機で実行しても良い。
また、上記実施形態では、アプリケーション構成情報テーブル550を、アプリケーション管理端末5に設けたが、各アプリケーションサーバ2〜4にアプリケーション構成情報テーブル550をそれぞれ設け、アプリケーション管理端末5から問い合わせるようにしても良い。
システムの全体的な構成を示すブロック図。 ソフトウェア構成を示すブロック図。 ストレージシステムのボリューム構成とポート構成を示すブロック図。 アプリケーション構成情報テーブルの一例を示す説明図。 管理サーバの構成情報・動作情報テーブルの一例を示す説明図。 集約された接続状態を含むペア状態表示テーブルの一例を示す説明図。 I/O過多の場合の影響範囲表示テーブルの一例を示す説明図。 断線の場合の影響範囲表示テーブルの一例を示す説明図。 I/O過多の一例を示し、ストレージシステムのボリューム構成とポート構成を示すブロック図。 断線の一例を示し、ストレージシステムのボリューム構成とポート構成を示すブロック図。 ペア状態監視処理の一例を示すフローチャート。 図11のS18で行われるペア状態の集約処理のサブルーチンを示すフローチャート。 アプリケーション管理端末の監視プログラムで実行される通知処理の一例を示すフローチャート。 管理サーバのストレージ管理プログラムで行われる、レプリケーション関係の影響範囲特定処理の一例を示すフローチャート。 図14のS46で行われるデータ整合性を影響範囲表示テーブルに登録する処理の一例を示すサブルーチン。 図14のS49で行われるホスト側ポートに接続されたボリュームIDを影響範囲表示テーブルに登録する処理の一例を示すサブルーチン。 図14のS52で行われるリモート側ポートに接続されたボリュームIDを影響範囲表示テーブルに登録する処理の一例を示すサブルーチン。 図14のS50で行われるホスト側ポートに関する影響範囲表示テーブル18に登録済みのペア状態に必要な情報を登録する処理の一例を示すサブルーチン。 図14のS53で行われるリモート側ポートに関する影響範囲表示テーブル19に登録済みのペア状態に必要な情報を登録する処理の一例を示すサブルーチン。
符号の説明
1 管理サーバ
2〜4 アプリケーションサーバ
5 アプリケーション管理端末
6 LAN
7SAN
15 ストレージ管理プログラム
16 構成情報・動作情報テーブル
25、35、45 アプリケーション管理プログラム
55 監視プログラム
10000〜10003 ストレージ装置

Claims (19)

  1. アプリケーションを提供するアプリケーションサーバと、前記アプリケーションのデータを格納する第1のボリュームと、当該第1のボリュームの複製を格納するペア状態に設定された第2のボリュームを複数備えたストレージシステムの管理方法であって、
    前記第1のボリュームを起点としてペア状態に設定された前記第2のボリュームを追跡する手順と、
    前記第2のボリュームのペア状態を、前記追跡結果に基づいて集計する手順と、
    を含むことを特徴とするストレージシステムの管理方法。
  2. 前記アプリケーションサーバを複数備えるとともに、前記アプリケーションは複数のプログラムから構成されて前記複数のアプリケーションサーバでそれぞれ実行され、
    前記第2のボリュームを追跡する手順は、
    前記アプリケーションを特定する手順と、
    前記特定したアプリケーションのプログラム毎にデータを格納する第1のボリュームを特定する手順と、
    前記特定した第1のボリュームとペア状態に設定された全ての第2のボリュームを抽出する手順と、
    を含み、
    前記集計する手順は、
    前記特定したアプリケーションのプログラム毎に、前記ペア状態に設定された前記第1のボリュームと第2のボリュームとを集計する手順を含むことを特徴とする請求項1に記載のストレージシステムの管理方法。
  3. 前記第1のボリューム及び第2のボリュームの動作情報を収集する手順と、
    前記動作情報に基づいて、前記ペア状態の障害または障害に至る状態を接続状態として検出する手順と、を有し、
    前記集計する手順は、
    前記特定したアプリケーションのプログラム毎に、前記ペア状態に設定された前記第1のボリュームと第2のボリュームと前記接続状態を集計する手順を含むことを特徴とする請求項2に記載のストレージシステムの管理方法。
  4. 前記第1のボリュームと第2のボリュームと前記接続状態を集計する手順は、
    前記第1及び第2のボリュームの接続状態のうち、最も状態の悪いものを前記プログラム毎に集約した接続状態として集計することを特徴とする請求項3に記載のストレージシステムの管理方法。
  5. 前記ペア状態の障害または障害に至る状態を接続状態として検出する手順は、
    前記第1のボリュームと前記プログラムを実行するアプリケーションサーバの経路情報を取得する手順と、
    前記経路情報が一致する第1のボリュームを特定する手順と、を含み、
    前記特定した第1のボリュームを障害または障害に至る状態の影響範囲として集計する手順を有することを特徴とする請求項3に記載のストレージシステムの管理方法。
  6. 前記ペア状態の障害または障害に至る状態を接続状態として検出する手順は、
    前記第1のボリュームとペア状態の第2のボリュームの経路情報を取得する手順と、
    前記経路情報が一致する第1のボリュームを特定する手順と、を含み、
    前記特定した第1のボリュームを障害または障害に至る状態の影響範囲として集計する手順を有することを特徴とする請求項3に記載のストレージシステムの管理方法。
  7. 前記影響範囲として集計する手順は、前記接続状態に基づいて第1のボリュームと第2のボリュームのデータの整合性を設定する手順を含むことを特徴とする請求項5または請求項6に記載のストレージシステムの管理方法。
  8. 複数のプログラムから構成されたアプリケーションを提供するアプリケーションサーバと、前記プログラムが利用するデータを格納する第1のボリュームと、当該第1のボリュームの複製を格納するペア状態に設定された第2のボリュームを複数備えたストレージシステムを管理するプログラムであって、
    前記複数のプログラムのうちのいずれかひとつを特定する処理と、
    前記特定したプログラムが利用する第1のボリュームを特定する処理と、
    前記第1のボリュームとペア状態に設定された全ての第2のボリュームを抽出する処理と、
    前記抽出した第1のボリュームと第2のボリュームを前記プログラム毎に集計する処理と、
    をコンピュータに機能させることを特徴とするプログラム。
  9. 前記第1のボリューム及び第2のボリュームの動作情報を収集する処理と、
    前記動作情報に基づいて、前記ペア状態の障害または障害に至る状態を接続状態として検出する処理と、を有し、
    前記集計する処理は、
    前記特定したアプリケーションのプログラム毎に、前記ペア状態に設定された前記第1のボリュームと第2のボリュームと前記接続状態を集計する処理と、
    を含むことを特徴とする請求項8に記載のプログラム。
  10. 前記第1のボリュームと第2のボリュームと前記接続状態を集計する処理は、
    前記第1及び第2のボリュームの接続状態のうち、最も状態の悪いものを前記プログラム毎に集約した接続状態として集計することを特徴とする請求項9に記載のプログラム。
  11. 前記ペア状態の障害または障害に至る状態を接続状態として検出する処理は、
    前記第1のボリュームと前記プログラムを実行するアプリケーションサーバの経路情報を取得する処理と、
    前記経路情報が一致する第1のボリュームを特定する処理と、を含み、
    前記特定した第1のボリュームを前記接続状態の影響範囲として集計する処理を有することを特徴とする請求項9に記載のプログラム。
  12. 前記ペア状態の障害または障害に至る状態を接続状態として検出する処理は、
    前記第1のボリュームとペア状態の第2のボリュームの経路情報を取得する処理と、
    前記経路情報が一致する第1のボリュームを特定する処理と、を含み、
    前記特定した第1のボリュームを前記接続状態の影響範囲として集計する処理を有することを特徴とする請求項9に記載のプログラム。
  13. 前記影響範囲として集計する処理は、前記接続状態に基づいて第1のボリュームと第2のボリュームのデータの整合性を設定する処理を含むことを特徴とする請求項11または請求項12に記載のプログラム。
  14. 複数のプログラムから構成されたアプリケーションを提供するアプリケーションサーバと、
    前記プログラムが利用するデータを格納する第1のボリュームと、当該第1のボリュームとペア状態に設定された第2のボリュームと、前記第1のボリュームの複製を第2のボリュームに作成するレプリケーション部と、前記第1のボリュームと第2のボリュームを管理する管理サーバとを備えたストレージシステムにおいて、
    前記第2のボリュームは複数設定されて、
    前記複数のプログラムのうちのいずれかひとつを選択して、前記特定したプログラムが利用する第1のボリュームを特定する第1ボリューム特定部と、を備え、
    前記管理サーバは、
    前記特定した第1のボリュームとペア状態に設定された全ての第2のボリュームを抽出するペアボリューム抽出部と、
    前記抽出した第1のボリュームと第2のボリュームを前記プログラム毎に集計する集計部と、
    を備えたことを特徴とするストレージシステム。
  15. 前記管理サーバは、
    前記第1のボリューム及び第2のボリュームの動作情報を収集する処理と、
    前記動作情報に基づいて、前記ペア状態の障害または障害に至る状態を接続状態として検出する接続状態検出部と、を有し、
    前記集計部は、
    前記特定したアプリケーションのプログラム毎に、前記ペア状態に設定された前記第1のボリュームと第2のボリュームと前記接続状態を集計することを特徴とする請求項14に記載のストレージシステム。
  16. 前記接続状態検出部は、
    前記第1及び第2のボリュームの接続状態のうち、最も状態の悪いものを前記プログラム毎に集約した接続状態として集計することを特徴とする請求項15に記載のストレージシステム。
  17. 前記接続状態検出部は、
    前記第1のボリュームと前記プログラムを実行するアプリケーションサーバの経路情報を取得するホスト側経路情報検出部と、
    前記経路情報が一致する第1のボリュームを特定する影響範囲設定部と、を含み、
    前記特定した第1のボリュームを前記接続状態の影響範囲として集計する第2の集計部を備えたことを特徴とする請求項15に記載のストレージシステム。
  18. 前記接続状態検出部は、
    前記第1のボリュームとペア状態の第2のボリュームの経路情報を取得するリモート側経路情報検出部と、
    前記経路情報が一致する第1のボリュームを特定する影響範囲設定部と、を含み、
    前記特定した第1のボリュームを前記接続状態の影響範囲として集計する第2の集計部を備えたことを特徴とする請求項15に記載のストレージシステム。
  19. 前記影響範囲設定部は、前記接続状態に基づいて第1のボリュームと第2のボリュームのデータの整合性を設定することを特徴とする請求項17または請求項18に記載のストレージシステム。
JP2004323902A 2004-11-08 2004-11-08 ストレージシステムの管理方法 Active JP4596889B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004323902A JP4596889B2 (ja) 2004-11-08 2004-11-08 ストレージシステムの管理方法
US11/033,402 US7206912B2 (en) 2004-11-08 2005-01-12 Method for managing pair states in a storage system
EP05006928A EP1662392A3 (en) 2004-11-08 2005-03-30 Identifying the extent that a fault on a storage device has to a replication process involving said device
US11/714,744 US7415629B2 (en) 2004-11-08 2007-03-07 Method for managing pair states in a storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004323902A JP4596889B2 (ja) 2004-11-08 2004-11-08 ストレージシステムの管理方法

Publications (2)

Publication Number Publication Date
JP2006134164A true JP2006134164A (ja) 2006-05-25
JP4596889B2 JP4596889B2 (ja) 2010-12-15

Family

ID=36117675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004323902A Active JP4596889B2 (ja) 2004-11-08 2004-11-08 ストレージシステムの管理方法

Country Status (3)

Country Link
US (2) US7206912B2 (ja)
EP (1) EP1662392A3 (ja)
JP (1) JP4596889B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323309A (ja) * 2006-05-31 2007-12-13 Hitachi Ltd レプリケーションボリュームの容量拡張方法
JP2008304963A (ja) * 2007-06-05 2008-12-18 Hitachi Ltd 計算機システムまたは計算機システムの性能管理方法
JP2010020410A (ja) * 2008-07-08 2010-01-28 Hitachi Ltd リモートコピーシステム及びリモートコピー方法
JP2010176185A (ja) * 2009-01-27 2010-08-12 Hitachi Ltd リモートコピーシステム及びパス設定支援方法
WO2017145286A1 (ja) * 2016-02-24 2017-08-31 株式会社日立製作所 ストレージシステムの管理方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4550705B2 (ja) * 2005-09-22 2010-09-22 株式会社東芝 サーバ装置
US7793138B2 (en) * 2005-12-21 2010-09-07 Cisco Technology, Inc. Anomaly detection for storage traffic in a data center
JP4827564B2 (ja) * 2006-03-15 2011-11-30 株式会社日立製作所 コピーペアのペア状態の表示方法
US7962595B1 (en) * 2007-03-20 2011-06-14 Emc Corporation Method and apparatus for diagnosing host to storage data path loss due to FibreChannel switch fabric splits
EP2201456A4 (en) * 2007-10-08 2012-02-15 Axxana Israel Ltd SYSTEM FOR QUICK DATA RECOVERY
JP4480756B2 (ja) * 2007-12-05 2010-06-16 富士通株式会社 ストレージ管理装置、ストレージシステム制御装置、ストレージ管理プログラム、データ記憶システムおよびデータ記憶方法
JP2009151677A (ja) * 2007-12-21 2009-07-09 Fujitsu Ltd ストレージ制御装置、ストレージ制御プログラムおよびストレージ制御方法
JP5227125B2 (ja) 2008-09-24 2013-07-03 株式会社日立製作所 ストレージシステム
EP2570925A1 (en) * 2011-09-19 2013-03-20 Thomson Licensing Method of exact repair of pairs of failed storage nodes in a distributed data storage system and corresponding device
US20130151888A1 (en) * 2011-12-12 2013-06-13 International Business Machines Corporation Avoiding A Ping-Pong Effect On Active-Passive Storage
US9767178B2 (en) 2013-10-30 2017-09-19 Oracle International Corporation Multi-instance redo apply
US9569517B1 (en) * 2013-11-27 2017-02-14 Google Inc. Fault tolerant distributed key-value storage
US10013216B2 (en) * 2014-02-17 2018-07-03 Hitachi, Ltd. Storage system
US9563521B2 (en) * 2014-07-21 2017-02-07 Oracle International Corporation Data transfers between cluster instances with delayed log file flush
US10089307B2 (en) 2014-12-31 2018-10-02 International Business Machines Corporation Scalable distributed data store
US10031794B1 (en) * 2015-06-30 2018-07-24 EMC IP Holding Company, LLC Message generation system and method
US10223222B2 (en) * 2015-12-21 2019-03-05 International Business Machines Corporation Storage system-based replication for disaster recovery in virtualized environments

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11168555A (ja) * 1997-12-05 1999-06-22 Fujitsu Ltd インテリジェントネットワーク内のデータベースの同期方法と装置
JPH11327803A (ja) * 1998-05-14 1999-11-30 Hitachi Ltd データ多重化制御方法
JP2000267903A (ja) * 1999-03-16 2000-09-29 Nec Corp 複数性質別データ格納装置
JP2002073337A (ja) * 2000-08-31 2002-03-12 Hitachi Ltd ビジネスプロセス定義情報管理方法及びその実施装置並びにその処理プログラムを記録した記録媒体
JP2003114768A (ja) * 2001-10-09 2003-04-18 Hitachi Ltd 外部記憶装置の制御方法
JP2003131949A (ja) * 2001-10-25 2003-05-09 Fujitsu Ltd データ管理システム
JP2003318900A (ja) * 2002-04-22 2003-11-07 Hitachi Ltd ネットワーク構成情報管理システム及び該システムによるシステム構成情報取得方法、ネットワーク構成情報表示装置及び該装置を利用したネットワーク構成情報提供サービス方法
JP2004030254A (ja) * 2002-06-26 2004-01-29 Hitachi Ltd リモートsi制御方式
JP2004264967A (ja) * 2003-02-28 2004-09-24 Hitachi Ltd ストレージシステムの制御方法、ストレージシステム、プログラム、及び記録媒体
JP2004295811A (ja) * 2003-03-28 2004-10-21 Hitachi Ltd ジョブ管理機能を有するストレージ系障害管理方法及び装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5379411A (en) 1991-11-15 1995-01-03 Fujitsu Limited Fault indication in a storage device array
US5537551A (en) * 1992-11-18 1996-07-16 Denenberg; Jeffrey N. Data compression method for use in a computerized informational and transactional network
US5860122A (en) 1995-11-14 1999-01-12 Matsushita Electric Industrial Co., Ltd. Backup unit including identifier conversion means
AT403969B (de) * 1995-12-04 1998-07-27 Ericsson Schrack Aktiengesells Verfahren zur kompression eines analogen signals
US5765173A (en) * 1996-01-11 1998-06-09 Connected Corporation High performance backup via selective file saving which can perform incremental backups and exclude files and uses a changed block signature list
JP2002189570A (ja) 2000-12-20 2002-07-05 Hitachi Ltd 記憶システムの二重化方法および記憶システム
JP2002259065A (ja) * 2001-03-02 2002-09-13 Hitachi Ltd トレース情報採取機構を備えた記憶システム
US6728849B2 (en) * 2001-12-14 2004-04-27 Hitachi, Ltd. Remote storage system and method
US6480500B1 (en) * 2001-06-18 2002-11-12 Advanced Micro Devices, Inc. Arrangement for creating multiple virtual queue pairs from a compressed queue pair based on shared attributes
JP3617632B2 (ja) * 2001-07-19 2005-02-09 富士通株式会社 Raid制御装置及びその制御方法
JP2003076592A (ja) 2001-09-04 2003-03-14 Hitachi Ltd データ格納システム
JP4796251B2 (ja) * 2001-09-21 2011-10-19 株式会社日立製作所 ネットワークストレージシステム及びその制御方法
US6973595B2 (en) 2002-04-05 2005-12-06 International Business Machines Corporation Distributed fault detection for data storage networks
US7024528B2 (en) 2002-08-21 2006-04-04 Emc Corporation Storage automated replication processing
US7260628B2 (en) 2002-09-06 2007-08-21 Hitachi, Ltd. Event notification in storage networks
JP4704660B2 (ja) 2002-12-18 2011-06-15 株式会社日立製作所 記憶デバイス制御装置の制御方法、記憶デバイス制御装置、及びプログラム
US7043665B2 (en) 2003-06-18 2006-05-09 International Business Machines Corporation Method, system, and program for handling a failover to a remote storage location
JP4415610B2 (ja) 2003-08-26 2010-02-17 株式会社日立製作所 系切替方法、レプリカ作成方法、及びディスク装置
US7685301B2 (en) * 2003-10-20 2010-03-23 Sony Computer Entertainment America Inc. Redundancy lists in a peer-to-peer relay network
JP2005326935A (ja) * 2004-05-12 2005-11-24 Hitachi Ltd 仮想化ストレージを備える計算機システムの管理サーバおよび障害回避復旧方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11168555A (ja) * 1997-12-05 1999-06-22 Fujitsu Ltd インテリジェントネットワーク内のデータベースの同期方法と装置
JPH11327803A (ja) * 1998-05-14 1999-11-30 Hitachi Ltd データ多重化制御方法
JP2000267903A (ja) * 1999-03-16 2000-09-29 Nec Corp 複数性質別データ格納装置
JP2002073337A (ja) * 2000-08-31 2002-03-12 Hitachi Ltd ビジネスプロセス定義情報管理方法及びその実施装置並びにその処理プログラムを記録した記録媒体
JP2003114768A (ja) * 2001-10-09 2003-04-18 Hitachi Ltd 外部記憶装置の制御方法
JP2003131949A (ja) * 2001-10-25 2003-05-09 Fujitsu Ltd データ管理システム
JP2003318900A (ja) * 2002-04-22 2003-11-07 Hitachi Ltd ネットワーク構成情報管理システム及び該システムによるシステム構成情報取得方法、ネットワーク構成情報表示装置及び該装置を利用したネットワーク構成情報提供サービス方法
JP2004030254A (ja) * 2002-06-26 2004-01-29 Hitachi Ltd リモートsi制御方式
JP2004264967A (ja) * 2003-02-28 2004-09-24 Hitachi Ltd ストレージシステムの制御方法、ストレージシステム、プログラム、及び記録媒体
JP2004295811A (ja) * 2003-03-28 2004-10-21 Hitachi Ltd ジョブ管理機能を有するストレージ系障害管理方法及び装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323309A (ja) * 2006-05-31 2007-12-13 Hitachi Ltd レプリケーションボリュームの容量拡張方法
JP2008304963A (ja) * 2007-06-05 2008-12-18 Hitachi Ltd 計算機システムまたは計算機システムの性能管理方法
JP2010020410A (ja) * 2008-07-08 2010-01-28 Hitachi Ltd リモートコピーシステム及びリモートコピー方法
US8364919B2 (en) 2008-07-08 2013-01-29 Hitachi, Ltd. Remote copy system and method
US8732420B2 (en) 2008-07-08 2014-05-20 Hitachi, Ltd. Remote copy system and method
JP2010176185A (ja) * 2009-01-27 2010-08-12 Hitachi Ltd リモートコピーシステム及びパス設定支援方法
WO2017145286A1 (ja) * 2016-02-24 2017-08-31 株式会社日立製作所 ストレージシステムの管理方法

Also Published As

Publication number Publication date
US20060101214A1 (en) 2006-05-11
US7206912B2 (en) 2007-04-17
JP4596889B2 (ja) 2010-12-15
EP1662392A3 (en) 2008-04-30
US7415629B2 (en) 2008-08-19
EP1662392A2 (en) 2006-05-31
US20070162717A1 (en) 2007-07-12

Similar Documents

Publication Publication Date Title
JP4596889B2 (ja) ストレージシステムの管理方法
JP6586465B2 (ja) ストレージ・クラスタ要素のモニタリングのための方法、装置、記憶媒体及びコンピュータ・プログラム
US8843789B2 (en) Storage array network path impact analysis server for path selection in a host-based I/O multi-path system
JP4294353B2 (ja) ジョブ管理機能を有するストレージ系障害管理方法及び装置
US7725776B2 (en) Method for displaying pair state of copy pairs
JP4648447B2 (ja) 障害復旧方法、プログラムおよび管理サーバ
JP5352115B2 (ja) ストレージシステム及びその監視条件変更方法
US20070112897A1 (en) Storage operation management program and method and a storage management computer
US11157373B2 (en) Prioritized transfer of failure event log data
JP2005326935A (ja) 仮想化ストレージを備える計算機システムの管理サーバおよび障害回避復旧方法
JP2007226400A (ja) 計算機管理方法、計算機管理プログラム、実行サーバの構成を管理する待機サーバ及び計算機システム
JP2004287648A (ja) 外部記憶装置及び外部記憶装置のデータ回復方法並びにプログラム
CN105262633B (zh) 一种应用级容灾方法及应用级容灾系统
JP2007072571A (ja) 計算機システム及び管理計算機ならびにアクセスパス管理方法
JP2005301975A (ja) マルチサイト上の遠隔二重化リンクを経由するハートビート装置、及びその使用方法
US7917711B2 (en) System, apparatus, and method for automatic copy function selection
US20080288671A1 (en) Virtualization by multipath management software for a plurality of storage volumes
CN114064374A (zh) 一种基于分布式块存储的故障检测方法和系统
WO2013171865A1 (ja) 管理方法及び管理システム
CN107888405B (zh) 管理设备和信息处理系统
CN115550287A (zh) 一种远程复制关系的建立方法及相关装置
JP2013025742A (ja) 分散ファイル管理装置、分散ファイル管理方法及びプログラム
JP2011081830A (ja) サーバ切替方法、プログラムおよび管理サーバ
JP4585423B2 (ja) 性能情報収集方法及び計算機システム
US20230342235A1 (en) Computer-readable recording medium storing information processing program, information processing method, and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100921

R150 Certificate of patent or registration of utility model

Ref document number: 4596889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3