JP4740979B2 - San再構成の期間中のデバイスクリティカリティを求める方法及びシステム - Google Patents

San再構成の期間中のデバイスクリティカリティを求める方法及びシステム Download PDF

Info

Publication number
JP4740979B2
JP4740979B2 JP2008129128A JP2008129128A JP4740979B2 JP 4740979 B2 JP4740979 B2 JP 4740979B2 JP 2008129128 A JP2008129128 A JP 2008129128A JP 2008129128 A JP2008129128 A JP 2008129128A JP 4740979 B2 JP4740979 B2 JP 4740979B2
Authority
JP
Japan
Prior art keywords
storage area
area network
host computer
graph
reconfiguration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008129128A
Other languages
English (en)
Other versions
JP2009015826A (ja
Inventor
キショー・クーマー・マピララ
ナラヤナン・アナンサクリシュナン・ネライ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2009015826A publication Critical patent/JP2009015826A/ja
Application granted granted Critical
Publication of JP4740979B2 publication Critical patent/JP4740979B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/008Reliability or availability analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施の形態は、SAN再構成の期間中のデバイスクリティカリティを求める方法及びシステムに関する。
データセンターは、通常はコンピュータ及び通信機器といった大量の電子機器を収容するのに使用される設備である。データセンターの一般的なコンポーネントには、サーバ、ストレージデバイス、相互接続ケーブル、スイッチ、及びハブのようなストレージエリアネットワークコンポーネント、並びにLANケーブル及びスイッチ/ハブのようなデータネットワークエレメントが含まれ得る。ストレージエリアネットワーク(SAN)は、コンピュータストレージデバイスをサーバにアタッチするように設計されるネットワークである。SANによって、マシンがブロックレベルI/Oのネットワーク上のディスク、及びテープドライブ等のリモートターゲットに接続することが可能になる。
ストレージエリアネットワークでは、ストレージエレメントは、個々のサーバに属さない。その代わり、ストレージエレメントは、ネットワークに直接アタッチされ、ストレージは、必要な時にサーバに割り当てられる。ストレージエレメントをサーバシステムの遠隔に配置することができる。したがって、たとえサーバシステムを含むインフラストラクチャが破壊されても、データを依然として回復することができる。その上、ストレージエレメントをホストシステムと共に移動させる必要がないので、ネットワークにおけるホストシステムのリロケーションがより容易になる。加えて、ホストをその個別のロケーションで個々にアップグレードする必要がないので、ネットワークのアップグレードをより簡単にすることができる。さらにまた、或るサーバが正しく機能しない場合には、データを回復させる必要なく、新しいサーバを迅速にセットアップできると共に、ストレージエレメントの関連のあるストレージボリュームに向けることができるので、システムのダウンタイムが削減される。
複数のスイッチを含むデータリンクのネットワークは、サーバとSANのストレージエレメントとを接続するのに使用される。これらのコンポーネントの1つ又は2つ以上の故障の結果としてのネットワークのダウンタイムをさらに削減するために、多くの場合、冗長リンクをサーバとストレージエレメントとの間に含めて、それによって、或るリンクが正しく機能しない場合に、別のリンクを使用できると共に、中断することなくネットワークを使用できるようにする。システムを管理すると共に、十分な冗長パスが確実に存在するようにするために、管理プログラムが、多くの場合使用される。管理プログラムが、障害を解析して、ネットワークの状態を評価し、且つ入出力連続性が最適な性能で維持されることを保証する場合には、システムのダウンタイムをさらに削減することができる。
アドミニストレータが、データセンターを構成するコンポーネント上で保守オペレーション及び/又は再構成オペレーションを行うことは珍しいことではない。ITコンソリデーション、ハードウェア、及びソフトウェアのアップグレードは、このようなオペレーションの一般的な理由の一部である。
ストレージエリアネットワークでは、保守オペレーションを行う前に、アドミニストレータは、可用性及び性能の点から、潜在的なシステム及び/又はアプリケーションレベルの影響を評価することに関心を持つ。保守オペレーションの影響解析は、アプリケーション管理システムのコア部分を成す。したがって、このような保守オペレーションを計画して実行する前に、アドミニストレータは、「このケーブルを除去/交換した場合に、何に影響があるのか?」、「保守作業のためにこのストレージデバイスを一時的にオフラインにした場合に、システム/アプリケーションに何が起こるのか?」、「ディスクアレイコントローラ又は筐体内のディスクが交換され/影響を受ける場合に、自身のデータセンターのどのアプリケーションが影響を受けるのか?」等の質問に対する回答を知ることに関心を持つ場合がある。
本発明は、SAN再構成の期間中のデバイスクリティカリティを求めるための方法及びシステムを提供する。
本発明の一形態は、ストレージエリアネットワークの再構成のデバイスクリティカリティを求める方法であって、ストレージエリアネットワーク接続グラフを構築するステップと、前記ストレージエリアネットワーク接続グラフから、再構成オペレーションによる影響を受けるホストシステムを特定するステップと、前記影響を受ける各ホストシステムのクリティカル資源解析アルゴリズムを呼び出すステップであって、前記影響を受けるホストシステムにおける影響を受ける資源を求める、呼び出すステップと、を含む方法である。
次に、添付図面を参照して、本発明の実施形態を単なる例として説明することにする。
次に、本発明の実施形態を詳細に参照することにする。これらの実施形態の例は、添付図面に示されている。本発明をこれらの実施形態との関連で説明するが、これらの実施形態は、本発明をこれらの実施形態に限定することを意図したものではないことが理解されよう。逆に、本発明は、代替形態、変更形態、及び均等物を含有するように意図されている。これらの代替形態、変更形態、及び均等物は、添付の特許請求の範囲によって規定される本発明の精神及び範囲内に含めることができる。さらに、本発明の以下の詳細な説明では、本発明の徹底した理解を提供するために、多数の具体的な詳細が述べられる。
クリティカル資源解析(CRA)機能を使用すると共に、データセンターイベントをホストシステムレベルイベントにマッピングすることによって、データセンターにおけるSAN再構成オペレーションのクリティカリティ又は副作用を求める技法を説明することにする。本技法は、データセンターの各ホストにデプロイされる影響解析エージェント(IAA)を使用する。データセンターアドミニストレータノードに設けられる中央エージェントは、データセンターにわたる影響解析エージェントのそれぞれからの結果を集約して、コンソリデートされた報告をデータセンターアドミニストレータに提供することができる。中央エージェントは、SAN生成ユニットから構成することができる。次に、添付図面を参照して本技法をより詳細に説明することにする。
図1を参照すると、ネットワーク1は、複数のデータリンク3a、3b、3c、3d、3eに接続される複数のホスト2a、2b、2cと、複数のスイッチ4a、4bと、複数のストレージエレメント5a、5b、5c、及び5dとを備える。ホストには、サーバ2a、2b、2c、及びクライアントコンピュータが含まれ得るが、これらに限定されるものではない。データリンクには、たとえば、イーサネット(登録商標)インターフェース接続、ファイバチャネル、及びSCSI(小規模コンピュータシステムインターフェース)インターフェースが含まれ得るが、これらに限定されるものではない。ストレージエレメントには、ディスクドライブ及び/又はディスクアレイ5a、5b、5c並びにテープドライブアレイ5dが含まれる。
或るパスのコンポーネント又はデータリンクが故障しても、別のパスを使用してホストとストレージエレメントとの間でデータを依然として交換できるように、各ホストは、少なくとも2つのパスによって各ストレージエレメントに接続される。したがって、各サーバ2a、2b、2cは、データリンク3a、3bを通じてスイッチに接続する少なくとも1つのホストバスアダプタ(HBA)6a〜6fを有する。同様に、各ストレージエレメント5b又はストレージエレメントのクラスタは、データリンク3c、3d、3eに接続する少なくとも1つのコントローラ7a〜7dを有する。HBA6a〜6fの役割は、ホストとアタッチされたデータリンクとの間のインターフェースを提供することである。これらのHBAは、データを転送するのに必要なホスト処理のほとんどをオフロードする入出力処理をさらに提供することができる。コントローラ7a〜7dは、ストレージエレメントについて同様の役割を行う。スイッチと同様に、HBA及びコントローラも、代替的なパスを提供する2つの以上のポートを有することができる。図1では、ポート6eが、2つのポートを有するものとして示されている。ホストとストレージエレメントとを接続するHBA6a〜6f、データリンク3a〜3e、スイッチ4a、4b、及びコントローラ7a〜7dから成るネットワークは、ファブリック8として知られているものを構成する。
SANの各コンポーネントは、複数のサブコンポーネント9を有する。これらのサブコンポーネント9のいずれか1つは、システムの性能に影響を与える可能性がある。たとえば、各スイッチは、1つ又は2つ以上のポート、ファン、及び/又は電源を有する場合がある。
各ホストシステム2a、2b、2cには、ファブリックチャネル8を通じてアクセスすることができるストレージエリアが割り当てられる。ストレージエリアは、異なるストレージエレメント上に分散させることができる。ストレージエリアは、さらに、通常は複数の論理ユニット番号(LUN)10に分類することができる。LUN10のそれぞれは、ストレージエレメントの実際の一部又は仮想的な一部に対応する。たとえば、或るLUN10は、ディスクドライブアレイ内の1つ又は2つ以上のディスクに対応することができる。
サーバは、ローカルエリアネットワーク(LAN)11において、複数のクライアントコンピュータ12a、12bに接続することができる。クライアントコンピュータは、ファイバチャネル等のそれ自体のデータリンクでSANに直接接続してもよく、又はLAN及びサーバを介して間接的に接続してもよい。
図3は、データセンターにおけるSAN再構成の期間中のデバイスクリティカリティを求めることに関与するステップを示している。一実施形態では、本技法は、SAN再構成オペレーションにおけるホットプラグのデバイスクリティカリティを求める方法300を実行するコンピュータ実行可能命令として実施することができる。このコンピュータ実行可能命令は、任意のタイプのコンピュータ可読媒体に記憶することができる。この任意のタイプのコンピュータ可読媒体は、磁気ディスク、CD−ROM、光媒体、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、RAM、ROM、PROM、EPROM、フラッシュEPROM、又はコンピュータが読み出すことができる他の任意の媒体等である。
1つ又は2つ以上のコンポーネントの状態に関係したイベントの、SANに対する影響を求めるために、SANにおける接続を特定して解析しなければならない。コンポーネントがホスト2とLUN10との間のパスの一部であり、且つ、このパスがそれら2つのコンポーネント間で唯一利用可能なパスである場合には、このパスの除去は、システムの性能にとってクリティカルとなる。一方、このパスが、SAN9を通じてホストシステムからLUN10への多数のパスのうちの1つにすぎない場合には、障害は、軽微な影響しか有しない。あらゆる代替的なパスを以下では冗長パスと呼ぶ。
図3のステップ301において、このアルゴリズムは、データセンターの情報を収集して、SAN接続グラフ(本説明において、以降、「SANグラフ」と呼ぶ)を構築する。グラフのエッジノードは、ディスクアレイによってエクスポートされたLUN、並びに、ホストシステム及び/又はサーバシステムのホストバスアダプタ(HBA)ポートとすることができる。ディスクアレイ、筐体、及びコントローラは、SANグラフのノードを論理的にグルーピングするのに使用することができ、それによって、これらのコンポーネントに影響を与える任意のオペレーションを、その論理グループのすべてのノードを「影響あり」としてマーキングするのに使用できるようにする。スイッチ、ハブ、ケーブル等のようなSANインフラストラクチャコンポーネントは、SANグラフにおける中間ノード及び枝としてマッピングすることができる。SANグラフを構築するアルゴリズムを、一例として、図2に関して簡潔に説明する。
ステップ201において、SANグラフ生成ユニットが、SANグラフを生成する命令を受け取る。これは、ユーザがSANを再構成したい時に受け取られる。いくつかの実施形態では、SANグラフを再生成する、SANグラフ生成ユニットへの命令は、所定の頻度で通信することができる。この所定の頻度は、ユーザによって構成可能である。
SAN接続生成ユニットは、ステップ202において、SANグラフが最後に生成された時以降に収集された情報から、SANの最初のコンポーネントについての情報を取り出す。このコンポーネントについて収集された情報は、ベンダ及びモデルのデータと、たとえばワールドワイド名(WWN)といった識別番号と、SANグラフ生成ユニットがコンポーネントの近傍にあるものを求めることを可能にする接続情報とを含むことができる。また、SAN接続生成ユニットは、コンポーネントについての情報がSANグラフデータベースにすでに存在するかどうか、すなわち、収集されたデータが既知のコンポーネントに関するものであるかどうか、又は、新しいコンポーネントがネットワークに追加されたかどうかをチェックすることができる。コンポーネントが新しいコンポーネントである場合には、SAN接続生成ユニットは、ステップ204において、一意の識別番号をそのコンポーネントに割り当てる。識別番号を割り当てた後、そのコンポーネントを枝又は頂点として分類することができる。
ネットワークのコンポーネントは、頂点及び枝の2つの集合に分割することができる。頂点の集合は、HBAの集合、スイッチの集合、ストレージアレイコントローラの集合、及び論理ユニット番号の集合を含むことができる。枝の集合は、たとえばファイバチャネルケーブルといった、頂点を接続するデータリンクの集合である。2つの頂点は、1つ又は2つ以上の枝によって接続することができる。コンポーネントは、特定された後、SANデータベースに記憶される(206)。
コンポーネントについての関連のある情報を収集した後、SAN接続生成ユニットは、ステップ207において、収集されたデータが、さらなるコンポーネントについての情報を含むかどうかをチェックすることができる。追加のコンポーネントについての情報がない場合には、プロセスは、ステップ208において終了する。収集されたデータが、さらなるコンポーネントについての情報を含む場合には、プロセスは、ステップ202から繰り返される。
すべてのコンポーネントについての情報が追加されると、グラフは、ステップ208においてリンクされる。グラフをリンクすることは、すべての接続をチェックすること、ソースコンポーネントとデスティネーションコンポーネントとの間のすべてのパスを求めること、及びGUIにおいて適した方法でシステムのアドミニストレータに提示されるデータを編成することを伴う。
次に、図5に関して、ソースコンポーネントとデスティネーションコンポーネントとの間のすべてのパスを求めるプロセスをより詳細に説明することにする。ステップ501において、ダミー変数nが0にセットされる。その後、識別番号vn、この場合はv0、を有する頂点の記録が、ステップ502において、SANグラフデータベース30のSANグラフから取り出される。ダミー変数mも、ステップ503において0にセットされ、vmの記録が、ステップ504において取り出される。
ステップ505において、vnとvmとの間に有効なアクセスパスがあるかどうかが判断される。SANグラフの枝は、ホストからLUNへの方向性を有する。アクセスパスは、ホストからLUNへの方向にのみ確立することができる。したがって、たとえば、サーバ2aと2cとの間のパスの確立は、誤った方向に向かう枝を伴うので、そのパスは確立されない。このステップは、対象となるパスのみを確立すること、及び、2つの頂点間のパスが1回しか確立されないことを保証する。vnがv0に等しく、且つ、vmもv0に等しい場合には、ステップ505において、利用可能である有効なパスがないことが確かめられ、したがって、mは、ステップ506において1だけ増分され、次に、ステップ505において、v0とv1との間に有効なパスがあるかどうかが確かめられる。v0がサーバ2aに対応し、且つv1がLUN10に対応するとき、ステップ505において、有効なパスがあると判断され、プロセスはステップ507に続く。
物理パス及び論理パスの双方が、頂点vn及びvmの対について確立される。物理パスは、コンポーネントの対の間の頂点のシーケンスである。論理パスは、枝のシーケンスである。
物理パスは、ステップ506において、頂点v0と頂点v1との間に確立され、そのパスにおけるそれら頂点の識別番号が、SANグラフデータベースの高可用性(HA)マップに記憶される。サーバ2a及びLUN10の場合、パスは、HBA6a、スイッチ4a、及びコントローラ7aを含む。
ステップ507において、ホストv0とLUN v1との間の代替的な物理パスがあるかどうかがチェックされる。代替的なパスがあることが確かめられた場合には、ステップ506が繰り返され、HBA6a、スイッチ4a、及びコントローラ7bの代替的なパスが存在すると判断される。ステップ506及び507は、ノードの対の間ですべての有効なパスが見つけられるまで繰り返される。したがって、HBA6b、スイッチ4b、及びコントローラ7bの第3の最後のパスも見つけられる。パスのすべては、それらパスのそれぞれの頂点のシーケンスと共に、SANグラフデータベース内の物理的な高可用性(HA)マップHAp(v0,v1)に記憶される。
代替的な物理パスがそれ以上ないときは、プロセスは、ステップ508に続き、2つの頂点間の論理パスが確立される。上述した例では、ホスト2aとLUN10との間の1つの論理パスは、枝3a及び3cを含む。ステップ509において、代替的な論理パスがあるかどうかが判断され、代替的な論理パスがある場合には、ステップ508が繰り返される。上記例では、枝3a及び3dから成るパスと、枝3b及び3eから成るパスとの2つの追加のパスが見つけられる。その後、すべてのパスは、それらパスのそれぞれの枝のシーケンスと共に、SANグラフデータベースの論理HAマップHAL(v0,v1)に記憶される。
すべての論理パスが記憶されると、ステップ509において、v0とv1との間にパスがそれ以上ないと判断され、プロセスはステップ510に続き、mよりも大きな識別番号を有する頂点があるかどうかがチェックされる。そのような頂点がある場合には、mは、ステップ512において1だけ増分され、v0とv2との間のすべてのパスについて、ステップ504〜509が繰り返される。頂点v0と他のすべての頂点との間の有効なパスが確立されると、ステップ510において、頂点がそれ以上ないと判断され、プロセスはステップ511に進む。頂点がある場合には、nが1だけ増分され、ステップ502〜511が繰り返される。これらのステップは、システムにおける頂点のすべての対の間の有効なパスが確立され、物理HAマップ及び論理HAマップとして記憶されるまで繰り返される。
SANグラフの各ホストシステムノードは、到達可能な複数のLUNノードを保持することができ、これらのLUNノードは、本説明では「到達可能LUN集合」とも呼ばれる。
一実施形態によれば、図3のステップ302において、データセンターの各ホストシステムについてコンポーネント階層グラフ(CHG)を構築することができる。CHGは、前方に位置するPCIバスから、ホストシステム上で現在実行されているプロセスへ、ソフトウェアの要素に加えてハードウェアの要素をもマッピングするグラフである。プロセスノードは、CHGの葉、すなわち最終レベルにある。CHGの異なるレベルのノードは、PCIスロット、HBA、HBAポート、LUNパス(HBAポートからLUNへの枝とも呼ばれる)、LUN,論理ボリューム、ボリュームグループ、ファイルシステム、及びプロセスから成ることができる。CHGの枝は、後続ノードが先行ノードを使用しており且つ/又は先行ノードに依存していることを示すことができる。したがって、先行ノードが影響を受け且つ/又は利用不能である場合には、冗長パス、すなわち代替パスが利用可能でない限り、後続ノードも利用不能である場合がある。ホストシステムの典型的なコンポーネント階層グラフを一例として図7に示す。ホストシステムのコンポーネント階層グラフは、非循環有向グラフ(DAG)の形で表すことができる。
コンポーネント階層グラフは、各ノードにおいて、コンピュータシステムのコンポーネントのそれぞれに関連付けられる一定の属性を含むことができる。これらの属性は、たとえば、冗長性属性、クリティカリティ属性、又は利用属性とすることができる。冗長性属性は、特定のノードの冗長パスの個数で構成することができる。
SANグラフ及びSANにおけるホストシステムのコンポーネント階層グラフは、ブート時間に準備して記憶することができる。SAN及び/又はホストシステムの構成は頻繁に変化しないので、これによって、資源解析の時間を削減することができる。SANの構成の変化は、SANグラフ及び/又はCHGに反映させることができる。SANグラフ及びCHGは、中央エージェントを用いて記憶することができる。
SAN再構成オペレーションの期間中、ユーザは、たとえば、データセンターにおけるSANのデバイス(複数可)の追加、交換、又は除去といったオンラインホットプラグオペレーションを行いたい旨を示す。ここで、ユーザは、どのデバイス(複数可)が、試みられる再構成オペレーションに関与するのかを知っているものと仮定する。
図3のステップ303で続けて、SAN再構成イベントは、枝及び/若しくはノードのSANグラフからの削除、並びに/又は、枝及び/若しくはノードのSANグラフへの追加にマッピングされる。SAN再構成におけるリンク除去イベント及びポート除去イベントは、SANグラフにおける枝の除去及びコントローラの追加/除去にマッピングすることができる。同様に、スイッチ及びディスクデバイス筐体の除去は、ノードの追加/除去オペレーションにマッピングすることができる。データセンターの観点でのSAN再構成オペレーションは、(ホストホットプラグオペレーションを通じて)サーバシステムからスイッチへのリンク、SANスイッチ(複数可)、スイッチからディスクデバイスへのリンク、デバイスポート/コントローラ利用不能性、及びホストシステムポートから成る群からのSANのコンポーネントの1つ又は2つ以上を伴うことができる。
一実施形態によれば、データセンターにおけるSAN再構成オペレーションは、次の方法でホストレベルの影響にマッピングすることができる。サーバシステム又はホストシステムからスイッチへのリンクに対する影響は、ホストシステムのHBAのホットプラグにマッピングすることができる。ディスクデバイスポートに対する影響、そのデバイス及び/又はディスクアレイによってエクスポートされたLUNを使用する、ホストシステム上の対応する「LUNパス」は、影響を受けるとみなされる。スイッチからデバイスポートへのリンクが影響を受ける場合には、これは、デバイスポートの影響と等価であるとみなすことができ、そのリンクが接続されているデバイスポートの下のLUNを使用するホストシステムは影響を受けるとみなされる。スイッチが影響を受ける場合には、そのスイッチに関連付けられた各リンクが影響を受ける場合があり、且つSANグラフにおいて、ホストシステム及びデバイスシステムに対する影響の形でマッピングすることができる。スイッチ間リンク(ISL)を通じたSANにおける或るスイッチの他のスイッチに対する影響、並びに、SANに接続された他のホストシステム及びデバイスに対する間接的な影響は、ノードの到達可能性の既知のグラフ理論の問題であり、或るエッジノードが、グラフのノード/枝(スイッチ/ISL)の喪失によって別のエッジノード(ホスト/デバイス)へのパスを喪失するかどうかを判断する技法が存在する。したがって、スイッチの影響を、SANに接続されたホストに対するLUNパスレベルの影響にマッピングすることができる。
図3のステップ304に続いて、データセンターにおける影響を受けるホストが特定される。データセンターの影響を受けるホストを特定するアルゴリズムを図4に示す。ホストシステムが影響を受けると判断される場合には、IAAは、ホストシステム上でデバイスクリティカリティ解析アルゴリズムを起動する。ホストシステムにおけるデバイスクリティカリティを求めるアルゴリズムの一例を図6に示す。
さらにステップ305に続いて、デバイスクリティカリティデータが、データセンターにわたる影響を受けるすべてのホストシステムから蓄積される。中央エージェントが、すべてのホストシステムにわたるIAAから受け取った結果を集約し、コンソリデートされた報告をデータセンターアドミニストレータに提供することができる。データセンターアドミニストレータは、SAN再構成オペレーションのコンソリデートされた報告を参照することができる。
図4は、図3のステップ304のデータセンターの影響を受けるホストを判断するアルゴリズムを詳細に示している。
ステップ401において、データセンターのホストシステムのそれぞれについての到達可能なLUNの集合が、SAN再構成オペレーションの前に計算される。SAN再構成オペレーションの前の到達可能なノードの集合は、本説明では、{R1}とも呼ぶ。ホストシステムの到達可能なLUNの集合は、図4で説明するアルゴリズムによって得ることができる。このデータは、ホストシステムノードにおけるローカルIAAエージェントを用いて記憶される。ステップ402において、IAAは、SANグラフにおいてSAN再構成オペレーションをマッピングした後に、ホストシステムの到達可能なLUNの集合(本説明では、{R2}とも呼ぶ)を計算する。ホストシステムの到達可能なLUNの集合{R2}は、SAN再構成オペレーションの後には、枝及び/又はアクセスパスの喪失により、{R1}とは異なる場合がある。
図4のステップ403に続いて、ホストシステムによって喪失されたLUNの集合が計算される。ホストシステムによって喪失されたLUNの集合は、SANグラフにおけるSAN再構成オペレーションのマッピング前のホストシステムの到達可能LUNの集合{R1}と、SAN再構成オペレーションのマッピング後のホストシステムの到達可能なLUNの集合{R2}との差を計算することによって得ることができる。ホストシステムの喪失されたLUNの個数は、本説明では、{R3};(|{R3}|=|{R1}−{R2}|)によっても表される。
さらにステップ404に続いて、ホストシステムが喪失したLUNの集合{R3}が空である場合には、ホストシステムは、「影響なし」として宣言することができる(405)。ホストシステムの到達可能なLUNの集合は、SANグラフにおけるSAN再構成オペレーションのマッピングの前後で同じである、すなわち、{R1}={R2}であるので、その特定のホストシステムは、SAN再構成オペレーションによる影響を受けない。
ホストシステムが喪失したLUNの集合{R3}が空でない場合には、その特定のホストシステムは、「影響あり」としてマーキングされる(406)。ホストシステムの到達可能なLUNの集合は、SANグラフにおけるSAN再構成オペレーションのマッピングの前後で同じでないので、その特定のホストシステムは、SAN再構成オペレーションによる影響を受ける。この影響は、SAN再構成オペレーションのマッピングの期間中、SANグラフからの枝及び/又はノードの除去後に、ホストシステムがそのLUN(複数可)を喪失したことによるものとすることができる。
ステップ407において、ホストシステムが「影響あり」とマーキングされている場合には、クリティカル資源解析(CRA)アルゴリズムが呼び出されて、影響を受ける資源が求められる。CRAアルゴリズムは、ホストシステムにおける影響を受ける資源の個数を求める。CRAアルゴリズムから得られたデバイスクリティカリティ報告は、ローカルIAAを用いて記憶することもできるし、中央エージェントへ直接送信することもできる。CRAアルゴリズムは、ホストシステム上でIAAを用いて記憶されたコンポーネント階層グラフをトラバースして、影響を受ける資源を求めることができる。
一実施形態によれば、資源解析は、ホストシステムのCHGをトラバースすることによって実行することができる。図6は、CHGのノードに関連付けられた冗長性属性を使用して影響を受けるノードを求めるCHGトラバースアルゴリズムを示すフローチャートである。資源クリティカリティは、影響ありとしてマーキングされたノードに関連付けられる使用属性及びクリティカリティ属性をチェックすることによって得ることができる。
ステップ408に続いて、影響を受ける資源のリストが、CRAアルゴリズムから得られる。影響を受ける資源のリストは、ホストシステム上のIAAによって、中央エージェントに対して利用可能にすることができる。中央エージェントは、IAAからのリストを集約して、データセンターにわたる影響を受けるすべての資源を含むコンソリデートされたリストを構築することができる。この集約は、単純に、データセンターにわたるIAAのそれぞれからのリストの和集合とすることができる。集約されたリストは、ユーザの参照用にユーザに提示することができる。
SAN再構成の期間中のデバイスクリティカリティを求めるアルゴリズムの擬似コード例は、次の通りである。
algorithm SAN_impact( input SAN Graph,
input Component Hierarchy of all hosts,
input components added/removed in SAN,
output Impacts at data center level)
begin
Compute the reachable LUN sets {R1} for each host in the SAN graph;
Apply the impacts of SAN reconfiguration on the nodes/edges of SAN graph;
Recompute the reachable LUN sets {R2} for each host in the SAN graph;
hosts_impacted = false;
for each host hi in the SAN do
Compute impacted LUN set {R3} = {R1} - {R2};
if {R3} is non-empty then
Compute criticality of losing LUN in {R3} using CRA on hi;
hosts_impacted = true;
endif
endfor

if hosts_impacted then
Report Criticality of the operation recorded and return for
future processing;
endif
end.
(アルゴリズム SAN_impact(入力されたSANグラフ,
入力された、すべてのホストのコンポーネント階層,
入力された、SANにおいて追加/除去されたコンポーネント,
データセンターレベルにおける出力される影響)
begin
SANグラフにおける各ホストの到達可能なLUNの集合{R1}を計算する;
SANグラフのノード/枝に対するSAN再構成の影響を適用する;
SANグラフにおける各ホストの到達可能なLUNの集合{R2}を再計算する;
hosts_impacted = false;
for each SANにおけるホストhi do
影響を受けるLUNの集合{R3}={R1}−{R2}を計算する;
if {R3}が非空である then
hi上でCRAを使用して{R3}のLUNを喪失することのクリティカリティを計算する;
hosts_impacted = true;
endif
endfor

if hosts_impacted then
記録されたオペレーションのクリティカリティを報告し、その後の処理のために返す;
endif
end.)
加えて、デバイスクリティカリティ報告は、解析の全体結果及び全体結果の理由も提供することができる。この実施形態では、全体結果は、成功、警告、データクリティカル、又はシステムクリティカルのいずれかである。
全体結果が成功である場合、これは、本技法が、影響を受ける資源を発見しなかったことを示し、ユーザには、成功メッセージが提供され、再構成オペレーションを進めることが可能にされる。
さらに、全体結果が警告である場合、これは、本技法が、1つ又は2つ以上の影響を受ける資源を発見したことを示している。一方、これらの影響を受ける資源には、低深刻度レベル(又は警告レベル)が割り当てられており、いずれにも、中深刻度レベル(又はデータクリティカルレベル)も高深刻度レベル(又はシステムクリティカルレベル)も割り当てられていない。ユーザには、影響を受ける資源がシステムオペレーションにとってクリティカルと考えられないことを明示する警告メッセージが提供され、再構成オペレーションを進めることが可能にされる。
続いて、全体結果がデータクリティカルである場合、これは、本技法が、1つ又は2つ以上の影響を受ける資源を発見したことを示している。一方、これらの影響を受ける資源の少なくとも1つには、中深刻度レベル(又はデータクリティカルレベル)が割り当てられており、いずれにも、高深刻度レベル(又はシステムクリティカルレベル)は割り当てられていない。ユーザには、システムに記憶されたデータが、おそらく又は場合によっては喪失されるが、システムはおそらくクラッシュもしないし、不健全/故障状態にも入らないことを明示するデータクリティカルメッセージが提供される。さらに、報告は、再構成による影響を受ける可能性のあるデータセンターのすべてのプロセスをリスト又は列挙することができる。次に、プロセスレベルの影響をより大きなアプリケーションレベルの影響にマッピングすることができる。
全体結果がシステムクリティカルである場合、これは、本技法が、1つ又は2つ以上の影響を受ける資源を発見したことを示している。一方、これらの影響を受ける資源の少なくとも1つには、高深刻度レベル(又はシステムクリティカルレベル)が割り当てられている。ユーザには、システムがクラッシュするか又は不健全/故障状態に入る可能性があることを言明するシステムクリティカルメッセージが提供される。この場合、ユーザが再構成オペレーションを進めることが阻止される。
本技法の上記変形形態のいずれも、適した汎用コンピュータをプログラミングすることによって実施することができる。プログラミングは、コンピュータによって読み出し可能なプログラムストレージデバイスの使用、及び、上述したオペレーションを行うコンピュータにより実行可能な命令から成るプログラムをコーディングすることを通じて達成することができる。
本明細書に含まれるフローチャートは、必ずしも、単一のホットプラグイベントにおける実行を表すものではなく、むしろ、いくつかの例では、複数のホットプラグオペレーションで行われる一連の協調したステップ、イベント、又はプロセスを表すことができる。加えて、本明細書のフローチャートは、図面に明示的に表されたイベント、ステップ、又はプロセスの間で、他のイベント、ステップ、又はプロセスを行うことができないことを暗に意味するものと解釈されるべきではない。
本発明の特定の実施形態の上記説明は、例示及び説明の目的で提示されたものである。それら説明は、網羅的であることを目的とするものでもなければ、開示した厳密な形に本発明を限定することを目的とするものでもなく、上記教示に鑑み、多くの変更及び変形が可能である。本実施形態は、本発明の原理及びその実用的な用途を最も良く説明し、それによって、他の当業者が、本発明及びさまざまな変更を有するさまざまな実施形態を、意図される特定の使用に適するように最良に利用することを可能にするために選ばれて説明されたものである。本発明の範囲は、本明細書に添付した特許請求の範囲及びその均等物によって規定されることが意図されている。
SAN構成の概略図である。 SANグラフの構築に関与するステップを示すフローチャートである。 SAN再構成オペレーションのデバイスクリティカリティを求める方法に関与するステップを示す図である。 SAN構成のホストレベルにおけるデバイスクリティカリティを求めることに関与するステップを示す図である。 ネットワークの論理パス及び物理パスを求めるプロセスを示す図である。 システムのホストでデバイスクリティカリティ解析を行うコンポーネント階層グラフのトラバースのフローチャートの一例を示す図である。 SAN構成におけるホストバスアダプタのコンポーネント階層グラフの一例を示す図である。
符号の説明
1・・・ネットワーク
2a〜2c・・・ホスト
3a〜3e・・・データリンク
4a、4b・・・スイッチ
5a〜5d・・・ストレージエレメント
6a〜6f・・・ホストバスアダプタ
7a〜7d・・・コントローラ
8・・・ファブリック
9・・・サブコンポーネント
10・・・論理ユニット番号
11・・・ローカルエリアネットワーク
12a、12b・・・クライアントコンピュータ

Claims (9)

  1. ストレージエリアネットワークを管理する管理コンピュータに、
    前記ストレージエリアネットワークを構成する複数のノード間の接続グラフを構築するステップと、
    前記構築された接続グラフに基づいて、前記ストレージエリアネットワークを構成するホストコンピュータそれぞれについて、ホストコンピュータから到達可能な論理ユニット番号の集合を算出するステップと、
    前記ホストコンピュータそれぞれについて、前記ストレージエリアネットワークの再構成前に前記算出された到達可能な論理ユニット番号と、前記ストレージエリアネットワークの再構成後に前記算出された到達可能な論理ユニット番号とが一致しない場合、この論理ユニット番号に対応するホストコンピュータを、前記ストレージエリアネットワークの再構成による影響を受けるホストコンピュータとして特定するステップと
    を実行させ、
    前記ホストコンピュータそれぞれに、
    このホストコンピュータ上で実行されているプロセスと、このホストコンピュータを構成するソフトウェアおよびハードウェアとをマッピングし、前記プロセス、前記ソフトウェアおよび前記ハードウェアそれぞれの資源の冗長性を示す冗長性属性を有するコンポーネント階層グラフを構築するステップと、
    前記ストレージエリアネットワークの再構成による影響を受けるホストコンピュータとして特定された場合、前記構築されたコンポーネント階層グラフをトラバースして、前記資源それぞれの冗長性属性に基づいて、このホストコンピュータにおいて前記影響を受ける資源を求めるステップと
    を実行させる
    方法。
  2. 前記管理コンピュータに、
    前記求められた資源情報を、前記ホストコンピュータそれぞれから集約して蓄積するステップと、
    前記蓄積された資源情報に基づいて、前記ストレージエリアネットワークにおける再構築による影響情報を生成するステップと
    をさらに実行させる
    請求項1に記載の方法。
  3. 前記コンポーネント階層グラフは、非循環有向グラフである
    請求項に記載の方法。
  4. 前記コンポーネント階層グラフは、前記資源それぞれが前記影響を受けることによる深刻度を有し、
    前記影響情報は、
    前記影響を受ける資源情報が蓄積されている場合、前記蓄積された資源情報それぞれに対応する深刻度に基づいて、予め定められた段階の影響度のうちのいずれかを示し、
    それ以外の場合、前記再構築による影響がないことを示す
    請求項に記載の方法。
  5. 前記管理コンピュータに、
    グラフィカルユーザインターフェースによって、前記ストレージエリアネットワークの状態をユーザに提示するステップ
    をさら実行させる請求項1に記載の方法。
  6. ストレージエリアネットワークを構成する複数のノード間の接続グラフを構築する構築手段と、
    前記構築された接続グラフに基づいて、前記ストレージエリアネットワークを構成するホストコンピュータそれぞれについて、ホストコンピュータから到達可能な論理ユニット番号の集合を算出する算出手段と、
    前記ホストコンピュータそれぞれについて、前記ストレージエリアネットワークの再構成前に前記算出された到達可能な論理ユニット番号と、前記ストレージエリアネットワークの再構成後に前記算出された到達可能な論理ユニット番号とが一致しない場合、この論理ユニット番号に対応するホストコンピュータを、前記ストレージエリアネットワークの再構成による影響を受けるホストコンピュータとして特定する特定手段と、
    前記ホストコンピュータそれぞれについて、ホストコンピュータ上で実行されているプロセスと、ホストコンピュータを構成するソフトウェアおよびハードウェアとをマッピングし、前記プロセス、前記ソフトウェアおよび前記ハードウェアそれぞれの資源の冗長性を示す冗長性属性を有するコンポーネント階層グラフを構築する階層グラフ構築手段と、
    前記ストレージエリアネットワークの再構成による影響を受けると特定されたホストコンピュータについて、前記構築されたコンポーネント階層グラフをトラバースして、前記資源それぞれの冗長性属性に基づいて、このホストコンピュータにおいて前記影響を受ける資源を求める取得手段と
    を備える装置。
  7. 前記求められた資源情報を、前記ホストコンピュータそれぞれから集約して蓄積する蓄積手段と、
    前記蓄積された資源情報に基づいて、前記ストレージエリアネットワークにおける再構築による影響情報を生成する生成手段と
    をさらに備える請求項に記載の装置
  8. グラフィカルユーザインターフェースによって、前記ストレージエリアネットワークの状態をユーザに提示する提示手段と
    さらに備える請求項に記載の装置。
  9. ストレージエリアネットワークを管理する管理コンピュータに、
    前記ストレージエリアネットワークを構成する複数のノード間の接続グラフを構築するステップと、
    前記構築された接続グラフに基づいて、前記ストレージエリアネットワークを構成するホストコンピュータそれぞれについて、ホストコンピュータから到達可能な論理ユニット番号の集合を算出するステップと、
    前記ホストコンピュータそれぞれについて、前記ストレージエリアネットワークの再構成前に前記算出された到達可能な論理ユニット番号と、前記ストレージエリアネットワークの再構成後に前記算出された到達可能な論理ユニット番号とが一致しない場合、この論理ユニット番号に対応するホストコンピュータを、前記ストレージエリアネットワークの再構成による影響を受けるホストコンピュータとして特定するステップと
    を実行させ、
    前記ホストコンピュータそれぞれに、
    このホストコンピュータ上で実行されているプロセスと、このホストコンピュータを構成するソフトウェアおよびハードウェアとをマッピングし、前記プロセス、前記ソフトウェアおよび前記ハードウェアそれぞれの資源の冗長性を示す冗長性属性を有するコンポーネント階層グラフを構築するステップと、
    前記ストレージエリアネットワークの再構成による影響を受けるホストコンピュータとして特定された場合、前記構築されたコンポーネント階層グラフをトラバースして、前記資源それぞれの冗長性属性に基づいて、このホストコンピュータにおいて前記影響を受ける資源を求めるステップと
    を実行させる
    コンピュータプログラム。
JP2008129128A 2007-05-29 2008-05-16 San再構成の期間中のデバイスクリティカリティを求める方法及びシステム Expired - Fee Related JP4740979B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN1115/CHE/2007 2007-05-29
IN1115CH2007 2007-05-29

Publications (2)

Publication Number Publication Date
JP2009015826A JP2009015826A (ja) 2009-01-22
JP4740979B2 true JP4740979B2 (ja) 2011-08-03

Family

ID=40089585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008129128A Expired - Fee Related JP4740979B2 (ja) 2007-05-29 2008-05-16 San再構成の期間中のデバイスクリティカリティを求める方法及びシステム

Country Status (2)

Country Link
US (1) US20080301394A1 (ja)
JP (1) JP4740979B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4848392B2 (ja) * 2007-05-29 2011-12-28 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. コンピュータ構成におけるホットプラグのデバイスのクリティカリティを求める方法及びシステム
US8339994B2 (en) * 2009-08-27 2012-12-25 Brocade Communications Systems, Inc. Defining an optimal topology for a group of logical switches
US9191267B2 (en) 2012-09-27 2015-11-17 International Business Machines Corporation Device management for determining the effects of management actions
US9021307B1 (en) * 2013-03-14 2015-04-28 Emc Corporation Verifying application data protection
US9436411B2 (en) * 2014-03-28 2016-09-06 Dell Products, Lp SAN IP validation tool
US9906401B1 (en) 2016-11-22 2018-02-27 Gigamon Inc. Network visibility appliances for cloud computing architectures

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002508555A (ja) * 1998-03-26 2002-03-19 アベスタ テクノロジーズ, インコーポレイテッド 複合ネットワークの動的モデリングおよびその中での障害の影響の予測
JP2003529847A (ja) * 2000-04-04 2003-10-07 ゴー アヘッド ソフトウェア インコーポレイテッド 有向グラフを用いた役割管理用コンポーネント管理データベースの構築
US20050071482A1 (en) * 2003-09-30 2005-03-31 Gopisetty Sandeep K. System and method for generating perspectives of a SAN topology
JP2005309748A (ja) * 2004-04-21 2005-11-04 Hitachi Ltd ストレージシステム及びストレージシステムの障害解消方法
US20070011499A1 (en) * 2005-06-07 2007-01-11 Stratus Technologies Bermuda Ltd. Methods for ensuring safe component removal
JP2009048610A (ja) * 2007-05-29 2009-03-05 Hewlett-Packard Development Co Lp コンピュータ構成におけるホットプラグのデバイスのクリティカリティを求める方法及びシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7113988B2 (en) * 2000-06-29 2006-09-26 International Business Machines Corporation Proactive on-line diagnostics in a manageable network
US20040024573A1 (en) * 2002-07-31 2004-02-05 Sun Microsystems, Inc. Method, system, and program for rendering information about network components
US20040059807A1 (en) * 2002-09-16 2004-03-25 Finisar Corporation Network analysis topology detection
WO2004038700A2 (en) * 2002-10-23 2004-05-06 Onaro Method and system for validating logical end-to-end access paths in storage area networks
US7489639B2 (en) * 2005-03-23 2009-02-10 International Business Machines Corporation Root-cause analysis of network performance problems
US7484055B1 (en) * 2005-06-13 2009-01-27 Sun Microsystems, Inc. Fast handling of state change notifications in storage area networks
US7519624B2 (en) * 2005-11-16 2009-04-14 International Business Machines Corporation Method for proactive impact analysis of policy-based storage systems
US8635376B2 (en) * 2006-02-22 2014-01-21 Emulex Design & Manufacturing Corporation Computer system input/output management
US7716381B2 (en) * 2006-02-22 2010-05-11 Emulex Design & Manufacturing Corporation Method for tracking and storing time to complete and average completion time for storage area network I/O commands
US7624178B2 (en) * 2006-02-27 2009-11-24 International Business Machines Corporation Apparatus, system, and method for dynamic adjustment of performance monitoring
US8209410B2 (en) * 2007-08-23 2012-06-26 Ubs Ag System and method for storage management
US8145850B2 (en) * 2009-06-22 2012-03-27 Hewlett-Packard Development Company, L.P. Method and system for visualizing a storage area network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002508555A (ja) * 1998-03-26 2002-03-19 アベスタ テクノロジーズ, インコーポレイテッド 複合ネットワークの動的モデリングおよびその中での障害の影響の予測
JP2003529847A (ja) * 2000-04-04 2003-10-07 ゴー アヘッド ソフトウェア インコーポレイテッド 有向グラフを用いた役割管理用コンポーネント管理データベースの構築
US20050071482A1 (en) * 2003-09-30 2005-03-31 Gopisetty Sandeep K. System and method for generating perspectives of a SAN topology
JP2007509384A (ja) * 2003-09-30 2007-04-12 インターナショナル・ビジネス・マシーンズ・コーポレーション Sanトポロジのパースペクティブを生成するためのシステムおよび方法
JP2005309748A (ja) * 2004-04-21 2005-11-04 Hitachi Ltd ストレージシステム及びストレージシステムの障害解消方法
US20070011499A1 (en) * 2005-06-07 2007-01-11 Stratus Technologies Bermuda Ltd. Methods for ensuring safe component removal
JP2009048610A (ja) * 2007-05-29 2009-03-05 Hewlett-Packard Development Co Lp コンピュータ構成におけるホットプラグのデバイスのクリティカリティを求める方法及びシステム

Also Published As

Publication number Publication date
JP2009015826A (ja) 2009-01-22
US20080301394A1 (en) 2008-12-04

Similar Documents

Publication Publication Date Title
US7546333B2 (en) Methods and systems for predictive change management for access paths in networks
US8898269B2 (en) Reconciling network management data
US10346230B2 (en) Managing faults in a high availability system
JP5060485B2 (ja) 複製データの可用性及び最新性を検証するための方法及びシステム。
JP4740979B2 (ja) San再構成の期間中のデバイスクリティカリティを求める方法及びシステム
US7961594B2 (en) Methods and systems for history analysis for access paths in networks
US8054763B2 (en) Migration of switch in a storage area network
US9736046B1 (en) Path analytics using codebook correlation
US20130246838A1 (en) Discovering boot order sequence of servers belonging to an application
US20050198248A1 (en) System layout design program, system layout design apparatus, and system layout design method for automatically configuring systems
JP2017529590A (ja) グラフ理論を用いたアプリケーション、仮想化およびクラウド・インフラストラクチャ・リソースの集中型分析
US9043658B1 (en) Automatic testing and remediation based on confidence indicators
JP6215481B2 (ja) クラウド環境におけるitインフラ管理のための方法とその装置
CN109726066B (zh) 用于标识存储系统中的问题部件的方法和设备
US20110012902A1 (en) Method and system for visualizing the performance of applications
US9619353B2 (en) Redundant array of independent disk (RAID) storage recovery
US9588853B2 (en) Automatic management of server failures
US20180343162A1 (en) System management apparatus and system management method
WO2013171865A1 (ja) 管理方法及び管理システム
US10210127B2 (en) Storage system cabling analysis
US20200067788A1 (en) Network testing simulation
US20170132056A1 (en) Durability and availability evaluation for distributed storage systems
US8996769B2 (en) Storage master node
US11256584B2 (en) One-step disaster recovery configuration on software-defined storage systems
US11016851B2 (en) Determine recovery mechanism in a storage system by training a machine learning module

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees