JP5425117B2 - 計算機システム、及びその管理方法、並びにプログラム - Google Patents

計算機システム、及びその管理方法、並びにプログラム Download PDF

Info

Publication number
JP5425117B2
JP5425117B2 JP2011014257A JP2011014257A JP5425117B2 JP 5425117 B2 JP5425117 B2 JP 5425117B2 JP 2011014257 A JP2011014257 A JP 2011014257A JP 2011014257 A JP2011014257 A JP 2011014257A JP 5425117 B2 JP5425117 B2 JP 5425117B2
Authority
JP
Japan
Prior art keywords
information
management
configuration information
storage
host computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011014257A
Other languages
English (en)
Other versions
JP2012155544A (ja
Inventor
泰隆 河野
純一 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011014257A priority Critical patent/JP5425117B2/ja
Priority to PCT/JP2011/053322 priority patent/WO2012101836A1/ja
Priority to US13/130,001 priority patent/US8812642B2/en
Publication of JP2012155544A publication Critical patent/JP2012155544A/ja
Application granted granted Critical
Publication of JP5425117B2 publication Critical patent/JP5425117B2/ja
Priority to US14/458,866 priority patent/US9201613B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/06Addressing a physical block of locations, e.g. base addressing, module addressing, memory dedication
    • G06F12/0646Configuration or reconfiguration
    • G06F12/0653Configuration or reconfiguration with centralised address assignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、計算機システム、及びその管理方法、並びにプログラムに関し、例えば、計算機システム内の管理対象の構成管理に関するものである。
近年、企業や個人の利用するデータの量は急激に増加している。そこで、記憶装置(以下、ストレージサブシステムとも表記する)やホスト計算機をスイッチやハブで接続し、柔軟なデータ管理を可能にするSAN(Storage Area Network)や、NAS(Network Attached Storage)といった技術を利用したストレージシステムが広く利用されている。
また、近年ではストレージシステム(計算機システムとも言う)の複雑化に伴い、ストレージシステムの運用コストの低減が重要な課題となっている。これを解決する1つの方法として、ストレージサブシステムやホスト計算機、スイッチ、ハブなど、ストレージシステムの構成を、管理ソフトウェアによって一元的に管理する方法がある。このような方法には、例えば特許文献1にて開示されている方法がある。このような技術を利用することで、ストレージシステムの管理者は、例えば複数のストレージサブシステムから複数のホスト計算機までの記憶リソースのつながりを参照する、あるいはストレージサブシステムからホスト計算機に新たにリソースを割り当てる、といった管理操作を単一の管理ソフトウェアから行うことができる。また、このような技術により、管理者は、単一の管理ソフトウェアによって、ストレージサブシステム、ホスト計算機、スイッチ、ハブなどから構成されるストレージシステムを一元的に管理することができるようになる。
特開2002−63063号公報 特開2004−5370号公報 特開2005−250925号公報
一方、最近では、企業などのデータセンタに設置されるストレージサブシステムやホスト計算機などの台数が増加し、ストレージシステムが大規模化している。
しかしながら、特許文献1に代表される従来技術による方法では、ストレージシステムの全ての構成情報を管理ソフトウェアが常に保持している。このため、管理計算機が持つメモリなどのリソースの不足が原因で、データセンタ内の全てのストレージサブシステムやホスト計算機を単一の管理ソフトウェアで管理できないという課題がある。また、たとえ管理自体は可能であっても、管理操作を行った際に管理ソフトウェアの処理時間が長くなり、管理の効率が低下する、といった課題がある。
本発明はこのような状況に鑑みてなされたものであり、大規模なストレージシステムであっても、当該システムを効率よく一元的に管理できるようにするための技術を提供するものである。
上記課題を解決するために、本発明では、管理ソフトウェアがストレージシステム(計算機システム)の構成情報を2段階に分けて取得する。第1段階目では、管理ソフトウェアはストレージサブシステム、ホスト計算機、スイッチ、ハブなどから、それらが持つリソースの基本的な情報(リソースの識別子、リソースの数、リソース間の関連等、リソースの追加・変更がない限り、システム運用中に値が変動しない固定的な情報のみを含む)のみを取得する。次に、管理ソフトウェアは、取得した基本情報に基づき、詳細な構成情報を取得する範囲、タイミング、保持の必要性を決定する。そして、第2段階目において、管理ソフトウェアは、適切なタイミングで、適切な範囲の詳細な構成情報(システム運用中に値が変動する情報を含む)を取得する。管理ソフトウェアは、基本情報については常に保持しておくが、詳細情報については保持の必要性がある情報に関してのみ、保持する。
即ち、本発明では、管理計算機は、記憶装置(ストレージサブシステム)及びホスト計算機の構成要素の識別子及び構成要素の対応関係を少なくとも含む構成要素基本構成情報を取得する。また、管理計算機は、計算機システムを運用するに従って変動する構成要素の詳細構成情報を取得するための取得条件及び取得方法を示す詳細情報取得規則に基づいて、構成要素基本構成情報に対応する詳細構成情報を取得する。
詳細情報取得規則は、複数の前記取得条件と当該取得条件に対応する複数の前記取得方法の組み合わせによって構成される。また、取得方法の情報は、詳細構成情報を取得する範囲とタイミングについての情報を含んでいる。この場合、管理計算機は、複数の取得条件のそれぞれについて、取得条件を満たす構成要素が存在するか判定し、当該判定結果及び対応する取得方法に基づいて、詳細構成情報を取得する。
本発明に関連する更なる特徴は、以降に続く記述に一部は明記され一部は本記述から明らかになり、或は本発明の実施により学ぶことが出来る。本発明の態様は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付されるクレームの様態により達成され実現される。
前述及び後述の記述は典型的で説明の為であり、本発明のクレーム又はアプリケーションを如何なる意味に於いても限定するものではないことを理解する必要がある。
本発明によれば、大規模なストレージシステム(計算機システム)であっても、当該システムを効率よく一元的に管理できるようになる。
本発明の第1の実施形態における計算機システム(ストレージシステム)の概略構成を示す図である。 ストレージ構成情報テーブル群の構成例を示す図である。 ボリューム割当てテーブルの構成例を示す図である。 物理リソース割当てテーブルの構成例を示す図である。 構成情報テーブル群の構成例を示す図である。 ストレージ情報テーブルの構成例を示す図である。 ボリューム情報テーブルの構成例を示す図である。 プール情報テーブルの構成例を示す図である。 物理リソース情報テーブルの構成例を示す図である。 ホスト情報テーブルの構成例を示す図である。 ホスト関連情報テーブルの構成例を示す図である。 ボリューム割当て情報テーブルの構成例を示す図である。 情報取得条件テーブルの構成例を示す図である。 管理タスクテーブルの構成例を示す図である。 ストレージサブシステムやホスト計算機を管理ソフトウェアの管理対象として登録する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機から管理ソフトウェアが情報を取得する範囲とタイミングを決定する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機から管理ソフトウェアが情報を取得する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機に対する管理操作を管理ソフトウェアに登録する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機に対する管理操作を管理ソフトウェアが実行する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機で発生した障害の情報を管理ソフトウェアが受信する処理を説明するためのフローチャートである。 ストレージサブシステムやホスト計算機の情報を管理ソフトウェアが表示する処理を説明するためのフローチャートである。 本発明によるユーザインタフェース(リソース一覧表示)の構成例を示す図である。 本発明によるユーザインタフェース(論理ボリュームの詳細表示)の構成例を示す図である。 第2の実施形態における計算機システムの概略構成を示す図である。 第2の実施形態におけるストレージ構成情報テーブル群の構成例を示す図である。 第2の実施形態における物理リソース割当てテーブルの構成例を示す図である。 第2の実施形態におけるコピー情報テーブルの構成例を示す図である。 第2の実施形態における情報取得条件テーブルの構成例を示す図である。 第3の実施形態における計算機システムの概略構成を示す図である。 第3の実施形態における構成情報テーブル群の構成例を示す図である。 第3の実施形態における情報最終更新日時テーブルの構成例を示す図である。 第3の実施形態における情報取得条件テーブルの構成例を示す図である。 第3の実施形態における情報保持ポリシテーブルの構成例を示す図である。 第3の実施形態において、ストレージサブシステムやホスト計算機から管理ソフトウェアが情報を取得する処理を説明するためのフローチャートである。 第3の実施形態において、管理ソフトウェアがストレージサブシステムやホスト計算機から定期的に情報を取得する処理を説明するためのフローチャートである。
以下、添付図面を参照して本発明の実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
本実施形態では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
更に、本発明の実施形態は、後述されるように、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。
本発明の1つの実施形態においては、管理ソフトウェアがストレージシステムの構成情報のうち、詳細な情報を取得する範囲とタイミングを決定するための条件(以下、情報取得条件と表記する)を保持し、当該条件に基づいて、ストレージシステムの構成情報の取得を制御する。なお、情報取得条件は管理ソフトウェアがデータとして保持しても良いし、プログラム中のロジックとして実装しても良い。また、情報取得条件は管理ソフトウェアのユーザが入力しても良い。
情報取得条件には、例えば、ユーザが管理操作を実行する頻度が高いストレージサブシステムについては詳細情報を常に管理ソフトが保持する、という条件や、直近の24時間以内に重大な障害が発生したストレージサブシステムについては、障害が発生したリソースと、そのリソースと関連のあるリソースについてのみ、管理ソフトが詳細情報を保持する、といった条件がある。
なお、以後の説明では「テーブル」形式によって本発明の各情報について説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくても良く、リスト、DB、キュー等のデータ構造やそれ以外で表現されていても良い。そのため、データ構造に依存しないことを示すために「テーブル」、「リスト」、「DB」、「キュー」等について単に「情報」と呼ぶことがある。
また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
以下では「プログラム」を主語(動作主体)として本発明の実施形態における各処理について説明を行うが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
A.第1の実施形態
<計算機システムの構成>
図1は、本発明の第1の実施形態による計算機システムの概略構成を示す図である。計算機システム100は、ストレージサブシステム1000と、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000と、スイッチ装置5000と、を有している。図1では、ストレージサブシステム1000が2台存在すると共に、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000と、スイッチ装置5000と、がそれぞれ1台ずつ存在しているがこの限りではなく、1台以上存在すれば良い。
ストレージサブシステム1000とホスト計算機2000は、スイッチ装置3000を介してネットワーク接続されている。また、ストレージサブシステム1000とホスト計算機2000と管理計算機4000は、スイッチ装置5000を介してネットワーク接続されている。なお、スイッチ装置3000とスイッチ装置5000は同一の装置であっても良い。またスイッチ装置5000は、ストレージサブシステム1000と管理計算機4000を接続する装置と、ホスト計算機2000と管理計算機4000を接続する装置に分かれていても良い。
スイッチ装置5000は、ストレージサブシステム1000との接続のためのI/F(A)5100と、管理計算機4000との接続のためのI/F(B)5200と、ホスト計算機2000との接続のためのI/F(C)5300と、を有している。ストレージサブシステム1000と管理計算機4000とホスト計算機2000と、これらを接続するスイッチ装置5000との間で利用されるネットワークプロトコルには、TCP/IPなどがあるが特に限定はしない。また、図中ではI/F(A)5100が1つ、I/F(B)5200が1つ、I/F(C)5300が1つ存在しているがこの限りではなく、1つ以上存在すれば良い。
また、図1では、管理計算機4000とストレージサブシステム1000は別々の装置として示されているが、この限りではなく、管理計算機4000はストレージサブシステム1000と同一の筐体内に存在しても良い。
(i)ストレージサブシステム
ストレージサブシステム1000は、ディスク装置1100と、ディスクコントローラ1200と、を有している。
ディスク装置1100は、物理リソース1121と、プール1120と、を有している。ここで、物理リソース1121とは、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの物理デバイスによって提供される記憶領域のリソースのことを表している。ただし、物理リソース1121を提供する物理デバイスの種類については特に限定しない。プール1120は、物理リソース1121のグループである。一般的にプール1120は、RAID(Redundant Array of Independent Disks)と呼ばれる技術を用いて、物理リソース1121を冗長化した上で構成されるが、この限りではなく、1つ以上の物理リソース1121をグループ化したものであれば良い。図中では、プール1120が4つ、物理リソース1121が5つ存在しているがこの限りではなく、1つ以上存在すれば良い。例えば、論理ボリューム1110(1)に接続されるプール1120は、RAIDによって構成され、論理ボリューム1110(2)に接続されるプール1120は、Thin Provisioning技術による仮想ボリュームを提供するように構成されている。ただし、この限りではなく、両方がRAIDで構成されても良いし、両方が仮想ボリュームを提供するように構成されても良い。
ディスクコントローラ1200は、メモリ1210と、制御装置(プロセッサとも言う)1220と、スイッチ装置3000との接続のためのI/F (Interface)1230と、スイッチ装置5000との接続のためのI/F(B)1240と、ディスク装置との接続のためのディスクI/F1250と、を有している。これらの構成要素はバスを通じて接続されている。
ディスクコントローラ1200は更に、論理ボリューム1110を有している。論理ボリューム1110は、1つ以上の物理リソースから構成され、ディスクコントローラ1200によって、ホスト計算機2000に提供される、論理的な記憶領域のことを表している。ここで、論理ボリューム1110(1)は、あらかじめ割当てられた、1又は複数の物理リソース1121から構成されており、論理ボリューム1110(1)の容量と、それを構成する物理リソース1121の合計の容量とは等しい。但し、物理リソースがRAIDによって冗長化されている場合は、論理ボリューム1110(1)の容量は、それを構成する物理リソース1121の合計の容量より少ない場合もある。一方、論理ボリューム1110(2)は、ホスト計算機2000に対して提供される仮想的な論理ボリュームであり、ホスト計算機2000からの書き込み要求に応じて、物理リソース1121が割当てられるものである。具体的には、ディスクコントローラ1200は、論理ボリューム1110(2)に対するデータの書き込み要求を受領したとき、当該書き込み要求の対象領域に対して物理リソースが割当てられていない場合に、物理リソース1121の記憶領域を論理ボリューム1100(2)に割当て、当該割当てられた物理リソースの記憶領域にデータを書き込む。これによって、ホスト計算機2000に提供される論理ボリューム1110(2)の記憶容量を、実際に割り当てられている物理リソース1121の合計容量よりも、大きな容量とすることができる。なお、図1では、上述の2種類の論理ボリューム1110が1つずつ存在しているが、この限りでなく、どちらか一方のみ、もしくは2種類が混在していてもよく、1つ以上の論理ボリューム1110が存在していれば良い。
メモリ1210は、制御装置1220が用いるプログラムとデータを記憶する。特にメモリ1210は、ストレージ情報取得プログラム1211と、ストレージ構成情報テーブル群1212と、ストレージ障害通知プログラム1213と、を有している。
ストレージ情報取得プログラム1211は、ストレージサブシステム1000の構成情報を収集し、当該情報を他プログラムに送信するプログラムである。
ストレージ構成情報テーブル群1212は、ストレージサブシステム1000の構成情報を格納するテーブルの集合である。
ストレージ障害通知プログラム1213は、ストレージサブシステム1000内で発生した障害の情報を、他のプログラム(構成管理プログラム4110)に通知するプログラムである。障害の種類には例えば、物理リソース1121を提供する物理デバイスの故障などがあるが、特に限定はしない。
制御装置1220は、メモリ1210内のプログラムの実行やデータの入出力、ディスクコントローラ1200が有する各I/Fを通じたデータや制御命令の入出力を制御する。
ストレージサブシステム1000は他に、物理リソース1121からプール1120を構成する機能や、プール1120から論理ボリューム1110を生成する機能、論理ボリュームをI/F(A)1230を通じてホスト計算機2000に割り当てる機能、管理計算機4000からストレージサブシステム1000の構成や設定の変更要求を受け付ける機能など、ストレージ装置として一般的な機能を有している。
また、ストレージサブシステム1000は他に、ストレージサブシステム1000のユーザがデータを入力するための入力装置や、ストレージサブシステム1000のユーザに情報を提示するための出力装置を有していても良いが、本発明とは直接関係ないため、図示はしない。
(ii)ホスト計算機
ホスト計算機2000は、メモリ2100と、制御装置(プロセッサとも言う)2200と、スイッチ装置3000との接続のためのI/F(A)2300と、スイッチ装置5000との接続のためのI/F(B)2400と、を有している。これらの構成要素はバスを通じて接続されている。メモリ2100は、制御装置2200が用いるプログラムとデータを記憶する。特にメモリ2100は、アプリケーションプログラム2110と、ホスト情報取得プログラムと、ホスト障害通知プログラムと、を有する。
アプリケーションプログラム2110はどのようなプログラムであっても構わない。
ホスト情報取得プログラム2120は、ホスト計算機2000の構成情報を収集し、当該情報を他プログラム(構成管理プログラム4110)に送信するプログラムである。なお、ホスト情報取得プログラムはOS(Operating System)とは別のプログラムであっても良いし、OS自体の機能として実現されても良い。
ホスト障害通知プログラム2130は、ホスト計算機2000内で発生した障害の情報を、他のプログラム(構成管理プログラム4110)に通知するプログラムである。障害の種類には例えば、メモリ2100の故障などがあるが、特に限定はしない。
制御装置2200は、メモリ2100内のプログラムの実行やデータの入出力、I/F(A)2300を通じたデータや制御命令の入出力を制御する。
ホスト計算機2000は他に、ホスト計算機2000のユーザがデータを入力するための入力装置(キーボード、マウス等のポインティングデバイス、音声入力装置等)や、ホスト計算機2000のユーザに情報を提示するための出力装置(ディスプレイ装置、プリンタ、音声出力装置等)、データを記憶するための二次記憶装置を有していても良いが、本発明とは直接関係ないため、図示はしない。
スイッチ装置3000は、ストレージサブシステム1000との接続のためのI/F(A)3100と、ホスト計算機2000との接続のためのI/F(B)3200と、を有している。ストレージサブシステム1000とホスト計算機2000および両者を接続するスイッチ装置3000との間で利用されるネットワークプロトコルには、FC(Fibre Channel)やiSCSIなどがあるが特に限定はしない。また、図中ではI/F(A)3100が1つ、I/F(B)3200が1つ存在しているがこの限りではなく、1つ以上存在すれば良い。
(iii)管理計算機
管理計算機4000は、メモリ4100と、制御装置(プロセッサとも言う)4200と、スイッチ装置5000との接続のためのI/F4300と、を有している。メモリ4100は、制御装置4200が用いるプログラムとデータを記憶する。例えば、メモリ4100は、構成管理プログラム4110と情報収集プログラム4120と、構成情報テーブル群4130と、情報取得方法決定プログラム4140と、情報取得条件テーブル4150と、管理タスクテーブル4160と、を有している。
管理計算機4000は他に、管理計算機4000のユーザがデータを入力するための入力装置や、管理計算機4000のユーザに情報を提示するための出力装置、データを記憶するための二次記憶装置を有していても良い。また、管理計算機4000が持つ各種テーブルは、メモリ上だけでなく二次記憶装置上に保持しても良い。
構成管理プログラム4110は、ストレージサブシステム1000およびホスト計算機2000の構成を管理するためのプログラムである。構成管理プログラム4110は、例えば、情報収集プログラム4120を介して、ストレージサブシステム1000やホスト計算機2000の構成情報を収集する機能と、ストレージ障害通知プログラム1213やホスト障害通知プログラム2130から、ストレージサブシステム1000やホスト計算機2000内で発生した障害に関する情報を受信する機能と、を有する。構成管理プログラム4110は他に、物理リソース1121からプール1120を構成する機能や、プール1120から論理ボリューム1110を生成する機能、論理ボリューム1110をI/F(A)1230を通じてホスト計算機2000に割り当てる機能、特定の時刻に特定の処理を行うスケジューラ機能など、管理計算機として一般的な機能を有している。また、構成管理プログラム4110は、ストレージサブシステム1000やホスト計算機2000の構成情報の表示や、ストレージサブシステム1000やホスト計算機2000に対する管理操作を行うためのユーザインタフェースを提供する。
情報収集プログラム4120は、ストレージサブシステム1000やホスト計算機2000の構成情報を収集するプログラムである。情報収集プログラム4120は、ストレージサブシステム1000が持つストレージ情報取得プログラム1211と通信することによって、ストレージサブシステム1000の構成情報を取得する機能と、ホスト計算機2000が持つホスト情報取得プログラム2120と通信することによって、ホスト計算機2000の構成情報を取得する機能と、を有する。
構成情報テーブル群4130は、ストレージサブシステム1000やホスト計算機2000の構成情報を格納するテーブルの集合である。
情報取得方法決定プログラム4140は、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000から情報を収集する際の、情報取得の方法を決定するプログラムである。本実施例においては、情報取得の方法には情報取得対象の範囲と、情報取得のタイミングが含まれる。
情報取得条件テーブル4150は、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000から情報を収集する際の、条件と情報取得方法を示すテーブルである。
管理タスクテーブル4160は、構成管理プログラム4110が実行する管理タスクの情報を格納するテーブルである。
なお、管理計算機4000が有する入力装置及び表示装置(出力装置)の代替としてシリアルインターフェースやイーサーネットインターフェースを入出力装置とし、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。
また、管理計算機4000のメモリ4100内のプログラムをストレージサブシステム1000のメモリ1210内に有し、制御装置1220によって当該プログラムを実行することで、管理計算機4000と同様の機能を実現しても良い。さらに、管理計算機4000は他に、スイッチ装置3000やスイッチ装置5000を管理するためのプログラムを有していても良い。
以後、計算機システム100を管理し、本願発明の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理計算機4000が表示用情報を表示する場合は管理計算機4000が管理システムであり、また、管理計算機4000と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含め)が管理システムである。
<ストレージ構成情報テーブル群>
図2は、ストレージサブシステムにおけるストレージ構成情報テーブル群1212の具体例を示す図である。本実施形態においては、ストレージ構成情報テーブル群1212は、ボリューム割当てテーブル12120と、物理リソース割当てテーブル12121と、を有している。
ボリューム割当てテーブル12120は、ホスト計算機2000に割り当てられた論理ボリューム1110の情報を格納するテーブルである。
物理リソース割当てテーブル12121は、論理ボリューム1110の各セグメントに対する物理リソースの割当ての情報を格納するテーブルである。
<ボリューム割当てテーブルの構成例>
図3は、ボリューム割当てテーブル12120の具体的構成例を示す図である。ボリューム割当てテーブル12120は、ホスト計算機が持つI/F(A)2300を識別するためのInitiator ID121200と、ストレージサブシステム1000が持つI/F(A)1230を識別するためのTarget ID121201と、論理ボリューム1110を識別するためのLUN(Logical Unit Number)121202と、を構成項目として有する。
図3では、Initiator ID121200およびTarget ID121201を表すために、それぞれホスト計算機2000が持つI/F(A)2300のWWN(World Wide Name)と、ストレージサブシステム1000が持つI/F(A)1230のWWNと、を用いているが、この限りではなく、ホスト計算機2000が持つI/F(A)2300と、ストレージサブシステム1000が持つI/F(A)1230と、をそれぞれ一意に識別できる情報であれば良い。また、図3では、論理ボリューム1110の識別子としてLUN121202を用いているが、この限りではなく、論理ボリューム1110を一意に識別できる情報であれば良い。
<物理リソース割り当てテーブルの構成例>
図4は、本実施形態における、物理リソース割当てテーブル12121の構成例を示す図である。物理リソース割当てテーブル12121は、論理ボリューム1110を識別するためのLUN121210と、論理ボリューム内のセグメントを識別するためのセグメントID121211と、論理ボリューム1110の各セグメントの領域を識別するためのボリュームLBA(Logical Block Address)領域121212と、論理ボリューム1110の各セグメントに割り当てられた物理リソース1121を識別するための物理リソースID121213と、論理ボリューム1110の各セグメントに割り当てられた物理リソース1121の記憶領域を識別するためのLBA領域121214と、を構成項目として有している。
なお、LUN121210と、セグメントID121211と、物理リソースID121213はそれぞれ、論理ボリューム1110と、論理ボリューム1110内のセグメントと、物理リソース1121と、を一意に識別できる情報である。従って、それらは、図3の表記に限らず、他の情報でも良い。
また、ボリュームLBA領域121212と、LBA領域121214と、はそれぞれ論理ボリューム1110内の各セグメントの領域と、物理リソース1121内の記憶領域と、を一意に識別できる情報であれば、図3の表記に限らず、他の情報でも良い。
図4において、物理リソースID121213とLBA領域121214の欄に「−」が格納されている行(LUN121210が「2」、セグメントID121211が「2」で示される行)は、ホスト計算機2000に対して提供される仮想的な論理ボリューム1110(2)の一部のセグメントに対して、ホスト計算機2000からの書き込み要求がまだなく、したがって当該セグメントにまだ物理リソース1121の記憶領域が割り当てられていないことを示している。
<構成情報テーブル群>
図5は、構成情報テーブル群4130の具体例を示す図である。本実施形態においては、構成情報テーブル群4130は、ストレージ情報テーブル4131と、ボリューム情報テーブル4132と、プール情報テーブル4133と、物理リソース情報テーブル4134と、ホスト情報テーブル4135と、ホスト関連情報テーブル4136と、ボリューム割当て情報テーブル4137と、を有している。
ストレージ情報テーブル4131は、ストレージサブシステム1000の情報を格納するテーブルである。
ボリューム情報テーブル4132は、ストレージサブシステム1000が持つ論理ボリューム1110の情報を格納するテーブルである。
プール情報テーブル4133は、ストレージサブシステム1000が持つプール1120の情報を格納するテーブルである。
物理リソース情報テーブル4134は、ストレージサブシステム1000が持つ物理リソース1121の情報を格納するテーブルである。
ホスト情報テーブル4135は、ホスト計算機2000の情報を格納するテーブルである。
ホスト関連情報テーブル4136は、ホスト計算機2000と別のホスト計算機2000との関連を示す情報を格納するテーブルである。
ボリューム割当て情報テーブル4137は、ホスト計算機2000と、ホスト計算機2000に割り当てられた論理ボリューム1110との関係を示すテーブルである。
<ストレージ情報テーブルの構成例>
図6は、ストレージ情報テーブル4131の具体的構成例を示す図である。ストレージ情報テーブル4131は、ストレージサブシステム1000を識別するためのストレージID41310と、ストレージサブシステム1000が持つプール1120の総容量41311と、ストレージサブシステム1000が持つプール1120の総空き容量41312と、ストレージサブシステム1000が持つ論理ボリューム1110の総数である総ボリューム数41313と、ストレージサブシステム1000内で最後に障害が発生した日時を示す最終障害発生日時41314と、ストレージサブシステム1000に対して実行された管理操作の頻度を示す管理操作頻度41315と、ストレージサブシステム1000が導入された年月日を示す導入年月日41316と、を構成項目として有する。
ストレージ情報テーブル4131において、基本情報を構成するのは、ストレージID41310と総ボリューム数41313である。最終障害発生日時41314は、ストレージサブシステム1000やホスト計算機2000が障害時に通知してくる情報であって、管理計算機4000が取得しに行く詳細情報には含まれない。また、管理操作頻度41315は、詳細情報ではなく、管理ソフトウェアがストレージサブシステム1000に対して、過去にどの程度の頻度で管理に関する操作を実行したかを示す情報である。導入年月日41316は、設置されたストレージの動作が開始された情報であり、例えば、管理者(ユーザ)によって入力される。
図6においては、情報を未取得の項目(例えばストレージIDが「ST.1」である行の総容量41311など)には「null」を格納している。情報を未取得であることを示す方法はこれに限らず、他の方法であっても良い。また、ストレージ情報テーブル4131は、図6に示した情報に限らず、ストレージサブシステム1000の他の情報を格納しても良い。
<ボリューム情報テーブルの構成例>
図7は、ボリューム情報テーブル4132の具体的構成例を示す図である。ボリューム情報テーブル4132は、ストレージサブシステム1000を識別するためのストレージID41320と、論理ボリューム1110を識別するためのボリュームID41321と、論理ボリューム1110の容量41322と、論理ボリューム1110のRAIDレベル41323と、論理ボリューム1110の記憶領域の提供元である物理リソース1121のメディア種別41324と、論理ボリューム1110の切り出し元であるプール1120を識別するためのプールID41325と、論理ボリューム1110の状態41326と、を構成項目として有する。当該テーブルにおいて、ストレージID41320と、ボリュームID41321と、プールID41325は、最初に取得される基本情報である。一方、総容量41322、RAIDレベル41323、メディア種別41324、及び状態41326は、詳細情報に相当し、当該情報の取得前、各欄には「null」が挿入されている。
ここで、RAIDレベル41323は、論理ボリューム1110の切り出し元であるプール1120に適用されたRAID技術の種類を示す情報、すなわち論理ボリューム1110の冗長性の程度を示す情報である。また、状態41326は、論理ボリューム1110の稼働状態を示す情報である。
なお、図7においては、情報を未取得の項目(例えばストレージIDが「ST.1」、ボリュームIDが「LU.1」である行の容量41322など)には「null」を格納している。情報を未取得であることを示す方法はこれに限らず、他の方法であっても良い。また、図7においては、状態41326には「null」「正常」「エラー」のいずれかの値が格納されるが、これに限らず、論理ボリューム1110の稼働状態を示す情報であれば良い。さらに、ボリューム情報テーブル4132は、図7に示した情報に限らず、論理ボリューム1110の他の情報を格納しても良い。
<プール情報テーブルの構成例>
図8は、プール情報テーブル4133の具体的構成例を示す図である。プール情報テーブル4133は、ストレージサブシステム1000を識別するためのストレージID41330と、プール1120を識別するためのプールID41331と、プール1120の容量41332と、プール1120の空き容量41333と、プール1120の種別を示すプール種別41334と、プール1120の状態41335と、を構成項目として有する。当該テーブルにおいて、ストレージID41330と、プールID41331は、最初に取得される基本情報である。一方、総容量41332、空き容量41333、プール種別41334、及び状態41335は、詳細情報に相当し、当該情報の取得前、各欄には「null」が挿入されている。
また、図7を図8との関係で説明すると、LUはプールから切り出されるため、例えば、ストレージID41320がST.2でボリュームID41321がLU.1については、容量41332が2TBの、プールID41331がPool.1から容量100GB分が切り出されて、ST.2のLU.1が構成されているということが分かる。
図8においては、情報を未取得の項目(例えばストレージIDが「ST.1」、プールIDが「Pool.1」である行の容量41332など)には「null」を格納している。情報を未取得であることを示す方法はこれに限らず、他の方法であっても良い。また図8においては、プール種別41334には「null」「RAIDグループ」「Thin Provisioningプール」のいずれかの値が格納されるが、これに限らず、プールの種別を示す情報であれば良い。
なお、本実施形態においては、プール種別41334が「RAIDグループ」であるプール1120は、論理ボリューム1110(1)に対して1又は複数の物理リソース1121の容量を予め割当てることが可能なプールを示している。また、プール種別41334が「Thin Provisioningプール」であるプール1120は、論理ボリューム1110(2)に対して、ホスト計算機2000からの書き込み要求に応じて、物理リソース1121を割り当てることが可能なプールを示している。図8においては、状態41335には「null」「正常」「エラー」のいずれかの値が格納されるが、これに限らず、プール1120の稼働状態を示す情報であれば良い。また、プール情報テーブル4133は、図8に示した情報に限らず、プール1120の他の情報を格納しても良い。
<物理リソース情報テーブル>
図9は、物理リソース情報テーブルの具体的構成例を示す図である。物理リソース情報テーブル4134は、ストレージサブシステム1000を識別するためのストレージID41340と、物理リソース1121を識別するための物理リソースID41341と、物理リソース1121が割り当てられたプール1120を識別するためのプールID41342と、物理リソース1121の容量41343と、物理リソース1121における記憶領域の提供元メディアの種別を示すメディア種別41344と、物理リソース1121における記憶領域の提供元メディアのディスク回転数41345と、物理リソース1121の状態41346と、を構成項目として有する。当該テーブルにおいて、ストレージID41340、物理リソースID41341、及びプールID41342は、最初に取得される基本情報である。一方、容量41343、メディア種別41344、ディスク回転数41345、及び状態41346は、詳細情報に相当し、当該情報の取得前、各欄には「null」が挿入されている。
図9においては、情報を未取得の項目(例えばストレージIDが「ST.1」、物理リソースIDが「Drive.1」である行の容量41343など)には「null」が格納されている。情報を未取得であることを示す方法はこれに限らず、他の方法であっても良い。また、図9においては、メディア種別41344には「null」「SATA」「SSD」のいずれかの値が格納されるが、これに限らず、メディアの種別を示す情報であれば良い。
本実施形態においては、メディア種別41344が「SSD」の場合、ディスク回転数41345には「n/a」を格納している。これはSSDにはディスクがなため、ディスクの回転も起こり得ないことを示している。ディスクの回転がないことを示す方法はこれに限らず、他の表現方法であっても良い。
また、図9においては、状態41346には「null」「正常」「エラー」のいずれか値が格納されるが、これに限らず、物理リソース1121の稼働状態を示す情報であれば良い。例えば、「エラー」は、ストレージサブシステムやストレージコントローラボード等が故障した場合に挿入される。また、物理リソース情報テーブル4134は、図9に示した情報に限らず、物理リソース1121の他の情報を格納しても良い。
<ホスト情報テーブルの構成例>
図10は、ホスト情報テーブルの具体的構成例を示す図である。ホスト情報テーブル4135は、ホスト計算機2000を識別するためのホストID41350と、ホスト計算機2000に割り当てられたIPアドレス41351と、ホスト計算機2000のホスト名41352と、ホスト計算機2000の種別を示すホスト種別41353と、ホスト計算機2000の状態41354と、を構成項目として有する。当該テーブルにおいて、ホストID41350及びIPアドレス41351は、最初に取得される基本情報である。一方、ホスト名41352、ホスト種別41353、及び状態41354は、詳細情報に相当し、当該情報の取得前、各欄には「null」が挿入されている。
図10においては、情報を未取得の項目(例えばホストIDが「Host.1」である行のホスト名41352など)には「null」を格納している。情報を未取得であることを示す方法はこれに限らず、他の方法であっても良い。また本実施例においては、ホスト情報テーブル4135にホスト計算機2000のIPアドレスを格納しているが、これに限らず、ホスト計算機2000のネットワークアドレスを示す情報であれば良い。
また、図10においては、ホスト種別41353には「null」「クラスタ」「ノード」「物理サーバ」「ハイパーバイザ」「仮想サーバ」のいずれかの値が格納されるが、これに限らず、ホスト計算機2000の種別を示す情報であれば良い。ここで、クラスタとは複数のホスト計算機を冗長化して構成される論理的なホスト計算機であり、ノードとはクラスタに含まれるホスト計算機を示している。さらに、ハイパーバイザとは、サーバ仮想化機能を持ったホスト計算機である。仮想サーバとはハイパーバイザ上に構築された仮想的なホスト計算機である。
図10においては、状態41354には「null」「正常」「エラー」のいずれか値が格納されるが、これに限らず、ホスト計算機2000の稼働状態を示す情報であれば良い。また、ホスト情報テーブル4135は、図10に示した情報に限らず、ホスト計算機2000の他の情報を格納しても良い。
<ホスト関連情報テーブルの構成例>
図11は、ホスト関連情報テーブル4136の具体的構成例を示す情報である。ホスト関連情報テーブル4136は、ホスト計算機2000を識別するためのホストID41360と、ホスト計算機2000が関連を持つ別のホスト計算機2000を識別するための関連ホストID41361と、ホスト計算機2000と別のホスト計算機2000との関連の種別を示す関連種別41362と、を構成項目として有する。当該テーブルにおいては、全ての構成項目が基本情報となっている。
図11においては、関連種別41362には「クラスタ(親子)」「クラスタノード同士」「ボリューム共有ハイパーバイザ」「ハイパーバイザと仮想サーバ」のいずれかの値が格納されるが、これに限らず、ホスト計算機2000と別のホスト計算機2000との関連の種別を示す情報であれば良い。ここで、「クラスタ(親子)」とは、クラスタとそこに含まれるホスト計算機との関係を示しており、「クラスタノード同士」とは、同一のクラスタに含まれるホスト計算機同士の関係を示している。また、「ボリューム共有ハイパーバイザ」とは、ストレージサブシステム1000から同一の論理ボリューム1110を割り当てられ、当該ボリュームを共有しているハイパーバイザ同士の関係を示しており、「パイパーバイザと仮想サーバ」とは、ハイパーバイザと、当該ハイパーバイザ上に構築された仮想サーバとの関係を示している。
なお、ホスト関連情報テーブル4136は、図11に示した情報に限らず、ホスト計算機2000と別のホスト計算機2000との関連に関する他の情報を格納しても良い。
<ボリューム割当て情報テーブルの構成例>
図12は、ボリューム割当て情報テーブル4137の具体的構成例を示す図である。ボリューム割当て情報テーブル4137は、ホスト計算機2000を識別するためのホストID41370と、ストレージサブシステム1000を識別するためのストレージID41371と、論理ボリューム1110を識別するためのボリュームID41372と、を構成項目として有する。当該テーブルにおいて、全ての構成項目が基本情報となっている。
なお、ボリューム割当て情報テーブル4137は、図12に示した情報に限らず、ホスト計算機2000と、ホスト計算機2000に割り当てられた論理ボリューム1110との関係に関する他の情報を格納しても良い。
<情報取得条件テーブルの構成例>
図13は、情報取得条件テーブル4150の具体的構成例を示す図である。情報取得条件テーブル4150は、情報取得条件を識別するための条件ID41500と、情報取得の条件を示す情報取得条件41501と、情報取得の方法を示す情報取得方法41502と、情報取得条件の優先度41503と、を構成項目として有する。
条件ID41500は、情報取得条件を特定する識別情報である。情報取得条件41501は、所定の条件が満足した場合、或いは所定のイベントが発生した場合に、詳細情報を管理計算機4000が取得しに行くかを規定する情報である。情報取得方法41502は、詳細情報の取得方法について規定する情報である。優先順位41503は、チェックする順番を規定するための情報であり、管理者によって設定可能となっている。
例えば、条件ID=2として定義されている情報取得条件41501によれば、今後実行される管理タスク(図14に定義されたタスク)が存在する場合に、該当する管理タスクを実行するために必要な詳細情報を取得しなければならないことが分かる。
また、条件ID=4の情報取得条件41501においては、総ボリューム数が5000以下のストレージについては、当該ストレージが設置されたときに詳細情報が取得されることが分かる。ここで、総ボリューム数は、常に(設定と同時に)詳細情報を取得する場合のデメリットと詳細情報が必要なとき(例えば、表示したいとき)に初めてそれを取得しに行く処理を実行することのデメリットとの効率的バランスを考慮して決定され、数値5000は単なる例示であって、管理者が自由に設定可能である。
情報取得条件テーブル4150のチェックは、後述するように、例えば、管理対象を追加した場合(図15参照)、構成管理プログラム4110が定期的にストレージサブシステム1000やホスト計算機2000に管理タスクを実行する場合(図19参照)、ストレージサブシステム1000やホスト計算機2000から障害発生の通知を受けた場合(図20)等に実行される。
なお、図13においては、情報取得条件41501と、情報取得方法41502には自然言語で記述された条件および方法が格納されているが、これに限らず情報取得の条件と方法を示す情報であれば良い。情報取得の条件と方法は予め決められていても良いし、ユーザが入力しても良い。また情報取得の条件や方法は、図13に示したものに限らず、他の条件や方法であっても良い。さらに、本実施形態においては、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000から情報を収集する際の条件と情報取得方法を、情報取得条件テーブル4150に格納しているが、これに限らず、例えば同様の情報を情報取得方法決定プログラム4140内に処理のロジックとして実装しても良い。
<管理タスクテーブルの構成例>
図14は、管理タスクテーブル4160の具体的構成例を示す図である。管理タスクテーブル4160は、管理タスクを識別するためのタスクID41600と、管理タスクの実行日時41601と、管理タスクの実行対象リソースを示す対象41602と、管理タスクを示すタスク41603と、を構成項目として有する。当該管理タスクテーブルに規定されている各管理タスクは、管理者によって設定可能となっている。
図14において、対象41602には管理対象の実行対象であるリソースのIDを符号「:」で連結した値が格納されるが、これに限らず、管理対象の実行対象リソースを識別する情報であれば良い。また、図14では、タスク41603には自然言語で記述された管理タスクが格納されているが、これに限らず、管理タスクを示す情報であれば良い。
制御装置4200は、メモリ4100内のプログラムの実行やデータの入出力、I/F4300を通じたデータや制御命令の入出力を制御する。
<管理登録処理>
図15は、本実施形態において構成管理プログラム4110が、ストレージサブシステム1000やホスト計算機2000を、管理対象として登録する際の処理を説明するためのフローチャートである。
ステップS1000において、管理者(ユーザ)が、構成管理プログラム4110のユーザインタフェースを介して、ストレージサブシステム1000やホスト計算機2000を、構成管理プログラム4110の管理対象として登録することを指示し、構成管理プログラムはその指示を受け付ける。なお、本実施形態においては、管理者(ユーザ)が既に登録済みのストレージサブシステム1000やホスト計算機2000を指定した場合には、管理者が構成情報テーブル群4130に格納されている当該ストレージサブシステム1000やホスト計算機2000の構成情報を取得し直して更新することを指示したものとする。
次に、ステップS1010において、構成管理プログラム4110は、構成情報テーブル群4130を参照し、ユーザが指定したストレージサブシステム1000やホスト計算機2000の基本情報を取得済みか否かを判断する。本実施形態においては、基本情報とは、リソースの識別子とリソースの数、リソース間の関連を指すものとする。
ステップS1010で基本情報が未取得であると判断された場合(ステップS1010でNoの場合)、処理はステップS1020に移行し、構成管理プログラム4110は、情報収集プログラム4120に、ユーザがステップS1000で指定したストレージサブシステム1000やホスト計算機2000から、基本情報を取得するように指示する。
そして、ステップS1030において、情報収集プログラム4120は、ストレージサブシステム1000上のストレージ情報取得プログラム1211やホスト計算機2000上のホスト情報取得プログラム2120と通信を行い、ストレージサブシステム1000やホスト計算機2000の基本情報を取得し、構成情報テーブル群4130に格納する。当該処理が完了すると、ステップS1040に遷移する。
一方、ステップS1010において基本情報を取得済みと判断された場合(S1010でYesの場合)、処理は、ステップS1040に遷移する。
次に、ステップS1040において、構成管理プログラム4110は、情報取得方法決定プログラム4140に対して、情報取得方法の決定処理の実行を指示する。情報取得方法決定プログラム4140は、ストレージサブシステム1000やホスト計算機2000の基本情報と、情報取得条件テーブル4150に格納された情報に基づいて、ストレージサブシステム1000やホスト計算機2000から詳細情報を取得する方法(範囲とタイミング)を決定する。情報取得方法決定プログラム4140は、決定した情報取得方法を、情報収集プログラム4120に通知する。なお、情報取得方法決定プログラム4140による情報取得方法決定処理の詳細については後述する(図16参照)。
さらに、ステップS1050において、構成管理プログラム4110は、情報収集プログラム4120に対して、情報取得方法決定プログラム4140が決定した情報取得方法に基づいて、ストレージサブシステム1000やホスト計算機2000に対する情報取得処理を行うように指示する。当該情報取得処理の詳細については後述する(図17参照)。
最後に、ステップS1060において、構成管理プログラム4110は、管理者に対して、ストレージサブシステム1000やホスト計算機2000を管理対象として登録したことを通知する。通知の方法にはGUI (Graphical User Interface)やCLI (Command Line Interface)などのユーザインタフェースを介して通知する方法や、ログにメッセージを出力するなどの方法があるが、特に限定はしない。なお、本実施形態においては、構成情報テーブル群にストレージサブシステム1000やホスト計算機2000の構成情報が(基本情報のみであっても)格納されていれば、当該ストレージサブシステム1000やホスト計算機2000が、構成管理プログラム4110の管理対象であるとする。
以上の処理により、ストレージサブシステム1000やホスト計算機2000を構成管理プログラム4110の管理対象として登録する処理が完了する。なお本処理は、必ずしもユーザがストレージサブシステム1000やホスト計算機2000を、構成管理プログラム4110の管理対象として登録することを契機として実行されなくても良い。すなわち、SLP(Service Location Protocol)などの技術を用いて、構成管理プログラム4110がスイッチ装置5000を介して接続されたストレージサブシステム1000やホスト計算機2000の存在を検出し、これを契機として登録処理を実行しても良い。
<情報取得方法決定処理>
図16は、本実施形態において情報取得方法決定プログラム4140が、ストレージサブシステム1000やホスト計算機2000から情報を取得する方法(範囲とタイミング)を決定する際の処理を説明するためのフローチャートである。
まずステップS2000において、情報取得方法決定プログラム4140は、情報取得条件テーブル4150を参照し、ステップS2010で未だチェックしていない条件を1つ取得する。この際、本実施形態では、情報取得条件テーブル4150の優先順位41503の数字が小さい順(優先順位が高い順)に条件を取得するものとする。
ステップS2010において、情報取得方法決定プログラム4140が、未チェックの条件が存在するか否かを判定する。
未チェックの条件が存在する場合(ステップS2010でYesの場合)は、情報取得決定プログラム4140は当該条件をチェック済みとした上で、処理をステップS2020に遷移させる。
次に、ステップS2020において、情報取得方法決定プログラム4140は、構成情報テーブル群4130と情報取得条件テーブル4150とを参照し、ストレージサブシステム1000やホスト計算機2000の情報と、情報取得条件とを比較する。
そして、ステップS2030において、情報取得方法決定プログラム4140は、情報取得条件を満たすリソースが存在するか否かを判定する。本実施形態においては、図15のステップS1030から図16の処理が呼び出された場合には、情報取得方法決定プログラム4140は、図15のステップS1000にてユーザが指定したストレージサブシステム1000やホスト計算機2000のリソースを対象として、該当するリソースが存在するか否かを判定する。具体的には、例えば図15のステップS1000にてユーザがストレージサブシステム1000のうち1台を指定した場合、かつ当該ストレージサブシステム1000が持つ論理ボリュームの数が5000以下の場合は、当該ストレージサブシステム1000は情報取得条件(情報取得条件テーブル4150の条件ID41500が「4」である行の情報取得条件41501)を満たすと判定する。
情報取得条件を満たすリソースが存在しない場合(ステップS2030でNoの場合)、処理はステップS2000に遷移する。一方、情報取得条件を満たすリソースが存在する場合(ステップS2030でYesの場合)、処理はステップS2040に遷移する。
ステップS2040において、情報取得方法決定プログラム4140は、情報取得条件を満たすリソースの情報を、情報取得条件テーブル4150に記載のタイミングで取得することを情報収集プログラム4120に指示する。具体的には、例えば、図15のステップS1000にてユーザがストレージサブシステム1000のうち1台を指定した場合、かつ当該ストレージサブシステム1000が持つ論理ボリュームの数が5000以下の場合は、情報取得方法決定プログラム4140は、情報収集プログラム4120に対して、当該ストレージが持つ全リソースについて詳細情報を取得し、構成情報テーブル群4130に保持するように指示する。ステップS2040の処理が完了すると、処理はステップS2000に遷移する。
ステップS2010において、未チェックの情報取得条件が存在しないと判断された場合(ステップS2010でNoの場合)、処理はステップS2050に遷移する。
続いて、ステップS2050において、情報取得方法決定プログラム4140は、ステップS2040の処理が1回以上実行されたか否かを判定する。
ステップS2040の処理が1回以上実行されたと判定された場合(ステップS205でYesの場合)は、情報取得方法決定プログラム4140は、情報取得方法決定処理を終了する。
一方、ステップS2040の処理が1回以上実行されていない場合、即ち、情報取得条件テーブル4150に1つも条件が格納されていなかった場合(ステップS2050でNoの場合)は、情報取得方法決定プログラム4140は、対象ストレージサブシステム1000あるいはホスト計算機2000の全てのリソースについて、詳細情報を直ちに取得することを情報収集プログラム4120に指示する。ステップS2040の処理が一回も実行されないといつまでも詳細情報が取得されないことになるからであり、全ての情報取得条件に合致しない場合には、従来技術のように、全てのリソースについての詳細情報が取得される。
以上の処理により、ストレージサブシステム1000やホスト計算機2000から情報を取得する範囲とタイミングを決定する処理が完了する。
ここで、より理解を深めるため、具体例を用いて当該処理について説明する。まず、2010年11月19日の3時30分15秒に、ストレージサブシステム1000が持つ物理リソース1121の1つにおいて障害が発生したと仮定する。このとき、ストレージ障害通知プログラム1213が、ストレージサブシステム1000の物理リソース1121に関する障害情報を構成管理プログラム4110に送信し、構成管理プログラム4110がこれを物理リソース情報テーブル4134に保持しているとする。これは図9にて、ストレージID41340が「ST.2」、物理リソースID41341が「Drive.5」で示される行(「エラー」と表示されている行)に該当する。また、同様に、障害が発生した日時がストレージ情報テーブル4131の最終障害発生日時41314に格納されているものとする。これは図6にて、ストレージID41310が「ST.2」で示される行に該当する。
ここで、仮に2010年11月20日の0時0分0秒に情報取得方法決定プログラム4140が動作した場合、情報取得方法決定プログラム4140は、図13に示す情報取得条件テーブルに格納された条件のうち、条件ID41500が「1」で示される行の条件が該当すると判定する(但し、図13に示される他の条件には該当しなかったと仮定した場合)。
この結果、情報取得方法決定プログラム4140は、図9にて、ストレージID41340が「ST.2」、物理リソースID41341が「Drive.5」で示される行の物理リソースと、その関連リソースについて、詳細情報を取得し、構成情報テーブル群4130に保持することを決定する。このように、障害時には関連リソースについてのみ詳細情報を取得するため、関連リソースを各テーブルから特定する必要がある。なお、この例における関連リソースは、図8にてストレージID41330が「ST.2」及びプールID41331が「Pool.1」で示される行のプールと、図7にてストレージID41320が「ST.2」及びボリュームID41321が「LU.1」で示される行の論理ボリューム、図12においてホストID41370が「Host.7」「Host.8」で示される行のホスト計算機、図11において関連ホストID41361が「Host.9」「Host.10」で示されるホスト計算機、である。
<情報取得処理>
図17は、本実施形態において情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000から情報を取得する際の処理を説明するためのフローチャートである。
ステップS3000において、情報収集プログラム4120は、情報取得の対象がストレージサブシステム1000であるか否かを判定する。
情報取得対象がストレージサブシステム1000でない場合(ステップS3000でNoの場合)、処理は、ステップS3040に遷移する。情報取得対象がストレージサブシステム1000である場合(ステップS3000でYesの場合)、処理は、ステップS3010に遷移する。
ステップS3010において、情報収集プログラム4120は、ストレージサブシステム1000上のストレージ情報取得プログラム1211に対し、ストレージサブシステム1000の情報を要求する。この時、情報収集プログラム4120は、情報取得方法決定プログラム4140が詳細情報を取得すると決定した範囲の情報を要求する。なお、情報取得方法決定プログラム4140が詳細情報を取得すると決定した範囲の情報であっても、本処理の時点において、当該情報を取得するタイミング(図13の取得条件)を満たしていない場合には、情報収集プログラム4120は情報の要求を行わない。
次に、ステップS3020において、情報収集プログラム4120は、ストレージ情報取得プログラム1211から、ステップS3010の要求に応答して送信されてきたストレージサブシステム1000の情報を受け取る。
続いて、ステップS3030において、情報収集プログラム4120は、ストレージサブシステム1000の情報を構成情報テーブル群4130に格納する。
一方、ステップS3040において、情報収集プログラム4120は、情報取得対象がホスト計算機2000であるか否かを判定する。
情報取得対象がホスト計算機2000でない場合(ステップS3040でNoの場合)、情報収集プログラム4120は、情報取得処理を終了する。一方、情報取得対象がホスト計算機2000である場合(ステップS3040でYesの場合)、処理は、ステップS3050に遷移する。
ステップS3050において、情報収集プログラム4120は、ホスト情報取得プログラム2120に、ホスト計算機2000の情報を要求する。この時、情報収集プログラム4120は、情報取得方法決定プログラム4140が詳細情報を取得すると決定した範囲の情報を要求する。なお、情報取得方法決定プログラム4140が詳細情報を取得すると決定した範囲の情報であっても、本処理の時点において、当該情報を取得するタイミングを満たしていない場合には、情報収集プログラム4120は情報の要求を行わない。
そして、ステップS3060において、情報収集プログラム4120は、ホスト情報取得プログラム2120から、ステップS3050の要求に応答して送信されてきたホスト計算機2000の情報を受け取る。
続いて、ステップS3070において、情報収集プログラム4120は、ホスト計算機2000の情報を構成情報テーブル群4130に格納する。
以上の処理により、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000から、情報取得方法決定プログラム4140が決定した範囲の情報を、情報取得方法決定プログラム4140が決定したタイミングで取得する処理が完了する。
<管理タスクの登録処理>
図18は、管理者(ユーザ)が構成管理プログラム4110のユーザインタフェースを介して、ストレージサブシステム1000やホスト計算機2000に対する管理操作の実行を指示した際に、当該管理操作を構成管理プログラム4110に登録する処理を説明するためのフローチャートである。
まずステップS4000において、管理者が構成管理プログラム4110のユーザインタフェースを介して、ストレージサブシステム1000やホスト計算機2000に対する管理操作の実行を指示すると、構成管理プログラム4110は、当該指示を受け付ける。
そして、ステップS4010において、構成管理プログラム4110は、ストレージサブシステム1000やホスト計算機2000に対する管理操作を、管理タスクテーブル4160に登録する。
以上の処理により、ストレージサブシステム1000やホスト計算機2000に対する管理操作を構成管理プログラム4110に登録する処理が完了する。なお、ユーザがストレージサブシステム1000やホスト計算機2000に対する管理操作を直ちに実行したい場合は、管理タスクの実行日時に現在の日時を指定すればよい。
<管理タスクの実行処理>
図19は、本実施形態において構成管理プログラム4110が、ストレージサブシステム1000やホスト計算機2000に対する管理操作を実行する際の処理を説明するためのフローチャートである。なお、図19の処理は他の処理(図15や図18の処理など)とは別のスレッドで実行されているものとする。すなわち、図19の処理は他の処理と並列に実行される。
まずステップS5000において、構成管理プログラム4110は、定期的に管理タスクテーブル4160を参照する。なお、構成管理プログラム4110が管理タスクテーブル4160を参照する時間間隔は、予め決められていても良いし、ユーザが指定しても良い。
次に、ステップS5010において、構成管理プログラム4110は、現在の日時と、管理タスクテーブル4160の実行日時41601と、を比較し、現在の日時が管理タスクの実行日時41601と一致している、あるいはこれを過ぎているか否かを判定する。管理タスクテーブルを参照する周期(タイミング)によって、テーブル上で設定されたタスク実行日時と参照タイミングが多少ずれることがあるため、「過ぎている」か否かについても判定される。
現在の日時が管理タスクの実行日時41601と一致しておらず、かつこれを過ぎていない場合(ステップS5010でNoの場合)、処理はステップS5000に遷移する。一方、現在の日時が管理タスクの実行日時41601と一致している、あるいはこれを過ぎている場合(ステップS5010でYesの場合)、処理は、ステップS5020に遷移する。
ステップS5020において、構成管理プログラム4110は、ストレージサブシステム1000やホスト計算機2000に対する管理操作(管理タスク)を実行する。管理操作には、例えば、プール1120から論理ボリューム1110を作成する操作や、論理ボリューム1110をホスト計算機2000に割り当てる操作などがあるが、特に限定しない。
次にステップS5030において、ステップS5020で実行した管理操作によって変更されたストレージサブシステム1000やホスト計算機2000の構成を構成情報テーブル群4130に反映するため、構成管理プログラム4110は、情報取得方法決定プログラム4140に対して情報取得方法決定処理を実行するよう指示し、情報取得方法決定プログラム4140は、その指示に応答して、情報取得方法決定処理を実行する。情報取得方法決定処理の詳細は、図16に示した通りである。
ステップS5040において、構成管理プログラム4110は、情報収集プログラム4120に対して、情報収集処理の実行を指示し、情報収集プログラム4120は、その指示に応答して、ストレージサブシステム1000やホスト計算機2000の情報を取得する。情報取得処理の詳細は、図17に示した通りである。
最後に、ステップS5050において、構成管理プログラム4110は、ステップS5030で実行した管理タスクを管理タスクテーブル4160から削除する。削除が終了すると、処理は、ステップS5000に遷移する。
以上の処理により、ストレージサブシステム1000やホスト計算機2000に対する管理操作(管理タスク)を実行する処理、および当該管理操作によって変更のあったストレージサブシステム1000やホスト計算機2000の構成を構成情報テーブル群4130に反映する処理が完了する。なお、管理操作によって変更のあった構成情報を構成情報テーブル群4130に反映する際には、必ずしも管理操作対象のストレージサブシステム1000やホスト計算機2000の全リソースの情報を取得し直す必要はない。例えば、情報取得条件テーブル4150に、「ボリューム数が5000以下のストレージに対して、管理操作を実行した場合、当該管理操作に関係するリソースの詳細情報を取得し保持する」という条件を格納しておけば、ストレージサブシステム1000やホスト計算機2000の全リソースの情報を取得し直すことを避けることができる。
<障害情報受信処理>
図20は、本実施形態において構成管理プログラム4110が、ストレージサブシステム1000やホスト計算機2000にて発生した障害の情報を、ストレージ障害通知プログラム1213、あるいはホスト障害通知プログラム2130から受信する際の処理を説明するためのフローチャートである。
まずステップS6000において、構成管理プログラム4110は、ストレージ障害通知プログラム1213、あるいはホスト障害通知プログラム2130から通知される、ストレージサブシステム1000やホスト計算機2000で発生した障害の情報を受信する。
ステップS6010において、構成管理プログラム4110は、受信した障害の情報を構成情報テーブル群4130に格納する。
次に、ステップS6020において、構成管理プログラム4110は、情報取得方法決定プログラム4140に対して情報取得方法決定処理を実行するよう指示し、情報取得方法決定プログラム4140は、その指示に応答して、情報取得方法決定処理を実行する。これにより、障害に関する情報の取得範囲とタイミングが決定される。情報取得方法決定処理の詳細は、図16に示した通りである。
次にステップS6030において、構成管理プログラム4110は、情報収集プログラム4120に対して、情報収集処理の実行を指示し、情報収集プログラム4120は、情報取得処理を実行し、ステップS6020で決定された範囲の情報を、当該ステップで決定されたタイミングで取得する。情報取得処理の詳細は、図17に示した通りである。
<情報表示処理>
図21は、本実施形態において構成管理プログラム4110が、ストレージサブシステム1000やホスト計算機2000の構成情報を、ユーザインタフェースを介して表示する際の処理を説明するためのフローチャートである。
まずステップS7000において、構成管理プログラム4110は、ストレージサブシステム1000やホスト計算機2000が持つリソースの詳細情報の表示が必要か否かを判定する。必要性の有無は、例えば、管理者がユーザインタフェースによって表示要求したか否かによって判断される。
リソースの詳細情報の表示が不要である(すなわち、識別子などの基本情報の表示のみで良い)場合(ステップS7000でNoの場合)、処理は、ステップS7030に遷移する。一方、リソースの詳細情報の表示が必要な場合(ステップS7000でYesの場合)、処理は、ステップS7010に遷移する。
ステップS7010において、構成管理プログラム4110は、構成情報テーブル群4130を参照し、さらに、表示対象リソースの詳細情報が取得済みか否かについて判定する。
表示対象リソースの詳細情報を取得済みである場合(ステップ7010でYesの場合)、処理は、ステップS7030に遷移する。一方、表示対象リソースの詳細情報がまだ取得されていない場合(ステップS7010でNoの場合)、処理は、ステップS7020に遷移する。
続いて、ステップS7020において、構成管理プログラム4110は、情報収集プログラム4120に対して、表示対象リソースの詳細情報を取得するために、情報取得処理を実行するように指示し、この指示に応答して、情報収集プログラム4120は、該当するリソースの詳細情報を取得する。情報取得処理の詳細は、図17に示した通りである。
そして、ステップS7030において、構成管理プログラム4110は、ユーザインタフェースを介してリソースの情報を表示する。
<ユーザインタフェースの例>
図22及び23は、本発明の実施形態による、管理構成プログラム4110のユーザインタフェースの構成例を示す図である。図22は、リソースの一覧表示を示すユーザインタフェースに相当する。図23は、論理ボリュームの詳細表示を示すユーザインタフェースに相当する。
(i)図22において、リソース一覧表示のユーザインタフェース41100は、ストレージサブシステムツリー表示領域41101と、ストレージサブシステム概要表示領域41102と、論理ボリューム一覧表示領域41103と、を構成領域として有している。
ストレージサブシステムツリー41101は、計算機システム100内で管理され、リソースの一覧表示が可能となっているストレージサブシステム1000を示す領域であり、何れか1つが選択可能となっている。図22においては、ST.1が管理者(ユーザ)によって選択されているものとする。
ストレージサブシステム概要41102は、選択されたストレージサブシステムの総ボリューム数を示す領域であるが、当該領域には、他の情報が含まれていても良い。
論理ボリューム一覧41103は、選択されたストレージサブシステムに含まれる論理ボリュームの一覧を表示するための領域であり、論理ボリューム一覧表41104と、詳細表示ボタン41105と、を有している。論理ボリューム一覧表41104においては、各論理ボリュームについて、論理ボリュームを識別するための情報であるボリュームIDと、論理ボリュームが属するプールを識別するための情報であるプールIDと、論理ボリュームを使用するホスト計算機を識別するための情報であるホストIDと、当該ホスト計算機のIPアドレスを示す情報であるホストIPアドレスと、を含む基本情報が表示される。また、論理ボリューム一覧表41104は、ラジオボタンによって1つの論理ボリュームを選択することができ、当該選択後に詳細表示ボタン41104を押下すると、選択された論理ボリュームについて図23に示される詳細表示画面が表示される。
なお、図22の表示は、図21のフローチャートの処理に従って行われる。図22によるユーザインタフェースを表示する際には、詳細情報は不要であるため、ステップS7000の判定結果はNoであり、構成管理プログラム4110は、リソースの基本情報のみを表示する。一方、上述したように、管理者(ユーザ)が、論理ボリュームを1つ選択した状態で「詳細表示」ボタンを押下すると、図23による「詳細表示画面」を表示するために、図21のフローチャートによる処理が実行される。つまり、図23の表示に当たっては詳細情報が必要となるため,ステップS7000の判定結果がYesとなる。
(ii)図23において、論理ボリューム詳細表示のユーザインタフェース41110は、対象論理ボリュームの詳細情報を含む論理ボリューム情報41111と、対象論理ボリュームを切出し元のプールの詳細情報を含む切出し元プール情報41112と、対象論理ボリュームに割り当てられたホスト計算機を特定するための情報である割り当て先ホスト情報41113と、を表示項目として有している。
論理ボリューム情報41111において、ストレージサブIDとボリュームIDは基本情報に相当し、容量、RAIDレベル、及びメディア種別は、図21のステップS7020で取得された詳細情報に相当する。
また、切出し元プール情報41112において、プールIDは基本情報に相当し、容量、空き容量、及びプール種別は図21のステップS7020で取得された詳細情報に相当する。
なお、例えば、ST.1のLU.1の詳細情報が未取得であった場合(ST.1のLU.1について図7に示した情報のみ有している場合)、図21のステップS7010の判定結果はNoとなり、ステップS7020で、ST.1のLU.1の詳細情報が取得される。そして、最後にステップS7030の処理によって、図23が表示されることになる。
B.第2の実施形態
<計算機システムの構成>
図24は、本発明の第2の実施形態による計算機システム200の概略構成を示す図である。計算機システム200は、第1のストレージサブシステム1000bと、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000bと、スイッチ装置5000と、第2のストレージサブシステム6000と、を有している。図中では、第1のストレージサブシステム1000bと、第2のストレージサブシステム6000が2台ずつ存在すると共に、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000bと、スイッチ装置5000と、がそれぞれ1台ずつ存在しているがこの限りではなく、1台以上存在すれば良い。本構成の大部分は第1実施例の構成と同等であるため、以降は差分のみを説明する。
図1に示す計算機システム100との差異は、第1のストレージサブシステム1000bが、ストレージ仮想化プログラム1214bと、データコピープログラム1215bと、を有している点と、ストレージ構成情報テーブル群1212bを構成するテーブルが異なる点と、管理計算機4000bが持つ情報取得条件テーブル4150bの構成が異なる点、である。なお、第2のストレージサブシステム6000の構成は、第1のストレージサブシステム1000と同様であるため説明は省略する。
ストレージ仮想化プログラム1214bは、仮想化機能を実現するためのプログラムである。具体的には、ストレージ仮想化プログラム1214bは、スイッチ装置3000を介して接続された第2のストレージサブシステム6000内の論理ボリューム6110を、第1のストレージサブシステム1000b内の論理ボリューム1110にマッピングする機能を有している。これにより、第2のストレージサブシステム6000の論理ボリューム6110を、第1のストレージサブシステム1000bの論理ボリュームとしてホスト計算機2000に提供することができるようになる。本実施形態では、例えば、特許文献2及び3に開示された仮想化機能を用いることができる。仮想化機能は、スイッチ装置3000によって実現されても良い。また、第1のストレージサブシステム1000bと第2のストレージサブシステム6000とは、1対1の関係であっても良いし、1対多、多対1、多対多の関係であっても良い。
データコピープログラム1215bは、論理ボリュームに格納されたデータを、別の論理ボリュームにコピーするためのプログラムである。コピー元の論理ボリュームと、コピー先の論理ボリュームとは、同じストレージサブシステム上に存在しても良いし、別のストレージサブシステム上に存在しても良い。例えば、第1のストレージサブシステム1000b上の論理ボリューム1110(1)から論理ボリューム1110(2)にデータをコピーする場合、当該プログラムによるデータのコピーは、第1のストレージサブシステム1000bのディスクI/F1250を通じてデータを転送することで実現される。一方、第1のストレージサブシステム1000b上の論理ボリューム1110から第2のストレージサブシステム6000上の論理ボリューム6110にデータをコピーする場合は、当該プログラムによるデータのコピーは、第1のストレージサブシステム1000bのI/F(A)1230と、スイッチ装置3000の持つI/F(A)3100と、第2のストレージサブシステム6000のI/F(A)6230と、を通じてデータを転送することで実現される。
<ストレージ構成情報テーブル群>
図25は、第2の実施形態によるストレージ構成情報テーブル群1212bの構成例を示す図である。
図2に示すストレージ構成情報テーブル群1212と、図25に示すストレージ構成情報テーブル群1212bとの差異は、物理リソース割当てテーブル12121bの構成が、第1の実施形態における物理リソース割当てテーブル12121と異なる点と、ストレージ構成情報テーブル群1212bがコピー情報テーブル12122bを有する点、である。
<物理リソース割り当てテーブルの詳細構成例>
図26は、第2の実施形態による物理リソース割当てテーブル12121bの構成例を示す図である。
図4に示す物理リソース割当てテーブル12121と、図26に示す物理リソース割当てテーブル12121bとの差異は、物理リソース割当てテーブル12121bが、ストレージサブシステムを識別するためのストレージID121213bを有する点と、物理リソースID121213の代わりにリソースID121214bを有する点、である。
本実施形態においては、論理ボリューム1110のセグメントに対して、第1のストレージサブシステム1000b自身が持つ物理リソース1121の記憶領域だけでなく、第2のストレージサブシステム6000が持つ論理ボリューム6110の記憶領域を割り当てることができる。このため、論理ボリューム1110のセグメントに対して、第2のストレージサブシステム6000が持つ論理ボリューム6110の記憶領域を割り当てた場合(例えば図26においてLUN121210bが「3」、セグメントID121211bが「1」である行)においては、ストレージID121213bに第2のストレージサブシステム6000を識別する情報が、リソースID121214bに第2のストレージサブシステム6000が有する論理ボリューム6110を識別する情報が、それぞれ格納される。
なお、第1の実施形態と同様に、論理ボリューム1110のセグメントに対して、ストレージサブシステム1000b自身が持つ物理リソース1121の記憶領域を割り当てた場合には、ストレージID121213bには第1のストレージサブシステム1000bを識別する情報が、リソースID121214bには物理リソース1121を識別する情報が、それぞれ格納される。ストレージ仮想化プログラムによる仮想化・被仮想化の関係を示す方法は図26の表現に限らず、他の方法であっても良い。
<コピー情報テーブルの詳細構成例>
図27は、第2の実施形態によるコピー情報テーブル12122bの詳細構成例を示す図である。コピー情報テーブル12122bは、論理ボリューム間のコピーに関する情報を格納するテーブルである。
コピー情報テーブル12122bは、コピー元の論理ボリュームを持つストレージサブシステムを識別するためのコピー元ストレージID121220bと、コピー元の論理ボリュームを識別するためのコピー元LUN121221bと、コピー先の論理ボリュームを持つストレージサブシステムを識別するためのコピー先ストレージID121222bと、コピー先の論理ボリュームを識別するためのコピー先LUN121223bと、コピーの種別を示すコピー種別121224bと、を有する。コピーの種別には例えば、「ミラー」や「クローン」がある。ここで「ミラー」とは、コピー元の論理ボリュームからコピー先の論理ボリュームにデータのコピーが完了した後で、ホスト計算機2000からコピー元の論理ボリュームに対する書き込みがあった場合に、書き込まれたデータをコピー先の論理ボリュームにも反映するコピー種別である。また、「クローン」とは、コピー元の論理ボリュームからコピー先の論理ボリュームにデータのコピーが完了した後で、ホスト計算機2000からコピー元の論理ボリュームに対する書き込みがあった場合に、書き込まれたデータをコピー先の論理ボリュームには反映しないコピー種別である。コピーの種別についてはこれに限らず、他の種別であっても良い。
また、コピー情報テーブル12122bは、図25に示した情報に限らず、論理ボリューム間のコピーに関する他の情報を格納しても良い。
<情報取得条件テーブルの構成例>
図28は、第2の実施形態による情報取得条件テーブル4150bの構成例を示す図である。第1の実施形態による情報取得条件テーブル4150と、第2の実施形態による情報取得条件テーブル4150bとの差異は、情報取得条件テーブル4150bが、ストレージ仮想化やストレージサブシステムを跨ったコピーの構成に関する情報取得条件および情報取得方法を有している点である。
<データ処理の内容>
本実施形態における処理の大部分は第1の実施形態の処理内容と同じであるため、以降は差分のみを説明する。本実施形態の処理を説明するためのフローチャートは、第1の実施形態のフローチャートと同様である。第1の実施形態における処理と第2の実施形態による処理との差異は、図28に示す情報取得条件テーブル4150bに格納されている情報が、図13に示す情報取得条件テーブル4150に格納されている情報と異なることにより、情報取得方法決定プログラム4140が、詳細情報を取得する範囲とタイミングを決定する処理の結果が異なる点である。
例えば、情報取得条件テーブル4150bでは、条件ID41500bが「1」である行のように、任意のホスト計算機に対して直接、1つ以上のボリュームが割り当てられているストレージサブシステムについて、当該ストレージサブシステムが持つ全リソースについて詳細情報を常に保持するという情報取得方法を含んでいる。例えば第2のストレージサブシステム6000が持つ全ての論理ボリューム6110が、ストレージサブシステム1000bが持つ論理ボリュームとして仮想化されている場合、第2のストレージサブシステム6000が持つ論理ボリューム6110は、直接的にはホスト計算機2000に割り当てられることはない。このような場合、本実施形態では、情報取得方法決定プログラム4140bは、第2のストレージサブシステム6000の詳細情報は取得しないように情報収集プログラム4120に指示する。
このような制御を行う利点には、例えば次のようなものがある。一般的に、第2のストレージサブシステム6000が持つ論理ボリューム6110を、ストレージサブシステム1000bが持つ論理ボリュームとして仮想化する管理操作が行われるタイミングは、計算機システム200の運用期間において、時間的な偏りを持つ傾向がある。すなわち、例えば第2のストレージサブシステム6000が導入された際に、これが有する複数ないしは全ての論理ボリューム6110を仮想化する管理操作を一括で実施するといったケースがある。また一般的に、計算機システム200の運用においては、ホスト計算機2000とストレージサブシステム1000b、および両者を接続するスイッチ装置3000が管理操作の主対象となることが多い。第2のストレージサブシステム6000については、例えば障害が発生した場合だけ、管理操作の対象となるといったケースがある。さらに、一般的にストレージサブシステム1000bに比べて、第2のストレージサブシステム6000の方が、台数が多くなる傾向がある。以上のような一般的な傾向を踏まえると、情報取得条件テーブル4150bにおける条件ID41500bが「1」である行で示される条件を持つことによって管理計算機4000は、台数が多く、かつ管理操作の対象となる頻度が低い第2のストレージサブシステム6000の構成情報を常に保持しておく必要がなくなり、したがって計算機システム200を効率よく管理することができるようになる。
また、情報取得条件テーブル4150bでは、条件ID41500bが「2」や「3」である行のように、情報取得条件41501bに格納された情報が、第1の実施形態における情報取得条件41501に格納された情報と同じである場合でも、情報取得方法41502に格納された情報が、第1の実施形態における情報取得方法41502に格納された情報と異なる場合がある。具体的には、第1の実施形態における情報取得方法41502では、情報取得対象のストレージサブシステム1000のみが、情報取得方法の決定対象であったのに対し、第2の実施形態における情報取得方法41502bでは、情報取得対象の第1のストレージサブシステム1000bと、当該ストレージサブシステムと関連を持った第2のストレージサブシステム6000も、情報取得方法の決定対象となる。
C.第3の実施形態
<計算機システムの構成>
図29は、本発明の第3の実施形態による計算機システム300の概略構成を示す図である。この計算機システム300は、ストレージサブシステム1000と、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000cと、スイッチ装置5000と、を有している。図中では、ストレージサブシステム1000が2台存在すると共に、ホスト計算機2000と、スイッチ装置3000と、管理計算機4000cと、スイッチ装置5000と、がそれぞれ1台ずつ存在しているがこの限りではなく、1台以上存在すれば良い。本構成の大部分は第1の実施形態の構成と同等であるため、以降は差分のみを説明する。
図1に示す計算機システム100との差異は、管理計算機4000cが持つ構成情報テーブル群4130c(図30参照)に情報最終更新日時テーブル4138cが含まれる点と、管理計算機4000cが持つ情報取得条件テーブル4150cの構成が第1の実施形態における情報取得条件テーブル4150の構成と異なる点と、管理計算機4000cが情報保持ポリシテーブル4170cを有する点、である。
<情報最終更新日時テーブルの構成例>
図31は、第3の実施形態による情報最終更新日時テーブル4138cの構成例を示す図である。情報最終更新日時テーブル4138cは、図30に示される構成情報テーブル群4130cに含まれるテーブルであり、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000の構成情報を最後に取得した日時を示す情報を有している。
情報最終更新日時テーブル4138cは、ストレージサブシステム1000やホスト計算機2000が有する構成要素を識別するための構成要素ID41380cと、構成要素の情報を情報収集プログラム4120が最後に取得した日時を示す情報最終更新日時41381cと、を構成項目として有する。なお、本実施形態では、構成要素ID41380cには、構成情報テーブル群4130cに含まれる各テーブルにおいて行を一意に識別する情報を符号「:」で連結した情報を格納するが、これに限らず、ストレージサブシステム1000やホスト計算機2000が有する構成要素を一意に識別する情報であれば良い。
<情報取得条件テーブルの構成例>
図32は、第3の実施形態による情報取得条件テーブル4150cの構成例を示す図である。
図13に示す情報取得条件テーブル4150と、図32に示す情報取得条件テーブル4150cとの差異は、情報取得条件テーブル4150cが情報保持ポリシID41504cを有する点である。情報保持ポリシID41504cは、情報保持ポリシテーブル4170cの行を一意に特定するための情報である。
<情報保持ポリシテーブルの構成例>
図33は、第3の実施形態による情報保持ポリシテーブル4170cの構成例を示す図である。情報保持ポリシテーブル4170cは、情報収集プログラム4120が取得したストレージサブシステム1000やホスト計算機2000の構成情報(詳細情報)の保持及び破棄する方法に関するポリシ(保持及び破棄方法を規定するルール)を示す情報である。
情報保持ポリシテーブル4170cは、情報保持ポリシを一意に識別するためのポリシID41700cと、情報収集プログラム4120が、定期的に情報取得条件テーブル4150cの情報取得条件41501cに該当した情報を更新する時間間隔を示す条件該当情報の定期更新間隔41701cと、情報取得条件テーブル4150cの情報取得条件41501cに該当した情報の格納先を示す条件該当情報の格納先41702cと、情報取得条件テーブル4150cの情報取得条件41501cに該当した情報を破棄するタイミングを示す条件該当情報の破棄タイミング41703cと、情報取得条件テーブル4150cの情報取得条件41501cに該当しなかった情報を後から取得した場合の格納先を示す条件非該当情報の格納先41704cと、情報取得条件テーブル4150cの情報取得条件41501cに該当しなかった情報を後から取得した場合の、情報を破棄するタイミングを示す条件非該当情報の破棄タイミング41705cと、を有する。
<データ処理の内容>
本実施形態における処理の大部分は第1の実施形態の処理内容と同じであるため、以降は差分のみを説明する。第1の実施形態におけるデータ処理と、本実施形態におけるデータ処理との差異は、情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000の情報を取得する処理のシーケンスが異なる点と、本実施形態において構成管理プログラム4110が情報収集プログラム4120に対して、ストレージサブシステム1000やホスト計算機2000の情報を定期的に更新するように指示する点、である。以下、これらの差異について説明する。
<情報取得処理の詳細>
図34は、第3の実施形態において情報収集プログラム4120がストレージサブシステム1000やホスト計算機2000の情報を取得する際の処理を説明するためのフローチャートである。図34に示す情報取得処理のステップS3000cと、ステップS3010cと、ステップS3020cと、ステップS3040cと、ステップS3050cと、ステップS3060cは、図17に示す情報取得処理のステップS3000と、ステップS3010と、ステップS3020と、ステップS3040と、ステップS3050と、ステップS3060と、同等であるため説明は省略する。
図34に示す情報取得処理では、ステップS3030cにおいて、情報収集プログラム4120は、情報取得条件テーブル4150cと情報保持ポリシテーブル4170cを参照し、情報の格納先を決定した上で、ストレージサブシステム1000の情報(詳細情報)を構成情報テーブル群4130cに格納する。
また、ステップS3070cにおいて、情報収集プログラム4120は、情報取得条件テーブル4150cと情報保持ポリシテーブル4170cを参照し、情報の格納先を決定した上で、ホスト計算機2000の情報を構成情報テーブル群4130cに格納する。
以上の処理により、情報収集プログラム4120が取得したストレージサブシステム1000やホスト計算機2000の情報を、情報保持ポリシ(図33参照)に従った格納先メディア(メモリや、HDDなどの二次記憶装置)に格納することができる。
<定期的情報更新処理>
図35は、第3の実施形態において構成管理プログラム4110が情報収集プログラム4120に対して、ストレージサブシステム1000やホスト計算機2000の情報を定期的に更新するように指示する際の処理を説明するためのフローチャートである。なお、図35に示す処理は、構成管理プログラム4110の他の処理とは別のスレッドで実行されているものとする。すなわち、図35の処理は他の処理と並列に実行される。
まずステップS8000において、構成管理プログラム4110は、定期的に情報最終更新日時テーブル4138cと、情報取得条件テーブル4150cと、情報保持ポリシテーブル4170cと、を参照する。
次にステップS8010cにおいて、構成管理プログラム4110は、情報最終更新日時テーブル4138cの情報最終更新日時41381cから、情報保持ポリシテーブル4170cの条件該当情報の定期更新間隔41701cで示される時間が経過しているか否かを判定する。
情報保持ポリシテーブル4170cの条件該当情報の定期更新間隔41701cで示される時間が情報最終更新日時テーブル4138cの情報最終更新日時41381cを経過している場合(ステップS8010でYesの場合)は、処理は、ステップS8020に遷移する。一方、情報保持ポリシテーブル4170cの条件該当情報の定期更新間隔41701cで示される時間が情報最終更新日時テーブル4138cの情報最終更新日時41381cを経過していない場合(ステップS8010でNoの場合)、処理はステップS8000に遷移する。
ステップS8020において、構成管理プログラム4110は、情報収集プログラム4120に対して、該当リソースについて情報取得処理を実行するように指示し、情報収集プログラム4120は、当該指示に応答して、が徒売りソースの詳細情報を取得する。当該ステップ8020の処理の詳細は、図34で示される通りである。
以上の処理により、ストレージサブシステム1000やホスト計算機2000の情報を、情報保持ポリシに従った時間間隔で定期的に更新することができる。
D.まとめ
(1)第1の実施形態
管理計算機(管理ソフトウェア)は、まず、ストレージサブシステム及びホスト計算機の構成要素の識別子及び構成要素の対応関係を少なくとも含む基本構成情報(管理対象のオブジェクトにとってはシステム運用中に値が変動しない固定の情報のみを含む)を、例えば、それらが設定されたときに取得する。ストレージシステムシステム(計算機システム)を運用するに従って値が変動する情報を含む、構成要素の詳細構成情報(管理対象のオブジェクトをモニタ・管理するために必要な情報)を取得するための取得条件及び取得方法を示す詳細情報取得規則(情報取得条件テーブル:図13参照)に基づいて、管理計算機は、基本構成情報に対応する詳細構成情報を取得する。また、詳細情報取得規則は、複数の前記取得条件と当該取得条件に対応する複数の取得方法の組み合わせによって構成され、取得方法の情報は、詳細構成情報を取得する範囲とタイミングについての情報を含むようにしても良い。この場合、管理計算機は、複数の取得条件のそれぞれについて、取得条件を満たす構成要素が存在するか判定し、当該判定結果及び対応する取得方法に基づいて、詳細構成情報を取得する。このようにすることにより、ストレージシステムの構成情報のうち詳細な情報を保持しておく範囲とタイミングを適切に制御することができ、よって、ストレージシステムが大規模化した場合であっても、管理ソフトウェアによってこれを効率的に管理することができる。なお、管理ソフトウェアが管理する対象はストレージサブシステム、ホスト計算機、スイッチ、ハブに限定せず、ホスト計算機上で動作するアプリケーションプログラムなどを含んでもよい。
また、管理計算機は、複数の取得条件の何れも満たさない場合、1つ以上のストレージサブシステム及び1つ以上のホスト計算機における全ての構成要素について、詳細構成情報を取得する。このようにすることにより、詳細情報の取得ミスを防止することができるようになる。
管理計算機は、少なくとも、管理対象と当該管理対象に対するタスクの内容を規定する管理タスク情報(図14参照)を保持するようにしても良い。この場合、管理計算機は、管理タスク情報に含まれる各タスクを実行するために必要な詳細構成情報が取得済であるか否かチェックする。そして、管理計算機は、タスク実行の前に不足している詳細構成情報をストレージサブシステム及びホスト計算機の少なくとも1つから取得する。このようにすることにより、管理操作によって変更のあった管理対象(例えば、論理ボリュームの作成やコピー等)の構成情報を管理タスク前に漏れなく確実に取得することが可能となる。
管理計算機は、リソースの一覧表示に関するユーザインタフェースを介して基本構成情報を表示画面上に一覧表示する。そして、管理者(ユーザ)が当該一覧表示のユーザインタフェースに対して詳細表示をさせたい管理対象(例えば、論理ボリューム)を選択すると、当該選択動作に応答して、管理計算機は、詳細表示のユーザインタフェースを介して構成要素の詳細構成情報を表示画面上に表示する。このようにすることにより、管理者が知りたい管理対象を見やすく管理者に提供することが可能となる。
(2)第2の実施形態
計算機システムは、ホスト計算機に自身の論理ボリュームを直接提供する第1のストレージサブシステムと、少なくとも1つの論理ボリュームを第1のストレージサブシステムの論理ボリュームとしてホスト計算機に提供するように仮想化された第2のストレージサブシステムと、を有する。この場合、管理計算機は、第2のストレージサブシステムが仮想化された論理ボリュームの他にホスト計算機に対して直接割り当てられた論理ボリュームを有するか判断し、そうである場合のみ、第2のストレージサブシステムの構成要素について詳細構成情報を取得する。一方、第2のストレージサブシステムがホスト計算機に対して仮想化された論理ボリュームのみ提供する場合、管理計算機は、構成要素の詳細構成情報は取得しないようにする。このようにすることにより、ストレージサブシステムが仮想化されていても必要な詳細情報が取得でき、また、仮想化されたストレージサブシステムがホスト計算機と直接関連する場合のみ管理対象とすることができるので効率よく管理対象のデバイスを管理することができる。
また、管理計算機は、ストレージのコピー(ローカルコピーやリモートコピー)に関して、コピー元のストレージ及び論理ボリュームとコピー先のストレージ及び論理ボリューム関する情報を管理するようにしても良い。
このようにすることにより、ストレージ仮想化やストレージサブシステムを跨ったコピーのように、ストレージサブシステム間に関連がある場合においても、管理ソフトウェアがストレージシステムの構成情報のうち、詳細な情報を保持しておく範囲とタイミングを適切に制御することができ、ストレージシステムが大規模化した場合であっても、これを効率的に管理することができる。
(3)第3の実施形態
管理計算機は、構成要素の少なくとも詳細構成情報(基本情報を対照としても良い)の格納場所及び破棄についての規則を規定する情報保持ポリシを有し、当該情報保持ポリシに基づいて、取得した詳細構成情報の格納及び破棄について管理する。また、情報保持ポリシは、詳細構成情報の更新タイミング(更新周期等)を規定する情報を含み、管理計算機は、さらに、詳細構成情報の最終更新日時を管理する更新履歴情報を管理する。そして、管理計算機は、最終更新日時と情報保持ポリシに含まれる更新タイミングとを比較して、詳細構成情報の更新の要否を決定し、更新が必要な場合に詳細情報取得規則に基づいて詳細構成情報を取得する。このようにすることにより、ポリシにしたがって、ストレージサブシステムやホスト計算機の情報を保持しておく方法(情報を定期的に更新する間隔や、情報の格納先)を適切に制御することができ、また、計算機システムが大規模化した場合であっても、これを効率的に管理することができる。
(4)その他
本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。
また、実施の形態の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。
最後に、ここで述べたプロセス及び技術は本質的に如何なる特定の装置に関連することはなく、コンポーネントの如何なる相応しい組み合わせによってでも実装できることを理解する必要がある。更に、汎用目的の多様なタイプのデバイスがここで記述した教授に従って使用可能である。ここで述べた方法のステップを実行するのに、専用の装置を構築するのが有益であることが判るかもしれない。また、実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。本発明は、具体例に関連して記述したが、これらは、すべての観点に於いて限定の為ではなく説明の為である。本分野にスキルのある人には、本発明を実施するのに相応しいハードウェア、ソフトウェア、及びファームウエアの多数の組み合わせがあることが解るであろう。例えば、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、上述の実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていても良い。
加えて、本技術分野の通常の知識を有する者には、本発明のその他の実装がここに開示された本発明の明細書及び実施形態の考察から明らかになるである。記述された実施形態の多様な態様及び/又はコンポーネントは、データを管理する機能を有するコンピュータ化ストレージシステムに於いて、単独又は如何なる組み合わせでも使用することが出来る。明細書と具体例は典型的なものに過ぎず、本発明の範囲と精神は後続する請求範囲で示される。
1000、1000b、1000c ストレージサブシステム
1100 ディスク装置
1110 論理ボリューム
1120 プール
1121 物理リソース
1200 ディスクコントローラ
1210 メモリ
1211 ストレージ情報取得プログラム
1212、1212b ストレージ構成情報テーブル群
1213 ストレージ障害通知プログラム
1214b ストレージ仮想化プログラム
1215b データコピープログラム
1220 制御装置
1230 I/F(A)
1240 I/F(B)
1250 ディスクI/F
2000 ホスト計算機
2100 メモリ
2110 アプリケーションプログラム
2120 ホスト情報取得プログラム
2130 ホスト障害通知プログラム
2200 制御装置
2300 I/F(A)
2400 I/F(B)
3000 スイッチ装置
3100 I/F(A)
3200 I/F(B)
4000、4000b 管理計算機
4100 メモリ
4110 構成管理プログラム
4120 情報収集プログラム
4130、4130c 構成情報テーブル群
4131 ストレージ情報テーブル
4132 ボリューム情報テーブル
4133 プール情報テーブル
4134 物理リソース情報テーブル
4135 ホスト情報テーブル
4136 ホスト関連情報テーブル
4137 ボリューム割当て情報テーブル
4138c 情報最終更新日時テーブル
4140 情報取得方法決定プログラム
4150、4150b、4150c 情報取得条件テーブル
4160 管理タスクテーブル
4170c 情報保持ポリシテーブル
4200 制御装置
4300 I/F
5000 スイッチ装置
5100 I/F(A)
5200 I/F(B)
5300 I/F(C)
6000 第2のストレージサブシステム
6100 ディスク装置
6110 論理ボリューム
6120 プール
6121 物理リソース
6200 ディスクコントローラ
6210 メモリ
6220 制御装置
6230 I/F(A)
6240 I/F(B)
6250 ディスクI/F

Claims (13)

  1. 1つ以上の物理リソースと、前記物理リソースから構成される1つ以上の記憶領域と、を有する1つ以上の記憶装置と、
    前記記憶装置から割り当てられた1つ以上の記憶領域を有する1つ以上のホスト計算機と、
    前記1つ以上の記憶装置と、前記1つ以上のホスト計算機とを管理する管理計算機と、を有し、
    前記管理計算機は、前記記憶装置及び前記ホスト計算機の構成要素の識別子及び前記構成要素の対応関係を少なくとも含む構成要素基本構成情報を取得し、システムを運用するに従って変動する前記構成要素の詳細構成情報を取得するための取得条件及び取得方法を示す詳細情報取得規則に基づいて、前記構成要素基本構成情報に対応する前記詳細構成情報を取得し、
    前記管理計算機は、さらに、前記構成要素の少なくとも前記詳細構成情報の格納及び破棄についての規則を規定する情報保持ポリシを有し、当該情報保持ポリシに基づいて、前記取得した詳細構成情報の格納及び破棄について管理することを特徴とする計算機システム。
  2. 請求項1において、
    前記詳細情報取得規則は、複数の前記取得条件と当該取得条件に対応する複数の前記取得方法の組み合わせによって構成され、
    前記取得方法の情報は、前記詳細構成情報を取得する範囲とタイミングについての情報を含み、
    前記管理計算機は、前記複数の取得条件のそれぞれについて、前記取得条件を満たす前記構成要素が存在するか判定し、当該判定結果及び対応する前記取得方法に基づいて、前記詳細構成情報を取得することを特徴とする計算機システム。
  3. 請求項2において、
    前記管理計算機は、前記複数の取得条件の何れも満たさない場合には、前記1つ以上の記憶装置及び前記1つ以上のホスト計算機における全ての構成要素について、前記詳細構成情報を取得することを特徴とする計算機システム。
  4. 請求項2において、
    前記管理計算機は、少なくとも、管理対象と当該管理対象に対するタスクの内容を規定する管理タスク情報を保持し、前記管理タスク情報に含まれる前記タスクを実行するために必要な前記詳細構成情報が取得済であるか否かチェックし、前記タスク実行の前に不足している前記詳細構成情報を前記記憶装置及び前記ホスト計算機の少なくとも1つから取得することを特徴とする計算機システム。
  5. 請求項1において、
    前記管理計算機は、第1のユーザインタフェースを介して前記構成要素基本構成情報を表示画面上に一覧表示し、前記第1のユーザインタフェースに対してなされたユーザの選択に応答して、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを介して前記構成要素の前記詳細構成情報を前記表示画面上に表示することを特徴とする計算機システム。
  6. 請求項1において、
    前記ホスト計算機に自身の論理ボリュームを直接提供する第1の記憶装置と、少なくとも1つの論理ボリュームを前記第1の記憶装置の論理ボリュームとして前記ホスト計算機に提供するように仮想化された第2の記憶装置と、を有し、
    前記管理計算機は、前記第2の記憶装置が仮想化された論理ボリュームの他に前記ホスト計算機に対して直接割り当てられた論理ボリュームを有する場合のみ、前記第2の記憶装置の前記構成要素について前記詳細構成情報を取得し、前記第2の記憶装置が前記ホスト計算機に対して仮想化された論理ボリュームのみ提供する場合には、前記構成要素の前記詳細構成情報を取得しないことを特徴とする計算機システム。
  7. 請求項において、
    前記情報保持ポリシは、前記詳細構成情報の更新タイミングを規定する情報を含み、
    前記管理計算機は、前記詳細構成情報の最終更新日時を管理する更新履歴情報を有し、前記最終更新日時と前記情報保持ポリシに含まれる前記更新タイミングとに基づいて、前記詳細構成情報の更新の要否を決定し、更新が必要な場合に前記詳細情報取得規則に基づいて前記詳細構成情報を取得することを特徴とする計算機システム。
  8. 1つ以上の物理リソースと、前記物理リソースから構成される1つ以上の記憶領域と、を有する1つ以上の記憶装置と、前記記憶装置から割り当てられた1つ以上の記憶領域を有する1つ以上のホスト計算機と、前記1つ以上の記憶装置と、前記1つ以上のホスト計算機とを管理する管理計算機と、を有する計算機システムの管理方法であって、
    前記管理計算機は、プロセッサと、メモリと、を有し、当該メモリに前記構成要素の少なくとも前記詳細構成情報の格納及び破棄についての規則を規定する情報保持ポリシを保持し、
    前記プロセッサが、前記記憶装置及び前記ホスト計算機の構成要素の識別子及び前記構成要素の対応関係を少なくとも含む構成要素基本構成情報を取得するステップと、
    前記プロセッサが、前記取得した構成要素基本構成情報を前記メモリに格納するステップと、
    前記プロセッサが、前記計算機システムを運用するに従って変動する前記構成要素の詳細構成情報を取得するための取得条件及び取得方法を示す詳細情報取得規則に基づいて、前記構成要素基本構成情報に対応する前記詳細構成情報を取得するステップと、
    前記プロセッサが、前記情報保持ポリシに基づいて、前記取得した詳細構成情報の格納及び破棄について管理するステップと、
    を有することを特徴とする管理方法。
  9. 請求項において、
    前記詳細情報取得規則は、複数の前記取得条件と当該取得条件に対応する複数の前記取得方法の組み合わせによって構成され、
    前記取得方法の情報は、前記詳細構成情報を取得する範囲とタイミングについての情報を含み、
    前記詳細構成情報を取得するステップにおいて、前記プロセッサは、前記複数の取得条件のそれぞれについて、前記取得条件を満たす前記構成要素が存在するか判定し、当該判定結果及び対応する前記取得方法に基づいて、前記詳細構成情報を取得することを特徴とする管理方法。
  10. 請求項において、
    前記詳細構成情報を取得するステップにおいて、前記プロセッサは、前記複数の取得条件の何れも満たさない場合に、前記1つ以上の記憶装置及び前記1つ以上のホスト計算機における全ての構成要素について、前記詳細構成情報を取得することを特徴とする管理方法。
  11. 請求項において、
    前記管理計算機は、前記メモリに、少なくとも、管理対象と当該管理対象に対するタスクの内容を規定する管理タスク情報を保持し、
    さらに、前記プロセッサが、前記管理タスク情報に含まれる前記タスクを実行するために必要な前記詳細構成情報が取得済であるか否かチェックするステップと、
    前記プロセッサが、前記タスク実行の前に不足している前記詳細構成情報を前記記憶装置及び前記ホスト計算機の少なくとも1つから取得するステップと、
    を有することを特徴とする管理方法。
  12. 請求項において、
    前記ホスト計算機に自身の論理ボリュームを直接提供する第1の記憶装置と、少なくとも1つの論理ボリュームを前記第1の記憶装置の論理ボリュームとして前記ホスト計算機に提供するように仮想化された第2の記憶装置と、を有し、
    さらに、前記プロセッサが、前記第2の記憶装置が仮想化された論理ボリュームの他に前記ホスト計算機に対して直接割り当てられた論理ボリュームを有するか否か判断するステップと、
    前記プロセッサが、前記第2の記憶装置が前記ホスト計算機に対して直接割り当てられた論理ボリュームを有する場合、前記第2の記憶装置の前記構成要素について前記詳細構成情報を取得するステップと、
    前記プロセッサが、前記第2の記憶装置が前記ホスト計算機に対して仮想化された論理ボリュームのみ提供する場合には、前記構成要素の前記詳細構成情報を取得しないように判断するステップと、
    を有することを特徴とする管理方法。
  13. 1つ以上の物理リソースと、前記物理リソースから構成される1つ以上の記憶領域と、を有する1つ以上の記憶装置と、前記記憶装置から割り当てられた1つ以上の記憶領域を有する1つ以上のホスト計算機と、前記1つ以上の記憶装置と、前記1つ以上のホスト計算機とを管理する管理計算機と、を有する計算機システムにおいて、前記管理計算機のプロセッサに、
    前記記憶装置及び前記ホスト計算機の構成要素の識別子及び前記構成要素の対応関係を少なくとも含む構成要素基本構成情報を取得する処理と、
    前記取得した構成要素基本構成情報をメモリに格納する処理と、
    前記計算機システムを運用するに従って変動する前記構成要素の詳細構成情報を取得するための取得条件及び取得方法を示す詳細情報取得規則に基づいて、前記構成要素基本構成情報に対応する前記詳細構成情報を取得する処理と、
    前記構成要素の少なくとも前記詳細構成情報の格納及び破棄についての規則を規定する情報保持ポリシに基づいて、前記取得した詳細構成情報の格納及び破棄について管理する処理と、
    を実行させるためのプログラム。
JP2011014257A 2011-01-26 2011-01-26 計算機システム、及びその管理方法、並びにプログラム Expired - Fee Related JP5425117B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011014257A JP5425117B2 (ja) 2011-01-26 2011-01-26 計算機システム、及びその管理方法、並びにプログラム
PCT/JP2011/053322 WO2012101836A1 (ja) 2011-01-26 2011-02-17 計算機システム、及びその管理方法、並びにプログラム
US13/130,001 US8812642B2 (en) 2011-01-26 2011-02-17 Computer system, management method of the computer system, and program
US14/458,866 US9201613B2 (en) 2011-01-26 2014-08-13 Computer system, management method of the computer system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011014257A JP5425117B2 (ja) 2011-01-26 2011-01-26 計算機システム、及びその管理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2012155544A JP2012155544A (ja) 2012-08-16
JP5425117B2 true JP5425117B2 (ja) 2014-02-26

Family

ID=46580432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011014257A Expired - Fee Related JP5425117B2 (ja) 2011-01-26 2011-01-26 計算機システム、及びその管理方法、並びにプログラム

Country Status (3)

Country Link
US (2) US8812642B2 (ja)
JP (1) JP5425117B2 (ja)
WO (1) WO2012101836A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5342086B2 (ja) * 2011-02-24 2013-11-13 株式会社日立製作所 計算機システム、及びその管理方法、並びにプログラム
US9648104B2 (en) 2013-03-01 2017-05-09 Hitachi, Ltd. Configuration information acquisition method and management computer
US20150236974A1 (en) * 2013-04-26 2015-08-20 Hitachi, Ltd. Computer system and load balancing method
US20150378542A1 (en) * 2013-07-22 2015-12-31 Hitachi, Ltd. Management system for computer system
WO2015104811A1 (ja) * 2014-01-09 2015-07-16 株式会社日立製作所 計算機システム及び計算機システムの管理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103653B2 (en) 2000-06-05 2006-09-05 Fujitsu Limited Storage area network management system, method, and computer-readable medium
JP4794068B2 (ja) 2000-06-05 2011-10-12 富士通株式会社 ストレージエリア・ネットワーク管理システム
JP3743336B2 (ja) * 2001-09-14 2006-02-08 日本電気株式会社 構成管理装置
JP2003108420A (ja) * 2001-09-27 2003-04-11 Hitachi Ltd データストレージシステム及びこの制御方法
JP4704659B2 (ja) 2002-04-26 2011-06-15 株式会社日立製作所 記憶装置システムの制御方法および記憶制御装置
JP4434648B2 (ja) 2003-08-11 2010-03-17 新日鉄エンジニアリング株式会社 顕熱交換器およびそれを用いた空調装置
JP4497957B2 (ja) 2004-03-05 2010-07-07 株式会社日立製作所 記憶制御システム
JP4845467B2 (ja) * 2004-11-08 2011-12-28 株式会社エヌ・ティ・ティ・ドコモ デバイス管理装置、デバイス及びデバイス管理方法
US7529181B2 (en) * 2004-12-07 2009-05-05 Emc Corporation Method and apparatus for adaptive monitoring and management of distributed systems
JP2007249441A (ja) * 2006-03-15 2007-09-27 Hitachi Ltd 仮想化システム及び障害対処方法
JP2009223442A (ja) * 2008-03-13 2009-10-01 Hitachi Ltd ストレージシステム
US20090327945A1 (en) * 2008-06-27 2009-12-31 Kabushiki Kaisha Toshiba Work flow management apparatus and work flow management method
WO2010150312A1 (ja) * 2009-06-24 2010-12-29 株式会社日立製作所 ノード管理装置及び方法

Also Published As

Publication number Publication date
US20140351407A1 (en) 2014-11-27
JP2012155544A (ja) 2012-08-16
US20120215895A1 (en) 2012-08-23
WO2012101836A1 (ja) 2012-08-02
US9201613B2 (en) 2015-12-01
US8812642B2 (en) 2014-08-19

Similar Documents

Publication Publication Date Title
JP5158074B2 (ja) ストレージ管理プログラム、ストレージ管理方法、ストレージ管理装置およびストレージシステム
JP5502232B2 (ja) ストレージシステム、及びその制御方法
US8402239B2 (en) Volume management for network-type storage devices
US8533419B2 (en) Method for controlling data write to virtual logical volume conforming to thin provisioning, and storage apparatus
JP4920976B2 (ja) データ移動方法及びストレージシステム
JP5706531B2 (ja) 計算機システム、及び情報管理方法
US8448167B2 (en) Storage system, and remote copy control method therefor
US8578121B2 (en) Computer system and control method of the same
US8095752B2 (en) Storage access device issuing I/O requests, in an associated logical unit environment
US20110320754A1 (en) Management system for storage system and method for managing storage system
US8458424B2 (en) Storage system for reallocating data in virtual volumes and methods of the same
WO2014068607A1 (en) Computer system and method for updating configuration information
US20120297156A1 (en) Storage system and controlling method of the same
JP5425117B2 (ja) 計算機システム、及びその管理方法、並びにプログラム
WO2013111331A1 (ja) 計算機システム
WO2018158808A1 (ja) 情報システム、管理プログラム及び情報システムのプログラム交換方法
JP5421201B2 (ja) 計算機システムを管理する管理システム及び管理方法
US20120254583A1 (en) Storage control system providing virtual logical volumes complying with thin provisioning
JP2012083870A (ja) 計算機システム、ストレージ管理計算機及びストレージ管理方法
JP6035363B2 (ja) 管理計算機、計算機システム、及び管理方法
JP2020027433A (ja) 情報システム
JP5690913B2 (ja) 計算機システム、ストレージ管理計算機及びストレージ管理方法
JP5355764B2 (ja) ThinProvisioningに従う仮想的な論理ボリュームに対するデータのライトを制御する方法及びストレージ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131126

LAPS Cancellation because of no payment of annual fees