JPWO2009125490A1 - 管理装置、管理方法及びプログラム - Google Patents

管理装置、管理方法及びプログラム Download PDF

Info

Publication number
JPWO2009125490A1
JPWO2009125490A1 JP2010507097A JP2010507097A JPWO2009125490A1 JP WO2009125490 A1 JPWO2009125490 A1 JP WO2009125490A1 JP 2010507097 A JP2010507097 A JP 2010507097A JP 2010507097 A JP2010507097 A JP 2010507097A JP WO2009125490 A1 JPWO2009125490 A1 JP WO2009125490A1
Authority
JP
Japan
Prior art keywords
server
logical volume
recording unit
physical disk
identification number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010507097A
Other languages
English (en)
Other versions
JP5251974B2 (ja
Inventor
敏 伊與田
敏 伊與田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2009125490A1 publication Critical patent/JPWO2009125490A1/ja
Application granted granted Critical
Publication of JP5251974B2 publication Critical patent/JP5251974B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

物理ディスクの回転が停止可能なタイミングを把握し、より適切に物理ディスクの回転を停止させる。ストレージ装置及びサーバを管理する管理装置は、論理ボリュームの識別番号及び物理ディスクの回転状態が記録される第1記録部と、サーバの動作状態及びサーバのアクセスの対象である論理ボリュームの識別番号が記録される第2記録部と、サーバの動作状態が変更された場合、第2記録部に記録されているサーバの動作状態を変更する更新部と、第1記録部に記録されているサーバのアクセスの対象である論理ボリュームの識別番号に基づいて、サーバのアクセスの対象である論理ボリュームが設定される物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を第2記録部から抽出する抽出部と、サーバの変更後の動作状態及び他のサーバの動作状態に応じて、物理ディスクの回転状態を変更する指示をストレージ装置に行う指示部と、を備える。

Description

本発明は、ストレージ装置及びサーバを管理する管理システムに関する。
従来、ストレージ装置には、データの記録や読み出し等のアクセスが行われていない物理ディスク(単にディスクともいう)の回転を停止させることによりストレージ装置の節電を行う、いわゆる省電力モードの機能が備わっている。
物理ディスクの回転を停止させた場合、物理ディスクの回転を再開させ、物理ディスクへのアクセスができる状態になるまでには、通常30秒から数分程度かかる。そのため、物理ディスクへのアクセスが行われていない時間に限り、物理ディスクの回転を停止させている。
ストレージ装置とサーバとがLAN(Local Area Network)により接続されているシステムでは、ストレージ装置側からサーバの運用状況を把握することができない。したがって、ストレージ装置の利用者は、サーバの運用状況を考慮して、指定した時刻に物理ディスクの回転を停止させている。
特開平11−73255号公報
ストレージ装置内の物理ディスクと、その物理ディスクにアクセスを行うサーバとの関係は複雑になる場合がある。そのため、サーバの運用状況から回転の停止が可能な物理ディスクを決定することが困難な場合がある。例えば、複数のサーバが一つの物理ディスクを共有している場合、物理ディスクの回転を停止させることができるか否かを判断することが困難となる。
本発明は、上記の問題に鑑み、ストレージ装置内の物理ディスクの回転が停止可能なタイミングを把握し、より適切にストレージ装置内の物理ディスクの回転を停止させる技術の提供を目的とする。
本発明は、上記課題を解決するために、以下の手段を採用した。すなわち、本発明は、論理ボリュームが設定される物理ディスクを有するストレージ装置及び前記論理ボリュームをアクセスの対象とするサーバを管理する管理装置であって、前記論理ボリュームの識別番号及び前記物理ディスクの回転状態が記録される第1記録部と、前記サーバの動作状態及び前記サーバのアクセスの対象である論理ボリュームの識別番号が記録される第2記録部と、前記サーバの動作状態が変更された場合、前記第2記録部に記録されている前記サーバの動作状態を変更する更新部と、前記第1記録部に記録されている前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する抽出部と、前記サーバの変更後の動作状態及び前記他のサーバの動作状態に応じて、前記物理ディスクの回転状態を変更する指示を前記ストレージ装置に行う指示部と、を備える。
本発明によれば、サーバのアクセスの対象である論理ボリュームが設定される物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を第2記録部から抽出する。そして、サーバの変更後の動作状態及び他のサーバの動作状態を把握することにより、物理ディスクの回転状態を変更するタイミングを把握することができる。すなわち、物理ディスクの回転状態を変更することができるか否かの判断が可能となる。その結果、より適切なタイミングで、物理ディスクの回転状態を変更する指示をストレージ装置に行うことができる。
また、本発明は、コンピュータその他の装置、機械等が上記いずれかの処理を実行する方法であってもよい。また、本発明は、コンピュータその他の装置、機械等に、以上のいずれかの機能を実現させるプログラムであってもよい。また、本発明は、そのようなプログラムをコンピュータ等が読み取り可能な記録媒体に記録したものでもよい。
本発明は、ストレージ装置内の物理ディスクの回転が停止可能なタイミングを把握し、より適切にストレージ装置内の物理ディスクの回転を停止させることができる。
本実施形態に係るシステムの全体図である。 管理サーバ1のハードウェア構成を示す図である。 管理サーバ1の機能ブロック図である。 サーバVMテーブル70を示す図である。 ストレージテーブル80を示す図である。 ゲストOS11Aを起動させる場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを停止させる場合の管理サーバ1の処理の流れを示すフローである。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ストレージ装置5に物理ディスク20G及び20Hを増設した場合における本システムの全体図である。 ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理の流れを示すフローである。 更新後のストレージテーブル80の図である。 更新後のサーバVMテーブル70の図である。 ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合における本システムの全体図である。 ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理の流れを示すフローである。 更新後のストレージテーブル80の図である。 更新後のサーバVMテーブル70の図である。
符号の説明
1 管理サーバ
2A−2C ホストサーバ
3 バックアップサーバ
4 テープ装置
5 ストレージ装置
7 ファイバチャネルスイッチ
10A−10C ホストOS
11A−11F ゲストOS
50 CPU
51 メモリ
52 インターフェース
53 ハードディスク駆動装置
54 可搬媒体駆動装置
55 入力装置
56 表示装置
59 インターフェース部
60 取得部
61 記録部
62 抽出部
63 更新部
64 指示部
以下、図面を参照して、本発明の実施をするための最良の形態(以下、実施形態という)に係る管理装置を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
図1は、本実施形態に係るシステムの全体図である。図1に示すように、本システムは、管理装置である管理サーバ1、ホストサーバ2A−2C、バックアップサーバ3、テープ装置4及びストレージ装置5を含む。
管理サーバ1、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5は、Local AreaNetwork(LAN)等の通信ネットワーク6を介して、相互に接続されている。管理サーバ1には、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5が管理対象として登録されている。
ホストサーバ2A−2C及びバックアップサーバ3と、ストレージ装置5との間には、ファイバチャネルスイッチ7が設けられている。ホストサーバ2A−2C及びバックアップサーバ3と、ファイバチャネルスイッチ7とは光ファイバ等のファイバチャネル8により相互に接続されている。また、ストレージ装置5とファイバチャネルスイッチ7とは、ファイバチャネル8により相互に接続されている。さらに、バックアップサーバ3とテープ装置4とは、ファイバチャネル8により相互に接続されている。
本システムでは、ファイバチャネルスイッチ7を介してホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5をネットワーク接続することによりSAN(Storage Area Network)が構築されている。
ホストサーバ2A−2C及びバックアップサーバ3は、例えば、パーソナルコンピュータやワークステーション、メインフレーム等である。ホストサーバ2A−2C及びバックアップサーバ3は、CPU、RAMやROM等のメモリ、インターフェース、入出力装置等を備えている。ホストサーバ2A−2Cは、仮想マシン(Virtual Machine、VM)プログラムを有している。
ホストサーバ2Aは、ホストOS10A、ゲストOS11A及び11Bを有している。ホストOS10A、ゲストOS11A及び11Bは、ホストサーバ2A上で動作するアプリケーションである。ホストサーバ2Aでは、仮想マシンプログラムが実行されることにより、ゲストOS11A及びゲストOS11Bが起動し、ホストOS10A上でゲストOS11A及びゲストOS11Bが動作する。
ホストサーバ2Bは、ホストOS10B及びゲストOS11Cを有している。ホストOS10B及びゲストOS11Cは、ホストサーバ2B上で動作するアプリケーションである。ホストサーバ2Bでは、仮想マシンプログラムが実行されることにより、ゲストOS11Cが起動し、ホストOS10B上でゲストOS11Cが動作する。
ホストサーバ2Cは、ホストOS10C及びゲストOS11Dを有している。ホストOS10C及びゲストOS11Dは、ホストサーバ2C上で動作するアプリケーションである。ホストサーバ2Cでは、仮想マシンプログラムが実行されることにより、ゲストOS11Dが起動し、ホストOS10C上でゲストOS11Dが動作する。
ホストOS10A−10Cは、仮想マシンプログラムを動作させているオペレーティングシステム(OS)であり、ゲストOS11A−11Dは、仮想マシン上で動作するOSである。また、ホストサーバ2A−2C及びバックアップサーバ3は、SANに接続するために必要なアダプタであるHost Bus Adapter(HBA)を備えている。さらに、ホストサーバ2A−2C及びバックアップサーバ3は、デバイスドライバ及びアプリケーションプログラム等を備えている。
ストレージ装置5は、物理ディスク20A−20Fを備えている。ストレージ装置5には、物理ディスク20A及び20Bを一つのまとまりとするRAIDグループ21Aが設けられている。また、ストレージ装置5には、物理ディスク20C及び20Dを一つのまとまりとするRAIDグループ21Bが設けられている。さらに、ストレージ装置5には、物理ディスク20E及び20Fを一つのまとまりとするRAIDグループ21Cが設けられている。
ストレージ装置5は、論理ディスク31、32及び33を備えている。物理ディスク20A及び20Bが連結され、一つの論理ディスク31が構成される。物理ディスク20C及び20Dが連結され、一つの論理ディスク32が構成される。物理ディスク20E及び20Fが連結され、一つの論理ディスク33が構成される。
ストレージ装置5は、Logical Unit(LU)41A−41Eを備えている。LU41A及び41Bは、論理ディスク31が分割された複数の記憶領域である。LU41C及び41Dは、論理ディスク32が分割された複数の記憶領域である。LU41Eは、論理ディスク33を一つの記憶領域としたものである。このように、物理ディスク20A及び20B上にLU41A及び41Bが設定され、物理ディスク20C及び20D上にLU41C及び41Dが設定され、物理ディスク20E及び20F上にLU41Eが設定される。また、LU41A−41Eは論理ボリュームとも呼ばれる。
ここで、LU41Aについて、RAIDグループ21Aとの関係を述べるときは、LU41AはRAIDグループ21Aに属するという。LU41Bについて、RAIDグループ21Aとの関係を述べるときは、LU41BはRAIDグループ21Aに属するという。また、LU41Cについて、RAIDグループ21Bとの関係を述べるときは、LU41CはRAIDグループ21Bに属するという。LU41Dについて、RAIDグループ21Bとの関係を述べるときは、LU41BはRAIDグループ21Bに属するという。また、LU41Eについて、RAIDグループ21Cとの関係を述べるときは、LU41EはRAIDグループ21Cに属するという。
ストレージ装置5は、外部インターフェースを備えており、管理サーバ1、ホストサーバ2A−2C及びバックアップサーバ3との間でデータの送受信を行う。また、ストレージ装置5は、いわゆる省電力モード機能を備えており、物理ディスク20A−20Fの回転を開始又は停止することにより、省電力モードのオンオフを切替える。
ホストサーバ2A−2C及びバックアップサーバ3は、LU41A−41Eを各単位として、LU41A−41Eにアクセスする。すなわち、ホストサーバ2A−2C及びバックアップサーバ3は、LU41A−41Eの1つ以上をアクセスの対象として決定し、LU41A−41Eの1つ以上を利用して所定の業務を実行する。
ホストOS10A上でゲストOS11Aが動作する場合、ホストOS10AによってLU41A−41Eの1つ以上がゲストOS11Aに割り当てられる。したがって、ホストOS10AによってLU41A−41Eの1つ以上がゲストOS11Aに割り当てられた場合、ゲストOS11Aは、LU41A−41Eの1つ以上をアクセスの対象とする。ゲストOS10B−10Dについても、ゲストOS11Aと同様である。
ファイバチャネルスイッチ7は、ネームサーバ機能やルーティング機能等を備える。ファイバチャネルスイッチ7は、ファイバチャネルスイッチ7に接続される各装置を関係付けるための設定がされる。図1では、1台のストレージ装置5がファイバチャネルスイッチ7に接続されているが、ストレージ装置5の数が1台に限定されるわけではない。複数台のストレージ装置5をファイバチャネルスイッチ7に接続することが可能である。また、管理サーバ1は、ファイバチャネルスイッチ7をアクセスすることにより、SANの構成を取得することができる。
管理サーバ1は、例えば、パーソナルコンピュータやワークステーション、メインフレーム等である。図2に、管理サーバ1のハードウェア構成を示す。図2に示すように、管理サーバ1は、コンピュータプログラムを実行し、管理サーバ1を制御するCPU50と、CPU50で実行されるコンピュータプログラムやCPU50が処理するデータを記憶するメモリ51を有する。また、図2に示すように、管理サーバ1は、CPU50と各種の装置とを接続するインターフェース52、ハードディスク駆動装置53、可搬媒体駆動装置54、入力装置55、表示装置56を有している。
メモリ51は、例えば、揮発性のRAM、不揮発性のROMである。インターフェース52は、Universal Serial Bus(USB)等のシリアルインターフェース、あるいは、Peripheral Component Interconnect(PCI)等のパラレルインターフェースのいずれでもよい。なお、CPU50と各装置とをインターフェース52で接続しているが、CPU50と各装置との間を異なるインターフェースで接続してもよい。また、複数のインターフェースをブリッジ接続してもよい。
ハードディスク駆動装置53は、メモリ51にロードされるプログラムを格納する。また、ハードディスク駆動装置53は、CPU50で処理されるデータを記憶する。可搬媒体駆動装置54は、例えば、Compact Disc(CD)、Digital Versatile Disk(DVD)、HD−DVD、ブルーレイディスク等の駆動装置である。また、可搬媒体駆動装置54は、フラッシュメモリ等の不揮発性メモリを有するカード媒体の入出力装置であってもよい。可搬媒体駆動装置54が駆動する媒体は、例えば、ハードディスク駆動装置53にインストールされるコンピュータプログラム、入力データ等を格納する。入力装置55は、例えば、キーボード、マウス、ポインティングデバイス、ワイヤレスリモコン等である。
表示装置56は、CPU50で処理されるデータやメモリ51に記憶されるデータを表示する。表示装置56は、例えば、液晶表示装置、プラズマディスプレイパネル、Cathode Ray Tube(CRT)、エレクトロルミネッセンスパネル等である。
図3に、管理サーバ1の機能ブロック図を示す。管理サーバ1は、インターフェース部59、取得部60、記録部61、抽出部62、更新部63及び指示部64を有する。これらの各機能部は、CPU50、メモリ51等を含むコンピュータ、各装置及びコンピュータ上で実行されるプログラム等によって実現することができる。
インターフェース部59は、ホストサーバ2A−2C及びバックアップサーバ3へのアクセスや、ホストサーバ2A−2C及びバックアップサーバ3からの通知を受け付ける。
取得部60は、インターフェース部59を介して、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5に関するデータを取得する。
記録部61には、管理サーバ1の管理対象に関するデータが記録される。例えば、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5の名称が、管理サーバ1の管理対象に関するデータとして記録される。記録部61は、サーバVMテーブル70(第2記録部に相当)及びストレージテーブル80(第1記録部に相当)を有している。サーバVMテーブル70には、ホストサーバ2A−2C及びバックアップサーバ3に関するデータが記録される。ストレージテーブル80には、ストレージ装置5に関するデータが記録される。
抽出部62は、記録部61に記録されているデータを抽出する。抽出部62は、サーバVMテーブル70に記録されているホストサーバ2A−2C及びバックアップサーバ3に関するデータを抽出する。抽出部62は、ストレージテーブル80に記録されているストレージ装置5に関するデータを抽出する。
更新部63は、記録部61に記録されているデータを更新する。更新部63は、サーバVMテーブル70に記録されているホストサーバ2A−2C及びバックアップサーバ3に関するデータを更新する。更新部63は、ストレージテーブル80に記録されているストレージ装置5に関するデータを更新する。
指示部64は、インターフェース部59を介して、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5に所定の指示を行う。
次に、管理サーバ1が、LANを介してホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5から各種のデータを取得する処理を説明する。具体的には、取得部60が、ホストOS10A−10C、バックアップサーバ3及びストレージ装置5から、各種のデータを取得する。
ここでは、ホストサーバ2Aは、LU41A及びLU41Bをアクセスの対象としている。そして、ホストサーバ2Bは、LU41Cをアクセスの対象としている。また、ホストサーバ2Cは、LU41Dをアクセスの対象としている。さらに、バックアップサーバ3は、LU41Eをアクセスの対象としている。
また、ホストサーバ2A−2Cでは、仮想マシンが起動していることを前提とする。そして、ホストOS10Aによって、ゲストOS11AにはLU41Aが割り当てられ、ゲストOS11BにはLU41Bが割り当てられている。さらに、ホストOS10Bによって、ゲストOS11CにはLU41Cが割り当てられている。また、ホストOS10Cによって、ゲストOS11DにはLU41Dが割り当てられている。
ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5から取得する各種のデータは、サーバVMテーブル70又はストレージテーブル80に記録される。図4は、サーバVMテーブル70を示す図であり、図5は、ストレージテーブル80を示す図である。
取得部60は、インターフェース部59を介して、ホストOS10A−10Cから、サーバ名、World Wide Name(WWN)、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLogical Unit Number(LUN)の各データを取得する。また、取得部60は、インターフェース部59を介して、バックアップサーバ3から、サーバ名、WWN、サーバ動作状態及びLUNの各データを取得する。
インターフェース部59を介して、取得部60が定期的にホストサーバ2A−2C及びバックアップサーバ3をアクセスすることにより、各データを取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2A−2C及びバックアップサーバ3が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
サーバ名は、ホストサーバ2A−2C及びバックアップサーバ3の名称である。図4に示すサーバVMテーブル70のサーバ名のフィールドには、ホストサーバ2A−2C及びバックアップサーバ3の名称が記録される。
WWNは、SANを構成するホストサーバ2A−2C及びバックアップサーバ3に割り当てられている固有の識別名である。図4に示すサーバVMテーブル70のWWNのフィールドには、WWN#1、WWN#2、WWN#3及びWWN#4が記録される。WWN#1、WWN#2、WWN#3及びWWN#4は、ホストサーバ2A−2C及びバックアップサーバ3にそれぞれ割り当てられている固有の識別名である。
サーバ動作状態は、ホストサーバ2A−2C及びバックアップサーバ3の現在の動作状態である。サーバ動作状態として、動作中又は停止中がある。ゲストOS11A及びゲストOS11Bのいずれかが起動開始あるいは起動中の場合、ホストサーバ2Aのサーバ動作状態は動作中となる。また、ゲストOS11A及びゲストOS11Bの両方が停止中の場合、ホストサーバ2Aのサーバ動作状態は停止中となる。
ゲストOS11Cが起動している場合、ホストサーバ2Bのサーバ動作状態は動作中となる。ゲストOS11Cが起動していない場合、ホストサーバ2Bのサーバ動作状態は停止中となる。ゲストOS11Dが起動している場合、ホストサーバ2Cのサーバ動作状態は動作中となる。ゲストOS11Cが起動していない場合、ホストサーバ2Cのサーバ動作状態は停止中となる。
ゲストOS名は、ゲストOS11A−11Dの名称である。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行1には、ゲストOS11Aの名称として「VM−A」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行2には、ゲストOS11Bの名称として「VM−B」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行3には、ゲストOS11Cの名称として「VM−C」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行4には、ゲストOS11Dの名称として「VM−D」が記録される。
ゲストOS起動状態は、ゲストOS11A−11Dの現在の起動状態である。ゲストOS起動状態として、起動開始、起動中又は停止中がある。
LUNは、ストレージ装置5が有するLU41A−41Eを識別するための番号である。図4に示すサーバVMテーブル70のLUNのフィールドには、「VOLUME#A」、「VOLUME#B」、「VOLUME#C」、「VOLUME#D」及び「VOLUME#E」が記録される。
図4では、説明の便宜のために、「VOLUME#A」、「VOLUME#B」、「VOLUME#C」、「VOLUME#D」及び「VOLUME#E」と表記しているが、実際にはコード化された3ビットの識別子がVMテーブル60のLUNのフィールドに記録される。
「VOLUME#A」は、ゲストOS11Aに割り当てられているLU41AのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行1に「VOLUME#A」が記録される。
「VOLUME#B」は、ゲストOS11Bに割り当てられているLU41BのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行2に「VOLUME#B」が記録される。
「VOLUME#C」は、ゲストOS11Cに割り当てられているLU41CのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行3に「VOLUME#C」が記録される。
「VOLUME#D」は、ゲストOS11Dに割り当てられているLU41DのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行4に「VOLUME#D」が記録される。
「VOLUME#E」は、バックアップサーバ3のアクセスの対象であるLU41EのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行5に「VOLUME#E」が記録される。
このように、図4に示すサーバVMテーブル70では、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNのデータによって1つのグループが構成されている。このグループ内では、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNのデータが相互に関係付けられている。例えば、図4に示すサーバVMテーブル70の行1では、「ホストサーバ2A」、「WWN#1」、「停止中」、「VM−A」、「停止中」及び「VOLUME#A」によって1つのグループが構成されている。図4に示すサーバVMテーブル70の他の行も同様である。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する。図5に示すストレージテーブル80のLUNのフィールドには、ホストサーバ2A−2C及びバックアップサーバ3のアクセスの対象であるLU41のLUNが記録される。
アクセスサーバ番号は、LU41をアクセスの対象とするホストサーバ2A−2C及びバックアップサーバ3を識別するための番号である。アクセスサーバ番号として、ホストサーバ2A−2C及びバックアップサーバ3に割り当てられているWWNが用いられる。
WWN#1は、ホストサーバ2Aに割り当てられている固有の識別名である。ホストサーバ2Aは、LU41A及びLU41Bをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行1及び行2には、WWN#1が記録される。
WWN#2は、ホストサーバ2Bに割り当てられている固有の識別名である。ホストサーバ2Bは、LU41Cをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行3には、WWN#2が記録される。
WWN#3は、ホストサーバ2Cに割り当てられている固有の識別名である。ホストサーバ2Cは、LU41Dをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行4には、WWN#3が記録される。
WWN#4は、バックアップサーバ3に割り当てられている固有の識別名である。バックアップサーバ3は、LU41Eをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行5には、WWN#4が記録される。
ストレージ名は、ストレージ装置5に設定されるRAIDグループ21A−21Cの名称である。
RAIDグループ21Aは、LU41A(VOLUME#A)及びLU41B(VOLUME#B)が設定される物理ディスク20A及び20Bを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行1及び行2には、RAIDグループ21Aの名称として、「DIDK−A」が記録される。
RAIDグループ21Bは、LU41C(VOLUME#C)及びLU41D(VOLUME#D)が設定される物理ディスク20C及び20Dを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行3及び行4には、RAIDグループ21Bの名称として、「DIDK−B」が記録される。
RAIDグループ21Cは、LU41E(VOLUME#E)が設定される物理ディスク20E及び20Fを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行5には、RAIDグループ21Cの名称として「DIDK−C」が記録される。
ディスク回転状態は、物理ディスク20A−20Fの現在の回転状態である。
図5に示すストレージテーブル80のディスク回転状態のフィールドの行1及び行2には、RAIDグループ21Aの物理ディスク20A及び20Bの回転状態が記録される。図5に示すストレージテーブル80のディスク回転状態のフィールドの行3及び行4には、RAIDグループ21Bの物理ディスク20C及び20Dの回転状態が記録される。図5に示すストレージテーブル80のディスク回転状態のフィールドの行5には、RAIDグループ21Cの物理ディスク20E及び20Fの回転状態が記録される。
図5に示すストレージテーブル80では、LUN、アクセスサーバ番号、ストレージ名及びディスク回転状態のデータによって1つのグループが構成されている。このグループ内では、LUN、アクセスサーバ番号、ストレージ名及びディスク回転状態のデータが相互に関係付けられている。例えば、図5に示すストレージテーブル80の行1では、「VOLUME#A」、「WWN#1」、「DISK−A」及び「停止中」によって一つのグループが構成されている。図5に示すストレージテーブル80の他の行も同様である。
〈ゲストOS11Aの起動における管理サーバ1の処理の説明〉
図6を参照して、ゲストOS11Aを起動させる場合の管理サーバ1の処理を説明する。図6は、ゲストOS11Aを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Aの起動の事前通知を受け取る(S601)。インターフェース部59によって、ホストOS10AからゲストOS11Aの起動の事前通知を受け取った場合、抽出部62は、ゲストOS11Aに割り当てられているLU41AのLUNのデータを、サーバVMテーブル70から抽出する(S602)。ここでは、ゲストOS11Aに割り当てられているLU41AのLUNである「VOLUME#A」が、図4に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S602の処理で抽出された「VOLUME#A」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S603)。すなわち、抽出部62は、S602の処理で抽出された「VOLUME#A」に基づいて、LU41Aが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図5に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。また、図5に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
次に、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールド及びゲストOS起動状態のフィールドを更新する(S604)。図7は、サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図7に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行1〜2では、「停止中」から「動作中」にデータが更新されている。また、図7に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「停止中」から「起動開始」にデータが更新されている。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S605)。図8は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図8に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「停止中」から「回転開始」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、物理ディスク20A及び20Bの回転開始の指示をストレージ装置5に送る(S606)。
ここで、物理ディスク20A及び20Bの回転開始の指示を受け取ったストレージ装置5は、物理ディスク20A及び20Bの回転を開始する。そして、物理ディスク20A及び20Bの回転がアクセス可能な状態になった場合、ストレージ装置5は、物理ディスク20A及び20Bがアクセス可能になったことの通知を管理サーバ1に送る。
物理ディスク20A及び20Bがアクセス可能になったことの通知を受け取った場合、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S607)。図9は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図9に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「回転開始」から「アクセス可能」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、ゲストOS11Aの起動の指示をホストサーバ2Aに送る(S608)。
そして、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S609)。図10は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図10に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「起動開始」から「起動中」にデータが更新されている。
ゲストOS11Aの起動の指示を受け取ったホストサーバ2Aは、ゲストOS11Aを起動する。S609の処理の後、ゲストOS11Aの起動における管理サーバ1の処理を終了する。
〈ゲストOS11Bの起動における管理サーバ1の処理の説明〉
図11を参照して、ゲストOS11Bを起動させる場合の管理サーバ1の処理を説明する。図11は、ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11Aは起動中の状態であり、ゲストOS11B−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図10に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Bの起動の事前通知を受け取る(S1101)。インターフェース部59によって、ホストOS10AからゲストOS11Bの起動の事前通知を受け取った場合、抽出部62は、ゲストOS11Bに割り当てられているLU41BのLUNのデータを、サーバVMテーブル70から抽出する(S1102)。ここでは、ゲストOS11Bに割り当てられているLU41BのLUNである「VOLUME#B」が、図10に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1102の処理で抽出された「VOLUME#B」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S1103)。すなわち、抽出部62は、S1102の処理で抽出された「VOLUME#B」に基づいて、LU41Bが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。また、図9に示すストレージテーブル80から「アクセス可能」が、ディスク回転状態のデータとして抽出される。
次に、指示部64は、インターフェース部59を介して、ゲストOS11Bの起動の指示をホストサーバ2Aに送る(S1104)。ゲストOS11Bに割り当てられているLU41Bが設定される物理ディスク20A及び20Bは、アクセス可能の状態である。そのため、ゲストOS11Bの起動の指示がホストサーバ2Aに送られる。
そして、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S1105)。図12は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図12に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行2では、「停止中」から「起動中」にデータが更新されている。
ゲストOS11Bの起動の指示を受け取ったホストサーバ2Aは、ゲストOS11Bを起動する。S1105の処理の後、ゲストOS11Bの起動における管理サーバ1の処理を終了する。
〈ゲストOS11Bの停止における管理サーバ1の処理の説明〉
図13を参照して、ゲストOS11Bを停止させる場合の管理サーバ1の処理を説明する。図13は、ゲストOS11Bを停止させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A及び11Bは起動中の状態であり、ゲストOS11C及び11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図12に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Bの停止の通知を受け取る(S1301)。インターフェース部59によって、ホストOS10AからゲストOS11Bの停止の通知を受け取った場合、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S1302)。図14は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図14に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行2では、「起動中」から「停止中」にデータが更新されている。
そして、抽出部62は、ゲストOS11Bに割り当てられているLU41BのLUNのデータを、サーバVMテーブル70から抽出する(S1303)。ここでは、ゲストOS11Bに割り当てられているLU41BのLUNである「VOLUME#B」が、図14に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1303の処理で抽出された「VOLUME#B」と関係付けられているストレージ名のデータを、ストレージテーブル80から抽出する(S1304)。すなわち、抽出部62は、S1303の処理で抽出された「VOLUME#B」に基づいて、LU41Bが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。
そして、抽出部62は、S1304の処理で抽出された「DISK−A」と関係付けられているLUNのデータを、ストレージテーブル80から抽出する(S1305)。ここでは、図9に示すストレージテーブル80から、「VOLUME#A」及び「VOLUME#B」が抽出される。
次に、抽出部62は、「VOLUME#A」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図14に示すサーバVMテーブル70から抽出する(S1306)。この場合、抽出部62は、「VM−A」及び「起動中」を、図14に示すサーバVMテーブル70から抽出する。図14に示すサーバVMテーブル70から抽出された「VM−A」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの名称である。また、図14に示すサーバVMテーブル70から抽出された「起動中」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態である。
そして、抽出部62は、「VOLUME#B」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図14に示すサーバVMテーブル70から抽出する(S1307)。この場合、抽出部62は、「VM−B」及び「停止中」を図14に示すサーバVMテーブル70から抽出する。図14に示すサーバVMテーブル70から抽出された「VM−B」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの名称である。また、図14に示すサーバVMテーブル70から抽出された「停止中」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態である。
S1307の処理を行った後、ゲストOS11Bの停止における管理サーバ1の処理を終了する。LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態は「起動中」であり、物理ディスク20A及び20Bの回転を継続させる必要がある。したがって、管理サーバ1はストレージ装置5に対して、物理ディスク20A及び20Bの回転停止の指示を行わない。
〈ゲストOS11Aの停止における管理サーバ1の処理の説明〉
図15を参照して、ゲストOS11Aを停止させる場合の管理サーバ1の処理を説明する。図15は、ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11Aは起動中の状態である。また、ゲストOS11B、11C及び11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図14に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Aの停止の通知を受け取る(S1501)。インターフェース部59によって、ホストOS10AからゲストOS11Aの停止の通知を受け取った場合、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールド及びゲストOS起動状態のフィールドを更新する(S1502)。図16は、サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図16に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行1〜2では、「動作中」から「停止中」にデータが更新されている。図16に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「起動中」から「停止中」にデータが更新されている。
そして、抽出部62は、ゲストOS11Aに割り当てられているLU41AのLUNのデータを、サーバVMテーブル70から抽出する(S1503)。ここでは、ゲストOS11Aに割り当てられているLU41AのLUNである「VOLUME#A」が、図16に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1503の処理で抽出された「VOLUME#A」と関係付けられているストレージ名のデータを、ストレージテーブル80から抽出する(S1504)。すなわち、抽出部62は、S1503の処理で抽出された「VOLUME#A」に基づいて、LU41Aが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。
そして、抽出部62は、S1504の処理で抽出された「DISK−A」と関係付けられているLUNのデータを、ストレージテーブル80から抽出する(S1505)。ここでは、図9に示すストレージテーブル80から、「VOLUME#A」及び「VOLUME#B」が抽出される。
次に、抽出部62は、「VOLUME#A」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図16に示すサーバVMテーブル70から抽出する(S1506)。この場合、抽出部62は、「VM−A」及び「停止中」を、図16に示すサーバVMテーブル70から抽出する。図16に示すサーバVMテーブル70から抽出された「VM−A」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの名称である。また、図16に示すサーバVMテーブル70から抽出された「停止中」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態である。
そして、抽出部62は、「VOLUME#B」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図16に示すサーバVMテーブル70から抽出する(S1507)。この場合、抽出部62は、「VM−B」及び「停止中」を図16に示すサーバVMテーブル70から抽出する。図16に示すサーバVMテーブル70から抽出された「VM−B」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの名称である。また、図16に示すサーバVMテーブル70から抽出された「停止中」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態である。
次に、指示部64は、インターフェース部59を介して、物理ディスク20A及び20Bの回転停止の指示をストレージ装置5に送る(S1508)。ゲストOS11Aに割り当てられているLU41A(VOLUME#A)は、RAIDグループ21Aに属している。ゲストOS11Bに割り当てられているLU41B(VOLUME#B)は、RAIDグループ21Aに属している。LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態は「停止中」であり、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態は「停止中」である。すなわち、RAIDグループ21Aの物理ディスク20A及び20Bをアクセスの対象とするホストサーバ2AのゲストOS11A及びゲストOS11Bの起動状態は、共に「停止中」である。したがって、物理ディスク20A及び20Bの回転を停止することが可能となり、物理ディスク20A及び20Bの回転停止の指示がストレージ装置5に送られる。物理ディスク20A及び20Bの回転停止の指示を受け取ったストレージ装置5は、物理ディスク20A及び20Bの回転を停止する。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1509)。図17は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図17に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「アクセス可能」から「停止中」にデータが更新されている。S1509の処理を行った後、ゲストOS11Aの停止における管理サーバ1の処理を終了する。
〈バックアップサーバ3のバックアップ処理における管理サーバ1の処理の説明〉
図18を参照して、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理を説明する。図18は、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11D及びバックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
バックアップサーバ3は、ユーザーからバックアップの指示を受け付ける。バックアップの指示は、LU41Aに記録されているデータをLU41Eに複写する指示であるものとする。バックアップの指示を受け付けたバックアップサーバ3は、LU41Aに記録されているデータをLU41Eに複写する通知を管理サーバ1に送る。
インターフェース部59は、LU41Aに記録されているデータをLU41Eに複写する通知をバックアップサーバ3から受け取る(S1801)。インターフェース部59によって、LU41Aに記録されているデータをLU41Eに複写する通知を受け取った場合、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールドを更新する(S1802)。図19は、サーバ動作状態のフィールドが更新された状態のサーバVMテーブル70の図である。図19に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行5では、「停止中」から「動作中」にデータが更新されている。
そして、抽出部62は、バックアップサーバ3がアクセスの対象とするLU41EのLUNのデータを、サーバVMテーブル70から抽出する(S1803)。ここでは、バックアップサーバ3がアクセスの対象とするLU41EのLUNである「VOLUME#E」が、図19に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1803の処理で抽出された「VOLUME#E」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S1804)。すなわち、抽出部62は、S1803の処理で抽出された「VOLUME#E」に基づいて、LU41Eが設定される物理ディスク20E及び20FのRAIDグループ21Cに関するデータのうちストレージ名及びディスク回転状態の各データをストレージテーブル80から抽出する。ここでは、図5に示すストレージテーブル80から「DISK−C」が、ストレージ名のデータとして抽出される。また、図5に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1805)。図20は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図20に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「停止中」から「回転開始」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、物理ディスク20E及び20Fの回転開始の指示をストレージ装置5に送る(S1806)。
ここで、物理ディスク20E及び20Fの回転開始の指示を受け取ったストレージ装置5は、物理ディスク20E及び20Fの回転を開始する。そして、物理ディスク20E及び20Fの回転がアクセス可能な状態になった場合、ストレージ装置5は、物理ディスク20E及び20Fがアクセス可能になったことの通知を管理サーバ1に送る。
物理ディスク20E及び20Fがアクセス可能になったことの通知を受け取った場合、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1807)。図21は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図21に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「回転開始」から「アクセス可能」にデータが更新されている。
次に、抽出部62は、LU41Aが設定されている物理ディスク20A及び20Bの回転状態のデータをストレージテーブル80から抽出する。すなわち、複写元のデータが記録されているLU41AのLUNである「VOLUME#A」に基づいて、「DISK−A」のディスク回転状態のデータをストレージテーブル80から抽出する。ここでは、図21に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
物理ディスク20A及び20Bの回転状態が停止中の場合、図6におけるS605〜S607の処理が行われる。すなわち、物理ディスク20A及び20Bをアクセス可能な状態にする。一方、物理ディスク20A及び20Bの回転状態がアクセス可能の場合、図6におけるS605〜S607の処理は行われない。ここでは、物理ディスク20A及び20Bの回転状態が停止中であるため、図6におけるS605〜S607の処理が行われる。
図6におけるS605〜S607の処理が行われた後、指示部64は、インターフェース部59を介して、LU41Aに記録されているデータをLU41Eに複写する指示をストレージ装置5に送る(S1808)。
LU41Aに記録されているデータをLU41Eに複写する指示を受け取ったストレージ装置5は、LU41Aに記録されているデータをLU41Eに複写する。そして、LU41Aに記録されているデータがLU41Eに複写された場合、ストレージ装置5は、複写完了の通知を管理サーバ1に送る。
インターフェース部59は、ストレージ装置5から複写完了の通知を受け取る(S1809)。インターフェース部59によって、ストレージ装置5から複写完了の通知を受け取った場合、抽出部62は、ホストサーバ2Aのサーバ動作状態のデータをサーバVMテーブル70から抽出する。ここでは、図19に示すサーバVMテーブル70から「停止中」が、サーバ動作状態のデータとして抽出される。したがって、ホストサーバ2Aの動作状態は停止中である。LU41Aに記録されているデータについては、LU41Eへの複写が完了している。指示部64は、LU41Aをアクセスの対象とするホストサーバ2Aの動作状態を調べることにより、LU41Aが設定されている物理ディスク20A及び20Bの回転停止の可否を判断する。
ホストサーバ2Aの動作状態が停止中の場合、図15におけるS1507及びS1508の処理が行われる。一方、ホストサーバ2Aの動作状態が動作中の場合、図15におけるS1507及びS1508の処理は行われない。ここでは、ホストサーバ2Aの動作状態は停止中であるため、図15におけるS1507及びS1508の処理が行われる。
次に、指示部64は、インターフェース部59を介して、LU41Eに複写されたデータをテープ装置4に転送する指示をバックアップサーバ3に送る(S1810)。LU41Eに複写されたデータをテープ装置4に転送する指示を受け取ったバックアップサーバ3は、LU41Eに複写されたデータをテープ装置4に転送する。そして、LU41Eに複写されたデータについて、テープ装置4への転送が完了した場合、ストレージ装置5は、転送完了の通知を管理サーバ1に送る。
インターフェース部59は、ストレージ装置5から転送完了の通知を受け取る(S1811)。インターフェース部59によって、ストレージ装置5から転送完了の通知を受け取った場合、指示部64は、インターフェース部59を介して、物理ディスク20E及び20Fの回転停止の指示をストレージ装置5に送る(S1812)。物理ディスク20E及び20Fの回転停止の指示を受け取ったストレージ装置5は、物理ディスク20E及び20Fの回転を停止する。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1813)。図22は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図22に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「アクセス可能」から「停止中」にデータが更新されている。S1813の処理を行った後、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理を終了する。
〈物理ディスク増設の説明〉
ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理について説明する。図23は、ストレージ装置5に物理ディスク20G及び20Hを増設した場合における本システムの全体図である。ストレージ装置5には、物理ディスク20G及び20Hが増設されている。また、ホストサーバ2Cには、ゲストOS11E及び11Fが追加されている。
ストレージ装置5には、物理ディスク20G及び20Hを一つのまとまりとするRAIDグループ21Dが設けられている。ストレージ装置5は、論理ディスク34を備えている。物理ディスク20G及び20Hが連結され、一つの論理ディスク34が構成される。ストレージ装置5は、LU41F及び41Gを備えている。LU41F及び41Gは、論理ディスク34が分割された複数の記憶領域である。物理ディスク20G及び20H上にLU41F及び41Gが設定される。LU41F及び41Gは論理ボリュームとも呼ばれる。
図24は、ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
ホストサーバ2Cは、LU41F及び41Gをアクセスの対象としている。また、ホストOS10Cによって、ゲストOS11FにはLU41Fが割り当てられ、ゲストOS11GにはLU41Gが割り当てられている。ホストサーバ2Cは、LU41F及び41Gをアクセスの対象とすることをストレージ装置5に通知する。ストレージ装置5は、ホストサーバ2CがLU41F及び41Gをアクセスの対象とすることを許可する。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する(S2401)。各データは、インターフェース部59を介して、取得部60が定期的にストレージ装置5をアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ストレージ装置5が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ストレージ装置5からサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、ストレージテーブル80を更新する(S2402)。図25は、更新後のストレージテーブル80の図である。図25に示すストレージテーブル80には、物理ディスク20G及び20Hに関するデータが追加されている。具体的には、図25に示すストレージテーブル80のLUNのフィールドにおける行6に「VOLUME#F」が追加され、行7に「VOLUME#G」が追加されている。図25に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行6及び行7に「WWN#3」がそれぞれ追加されている。図25に示すストレージテーブル80のストレージ名のフィールドにおける行6及び行7に「DISK−D」がそれぞれ追加されている。図25に示すストレージテーブル80のディスク回転状態のフィールドにおける行6及び行7に「停止中」がそれぞれ追加されている。
そして、取得部60は、ホストOS10Cから、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得する(S2403)。各データは、インターフェース部59を介して、取得部60が定期的にホストサーバ2Cをアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2Cが各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ホスト10Cからサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、サーバVMテーブル70を更新する(S2404)。
図26は、更新後のサーバVMテーブル70の図である。図26に示すサーバVMテーブル70には、ゲストOS11E及びゲストOS11Fに関するデータが追加されている。具体的には、図26に示すサーバVMテーブル70のゲストOS名のフィールドにおける行5に「VM−E」が追加され、行6に「VM−F」が追加されている。「VM−E」はゲストOS11Eの名称であり、「VM−F」はゲストOS11Fの名称である。図26に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行5及び行6に「停止中」がそれぞれ追加されている。図26に示すサーバVMテーブル70のLUNのフィールドにおける行5に「VOLUME#F」が追加され、行6に「VOLUME#G」が追加されている。「VOLUME#F」は、ゲストOS11Eに割り当てられているLU41FのLUNである。「VOLUME#G」は、ゲストOS11Fに割り当てられているLU41GのLUNである。
S2404の処理が行われた後、ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理を終了する。ゲストOS11E又は11Fを起動させる場合の管理サーバ1の処理は、図26に示すサーバVMテーブル70及び図25に示すストレージテーブル80を使用して行われる。ゲストOS11E又は11Fを起動させる場合の管理サーバ1の具体的な処理については、ゲストOS11Aを起動させる場合の管理サーバ1の処理と同様である。
〈ゲストOS移動の説明〉
ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理について説明する。図27は、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合における本システムの全体図である。図27に示すように、ホストサーバ2Cからホストサーバ2AにゲストOS11Eが移動している。
図28は、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Fは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図26に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図25に示す状態である。
ここで、ホストサーバ2Cからホストサーバ2AにゲストOS11Eが移動することにより、ホストサーバ2Aは、LU41A、LU41B及びLU41Fをアクセスの対象としている。ホストOS10Aによって、ゲストOS11EにはLU41Fが割り当てられている。ホストサーバ2Aは、LU41Fをアクセスの対象とすることをストレージ装置5に通知する。ストレージ装置5は、ホストサーバ2CがLU41Fをアクセスの対象とすることを許可する。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する(S2801)。各データは、インターフェース部59を介して、取得部60が定期的にストレージ装置5をアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ストレージ装置5が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ストレージ装置5からサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、ストレージテーブル80を更新する(S2802)。図29は、更新後のストレージテーブル80の図である。図29に示すストレージテーブル80では、ホストサーバ2Aに関するデータが更新されている。具体的には、図29に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行6では、「WWN#3」から「WWN#1」にデータが更新されている。
そして、取得部60は、ホストOS10Aから、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得する(S2803)。各データは、インターフェース部59を介して、取得部60が定期的にホストサーバ2Aをアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2Aが各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ホスト10Aからサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、サーバVMテーブル70を更新する(S2804)。図30は、更新後のサーバVMテーブル70の図である。図30に示すサーバVMテーブル70では、ゲストOS11Eに関するデータが更新されている。図30に示すように、ゲストOS11Eについての「VM−E」、「停止中」及び「VOLUME#F」が、ホストサーバ2Cのグループからホストサーバ2Aのグループに変更されている。
S2804の処理を行った後、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理を終了する。ゲストOS11Eを起動させる場合の管理サーバ1の処理は、図30に示すサーバVMテーブル70及び図29に示すストレージテーブル80を使用して行われる。ゲストOS11Eを起動させる場合の管理サーバ1の具体的な処理については、ゲストOS11Aを起動させる場合の管理サーバ1の処理と同様である。
本実施形態では、管理サーバ1が、ホストサーバ2A−2C及びバックアップサーバ3から各種のデータを取得し、また、ストレージ装置5から各種のデータを取得する。本実施形態によれば、管理サーバ1が、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5を管理することにより、物理ディスク20A−20Hの回転が停止可能なタイミングを把握することが可能となる。そして、より適切なタイミングで、ストレージ装置5が備える物理ディスク20A−20Hの回転を停止させることができる。その結果、ストレージ装置5の節電効率を上げることが可能となる。
〈変形例〉
上述のように、ストレージ装置5は、物理ディスク20A及び20Bを備え、ストレージ装置5には、物理ディスク20A及び20Bを一つのまとまりとするRAIDグループ21Aが設けられている例を説明した。本実施形態は、これに限定されず、ストレージ装置5には、RAIDグループ21Aを設けないようにしてもよい。すなわち、物理ディスク20A及び20Bを連結しないようにする。この場合、物理ディスク20Aを一つの論理ディスク31とし、論理ディスク31を分割することにより、LU41A及びLU41Bを物理ディスク20A上に設定するようにしてもよい。また、物理ディスク20Bを一つの論理ディスク31とし、論理ディスク31を分割することにより、LU41A及びLU41Bを物理ディスク20B上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Bを設けないようにしてもよい。すなわち、物理ディスク20C及び20Dを連結しないようにする。この場合、物理ディスク20Cを一つの論理ディスク32とし、論理ディスク32を分割することにより、LU41C及びLU41Dを物理ディスク20C上に設定するようにしてもよい。また、物理ディスク20Dを一つの論理ディスク32とし、論理ディスク32を分割することにより、LU41C及びLU41Dを物理ディスク20D上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Cを設けないようにしてもよい。すなわち、物理ディスク20E及び20Fを連結しないようにする。この場合、物理ディスク20Eを一つの論理ディスク33とし、LU41Eを物理ディスク20E上に設定するようにしてもよい。また、物理ディスク20Fを一つの論理ディスク33とし、LU41Eを物理ディスク20F上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Dを設けないようにしてもよい。すなわち、物理ディスク20G及び20Hを連結しないようにする。この場合、物理ディスク20Gを一つの論理ディスク34とし、論理ディスク34を分割することにより、LU41F及びLU41Gを物理ディスク20G上に設定するようにしてもよい。また、物理ディスク20Hを一つの論理ディスク34とし、論理ディスク34を分割することにより、LU41F及びLU41Gを物理ディスク20H上に設定するようにしてもよい。
そして、上述のストレージ名については、物理ディスク20A−20Hの名称として取り扱うようにする。例えば、ストレージテーブル80には、物理ディスク20A又は物理ディスク20Bの名称として「DISK−A」を記録する。
〈コンピュータ読み取り可能な記録媒体〉
コンピュータに上記いずれかの機能を実現させるプログラムをコンピュータが読み取り可能な記録媒体に記録することができる。そして、コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。ここで、コンピュータ読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータから取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、DAT、8mmテープ、メモリカード等がある。また、コンピュータに固定された記録媒体としてハードディスクやROM等がある。

Claims (18)

  1. 論理ボリュームが設定される物理ディスクを有するストレージ装置及び前記論理ボリュームをアクセスの対象とするサーバを管理する管理装置であって、
    前記論理ボリュームの識別番号及び前記物理ディスクの回転状態が記録される第1記録部と、
    前記サーバの動作状態及び前記サーバのアクセスの対象である論理ボリュームの識別番号が記録される第2記録部と、
    前記サーバの動作状態が変更された場合、前記第2記録部に記録されている前記サーバの動作状態を変更する更新部と、
    前記第1記録部に記録されている前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する抽出部と、
    前記サーバの変更後の動作状態及び前記他のサーバの動作状態に応じて、前記物理ディスクの回転状態を変更する指示を前記ストレージ装置に行う指示部と、を備える管理装置。
  2. 前記サーバは、前記論理ボリュームをアクセスの対象とするアプリケーションを起動する仮想マシンを備え、
    前記第2記録部は、前記アプリケーションの起動状態及び前記アプリケーションのアクセスの対象である論理ボリュームの識別番号が記録され、
    前記更新部は、前記アプリケーションの起動状態が変更された場合、前記第2記録部に記録されている前記アプリケーションの起動状態を変更し、
    前記抽出部は、前記第1記録部に記録されている前記アプリケーションのアクセスの対象である論理ボリュームの識別番号に基づいて、前記アプリケーションのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のアプリケーションの動作状態を前記第2記録部から抽出する請求項1に記載の管理装置。
  3. 前記更新部は、前記ストレージ装置に物理ディスクが追加された場合、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクの回転状態を、前記第1記録部に追加するとともに、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクに設定される論理ボリュームをアクセスの対象とするサーバの動作状態を、前記第2記録部に追加する請求項1に記載の管理装置。
  4. 前記抽出部は、前記サーバのアクセスの対象である論理ボリュームの識別番号を前記第2記録部から抽出し、抽出した前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームの識別番号を前記第1記録部から抽出し、抽出した前記他の論理ボリュームの識別番号に基づいて、前記他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する請求項1に記載の管理装置。
  5. 前記指示部は、前記サーバ及び前記他のサーバが、前記論理ボリュームへのアクセスを停止している場合、前記物理ディスクの回転を停止させる指示を前記ストレージ装置に行う請求項1に記載の管理装置。
  6. 前記更新部は、前記サーバと前記他のサーバとの間で前記アプリケーションの移動があった場合、前記第1記録部及び前記第2記録部に記録されているデータを更新する請求項2に記載の管理装置。
  7. 論理ボリュームが設定される物理ディスクを有するストレージ装置及び前記論理ボリュームをアクセスの対象とするサーバを管理する管理装置が、
    前記論理ボリュームの識別番号及び前記物理ディスクの回転状態を第1記録部に記録する第1記録ステップと、
    前記サーバの動作状態及び前記サーバのアクセスの対象である論理ボリュームの識別番号を第2記録部に記録する第2記録ステップと、
    前記サーバの動作状態が変更された場合、前記第2記録部に記録されている前記サーバの動作状態を変更する更新ステップと、
    前記第1記録部に記録されている前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する抽出ステップと、
    前記サーバの変更後の動作状態及び前記他のサーバの動作状態に応じて、前記物理ディスクの回転状態を変更する指示を前記ストレージ装置に行う指示ステップと、を実行する管理方法。
  8. 前記サーバは、前記論理ボリュームをアクセスの対象とするアプリケーションを起動する仮想マシンを備え、
    前記第1記録ステップは、前記アプリケーションの起動状態及び前記アプリケーションのアクセスの対象である論理ボリュームの識別番号を前記第2記録部に記録し、
    前記更新ステップは、前記アプリケーションの起動状態が変更された場合、前記第2記録部に記録されている前記アプリケーションの起動状態を変更し、
    前記抽出ステップは、前記第1記録部に記録されている前記アプリケーションのアクセスの対象である論理ボリュームの識別番号に基づいて、前記アプリケーションのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のアプリケーションの動作状態を前記第2記録部から抽出する請求項7に記載の管理方法。
  9. 前記更新ステップは、前記ストレージ装置に物理ディスクが追加された場合、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクの回転状態を、前記第1記録部に追加するとともに、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクに設定される論理ボリュームをアクセスの対象とするサーバの動作状態を、前記第2記録部に追加する請求項7に記載の管理方法。
  10. 前記抽出ステップは、前記サーバのアクセスの対象である論理ボリュームの識別番号を前記第2記録部から抽出し、抽出した前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームの識別番号を前記第1記録部から抽出し、抽出した前記他の論理ボリュームの識別番号に基づいて、前記他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する請求項7に記載の管理方法。
  11. 前記指示ステップは、前記サーバ及び前記他のサーバが、前記論理ボリュームへのアクセスを停止している場合、前記物理ディスクの回転を停止させる指示を前記ストレージ装置に行う請求項7に記載の管理方法。
  12. 前記更新ステップは、前記サーバと前記他のサーバとの間で前記アプリケーションの移動があった場合、前記第1記録部及び前記第2記録部に記録されているデータを更新する請求項8に記載の管理方法。
  13. 論理ボリュームが設定される物理ディスクを有するストレージ装置及び前記論理ボリュームをアクセスの対象とするサーバを管理する管理装置に、
    前記論理ボリュームの識別番号及び前記物理ディスクの回転状態を第1記録部に記録するステップと、
    前記サーバの動作状態及び前記サーバのアクセスの対象である論理ボリュームの識別番号を第2記録部に記録するステップと、
    前記サーバの動作状態が変更された場合、前記第2記録部に記録されている前記サーバの動作状態を変更する更新ステップと、
    前記第1記録部に記録されている前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する抽出ステップと、
    前記サーバの変更後の動作状態及び前記他のサーバの動作状態に応じて、前記物理ディスクの回転状態を変更する指示を前記ストレージ装置に行う指示ステップと、を実行させる管理プログラム。
  14. 前記サーバは、前記論理ボリュームをアクセスの対象とするアプリケーションを起動する仮想マシンを備え、
    前記第1記録ステップは、前記アプリケーションの起動状態及び前記アプリケーションのアクセスの対象である論理ボリュームの識別番号を前記第2記録部に記録し、
    前記更新ステップは、前記アプリケーションの起動状態が変更された場合、前記第2記録部に記録されている前記アプリケーションの起動状態を変更し、
    前記抽出ステップは、前記第1記録部に記録されている前記アプリケーションのアクセスの対象である論理ボリュームの識別番号に基づいて、前記アプリケーションのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のアプリケーションの動作状態を前記第2記録部から抽出する請求項13に記載の管理プログラム。
  15. 前記更新ステップは、前記ストレージ装置に物理ディスクが追加された場合、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクの回転状態を、前記第1記録部に追加するとともに、追加された前記物理ディスクに設定される論理ボリュームの識別番号及び追加された前記物理ディスクに設定される論理ボリュームをアクセスの対象とするサーバの動作状態を、前記第2記録部に追加する請求項13に記載の管理プログラム。
  16. 前記抽出ステップは、前記サーバのアクセスの対象である論理ボリュームの識別番号を前記第2記録部から抽出し、抽出した前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームの識別番号を前記第1記録部から抽出し、抽出した前記他の論理ボリュームの識別番号に基づいて、前記他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する請求項13に記載の管理プログラム。
  17. 前記指示ステップは、前記サーバ及び前記他のサーバが、前記論理ボリュームへのアクセスを停止している場合、前記物理ディスクの回転を停止させる指示を前記ストレージ装置に行う請求項13に記載の管理プログラム。
  18. 前記更新ステップは、前記サーバと前記他のサーバとの間で前記アプリケーションの移動があった場合、前記第1記録部及び前記第2記録部に記録されているデータを更新する請求項14に記載の管理プログラム。
JP2010507097A 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム Expired - Fee Related JP5251974B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/057134 WO2009125490A1 (ja) 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2009125490A1 true JPWO2009125490A1 (ja) 2011-07-28
JP5251974B2 JP5251974B2 (ja) 2013-07-31

Family

ID=41161633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010507097A Expired - Fee Related JP5251974B2 (ja) 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム

Country Status (3)

Country Link
US (1) US8468298B2 (ja)
JP (1) JP5251974B2 (ja)
WO (1) WO2009125490A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8671406B1 (en) 2011-04-28 2014-03-11 Netapp, Inc. Method and system for providing storage services
US9383891B2 (en) * 2012-03-28 2016-07-05 Skytap Methods and systems for an intermediate graphical desktop sharing protocol
US10635544B1 (en) * 2014-03-13 2020-04-28 EMC IP Holding Company LLC Assigning VMware local proxy host-datastore groups for consistently optimized access

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293314A (ja) * 1999-04-05 2000-10-20 Hitachi Ltd ディスクアレイ装置
JP2007133821A (ja) * 2005-11-14 2007-05-31 Hitachi Ltd 機器停止を伴う仮想ボリューム制御方法
JP2007164376A (ja) * 2005-12-12 2007-06-28 Sharp Corp 電源制御装置、電源制御方法、電源制御プログラム、および記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61245253A (ja) * 1985-04-24 1986-10-31 Hitachi Ltd 仮想計算機の入出力制御方式
US5797014A (en) * 1995-12-14 1998-08-18 International Business Machines Corporation Method for reducing processor cycles used for global offset table address computation in a position independent shared library
JP3220055B2 (ja) * 1997-07-17 2001-10-22 松下電器産業株式会社 機械語命令列またはアセンブリ言語命令列を最適化する最適化装置、及び、高級言語で記載されたソースプログラムを機械語またはアセンブリ言語の命令列に変換するコンパイラ装置。
JP3045981B2 (ja) 1997-08-26 2000-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ及びパラメータ設定方法
JP3837244B2 (ja) * 1998-10-23 2006-10-25 松下電器産業株式会社 プログラムリンク装置及び方法
US20020073398A1 (en) * 1998-12-14 2002-06-13 Jeffrey L. Tinker Method and system for modifying executable code to add additional functionality
US20030009750A1 (en) * 2001-07-09 2003-01-09 Robert Hundt Optimizing an executable computer program having linkage functions
JP2003173240A (ja) * 2001-12-05 2003-06-20 Hitachi Ltd 記憶装置システム及びそのデータバックアップ方法
JP2007323354A (ja) * 2006-05-31 2007-12-13 Hitachi Software Eng Co Ltd マシン管理システム
JP4438817B2 (ja) * 2007-04-26 2010-03-24 株式会社日立製作所 ストレージ装置およびストレージ装置の省電力制御方法
JP4920658B2 (ja) * 2008-10-20 2012-04-18 株式会社日立製作所 電力推定方法及び計算機システム
US8516465B2 (en) * 2009-12-04 2013-08-20 Oracle America, Inc. Register prespill phase in a compiler

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293314A (ja) * 1999-04-05 2000-10-20 Hitachi Ltd ディスクアレイ装置
JP2007133821A (ja) * 2005-11-14 2007-05-31 Hitachi Ltd 機器停止を伴う仮想ボリューム制御方法
JP2007164376A (ja) * 2005-12-12 2007-06-28 Sharp Corp 電源制御装置、電源制御方法、電源制御プログラム、および記録媒体

Also Published As

Publication number Publication date
US8468298B2 (en) 2013-06-18
WO2009125490A1 (ja) 2009-10-15
US20110035546A1 (en) 2011-02-10
JP5251974B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
US8706859B2 (en) Method and apparatus of data center file system
US7519625B2 (en) Snapshot management apparatus and method, and storage system
US7613896B2 (en) Storage area dynamic assignment method
JP4175764B2 (ja) 計算機システム
US8990588B2 (en) Storage system, storage control apparatus, and storage control method
US8122212B2 (en) Method and apparatus for logical volume management for virtual machine environment
JP4375435B2 (ja) 予知型データ移行を行う階層ストレージシステム
US9183060B2 (en) Computer product, migration executing apparatus, and migration method
WO2013171805A1 (en) Method for controlling backup and restoration, and storage system using the same
US20080301363A1 (en) Virtual tape library device
EP1953634A2 (en) Controller for controlling a plurality of logical resources of a storage system
TW200813839A (en) Converting machines to virtual machines
JP2005501317A (ja) 外部データ記憶装置管理システムおよび方法
US20140297597A1 (en) Computer system and management method for the same
JP2008015768A (ja) 記憶システム並びにこれを用いたデータの管理方法
US9582214B2 (en) Data access method and data access apparatus for managing initialization of storage areas
JP2016115253A (ja) 情報処理装置、メモリ管理方法およびメモリ管理プログラム
JP5251974B2 (ja) 管理装置、管理方法及びプログラム
US20120030442A1 (en) Management system and management method for managing computer system
JP2008009622A (ja) 管理サーバ、およびサーバシステム
US8117405B2 (en) Storage control method for managing access environment enabling host to access data
JP6343716B2 (ja) 計算機システム及び記憶制御方法
JP5772443B2 (ja) ストレージ装置及びプログラム
JP2006139635A (ja) 仮想テープボリュームの運用方法
JP5391196B2 (ja) ストレージ管理システム,ストレージ管理装置,ストレージ管理方法およびストレージ管理プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees