JP5251974B2 - 管理装置、管理方法及びプログラム - Google Patents

管理装置、管理方法及びプログラム Download PDF

Info

Publication number
JP5251974B2
JP5251974B2 JP2010507097A JP2010507097A JP5251974B2 JP 5251974 B2 JP5251974 B2 JP 5251974B2 JP 2010507097 A JP2010507097 A JP 2010507097A JP 2010507097 A JP2010507097 A JP 2010507097A JP 5251974 B2 JP5251974 B2 JP 5251974B2
Authority
JP
Japan
Prior art keywords
storage unit
identification information
virtual machine
server
logical volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010507097A
Other languages
English (en)
Other versions
JPWO2009125490A1 (ja
Inventor
敏 伊與田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2009125490A1 publication Critical patent/JPWO2009125490A1/ja
Application granted granted Critical
Publication of JP5251974B2 publication Critical patent/JP5251974B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ストレージ装置及びサーバを管理する管理システムに関する。
従来、ストレージ装置には、データの記録や読み出し等のアクセスが行われていない物理ディスク(単にディスクともいう)の回転を停止させることによりストレージ装置の節電を行う、いわゆる省電力モードの機能が備わっている。
物理ディスクの回転を停止させた場合、物理ディスクの回転を再開させ、物理ディスクへのアクセスができる状態になるまでには、通常30秒から数分程度かかる。そのため、物理ディスクへのアクセスが行われていない時間に限り、物理ディスクの回転を停止させている。
ストレージ装置とサーバとがLAN(Local Area Network)により接続されているシステムでは、ストレージ装置側からサーバの運用状況を把握することができない。したがって、ストレージ装置の利用者は、サーバの運用状況を考慮して、指定した時刻に物理ディスクの回転を停止させている。
特開平11−73255号公報
ストレージ装置内の物理ディスクと、その物理ディスクにアクセスを行うサーバとの関係は複雑になる場合がある。そのため、サーバの運用状況から回転の停止が可能な物理ディスクを決定することが困難な場合がある。例えば、複数のサーバが一つの物理ディスクを共有している場合、物理ディスクの回転を停止させることができるか否かを判断することが困難となる。
本発明は、上記の問題に鑑み、ストレージ装置内の物理ディスクの回転が停止可能なタイミングを把握し、より適切にストレージ装置内の物理ディスクの回転を停止させる技術の提供を目的とする。
本発明は、上記課題を解決するために、以下の手段を採用した。すなわち、本発明は、論理ボリュームが設定される物理ディスクを有するストレージ装置及び前記論理ボリュームをアクセスの対象とするサーバを管理する管理装置であって、前記論理ボリュームの識別番号及び前記物理ディスクの回転状態が記録される第1記録部と、前記サーバの動作状態及び前記サーバのアクセスの対象である論理ボリュームの識別番号が記録される第2記録部と、前記サーバの動作状態が変更された場合、前記第2記録部に記録されている前記サーバの動作状態を変更する更新部と、前記第1記録部に記録されている前記サーバのアクセスの対象である論理ボリュームの識別番号に基づいて、前記サーバのアクセスの対象である論理ボリュームが設定される前記物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を前記第2記録部から抽出する抽出部と、前記サーバの変更後の動作状態及び前記他のサーバの動作状態に応じて、前記物理ディスクの回転状態を変更する指示を前記ストレージ装置に行う指示部と、を備える。
本発明によれば、サーバのアクセスの対象である論理ボリュームが設定される物理ディスクの他の論理ボリュームをアクセスの対象とする他のサーバの動作状態を第2記録部から抽出する。そして、サーバの変更後の動作状態及び他のサーバの動作状態を把握することにより、物理ディスクの回転状態を変更するタイミングを把握することができる。すなわち、物理ディスクの回転状態を変更することができるか否かの判断が可能となる。その結果、より適切なタイミングで、物理ディスクの回転状態を変更する指示をストレージ装置に行うことができる。
また、本発明は、コンピュータその他の装置、機械等が上記いずれかの処理を実行する方法であってもよい。また、本発明は、コンピュータその他の装置、機械等に、以上のいずれかの機能を実現させるプログラムであってもよい。また、本発明は、そのようなプログラムをコンピュータ等が読み取り可能な記録媒体に記録したものでもよい。
本発明は、ストレージ装置内の物理ディスクの回転が停止可能なタイミングを把握し、より適切にストレージ装置内の物理ディスクの回転を停止させることができる。
本実施形態に係るシステムの全体図である。 管理サーバ1のハードウェア構成を示す図である。 管理サーバ1の機能ブロック図である。 サーバVMテーブル70を示す図である。 ストレージテーブル80を示す図である。 ゲストOS11Aを起動させる場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを停止させる場合の管理サーバ1の処理の流れを示すフローである。 ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理の流れを示すフローである。 サーバ動作状態のフィールドが更新された状態のサーバVMテーブル70の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。 ストレージ装置5に物理ディスク20G及び20Hを増設した場合における本システムの全体図である。 ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理の流れを示すフローである。 更新後のストレージテーブル80の図である。 更新後のサーバVMテーブル70の図である。 ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合における本システムの全体図である。 ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理の流れを示すフローである。 更新後のストレージテーブル80の図である。 更新後のサーバVMテーブル70の図である。
符号の説明
1 管理サーバ
2A−2C ホストサーバ
3 バックアップサーバ
4 テープ装置
5 ストレージ装置
7 ファイバチャネルスイッチ
10A−10C ホストOS
11A−11F ゲストOS
50 CPU
51 メモリ
52 インターフェース
53 ハードディスク駆動装置
54 可搬媒体駆動装置
55 入力装置
56 表示装置
59 インターフェース部
60 取得部
61 記録部
62 抽出部
63 更新部
64 指示部
以下、図面を参照して、本発明の実施をするための最良の形態(以下、実施形態という)に係る管理装置を説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
図1は、本実施形態に係るシステムの全体図である。図1に示すように、本システムは、管理装置である管理サーバ1、ホストサーバ2A−2C、バックアップサーバ3、テープ装置4及びストレージ装置5を含む。
管理サーバ1、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5は、Local AreaNetwork(LAN)等の通信ネットワーク6を介して、相互に接続されている。管理サーバ1には、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5が管理対象として登録されている。
ホストサーバ2A−2C及びバックアップサーバ3と、ストレージ装置5との間には、ファイバチャネルスイッチ7が設けられている。ホストサーバ2A−2C及びバックアップサーバ3と、ファイバチャネルスイッチ7とは光ファイバ等のファイバチャネル8により相互に接続されている。また、ストレージ装置5とファイバチャネルスイッチ7とは、ファイバチャネル8により相互に接続されている。さらに、バックアップサーバ3とテープ装置4とは、ファイバチャネル8により相互に接続されている。
本システムでは、ファイバチャネルスイッチ7を介してホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5をネットワーク接続することによりSAN(Storage Area Network)が構築されている。
ホストサーバ2A−2C及びバックアップサーバ3は、例えば、パーソナルコンピュータやワークステーション、メインフレーム等である。ホストサーバ2A−2C及びバックアップサーバ3は、CPU、RAMやROM等のメモリ、インターフェース、入出力装置等を備えている。ホストサーバ2A−2Cは、仮想マシン(Virtual Machine、VM)プログラムを有している。
ホストサーバ2Aは、ホストOS10A、ゲストOS11A及び11Bを有している。ホストOS10A、ゲストOS11A及び11Bは、ホストサーバ2A上で動作するアプリケーションである。ホストサーバ2Aでは、仮想マシンプログラムが実行されることにより、ゲストOS11A及びゲストOS11Bが起動し、ホストOS10A上でゲストOS11A及びゲストOS11Bが動作する。
ホストサーバ2Bは、ホストOS10B及びゲストOS11Cを有している。ホストOS10B及びゲストOS11Cは、ホストサーバ2B上で動作するアプリケーションである。ホストサーバ2Bでは、仮想マシンプログラムが実行されることにより、ゲストOS11Cが起動し、ホストOS10B上でゲストOS11Cが動作する。
ホストサーバ2Cは、ホストOS10C及びゲストOS11Dを有している。ホストOS10C及びゲストOS11Dは、ホストサーバ2C上で動作するアプリケーションである。ホストサーバ2Cでは、仮想マシンプログラムが実行されることにより、ゲストOS11Dが起動し、ホストOS10C上でゲストOS11Dが動作する。
ホストOS10A−10Cは、仮想マシンプログラムを動作させているオペレーティングシステム(OS)であり、ゲストOS11A−11Dは、仮想マシン上で動作するOSである。また、ホストサーバ2A−2C及びバックアップサーバ3は、SANに接続するために必要なアダプタであるHost Bus Adapter(HBA)を備えている。さらに、ホストサーバ2A−2C及びバックアップサーバ3は、デバイスドライバ及びアプリケーションプログラム等を備えている。
ストレージ装置5は、物理ディスク20A−20Fを備えている。ストレージ装置5には、物理ディスク20A及び20Bを一つのまとまりとするRAIDグループ21Aが設けられている。また、ストレージ装置5には、物理ディスク20C及び20Dを一つのまとまりとするRAIDグループ21Bが設けられている。さらに、ストレージ装置5には、物理ディスク20E及び20Fを一つのまとまりとするRAIDグループ21Cが設けられている。
ストレージ装置5は、論理ディスク31、32及び33を備えている。物理ディスク20A及び20Bが連結され、一つの論理ディスク31が構成される。物理ディスク20C及び20Dが連結され、一つの論理ディスク32が構成される。物理ディスク20E及び20Fが連結され、一つの論理ディスク33が構成される。
ストレージ装置5は、Logical Unit(LU)41A−41Eを備えている。LU41A及び41Bは、論理ディスク31が分割された複数の記憶領域である。LU41C及び41Dは、論理ディスク32が分割された複数の記憶領域である。LU41Eは、論理ディスク33を一つの記憶領域としたものである。このように、物理ディスク20A及び20B上にLU41A及び41Bが設定され、物理ディスク20C及び20D上にLU41C及び41Dが設定され、物理ディスク20E及び20F上にLU41Eが設定される。また、LU41A−41Eは論理ボリュームとも呼ばれる。
ここで、LU41Aについて、RAIDグループ21Aとの関係を述べるときは、LU41AはRAIDグループ21Aに属するという。LU41Bについて、RAIDグループ21Aとの関係を述べるときは、LU41BはRAIDグループ21Aに属するという。また、LU41Cについて、RAIDグループ21Bとの関係を述べるときは、LU41CはRAIDグループ21Bに属するという。LU41Dについて、RAIDグループ21Bとの関係を述べるときは、LU41BはRAIDグループ21Bに属するという。また、LU41Eについて、RAIDグループ21Cとの関係を述べるときは、LU41EはRAIDグループ21Cに属するという。
ストレージ装置5は、外部インターフェースを備えており、管理サーバ1、ホストサーバ2A−2C及びバックアップサーバ3との間でデータの送受信を行う。また、ストレージ装置5は、いわゆる省電力モード機能を備えており、物理ディスク20A−20Fの回転を開始又は停止することにより、省電力モードのオンオフを切替える。
ホストサーバ2A−2C及びバックアップサーバ3は、LU41A−41Eを各単位として、LU41A−41Eにアクセスする。すなわち、ホストサーバ2A−2C及びバックアップサーバ3は、LU41A−41Eの1つ以上をアクセスの対象として決定し、LU41A−41Eの1つ以上を利用して所定の業務を実行する。
ホストOS10A上でゲストOS11Aが動作する場合、ホストOS10AによってLU41A−41Eの1つ以上がゲストOS11Aに割り当てられる。したがって、ホストOS10AによってLU41A−41Eの1つ以上がゲストOS11Aに割り当てられた場合、ゲストOS11Aは、LU41A−41Eの1つ以上をアクセスの対象とする。ゲストOS10B−10Dについても、ゲストOS11Aと同様である。
ファイバチャネルスイッチ7は、ネームサーバ機能やルーティング機能等を備える。ファイバチャネルスイッチ7は、ファイバチャネルスイッチ7に接続される各装置を関係付けるための設定がされる。図1では、1台のストレージ装置5がファイバチャネルスイッチ7に接続されているが、ストレージ装置5の数が1台に限定されるわけではない。複数台のストレージ装置5をファイバチャネルスイッチ7に接続することが可能である。また、管理サーバ1は、ファイバチャネルスイッチ7をアクセスすることにより、SANの構成を取得することができる。
管理サーバ1は、例えば、パーソナルコンピュータやワークステーション、メインフレーム等である。図2に、管理サーバ1のハードウェア構成を示す。図2に示すように、管理サーバ1は、コンピュータプログラムを実行し、管理サーバ1を制御するCPU50と、CPU50で実行されるコンピュータプログラムやCPU50が処理するデータを記憶するメモリ51を有する。また、図2に示すように、管理サーバ1は、CPU50と各種の装置とを接続するインターフェース52、ハードディスク駆動装置53、可搬媒体駆動装置54、入力装置55、表示装置56を有している。
メモリ51は、例えば、揮発性のRAM、不揮発性のROMである。インターフェース52は、Universal Serial Bus(USB)等のシリアルインターフェース、あるいは、Peripheral Component Interconnect(PCI)等のパラレルインターフェースのいずれでもよい。なお、CPU50と各装置とをインターフェース52で接続しているが、CPU50と各装置との間を異なるインターフェースで接続してもよい。また、複数のインターフェースをブリッジ接続してもよい。
ハードディスク駆動装置53は、メモリ51にロードされるプログラムを格納する。また、ハードディスク駆動装置53は、CPU50で処理されるデータを記憶する。可搬媒体駆動装置54は、例えば、Compact Disc(CD)、Digital Versatile Disk(DVD)、HD−DVD、ブルーレイディスク等の駆動装置である。また、可搬媒体駆動装置54は、フラッシュメモリ等の不揮発性メモリを有するカード媒体の入出力装置であってもよい。可搬媒体駆動装置54が駆動する媒体は、例えば、ハードディスク駆動装置53にインストールされるコンピュータプログラム、入力データ等を格納する。入力装置55は、例えば、キーボード、マウス、ポインティングデバイス、ワイヤレスリモコン等である。
表示装置56は、CPU50で処理されるデータやメモリ51に記憶されるデータを表示する。表示装置56は、例えば、液晶表示装置、プラズマディスプレイパネル、Cathode Ray Tube(CRT)、エレクトロルミネッセンスパネル等である。
図3に、管理サーバ1の機能ブロック図を示す。管理サーバ1は、インターフェース部59、取得部60、記録部61、抽出部62、更新部63及び指示部64を有する。これらの各機能部は、CPU50、メモリ51等を含むコンピュータ、各装置及びコンピュータ上で実行されるプログラム等によって実現することができる。
インターフェース部59は、ホストサーバ2A−2C及びバックアップサーバ3へのアクセスや、ホストサーバ2A−2C及びバックアップサーバ3からの通知を受け付ける。
取得部60は、インターフェース部59を介して、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5に関するデータを取得する。
記録部61には、管理サーバ1の管理対象に関するデータが記録される。例えば、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5の名称が、管理サーバ1の管理対象に関するデータとして記録される。記録部61は、サーバVMテーブル70(第2記録部に相当)及びストレージテーブル80(第1記録部に相当)を有している。サーバVMテーブル70には、ホストサーバ2A−2C及びバックアップサーバ3に関するデータが記録される。ストレージテーブル80には、ストレージ装置5に関するデータが記録される。
抽出部62は、記録部61に記録されているデータを抽出する。抽出部62は、サーバVMテーブル70に記録されているホストサーバ2A−2C及びバックアップサーバ3に関するデータを抽出する。抽出部62は、ストレージテーブル80に記録されているストレージ装置5に関するデータを抽出する。
更新部63は、記録部61に記録されているデータを更新する。更新部63は、サーバVMテーブル70に記録されているホストサーバ2A−2C及びバックアップサーバ3に関するデータを更新する。更新部63は、ストレージテーブル80に記録されているストレージ装置5に関するデータを更新する。
指示部64は、インターフェース部59を介して、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5に所定の指示を行う。
次に、管理サーバ1が、LANを介してホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5から各種のデータを取得する処理を説明する。具体的には、取得部60が、ホストOS10A−10C、バックアップサーバ3及びストレージ装置5から、各種のデータを取得する。
ここでは、ホストサーバ2Aは、LU41A及びLU41Bをアクセスの対象としている。そして、ホストサーバ2Bは、LU41Cをアクセスの対象としている。また、ホストサーバ2Cは、LU41Dをアクセスの対象としている。さらに、バックアップサーバ3は、LU41Eをアクセスの対象としている。
また、ホストサーバ2A−2Cでは、仮想マシンが起動していることを前提とする。そして、ホストOS10Aによって、ゲストOS11AにはLU41Aが割り当てられ、ゲストOS11BにはLU41Bが割り当てられている。さらに、ホストOS10Bによって、ゲストOS11CにはLU41Cが割り当てられている。また、ホストOS10Cによって、ゲストOS11DにはLU41Dが割り当てられている。
ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5から取得する各種のデータは、サーバVMテーブル70又はストレージテーブル80に記録される。図4は、サーバVMテーブル70を示す図であり、図5は、ストレージテーブル80を示す図である。
取得部60は、インターフェース部59を介して、ホストOS10A−10Cから、サーバ名、World Wide Name(WWN)、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLogical Unit Number(LUN)の各データを取得する。また、取得部60は、インターフェース部59を介して、バックアップサーバ3から、サーバ名、WWN、サーバ動作状態及びLUNの各データを取得する。
インターフェース部59を介して、取得部60が定期的にホストサーバ2A−2C及びバックアップサーバ3をアクセスすることにより、各データを取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2A−2C及びバックアップサーバ3が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
サーバ名は、ホストサーバ2A−2C及びバックアップサーバ3の名称である。図4に示すサーバVMテーブル70のサーバ名のフィールドには、ホストサーバ2A−2C及びバックアップサーバ3の名称が記録される。
WWNは、SANを構成するホストサーバ2A−2C及びバックアップサーバ3に割り当てられている固有の識別名である。図4に示すサーバVMテーブル70のWWNのフィールドには、WWN#1、WWN#2、WWN#3及びWWN#4が記録される。WWN#1、WWN#2、WWN#3及びWWN#4は、ホストサーバ2A−2C及びバックアップサーバ3にそれぞれ割り当てられている固有の識別名である。
サーバ動作状態は、ホストサーバ2A−2C及びバックアップサーバ3の現在の動作状態である。サーバ動作状態として、動作中又は停止中がある。ゲストOS11A及びゲストOS11Bのいずれかが起動開始あるいは起動中の場合、ホストサーバ2Aのサーバ動作状態は動作中となる。また、ゲストOS11A及びゲストOS11Bの両方が停止中の場合、ホストサーバ2Aのサーバ動作状態は停止中となる。
ゲストOS11Cが起動している場合、ホストサーバ2Bのサーバ動作状態は動作中となる。ゲストOS11Cが起動していない場合、ホストサーバ2Bのサーバ動作状態は停止中となる。ゲストOS11Dが起動している場合、ホストサーバ2Cのサーバ動作状態は動作中となる。ゲストOS11Cが起動していない場合、ホストサーバ2Cのサーバ動作状態は停止中となる。
ゲストOS名は、ゲストOS11A−11Dの名称である。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行1には、ゲストOS11Aの名称として「VM−A」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行2には、ゲストOS11Bの名称として「VM−B」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行3には、ゲストOS11Cの名称として「VM−C」が記録される。図4に示すサーバVMテーブル70のゲストOS名のフィールドにおける行4には、ゲストOS11Dの名称として「VM−D」が記録される。
ゲストOS起動状態は、ゲストOS11A−11Dの現在の起動状態である。ゲストOS起動状態として、起動開始、起動中又は停止中がある。
LUNは、ストレージ装置5が有するLU41A−41Eを識別するための番号である。図4に示すサーバVMテーブル70のLUNのフィールドには、「VOLUME#A」、「VOLUME#B」、「VOLUME#C」、「VOLUME#D」及び「VOLUME#E」が記録される。
図4では、説明の便宜のために、「VOLUME#A」、「VOLUME#B」、「VOLUME#C」、「VOLUME#D」及び「VOLUME#E」と表記しているが、実際にはコード化された3ビットの識別子がVMテーブル60のLUNのフィールドに記録される。
「VOLUME#A」は、ゲストOS11Aに割り当てられているLU41AのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行1に「VOLUME#A」が記録される。
「VOLUME#B」は、ゲストOS11Bに割り当てられているLU41BのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行2に「VOLUME#B」が記録される。
「VOLUME#C」は、ゲストOS11Cに割り当てられているLU41CのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行3に「VOLUME#C」が記録される。
「VOLUME#D」は、ゲストOS11Dに割り当てられているLU41DのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行4に「VOLUME#D」が記録される。
「VOLUME#E」は、バックアップサーバ3のアクセスの対象であるLU41EのLUNである。図4に示すように、サーバVMテーブル70のLUNのフィールドにおける行5に「VOLUME#E」が記録される。
このように、図4に示すサーバVMテーブル70では、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNのデータによって1つのグループが構成されている。このグループ内では、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNのデータが相互に関係付けられている。例えば、図4に示すサーバVMテーブル70の行1では、「ホストサーバ2A」、「WWN#1」、「停止中」、「VM−A」、「停止中」及び「VOLUME#A」によって1つのグループが構成されている。図4に示すサーバVMテーブル70の他の行も同様である。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する。図5に示すストレージテーブル80のLUNのフィールドには、ホストサーバ2A−2C及びバックアップサーバ3のアクセスの対象であるLU41のLUNが記録される。
アクセスサーバ番号は、LU41をアクセスの対象とするホストサーバ2A−2C及びバックアップサーバ3を識別するための番号である。アクセスサーバ番号として、ホストサーバ2A−2C及びバックアップサーバ3に割り当てられているWWNが用いられる。
WWN#1は、ホストサーバ2Aに割り当てられている固有の識別名である。ホストサーバ2Aは、LU41A及びLU41Bをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行1及び行2には、WWN#1が記録される。
WWN#2は、ホストサーバ2Bに割り当てられている固有の識別名である。ホストサーバ2Bは、LU41Cをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行3には、WWN#2が記録される。
WWN#3は、ホストサーバ2Cに割り当てられている固有の識別名である。ホストサーバ2Cは、LU41Dをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行4には、WWN#3が記録される。
WWN#4は、バックアップサーバ3に割り当てられている固有の識別名である。バックアップサーバ3は、LU41Eをアクセスの対象としている。したがって、図5に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行5には、WWN#4が記録される。
ストレージ名は、ストレージ装置5に設定されるRAIDグループ21A−21Cの名称である。
RAIDグループ21Aは、LU41A(VOLUME#A)及びLU41B(VOLUME#B)が設定される物理ディスク20A及び20Bを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行1及び行2には、RAIDグループ21Aの名称として、「DIDK−A」が記録される。
RAIDグループ21Bは、LU41C(VOLUME#C)及びLU41D(VOLUME#D)が設定される物理ディスク20C及び20Dを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行3及び行4には、RAIDグループ21Bの名称として、「DIDK−B」が記録される。
RAIDグループ21Cは、LU41E(VOLUME#E)が設定される物理ディスク20E及び20Fを一つのまとまりとしたものである。図5に示すストレージテーブル80のストレージ名のフィールドにおける行5には、RAIDグループ21Cの名称として「DIDK−C」が記録される。
ディスク回転状態は、物理ディスク20A−20Fの現在の回転状態である。
図5に示すストレージテーブル80のディスク回転状態のフィールドの行1及び行2には、RAIDグループ21Aの物理ディスク20A及び20Bの回転状態が記録される。図5に示すストレージテーブル80のディスク回転状態のフィールドの行3及び行4には、RAIDグループ21Bの物理ディスク20C及び20Dの回転状態が記録される。図5に示すストレージテーブル80のディスク回転状態のフィールドの行5には、RAIDグループ21Cの物理ディスク20E及び20Fの回転状態が記録される。
図5に示すストレージテーブル80では、LUN、アクセスサーバ番号、ストレージ名及びディスク回転状態のデータによって1つのグループが構成されている。このグループ内では、LUN、アクセスサーバ番号、ストレージ名及びディスク回転状態のデータが相互に関係付けられている。例えば、図5に示すストレージテーブル80の行1では、「VOLUME#A」、「WWN#1」、「DISK−A」及び「停止中」によって一つのグループが構成されている。図5に示すストレージテーブル80の他の行も同様である。
〈ゲストOS11Aの起動における管理サーバ1の処理の説明〉
図6を参照して、ゲストOS11Aを起動させる場合の管理サーバ1の処理を説明する。図6は、ゲストOS11Aを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Aの起動の事前通知を受け取る(S601)。インターフェース部59によって、ホストOS10AからゲストOS11Aの起動の事前通知を受け取った場合、抽出部62は、ゲストOS11Aに割り当てられているLU41AのLUNのデータを、サーバVMテーブル70から抽出する(S602)。ここでは、ゲストOS11Aに割り当てられているLU41AのLUNである「VOLUME#A」が、図4に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S602の処理で抽出された「VOLUME#A」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S603)。すなわち、抽出部62は、S602の処理で抽出された「VOLUME#A」に基づいて、LU41Aが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図5に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。また、図5に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
次に、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールド及びゲストOS起動状態のフィールドを更新する(S604)。図7は、サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図7に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行1〜2では、「停止中」から「動作中」にデータが更新されている。また、図7に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「停止中」から「起動開始」にデータが更新されている。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S605)。図8は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図8に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「停止中」から「回転開始」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、物理ディスク20A及び20Bの回転開始の指示をストレージ装置5に送る(S606)。
ここで、物理ディスク20A及び20Bの回転開始の指示を受け取ったストレージ装置5は、物理ディスク20A及び20Bの回転を開始する。そして、物理ディスク20A及び20Bの回転がアクセス可能な状態になった場合、ストレージ装置5は、物理ディスク20A及び20Bがアクセス可能になったことの通知を管理サーバ1に送る。
物理ディスク20A及び20Bがアクセス可能になったことの通知を受け取った場合、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S607)。図9は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図9に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「回転開始」から「アクセス可能」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、ゲストOS11Aの起動の指示をホストサーバ2Aに送る(S608)。
そして、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S609)。図10は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図10に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「起動開始」から「起動中」にデータが更新されている。
ゲストOS11Aの起動の指示を受け取ったホストサーバ2Aは、ゲストOS11Aを起動する。S609の処理の後、ゲストOS11Aの起動における管理サーバ1の処理を終了する。
〈ゲストOS11Bの起動における管理サーバ1の処理の説明〉
図11を参照して、ゲストOS11Bを起動させる場合の管理サーバ1の処理を説明する。図11は、ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11Aは起動中の状態であり、ゲストOS11B−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図10に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Bの起動の事前通知を受け取る(S1101)。インターフェース部59によって、ホストOS10AからゲストOS11Bの起動の事前通知を受け取った場合、抽出部62は、ゲストOS11Bに割り当てられているLU41BのLUNのデータを、サーバVMテーブル70から抽出する(S1102)。ここでは、ゲストOS11Bに割り当てられているLU41BのLUNである「VOLUME#B」が、図10に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1102の処理で抽出された「VOLUME#B」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S1103)。すなわち、抽出部62は、S1102の処理で抽出された「VOLUME#B」に基づいて、LU41Bが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。また、図9に示すストレージテーブル80から「アクセス可能」が、ディスク回転状態のデータとして抽出される。
次に、指示部64は、インターフェース部59を介して、ゲストOS11Bの起動の指示をホストサーバ2Aに送る(S1104)。ゲストOS11Bに割り当てられているLU41Bが設定される物理ディスク20A及び20Bは、アクセス可能の状態である。そのため、ゲストOS11Bの起動の指示がホストサーバ2Aに送られる。
そして、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S1105)。図12は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図12に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行2では、「停止中」から「起動中」にデータが更新されている。
ゲストOS11Bの起動の指示を受け取ったホストサーバ2Aは、ゲストOS11Bを起動する。S1105の処理の後、ゲストOS11Bの起動における管理サーバ1の処理を終了する。
〈ゲストOS11Bの停止における管理サーバ1の処理の説明〉
図13を参照して、ゲストOS11Bを停止させる場合の管理サーバ1の処理を説明する。図13は、ゲストOS11Bを停止させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A及び11Bは起動中の状態であり、ゲストOS11C及び11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図12に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Bの停止の通知を受け取る(S1301)。インターフェース部59によって、ホストOS10AからゲストOS11Bの停止の通知を受け取った場合、更新部63は、サーバVMテーブル70のゲストOS起動状態のフィールドを更新する(S1302)。図14は、ゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図14に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行2では、「起動中」から「停止中」にデータが更新されている。
そして、抽出部62は、ゲストOS11Bに割り当てられているLU41BのLUNのデータを、サーバVMテーブル70から抽出する(S1303)。ここでは、ゲストOS11Bに割り当てられているLU41BのLUNである「VOLUME#B」が、図14に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1303の処理で抽出された「VOLUME#B」と関係付けられているストレージ名のデータを、ストレージテーブル80から抽出する(S1304)。すなわち、抽出部62は、S1303の処理で抽出された「VOLUME#B」に基づいて、LU41Bが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。
そして、抽出部62は、S1304の処理で抽出された「DISK−A」と関係付けられているLUNのデータを、ストレージテーブル80から抽出する(S1305)。ここでは、図9に示すストレージテーブル80から、「VOLUME#A」及び「VOLUME#B」が抽出される。
次に、抽出部62は、「VOLUME#A」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図14に示すサーバVMテーブル70から抽出する(S1306)。この場合、抽出部62は、「VM−A」及び「起動中」を、図14に示すサーバVMテーブル70から抽出する。図14に示すサーバVMテーブル70から抽出された「VM−A」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの名称である。また、図14に示すサーバVMテーブル70から抽出された「起動中」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態である。
そして、抽出部62は、「VOLUME#B」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図14に示すサーバVMテーブル70から抽出する(S1307)。この場合、抽出部62は、「VM−B」及び「停止中」を図14に示すサーバVMテーブル70から抽出する。図14に示すサーバVMテーブル70から抽出された「VM−B」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの名称である。また、図14に示すサーバVMテーブル70から抽出された「停止中」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態である。
S1307の処理を行った後、ゲストOS11Bの停止における管理サーバ1の処理を終了する。LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態は「起動中」であり、物理ディスク20A及び20Bの回転を継続させる必要がある。したがって、管理サーバ1はストレージ装置5に対して、物理ディスク20A及び20Bの回転停止の指示を行わない。
〈ゲストOS11Aの停止における管理サーバ1の処理の説明〉
図15を参照して、ゲストOS11Aを停止させる場合の管理サーバ1の処理を説明する。図15は、ゲストOS11Bを起動させる場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11Aは起動中の状態である。また、ゲストOS11B、11C及び11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図14に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図9に示す状態である。
まず、インターフェース部59は、ホストOS10AからゲストOS11Aの停止の通知を受け取る(S1501)。インターフェース部59によって、ホストOS10AからゲストOS11Aの停止の通知を受け取った場合、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールド及びゲストOS起動状態のフィールドを更新する(S1502)。図16は、サーバ動作状態のフィールド及びゲストOS起動状態のフィールドが更新された状態のサーバVMテーブル70の図である。図16に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行1〜2では、「動作中」から「停止中」にデータが更新されている。図16に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行1では、「起動中」から「停止中」にデータが更新されている。
そして、抽出部62は、ゲストOS11Aに割り当てられているLU41AのLUNのデータを、サーバVMテーブル70から抽出する(S1503)。ここでは、ゲストOS11Aに割り当てられているLU41AのLUNである「VOLUME#A」が、図16に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1503の処理で抽出された「VOLUME#A」と関係付けられているストレージ名のデータを、ストレージテーブル80から抽出する(S1504)。すなわち、抽出部62は、S1503の処理で抽出された「VOLUME#A」に基づいて、LU41Aが設定される物理ディスク20A及び20BのRAIDグループ21Aに関するデータをストレージテーブル80から抽出する。ここでは、図9に示すストレージテーブル80から「DISK−A」が、ストレージ名のデータとして抽出される。
そして、抽出部62は、S1504の処理で抽出された「DISK−A」と関係付けられているLUNのデータを、ストレージテーブル80から抽出する(S1505)。ここでは、図9に示すストレージテーブル80から、「VOLUME#A」及び「VOLUME#B」が抽出される。
次に、抽出部62は、「VOLUME#A」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図16に示すサーバVMテーブル70から抽出する(S1506)。この場合、抽出部62は、「VM−A」及び「停止中」を、図16に示すサーバVMテーブル70から抽出する。図16に示すサーバVMテーブル70から抽出された「VM−A」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの名称である。また、図16に示すサーバVMテーブル70から抽出された「停止中」は、LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態である。
そして、抽出部62は、「VOLUME#B」と関係付けられているゲストOS名及びゲスト起動状態の各データを、図16に示すサーバVMテーブル70から抽出する(S1507)。この場合、抽出部62は、「VM−B」及び「停止中」を図16に示すサーバVMテーブル70から抽出する。図16に示すサーバVMテーブル70から抽出された「VM−B」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの名称である。また、図16に示すサーバVMテーブル70から抽出された「停止中」は、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態である。
次に、指示部64は、インターフェース部59を介して、物理ディスク20A及び20Bの回転停止の指示をストレージ装置5に送る(S1508)。ゲストOS11Aに割り当てられているLU41A(VOLUME#A)は、RAIDグループ21Aに属している。ゲストOS11Bに割り当てられているLU41B(VOLUME#B)は、RAIDグループ21Aに属している。LU41A(VOLUME#A)を割り当てられているゲストOS11Aの起動状態は「停止中」であり、LU41B(VOLUME#B)を割り当てられているゲストOS11Bの起動状態は「停止中」である。すなわち、RAIDグループ21Aの物理ディスク20A及び20Bをアクセスの対象とするホストサーバ2AのゲストOS11A及びゲストOS11Bの起動状態は、共に「停止中」である。したがって、物理ディスク20A及び20Bの回転を停止することが可能となり、物理ディスク20A及び20Bの回転停止の指示がストレージ装置5に送られる。物理ディスク20A及び20Bの回転停止の指示を受け取ったストレージ装置5は、物理ディスク20A及び20Bの回転を停止する。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1509)。図17は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図17に示すストレージテーブル80のディスク回転状態のフィールドにおける行1及び行2では、「アクセス可能」から「停止中」にデータが更新されている。S1509の処理を行った後、ゲストOS11Aの停止における管理サーバ1の処理を終了する。
〈バックアップサーバ3のバックアップ処理における管理サーバ1の処理の説明〉
図18を参照して、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理を説明する。図18は、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11D及びバックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
バックアップサーバ3は、ユーザーからバックアップの指示を受け付ける。バックアップの指示は、LU41Aに記録されているデータをLU41Eに複写する指示であるものとする。バックアップの指示を受け付けたバックアップサーバ3は、LU41Aに記録されているデータをLU41Eに複写する通知を管理サーバ1に送る。
インターフェース部59は、LU41Aに記録されているデータをLU41Eに複写する通知をバックアップサーバ3から受け取る(S1801)。インターフェース部59によって、LU41Aに記録されているデータをLU41Eに複写する通知を受け取った場合、更新部63は、サーバVMテーブル70のサーバ動作状態のフィールドを更新する(S1802)。図19は、サーバ動作状態のフィールドが更新された状態のサーバVMテーブル70の図である。図19に示すサーバVMテーブル70のサーバ動作状態のフィールドにおける行5では、「停止中」から「動作中」にデータが更新されている。
そして、抽出部62は、バックアップサーバ3がアクセスの対象とするLU41EのLUNのデータを、サーバVMテーブル70から抽出する(S1803)。ここでは、バックアップサーバ3がアクセスの対象とするLU41EのLUNである「VOLUME#E」が、図19に示すサーバVMテーブル70から抽出される。
次に、抽出部62は、S1803の処理で抽出された「VOLUME#E」と関係付けられているストレージ名及びディスク回転状態の各データを、ストレージテーブル80から抽出する(S1804)。すなわち、抽出部62は、S1803の処理で抽出された「VOLUME#E」に基づいて、LU41Eが設定される物理ディスク20E及び20FのRAIDグループ21Cに関するデータのうちストレージ名及びディスク回転状態の各データをストレージテーブル80から抽出する。ここでは、図5に示すストレージテーブル80から「DISK−C」が、ストレージ名のデータとして抽出される。また、図5に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1805)。図20は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図20に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「停止中」から「回転開始」にデータが更新されている。
次に、指示部64は、インターフェース部59を介して、物理ディスク20E及び20Fの回転開始の指示をストレージ装置5に送る(S1806)。
ここで、物理ディスク20E及び20Fの回転開始の指示を受け取ったストレージ装置5は、物理ディスク20E及び20Fの回転を開始する。そして、物理ディスク20E及び20Fの回転がアクセス可能な状態になった場合、ストレージ装置5は、物理ディスク20E及び20Fがアクセス可能になったことの通知を管理サーバ1に送る。
物理ディスク20E及び20Fがアクセス可能になったことの通知を受け取った場合、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1807)。図21は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図21に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「回転開始」から「アクセス可能」にデータが更新されている。
次に、抽出部62は、LU41Aが設定されている物理ディスク20A及び20Bの回転状態のデータをストレージテーブル80から抽出する。すなわち、複写元のデータが記録されているLU41AのLUNである「VOLUME#A」に基づいて、「DISK−A」のディスク回転状態のデータをストレージテーブル80から抽出する。ここでは、図21に示すストレージテーブル80から「停止中」が、ディスク回転状態のデータとして抽出される。
物理ディスク20A及び20Bの回転状態が停止中の場合、図6におけるS605〜S607の処理が行われる。すなわち、物理ディスク20A及び20Bをアクセス可能な状態にする。一方、物理ディスク20A及び20Bの回転状態がアクセス可能の場合、図6におけるS605〜S607の処理は行われない。ここでは、物理ディスク20A及び20Bの回転状態が停止中であるため、図6におけるS605〜S607の処理が行われる。
図6におけるS605〜S607の処理が行われた後、指示部64は、インターフェース部59を介して、LU41Aに記録されているデータをLU41Eに複写する指示をストレージ装置5に送る(S1808)。
LU41Aに記録されているデータをLU41Eに複写する指示を受け取ったストレージ装置5は、LU41Aに記録されているデータをLU41Eに複写する。そして、LU41Aに記録されているデータがLU41Eに複写された場合、ストレージ装置5は、複写完了の通知を管理サーバ1に送る。
インターフェース部59は、ストレージ装置5から複写完了の通知を受け取る(S1809)。インターフェース部59によって、ストレージ装置5から複写完了の通知を受け取った場合、抽出部62は、ホストサーバ2Aのサーバ動作状態のデータをサーバVMテーブル70から抽出する。ここでは、図19に示すサーバVMテーブル70から「停止中」が、サーバ動作状態のデータとして抽出される。したがって、ホストサーバ2Aの動作状態は停止中である。LU41Aに記録されているデータについては、LU41Eへの複写が完了している。指示部64は、LU41Aをアクセスの対象とするホストサーバ2Aの動作状態を調べることにより、LU41Aが設定されている物理ディスク20A及び20Bの回転停止の可否を判断する。
ホストサーバ2Aの動作状態が停止中の場合、図15におけるS1507及びS1508の処理が行われる。一方、ホストサーバ2Aの動作状態が動作中の場合、図15におけるS1507及びS1508の処理は行われない。ここでは、ホストサーバ2Aの動作状態は停止中であるため、図15におけるS1507及びS1508の処理が行われる。
次に、指示部64は、インターフェース部59を介して、LU41Eに複写されたデータをテープ装置4に転送する指示をバックアップサーバ3に送る(S1810)。LU41Eに複写されたデータをテープ装置4に転送する指示を受け取ったバックアップサーバ3は、LU41Eに複写されたデータをテープ装置4に転送する。そして、LU41Eに複写されたデータについて、テープ装置4への転送が完了した場合、ストレージ装置5は、転送完了の通知を管理サーバ1に送る。
インターフェース部59は、ストレージ装置5から転送完了の通知を受け取る(S1811)。インターフェース部59によって、ストレージ装置5から転送完了の通知を受け取った場合、指示部64は、インターフェース部59を介して、物理ディスク20E及び20Fの回転停止の指示をストレージ装置5に送る(S1812)。物理ディスク20E及び20Fの回転停止の指示を受け取ったストレージ装置5は、物理ディスク20E及び20Fの回転を停止する。
そして、更新部63は、ストレージテーブル80のディスク回転状態のフィールドを更新する(S1813)。図22は、ディスク回転状態のフィールドが更新された状態のストレージテーブル80の図である。図22に示すストレージテーブル80のディスク回転状態のフィールドにおける行5では、「アクセス可能」から「停止中」にデータが更新されている。S1813の処理を行った後、バックアップサーバ3がバックアップ処理を行う場合の管理サーバ1の処理を終了する。
〈物理ディスク増設の説明〉
ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理について説明する。図23は、ストレージ装置5に物理ディスク20G及び20Hを増設した場合における本システムの全体図である。ストレージ装置5には、物理ディスク20G及び20Hが増設されている。また、ホストサーバ2Cには、ゲストOS11E及び11Fが追加されている。
ストレージ装置5には、物理ディスク20G及び20Hを一つのまとまりとするRAIDグループ21Dが設けられている。ストレージ装置5は、論理ディスク34を備えている。物理ディスク20G及び20Hが連結され、一つの論理ディスク34が構成される。ストレージ装置5は、LU41F及び41Gを備えている。LU41F及び41Gは、論理ディスク34が分割された複数の記憶領域である。物理ディスク20G及び20H上にLU41F及び41Gが設定される。LU41F及び41Gは論理ボリュームとも呼ばれる。
図24は、ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Dは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図4に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図5に示す状態である。
ホストサーバ2Cは、LU41F及び41Gをアクセスの対象としている。また、ホストOS10Cによって、ゲストOS11FにはLU41Fが割り当てられ、ゲストOS11GにはLU41Gが割り当てられている。ホストサーバ2Cは、LU41F及び41Gをアクセスの対象とすることをストレージ装置5に通知する。ストレージ装置5は、ホストサーバ2CがLU41F及び41Gをアクセスの対象とすることを許可する。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する(S2401)。各データは、インターフェース部59を介して、取得部60が定期的にストレージ装置5をアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ストレージ装置5が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ストレージ装置5からサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、ストレージテーブル80を更新する(S2402)。図25は、更新後のストレージテーブル80の図である。図25に示すストレージテーブル80には、物理ディスク20G及び20Hに関するデータが追加されている。具体的には、図25に示すストレージテーブル80のLUNのフィールドにおける行6に「VOLUME#F」が追加され、行7に「VOLUME#G」が追加されている。図25に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行6及び行7に「WWN#3」がそれぞれ追加されている。図25に示すストレージテーブル80のストレージ名のフィールドにおける行6及び行7に「DISK−D」がそれぞれ追加されている。図25に示すストレージテーブル80のディスク回転状態のフィールドにおける行6及び行7に「停止中」がそれぞれ追加されている。
そして、取得部60は、ホストOS10Cから、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得する(S2403)。各データは、インターフェース部59を介して、取得部60が定期的にホストサーバ2Cをアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2Cが各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ホスト10Cからサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、サーバVMテーブル70を更新する(S2404)。
図26は、更新後のサーバVMテーブル70の図である。図26に示すサーバVMテーブル70には、ゲストOS11E及びゲストOS11Fに関するデータが追加されている。具体的には、図26に示すサーバVMテーブル70のゲストOS名のフィールドにおける行5に「VM−E」が追加され、行6に「VM−F」が追加されている。「VM−E」はゲストOS11Eの名称であり、「VM−F」はゲストOS11Fの名称である。図26に示すサーバVMテーブル70のゲストOS起動状態のフィールドにおける行5及び行6に「停止中」がそれぞれ追加されている。図26に示すサーバVMテーブル70のLUNのフィールドにおける行5に「VOLUME#F」が追加され、行6に「VOLUME#G」が追加されている。「VOLUME#F」は、ゲストOS11Eに割り当てられているLU41FのLUNである。「VOLUME#G」は、ゲストOS11Fに割り当てられているLU41GのLUNである。
S2404の処理が行われた後、ストレージ装置5に物理ディスク20G及び20Hを増設した場合の管理サーバ1の処理を終了する。ゲストOS11E又は11Fを起動させる場合の管理サーバ1の処理は、図26に示すサーバVMテーブル70及び図25に示すストレージテーブル80を使用して行われる。ゲストOS11E又は11Fを起動させる場合の管理サーバ1の具体的な処理については、ゲストOS11Aを起動させる場合の管理サーバ1の処理と同様である。
〈ゲストOS移動の説明〉
ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理について説明する。図27は、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合における本システムの全体図である。図27に示すように、ホストサーバ2Cからホストサーバ2AにゲストOS11Eが移動している。
図28は、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理の流れを示すフローである。ここでは、ゲストOS11A−11Fは停止中の状態である。また、バックアップサーバ3は停止中の状態である。したがって、管理サーバ1が有するサーバVMテーブル70は、図26に示す状態である。また、管理サーバ1が有するストレージテーブル80は、図25に示す状態である。
ここで、ホストサーバ2Cからホストサーバ2AにゲストOS11Eが移動することにより、ホストサーバ2Aは、LU41A、LU41B及びLU41Fをアクセスの対象としている。ホストOS10Aによって、ゲストOS11EにはLU41Fが割り当てられている。ホストサーバ2Aは、LU41Fをアクセスの対象とすることをストレージ装置5に通知する。ストレージ装置5は、ホストサーバ2CがLU41Fをアクセスの対象とすることを許可する。
取得部60は、ストレージ装置5から、LUN、アクセスサーバ番号、ストレージ名及びディスクの回転状態の各データを取得する(S2801)。各データは、インターフェース部59を介して、取得部60が定期的にストレージ装置5をアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ストレージ装置5が各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ストレージ装置5からサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、ストレージテーブル80を更新する(S2802)。図29は、更新後のストレージテーブル80の図である。図29に示すストレージテーブル80では、ホストサーバ2Aに関するデータが更新されている。具体的には、図29に示すストレージテーブル80のアクセスサーバ番号のフィールドにおける行6では、「WWN#3」から「WWN#1」にデータが更新されている。
そして、取得部60は、ホストOS10Aから、サーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得する(S2803)。各データは、インターフェース部59を介して、取得部60が定期的にホストサーバ2Aをアクセスすることにより取得しても良い。また、定期的又は所定条件を満たした場合に、ホストサーバ2Aが各データを管理サーバ1に送信するようにしても良い。管理サーバ1に送信された各データは、インターフェース部59を介して取得部60が取得する。
ホスト10Aからサーバ名、WWN、サーバ動作状態、ゲストOS名、ゲストOS起動状態及びLUNの各データを取得した場合、更新部63は、サーバVMテーブル70を更新する(S2804)。図30は、更新後のサーバVMテーブル70の図である。図30に示すサーバVMテーブル70では、ゲストOS11Eに関するデータが更新されている。図30に示すように、ゲストOS11Eについての「VM−E」、「停止中」及び「VOLUME#F」が、ホストサーバ2Cのグループからホストサーバ2Aのグループに変更されている。
S2804の処理を行った後、ホストサーバ2CのゲストOS11Eをホストサーバ2Aに移動させた場合の管理サーバ1の処理を終了する。ゲストOS11Eを起動させる場合の管理サーバ1の処理は、図30に示すサーバVMテーブル70及び図29に示すストレージテーブル80を使用して行われる。ゲストOS11Eを起動させる場合の管理サーバ1の具体的な処理については、ゲストOS11Aを起動させる場合の管理サーバ1の処理と同様である。
本実施形態では、管理サーバ1が、ホストサーバ2A−2C及びバックアップサーバ3から各種のデータを取得し、また、ストレージ装置5から各種のデータを取得する。本実施形態によれば、管理サーバ1が、ホストサーバ2A−2C、バックアップサーバ3及びストレージ装置5を管理することにより、物理ディスク20A−20Hの回転が停止可能なタイミングを把握することが可能となる。そして、より適切なタイミングで、ストレージ装置5が備える物理ディスク20A−20Hの回転を停止させることができる。その結果、ストレージ装置5の節電効率を上げることが可能となる。
〈変形例〉
上述のように、ストレージ装置5は、物理ディスク20A及び20Bを備え、ストレージ装置5には、物理ディスク20A及び20Bを一つのまとまりとするRAIDグループ21Aが設けられている例を説明した。本実施形態は、これに限定されず、ストレージ装置5には、RAIDグループ21Aを設けないようにしてもよい。すなわち、物理ディスク20A及び20Bを連結しないようにする。この場合、物理ディスク20Aを一つの論理ディスク31とし、論理ディスク31を分割することにより、LU41A及びLU41Bを物理ディスク20A上に設定するようにしてもよい。また、物理ディスク20Bを一つの論理ディスク31とし、論理ディスク31を分割することにより、LU41A及びLU41Bを物理ディスク20B上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Bを設けないようにしてもよい。すなわち、物理ディスク20C及び20Dを連結しないようにする。この場合、物理ディスク20Cを一つの論理ディスク32とし、論理ディスク32を分割することにより、LU41C及びLU41Dを物理ディスク20C上に設定するようにしてもよい。また、物理ディスク20Dを一つの論理ディスク32とし、論理ディスク32を分割することにより、LU41C及びLU41Dを物理ディスク20D上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Cを設けないようにしてもよい。すなわち、物理ディスク20E及び20Fを連結しないようにする。この場合、物理ディスク20Eを一つの論理ディスク33とし、LU41Eを物理ディスク20E上に設定するようにしてもよい。また、物理ディスク20Fを一つの論理ディスク33とし、LU41Eを物理ディスク20F上に設定するようにしてもよい。
また、ストレージ装置5には、RAIDグループ21Dを設けないようにしてもよい。すなわち、物理ディスク20G及び20Hを連結しないようにする。この場合、物理ディスク20Gを一つの論理ディスク34とし、論理ディスク34を分割することにより、LU41F及びLU41Gを物理ディスク20G上に設定するようにしてもよい。また、物理ディスク20Hを一つの論理ディスク34とし、論理ディスク34を分割することにより、LU41F及びLU41Gを物理ディスク20H上に設定するようにしてもよい。
そして、上述のストレージ名については、物理ディスク20A−20Hの名称として取り扱うようにする。例えば、ストレージテーブル80には、物理ディスク20A又は物理ディスク20Bの名称として「DISK−A」を記録する。
〈コンピュータ読み取り可能な記録媒体〉
コンピュータに上記いずれかの機能を実現させるプログラムをコンピュータが読み取り可能な記録媒体に記録することができる。そして、コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。ここで、コンピュータ読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータから取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、DAT、8mmテープ、メモリカード等がある。また、コンピュータに固定された記録媒体としてハードディスクやROM等がある。

Claims (8)

  1. 記憶ユニットを備える記憶装置と、前記記憶装置と接続された情報処理装置とに接続された管理装置において、
    前記情報処理装置が実行する仮想マシンを識別する仮想マシン識別情報と該仮想マシンがアクセスする論理ボリュームを識別する論理ボリューム識別情報とを対応付けて記憶するとともに、論理ボリューム識別情報と該論理ボリュームが設定される記憶ユニットを識別する記憶ユニット識別情報と記憶ユニットの動作状態を示す動作情報とを対応付けて記憶する記憶部と、
    前記情報処理装置から第1の仮想マシンの起動前に送信される起動に関する通知を受信する受信部と、
    前記受信部が受信した前記起動に関する通知に含まれる仮想マシン識別情報に一致する仮想マシン識別情報に対応付けて前記記憶部に記憶された論理ボリューム識別情報を抽出する抽出部と、
    前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された動作情報に示される動作状態が、記憶ユニットが停止している旨を示す場合、前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットを動作させることを前記記憶装置に指示し、動作させることを指示した前記記憶ユニットが動作した後、前記第1の仮想マシンを起動させることを前記情報処理装置に指示する指示部と、
    を備えたことを特徴とする管理装置。
  2. 前記管理装置はさらに、
    各々の記憶ユニットの動作状態および停止状態に応じて、各々の記憶ユニットを識別する記憶ユニット識別情報に対応付けて前記記憶部に記憶された動作情報を更新する更新部
    を備えたことを特徴とする請求項1記載の管理装置。
  3. 前記記憶部はさらに、
    前記仮想マシン識別情報および前記論理ボリューム識別情報に対応付けて、前記仮想マ
    シン識別情報によって識別される仮想マシンの動作状態を示す仮想マシン動作情報を記憶し、
    前記更新部はさらに、
    前記仮想マシン識別情報によって識別される仮想マシンの起動状態および停止状態に応じて、仮想マシン動作情報を更新する、
    ことを特徴とする請求項2記載の管理装置。
  4. 前記情報処理装置は、前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットに設定される論理ボリュームにアクセスする他の仮想マシンを実行し、
    前記記憶部はさらに、
    前記他の仮想マシンを識別する仮想マシン識別情報と、前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報と、前記他の仮想マシンの動作状態を示す仮想マシン動作情報とを対応付けて記憶し、
    前記抽出部はさらに、
    前記受信部が前記仮想マシンが停止した旨を示す停止に関する通知を前記情報処理装置から受信した場合、前記停止に関する通知に含まれる仮想マシン識別情報に一致する仮想マシン識別情報に対応付けられた論理ボリューム識別情報と一致する論理ボリューム識別情報を前記記憶部から抽出し、
    前記指示部はさらに、
    前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された前記他の仮想マシンの動作状態を示す仮想マシン動作情報に示される動作状態が、仮想マシンが停止している旨を示すとき、前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットを停止させる、
    ことを特徴とする請求項3記載の管理装置。
  5. 前記記憶装置はさらに、
    記憶ユニットに記憶されるデータが転送されるバックアップ装置に接続された第2の情報処理装置がアクセスする複写ユニットを備え、
    前記管理装置はさらに、
    前記第2の情報処理装置と接続され、
    前記指示部はさらに、
    前記受信部がバックアップ対象の記憶ユニットに記憶されたデータを前記バックアップ装置に転送する旨の要求を前記第2の情報処理装置から受信した場合、前記複写ユニットを動作させることを前記記憶装置に指示し、
    前記複写ユニットが動作した後、前記バックアップ対象の記憶ユニットに記憶されたデータを前記複写ユニットに複写することを前記記憶装置に指示し、
    前記バックアップ対象の記憶ユニットに記憶されたデータが前記複写ユニットに複写された後、前記複写ユニットに複写されたデータを前記バックアップ装置に転送することを前記第2の情報処理装置に指示する、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の管理装置。
  6. 記憶ユニットを備える記憶装置と、前記記憶装置と接続された情報処理装置とに接続された管理装置が実行する管理方法において、
    前記管理装置が、
    前記情報処理装置が実行する仮想マシンを識別する仮想マシン識別情報と該仮想マシンがアクセスする論理ボリュームを識別する論理ボリューム識別情報とを対応付けて記憶部に記憶するとともに、論理ボリューム識別情報と該論理ボリュームが設定される記憶ユニットを識別する記憶ユニット識別情報と記憶ユニットの動作状態を示す動作情報とを対応
    付けて前記記憶部に記憶し、
    前記情報処理装置から第1の仮想マシンの起動前に送信される起動に関する通知を受信し、
    受信した前記起動に関する通知に含まれる仮想マシン識別情報に一致する仮想マシン識別情報に対応付けて前記記憶部に記憶された論理ボリューム識別情報を抽出し、
    抽出した前記論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された動作情報に示される動作状態が、記憶ユニットが停止している旨を示す場合、抽出した前記論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットを動作させることを前記記憶装置に指示し、
    動作させることを指示した前記記憶ユニットが動作した後、前記第1の仮想マシンを起動させることを前記情報処理装置に指示する、
    ことを特徴とする管理方法。
  7. 記憶ユニットを備える記憶装置と、前記記憶装置と接続された情報処理装置とに接続された管理装置が実行する管理プログラムにおいて、
    前記管理装置に、
    前記情報処理装置が実行する仮想マシンを識別する仮想マシン識別情報と該仮想マシンがアクセスする論理ボリュームを識別する論理ボリューム識別情報とを対応付けて記憶部に記憶させるとともに、論理ボリューム識別情報と該論理ボリュームが設定される記憶ユニットを識別する記憶ユニット識別情報と記憶ユニットの動作状態を示す動作情報とを対応付けて前記記憶部に記憶させ、
    前記情報処理装置から第1の仮想マシンの起動前に送信される起動に関する通知を受信させ、
    受信した前記起動に関する通知に含まれる仮想マシン識別情報に一致する仮想マシン識別情報に対応付けて前記記憶部に記憶された論理ボリューム識別情報を抽出させ、
    抽出した前記論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された動作情報に示される動作状態が、記憶ユニットが停止している旨を示す場合、抽出した前記論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットを動作させることを前記記憶装置に指示させ、
    動作させることを指示した前記記憶ユニットが動作した後、前記第1の仮想マシンを起動させることを前記情報処理装置に指示させる、
    ことを特徴とする管理プログラム。
  8. 記憶装置と、前記記憶装置にアクセスする情報処理装置と、前記記憶装置および情報処理装置を管理する管理装置とを備えたシステムにおいて、
    前記記憶装置は、
    記憶ユニットと、
    入力された指示に基づいて、前記記憶ユニットを動作させる制御部と、を備え
    前記情報処理装置は、
    前記情報処理装置が実行する第1の仮想マシンの起動前に、起動に関する通知を前記管理装置に対して送信する送信部と、
    前記管理装置からの指示に基づいて、前記第1の仮想マシンを起動する起動部と、を備え、
    前記管理装置は、
    前記情報処理装置が実行する仮想マシンを識別する仮想マシン識別情報と該仮想マシンがアクセスする論理ボリュームを識別する論理ボリューム識別情報とを対応付けて記憶するとともに、論理ボリューム識別情報と該論理ボリュームが設定される記憶ユニットを識別する記憶ユニット識別情報と記憶ユニットの動作状態を示す動作情報とを対応付けて
    記憶する記憶部と、
    前記送信部が送信した前記起動に関する通知を受信する受信部と、
    前記受信部が受信した前記起動に関する通知に含まれる仮想マシン識別情報に一致する仮想マシン識別情報に対応付けて前記記憶部に記憶された論理ボリューム識別情報を抽出する抽出部と、
    前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された動作情報に示される動作状態が、記憶ユニットが停止している旨を示す場合、前記抽出部が抽出した論理ボリューム識別情報と一致する論理ボリューム識別情報に対応付けて前記記憶部に記憶された記憶ユニット識別情報で識別される記憶ユニットを動作させる指示を前記記憶装置に出力し、動作させることを指示した前記記憶ユニットが動作した後、前記第1の仮想マシンを起動させる指示を前記情報処理装置に出力する指示部と、
    を備えたことを特徴とするシステム。
JP2010507097A 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム Expired - Fee Related JP5251974B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/057134 WO2009125490A1 (ja) 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2009125490A1 JPWO2009125490A1 (ja) 2011-07-28
JP5251974B2 true JP5251974B2 (ja) 2013-07-31

Family

ID=41161633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010507097A Expired - Fee Related JP5251974B2 (ja) 2008-04-11 2008-04-11 管理装置、管理方法及びプログラム

Country Status (3)

Country Link
US (1) US8468298B2 (ja)
JP (1) JP5251974B2 (ja)
WO (1) WO2009125490A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8671406B1 (en) 2011-04-28 2014-03-11 Netapp, Inc. Method and system for providing storage services
US9383891B2 (en) * 2012-03-28 2016-07-05 Skytap Methods and systems for an intermediate graphical desktop sharing protocol
US10635544B1 (en) * 2014-03-13 2020-04-28 EMC IP Holding Company LLC Assigning VMware local proxy host-datastore groups for consistently optimized access

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61245253A (ja) * 1985-04-24 1986-10-31 Hitachi Ltd 仮想計算機の入出力制御方式
JP2000293314A (ja) * 1999-04-05 2000-10-20 Hitachi Ltd ディスクアレイ装置
JP2003173240A (ja) * 2001-12-05 2003-06-20 Hitachi Ltd 記憶装置システム及びそのデータバックアップ方法
JP2007133821A (ja) * 2005-11-14 2007-05-31 Hitachi Ltd 機器停止を伴う仮想ボリューム制御方法
JP2007164376A (ja) * 2005-12-12 2007-06-28 Sharp Corp 電源制御装置、電源制御方法、電源制御プログラム、および記録媒体
JP2007323354A (ja) * 2006-05-31 2007-12-13 Hitachi Software Eng Co Ltd マシン管理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5797014A (en) * 1995-12-14 1998-08-18 International Business Machines Corporation Method for reducing processor cycles used for global offset table address computation in a position independent shared library
JP3220055B2 (ja) * 1997-07-17 2001-10-22 松下電器産業株式会社 機械語命令列またはアセンブリ言語命令列を最適化する最適化装置、及び、高級言語で記載されたソースプログラムを機械語またはアセンブリ言語の命令列に変換するコンパイラ装置。
JP3045981B2 (ja) 1997-08-26 2000-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ及びパラメータ設定方法
JP3837244B2 (ja) * 1998-10-23 2006-10-25 松下電器産業株式会社 プログラムリンク装置及び方法
US20020073398A1 (en) * 1998-12-14 2002-06-13 Jeffrey L. Tinker Method and system for modifying executable code to add additional functionality
US20030009750A1 (en) * 2001-07-09 2003-01-09 Robert Hundt Optimizing an executable computer program having linkage functions
JP4438817B2 (ja) * 2007-04-26 2010-03-24 株式会社日立製作所 ストレージ装置およびストレージ装置の省電力制御方法
JP4920658B2 (ja) * 2008-10-20 2012-04-18 株式会社日立製作所 電力推定方法及び計算機システム
US8516465B2 (en) * 2009-12-04 2013-08-20 Oracle America, Inc. Register prespill phase in a compiler

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61245253A (ja) * 1985-04-24 1986-10-31 Hitachi Ltd 仮想計算機の入出力制御方式
JP2000293314A (ja) * 1999-04-05 2000-10-20 Hitachi Ltd ディスクアレイ装置
JP2003173240A (ja) * 2001-12-05 2003-06-20 Hitachi Ltd 記憶装置システム及びそのデータバックアップ方法
JP2007133821A (ja) * 2005-11-14 2007-05-31 Hitachi Ltd 機器停止を伴う仮想ボリューム制御方法
JP2007164376A (ja) * 2005-12-12 2007-06-28 Sharp Corp 電源制御装置、電源制御方法、電源制御プログラム、および記録媒体
JP2007323354A (ja) * 2006-05-31 2007-12-13 Hitachi Software Eng Co Ltd マシン管理システム

Also Published As

Publication number Publication date
WO2009125490A1 (ja) 2009-10-15
US8468298B2 (en) 2013-06-18
JPWO2009125490A1 (ja) 2011-07-28
US20110035546A1 (en) 2011-02-10

Similar Documents

Publication Publication Date Title
TWI547875B (zh) 將機器轉換至虛擬機器的方法及電腦程式產品
US8706859B2 (en) Method and apparatus of data center file system
US7660867B2 (en) Virtual computer system and virtual computer migration control method
US8122212B2 (en) Method and apparatus for logical volume management for virtual machine environment
CN103562878B (zh) 在镜像虚拟机系统中的存储器检查点设置
JP2007280319A (ja) 記憶領域動的割当方法
US9183060B2 (en) Computer product, migration executing apparatus, and migration method
US20070073783A1 (en) Snapshot management apparatus and method, and storage system
US20130086394A1 (en) Storage system, storage control apparatus, and storage control method
US20140297597A1 (en) Computer system and management method for the same
JP2008015768A (ja) 記憶システム並びにこれを用いたデータの管理方法
JP2005501317A (ja) 外部データ記憶装置管理システムおよび方法
US8078815B2 (en) Power-saving-backup management method
US9582214B2 (en) Data access method and data access apparatus for managing initialization of storage areas
JP2007323218A (ja) バックアップシステム
EP1850219A2 (en) Computer system and method for reducing power consumption of a storage system
JP2009169650A (ja) 計算機システム、管理計算機及びデータ管理方法
JP2016115253A (ja) 情報処理装置、メモリ管理方法およびメモリ管理プログラム
JP5251974B2 (ja) 管理装置、管理方法及びプログラム
JP2004178337A (ja) 記憶装置システム、記憶装置、計算機およびプログラム
JP2007323657A (ja) 過渡状態情報を格納するための方法、システムおよびコンピュータ・プログラム
JP2018025995A (ja) 更新制御装置、及び更新制御プログラム
JP2008009622A (ja) 管理サーバ、およびサーバシステム
US8117405B2 (en) Storage control method for managing access environment enabling host to access data
JP6343716B2 (ja) 計算機システム及び記憶制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees