JP5147955B2 - 仮想計算機システム - Google Patents

仮想計算機システム Download PDF

Info

Publication number
JP5147955B2
JP5147955B2 JP2011012591A JP2011012591A JP5147955B2 JP 5147955 B2 JP5147955 B2 JP 5147955B2 JP 2011012591 A JP2011012591 A JP 2011012591A JP 2011012591 A JP2011012591 A JP 2011012591A JP 5147955 B2 JP5147955 B2 JP 5147955B2
Authority
JP
Japan
Prior art keywords
physical
physical computer
computer
logical partition
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011012591A
Other languages
English (en)
Other versions
JP2011081847A (ja
Inventor
ゆかり 八田
仁 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011012591A priority Critical patent/JP5147955B2/ja
Publication of JP2011081847A publication Critical patent/JP2011081847A/ja
Application granted granted Critical
Publication of JP5147955B2 publication Critical patent/JP5147955B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Hardware Redundancy (AREA)

Description

本発明は、仮想計算機システムに係り、特にある物理計算機上の論理区間に障害が発生した場合に、他の物理計算機に当該論理区間の交代を生成して、当該論理区間の処理を移行する仮想計算機システム及び論理区画の移行制御方法に関する。
1台の物理計算機上に複数の論理計算機又は論理区画(以下、LPAR(Logical Partition)という)を構築し、各論理計算機でそれぞれOS(オペレーティングシステム)を動作させ、これにより複数の論理計算機で複数の固有のOSを動作させることが可能な仮想計算機システムが実用化されている。また、最近では、それぞれの論理計算機に論理的なFC(Fibre Channel)拡張ボード又はFCポートを持せた仮想計算機システムを、RAID装置を含むSAN(ストレージエリアネットワーク)環境で使用する例もある。
SAN環境でブートを実現する計算機システムにおいて、OSがインストールされているRAID装置内のロジカルユニットのデータを保護するために、それぞれの計算機からのみアクセスを可能とするセキュリティ機能がRAID装置によって有効となっている。
このセキュリティ機能としては一般的に、それぞれの計算機に搭載されるFCポートに割り当てられた固有のID(World Wide Name)を利用し、OSがインストールされたロジカルユニットと計算機が持つFCポートに割り当てられた固有のID(World Wide Name)を関連付け、当該ID(World Wide Name)を持つFCポートからのアクセスのみを許す方法が用いられている。また、OSを含むソフトウェアには、装置固有のID(World Wide Name)が記録されている場合もある。
SANからのブートを行う計算機システムの冗長化構成では、現用系計算機と待機系計算機で持つFCポートに割り当てられた固有のID(World Wide Name)が異なるため、現用系計算機から待機系計算機に交代する際、OSを含むソフトウェアイメージをそのまま利用することができず、SAN管理ソフトウェアや人手によるRAID装置側のセキュリティ機能の設定変更が必要となる。これは、現用系計算機と待機系計算機という物理計算機においてだけではなく、LPAR間においても同様である。
複数の物理計算機上にそれぞれLPARを構築することができる仮想計算機システムにおいて、ある物理計算機上のLPARから他の物理計算機へLPARに構成情報を移動させて動作を引き継がせる技術に関しては、例えば特許文献1及び特許文献2に開示されている。
特開2005−327279公報 特開平10−283210公報
上記特許文献1及び2には、ある物理計算機又はその上のLPARに障害が発生した場合における、他の物理計算機又はその上に生成されるLPARを予備機として用いるためのPLARの移動については言及されていない。
また、SAN環境下の仮想計算機システムにおいて、あるLPARから他のLPARに交代する場合にも論理ポートに割り当てられた固有のID(World Wide Name)が異なるために、セキュリティ機能の設定変更が必要となるが、上記特許文献にはその点についても言及されていない。
本発明の目的は、物理計算機又はその上のLPARに障害が発生した場合に、他の物理計算機に交代用LPARを設定して、LPARの移行を可能とする仮想計算機システムを提供することにある。
本発明は、好ましくは、第1及び第2の物理計算機を含む複数の物理計算機と、該複数の物理計算機にネットワークを介して接続される、該物理計算機及び該論理区間を管理する管理装置とを含み、各物理計算機に論理区画を生成してOSを動作させることができる仮想計算機システムにおいて、
該第1の物理計算機は;該第1物理計算機又はそこに形成された第1論理区画に障害が発生したことを検出する障害検出手段と、該第1の物理計算機のバードウェア構成情報及び該第1論理区画に割り当てられた固有の構成情報を管理する第1管理手段と、を有し、
該管理装置は;該障害検出手段からの障害発生の報告を受けて、該第1管理手段から該ハードウェア情報及び該固有の構成情報を受信する手段と、交代先の第2の物理計算機を決定して、該第2の物理計算機へ該ハードウェア情報及び該固有の構成情報を送信する手段と、を有し、
該第2の物理計算機は;該管理装置から送信された該ハードウェア情報及び該固有の構成情報を受信する手段と、該ハードウェア情報及び該固有の構成情報に基づいて、該第2の物理計算機上に第2論理区画を生成することが可能かを判定する手段と、該判定手段によって該第2論理区間の生成が可能と判定された場合、該固有の構成情報に基づいて第2論理区画を生成する手段と、を有する仮想計算機システムとして構成される。
本発明によれば、物理計算機又はその上のLPARに障害が発生した場合に、他の物理計算機に交代用LPARを設定して、LPARを移行することが可能となる。また、管理サーバの制御の下に、移行先のLPARへ移行元LPARの構成情報等を移すので、移行元の物理計算機に障害が発生した場合にも、LPARの移行が可能である。
一実施例における計算機システムの構成を示す図、 障害発生時の処理を示すフローチャート、 障害発生時の処理を示すフローチャート、 障害発生時の管理サーバの処理を示すフローチャート、 障害発生時の管理サーバの処理を示すフローチャート、 障害発生時のハイパーバイザーの処理を示すフローチャート、 Hypervisor-Agtにおけるコマンドの処理を示すフローチャート、 Hypervisor-Agtにおけるコマンドの処理を示すフローチャート、 Hypervisor-Agtの送信処理を示すフローチャート、 Hypervisor-Agtの送信処理を示すフローチャート、 サーバのハードウェア構成情報1101の内容を示す図、 ハイパーバイザー構成情報1111の内容を示す図、 サーバの管理情報107の内容を示す図。
以下、本発明の実施形態について図面を参照して説明する。
図1を参照するに、本実施例による計算機システムは、1台のサーバシャーシ105に、複数台のサーバモジュール(以下単にサーバという)111、112を搭載することができるブレードサーバの形態をなしている。サーバシャーシ105には、サービスプロセッサ(SVP)106が搭載される。
サーバ111,112は、NIC(Network Interface Card)122を介してネットワークSW(103)経由で管理サーバ101に接続され、またファイバチャネルスイッチ(FC−SW)135を介してストレージ装置137に接続される。
サーバ111及び112は、基本的に同様の構成を有し、それぞれBMC(Base Management Controller)120(130)、FC−HBA(Fibre Channel Host Bus Adapter)121(131)、NIC122(132)を持っている。ハイパーバイザー117(127)は物理的に1台のサーバを論理的に複数のサーバに見せる仮想化機構である。サーバ111では1つのハイパーバイザー117上にシミュレーションされた2台のLPAR(113、114が構築され動作している。ハイパーバイザー117(127)内のHypervisor-Agt(119,129)は、LPARの障害を検知して管理サーバ101へその報告を行うためのエイジェントである。
本実施例において、サーバ112には、1台のLPAR123が動作しているが、後にサーバ111のLPAR114の交代LPAR124が設定される。
FC−HBA121,131は、通信を行うためにそのHBAのアドレスとしてFC接続ポート1つに対して1つのWWNを持つ。LPAR113及び114は論理的なHBAを1ポート(115、116)ずつ持ち、それぞれvfcWWN1(115)、vfcWWN2(116)のような、固有のWWN(World Wide Name)が付与される。論理的なHBAも物理的なHBAと同様のWWNを持つ。なお、サーバ112におけるLPAR123も同様に固有のWWNが付与される。
ストレージ装置137は、論理的に規定されたLU(論理ユニット)と呼ばれる多数のDiskユニット138〜140を持っている。何れのLUが何れのサーバに接続されているかを表す接続情報はストレージ装置137内のコントローラによって管理されている。例えば、LU10(138)はvfcWWN1(115)のWWNを持つサーバ113に接続され、LU11(139)はvfcWWN2(116)のWWNを持つサーバ116に接続されている。この接続関係を設定する機能をLUNセキュリティ設定機能と呼ぶ。
SVP106はサーバシャーシ内の全てのサーバを管理し、またサーバの電源制御および障害処理を担う。サーバを管理するために、サーバのハードウェア構成情報1101(図11参照)、及びハイパーバイザー構成情報1111(図12参照)をSVP内の不揮発メモリ(図示せず)に記憶して管理する。これらの構成情報1101、1111はサーバ単位に管理され、図示の例ではサーバ111,112に対応して、2面の構成情報108−1,108−2を持つ。また、ハイパーバイザー構成情報1111にはサーバ111及び112のそれぞれのハイパーバイザー117,127に対応した情報が含まれる。
管理サーバ101は、サーバ111,112及びそれに形成されたLPARを管理する。
そのために、サーバの管理情報107(図13参照)をメモリ(図示せず)に記憶して管理する。本実施例ではまた、LPARの移行を管理する機能を有する。
次に、図11〜図13を参照して、各管理情報の内容について説明する。
図11に示すように、サーバのハードウェア構成情報(サーバモジュール・ハードウェア構成情報ということもある)1101は、ブート設定情報1102、HBA-BIOS情報1103、addWWN情報1104、物理サーバのOS種類情報1105、Hyper Treadingの無効指定1106、SVPが保存するハイパーバイザーのIPアドレス1107、アーキテクチャ1108などの物理サーバ情報を保持する。このハードウェア構成情報1101はサーバモジュール(パーティション)ごとに存在する。
図12に示すように、ハイパーバイザー構成情報1111は、パーティションの中のLPAR単位で管理される情報であり、LPAR113,114対応に存在する(1111−1、1111−2)。各ハイパーバイザー構成情報1111は、vfcWWN情報(1112−1)、LPARが稼動中か否かを示すActive/NonActive(1113−1)、CPUの数などを含むCPU情報(1114−1)、メモリ容量(1115−1)、HBAやNICなどを含むI/O構成(1115−1)等の情報を保持する。
上記サーバのハードウェア構成情報1101及びハイパーバイザー構成情報1111は、SVP106で設定されて管理されるが、これらの情報は、各サーバ上で動作しているハイパーバイザーでも保持している。
図13に示すように、管理サーバ101で管理されるサーバの管理情報(サーバモジュール管理情報ということもある)107は、サーバモジュール番号1201、ハードウェアのアーキテクチャ種別1202、実装メモリ容量1203、稼動中のLPARの合計メモリ使用量1204、メモリの空き容量1205、実装CPU性能1206、割り当て済みCPU性能の合計1207、空きCPU性能1208、空きNIC数1209、空きHBA数1210、等の情報を保持する。
本実施例によれば、サーバ111のLPARに障害が発生したときに、障害報告を受けつけた管理サーバ101は、サーバ112内に交代用のLPAR124を設定し、そのLPAR124に障害が発生したLPAR固有の構成情報を引き継がせるための制御を行う。
以下、図2及び図3を参照して、サーバ111のLPARに障害が発生した時の交代LPARの設定及びLPAR固有の構成情報の引き継ぎ処理について、詳細に説明する。図示の例は、サーバ111のLPAR2(114)に障害が発生した場合における、管理サーバ101、サーバ111のハイパーバイザー117、サーバモジュール112のハイパーバイザー127が行う処理動作を表す。
LPAR114に障害が発生し、サーバ111で動作するハイパーバイザー117がその障害を検出すると(S201)、ハイパーバイザー117は管理サーバ101へ障害通知(Hypervisor-Agtアラート)を行う(S202)。管理サーバ101は障害が発生したLPAR2を停止するように停止コマンドを送出する(S203)。ハイパーバイザー117は、LPAR停止コマンドを受信した後、LPAR2の稼動停止(deactivate処理)を行う(S205)。そしてdeactivate処理が完了すると、管理サーバ101に対してHypervisor-Agtアラートを送出して、deactivate完了を伝える(S206)。
Hypervisor-Agtアラートを受けた管理サーバ101は、管理情報として障害が発生したLPARの停止状態を表示器に表示し(S207)、LPAR2の構成情報読み込みコマンドを送出する(S208)。
そのコマンドを受信したハイパーバイザー117は、自ら保持している、サーバモジュール・ハードウェア構成情報及びLPAR2のハイパーバイザー構成情報を管理サーバ101へ送信する(S209)。
管理サーバ101は、データの受信を完了すると、受信完了を表示する(S210)。
その後、交代先のサーバモジュールを決定する(S301)。例えば交代先のサーバモジュール112上でLPARを生成しようとしているハイパーバイザー127に対して、障害が発生したサーバモジュール111のサーバモジュール・ハードウェア構成情報及びLPAR2のハイパーバイザー構成情報を受信するよう指示する(S302)。
ハイパーバイザー 127は、障害が発生したLPAR2に関する構成情報を受信すると(S303)、その構成情報に基づいて、交代先でLPARが生成可能であるか否か判定する(S305)。この判定については後で詳述する。判定の結果、所定の条件を満たしていれば、移行先のサーバ112に移行元のLPAR2に関する構成情報を引き継いだLPARが生成される(S306)。この例では、LPAR124が移行先のLPARとなる。LPAR124の生成が完了すると、ハイパーバイザー127はHypervisor-Agtアラートを送出して、LPARの生成完了を通知する(S307)。
管理サーバ101は、Hypervisor-Agtアラートを受信すると、ハイパーバイザー127に生成されたLPARを起動するように、起動コマンドを送出する(S308)。この起動コマンドを受信したハイパーバイザー127は、生成したLPAR124を起動(activate)する(S309)。そして、Hypervisor-Agtアラートを送出して、LPAR124の起動完了を伝える(S310)。Hypervisor-Agtアラートを受け取った管理サーバ101は、LPAR124の起動状態を表示器に表示する(S311)。
次に図4及び図5を参照して、LPAR2(114)に障害が発生した時の管理サーバ101の処理について説明する。
ハイパーバイザー117からLPAR2に障害が発生した旨を伝えるHypervisor-Agtアラートを受けると、管理サーバ101はLPAR障害検出時の処理を始める(S401)。
まず、障害が発生したサーバモジュール111のハイパーバイザー117に対して、LPAR2の稼動を停止するための停止コマンドを送出する(S402)。その後、LPAR2の停止処理が完了するまで待ち(S403)、停止処理が正常に完了したら、LPAR2の表示テーブルを「停止状態」とする(S404)。一方、停止処理が正常に完了しなければ、コールドスタンバイ失敗を表示して(S411)、終了する(S412)。
LPAR2の表示テーブルが「停止状態」となったら(S404)、LPAR2の構成情報の読み込みコマンドを送出する(S405)。LPAR2の構成情報を受信し(S406)、受信が正常に終了したら(S407)、受信完了を表示する(S408)。一方、受信が正常に終了しなければコールドスタンバイ失敗を表示して(S413)、終了する(S414)。
受信が正常に終了し(S407)、受信完了の表示した(S408)後に、LPAR2の実効CPU性能と、LPAR2を生成するサーバモジュール以外のサーバモジュールの実効CPU性能を計算する。
ここで、LPAR2の実効CPU性能は、(物理CPUの数)×(移行前のLPARでのサービス率)、として計算する。また、LPAR2を生成するサーバモジュール以外のサーバモジュールの実効CPU性能は、(物理CPUの数)×(100%−(現在稼動している全てのLPARのサービス率))として計算する。
次に、管理サーバ101のサーバモジュール管理情報107を用いて、LPAR生成のためのサーバモジュールの条件を判定する(S410)。この条件とは、例えば、以下(a)〜(d)の判定を含む。
(a)LPAR2と同じアーキテクチャのサーバモジュールがあるか。(b)LPAR2以上のメモリが空いているサーバモジュールがあるか。(c)LPAR2の実効CPU性能以上の実効CPU性能を持つサーバモジュールがあるか。(d)LPAR2が使用していた以上のNIC,HBAが空いているサーバモジュールがあるか。
これら4つの条件を全て満たしていれば、条件を満たしているサーバモジュールの中で、実効CPU性能が最高のものを交代先のサーバモジュールとして選択する(S501)。4つの条件のうち1つでも満たしていなければ、コールドスタンバイ失敗を表示して(S415)、終了する(S416)。
4つの条件が満足する交代先のサーバモジュール(この例ではサーバモジュール112)が選択されると、交代先のサーバモジュール112のハイパーバイザー127に対して、障害が発生したLPAR2に関する構成情報を転送して、LPARを生成するように指示する(S502)。そして、障害発生元サーバモジュール111のハイパーバイザー117から受信したデータ(障害発生LPAR2に関する構成情報)をハイパーバイザー127へ送信する(S503)。このデータの送信が正常に終了すると(S504)、送信完了を表示する(S505)。一方、データ送信が正常に完了しなければ(S504)、コールドスタンバイ失敗を表示して(S511)、終了する(S512)。
その後、交代先サーバモジュール112においてLPARが生成されるのを待つ(S506)。生成されるLPARは、障害が発生したLPAR2と同様の構成を持つものである。LPARの生成が正常に終了すると、交代先サーバモジュール112の交代先LPAR124を起動するコマンドを送出する(S507)。一方、LPAR生成が正常に終了しなければ、コールドスタンバイ失敗を表示して(S513)、終了する(S514)。
交代LPAR124の生成が正常に終了し、起動コマンドを送出したら(S507)、交代先LPAR124の起動完了を待つ(S508)。そして正常に起動したら、交代先LPAR(124)の状態表示を「起動状態」として(S509)、終了する(S510)。一方、LPAR124の起動が正常に起動しない場合は、コールドスタンバイ失敗を表示して(S515)、終了する(S516)。
以上のような制御により、交代先LPAR124が障害発生LPAR114の交代機として起動可能となるのは以下の理由による。ストレージ装置へのアクセスはWWNによって管理される。WWNは物理デバイスのポートごとに割り当てられるが、本実施例では、LPARごとに論理HBAを設け、論理HBAのポートごとにWWNを割り当てている。以下この論理HBAのWWNをvfcWWNと呼ぶ。図1の説明で述べたように、LUNとWWNの接続関係はLUNセキュリティ機能により設定されている。ストレージ装置側からは、論理/物理WWNの区別はつかないので、LPAR単位でのLUへのアクセス権の管理
が可能となる。(vfcWWNを用いるときは、ストレージ装置から物理デバイスのWWNが認識されないように設定する。)移行先のLPARは、障害発生時のLPARが使用していたvfcWWNと同一のvfcWWNを使用してブートすることにより、移行前と同一のシステムを立ち上げることができる。
次に図6を参照して、LPAR2に障害が発生した時のハイパーバイザーの処理について説明する。
LPAR2に障害が発生すると、ハイパーバイザー117は、LPAR障害検出処理を開始する(S601)。障害検出処理において、障害発生要因を解析して、回復可能な要因か否かを判断する(S602)。その判断の結果、LPAR障害が回復不可能な要因である場合、Hypervisor-Agt(118)に対してLPAR障害を伝えるために、Hypervisor-Agtアラート送出を要求し(S603)、LPAR障害時のログ取得などの障害処理を実行して(S604)、処理を終了する(S605)。
一方、LPAR障害が回復可能な要因である場合、回復処理を行い(S606)、終了する(S607)。
次に図7〜図8を参照して、管理サーバ101からのコマンド実行要求に伴うHypervisor-Agt(118)におけるコマンドの処理について説明する。
管理サーバ101から送信されたコマンド実行要求を受けると、Hypervisor-Agt(118)は受信処理を行う(S701)。要求されるコマンドには複数の種類があるので、まずコマンドの種別を解析する(S702)。この例では、LPARの停止を行うLPAR停止( deactivate)コマンドと、LPAR構成情報読み込みコマンドと、LPAR構成情報書き込みコマンドと、LPARの起動を行うLPAR起動( activate)コマンドと、LPAR生成コマンド、の5つのコマンドの処理を行う。
LPAR deactivateコマンドである場合、停止対象LPARは妥当であるかを判定する(S703)。妥当でないと判断した場合にはエラー処理を行い(S707)、終了する(S708)。停止対象LPAR2が妥当であると判断した場合には、停止対象LPAR2の停止処理を行う(S704)。そして、停止処理が成功したか否かを判断する(S705)。停止処理が失敗した場合、エラー処理して(S707)、終了する(S708)。一方、停止処理が成功した場合には、LPAR2の停止完了を伝えるためにHypervisor-Agtアラート送信要求を行って、終了する(S708)。
LPAR構成情報読み込みコマンドである場合、対象LPAR2の構成情報を管理サーバ101に転送する。その後、データ転送が成功したか否かを判断して(S710)、データ転送が成功したら処理を終了する(S712)。一方、失敗したら、エラー処理して(S711)、終了する(S712)。
LPAR構成情報書き込みコマンドである場合、対象LPAR2の構成情報を管理サーバ101からハイパーバイザー127に転送する。その後、データ転送が成功したか否かを判断して(S714)、データ転送が成功したら処理を終了する(S716)。一方、失敗したら、エラー処理して(S714)、終了する(S716)。
次に、LPAR 起動コマンドである場合(図8参照)、起動対象のLPAR2は妥当であるかを判定する(S801)。その結果、妥当でないと判断した場合にはエラー処理を行って(S805)、終了する(S806)。一方、起動対象のLPAR2が妥当であると判断した場合には、起動対象LPAR2の起動処理を行う(S802)。その後、起動が成功したかを判断して(S803)、起動に失敗した場合にはエラー処理を行って(S805)、終了する(S806)。
一方、起動に成功した場合には、LPARのactivate完了を伝えるためにHypervisor-Agtアラート送信要求を行い(S804)、終了する(S806)。
次に、LPAR生成コマンドである場合、まず移行前及び移行先の実効CPU性能の計算を行う(S807)。移行前の実効CPU性能は、(物理CPUの数)×(移行前のLPARでのサービス率)として計算する。移行先の実効CPU性能は、(物理CPUの数×(100%−(現在起動している全てのLPARのサービス率))として計算する。
その後、次の3つの条件の判定を行う(S808)。(1)移行前の実効性能と移行先の実効CPU 性能を比較して移行先の実効CPU性能が移行前の実効CPU性能 以上であること。(2)移行先のメモリが空いていること。(3)移行先に移行元のLPARが使用していた数と同数のNIC, HBAがあいていること。
上記3つの条件の1つでも満たしていなければ、LPAR生成は不可能とみなして、エラー処理して(S812)、終了する(S813)。
一方、3つの条件を全て満たしていれば、対象LPARを生成する(S809)。この例では、LPAR2の交代先としてLPAR124を生成する。
その後、LPARの生成が成功したかを判定し(S810)、成功した場合、LPAR生成完了を伝えるためにHypervisor-Agtアラート送信要求を行って(S811)、終了する(S813)。一方。LPARの生成が失敗した場合には、エラー処理を行って(S812)、終了する(S813)。
次に、図9及び図10を参照して、Hypervisor-Agtアラート送信要求があった場合のHypervisor-Agtの送信処理について説明する。
Hypervisor-Agtアラート送信要求があった場合、Hypervisor-Agt(118)はアラートの種別を解析する(S902)。
その結果、アラートの種別がLPAR起動完了である場合には、LPAR起動完了アラートを送信して(S903)、終了する(S906)。
アラートの種別がLPAR 起動失敗である場合には、LPAR 起動失敗アラートを送信して(S904)、終了する(S906)。
アラートの種別がLPAR障害発生である場合には、LPAR障害発生アラートを送信して(S905)、終了する(S906)。
アラートの種別がLPAR停止完了である場合には、LPAR deactivate完了アラートを送信して(S1001)、終了する(S906)。
アラートの種別がLPAR停止失敗である場合には、LPAR 停止失敗アラートを送信して(S1002)、終了する(S906)。
アラートの種別がLPAR生成完了である場合には、LPAR生成完了アラートを送信して(S1003)、終了する(S906)。
アラートの種別がLPAR生成失敗である場合には、LPAR生成失敗アラートを送信して(S1004)、終了する(S906)。
上記した例は、サーバ111のLPARに障害が発生した時に、管理サーバ101の制御の下、移行元及び移行先のハイパーバイザー間で種々の情報をやり取りして、LPARの移行制御を行うものである。
また、サーバ障害時の検出はSVPからも行うことができる。これによりハードウェア障害時にもその上で動作していたLPARを別々の物理マシンに移行させることができる。
以上のように、本実施例によれば、仮想計算機システムのLPAR障害時に、LPAR単位のきめ細かい交代を実現できるので、効率を要求される仮想計算機システムの利用業務に適用することができる。また、複数の物理計算機間に性能上のばらつきがある場合、特定のLPARの物理計算機間の移動が容易に可能となる。
101:管理サーバ 103:ネットワークスイッチ
105:サーバシャーシ 106:サービスプロセッサ
107:サーバモジュール管理情報 111、112:サーバ
113、114、123、124:LPAR
117、127:ハイパーバイザー
118、128:Hypervisor-Agt
120、130:BMC 121、131:FC−HBA
122、132:NIC 135:ファイバチャネルスイッチ
137:ストレージ装置
1101:サーバモジュール・ハードウェア構成情報
1111:ハイパーバイザー構成情報

Claims (14)

  1. 第1及び第2の物理計算機を含む複数の物理計算機と、前記複数の物理計算機にネットワークを介して接続される前記物理計算機及び論理区画を管理する管理装置と、前記複数の物理計算機を管理する監視装置とを含み、各物理計算機に論理区画を生成してOSを動作させることができる仮想計算機システムにおいて、
    前記第1の物理計算機は:
    前記論理区画と通信を行うための第1の物理アダプタと、
    前記第1の物理計算機に形成された第1論理区画の構成情報及び前記第1論理区画に設けられた論理アダプタに割り当てられた識別子である仮想識別子を管理する第1管理手段と、を有し、
    前記監視装置は:
    前記第1の物理計算機又は前記第1論理区画に状態変化が発生したことを検出する状態検出手段と、
    前記第1論理区画の構成情報及び仮想識別子を管理する第2管理手段と、を有し、
    前記管理装置は:
    前記管理装置で管理する前記物理計算機の管理情報と、
    前記状態検出手段からの状態変化発生の報告を受けて、前記第管理手段から前記第1論理区画の構成情報及び仮想識別子を受信する手段と、
    前記管理情報を用いて、前記第1論理区画と同様の構成を有する第2論理区画を生成可能な物理計算機を判定する第一の判定により交代先の第2の物理計算機を決定して、前記第2の物理計算機へ前記第1論理区画の構成情報及び仮想識別子を送信する手段と、を有し、
    前記第2の物理計算機は:
    前記論理区画と通信を行うための第2の物理アダプタと、
    前記管理装置から送信された前記第1論理区画の構成情報及び仮想識別子を受信する手段と
    前記第1論理区画の構成情報に基づいて、前記第2の物理計算機上に前記第2論理区画を生成することが可能かを判定する第二の判定手段と、
    前記第二の判定手段によって前記第2論理区の生成が可能と判定された場合、前記第1論理区画の構成情報を引き継いで前記第2論理区画を生成する手段と、を有し、
    前記第1論理区画の構成情報は、前記第1の物理アダプタの情報を含み、
    前記第2論理区画を生成する手段では、前記生成した第2論理区画に論理アダプタを設け、前記第2論理区画に設けられた論理アダプタに、前記仮想識別子を割り当てることを特徴とする仮想計算機システム。
  2. 前記物理アダプタは、物理HBAであり、
    前記仮想識別子は、vfcWWNであることを特徴とする請求項1記載の仮想計算機システム。
  3. 前記構成情報は、I/O構成情報であることを特徴とする請求項1記載の仮想計算機システム。
  4. 前記監視装置は、SVPであることを特徴とする請求項1記載の仮想計算機システム。
  5. 前記管理装置における交代先の第2の物理計算機の決定では、
    前記第一の判定として、
    前記第1論理区画の実効CPU性能を、物理CPUの数と前記第1論理区画のサービス率との積から計算し、
    前記第1の物理計算機以外の物理計算機における実効CPU性能を、物理CPUの数と(100%−前記第1の物理計算機以外の物理計算機で稼動している全てのLPARのサービス率)との積から計算し、
    前記第1の物理計算機以外の物理計算機における実効CPU性能が、前記第1論理区画の実効CPU性能以上であることを調べ、
    交代先の第2の物理計算機の決定として、
    前記第1の物理計算機以外の物理計算機における実効CPU性能が最も高い物理計算機を、交代先の第2の物理計算機として選択する
    ことを特徴とする請求項1乃至4のいずれかに記載の仮想計算機システム。
  6. 前記管理装置における交代先の第2の物理計算機の決定では、
    前記第一の判定として、
    前記第1の物理計算機以外の物理計算機におけるアーキテクチャを調べ、
    交代先の第2の物理計算機の決定として、
    前記第1の物理計算機以外の物理計算機におけるアーキテクチャが、前記第1論理区画と同じアーキテクチャである物理計算機を、交代先の第2の物理計算機として選択する
    ことを特徴とする請求項1乃至5のいずれかに記載の仮想計算機システム。
  7. 前記管理装置における交代先の第2の物理計算機の決定では、
    前記第一の判定として、
    前記第1の物理計算機以外の物理計算機におけるメモリの容量の空きを調べて、
    交代先の第2の物理計算機の決定として、
    前記第1の物理計算機以外の物理計算機におけるメモリの容量の空きが、前記第1論理区画のメモリ容量以上である物理計算機を、交代先の第2の物理計算機として選択する
    ことを特徴とする請求項1乃至6のいずれかに記載の仮想計算機システム。
  8. 前記管理装置における交代先の第2の物理計算機の決定では、
    前記第一の判定として、
    前記第1の物理計算機以外の物理計算機における物理アダプタの数を調べて、
    交代先の第2の物理計算機の決定として、
    前記第1の物理計算機以外の物理計算機における物理アダプタの数が、前記第1論理区画の構成情報に含まれる第1の物理アダプタの数以上である物理計算機を、交代先の第2の物理計算機として選択する
    ことを特徴とする請求項1乃至7のいずれかに記載の仮想計算機システム。
  9. 前記第1の物理計算機は、前記監視装置が障害の状態変化を検出した時、前記第1論理区画の動作を停止させて、前記動作の停止を前記管理装置へ報告する手段を有し、
    前記第2の物理計算機は、前記第2論理区画の生成が完了すると、前記完了の報告を前記管理装置へ送る手段を有し、
    前記管理装置は、前記動作の停止を受け取った時、前記第1論理区画の停止状態を表示する手段と、前記完了の報告を受け取った時、前記第2物理計算機へ前記第2論理区画を起動させるコマンドを送出する手段と、を有し、
    前記第2の物理計算機は、前記起動させるコマンドを受信した時、前記第2論理区画の起動を行うことを特徴とする請求項1記載の仮想計算機システム。
  10. 前記第2の物理計算機における前記第二の判定手段は、前記第1論理区画の実効CPU性能を、物理CPUの数と前記第1論理区画のサービス率との積から計算し、前記第2の物理計算機の実効CPU性能を、物理CPUの数と(100%−前記第2の物理計算機上で稼動している全てのLPARのサービス率)との積から計算することを特徴とする請求項1記載の仮想計算機システム。
  11. 前記第2の物理計算機における前記第二の判定手段は、前記第2の物理計算機の実効CPU性能が、前記第1論理区画の実効CPU性能以上であることを調べて、前記第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至10のいずれかに記載の仮想計算機システム。
  12. 前記第2の物理計算機における前記第二の判定手段は、前記第2の物理計算機のメモリの容量の空きを調べて、前記第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至11のいずれかに記載の仮想計算機システム。
  13. 前記第2の物理計算機における前記第二の判定手段は、前記第1論理区画の構成情報に含まれる第1の物理アダプタの数が、前記第2の物理計算機の第2の物理アダプタに確保できるかを調べて、前記第2の物理計算機に前記第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至12のいずれかに記載の仮想計算機システム。
  14. 前記状態変化の発生とは、障害の発生であることを特徴とする請求項1記載の仮想計算機システム。
JP2011012591A 2011-01-25 2011-01-25 仮想計算機システム Expired - Fee Related JP5147955B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011012591A JP5147955B2 (ja) 2011-01-25 2011-01-25 仮想計算機システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011012591A JP5147955B2 (ja) 2011-01-25 2011-01-25 仮想計算機システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007143633A Division JP4744480B2 (ja) 2007-05-30 2007-05-30 仮想計算機システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2012152207A Division JP5422706B2 (ja) 2012-07-06 2012-07-06 管理システム
JP2012152206A Division JP5422705B2 (ja) 2012-07-06 2012-07-06 仮想計算機システム

Publications (2)

Publication Number Publication Date
JP2011081847A JP2011081847A (ja) 2011-04-21
JP5147955B2 true JP5147955B2 (ja) 2013-02-20

Family

ID=44075755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011012591A Expired - Fee Related JP5147955B2 (ja) 2011-01-25 2011-01-25 仮想計算機システム

Country Status (1)

Country Link
JP (1) JP5147955B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016071988A1 (ja) * 2014-11-06 2016-05-12 株式会社日立製作所 サーバストレージシステムと管理システムを有する計算機システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653159B2 (ja) * 1997-04-01 2005-05-25 株式会社日立製作所 仮想計算機システム間の仮想計算機移動制御方法
JP2002229806A (ja) * 2001-02-02 2002-08-16 Hitachi Ltd 計算機システム
US8156490B2 (en) * 2004-05-08 2012-04-10 International Business Machines Corporation Dynamic migration of virtual machine computer programs upon satisfaction of conditions
US7257811B2 (en) * 2004-05-11 2007-08-14 International Business Machines Corporation System, method and program to migrate a virtual machine
JP2006072591A (ja) * 2004-09-01 2006-03-16 Hitachi Ltd 仮想計算機制御方法

Also Published As

Publication number Publication date
JP2011081847A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
JP4744480B2 (ja) 仮想計算機システム
JP5463267B2 (ja) 仮想計算機システムおよび仮想計算機の移行方法
US9098466B2 (en) Switching between mirrored volumes
JP5959733B2 (ja) ストレージシステムおよびストレージシステムの障害管理方法
JP5542788B2 (ja) 仮想計算機システムおよび仮想計算機の移行制御方法
US7865767B2 (en) Storage system and method for copying data to plurality of sites
JP5561622B2 (ja) 多重化システム、データ通信カード、状態異常検出方法、及びプログラム
KR20180071941A (ko) 관리 컨트롤러 및 관리 컨트롤러를 포함하는 섀시의 동작 방법
JP2008299509A5 (ja)
US11573737B2 (en) Method and apparatus for performing disk management of all flash array server
JP2008112399A (ja) ストレージ仮想化スイッチおよびコンピュータシステム
JP2006227856A (ja) アクセス制御装置及びそれに搭載されるインターフェース
JP5422705B2 (ja) 仮想計算機システム
JP5147955B2 (ja) 仮想計算機システム
JP5422706B2 (ja) 管理システム
JP6674101B2 (ja) 制御装置および情報処理システム
US11416147B2 (en) Rack-power-controller-initiated data protection
JP5884801B2 (ja) パス切替装置、パス切替方法及びパス切替プログラム
US11550676B2 (en) Hardware-management-console-initiated data protection
JP2010033379A (ja) 仮想化システム及び仮想化の復旧方法
WO2021174063A1 (en) Cloud defined storage
JP5719316B2 (ja) 計算機システム及び障害処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees