JP2011086316A - 引継方法、計算機システム及び管理サーバ - Google Patents

引継方法、計算機システム及び管理サーバ Download PDF

Info

Publication number
JP2011086316A
JP2011086316A JP2011017742A JP2011017742A JP2011086316A JP 2011086316 A JP2011086316 A JP 2011086316A JP 2011017742 A JP2011017742 A JP 2011017742A JP 2011017742 A JP2011017742 A JP 2011017742A JP 2011086316 A JP2011086316 A JP 2011086316A
Authority
JP
Japan
Prior art keywords
server
hardware
spare
identifier
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011017742A
Other languages
English (en)
Other versions
JP5266347B2 (ja
Inventor
Keisuke Hatasaki
恵介 畑▲崎▼
Masayoshi Kitamura
正芳 北村
Yoshifumi Takamoto
良史 高本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011017742A priority Critical patent/JP5266347B2/ja
Publication of JP2011086316A publication Critical patent/JP2011086316A/ja
Application granted granted Critical
Publication of JP5266347B2 publication Critical patent/JP5266347B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Hardware Redundancy (AREA)

Abstract

【課題】現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合でも現用サーバで稼動していた業務を回復する。
【解決手段】現用サーバでの障害発生時に、予備サーバへ業務を引き継ぐための障害回復方法であって、前記現用サーバ及び前記予備サーバに備わるハードウェアの構成情報を取得し、前記現用サーバに備わるハードウェアと前記予備サーバに備わるハードウェアとの対応の情報を取得する対応関係取得ステップと、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバを決定する予備サーバ決定ステップと、前記決定された予備サーバに論理区画を構築する区画構築ステップと、前記現用サーバで稼動していた業務を、前記決定された予備サーバに構築された前記論理区画に引き継ぐ引き継ぎステップと、を備える。
【選択図】図1

Description

本発明は、計算機システムのサーバで障害が発生した際にサーバを交替し障害を回復する方法に関する。
複数のサーバを備える計算機システムにおいて、業務を稼動中のサーバ(現用サーバ)で障害が発生した場合、現用サーバで稼動中の業務が停止するため、別のサーバに交替し、業務を引き継ぐことによって、業務の停止時間を削減し、計算機システムの可用性を向上する方法がある。
例えば、現用サーバで障害が発生すると、障害が発生した現用サーバが利用していたブートディスク(論理ユニット)を、業務を稼動中でない予備サーバが引き継いで起動することによって、障害が発生したサーバの業務を別のサーバへと引き継ぐ障害回復方法がある。この方法では、計算機システムに複数の現用サーバが存在する場合に、どの現用サーバで障害が発生しても、障害が発生した現用サーバのブートディスクを予備サーバが引き継ぐことによって障害の回復が可能であり、多数の現用サーバに対して少数の予備サーバを準備することによって、高い信頼性を得ることができる。また、予備サーバに予めOS等のソフトウェアを構築しておく必要はない。すなわち、ホットスタンバイ等の障害回復方法に比べて、予備サーバを構築する必要がない。
特開2006−163963号公報
前述した従来のサーバの引継方法では、現用サーバのブートディスクを、予備サーバがそのまま引き継ぐため、現用サーバで稼動していたOSやソフトウェアの設定は、予備サーバにもそのまま引き継がれることとなる。このため、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合、OSやソフトウェアのハードウェアやネットワークに依存する設定が、現用サーバと予備サーバとでは一致しない。このような場合に、予備サーバでOSやソフトウェアが正常に動作せずに、現用サーバで稼動していた業務を回復できない問題がある。
本発明は、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合であっても、現用サーバの利用していたブートディスクをそのまま予備サーバに引き継ぎブートすることで、現用サーバで稼動していた業務を回復することができる計算機システムを提供することを目的とする。
本発明の代表的な一例を示せば以下の通りである。すなわち、業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムにおいて実行され、前記現用サーバでの障害発生時に、前記予備サーバへ業務を引き継ぐために、前記管理サーバで実行される障害回復方法であって、前記予備サーバ上には、一つ以上の論理区画が構築され、前記予備サーバは、前記構築された各論理区画においてオペレーティングシステム上で実行されるリソースマッピングプログラムを含み、前記方法は、前記現用サーバ及び前記予備サーバに備わるハードウェアの構成情報を取得し、前記現用サーバに備わるハードウェアと前記予備サーバに備わるハードウェアとの対応の情報を取得する対応関係取得ステップと、前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバを決定する予備サーバ決定ステップと、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記決定された予備サーバに論理区画を構築する区画構築ステップと、前記現用サーバで稼動していた業務を、前記決定された予備サーバに構築された前記論理区画に引き継ぐ引き継ぎステップと、を備える。
本発明の障害回復方法によると、業務が稼動している現用サーバで障害が発生した場合に、現用サーバが利用していたブートディスクを、業務が稼動していない予備サーバが引き継いでブートすることで業務を回復することができる。特に、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合であっても、ユーザがブートディスクの内容を変更することなく、業務が稼動するサーバを引き継ぐことができる。
また、本発明の障害回復方法によると、異なるハードウェア構成のサーバ間で、稼動している業務を移動できることから、サーバのハードウェアの保守を容易にできる。
第1の実施の形態の計算機システムの全体の構成を示すブロック図である。 第1の実施の形態のサーバの構成を示すブロック図である。 第1の実施の形態の管理サーバの構成を示すブロック図である。 第1の実施の形態の障害回復プログラムの構成を示す図である。 第1の実施の形態のハードウェア構成テーブルの構成を示す図である。 第1の実施の形態のリマッピングテーブルの構成を示す図である。 第1の実施の形態のリソースマッピングプログラムが、サーバで実行されている状態を示すブロック図である。 第1の実施の形態のリソースマッピングプログラムによるハードウェア構成要素の論理区画への割り当ての概念を示す図である。 第1の実施の形態のリソースマッピングプログラムの構成を示す図である。 第1の実施の形態のリソースマッピングテーブルの構成を示す図である。 第1の実施の形態の識別子変換テーブルの構成を示す。 第1の実施の形態のサーバの引き継ぎ動作の全体を示すシーケンスである。 第1の実施の形態の構成取得サブプログラムによる処理のフローチャートを示す。 第1の実施の形態の契機検知サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のリマッピングサブプログラムによる処理のフローチャートを示す。 第1の実施の形態の論理区画構築サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のブートイメージ引継サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のリソースマッピングプログラムによる論理区画ブート処理のフローチャートを示す。 第2の実施の形態の障害回復プログラムの構成を示す図である。 第2の実施の形態のネットワーク構成テーブルの構成を示す図である。 第2の実施の形態の構成取得サブプログラムによる処理のフローチャートを示す。 第2の実施の形態のリマッピングテーブルの構成を示す図である。
以下、本発明の実施の形態を図面を参照して説明する。
<第1実施形態>
図1は、本発明の第1の実施の形態の計算機システムの全体の構成を示すブロック図である。
第1の実施の形態の計算機システムは、管理サーバ101、複数のサーバ102A〜C、外部ディスク装置103、スイッチ104及び管理ネットワークスイッチ105を備える。
管理サーバ101は、障害回復プログラム110を実行することによってサーバ102A〜Cに生じた障害を回復する。障害回復プログラム110は、サーバ102A〜Cで障害が発生した場合に、障害が発生したサーバを別のサーバへ切り替え、障害発生サーバの業務を回復する。
サーバ102A〜Cは、プログラムを実行することによって、所定の業務を提供する。各サーバ102A〜Cは、それぞれハードウェア構成が異なっていてもよい。
外部ディスク装置103は、サーバ102A〜Cによって使用されるデータを格納する。外部ディスク装置103は、たとえば複数のディスクを備えるディスクアレイ装置であっても、ファイルサーバであってもよい。外部ディスク装置103は、サーバ102A〜Cに論理ユニット131を提供する。論理ユニット131には、サーバ102A〜CがOSやアプリケーションを起動するために必要なプログラムやパラメータを保持するブートイメージ、及び、起動されたアプリケーションによって使用されるデータが格納される。外部ディスク装置103やスイッチ104のセキュリティ設定によって、各サーバ102A〜Cから、論理ユニット131へのアクセスを制限してもよい。論理ユニット131は、複数存在してもよい。
スイッチ104は、サーバ102A〜Cと外部ディスク装置103とを接続して、ネットワークを構成する。スイッチ104は、例えば、ファイバチャネルプロトコルを扱うSANスイッチの他、イーサネットプロトコル(I−SCSI、NFS等のプロトコル)を扱うスイッチを使用することができる。これによって、各サーバ102A〜Cは、外部ディスク装置103の論理ユニット131にアクセスできる。但し、サーバ102A〜Cが、スイッチ104を介さず、外部ディスク装置103に直接接続されていてもよい。
管理ネットワークスイッチ105は、管理サーバ101とサーバ102A〜Cとを接続して、管理用ネットワークを構成する。管理用ネットワークは、例えば、イーサネット(登録商標、以下同じ)を使用することができる。
図2は、本発明の第1の実施の形態のサーバ102Aの詳細な構成を示すブロック図である。なお、サーバ102Aについて説明するが、他のサーバ102B〜Cも同様の構成を備える。
サーバ102Aは、プログラムやデータを格納するメモリ201、メモリ201に格納されたプログラムを実行する一つ以上のCPU202、各種デバイスとの間のバスを制御するチップセット203、NIC(Network Interface Card)205及びHBA(Host Bus Adaptor)206等のI/Oデバイス、補助記憶装置208、補助記憶装置208のコントローラ207、BMC(Baseboard Management Controller)209等を備える。なお、サーバ102Aは図中に含まれる全ての構成要素を必ずしも含む必要はない。
CPU202は、一つ以上のコアを備え、ソケットに実装される。なお、CPU202のコア毎にスレッドが存在してもよい。HBA206は、ファイバチャネル、SCSI、又はiSCSI等のプロトコルを用いて、外部ディスク装置と通信する。BMC209は、主にサーバ102Aのハードウェアの稼動状態を監視し、ハードウェアの動作を制御する。例えば、BMC209は、外部から、サーバ102Aの電源ON又はOFFを制御したり、サーバ102Aの障害を検出し、検出された障害を外部に通知する。
サーバ102Aの構成要素には、各構成要素を一意に識別する識別子が付されている。具体的には、図中の例では、CPU及びコアを識別するための識別子として、ソケット番号及びコア番号(211)、メモリを識別するための識別子として、アドレス及びモジュール番号(212)、デバイス(例えば、PCIデバイス)を識別するための識別子として、バス番号、デバイス番号及び機能番号(213)が付されている。
図3は、本発明の第1の実施の形態の管理サーバ101の詳細な構成を示すブロック図である。
管理サーバ101は、障害回復プログラム110を格納するメモリ301、メモリ301に格納されたプログラムを実行する一つ以上のCPU302、管理NW−SW105と接続するNIC303及び管理サーバ101に情報を入出力する入出力装置304を備える。
入出力装置304は、マウスやキーボード等の入力装置及びディスプレイ等の表示装置が接続される。さらに、入出力装置304は、USBメディア等の記憶装置や、外部記憶装置等を接続してもよい。そして、管理サーバ101が、入出力装置304を介して記憶装置に保存されたデータを読み書きしてもよい。
なお、管理サーバ101は、ハードディスク等の補助記憶装置を備えてもよい。
図4は、本発明の第1の実施の形態の障害回復プログラム110の詳細な構成を示す図である。
障害回復プログラム110は、構成取得サブプログラム401、契機検知サブプログラム402、リマッピングサブプログラム403、論理区画構築サブプログラム404、ブートイメージ引継サブプログラム405、ハードウェア構成テーブル410及びリマッピングテーブル411を含む。なお、ハードウェア構成テーブル410及びリマッピングテーブル411は、障害回復プログラム110と別に構成されてもよい。各サブプログラム及びテーブルの詳細は後述する。
図5は、本発明の第1の実施の形態のハードウェア構成テーブル410の詳細な構成を示す図である。
ハードウェア構成テーブル410は、サーバ識別子フィールド(カラム501)、用途フィールド(カラム502)、CPU構成フィールド(カラム503)、メモリ構成(カラム504)及びデバイス構成(カラム505)を含み、各サーバ102のハードウェアの構成を示す。
サーバ識別子フィールド501には、サーバを一意に識別する識別子が格納される。
用途フィールド502には、カラム501によって特定されるサーバの用途が格納される。具体的には、用途フィールド502には、サーバが業務を稼動中の現用サーバである場合は「現用」が記録される。また、現用サーバで障害が発生した場合に、現用サーバで稼動中であった業務を回復するために、交替先となる予備サーバは「予備」が記録される。これら以外にも、既に交替済みの予備サーバであったり、何らかの理由で利用不可能である場合等、サーバの様々な状態を記録することもできる。
CPU構成フィールド503には、カラム501によって特定されるサーバに備わるCPUの構成及び当該CPUの識別子が格納される。例えば、CPU構成フィールド503は、「<ソケット番号>:<CPU名称> <コア番号>」の形式で記録される。具体的には、ソケット番号が0、CPU名称が「IX306」、コア番号が0であれば、「0:IX306 0」が記録される。
メモリ構成504は、カラム501によって特定されるサーバに備わるメモリの構成及び当該メモリの識別子が格納される。例えば、メモリ構成504は、「<モジュール番号>:アドレス範囲」の形式で記録される。
デバイス構成505は、カラム501によって特定されるサーバに備わるデバイスの構成及び当該デバイスの識別子が格納される。例えば、デバイス構成505は、「<バス番号>:<デバイス番号>:<デバイス名称> <機能番号>(<固有ID>)」の形式で記録される。また、バス番号、デバイス番号及びデバイス名称が同一で、機能番号が異なるデバイスが複数存在する場合には、「/」により区分して追記されている。具体的には、バス番号が0、デバイス番号が0、デバイス名称が「NIC」、機能番号が0、固有IDが「MAC1」であれば、「0:0:NIC 0(MAC1)」が記録される。
なお、本テーブルに記録されるハードウェア構成は、必要に応じて、追加しても、削除してもよい。
図6は、本発明の第1の実施の形態のリマッピングテーブル411の詳細な構成を示す図である。図6は、図5に示したサーバ識別子「S1」の現用サーバのリマッピングテーブルを例示す。
リマッピングテーブル411は、ハードウェアフィールド(カラム601)、現用サーバフィールド(カラム602)及び予備サーバフィールド(カラム603及びカラム604)を含み、計算機システムの現用サーバのハードウェア構成要素と、予備サーバのハードウェア構成要素との対応関係を示す。なお、本テーブルは計算機システムの現用サーバ台数分作成される。
ハードウェアフィールド601は、サーバのハードウェアの種類を示し、例えば、サーバに搭載されるCPU、メモリ及びデバイス(NIC、HBA等)を示す。
現用サーバフィールド602、予備サーバフィールド603及び予備サーバフィールド604は、それぞれ、サーバ識別子「S1」、「S5」、「S6」によって特定されるサーバに搭載されたハードウェア構成要素を示す。
ハードウェア構成要素は、ハードウェア構成テーブル410(図5参照)と同じ識別子を用いて、リマッピングテーブル411に保持される。リマッピングテーブル411の同一の行(レコード)に記録されるハードウェア構成要素は、それぞれ対応関係にあり、サーバ交替時に利用される。本図に示す例では、サーバ識別子「S1」のデバイス「1:0:HBA 0」は、サーバ識別子「S5」のデバイスの「2:0:HBA 0」、及びサーバ識別子「S6」のデバイスの「1:0:HBA 1」に対応することを示す。また、カラム602、603及び604に定められた各ハードウェア構成要素は、カラム601のハードウェアの種類ごとに分類されているが、特に分類が必要なければカラム601を設けなくてもよい。
同一のハードウェア構成要素が共有ハードウェアとなる場合には、共有ハードウェアであることを示す情報が追加的にテーブルに保持される。図に示す例では、共有ハードウェアには「(share)」が追加的に保持される。なお、予備サーバが、対応するハードウェア構成要素が備えない場合は、対応するハードウェア構成要素が存在しないことを示す情報(「Not exist」等)がテーブルに追加的に保持される。
さらに、予備サーバ上のハードウェア構成要素がすでに利用されている状態(例えば、論理区画に利用されている状態等)では、当該ハードウェア構成要素が利用中であることを示す情報(「(In use)」等)がテーブルに追加的に保持される。
また、予備サーバ上にハードウェア構成要素のエミュレーション機能を備える場合には、該等ハードウェア構成要素の項目にエミュレーション可能であることを示す情報、例えば「(emu)」を追加する。ここで、エミュレーション機能とは、例えばCPUのアーキテクチャが現用サーバと予備サーバとで異なる場合に、予備サーバで現用サーバのCPU命令を変換する機能である。
なお、リマッピングテーブル411は、サーバに搭載された全てのハードウェア構成要素の対応関係を保持する必要は必ずしもない。
図7は、本発明の第1の実施の形態のリソースマッピングプログラム701が、サーバ102Aで実行されている状態を示すブロック図である。なお、図2と同様に、サーバ102Aについて説明するが、他のサーバ102B〜Cも同じである。
リソースマッピングプログラム701はメモリ201に保持され、CPU202によって実行される。
リソースマッピングプログラム701は、サーバ102Aに備わるCPU202、メモリ201、NIC205、HBA206等のハードウェア構成要素の一部又は全部を、論理区画にマッピングする機能を備える。この機能によって、サーバ102Aに仮想的なサーバを構築することができる。
また、1又は複数の論理区画を構築することができる。さらに、一つのハードウェア構成要素を複数の論理区画で共有することができる。例えば、一つのCPUコアを複数の論理区画で時分割で共有してもよい。また、一つのハードウェア構成要素を各論理区画に占有させることもできる。このようにして、一つのサーバ上に一つ以上の論理区画を構築し、論理区画毎に独立してOSを実行することができる。
また、リソースマッピングプログラム701は、各ハードウェア構成要素の識別子を変換することもできる。これにより、論理区画上で実行されるOS等のソフトウェアに認識されるハードウェア構成要素の識別子を、任意の識別子に変換することができる。
なお、リソースマッピングプログラム701はハードウェアによって実装し、すなわち、サーバ102Aのハードウェア構成要素として追加してもよい。例えば、リソースマッピングプログラム701を、チップセット203の一つの機能として、チップセット203に実装する等である。
また、リソースマッピングプログラム701は、サーバ上で実行されるのではなく、スイッチのコントローラ上で実行されてもよい。例えば、Infinibandスイッチ等を用いると、リソースマッピングプログラム701をスイッチで実行することができる。
図8は、本発明の第1の実施の形態のリソースマッピングプログラム701によるハードウェア構成要素の論理区画への割り当ての概念を示す図である。
論理区画1(810)は、グループ801に含まれるハードウェアである、CPUコア1(811)、メモリ1(821)、NIC1(831)及びHBA1(841)が割り当てられている。同様に、グループ802及びグループ803は、それぞれ、論理区画820及び830へのハードウェア構成要素の割り当てを示す。
ここで、グループ802及びグループ803は共にNIC3(833)を含んでいる。これは、論理区画820と論理区画830とがNIC3(833)を共有していることを示す。
また、単一のグループにのみ属するハードウェア構成要素は、その論理区画に占有されていることを示す。
図9は、本発明の第1の実施の形態のリソースマッピングプログラム701の構成を示す図である。
リソースマッピングプログラム701は、リソースマッピングサブプログラム901、識別子変換サブプログラム902、リソースマッピングテーブル910及び識別子変換テーブル911を含む。なお、リソースマッピングテーブル910及び識別子変換テーブル911は、リソースマッピングプログラム701と別に構成されてもよい。各サブプログラム及びテーブルの詳細は後述する。
図10は、本発明の第1の実施の形態のリソースマッピングテーブル910の構成を示す図である。
リソースマッピングテーブル910は、論理区画識別子フィールド(カラム1001)、ハードウェアフィールド(カラム1002)及びマッピングフィールド(カラム1003)を含み、各論理区画に割り当てられるハードウェア構成要素の識別子を示す。
論理区画識別子フィールド1001には、論理区画の識別子が保持される。ハードウェアフィールド1002には、ハードウェアの種類が保持される。マッピングフィールド1003には、カラム1001によって特定される論理区画に割り当てられるハードウェア構成要素の識別子が保持される。
ハードウェア構成要素は、ハードウェア構成テーブル410(図5参照)と同じ識別子を用いて、リソースマッピングテーブル910に保持される。また、マッピングフィールド1003は、ハードウェアフィールド1002によって定められるハードウェアの種類毎に分類されるが、特に分類が必要なければカラム1002を設けなくてもよい。
論理区画に割り当てられるハードウェア構成要素が複数の論理区画で共有されるハードウェアである場合には、共有ハードウェアであることを示す情報(例えば、「(share)」等)がテーブルに追加的に保持される。
なお、本テーブルは論理区画に割り当てられる全てのハードウェア構成要素について保持する必要は必ずしもない。
図11は、本発明の第1の実施の形態の識別子変換テーブル911の構成を示す。
識別子変換テーブル911は、論理区画識別子フィールド(カラム1101)、ハードウェアフィールド(カラム1102)、識別子フィールド(カラム1103)及び変換後の識別子フィールド(カラム1104)を含む。
論理区画識別子フィールド1101には、論理区画の識別子が保持される。ハードウェアフィールド1102には、ハードウェアの種類が保持される。
識別子フィールド1103には、リソースマッピングテーブル910(図10参照)と同じ識別子を用いて、カラム1101によって特定される論理区画に割り当てられるハードウェア構成要素の識別子が保持される。識別子フィールド1103に保持される識別子は、リソースマッピングプログラム701から認識できるサーバに搭載する物理的なハードウェア(実ハードウェア)構成要素の識別子である。
変換後の識別子フィールド1104には、識別子フィールド1103によって特定されるハードウェア構成要素の識別子の変換後の識別子が保持される。変換後の識別子フィールド1104に保持される識別子は、論理区画で実行されるOS等のソフトウェアから認識される論理区画上のハードウェア構成要素の識別子である。
また、カラム1103及びカラム1104に保持される識別子は、カラム1102に対応してハードウェアの種類毎に分類されるが、特に分類が必要なければカラム1102を設けず、ハードウェアの種類毎に分類されなくてもよい。
本図に示す例では、論理区画「L1」に割り当てられる実ハードウェアの識別子「2:0:HBA 0」は、論理区画上の識別子として「1:0:HBA 0」に変換されることを示す。
また、ハードウェア構成要素に固有IDが存在する場合には、論理区画で実行されるOS等のソフトウェアから見える論理区画上のハードウェア構成要素に固有のIDを変換することができる。このため、ハードウェア構成要素に固有のIDが存在する場合には、カラム1103及びカラム1104の該当する項目にハードウェアに固有のIDが追加される。例えば、本図に示す例では、識別子の下に記載された「MAC7」がハードウェアに固有のIDであり、論理区画上の固有IDとしては「MAC1」に変換されることを示す。ただし、固有IDの変換が不要な場合には、固有IDの情報を項目に追加しなくてよい。
なお、本テーブルは論理区画に割り当てられる全てのハードウェア構成要素についての対応関係を必ずしも保持する必要はない。
図12は、本発明の第1の実施の形態のサーバの引き継ぎ動作の全体を示すシーケンスである。図示されるシーケンスは、現用サーバ1201、予備サーバ1202及び障害回復プログラム1203(管理サーバ101)によって実行される処理である。
ステップ1211では、障害回復プログラム1203が、計算機システムのハードウェア構成情報を取得し、ステップ1212で、リマッピングテーブルを作成する。
次に、ステップ1213で、現用サーバ1201で障害が発生すると、ステップ1214で、障害回復プログラムが現用サーバ1201の障害発生を検知し、ステップ1215以降の障害回復シーケンスを開始する。なお、障害回復シーケンスは、現用サーバ1201で障害が発生した契機以外に、例えばオペレータの指示によって実行してもよい。ステップ1215では、現用サーバ1201に電源OFFを要求する。
ステップ1216では、現用サーバ1201が、障害回復プログラム1203からの電源OFF要求を受けると、電源遮断する。ただし、電源遮断でなく、シャットダウン処理、スタンバイモードへの移行又はハイバネーションモードへの移行であってもよい。
現用サーバ1201の電源遮断(ステップ1216)が完了すると、次に、ステップ1217では、障害回復プログラム1203は、交替先の予備サーバ1202を決定する。なお、現用サーバ1201の電源遮断完了後に、交替先の予備サーバ1202を決定するものとしたが、現用サーバ1201の電源遮断より前に、交替先の予備サーバ1202を決定してもよい。この場合、論理区画の起動(ステップ1224)までに現用サーバ1201の電源遮断が完了すればよい。このため、論理区画を起動(ステップ1224)する前に現用サーバ1201の電源が遮断されているか否かを確認する。
その後、ステップ1218では、現用サーバ1201と予備サーバ1202のハードウェアのリマッピングを実施し、予備サーバ1202に構築される論理区画の構成を決定する。その後、ステップ1219では、予備サーバ1202に対してリソースマッピングプログラム701の起動を要求する。
ステップ1220では、予備サーバ1202の電源を投入し、予備サーバ1202上でリソースマッピングプログラム701を起動する。ただし、予備サーバ1202が既に動作しており、かつ、リソースマッピングプログラム701が実行されている場合には、ステップ1220はスキップしてよい。
リソースマッピングプログラム701の起動(ステップ1220)が完了すると、ステップ1221で、障害回復プログラム1203は、リソースマッピングプログラム701に対して、ステップ1218で決定した論理区画の構成に基づいて、予備サーバ1202上での論理区画の構築を要求する。
ステップ1222では、予備サーバ1202のリソースマッピングプログラム701は論理区画の構築要求を受け、論理区画を構築する。
論理区画の構築(ステップ1222)が完了すると、ステップ1223では、障害回復プログラム1203は、現用サーバ1201が利用していた論理ユニット131を予備サーバ1202上の論理区画に引き継ぎ、予備サーバ1202のリソースマッピングプログラムに対して論理区画のブートを要求する。ただし、ここで論理区画のブートを要求せず、後で手動等の方法によってブートしてもよい。
ステップ1224では、予備サーバ1202は、リソースマッピングプログラムは論理区画のブート要求を受け、論理区画が引き継いだ論理ユニット131に含まれるブートイメージを用いて、論理区画を起動(ブート)する。その結果、ステップ1215では、予備サーバ1202の論理区画は現用サーバ1201の業務を引き継ぐ。
さらに、図12に示したシーケンスをより詳細に説明する。
図13は、本発明の第1の実施の形態の障害回復プログラム110の構成取得サブプログラム401による処理のフローチャートを示し、図12のステップ1211からステップ1212に対応する。
ステップ1301では、計算機システムの各サーバのハードウェア構成情報を取得し、取得した情報に基づいてハードウェア構成テーブル410を作成する。各サーバのハードウェア構成情報は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでハードウェア構成情報取得プログラムを実行させて、ハードウェア構成情報を取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。取得されるハードウェア構成情報は、例えば、ハードウェア構成テーブル410(図5参照)に含まれる情報である。
次に、ステップ1302では、リマッピングテーブル411を作成する。リマッピングテーブル411は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでハードウェア構成情報取得プログラムを稼動させて、ハードウェア構成情報を取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。
ただし、ハードウェア構成テーブル410等を参照することによって、現用サーバと予備サーバとのハードウェア構成要素の対応関係が一意な場合には、リマッピングテーブル411の一部又は全部を自動的に作成することもできる。これは、例えば、現用サーバと予備サーバが同一のハードウェア構成であったり、各サーバの型番やシリアル番号等からサーバのハードウェア構成を特定でき、あらかじめ各サーバのハードウェア構成要素の対応関係が決まっている場合等である。
ここで、取得及び入力するハードウェア構成情報は、例えばハードウェア構成テーブル411(図6参照)に含まれる情報である。なお、障害回復プログラム110には、各サーバ間のハードウェア構成要素の対応関係をルールとして定義するリマッピングルールテーブルを作成することもできる。リマッピングルールテーブルでは、例えば、「現用サーバより予備サーバのCPU数少ない場合には、予備サーバのCPUの一部を共有CPUとする」ルールや、「現用サーバのバス番号0のデバイスは、予備サーバのバス番号1のデバイスに対応する」ルール等、任意のルールを登録できる。
そして、ステップ1302においてリマッピングテーブル411を作成する際には、このリマッピングルールテーブルに基づいて、自動的に各サーバ間のハードウェア構成要素の対応関係を決定し、リマッピングテーブル411の一部又は全部を自動作成することができる。ここで、リマッピングルールテーブルに登録されるルールは、例えば、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。
図14は、本発明の第1の実施の形態の障害回復プログラム110の契機検知サブプログラム402による処理のフローチャートを示し、図12のステップ1214からステップ1215に対応する。
ステップ1401では、サーバの障害発生を検知する。サーバの障害は、例えばサーバに備わるBMC等からの通知、及び/又は、サーバ上で実行される障害検知プログラムからの通知によって検知する。また、サーバだけでなく、計算機システムを構成する機器のうち、何れかで障害が発生した場合にも障害回復処理を実行してもよい。さらに、障害が発生した契機だけでなく、例えば、障害回復プログラム110のGUI等から、ユーザが現用サーバから予備サーバへの交替を指示する要求を操作をした契機であってもよい。
ステップ1402では、障害回復処理を実行するか否かを判定する。ここで障害回復処理とは、図12のステップ1214以降に示した、現用サーバから予備サーバへのサーバ交替処理である。ステップ1402の判定では、障害の影響によって、現用サーバで実行中のOSやアプリケーション等が続行不可能な場合には、障害回復処理を実行すると判定し、ステップ1403に移る。一方、障害回復処理を実行すると判定されない場合は、契機検知処理を終了する。障害回復処理を実行しない場合とは、障害回復処理を実行しても障害が回復しないと推定される場合、及び、一時的な障害であって何もせずに復旧が見込まれる場合である。
なお、ユーザが現用サーバを予備サーバに交替する要求を障害回復プログラム110に入力した場合は、無条件にステップ1403に移る。また、前述した条件に限らず、ユーザが判定条件を任意に設定してもよい。
ステップ1403では、障害発生した現用サーバの電源OFFを現用サーバに要求し、電源遮断の完了後にステップ1404に移る。ここで、現用サーバの電源遮断は、NICのWake On Lan機能を利用したり、サーバ外部からのサーバの電源制御が可能なコントローラ(例えば、BMC等)に対して要求してもよい。また、現用サーバ上で実行される電源制御プログラムに対して電源遮断を要求してもよい。また、電源遮断だけでなく、サーバのシャットダウン、ハイバネーション又はスタンバイ等を要求することもできる。
なお、現用サーバ上で複数の論理区画が稼動する場合には、まず現用サーバ上で実行されれリソースマッピングプログラム701に対して全ての論理区画の停止を要求し、全ての論理区画の停止完了後に、現用サーバの電源を遮断する。なお、論理区画の停止だけでなく、シャットダウン、ハイバネーション又はスタンバイ等を要求することもできる。
ステップ1404では、リマッピングサブプログラム403による処理へ移る。リマッピングサブプログラム403による処理への移行は、現用サーバ1201の電源遮断完了後であっても、現用サーバ1201の電源遮断より前でもよい。現用サーバ1201の電源遮断より前にリマッピングサブプログラム403による処理へ移行した場合、論理区画の起動要求(ステップ1702)までに現用サーバ1201の電源遮断が完了すればよい。
図15は、本発明の第1の実施の形態の障害回復プログラム110のリマッピングサブプログラム403による処理のフローチャートを示し、図12のステップ1217からステップ1218に対応する。
ステップ1501では、ハードウェア構成テーブル410を参照して、現用サーバのハードウェア構成を取得する。なお、現用サーバで複数の論理区画が稼動している場合には、現用サーバのリソースマッピングプログラム701が全ての論理区画のリソースマッピングテーブル910を取得する。
ステップ1502では、現用サーバのリマッピングテーブル411を取得する。
ステップ1503では、交替する予備サーバを決定する。具体的には、ステップ1502で取得したリマッピングテーブル411を参照し、交替が可能な予備サーバを検索する。
交替が可能な予備サーバとは、リマッピングテーブル411において、現用サーバの全てのハードウェア構成要素に対応するハードウェア構成要素を備え、かつその全てのハードウェア構成要素が利用可能な状態である予備サーバである。例えば、図6に示すリマッピングテーブル411の予備サーバのカラムのうち、全ての項目において存在しない「Not exist」、又は、利用中「(In use)」を示す情報が存在しないカラムに対応する予備サーバを示す。
交替が可能な予備サーバが複数存在する場合には、現用サーバと予備サーバとでハードウェア構成要素の識別子が最も多く一致する予備サーバを優先的に選択する。次に、その予備サーバに交替した場合に、共有されるハードウェア構成要素が少ない予備サーバを優先的に選択する。例えば、リマッピングテーブル411の当該予備サーバのカラムのうち、項目に共有を示す情報「(share)」が少ない予備サーバを選択する。また、現用サーバと予備サーバとで、対応関係にあるハードウェア構成要素に互換性がない場合には、その予備サーバは交替の対象としない。しかし、現用サーバのハードウェア構成要素が、予備サーバでエミュレーション可能である場合には、その予備サーバを交替の対象とすることができる。
さらに、現用サーバのハードウェア構成要素に対応するハードウェア構成要素の一部を備えていない予備サーバであっても、交替が可能である。例えば、現用サーバが2つのNICを備え、それらをチーミング等の機能を用いて冗長化して利用しており、交替先となる予備サーバが一つのNICを備える場合等である。すなわち、冗長的なハードウェア構成要素以外のハードウェア構成要素を備える予備サーバが選択される。
なお、予備サーバの決定条件は、前述した条件以外に、ユーザが設定した任意の条件で決定してもよい。
ステップ1504では、ステップ1503で決定した予備サーバに構築される論理区画の構成を決定する。ただし、現用サーバと予備サーバのハードウェア構成が一致している等、予備サーバに論理区画を構築する必要がない場合には、ステップ1504はスキップできる。ここで、論理区画の構築とは、リソースマッピングテーブル910及び識別子変換テーブル911に、予備サーバの論理区画の情報を作成することである。
これらの情報を作成するため、ステップ1501及びステップ1502で取得した現用サーバに関するハードウェア構成テーブル410及びリマッピングテーブル411の情報が利用される。まず、リソースマッピングテーブル910を作成するため、リマッピングテーブル411の当該予備サーバのカラムの全ての項目を抽出し、当該論理区画に割り当てるハードウェア構成要素とする。
例えば、図6に示したリマッピングテーブル411において、サーバ識別子「S1」の現用サーバから「S5」の予備サーバに交替する場合には、「S5」に対応するカラム603を抽出し、それらの情報を論理区画「L1」に割り当てるハードウェア構成要素とすることによって、図10に示したリソースマッピングテーブル910の論理区画「L1」に対応するテーブルを作成することができる。
なお、現用サーバに論理区画が存在する場合には、現用サーバに存在する全ての論理区画に対応する予備サーバのリソースマッピングテーブル910を作成する。
次に、識別子変換テーブル911を作成するため、リマッピングテーブル411の予備サーバのカラムを識別子変換テーブル911の「識別子」のカラムとし、リマッピングテーブル411の現用サーバのカラムを識別子変換テーブル911の「変換」のカラムとする。例えば、図6に示したリソースマッピングテーブル411において、サーバ識別子「S1」の現用サーバから「S5」の予備サーバに交替する場合には、「S5」に対応するカラム603及び「S1」に対応するカラム602を抽出し、それぞれを識別子変換テーブル911の「識別子」及び「変換」カラムとすることによって、図11に示す識別子変換テーブル911を作成することができる。
さらに、ハードウェア構成要素の固有ID、例えば、MACアドレス、WWN(World Wide Name)及びUUID等を現用サーバから予備サーバへ引き継ぐ場合には、ハードウェア構成テーブル410を利用して、作成した識別子変換テーブル911の該当するハードウェア構成要素に固有IDの情報を追加する。例えば、図5に示すハードウェア構成テーブル410の現用サーバ「S1」のNICのMACアドレスが「MAC1」であり、対応する予備サーバ「S5」のNICのMACアドレスが「MAC7」であるので、図11の識別子変換テーブル911において、カラム1103の該当項目に「(MAC7)」、カラム1104の該当項目に「(MAC1)」を追加する。これによって、予備サーバの該等NICの固有IDは「MAC7」から「MAC1」に変換される。
なお、固有IDの変換が不要な場合には固有IDの情報を追加しなくてもよい。予備サーバで構築される論理区画のリソースマッピングテーブル910及び識別子変換テーブル911の作成が完了すると、ステップ1505に移る。
ステップ1505では、論理区画構築サブプログラム404による処理へ移る。
図16は、本発明の第1の実施の形態の障害回復プログラム110の論理区画構築サブプログラム404による処理のフローチャートを示し、図12のステップ1219からステップ1222に対応する。
ステップ1601では、リマッピングサブプログラム403による処理で作成した予備サーバで構築される論理区画のリソースマッピングテーブル910及び識別子変換テーブル911の情報を取得する。
ステップ1602では、予備サーバの電源を投入し、予備サーバを起動する。ここで、予備サーバの電源ONは、NICのWake On Lan機能に利用したり、サーバ外部からのサーバの電源制御が可能なコントローラ(例えば、BMC等)に対して要求してもよい。なお、予備サーバが既に電源が投入されている場合には、ステップ1602はスキップする。予備サーバの電源ONが完了すると、次のステップへと移行する。
ステップ1603では、予備サーバでリソースマッピングプログラム701を起動する。例えば、NICのPXEブート機能を利用し、障害回復プログラム110がリソースマッピングプログラム701をネットワークを介して配布して、リソースマッピングプログラム701を起動してもよい。また、予備サーバが備える補助記憶装置に格納された情報から起動してもよい。また、リソースマッピングプログラム701が予め予備サーバに組み込まれており、予備サーバの電源ONに伴い自動的にリソースマッピングプログラム701を起動できる場合には、ステップ1603をスキップしてもよい。予備サーバでリソースマッピングプログラム701が起動すると、次のステップへと移行する。
ステップ1604では、予備サーバ上に論理区画を構築する。ここで、予備サーバに構築される論理区画は、ステップ1603で起動したリソースマッピングプログラム701に、ステップ1601で得たリソースマッピングテーブル910及び識別子変換テーブル911の情報を受け渡し、論理区画の構築を要求する。
論理区画の構築が完了すると、リマッピングテーブル411の情報のうち、構築した論理区画に割り当てたハードウェア構成要素の項目に対して利用中である旨を示す「(In use)」の情報を追加し、次のステップへと移る。なお、ハードウェア構成要素が複数の論理区画で共有される場合には、利用中である旨の情報の追加は不要である。
ステップ1605では、ブートイメージ引継サブプログラム405による処理へ移る。なお、現用サーバと予備サーバのハードウェア構成が同一の場合など、予備サーバに論理区画を構築する必要がない場合には、ステップ1601からステップ1604はスキップする。
図17は、本発明の第1の実施の形態の障害回復プログラム110のブートイメージ引継サブプログラム405による処理のフローチャートを示し、図12のステップ1223からステップ1224に対応する。
ステップ1701では、論理区画構築サブプログラム404によって構築された予備サーバの論理区画に対して現用サーバの論理ユニット(ブートディスク)を引き継ぐ。論理ユニットを引き継ぐ方法は、例えば、現用サーバの利用していた外部ディスク装置のセキュリティ設定を変更し、ブートディスクを予備サーバの該当論理区画からアクセス可能とする方法や、予備サーバの論理区画からアクセス可能な外部ディスク装置のディスクや予備サーバの補助記憶装置に対して現用サーバのブートイメージをコピーする方法がある。
なお、現用サーバで一つ以上の論理区画が稼動している場合等、複数の論理ユニットが存在する場合には、全ての論理ユニットを、予備サーバの対応する論理区画に引き継ぐ。
また、ハードウェア構成要素の固有IDを引き継ぐことによって論理ユニットの引き継ぎが可能な場合には、ステップ1701はスキップしてもよい。これは、例えば、HBAのWWNを現用サーバから予備サーバへ引き継ぐことによって、WWNに基づくセキュリティ設定を変更しなくても良い場合等である。
また、論理区画構築サブプログラム404によって予備サーバに論理区画が構築されなかった場合には、同じ方法によって予備サーバに対して論理ユニットを引き継ぐ。さらに、必要であれば、現用サーバ側のEFIやBIOS等の設定情報も、予備サーバの論理区画上のEFIやBIOSに引き継ぐ。論理ユニットの引き継ぎが完了すると、次のステップへと移る。
ステップ1702では、予備サーバの該当する論理区画の起動要求をリソースマッピングプログラム701に要求する。ただし、論理区画構築サブプログラム404によって予備サーバに論理区画が構築されなかった場合には、本ステップで予備サーバの電源投入を要求し、予備サーバの電源投入が完了すると終了する。
図18は、本発明の第1の実施の形態のリソースマッピングプログラム701による論理区画ブート処理のフローチャートを示し、図12のステップ1225に対応する。
まず、ステップ1801で、論理区画1800のブート要求を受け付ける。
ステップ1802では、リソースマッピングサブプログラム901(図9参照)が、リソースマッピングテーブル910に従って、ブートする論理区画1800に対してハードウェア構成要素を割り当てる。
リソースマッピングサブプログラム901は、リソースマッピングテーブル910に基づいて、論理区画1800で実行されるソフトウェアに対して、予備サーバのハードウェア構成要素のうち論理区画1800に割り当てられたハードウェア構成要素のみを取り扱うことができるように制御する。また、リソースマッピングサブプログラム901は、ハードウェア構成要素を複数の論理区画で共有する場合には、各論理区画に対して時分割でハードウェア構成要素を割り当てたり、仮想的なハードウェアを論理区画上のソフトウェアに認識させたりすることによって、あたかも各論理区画にハードウェアが存在するように認識させることができる。
ステップ1803では、識別子変換サブプログラム902(図9参照)が、識別子変換テーブル911に基づいて、実ハードウェアの識別子を変換して、論理区画上のソフトウェアに対して変換後の識別子のハードウェア構成要素として認識させる。
ステップ1804では、論理区画1800を起動する。ステップ1805では、論理区画1800でOSが起動を開始する。
次に、ステップ1806で、論理区画1800上のOS等のソフトウェアがハードウェアに処理要求を出す。ここで、処理要求に利用されるハードウェアの識別子はステップ1803で変換された論理区画1800上の識別子である。
ステップ1807では、リソースマッピングプログラム701が、識別子変換テーブル911に基づいて、要求を受けたハードウェア構成要素の論理区画1800上の識別子から、実ハードウェアの識別子に変換する。ステップ1808では、ステップ1807で変換された識別子を用いて、実ハードウェアに対して処理要求を出す。
ステップ1809では、処理要求(ステップ1808)の結果を取得する。ステップ1810では、識別子変換テーブル911に基づいて、ステップ1809で結果を出力した実ハードウェアの識別子を論理区画1800上のハードウェアの識別子に変換し、論理区画1800に報告する。例えば、該等ハードウェアからの割り込みによって報告される。なお、この割り込みの際に論理区画1800に通知されるハードウェアの識別子もまた、変換後の識別子である。
ステップ1811では、論理区画1800で実行されるOSやソフトウェアは論理区画1800上のハードウェアから処理要求(ステップ1806)の結果を取得する。
このステップ1806からステップ1811までの処理は、論理区画1800の動作中に繰り返し実行される。なお、実ハードウェアからの割り込みの際に論理区画1800に通知されるハードウェアの識別子は、変換後の識別子である。
なお、一旦、現用サーバと予備サーバとを交替した後に、さらに別の現用サーバから同一の予備サーバに交替することができる。例えば、現用サーバ「S1」を予備サーバ「S5」の論理区画「L1」に交替後、別の現用サーバ「S2」を同一の予備サーバ「S5」の論理区画「L2」に交替することができる。このように、複数の現用サーバと1台の予備サーバとを交替することによって、予備サーバの台数を削減することができる。
<第2実施形態>
本発明の第2の実施の形態では、前述した第1の実施の形態の障害回復プログラム110において、リマッピングテーブル411の一部又は全部を自動的に作成する。なお、第2の実施の形態と第1の実施の形態との組み合わせも、また、本発明の実施形態の範疇に含まれる。
図19は、本発明の第2の実施の形態の障害回復プログラム110の構成を示す図である。
障害回復プログラム110は、構成取得サブプログラム401、契機検知サブプログラム402、リマッピングサブプログラム403、論理区画構築サブプログラム404、ブートイメージ引継サブプログラム405、ハードウェア構成テーブル410、リマッピングテーブル411及びネットワーク構成テーブル412を含む。
図20は、本発明の第2の実施の形態のネットワーク構成テーブル412の構成を示す図である。
ネットワーク構成テーブル412は、サーバ識別子フィールド(カラム2001)、ネットワーク関連ハードウェアフィールド(カラム2002)及び接続先フィールド(カラム2003)を含み、計算機システムにおいて、サーバがネットワークを介して接続されている機器を示す。
サーバ識別子フィールド2001には、サーバの識別子が格納される。
ネットワーク関連ハードウェアフィールド2002には、カラム2001によって特定されるサーバに備わる、ネットワークに関連するハードウェア構成要素の識別子が格納される。この識別子は、第1の実施の形態において、図5で示したハードウェア構成テーブル410に格納されるハードウェア構成要素の識別子と同じである。ネットワークに関連するハードウェアとは、例えば、NICやHBA等のネットワークに接続されるハードウェアである。
接続先フィールド2003には、カラム2002によって特定されるハードウェアが接続されている接続先機器を示す。例えば、サーバ「S1」のNIC「0:0:NIC 0(MAC1)」は、ネットワークスイッチのポート「NW−SW0」に接続されている。接続先フィールド2003に格納される接続先機器は、ネットワーク関連ハードウェアフィールド2002に格納されるハードウェアとネットワークケーブルを介して直接接続されている機器でもよいし、途中にいくつかのネットワーク機器を経由して接続されている機器でもよい。例えば、ネットワークスイッチを経由して外部ディスク装置に接続されている場合には、その外部ディスク装置を接続先機器としてもよい。
図21は、本発明の第2の実施の形態の構成取得サブプログラム401による処理のフローチャートを示す。前述した第1の実施の形態と異なるのは、ステップ2101及びステップ2102が追加され、ステップ1302が削除されている点である。
ステップ2101では、計算機システムの各サーバのネットワーク構成を取得し、ネットワーク構成テーブル412を作成する。各サーバのネットワーク構成情報は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでネットワーク構成取得プログラムを実行させて取得しても、ネットワークスイッチから取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。取得されるネットワーク構成情報は、例えば、ネットワーク構成テーブル412(図20参照)に含まれる情報である。
次に、ステップ2102では、ステップ2101で作成したネットワーク構成テーブル412に基づいて、リマッピングテーブル411を作成する。ネットワーク構成テーブル412に登録された現用サーバ及び予備サーバのハードウェア構成要素のうち、同一の機器に接続されているハードウェア構成要素を、それぞれ対応関係があるハードウェア構成要素とする。
例えば、図20に示したネットワーク構成テーブル412では、サーバ「S3」のネットワーク関連ハードウェア「1:0:HBA 0(WWN5)」は、サーバ「S5」のネットワーク関連ハードウェア「2:0:HBA1 (WWN10)」と同一の機器「FC−SW1」に接続される。また、サーバ「S3」のネットワーク関連ハードウェア「1:0:HBA 1(WWN6)」は、サーバ「S5」のネットワーク関連ハードウェア「2:0:HBA 0(WWN9)」と同一の機器「FC−SW0」に接続される。よって、S3のリマッピングテーブル411(図22)の、現用サーバフィールド602及び予備サーバフィールド603に示すとおり、「1:0:HBA 0」と「2:0:HBA 1」とが対応し、「1:0:HBA 1」と「2:0:HBA 0」とが対応する。
これによって、ネットワーク構成から自動的にリマッピングテーブル411を構築することができ、ユーザの入力操作等のユーザの手間を軽減できる。
なお、ステップ2102の処理のみではリマッピングテーブル411の全ての項目を作成できない場合には、ステップ2102の処理に加えて、前述した第1の実施の形態の図13で示したステップ1302の処理を続けて実行してもよい。
101 管理サーバ
102A、102B、102C サーバ
103 外部ディスク装置
104 スイッチ(SW)
105 管理ネットワークスイッチ(管理NW−SW)
110 障害回復プログラム
131 論理ユニット

Claims (19)

  1. 業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムにおいて実行され、前記現用サーバでの障害発生時に、前記予備サーバへ業務を引き継ぐために、前記管理サーバで実行される障害回復方法であって、
    前記予備サーバ上には、一つ以上の論理区画が構築され、
    前記予備サーバは、前記構築された各論理区画においてオペレーティングシステム上で実行されるリソースマッピングプログラムを含み、
    前記方法は、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成情報を取得し、前記現用サーバに備わるハードウェアと前記予備サーバに備わるハードウェアとの対応の情報を取得する対応関係取得ステップと、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバを決定する予備サーバ決定ステップと、
    前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記決定された予備サーバに論理区画を構築する区画構築ステップと、
    前記現用サーバで稼動していた業務を、前記決定された予備サーバに構築された前記論理区画に引き継ぐ引き継ぎステップと、を備えることを特徴とする障害回復方法。
  2. 前記区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報を参照し、前記現用サーバ及び前記予備サーバのハードウェア構成が同一である場合に、前記予備サーバに論理区画を構築せず、
    前記引き継ぎステップでは、前記現用サーバで稼動していた業務を、前記論理区画ではなく、前記決定された予備サーバに引き継ぐことを特徴とする請求項1に記載の障害回復方法。
  3. 前記区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報を参照し、前記現用サーバ及び前記予備サーバのハードウェア構成が同一でない場合に、前記予備サーバで前記リソースマッピングプログラムを起動することを特徴とする請求項1に記載の障害回復方法。
  4. 前記サーバに備わるハードウェアは、前記サーバで稼動するソフトウェアによって識別されるための識別子を有し、
    前記区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記構築される論理区画に割り当てられる前記ハードウェアの識別子の変換を、前記リソースマッピングプログラムに指示することを特徴とする請求項1に記載の障害回復方法。
  5. 前記予備サーバ決定ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記ハードウェアの識別子の変換が最も少ない予備サーバを優先的に選択することを特徴とする請求項4に記載の障害回復方法。
  6. 前記リソースマッピングプログラムは、前記リソースマッピングプログラムが実行される予備サーバに備わるハードウェアの識別子と、前記論理区画におけるハードウェアの識別子とを変換することを特徴とする請求項4に記載の障害回復方法。
  7. 前記リソースマッピングプログラムは、
    前記論理区画で実行されるソフトウェアからの前記論理区画におけるハードウェアへの処理要求を取得し、
    取得した処理要求の要求先である前記ハードウェアの識別子を前記予備サーバに備わる実ハードウェアの識別子に変換し、
    前記実ハードウェアに対して前記変換された識別子を含む処理要求を渡し、
    前記実ハードウェアからの処理結果を取得し、
    前記論理区画におけるハードウェアの識別子と共に、前記処理結果を前記ソフトウェアに渡すことを特徴とする請求項6記載の障害回復方法。
  8. 前記区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記構築される論理区画に割り当てられるハードウェアを前記予備サーバの他の前記論理区画と共有することを、前記リソースマッピングプログラムに指示することを特徴とする請求項1に記載の障害回復方法。
  9. 前記予備サーバ決定ステップでは、前記論理区画が複数存在する場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記複数の論理区画で共有されるハードウェアが最も少ない予備サーバを優先的に選択することを特徴とする請求項8に記載の障害回復方法。
  10. 前記区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記構築される論理区画に割り当てられるハードウェアのエミュレーションを、前記リソースマッピングプログラムに指示することを特徴とする請求項1に記載の障害回復方法。
  11. 前記予備サーバ決定ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバに冗長的に備わるハードウェア以外のハードウェアを備える予備サーバを優先的に選択することを特徴とする請求項1に記載の障害回復方法。
  12. 前記予備サーバ決定ステップでは、前記リソースマッピングプログラムが実行されている予備サーバを選択することを特徴とする請求項1に記載の障害回復方法。
  13. 前記対応関係取得ステップでは、前記計算機システムのネットワーク構成を取得し、前記取得したネットワーク構成に基づいて、前記ハードウェア対応情報を取得することを特徴とする請求項1に記載の障害回復方法。
  14. 前記対応関係取得ステップでは、ユーザによって指定されたハードウェアの対応関係ルールに基づいて、前記ハードウェア対応情報を取得することを特徴とする請求項1に記載の障害回復方法。
  15. 業務が稼動する1台以上の現用サーバ、前記現用サーバに障害が発生した場合に前記現用サーバで稼動していた業務を引き継ぐ1台以上の予備サーバ、及び管理サーバを備える計算機システムであって、
    前記各サーバに備わるハードウェアは、前記各サーバで実行されるソフトウェアによって識別されるための識別子を有し、
    前記管理サーバは、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成情報を取得し、
    前記現用サーバに備わるハードウェアと前記予備サーバに備わるハードウェアとの対応の情報を取得し、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバを決定し、
    前記障害が発生した現用サーバで稼動していた業務の引き継ぎを、前記決定された予備サーバに指示し、
    前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記決定された予備サーバに備わるハードウェアの識別子の変換を前記予備サーバに指示し、
    前記予備サーバは、前記業務引継指示及び前記識別子変換指示に基づいて、前記予備サーバに備わるハードウェアの識別子と論理区画におけるハードウェアの識別子とを変換し、前記現用サーバで稼動していた業務を引き継ぐことを特徴とする計算機システム。
  16. 前記予備サーバは、
    前記予備サーバで実行されるソフトウェアからのハードウェアへの処理要求を取得し、
    取得した処理要求の要求先である前記ハードウェアの識別子を前記予備サーバに備わる実ハードウェアの識別子に変換し、
    前記実ハードウェアに対して前記変換された識別子を含む処理要求を渡し、
    前記実ハードウェアからの処理結果を取得し、
    前記処理結果を前記予備サーバで実行されるソフトウェアにおけるハードウェアの識別子と共に、前記ソフトウェアに渡すことを特徴とする請求項15記載の計算機システム。
  17. 業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムに実装され、前記現用サーバに障害が発生した場合に、前記予備サーバへ業務を引き継ぐため制御をする管理サーバであって、
    前記各サーバに備わるハードウェアは、前記各サーバで実行されるソフトウェアによって識別されるための識別子を有し、
    前記管理サーバは、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成情報を取得し、
    前記現用サーバに備わるハードウェアと前記予備サーバに備わるハードウェアとの対応の情報を取得し、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバを決定し、
    前記障害が発生した現用サーバで稼動していた業務の引き継ぎを、前記決定された予備サーバに指示し、
    前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記決定された予備サーバに備わるハードウェアの識別子の変換を前記予備サーバに指示することを特徴とする管理サーバ。
  18. 前記予備サーバは、前記識別子変換指示に基づいて、前記予備サーバに備わるハードウェアの識別子と、前記論理区画におけるハードウェアの識別子とを変換することを特徴とする請求項17に記載の管理サーバ。
  19. 前記予備サーバは、
    前記予備サーバで実行されるソフトウェアからのハードウェアへの処理要求を取得し、
    取得した処理要求の要求先である前記ハードウェアの識別子を前記予備サーバに備わる実ハードウェアの識別子に変換し、
    前記実ハードウェアに対して前記変換された識別子を含む処理要求を渡し、
    前記実ハードウェアからの処理結果を取得し、
    前記処理結果を前記予備サーバで実行されるソフトウェアにおけるハードウェアの識別子と共に、前記ソフトウェアに渡すことを特徴とする請求項18記載の管理サーバ。
JP2011017742A 2011-01-31 2011-01-31 引継方法、計算機システム及び管理サーバ Expired - Fee Related JP5266347B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011017742A JP5266347B2 (ja) 2011-01-31 2011-01-31 引継方法、計算機システム及び管理サーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011017742A JP5266347B2 (ja) 2011-01-31 2011-01-31 引継方法、計算機システム及び管理サーバ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006277738A Division JP5068056B2 (ja) 2006-10-11 2006-10-11 障害回復方法、計算機システム及び管理サーバ

Publications (2)

Publication Number Publication Date
JP2011086316A true JP2011086316A (ja) 2011-04-28
JP5266347B2 JP5266347B2 (ja) 2013-08-21

Family

ID=44079150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011017742A Expired - Fee Related JP5266347B2 (ja) 2011-01-31 2011-01-31 引継方法、計算機システム及び管理サーバ

Country Status (1)

Country Link
JP (1) JP5266347B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037433A (ja) * 2011-08-04 2013-02-21 Fujitsu Ltd サーバ、サーバシステムおよびサーバの冗長切り替え方法
WO2014068764A1 (ja) * 2012-11-02 2014-05-08 株式会社日立製作所 システム冗長化確認方法及び計算機システム
JP2016510154A (ja) * 2013-03-14 2016-04-04 アルカテル−ルーセント テナント冗長性を提供する方法および装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259434A (ja) * 1999-03-05 2000-09-22 Hitachi Ltd 論理区画式計算機システム
JP2001306349A (ja) * 2000-04-27 2001-11-02 Mitsubishi Electric Corp バックアップ装置及びバックアップ方法
JP2003330740A (ja) * 2002-05-15 2003-11-21 Hitachi Ltd 多重化計算機システム、論理計算機の割当方法および論理計算機の割当プログラム
JP2005250839A (ja) * 2004-03-04 2005-09-15 Nomura Research Institute Ltd 耐障害性システム
JP2006163963A (ja) * 2004-12-09 2006-06-22 Hitachi Ltd ディスク引き継ぎによるフェイルオーバ方法
JP2006209487A (ja) * 2005-01-28 2006-08-10 Hitachi Ltd 計算機システム、計算機、ストレージ装置及び管理端末

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259434A (ja) * 1999-03-05 2000-09-22 Hitachi Ltd 論理区画式計算機システム
JP2001306349A (ja) * 2000-04-27 2001-11-02 Mitsubishi Electric Corp バックアップ装置及びバックアップ方法
JP2003330740A (ja) * 2002-05-15 2003-11-21 Hitachi Ltd 多重化計算機システム、論理計算機の割当方法および論理計算機の割当プログラム
JP2005250839A (ja) * 2004-03-04 2005-09-15 Nomura Research Institute Ltd 耐障害性システム
JP2006163963A (ja) * 2004-12-09 2006-06-22 Hitachi Ltd ディスク引き継ぎによるフェイルオーバ方法
JP2006209487A (ja) * 2005-01-28 2006-08-10 Hitachi Ltd 計算機システム、計算機、ストレージ装置及び管理端末

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037433A (ja) * 2011-08-04 2013-02-21 Fujitsu Ltd サーバ、サーバシステムおよびサーバの冗長切り替え方法
WO2014068764A1 (ja) * 2012-11-02 2014-05-08 株式会社日立製作所 システム冗長化確認方法及び計算機システム
JP5955977B2 (ja) * 2012-11-02 2016-07-20 株式会社日立製作所 システム冗長化確認方法及び計算機システム
US9542249B2 (en) 2012-11-02 2017-01-10 Hitachi, Ltd. System redundancy verification method and computer system
JP2016510154A (ja) * 2013-03-14 2016-04-04 アルカテル−ルーセント テナント冗長性を提供する方法および装置

Also Published As

Publication number Publication date
JP5266347B2 (ja) 2013-08-21

Similar Documents

Publication Publication Date Title
JP5068056B2 (ja) 障害回復方法、計算機システム及び管理サーバ
JP4462024B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
JP4544146B2 (ja) 障害回復方法
JP4923990B2 (ja) フェイルオーバ方法、およびその計算機システム。
US9489274B2 (en) System and method for performing efficient failover and virtual machine (VM) migration in virtual desktop infrastructure (VDI)
JP5080140B2 (ja) I/oデバイス切り替え方法
WO2012168995A1 (ja) I/oスイッチの制御方法、仮想計算機の制御方法及び計算機システム
JP4780237B2 (ja) 障害回復方法
JP5316616B2 (ja) 業務引き継ぎ方法、計算機システム、及び管理サーバ
JP5266347B2 (ja) 引継方法、計算機システム及び管理サーバ
US11755438B2 (en) Automatic failover of a software-defined storage controller to handle input-output operations to and from an assigned namespace on a non-volatile memory device
JP5484434B2 (ja) ネットワークブート計算機システム、管理計算機、及び計算機システムの制御方法
JP5267544B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
JP4877368B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
JP5321658B2 (ja) フェイルオーバ方法、およびその計算機システム。

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees