JP4833541B2 - デプロイ方法、プログラム及びサーバシステム - Google Patents

デプロイ方法、プログラム及びサーバシステム Download PDF

Info

Publication number
JP4833541B2
JP4833541B2 JP2004355101A JP2004355101A JP4833541B2 JP 4833541 B2 JP4833541 B2 JP 4833541B2 JP 2004355101 A JP2004355101 A JP 2004355101A JP 2004355101 A JP2004355101 A JP 2004355101A JP 4833541 B2 JP4833541 B2 JP 4833541B2
Authority
JP
Japan
Prior art keywords
server
deployment
disk
image
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004355101A
Other languages
English (en)
Other versions
JP2006163885A (ja
Inventor
貴志 爲重
良史 高本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004355101A priority Critical patent/JP4833541B2/ja
Priority to US11/033,731 priority patent/US7653901B2/en
Publication of JP2006163885A publication Critical patent/JP2006163885A/ja
Priority to US12/630,047 priority patent/US7958503B2/en
Priority to US13/105,163 priority patent/US8434078B2/en
Application granted granted Critical
Publication of JP4833541B2 publication Critical patent/JP4833541B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • G06F8/63Image based installation; Cloning; Build to order

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stored Programmes (AREA)

Description

本発明は、サーバがソフトウェアを利用可能な状態にするデプロイ方法に関し、特に、高速にデプロイする技術に関する。
複数のサーバを運用する技術として、ブレードサーバやラックマウントサーバを採用して、各サーバにOS(Operating System)を導入したり、サーバを論理的に分割して多数のハードウェアリソースとソフトウェアリソースを集中的に管理するものが知られている。
ブレードサーバシステムにサーバを追加する場合、追加するサーバにOSをデプロイする必要がある。
ここで、OSをサーバにデプロイする従来技術を説明する。ブレードサーバシステムは、現在稼働中のOSを記憶するハードディスクをバックアップする。次に、OSを記憶するハードディスクから固有情報を抜いてマスタディスクを作成し、作成したマスタディスクを別のディスクへ複製する。そして、バックアップした情報をOSを記憶するハードディスクに戻す。このようにして、ブレードサーバシステムは、マスタディスクを予め作成しておく。
このマスタディスクは、固有情報を抜いて作成される。なお、固有情報とは、コンピュータ名及びネットワーク関連情報等である。そして、ブレードサーバシステムは、デプロイを要求されると、Etherネットワークを介して、マスタディスクをサーバのローカルディスクにコピーする。そして、コピーしたローカルディスクに固有情報を設定し、デプロイを完了する。
なお、マスタディスクは固有情報を含んで作成されてもよい。この場合、マスタディスクのコピー後に、専用のプログラムを用いて固有情報を書き換えることによって、固有情報を設定する。
この従来技術では、Etherネットワークを介してコピーするので、デプロイを完了するまでに時間がかかる。また、固有情報を抜いたマスタディスクを予め作成する際に、多数の複製が必要となる。よって、システム管理者の負担が大きい。
そこで、この問題を解決するブレードサーバシステムが知られている(例えば、特許文献1参照)。このブレードサーバシステムは、複数のOSに関するマスタディスクを保有する。そして、デプロイを要求されると、FC(Fiber Channel)を介して、マスタディスクをサーバに接続されたディスクアレイ装置内の論理ディスクにコピーを開始する。
特開2002−278769
しかし、特許文献1のブレードサーバシステムは、デプロイの要求後に、マスタディスクを論理ディスクにコピーを開始するため、Etherネットワークを介するより高速であるものの、デプロイを完了するまでに時間がかかる。
そこで、本発明のサーバシステムは、高速にデプロイすることを目的とする。
本発明は、ディスクイメージを記憶する論理ディスクを有するストレージ装置と、ストレージネットワークを介して前記ストレージ装置に接続する複数のサーバと、を備えるサーバシステムにおけるデプロイ方法であって、デプロイ管理機構は、複製した論理ディスクを管理するLU管理テーブルを備え、前記デプロイ管理機構が、業務へのサーバ追加投入に備えて、デプロイの指令を受ける以前に、前記ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複数複製する処理と、前記デプロイ管理機構が、デプロイの指令を受け付ける処理と、前記デプロイ管理機構が、デプロイの指令を受けると、前記LU管理テーブルに基づいて、デプロイを指令されたディスクイメージを複製した論理ディスクが前記ストレージ装置の空き領域に存在するか否かを判定する処理と、
前記デプロイ管理機構が、前記論理ディスクが前記ストレージ装置の空き領域に存在しなければ、デプロイを指令されたディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製する処理と、を含み、前記LU管理テーブルは、前記ディスクイメージを複製した論理ディスクの容量及び優先順位を格納し、前記デプロイ管理機構が、前記ストレージ装置の空き領域が不足すると、前記LU管理テーブルに基づいて、優先順位の低い前記論理ディスクを選択する処理と、前記デプロイ管理機構が、前記選択した論理ディスクを削除する処理と、
さらに含むことを特徴とする。
本発明によれば、サーバシステムにオペレーティングシステム等を高速にデプロイすることができる。また、遊休リソースであるストレージ装置の空き領域を有効に活用することができるため、投資に対する効果を上げることできる。
以下、本発明の実施の形態を図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態のブレードサーバシステムの構成のブロック図である。
ブレードサーバシステムはラックなどに収装された複数のサーバ107、ファイバチャネルスイッチ(FC−SW)105、各サーバ107とクライアントコンピュータ(図示省略)とを接続するためのネットワークスイッチ(NW−SW)106、117、複数の論理ディスクを備えたディスクアレイ装置113、コンソール116及びロードバランサ118から構成される。
サーバ107は、3台を図示しているが、複数であれば何台でもよい。サーバ107は、ネットワークインターフェースカード(NIC)108、BMC(Baseboard Management Controller)109及びファイバチャネルアダプタ(FCA)110を備える。
FC−SW105は、FC−SW管理機構112を備える。FC−SW管理機構112は、FC−SW105の状態(例えば、各ポートの障害や負荷)を監視し、FC−SW105の全体を制御する。FC−SW105は、サーバ107のFCA110、管理サーバ101及びディスクアレイ装置113と接続する。よって、サーバ107は、FC−SW105を介して、ディスクアレイ装置113にアクセスできる。また、管理サーバ101はFC−SW管理機構112を制御し、ディスクアレイ装置113の構成などを管理する。
NW−SW106は、NW−SW管理機構111を備える。NW−SW管理機構111は、NW−SW106の状態を監視し、NW−SW106の全体を制御する。また、NW−SW106は、サーバ107のNIC108、管理サーバ101、ディスクアレイ装置113及びロードバランサ118と接続する。
ロードバランサ118は、サーバ107の負荷を分散する。
NW−SW117は、サーバ107のBMC109及び管理サーバ101と接続する。よって、管理サーバ101は、NW−SW117を介してBMC109にアクセスし、ハードウェアの状態監視、電源制御及びリセットをサーバ107に対して行う。なお、BMC109は、サーバ107が接続されている電源と異なる電源に接続されている。よって、サーバ107が停止しても、管理サーバ101は、ハードウェアの状態監視、電源制御及びリセットをサーバ107に対して行うことができる。
ディスクアレイ装置113は、論理ディスク(LU)114及びディスクコントローラ115を含む。LU114は、サーバ107から入力されたデータ等を記憶する。ディスクコントローラ115は、LU114に対するデータの入出力を制御する。ディスクアレイ装置113は、一つを図示したが、複数備えられてもよい。なお、ディスクアレイ装置113が複数備えられている場合、それぞれを識別できる識別子を付与する。
管理サーバ101には、コンソール116が接続されている。コンソール116は、デプロイ要求又はディスクの複製の要求等が入力されると、入力された要求を管理サーバ101に送信する。
管理サーバ101は、サーバ107、NW−SW106、FC−SW105及びディスクアレイ装置113の状態を監視し、これらを制御する。管理サーバ101は、デプロイ制御機構102を備える。なお、デプロイ制御機構102は、ディスクコントローラ115に備えられてもよい。
デプロイ制御機構102は、LU管理機構103及びサーバ情報取得機構104から構成される。LU管理機構103は、LU114に記憶されているコンテンツ及びLU114自体を管理する。更に、LU管理機構103は、LU114に記憶されているコンテンツに関するライセンス及びパッチを管理する。なお、コンテンツとは、OS(Operating System)、ミドルウェア及びアプリケーション等である。また、LU114自体の管理とは、LU114を複製又は削除することである。
サーバ情報取得機構104は、各サーバ107のハードウェア情報及びソフトウェア情報を取得し、取得した情報をLU管理機構103に通知する。
図2は、本発明の第1の実施の形態のサーバ107のハードウェア構成のブロック図である。
サーバ107は、NIC108、BMC109及びFCA110を備える。
NIC108は、通信機構205及びMAC206を備える。通信機構205は、外部の装置と通信する。MAC206は、ROMやE2PROMなどで構成されてMAC(Media Access Control)アドレスが格納されているメモリである。MACアドレスは全世界で一意な値なので、外部の装置はNIC108を特定することができる。
BMC109は、通信機構207及びハードウェア監視機構208を備える。通信機構207は、外部の装置と通信する。ハードウェア監視機構208は、サーバ107に搭載されたハードウェアに関する情報を取得する。ハードウェアに関する情報は、インベントリ情報及び障害情報等である。管理サーバ100は、ハードウェア監視機構208によって取得されたハードウェア情報を通信機構207から受信する。
FCA110は、通信機構209及びWWN210を備える。通信機構209は、外部の装置と通信する。WWN210は、WWN(World Wide Name)が格納されているメモリである。WWNは全世界で一意な値なので、外部の装置はFCA110を特定することができる。
図3は、本発明の第1の実施の形態のサーバ107のソフトウェア構成のブロック図である。
サーバ107は、OS212を含む。OS212は、サーバ107の全体を制御する。また、OS212上では、エージェント213が動作する。エージェント213は、ソフトウェア監視機構214を含み、各種処理を自動的に行う。
ソフトウェア監視機構214は、ソフトウェア情報を収集し、収集したソフトウェア情報を管理サーバ101内のサーバ情報取得機構104に送信する。なお、ソフトウェア情報は、負荷情報及びOS212によって取得される情報を含む。負荷情報は、アプリケーションに対するリクエスト数等である。OS212によって取得される情報は、ソフトウェアに関するエラー、CPU利用率、メモリ利用率及びディスク使用率等である。
図4は、本発明の第1の実施の形態の管理サーバ101とサーバ107との通信の説明図である。
サーバ107内のBMC109に含まれるハードウェア監視機構208は、管理サーバ101内のサーバ情報取得機構104にハードウェア情報を送信する。また、サーバ107内のソフトウェア監視機構214は、NIC108を介して、管理サーバ101内のサーバ情報取得機構104にソフトウェア情報を送信する。
サーバ情報取得機構104は、受信したハードウェア情報及びソフトウェア情報(サーバ情報)をLU管理機構103(図1参照)に送信する。LU管理機構103は、受信したサーバ情報に基づいて、ディスクアレイ装置113内のLU114を複製又は削除する。
図5は、本発明の第1の実施の形態のディスクアレイ装置113内のLU114の説明図である。
本説明図は、本実施の形態のディスクアレイ装置113内のLU114の特徴を示す。
ディスクアレイ装置113の記憶領域は、使用領域407及び空き領域408からなる。使用領域407は、サーバ107に既に割り当てられているLU0(114−0)及びLU2(114−2)並びにパッチを記憶するLUx(114−x)及びLUy(114−y)を含む。
LU0(114−0)及びLU2(114−2)は、サーバ107に既に割り当てられており、それぞれイメージを記憶している。例えば、LU0(114−0)は「イメージ0」を記憶し、LU2(114−2)は「イメージ2」を記憶する。イメージは、OS、ミドルウェア及びアプリケーション等のコンテンツを一つ以上含む。なお、同一のコンテンツであっても、バージョン又はパッチの適用が違えば、異なるイメージとする。
LUx(114−x)及びLUy(114−y)は、それぞれ異なるパッチを記憶する。
従来のディスクアレイ装置113では、使用領域407以外である空き領域408が未使用であった。
そこで、本実施の形態のディスクアレイ装置113は、それぞれのイメージを記憶するLU(114−0等)を予め複数複製しておく。複製する領域は、空き領域408の全部であってもよいし、一部であってもよい。
例えば、「イメージ0」を記憶するLU0(114−0)の複製がLU5(114−5)及びLU7(114−7)であり、「イメージ2」を記憶するLU2(114−2)の複製がLU9(114−9)及びLU10(114−10)である。なお、空き領域408は、管理サーバ101内のLU管理機構103によって管理される。
なお、イメージを記憶するLU(114−0等)を複製したLU(114−5等)の個数は、イメージに含まれるコンテンツ、空き領域408の容量及びサーバ情報等に応じて変化し、イメージごとに異なっていてもよい。例えば、「イメージ0」を記憶するLU0(114−0)を5個複製し、「イメージ2」を記憶するLU2(114−2)を10個複製してもよい。
ここで、同一のイメージを記憶するLU114の集合をHDDイメージ群409、410とする。例えば、LU0(114−0)、LU5(114−5)及びLU7(114−7)の集合は「イメージ0」のHDDイメージ群409であり、LU2(114−2)、LU9(114−9)及びLU10(114−10)の集合は「イメージ2」のHDDイメージ群410である。
なお、空き領域408に複製されたLU(114−5等)は、サーバ情報及びイメージに含まれるコンテンツに応じた優先順位が付与される。ディスクアレイ装置113は、新たな情報を記憶する場合、優先順位の低いLU(114−7等)を削除することによって、優先順位の低いLU(114−7等)が占有する空き領域408を解放する。
よって、空き領域408が非常に少なくなるまで、優先順位の高いLU(114−5等)は削除されない。そこで、本実施の形態では、それぞれのイメージごとに少なくとも一つのLU(114−5等)は、優先順位を高くする。なお、それぞれのHDDイメージ群409、410内で最も優先順位の高いLU5(114−5)及びLU9(114−9)は、特許文献1に記載されているマスタLUと見ることもできる。
しかし、本実施の形態のディスクアレイ装置113は、イメージを記憶するLU(114−0等)を空き領域408に予め複数複製しておく。これによって、管理サーバ101は、デプロイを要求されると、予め複製されたLU(114−5等)をサーバ107に割り当てるだけで、デプロイすることができる。例えば、管理サーバ101は、「イメージ0」をデプロイ要求されると、「イメージ0」を記憶するLU(114−5等)のうち優先順位の最も低いLU(114−7等)をサーバ107に割り当てる。
以上のように、本実施の形態のブレードサーバシステムは、空き領域408を有効利用することによって、高速にデプロイすることができる。
図6は、本発明の第1の実施の形態の管理サーバ101に備えられているLU管理機構103の構成のブロック図である。
LU管理機構103は、CPU−LU割当管理テーブル501、LU管理テーブル502、LU制御機構504、コンテンツ管理テーブル505、イメージ作成ポリシーテーブル506及び複製契機更新ポリシーテーブル508を備える。
CPU−LU割当管理テーブル501は、図7で後述するが、サーバ107を管理する。LU管理テーブル502は、図10で後述するが、LU114を管理する。
LU制御機構504は、デプロイ要求を受けると、要求されたイメージを記憶するLU114とサーバ107とのパスを設定し、更に、固有情報を設定する。なお、固有情報とは、ネットワーク関連情報、コンピュータ名及びホスト名等である。
LU制御機構504には、イメージ作成機構507、ポリシー更新機構510、パッチ適用機構511及び優先順位更新機構512が含まれる。
イメージ作成機構507は、イメージが記憶されたLU114を複製する。ポリシー更新機構510は、イメージ作成ポリシーテーブル506を更新する。パッチ適用機構511は、イメージに含まれるコンテンツにパッチを適用する。優先順位更新機構512は、イメージ作成機構507によって複製されたLU114に、優先順位を付与する。
コンテンツ管理テーブル505は、図11で後述するが、イメージに含まれるコンテンツを管理する。イメージ作成ポリシーテーブル506は、図15で後述するが、イメージ作成機構507がLU114を複製する契機を示す。複製契機更新ポリシーテーブル508は、図16で後述するが、ポリシー更新機構510がイメージ作成ポリシーテーブル506を変更する条件を示す。
LU管理機構103は、以上のような構成を備えることによって、予め複製したコンテンツを高速にデプロイすることができる。
また、LU管理機構103は、コンテンツのライセンスを管理するので、ライセンス数を超える複製を禁止することができ、また、ライセンスの過不足をユーザに通知することができる。よって、本実施の形態のブレードサーバシステムは、ソフトウェア資源を有効活用することができる。
図7は、本発明の第1の実施の形態のLU管理機構103に備えられているCPU−LU割当管理テーブル501の構成図である。
CPU−LU割当管理テーブル501には、サーバ識別子601、筐体ID602、割当CPU603、論理ディスク番号604、ネットワーク接続ポート番号605及びFC接続ポート番号606が含まれている。
サーバ識別子601は、サーバ107を識別する一意な識別子であり、例えば、シリアル番号等である。なお、サーバ107がブレードサーバの場合には、サーバ識別子601はスロット番号となる。また、論理分割されたサーバ107の場合、サーバ識別子601は、論理分割に対応する論理区画名である。
筐体ID602は、当該サーバ107が格納されている筐体を識別する一意な識別子である。例えば、サーバ識別子601がスロット番号の場合、サーバ107は、サーバ識別子601及び筐体ID602によって識別される。なお、サーバ識別子601のみでサーバ107を特定できる場合には、筐体ID602は不要である。
割当CPU603は、当該サーバ107に割り当てられているCPUを識別する一意な識別子である。サーバ107にSMP(Symmetric Multiple Processor)構成が適用されていると、割当CPU603には複数の値が格納される。例えば、「サーバ3」は、「CPU2」及び「CPU3」を使ったSMP構成が適用されている。
また、サーバ107に論理パーティショニング機能が適用されている場合、割当CPU603の複数のレコードに同じ値が格納される。論理パーティショニング機能とは、ハードウェアリソースを論理的に分割し複数のOSを、一つのハードウェアリソースで動作させる。例えば、「サーバ0」及び「サーバ1」は、単一の「CPU0」で動作している。
論理ディスク番号604は、当該サーバ107とパス設定されたLU114を識別する一意な識別子である。なお、パス設定されたLU114は、サーバ107のブートディスクとなる。それぞれのサーバ107は、ブートディスクを占有するので、別々のLU114を割り当てる必要がある。なお、各LU114のパスは、管理サーバ101により設定される。
ネットワーク接続ポート番号605は、当該サーバ107が使用するネットワーク接続ポートを識別する一意な識別子である。なお、ブレードサーバシステムに仮想ネットワーク(VLAN)を適用した場合、ネットワーク接続ポート番号605には、ネットワーク接続ポートが属するVLANの識別子が格納される。
FC接続ポート番号606は、当該サーバが使用するFC−SW606の接続ポート(FC接続ポート)を識別する一意な識別子である。なお、ブレードサーバシステムにゾーニングのような仮想化を適用した場合、FC接続ポート番号606には、FC接続ポートが属するグループの識別子が格納される。
図8は、本発明の第1の実施の形態のLU管理機構103に備えられているスケールアウト後のCPU−LU割当管理テーブル501の構成図である。
このCPU−LU割当管理テーブル501は、前述した図7の状態のブレードサーバシステムに「サーバ8」を追加した様子を示す。つまり、サーバ識別子601に「サーバ8」が格納され、当該レコードの論理ディスク番号604に「LU14」が格納される。このようにして、ブレードサーバシステムはスケールアウトする。なお、スケールアウトとは、サーバ107に新たなサーバを割り当てることである。
図9は、本発明の第1の実施の形態のLU管理機構103に備えられているスケールアップ後のCPU−LU割当管理テーブル501の構成図である。なお、スケールアップとは、サーバ107の機能モジュールの強化または追加を行うことである。
このCPU−LU割当管理テーブル501は、前述した図7の状態のブレードサーバシステムの「サーバ7」のCPUをSMP構成とした様子を示す。つまり、サーバ識別子601が「サーバ7」のレコードのネットワーク接続ポート番号605に「9」が追加され、更に、当該レコードのFC接続ポート番号606に「8」が追加される。このように、ブレードサーバシステムは、サーバ107をSMP構成とすることによってスケールアップする。
図10は、本発明の第1の実施の形態のLU管理機構103に備えられているLU管理テーブル502の構成図である。
LU管理テーブル502には、論理ディスク番号701、イメージ名702、優先順位703、容量704、全使用容量705及び空き容量706が含まれる。
論理ディスク番号701は、ディスクアレイ装置113内のLU114を識別する一意な識別子である。イメージ名702は、当該LU114に記憶されているイメージを識別する名称である。なお、イメージには、一つ以上のコンテンツが含まれる。
優先順位703は、当該LU114に付された優先順位である。なお、優先順位703は、サーバ107に割り当てられていないLU114にのみ付される。サーバ107に割り当てられていないLU114は、デプロイ要求に備えているだけなので、いつでも削除できる。つまり、ディスクアレイ装置113は、業務データの保存等のために記憶容量が不足すると、サーバ107に割り当てられていないLU114を優先順位703の低い順に削除する。このように、ディスクアレイ装置113は、空き領域408を解放するので、必要な記憶領域を確保することができる。
一方、サーバ107に既に割り当てられているLU114は、優先順位が付かないので、優先順位703は「−(チェック)」とする。また、計画的にLU114をデプロイする場合にも、デプロイで割り当てるLU114の優先順位703は「−」とする。これによって、当該LU114は削除されなくなり、計画通りにデプロイできる。
容量704は、当該LU114の容量である。LU制御機構504は、記憶領域が不足すると、容量704を取得することによって、LU114をいくつ削除すればよいかを決定できる。
全使用容量705は、ディスクアレイ装置113内の記憶領域の使用されている容量である。全使用容量705には、現在使用値及び複製を含む使用値が格納される。現在使用値とは、既に割り当てられている(優先順位703に「−」が格納されている)LU114の容量704の総和である。つまり、現在使用値は、使用領域407の容量と一致する(図5参照。)。また、複製を含む使用値とは、すべてのLU114の容量の総和である。つまり、複製を含む使用値は、空き領域408に複製されたLU114の容量も含む(図5参照。)。
空き容量706は、ディスクアレイ装置113内の記憶領域の使用されていない容量である。空き容量706には、現在の空き値及び複製を含む空き値が格納される。現在の空き値は、ディスクアレイ装置113の全記憶容量から現在使用値を引いた値であり、ユーザから見た空き容量と一致する。また、複製を含む空き値は、ディスクアレイ装置113の全記憶容量から複製を含む使用値を引いた値であり、ディスクアレイ装置113の実際の空き容量である。
図11は、本発明の第1の実施の形態のLU管理機構103に備えられているコンテンツ管理テーブル505の構成のブロック図である。
コンテンツ管理テーブル505には、ライセンス管理テーブル901、パッチ管理テーブル902及びパッチ・リビジョン管理テーブル903が含まれる。
ライセンス管理テーブル901は、図12で後述するが、コンテンツのライセンスをサーバ107ごとに管理する。パッチ管理テーブル902は、図13で後述するが、各イメージに含まれるコンテンツ等を管理する。パッチ・リビジョン管理テーブル903は、図14で後述するが、各コンテンツとパッチとの対応を管理する。
図12は、本発明の第1の実施の形態のLU管理機構103に備えられているライセンス管理テーブル901の構成図である。
ライセンス管理テーブル901には、サーバ識別子1001、OS種別1002、Middleware種別1003及びApplication種別1004が含まれる。
サーバ識別子1001は、サーバ107を識別する一意な識別子である。OS種別1002は、当該サーバ107に配布されているOSの種別とライセンス数を示す。Middleware種別1003は、当該サーバ107に配布されているミドルウェアの種別とライセンス数を示す。Application種別1004は、当該サーバ107に配布されているアプリケーションの種別とライセンス数を示す。なお、OS種別1002、Middleware種別1003及びApplication種別1004は、それぞれ3種類ずつを図示しているが、この限りでない。
合計1005は、ブレードサーバシステムに配布されたライセンス数である。空きライセンス1006は、すべてのサーバ107で使用されていないライセンス数である。
LU管理機構103は、ライセンス管理テーブル901を備えることによって、デプロイするときに、ライセンスを管理することができる。つまり、本実施の形態のブレードサーバシステムは、ライセンス違反を犯すことがなくなり、更に、ソフトウェア・リソースを追加するタイミングを推し量ることができる。また、使用していないライセンスを回収することによって、ソフトウェア・リソースを有効活用できる。他にも、本実施の形態のブレードサーバシステムは、ソフトウェア・リソースの従量課金制を適用することが可能となる。
図13は、本発明の第1の実施の形態のLU管理機構103に備えられているパッチ管理テーブル902の構成図である。
パッチ管理テーブル902には、イメージ名1101、コンテンツ1102及びパッチのリビジョン1103が含まれる。
イメージ名1101は、LU114に記憶されるイメージを識別する一意な名称である。コンテンツ1102は、当該イメージに含まれるコンテンツを示す。パッチのリビジョン1103は、当該イメージに適用されたパッチのリビジョンを示す。
LU管理機構103は、パッチ管理テーブル902を備えることによって、各イメージに含まれるコンテンツ、及びパッチの適用状況を管理できる。これによって、LU管理機構103は、パッチが適用されていないイメージを記憶するLU114を抽出し、抽出したLU114のコンテンツをアップデートすることができる。
図14は、本発明の第1の実施の形態のLU管理機構103に備えられているパッチ・リビジョン管理テーブル903の構成図である。
パッチ・リビジョン管理テーブル903には、管理番号1104、種別1105及びパッチのリビジョン1105が含まれる。
管理番号1104は、当該レコードを一意に識別する識別子である。種別1105は、コンテンツの種類である。パッチのリビジョン1106は、当該コンテンツに適用しているパッチのリビジョンである。
図15は、本発明の第1の実施の形態のLU管理機構103に備えられているイメージ作成ポリシーテーブル506の構成図である。
イメージ作成ポリシーテーブル506には、イメージ名1201及び複製契機1202が含まれる。
イメージ名1201は、LU114に記憶されるイメージを識別する一意な名称である。複製契機1202は、当該イメージを複製する契機を示す。具体的には、イメージ作成機構507は、イメージを記憶するLU114が複製契機1202の個数以下になると、当該LU114を複製する。
LU管理機構103は、イメージ作成ポリシーテーブル506を備えることによって、イメージの重要度に応じた数のLU114を複製することができる。
図16は、本発明の第1の実施の形態のLU管理機構103に備えられている複製契機更新ポリシーテーブル508の構成図である。なお、複製契機とは、それぞれのイメージを複製する契機である。
複製契機更新ポリシーテーブル508には、イメージ名1204、取得情報種別1205及び複製契機設定値1206が含まれている。
イメージ名1204は、LU114に記憶されているイメージを識別する一意な名称である。取得情報種別1205は、サーバ情報取得機構104によってサーバ107から取得される情報の種類を示す。複製契機設定値1206は、当該情報の値に対応する複製契機を示す。
例えば、イメージ名1204が「イメージ0」であり、イメージ取得情報種別1205が「CPU使用率」である場合で説明する。ここで、CPU使用率とは、当該レコードのイメージを記憶するLU114を割り当てられているすべてのサーバ107のCPU使用率の平均値である。
複製契機更新ポリシーテーブル508には、「イメージ0」の複製契機が「CPU使用率」に応じて設定されている。よって、ポリシー更新機構510は、サーバ107のCPU使用率が「0〜50%」であると、イメージ作成ポリシーテーブル506の複製契機1202を「2」にする。同様に、サーバ107のCPU使用率が「50〜80%」であると、イメージ作成ポリシーテーブル506の複製契機1202を「5」にする。
なお、複製契機更新ポリシーテーブル508は、取得情報種別1205ごとに複数のテーブルから構成されていてもよい。この場合、ポリシー更新機構510は、それぞれのテーブルによって決定した複製契機から最も大きい値を選択し、選択した値をイメージ作成ポリシーテーブル506の複製契機1202とする。
LU管理機構103は、複製契機更新ポリシーテーブル508を備えることによって、業務の種類又は計算機リソースの稼働率等に応じて、複製するLU114の個数を変化させることができる。これによって、LU管理機構103は、負荷が急激に高まったサーバ107に対するスケールアウトのような予測が困難なケースにも対応することができる。
図17は、本発明の第1の実施の形態の優先順位更新機構512の処理のフローチャートである。
まず、イメージ作成機構507から優先順位の変更を要求されると、処理を開始する(801)。なお、イメージ作成機構507は、後述する図20で説明するが、イメージが記憶されているLU114を複製すると、優先順位更新機構512に優先順位の変更を要求する。
次に、LU管理テーブル502を参照する(802)。次に、優先順位の変更を要求されたイメージ(更新対象イメージ)の名称とLU管理テーブル502のイメージ名702とが一致するレコードをLU管理テーブル502からすべて選択する。選択したすべてのレコードの中に優先順位703が「−」でないレコードが存在するか否かを判定する。これによって、更新対象イメージを記憶し、且つサーバ107に割り当てられていないLU114がディスクアレイ装置113に存在するか否かを判定する(803)。
このようなLU114が存在すると、最下位の優先順位703に1を足した値を更新対象イメージを記憶するLU114の優先順位703とする。つまり、更新対象イメージを記憶するLU114の優先順位703を最下位とする(804)。そして、ステップ806に進む。
一方、このようなLU114が存在しないと、優先順位703が「−」でないレコードをすべて選択する。次に、選択したレコードのイメージ名702に格納されたイメージの種類を数える。数えた種類数に1を足した値を更新対象イメージを記憶するLU114の優先順位703とする。つまり、サーバ107に割り当てられていないLU114に記憶されたイメージの種類数を、更新対象イメージを記憶するLU114の優先順位703とする(805)。なお、この種類数には、更新対象イメージも含む。
次に、LU管理テーブル502を更新する(806)。具体的には、更新対象イメージを記憶するLU114の識別子を論理ディスク番号701に格納する。次に、更新対象イメージの名称を当該レコードのイメージ名702に格納する。次に、決定した優先順位を当該レコードの優先順位703に格納する。更に、当該LU114の記憶容量を当該レコードの容量704に格納する。そして、本処理を終了する。
以上のようにLUの割り当て状況に応じて優先順位703を更新するので、それぞれのイメージを記憶するLU114のうちの一つを高い優先順位703とすることができる。
なお、優先順位更新機構512は、コンソール116からの要求に応じて、LU管理テーブル502の優先順位703を変更してもよい。この場合、優先順位更新機構512は、コンソール116から入力された要求通りに、優先順位703を変更する。ただし、優先順位更新機構512は、重複しないように優先順位703を変更する。
図18は、本発明の第1の実施の形態のパッチ適用機構511の処理のフローチャートである。
コンソール116は、ユーザからパッチの適用の要求を入力されると、パッチの適用をパッチ適用機構511に要求する。
コンソール116からパッチの適用を要求されると、本処理を開始する(1121)。
次に、パッチ・リビジョン管理テーブル903を参照する(1122)。
次に、適用を要求されたパッチのリビジョンとパッチのリビジョン1106とが一致するレコードがパッチ・リビジョン管理テーブル903に存在するか否かを判定する。これによって、要求されたパッチが適用済みであるか否かを判定する(1123)。
パッチが適用済みでないと、要求されたパッチをサーバ107に適用する(1124)。具体的には、パッチを適用したコンテンツを記憶するLU114を予め複製しておき、そのLU114とサーバ107とをパス設定することによって、パッチを適用する。これによって、パッチを高速に適用することができる。
そして、パッチリビジョン管理テーブル903を更新し、処理を終了する。具体的には、パッチを適用したコンテンツの種類をパッチ・リビジョン管理テーブル903の種別1105へ格納し、適用したパッチのリビジョンをパッチリビジョン管理テーブル903のパッチのリビジョン1106に格納する。
一方、パッチが適用済みであると、要求されたパッチが適用済みであることをコンソール116へ通知し(1125)、本処理を終了する。
図19は、本発明の第1の実施の形態のLU制御機構504の処理のフローチャートである。
コンソール116からデプロイ要求を受けると(1301)、処理を開始する。なお、デプロイ要求には、どのサーバ107にどのイメージをデプロイするかが含まれる。
まず、LU管理テーブル502を参照する(1302)。
次に、デプロイされるイメージの名称とLU管理テーブル502のイメージ名702とが一致し、且つ優先順位703が「−」でないレコードをLU管理テーブル502から選択する。次に、選択したレコードの数を数える。次に、数えたレコード数がデプロイされるイメージの数以上であるか否かを判定する。これによって、デプロイされるイメージを記憶するLU114が必要な個数以上存在するか否かを判定する(1303)。
デプロイされるイメージを記憶するLU114が必要な個数以上存在しないと、イメージ作成機構507にイメージを記憶するLU114の複製を要求し(1304)、ステップ1303へ戻る。なお、イメージ作成機構507は、後述する図20のようにして、イメージを記憶するLU114を複製する。
一方、デプロイされるイメージを記憶するLU114が必要な個数以上存在すると、ステップ1305に進む。つまり、デプロイされるイメージを記憶するLU114が必要な個数となるまで、イメージ作成機構507に複製を繰り返し要求する。
次に、デプロイされるサーバ107のFCA110とFC−SW105のポートとを関連付ける。更に、FC−SW105のポートと、ディスクアレイ装置113のポート及びデプロイされるイメージを記憶するLU114とを関連付ける。このようにして、デプロイされるイメージを記憶するLU114とサーバ107とをパス設定する。次に、パス設定したLU114をブートディスクとしてサーバ107にマウントする。これによって、サーバ107は、当該LU114をブートディスクとして認識し、起動することができる。
次に、サーバ107のOSに対応する方法で固有情報を設定することによって(1305)、サーバ107にイメージをデプロイする。なお、固有情報とは、IPアドレスを含むネットワーク設定、コンピュータ名及びホスト名等である。また、OSに対応する方法とは、固有情報が記載されたファイルを上書きすることによって、又はファイルに記載された固有情報を修正することによって、固有情報を設定する。ただし、自動的に固有情報を設定するOSの場合には、固有情報を設定しなくてもよい。
デプロイを完了すると、CPU−LU割当管理テーブル501及びLU管理テーブル502を更新する。
具体的には、パスを設定したサーバ107の識別子とCPU−LU割当管理テーブル501のサーバ識別子601とが一致するレコードを選択する。次に、当該サーバ107とパスを設定したLU114の識別子を選択したレコードの論理ディスク番号604に格納する。更に、サーバ107と関連付けたFC−SW105のポートの識別子を選択したレコードのFC接続ポート番号606に格納する。このようにして、CPU−LU割当管理テーブル501を更新する。
次に、パスを設定したLU114の識別子とLU管理テーブル502の論理ディスク番号701とが一致するレコードを選択する。次に、選択したレコードの優先順位703を「−」に変更する。このようにして、LU管理テーブル502を更新する。
次に、LU管理テーブル502及びイメージ作成ポリシーテーブル506を参照する(1306)。
次に、デプロイされたイメージの名称とLU管理テーブル502のイメージ名702とが一致し、且つ優先順位703が「−」でないレコードをLU管理テーブル502から選択する。次に、選択したレコードの数を数える。
次に、デプロイされたイメージの名称とイメージ作成ポリシーテーブル506のイメージ名1201とが一致するレコードの複製契機1202を抽出する。そして、数えたレコード数と抽出した複製契機1202とを比較する。つまり、デプロイされたイメージを記憶するLU114の個数と複製契機1202とを比較する(1307)。
そして、デプロイされたイメージを記憶するLU114の個数が、抽出された複製契機1202以下であるか否かを判定する(1308)。
複製契機1202以下であると、当該イメージを記憶するLU114の複製が不足しているので、イメージ作成機構507にイメージを記憶するLU114の複製を要求する(1309)。
次に、デプロイされたイメージを記憶するLU114の個数(ステップ1307で数えたレコード数)をインクリメントし(1310)、ステップ1308へ戻る。
一方、複製契機1202以下でないと、当該イメージを記憶するLU114は十分な個数複製されていると判定するので、本処理を終了する。
なお、本処理のステップ1303では、イメージを記憶するLU114が要求個数以上となるまで、イメージ作成機構507にイメージを記憶するLU114の複製を要求している。しかし、現在存在するLU114に対してだけデプロイを完了し、その後、不足しているLU114の複製をイメージ作成機構507に要求してもよい。これによって、イメージを記憶するLU114を複製するとすぐにデプロイすることができるので、早急なスケールアウトに対応できる。
図20は、本発明の第1の実施の形態のイメージ作成機構507の処理のフローチャートである。
イメージを記憶するLU114の複製をLU制御機構504又はポリシー更新機構510等から要求されると、本処理を開始する。まず、ライセンス管理テーブル901及びパッチ管理テーブル902を参照する(1401)。
参照したこれらのテーブルから、空きライセンスがあるか否かを判定する(1402)。具体的には、要求されたイメージの名称とパッチ管理テーブル902のイメージ名1101とが一致するレコードのコンテンツ1102をパッチ管理テーブル902から抽出する。抽出したコンテンツ1102と一致するライセンス管理テーブル901の行を選択し、選択した行の空きライセンス1006を抽出する。そして、抽出した空きライセンス1006が「0」であるか否かを判定する。
空きライセンスがないと、要求されたイメージを記憶するLU114を複製することができないので、ライセンス不足をコンソール116へ通知し(1410)、処理を終了する。
一方、空きライセンスがあると、LU管理テーブル502を参照する(1403)。次に、要求されたイメージの名称とLU管理テーブル502のイメージ名702とが一致するレコードの容量704を抽出する。次に、空き容量706内の複製含む空き値を抽出する。そして、抽出した容量704が、抽出した複製含む空き値以上であるか否かを判定する。これによって、要求されたイメージを記憶するLU114を複製する領域があるか否かを判定する(1404)。
LU114を複製する領域がないと、要求されたイメージを記憶するLU114を複製する領域を作る必要があるので、LU管理テーブル502の優先順位703が最下位のレコードの論理ディスク番号701を抽出する。次に、抽出した論理ディスク番号701のLU114を削除することによって、当該LU114が占有している領域を解放する(1407)。
次に、LU管理テーブル502を更新する(1408)。具体的には、削除したLU114の識別子と論理ディスク番号701とが一致するレコードを選択する。選択したレコードの容量704を抽出し、その後、選択したレコードを削除する。次に、抽出した容量704を空き容量706内の複製含む空き値に加算する。更に、抽出した容量704を全使用容量705内の複製含む使用値から減算する。
このようにしてLU管理テーブル502を更新すると、ステップ1403に戻る。
一方、ステップ1404でLU114を複製する空き領域があると、要求されたイメージを記憶するLU114を複製する(1405)。
次に、LU管理テーブル502を更新する(1406)。具体的には、複製したLU114の識別子をLU管理テーブル502の論理ディスク番号701に格納する。次に、複製したLU114に記憶されているイメージの名称を当該レコードのイメージ名702に格納し、更に、複製したLU114の記憶容量を当該レコードの容量704に格納する。
そして、複製したLU114の優先順位の変更を優先順位更新機構512に要求し(1409)、本処理を終了する。
以上のように、イメージ作成機構507は、ライセンスを管理しながらイメージを記憶するLU114を複製することができる。また、イメージ作成機構507は、業務等で記憶領域が必要になると、優先順位の低いLU114を削除し、必要な記憶領域を確保することができる。
図21は、本発明の第1の実施の形態のポリシー更新機構510の処理のフローチャートである。
サーバ情報取得機構104からサーバ107に関する情報を受信すると(1501)、処理を開始する。なお、サーバ情報取得機構104は、図22で後述するように、サーバ107から情報を取得し、取得したサーバ107に関する情報をポリシー更新機構510に送信する。
まず、CPU−LU割当管理テーブル501、LU管理テーブル502及び複製契機更新ポリシーテーブル508を参照する(1502)。
次に、情報を取得されたサーバ107の識別子とCPU−LU割当管理テーブル501のサーバ識別子601とが一致するレコードの論理ディスク番号604を、CPU−LU割当管理テーブル501から抽出する。次に、抽出した論理ディスク番号604とLU管理テーブル502の論理ディスク番号701とが一致するレコードのイメージ名702をLU管理テーブル502から抽出する。
次に、抽出したイメージ名702と複製契機更新ポリシーテーブル508のイメージ名1204とが一致するレコードを選択する。次に、取得したサーバ107に関する情報に対応する複製契機設定値1206を、選択したレコードから抽出する。
次に、抽出したイメージ名702とイメージ作成ポリシーテーブル506のイメージ名1201とが一致するレコードの複製契機1202をイメージ作成ポリシーテーブル506から抽出する。そして、抽出した複製契機設定値1206と複製契機1202とが一致するか否かを判定する。これによって、イメージ作成ポリシーテーブル506の複製契機1202を変更する必要があるか否かを判定する(1503)。
複製契機1202を変更する必要がないと、そのままステップ1505に進む。
一方、複製契機1202を変更する必要があると、抽出した複製契機設定値1206をイメージ作成ポリシーテーブル506の複製契機1202に格納することによって、イメージ作成ポリシーテーブル506を更新する(1504)。
次に、ステップ1503で抽出したイメージ名702とLU管理テーブル502のイメージ名702とが同一であり、且つ優先順位703が「−」でないすべてのレコードをLU管理テーブル502から選択する。次に、選択したレコードの数を数える。次に、数えたレコード数が、更新された複製契機1202以下であるか否かを判定する。つまり、当該イメージを記憶するLU114の個数が、抽出された複製契機1202以下であるか否かを判定する(1505)。
複製契機1202以下であると、当該イメージを記憶するLU114の複製が不足しているので、イメージ作成機構507にイメージの複製を要求し(1506)、ステップ1505に戻る。
一方、複製契機1202以下でないと、当該イメージを記憶するLU114は十分な個数複製されているので、本処理を終了する。
以上のように、ポリシー更新機構510は、イメージ作成ポリシーテーブル506を変更することができる。これによって、本実施の形態のブレードサーバシステムは、サーバ107の負荷の急激な変化に対応することができる。
図22は、本発明の第1の実施の形態のサーバ情報取得機構104の処理のフローチャートである。
まず、ソフトウェア監視機構214、FC−SW管理機構112又はNW−SW管理機構111からサーバ107に関する情報を所定の間隔で取得する。また、サーバ107に障害が発生すると、BMC109内のハードウェア監視機構301からサーバ107に関する障害情報を取得する(1601)。
次に、取得したサーバに関する情報をイメージ作成ポリシー更新機構510へ送信し(1602)、処理を終了する。
以上のように、サーバ情報取得機構104は、サーバ107に関する各種情報を取得することができる。これによって、本実施の形態のブレードサーバシステムは、サーバ107の負荷及び障害を検知するので、イメージを記憶するLU114を自動的に複製でき、ユーザの手間を軽減できる。
(第2の実施の形態)
本発明の第2の実施の形態は、サービスを提供している(稼動中)サーバ107にローリングアップデートによってパッチを適用する例を示す。ここで、ローリングアップデートとは、クライアントコンピュータから各サーバ107を見たときに、サーバ107のOSを見かけ上停止させることなく、パッチプログラムを適用するものである。
第2の実施の形態のブレードサーバシステムは、パッチ適用機構511の処理を除き、第1の実施の形態と同一である。
図23は、本発明の第2の実施の形態のパッチ適用機構511の処理のフローチャートである。
まず、コンソール116からパッチの適用を要求されると、処理を開始する(1131)。
次に、パッチ・リビジョン管理テーブル903を参照する(1132)。適用を要求されたパッチのリビジョンとパッチのリビジョン1106とが一致するレコードがパッチ・リビジョン管理テーブル903に存在するか否かを判定する。これによって、要求されたパッチが適用済みであるか否かを判定する(1133)。
適用済みであると、要求されたパッチが適用済みであることをコンソール116へ通知し(1134)、本処理を終了する。
一方、適用済みでないと、パッチを適用するサーバ107の識別子とCPU−LU割当管理テーブル501のサーバ識別子601が一致するレコードの論理ディスク番号604をCPU−LU割当管理テーブル501から抽出する。そして、抽出した論理ディスク番号604に値が格納されているか否かを判定する。これによって、パッチを適用するサーバ107がサービスを提供中であるか否かを判定する(1135)。なお、パッチを適用するサーバ107内のコンテンツの起動状況をソフトウェア監視機構214から取得して、パッチを適用するサーバ107がサービスを提供中であるか否かを判定してもよい。
サーバ107がサービス提供中でないと、パッチをサーバ107にすぐに適用することができるので、ステップ1138に進む。
サーバ107がサービス提供中であると、パッチをサーバ107に適用することができないので、パッチを適用するサーバ107をロードバランサの振り分け対象から外す(1136)。これによって、パッチを適用するサーバ107にサービスが振り分けられなくなる。
次に、パッチを適用するサーバ107内のミドルウェア又はアプリケーションを管理する管理サーバ101内のマネージャに該当ミドルウェア又はアプリケーションの閉塞又は縮退を要求する(1137)。ここで、閉塞とは、管理対象のサーバに対してサービス停止要求を出すことである。縮退とは、閉塞後にマネージャの管理下からサーバを外すことである。閉塞又は縮退を要求されたミドルウェア又はアプリケーションは、提供しているサービスを中止する。
次に、要求されたパッチをサーバ107に適用する(1138)。そして、パッチリビジョン管理テーブル903を更新する。具体的には、パッチを適用したコンテンツの種類を種別1105へ格納し、適用したパッチのリビジョンをパッチのリビジョン1106に格納する。
次に、パッチを適用したサーバ107にテスト・プログラムを実行させる。次に、パッチを適用したサーバ107からテスト・プログラムの実行結果を受け取る。そして、受け取った実行結果から、パッチを適用したサーバ107に問題が発生しているか否かを判定する(1139)。
問題が発生していると、問題発生をコンソール116に通知する(1140)。
一方、問題が発生していないと、パッチを適用したサーバ107をサービスへ即時に追加するか否かを判定する(1141)。
即時に追加しない場合、そのまま本処理を終了する。一方、即時に追加する場合、管理サーバ101内のマネージャにパッチを適用したサーバ107内のミドルウェア又はアプリケーションの閉塞解除又はスケールアウトを要求する。そして、パッチを適用したサーバ107をロードバランサの振り分け対象へ追加し(1142)、本処理を終了する。
以上のように、本実施の形態のパッチ適用機構511は、サービスを提供中のサーバ107に対しても、パッチを適用することができる。
なお、上記各実施形態では、ブレードサーバシステムに本発明を適用した例を示したが、複数のサーバを管理する計算機システムに適用することができ、例えば、クラスタサーバや論理分割を行う仮想計算機などに適用することができる。
本発明の第1の実施の形態のブレードサーバシステムの構成のブロック図である。 本発明の第1の実施の形態のサーバのハードウェア構成のブロック図である。 本発明の第1の実施の形態のサーバのソフトウェア構成のブロック図である。 本発明の第1の実施の形態の管理サーバとサーバとの通信の説明図である。 本発明の第1の実施の形態のディスクアレイ装置内のLUの説明図である。 本発明の第1の実施の形態の管理サーバに備えられているLU管理機構の構成のブロック図である。 本発明の第1の実施の形態のLU管理機構に備えられているCPU−LU割当管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているスケールアウト後のCPU−LU割当管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているスケールアップ後のCPU−LU割当管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているLU管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているコンテンツ管理テーブルの構成のブロック図である。 本発明の第1の実施の形態のLU管理機構に備えられているライセンス管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているパッチ管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているパッチ・リビジョン管理テーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられているイメージ作成ポリシーテーブルの構成図である。 本発明の第1の実施の形態のLU管理機構に備えられている複製契機更新ポリシーテーブルの構成図である。 本発明の第1の実施の形態の優先順位更新機構の処理のフローチャートである。 本発明の第1の実施の形態のパッチ適用機構の処理のフローチャートである。 本発明の第1の実施の形態のLU制御機構の処理のフローチャートである。 本発明の第1の実施の形態のイメージ作成機構の処理のフローチャートである。 本発明の第1の実施の形態のポリシー更新機構の処理のフローチャートである。 本発明の第1の実施の形態のサーバ情報取得機構の処理のフローチャートである。 本発明の第2の実施の形態のパッチ適用機構の処理のフローチャートである。
符号の説明
101 管理サーバ
102 デプロイ制御機構
103 LU管理機構
104 サーバ情報取得機構
105 FC−SW
106 NW−SW
107 サーバ
108 NIC
109 BMC
110 FCA
111 NW−SW管理機構
112 FC−SW管理機構
113 ディスクアレイ装置
114 LU
115 ディスクコントローラ
116 コンソール
117 NW−SW
118 ロードバランサ
501 CPU−LU割当管理テーブル
502 LU管理テーブル
504 LU制御機構
505 コンテンツ管理テーブル
506 イメージ作成ポリシーテーブル
507 イメージ作成機構
508 複製契機更新ポリシーテーブル
510 ポリシー更新機構
511 パッチ適用機構
512 優先順位更新機構

Claims (14)

  1. オペレーティングシステムを装備するディスクイメージを記憶する論理ディスクを有するストレージ装置と、ストレージネットワークを介して前記ストレージ装置に接続する複数のサーバと、を備えるサーバシステムにおけるデプロイ方法であって、
    デプロイ管理機構は、複製した論理ディスクを管理するLU管理テーブルを備え、
    前記デプロイ管理機構が、業務へのサーバ追加投入に備えて、デプロイの指令を受ける以前に、前記ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複数複製する処理と、
    前記デプロイ管理機構が、デプロイの指令を受け付ける処理と、
    前記デプロイ管理機構が、デプロイの指令を受けると、前記LU管理テーブルに基づいて、デプロイを指令されたディスクイメージを複製した論理ディスクが前記ストレージ装置の空き領域に存在するか否かを判定する処理と、
    前記デプロイ管理機構が、前記論理ディスクが前記ストレージ装置の空き領域に存在しなければ、デプロイを指令されたディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製する処理と、を含み、
    前記LU管理テーブルは、前記ディスクイメージを複製した論理ディスクの容量及び優先順位を格納し、
    前記デプロイ管理機構が、前記ストレージ装置の空き領域が不足すると、前記LU管理テーブルに基づいて、優先順位の低い前記論理ディスクを選択する処理と、
    前記デプロイ管理機構が、前記選択した論理ディスクを削除する処理と、
    をさらに含むことを特徴とするデプロイ方法。
  2. 前記デプロイ管理機構が、
    デプロイの指令を受け付ける処理と、
    デプロイの指令を受けると、デプロイを指令された前記サーバ装置と前記ディスクイメージを複製した論理ディスクとのパスを設定する処理と、
    前記複製した論理ディスクにサーバの固有情報を設定する処理と、を含むことを特徴とする請求項1に記載のデプロイ方法。
  3. 前記デプロイ管理機構が、
    前記ディスクイメージに含まれるコンテンツのライセンスを管理するライセンステーブルを備え、
    前記ディスクイメージを記憶する論理ディスクを複製する処理の前に、該ディスクイメージに含まれるコンテンツのライセンスに空きがあるか否かを前記ライセンステーブルから判定する処理と、
    ライセンスに空きがなければ、ライセンスの不足を通知する処理と、
    ライセンスに空きがあれば、該ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製する処理と、を含むことを特徴とする請求項1に記載のデプロイ方法。
  4. 前記デプロイ管理機構が、
    前記ディスクイメージを記憶する論理ディスクを複製する処理の契機を示すポリシーテーブルを備え、
    前記ポリシーテーブルに基づいて、前記論理ディスクを前記ストレージ装置の空き領域に複製するか否かを決定する処理を含むことを特徴とする請求項1に記載のデプロイ方法。
  5. 前記デプロイ管理機構が、
    前記サーバに関する情報を取得する処理と、
    前記取得したサーバに関する情報に応じて、前記ポリシーテーブルを変更する処理と、を含むことを特徴とする請求項4に記載のデプロイ方法。
  6. 前記デプロイ管理機構が、
    前記ディスクイメージに関するパッチを管理するパッチ管理テーブルを備え、
    パッチを適用していない前記ディスクイメージを前記パッチ管理テーブルから選択する処理と、
    前記選択したディスクイメージを記憶する前記論理ディスクにパッチを適用する処理と、を含むことを特徴とする請求項1に記載のデプロイ方法。
  7. オペレーティングシステムを装備するディスクイメージを記憶する論理ディスクを有するストレージ装置と、ストレージネットワークを介して前記ストレージ装置に接続する複数のサーバと、を備えるサーバシステムにおける管理サーバが前記サーバに前記ディスクイメージをデプロイするプログラムであって、
    業務へのサーバ追加投入に備えて、デプロイの指令を受ける以前に、前記ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複数複製する手順と、
    デプロイの指令を受け付ける手順と、
    デプロイの指令を受けると、前記管理サーバに備えられて前記複製した論理ディスクを管理するLU管理テーブルに基づいて、デプロイを指令されたディスクイメージを複製した論理ディスクが前記ストレージ装置の空き領域に存在するか否かを判定する手順と、
    該論理ディスクが前記ストレージ装置の空き領域に存在しなければ、デプロイを指令されたディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製する手順と、
    前記LU管理テーブルは、前記ディスクイメージを複製した論理ディスクの容量及び優先順位を格納して、前記ストレージ装置の空き領域が不足すると、前記LU管理テーブルに基づいて、優先順位の低い前記論理ディスクを選択する手順と、
    記選択した論理ディスクを削除する手順と、
    前記管理サーバに実行させることを特徴とするプログラム。
  8. さらに、デプロイの指令を受け付ける手順と、
    デプロイの指令を受けると、デプロイを指令された前記サーバ装置と前記ディスクイメージを複製した論理ディスクとのパスを設定する手順と、
    前記複製した論理ディスクにサーバの固有情報を設定する手順と、を含むことを特徴とする請求項7に記載のプログラム。
  9. 前記管理サーバが、前記ディスクイメージに含まれるコンテンツのライセンスを管理するライセンステーブルを備え、
    前記ディスクイメージを記憶する論理ディスクを複製する前に、該ディスクイメージに含まれるコンテンツのライセンスに空きがあるか否かを前記ライセンステーブルから判定する手順と、
    ライセンスに空きがなければ、ライセンスの不足を通知する手順と、
    ライセンスに空きがあれば、該ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製する手順と、を含むことを特徴とする請求項7に記載のプログラム。
  10. 前記管理サーバが、前記ディスクイメージを記憶する論理ディスクを複製する処理の契機を示すポリシーテーブルを備え、
    前記ポリシーテーブルに基づいて、前記論理ディスクを前記ストレージ装置の空き領域に複製するか否かを決定する手順を含むことを特徴とする請求項7に記載のプログラム。
  11. さらに、前記サーバに関する情報を取得する手順と、
    前記取得したサーバに関する情報に応じて、前記ポリシーテーブルを変更する手順と、を含むことを特徴とする請求項10に記載のプログラム。
  12. 前記管理サーバが、前記ディスクイメージに関するパッチを管理するパッチ管理テーブルを備え、
    パッチを適用していない前記ディスクイメージを前記パッチ管理テーブルから選択する手順と、
    前記選択したディスクイメージを記憶する前記論理ディスクにパッチを適用する手順と、を含むことを特徴とする請求項7に記載のプログラム。
  13. オペレーティングシステムを装備するディスクイメージを記憶する論理ディスクを有するストレージ装置と、ストレージネットワークを介して前記ストレージ装置に接続する複数のサーバと、前記サーバに前記ディスクイメージをデプロイするデプロイ管理機構と、を備えるサーバシステムにおいて、
    前記デプロイ管理機構は、複製した論理ディスクを管理するLU管理テーブルを備え、
    前記デプロイ管理機構は、
    業務へのサーバ追加投入に備えて、デプロイの指令を受ける以前に、前記ディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複数複製し、
    デプロイの指令を受け付け、
    デプロイの指令を受けると、前記LU管理テーブルに基づいて、デプロイを指令されたディスクイメージを複製した論理ディスクが前記ストレージ装置の空き領域に存在するか否かを判定し、
    該論理ディスクが前記ストレージ装置の空き領域に存在しなければ、デプロイを指令されたディスクイメージを記憶する論理ディスクを前記ストレージ装置の空き領域に複製し、
    前記LU管理テーブルは、前記ディスクイメージを複製した論理ディスクの容量及び優先順位を格納し、
    前記デプロイ管理機構は、前記ストレージ装置の空き領域が不足すると、前記LU管理テーブルに基づいて、優先順位の低い前記論理ディスクを選択し、当該選択した論理ディスクを削除することを特徴とするサーバシステム。
  14. 前記デプロイ管理機構が、
    デプロイの指令を受け付け、
    デプロイの指令を受けると、デプロイを指令された前記サーバ装置と前記ディスクイメージを複製した論理ディスクとのパスを設定し、前記複製した論理ディスクにサーバの固有情報を設定することを特徴とする請求項13に記載のサーバシステム。
JP2004355101A 2004-12-08 2004-12-08 デプロイ方法、プログラム及びサーバシステム Expired - Fee Related JP4833541B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004355101A JP4833541B2 (ja) 2004-12-08 2004-12-08 デプロイ方法、プログラム及びサーバシステム
US11/033,731 US7653901B2 (en) 2004-12-08 2005-01-13 Quick deployment method
US12/630,047 US7958503B2 (en) 2004-12-08 2009-12-03 Quick deployment method
US13/105,163 US8434078B2 (en) 2004-12-08 2011-05-11 Quick deployment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004355101A JP4833541B2 (ja) 2004-12-08 2004-12-08 デプロイ方法、プログラム及びサーバシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011107998A Division JP5043212B2 (ja) 2011-05-13 2011-05-13 デプロイ方法、プログラム及びサーバシステム

Publications (2)

Publication Number Publication Date
JP2006163885A JP2006163885A (ja) 2006-06-22
JP4833541B2 true JP4833541B2 (ja) 2011-12-07

Family

ID=36575851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004355101A Expired - Fee Related JP4833541B2 (ja) 2004-12-08 2004-12-08 デプロイ方法、プログラム及びサーバシステム

Country Status (2)

Country Link
US (3) US7653901B2 (ja)
JP (1) JP4833541B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4833541B2 (ja) * 2004-12-08 2011-12-07 株式会社日立製作所 デプロイ方法、プログラム及びサーバシステム
US7877556B2 (en) * 2007-03-30 2011-01-25 Hitachi, Ltd. Method and apparatus for a unified storage system
US8069341B2 (en) * 2007-06-29 2011-11-29 Microsoft Corporation Unified provisioning of physical and virtual images
US8166469B2 (en) * 2007-08-20 2012-04-24 Red Hat, Inc. Method and an apparatus to conduct software release
US8146076B1 (en) * 2007-09-17 2012-03-27 Symantec Corporation Systems and methods for customizing boot disk images using prioritization
US8117235B1 (en) * 2008-09-29 2012-02-14 Emc Corporation Techniques for binding resources for use by a consumer tier
JP4648447B2 (ja) 2008-11-26 2011-03-09 株式会社日立製作所 障害復旧方法、プログラムおよび管理サーバ
US8533701B2 (en) * 2010-03-15 2013-09-10 Microsoft Corporation Virtual machine image update service
US9262196B2 (en) 2010-11-30 2016-02-16 International Business Machines Corporation Virtual machine deployment planning method and associated apparatus
CN102169441A (zh) * 2011-03-18 2011-08-31 浪潮电子信息产业股份有限公司 一种刀片操作系统快速部署方法
US8706859B2 (en) * 2011-03-29 2014-04-22 Hitachi, Ltd. Method and apparatus of data center file system
CN102739424B (zh) * 2011-04-08 2014-12-10 中兴通讯股份有限公司 一种基于业务许可的资源优化方法及装置
JP5092046B1 (ja) * 2011-07-29 2012-12-05 株式会社東芝 情報処理装置およびプログラム
JP2013077085A (ja) * 2011-09-29 2013-04-25 Fujitsu Ltd 生成装置、生成方法、生成プログラム、及び実行プログラム
JP5735899B2 (ja) * 2011-10-25 2015-06-17 日本電信電話株式会社 サービス提供システム、ファイル更新方法、および分散管理装置
CN102413202B (zh) * 2011-11-18 2014-01-15 浪潮电子信息产业股份有限公司 一种刀片服务器管理内网ip的自动分配方法
CN102520989A (zh) * 2011-12-01 2012-06-27 浪潮电子信息产业股份有限公司 一种基于u盘的智能集群系统部署的方法
US9448807B2 (en) * 2013-04-29 2016-09-20 Global Foundries Inc. Automatic creation, deployment, and upgrade of disk images
US9537949B2 (en) * 2013-09-24 2017-01-03 Clearcube Technology, Inc. Computer system image clustering architecture and use
CN103929506A (zh) * 2014-04-21 2014-07-16 华为技术有限公司 为ip硬盘分配ip地址的方法和装置
CN108089890B (zh) * 2016-11-21 2019-09-20 杨正 一种基于磁盘的应用运行方法及系统
CN111190608B (zh) * 2018-11-14 2022-09-16 佛山市顺德区顺达电脑厂有限公司 用于待测装置的作业系统布署方法
JP7466416B2 (ja) 2020-09-14 2024-04-12 エイチ・シー・ネットワークス株式会社 資産管理装置及び資産管理プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US80656A (en) * 1868-08-04 Improvement in folding chairs
US123386A (en) * 1872-02-06 Improvement in combined knife-and-fork cleaners, knife-sharpeners
US243630A (en) * 1881-06-28 Fifths to h
US78959A (en) * 1868-06-16 Improvement in machines foe bounding slate-femes
JPS61278902A (ja) * 1985-06-04 1986-12-09 Hitachi Ltd 制御装置のバツクアツプ方法
JPH01237744A (ja) * 1988-03-17 1989-09-22 Nec Corp 通信制御装置切替方式
US20020103889A1 (en) * 2000-02-11 2002-08-01 Thomas Markson Virtual storage layer approach for dynamically associating computer storage with processing hosts
JP3907155B2 (ja) * 2000-09-04 2007-04-18 株式会社リコー 画像データ補正装置,画像読取り装置および画像形成装置
US7231360B2 (en) * 2000-11-22 2007-06-12 Sy Bon K Time-based software licensing approach
JP4828709B2 (ja) * 2001-03-19 2011-11-30 株式会社東芝 自動osインストール方法及び計算機ネットワークシステム
US20030055919A1 (en) * 2001-08-30 2003-03-20 Fong Ryan Patrick One-click deployment of data processing systems
US7496645B2 (en) * 2001-10-18 2009-02-24 Hewlett-Packard Development Company, L.P. Deployment of business logic software and data content onto network servers
CN1293477C (zh) * 2002-04-03 2007-01-03 鲍尔凯斯特公司 为计算机和存储资源的管理使用分离的映像
WO2003093961A2 (en) * 2002-05-02 2003-11-13 Shieldip, Inc. Method and apparatus for protecting information and privacy
US7765299B2 (en) * 2002-09-16 2010-07-27 Hewlett-Packard Development Company, L.P. Dynamic adaptive server provisioning for blade architectures
JP4409181B2 (ja) * 2003-01-31 2010-02-03 株式会社日立製作所 画面データ生成方法、コンピュータ、プログラム
US8209680B1 (en) * 2003-04-11 2012-06-26 Vmware, Inc. System and method for disk imaging on diverse computers
US7290258B2 (en) * 2003-06-25 2007-10-30 Microsoft Corporation Managing multiple devices on which operating systems can be automatically deployed
US20050010918A1 (en) * 2003-07-11 2005-01-13 International Business Machines Corporation Autonomic image migration/deployment appliance
US7555441B2 (en) * 2003-10-10 2009-06-30 Kronos Talent Management Inc. Conceptualization of job candidate information
US20050160150A1 (en) * 2004-01-20 2005-07-21 Su-Hwa Kao Apparatus and method for managing and transporting virtual disks over a network to networked stations
JP2005266933A (ja) * 2004-03-16 2005-09-29 Fujitsu Ltd ストレージ管理システム及びストレージ管理方法
TWI278199B (en) * 2004-03-26 2007-04-01 Quanta Comp Inc Deployment method and system for multiple remote computers
US7340616B2 (en) * 2004-05-26 2008-03-04 Intel Corporation Power management of storage units in a storage array
US20060080656A1 (en) * 2004-10-12 2006-04-13 Microsoft Corporation Methods and instructions for patch management
JP4833541B2 (ja) 2004-12-08 2011-12-07 株式会社日立製作所 デプロイ方法、プログラム及びサーバシステム

Also Published As

Publication number Publication date
US7958503B2 (en) 2011-06-07
US7653901B2 (en) 2010-01-26
US20060123386A1 (en) 2006-06-08
US20100077389A1 (en) 2010-03-25
US20110213939A1 (en) 2011-09-01
US8434078B2 (en) 2013-04-30
JP2006163885A (ja) 2006-06-22

Similar Documents

Publication Publication Date Title
JP4833541B2 (ja) デプロイ方法、プログラム及びサーバシステム
CN111488241B (zh) 在容器编排平台实现无代理备份与恢复操作的方法和系统
JP5011073B2 (ja) サーバ切り替え方法、およびサーバシステム
US20230058369A1 (en) Distribution of resources for a storage system
US7581062B2 (en) Disk array system
US7574575B2 (en) Disk array device including a system LU for storing control information in the disk array and backup LU for backing up the control information and controlling method thereof
JP5142678B2 (ja) デプロイ方法およびシステム
US7941510B1 (en) Management of virtual and physical servers using central console
JP2021506044A (ja) 自動的に配備される情報技術(it)システム及び方法
US20050166011A1 (en) System for consolidating disk storage space of grid computers into a single virtual disk drive
US20050086445A1 (en) Storage system and method for backup
JP2010152704A (ja) 計算機システムの運用管理システム及び管理方法
JP4232357B2 (ja) 計算機システム
CN111273871A (zh) 容器平台上动态分配存储资源的方法及装置
US7849264B2 (en) Storage area management method for a storage system
WO2015052836A1 (ja) ストレージ装置及びフェールオーバ方法
EP3436923B1 (en) Storage cluster
WO2021046693A1 (zh) 存储系统中数据处理方法、装置以及存储系统
JP5486038B2 (ja) サーバ切り替え方法、およびサーバシステム
JP5043212B2 (ja) デプロイ方法、プログラム及びサーバシステム
JP5744259B2 (ja) サーバ切り替え方法、サーバシステム、及び管理計算機
CN118193479A (zh) 一种存储空间的分配方法及服务器
CN116980301A (zh) 桌面管理方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110922

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees