JP4359609B2 - 計算機システム、システムソフトウェア更新方法及び第1サーバ装置 - Google Patents

計算機システム、システムソフトウェア更新方法及び第1サーバ装置 Download PDF

Info

Publication number
JP4359609B2
JP4359609B2 JP2006308895A JP2006308895A JP4359609B2 JP 4359609 B2 JP4359609 B2 JP 4359609B2 JP 2006308895 A JP2006308895 A JP 2006308895A JP 2006308895 A JP2006308895 A JP 2006308895A JP 4359609 B2 JP4359609 B2 JP 4359609B2
Authority
JP
Japan
Prior art keywords
server device
virtual server
management
system software
business
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006308895A
Other languages
English (en)
Other versions
JP2008123412A (ja
Inventor
隆裕 中野
匡邦 揚妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006308895A priority Critical patent/JP4359609B2/ja
Priority to US11/622,253 priority patent/US8015559B2/en
Publication of JP2008123412A publication Critical patent/JP2008123412A/ja
Application granted granted Critical
Publication of JP4359609B2 publication Critical patent/JP4359609B2/ja
Priority to US13/195,942 priority patent/US8255898B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1433Saving, restoring, recovering or retrying at system level during software upgrading

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Stored Programmes (AREA)
  • Hardware Redundancy (AREA)
  • Multi Processors (AREA)

Description

本発明は、仮想サーバ装置が稼動する複数のノードによってクラスタが構成されている計算機システムに関し、特に、システムソフトウェアをバージョンアップする技術に関する。
ノードのシステムソフトウェアをバージョンアップする技術が特許文献1に開示されている。この技術によると、クライアント計算機(クライアントPC)へのサービス停止時間を最小限に抑えることができる。具体的には、クライアントPCへ提供されるサービスが待機中のノードへフェイルオーバされる。その後、ノードのシステムソフトウェアがバージョンアップされる。これによって、ノードのシステムソフトウェアがバージョンアップされている最中であっても、クライアントPCが、サービスを利用できる。
また、ノード上で複数の仮想サーバ装置が稼動する計算機システムが特許文献2に開示されている。当該計算機システムでは、それぞれの仮想サーバ装置が、サービスを提供する。このような計算機システムの中には、アプリケーションプログラム群ごとに仮想サーバ装置が稼動する計算機システムがある。当該計算機システムは、環境の切り替えに応じて、仮想サーバ装置のルートファイルシステムを切り替える。これによって、異なる設定を個々の仮想サーバ装置ごとに実現できる。なお、ルートファイルシステムは、システムソフトウェア及び当該システムソフトウェアの稼動に必要な設定情報などを含む。
更に、ノード上で複数の仮想サーバ装置が稼動する計算機システムを高信頼化する技術が特許文献3に開示されている。当該計算機システムでは、仮想サーバ装置ごとのファイルシステムが、クラスタを構成する複数のノードで共有される。そして、仮想サーバ装置は、クラスタを構成する複数のノードのうちの一つで稼動する。フェイルオーバの際には、フェイルオーバ元で稼動している仮想サーバ装置が停止される。そして、停止された仮想サーバ装置は、フェイルオーバ先のノードで起動される。これによって、クラスタを構成する複数のノードは、クライアントPCにサービスを継続して提供できる。
特開2005−148922号公報 特開2004−227127号公報 特開2005−267327号公報
特許文献3に開示されている計算機システムのシステムソフトウェアには、ノード用システムソフトウェア及びVNAS用システムソフトウェアが存在する。ノード用システムソフトウェアは、クラスタを構成するノードによって実行される。また、VNAS用システムソフトウェアは、ノードで稼動する仮想サーバ装置によって実行される。
ノード用システムソフトウェアは、特許文献1に開示されている技術によって、バージョンアップできる。
一方、仮想サーバ装置は、ノード用システムソフトウェアを実行しているノード上で、VNAS用システムソフトウェアを実行する。そのため、ノード用システムソフトウェアのバージョンとVNAS用システムソフトウェアのバージョンとが異なると、二つのシステムソフトウェアの互換性が維持できない場合がある。この場合、仮想サーバ装置の稼動でエラーが発生したり、誤った結果を返してしまったりという不具合を生じてしまう可能性がある。
このため、フェイルオーバ先のノードのノード用システムソフトウェアがバージョンアップされると、当該フェイルオーバ先のノードに仮想サーバ装置をフェイルオーバできない。なぜなら、フェイルオーバ元のノードで稼動している仮想サーバ装置のVNAS用システムソフトウェアは、古いバージョンだからである。
そこで、仮想サーバ装置のVNAS用システムソフトウェアをバージョンアップするためには、仮想サーバ装置のサービスを停止する必要がある。仮想サーバ装置のサービスを停止後に、仮想サーバ装置のVNAS用システムソフトウェアをバージョンアップする。そして、仮想サーバ装置を、フェイルオーバ先のノードにフェイルオーバする。
このように、仮想サーバ装置のVNAS用システムソフトウェアのバージョンアップでは、クライアントPCに提供されるサービスを長時間にわたって停止しなければならない。
また、仮想サーバ装置の管理者が仮想サーバ装置ごとに異なる場合、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者は、それぞれの管理者に仮想サーバ装置のサービス停止及び再開を依頼しなければない。そのため、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者の負担が大きい。
本発明は、前述した問題に鑑みてなされたものであって、仮想サーバ装置が提供するサービスの停止時間を短縮する計算機システムを提供することを目的とする。
本発明の代表的な形態の計算機システムは、第1プロセッサ、第1メモリ及び他の計算機と接続するための第1インタフェースを備える第1サーバ装置と、第2プロセッサ、第2メモリ及び他の計算機と接続するための第2インタフェースを備える第2サーバ装置と、第3プロセッサ、第3メモリ及び他の計算機と接続するための第3インタフェースを備える管理計算機と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムであって、前記管理計算機、前記第1サーバ装置、及び前記第2サーバ装置は、互いに接続され、前記ストレージ装置は、前記第1サーバ装置と前記第2サーバ装置とに接続され、前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、前記第2プロセッサ、前記第2メモリ及び前記第2インタフェースのそれぞれは、論理的に分割され、前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、前記分割された第2プロセッサ、第2メモリ及び第2インタフェースは、独立した仮想サーバ装置として、前記第2サーバ装置上で稼動し、前記仮想サーバ装置は、サービスを提供する一つ以上の業務仮想サーバ装置及び前記業務仮想サーバ装置を管理する管理仮想サーバ装置を含み、前記第1サーバ装置及び前記第2サーバ装置は、一方のサーバ装置上で稼働する前記業務仮想サーバに対応する業務仮想サーバ装置を、他方のサーバ装置上で稼動させることができ、前記ストレージ装置は、前記業務仮想サーバ装置がアクセス可能な記憶領域と、前記管理仮想サーバがアクセス可能な記憶領域とを含み、前記入出力制御部は、前記業務仮想サーバ装置又は前記管理仮想サーバ装置から、前記業務仮想サーバ装置がアクセス可能な記憶領域及び前記管理仮想サーバ装置がアクセス可能な記憶領域へのアクセスを制御し、前記第1サーバ装置で稼動する前記管理仮想サーバ装置は、前記管理計算機から、前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、前記第1サーバ装置のシステムソフトウェアの更新要求を受信した後に、前記第3インタフェースを介して前記管理計算機から、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ、並びに、前記第1サーバ装置で稼動している業務仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを取得し、前記第1サーバ装置で稼動しているすべての前記業務仮想サーバ装置を停止させ、前記第2サーバ装置で稼動している前記管理仮想サーバ装置に、前記第1サーバ装置で稼動していた前記業務仮想サーバ装置に対応する業務仮想サーバ装置を前記第2サーバ装置上で起動するように要求し、前記第1サーバ装置で稼動していた業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求後、前記取得された第1更新データを前記管理仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新し、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアの更新後、前記第1サーバ装置が実行する全ての処理を停止させた後に前記第1サーバ装置を再起動し、前記第1サーバ装置の再起動後、前記管理計算機から前記第2サーバ装置のシステムソフトウェアの更新要求を受信した前記第2サーバ装置で稼動している管理仮想サーバ装置から、前記第2サーバ装置で稼動する業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求を受けた場合、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアと、前記第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、前記二つのシステムソフトウェアが整合しない場合には、前記取得された第2更新データを用いて、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新した後に、当該第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置を起動することを特徴とする。
本発明の代表的な形態によると、仮想サーバ装置が提供するサービスの停止時間を短縮できる。更に、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者の負担を削減できる。
以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の実施の形態の計算機システムの構成のブロック図である。
計算機システムは、管理用計算機(管理用PC)110、クライアント計算機(クライアントPC)120、管理LAN(Local Area Network)130、データLAN131、ストレージネットワーク140、ノード100及びストレージ装置170を備える。
管理LAN130は、管理用PC110とノード100とを接続する。データLAN131は、クライアントPC120とノード100とを接続する。ストレージネットワーク140は、ノード100とストレージ装置170とを接続する。ストレージネットワーク140には、例えば、SCSI又はFibreChannelが適用される。
管理用PC110は、CPU、メモリ、インタフェース及び記憶媒体読取装置111を備える。そして、管理用PC110は、管理LAN130を介して、ノード100を管理する。なお、管理用PC110については、図8で詳細を説明する。
記憶媒体読取装置111は、インストール用記憶媒体からデータを読み取る。例えば、記憶媒体読取装置111は、CD−ROM、DVD−ROM又はフラッシュメモリの読取ドライブである。このため、管理用PC110は、インストール用記憶媒体にアクセスできる。なお、インストール用記憶媒体については、図4で詳細を説明する。また、管理用PC110は、記憶媒体読取装置111を備えずに、記憶媒体読取装置111が接続されていてもよい。
クライアントPC120は、CPU、メモリ及びインタフェースを備える。そして、クライアントPC120は、ノード100からサービスの提供を受ける。本説明図では、クライアントPC120は、六台が図示されているが、計算機システムに何台備わっていてもよい。
ノード100は、クラスタを構成し、クライアントPC120にサービスを提供する。また、ノード100は、CPU101、メモリ102、ストレージインタフェース103、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105、クラスタ通信用ネットワークインタフェース108及びバス109を備える。
バス109は、CPU101、メモリ102、ストレージインタフェース103、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105及びクラスタ通信用ネットワークインタフェース108を相互に接続する。
CPU101は、メモリ102に記憶されるプログラムを実行することによって、各種処理を行う。例えば、CPU101は、ストレージ装置170に対してデータを入出力する。
メモリ102は、CPU101によって実行されるプログラム及びCPU101によって必要とされる情報等を記憶する。
ストレージインタフェース103は、ストレージネットワーク140を介して、ストレージ装置170に接続されるインタフェースである。例えば、ストレージインタフェース103は、SCSIインタフェース又はFibreChannelインタフェース等である。管理用ネットワークインタフェース104は、管理LAN130を介して管理用PC110に接続されるインタフェースである。
データ用ネットワークインタフェース105は、データLAN131を介して、クライアントPC120に接続されるインタフェースである。なお、本説明図では、それぞれのノード100が、三つのデータ用ネットワークインタフェース105を備えているが、いくつ備えていてもよい。
本説明図では、ノード100は、三つのデータ用ネットワークインタフェース105A〜105Cを備える。データ用ネットワークインタフェース105Aは、データLAN131Aを介して、クライアントPC120A及び120Bに接続される。また、データ用ネットワークインタフェース105Bは、データLAN131Bを介して、クライアントPC120C及び120Dに接続される。また、データ用ネットワークインタフェース105Cは、データLAN131Cを介して、クライアントPC120E及び120Fに接続される。
異なるデータLAN131A〜131C同士では、通信が干渉しない。
本実施の形態では、データLAN131A〜131Cは、物理的に異なる三つのネットワークである。しかし、データLAN131A〜131Cは、一つの物理的なネットワークがファイアウォール(Firewall)によって論理的に分割されたものであってもよい。
例えば、クライアントPC120側のLANとノード100側のLANとがファイアウォールを介して接続されることによって、データLAN131〜131Cが論理的に構築される。また、クライアントPC120側のLAN及びノード100側のLANがそれぞれ異なるファイアウォールを介してインターネットに接続されることによって、データLAN131〜131Cが論理的に構築される。他にも、クライアントPC120側のLAN及びノード100側のLANが複数ポートを持つ共通のファイアウォールを介してインターネットに接続されることによって、データLAN131〜131Cが論理的に構築される。
クラスタ通信用ネットワークインタフェース108は、ノード100同士の間を接続するインタフェースである。
例えば、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105又はクラスタ通信用ネットワークインタフェース108には、IEEE802シリーズ規格又はATM(Asynchronous Transfer Mode)などが適用される。
また、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105又はクラスタ通信用ネットワークインタフェース108には、IEEE802.3ad規格が適用されてもよい。この場合、複数の物理的なネットワークインタフェースが一つの接続とみなされるので、耐障害性が高まり、且つ、負荷が分散される。
更に、ノード100は、カーネル(図示省略)に備わる論理分割機能を使用することによって、当該ノード100上に、仮想的なサーバ装置(VNAS)を構築する。これによって、ノード100は、独立した複数のVNASをクライアントPC120等に提供する。
ストレージ装置170は、ディスクコントローラ(DKC)171及びディスクドライブを備える。DKC171は、ディスクドライブに対するデータの入出力を制御する。また、DKC171は、ディスクディスクの記憶領域を、一つ以上の論理ボリューム(LU)150、151、160として、ノード100に提供する。なお、DKC171は、LUでなく、ディスクドライブをノード100に提供してもよい。
ノード100A用システムLU150は、ノード100Aのシステムソフトウェア等を記憶し、ノード100Aからアクセスされる。更に、ノード100A用システムLU150は、ノード100Aのシステムソフトウェアのバージョンを記憶する。
一方、ノード100B用システムLU151は、ノード100Bのシステムソフトウェア等を記憶し、ノード100Bからアクセスされる。LU160は、各種情報を記憶し、ノード100AのVNAS及びノード100BのVNASの双方からアクセスされる。更に、ノード100B用システムLU151は、ノード100Bのシステムソフトウェアのバージョンを記憶する。
図2は、本発明の実施の形態のノード100A用システムLU150及びノード100B用システムLU151に記憶されるVNAS構成表200の構成図である。
VNAS構成表200は、VNAS名201、ネットワークデバイス202、ブロックデバイス203、ルートファイルシステム204及びシステムソフトウェアバージョン205を含む。
VNAS名201は、ノード100上で稼動するVNASの一意な識別子である。本実施の形態では、VNAS1、VNAS2及びVNAS3が、ノード100上で稼動する。
ネットワークデバイス202は、当該列のVNAS名201によって識別されるVNASに割り当てられるデータ用ネットワークインタフェース105の一意な識別子である。なお、VNASは、割り当てられているデータ用ネットワークインタフェース105を独占的に使用する。
本実施の形態では、VNAS1に、データ用ネットワークインタフェース105Aが割り当てられる。また、VNAS2に、データ用ネットワークインタフェース105Bが割り当てられる。また、VNAS3に、データ用ネットワークインタフェース105Cが割り当てられる。
ブロックデバイス203は、当該列のVNAS名201によって識別されるVNASに割り当てられるLU160の一意な識別子である。なお、VNASは、割り当てられているLU160を独占的に使用する。
本実施の形態では、VNAS1に、LU1(160)及びLU2(160)が割り当てられる。また、VNAS2に、LU3(160)及びLU4(160)が割り当てられる。また、VNAS3に、LU5(160)及びLU6(160)が割り当てられる。
ルートファイルシステム204は、当該列のブロックデバイス203によって識別されるLU160のうち、ルートファイルシステムを含むLU160の一意な識別子である。本実施の形態では、LU1(160)、LU3(160)及びLU5(160)がルートファイルシステムを含む。
システムソフトウェアバージョン205は、当該列のルートファイルシステム204によって識別されるLU160に含まれるルートファイルシステムのシステムソフトウェアのバージョンを示す。本実施の形態では、LU1(160)、LU3(160)及びLU5(160)に含まれるルートファイルシステムのシステムソフトウェアは、バージョン1.0である。
図6は、本発明の実施の形態の管理用PC110のハードウェア構成のブロック図である。
管理用PC110は、CPU801、メモリ802、ネットワークインタフェース804、入力装置805、表示装置806及び記憶媒体読取装置111を備える。
メモリ802は、CPU801によって実行されるプログラム及びCPU801によって必要とされる情報などを記憶する。例えば、メモリ802は、バージョンアップ指示プログラム330及びオペレーティングシステム807を記憶する。オペーレーティングシステム807は、管理用PC110の処理の全体を制御する。
CPU801は、メモリ802に記憶されるプログラムを実行することによって、各種処理を行う。例えば、CPU801は、バージョンアップ指示プログラム330及びオペレーティングシステム807をメモリ802から呼び出して実行する。更に、CPU801は、ネットワークインタフェース804、入力装置805、表示装置806及び記憶媒体読取装置111を制御する。
ネットワークインタフェース804は、管理LAN130を介して、ノード100A及び100Bに接続されるインタフェースである。
入力装置805には、バージョンアップ作業者などから情報が入力される。例えば、入力装置805は、バージョンアップ指示プログラム330の実行の指示、又はバージョンアップ指示プログラム330の進行の指示を受け付ける。
表示装置806は、各種情報を表示する。例えば、表示装置806は、バージョンアップ指示プログラム330の進行状況を表示する。
記憶媒体読取装置111は、インストール用記憶媒体700からデータを読み取る。そして、記憶媒体読取装置111は、読み取ったデータを、メモリ802又はネットワークインタフェース804に転送する。
図3は、本発明の実施の形態の計算機システムの機能構成のブロック図である。
管理用PC110のメモリ(図示省略)には、バージョンアップ指示プログラム330が記憶されている。バージョンアップ指示プログラム330は、ノード100のバージョンアップ処理プログラム310と連携して、システムソフトウェアのバージョンアップを行う。
クライアントPC120のメモリ(図示省略)には、クライアントプログラムが記憶されている。クライアントプログラムは、VNASのアプリケーションプログラム320と通信して、ユーザデータ360の作成、参照又は更新等を行う。
ノード100のCPU101は、オペレーティングシステム300を実行する。オペレーティングシステム300は、ノード100の処理の全体を制御する。
また、ノード100では、管理VNAS301が稼動している。管理VNAS301は、ノード100のリソースを管理する。具体的には、管理VNAS301は、ノード100のリソースを、VNAS1(302)、VNAS2(303)又はVNAS3(307)に割り当てる。これによって、管理VNAS301は、VNAS1(302)、VNAS2(303)及びVNAS3(307)の環境を構築する。
また、管理VNAS301は、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312を実行する。
つまり、管理VNAS301に割り当てられているメモリ102には、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312が格納される。
管理VNAS301に割り当てられているCPU101は、メモリ102から、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312を呼び出して実行する。
バージョンアップ処理プログラム310は、バージョンアップ指示プログラム330と連携して、システムソフトウェアのバージョンアップを行う。
VNAS管理プログラム311は、VNAS1(302)、VNAS2(303)又はVNAS3(307)を起動又は停止する。
クラスタ管理プログラム312は、当該クラスタ管理プログラム312を実行するノード100に接続されているノード100(外部ノード100)の状態を監視する。クラスタ管理プログラム312は、外部ノード100の異常を検知すると、当該外部ノード100で稼動中のVNASをフェイルオーバする。また、クラスタ管理プログラム312は、フェイルオーバ指示を受けると、当該フェイルオーバ指示で指定されたVNASをファイルオーバする。
本説明図において、ノード100Aでは、VNAS1(302)及びVNAS2(303)が稼動している。また、ノード100Bでは、VNAS3(307)が稼動している。この場合、ノード100Aは、VNAS3フェイルオーバ先304を備える。また、ノード100Bは、VNAS1フェイルオーバ先305及びVNAS2フェイルオーバ先306を備える。
VNAS1(302)、VNAS2(303)及びVNAS3(307)のそれぞれは、管理VNAS301によって割り当てられたノード100のリソースを使用して、サービスをクライアントPC120に提供する。また、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、アプリケーションプログラム320及び管理プログラム321を実行する。
つまり、VNAS1(302)、VNAS2(303)及びVNAS3(307)のいずれかに割り当てられているメモリ102には、アプリケーションプログラム320及び管理プログラム321が格納される。
VNAS1(302)、VNAS2(303)及びVNAS3(307)のいずれかに割り当てられているCPU101は、メモリ102から、アプリケーションプログラム320及び管理プログラム321を呼び出して実行する。
アプリケーションプログラム320は、クライアントPC120にサービスを提供する。例えば、アプリケーションプログラム320は、Webサーバ、ファイルサーバ、DBサーバ又は認証サーバ等である。
管理プログラム321は、VNASの起動又は停止の際に、アプリケーションプログラム320の実行環境を用意する。
VNAS1フェイルオーバ先305は、VNAS1(302)の稼動に必要なリソースを確保していることを示す。このため、VNAS1(302)は、ノード100A及び100Bのいずれで稼動しても、同一の構成となる。また、VNAS1(302)は、ノード100Aとノード100Bとの間を円滑に移動できる。
また、ノード100A及び100Bのいずれもが、ルートファイルシステムを含むLU160にアクセス可能である。よって、VNAS1(302)は、ノード100A又は100Bのいずれで稼動しても、同一のアプリケーションプログラム320を実行できる。
同様に、VNAS2フェイルオーバ先306は、VNAS2(303)の稼動に必要なリソースを確保していることを示す。また、VNAS3フェイルオーバ先304は、VNAS3(307)の稼動に必要なリソースを確保していることを示す。
ストレージ装置170は、ノード100A用システムLU150、ノード100B用システムLU151及びLU1〜6(160)を提供する。
ノード100A用システムLU150は、ノード100A上で稼動している管理VNAS301からアクセスされる。また、ノード100B用システムLU151は、ノード100B上で稼動している管理VNAS301からアクセスされる。
ノード100A用システムLU150及びノード100B用システムLU151のそれぞれには、オペレーティングシステムファイル340、バージョンアップ処理プログラムファイル341、VNAS管理プログラムファイル342、クラスタ管理プログラムファイル343、VNAS用システムソフトウェアパッケージ713及びVNAS構成表200が格納されている。
オペレーティングシステムファイル340は、ノード100に備わるCPU101によって実行されるオペレーティングシステム300を含む。バージョンアップ処理プログラムファイル341は、ノード100に備わる管理VNAS301によって実行されるバージョンアップ処理プログラム310を含む。
VNAS管理プログラムファイル342は、ノード100に備わる管理VNAS301によって実行されるVNAS管理プログラム311を含む。クラスタ管理プログラムファイル343は、ノード100に備わる管理VNAS301によって実行されるクラスタ管理プログラム312を含む。
VNAS用システムソフトウェアパッケージ713は、VNAS1(302)、VNAS2(303)及びVNAS3(307)のルートファイルシステムに適用されるソフトウェアパッケージである。具体的には、VNAS用システムソフトウェアパッケージ713は、アプリケーションプログラムファイル350の更新イメージ及び管理プログラムファイル351の更新イメージ等を含む。
VNAS構成表200(図2)は、VNAS1(302)、VNAS2(303)及びVNAS3(307)の構成を示す。
LU1(160)及びLU2(160)は、ノード100A又はノード100B上で稼動しているVNAS1(302)からアクセスされる。また、LU3(160)及びLU4(160)は、ノード100A又はノード100B上で稼動しているVNAS2(303)からアクセスされる。また、LU5(160)及びLU6(160)は、ノード100A又はノード100B上で稼動しているVNAS3(307)からアクセスされる。
LU1(160)、LU3(160)及びLU5(160)は、ルートファイルシステムを含む。ルートファイルシステムは、アプリケーションプログラムファイル350及び管理プログラムファイル351を含む。
アプリケーションプログラムファイル350は、ノード100に備わるVNAS1(302)、VNAS2(303)又はVNAS3(307)によって実行されるアプリケーションプログラム320を含む。管理プログラムファイル351は、ノード100に備わるVNAS1(302)、VNAS2(303)又はVNAS3(307)によって実行される管理プログラム321を含む。
LU2(160)、LU4(160)及びLU6(160)は、ユーザデータ360を含む。具体的には、VNAS1(302)は、LU2(160)にユーザデータ360を格納する。また、VNAS2(303)は、LU4(160)にユーザデータ360を格納する。また、VNAS3(307)は、LU6(160)にユーザデータ360を格納する。
このように、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、それぞれ異なるクライアントPC120にサービスを提供する。また、二つのノード100A及び100Bは、VNAS1(302)、VNAS2(303)及びVNAS3(307)を分散して稼動する。よって、当該計算機システムは、負荷を分散しているので、性能を高めることができる。更に、ノード100A又は100Bのいずれかに障害が発生しても、障害が発生していないノード100A又は100Bが、VNAS1(302)、VNAS2(303)及びVNAS3(307)を稼動する。そのため、ノード100A又は100Bのいずれか一方に障害が発生しても、当該計算機システムは、サービスを継続できる。
なお、高性能及び高信頼の計算機システムであっても、ソフトウェアのミスが発見されたり、機能を変更をしたり、新機能を追加する場合がある。この場合、システムソフトウェアを入れ替える(バージョンアップする)必要が生じる。以下、当該計算システムにおけるソフトウェアのバージョンアップについて説明する。
図4は、本発明の実施の形態のインストール用記憶媒体700の説明図である。
インストール用記憶媒体700には、バージョン情報711、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713が格納されている。
バージョン情報711は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713のバージョンを示す。
ノード用システムソフトウェアパッケージ712は、ノード100A用システムLU150及びノード100B用システムLU151に適用されるパッケージである。例えば、ノード用システムソフトウェアパッケージ712は、オペレーティングシステムファイル340、バージョンアップ処理プログラムファイル341、VNAS管理プログラムファイル342及びクラスタ管理プログラムファイル343のうち少なくとも一つの更新イメージを含む。
VNAS用システムソフトウェアパッケージ713は、ルートファイルシステムを含むLU1(160)、LU3(160)及びLU5(160)に適用されるパッケージである。例えば、VNAS用システムソフトウェアパッケージ713は、アプリケーションプログラムファイル350及び管理プログラムファイル351のうち少なくとも一方の更新イメージを含む。
図5A〜Eは、本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。
管理用PC110に備わる記憶媒体読取装置111には、新しいバージョンのシステムソフトウェアパッケージを含むインストール用記憶媒体700が予めセットされている。
まず、管理用PC110のバージョンアップ指示プログラム330は、ノード100Aのバージョンアップ処理プログラム310にバージョンアップを指示する(400)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの指示を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aで稼動しているすべてのVNASをノード100Bにフェイルオーバすることを、ノード100Aのクラスタ管理プログラム312に指示する(410)。
なお、ノード100Aのバージョンアップ処理プログラム310が、ノード100Aのクラスタ管理プログラム312からフェイルオーバの完了を通知されるまでには、時間がかかる。そこで、管理用PC110のバージョンアップ指示プログラム330は、インストール用記憶媒体700から、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を読み出す。次に、管理用PC110のバージョンアップ指示プログラム330は、読み出したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100Aのバージョンアップ処理プログラム310に送信する(401)。
すると、ノード100Aのバージョンアップ処理プログラム310は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を受信する。次に、ノード100Aのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100A用システムLU150に格納する(411)。
一方、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASに対して、繰返処理(ステップ420〜423)を実行する。本実施の形態では、ノード100Aのクラスタ管理プログラム312は、VNAS1(302)及びVNAS2(303)に対して、繰返処理を実行する。
まず、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているVNASを、順番に選択する(420)。次に、ノード100Aのクラスタ管理プログラム312は、選択したVNASの停止を、ノード100AのVNAS管理プログラム311に要求する(421)。
ノード100AのVNAS管理プログラム311は、VNASの停止要求を受けると、停止を要求されたVNASの稼動を停止する(430)。そして、ノード100AのVNAS管理プログラム311は、VNASの停止完了を、ノード100Aのクラスタ管理プログラム312に通知する。
ノード100Aのクラスタ管理プログラム312は、VNASの停止完了の通知を、ノード100AのVNAS管理プログラム311から受ける。すると、ノード100Aのクラスタ管理プログラム312は、ステップ420で選択したVNASの識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。
次に、ノード100Aのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Aのクラスタ管理プログラム312は、ステップ420で選択したVNASの起動要求を、ノード100Bのクラスタ管理プログラム312に送信する(422)。なお、VNASの起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASをステップ420で選択するまで、繰返処理を実行する。そして、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASをステップ420で選択すると、繰返処理を終了する(423)。本実施の形態では、繰返処理によって、VNAS1(302)及びVNAS2(303)の稼動が停止される。
その後、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(424)。
一方、ノード100Bのクラスタ管理プログラム312は、VNASの起動要求を、ノード100Aのクラスタ管理プログラム312から受信する。すると、ノード100Bのクラスタ管理プログラム312は、VNASの起動要求で指定されたVNASの起動を、ノード100BのVNAS管理プログラム311に要求する(450)。このとき、ノード100Bのクラスタ管理プログラム312は、受信したVNASの起動要求に含まれるシステムソフトウェアバージョンを、ノード100BのVNAS管理プログラム311に通知する。
ノード100BのVNAS管理プログラム311は、VNASの起動要求を受けると、ノード100B用システムLU151から、当該ノード100Bのシステムソフトウェアのバージョンを取得する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンと取得したノード100Bのシステムソフトウェアのバージョンとが、一致するか否かを判定する(460)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Bのシステムソフトウェアのバージョンとが一致する。
二つのバージョンが一致する場合、起動を要求されたVNASのシステムソフトウェアのバージョンアップは不要である。そこで、ノード100BのVNAS管理プログラム311は、起動を要求されたVNASを起動する(461)。更に、ノード100BのVNAS管理プログラム311は、起動したVNASの識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
本実施の形態では、ノード100BのVNAS管理プログラム311は、VNAS1(302)及びVNAS2(303)を起動する。
一方、ノード100Aのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713をノード100A用システムLU150に格納し、且つ、フェイルオーバの完了通知を受けると、ステップS412に進む。
ノード100Aのバージョンアップ処理プログラム310は、ノード100A用システムLU150に、ノード用システムソフトウェアパッケージ712を適用する。これによって、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aのシステムソフトウェアをバージョンアップする(412)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップを完了すると、管理用PC110のバージョンアップ指示プログラム330にバージョンアップの完了を通知する。
そして、ノード100Aのバージョンアップ処理プログラム310は、バージョンアップしたシステムソフトウェアを実行するため、ノード100Aをリブートする(413)。つまり、ノード100Aのすべてのプログラムは、一旦終了してから(440)、再度開始する(441)。
すると、ノード100Aのバージョンアップ処理プログラム310は、リブートの完了を、管理用PC110のバージョンアップ指示プログラム330に通知する(414)。
これによって、ノード100Aのシステムソフトウェアは、新しいバージョンに更新されている。更に、ノード100Aでは、VNASが一つも稼動していない。一方、ノード100Bのシステムソフトウェアは、古いバージョンのままである。更に、ノード100Bでは、すべてのVNASが稼動している。
管理用PC110のバージョンアップ指示プログラム330は、ノード100Aのバージョンアップ処理プログラム310からリブートの完了通知を受ける。すると、管理用PC110のバージョンアップ指示プログラム330は、ノード100Bのバージョンアップ処理プログラム310にバージョンアップを指示する(500)。
ノード100Bのバージョンアップ処理プログラム310は、バージョンアップの指示を受ける。すると、ノード100Bのバージョンアップ処理プログラム310は、ノード100Bで稼動しているすべてのVNASをノード100Aにフェイルオーバすることを、ノード100Bのクラスタ管理プログラム312に指示する(510)。
なお、ノード100Bのバージョンアップ処理プログラム310が、ノード100Bのクラスタ管理プログラム312からフェイルオーバの完了を通知されるまでには、時間がかかる。そこで、管理用PC110のバージョンアップ指示プログラム330は、インストール用記憶媒体700から、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を読み出す。次に、管理用PC110のバージョンアップ指示プログラム330は、読み出したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100Bのバージョンアップ処理プログラム310に送信する(501)。
すると、ノード100Bのバージョンアップ処理プログラム310は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を受信する。次に、ノード100Bのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100B用システムLU151に格納する(511)。
一方、ノード100Bのクラスタ管理プログラム312は、ノード100Bのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASに対して、繰返処理(ステップ520〜523)を実行する。本実施の形態では、ノード100Bのクラスタ管理プログラム312は、VNAS1(302)、VNAS2(303)及びVNAS3(307)に対して、繰返処理を実行する。
まず、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているVNASを、順番に選択する(520)。次に、ノード100Bのクラスタ管理プログラム312は、選択したVNASの停止を、ノード100BのVNAS管理プログラム311に要求する(521)。
ノード100BのVNAS管理プログラム311は、VNASの停止要求を受けると、停止を要求されたVNASの稼動を停止する(530)。そして、ノード100BのVNAS管理プログラム311は、VNASの停止完了を、ノード100Bのクラスタ管理プログラム312に通知する。
ノード100Bのクラスタ管理プログラム312は、VNASの停止完了の通知を、ノード100BのVNAS管理プログラム311から受ける。すると、ノード100Bのクラスタ管理プログラム312は、ステップ520で選択したVNASの識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。
次に、ノード100Bのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Bのクラスタ管理プログラム312は、ステップ520で選択したVNASの起動要求を、ノード100Aのクラスタ管理プログラム312に送信する(522)。なお、VNASの起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASをステップ520で選択するまで、繰返処理を繰り返す。そして、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASをステップ520で選択すると、繰返処理を終了する(523)。本実施の形態では、繰返処理によって、VNAS1(302)、VNAS2(303)及びVNAS3(307)の稼動が停止される。
その後、ノード100Bのクラスタ管理プログラム312は、ノード100Bのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(524)。
一方、ノード100Aのクラスタ管理プログラム312は、VNASの起動要求を、ノード100Bのクラスタ管理プログラム312から受信する。すると、ノード100Aのクラスタ管理プログラム312は、VNASの起動要求で指定されたVNASの起動を、ノード100AのVNAS管理プログラム311に要求する(550)。このとき、ノード100Aのクラスタ管理プログラム312は、受信したVNASの起動要求に含まれるシステムソフトウェアバージョンを、ノード100AのVNAS管理プログラム311に通知する。
ノード100AのVNAS管理プログラム311は、VNASの起動要求を受けると、ノード100A用システムLU150から、当該ノード100Aのシステムソフトウェアのバージョンを取得する。次に、ノード100AのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンと取得したノード100Aのシステムソフトウェアのバージョンとが、一致するか否かを判定する(560)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Aのシステムソフトウェアのバージョンとが異なる。
二つのバージョンが異なる場合、起動を要求されたVNASのシステムソフトウェアのバージョンアップが必要となる。そこで、ノード100AのVNAS管理プログラム311は、起動を要求されたVNASのシステムソフトウェアのバージョンアップを、ノード100Aのバージョンアップ処理プログラム310に要求する(561)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの要求を受けると、バージョンアップの対象となるVNASのルートファイルシステムを含むLU160を、当該ノード100Aにマウントする(570)。
次に、ノード100Aのバージョンアップ処理プログラム310は、ノード100A用システムLU150に格納されているVNAS用システムソフトウェアパッケージ713を、マウントしたLU160に適用する(571)。これによって、ノード100Aのバージョンアップ処理プログラム310は、VNASのシステムソフトウェアをバージョンアップする。
次に、ノード100Aのバージョンアップ処理プログラム310は、VNAS用システムソフトウェアパッケージ713が適用されたLU160をアンマウントする。
そして、ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの完了をノード100AのVNAS管理プログラム311に通知する(572)。
ノード100AのVNAS管理プログラム311は、バージョンアップの完了通知をノード100Aのバージョンアップ処理プログラム310から受ける。すると、ノード100AのVNAS管理プログラム311は、起動を要求されたVNASを起動する(562)。更に、ノード100AのVNAS管理プログラム311は、起動したVNASの識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。次に、ノード100AのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
本実施の形態では、ノード100Aのバージョンアップ処理プログラム310は、VNAS1(302)、VNAS2(303)及びVNAS3(307)のシステムソフトウェアをバージョンアップする。更に、ノード100AのVNAS管理プログラム311は、VNAS1(302)、VNAS2(303)及びVNAS3(307)を起動する。
一方、ノード100Bのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713をノード100B用システムLU151に格納し、且つ、フェイルオーバの完了通知を受けると、ステップS512に進む。
ノード100Bのバージョンアップ処理プログラム310は、ノード100B用システムLU151に、ノード用システムソフトウェアパッケージ712を適用する。これによって、ノード100Bのバージョンアップ処理プログラム310は、ノード100Bのシステムソフトウェアをバージョンアップする(512)。
ノード100Bのバージョンアップ処理プログラム310は、バージョンアップを完了すると、管理用PC110のバージョンアップ指示プログラム330にバージョンアップの完了を通知する。
そして、ノード100Bのバージョンアップ処理プログラム310は、バージョンアップしたシステムソフトウェアを実行するため、ノード100Bをリブートする(513)。つまり、ノード100Bのすべてのプログラムは、一旦終了してから(540)、再度開始する(541)。
すると、ノード100Bのバージョンアップ処理プログラム310は、リブートの完了を、管理用PC110のバージョンアップ指示プログラム330に通知する(514)。
一方、管理用PC110のバージョンアップ指示プログラム330は、ノード100Bのバージョンアップ処理プログラム310からバージョンアップの完了通知を受ける。すると、管理用PC110のバージョンアップ指示プログラム330は、原状復帰をノード100Aのバージョンアップ処理プログラム310に指示する(600)。
ノード100Aのバージョンアップ処理プログラム310は、原状復帰の指示を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、当初(ステップ400以前)にノード100Bで稼動していたVNASをノード100Bにフェイルオーバすることを、ノード100Aのクラスタ管理プログラム312に指示する。
本実施の形態では、ノード100Aのバージョンアップ処理プログラム310は、VNAS3(307)のフェイルオーバを、ノード100Aのクラスタ管理プログラム312に指示する(610)。
ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の停止を、ノード100AのVNAS管理プログラム311に要求する(621)。
ノード100AのVNAS管理プログラム311は、VNAS3(307)の停止要求を受けると、VNAS3(307)の稼動を停止する(630)。そして、ノード100AのVNAS管理プログラム311は、VNAS3(307)の停止完了を、ノード100Aのクラスタ管理プログラム312に通知する。
ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の停止完了の通知を、ノード100AのVNAS管理プログラム311から受ける。すると、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。
次に、ノード100Aのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の起動要求を、ノード100Bのクラスタ管理プログラム312に送信する(622)。なお、VNAS3(307)の起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
次に、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(624)。
一方、ノード100Bのクラスタ管理プログラム312は、VNAS3(307)の起動要求を、ノード100Aのクラスタ管理プログラム312から受信する。すると、ノード100Bのクラスタ管理プログラム312は、VNAS3(307)の起動を、ノード100BのVNAS管理プログラム311に要求する(650)。このとき、ノード100Bのクラスタ管理プログラム312は、受信したVNAS3(307)の起動要求に含まれるシステムソフトウェアバージョンを、ノード100BのVNAS管理プログラム311に通知する。
ノード100BのVNAS管理プログラム311は、ノード100B用システムLU151から、当該ノード100Bのシステムソフトウェアのバージョンを取得する。次に、ノード100BのVNAS管理プログラム311は、VNAS3(307)の起動要求を受けると、通知されたシステムソフトウェアバージョンと取得したノード100Bのシステムソフトウェアのバージョンとが、一致するか否かを判定する(660)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Bのシステムソフトウェアのバージョンとが一致する。
二つのバージョンが一致する場合、VNAS3(307)のシステムソフトウェアのバージョンアップは不要である。そこで、ノード100BのVNAS管理プログラム311は、VNAS3(307)を起動する(661)。更に、ノード100BのVNAS管理プログラム311は、VNAS3(307)の識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
一方、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aのクラスタ管理プログラム312からフェイルオーバの完了通知を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、管理用PC110のバージョンアップ指示プログラム330に原状復帰の完了を通知する(611)。
管理用PC110のバージョンアップ指示プログラム330が、原状復帰の完了の通知を受けると、当該システムソフトウェアバージョンアップ処理は終了する(601)。
なお、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312は、ノード100A又はノード100Bに備わるCPU101によって実行される。また、バージョンアップ指示プログラム330は、管理用PC110に備わるCPU801によって実行される。
以上のように、新バージョンのシステムソフトウェアが適用されているノード100は、旧バージョンのシステムソフトウェアが適用されているVNASを起動する際に、当該VNASに適用されているシステムソフトウェアを自動的にバージョンアップする。これによって、新バージョンのシステムソフトウェアと旧バージョンのシステムソフトウェアとが混在するという問題を解決できる。更に、VNASによって提供されるサービスの停止時間は、フェイルオーバのための時間及びLU160にVNAS用システムソフトウェアパッケージ713を適用するための時間だけである。よって、VNASによって提供されるサービスの停止時間が、従来よりも短縮される。
従来では、VNASのシステムソフトウェアがバージョンアップされる度に、VNAS用システムソフトウェアパッケージ713は、管理用PC110からノード100に転送されていた。一方、本実施の形態では、ノード100がバージョンアップされる際に、VNAS用システムソフトウェアパッケージ713は、ノード100A用システムLU150又はノード100B用システムLU151に格納される。そのため、VNASのシステムソフトウェアがバージョンアップされる際には、VNAS用システムソフトウェアパッケージ713は、管理用PC110からノード100に転送される必要がない。よって、本実施の形態では、VNASによって提供されるサービスの停止時間が、従来よりも短縮される。
また、本実施の形態では、管理VNAS301が、VNASのシステムソフトウェアを更新する。そのため、VNASがバージョンアップ機能を備える必要がない。
更に、VNASのシステムソフトウェアをバージョンアップするために、管理用PC110が、VNASにアクセス可能なデータLAN131に接続される必要がない。そのため、バージョンアップ作業者が、VANSによって提供されるサービスの顧客データを覗き見たり、改変したりする脅威を排除できる。
なお、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、同一のアプリケーションプログラム320を実行してもよいし、それぞれ異なるアプリケーションプログラム320を実行してもよい。同様に、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、同一の管理プログラム321を実行してもよいし、それぞれ異なる管理プログラム321を実行してもよい。
VNAS1(302)、VNAS2(303)及びVNAS3(307)が、それぞれ異なるアプリケーションプログラム320又はそれぞれ異なる管理プログラム321を実行する場合を説明する。この場合、インストール用記憶媒体700は、VNAS用システムソフトウェアパッケージ713を、VNASごとに記憶する。そして、ノード100Aは、ステップ571において、適切なVNAS用システムソフトウェアパッケージ713を、マウントしたLU160に適用する。
本発明の実施の形態の計算機システムの構成のブロック図である。 本発明の実施の形態のノード100A用システムLU及びノード100B用システムLUに記憶されるVNAS構成表の構成図である。 本発明の実施の形態の計算機システムの機能構成のブロック図である。 本発明の実施の形態のインストール用記憶媒体の説明図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の管理用PC110のハードウェア構成のブロック図である。
符号の説明
100 ノード
101 CPU
102 メモリ
103 ストレージインタフェース
104 管理用ネットワークインタフェース
105 データ用ネットワークインタフェース
108 クラスタ通信用ネットワークインタフェース
110 管理用PC
111 記憶媒体読取装置
120 クライアントPC
130 管理LAN
131 データLAN
150 ノード100A用システムLU
151 ノード100B用システムLU
160 LU
170 ストレージ装置
171 DKC
301 管理VNAS
302 VNAS1
303 VNAS2
304 VNAS3フェイルオーバ先
305 VNAS1フェイルオーバ先
306 VNAS2フェイルオーバ先
307 VNAS3
310 バージョンアップ処理プログラム
311 VNAS管理プログラム
312 クラスタ管理プログラム
320 アプリケーションプログラム
321 管理プログラム

Claims (12)

  1. 第1プロセッサ、第1メモリ及び他の計算機と接続するための第1インタフェースを備える第1サーバ装置と、第2プロセッサ、第2メモリ及び他の計算機と接続するための第2インタフェースを備える第2サーバ装置と、第3プロセッサ、第3メモリ及び他の計算機と接続するための第3インタフェースを備える管理計算機と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムであって、
    前記管理計算機、前記第1サーバ装置、及び前記第2サーバ装置は、互いに接続され、
    前記ストレージ装置は、前記第1サーバ装置と前記第2サーバ装置とに接続され、
    前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、
    前記第2プロセッサ、前記第2メモリ及び前記第2インタフェースのそれぞれは、論理的に分割され、
    前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、
    前記分割された第2プロセッサ、第2メモリ及び第2インタフェースは、独立した仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記仮想サーバ装置は、サービスを提供する一つ以上の業務仮想サーバ装置及び前記業務仮想サーバ装置を管理する管理仮想サーバ装置を含み、
    前記第1サーバ装置及び前記第2サーバ装置は、一方のサーバ装置上で稼働する前記業務仮想サーバに対応する業務仮想サーバ装置を、他方のサーバ装置上で稼動させることができ、
    前記ストレージ装置は、前記業務仮想サーバ装置がアクセス可能な記憶領域と、前記管理仮想サーバがアクセス可能な記憶領域とを含み、
    前記入出力制御部は、前記業務仮想サーバ装置又は前記管理仮想サーバ装置から、前記業務仮想サーバ装置がアクセス可能な記憶領域及び前記管理仮想サーバ装置がアクセス可能な記憶領域へのアクセスを制御し、
    前記第1サーバ装置で稼動する前記管理仮想サーバ装置は、
    前記管理計算機から、前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、
    前記第1サーバ装置のシステムソフトウェアの更新要求を受信した後に、前記第3インタフェースを介して前記管理計算機から、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ、並びに、前記第1サーバ装置で稼動している業務仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを取得し、
    前記第1サーバ装置で稼動しているすべての前記業務仮想サーバ装置を停止させ、
    前記第2サーバ装置で稼動している前記管理仮想サーバ装置に、前記第1サーバ装置で稼動していた前記業務仮想サーバ装置に対応する業務仮想サーバ装置を前記第2サーバ装置上で起動するように要求し、
    前記第1サーバ装置で稼動していた業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求後、前記取得された第1更新データを前記管理仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新し
    前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアの更新後、前記第1サーバ装置が実行する全ての処理を停止させた後に前記第1サーバ装置を再起動し、
    前記第1サーバ装置の再起動後、前記管理計算機から前記第2サーバ装置のシステムソフトウェアの更新要求を受信した前記第2サーバ装置で稼動している管理仮想サーバ装置から、前記第2サーバ装置で稼動する業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求を受けた場合、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアと、前記第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合しない場合には、前記取得された第2更新データを用いて、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新した後に、当該第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置を起動することを特徴とする計算機システム。
  2. 前記第1サーバ装置で稼動している管理仮想サーバ装置は、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアが更新される時に、前記第2更新データを、前記ストレージ装置に格納することを特徴とする請求項1に記載の計算機システム。
  3. 前記第1サーバ装置で稼動している管理仮想サーバ装置は、前記二つのシステムソフトウェアが整合しない場合には、前記第2更新データを、前記ストレージ装置内の前記第1サーバ装置で稼動している業務仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項1に記載の計算機システム。
  4. 前記第1サーバ装置のシステムソフトウェアが更新された前記第1サーバ装置で稼動している管理仮想サーバ装置から、前記第1サーバ装置が再起動した旨を知らせるための再起動通知を受信した前記管理計算機は、前記第2サーバ装置で稼動している管理仮想サーバ装置に前記第2サーバ装置のシステムソフトウェアの更新要求を送信し、
    前記第2サーバ装置で稼動する管理仮想サーバ装置は、
    前記管理計算機から、前記第2サーバ装置のシステムソフトウェアの更新要求を受けると、
    前記第2サーバ装置のシステムソフトウェアの更新要求を受信した後に、前記管理計算機から、前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新するためのデータである第3更新データ、並びに、前記第2サーバ装置で稼動している業務仮想サーバ装置のシステムソフトウェアを更新するためのデータである第4更新データを取得し、
    取得された前記第3更新データ及び前記第4更新データを前記第2サーバ装置で稼動する管理仮想サーバ装置がアクセス可能な記憶領域に格納するとともに、前記第2サーバ装置で稼動しているすべての業務仮想サーバ装置を停止させ、
    前記第1サーバ装置で稼動している管理仮想サーバ装置に、前記停止された業務仮想サーバ装置に対応する業務仮想サーバ装置を前記第1サーバ装置上で起動するように要求し、
    前記第2サーバ装置で稼動していた業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求後、前記第2サーバ装置で稼動する管理仮想サーバ装置がアクセス可能な記憶領域に格納される第3更新データを当該記憶領域に上書きすることによって、前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新し、
    前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアの更新後、前記第2サーバ装置が実行する全ての処理を停止させた後に前記第2サーバ装置を再起動し、
    前記第2サーバ装置の再起動後、前記第1サーバ装置で稼動している管理仮想サーバ装置から前記第1サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置の起動の要求を受ける前に前記第2サーバ装置で稼動していた業務仮想サーバ装置の起動要求を、前記第1サーバ装置で起動している管理仮想サーバ装置から受けた場合、前記第1サーバ装置で起動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアと、前記第2サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合した場合には、前記起動を要求された業務仮想サーバ装置を起動し、
    前記二つのシステムソフトウェアが整合しない場合には、第4更新データを、前記第2サーバ装置で稼動している業務仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第1サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新した後に、当該第1サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置を起動することを特徴とする請求項1に記載の計算機システム。
  5. 前記第1サーバ装置は、前記第2サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置を稼動させるため必要な、論理的に分割された前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースを備え、
    前記第2サーバ装置は、前記第1サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置を稼動させるため必要な、論理的に分割された前記第2プロセッサ、前記第2メモリ及び前記第2インタフェースを備えることを特徴とする請求項1に記載の計算機システム。
  6. 前記ストレージ装置は、前記第1サーバ装置及び前記第2サーバ装置のそれぞれで、起動している業務仮想サーバ装置と、前記業務仮想サーバ装置がアクセス可能な記憶領域と、前記業務仮想サーバ装置のシステムソフトウェアに関する情報とを対応づけた管理表を備えることを特徴とする請求項1に記載の計算機システム。
  7. 第1プロセッサ、第1メモリ及び他の計算機と接続するための第1インタフェースを備える第1サーバ装置と、第2プロセッサ、第2メモリ及び他の計算機と接続するための第2インタフェースを備える第2サーバ装置と、第3プロセッサ、第3メモリ及び他の計算機と接続するための第3インタフェースを備える管理計算機と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムにおけるシステムソフトウェア更新方法であって、
    前記管理計算機、前記第1サーバ装置、及び前記第2サーバ装置は、互いに接続され、
    前記ストレージ装置は、前記第1サーバ装置と前記第2サーバ装置とに接続され、
    前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、
    前記第2プロセッサ、前記第2メモリ及び前記第2インタフェースのそれぞれは、論理的に分割され、
    前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、
    前記分割された第2プロセッサ、第2メモリ及び第2インタフェースは、独立した仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記仮想サーバ装置は、サービスを提供する一つ以上の業務仮想サーバ装置及び前記業務仮想サーバ装置を管理する管理仮想サーバ装置を含み、
    前記第1サーバ装置及び前記第2サーバ装置は、一方のサーバ装置上で稼働する前記業務仮想サーバに対応する業務仮想サーバ装置を、他方のサーバ装置上で稼動させることができ、
    前記ストレージ装置は、前記業務仮想サーバ装置がアクセス可能な記憶領域と、前記管理仮想サーバがアクセス可能な記憶領域とを含み、
    前記入出力制御部は、前記業務仮想サーバ装置又は前記管理仮想サーバ装置から、前記業務仮想サーバ装置がアクセス可能な記憶領域及び前記管理仮想サーバ装置がアクセス可能な記憶領域へのアクセスを制御し、
    前記第1サーバ装置で稼動する前記管理仮想サーバ装置は、
    前記管理計算機から、前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、
    前記第1サーバ装置のシステムソフトウェアの更新要求を受信した後に、前記第3インタフェースを介して前記管理計算機から、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ、並びに、前記第1サーバ装置で稼動している業務仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを取得し、
    前記第1サーバ装置で稼動しているすべての前記業務仮想サーバ装置を停止させ、
    前記第2サーバ装置で稼動している前記管理仮想サーバ装置に、前記第1サーバ装置で稼動していた前記業務仮想サーバ装置に対応する業務仮想サーバ装置を前記第2サーバ装置上で起動するように要求し、
    前記第1サーバ装置で稼動していた業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求後、前記取得された第1更新データを前記管理仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新し
    前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアの更新後、前記第1サーバ装置が実行する全ての処理を停止させた後に前記第1サーバ装置を再起動し、
    前記第1サーバ装置の再起動後、前記管理計算機から前記第2サーバ装置のシステムソフトウェアの更新要求を受信した前記第2サーバ装置で稼動している管理仮想サーバ装置から、前記第2サーバ装置で稼動する業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求を受けた場合、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアと、前記第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合しない場合には、前記取得された第2更新データを用いて、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新した後に、当該第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置を起動することを特徴とするシステムソフトウェア更新方法。
  8. 前記第1サーバ装置で稼動している管理仮想サーバ装置は、前記第1サーバ装置及び前記第1サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアが更新される時に、前記第2更新データを、前記ストレージ装置に格納することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  9. 前記第1サーバ装置で稼動している管理仮想サーバ装置は、前記二つのシステムソフトウェアが整合しない場合には、前記第2更新データを、前記ストレージ装置内の前記第1サーバ装置で稼動している業務仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第2サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  10. 前記第1サーバ装置のシステムソフトウェアが更新された前記第1サーバ装置で稼動している管理仮想サーバ装置から、前記第1サーバ装置が再起動した旨を知らせるための再起動通知を受信した前記管理計算機は、前記第2サーバ装置で稼動している管理仮想サーバ装置に前記第2サーバ装置のシステムソフトウェアの更新要求を送信し、
    前記第2サーバ装置で稼動する管理仮想サーバ装置は、
    前記管理計算機から、前記第2サーバ装置のシステムソフトウェアの更新要求を受けると、
    前記第2サーバ装置のシステムソフトウェアの更新要求を受信した後に、前記管理計算機から、前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新するためのデータである第3更新データ、並びに、前記第2サーバ装置で稼動している業務仮想サーバ装置のシステムソフトウェアを更新するためのデータである第4更新データを取得し、
    取得された前記第3更新データ及び前記第4更新データを前記第2サーバ装置で稼動する管理仮想サーバ装置がアクセス可能な記憶領域に格納するとともに、前記第2サーバ装置で稼動しているすべての業務仮想サーバ装置を停止させ、
    前記第1サーバ装置で稼動している管理仮想サーバ装置に、前記停止された業務仮想サーバ装置に対応する業務仮想サーバ装置を前記第1サーバ装置上で起動するように要求し、
    前記第2サーバ装置で稼動していた業務仮想サーバ装置に対応する業務仮想サーバ装置の起動要求後、前記第2サーバ装置で稼動する管理仮想サーバ装置がアクセス可能な記憶領域に格納される第3更新データを当該記憶領域に上書きすることによって、前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアを更新し、
    前記第2サーバ装置及び前記第2サーバ装置で稼動している管理仮想サーバ装置のシステムソフトウェアの更新後、前記第2サーバ装置が実行する全ての処理を停止させた後に前記第2サーバ装置を再起動し、
    前記第2サーバ装置の再起動後、前記第1サーバ装置で稼動している管理仮想サーバ装置から前記第1サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置の起動の要求を受ける前に前記第2サーバ装置で稼動していた業務仮想サーバ装置の起動要求を、前記第1サーバ装置で起動している管理仮想サーバ装置から受けた場合、前記第1サーバ装置で起動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアと、前記第2サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合した場合には、前記起動を要求された業務仮想サーバ装置を起動し、
    前記二つのシステムソフトウェアが整合しない場合には、第4更新データを、前記第2サーバ装置で稼動している業務仮想サーバ装置がアクセス可能な記憶領域に上書きすることによって、前記第1サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置のシステムソフトウェアを更新した後に、前記第1サーバ装置で稼動している管理仮想サーバ装置から起動を要求された業務仮想サーバ装置を起動することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  11. 前記第1サーバ装置は、前記第2サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置を稼動させるため必要な、論理的に分割された前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースを備え、
    前記第2サーバ装置は、前記第1サーバ装置で稼動している業務仮想サーバ装置に対応する業務仮想サーバ装置を稼動させるため必要な、論理的に分割された前記第2プロセッサ、前記第2メモリ及び前記第2インタフェースを備えることを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  12. 前記ストレージ装置は、前記第1サーバ装置及び前記第2サーバ装置のそれぞれで、起動している業務仮想サーバ装置と、前記業務仮想サーバ装置がアクセス可能な記憶領域と、前記業務仮想サーバ装置のシステムソフトウェアに関する情報とを対応づけた管理表を備えることを特徴とする請求項7に記載のシステムソフトウェア更新方法。
JP2006308895A 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置 Expired - Fee Related JP4359609B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006308895A JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置
US11/622,253 US8015559B2 (en) 2006-11-15 2007-01-11 System software update method
US13/195,942 US8255898B2 (en) 2006-11-15 2011-08-02 System software update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308895A JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置

Publications (2)

Publication Number Publication Date
JP2008123412A JP2008123412A (ja) 2008-05-29
JP4359609B2 true JP4359609B2 (ja) 2009-11-04

Family

ID=39370678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308895A Expired - Fee Related JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置

Country Status (2)

Country Link
US (2) US8015559B2 (ja)
JP (1) JP4359609B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8898653B2 (en) 2007-06-27 2014-11-25 International Business Machines Corporation Non-disruptive code update of a single processor in a multi-processor computing system
JP5222573B2 (ja) * 2008-01-29 2013-06-26 株式会社日立製作所 サーバ計算機及びネットワーク処理方法
WO2010122709A1 (ja) * 2009-04-23 2010-10-28 日本電気株式会社 若化処理装置、若化処理システム、コンピュータプログラムおよびデータ処理方法
US8484653B2 (en) * 2010-07-28 2013-07-09 Red Hat Israel, Ltd. Mechanism for delayed hardware upgrades in virtualization systems
JP5843595B2 (ja) 2011-12-13 2016-01-13 キヤノン株式会社 生産装置
DE102012200155A1 (de) * 2012-01-05 2013-07-11 Continental Automotive Gmbh Rechnersystem und Verfahren zum Betreiben eines Rechnersystems
JP6089427B2 (ja) * 2012-03-30 2017-03-08 日本電気株式会社 フォールトトレラントサーバ、デフラグ方法、およびプログラム
RU2523113C1 (ru) * 2012-12-25 2014-07-20 Закрытое акционерное общество "Лаборатория Касперского" Система и способ целевой установки сконфигурированного программного обеспечения
RU2541935C2 (ru) 2012-12-25 2015-02-20 Закрытое акционерное общество "Лаборатория Касперского" Система и способ развертывания предварительно сконфигурированного программного обеспечения
JP6221317B2 (ja) * 2013-04-15 2017-11-01 セイコーエプソン株式会社 電子機器、及び、通信システム
US9383986B2 (en) 2013-06-18 2016-07-05 Disney Enterprises, Inc. Safe low cost web services software deployments
GB2520343A (en) 2013-11-19 2015-05-20 Ibm A system having a cluster of communication controllers and a method for modification of the latter
CN104468235A (zh) * 2014-12-25 2015-03-25 浙江中控研究院有限公司 一种基于iap的可配置全网络远程节点固件升级系统及装置
CN106059791B (zh) * 2016-05-13 2020-04-14 华为技术有限公司 一种存储系统中业务的链路切换方法和存储设备
DE102017107277B4 (de) * 2017-04-05 2024-06-13 Hanon Systems Verfahren zur Aktualisierung einer Steuersoftware in einem Hochvolt-Steuergerät
CN109189457B (zh) * 2018-11-05 2021-06-22 北京原子机器人科技有限公司 智能惯导传感系统的固件升级系统及方法
CN109582372B (zh) * 2018-11-12 2022-01-28 海信视像科技股份有限公司 一种系统的启动方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701492A (en) * 1996-03-29 1997-12-23 Canon Kabushiki Kaisha Fail-safe flashing of EPROM
US6317844B1 (en) * 1998-03-10 2001-11-13 Network Appliance, Inc. File server storage arrangement
US6324692B1 (en) * 1999-07-28 2001-11-27 Data General Corporation Upgrade of a program
US7080134B2 (en) * 2001-06-29 2006-07-18 Intel Corporation Systems and methods for software distribution and management
US20030032425A1 (en) * 2001-08-11 2003-02-13 Hong-Sik Kim Schema change method of dual system
US7356677B1 (en) * 2001-10-19 2008-04-08 Flash Vos, Inc. Computer system capable of fast switching between multiple operating systems and applications
JP2003131839A (ja) * 2001-10-29 2003-05-09 Canon Inc ネットワークシステム、情報処理装置、情報処理方法、及び、制御プログラム
DE10206001A1 (de) * 2002-02-14 2003-08-28 Alcatel Sa Verfahren zur Steuerung der Installation von Programmcode auf Netzelementen
US7380113B2 (en) * 2002-05-17 2008-05-27 Xiotech Corporation Method for updating memory resident firmware as a background operation
US8549114B2 (en) * 2002-06-12 2013-10-01 Bladelogic, Inc. Method and system for model-based heterogeneous server configuration management
JP4152755B2 (ja) * 2003-01-10 2008-09-17 富士通株式会社 新旧プログラムモジュールの切り替え機能を有するサーバ装置
JP4567293B2 (ja) * 2003-01-21 2010-10-20 株式会社日立製作所 ファイルサーバ
US7810088B2 (en) * 2003-06-20 2010-10-05 Samsung Electronics Co., Ltd. Apparatus and method for performing a fail-safe over-the-air software update in a mobile station
US7266677B1 (en) * 2003-09-25 2007-09-04 Rockwell Automation Technologies, Inc. Application modifier based on operating environment parameters
JP4420275B2 (ja) * 2003-11-12 2010-02-24 株式会社日立製作所 フェイルオーバクラスタシステム及びフェイルオーバクラスタシステムを用いたプログラムのインストール方法
JP4448719B2 (ja) * 2004-03-19 2010-04-14 株式会社日立製作所 ストレージシステム
US8583770B2 (en) * 2005-02-16 2013-11-12 Red Hat, Inc. System and method for creating and managing virtual services
US7685461B2 (en) * 2006-12-20 2010-03-23 International Business Machines Corporation Method, apparatus and program storage device for performing fault tolerant code upgrade on a fault tolerant system by determining when functional code reaches a desired state before resuming an upgrade
JP4961411B2 (ja) * 2008-10-16 2012-06-27 株式会社日立製作所 計算機システム及びその構成管理方法
US20110061046A1 (en) * 2008-12-18 2011-03-10 Virtual Computer, Inc. Installing Software Applications in a Layered Virtual Workspace
US8650559B2 (en) * 2009-08-27 2014-02-11 Red Hat Israel, Ltd. Automatic remote installation of a virtualization host

Also Published As

Publication number Publication date
US20080115126A1 (en) 2008-05-15
JP2008123412A (ja) 2008-05-29
US8255898B2 (en) 2012-08-28
US20110289494A1 (en) 2011-11-24
US8015559B2 (en) 2011-09-06

Similar Documents

Publication Publication Date Title
JP4359609B2 (ja) 計算機システム、システムソフトウェア更新方法及び第1サーバ装置
CN106991035B (zh) 一种基于微服务架构的主机监控系统
US7930371B2 (en) Deployment method and system
US7721138B1 (en) System and method for on-the-fly migration of server from backup
US7849221B2 (en) Online instance deletion in a multi-instance computer system
US7240188B2 (en) Storage system
US8230264B2 (en) System evaluation apparatus
US7941510B1 (en) Management of virtual and physical servers using central console
US7574627B2 (en) Memory dump method, memory dump program and computer system
US7937455B2 (en) Methods and systems for modifying nodes in a cluster environment
JP4426736B2 (ja) プログラム修正方法およびプログラム
US7451443B2 (en) Online computer maintenance utilizing a virtual machine monitor
US7401332B2 (en) System and apparatus for eliminating user interaction during hardware configuration at system boot
JP2003114801A (ja) コンピュータサービスおよびプログラマブルデバイスの管理を自動化するシステムおよび方法
US20120089972A1 (en) Image Based Servicing Of A Virtual Machine
US9753718B1 (en) Non-disruptive upgrade including rollback capabilities for a distributed file system operating within a cluster of nodes
US20060036832A1 (en) Virtual computer system and firmware updating method in virtual computer system
JP5048498B2 (ja) ブート・ディスク管理のユティリティ
CN1834912B (zh) 用于可扩展互联网引擎的iSCSI引导驱动系统及方法
US20080263183A1 (en) Management of Kernel configurations for nodes in a clustered system
US11086615B2 (en) Virtual appliance upgrades in high-availability (HA) computing clusters
US20060080399A1 (en) Remote configuration management for data processing units
JPH06231026A (ja) システムファイルの更新方法
Austin et al. Oracle Database Oracle Clusterware and Oracle Real Application Clusters Administration and Deployment Guide, 10g Release 2 (10.2) B14197-10
Allison et al. Oracle Real Application Clusters Installation Guide, 11g Release 1 (11.1) for Microsoft Windows B28251-05

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees