JP3833117B2 - サーバ決定方法及び装置 - Google Patents

サーバ決定方法及び装置 Download PDF

Info

Publication number
JP3833117B2
JP3833117B2 JP2001556874A JP2001556874A JP3833117B2 JP 3833117 B2 JP3833117 B2 JP 3833117B2 JP 2001556874 A JP2001556874 A JP 2001556874A JP 2001556874 A JP2001556874 A JP 2001556874A JP 3833117 B2 JP3833117 B2 JP 3833117B2
Authority
JP
Japan
Prior art keywords
server
nodes
information
node group
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001556874A
Other languages
English (en)
Inventor
潤一 神原
衛 叶岡
二三夫 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP3833117B2 publication Critical patent/JP3833117B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/505Clust

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • General Factory Administration (AREA)

Description

【0001】
【発明の属する技術分野】
従来、複数のサーバをネットワークで接続して1つのシステムとして運用するクラスタシステムが使用されている。このクラスタシステムを構成する各サーバはノードと呼ばれる。クラスタシステムは、障害が発生したノードを排除し、そのノードが遂行していた業務を正常な他のノードに引継ぐ(譲渡)ことで、システム規模を縮退しながらも正常に動作するようにし、システム全体の可用性を保証している。
【0002】
またクラスタシステムは、各ノードが独立したOSをもち、ノード間の通信制御や状態通知、ノード間で一貫性と一元性の実現、更にノードの引継ぎを行うクラスタ制御のソフトウェアをOS上に配置し、ユーザアプリケーションをOS上で運用する。このようにクラスタシステムが独立したOSで動作するノードで構成されるため、各ノードごとに資源の定義や運用を設定し、運用中に各ノードの状態を監視するクラスタ管理サーバが必要になる。
【従来技術】
【0003】
このクラスタ管理サーバは、クラスタシステムの設定、運用、監視をWWWブラウザで実現する。WWWブラウザは、WWWサーバ機能をもったクラスタ管理サーバに対し管理画面を表示するアプレットを要求し、アプレットに設定、指示された要求をクラスタ管理サーバから各ノードに指示し、また各ノードの状態をWWWブラウザに表示して監視することができる。
【0004】
このためクスラタシステムでは、ノード群の中のいずれかのノードに、各ノードの設定、運用、監視を行うクラスタ管理サーバの役割を持たせるようにしている。また通常の運用中に各ノードの設定、運用、監視を行うクラスタ管理サーバを主サーバとし、何らかの原因で主サーバが業務遂行が不可能となった場合にクラスタ管理業務の一部又は全部を引継ぐ副サーバを設け、クラスタシステムの信頼性を向上させている。
【発明が解決しようとする課題】
【0005】
ところで、従来の各サーバのクラスタ管理業務を行う主サーバとそのバックアップを行う副サーバは、システム構成時にハードウェア構成やアプリケーションの割振り等を考慮して余裕のあるノードに固定的に決定している。しかしながら、主サーバと副サーバの両方が障害等によって業務遂行が不可能になった場合、システム管理者がWWWブラウザを使用してシステムを監視し、構成を変更することができず、システム全体の業務に支障を来す問題があった。
【0006】
本発明は、ノードの設定や監視等の特定業務を運用する主サーバとそのバックアップ業務を運用する副サーバを、候補となっているノード群の中からの各ノードが自立的に決定してシステム運用の信頼性を向上することを目的とする。
【課題を解決するための手段】
【0007】
本発明は、ネットワークを介して複数のノードを接続したクラスタシステム中に、ある特定業務を運用する唯一のサーパの存在を決定するノード決定方法である。
【0008】
本発明のノード決定方法は、まずクラスタシステムの各ノードを、特定業務を運用可能な主サーバ候補ノード群と、特定業務のバックアップ業務を運用可能な副サーバ候補ノード群と、特定業務及びバックアップ業務から除外された候補外ノード群とにグループ分けする。
【0009】
次に主サーバ候補ノード群に属するサーバの各々は、立ち上げ時に、主サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、主サーバ候補ノード群の中に他のサーバにより承認された唯一の主サーバを存在させる。
【0010】
また副サーバ候補ノード群に属するサーバの各々は、立ち上げ時に、副サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、これによって副サーバ候補ノード群の中に他のサーバにより承認された唯一の副サーバを存在させる。
【0011】
このようにシステム立ち上げ時の主サーバあるいは副サーバが存在しない状態においては、主サーバ候補ノード群及び副サーバ候補ノード群は、それぞれの状態を判断して主サーバあるいは副サーバを選出することができ、サーバ候補となるノードが存在する限り、主サーバ又は副サーバが障害等で停止しても、新たな主サーバ又は副サーバを選出して特定業務を引継ぐことができ、システムの可用性が向上する。
【0012】
また主サーバ又は副サーバは、立ち上げ後の運用開始に、他のノードに対し定期的に特定業務の運用を報告して主サーバ又は副サーバの権利を主張し、他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバの存在又は複数の副サーバの重複起動を認識して、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、これによって主サーバ又は副サーバ候補ノード群の中に他のサーバにより承認された唯一の主サーバ又は副サーバを存在させる。
【0013】
このように主サーバあるいは副サーバは定期的な権利を主張する旨の通知を監視することで、立ち上げ後の運用開始時に主サーバ又は副サーバが重複起動された異常を認識し、同時に存在する複数の主サーバ又は副サーバを新たな立候補ノード群とすることで、ノードの立ち上げ時と同様にして主サーバ又は副サーバの唯一性を保証できる。
【0014】
更に、主サーバ又は副サーバは、運用中に、他のノードに対し定期的に特定業務の運用を報告して主サーバ又は副サーバの権利を主張し、他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバ又は複数の副サーバの存在を認識し、自己の広報情報を他の全てのノードに提示して立候補し、自己の広報情報と他のノードからの広報情報との比較により、他のノードが主サーバ又は副サーバに適していると判断した場合は、適切な時間に特定業務を停止して他のサーバに主サーバ又は副サーバの権利を譲渡する。
【0015】
このため運用状況が変動したとしても、その変動した状況が一定期間で安定した場合、その状況に見合ったノードが新しい主サーバもしくは副サーバとして業務を遂行することかできる。
【0016】
ここで主サーバ候補ノード群は、特定業務を運用する上で必要な資源を持つか、又は特定業務を積極的に運用させたいノード群であり、また副サーバ候補ノード群は特定業務を運用する上で必要な資源を十分に持たないか、又は特定業務を消極的に運用させたいノード群であり、更に、候補外ノード群は、特定業務を運用する上で必要な資源を持たないか、又は前記特定業務を運用させたくないノード群である。
【0017】
また主サーバ又は副サーバに適しているとの判断は、広報情報が資源の使用率である場合、特定業務の要求資源と広報情報の使用率から提供可能資源の許容率を当選確率として求め、自己の当選確率が他のノードの当選確率より小さい場合に、自己の広報情報の提示を停止して立候補を取り下げる。この場合、許容率をCPU、メモリ、ディスクといった資源の種別毎に求め、その内の最小の許容率を当選確率とする。
【0018】
本発明の主サーバの特定業務は、例えばクラスタシステムの各ノードの設定、運用、監視を行うクラスタ管理業務であり、また副サーバの特定業務は主サーバのクラスタ管理業務をバックアップする業務である。
【0019】
一方、本発明は、ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する唯一のサーバの存在を決定するノード決定装置を提供する。
【0020】
本発明のサーバ決定装置は、クラスタシステムの各ノードを、特定業務の運用を割り当てる主サーバ候補ノード群と、特定業務のバックアップ業務を割り当てる副サーバ候補ノード群と、特定業務の運用及びバックアップから除外された候補外ノード群とにグループ分けし、主サーバ候補ノード群に属するノードの各々に主サーバ立候補処理部を設け、副サーバ候補ノード群に属するノードの各々に副サ一バ立候補処理部を設ける。
【0021】
主サーバ立候補処理部は、主サーバ候補ノード群に属するノードの各々に、立ち上げ時に、主サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、主サーバ候補ノード群の中に他のノードにより承認された唯一の主サーバを存在させる。
【0022】
副サーバ立候補処理部は、副サーバ候補ノード群に属するノードの各々に、立上時に、副サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、副サーバ候補ノード群の中に他のノードにより承認された唯一の副サーバを存在させる。
【0023】
このサーバ決定装置の詳細はサーバ決定方法と基本的に同じになる。
【0024】
また本発明は、ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する唯一のサーバの存在を決定するノード決定方法に於いて、複数のノードを、特定業務を運用可能なサーバ候補ノード群と、特定業務の運用から除外された候補外ノード群とに分割し、複数のノードの各々に、特定業務サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、ノード群の中に他のノードにより承認された唯一の特定業務サーバを存在させることを特徴とする。
【0025】
また本発明は、ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する唯一のサーバの存在を決定するノード決定装置に於いて、複数のノードを、特定業務を運用司能なサーバ候補ノード群と、特定業務の運用から除外された候補外ノード群とに分割し、複数のノードの各々に、特定業務サーバの選出判断に必要な自己の情報を他の全てのノードに提示して立候補すると共に、自己の情報と立候補した他のノードの情報とを比較し、自己が適切でないと判断した場合に自己の情報の提示を停止して立候補を取下げ、ノード群の中に他のノードにより承認された唯一の特定業務サーバを存在させるサーバ立候補処理部を設けたことを特徴とする。
【発明の実施の形態】
【0026】
図1は、本発明のサーバ決定方法及び装置が適用される二層構成のクラスタシステムのブロック図である。
【0027】
図1において、クラスタシステムは、例えばノード10−1,10−2,10−3,10−4,10−5で構成され、LAN18を介して接続されている。尚、実際には、32ノード、64ノード、128ノード、256ノード、512ノードといった構成をとる。ノード10−1〜10−5のそれぞれは、OS12−1〜12−5、クラスタ管理サーバ14−1〜14−5及びクラスタ制御部16−1〜16−5が設けられている。OS12−1,12−5としては、例えばSolarisが使用される。
【0028】
この図1のクラスタシステムの二層構造は、クラスタ管理サーバ14−1〜14−5とクラスタ制御部16−1〜16−5で実現される。現されるクラスタノードがノード10−1〜10−5のそれぞれの同一ノードに存在する形態である。ノード10−1〜10−5に設けているクラスタ管理サーバ14−1〜14−5のそれぞれは、インターネットやイントラネット等のネットワーク26を介して接続したクライアント20のWWWブラウザ24及びクラスタシステムの設定、運用、管理を行うことができる。
【0029】
即ち、クライアント20のWWWブラウザ24がWWWサーバ機能を持つクラスタ管理サーバ14−1〜14−5に対し、クラスタ管理に必要な設定、運用画面を表示するJavaアップレットを要求し、このアプレットに設定指示された要求をクラスタ管理サーバ14−1〜14−5からクラスタノードとしてのクラスタ制御部16−1〜16−5に指示する処理を行う。またクラスタ管理サーバ14−1〜14−5は、WWWサーバ上においてhttpプロトコルによって要求されたクラスタ設定画面及びクラスタ運用画面をWWWブラウザ24に配信すると同時に、設定された内容に従ってクラスタ制御部16−1〜16−5で実現されるクラスタノードにコマンドを発行し、その結果をWWWブラウザ24に通知する。
【0030】
このようなクラスタシステムにあっては、ノード10−1〜10−5に設けているクラスタ管理サーバ14−1〜14−5のうちのいずれか1つが主サーバとして決定され、主サーバによってノード10−1〜10−5の設定と運用が行われる。また主サーバとして決定したクラスタ管理サーバを持つノードの停止に対し、クラスタ管理サーバの機能をバックアップのために引き継ぐ待機用の副サーバが主サーバ以外に決定される。本発明のサーバ決定処理にあっては、クラスタシステムの立ち上げ時に、ノード10−1〜10−5のクラスタ管理サーバ14―1〜14−5を対象に唯一の主サーバと副サーバの決定を立候補処理に従って実行する。このため本発明にあっては、クラスタシステムのノード10−1〜10−5を主サーバ候補ノード群28、副サーバ候補ノード群30及び候補外ノード群32にグループ分けしている。
【0031】
主サーバ候補ノード群28はクラスタ管理サーバによる管理業務を運用可能なノード群である。一般的には主サーバ候補ノード群28は、ある特定業務を運用する上で必要な資産を持つか、あるいは特定業務を積極的に運用させたいノード群ということができる。
【0032】
副サーバ候補ノード群30は、クラスタ管理業務のバックアップ業務を運用可能な待機系としてのノード群である。この副サーバ候補ノード群30は、一般的には主サーバの特定業務を運用する上で必要な資源を十分に持たないか、または特定業務を消極的に運用させたいノード群ということができる。更に候補外ノード群32はクラスタ管理業務及びそのバックアップ業務の運用から除外されたノード群であり、一般的には主サーバの特定業務を運用させたくないノード群ということができる。
【0033】
図1のクラスタシステムにあっては、ノード10−1〜10−4がネットワーク26を介してクライアント20のWWWブラウザ24に接続されており、ノード10−5は接続されていないことから、WWWブラウザ24によって運用管理ができないノード10−5は候補外ノード群32に属する。これに対しWWWブラウザ24から運用管理ができるノード10−1〜10−4は、主サーバ候補ノード群28及び副サーバ候補ノード群30の対象となり、この実施形態ではノード10−1,10−2の2つを主サーバ候補ノード群28に割り当て、ノード10−3,10−4を副サーバ候補ノード群30に割り当てている。この主サーバ候補ノード群28と副サーバ候補ノード群30の振り分けは、主サーバ候補ノード群28に含まれるノードの方がクラスタ制御部の負荷が少なく、クラスタ管理サーバを設けても処理に余裕のあるノードということができる。
【0034】
このような主サーバ候補ノード群28と副サーバ候補ノード群30の振り分けは、システム立ち上げ時の初期設定で予め定めておく。また二層構造のクラスタシステムは比較的小規模なシステムを対象とし、特別なクラスタ管理サーバのノードを設置しない構成となる。
【0035】
図2は、本発明のサーバ決定処理が適用される三層構成のクラスタシステムのブロック図である。この三層構成のクラスタシステムは、クラスタ管理サーバとクラスタノード
が別ノードになる形態を取る。この三層構成の形態は、大規模システムでクラスタを集中管理した場合やクラスタノードにクラスタ管理サーバとしての負荷を負わせたくないような構成である。
【0036】
図2において、クラスタシステムは、クラスタ管理サーバとクラスタ制御部の両方を備えたノード10−1〜10−4と、クラスタ管理サーバを持たないノード10−11〜10−15で構成され、これらのノード10−1〜10−4及び10−11〜10−15はLANを介して接続されている。ノード10−1〜10−4,10−11〜10−15は、OS12−1〜12−4,12−11〜12−15とクラスタノードとして機能するクラスタ制御部16−1〜16−4,16−11〜16−15を備えている。更にノード10−1〜10−4についてはクラスタ管理サーバ14−1〜14−4が設けられている。
【0037】
このような三層構成のクラスタシステムにあっては、ノード10−1〜10−4がネットワーク26を介してクライアント20のWWWブラウザ24に接続されて遠隔的にクラスタ管理ができることから、主サーバ候補ノード群28及び副サーバ候補ノード群30の対象となる。この例ではノード10−1〜10−1を主サーバ候補ノード群28に分類し、ノード10−3,10−4を副サーバ候補ノード群30に分類している。更にクラスタ管理サーバを持たないノード10−11〜1−15は候補外ノード群32に分類することになる。
【0038】
図3は、図1の二層構成のクラスタシステムを対象に、ノード10−1〜10−5のクラスタ管理サーバ14−1〜14−4に設けられている本発明によるサーバ決定のための機能構成を示している。図3において、ノード10−1〜10―5には、サーバ決定処理のためにサーバ立候補処理部34−1〜34−5と通信部36−1〜36−5が設けられる。
【0039】
また主サーバ候補ノード群28に属するサーバ10−1,10―2のサーバ立候補処理部34−1,34−2には、主サ一バとして決定された際にセットされる主サーバフラグ38−1,38−2が設けられている。また副サーバ候補ノード群30に属する10−3,10−4のサーバ立候補処理部34−3,34−4にも、副サーバとして決定された際にオンする副サーバフラグ38−3,38−4が設けられている。これに対し候補外サーバノード群32に属するノード10−5のサーバ立候補処理部34−5については、サーバ決定の対象とならないことからサーバフラグは設けられていない。
【0040】
図4は、図1の二層構成のクラスタシステムにおける主サーバ候補ノード群と副サーバ候補ノード群のグループ分けの他の実施形態である。図3の主サーバ候補ノード群28と副サーバ候補ノード群30のグループ分けにあっては、WWWブラウザからアクセス可能なノード10−1〜10−4について22つずつグループ分けしているが、図4の実施形態にあってはノード10−1〜10−4の4つのノードを主サーバ候補ノード群28にグループ分けし、4つのノード間で立候補方式により主サーバの決定を行う。また副サーバ候補ノード群30については、図3の場合と同様、ノード10−3,10−4との間で副サーバの決定を立候補方式により行うことになる。
【0041】
図5は、図3及び図4に示したノード10−1のサーバ立候補処理部34−1の機能ブロック図である。この構成は他のサーバ立候補処理部34−2〜34−5についても同じである。図5において、サーバ立候補処理部34―1は、状態監視部40、受付処理部42、広報送信部44、広報受信部45、当選予測部46、報告送信部48及び報告受信部50で構成される。状態監視部40はノードの電源投入による立ち上げ時に、主サーバを決定するためのサーバ立候補処理を起動して、主サーバ決定の全体的な制御を行う。状態監視部40によるサーバ立候補処理は、次の3つのフェーズで行われる。
【0042】
(1)ノード立ち上げ時
(2)ノード立ち上げ後の運用開始時
(3)運用開始中
【0043】
このうちノード立ち上げ時のサーバ実行処理が基本的な処理であり、残りのノード立ち上げ後の運用開始時の処理及び運用中の処理は、クラスタシステムの中に2以上の主サーバが存在した異常状態を解消するための処理となる。状態監視部40はノード立ち上げによる初期処理が済むと、受付処理部42に対し受付処理の開始を指示する。受付処理部42には受付タイマ52が設けられており、受付開始から終了までの予め定めた時間管理を行う。即ち、受付処理部42は、運用中の他のノードが主サーバ又は副サーバに決定された状態で、受付25を開始し、受付期間中に他のノードから主サーバ又は副サーバであるこのと権利を主張する報告情報を受信すると、受付タイマ52をリトリガして受付処理を繰り返す。
【0044】
これに対し受付期間中に他のノードから主サーバ又は副サーバであることの権利を主張する報告情報を受信しない場合は、主サーバ又は副サーバが決定されていない状態と判断し、受付期間の終了により主サーバ又は副サーバを決定するための立候補処理に移行させる。この受付期間の終了により主サーバ又は副サーバを決定するために立候補処理に移行させるのは、各サーバを立ち上げるシステム起動時に生ずる。広報送信部44は受付処理部42の受付タイマ52による受付期間終了(選挙開始判断)に基づき、LAN18を介して他の全てのノードに対し主サーバの選出判断に必要な自己の広報情報54を送信する。この広報情報54としては、例えば図6に示す情報内容を持つ。
【0045】
図6の広報情報54は、自己ノードにおける資源の使用状態を表す。広報情報54は資源識別番号(RID)、資源番号(RN)、仕様番号(SID)、平均使用率(AVE)、最大使用率(MAX)を含む。資源識別番号(RID)として、この広報情報54にあっては1番から4番を持っており、1番はCPU、2番はメモリ、3番はディスク、4番はネットワークである。資源番号(RN)は同じ資源識別番号について資源の数を表わす。このうち資源番号1番、2番については、CPUメモリは1つずつであることから資源番号#1が示される。資源識別番号3番、4番のディスクとネットワークについては、2つずつ持つことから資源番号は#1,#2となる。次の仕様番号(SID)は使っている資源の名称及び性能を表しており、仕様番号(SID)に対応した使用テーブルの情報を見ることで取得できる。次の平均使用率(AVE)と最大使用率(MAX)はパーセント表示であり、統計的なデータとして提供される。
【0046】
再び図5を参照するに、広報送信部44より他のノードに対し広報情報54を提示することは、主サーバを決める選挙に対する立候補を意味する。即ちサーバ立候補処理部34−1は、主サーバを決める選挙に対する立候補の表明として広報送信部44より広報情報54を送信することになる。広報受信部45は他のノ'一ドより立候補として提示された広報情報54をLAN18から受信して当選予測部46に提示する。当選予測部46には選挙タイマ58とサーバフラグ60が設けられている。
【0047】
選挙タイマ58は受付処理部46の受付タイマ52による受付終了に基づいて起動し、一定の選挙期間を設定する。当選予測部46は広報送信部44から送信する自己の広報情報54、広報受信部45で受信した他のノードの立候補による広報情報、及び状態監視部40より提供されるクラスタ管理サーバの処理に必要な業務要件情報56を用いて当選予測を行う。この当選予測は、自己の広報情報54と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報54の提示を停止して立候補を取り下げる。このような他のノードとの比較により適切でないと判断した場合に立候補を取り下げることで、結果的に、選挙期間が終了した際に複数ノードの中に唯一のサーバ候補が残り、最後に残った候補が主サーバとして選出されることになる。
【0048】
ここで当選予測部46による処理は、自己の広報情報と他のノードの広報情報からそれぞれ当選確率を算出し、
(自己の当選確率)<(他の当選確率)
である場合に立候補を取り消す。この当選確率は次式で与えられる。
当選確率=MIN(許容率) (1)
【0049】
ここで許容率は、図6に示した広報情報54における資源識別番号1〜4ごと、即ち資源の種類ごとに算出され、そのうちの最も小さい許容率を当選確率としている。この当選確率を示す許容率は次式で算出される。
許容率=(資源量V/要求量RV)×重み係数W×100% (2)
【0050】
この(2)式における資源量V,要求量rv、重み係数Wは、状態監視部40より業務要件情報56即ちクラスタ管理サーバの運用に必要な業務要件情報56から算出される。
【0051】
図7は業務要件情報56の一例である。この業務要件情報56は、資源識別番号1〜4に対応して、クラスタ管理サーバの運用に必要な資源要求量RV、閾値係数TH及び重み係数Wを定めている。
【0052】
ここで(2)式の資源量Vは次式で算出される。
資源量V=(100−使用率U)×性能係数PF (3)
【0053】
ここで(3)式の使用率Uは次式で与えられる。
使用率U=平均使用率AV+最大使用率MAX×閾値係数TH (4)
【0054】
この(4)式の平均使用率,最大使用率は図6の広報情報54から得られ、また閾値係数THは図7の業務要件情報56から得られる。更に(3)式の性能係数PFは、予め準備した性能表を資源の使用番号SIDで参照することで得ることができる。
性能係数PF=性能表[仕様番号SID] (5)
【0055】
したがって当選予測部46にあっては、自己の広報情報の資源識別番号ごとに(2)式〜(5)式に従って許容率を算出し、資源の種類ごとに求めた許容率の中から(1)式に従って最小の許容率を選択して、これを当選確率とする。最終的に自己の当選確率と他のノードの当選確率を比較し、自己の当選確率が小さければ広報情報54の送信を停止して立候補を取り下げる。
【0056】
立候補の取り下げは当選予測部46に設けているサーバフラグ60をオフする。これに対し自己の当選確率が他のノードの当選確率より大きい場合には立候補を取り下げず、サーバフラグをオンしたまま選挙期間の終了を待つ。もちろん、選挙期間中における他のノードとの比較による当選予測の判断は、同時に立ち上げられている複数のノードとの間で行われることになる。選挙タイマ58による選挙期間が終了し、そのとき立候補が取り下げられずにサーバフラグ60がオンとなっていた場合には、これによって自分自身が主サーバに決定されたことになる。
【0057】
自らが主サーバに決定された場合には、選挙期間終了後の運用中において報告送信部48より他のノードに対し、自分自身が主サーバであることを主張する報告情報62を定期的に送信する。これによって、主サーバに決定されなかった他のノードにあっては、報告情報62を送信したノードが主サーバであることを常時認識することができる。報告受信部50は他のノードからの主サーバであることの主張を示す報告情報を受信して状態監視部40に通知する。
【0058】
報告送信部48より報告情報62を他のノードに定期的に送信している際に、報告受信部50で他のノードより主ノードであることを主張する報告情報を受信した場合には、状態監視部40においてクラスタシステムに2つの主サーバが存在する異常状態であることが認識される。このようにクラスタシステムに2以上の主サーバが存在する異常が認識された場合には、この異常状態を解消するため、状態監視部40は受付処理部42に対し受付処理の開始を指示し・改めて主サーバを決定するためのサーバ立候補処理を行わせる。
【0059】
このシステム内に2以上の主サーバが存在する異常は、報告情報を送信するネットワークの一部が故障(あるスイッチングハブの故障)してしまうと、ノード群が2つに分割されてしまい、分割されたノード群の各々で主サーバが決定され、ネットワークの故障が復旧して1つのノード群に戻ったときに起きる。例えばネットワークとしてスイッチングハブSH3を介して2つのスイッチングハブSH1、SH2を設け、スイッチングハブSH1に複数のノードを接続し、またスイッチングハブSH2に他の複数のノードを接続していた場合、スイッチングハブSH3が故障すると、スイッチンクバブSH1、SH2の間の送信が不能となり、各々に接続している2つのノード群に分かれてしまう。このため分かれた2つのノード群の各々で主サーバが決定される。その後にスイッチングハブSH3が復旧してスイッチバブSH1,SH2間での送信が可能なると、1つに戻ったノード群の中に2つの主サーバが存在する異常状態となってしまう。
【0060】
このようネットワークの一部の故障に伴って復旧時にシステム内に2つの主サーバが存在する状態となった場合には、主サーバとなった2つのノードは他のノードより主サーバであることを主張する報告情報を受信して主サーバが複数存在する異常と認識し、他のサーバからの報告情報を立候補と見なして、立ち上げ時と同様、受付処理部42の起動によりサーバ立候補処理を開始するようになる。
【0061】
図8はシステム立ち上げ時におけるサーバ立候補処理のタイムチャートであり、例えば図2のように、主サーバ候補ノード群28にサーバ10−1〜10−4を含め、そのうちの3つのノード10−1〜10−3で主サーバを決定するサーバ立候補処理を行った場合を例に取っている。
【0062】
図8において、まずノード10−1,10−2の2つがステップS1,S11の同時刻で立ち上げられたとする。この立ち上げに続いて、ステップS2,S12でそれぞれ受付処理を開始する。この受付処理は既に主ノードが決定されている場合の報告を受信して受付期間を更新する処理であり、もし他のノードより報告があれば、主ノードは決定されていることから立候補は行わないようにする。
【0063】
この場合には、対象となる3つのノード10−1〜10−3は運用に入っていないことから、ステップS2,S12において他のノードより主ノード決定後の報告情報は受信されず、したがってノード10−1,10−2は受付期間の終了でそれぞれステップS3,S13の立候補処理を行う。
【0064】
この立候補の処理は自己の広報情報を他のノードに送信する処理である。この場合にはノード10−1のステップS3の立候補によって、その広報情報がノード10−2,10−3に提示される。このときノード10−2はステップS13で立候補しており、この状態でノード10−1からの立候補による広報情報を受信するため、ステップS14で自己の広報情報とノード10−1から受信した広報情報に基づいて、それぞれの当選確率を求める。このステップS14にあっては、ノード10−2の当選確率がノード10−1の当選確率より大きい場合であり、立候補の取り下げは行わず、ステップS14の当選予測に続いてノード10−1は、他のノード10−1,10−3に対し自己の広報情報を送信する。
【0065】
一方、ノード10−1がステップS3で立候補に基づいて送信した広報情報はノード10−3でも受信されるが、このときノード10−3はステップS102で受付処理を行っており、ステップS103の立候補前であることから、ノード10−1からの広報情報に基づく当選予測は行わない。ノード10−2がステップS104の当選予測で自己の当選確率が高いため、立候補を取り下げることなく、ステップS14の当選予測に続いて他のノード10−1、10−3に対しそれぞれ自己の広報情報を送信する。
【0066】
このときノード10−1はステップS3で立候補が済んでいることから、ノード10−2からの広報情報を受信し、ステップS4で当選予測を行う。ステップS4の当選予測においてノード10−1の当選確率がノード10−2の当選確率より小さかったとすると、この場合にはステップS5で立候補を取り消し、それ以降の他のノードに対する自己の広報情報の送信を停止する。これに対し、ステップS14の当選予測で立候補を取り下げることのなかったノード10−2にあっては、それ以降の一定周期で自己の広報情報を他のノードに対し繰り返し送信している。
【0067】
一方、立ち上げが最も遅くなったノード10−3にあっては、ステップS103で立候補を行い、この立候補に基づき他のノードに自己の広報情報を送信し、また現在立候補を取り下げていないノード10−2よりその広報情報を受信すると、ステップS104で当選予測を行う。ステップS104の当選予測の結果、ノード10−3の当選確率がノード10−2の当選確率より小さかったとすると、ステップS5で立候補を取り消し、それ以降の自己の広報情報の送信を停止する。その後にノード10−2においてステップS13の立候補で起動した選挙タイマによる選挙期間が終了すると、ステップS15で立候補終了となる。
【0068】
このタイミングでノード10−1はステップS5で既に立候補を取り消しており、またノード10−3もステップS105で既に立候補を取り消しているため、立候補を取り消さなかったノード10−2のみが候補として残り、これによって選挙期間が終了した時点でノード10−2が主サーバに決定される。
【0069】
ステップS15の立候補終了によりノード10−2が主サーバに決定されると、ノード10−2は一定周期ごとに他のノード10−1,10−3に対し自分自身が主サーバである権利を主張する報告情報の送信を繰り返し行う。これに対しノード10−1,10−3にあっては、受付タイマによる受付処理を行っている。この受付処理における受付期間の間に、主サーバとなったノード10−2より主サーバの権利を主張する報告情報が受信されると、受付タイマをリトリガ(更新)し、新たな受付期間の開始を行う。このため、もし主サーバに決定されたノード10−2が障害等により停止した場合には、受付タイマによる受付期間の間に主サーバの権利を主張する報告情報が受信できず、受付期間終了により主サーバの停止を認識し、この時点で新たに主サーバを決めるための立候補を行うことになる。
【0070】
図9は本発明によるサーバ決定処理の全体的な処理のフローチャートである。
【0071】
図9において、まずステップS1で受付処理を行い、主サーバが決定されていない状態では主サーバの権利を主張する報告情報が受信されないことから受付処理を終了し、ステップS2の立候補処理とステップS3の広報処理を並行して行う。ステップS2の立候補処理にっいてステップS4で立候補終了が判別されると、ステップS5で主サーバ決定後の報告処理を行うことになる。
【0072】
図10は図9のステップS1の受付処理の詳細を示したフローチャートである。まずステップS1で受付を開始すると、ステップS2で受付タイマの起動により受付期間の計数を開始する。次にステップS3で受付期間確認を行い、ステップS4で受付期間終了でなければ、ステップS5で他のノードからの主サーバの権利を主張する報告情報の受付を行い、ステップS6で報告情報の受信があれば、ステップS2に戻り、受付タイマを再起動して新たな受付期間の計数を再開する。
【0073】
これに対しステップS6で報告情報の受信がなかった場合には、ステップS3で受付期間を確認し、この場合には受付タイマを再起動することなく、ステップS4の受付期間終了か否かのチェックと、ステップS5の報告受付の受信確認を繰り返す。ステップS4で受付期間中に主サーバの権利を主張する報告受信がなかった場合にはシステム内に主サーバが存在しないものと判断し、ステップS7で受付を終了し、図9のステップS2の立候補処理及びステップS3の広報処理に進む。
【0074】
ここで図8のタイムチャートに示したノード10−1〜10−3に示した立ち上げ後の受付処理にあっては、この状態では主ノードを主張する報告情報の受信はないことから、必ず受付期間の終了となって次の広報処理及び立候補処理に移行することになる。これに対し主サーバを決定した後の運用中に報告情報が受信されずに受付期間が終了した場合には、主サーバを決定したノードが障害等により停止した場合であることから、この場合には再度、主サーバを決めるための立候補及び広報処理を行うことになる。
【0075】
更に図10の受付処理は基本的には主サーバに決定されていないノードで行われるものであるが、主サーバに決定されたノードについては、ステップS5で他のノードからの報告受付を行い、もしステップS6で受信があった場合にはシステム内に2つの主サーバが存在する異常状態であることから、この場合には強制的にステップS7の受付終了により他のノードからの主サーバの権利を主張する報告情報の受信を立候補と見なして、図9のステップS2の立候補処理及びステップS3の広報処理に入るようにする。
【0076】
図11は図9の立候補処理12の詳細のフローチャートである。まずステップS1で受付終了に基づいて立候補を開始し、ステップS2で選挙タイマを起動して選挙期間を開始する。続いてステップS3で選挙期間を確認し、ステップS4で選挙期間終了か否かチェックする。選挙期間中であれば、ステップS5で他のノードからの広報の受信処理を割り当て、ステップS6で他のノードから広報受信があれば、ステップS7で当選予測を行う。
【0077】
ステップS7の当選予測の結果、当選可能であればステップS2に戻り、新たな選挙期間の開始即ち選挙タイマを再起動して新たな選挙期間をスタートさせる。これに対しステップS8で当選予測の結果、当選可能でなかった場合には、ステップS9で広報停止指示を行った後、ステップS10で立候補取り消し、具体的にはサーバフラグを立候補時のオンからオフして立候補を取り消す。
【0078】
一方、選挙期間中に他のノードから広報情報を受信しなかったり、あるいは広報情報を受信して当選予測を行い当選予測可能であった状態で選挙期間が終了した場合には、ステップS4からステップS11に進み、広報停止指示を行った後、ステップS12で立候補終了とする。この場合には立候補でオンしたサーバフラグはオン状態を維持し、その結果、自分自身が主サーバに決定された状態となる。
【0079】
図12は図9のステップS3の広報処理の詳細である。受付期間終了に伴って、広報処理をステップS1で開始すると、ステップS2で広報処理に関する停止指示を確認する。ステップS3で停止指示がなければ、ステップS4で広報を他のノードに送信する。これに対し図11の立候補処理におけるステップS9またはS11で広報停止指示があると、ステップS3でこの停止指示が判別され、ステップS5に進んで広報停止を行う。
【0080】
このような広報処理により、図11の立候補処理において立候補をステップS10で取り下げない場合は広報停止指示がないことから、図12の広報処理においてステップS2,S3,S4の処理の繰り返しにより定期的に他のノードに対し広報送信が繰り返される。これに対し図11の立候補処理で立侯補取り消しに先立って広報停止を行ったり選挙期間終了で広報停止を行うと、図12のステップS5に進んで広報停止となる。
【0081】
図13は図9のステップS5の報告処理の詳細なフローチャートである。この報告処理にあっては、ステップS4で立候補処理により主サーバに決定された場合に報告開始となり、ステップS2で主サーバであることの権利を主張する報告情報を他のノードに配布し、このステップS1,S2の処理を定期的に繰り返す。この報告処理は主サーバに決定されたノードのみから行われるものであり、もし主ノードに決定されたサーバが障害等により停止すると、定期的な報告配布が停止することで他のノードは主サーバが停止したことを認識し、受付処理により再度、主ノードを残された複数のノード間で決定する立候補処理を行うことになる。
【0082】
以上のサーバ決定処理は、図3,図4の主サーバ候補ノード群28に属するノ一ド間における処理を例に取るものであったが、副サーバ候補ノード群30に属するノードについても全く同様な副サーバを決定するための処理が行われる。このためクラスタシステムにおいて、立ち上げ時に主サーバ及び副サーバが決定され、運用中に主サーバと副サーバの2つのノードが同時に停止するような異常が発生しても、主サーバ候補ノード群28及び副サーバ候補ノード群30にノードが存在する限り、主サーバ及び副サーバとして最適なノードが立候補処理により自動的に決定されて唯一の主サーバ及び副サーバとして常に存在することとなり、WWWブラウザによるクラスタシステムの設定と運用の管理業務の信頼性を大幅に向上することができる。
【0083】
また上記の実施形態は、主サーバ候補ノード群と副サーバ候補ノード群に分けて主サーバ及び副サーバを決定する場合を例に取るものであったが、1つのノード群を対象にその中に対象とする特定業務例えばクラスタ管理業務を割り当てるサーバを決定する処理であっても全く同様にして行うことができる。また上記の実施形態は、クラスタシステムのクラスタ管理サーバについて主サーバと副サーバを決定する場合を例に取るものであったが、主サーバ及び副サーバを決定する業務としてはクラスタ管理業務に限定されず、必要に応じて適宜の業務、例えばユーザアプリケーションについても同様にして主サーバと副サーバを立候補処理によりダイナミックに決めるようにしても良い。
【0084】
更に上記の実施形態にあっては、立候補したノードから主サーバまたは副サーバを決める当選予測として各サーバの当選確率を求めて比較しているが、当選確率以外の立候補したノード間で最適なノードを選択できる情報の提示による比較処理で最適なノードを決定するようにしても良い。例えば要求された業務に割り当てることのできる資源の一覧表や、現在要求された業務を割り当てた場合に支障を来す度合など、立候補したノード間で最適なノードを選択できるような情報を提示しあって立候補を取り下げるか否か判断するようにすれば良い。
【0085】
また本発明は上記の実施形態に限定されず、その目的と利点を損なわない適宜の変形を含む。更に本発明は上記の実施形態に示した数値による限定は受けない。
【発明の効果】
【0086】
以上説明してきたように本発明によれば、システム構成時に主サーバ候補のノード群と副サーバ候補のノード群とにグループ分けしておくことで、システムを立ち上げると候補ノードの中での立候補により特定の業務例えば管理業務に最適なノードが主サーバ及び副サーバとして自動的に決定され、更に運用中に主サーバ及びまたは副サーバを決定したノードが停止したような場合にも、残されたノード間で最適なノードが主サーバ及びまたは副サーバに決定され、主サーバ及び副サーバを決定したノードが停止してシステム全体の業務が遂行不可能になるような事態を確実に回避し、例えばクラスタシステムにおける設定、運用といった管理業務の信頼性を向上し、システムとしての可用性を大幅に向上することができる。
【図面の簡単な説明】
【0087】
【図1】本発明が適用される2層構成のクラスタシステムのブロック図
【図2】本発明が適用される3層構成のクラスタシステムのブロック図
【図3】主サーバ候補ノード群と副サーバ候補ノード群を分けた本発明によるサーバ決定の機能ブロック図
【図4】主サーバ候補ノード群に副サーバ候補ノード群を含めた本発明によるサーバ決定の機能ブロック図
【図5】本発明のサーバ決定を行うサーバ立候補処理部の機能ブロック図
【図6】図5のサーバ立候補処理部が他のノードに通知する広報情報の説明図
【図7】当選予測に使用するクラスタ管理業務の業務要件情報の説明図
【図8】3つのノードを例にとった立ち上げ時のサーバ決定処理のタイムチャート
【図9】サーバ立候補処理部による全体的なフローチャート
【図10】図9の受付け処理の詳細なフローチャート
【図11】図9の広報処理の詳細なフローチャート
【図12】図9の立候補処理の詳細なフローチャート
【図13】図9の報告処理の詳細なフローチャート
【符号の説明】
【0088】
10:ノード
18:LAN
12:OS
14:クラスタ管理サーバ
16:クラスタ制御部
20:クライアント
24:WWWブラウザ
26:ネットワーク
28:主サーバノード群
30:副サーバノード群
32:候補外ノード群
34:サーバ立候補処理部
38,60:フラグ
40:状態監視部
42:受付処理部
44:公報送信部
45:公報受信部
46:当選予測部
48:報告送信部
50:報告受信部
52:タイマ
58:選挙タイマ

Claims (14)

  1. ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する主サーバおよび副サーバを決定するサーバ決定方法に於いて、
    前記複数のノードを、前記特定業務を運用可能な主サーバ候補ノード群と、前記特定業務のバックアップ業務を運用可能な副サーバ候補ノード群と、前記特定業務及びバックアップ業務の運用から除外された候補外ノード群とにグループ分けし、
    前記主サーバ候補ノード群に属するノードの各々は、立ち上げ時に、主サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、
    前記副サーバ候補ノード群に属するノードの各々は、立上げ時に、副サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、
    前記広報情報は資源の使用率であり、前記特定業務の要求資源と前記広報情報の使用率から提供可能資源の許容率を当選確率として求め、自己の当選確率が他のノードの当選確率より小さい場合に、自己の広報情報の提示を停止して立候補を取下げることを特徴とするサーバ決定方法。
  2. 請求項1のサーバ決定方法に於いて、前記主サーバ又は副サーバは、立ち上げ後の運用開始時に、他のノードに対し前記特定業務の運用を報告して主サーバ又は副サーバの権利を主張し、他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバ又は複数の副サーバの重複起動を認識し、自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げることを特徴するサーバ決定方法。
  3. 請求項記載のサーバ決定方法に於いて、主サーバ及び副サーバが決定した後、前記主サーバ又は副サーバは、運用中に、他のノードに対し定期的に前記特定業務の運用を報告して主サーバ又は副サーバの権利主張し、
    他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバ又は副サーバの存在を認識して自己の広報情報を他の全てのノードに提示して立候補し、自己の広報情報と他のノードからの広報情報との比較により他のノードが主サーバ又は副サーバに適していると判断した場合は、適切な時間に特定業務を停止して他のサーバに主サーバ、又は副サーバの権利を譲渡することを特徴とするサーバ決定方法。
  4. 請求項1乃至3のいずれかに記載のサーバ決定方法に於いて、
    前記主サーバ候補ノード群は、前記特定業務を運用する上で必要な資源を持つか、又は前記特定業務を積極的に運用させたいノード群であり、
    前記副サーバ候補ノード群は、前記特定業務を運用する上で必要な資源を十分に持たないか、又は前記特定業務を消極的に運用させたいノード群であり、
    更に、候補外ノード群は、前記特定業務を運用する上で必要な資源を持たないか、又は前記特定業務を運用させたくないノード群であることを特徴とするサーバ決定方法。
  5. 請求項のサーバ決定方法に於いて、前記許容率を資源の種別毎に求め、その内の最小の許容率を当選確率とすることを特徴とするサーバ決定方法。
  6. 請求項1乃至3のいずれかに記載のサーバ決定方法に於いて、前記主サーバの特定業務は各ノードの設定と監視を行う管理業務であり、前記副サーバの特定業務は主サーバ管理業務をバックアップする業務であることを特徴とするサーバ決定方法。
  7. ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する主サーバおよび副サーバを決定するサーバ決定装置に於いて、
    前記各ノードを、前記特定業務を運用可能な主サーバ候補ノード群と、前記特定業務のバックアップ業務を運用可能な副サーバ候補ノード群と、前記特定業務及びバックアップの運用から除外された候補外ノード群とにグループ分けし、
    前記主サーバ候補ノード群に属するノードの各々に、立上げ時に、主サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げる主サ一バ立候補処理部を設け、
    前記副サーバ候補ノード群に属するノードの各々に、立上げ時に、副サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げる副サ一バ立候補処理部を設け、
    前記広報情報は資源の使用率であり、前記特定業務の要求資源と前記広報情報の使用率から提供可能資源の許容率を当選確率として求め、自己の当選確率が他のノードの当選確率より小さい場合に、自己の広報情報の提示を停止して立候補を取下げることを特徴とするサーバ決定装置。
  8. 請求項のサーバ決定装置に於いて、立上げ時に選定された主サーバの主サーバ立候補処理部又は副サーバの副サーバ立候補処理部は、立上げ後の運用開始時に、他のノードに対し前記特定業務の運用を報告して主サーバ又は副サーバの権利を主張し、他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバ又は複数の副サーバの重複起動を認識し、自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較して自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げることを特徴するサーバ決定装置。
  9. 請求項記載のサーバ決定方法に於いて、主サーバ及び副サーバが決定した後、前記主サーバ立候補処理部又は副サーバ立候補処理部は、運用中に、他のノードに対し定期的に前記特定業務の運用を報告して主サーバ又は副サーバの権利を主張し、他のノードから同様な主サーバ又は副サーバの権利を主張する報告を受信した際に、複数の主サーバ又は副サーバの存在を認識して自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と他のノードからの広報情報との比較により他のノードが主サーバ又は副サーバに適していると判断した場合は、適切な時間に特定業務を停止して他のサーバに主サーバ又は副サーバの権利を譲渡することを特徴とするサーバ決定装置。
  10. 請求項7乃至9に記載のいずれかのサーバ決定装置に於いて、
    前記主サーバ候補ノード群は、前記特定業務を運用する上で必要な資源を持つか、又は前記特定業務を積極的に運用させたいノード群であり、
    前記副サーバ候補ノード群は前記特定業務を運用する上で必要な資源を十分に持たないか、又は前記特定業務を消極的に運用させたいノード群であり、
    更に、候補外ノード群は、前記特定業務を運用する上で必要な資源を持たないか、又は前記特定業務を運用させたくないノード群であることを特徴とするサーバ決定装置。
  11. 請求項のサーバ決定装置に於いて、前記主サーバ立候補処理部又は副サーバ立候補処理部は、前記許容率を資源の種別毎に求め、その内の最小の許容率を当選確率とすることを特徴とするサーバ決定装置。
  12. 請求項乃至9に記載のいずれかのサーバ決定装置に於いて、前記主サーバの特定業務は前記クラスタシステムの各ノードの設定と監視を行う管理業務であり、前記副サーバの特定業務は主サーバの管理業務をバックアップする業務であることを特徴とするサーバ決定装置。
  13. ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する唯一のサーバの存在を決定するサーバ決定方法に於いて、
    前記各サーバを、前記特定業務を運用可能とするサーバ候補ノード群と、前記特定業務の運用から除外された候補外ノード群とで構成し、
    前記サーバ候補ノード群に属するノードの各々は、特定業務サーバの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の広報情報の提示を停止して立候補を取下げ、
    前記広報情報は資源の使用率であり、前記特定業務の要求資源と前記広報情報の使用率から提供可能資源の許容率を当選確率として求め、自己の当選確率が他のノードの当選確率より小さい場合に、自己の広報情報の提示を停止して立候補を取下げることを特徴とするサーバ決定方法。
  14. ネットワークを介して接続した複数のノードの中に、ある特定業務を運用する唯一のサーバの存在を決定するのサーバ決定装置に於いて、
    前記複数のノードを、前記特定業務の運用を割当てるサーバ候補ノード群と、前記特定業務の運用から除外された候補外ノード群とに分割し、
    前記サーバ候補ノード群に属するノードの各々は、特定業務サ一バの選出判断に必要な自己の広報情報を他の全てのノードに提示して立候補すると共に、自己の広報情報と立候補した他のノードの広報情報とを比較し、自己が適切でないと判断した場合に自己の情報の提示を停止して立候補を取下げ、
    前記広報情報は資源の使用率であり、前記特定業務の要求資源と前記広報情報の使用率から提供可能資源の許容率を当選確率として求め、自己の当選確率が他のノードの当選確率より小さい場合に、自己の広報情報の提示を停止して立候補を取下げることを特徴とするサーバ決定装置。
JP2001556874A 2000-01-31 2000-01-31 サーバ決定方法及び装置 Expired - Fee Related JP3833117B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2000/000511 WO2001057685A1 (en) 2000-01-31 2000-01-31 Server determining method and device

Publications (1)

Publication Number Publication Date
JP3833117B2 true JP3833117B2 (ja) 2006-10-11

Family

ID=11735639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001556874A Expired - Fee Related JP3833117B2 (ja) 2000-01-31 2000-01-31 サーバ決定方法及び装置

Country Status (3)

Country Link
US (1) US7127484B2 (ja)
JP (1) JP3833117B2 (ja)
WO (1) WO2001057685A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7237243B2 (en) * 2001-06-11 2007-06-26 Microsoft Corporation Multiple device management method and system
US7350063B2 (en) * 2002-06-11 2008-03-25 Intel Corporation System and method to filter processors by health during early firmware for split recovery architecture
US8073935B2 (en) * 2002-07-25 2011-12-06 Oracle America, Inc. Pluggable semantic verification and validation of configuration data
US7412497B2 (en) * 2002-07-25 2008-08-12 Sun Microsystems, Inc. Generation of Administration framework for server systems
US20040019669A1 (en) * 2002-07-25 2004-01-29 Sridatta Viswanath Event notification in an administration framework for server systems
US7206827B2 (en) * 2002-07-25 2007-04-17 Sun Microsystems, Inc. Dynamic administration framework for server systems
US20040177149A1 (en) * 2003-03-05 2004-09-09 Zullo Paul F. System and method for presentation at the election of a user of media event information and further media event information of media events all related to a preselected time period
JP5066080B2 (ja) * 2005-05-06 2012-11-07 マラソン テクノロジーズ コーポレイション 耐障害性コンピュータ・システム
CA2592908A1 (en) * 2006-06-30 2007-12-30 Hitachi, Ltd. Line diagnostic device, bus system, line diagnostic method, bus system control method, and line diagnostic program
JP2008191787A (ja) * 2007-02-01 2008-08-21 Taito Corp モバイル端末、並列処理制御プログラム
TWI357257B (en) * 2007-10-19 2012-01-21 Mstar Semiconductor Inc Information processing system and related method t
US8489995B2 (en) * 2008-03-18 2013-07-16 Rightscale, Inc. Systems and methods for efficiently managing and configuring virtual servers
CN101819540B (zh) * 2009-02-27 2013-03-20 国际商业机器公司 在集群中调度任务的方法和系统
US9098383B1 (en) * 2009-09-23 2015-08-04 Nvidia Corporation Consolidated crossbar that supports a multitude of traffic types
JP5740652B2 (ja) 2012-03-28 2015-06-24 株式会社日立製作所 計算機システム及びサブシステム管理方法
US9477529B2 (en) 2012-06-20 2016-10-25 International Business Machines Corporation Job distributed within a grid environment using mega-host groupings of execution hosts based on resource attributes
US10810042B2 (en) * 2019-01-18 2020-10-20 Rubrik, Inc. Distributed job scheduler with intelligent job splitting
JP7216281B2 (ja) * 2019-02-06 2023-02-01 富士通株式会社 計算機資源管理システム及び計算機資源管理プログラム
CN110990145A (zh) * 2019-10-31 2020-04-10 北京浪潮数据技术有限公司 一种分布式系统的后台任务处理机制及方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766368B2 (ja) * 1986-10-21 1995-07-19 日新電機株式会社 ブ−トプロセツサ決定方式
US5029159A (en) * 1989-07-18 1991-07-02 International Business Machines Corporation Method and means for leader choosing on a token ring system
CA2094410C (en) * 1992-06-18 1998-05-05 Joshua Seth Auerbach Distributed management communications network
US5365523A (en) * 1992-11-16 1994-11-15 International Business Machines Corporation Forming and maintaining access groups at the lan/wan interface
US5862348A (en) * 1996-02-09 1999-01-19 Citrix Systems, Inc. Method and apparatus for connecting a client node to a server node based on load levels
US5938732A (en) * 1996-12-09 1999-08-17 Sun Microsystems, Inc. Load balancing and failover of network services
JPH10171755A (ja) * 1996-12-13 1998-06-26 Hitachi Ltd 業務システム
US6266694B1 (en) * 1997-06-19 2001-07-24 Nortel Networks Limited Architecture for network manager
US6748438B2 (en) * 1997-11-17 2004-06-08 International Business Machines Corporation Method and apparatus for accessing shared resources with asymmetric safety in a multiprocessing system
US6185695B1 (en) * 1998-04-09 2001-02-06 Sun Microsystems, Inc. Method and apparatus for transparent server failover for highly available objects
US6262984B1 (en) * 1998-05-12 2001-07-17 3Com Corporation Method of preventing overlapping branches in point to multipoint calls in PNNI networks
US6401110B1 (en) * 1998-11-30 2002-06-04 International Business Machines Corporation Method for managing concurrent processes using dual locking
US6687222B1 (en) * 1999-07-02 2004-02-03 Cisco Technology, Inc. Backup service managers for providing reliable network services in a distributed environment
US6748429B1 (en) * 2000-01-10 2004-06-08 Sun Microsystems, Inc. Method to dynamically change cluster or distributed system configuration

Also Published As

Publication number Publication date
US7127484B2 (en) 2006-10-24
US20020116437A1 (en) 2002-08-22
WO2001057685A1 (en) 2001-08-09

Similar Documents

Publication Publication Date Title
JP3833117B2 (ja) サーバ決定方法及び装置
US10509680B2 (en) Methods, systems and apparatus to perform a workflow in a software defined data center
CA2611457C (en) Method and apparatus for facilitating device redundancy in a fault-tolerant system
JP4505763B2 (ja) ノードクラスタの管理
US7421478B1 (en) Method and apparatus for exchanging heartbeat messages and configuration information between nodes operating in a master-slave configuration
US20200104222A1 (en) Systems and methods for managing server cluster environments and providing failure recovery therein
US8055735B2 (en) Method and system for forming a cluster of networked nodes
US8522231B2 (en) Updating a plurality of computers
CN104221004A (zh) 对互连失效在群集范围内的一致性检测
EP2472400A2 (en) System and method for remote administration of computer network
JPH11220466A (ja) ノード代理システム、ノード監視システム、それらの方法、及び記録媒体
JP2007207225A (ja) ウェブ・アプリケーション・ミドルウェアのための非集中型のアプリケーション配置方法、システム、プログラム
US20210191826A1 (en) Building system with ledger based software gateways
JP2005209191A (ja) 高可用性システムの遠隔エンタープライズ管理
JP2009265805A (ja) フェイルオーバ方法、プログラム、フェイルオーバ装置およびフェイルオーバシステム
EP3400528A1 (en) Deferred server recovery in computing systems
WO2005062698A2 (en) System and method for managing protocol network failures in a cluster system
CN112039710B (zh) 服务故障处理方法、终端设备及可读存储介质
TW200426571A (en) Policy-based response to system errors occurring during os runtime
WO2009100304A1 (en) System and method for network management using self-discovering thin agents
US20090252047A1 (en) Detection of an unresponsive application in a high availability system
CN115102839A (zh) 一种主从节点选举方法、装置、设备及介质
US8909666B2 (en) Data query system and constructing method thereof and corresponding data query method
US20030145050A1 (en) Node self-start in a decentralized cluster
JP2001257688A (ja) ネットワーク装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110728

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110728

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120728

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120728

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130728

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees