JP4245588B2 - クラスタノードを動作させるクラスタシステムおよび方法 - Google Patents

クラスタノードを動作させるクラスタシステムおよび方法 Download PDF

Info

Publication number
JP4245588B2
JP4245588B2 JP2005200019A JP2005200019A JP4245588B2 JP 4245588 B2 JP4245588 B2 JP 4245588B2 JP 2005200019 A JP2005200019 A JP 2005200019A JP 2005200019 A JP2005200019 A JP 2005200019A JP 4245588 B2 JP4245588 B2 JP 4245588B2
Authority
JP
Japan
Prior art keywords
cluster
application
node
nodes
cluster nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005200019A
Other languages
English (en)
Other versions
JP2006031699A (ja
Inventor
フランシスコ・ロメロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2006031699A publication Critical patent/JP2006031699A/ja
Application granted granted Critical
Publication of JP4245588B2 publication Critical patent/JP4245588B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)
  • Hardware Redundancy (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、クラスタノードを動作させるクラスタシステムおよび方法に関する。
近年のアプリケーションアーキテクチャは往々にして、アプリケーションのクラスタ実行をサポートしている。クラスタ実行は、作業負荷が分散し、場合によってはシステムにわたって平衡されるように、システムのセット上のインスタンス(大半の場合では同一インスタンス)の集まりとしてアプリケーションを実行することを指す。任意の特定のシステムが故障した場合、その作業負荷は、通常通り、またはパフォーマンスがいくらか低下した状態で、残りのシステムで続けられる。
クラスタ実行には多くの利点がある。たとえば、クラスタ実行は、クラスタノードが故障しても全体のアプリケーション故障に繋がらないため、より高い可用性を提供する。さらに、クラスタ実行は通常、コストの削減に繋がる。これは、一体式のサーバをより大きなサーバで置き換えるのではなく、より小さなサーバを使用して増分ベースで拡張を行うことができるためである。同じ理由により、分散したアプリケーションをより迅速にスケーリングすることができる。また、サーバを地理的に分散させることで、負荷平衡化および耐災害性を取り入れることができる。
一実施形態では、クラスタシステムは、複数のアプリケーションを実行する複数のクラスタノードと、複数のクラスタノードを制御する管理プロセスとを備え、管理プロセスは、サービスレベル目標(SLO)を満たしていない第1のアプリケーションを特定し、現在、第1のアプリケーションを実行していないクラスタノードを選択し、選択されたクラスタノードへの第2のアプリケーションのトランザクションのルーティングを徐々に低減し、選択されたクラスタノードへの第1のアプリケーションのトランザクションのルーティングを徐々に増大するように動作可能である。
別の実施形態では、複数のクラスタノードを動作させる方法は、第1のアプリケーションがサービスレベル目標を満たしていないことを検出すること、第2のアプリケーションを実行しているノードを再分配するものとして選択すること、第2のアプリケーションに関連するトランザクションの選択されたノードへのルーティングを徐々に低減すること、第1のアプリケーションに関連するトランザクションの選択されたノードへのルーティングを徐々に増大することとを含む。
別の実施形態では、システムは、クラスタアーキテクチャの複数のコンピュータアプリケーションを実行する複数の手段と、第1のコンピュータアプリケーションがサービスレベル目標を満たしていないことを検出する手段と、複数の実行する手段の中から、第2のコンピュータアプリケーションを実行しているものを選択する手段と、選択された実行する手段への第2のコンピュータアプリケーションのトランザクションのルーティングを徐々に低減する手段と、選択された実行する手段への第1のコンピュータアプリケーションのトランザクションのルーティングを徐々に増大する手段とを備え、徐々に増大する手段および徐々に低減する手段は同時に動作する。
典型的な分散アプリケーションは、各アプリケーションにそれぞれ専用のクラスタを使用して実装される。しかし、専用クラスタは、突然の需要の上昇に対処する際に問題が多い。クラスタのすべてのシステムは飽和し、それによって資源の枯渇が発生する可能性がある。資源が枯渇する可能性は、多くの組織によってサポートされるイントラネットおよびエクストラネットのオープン接続によって高くなる。具体的には、接続が突然急増すると、資源枯渇によってクラスタが動作不能になる場合がある。この状況を検出する管理ツールが存在するが、リカバリは通常、手動での作業である。
これより図面を参照すると、図1は、代表的な一実施形態による、サーバ資源を動的に分配するシステム100を示す。システム100は、単一システムイメージング(SSI:Single System Imaging)クラスタ(Hewlett-Packard社からのTruCluster等)を使用して実装することができる。SSIクラスタは、システム管理者およびアプリケーションに対して単一ノードの「イメージ」を呈する、ハードウェアおよびソフトウェアの接続性を有するシステムの集まりを指す。具体的には、複数のノードを単一のプラットフォームとして管理することが可能である。さらに、インターネットプロトコル(IP)アドレスエイリアシングを利用して、所与のアプリケーションをクラスタの複数のノードで実行することができ、その間、アプリケーションのクライアントからはアプリケーションが単一のシステムで実行されているように見える。SSIクラスタは通常、コンフィグレーションファイル(図示せず)のルート単一コピーを含むすべてのファイルシステムへのアクセスをコヒーレントにするファイルシステム110を備える。ファイルシステム110およびクラスタボリューム管理に対するトランスペアレントで高度な可用性が通常、提供される。SSIクラスタに関するさらなる詳細については、Hewlett-Packard社が2002年9月に発行した出版物「Cluster Hardware Configuration: TruCluster Server Version 5.1B」から得られ、これを参照により本明細書に援用する。
図1に示すように、クラスタは、制御システム108上で実行される管理プロセス101によって管理される。別法として、管理プロセス101は、クラスタのノード111a〜111iの中の1つで実行してもよい。クラスタ相互接続114を、専用高性能ノード間通信に使用することができる。クラスタ相互接続114は、転送をノード111のメモリに直接マッピングすることによって実装することができる。アプリケーション(APP、APP、およびAPP)は、サービスを各クライアント109に提供することができる。アプリケーションは、各ノード111上で、各ソフトウェアコードのインスタンスを提供することによって実装される。たとえば、ソフトウェアインスタンス105a〜105cがAPPに提供され、ソフトウェアインスタンス106a〜106dがAPPに提供され、ソフトウェアインスタンス107aおよび107bがAPPに提供される。図1は例として与えられることを理解すべきである。任意の適したクラスタアーキテクチャおよびアプリケーションを代表的な実施形態に採用することが可能である。
各ノード111は、適したコンピュータプラットフォームおよび関連するサーバソフトウェアを使用して実装することができる。ノード111が展開されると、アプリケーションの実行可能ソフトウェアをノード111に記憶することができる。管理プロセス101は、アプリケーション管理(AA)モジュール113との通信により、どの特定のソフトウェアプロセスが各ノードで実行されるかを制御することができる。たとえば、一実施形態では、「アプリケーション定義ファイル」(ADF)が使用されて、ノード111上で実行可能なアプリケーション、各アプリケーションをノード111上で開始する方法を特定したスクリプト、ノード111上での各アプリケーションの実行を停止する方法に関連する情報、および/または他の同様のものが特定される。管理プロセス101は、ノード111が特定のアプリケーションを実行すべきであると判断した場合、適した信号またはメッセージを各AAモジュール113に送る。ADFを使用して、実行のためのアプリケーションのインスタンスが作成される。管理プロセス101は、特定のノード111上でのアプリケーションインスタンスの実行を、同様にして停止させることもできる。
図1に示すように、クラスタは、クラスタエイリアス102、103、および104を使用してサブクラスタに分割される。各クラスタエイリアスには、クライアント109が各サブクラスタにアクセスできるようにするIPアドレスが関連付けられる。クラスタエイリアス102には、アプリケーションインスタンス105a〜105cを実行している3つのノード(111a〜111c)が関連付けられ、クラスタエイリアス103には、アプリケーションインスタンス106a〜106dを実行している4つのノード(111d〜111g)が関連付けられ、クラスタエイリアス104には、アプリケーションインスタンス107aおよび107bを実行している2つのノード(111h〜111i)が関連付けられる。
各アプリケーションには相対優先度を割り当てることができる。相対優先度は、サブクラスタ上で実行されるアプリケーションの相対的な重要度を規定する。この例では、アプリケーションAPPおよびAPPはオンラインデータベーストランザクション処理を実行することができ、APPはバッチサービスを実行することができる。したがって、アプリケーションAPPおよびAPPには、クラスタエイリアスAPPの優先度よりも高い相対優先度が割り当てられる。
各サブクラスタ、アプリケーション、またはノードには、サービスレベル目標(SLO)を割り当てることができる。SLOは、規定の資源利用測度またはパフォーマンス目標測度である。たとえば、クラスタエイリアス103のSLOは、アプリケーションAPPが規定のクエリタイプに対して平均応答時間10ミリ秒を提供することであり得る。別法として、特定のノード111のCPU/メモリ/I/O資源の利用率が80パーセント未満、または他の任意の適したレベル未満のままの状態であるべきである。各パフォーマンスモニタ112が、各ノード111に関連する動作を調べ、適した測度を管理プロセス101に通信する。管理プロセス101はこの測度を用いて、SLO解析を実行し、ノード111を適宜再分配する。
さらに、各クラスタエイリアスは、ノード111がクラスタインフラストラクチャを使用してデフォルトの「重み」を有するように構成することが可能である。重みとは、特定のノード111にルーティングされるサブクラスタトランザクションの相対量を示す。各サブクラスタは、各サブクラスタ内のすべてのノード111に対して所定の重み(サブクラスタデフォルト重み(SDW))を有することができる。別法として、サブクラスタをインスタンス化した後、各サブクラスタの様々なノード111に非均等な重みを割り当てることができる。
図2は、クラスタアーキテクチャでの、サーバ資源の分配に関するフローチャートを示す。図2のフローチャートは、例として、管理プロセス101内の実行可能コードまたはソフトウェア命令として実装することができる。
本例では、クラスタエイリアス103に関連するAPPはそのSLOを達成していないと仮定する。したがって、APPは、現在分配されている資源よりも多くの資源から恩恵を受け得る。また、クラスタエイリアス104に関連するAPPは、そのSLOを常に達成しているものと仮定する。クラスタエイリアス102に関連するAPPは、殆どの時間においてそのSLOを達成しているものと仮定する。
ステップ201において、第1のサブクラスタ(クラスタエイリアス103に関連するサブクラスタ)すなわち第1のアプリケーション(APP)がそのSLOを満たしていないと判断される。たとえば、第1のアプリケーションの、規定のトランザクションに対する応答時間は、所定のしきい値を下回り得る。別法として、メモリ利用率、プロセッサ利用率、またはI/O資源利用率が所定のしきい値を超えており、それによってアプリケーションのパフォーマンスの低下が示され得る。
ステップ202において、第2のアプリケーション(APP)を実行している、別のサブクラスタの(サブクラスタ104に関連する)各ノード111(たとえば、ノード111h)が選択される。たとえば、ノード111hの選択は、サブクラスタまたはアプリケーションの相対優先度を用いて行うことができる。ステップ203において、プロセスが、選択されたノード111h上で開始され、選択されたノード111h上に第1のアプリケーション(APP)のインスタンスが作成される。プロセスは、適したメッセージを管理プロセス101から各AAモジュール113に通信することによって開始することができる。
ステップ204において、選択されたノード111hが第1のアプリケーション(APP)のサブクラスタ(クラスタエイリアス103に関連する)に追加され、サブクラスタについての重み0が割り当てられる。重み0は、第1のアプリケーションに関連するトラフィックが最初に、選択されたノード111hに送られないようにする。
ステップ205において、タイマが初期化される。たとえば、特定の時間期間をタイマに設定することができる。時間期間は、各アプリケーションに使用されるプロトコルおよび平均トランザクション時間を考慮することによって選択することができる。たとえば、伝送制御プロトコル/インターネットプロトコル(TCP/IP)永続接続が、比較的長いアプリケーションセッションをサポートするために使用される場合、時間期間は、クライアント109との過度の数のTCP/IP接続が切断しないように、比較的大量であり得る(たとえば、秒単位)。別法として、トランザクションが比較的短い場合(たとえば、複雑性の低いデータベース検索の場合)、時間期間は比較的小量であり得る。また、時間期間は、調整可能パラメータとして実装することができる。
ステップ206において、論理比較が行われ、その時間が経過したか否かが判断される。経過していない場合、プロセスの流れは、タイマが経過するまで繰り返される。その時間が経過すると、プロセスの流れはステップ207に進む。
ステップ207において、第2のアプリケーション(APP)に関連するサブクラスタ内の選択されたノード111hの重みが、0よりも大きい場合に限り、所定量だけ低減される。
ステップ208において、第1のアプリケーション(APP)に関連するサブクラスタについて選択されたノード111hの重みが、サブクラスタデフォルト重み(SDW)または他の適した重みに達するまで、所定量だけ増大される。
ステップ209において、論理比較が行われ、これらのサブクラスタについて選択されたノード111hの重みがゼロおよびSDWに達したか否かが判断される。達していない場合、プロセスの流れはステップ205に戻る。重みが所望の重みに達している場合、プロセスの流れはステップ210に進む。
ノード111hの再分配に関連して、選択されたノード111hの重みを管理することにより、アプリケーションの動作を有利に行うことができる。具体的には、ノード111hの再分配は、第2のアプリケーションに関連するクライアント109が、通常、かなりのパフォーマンス低下を認めずにすむ十分な時間量にわたって行うことができる。たとえば、過度の量の永続TCP/IPセッションが切断されない。さらに、第2のアプリケーションに関連するトランザクションが終了したときに、第1のアプリケーションに関連する重みが増分的に増大される。したがって、資源は、過度の待ち時間なしで第1のアプリケーションに効率的に移行されている。
ステップ210において、低優先度を、第2のアプリケーションに関連するバイナリファイル処理トランザクションに割り当てることができ、または別法として、バイナリファイルの実行を停止することができる。
ステップ211において、選択されたノード111hは、第2のアプリケーション(アプリケーション107)に関連するサブクラスタから除去される。
一実施形態について、より低い優先度を有するアプリケーションから資源を再分配するものとして説明したが、本発明はこのように限定されるものではない。たとえば、複数の優先度のより高いアプリケーションが、単一の優先度のより低いアプリケーションから同じノードを同時に取得しようとすることもできる。「DYNAMIC MANAGEMENT OF COMPUTER WORKLOADS THROUGH SERVICE LEVEL OPTIMIZATION」という名称の米国特許出願第09/493,753号(これを参照により本明細書に援用する)に開示されるアルゴリズム等、アービトレーションアルゴリズムを採用して、ノードを2つの優先度のより高いアプリケーション間で分配することができる。さらに、追加の基準を使用して、再分配するノードを選択することもできる。たとえば、SLOを満たしていない、優先度のより低いアプリケーションからノードを再分配するのではなく、十分にSLOの範囲内にある優先度が等しいか、またはより高いアプリケーションからノードを再分配することが有利な場合もある。
図3は、代表的な一実施形態による、再分配するノードの選択に関するフローチャートである。図3のフローチャートは、例として、管理プロセス101内の実行可能コードまたはソフトウェア命令として実装することができる。ステップ301において、現在、SLOを満たしていないアプリケーションよりも低い相対優先度を有するアプリケーション(複数可)に関連する測度が調べられる。ステップ302において、論理比較が行われ、優先度のより低いアプリケーションがSLO範囲内で動作しているか否かが判断される。真の場合、プロセスの流れはステップ303に進み、相対優先度のより低いアプリケーションを実行しているノード111が再分配されるものとして選択される。ステップ302の論理判断が偽の場合、プロセスの流れはステップ304に進む。
ステップ304において、等しい優先度を有するアプリケーション(複数可)に関連する測度が調べられる。ステップ305において、論理比較が行われ、優先度の等しいアプリケーションが十分にSLO範囲内で動作しているか否かが判断される。たとえば、優先度の等しいアプリケーションが3つのノード111上で実行されている場合、このアプリケーションは資源利用率80%というSLOを有し、利用率測度は、利用率が20%であることを示し、各サブクラスタから1つのノード111を再分配しても、パフォーマンスの低下に繋がらない可能性が最も高い。
ステップ305の論理比較が真の場合、プロセスの流れはステップ306に進む。ステップ306において、等しい優先度を有するアプリケーションに関連するノード111が、再分配されるものとして選択される。ステップ305の論理比較が偽の場合、プロセスの流れはステップ303に進む。ステップ303において、優先度のより低いアプリケーションを実行しているノード111が、再分配されるものとして選択される。
このようにして再分配するノード111を選択することにより、アプリケーションのパフォーマンスに対する影響を最低限に抑えることができる。具体的には、可能であれば、選択されたノードでそれまで実行されていたアプリケーションのパフォーマンスに生じる影響がごくわずかなノードが選択される。そうすることができない場合、再分配の影響が、優先度のより低いアプリケーションのパフォーマンスにおいて観察される。図3のプロセスの流れは例としてのものである。他の適した再分配基準を解析してもよい。さらに、優先度のより高いアプリケーションも同様に調べて、ノードの再分配が優先度のより高いアプリケーションにおよぼす影響がごくわずかであるか否かを判断することもできる。
ソフトウェアに実装される場合、本発明の諸要素は本質的に、必要なタスクを実行するコードセグメントである。プログラムまたはコードセグメントは、プロセッサ可読媒体に記憶することもでき、または伝送媒体を介して、搬送波、または搬送波で変調された信号で具現されるコンピュータデータ信号で伝送することもできる。「プロセッサ可読媒体」は、情報を記憶する、または転送することができるあらゆる媒体を包含し得る。プロセッサ可読媒体の例としては、電子回路、半導体メモリデバイス、ROM、フラッシュメモリ、消去可能ROM(EROM)、フロッピー(登録商標)ディスク、コンパクトディスクCD―ROM、光ディスク、ハードディスク、光ファイバ媒体、無線周波(RF)リンク等が挙げられる。コードセグメントは、インターネット、イントラネット等のコンピュータネットワークを介してダウンロードすることができる。
図4は、代表的な一実施形態に従って適合されたコンピュータシステム400を示す。中央演算処理装置(CPU)401がシステムバス402に結合される。CPU401は任意の汎用CPUであることができる。しかし、本発明は、CPU401が本明細書において説明する本発明の動作をサポートする限り、CPU401の構造によって制限されない。バス402はランダムアクセスメモリ(RAM)403に結合され、RAM403は、SRAM、DRAM、またはSDRAMであることができる。ROM404もバス402に結合され、ROM404は、PROM、EPROM、またはEEPROMであることができる。RAM403およびROM404は、当分野において既知のようにユーザデータ、システムデータ、およびプログラムを保持する。
バス402は、入出力(I/O)コントローラカード405、通信アダプタカード411、ユーザインタフェースカード408、およびディスプレイカード409にも結合される。I/Oカード405は、ハードドライブ、CDドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ等のうちの1つまたは複数の記憶装置406をコンピュータシステムに接続する。記憶装置406は、クラスタアーキテクチャのノードへのトランザクションのルーティングを制御し、どのアプリケーションがノードで実行されるかを制御するソフトウェアまたは実行可能コードを記憶することができる。たとえば、記憶装置406は、代表的な一実施形態による管理プロセス101を実装する実行可能コードを記憶することができる。
通信カード411は、コンピュータシステム400をネットワーク412に結合するように適合され、ネットワーク412は、ローカル(LAN)、広域(WAN)、イーサネット(登録商標)、またはインターネットネットワークのうちの1つまたは複数であることができる。ユーザインタフェースカード408は、キーボード413およびポインティングデバイス407等のユーザ入力装置をコンピュータシステム400に結合する。ディスプレイカード409は、CPU401によって駆動され、表示装置410上の表示を制御する。
いくつかの代表的な実施形態は、クラスタアプリケーションの効率的な動作を可能にする。クラスタのノードは、観察された需要に応答して、特定のアプリケーションに動的に分配される。より少数のノードを使用して、資源枯渇という危険を冒すことなくアプリケーションをサポートすることができる。したがって、資源の過剰提供を回避することができる。さらに、再分配するノードを選択する間にアプリケーションのパフォーマンスを調べることにより、クライアントにとって大抵はトランスペアレントにノードの再分配を行うことができる。また、相対優先度を使用することにより、再分配によってアプリケーションパフォーマンスが認め得るほどに変化し得る場合に、「極めて重要」または重要なアプリケーションが適正なパフォーマンス基準を維持することができる。
代表的な一実施形態によるクラスタシステムを示す。 代表的な一実施形態によるクラスタノードへの分配に関するフローチャートを示す。 代表的な一実施形態による再分配するノードの選択に関するフローチャートを示す。 代表的な一実施形態に従って適合されたコンピュータシステムを示す。
符号の説明
100・・・クラスタシステム
101・・・管理プロセス
102〜104・・・クラスタエイリアス
105〜107・・・アプリケーション
108・・・制御システム
109・・・クライアント
110・・・記憶装置
111・・・ノード
112・・・パフォーマンスモニタ
113・・・アプリケーション管理モジュール
114・・・クラスタ相互接続
400・・・コンピュータシステム
401・・・CPU
402・・・システムバス
403・・・RAM
404・・・ROM
405・・・I/Oアダプタ
406・・・記憶装置
407・・・ポインティングデバイス
408・・・ユーザインタフェースアダプタ
409・・・ディスプレイアダプタ
410・・・表示装置
411・・・通信アダプタ
412・・・ネットワーク

Claims (8)

  1. 複数のアプリケーション(105、106、107)を実行する複数のクラスタノード(111)と、
    該複数のクラスタノードを制御する管理プロセス(101)と
    を備え、
    前記管理プロセスは、サービスレベル目標(SLO)を満たしていない第1のアプリケーションを特定し、現在、該第1のアプリケーションを実行していないクラスタノードを選択し、該選択されたクラスタノードへの第2のアプリケーションのトランザクションのルーティングを徐々に低減し、前記選択されたクラスタノードへの前記第1のアプリケーションのトランザクションのルーティングを徐々に増大し、前記クラスタノードの再分配により、前記第2のアプリケーションが該第2のアプリケーションのサービスレベル目標を満たさなくなるか否かを判断するように動作可能である、クラスタシステム。
  2. 前記管理プロセスは、優先度のより低いアプリケーションに関連するクラスタノードを調べることによって前記クラスタノードを選択するように動作可能である、請求項1記載のクラスタシステム。
  3. 前記管理プロセスは、優先度の等しい、またはより高いアプリケーションに関連するクラスタノードを調べることによって前記クラスタノードを選択するように動作可能である、請求項1記載のクラスタシステム。
  4. 前記複数のクラスタノード上の各パフォーマンス監視プロセスが、パフォーマンス測度情報を前記管理プロセスに通信する、請求項1記載のクラスタシステム。
  5. 複数のクラスタノード(111)を動作させる方法であって、
    第1のアプリケーションがサービスレベル目標を満たしていないことを検出すること(201)、
    第2のアプリケーションを実行しているノードを再分配するものとして選択すること(202)、
    前記選択されたノードの再分配により、別のアプリケーションがサービスレベル目標を満たさなくなるか否かを判断すること、
    前記第2のアプリケーションに関連するトランザクションの前記選択されたノードへのルーティングを徐々に低減すること(207)、
    前記第1のアプリケーションに関連するトランザクションの前記選択されたノードへのルーティングを徐々に増大すること(208)
    とを含む、複数のクラスタノードを動作させる方法。
  6. 前記徐々に低減すること、および徐々に増大することは同時に行われる、請求項記載の複数のクラスタノードを動作させる方法。
  7. 前記選択することは、前記判断することに応答して、優先度のより低いアプリケーションに関連するクラスタノード、および優先度が少なくとも等しいアプリケーションに関連するクラスタノードの中から選択する、請求項記載の複数のクラスタノードを動作させる方法。
  8. 前記徐々に低減すること、および徐々に増大することは、
    前記第1のアプリケーションについて前記選択されたクラスタノードのサブクラスタ重みを増大すること、
    前記第2のアプリケーションについて前記選択されたクラスタノードのサブクラスタ重みを低減すること
    とを含む、請求項記載の複数のクラスタノードを動作させる方法。
JP2005200019A 2004-07-19 2005-07-08 クラスタノードを動作させるクラスタシステムおよび方法 Expired - Fee Related JP4245588B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/893,825 US7904910B2 (en) 2004-07-19 2004-07-19 Cluster system and method for operating cluster nodes

Publications (2)

Publication Number Publication Date
JP2006031699A JP2006031699A (ja) 2006-02-02
JP4245588B2 true JP4245588B2 (ja) 2009-03-25

Family

ID=35758994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005200019A Expired - Fee Related JP4245588B2 (ja) 2004-07-19 2005-07-08 クラスタノードを動作させるクラスタシステムおよび方法

Country Status (2)

Country Link
US (1) US7904910B2 (ja)
JP (1) JP4245588B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8059562B2 (en) * 2004-10-18 2011-11-15 Nokia Corporation Listener mechanism in a distributed network system
US7725901B2 (en) * 2005-04-14 2010-05-25 International Business Machines Corporation Method and system for performance balancing in a distributed computer system
US8719831B2 (en) * 2009-06-18 2014-05-06 Microsoft Corporation Dynamically change allocation of resources to schedulers based on feedback and policies from the schedulers and availability of the resources
US8112659B2 (en) 2009-06-19 2012-02-07 Oracle International Corporation Reducing recovery time for business organizations in case of disasters
US10797953B2 (en) * 2010-10-22 2020-10-06 International Business Machines Corporation Server consolidation system
US9898378B2 (en) 2015-11-10 2018-02-20 International Business Machines Corporation Smart selection of a storage module to be excluded
KR102468286B1 (ko) * 2016-01-04 2022-11-21 한국전자통신연구원 대칭형 다중 처리 시스템에서의 전력 제한 장치 및 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883257A (ja) 1994-09-13 1996-03-26 Hitachi Ltd 並列コンピュータシステムのプロセス実行最適化方法
JP3259620B2 (ja) * 1995-12-21 2002-02-25 株式会社日立製作所 資源割り当て方法
US6195680B1 (en) * 1998-07-23 2001-02-27 International Business Machines Corporation Client-based dynamic switching of streaming servers for fault-tolerance and load balancing
US6728748B1 (en) * 1998-12-01 2004-04-27 Network Appliance, Inc. Method and apparatus for policy based class of service and adaptive service level management within the context of an internet and intranet
JP3664021B2 (ja) 2000-01-05 2005-06-22 日本電気株式会社 サービスレベルによる資源割当方式
US7089293B2 (en) * 2000-11-02 2006-08-08 Sun Microsystems, Inc. Switching system method for discovering and accessing SCSI devices in response to query
JP2003256310A (ja) 2002-03-05 2003-09-12 Nec Corp サーバ負荷分散システム、サーバ負荷分散装置、コンテンツ管理装置、及びサーバ負荷分散プログラム
US7529822B2 (en) * 2002-05-31 2009-05-05 Symantec Operating Corporation Business continuation policy for server consolidation environment
US7322034B2 (en) 2002-06-14 2008-01-22 Hewlett-Packard Development Company, L.P. Method and system for dynamically allocating computer system resources
US20040015581A1 (en) * 2002-07-22 2004-01-22 Forbes Bryn B. Dynamic deployment mechanism
US7328259B2 (en) * 2002-11-08 2008-02-05 Symantec Operating Corporation Systems and methods for policy-based application management

Also Published As

Publication number Publication date
US7904910B2 (en) 2011-03-08
JP2006031699A (ja) 2006-02-02
US20060031843A1 (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP4374391B2 (ja) 複数のインスタンスアプリケーションに対し負荷分散装置を動作させるシステムおよび方法
US7185096B2 (en) System and method for cluster-sensitive sticky load balancing
JP4245588B2 (ja) クラスタノードを動作させるクラスタシステムおよび方法
US7757236B1 (en) Load-balancing framework for a cluster
US6944788B2 (en) System and method for enabling failover for an application server cluster
US7933995B2 (en) Computer program and apparatus for controlling computing resources, and distributed processing system
KR101091250B1 (ko) 분산형 컴퓨팅 시스템에서 라우팅 정보의 주문형 전파
US9026655B2 (en) Method and system for load balancing
US7996525B2 (en) Systems and methods for dynamically provisioning cloud computing resources
US7676635B2 (en) Recoverable cache preload in clustered computer system based upon monitored preload state of cache
US7287179B2 (en) Autonomic failover of grid-based services
US9396026B2 (en) Allocating a task to a computer based on determined resources
JP5000456B2 (ja) 資源管理システム、資源管理装置およびその方法
US20100042675A1 (en) Request processing method and computer system
CN111756841B (zh) 基于微服务集群的业务实现方法、装置、设备及存储介质
JP2000200253A (ja) デ―タベ―ス負荷分散処理方法及びその実施装置
Wang et al. Workload balancing and adaptive resource management for the swift storage system on cloud
US10802753B2 (en) Distributed compute array in a storage system
WO2004036344A2 (en) System and method for the optimization of database
US20220318071A1 (en) Load balancing method and related device
US7694007B1 (en) Methods and apparatus for managing requests
US20030095501A1 (en) Apparatus and method for load balancing in systems having redundancy
US20240160465A1 (en) Orchestration model integration method in heterogeneous cluster environment
US11928516B2 (en) Greener software defined storage stack
WO2024024000A1 (ja) 電源制御装置、電源制御システム、電源制御方法、および、電源制御プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070323

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080623

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees