JP2006113828A - 作業負荷管理可能なクラスタシステム - Google Patents
作業負荷管理可能なクラスタシステム Download PDFInfo
- Publication number
- JP2006113828A JP2006113828A JP2004300884A JP2004300884A JP2006113828A JP 2006113828 A JP2006113828 A JP 2006113828A JP 2004300884 A JP2004300884 A JP 2004300884A JP 2004300884 A JP2004300884 A JP 2004300884A JP 2006113828 A JP2006113828 A JP 2006113828A
- Authority
- JP
- Japan
- Prior art keywords
- node
- cluster
- coordinator
- failover
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Hardware Redundancy (AREA)
Abstract
【課題】 本発明はクラスタ環境のノード間で自動的に負荷分散を行う方法に関し、従来はサービスを提供するサーバとは別に管理サーバが必要だった。そのため不経済であり、また、管理サーバの障害の際にはクラスタ機能を維持できない。さらに、従来の負荷分散方法では複数のサーバで同じアプリケーションの起動が必要な場合があり、その分多くリソースを消費する。
【解決手段】 各ノード上のクラスタ制御部の中で中心的な役割を果たすコーディネータにより、管理サーバが不要となる。また、たとえコーディネータが存在するノードに障害が発生しても、生き残るノードのクラスタ制御部の中から新たなコーディネータが選ばれることにより、クラスタ機能を維持できる。さらに、フェイルオーバする方法でノード間の負荷分散を実現することにより、同じアプリケーションを複数のノードで起動する必要が無くなる。
【選択図】 図1
【解決手段】 各ノード上のクラスタ制御部の中で中心的な役割を果たすコーディネータにより、管理サーバが不要となる。また、たとえコーディネータが存在するノードに障害が発生しても、生き残るノードのクラスタ制御部の中から新たなコーディネータが選ばれることにより、クラスタ機能を維持できる。さらに、フェイルオーバする方法でノード間の負荷分散を実現することにより、同じアプリケーションを複数のノードで起動する必要が無くなる。
【選択図】 図1
Description
本発明は、クラスタシステム内の複数のノード間で負荷分散する方法に関するものである。
従来は、特許文献1に記載のように、一台の管理サーバを中心にノード間の負荷分散を行っていた。また、特許文献1では、アプリケーションをフェイルオーバさせる方法ではなく、各ノードがサービスを提供する対象とする端末の組み合わせを変更することにより、負荷分散を行っている。
上記背景技術は、サービスを提供している構成サーバとは別に専用の管理サーバを必要としているため不経済であるという欠点や、管理サーバに障害が発生するとクラスタ機能を維持できなくなるという欠点があった。また、同じサービスを受けたい複数の端末が別の構成サーバに割り当てられた場合には、同じアプリケーションを複数の構成サーバで起動する必要があった。このため、各ノードのCPU、メモリ、ディスクバンド幅などのリソースを有効活用し、ノード間で作業負荷を管理可能な高可用性クラスタを実現するためには不十分であった。
上記目的を達成するために、各ノード上のクラスタ制御部の中で中心的な役割を果たすコーディネータが存在する。たとえコーディネータが存在するノードに障害が発生しても、再編成後のクラスタに含まれるノードのクラスタ制御部の中から、新たなコーディネータとなるものを選ぶ。
また、アプリケーションをフェイルオーバすることでノード間の負荷分散を実現する。
本発明によれば、管理用の専用サーバが不要となる経済的な利点や、たとえコーディネータをもつノードに障害が発生しても、ほかのノードにコーディネータが移るため、引き続きクラスタの制御や作業負荷の管理が可能となる利点がある。
また、同じサービスを受ける複数の端末がある場合でも、複数のノードで同じアプリケーションを起動することなく負荷分散が行えるため、CPU、メモリ、ディスクバンド幅などのリソースを有効活用できる利点がある。
以下、本発明を実施するための最良の形態を図面に基づいて詳細に説明する。
図1は本発明における一実施例である作業負荷管理可能なクラスタシステムの構成を示すものである。
本実施例ではクラスタシステムが3つのノード101,102,103から成っており、各ノード上にはクラスタ制御部104,105,106および作業負荷管理部107,108,109が存在する。本実施例では、クラスタ制御部104がコーディネータの役割を担っているものとする。ノード102の負荷が大きく、ノード102上で起動しているパッケージ(アプリケーションを扱う単位)110のフェイルオーバが必要な時に、各ノードの負荷状態を比較して負荷の低いノード103にフェイルオーバするまでの流れを順に説明する。
ノード102上の作業負荷管理部108が、図4のフェイルオーバ必要性判断の手順により、フェイルオーバが必要だと判断してクラスタ制御部105に図13で示す負荷情報を通知する。クラスタ制御部105は受け取った負荷情報をコーディネータ104に通知する。コーディネータ104は、負荷情報を既に通知してきたノード102以外のノード101,103のクラスタ制御部104,106に負荷情報を問い合わせる要求を通知する。クラスタ制御部104は作業負荷管理部107に、また、クラスタ制御部106は作業負荷管理部109に、それぞれ負荷情報を問い合わせる。作業負荷管理部107はクラスタ制御部104に、また、作業負荷管理部109はクラスタ制御部106に、それぞれのノードの負荷情報を図13で示す形式で通知する。クラスタ制御部104,109がそれぞれ自分のノードの負荷情報をコーディネータ104に通知する。コーディネータ104は収集した各ノードの負荷情報を元に、図10の利用率テーブル1001または図11のSLO達成状態テーブル1101を更新し、その内容をどのノードからもアクセス可能な共有ディスク上の負荷情報記録ファイル111に記録する。その内容を元に、図6のフェイルオーバ先決定処理に従って最も負荷の低いと判断されるノード2にパッケージ110をフェイルオーバさせる。
図8のフェイルオーバポリシーテーブル801は、フェイルオーバポリシー803の優先度802の設定情報を持ち、共有ディスク113またはローカルディスク上のパッケージ構成ファイル112の中で定義される。なお、パッケージ構成ファイルの内容は、全ノードのクラスタ制御部104,105,106が共通の内容として持っているものとする。また、図8〜図12のテーブルの情報はメモリ上に存在するものとする。
図2のステップ221、ステップ217、図3のステップ309において、フェイルオーバポリシー803に合わせた処理の選択が行われる際には、優先度802の高いフェイルオーバポリシーから順に適用が試みられるが、適用できない場合には次に優先度の高いポリシーの適用を試みる。あるフェイルオーバポリシーが適用できずに次の優先度のものを採用する例としては、例えばステップ217において、他ノードの負荷情報がタイムアウトにより収集できず、現在の負荷情報によるフェイルオーバ先の決定ができない場合や、ステップ206,308において、共有ディスク113上に負荷情報ファイルが存在していない場合が考えられる。
また、フェイルオーバポリシーテーブル801には、フェイルバックさせるかどうかを設定するフラグ808がある。
図9は起動ノードの優先順位を示すテーブルであり、パッケージ構成ファイル112の中で定義される。フェイルオーバポリシー803が「優先順」807の場合、現在クラスタに参加しているノードの中で、最も優先順位の高いノードをフェイルオーバ先に決める。なお、すべてのテーブルに記載されているノード1、ノード2、ノード3は、それぞれ、図1のノード101、ノード102、ノード103に対応するものとする。
図15のノード間共通情報テーブル1501は、クラスタ内の全ノードに共通する内容のものが置かれている。クラスタの設定変更やクラスタの再編成、パッケージの起動または停止の際に、クラスタ制御部間でこれらの情報が通知されてテーブルが更新され、常に全ノードのテーブルの内容が一致している。ノード間共通情報テーブル1501には、現在のコーディネータ1502、フェイルオーバポリシーを決める材料1503、各ノードで起動中のパッケージ数1504、フェイルバック先のノード1505、コーディネータ決定ポリシー1506、コーディネータとなるノードの優先順位1507に関する情報が含まれている。
フェイルバック先のノード1505は、既にフェイルオーバしたパッケージが、フェイルオーバする前に起動していたノードである。フェイルオーバ後に利用率またはSLOの目標値を満たしていなかった場合に、フェイルバックする設定であれば元のノードにパッケージを移動させる(ステップ703)。
なお、フェイルオーバポリシーテーブル801、起動ノード優先順位テーブル901も、ノード間共通情報テーブル1501と同様に全ノードで共通の情報であり、クラスタの設定が変更された際にクラスタ制御部間で更新情報を通知する。
図10の利用率テーブル1001は、コーディネータ104に各ノードのクラスタ制御部から集められたリソースの利用率に関するメモリ上の情報であり、負荷情報記録ファイル111にも記録される。ここでの利用率とは、各ノードの持つリソース(CPU、メモリ、ディスクバンド幅)が利用されている割合を意味する。図13の負荷情報が届くたびに、利用率テーブル1001と負荷情報記録ファイル111は更新される。なお、負荷情報記録ファイル111の更新時点で、もし共有ディスク113に負荷情報記録ファイルが無ければ、メモリ上の利用率テーブル1001を元に新たに生成される。
図11のSLO達成状態テーブル1101は、コーディネータ104に各ノードのクラスタ制御部から集められたSLOの達成状態に関するメモリ上の情報であり、負荷情報記録ファイル111にも記録される。SLOとはアプリケーショングループごとのサービスレベルに関する目標値のことであり、たとえばリソース(CPU、メモリ、ディスクバンド幅)の利用率やレスポンスタイムなどの目標値が考えられる。図11中グループとは、アプリケーションのグループである。ただし、アプリケーショングループの利用率1103とは、CPUまたはメモリまたはディスクバンド幅のいずれかのリソースのうち、そのアプリケーショングループに利用されている割合を意味する。優先順1102は、フェイルオーバ対象のアプリケーショングループを決めるための優先順であり、必ずしも重要な業務のアプリケーショングループの優先度を高くしたほうがよいとは限らない。わずかなダウンタイムも許されない重要な業務にリソースを確保するために、あまり重要でないアプリケーショングループをフェイルオーバさせたほうがよい場合もあることを考えて設定する。図13の負荷情報が届くたびに、SLO達成状態テーブル1101と負荷情報記録ファイル111は更新される。なお、負荷情報記録ファイル111の更新時点で、もし共有ディスク113に負荷情報記録ファイルが無ければ、メモリ上のSLO達成状態テーブル1101を元に新たに生成される。
図12の作業負荷管理テーブル1201は各ノードの作業負荷管理部が持つ情報であり、各ノードのリソース利用率またはSLOの目標値1203および測定値1204、未達成回数1205、未達成許容回数1206などが含まれる。これをもとに、図4のフェイルオーバ必要性判断処理が行われる。また、各リソースの利用率やSLOを、フェイルオーバ先を決める材料とするかどうか設定する。ただし、利用率とSLO達成状態のうち、いずれか片方しかフェイルオーバ先を決める材料として選択できないものとする。
図13は作業負荷管理部とクラスタ制御部の間、またはクラスタ制御部間でやりとりされる負荷情報である。図12の作業負荷管理テーブル1201の「材料とするか」という項目1202でフェイルオーバ先を決める材料として決めた必要最小限のデータのみ送ることが可能である。図13中の斜線欄は、図12中で材料と決めていない不要なデータであり、これを送らない例を示している。
図2は図1で示したクラスタ制御部104,105,106に対し、各種の情報が通知されたときに、その情報の種類に応じた処理の流れを示したものである。
クラスタ制御部104,105,106は起動している間、作業負荷管理部107,108,109または他ノードのクラスタ制御部からの各種情報の通知を待っている(ステップ201)。
クラスタ制御部105に、同じノードの作業負荷管理部108より図13で示した負荷情報が届いたとき(ステップ202)、クラスタ制御部105はコーディネータ104に負荷情報を通知する(ステップ203)。
コーディネータ104が他ノードのクラスタ制御部105より負荷情報の通知を受けたとき(ステップ204)、フェイルオーバポリシー803に応じた処理が行われる。ただし、ここでの負荷情報の通知は、問合せに対する返信情報の通知ではなく、フェイルオーバが必要なノード102のクラスタ制御部105から自主的に行われた通知とする。ここで、図13の送信種別フラグ1301により、自主的な通知なのか、それとも問い合わせに対する返信通知なのか見分けられる。なお、フェイルオーバポリシーの優先度については、図8のフェイルオーバポリシーテーブル801で設定されている。
図8の優先度802に基づいて、フェイルオーバポリシー803として「現在の負荷状況を問い合わせる」(804)が採用される場合、コーディネータ104は既に負荷情報を通知してきたノード102を除く、ノード101,103のクラスタ制御部104,106に負荷情報を問い合わせる(ステップ205)。
フェイルオーバポリシー803として「負荷情報の記録を元にする」(805)が採用される場合、コーディネータ104の共有ディスク113上に負荷情報記録ファイル111が存在していれば、その情報を参照して(ステップ206)、図6のフェイルオーバ先決定処理を行う(ステップ207)。
フェイルオーバポリシー803として「パッケージ数が最小のノード」(806)が採用される場合、コーディネータ104は、起動中のパッケージ数1504が最も少ないノードを、フェイルオーバ先に決定する(ステップ208)。
フェイルオーバポリシー803として「優先順」(807)が採用される場合、フェイルオーバ対象のパッケージがそれまで起動していたノードを除いて、図9の優先順に従いフェイルオーバ先を決める(ステップ209)。
クラスタ制御部104,106が、コーディネータ104より負荷情報の問い合わせを受けたとき(ステップ210)、それぞれの作業負荷管理部107,109に負荷情報を問い合わせ(ステップ211)、受信した結果をコーディネータ104に通知する(ステップ213)。
コーディネータ104が各ノードのクラスタ制御部104,106より負荷情報に関する問い合わせ結果の通知を受けたとき(ステップ214)、図10の利用率テーブル1001または図11のSLO状態テーブル1101を更新し(ステップ215)、その内容を負荷情報記録ファイル111にも記録する。現在クラスタに参加している全てのノードの負荷情報が届くまで待つものとするが、タイムアウトを過ぎた場合には「現在の負荷情報を問い合わせる」(804)以外のフェイルオーバポリシーを優先度802に従って適用する(ステップ217)。タイムアウトまでに全ノードの負荷情報が届いた場合は、図6のフェイルオーバ先決定処理を行う(ステップ216)。
既にクラスタが起動している状態で、ユーザのコマンドやアプリケーションにより、追加のサービス起動要求が、あるノードのクラスタ制御部105に通知されたとき(ステップ218、図14)、図3のサービス起動ノード決定処理を行った(ステップ219)後に、サービスを起動する(ステップ220)。
図4は各ノード101,102,103の負荷状態に応じて、フェイルオーバが必要かどうか判断する手順を示す。各ノードの作業負荷管理部107,108,109は、図12の作業負荷管理テーブル1201の利用率またはSLOの測定値1204が、目標値(許容限界値)1203を満たしているかどうか、定期的に確認している(ステップ401)。また、確認のたびに作業負荷管理テーブル1201の測定値1204および連続未達成回数1205を更新する(ステップ401)。
確認の結果、満たしていれば連続未達成回数1205のカウンタを0に戻し(ステップ402)、次の確認までの間待つ(ステップ405)。
満たしていなければ、連続未達成回数1205のカウンタを1増やす(ステップ403)。ここで、連続未達成回数1205が非許容回数1206に達していれば、フェイルオーバが必要だと判断し、同じノードのクラスタ制御部に図13の負荷情報を通知する(ステップ404)。ここで送られる負荷情報は、フェイルオーバ先を決める材料とするかどうかを設定したフラグ1202がyesであるもののみとし、また、図13の目標値や必要なリソース量1302など、一度のみの通知で十分であるものは、作業負荷管理部のこれらの設定が変わった時点で一度のみの通知とする。
以上のステップ402〜404を、一定時間待った(ステップ405)後に、定期的に繰り返す。図1の例では、作業負荷管理部108がステップ404によりフェイルオーバが必要だと判断し、クラスタ制御部105に負荷情報を通知する。
図5はクラスタ制御部から作業負荷管理部に負荷情報の問い合わせ(ステップ211)があった時に、作業負荷管理部が図13の負荷情報をクラスタ制御部に通知する(ステップ501)ことを示す。図1の例では、クラスタ制御部104から作業負荷管理部107に、また、クラスタ制御部106から作業負荷管理部109に、それぞれ問合せがあったときに、負荷情報を返信通知している(ステップ212,501)。
図6は図2のフェイルオーバ先決定処理(ステップ207,216)の詳細な流れを示す。
フェイルオーバ先を決める材料1503が利用率の場合、目標値を達成しているノードが無ければ、フェイルオーバさせない(ステップ605)。目標値を達成しているノードがあれば、その中で利用率が最も低いノードをフェイルオーバ先に決める(ステップ601)。ただし、図10の利用率テーブル1001において、CPU1002、メモリ1003、ディスクバンド幅1004の中で、優先度1005の高いリソースを元にフェイルオーバ先のノードを決める。例えば、最も優先度の高いCPU1002の利用率をまず比較し、もしもノード間でこの値が等しい場合には、メモリ1003の利用率の比較結果をもとにフェイルオーバ先のノードを決めるというように、優先度に従う。
起動ノードを決める材料がSLO達成状態である場合、未達成SLO数の最も少ないノードをフェイルオーバ先に決める(ステップ602)。
フェイルオーバ先を決めた後、フェイルオーバさせるアプリケーションを決める(ステップ604)。フェイルオーバが必要なノードで動いている複数のアプリケーション中で、フェイルオーバ候補の優先順(1102,1303)に、フェイルオーバ先のノードに必要なリソース量1302があるか順次確認する(ステップ603)。ここで、必要なリソース量1302は、ユーザが実験などを通して見積もった値をあらかじめ設定しておく。リソース確保可能なアプリケーションのうち、最も優先順1102の高いものをフェイルオーバ対象としてフェイルオーバを行う(ステップ604)。もしもリソース確保可能なアプリケーションがなければ、フェイルオーバさせない(ステップ605)。
図7はフェイルオーバ後の処理の流れを示す。フェイルオーバ完了後、作業負荷管理部の負荷状況の確認(ステップ401)の結果、フェイルオーバ先のノードで利用率とSLOの測定値1204が目標値1203を満たすことができた場合、そのノードでサービスを続行する(ステップ701)。フェイルオーバ先のノードで利用率またはSLOの目標値を満たしていなかった場合、作業負荷管理部109はクラスタ制御部106に満足していないことを通知する(ステップ702)。その後、クラスタ制御部106は、フェイルバックするかどうかを決めるフラグ808がYesであれば、フェイルバック先のノード1505にフェイルバックし(ステップ703)、そうでなければ設定した待ち時間の後に、図2の各種情報の通知に対する対応処理を再開する(ステップ704)。
図3は図2で示したサービス起動ノード決定処理(ステップ219)について、処理の流れを詳細に示したものである。
このサービス起動ノード決定処理は、クラスタが既に起動している状態で、追加のサービスを起動する場合の処理であり、クラスタ起動時やフェイルオーバ時には適用されない。なお、クラスタ起動に伴いサービスを起動するときには、図9の優先順位が最も高いノードで起動される。
この処理が行われた時の一実施例を、図14に示す。
ノード102のクラスタ制御部105に、サービス起動要求が通知された時(ステップ218,301)、クラスタ制御部105はサービス起動要求をコーディネータ104に通知する(ステップ302)。サービス開始要求を受けたコーディネータ104は、フェイルオーバポリシー803の設定に応じて起動ノードを決定する。
フェイルオーバポリシー803として「現在の負荷状態を問い合わせる」(804)が採用される場合、コーディネータ104は各ノードのクラスタ制御部104,105,106に負荷情報を問い合わせる(ステップ303)。問合せを受けたクラスタ制御部104,105,106は、それぞれ作業負荷管理部107,108,109に負荷情報を問合せ、その返信情報をコーディネータ104に通知する(ステップ304)。コーディネータ104は利用率テーブル1001またはSLO達成状態テーブル1101を更新し(ステップ305)、負荷情報記録ファイル111も更新する。起動先ノードを決める材料が利用率の場合、利用率の最も低いノードを起動先のノードとする(ステップ306)。起動ノードを決める材料がSLO達成状態の場合、未達成SLO数の最も少ないノードを起動先のノードとする(ステップ307)。
フェイルオーバポリシー803として「最新の負荷情報記録を元にする」(805)が採用される場合、負荷情報記録ファイル111があるかどうか確認し(ステップ308)、ある場合は起動ノードを決める材料に応じてフェイルオーバ先を決める。すなわち、起動先ノードを決める材料が利用率の場合、利用率の最も低いノードを起動先のノードとし(ステップ306)、起動ノードを決める材料がSLO達成状態の場合、未達成SLO数の最も少ないノードを起動先のノードとする(ステップ307)。負荷情報記録ファイル111がない場合は、優先度802に応じた他のフェイルオーバポリシー803を採用する。
フェイルオーバポリシー803として「パッケージ数が最小のノード」(806)が採用される場合、コーディネータ104は、起動しているパッケージ数1504が最も少ないノードを、起動先に決定する(ステップ309)。
フェイルオーバポリシー803として「優先順」(807)が採用される場合、現在クラスタに参入しているノードの中で、図9の優先順位が最も高いノードで起動される。
図16はコーディネータを決定する処理の流れを示す。コーディネータの決定が必要なタイミングとしては、クラスタの起動時(ステップ1601)とコーディネータのノードに障害発生した時(ステップ1602)が挙げられる。
クラスタの起動が開始すると(ステップ1601)、コーディネータとなるノードの優先順位1507に従ってコーディネータが決定される(ステップ1603)。
コーディネータのノードに障害が発生した時(ステップ1602)、コーディネータ決定ポリシー1506が優先順であれば、コーディネータとなるノードの優先順位1507に従ってコーディネータを決定する(ステップ1603)。コーディネータ決定ポリシー1506がパッケージ数であれば、起動中のパッケージ数1504が最小のノードの中で、さらに優先順位1507に従ってコーディネータを決定する(ステップ1604)。
101…ノード1、102…ノード2、103…ノード3、104…クラスタ制御部(現在のコーディネータ)、105…クラスタ制御部、106…クラスタ制御部、107…作業負荷管理部、108…作業負荷管理部、109…作業負荷管理部、110…フェイルオーバ対象のパッケージ、111…負荷情報記録ファイル、112…パッケージ構成ファイル、113…共有ディスク。
Claims (4)
- クラスタを制御するクラスタ制御部、各ノード上の負荷を管理する作業負荷管理部、を備える複数のノード間で、各ノードの負荷状態に応じて、サービスの起動ノードを決めることを特徴とするクラスタシステム。
- 請求項1のクラスタシステムにおいて、クラスタ制御部が作業負荷管理部からの負荷状態の通知を待つことを特徴とするクラスタシステム。
- コーディネータの存在するノードの障害に対しても、コーディネータを他のノードに切り替えることによって、作業負荷管理可能なクラスタの機能を維持できるようにすることを特徴とするクラスタシステム。
- 障害発生時のみならず、ノード間で負荷に偏りが発生した時にも自発的にアプリケーションをフェイルオーバさせることを特徴とするクラスタシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004300884A JP2006113828A (ja) | 2004-10-15 | 2004-10-15 | 作業負荷管理可能なクラスタシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004300884A JP2006113828A (ja) | 2004-10-15 | 2004-10-15 | 作業負荷管理可能なクラスタシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006113828A true JP2006113828A (ja) | 2006-04-27 |
Family
ID=36382298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004300884A Pending JP2006113828A (ja) | 2004-10-15 | 2004-10-15 | 作業負荷管理可能なクラスタシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006113828A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007207219A (ja) * | 2006-01-06 | 2007-08-16 | Hitachi Ltd | 計算機システムの管理方法、管理サーバ、計算機システム及びプログラム |
JP2009086741A (ja) * | 2007-09-27 | 2009-04-23 | Hitachi Ltd | 異種ノード混在の分散環境における分散処理制御方法、そのシステム及びそのプログラム |
JP2010205005A (ja) * | 2009-03-04 | 2010-09-16 | Nec Corp | 共通資源管理システム、方法、及び、プログラム |
WO2012004954A1 (ja) * | 2010-07-06 | 2012-01-12 | 株式会社日立製作所 | トレースシステム |
JP2012522320A (ja) * | 2009-03-31 | 2012-09-20 | マイクロソフト コーポレーション | 優先度ベースのシステム負荷レベルを管理するためのシステムおよび方法 |
CN111225416A (zh) * | 2018-11-23 | 2020-06-02 | 中国移动通信集团广东有限公司 | 一种负载均衡方法及装置 |
-
2004
- 2004-10-15 JP JP2004300884A patent/JP2006113828A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007207219A (ja) * | 2006-01-06 | 2007-08-16 | Hitachi Ltd | 計算機システムの管理方法、管理サーバ、計算機システム及びプログラム |
JP2009086741A (ja) * | 2007-09-27 | 2009-04-23 | Hitachi Ltd | 異種ノード混在の分散環境における分散処理制御方法、そのシステム及びそのプログラム |
JP2010205005A (ja) * | 2009-03-04 | 2010-09-16 | Nec Corp | 共通資源管理システム、方法、及び、プログラム |
JP2012522320A (ja) * | 2009-03-31 | 2012-09-20 | マイクロソフト コーポレーション | 優先度ベースのシステム負荷レベルを管理するためのシステムおよび方法 |
US9274844B2 (en) | 2009-03-31 | 2016-03-01 | Microsoft Technology Licensing, Llc | Priority-based management of system load level |
KR101606613B1 (ko) | 2009-03-31 | 2016-03-25 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 자원관리방법과 컴퓨터 프로그램제품 및 시스템 |
WO2012004954A1 (ja) * | 2010-07-06 | 2012-01-12 | 株式会社日立製作所 | トレースシステム |
JP2012018438A (ja) * | 2010-07-06 | 2012-01-26 | Hitachi Ltd | トレースシステム |
CN111225416A (zh) * | 2018-11-23 | 2020-06-02 | 中国移动通信集团广东有限公司 | 一种负载均衡方法及装置 |
CN111225416B (zh) * | 2018-11-23 | 2022-10-18 | 中国移动通信集团广东有限公司 | 一种负载均衡方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210382762A1 (en) | Method and system for providing resiliency in interaction servicing across data centers | |
US11570255B2 (en) | SMB2 scaleout | |
EP2904763B1 (en) | Load-balancing access to replicated databases | |
US7225356B2 (en) | System for managing operational failure occurrences in processing devices | |
EP1810447B1 (en) | Method, system and program product for automated topology formation in dynamic distributed environments | |
US7185096B2 (en) | System and method for cluster-sensitive sticky load balancing | |
JP4637842B2 (ja) | クラスタ化されたコンピューティングシステムにおける高速なアプリケーション通知 | |
CN101652977A (zh) | 分布式计算系统中路由信息的按需传播 | |
US10367676B1 (en) | Stable leader selection for distributed services | |
US8068443B2 (en) | Using distributed timers in an overlay network | |
US20110153826A1 (en) | Fault tolerant and scalable load distribution of resources | |
US7386753B2 (en) | Subscription-based management and distribution of member-specific state data in a distributed computing system | |
KR102119456B1 (ko) | 분산 클라우드 환경에서의 분산 브로커 코디네이터 시스템 및 방법 | |
JP2006113828A (ja) | 作業負荷管理可能なクラスタシステム | |
US11956313B2 (en) | Dynamic storage sharing across network devices | |
KR20050095637A (ko) | 인터넷 프로토콜-기반 통신 시스템에서 리소스 풀링 | |
JP2008304982A (ja) | 情報の管理方法及び情報処理装置 | |
van Renesse et al. | Autonomic computing: A system-wide perspective | |
US20160182623A1 (en) | System and method for optimizing web service availability with a node group agreement protocol | |
US10148503B1 (en) | Mechanism for dynamic delivery of network configuration states to protocol heads | |
US7558858B1 (en) | High availability infrastructure with active-active designs | |
JP2006003962A (ja) | ネットワークストレージシステム | |
US11907752B1 (en) | Work distribution service | |
JP2005339079A (ja) | データベース管理システムにおける処理代行方法 | |
JP6298740B2 (ja) | シンクライアントシステムにおけるデータ同期方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Effective date: 20060425 Free format text: JAPANESE INTERMEDIATE CODE: A7424 |