JP4323421B2 - 分散仮想環境管理システムと方法 - Google Patents

分散仮想環境管理システムと方法 Download PDF

Info

Publication number
JP4323421B2
JP4323421B2 JP2004371575A JP2004371575A JP4323421B2 JP 4323421 B2 JP4323421 B2 JP 4323421B2 JP 2004371575 A JP2004371575 A JP 2004371575A JP 2004371575 A JP2004371575 A JP 2004371575A JP 4323421 B2 JP4323421 B2 JP 4323421B2
Authority
JP
Japan
Prior art keywords
area
server
slave server
users
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004371575A
Other languages
English (en)
Other versions
JP2006178757A (ja
Inventor
育鎔 鄭
俊堯 黄
名岳 蔡
精政 簡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute for Information Industry
Original Assignee
Institute for Information Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute for Information Industry filed Critical Institute for Information Industry
Priority to JP2004371575A priority Critical patent/JP4323421B2/ja
Publication of JP2006178757A publication Critical patent/JP2006178757A/ja
Application granted granted Critical
Publication of JP4323421B2 publication Critical patent/JP4323421B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、分散仮想環境(Distributed Virtual Environment、DVE)管理に関するものであって、特に、通信範囲制御(Area of Internet Management)AOIMのシステムと方法に関するものである。
分散仮想環境管理システムは、地理的に分散したユーザーが、インターネットなどのネットワークを通じて、状態情報を交換することにより、互いにやり取りし、仮想環境(VE)の一致した視点を共有することができるものである。DVEシステムが、VEの大きさと同時利用者の数の方面で成長する場合、その拡張性、つまり、更に多くの同時利用者が、インタラクティブパフォーマンスを妥協することなく、大きいVEで相互作用するのをサポートするか、が重要な問題である。拡張性を増加させる一つのアプローチとして、マルチサーバアーキテクチャがあり、幾つかのDVEシステムのみならず、多くの市販のマルチプレーヤーネットワークゲームに採用されている。マルチサーバ全域を管理するために、VEをマルチ領域に分割し、責務を分配するのは、個々のサーバの仕事量を大幅に減少させることができる。その結果、システムは、更に多くの同時利用者と大きいVEをサポートすることができる。
DVE上のユーザーの不均一分布は、サーバ間の仕事量のアンバランスを招き、つまり、あるサーバは、他よりも混雑した領域を処理し、重い仕事量に苦しむ。その結果、重ロードサーバにより管理されるユーザーは、サーバ状態更新の長い待ち時間のせいで、低インタラクティブパフォーマンスに悩む。インタラクティブパフォーマンスの低下を防ぐため、動荷重分布スキームが必要とされる。
本発明は、分散仮想環境DVE管理のシステムを提供することを目的とする。
システムは、マスターサーバ、第一スレーブサーバ、第二スレーブサーバ、からなる。マスターサーバは、第一スレーブサーバから、再配分要求と第一ツリー、第二スレーブサーバから、第二ツリーを受信する。第一ツリーは、複数の第一ノードからなる。各第一ノードは、何人のユーザーが、第一領域、或いは、第一領域の一部にいるかを示す第一同時利用者数からなる。第二ツリーは、複数の第二ノードからなる。各第二ノードは、何人のユーザーが、第二領域、或いは、第二領域の一部にいるかを示す第二同時利用者数からなる。第一領域の第一部分が、第二領域に近接し、第二領域の第二同時利用者数に、第一領域の第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、マスターサーバは、第一領域の第一部分が、第二スレーブサーバにより制御されると判断する。マスターサーバは、更に、第一領域の部分が、第二スレーブサーバにより制御されることを示す結果を伝送し、第一スレーブサーバと第二スレーブサーバ間の第一領域の第一部分の制御を転換させる。
マスターサーバにより実行されるDVE管理方法が提供される。DVE管理の方法を実行するコンピュータコード設定も提供される。
本発明により、マスターサーバは、第一領域の部分が、第二スレーブサーバにより制御されることを示す結果を伝送し、第一スレーブサーバと第二スレーブサーバ間の第一領域の第一部分の制御を転換させる。
図1は、DVEシステムの具体例を示す図で、マスターサーバ21、バックアップサーバ26、及び、スレーブサーバ22、23、24、25、からなり、論理結合により、ネットワーク(好ましくは、インターネット、或いは、イントラネット)上で操作する。当業者は、マスターサーバ21、バックアップサーバ26、及び、スレーブサーバ22、23、24、25が、異なるタイプのネットワーク環境に接続されると認識し、異なるタイプのネットワーク環境間は、ルータ、ゲートウェイ、アクセスポイント、ベースステーションシステム、或いは、その他の様々なタイプの伝送装置により、コミュニケートする。VEの四つの領域31、32、33、34は、個々に、スレーブサーバ22、23、24、25により管理される。注意すべきことは、領域の大きさは等しくなく、それらの形状は正方形、長方形に限定されず、多様な形態である。
図2は、マスター、バックアップ、スレーブサーバ21〜25に適用されるハードウェア環境を示す図で、処理ユニット11、メモリ12、ストレージデバイス13、入力装置14、出力装置15、及び、コミュニケーション装置16、からなる。処理ユニット11は、フォンノイマン機構に基づいて、バス17により、メモリ12、ストレージデバイス13、入力装置14、出力装置15、及び、コミュニケーション装置16に接続される。一つ、或いは、それ以上の処理ユニット11を有し、コンピュータの処理器は、単一のCPU、マイクロプロセッサMPU、或いは、マルチ処理ユニット、からなり、一般に、並列処理環境と称される。メモリ12は、好ましくは、RAMであるが、ROMでもフラッシュROMでもよい。メモリ12は、好ましくは、処理ユニット11により実行されるプログラムモジュールを記録し、DVE管理機能を実行する。一般に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネンツ、スクリプト、ウェブページ、或いは、その他を含み、詳細なタスクを実行するか、或いは、詳細な抽象データ型を実行する。更に、当業者は、ある具体例が、携帯端末、マルチプロセッサベース、マイクロプロセッサベース、或いは、プログラミング可能な家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、など、他のコンピュータシステムの機器構成により実践されることを理解している。ある具体例は、タスクがコミュニケーションネットワークにリンクされたリモート処理装置により実行される分散コンピューティング環境で実施される。分散コンピューティング環境において、プログラムモジュールは、DCOM、CORBA、ウェブオブジェクト、ウェブサービス、或いは、その他同様の機構等の様々なリモートアクセス機構に基づいて、両方のローカル、リモートメモリストレージデバイスに位置する。ストレージデバイス13は、ハードドライブ、磁気装置、光学装置、ポータブル装置、或いは、不揮発性メモリ装置である。ドライバとコンピュータ可読媒体(必要に応じて)は、不揮発性のコンピュータ可読命令、データ構造、及び、プログラムモジュールを提供する。メモリ12と、入力装置を通じてオペレータから受信したプログラムモジュールにより制御される処理ユニット11は、DVE管理機能を指揮する。
図3は、DVE管理システムの具体例によるソフトウェア機構を示す図である。スレーブサーバ22〜25とバックアップサーバ26は、個々に、ローカル領域管理モジュール221〜261を有し、マスターサーバ21は、VE管理モジュール211からなる。各領域の管理モジュールは、クワッドツリーにより、マスターサーバ21により割り当てられるローカル領域で、同時利用者の数を維持し、チャイルドノードを削除して、新しいチャイルドノードを加えて、数に基づいて、VE管理モジュール211のクワッドツリーに関する再区分要求を出し、再配分結果を、VE管理モジュール211から受信する。VE管理モジュール211は、領域後退機能を実行して、受信したクワッドツリーに基づいて、追加のサーバが、VEのある領域、もし必要ならば、スレーブサーバ22〜25により処理された後退領域、及び、バックアップサーバ26の処理に必要かを判断する。
クワッドツリーの各ノードは、二次元に分割され、4つのチャイルドノードになり、ローカル領域の全体/部分に対応する。図4は、四つの部分R41a〜R41dを含むローカル領域の典型的なクワッドツリーを示す図である。ノードN41は、31等、領域R41全体の同時利用者数を記録し、ノードN41a、N41b、N41c、N41dは、5、5、5、16等の領域R41a、R41b、R41d、及び、R41cの同時利用者数を記録する。北西NW、北東NE、南東SE、及び、南西SWの四つのサブ領域は、N41a、N41b、N41c、N41dのノードにより、順に、排列される。全ノードのグラフィック情報は、それぞれ記録される。
図5a〜図5dは、DVE管理の方法を示すフローチャートで、二つのセクションに分けられ、ローカル領域管理モジュール221、231、241、或いは、251により実行される工程を示す左セクションと、分かりやすくするため、点線により分けられ、VE管理モジュール211により実行される工程を示す右セクションである。
工程411において、ソース領域と目標領域に関する情報を含む移動メッセージが受信され、ソース領域からのユーザーが、目標領域に移動したことを表示する。工程421において、移動が他のサーバから来るのかを判断し、もしそうであれば、工程453を実行する。そうでなければ、工程423を実行する。判定は、ソース領域が、維持されたクワッドツリーに存在するのかを探知することにより達成される。工程423において、受信されたソース領域に対応するノードが配置される。工程425において、ノードの同時利用者数は、一つずつ減少する。工程431において、配置ノードがルートノードであると判断し、その場合、工程451を実行する。そうでない場合は、工程433を実行する。工程433において、親ノードが配置される。工程435において、配置ノードの同時利用者は、一つずつ減少する。工程441において、配置ノードのチャイルドノードが、更新された同時利用者数に基づいて、併合される必要があるか判断される。例えば、更新された同時利用者数が領域スレショルドより少ない場合、配置ノードのチャイルドノードは併合されなければならない。領域スレショルドは、単一のリーフノードの同時利用者数を制限するのに用いられる。工程443において、配置ノードのチャイルドノードは除去される。
工程451において、移動がその他のサーバへ出て行くのか判断し、その場合、工程は終了する。そうでない場合、工程453を実行する。判定は、目標領域が、維持されたクワッドツリーに存在するのかを探知することにより達成される。工程453において、目標領域に対応するノードが配置される。工程455において、配置ノードの同時利用者数は、一つずつ増加する。工程461において、配置ノードが分割を必要とするのかを判断し、そうであれば、工程463を実行する。そうでなければ、工程471を実行する。例えば、更新された同時利用者数が領域スレショルドを超過する場合、配置ノードのチャイルドノードは分割されなければならない。工程463において、配置ノードの四つのチャイルドノードが作られ、同時利用者数が獲得される。工程471において、配置ノードはルートノードかどうか判断し、そうであれば、工程481を実行する。そうでなければ、工程473を実行する。工程473において、親ノードが配置される。工程481において、スレーブサーバが、オーバーロードかどうか判断し、そうであれば、工程483を実行し、そうでなければ、工程を終了する。例えば、ルートノードの同時利用者数が、サーバロードスレショルドを超過する場合、維持領域の部分は、他のスレーブサーバ、或いは、バックアップサーバに移動しなければならない。工程483において、ルートノードを有する再区分要求は、VE管理モジュール211に伝送される。工程485において、再区分結果が、VE管理モジュール211から受信され、維持されたローカル領域の部分のスレーブサーバとバックアップサーバ(もし必要であれば)間の制御の転換を可能にする。工程491において、クワッドツリー要求が受信される。工程493において、維持されたクワッドツリーが、VE管理モジュール211に伝送される。
工程511において、ルートノードの再区分要求が受信される。工程513において、受信されたルートノードに対応する領域は、混雑領域として定義される。工程515において、クワッドツリー要求が、混雑領域の対応するスレーブサーバに伝送される。工程517において、クワッドツリーは、対応するスレーブサーバから受信される。注意すべきことは、受信されたクワッドツリーの各ノードは、対応するスレーブサーバと同一であるとマークされ、領域はスレーブサーバにより処理されることを表示する。工程521において、混雑領域に近接し、近接する領域間の最小同時利用者数を有する閑散領域が、定義される。この定義づけは、ルートノードの同時利用者数を検出することにより達成される。工程523において、閑散領域と混雑領域の同時利用者数は、それぞれ、第一数と第二数を獲得する。工程531において、混雑領域に対応するルートノードが配置される。工程533において、現在のノードに対応する次のノードが配置される。次のノードの判断は、横型トラバースと縦型トラバースを利用する。工程535において、配置ノードがリーフノードか判断し、そうであれば、工程541を実行し、そうでなければ、工程533を実行する。工程541において、配置ノードに対応する領域が、閑散領域に近接するか判断し、そうであれば、工程543を実行し、そうでなければ、工程533を実行する。近接ノードは、好ましくは、Sametにより導入された効果的なクワッドツリートラバースアルゴリズムを利用して得られる。工程543において、配置ノードは、閑散領域との合併がマークされる。工程545において、配置ノードの同時利用者数は、第一数が加算され、第二数から引かれる。工程551において、再区分工程が充分かどうか判断し、そうであれば、工程553を実行し、そうでなければ、工程561を実行する。例えば、第二数がサーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、再区分工程は充分である。工程553において、結果のクワッドツリーは、対応するスレーブサーバに伝送される。
工程561において、閑散領域はフルかどうか判断し、そうである場合、工程571を実行する。そうでなければ、工程533を実行する。例えば、第一数がサーバロードスレショルド、或いは、サーバロードスレショルドの割合を超過する場合、閑散領域はフルである。工程571において、バックアップサーが有るかどうか判断し、その場合、工程573を実行する。そうでない場合、工程を終了する。工程573において、現在のノードに対応する次のノードが配置される。注意すべきことは、利用したトラバースアプローチは、工程533と同様であることである。工程575において、配置ノードはリーフノードか判断し、その場合、工程577を実行し、そうでない場合、工程573を実行する。工程577において、配置ノードに対応する領域が閑散領域に近接するか判断し、そうである場合、工程578を実行し、そうでない場合、工程573を実行する。工程578において、配置ノードは、バックアップサーバにマークされる。工程579において、配置ノードの同時利用者数は、第二数から引かれる。工程581において、再区分工程が充分かどうか判断し、そうである場合、工程583を実行する。そうでない場合、工程573を実行する。工程583において、結果のクワッドツリーは、対応するスレーブサーバとバックアップサーバに伝送される。
VE管理の方法の詳細を以下説明する。図6a〜図6cは、ローカル領域管理モジュール221により維持されるローカル領域R6の異なる典型的なクワッドツリーを示す図である。ある例において、図6aを参照すると、ローカル領域R6が必然的に、四つのパートR61、R62、R63、R64に分割され、サブ領域R63は、必然的に、四つのパートR631、R632、R633、及び、R634に分割される。R6、R61、R62、R63、R64、R631、R632、R633、及び、R634の同時利用者数は、30、5、5、10、10、5、2、1、及び、2である。工程411において、領域R634からのユーザーU1が、領域R64に移動したことを示す移動メッセージが、ローカル領域管理モジュール221により受信される。工程421、423、425において、ノードN634の同時利用者数が一つずつ、一まで減少する。工程433と435において、ノードN63の同時利用者数は、一つずつ、9まで減少する。領域スレショルドは10に設定され、工程441において、ノードN631、N632、N633、N634が、合併を判断される。工程443において、ノードN631、N632、N633、N634が削除される。工程431、433、435において、ルートノードN6の同時利用者数が一つずつ、29まで減少する。一時的な結果が図6bで示される。その後、工程431、451、453、及び、455において、ノードR64の同時利用者数は、一つずつ、11まで増加する。工程461において、ノードR64が分割されるかどうか決定する。工程463において、四つのチャイルドノードN641、N642、N644、N643が作られ、同時利用者数は、4、2、2、3である。工程471、473、及び、455において、ルートノードN6の同時利用者数は、一つずつ、30まで増加する。最後に、工程を終了し、その最終結果は図6cで示される。
図7aと図7bは、ローカル領域管理モジュール221により維持されるローカル領域R6の異なる典型的なクワッドツリーを示す図である。もう一つの具体例において、図7aを参照すると、ローカル領域R6は、必然的に、四つのパートR61、R62、R63、R64に分割され、サブ領域R64は、必然的に、四つのパートR641、R642、R643、及び、R644に分割される。R6、R61、R62、R63、R64、R641、R642、R643、及び、R644の同時利用者数は、30、5、5、9、11、4、2、3、及び、2である。工程411において、他のスレーブサーバからのユーザーU2が、領域R642に移動したことを示す移動メッセージが、ローカル領域管理モジュール221により受信される。工程421、453、455において、ノードN642の同時利用者数が一つずつ、3まで増加する。工程461、471、473、455において、ノードN64の同時利用者数は、一つずつ、12まで増加する。工程461、471、473、455において、ルートノードN6の同時利用者数は、一つずつ31まで増加する。サーバロードスレショルドが30に設定され、工程481において、スレーブサーバ221は、オーバーロードすることを決定する。工程483において、ルートノードN6の再区分要求が、マスターサーバ21に伝送される。工程511において、ルートノードN6の再区分要求が、VE管理モジュール211により受信される。工程513において、領域R6は混雑領域として定義される。工程515において、クワッドツリー要求が、それぞれ、ローカル領域管理モジュール221、231、241、251に伝送される。図8は、ローカル領域管理モジュール221、231、241、251により維持される典型的なクワッドツリーを示す図である。工程517において、クワッドツリーT6〜T9は、ローカル領域管理モジュール221、231、241、251から受信される。工程521において、領域R7は閑散領域として定義される。工程523において、第一数22と第二数31が獲得される。縦型トラバースが利用され、工程531〜541において、ノードN61とN62が配置される。工程543において、ノードN62(つまり、領域R62)は、ローカル領域管理モジュール231にマークされる。工程545において、第一、及び、第二数が、それぞれ、26と27に更新される。工程551において、再区分工程が充分であると判断される。最後に、工程553において、結果のクワッドツリーがローカル領域管理モジュール221と231に伝送され、領域R62の制御が転換できる。
もう一つの例において、工程511で、ルートノードN6を有する再区分要求が、VE管理モジュール211により受信される。工程513において、領域R6は混雑領域として定義される。工程515において、クワッドツリー要求は、それぞれ、ローカル領域管理モジュール221、231、241、及び、251に伝送される。図9は、ローカル領域管理モジュール221、231、241、251により維持される典型的なクワッドツリーを示す図である。工程517において、クワッドツリーT6〜T9は、ローカル領域管理モジュール221、231、241、251から受信される。工程521において、領域R7は閑散領域として定義される。工程523において、第一数22と第二数38が獲得される。縦型トラバースが利用され、工程531〜541において、ノードN61とN62が配置される。工程543において、ノードN62(つまり、領域R62)がローカル領域管理モジュール231にマークされる。工程545において、第一、及び、第二数が、それぞれ、27と33に更新される。工程551において、再区分工程が不充分であると判断される。工程561において、第一数がサーバロードスレショルドの80%を超過するので、閑散領域がフルであると判断される。工程571〜577において、ノードN63、N64、N641、N642が配置される。工程578において、ノードN642は、ローカル領域管理モジュール261にマークされる。工程579において、第二数が28に更新される。工程581において、再区分工程が充分であると判断される。最後に、工程583において、結果のクワッドツリーがローカル領域管理モジュール221、231、261に伝送され、領域R62とR642の制御が転換できる。上述の具体例で、受信したクワッドツリーが、マスターサーバ21の四つの独立したツリーのように処理されているが、これに、限定されない。この技術の当業者は、受信されたクワッドツリーを合併して、単一のクワッドツリーになり、本発明の範囲と精神を逸脱しない範囲内で、適切な修正を加えることが出来る。
DVE管理システムと方法は、例えば、フロッピー(登録商標)ディスク、CD―ROM、ハードドライブ、或いは、その他の機械読み取り可能記憶媒体等の有形な媒体に統合されるプログラムコードという形をとり(即ち、命令)、プログラムコードがロードされ、コンピュータ等の機械により実行され、機械は、本発明を実行する装置になる。本方法とシステムは、電気配線、ケーブル布線、光ファイバー、或いは、その他の伝動装置の形など、ある伝送媒体を通じて伝送されるプログラムコードの形で統合され、プログラムコードが受信され、ロードされ、コンピュータ等の機械により実行された時、機械は本発明を実行する装置になる。汎用のプロセッサ上で実施する時、プログラムコードは、プロセッサを結合して、無類の装置を提供し、同じように、特定のロジック回路に機能する。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明明の保護範囲は、特許請求の範囲で指定した内容を基準とする。
DVEシステムの具体例を示す図である。 マスター、バックアップ、スレーブサーバに適用されるハードウェア環境を示す図である。 DVE管理システムの具体例によるソフトウェア機構を示す図である。 ローカル領域の典型的なクワッドツリーを示す図である。 DVE管理の方法を示すフローチャートである。 DVE管理の方法を示すフローチャートである。 DVE管理の方法を示すフローチャートである。 DVE管理の方法を示すフローチャートである。 ローカル領域の異なる典型的なクワッドツリーを示す図である。 ローカル領域の異なる典型的なクワッドツリーを示す図である。 ローカル領域の異なる典型的なクワッドツリーを示す図である。 ローカル領域の異なる典型的なクワッドツリーを示す図である。 ローカル領域の異なる典型的なクワッドツリーを示す図である。 典型的なクワッドツリーを示す図である。 典型的なクワッドツリーを示す図である。 典型的なクワッドツリーを示す図である。 典型的なクワッドツリーを示す図である。
符号の説明
11 処理ユニット
12 メモリ
13 ストレージデバイス
14 入力装置
15 出力装置
16 コミュニケーション装置
17 バス
21 マスターサーバ
22、23、24、25 スレーブサーバ
26 バックアップサーバ
31、32、33、34 四つの領域
211 VE管理モジュール
221〜261 ローカル領域管理モジュール

Claims (10)

  1. マスターサーバと第一のスレーブサーバと第二のスレーブサーバとを有するDVE管理のシステムであって、
    マスターサーバは、
    第一スレーブサーバから、当該システムによって管理されるネットワーク環境において利用者が存在しうる領域を再配分するための再区分要求と、前記領域のうち第一のスレーブサーバが制御を行う第一領域について、複数の第一ノードからなり、それぞれの第一ノードは、前記第一領域、或いは、前記第一領域の一部にいる利用者の数を示す第一同時利用者数を含む第一ツリーデータとを受信する第一の受信手段と、
    第二スレーブサーバから、前記領域のうち第二のスレーブサーバが制御を行う第領域について、複数の第二ノードからなり、それぞれの第二ノードは、前記第二領域、或いは、前記第二領域の一部にいる利用者の数を示す第二同時利用者数を含む第二ツリーデータを受信する第二の受信手段と、
    前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の第二同時利用者数に、前記第一領域の第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断し、前記第一領域の部分が、前記第二スレーブサーバにより制御されることを示す結果を前記第一のスレーブサーバ及び前記第二のスレーブサーバに伝送し、前記第一スレーブサーバと前記第二スレーブサーバ間において前記第一領域の第一部分の制御を転換させる制御転換手段とを有することを特徴とするシステム。
  2. 前記マスターサーバは、前記領域のうち第三のスレーブサーバが制御を行う第三領域について、前記第三領域は、複数の第三ノードからなり、それぞれの第三ノード、DVEの中の第三領域、或いは、第三領域の一部にいる利用者の数を示す第三同時利用者数を含む第三ツリーデータを受信する第三の受信手段を有し、
    前記制御転換手段は、前記第一領域の第一部分が、前記第三領域に近接し、前記第二領域の第二同時利用者数が、前記第三領域の前記第三同時利用者数より少ない場合、前記第一領域の部分が、前記第二スレーブサーバにより制御されると判断することを特徴とする請求項1に記載のシステム。
  3. 前記第一ツリーと第二ツリーは、クワッドツリーと互換性があることを特徴とする請求項1に記載のシステム。
  4. 前記制御転換手段は、前記第一領域の第二部分が、前記第二領域に近接し、前記第二領域の第二同時利用者数に、前記第一領域の第一部分の第一同時利用者数と、前記第一領域の前記第二部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドを超過する場合、前記第一領域の第二部分が、バックアップサーバにより制御されると判断し、前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の第一部分の制御を転換させることを特徴とする請求項1に記載のシステム。
  5. 前記第一領域の前記第一部分の判断は、横型トラバース、或いは、縦型トラバースを検討することにより達成されることを特徴とする請求項1に記載のシステム。
  6. 前記第一ツリーの前記ルートノードの前記第一同時利用者数が、サーバロードスレショルドを超過するのが検出された時、前記第一スレーブサーバは、前記再区分要求を伝送することを特徴とする請求項1に記載のシステム。
  7. 前記第一同時利用者数が、領域スレショルドより低いことが検出された時、前記第一スレーブサーバは、前記第一ノードの一つのために、チャイルドノードを全て削除し、前記第一同時利用者数が前記領域スレショルドを超過したことが検出された時、領域分割のために、四つのチャイルドノードを作ることを特徴とする請求項1に記載のシステム。
  8. 前記第二同時利用者数が、領域スレショルドより低いことが検出された時、前記第二スレーブサーバは、前記第二ノードの一つのために、チャイルドノードを全て削除し、前記第二同時利用者数が前記領域スレショルドを超過したことが検出された時、前記第二ノードの一つために、四つのチャイルドノードを作ることを特徴とする請求項7に記載のシステム。
  9. マスターサーバによりロード、実行され、
    前記マスターサーバの再区分要求受信手段が、第一スレーブサーバから、DVEのネットワーク環境において利用者が存在しうる領域を再配分するための再区分要求を受信する段階と、
    前記マスターサーバの第一の受信手段が、前記領域のうち第一のスレーブサーバが制御を行う第一領域について、複数の第一ノードからなり、それぞれの第一ノードは、前記第一領域、或いは、前記第一領域の一部にいる利用者の数を示す第一同時利用者数を含む第一ツリーデータを受信する段階と、
    前記マスターサーバの第二の受信手段が、前記領域のうち第二のスレーブサーバが制御を行う第領域について、複数の第二ノードからなり、それぞれの第二ノードは、前記第二領域、或いは、前記第二領域の一部にいる利用者の数を示す第二同時利用者数を含む第二ツリーデータを受信する段階と、
    前記マスターサーバの判断手段が、前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の前記第二同時利用者数に、前記第一領域の第一部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断する段階と、
    前記マスターサーバの制御転換送手段が、前記第一領域の部分が、前記第二スレーブサーバにより制御されるのを示す結果を伝送し、前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域において前記第一部分の制御の転換をさせる段階と、
    からなることを特徴とするDVE管理方法。
  10. マスターサーバによりロード、実行され、
    再区分受信手段が、第一スレーブサーバから、DVEのネットワーク環境において利用者が存在しうる領域を再配分するための再区分要求を受信する段階と、
    第一の受信手段が、前記領域のうち第一のスレーブサーバが制御を行う第一領域について、複数の第一ノードからなり、それぞれの第一ノードは、前記第一領域、或いは、前記第一領域の一部にいる利用者の数を示す第一同時利用者数を含む第一ツリーデータを受信する段階と、
    第二の受信手段が、前記領域のうち第二のスレーブサーバが制御を行う第領域について、複数の第二ノードからなり、それぞれの第二ノードは、前記第二領域、或いは、前記第二領域の一部にいる利用者の数を示す第二同時利用者数を含む第二ツリーデータを受信する段階と、
    判断手段が、前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の前記第二同時利用者数に、前記第一領域の第一部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断する段階と、
    制御転換送手段が、前記第一領域の部分が、前記第二スレーブサーバにより制御されるのを示す結果を伝送し、前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の前記第一部分の制御の転換をさせる段階と、
    をコンピュータが実行するDVE管理方法。
JP2004371575A 2004-12-22 2004-12-22 分散仮想環境管理システムと方法 Active JP4323421B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004371575A JP4323421B2 (ja) 2004-12-22 2004-12-22 分散仮想環境管理システムと方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004371575A JP4323421B2 (ja) 2004-12-22 2004-12-22 分散仮想環境管理システムと方法

Publications (2)

Publication Number Publication Date
JP2006178757A JP2006178757A (ja) 2006-07-06
JP4323421B2 true JP4323421B2 (ja) 2009-09-02

Family

ID=36732818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004371575A Active JP4323421B2 (ja) 2004-12-22 2004-12-22 分散仮想環境管理システムと方法

Country Status (1)

Country Link
JP (1) JP4323421B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072160B (zh) * 2007-06-14 2010-12-08 华为技术有限公司 分布式虚拟环境的管理方法、系统及节点
US9531798B2 (en) 2007-10-03 2016-12-27 Virtela Technology Services Incorporated Pandemic remote access design
US8700723B2 (en) * 2010-06-15 2014-04-15 Netzyn, Inc. Hierarchical display-server system and method
JP6219771B2 (ja) * 2014-04-08 2017-10-25 日本電信電話株式会社 負荷分散装置、負荷分散方法、および、負荷分散システム
CN118644645A (zh) * 2024-08-14 2024-09-13 江西师范大学 一种保证分布式虚拟环境实体行为一致性的验证方法

Also Published As

Publication number Publication date
JP2006178757A (ja) 2006-07-06

Similar Documents

Publication Publication Date Title
EP3522013B1 (en) Method and system for migration of containers in a container orchestration platform between compute nodes
JP4916881B2 (ja) オートノミック・フェイルオーバのための方法、装置、およびプログラム
JP5998206B2 (ja) クラスタデータグリッドにおける拡張可能な中央集中型動的リソース分散
US20060217201A1 (en) Handling of players and objects in massive multi-player on-line games
US7111188B2 (en) Dynamically configurable fault tolerance in autonomic computing with multiple service points
CN103533063A (zh) 一种可实现web应用资源动态扩展的方法及装置
US10146877B1 (en) Area of interest subscription
US11032144B2 (en) Network control system, method and program
US20130238775A1 (en) Thin client system, management server, workplace environment setting method and workplace environment setting program
CN104917805A (zh) 一种负载分担的方法和设备
JP4323421B2 (ja) 分散仮想環境管理システムと方法
JP2017037446A (ja) ゲームサーバ装置および分散処理方法
CN106059940A (zh) 一种流量控制方法及装置
WO2019012675A1 (ja) 管理装置及び管理方法
JP6374841B2 (ja) 仮想マシン配置装置および仮想マシン配置方法
CN103140851A (zh) 包括中间件机环境的系统
JP5331549B2 (ja) 分散処理システム及び分散処理方法
JP6383336B2 (ja) サーバ管理装置およびサーバ管理方法
JP2011090537A (ja) 仮想マシン移動制御プログラム,仮想マシン移動制御装置および仮想マシン移動制御方法
KR20040084831A (ko) 피투피 방식의 병렬 분산처리시스템 및 방법
JP2016220126A (ja) ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
CN115766737A (zh) 负载均衡方法和装置、电子设备
CN102891881A (zh) 一种实现云环境下节点对等均衡的方法
JP2012164260A (ja) コンピュータ運用管理システム、コンピュータ運用管理方法及びコンピュータ運用管理プログラム
JP6657910B2 (ja) 帯域設定方法、帯域設定プログラム、情報処理装置及び情報処理システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4323421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250