JP2006178757A - Distributed virtual environment management system and method - Google Patents

Distributed virtual environment management system and method Download PDF

Info

Publication number
JP2006178757A
JP2006178757A JP2004371575A JP2004371575A JP2006178757A JP 2006178757 A JP2006178757 A JP 2006178757A JP 2004371575 A JP2004371575 A JP 2004371575A JP 2004371575 A JP2004371575 A JP 2004371575A JP 2006178757 A JP2006178757 A JP 2006178757A
Authority
JP
Japan
Prior art keywords
area
server
users
slave server
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004371575A
Other languages
Japanese (ja)
Other versions
JP4323421B2 (en
Inventor
Ikuyo Tei
育鎔 鄭
Chun-Yau Huang
俊堯 黄
Meigaku Sai
名岳 蔡
Seisei Kan
精政 簡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute for Information Industry
Original Assignee
Institute for Information Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute for Information Industry filed Critical Institute for Information Industry
Priority to JP2004371575A priority Critical patent/JP4323421B2/en
Publication of JP2006178757A publication Critical patent/JP2006178757A/en
Application granted granted Critical
Publication of JP4323421B2 publication Critical patent/JP4323421B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a distributed virtual environment (DVE) management system. <P>SOLUTION: A master server 21 receives simultaneous user redistribution requirement and a user number first tree from a first slave server 22, and receives a user number second tree from a second slave server 23. When deciding that a first tree first area first portion of the first slave server 22 can be controlled by the second slave server 22, a decision result wherein control of the first slave server 22 first area first portion is converted into the second slave server 23 is transmitted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、分散仮想環境(Distributed Virtual Environment、DVE)管理に関するものであって、特に、通信範囲制御(Area of Internet Management)AOIMのシステムと方法に関するものである。   The present invention relates to distributed virtual environment (DVE) management, and more particularly, to a system and method of communication range control (Area of Internet Management) AOIM.

分散仮想環境管理システムは、地理的に分散したユーザーが、インターネットなどのネットワークを通じて、状態情報を交換することにより、互いにやり取りし、仮想環境(VE)の一致した視点を共有することができるものである。DVEシステムが、VEの大きさと同時利用者の数の方面で成長する場合、その拡張性、つまり、更に多くの同時利用者が、インタラクティブパフォーマンスを妥協することなく、大きいVEで相互作用するのをサポートするか、が重要な問題である。拡張性を増加させる一つのアプローチとして、マルチサーバアーキテクチャがあり、幾つかのDVEシステムのみならず、多くの市販のマルチプレーヤーネットワークゲームに採用されている。マルチサーバ全域を管理するために、VEをマルチ領域に分割し、責務を分配するのは、個々のサーバの仕事量を大幅に減少させることができる。その結果、システムは、更に多くの同時利用者と大きいVEをサポートすることができる。   A distributed virtual environment management system allows geographically dispersed users to exchange state information over a network such as the Internet, thereby exchanging information with each other and sharing a consistent view of the virtual environment (VE). is there. When a DVE system grows in terms of VE size and number of concurrent users, its scalability, i.e., more concurrent users can interact with a larger VE without compromising interactive performance. Support is an important issue. One approach to increase extensibility is the multiserver architecture, which has been adopted by many commercial multiplayer network games as well as some DVE systems. In order to manage the entire multi-server, dividing the VE into multi-regions and distributing the responsibilities can greatly reduce the work of individual servers. As a result, the system can support more concurrent users and larger VEs.

DVE上のユーザーの不均一分布は、サーバ間の仕事量のアンバランスを招き、つまり、あるサーバは、他よりも混雑した領域を処理し、重い仕事量に苦しむ。その結果、重ロードサーバにより管理されるユーザーは、サーバ状態更新の長い待ち時間のせいで、低インタラクティブパフォーマンスに悩む。インタラクティブパフォーマンスの低下を防ぐため、動荷重分布スキームが必要とされる。   The uneven distribution of users on DVE results in an imbalance of workload between servers, that is, some servers handle more congested areas than others and suffer from heavy workloads. As a result, users managed by heavy load servers suffer from low interactive performance due to long wait times for server state updates. A dynamic load distribution scheme is required to prevent degradation of interactive performance.

本発明は、分散仮想環境DVE管理のシステムを提供することを目的とする。   An object of the present invention is to provide a distributed virtual environment DVE management system.

システムは、マスターサーバ、第一スレーブサーバ、第二スレーブサーバ、からなる。マスターサーバは、第一スレーブサーバから、再配分要求と第一ツリー、第二スレーブサーバから、第二ツリーを受信する。第一ツリーは、複数の第一ノードからなる。各第一ノードは、何人のユーザーが、第一領域、或いは、第一領域の一部にいるかを示す第一同時利用者数からなる。第二ツリーは、複数の第二ノードからなる。各第二ノードは、何人のユーザーが、第二領域、或いは、第二領域の一部にいるかを示す第二同時利用者数からなる。第一領域の第一部分が、第二領域に近接し、第二領域の第二同時利用者数に、第一領域の第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、マスターサーバは、第一領域の第一部分が、第二スレーブサーバにより制御されると判断する。マスターサーバは、更に、第一領域の部分が、第二スレーブサーバにより制御されることを示す結果を伝送し、第一スレーブサーバと第二スレーブサーバ間の第一領域の第一部分の制御を転換させる。   The system includes a master server, a first slave server, and a second slave server. The master server receives the redistribution request and the first tree from the first slave server, and the second tree from the second slave server. The first tree is composed of a plurality of first nodes. Each first node consists of a first number of simultaneous users indicating how many users are in the first area or part of the first area. The second tree is composed of a plurality of second nodes. Each second node consists of a second number of simultaneous users indicating how many users are in the second area or part of the second area. The first part of the first area is close to the second area, and the number of second concurrent users in the second area plus the number of first concurrent users in the first area is the server load threshold or server If it is lower than the load threshold ratio, the master server determines that the first portion of the first region is controlled by the second slave server. The master server further transmits a result indicating that the portion of the first region is controlled by the second slave server, and switches control of the first portion of the first region between the first slave server and the second slave server. Let

マスターサーバにより実行されるDVE管理方法が提供される。DVE管理の方法を実行するコンピュータコード設定も提供される。   A DVE management method executed by the master server is provided. Computer code settings are also provided to implement DVE management methods.

本発明により、マスターサーバは、第一領域の部分が、第二スレーブサーバにより制御されることを示す結果を伝送し、第一スレーブサーバと第二スレーブサーバ間の第一領域の第一部分の制御を転換させる。   According to the present invention, the master server transmits a result indicating that the part of the first area is controlled by the second slave server, and controls the first part of the first area between the first slave server and the second slave server. Is converted.

図1は、DVEシステムの具体例を示す図で、マスターサーバ21、バックアップサーバ26、及び、スレーブサーバ22、23、24、25、からなり、論理結合により、ネットワーク(好ましくは、インターネット、或いは、イントラネット)上で操作する。当業者は、マスターサーバ21、バックアップサーバ26、及び、スレーブサーバ22、23、24、25が、異なるタイプのネットワーク環境に接続されると認識し、異なるタイプのネットワーク環境間は、ルータ、ゲートウェイ、アクセスポイント、ベースステーションシステム、或いは、その他の様々なタイプの伝送装置により、コミュニケートする。VEの四つの領域31、32、33、34は、個々に、スレーブサーバ22、23、24、25により管理される。注意すべきことは、領域の大きさは等しくなく、それらの形状は正方形、長方形に限定されず、多様な形態である。   FIG. 1 is a diagram showing a specific example of a DVE system, which includes a master server 21, a backup server 26, and slave servers 22, 23, 24, 25, and is connected to a network (preferably the Internet or Operate on the intranet. Those skilled in the art recognize that the master server 21, the backup server 26, and the slave servers 22, 23, 24, 25 are connected to different types of network environments, and between different types of network environments, routers, gateways, Communicate with access points, base station systems, or various other types of transmission equipment. The four areas 31, 32, 33, and 34 of the VE are individually managed by the slave servers 22, 23, 24, and 25. It should be noted that the sizes of the regions are not equal, and their shapes are not limited to squares and rectangles, but various forms.

図2は、マスター、バックアップ、スレーブサーバ21〜25に適用されるハードウェア環境を示す図で、処理ユニット11、メモリ12、ストレージデバイス13、入力装置14、出力装置15、及び、コミュニケーション装置16、からなる。処理ユニット11は、フォンノイマン機構に基づいて、バス17により、メモリ12、ストレージデバイス13、入力装置14、出力装置15、及び、コミュニケーション装置16に接続される。一つ、或いは、それ以上の処理ユニット11を有し、コンピュータの処理器は、単一のCPU、マイクロプロセッサMPU、或いは、マルチ処理ユニット、からなり、一般に、並列処理環境と称される。メモリ12は、好ましくは、RAMであるが、ROMでもフラッシュROMでもよい。メモリ12は、好ましくは、処理ユニット11により実行されるプログラムモジュールを記録し、DVE管理機能を実行する。一般に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネンツ、スクリプト、ウェブページ、或いは、その他を含み、詳細なタスクを実行するか、或いは、詳細な抽象データ型を実行する。更に、当業者は、ある具体例が、携帯端末、マルチプロセッサベース、マイクロプロセッサベース、或いは、プログラミング可能な家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、など、他のコンピュータシステムの機器構成により実践されることを理解している。ある具体例は、タスクがコミュニケーションネットワークにリンクされたリモート処理装置により実行される分散コンピューティング環境で実施される。分散コンピューティング環境において、プログラムモジュールは、DCOM、CORBA、ウェブオブジェクト、ウェブサービス、或いは、その他同様の機構等の様々なリモートアクセス機構に基づいて、両方のローカル、リモートメモリストレージデバイスに位置する。ストレージデバイス13は、ハードドライブ、磁気装置、光学装置、ポータブル装置、或いは、不揮発性メモリ装置である。ドライバとコンピュータ可読媒体(必要に応じて)は、不揮発性のコンピュータ可読命令、データ構造、及び、プログラムモジュールを提供する。メモリ12と、入力装置を通じてオペレータから受信したプログラムモジュールにより制御される処理ユニット11は、DVE管理機能を指揮する。   FIG. 2 is a diagram illustrating a hardware environment applied to the master, backup, and slave servers 21 to 25. The processing unit 11, the memory 12, the storage device 13, the input device 14, the output device 15, and the communication device 16, Consists of. The processing unit 11 is connected to the memory 12, the storage device 13, the input device 14, the output device 15, and the communication device 16 through the bus 17 based on the von Neumann mechanism. A computer processor having one or more processing units 11 is composed of a single CPU, a microprocessor MPU, or a multi-processing unit, and is generally called a parallel processing environment. The memory 12 is preferably a RAM, but may be a ROM or a flash ROM. The memory 12 preferably records program modules executed by the processing unit 11 and executes the DVE management function. Generally, program modules include routines, programs, objects, components, scripts, web pages, or the like that perform detailed tasks or execute detailed abstract data types. In addition, those skilled in the art will recognize that certain embodiments are portable devices, multiprocessor-based, microprocessor-based, or programmable home appliances, network PCs, minicomputers, mainframe computers, and other computer system equipment. Understand what is practiced by composition. One implementation is implemented in a distributed computing environment where tasks are performed by remote processing devices that are linked to a communications network. In a distributed computing environment, program modules are located in both local and remote memory storage devices based on various remote access mechanisms such as DCOM, CORBA, web objects, web services, or other similar mechanisms. The storage device 13 is a hard drive, a magnetic device, an optical device, a portable device, or a nonvolatile memory device. Drivers and computer-readable media (as required) provide non-volatile computer-readable instructions, data structures, and program modules. The processing unit 11 controlled by the memory 12 and the program module received from the operator through the input device directs the DVE management function.

図3は、DVE管理システムの具体例によるソフトウェア機構を示す図である。スレーブサーバ22〜25とバックアップサーバ26は、個々に、ローカル領域管理モジュール221〜261を有し、マスターサーバ21は、VE管理モジュール211からなる。各領域の管理モジュールは、クワッドツリーにより、マスターサーバ21により割り当てられるローカル領域で、同時利用者の数を維持し、チャイルドノードを削除して、新しいチャイルドノードを加えて、数に基づいて、VE管理モジュール211のクワッドツリーに関する再区分要求を出し、再配分結果を、VE管理モジュール211から受信する。VE管理モジュール211は、領域後退機能を実行して、受信したクワッドツリーに基づいて、追加のサーバが、VEのある領域、もし必要ならば、スレーブサーバ22〜25により処理された後退領域、及び、バックアップサーバ26の処理に必要かを判断する。   FIG. 3 is a diagram illustrating a software mechanism according to a specific example of the DVE management system. Each of the slave servers 22 to 25 and the backup server 26 has local area management modules 221 to 261, and the master server 21 includes a VE management module 211. The management module of each area maintains the number of concurrent users in the local area allocated by the master server 21 by the quad tree, deletes the child node, adds a new child node, and based on the number, The management module 211 issues a re-segmentation request regarding the quadtree, and receives the redistribution result from the VE management module 211. The VE management module 211 performs a region retreat function, and based on the received quadtree, additional servers can be relocated to a region with a VE, if necessary, a retreat region processed by the slave servers 22-25, and It is determined whether it is necessary for processing of the backup server 26.

クワッドツリーの各ノードは、二次元に分割され、4つのチャイルドノードになり、ローカル領域の全体/部分に対応する。図4は、四つの部分R41a〜R41dを含むローカル領域の典型的なクワッドツリーを示す図である。ノードN41は、31等、領域R41全体の同時利用者数を記録し、ノードN41a、N41b、N41c、N41dは、5、5、5、16等の領域R41a、R41b、R41d、及び、R41cの同時利用者数を記録する。北西NW、北東NE、南東SE、及び、南西SWの四つのサブ領域は、N41a、N41b、N41c、N41dのノードにより、順に、排列される。全ノードのグラフィック情報は、それぞれ記録される。   Each node of the quad tree is divided into two dimensions and becomes four child nodes, corresponding to the whole / part of the local region. FIG. 4 is a diagram illustrating a typical quadtree of a local region including four portions R41a to R41d. The node N41 records the number of simultaneous users in the entire area R41, such as 31, and the nodes N41a, N41b, N41c, and N41d are simultaneously in the areas R41a, R41b, R41d, and R41c such as 5, 5, 5, and 16 Record the number of users. The four sub-regions of northwest NW, northeast NE, southeast SE, and southwest SW are arranged in order by the nodes N41a, N41b, N41c, and N41d. Graphic information of all nodes is recorded respectively.

図5a〜図5dは、DVE管理の方法を示すフローチャートで、二つのセクションに分けられ、ローカル領域管理モジュール221、231、241、或いは、251により実行される工程を示す左セクションと、分かりやすくするため、点線により分けられ、VE管理モジュール211により実行される工程を示す右セクションである。   FIGS. 5a to 5d are flowcharts showing a method of DVE management, which is divided into two sections, and the left section showing the steps executed by the local area management modules 221, 231, 241, or 251 for easy understanding. Therefore, it is a right section showing the steps executed by the VE management module 211, separated by dotted lines.

工程411において、ソース領域と目標領域に関する情報を含む移動メッセージが受信され、ソース領域からのユーザーが、目標領域に移動したことを表示する。工程421において、移動が他のサーバから来るのかを判断し、もしそうであれば、工程453を実行する。そうでなければ、工程423を実行する。判定は、ソース領域が、維持されたクワッドツリーに存在するのかを探知することにより達成される。工程423において、受信されたソース領域に対応するノードが配置される。工程425において、ノードの同時利用者数は、一つずつ減少する。工程431において、配置ノードがルートノードであると判断し、その場合、工程451を実行する。そうでない場合は、工程433を実行する。工程433において、親ノードが配置される。工程435において、配置ノードの同時利用者は、一つずつ減少する。工程441において、配置ノードのチャイルドノードが、更新された同時利用者数に基づいて、併合される必要があるか判断される。例えば、更新された同時利用者数が領域スレショルドより少ない場合、配置ノードのチャイルドノードは併合されなければならない。領域スレショルドは、単一のリーフノードの同時利用者数を制限するのに用いられる。工程443において、配置ノードのチャイルドノードは除去される。   In step 411, a move message including information about the source and target areas is received, indicating that a user from the source area has moved to the target area. In step 421, it is determined whether the movement is coming from another server, and if so, step 453 is executed. Otherwise, step 423 is executed. The determination is accomplished by detecting if the source region is in a maintained quadtree. In step 423, a node corresponding to the received source region is placed. In step 425, the number of simultaneous users of the node is decreased by one. In step 431, it is determined that the placement node is the root node, and in that case, step 451 is executed. Otherwise, step 433 is performed. In step 433, the parent node is placed. In step 435, the concurrent users of the placement node are decreased one by one. In step 441, it is determined whether the child node of the placement node needs to be merged based on the updated number of concurrent users. For example, if the updated number of concurrent users is less than the region threshold, the child nodes of the placement node must be merged. Region thresholds are used to limit the number of concurrent users of a single leaf node. In step 443, the child node of the placement node is removed.

工程451において、移動がその他のサーバへ出て行くのか判断し、その場合、工程は終了する。そうでない場合、工程453を実行する。判定は、目標領域が、維持されたクワッドツリーに存在するのかを探知することにより達成される。工程453において、目標領域に対応するノードが配置される。工程455において、配置ノードの同時利用者数は、一つずつ増加する。工程461において、配置ノードが分割を必要とするのかを判断し、そうであれば、工程463を実行する。そうでなければ、工程471を実行する。例えば、更新された同時利用者数が領域スレショルドを超過する場合、配置ノードのチャイルドノードは分割されなければならない。工程463において、配置ノードの四つのチャイルドノードが作られ、同時利用者数が獲得される。工程471において、配置ノードはルートノードかどうか判断し、そうであれば、工程481を実行する。そうでなければ、工程473を実行する。工程473において、親ノードが配置される。工程481において、スレーブサーバが、オーバーロードかどうか判断し、そうであれば、工程483を実行し、そうでなければ、工程を終了する。例えば、ルートノードの同時利用者数が、サーバロードスレショルドを超過する場合、維持領域の部分は、他のスレーブサーバ、或いは、バックアップサーバに移動しなければならない。工程483において、ルートノードを有する再区分要求は、VE管理モジュール211に伝送される。工程485において、再区分結果が、VE管理モジュール211から受信され、維持されたローカル領域の部分のスレーブサーバとバックアップサーバ(もし必要であれば)間の制御の転換を可能にする。工程491において、クワッドツリー要求が受信される。工程493において、維持されたクワッドツリーが、VE管理モジュール211に伝送される。   In step 451, it is determined whether the move goes to another server, in which case the process ends. Otherwise, step 453 is performed. The determination is accomplished by detecting whether the target area exists in the maintained quadtree. In step 453, a node corresponding to the target area is placed. In step 455, the number of concurrent users of the placement node is increased by one. In step 461, it is determined whether the placement node requires division. If so, step 463 is executed. Otherwise, step 471 is executed. For example, if the updated number of concurrent users exceeds the region threshold, the child node of the placement node must be split. In step 463, four child nodes of the placement node are created and the number of concurrent users is obtained. In step 471, it is determined whether the placement node is a root node. If so, step 481 is executed. Otherwise, step 473 is executed. In step 473, the parent node is placed. In step 481, it is determined whether the slave server is overloaded. If so, step 483 is executed. Otherwise, the step is ended. For example, if the number of concurrent users of the root node exceeds the server load threshold, the maintenance area portion must be moved to another slave server or backup server. In step 483, the repartition request having the root node is transmitted to the VE management module 211. In step 485, the repartition result is received from the VE management module 211 and allows a transfer of control between the slave server and the backup server (if necessary) in the portion of the local area maintained. In step 491, a quadtree request is received. In step 493, the maintained quadtree is transmitted to the VE management module 211.

工程511において、ルートノードの再区分要求が受信される。工程513において、受信されたルートノードに対応する領域は、混雑領域として定義される。工程515において、クワッドツリー要求が、混雑領域の対応するスレーブサーバに伝送される。工程517において、クワッドツリーは、対応するスレーブサーバから受信される。注意すべきことは、受信されたクワッドツリーの各ノードは、対応するスレーブサーバと同一であるとマークされ、領域はスレーブサーバにより処理されることを表示する。工程521において、混雑領域に近接し、近接する領域間の最小同時利用者数を有する閑散領域が、定義される。この定義づけは、ルートノードの同時利用者数を検出することにより達成される。工程523において、閑散領域と混雑領域の同時利用者数は、それぞれ、第一数と第二数を獲得する。工程531において、混雑領域に対応するルートノードが配置される。工程533において、現在のノードに対応する次のノードが配置される。次のノードの判断は、横型トラバースと縦型トラバースを利用する。工程535において、配置ノードがリーフノードか判断し、そうであれば、工程541を実行し、そうでなければ、工程533を実行する。工程541において、配置ノードに対応する領域が、閑散領域に近接するか判断し、そうであれば、工程543を実行し、そうでなければ、工程533を実行する。近接ノードは、好ましくは、Sametにより導入された効果的なクワッドツリートラバースアルゴリズムを利用して得られる。工程543において、配置ノードは、閑散領域との合併がマークされる。工程545において、配置ノードの同時利用者数は、第一数が加算され、第二数から引かれる。工程551において、再区分工程が充分かどうか判断し、そうであれば、工程553を実行し、そうでなければ、工程561を実行する。例えば、第二数がサーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、再区分工程は充分である。工程553において、結果のクワッドツリーは、対応するスレーブサーバに伝送される。   In step 511, a root node repartition request is received. In step 513, the area corresponding to the received root node is defined as a congested area. In step 515, the quadtree request is transmitted to the corresponding slave server in the congested area. In step 517, the quadtree is received from the corresponding slave server. Note that each node of the received quadtree is marked as identical to the corresponding slave server, indicating that the region is processed by the slave server. In step 521, a quiet area is defined that is close to the congested area and has a minimum number of simultaneous users between the adjacent areas. This definition is achieved by detecting the number of concurrent users of the root node. In step 523, the number of simultaneous users in the quiet area and the congested area obtains the first number and the second number, respectively. In step 531, a root node corresponding to the congested area is arranged. In step 533, the next node corresponding to the current node is placed. The determination of the next node uses a horizontal traverse and a vertical traverse. In step 535, it is determined whether the placement node is a leaf node. If so, step 541 is executed; otherwise, step 533 is executed. In step 541, it is determined whether the area corresponding to the placement node is close to the quiet area. If so, step 543 is executed, otherwise, step 533 is executed. Neighboring nodes are preferably obtained using an effective quadtree traversal algorithm introduced by Samet. In step 543, the placement node is marked for merging with a quiet area. In step 545, the number of concurrent users of the placement node is added to the first number and subtracted from the second number. In step 551, it is determined whether the re-segmentation step is sufficient. If so, step 553 is executed, and if not, step 561 is executed. For example, if the second number is lower than the server load threshold, or a percentage of the server load threshold, the repartitioning process is sufficient. In step 553, the resulting quadtree is transmitted to the corresponding slave server.

工程561において、閑散領域はフルかどうか判断し、そうである場合、工程571を実行する。そうでなければ、工程533を実行する。例えば、第一数がサーバロードスレショルド、或いは、サーバロードスレショルドの割合を超過する場合、閑散領域はフルである。工程571において、バックアップサーが有るかどうか判断し、その場合、工程573を実行する。そうでない場合、工程を終了する。工程573において、現在のノードに対応する次のノードが配置される。注意すべきことは、利用したトラバースアプローチは、工程533と同様であることである。工程575において、配置ノードはリーフノードか判断し、その場合、工程577を実行し、そうでない場合、工程573を実行する。工程577において、配置ノードに対応する領域が閑散領域に近接するか判断し、そうである場合、工程578を実行し、そうでない場合、工程573を実行する。工程578において、配置ノードは、バックアップサーバにマークされる。工程579において、配置ノードの同時利用者数は、第二数から引かれる。工程581において、再区分工程が充分かどうか判断し、そうである場合、工程583を実行する。そうでない場合、工程573を実行する。工程583において、結果のクワッドツリーは、対応するスレーブサーバとバックアップサーバに伝送される。   In step 561, it is determined whether the quiet area is full. If so, step 571 is executed. Otherwise, step 533 is performed. For example, if the first number exceeds the server load threshold or the percentage of the server load threshold, the quiet area is full. In step 571, it is determined whether there is a backup server. In that case, step 573 is executed. Otherwise, the process ends. In step 573, the next node corresponding to the current node is placed. It should be noted that the traverse approach utilized is similar to step 533. In step 575, it is determined whether the placement node is a leaf node. In that case, step 577 is executed, otherwise, step 573 is executed. In step 577, it is determined whether the area corresponding to the placement node is close to the quiet area. If so, step 578 is executed, and if not, step 573 is executed. In step 578, the placement node is marked with a backup server. In step 579, the number of concurrent users of the placement node is subtracted from the second number. In step 581, it is determined whether the re-segmentation step is sufficient, and if so, step 583 is executed. Otherwise, step 573 is executed. In step 583, the resulting quadtree is transmitted to the corresponding slave server and backup server.

VE管理の方法の詳細を以下説明する。図6a〜図6cは、ローカル領域管理モジュール221により維持されるローカル領域R6の異なる典型的なクワッドツリーを示す図である。ある例において、図6aを参照すると、ローカル領域R6が必然的に、四つのパートR61、R62、R63、R64に分割され、サブ領域R63は、必然的に、四つのパートR631、R632、R633、及び、R634に分割される。R6、R61、R62、R63、R64、R631、R632、R633、及び、R634の同時利用者数は、30、5、5、10、10、5、2、1、及び、2である。工程411において、領域R634からのユーザーU1が、領域R64に移動したことを示す移動メッセージが、ローカル領域管理モジュール221により受信される。工程421、423、425において、ノードN634の同時利用者数が一つずつ、一まで減少する。工程433と435において、ノードN63の同時利用者数は、一つずつ、9まで減少する。領域スレショルドは10に設定され、工程441において、ノードN631、N632、N633、N634が、合併を判断される。工程443において、ノードN631、N632、N633、N634が削除される。工程431、433、435において、ルートノードN6の同時利用者数が一つずつ、29まで減少する。一時的な結果が図6bで示される。その後、工程431、451、453、及び、455において、ノードR64の同時利用者数は、一つずつ、11まで増加する。工程461において、ノードR64が分割されるかどうか決定する。工程463において、四つのチャイルドノードN641、N642、N644、N643が作られ、同時利用者数は、4、2、2、3である。工程471、473、及び、455において、ルートノードN6の同時利用者数は、一つずつ、30まで増加する。最後に、工程を終了し、その最終結果は図6cで示される。   Details of the VE management method are explained below. 6a-6c are diagrams illustrating different exemplary quadtrees of the local region R6 maintained by the local region management module 221. FIG. In one example, referring to FIG. 6a, the local region R6 is necessarily divided into four parts R61, R62, R63, R64, and the subregion R63 is necessarily divided into four parts R631, R632, R633, And R634. The number of simultaneous users of R6, R61, R62, R63, R64, R631, R632, R633, and R634 is 30, 5, 5, 10, 10, 5, 2, 1, and 2. In step 411, a movement message indicating that the user U1 from the area R634 has moved to the area R64 is received by the local area management module 221. In steps 421, 423, and 425, the number of simultaneous users of the node N634 is decreased to one by one. In Steps 433 and 435, the number of simultaneous users of the node N63 is decreased to 9 one by one. The region threshold is set to 10, and in step 441, nodes N631, N632, N633, and N634 are determined to merge. In step 443, nodes N631, N632, N633, and N634 are deleted. In steps 431, 433, and 435, the number of simultaneous users of the root node N6 is decreased to 29 one by one. A temporary result is shown in FIG. Thereafter, in steps 431, 451, 453, and 455, the number of simultaneous users of the node R64 increases to 11 one by one. In step 461, it is determined whether node R64 is split. In step 463, four child nodes N641, N642, N644, N643 are created, and the number of simultaneous users is 4, 2, 2, 3. In steps 471, 473, and 455, the number of simultaneous users of the root node N6 increases to 30 one by one. Finally, the process is finished and the final result is shown in FIG.

図7aと図7bは、ローカル領域管理モジュール221により維持されるローカル領域R6の異なる典型的なクワッドツリーを示す図である。もう一つの具体例において、図7aを参照すると、ローカル領域R6は、必然的に、四つのパートR61、R62、R63、R64に分割され、サブ領域R64は、必然的に、四つのパートR641、R642、R643、及び、R644に分割される。R6、R61、R62、R63、R64、R641、R642、R643、及び、R644の同時利用者数は、30、5、5、9、11、4、2、3、及び、2である。工程411において、他のスレーブサーバからのユーザーU2が、領域R642に移動したことを示す移動メッセージが、ローカル領域管理モジュール221により受信される。工程421、453、455において、ノードN642の同時利用者数が一つずつ、3まで増加する。工程461、471、473、455において、ノードN64の同時利用者数は、一つずつ、12まで増加する。工程461、471、473、455において、ルートノードN6の同時利用者数は、一つずつ31まで増加する。サーバロードスレショルドが30に設定され、工程481において、スレーブサーバ221は、オーバーロードすることを決定する。工程483において、ルートノードN6の再区分要求が、マスターサーバ21に伝送される。工程511において、ルートノードN6の再区分要求が、VE管理モジュール211により受信される。工程513において、領域R6は混雑領域として定義される。工程515において、クワッドツリー要求が、それぞれ、ローカル領域管理モジュール221、231、241、251に伝送される。図8は、ローカル領域管理モジュール221、231、241、251により維持される典型的なクワッドツリーを示す図である。工程517において、クワッドツリーT6〜T9は、ローカル領域管理モジュール221、231、241、251から受信される。工程521において、領域R7は閑散領域として定義される。工程523において、第一数22と第二数31が獲得される。縦型トラバースが利用され、工程531〜541において、ノードN61とN62が配置される。工程543において、ノードN62(つまり、領域R62)は、ローカル領域管理モジュール231にマークされる。工程545において、第一、及び、第二数が、それぞれ、26と27に更新される。工程551において、再区分工程が充分であると判断される。最後に、工程553において、結果のクワッドツリーがローカル領域管理モジュール221と231に伝送され、領域R62の制御が転換できる。   FIGS. 7a and 7b are diagrams illustrating different exemplary quadtrees of the local region R6 maintained by the local region management module 221. FIG. In another embodiment, referring to FIG. 7a, the local region R6 is necessarily divided into four parts R61, R62, R63, R64, and the subregion R64 is necessarily divided into four parts R641, Divided into R642, R643, and R644. The number of simultaneous users of R6, R61, R62, R63, R64, R641, R642, R643, and R644 is 30, 5, 5, 9, 11, 4, 2, 3, and 2. In step 411, a movement message indicating that the user U2 from another slave server has moved to the area R642 is received by the local area management module 221. In steps 421, 453, and 455, the number of simultaneous users of the node N642 is increased to 3 by one. In steps 461, 471, 473, and 455, the number of simultaneous users of the node N64 is increased to 12 one by one. In steps 461, 471, 473, and 455, the number of simultaneous users of the root node N6 increases to 31 one by one. The server load threshold is set to 30, and in step 481, the slave server 221 determines to overload. In step 483, the re-segmentation request for the root node N 6 is transmitted to the master server 21. In step 511, the re-partition request for the root node N 6 is received by the VE management module 211. In step 513, region R6 is defined as a congested region. In step 515, the quadtree request is transmitted to the local area management modules 221, 231, 241, 251 respectively. FIG. 8 is a diagram showing a typical quad tree maintained by the local area management modules 221, 231, 241, and 251. In step 517, quadtrees T6-T9 are received from local area management modules 221, 231, 241, 251. In step 521, region R7 is defined as a quiet region. In step 523, the first number 22 and the second number 31 are obtained. A vertical traverse is used, and nodes N61 and N62 are placed in steps 531 to 541. In step 543, the node N62 (that is, the region R62) is marked in the local region management module 231. In step 545, the first and second numbers are updated to 26 and 27, respectively. In step 551, it is determined that the re-segmentation step is sufficient. Finally, in step 553, the resulting quadtree is transmitted to the local area management modules 221 and 231 to switch the control of the area R62.

もう一つの例において、工程511で、ルートノードN6を有する再区分要求が、VE管理モジュール211により受信される。工程513において、領域R6は混雑領域として定義される。工程515において、クワッドツリー要求は、それぞれ、ローカル領域管理モジュール221、231、241、及び、251に伝送される。図9は、ローカル領域管理モジュール221、231、241、251により維持される典型的なクワッドツリーを示す図である。工程517において、クワッドツリーT6〜T9は、ローカル領域管理モジュール221、231、241、251から受信される。工程521において、領域R7は閑散領域として定義される。工程523において、第一数22と第二数38が獲得される。縦型トラバースが利用され、工程531〜541において、ノードN61とN62が配置される。工程543において、ノードN62(つまり、領域R62)がローカル領域管理モジュール231にマークされる。工程545において、第一、及び、第二数が、それぞれ、27と33に更新される。工程551において、再区分工程が不充分であると判断される。工程561において、第一数がサーバロードスレショルドの80%を超過するので、閑散領域がフルであると判断される。工程571〜577において、ノードN63、N64、N641、N642が配置される。工程578において、ノードN642は、ローカル領域管理モジュール261にマークされる。工程579において、第二数が28に更新される。工程581において、再区分工程が充分であると判断される。最後に、工程583において、結果のクワッドツリーがローカル領域管理モジュール221、231、261に伝送され、領域R62とR642の制御が転換できる。上述の具体例で、受信したクワッドツリーが、マスターサーバ21の四つの独立したツリーのように処理されているが、これに、限定されない。この技術の当業者は、受信されたクワッドツリーを合併して、単一のクワッドツリーになり、本発明の範囲と精神を逸脱しない範囲内で、適切な修正を加えることが出来る。   In another example, at step 511, a repartition request having a root node N6 is received by the VE management module 211. In step 513, region R6 is defined as a congested region. In step 515, the quadtree request is transmitted to local area management modules 221, 231, 241, and 251 respectively. FIG. 9 is a diagram showing a typical quad tree maintained by the local area management modules 221, 231, 241, and 251. In step 517, quadtrees T6-T9 are received from local area management modules 221, 231, 241, 251. In step 521, region R7 is defined as a quiet region. In step 523, the first number 22 and the second number 38 are obtained. A vertical traverse is used, and nodes N61 and N62 are placed in steps 531 to 541. In step 543, the node N62 (that is, the region R62) is marked in the local region management module 231. In step 545, the first and second numbers are updated to 27 and 33, respectively. In step 551, it is determined that the re-segmentation step is insufficient. In step 561, it is determined that the quiet area is full because the first number exceeds 80% of the server load threshold. In steps 571-577, nodes N63, N64, N641, N642 are placed. In step 578, the node N642 is marked in the local area management module 261. In step 579, the second number is updated to 28. In step 581 it is determined that the re-segmentation step is sufficient. Finally, in step 583, the resulting quadtree is transmitted to the local region management modules 221, 231 and 261, and control of regions R62 and R642 can be switched. In the specific example described above, the received quad tree is processed like four independent trees of the master server 21, but the present invention is not limited to this. Those skilled in the art can merge the received quadtrees into a single quadtree and make appropriate modifications without departing from the scope and spirit of the present invention.

DVE管理システムと方法は、例えば、フロッピー(登録商標)ディスク、CD―ROM、ハードドライブ、或いは、その他の機械読み取り可能記憶媒体等の有形な媒体に統合されるプログラムコードという形をとり(即ち、命令)、プログラムコードがロードされ、コンピュータ等の機械により実行され、機械は、本発明を実行する装置になる。本方法とシステムは、電気配線、ケーブル布線、光ファイバー、或いは、その他の伝動装置の形など、ある伝送媒体を通じて伝送されるプログラムコードの形で統合され、プログラムコードが受信され、ロードされ、コンピュータ等の機械により実行された時、機械は本発明を実行する装置になる。汎用のプロセッサ上で実施する時、プログラムコードは、プロセッサを結合して、無類の装置を提供し、同じように、特定のロジック回路に機能する。   DVE management systems and methods take the form of program code that is integrated into a tangible medium, such as a floppy disk, CD-ROM, hard drive, or other machine-readable storage medium (ie, Instructions), program code is loaded and executed by a machine such as a computer, which becomes a device for carrying out the invention. The method and system are integrated in the form of program code transmitted over a transmission medium, such as in the form of electrical wiring, cabling, optical fiber, or other transmission devices, and the program code is received, loaded, and computerized The machine becomes a device for carrying out the invention. When implemented on a general-purpose processor, the program code combines the processors to provide a unique device and, similarly, functions on specific logic circuits.

本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変動や潤色を加えることができ、従って本発明明の保護範囲は、特許請求の範囲で指定した内容を基準とする。   In the present invention, preferred embodiments have been disclosed as described above. However, the present invention is not limited to the present invention, and any person who is familiar with the technology can use various methods within the spirit and scope of the present invention. Therefore, the protection scope of the present invention is based on the content specified in the claims.

DVEシステムの具体例を示す図である。It is a figure which shows the specific example of a DVE system. マスター、バックアップ、スレーブサーバに適用されるハードウェア環境を示す図である。It is a figure which shows the hardware environment applied to a master, backup, and a slave server. DVE管理システムの具体例によるソフトウェア機構を示す図である。It is a figure which shows the software mechanism by the example of a DVE management system. ローカル領域の典型的なクワッドツリーを示す図である。FIG. 3 illustrates a typical quad tree in a local area. DVE管理の方法を示すフローチャートである。It is a flowchart which shows the method of DVE management. DVE管理の方法を示すフローチャートである。It is a flowchart which shows the method of DVE management. DVE管理の方法を示すフローチャートである。It is a flowchart which shows the method of DVE management. DVE管理の方法を示すフローチャートである。It is a flowchart which shows the method of DVE management. ローカル領域の異なる典型的なクワッドツリーを示す図である。It is a figure which shows the typical quadtree from which a local area | region differs. ローカル領域の異なる典型的なクワッドツリーを示す図である。It is a figure which shows the typical quadtree from which a local area | region differs. ローカル領域の異なる典型的なクワッドツリーを示す図である。It is a figure which shows the typical quadtree from which a local area | region differs. ローカル領域の異なる典型的なクワッドツリーを示す図である。It is a figure which shows the typical quadtree from which a local area | region differs. ローカル領域の異なる典型的なクワッドツリーを示す図である。It is a figure which shows the typical quadtree from which a local area | region differs. 典型的なクワッドツリーを示す図である。FIG. 3 illustrates a typical quad tree. 典型的なクワッドツリーを示す図である。FIG. 3 illustrates a typical quad tree. 典型的なクワッドツリーを示す図である。FIG. 3 illustrates a typical quad tree. 典型的なクワッドツリーを示す図である。FIG. 3 illustrates a typical quad tree.

符号の説明Explanation of symbols

11 処理ユニット
12 メモリ
13 ストレージデバイス
14 入力装置
15 出力装置
16 コミュニケーション装置
17 バス
21 マスターサーバ
22、23、24、25 スレーブサーバ
26 バックアップサーバ
31、32、33、34 四つの領域
211 VE管理モジュール
221〜261 ローカル領域管理モジュール
11 Processing Unit 12 Memory 13 Storage Device 14 Input Device 15 Output Device 16 Communication Device 17 Bus 21 Master Server 22, 23, 24, 25 Slave Server 26 Backup Server 31, 32, 33, 34 Four Areas 211 VE Management Module 221 261 Local area management module

Claims (10)

DVE管理のシステムであって、
マスターサーバからなり、第一スレーブサーバから、再配分要求と第一ツリー、第二スレーブサーバから、第二ツリーを受信し、前記第一ツリーは、複数の第一ノードからなり、それぞれ、何人のユーザーが、第一領域、或いは、第一領域の一部にいるかを示す第一同時利用者数からなり、前記第二ツリーは、複数の第二ノードからなり、それぞれ、何人のユーザーが、第二領域、或いは、第二領域の一部にいるかを示す第二同時利用者数からなり、
前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の第二同時利用者数に、前記第一領域の第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断し、前記第一領域の部分が、前記第二スレーブサーバにより制御されることを示す結果を伝送し、前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の第一部分の制御を転換させることを特徴とするシステム。
DVE management system,
It consists of a master server, receives a redistribution request and a first tree from the first slave server, a second tree from the second slave server, and the first tree consists of a plurality of first nodes, each of which It consists of the first number of concurrent users indicating whether the user is in the first area or a part of the first area, and the second tree is composed of a plurality of second nodes, each of which is the number of users. It consists of the number of second concurrent users indicating whether it is in two areas or part of the second area,
The first portion of the first area is close to the second area, and the number of second simultaneous users in the second area plus the number of first simultaneous users in the first area is the server load threshold. Or, if the ratio is lower than the server load threshold ratio, it is determined that the first part of the first area is controlled by the second slave server, and the part of the first area is controlled by the second slave server. And transmitting a result indicating that the control of the first portion of the first area between the first slave server and the second slave server is switched.
前記マスターサーバは、第三ツリーを受信し、前記第三ツリーは、複数の第三ノードからなり、それぞれ、何人のユーザーが、第三領域、或いは、第三領域の一部にいるかを示す第三同時利用者数からなり、
前記第一領域の第一部分が、前記第三領域に近接し、前記第二領域の第二同時利用者数が、前記第三領域の前記第三同時利用者数より少ない場合、前記第一領域の部分が、前記第二スレーブサーバにより制御されると判断することを特徴とする請求項1に記載のシステム。
The master server receives a third tree, and the third tree comprises a plurality of third nodes, each indicating a number of users in the third area or a part of the third area. It consists of three simultaneous users,
When the first portion of the first area is close to the third area, and the second number of concurrent users in the second area is less than the third number of concurrent users in the third area, the first area The system according to claim 1, wherein it is determined that the part is controlled by the second slave server.
前記第一ツリーと第二ツリーは、クワッドツリーと互換性があることを特徴とする請求項1に記載のシステム。   The system of claim 1, wherein the first tree and the second tree are compatible with a quad tree. 前記第一領域の第二部分が、前記第二領域に近接し、前記第二領域の第二同時利用者数に、前記第一領域の第一部分の第一同時利用者数と、前記第一領域の前記第二部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドを超過する場合、前記マスターサーバは、前記第一領域の第二部分が、バックアップサーバにより制御されると判断し、前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の第一部分の制御を転換させることを特徴とする請求項1に記載のシステム。   The second part of the first area is close to the second area, the second number of simultaneous users of the second area, the first number of simultaneous users of the first part of the first area, and the first If the sum of the first concurrent users in the second part of the region exceeds the server load threshold or the server load threshold, the master server may The system according to claim 1, wherein the system is determined to be controlled by a server, and control of the first portion of the first area between the first slave server and the second slave server is changed. 前記第一領域の前記第一部分の判断は、横型トラバース、或いは、縦型トラバースを検討することにより達成されることを特徴とする請求項1に記載のシステム。   The system according to claim 1, wherein the determination of the first portion of the first region is achieved by considering a horizontal traverse or a vertical traverse. 前記第一ツリーの前記ルートノードの前記第一同時利用者数が、サーバロードスレショルドを超過するのが検出された時、前記第一スレーブサーバは、前記再区分要求を伝送することを特徴とする請求項1に記載のシステム。   The first slave server transmits the repartition request when it is detected that the number of first concurrent users of the root node of the first tree exceeds a server load threshold. The system of claim 1. 前記第一同時利用者数が、領域スレショルドより低いことが検出された時、前記第一スレーブサーバは、前記第一ノードの一つのために、チャイルドノードを全て削除し、前記第一同時利用者数が前記領域スレショルドを超過したことが検出された時、領域分割のために、四つのチャイルドノードを作ることを特徴とする請求項1に記載のシステム。   When it is detected that the number of first concurrent users is lower than the region threshold, the first slave server deletes all child nodes for one of the first nodes, and the first concurrent users The system of claim 1, wherein four child nodes are created for region segmentation when it is detected that a number exceeds the region threshold. 前記第二同時利用者数が、領域スレショルドより低いことが検出された時、前記第二スレーブサーバは、前記第二ノードの一つのために、チャイルドノードを全て削除し、前記第二同時利用者数が前記領域スレショルドを超過したことが検出された時、前記第二ノードの一つために、四つのチャイルドノードを作ることを特徴とする請求項7に記載のシステム。   When it is detected that the second number of concurrent users is lower than the region threshold, the second slave server deletes all child nodes for one of the second nodes, and the second concurrent users 8. The system of claim 7, wherein four child nodes are created for one of the second nodes when it is detected that a number exceeds the region threshold. マスターサーバによりロード、実行され、
前記マスターサーバが、第一スレーブサーバから再区分要求を受信する段階と、
前記マスターサーバが、複数の第一ノードからなり、それぞれ、何人のユーザーが、第一領域、或いは、第一領域の一部にいるかを示す第一同時利用者数からなる第一ツリーを前記第一スレーブサーバから受信する段階と、
前記マスターサーバが、複数の第二ノードからなり、それぞれ、何人のユーザーが、第二一領域、或いは、第二一領域の一部にいるかを示す第二同時利用者数からなる第二ツリーを第二スレーブサーバから受信する段階と、
前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の前記第二同時利用者数に、前記第一領域の第一部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記マスターサーバは、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断する段階と、
前記マスターサーバは、前記第一領域の部分が、前記第二スレーブサーバにより制御されるのを示す結果を伝送する段階と、
前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の前記第一部分の制御の転換をする段階と、
からなることを特徴とするDVE管理方法。
Loaded and executed by the master server,
The master server receiving a repartition request from a first slave server;
The master server comprises a plurality of first nodes, and a first tree comprising a first number of simultaneous users indicating how many users are in the first area or a part of the first area, respectively. Receiving from one slave server;
The master server is composed of a plurality of second nodes, and a second tree composed of a second number of simultaneous users indicating how many users are in the second first area or a part of the second first area, respectively. Receiving from a second slave server;
The first part of the first area is close to the second area, and the first simultaneous user number of the first part of the first area is added to the second simultaneous user number of the second area. The master server determines that the first portion of the first region is controlled by the second slave server if the server load threshold or the server load threshold ratio is lower than
The master server transmits a result indicating that the portion of the first region is controlled by the second slave server;
Changing control of the first portion of the first region between the first slave server and the second slave server;
A DVE management method characterized by comprising:
マスターサーバによりロード、実行され、
第一スレーブサーバから再区分要求を受信する段階と、
複数の第一ノードからなり、それぞれ、何人のユーザーが、第一領域、或いは、第一領域の一部にいるかを示す第一同時利用者数からなる第一ツリーを前記第一スレーブサーバから受信する段階と、
複数の第二ノードからなり、それぞれ、何人のユーザーが、第二一領域、或いは、第二一領域の一部にいるかを示す第二同時利用者数からなる第二ツリーを第二スレーブサーバから受信する段階と、
前記第一領域の第一部分が、前記第二領域に近接し、前記第二領域の前記第二同時利用者数に、前記第一領域の第一部分の前記第一同時利用者数を加えたものが、サーバロードスレショルド、或いは、サーバロードスレショルドの割合より低い場合、前記第一領域の第一部分が、前記第二スレーブサーバにより制御されると判断する段階と、
前記第一領域の部分が、前記第二スレーブサーバにより制御されるのを示す結果を伝送する段階と、
前記第一スレーブサーバと前記第二スレーブサーバ間の前記第一領域の前記第一部分の制御の転換をする段階と、
からなることを特徴とするDVE管理コンピュータコード設定方法。
Loaded and executed by the master server,
Receiving a re-segmentation request from the first slave server;
A first tree consisting of a plurality of first nodes, each including a first number of simultaneous users indicating how many users are in the first area or part of the first area, is received from the first slave server. And the stage of
A second tree consisting of a plurality of second nodes, each consisting of a second number of simultaneous users indicating how many users are in the second first area or part of the second first area, from the second slave server Receiving, and
The first part of the first area is close to the second area, and the first simultaneous user number of the first part of the first area is added to the second simultaneous user number of the second area. Determining that the first portion of the first region is controlled by the second slave server if the server load threshold or the ratio of the server load threshold is lower,
Transmitting a result indicating that the portion of the first region is controlled by the second slave server;
Changing control of the first portion of the first region between the first slave server and the second slave server;
A DVE management computer code setting method characterized by comprising:
JP2004371575A 2004-12-22 2004-12-22 Distributed virtual environment management system and method Active JP4323421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004371575A JP4323421B2 (en) 2004-12-22 2004-12-22 Distributed virtual environment management system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004371575A JP4323421B2 (en) 2004-12-22 2004-12-22 Distributed virtual environment management system and method

Publications (2)

Publication Number Publication Date
JP2006178757A true JP2006178757A (en) 2006-07-06
JP4323421B2 JP4323421B2 (en) 2009-09-02

Family

ID=36732818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004371575A Active JP4323421B2 (en) 2004-12-22 2004-12-22 Distributed virtual environment management system and method

Country Status (1)

Country Link
JP (1) JP4323421B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072160B (en) * 2007-06-14 2010-12-08 华为技术有限公司 Distributed virtual environment management method, system and node
JP2010541096A (en) * 2007-10-03 2010-12-24 ヴァーテラ テクノロジー サーヴィシズ インコーポレイテッド Pandemic remote access design
JP2014529367A (en) * 2011-06-14 2014-11-06 ネットジン, インコーポレイテッドNetzyn, Inc Hierarchical display server system and method
JP2015201029A (en) * 2014-04-08 2015-11-12 日本電信電話株式会社 Load distribution device, load distribution method and load distribution system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072160B (en) * 2007-06-14 2010-12-08 华为技术有限公司 Distributed virtual environment management method, system and node
JP2010541096A (en) * 2007-10-03 2010-12-24 ヴァーテラ テクノロジー サーヴィシズ インコーポレイテッド Pandemic remote access design
US9531798B2 (en) 2007-10-03 2016-12-27 Virtela Technology Services Incorporated Pandemic remote access design
JP2014529367A (en) * 2011-06-14 2014-11-06 ネットジン, インコーポレイテッドNetzyn, Inc Hierarchical display server system and method
JP2015201029A (en) * 2014-04-08 2015-11-12 日本電信電話株式会社 Load distribution device, load distribution method and load distribution system

Also Published As

Publication number Publication date
JP4323421B2 (en) 2009-09-02

Similar Documents

Publication Publication Date Title
JP5998206B2 (en) Scalable centralized dynamic resource distribution in cluster data grids
US8057307B2 (en) Handling of players and objects in massive multi-player on-line games
CN101266633B (en) Seamless super large scale dummy game world platform
US20020091786A1 (en) Information distribution system and load balancing method thereof
CN103533063A (en) Method and device capable of realizing dynamic expansion of WEB (World Wide Web) application resource
US11032144B2 (en) Network control system, method and program
CN103051564A (en) Dynamic resource allocation method and device
KR20190114743A (en) Object storage system with multi-level hashing function for storage address determination
JP2017037446A (en) Game server device and distribution processing method
Wang et al. Optimizing big data processing performance in the public cloud: opportunities and approaches
CN106059940A (en) Flow control method and device
Barak et al. An organizational grid of federated MOSIX clusters
JP4323421B2 (en) Distributed virtual environment management system and method
KR100742357B1 (en) Intelligent distributed server system and method for employing as the same
JP6374841B2 (en) Virtual machine placement apparatus and virtual machine placement method
JP2018018175A (en) Virtual machine control program, virtual machine control method and virtual machine control device
JP5331549B2 (en) Distributed processing system and distributed processing method
JP2016220126A (en) Network processing system, management method for network system, and communication device
KR20040084831A (en) parallel distributed processing system and method
KR100709678B1 (en) Distributed virtual environment management systems and methods
JP6383336B2 (en) Server management apparatus and server management method
CN102891881A (en) Method for implementing equivalence and balance of nodes under cloud environment
JP2002342296A (en) Network system
JP2012164260A (en) Computer operation management system, computer operation management method, and computer operation management program
JP6657910B2 (en) Band setting method, band setting program, information processing apparatus and information processing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4323421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250