JP3103129B2 - Load balancing method - Google Patents
Load balancing methodInfo
- Publication number
- JP3103129B2 JP3103129B2 JP03065158A JP6515891A JP3103129B2 JP 3103129 B2 JP3103129 B2 JP 3103129B2 JP 03065158 A JP03065158 A JP 03065158A JP 6515891 A JP6515891 A JP 6515891A JP 3103129 B2 JP3103129 B2 JP 3103129B2
- Authority
- JP
- Japan
- Prior art keywords
- load
- processor
- task
- processors
- task group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Multi Processors (AREA)
Description
【0001】[発明の目的][Object of the Invention]
【0002】[0002]
【産業上の利用分野】本発明は、一つあるいは複数のプ
ロセッサを有する計算機システムにおいて用いられる負
荷分散方式に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a load distribution method used in a computer system having one or more processors.
【0003】[0003]
【従来の技術】従来の負荷分散方式では、一つのプロセ
ッサ上に多数のタスクが配置された場合に、キャッシュ
メモリがオーバフローしてキャッシュメモリ上のデータ
の入れ替えが頻繁になり、キャッシュスラッシングが発
生することがあった。また、複数のプロセッサに分散し
た関連タスク群が共通のデータを読み書きする際に、あ
るプロセッサがキャッシュメモリ上のデータを更新して
他のプロセッサのキャッシュメモリ上のデータが無効化
されると、各プロセッサが無効化されたデータを再び主
記憶装置から読出すために、キャッシュメモリと主記憶
装置の間でのデータのやりとりが頻繁になり、同様にキ
ャッシュスラッシングが発生する恐れがあった。2. Description of the Related Art In a conventional load distribution system, when a large number of tasks are arranged on a single processor, a cache memory overflows, data in the cache memory is frequently replaced, and cache thrashing occurs. There was something. Further, when a related task group distributed to a plurality of processors reads and writes common data, when a certain processor updates data in the cache memory and invalidates data in the cache memory of another processor, Since the processor reads the invalidated data from the main storage device again, the exchange of data between the cache memory and the main storage device becomes frequent, and cache thrashing may similarly occur.
【0004】[0004]
【発明が解決しようとする課題】上述したように、従来
の負荷分散方式では、一つのプロセッサ上に多数のタス
クが配置されてキャッシュメモリがオーバフローした場
合や、複数のプロセッサに分散した関連タスク群が共通
のデータをアクセスした場合に、キャッシュスラッシン
グが発生するという問題があった。As described above, in the conventional load distribution method, when a large number of tasks are arranged on one processor and a cache memory overflows, a related task group distributed to a plurality of processors is used. However, there is a problem that cache thrashing occurs when common data is accessed.
【0005】本発明はこのような課題を解決するための
もので、キャッシュスラッシングを防止して、システム
の効率的な利用を図ることを実現する負荷分散方式の提
供を目的とする。The present invention has been made to solve such a problem, and an object of the present invention is to provide a load distribution method for realizing efficient use of a system by preventing cache thrashing.
【0006】[発明の構成][Configuration of the Invention]
【0007】[0007]
【課題を解決するための手段】第1の発明の負荷分散方
式は上記の目的を達成するために、複数のプロセッサを
有する計算機システムにおいて、前記各プロセッサは、
自身の現在の負荷状態を相互に通信する機能を有し、新
たに処理すべきタスク群が発生したとき、このタスク群
を自身及び自身より負荷の低いプロセッサ群が処理する
場合の平均負荷を予測し、この平均負荷が自身の現在の
負荷より高く、かつ自身の次に高い前記他のプロセッサ
の現在の負荷を越えないことを判断したプロセッサが、
前記平均負荷以下の負荷を有するプロセッサに前記新た
に発生したタスク群を割り当てるように前記各プロセッ
サに対してタスク配分のための情報を放送通信すること
を特徴としている。For load balancing scheme SUMMARY OF THE INVENTION The first invention to achieve the above object, in a computer system having multiple processors, each processor,
It has a function to communicate its current load status with each other.
When a task group to be processed occurs, this task group
Is processed by itself and a group of processors with a lower load
Predict the average load for the case, and this average load
The other processor higher than the load and the next highest
Processor that has determined that the current load of
The processor having a load equal to or less than the average load
Each of the above processors is assigned a task group
It is characterized in that information for task distribution is broadcasted to the server .
【0008】また第2の発明の負荷分散方式は上記の目
的を達成するために、複数のプロセッサを有する計算機
システムにおいて、前記各プロセッサは、自身の現在の
負荷状態を相互に通信する機能を有し、新たに処理すべ
きタスク群が発生したとき、このタスク群を自身及び自
身より負荷の低いプロセッサ群が処理する場合の平均負
荷を予測し、この平均負荷が自身の負荷より高く、自身
の次に高い前記他のプロセッサの負荷以下で、かつ、あ
らかじめ定めた値以下であることを判断したプロセッサ
が、前記平均負荷以下の負荷を有するプロセッサに前記
新たに発生したタスク群を割り当てるように前記各プロ
セッサに対してタスク配分のための情報を放送通信する
ことを特徴としている。[0008] For load balancing method of the second invention to achieve the above object, in a computer system having multiple processors, each processor of its own current
It has a function to communicate the load status with each other, and
When a task group occurs, the task group
Average negative load when processing is performed by processors with lower load
Predict the load, and if this average load is higher than
Below the other processor's load, and
A processor that determines that the value is less than a predetermined value
But to a processor having a load less than the average load,
Each of the above tasks is assigned to assign a newly generated task group.
It is characterized in that information for task distribution is broadcast-communicated to the processor .
【0009】[0009]
【作用】第1の発明では、新たに発生したタスク群を負
荷の低いプロセッサのみに割り当てることによって、要
求タスク群を分担するプロセッサの個数を少なくして、
これによりキャッシュスラッシングを防止することが可
能となる。According to the first invention, a newly generated task group is set to a negative
By assigning only to processors with low load, the number of processors sharing the required task group is reduced,
This makes it possible to prevent cache thrashing.
【0010】第2の発明では、各プロセッサの平均負荷
がある値以下となった場合に限りタスク群の割り当てを
行うことで、各プロセッサの受け持つタスクの個数を減
らすことができ、これによりキャッシュスラッシングを
防止することが可能となる。In the second invention, the average load of each processor
Task group assignment only when
By doing so, the number of tasks assigned to each processor can be reduced, thereby preventing cache thrashing.
【0011】[0011]
【実施例】以下、本発明を図面に基づいて詳細に説明す
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings.
【0012】図1は本発明に係る一実施例の負荷分散方
式を用いた計算機システムの構成を示すブロック図であ
る。FIG. 1 is a block diagram showing a configuration of a computer system using a load distribution method according to an embodiment of the present invention.
【0013】同図に示すように、この計算機システムは
複数のプロセッサ1、2、3、…、nを通信媒体10を
通じて結合して構成されている。各プロセッサ1〜nは
プロセス管理装置21、22、23、…、2nおよび処
理装置31、32、33、…、3nからなる。プロセス
管理装置21〜2nは他のプロセス管理装置との通信を
交えながら実行要求タスク群を管理する。処理装置31
〜3nは主に中央演算装置、実行制御装置などで構成さ
れ、実際にタスクを実行する。As shown in FIG. 1, the computer system comprises a plurality of processors 1, 2, 3,..., N connected through a communication medium 10. Each of the processors 1 to n includes process management devices 21, 22, 23,..., 2n and processing devices 31, 32, 33,. The process management devices 21 to 2n manage the execution request task group while communicating with other process management devices. Processing device 31
3 to 3n are mainly composed of a central processing unit, an execution control unit, etc., and actually execute tasks.
【0014】図2はプロセス管理装置21〜2nが記憶
するデータの格納方法の例を示している。同図に示すよ
うに、プロセス管理装置21〜2nは、新たに発生した
タスク群と実行を開始したタスクとをそれぞれ別々のキ
ュー41、42に格納する。またこのプロセス管理装置
21〜2nには負荷分散処理を実施するためのデータと
して、以下の値を記憶する。FIG. 2 shows an example of a method of storing data stored in the process management devices 21 to 2n. As shown in the figure, the process management devices 21 to 2n store a newly generated task group and a task that has started execution in separate queues 41 and 42, respectively. The following values are stored in the process management devices 21 to 2n as data for performing the load distribution processing.
【0015】(1)自プロセッサ上の負荷の合計Ni 。(1) The total load Ni on the own processor.
【0016】(2)自身及び自身より負荷の低いプロセッ
サ群の個数Li。(2) The number Li of itself and a group of processors with a lower load than itself.
【0017】(3)自身及び自身より負荷の低いプロセッ
サ群の負荷の合計Si 。(3) The total load Si of the processor itself and the processor group having a lower load than the processor itself.
【0018】(4)自身より高い負荷を持つプロセッサ群
の負荷のうち最小の負荷Ui (自身の次に高い負荷)。
但し、自身が最大負荷を持つプロセッサである場合には
Ui として十分大きな数を記憶する。(4) The minimum load Ui (the next highest load) among the loads of the processor group having a higher load than itself.
However, if the processor itself has the maximum load, a sufficiently large number is stored as Ui.
【0019】尚、ここで負荷の等しいプロセッサ間につ
いては、プロセッサ名によってあらかじめ定められてい
る順序に従って順序付けを行う。Here, the processors having the same load are ordered according to the order predetermined by the processor name.
【0020】次に本実施例の負荷分散方式を図3および
図4のフローチャートを用いて説明する。まずシステム
起動時において、上述のデータを以下のように初期化す
る。つまりシステム起動時は各プロセッサ上にタスクが
無いので、Nl =0、Li =i、Si =0、Ui =0ま
たは十分大きな整数、とする。Next, the load distribution method of this embodiment will be described with reference to the flowcharts of FIGS. First, at the time of system startup, the above data is initialized as follows. That is, since there is no task on each processor when the system is started, Nl = 0, Li = i, Si = 0, Ui = 0 or a sufficiently large integer.
【0021】あるプロセッサ上で、新たにタスクがN個
発生したとき、全プロセッサに対して、それらのタスク
の起動要求、及び、タスクの個数からなる情報を、タス
ク起動要求通信として放送通信する。When N new tasks are generated on a certain processor, a request for starting the tasks and information including the number of tasks are broadcast to all processors as task start request communication.
【0022】タスク起動要求通信を受け取った各プロセ
ッサは(ステップ301)、まず、自身及び自身より負
荷の低いプロセッサ群が、新たに発生したタスク群を処
理する場合の、各プロセッサ群の平均負荷Avei を計
算する(ステップ302)。ここで、平均負荷Avei
が自身の負荷Niより大きく(ステップ303)、か
つ、自身の次に高い負荷Uiを越えない(ステップ30
4)ことを判断したプロセッサiは、次の処理を行う。Each processor that has received the task activation request communication (step 301) first receives the average load Avei of each processor group when the processor itself and a processor group with a lower load process the newly generated task group. Is calculated (step 302). Here, the average load Avei
Is greater than its own load Ni (step 303) and does not exceed its next highest load Ui (step 30).
4) The processor i that has determined the above performs the following processing.
【0023】すなわち、平均負荷Avei 以下の最大の
整数sが、あらかじめ与えられた定数s* 以下である場
合(ステップ305)、s´=s+a(a≧0は定数)
とする(ステップ306)。またsが定数s*より大き
い場合、s´=sとする(ステップ307)。このとき
sと、新たに発生したタスク群を負荷の小さいプロセッ
サから順に各プロセッサの負荷がs´以下になるよう配
分したときの余剰タスクの個数Rとからなる情報をタス
ク配分決定通信として放送通信する(ステップ308、
309)。That is, when the maximum integer s equal to or less than the average load Avei is equal to or less than a predetermined constant s * (step 305), s' = s + a (a ≧ 0 is a constant)
(Step 306). If s is larger than the constant s * , s' = s is set (step 307). At this time, information consisting of s and the number R of surplus tasks when a newly generated task group is distributed so that the load of each processor is equal to or less than s ′ in order from the processor with the smallest load is broadcast communication as task distribution determination communication. (Step 308,
309).
【0024】一方、タスク配分決定通信を受け取ったプ
ロセッサは(ステップ401)、次の処理を行う。On the other hand, the processor which has received the task distribution determination communication (step 401) performs the following processing.
【0025】つまり、自身の負荷がs以下の場合(ステ
ップ402)、自身がタスクを受け持つプロセッサであ
ると判断する。そしてs≦s* のとき(ステップ40
3)、sをs+aで置き換えて(ステップ404)、
“負荷について最低順位のプロセッサから順に、割り当
てらていないタスクが無くなるまで、各プロセッサの負
荷がsになるように、タスク群の先頭からタスクを受け
入れて行く”というアルゴリズムに基づいて、自身より
負荷についての順位の低いプロセッサ群が受け持つタス
クの個数を計算して自身が受け持つタスクを選定し(ス
テップ405)、これらのタスクを起動し、さらに受け
入れたタスクの個数に基づいて、自プロセッサが記憶す
るデータを更新する。また自プロセッサの負荷がsを越
す場合は、負荷についての順序が自身より低いプロセッ
サが受け持つタスクの個数に基づき、自プロセッサが記
憶するデータを更新する。That is, when the load of the self is equal to or less than s (step 402), it is determined that the self is the processor that handles the task. And when s ≦ s * (step 40
3), replacing s with s + a (step 404),
Based on the algorithm, “from the beginning of the task group, tasks are received from the beginning of the task group so that the load on each processor becomes s until there are no unassigned tasks, starting from the processor with the lowest priority. Calculates the number of tasks to be assigned to the processor group having a lower rank for (a), selects the task to be assigned to the processor itself (step 405), activates these tasks, and stores the task based on the number of accepted tasks. Update data. When the load of the own processor exceeds s, the data stored in the own processor is updated based on the number of tasks assigned to the processor whose load order is lower than that of the own processor.
【0026】また、s>s* のときは、上記の処理にお
いてステップ404を除いたものを実行する。When s> s * , the above processing except for step 404 is executed.
【0027】プロセッサiにおいて、タスクが1個終了
すると、自プロセッサの負荷を更新し、自プロセッサi
の負荷Ni 、及び、自プロセッサ名からなる情報をタス
ク終了通信として放送通信する。When one task is completed in the processor i, the load on the own processor is updated and the own processor i
The information consisting of the load Ni and the own processor name is broadcasted as task end communication.
【0028】タスク終了通信を受信したプロセッサは、
自プロセッサの記憶する他プロセッサの負荷についての
データを更新し、これらの値をソートしてプロセッサの
順序を決め、Li 、Si 、Ui を計算し、更新する。The processor that has received the task end message,
The data of the load of the other processor stored in the own processor is updated, these values are sorted, the order of the processors is determined, Li, Si, and Ui are calculated and updated.
【0029】このように、プロセッサの負荷がある程度
低い状況、すなわち、s≦s* の場合には、タスク群を
割り当てた結果のプロセッサの負荷の上限sをある程度
高くすれば、すなわち、sをs+aで置き換えれば、シ
ステム全体の負荷の均衡を崩すことなく、タスク群を受
け持つプロセッサの個数を減らすことができるので、キ
ャッシュスラッシングを防止することが可能となる。As described above, in a situation where the load on the processor is somewhat low, that is, when s ≦ s * , the upper limit s of the load on the processor as a result of assigning the task group is increased to some extent, that is, s is given by s + a. In this case, the number of processors that handle the task group can be reduced without breaking the load balance of the entire system, so that cache thrashing can be prevented.
【0030】次に本発明の他の実施例を説明する。図5
および図6はこの実施例の負荷分散方式を流れを示すフ
ローチャートである。この実施例において、ステップ5
02までの各プロセッサ群の平均負荷Avei を計算す
る動作までは先の実施例と同様である。Next, another embodiment of the present invention will be described. FIG.
FIG. 6 is a flowchart showing the flow of the load distribution method of this embodiment. In this embodiment, step 5
The operation up to the operation of calculating the average load Avei of each processor group up to 02 is the same as in the previous embodiment.
【0031】本実施例では、平均負荷Avei が自身の
負荷Ni より大きく(ステップ503)、かつ、自身の
次に高い負荷Ui を越えず(ステップ504)、しか
も、あらかじめ与えられた定数A以下である場合のみ
(ステップ505)、自身及び自身より負荷の低いプロ
セッサ群が、新たに発生したタスク群を処理するもので
あると判断する。そして、平均負荷Avei 以下の最大
の整数sと、新たに発生したタスク群を配分して各プロ
セッサの負荷をsにしたときの余剰タスクの個数Rとか
らなる情報を、タスク配分決定通信として放送通信する
(ステップ506、507)。In this embodiment, the average load Avei is larger than the own load Ni (step 503), does not exceed the next highest load Ui (step 504), and is equal to or less than a predetermined constant A. Only in a certain case (step 505), it is determined that the processor itself and the processor group having a lower load than the processor itself process the newly generated task group. Then, information consisting of the maximum integer s equal to or less than the average load Avei and the number R of surplus tasks when the load of each processor is set to s by distributing a newly generated task group is broadcast as task distribution determination communication. Communication is performed (steps 506 and 507).
【0032】一方、タスク配分決定通信を受け取ったプ
ロセッサは(ステップ601)、自身の負荷がs以下の
場合(ステップ602)、自身がタスクを受け持つプロ
セッサであると判断する。そして負荷についての順位が
自身よりも低いプロセッサが受け持つタスクの個数を計
算して自身が受け持つタスクを選定し(ステップ60
3)、これらのタスクを起動し、受け入れたタスクの個
数に基づいて、自プロセッサが記憶するデータを更新す
る。また、自プロセッサの負荷がsを越す場合、負荷に
ついての順位が自身より低いプロセッサが受け持つタス
クの個数に基づいて、自プロセッサが記憶するデータを
更新する。On the other hand, the processor that has received the task allocation decision communication (step 601) determines that it is the processor that is responsible for the task if its own load is less than or equal to s (step 602). Then, the number of tasks to be handled by a processor having a lower rank with respect to the load is calculated to select the task to be handled by itself (step 60).
3) Activate these tasks and update the data stored in the own processor based on the number of accepted tasks. When the load of the own processor exceeds s, the data stored in the own processor is updated based on the number of tasks assigned to the processor whose rank is lower than that of the own processor.
【0033】プロセッサiにおいて、タスクが1個終了
すると、自プロセッサの負荷を更新し、自プロセッサの
負荷Ni 、及び、自プロセッサ名からなる情報をタスク
終了通信として放送通信する。When one task is completed in the processor i, the load of the own processor is updated, and information including the load Ni of the own processor and the name of the own processor is broadcasted as task end communication.
【0034】タスク終了通信を受信したプロセッサは、
自プロセッサの記憶する他プロセッサの負荷についての
データを更新して、これらの値をソートしてプロセッサ
の順序を決めて、Li 、Si 、Ui を計算し、更新す
る。The processor which has received the task end message,
The data on the load of the other processor stored in the own processor is updated, these values are sorted, the order of the processors is determined, and Li, Si, and Ui are calculated and updated.
【0035】このように、プロセッサの負荷がある値よ
り低くなったときにのみタスク群を割り当てることによ
り、各プロセッサの受け持つタスクの個数を減らすこと
ができるので、キャッシュメモリのオーバフローが少な
くなり、キャッシュスラッシングを防止することが可能
となる。As described above, by allocating the task group only when the load of the processor becomes lower than a certain value, the number of tasks assigned to each processor can be reduced. Thrashing can be prevented.
【0036】[0036]
【発明の効果】以上説明したように本発明の負荷分散方
式によれば、新たに発生したタスク群を分担するプロセ
ッサの個数を少なくしたり、各プロセッサの受け持つタ
スクの個数を減らすことができ、これによりキャッシュ
スラッシングを防止することが可能になる。As described above, according to the load distribution method of the present invention, the number of processors sharing a newly generated task group can be reduced, and the number of tasks assigned to each processor can be reduced. This makes it possible to prevent cache thrashing.
【図1】本発明に係る一実施例の負荷分散方式を用いた
計算機システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a computer system using a load distribution method according to an embodiment of the present invention.
【図2】図1におけるプロセス管理装置のデータ格納方
法の一例を示す図である。FIG. 2 is a diagram showing an example of a data storage method of the process management device in FIG.
【図3】本発明に係る一実施例の負荷分散方式における
タスク起動要求通信受信側の動作を説明するためのフロ
ーチャートである。FIG. 3 is a flowchart for explaining the operation of the task activation request communication receiving side in the load distribution method according to one embodiment of the present invention.
【図4】本発明に係る一実施例の負荷分散方式における
タスク配分決定通信受信側の動作を説明するためのフロ
ーチャートである。FIG. 4 is a flowchart for explaining the operation of the task distribution determination communication receiving side in the load distribution method according to one embodiment of the present invention.
【図5】本発明に係る他の実施例の負荷分散方式におけ
るタスク起動要求通信受信側の動作を説明するためのフ
ローチャートである。FIG. 5 is a flowchart illustrating an operation of a task activation request communication receiving side in a load distribution method according to another embodiment of the present invention.
【図6】本発明に係る他の実施例の負荷分散方式におけ
るタスク配分決定通信受信側の動作を説明するためのフ
ローチャートである。FIG. 6 is a flowchart illustrating an operation of a task distribution determination communication receiving side in a load distribution system according to another embodiment of the present invention.
1、2、3、n……プロセッサ 10…通信媒体 21、22、23、2n……プロセス管理装置 31、32、33、3n……処理装置 1, 2, 3, n processor 10 communication medium 21, 22, 23, 2n process management device 31, 32, 33, 3n processing device
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06F 9/46 G06F 15/16 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 7 , DB name) G06F 9/46 G06F 15/16
Claims (2)
ムにおいて、前記各プロセッサは、自身の現在の負荷状
態を相互に通信する機能を有し、新たに処理すべきタス
ク群が発生したとき、このタスク群を自身及び自身より
負荷の低いプロセッサ群が処理する場合の平均負荷を予
測し、この平均負荷が自身の現在の負荷より高く、かつ
自身の次に高い前記他のプロセッサの現在の負荷を越え
ないことを判断したプロセッサが、前記平均負荷以下の
負荷を有するプロセッサに前記新たに発生したタスク群
を割り当てるように前記各プロセッサに対してタスク配
分のための情報を放送通信することを特徴とする負荷分
散方式。1. A computer system having multiple processors, each processor its own current load shape
Has the function of communicating statuses with each other, and
When a task group occurs, this task group
Predict the average load when processing is performed by low-load processors.
The average load is higher than your current load, and
Exceed the current load of the other processor above itself
The processor that has determined that there is no
A task group newly generated in a processor having a load
Task allocation for each processor so that
A load balancing method characterized by broadcasting information for minutes .
ムにおいて、前記各プロセッサは、自身の現在の負荷状
態を相互に通信する機能を有し、新たに処理すべきタス
ク群が発生したとき、このタスク群を自身及び自身より
負荷の低いプロセッサ群が処理する場合の平均負荷を予
測し、この平均負荷が自身の負荷より高く、自身の次に
高い前記他のプロセッサの負荷以下で、かつ、あらかじ
め定めた値以下であることを判断したプロセッサが、前
記平均負荷以下の負荷を有するプロセッサに前記新たに
発生したタスク群を割り当てるように前記各プロセッサ
に対してタスク配分のための情報を放送通信することを
特徴とする負荷分散方式。2. A computer system having multiple processors, each processor its own current load shape
Has the function of communicating statuses with each other, and
When a task group occurs, this task group
Predict the average load when processing is performed by low-load processors.
This average load is higher than your own load,
Below the high load of the other processor, and
The processor that has determined that the value is
Processor with a load less than the average load
Each of the processors so as to allocate a generated task group
A load distribution method characterized in that information for task distribution is broadcasted to a user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03065158A JP3103129B2 (en) | 1991-03-29 | 1991-03-29 | Load balancing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03065158A JP3103129B2 (en) | 1991-03-29 | 1991-03-29 | Load balancing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04302036A JPH04302036A (en) | 1992-10-26 |
JP3103129B2 true JP3103129B2 (en) | 2000-10-23 |
Family
ID=13278796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03065158A Expired - Fee Related JP3103129B2 (en) | 1991-03-29 | 1991-03-29 | Load balancing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3103129B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3891273B2 (en) * | 2002-03-05 | 2007-03-14 | 日本電気株式会社 | Transaction processing load balancing method and system |
KR100834408B1 (en) | 2006-09-14 | 2008-06-04 | 한국전자통신연구원 | The system and the method of task assignment in the distributed processing system |
-
1991
- 1991-03-29 JP JP03065158A patent/JP3103129B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04302036A (en) | 1992-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10733026B2 (en) | Automated workflow selection | |
US9372735B2 (en) | Auto-scaling of pool of virtual machines based on auto-scaling rules of user associated with the pool | |
US5887168A (en) | Computer program product for a shared queue structure for data integrity | |
EP2802981B1 (en) | Decoupling paas resources, jobs, and scheduling | |
US8468246B2 (en) | System and method for allocating resources in a distributed computing system | |
USRE42726E1 (en) | Dynamically modifying the resources of a virtual server | |
CN100407152C (en) | Methods and systems for multi-policy resource scheduling | |
US5889956A (en) | Hierarchical resource management with maximum allowable allocation boundaries | |
US8671134B2 (en) | Method and system for data distribution in high performance computing cluster | |
US7203747B2 (en) | Load balancing system and method in a multiprocessor system | |
EP2255286B1 (en) | Routing workloads and method thereof | |
JP2004199678A (en) | Method, system, and program product of task scheduling | |
JP6881575B2 (en) | Resource allocation systems, management equipment, methods and programs | |
CN111427675B (en) | Data processing method and device and computer readable storage medium | |
JP2015511341A (en) | Pricing resources in virtual machine pools | |
JP2001503170A (en) | Load distribution controller to optimize financial costs | |
CN108900626B (en) | Data storage method, device and system in cloud environment | |
CN112214288B (en) | Pod scheduling method, device, equipment and medium based on Kubernetes cluster | |
CN110244901B (en) | Task allocation method and device and distributed storage system | |
CN115400417A (en) | Game interaction method and device, storage medium and electronic equipment | |
CN113268329B (en) | Request scheduling method, device and storage medium | |
CN112860442A (en) | Resource quota adjusting method and device, computer equipment and storage medium | |
JP3103129B2 (en) | Load balancing method | |
CN113992586A (en) | Flow control method and device, computer equipment and storage medium | |
CN110308991A (en) | A kind of data center's energy conservation optimizing method and system based on Random Task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20000808 |
|
LAPS | Cancellation because of no payment of annual fees |