JPH09179832A - 計算装置および方法 - Google Patents

計算装置および方法

Info

Publication number
JPH09179832A
JPH09179832A JP34026295A JP34026295A JPH09179832A JP H09179832 A JPH09179832 A JP H09179832A JP 34026295 A JP34026295 A JP 34026295A JP 34026295 A JP34026295 A JP 34026295A JP H09179832 A JPH09179832 A JP H09179832A
Authority
JP
Japan
Prior art keywords
calculation
processor
data
task
computon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP34026295A
Other languages
English (en)
Other versions
JP3512080B2 (ja
Inventor
Toru Ohira
徹 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34026295A priority Critical patent/JP3512080B2/ja
Publication of JPH09179832A publication Critical patent/JPH09179832A/ja
Application granted granted Critical
Publication of JP3512080B2 publication Critical patent/JP3512080B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Abstract

(57)【要約】 【課題】 負荷分散において、稼働率を向上させる。 【解決手段】 プロセッサ21は、自らの計算能力と現
在の負荷状況より、計算余力を算出し、コンピュトン2
4という仮想的な粒子の数で、この計算余力を表現し、
サブプロセッサ22に出力する。サブプロセッサ22
は、プロセッサ21、および左右に隣接する計算装置1
より供給されるコンピュトン24を受け取り、受け取っ
たコンピュトン24を、1/3ずつ、隣接する計算装置
1およびプロセッサ21に出力する。プロセッサ21
は、隣接するプロセッサ21のコンピュトン24の数を
調べ、コンピュトン24の多い方向に計算タスクを転送
する。そして、プロセッサ21は、隣接するプロセッサ
21のコンピュトン24の数以上のコンピュトン24を
有している場合、その計算タスク23を処理する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、計算装置および方
法に関し、特に、計算タスク、および所定の接続方向に
おける計算余力のデータを受信し、受信した計算余力の
データに応じて、受信した計算タスクを、処理もしくは
転送する計算装置および方法に関する。
【0002】
【従来の技術】近年、コンピュータシステムの維持や運
営に掛かる費用を削減するために、分散化やダウンサイ
ジングが行われ、従来の大型のコンピュータは、複数
の、安価で、小型のコンピュータが接続されたネットワ
ークで置き換えられている。
【0003】このようなネットワークにおける分散処理
においては、従来、図9に示すように、所定の制御用プ
ロセッサ81を設け、この制御用プロセッサ81が、計
算用プロセッサ82−i(i=1,2,3,・・・)の
計算負荷(計算タスクの量)が均一になるように、計算
タスク83を振り分けている。
【0004】しかしながら、このように、制御用プロセ
ッサ81が、計算タスク83の振り分けを行うようにす
ると、計算負荷の分散の処理が、制御用プロセッサ81
に集中するため、多数の計算用プロセッサ82−iを使
用する場合、制御用プロセッサ81の処理能力が限界に
達してしまい、分散処理の制御が困難となる。
【0005】また、制御用プロセッサ81だけで、分散
処理の制御を行うので、この制御用プロセッサ81が故
障した場合、コンピュータシステム全体が動作不能に陥
るという問題も生じる。
【0006】従って、このような制御用プロセッサ81
を使用せずに、計算タスクの自律的な分散を行うための
方法が考えられている。
【0007】例えば、図10(a)に示すような1次元
状に接続されているプロセッサ91−iにおいて、各プ
ロセッサ91−iが、隣接するプロセッサ91−(i−
1),91−(i+1)の稼働状態を監視し、隣接する
プロセッサ91−(i−1),91−(i+1)の負荷
が軽いと判断すると、そのプロセッサに、所定の量の計
算タスク92の転送を行うようにすることが考えられ
る。
【0008】このようにすることで、図10(b)に示
すように、計算タスク93を多く有しているプロセッサ
(図10(a)におけるプロセッサ91−2)から、計
算タスク93を有していないプロセッサ(図10(a)
におけるプロセッサ91−3)に、計算タスク93が移
動するので、負荷の自律的な分散を行うことができる。
【0009】
【発明が解決しようとする課題】しかしながら、上述の
ように負荷の分散を行うと、所定の負荷が重いプロセッ
サは、2つ以上離れている隣りのプロセッサの負荷が軽
い場合においても、隣接するプロセッサがある程度の負
荷(計算タスク)を有していると、計算タスクを移動さ
せることができない。従って、局所的に計算タスクの分
布が安定してしまい、稼働しないプロセッサが生じたま
まとなり、最適な負荷分散が行われないことになるとい
う問題を有している。
【0010】例えば、図11に示すように、プロセッサ
91−2が有する計算タスク92は、プロセッサ91−
3が、ある程度の計算タスク92を有しているので、プ
ロセッサ91−4,91−5が計算タスク92を有して
いないにもかかわらず、プロセッサ91−3には転送さ
れない。
【0011】本発明は、このような状況に鑑みてなされ
たもので、計算余力を各プロセッサにおいて算出し、各
装置において、その計算余力の和を計算しながら、各接
続方向に所定の割合で伝達させていくことで、隣接する
プロセッサの状態だけでなく、各接続方向全体の負荷の
量を把握し、負荷の量が少ない方向に計算タスクを転送
することで、稼働しないプロセッサが生じないように
し、最適な負荷分散を行うようにするものである。
【0012】
【課題を解決するための手段】請求項1に記載の計算装
置は、計算タスク、および所定の接続方向における計算
余力のデータを受信する受信手段と、受信手段によって
受信された計算余力のデータに応じて、計算タスクを処
理する処理手段と、受信手段によって受信された計算余
力のデータに応じて、計算タスクを送信し、さらに、処
理手段の計算余力と、受信手段によって受信された計算
余力のデータより計算される新たな計算余力のデータ
を、所定の接続方向に送信する送信手段とを備えること
を特徴とする。
【0013】請求項2に記載の計算方法は、計算タス
ク、および所定の接続方向における計算余力のデータを
受信し、受信した計算余力のデータに応じて、計算タス
クを所定の処理部によって処理し、受信した計算余力の
データに応じて、計算タスクを送信し、さらに、処理部
の計算余力と、受信した計算余力のデータより計算され
る新たな計算余力のデータを、所定の接続方向に送信す
ることを特徴とする。
【0014】請求項1に記載の計算装置においては、受
信手段は、計算タスク、および所定の接続方向における
計算余力のデータを受信し、処理手段は、受信手段によ
って受信された計算余力のデータに応じて、計算タスク
を処理し、送信手段は、受信手段によって受信された計
算余力のデータに応じて、計算タスクを送信し、さら
に、処理手段の計算余力と、受信手段によって受信され
た計算余力のデータより計算される新たな計算余力のデ
ータを、所定の接続方向に送信する。
【0015】請求項2に記載の計算方法においては、計
算タスク、および所定の接続方向における計算余力のデ
ータを受信し、受信した計算余力のデータに応じて、計
算タスクを所定の処理部によって処理し、受信した計算
余力のデータに応じて、計算タスクを送信し、さらに、
処理部の計算余力と、受信した計算余力のデータより計
算される新たな計算余力のデータを、所定の接続方向に
送信する。
【0016】
【発明の実施の形態】図1は、本発明の計算装置の一実
施例を、複数個、接続した様子を示している。この接続
例においては、計算装置1−i(i=1,2,3,・・
・)は、プロセッサ21−iおよびサブプロセッサ22
−iを有し、1次元状に接続されている。なお、以下の
説明において、特に区別する必要がない場合、−iの記
号は省略する。
【0017】プロセッサ21は、他の(隣の)プロセッ
サ21から計算タスク23を受信し、所定の条件に従っ
て、受信した計算タスク23をさらに他の(隣の)計算
装置1に送信するか、あるいは、保持し、実行するよう
になされている。
【0018】プロセッサ21は、自らの計算能力と現在
の負荷状況より、計算余力(現在処理中の負荷以外に処
理可能な負荷の量)を算出する。そして、計算余力を示
す指標として、コンピュトン(Computon)24という仮
想的な粒子を導入し、計算余力を、このコンピュトン2
4の数で表現し、算出した計算余力に対応する数のコン
ピュトン24を、仮想的に、サブプロセッサ22に出力
するようになされている(実際には、プロセッサ21
は、コンピュトン24の数を、データとしてサブプロセ
ッサ22に出力する)。
【0019】サブプロセッサ22は、仮想的に、プロセ
ッサ21、および隣接する計算装置1のサブプロセッサ
22よりコンピュトン24を受け取り、これらのコンピ
ュトン24を、1/3ずつ、2方向において隣接する計
算装置1に出力し、残りの1/3をプロセッサ21に出
力するようになされている。プロセッサ21に出力され
たコンピュトン24は、プロセッサ21において、消失
するものとする(実際には、コンピュトン24の数のデ
ータの授受が行われる)。
【0020】図2は、本発明の計算装置1の一実施例の
一構成例を示している。計算装置1は、プロセッサ21
とサブプロセッサ22で構成されている。プロセッサ2
1においては、CPU41(処理手段)は、ROM42
に記憶されているプログラムに従って、各種処理を行う
ようになされている。
【0021】例えば、CPU41は、現在の負荷状況に
応じた、コンピュトン24の数を計算し、そのコンピュ
トン24の数をインターフェース45を介して、サブプ
ロセッサ22に出力するようになされている。
【0022】RAM43は、CPU41が各種処理を行
うとき、一時的にデータを記憶するようになされてい
る。
【0023】ネットワークインターフェース44(受信
手段、送信手段)は、他の計算装置1のネットワークイ
ンターフェース44に接続され、計算タスク23の授受
を行うようになされている。
【0024】サブプロセッサ22においては、CPU6
1は、ROM62に記憶されているプログラムに従っ
て、各種処理を行い、例えば、ネットワークインターフ
ェース64を介して、受信したコンピュトン24の数
と、インターフェース65を介して受け取ったコンピュ
トン24の数より、隣接する計算装置1に送信するコン
ピュトン24の数を算出するようになされている。
【0025】RAM63は、CPU61が各種処理を行
うとき、一時的にデータを記憶するようになされてい
る。
【0026】ネットワークインターフェース64(受信
手段、送信手段)は、他の計算装置1のネットワークイ
ンターフェース64に接続され、コンピュトン24の数
の授受を行うようになされている。
【0027】次に、図3乃至図6のフローチャートを参
照して、計算装置1の動作について説明する。
【0028】最初に、図3のフローチャートを参照し
て、計算装置1のプロセッサ21のメインルーチンにお
ける動作について説明する。
【0029】ステップS1において、CPU41は、プ
ロセッサ21が計算タスク23を有しているか否かを判
断し、計算タスク23を有していないと判断した場合、
計算タスク23が他の計算装置1より転送されてくるま
で待機する。
【0030】CPU41は、プロセッサ21が計算タス
ク23を有している場合、ステップS2に進み、現在R
AM43に保持している計算タスク23のうち、所定の
順番で、計算タスク23の処理を行う。そして、すべて
の計算タスク23の処理を終えると、CPU41は、ス
テップS1に戻り、計算タスク23が他の計算装置1か
ら転送されてくるまで待機する。
【0031】CPU41は、ステップS2における計算
タスク23の処理において、新たな計算タスク23が発
生すると、タスク転送割り込みを発生させる。
【0032】次に、図4のフローチャートを参照して、
このタスク転送割り込みにおけるプロセッサ21の動作
について説明する。
【0033】最初に、ステップS11において、CPU
41は、隣接する計算装置1(右または左方向に接続さ
れている計算装置1)より供給されるコンピュトン24
の数を調べる。
【0034】次に、ステップS12において、CPU4
1は、左方向に接続されている計算装置1より供給され
るコンピュトン24の数NL、右方向に接続されている
計算装置1より供給されるコンピュトン24の数NR
および自らの計算装置1のコンピュトン24の数Nを比
較し、NがNL以上であり、かつ、NがNR以上であると
判断した場合、ステップS13において、新たな計算タ
スク23を保持し、メインルーチンのステップS2にお
いて、処理を行う。
【0035】CPU41は、ステップS12において、
NがNLより小さい、または、NがNRより小さいと判断
した場合、ステップS14に進み、NLがNRより小さい
か否かを判断する。CPU41は、NLがNRより小さい
と判断した場合、ステップS15に進み、新たな計算タ
スク23を、右方向に接続されている計算装置1に、ネ
ットワークインターフェース44を介して転送する。
【0036】ステップS14において、CPU41は、
LがNR以上であると判断した場合、ステップS16に
進み、NLがNRより大きいか否かを判断し、NLがNR
り大きいと判断した場合、ステップS17に進み、新た
な計算タスク23を、左方向に接続されている計算装置
1に、ネットワークインターフェース44を介して転送
する。
【0037】CPU41は、ステップS16において、
LがNR以下であると判断した場合(即ち、NLとNR
等しい場合)、ステップS18に進み、区間(0,1)
で乱数を発生させ、ステップS19において、その乱数
が0.5より小さいか否かを判断し、その乱数が0.5
より小さいと判断された場合、ステップS17に進み、
新たな計算タスク23を、左方向に接続されている計算
装置1に転送する。
【0038】CPU41は、ステップS19において、
乱数が0.5以上であると判断した場合、ステップS1
5に進み、新たな計算タスク23を、右方向に接続され
ている計算装置1に転送する。
【0039】このようにして、新たな計算タスク23が
発生した場合、そのCPU41は、その計算タスク23
を、接続されている他の計算装置1に転送するか、ある
いは自らが処理するために保持する。
【0040】この計算タスク23が転送された場合、転
送先のプロセッサ21は、同様に、タスク転送割り込み
を発生させ、その計算タスク23を、接続されている他
の計算装置1に転送するか、あるいは自らが処理する。
【0041】このように、新たに発生した計算タスク2
3は、順次、計算負荷が少ない方向(コンピュトン24
の数が大きい方向)に転送されていき、計算負荷が最も
少ない(左および右方向のコンピュトン24の数が同数
となる)計算装置1において、処理される。
【0042】従って、局所的に計算タスク23の分布が
安定した場合においても、全体として計算タスク23が
均一に分散されていなければ、計算タスク23は、計算
負荷の少ない方向に移動していく。
【0043】なお、プロセッサ21は、所定の時間間隔
で割り込みを発生させ、コンピュトン24の数を計算す
るようになされている。
【0044】図5のフローチャートを参照して、この割
り込みについて説明する。
【0045】ステップS21において、CPU41は、
現在の計算タスク23の量より、プロセッサ21の計算
余力に対応する、コンピュトン24の数を計算する。
【0046】そして、ステップS22において、CPU
41は、そのコンピュトン24の数を、サブプロセッサ
22にインターフェース45を介して送信する。
【0047】このようにして、サブプロセッサ22は、
所定の時間間隔で、プロセッサ21よりコンピュトン2
4の数を供給される。
【0048】次に、図6のフローチャートを参照して、
計算装置1のサブプロセッサ22の動作について説明す
る。
【0049】CPU61は、ステップS31において、
プロセッサ21よりインターフェース65を介してコン
ピュトン24の数が供給されるまで待機し、プロセッサ
21よりコンピュトン24の数が供給されると、ステッ
プS32に進む。
【0050】ステップS32において、CPU61は、
プロセッサ21より供給されたコンピュトン24の数
と、左右方向に接続されている他の計算装置1より供給
されるコンピュトン24の数の総和を計算する。
【0051】そして、ステップS33において、CPU
61は、その総和の1/3の数を、コンピュトン24の
数として、左右方向に接続されている他の計算装置1
に、ネットワークインターフェース64を介して送信す
る。
【0052】ステップS34において、CPU61は、
左右方向に接続されている他の計算装置1より、ネット
ワークインターフェース64を介して、コンピュトン2
4の数を受信し、RAM63に記憶させる。さらに、こ
れらのコンピュトンの数は、インターフェース65を介
して、プロセッサ21に供給され、タスク転送割り込み
処理において利用される。
【0053】以上のようにして、サブプロセッサ22
が、各接続方向に、所定の割合でコンピュトン24を伝
播させていくことで、全体的な負荷状況に基づいて計算
タスク23が転送されるので、より高い稼働率で、分散
処理を行うことができる。
【0054】図7は、本実施例を使用した場合の計算負
荷の分布の一例を示している。この例においては、所定
のプロセッサ21が、順次、計算タスク23を発生して
いる。従って、そのプロセッサ21の周辺(図7(a)
の区間a)における計算負荷は大きくなり、それに応じ
てその領域(図7(b)の区間a)のコンピュトン24
の数は減少する。
【0055】図7(b)に示すようにコンピュトン24
が分布している場合、区間aで発生した計算タスク23
は、コンピュトン24の数の大きい、区間bもしくは区
間cに転送されていき、図7(a)に示すように負荷分
散される。
【0056】また、図8は、計算装置1を80個、1次
元リング状に接続し、所定の数の計算タスク23の処理
を行った場合における、稼働するプロセッサ21の数の
推移の一例を示している。
【0057】計算装置1を80個、1次元リング状に接
続し、各計算装置1において、計算タスク23を処理し
ていないプロセッサ21は、16個のコンピュトンを放
出する。そして、計算タスク23が1個増える毎に、放
出するコンピュトン24は、2個ずつ減少するものとす
る。
【0058】いま、計算タスク23の発生する時間間隔
をtとし、コンピュトン24の放出、および計算タスク
23の移動ステップを、0.01tとする。そして、計
算タスク23は、移動し続けた場合、時間0.8tで移
動を停止し、処理時間を150tとする。
【0059】このような条件で、計算タスク23を10
00個、所定の計算装置1に発生させると、そのときの
計算装置1の稼働状況は、図8に曲線aで示すようにな
り、時間400t以降において、80台のうちの約56
台が稼働している。従って、稼働率は70%(=56/
80×100%)となる。稼働している計算装置1の台
数は、このような処理を100回実行したときの、各実
行時の稼働台数の平均値としている。
【0060】なお、同様な条件で、コンピュトン24を
使用せずに、隣接するプロセッサ21の負荷だけを考慮
して、計算タスク23の移動を行う場合、図8に曲線b
で示すように、80台のうちの約44台の計算装置が稼
働する。従って、稼働率は、55%(=44/80×1
00%)となる。
【0061】以上のように、各計算装置1の計算余力を
コンピュトン24で表現し、そのコンピュトン24を各
接続方向に所定の割合で伝播させていくことで、全体の
負荷状況に応じた計算タスク23の転送を行い、計算負
荷の分散を行う。
【0062】なお、本実施例においては、計算装置1
は、1次元状に接続されているが、2次元以上の高次な
形態で接続することも可能である。
【0063】上記実施例においては、同一の計算能力を
有する計算装置1を互いに接続しているが、異なる計算
能力を有する計算装置を接続してもよい。
【0064】
【発明の効果】以上のように、本発明の計算装置および
方法によれば、計算タスク、および所定の接続方向にお
ける計算余力のデータを受信し、受信した計算余力のデ
ータに応じて、計算タスクを所定の処理部によって処理
し、受信した計算余力のデータに応じて、計算タスクを
送信し、さらに、処理部の計算余力と、受信した計算余
力のデータより計算される新たな計算余力のデータを、
所定の接続方向に送信するようにしたので、新たに発生
した計算タスクは、負荷の量が少ない方向に転送されて
いき、負荷の量が少ないプロセッサによって処理され、
最適な負荷分散を行うことができる。
【図面の簡単な説明】
【図1】本発明の計算装置の一実施例を、複数個、接続
した様子を示すブロック図である。
【図2】本発明の計算装置の一実施例の構成を示すブロ
ック図である。
【図3】図2のプロセッサの動作を説明するフローチャ
ートである。
【図4】図2のプロセッサの動作を説明するフローチャ
ートである。
【図5】図2のプロセッサの動作を説明するフローチャ
ートである。
【図6】図2のサブプロセッサの動作を説明するフロー
チャートである。
【図7】図1の計算装置の接続例において、計算タスク
が分散されている様子を示す図である。
【図8】図1の計算装置の接続例における、稼働してい
る計算装置の数の推移を示す図である。
【図9】制御用プロセッサを有する、従来の分散処理シ
ステムの一例を示すブロック図である。
【図10】従来の分散処理システムの他の例を示すブロ
ック図である。
【図11】図10の分散処理システムにおいて、局所的
に安定状態になったときの計算タスクの分布を示す図で
ある。
【符号の説明】
1 計算装置 21 プロセッサ 22 サブプロセッサ 23 計算タスク 24 コンピュトン 41 CPU 42 ROM 43 RAM 44 ネットワークインターフェース 45 インターフェース 61 CPU 62 ROM 63 RAM 64 ネットワークインターフェース 65 インターフェース 81 制御用プロセッサ 82 計算用プロセッサ 83 計算タスク 91 プロセッサ 92 計算タスク

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 互いに接続され、複数の計算タスクを分
    散させて実行する計算装置において、 前記計算タスク、および所定の接続方向における計算余
    力のデータを受信する受信手段と、 前記受信手段によって受信された計算余力のデータに応
    じて、前記計算タスクを処理する処理手段と、 前記受信手段によって受信された計算余力のデータに応
    じて、前記計算タスクを送信し、さらに、前記処理手段
    の計算余力と、前記受信手段によって受信された前記計
    算余力のデータより計算される新たな計算余力のデータ
    を、所定の接続方向に送信する送信手段とを備えること
    を特徴とする計算装置。
  2. 【請求項2】 複数の計算タスクを分散させて実行する
    計算方法において、 前記計算タスク、および所定の接続方向における計算余
    力のデータを受信し、 受信した前記計算余力のデータに応じて、前記計算タス
    クを所定の処理部によって処理し、 受信した前記計算余力のデータに応じて、前記計算タス
    クを送信し、さらに、前記処理部の計算余力と、受信し
    た前記計算余力のデータより計算される新たな計算余力
    のデータを、所定の接続方向に送信することを特徴とす
    る計算方法。
JP34026295A 1995-12-27 1995-12-27 計算装置および方法 Expired - Fee Related JP3512080B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34026295A JP3512080B2 (ja) 1995-12-27 1995-12-27 計算装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34026295A JP3512080B2 (ja) 1995-12-27 1995-12-27 計算装置および方法

Publications (2)

Publication Number Publication Date
JPH09179832A true JPH09179832A (ja) 1997-07-11
JP3512080B2 JP3512080B2 (ja) 2004-03-29

Family

ID=18335262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34026295A Expired - Fee Related JP3512080B2 (ja) 1995-12-27 1995-12-27 計算装置および方法

Country Status (1)

Country Link
JP (1) JP3512080B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005116832A1 (ja) * 2004-05-31 2005-12-08 International Business Machines Corporation 分散処理環境におけるジョブの実行を制御するためのコンピュータシステム、方法及びプログラム
JP2017129921A (ja) * 2016-01-18 2017-07-27 トヨタ自動車株式会社 タスク実行方法およびタスク実行システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005116832A1 (ja) * 2004-05-31 2005-12-08 International Business Machines Corporation 分散処理環境におけるジョブの実行を制御するためのコンピュータシステム、方法及びプログラム
JP2017129921A (ja) * 2016-01-18 2017-07-27 トヨタ自動車株式会社 タスク実行方法およびタスク実行システム

Also Published As

Publication number Publication date
JP3512080B2 (ja) 2004-03-29

Similar Documents

Publication Publication Date Title
US7058957B1 (en) Cluster event notification system
WO2003014929A1 (en) Controlling processing networks
JPS61253572A (ja) 疎結合マルチプロセツサ・システムの負荷配分方式
CN102999385A (zh) 计算设备中多处理器协同处理方法
US20040205767A1 (en) Controlling processing networks
JP3512080B2 (ja) 計算装置および方法
CN110633145B (zh) 一种分布式系统内实时通讯方法、装置及分布式系统
JP2004220597A (ja) センダ・レシーバ要求再施行方法および装置
CN112306670A (zh) 一种Docker虚拟化场景下的服务器集群优化方法
JP2004171172A (ja) プロセッサ負荷制御機能をもつ記憶制御装置
Jo et al. A network model based on fuzzy queueing system
JPH0635870A (ja) 負荷分散システム
JPH09319721A (ja) 処理装置および方法
JPH06309180A (ja) コンピュータシステムの割込制御装置
JPS63211060A (ja) マルチプロセツサシステムにおける負荷分散制御方式
JPS59114665A (ja) 並列計算機システム
CN118674610A (zh) 一种基于区块链的ai计算管控方法、系统及设备
JP3569341B2 (ja) 並列型計算機システム
Dummermuth Distributed real-time control
JP2004038715A (ja) 並列計算処理方法
JPS619742A (ja) 事象管理方式
JP3123425B2 (ja) 割り込み負荷分散装置
JPH04264926A (ja) Job制御システム
Climent et al. An hybrid parallel algorithm for solving tridiagonal linear systems versus the Wang’s method in a Cray T3D BSP computer
CN112162867A (zh) 一种智能生产线柔性生产的死锁预防方法及其应用

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031231

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees