JPH09179832A - 計算装置および方法 - Google Patents
計算装置および方法Info
- Publication number
- JPH09179832A JPH09179832A JP34026295A JP34026295A JPH09179832A JP H09179832 A JPH09179832 A JP H09179832A JP 34026295 A JP34026295 A JP 34026295A JP 34026295 A JP34026295 A JP 34026295A JP H09179832 A JPH09179832 A JP H09179832A
- Authority
- JP
- Japan
- Prior art keywords
- calculation
- processor
- data
- task
- computon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Multi Processors (AREA)
Abstract
在の負荷状況より、計算余力を算出し、コンピュトン2
4という仮想的な粒子の数で、この計算余力を表現し、
サブプロセッサ22に出力する。サブプロセッサ22
は、プロセッサ21、および左右に隣接する計算装置1
より供給されるコンピュトン24を受け取り、受け取っ
たコンピュトン24を、1/3ずつ、隣接する計算装置
1およびプロセッサ21に出力する。プロセッサ21
は、隣接するプロセッサ21のコンピュトン24の数を
調べ、コンピュトン24の多い方向に計算タスクを転送
する。そして、プロセッサ21は、隣接するプロセッサ
21のコンピュトン24の数以上のコンピュトン24を
有している場合、その計算タスク23を処理する。
Description
法に関し、特に、計算タスク、および所定の接続方向に
おける計算余力のデータを受信し、受信した計算余力の
データに応じて、受信した計算タスクを、処理もしくは
転送する計算装置および方法に関する。
営に掛かる費用を削減するために、分散化やダウンサイ
ジングが行われ、従来の大型のコンピュータは、複数
の、安価で、小型のコンピュータが接続されたネットワ
ークで置き換えられている。
においては、従来、図9に示すように、所定の制御用プ
ロセッサ81を設け、この制御用プロセッサ81が、計
算用プロセッサ82−i(i=1,2,3,・・・)の
計算負荷(計算タスクの量)が均一になるように、計算
タスク83を振り分けている。
ッサ81が、計算タスク83の振り分けを行うようにす
ると、計算負荷の分散の処理が、制御用プロセッサ81
に集中するため、多数の計算用プロセッサ82−iを使
用する場合、制御用プロセッサ81の処理能力が限界に
達してしまい、分散処理の制御が困難となる。
処理の制御を行うので、この制御用プロセッサ81が故
障した場合、コンピュータシステム全体が動作不能に陥
るという問題も生じる。
を使用せずに、計算タスクの自律的な分散を行うための
方法が考えられている。
状に接続されているプロセッサ91−iにおいて、各プ
ロセッサ91−iが、隣接するプロセッサ91−(i−
1),91−(i+1)の稼働状態を監視し、隣接する
プロセッサ91−(i−1),91−(i+1)の負荷
が軽いと判断すると、そのプロセッサに、所定の量の計
算タスク92の転送を行うようにすることが考えられ
る。
すように、計算タスク93を多く有しているプロセッサ
(図10(a)におけるプロセッサ91−2)から、計
算タスク93を有していないプロセッサ(図10(a)
におけるプロセッサ91−3)に、計算タスク93が移
動するので、負荷の自律的な分散を行うことができる。
ように負荷の分散を行うと、所定の負荷が重いプロセッ
サは、2つ以上離れている隣りのプロセッサの負荷が軽
い場合においても、隣接するプロセッサがある程度の負
荷(計算タスク)を有していると、計算タスクを移動さ
せることができない。従って、局所的に計算タスクの分
布が安定してしまい、稼働しないプロセッサが生じたま
まとなり、最適な負荷分散が行われないことになるとい
う問題を有している。
91−2が有する計算タスク92は、プロセッサ91−
3が、ある程度の計算タスク92を有しているので、プ
ロセッサ91−4,91−5が計算タスク92を有して
いないにもかかわらず、プロセッサ91−3には転送さ
れない。
たもので、計算余力を各プロセッサにおいて算出し、各
装置において、その計算余力の和を計算しながら、各接
続方向に所定の割合で伝達させていくことで、隣接する
プロセッサの状態だけでなく、各接続方向全体の負荷の
量を把握し、負荷の量が少ない方向に計算タスクを転送
することで、稼働しないプロセッサが生じないように
し、最適な負荷分散を行うようにするものである。
置は、計算タスク、および所定の接続方向における計算
余力のデータを受信する受信手段と、受信手段によって
受信された計算余力のデータに応じて、計算タスクを処
理する処理手段と、受信手段によって受信された計算余
力のデータに応じて、計算タスクを送信し、さらに、処
理手段の計算余力と、受信手段によって受信された計算
余力のデータより計算される新たな計算余力のデータ
を、所定の接続方向に送信する送信手段とを備えること
を特徴とする。
ク、および所定の接続方向における計算余力のデータを
受信し、受信した計算余力のデータに応じて、計算タス
クを所定の処理部によって処理し、受信した計算余力の
データに応じて、計算タスクを送信し、さらに、処理部
の計算余力と、受信した計算余力のデータより計算され
る新たな計算余力のデータを、所定の接続方向に送信す
ることを特徴とする。
信手段は、計算タスク、および所定の接続方向における
計算余力のデータを受信し、処理手段は、受信手段によ
って受信された計算余力のデータに応じて、計算タスク
を処理し、送信手段は、受信手段によって受信された計
算余力のデータに応じて、計算タスクを送信し、さら
に、処理手段の計算余力と、受信手段によって受信され
た計算余力のデータより計算される新たな計算余力のデ
ータを、所定の接続方向に送信する。
算タスク、および所定の接続方向における計算余力のデ
ータを受信し、受信した計算余力のデータに応じて、計
算タスクを所定の処理部によって処理し、受信した計算
余力のデータに応じて、計算タスクを送信し、さらに、
処理部の計算余力と、受信した計算余力のデータより計
算される新たな計算余力のデータを、所定の接続方向に
送信する。
施例を、複数個、接続した様子を示している。この接続
例においては、計算装置1−i(i=1,2,3,・・
・)は、プロセッサ21−iおよびサブプロセッサ22
−iを有し、1次元状に接続されている。なお、以下の
説明において、特に区別する必要がない場合、−iの記
号は省略する。
サ21から計算タスク23を受信し、所定の条件に従っ
て、受信した計算タスク23をさらに他の(隣の)計算
装置1に送信するか、あるいは、保持し、実行するよう
になされている。
の負荷状況より、計算余力(現在処理中の負荷以外に処
理可能な負荷の量)を算出する。そして、計算余力を示
す指標として、コンピュトン(Computon)24という仮
想的な粒子を導入し、計算余力を、このコンピュトン2
4の数で表現し、算出した計算余力に対応する数のコン
ピュトン24を、仮想的に、サブプロセッサ22に出力
するようになされている(実際には、プロセッサ21
は、コンピュトン24の数を、データとしてサブプロセ
ッサ22に出力する)。
ッサ21、および隣接する計算装置1のサブプロセッサ
22よりコンピュトン24を受け取り、これらのコンピ
ュトン24を、1/3ずつ、2方向において隣接する計
算装置1に出力し、残りの1/3をプロセッサ21に出
力するようになされている。プロセッサ21に出力され
たコンピュトン24は、プロセッサ21において、消失
するものとする(実際には、コンピュトン24の数のデ
ータの授受が行われる)。
一構成例を示している。計算装置1は、プロセッサ21
とサブプロセッサ22で構成されている。プロセッサ2
1においては、CPU41(処理手段)は、ROM42
に記憶されているプログラムに従って、各種処理を行う
ようになされている。
応じた、コンピュトン24の数を計算し、そのコンピュ
トン24の数をインターフェース45を介して、サブプ
ロセッサ22に出力するようになされている。
うとき、一時的にデータを記憶するようになされてい
る。
手段、送信手段)は、他の計算装置1のネットワークイ
ンターフェース44に接続され、計算タスク23の授受
を行うようになされている。
1は、ROM62に記憶されているプログラムに従っ
て、各種処理を行い、例えば、ネットワークインターフ
ェース64を介して、受信したコンピュトン24の数
と、インターフェース65を介して受け取ったコンピュ
トン24の数より、隣接する計算装置1に送信するコン
ピュトン24の数を算出するようになされている。
うとき、一時的にデータを記憶するようになされてい
る。
手段、送信手段)は、他の計算装置1のネットワークイ
ンターフェース64に接続され、コンピュトン24の数
の授受を行うようになされている。
照して、計算装置1の動作について説明する。
て、計算装置1のプロセッサ21のメインルーチンにお
ける動作について説明する。
ロセッサ21が計算タスク23を有しているか否かを判
断し、計算タスク23を有していないと判断した場合、
計算タスク23が他の計算装置1より転送されてくるま
で待機する。
ク23を有している場合、ステップS2に進み、現在R
AM43に保持している計算タスク23のうち、所定の
順番で、計算タスク23の処理を行う。そして、すべて
の計算タスク23の処理を終えると、CPU41は、ス
テップS1に戻り、計算タスク23が他の計算装置1か
ら転送されてくるまで待機する。
タスク23の処理において、新たな計算タスク23が発
生すると、タスク転送割り込みを発生させる。
このタスク転送割り込みにおけるプロセッサ21の動作
について説明する。
41は、隣接する計算装置1(右または左方向に接続さ
れている計算装置1)より供給されるコンピュトン24
の数を調べる。
1は、左方向に接続されている計算装置1より供給され
るコンピュトン24の数NL、右方向に接続されている
計算装置1より供給されるコンピュトン24の数NR、
および自らの計算装置1のコンピュトン24の数Nを比
較し、NがNL以上であり、かつ、NがNR以上であると
判断した場合、ステップS13において、新たな計算タ
スク23を保持し、メインルーチンのステップS2にお
いて、処理を行う。
NがNLより小さい、または、NがNRより小さいと判断
した場合、ステップS14に進み、NLがNRより小さい
か否かを判断する。CPU41は、NLがNRより小さい
と判断した場合、ステップS15に進み、新たな計算タ
スク23を、右方向に接続されている計算装置1に、ネ
ットワークインターフェース44を介して転送する。
NLがNR以上であると判断した場合、ステップS16に
進み、NLがNRより大きいか否かを判断し、NLがNRよ
り大きいと判断した場合、ステップS17に進み、新た
な計算タスク23を、左方向に接続されている計算装置
1に、ネットワークインターフェース44を介して転送
する。
NLがNR以下であると判断した場合(即ち、NLとNRが
等しい場合)、ステップS18に進み、区間(0,1)
で乱数を発生させ、ステップS19において、その乱数
が0.5より小さいか否かを判断し、その乱数が0.5
より小さいと判断された場合、ステップS17に進み、
新たな計算タスク23を、左方向に接続されている計算
装置1に転送する。
乱数が0.5以上であると判断した場合、ステップS1
5に進み、新たな計算タスク23を、右方向に接続され
ている計算装置1に転送する。
発生した場合、そのCPU41は、その計算タスク23
を、接続されている他の計算装置1に転送するか、ある
いは自らが処理するために保持する。
送先のプロセッサ21は、同様に、タスク転送割り込み
を発生させ、その計算タスク23を、接続されている他
の計算装置1に転送するか、あるいは自らが処理する。
3は、順次、計算負荷が少ない方向(コンピュトン24
の数が大きい方向)に転送されていき、計算負荷が最も
少ない(左および右方向のコンピュトン24の数が同数
となる)計算装置1において、処理される。
安定した場合においても、全体として計算タスク23が
均一に分散されていなければ、計算タスク23は、計算
負荷の少ない方向に移動していく。
で割り込みを発生させ、コンピュトン24の数を計算す
るようになされている。
り込みについて説明する。
現在の計算タスク23の量より、プロセッサ21の計算
余力に対応する、コンピュトン24の数を計算する。
41は、そのコンピュトン24の数を、サブプロセッサ
22にインターフェース45を介して送信する。
所定の時間間隔で、プロセッサ21よりコンピュトン2
4の数を供給される。
計算装置1のサブプロセッサ22の動作について説明す
る。
プロセッサ21よりインターフェース65を介してコン
ピュトン24の数が供給されるまで待機し、プロセッサ
21よりコンピュトン24の数が供給されると、ステッ
プS32に進む。
プロセッサ21より供給されたコンピュトン24の数
と、左右方向に接続されている他の計算装置1より供給
されるコンピュトン24の数の総和を計算する。
61は、その総和の1/3の数を、コンピュトン24の
数として、左右方向に接続されている他の計算装置1
に、ネットワークインターフェース64を介して送信す
る。
左右方向に接続されている他の計算装置1より、ネット
ワークインターフェース64を介して、コンピュトン2
4の数を受信し、RAM63に記憶させる。さらに、こ
れらのコンピュトンの数は、インターフェース65を介
して、プロセッサ21に供給され、タスク転送割り込み
処理において利用される。
が、各接続方向に、所定の割合でコンピュトン24を伝
播させていくことで、全体的な負荷状況に基づいて計算
タスク23が転送されるので、より高い稼働率で、分散
処理を行うことができる。
荷の分布の一例を示している。この例においては、所定
のプロセッサ21が、順次、計算タスク23を発生して
いる。従って、そのプロセッサ21の周辺(図7(a)
の区間a)における計算負荷は大きくなり、それに応じ
てその領域(図7(b)の区間a)のコンピュトン24
の数は減少する。
が分布している場合、区間aで発生した計算タスク23
は、コンピュトン24の数の大きい、区間bもしくは区
間cに転送されていき、図7(a)に示すように負荷分
散される。
元リング状に接続し、所定の数の計算タスク23の処理
を行った場合における、稼働するプロセッサ21の数の
推移の一例を示している。
続し、各計算装置1において、計算タスク23を処理し
ていないプロセッサ21は、16個のコンピュトンを放
出する。そして、計算タスク23が1個増える毎に、放
出するコンピュトン24は、2個ずつ減少するものとす
る。
をtとし、コンピュトン24の放出、および計算タスク
23の移動ステップを、0.01tとする。そして、計
算タスク23は、移動し続けた場合、時間0.8tで移
動を停止し、処理時間を150tとする。
00個、所定の計算装置1に発生させると、そのときの
計算装置1の稼働状況は、図8に曲線aで示すようにな
り、時間400t以降において、80台のうちの約56
台が稼働している。従って、稼働率は70%(=56/
80×100%)となる。稼働している計算装置1の台
数は、このような処理を100回実行したときの、各実
行時の稼働台数の平均値としている。
使用せずに、隣接するプロセッサ21の負荷だけを考慮
して、計算タスク23の移動を行う場合、図8に曲線b
で示すように、80台のうちの約44台の計算装置が稼
働する。従って、稼働率は、55%(=44/80×1
00%)となる。
コンピュトン24で表現し、そのコンピュトン24を各
接続方向に所定の割合で伝播させていくことで、全体の
負荷状況に応じた計算タスク23の転送を行い、計算負
荷の分散を行う。
は、1次元状に接続されているが、2次元以上の高次な
形態で接続することも可能である。
有する計算装置1を互いに接続しているが、異なる計算
能力を有する計算装置を接続してもよい。
方法によれば、計算タスク、および所定の接続方向にお
ける計算余力のデータを受信し、受信した計算余力のデ
ータに応じて、計算タスクを所定の処理部によって処理
し、受信した計算余力のデータに応じて、計算タスクを
送信し、さらに、処理部の計算余力と、受信した計算余
力のデータより計算される新たな計算余力のデータを、
所定の接続方向に送信するようにしたので、新たに発生
した計算タスクは、負荷の量が少ない方向に転送されて
いき、負荷の量が少ないプロセッサによって処理され、
最適な負荷分散を行うことができる。
した様子を示すブロック図である。
ック図である。
ートである。
ートである。
ートである。
チャートである。
が分散されている様子を示す図である。
る計算装置の数の推移を示す図である。
ステムの一例を示すブロック図である。
ック図である。
に安定状態になったときの計算タスクの分布を示す図で
ある。
Claims (2)
- 【請求項1】 互いに接続され、複数の計算タスクを分
散させて実行する計算装置において、 前記計算タスク、および所定の接続方向における計算余
力のデータを受信する受信手段と、 前記受信手段によって受信された計算余力のデータに応
じて、前記計算タスクを処理する処理手段と、 前記受信手段によって受信された計算余力のデータに応
じて、前記計算タスクを送信し、さらに、前記処理手段
の計算余力と、前記受信手段によって受信された前記計
算余力のデータより計算される新たな計算余力のデータ
を、所定の接続方向に送信する送信手段とを備えること
を特徴とする計算装置。 - 【請求項2】 複数の計算タスクを分散させて実行する
計算方法において、 前記計算タスク、および所定の接続方向における計算余
力のデータを受信し、 受信した前記計算余力のデータに応じて、前記計算タス
クを所定の処理部によって処理し、 受信した前記計算余力のデータに応じて、前記計算タス
クを送信し、さらに、前記処理部の計算余力と、受信し
た前記計算余力のデータより計算される新たな計算余力
のデータを、所定の接続方向に送信することを特徴とす
る計算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34026295A JP3512080B2 (ja) | 1995-12-27 | 1995-12-27 | 計算装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34026295A JP3512080B2 (ja) | 1995-12-27 | 1995-12-27 | 計算装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09179832A true JPH09179832A (ja) | 1997-07-11 |
JP3512080B2 JP3512080B2 (ja) | 2004-03-29 |
Family
ID=18335262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34026295A Expired - Fee Related JP3512080B2 (ja) | 1995-12-27 | 1995-12-27 | 計算装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3512080B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005116832A1 (ja) * | 2004-05-31 | 2005-12-08 | International Business Machines Corporation | 分散処理環境におけるジョブの実行を制御するためのコンピュータシステム、方法及びプログラム |
JP2017129921A (ja) * | 2016-01-18 | 2017-07-27 | トヨタ自動車株式会社 | タスク実行方法およびタスク実行システム |
-
1995
- 1995-12-27 JP JP34026295A patent/JP3512080B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005116832A1 (ja) * | 2004-05-31 | 2005-12-08 | International Business Machines Corporation | 分散処理環境におけるジョブの実行を制御するためのコンピュータシステム、方法及びプログラム |
JP2017129921A (ja) * | 2016-01-18 | 2017-07-27 | トヨタ自動車株式会社 | タスク実行方法およびタスク実行システム |
Also Published As
Publication number | Publication date |
---|---|
JP3512080B2 (ja) | 2004-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7058957B1 (en) | Cluster event notification system | |
WO2003014929A1 (en) | Controlling processing networks | |
JPS61253572A (ja) | 疎結合マルチプロセツサ・システムの負荷配分方式 | |
CN102999385A (zh) | 计算设备中多处理器协同处理方法 | |
US20040205767A1 (en) | Controlling processing networks | |
JP3512080B2 (ja) | 計算装置および方法 | |
CN110633145B (zh) | 一种分布式系统内实时通讯方法、装置及分布式系统 | |
JP2004220597A (ja) | センダ・レシーバ要求再施行方法および装置 | |
CN112306670A (zh) | 一种Docker虚拟化场景下的服务器集群优化方法 | |
JP2004171172A (ja) | プロセッサ負荷制御機能をもつ記憶制御装置 | |
Jo et al. | A network model based on fuzzy queueing system | |
JPH0635870A (ja) | 負荷分散システム | |
JPH09319721A (ja) | 処理装置および方法 | |
JPH06309180A (ja) | コンピュータシステムの割込制御装置 | |
JPS63211060A (ja) | マルチプロセツサシステムにおける負荷分散制御方式 | |
JPS59114665A (ja) | 並列計算機システム | |
CN118674610A (zh) | 一种基于区块链的ai计算管控方法、系统及设备 | |
JP3569341B2 (ja) | 並列型計算機システム | |
Dummermuth | Distributed real-time control | |
JP2004038715A (ja) | 並列計算処理方法 | |
JPS619742A (ja) | 事象管理方式 | |
JP3123425B2 (ja) | 割り込み負荷分散装置 | |
JPH04264926A (ja) | Job制御システム | |
Climent et al. | An hybrid parallel algorithm for solving tridiagonal linear systems versus the Wang’s method in a Cray T3D BSP computer | |
CN112162867A (zh) | 一种智能生产线柔性生产的死锁预防方法及其应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20031218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20031231 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090116 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100116 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |