JPH02199591A - 排他処理方式 - Google Patents

排他処理方式

Info

Publication number
JPH02199591A
JPH02199591A JP2016289A JP2016289A JPH02199591A JP H02199591 A JPH02199591 A JP H02199591A JP 2016289 A JP2016289 A JP 2016289A JP 2016289 A JP2016289 A JP 2016289A JP H02199591 A JPH02199591 A JP H02199591A
Authority
JP
Japan
Prior art keywords
instruction
data flow
exclusive processing
flow processor
operand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016289A
Other languages
English (en)
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016289A priority Critical patent/JPH02199591A/ja
Publication of JPH02199591A publication Critical patent/JPH02199591A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は排他処理方式に関し、特にデータフローマルチ
プロセッサシステムにおいて、排他処理を効率的に実行
可能とするに好適な排他処理方式〔従来の技術〕 データフロープロセッサ(rPEJともいう)は、従来
のフォンノイマン型プロセッサとは異なり、プログラム
カウンタを持たず、「演算対象であるオペランドがすべ
て使用可能になったとき、その命令が実行可能となる」
というデータ駆動の規則に従って、命令が実行されるも
のである。
このデータフロープロセッサを複数台相互接続したデー
タフローマルチプロセッサシステムは、例えば、第2図
に示す如く、8台のデータフロープロセッサ(PE 0
−PE 7)11−1〜11−8と、PE間通信ネット
ワーク9から構成される。PE間通信ネットワーク9は
、更に、第1段目を構成するスイッチ12−1〜12−
4.第2段目を構成するスイッチ13−1〜13−4.
第3段目を構成するスイッチ14−1〜14−4から構
成され、各々のスイッチはプロセッサ間通信情報に付与
されたヘッダを参照することにより出力光を決める、い
わゆる自己ルーティングを行う。例えば、デー、タフロ
ープロセッサPE1〜PE5に通信情報(以下、これを
「オペランドパケット」という)を送る場合には、PE
5を宛先とするヘッダが上記オペランドパケットに付与
され、各スイッチ(スイッチ12−1.13−3.14
−3)が自己ルーティングを行って、スイッチ3段経由
でPE5まで転送される。
このようなデータフローマルチプロセッサシステムでは
、一般に、データフロープログラムを複数のデータフロ
ープロセッサに分割収容することにより、一つのプログ
ラムを複数のデータフロープロセッサで分担して並列実
行し、大量の処理を高速に行う方式がとられている。な
お、これに関しては、例えば、A、Kathail e
t、al、”A DataFlow Architec
ture with Tagged Tokens”(
Laboratory for Comput’er 
5cience、 Technical Memo 1
74.1980)の記載が参考になる。
ところで、データフロープログラムは、複数のデータフ
ロー命令から構成されており、入力データセット(デー
タの集合)さえ供給されれば、いつでも実行開始が可能
に構成されている。従って、同一のプログラムに対して
二種類の入力データセットを供給する手段があると、原
理的にそのプログラムを二本並列に実行することができ
る。これを可能にするために、各オペランドパケットは
、第3図に示す如きフィールドを有している。第3図に
おいて、カラーフィールド20は、例えば、上述の二種
類の入力データセット間を互いに区別するための識別情
報である。
また、コントロールフィールド21は、後述するデータ
オペランドフィールド22の補助情報、あるいは、デバ
ッグ等に関する情報を表わす。次命令アドレスフィール
ド23は、このオペランドパケットの転送先の命令アド
レスを示す。前記PE間通信ネットワーク9は、この次
命令アドレスフィールド23をヘッダ情報として自己ル
ーティングを行う。これにより、N種類(N22)の入
力データセットに対して、互いに異なるカラー情報20
が、ハードウェアによって付与される結果、N種類の入
力データセットが同一プログラムを共有しながら並列実
行するこ□とが可能になる。
ところで、プログラムの種類によっては、二種類以上の
入力データセットが揃った場合に、それらが同時に処理
されることを禁止し、一つのプログラムは、いずれか一
方め入力データセットにより、同時に一個して起動され
ないという、いわゆる「排他処理」を必要とするものが
ある。従来、このような排他処理プログラムを、データ
フローマルチプロセッサシステムで実行する方式として
、一般のプログラムと同様に、プログラムを構成する命
令群を複数のデータフロープロセッサに分割して収容し
、これらの命令を並列実行する方式が用いられていた。
〔発明が解決しようとする課題〕
しかしながら、一般に、排他処理プログラムはメモリエ
リアを読出した後、書換えたり、あるいは、各種計算す
□ソース(入出力装置、メモリ等)の使用状態を調べた
り、使用権を確保したりする等比較的順序性が強く、並
列度の少ない構造を有しているものが多い。この場合、
上述の従来技術では、排他処理プロ□グラムの各命令が
、多数のデータフロープロセッサに分散収容されている
ので、命令間でオペランドパケットを受渡しするため、
前記PE間通信ネットワーク9の多段スイッチを経由さ
せて転送しなければならない。
特に、第2図から明らかな如く、データフロープロセッ
サの数を増やして、システムを拡大すると、より多くの
スイッチ段数が必要となり、オペランドパケットのPE
間間転待時間延びるほか、同一宛先のデータフロープロ
セッサに向かうオペランドパケット同志が、各スイッチ
内で、行き先衝突を起こし、スイッチ内で転送待合せが
行われて、更に転送時間を長大化させる傾向がある。つ
まり、複数データフロープロセッサによる排他処理の並
列実行を行っても、却って転送遅延による処理速度低下
を招くという問題があった。
本発明は上記事情に鑑みてなされたもので、その目的と
するところは、システムが大規模になった場合にも、排
他処理プログラムを高速に実行することが可能な、改良
された排他処理方式を提供することにある。
〔課題を解決するための手段〕
本発明の上述の目的は、演算に必要なオペランドが揃い
次第、命令実行を開始するデータフロープロセッサを複
数台含む並列処理システムにおいて、複数の処理要求を
排他的に処理する排他処理プログラムの各々に対応して
、予め、それを実行する特定のデータフロープロセッサ
を指定しておき、排他処理プログラム内の各命令につい
て、その命令アドレスが前記指定されたデータフロープ
ロセッサの番号を含む如く構成し、各命令の実行時に、
前記命令アドレス中に含まれるデータフロープロセッサ
の番号を参照して行き先データフロープロセッサを識別
することにより、各排他処理プログラムを、それぞれ、
定められた特定のデータフロープロセッサで実行させる
ことを特徴とする排他処理方式によって達成される。
〔作用〕
本発明に係る排他処理方式においては、オペランドパケ
ット転送先がすべて自データフロープロセッサを指すよ
うにすることによって、同一排他処理プログラム内の各
命令を、同一データフロープロセッサで実行させるよう
にして、PE間通信ネットワークを介したオペランドパ
ケット転送の頻度を減少させ、短時間で排他処理を完了
することを可能とするものである。
〔実施例〕
以下、排他処理プログラムについての説明を行った後に
、本発明の実施例を図面に基づいて詳細に説明する。
第4図は、排他処理プログラムの一般的な構成を示すも
のであり、CI N(Critical 5ectio
nr nput)命令ノード30は、複数の排他処理要
求の中から、1個を選択する命令であり、2人力を有し
、第1人力35には、アービトレーショントークン(a
l)と呼ばれる前述の第3図の形式のオペランドパケッ
トが入力される。また、第2人力36には、排他処理要
求トークン(例えば rl、r2)と呼ばれる前述の第
3図の形式のオペランドパケットが入力される。この排
他処理要求トークンは、一般のプログラムを実行中に、
ある種の排他処理が必要になった時点で、一般のプログ
ラムから発出されるトークンであり、各々の排他処理要
求トークンに、発出光を識別するために互いに異なるカ
ラー(第3図の20)が付与されている。
上記CHIN命令ノード30では、排他処理要求トーク
ン(前記 rl、r2)のいずれか1個と、アービトレ
ージョントークンa1が揃った時に発火する。これは、
CIN命令以外の一般の命令が、入力オペランドがすべ
て揃い、かつ、それらのカラーが一致すると発火するの
に対して、カラーが無視される点で異なっている。CI
N命令が発火して実行されると、第2人力36の排他処
理要求トークンがそのまま出力される。
G(Gate)命令ノード31,32は、同期信号が到
着するまで、入力を待たせる命令であり、それぞれ2人
力を有し、第1人力37のトークンと、第2人力38ま
たは39のトークンが揃うと発火し、第2人力38また
は39のトークンをそのまま出力する機能を有している
。G命令ノードの第2人力には、排他処理の実行に必要
なパラメータ引数が入力される。排他処理本体部33は
、上記G命令ノード31または32経由で入力されたパ
ラメータ引数を用いて各種の排他処理を実行する部分で
ある。なお、本排他処理本体部33は、一般に、複数の
命令ノードから構成されているが、ここでは、それらの
記載は省略されている。
COU T (Critical S ection 
Output)命令ノード34は、次回の排他処理実行
を許可するための1人力命令であり、入カドークンが到
着すると発火し、アービトレーショントークンa1を出
力する機能を有している。排他処理プログラムが複数個
ある場合には、プログラム毎に、個別に第4図の構造の
ものを用意する。
以下、上述の如く構成される排他処理プログラムに本発
明を適用した場合における、実施例の動作を説明する。
排他処理プログラムの発火および実行制御は、第7図に
示すデータフロープロセッサで実現される。図において
′、1はデータフロープロセッサに入力されてきたオペ
ランドパケットを受信し、命令発火が検出されるまで保
存しておく機能を有するマツチングメモリ、2は命令の
一部を記憶しておく機能を有するプログラムメモリであ
り、第5図に示す如く、命令の演算タイプを指定するオ
ペレージ目ンコードフィールド41.この命令の実行結
果の転送先命令アドレスを示す次命令アドレスフィール
ド42.制御上の補助情報を指定するコントロールフィ
ールド40を構成単位として記憶しているものである。
第3図に示した形式のオペランドパケットが、インタフ
ェース線6または8を経由してデータフロープロセッサ
に入力されると、命令アドレスフィールド23で指定さ
れたアドレスをプログラムメモリに入力して、第5図の
形式の命令を読出す。
ここで、オペレーションコード41がCIN命令である
ことを表示していれば、マツチングメモリ1では、カラ
ーを無視したマツチングのテストを行い、CIN命令以
外であれば、カラー一致を条件とする通常のマツチング
テストを行う。マツチングが成立していれば、マツチン
グメモリ1の出力とプログラムメモリ2の出力を合成し
て、第6図に示す形式の命令パケットを作成し、命令レ
ジスタ3にロードする。
演算回路4は、指定されたタイプの演算を実行し、結果
を第3図に示す形式のオペランドパケットにまとめて、
行き先判定回路5に送り込む。行き先判定回路5では、
次命令アドレスフィールド23あるいはコントロールフ
ィールド21の中身を見て、宛先が自データフロープロ
セッサであればインタフェース線6に出力し、他データ
フロープロセッサ宛であればインタフェース線7を経由
してPE間通信ネットワーク9に送り出す。なお、自デ
ータフロープロセッサ宛か、他データフロープロセッサ
宛かを判定する方法としては、次命令アドレスフィール
ド23の上位ビットをPE番号に割当でておく方法や、
コントロールフィールド21で自データフロープロセッ
サ宛か、他データフロープロセッサ宛かを指定しておく
方法等が利舟し得る。以下の説明では、上位ビットにデ
ータフロープロセッサ番号(以下、rPE番号」という
)を割当てる方法を用いて説明する。      ”パ
本実施例においては、まず、第4図のGIN命令30.
G命令31および32. CO’UT命令34.排他処
理本体部33内の各命令を含む排他処理プログラムの各
命令(第5図の形式)を、同一のデータフロープロセッ
サのプログラムメモリ2に収容してお−12〜 く。一般に、PE1l[信ネットワーク9は、データフ
ロープロセッサ数が大きいときには、転送遅延時間が大
きいので並列度があまり大きくないプログラムは、各デ
ータフロープロセッサに分散して実行させるよりも、同
一データフロープロセッサに内で閉゛じて実行させた方
が、むしろ効率が良い。排他処理自体は、共有リソース
の確保、メモリの読出し書込み等の直列的動作が多くあ
まり並列度は高くないめで、これらを効率的に実行する
ために、第4図に示した命令群(CI N命令、G命令
、cou’r命令、排他処理本体部内の各命令に対応す
る)では、上述の如き方法でオペランドパケット転送先
が□すべて自データフロープロセッサを指すようにして
おくわけである。
以下、これを詳細に説明する。上述の、オペランド“パ
ケッ□ト転送先がすべて自データフロープロセッサを指
すようにする方法は、第1図(a)(b)に示す如く、
二段階(リンク段階と実行段階)にわたって行われる。
第1図(a)は、第3図の形式の命令のアドレス割付け
を行うリンカの処理フローチャートである。データフロ
ープログラムは、コンパイラによって第3図に示す命令
形式に変換され、リンカによって各データフロープロセ
ッサのプログラムメモリ2にロードできる形式に整えら
れる。
第1図(a)において、リンカは、まずステップ60で
、処理対象のプログラムが一般処理プログラムか、排他
処理プログラムかを判定して、分岐する。もし、排他処
理プログラムであれば、ステップ61で、各排他処理プ
ログラム毎に、それを実行する各データフロープロセッ
サの番号(PE番号)を決定(これをt L )とする
)する。次に、ステップ62で、排他処理プログラムの
各命令Mnの命令アドレスの上位ビットとして、上で指
定されたPE番号(=L)を設定し、命令アドレスの下
位ビットとして、データフロープロセッサ内相対アドレ
スを設定する。
ステップ63では、排他処理プログラムの各命令Mnに
ついて、それを行き先とする他の命令Mrの次命令アド
レスフィールド42(第5図参照)に、ステップ62で
設定した命令アドレス(M nの命令アドレス)を埋込
む。その結果、排他処理プログラム内の各命令(第4図
のCIN命令30.G命令31および32. COU 
T命令34.排他処理本体部33内の各命令)は、自分
自身の命令アドレスおよび次命令アドレスとして指定さ
れた、上記PE番号を有する如くアドレス割付けが行わ
れる。また、排他処理プログラム内の各命令を行き先と
する他の命令(第4図のCIN命令30.G命令31お
よび32をそれぞれ行き先とする命令二図示されていな
い)については、その命令アドレスフィールドの上位ビ
ットに、排他処理を実行するPE番号が割り当てられる
。最後に、ステップ64で、上述の如く作成された命令
群を、指定されたPE番号のデータフロープロセッサの
プログラムメモリ2にロードする。
また、ステップ60で、−膜処理と判定された場合には
、命令レベルで並列処理を行うために、プログラム内の
各命令は複数のデータフロープロセッサに分散して実行
する。このため、ステップ65で、各命令を、どのデー
タフロープロセッサで実行させるかというデータフロー
プロセッサ・マツピングアルゴリズムに従って、各命令
のPE番号Nk(k=1.2.・・・・、)を決定する
。その後の処理(ステップ62〜64)は、排他処理プ
ログラムの場合と同様に、−膜処理プログラムの各命令
とそれらを行き次とする各命令のアドレス割付けを行い
、最終的に、すべての命令をそれぞれ指定されたPE番
号のデータフロープロセッサのプログラムメモリ2にロ
ードする。
上述の如く、各データフロープロセッサに分散配置され
た命令は、前述の如く、オペランドパケットが揃って発
火し、命令パケット(第6図)の形式に組立てられて、
演算回路4で実行される。実行結果は、第3図のオペラ
ンドパケットの形式に組立てられ、行き先判定回路5で
、第1図(b)に示す処理フローに従って処理される。
すなわち、ステップ80で、第3図のオペランドパケラ
]・の次命令アドレスフィールド上位ビットと自PE番
号とを比較し、一致していれば、ステップ81で、イン
タフェース線6を介してオペランドパケットを自データ
フロープロセッサのマツチングメモリ1に転送する。ま
た、一致していなければ、ステップ82で、インタフェ
ース線7を介してオペランドパケットを、前述のPE間
通信ネットワーク9に転送し、他のデータフロープロセ
ッサのマツチングメモリ1に送り込む。
上述の如く、排他処理プログラムの命令を行き先とする
命令は、次命令アドレスフィールドの上位ビットに、排
他処理を実行するデータフロープロセッサのPE番号が
割当てられるので、プロセッサ間通信ネットワーク9を
介して他のデータフロープロセッサから、排他処理プロ
グラムが収容されているデータフロープロセッサに、オ
ペランドパケットが転送されて来る。また、排他処理プ
ログラム内の各命令は、自分自身の命令アドレスおよび
次命令アドレスとして指定されたPE番号を有するので
、演算結果のオペランドパケットは、再び同一のデータ
フロープロセッサのマツチングメモリ1に転送されて、
同一データフロープロセッサで引続き実行されることに
なる。
−例として、第4図に示す如く、CjN命令ノードに二
つの排他処理要求トークンrl、r2と、アービトレー
ショントークンa1とが到着しており、二つのG命令ノ
ードに、排他処理要求1・−クンr1に対応した二つの
入力データd 11. d 12と、排他処理要求トー
クンr2に対応した二つの入力データd 21. d 
22とが入力されているものとする。
データフロー制御方式では、演算に必要なオペランドが
揃い次第、命令実行が行われるため、第4図に示す如く
、処理要求トークンの到着順(rl。
r2)とG命令31における入海データの到着順(d1
2、 d 11)が逆転するケースが起こり得る点が特
徴である。
CIN命令ノード30では、アービトレーショントーク
ンa1と排他処理要求トークンr 1.r 2の1個(
例えば、r、1)が揃ったので発火し、排他処理要求ト
ークンr1を出力して、二つのG命令ノードに送る。な
お、アービトレーショントークンa1は、CIN命令ノ
ードで吸収され、残りの排他処理要求トークンr2は、
次のアービトレーショントークンが現れるまでCIN命
令30の入口で待たされることになる。ハードウェアの
動作としては、第7図のマツチングメモリ1で、CIN
命令30の発火が検出されると、第6図の形式のCIN
命令パケットが命令レジスタ3に読出されて演算回路4
で実行され、第3図の形式の二つのオペランドパケット
が行き先判定回路5に送られることになる。一つ目のオ
ペランドバケツ1への次命令アドレスは、G命令31を
指しており、二つ目のオペランドパケットの次命令アド
レスは、G命令32を指しているが、両命令ともCIN
命令の場合と同一のデータフロープロセッサのプログラ
ムメモリ2に記憶されているので、行き先判定回路5は
、両方のオペランドパケットともインタフェース線6側
に出力する。
G命令ノード31.32では、通常のカラー−散型のマ
ツチングを行うので、排他処理要求トークンr1に対応
したデータトークンdll、d22が選択され、これら
が排他処理本体部33に入力されて、必要な排他処理が
行われる。なお、G命令ノード31、’32と排他処理
本体@33も、やはり、同じデータフロープロセッサの
プログラムメモリ2に記憶されているので、G命令ノー
ド31.32での実行結果のオペランドパケットもCI
N命令30の場合と同様、行き先判定回路5によって、
インタフェース線6側に出力される。排他処理本体部3
3での処理が終了すると、C0UT命令が発火し、アー
ビトレーショントークンa1が゛再び生成されて、CI
N命令ノードに入力され、次の排他処理要求トークンr
2の処理を開始することができる。
このように、第4図の命゛令群の各命令から出力される
オペランドパケットは、すべて転送先=自データフロー
プロセッサとなるので、インタフェース線6経由でトー
クンが転送され、転送遅延の大きいPE間通信ネットワ
ーク9には出て行かずに、同一のデータフロープロセッ
サ内でサイクリックに実行されることになり、短時間の
うちに排他処理を完了させることが可能になる。
上述の如く、本実施例によれば、排他処理プログラム内
の1・−クンは、すべて同一データフロー−20= プロセッサ内で処理される結果、無駄な転送遅延なしに
、1データ・フロープロセッサ内に閉じて高速に実行さ
れるので、排他処理の要求元から見た待合せ時間を短縮
することができ、システムの応答性が格段に向上する。
また、システムの規模が増大してPE間間通待時間大き
くなっても、排他処理プログラムの処理時間は増加しな
いので、大規模システムにとって有効である。
なお、上記実施例は本発明の一例として示したものであ
り、本発明はこれに限定されるべきものではないことは
言うまでもない。
〔発明の効果〕
以上述べた如く、本発明によれば、演算に必要なオペラ
ンドが揃い次第、命令実行を開始するデータフロープロ
セッサを複数台含む並列処理システムにおいて、複数の
処理要求を排他的に処理する排他処理プログラムの各々
に対応して、予め、それを実行する特定のデータフロー
プロセッサを指定しておき、排他処理プログラム内の各
命令について、その命令アドレスが前記指定されたデー
タフロープロセッサの番号を含む如く構成し、各命令の
実行時に、前記命令アドレス中に含まれるデータフロー
プロセッサの番号を参照して行き先データフロープロセ
ッサを識別することにより、各排他処理プログラムを、
それぞれ、定められた特定のデータフロープロセッサで
実行させるようにしたので、システムが大規模になった
場合にも、排他処理プログラムを高速に実行することが
可能な排他処理方式を実現できるという顕著な効果を奏
するものである。
【図面の簡単な説明】
第1図は本発明の一実施例を示す排他処理のリンカ段階
および実行段階の処理フローチャー1・、第2図はデー
タフローマルチプロセッサシステムの全体構成図、第3
図はオペランドパケットのフィールド構成図、第4図は
排他処理プログラムの一般的な構成を示す図、第5図は
プログラムメモリに記憶される命令のフィールド構成図
、第6図は命令パケットのフィールド構成図、第7図は
データフロープロセッサの構成例を示す図である。 1:マツチングメモリ、2ニブログラムメモリ、3:命
令レジスタ、4:演算回路、5:行き先判定回路、6,
7.8 :インタフェース線、9:PE間通信ネットワ
ーク、11−1〜11−8 :データフロープロセッサ
、12−1〜12−4.13−1〜13−4.14−1
〜14−4=スイツチ。 第 図 第 図

Claims (2)

    【特許請求の範囲】
  1. (1)演算に必要なオペランドが揃い次第、命令実行を
    開始するデータフロープロセッサを複数台含む並列処理
    システムにおいて、複数の処理要求を排他的に処理する
    排他処理プログラムの各々に対応して、予め、それを実
    行する特定のデータフロープロセッサを指定しておき、
    排他処理プログラム内の各命令について、その命令アド
    レスが前記指定されたデータフロープロセッサの番号を
    含む如く構成し、各命令の実行時に、前記命令アドレス
    中に含まれるデータフロープロセッサの番号を参照して
    行き先データフロープロセッサを識別することにより、
    各排他処理プログラムを、それぞれ、定められた特定の
    データフロープロセッサで実行させることを特徴とする
    排他処理方式。
  2. (2)前記構成に加えて、排他処理プログラム内の命令
    を行き先とする命令については、該命令中の行き先アド
    レス情報中に、前記排他処理を実行するデータフロープ
    ロセッサの番号を含む如く構成し、前記各命令の実行時
    にも、前記命令アドレス情報中に含まれるデータフロー
    プロセッサの番号を参照して行き先データフロープロセ
    ッサを識別することにより、各排他処理プログラムを、
    それぞれ、定められた特定のデータフロープロセッサで
    実行開始させることを特徴とする請求項1記載の排他処
    理方式。
JP2016289A 1989-01-30 1989-01-30 排他処理方式 Pending JPH02199591A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016289A JPH02199591A (ja) 1989-01-30 1989-01-30 排他処理方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016289A JPH02199591A (ja) 1989-01-30 1989-01-30 排他処理方式

Publications (1)

Publication Number Publication Date
JPH02199591A true JPH02199591A (ja) 1990-08-07

Family

ID=12019464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016289A Pending JPH02199591A (ja) 1989-01-30 1989-01-30 排他処理方式

Country Status (1)

Country Link
JP (1) JPH02199591A (ja)

Similar Documents

Publication Publication Date Title
US8375197B2 (en) Performing an allreduce operation on a plurality of compute nodes of a parallel computer
US8161268B2 (en) Performing an allreduce operation on a plurality of compute nodes of a parallel computer
US8752051B2 (en) Performing an allreduce operation using shared memory
US7673011B2 (en) Configuring compute nodes of a parallel computer in an operational group into a plurality of independent non-overlapping collective networks
US8122228B2 (en) Broadcasting collective operation contributions throughout a parallel computer
US5434972A (en) Network for determining route through nodes by directing searching path signal arriving at one port of node to another port receiving free path signal
US7653716B2 (en) Determining a bisection bandwidth for a multi-node data communications network
US8891408B2 (en) Broadcasting a message in a parallel computer
JP3720094B2 (ja) データ駆動型情報処理装置
US9882801B2 (en) Providing full point-to-point communications among compute nodes of an operational group in a global combining network of a parallel computer
US8484440B2 (en) Performing an allreduce operation on a plurality of compute nodes of a parallel computer
US20030182376A1 (en) Distributed processing multi-processor computer
US9444908B2 (en) Distributing an executable job load file to compute nodes in a parallel computer
US5125097A (en) Data flow type information processors where data packets pass through plurality of merging and branching portions of the internal path
US8296457B2 (en) Providing nearest neighbor point-to-point communications among compute nodes of an operational group in a global combining network of a parallel computer
Raimbault et al. Fine grain parallelism on a MIMD machine using FPGAs
US4964042A (en) Static dataflow computer with a plurality of control structures simultaneously and continuously monitoring first and second communication channels
US20100014523A1 (en) Providing Point To Point Communications Among Compute Nodes In A Global Combining Network Of A Parallel Computer
JP2632074B2 (ja) データフロー型情報処理装置
JPH02199591A (ja) 排他処理方式
JP2668156B2 (ja) データ駆動型情報処理装置の実行制御方法
JP3234629B2 (ja) データ駆動型プロセッサ
JP3982077B2 (ja) マルチプロセッサシステム
JP2754105B2 (ja) データ駆動型情報処理装置
Weiss et al. Architectural improvements for a data-driven VLSI processing array