JP3322754B2 - 並列計算機 - Google Patents

並列計算機

Info

Publication number
JP3322754B2
JP3322754B2 JP10260994A JP10260994A JP3322754B2 JP 3322754 B2 JP3322754 B2 JP 3322754B2 JP 10260994 A JP10260994 A JP 10260994A JP 10260994 A JP10260994 A JP 10260994A JP 3322754 B2 JP3322754 B2 JP 3322754B2
Authority
JP
Japan
Prior art keywords
flag
data
processing element
address
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10260994A
Other languages
English (en)
Other versions
JPH07311750A (ja
Inventor
憲一 林
洋一 小柳
健志 堀江
長武 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10260994A priority Critical patent/JP3322754B2/ja
Publication of JPH07311750A publication Critical patent/JPH07311750A/ja
Priority to US09/010,627 priority patent/US6115803A/en
Application granted granted Critical
Publication of JP3322754B2 publication Critical patent/JP3322754B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、複数のプロセッシング
・エレメントから構成される並列計算機に関し、特に、
ソフトウェアのオーバーヘッドの削減を図ってデータ処
理効率の向上を実現する並列計算機に関する。
【0002】
【従来の技術】メッセージ・パッシングを通信の基本と
する並列計算機では、ソフトウェアのオーバーヘッドが
大きいという問題点がある。
【0003】例えば、メッセージ・パッシングを通信の
基本とする並列計算機でグローバル演算を実行する場合
には、グローバル演算で計算されるデータもメッセージ
として扱われる。すなわち、グローバル演算用のデータ
は、各プロセッシング・エレメントから通常のメッセー
ジの送信と同様に送出され、目的のプロセッシング・エ
レメントのバッファに入って、そのプロセッシング・エ
レメントで、バッファをソフトウェアでサーチして当該
メッセージの受信を行うことになる。この場合、バッフ
ァに利用されるのは通常メモリであり、バッファでのサ
ーチと、バッファからのコピーとがソフトウェアで行わ
れるために、ソフトウェアのオーバーヘッドが大きいと
いう問題点がある。
【0004】この問題点を解決するために、アクティブ
・メッセージを用いる方法が考えられる。このアクティ
ブ・メッセージの1つとして、PUT/GETがある。
このPUTのメッセージを使うと、バッファを介さず
に、直接、自プロセッシング・エレメントのユーザ領域
から相手プロセッシング・エレメントのユーザ領域へと
データを転送できることになる。また、このGETのメ
ッセージを使うと、バッファを介さずに、直接、相手プ
ロセッシング・エレメントのユーザ領域から自プロセッ
シング・エレメントのユーザ領域へとデータを転送でき
ることになる。
【0005】このため、メッセージ・パッシングのよう
な受信に係わるオーバーヘッドがなく、更に、通信と計
算とをオーバーラップできるという利点がある。しか
し、PUT/GETでは、メッセージ・パッシングと違
って、明示的な受信命令がないので、メッセージを受信
したことを知るための手段が必要となる。
【0006】これから、従来では、並列計算機上でPU
T/GETを実現する場合には、割り込みを用いて、メ
ッセージの到達時にソフトウェアでハンドラを起動し、
システムモード等で排他的にフラグを更新していくこと
で、メッセージの受信を知るという方法を採っていた。
【0007】
【発明が解決しようとする課題】しかしながら、このよ
うな従来技術に従っていると、ソフトウェアのオーバー
ヘッドが大きいという問題点があった。
【0008】すなわち、並列計算機上でPUT/GET
を実現する場合に、従来技術のように割り込みを用いる
構成を採っていると、メッセージの到達時にソフトウェ
アでハンドラを起動し、システムモード等で排他的にフ
ラグを更新しなければならないことから、ソフトウェア
のオーバーヘッドが大きいという問題点があったのであ
る。
【0009】本発明はかかる事情に鑑みてなされたもの
であって、並列計算機でローカルメモリからローカルメ
モリへの直接的なデータ転送を実現するPUT/GET
のようなメッセージを用いるときにあって、ソフトウェ
アのオーバーヘッドの削減を図ってデータ処理効率の向
上を実現する新たな並列計算機の提供を目的とするもの
である。
【0010】
【課題を解決するための手段】図1に本発明の原理構成
を図示する。図中、1は本発明を具備する複数のプロセ
ッシング・エレメントであって、並列計算機を構成する
もの、2は相互結合網であって、プロセッシング・エレ
メント1を相互に結合するものである。
【0011】各プロセッシング・エレメント1は、プロ
セッサ10と、メモリ11と、通信制御機構12とを備
える。そして、この通信制御機構12は、メモリ11を
制御するメモリ制御部13と、他プロセッシング・エレ
メント1との間で送受信される直接遠隔書込メッセージ
/直接遠隔読出メッセージのヘッダの持つフラグアドレ
スを一時的に保持するフラグアドレス保持部14と、フ
ラグアドレス保持部14の保持するフラグアドレスの指
すフラグを排他的に更新するフラグ更新部15とを備え
る。
【0012】
【0013】
【0014】
【作用】発明では、ハードウェアで構成される通信制
御機構12が、フラグアドレス保持部14及びフラグ更
新部15を備えることを特徴とする。
【0015】このフラグアドレス保持部14は、自プロ
セッサ10が他プロセッシング・エレメント1に対して
PUTのような直接遠隔書込メッセージ(メモリやレジ
スタへの直接書き込みを指示するメッセージ)を送信す
るときに、その直接遠隔書込メッセージのヘッダの持つ
送信完了フラグアドレスを一時的に保持し、この保持処
理を受けて、フラグ更新部15は、その直接遠隔書込メ
ッセージの指すデータの送信が完了するときに、フラグ
アドレス保持部14の保持する送信完了フラグアドレス
の指すフラグを排他的に更新することで、そのフラグに
対して直接遠隔書込メッセージの指すデータの送信完了
をセットする。
【0016】このとき、フラグアドレス保持部14は、
更に、確認フラグのフラグアドレスを保持し、この保持
処理を受けて、フラグ更新部15は、直接遠隔書込メッ
セージの送信開始時に、確認フラグを更新するととも
に、他プロセッシング・エレメント1から送られてくる
その直接遠隔書込メッセージに対しての受信完了メッセ
ージの受信時に、確認フラグを逆モードで更新すること
で、確認フラグに対して直接遠隔書込メッセージの指す
データの受信完了をセットする。
【0017】また、フラグアドレス保持部14は、他プ
ロセッシング・エレメント1から送られてくるPUTの
ような直接遠隔書込メッセージを受信するときに、その
直接遠隔書込メッセージのヘッダの持つ受信完了フラグ
アドレスを一時的に保持し、この保持処理を受けて、フ
ラグ更新部15は、その直接遠隔書込メッセージの指す
データの受信が完了するときに、フラグアドレス保持部
14の保持する受信完了フラグアドレスの指すフラグを
排他的に更新することで、そのフラグに対して直接遠隔
書込メッセージの指すデータの受信完了をセットする。
【0018】また、フラグ更新部15は、他プロセッシ
ング・エレメント1から送られてくるGETのような直
接遠隔読出メッセージ(メモリやレジスタからの直接読
み出しを指示するメッセージ)に対しての返信データの
受信が完了するときに、その直接遠隔読出メッセージの
ヘッダの持つ入手完了フラグアドレスの指すフラグを排
他的に更新することで、そのフラグに対して直接遠隔読
出メッセージの指すデータの入手完了をセットする。
【0019】また、フラグアドレス保持部14は、他プ
ロセッシング・エレメント1から送られてくるGETの
ような直接遠隔読出メッセージを受信するときに、その
直接遠隔読出メッセージのヘッダの持つ返信完了フラグ
アドレスを一時的に保持し、この保持処理を受けて、フ
ラグ更新部15は、その直接遠隔読出メッセージの指す
データの送信が完了するときに、フラグアドレス保持部
14の保持する返信完了フラグアドレスの指すフラグを
排他的に更新することで、そのフラグに対して直接遠隔
読出メッセージの指すデータの返信完了をセットする。
【0020】このように、本発明では、明示的な受信命
令のないPUT/GETのような直接メモリにアクセス
するメッセージを用いる場合に、メッセージ送受信時に
必要となる送受信領域の保護のための処理をハードウェ
アで行う構成を採ることから、従来のように割り込みに
よってプロセッサ10の演算実行が妨げられるようなこ
とが起こらない。これから、PUT/GETの要求をノ
ンブロッキングで送信する機構と組み合わせることで、
通信と計算との完全なオーバーラップが可能となって、
並列計算機の実行効率を著しく向上できるようになる。
【0021】
【0022】
【0023】
【0024】
【0025】
【0026】
【0027】
【実施例】以下、実施例に従って本発明を詳細に説明す
る。本発明の並列計算機では、他プロセッシング・エレ
メント1のメモリやレジスタへの直接書き込みを指示す
るPUTのようなメッセージや、他プロセッシング・エ
レメント1のメモリやレジスタからの直接読み出しを指
示するGETのようなメッセージを用いる構成を採るも
のである。本発明の説明に入る前に、図2を使って、本
発明に関連する並列計算機の技術について説明する。
2中、1は複数のプロセッシング・エレメントであっ
て、並列計算機を構成するもの、2は相互結合網であっ
て、プロセッシング・エレメント1を相互に結合するも
のである。 各プロセッシング・エレメント1は、プロセ
ッサ10と、メモリ11と、メモリ制御部13と、通信
専用レジスタ16と、レジスタ参照制御部35とを備え
る。 この通信専用レジスタ16は、他プロセッシング・
エレメント1から送られてくる直接遠隔書込メッセージ
の指すデータを格納する複数のレジスタと、これらのレ
ジスタ対応に備えられて、対となるレジスタのデータ格
納状態を表示するビット値を管理するフラグとから構成
される。 レジスタ参照制御部35は、自エレメントのプ
ロセッサ10が通信専用レジスタ16のレジスタ番号を
指定してロード命令を発行するときに、そのレジスタ番
号の指すフラグがデータ格納状態を示しているのか否か
を判断して、データ格納状態を示していることを判断す
るときには、そのレジスタ番号の指す通信専用レジスタ
16のレジスタからデータを読み出してプロセッサ10
に渡してから、そのフラグを非データ格納状態にリセッ
トし、一方、非データ格納状態を示していることを判断
するときには、データ格納状態に転ずるのを待ってか
ら、その処理を実行する。 このレジスタ参照制御部35
が用意されることで、プロセッサ10は、ロード命令を
1回発行するだけで、目的のデータを受信することがで
きる。 このように構成される図2に図示する本発明に関
連する並列計算機の技術では、プロセッシング・エレメ
ント1が、他プロセッシング・エレメント1から送られ
てくるPUTのような直接遠隔書込メッセージの指すデ
ータを格納する複数のレジスタと、このレジスタ対応に
備えられて、対となるレジスタのデータ格納状態を表示
するビット値を管理するフラグとから構成される通信専
用レジスタ16を備えることを特徴とする。 この構成に
従い、プロセッシング・エレメント1は、自通信専用レ
ジスタ16に格納されるデータと自データとに演算処理
を施して、その演算結果データを直接遠隔書込メッセー
ジを使って他プロセッシング・エレメント1の通信専用
レジスタ16に転送していくことで、グローバル演算処
理を実行していくことが可能になる。 また、プロセッシ
ング・エレメント1は、放送データを直接遠隔書込メッ
セージを使って他プロセッシング・エレメント1の通信
専用レジスタ16に転送していくことで、放送処理を実
行していくことが可能になる。 また、プロセッシング・
エレメント1は、自通信専用レジスタ16に格納される
データと自データとに演算処理を施して、その演算結果
データを直接遠隔書込メッセージを使って他プロセッシ
ング・エレメント1の通信専用レジスタ16に転送して
いくことで、バリア同期処理を実行していくことが可能
になる。 また、プロセッシング・エレメント1は、自通
信専用レジスタ16に格納されるデータに規定の演算処
理を施して、その演算結果データを直接遠隔書込メッセ
ージを使って他プロセッシング・エレメント1の通信専
用レジスタ16に転送していくことで、バリア同期のス
テータス状態の認識処理を実行していくことが可能にな
る。 このように、図2に図示する本発明に関連する並列
計算機の技術では、PUTのような直接メモリにアクセ
スするメッセージを用いる場合に、そのメッセージの指
すデータの送信先として通信専用レジスタ16を用いる
構成を採ることから、メモリアクセスのためのオーバー
ヘッドを大きく削減できることになる。そして、通信専
用レジスタ16へのデータの到達状態をフラグを使って
表示する構成を採ることから、プロセッサ10からの通
信専用レジスタ16へのアクセスをハ ードウェアで制御
できるようになる。これから、ソフトウェアのオーバー
ヘッドが削減できることになって、グローバル演算処理
や放送処理やバリア同期処理を高速に実行できるように
なる。
【0028】図3(a)に、本発明で用いるPUTの基
本形式、図3(b)に、本発明で用いるGETの基本形
式を図示する。本発明で用いるPUTは、図3(a)に
示すように、データ送信先のプロセッシング・エレメン
ト1のID dest cid と、自プロセッシング・エレメン
ト1に展開される送信データのローカルメモリ上のアド
レス local addr と、送信データのサイズ size と、送
信データの格納先となる受信側プロセッシング・エレメ
ント1のローカルメモリ上のアドレス remote addrと、
自プロセッシング・エレメント1で走行するソフトウェ
アに送信完了を知らせるために用意される sendcomplet
e flag のフラグアドレスと、受信側プロセッシング・
エレメント1で走行するソフトウェアに受信完了を知ら
せるために用意される put flag のフラグアドレスと、
自プロセッシング・エレメント1で走行するソフトウェ
アに相手方受信完了を知らせるために用意される ack f
lag を用いるか否かの指示値 ackとを指定する。
【0029】すなわち、プロセッシング・エレメント1
のプロセッサ10は、PUTを使って、受信側プロセッ
シング・エレメント1にデータを送信するときには、受
信側プロセッシング・エレメント1のIDを「dest ci
d」に設定し、送信データのローカルメモリ上のアドレ
スを「local addr」に設定し、送信データのサイズを
「size」に設定し、送信データの格納先となるローカル
メモリ上のアドレスを「remote addr 」に設定し、send
complete flagのフラグアドレスを「send complete fl
ag」に設定し、put flagのフラグアドレスを「put fla
g」に設定するとともに、ack flagを有効とする場合に
は「ack 」に“1”、無効とする場合には、「ack 」に
“0”を設定するのである。
【0030】一方、本発明で用いるGETは、図3
(b)に示すように、データ入手先のプロセッシング・
エレメント1のID dest cid と、要求データの格納先
となる自プロセッシング・エレメント1のローカルメモ
リ上のアドレス local addr と、要求データのサイズ s
ize と、要求データの格納されている入手先プロセッシ
ング・エレメント1のローカルメモリ上のアドレス rem
ote addrと、自プロセッシング・エレメント1で走行す
るソフトウェアに入手完了を知らせるために用意される
get flag のフラグアドレスと、入手先プロセッシング
・エレメント1で走行するソフトウェアに返信完了を知
らせるために用意される send complete flag のフラグ
アドレスとを指定する。
【0031】すなわち、プロセッシング・エレメント1
のプロセッサ10は、GETを使って、入手先プロセッ
シング・エレメント1から要求データを入手するときに
は、要求データの入手先のプロセッシング・エレメント
1のIDを「dest cid」に設定し、要求データの格納先
となるローカルメモリ上のアドレスを「local addr」に
設定し、要求データのサイズを「size」に設定し、要求
データの格納されているローカルメモリ上のアドレスを
「remote addr 」に設定し、get flagのフラグアドレス
を「get flag」に設定し、send complete flagのフラグ
アドレスを「send complete flag」に設定するのであ
る。
【0032】図4に、図1に図示した通信制御機構12
の一実施例を図示する。次に、この実施例に従って、本
発明について詳細に説明する。図中、20は転送要求コ
マンドキューであって、プロセッサ10の要求するPU
TやGETをキューイングするもの、21はコマンド処
理部であって、転送要求コマンドキュー20にキューイ
ングされる転送要求を解釈してデータ転送依頼を発行す
るもの、22は転送制御部であって、コマンド処理部2
1の発行するデータ転送依頼に応じたデータ転送処理を
実行するものである。
【0033】23はメモリ制御部であって、DMA機能
を備えて、メモリ11からデータを読み出したり、メモ
リ11にデータを書き込んだりするもの、24は受信制
御部であって、他プロセッシング・エレメント1から送
られてくる転送データを受信するもの、25はフラグア
ドレス保持部であって、PUTやGETの持つフラグア
ドレスを一時的に保持するもの、26はフラグ更新部で
あって、フラグアドレス保持部25の保持するフラグア
ドレスの指すフラグを排他的に更新するものである。
【0034】27は応答コマンドキューであって、他プ
ロセッシング・エレメント1から送られてくるGETを
キューイングするもの、28はコマンド処理部であっ
て、応答コマンドキュー27にキューイングされている
GETを解釈してデータ転送依頼を発行するもの、29
は転送制御部であって、コマンド処理部28の発行する
データ転送依頼に応じたデータ転送処理を実行するもの
である。
【0035】図5ないし図7に示すタイムチャートを参
照しつつ、このように構成される通信制御機構12の動
作処理について説明する。プロセッシング・エレメント
1のコマンド処理部21は、転送要求コマンドキュー2
0から読み出した転送要求に従って、PUTの指定する
データを送信するときには、メモリ制御部23に指示す
ることで、メモリ11から、PUTの指定アドレス loc
al addr を起点とするPUTの指定サイズ size 分のデ
ータを読み出し、転送制御部22に指示することで、P
UTとともに、その読み出したデータを受信側プロセッ
シング・エレメント1に送信していくことになる。
【0036】この処理の開始にあたって、コマンド処理
部21は、PUTの指定する sendcomplete flag のフ
ラグアドレス及び ack値を通知しつつ、メモリ制御部2
3に対して、 send complete flag / ack flag のフラ
グ更新処理を要求し、この更新要求を受け取ると、メモ
リ制御部23は、この send complete flag のフラグア
ドレスをフラグアドレス保持部25に保持させるととも
に、ack 値が ack flag の有効を表示しているときに
は、フラグ更新部26にその旨を通知する。
【0037】この ack flag の有効通知を受け取ると、
フラグ更新部26は、フラグアドレス保持部25に保持
されている ack flag のフラグアドレスの指すフラグ値
(すなわち、ack flagのフラグ値)を排他獲得して1つ
インクリメントする。なお、ack flagは共通のものとし
て用意されるので、この ack flag のフラグアドレスに
ついては、フラグアドレス保持部25が予め保持する構
成を採っている。
【0038】続いて、メモリ制御部23は、要求された
送信データをメモリ11から読み出してコマンド処理部
21に渡していき、これにより、送信データがPUTの
指定する受信側プロセッシング・エレメント1に送信さ
れていくことになるが、この送信データの読出処理を完
了すると、メモリ制御部23は、フラグ更新部26にそ
の旨を通知する。
【0039】このデータ送信完了通知を受け取ると、フ
ラグ更新部26は、フラグアドレス保持部25に保持さ
れている send complete flag のフラグアドレスの指す
フラグ値(すなわち、send complete flagのフラグ値)
を排他獲得して1つインクリメントする。そして、この
データ送信に応答して受信側プロセッシング・エレメン
ト1から受信完了メッセージが送られてくると、フラグ
更新部26は、ack 値が ack flag の有効を表示してい
るときには、フラグアドレス保持部25に保持されてい
る ack flag のフラグアドレスの指すフラグ値(すなわ
ち、ack flagのフラグ値)を排他獲得して1つデクリメ
ントする。
【0040】このようにして、PUT送信側のプロセッ
シング・エレメント1では、図5に示すように、PUT
の指定するデータ送信が完了すると、send complete fl
agのフラグ値が“1”に転じ、関数 amcheckが、このフ
ラグ値“1”を検出することで、ソフトウェアに対して
データ送信の完了が通知されることになる。また、図6
に示すように、PUTの指定するデータ送信が開始する
と、 ack flag のフラグ値が“1”に設定されるととも
に、そのデータが受信側プロセッシング・エレメント1
で受信完了すると、そのフラグ値が“0”に設定され、
関数 amcheckが、この ack flag のフラグ値“0”を検
出することで、ソフトウェアに対して受信側プロセッシ
ング・エレメント1でのデータ受信が完了したことが通
知されることになる。
【0041】このように、本発明では、割り込みを用い
ることなく、送信領域の保護を実現できるようになる。
なお、図5の実施例では、関数 amcheckが、send compl
eteflagのフラグ値が“1”に転ずるときに、ソフトウ
ェアに対してデータ送信が完了したことが通知される構
成を開示したが、“1”以外の数値へ到達するときに、
ソフトウェアに対してデータ送信が完了したことが通知
される構成を採ることも可能である。
【0042】一方、プロセッシング・エレメント1の受
信制御部24は、PUTの指定するデータを受信すると
きには、メモリ制御部23に指示することで、受信する
データを、PUTの指定アドレス remote addrを起点と
するPUTの指定サイズ size の大きさを持つメモリ1
1の領域へ書き込んでいくことになる。
【0043】この処理の開始にあたって、受信制御部2
4は、PUTの指定する put flagのフラグアドレスを
通知しつつ、メモリ制御部23に対して、 put flag の
フラグ更新処理を要求し、この更新要求を受け取ると、
メモリ制御部23は、この put flag のフラグアドレス
をフラグアドレス保持部25に保持させる。
【0044】続いて、メモリ制御部23は、受信するデ
ータをメモリ11へ書き込んでいき、この受信データの
書込処理を完了すると、フラグ更新部26にその旨を通
知する。このデータ受信完了通知を受け取ると、フラグ
更新部26は、フラグアドレス保持部25に保持されて
いる put flag のフラグアドレスの指すフラグ値(すな
わち、put flagのフラグ値)を排他獲得して1つインク
リメントする。
【0045】このようにして、PUT受信側のプロセッ
シング・エレメント1では、図5に示すように、PUT
の指定するデータ受信が完了すると、 put flag のフラ
グ値が“1”に転じ、関数 amcheckが、このフラグ値
“1”を検出することで、ソフトウェアに対してデータ
受信が完了したことが通知されることになる。
【0046】このように、本発明では、割り込みを用い
ることなく、受信領域の保護を実現できるようになる。
なお、図5の実施例では、関数 amcheckが、put flagの
フラグ値が“1”に転ずるときに、ソフトウェアに対し
てデータ受信が完了したことが通知される構成を開示し
たが、“1”以外の数値へ到達するときに、ソフトウェ
アに対してデータ受信が完了したことが通知される構成
を採ることも可能である。
【0047】一方、プロセッシング・エレメント1のコ
マンド処理部21は、転送要求コマンドキュー20から
読み出した転送要求に従って、GETを送信するときに
は、直ちに転送制御部22に指示することで、そのGE
Tをデータ入手先となるプロセッシング・エレメント1
に送信していく。
【0048】そして、このGET送信に応答して入手先
プロセッシング・エレメント1から、発行したGET情
報とともに要求データが送られてくると、GET送信側
のプロセッシング・エレメント1の受信制御部24は、
メモリ制御部23に指示することで、受信する要求デー
タを、GETの指定アドレス local addr を起点とする
GETの指定サイズ size の大きさを持つメモリ11の
領域へ書き込んでいく。
【0049】この要求データの書込処理が完了すると、
メモリ制御部23は、送られてきたGET情報の指定す
る get flag のフラグアドレスを通知しつつ、フラグ更
新部26にその旨を通知し、この要求データ受信完了通
知を受け取ると、フラグ更新部26は、その get flag
のフラグアドレスの指すフラグ値(すなわち、 get fla
g のフラグ値)を排他獲得して1つインクリメントす
る。
【0050】このようにして、GET送信側のプロセッ
シング・エレメント1では、図7に示すように、GET
の指定する要求データの受信が完了すると、get flagの
フラグ値が“1”に転じ、関数 amcheckが、このフラグ
値“1”を検出することで、ソフトウェアに対して要求
データの受信が完了したことが通知されることになる。
【0051】このように、本発明では、割り込みを用い
ることなく、要求データの受信状態をソフトウェアに通
知することができるようになる。なお、図7の実施例で
は、関数 amcheckが、get flagのフラグ値が“1”に転
ずるときに、ソフトウェアに対して要求データの受信が
完了したことが通知される構成を開示したが、“1”以
外の数値へ到達するときに、ソフトウェアに対して要求
データの受信が完了したことが通知される構成を採るこ
とも可能である。
【0052】一方、プロセッシング・エレメント1の受
信制御部24は、GETを受信するときには、そのGE
Tを応答コマンドキュー27にキューイングしていくこ
とになる。このキューイング処理を受けて、コマンド処
理部28は、キューイングされたGETの要求データを
送信するときには、転送制御部29を介してメモリ制御
部23に指示することで、メモリ11から、GETの指
定アドレス remote addrを起点とするGETの指定サイ
ズ size 分のデータを読み出し、転送制御部22に指示
することで、GET情報とともに、その読み出したデー
タをGET送信側のプロセッシング・エレメント1に送
信していくことになる。
【0053】この処理の開始にあたって、コマンド処理
部28は、GETの指定する sendcomplete flag のフ
ラグアドレスを通知しつつ、転送制御部29を介しメモ
リ制御部23に対して、send complete flagのフラグ更
新処理を要求し、この更新要求を受け取ると、メモリ制
御部23は、この send complete flag のフラグアドレ
スをフラグアドレス保持部25に保持させる。
【0054】続いて、メモリ制御部23は、要求データ
をメモリ11から読み出して転送制御部29に渡してい
き、これにより要求データがGET送信側のプロセッシ
ング・エレメント1に送信されていくことになるが、こ
の要求データの読出処理を完了すると、メモリ制御部2
3は、フラグ更新部26にその旨を通知する。
【0055】この要求データの送信完了通知を受け取る
と、フラグ更新部26は、フラグアドレス保持部25に
保持されている send complete flag のフラグアドレス
の指すフラグ値(すなわち、send complete flagのフラ
グ値)を排他獲得して1つインクリメントする。
【0056】このようにして、GET受信側のプロセッ
シング・エレメント1では、図7に示すように、GET
の指定する要求データの送信が完了すると、send compl
eteflagのフラグ値が“1”に転じ、関数 amcheckが、
このフラグ値“1”を検出することで、ソフトウェアに
対して要求データの送信が完了したことが通知されるこ
とになる。
【0057】このように、本発明では、割り込みを用い
ることなく送信領域の保護を実現できるようになる。な
お、図7の実施例では、関数 amcheckが、send complet
e flagのフラグ値が“1”に転ずるときに、ソフトウェ
アに対して要求データの送信が完了したことが通知され
る構成を開示したが、“1”以外の数値へ到達するとき
に、ソフトウェアに対して要求データの送信が完了した
ことが通知される構成を採ることも可能である。
【0058】図8に、図2に図示したプロセッシング・
エレメント1の一例を図示する。次に、この一例に従っ
て、図2に図示した本発明に関連する並列計算機の技術
ついて詳細に説明する。ここで、図中、図2で説明し
たものと同じものについては同一の記号で示してある。
【0059】30は転送要求コマンドキューであって、
プロセッサ10の要求するPUTやGETをキューイン
グするもの、31はコマンド処理部であって、転送要求
コマンドキュー30にキューイングされる転送要求を解
釈してデータ転送依頼を発行するもの、32は転送制御
部であって、コマンド処理部31の発行するデータ転送
依頼に応じたデータ転送処理を実行するものである。
【0060】33は受信バッファであって、他プロセッ
シング・エレメント1から送られてくる転送データを一
時的に格納するもの、34は受信制御部であって、他プ
ロセッシング・エレメント1から送られてくる転送デー
タを受信するもの、35はレジスタ参照制御部であっ
て、通信専用レジスタ16に格納されるデータの参照処
理を実行するものである。
【0061】このように構成される本発明に関連する並
列計算機の技術のプロセッシング・エレメント1では、
プロセッサ10が共有メモリ空間に送信データを書き込
むと、メモリ制御部13は、自動的に送信パケットを生
成して転送要求コマンドキュー30にキューイングし、
コマンド処理部31は、PUTを使って、このキューイ
ングされた送信パケットを順番に他プロセッシング・エ
レメント1へと送信していく。
【0062】このようにして、プロセッサ10は、特定
のアドレスに対するストア命令を発行するだけで、デー
タを目的のプロセッシング・エレメント1に送ることが
できることになるが、この送信されるデータは、受信側
のプロセッシング・エレメント1の通信専用レジスタ1
6に格納されることになる。
【0063】一方、受信制御部34がPUTやGETに
応答して送られてくる他プロセッシング・エレメント1
からのデータを受信すると、メモリ制御部13は、その
データを通信専用レジスタ16の指定されるレジスタに
書き込み、この書き込みが完了すると、そのレジスタと
対となるフラグに格納状態を示すビット値“1”をセッ
トする。
【0064】プロセッサ10は、演算に必要となる他プ
ロセッシング・エレメント1のデータを入手するときに
は、そのデータを格納する通信専用レジスタ16のレジ
スタ番号を指定してロード命令を発行し、この発行を受
けて、レジスタ参照制御部35は、そのレジスタ番号の
指すフラグのビット値が“1”を表示しているときに
は、そのレジスタ番号の指す通信専用レジスタ16のレ
ジスタからデータを読み出してプロセッサ10に渡し、
ビット値が“0”を表示しているときには、“1”に転
ずるまで待って、“1”に転ずると、データを読み出し
てプロセッサ10に渡す。そして、データを読み出した
後、ビット値を“0”にリセットする。
【0065】このようにして、プロセッサ10は、ロー
ド命令を1回発行するだけで、目的のデータを受信する
ことができる。このように、本発明に関連する並列計算
機の技術では、メモリ11よりもプロセッサ10に近い
通信専用レジスタ16を用意する構成を採って、その通
信専用レジスタ16をPUTの送信先とすることで、メ
モリアクセスのためのオーバーヘッドを削減する構成を
採っている。そして、データが通信専用レジスタ16に
到達したことを示すフラグを用意することで、プロセッ
サ10からのレジスタへのアクセスをハードウェアで制
御できるようにする構成を採っている。ここで、プロセ
ッサ10は、通信専用レジスタ16のフラグが必要とな
るデータの未格納を表示するときには、レディ状態にあ
る他のタスクを実行していくように処理することが好ま
しい。
【0066】この構成に従い、プロセッサ10は、クロ
ーバル演算処理や放送処理やバリア同期処理を高速に実
行できるようになる。すなわち、プロセッサ10は、自
通信専用レジスタ16に格納されるデータと自データと
に演算処理を施して、その演算結果データをPUTを使
って他プロセッシング・エレメント1の通信専用レジス
タ16に転送していくことで、グローバル演算処理を高
速に実行できるようになる。このとき、例えば、演算結
果データの最大値を持つプロセッシング・エレメント1
を知らせるべく、そのプロセッシング・エレメント1の
識別番号を通信専用レジスタ16に転送していくという
ように、演算結果データに加えて、特定の演算結果デー
タを保持するプロセッシング・エレメント1の識別子番
号を通信専用レジスタ16に転送していくことも可能で
ある。
【0067】また、プロセッサ10は、放送データをP
UTを使って他プロセッシング・エレメント1の通信専
用レジスタ16に転送していくことで、放送処理を高速
に実行できるようになる。
【0068】また、プロセッサ10は、自通信専用レジ
スタ16に格納されるデータと自データとに演算処理を
施して、その演算結果データをPUTを使って他プロセ
ッシング・エレメント1の通信専用レジスタ16に転送
していくことで、バリア同期処理を高速に実行できるよ
うになる。例えば、プロセッシング・エレメント1がバ
リア同期点に到達するときに“1”を出力する構成を採
って、その出力値の総和がプロセッシング・エレメント
1の台数に到達するときにバリア同期がとれたことを検
出するというようなバリア同期処理を高速に実行できる
ようになるのである。
【0069】また、プロセッサ10は、自通信専用レジ
スタ16に格納されるデータに規定の演算処理を施し
て、その演算結果データをPUTを使って他プロセッシ
ング・エレメント1の通信専用レジスタ16に転送して
いくことで、バリア同期のステータス状態の認識処理を
高速に実行できるようになる。例えば、プロセッシング
・エレメント1がバリア同期点でのステータス状態値を
出力する構成を採って、その出力値にAND演算やOR
演算を施していくことでバリア同期点での状態値を検出
するというようなバリア同期のステータス状態の認識処
理を高速に実行できるようになるのである。
【0070】次に、図9に従って、本発明に関連する並
列計算機の技術により実行されるグローバル演算の実行
例について説明する。ここで、この実施例では、4台の
プロセッシング・エレメント1の持つローカルデータの
総和を演算するグローバル演算を想定している。
【0071】ローカルデータの総和を演算するために、
最初に、Cell0のプロセッシング・エレメント1は、ロ
ーカルデータaを隣のCell1のプロセッシング・エレメ
ント1の通信専用レジスタ16に送出し、Cell1のプロ
セッシング・エレメント1は、ローカルデータbを隣の
Cell2のプロセッシング・エレメント1の通信専用レジ
スタ16に送出し、Cell2のプロセッシング・エレメン
ト1は、ローカルデータcを隣のCell3のプロセッシン
グ・エレメント1の通信専用レジスタ16に送出し、Ce
ll3のプロセッシング・エレメント1は、ローカルデー
タdを隣のCell0のプロセッシング・エレメント1の通
信専用レジスタ16に送出する。
【0072】次に、Cell0のプロセッシング・エレメン
ト1は、自ローカルデータaと自通信専用レジスタ16
の格納データdとの加算値を求めて、その加算値をクロ
スオーバー方式に従って2つ隣のCell2のプロセッシン
グ・エレメント1の通信専用レジスタ16に送出し、Ce
ll1のプロセッシング・エレメント1は、自ローカルデ
ータbと自通信専用レジスタ16の格納データaとの加
算値を求め、その加算値をクロスオーバー方式に従って
2つ隣のCell3のプロセッシング・エレメント1の通信
専用レジスタ16に送出し、Cell2のプロセッシング・
エレメント1は、自ローカルデータcと自通信専用レジ
スタ16の格納データbとの加算値を求め、その加算値
をクロスオーバー方式に従って2つ隣のCell0のプロセ
ッシング・エレメント1の通信専用レジスタ16に送出
し、Cell3のプロセッシング・エレメント1は、自ロー
カルデータdと自通信専用レジスタ16の格納データc
との加算値を求め、その加算値をクロスオーバー方式に
従って2つ隣のCell1のプロセッシング・エレメント1
の通信専用レジスタ16に送出する。
【0073】続いて、Cell0のプロセッシング・エレメ
ント1は、自通信専用レジスタ16の2つの格納データ
(a+d),(c+b)を加算することで総和値を算出
し、Cell1のプロセッシング・エレメント1は、自通信
専用レジスタ16の2つの格納データ(b+a),(d+
c)を加算することで総和値を算出し、Cell2のプロセ
ッシング・エレメント1は、自通信専用レジスタ16の
2つの格納データ(c+b),(a+d)を加算すること
で総和値を算出し、Cell3のプロセッシング・エレメン
ト1は、自通信専用レジスタ16の2つの格納データ
(d+c),(b+a)を加算することで総和値を算出す
る。
【0074】このようにして、ローカルデータの総和を
演算するクローバル演算が実行されることになるが、こ
の総和のようなグローバル演算では、プロセッシング・
エレメント1の台数が2n 台であるときには、ロード、
ストア、演算をそれぞれn回実行することになる。ま
た、クロスオーバー方式に従って、最初は隣のプロセッ
シング・エレメント1、次は2つ隣のプロセッシング・
エレメント1、次は4つ隣のプロセッシング・エレメン
ト1というように送信先を決定していくことから、プロ
セッシング・エレメント1の台数が2n 台であるときに
は、各プロセッシング・エレメント1の通信専用レジス
タ16は、n個のレジスタを持つ必要がある。
【0075】
【発明の効果】以上説明したように、本発明によれば、
明示的な受信命令のないPUT/GETのような直接メ
モリにアクセスするメッセージを用いる場合に、メッセ
ージ送受信時に必要となる送受信領域の保護のための処
理をハードウェアで行う構成を採ることから、従来のよ
うに割り込みによってプロセッサの演算実行が妨げられ
るようなことが起こらない。これから、PUT/GET
の要求をノンブロッキングで送信する機構と組み合わせ
ることで、通信と計算との完全なオーバーラップが可能
となって、並列計算機の実行効率を著しく向上できるよ
うになる。
【0076】
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】 本発明に関連する並列計算機の技術の説明
図である。
【図3】PUT/GETの基本形式の説明図である。
【図4】本発明の一実施例である。
【図5】PUT発行時のタイムチャートである。
【図6】PUT発行時のタイムチャートである。
【図7】GET発行時のタイムチャートである。
【図8】 本発明に関連する並列計算機の技術で用い
るプロセッシング・エレメントの一例である。
【図9】グローバル演算の実行例である。
【符号の説明】
1 プロセッシング・エレメント 2 相互結合網 10 プロセッサ 11 メモリ 12 通信制御機構 13 メモリ制御部 14 フラグアドレス保持部 15 フラグ更新部 16 通信専用レジスタ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 白木 長武 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 平1−261769(JP,A) 特開 平5−28291(JP,A) 特開 平3−98152(JP,A) 特開 昭62−52664(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06F 15/16 - 15/177 G06F 13/00 G06F 13/38 - 13/42

Claims (6)

    (57)【特許請求の範囲】
  1. 【請求項1】 複数のプロセッシング・エレメントから
    構成される並列計算機において、 各プロセッシング・エレメントの持つハードウェアで構
    成される通信制御機構が、 他プロセッシング・エレメントに対して直接遠隔書込メ
    ッセージを送信するときに、該直接遠隔書込メッセージ
    のヘッダの持つ送信完了フラグアドレスを一時的に保持
    するフラグアドレス保持部と、 上記直接遠隔書込メッセージの指すデータの送信が完了
    するときに、上記フラグアドレス保持部の保持する送信
    完了フラグアドレスの指すフラグを排他的に更新するこ
    とで、該フラグに対して該直接遠隔書込メッセージの指
    すデータの送信完了をセットするフラグ更新部とを備え
    ることを、 特徴とする並列計算機。
  2. 【請求項2】 複数のプロセッシング・エレメントから
    構成される並列計算機において、 各プロセッシング・エレメントの持つハードウェアで構
    成される通信制御機構が、 他プロセッシング・エレメントから送られてくる直接遠
    隔書込メッセージを受信するときに、該直接遠隔書込メ
    ッセージのヘッダの持つ受信完了フラグアドレスを一時
    的に保持するフラグアドレス保持部と、 上記直接遠隔書込メッセージの指すデータの受信が完了
    するときに、上記フラグアドレス保持部の保持する受信
    完了フラグアドレスの指すフラグを排他的に更新するこ
    とで、該フラグに対して該直接遠隔書込メッセージの指
    すデータの受信完了をセットするフラグ更新部とを備え
    ることを、 特徴とする並列計算機。
  3. 【請求項3】 複数のプロセッシング・エレメントから
    構成される並列計算機において、 各プロセッシング・エレメントの持つハードウェアで構
    成される通信制御機構が、 他プロセッシング・エレメントから直接遠隔読出メッセ
    ージに対しての返信データが送られてくるときにあっ
    て、その受信が完了するときに、該直接遠隔読出メッセ
    ージのヘッダの持つ入手完了フラグアドレスの指すフラ
    グを排他的に更新することで、該フラグに対して該直接
    遠隔読出メッセージの指すデータの入手完了をセットす
    るフラグ更新部を備えることを、 特徴とする並列計算機。
  4. 【請求項4】 複数のプロセッシング・エレメントから
    構成される並列計算機において、 各プロセッシング・エレメントの持つハードウェアで構
    成される通信制御機構が、 他プロセッシング・エレメントから送られてくる直接遠
    隔読出メッセージを受信するときに、該直接遠隔読出メ
    ッセージのヘッダの持つ返信完了フラグアドレスを一時
    的に保持するフラグアドレス保持部と、 上記直接遠隔読出メッセージの指すデータの送信が完了
    するときに、上記フラグアドレス保持部の保持する返信
    完了フラグアドレスの指すフラグを排他的に更新するこ
    とで、該フラグに対して該直接遠隔読出メッセージの指
    すデータの返信完了をセットするフラグ更新部とを備え
    ることを、 特徴とする並列計算機。
  5. 【請求項5】 請求項1、2、3又は4記載の並列計算
    機において、 上記フラグ更新部は、規定の更新回数に到達するとき
    に、フラグのセット値が完了状態を表示することになる
    ようにと更新処理を実行していくよう処理することを、 特徴とする並列計算機。
  6. 【請求項6】 請求項1記載の並列計算機において、 上記フラグアドレス保持部は、更に、直接遠隔書込メッ
    セージに対しての応答完了を表示する確認フラグのフラ
    グアドレスについても保持するよう処理し、 かつ、上記フラグ更新部は、直接遠隔書込メッセージの
    送信開始時に、上記フラグアドレス保持部の保持する確
    認フラグアドレスの指す上記確認フラグを更新するとと
    もに、他プロセッシング・エレメントから送られてくる
    直接遠隔書込メッセージに対しての受信完了メッセージ
    の受信時に、上記フラグアドレス保持部の保持する確認
    フラグアドレスの指す上記確認フラグを逆モードで更新
    していくよう処理することを、 特徴とする並列計算機。
JP10260994A 1994-05-17 1994-05-17 並列計算機 Expired - Fee Related JP3322754B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10260994A JP3322754B2 (ja) 1994-05-17 1994-05-17 並列計算機
US09/010,627 US6115803A (en) 1994-05-17 1998-01-22 Parallel computer which verifies direct data transmission between local memories with a send complete flag

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10260994A JP3322754B2 (ja) 1994-05-17 1994-05-17 並列計算機

Publications (2)

Publication Number Publication Date
JPH07311750A JPH07311750A (ja) 1995-11-28
JP3322754B2 true JP3322754B2 (ja) 2002-09-09

Family

ID=14331990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10260994A Expired - Fee Related JP3322754B2 (ja) 1994-05-17 1994-05-17 並列計算機

Country Status (2)

Country Link
US (1) US6115803A (ja)
JP (1) JP3322754B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027343A (ja) * 2006-07-25 2008-02-07 Yokogawa Electric Corp 制御装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3322754B2 (ja) * 1994-05-17 2002-09-09 富士通株式会社 並列計算機
US6446195B1 (en) * 2000-01-31 2002-09-03 Intel Corporation Dyadic operations instruction processor with configurable functional blocks
JP2001202345A (ja) * 2000-01-21 2001-07-27 Hitachi Ltd 並列プロセッサ
US6778174B1 (en) * 2000-05-04 2004-08-17 International Business Machines Corporation Method and apparatus for attribute processing with an active pipeline stage in a data processing system
US7025058B2 (en) * 2001-04-26 2006-04-11 New England Pharmaceuticals, Inc. Metered dose delivery device for liquid and powder agents
JP2003067354A (ja) * 2001-08-29 2003-03-07 Hitachi Ltd 並列計算機システム及びプロセッサ間通信処理方法
US7093043B2 (en) * 2001-12-27 2006-08-15 Hewlett-Packard Development Company, L.P. Data array having redundancy messaging between array controllers over the host bus
US7716290B2 (en) * 2003-11-20 2010-05-11 Microsoft Corporation Send by reference in a customizable, tag-based protocol
WO2007088581A1 (ja) * 2006-01-31 2007-08-09 Fujitsu Limited 共有メモリ型マルチプロセッサにおける手続き呼び出し方法、手続き呼び出しプログラムおよび記録媒体
JP4734348B2 (ja) * 2006-01-31 2011-07-27 富士通株式会社 共有メモリ型マルチプロセッサにおける非同期遠隔手続き呼び出し方法、非同期遠隔手続き呼び出しプログラムおよび記録媒体
JP4230504B2 (ja) * 2006-11-30 2009-02-25 株式会社日立製作所 データプロセッサ
US20090109996A1 (en) * 2007-10-29 2009-04-30 Hoover Russell D Network on Chip
US20090125706A1 (en) * 2007-11-08 2009-05-14 Hoover Russell D Software Pipelining on a Network on Chip
US8261025B2 (en) 2007-11-12 2012-09-04 International Business Machines Corporation Software pipelining on a network on chip
US8423715B2 (en) 2008-05-01 2013-04-16 International Business Machines Corporation Memory management among levels of cache in a memory hierarchy
US8438578B2 (en) 2008-06-09 2013-05-07 International Business Machines Corporation Network on chip with an I/O accelerator
JP5600740B2 (ja) * 2010-06-28 2014-10-01 パナソニック株式会社 応答装置とその集積回路、応答方法、および応答システム
JP6678093B2 (ja) * 2016-11-04 2020-04-08 株式会社日立製作所 データ共有システム、データ共有方法
JP6880402B2 (ja) * 2017-05-10 2021-06-02 富士通株式会社 メモリアクセス制御装置及びその制御方法
CN110430016B (zh) * 2019-08-01 2022-02-11 青岛海信宽带多媒体技术有限公司 一种数据接收方法、装置及光模块
JP7347157B2 (ja) * 2019-11-22 2023-09-20 富士通株式会社 情報処理システム、ストレージ制御プログラム、及び、ストレージ制御装置
US11785087B1 (en) * 2022-10-31 2023-10-10 Mellanox Technologies, Ltd. Remote direct memory access operations with integrated data arrival indication

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402046A (en) * 1978-12-21 1983-08-30 Intel Corporation Interprocessor communication system
DE3718996A1 (de) * 1987-06-06 1988-12-22 Bosch Gmbh Robert Verfahren und vorrichtung zur positionsbestimmung eines landfahrzeugs
WO1990001192A1 (en) * 1988-07-22 1990-02-08 United States Department Of Energy Data flow machine for data driven computing
JP2508872B2 (ja) * 1990-02-27 1996-06-19 三菱電機株式会社 プログラマブルコントロ―ラの制御方法
US5202998A (en) * 1990-08-31 1993-04-13 International Business Machines Corporation Fast, simultaneous multi-processor system status communication interface
US5386566A (en) * 1991-03-20 1995-01-31 Hitachi, Ltd. Inter-processor communication method for transmitting data and processor dependent information predetermined for a receiving process of another processor
US5388226A (en) * 1992-10-05 1995-02-07 Motorola, Inc. Method and apparatus for accessing a register in a data processing system
US5463765A (en) * 1993-03-18 1995-10-31 Hitachi, Ltd. Disk array system, data writing method thereof, and fault recovering method
JP3322754B2 (ja) * 1994-05-17 2002-09-09 富士通株式会社 並列計算機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027343A (ja) * 2006-07-25 2008-02-07 Yokogawa Electric Corp 制御装置

Also Published As

Publication number Publication date
JPH07311750A (ja) 1995-11-28
US6115803A (en) 2000-09-05

Similar Documents

Publication Publication Date Title
JP3322754B2 (ja) 並列計算機
JP4516941B2 (ja) プロセッサとメモリ・フロー・コントローラとの間でコマンド・パラメータを通信するためのシステム、方法、コンピュータ・プログラム、および装置
US5915088A (en) Interprocessor messaging system
US7930457B2 (en) Channel mechanisms for communicating with a processor event facility
EP0602769A2 (en) A multiprocessor system
JP3544390B2 (ja) 並列計算機で用いられるメッセージ通信方法
US7869459B2 (en) Communicating instructions and data between a processor and external devices
JPH10504665A (ja) バスブリッジにおけるトランザクション順序を維持し、遅延応答をサポートする方法及びそのための装置
US7543037B2 (en) RDMA completion and retransmit system and method
US8266633B1 (en) Method and message handling hardware structure for virtualization and isolation of partitions
JP3639319B2 (ja) 並列計算機システム,データ転送制御方法および送受信制御装置
US6988160B2 (en) Method and apparatus for efficient messaging between memories across a PCI bus
US5222219A (en) Pipeline computer system having write order preservation
JP5558713B2 (ja) データ処理システム内でプロセッサ内のイベントに関連する命令およびデータを伝達するための方法
JPH08241293A (ja) 遠隔メモリアクセス制御装置
JP2509569B2 (ja) 情報処理システム用i/o構造
JPS5833970B2 (ja) プロセッサ間通信方式
JP3536219B2 (ja) 分散メモリ保護管理装置
JP2981618B2 (ja) パイプラインコンピュータシステムでの書き込み順序保存方法
JPH09269936A (ja) リモートリード処理方法およびその装置
JP2853607B2 (ja) ジョブ間通信システム
JPH10150468A (ja) 送信履歴ビットを持つデータ処理装置およびデータ通信方法
JP3056182B2 (ja) データ伝送処理回路
JPH0340169A (ja) 多重プロセツサシステムおよび複数の処理装置を制御する方法
JPH10111798A (ja) 情報処理装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090628

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100628

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110628

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120628

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees