JPH02249083A - アレイプロセッサによる粒子シミュレーション方式 - Google Patents

アレイプロセッサによる粒子シミュレーション方式

Info

Publication number
JPH02249083A
JPH02249083A JP7008089A JP7008089A JPH02249083A JP H02249083 A JPH02249083 A JP H02249083A JP 7008089 A JP7008089 A JP 7008089A JP 7008089 A JP7008089 A JP 7008089A JP H02249083 A JPH02249083 A JP H02249083A
Authority
JP
Japan
Prior art keywords
processor
data
particle
particles
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7008089A
Other languages
English (en)
Inventor
Hiroyuki Sato
弘幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7008089A priority Critical patent/JPH02249083A/ja
Publication of JPH02249083A publication Critical patent/JPH02249083A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔目 次〕 概要 産業上の利用分野 従来の技術と発明が解決しようとする課題課題を解決す
るための手段 作用 実施例 発明の効果 〔概要〕 アレイ型並列プロセッサシステム上で、多数の粒子が三
次元空間内の「場Iのデータに基づいて動作する現象を
シミュレーションする方式に関し、シミュレーション対
象のオブジェクト空間をできる限り大きくでき、計算負
荷のバラツキが少なく、且つ、プロセッサ(PE)間の
通信オーバヘッドを小さくして、並列処理の効率を向上
させることを目的とし、 該アレイ型に接続された多数のプロセッサ(PE)を、
1つ、又は、複数個のプロセッサ群に分割し、該分割さ
れたプロセッサ群のそれぞれに、上記粒子シミュレーシ
ョンに必要な「場」の全データを分散配置し、各プロセ
ッサ群に対して、全体の粒子数を均等に割当てると共に
、各プロセッサ群内においては、該「場」のデータを均
等に分散させた小領域を各プロセッサ(PE)に割当て
、対象粒子が該プロセッサ群内の他のプロセッサ(PE
)の担当する、上記小領域に移動した場合にのみ、該粒
子のデータを該当のプロセッサ(PE)に転送するよう
に構成する。
〔産業上の利用分野] 本発明は、アレイ型並列プロセッサシステム上で、多数
の粒子が三次元空間内の[場Jの影響を受けて運動、変
化する現象をシミュレーションする方式に関する。
多数の粒子が三次元空間内の[場1の影響を受けて運動
、変化する現象を取り扱う分野には、例えば、原子炉内
の中性子輸送(軌跡)のモンテカルロ計算や、流体の流
れ場に置かれた仮想粒子の運動(軌跡)計算、即ち、計
算機による風洞実験、或いは、三次元物体の映像生成の
為の光線追跡計算(光子輸送のシミュレーション)等、
広い応用分野がある。
これらの粒子の輸送(軌跡)計算においては、「場」の
データは参照されるだけであって、該「場」の影響を受
けて運動、変化する粒子の状態の影響を受けることがな
く、個々の粒子の運動。
変化を独立に計算することができる。
このような場合、該粒子が置かれるオブジェクト空間は
できる限り大きくできて、且つ、多量の粒子の運動軌跡
を、アレイ型並列プロセッサシステムを構成しているプ
ロセッサ(PE)が持つ実用的なメモリ容量で、高速に
演算できることが必要とされる。
〔従来の技術と発明が解決しようとする課題〕第3図は
従来のアレイプロセッサシステムによる粒子シミュレー
ション方式を示した図であり、(a)はオブジェクト空
間を示し、(bl)は空間割当法の場合を示し、(b2
)は粒子割当法の場合を示している。
従来、粒子シミュレーションを計算機を行う場合、汎用
計算機が用いられていたが、最近では処理速度の向上を
図る為に、例えば、ベクトル計算機が使われるようにな
った。
然しなから、粒子と「場」の相互作用の計算が複雑であ
ることから、該ベクトル化による速度の向上の効果が少
ないのが実状である。
一方、分散メモリ型の並列計算機では、多数の粒子を分
割し、個々のプロセッサ(以下、PEという)に割り当
てて並列処理することで、はぼ、PEの台数に比例した
性能の向上が望める。
個々の粒子の計算には、全ての「場」のデータが必要で
あり、通常、該「場」のデータを全てのPEに持たせる
必要がある。
従って、該PEのメモリ容量を越えるような「場」のデ
ータは処理できないという問題がある。
又、大量な「場」のデータを扱えるように、各PEに大
きなメモリを持たせることは、計算機のコストを高くし
てしまい現実的でない。
そこで、(a)図に示したように、オブジェクト空間を
メツシュ状に空間分割し、該分割された一領域を各PE
 llaに担当させる空間分割方法が考えられる。この
方法では、メモリの必要量は上記の方法に比べて、PE
 llaの台数骨の1に削減することができる。
この方式では、粒子の分割と、PE llaへの担当の
させ方により2通りの方法がある。
1つは、(bl)図に示した空間割当法であって、各P
E llaが担当する空間を固定とするもので、該固定
的に割当てられた部分空間(領域)に存在する粒子の動
作を、該PE llaに処理させることになる。
従って、ある粒子R4について、これが、当該PIE 
llaの担当する領域外に移動すると、移動後の位置を
含む担当領域を持つPE llaに該粒子に関するデー
タを転送する。
この方式では、上記のように、オブジェクト空間の特定
の領域を各PE11aに固定しているので、粒子の空間
的なバラツキの状態に応じて、計算負荷のバラツキが生
じてしまい、十分な並列処理の効果が得られないという
問題がある。
他の方式は(b2)図に示した粒子割当法であって、粒
子の位置によらず、はぼ同数の粒子を固定的に、それぞ
れのPE llaに割当るもので、粒子の動作の計算に
必要な「場」のデータは、必要になった時点で、該領域
を担当しているPE llaから転送させることになる
該「場」のデータは、粒子のデータ量に比較して、通常
多量であり、且つ、アレイ接続の並列計算機では、離れ
たPE lla間のデータ転送が生じる為、通信のオー
バヘッドが大きくなり、やはり、並列処理の効率が低下
してしまうという問題がある。
本発明は上記従来の欠点に鑑み、アレイ型並列プロセッ
サシステム上で、多数の粒子が三次元空間内の「場」の
データに基づいて動作する現象をシミュレーションする
のに、該シミュレーション対象のオブジェクト空間をで
きる限り大きくでき、計算負荷のバラツキが少なく、且
つ、プロセッサ(PE)間の通信オーバヘッドを小さく
して、並列処理の効率を向上させることができる粒子シ
ミュレション方式を提供することを目的とするものであ
る。
[課題を解決するための手段] 第1図は本発明の原理説明図であり、(a)はプロセッ
サ(PE)のグルーピングの例を示し、(b)はグルー
プ内の各プロセッサ(PE)による「場」のブタの分割
担当の例を示している。
上記の問題点は下記の如くに構成されたアレイプロセッ
サによる粒子シミュレーション方式によって解決される
アレイ型並列プロセッサシステム1上で、多数の粒子が
三次元空間内の「場」のデータに基づいて動作する現象
をシミュレーションする方式であって・ 該アレイ型に接続された多数のプロセッサ(PE)11
aを、1個、又は、複数個のプロセッサ群11に分割し
、該分割されたプロセッサ群11のそれぞれに、上記粒
子シミュレーションに必要な「場、1の全データを分散
配置し、 各プロセッサ群■1に対して、全体の粒子数を均等に割
当てると共に、 各プロセッサ群ll内においては、該「場」のデータを
均等に分散させた小頭域■〜を各プロセッサ(PE) 
llaに割当て、 該粒子が該プロセッサ群ll内の他のプロセッサ(PE
) llaの担当する、上記小頭域■〜に移動した場合
にのみ、該粒子のデータを該当のプロセッサ(PE) 
llaに転送するように構成する。
〔作用〕
即ち、本発明によれば、アレイ型並列プロセッサシステ
ム上で、多数の粒子が三次元空間内の「場」のデータに
基づいて動作する現象をシミュレーションする方式にお
いて、 該アレイ型並列プロセッサシステムを構成している複数
個のプロセッサ(PE)を1つ、又は、複数個のプロセ
ッサ群(グループ)に分割し、該分割されたプロセッサ
群に対して、対象となるオブジェクト空間に関する「場
」の全データを持たせ、それぞれのプロセッサ群には、
シミュレーション対象の粒子を均等に、例えば、等分割
して割当ると共に、各プロセッサ群内では、上記「場」
の全データを、均等に、例えば、「飛び飛び」の小領域
単位で、該プロセッサ群を構成しているプロセッサ(P
E)に割当ることで、粒子が該シミュレーションによっ
て、該プロセッサ群内の他のプロセッサ(PE)が担当
する領域に移動した時のみ、該粒子のデータを該当のプ
ロセッサ(PE)にプロセッサ間通信により転送する。
従って、各プロセッサ(PE)が持つメモリ容量を越え
るような多量な「場」のデータを扱うことができ、「場
」のデータ量を固定とすると、プロセッサ(PE)のメ
モリ容量を節約することができる。
又、分割されたグループ内のプロセッサ(PL)間では
、「飛び飛び」の領域が割り当てられることで、各プロ
セッサエレメント(PE)に割当てられる粒子数が統計
的に平均化される効果がある。更に、各グループには、
全体の粒子数を等分割した数の粒子を割当ることで、各
プロセッサ(PE)間での負荷の平均化が図れる。又、
ある粒子が他の小領域に移動した場合のプロセッサ間通
信が隣接プロセッサ(PR)で済むことが多く、通信オ
ーバヘッドを低く抑えることができる。
〔実施例〕
以下本発明の実施例を図面によって詳述する。
前述の第1図が本発明の原理説明図であり、第2図は本
発明の一実施例を示した図であって、(a)はアレイ型
並列計算機の構成例を示し、(b)は粒子シミュレーシ
ョンの「場」の例を示し、(C)は粒子に関するデータ
テーブルの構成例を示し、(d)は粒子シミュレーショ
ンの動作フローを示していて、第1図に示した、プロセ
ッサ(PE)のグルーピングと、各グループ内のプロセ
ッサ(PE)に、例えば、「飛び飛び」に分割された「
場」のデータを持たせる手段と、更に、各プロセッサ群
(グループ)に均等、例えば、等分割で粒子を割当る手
段が本発明を実施するのに必要な手段である。尚、全図
を通して同じ符号は同じ対象物を示している。
以下、第1図、第2図によって、本発明のアレイプロセ
ッサによる粒子シミュレーション方式を説明する。
本実施例においては、流体の数値計算結果として得られ
る速度場に置かれた仮想粒子の運動のシミュレーション
を採り上げ、その時の上記速度場は、第2図(b)に示
した三次元の直方体状の領域を対象とし、該速度場のデ
ータは、この三次元の直方体状の領域を、例えば、第1
図(b)に示したように、メツシュ状に細かく切ったと
きの各格子点上の速度ベクトルとして与えられるものと
する。
そして、該速度場は、時間的には変化しないものとし、
この領域内の特定の場所に多数の仮想粒子を置き、この
粒子が時間が経過するにつれて、上記各点での速度ベク
トルによりどのように移動するかをシミュレーションす
る。そして、この仮想粒子の運動の軌跡をグラフィック
表示するか、又は、コンピュータアニメーションとして
表示することにより流れ場の状態を人間が理解する助け
として利用する例である。
先ず、第2図(a)に示したアレイ型プロセッサシステ
ムにおいて、各PHllaのメモリ容量を越える「場」
のデータを次のように分散配置する。
l) 第1図(a)に示したように、PElla群をグ
ループに分け(第1図(a)の例では、4 PEを1群
とした例である)、各プロセッサグループ11に、上記
「場」の全データを割当てる。
2)各プロセッサグループ11内の各PIE llaで
は、上記「場」の全データ量を分割して保持する。
この時の、該プロセッサグループ11内のPE11aの
台数をPgとすれば、各PHllaは該「場」の全デー
タの1/Pgのデータ量を担当することになる。
3) そして、本発明においては、各プロセッサグルー
プ11内のPE llaは、該担当する「場Jのデータ
を、例えば、「飛び飛び」で小頭域■。
■〜に細分して担当させるようにする。(第1図(b)
参照) 例えば、PE Ilaの台数をP(=p2)=64、プ
ロセッサグループ11の数をG−16とすると、各プロ
セッサグループII内のPE llaの台数Pg(=p
g2)ヨ4となる。
このようにPHIlaをグループ化した例を、第1図(
a)に示す。この場合には、各PE llaが「場」の
全データを保持する場合(従来方式)に比べて、Pg(
−4)倍のデータ量を扱うことができる。
従って、該Pgがより大きくなるようなPE 118の
グループ化(グルーピング)を行えば、扱える[場Jの
データ量も、該Pgに比例して増加することになるし、
[場Jの全体のデータ量を固定とすれば、各PClla
で分担するデータ量を1/Pgにすることができる。
又、上記Pgを大きくしていくと、プロセッサグループ
の数G (PgO数を最大にしたとき、該G。1となる
)は少なくなり、上記の「場」で扱う粒子の数が一定で
あれば、各プロセッサグループ11で扱う粒子の数が増
加してくるので、どのようにグルーピングするかは、各
PE llaのメモリ容量、シミュレーション対象の粒
子数、「場」のブタ量等によって、最も、適切なグルー
ピングを行うようにすればよい。
この時の、各プロセッサグループ11で扱う粒子の数は
、シミュレーション対象の全粒子を、例えば、等分割す
るが、該等分割に限定されるものではなく、計算負荷が
平均化するように、全てのプロセッサグループ11に、
均等に配分できる分は方であれば、どのような分は方で
あってもよいことはいう迄もないことである。
次に、各プロセッサグループ11内では、「場」の全デ
ータを、例えば、第1図(b)に示したように、「飛び
飛び」の小領域■、■、〜に分割する。
具体的には、先ず、直方体の「場」の空間(第1図、第
2図(b)参照)の、例えば、X−Y面に関して、Z軸
に並行で、Z軸、Y軸に垂直な面(第1図(b)の太線
で示した面)でD(=d2)個に、等分割する。
更に、該分割された各領域を同様な面で、上記のPg(
−pg2)個に分割する。ここで、該プロセッサグルー
プ11内での各PE llaのX、Y方向のアドレス(
px、 py> とし、−辺がd*pg個に分割された
領域のX、Y方向のアドレスを(rx、ry) とする
と、各プロセッサ(px、py)の担当する領域は、以
下の式を満足するアドレス(rx+ ry)の領域にな
る。
px = rx%pg py = ry%pg ここで、a%bは、整数aを整数すで割算した時の剰余
の整数、即ち、モジュロ値である。
第1図(b)は、d=4+pg・2の例であって、各P
H11aは、上記分割された小領域■、■、〜を、X。
Y方向に各−個おきに、各4個、計16個の小領域■〜
を担当することになる。例えば、PR(00)は、斜線
で示した、「飛び飛び」の小領域16個を担当する。
この小頭域■、■、〜各PE1laの割当ては、上記の
例のように、「飛び飛び」であってもよいし、例えば、
「千鳥」になっていても良い。要は、計算1荷が、各P
E llaに均等に分配される仕方であれば、どのよう
な割当て方法であってもよい。
又、あるPE llaが担当する小領域■に隣接する小
領域■〜は、ボー)110(第2図(a)参照)を介し
た通信路によって隣接するPE11aが担当している。
従って、後述のシミュレーションによって、ある粒子が
隣接の小領域■〜に移動した場合には、該粒子に関する
データを、該ポー) 110を介して隣接のPE ll
aに転送するだけで済むことになる。
分割数が上記D(=d”)個のとき、各PE llaは
該り個の「飛び飛び」の領域を担当する。該りを大きく
すると、各PHllaの担当する粒子数は統計的に平均
化される効果が得られ、従って、PH11a間の計算負
荷もより平均化される。
次に、各小領域を「飛び飛び」に担当しているPE l
laでの粒子シミュレーションの動作について説明する
第1図(b)に示した流れ場に置かれた仮想粒子は、そ
の点での方向ベクトルが指示する流れに乗って運ばれる
この時の、該仮想粒子の空間座標の変化は、次のように
して計算する。
先ず、N個の仮想粒子を、該流れ場の上流の適当な位置
に配置する。これは、第2図(a)のアレイ型並列計算
機システムのホスト計算機から、座標データ付の粒子デ
ータを共通バスを通じてプロトキャストする。このとき
、該N個の粒子は、前述のように、プロセッサグループ
11の数で、〜18− 例えば、等分割し、それぞれを各プロセ・ンサグルブ1
1に割当る。
各プロセッサグループll内のPHllaは、自己が担
当する小領域■〜内に入ってきた粒子のブタのみを取り
込み、粒子のデータ領域(粒子受信テーブル)に格納す
る。そして、該粒子の流れ場に乗った運動の計算機は以
下の手順で行う。
(第2図(d)参照) ステップ100 : 他のPa llaから受信した粒子データがあれば(即
ち、第2図(C2)に示した、粒子受信テーブルに、粒
子データが格納されていると)、その1つを読み込み、
第2図(CI)の粒子テーブルに登録する。
ステップ101: 粒子の座標位置(X、Y、Z)における速度ベクトルに
基づいて、該粒子の単位時間当たりの移動量、即ち、方
向ベクトルを計算する。
ステップ102: 該粒子の座標(X、Y、Z)と、上記方向ベクトルに基
づいて、該粒子の新たな位置を算出し、粒子位置(X、
Y、Z)を更新する。
ステップ103: 該粒子が、「場」の領域外に出たかとうかを調べ、該領
域外に出た場合には、ステップ107に飛ぶが、そうで
ない場合(該[−場」の領域内にある場合)には、次の
ステップ104に移る。
ステップ104: 粒子が自己の担当している小頭域■〜外に出たかどうか
を調べ、出た場合には、次のステップ105に移るが、
出ていない場合には、ステップ101に戻る。
ステップ105: 該粒子のデータを該当する隣接のPE llaに転送す
る。
ステップ106: シミュレーション対象の粒子がなくなった、即ち、上記
粒子受信テーブルに粒子データが無い場合、又は、指定
された時間ステップ数に達した場合には、当該粒子シミ
ュレーションを終了するが、そうでない場合にはステッ
プ100に戻る。
ステップ107: 上記粒子テーブルから削除し、ステップ106に飛ぶ。
このようにして、粒子シミュレーションが行われる。
このように、本発明は、アレイ型並列プロセッサシステ
ム上で、多数の粒子が三次元空間内の[場」のデータに
基づいて動作する現象をシミュレーションする方式にお
いて、該アレイ型並列プロセッサシステムを、1つ、又
は、複数個のプロセッサグループに分割し、該分割され
た各プロセッサグループに、オブジェクト空間、即ち、
「場」の全データを配置し、各プロセッサグループの各
プロセッサ(PR)には、該[場、iのデータを小領域
に分割したものを均等配分、例えば、「飛び飛び」の該
小領域■〜を割当てて、シミュレーションの結果、該当
粒子が、自己の担当している上記小頭域■外に移動した
時のみ、該粒子のデータを該小頭域■〜を担当している
隣接プロセッサ(PE)に転送することようにした所に
特徴がある。
〔発明の効果〕
以上、詳細に説明したように、本発明のアレイプロセッ
サによる粒子シミュレーション方式は、該アレイ型に接
続された多数のプロセッサ(PE)を、1つ、又は、複
数個のプロセッサ群に分割し、該分割されたプロセッサ
群のそれぞれに、上記粒子シミュレーションに必要な「
場」の全データを分散配置し、各プロセッサ群に対して
、全体の粒子数を均等に、例えば、等分割で割当てると
共に、各プロセッサ群内においては、該「場」のデータ
を均等に、例えば、[飛び飛びjに分散させた小領域■
〜を各プロセッサ(PR)に割当て、対象粒子が該プロ
セッサ群内の他のプロセッサ(PR)の担当する、上記
小頭域■〜に移動した場合にのみ、該粒子のデータを該
当のプロセッサ(PE)に転送するようにしたものであ
るので、各プロセッサ(PR)が持つメモリ容量を越え
るような多量な「場」のブタを扱うことができ、プロセ
ッサ(PR)のメモリ容量を節約するたとができる。又
、分割されたグループ内のプロセッサ(PE)間では、
「飛び飛び」の領域が割り当てられることで、各プロセ
ッサ(PE)に割当てられる粒子数が統計的に平均化さ
れる効果がある。更に、各グループには、全体の粒子数
を等分割した数の粒子を割当ることで、各プロセンサ(
PE)間での負荷の平均化が図れる。又、ある粒子が他
の小領域■〜に移動した場合のプロセッサ間通信が隣接
プロセッサ(PE)で済むことが多く、通信オーバヘッ
ドを低く抑えることができる。
レイプロセッサシステム。
11はプロセッサグループ 11aはプロセッサ(PE) 。
100〜107は処理ステップ ■〜はオブジェクト空間、又は、 の小領域。
Riは粒子。
をそれぞれ示す。
又は、 プロセッサ群。
1場」 のデ
【図面の簡単な説明】
第1図が本発明の原理説明図。 第2図は本発明の一実施例を示した図。 第3図は従来のアレイプロセッサシステムによる粒子シ
ミュレーション方式を示した図。 である。 図面において、 1はアレイ型並列プロセッサシステム、又は、ア第1図
(その2) 第1図(その1) 本発明の一実施例を示した図 第 圓 (その1) 粒子テーブル 粒子受信テ プル (cl) (c2) 本発明の一実施例を示した図 第 図 (その2)

Claims (1)

  1. 【特許請求の範囲】 アレイ型並列プロセッサシステム(1)上で、多数の粒
    子が三次元空間内の「場」のデータに基づいて動作する
    現象をシミュレーションする方式であって、 該アレイ型に接続された多数のプロセッサ(PE)(1
    1a)を、1個、又は、複数個のプロセッサ群(11)
    に分割し、該分割されたプロセッサ群(11)のそれぞ
    れに、上記粒子シミュレーションに必要な「場」の全デ
    ータを分散配置し、 各プロセッサ群(11)に対して、全体の粒子数を均等
    に割当てると共に、 各プロセッサ群(11)内においては、該「場」のデー
    タを均等に分散させた小領域([1]〜)を各プロセッ
    サ(PE)(11a)に割当て、 該粒子が該プロセッサ群(11)内の他のプロセッサ(
    PE)(11a)の担当する、上記小領域([1]〜)
    に移動した場合にのみ、該粒子のデータを該当のプロセ
    ッサ(PE)(11a)に転送することを特徴とするア
    レイプロセッサによる粒子シミュレーション方式。
JP7008089A 1989-03-22 1989-03-22 アレイプロセッサによる粒子シミュレーション方式 Pending JPH02249083A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7008089A JPH02249083A (ja) 1989-03-22 1989-03-22 アレイプロセッサによる粒子シミュレーション方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7008089A JPH02249083A (ja) 1989-03-22 1989-03-22 アレイプロセッサによる粒子シミュレーション方式

Publications (1)

Publication Number Publication Date
JPH02249083A true JPH02249083A (ja) 1990-10-04

Family

ID=13421208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7008089A Pending JPH02249083A (ja) 1989-03-22 1989-03-22 アレイプロセッサによる粒子シミュレーション方式

Country Status (1)

Country Link
JP (1) JPH02249083A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438526A (en) * 1991-07-12 1995-08-01 Hitachi, Ltd. Program generation method for particles simulation
JP2012119008A (ja) * 2005-04-19 2012-06-21 D.E. Shaw Research LLC 粒子相互作用を計算するための並行計算アーキテクチャ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438526A (en) * 1991-07-12 1995-08-01 Hitachi, Ltd. Program generation method for particles simulation
JP2012119008A (ja) * 2005-04-19 2012-06-21 D.E. Shaw Research LLC 粒子相互作用を計算するための並行計算アーキテクチャ

Similar Documents

Publication Publication Date Title
US10007742B2 (en) Particle flow simulation system and method
US5694602A (en) Weighted system and method for spatial allocation of a parallel load
JPH06243113A (ja) 並列計算機における計算モデルのマッピング法
CN110929456B (zh) 移动粒子法并行计算等效粒子负载均衡加速方法
Kalé et al. A framework for collective personalized communication
Peris et al. Analysis of the impact of memory in distributed parallel processing systems
Moon et al. Adaptive runtime support for direct simulation Monte Carlo methods on distributed memory architectures
Liem et al. Molecular dynamics simulations on distributed memory machines
CN103425534A (zh) 在许多应用之间共享的图形处理单元
CN113256125B (zh) 异构机器人集群任务分配方法、系统、设备及存储介质
Bhatelé et al. Benefits of topology aware mapping for mesh interconnects
KR101415616B1 (ko) 파티클 기반 시뮬레이션을 위한 병렬 컴퓨팅 방법 및 그 장치
JPH02249083A (ja) アレイプロセッサによる粒子シミュレーション方式
Tasadduq et al. A hybrid algorithm for optimising facility layout
CN108304261A (zh) 一种基于6D-Torus网络的作业调度方法和装置
CN101019124A (zh) 模拟器系统
Sheng et al. Vmagent: Scheduling simulator for reinforcement learning
JP2000003352A (ja) 分子動力学法計算装置
Verschelde et al. Computing feedback laws for linear systems with a parallel Pieri homotopy
JPH0477853A (ja) 粒子運動シミュレーション方式
JPH05274277A (ja) 分子動力学計算装置
Chen et al. Extending the educational scope of a particle-based simulation framework through parallelization
Abdul-Hussin A Structural analysis of petri nets-based siphons supervisors of flexible manufacturing systems
JP7133843B2 (ja) 処理装置、処理システム、処理方法、プログラム、及び、記録媒体
CN103593492A (zh) 渲染将在计算机显示器上显示的计算机模型的有效方法