JPH05274277A - 分子動力学計算装置 - Google Patents

分子動力学計算装置

Info

Publication number
JPH05274277A
JPH05274277A JP7196792A JP7196792A JPH05274277A JP H05274277 A JPH05274277 A JP H05274277A JP 7196792 A JP7196792 A JP 7196792A JP 7196792 A JP7196792 A JP 7196792A JP H05274277 A JPH05274277 A JP H05274277A
Authority
JP
Japan
Prior art keywords
particle
particles
pes
calculation
molecular dynamics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7196792A
Other languages
English (en)
Inventor
Sadao Nakamura
定雄 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7196792A priority Critical patent/JPH05274277A/ja
Publication of JPH05274277A publication Critical patent/JPH05274277A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【目的】本発明は、並列計算機を用いて分子動力学計算
による物理現象シミュレーションを高速に実行する。 【構成】シュミレーション空間内に分布する粒子に対し
粒子割当て演算部13により各粒子を同数に割当てるよ
うに分割しシュミレーション空間における粒子間の近傍
関係とPE間接続の近傍関係を対応させ、この粒子割当
て演算部13で割当てられた各PEの担当する粒子の近
傍粒子データにより近傍粒子テーブル141を生成する
とともに、該近傍粒子テーブル141より所定距離内に
ある粒子を選択しブックキーピングテーブル142を生
成し、このブックキーピングテーブル142により粒子
間力計算部16で自分の粒子に働く粒子間力を計算する
ようにしている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、複数のプロセッサを結
合して構成される並列計算機を用いて多数の粒子の運動
をシュミレートする分子動力学計算装置に関するもので
ある。
【0002】
【従来の技術】古典力学的分子動力学計算は、多数の粒
子から成る集合体に対して、個々の粒子の運動を運動方
程式に従って追跡することにより、集合体のマクロ的な
特徴を解析するシミュレーション手法として知られてい
る。
【0003】ところで、分子動力学計算の実行には莫大
な計算量が必要であり、このために現在(1991年)
のところその利用は限られているが、分子動力学計算に
よる物理現象の解析を実用的なものにして広く利用した
いという強い要求がある。分子動力学計算は従来より逐
次型計算機の上で実行されており、計算量削減のための
工夫は種々考えられている。その一つがブックキーピン
グテーブルを用いる方法である。
【0004】短距離相互作用の分子動力学計算では粒子
間力はカットオフ距離より遠方には到達しないため、粒
子間力の計算にはカットオフ距離 Rcut より遠方にある
粒子を考慮する必要がない。そこで、各粒子に、粒子か
らカットオフ距離 Rcut 内にある粒子の番号のテーブル
(ブックキーピングテーブル)を持たせ、このブックキ
ーピングテーブルに従って各粒子間力の計算を行うよう
にしている。
【0005】この場合、各粒子はタイムステップごとに
位置座標を変化させるので、例えば20タイムステップ
の間に移動する最大距離 Rmov を見積もっておく。そし
て、ブックキーピング距離を距離 Rmov だけ大きくし、
Rbkp = Rcut + Rmov としてブックキーピングテーブル
を作ることで、ブックキーピングテーブルの作り直しも
20タイムステップに1回で済むようにしている。
【0006】図8は逐次型計算機による分子動力学計算
プログラムの概略的フローチャートを示すもので、この
場合、最初に粒子の初期座標と初期速度などの初期状態
を生成し(ステップ81)、タイムステップiを0にす
る(ステップ82)。この時点ではタイムステップiが
0でYESとなり(ステップ83)、すべての粒子につ
いてのブックキーピングテーブルを生成する(ステップ
84)。そして、これらすべての粒子について粒子間力
を計算するとともに、粒子を1タイムステップだけ進め
る(ステップ85、86)。すると、今度はステップ8
3でNOとなり、直接ステップ85ですべての粒子につ
いて粒子間力を計算する。以下、同様な動作が繰り返え
す。そして、タイムステップiが20タイムステップに
達しステップ73でYESとなると、再びすべての粒子
についてのブックキーピングテーブルの作り直しが行わ
れ(ステップ84)、さらに上述の動作が繰り返される
ようになる。ところが、このような逐次型計算機による
分子動力学計算では、ブックキーピングテーブルなどの
工夫にもかかわらず、その性能は不十分であった。
【0007】そこで、最近になって並列計算機を用いる
ことにより、劇的な性能向上を図ることが考えられてい
る。これは分子動力学計算における各時間ステップの計
算は原理的には粒子毎の並列性があることから、高並列
計算機に適した問題といえることでかなり有望視されて
いる。例えば1万個の粒子の運動を1万台のプロセッサ
(以下PEと略記する)でシミュレートしようと考える
のは自然である。
【0008】このような並列計算機では物理的な実装の
制約からPE間の接続が隣接接続になる。すなわち、物
理的に近くに配置されたPE間は通信路で直接に接続さ
れ、遠方のPEとは途中幾つかのPEを介して接続さ
れ、これらPEを経由して通信が行われるようになる。
【0009】従って、並列計算機で、その性能を上げる
ためにはPE間通信が局所的になることが重要であり、
遠方のPEとの間で大きなメッセージデータの通信が多
発することは全体の性能を大きく低下させる。さて、分
子動力学計算の並列化による高速化方法として、従来か
ら粒子分割による方法と空間分割による方法とが知られ
ている。粒子分割による並列化は、粒子をその空間座標
とは無関係にPEに固定的に割り当てるようにしてい
る。
【0010】ところが、このような粒子分割による方法
では、各粒子はブックピーピング距離内にある近傍粒子
の最新の座標値を知るために、タイムステップ毎に他の
全てのPEから粒子データを集める必要があり、PE間
の通信量が非常に大きくなる欠点がある。また、PE数
が非常に多い場合には、粒子数に比例する多量のメッセ
ージデータが各PE間の結合路全体を走り回ることにな
り、計算速度を著しく低下させる。しかし、この半面で
PE1個が粒子1個に対応するため、負荷分散の点から
は優れ、また、クーロン相互作用のような遠距離分子間
力にも対応できるという利点もある。
【0011】一方、空間分割による並列化は、シミュレ
ーション空間を均等に分割してPEに固定的に割り当
て、各PEは自分の領域内にある粒子についてのみ計算
を行うようにしている。
【0012】この場合、各粒子は運動によって空間座標
を変化するが、この時に自分の領域から外に出た粒子は
その領域を担当するPEに転送し、また他のPEから転
送されてきた粒子は自分の領域内の粒子に追加するよう
になる。そして、空間分割の分割サイズをカットオフ距
離と同じにすると、隣接PEと通信するだけで粒子間力
を計算できることから、PE間通信が局所的になること
は並列計算にとって大きな利点である。
【0013】ところが、このような空間分割による方法
では、空間分割の分割サイズをカットオフ距離と同じに
したのでは分割サイズが荒すぎてPE数を多く取れず、
計算速度の大きな向上は期待できない。そして、仮に空
間分割の分割サイズをもっと細かくするなら、PEが担
当する粒子数のばらつきが大きくなる可能性も生じる。
例えば、あるタイムステップで、多くのPEは1個の粒
子を持つが、あるPEは0個の粒子を持ち、別のPEは
3個の粒子を持つことがあり、このような場合には、全
体の計算速度は最大負荷のPEによって決まるので、計
算速度の低下も著しくなるという欠点がある。
【0014】
【発明が解決しようとする課題】このように、従来の粒
子分割方法によると、各粒子はブックピーピング距離内
にある近傍粒子の最新の座標値を知るため、タイムステ
ップ毎に他の全てのPEから粒子データを集める必要が
あることから、PE間の通信量が大きくなり、また、P
E数が非常に多い場合には、粒子数に比例する多量のメ
ッセージデータが各PE間の結合路全体を走り回ること
になり、計算速度を著しく低下する欠点がある。また、
空間分割方法によると、空間分割の分割サイズをカット
オフ距離と同じにすると分割サイズが荒すぎてPE数を
多く取れず、計算速度の大きな向上は期待できず、仮に
空間分割の分割サイズをもっと細かくするなら、PEが
担当する粒子数のばらつきが大きくなる可能性も生じ、
計算速度の低下も招く欠点がある。
【0015】本発明は、上記事情に鑑みてなされたもの
で、大規模並列計算に適する高速計算を正確に実行する
ことができる分子動力学計算装置を提供することを目的
としている。 [発明の構成]
【0016】
【課題を解決するための手段】本発明は、複数のプロセ
ッサを接続して構成される並列計算機を用いて多数の粒
子の運動をシュミレートする分子動力学計算装置であっ
て、シュミレーション空間内に分布する粒子を同数に割
当てるように分割し該シュミレーション空間における粒
子間の近傍関係と前記プロセッサ間接続の近傍関係を対
応させる分割割当て手段、この分割割当て手段で割当て
られた各プロセッサの担当する粒子の近傍粒子データに
基づいて所定距離内にある粒子を選択しブックキーピン
グテーブルに生成するテーブル生成手段、このテーブル
生成手段により生成されたブックキーピングテーブルの
内容により自分の粒子に働く粒子間力を計算する計算手
段とにより構成されている。また、分割割当て手段での
同数分割およびテーブル生成手段でのブックキーピング
テーブルの生成を所定のタイムステップ毎に更新するよ
うにもしている。
【0017】
【作用】この結果、本発明によれば、同数分割によって
粒子が全てのプロセッサに均等に割り当てられ、空間距
離の近い粒子は接続距離においても近いプロセッサに割
り当てられ、各プロセッサの負荷割り当てを均一にでき
る。これにより各プロセッサが担当する粒子の近傍粒子
データを自分の近くのプロセッサとの通信によって集め
ることができ、これにより生成されるブックキーピング
テーブルによる粒子間力を計算するためのプロセッサ間
通信も局所的となり高速に得られる。
【0018】また、本発明では計算の進行によって粒子
の空間座標が変化したとき、必要に応じて同数分割によ
る粒子のプロセッサへの再割り当てをおこなうので、計
算の間、常に粒子のプロセッサへの割り当てを均等にで
き、しかも粒子の空間距離とプロセッサの接続距離の近
似的な一致を保つこともできる。
【0019】
【実施例】以下、本発明の一実施例を図面に従い説明す
る。
【0020】図1は同実施例における並列計算機の概略
構成を示している。この場合、計算機は、複数のPEか
ら構成し、各PEは2次元格子点に配置し、X方向、及
びY方向が各々通信路によって隣接PEと結合するよう
にしている。
【0021】この実施例では3次元空間の分子動力学計
算を2次元空間にマッピングして2次元並列計算機の上
で実行するようにしている。また、すべての計算は各P
Eで分散的に行い、ホスト計算機や共有メモリの存在は
仮定しない。
【0022】図2はPE単体の概略構成を示している。
図において、11は通信部で、この通信部11は他のP
Eとの通信を行うものである。この通信部11には近傍
粒子データ収集部12と粒子割当て演算部13を接続し
ている。
【0023】近傍粒子データ収集部12は、通信部11
を介して他のPEより移動粒子データと近傍粒子データ
を収集するようにしている。そして、近傍粒子データ収
集部12で収集した近傍粒子データは、メモリ14の近
傍粒子テーブル141に記憶するようにしている。この
近傍粒子テーブル141は、図3に示すように自分を中
心として近傍半径 Nnbr 内にあるPEの持つ粒子の位置
座標テーブルからなるもので、例えば、近傍半径 Nnbr
= 3 とすると、近傍粒子テーブル141としては7×7
の大きさを持つようになる。粒子割当て演算部13は、
通信部11を介して集められた移動粒子データにより同
数分割による粒子のPEへの割当てを演算するものであ
る。
【0024】近傍粒子テーブル141の内容は、ブック
キーピングテーブル生成部15と粒子間力計算部16に
与えるようにしている。ブックキーピングテーブル生成
部15は、近傍粒子テーブル141の内容と粒子割当て
演算部13での演算結果からブックキーピングテーブル
を生成し、これをメモリ14のブックキーピングテーブ
ル142に格納するようにしている。また、粒子間力計
算部16は、近傍粒子テーブル141とブックキーピン
グテーブル142の内容に基づいて粒子に働く力の計算
し、この結果を粒子データ格納部143に格納するとと
もに、粒子データの更新を行うようになっている。
【0025】ここで、ブックキーピングテーブル142
は、近傍粒子テーブル141のエントリーへのポインタ
のテーブルであり、PEが担当する粒子に働く粒子間力
を計算するのに考慮すべき近傍粒子を表している。ここ
では、ブックキーピングテーブル142の生成にあたっ
て、例えば粒子が20タイムステップの間に移動する最
大距離 Rmov を見込んでブックキーピングの距離を定め
るようにしており、これにより、20タイムステップに
一回ブックキーピングテーブルの作り直しを行うように
している。また、粒子データ格納部143は、PEが担
当する粒子の状態を表す、粒子番号、粒子質量、位置座
標、速度、その他内部状態などのデータを格納してい
る。次に、このように構成した実施例の動作を説明す
る。図4は本実施例における分子動力学計算の手順を示
すフローチャートを示している。
【0026】最初に初期設定として、PEは自分の担当
する粒子の初期座標と初期速度を生成する(ステップ4
1)。そして、タイムステップiを0にする(ステップ
42)。
【0027】この時点ではタイムステップiが0でYE
Sとなり(ステップ43)、移動粒子データの収集が行
われる。ここでは通信部11によるPE間通信によって
自分を中心として半径 Nmov の各PEの持つ粒子の位置
座標を集め移動粒子テーブルを生成する(ステップ4
4)。この場合、移動粒子半径 Nmov はブックキーピン
グ半径 nbkp より小さいものであり、従って、この移動
粒子テーブルは上述の近傍粒子テーブル141内部に含
まれるようになる。
【0028】次に、同数分割による粒子のPEへの割り
当て処理を行う(ステップ45)。ここでの処理の詳細
は後で説明するが、PE割り当ては移動粒子テーブルに
基づく粒子のPE間移動を含んでいる。
【0029】次は、近傍粒子データの収集であり(ステ
ップ46)、通信部11によるPE間通信によって自分
を中心として半径 Nbkp 内のPEの持つ粒子の位置座標
を近傍粒子データ収集部12で集めて近傍粒子テーブル
141に近傍粒子テーブルを生成する。
【0030】次いで、ブックキーピングテーブルを作成
する(ステップ47)。この場合、ブックキーピングテ
ーブル生成部15は、近傍粒子テーブル141を参照し
て現在自分が担当している粒子から距離 Rbkp 内にある
粒子を選び出し、ブックキーピングテーブルに生成しブ
ックキーピングテーブル142に格納する。
【0031】次いで、粒子間力の計算を行う(ステップ
48)。この場合、ブックキーピングテーブル142の
内容により自分の粒子に働く粒子間力を求め、この計算
結果を粒子データ格納部142に格納する。また、粒子
データを1タイムステップだけ更新する。
【0032】そして、タイムステップiを1だけカウン
トアップし(ステップ49)、再びステップ43に戻
る。すると、今度はステップ73ではNOとなるので、
ステップ50に進み、ステップ46と同様に近傍粒子デ
ータの収集を行い、ステップ48で粒子間力の計算を行
うとともに、粒子データの1タイムステップの更新を行
う。
【0033】以下、同様な動作が繰り返えす。そして、
タイムステップiが20タイムステップに達しステップ
43で再びYESとなると、ステップ44以降に進み、
再びすべての粒子についてのブックキーピングテーブル
の作り直しが行われ(ステップ47)、さらに上述の動
作が繰り返されるようになる。次に、同数分割による粒
子のPEへの割当て処理について説明する。
【0034】図5は同数分割の概要を説明するためのも
ので、同図(a)はシミュレーション空間内に粒子が分
布する様子を示している。この場合、16個の粒子と図
1に示した4×4に配置された16個のPEを仮定して
いる。
【0035】まず、同数分割の第1段階はシミュレーシ
ョン領域を同数の粒子を含む2つの小領域に分割するY
軸に平行な1本の分割線を決定することである。このよ
うな分割の結果、シミュレーション領域は同図(b)の
ように2分割される。
【0036】次に、同数分割の第2段階は分割された2
つの小領域の各々に於いて、X軸に平行な分割線を決定
することである。このような第2段階の結果は同図
(c)によって示される。
【0037】そして、同数分割の第3段階は第1段階お
よび第2段階の処理を各々の小領域で反復することによ
って、最終的に1個のPEに1個の粒子を対応させるよ
うになる。最終結果は同図(d)によって示される。図
6は、このような同数分割のアルゴリズムを示すフロー
チャートである。
【0038】この場合、図はシミュレーション空間をY
軸に平行な分割線によって2分割する手順を示している
が、X軸に平行な分割線によって2分割する手順につい
ても同図に準ずるものである。
【0039】まず、シミュレーション空間のX方向の長
さをxL 、シミュレーション空間に含まれる全粒子数を
N とし、分割線の初期値として領域を2等分する直線を
選ぶ(ステップ61)。
【0040】次いで、分割線xを計算する(ステップ6
2)。そして、各PEは自分の粒子が分割線の左側にあ
るか右側にあるかを判断する(ステップ63)。この場
合、分割線の左側にある粒子を負、右側にある粒子を正
として、領域内の全てのPEについて粒子数を並列加算
する。並列加算結果nは計算に関わった全てのPEと同
じ値となる。
【0041】そして、並列加算結果nの正負を判断する
(ステップ64)。ここでnが負ならば、分割線の左側
の領域の方が粒子が多いことを意味し、nが正ならば右
側の領域の粒子が多いことを意味する。次に、この加算
結果に従って分割線xを適当な方向に動かし、再び粒子
数の並列加算を行なう(ステップ65、66)。その
後、加算結果nが0、+1、または−1になったとき領
域分割を終了し、計算に関わった全てのPEによる分割
線xの値が求まることになる。
【0042】そして、このようにして分割線を決定した
後に、各分割領域に対応して図1に示したPEの集合も
分割して両者を対応させ、さらに各PEにおいて各領域
の座標値に関するデータも更新するようになる。また、
各PEは自分の粒子が新たに定まった自分の領域内にあ
るかどうかを調べ、もし自分の持つ粒子が自分の領域に
属してなければ、この粒子は自分の領域から出ていく粒
子と判断するようにする。図7(a)は同数分割に伴う
粒子のPE間の移動を説明する図である。
【0043】この場合、図中71は現在注目している小
領域に対応するPEの集合であるとする。また、領域外
部と粒子のやりとりをするPE、即ち外部領域のPEと
通信を行なうPEは境界線71の内側で境界線から距離
Nmov 以内にあるPEだけである。図面では、黒塗りの
PEが上記PEに相当するものとする(以下境界PEと
略記する。)。
【0044】まず、領域内の全ての境界PEについて、
現在自分の持っている粒子が自分の領域内にあるかどう
かを調べる。自分の領域外ならば外に流出する粒子なの
でこの粒子をPEから除去する。
【0045】各境界PEには粒子を受けとることのでき
る外部領域のPEが定まっている。そこで各境界PEは
自分の移動粒子テーブルの外部領域のPEに対応する特
定の位置にある粒子の位置座標を見て、自分の領域に流
れ込む粒子であるかどうかを調べる。
【0046】例えば図7のPE64はPE65又はPE
66からのみ粒子を受けとることができる。従って、P
E64は自分の移動粒子テーブルのPE65、PE66
に対応する位置(図7(b)の斜線が施されている部
分)にある粒子の位置座標を見て、これら粒子が自分の
領域に流れ込んだ粒子であるかどうかを検査する。もし
自分の領域に流れ込んだ粒子があれば、これを自分の受
け持つ粒子の一つに加える。
【0047】同数分割の途中の段階では粒子のPE間移
動によって1個のPEが複数の粒子を持つことや粒子を
持たないこともあり得るが、同数分割を最後まで遂行す
れば正確にPE1個に粒子1個を対応させることができ
る。
【0048】さて、同数分割を小領域に対して反復的に
適用して最終的に1個のPEに1個に粒子が対応したと
する。しかし、粒子データ格納部143の粒子データ
は、元のPEのものを持っている。そこで各PEは新た
に自分が担当することになった粒子の元いたPEに対し
て自分のPE番号を知らせるメッセージを送信し、各P
Eは前記メッセージを受けとったなら、前記粒子データ
本体をメッセージに書かれているPEに送信する。以上
により同数分割による粒子のPE割り当て処理が終了す
る。
【0049】従って、このような同数分割による粒子の
PE割り当てを実行すれば、粒子数が十分多く、各粒子
の空間分布に大きな偏りがないとすれば、シミュレーシ
ョン空間に於ける粒子間の近傍関係と、対応するPEの
PE間接続における近傍関係とがある誤差の範囲で一致
する。
【0050】そこで、自分のPEを中心に半径 Nnbr
(=3)内の全てのPEが持つ粒子の位置座標を収集し
近傍粒子テーブルとして生成し、この近傍粒子テーブル
141の内容を調べれば、現在自分が担当している粒子
から距離 Rbkp 内にある粒子を十分に知ることができ
る。
【0051】そして、この距離 Rbkp 内にある粒子によ
りブックキーピングテーブルを生成することで、各PE
が担当する粒子に働く粒子間力を計算するのに考慮すべ
き近傍粒子が決定され、粒子間力計算部16での粒子間
力の計算が実行されることになる。
【0052】なお、実施例では粒子が20タイムステッ
プの間に移動する最大距離 Rmov を見込んでブックキー
ピング距離が定められており、これにともない20タイ
ムステップに一回ブックキーピングテーブルの作り直し
が行われ、また、同数分割によるPE割り当ても、20
タイムステップに1回、ブックキーピングテーブルの作
成前に再割当てが行われる。
【0053】従って、このようにすれば同数分割によっ
て粒子が全てのPEに均等に割り当てられ、空間距離の
近い粒子は接続距離においても近いPEに割り当てら
れ、各PEの負荷割り当てを一様にできるので、各PE
が担当する粒子データを自分の近くのPEとの通信によ
って集めることができ、これににより生成されるブック
キーピングテーブルにより粒子間力を計算するようにな
るので、PE間通信を局所的に高速に得られ計算の高速
化を得られることになる。
【0054】また、計算の進行によって粒子の空間座標
が変化したとき、必要に応じて同数分割による粒子のP
Eへの再割り当てを行うようにしたので、計算の間に常
に粒子のPEへの割り当てを均等にでき、しかも粒子の
空間距離とプロセッサの接続距離の近似的な一致を保つ
ことができ、正確な計算結果も期待することができる。
【0055】また本実施例では同数分割による粒子のP
Eへの再割り当ては20タイムステップに1回でよいの
で全体の実行時間に対して同数分割処理によるオーバー
ヘッドを減少できる。
【0056】また、同数分割による粒子のPEへの割当
て処理では、並列加算を採用していることから、PE数
が増加しても通信データ量を一定にでき、粒子分割にお
ける全粒子データの収集に比べればはるかに高速処理が
実現できる。また、また並列加算は並列計算機における
基本的な処理としてハードウエア化することも可能であ
り、この場合の同数分割処理は非常に高速化することが
できる。
【0057】なお、本発明は上記実施例にのみ限定され
ず、要旨を変更しない範囲で適宜変形して実施できる。
例えば、上述の実施例ではシミュレーション領域は一定
の大きさを持つことを仮定しているが、シミュレーショ
ン領域が時間的に変形するような場合にも適用でき、こ
の場合も上述したと同様な効果を期待することができ
る。
【0058】
【発明の効果】本発明によれば、同数分割によって粒子
が全てのプロセッサに均等に割り当てられ、空間距離の
近い粒子は接続距離においても近いプロセッサに割り当
てられ、各プロセッサの負荷割り当てを均一にでき、局
所的なプロセッサ間通信によって粒子間力を計算できる
ので、プロセッサ間通信を高速化でき、大規模並列計算
に適する高速計算を実現できる。
【図面の簡単な説明】
【図1】本発明に用いられる並列計算機の概略構成を示
す図。
【図2】本発明の一実施例の概略構成を示す図。
【図3】実施例に用いられる近傍テーブルを示す図。
【図4】実施例の分子動力学計算の手順を説明するため
のフローチャート
【図5】実施例の同数分割処理の経過を説明するための
図。
【図6】実施例の同数分割のアルゴリズムを示すフロー
チャート。
【図7】実施例の同数分割に伴う粒子のPE間の移動を
説明するための図。
【図8】従来の逐次型計算機による分子動力学計算プロ
グラムを示すフローチャート。
【符号の説明】
11…通信部、12…データ収集部、13…粒子割当て
演算部、14…メモリ、141…近傍粒子テーブル、1
42…ブックキーピングテーブル、143…粒子データ
格納部、15…ブックキーピングテーブル生成部、16
…粒子間力計算部。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 複数のプロセッサを接続して構成される
    並列計算機を用いて多数の粒子の運動をシュミレートす
    る分子動力学計算装置において、 シュミレーション空間内に分布する粒子を同数に割当て
    るように分割し該シュミレーション空間における粒子間
    の近傍関係と前記プロセッサ間接続の近傍関係を対応さ
    せる分割割当て手段と、 この分割割当て手段で割当てられた各プロセッサの担当
    する粒子の近傍粒子データに基づいて所定距離内にある
    粒子を選択しブックキーピングテーブルに生成するテー
    ブル生成手段と、 このテーブル生成手段により生成されたブックキーピン
    グテーブルにより自分の粒子に働く粒子間力を計算する
    計算手段とを具備したことを特徴とする分子動力学計算
    装置。
JP7196792A 1992-03-30 1992-03-30 分子動力学計算装置 Pending JPH05274277A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7196792A JPH05274277A (ja) 1992-03-30 1992-03-30 分子動力学計算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7196792A JPH05274277A (ja) 1992-03-30 1992-03-30 分子動力学計算装置

Publications (1)

Publication Number Publication Date
JPH05274277A true JPH05274277A (ja) 1993-10-22

Family

ID=13475756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7196792A Pending JPH05274277A (ja) 1992-03-30 1992-03-30 分子動力学計算装置

Country Status (1)

Country Link
JP (1) JPH05274277A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6460176B1 (en) 1998-03-31 2002-10-01 Nec Corporation Method of, apparatus for, and recording medium storing a program for, parallelizing a program containing an array designated to undergo indirect and irregular division
JP2012128793A (ja) * 2010-12-17 2012-07-05 Japan Agengy For Marine-Earth Science & Technology 粒子状態計算装置及び粒子状態計算方法
JP2013168160A (ja) * 2005-04-19 2013-08-29 D.E. Shaw Research LLC 多数の物体の相互作用を計算する計算ユニットを決定するための方法
JP2017062651A (ja) * 2015-09-25 2017-03-30 富士通株式会社 粒子シミュレーションプログラム、計算機資源配分方法、および粒子シミュレーション装置
US20170132048A1 (en) * 2015-11-11 2017-05-11 Fujitsu Limited Particle simulation apparatus and computer resource allocating method
CN109871553A (zh) * 2017-12-04 2019-06-11 北京大学 一种针对分子动力仿真模型的并行化加速方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6460176B1 (en) 1998-03-31 2002-10-01 Nec Corporation Method of, apparatus for, and recording medium storing a program for, parallelizing a program containing an array designated to undergo indirect and irregular division
JP2013168160A (ja) * 2005-04-19 2013-08-29 D.E. Shaw Research LLC 多数の物体の相互作用を計算する計算ユニットを決定するための方法
JP2012128793A (ja) * 2010-12-17 2012-07-05 Japan Agengy For Marine-Earth Science & Technology 粒子状態計算装置及び粒子状態計算方法
JP2017062651A (ja) * 2015-09-25 2017-03-30 富士通株式会社 粒子シミュレーションプログラム、計算機資源配分方法、および粒子シミュレーション装置
US20170132048A1 (en) * 2015-11-11 2017-05-11 Fujitsu Limited Particle simulation apparatus and computer resource allocating method
US10503561B2 (en) 2015-11-11 2019-12-10 Fujitsu Limited Particle simulation apparatus and computer resource allocating method
CN109871553A (zh) * 2017-12-04 2019-06-11 北京大学 一种针对分子动力仿真模型的并行化加速方法
CN109871553B (zh) * 2017-12-04 2021-07-09 北京大学 一种针对分子动力仿真模型的并行化加速方法

Similar Documents

Publication Publication Date Title
Mostaghim et al. Multi-objective particle swarm optimization on computer grids
US5617322A (en) Mesh generator and generating method
CN109993299A (zh) 数据训练方法及装置、存储介质、电子装置
JPH06243113A (ja) 並列計算機における計算モデルのマッピング法
US10121279B1 (en) Systems and methods for generating a mesh
CN108763827B (zh) 一种输电塔有限元模型建立方法及装置
CN105205205A (zh) 基于网表位置信息最优划分的fpga粗粒度并行布线方法
de Cougny et al. Parallel three-dimensional mesh generation on distributed memory MIMD computers
JP3988925B2 (ja) 混合格子型解適合格子法を用いた数値解析装置
CN114117872B (zh) 一种多gpu并行的时域有限差分电磁仿真方法、设备及介质
JPH05274277A (ja) 分子動力学計算装置
De Cougny et al. Parallel three-dimensional mesh generation
Rivara Lepp-bisection algorithms, applications and mathematical properties
CN113436316A (zh) 一种基于空间投影的适用于sph算法的邻近粒子搜索方法
CN110187975B (zh) 一种多核处理器资源分配计算方法、存储介质及终端设备
Zhu et al. A dynamic partitioning scheme for parallel transient stability analysis
CN106271052A (zh) 激光加工方法及装置
CN111400969A (zh) 一种非结构直角网格加速生成方法
CN108268697A (zh) 一种高效率电推进羽流等离子体并行仿真方法
Hayashi et al. Domain decomposition scheme for parallel molecular dynamics simulation
Au A simple algorithm for medial axis transform computation
Ajwani et al. I/O-optimal distribution sweeping on private-cache chip multiprocessors
Sato et al. Implementing and evaluating an efficient dynamic load-balancer for distributed molecular dynamics simulation
Tzovas et al. Distributing sparse matrix/graph applications in heterogeneous clusters-an experimental study
JP2001236342A (ja) 多体問題解析装置に用いるアドレス装置