JPH03116357A - Parallel processing system - Google Patents

Parallel processing system

Info

Publication number
JPH03116357A
JPH03116357A JP1254976A JP25497689A JPH03116357A JP H03116357 A JPH03116357 A JP H03116357A JP 1254976 A JP1254976 A JP 1254976A JP 25497689 A JP25497689 A JP 25497689A JP H03116357 A JPH03116357 A JP H03116357A
Authority
JP
Japan
Prior art keywords
processors
nodes
pattern
processing
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1254976A
Other languages
Japanese (ja)
Inventor
Riichiro Take
理一郎 武
Hirotaka Hara
裕貴 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1254976A priority Critical patent/JPH03116357A/en
Publication of JPH03116357A publication Critical patent/JPH03116357A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To efficiently perform the information processing which requires communication processing of a mesh or torus pattern by mapping a model of the mesh or torus pattern on respective processors of a parallel computer. CONSTITUTION:With respect to a mesh pattern 3 and a torus pattern 8 having nXn nodes, n processors 1 ((n) is the square root of the number of nodes) and a universal communication coupling network 2 are used to generate n/2 loops or X-shaped patterns including 2n nodes without overlapping. Every two processors are selected from n processors without overlapping and are assigned to n/2 loops or X-shaped patterns, and two assigned processors are alternately assigned to successive nodes in each loop or X-shaped pattern. Thus, the informa tion processing requiring the communication processing of the mesh or torus pattern is efficiently performed.

Description

【発明の詳細な説明】 〔概要〕 メツシュ或いはトーラスパターンの通信処理を要する情
報処理の並列計算機上での並列処理方式全対全通信を処
理することのできる結合網を備えた並列計算機上で、メ
ツシュ或いはトーラスパターンの通信処理を要する情報
処理を効率的に行う方式を提供することを目的とし。
[Detailed Description of the Invention] [Summary] Parallel processing method on a parallel computer for information processing that requires mesh or torus pattern communication processing On a parallel computer equipped with a connection network capable of processing all-to-all communication, The purpose of this invention is to provide a method for efficiently performing information processing that requires mesh or torus pattern communication processing.

nxnのノードをもつメツシュパターンおよびトーラス
パターンに対して、ノード数の平方根のn台のプロセッ
サと全対全通信結合網とを用い。
For mesh patterns and torus patterns with nxn nodes, use n processors of the square root of the number of nodes and an all-to-all communication network.

各メツシュパターンとトーラスパターンに対してそれぞ
れ2n個のノードを重複なしに含むn / 2個のルー
プあるいはX字状パターンを作成し、これらn / 2
個のループあるいはX字状パターンに対して、n台のプ
ロセッサから重複なしに2台ずつ選択したプロセッサを
割り当て、さらに各ループあるいはX字状パターン内に
おいて2割り当てられた2台のプロセッサを順次のノー
ドに交互に割り当てるように構成した。
Create n/2 loops or X-shaped patterns each containing 2n nodes without overlap for each mesh pattern and torus pattern, and divide these n/2
For each loop or X-shaped pattern, two processors selected from n processors without duplication are assigned, and in each loop or X-shaped pattern, the two processors assigned 2 are sequentially assigned. It was configured to be assigned alternately to nodes.

(産業上の利用分野〕 本発明は、メツシュ或いはトーラスパターンの通信処理
を要する情報処理の並列計算機上での並列処理方式に係
る。
(Industrial Application Field) The present invention relates to a parallel processing method on a parallel computer for information processing that requires mesh or torus pattern communication processing.

〔従来の技術] 物理現象のシミュレーション、例えば流体解析などに於
いて、メツシュ或いはトーラス状のパターンを持つモデ
ルがしばしば現れる。この様な問題の処理には多大の計
算処理を要することが多いため、並列計算機による処理
の高速化が望まれている。
[Prior Art] In simulations of physical phenomena, such as fluid analysis, models with mesh or torus patterns often appear. Since the processing of such problems often requires a large amount of computational processing, there is a desire for faster processing using parallel computers.

メツシュパターンやトーラスパターンのモデルを持つ問
題を処理するための並列計算機として従来は、プロセッ
サをメツシュ或いはトーラスのトポロジーで結合したシ
ステムが提案されて来た。
Conventionally, systems in which processors are connected in a mesh or torus topology have been proposed as parallel computers for processing problems having mesh pattern or torus pattern models.

第7図の(a)、 (bHよ、それぞれ8×80ノード
をもつメツシュ状およびトーラス状の結合網の例を示し
ている。各ノードは、計算と隣接ノードとの間の通信を
交互に繰り返す。
Figures 7(a) and (bH) show examples of mesh-like and torus-like connected networks each having 8x80 nodes. Each node alternates between computation and communication with neighboring nodes. repeat.

第8図の(a)は流体解析の現実問題の例でありメツシ
ュに分割された各領域は第8図(b)の計算モデルの各
ノードに対応づけられる。各ノードの処理は、結合網に
接続されたプロセッサが隣接ノードを処理するプロセッ
サと、リンクを介して境界情報をやりとりしながら実行
される。
FIG. 8(a) is an example of a real problem of fluid analysis, and each region divided into meshes is associated with each node of the calculation model of FIG. 8(b). Processing at each node is executed while processors connected to the connection network exchange boundary information via links with processors processing adjacent nodes.

トーラス或いはメツシュ状の結合網は、実現に必要なハ
ードウェア量が比較的少なく、シへも。
A torus or mesh-like connection network requires a relatively small amount of hardware to implement and is easy to use.

シミュレーションしようとするモデルと同じトポロジー
を持つので、モデルを自然な形で並列計算機上にマツピ
ングすることができる。
Since it has the same topology as the model to be simulated, the model can be naturally mapped onto a parallel computer.

しかし、この様なメツシュ結合並列計算機システムは、
他のパターンのモデルを持つ問題には。
However, such a mesh-coupled parallel computer system
For problems with models of other patterns.

上手く適用することが難しい。メツシュ或いはトーラス
状の結合網は実現に必要なハードウェア量が少ない反面
、?j!雑なメツセージパターンを処理しようとすると
効率が落ちる傾向がある。そのため、汎用の並列計算機
システムの結合網としては。
Difficult to apply successfully. A mesh or torus-like connection network requires less hardware to implement, but... j! Efficiency tends to drop when trying to process coarse message patterns. Therefore, it can be used as a connection network for general-purpose parallel computer systems.

より複雑度の高い超立方体型などの結合網が採用される
ことが多い。
A more complex connection network such as a hypercubic type is often adopted.

そこで、超立方体型などの複雑度の高い結合網を持つ並
列計算機上でメツシュ或いはトーラスパターンのモデル
を処理する方式が必要とされている。
Therefore, there is a need for a method for processing a mesh or torus pattern model on a parallel computer having a highly complex connection network such as a hypercube type.

第9図に、超立方体型の全対全通信結合網をもつ並列計
算機の従来例を示す。この例では、8台のプロセッサP
EoないしPE、が、それぞれ全対全通信結合網を介し
て任意の相手と直接通信処理を行うことが可能にされる
。通信結合の方法としては1通信要求時に結合を行う方
法や1通信できる相手について一定のタイミングを割り
付は順次的に通信可能にする方法、専用のバスを設ける
方法など種々のものがある。
FIG. 9 shows a conventional example of a parallel computer having a hypercubic all-to-all communication network. In this example, eight processors P
Eo to PE are each enabled to perform direct communication processing with any other party via the all-to-all communication network. There are various methods of communication coupling, such as a method of coupling at the time of one communication request, a method of allocating a fixed timing to one communication partner so that communication can be performed sequentially, and a method of providing a dedicated bus.

〔発明が解決しようとする!!!!題〕ところで並列処
理で使用できるプロセッサの台数にくらべてメツシュあ
るいはトーラスパターンのノード数がはるかに多い場合
、全ノードを分割してプロセッサごとに複数のノードを
割り当て5各プロセシサによる並列処理を複数回繰り返
す必要がある。しかしこのとき、隣接するノードを処理
するプロセッサの間で通信できる機会ができるだけ多く
、かつそれが各プロセッサ間で平均化されていることが
望ましい。
[Invention tries to solve! ! ! ! [Problem] By the way, if the number of nodes in a mesh or torus pattern is much larger than the number of processors that can be used for parallel processing, it is possible to divide all nodes and allocate multiple nodes to each processor.5 Parallel processing by each processor multiple times Need to repeat. However, at this time, it is desirable to have as many opportunities as possible to communicate between processors processing adjacent nodes, and to average these opportunities among the processors.

本発明は、全対全通信を処理することのできる結合網を
備えた並列計算機上で、メツシュ或いはトーラスパター
ンの通信処理を要する情報処理を効率的に行う方式を提
供することを目的としている。
An object of the present invention is to provide a method for efficiently performing information processing that requires mesh or torus pattern communication processing on a parallel computer equipped with a connection network capable of processing all-to-all communication.

〔課Hを解決するための手段〕[Means to solve Section H]

本発明は、メツシュあるいはトーラスパターンで結合さ
れているノード間の通信処理を複数のプロセッサで並列
処理により行う場合、各プロセンサにノードを割り当て
るマツピング方式を工夫し5必要なノード間通信が、プ
ロセッサ間で効率的に行われるようにするものである。
The present invention devises a mapping method that allocates nodes to each processor when communication processing between nodes connected in a mesh or torus pattern is performed by parallel processing using multiple processors. This is to ensure that the process is carried out efficiently.

第1図は本発明の原理説明図であり、第1図の(a)は
メツシュパターンの場合の発明、第1図の(b)はトー
ラスパターンの場合の発明についてそれぞれ例示的方法
で示したものである。
FIG. 1 is a diagram explaining the principle of the present invention, and FIG. 1(a) shows the invention in the case of a mesh pattern, and FIG. 1(b) shows the invention in the case of a torus pattern in an exemplary manner. It is something that

第1図(a)のメツシュパターンの場合の発明において
、1は並列処理を行う8台のプロセンサPEGないしP
E、からなるプロセッサ群、2はプロセッサPE。ない
しPEtを全対全で結合する全対全通信結合網、3は処
理対象の8×8のノードをもち、各ノードは上下左右の
隣接ノードに結合されるメツシュパターン、4,5,6
.7はループ、 A−A’ とB−B’ とは対角線を
示している。
In the mesh pattern case shown in FIG.
A processor group consisting of E, 2 is a processor PE. or an all-to-all communication connection network that connects PEt in an all-to-all manner; 3 has 8x8 nodes to be processed, and each node is connected to its upper, lower, left, and right adjacent nodes in a mesh pattern; 4, 5, 6;
.. 7 indicates a loop, and AA' and BB' indicate diagonal lines.

ループ4と7は、それぞれ対角線A−A’ と88′に
沿って設定され、16個(8X2)のノードを含むルー
プである。またループ5と6は。
Loops 4 and 7 are loops set along diagonals AA' and 88', respectively, and include 16 (8×2) nodes. Also loops 5 and 6.

それぞれループ4と7の外側にノードが重複しないよう
に設定されたループであり、同様に16個のノードを含
む。
These loops are set so that nodes do not overlap outside loops 4 and 7, respectively, and similarly include 16 nodes.

このようにして作成されたループ4,5,6゜7の各々
に、各プロセッサPE0ないしPEtを2台ずつ割り当
てる0図ではループ4にPEoとPE、、ループ5にP
E、とPEs、ループ6にPEaとPES、そしてルー
プ7にPE、とPE、とが割り当てられている。
In the diagram, two processors PE0 to PEt are assigned to each of the loops 4, 5, and 6゜7 created in this way.
PEa and PEs are assigned to loop 6, and PE and PE are assigned to loop 7.

各ループに割り当てる2台ずつのプロセッサが決まると
、今度はそれぞれのループにおいて2台のプロセッサを
ループ上の順次のノードに交互に割り当てる。
Once two processors are assigned to each loop, the two processors are alternately assigned to successive nodes on the loop.

第2図(a)はこのようにしてプロセッサを割り当てた
メツシュパターンのノードの例であり、ノード内の番号
Oないし7は、ブロモ・ツサPE、ないしPE、の各添
字で示される番号を表わしてい次に第1図(b)のトー
ラスパターンの場合の発明においては、第1図(a)の
プロセッサ群1(PE、〜PE、)と全対全通信結合網
2とが示されていないが1便宜上省略したものであって
第1図(a)のものがそのまま適用される。
FIG. 2(a) is an example of a mesh pattern node in which processors are assigned in this way, and the numbers O to 7 in the nodes are the numbers indicated by the subscripts of Bromo-Tsa PE to PE. Next, in the invention for the torus pattern of FIG. 1(b), the processor group 1 (PE, ~PE,) and the all-to-all communication network 2 of FIG. 1(a) are shown. However, this is omitted for the sake of convenience, and the same as shown in FIG. 1(a) is applied as is.

第1図(b)において、8は8×8のノードをもち、各
ノードは上下左右の隣接ノードに結合されるとともに、
上下端と左右端とがそれぞれ結合されているトーラスパ
ターンである。また9、10゜11.12はそれぞれ対
角線A−A’ 、B−8’と平行に設定されたX字状パ
ターンであり、それぞれが重複しない16個のノードを
含む、各X字状パターン9.10,11.12には、8
台のプロセッサPEGないしPE、から2台ずつのプロ
セッサが割り当てられ、さらに各X字状パターンでは5
割り当てられた2台のプロセッサがX字状パターン上の
順次のノードに交互に割り当てられる。
In FIG. 1(b), 8 has 8×8 nodes, and each node is connected to adjacent nodes on the upper, lower, left, and right sides, and
This is a torus pattern in which the upper and lower ends and the left and right ends are respectively connected. Further, 9, 10° and 11.12 are X-shaped patterns set parallel to diagonals AA' and B-8', respectively, and each X-shaped pattern 9 includes 16 nodes that do not overlap. .10, 11.12, 8
Two processors are assigned from the processors PEG or PE, and in each X-shaped pattern, five
The two assigned processors are alternately assigned to successive nodes on the X-shaped pattern.

第2図(b)は、このようにしてプロセッサを割り当て
られたトーラスパターンのノードの例を示す。
FIG. 2(b) shows an example of a torus pattern of nodes to which processors are assigned in this manner.

なお第1図(a)、 (b)では、8台のプロセッサと
8×8のノードをもつメツシュパターンおよびトーラス
パターンとが例示的に用いられたが、−船釣には、n×
nのノードをもつメツシュパターンおよびトーラスパタ
ーンに対して1 ノード数の平方根のn台のプロセッサ
と全対全通信結合網とを用い、各メツシュパターンとト
ーラスパターンに対してそれぞれ20個のノードを重複
なしに含むn / 2個のループあるいはX字状パター
ンを作成し、これらn / 2個のループあるいはX字
状パターンに対して、n台のプロセッサから重複なしに
2台ずつ選択したプロセッサを割り当て、さらに各ルー
プあるいはX字状パターン内において1割り当てられた
2台のプロセッサを順次のノードに交互に割り当てるよ
うに構成すればよい。
Note that in FIGS. 1(a) and 1(b), a mesh pattern and a torus pattern with eight processors and 8×8 nodes are used as examples;
1 for a mesh pattern and a torus pattern with n nodes; 20 nodes each for each mesh pattern and torus pattern using n processors and an all-to-all communication network with the square root of the number of nodes; Create n / 2 loops or X-shaped patterns that include without overlap, and for these n / 2 loops or , and furthermore, the two processors to which one is assigned within each loop or X-shaped pattern may be alternately assigned to successive nodes.

〔作用〕[Effect]

第1図(a)のメンシュパターンの場合の発明では、任
意の1つのループは、他のいずれのループとも4箇所で
直交する。各ループは別個の2台の7’oセンサに対応
づけられているから、各プロセッサは、他の全てのプロ
セッサと4回ずつ隣接するノード同士を処理、すなわち
ノード間の通信結合を行う機会をもてることになる。同
様なことは第1図(b)のX字状パターン同士でも生じ
る。
In the invention for the mensch pattern of FIG. 1(a), any one loop intersects orthogonally with any other loop at four points. Since each loop is associated with two separate 7'o sensors, each processor has the opportunity to process adjacent nodes four times with every other processor, i.e., to perform communication coupling between nodes. It will be worth it. A similar thing occurs between the X-shaped patterns shown in FIG. 1(b).

このようにメツシュパターンあるいはトーラスパターン
のモデルを並列計算機の各プロセッサにマツピングする
ことにより、各プロセッサにおいて他のプロセッサへの
通信量を平均化することができる。
By mapping the mesh pattern or torus pattern model to each processor of the parallel computer in this way, it is possible to average the amount of communication to other processors in each processor.

例えば、第2図(a)に於いて、プロセッサ1が処理す
べきリンクの数は、プロセッサOへ通じるものも、プロ
セッサ2へ通じるものも、それ以降のプロセッサへ通じ
るものもすべて4本である。
For example, in FIG. 2(a), the number of links to be processed by processor 1 is four, including those leading to processor O, those leading to processor 2, and those leading to subsequent processors. .

従ってプロセッサ1の他プロセンサへの通信量は平均化
されていると言える。同様な状況は、全てのプロセッサ
に於いて成り立っている。
Therefore, it can be said that the amount of communication to other processors than the processor 1 is averaged. A similar situation holds true for all processors.

従って、全対全通信により、メツシュ或いはトーラスパ
ターンの通信処理を効率良く行うことができる。
Therefore, mesh or torus pattern communication processing can be performed efficiently by all-to-all communication.

(実施例〕 第3図に2本発明実施例による並列計算機の構成を示す
(Embodiment) FIG. 3 shows the configuration of a parallel computer according to two embodiments of the present invention.

図において、1はPE、ないしPE、からなるプロセッ
サ群、2はPR,ないしPE、を全対合て結合する全対
全通信結合網である。また13は。
In the figure, 1 is a processor group consisting of PEs, and 2 is an all-to-all communication network connecting all pairs of PRs to PEs. Also 13.

全対全通信結合″fI42においてノード間の結合制御
を行うフェーズコントロール部である。
This is a phase control unit that controls the connection between nodes in the all-to-all communication connection "fI42."

フェーズコントロール部13は、複数のフェーズSをも
ち あるフェーズSにおいて、ノード■(V=O〜?)
(!:、VeS (Vと5171EOR) で与えられ
るノードとを結合する制御機能を有する。
The phase control unit 13 has a plurality of phases S. In a certain phase S, a node ■ (V=O~?)
(!:, VeS (V and 5171EOR).

なお、ここでいうノードは、全対全通信結合wA2にお
けるノード すなわちプロセッサPE、〜PE、を指す
Note that the nodes here refer to the nodes in the all-to-all communication connection wA2, that is, the processors PE, ~PE.

この制御機能により、Sを0から“ノード数=1′まで
スイープしたとき、各フェーズSで任意のノード■が通
信できる相手ノード■■Sは1次表のようになり、任意
のノードVはS=0〜7が一巡したとき、全てのノード
を通信相手とすることができる。すなわち全対全通信が
実現される。
With this control function, when S is swept from 0 to "number of nodes = 1', the partner nodes ■■S with which any node ■ can communicate in each phase S are as shown in the linear table, and any node V is When S=0 to 7 complete one cycle, all nodes can be used as communication partners. That is, all-to-all communication is realized.

自ノード  通信相手ノード(V([)S)V   S
=O,上、 2.3.土、 5.6.70    0.
1,2,3.4,56,71    1.0,3,2,
5,4,7,62    2.3,0,1,6,7,4
,53    3.2.1.0,7,6,5,44  
  4 5.6,7,0.1,2,35    5.4
.7.6,1,0.3,26    6.7,4.5.
2.3,0,17    7.6.5,4.3.2,1
.0ところで、フェーズSをスィーブする順序を前表の
ような昇順にではなく5反転グレイコードの順にすると
、良い結果を得ることができる。
Own node Communication partner node (V([)S)V S
=O, top, 2.3. Sat, 5.6.70 0.
1,2,3.4,56,71 1.0,3,2,
5,4,7,62 2.3,0,1,6,7,4
,53 3.2.1.0,7,6,5,44
4 5.6,7,0.1,2,35 5.4
.. 7.6,1,0.3,26 6.7,4.5.
2.3,0,17 7.6.5,4.3.2,1
.. By the way, good results can be obtained if the order of sweeping the phases S is not in the ascending order as in the previous table but in the order of the 5-inverted Gray code.

第4図は1反転グレイコードの構造を示したもので、隣
り合う2進コード間では1ビツトしか変化せず(ピント
距離が”ピ)、かつ2進コードのトリー構造が各レベル
で反転している(対称性をもつ)ことである。
Figure 4 shows the structure of a one-inversion Gray code, in which only one bit changes between adjacent binary codes (the focus distance is "pi"), and the tree structure of the binary code is inverted at each level. (have symmetry).

このような構造の反転グレイコードを用いてフェーズS
のシーケンスを0.1,3,2.6,7゜54のように
進め、さらに第1図(a)、 (b)で説明したメツシ
ュパターンの各ループとトーラスパターンの各X字状パ
ターンに対するプロセッサの割り当ても、この反転グレ
イコードの順番で行うことにより、第8図(a)、 (
b)に示すようなマツピング結果を得ることができる。
Using an inverted Gray code with this structure, phase S
The sequence is advanced as 0.1, 3, 2.6, 7°54, and each loop of the mesh pattern and each X-shaped pattern of the torus pattern explained in Fig. 1 (a) and (b) is By assigning processors to each in the order of this inverted Gray code, we can obtain the results shown in Fig. 8(a), (
A mapping result as shown in b) can be obtained.

このように反転グレイコードに基づいてマツピングを行
った場合、計算モデルの各ノードの周囲の4点が反転グ
レイコード内で連続した4数となる(第8図(a)、 
(b)参照)。これは、各プロセッサがノードの計算処
理を行った直後2周囲のノードに対する通信処理をパイ
プライン的に実行する場合、極めて有利となる。
When mapping is performed based on the inverted Gray code in this way, the four points around each node in the calculation model become four consecutive numbers in the inverted Gray code (Figure 8 (a),
(see (b)). This is extremely advantageous when each processor performs communication processing for two surrounding nodes in a pipeline immediately after performing calculation processing for the node.

第6図に、プロセッサPE、の処理シーケンスを示す。FIG. 6 shows the processing sequence of the processor PE.

この例は、第5図(b)に示すトーラスパターンの計算
モデルを対象としている。
This example targets a calculation model of a torus pattern shown in FIG. 5(b).

プロセッサ番号1のプロセンサPE1に割り当てられる
処理ノードは、トーラス上の座標を(縦方向の座標、横
方向の座標)と表すとすると。
Assume that the processing node assigned to the processor PE1 with processor number 1 has coordinates on the torus expressed as (vertical coordinates, horizontal coordinates).

(1,6)、(2,4)、(3,8)、(42)、(5
,2)、、(6,8)、(7,4)。
(1,6), (2,4), (3,8), (42), (5
,2),,(6,8),(7,4).

(8,6)の8つである。このそれぞれのノードの処理
をするためには、それぞれのノードの周囲のノードを割
り当てられたプロセッサと通信を行う必要がある6例え
ば、ノード(1,6)について考えると、その周囲のノ
ードに書き込まれたプロセンサ番号から9 このノード
を処理するにはプロセッサ番号1,0.3.2のプロセ
ッサとの通信が必要であることが分かる。第6図におい
て。
(8, 6). In order to process each node, it is necessary to communicate with the processors assigned to the nodes around each node.6 For example, considering node (1, 6), writing to the nodes around it is necessary. It can be seen from the processor number 9 that processing this node requires communication with the processor number 1, 0.3.2. In FIG.

連続するフェーズでの各処理ノードへの矢線の入出力が
示すように計算処理と通信処理がパイプライン的に実行
され9通信のオーバーヘッドが表面に出ないことに注意
されたい。他のプロセッサにおいても同様の状況が達成
されている。
It should be noted that, as shown by the input/output arrows to each processing node in successive phases, calculation processing and communication processing are executed in a pipeline manner, so that the overhead of communication does not appear. A similar situation has been achieved in other processors.

〔発明の効果〕〔Effect of the invention〕

以上に説明したように1本発明によれば全対全通信を処
理することのできる結合網を備えた並列計算機上で、メ
ツシュあるいはトーラスパターンの通信処理を要する情
報処理を効率的に行うことができ、該パターンの並列処
理の可用性の向上に寄与するところが大きい。
As explained above, according to the present invention, information processing that requires mesh or torus pattern communication processing can be efficiently performed on a parallel computer equipped with a connection network capable of processing all-to-all communication. This greatly contributes to improving the availability of parallel processing of the pattern.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理説明図、第2図は本発明によるマ
ツピング例の説明図、第3図は本発明実施例による並列
計算機の構成図、第4図は本発明実施例で用いる反転グ
レイコードの説明図、第5図は本発明実施例によるマツ
ピング結果の説明図。 第6図は本発明実施例によるプロセッサPE+ の処理
シーケンスの説明図、第7図はメツシュ状およびトーラ
ス状結合網の説明図、第8図はメツシュパターンをもつ
問題の処理例の説明図、第9図は全対全通信結合網をも
つ並列計算機の従来例構成図である。 第1図中 1:プロセッサ群(PE、〜PE。 2:全対全通信結合網 3:メツシュパターン 4〜7:ループ 8ニド−ラスパターン 9〜12:X字状パターン
Fig. 1 is an explanatory diagram of the principle of the present invention, Fig. 2 is an explanatory diagram of a mapping example according to the present invention, Fig. 3 is a configuration diagram of a parallel computer according to an embodiment of the present invention, and Fig. 4 is an inversion diagram used in an embodiment of the present invention. FIG. 5 is an explanatory diagram of the gray code, and FIG. 5 is an explanatory diagram of the mapping result according to the embodiment of the present invention. FIG. 6 is an explanatory diagram of the processing sequence of the processor PE+ according to the embodiment of the present invention, FIG. 7 is an explanatory diagram of mesh-like and torus-like connection networks, and FIG. 8 is an explanatory diagram of a processing example of a problem with a mesh pattern. FIG. 9 is a block diagram of a conventional example of a parallel computer having an all-to-all communication network. In Figure 1, 1: Processor group (PE, ~PE. 2: All-to-all communication connection network 3: Mesh pattern 4-7: Loop 8 Nidorus pattern 9-12: X-shaped pattern

Claims (2)

【特許請求の範囲】[Claims] (1)複数台のプロセッサからなり、各プロセッサ間で
全対全通信を行うことが可能な結合網をそなえた並列計
算機において、 n×nのノードをもつメッシュパターンの通信処理を要
する情報処理を行う際、n台のプロセッサを用い、 n×nのメッシュパターンの直交する2つの対角線の各
々に沿ってメッシュパターンの2n個のノードを通るル
ープを、順次対角線から離れる方向にかつ同一ノードを
重複して選択することなくn/2個作成し、 作成したn/2個のループの各々に、n台のプロセッサ
から2台ずつ選択したプロセッサを割り当て、さらに各
ループでは割り当てられた2台のプロセッサにループ上
の2n個のノードを順次交互に割り当てて、各プロセッ
サごとにn個のノードを割り当て、 n台のプロセッサは、それぞれ割り当てられたn個ずつ
のノードを並列にn回で処理することを特徴とする並列
処理方式。
(1) Information processing that requires communication processing in a mesh pattern with n×n nodes is carried out in a parallel computer consisting of multiple processors and equipped with a connection network that allows all-to-all communication between each processor. When performing the process, using n processors, a loop passing through 2n nodes of the mesh pattern along each of two orthogonal diagonals of the n×n mesh pattern is sequentially moved away from the diagonal and the same nodes are overlapped. Create n/2 processors without selecting them, assign two processors selected from the n processors to each of the n/2 loops created, and then assign two processors selected from the n processors to each of the n/2 loops created. 2n nodes on the loop are sequentially and alternately assigned to each processor, and each of the n processors processes the assigned n nodes in parallel n times. A parallel processing method characterized by
(2)複数台のプロセッサからなり、各プロセッサ間で
全対全通信を行うことが可能な結合網をそなえた並列計
算機において、 n×nのノードをもつトーラスパターンの通信処理を要
する情報処理を行う際、n台のプロセッサを用い、 n×nのトーラスパターンの直交する2つの対角線の各
々に平行に、トーラスパターンの2n個のノードを通る
X字状パターンを、同一ノードを重複して選択すること
なくn/2個作成し、 作成したn/2個のX字状パターンの各々にn台のプロ
セッサから2台ずつ選択したプロセッサを割り当て、さ
らに各X字状パターンでは、割り当てられた2台のプロ
セッサにX字状パターン上の2n個のノードを順次交互
に割り当てて、各プロセッサごとにn個のノードを割り
当て、 n台のプロセッサは、それぞれ割り当てられたn個ずつ
のノードを並列にn回で処理することを特徴とする並列
処理方式。
(2) Information processing that requires communication processing in a torus pattern with n×n nodes is carried out in a parallel computer consisting of multiple processors and equipped with a connection network that allows all-to-all communication between each processor. When performing this, n processors are used to select an X-shaped pattern that passes through 2n nodes of the torus pattern in parallel to each of the two orthogonal diagonals of the n×n torus pattern, repeatedly selecting the same nodes. n/2 processors are created without The 2n nodes on the X-shaped pattern are sequentially and alternately assigned to the processors, and each processor is assigned n nodes, and each of the n processors processes the assigned n nodes in parallel. A parallel processing method characterized by processing n times.
JP1254976A 1989-09-29 1989-09-29 Parallel processing system Pending JPH03116357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1254976A JPH03116357A (en) 1989-09-29 1989-09-29 Parallel processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1254976A JPH03116357A (en) 1989-09-29 1989-09-29 Parallel processing system

Publications (1)

Publication Number Publication Date
JPH03116357A true JPH03116357A (en) 1991-05-17

Family

ID=17272485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1254976A Pending JPH03116357A (en) 1989-09-29 1989-09-29 Parallel processing system

Country Status (1)

Country Link
JP (1) JPH03116357A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053876A (en) * 2009-09-01 2011-03-17 Fujitsu Ltd Parallel computing system and communication control program
WO2011059090A1 (en) * 2009-11-16 2011-05-19 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for scheduling plurality of computing processes including all-to-all (a2a) communication across plurality of nodes (processors) constituting network, program, and parallel computer system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053876A (en) * 2009-09-01 2011-03-17 Fujitsu Ltd Parallel computing system and communication control program
US10430375B2 (en) 2009-09-01 2019-10-01 Fujitsu Limited Parallel computing system and communication control program
WO2011059090A1 (en) * 2009-11-16 2011-05-19 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for scheduling plurality of computing processes including all-to-all (a2a) communication across plurality of nodes (processors) constituting network, program, and parallel computer system
GB2487684A (en) * 2009-11-16 2012-08-01 Ibm Method for scheduling plurality of computing processes including all-to-all (a2a) communication across plurality of nodes (processors) constituting network, p
JP2013037723A (en) * 2009-11-16 2013-02-21 Internatl Business Mach Corp <Ibm> Method, program and parallel computer system for scheduling plural computing processes including all-to-all (a2a) communication across plural nodes (processors) constituting network
JP5153945B2 (en) * 2009-11-16 2013-02-27 インターナショナル・ビジネス・マシーンズ・コーポレーション A method, a program, and a parallel computer system for scheduling a plurality of calculation processes including all-to-all communication (A2A) between a plurality of nodes (processors) constituting a network.
US9251118B2 (en) 2009-11-16 2016-02-02 International Business Machines Corporation Scheduling computation processes including all-to-all communications (A2A) for pipelined parallel processing among plurality of processor nodes constituting network of n-dimensional space
GB2487684B (en) * 2009-11-16 2016-09-14 Ibm Method for scheduling plurality of computing processes including all-to-all (a2a) communication across plurality of nodes (processors) constituting network, p

Similar Documents

Publication Publication Date Title
Nassimi et al. Bitonic sort on a mesh-connected parallel computer
Miller et al. Parallel computations on reconfigurable meshes
Lazar et al. Markovian Petri net protocols with product form solution
Wang et al. Image processing on the OTIS-mesh optoelectronic computer
CN107193923B (en) Method and system for quickly superposing vectors in two-dimensional geographic space
Tuncer et al. Pacmap: Topology mapping of unstructured communication patterns onto non-contiguous allocations
Tsai et al. A broadcast algorithm for all-port wormhole-routed torus networks
Bhatelé et al. Benefits of topology aware mapping for mesh interconnects
Bani-Mohammad et al. Improving system performance in non-contiguous processor allocation for mesh interconnection networks
Copty et al. A data parallel algorithm for solving the region growing problem on the connection machine
JPH03116357A (en) Parallel processing system
JPH05324586A (en) Multiprocessor computer system and data assgning method therefor
Ziavras et al. Pyramid mappings onto hypercubes for computer vision: Connection machine comparative study
Biswas et al. Parallel dynamic load balancing strategies for adaptive irregular applications
Chan et al. Dilation-5 embedding of 3-dimensional grids into hypercubes
CN112099850A (en) Multi-core Hourglass network acceleration method
Tomboulian Introduction to a system for implementing Neural Net connections on SIMD architectures
Ziavras et al. Facilitating High-Performance image analysis on reduced hypercube (RH) parallel computers
JPH07143176A (en) Method for specifying route of data block to address thereof
Tao Mapping parallel programs onto parallel systems with torus and mesh based communication structures
Ziavras Connection Machine results for pyramid embedding algorithms
Gabrani et al. A quad-tree based algorithm for processor allocation in 2D mesh-connected multicomputers
DeGroot MAPPING COMPUTATION STRUCTURES ONTO SW-BANYAN NETWORKS.
Ziavras et al. High‐performance emulation of hierarchical structures on hypercube supercomputers
ZIAVRAS et al. ANALYSIS ON REDUCED HYPERCUBE (RH)