JPH0991261A - Parallel computer - Google Patents

Parallel computer

Info

Publication number
JPH0991261A
JPH0991261A JP7266474A JP26647495A JPH0991261A JP H0991261 A JPH0991261 A JP H0991261A JP 7266474 A JP7266474 A JP 7266474A JP 26647495 A JP26647495 A JP 26647495A JP H0991261 A JPH0991261 A JP H0991261A
Authority
JP
Japan
Prior art keywords
data
nodes
node
cache
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7266474A
Other languages
Japanese (ja)
Inventor
Masahiko Nakahara
雅彦 中原
Hiroyuki Kumazaki
裕之 熊▲崎▼
Kenichi Soejima
健一 副島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7266474A priority Critical patent/JPH0991261A/en
Publication of JPH0991261A publication Critical patent/JPH0991261A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the parallel computer which performs multinode simultaneous input/output processing at a high speed. SOLUTION: Calculation nodes 10 to 15 and input/output nodes 30 of the parallel computer are arranged like a matrix, and partial nodes out of plural calculation nodes 10 to 15 are provided with caches 50 to 52 as cache nodes 20 to 22, and input/output nodes 30 are provided with caches 53. In accordance with designation for the start of the parallel computer, one or more cache nodes 20 to 22 which can communicate with some of input/output nodes 30 are set, and one or more calculation nodes 10 to 15 which can communicate with cache nodes 20 to 22 are set. When calculation nodes 10 to 15 read out data from a secondary storage device 40, they transmit a data request message to communicatable cache nodes 20 to 22. Cache nodes 20 to 22 transmit data to calculation nodes 10 to 15 if data exists in caches 50 to 52, but cache nodes 20 to 22 read out data from the secondary storage device 40 to transmit it to calculation nodes 10 to 15 if data doesn't exist in caches 50 to 52.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ローカルメモリとプロ
セッサを持つ複数の計算ノードと、ローカルメモリとプ
ロセッサと2次記憶装置を持つ複数の入出力ノードを有
し、これらがネットワークで相互に接続し、各ノードが
並列にプログラムを実行する並列計算機に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention has a plurality of calculation nodes each having a local memory and a processor, and a plurality of input / output nodes each having a local memory, a processor and a secondary storage device, which are mutually connected by a network. Then, the present invention relates to a parallel computer in which each node executes a program in parallel.

【0002】[0002]

【従来の技術】並列計算機には、大きく分けてビジネス
向きと呼ばれる並列計算機と、科学技術計算向きと呼ば
れる並列計算機がある。一般にビジネス向きと呼ばれて
いる並列計算機は、データ処理が中心となるため、プロ
セッサ、メモリ、ネットワーク通信装置から成るノード
すべてにディスクなどの2次記憶装置を接続したシステ
ム構成にしている。これに対して、科学技術計算向きと
呼ばれている並列計算機は、データ演算が処理の大部分
を占めるため、2次記憶装置を持たず、データ演算のみ
を行う計算ノードと、2次記憶装置を持ち、データ演算
の他に入出力処理も行う入出力ノードによって並列計算
機を構成する。そして、計算ノードの数に対して、入出
力ノードの数が少ないのが一般的である。ところで、科
学技術計算を並列計算機上で実行する場合、同一プログ
ラムを並列計算機内の全ノードでほぼ同時に実行する形
を取る場合が多い。このため、同時に同じ入出力処理が
発生し、1個の入出力ノードに入出力処理が集中する可
能性が高い。1個のノードに処理が集中すると、ノード
の数が増えるほど処理待ち時間が長くなり、また、入出
力処理要求の受信側である入出力ノードが処理要求を受
信しきれなくなるなどの問題も発生する。特にノード数
が1000を越えるような超並列計算機では、特定ノー
ドへの処理集中はシステム全体の性能に影響を及ぼす。
処理の集中を回避する方法として、例えば特開平3−2
09531に示されるように、処理が集中したサービス
プロセスを他のノードに動的に分散する方法が開示され
てる。しかし、上記問題のように2次記憶装置を接続し
ている入出力ノードでしか処理できない場合の処理集中
の問題については解決されていない。
2. Description of the Related Art Parallel computers are roughly classified into those for business and those for science and technology. A parallel computer, which is generally called a business type, has a system configuration in which a secondary storage device such as a disk is connected to all the nodes including a processor, a memory, and a network communication device, since data processing is the main focus. On the other hand, in a parallel computer called scientific and technological computing, since data calculation occupies most of the processing, a calculation node that does not have a secondary storage device and a secondary storage device that only performs data calculation. And a parallel computer is configured by an input / output node that has an input / output node that performs input / output processing in addition to data calculation. The number of input / output nodes is generally smaller than the number of calculation nodes. By the way, when the scientific and technological calculations are executed on a parallel computer, it is often the case that the same program is executed almost simultaneously on all nodes in the parallel computer. Therefore, the same input / output processing occurs at the same time, and the input / output processing is likely to concentrate on one input / output node. When the processing concentrates on one node, the processing waiting time becomes longer as the number of nodes increases, and there is a problem that the input / output node which is the receiving side of the input / output processing request cannot receive the processing request. To do. Particularly in a massively parallel computer having more than 1000 nodes, the concentration of processing on a specific node affects the performance of the entire system.
As a method for avoiding concentration of processing, for example, Japanese Patent Laid-Open No. 3-2
As shown in 09531, there is disclosed a method of dynamically distributing a service process in which processing is concentrated to other nodes. However, the problem of processing concentration in the case where processing can be performed only by the input / output node to which the secondary storage device is connected as in the above problem has not been solved.

【0003】[0003]

【発明が解決しようとする課題】並列計算機上の複数の
計算ノード上で実行しているプログラムが同一入出力ノ
ード上のデータに対して同時に読み出し処理を実行した
場合、該入出力ノードに同時にデータ読み出し処理を要
求する通信が発生する。該入出力ノードがデータ読み出
し要求を受信して処理を行うが、一つの入出力ノードは
1度に1個のノードからの要求に対する処理しかできな
い。仮にN個の計算ノードから同時に同じ入出力ノード
に処理要求の通信が入ったとすると、各ノードの入出力
処理に要する時間は平均N/2倍、全ノードの入出力処
理が終了するまでN倍の時間を要することになる。計算
ノード数が1000を越える超並列計算機ではその処理
待ち時間が1000倍以上になり、計算機性能全体に与
える影響が大きくなる。各計算ノード上にキャッシュを
設け、ここに入出力データをキャッシュする方法もある
が、一番最初の入出力データ取得の際には該入出力ノー
ドへの通信が必要であるため、同じ問題が発生する。並
列計算機の典型的なアプリケーションプログラムである
科学技術計算のプログラムでは、複数の計算ノード上で
同一プログラムが同時に実行する形式をとるため、上記
問題が発生する可能性が非常に高い。したがって、本発
明の目的は、並列計算機上で並列に実行されるプログラ
ムからの入出力処理の通信に伴う前記処理待ち時間の問
題を軽減し、多ノード同時入出力処理を高速に処理でき
る並列計算機を提供することにある。
When a program running on a plurality of computing nodes on a parallel computer simultaneously performs a read process on data on the same input / output node, the data is simultaneously written on the input / output nodes. A communication requesting a read process occurs. The input / output node receives a data read request and performs processing, but one input / output node can process only a request from one node at a time. If processing request communication is input from the N calculation nodes to the same input / output node at the same time, the time required for the input / output processing of each node is N / 2 times the average, and N times until the input / output processing of all nodes is completed. It will take time. In a massively parallel computer having more than 1000 computing nodes, the processing waiting time becomes 1000 times or more, and the influence on the overall computer performance becomes large. There is also a method in which a cache is provided on each computing node and the input / output data is cached here, but the same problem occurs because communication to the input / output node is required when the first input / output data is acquired. appear. A scientific and technical computing program, which is a typical application program of a parallel computer, has a format in which the same program is simultaneously executed on a plurality of computing nodes, so that the above problem is highly likely to occur. Therefore, an object of the present invention is to reduce the problem of the processing waiting time that accompanies the communication of the input / output processing from the programs executed in parallel on the parallel computer and to process the multi-node simultaneous input / output processing at high speed. To provide.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、複数の計算ノードと、複数の入出力ノー
ドと、該複数の計算ノード及び入出力ノードを相互に接
続するネットワーク有し、計算ノードは、プロセッサ
と、プロセッサが使用するプログラムとデータを保持す
るメモリと、ネットワークを介して他の計算ノード、入
出力ノードと通信を行うための装置を持ち、入出力ノー
ドは、プロセッサと、プロセッサが使用するプログラム
とデータを保持するメモリと、プログラム及びプログラ
ムが使用するデータを保持する2次記憶装置と、ネット
ワークを介して他の計算ノード、入出力ノードと通信を
行うための装置を持つ並列計算機において、前記複数の
計算ノードの内の一部の計算ノードにキャッシュを設け
キャッシュノードとし、並列計算機の立ち上げ時の指定
に従い、前記入出力ノードのいずれかの入出力ノードと
通信できる1以上の前記キャッシュノードを設定すると
共に該各キャッシュノードと通信できる1以上の前記計
算ノードを設定し、1以上の前記計算ノードから同時に
同一2次記憶装置にデータの読み出しまたは書き込み処
理要求がなされたとき、2次記憶装置を有する前記入出
力ノードに代えて前記キャッシュノードから前記計算ノ
ードに要求されたデータを供給するようにしている。ま
た、前記計算ノードは送信するデータ要求メッセージに
どの計算ノードから同じデータへ要求が入るかの情報を
付加し、前記キャッシュノードは前記計算ノードから受
信したデータ要求メッセージ内の前記付加情報に従い、
該キャッシュノードと通信する計算ノード対応に同じデ
ータへの要求の有無を示す識別子と、該要求を実行した
か否かを識別子を設定し、データを要求した全ての計算
ノードへデータが供給されて該両識別子の値が全て一致
するまでキャッシュ上のデータを保持するようにしてい
る。また、前記計算ノードは送信するデータ要求メッセ
ージに現在の要求に関する情報の他に次の読み出しに関
する情報あるいは次の書き込みに関する情報を付加し、
前記キャッシュノードは前記計算ノードから受信したデ
ータ要求メッセージ内の前記付加情報に対応するデータ
がキャッシュ内に存在しないとき、前記付加情報に対応
するデータを前記入出力ノードを介して前記2次記憶装
置から先読みするようにしている。さらに、通信領域を
有する複数の計算ノードと、通信領域を有する複数の入
出力ノードと、該複数の計算ノード及び入出力ノードを
相互に接続するネットワーク有し、該複数の計算ノード
及び入出力ノードは、いずれかの該通信先ノードに転送
するデータと、そのデータを使用すべき転送先ユーザプ
ロセスに割り当てられた通信領域の識別子と、該通信す
べきデータを書き込むべき該通信先ノード内の該メモリ
内の位置を指定する情報とを含むメッセージを該ネット
ワークを介して送信する送信回路と、該複数の計算ノー
ド及び入出力ノードのいずれかの送信元のノードから該
ネットワークを介して転送されたメッセージを受信する
受信回路を有し、いずれかの送信元のノードから複数の
送信先ノードに対して同時にデータ送信が可能な並列計
算機において、前記複数の計算ノードの一部の計算ノー
ドを該計算ノードの通信領域としてキャッシュを用いて
キャッシュノードとし、いずれかのキャッシュのキャッ
シュデータが変更された際に、変更内容を同時に同一キ
ャッシュデータを持つ他のキャッシュノードに送信する
ようにしている。
In order to achieve the above object, the present invention has a plurality of calculation nodes, a plurality of input / output nodes, and a network for connecting the plurality of calculation nodes and the input / output nodes to each other. , The computing node has a processor, a memory for holding programs and data used by the processor, and a device for communicating with other computing nodes and input / output nodes via a network. A memory for holding a program and data used by a processor; a secondary storage device for holding a program and data used by the program; and a device for communicating with other computing nodes and input / output nodes via a network. In a parallel computer that has a cache node provided as a cache node in some of the plurality of compute nodes According to the designation at the time of starting the parallel computer, one or more cache nodes that can communicate with any of the input / output nodes are set, and one or more calculation nodes that can communicate with each of the cache nodes are set. When data read or write processing requests are simultaneously made to the same secondary storage device from one or more of the calculation nodes, the cache node requests the calculation node instead of the input / output node having the secondary storage device. I am trying to supply the data. Further, the computing node adds information to which data node a request enters the same data to the data request message to be transmitted, and the cache node follows the additional information in the data request message received from the computing node,
An identifier indicating whether or not there is a request for the same data corresponding to the calculation node communicating with the cache node and an identifier indicating whether or not the request is executed are set, and the data is supplied to all the calculation nodes that have requested the data. The data on the cache is held until the values of both identifiers match. Further, the computing node adds information on the next read or information on the next write to the data request message to be transmitted, in addition to the information on the current request,
When the data corresponding to the additional information in the data request message received from the computing node does not exist in the cache, the cache node transmits the data corresponding to the additional information to the secondary storage device via the input / output node. I'm trying to read ahead. Further, it has a plurality of calculation nodes having a communication area, a plurality of input / output nodes having a communication area, and a network interconnecting the plurality of calculation nodes and the input / output nodes, and the plurality of calculation nodes and the input / output nodes. Is the data to be transferred to any of the communication destination nodes, the identifier of the communication area assigned to the transfer destination user process that should use the data, and the data in the communication destination node to which the data to be communicated should be written. A transmission circuit for transmitting a message including information designating a position in the memory via the network, and a transmission circuit transferred from the source node of the plurality of calculation nodes and the input / output node via the network. A parallel circuit that has a receiving circuit that receives messages and can send data from one source node to multiple destination nodes simultaneously In a computer, a part of the plurality of calculation nodes is used as a cache as a communication area of the calculation node to be a cache node, and when the cache data of one of the caches is changed, the changed contents are the same at the same time. It sends it to other cache nodes that have cache data.

【0005】[0005]

【作用】データをキャッシュしているキャッシュノード
1個当たりに入出力処理要求を送信する計算ノードの数
が少ないため、送信側の計算ノードの処理待ち時間が少
なくなり、並列計算機全体の性能が向上する。
[Operation] Since the number of the calculation nodes that transmit the I / O processing request is small for each cache node that caches data, the processing waiting time of the calculation node on the transmitting side is reduced, and the performance of the entire parallel computer is improved. To do.

【0006】[0006]

【実施例】以下、本発明の1実施例を詳細に説明する。EXAMPLE An example of the present invention will be described in detail below.

【0007】図1は、本発明に関わる並列計算機内の計
算ノード及び入出力ノードの構成であり、図2は本発明
を並列計算機に適用した場合のデータ読み出し処理の手
順の1実施例を示すフローチャートであり、図3は複数
の計算ノードから同時にデータ読み出し処理要求が出た
場合の処理手順の1実施例を示すフローチャートであ
る。図1において、10〜15は計算ノード、20〜2
2はキャッシュを持つ計算ノード、すなわちキャッシュ
ノードであり、30はキャッシュおよび2次記憶装置を
持ち、データ演算の他に入出力処理も行なう入出力ノー
ドである。40は2次記憶装置、50〜53はキャッシ
ュであり、60〜68は計算ノード及び入出力ノードを
相互に接続するネットワークである。
FIG. 1 shows a configuration of a calculation node and an input / output node in a parallel computer according to the present invention, and FIG. 2 shows an embodiment of a procedure of a data reading process when the present invention is applied to a parallel computer. FIG. 3 is a flow chart, and FIG. 3 is a flow chart showing an embodiment of a processing procedure when data read processing requests are simultaneously issued from a plurality of calculation nodes. In FIG. 1, 10 to 15 are calculation nodes, 20 to 2
Reference numeral 2 is a calculation node having a cache, that is, a cache node, and 30 is an input / output node which has a cache and a secondary storage device and also performs input / output processing in addition to data calculation. Reference numeral 40 is a secondary storage device, 50 to 53 are caches, and 60 to 68 are networks that mutually connect calculation nodes and input / output nodes.

【0008】次に、図2のフローチャートにしたがって
図1における各部の処理を説明する。並列計算機の各ノ
ードはマトリックス状に配列されているが、計算機の立
ち上げ時に、どの計算ノードがキャッシュノードにな
り、どのキャッシュノードにどの計算ノードが通信でき
るか、及びどの入出力ノードにどのキャッシュノードが
通信できるかについて、予め指定しておく。図1の例で
は、計算ノード10及び11はキャッシュノード20
と、計算ノード12及び13はキャッシュノード21
と、計算ノード14及び15はキャッシュノード22と
通信を行うことが指定してあり、キャッシュノード2
0、21及び22は入出力ノード30と通信を行うこと
が指定してある。
Next, the processing of each unit in FIG. 1 will be described with reference to the flowchart of FIG. Each node of the parallel computer is arranged in a matrix, but when the computer starts up, which compute node becomes the cache node, which cache node can communicate with which cache node, and which cache node is connected to which input / output node. It is specified in advance whether the node can communicate. In the example of FIG. 1, the calculation nodes 10 and 11 are cache nodes 20.
And the calculation nodes 12 and 13 are cache nodes 21
, The computing nodes 14 and 15 are designated to communicate with the cache node 22, and the cache node 2
0, 21 and 22 are designated to communicate with the input / output node 30.

【0009】計算ノード10が2次記憶装置40に保持
されているデータを要求する場合、まず、計算ノード1
0は2次記憶装置40のデータをキャッシュしている可
能性のあるキャッシュノード20にデータ読み出し要求
を送信する(110)。計算ノード10からのデータ読
み出し要求をキャッシュノード20が受信し(12
0)、キャッシュノード20は内部のキャッシュ50内
に計算ノード10が要求するデータが入っているかを調
べ(130)、データが入っている場合はそのデータを
計算ノード10に送信する(220)。データがない場
合、キャッシュノード20は入出力ノード30にデータ
読み出し要求を送信する(140)。キャッシュノード
20からのデータ要求を入出力ノード30が受信し(1
50)、入出力ノード30内のキャッシュ53に要求デ
ータが入っているかを調べる(160)。データが入っ
ている場合は、データをキャッシュノード20に送信す
る(190)。キャッシュ53にデータがない場合は2
次記憶装置40からデータを読み(170)、データを
キャッシュに入れる(180)。そしてデータをキャッ
シュノード20に送信する(190)。キャッシュノー
ド20はデータを受け取り(200)、データをキャッ
シュ50に入れ(210)、更にデータを計算ノード1
0に送信し(220)、計算ノード10がデータを受信
する。図2の実施例では、計算ノード10がデータを要
求する場合についてのみ説明をしたが、計算ノード11
〜15についても処理は同様である。
When the calculation node 10 requests the data held in the secondary storage device 40, first, the calculation node 1
0 sends a data read request to the cache node 20 that may cache the data in the secondary storage device 40 (110). The cache node 20 receives the data read request from the computing node 10 (12
0), the cache node 20 checks whether the data requested by the calculation node 10 is stored in the internal cache 50 (130), and if the data is contained, transmits the data to the calculation node 10 (220). If there is no data, the cache node 20 sends a data read request to the input / output node 30 (140). The input / output node 30 receives a data request from the cache node 20 (1
50), it is checked whether the cache 53 in the input / output node 30 contains the requested data (160). If the data is included, the data is transmitted to the cache node 20 (190). 2 if there is no data in cache 53
The data is read from the next storage device 40 (170) and the data is cached (180). Then, the data is transmitted to the cache node 20 (190). The cache node 20 receives the data (200), puts the data in the cache 50 (210), and further stores the data in the compute node 1.
0 (220) and the computing node 10 receives the data. In the embodiment of FIG. 2, only the case where the calculation node 10 requests data is explained, but the calculation node 11
The same applies to the processes from # 15 to # 15.

【0010】次に、複数の計算ノードから同時に処理要
求が出た場合の処理を図3を使って説明する。計算ノー
ド10、11が同時に2次記憶装置40に保持されてい
るデータを要求した場合、計算ノード10、11はキャ
ッシュノード20にデータ要求を送信する(300、4
00)。キャッシュノード20が処理要求を受信すると
(500)、先に受け付けたデータ読み出し要求から処
理を開始する。図3の実施例では、計算ノード10から
の要求を先に受け付けた場合の処理を示している。ま
ず、キャッシュノード20はキャッシュ50に計算ノー
ド10からの要求データがあるかどうかを調べる(51
0)。データが存在した場合は、データを計算ノード1
0に送信し(520)、計算ノード11からの要求の処
理に入る(530)。データが存在しない場合は、入出
力ノード30に対してデータ要求を送信し(511)、
その応答を待ってデータをキャッシュ50に入れた後
(512)、データを計算ノード10に送信する(52
0)。計算ノード10は、そのデータを受信し(31
0)、計算ノード10側の処理は終了する。
Next, the processing in the case where processing requests are simultaneously issued from a plurality of calculation nodes will be described with reference to FIG. When the computing nodes 10 and 11 simultaneously request data held in the secondary storage device 40, the computing nodes 10 and 11 send a data request to the cache node 20 (300, 4).
00). When the cache node 20 receives the processing request (500), the processing is started from the previously received data read request. The embodiment of FIG. 3 shows the processing when the request from the calculation node 10 is accepted first. First, the cache node 20 checks whether or not the cache 50 has request data from the calculation node 10 (51).
0). If data exists, the data is calculated on node 1.
0 (520), and processing of the request from the computing node 11 is started (530). If the data does not exist, a data request is sent to the input / output node 30 (511),
After waiting for the response and putting the data in the cache 50 (512), the data is transmitted to the computing node 10 (52).
0). The computing node 10 receives the data (31
0), the processing on the side of the calculation node 10 ends.

【0011】次にキャッシュノード20は、計算ノード
11からのデータ要求の処理に入る。キャッシュノード
20はキャッシュ50に計算ノード11が要求するデー
タがあるかどうかを調べる(530)。データが存在し
た場合は、データを計算ノード11に送信し(54
0)、キャッシュノード20の処理は終了する。データ
が存在しない場合は、入出力ノード30に対してデータ
要求を送信し(531)、その応答を待ってデータをキ
ャッシュ50に入れた後(532)、データを計算ノー
ド11に送信する(540)。計算ノード11は、その
データを受信し(410)、計算ノード11側の処理も
終了する。
Next, the cache node 20 starts processing a data request from the calculation node 11. The cache node 20 checks whether the cache 50 has data requested by the calculation node 11 (530). If the data exists, the data is transmitted to the calculation node 11 (54
0), the process of the cache node 20 ends. If the data does not exist, a data request is transmitted to the input / output node 30 (531), the response is waited for, the data is stored in the cache 50 (532), and then the data is transmitted to the calculation node 11 (540). ). The computing node 11 receives the data (410), and the processing on the computing node 11 side also ends.

【0012】図3の実施例では、計算ノード10、11
が同時に処理要求を出した場合の処理について説明をし
たが、計算ノード10と11の間で処理要求を出す時間
に差があり、例えば、キャッシュノード20が計算ノー
ド10に対する処理を実行中に計算ノード11からの処
理要求を受信した場合でも処理は同じである。また、図
3の実施例は、計算ノード10、11とキャッシュノー
ド20に関して説明したが、計算ノード12〜15、キ
ャッシュノード21〜22の場合も処理は同様である。
In the embodiment of FIG. 3, the calculation nodes 10, 11 are
Has described the processing when the processing requests are issued at the same time. However, there is a difference in the time for issuing the processing requests between the calculation nodes 10 and 11, and for example, the calculation is performed while the cache node 20 is executing the processing for the calculation node 10. The processing is the same even when the processing request from the node 11 is received. Further, the embodiment of FIG. 3 has been described with respect to the calculation nodes 10 and 11 and the cache node 20, but the processing is the same for the calculation nodes 12 to 15 and the cache nodes 21 to 22.

【0013】この実施例によれば、複数のキャッシュノ
ードが入出力ノードへの処理要求集中を緩和する役割を
果たし、また、複数のキャッシュノードを用意すること
で1個のキャッシュノード当たりの処理要求通信も少な
くなるため、処理待ち時間が短くなり、並列計算機全体
の性能を向上させることができる。例えば、図1の実施
例において、あるノードへデータ読み出し要求を出した
場合の処理時間を1とすると、計算ノード10〜15が
直接入出力ノード30に処理を出せば、平均3倍、全ノ
ードの処理が終了するまで6倍の処理時間が発生するの
に対し、キャッシュ50〜52にデータがあれば、平均
1.5倍、全ノードの処理が終了するまで2倍の処理時
間で済むことになる。
According to this embodiment, a plurality of cache nodes play a role of relieving the concentration of processing requests to the input / output nodes, and by preparing a plurality of cache nodes, the processing requests for each cache node can be reduced. Since communication is reduced, the processing waiting time is shortened, and the performance of the parallel computer as a whole can be improved. For example, in the embodiment of FIG. 1, assuming that the processing time when a data read request is issued to a certain node is 1, if the calculation nodes 10 to 15 directly issue a process to the input / output node 30, the average is tripled, The processing time of 6 times is required until the processing of No. is completed, whereas if there is data in the caches 50 to 52, the processing time is 1.5 times on average and twice as long as the processing of all nodes is completed. become.

【0014】上記実施例では、データを要求する計算ノ
ードと入出力ノードの間に1個のキャッシュノードしか
置いていないが、2個以上のキャッシュノードを置いて
も良いことは言うまでもない。また、上記実施例では、
データ読み出し要求処理に関して説明したが、データの
書き込み要求、その他キャッシュ上のデータに対する処
理要求の場合でも同様の効果がある。更に、上記実施例
では、データ読み出し要求を発生するプログラムがキャ
ッシュを持たない計算ノード10〜15でしか実行され
ていない例を示したが、データ読み出し要求を発生する
プログラムがキャッシュノード20〜22、入出力ノー
ド30で実行されていてもよい。この場合、キャッシュ
にデータが存在すれば、通信による処理待ち時間が発生
せず、処理がより高速になる。
In the above embodiment, only one cache node is placed between the calculation node requesting the data and the input / output node, but it goes without saying that two or more cache nodes may be placed. Further, in the above embodiment,
Although the data read request process has been described, the same effect can be obtained in the case of a data write request or a process request for data on the cache. Further, in the above-described embodiment, the example in which the program that issues the data read request is executed only in the computing nodes 10 to 15 that do not have a cache is shown. However, the program that issues the data read request is in the cache nodes 20 to 22, It may be executed in the input / output node 30. In this case, if there is data in the cache, the processing wait time due to communication does not occur and the processing becomes faster.

【0015】図1の実施例では、単に計算ノード上にキ
ャッシュがある場合の処理であったが、他の実施例とし
て、例えば、特開平6−19856号に示されている、
複数の計算ノード(クラスタ)がネットワークにより結
合された並列計算機であり、各計算ノードの通信領域に
プロセスのデータ領域を割り当てることが可能な並列計
算機では、一部の計算ノードの通信領域としてキャッシ
ュとして使用するデータ領域を用いることによってキャ
ッシュノードとし、キャッシュ上のデータやキャッシュ
管理情報の通信処理を効率的に行うことができる。この
実施例では、キャッシュ内のデータ及びキャッシュ管理
情報を通信領域にコピーする必要がなくなるため、デー
タコピーの時間を排除することができ、ノード内での処
理時間を短くすることが可能となる。更に、ネットワー
クの通信機能に複数計算ノードへの同時通信機能がある
場合は、計算ノード間の相互通信の効率も上げることが
できる。まず、計算機の立ち上げ時に、どの計算ノード
がキャッシュノードになるかを指定すると同時に、すべ
てのキャッシュノードにどの計算ノードがキャッシュを
持っているかを知らせておく。そして、キャッシュの状
態に変化が発生した場合には、直ちに他のキャッシュノ
ードに同時通信機能を使って通知する。この方法では、
並列計算機内にキャッシュを持っている計算ノードの数
がいくつあっても、1回の送信処理で操作が完了するた
め、計算ノード間通信の効率を上げることができる。
In the embodiment of FIG. 1, the processing is performed only when the cache is on the calculation node, but as another embodiment, for example, it is shown in Japanese Patent Laid-Open No. 6-19856.
In a parallel computer in which multiple compute nodes (clusters) are connected by a network and the data area of a process can be assigned to the communication area of each compute node, a cache is used as the communication area of some compute nodes. By using the data area to be used, a cache node can be formed, and communication processing of data on the cache and cache management information can be efficiently performed. In this embodiment, since it is not necessary to copy the data in the cache and the cache management information to the communication area, the data copy time can be eliminated and the processing time in the node can be shortened. Further, when the communication function of the network has a function of simultaneously communicating with a plurality of calculation nodes, the efficiency of mutual communication between the calculation nodes can be improved. First, when the computer is started up, which computing node will be the cache node is specified, and at the same time, all the caching nodes are informed which computing node has the cache. Then, when a change occurs in the cache state, it immediately notifies other cache nodes using the simultaneous communication function. in this way,
No matter how many calculation nodes have caches in the parallel computer, since the operation is completed by one transmission process, the efficiency of communication between the calculation nodes can be improved.

【0016】他の実施例として、図1の実施例におい
て、図4に示すようにキャッシュノード内のキャッシュ
にフラグ(識別子)としてキャッシュアクセス表示フラ
グ70とキャッシュ無効化許可フラグ75を設け、複数
の計算ノードが同じデータを要求する場合に、キャッシ
ュ内に格納されているデータに対する他の計算ノードか
らの処理要求が完了するまで、キャッシュデータを保持
する機能を付加することもできる。図4において、キャ
ッシュアクセス表示フラグ70はアクセスノード表示フ
ラグ71とアクセス完了表示フラグ72の対から成り、
それぞれのフラグはデータ要求を行う可能性がある計算
ノードの数の表示ビットを持っており、1ビットに1個
の計算ノードが対応する。アクセスノード表示フラグ7
1は、キャッシュデータ80内のデータを要求する計算
ノードを表示し、データを要求する計算ノードのフラグ
に“1”が立つ。アクセス完了表示フラグ72はデータ
要求を既に行った計算ノードを表示し、データ要求を既
に行った計算ノードのフラグに“1”が立つ。また、キ
ャッシュ無効化許可フラグ75はキャッシュデータ80
内のデータを無効にしてもよいかどうかを表示し、デー
タを無効にしてもよい場合に“1”が立つ。
As another embodiment, in the embodiment of FIG. 1, the cache in the cache node is provided with a cache access display flag 70 and a cache invalidation permission flag 75 as flags (identifiers) as shown in FIG. When the calculation nodes request the same data, it is possible to add a function of holding the cache data until the processing request from the other calculation nodes for the data stored in the cache is completed. In FIG. 4, the cache access display flag 70 is composed of a pair of an access node display flag 71 and an access completion display flag 72,
Each flag has an indication bit of the number of calculation nodes that may make a data request, and one bit corresponds to one calculation node. Access node display flag 7
1 indicates a calculation node requesting data in the cache data 80, and “1” is set in the flag of the calculation node requesting data. The access completion display flag 72 displays a calculation node that has already made a data request, and “1” is set in the flag of the calculation node that has already made a data request. Further, the cache invalidation permission flag 75 is the cache data 80.
It indicates whether or not the data in it may be invalidated, and "1" is set when the data may be invalidated.

【0017】次に、この方式の処理手順を図5のフロー
チャートを使って説明する。
Next, the processing procedure of this system will be described with reference to the flowchart of FIG.

【0018】まず、キャッシュノードにデータを要求す
るいくつかの計算ノードは、データを要求する際、どの
計算ノードから同じデータへ要求が入るかの情報を付加
したデータ要求メッセージを送信する(600)。キャ
ッシュノードは、最初のデータ要求通信を受信すると
(605)、データ要求の通信メッセージの中から同一
データへの処理要求を発行する計算ノードの情報を読み
出し、アクセスノード表示フラグ71に設定する(61
0)。すなわち、同一データへの処理要求を発行する計
算ノードに対応するアクセスノード表示フラグに“1”
を立てる。そして、計算ノードへはデータを送信し(6
20)、データを要求した計算ノードに対応するアクセ
ス完了表示フラグに“1”を立てる(630)。同様
に、他の計算ノードからの同一データ要求通信を受信す
ると(640)、計算ノードへはデータを送信し(65
0)、データを要求した計算ノードに対応するアクセス
完了表示フラグに“1”を立てる(660)。ここで、
アクセスノード表示フラグ71とアクセス完了表示フラ
グ72を比較し(670)、フラグが一致しない、すな
わち、まだデータ要求を出していない計算ノードが残っ
ている場合は、次のデータ要求受信待ちになる(68
0)。フラグが一致した場合は、すべての計算ノードか
らデータ要求の通信が入ったことになるので、キャッシ
ュ無効化許可フラグ75に“1”を立て(690)、キ
ャッシュデータ80が無効化されてもよい状態にする。
First, some computational nodes requesting data from a cache node, when requesting data, send a data request message to which information on which computational node requests the same data is added (600). . When the cache node receives the first data request communication (605), it reads the information of the calculation node that issues the processing request for the same data from the data request communication message and sets it in the access node display flag 71 (61).
0). That is, "1" is set in the access node display flag corresponding to the calculation node that issues the processing request for the same data.
Stand up. Then, the data is transmitted to the calculation node (6
20), "1" is set to the access completion display flag corresponding to the calculation node that requested the data (630). Similarly, when the same data request communication is received from another computing node (640), the data is transmitted to the computing node (65).
0), "1" is set to the access completion display flag corresponding to the calculation node that requested the data (660). here,
The access node display flag 71 and the access completion display flag 72 are compared (670), and if the flags do not match, that is, if there are computing nodes that have not yet issued a data request, the next data request reception wait ( 68
0). If the flags match, it means that the data request communication has been entered from all the calculation nodes, so that the cache invalidation permission flag 75 is set to "1" (690), and the cache data 80 may be invalidated. Put in a state.

【0019】上記の説明は、同じデータを要求する1組
の計算ノードに係るキャッシュアクセス表示フラグ、キ
ャッシュ無効化許可フラグ、キャッシュデータについて
説明したが、他の同じデータを要求する1組の計算ノー
ド毎にキャッシュアクセス表示フラグ、キャッシュ無効
化許可フラグ、キャッシュデータが用意されることはい
うまでもない。例えば、キャッシュデータのタグ毎にキ
ャッシュアクセス表示フラグ、キャッシュ無効化許可フ
ラグを用意すればよい。この実施例によれば、複数の計
算ノードから同じデータに対する要求が入った場合、要
求を出したすべての計算ノードにデータを送信するまで
データがキャッシュからはずされることがないため、キ
ャッシュノードから入出力ノードにデータ要求の通信が
発生することがなく、キャッシュノードと入出力ノード
の通信を減らすことができ、ノード間通信の効率を上げ
ることができる。
Although the above description has explained the cache access display flag, the cache invalidation permission flag, and the cache data relating to a set of calculation nodes requesting the same data, another set of calculation nodes requesting the same data. It goes without saying that a cache access display flag, a cache invalidation permission flag, and cache data are prepared for each. For example, a cache access display flag and a cache invalidation permission flag may be prepared for each tag of cache data. According to this embodiment, when a request for the same data is input from a plurality of calculation nodes, the data is not removed from the cache until the data is sent to all the calculation nodes that have issued the request. Communication of a data request does not occur in the input / output node, the communication between the cache node and the input / output node can be reduced, and the efficiency of inter-node communication can be improved.

【0020】前記の実施例において、データ要求メッセ
ージにどの計算ノードから同じデータへ要求が入るかの
情報を付加しているが、他の実施例として、この情報の
代わりにデータの先読み指示の情報を付加することも可
能である。この実施例では、計算ノードはデータ要求を
送信する際、次に要求するデータに関する情報をデータ
要求のメッセージの中に一緒に入れて送信する。キャッ
シュノードは、計算ノードからのデータ要求を受信する
と、キャッシュにデータがない場合、要求データと同時
に指示された先読みデータも入出力ノードに要求し、デ
ータを先読みしておく。キャッシュにデータがある場合
は、計算ノードに要求データを送信し、キャッシュに先
読みデータがない場合には同時に入出力ノードに先読み
データの要求を行い、データを先読みしておく。この実
施例によれば、キャッシュノードは、計算ノードからの
次のデータ要求時に必要となるデータを予め入出力ノー
ドから読み込むことが可能となり、キャッシュミスによ
る処理待ち時間を減らすことができ、更に、キャッシュ
ノードと入出力ノードとの間の通信回数も減らす事が可
能となり、並列計算機全体の性能を上げることができ
る。上記の実施例では、データ要求の際に更に先のデー
タを要求する場合の方式について説明したが、データ書
き込みの際に次のデータの先読み情報の付加、また、デ
ータ要求の際に次に発生するデータ書き込みに関する情
報の付加、データ書き込みの際に次のデータの書き込み
に関する情報を付加してもよい。
In the above-described embodiment, the data request message is added with the information indicating from which calculation node the request enters the same data. However, as another embodiment, instead of this information, the information of the prefetching instruction of the data is added. It is also possible to add. In this embodiment, when the computing node sends a data request, it sends information about the next requested data together in a data request message. When the cache node receives the data request from the calculation node, if there is no data in the cache, the cache node requests the prefetch data instructed at the same time as the request data from the input / output node to prefetch the data. When there is data in the cache, the request data is transmitted to the calculation node, and when there is no prefetch data in the cache, the prefetch data is requested to the input / output node at the same time to prefetch the data. According to this embodiment, the cache node can read in advance the data required for the next data request from the calculation node from the input / output node, and can reduce the processing wait time due to a cache miss. The number of communications between the cache node and the input / output node can be reduced, and the performance of the parallel computer as a whole can be improved. In the above embodiment, the method of requesting further data at the time of data request has been described. However, the pre-read information of the next data is added at the time of data writing, and the next data is generated at the time of data request. It is also possible to add information related to data writing to be performed and information related to writing of next data when writing data.

【0021】[0021]

【発明の効果】以上述べたように、本発明によれば、多
数の計算ノードから一つの入出力ノードへの処理要求の
集中を避け、処理待ち時間を短縮することができる。こ
の結果、並列計算機全体の性能を向上させることができ
る。
As described above, according to the present invention, it is possible to avoid the concentration of processing requests from a large number of calculation nodes to one input / output node and to shorten the processing waiting time. As a result, the performance of the entire parallel computer can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の1実施例である並列計算機内の計算ノ
ード、キャッシュノード、入出力ノードの接続を示すブ
ロック図である。
FIG. 1 is a block diagram showing connections of a calculation node, a cache node, and an input / output node in a parallel computer that is an embodiment of the present invention.

【図2】図1の実施例における処理手順を示すフローチ
ャートである。
FIG. 2 is a flowchart showing a processing procedure in the embodiment of FIG.

【図3】図1の実施例において、複数の計算ノードが同
時に入出力の処理要求を出した場合の処理手順を示すフ
ローチャートである。
FIG. 3 is a flowchart showing a processing procedure when a plurality of computing nodes simultaneously issue input / output processing requests in the embodiment of FIG.

【図4】図1の実施例において、キャッシュアクセス表
示フラグとキャッシュ無効化許可フラグを付加したキャ
ッシュのブロック図である。
FIG. 4 is a block diagram of a cache in which a cache access display flag and a cache invalidation permission flag are added in the embodiment of FIG.

【図5】図4の実施例における処理手順を示すフローチ
ャートである。
5 is a flowchart showing a processing procedure in the embodiment of FIG.

【符号の説明】[Explanation of symbols]

10〜15 計算ノード 20〜22 キャッシュノード 30 入出力ノード 40 2次記憶装置 50〜53 キャッシュ 60〜68 ノード間ネットワーク通信路 70 キャッシュアクセス表示フラグ 71 アクセスノード表示フラグ 72 アクセス完了表示フラグ 75 キャッシュ無効化許可フラグ 80 キャッシュデータ 10-15 Compute node 20-22 Cache node 30 I / O node 40 Secondary storage device 50-53 Cache 60-68 Inter-node network communication path 70 Cache access display flag 71 Access node display flag 72 Access completion display flag 75 Cache invalidation Permission flag 80 cache data

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数の計算ノードと、複数の入出力ノー
ドと、該複数の計算ノード及び入出力ノードを相互に接
続するネットワーク有し、計算ノードは、プロセッサ
と、プロセッサが使用するプログラムとデータを保持す
るメモリと、ネットワークを介して他の計算ノード、入
出力ノードと通信を行うための装置を持ち、入出力ノー
ドは、プロセッサと、プロセッサが使用するプログラム
とデータを保持するメモリと、プログラム及びプログラ
ムが使用するデータを保持する2次記憶装置と、ネット
ワークを介して他の計算ノード、入出力ノードと通信を
行うための装置を持つ並列計算機において、 前記複数の計算ノードの内の一部の計算ノードにキャッ
シュを設けキャッシュノードとし、 並列計算機の立ち上げ時の指定に従い、前記入出力ノー
ドのいずれかの入出力ノードと通信できる1以上の前記
キャッシュノードを設定すると共に該各キャッシュノー
ドと通信できる1以上の前記計算ノードを設定し、 1以上の前記計算ノードから同時に同一2次記憶装置に
データの読み出しまたは書き込み処理要求がなされたと
き、2次記憶装置を有する前記入出力ノードに代えて前
記キャッシュノードから前記計算ノードに要求されたデ
ータを供給することを特徴とする並列計算機。
1. A plurality of calculation nodes, a plurality of input / output nodes, and a network interconnecting the plurality of calculation nodes and the input / output nodes, wherein the calculation nodes are processors, and programs and data used by the processors. And a device for communicating with other computing nodes and input / output nodes via a network, and the input / output node includes a processor, a memory for holding a program and data used by the processor, and a program A parallel computer having a secondary storage device for holding data used by a program, and a device for communicating with other computing nodes and input / output nodes via a network, wherein a part of the plurality of computing nodes is provided. A cache is provided for each of the above compute nodes as a cache node, and the above-mentioned input / output is performed according to the specification when the parallel computer is started up. One or more of the cache nodes that can communicate with any of the input / output nodes of the node, and one or more of the compute nodes that can communicate with each of the cache nodes. A parallel computer, characterized in that, when a data read or write processing request is made to a storage device, the requested data is supplied from the cache node to the calculation node instead of the input / output node having a secondary storage device. .
【請求項2】 請求項1記載の並列計算機において、 前記計算ノードは送信するデータ要求メッセージにどの
計算ノードから同じデータへ要求が入るかの情報を付加
し、 前記キャッシュノードは前記計算ノードから受信したデ
ータ要求メッセージ内の前記付加情報に従い、該キャッ
シュノードと通信する計算ノード対応に同じデータへの
要求の有無を示す識別子と、該要求を実行したか否かを
識別子を設定し、データを要求した全ての計算ノードへ
データが供給されて該両識別子の値が全て一致するまで
キャッシュ上のデータを保持することを特徴とする並列
計算機。
2. The parallel computer according to claim 1, wherein the computing node adds information indicating from which computing node a request enters the same data to a data request message to be transmitted, and the cache node receives from the computing node. According to the additional information in the data request message, an identifier indicating whether there is a request for the same data corresponding to the calculation node communicating with the cache node and an identifier indicating whether the request has been executed are set, and the data is requested. A parallel computer, characterized in that the data is supplied to all the calculated nodes and the data in the cache is held until the values of both the identifiers match.
【請求項3】 請求項1記載の並列計算機において、 前記計算ノードは送信するデータ要求メッセージに現在
の要求に関する情報の他に次の読み出しに関する情報あ
るいは次の書き込みに関する情報を付加し、 前記キャッシュノードは前記計算ノードから受信したデ
ータ要求メッセージ内の前記付加情報に対応するデータ
がキャッシュ内に存在しないとき、前記付加情報に対応
するデータを前記入出力ノードを介して前記2次記憶装
置から先読みすることを特徴とする並列計算機。
3. The parallel computer according to claim 1, wherein the computing node adds information about a next read or information about a next write to the data request message to be transmitted, in addition to the information about the current request, Prefetches the data corresponding to the additional information from the secondary storage device via the input / output node when the data corresponding to the additional information in the data request message received from the computing node does not exist in the cache. A parallel computer characterized by that.
【請求項4】 通信領域を有する複数の計算ノードと、
通信領域を有する複数の入出力ノードと、該複数の計算
ノード及び入出力ノードを相互に接続するネットワーク
有し、該複数の計算ノード及び入出力ノードは、いずれ
かの該通信先ノードに転送するデータと、そのデータを
使用すべき転送先ユーザプロセスに割り当てられた通信
領域の識別子と、該通信すべきデータを書き込むべき該
通信先ノード内の該メモリ内の位置を指定する情報とを
含むメッセージを該ネットワークを介して送信する送信
回路と、該複数の計算ノード及び入出力ノードのいずれ
かの送信元のノードから該ネットワークを介して転送さ
れたメッセージを受信する受信回路を有し、いずれかの
送信元のノードから複数の送信先ノードに対して同時に
データ送信が可能な並列計算機において、 前記複数の計算ノードの一部の計算ノードを該計算ノー
ドの通信領域としてキャッシュを用いてキャッシュノー
ドとし、いずれかのキャッシュのキャッシュデータが変
更された際に、変更内容を同時に同一キャッシュデータ
を持つ他のキャッシュノードに送信することを特徴とす
る並列計算機。
4. A plurality of computing nodes having a communication area,
A plurality of input / output nodes having a communication area and a network interconnecting the plurality of calculation nodes and the input / output nodes are provided, and the plurality of calculation nodes and the input / output nodes transfer to any of the communication destination nodes. A message including data, an identifier of a communication area assigned to a transfer destination user process that should use the data, and information designating a position in the memory in the communication destination node where the data to be communicated is written A transmission circuit for transmitting the message via the network, and a reception circuit for receiving a message transferred from the transmission source node of the plurality of calculation nodes and the input / output node via the network, In a parallel computer capable of simultaneously transmitting data from a source node to a plurality of destination nodes, a part of the plurality of computing nodes When a cache is used as a communication area of the compute node and a cache is used as the communication area of the compute node, when the cache data of one of the caches is changed, the changed contents are simultaneously transmitted to another cache node having the same cache data. A characteristic parallel computer.
JP7266474A 1995-09-20 1995-09-20 Parallel computer Pending JPH0991261A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7266474A JPH0991261A (en) 1995-09-20 1995-09-20 Parallel computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7266474A JPH0991261A (en) 1995-09-20 1995-09-20 Parallel computer

Publications (1)

Publication Number Publication Date
JPH0991261A true JPH0991261A (en) 1997-04-04

Family

ID=17431438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7266474A Pending JPH0991261A (en) 1995-09-20 1995-09-20 Parallel computer

Country Status (1)

Country Link
JP (1) JPH0991261A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072978A (en) * 2008-09-19 2010-04-02 Fuji Xerox Co Ltd System and device for analyzing particle behavior, information output device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072978A (en) * 2008-09-19 2010-04-02 Fuji Xerox Co Ltd System and device for analyzing particle behavior, information output device and program

Similar Documents

Publication Publication Date Title
US6971098B2 (en) Method and apparatus for managing transaction requests in a multi-node architecture
US6125399A (en) Computer system including a plurality of nodes for transferring through a data transfer network messages having distinguishing fields used for distinguishing the messages and controlling receipt thereof
JP3411273B2 (en) Data processing method and data processing system in processor
JPH1097513A (en) Node in multiprocessor computer system and multiprocessor computer system
JP2000268006A (en) Multiprocessor system
JP2000227908A (en) Non-uniform memory access(numa) data processing system having shared intervention support
US7281118B2 (en) Sending thread message generated using DCR command pointed message control block storing message and response memory address in multiprocessor
CN101635679B (en) Dynamic update of route table
JPH08255122A (en) Method for recovery from fault in disk access path of clustering computing system and related apparatus
CN114095251B (en) SSLVPN implementation method based on DPDK and VPP
JPH10320282A (en) Method and device for controlling virtual cache
US5204954A (en) Remote storage management mechanism and method
US6904465B2 (en) Low latency inter-reference ordering in a multiple processor system employing a multiple-level inter-node switch
JP2004318744A (en) Database processing method providing high availability
JPH10187631A (en) Extended symmetrical multiprocessor architecture
JP3169624B2 (en) Interprocessor communication method and parallel processor therefor
KR100978082B1 (en) Asynchronous remote procedure calling method in shared memory multiprocessor and computer-redable redording medium recorded asynchronous remote procedure calling program
JPH0991261A (en) Parallel computer
JPH09167143A (en) Message reception control system
JPH10240695A (en) Operation using local storage device of plural unprocessed requests in sci system
JP4658064B2 (en) Method and apparatus for efficient sequence preservation in interconnected networks
JP3252464B2 (en) Virtual computer system
KR100198802B1 (en) Message teansfer control using xcent-net between nodes
CN117370046A (en) Inter-process communication method, system, device and storage medium
JP3877186B2 (en) Parallel computer