JPH08147251A - Parallel computer - Google Patents

Parallel computer

Info

Publication number
JPH08147251A
JPH08147251A JP6284736A JP28473694A JPH08147251A JP H08147251 A JPH08147251 A JP H08147251A JP 6284736 A JP6284736 A JP 6284736A JP 28473694 A JP28473694 A JP 28473694A JP H08147251 A JPH08147251 A JP H08147251A
Authority
JP
Japan
Prior art keywords
data
message
network
processor
compressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6284736A
Other languages
Japanese (ja)
Inventor
Osamu Arakawa
荒川  修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6284736A priority Critical patent/JPH08147251A/en
Publication of JPH08147251A publication Critical patent/JPH08147251A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To improve system performance by improving network transfer throughput at the time of message transfer concerning the distributed memory type parallel computer. CONSTITUTION: Concerning the parallel computer in which plural processor nodes are provided, the respective processor nodes are equipped with CPU 102 and 112 for performing calculation processing, independent storage devices 105 and 115 and network adapters 107 and 117 for performing the message transfer with a network, the processor nodes are coupled by a network 121 and the data required for parallel processing between the processor nodes are exchanged by the message transfer, the network adapters 107 and 117 are provided with compression means for compressing message data and expansion means for expanding the message data. At the time of message transmission, a message is transferred by the network 121 after the message data are compressed by the compression means and at the time of message reception, the message is expanded by the expansion means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、分散記憶型の並列計算
機に関し、メッセージ転送時のネットワーク転送スルー
プットを向上させ、システム性能を改善する方式に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distributed storage type parallel computer, and more particularly to a system for improving network transfer throughput at the time of message transfer and improving system performance.

【0002】[0002]

【従来の技術】分散記憶型の並列計算機は、プロセッサ
ごとに記憶装置を持ち、それぞれのプロセッサをネット
ワークで結合している。並列処理の際必要となるデータ
のやりとりは、ネットワークを介しメッセージを交換す
ることで実現している。このような計算機の性能は、プ
ロセッサ性能とそれに見合ったネットワークの性能が必
要である。
2. Description of the Related Art A distributed storage type parallel computer has a storage device for each processor and connects the processors via a network. The data exchange required for parallel processing is realized by exchanging messages via the network. The performance of such a computer requires processor performance and network performance commensurate with it.

【0003】個々のプロセッサ内で行う演算量と、他の
プロセッサへのデータ転送量は実行するアプリケーショ
ンによる。プロセッサでの演算時間に比べ、ネットワー
クでのメッセージ通信時間を短くする必要がある。特に
科学技術計算では、他のプロセッサとやりとりするデー
タの量が大きく、メッセージ転送に対し、主記憶アクセ
スにより近い転送スループットが要求される。
The amount of calculation performed in each processor and the amount of data transfer to another processor depend on the application to be executed. It is necessary to shorten the message communication time in the network compared to the calculation time in the processor. Especially in scientific and engineering calculations, the amount of data exchanged with other processors is large, and transfer throughput closer to main memory access is required for message transfer.

【0004】しかし、CPUと主記憶とのパスは距離が近
いため高速にアクセスすることができるが、他のプロセ
ッサと結合するネットワークは、伝送路の距離が長く波
形のなまり等により転送ピッチを高くすることは難し
い。また、ケーブルで接続するケースが多いため、信号
線数を多くすることは難しい。このような制限事項か
ら、主記憶スループットに比べ、ネットワークスループ
ットの方が低くなる傾向がある。
However, since the path between the CPU and the main memory is close in distance, it can be accessed at high speed. However, in the network coupled with other processors, the transmission path is long and the transfer pitch is high due to the rounding of the waveform. Difficult to do. In addition, it is difficult to increase the number of signal lines because there are many cases of connecting with cables. Due to such restrictions, the network throughput tends to be lower than the main storage throughput.

【0005】ディスク装置のような入出力装置のアクセ
スに関しては次のように圧縮技術を用いて解決してい
る。
Access to an input / output device such as a disk device is solved by using a compression technique as follows.

【0006】ディスク装置に格納された画像データを、
リアルタイムに表示する、動画表示システムについて説
明する。画像データは非常に膨大であり、そのままディ
スクに格納すると、大量のディスク容量が必要となる。
また、動画の表示速度に比べてディスク装置の読み出し
速度が遅いため、リアルタイムに表示することができな
い。そこで、圧縮した画像データをディスクに格納し、
ディスクから読み出した圧縮された画像データを専用の
ハードウェアまたはソフトウェアによって伸張し、それ
をフレームバッファに転送し画面に表示する。画像デー
タは、画像のX方向,Y方向,時間軸方向でかなりデータが
似ていることを利用して、かなり高効率で圧縮でき、数
十分の一から百分の一程度まで圧縮できる。この圧縮率
の高さによって、ディスクアクセスを遅さを補うことが
でき、リアルタイムで動画再生に必要な画像データをデ
ィスクから読み込むことができる。圧縮技術を画像の表
示・伝送に応用した例は、「HDTV・CD-I・ファクシミリ
を生んだ画像圧縮技術のはなし」工業技術会に記されて
いる。
Image data stored in the disk device
A moving image display system for displaying in real time will be described. The image data is very large, and if it is stored on the disk as it is, a large amount of disk capacity is required.
Further, since the read speed of the disk device is slower than the display speed of the moving image, it cannot be displayed in real time. So, store the compressed image data on the disk,
The compressed image data read from the disk is decompressed by dedicated hardware or software, transferred to the frame buffer, and displayed on the screen. Image data can be compressed with a very high efficiency by utilizing the fact that the data is very similar in the X-direction, Y-direction, and time-axis direction of the image, and can be compressed to several tenths to a hundredth. Due to this high compression rate, it is possible to compensate for the delay in disk access, and it is possible to read image data required for moving image reproduction from the disk in real time. An example of applying the compression technology to image display and transmission is described in the "Technology of Image Compression Technology that Produced HDTV / CD-I / Facsimile".

【0007】圧縮の方式には、可逆符号化方式に属する
ものと不可逆符号方式に属する方式がある。可逆符号化
方式は、符号化しその後復号化したときに、元のデータ
そのままに復元できる。しかしこの方式は圧縮率があま
り高くなく2分の1から数分の一にしか圧縮できない。不
可逆符号方式は、復号化したとき元のデータとは同じと
ならない。画像・音声データのように、同じデータに複
合できなくても、圧縮率が高くなり、類似したデータに
複合できればよい場合に適している。この方式は、数十
分の一から百分の一程度まで圧縮できる。上記の動画表
示システムの例では、元のデータに復号できない、JPE
G,MPEGの様な不可逆符号化方式を使用している。
There are two compression schemes, one belonging to the lossless coding scheme and the other belonging to the lossy coding scheme. The lossless coding method can restore the original data as it is when it is coded and then decoded. However, the compression rate of this method is not so high that it can be compressed only to half to several times. The lossy coding scheme is not the same as the original data when decoded. This is suitable for cases where image data and audio data cannot be combined into the same data but have a high compression rate and can be combined into similar data. This method can compress from a few tenths to a hundredth. In the above video display system example, JPE cannot be decrypted to the original data.
A lossy encoding method such as G, MPEG is used.

【0008】[0008]

【発明が解決しようとする課題】複数のプロセッサを持
ち、それらをネットワークで結合した並列計算機におい
ては、プロセッサ間のネットワーク転送速度がシステム
性能に影響する。CPUと主記憶とのパスは距離が近いた
め高速にアクセスすることができるが、他のプロセッサ
と結合するネットワークは、伝送路の距離が長く波形の
なまり等により転送ピッチを高くすることは難しい。ま
た、ケーブルで接続することが多いため、信号線数を多
くすることも難しい。このような制限事項から、主記憶
スループットに比べ、ネットワークスループットの方が
低くなる傾向がある。信号線数を増加したり、高価なド
ライバやケーブルを使用することによってネットワーク
の転送速度を向上できるが、システムが高価となる。
In a parallel computer having a plurality of processors and connecting them through a network, the network transfer speed between the processors affects the system performance. The path between the CPU and the main memory can be accessed at high speed because the distance is short, but it is difficult to increase the transfer pitch in the network coupled with other processors due to the long distance of the transmission path and the rounding of the waveform. In addition, it is difficult to increase the number of signal lines because the cables are often connected. Due to such restrictions, the network throughput tends to be lower than the main storage throughput. Although the transfer rate of the network can be improved by increasing the number of signal lines and using expensive drivers and cables, the system becomes expensive.

【0009】また、システムの性能をアップグレードし
たい時、CPUを高速版に交換するだけでは、ネットワー
ク性能がそのままで、メッセージ転送のオーバヘッドの
割合が大きくなるため、システム性能が上がらない。プ
ロセッサと同時に、ネットワーク性能も高速版に変更し
なければシステム性能が向上しない。
Further, when the system performance is desired to be upgraded, the system performance cannot be improved simply by replacing the CPU with a high speed version because the network performance remains the same and the message transfer overhead increases. At the same time as the processor, network performance must be changed to a high-speed version to improve system performance.

【0010】[0010]

【課題を解決するための手段】複数のプロセッサを持
ち、それらをネットワークで結合した並列計算機におい
て、他のプロセッサに演算のためのデータを転送する
際、プロセッサ内にメッセージの転送データを圧縮伸張
する機能を設ける。送信側プロセッサで転送するメッセ
ージのデータを圧縮し、圧縮されたデータをネットワー
クにメッセージとして転送する。受信側プロセッサはメ
ッセージデータを受け取り伸張し、元のデータに復元し
演算に使用する。
In a parallel computer having a plurality of processors and connecting them through a network, when transferring data for operation to another processor, the transfer data of a message is compressed and expanded in the processor. Provide a function. The sending processor compresses the data of the message to be transferred and transfers the compressed data to the network as a message. The receiving processor receives the message data, decompresses it, restores it to the original data, and uses it for the calculation.

【0011】[0011]

【作用】複数のプロセッサを持ち、それらをネットワー
クで結合した並列計算機において、他のプロセッサに演
算のためのデータを転送する際、転送データを圧縮伸張
する機能を追加する。実際のメッセージの転送データ量
が減少するため、結果的に転送スループットが向上す
る。転送スループットの向上によって、システムの性能
が向上する。
In a parallel computer having a plurality of processors and connecting them via a network, a function of compressing / expanding the transfer data when the data for operation is transferred to another processor is added. The transfer data amount of the actual message is reduced, and as a result, the transfer throughput is improved. The improved transfer throughput improves system performance.

【0012】[0012]

【実施例】以下に本発明の一実施例を添付図面に基づい
て詳述する。図1は実施例の並列計算機の構成を示して
いる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 shows the configuration of the parallel computer of the embodiment.

【0013】図1において101,111は並列計算機を構成す
るプロセッサを示す。101と111の内容は同一であり、そ
れ単体で独立した演算等の処理を行なう。121はネット
ワークを示しており、プロセッサ間のデータ転送や同期
処理を行なう。
In FIG. 1, reference numerals 101 and 111 denote processors forming a parallel computer. The contents of 101 and 111 are the same, and they perform independent processing such as independent operations. Reference numeral 121 denotes a network, which performs data transfer between processors and synchronization processing.

【0014】102,112のCPUは演算処理等のプログラムを
実行する。103,113は演算を行なうハードウェアであ
る。104,114は演算したいデータや演算結果を一時的に
格納するレジスタである。105,115はCPUが実行するプロ
グラムであるオペレーティングシステムやアプリケーシ
ョン,データ等を格納する主記憶である。106,116は主記
憶105,115を制御する主記憶コントローラでCPU102,112
から主記憶105,115へのアクセスをコントロールする。
また主記憶105,115にあるデータをネットワークに転送
したり、ネットワークからデータを受信し主記憶にデー
タを書き込む。107,117はネットワークアダプタで、主
記憶コントローラ106,116に対し送信データを要求しネ
ットワーク121にメッセージを送信したり、ネットワー
ク121からのメッセージの受信データを主記憶コントロ
ーラ106,116に対し書き込み動作を行い、ネットワーク
の送受信処理を行なう。ネットワークアダプタは、圧縮
伸張論理108,118を持つ。矢印131,132,133,141,142,14
3,151はプロセッサA 101からプロセッサB 111へ、ネッ
トワーク121を経由してデータを送信する時のデータの
流れを示している。
CPUs 102 and 112 execute programs such as arithmetic processing. Reference numerals 103 and 113 are hardware for performing calculation. 104 and 114 are registers for temporarily storing data to be calculated and calculation results. Reference numerals 105 and 115 are main memories for storing operating systems, applications, data, etc., which are programs executed by the CPU. 106 and 116 are main memory controllers for controlling the main memories 105 and 115, and CPUs 102 and 112.
Access to the main memory 105, 115 from.
It also transfers the data in the main memory 105, 115 to the network or receives the data from the network and writes the data in the main memory. 107 and 117 are network adapters that request transmission data from the main storage controllers 106 and 116 to send messages to the network 121, and write received data of messages from the network 121 to the main storage controllers 106 and 116 to perform network transmission / reception processing. Do. The network adapter has compression / expansion logic 108, 118. Arrows 131,132,133,141,142,14
3, 151 indicates a data flow when data is transmitted from the processor A 101 to the processor B 111 via the network 121.

【0015】図2はプロセッサA 201からプロセッサB 21
1にデータ転送するときのデータの流れを説明するため
の図である。201,211はプロセッサであり、演算処理を
行なうための資源を有している。202,212はアプリケー
ションで演算処理を実行するためのプログラムと演算デ
ータを含んでいる。203,213はそのアプリケーションの
演算データで、他のプロセッサとデータのやり取りを行
なう必要のあるグローバルなデータエリアを含む。204
は送信用のバッファで他のプロセッサにデータを転送す
るときに一時的に格納するバッファ領域である。205の
矢印はアプリケーションA 202の演算データ203から送信
バッファ204へのデータの移動を示し、送信ルーチンに
よってメモリコピーが行なわれる。221の矢印はプロセ
ッサAからプロセッサBへのデータの移動を示しており、
ネットワークを通してメッセージが転送され、プロセッ
サB 211の受信バッファ214にデータが転送される。215
はプロセッサB 211の受信バッファ214から同211のアプ
リケーションA 212の配列データ213のデータの移動を示
しており、受信ルーチンによってメモリコピーが行なわ
れる。
FIG. 2 shows processors A 201 through B 21.
FIG. 6 is a diagram for explaining a data flow when data is transferred to 1. 201 and 211 are processors, which have resources for performing arithmetic processing. 202 and 212 include programs and calculation data for executing calculation processing by an application. 203 and 213 are operation data of the application and include a global data area that needs to exchange data with other processors. 204
Is a buffer for transmission and is a buffer area that is temporarily stored when data is transferred to another processor. The arrow 205 indicates the movement of data from the operation data 203 of the application A 202 to the transmission buffer 204, and the memory copy is performed by the transmission routine. The arrow 221 indicates the movement of data from processor A to processor B,
The message is transferred through the network and the data is transferred to the reception buffer 214 of the processor B 211. 215
Indicates the movement of the array data 213 of the application A 212 of the same 211 from the reception buffer 214 of the processor B 211, and the memory copy is performed by the reception routine.

【0016】アプリケーションA 202が演算データ203を
プロセッサB 211のアプリケーションA 212へ送信するた
め、送信ルーチンを呼び出すと、送信ルーチンは205の
矢印のように送信バッファにデータをコピーする。204
送信バッファにデータをコピーし終ると、ネットワーク
221経由で相手のプロセッサであるプロセッサB 211にデ
ータを転送し始める。送信ルーチンは送信バッファ204
にデータを転送した時点で終了し、プロセッサA 201側
のアプリケーションA 202は次の演算処理に入る。プロ
セッサB 211は、ネットワーク221からデータが送られて
くると受信バッファ214に受信データを格納する。プロ
セッサB 211のアプリケーションA 212がプロセッサA 20
1から送られてきた演算データを必要とすると、アプリ
ケーションA212は受信ルーチンを呼び出す。受信ルーチ
ンは受信バッファ214にデータが到着していることを確
認し、到着していればプロセッサB 211の受信バッファ2
14からアプリケーションA 212の演算データ領域213にコ
ピーする。
When the send routine is called in order for the application A 202 to send the operation data 203 to the application A 212 of the processor B 211, the send routine copies the data to the send buffer as indicated by an arrow 205. 204
After copying the data to the send buffer, the network
Start transferring data to the other processor, processor B 211, via 221. The transmission routine is the transmission buffer 204
The process ends when the data is transferred to the application A 202, and the application A 202 on the processor A 201 side starts the next arithmetic processing. When the data is sent from the network 221, the processor B 211 stores the received data in the reception buffer 214. Application A 212 of processor B 211 is processor A 20
When the calculation data sent from 1 is required, the application A212 calls the reception routine. The receive routine confirms that the data has arrived in the receive buffer 214, and if so, the receive buffer 2 of the processor B 211.
Copy from 14 to the calculation data area 213 of the application A 212.

【0017】図1を用いて、まず従来技術でのプロセッ
サ間データ転送手順について説明する。図1の矢印131,1
32,133,141,142,143,151はプロセッサA 101からプロセ
ッサB111へ、ネットワーク121を経由してメッセージを
送信する時のデータの流れを示している。送信したい演
算データ203は主記憶105に格納されている。アプリケー
ションA 202が送信ルーチンを呼び出すと送信ルーチン
は矢印205の様に、CPU102が、主記憶105にある演算デー
タ203のデータを読み出し、矢印131のようにレジスタ10
4に格納する。次に、CPU102は矢印132の様に送信バッフ
ァ204に書き込む。この動作を送信したいすべての演算
データに対して行う。CPU102は送信バッファ204へのコ
ピーが終了すると、ネットワークアダプタ107を起動す
る。ネットワークアダプタ107は、起動されると主記憶
コントローラ106に対し主記憶105に格納されている送信
バッファ204のデータを要求し、矢印133のように107に
転送される。次にネットワークアダプタ107は、矢印151
の様にネットワーク121にデータを送出し、プロセッサB
111にデータ転送をする。従来技術では圧縮伸張論理10
8,118を経由しない。プロセッサB 111のネットワークア
ダプタ117は、ネットワーク121からのデータを受け取る
と、主記憶コントローラ116を通じて矢印143の様に主記
憶115の受信バッファ214に受信データを書き込む。プロ
セッサB 111側のアプリケーションA 212はデータが必要
となると受信バッファ214にデータが到着したか確認
し、到着していればCPU112は読み込みを行ない、141の
矢印のようにCPU112内のレジスタ114に格納される。次
にCPU112は矢印142の様に主記憶115のアプリケーション
A 212の演算データ領域213に書き込む。以上が従来技術
のプロセッサA 101からプロセッサB 111へのデータ転送
手順である。
First, the procedure of data transfer between processors in the prior art will be described with reference to FIG. Arrows 131,1 in Figure 1
Reference numerals 32, 133, 141, 142, 143, and 151 indicate data flows when a message is transmitted from the processor A 101 to the processor B 111 via the network 121. The calculation data 203 to be transmitted is stored in the main memory 105. When the application A 202 calls the transmission routine, the transmission routine causes the CPU 102 to read the data of the operation data 203 in the main memory 105 as indicated by an arrow 205, and the register 10 as indicated by an arrow 131.
Store in 4. Next, the CPU 102 writes in the transmission buffer 204 as indicated by the arrow 132. This operation is performed for all the operation data to be transmitted. When the CPU 102 finishes copying to the transmission buffer 204, it activates the network adapter 107. When activated, the network adapter 107 requests the main memory controller 106 for the data in the transmission buffer 204 stored in the main memory 105, and the data is transferred to 107 as indicated by arrow 133. Then the network adapter 107,
Send data to network 121 like
Transfer data to 111. Compression / expansion logic 10
Do not go through 8,118. Upon receiving the data from the network 121, the network adapter 117 of the processor B 111 writes the received data in the reception buffer 214 of the main memory 115 through the main memory controller 116 as indicated by an arrow 143. When the data is required, the application A 212 on the processor B 111 side confirms whether the data has arrived in the reception buffer 214, and if it has arrived, the CPU 112 reads it and stores it in the register 114 in the CPU 112 as indicated by the arrow 141. To be done. Next, the CPU 112 displays the application of the main memory 115 as shown by arrow 142.
Write to the calculation data area 213 of A212. The above is the data transfer procedure from the processor A 101 to the processor B 111 of the conventional technique.

【0018】本発明の場合、ネットワークアダプタ107,
117に圧縮伸張論理を持ち、ネットワーク送信時に圧縮
したデータを送出し、受信側で伸張する。この動作を10
8,118で行う。送信時ネットワークアダプタは、送信デ
ータを主記憶コントローラ106に要求し、133の矢印のよ
うに送信データを主記憶105の送信バッファ204から読み
込む。そのデータを圧縮伸張論理108で圧縮をし、151の
矢印のようにメッセージをネットワーク121に送信す
る。そのデータがプロセッサB 111のネットワークアダ
プタ117に到着すると118の圧縮伸張論理で受信データを
伸張し、主記憶115の受信バッファ214に書き込む。この
方式は、ネットワークアダプタ107,117に圧縮伸張論理1
08,118を追加するのみでソフトウェアは従来技術のもの
と同じでよい。
In the case of the present invention, the network adapter 107,
117 has compression / expansion logic, which sends out compressed data at the time of network transmission and expands it at the receiving side. This behavior 10
Perform at 8,118. At the time of transmission, the network adapter requests the transmission data from the main storage controller 106, and reads the transmission data from the transmission buffer 204 of the main storage 105 as indicated by the arrow 133. The data is compressed by the compression / expansion logic 108 and a message is transmitted to the network 121 as indicated by an arrow 151. When the data arrives at the network adapter 117 of the processor B 111, the compression / expansion logic 118 decompresses the reception data and writes it in the reception buffer 214 of the main memory 115. This method uses compression / expansion logic 1 for network adapters 107 and 117.
The software may be the same as that of the prior art, only by adding 08,118.

【0019】また、圧縮伸張論理108,118で圧縮伸張す
る代わりにCPUで圧縮しても良い。図1で、矢印131でCPU
102のレジスタ104にデータを格納した後、矢印132の様
に主記憶105の送信バッファ204に書き込んでいるが、こ
の代わりに演算器103を用いてプログラムによってデー
タを圧縮し、主記憶105の送信バッファ204に格納する。
そして、プロセッサB 111側では、矢印141でレジスタ11
4に格納してから、矢印142の代りに演算器113を用いて
プログラムによってデータ伸張を行ない主記憶115の演
算データ領域213に格納する。このようにデータを圧縮
・伸張することによって132,133,151,143,141のパスは
物理的な転送幅に比べ高いスループットで転送すること
ができる。
Further, instead of the compression / expansion by the compression / expansion logic 108, 118, the compression may be performed by the CPU. In Figure 1, the arrow 131 indicates the CPU
After storing the data in the register 104 of 102, the data is written in the transmission buffer 204 of the main memory 105 as indicated by the arrow 132. Instead of this, the arithmetic unit 103 is used to compress the data by the program and the transmission of the main memory 105 is performed. Store in buffer 204.
Then, on the processor B 111 side, an arrow 141 indicates the register 11
After being stored in 4, the data is decompressed by the program using the arithmetic unit 113 instead of the arrow 142 and stored in the arithmetic data area 213 of the main memory 115. By compressing / expanding the data in this way, the paths 132, 133, 151, 143, 141 can be transferred with a higher throughput than the physical transfer width.

【0020】この方式は、CPUが圧縮伸張するので、ソ
フトウェアのオーバヘッドが大きいが、圧縮伸張用に特
別なハードウェアを設けることなく実現可能である。ま
た、データを圧縮して転送することにより、送信バッフ
ァ204,受信バッファ214のバッファ使用量が減り、バッ
ファ容量を削減することができる。
This system has a large software overhead because the CPU expands and compresses it, but it can be realized without providing special hardware for compression and expansion. Further, by compressing and transferring the data, the buffer usage amount of the transmission buffer 204 and the reception buffer 214 is reduced, and the buffer capacity can be reduced.

【0021】図3にネットワーク121に出力されるメッセ
ージを図示した。図3(1)に従来技術のメッセージを示
し、図3(b)に本発明のパケットを示している。図3(a)に
おいて301と302が1つのメッセージであり、メッセージ
ヘッダ301と転送データ302で構成されている。
FIG. 3 illustrates a message output to the network 121. FIG. 3 (1) shows a conventional message, and FIG. 3 (b) shows a packet of the present invention. In FIG. 3A, 301 and 302 are one message, which is composed of a message header 301 and transfer data 302.

【0022】302はアプリケーションがプロセッサAから
プロセッサBに転送するデータであり、メッセージヘッ
ダ301は302のデータをプロセッサBのアプリケーションA
212に転送するための情報を含んでいる。メッセージヘ
ッダ301は、相手のプロセッサに転送するためのプロセ
ッサアドレス、相手プロセッサの主記憶アドレス、転送
データ長、OSのプロセス情報等が格納されている。ま
た、誤り訂正情報もメッセージヘッダに含む。メッセー
ジヘッダはこのようにメッセージを識別する上で重要な
情報を持っており、メッセージ伝送時の障害発生時にメ
ッセージの識別をし、エラー処理を容易にするために圧
縮せずそのまま伝送する。メッセージヘッダに誤り識別
情報を持つことで、メッセージの障害によるデータ誤り
を訂正することができ、転送されたデータを復元でき
る。仮にメッセージの障害がひどく、圧縮された転送デ
ータを伸張する事ができなくなっても、圧縮されていな
いメッセージヘッダの情報によって、送信側のプロセッ
サに傷害情報を報告しメッセージの再送をする事がで
き、メッセージ転送の信頼性を向上することができる。
メッセージヘッダを圧縮しないことにより、性能は若干
低下するが、障害発生時のエラー処理が容易になる。
302 is the data that the application transfers from the processor A to the processor B, and the message header 301 is the data of 302, which is the application A of the processor B.
It contains information for forwarding to 212. The message header 301 stores a processor address for transfer to the partner processor, a main memory address of the partner processor, a transfer data length, OS process information, and the like. Also, error correction information is included in the message header. The message header has important information for identifying the message in this way, and identifies the message when a failure occurs during message transmission, and transmits it without compression to facilitate error handling. By having the error identification information in the message header, it is possible to correct a data error due to a message failure and restore the transferred data. Even if the message failure is severe and the compressed transfer data cannot be decompressed, the uncompressed message header information can be used to report damage information to the sending processor and retransmit the message. , Can improve the reliability of message transfer.
By not compressing the message header, performance is slightly reduced, but error handling when a failure occurs becomes easier.

【0023】303,304は、次のメッセージであり、メッ
セージヘッダ303,転送データ304と続き、305,306と順次
メッセージが転送される。図3(b)は、本発明のメッセー
ジを示しており、(a)の従来技術のメッセージと対応し
ており、301と311,302と312,303と313,304と314,305と3
15,306と316がそれぞれ対応している。メッセージヘッ
ダ311,313,315,317,319は圧縮せずそのままネットワー
クに出力する。転送データ312,314,316,318,320は圧縮
伸張論理108で圧縮されているため従来技術に比べ短時
間でネットワーク上を転送でき、ネットワークのスルー
プットが向上している。
Reference numerals 303 and 304 denote the next messages. The message header 303 and the transfer data 304 are followed by the messages 305 and 306, which are sequentially transferred. FIG. 3 (b) shows the message of the present invention, which corresponds to the prior art message of (a), 301 and 311, 302 and 312, 303 and 313, 304 and 314, 305 and 3.
15,306 and 316 correspond respectively. The message headers 311, 313, 315, 317, 319 are output to the network as they are without being compressed. Since the transfer data 312, 314, 316, 318, 320 are compressed by the compression / expansion logic 108, they can be transferred on the network in a shorter time than the conventional technique, and the network throughput is improved.

【0024】このようにデータを圧縮することにより実
効的にスループットを向上させることができ、プロセッ
サ間転送の性能を向上させることができる。より安価な
ネットワークを使用でき、システムのコストを低減でき
る。可逆符号化方式に属する圧縮伸張の方式の例とし
て、LZWアルゴリズムがあり、パソコンですでに使用さ
れている。
By thus compressing the data, the throughput can be effectively improved, and the performance of the inter-processor transfer can be improved. A cheaper network can be used and the cost of the system can be reduced. The LZW algorithm is an example of a compression / expansion method belonging to the lossless encoding method, which is already used in personal computers.

【0025】[0025]

【発明の効果】複数のプロセッサを持ち、それらをネッ
トワークで結合した並列計算機において、他のプロセッ
サに演算のためのメッセージデータを転送する際、転送
データを圧縮伸張する機能を追加する。メッセージをネ
ットワークに転送する転送データ量が減少し、結果的に
転送スループットが向上する。転送スループットの向上
によって、システムの性能が向上する。
In a parallel computer having a plurality of processors and connecting them via a network, a function of compressing / expanding the transfer data when transferring message data for operation to another processor is added. The amount of data transferred to transfer the message to the network is reduced, resulting in improved transfer throughput. The improved transfer throughput improves system performance.

【0026】物理的なスループットが低くても、実際の
スループットは高くなるため、より低速で安価なネット
ワークを使用でき、システムのコストを低減できる。
Since the actual throughput is high even if the physical throughput is low, a slower and cheaper network can be used and the system cost can be reduced.

【0027】ネットワーク性能はそのままで、高速なCP
Uに交換し、圧縮機能を追加することによってプロセッ
サ演算性能とネットワークメッセージ転送性能両方の性
能が向上する。システム性能のアップグレードを行う
際、プロセッサのみを交換し、ネットワークはそのまま
交換しなくてもシステムの性能が向上できる。
High-speed CP with the same network performance
By replacing with U and adding a compression function, the performance of both processor calculation performance and network message transfer performance is improved. When upgrading the system performance, the system performance can be improved without replacing the processor and replacing the network.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例における計算機の構成を示す。FIG. 1 shows the configuration of a computer in an embodiment of the present invention.

【図2】本発明の実施例において並列に計算を行なう際
に発生するプロセッサ間のデータ転送の概要を説明。
FIG. 2 illustrates an outline of data transfer between processors that occurs when performing parallel calculations in the embodiment of the present invention.

【図3】本発明の実施例におけるメッセージ転送のメッ
セージの説明。
FIG. 3 is an explanation of a message of message transfer according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101…プロセッサ(プロセッサA)、 102…CPU、 10
3…演算器、104…レジスタ、 105…主記憶、 106…
主記憶コントローラ、107…ネットワークアダプタ、
108…圧縮伸張論理、111…プロセッサ(プロセッサ
B)、 112…CPU、 113…演算器、114…レジスタ、
115…主記憶、 116…主記憶コントローラ、117…
ネットワークアダプタ、 118…圧縮伸張論理、121…
ネットワーク、 131…主記憶リード時のデータの流
れ、132…主記憶ライト時のデータの流れ、133…ネット
ワーク送信時の主記憶からネットワークアダプタへのデ
ータの流れ、 141…主記憶リード時のデータの流
れ、142…主記憶ライト時のデータの流れ、143…ネット
ワーク受信時のネットワークアダプタから主記憶へのデ
ータの流れ、 151…ネットワークでのメッセージの
流れ、201…プロセッサ(プロセッサA)、 202…アプ
リケーション(アプリケーションA)、 203…演算デー
タ領域、 204…送信バッファ、205…演算データ領域
から送信バッファへのコピー動作、211…プロセッサ(プ
ロセッサB)、212…アプリケーション(アプリケーション
A)、213…演算データ領域、 214…受信バッファ、21
5…受信バッファから演算データ領域へのコピー動作、2
21…ネットワーク転送動作、301,303,305…従来技術メ
ッセージヘッダ(非圧縮)、302,304,306…従来技術転送
データ(非圧縮)、311,313,315,317,319…本発明メッセ
ージヘッダ(非圧縮)、312,314,316,318,320…本発明転
送データ(圧縮)、351…従来技術メッセージA、 352
…従来技術メッセージB、353…従来技術メッセージC、
361…本発明メッセージA、362…本発明メッセージ
B、 363…本発明メッセージC、364…本発明メッセ
ージD、 365…本発明メッセージE。
101 ... Processor (Processor A), 102 ... CPU, 10
3 ... arithmetic unit, 104 ... register, 105 ... main memory, 106 ...
Main memory controller, 107 ... Network adapter,
108 ... compression / expansion logic, 111 ... processor (processor
B), 112 ... CPU, 113 ... Arithmetic unit, 114 ... Register,
115 ... Main memory, 116 ... Main memory controller, 117 ...
Network adapter, 118 ... Compression / expansion logic, 121 ...
Network, 131 ... Data flow when main memory is read, 132 ... Data flow when main memory is written, 133 ... Data flow from main memory to network adapter during network transmission, 141 ... Data when main memory is read Flow, 142 ... Data flow at main memory write, 143 ... Data flow from network adapter to main memory at network reception, 151 ... Network message flow, 201 ... Processor (processor A), 202 ... Application (Application A), 203 ... Operation data area, 204 ... Transmission buffer, 205 ... Copy operation from operation data area to transmission buffer, 211 ... Processor (processor B), 212 ... Application (application
A), 213 ... Operation data area, 214 ... Reception buffer, 21
5… Copy operation from receive buffer to operation data area, 2
21 ... Network transfer operation, 301, 303, 305 ... Prior art message header (uncompressed), 302, 304, 306 ... Prior art transfer data (uncompressed), 311, 313, 315, 317, 319 ... Inventive message header (uncompressed), 312, 314, 316, 318, 320 ... Invented transfer data (compressed), 351 ... Prior Art Message A, 352
... Conventional message B, 353 ... Conventional message C,
361 ... Message of the present invention A, 362 ... Message of the present invention
B, 363 ... Inventive message C, 364 ... Inventive message D, 365 ... Inventive message E.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】命令プロセッサ(以下CPUと略す)と記憶装
置とネットワークとのメッセージ転送を行うネットワー
クアダプタからなる複数のプロセッサノードと、 該プロセッサノード間を結合するネットワークとからな
り、 複数のプロセッサノードの並列処理に必要なデータ交換
を、メッセージ転送という手段によって行なう並列計算
機において、 ネットワークにメッセージを送信する前に元のデータの
情報を保持したままメッセージのデータ量を縮小し(以
下、元の情報を保持したままデータ量を縮小することを
圧縮と記す)、該圧縮されたデータを含むメッセージを
ネットワークに転送することを特徴とする並列計算機。
1. A plurality of processor nodes comprising a plurality of processor nodes each comprising an instruction processor (hereinafter abbreviated as CPU), a storage device, and a network adapter for transferring a message between the network and a network connecting the processor nodes. In a parallel computer that performs the data exchange required for parallel processing by means of message transfer, the amount of data in the message is reduced before the message is sent to the network while retaining the information in the original data (hereinafter, the original information The reduction of the amount of data while holding the above is referred to as compression), and a message including the compressed data is transferred to the network.
【請求項2】請求項1記載の並列計算機において、 圧縮されたデータを含むメッセージをネットワークから
受信し、該メッセージのデータを伸張することを特徴と
する並列計算機。
2. The parallel computer according to claim 1, wherein a message containing compressed data is received from a network and the data of the message is expanded.
【請求項3】請求項1記載の並列計算機において、 ネットワークにメッセージを送信する前にメッセージの
データを圧縮し、該圧縮されたデータを含むメッセージ
をネットワークに転送し、メッセージ受信後、該メッセ
ージのデータを伸張することを特徴とする並列計算機。
3. The parallel computer according to claim 1, wherein the message data is compressed before the message is transmitted to the network, the message including the compressed data is transferred to the network, and the message is received after the message is received. A parallel computer characterized by expanding data.
【請求項4】請求項1記載の並列計算機において、各ネ
ットワークアダプタにデータを圧縮する圧縮装置と、デ
ータを伸張する伸張装置を有し、 ネットワークにメッセージを送信する前に、圧縮装置に
よってメッセージのデータを圧縮し、該圧縮し縮小され
たデータを含むメッセージをネットワークに転送し、該
メッセージ受信後、伸張装置によってメッセージのデー
タを伸張することを特徴とする並列計算機。
4. The parallel computer according to claim 1, wherein each network adapter has a compression device for compressing data and a decompression device for decompressing the data, and the message is compressed by the compression device before the message is transmitted to the network. A parallel computer, which compresses data, transfers a message including the compressed and reduced data to a network, and decompresses data of the message by a decompression device after receiving the message.
【請求項5】請求項1記載の並列計算機において、 ネットワークにメッセージを送信する前に、CPUによっ
てメッセージのデータを圧縮し、該圧縮し縮小されたデ
ータを含むメッセージをネットワークに転送し、該メッ
セージ受信後、CPUによってメッセージのデータの伸張
を行うことを特徴とする並列計算機。
5. The parallel computer according to claim 1, wherein before the message is transmitted to the network, the data of the message is compressed by the CPU, the message including the compressed and reduced data is transferred to the network, and the message is transmitted. A parallel computer characterized by decompressing message data by the CPU after receiving.
JP6284736A 1994-11-18 1994-11-18 Parallel computer Pending JPH08147251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6284736A JPH08147251A (en) 1994-11-18 1994-11-18 Parallel computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6284736A JPH08147251A (en) 1994-11-18 1994-11-18 Parallel computer

Publications (1)

Publication Number Publication Date
JPH08147251A true JPH08147251A (en) 1996-06-07

Family

ID=17682327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6284736A Pending JPH08147251A (en) 1994-11-18 1994-11-18 Parallel computer

Country Status (1)

Country Link
JP (1) JPH08147251A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010097330A (en) * 2000-04-21 2001-11-08 이창순 HUB-LAN Card and Operating Method thereof
WO2014024610A1 (en) 2012-08-07 2014-02-13 日本電気株式会社 Data forwarding device, data forwarding method, and program
US9698824B2 (en) 2013-04-12 2017-07-04 Nec Corporation Data transfer device, data transfer system, method for compressing and transferring data, and program
US9807189B2 (en) 2012-10-19 2017-10-31 Nec Corporation Data transfer device and data transfer system using adaptive compression algorithm

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010097330A (en) * 2000-04-21 2001-11-08 이창순 HUB-LAN Card and Operating Method thereof
WO2014024610A1 (en) 2012-08-07 2014-02-13 日本電気株式会社 Data forwarding device, data forwarding method, and program
US9769241B2 (en) 2012-08-07 2017-09-19 Nec Corporation Data transfer device, data transfer method, and program storage medium
US9807189B2 (en) 2012-10-19 2017-10-31 Nec Corporation Data transfer device and data transfer system using adaptive compression algorithm
US9698824B2 (en) 2013-04-12 2017-07-04 Nec Corporation Data transfer device, data transfer system, method for compressing and transferring data, and program

Similar Documents

Publication Publication Date Title
US6421742B1 (en) Method and apparatus for emulating an input/output unit when transferring data over a network
US6883079B1 (en) Method and apparatus for using data compression as a means of increasing buffer bandwidth
US6954806B2 (en) Data transfer apparatus and method
US20110091124A1 (en) System for multi-byte reading
JP5123186B2 (en) Remote protocol support for large object communication in any format
US20060069879A1 (en) Methods and apparatus for providing a compressed network in a multi-processing system
US6615282B1 (en) Adaptive messaging
JP2010529567A (en) How to share a computer display over a network
US8412871B2 (en) Information processing apparatus, information processing method, and program
US6490669B1 (en) Memory LSI with compressed data inputting and outputting function
US6820087B1 (en) Method and apparatus for initializing data structures to accelerate variable length decode
US6313766B1 (en) Method and apparatus for accelerating software decode of variable length encoded information
US7634599B2 (en) Method for improving inline compression bandwidth for high speed buses
JPH08147251A (en) Parallel computer
US20090022158A1 (en) Method For Increasing Network Transmission Efficiency By Increasing A Data Updating Rate Of A Memory
US6829691B2 (en) System for compressing/decompressing data
EP1780976A1 (en) Methods and system to offload data processing tasks
CN106919514B (en) Semiconductor device, data processing system, and semiconductor device control method
KR100306371B1 (en) Mpeg decoder having two memory controller and decoding method thereof
TWI790506B (en) System for development interface and data transmission method for development interface
JP3056929B2 (en) Image output device, host computer, image output system, and image output method
JP2577705B2 (en) Image compression / expansion apparatus and control method thereof
EP1261196A2 (en) Recording/reproduction apparatus and recording/reproduction control method
JPH0619774A (en) File server system
CN115079931A (en) Processing system, method, apparatus, device and medium for distributed storage nodes