JPS6331247A - Communication control equipment - Google Patents

Communication control equipment

Info

Publication number
JPS6331247A
JPS6331247A JP61174183A JP17418386A JPS6331247A JP S6331247 A JPS6331247 A JP S6331247A JP 61174183 A JP61174183 A JP 61174183A JP 17418386 A JP17418386 A JP 17418386A JP S6331247 A JPS6331247 A JP S6331247A
Authority
JP
Japan
Prior art keywords
buffer
cpu
layer
header
charging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61174183A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Ozawa
小沢 佳之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP61174183A priority Critical patent/JPS6331247A/en
Publication of JPS6331247A publication Critical patent/JPS6331247A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve a processing speed by realizing the management of a buffer of a CPU charging respective layers, the synthesis of the headers of all the layers and the transmission to a line by a DMA controller by a hardware means. CONSTITUTION:Independent buffer pools 15-18 are disposed for every CPU 11-14 charging the respective layers. The CPU 14 obtaining the buffer for storing the header to the respective layers and charging the highest order layer stores the header in the buffer obtained by the hardware means from the buffer pool 18 and inputs the address of the buffer to an FIFO memory 22 for the highest order layer. Thereafter, the request for forming the header is carried out to the CPU 13 charging an adjacent low order layer with an interruption. A similar processing is performed to the CPU 11 charging the lowest order layer and a packet obtained by synthesizing the headers of all the layers is transmitted to a line by the DMA controller 35.

Description

【発明の詳細な説明】 産業上の利用分野 本発明はプロトコルを実行してデータ通信を行う通信制
御装置に関す−る。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to a communication control device that executes a protocol and performs data communication.

従来の技術 第1図は従来のマルチCP tJにより通信制御プ[]
トコルを並列処yljづる通信制御装置の構成を示して
いる。
Conventional technology Figure 1 shows a communication control program using a conventional multi-CP tJ.
2 shows the configuration of a communication control device that processes protocols in parallel.

第2図にJ3いて、1・−4はCP Uであり、だのl
j力は競合制御を行うアーご夕55に人力される。
In Figure 2, there is J3, 1 and -4 are CPUs, and
The power is manually supplied to an engine 55 that performs competition control.

6はr)MA制御回路、7は共有メモリであり、アービ
タ5によりアクセスされる。8はD M A lb’l
 111回路6により駆動される回4111/F部であ
る。
6 is an r) MA control circuit, and 7 is a shared memory, which is accessed by the arbiter 5. 8 is D M A lb'l
This is a circuit 4111/F section driven by the 111 circuit 6.

次に上記従来の動作について説明づる。第2図において
、CPU 1〜CPU/IはレイA71・〜レイヤ4を
分担しているものどづる。プロトコル処理をする場合は
、全CPUがアクセス可能なノ(有メモリ7に配置した
バッファプールJ、リバッフ7を獲得し、これに分Jf
lづるレイヤのプ[1ト]ルヘツダを格納して、隣接下
位層のCP U 1〜3にバッファアドレスなどのパラ
メータとともにに1込みで通知j−る。したがってCP
 LJ /Iを[−分層どりると、C’、 P U ’
Iが最初にバッファを獲if L/で、Jズ降各CPU
3〜1で分担づるレイヤのヘッダをバッフ7シに格納(
)、これをCPU1まで順に引き渡す。その後CI’L
I 1によりDMA制即回路6が起動され、回線1/[
部8を介して回線上にデータが送出される。
Next, the above conventional operation will be explained. In FIG. 2, CPU 1 to CPU/I share layers A71 to Layer 4. When performing protocol processing, acquire the buffer pool J and rebuffer 7 that can be accessed by all CPUs (located in memory 7), and use Jf for this.
It stores the program header of the next layer and notifies the CPUs 1 to 3 of the adjacent lower layer together with parameters such as a buffer address. Therefore, C.P.
When LJ /I is reduced by [- minutes, C', P U '
If I first grabs the buffer then J's descends each CPU
Store the headers of the layers shared by 3 to 1 in buffer 7 (
), which are sequentially delivered to CPU1. Then CI'L
The DMA control circuit 6 is activated by I1, and the line 1/[
The data is sent out onto the line via section 8.

このように上記従来の通信ff、IJ ill装置でも
、CPl)間でバッファを使用した制御の受は渡しを行
ない、マルチCPU構成時のプロトコル処理を行うこと
ができる。
In this manner, even in the conventional communication FF and IJ ill devices described above, control is transferred between CP1 and CP1 using buffers, and protocol processing can be performed in a multi-CPU configuration.

発明が解決しようとする問題点 しかしながら」ニラ従来の通信制御装置では、共有メモ
リ7でのバッファの獲得と返却を全CPUから行えるよ
うにづるために、全CPUI〜4が各々バッファの情理
用ソフトウェアを保有し、かつ共有メモリ7に管理用の
制御フラグなどを設けねばならイ【<なり、バッファの
管理が複雑化する。
Problems to be Solved by the Invention However, in the conventional communication control device, in order to enable all CPUs to obtain and return buffers in the shared memory 7, all CPUs 4 have to use software for controlling the buffers. In addition, it is necessary to provide a control flag for management in the shared memory 7, which complicates the management of the buffer.

また、CPU間の制御を受は渡すためにバッファを用い
るので、処理速度が低下するなどの問題があった。
Furthermore, since a buffer is used to transfer control between CPUs, there are problems such as a decrease in processing speed.

水元明番よこのJ:うな従来の問題を解決覆−るもので
あり、バッファの管理をソフトウェアが行うことなく、
ハードウェアで表現した通信制御装置を提供J−ること
を目的とするものである。
Mizumoto Akira Yokono J: This solves and overturns the conventional problem, and allows buffer management to be done without software.
The purpose of this invention is to provide a communication control device expressed in hardware.

問題点を解決するための手段 本発明は上記問題点を解決ザるために、各レイヤを分担
プるC P (J fijに独tr−のバッファプール
を設け、ぞこから各レイA7のヘッダを格納づ−るだめ
のバッファを獲得し、最上位レイA7を担当するCP 
tJは該バッファプールよりハードウェアによる手段で
獲得したバッファにヘッダを格納し、バッファのアドレ
スを最上位レイヤ用の[■[0メモリへ入力する。その
後、隣接下位レイA7を分担するC P (Jに対して
ヘッダ作成の依頼を811込みで行なう。最下位レイヤ
を分担するc p uまで同様の処理を行い、回線上に
r)MA制御装置にまり全レイヤのヘッダを合成したパ
ケット送出するときは、最下位レイA7のFIFOメモ
リから順次バッファ・のアドレスを取り出し、バッファ
の内容を回線に送出する。送Xlj後空バッファ番よ該
当するバッファプールへ返却される。そして自らのレイ
ヤのプロトコル処理を終了したCPUは、「lFoメモ
リにバラフン・のアドレスを出力した後は、次のプロト
コル処理を即受付けることができる機能を備えた構成に
したものである。
Means for Solving the Problems In order to solve the above-mentioned problems, the present invention provides a buffer pool for each layer in the CP (J fij), and from there, the header of each ray A7. The CP that acquires a buffer for storing the
tJ stores the header in a buffer acquired by hardware means from the buffer pool, and inputs the address of the buffer to the [■[0 memory for the top layer. After that, a request to create a header is sent to CP (J), which shares the adjacent lower layer A7, using 811. The same process is performed up to CP U, which shares the lowest layer, and the MA control device r) MA control device When transmitting a packet in which the headers of all layers are combined, the addresses of the buffers are sequentially taken out from the FIFO memory of the lowest layer A7, and the contents of the buffer are transmitted to the line. After sending Xlj, the empty buffer number is returned to the corresponding buffer pool. The CPU that has completed the protocol processing of its own layer is configured to have a function that allows it to immediately accept the next protocol processing after outputting the Barafun address to the IFo memory.

竹田 上記構成により、各cPUがソフトウェアによってバラ
フン・を管理することなく、ハードウェアによって各レ
イヤ毎に独立のバッファプールを管即し、全レイヤのヘ
ッダが作成されるとDMA制ロI7装置により回線上に
パケットを送出することができるため、名レイヤを分担
するCPLJは自らのヘッダを作成し、隣接下位レイヤ
にヘッダ作成の依頼を完了した後は、直ちに次のプロト
コル処理のみに専従することができる。この結束、ソフ
トウェアのA−バーヘッドを軽減でき、プロトコルの高
速処理が可能となる。
Takeda: With the above configuration, each CPU manages an independent buffer pool for each layer using hardware, without having to manage the buffer pools using software, and once the headers for all layers are created, they are processed by the DMA controller I7 device. Since it is possible to send packets on the line, the CPLJ that is responsible for the primary layer creates its own header, and after completing the header creation request to the adjacent lower layer, it can immediately concentrate on the next protocol processing. can. This bundling can reduce software A-barhead and enable high-speed processing of protocols.

実施例 以下本発明の一実施例を図面に基づいて説明する。Example An embodiment of the present invention will be described below based on the drawings.

第1図は本発明の一実施例の構成を示イ。第1図ニt;
 イ”U、11〜14はCPLIr、CI’ U 14
を上位層を担当Jるものとし、上位層のCP LJ 1
4よりヘッダを作成し、下位層のCPU13〜11へ依
頼づるものとする。15〜18は各レイヤを分担するC
 P U11〜14毎に独立に設けられたバッファプー
ルである。19〜22はバッフ)7プール15・〜18
の各バッファのアドレスを取り出−IFIFOメモリ、
23〜26はこれをラッチするラッチ回路である。27
〜3oはラッチ回路23へ26でラッチしているバッフ
ァのアドレスを取り出ずFTFOメモリ、31〜34は
スリーステートゲート、35はD M A制御回路、3
6は回線1/F部である。
FIG. 1 shows the configuration of an embodiment of the present invention. Figure 1;
I"U, 11-14 are CPLIr, CI' U 14
shall be in charge of the upper layer, and the upper layer CP LJ 1
4, a header is created and a request is sent to the CPUs 13 to 11 in the lower layer. 15 to 18 are C that share each layer
This is a buffer pool provided independently for each of PU11 to PU14. 19-22 are buff) 7 pools 15-18
Take out the address of each buffer in - IFIFO memory,
23 to 26 are latch circuits that latch this. 27
~3o is an FTFO memory without taking out the address of the buffer latched at 26 to the latch circuit 23, 31 to 34 are three-state gates, 35 is a DMA control circuit, 3
6 is a line 1/F section.

なお、第1図中には32明のためのパスライン、制御線
などを省略している。
Note that in FIG. 1, path lines, control lines, etc. for 32-light are omitted.

FIFOメモリ19〜22はc p u 1iへ・14
で独立に所有しているバッファプール15〜18の各バ
ッファのアドレスを各CP U 11〜14の立−1ニ
リどきに、それぞれに対応してセットアツプされる。た
とえばCP U 14のレイヤにパケット送信要求が弁
士したどき1よ、CPU 14から[I「0メモリ22
に5IFT・INクロックパルスを出力し、バッファの
アドレスを取り出(ハこれをラッチ回路26にラッチ3
−14る。このバッファのアドレスに対してCI”’U
14のレイヤのヘッダを作成し、隣接下位レイA7のC
PU13に対して割込みなどで通知する。このときFI
FOメモリ30へ5IFT−INクロックを入力し、ラ
ッチ回路26でラッチしているバッファのアドレスを「
I[0メモリ30へ入カザる。以降、c p U 13
から11まで同様の処理を行う。このとき、FIFOメ
Fす27〜30にはCP U 14のレイヤヘッダを格
納したバッファのアドレスからCP U 11のレイヤ
ヘッダを格納したバッファのアドレスが格納されている
FIFO memories 19 to 22 go to CPU 1i.14
The addresses of the buffers in the buffer pools 15 to 18, which are independently owned by the CPUs 11 to 14, are set up in correspondence with each other at every turn of the CPUs 11 to 14. For example, when a packet transmission request is sent to the layer of the CPU 14, the CPU 14 sends [I'0 memory 22
Outputs the 5IFT/IN clock pulse to the buffer address and takes out the address of the buffer (c) This is sent to the latch circuit 26 to latch 3.
-14ru. CI"'U for the address of this buffer
Create a header for layer 14 and add C of adjacent lower layer A7.
Notification is made to the PU 13 using an interrupt or the like. At this time FI
Input the 5IFT-IN clock to the FO memory 30 and set the address of the buffer latched by the latch circuit 26 as "
I[0 input to memory 30. Hereafter, c p U 13
Similar processing is performed from to 11. At this time, the FIFO files 27 to 30 store the address of the buffer storing the layer header of the CPU 14 to the address of the buffer storing the layer header of the CPU 11.

CP U 11がDMA制御回路35に送信の依頼をリ
−ることによって[)MA開制御回2835はFIFO
メモリ27に対して5IFT・OUTクロックを出力し
、かつスリーステートゲート31を間hりして、最下位
のレイヤヘッダからD M A IIJ御回路35によ
り回線1/F部36へ出力する。以降FIFOメモリ2
8〜30に対し同様の処理を覆る。
When the CPU 11 reads a transmission request to the DMA control circuit 35, the MA open control circuit 2835
The 5 IFT/OUT clock is outputted to the memory 27, and the three-state gate 31 is interrupted for an hour, and the DMA IIJ control circuit 35 outputs it to the line 1/F section 36 from the lowest layer header. From then on FIFO memory 2
Similar treatment is applied to 8-30.

DM A l1ill no回路35ではl’) M 
A完了後、各バッファを該当ザるC P U 11〜1
4のバッファプール15〜18へ返却するために、該当
りるF r F Oメ干り19〜22に5IFT−IN
クロックを出力し、空きバッファのアドレスを入力1J
る。
DM A l1ill no circuit 35 l') M
After completion of A, process each buffer correspondingly CPU 11~1
In order to return to the buffer pools 15 to 18 of 4, 5 IFT-IN is sent to the corresponding F r F O mail 19 to 22.
Output clock and input address of free buffer 1J
Ru.

以」−の一連の動作を繰り返でことにJ、って、下位レ
イヤより下位レイヤまでヘッダを独)”l−に各CPU
14〜11で作成し、回線」二にはバケツ1−とじてヘ
ッダを合成して出力覆ることができる。
By repeating the above series of operations, the header is transferred from lower layer to lower layer to each CPU.
14 to 11, and the line "2" can be closed by bucket 1 and the headers can be combined and output can be overwritten.

また、CP U 11〜14でプロトコルへツタを作成
して、ぞのバッファアドレスをFIFOメモリ19〜2
2へ格納した後は、次の隣接上位層からの指示を受付c
ノることができ、バッファのアドレスを[IFOメモリ
19〜22ヘキュイングすることにより、各CI’1J
11〜14は回線の伝送3ii度に依存1Jることなく
、プロi・コルの処理を行うことができる。
In addition, CPUs 11 to 14 create a link to the protocol, and the buffer addresses are stored in FIFO memories 19 to 2.
After storing to 2, it accepts instructions from the next adjacent upper layer.
By queuing the buffer address to IFO memory 19 to 22, each CI'1J
11 to 14 can perform protocol processing without depending on the transmission degree of the line.

ざt明の効果 以上本発明にJ:れば、各レイ)7を分担覆るCPUが
所有するバッファの管理と全レイヤのヘッダの合成どD
 M A ff+’J 罪装置による回線への送出をハ
ードウェアによる手段で実現することによって、ソフト
ウェアによるバッファ管理とパケットの合成、送信パケ
ットの送信待ちキュー管理の処理を省略できるという利
点を有し、結束としてソフトウェアの処理が軽減し、処
理速度が向上するという効果を有づる。
The present invention has the following advantages: Management of buffers owned by the CPU that covers each layer 7, and composition of headers of all layers.
M A ff+'J By realizing the transmission to the line by the sending device using hardware means, it has the advantage that software-based buffer management, packet composition, and transmission queue management of transmission packets can be omitted. This has the effect of reducing software processing and improving processing speed.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本光明の一実施例を示す通信制御装置の概略ブ
ロック図、第2図は従来例のブロック図である。
FIG. 1 is a schematic block diagram of a communication control device showing an embodiment of the present invention, and FIG. 2 is a block diagram of a conventional example.

Claims (1)

【特許請求の範囲】[Claims] 1、階層化構造をとる通信制御プロトコルを実行する通
信制御装置であって、1レイヤにつき1CPUの形態を
とるマルチCPU構成によってプロトコルの並列処理を
行う手段と、各レイヤのプロトコルヘッダを格納するバ
ッファを各CPU毎に独立して形成したバッファプール
と、前記バッファをハードウェアで管理する手段と、各
レイヤのプロトコルヘッダを合成し、これを1つのパケ
ットとして回線に送出する手段と、このバッファを再び
該当するバッフアプールへ返却する手段を有し、プロト
コルをマルチCPUにより並列処理し、かつ隣接下位層
とのインタフェースをハードウェアによつて実現するよ
うにした通信制御装置。
1. A communication control device that executes a communication control protocol that has a layered structure, and includes means for parallel processing of the protocol using a multi-CPU configuration with one CPU per layer, and a buffer that stores the protocol header of each layer. a buffer pool formed independently for each CPU; a means for managing the buffer with hardware; a means for combining the protocol headers of each layer and sending this as one packet onto a line; A communication control device that has means for returning the buffer to the corresponding buffer pool, processes protocols in parallel by multiple CPUs, and implements an interface with an adjacent lower layer using hardware.
JP61174183A 1986-07-24 1986-07-24 Communication control equipment Pending JPS6331247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61174183A JPS6331247A (en) 1986-07-24 1986-07-24 Communication control equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61174183A JPS6331247A (en) 1986-07-24 1986-07-24 Communication control equipment

Publications (1)

Publication Number Publication Date
JPS6331247A true JPS6331247A (en) 1988-02-09

Family

ID=15974166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61174183A Pending JPS6331247A (en) 1986-07-24 1986-07-24 Communication control equipment

Country Status (1)

Country Link
JP (1) JPS6331247A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02149156A (en) * 1988-10-07 1990-06-07 Internatl Business Mach Corp <Ibm> Communication processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02149156A (en) * 1988-10-07 1990-06-07 Internatl Business Mach Corp <Ibm> Communication processor

Similar Documents

Publication Publication Date Title
Davie A host-network interface architecture for ATM
US6272621B1 (en) Synchronization and control system for an arrayed processing engine
JP3336816B2 (en) Multimedia communication device and method
TW576066B (en) Apparatus and method for high speed IPSec processing
US5615382A (en) Data transfer system for buffering and selectively manipulating the size of data blocks being transferred between a processor and a system bus of a computer system
JPS61500386A (en) microcomputer
WO2004109432A2 (en) Method and apparatus for local and distributed data memory access (&#39;dma&#39;) control
JPH01215161A (en) Frame transmission system
US20160011987A1 (en) Efficient search key controller with standard bus interface, external memory interface, and interlaken lookaside interface
US9594702B2 (en) Multi-processor with efficient search key processing
JPS63502535A (en) multiprocessor equipment
JPS5839357A (en) Address method of ram
JPS60500074A (en) Latest device synchronization multiple device equipment
JPS6331247A (en) Communication control equipment
JPH02299337A (en) Bus constitution suitable for data communication
US5671400A (en) Programmable bus interface unit data path
JPS5864528A (en) Data transfer system of plural microprocessors
JPS58195265A (en) Microcomputer
Inoue et al. Low-latency and high bandwidth TCP/IP protocol processing through an integrated HW/SW approach
JPS63233435A (en) Delay processing method and apparatus
JPH05342172A (en) Multiprocessor system
JPH03237549A (en) Memory access control system
JP2504535B2 (en) Bus unit configuration method
JPH05314061A (en) Bus interface control system
JP2003223428A (en) Data transfer device