JPS63191252A - Pipeline synchronizing system - Google Patents

Pipeline synchronizing system

Info

Publication number
JPS63191252A
JPS63191252A JP2320387A JP2320387A JPS63191252A JP S63191252 A JPS63191252 A JP S63191252A JP 2320387 A JP2320387 A JP 2320387A JP 2320387 A JP2320387 A JP 2320387A JP S63191252 A JPS63191252 A JP S63191252A
Authority
JP
Japan
Prior art keywords
pipeline
access request
access
chp
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2320387A
Other languages
Japanese (ja)
Other versions
JPH0533412B2 (en
Inventor
Shohei Ito
昌平 伊藤
Noriyuki Toyoki
豊木 則行
Shigeru Kusuyama
楠山 茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2320387A priority Critical patent/JPS63191252A/en
Publication of JPS63191252A publication Critical patent/JPS63191252A/en
Publication of JPH0533412B2 publication Critical patent/JPH0533412B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To improve the performance of a processor by estimating the processing start time point of an optional asynchronous device having its working cycle time shorter than a pipeline and setting this estimated time point in response to the pipeline. CONSTITUTION:For a processor consisting of a CPU, a CHP, a main memory controlled by a pipeline, etc., the CPU and the CHP serving as the access sources to the main memory deliver requests in each cycle. Here the buffers 7-10 are provided to stack access requests. Then the number of cycles after which the accesses given from the CPU and the CHP are processed are estimated from the states of said buffers and the busy state of a key memory so that the synchronism is obtained. That is, an estimating circuit 13 is provided to estimate the processing start time point of an asynchronous device in case the working time of another asynchronous device which works in parallel with the pipeline is smaller than the working time of the pipeline. Then the estimated time point is linked with the pipeline. Thus the execution timing of another device can be easily identified from the pipeline.

Description

【発明の詳細な説明】 〔概要〕 CPU、CHP、パイプライン制御の主記憶装置等から
なる処理装置にiいて、主記憶装置へのアクセス源であ
るCPU/CHP等は毎サイクルに要求を出す。しかし
キー記憶装置はそれよりも長いアクセス時間をもち、互
いに非同期で動作するため1本発明ではアクセス要求を
スタックする複数個のバッファを設け、そのバッファの
状態及びキー記憶装置のビジー状態によりCP U/C
HPからのアクセスが何サイクル後に処理されるかを予
測し、同期をとれるようにした。
[Detailed Description of the Invention] [Summary] In a processing device consisting of a CPU, a CHP, a pipeline-controlled main storage device, etc., the CPU/CHP, etc., which is the source of access to the main storage device, issues a request every cycle. . However, the key storage device has a longer access time and operates asynchronously with each other. Therefore, in the present invention, a plurality of buffers are provided for stacking access requests, and the CPU /C
It is now possible to predict and synchronize the number of cycles after which accesses from HP will be processed.

〔産業上の利用分野〕[Industrial application field]

本発明は、パイプラインで動作する処理装置におけるパ
イプラインと、他の非同期の装置との間の同期化方式に
関する。
The present invention relates to a synchronization method between a pipeline and other asynchronous devices in a processing device operating in a pipeline.

あるパイプラインと関連して並行に処理を行う他の装置
が、そのパイプラインとは異なる動作周期をもつ非同期
のものである場合、双方の処理結果について同期をとる
必要がある0本発明は、そのための効率的な同期化方式
に関する。
If another device that performs processing in parallel with a pipeline is asynchronous and has a different operating cycle than that pipeline, it is necessary to synchronize the processing results of both. This paper relates to an efficient synchronization method for that purpose.

〔従来の技術〕[Conventional technology]

第5図は9本発明が対象とするパイプライン動作の処理
装置の間車な例を示したものである。
FIG. 5 shows an example of a processing device for pipeline operation to which the present invention is applied.

第5図において、21.22はそれぞれ中央処理装置C
PU、23はチャネルプロセッサCHP。
In FIG. 5, 21 and 22 are respectively central processing unit C
PU, 23 is a channel processor CHP.

24は記憶制御装置MCU、25はキー記憶装置KS、
26は主記憶装置MSUである。
24 is a storage control device MCU, 25 is a key storage device KS,
26 is a main storage unit MSU.

通常、MSUのアクセス時間は、CPUのサイクル時開
の数十倍の長さがあるため、MSUはバイブラインで制
御されている。
Normally, the MSU access time is several tens of times longer than the CPU cycle time, so the MSU is controlled by a vibe line.

MSUは、CPU−?’CHPからのアクセス要求を受
は取ると、MSUに起動信号を送り、同時にアクセスア
ドレスやストアデータ等の必要な情報IMSUのパイプ
ラインに設定する。
MSU is CPU-? 'When it receives an access request from the CHP, it sends an activation signal to the MSU, and at the same time sets necessary information such as the access address and store data in the IMSU pipeline.

MSUのパイプライン処理が終了すると、MCUはエラ
ーチェックを行い、アクセス源のCPUやCHPに対す
る応答信号を作成する。
When the pipeline processing of the MSU is completed, the MCU performs an error check and creates a response signal to the access source CPU or CHP.

MCUは、MSUの領域保護や記憶管理のためにKSを
そなえている。KSは、リファレンスビット(Rビット
)やチェンジビット(Cビット)等のテーブルを含み、
MCUは、MSUを起動するごとにKSにアクセスして
、これらのビットを対応する値に更新する。
The MCU has a KS for area protection and memory management of the MSU. KS includes a table of reference bits (R bits), change bits (C bits), etc.
The MCU accesses the KS and updates these bits to corresponding values each time the MSU is activated.

KSは、2サイクルのアクセス時間で動作し。KS operates with a two-cycle access time.

一方アクセス源のCPU、CHPは毎サイクルにアクセ
ス要求を出すことができるため、アクセス要求を受は付
けてからKSをアクセスできるまでの時間は、先に実行
待ちとなっているアクセス要求の個数やKSのビジー(
BUSY)状況により変化する。また、MSUのパイプ
ラインは、一定のタイミングで応答信号を作成するため
、KSのアクセス処理と同期をとる必要がある。
On the other hand, since the access source CPU and CHP can issue an access request every cycle, the time from when the access request is accepted until the KS can be accessed depends on the number of access requests waiting to be executed. KS's busy (
BUSY) Varies depending on the situation. Furthermore, the MSU pipeline needs to be synchronized with the KS access processing in order to create a response signal at a constant timing.

このような場合、従来はKSとMSUパイプラインのそ
れぞれが非同期に処理を実行し、各処理の終了結果を識
別してリンクをとり、アクセス源へ応答する方式がとら
れていた。
In such a case, conventionally, the KS and MSU pipelines each execute processing asynchronously, identify the completion result of each processing, establish a link, and respond to the access source.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

従来のパイプライン動作の処理装置では、1つの処理要
求に関連して、並行して動作するパイプラインと他の非
同期の装置との間で処理結果の同期をとるために、複雑
な制御と余分な動作サイクルとが必要であった。
Conventional pipeline-operated processing devices require complex control and redundant control in order to synchronize processing results between pipelines operating in parallel and other asynchronous devices in relation to one processing request. A long operating cycle was required.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、パイプラインと並行して動作する他の非同期
の装置の動作時間が、パイプラインの動作時間よりも短
い場合について、非同期の装置の処理開始時点を予測し
、その予測結果をパイプラインにリンクして、パイプラ
インから他の装置の実行タイミングを容易に識別可能に
するものである。
The present invention predicts the processing start point of an asynchronous device when the operation time of another asynchronous device that operates in parallel with the pipeline is shorter than the operation time of the pipeline, and transfers the prediction result to the pipeline. This allows the execution timing of other devices to be easily identified from the pipeline.

第1図は1本発明の原理的構成を、第5図の従来例構成
に適用された場合を例として示したものである。
FIG. 1 shows, as an example, the fundamental configuration of the present invention applied to the conventional configuration shown in FIG.

第1図中。In Figure 1.

1は、主記憶(MSU)パイプラインである。1 is a main memory (MSU) pipeline.

2は、キー記憶装置KSである。2 is a key storage device KS.

3.4は、それぞれ別の中央処理装置CPUからのアク
セス要求情報(たとえばアドレス、ストアデータ、ファ
ンクシラン・コード)を一時的に保持するCPUポート
である。
3.4 are CPU ports that temporarily hold access request information (for example, address, store data, funxylan code) from different central processing units CPU.

5は、チャネルプロセッサCHPからのアクセス要求情
報を一時的に保持するCHPボートである。
5 is a CHP boat that temporarily holds access request information from the channel processor CHP.

6は、CPUポート3,4.CHPポート5から1つの
ポートを選択するためのセレクタSELである。
6 is the CPU port 3, 4 . This is a selector SEL for selecting one port from CHP ports 5.

フないし10は、キー記憶装置KSに対するアクセス要
求情報を順にスタックするためのバッファである。
Buffers 1 to 10 sequentially stack access request information for the key storage device KS.

11は、バッファ7ないし10の1つを順に選択し、キ
ー記憶装置KSに与えるセレクタSELである。
Reference numeral 11 denotes a selector SEL that sequentially selects one of the buffers 7 to 10 and supplies it to the key storage device KS.

12は、バッファ7ないし10の管理や、キー記憶装置
KSのアクセス制御を行なうキー記憶制御回路である。
12 is a key storage control circuit that manages the buffers 7 to 10 and controls access to the key storage device KS.

13は、バッファ7ないし10にスタックされているア
クセス要求情報の個数と、キー記憶装置KSのビジー/
空き状態とに基づいて、各アクセス要求がキー記憶袋f
iKsで処理される時間を予測する予測回路である。
13 indicates the number of pieces of access request information stacked in the buffers 7 to 10 and the busy/busy status of the key storage device KS.
Based on the free status, each access request is sent to a key storage bag f
This is a prediction circuit that predicts the processing time in iKs.

14は、予測回路13が予測した予測値に基づいて、各
アクセス要求ごとにキー記憶装置2における実行の有無
を示す同期情報をMSUパイプラインにリンクさせる同
期化制御回路である。
Reference numeral 14 denotes a synchronization control circuit that links synchronization information indicating whether or not each access request is executed in the key storage device 2 to the MSU pipeline based on the predicted value predicted by the prediction circuit 13.

15は、MSU起動信号である。15 is an MSU activation signal.

16は、アクセス源のCP U/CHPに対する応答信
号である。
16 is a response signal to the CPU/CHP of the access source.

ここで、MSUパイプライン1のアクセス時間は数十サ
イクルの長さとし、またキー記憶装置KSのアクセス時
間は2サイクルの長さとし5これに対して各CPU、C
HPはたとえば毎サイクルにアクセス要求を発信できる
ものとする。
Here, the access time of the MSU pipeline 1 is assumed to be several tens of cycles long, and the access time of the key storage device KS is assumed to be 2 cycles long5.
For example, it is assumed that the HP can issue an access request every cycle.

〔作用〕[Effect]

第1図において、各CPU、CHPからアクセス要求が
あると、それぞれアクセス要求の情報(アドレス、スト
アデータ、ファンクシランコード等)は、対応するCP
Uポート3,4.CHPポート5に一旦格納される。
In Figure 1, when there is an access request from each CPU or CHP, the information of the access request (address, store data, funxylan code, etc.) is sent to the corresponding CP.
U port 3, 4. It is temporarily stored in CHP port 5.

セレクタ5EL6は、アクセス要求の情報が格納されて
いるポートを順次選択し、MSUに起動信号を送るとと
もに、必要な情報をMSUパイプライン1にセントする
。この情報は、後にエラーチェック、応答信号を作成す
る際に使用される。
The selector 5EL6 sequentially selects ports in which access request information is stored, sends an activation signal to the MSU, and sends necessary information to the MSU pipeline 1. This information is later used for error checking and when creating a response signal.

MSUが起動されるごとに、キー記憶装置2内のRビッ
トおよびCビットの更新が行われる。キー記憶装置2の
アクセス時間は、この例の場合2サイクルの長さであり
、一方CPU、CHP等からのアクセス要求はlサイク
ル単位で行われるから、アクセス要求が毎サイクルに生
じると、実行待ちが必要になる。バッファフないし10
は、この実行待ちを可能にする。
Each time the MSU is activated, the R bit and C bit in the key storage device 2 are updated. The access time to the key storage device 2 is 2 cycles long in this example, and on the other hand, access requests from the CPU, CHP, etc. are made in units of 1 cycle, so if an access request occurs every cycle, the length of the access request is 2 cycles. is required. Buffer or 10
enables this execution wait.

キー記憶制御回路12は、MSU起動を行ったアクセス
要求を直ちに処理できないとき、その情報をバッファ7
ないし10に順にスタックし、そしてキー記憶袋M2が
空き状態となるごとにセレクタ5ELIIを用いてバッ
ファのアクセス要求の情報を古い方(待ちの長い方)か
ら選択し、それに基づ< R/Cビットの更新処理を行
う。
When the key storage control circuit 12 cannot immediately process the access request for which the MSU has been activated, the key storage control circuit 12 stores the information in the buffer 7.
10 to 10 in order, and each time the key storage bag M2 becomes empty, the selector 5ELII is used to select the oldest (longest waiting) buffer access request information, and based on that, < R/C Performs bit update processing.

第2図は、キー記憶$11111回路12の制御動作例
を示すタイミング図である。
FIG. 2 is a timing diagram showing an example of the control operation of the key storage $11111 circuit 12.

図■は、CPUあるいはCHPのアクセス源から、毎サ
イクルにA、B、C,D・・・で示すアクセス要求が発
信されたことを示す。
Figure 3 shows that access requests indicated by A, B, C, D, etc. are sent every cycle from the access source of the CPU or CHP.

図■ないし■は、バッファ7ないしlOにおけるアクセ
ス要求のスタック状態を示す。
Figures 1 to 2 show stack states of access requests in buffers 7 to 10.

図■は、キー記憶装置2が処理を受は付けたアクセス要
求処理のタイミングを示す。
Figure 3 shows the timing of the access request processing that the key storage device 2 accepts and accepts.

図■は、キー記憶装置2のR/Cビット更新処理の実行
期間を示す。
3 shows the execution period of the R/C bit update process of the key storage device 2. In FIG.

予測回路13は、MSU起動を行なったアクセス要求に
基づいて、バフファフないし10に待ちとなっている先
行アクセス要求の個数とキー記憶袋w2のとジー/空き
状態とに基づいて、第2図■に示されているようにその
アクセス要求のR/Cビット更新処理が実行開始される
時間を予測し。
The prediction circuit 13 predicts the number of advance access requests waiting from buff to ten based on the access request that activated the MSU and the empty state of the key storage bag w2, as shown in FIG. Predict the time when the R/C bit update process for the access request will start as shown in FIG.

予測値を作成する。Create a predicted value.

同期化制御回路14は、この予測値をMSUバイブライ
ン1を進行するアクセス要求情報を対応づけ、予測値の
時間に達したとき、キー記憶装置2の更新処理の実行を
示す同期情報を設定する。
The synchronization control circuit 14 associates this predicted value with the access request information proceeding through the MSU vibe line 1, and sets synchronization information indicating execution of update processing of the key storage device 2 when the predicted value time is reached. .

これにより、MSUパイプライン1中を進行する各アク
セス要求ごとに、その対応する同期情報から、キー記憶
装置2における関連する更新処理の実行を識別すること
が可能となり、アクセス源への応答信号生成タイミング
を容易に決定することができる。
As a result, for each access request proceeding through the MSU pipeline 1, it becomes possible to identify the execution of the related update process in the key storage device 2 from the corresponding synchronization information, and generate a response signal to the access source. Timing can be easily determined.

〔実施例〕〔Example〕

第1図に示された本発明の原理的構成に基づくl実施例
を第3図に示す。
FIG. 3 shows an embodiment based on the basic configuration of the present invention shown in FIG.

第3図において、1はMSUパイプライン、12はキー
記憶制御回路、13は予測回路、14は同期化制御回路
、17は予測値テーブル、18は予測値レジスタ、19
はデコーダ、20は同期情報レジスタである。
In FIG. 3, 1 is an MSU pipeline, 12 is a key storage control circuit, 13 is a prediction circuit, 14 is a synchronization control circuit, 17 is a predicted value table, 18 is a predicted value register, 19
is a decoder, and 20 is a synchronization information register.

同期化制御回路14は、MSUパイプラインに対応する
パイプライン構成となっており、予測値レジスタ18が
、パイプラインの各段を構成している。デコーダ19お
よび同期情報レジスタ20はパイプラインの第2段から
第11段までにのみ設けられている(第11段ではデコ
ーダは不要)。
The synchronization control circuit 14 has a pipeline configuration corresponding to the MSU pipeline, and the predicted value register 18 configures each stage of the pipeline. The decoder 19 and the synchronization information register 20 are provided only in the second to eleventh stages of the pipeline (the decoder is not required in the eleventh stage).

予測値テーブル17は、第4図に例示されているような
論理構成をもち、第1図におけるバソファフないし工0
にあるアクセス要求の待ち数と。
The predicted value table 17 has a logical configuration as illustrated in FIG.
The number of waiting access requests in .

キー記憶装置2の状態がビジーであるか空きかに応じて
、キー記憶装置2で処理可能となるまでの待ち時間を予
測値として与えるようになっている(論理回路で構成で
きる)。
Depending on whether the key storage device 2 is busy or empty, the waiting time until the key storage device 2 becomes ready for processing is given as a predicted value (can be configured by a logic circuit).

予測回路13は、アクセス要求があるごとに。The prediction circuit 13 receives an access request every time there is an access request.

キー記憶制御回路12から得たバッファおよびキー記憶
装置の各状態に基づいて予測値テーブル17を参照し、
該当する予測値を求めて同期化制御回路14へ入力する
Referring to the predicted value table 17 based on each state of the buffer and key storage device obtained from the key storage control circuit 12,
A corresponding predicted value is obtained and input to the synchronization control circuit 14.

入力した各アクセス要求ごとの予測値は、 MSUパイ
プラインlでのアクセス要求のサイクル進行と同期して
各段の予測値レジスタ18を伝播してゆき、それぞれの
段の出力でデコーダ19に印加される。
The predicted value for each input access request is propagated through the predicted value register 18 of each stage in synchronization with the cycle progression of the access request in the MSU pipeline l, and is applied to the decoder 19 at the output of each stage. Ru.

デコーダ19は、第4図の予測値テーブルに基づく予測
値にしたがい、順次大きくなる予測値を検出するように
構成されている。たとえば、第2段のデコーダは“00
10″に応答し、第3段のデコーダは”0011″に応
答し、第10段のデコーダは“1010”に応答する。
The decoder 19 is configured to detect sequentially increasing predicted values according to the predicted values based on the predicted value table shown in FIG. For example, the second stage decoder is “00
10'', the third stage decoder responds to "0011", and the tenth stage decoder responds to "1010".

各デコーダ19の出力は、同じ段の同期情報レジスタ2
0へ入力される。
The output of each decoder 19 is the synchronization information register 2 of the same stage.
Input to 0.

このような構成により、同期化制御回路に入力されたあ
るアクセス要求に伴う予測値が各段の予測値レジスタ1
8中を進行し、その値に対応する段に到達したとき、す
なわち予測値が示すサイクル時間が経過したとき、該当
する段のデコーダ19により検出され、同期情報レジス
タ20に設定された同期情報は、以後、そのアクセス要
求と対応しながらパイプラインのサイクル進行にしたが
って後段へ伝播してゆく。
With this configuration, the predicted value associated with a certain access request input to the synchronization control circuit is stored in the predicted value register 1 of each stage.
8 and reaches the stage corresponding to that value, that is, when the cycle time indicated by the predicted value has elapsed, the synchronization information detected by the decoder 19 of the relevant stage and set in the synchronization information register 20 is , and thereafter propagates to subsequent stages as the pipeline cycle progresses while responding to the access request.

(発明の効果〕 本発明によれば、パイプラインよりも動作サイクル時間
が短い他の任意の非同期装置の処理開始時間を予測し、
その予測値をパイプラインに対応づけるという簡単な方
法をとることにより、従来方式のように処理速度を低下
させることなく同期化を図ることができ、処理装置の性
能向上が可能である。
(Effects of the Invention) According to the present invention, the processing start time of any other asynchronous device whose operation cycle time is shorter than that of the pipeline is predicted,
By adopting a simple method of associating the predicted value with the pipeline, synchronization can be achieved without reducing the processing speed as in the conventional method, and the performance of the processing device can be improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理的構成図、第2図は第1図中のキ
ー記憶制御回路の制御動作例を示すタイミング図、第3
図は本発明の1実施例の構成図。 第4図は第3図における予測値テーブルの構成図。 第5図は本発明が対象とするパイプライン動作の処理装
置の従来例構成図である。 第1図中。 1:MSUパイプライン 2:キー記憶装置 7〜10:バッファ 12:キー記憶制御回路 13:予測回路 14:同期化制御回路
FIG. 1 is a basic configuration diagram of the present invention, FIG. 2 is a timing diagram showing an example of the control operation of the key storage control circuit in FIG. 1, and FIG.
The figure is a configuration diagram of one embodiment of the present invention. FIG. 4 is a configuration diagram of the predicted value table in FIG. 3. FIG. 5 is a block diagram of a conventional example of a processing device for pipeline operation to which the present invention is directed. In Figure 1. 1: MSU pipeline 2: Key storage devices 7 to 10: Buffer 12: Key storage control circuit 13: Prediction circuit 14: Synchronization control circuit

Claims (1)

【特許請求の範囲】 サイクル単位にアクセス要求を行うアクセス源と、各ア
クセス要求ごとに関連する処理を行う比較的長い動作サ
イクル時間をもつパイプライン(1)およびこのパイプ
ライン(1)よりも短い動作サイクル時間をもつ非同期
の他の装置(2)とをそなえた処理装置において、 上記他の装置(2)に順次入力されるアクセス要求の情
報を一旦スタックする複数のバッファ(7〜10)と、 アクセス要求が入力された上記複数のバッファ(7〜1
0)にスタックされている先行アクセス要求の情報およ
び上記他の装置(2)の状態がビジーか空きかにしたが
って、入力されたアクセス要求が他の装置(2)におい
て処理される時間を予測する予測回路(13)と、 上記予測回路(13)が予測した時間を上記パイプライ
ン(1)の動作サイクルに対応づけ各アクセス要求ごと
に他の装置(2)における関連する処理の実行タイミン
グを識別可能にする同期化制御回路(14)とを設けた
ことを特徴とするパイプライン同期化方式。
[Claims] A pipeline (1) having an access source that makes an access request on a cycle-by-cycle basis and a relatively long operation cycle time that performs processing related to each access request, and a pipeline (1) that is shorter than this pipeline (1). In a processing device equipped with another asynchronous device (2) having an operation cycle time, a plurality of buffers (7 to 10) for temporarily stacking information of access requests sequentially input to the other device (2) are provided. , the plurality of buffers (7 to 1) into which the access request has been input.
According to the information on the advance access request stacked in 0) and whether the other device (2) is busy or free, predict the time at which the input access request will be processed in the other device (2). a prediction circuit (13), which associates the time predicted by the prediction circuit (13) with the operation cycle of the pipeline (1) and identifies the execution timing of related processing in another device (2) for each access request; A pipeline synchronization method characterized in that it is provided with a synchronization control circuit (14) that enables the synchronization.
JP2320387A 1987-02-03 1987-02-03 Pipeline synchronizing system Granted JPS63191252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2320387A JPS63191252A (en) 1987-02-03 1987-02-03 Pipeline synchronizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2320387A JPS63191252A (en) 1987-02-03 1987-02-03 Pipeline synchronizing system

Publications (2)

Publication Number Publication Date
JPS63191252A true JPS63191252A (en) 1988-08-08
JPH0533412B2 JPH0533412B2 (en) 1993-05-19

Family

ID=12104109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2320387A Granted JPS63191252A (en) 1987-02-03 1987-02-03 Pipeline synchronizing system

Country Status (1)

Country Link
JP (1) JPS63191252A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079445A (en) * 1983-10-07 1985-05-07 Nec Corp Storage controller

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079445A (en) * 1983-10-07 1985-05-07 Nec Corp Storage controller

Also Published As

Publication number Publication date
JPH0533412B2 (en) 1993-05-19

Similar Documents

Publication Publication Date Title
US4412303A (en) Array processor architecture
EP0208870B1 (en) Vector data processor
KR101012744B1 (en) Pipeline accelerator for improved computing architecture and related system and method
JP2779044B2 (en) Buffer storage control method
JP3721780B2 (en) Data processing apparatus having a plurality of pipeline processing mechanisms
US6789258B1 (en) System and method for performing a synchronization operation for multiple devices in a computer system
JP3338488B2 (en) Data processing device verification method and device
JPS63191252A (en) Pipeline synchronizing system
EP0465847B1 (en) Memory access control having commonly shared pipeline structure
JP2814683B2 (en) Instruction processing unit
US6671781B1 (en) Data cache store buffer
JPH03271854A (en) Dma controller
JPS5844569A (en) Synchronous control system for instruction processing
JP2531207B2 (en) Channel device
JP2755646B2 (en) Data driven data processor
JPS5896346A (en) Hierarchical arithmetic system
Barnes et al. Array processor architecture
JPH0346033A (en) Data transfer control method for inter-job
JPH02217924A (en) Storing processing system for data processor
JPH01159740A (en) Duplex computer system
JPH0283779A (en) Instruction execution control system for vector processor
JPS6220041A (en) Asynchronous data transfer circuit for data processor
JPH05120215A (en) Input/output controller
JPS6364143A (en) Memory access control circuit
JPS6380354A (en) Data chain system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees