JPH01112451A - System for controlling cash memory - Google Patents

System for controlling cash memory

Info

Publication number
JPH01112451A
JPH01112451A JP62271312A JP27131287A JPH01112451A JP H01112451 A JPH01112451 A JP H01112451A JP 62271312 A JP62271312 A JP 62271312A JP 27131287 A JP27131287 A JP 27131287A JP H01112451 A JPH01112451 A JP H01112451A
Authority
JP
Japan
Prior art keywords
memory
bus
address data
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62271312A
Other languages
Japanese (ja)
Other versions
JP2586061B2 (en
Inventor
Yasushi Tanzawa
丹澤 靖
Takumi Kishino
琢己 岸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62271312A priority Critical patent/JP2586061B2/en
Publication of JPH01112451A publication Critical patent/JPH01112451A/en
Application granted granted Critical
Publication of JP2586061B2 publication Critical patent/JP2586061B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To improve a process speed by accumulating address data, which execute a nullification processing, to a first-in first-out memory, allowing a DMA write and causing the DMA write to be stand-by when the first-in first-out memory goes to be full. CONSTITUTION:When address data 50 are stored to a first-in first-out memory 11, a nullification processing part 10 outputs a nullification requesting signal 52 to a memory bus control part 4 and obtains the bus using allowance of a memory bus 100. Then, the nullification processing is successively executed based on the data 50 to be accumulated in the memory 11. When the memory 11 goes to be full, since the data 50 can not be stored any more, a stand-by signal 51 is outputted to a sharing bus control part 7 and the control part 7 does not give the allowance to a DMA request from an input and output control part 6 and causes it to be stand-by. Thus, the address data for the nullification processing are accumulated to the memory 11 and even when the preceding nullification processing is not completed, the DMA request of the control part 6 is accepted until the memory 11 goes to be full. Then, the DMA speed is improved.

Description

【発明の詳細な説明】 〔概 要〕 本発明は2バスシステムにおけるキャッシュメモリ制御
方式に関し、 主メモリがDMAライトされるとき実施されるキャッシ
ュメモリの無効化処理による処理速度の低下を改善する
ことを目的とし、 それぞれメモリバスに接続されたプロセッサおよびキャ
ッシュメモリと、共通バスに接続された主メモリをDM
Aライトする入出力制御部とを備えるキャッシュメモリ
システムにおけるキャッシュメモリ制御方式であって、
入出力制御部がDMAライト時に出力するアドレスデー
タを格納する先入れ先出しメモリと、該先入れ先出しメ
モリに該アドレスデータが格納されたときメモリバスの
使用許可を得た後先入れ先出しメモリより該アドレスデ
ータを出力して無効化処理を行うとともに、先入れ先出
しメモリがフルになったとき入出力制御部のDMAライ
トを待機せしめる待機信号を共通バス制御部に出力する
無効化処理部とを設け、先入し先出しメモリに無効化処
理するアドレスデータを蓄積して入出力制御部のDMA
ライトを許可し、先入れ先出しメモリがフルになったと
きDMAライトを待機せしめるように構成する。
[Detailed Description of the Invention] [Summary] The present invention relates to a cache memory control method in a two-bus system, and an object of the present invention is to improve the reduction in processing speed due to cache memory invalidation processing performed when main memory is DMA written. The processor and cache memory each connected to a memory bus, and the main memory connected to a common bus are DM.
A cache memory control method in a cache memory system comprising an input/output control unit that performs A writing,
A first-in, first-out memory that stores address data output by the input/output control unit during DMA write; and a first-in, first-out memory that stores the address data in the first-in, first-out memory and outputs the address data from the first-in, first-out memory after obtaining permission to use the memory bus. An invalidation processing unit is provided which performs invalidation processing and outputs a standby signal to the common bus control unit to make the input/output control unit wait for DMA write when the first-in first-out memory becomes full, thereby invalidating the first-in first-out memory. Accumulate address data to be processed and use the DMA of the input/output control unit
The configuration is such that the write is permitted and the DMA write is made to wait when the first-in, first-out memory becomes full.

〔産業上の利用分野〕[Industrial application field]

本発明はキャッシュメモリ制御方式の改良に関する。 The present invention relates to improvements in cache memory control methods.

プロセッサの高速化を図るため、プロセッサの近傍に高
速小容量のメモリを設け、主メモリのデータ、プログラ
ム等の一部をそのメモリに格納して高速にアクセスする
キャッシュメモリシステムが普及している。
In order to increase the speed of processors, cache memory systems have become popular in which a high-speed, small-capacity memory is provided near the processor, and a portion of data, programs, etc. in the main memory is stored in the memory and accessed at high speed.

このキャッシュメモリシステムにおいて、入出力制御部
(■10装置)が主メモリに対してダイレクトメモリア
クセスにより書込み(DMAライト)する場合、主メモ
リの内容とキャッシュメモリの内容とが不一致となって
プロセッサが誤動作することを防止するため、DMAラ
イトするごとに対応するキャッシュメモリのデータを無
効化した後火のDMA要求を許可するように構成されて
いる。
In this cache memory system, when the input/output control unit (device 10) writes to the main memory by direct memory access (DMA write), the contents of the main memory and the contents of the cache memory do not match, and the processor In order to prevent malfunctions, the device is configured so that each time a DMA write is performed, data in the corresponding cache memory is invalidated and then a subsequent DMA request is permitted.

しかし、プロセッサの動作とI 10装置の動作とを平
行して行わせる2バスシステム(メモリバスと共通バス
)では、プロセッサがメモリバスに接続された他のI 
10装置をアクセス中であると共通バスが使用可能て゛
も無効化処理のためにバス使用が待たされ、従って次の
DMA要求が待たされるという問題点がある。
However, in a two-bus system (memory bus and common bus) in which processor operations and I10 device operations occur in parallel, the processor
When accessing 10 devices, there is a problem that even if the common bus is available, the use of the bus is awaited due to invalidation processing, and therefore the next DMA request is awaited.

このため、無効化処理のためにDMA転送速度が低下す
る上記問題点を改善するキャッシュメモリ制御方式が求
められている。
Therefore, there is a need for a cache memory control method that improves the above-mentioned problem in which the DMA transfer speed decreases due to invalidation processing.

〔従来の技術〕[Conventional technology]

第3図は従来のキャッシュメモリシステムブロック図、
第4図は従来のDMA動作タイムチャート図、第5図は
他のシステム例を表す図、第6図はキャッシュメモリ説
明図である。
Figure 3 is a conventional cache memory system block diagram.
FIG. 4 is a conventional DMA operation time chart, FIG. 5 is a diagram showing another system example, and FIG. 6 is an explanatory diagram of a cache memory.

第3図はメモリバス100と共通バス101との2ハス
を備えたキャッシュメモリシステムを示したもので、メ
モリバス100には、プロセッサCPU 1とキャッシ
ュメモリ2とI 10装置3と無効化処理部8とが接続
され、共通バス101には、主メモリ5とI 10装置
6とが接続されている。
FIG. 3 shows a cache memory system equipped with two buses, a memory bus 100 and a common bus 101. The main memory 5 and the I10 device 6 are connected to the common bus 101.

ココテ、メモリバス制御部4はメモリバス100のバス
競合制御を行うもので、各部よりバス使用要求が出力さ
れたとき、所定の優先順位に基づきメモリバス100の
使用許可を与えるものであり、また共通バス制御部7は
同様に共通バス101の競合制御を行うもので、トラン
シーバTR13はメモリバス100から共通バス101
をアクセスするときに開かれる。
The memory bus control unit 4 performs bus contention control on the memory bus 100, and when a bus use request is output from each unit, it grants permission to use the memory bus 100 based on a predetermined priority order. The common bus control unit 7 similarly performs contention control on the common bus 101, and the transceiver TR13 controls the communication from the memory bus 100 to the common bus 101.
opened when accessing.

従って、プロセッサCPU 1がI 10装置3をアク
セスする動作と、I 10装置6が主メモリ5をアクセ
スする動作とはそれぞれのバスを使用して平行して行わ
れる。
Therefore, the operations in which the processor CPU 1 accesses the I 10 device 3 and the operations in which the I 10 device 6 accesses the main memory 5 are performed in parallel using their respective buses.

用許可を得て行われる。This is done with permission for use.

以上のキャッシュメモリシステムにおいて、■10装置
6が主メモリ5にDMAでデータをライトするときは、
以下のような動作が行われる。第4図参照 (1)I10装置6は共通バス制御部7にDMA要求(
バス使用要求)を出力する。
In the above cache memory system, ■10 When the device 6 writes data to the main memory 5 using DMA,
The following operations are performed. Refer to FIG. 4 (1) The I10 device 6 sends a DMA request (
bus usage request).

(2)  共通バス制御部7が共通バス101の使用許
可を!10装置6に出力すると、I 10装置6は例え
ば1バイトのデータを主メモリ5にライトする。
(2) Common bus control unit 7 grants permission to use common bus 101! When outputting to the I10 device 6, the I10 device 6 writes, for example, 1 byte of data to the main memory 5.

(3)  無効化処理部8は共通バス101に出力され
たDMAアドレスデータをレジスタ9にランチし、メモ
リバス制御部4にメモリバス100のバス使用要求を出
力して使用許可を得た後、メモリバス100にランチし
た前記アドレスデータを出力しキャッシュメモリ2に無
効信号を出力して対応するデータの無効化処理を行う。
(3) The invalidation processing unit 8 launches the DMA address data output to the common bus 101 into the register 9, outputs a bus use request for the memory bus 100 to the memory bus control unit 4, and obtains permission to use the memory bus 100, and then The launched address data is output to the memory bus 100 and an invalidation signal is output to the cache memory 2 to invalidate the corresponding data.

110装置6は続いて次のバイトデータをライトするた
めDMA要求を出力するが、共通バス制御部7は前の無
効化処理が完了したことを確認(無トするごとに無効化
処理が行われ、プロセッサcpU1がキャッシュメモリ
2の当該データをアクセスしたときミスヒントとなって
主メモリ6より転送され、データの不一致が解消される
The 110 device 6 then outputs a DMA request to write the next byte data, but the common bus control unit 7 confirms that the previous invalidation process has been completed (the invalidation process is performed every time there is no write). , when the processor CPU1 accesses the relevant data in the cache memory 2, it becomes a miss hint and is transferred from the main memory 6, and the data mismatch is resolved.

ここで、無効化要求(メモリバス100のバス使用要求
)がメモリバス制御部4に出力されたとき、プロセッサ
cpu iがI 10装置3をアクセスしていると、そ
のアクセスが終了するまで無効化要求が待たされる。
Here, when an invalidation request (a request to use the memory bus 100) is output to the memory bus control unit 4, if the processor CPU i is accessing the I10 device 3, the invalidation is performed until the access is completed. Requests are made to wait.

従ってこのI 10装置3の処理速度が遅いと(第4図
■)無効化が待たされ、I 10装置6の次のDMA要
求がその間待たされて(第4図■) DMA速度が低下
する。
Therefore, if the processing speed of the I10 device 3 is slow (FIG. 4), invalidation is forced to wait, and the next DMA request from the I10 device 6 is forced to wait (FIG. 4), resulting in a decrease in DMA speed.

上記動作は、第5図に示すマルチプロセッサシステムの
場合も同様であって、プロセッサCPU1が第1のバス
の使用許可を得、第2のバス使用許可を待っている状態
であるとその間無効化要求が待たされ、従ってI 10
装置6のDMA速度が低下する。
The above operation is the same in the case of the multiprocessor system shown in FIG. The request is made to wait, so I 10
The DMA speed of device 6 is reduced.

なお、本発明の理解を容易とするため、第6図を参照し
つつキャッシュメモリの概要を以下に説明しておく。
In order to facilitate understanding of the present invention, an overview of the cache memory will be explained below with reference to FIG. 6.

キャッシュメモリ2はデータメモリ36とキャッシュ制
御部31とで構成されるもので、タグ部32にはプロセ
ッサCPU 1の出力するアドレスデータ60の下位ア
ドレスデータ60bをアドレスとして上位アドレスデー
タ60aが格納され、データメモリ36には上記下位ア
ドレスデータ60bをアドレスとしてデータバスに出力
されたデータが格納される。
The cache memory 2 is composed of a data memory 36 and a cache control section 31, and the tag section 32 stores upper address data 60a using the lower address data 60b of the address data 60 output from the processor CPU 1 as an address. The data memory 36 stores data output to the data bus using the lower address data 60b as an address.

ここで、プロセッサCPU 1がアクセスしてアドレス
データをメモリバス100に出力すると、下位アドレス
データでタグ部32がアドレスされ、読出された上位ア
クセスデータ60aとプロセッサの出力した上位アドレ
スデータとが比較回路33により比較される。
Here, when the processor CPU 1 accesses and outputs address data to the memory bus 100, the tag section 32 is addressed with the lower address data, and the read upper access data 60a and the upper address data output by the processor are compared to the comparison circuit. It is compared by 33.

上記比較の結果、一致で且つデータの有効/無効を表す
Vビットが′l”ならばアンド回路34よリヒット信号
“1”が出力され、データゲート37が開いて下位アド
レスデータでアドレスされた所定のデータがデータメモ
リ36より出力される。
As a result of the above comparison, if there is a match and the V bit indicating data validity/invalidity is 'l', the AND circuit 34 outputs a rehit signal "1", the data gate 37 is opened, and the predetermined address addressed by the lower address data is output. data is output from the data memory 36.

Vビットはタグ部32の各アドレスに対応して設けられ
、下位アドレスデータ60bでアドレスされてリード/
ライトされるもので、データがデータメモリ36i格納
されたときに有効信号“l”がセットされ、無効化要求
が出力されたときは無効化処理部8により無効信号“0
”がセットされる。
The V bit is provided corresponding to each address of the tag section 32, and is addressed by the lower address data 60b to read/write.
When the data is stored in the data memory 36i, the valid signal “l” is set, and when the invalidation request is output, the invalidation processing unit 8 outputs the invalidation signal “0”.
” is set.

このVビットが“0″の場合はアンド回路34よリミス
ヒット信号“0”が出力され、ミスヒツト処理部35に
より主メモリ5より当該データが転送されてキャッシュ
メモリ2に格納されるとともにプロセッサCPU 1に
読込まれる。
When this V bit is “0”, the AND circuit 34 outputs a limit hit signal “0”, and the miss processing unit 35 transfers the data from the main memory 5 to the cache memory 2 and stores it in the processor CPU 1. Read.

〔発明が解決しようとする問題点3 以上説明したように、2バスシステムにおいてI 10
装置のDMAライトによる無効化処理がプロセッサのバ
スアクセスにより待たされ、結果としてDMA速度が遅
くなるという問題点がある。
[Problem 3 to be solved by the invention As explained above, in a two-bus system, I 10
There is a problem that the invalidation process by DMA write of the device is made to wait due to the bus access of the processor, resulting in a slow DMA speed.

本発明は上記問題点に鑑み、I 10装置のDMA速度
の低下を改善するキャッシュメモリ制御方式を提供する
ことを目的とするものである。
SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a cache memory control method that improves the reduction in DMA speed of an I10 device.

〔問題点を解決するための手段〕[Means for solving problems]

本発明のキャッシュメモリ制御方式は、第1図実施例の
キャッシュメモリシステムブロック図に示すように、 ダイレクトメモリアクセスによる書込み時に出力された
アドレスデータ(50)を格納する先入れ先出しメモリ
 (11)と、 該先入れ先出しメモリに該アドレスデータが格納された
とき該メモリバス制御部に無効化要求信号(52)を出
力し、該メモリバスの使用許可を得た後該先入れ先出し
メモリより該アドレスデータを出力して該キャッシュメ
モリの無効化処理を行うとともに、前記先入れ先出しメ
モリが無効化未処理のアドレスデータ(50)でフルに
なったとき該入出力制御部の前記書込みを待機せしめる
待機信号(51)を該共通バス制御部に出力する無効化
処理部(10)とを設ける。
The cache memory control method of the present invention, as shown in the cache memory system block diagram of the embodiment in FIG. When the address data is stored in the first-in, first-out memory, an invalidation request signal (52) is output to the memory bus control unit, and after obtaining permission to use the memory bus, the address data is output from the first-in, first-out memory to In addition to invalidating the cache memory, when the first-in, first-out memory becomes full with address data (50) that has not been invalidated, a standby signal (51) that causes the input/output control unit to wait for the writing is sent to the common bus. An invalidation processing section (10) for outputting to the control section is provided.

〔作 用〕[For production]

DMAライト時に出力されたアドレスデータ50を先入
れ先出しメモリ (FIFOメモリ“) 11に順次格
納(蓄積)し、入出力制御装置6のDMA要求に対しそ
れ以前の無効化処理が完了していなくても許可を与える
ようにする。
The address data 50 output at the time of DMA write is sequentially stored (accumulated) in a first-in, first-out memory (FIFO memory) 11, and a DMA request from the input/output control device 6 is permitted even if the previous invalidation process has not been completed. Try to give.

無効化処理部10はFIFOメモリ11にアドレスデー
タ50が格納されたとき、メモリバス制御部4に無効化
要求信号52を出力し、メモリバス100のバス使用許
可を得てFIFOメモリ11に蓄積されているアドレス
データ50に基づいて順次無効化処理を行う。
When the address data 50 is stored in the FIFO memory 11, the invalidation processing unit 10 outputs the invalidation request signal 52 to the memory bus control unit 4, obtains permission to use the memory bus 100, and stores the address data in the FIFO memory 11. The invalidation process is performed sequentially based on the address data 50 that is currently in use.

ここで、メモリバス100が使用できない場合はFIF
Oメモリ11には無効化未処理のアドレスデータ50が
蓄積されるが、FIFOメモリ11が一杯(フル)にな
るとこれ以上アドレスデータ50を格納できないので待
機信号51を共通バス制御部7に出力し、共通バス制御
部7は待機信号51を受けて入出力制御部6からのD?
lA要求に対し許可を出さず待機させる。
Here, if the memory bus 100 cannot be used, the FIF
Address data 50 that has not been invalidated is stored in the O memory 11, but when the FIFO memory 11 becomes full, no more address data 50 can be stored, so a standby signal 51 is output to the common bus control unit 7. , the common bus control unit 7 receives the standby signal 51 and receives the D? from the input/output control unit 6.
The IA request is not granted and is left on standby.

無効化要求は通常優先順位が最も高く設定されており、
プロセッサCPU 1による他の!10装置のアクセス
が終了したとき優先的に受付られ、プロセッサCPU 
lが次にアクセスする時にはデータの不一致が解消され
る。
Invalidation requests typically have the highest priority;
Other by processor CPU 1! When the access from 10 devices is completed, it is accepted preferentially and the processor CPU
The data mismatch will be resolved the next time l accesses.

以上のごと< 、FIFOメモリ11に無効化処理のた
めのアドレスデータを蓄積し、それ以前の無効化処理が
完了していなくてもFIr’Oメモリ11がフルになる
まで入出力制御部6のDMA要求を受は付けるように構
成したため、DMA速度が改善される。
As described above, the address data for the invalidation process is stored in the FIFO memory 11, and the input/output control unit 6 is operated until the FIr'O memory 11 becomes full even if the previous invalidation process is not completed. Since the configuration is configured to accept DMA requests, the DMA speed is improved.

〔実施例〕〔Example〕

本発明の実施例を図を用いて詳細に説明する。 Embodiments of the present invention will be described in detail with reference to the drawings.

第1図は実施例のキャッシュメモリシステムブロック図
、第2図は動作例を表すタイムチャート図である。
FIG. 1 is a block diagram of a cache memory system according to an embodiment, and FIG. 2 is a time chart showing an example of operation.

第1図において、 10は無効化処理部であって、FIFOメモ1月1にア
ドレスデータ50が格納されたとき無効化要求信号(バ
ス使用要求)52をメモリバス100に出力して無効化
処理を行うとともに、FIFOメモリ11がフルになっ
たとき共通バス制御部7に待機信号51を出力する。
In FIG. 1, reference numeral 10 denotes an invalidation processing unit, which outputs an invalidation request signal (bus use request) 52 to the memory bus 100 when address data 50 is stored in the FIFO memory January 1, and performs invalidation processing. At the same time, when the FIFO memory 11 becomes full, a standby signal 51 is output to the common bus control section 7.

11は書込み順に読出しされるFIFOメモリ (先入
れ先出しメモリ)であって、データが格納されるとアク
ティブとなる出力レディ信号端子と、フルのときアクテ
ィブとなるエンプティ信号端子とを備え、共通バス10
1上に出力されたアドレスデータ50をアドレスストロ
ーブ信号(図示省略)に基づき順次格納する。
11 is a FIFO memory (first-in, first-out memory) that is read in the order of writing, and has an output ready signal terminal that becomes active when data is stored and an empty signal terminal that becomes active when it is full;
The address data 50 output on the memory card 1 are sequentially stored based on an address strobe signal (not shown).

その他企図を通じて同一符号は同一対象物を表す。The same reference numerals represent the same objects throughout the design.

以上構成において、FIFOメモリ11の出力する出力
レディ信号を無効化要求信号52とし、エンプティ信号
を待機信号51としてそれぞれメモリバス制御部4およ
び共通バス制御部7に出力する。
In the above configuration, the output ready signal output from the FIFO memory 11 is output as the invalidation request signal 52, and the empty signal is output as the standby signal 51 to the memory bus controller 4 and the common bus controller 7, respectively.

以下第2図を参照しつつ動作を説明する。The operation will be explained below with reference to FIG.

(1)  共通バス制御部7は入出力制御部6よりDM
A要求を受けたとき、待機信号51が出力されていなけ
ればDMA許可を与える。
(1) The common bus control unit 7 receives DM from the input/output control unit 6.
When a request A is received, if the standby signal 51 is not output, DMA permission is granted.

(2)  入出力制御部6はDMA許可により例えば1
バイトのデータを主メモリ5にライトする。
(2) The input/output control unit 6, for example,
Write byte data to main memory 5.

(3)  共通バス101上に出力されたDM^ライト
のアドレスデータ50がFIFOメモリ11に格納され
る。
(3) The DM^ write address data 50 output on the common bus 101 is stored in the FIFO memory 11.

(4)  無効化要求信号52がメモリバス制御部4に
出力され、メモリバス100がプロセッサlに使用され
ていなければキャッシュメモリ2に無効信号“0”が出
力されて無効化処理が行われ(第2図■)、メモリバス
100が使用中ならば無効化処理が待たされる。第2図
■ (5)この間入出力制御部6よりDMA要求が出力され
ると待機信号51が出力されていなければDMAライト
を許可し、それに基づき出力されたアドレスデータ50
がFIFOメモ1月1に格納される。
(4) The invalidation request signal 52 is output to the memory bus control unit 4, and if the memory bus 100 is not used by the processor l, the invalidation signal "0" is output to the cache memory 2 and invalidation processing is performed ( 2), if the memory bus 100 is in use, the invalidation process is made to wait. (5) During this period, when a DMA request is output from the input/output control unit 6, if the standby signal 51 is not output, DMA write is permitted, and the address data 50 is output based on it.
is stored in FIFO memo January 1st.

(6)プロセッサcpu iのアクセス終了までに上記
DMAライトによりFIFOメモリ11がフルになった
とき、待機信号51が共通バス101に出力され、以後
のDMA要求に対しては、無効化処理が行われて待機が
解除された後DMA許可が与えられる。第2図■ 以上のごとく、無効化処理のためのアドレスデータ50
をFIFOメモリ11に蓄積しておき、無効化処理の如
何にかかわらずDMA許可を与えるもので、FIFOメ
モリ11がフルになるまで0Mパライトを連続して行わ
せることができ、処理速度が向上する。
(6) When the FIFO memory 11 becomes full due to the above DMA write by the end of the access by processor cpu i, the standby signal 51 is output to the common bus 101, and invalidation processing is performed for subsequent DMA requests. DMA permission is granted after the wait is released. Figure 2■ As mentioned above, address data 50 for invalidation processing
is stored in the FIFO memory 11, and DMA permission is given regardless of whether the invalidation process is performed.0M parite can be performed continuously until the FIFO memory 11 is full, improving processing speed. .

〔発明の効果〕〔Effect of the invention〕

本発明は、無効化処理のためのアドレスデータをFIF
Oメモリに蓄積し、FIFOメそりがフルになるまで無
効化処理の如何にかかわらずDMAライトせしめるキャ
ッシュメモリ制御方式を提供するもので、キャッシュメ
モリシステムにおけるDMAの速度改善効果は多大なも
のがある。
The present invention provides address data for invalidation processing using FIF.
This provides a cache memory control method that stores data in O memory and causes DMA writes to be performed until the FIFO memory becomes full, regardless of invalidation processing, and has a significant effect on improving DMA speed in cache memory systems. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例のキャッシュメモリシステムブロック図
、 第2図は実施例の動作タイムチャート図、第3図は従来
のキャッシュメモリシステムブロック図、 第4図は従来のDMA動作タイムチャート図、第5図は
他のシステム例を表す図、 第6図はキャッシュメモリ説明図、 である。図中、 1はプロセッサcpu 。 2はキャッシュメモリ、 4はメモリバス制御部、 5は主メモリ、 6は入出力制御部、I 10装置、 7は共通バス制御部、 IOは無効化処理部、 11は先入れ先出しメモリ、FIFOメそり、50はア
ドレスデータ、 51は待機信号、 52は無効化要求信号、バス使用要求、である。
FIG. 1 is a block diagram of the cache memory system of the embodiment, FIG. 2 is an operation time chart of the embodiment, FIG. 3 is a block diagram of a conventional cache memory system, FIG. 4 is a conventional DMA operation time chart, and FIG. FIG. 5 is a diagram showing another example of the system, and FIG. 6 is an explanatory diagram of the cache memory. In the figure, 1 is a processor CPU. 2 is a cache memory, 4 is a memory bus control unit, 5 is a main memory, 6 is an input/output control unit, I10 device, 7 is a common bus control unit, IO is an invalidation processing unit, 11 is a first-in first-out memory, and a FIFO memory. , 50 is address data, 51 is a standby signal, and 52 is an invalidation request signal and a bus use request.

Claims (1)

【特許請求の範囲】 主メモリ(5)に格納されたデータの一部が転送されプ
ロセッサ(1)によりアクセスされるキャッシュメモリ
(2)と、主メモリをダイレクトメモリアクセスにより
書込み読出しする入出力制御部(6)と、該入出力制御
部が該主メモリに前記書込みしたとき出力されたアドレ
スデータ(50)に基づき対応するキャッシュメモリの
データを無効化処理する無効化処理部(10)と、該プ
ロセッサと該キャッシュメモリとが接続されたメモリバ
ス(100)のバス競合を制御するメモリバス制御部(
4)と、該主メモリと該入出力制御部とが接続された共
通バス(101)のバス競合を制御する共通バス制御部
(7)とを備えるキャッシュメモリシステムにおけるキ
ャッシュメモリ制御方式であって、 前記出力されたアドレスデータ(50)を格納する先入
れ先出しメモリ(11)と、 該先入れ先出しメモリに該アドレスデータが格納された
とき該メモリバス制御部に無効化要求信号(52)を出
力し、該メモリバスの使用許可を得た後該先入れ先出し
メモリより該アドレスデータを出力して該キャッシュメ
モリの無効化処理を行うとともに、前記先入れ先出しメ
モリが無効化未処理のアドレスデータ(50)でフルに
なったとき該入出力制御部の前記書込みを待機せしめる
待機信号(51)を該共通バス制御部に出力する無効化
処理部(10)とを設け、 該先入れ先出しメモリ(11)に無効化処理するアドレ
スデータ(50)を蓄積して該入出力制御部の主メモリ
への書込みを許可するとともに、該先入れ先出しメモリ
がフルになったとき該書込みを待機せしめることを特徴
とするキャッシュメモリ制御方式。
[Claims] A cache memory (2) to which part of the data stored in the main memory (5) is transferred and accessed by the processor (1), and input/output control for writing and reading the main memory by direct memory access. a section (6), and an invalidation processing section (10) that invalidates data in the corresponding cache memory based on the address data (50) output when the input/output control section writes to the main memory; a memory bus control unit (100) that controls bus contention on a memory bus (100) to which the processor and the cache memory are connected;
4); and a common bus control unit (7) that controls bus contention on a common bus (101) to which the main memory and the input/output control unit are connected. , a first-in, first-out memory (11) for storing the output address data (50), and outputting an invalidation request signal (52) to the memory bus control unit when the address data is stored in the first-in, first-out memory; After obtaining permission to use the memory bus, the address data is output from the first-in, first-out memory and the cache memory is invalidated, and the first-in, first-out memory becomes full with uninvalidated address data (50). and an invalidation processing section (10) that outputs a standby signal (51) to the common bus control section to cause the input/output control section to wait for the writing, and the address data to be invalidated is stored in the first-in, first-out memory (11). A cache memory control method characterized by accumulating (50) and permitting the input/output control section to write into the main memory, and making the writing standby when the first-in, first-out memory becomes full.
JP62271312A 1987-10-27 1987-10-27 Cache memory controller Expired - Fee Related JP2586061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62271312A JP2586061B2 (en) 1987-10-27 1987-10-27 Cache memory controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62271312A JP2586061B2 (en) 1987-10-27 1987-10-27 Cache memory controller

Publications (2)

Publication Number Publication Date
JPH01112451A true JPH01112451A (en) 1989-05-01
JP2586061B2 JP2586061B2 (en) 1997-02-26

Family

ID=17498295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62271312A Expired - Fee Related JP2586061B2 (en) 1987-10-27 1987-10-27 Cache memory controller

Country Status (1)

Country Link
JP (1) JP2586061B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309230A (en) * 1993-04-23 1994-11-04 Hitachi Ltd Bus snooping method
US6345320B1 (en) 1998-03-20 2002-02-05 Fujitsu Limited DMA address buffer and cache-memory control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309230A (en) * 1993-04-23 1994-11-04 Hitachi Ltd Bus snooping method
US6345320B1 (en) 1998-03-20 2002-02-05 Fujitsu Limited DMA address buffer and cache-memory control system

Also Published As

Publication number Publication date
JP2586061B2 (en) 1997-02-26

Similar Documents

Publication Publication Date Title
US5463753A (en) Method and apparatus for reducing non-snoop window of a cache controller by delaying host bus grant signal to the cache controller
US6708257B2 (en) Buffering system bus for external-memory access
KR100243964B1 (en) Multiprocessor system having shared memory divided into a plurality of banks with access queues corresponding to each bank
US5893153A (en) Method and apparatus for preventing a race condition and maintaining cache coherency in a processor with integrated cache memory and input/output control
US5283886A (en) Multiprocessor cache system having three states for generating invalidating signals upon write accesses
US5524235A (en) System for arbitrating access to memory with dynamic priority assignment
EP0203993B1 (en) Queue administration method and apparatus
KR100194253B1 (en) How to Use Mesh Data Coherency Protocol and Multiprocessor System
US5918069A (en) System for simultaneously writing back cached data via first bus and transferring cached data to second bus when read request is cached and dirty
US6754779B1 (en) SDRAM read prefetch from multiple master devices
JPH11328106A (en) Computer system equipped with arbitration mechanism enabling multiple bus masters for access to graphic bus
US7406571B2 (en) Memory system and method for controlling the same, and method for maintaining data coherency
US20030088737A1 (en) Bandwidth enhancement for uncached devices
JPH01112451A (en) System for controlling cash memory
CA1299767C (en) Cache memory control system
JPH02110646A (en) Pre-readout device for memory
JP3425421B2 (en) Multiprocessor system
JP2001043204A (en) Cache memory controller
JP2001229074A (en) Memory controller and information processor and memory control chip
JPH0784971A (en) Computer system
JPH0612363A (en) Memory controller and multiprocessor system
JPH0414160A (en) Microprocessor applied device
JPH04160543A (en) Cache device
JPS6215644A (en) Cache memory control circuit
JPH0457145A (en) Multiprocessor system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees