JPH0421044A - One-chip cache memory - Google Patents

One-chip cache memory

Info

Publication number
JPH0421044A
JPH0421044A JP2124965A JP12496590A JPH0421044A JP H0421044 A JPH0421044 A JP H0421044A JP 2124965 A JP2124965 A JP 2124965A JP 12496590 A JP12496590 A JP 12496590A JP H0421044 A JPH0421044 A JP H0421044A
Authority
JP
Japan
Prior art keywords
data
block
memory
bus
cache memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2124965A
Other languages
Japanese (ja)
Inventor
Fumihiko Terayama
寺山 文彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2124965A priority Critical patent/JPH0421044A/en
Publication of JPH0421044A publication Critical patent/JPH0421044A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To obtain a high hit rate by providing a pre-fetch means for deciding a bus access type, and executing a pre-fetch of the number of times which is set at every bus access type. CONSTITUTION:A directory 3 and a block load buffer 4 are referred to by a CPU address 2, and in the case of a cache miss, use of a memory bus is requested through a system bus interface 7, and data is fetched from a main memory. In this case, while the memory bus is being accessed, a pre-fetcher 11 refers to the next block of the directory 3, and in the case of a cache miss, a bus use request is outputted to the system bus interface 7 and a fetch of the next block is executed. Subsequently, by a bus access type signal 12 received together with the CPU address 2, the number of pre-fetch blocks is varied. In such a way, by setting the corresponding optimal pre-fetch blocks at every bus access type, a high hit rate can be obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、1チップキャッシュメモリの改良に関する
ものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] This invention relates to an improvement in a one-chip cache memory.

〔従来の技術〕[Conventional technology]

第2図は例えばCQ出版社刊行の雑誌「インターフェー
スJ 19B7年8月号のpp241−257に掲載さ
れた論文「1チツプ・キャッシュ・メモリμPD436
08Rの概要と活用法」に示された、従来の1チップキ
ャッシュメモリの構成を示すブロック図である。
Figure 2 shows, for example, the article "1-chip cache memory μPD436" published in the August 19B7 issue of the magazine "Interface J" published by CQ Publishing Co., Ltd., pp.241-257.
FIG. 2 is a block diagram showing the configuration of a conventional one-chip cache memory shown in "Overview and Utilization of 08R".

第3図は第2図に示された1チップキャッシュメモリμ
PD43608Rのメモリブロック構成を示す図である
Figure 3 shows the one-chip cache memory μ shown in Figure 2.
It is a diagram showing a memory block configuration of PD43608R.

第2図において、2はCPUアドレス、3はディレクト
リ、4はブロックロードバッファ、5はデータブロック
、6はCPUデータ、7はシステムバスインターフェー
ス、8はブロックアドレスジエレネータ、9は入力ラッ
チ、10はバイパスバッファ、11はブリフエツチャ、
13はCPUバスインターフェース、14はL RU 
(Least Recently Used)である。
In FIG. 2, 2 is a CPU address, 3 is a directory, 4 is a block load buffer, 5 is a data block, 6 is CPU data, 7 is a system bus interface, 8 is a block address generator, 9 is an input latch, 10 is a bypass buffer, 11 is a brief fetcher,
13 is CPU bus interface, 14 is LRU
(Least Recently Used).

次に動作について説明する。1チップキャッシュメモリ
は、CPUからの要求に応じてメインメモリのデータを
記憶し、CPUからのアクセスに対しメインメモリに代
わってそのデータの読み出し/書き込みを高速に行うも
のである。CPUからのメモリアクセスには局所性があ
り、CPUからの要求でキャッシュメモリに記憶された
データは、近い将来再びアクセスされる可能性が高い。
Next, the operation will be explained. A one-chip cache memory stores data in main memory in response to a request from a CPU, and reads/writes the data at high speed in place of the main memory when accessed by the CPU. Memory access from the CPU has locality, and data stored in the cache memory upon request from the CPU is highly likely to be accessed again in the near future.

また、アクセスされたデータの近傍のデータが再びアク
セスされる可能性も高い、そのため、いったんアクセス
されたデータとその近傍のデータをキャッシュメモリ番
こ記憶すると、CPUとキャッシュメモリの間でデータ
がやりとりされるのでCPUの高速メモリアクセスが実
現される。
In addition, there is a high possibility that data near the accessed data will be accessed again. Therefore, once the accessed data and the data near it are stored in the cache memory, data is exchanged between the CPU and the cache memory. Therefore, high-speed memory access by the CPU is realized.

CPUが1チップキャッシュメモリをアクセスしたとき
、データが存在すればキャツシュヒツト、存在しない場
合をキャッシュミスと言う。キャツシュヒツトの場合、
キャッシュメモリから高速にデータが読みだされる。キ
ャッシュミスの場合、CPUが要求するワードを含むデ
ータのかたまりをメインメモリからキャッシュメモリに
取り込み(フェッチ動作)、次回からのCPUアクセス
に備える。このキャッシュメモリとメインメモリの情報
転送の単位であるデータのかたまりをブロックと呼び、
その大きさをブロックサイズと言う。
When the CPU accesses the 1-chip cache memory, if data exists, it is called a cache hit, and if data does not exist, it is called a cache miss. In the case of Catschcht,
Data is read from cache memory at high speed. In the case of a cache miss, a data block containing the word requested by the CPU is fetched from the main memory into the cache memory (fetch operation) in preparation for the next CPU access. This block of data, which is the unit of information transfer between cache memory and main memory, is called a block.
This size is called the block size.

キャッシュメモリ中にそのブロックを記憶する空きスペ
ースがなければ、現在ある古いブロックのどれかを追い
出す(リプレース動作)。
If there is no free space in the cache memory to store that block, one of the existing old blocks is evicted (replace operation).

次に従来の1チップキャッシュメモリのメモリ構成と動
作について説明する。第3図は第2図のデータブロック
5.ディレクトリ3.LRU14の3ブロツクよりなる
4ウエイセツトアソシアテイブのメモリ構成を示す、デ
ータブロック5はメインメモリのデータを保持するメモ
リ部である。
Next, the memory configuration and operation of a conventional one-chip cache memory will be explained. FIG. 3 shows data block 5. of FIG. 2. Directory 3. A data block 5, which shows a four-way set associative memory configuration consisting of three blocks of the LRU 14, is a memory section that holds data in the main memory.

ディレクトリ3はデータブロックの各データに対応する
アドレスの格納場所であるアドレスタグと格納データが
有効か無効かを示すバリッドピットより成る。LRU1
4は4ウエイの各データがCPUからアクセスされた古
さの情報を格納する。
The directory 3 consists of an address tag that is a storage location for an address corresponding to each data block and a valid pit that indicates whether the stored data is valid or invalid. LRU1
4 stores information on how old each 4-way data was accessed from the CPU.

CPUはメモリブロック中のデータをアドレスでアクセ
スする。第3図に示されるようにアクセスアドレスは上
述のアドレスタグ、主記憶からキャッシュにロードされ
たデータブロック内のアドレスを示すセットセレクト、
データブロックのワード選択情報であるワードセレクト
の3部分に分けられる。アクセスアドレスのセットセレ
クトによってアドレスタグとバリッドピットがディレク
トリから選択されて読みだされる。同じくデータブロッ
クからはブロックが選択されて読みだされる。アクセス
アドレスの上位部であるアドレスタグは、セットセレク
トで選択されたディレクトリ中のアドレスタグ部の内容
と比較される。
The CPU accesses data in memory blocks using addresses. As shown in FIG. 3, the access address includes the above-mentioned address tag, a set select indicating the address within the data block loaded from main memory to the cache,
It is divided into three parts: word select, which is word selection information for a data block. Address tags and valid pits are selected and read from the directory by access address set selection. Similarly, a block is selected from the data blocks and read out. The address tag, which is the upper part of the access address, is compared with the contents of the address tag part in the directory selected by set select.

4ウ工イセツトアソシアテイブ方式では、1つのセット
セレクトに対して最大4個までのアドレスタグが同時に
記憶される。従って、ヒツト/ミス判定時にはあるセッ
トセレクトに対して同時に4個のアドレスタグを参照比
較することになる。
In the 4-way set associative method, up to four address tags are stored simultaneously for one set select. Therefore, when making a hit/miss determination, four address tags are simultaneously referenced and compared for a certain set selection.

バリッドピットは記憶している各アドレスタグの有効性
を示し、ヒツト/ミス判定時に有効がどぅかのチエツク
を行う、4つのウェイは並行して同じ動作を行い、ディ
レクトリから読みだされたアドレスタグとアクセスアド
レスのアドレスタグ部との比較を4ウ工イ同時に行いヒ
ット/ミスの判定を行う、一方、読みだされたデータブ
ロックはワードセレクトによってワードが選択され、最
後にヒツト判定からどのウェイがヒツトしたかを示すウ
ェイ選択信号をもらい、一つのワードが決定される。
The valid pit indicates the validity of each address tag stored in memory, and checks whether it is valid during hit/miss judgment.The four ways perform the same operation in parallel, and the address read from the directory is checked. The tag and the address tag part of the access address are compared simultaneously in four ways to determine hit/miss.On the other hand, the word of the read data block is selected by word select, and finally, from the hit determination, it is determined which way it is. One word is determined by receiving a way selection signal indicating whether or not the word has been hit.

次にフェッチ方式について説明する。1チップキャッシ
ュメモリではオン・デマンド方式と、ブリフェッチ・オ
ン・ミス方式のフェッチアルゴリズムをそれぞれサポー
トしている。オン・デマンド方式はあるブロックが必要
となった時点(キャシュミスした時点)で1チップキャ
ッシュメモリにメインメモリ内容をブロック単位でフェ
ッチする方式である。一方、ブリフェッチ・オン・ミス
方式では、キャッシュミス発生時にアクセスされたブロ
ックをフェッチした後、アクセスされたブロックの次の
ブロックのキャシュヒツト/ミスをチエツクし、次のブ
ロックがキャシュミスであればそのブロックもフェッチ
する方式である。
Next, the fetch method will be explained. The 1-chip cache memory supports on-demand and brief-fetch-on-miss fetch algorithms. The on-demand method is a method in which the contents of the main memory are fetched block by block into the 1-chip cache memory when a certain block is needed (at the time of a cache miss). On the other hand, in the brifetch-on-miss method, after fetching the block that was accessed when a cache miss occurred, the cache hit/miss of the block next to the accessed block is checked, and if the next block is a cache miss, then the cache hit/miss is checked. This method also fetches blocks.

キャシュメモリの性能を示すには、一般にヒツト率が使
われる。ヒツト率とは、CPUからのメモリアクセスに
対し、キャシュメモリ内にそのアクセスデータが存在す
る確率である。
Hit rate is generally used to indicate the performance of cache memory. The hit rate is the probability that accessed data exists in the cache memory with respect to a memory access from the CPU.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の1チンプキヤツシユメモリは以上のように構成さ
れているので、ブリフェッチするブロック数は1つと固
定である。ところで、一般のプログラムではデータと命
令でアドレス連続性が異なる。命令はアドレスの連続性
が高くブリフェッチ数を増やすと高いヒツト率を期待で
きるが、データはアドレスが離散的でブリフェッチ数を
増やしてもヒツト率向上はあまりにも期待できない。シ
ステムパフォーマンスを最高にするためには、ブリフェ
ッチロック数をデータと命令で別々に選択する必要があ
る。
Since the conventional 1-chimp cache memory is configured as described above, the number of blocks to be pre-fetched is fixed at one. By the way, in general programs, address continuity differs between data and instructions. Instructions have highly continuous addresses, so if you increase the number of briefetches, you can expect a high hit rate, but data has discrete addresses, so even if you increase the number of briefetches, you can't expect much improvement in the hit rate. To maximize system performance, the number of briefetch locks must be selected separately for data and instructions.

この発明は、上記のような問題点を解消するためになさ
れたもので、システムパフォーマンスを最高にすること
ができる1チップキャッシュメモリを得ることを目的と
する。
The present invention was made to solve the above-mentioned problems, and aims to provide a one-chip cache memory that can maximize system performance.

〔課題を解決するため手段〕[Means to solve the problem]

この発明に係る1チップキャッシュメモリは、バスアク
セスタイプを判定して、バスアクセスタイプ毎に設定さ
れた回数のプリフエ・ノチを実行するブリフェッチ手段
を備えたものである。
The one-chip cache memory according to the present invention includes a brief fetch means for determining a bus access type and executing prefetching a preset number of times for each bus access type.

〔作用〕[Effect]

この発明における1チップキャッシュメモリは、命令と
データのようなバスアクセスタイプ毎に対応してブリフ
ェッチブロック数を変更するようにしたので、バスアク
セスタイプ毎に対応した最適のブリフェッチブロック数
により高ヒ・ント率を得ることができる。
In the one-chip cache memory of this invention, the number of briefetch blocks is changed corresponding to each bus access type such as instruction and data, so the number of briefetch blocks is adjusted to the optimal number of briefetch blocks corresponding to each bus access type. You can get the hint rate.

〔実施例〕〔Example〕

以下、この発明の一実施例を図について説明する。第1
図は本発明の一実施例による1チ・ノブキャッシュメモ
リを示し、図において、lはlチップキャッシュメモリ
、2はCPUアドレス、3はディレクトリ、4はブロッ
クロードバッファ、5はデータブロック、6はCPUデ
ータ、7はシステムバスインターフェース、8はブロッ
クアドレスジェネレータ、9は入力ラッチ、10はバイ
パスバッファ、11はブリフェッチ中、12はバスアク
セスタイプ信号である。
An embodiment of the present invention will be described below with reference to the drawings. 1st
The figure shows a one-chip cache memory according to an embodiment of the present invention, in which l is l-chip cache memory, 2 is a CPU address, 3 is a directory, 4 is a block load buffer, 5 is a data block, and 6 is a CPU data, 7 is a system bus interface, 8 is a block address generator, 9 is an input latch, 10 is a bypass buffer, 11 is a briefetch in progress, and 12 is a bus access type signal.

また、第4図に本実施例のバスアクセスタイプを示す。Further, FIG. 4 shows the bus access type of this embodiment.

次に1チップキャッシュメモリ1のリードアクセス動作
について説明する。1チップキャッシュメモリ1は、C
PUアドレス2によりディレクトリ3およびブロックロ
ードバッファ4を参照し、ここでキャツシュヒツトすれ
ばデータブロック5からCPUデータバス6にデータを
出力する。ブロックロードバッファ4を参照するのは、
ブロックロードバッファ4に1ブロツクのデータがそろ
った時点でデータブロック5に書き込まれるため、デー
タブロック5にデータがなくてもブロックロードバッフ
ァ4に存在する可能性があるためである。キャンシュミ
スすればシステムバスインターフェース7を通しメモリ
バスの使用を要求し、メモリバスの使用が許可されると
バスアクセスを開始してブロックアドレスジェネレータ
8が生成したアドレスによりメインメモリからデータを
フェッチする。メインメモリからのフェッチデータは入
力ラッチ9からブロックロードバッファ4とバイパスバ
ッファ10に渡される。バイパスバッファ10はそのデ
ータをCPtJデータバス6に出力し、CPUにデータ
出力完了を通知する。引き続きブロックロードバッファ
4はデータを受取り、1ブロツク分のデータフェッチを
完了するとブロックアドレスジェネレータ8が発生する
アドレスによりデータブロックのデータ更新を行う。ま
たこの時、メモリバスをアクセスしている間にブリフェ
ッチ中11はディレクトリ3の次のブロックを参照する
。キャツシュヒツトであれば何もしないが、キャッシュ
ミスであればシステムバスインターフェース7にバス使
用要求を出し次のブロックのフェッチを行う。この時、
CPUアドレスとともに受は取ったバスアクセスタイプ
信号12によりブリフェッチブロック数を変える。
Next, a read access operation of the one-chip cache memory 1 will be explained. 1-chip cache memory 1 is C
The directory 3 and the block load buffer 4 are referred to using the PU address 2, and if a cash hit is made here, the data is output from the data block 5 to the CPU data bus 6. To refer to block load buffer 4,
This is because the data is written to the data block 5 when one block of data is available in the block load buffer 4, so even if there is no data in the data block 5, there is a possibility that the data exists in the block load buffer 4. If there is a cache miss, a request is made to use the memory bus through the system bus interface 7, and when use of the memory bus is permitted, bus access is started and data is fetched from the main memory using the address generated by the block address generator 8. Fetch data from main memory is passed from input latch 9 to block load buffer 4 and bypass buffer 10. The bypass buffer 10 outputs the data to the CPtJ data bus 6 and notifies the CPU of completion of data output. Subsequently, the block load buffer 4 receives data, and when the data fetch for one block is completed, the data of the data block is updated using the address generated by the block address generator 8. Also, at this time, the briefetching 11 refers to the next block in the directory 3 while accessing the memory bus. If it is a cache hit, nothing is done, but if it is a cache miss, a bus usage request is sent to the system bus interface 7 to fetch the next block. At this time,
The number of briefetch blocks is changed by the bus access type signal 12 received along with the CPU address.

第4図に示されるようにバスアクセスタイプがデータで
あれば1ブロツクのブリフェッチを行い、命令であれば
2ブロツクのブリフェッチを行う。
As shown in FIG. 4, if the bus access type is data, one block is briefetched, and if it is an instruction, two blocks are briefetched.

バスアクセスタイプが命令、データ以外であればキャッ
シングしない、命令、データ以外のバスアクセスタイプ
には、割り込み応答サイクル、あるいはコプロセッササ
イクルがある。最終的に、キャッシュミスしたブロック
と引き続(設定されたプリフェッチブロック数分のブロ
ックがフェッチされデータブロック5に書き込まれる。
Bus access types other than instructions and data are not cached. Bus access types other than instructions and data include interrupt response cycles and coprocessor cycles. Finally, blocks corresponding to the set number of prefetch blocks are fetched and written to the data block 5 following the block that caused the cache miss.

プリフェッチ終了後、再び1チツプキ中ツシユメモリは
アクセスを受は入れる状態となりリードアクセス、ライ
トアクセスを受は付ける。
After the prefetch is completed, the memory during one chip is again in a state where it accepts accesses, and accepts read accesses and write accesses.

〔発明の効果〕〔Effect of the invention〕

以上のように、この発明によれば、バスアクセスタイプ
に応じて1チップキャッシュメモリのブリフェッチブロ
ック数が変わるように構成したので、ヒツト率の高い1
チツプキ中ツシユメモリが得られる効果がある。
As described above, according to the present invention, since the number of briefetch blocks in one chip cache memory is configured to vary depending on the bus access type,
It has the effect of gaining memory during chipping.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例である1チツプメモリのブ
ロック構成図、第2図は従来の1チップキャッシュメモ
リのブロック構成図、第3図は第2図に示した1チップ
キャッシュメモリのメモリ構成図、第4図はこの発明の
一実施例である1チップキャッシュメモリのバスアクセ
スタイプを示す図である。 第1図において、1は1チップキャッシュメモリ、2は
CPUアドレス、3はディレクトリ、4はブロックロー
ドバッファ、5はデータブロック、6はCPUデータ、
7はシステムバスインターフェース、8はブロックアド
レスジェネレータ、9は入力ラッチ、10はバイパスバ
ッファ、11はブリフェッチヤ、12はバスアクセスタ
イプ信号、13はCPUバスインターフェース、14は
LRUである。 なお図中同一符号は同−又は相当部分を示す。
FIG. 1 is a block configuration diagram of a 1-chip memory that is an embodiment of the present invention, FIG. 2 is a block configuration diagram of a conventional 1-chip cache memory, and FIG. 3 is a memory block diagram of a 1-chip cache memory shown in FIG. 2. The configuration diagram, FIG. 4, is a diagram showing bus access types of a one-chip cache memory that is an embodiment of the present invention. In FIG. 1, 1 is one chip cache memory, 2 is a CPU address, 3 is a directory, 4 is a block load buffer, 5 is a data block, 6 is CPU data,
7 is a system bus interface, 8 is a block address generator, 9 is an input latch, 10 is a bypass buffer, 11 is a briefetcher, 12 is a bus access type signal, 13 is a CPU bus interface, and 14 is an LRU. Note that the same reference numerals in the figures indicate the same or equivalent parts.

Claims (1)

【特許請求の範囲】[Claims] (1)1チップキャッシュメモリにおいて、CPUのア
クセスアドレスを保持する手段と、主記憶からキャッシ
ュにロードされたデータブロック内のアドレスを示す、
前記アクセスアドレス中の第1のセットセレクトを増加
して第2のセットセレクトを得る手段と、 該第2のセットセレクトによりキャッシュメモリアクセ
スを行い、ヒットあるいはミスを判定し、ミス判定時メ
インメモリよりデータをフェッチする手段と、 CPUのバスアクセスタイプを判定する手段と、前記第
2のセットセレクトを増加する回数を前記CPUアクセ
スアドレスのバスアクセスに応じて変更する手段とを備
えたことを特徴とする1チップキャッシュメモリ。
(1) In a one-chip cache memory, means for holding a CPU access address and an address within a data block loaded from the main memory to the cache;
means for increasing a first set select in the access address to obtain a second set select; accessing the cache memory using the second set select, determining a hit or a miss; The present invention is characterized by comprising means for fetching data, means for determining a CPU bus access type, and means for changing the number of times the second set select is increased in accordance with the bus access of the CPU access address. 1-chip cache memory.
JP2124965A 1990-05-14 1990-05-14 One-chip cache memory Pending JPH0421044A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2124965A JPH0421044A (en) 1990-05-14 1990-05-14 One-chip cache memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2124965A JPH0421044A (en) 1990-05-14 1990-05-14 One-chip cache memory

Publications (1)

Publication Number Publication Date
JPH0421044A true JPH0421044A (en) 1992-01-24

Family

ID=14898602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2124965A Pending JPH0421044A (en) 1990-05-14 1990-05-14 One-chip cache memory

Country Status (1)

Country Link
JP (1) JPH0421044A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6085287A (en) * 1997-12-30 2000-07-04 Genesis One Technologies, Inc. Method and apparatus for enhancing the disk cache process by dynamically sizing prefetch data associated with read requests based upon the current cache hit rate
US6334173B1 (en) 1997-11-17 2001-12-25 Hyundai Electronics Industries Co. Ltd. Combined cache with main memory and a control method thereof
EP1622029A2 (en) * 2004-07-30 2006-02-01 Fujitsu Limited Memory control device, move-in buffer control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334173B1 (en) 1997-11-17 2001-12-25 Hyundai Electronics Industries Co. Ltd. Combined cache with main memory and a control method thereof
US6085287A (en) * 1997-12-30 2000-07-04 Genesis One Technologies, Inc. Method and apparatus for enhancing the disk cache process by dynamically sizing prefetch data associated with read requests based upon the current cache hit rate
EP1622029A2 (en) * 2004-07-30 2006-02-01 Fujitsu Limited Memory control device, move-in buffer control method
JP2006048181A (en) * 2004-07-30 2006-02-16 Fujitsu Ltd Storage controller, move-in buffer control method and program
EP1622029A3 (en) * 2004-07-30 2006-08-09 Fujitsu Limited Memory control device, move-in buffer control method
US7451274B2 (en) 2004-07-30 2008-11-11 Fujitsu Limited Memory control device, move-in buffer control method

Similar Documents

Publication Publication Date Title
US5586295A (en) Combination prefetch buffer and instruction cache
US5603004A (en) Method for decreasing time penalty resulting from a cache miss in a multi-level cache system
EP0637800B1 (en) Data processor having cache memory
KR100278328B1 (en) Cache miss buffer
US5499355A (en) Prefetching into a cache to minimize main memory access time and cache size in a computer system
EP0695996B1 (en) Multi-level cache system
US5091851A (en) Fast multiple-word accesses from a multi-way set-associative cache memory
US5828860A (en) Data processing device equipped with cache memory and a storage unit for storing data between a main storage or CPU cache memory
US7047362B2 (en) Cache system and method for controlling the cache system comprising direct-mapped cache and fully-associative buffer
JPH0347540B2 (en)
JPH0628180A (en) Prefetch buffer
US8621152B1 (en) Transparent level 2 cache that uses independent tag and valid random access memory arrays for cache access
JPH09160827A (en) Prefetch of cold cache instruction
US5367657A (en) Method and apparatus for efficient read prefetching of instruction code data in computer memory subsystems
US5926841A (en) Segment descriptor cache for a processor
US7949833B1 (en) Transparent level 2 cache controller
WO1997034229A9 (en) Segment descriptor cache for a processor
JP2001249846A (en) Cache memory device and data processing system
JPH0421044A (en) One-chip cache memory
US6081853A (en) Method for transferring burst data in a microprocessor
JPH06243037A (en) Data look-ahead device
JPH0421043A (en) One-chip cache memory
KR20040047398A (en) Method for data access using cache memory
JP3284508B2 (en) Data prefetch control device
JPH02301843A (en) Pre-fetch controlling system