JP3082684B2 - Cache memory - Google Patents

Cache memory

Info

Publication number
JP3082684B2
JP3082684B2 JP08282122A JP28212296A JP3082684B2 JP 3082684 B2 JP3082684 B2 JP 3082684B2 JP 08282122 A JP08282122 A JP 08282122A JP 28212296 A JP28212296 A JP 28212296A JP 3082684 B2 JP3082684 B2 JP 3082684B2
Authority
JP
Japan
Prior art keywords
management area
cache memory
data storage
index
storage area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08282122A
Other languages
Japanese (ja)
Other versions
JPH10124390A (en
Inventor
修三 和田崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP08282122A priority Critical patent/JP3082684B2/en
Publication of JPH10124390A publication Critical patent/JPH10124390A/en
Application granted granted Critical
Publication of JP3082684B2 publication Critical patent/JP3082684B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【発明の属する技術分野】本発明は、キャッシュメモリ
に関する。
[0001] The present invention relates to a cache memory.

【0001】[0001]

【従来の技術】従来の情報処理装置においては、ヒット
率向上のため二種類のキャッシュメモリ、すなわち、セ
ットアソシアティブ型キャッシュメモリおよびフルアソ
シアティブ型キャッシュメモリが使われている。セット
アソシアティブ型キャッシュでは、一つのインデックス
に対して一つのラインが割り付けられる。また、同一イ
ンデックスに対し複数のエントリを登録可能とするた
め、上記構成を複数個持つことが可能である。そのた
め、ヒット率は、エントリ数を増加させることにより、
ある程度向上させることが可能であるが、あらゆるジョ
ブに対してヒット率を上げるためには、最終的には、容
量の増量のみがその対応手段となる。
2. Description of the Related Art In a conventional information processing apparatus, two types of cache memories, namely, a set associative type cache memory and a full associative type cache memory are used to improve a hit ratio. In the set associative cache, one line is allocated to one index. Further, since a plurality of entries can be registered for the same index, it is possible to have a plurality of the above configurations. Therefore, the hit rate is increased by increasing the number of entries.
Although it can be improved to some extent, in order to increase the hit rate for all jobs, finally, only an increase in the capacity is the corresponding means.

【0002】しかし、実際には、ミスヒットの多いイン
デックスに対しても、アクセスが比較的少ないインデッ
クスに対しても等しい容量を提供しなければならないた
め容量増量の投資効果は低いと言える。フルアソシアテ
ィブ型キャッシュメモリでは、セットアソシアティブ型
キャッシュメモリに比べ、そのエントリがインデックス
によらず自由なため、同一容量では最高のヒット率を期
待できる。しかし、ヒット/ミスヒット判定を行うため
には全てのエントリに対し比較をしなければならず、動
作速度やハードウェア量が問題となる。
However, in practice, it is necessary to provide the same capacity for an index having many misses and for an index having a relatively small access, so that it can be said that the investment effect of increasing the capacity is low. In the full associative cache memory, the entry is free irrespective of the index as compared to the set associative cache memory, so that the highest hit rate can be expected with the same capacity. However, in order to make a hit / miss hit determination, all entries must be compared, and the operation speed and the amount of hardware become problems.

【0003】[0003]

【発明が解決しようとする課題】近年、マイクロプロセ
ッサの速度や性能の向上は目覚しいものがある。しか
し、皮肉なことに、メモリの速度向上は緩やかで、情報
処理装置としてのパフォーマンスは、マイクロプロセッ
サの性能向上ほどは上がらない。この速度差を埋めるた
めに、マイクロプロセッサと同等の応答速度を持つメモ
リの一部のコピーという概念でキャッシュメモリが考案
され飛躍的な性能の向上を見せたのだが、ここにきてキ
ャッシュメモリのミスヒット時に介間見るメモリの転送
速度が性能を著しく低下させていることが問題となりつ
つある。すなわち、キャッシュメモリのヒット率の向上
が情報処理装置全体の性能の向上への近道といえる。
In recent years, the speed and performance of microprocessors have been remarkably improved. Ironically, however, the speed improvement of the memory is slow, and the performance of the information processing device is not as high as that of the microprocessor. In order to bridge this speed difference, cache memory was devised based on the concept of copying a part of memory having the same response speed as a microprocessor, and showed a dramatic improvement in performance. It is becoming a problem that the transfer speed of the memory to be seen at the time of a mishit significantly lowers the performance. That is, it can be said that improving the hit rate of the cache memory is a shortcut to improving the performance of the entire information processing apparatus.

【0004】しかし、キャッシュメモリに要求される速
度は、マイクロプロセッサ並で、アクセス時間を考える
とチップ内に持つことが理想なのだが、チップ内に大容
量のキャッシュメモリを搭載することは難しく、小容量
であるのが一般的であるがため、高ヒット率を期待する
のは難しい。このため、ハードウェア量が少なく、小容
量で、高ヒット率の期待できるキャッシュメモリが必要
とされている。
[0004] However, the speed required for the cache memory is the same as that of a microprocessor, and it is ideal that the cache memory be provided in a chip in consideration of the access time. However, it is difficult to mount a large-capacity cache memory in the chip. Since the capacity is generally used, it is difficult to expect a high hit rate. For this reason, there is a need for a cache memory having a small amount of hardware, a small capacity, and a high hit rate.

【0005】本発明の目的は、高速なマイクロプロセッ
サにも組み込め、従来のセットアソシアティブ型キャッ
シュメモリの構成を踏襲しながらも、キャッシュメモリ
のミスヒット回数により一つのインデックスが登録でき
るライン数を増減でき、また、ミスヒット回数に対する
閾値をソフト的に設定できるようにすることにより小容
量でも高ヒット率を達成できるキャッシュメモリを提供
することにある。
It is an object of the present invention to increase or decrease the number of lines in which one index can be registered depending on the number of cache misses, while being able to be incorporated in a high-speed microprocessor and following the structure of a conventional set-associative cache memory. Another object of the present invention is to provide a cache memory capable of achieving a high hit ratio even with a small capacity by enabling a threshold value for the number of mishits to be set by software.

【0006】[0006]

【課題を解決するための手段】本発明のキャッシュメモ
リは、アドレス内のインデックスに対して、一つのイン
デックスが登録可能なエントリの数をキャッシュメモリ
のミス回数と、ソフト的に設定した閾値とに基づき可変
できる。
According to the cache memory of the present invention, for an index in an address, the number of entries in which one index can be registered is determined by the number of cache memory misses and a threshold set by software. It can be changed based on.

【0007】[0007]

【発明の実施の形態】次に本発明の実施の形態について
図面を参照して詳細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0008】図1を参照すると、本発明の実施の形態
は、マイクロプロセッサ108と、外部メモリ109と
から構成される。マイクロプロセッサ108は、アドレ
スレジスタ部101と、データレジスタ部102と、第
一のアドレスアレイ部103と、第二のアドレスアレイ
部104と、データアレイ部105と、ウェイ内LRU
(Least Recently Used)ロジック
部106と、ウェイ間LRUロジック部107とを備え
る。
Referring to FIG. 1, the embodiment of the present invention comprises a microprocessor 108 and an external memory 109. The microprocessor 108 includes an address register unit 101, a data register unit 102, a first address array unit 103, a second address array unit 104, a data array unit 105, and an in-way LRU.
A (Least Recently Used) logic unit 106 and an inter-way LRU logic unit 107 are provided.

【0009】第一のアドレスアレイ部103は、インデ
ックスの個数分のオフセット信号と、インデックスの下
位ビットである隠しビットをライン数分有する。第二の
アドレスアレイ部104は従来のキャッシュメモリと同
様にタグを保持する。データアレイ部105は、各アド
レスアレイに対応するメモリ上のデータを記憶する。ウ
ェイ数が複数の場合のウェイ間LRUロジック部107
は、キャッシュミス時にどのウェイを更新するかを決定
し、ウェイ内LRUロジック部106はロジック部10
7により決定されたウェイ内でアドレスアレイ部103
での登録を増やすかどうかを決定する。
The first address array section 103 has offset signals for the number of indexes and hidden bits as lower bits of the index for the number of lines. The second address array unit 104 holds a tag as in a conventional cache memory. The data array unit 105 stores data on a memory corresponding to each address array. Inter-way LRU logic unit 107 when the number of ways is plural
Determines which way is updated when a cache miss occurs, and the in-way LRU logic unit 106
7 within the way determined by the address array unit 103.
Decide if you want to increase registrations in.

【0010】本実施の形態の動作をロード系命令とスト
ア系命令の各々について説明する。まず、ロード系命令
の場合、レジスタ部101にアドレスが与えられる。こ
のアドレス内のインデックス部によりアドレスアレイ部
103を検索する。その時、まず、登録が固定のライン
を検索し、オフセット値を得る。このオフセット値によ
り、入力されたインデックス部がどのラインに登録され
ているかがわかる。
The operation of this embodiment will be described for each of a load instruction and a store instruction. First, in the case of a load instruction, an address is given to the register unit 101. The address array unit 103 is searched by the index part in the address. At that time, first, a line whose registration is fixed is searched to obtain an offset value. From this offset value, it is possible to know in which line the input index portion is registered.

【0011】図2にアレイ部103と104の内容の一
例を示す。アレイ部104はインデックス“0”,
“1”,“2”と、一つ置きに固定で使用できるように
割り当て、間のラインはそのラインを挟むインデックス
で使用可能とする。アレイ部103の右側は各ラインの
隠しビットを保持し、左側は各インデックスに対してど
のラインに登録をしているかを示すオフセット値を保持
する。例えば、最大数の3ラインを使用している場合は
“111”とし、1ラインのみの場合は“010”、2
ラインの上下どちらかも1の位置により“110”と
“011”で区別できるようにする。図では初期値を設
定している。
FIG. 2 shows an example of the contents of the array units 103 and 104. The array unit 104 has an index “0”,
"1" and "2" are assigned so that they can be used in a fixed manner every other line, and a line between them can be used with an index sandwiching the line. The right side of the array unit 103 holds hidden bits of each line, and the left side holds an offset value indicating which line is registered for each index. For example, when the maximum number of three lines is used, “111” is set. When only one line is used, “010” is set.
Either “110” or “011” can be distinguished depending on the position of 1 at either the top or bottom of the line. In the figure, initial values are set.

【0012】このオフセット信号により、インデックス
が使用しているラインの隠しビットを読み出してレジス
タ部101のアドレスのそれと比較する。インデックス
に対し固定ラインを割り当てる間隔と、オフセットのビ
ット幅は重要な因果関係にあり、それらはソフト的には
不変でありハードウェア量に関与してくる。
According to the offset signal, the hidden bit of the line used by the index is read and compared with the address of the register 101. The interval at which fixed lines are allocated to the index and the bit width of the offset have an important causal relationship, and they are invariant in software and involve the amount of hardware.

【0013】また、上記の設定により一つのインデック
スが使用できるライン数が決定される。この例の場合、
一つのインデックスに対し最大3ライン使用可能なの
で、3個の比較器を必要とする。また、隠しビットと同
様にしてオフセット信号よりアレイ部104を検索し、
タグを比較して数候補のうちどれか一つでもタグと、隠
しビットが同じであればヒットと判定し、いずれも異な
る場合はミスヒットと判定される。実際にはキャッシュ
メモリのエントリ更新はキャッシュミス時にしか行わな
いので、同じタグで同じ隠しビットのものは最大一つし
か存在し得ない。
In addition, the number of lines that can use one index is determined by the above setting. In this case,
Since up to three lines can be used for one index, three comparators are required. Further, the array unit 104 is searched from the offset signal in the same manner as the hidden bit,
The tags are compared, and if any one of the number candidates is the same as the tag and the hidden bit, it is determined to be a hit, and if both are different, it is determined to be a mishit. Actually, the entry of the cache memory is updated only at the time of a cache miss, so that there can be at most one identical tag having the same hidden bit.

【0014】アレイ部104に関してもアレイ部103
と同様に最大数分の比較器3個を必要とする。ヒットの
場合はデータアレイ部105よりデータを検索して信号
線110より出力し、ロジック部107を更新する。ミ
スヒットの場合は従来のキャッシュメモリのようにロジ
ック部107により更新すべきウェイを決定し、ロジッ
ク部106にてミスしたインデックスのエントリ(ライ
ン)数を増やすかどうか決定し、メモリ109よりミス
したアドレス部のブロックデータを受けとり、ロジック
部106にて出力したライン部のデータを更新した後、
データを信号線110へ送出する。
Regarding the array section 104, the array section 103
Similarly, three comparators for the maximum number are required. In the case of a hit, data is retrieved from the data array unit 105, output from the signal line 110, and the logic unit 107 is updated. In the case of a mishit, as in the conventional cache memory, the logic unit 107 determines a way to be updated, and the logic unit 106 determines whether to increase the number of entries (lines) of the missed index. After receiving the block data of the address section and updating the data of the line section output by the logic section 106,
The data is transmitted to the signal line 110.

【0015】ミスヒット時のロジック部106の動作に
ついて図3を参照して説明する。キャッシュミスしたイ
ンデックス301をロジック部107で出力された更新
すべきウェイ側で受けとり、インデックスに相当するカ
ウンタ302を1増やす。この結果、予めソフト的に設
定した閾値とを比較し、閾値を越えたならばミスしたイ
ンデックスのエントリ数を増やすが、同時にエントリ数
記憶部304より現在のエントリ数を検索して、すでに
最大使用数に達している場合には、それら3つのエント
リを全て無効化し、初期状態にして更新する。
The operation of the logic unit 106 at the time of a mishit will be described with reference to FIG. The cache-missed index 301 is received by the way to be updated output from the logic unit 107, and the counter 302 corresponding to the index is incremented by one. As a result, the threshold value is compared with a threshold value set in advance by software, and if the threshold value is exceeded, the number of entries in the missed index is increased. If the number has been reached, all three entries are invalidated, updated to the initial state, and updated.

【0016】ストア系命令の場合は、従来のキャッシュ
メモリと同様である。ロード系命令との違いは制御部よ
りアドレスとデータが送られ、上記ロード系命令と同様
のヒット/ミスヒット判定を行いヒットしたら更新を行
い、メモリ109に対して更新情報を送出する。ミスし
た場合はメモリ109にのみ更新情報を送出してLRU
ロジック部等の更新を行わない。従って、ミスヒット時
もロジック部106でミスヒットの回数を計上したりし
ない。
In the case of a store instruction, it is the same as a conventional cache memory. The difference from the load instruction is that the address and data are sent from the control unit, hit / miss hit determination similar to that of the load instruction is performed, an update is performed when a hit occurs, and update information is sent to the memory 109. If a mistake is made, the update information is sent only to the memory 109 and the LRU
Does not update the logic section. Accordingly, the logic unit 106 does not count the number of misses even in the case of a miss.

【0017】以上のように、本発明のキャッシュメモリ
は、従来のセットアソシアティブ型キャッシュメモリに
対して、そのエントリ方法にある程度の柔軟性を持たせ
ている。すなわち、高速性を維持するためセットアソシ
アティブ型の構成を踏襲し、インデックスを全てのライ
ンに割り付けるのではなく、インデックスの上位ビット
により飛び飛びに割り当て、間の割り当てられていない
ラインに関してはそれを挟むインデックスで使用できる
よう構成されている。
As described above, the cache memory of the present invention has a certain degree of flexibility in the entry method with respect to the conventional set associative cache memory. In other words, following the set associative structure in order to maintain high speed, instead of allocating the index to all the lines, the index is discretely allocated by the high-order bit of the index, and the index that is not allocated to the line not allocated between It is configured to be used with.

【0018】また、どのインデックスが使用するかはキ
ャッシュミスの回数によりリアルタイムで決定されるた
め、アクセス頻度の少ないインデックスに対しては一ラ
インしか割り当てられないが、アクセス頻度の多いイン
デックスに対してはエントリを多くすることができ、従
来のセットアソシアティブ型よりもキャッシュメモリの
メモリ領域の使用効率が良い。
Also, since which index is used is determined in real time by the number of cache misses, only one line is allocated to an index with a low access frequency, but an index with a high access frequency is allocated. The number of entries can be increased, and the use efficiency of the memory area of the cache memory is higher than that of the conventional set associative type.

【0019】また、比較器の数も、ある一つのインデッ
クスに対し登録可能な最大エントリ数分でよいので、フ
ルアソシアティブ型キャッシュメモリに比べるとハード
ウェア量が少なくてよい。更に、インデックスに対する
エントリの増減はミスヒットの回数によるが、その閾値
はソフト的に設定可能とすることによりさらに柔軟なヒ
ット率の向上を計れる。
Also, the number of comparators may be the maximum number of entries that can be registered for a certain index, so that the amount of hardware may be smaller than that of a full associative cache memory. Further, although the number of entries in the index increases or decreases depending on the number of mishits, the threshold value can be set by software, so that the hit rate can be more flexibly improved.

【0020】[0020]

【発明の効果】第1の効果は、ライン容量がミス回数に
より可変となる。これによりライン容量によりヒット率
が左右されるようなジョブではヒット率の向上が望め
る。
The first effect is that the line capacitance is variable depending on the number of misses. As a result, an improvement in the hit rate can be expected for a job whose hit rate depends on the line capacity.

【0021】その理由は、同一インデックスで同一タグ
であっても複数個登録でき、隠しビット幅分のライン容
量を最大に持てるからである。
The reason is that a plurality of tags can be registered with the same index and the same tag, and the line capacity corresponding to the hidden bit width can be maximized.

【0022】第2の効果は、エントリの増減の頻度を実
行するジョブに応じて調整可能であり、同一ジョブに対
してもヒット率の調整が可能である。
The second effect is that the frequency of increase and decrease of entries can be adjusted according to the job to be executed, and the hit ratio can be adjusted for the same job.

【0023】その理由は、エントリの増減を決定する閾
値をソフト的に設定可能であるからである。
The reason is that the threshold value for determining the increase or decrease of entries can be set by software.

【0024】第3の効果は、従来セットアソシアティブ
型やフルアソシアティブ型といった方式を選択すると自
動的に決定された比較器の数が、本発明ではヒット率と
面積(比較器の個数)の両面で調整が可能である。
A third effect is that the number of comparators automatically determined when a conventional set associative type or full associative type is selected is reduced in both the hit ratio and the area (the number of comparators) in the present invention. Adjustments are possible.

【0025】その理由は、コンパレータの個数が予めハ
ードウェア的に設定する、一つのインデックスに対する
最大登録数により必要数が決定され、エントリに対する
柔軟性とハードウェア量の両面の調整が可能であるから
である。
The reason is that the required number is determined by the maximum number of registrations for one index, the number of comparators being set in advance by hardware, and it is possible to adjust both the flexibility for the entry and the amount of hardware. It is.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】第一および第二のアドレスアレイの一例を示す
図である。
FIG. 2 is a diagram illustrating an example of first and second address arrays.

【図3】ミス回数によりエントリ数の増減を行うウェイ
内LRUロジック部を示す図である。
FIG. 3 is a diagram showing an in-way LRU logic unit for increasing or decreasing the number of entries according to the number of misses.

【符号の説明】[Explanation of symbols]

101 アドレスレジスタ部 102 データレジスタ部 103 第一のアドレスアレイ部 104 第二のアドレスアレイ部 105 データアレイ部 106 ウェイ内LRUロジック部 107 ウェイ間LRUロジック部 Reference Signs List 101 address register section 102 data register section 103 first address array section 104 second address array section 105 data array section 106 in-way LRU logic section 107 inter-way LRU logic section

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06F 12/08 - 12/12 Continuation of front page (58) Field surveyed (Int.Cl. 7 , DB name) G06F 12/08-12/12

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 セットアソシアティブ型のキャッシュメ
モリにおいて、 アドレス内の連続するインデックスの上位ビットの組み
合わせの各々に対して、各々の前記上位ビットの組が管
理すべきデータ記憶領域を割り当てるロジック部と、 前記インデックスの上位ビットの組の各々がいずれのデ
ータ記憶領域を割り当てられているかを管理する第1の
アドレスアレイと、 前記上位ビットの組の各々が割り当てられた前記データ
記憶領域におけるデータ管理を、前記インデックスの前
記上位ビットを除いた下位ビットにより管理する第2の
アドレスアレイとを有し、 前記ロジック部は、前記上位ビットの組の各々に対し固
定の管理領域として前記データ記憶領域を飛び飛びに割
り当て、前記上位ビットの組のいずれの管理領域にも割
り当てられてられていない不定データ記憶領域を、キャ
ッシュアクセスのミス回数とソフト的に設定した閾値と
により、当該不定データ記憶領域と隣接する前記データ
記憶領域を管理領域とする前記上位ビットの組のいずれ
かの管理領域として動的に割り当てる ことを特徴とする
キャッシュメモリ。
(1)Set associative cash
In Mori, Set of high-order bits of consecutive indexes in the address
For each of the combinations, each said set of upper bits is
A logic unit for allocating a data storage area to be managed, Each of the upper bit sets of the index is
To manage whether data storage areas are allocated
An address array; Said data to which each of said set of upper bits is assigned
Data management in the storage area before the index
The second is managed by the lower bits excluding the upper bits.
An address array, The logic section is fixed for each of the upper bit sets.
The data storage area is divided and
Assigned to any management area of the set of upper bits.
Undefined data storage areas that have not been allocated
The number of cache access mistakes and the threshold set by software
By the above, the data adjacent to the indefinite data storage area
Any of the above set of higher-order bits whose storage area is a management area
Dynamically allocated as a management area Characterized by
Cache memory.
【請求項2】 前記ロジック部は、前記上位ビットの組
のいずれかが管理する管理領域に対するメモリアクセス
のミスヒット数が前記ソフト的に設定した閾値を越えた
場合、該上位ビットの固定の管理領域に隣接する前記不
定データ記憶領域を該上位ビットの組の管理領域に割り
当てることを特徴とする請求項1記載のキャッシュメモ
リ。
2. The logic unit according to claim 1, wherein the logic unit includes a set of the upper bits.
Memory access to the management area managed by either
The number of misses exceeds the threshold set by the software
In this case, the above-mentioned bit adjacent to the fixed management area
The constant data storage area is allocated to the management area of the upper bit set.
2. The cache memory according to claim 1, wherein the cache memory is used.
【請求項3】 前記ロジック部は、前記上位ビットの組
のいずれかが固定の管理領域とそれに隣接する前記不定
データ記憶領域の全てを管理領域としている際に、該上
位ビットの組の管理領域に対するミスヒットの数が前記
ソフト的に設定した閾値を越えた場合、該上位ビットの
組の管理領域の全てを無効化して初期状態に更新する
とを特徴とする請求項2記載のキャッシュメモリ。
3. The logic unit according to claim 2 , wherein:
Is a fixed management area and the adjacent
When the entire data storage area is used as the management area,
The number of mishits for the management area of the
If the threshold value set by software is exceeded,
The cache memory of claim 2, wherein to disable all set management area, wherein the this <br/> updating the initial state.
JP08282122A 1996-10-24 1996-10-24 Cache memory Expired - Fee Related JP3082684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08282122A JP3082684B2 (en) 1996-10-24 1996-10-24 Cache memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08282122A JP3082684B2 (en) 1996-10-24 1996-10-24 Cache memory

Publications (2)

Publication Number Publication Date
JPH10124390A JPH10124390A (en) 1998-05-15
JP3082684B2 true JP3082684B2 (en) 2000-08-28

Family

ID=17648416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08282122A Expired - Fee Related JP3082684B2 (en) 1996-10-24 1996-10-24 Cache memory

Country Status (1)

Country Link
JP (1) JP3082684B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206806A (en) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Cache observation system, analysis method of processor, and cache memory

Also Published As

Publication number Publication date
JPH10124390A (en) 1998-05-15

Similar Documents

Publication Publication Date Title
US6192458B1 (en) High performance cache directory addressing scheme for variable cache sizes utilizing associativity
EP1654660B1 (en) A method of data caching
JP2554449B2 (en) Data processing system having cache memory
US7552286B2 (en) Performance of a cache by detecting cache lines that have been reused
US5684976A (en) Method and system for reduced address tags storage within a directory having a tree-like data structure
US7065613B1 (en) Method for reducing access to main memory using a stack cache
US6157980A (en) Cache directory addressing scheme for variable cache sizes
EP3964967B1 (en) Cache memory and method of using same
US20090138663A1 (en) Cache memory capable of adjusting burst length of write-back data in write-back operation
JPH09190382A (en) Contention cache for computer memory system
US5809526A (en) Data processing system and method for selective invalidation of outdated lines in a second level memory in response to a memory request initiated by a store operation
US7844777B2 (en) Cache for a host controller to store command header information
US7406579B2 (en) Selectively changeable line width memory
US5953747A (en) Apparatus and method for serialized set prediction
US7007135B2 (en) Multi-level cache system with simplified miss/replacement control
US6792498B2 (en) Memory system with mechanism for assisting a cache memory
US7254681B2 (en) Cache victim sector tag buffer
US7797492B2 (en) Method and apparatus for dedicating cache entries to certain streams for performance optimization
US5966737A (en) Apparatus and method for serialized set prediction
JP3082684B2 (en) Cache memory
US20040015669A1 (en) Method, system, and apparatus for an efficient cache to support multiple configurations
JPH07129464A (en) Information processor
US6480940B1 (en) Method of controlling cache memory in multiprocessor system and the multiprocessor system based on detection of predetermined software module
US6874057B2 (en) Method and apparatus for cache space allocation
US6496904B1 (en) Method and apparatus for efficient tracking of bus coherency by using a single coherency tag bank

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000530

LAPS Cancellation because of no payment of annual fees