JP2000066954A - Replacing method for cache memory and cache memory using the method - Google Patents

Replacing method for cache memory and cache memory using the method

Info

Publication number
JP2000066954A
JP2000066954A JP10236053A JP23605398A JP2000066954A JP 2000066954 A JP2000066954 A JP 2000066954A JP 10236053 A JP10236053 A JP 10236053A JP 23605398 A JP23605398 A JP 23605398A JP 2000066954 A JP2000066954 A JP 2000066954A
Authority
JP
Japan
Prior art keywords
tag
cache memory
replacement
victim
lru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10236053A
Other languages
Japanese (ja)
Other versions
JP3438598B2 (en
Inventor
Yuichi Kishida
裕一 岸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP23605398A priority Critical patent/JP3438598B2/en
Publication of JP2000066954A publication Critical patent/JP2000066954A/en
Application granted granted Critical
Publication of JP3438598B2 publication Critical patent/JP3438598B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a miss ratio and to obtain a high performance cache memory by storing a tag that is subjected to an access request in the past in turn and considering spatial locality belonging to the same tag by referring to the tag stored at the time of replacement. SOLUTION: The tag 11 of a target address 1 that is subjected to an access request from a CPU is inputted to a tag history queue 33. The queue 33 stores some tags which are subjected to an access request in the past and they are referred to for making a virtual victim consider spatial locality at the time of making a victim selection at the time of cache miss. A tag comparison unit 41 compares an address tag read from an address tag memory 21 of a cache memory 2 with the tag 11. When miss occurs in cache, a LRU control unit 32 selects the virtual victim and target data is replaced with this victim.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、LRUリプレース
アルゴリズムを用いたセットアソシアティブ方式のキャ
ッシュメモリのリプレース方法及びこれを用いたキャッ
シュメモリに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a set associative cache memory replacement method using an LRU replacement algorithm and a cache memory using the same.

【0002】[0002]

【従来の技術】近年、コンピュータ・システムにおい
て、CPUを高速に動作させるために、CPUとメイン
メモリとの間に小容量の高速動作が可能なキャッシュメ
モリ装置を配置することが一般に行われている。キャッ
シュメモリには使用頻度の高いデータがブロック単位で
保持されている。そして、CPUがキャッシュメモリに
対してアスセスする時、キャッシュ内に要求データを含
むエントリーが存在する場合をヒットといい、存在しな
い場合をミスという。ミスしたデータはメインメモリか
らCPUに転送されるが、この時、同時に要求データは
キャッシュ内に存在するあるエントリーとリプレースさ
れる。この転送とリプレースに費やした時間をミスペナ
ルティと呼ぶ。
2. Description of the Related Art In recent years, in a computer system, in order to operate a CPU at high speed, a cache memory device having a small capacity and capable of high-speed operation is generally arranged between the CPU and a main memory. . The cache memory holds frequently used data in block units. When the CPU accesses the cache memory, a case where an entry including the requested data exists in the cache is called a hit, and a case where it does not exist is called a miss. The missed data is transferred from the main memory to the CPU. At this time, the requested data is simultaneously replaced with an entry existing in the cache. The time spent for this transfer and replacement is called miss penalty.

【0003】キャッシュの方式は様々だがその一つの方
式として、LRUリプレースアルゴリズムを用いたセッ
トアソシアティブキャッシュがある。セットアソシアテ
ィブキャッシュとは、リプレースするブロックをキャッ
シュ上のn通りにだけ置くことができる方式で、n−w
ayセットアソシアティブキャッシュとも呼ばれる。一
方、LRU(Least Recently Used)
アルゴリズムとは、最も長い時間使用されなかったデー
タブロックをリプレースするアルゴリズムである。例え
ば、特開平1−173239号公報に開示されたメモリ
制御回路においては、キャッシュミス発生時に、LRU
アルゴリズムに従ってキャッシュメモリ内の所定のデー
タブロックがリプレースされる構成となっている。
There are various types of caches, but one of them is a set associative cache using an LRU replacement algorithm. The set associative cache is a method in which a block to be replaced can be placed only in n ways on the cache, and nw
Also referred to as an ay set associative cache. On the other hand, LRU (Least Recently Used)
The algorithm is an algorithm that replaces a data block that has not been used for the longest time. For example, in the memory control circuit disclosed in JP-A-1-173239, when a cache miss occurs, the LRU
A predetermined data block in the cache memory is replaced according to an algorithm.

【0004】[0004]

【発明が解決しようとする課題】上述のように、従来の
LRUリプレースアルゴリズムを用いたセットアソシア
ティブキャッシュにおいては、時間的局所性しか考慮さ
れていないので、空間的局所性の高いエントリーがリプ
レースされる可能性があるという問題があった。また、
キャッシュメモリのブロックサイズ拡大による空間的局
所性の考慮方法では、ミス時のペナルティが大きくなる
ため性能が上がらないという問題があった。
As described above, in the set associative cache using the conventional LRU replacement algorithm, only temporal locality is considered, so an entry having high spatial locality is replaced. There was a problem that could be. Also,
In the method of considering the spatial locality by increasing the block size of the cache memory, there is a problem that the penalty at the time of a miss is increased and the performance is not improved.

【0005】本発明は、ミス率を減らすことができ、高
性能なキャッシュメモリを提供することを目的とする。
An object of the present invention is to provide a high-performance cache memory which can reduce the miss rate.

【0006】[0006]

【課題を解決するための手段】本発明のキャッシュメモ
リのリプレース方法は、LRUリプレースアルゴリズム
を用いたセットアソシアティブ方式のキャッシュメモリ
において、インデックスのみで時間的局所性を考慮した
LRUリプレースアルゴリズムに加え、過去にアクセス
要求のあったいくつかのタグを順に記憶し、リプレース
時に、前記記憶したタグを参照することで同一タグの持
つ空間的局所性を考慮することを特徴とする。
SUMMARY OF THE INVENTION A cache memory replacement method according to the present invention includes a set associative cache memory using an LRU replacement algorithm, in addition to an LRU replacement algorithm that considers temporal locality only by using an index, and also uses a past RRU replacement algorithm. Are sequentially stored, and at the time of replacement, the spatial locality of the same tag is considered by referring to the stored tag.

【0007】また、本発明のキャッシュメモリのリプレ
ース方法は、LRUリプレースアルゴリズムを用いたセ
ットアソシアティブ方式のキャッシュメモリにおいて、
過去にアクセスされたいくつかのタグを順に記憶し、キ
ャッシュミス発生後のビクテム選出時に、前記タグと、
LRUリプレースアルゴリズムで選出された仮のビクテ
ムのアドレスタグとを比較し、空間的局所性の高い同一
アドレスタグを検出した場合に、前記ビクテムの選出を
やり直すことを特徴とする。
A cache memory replacement method according to the present invention provides a set associative cache memory using an LRU replacement algorithm.
Some tags accessed in the past are stored in order, and when a victim is selected after a cache miss, the tag and
The method is characterized by comparing the address tag of the temporary victim selected by the LRU replacement algorithm with the address tag of the temporary victim and, when detecting the same address tag having high spatial locality, re-selecting the victim.

【0008】また、本発明のキャッシュメモリは、LR
Uリプレースアルゴリズムを用いたセットアソシアティ
ブ方式のキャッシュメモリにおいて、各エントリーがア
ドレスタグとバリッドビットとデータブロックとで構成
される記憶手段と、ターゲットデータのヒット/ミス判
別手段と、リプレース時の制御を行うリプレース制御手
段とを有することを特徴とする。
Further, the cache memory of the present invention has a LR
In a set associative cache memory using a U-replace algorithm, a storage unit in which each entry is composed of an address tag, a valid bit, and a data block, a target data hit / miss determination unit, and control at the time of replacement. Replacement control means.

【0009】また、本発明のキャッシュメモリは、前記
リプレース制御手段は、キャッシュリプレース時に、メ
インメモリからCPUに転送されるターゲットデータブ
ロックが入力される手段と、アクセス毎に次回のキャッ
シュミス時のビクテム選出用演算とリプレース時の制御
とを行うLRU制御手段と、過去アクセス要求のあった
いくつかのタグを記憶する手段とを有することを特徴と
する。
Further, in the cache memory according to the present invention, the replacement control means may include means for inputting a target data block transferred from the main memory to the CPU at the time of cache replacement, and It is characterized by having LRU control means for performing calculation for selection and control at the time of replacement, and means for storing some tags for which access requests have been made in the past.

【0010】また、本発明のキャッシュメモリは、前記
ターゲットデータのヒット/ミス判別手段は、前記記憶
手段から読み出されたアドレスタグと、ターゲットアド
レスのタグとを比較し、セット内のどのウェイにヒット
したか、または全てミスしたかを判別するタグ比較手段
を有することを特徴とする。
Further, in the cache memory according to the present invention, the hit / miss discriminating means for the target data compares the address tag read from the storage means with the tag of the target address, and determines which way in the set. It is characterized by having a tag comparing means for judging whether a hit or all misses have occurred.

【0011】また、本発明のキャッシュメモリは、前記
リプレース制御手段は、プリフェッチ機能を有すること
を特徴とする。
Further, in the cache memory according to the present invention, the replacement control means has a prefetch function.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、本発明の第1の実施の形態として
の時間的局所性と空間的局所性の両方を考慮したLRU
リプレースアルゴリズムを用いたn−wayセットアソ
シアティブキャッシュメモリの構成を示す図である。こ
のn−wayセットアソシアティブキャッシュメモリ
は、キャッシュメモリ2と、リプレース制御部3と、デ
ータ制御部4とで構成されている。
FIG. 1 shows an LRU in which both temporal locality and spatial locality are considered as a first embodiment of the present invention.
FIG. 11 is a diagram illustrating a configuration of an n-way set associative cache memory using a replacement algorithm. The n-way set associative cache memory includes a cache memory 2, a replacement control unit 3, and a data control unit 4.

【0014】CPU(図示せず)からアクセス要求され
たターゲットアドレス1は、タグ11と、インデックス
12と、オフセット13とに区分される。インデックス
12は、キャッシュメモリ2内のどのセットにターゲッ
トデータが存在する可能性があるかを示し、タグ11
は、インデックス12で示されたセット(n個)のエン
トリーにターゲットデータが存在するかどうかを検索す
るためのキーとして使われ、オフセット13は、データ
ブロックのどのデータが要求されているかを示すもので
ある。
A target address 1 requested to be accessed by a CPU (not shown) is divided into a tag 11, an index 12, and an offset 13. The index 12 indicates which set in the cache memory 2 may have the target data, and the tag 11
Is used as a key for searching whether the target data exists in the set (n) entries indicated by the index 12, and the offset 13 indicates which data of the data block is requested. It is.

【0015】キャッシュメモリ2の各エントリーは、ア
ドレスタグと、バリッドビットと、データブロックとか
ら構成される。アドレスタグメモリ21、バリッドビッ
トメモリ22、データブロックメモリ23は、整数2の
インデックスビット数乗分のエントリーでそれぞれのメ
モリが構成されており、n−wayセットアソシアティ
ブの場合、それらのメモリ21、22、23がn枚づつ
存在することになる。また各エントリーには、アドレス
タグ毎にデータブロックが記憶されており、バリッドビ
ットはアドレスタグで指定されたデータブロックが有効
かどうかを示すものである。
Each entry of the cache memory 2 includes an address tag, a valid bit, and a data block. The address tag memory 21, the valid bit memory 22, and the data block memory 23 are each configured by an entry corresponding to an integer 2 raised to the power of the number of index bits. In the case of the n-way set associative, the memories 21 and 22 are used. , 23 are present every n sheets. In each entry, a data block is stored for each address tag, and the valid bit indicates whether the data block specified by the address tag is valid.

【0016】リプレース制御部3は、リプレースエント
リー31と、LRU制御ユニット32と、LRU制御ユ
ニット32内のタグヒストリーキュー33とで構成され
る。LRU制御ユニット32は、アクセス毎に次回のキ
ャッシュミス時のビクテム選出用演算と、リプレース時
の制御とを行う。タグヒストリーキュー33には、過去
アクセス要求のあったいくつかのタグ11が記憶されて
おり、ビクテム選出時に空間的局所性情報として使われ
る。一方、リプレースエントリー31には、キャッシュ
リプレース時に、メインメモリ(図示せず)からCPU
に転送されるターゲットデータブロックが入力され、L
RU制御ユニット32で選出したビクテムのエントリー
とリプレースされる。
The replacement control unit 3 includes a replacement entry 31, an LRU control unit 32, and a tag history queue 33 in the LRU control unit 32. The LRU control unit 32 performs a calculation for selecting a victim at the time of the next cache miss and a control at the time of replacement for each access. The tag history queue 33 stores a number of tags 11 for which an access request has been made in the past, and is used as spatial locality information when selecting a victim. On the other hand, at the time of cache replacement, the replacement entry 31 stores the CPU from the main memory (not shown).
, A target data block to be transferred to the
The entry of the victim selected by the RU control unit 32 is replaced.

【0017】データ制御部4は、タグ比較ユニット41
と、データ選択ユニット42とで構成される。タグ比較
ユニット41は、アドレスタグメモリ21から読み出さ
れたn個のアドレスタグとターゲットアドレス1のタグ
11とを比較し、セット内のどのウェイにヒットした
か、または全てミスしたかをデータ選択ユニット42と
LRU制御ユニット32とに出力する。データ選択ユニ
ット42は、タグ比較ユニット41から出力されたwa
yのエントリーのデータブロックからオフセット13で
示されたデータを外部に出力する。
The data control unit 4 includes a tag comparing unit 41
And a data selection unit 42. The tag comparing unit 41 compares the n address tags read from the address tag memory 21 with the tag 11 of the target address 1 and selects which way in the set has been hit or has missed all. Output to the unit 42 and the LRU control unit 32. The data selection unit 42 outputs the wa output from the tag comparison unit 41.
The data indicated by the offset 13 from the data block of the entry y is output to the outside.

【0018】次に、本実施形態の動作を図1及び図2の
フローチャートを用いて説明する。まず、CPUからア
クセス要求(ステップA0)されたターゲットアドレス
1のタグ11が、LRU制御ユニット32内のタグヒス
トリーキュー33に入力される(ステップA1)。ここ
で、タグヒストリーキュー33には、過去アクセス要求
のあったいくつかのタグが記憶されており、キャッシュ
ミス時のビクテム選出の際に、時間的局所性のみを考慮
したLRUリプレースアルゴリズムで選出された仮のビ
クテムに空間的局所性を考慮させるために参照される。
ただし、タグ11が前回入力分と同一であれば、そのタ
ーゲットアドレス1はタグヒストリーキュー33には入
力されない。
Next, the operation of this embodiment will be described with reference to the flowcharts of FIGS. First, the tag 11 of the target address 1 requested to be accessed by the CPU (step A0) is input to the tag history queue 33 in the LRU control unit 32 (step A1). Here, in the tag history queue 33, some tags that have been requested to access in the past are stored, and when a victim is selected at the time of a cache miss, the tags are selected by an LRU replacement algorithm that considers only temporal locality. It is referred to make the temporary victim consider the spatial locality.
However, if the tag 11 is the same as the previous input, the target address 1 is not input to the tag history queue 33.

【0019】次に、キャッシュメモリ2は、ターゲット
アドレス1のインデックス12を使い、ターゲットアド
レス1が記憶されている可能性があるセットを選択し、
nエントリー分(n−wayセットアソシアティブの場
合)のアドレスタグと、データブロックとを読み出す
(ステップA2)。
Next, the cache memory 2 uses the index 12 of the target address 1 to select a set in which the target address 1 may be stored,
An address tag for n entries (in the case of the n-way set associative) and a data block are read (step A2).

【0020】次いで、タグ比較ユニット41は、ステッ
プA2において読み出されたエントリーのアドレスタグ
と、ターゲットアドレス1のタグ11とを比較してヒッ
トかミスかを判別する。この時バリッドビットでそのエ
ントリーが無効であると示されれば、そのエントリーは
ミスとみなされる(ステップA3、ステップA4)。
Next, the tag comparison unit 41 compares the address tag of the entry read in step A2 with the tag 11 of the target address 1 to determine whether it is a hit or a miss. At this time, if the valid bit indicates that the entry is invalid, the entry is regarded as a miss (step A3, step A4).

【0021】そして、キャッシュにヒットした場合に
は、タグ比較ユニット41は、ヒットエントリーが何w
ay目のエントリーであったかをLRU制御ユニット3
2とデータ選択ユニット42とに通知する。このタグ比
較ユニット41から通知されたway情報を基に、LR
U制御ユニット32は次回のビクテム選出用演算を行う
(ステップA5)。また、データ選択ユニット42は、
タグ比較ユニット41から通知されたway情報を基に
ヒットしたデータブロックを選別し(ステップA6)、
ターゲットアドレス1のオフセット13を参照し、ヒッ
トしたデータブロックから必要なデータを出力する(ス
テップA7)。
When a hit occurs in the cache, the tag comparing unit 41 determines how many hit entries
LRU control unit 3
2 and the data selection unit 42. Based on the way information notified from the tag comparison unit 41, the LR
The U control unit 32 performs a calculation for the next victim selection (step A5). Further, the data selection unit 42
The hit data block is selected based on the way information notified from the tag comparing unit 41 (step A6),
The required data is output from the hit data block with reference to the offset 13 of the target address 1 (step A7).

【0022】一方、キャッシュにミスした場合には、L
RU制御ユニット32は、あらかじめ演算した情報を基
に仮のビクテムを選出し(ステップA8)、この仮のビ
クテムのアドレスタグと、タグヒストリーキュー33の
エントリーのタグ11とをタグ比較ユニット41が比較
する(ステップA9)。そして仮のビクテムのアドレス
タグがタグヒストリーキュー33内にあるタグ11のど
れとも一致しなかった場合には、仮のビクテムが真のビ
クテムとなり、ターゲットデータが真のビクテムとリプ
レースされる(ステップA11)。もし、真のビクテム
とタグヒストリーキュー33内のタグ11とで一致した
エントリーが検索されれば、その仮のビクテム以外の同
じセット内のエントリーでLRU制御ユニット32がも
う一度ビクテムを選出し直す。
On the other hand, when a cache miss occurs,
The RU control unit 32 selects a temporary victim based on the information calculated in advance (step A8), and the tag comparison unit 41 compares the address tag of the temporary victim with the tag 11 of the entry in the tag history queue 33. (Step A9). If the address tag of the temporary victim does not match any of the tags 11 in the tag history queue 33, the temporary victim becomes a true victim, and the target data is replaced with the true victim (step A11). ). If a match is found between the true victim and the tag 11 in the tag history queue 33, the LRU control unit 32 reselects the victim again with an entry in the same set other than the temporary victim.

【0023】以上のように、本実施形態によれば、時間
的局所性のみが考慮されたLRUリプレースアルゴリズ
ムにおいて、空間的局所性の高い同一アドレスタグを持
つエントリーがビクテムとしてリプレースされることが
防止される。
As described above, according to the present embodiment, in the LRU replacement algorithm considering only the temporal locality, the entry having the same address tag with high spatial locality is prevented from being replaced as a victim. Is done.

【0024】次に、本発明の第2の実施の形態について
説明する。本実施形態は、その基本的構成は上記第1の
実施の形態と同様であるが、ミスレイテンシについてさ
らに工夫している。即ち、図3に示すように、本実施形
態は、図1におけるLRU制御ユニット32の代わりに
LRU/プリフェッチ制御ユニット32’を設けると共
に、リプレースエントリー31の代わりにリプレース/
プリフェッチエントリー31’を設けて、リプレース制
御部3にプリフェッチ機能を取り入れた構成とする。
Next, a second embodiment of the present invention will be described. This embodiment has the same basic configuration as that of the first embodiment, but further devises a miss latency. That is, as shown in FIG. 3, in the present embodiment, an LRU / prefetch control unit 32 ′ is provided instead of the LRU control unit 32 in FIG.
A prefetch entry 31 'is provided, and the replacement control unit 3 is configured to incorporate a prefetch function.

【0025】そして、本実施形態においては、LRU/
プリフェッチ制御ユニット32’はタグヒストリーキュ
ー33を参照し、次回アクセス要求される可能性がある
がキャッシュメモリ2内にはないエントリーをあらかじ
めメインメモリからリプレース/プリフェッチエントリ
ー31’に転送しておく。従って、本実施形態によれ
ば、次回アクセスされる可能性の高いエントリーをプリ
フェッチしておくことによって、ミスレイテンシを大幅
に削減することができる。
In this embodiment, the LRU /
The prefetch control unit 32 'refers to the tag history queue 33 and transfers an entry that may be requested next time but is not in the cache memory 2 from the main memory to the replace / prefetch entry 31' in advance. Therefore, according to the present embodiment, by prefetching an entry that is likely to be accessed next time, miss latency can be significantly reduced.

【0026】[0026]

【発明の効果】上述のように、本発明によれば、時間的
局所性のみを考慮したLRUリプレースアルゴリズムに
加えて空間的局所性を考慮しているので、空間的局所性
の高いエントリーがリプレースされることが少なくな
り、キャッシュミス率を下げることができる。また、空
間的局所性をブロックサイズの拡大以外で実現している
ので、ミス時のペナルティに変化がなく性能低下しな
い。従って、本発明によれば、高性能なキャッシュメモ
リを提供することができる。
As described above, according to the present invention, since the spatial locality is considered in addition to the LRU replacement algorithm considering only the temporal locality, an entry having a high spatial locality is replaced. And the cache miss rate can be reduced. Further, since the spatial locality is realized by means other than the enlargement of the block size, the penalty at the time of a mistake does not change and the performance does not decrease. Therefore, according to the present invention, a high-performance cache memory can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施の形態の構成を示す図で
ある。
FIG. 1 is a diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】 本発明の第1の実施の形態の動作を示す図で
ある。
FIG. 2 is a diagram illustrating an operation of the first exemplary embodiment of the present invention.

【図3】 本発明の第2の実施の形態の構成を示す図で
ある。
FIG. 3 is a diagram showing a configuration of a second exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ターゲットアドレス 11 タグ 12 インデックス 13 オフセット 2 キャッシュメモリ 21 アドレスタグメモリ 22 バリッドビットメモリ 23 データブロックメモリ 3 リプレース制御部 31 リプレースエントリー 32 LRU制御ユニット 33 タグヒストリーキュー 4 データ制御部 41 タグ比較ユニット 42 データ選択ユニット 1 Target address 11 Tag 12 Index 13 Offset 2 Cache memory 21 Address tag memory 22 Valid bit memory 23 Data block memory 3 Replacement control unit 31 Replacement entry 32 LRU control unit 33 Tag history queue 4 Data control unit 41 Tag comparison unit 42 Data selection unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 LRUリプレースアルゴリズムを用いた
セットアソシアティブ方式のキャッシュメモリにおい
て、インデックスのみで時間的局所性を考慮したLRU
リプレースアルゴリズムに加え、過去にアクセス要求の
あったいくつかのタグを順に記憶し、リプレース時に、
前記記憶したタグを参照することで同一タグの持つ空間
的局所性を考慮することを特徴とするキャッシュメモリ
のリプレース方法。
In a set associative cache memory using an LRU replacement algorithm, an LRU considering temporal locality only with an index is used.
In addition to the replacement algorithm, several tags that have been requested for access in the past are stored in order, and at the time of replacement,
A method of replacing a cache memory, wherein a spatial locality of the same tag is considered by referring to the stored tag.
【請求項2】 LRUリプレースアルゴリズムを用いた
セットアソシアティブ方式のキャッシュメモリにおい
て、過去にアクセスされたいくつかのタグを順に記憶
し、キャッシュミス発生後のビクテム選出時に、前記タ
グと、LRUリプレースアルゴリズムで選出された仮の
ビクテムのアドレスタグとを比較し、空間的局所性の高
い同一アドレスタグを検出した場合に、前記ビクテムの
選出をやり直すことを特徴とするキャッシュメモリのリ
プレース方法。
2. A set associative cache memory using an LRU replacement algorithm, in which several tags accessed in the past are sequentially stored, and when a victim is selected after a cache miss occurs, the tag and the LRU replacement algorithm are used. A method for replacing a cache memory, comprising comparing an address tag of a selected temporary victim with an address tag having a high spatial locality and re-selecting the victim.
【請求項3】 LRUリプレースアルゴリズムを用いた
セットアソシアティブ方式のキャッシュメモリにおい
て、各エントリーがアドレスタグとバリッドビットとデ
ータブロックとで構成される記憶手段と、ターゲットデ
ータのヒット/ミス判別手段と、リプレース時の制御を
行うリプレース制御手段とを有することを特徴とするキ
ャッシュメモリ。
3. A set associative cache memory using an LRU replacement algorithm, wherein each entry is constituted by an address tag, a valid bit, and a data block; a target data hit / miss determination means; And a replacement control means for controlling time.
【請求項4】 前記リプレース制御手段は、キャッシュ
リプレース時に、メインメモリからCPUに転送される
ターゲットデータブロックが入力される手段と、アクセ
ス毎に次回のキャッシュミス時のビクテム選出用演算と
リプレース時の制御とを行うLRU制御手段と、過去ア
クセス要求のあったいくつかのタグを記憶する手段とを
有することを特徴とする請求項3記載のキャッシュメモ
リ。
4. The replacement control means includes: means for inputting a target data block transferred from the main memory to the CPU at the time of cache replacement; calculation for a victim selection operation at the time of the next cache miss for each access; 4. The cache memory according to claim 3, further comprising LRU control means for performing control, and means for storing some tags for which an access request has been made in the past.
【請求項5】 前記ターゲットデータのヒット/ミス判
別手段は、前記記憶手段から読み出されたアドレスタグ
と、ターゲットアドレスのタグとを比較し、セット内の
どのウェイにヒットしたか、または全てミスしたかを判
別するタグ比較手段を有することを特徴とする請求項
3、4記載のキャッシュメモリ。
5. The target data hit / miss discriminating means compares the address tag read from the storage means with a tag of a target address, and determines which way in the set has been hit or all of the misses. 5. The cache memory according to claim 3, further comprising a tag comparing unit that determines whether the cache memory has been executed.
【請求項6】 前記リプレース制御手段は、プリフェッ
チ機能を有することを特徴とする請求項3、4、5記載
のキャッシュメモリ。
6. The cache memory according to claim 3, wherein said replacement control means has a prefetch function.
JP23605398A 1998-08-21 1998-08-21 Cache memory replacement method and cache memory using the same Expired - Fee Related JP3438598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23605398A JP3438598B2 (en) 1998-08-21 1998-08-21 Cache memory replacement method and cache memory using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23605398A JP3438598B2 (en) 1998-08-21 1998-08-21 Cache memory replacement method and cache memory using the same

Publications (2)

Publication Number Publication Date
JP2000066954A true JP2000066954A (en) 2000-03-03
JP3438598B2 JP3438598B2 (en) 2003-08-18

Family

ID=16995053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23605398A Expired - Fee Related JP3438598B2 (en) 1998-08-21 1998-08-21 Cache memory replacement method and cache memory using the same

Country Status (1)

Country Link
JP (1) JP3438598B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5131986B2 (en) * 2006-05-16 2013-01-30 パナソニック株式会社 Image processing device
CN112612727A (en) * 2020-12-08 2021-04-06 海光信息技术股份有限公司 Cache line replacement method and device and electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5131986B2 (en) * 2006-05-16 2013-01-30 パナソニック株式会社 Image processing device
CN112612727A (en) * 2020-12-08 2021-04-06 海光信息技术股份有限公司 Cache line replacement method and device and electronic equipment

Also Published As

Publication number Publication date
JP3438598B2 (en) 2003-08-18

Similar Documents

Publication Publication Date Title
JP4486750B2 (en) Shared cache structure for temporary and non-temporary instructions
JP2554449B2 (en) Data processing system having cache memory
EP0185867B1 (en) A memory hierarchy and its method of operation
EP1149342B1 (en) Method and apparatus for managing temporal and non-temporal data in a single cache structure
US20080215816A1 (en) Apparatus and method for filtering unused sub-blocks in cache memories
US6549983B1 (en) Cache memory system and method for managing the same
WO2009006113A2 (en) Hierarchical cache tag architecture
US6973547B2 (en) Coherence message prediction mechanism and multiprocessing computer system employing the same
EP2866148B1 (en) Storage system having tag storage device with multiple tag entries associated with same data storage line for data recycling and related tag storage device
JP3262519B2 (en) Method and system for enhancing processor memory performance by removing old lines in second level cache
US6715040B2 (en) Performance improvement of a write instruction of a non-inclusive hierarchical cache memory unit
US6311253B1 (en) Methods for caching cache tags
US6792498B2 (en) Memory system with mechanism for assisting a cache memory
WO2006040689A1 (en) Implementation and management of moveable buffers in cache system
US6397298B1 (en) Cache memory having a programmable cache replacement scheme
US7865666B2 (en) Cache memory systems and methods thereof
US9053030B2 (en) Cache memory and control method thereof with cache hit rate
JP2001249846A (en) Cache memory device and data processing system
US6601155B2 (en) Hot way caches: an energy saving technique for high performance caches
JP2000066954A (en) Replacing method for cache memory and cache memory using the method
US20050010740A1 (en) Address predicting apparatus and methods
KR20230022439A (en) Cache management circuitry for predictive adjustment of cache control policies based on persistent historical cache control information.
JP3078303B2 (en) Cache memory control circuit
JP3469042B2 (en) Cache memory
US8117393B2 (en) Selectively performing lookups for cache lines

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030513

LAPS Cancellation because of no payment of annual fees