JPH06139146A - キャッシュメモリ - Google Patents

キャッシュメモリ

Info

Publication number
JPH06139146A
JPH06139146A JP4287228A JP28722892A JPH06139146A JP H06139146 A JPH06139146 A JP H06139146A JP 4287228 A JP4287228 A JP 4287228A JP 28722892 A JP28722892 A JP 28722892A JP H06139146 A JPH06139146 A JP H06139146A
Authority
JP
Japan
Prior art keywords
cache
tag
memory
data
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4287228A
Other languages
English (en)
Inventor
Masanori Izumikawa
正則 泉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP4287228A priority Critical patent/JPH06139146A/ja
Publication of JPH06139146A publication Critical patent/JPH06139146A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

(57)【要約】 【目的】ページサイズよりも大きい容量をもつダイレク
トマップ方式のキャッシュメモリにおいて、1つの物理
的な場所にあるデータが2つ以上のキャッシュメモリ上
の場所に同時に存在する問題(エイリアス)が生じたと
きに、ハードウェアでこれを検出する。 【構成】インデックス中の仮想ページ番号のビットによ
って分割されたタグメモリ2,3を備える。それぞれタ
グメモリ2,3に対してタグメモリ2,3の読み出しデ
ータとアドレス変換結果の物理アドレスを入力する比較
器5,6を備える。比較器5,6の出力を上記インデッ
クス中の仮想ページ番号のビットによって選択しキャッ
シュ・ヒットHITを出力する選択回路7を備える。選
択されなかった比較器の出力の論理和によってエイリア
スがあったかどうかを出力する選択回路8を備える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はキャッシュメモリシステ
ムに関し、特に主記憶装置とCPUとの間に置かれるダ
イレクトマップ方式のキャッシュメモリシステムに関す
る。
【0002】
【従来の技術】一般にキャッシュメモリシステムは、ア
ソシアティビティのレベルが大きくなるとヒット率が上
がるが回路量も増大する。特に2ウェイセットアソシア
ティブ方式は、ダイレクトマップ方式に比べるとヒット
・ミスヒットの判定後、2つのセットからそのうちの1
つを選択する必要があるので、キャッシュアクセスタイ
ムが増加する。
【0003】仮想記憶をもつ計算機で用いられるキャッ
シュメモリシステムには、仮想アドレス・キャッシュ方
式と物理アドレス・キャッシュ方式とがある。
【0004】仮想アドレス・キャッシュ方式はコンテキ
スト・スイッチ時にフラッシュする必要があるが、物理
アドレス・キャッシュ方式はその必要がないため、大容
量の場合、物理アドレス・キャッシュ方式が使われるこ
とが多い。
【0005】物理アドレス・キャッシュ方式では、アド
レス変換が終るまでヒット・ミスヒットの判定ができな
いため、メモリアクセスタイムにアドレス変換のディレ
イが加わってしまう。しかしキャッシュメモリのタグと
データのルックアップをアドレス変換と並行して行えば
アドレス変換のディレイはキャッシュメモリのルックア
ップ時間とオーバラップさせることができる。この構成
をとるとキャッシュメモリのサイズは、ページサイズと
キャッシュメモリのアソシアティビティのレベルとの積
に制限される。例えばページサイズが4Kバイトである
とすると、グレイクトマップ方式では4Kバイト・2ウ
ェイセットアソシアティブ方式では8Kバイト・4ウェ
イセットアソシアティブ方式では16Kバイトである。
このため、ダイレクトマップ方式の方がルックアップ時
間が短くても、ルックアップとアドレス変換とを同時に
できないため全体のアクセス時間が大きくなってしま
う。
【0006】インデックスに仮想アドレスを使い、タグ
に物理アドレスを使った場合は、仮想インデックスのキ
ャッシュでもコンテキスト・スイッチに伴うキャッシュ
・フラッシュの必要はない。しかし、1つの物理的な場
所にあるデータが、2つ以上のキャッシュメモリ上の場
所に同時に存在する、いわゆるエイリアス(Alia
s)という問題が生じる。この問題を避けるために、従
来はアソシアティビティのレベルを大きくした物理アド
レス・キャッシュ方式を用いるか、またはオペレーティ
ング・システムで使用しているページを管理しておき、
エイリアスが生じる可能性があるときはソフトウェアで
キャッシュメモリを操作してエイリアスを避けていた。
【0007】
【発明が解決しようとする課題】上述した従来のキャッ
シュメモリシステムでは、エイリアスの管理をソフトウ
ェアによって行っているので、ソフトウェアの負担が重
くなる上動作速度が遅くなるという問題点があった。
【0008】本発明の目的は、ソフトウェアの負担を軽
減し動作速度を速くすることができるキャッシュメモリ
システムを提供することにある。
【0009】
【課題を解決するための手段】本発明のキャッシュメモ
リシステムは、それぞれ仮想アドレスの第1の部分によ
り選択される複数の領域に所定のタグデータを記憶して
おき前記第1の部分により選択された領域から記憶して
いるタグデータを読出す第1及び第2のタグメモリバン
クと、これら第1及び第2のタグメモリバンクの各領域
とそれぞれ対応しかつ前記仮想アドレスの第2の部分で
選択される領域をもちこれら各領域に所定のデータを記
憶しておき前記仮想アドレスの第2の部分により選択さ
れた領域から記憶しているデータを読出すデータメモリ
と、前記仮想アドレスの第3の部分と対応する物理アド
レスと前記第1及び第2のタグメモリバンクから読出さ
れたタグデータとをそれぞれ対応して比較する第1及び
第2の比較器と、前記仮想アドレスの第2の部分の特定
のビットに従って前記第1及び第2の比較器のうちの一
方の出力を選択しキャッシュヒット信号として出力する
第1の選択回路と、前記仮想アドレスの第2の部分の特
定のビットに従って前記第1及び第2の比較器のうちの
他方の出力を選択しエイリアス信号として出力する第2
の選択回路とを有している。
【0010】
【実施例】次に本発明の実施例について図面を参照して
説明する。
【0011】図1は本発明の一実施例を示すブロック図
である。
【0012】この実施例は、それぞれ仮想アドレスAD
の第1の部分のページ・オフセットVAOS(A11〜
A4)により選択される複数の領域に所定のタグデータ
を記憶しておきこのページ・オフセットVAOS(A1
1〜A4)により選択された領域から記憶しているタグ
データを読出す第1及び第2のタグメモリバンク2,3
と、これら第1及び第2のタグメモリバンク2,3の各
領域とそれぞれ対応しかつ仮想アドレスVAの第2の部
分(A12〜A4)で選択される領域をもちこれら各領
域に所定のデータを記憶しておき仮想アドレスVAの第
2の部分(A12〜A4)により選択された領域から記
憶しているデータを読出すデータメモリ4と、仮想アド
レスVAの第3の部分A31〜A12と対応する物理ペ
ージ番号RAPN(RA31〜RA12)と第1及び第
2のタグメモリバンク2,3から読出されたタグデータ
とをそれぞれ対応して比較する第1及び第2の比較器
5,6と、仮想アドレスVAの第2の部分の特定のビッ
トA12に従って第1及び第2の比較器5,6のうちの
一方の出力を選択しキャッシュヒット信号CHTとして
出力する第1の選択回路7と、同様に特定のビットA1
2に従って第1及び第2の比較器のうちの他方の出力を
選択しエイリアス信号ALとして出力する第2の選択回
路8と、タグメモリブロック2,3の領域を選択するデ
コーダ1とを有する構成となっている。
【0013】次にこの実施例の動作について説明する。
【0014】(1)ページサイズが固定の場合 まず、ページサイズが4Kバイトに固定されており、キ
ャッシュメモリのサイズが8Kバイトの場合の動作につ
いて説明する。
【0015】32ビットの仮想アドレスVA(A31〜
A0)は、仮想ページ番号VAPN(A31〜A12)
とページ・オフセットVAOS(A11〜A0)とから
なり、仮想ページ番号VAPNは物理ページ番号RAP
N(RA31〜RA12)に変換されて入力される。図
2に仮想アドレスVAの構成を示す。データメモリ4
は、データブロックサイズが16バイト、エントリ数が
「512」であり、インデックスのために9ビット必要
である。仮想アドレスVA(A3〜A0)はデータブロ
ック内のバイト位置を示す。従ってアドレス変換と1次
キャッシュのルック・アップを同時に行うためにページ
・オフセットVAOS(A11〜A4)の他に仮想ペー
ジ番号VAPNのLSBA12を併せてインデックスに
使う。前述したように、ページサイズが4Kバイトのと
き、8Kバイトのダイレクトスップ方式では2つの異っ
た“色”をもち、この色はインデックスに使われている
A12によって決められる。
【0016】ここでキャッシュの“色”について定義す
る。キャッシュメモリの各領域はある“色”をもってお
り、あるページ内の番地はすべて同じ“色”をもつ。例
えば4ページのサイズのダイレクトマップ方式では4つ
の異った“色”をもつ。キャッシュメモリ内の同じ領域
にマッピングされるアドレスは、同じ“色”をもつとい
う。仮想インデックス方式のキャッシュの“色”は、仮
想ページ番号のうちのインデックスに使われるビットに
よって決められる。本発明は、タグを“色”ごとのバン
クに分け、各バンクごとにアドレス・コンパレータを設
けることによってエイリアスを検出する。
【0017】タグメモリは各々256エントリの2つの
タグメモリバンク2,3からなり、ページ・オフセット
VAOS(A11〜A4)によって1つのエントリが選
ばれる。各タグメモリバンク2,3の出力はそれぞれア
ドレス変換された物理ページ番号RAPN(RA31〜
RA12)と比較され、選択回路7,8によって、A1
2が高レベルのときタグメモリバンク2側の比較結果
が、低レベルのときタグメモリバンク3側の比較結果が
選択され出力されるヒット信号CHTによりヒット・ミ
スヒットが判定される。同時に、反対側の比較結果が選
択され、出力されるエイリアス信号ALによって一致し
ている場合にはエイリアスが発生したものと判定する。
選択回路7,8の制御信号としてのA12は、比較結果
が出て来るよりも先に決まっているので高速のセレクト
動作が可能である。
【0018】(2)ページサイズが可変の場合 次にページサイズが可変である場合について説明する。
仮想ページ番号VAPのLSB(A12)をマスクして
ページ・オフセットとして扱いページサイズを8Kバイ
トとする場合を考える。
【0019】キャッシュの色の領域のサイズは最小のペ
ージ・サイズとし大きなページはこの領域の集まりとし
て考える。すなわち、ここでは最小のページサイズは4
Kバイトであるので、キャッシュメモリにマッピングさ
れたとき8Kバイトでは2つの色をもつ。キャッシュの
色は仮想アドレスVA(A12)によって決められ、ペ
ージサイズが4Kバイト固定の場合と全く同様の扱いが
できる。
【0020】なお、キャッシュメモリのサイズが更に大
きい場合にも、キャッシュの色の数だけタグメモリバン
クを設けることによって同様の扱いができる。
【0021】
【発明の効果】以上説明したように本発明は、インデッ
クス中の仮想ページ番号のビットによってバンクに分割
されたタグメモリと、これら各バンクごとに物理アドレ
スの比較器を設け、比較結果をインデックス中の仮想ペ
ージ番号のビットによって選択し、ヒット・ミスヒット
を判定すると共に、他方の比較結果によってエイリアス
を検出する構成とすることにより、エイリアスの発生を
ハードウェアで検出することができるため、ソフトウェ
アの負担を軽減でき、また選択するための制御信号が前
もって決まるため選択動作を高速にでき、2ウェイ・セ
ットアソシアティブ方式に比べてキャッシュヒット信号
とデータの読出しを高速に行うことができる。効果があ
る。
【図面の簡単な説明】
【図1】本発明の一実施例を示すブロック図である。
【図2】図1に示された実施例に適用される仮想アドレ
スのデータフォーマット図である。
【符号の説明】
1 デコーダ 2,3 タグメモリバンク 4 データメモリ 5,6 比較器 7,8,9 選択回路
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年12月2日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正内容】
【書類名】 明細書
【発明の名称】 キャッシュメモリ
【特許請求の範囲】
【発明の詳細な説明】
【産業上の利用分野】本発明はキャッシュメモリに関
し、特に(仮想アドレス・インデックスで物理アドレス
・タグの)ダイレクトマップ方式のキャッシュメモリに
関する。
【従来の技術】一般にキャッシュメモリシステムは、ア
ソシアティビティのレベルが大きくなるとヒット率が上
がるが回路量も増大する。例えば2ウェイセットアソシ
アティブ方式は、ダイレクトマップ方式に比べるとヒッ
ト・ミスヒットの判定後、2つのセットからそのうちの
1つを選択する必要があるので、キャッシュアクセスタ
イムが増加する。仮想記憶をもつ計算機で用いられるキ
ャッシュメモリには、仮想アドレス方式と物理アドレス
方式とがある。仮想アドレス方式はコンテキスト・スイ
ッチ時にフラッシュする必要があるが、物理アドレス方
式はその必要がないため、大容量の場合、物理アドレス
方式が使われることが多い。物理アドレス方式では、ア
ドレス変換が終るまでヒット/ミスヒットの判定ができ
ないため、メモリアクセスタイムにアドレス変換のディ
レイが加わってしまう。しかしキャッシュメモリのタグ
とデータのルックアップをアドレス変換と並行して行え
ばアドレス変換のディレイはキャッシュメモリのルック
アップ時間とオーバラップさせることができる。この構
成をとるとキャッシュメモリのサイズは、ページサイズ
とキャッシュメモリのアソシアティビティのレベルとの
積に制限される。例えばページサイズが4Kバイトであ
るとすると、グレイクトマップ方式では4Kバイト,2
ウェイセットアソシアティブ方式では8Kバイト,4ウ
ェイセットアソシアティブ方式では16Kバイトであ
る。このため、ダイレクトマップ方式の方がルックアッ
プ時間が短くても、ルックアップとアドレス変換とを同
時にできないため全体のアクセス時間が大きくなってし
まう。インデックスに仮想アドレスを使い、タグに物理
アドレスを使った場合は、仮想インデックスのキャッシ
ュでもコンテキスト・スイッチに伴うキャッシュ・フラ
ッシュの必要はない。しかし、1つの物理的な場所にあ
るデータが、2つ以上のキャッシュメモリ上の場所に同
時に存在する、いわゆるエイリアス(Alias)とい
う問題が生じる。この問題を避けるために、従来はアソ
シアティビティのレベルを大きくした物理アドレス方式
を用いるか、またはオペレーティング・システムで使用
しているページを管理しておき、エイリアスが生じる可
能性があるときはソフトウェアでキャッシュメモリを操
作してエイリアスを避けていた。
【発明が解決しようとする課題】上述した従来のキャッ
シュメモリでは、エイリアスの管理をソフトウェアによ
って行っているので、ソフトウェアの負担が重くなると
いう問題点があった。本発明の目的は、エイリアス問題
をハードウェアで検出することにより解決するキャッシ
ュメモリを提供することにある。
【課題を解決するための手段】本発明では、キャッシュ
の“色”について定義する。キャッシュメモリの各領域
はある“色”をもっており、あるページ内の番地はすべ
て同じ“色”をもつ。例えば4ページのサイズのダイレ
クトマップ方式では4つの異った“色”をもつ。キャッ
シュメモリ内の同じ領域にマッピングされるアドレス
は、同じ“色”をもつという。仮想インデックス方式の
キャッシュの“色”は、仮想ページ番号のうちのインデ
ックスに使われるビットによって決められる。本発明
は、タグを“色”ごとのバンクに分け、各バンクごとに
アドレス・コンパレータを設けることによってエイリア
スを検出する。本発明のキャッシュメモリは、ページン
グ方式の仮想記憶を有する計算機で用いられる仮想アド
レス・インデックス、物理アドレス・タグのダイレクト
マップ方式のキャッシュメモリであって、インデックス
中の仮想ページ番号のビットによって分割されたタグメ
モリと、それぞれタグメモリに対してタグメモリの読み
出しデータとアドレス変換結果の物理アドレスを入力と
する比較器と、前記比較器の出力を前記インデックス中
の仮想ページ番号のビットによって選択しキャッシュ・
ヒットを出力する選択回路と、選択されなかった比較器
の出力の論理和によってエイリアス(1つの物理的な場
所にあるデータが2つ以上のキャッシュメモリ状の場所
に存在すること)があるかどうかを出力する回路とを有
している。
【実施例】次に本発明の実施例について図面を参照して
説明する。図1は本発明の一実施例を示すブロック図で
ある。この実施例は、それぞれ仮想アドレスVAのペー
ジ・オフセット10(VA11〜VA4)により選択さ
れる複数の領域に所定のタグデータを記憶しておきこの
ページ・オフセット10(VA11〜VA4)により選
択された領域から記憶しているタグデータを読出す第1
及び第2のタグメモリバンク2,3と、これら第1及び
第2のタグメモリバンク2.3の各領域とそれぞれ対応
しかつ仮想アドレスVA(VA12〜VA4)により選
択した領域から記憶しているデータを読出すデータメモ
リ4と、仮想アドレスVAのVA31〜VA12と対応
する物理ページ番号12(RA31〜RA12)と第1
及び第2のタグメモリバンク2.3から読出されたタグ
データとをそれぞれ対応して比較する第1及び第2の比
較器5,6と、仮想アドレスVAの特定のビットVA1
2に従って第1及び第2の比較器5,6のうちの一方の
出力を選択しキャッシュヒット信号HITとして出力す
る第1の選択回路7と、同様に特定のビットVA12に
従って第1及び第2の比較器のうちの他方の出力を選択
しエイリアス信号ALIASとして出力する第2の選択
回路8と、タグメモリブロック2.3の領域を選択する
デコーダ1とを有する構成となっている。次にこの実施
例について説明する。 (1)ページサイズが固定の場合 まず、ページサイズが4Kバイトに固定されており、キ
ャッシュメモリのサイズが8Kバイトの場合の動作につ
いて説明する。32ビットの仮想アドレスVA(VA3
1〜VA0)は、仮想ページ番号13(VA31〜VA
12)とページ・オフセット10(VA11〜VA0)
とからなり、仮想ページ番号11は物理ページ番号12
(RA31〜RA12)に変換される。図2に仮想アド
レスVAの構成を示す。データメモリ4は、データブロ
ックサイズが16バイト、エントリ数が512個であ
り、インデックスのために9ビット必要である。仮想ア
ドレスVA512個のうち下位4ビット(VA3〜VA
0)はデータブロック内のバイト位置を示す。従ってア
ドレス変換と1次キャッシュのルック・アップを同時に
行うためにページ・オフセット10(VA11〜VA
4)の他に仮想ページ番号11のLSB(VA12)を
併せてインデックスに使う。前述したように、ページサ
イズが4Kバイトのとき、8Kバイトのダイレクトマッ
プ方式では2つの異った“色”をもち、この色はインデ
ックスに使われているVA12によって決められる。タ
グメモリは各々256エントリの2つのタグメモリバン
ク2.3からなり、ページ・オフセット10(VA11
〜VA4)によって1つのエントリが選ばれる。各タグ
メモリバンク2.3の出力はそれぞれアドレス変換され
た物理ページ番号12(RA31〜RA12)と比較さ
れ、選択回路7,8によって、VA12がハイレベルの
ときタグメモリバング2側の比較結果が、ロウレベルの
ときタグメモリバンク3側の比較結果が選択され出力さ
れるヒット信号HITによりヒット/ミスヒットが判定
される。同時に、反対側の比較結果が選択され、出力さ
れるエイリアス信号ALIASによって一致している場
合にはエイリアスが発生したものと判定する。選択回路
7,8の制御信号としてのVA12は、比較結果が出て
来るよりも先に決まっているので高速のセレクト動作が
可能である。 (2)ページサイズが可変の場合 次にページサイズが可変である場合について説明する。
仮想ページ番号13のLSB(VA12)をマスクして
ページ・オフセットとして扱いページサイズを8Kバイ
トとする場合を考える。キャッシュの色の領域のサイズ
は最小のページ・サイズとし大きなページはこの領域の
集まりとして考える。すなわち、ここでは最小のページ
サイズは4Kバイトであるので、キャッシュメモリにマ
ッピングされたとき8Kバイトでは2つの色をもつ。キ
ャッシュの色は仮想アドレスVA12によって決めら
れ、ページサイズが4Kバイト固定の場合と全く同様の
扱いができる。なお、キャッシュメモリのサイズが更に
大きい場合にも、キャッシュの色の数だけタグメモリバ
ンクを設けることによって同様の扱いができる。
【発明の効果】以上説明したように本発明は、インデッ
クス中の仮想ページ番号のビットによってバンクに分割
されたタグメモリと、これら各バンクごとに物理アドレ
スの比較器を設け、比較結果をインデックス中の仮想ペ
ージ番号のビットによって選択し、ヒット/ミスヒット
を判定すると共に、他方の比較結果によってエイリアス
を検出する構成とすることにより、エイリアスの発生を
ハードウェアで検出することができるため、ソフトウェ
アでエイリアスを管理する場合に比べて、ソフトウェア
の負担を軽減でき、また選択するための制御信号が前も
って決まるため選択動作を高速にでき、2ウェイ・セッ
トアソシアティブ方式に比べてキャッシュヒット信号と
データの読出しを高速に行うことができる効果がある。
【図面の簡単な説明】
【図1】本発明の一実施例を示すブロック図である。
【図2】図1に示された実施例に適用される仮想アドレ
スのデータフォーマット図である。
【符号の説明】 1 デコーダ 2.3 タグメモリバンク 4 データメモリ 5,6 比較器 7,8,9 選択回路 10 仮想ページオフセット 11 マスクビット 12 物理ページ番号 13 仮想ページ番号
【手続補正2】
【補正対象書類名】図面
【補正対象項目名】全図
【補正方法】変更
【補正内容】
【図2】
【図1】

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 それぞれ仮想アドレスの第1の部分によ
    り選択される複数の領域に所定のタグデータを記憶して
    おき前記第1の部分により選択された領域から記憶して
    いるタグデータを読出す第1及び第2のタグメモリバン
    クと、これら第1及び第2のタグメモリバンクの各領域
    とそれぞれ対応しかつ前記仮想アドレスの第2の部分で
    選択される領域をもちこれら各領域に所定のデータを記
    憶しておき前記仮想アドレスの第2の部分により選択さ
    れた領域から記憶しているデータを読出すデータメモリ
    と、前記仮想アドレスの第3の部分と対応する物理アド
    レスと前記第1及び第2のタグメモリバンクから読出さ
    れたタグデータとをそれぞれ対応して比較する第1及び
    第2の比較器と、前記仮想アドレスの第2の部分の特定
    のビットに従って前記第1及び第2の比較器のうちの一
    方の出力を選択しキャッシュヒット信号として出力する
    第1の選択回路と、前記仮想アドレスの第2の部分の特
    定のビットに従って前記第1及び第2の比較器のうちの
    他方の出力を選択しエイリアス信号として出力する第2
    の選択回路とを有することを特徴とするキャッシュメモ
    リシステム。
JP4287228A 1992-10-26 1992-10-26 キャッシュメモリ Pending JPH06139146A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4287228A JPH06139146A (ja) 1992-10-26 1992-10-26 キャッシュメモリ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4287228A JPH06139146A (ja) 1992-10-26 1992-10-26 キャッシュメモリ

Publications (1)

Publication Number Publication Date
JPH06139146A true JPH06139146A (ja) 1994-05-20

Family

ID=17714703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4287228A Pending JPH06139146A (ja) 1992-10-26 1992-10-26 キャッシュメモリ

Country Status (1)

Country Link
JP (1) JPH06139146A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100343940B1 (ko) * 1999-02-26 2002-07-20 삼성전자 주식회사 트랜슬레이션 룩어헤드 버퍼 예측 비트를 이용한 쓰기동작시의 캐쉬 얼리어싱 방지
US7870325B2 (en) 2006-07-19 2011-01-11 Panasonic Corporation Cache memory system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100343940B1 (ko) * 1999-02-26 2002-07-20 삼성전자 주식회사 트랜슬레이션 룩어헤드 버퍼 예측 비트를 이용한 쓰기동작시의 캐쉬 얼리어싱 방지
US7870325B2 (en) 2006-07-19 2011-01-11 Panasonic Corporation Cache memory system
GB2440263B (en) * 2006-07-19 2011-07-20 Matsushita Electric Ind Co Ltd Cache memory system

Similar Documents

Publication Publication Date Title
EP0036110B1 (en) Cache addressing mechanism
US4426682A (en) Fast cache flush mechanism
KR920005280B1 (ko) 고속 캐쉬 시스템
EP0496288B1 (en) Variable page size per entry translation look-aside buffer
US5526504A (en) Variable page size translation lookaside buffer
CA2021272C (en) Associative map with least recently used (lru) replacement
US6425055B1 (en) Way-predicting cache memory
US5018061A (en) Microprocessor with on-chip cache memory with lower power consumption
US5630088A (en) Virtual to physical address translation
JPH0628262A (ja) ルックアサイドバッファおよび仮想から物理的へアドレスを高速に翻訳する方法
US5668972A (en) Method and system for efficient miss sequence cache line allocation utilizing an allocation control cell state to enable a selected match line
JPH07271672A (ja) マルチウェイセットアソシアティブキャッシュシステム
EP3964967B1 (en) Cache memory and method of using same
JPH08320830A (ja) データ処理装置
JPH07200405A (ja) 情報をキャッシュするための回路および方法
US5682495A (en) Fully associative address translation buffer having separate segment and page invalidation
JP2681398B2 (ja) 記憶装置
JPH08227380A (ja) データ処理システム
US6385696B1 (en) Embedded cache with way size bigger than page size
US5276829A (en) Data processing system including cache memory for rapidly converting a logical address into a physical address using shared memory flag
US4395763A (en) Buffer memory control system of the swap system
US6574698B1 (en) Method and system for accessing a cache memory within a data processing system
US6480940B1 (en) Method of controlling cache memory in multiprocessor system and the multiprocessor system based on detection of predetermined software module
JPH06139146A (ja) キャッシュメモリ
US4424564A (en) Data processing system providing dual storage of reference bits

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19991026