JPS638848A - データ取り出し方法 - Google Patents

データ取り出し方法

Info

Publication number
JPS638848A
JPS638848A JP62159550A JP15955087A JPS638848A JP S638848 A JPS638848 A JP S638848A JP 62159550 A JP62159550 A JP 62159550A JP 15955087 A JP15955087 A JP 15955087A JP S638848 A JPS638848 A JP S638848A
Authority
JP
Japan
Prior art keywords
cache
address
memory
tag
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62159550A
Other languages
English (en)
Other versions
JP2603476B2 (ja
Inventor
Aaru Burigu Uiriamu
ウィリアム・アール・ブリグ
Kao Ratsuseru
ラッセル・カオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Japan Inc
Original Assignee
Yokogawa Hewlett Packard Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Hewlett Packard Ltd filed Critical Yokogawa Hewlett Packard Ltd
Publication of JPS638848A publication Critical patent/JPS638848A/ja
Application granted granted Critical
Publication of JP2603476B2 publication Critical patent/JP2603476B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0864Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using pseudo-associative means, e.g. set-associative or hashing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/126Replacement control using replacement algorithms with special data handling, e.g. priority of data or instructions, handling errors or pinning
    • G06F12/127Replacement control using replacement algorithms with special data handling, e.g. priority of data or instructions, handling errors or pinning using additional replacement algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明はキャッシュメモリを含むタイプのコンピュータ
システムに関し、特に、キャッシュメモリ呼び出し時間
を改善する方法に関する。
〔発明の技術的背景及びその問題点〕
最新コンピュータシステムは中央処理装置(CPU)お
よび主メモリを含む。CPUがデータ処理するために命
令を解読し、実行するスピードは時として命令、および
オペランドを主メモリからCPUに移動するスピードよ
り早いことがある。
この不整合によって生ずる問題を減らすため多くのコン
ピュータはCPUと主メモリとの間にキャッシュメモリ
あるいはバッファを備えている。
キャッシュメモリはCPUが近い将来に用いるであろう
主メモリの内容を一時的に保持するための小さい高速バ
ッファメモリである。キャッシュメモリの主目的はメモ
リ呼び出しに必要な時間を短かくすることである。キャ
ッシュメモリの情報は主メモリの情報よりずっと少ない
時間で呼び出せる。したがって、キャッシュメモリを持
つCPUがフェッチかつ/またはストアされた命令およ
びオペランドを待つために必要な時間ははるかに少ない
。たとえば、典型的な大型の高速コンピュータにおいて
主メモリは300〜600ナノ秒で呼び出されるが、こ
れに反してキャッシュメモリからの情報は50〜100
ナノ秒で得ることができる。そのような機械ではキャッ
シュメモリにより実行スピードは実質的に非常に増加す
る。しかしながら、コンピュータシステムのパフォーマ
ンスはなおキャッシュメモリ呼び出し時間によって命令
実行速度が制限されている。キャッシュメモリ呼び出し
時間をより残少することにより命令実行速度をさらに上
げることができる。
キャッシュメモリの成功は特定のメモリ位置が参照され
ると該位置、およびそれに非常に近い位置が近い将来呼
び出される可能性が強いという仮定を基にしている。こ
れはしばしば参照の局所性と呼ばれる。参照の局所性は
時間的および空間的な2つの相を持つ。短い期間にわた
ってプログラムが参照するメモリはアドレス空間に不均
等に分布する一方、好んで参照されるアドレス空間部分
は長い期間はとんど同じ所に留まっている。この最初の
参照の局所性は時間的局所性、すなわち、時間による局
所性と呼ばれるが近い将来に用いられる情報はすでに用
いられたものであることが多いことを意味する。このタ
イプの性質はプログラムループから予想される。該プロ
グラムループにおいては、データおよび命令の両方が再
使用される。第2の参照の局所性、すなわち空間による
局所性は、使用中のアドレス空間部分が一般に該アドレ
ス空間の個別に隣接したかなり小数のセグメントから成
ることを意味する。空間局所性は近い将来におけるプロ
グラムの参照位置が現在の参照位置に近いことが多いと
いうことを意味する。このタイプの性質はプログラムの
普通の知識から予期することができる。すなわち関連し
たデータ環(変数、アレイ)は通常、−緒にストアされ
、命令の大部分は連続して実行されるからである。キャ
ッシュメモリは最近用いられた情報のセグメントをバッ
ファするので局所性により、必要な情報はキャッシュ内
に存在することが多いということが暗示される。Sm1
th、 A、 J、によるACM Computing
Surveys、 14:3(1982年9月)473
ページ〜530ページのCache Memories
を参照。
キャッシュは一語、あるいはそれ以上のデータの多くの
ブロックから成っており、各データはアドレスタグを組
み込んでいる。3亥アドレスタグはそれが主メモリのど
のブロックのコピーかを識別する。プロセッサがメモリ
を参照するたびにキヤ・7シユはアドレスタグを比較し
、それが要求されたデータのコピーを持っているかどう
か調べる。
もし、コピーを持っていれば、データを供給し、もし、
コピーを持っていなければ主メモリからブロックを読み
込み、キャッシュ内にストアされたブロックの1つと入
れ替え、次に読み込んだデータをプロセッサに供給する
キャッシュメモリの設計を最適化するには、通常、次の
4つの局面がある。
[1)  キャッシュ内にメモリ参照情報を見つける可
能性(いわゆるCヒツト−率)を最大にする。
(2)実際にキャッシュ内にある情報を呼び出すのに必
要な時間(呼び出し時間)を最小にする。
(3)  キャッシュrミス」による遅延を最小にする
(4)主メモリを更新するためのオーバーヘッドを最小
にし、マルチキャッシュ−貫性 (multicache consistency)を
維持する。
これらの目標の全ては妥当な費用の制約のもとでしかも
パラメータ間の相互関係、たとえばヒツト率と呼び出し
時間との間のトレードオフなどを考慮して実現しなけれ
ばならない。明らかにキャッシュが大きければ大きいほ
どその中に必要な情報を発見する可能性が高くなる。し
かしながらいくつかの理由でキャッシュの大きさを制限
なく広げることはできない。1つはコストで多くの機械
、特に小さい機械では最も重要な理由である。もう1つ
は物理的な大きさで、キャッシュをボード上および、キ
ャビネット内にうまく収め込まなければならない。もう
1つは呼び出し時間で、キャッシュが大きくなればなる
ほど遅くなる。
情報は通常、キャッシュから取り出し、連想的に「ヒツ
トJがあるかどうか決定する。しかしながら、大きくて
完全な連想メモリは非常に高価でかつ幾分か遅い。初期
のキャッシュメモリにおいては全ての素子をCPUによ
る各リクエスト毎に連想的に探索していた。呼び出し時
間がCPUに遅れないようにするためにキャッシュの大
きさは制限され、したがって、ヒツト率はむしろ低かっ
た。
第4図は従来のダイレクト・マツプ・シングルセフトキ
ャソシュの概略図である。前述のように、図示したキャ
ッシュは多数のブロックから成り、それぞれが独自のデ
ータおよびアドレスタグを持っている。どのようなキャ
ッシュ呼び出しに対してもインデックスと呼ばれるアド
レスの一部が1個のブロックを選択するのに用いられ(
RAM呼び出しのような動作において)、該ブロックは
それが要求されているものであるかどうか調べるために
チェックされる。もし、それが要求されたブロックでな
ければキャッシュは主メモリから正しいブロックを引き
出し、該ブロックをそのチェックされたものと取り替え
る。したがって、主メモリ内のどのブロックに対しても
、それを含むキャッシュ内に1個のブロックがちょうど
存在する。
第4図に示したキャッシュは各ブロック内に4語のデー
タを持つ。キャッシュ内の位置によりアドレスのインデ
ックス部が一つだけ定まるので、タグの比較はより高い
アドレス部でのみ行えばよい。
キャッシュメモリもセントと呼ばれる、より小さい連想
メモリのグループに組み入れられ、それぞれのグループ
はセットサイズと呼ぶ位置の数を含む。Lセットに分け
られた大きさmのキャッシュに対して各セット内にs=
m/Lの位置がある。
主メモリのアドレスがキャッシュにマツプされるとアド
レスはどのLセットにも現れる。与えられた大きさのキ
ャッシュに対してセットのそれぞれを並行して探索する
とファクタしたけ呼び出し時−セットキャッシュの2セ
ツトキヤツシユの概略図である。nセットキャッシュに
おいて各メモリブロックは「n個」の可能なスロットを
持ち、そこで前述の各ブロックのメモリがキャッシュ内
にストアされる。そしてプロセスは「スラッシング(t
hrashing) Jなしで同じインデックスを持っ
「n個、のブロックをキャッシュ内に同時に持つことが
できる。キャッシュは特定のインデックスで同時に「n
個Jのブロックのそれぞれを呼び出し、どれが要求され
たブロックであるかをチェックする。もし、要求された
ブロックが1個あればキャッシュはそれを返し、もし、
要求されたブロックがなければ主メモリから要求された
ブロックを引き出し、ブロックの1つを新しいものと取
り替える。2セント以上のセットを持つキャッシュにお
いては、セットを並列にして全部のORをとりマルチプ
レックスする。
第4図に示した単一セットのグイレフト−マツプキャッ
シュと第5図に示したタイプの連想多重−セントキャッ
シュとのどちらを選択して設計するかは呼び出し時間と
ヒツト率とのトレード−オフが基になっている。キャッ
シュの大きさが同じ場合、多重−セットキャッシュの呼
び出し時間は単一セットキャッシュの呼び出し時間より
長い。というのは連想アドレス比較および必要な多重化
に長い時間かかるからである。多重−セットキャッシュ
はまた、より高価である。他方、多重−セットキャッシ
ュはヒント率が優れている。明らかに多重−セットキャ
ッシュの呼び出し時間を改善することが有利である。
〔発明の目的〕
多重−セントキャッシュメモリの呼び出し時間を減少さ
せることが本発明の目的である。
〔発明の概要〕
本発明の目的、および他の目的はキャツシュヒツトをチ
ェックする標準アドレスタグ比較に、セット選択のため
だけに用いる第2の、より小さい「ルックアサイドタグ
jセット比較を加えることで成し遂げられる。「ルック
アサイドタグ」は、より小さいので比較、したがって、
セント選択は従来の多重−セットキャッシュ動作より速
く実行できる。
〔発明の実施例〕
キャッシュメモリを含むコンピュータシステムを第3図
に示す。CP Ullはバス17を通って主メモリ13
、および入力/出力チャンネル15と通信する。CPU
はデータを処理する命令を引き出し、解読し、実行する
プロセッサ19を含む。コンピュータシステムが用いる
命令およびデータを全てCPu1l内にストアすること
は実用的ではないので・、データおよび命令は主メモリ
13にストアされ、プログラム、あるいはルーチンを実
行する間必要となったときに、プロセッサ19に転送さ
れ、プログラムあるいはルーチンが完了した後、主メモ
リに戻される。
主メモリ13の呼び出しはプロセッサ19の動作に比較
すると遅い。もし、命令、あるいはデータが必要とされ
るたびにプロセッサ19が主メモリの呼び出し完了を待
たねばならないならば、その実行速度は著しく減少する
。呼び出し時間をプロセッサ19の要求に、よりぴった
りと整合させるためにバッファメモリ、すなわち、キャ
ッシュメモリ21が限られた数の命令、およびデータを
ストアする。
キャッシュ21は主メモリ13よりずっと小さいので、
呼び出し速度を高くしても経済的に作ることが可能であ
る。
それにもかかわらず、キャッシュメモリ21の呼び出し
時間とキャッシュの大きさとの間にはトレードオフがな
お存在する。前述のようにキャッシュがより大きく、か
つ、より?J[9#になるとより高価になり、呼び出し
時間が増加する。したがって、もし、ヒツト率を増加さ
せるためにキャッシュ21を非常に大きく作れば、たと
え主メモリ13への参照がほとんどなくても「ヒツト」
しているデータに対してですら呼び出し時間が増加し、
プロセッサ19はスローダウンする。したがって、でき
るだけキャッシュメモリ呼び出し時間を減少させるこ 
 −とが望ましい。
本発明をもっと完全に説明するために、キャッシュ21
の構造を理解する必要がある。第2図はAおよびBの2
セツトから成るキャッシュメモリを示す。各セットはイ
ンデックス23でラベル付けされた位置配列、すなわち
、ブロックから成る。各ブロックはデータ25およびア
ドレスタグ27を含む・標準アドレスタグ27に加えて
、標準アドレスタグから得られた、より小さい「ルック
アサイドタグj29も示しである。「ルックアサイドタ
グ」は任意のビット長であるがヒツトをチェ7りするの
に必要な長さより小さい。
好ましい実施例において、各データブロックは4語から
成る。4語の単位はデータがキャッシュメモリ21と主
メモ1月3との間で交換される単位であり、また、キャ
ッシュ21内でデータがインデックスされ、引き出され
、置き換えられる単位でもある。ブロックに含まれる語
は4語以下であったり4語以上であってもよい。(しか
し、常時2のべき乗である。)メモリシステムを設計す
る際にこれらのパラメータをどう選ぶかが問題である。
プロセッサ19がメモリを参照するたびにキャッシュ2
1を探索し、要求されたデータのコピーがあるかどうか
調べる。もし、データが存在すればそのデータはプロセ
ッサ19に供給される。もし、データが存在しなければ
、データを主メモリ13からブロック内に引き出し、プ
ロセッサ19に供給し、すでにキャッシュにあるブロッ
クの1つを置き換え手順に従って置き換えてキャッシュ
メモリ21内にストアしなければならない。
最も、一般に用いられる好適な置き換え手順は最も前に
参照した項目を置き換える方法(’LRU(Least
 Recently IJsed) J法)である、、
LRU置き換え法に従えば、特別なインデックスの各ブ
ロックグループに対してキャッシュは数個のステータス
ビットを持ち、これらのブロックが最後に呼び出された
順番を記録しておく。ブロックの1つが呼び出されるた
びに該ブロックが最も最近用いられたという印をつけ、
他のものはそれに応じて調節される。ミスがある場合は
最も古いブロックを掃き出し、主メモリから引き出され
るブロックが入る余白を作る。
第1図は「ルックアサイドタグjを用いる本発明のキャ
ッシュ探索動作を示す。プロセッサ19が引き出される
べきアドレスを呈示するとキャッシュの探索が始まる。
アドレスは要求されたデータの主メモリ内での位置、お
よびインデックスを識別するアドレスタグを含む。イン
デックスはキャッシュに供給され、キャッシュはそれに
応じて、インデックスに対応する各キャッシュセットA
およびBのブロックを戻す。セットAおよびBの1つか
ら戻されたブロックに対する「ルックアサイドタグ」が
アドレスの対応する部分と比較される。
もし、整合していれば、該セットが選択され、プロセッ
サに直ちに戻される。整合していなければ残っているセ
ットがプロセッサに供給される。
rヒツトJを確実にするために通常の全タグ比較も並行
して用いられる。
もし、全タグを比較して実際にミスしていることがわか
れば、プロセッサが持っているのは「ルックアサイドタ
グ」比較によって引き出され、まだ実行されない誤った
データなので、要求されたデータは主メモリから引き出
され、ちょうどよい方法でプロセッサに供給できる。
「ルックアサイドタグ」過程を2セツトのキャッシュに
ついて述べたが、どんな大きさのセットの多重−セット
キャッシュにも応用できることがわかる。
「ルックアサイドタグ」が同じで、アドレスの残り部分
が異っている2つのブロックがキヤ、7シユ内に存在す
れば、1つだけを選択できないので問題が持ち上がる。
この矛盾を防ぐため、もし、キャッシェ内にすでに存在
するのと同じ「ルックアサイドタグjを持ったブロック
がキャッシュにロードされかけていれば、第1図に示し
たように、置き換えロジックがこの決定をし、この場合
、標準置き換え手順を修正し、置き換えられるブロック
がロードされようとしたブロックと同じルックアサイド
タグを持つブロックであるようにする。
なおここで述べたキャッシュメモリに対して様々な代替
案を本発明の実施例に用いることができる。
〔発明の効果〕
以上説明したように本発明を用いることより、多重−セ
ントキャッシュメモリの呼び出し時間を減少させること
ができる。
【図面の簡単な説明】
第1図は、本発明の一実施例のキャッシュメモリの概略
ブロック図、第2図は、本発明の一実施例のキャッシュ
メモリの概略構造を示す図、第3図は、キャッシュメモ
リを有するコンピュータシステムの概略ブロック図、第
4図は、従来のシングル−セットキャッシュの概略図、
第5図は、従来の多重−セ・居キャッシュの概略図であ
る。 11:CPU        13:主メモリ17:バ
ス       19:プロセッサ21 ニー1−ヤソ
シュメモリ 23:インデソクス25:データ    
  27:標準アドレスタグ29Xルツクアサイドタグ

Claims (1)

  1. 【特許請求の範囲】 プロセッサと主メモリとキャッシュメモリとを備えたコ
    ンピュータシステムにおいて、前記プロセッサから前記
    キャッシュメモリへアドレスを送り、必要とするデータ
    を前記キャッシュメモリから引き出す手順において、 前記キャッシュメモリ内の、前記データとアドレスタグ
    とを有するブロックの前記アドレスタグの一部分と、前
    記アドレスの対応する一部分とを比較する手順を含むこ
    とを特徴とするキャッシュ・タグ・ルックアサイド。
JP62159550A 1986-06-27 1987-06-26 データ取り出し方法 Expired - Lifetime JP2603476B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US06/879,707 US4914582A (en) 1986-06-27 1986-06-27 Cache tag lookaside
US879707 1986-06-27

Publications (2)

Publication Number Publication Date
JPS638848A true JPS638848A (ja) 1988-01-14
JP2603476B2 JP2603476B2 (ja) 1997-04-23

Family

ID=25374720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62159550A Expired - Lifetime JP2603476B2 (ja) 1986-06-27 1987-06-26 データ取り出し方法

Country Status (3)

Country Link
US (1) US4914582A (ja)
EP (1) EP0251056A3 (ja)
JP (1) JP2603476B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0268640A (ja) * 1988-09-05 1990-03-08 Pfu Ltd キャッシュメモリ
JPH02294866A (ja) * 1989-05-10 1990-12-05 Hitachi Ltd 記憶制御方式
EP0450418A2 (de) * 1990-04-04 1991-10-09 Siemens Aktiengesellschaft Einrichtung zum Übertragen eines pulsbreitenmodulierten elektrischen Eingangssignals

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900008516A (ko) * 1988-11-01 1990-06-04 미다 가쓰시게 버퍼 기억장치
US5202969A (en) * 1988-11-01 1993-04-13 Hitachi, Ltd. Single-chip-cache-buffer for selectively writing write-back and exclusively writing data-block portions to main-memory based upon indication of bits and bit-strings respectively
FR2645986B1 (fr) * 1989-04-13 1994-06-17 Bull Sa Procede pour accelerer les acces memoire d'un systeme informatique et systeme pour la mise en oeuvre du procede
US5193166A (en) * 1989-04-21 1993-03-09 Bell-Northern Research Ltd. Cache-memory architecture comprising a single address tag for each cache memory
US5226133A (en) * 1989-12-01 1993-07-06 Silicon Graphics, Inc. Two-level translation look-aside buffer using partial addresses for enhanced speed
US5301263A (en) * 1990-09-18 1994-04-05 Hewlett-Packard Company High memory bandwidth system for updating z-buffer values
JPH0546475A (ja) * 1991-08-15 1993-02-26 Fujitsu Ltd バツフア記憶制御方式
US5530823A (en) * 1992-05-12 1996-06-25 Unisys Corporation Hit enhancement circuit for page-table-look-aside-buffer
US5465342A (en) * 1992-12-22 1995-11-07 International Business Machines Corporation Dynamically adaptive set associativity for cache memories
US5500950A (en) * 1993-01-29 1996-03-19 Motorola, Inc. Data processor with speculative data transfer and address-free retry
EP0624844A2 (en) * 1993-05-11 1994-11-17 International Business Machines Corporation Fully integrated cache architecture
JPH06348595A (ja) * 1993-06-07 1994-12-22 Hitachi Ltd キャッシュ装置
EP0675443A1 (en) * 1994-03-30 1995-10-04 Digital Equipment Corporation Apparatus and method for accessing direct mapped cache
US5813031A (en) * 1994-09-21 1998-09-22 Industrial Technology Research Institute Caching tag for a large scale cache computer memory system
US6185674B1 (en) 1995-04-05 2001-02-06 International Business Machines Corporation Method and apparatus for reconstructing the address of the next instruction to be completed in a pipelined processor
US5905999A (en) * 1996-04-29 1999-05-18 International Business Machines Corporation Cache sub-array arbitration
US6687789B1 (en) 2000-01-03 2004-02-03 Advanced Micro Devices, Inc. Cache which provides partial tags from non-predicted ways to direct search if way prediction misses
KR100445630B1 (ko) * 2001-02-13 2004-08-25 삼성전자주식회사 저전력 캐쉬 메모리 및 그것의 히트/미스 판정 방법
US20050144409A1 (en) * 2002-09-11 2005-06-30 Fujitsu Limited Data processing device and method utilizing latency difference between memory blocks
US20050050278A1 (en) * 2003-09-03 2005-03-03 Advanced Micro Devices, Inc. Low power way-predicted cache
US7117290B2 (en) * 2003-09-03 2006-10-03 Advanced Micro Devices, Inc. MicroTLB and micro tag for reducing power in a processor

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS605978B2 (ja) * 1974-09-12 1985-02-15 富士通株式会社 記憶装置のアクセス制御方式
US4055851A (en) * 1976-02-13 1977-10-25 Digital Equipment Corporation Memory module with means for generating a control signal that inhibits a subsequent overlapped memory cycle during a reading operation portion of a reading memory cycle
JPS5489444A (en) * 1977-12-27 1979-07-16 Fujitsu Ltd Associative memory processing system
US4170039A (en) * 1978-07-17 1979-10-02 International Business Machines Corporation Virtual address translation speed up technique
US4314331A (en) * 1978-12-11 1982-02-02 Honeywell Information Systems Inc. Cache unit information replacement apparatus
US4479180A (en) * 1980-06-06 1984-10-23 Westinghouse Electric Corp. Digital memory system utilizing fast and slow address dependent access cycles
US4520441A (en) * 1980-12-15 1985-05-28 Hitachi, Ltd. Data processing system
US4462072A (en) * 1981-04-03 1984-07-24 Honeywell Information Systems Inc. Clock system having a stall capability to enable processing of errors

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0268640A (ja) * 1988-09-05 1990-03-08 Pfu Ltd キャッシュメモリ
JPH02294866A (ja) * 1989-05-10 1990-12-05 Hitachi Ltd 記憶制御方式
EP0450418A2 (de) * 1990-04-04 1991-10-09 Siemens Aktiengesellschaft Einrichtung zum Übertragen eines pulsbreitenmodulierten elektrischen Eingangssignals

Also Published As

Publication number Publication date
JP2603476B2 (ja) 1997-04-23
US4914582A (en) 1990-04-03
EP0251056A3 (en) 1989-10-18
EP0251056A2 (en) 1988-01-07

Similar Documents

Publication Publication Date Title
JPS638848A (ja) データ取り出し方法
US4928239A (en) Cache memory with variable fetch and replacement schemes
US5813031A (en) Caching tag for a large scale cache computer memory system
US5353426A (en) Cache miss buffer adapted to satisfy read requests to portions of a cache fill in progress without waiting for the cache fill to complete
US6014732A (en) Cache memory with reduced access time
US5555392A (en) Method and apparatus for a line based non-blocking data cache
US5235697A (en) Set prediction cache memory system using bits of the main memory address
EP0407052B1 (en) Method to increase performance in a multi-level cache system by the use of forced cache misses
US6625714B1 (en) Parallel distributed function translation lookaside buffer
US20030065890A1 (en) Method and apparatus for updating and invalidating store data
US6493791B1 (en) Prioritized content addressable memory
US5586296A (en) Cache control system and method for selectively performing a non-cache access for instruction data depending on memory line access frequency
KR930022222A (ko) 캐시가 일관된 다중 처리기 컴퓨터 시스템에서 다중 미결동작을 제공하기 위한 장치 및 그 방법
US6571316B1 (en) Cache memory array for multiple address spaces
US7716424B2 (en) Victim prefetching in a cache hierarchy
US7237067B2 (en) Managing a multi-way associative cache
US5778427A (en) Method and apparatus for selecting a way of a multi-way associative cache by storing waylets in a translation structure
KR950006590B1 (ko) 캐시 메모리를 갖는 마이크로 프로세서
EP0250702B1 (en) Cache memory with variable fetch and replacement schemes
US7254681B2 (en) Cache victim sector tag buffer
US6397298B1 (en) Cache memory having a programmable cache replacement scheme
US7181590B2 (en) Method for page sharing in a processor with multiple threads and pre-validated caches
EP0206050A2 (en) Virtually addressed cache memory with physical tags
US7000082B2 (en) Cache victim sector tag buffer
US6581139B1 (en) Set-associative cache memory having asymmetric latency among sets

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080129

Year of fee payment: 11