JPH06282489A - コンピュータメモリシステム、データキャッシュ動作の方法およびデータキャッシュシステム - Google Patents

コンピュータメモリシステム、データキャッシュ動作の方法およびデータキャッシュシステム

Info

Publication number
JPH06282489A
JPH06282489A JP6002332A JP233294A JPH06282489A JP H06282489 A JPH06282489 A JP H06282489A JP 6002332 A JP6002332 A JP 6002332A JP 233294 A JP233294 A JP 233294A JP H06282489 A JPH06282489 A JP H06282489A
Authority
JP
Japan
Prior art keywords
data
cache
data cache
processor
reloaded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6002332A
Other languages
English (en)
Inventor
William M Johnson
ウィリアム・マイケル・ジョンソン
Thang Tran
タン・トラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Micro Devices Inc
Original Assignee
Advanced Micro Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Micro Devices Inc filed Critical Advanced Micro Devices Inc
Publication of JPH06282489A publication Critical patent/JPH06282489A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0844Multiple simultaneous or quasi-simultaneous cache accessing
    • G06F12/0855Overlapped cache accessing, e.g. pipeline
    • G06F12/0859Overlapped cache accessing, e.g. pipeline with reload from main memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

(57)【要約】 【目的】 実行ユニット(12)からのロードリクエス
ト(20)と再ロード動作(24)との両方を効率的に
処理できるデータキャッシュシステムを提供する。 【構成】 データキャッシュシステムはロードリクエス
ト(20)を処理するための構造を含み、この構造は、
データキャッシュ(18)にロードされるデータが一時
的にストアされるブロックサイズバッファ(26)を含
む。

Description

【発明の詳細な説明】
【0001】
【関連出願の相互参照】本発明は、以下の日本の特許出
願に関する。
【0002】トラン(Tran)による「キャッシュメモリ
システムおよびマイクロプロセッサ内の命令を操作する
ための方法」、ジョンソン(Johnson )らによる「メモ
リ内のデータをアクセスするための方法、メモリシステ
ムおよびメモリ制御システム」および、トラン(Tran)
による「ラッチ回路、データの受取りを制御するための
装置、ラッチングを遅延させる方法、およびプリチャー
ジ値の受取りを阻止する方法」である。
【0003】上述の出願はすべて、本出願と同一期日に
出願され、本発明の譲受人に譲渡され、ここで引用によ
り全体的に再現されるかのように援用される。
【0004】
【発明の分野】この発明はデータキャッシュ方式に関す
る。より特定的には、この発明は、ロードリクエストを
処理するために最適化される、そのような方式に関す
る。
【0005】
【関連技術に関する論議】上述した関連事件で述べられ
るように、頻繁にアクセスされるデータを高速で局所記
憶する場所を設けるためコンピュータシステム内にキャ
ッシュメモリ構成を含むことが、当業者に知られてい
る。キャッシュシステムはマイクロプロセッサからのメ
モリへの参照のうちの各々1つを途中で捕らえ、要求さ
れたデータのアドレスがキャッシュ内にあるかどうかを
調べる。データがキャッシュ内にあれば(ヒット)、そ
れは、主システムメモリをアクセスするのに必要な待ち
状態なしで、直ちにキャッシュからマイクロプロセッサ
へ送られる。データがキャッシュ内になければ(ミ
ス)、メモリアドレスの参照は主メモリコントローラに
送られ、かつデータは主メモリから検索される。キャッ
シュヒットはローカルに処理されるので、そのローカル
キャッシュメモリで動作しているプロセッサは、「バス
利用」の頻度がずっと低く、そのためシステムバスの帯
域幅の要求が減じられ、より多くのバス帯域幅が他のバ
スマスタによって利用可能になる。当業者に周知のよう
に、コンピュータ内のバス、すなわちCPUとシステム
のメモリおよび記憶装置との間の通信チャネルが主なボ
トルネックであるので、これは重要なことである。事実
上、処理されるすべての命令およびすべてのデータが少
なくとも1度はこのルートを進まなければならない。ま
た、特に、メモリが1つだけでプロセッサが複数含まれ
る場合には、システムの性能を最大限にするため、バス
が効率的に利用されることが非常に重要である。
【0006】現在、プロセッサチップ上にデータキャッ
シュを実現することは珍しくない。そのようにキャッシ
ュがオンチップに含まれることで、対応する実行ユニッ
トからのロードリクエストに対してデータをより速やか
にアクセスすることができる。当業者には既に知られて
いるように、またそうでないとしても上述の説明から推
測されるように、そのようなデータキャッシュに「ヒッ
ト」がある場合、データは次の段階で実行ユニットに送
られ得る。これに反して、キャッシュ内に「ミス」があ
れば、キャッシュブロックが外部メモリからのデータに
割当られ、かつそれにより再ロードされる。
【0007】上述のように、キャッシュメモリシステム
はメモリへの参照を途中で捕らえ、かつキャッシュ内で
「ミス」する場合にのみ、それらをシステムメモリに送
る。多くの先行技術の米国特許が、キャッシュメモリの
種々の局面とキャッシュャッシュメモリ部分を含むメモ
リをアクセスする方法とに向けられており、それらの先
行技術米国特許には以下のようなものがある。ジーグラ
ー(Ziegler )らへの米国特許第4,794,521 号、ウェザ
フォード(Weatherford )らへの米国特許第4,646,233
号、モレノ(Moreno)らへの米国特許第4,780,808 号、
ジーグラー(Ziegler )らへの米国特許第4,783,736
号、ジョイス(Joyce )らへの米国特許第4,195,342
号、クロフト(Kroft )への米国特許第4,370,710 号、
ドッド(Dodd)への米国特許第4,476,526 号、シューネ
マン(Scheuneman)への米国特許第4,070,706 号、カプ
リンスキー(Kaplinsky )への米国特許第4,669,043
号、ハムストラ(Hamstra )への米国特許第4,811,203
号、ジョイス(Joyce )らへの米国特許第4,785,398
号、ギャノン(Gannon)らへの米国特許第4,189,770
号、およびランゲ(Lange )らへの米国特許第3,896,41
9 号である。キャッシュメモリシステムに大きな関心が
寄せられ、上述の米国特許により明らかにされたそのよ
うなシステムに大きな進歩が見られるにもかかわらず、
そのようなシステムにはなお短所および欠点がある。た
とえば、キャッシュはこれまで、ある一時に、再ロード
されるか次のロードリクエストを処理するかのいずれか
しかできなかった。言い換えれば、先行技術のシステム
では、キャッシュにミスがあればキャッシュは再ロード
される。キャッシュが再ロードされるまで、キャッシュ
への次のロードリクエストが処理できない。このプロセ
ス、すなわち、必要な場合には再ロードが完了するまで
ロードリクエストの処理を待ち合わせるプロセスは効率
が悪いが、それはまず第1に、ロード命令の頻度が大抵
の場合再ロードの頻度より多いからである。このため、
ペナルティなしで処理できまた処理されるはずのロード
リクエストが不必要に遅らされるかもしれない。第2
に、上述の先行技術のプロセスはより深いレベルで効率
が悪いが、それはロードリクエストがデータに依存して
しまうおそれがあり、ロードリクエストが遅れるため、
これはシステム全体の実行を待ち合わせることになり得
るからである。
【0008】上述の説明に基づいて、先行技術のシステ
ムが、ロードリクエスト処理がデータキャッシュ再ロー
ドと相入れないかもしれないというある短所および欠点
を有するということが理解されたはずである。この発明
で修正しようとする目標は、これらの短所および欠点で
ある。
【0009】
【発明の概要】上述の「効率の悪い」プロセスの短所お
よび欠点はこの発明により克服される。この発明は、こ
れらの短所および欠点を、キャッシュとともにブロック
サイズバッファを含めることで克服する。再ロードされ
たデータはキャッシュに書込まれるまえにバッファに書
込まれ、それによりキャッシュは対応する実行ユニット
からの次のロードリクエストを自由に処理することがで
きる。
【0010】より特定的には、この発明はプロセッサ、
プロセッサに動作的に接続され、主メモリ内にストアさ
れたデータがアクセスされてプロセッサにより利用でき
るようにされた主メモリ、データキャッシュメモリ、お
よびバッファを含むコンピュータメモリシステムを設け
ることで、先行技術の短所および欠点を克服する。この
発明の教示によれば、上述のデータキャッシュメモリは
プロセッサと主メモリとの間の経路に配置される。さら
に、データキャッシュメモリはプロセッサに動作的に接
続され、そこからロードリクエストを受取って、ロード
されている場合にはデータによりそれに直接応答し、か
つロードされていない場合には主メモリからのデータに
より再ロードされることで間接的にそれに応答する。さ
らにこの発明の教示によれば、上述のバッファはデータ
キャッシュメモリと主メモリとの間の経路に配置され、
その位置でバッファはデータキャッシュメモリに再ロー
ドされるデータを主メモリから受取り、かつその位置で
バッファは再ロードされるデータを一時的に保持する。
【0011】この発明はまた、データキャッシュが実行
ユニットからロードリクエストを受取り、かつストアさ
れたデータによりまたは再ロード動作を開始することに
よって、それに応答し得るデータキャッシュ動作の方法
を提供し、この方法は、ストアされたデータによってデ
ータキャッシュにストアされたデータに対するロードリ
クエストに応答するステップと、再ロード動作を開始す
ることによってデータキャッシュにストアされていない
データに対するロードリクエストに応答するステップと
を含む。この発明の教示によれば、再ロード動作を開始
するステップは、再ロードされるデータをアクセスする
ステップと、再ロードされるデータをバッファにストア
するステップと、再ロードされるデータをバッファから
データキャッシュに書込むステップとを含む。
【0012】さらに、この発明はロードリクエストを処
理する構造を含むデータキャッシュシステムを提供す
る。この発明の実施例では、含まれるプロセッサはコー
ドの順序で要求をしなければならない。命令の実行を停
止させ得るデータ依存のおそれがあるため、そのような
態様でロードリクエストを処理することが重要である。
命令の実行を妨げることのないストアリクエストについ
ては、再ロードの間にストアリクエストを処理する必要
はない。そのようなメカニズムを実現することは何の利
益ももたらすことなくデータキャッシュの制御論理の複
雑さを増すだけであろう。この発明の教示によると、処
理に優先順序を付けるための構造は、前記データキャッ
シュにロードされるデータが一時的にストアされる、お
そらくはブロックサイズの、バッファを含む。
【0013】したがって、この発明の目的は、実行ユニ
ットからのロードリクエストと再ロード動作との両方を
効率よく処理できるデータキャッシュシステムを提供す
ることである。
【0014】この発明の別の目的は、効率が維持される
が再ロードの間、ストアリクエストの処理よりもロード
リクエストの処理が優先される、データキャッシュシス
テムおよび方法を提供することである。
【0015】この発明の他の目的、利点、および新規な
特徴は、添付図面を参照して述べられるこの発明につい
ての以下の詳細な記述に基づき明らかとなるだろう。
【0016】
【実施例の詳細な説明】ここで、同様のまたは類似した
エレメントが図面を通し同じ参照番号で示されている図
面、特に図1を参照すると、包括的に参照番号10で示
された先行技術のコンピュータメモリシステムが示され
ている。図1では、システム10はプロセッサ12およ
び主メモリ14を含んで示される。プロセッサ12と主
メモリ14との間に並列に配置されるのは、命令キャッ
シュ16およびデータキャッシュ18である。命令キャ
ッシュ16は、特定の動作を指定し、かつプロセッサ1
2のためにオペランドを識別するプログラムステートメ
ントを処理する。一方、データキャッシュ18は、プロ
セッサ12により通信され、解釈され、または他の処理
をされる意味のある表現を処理する。この発明はエレメ
ント18、すなわちデータキャッシュに焦点を当てる。
【0017】データキャッシュ18についてもう少し詳
しく説明すると、上述の関連技術に関する説明部分で述
べられたように、当業者は高速データアクセスのため
に、プロセッサ12のようなプロセッサを備えたチップ
上にデータキャッシュ18を実現するようになった。デ
ータキャッシュは所望ならばスケッチパッドメモリであ
り、かつデータに対するリクエスト(図1の参照番号2
0で示される)を受取ることができ、かつデータがキャ
ッシュ18内に「ロードされて」いる場合にはデータ
(図1の参照番号22で示される)によってそれらのリ
クエストに応答することができる。このプロセスが上述
の「ヒット」であり、ある段階でのプロセッサ12から
のロードリクエストは次の段階でデータキャッシュ18
により応答され得る。一方、もしも、要求されたデータ
がデータキャッシュ18にない場合、すなわち、キャッ
シュ内に「ミス」がある場合には、データキャッシュ1
8内のブロックは要求されたデータを受取るために割当
られ、かつ次の段階で、データが外部メモリ14からキ
ャッシュ18内の割当られたブロックに「再ロード」さ
れる(図1の参照番号24で示されるプロセス)。一般
に、特定のデータはそのすぐ近くのデータに関連する
(当業者に「局所性」として知られる特性)ので、キャ
ッシュミスに続く再ロードの間には単一のデータワード
ではなくデータのブロックがフェッチされる。しかしな
がら、キャッシュミスがあった場合に実際にプロセッサ
12に要求されたデータを与えるプロセスの速度を上げ
るには、実際に要求されたデータ(すなわちロードリク
エスト20によるもの)は一般にまずフェッチされ、残
りのキャッシュブロックがフェッチされる前にプロセッ
サ12に送られる。さらに、データの一致性を確実にす
るため、一般に単一の有効ビットが各々の再ロードされ
たデータのブロックの各々に割り当てられる。
【0018】上述の関連技術についての説明部分から推
測されるように、ロードリクエストを処理するのと同時
にデータキャッシュが再ロードされない限り、コンピュ
ータメモリシステム10は性能が低下する。したがっ
て、キャッシュ「ミス」があった場合には、再ロードは
次のロードリクエスト20が応答され得る前に完了され
なければならない、これはたとえそのリクエストがキャ
ッシュ内のデータにより容易に処理できたとしても(す
なわち「ヒット」)である。この先行技術のシステムの
欠点はシステムの効率を遅らせ、また効率を悪くするの
で、それらのシステムに短所および欠点が生じる。
【0019】ここで図2を参照すると、図2に示される
システムがこの発明の教示により修正されていること以
外は図1に示されるのと同様のコンピュータメモリシス
テムが示されている。図2のシステムは、主に、主メモ
リ14とデータキャッシュ18との間に配置されたブロ
ックサイズバッファ26を含む点で、図1のシステム1
0とは異なっていることがわかるだろう。このバッファ
26の目的は、ある段階の間主メモリからデータキャッ
シュ18に再ロードされるデータを保持することであ
る。このバッファ26を含むことによってデータキャッ
シュは「解放」され、データキャッシュがプロセッサ1
2からの次のロードリクエスト20を処理することがで
きるようになる。
【0020】図2のシステムの動作についての説明はこ
こで役立つであろう。キャッシュミスがあった場合、前
述のように、主メモリ14からのキャッシュ18の再ロ
ードが開始される。次の段階で、主メモリ14からのキ
ャッシュ18内に再ロードされるデータはバッファ26
に移されてプロセッサ12に送られ、第1のリクエスト
を満たす。この同じ段階の間に、データキャッシュ18
はプロセッサ12からの次のロードリクエスト20を処
理することができる。ここでキャッシュヒットがあれ
ば、次の段階でデータキャッシュ18から実行ユニット
12にデータが送られる。他方では、次のロードリクエ
ストに対するキャッシュミスがあれば、バッファ26を
介して再ロードが完了した後に再びキャッシュがアクセ
スされるのみである。第2のミスがあれば、第2の再ロ
ードが開始される。ヒットがあれば即座にリクエストに
応答することが可能であり、以下同様の動作が続く。
【0021】期待外れなほど簡単であるが、この発明は
コンピュータメモリシステムに対し多数の注目すべき利
点を提供する。第1に、「ロードリクエスト」20と
「ストアリクエスト」(すなわち、図1または図2のい
ずれにも特に示されていないが、再ロード動作24をト
リガするロードリクエスト)とを識別して、この発明の
実施例は再ロードの間にストアリクエストよりロードリ
クエストのほうを処理する。まず第1にロード命令の頻
度が概してストア命令の頻度よりも高いため、こうする
ことは有利である。ゆえに、ロード命令の処理を優先さ
せることにより、ロード命令が未処理であることは少な
くなる。第2に、ロード命令はプロセッサの実行を待ち
合わせる可能性があるデータ依存性を有することがあ
る。したがって、ストア命令を処理する前にロード命令
を処理することにより、処理動作の速度が上げられ、効
率が上げられる。
【0022】上述の説明に基づいて、当業者は、この発
明がいかにして、データキャッシュを再ロードする間に
ロードリクエストのインテリジェント処理が実行される
コンピュータメモリシステムを提供するかを理解し認識
したはずである。この発明の実施例は、コストの低い、
熟慮の上配置されたバッファにより、動作の効率を大変
よくする。簡単にいえば、この発明は、キャッシュブロ
ックを再ロードする間に実行ユニット(たとえばプロセ
ッサ12)からのロードリクエストを効率的に処理する
キャッシュを提供する。バッファ/キャッシュの相互関
係の詳細は、この発明を実施するに当たって重要である
が、それらは概して従来通りであり、さもなければ上述
の関連事件で詳しく説明されるので、ここでそれらにつ
いて詳しく論じる必要はない。
【0023】明らかに、この発明についての多くの修正
および変形が上述の教示からなされ得る。したがって、
前掲の特許請求の範囲の範囲内で、この発明はここで特
定的に述べられている以外の方法でも実施され得る。
【図面の簡単な説明】
【図1】先行技術のデータキャッシュシステムのブロッ
ク図である。
【図2】この発明の教示によるデータキャッシュシステ
ムのブロック図である。
【符号の説明】
10 コンピュータメモリシステム 12 プロセッサ 14 主メモリ 18 データキャッシュ 26 バッファ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 タン・トラン アメリカ合衆国、78730 テキサス州、オ ースティン、イーグル・トレイス・トレイ ル、5209

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 プロセッサと、 前記プロセッサに動作的に接続され、そこにストアされ
    たデータがアクセスされて前記プロセッサによって利用
    されるようにされた主メモリと、 前記プロセッサと前記主メモリとの間の経路に配置され
    たデータキャッシュメモリとを含み、前記データキャッ
    シュメモリが前記プロセッサに動作的に接続されて前記
    プロセッサからのロードリクエストを受取り、かつロー
    ドされている場合にはデータによってそれらのロードリ
    クエストに直接応答し、ロードされていない場合には主
    メモリからのデータが再ロードされることでそれらのロ
    ードリクエストに間接的に応答し、さらに、 前記データキャッシュメモリと前記主メモリとの間の経
    路に配置されたバッファを含み、前記バッファが、前記
    主メモリから前記データキャッシュメモリに再ロードさ
    れるデータを受取りかつ前記データを一時的に保持する
    機能を果たす、コンピュータメモリシステム。
  2. 【請求項2】 前記バッファがブロックサイズバッファ
    である、請求項1に記載のコンピュータメモリシステ
    ム。
  3. 【請求項3】 データキャッシュが実行ユニットからの
    ロードリクエストを受取り、かつストアされたデータに
    よりまたは再ロード動作を開始することでそこに応答し
    得るデータキャッシュ動作のための方法であって、 前記ストアされたデータによってデータキャッシュにス
    トアされたデータに対するロードリクエストに応答する
    ステップと、 再ロード動作を開始することでデータキャッシュにスト
    アされていないデータに対するロードリクエストに応答
    するステップとを含み、再ロード動作を開始する前記ス
    テップがさらに、 (1) 再ロードされる前記データをアクセスするステ
    ップと、 (2) 再ロードされる前記データをバッファにストア
    するステップと、 (3) 再ロードされる前記データを前記バッファから
    前記データキャッシュに書込むステップとを含む、デー
    タキャッシュ動作のための方法。
  4. 【請求項4】 再ロードされる前記データをバッファに
    ストアする前記ステップが、前記再ロードされる前記デ
    ータをブロックサイズバッファにストアするステップを
    含む、請求項3に記載のデータキャッシュ動作のための
    方法。
  5. 【請求項5】 ロードリクエストを処理するための手段
    と、 ストアリクエストを処理するための手段と、 ロードリクエストの処理に優先順序を付けるための手段
    とを含み、処理に優先順序を付けるための前記手段が、
    前記データキャッシュにロードされるデータが一時的に
    ストアされるブロックサイズバッファを含む、データキ
    ャッシュシステム。
JP6002332A 1993-01-21 1994-01-14 コンピュータメモリシステム、データキャッシュ動作の方法およびデータキャッシュシステム Withdrawn JPH06282489A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US674493A 1993-01-21 1993-01-21
US006744 1993-01-21

Publications (1)

Publication Number Publication Date
JPH06282489A true JPH06282489A (ja) 1994-10-07

Family

ID=21722360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6002332A Withdrawn JPH06282489A (ja) 1993-01-21 1994-01-14 コンピュータメモリシステム、データキャッシュ動作の方法およびデータキャッシュシステム

Country Status (2)

Country Link
EP (1) EP0607669A1 (ja)
JP (1) JPH06282489A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3294555B2 (ja) 1998-08-31 2002-06-24 理想科学工業株式会社 孔版印刷装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0375864A3 (en) * 1988-12-29 1991-03-20 International Business Machines Corporation Cache bypass
JPH03189845A (ja) * 1989-12-13 1991-08-19 Internatl Business Mach Corp <Ibm> 階層メモリ・システムおよびキヤツシユ・メモリ・サブシステム

Also Published As

Publication number Publication date
EP0607669A1 (en) 1994-07-27

Similar Documents

Publication Publication Date Title
JP3816586B2 (ja) 先取り命令を生成する方法とシステム
JP4486750B2 (ja) テンポラリ命令及び非テンポラリ命令用の共用キャッシュ構造
US7917701B2 (en) Cache circuitry, data processing apparatus and method for prefetching data by selecting one of a first prefetch linefill operation and a second prefetch linefill operation
US5838945A (en) Tunable software control of harvard architecture cache memories using prefetch instructions
US6658533B1 (en) Method and apparatus for write cache flush and fill mechanisms
US5829025A (en) Computer system and method of allocating cache memories in a multilevel cache hierarchy utilizing a locality hint within an instruction
US6782454B1 (en) System and method for pre-fetching for pointer linked data structures
US6564313B1 (en) System and method for efficient instruction prefetching based on loop periods
US4933837A (en) Methods and apparatus for optimizing instruction processing in computer systems employing a combination of instruction cache and high speed consecutive transfer memories
US6578130B2 (en) Programmable data prefetch pacing
US7895399B2 (en) Computer system and control method for controlling processor execution of a prefetech command
US6292871B1 (en) Loading accessed data from a prefetch buffer to a least recently used position in a cache
US7765360B2 (en) Performing useful computations while waiting for a line in a system with a software implemented cache
US6718454B1 (en) Systems and methods for prefetch operations to reduce latency associated with memory access
US6715035B1 (en) Cache for processing data in a memory controller and a method of use thereof to reduce first transfer latency
US6959363B2 (en) Cache memory operation
JPH09160827A (ja) コールド・キャッシュ命令のプリフェッチ
JP3763579B2 (ja) 命令読出を先に予測することにより、読出ミス待ち時間を低減するための装置および方法
CN100390757C (zh) 处理器预取以匹配存储器总线协议特性
JP4210024B2 (ja) 記憶装置を動作する方法および記憶装置
US5860150A (en) Instruction pre-fetching of a cache line within a processor
US20040088490A1 (en) Super predictive fetching system and method
US5809550A (en) Method and apparatus for pushing a cacheable memory access operation onto a bus controller queue while determining if the cacheable memory access operation hits a cache
US6836823B2 (en) Bandwidth enhancement for uncached devices
US7120776B2 (en) Method and apparatus for efficient runtime memory access in a database

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010403