JP3552114B2 - キャッシュ・メモリ及び主記憶装置を更新する方法と装置及びコンピュータシステム - Google Patents

キャッシュ・メモリ及び主記憶装置を更新する方法と装置及びコンピュータシステム Download PDF

Info

Publication number
JP3552114B2
JP3552114B2 JP31932692A JP31932692A JP3552114B2 JP 3552114 B2 JP3552114 B2 JP 3552114B2 JP 31932692 A JP31932692 A JP 31932692A JP 31932692 A JP31932692 A JP 31932692A JP 3552114 B2 JP3552114 B2 JP 3552114B2
Authority
JP
Japan
Prior art keywords
cache
storage
virtual address
cpu
write
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP31932692A
Other languages
English (en)
Other versions
JPH05257804A (ja
Inventor
マーク・ヤング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH05257804A publication Critical patent/JPH05257804A/ja
Application granted granted Critical
Publication of JP3552114B2 publication Critical patent/JP3552114B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0891Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using clearing, invalidating or resetting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • G06F12/1027Address translation using associative or pseudo-associative address translation means, e.g. translation look-aside buffer [TLB]
    • G06F12/1045Address translation using associative or pseudo-associative address translation means, e.g. translation look-aside buffer [TLB] associated with a data cache
    • G06F12/1063Address translation using associative or pseudo-associative address translation means, e.g. translation look-aside buffer [TLB] associated with a data cache the data cache being concurrently virtually addressed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

【0001】
【産業上の利用分野】
本発明はキャッシュ・メモリ・システムの分野に関する。本発明は特に記憶装置を共用するプログラム用の別名アドレスを支援し、且つキャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリ・システムにおけるキャッシュ・フラッシュを低減する方法に関する。
【0002】
【従来の技術】
キャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用したキャッシュ・メモリ・システムでは、データはキャッシュ・メモリのキャッシュ・ラインと、主記憶装置の対応する記憶ブロックとに同時にディスパッチされる。しかし、書き込みキャッシュ・ヒットがある場合だけはデータはキャッシュ・ラインに書き込まれる。別の方法としては、記憶ブロックをキャッシュ・ライン内に装填し、次にそれが書き込みキャッシュ・ヒットであるかのように想定してキャッシュ・ラインを更新するライト・スルーがある。
【0003】
更に、対応する記憶ブロックへのデータの書き込みは代表的にはキャッシュ・メモリのキャッシュ・ラインへのデータの書き込みよりも非常に長い。主記憶装置へのデータの書き込みの完了を待機中、中央処理装置(CPU)は機能を停止する。書き込み停止を軽減する一つのアプローチは主記憶装置に書き込むための書き込みバッファを利用することによって、データがキャッシュ・メモリに書き込まれた後、CPUを継続できるようにすることである。
【0004】
仮想キャッシュ・メモリ・システムでは、物理的アドレスの代わりに、仮想アドレス(プラスその他の情報)に準拠してキャッシュ・ヒット/ミスが決定される。代表的には、主記憶装置をアクセスするために仮想アドレスは記憶域管理装置によって物理的アドレスへと変換される。物理的な1ページ以上のサイズを有するキャッシュ・メモリ・システムの場合、2つ、又はそれ以上の仮想アドレスを同じ物理的アドレスに変換できる。言い換えると、同じ物理的アドレスからのデータは2つ、又はそれ以上の別個のライン内にキャッシュされる。
【0005】
2つ、又はそれ以上の仮想アドレスへとマップされる物理的アドレスを有するこの特性は、物理的アドレスの内容が2つ、又はそれ以上のキャッシュ・ラインへとキャッシュされることを除けば、共通の記憶装置を共用したいプログラムを実行するために実際に望ましいものである。共通の記憶装置を共用する各々のプログラムは共通の記憶装置用の独自の仮想アドレスを有し、これは一般に別名アドレス指定と呼ばれる。しかし、物理的アドレスの内容が2つ、又はそれ以上のキャッシュ・ライン内にキャッシュされるという事実は、データの整合性の問題を生ずる。何故ならば、キャッシュ・ラインの一つの内容が書き込みキャッシュ・ヒット内で更新されると、キャッシュ・ライン内の内容は同期から外れることがあるからである。別名アドレス指定におけるデータの整合性の問題に対する一つのアプローチは、仮想アドレスを同じキャッシュ記憶位置内に強制的にキャッシュさせる技術である。同じキャッシュ記憶位置へと強制できない仮想アドレスの場合は、それらの物理的記憶ページには「キャッシュ禁止」のマークを付すことによって、データの整合性の問題が一気に回避される。
【0006】
キャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリ・システムでは、別名アドレス指定におけるデータの整合性の問題は、データは書き込みキャッシュ・ミスで共通のキャッシュ記憶位置の周囲の物理的記憶位置へと直接書き込むことができるので、依然として完全には処理されない。データの整合性を確保するため、キャッシュ・ラインは書き込みキャッシュ・ミスでフラッシュされる。すなわち、キャッシュ・ラインの内容は書き込みキャッシュ・ミスで無効になる。代表的には、キャッシュ・ラインのフラッシングが「キャッシュ禁止」の物理的記憶ページの物理的アドレスへとマップする仮想アドレスには不要であるが、ほとんどのプログラムが共通の記憶装置を共用していない場合でも、キャッシュ・ラインは無条件にフラッシュされる。ハードウェアがCPUからのどの仮想アドレスを別名アドレスにするかを決定することは極めて困難であるので、ラインのフラッシングは好ましい方法である。従って、基本的な規則は全ての仮想アドレスが別名アドレスであると想定し、無条件にフラッシュすることである。
【0007】
無効となったキャッシュ・ラインの内容は後に主記憶装置から再取出しされることになるので、キャッシュのフラッシングはコスト高である。「キャッシュ禁止」の物理的アドレスにマップする仮想アドレスにはフラッシングは不要であるので、無条件のフラッシングは特に無駄であるものの、これらの仮想アドレスの結果、常に書き込みキャッシュ・ミスを生ずるので、これらの不要なフラッシングは常に実行される。記憶装置を共用するプログラム用の別名アドレス指定を支援する代表的なコンピュータ・システムでは、「キャッシュ禁止」のマークを付した多くの物理的アドレスがある。例えば、ピックスマップされたビデオ・ディスプレー及びディスプレー・アダプタの双方又は一方を有する前記コンピュータ・システムのフレーム・バッファ用に割当てられた記憶装置には一般に「キャッシュ禁止」のマークが付されている。フレーム・バッファへの全ての書き込みによって書き込みキャッシュ・ミスが生ずるので、プロセッサにより実行される全てのスクリーンのスクロールによって不要なフラッシングが実行される。
【0008】
経験上、特に仮想キャッシュ・メモリ・システムが直接マップされ、又は低いセット連想性でマップされる場合は、過剰なフラッシングは前記のようなコンピュータ・システムの性能を劇的に損なうことが判明している。従って、記憶装置を共用するプログラム用の別名アドレス指定を支援し、且つキャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリ・システムでキャッシュ・書き込みミスが生じた場合に条件付きでキャッシュ・ラインのフラッシングが実行されることが望ましい。
【0009】
仮想キャッシュ・メモリ・システムと、書き込み割り付けを有さないライト・スルーに関するより詳細な説明は、J.L.ヘネシィ、D.A.パターソン著「コンピュータ体系、定量的アプローチ」(モーガン・カウフマン出版Inc.1990年刊、408−449ページ)を参照されたい。別名アドレス指定の更に詳細な説明は、1987年10月10日に出願の米国特許出願連続番号第07/104,635号、及び1990年7月16日出願の継続出願連続番号第07/554,186号を参照されたい。
【0010】
【発明が解決しようとする課題】
従って本発明の課題は記憶装置を共用するプログラム用の別名アドレス指定を支援し、且つキャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリ・システムの性能を向上させることである。
【0011】
本発明の課題は記憶装置を共用するプログラム用の別名アドレス指定を支援し、且つキャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリ・システムにおいてキャッシュ・フラッシングを低減することである。
【0012】
【課題を解決するための手段】
本発明に従って、上記の課題及びその他の課題は、キャッシュ・メモリ用の仮想アドレス指定を支援するキャッシュ制御装置と、更新用の書き込み割り付けを有さないライト・スルーと、記憶装置を共用したプログラム用の別名アドレス指定と、キャッシュされない物理的記憶ページで書き込みキャッシュ・ミスが生じた場合のキャッシュ・ラインのフラッシングのスキップの機能とを備えた改良されたキャッシュ制御装置を提供することによって達成される。好ましい実施例では、物理的記憶ページはキャッシュ制御装置の記憶域管理装置内に「キャッシュ禁止」のマークが付される。キャッシュ制御論理が書き込みキャッシュ・ミスを検出すると、この論理は記憶域管理装置を点検して、「キャッシュ禁止」のマークが付された物理的記憶ページでキャッシュ・ミスが生じたかどうかが判定される。物理的記憶ページに上記のマークが付されている場合、キャッシュ制御論理はキャッシュ・ラインのフラッシングをスキップすることによって、不要なフラッシングを低減し、キャッシュ・メモリ・システムの性能を向上させる。
【0013】
【実施例】
記憶装置を共用するプログラム用の別名アドレス指定を支援し、且つキャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した、キャッシュ・フラッシュを低減した改良された仮想キャッシュ・メモリ・システムが開示される。説明目的の下記の記述では、本発明を完全に理解するために特定の数値、材料及び構造を記載する。しかし、本発明は特定の細目がなくても実施できることが専門家には理解されよう。別の例では、本発明を不要に不明確にしないために、公知のシステムは図表又は構成図で図示する。
【0014】
ここで図1を参照すると、本発明の教示を実施したコンピュータ・システムを示した構成図が示されている。図1に示すように、コンピュータ・システム10は中央処理装置(CPU)12と、本発明のキャッシュ・メモリ制御装置14と、キャッシュ・メモリ16と、主記憶装置18とから構成されている。CPU12は仮想アドレスバス22とデータバス24とを介して本発明のキャッシュ・メモリ制御装置14と、キャッシュ・メモリ16とに連結されている。更に、CPU12は書き込みバッファ20と、多重化されたデータ及びアドレスバス26とを介して主記憶装置18に連結され、本発明のキャッシュ・メモリ制御装置14は多重化されたデータ及びアドレスバス26を介して主記憶装置18に連結されている。
【0015】
キャッシュ・メモリ16は仮想アドレス指定される。すなわち、キャッシュ・ヒット/ミスは物理的アドレスでなく仮想アドレスに準拠して決定される。主記憶装置18はキャッシュ・メモリ16内に直接マップされるか、又は完全連想性の態様、又はセット連想性の態様でマップされる。しかし、同じ物理的アドレスに対応する別名仮想アドレスはキャッシュの同じ領域に指標付けされるか、又はキャッシュ・メモリにマップされない。
【0016】
CPU12は書き込み割り付けアプローチがないライト・スルーを用いてキャッシュ・メモリ16と、主記憶装置18とを更新する。すなわち、データはCPU12からキャッシュ・メモリ16と、主記憶装置18とに同時にディスパッチされ、書き込みキャッシュ・ヒットがある場合は、ディスパッチされたデータはキャッシュ・メモリ16のキャッシュ・ラインへとキャッシュされる。言い換えると、記憶ブロックは主記憶装置からキャッシュ・ライン内に取り出されず、次に、書き込みキャッシュ・ミスが生じた場合、それが書き込みキャッシュ・ヒットであるかのように想定してキャッシュ・ラインが更新される。
【0017】
CPU12と、キャッシュ・メモリ16と、主記憶装置18と、書き込みバッファ20と、仮想アドレスバス22と、データバス24と、多重化されたデータ及びアドレスバス26とは、キャッシュ及び主記憶装置を更新するために書き込み割り付けを有さないライト・スルーを利用した仮想キャッシュ・メモリを有するほとんどのコンピュータ・システムに装備された広く公知のCPU、キャッシュ・メモリ、主記憶装置、書き込みバッファ、仮想アドレスバス、データバス及び、多重化されたデータ及びアドレスバスを表すことを意図するものである。このようなコンピュータ・システムの例にはカリフォルニア州、マウンテン.ビューのサン.マイクロシステム社製のSparcstationTM・コンピュータ・システムがある。(Sparcstationはサン.マイクロシステム社の登録商標である。)
【0018】
更に、CPU12と、本発明のキャッシュ・メモリ制御装置14と、キャッシュ・メモリ16と、主記憶装置18とは図1に示した実施例以外の他の多様な公知の態様で連結することができる。
【0019】
さて、図2を参照すると、本発明のキャッシュ・メモリ制御装置の現在の好ましい実施態様の構成図が示されている。本発明のキャッシュ・メモリ制御装置14の現在の好ましい実施態様は、キャッシュ制御論理28と、キャッシュ標識アレイ30と、記憶域管理装置32と、別名制御論理34とから構成されている。キャッシュ制御論理28はキャッシュ標識アレイ30と、記憶域管理装置32と、別名制御論理34とに連結されている。
【0020】
キャッシュ標識アレイ30はキャッシュ・メモリ16のキャッシュ・ラインに対応する複数個のキャッシュ標識から成っている。各々のキャッシュ標識はキャッシュ・メモリ16のキャッシュ・ライン内に現在キャッシュされている主記憶装置18の記憶ブロックを識別する切捨てられた仮想アドレスと、キャッシュ・ライン内に現在キャッシュされているデータが妥当であるかどうかを示す妥当性ビットとから成っている。キャッシュ標識アレイ30は任意の公知の態様で実施することができる。
【0021】
記憶域管理装置32は仮想アドレスを物理的アドレスにマップするための回路から成っている。更に、記憶域管理装置32は主記憶装置18の物理的記憶ページを記述する複数個の物理的記憶ページ記述子ブロックを有する物理的記憶ページ・テーブルを備えている。詳細に述べると、各々の物理的記憶ページ記述子ブロックは、コンピュータ・システム上で支援されている別名アドレス指定に起因して物理的記憶ページがキャッシュ不能である場合にセットされる「キャッシュ禁止」ビットから成っている。記憶域管理装置32は多様な公知の態様で実施することができ、記憶域管理装置32の実施態様の更に詳細な説明は1987年10月2日に出願の米国特許出願連続番号第07/104,635号、及び1990年7月16日出願の継続出願連続番号第07/554,186号を参照されたい。
【0022】
別名制御論理34は、CPU12がキャッシュ・メモリ16から読み出すことを試みた場合に別名アドレスを検出するための回路から成っている。別名制御論理34は多様な公知の態様で実施することができ、別名制御論理の更に詳細な説明は記憶域管理装置に関する参考文献を参照されたい。
【0023】
キャッシュ制御論理28はキャッシュ・メモリ制御装置14の動作を制御する回路から成っている。更新用の書き込み割り付けアプローチがないライトスルーを用いた仮想キャッシュ・メモリを有するコンピュータ・システムの大部分に装備されているキャッシュ制御装置によって実行される基本機能と同様の、キャッシュ制御装置14によって実行される基本機能のために、キャッシュ制御論理28は上記のコンピュータ・システムで採用されている任意の公知の態様で実施することができる。キャッシュ・メモリ16を更新するためのキャッシュ制御論理の制御の流れ図が図3に示されている。
【0024】
図3に示すように、キャッシュ制御論理はブロック42でCPUから書き込み信号と仮想アドレスを受理する。キャッシュ制御論理はブロック44で、キャッシュ記憶標識を用いて、仮想アドレスの結果、書き込みキャッシュ・ヒットが生じたかどうかを判定する。仮想アドレスの結果、書き込みキャッシュ・ヒットが生じた場合は、キャッシュ制御論理はブロック46でキャッシュ・メモリがCPUからデータ・バイトを受理するように命令する制御信号をキャッシュ・メモリに供給し、且つ仮想アドレスによって識別されたキャッシュ・ライン内にデータ・バイトを記憶する。CPUからの書き込み信号と初期アドレスがキャッシュ・メモリ制御装置へとディスパッチされた後、データ・バイトはCPUからキャッシュ・メモリへとディスパッチされる。
【0025】
更に、キャッシュ制御論理はブロック48で記憶域管理装置を用いて物理的アドレスへと仮想アドレスをマップする。次にキャッシュ制御論理は主記憶装置に対して、CPUからのデータ・バイトを受理するように命令する物理的アドレスと制御信号を主記憶装置に供給し、且つ物理的アドレスによって識別された記憶場所にデータ・バイトを記憶する。CPUからキャッシュ・メモリへのディスパッチと同時にデータ・バイトはCPUから主記憶装置へとディスパッチされる。
【0026】
仮想アドレスの結果、書き込みキャッシュ・ミスを生じた場合は、キャッシュ制御論理は、ブロック52で記憶域管理装置を利用して初期アドレスを物理的アドレスへとマップし、次にキャッシュ制御論理はブロック54で記憶域管理装置を利用して、対応する物理的アドレスがキャッシュ不能のマークが付された物理的記憶ページ内の記憶場所を識別するかどうかを判定する。対応する物理的アドレスがキャッシュ不能のマークが付されていない物理的記憶ページ内の記憶場所を識別する場合は、キャッシュ制御論理はブロック56でキャッシュ・ラインをフラッシュし、そうではない場合は、キャッシュ制御論理はキャッシュ・ラインのフラッシングをスキップすることによって、キャッシュされない記憶場所用の不要なフラッシングを回避する。キャッシュ制御論理はキャッシュ・ライン用のキャッシュ標識内の妥当なビットをアンセットすることによってキャッシュ・ラインをフラッシュし、それによってキャッシュ・ライン内に現在キャッシュされているデータ内容を無効にする。書き込みキャッシュ・ミスを生じた書き込み動作はCPUを継続動作させる前に、正規のアクセス許可に関してチェックされなければならず、記憶域管理装置が点検されるので、性能を損なわずに不要なフラッシュを回避することができる。
【0027】
更に、キャッシュ・ラインがフラッシュされたかどうかに関わりなく、キャッシュ制御論理はブロック58で主記憶装置がCPUからのデータ・バイトを受理するように命令する物理的アドレスと制御信号を主記憶装置に供給し、物理的アドレスによって識別された記憶場所にデータ・バイトを記憶する。前述したように、CPUからキャッシュ・メモリへのディスパッチと同時にデータ・バイトはCPUから主記憶装置へとディスパッチされる。
【0028】
これまで本発明を現在の好ましい実施例に関して説明してきたが、本発明は前述の実施例に限定されないことが専門家には理解されよう。本発明の方法と装置は添付の請求項の趣旨と範囲内で修正及び変更して実施することができる。従ってこれまでの記述は本発明を限定するものではなく、例示するものである。
【0029】
【発明の効果】
物理的記憶ページに「キャッシュ禁止」のマークが付されている場合、キャッシュ制御論理がキャッシュ・ラインのフラッシングをスキップすることによって、不要なフラッシングが低減し、キャッシュ・メモリ・システムの性能が向上する。
【図面の簡単な説明】
【図1】本発明の教示を実施したコンピュータ・システムである。
【図2】本発明のキャッシュ・メモリ制御装置である。
【図3】本発明のキャッシュ・メモリ制御装置のキャッシュ制御論理の制御の流れ図である。
【符号の説明】
12 中央処理装置(CPU) 14 キャッシュ・メモリ制御装置
16 キャッシュ・メモリ 18 主記憶装置
20 書き込みバッファ 22 仮想アドレスバス
24 データバス 26 アドレスバス
28 キャッシュ制御論理 30 キャッシュ標識アレイ
32 記憶域管理装置 34 別名制御論理

Claims (2)

  1. キャッシュ・メモリと主記憶装置とに連結され、複数の処理手順を実行する中央処理装置(CPU)を備え、キャッシュ・ヒット/ミスが仮想アドレスに準拠し、前記仮想アドレスの一部が相互に別名アドレスであるコンピュータ・システムにおける前記CPUがキャッシュ・フラッシングを低減するように前記キャッシュ・メモリ及び主記憶装置を更新する方法において、
    前記キャッシュ・メモリが前記CPUから書き込み信号と仮想アドレスを受理する段階と、
    前記キャッシュ・メモリにおいて、前記仮想アドレスに準拠して書き込みキャッシュ・ヒットと書き込みキャッシュ・ミスとのいずれが生じたかを判定し、かつ前記主記憶装置の記憶ブロックの記憶位置として識別された物理アドレスにその仮想アドレスをマッピングする段階と、
    もし前記仮想アドレスが前記書き込みキャッシュ・ヒットであれば、前記キャッシュ・メモリによって、内部のキャッシュ・メモリ・データ・アレイが前記CPUからデータ・バイトを受理することを命令する第1制御信号をそのキャッシュ・メモリ・データ・アレイに提供する段階であって、前記データ・バイトは、前記CPUによって前記キャッシュ・メモリにディスパッチされ、かつ前記キャッシュ・メモリによる受理に応じてキャッシュ・ラインにキャッシュされ、そのキャッシュラインは前記仮想アドレスによって識別され、かつ前記記憶ブロックに対応している、前記第1制御信号を提供する段階と、
    前記主記憶装置に前記データ・バイトを受理することを命令する第2制御信号と前記物理アドレスとを前記キャッシュ・メモリから主記憶装置に提供し、CPUから前記主記憶装置にディスパッチされる前記データ・バイトを前記記憶位置に格納する段階と、
    前記物理アドレスによって識別された前記主記憶装置の記憶位置が前記主記憶装置のキャッシュ不能な記憶ブロックのキャッシュ不能な記憶位置であるかどうかを判定する段階であって、そのキャッシュ不能の結果が前記キャッシュ・ヒット又はキャッシュ・ミスの判定の後に利用可能であって、前記仮想アドレスが前記書き込みキャッシュ・ミスになり、かつ前記記憶位置がキャッシュ不能な記憶位置でないとき、前記仮想アドレスの別名アドレスを検出することなく、前記記憶ブロックをキャッシュするキャッシュ・ラインをフラッシュすることを特徴とする判定する段階と、
    を有し、前記キャッシュ・ラインがキャッシュ可能な記憶ブロックに対応するときのみそのキャッシュ・ラインをフラッシュさせ、不必要なキャッシュ・フラッシュを減少させることを特徴とする方法。
  2. キャッシュ・メモリと主記憶装置とに連結され、複数の処理手順を実行する中央処理装置(CPU)を備え、キャッシュ・ヒット/ミスが仮想アドレスに準拠し、前記仮想アドレスの一部が相互に別名アドレスであるコンピュータ・システムにおける前記CPUがキャッシュ・フラッシングを低減するように前記キャッシュ・メモリ及び主記憶装置を更新するキャッシュ・メモリ制御装置において、
    前記キャッシュ・メモリの複数のキャッシュ・ラインに現在キャッシュされている前記主記憶装置の複数の記憶ブロックを識別する複数のキャッシュ標識を格納するキャッシュ標識アレイと、
    前記主記憶装置の記憶ブロックの記憶位置として識別された物理アドレスに仮想アドレスをマッピングし、前記主記憶装置のキャッシュ不能記憶ブロックを含むキャッシュ不能物理記憶ページを探す記憶管理装置と、
    前記CPU、前記キャッシュ標識アレイ、前記記憶管理装置に接続されたキャッシュ制御論理であって、前記CPUから書込み信号と仮想アドレスとを受信すること、その仮想アドレスに基づいてかつキャッシュ標識アレイを用いて仮想アドレスが書込みキャッシュ・ヒットか書込みキャッシュ・ミスのいずれかになるかを判定すること、前記記憶管理装置を用いて前記主記憶装置の記憶位置を識別する物理アドレスに前記仮想アドレスをマッピングすること、前記仮想アドレスが書き込みキャッシュ・ヒットとなった場合に、CPUからデータ・バイトを受け取り、同時にそれを前記CPUが主記憶装置と前記キャッシュ・メモリとにディスパッチし、仮想アドレスによって識別されかつ前記記憶ブロックに対応しているキャッシュ・メモリのキャッシュ・ラインにそのデータ・バイトがキャッシュされるように、前記キャッシュ・メモリに命令する第1制御信号を前記キャッシュ・メモリに供給すること、前記主記憶装置がCPUから前記データ・バイトを受け取り、そのデータ・バイトを前記記憶位置に格納するように命令する第2制御信号と物理アドレスとを前記主記憶装置に供給すること、前記物理アドレスによって識別された前記記憶位置がキャッシュ不能記憶位置であるかどうかを前記記憶管理装置を用いて判定することとを実施し、キャッシュ不能の判定の結果を前記キャッシュ・ヒット/ミスの判定の結果の後に利用可能とするキャッシュ制御論理とを備え、
    前記仮想アドレスが前記書き込みキャッシュ・ミスになり、かつ前記記憶位置がキャッシュ不能な記憶位置でないとき、前記仮想アドレスの別名アドレスを検出することなく、前記記憶ブロックをキャッシュするキャッシュ・ラインをフラッシュする手段を前記キャッシュ制御論理が有することを特徴とするキャッシュ・メモリ制御装置。
JP31932692A 1991-11-04 1992-11-04 キャッシュ・メモリ及び主記憶装置を更新する方法と装置及びコンピュータシステム Expired - Lifetime JP3552114B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US78754791A 1991-11-04 1991-11-04
US787547 1997-01-22

Publications (2)

Publication Number Publication Date
JPH05257804A JPH05257804A (ja) 1993-10-08
JP3552114B2 true JP3552114B2 (ja) 2004-08-11

Family

ID=25141839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31932692A Expired - Lifetime JP3552114B2 (ja) 1991-11-04 1992-11-04 キャッシュ・メモリ及び主記憶装置を更新する方法と装置及びコンピュータシステム

Country Status (5)

Country Link
US (1) US5933844A (ja)
EP (1) EP0541319B1 (ja)
JP (1) JP3552114B2 (ja)
KR (1) KR100285533B1 (ja)
DE (1) DE69219433T2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356996B1 (en) * 1998-03-24 2002-03-12 Novell, Inc. Cache fencing for interpretive environments
EP1046998A1 (en) * 1999-04-22 2000-10-25 Texas Instruments Incorporated Digital signal processors with virtual addressing
US6453404B1 (en) * 1999-05-27 2002-09-17 Microsoft Corporation Distributed data cache with memory allocation model
US7065632B1 (en) * 2000-04-07 2006-06-20 Ip First Llc Method and apparatus for speculatively forwarding storehit data in a hierarchical manner
GB2372589B (en) 2001-02-21 2003-01-22 3Com Corp Memory aliasing in a processor system
US6725337B1 (en) * 2001-05-16 2004-04-20 Advanced Micro Devices, Inc. Method and system for speculatively invalidating lines in a cache
US7564375B2 (en) * 2001-09-11 2009-07-21 Zonar Systems, Inc. System and method to associate geographical position data collected from a vehicle with a specific route
US7017054B2 (en) * 2002-07-02 2006-03-21 Dell Products L.P. Mirrored tag snoop optimization
KR100755700B1 (ko) 2005-12-27 2007-09-05 삼성전자주식회사 비휘발성 메모리가 캐쉬로 사용되는 저장 장치 및 그 관리방법
US10056008B1 (en) 2006-06-20 2018-08-21 Zonar Systems, Inc. Using telematics data including position data and vehicle analytics to train drivers to improve efficiency of vehicle use
JP5318202B2 (ja) * 2009-06-17 2013-10-16 パナソニック株式会社 画像生成装置、画像生成方法及び集積回路
US10061745B2 (en) 2012-04-01 2018-08-28 Zonar Sytems, Inc. Method and apparatus for matching vehicle ECU programming to current vehicle operating conditions
US9317423B2 (en) * 2013-01-07 2016-04-19 Hitachi, Ltd. Storage system which realizes asynchronous remote copy using cache memory composed of flash memory, and control method thereof
US9934152B1 (en) * 2015-02-17 2018-04-03 Marvell International Ltd. Method and apparatus to use hardware alias detection and management in a virtually indexed physically tagged cache
US9842051B1 (en) * 2015-03-25 2017-12-12 Marvell International Ltd. Managing aliasing in a virtually indexed physically tagged cache
GB2577404B (en) * 2016-03-29 2020-09-09 Imagination Tech Ltd Handling memory requests
GB2548845B (en) 2016-03-29 2019-11-27 Imagination Tech Ltd Handling memory requests
CN109416656B (zh) 2016-10-31 2023-08-11 拉姆伯斯公司 混合存储器模块
US10325341B2 (en) 2017-04-21 2019-06-18 Intel Corporation Handling pipeline submissions across many compute units
US10482028B2 (en) 2017-04-21 2019-11-19 Intel Corporation Cache optimization for graphics systems
WO2019074743A1 (en) 2017-10-12 2019-04-18 Rambus Inc. NON-VOLATILE PHYSICAL MEMORY WITH DRAM CACHE MEMORY
US12086654B2 (en) 2021-09-16 2024-09-10 T-Head (Shanghai) Semiconductor Co., Ltd. Parallel processing unit virtualization

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4439829A (en) * 1981-01-07 1984-03-27 Wang Laboratories, Inc. Data processing machine with improved cache memory management
US4884197A (en) * 1985-02-22 1989-11-28 Intergraph Corporation Method and apparatus for addressing a cache memory
US5119290A (en) * 1987-10-02 1992-06-02 Sun Microsystems, Inc. Alias address support
JPH01173241A (ja) * 1987-12-28 1989-07-07 Toshiba Corp キャッシュメモリ装置
US5058006A (en) * 1988-06-27 1991-10-15 Digital Equipment Corporation Method and apparatus for filtering invalidate requests
GB2256512B (en) * 1991-06-04 1995-03-15 Intel Corp Second level cache controller unit and system

Also Published As

Publication number Publication date
EP0541319A1 (en) 1993-05-12
DE69219433D1 (de) 1997-06-05
US5933844A (en) 1999-08-03
KR100285533B1 (ko) 2001-04-02
JPH05257804A (ja) 1993-10-08
EP0541319B1 (en) 1997-05-02
DE69219433T2 (de) 1997-12-11
KR930010733A (ko) 1993-06-23

Similar Documents

Publication Publication Date Title
JP3552114B2 (ja) キャッシュ・メモリ及び主記憶装置を更新する方法と装置及びコンピュータシステム
EP0347040B1 (en) Data memory system
US5752261A (en) Method and apparatus for detecting thrashing in a cache memory
US6725337B1 (en) Method and system for speculatively invalidating lines in a cache
US8417915B2 (en) Alias management within a virtually indexed and physically tagged cache memory
US6604187B1 (en) Providing global translations with address space numbers
US8909871B2 (en) Data processing system and method for reducing cache pollution by write stream memory access patterns
JP3493409B2 (ja) コンピユータ装置
US5003459A (en) Cache memory system
US7496730B2 (en) System and method for reducing the number of translation buffer invalidates an operating system needs to issue
US7949834B2 (en) Method and apparatus for setting cache policies in a processor
JP3264319B2 (ja) バスブリッジ
US6782453B2 (en) Storing data in memory
US4825412A (en) Lockout registers
US8621152B1 (en) Transparent level 2 cache that uses independent tag and valid random access memory arrays for cache access
JP2002536716A (ja) 仮想メモリシステムにおけるメモリアクセスの改善技術
US6065099A (en) System and method for updating the data stored in a cache memory attached to an input/output system
JP3245125B2 (ja) 垂直キャッシュのための擬似精細i−キャッシュ包含性
KR100814982B1 (ko) 다수의 채움 모드를 구비한 캐시
EP0942376A1 (en) Method and system for pre-fetch cache interrogation using snoop port
US7949833B1 (en) Transparent level 2 cache controller
US5761722A (en) Method and apparatus for solving the stale data problem occurring in data access performed with data caches
US20050144391A1 (en) Cache memory management
US6766427B1 (en) Method and apparatus for loading data from memory to a cache
JPH10207773A (ja) バス接続装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9