JPH0455959A - 記憶装置 - Google Patents

記憶装置

Info

Publication number
JPH0455959A
JPH0455959A JP2167712A JP16771290A JPH0455959A JP H0455959 A JPH0455959 A JP H0455959A JP 2167712 A JP2167712 A JP 2167712A JP 16771290 A JP16771290 A JP 16771290A JP H0455959 A JPH0455959 A JP H0455959A
Authority
JP
Japan
Prior art keywords
memory
cache memory
page
stored
virtual cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2167712A
Other languages
English (en)
Inventor
Masahiro Sasaki
雅宏 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic System Solutions Japan Co Ltd
Original Assignee
Matsushita Graphic Communication Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Graphic Communication Systems Inc filed Critical Matsushita Graphic Communication Systems Inc
Priority to JP2167712A priority Critical patent/JPH0455959A/ja
Publication of JPH0455959A publication Critical patent/JPH0455959A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、コンビーータシステム等の高速データ処理の
ために用いられるキャッシュメモリを用いた記憶装置に
関する。
従来の技術 ]ンピュータを高速化するためには、演算装置は主記憶
からの読み出し、書き込みを高速化する必要がある。こ
のためにはアクセスタイムの短いメモリが必要となる。
しかし高速のメモリ素子は一般に高価で容量も小さい。
しかも、演算装置とメモリ間の距離が長いと、そのだめ
の信号伝送時間の遅れを生ずるためアクセスタイムは短
くならない。このため高速メモリの効果を発揮するため
演算装置の内部か、極近くにメモリを置く必要がある。
このような条件を満たすものとして高速小容量のキャッ
シュメモリと中速大容量の主記憶とを階層構造で使用す
るキャッシュメモリ方式が広く採用されている。この動
作は、主記憶からデータを読み出すときに目的のデータ
だけでなく、その前後データも一緒に読み出してキャッ
シュメモリに入れ、次のデータにアクセスするときに、
それがすでにキャッシュメモリ中に存在しているか否か
まず調べてキャッシュメモリにあれば、それを読み出し
、なければ主記憶にアクセスして、目的のデータを含む
ブロックを読み出してキャッシュメモリ中に格納する。
あるデータの近傍のデータが次にアクセスされる可能性
が大きいのでブロック(目的データの前後を含むデータ
)でキャッシュメモリに格納しておくことにより次に目
的とするデータがキャッシュメモリ中にある確率は大き
くなる。またキャッシュメモリが一杯になシ新しいブロ
ックを入れたい時は、いずれかのブロックを選択して追
い出した後、新しいブロックを格納する。この追い出す
ブロックの選択アルゴリズムには種々あるが、よく用い
られるのはLRU(1east recently u
sed)方式である。
次に第3図〜第5図を用いてキャッシュメモリについて
説明する。
第3図はプロセッサを1含有する場合に多く採用される
記憶装置を示す。CPU1はプログラムを実行するため
、必要なデータをまず仮想キャッシュメモリ5で捜し、
この中にあればこれを使用し、なければ主記憶メモリ3
よシ読み出し仮想キャッシュメモリ5に格納する。MM
U (メモリ・マネジメント・ユニット)2は、CPU
1で用いる論理アドレスを物理アドレスに変換したシ、
また、主記憶メモリ3と2次記憶メモリ4とのデータの
出入れとか主記憶メモリ3のアクセス管理等を行う。
キャッシュメモリは、上述したように出来るだけ使用者
であるCPUIに近い所に置かれた方がよい。ところで
、主記憶メモリよシも犬き々アドレス空間を用いる仮想
記憶システムを用いる場合、CPUは論理アドレスを用
い主記憶メモリは物理アドレスを用いる。このため、C
PUの近傍に置かれるキャッソユメモリも論理アドレス
を用いた方がよい。このためキャッシュメモリも論理ア
ドレスを用いるので仮想キャッシュメモリが用いられる
。しかし、第5図に示すようにマルチプロセッサの場合
は、物理キャッシュメモリが採用されている。これは物
理キャッシュメモリー1の内容を変更した場合、これに
対応した主記憶メモリの内容を変更するが、この変更し
た部分を物理キャシュメモリー2が使用しているような
時、直ちに物理キャッシュメモリー2の内容も変更され
なければならないがこのような操作は論理アドレスで行
うことが困難であるので物理キャッシュメモリが用いら
れる。次に第4図を用いて第3図に示した仮想キャッシ
ュメモリの動作について説明する。
仕事の単位をプロセスで表し、プロセスAとプロセスB
を実施する場合を考える。プロセスAはベージ1. 2
. 3. 4を必要とし、プロセスBはベージ5,6を
必要とする。ページ1〜6はすべて2次記憶メモリ4に
格納されているが主記憶メモリ3にはページ4は格納さ
れていない。プロセスAを実施しページ1とベージ2が
仮想キャッシュメモリに格納された状態を示す。この後
ベージ1又は2を追い出し、ベージ3を入れ、その後い
ずれかのページを追い出してベージ4を仮想キャッシュ
メモリに格納した後、プロセスBに移る場合、この際格
納されたページを全て追い出し、ページ5.6を格納す
る必要がある。
発明が解決しようとする課題 これは次の理由による。一般にプロセスAとプロセスB
は論理アドレス空間を他のプロセスのことは考慮せず用
いている。このため同じ論理アドレスでもその示す内容
が互いに異なる場合が多い。
例えば第4図においてプロセスAのページ2の論理アド
レスとプロセス5の論理アドレスとは同じである。しか
しプロセスAのベージ2の物理アドレスとプロセスBの
ベージ5の物理アドレスとは異なる。このため仮想キャ
ッシュメモリは、プロセスが変わる毎にキャッシュの内
容を追い出し、次のプロセスで必要なメモリをストアす
る。このだめプロセスが変わる度に仮想キャッシュメモ
リの効率が低下するという問題が生じる。
本発明は、上述の問題点に鑑みてなされたもので、プロ
セスが切シ替わってもキャッシュメモリをクリアするこ
となく高速のデータ処理を可能とすることができる記憶
装置を提供することを目的とする。
課題を解決するための手段 上記目的を達成するため、複数の仮想キャッシュメモリ
を設けたもので本発明の記憶装置は、主記憶装置と、こ
の主記憶装置に記憶されたメモリのうちCPUの使用頻
度の高いメモリを記憶する複数の仮想キャッシュメモリ
装置とを備え、前記CPUが複数のプロセスを実行する
際、少なくとも1つの前記仮想キャッシュメモリ装置を
1以上の前記プロセスに割り当てて使用することを特徴
とするものである。
作用 仮想キャッシュメモリは、各プロセスが同一の論理アド
レスで対応する物理アドレスが異なるものを使用する場
合があるのでプロセスが変わる毎に仮想キャッシュメモ
リに格納された内容を追い出した後、次のプロセスに必
要なメモリを論理アドレスにストアする。このストアに
時間を要するのでキャッシュメモリを用いることによっ
て得られる高速性が阻害される。本発明は複数の仮想キ
ャッシュメモリを備え複数のプロセスを処理する。
この場合、仮想キャッシュメモリの数とプロセスの数と
は一致する必要はない。両者の数が一致していれば演算
の高速性上からは望ましいが、費用が大きくなる。そこ
で頻繁に使用されるプロセスには専用の仮想キャッシュ
メモリを割り当て、使用頻度の少ないプロセスに対して
は従来通シプロセスが変わる毎に仮想キャッシーメモリ
ノ内容ヲ追い出し、そのプロセスに使用するメモリを新
たにストアするようにする。また1つのフロセスが大き
く多くのメモリを使用する場合は、複数のキャッシュメ
モリを使用するようにすればよい。このようにすること
により仮想キャッシュメモリの効率的使用を実現するこ
とができる。
実施例 以下、本発明の一実施例を第1図、第2図を用いて説明
する。第1図は本実施例の構成を示すブロック図である
。第1図において、CPU1には仮想キャッシュメモリ
5〜8が4個設けられており、仮想キャッシュメモリ5
〜8は、CPU1と同じ論理アドレスを用いる。メモリ
・マネジメント・ユニット(MMU)2は論理アドレス
と物理アドレスの変換、主記憶メモリ3のアクセス管理
記憶保護、バッファ記憶などの機能を有する。2次記憶
メモリ4にはプロセスよυ構成されるプログラムや使用
するデータが全て格納され、必要に応じ主記憶メモリ3
に読み出され、また演算結果等によシ書き替えられたデ
ータの更新が行なわれる。本実施例では、仮想キャッシ
ュメモリ5〜8の速度はIon程度でIOK〜64.に
バイト程度、主記憶メモリ3の速度は100n程度で4
M〜16Mバイト程度、2次記憶メモリ4は100M〜
200Mバイト程度の容量としたが、これに限定される
ものではない。
次にキャッシュメモリの動作につき第2図を用いて説明
する。
第2図は仮想キャッシュメモリの動作を説明する図であ
る。本図によシプロセスAとプロセスBが実施される場
合を例として説明する。プロセスAはページ1.2.3
.4のメモリを必要とし、プロセスBはページ5,6の
メモリを必要とする。
プロセスA、 Bおよび仮想キャッシュメモリA、 B
は共に論理アドレスを使用し、主記憶メモリ3と2次記
憶メモリ4は物理アドレスを使用し、この交換はMMU
2が行う。2次記憶メモリ4にはプロセスA、Bを実施
するのに必要な全てのメモリであるページ1〜6が格納
されているが、主記憶メモリ3にはページ1〜3.ペー
ジ5,6が格納されページ4は格納されていない。ペー
ジ4が必要となったときは、所定のアルゴリズム、例え
ば前述のLRU方式により該当するページを追い出しペ
ージ4をストアする。プロセスAを実施するため仮想キ
ャッシュメモIJ Aにはページ1.2がストアされて
いる。この状態でプロセスAが終わりプロセスBとなっ
たとき仮想キャッシュメモリAの記憶内容はクリアせず
そのままとし、プロセスBの実施に必要なメモリは仮想
キャッシュメモリBにストアする。この場合ページ5,
6をストアする。そして次にプロセスA、プロセスBt
−繰シ返し実施するとき仮想キャッシュメモリA、  
Bの内容はそのまま使用できるのでCPUIは高速処理
を実施できる。なおプロセスAを実施するときページ3
を必要とするときはページ1又は2を前記アルゴリズム
のLRU方式で追い出しページ3をストアすればよい。
なおページ4が必要なときは主記憶メモリ3にもストア
されていないので、2次記憶メモリ4よp主記憶メモリ
3にストアし、さらに仮想キャッシュメモリAにストア
する。なお第2図においてプロセスAのベージ2とフロ
セスBのベージ5が破線で結ばれているのは、フロセス
A、Bの論理アドレスは同じであるが物理アドレスが異
なる場合の一例として示したものである。第2図は理解
を容易にするためプロセスA。
Bの2つの場合について説明したが、実際のアプリケー
ション・プログラムを実施するような場合多数のプロセ
スが存在する。このような場合、使用頻度多いプロセス
例えばプロセスA、 B、  Cにハ仮想キャッシュメ
モ1.1516.7をそれぞれ割す当て、他のプロセス
D−Zは仮想キャッシュメモリ8を従来のようにプロセ
スが変わる毎にクリアして使用してもよい。
発明の効果 以上の説明から明らかなように、本発明は複数の仮想キ
ャッシュメモリを設けることによシ、使用頻度の多いプ
ロセスには専用の仮想キャッシュメモリを割り当てるよ
うにしたので、プロセスの切り替え時においてもキャク
シーメモリをクリアする必要のない場合が多数発生し、
高速のデータ処理が可能となる。
【図面の簡単な説明】
第1図は本発明の実施例の構成を示すブロック図、第2
図は第1図に示す実施例の動作を説明するだめのメモリ
構成図、第3図は従来の仮想キャッシュメモリを用いた
記憶装置の一例を示すブロック図、第4図は第3図に示
す記憶装置の動作を説明するためのメモリ構成図、第5
図は物理キャッシュメモリを設けた場合のブロック図で
ある。 1−・・CPU、2・・・MMtL 3・・・主記憶メ
モリ、4・・・2次記憶メモリ、5〜8・・・仮想メモ
リ。

Claims (1)

    【特許請求の範囲】
  1. 主記憶装置と、この主記憶装置に記憶されたメモリのう
    ちCPUの使用頻度の高いメモリを記憶する複数の仮想
    キャッシュメモリ装置とを備え、前記CPUが複数のプ
    ロセスを実行する際、少なくとも1つの前記仮想キャッ
    シュメモリ装置を1以上の前記プロセスに割り当てて使
    用することを特徴とする記憶装置。
JP2167712A 1990-06-26 1990-06-26 記憶装置 Pending JPH0455959A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2167712A JPH0455959A (ja) 1990-06-26 1990-06-26 記憶装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2167712A JPH0455959A (ja) 1990-06-26 1990-06-26 記憶装置

Publications (1)

Publication Number Publication Date
JPH0455959A true JPH0455959A (ja) 1992-02-24

Family

ID=15854808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2167712A Pending JPH0455959A (ja) 1990-06-26 1990-06-26 記憶装置

Country Status (1)

Country Link
JP (1) JPH0455959A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7493448B2 (en) 2002-06-24 2009-02-17 Nec Corporation Prevention of conflicting cache hits without an attendant increase in hardware

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6217764A (ja) * 1985-07-16 1987-01-26 Sanyo Electric Co Ltd 像形成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6217764A (ja) * 1985-07-16 1987-01-26 Sanyo Electric Co Ltd 像形成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7493448B2 (en) 2002-06-24 2009-02-17 Nec Corporation Prevention of conflicting cache hits without an attendant increase in hardware

Similar Documents

Publication Publication Date Title
US6446188B1 (en) Caching dynamically allocated objects
US4577274A (en) Demand paging scheme for a multi-ATB shared memory processing system
JP2662603B2 (ja) 無効要求を選別する方法及び装置
US5692185A (en) Object space manager method and circuit
JP7340326B2 (ja) メンテナンス動作の実行
JPH0364890B2 (ja)
EP0139407B1 (en) Data select match
JPH06348595A (ja) キャッシュ装置
JPH0652511B2 (ja) 情報処理装置のアドレス変換方式
US7237067B2 (en) Managing a multi-way associative cache
KR960001945B1 (ko) 우선변환참조버퍼에서 적중수를 증가시키기 위한 장치
US4942521A (en) Microprocessor with a cache memory in which validity flags for first and second data areas are simultaneously readable
US7523290B2 (en) Very high speed page operations in indirect accessed memory systems
JPH08255079A (ja) コンピュータ・プロセッサ用のレジスタ・キャッシュ
US8266379B2 (en) Multithreaded processor with multiple caches
JP2008512758A (ja) 仮想アドレス・キャッシュに格納されたデータを共用する仮想アドレス・キャッシュ及び方法
JPH07129464A (ja) 情報処理装置
JPH0455959A (ja) 記憶装置
GB2037466A (en) Computer with cache memory
JPS63284649A (ja) キャッシュメモリ制御方法
JP2924708B2 (ja) 情報処理装置
Hussein Assist. Prof. Dr. Qasim Mohammed Hussein
JPH077355B2 (ja) 情報処理装置
JPS583178A (ja) 記憶状態分割制御方式
JPH02226447A (ja) コンピユータ・システムおよびその記憶装置アクセス方法