JPS6217851A - メモリ管理ユニット - Google Patents

メモリ管理ユニット

Info

Publication number
JPS6217851A
JPS6217851A JP60155131A JP15513185A JPS6217851A JP S6217851 A JPS6217851 A JP S6217851A JP 60155131 A JP60155131 A JP 60155131A JP 15513185 A JP15513185 A JP 15513185A JP S6217851 A JPS6217851 A JP S6217851A
Authority
JP
Japan
Prior art keywords
address
memory
cache
access
directory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60155131A
Other languages
English (en)
Other versions
JPH049346B2 (ja
Inventor
Michio Morioka
道雄 森岡
Tadaaki Bando
忠秋 坂東
Takashi Hotta
多加志 堀田
Kotaro Hirasawa
平沢 宏太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60155131A priority Critical patent/JPS6217851A/ja
Publication of JPS6217851A publication Critical patent/JPS6217851A/ja
Publication of JPH049346B2 publication Critical patent/JPH049346B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、情報処理システムのメモリ管理ユニットに係
り、特に、高集積、並びに高速メモリアクセスを必要と
するシステムに好適なメモリ管理ユニットに関する。
〔発明の背景〕
従来のCMO5等を用いた高集積情報処理システムでは
、一般に第2図に示すような構成を取るものが多くみら
れた。同図に於て演算処理装置1は、プログラムを解読
実行するもので、CMOSロジックを用いて1チツプで
実現される。アドレス変換部2は、仮想記憶空間を支援
するため、演算処理装置1が送出する論理アドレスをダ
イナミックに物理アドレスに割当て、システムバス3に
送出する。メインメモリ4は、プログラムやデータを記
憶し、I10アダプター5は、システムバス3と工/○
バス6間の通信を支援する。ファイルコントロールプロ
セッサ7は、たとえば、ディスクドライブ8を制御し、
メインメモリ4へのダイレクトメモリアクセス(以下D
MA)を実行する。
以上のようにシステム構成においては、命令フェッチ、
オペランドフェッチに伴なう演算処理装置1からのメモ
リアクセスは、アドレス変換部2で論理アドレスから物
理アドレスに変換された後直接メインメモリ4をアクセ
スする方式をとる。
従来では、演算処理装置の処理速度と、メインメモリを
構成するダイナミックRAMのアクセス速度に大幅な隔
たりがなく、」−記システム構成で十分演算処理装置の
性能を引き出す事ができた。ところが、CMOSプロセ
ス技術の高度化に伴い、素子の集積度が増大し、その結
果、演算処理装置は、高機能化及び素子の遅延時間短縮
により高速波される傾向にある。それに対し、メインメ
モリに用いられるダイナミックRAMは、アクセス速度
は一定のままで、高密度化に重点が置かれているため、
演算装置の処理速度とメインメモリのアクセス速度の差
は増大しつつある。高速な演算処理装置の性能を十分引
き出すためには上記2つの装置間に緩衝装置としての、
メインメモリの一部を高速小容量のメモリに保持するキ
ャッジ装置が要求されるようになってきた。さらに最近
注目されている人工知能分野においては、述語論理を扱
うことができるプログラム言語、たとえばプロローグを
高速に処理するハードウェアが要求されているが、これ
らの言語はスタック操作を基本とするため、従来言語に
比較してメモリアクセス頻度が高いという特徴を持って
いる。ここにおいても、メモリアクセスの高速化に効果
的なキャッシュメモリの実現が重要な課題となりつつあ
る。
従来のキャッシュメモリの実現方法としては、第3図に
示す構成が一般的である。すなわち、アドレス変換バッ
ファ84で論理アドレス89を物理アドレス90に変換
した後、ディレクトリ85とキャッシュデータ部86を
アクセスし、ディレクトリの出力と物理アドレス9oを
比較器88で比較して一致していれば対応するデータを
セレクタ87で選択する方法である。この構成をVLS
I技術を用いた高集積情報処理システムに適用した場合
、次の問題が発生する。
(1)キャッシュメモリは、ヒツト率向上のためセット
アソシアティブ方式を取り、通常セット数は2〜4程度
である。このため、ディレクトリ及びキャッシュデータ
部は2〜4プレーンから成り、パラレルにアクセスされ
る必要がある。この時、キャッシュデータ部に使用され
るメモリのワード長は、例えば64KB容量でバンド幅
が4Bのキャッシュメモリを2セットアソシアティブ方
式で実現した場合、8にワードという数値になる。しか
し、現存の高集積技術を用いれば、この8にワード以上
の、例えば16にワードという1つのアドレス空間(ア
ドレスを10進で示すとO〜15999 )をもつメモ
リの方が集積度が高いが、このような長いワード長のメ
モリを十分に利用できず、ハード量の増大につながる。
(2)読出し要求時には、ディレクトリとキャッシュデ
ータ部をパラレルにアクセス可能であるが、書込み要求
時には、ディレクトリの出力と物理アドレスを比較した
結果を用いてキャッシュデータ部へ書込み起動をかける
必要があるためパラレル処理ができず、アクセスが遅く
なる。
又、第4図には、メインフレームや高性能ミニコンピユ
ータにおいて、高速アクセスの目的で、採用されるキャ
ッシュ構成を示した。この構成ではアドレス変換バッフ
ァ92でアドレス変換すると同時に論理アドレス99中
のアドレス変換に依存しないオフセット97でディレク
トリ93とキャッシュデータ部94をアクセスし、アド
レス変換により得られた物理アドレス98とディレクト
リの出力を比較器95で比較した後、ヒツトしていれば
、対応するデータをセレクタ96で選択する構成である
。この構成では、アクセスは高速となるが、オフセット
でディレクトリ及びキャッシュデータ部をアクセスする
ため、セット数がかなり大きくなってしまう。例えば、
4KBのページサイズ64KB容量のキャッシュを実現
するには、セット数は16となる。このため、VLSI
システムへ適用を考えた場合、前記キャッシュ実現側以
上にキャッシュデータ部の1プレーンのワード長を短く
てこれを並列アクセスすることになるから、ワード方向
に長いメモリの有効利用には一層不向となり、ハード量
が大きくなるという問題が発生する。
次にVLSI技術を用いたメモリ管理に関する実際の公
知例としては、ザイログ社製CPUの「プレリミナリ・
プロダクト・スペーシケーションJ  (P reli
minary P roduct S pecicat
ion)に記載のように、演算処理装置のチップ内に小
容量のキャッシュメモリを設けた装置が提案されている
。すなわち第5図に示すように、演算処理装置1と、ア
ドレス変換部2と、ディレクトリ9及びキャッシュデー
タ部10を1チツプ上に実装した装置11である。しか
し、この実現法では、次のような問題点が考えられる。
(1)オンチップできるハード量には限界があり、キャ
ッシュ容量が制限されるため、キャッシュのヒツト率が
低く今後予想される高速演算装置の性能を十分引出せな
い。
(2)ファイルコントロールプロセッサ7からのDMA
転送等、他のバスマスターによるメモリアクセスに対し
て書メインメモリ4とキャッシュメモリ10の内容一致
をはかるためのオーバーヘッドが必要となる。
又、他の公知例としては、シグネテイクス社の[ベーシ
ック・メモリ・アクセス・コントローラ」(Basic
 Memory Access Controller
)に関するアドレス・インフォメーション(Advan
ceI nformation)に記載のように、アド
レス変換部と、キャッシュのディレクトリを1チツプ化
したメモリ管理ユニットが提案されている。すなわち第
6図に示すように、アドレス変換部2をキャッシュメモ
リのタグ比較部9を1チツプ化した装置12である。こ
の場合の問題点は。
(1)アクセス高□速化のため、論理アドレスでキャッ
シュを検索する方式を取っているが、これでは現在O8
の主流となりつつあるUNIXの特徴である多重仮想空
間を支援した場合、タスクスイッチのたびにキャッシュ
を消去する必要があり、ヒツト率の低下を招く。
(2)前記公知例と同様に、DMA転送に対してメイン
メモリとキャッシュメモリの一致をはかるオーバーヘッ
ドが必要となる。
〔発明の目的〕
本発明の目的は、高集積技術を有効に活用した大容量で
高速かつ高いヒツト率のキャッシュメモリを実現でき、
また他のバスマスターからのメモリアクセスに際してメ
インメモリとキャッシュメモリの内容一致のためのオー
バーヘッドを削減できるメモリ管理ユニットを提供する
にある。
〔発明の概要〕
本発明は、アドレス変換部とキャッシュメモリのディレ
クトリとを1チツプ化するとともに、論理アドレス内の
アドレス変換に依存しないオフセット部でディレクトリ
をアクセスすることにより、アドレス変換と、キャッシ
ュタグ比較を並列実行する。そしてこのタグ比較結果に
よって従来のようにプレーン毎に分割されたキャッシュ
データ部を並列アクセスして得たキャッシュデータを選
択するのではなく、タグ比較結果をエンコードしてキャ
ッシュデータ部全体を1つのメモリとした時のアクセス
アドレスを生成し、これによってキヤツシュデータ部を
アクセスする構成とすることによってワード方向に長い
メモリをキャッシュ用に有効に利用する。同時にこのキ
ャッシュデータ部アクセスのサイクルと、それに先立つ
アドレス変換及びキャッシュタグ比較の並列実行サイク
ルをパイプライン化してキャッシュへのアクセスを高速
化したことを特徴とする。更にディレクトリの入口にセ
レクタを設け、演算装置以外のバスマスタからのメモリ
アクセスをもすべてキャッシュ経由とすることによって
、キャッシュとメインメモリの一致のためのオーバーヘ
ッドを大幅に削除したことを特徴とする。
〔発明の実施例〕
以下、本発明の実施例を図面を用いて説明する。
第7図は本発明のユニットを用いるシステムの構成例を
示すもので、演算処理装置1は、CMOSロジックで1
チツプに集積され、メモリアクセス時はリクエスト信号
と、32ビツトの論理アドレス及び3ビツトのアドレス
スペース信号、すなわちメインメモリ物理アドレス空間
と、I10バス物理アドレス空間とを区別する信号をメ
モリ管理ユニット13に転送する。メインメモリ4は、
27ビツトのアドレス空間で128MBの容量を持ち、
ダイナミックRAMを用いて構成される。
I10アダプタ5は、内部にアドレス変換テーブルを持
ち、ファイルコントロールプロセッサ7等からのDMA
転送要求に対して、工/○バス6」二の論理アドレスを
メインメモリ物理アドレスに変換する機能を持つ。これ
により、I10バス6上のバスマスタは、ダイナミック
にメインメモリを使用することができる。
本発明の対象となるのはメモリ管理ユニット13であっ
て、その内部構成を第8図に示した。
演算装置間1との間はアドレス線17、データ線18で
接続され、メインメモリ4との間はアドレス#i21、
データ線22で接続され、I10アダプタ5との間はア
ドレス線19、データ線20で接続される。アドレス生
成チップ14は本発明の特徴とするものであって、その
実施例は後に第1図によって説明するが、内部にアドレ
ス変換部と、(I2) キャッシュのディレクトリ及びコントローラ部を有し、
機能としては、演算装置からの論理アドレス、あるいは
DMA装置からの物理アドレスを受は取って、1サイク
ルでキャッシュアドレスと物理アドレスを生成する。C
MO8微細加工技術を用いて1チツプ化される。キャッ
シュデータ部15は、キャッシュメモリのデータ記憶部
で、64KBの容量を持ち、高速なスタティックR1を
用いて実現される。インターフェース部16は、ゲート
アレイ等で実現され、メインメモリ及びI10アダプタ
へのライトバッファ等を有し、データの流れをコントロ
ールする。このメモリ管理ユニット13の動作は以下の
通りである。
(1)演算装置からの読出し要求に対する処理処理フロ
ーを第9図に示す。演算装置1からの読出し要求信号、
論理アドレス17、アドレススペース信号は、アドレス
生成チップ14に受は取られ、まずアドレス変換部によ
り、論理アドレスが物理アドレスに変換される。次に得
られた物理アドレスとアドレススペース信号を用いてキ
ャラシュのタグが比較される。その結果対象データがキ
ャッシュに存在すれば、キャッシュアドレス23が生成
され、キャッシュデータ部15からデータを読出し、デ
ータ線18を通じて、演算装置1にデータが転送される
。もし、対象データがキャッシュ内に存在しなければ、
アドレススペース信号より要求空間を区別し、メインメ
モリ空間ならば、アドレス線21へ、I10空間ならば
、アドレス線19へ物理アドレスを送出し、メモリ管理
ユニット13へのデータ転送を要求する。メモリ空間か
らのデータはデータ線22.24を通じて32バイト単
位でキャッシュデータ部15へ書込まれ、I10空間か
らのデータはインタフェイス部16のバッファへ書込ま
れた後、データ線18を通じて演算装置へ要求データが
転送される。
(2)演算装置からの書込み要求に対する処理処理フロ
ーを第10図に示す。演算装置1からの書込み要求信号
、論理アドレス17、アドレススペース信号はアドレス
生成チップ14で受は取り、書込みデータはデータ線1
8を通じてインクフェイス部16に受は取る。まずアド
レス生成チップ14で論理アドレスを物理アドレスに変
換する。次にアドレススペース信号から対象空間を識別
し、物理アドレスを書込みデータを対応する空間のライ
トバッファへ書込む、この時、同時にキャッシュタグの
比較も行ない、対象データがキャッシュに依存すればデ
ータ線24を通じてキャッシュデータ部15に書込む。
もし、キャッシュに存在しなければ、キャッシュデータ
部15に対してはノーオペレーションとする。
(3)DMA装置からのアクセスに対する処理ファイル
コントロールプロセッサ7等からのDMA転送要求があ
ると、まずI10アダプター5でI10バス空間6の論
理アドレスがメインメモリ空間の物理アドレスに変換さ
れる。その結果がアドレス線19を通じてアドレス生成
チップ14に転送され、キャッシュメモリの検索が実行
される。
以上のメモリアクセス動作を、高速に実行し、かつ少量
のハードで実現するに当って鍵となるのは、アドレス生
成チップ14であり、その実施例を第1図に示す。同図
にて、入力は工/○空間からの物理アドレス19、演算
処理装置からの論理アドレス17、出力はメインメモリ
、あるいはI10空間への物理アドレス21、キャッシ
ュアドレス23である。又、ラッチレジスタ25゜26
.27,28,100,101は、スルーラッチで、パ
イプラインレジスタとして使用される。
論理アドレスタグ保持部31、物理アドレスタグ保持部
32、比較器33、及びセレクタ34は、アドレス変換
を高速化するためのアドレス変換バッファ(TLB)を
構成している。これは第1表に示したように、2ウエイ
のセットアソシアティブ方式を取り、セット当り論理ア
ドレスと物理アドレスの組合せを128エントリ持?。
リプレースメントアルゴリズムは、各カラム毎に直前に
アクセスされた方ではないページを置換えるというLR
U方式とする。
第1表 アドレス変換バッファ セレクタ29.30は演算装置1からの要求と、DMA
装置からの要求を選択するセレクタである。
ディレクトリ35は、キャッシュ内データに対応する物
理アドレスの上位15ビツトをその内容として保持して
いて、アドレス変換に依存しないオフセット部12ビッ
トでアクセスされる。このため1セツト当りに対応する
キャッシュデータ容量は4KBに制限されてしまう。従
って目標とする64KBのキャッシュ容量を得るために
、16セツトをパラレルにアクセスする方式を取る。タ
グ比較部36はアクセスアドレスのアドレス変換により
得られた物理アドレスの上位15ビツトと各セットの該
当するタグ(キャッシュ上にあるデータの物理アドレス
の上位15ビツト)を比較し−致を調べる。エンコード
部37は、上記タグ比較部36より得られた情報をエン
コードしてキャッシュアドレスの上位4バツトを生成す
る。キャッシュメモリは上記ディレクトリ35に対応し
て、第2表に示す特性とする。
第2表 キャッシュメモリ 次に第1図のチップによるアドレス生成過程は次のよう
である。
(1)演算装置からのアクセス 32ビツトの論理アドレスをラッチ26に受は取る。論
理アドレス32ビツトは第11図の様に分割され、アド
レス変換される上位20ビツト39は、アドレス変換部
へ、アドレス変換に依存しないオフセット12ビツト4
0は、ディレクトリ35へ転送される。アドレス変換部
では、20ビツトを上位13ビツトの論理アドレスタグ
41を下位7ビツ1〜のインデクス42に分割し、イン
デクス42で論理アドレスタグ保持部31、物理アドレ
スタグ保持部32をアクセスし、その結果得られた論理
アドレスタグと、前記要求アドレスのタグ41を比較器
33で比較し、一致していれば、それに対応する物理ア
ドレスタグをセレクタ34で選択する。一方、ディレク
トリ35では、オフセット40を7ビツトのインデクス
43と、ブロック内アドレス44に分割し、インデクス
43で、ディレクトリ35をアクセスする。次に、アド
レス変換部より得られた物理アドレスタグと、ディレク
トリ35のアクセスによって得られた16個のタグ比較
部36で比較する。一致するものであればヒツトしたこ
とになり、従来ならこのヒツトしたタグ対応のデータを
並列アクセスしたキャッシュデータ部から選択していた
。しかし本発明では、前述したようにキャッシュデータ
を並列アクセスせず、ワード方向に長いメモリを活用す
るため一元化されたアドレスでアクセスするので、タグ
比較部36の比較結果をエンコード部37で4ビツトに
コード化した後、オフセット40の12ビツトを結合し
てキャッシュアドレスを生成する。この結果はスルーラ
ッチ28にラッチされる。これはキャッシュデータ部1
5をアクセスするのに用いられる。又、物理アドレスは
、アドレス変換によって得られた15ビツトの物理アド
レスタグとオフセット40を結合して生成され、スルー
ラッチ27にラッチされて、これはミスヒツト時のメイ
ンメモリ(又はDMA装置)へのアクセスアドレスとし
て出力される。
以上のアクセス方式により、アドレス変換とキャッシュ
タグ比較を並列に実行でき、1サイクルで物理アドレス
及びキャッシュアドレスを生成することができる。
(2)DMA装置からのアクセス エ/○アダプター5でアドレス変換された物理アドレス
にスルーラッチ25を受は取る。次に、セレクタ29.
30をコントロールしてI10側を選択し、ディレクト
リ35をアクセスする。以下は(1)の場合と同じであ
る。この様にして、■10バス6上に存在する他のパス
マスタからのDMA要求をすべてキャッシュ経由とする
ことにより、メインメモリとぎャッシュデータの一致を
はかるための特別な回路が不要となる。
アドレス生成チップ14は、メモリアクセス高速化のた
めのもう1つの手段として、アドレス変換とディレクト
リアクセスを並列実行するサイクルとそれに続くキャッ
シュデータアクセスサイクルをパイプライン化するため
の、レジスタ及びコントロールを持つ。以下第12図を
用いてこの動作の概略を説明する。
パイプラインレジスタ50.26,28,101゜54
は2相クロツクで駆動されるスルーラッチであり、スル
ーラッチ60,28.54が第1相クロツクで、スルー
ラッチ26,101が第2相クロツクで駆動される。パ
イプラインの第1サイクル69は、演算装置1内のスル
ーラッチ50から始まり、アドレス生成チップ14内の
スルーラッチ26、アドレス変換とディレクトリアクセ
スを経て、スルーラッチ28にチするパスである。第2
サイクル7oについては、読出しと書込みでパスが異な
る。即ち読出し時には、アドレス生成チップ14内のス
ルーラッチ28から始まり、スルーラッチ101を経て
キャッシュデータをアクセスした後インタフェイス部4
8を経て、演算装置45内のスルーラッチ54に達する
パスが第2サイクルとなる。書込み時には、スルーラッ
チ28から始まりスルーラッチ101を経てキャッシュ
データ部15に書込むまでが第2サイクルとなる。
パイプライン制御に必要なコントロール系に関しては、
第1サイクルのコントローラ56と、第2サイクルのコ
ントローラ57が必要で、これらはアイドル生成チップ
14内に実装され、第1図のコントローラ38に含まれ
る。第]−サイクルコントローラ56の制御信号を列記
すれば、演算装置1からのアクセス要求信号58、第1
サイクルがレディ状態であることを示す信号59、スル
ーラッチ26のエネイブル信号60、アドレス変換バッ
ファ及びキャッシュメモリがヒツトしたことを示す信号
61、第2サイクルに対する要求信号62、第2サイク
ルがレディ状態である事を示す信号63等が必要である
。第2サイクルのコントローラ57に関しては、第1サ
イクルからの要求信号62、第2サイクルがレディ状態
である事を示す信号63、スルーラッチ101のエネイ
ブル信号64.キャッシュデータ部15への書込みエネ
イブル信号66、キャッシュデータ部15より読出した
データのパリティチェック結果67、アクセスが終了し
た事を演算装置に示す信号68が必要である。
次に、第1サイクルコントローラ56の状態遷移図を第
13図に示す。状態は、レディ状態71、ビジー状態7
2、ウェイト状態73の3状態に分けられる。演算装置
からの要求信号58がなければ、レディ状態71を維持
する。要求があればビジー状態72へ遷移し、ここでは
アドレス変換、ディレクトリアクセス等を実行する。そ
の結果がヒツトでかつ第2サイクルがレディであれば第
2サイクルへリクエスト信号を送り、レディ状態71へ
遷移する。比較結果がヒツトでかつ第2サイクルがビジ
ーであれば、ビジー状態72を維持する。比較結果がミ
スであればウェイト状態73へ遷移する。ここでは、メ
インメモリ上の変換テーブルを用いたアドレス変換や、
キャッシュへのブロック転送が実行される。以上の処理
が終了し、比較結果がヒツトすれば、レディ状態71へ
遷移する。これらの状態遷移を実現するコントローラの
構成を第14図に示す。次状態生成回路74と、出力制
御信号用ラッチ75、状態記憶用ラッチ76で構成され
、入力制御信号77を現状態79から、次状態生成の組
合せ回路により、出力制御信号78を、次状態80を生
成する。
第2サイクルコントローラ57の状態遷移図を第15図
に示す。レディ状態811.ビジー状態82、ウェイト
状態83の3状態をとり、第1サイクルからのリクエス
トがなければレディ状態81を維持する。リクエストが
あればビジー状態82へ遷移し、キャッシュデータの読
出し、読込みを行なう。読出したデータにパリティエラ
ーがなければ演算装置にアクセス終了信号を送り、レデ
ィ状態81へ遷移する。もし読出しデータにパリティエ
ラーがあればウェイト状態83へ遷移し、リトライを実
行する。その結果ノーエラーとなればレディ状態81へ
遷移する。これらの状態遷移を制御するコントローラは
、前記第1サイクルコ、ントローラ56と同様の構成で
実現される。
以上に示したパイプライン用スルーラッチレジスタと、
パイプラインコントローラをアドレス生成チップ14に
実装したことにより、第16図に示す様に、命令フェッ
チとオペランドフェッチ6機能を独立に持つ演算装置に
対して1サイクル毎のメモリアクセス処理が可能となり
、演算装置の性能を十分に引き出すことができる。
又、パイプライン用レジスタにスルーラッチを用いてい
ることから、命令フェッチとオペランドフェッチの独立
していない演算装置に対しても、ラッチを全てスルーモ
ードで使用することにより、高速なアクセスが可能とな
る。
〔発明の効果〕
本発明によれば、以下の効果が得られる。
(1)アドレス変換とキャッシュタグ比較の並列処理を
実現し、上記サイクルとキャッシュデータ部アクセスサ
イクルをパイプライン化したことにより、高速なメモリ
アクセスが可能となった。
(2)キャッシュディレクトリのオンチップ化、更に、
キャッシュタグ比較結果をエンコードしてキャッシュア
ドレスを生成することにより、キャッシュデータ部にワ
ード方向に長いメモリを使用できるようになった事から
、大容量のキャッシュを少量ハードで実現できる。
(3)DMA装置等からのメモリアクセスを全てキャッ
シュ経由とすることにより、キャッシュデータとメイン
メモリ内のデータの不一致を避けるためのオーバーヘッ
ドを削減できる。
【図面の簡単な説明】
第1図は本発明の特徴とするアドレス生成チツプの一実
施例を示す図、第2図は従来の情報処理システムの構成
図、第3図は一般的なキャッシュメモリの構成図、第4
図はメインフレーム等で用いられる高速アクセスが可能
なキャッシュメモリ構成図、第5図はザイログ社製CP
Uを用いたシステム構成図、第6図はシグネテイクス社
製メモリ管理ユニットを用いたシステム構成図、第7図
は本発明のユニットを用いたシステム構成図、第8図は
第1図のアドレス生成チップを用いたメモリ管理ユニツ
1−の内部構成図、第9図及び第10図は第8図のメモ
リ管理ユニットによるメモリ読出しフロー及びメモリ書
込みのフロチャート、第11−図は論理アドレスの説明
図、第12図はパイプライン構成の説明図、第13図及
び第14図は第1サイクルコントローラの状態遷移図及
びその構成図、第15図は第2サイクルコントローラの
状態遷移図、第16図はメモリアクセスのパイプライン
動作のタイムチャートである。 13・・・メモリ管理ユニット、14・・・アドレス生
成チップ、15・・・キャッシュデータ部、25,26
゜27.28,100,1.01−・・・ラッチレジス
タ、29.30・・・セレクタ、31・・・論理アドレ
スタグ保持部、32・・・物理アドレスタグ保持部、3
3゜36・・・比較器、34・・・セレクタ、35・・
・ディレクトリ、37・・・エンコーダ。

Claims (1)

  1. 【特許請求の範囲】 1、処理装置から論理ページ番号を受取つて物理ページ
    番号を出力するアドレス変換バッファと、複数のメモリ
    プレーンで構成され論理アドレス中のアドレス変換に依
    存しないオフセット部を受取つて物理ページ番号を出力
    するディレクトリと、メインメモリ内データの一部を保
    持するキャッシュデータ部とを有するメモリ管理ユニッ
    トにおいて、アドレス変換バッファ及びディレクトリの
    出力する両物理ページ番号を比較する複数の比較器と、
    該比較器による比較結果から一致した上記物理ページ番
    号を格納していたディレクトリのメモリプレーン番号を
    生成するエンコーダと、該エンコーダにより生成された
    上記メモリプレーン番号と上記論理アドレスのオフセッ
    ト部とからキャッシュデータ部のアクセスするアドレス
    を生成してキャッシュデータ部をアクセスするアクセス
    手段を設けたことを特徴とするメモリ管理ユニット。 2、前記キャッシュデータ部をアクセスするアドレスを
    保持するラッチレジスタを設け、アドレス変換バッファ
    及びディレクトリのアクセスとキャッシュデータ部のア
    クセスとをパイプライン方式で動作させる制御手段を設
    けたことを特徴とする特許請求の範囲第1項記載のメモ
    リ管理ユニット。 3、処理装置以外の他装置から入出力インターフェイス
    を介して物理アドレスに変換されてメモリアクセスされ
    た時に当該物理アドレスを受取る受信ラッチレジスタと
    、該受取つた物理アドレスのオフセット部を前記論理ア
    ドレスのオフセット部に代つて選択する第1のセレクタ
    と、上記受取つた物理アドレスの物理ページ番号を前記
    アドレス変換バッファ出力の物理ページ番号に代つて選
    択する第2のセレクタとを設け、かくして上記他装置か
    らのメモリアクセスがあつた時にもキャッシュメモリ経
    由で当該アクセスを処理するように構成したことを特徴
    とする特許請求の範囲第1項もしくは第2項記載のメモ
    リ管理ユニット。
JP60155131A 1985-07-16 1985-07-16 メモリ管理ユニット Granted JPS6217851A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60155131A JPS6217851A (ja) 1985-07-16 1985-07-16 メモリ管理ユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60155131A JPS6217851A (ja) 1985-07-16 1985-07-16 メモリ管理ユニット

Publications (2)

Publication Number Publication Date
JPS6217851A true JPS6217851A (ja) 1987-01-26
JPH049346B2 JPH049346B2 (ja) 1992-02-19

Family

ID=15599229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60155131A Granted JPS6217851A (ja) 1985-07-16 1985-07-16 メモリ管理ユニット

Country Status (1)

Country Link
JP (1) JPS6217851A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01154261A (ja) * 1987-12-11 1989-06-16 Toshiba Corp 情報処理装置
JPH01199250A (ja) * 1987-10-02 1989-08-10 Hitachi Ltd データ処理装置
JPH0411068U (ja) * 1990-05-21 1992-01-29

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240063141A (ko) 2021-09-10 2024-05-10 로이터 케미쉐 아파라테바우 이.카. (헤트)아릴 치환된 비스페놀 화합물 및 열가소성 수지

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01199250A (ja) * 1987-10-02 1989-08-10 Hitachi Ltd データ処理装置
JPH01154261A (ja) * 1987-12-11 1989-06-16 Toshiba Corp 情報処理装置
JPH0411068U (ja) * 1990-05-21 1992-01-29

Also Published As

Publication number Publication date
JPH049346B2 (ja) 1992-02-19

Similar Documents

Publication Publication Date Title
KR100278328B1 (ko) 캐시 미스 버퍼
US5388247A (en) History buffer control to reduce unnecessary allocations in a memory stream buffer
US5586294A (en) Method for increased performance from a memory stream buffer by eliminating read-modify-write streams from history buffer
JP5440067B2 (ja) キャッシュメモリ制御装置およびキャッシュメモリ制御方法
US6138208A (en) Multiple level cache memory with overlapped L1 and L2 memory access
US7386687B2 (en) Methods and apparatus for managing a shared memory in a multi-processor system
US5864876A (en) DMA device with local page table
US6173369B1 (en) Computer system for processing multiple requests and out of order returns using a request queue
US6684315B2 (en) Method and system for supporting multiprocessor TLB-purge instructions using directed write transactions
US6453388B1 (en) Computer system having a bus interface unit for prefetching data from system memory
JPS624745B2 (ja)
US11947472B2 (en) Composable infrastructure enabled by heterogeneous architecture, delivered by CXL based cached switch SoC
WO2019128958A1 (zh) 缓存替换技术
WO2014206217A1 (zh) 一种指令缓存的管理方法和处理器
US20050253858A1 (en) Memory control system and method in which prefetch buffers are assigned uniquely to multiple burst streams
JP2004199677A (ja) キャッシュを動作させるためのシステム及び方法
TW385389B (en) Cache performance improvement through the use of early select techniques and pipelining
US6240487B1 (en) Integrated cache buffers
TWI723069B (zh) 用於在多個快取層級之間的共用最近最少使用(lru)策略的設備及方法
JPS5868286A (ja) キヤツシユメモリおよびその作動方法
JP2008512758A (ja) 仮想アドレス・キャッシュに格納されたデータを共用する仮想アドレス・キャッシュ及び方法
JPS6217851A (ja) メモリ管理ユニット
US6941421B2 (en) Zero delay data cache effective address generation
JP2008511882A (ja) 一意のタスク識別子を用いてデータを共用する仮想アドレス・キャッシュ及び方法
JP2004240616A (ja) メモリコントローラ及びメモリアクセス制御方法