JPH0535599A - Information processor - Google Patents

Information processor

Info

Publication number
JPH0535599A
JPH0535599A JP3187441A JP18744191A JPH0535599A JP H0535599 A JPH0535599 A JP H0535599A JP 3187441 A JP3187441 A JP 3187441A JP 18744191 A JP18744191 A JP 18744191A JP H0535599 A JPH0535599 A JP H0535599A
Authority
JP
Japan
Prior art keywords
address
read
unit
cache memory
entry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3187441A
Other languages
Japanese (ja)
Inventor
Toru Kakiage
透 書上
Shiro Yoshioka
志郎 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3187441A priority Critical patent/JPH0535599A/en
Publication of JPH0535599A publication Critical patent/JPH0535599A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To offer the information processor which can read a cache memory at a high speed even when the cache memory is read by using part of a physical address obtained by converting a logical address. CONSTITUTION:The part for reading the cache memory which is the high-order part of the physical address obtained by the last address conversion is stored as an old cache read part OPA(13:12) in a register 14 and the cache memory is read out by using the old cache read part and the offset part LA(11:0) of the logical address while current address conversion is performed. After the address conversion, the new cache read part PA(13:12) and old cache read part OPA(13:12) are compared with each other and the physical address PA(31:14) and a tag address are compared with each other. When those comparison results indicate coincidences, data which are already read out are outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、仮想記憶対応の情報処
理装置に関するものであり、特に論理アドレスから変換
された物理アドレスの一部をキャッシュメモリのタグア
ドレスの読み出しに使用する方式の情報処理装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual memory compatible information processing apparatus, and more particularly to an information processing method in which part of a physical address converted from a logical address is used for reading a tag address of a cache memory It relates to the device.

【0002】[0002]

【従来の技術】物理アドレスタグを持つキャッシュメモ
リを有する仮想記憶システムにおいては、一般に、キャ
ッシュメモリのアクセスを高速に行なうため、論理アド
レスから物理アドレスへの変換をアドレス変換バッファ
TLB(Translation LookasideBuffer)で行う。これと
並行して、変換を行わない論理アドレスの下位部、即ち
論理アドレスがそのまま物理アドレスに対応する部分
(オフセット部と呼ばれる)を用いてキャッシュメモリ
のエントリ(タグアドレス及びデータ)の読み出しを行
う。そして、TLBでのアドレス変換が終了した後、T
LBで得られた物理アドレスと、該物理アドレスの一部
及び論理アドレスのオフセット部を用いて読み出された
タグアドレスとの比較を行い、これらのアドレス同士が
一致すればキャッシュヒットとなり、キャッシュメモリ
からタグアドレスと同時に読み出されていたデータが出
力される。上記のアドレス同士が一致しなければキャッ
シュミスになり、外部メモリ装置のアクセスを行うとい
う方式が用いられる。
2. Description of the Related Art Generally, in a virtual memory system having a cache memory having a physical address tag, an address translation buffer TLB (Translation Lookaside Buffer) is used to convert a logical address into a physical address in order to access the cache memory at high speed. To do. In parallel with this, the entry (tag address and data) of the cache memory is read using the lower part of the logical address that is not translated, that is, the part where the logical address directly corresponds to the physical address (called the offset part). . Then, after the address translation in TLB is completed, T
The physical address obtained by the LB is compared with the tag address read by using a part of the physical address and the offset part of the logical address, and if these addresses match, a cache hit occurs and the cache memory The data that was read at the same time as the tag address is output from. If the above addresses do not match, a cache miss occurs and the external memory device is accessed.

【0003】しかし、この方法を用いることができるの
はTLBで管理するメモリ空間(ページ)の大きさ(ペ
ージサイズ)がキャッシュメモリの容量よりも大きな場
合である。即ち、ダイレクトマップ方式のキャッシュメ
モリであればキャッシュメモリの1セットの容量よりも
大きな場合、セットアソシェイティブ方式のキャッシュ
メモリであれば1セットの容量よりも大きな場合に、こ
の方法を用いることができる。もしページサイズがキャ
ッシュメモリの1セットの容量よりも小さければ、キャ
ッシュメモリのエントリの読み出しにオフセット部以外
の物理アドレスの一部を使用することになる。そのた
め、論理アドレスの上位部をTLBで物理アドレスに変
換した後、変換した物理アドレスの下位何ビットかと論
理アドレスのオフセットの部分とをあわせたアドレスを
使ってキャッシュメモリのエントリの読み出しを行うこ
とになる。そして、読み出されたタグアドレスと物理ア
ドレス上位部との比較を行ってキャッシュヒット又はキ
ャッシュミスを判定する。
However, this method can be used when the size (page size) of the memory space (page) managed by the TLB is larger than the capacity of the cache memory. That is, this method can be used when the cache memory of the direct map system is larger than the capacity of one set of the cache memory, and when the cache memory of the set associative system is larger than the capacity of one set. it can. If the page size is smaller than the capacity of one set of the cache memory, a part of the physical address other than the offset part will be used to read the entry of the cache memory. Therefore, after the upper part of the logical address is converted to a physical address by TLB, the entry of the cache memory is read using the address that combines the lower bits of the converted physical address and the offset part of the logical address. Become. Then, the read tag address is compared with the upper part of the physical address to determine a cache hit or cache miss.

【0004】図4に上記従来の情報処理装置の一例の概
略構成図を示す。図4の情報処理装置は、中央処理装置
1と、中央処理装置1で生成された32ビットの論理ア
ドレスの上位20ビットを32ビット物理アドレスの上
位20ビットに変換するTLB2と、ダイレクトマップ
方式のキャッシュメモリ3とを有している。TLB2
は、論理アドレスを格納しておく論理アドレス格納部2
1と、各論理アドレスに対応した物理アドレスを格納し
ておく物理アドレス格納部22から構成されている。ダ
イレクトマップ方式のキャッシュメモリ3は、デコーダ
31と、タグアドレスを格納するタグ部32と、データ
部33と、比較器34と、トライステートバッファ35
とを有している。
FIG. 4 shows a schematic block diagram of an example of the conventional information processing apparatus. The information processing apparatus shown in FIG. 4 has a central processing unit 1, a TLB 2 for converting the upper 20 bits of a 32-bit logical address generated by the central processing unit 1 into the upper 20 bits of a 32-bit physical address, and a direct map method. It has a cache memory 3. TLB2
Is a logical address storage unit 2 for storing logical addresses
1 and a physical address storage unit 22 for storing the physical address corresponding to each logical address. The direct map cache memory 3 includes a decoder 31, a tag unit 32 that stores a tag address, a data unit 33, a comparator 34, and a tristate buffer 35.
And have.

【0005】図4の情報処理装置においては、メモリ空
間を4096バイト(2の12乗バイト:通常4Kバイ
トと称される)のページに分割して管理しているので、
論理アドレスの下位12ビットはオフセット部となる。
キャッシュメモリ3の容量は16Kバイト(2の14乗
バイト)であるとすると、タグアドレスは18ビット
(32−14=18)に決められ、キャッシュメモリ3
のエントリの読み出しには物理アドレスの下位14ビッ
トが用いられる。
In the information processing apparatus shown in FIG. 4, the memory space is divided into pages of 4096 bytes (2 12 bytes: usually called 4 Kbytes) for management.
The lower 12 bits of the logical address are the offset part.
Assuming that the capacity of the cache memory 3 is 16 Kbytes (2 14 bytes), the tag address is determined to be 18 bits (32-14 = 18).
The lower 14 bits of the physical address are used to read the entry.

【0006】以上の構成を有する情報処理装置における
キャッシュメモリ3のアクセス動作について説明する。
まず、中央処理装置1で生成された32ビットの論理ア
ドレスLA(31:0)の上位20ビットLA(31:
12)をTLB2で物理アドレスの上位20ビットPA
(31:12)に変換する。そして、変換した物理アド
レスの下位2ビットPA(13:12)および論理アド
レスの下位12ビットLA(12:0)を合わせた14
ビットの信号を用いて、キャッシュメモリ3のエントリ
の読み出しを行う。具体的には、前記14ビットの信号
をデコーダ31によりデコードして、選択されたエント
リのタグ部32からタグアドレスを、データ部33から
データをそれぞれ読み出す。次に、TLB2でのアドレ
ス変換が終了した後、読み出されたタグアドレスと物理
アドレスの上位18ビットPA(31:14)との比較
を比較器34で行い、一致した場合にはキャッシュヒッ
トとなり、トライステートバッファ35を介して予めデ
ータ部33から読み出されていたデータが出力される。
一致しない場合にはキャッシュミスになり、外部メモリ
装置がアクセスされる。
An access operation of the cache memory 3 in the information processing apparatus having the above configuration will be described.
First, the upper 20 bits LA (31: of the 32-bit logical address LA (31: 0) generated by the central processing unit 1
12) TLB2, PA of upper 20 bits of physical address
Convert to (31:12). Then, the lower 2 bits PA (13:12) of the converted physical address and the lower 12 bits LA (12: 0) of the logical address are combined 14
The entry of the cache memory 3 is read using the bit signal. Specifically, the 14-bit signal is decoded by the decoder 31 to read the tag address from the tag section 32 and the data from the data section 33 of the selected entry, respectively. Next, after the address conversion in TLB2 is completed, the comparator 34 compares the read tag address with the upper 18 bits PA (31:14) of the physical address, and if they match, a cache hit occurs. The data previously read from the data section 33 is output via the tri-state buffer 35.
If they do not match, a cache miss occurs and the external memory device is accessed.

【0007】[0007]

【発明が解決しようとする課題】しかしながら上記のよ
うな構成では、アドレス変換装置2で論理アドレスの物
理アドレスへの変換が終了した後、変換された物理アド
レスの一部をキャッシュメモリのエントリの読み出しに
使用しなければならないため、アドレス変換装置2での
アドレス変換が終了するまでキャッシュメモリ3のエン
トリの読み出しが開始できず、キャッシュメモリ3の読
み出しが遅くなるという問題点を有していた。
However, in the above configuration, after the conversion of the logical address into the physical address is completed by the address translation device 2, a part of the translated physical address is read out from the entry of the cache memory. Therefore, there is a problem that the reading of the entry of the cache memory 3 cannot be started until the address conversion in the address conversion device 2 is completed, and the reading of the cache memory 3 becomes slow.

【0008】本発明は上記問題点に鑑み、論理アドレス
をアドレス変換することにより得られる物理アドレスの
一部をキャッシュメモリのエントリの読み出しに使用す
る場合にも、高速で読み出しを行うことができる情報処
理装置を提供することを目的とする。
In view of the above problems, the present invention provides information that can be read at high speed even when a part of a physical address obtained by translating a logical address is used for reading an entry in a cache memory. An object is to provide a processing device.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
め、請求項1の発明は、前回の論理アドレスの上位部を
アドレス変換することにより得られた物理アドレス上位
部のキャッシュメモリを読み出す部分を旧キャッシュ読
み出し部としてレジスタに記憶しておき、次のアドレス
変換を行うと同時に旧キャッシュ読み出し部と論理アド
レスのオフセット部とによってキャッシュメモリのエン
トリを読み出し、アドレス変換で得られる物理アドレス
上位部のキャッシュ読み出し部が旧キャッシュ読み出し
部と同じであれば、既に読み出したエントリのデータを
読み出しデータとするものである。
In order to achieve the above object, the invention of claim 1 reads a cache memory of an upper part of a physical address obtained by address conversion of an upper part of a previous logical address. Is stored in the register as the old cache read unit, and at the same time the next address conversion is performed, the entry of the cache memory is read by the old cache read unit and the logical address offset unit, and the physical address upper part obtained by the address conversion is If the cache read unit is the same as the old cache read unit, the data of the already read entry is used as the read data.

【0010】具体的に請求項1の発明が講じた解決手段
は、論理アドレスを生成する中央処理装置と、タグアド
レス及びデータよりなるエントリを記憶するダイレクト
マップ方式又はセットアソシェイティブ方式のキャッシ
ュメモリと、前記論理アドレスの上位部を物理アドレス
上位部に変換するアドレス変換装置と、該アドレス変換
装置において前回のアドレス変換で得られた物理アドレ
ス上位部にあり前記キャッシュメモリの読み出しに用い
られた旧キャッシュ読み出し部を記憶するレジスタと、
該レジスタに記憶されている旧キャッシュ読み出し部と
前記アドレス変換装置で得られた物理アドレス上位部の
新キャッシュ読み出し部とを比較する比較手段とを備
え、前記レジスタに記憶されている旧キャッシュ読み出
し部とアドレス変換されない前記論理アドレスの下位部
からなるオフセット部とにより前記キャッシュメモリか
らエントリを読み出し、前記比較手段において旧キャッ
シュ読み出し部と新キャッシュ読み出し部とが一致して
いることが検出された場合に前記キャッシュメモリによ
って読み出されたデータを読み出しデータとし、一致し
ていないことが検出された場合には前記アドレス変換装
置で得られた前記物理アドレス上位部の新キャッシュ読
み出し部が前記レジスタに記憶された後に、該レジスタ
の記憶内容と前記論理アドレスのオフセット部とにより
前記キャッシュメモリから読み出されたエントリのデー
タを読み出しデータとする構成とするものである。
Specifically, a solution means taken by the invention of claim 1 is a central processing unit for generating a logical address and a cache memory of a direct map system or a set associative system for storing an entry consisting of a tag address and data. An address translation device for translating the upper part of the logical address into a physical address upper part, and an old address used in the reading of the cache memory in the physical address upper part obtained by the previous address conversion in the address translation device. A register for storing the cache reading unit,
The old cache reading unit stored in the register is provided with a comparing unit for comparing the old cache reading unit stored in the register with the new cache reading unit of the physical address upper part obtained by the address translation device. When an entry is read from the cache memory by an offset part composed of a lower part of the logical address which is not subjected to address translation, and the comparison means detects that the old cache read part and the new cache read part match. The data read by the cache memory is used as read data, and when it is detected that they do not match, the new cache read unit of the physical address upper part obtained by the address translation device is stored in the register. The contents of the register and the above The offset portion of the address is to a configuration in which the data read out data entry read from said cache memory.

【0011】また、請求項2の発明は、請求項1の発明
において、比較手段が旧キャッシュ読み出し部と新キャ
ッシュ読み出し部とが一致することを検出し、しかもア
ドレス変換装置で得られた物理アドレス上位部と既に読
み出されているエントリのタグアドレスとが一致する場
合に、タグアドレスと同時に既に読み出されていたエン
トリのデータを出力するものである。具体的には、請求
項1の発明に、前記比較手段において旧キャッシュ読み
出し部と新キャッシュ読み出し部とが一致していること
が検出され、かつ前記キャッシュメモリから読み出され
たエントリのタグアドレスと前記アドレス変換装置で得
られた物理アドレス上位部とが一致する場合に、前記レ
ジスタに記憶されている旧キャッシュ読み出し部と前記
論理アドレスのオフセット部とにより前記キャッシュメ
モリから読み出されたエントリの読み出しデータを出力
するデータ出力手段を更に付加する構成とするものであ
る。
According to a second aspect of the present invention, in the first aspect of the invention, the comparing unit detects that the old cache reading unit and the new cache reading unit match each other, and the physical address obtained by the address translation device. When the upper part matches the tag address of the already read entry, the data of the already read entry is output at the same time as the tag address. Specifically, in the invention of claim 1, the comparison unit detects that the old cache read unit and the new cache read unit match each other, and the tag address of the entry read from the cache memory. Reading the entry read from the cache memory by the old cache read unit and the logical address offset unit stored in the register when the physical address upper part obtained by the address translation device matches. The data output means for outputting data is further added.

【0012】更に、請求項3の発明は、請求項1の発明
において、比較手段が旧キャッシュ読み出し部と新キャ
ッシュ読み出し部とが一致しないことを検出した場合
に、アドレス変換装置で得られた物理アドレス上位部の
新キャッシュ読み出し部がレジスタに格納される間、中
央処理装置の処理を一時的に停止するものである。具体
的には、請求項1の発明に、前記比較手段において旧キ
ャッシュ読み出し部と新キャッシュ読み出し部とが一致
していないことが検出された場合に、次の1サイクルの
間前記中央処理装置の状態を保持することを前記中央処
理装置に要求する保持要求手段を更に付加する構成とす
るものである。
Further, in the invention of claim 3 according to the invention of claim 1, when the comparing means detects that the old cache read part and the new cache read part do not match, the physical conversion obtained by the address translation device. The processing of the central processing unit is temporarily stopped while the new cache reading unit in the upper address section is stored in the register. Specifically, in the invention of claim 1, when the comparison unit detects that the old cache reading unit and the new cache reading unit do not match, the central processing unit of the central processing unit is operated for the next one cycle. A holding request means for requesting the central processing unit to hold the state is further added.

【0013】請求項4の発明は、アドレス変換装置に論
理アドレスの上位部の前記キャッシュメモリの読み出し
に用いられる部分の値にそれぞれ対応する複数のアドレ
ス変換部を設け、論理アドレスの上位部が入力されたと
きに対応するアドレス変換部から出力されるヒット信号
と論理アドレスのオフセット部とによってキャッシュメ
モリのエントリを読み出すものである。
According to a fourth aspect of the present invention, the address translator is provided with a plurality of address translators respectively corresponding to the values of the upper portion of the logical address used for reading the cache memory, and the upper portion of the logical address is input. At this time, the entry of the cache memory is read by the hit signal output from the corresponding address conversion section and the offset section of the logical address.

【0014】具体的に請求項4の発明が講じた解決手段
は、論理アドレスを生成する中央処理装置と、タグアド
レス及びデータよりなるエントリが記憶されるダイレク
トマップ方式又はセットアソシェイティブ方式のキャッ
シュメモリと、前記論理アドレスの上位部を物理アドレ
ス上位部に変換するアドレス変換装置と、該アドレス変
換装置を構成し前記論理アドレスの上位部の前記キャッ
シュメモリの読み出しに用いられるキャッシュ読み出し
部の値に対応してそれぞれ設けられ対応するキャッシュ
読み出し部を含む前記論理アドレスの上位部が入力され
た場合にヒット信号を出力する複数のアドレス変換部と
を備え、該複数のアドレス変換部の何れかからの前記ヒ
ット信号とアドレス変換されない前記論理アドレスの下
位部からなるオフセット部とにより前記キャッシュメモ
リに記憶されているエントリが読み出される構成とする
ものである。
Specifically, a solution means taken by the invention of claim 4 is a central processing unit for generating a logical address and a cache of a direct map system or a set associative system in which an entry composed of a tag address and data is stored. A memory, an address translation device for translating the upper part of the logical address into a physical address upper part, and a value of a cache read part used for reading the upper part of the logical address of the cache memory, which constitutes the address translation device. A plurality of address conversion units that output a hit signal when a higher-order part of the logical address including the corresponding cache read unit is input, and any one of the plurality of address conversion units is provided. OFF consisting of the hit signal and the lower part of the logical address that is not translated By the Tsu preparative portion in which a structure in which entries are stored in the cache memory is read.

【0015】また、請求項5の発明は、請求項4の発明
において、論理アドレスのオフセット部によってキャッ
シュメモリの複数のエントリを選択し、この選択された
複数のエントリの中から、アドレス変換部の何れかから
のヒット信号に基づいて1つのエントリを選択するもの
である。具体的には、請求項4の発明に、前記論理アド
レスのオフセット部によって前記キャッシュメモリの複
数のエントリを選択する第1のエントリ選択手段と、前
記アドレス変換部の何れかからのヒット信号に基づいて
前記第1のエントリ選択手段によって選択された複数の
エントリのうちの1つを選択する第2のエントリ選択手
段とを更に付加する構成とするものである。
According to the invention of claim 5, in the invention of claim 4, a plurality of entries of the cache memory are selected by the offset part of the logical address, and the address translation part is selected from the selected plurality of entries. One entry is selected based on a hit signal from any one. Specifically, according to the invention of claim 4, based on a hit signal from any one of the first entry selecting means for selecting a plurality of entries of the cache memory by the offset part of the logical address, and a hit signal from any of the address conversion parts. And a second entry selecting means for selecting one of the plurality of entries selected by the first entry selecting means.

【0016】請求項6の発明は、キャッシュメモリに記
憶されているエントリの読み出し情報を記憶する部分を
アドレス変換装置に設け、アドレス変換装置で得られた
物理アドレス上位部に対応するエントリがキャッシュメ
モリに記憶されている場合に読み出し情報を出力し、こ
の読み出し情報と論理アドレスのオフセット部とにより
キャッシュメモリのエントリを読み出すものである。
According to a sixth aspect of the invention, a portion for storing read information of the entry stored in the cache memory is provided in the address translation device, and the entry corresponding to the physical address upper part obtained by the address translation device is the cache memory. If the read information is stored in the cache memory, the read information is output, and the entry of the cache memory is read by the read information and the offset portion of the logical address.

【0017】具体的に請求項6の発明が講じた解決手段
は、論理アドレスを生成する中央処理装置と、タグアド
レス及びデータよりなるエントリが記憶されるダイレク
トマップ方式又はセットアソシェイティブ方式のキャッ
シュメモリと、前記論理アドレスの上位部を物理アドレ
ス上位部に変換するアドレス変換装置と、該アドレス変
換装置に設けられ前記キャッシュメモリに記憶されてい
るエントリの読み出し情報を格納し前記アドレス変換装
置で得られた物理アドレス上位部に対応するエントリが
前記キャッシュメモリに記憶されている場合に前記読み
出し情報を出力する読み出し情報格納部とを備え、前記
読み出し情報格納部からの読み出し情報とアドレス変換
されない前記論理アドレスの下位部からなるオフセット
部とにより前記キャッシュメモリに記憶されているエン
トリが読み出される構成とするものである。
Specifically, a solution means taken by the invention of claim 6 is a central processing unit for generating a logical address and a cache of a direct map system or a set associative system in which an entry composed of a tag address and data is stored. A memory, an address translation device that translates the upper part of the logical address into a physical address upper part, and read information of an entry provided in the address translation device and stored in the cache memory is stored and obtained by the address translation device. A read information storage unit that outputs the read information when an entry corresponding to the upper physical address portion stored in the cache memory is stored in the cache memory, and the read information from the read information storage unit and the logic that is not address-converted. With the offset part consisting of the lower part of the address, the key Entry Sshumemori the stored one in which is configured to be read out.

【0018】また、請求項7の発明は、請求項6の発明
において、論理アドレスのオフセット部によってキャッ
シュメモリの複数のエントリを選択し、この選択された
複数のエントリの中から、読み出し情報に基づいて1つ
のエントリを選択するものである。具体的には、請求項
6の発明に、前記論理アドレスのオフセット部により前
記キャッシュメモリの複数のエントリを選択する第1の
エントリ選択手段と、前記読み出し情報格納部からの前
記読み出し情報に基づいて前記第1のエントリ選択手段
によって選択された複数のエントリのうちの1つを選択
する第2のエントリ選択手段とを更に付加する構成とす
るものである。
According to the invention of claim 7, in the invention of claim 6, a plurality of entries of the cache memory are selected by the offset part of the logical address, and based on the read information from the selected plurality of entries. To select one entry. Specifically, according to the invention of claim 6, based on the first entry selecting means for selecting a plurality of entries of the cache memory by the offset part of the logical address, and the read information from the read information storage part. The second entry selecting means for selecting one of the plurality of entries selected by the first entry selecting means is further added.

【0019】[0019]

【作用】請求項1の発明の構成により、前回の論理アド
レスの上位部をアドレス変換することにより得られた物
理アドレス上位部のキャッシュメモリを読み出す部分が
旧キャッシュ読み出し部としてレジスタに記憶されてい
るので、次のアドレス変換を行っている間に旧キャッシ
ュ読み出し部と論理アドレスのオフセット部とによって
キャッシュメモリのエントリを読み出すことができる。
次に、アドレス変換が終わった後に、アドレス変換で得
られた物理アドレス上位部の新キャッシュ読み出し部と
旧キャッシュ読み出し部との比較が行われ、新旧のキャ
ッシュ読み出し部が一致していれば既に読み出したエン
トリのデータを読み出しデータとしてそのまま処理が続
けられる。従って、論理アドレスのアドレス変換が終了
する前にキャッシュメモリのアクセスを行うことがで
き、キャッシュメモリのアクセス時間を短縮することが
できる。このように、請求項1の発明は、物理アドレス
上位部のキャッシュ読み出し部は前回の物理アドレス上
位部の旧キャッシュ読み出し部と一致することが多いと
いうプログラムの連続性を利用してキャッシュメモリの
読み出し時間を短縮するものである。
According to the structure of the first aspect of the present invention, the portion for reading the cache memory of the upper portion of the physical address obtained by address-converting the upper portion of the previous logical address is stored in the register as the old cache reading portion. Therefore, the entry in the cache memory can be read by the old cache reading unit and the logical address offset unit during the next address conversion.
Next, after the address conversion is completed, the new cache read unit and the old cache read unit of the physical address upper part obtained by the address conversion are compared, and if the old and new cache read units match, the already read The data of the selected entry is used as the read data and the processing is continued as it is. Therefore, the cache memory can be accessed before the address conversion of the logical address is completed, and the access time of the cache memory can be shortened. As described above, the invention of claim 1 uses the continuity of the program that the cache read unit of the physical address upper part often matches the previous cache read unit of the physical address upper part, and thus reads the cache memory. It saves time.

【0020】また、請求項2の発明の構成により、旧新
のキャッシュ読み出し部が一致していることが検出さ
れ、キャッシュメモリから読み出されたエントリのタグ
アドレスとアドレス変換装置で得られた物理アドレス上
位部とが一致する場合に、既に読み出されているエント
リの読み出しデータがデータ出力手段から出力されるの
で、キャッシュメモリの読み出し時間を短縮することが
できる。
According to the configuration of the second aspect of the present invention, it is detected that the old and new cache read units match, and the tag address of the entry read from the cache memory and the physical address obtained by the address translation device. When the address upper part matches, the read data of the already read entry is output from the data output means, so that the read time of the cache memory can be shortened.

【0021】また、請求項3の発明の構成により、旧新
のキャッシュ読み出し部が一致していないことが検出さ
れた場合に、保持要求手段によって中央処理装置の状態
を保持する要求が中央処理装置に出力されるので、次の
サイクルでキャッシュメモリを読み出すことにより、1
サイクルを無駄にするだけで処理を続行することができ
る。従って、情報処理装置の処理速度の低下はほとんど
生じない。
According to the third aspect of the present invention, when it is detected that the old and new cache read units do not match, the holding request means requests the central processing unit to hold the state of the central processing unit. Is output to the cache memory in the next cycle.
Processing can be continued simply by wasting cycles. Therefore, the processing speed of the information processing device hardly decreases.

【0022】請求項4の発明の構成により、アドレス変
換装置に論理アドレスの上位部の前記キャッシュメモリ
の読み出し部の値にそれぞれ対応する複数のアドレス変
換部が設けられ、論理アドレスの上位部が入力されたと
きに対応するデータがキャッシュメモリにあれば、対応
するアドレス変換部からヒット信号が出力される。この
ヒット信号と論理アドレスのオフセット部とによってキ
ャッシュメモリのエントリを読み出すことにより、アド
レス変換装置でのアドレス変換の終了を待つことなくキ
ャッシュメモリのエントリの読み出しを開始することが
できる。これにより、キャッシュメモリの読み出し時間
を短縮することができる。また、アドレス変換装置を複
数のアドレス変換部によって構成しているため、複数の
アドレス変換部で構成していない場合に比べてアドレス
変換装置でのキャッシュヒットの検出を高速に行うこと
ができる。
According to the structure of the invention of claim 4, the address translation device is provided with a plurality of address translation units respectively corresponding to the values of the read unit of the cache memory in the upper portion of the logical address, and the upper portion of the logical address is input. If the corresponding data is present in the cache memory at the time, the hit signal is output from the corresponding address conversion unit. By reading the entry of the cache memory by this hit signal and the offset part of the logical address, the reading of the entry of the cache memory can be started without waiting for the end of the address translation in the address translator. As a result, the read time of the cache memory can be shortened. Further, since the address translation device is composed of a plurality of address translation parts, it is possible to detect a cache hit in the address translation device at a higher speed than in the case where it is not composed of a plurality of address translation parts.

【0023】また、請求項5の発明の構成により、第1
のエントリ選択手段によってキャッシュメモリの複数の
エントリが選択され、アドレス変換部の何れかからのヒ
ット信号に基づき、第2のエントリ選択手段によって第
1のエントリ選択手段によって選択された複数のエント
リのうちの1つが選択されるので、キャッシュメモリの
読み出し時間が短縮される。
According to the configuration of the invention of claim 5, the first
Of the plurality of entries selected by the first entry selecting means by the second entry selecting means on the basis of a hit signal from any of the address conversion units. Since one of the two is selected, the read time of the cache memory is shortened.

【0024】請求項6の発明の構成により、キャッシュ
メモリに格納されているエントリの読み出し情報が記憶
されている読み出し情報格納部がアドレス変換装置に設
けられ、アドレス変換装置に入力された論理アドレスに
対応する対応するエントリがキャッシュメモリに格納さ
れている場合に読み出し情報格納部からエントリの読み
出し情報が出力されるので、アドレス変換装置でのアド
レス変換の終了を待つことなくキャッシュメモリのエン
トリの読み出しを開始することができる。そのため、キ
ャッシュメモリの読み出し時間が短縮される。
According to the configuration of the sixth aspect of the present invention, the read information storage unit in which the read information of the entry stored in the cache memory is stored is provided in the address translation device, and the logical address input to the address translation device is provided. When the corresponding corresponding entry is stored in the cache memory, the read information of the entry is output from the read information storage unit, so that the entry of the cache memory can be read without waiting for the completion of the address translation in the address translation device. You can start. Therefore, the read time of the cache memory is shortened.

【0025】また、請求項7の発明の構成により、第1
のエントリ選択手段によってキャッシュメモリの複数の
エントリが選択され、読み出し情報格納部からの読み出
し情報に基づき、第2のエントリ選択手段によって第1
のエントリ選択手段によって選択された複数のエントリ
のうちの1つが選択されるので、キャッシュメモリの読
み出し時間が短縮される。
According to the structure of the invention of claim 7, the first
The plurality of entries of the cache memory are selected by the entry selection means of the first entry selection means, and the first entry selection means selects the first entry based on the read information from the read information storage section.
Since one of the plurality of entries selected by the entry selecting means is selected, the read time of the cache memory is shortened.

【0026】[0026]

【実施例】以下、本発明の実施例について、図面を参照
しながら説明する。図1に本発明の第1の実施例に係る
情報処理装置の概略構成図を示す。本実施例の情報処理
装置は、中央処理装置1と、中央処理装置1で生成され
た論理アドレスの上位部を物理アドレス上位部に変換す
るフルアソシェイティブ方式のTLB(アドレス変換バ
ッファ)2と、ダイレクトマップ方式のキャッシュメモ
リ3とを有している。TLB2は、論理アドレス格納部
21、および各論理アドレスに対応する物理アドレスを
格納する物理アドレス格納部22とを有している。論理
アドレス格納部21は連想メモリ(CAM)によって構
成され、物理アドレス格納部22はランダムアクセスメ
モリ(RAM)によって構成されている。また、ダイレ
クトマップ方式のキャッシュメモリ3は、デコーダ31
と、タグ部32と、データ部33と、比較器34と、ト
ライステートバッファ35とによって構成されている。
タグ部32には物理アドレスの一部が格納され、データ
部33には読み出すべきデータが格納されている。更
に、本実施例の情報処理装置は、前回のTLB2でのア
ドレス変換において得られた物理アドレス上位部のうち
キャッシュメモリのエントリ(タグおよびデータ)の読
み出しに用いたキャッシュ読み出し部を旧キャッシュ読
み出し部として格納するレジスタ14と、レジスタ14
に格納されている旧キャッシュ読み出し部と今回のTL
B2でのアドレス変換で得られた物理アドレス上位部の
新キャッシュ読み出し部とを比較する比較器5と、比較
器34及び比較器5でともに一致が検出された場合に”
H(HIGH)”を出力するANDゲート16と、比較
器5で不一致が検出された場合に中央処理装置1にウエ
イト要求を行うインバータ7とを有している。比較器
5,34、インバータ7、ANDゲート16及びトライ
ステートバッファ35によってデータ出力手段が構成さ
れている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration diagram of an information processing apparatus according to a first embodiment of the present invention. The information processing apparatus of the present embodiment includes a central processing unit 1 and a TLB (address translation buffer) 2 of a full associative method for translating an upper part of a logical address generated by the central processing unit 1 into an upper part of a physical address. , And a direct map type cache memory 3. The TLB 2 has a logical address storage unit 21 and a physical address storage unit 22 that stores a physical address corresponding to each logical address. The logical address storage unit 21 is composed of an associative memory (CAM), and the physical address storage unit 22 is composed of a random access memory (RAM). In addition, the cache memory 3 of the direct map type has a decoder 31
The tag unit 32, the data unit 33, the comparator 34, and the tri-state buffer 35.
A part of the physical address is stored in the tag part 32, and the data to be read is stored in the data part 33. Further, in the information processing apparatus of the present embodiment, the cache reading unit used for reading the entry (tag and data) of the cache memory in the physical address upper part obtained in the previous address conversion in TLB2 is the old cache reading unit. 14 for storing as
Old cache read unit and this TL stored in
When a match is detected by the comparator 5 that compares the new cache read unit of the higher physical address obtained by the address conversion in B2, and the comparator 34 and the comparator 5, "
It has an AND gate 16 that outputs H (HIGH) "and an inverter 7 that makes a wait request to the central processing unit 1 when the comparator 5 detects a mismatch. , AND gate 16 and tri-state buffer 35 constitute data output means.

【0027】本実施例においては、論理アドレス空間お
よび物理アドレス空間はともに4Gバイトであり、アド
レス空間(メモリ空間)は4Kバイトのページによって
管理されているものとする。従って、中央処理装置1で
生成される論理アドレスは32ビットであり、論理アド
レスの上位20ビットはTLB2において物理アドレス
の上位20ビットにアドレス変換され、論理アドレスの
下位12ビットはそのまま物理アドレスの下位12ビッ
ト(オフセット部)として用いられる。また、キャッシ
ュメモリ3の容量は16Kバイトとする。
In this embodiment, it is assumed that both the logical address space and the physical address space are 4 Gbytes, and the address space (memory space) is managed by 4 Kbyte pages. Therefore, the logical address generated by the central processing unit 1 is 32 bits, the upper 20 bits of the logical address are translated into the upper 20 bits of the physical address in the TLB 2, and the lower 12 bits of the logical address are the lower bits of the physical address as they are. It is used as 12 bits (offset part). The capacity of the cache memory 3 is 16 Kbytes.

【0028】以上の構成を有する情報処理装置における
キャッシュメモリ3の読み出し動作について、図1を参
照しながら説明する。まず、中央処理装置1で生成され
た論理アドレスLA(31:0)の上位20ビットLA
(31:12)によってTLB2がアクセスされる。T
LB2では論理アドレス格納部21に一致する論理アド
レスがあるかどうかが検索され、一致する論理アドレス
があれば物理アドレス格納部22から論理アドレスLA
(31:12)に対応する物理アドレスの上位20ビッ
トPA(31:12)が読み出される。もし一致する論
理アドレスがない場合には、主記憶装置にあるテーブル
を参照してアドレス変換を行いTLB2に登録する。ま
た、TLB2でのアドレス変換と並行して、キャッシュ
メモリ3の読み出し、即ち、キャッシュメモリ3のタグ
部32に格納されているタグアドレスとデータ部33に
格納されているデータとの読み出しが行われる。キャッ
シュメモリ3の読み出しは、前回のアドレス変換で得ら
れた物理アドレスのキャッシュ読み出し部であるPA
(13:12)を旧キャッシュ読み出し部として格納し
ているレジスタ14の出力OPA(13:12)と、今
回の論理アドレスの下位12ビットLA(11:0)と
を合わせた14ビットを用いて行われる。即ち、該14
ビットのアドレスデータをデコーダ31に入力すること
により、タグ部32からタグアドレス(物理アドレスの
上位18ビット)が、データ部33からデータがそれぞ
れ読み出される。
A read operation of the cache memory 3 in the information processing apparatus having the above configuration will be described with reference to FIG. First, the upper 20 bits LA of the logical address LA (31: 0) generated by the central processing unit 1
TLB2 is accessed by (31:12). T
The LB 2 searches for a matching logical address in the logical address storage unit 21, and if there is a matching logical address, the physical address storage unit 22 stores the logical address LA.
The upper 20 bits PA (31:12) of the physical address corresponding to (31:12) are read. If there is no matching logical address, the address conversion is performed by referring to the table in the main memory, and the address is registered in TLB2. Further, in parallel with the address conversion in the TLB 2, reading of the cache memory 3, that is, reading of the tag address stored in the tag unit 32 of the cache memory 3 and the data stored in the data unit 33 is performed. . The cache memory 3 is read by the PA that is the cache read unit of the physical address obtained by the previous address conversion.
Using 14 bits, which is the sum of the output OPA (13:12) of the register 14 that stores (13:12) as the old cache read unit and the lower 12 bits LA (11: 0) of the current logical address. Done. That is, the 14
By inputting the bit address data to the decoder 31, the tag address (the upper 18 bits of the physical address) is read from the tag unit 32 and the data is read from the data unit 33.

【0029】次に、TLB2でのアドレス変換が終了し
た後、レジスタ14に格納されている前回のアドレス変
換で得られた旧キャッシュ読み出し部OPA(13:1
2)と、今回のアドレス変換で得られた新キャッシュ読
み出し部PA(13:12)との比較が比較器5で行わ
れる。また、それと並行して読み出されたタグアドレス
TAとTLB2で変換された物理アドレスの上位18ビ
ットPA(31:14)との比較が比較器34で行われ
る。比較器5で旧キャッシュ読み出し部と新キャッシュ
読み出し部とが一致していることが検出され、かつ比較
器34でタグアドレスTAと物理アドレスの上位18ビ
ットPA(31:14)とが一致していることが検出さ
れた場合には、既にキャッシュメモリ3から読み出した
エントリのデータを読み出しデータとして出力される。
即ち、比較器5及び比較器34で一致が検出された場合
にはキャッシュヒットとなり、ANDゲート16の出力
は”H”となる。これにより、予めデータ部33から読
み出されていたデータがトライステートバッファ35を
介して出力される。なお、レジスタ14にはキャッシュ
メモリ3の読み出しが終了した時点で、TLB2でのア
ドレス変換で得られた物理アドレスの新キャッシュ読み
出し部PA(13:12)は、次のキャッシュメモリ3
の読み出しにおける旧キャッシュ読み出し部として書き
込まれる。
Next, after the address translation in TLB2 is completed, the old cache read unit OPA (13: 1) stored in the register 14 and obtained by the previous address translation.
The comparator 5 compares 2) with the new cache read unit PA (13:12) obtained by the current address conversion. Further, the comparator 34 compares the tag address TA read in parallel with the high-order 18-bit PA (31:14) of the physical address converted by the TLB2. The comparator 5 detects that the old cache read unit and the new cache read unit match, and the comparator 34 matches the tag address TA with the upper 18 bits PA (31:14) of the physical address. If it is detected that the data is present, the data of the entry already read from the cache memory 3 is output as the read data.
That is, when a match is detected by the comparator 5 and the comparator 34, a cache hit occurs and the output of the AND gate 16 becomes "H". As a result, the data previously read from the data section 33 is output via the tri-state buffer 35. When the reading of the cache memory 3 is completed in the register 14, the new cache reading unit PA (13:12) of the physical address obtained by the address conversion in the TLB 2 is set to the next cache memory 3
Is written as the old cache reading unit in the reading of.

【0030】一方、比較器5で旧キャッシュ読み出し部
OPA(13:12)と新キャッシュ読み出し部PA
(13:12)との一致が検出され、かつ比較器34で
物理アドレスPA(31:14)とタグアドレスTAと
の不一致が検出された場合、即ちキャッシュミスが検出
された場合には、ANDゲート16の出力は”L(LO
W)”となる。これにより、外部メモリがアクセスされ
る。また、比較器5で不一致が検出されると、中央処理
装置1にはインバータ7を介してウエイト信号が送られ
る。このウエイト信号を受けとった中央処理装置1は、
次の1サイクルの間現在の状態を保持するように制御さ
れる。中央処理装置1の状態が保持されているそのサイ
クル、即ち新旧のキャッシュ読み出し部の不一致が検出
された次のサイクルでは、既にレジスタ14に書き込ま
れている物理アドレスの新キャッシュ読み出し部を用い
て再度キャッシュメモリ3の読み出しが行われる。
On the other hand, in the comparator 5, the old cache read unit OPA (13:12) and the new cache read unit PA are used.
AND when the match with (13:12) is detected and the comparator 34 detects a mismatch between the physical address PA (31:14) and the tag address TA, that is, when a cache miss is detected. The output of the gate 16 is "L (LO
W) ”. This causes the external memory to be accessed. Further, when the comparator 5 detects a mismatch, a wait signal is sent to the central processing unit 1 via the inverter 7. This wait signal The received central processing unit 1 is
It is controlled to maintain the current state for the next one cycle. In the cycle in which the state of the central processing unit 1 is held, that is, in the next cycle in which the mismatch between the old and new cache read units is detected, the new cache read unit of the physical address already written in the register 14 is used again. Reading of the cache memory 3 is performed.

【0031】以上のように本実施例の情報処理装置によ
れば、前回のアドレス変換で得られた旧キャッシュ読み
出し部と、論理アドレスのオフセット部とを用いてキャ
ッシュメモリ3のエントリの読み出しが行われるので、
論理アドレスの物理アドレスへのアドレス変換の終了を
待たずに、キャッシュメモリのタグおよびデータの読み
出しを行うことができる。次に、アドレス変換装置2で
のアドレス変換が終了すると、キャッシュメモリ3のエ
ントリの読み出しに使用した旧キャッシュ読み出し部と
アドレス変換で得られた物理アドレスのキャッシュ読み
出し部とを比較し、一致すればそのまま処理を続けるこ
とができるので、キャッシュメモリ3の読み出し時間が
短縮される。このような読み出し時間の短縮は、物理ア
ドレスの一部は前回の物理アドレスの一部と一致するこ
とが多いというプログラムの連続性を利用したものであ
る。本実施例では、新旧キャッシュ読み出し部が一致し
なかった場合においても、次のサイクルでキャッシュメ
モリ3を読み出すことにより、時間の無駄を1サイクル
で済ませることができる。そのため、情報処理装置の処
理速度の低下はほとんど生じない。
As described above, according to the information processing apparatus of the present embodiment, the entry of the cache memory 3 is read by using the old cache read unit obtained by the previous address conversion and the logical address offset unit. Because it will be
The tag and data in the cache memory can be read without waiting for the completion of the address conversion from the logical address to the physical address. Next, when the address translation in the address translation device 2 is completed, the old cache reading section used for reading the entry of the cache memory 3 is compared with the cache reading section of the physical address obtained by the address translation, and if they match, Since the processing can be continued as it is, the read time of the cache memory 3 is shortened. Such shortening of the read time utilizes the continuity of the program that a part of the physical address often coincides with a part of the previous physical address. In the present embodiment, even if the old and new cache read units do not match, by reading the cache memory 3 in the next cycle, it is possible to waste time in one cycle. Therefore, the processing speed of the information processing device hardly decreases.

【0032】図2に本発明の第2の実施例に係る情報処
理装置の概略構成を示す。本実施例の情報処理装置は、
中央処理装置1と、中央処理装置1で生成された論理ア
ドレスの上位部を物理アドレス上位部に変換するフルア
ソシェイティブ方式のTLB4と、ダイレクトマップ方
式のキャッシュメモリ3とを有している。
FIG. 2 shows the schematic arrangement of an information processing apparatus according to the second embodiment of the present invention. The information processing apparatus of this embodiment is
It has a central processing unit 1, a TLB 4 of a full associative system for converting an upper part of a logical address generated by the central processing unit 1 into an upper part of a physical address, and a cache memory 3 of a direct map system.

【0033】TLB4は、論理アドレス格納部41と、
各論理アドレスに対応する物理アドレスを格納する物理
アドレス格納部42とによって構成されている。論理ア
ドレス格納部41は連想メモリ(CAM)によって構成
され、物理アドレス格納部42はランダムアクセスメモ
リ(RAM)によって構成されている。また、TLB4
は、格納している物理アドレスのうちキャッシュメモリ
のエントリを読み出すのに使用されるキャッシュ読み出
し部の値に対応する4つのアドレス変換部4a,4b,
4c,4dに分割されている。アドレス変換部4aに対
応する論理アドレスはキャッシュ読み出し部PA(1
3:12)の値が”0”である物理アドレスに対応し、
アドレス変換部4bに対応する論理アドレスはキャッシ
ュ読み出し部PA(13:12)の値が”1”である物
理アドレスに対応し、アドレス変換部4cに対応する論
理アドレスはキャッシュ読み出し部PA(13:12)
の値が”2”である物理アドレスに対応し、アドレス変
換部4dに対応する論理アドレスはキャッシュ読み出し
部PA(13:12)の値が”3”である物理アドレス
に対応している。各々のアドレス変換部4a〜4dでは
入力された論理アドレスと一致する論理アドレスがある
かどうかの検出が行われ、対応する物理アドレスがある
ことが検出されたアドレス変換部4a〜4dからはそれ
ぞれヒット信号CAMH0,CAMH1,CAMH2,
CAMH3が出力される。
The TLB 4 has a logical address storage unit 41,
The physical address storage unit 42 stores the physical address corresponding to each logical address. The logical address storage unit 41 is composed of an associative memory (CAM), and the physical address storage unit 42 is composed of a random access memory (RAM). Also, TLB4
Are four address translation units 4a, 4b, corresponding to the values of the cache read unit used to read the entry of the cache memory among the stored physical addresses.
It is divided into 4c and 4d. The logical address corresponding to the address conversion unit 4a is the cache read unit PA (1
3:12) corresponds to the physical address whose value is “0”,
The logical address corresponding to the address conversion unit 4b corresponds to the physical address whose value in the cache read unit PA (13:12) is "1", and the logical address corresponding to the address conversion unit 4c is the cache read unit PA (13:12). 12)
Corresponds to the physical address whose value is "2", and the logical address corresponding to the address conversion unit 4d corresponds to the physical address whose value of the cache read unit PA (13:12) is "3". Each of the address conversion units 4a to 4d detects whether or not there is a logical address that matches the input logical address, and hits from the address conversion units 4a to 4d in which it is detected that there is a corresponding physical address. Signals CAMH0, CAMH1, CAMH2
CAMH3 is output.

【0034】ダイレクトマップ方式のキャッシュメモリ
3は、第1のエントリ選択手段としてのデコーダ36
と、第2のエントリ選択手段としてのエントリ選択回路
37と、タグ部32と、データ部33と、比較器34
と、トライステートバッファ35とによって構成されて
いる。タグ部32には物理アドレスの一部が格納され、
データ部33には読み出すべきデータが格納されてい
る。デコーダ36は入力された論理アドレスのオフセッ
ト部に基づいて4つのエントリを選択する信号を出力
し、エントリ選択回路37はこの4つのエントリを選択
する信号のうち、アドレス変換部4a〜4dからのヒッ
ト信号CAMH0,CAMH1,CAMH2,CAMH
3に基づいて1つのエントリを選択する。
The direct map type cache memory 3 has a decoder 36 as a first entry selecting means.
An entry selection circuit 37 as a second entry selection means, a tag section 32, a data section 33, and a comparator 34.
And a tri-state buffer 35. A part of the physical address is stored in the tag part 32,
The data section 33 stores the data to be read. The decoder 36 outputs a signal for selecting four entries based on the offset portion of the input logical address, and the entry selection circuit 37 hits from the address conversion units 4a to 4d among the signals for selecting these four entries. Signals CAMH0, CAMH1, CAMH2, CAMH
Select one entry based on 3.

【0035】本実施例においては、論理アドレス空間お
よび物理アドレス空間はともに4Gバイトであり、アド
レス空間(メモリ空間)は4Kバイトのページによって
管理されているものとする。従って、中央処理装置1で
生成される論理アドレスは32ビットであり、論理アド
レスの上位20ビットはTLB2において物理アドレス
の上位20ビットにアドレス変換され、論理アドレスの
下位12ビットはそのまま物理アドレスの下位12ビッ
ト(オフセット部)として用いられる。また、キャッシ
ュメモリ3の容量は16Kバイトとする。
In this embodiment, both the logical address space and the physical address space are 4 Gbytes, and the address space (memory space) is assumed to be managed by 4 Kbyte pages. Therefore, the logical address generated by the central processing unit 1 is 32 bits, the upper 20 bits of the logical address are translated into the upper 20 bits of the physical address in the TLB 2, and the lower 12 bits of the logical address are the lower bits of the physical address as they are. It is used as 12 bits (offset part). The capacity of the cache memory 3 is 16 Kbytes.

【0036】以上の構成を有する情報処理装置における
キャッシュメモリ3の読み出し動作について、図2を参
照しながら説明する。まず、中央処理装置1で生成され
た論理アドレスLA(31:0)の上位20ビットLA
(31:12)によってTLB4がアクセスされる。T
LB4では各アドレス変換部4a〜4dの論理アドレス
格納部41に一致する論理アドレスがあるかどうかが検
索される。一致する論理アドレスがアドレス変換部4a
内にあればヒット信号CAMH0が出力され、アドレス
変換部4b内にあればヒット信号CAMH1が出力さ
れ、アドレス変換部4c内にあればヒット信号CAMH
2が出力され、アドレス変換部4d内にあればヒット信
号CAMH3が出力される。次に、物理アドレス格納部
42から対応する物理アドレスの上位20ビットPA
(31:12)が読み出される。もし一致する論理アド
レスが何れのアドレス変換部にもない場合には、主記憶
装置にあるテーブルを参照してアドレス変換を行いTL
B4に登録する。また、TLB4での論理アドレスの変
換と並行して、キャッシュメモリ3の読み出し、即ち、
キャッシュメモリ3のタグ部32に格納されているタグ
アドレスとデータ部33に格納されているデータとの読
み出しが行われる。キャッシュメモリ3の読み出しは、
まず論理アドレスの下位12ビットLA(11:0)に
よって行われる。LA(11:0)をデコーダ36に入
力することにより、4つのエントリを選択する信号が選
択される。また、アドレス変換装置4内のアドレス変換
部4a〜4dの何れかに一致する論理アドレスがあれ
ば、ヒット信号CAMH0、CAMH1、CAMH2、
CAMH3の何れかが”H”になり、エントリ選択回路
37で読み出すべきエントリが選択される。次に、タグ
部32からタグアドレス(物理アドレスの上位18ビッ
ト)が、データ部33からデータが読み出される。
A read operation of the cache memory 3 in the information processing apparatus having the above configuration will be described with reference to FIG. First, the upper 20 bits LA of the logical address LA (31: 0) generated by the central processing unit 1
TLB 4 is accessed by (31:12). T
The LB 4 searches whether there is a matching logical address in the logical address storage unit 41 of each of the address conversion units 4a to 4d. The matching logical address is the address translation unit 4a.
If it is in the address conversion unit 4b, the hit signal CAMH0 is output, if it is in the address conversion unit 4b, the hit signal CAMH1 is output, and if it is in the address conversion unit 4c, the hit signal CAMH is output.
2 is output, and if it is in the address conversion unit 4d, the hit signal CAMH3 is output. Next, the upper 20 bits PA of the corresponding physical address from the physical address storage unit 42
(31:12) is read. If there is no matching logical address in any of the address conversion units, the address conversion is performed by referring to the table in the main storage device.
Register in B4. Further, in parallel with the conversion of the logical address in the TLB 4, reading of the cache memory 3, that is,
The tag address stored in the tag unit 32 of the cache memory 3 and the data stored in the data unit 33 are read. To read the cache memory 3,
First, the lower 12 bits LA (11: 0) of the logical address are used. By inputting LA (11: 0) to the decoder 36, a signal for selecting four entries is selected. If there is a matching logical address in any of the address translation units 4a to 4d in the address translation device 4, the hit signals CAMH0, CAMH1, CAMH2,
Any of CAMH3 becomes "H", and the entry selection circuit 37 selects the entry to be read. Then, the tag address (the upper 18 bits of the physical address) is read from the tag unit 32 and the data is read from the data unit 33.

【0037】次に、TLB4でのアドレス変換が終了し
た後、読み出されたタグアドレスTAとTLB4でのア
ドレス変換で得られた物理アドレスの上位18ビットP
A(31:14)とが比較器34で比較される。比較器
34でタグアドレスTAとPA(31:14)とが一致
していることが検出された場合にはキャッシュヒットと
なり、予めデータ部33から読み出されていたデータが
トライステートバッファ35を介して出力される。比較
器34でタグアドレスTAとPA(31:14)とが一
致していないことが検出された場合にはキャッシュミス
となり、外部メモリがアクセスされる。
Next, after the address translation in TLB4 is completed, the read tag address TA and the upper 18 bits P of the physical address obtained by the address translation in TLB4
A (31:14) is compared by the comparator 34. When the comparator 34 detects that the tag address TA and PA (31:14) match each other, a cache hit occurs, and the data previously read from the data unit 33 passes through the tri-state buffer 35. Is output. When the comparator 34 detects that the tag address TA and PA (31:14) do not match, a cache miss occurs and the external memory is accessed.

【0038】以上のように本実施例の情報処理装置によ
れば、アドレス変換装置4の分割されたアドレス変換部
4a〜4dのそれぞれからのヒット信号によってキャッ
シュメモリ3のエントリが読み出されるので、アドレス
変換装置4における論理アドレスの物理アドレスへの変
換の終了を待たずにキャッシュメモリ3のエントリの読
み出しを開始することができ、キャッシュメモリ3の読
み出し時間が短縮される。また、アドレス変換装置4を
4つのアドレス変換部4a〜4dに分割して使用してい
るため、分割使用しない場合に比べてアドレス変換装置
4での一致する論理アドレスの検出を高速で行うことが
できる。
As described above, according to the information processing apparatus of the present embodiment, the entry of the cache memory 3 is read by the hit signal from each of the divided address conversion units 4a to 4d of the address conversion apparatus 4, so that the address is read. The reading of the entry of the cache memory 3 can be started without waiting for the completion of the conversion of the logical address into the physical address in the conversion device 4, and the read time of the cache memory 3 is shortened. Further, since the address translation device 4 is divided into four address translation units 4a to 4d and used, the address translation device 4 can detect the matching logical address at a higher speed than in the case where the address translation device 4 is not divided and used. it can.

【0039】図3に本発明の第3の実施例に係る情報処
理装置の概略構成を示す。本実施例の情報処理装置は、
中央処理装置1と、中央処理装置1で生成された論理ア
ドレスの上位部を物理アドレス上位部に変換するフルア
ソシェイティブ方式のTLB6と、ダイレクトマップ方
式のキャッシュメモリ3とを有している。
FIG. 3 shows the schematic arrangement of an information processing apparatus according to the third embodiment of the present invention. The information processing apparatus of this embodiment is
It has a central processing unit 1, a TLB 6 of a full associative system for converting an upper part of a logical address generated by the central processing unit 1 into an upper part of a physical address, and a cache memory 3 of a direct map system.

【0040】TLB6は、論理アドレス格納部61と、
各論理アドレスに対応する物理アドレスを格納する物理
アドレス格納部62と、キャッシュメモリ3に記憶され
ているエントリの読み出し情報を記憶する読み出し情報
格納部63から構成されている。論理アドレス格納部6
1は連想メモリ(CAM)によって構成され、物理アド
レス格納部62はランダムアクセスメモリ(RAM)に
よって構成されている。読み出し情報格納部63はRA
Mによって構成され、論理アドレス格納部61で論理ア
ドレスに対応するエントリがキャッシュメモリ3に記憶
されていることが検出されると、直ちにそのエントリの
読み出し情報DA0,DA1,DA2,DA3が出力さ
れるように構成されている。このような読み出し情報格
納部63の構成は、連想メモリ(CAM)の一致を検出
するセンス線と物理アドレス格納部62のRAMのワー
ド線とを共通にする方法などによって実現される。
The TLB 6 has a logical address storage unit 61,
The physical address storage unit 62 stores physical addresses corresponding to the respective logical addresses, and the read information storage unit 63 stores read information of the entries stored in the cache memory 3. Logical address storage unit 6
1 is composed of an associative memory (CAM), and the physical address storage unit 62 is composed of a random access memory (RAM). The read information storage unit 63 is RA
When the logical address storage unit 61 detects that the entry corresponding to the logical address is stored in the cache memory 3, the read information DA0, DA1, DA2, DA3 of the entry is immediately output. Is configured. Such a configuration of the read information storage unit 63 is realized by a method in which the sense line for detecting the match in the associative memory (CAM) and the word line of the RAM of the physical address storage unit 62 are made common.

【0041】ダイレクトマップ方式のキャッシュメモリ
3は、第1のエントリ選択手段としてのデコーダ36
と、第2のエントリ選択手段としてのエントリ選択回路
37と、タグ部32と、データ部33と、比較器34
と、トライステートバッファ35とによって構成されて
いる。タグ部32には物理アドレスの一部が格納され、
データ部33には読み出すべきデータが格納されてい
る。デコーダ36は入力された論理アドレスのオフセッ
ト部に基づいて4つのエントリを選択する信号を出力
し、エントリ選択回路37はこの4つのエントリを選択
する信号のうち、読み出し情報格納部63からの読み出
し情報DA0,DA1,DA2,DA3に基づいて1つ
のエントリを選択する。
The direct map type cache memory 3 has a decoder 36 as a first entry selecting means.
An entry selection circuit 37 as a second entry selection means, a tag section 32, a data section 33, and a comparator 34.
And a tri-state buffer 35. A part of the physical address is stored in the tag part 32,
The data section 33 stores the data to be read. The decoder 36 outputs a signal for selecting four entries on the basis of the offset portion of the input logical address, and the entry selection circuit 37 reads the read information from the read information storage unit 63 among the signals for selecting the four entries. One entry is selected based on DA0, DA1, DA2, DA3.

【0042】本実施例においては、論理アドレス空間お
よび物理アドレス空間はともに4Gバイトであり、アド
レス空間(メモリ空間)は4Kバイトのページによって
管理されているものとする。従って、中央処理装置1で
生成される論理アドレスは32ビットであり、論理アド
レスの上位20ビットはTLB2において物理アドレス
の上位20ビットにアドレス変換され、論理アドレスの
下位12ビットはそのまま物理アドレスの下位12ビッ
ト(オフセット部)として用いられる。また、キャッシ
ュメモリ3の容量は16Kバイトとする。
In this embodiment, both the logical address space and the physical address space are 4 Gbytes, and the address space (memory space) is assumed to be managed by 4 Kbyte pages. Therefore, the logical address generated by the central processing unit 1 is 32 bits, the upper 20 bits of the logical address are translated into the upper 20 bits of the physical address in the TLB 2, and the lower 12 bits of the logical address are the lower bits of the physical address as they are. It is used as 12 bits (offset part). The capacity of the cache memory 3 is 16 Kbytes.

【0043】以上の構成を有する情報処理装置における
キャッシュメモリ3の読み出し動作について、図3を参
照しながら説明する。まず、中央処理装置1で生成され
た論理アドレスLA(31:0)の上位20ビットLA
(31:12)によってTLB6がアクセスされる。T
LB6では論理アドレス格納部61に一致する論理アド
レスがあるかどうかが検索される。一致する論理アドレ
スが論理アドレス格納部61にあれば、物理アドレス格
納部62から対応する物理アドレスの上位20ビットP
A(31:12)が読み出される。もし一致する論理ア
ドレスがない場合には、主記憶装置にあるテーブルを参
照してアドレス変換を行いTLB6に登録する。TLB
6での論理アドレスの変換に並行して、キャッシュメモ
リ3の読み出しも行われる。
A read operation of the cache memory 3 in the information processing apparatus having the above configuration will be described with reference to FIG. First, the upper 20 bits LA of the logical address LA (31: 0) generated by the central processing unit 1
The TLB 6 is accessed by (31:12). T
The LB 6 searches the logical address storage 61 for a matching logical address. If there is a matching logical address in the logical address storage unit 61, the upper 20 bits P of the corresponding physical address from the physical address storage unit 62
A (31:12) is read. If there is no matching logical address, the address conversion is performed by referring to the table in the main memory, and the address is registered in the TLB 6. TLB
The cache memory 3 is also read in parallel with the conversion of the logical address in 6.

【0044】キャッシュメモリ3のエントリのタグアド
レスおよびデータの読み出しは、まず論理アドレスのオ
フセット部である下位12ビットLA(11:0)によ
って行われる。LA(11:0)をデコーダ31に入力
することにより、4つのエントリを選択得る信号が選択
される。また、アドレス変換装置6内の論理アドレス格
納部61に一致する論理アドレスがあれば、読み出し情
報格納部63から選択すべきエントリの読み出し情報D
A0、DA1、DA2、DA3が出力され、その読み出
し情報に基づいてエントリ選択回路37で読み出すべき
エントリが選択される。次に、タグ部32からタグアド
レス(物理アドレスの上位18ビット)が、データ部3
ー3からデータが読み出される。
The reading of the tag address and the data of the entry of the cache memory 3 is first performed by the lower 12 bits LA (11: 0) which is the offset part of the logical address. By inputting LA (11: 0) to the decoder 31, a signal for selecting four entries is selected. If there is a matching logical address in the logical address storage unit 61 in the address translation device 6, the read information D of the entry to be selected from the read information storage unit 63.
A0, DA1, DA2, DA3 are output, and the entry to be read is selected by the entry selection circuit 37 based on the read information. Next, the tag address (upper 18 bits of the physical address) from the tag unit 32 is transferred to the data unit 3
The data is read from -3.

【0045】次に、TLB6でのアドレス変換が終了し
た後、読み出されたタグアドレスTAとTLB6でのア
ドレス変換で得られた物理アドレスの上位18ビットP
A(31:14)とが比較器34で比較される。比較器
34でタグアドレスTAとPA(31:14)とが一致
していることが検出された場合にはキャッシュヒットと
なり、予めデータ部33から読み出されていたデータが
トライステートバッファ35を介して出力される。比較
器34でタグアドレスTAとPA(31:14)とが一
致していないことが検出された場合にはキャッシュミス
となり、外部メモリがアクセスされる。
Next, after the address translation in TLB6 is completed, the read tag address TA and the upper 18 bits P of the physical address obtained by the address translation in TLB6
A (31:14) is compared by the comparator 34. When the comparator 34 detects that the tag address TA and PA (31:14) match each other, a cache hit occurs, and the data previously read from the data unit 33 passes through the tri-state buffer 35. Is output. When the comparator 34 detects that the tag address TA and PA (31:14) do not match, a cache miss occurs and the external memory is accessed.

【0046】以上のように本実施例の情報処理装置によ
れば、アドレス変換装置6で一致する論理アドレスが検
出されると、直ちにキャッシュメモリ3の読み出すべき
エントリを選択するための読み出し情報が読み出し情報
格納部63から出力されるので、アドレス変換装置6に
おける論理アドレスの物理アドレスへの変換の終了を待
たずにキャッシュメモリ3のエントリの読み出しを開始
することができる。これにより、キャッシュメモリ3の
読み出し時間が短縮される。
As described above, according to the information processing apparatus of this embodiment, when the address translator 6 detects a matching logical address, the read information for selecting the entry to be read from the cache memory 3 is immediately read out. Since the information is output from the information storage unit 63, the reading of the entry in the cache memory 3 can be started without waiting for the end of the conversion of the logical address into the physical address in the address translation device 6. As a result, the read time of the cache memory 3 is shortened.

【0047】[0047]

【発明の効果】以上説明したように、請求項1の発明に
係る情報処理装置では、プログラムの連続性を利用し
て、レジスタに記憶されている旧キャッシュ読み出し部
と論理アドレスのオフセット部とを用い、次のアドレス
変換を行っている間にキャッシュメモリのエントリが読
み出され、アドレス変換後に新旧キャッシュ読み出し部
の比較が行われる。新旧のキャッシュ読み出し部が一致
していれば既に読み出したエントリのデータを読み出し
データとしてそのまま処理が続けられるので、物理アド
レスのキャッシュ読み出し部をキャッシュメモリのエン
トリの読み出しに使用する場合にも、読み出し時間を短
縮することができる。
As described above, in the information processing apparatus according to the first aspect of the invention, the continuity of the program is used to store the old cache read section and the logical address offset section stored in the register. The entry of the cache memory is read during the next address conversion, and the new and old cache read units are compared after the address conversion. If the old and new cache read units match, the data of the already read entry can be used as read data, and the processing can continue. Therefore, even when the cache read unit of the physical address is used to read the cache memory entry, the read time Can be shortened.

【0048】また、請求項2の発明に係る情報処理装置
では、旧新のキャッシュ読み出し部が一致していること
が検出され、キャッシュメモリから読み出されたエント
リのタグアドレスとアドレス変換装置で得られた物理ア
ドレス上位部とが一致していることが検出された場合
に、既に読み出されているエントリのデータが読み出し
データとしてデータ出力手段から出力されるので、物理
アドレスのキャッシュ読み出し部をキャッシュメモリの
エントリの読み出しに使用する場合にも、読み出し時間
を短縮することができる。
Further, in the information processing apparatus according to the second aspect of the present invention, it is detected that the old and new cache read units match, and the tag address of the entry read from the cache memory and the address translation unit obtain the tag address. When it is detected that the upper part of the physical address that has been read matches, the data of the entry that has already been read is output as read data from the data output means. The read time can also be shortened when used to read the memory entry.

【0049】また、請求項3の発明に係る情報処理装置
では、旧新のキャッシュ読み出し部が一致していないこ
とが検出された場合に、保持要求手段によって中央処理
装置の状態を保持する要求が中央処理装置に出力される
ので、次のサイクルでキャッシュメモリを読み出すこと
により、1サイクルを無駄にするだけで処理を続行する
ことができる。従って、情報処理装置の処理速度の低下
はほとんど生じない。
Further, in the information processing apparatus according to the third aspect of the present invention, when it is detected that the old and new cache read units do not match, a request for holding the state of the central processing unit is issued by the holding request means. Since the data is output to the central processing unit, the cache memory is read in the next cycle, so that the processing can be continued by wasting only one cycle. Therefore, the processing speed of the information processing device hardly decreases.

【0050】請求項4の発明に係る情報処理装置におい
ては、アドレス変換装置に複数のアドレス変換部が設け
られ、論理アドレスの上位部が入力されたときにこれに
対応するアドレス変換部からヒット信号が出力されるの
で、このヒット信号と論理アドレスのオフセット部とに
よってキャッシュメモリのエントリを読み出すことによ
り、アドレス変換装置でのアドレス変換の終了を待つこ
となくキャッシュメモリのエントリの読み出しを開始す
ることができる。そのため、キャッシュメモリの読み出
し時間を短縮することができる。また、アドレス変換装
置を複数のアドレス変換部によって構成しているため、
複数のアドレス変換部で構成していない場合に比べてア
ドレス変換装置でのキャッシュヒットの検出を高速に行
うことができる。
In the information processing apparatus according to the fourth aspect of the present invention, the address translation apparatus is provided with a plurality of address translation sections, and when the upper portion of the logical address is input, a hit signal from the corresponding address translation section is input. Is output, the cache memory entry is read by this hit signal and the logical address offset portion, so that the reading of the cache memory entry can be started without waiting for the end of the address translation in the address translation device. it can. Therefore, the read time of the cache memory can be shortened. Further, since the address translation device is composed of a plurality of address translation units,
It is possible to detect a cache hit in the address translation device at a higher speed than in the case where it is not composed of a plurality of address translation units.

【0051】請求項5の発明に係る情報処理装置におい
ては、第1のエントリ選択手段によってキャッシュメモ
リの複数のエントリが選択され、アドレス変換部の何れ
かからのヒット信号に基づき、第2のエントリ選択手段
によって第1のエントリ選択手段によって選択された複
数のエントリのうちの1つが選択されるので、キャッシ
ュメモリの読み出し時間を短縮することができる。
In the information processing apparatus according to the fifth aspect of the present invention, the plurality of entries in the cache memory are selected by the first entry selecting means, and the second entry is selected based on the hit signal from any of the address conversion units. Since the selecting unit selects one of the plurality of entries selected by the first entry selecting unit, it is possible to shorten the read time of the cache memory.

【0052】請求項6の発明に係る情報処理装置におい
ては、キャッシュメモリのエントリの読み出し情報が格
納されている読み出し情報格納部がアドレス変換装置に
設けられ、アドレス変換装置に入力された論理アドレス
に対応するエントリがキャッシュメモリに記憶されてい
る場合に読み出し情報格納部からエントリの読み出し情
報が出力されるので、アドレス変換装置でのアドレス変
換の終了を待つことなくキャッシュメモリのエントリの
読み出しを開始することができ、キャッシュメモリの読
み出し時間を短縮することができる。
In the information processing apparatus according to the sixth aspect of the present invention, the read information storage unit for storing the read information of the entry of the cache memory is provided in the address translation device, and the logical address input to the address translation device is provided. When the corresponding entry is stored in the cache memory, the read information of the entry is output from the read information storage unit, so that the reading of the entry in the cache memory is started without waiting for the end of the address translation in the address translation device. Therefore, the read time of the cache memory can be shortened.

【0053】また、請求項7の発明に係る情報処理装置
においては、第1のエントリ選択手段によってキャッシ
ュメモリの複数のエントリが選択され、読み出し情報格
納部からの読み出し情報に基づき、第2のエントリ選択
手段によって第1のエントリ選択手段によって選択され
た複数のエントリのうちの1つが選択されるので、キャ
ッシュメモリの読み出し時間を短縮することができる。
Further, in the information processing apparatus according to the invention of claim 7, the plurality of entries of the cache memory are selected by the first entry selecting means, and the second entry is selected based on the read information from the read information storage section. Since the selecting unit selects one of the plurality of entries selected by the first entry selecting unit, it is possible to shorten the read time of the cache memory.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る情報処理装置の概
略構成図である。
FIG. 1 is a schematic configuration diagram of an information processing apparatus according to a first embodiment of the present invention.

【図2】本発明の第2の実施例に係る情報処理装置の概
略構成図である。
FIG. 2 is a schematic configuration diagram of an information processing apparatus according to a second embodiment of the present invention.

【図3】本発明の第3の実施例に係る情報処理装置の概
略構成図である。
FIG. 3 is a schematic configuration diagram of an information processing apparatus according to a third embodiment of the present invention.

【図4】従来の情報処理装置の概略構成図である。FIG. 4 is a schematic configuration diagram of a conventional information processing device.

【符号の説明】[Explanation of symbols]

1 中央処理装置 2,4,6 TLB(アドレス変換バッファ) 4a, 4b, 4c, 4d アドレス変換部 3 キャッシュメモリ 5,34 比較器 7 インバータ(保持要求手段) 14 レジスタ 16 ANDゲート 21,41,61 論理アドレス格納部 22,42,62 物理アドレス格納部 31,36 デコーダ(第1のエントリ選択手
段) 32 タグ部 33 データ部 35 トライステートバッファ 37 エントリ選択回路(第2のエント
リ選択手段) 63 読み出し情報格納部
1 central processing unit 2, 4, 6 TLB (address conversion buffer) 4a, 4b, 4c, 4d address conversion unit 3 cache memory 5, 34 comparator 7 inverter (holding request means) 14 register 16 AND gates 21, 41, 61 Logical address storage units 22, 42, 62 Physical address storage units 31, 36 Decoder (first entry selection unit) 32 Tag unit 33 Data unit 35 Tristate buffer 37 Entry selection circuit (Second entry selection unit) 63 Read information Storage

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 論理アドレスを生成する中央処理装置
と、タグアドレス及びデータよりなるエントリを記憶す
るダイレクトマップ方式又はセットアソシェイティブ方
式のキャッシュメモリと、前記論理アドレスの上位部を
物理アドレス上位部に変換するアドレス変換装置と、該
アドレス変換装置において前回のアドレス変換で得られ
た物理アドレス上位部にあり前記キャッシュメモリの読
み出しに用いられた旧キャッシュ読み出し部を記憶する
レジスタと、該レジスタに記憶されている旧キャッシュ
読み出し部と前記アドレス変換装置で得られた物理アド
レス上位部の新キャッシュ読み出し部とを比較する比較
手段とを備え、前記レジスタに記憶されている旧キャッ
シュ読み出し部とアドレス変換されない前記論理アドレ
スの下位部からなるオフセット部とにより前記キャッシ
ュメモリからエントリを読み出し、前記比較手段におい
て旧キャッシュ読み出し部と新キャッシュ読み出し部と
が一致していることが検出された場合に前記キャッシュ
メモリによって読み出されたデータを読み出しデータと
し、一致していないことが検出された場合には前記アド
レス変換装置で得られた前記物理アドレス上位部の新キ
ャッシュ読み出し部が前記レジスタに記憶された後に、
該レジスタの記憶内容と前記論理アドレスのオフセット
部とにより前記キャッシュメモリから読み出されたエン
トリのデータを読み出しデータとするよう構成されてい
ることを特徴とする情報処理装置。
1. A central processing unit for generating a logical address, a cache memory of a direct map system or a set associative system for storing an entry consisting of a tag address and data, and a higher part of the logical address is a physical address upper part. An address translation device that translates to a register, a register that stores the old cache read unit that is in the upper part of the physical address obtained by the previous address translation in the address translation device, and that is used to read the cache memory, and the register that stores it. The old cache read unit stored in the register is not translated from the old cache read unit stored in the register. The lower part of the logical address The data read by the cache memory is read when the entry is read from the cache memory by the fusing unit and the comparison unit detects that the old cache reading unit and the new cache reading unit match. When it is detected that they do not match, after the new cache read unit of the physical address upper part obtained by the address translation device is stored in the register,
An information processing apparatus configured to use, as read data, data of an entry read from the cache memory by the storage content of the register and the offset unit of the logical address.
【請求項2】 前記比較手段において旧キャッシュ読み
出し部と新キャッシュ読み出し部とが一致していること
が検出され、かつ前記キャッシュメモリから読み出され
たエントリのタグアドレスと前記アドレス変換装置で得
られた物理アドレス上位部とが一致する場合に、前記レ
ジスタに記憶されている旧キャッシュ読み出し部と前記
論理アドレスのオフセット部とにより前記キャッシュメ
モリから読み出されたエントリの読み出しデータを出力
するデータ出力手段を更に備えたことを特徴とする請求
項1記載の情報処理装置。
2. The comparison unit detects that the old cache read unit and the new cache read unit match each other, and obtains the tag address of the entry read from the cache memory and the address translation device. Data output means for outputting the read data of the entry read from the cache memory by the old cache read section stored in the register and the offset section of the logical address when the physical address upper section matches The information processing apparatus according to claim 1, further comprising:
【請求項3】 前記比較手段において旧キャッシュ読み
出し部と新キャッシュ読み出し部とが一致していないこ
とが検出された場合に、次の1サイクルの間前記中央処
理装置の状態を保持することを前記中央処理装置に要求
する保持要求手段を更に備えたことを特徴とする請求項
1記載の情報処理装置。
3. When the comparison unit detects that the old cache read unit and the new cache read unit do not match, the state of the central processing unit is held for the next one cycle. 2. The information processing apparatus according to claim 1, further comprising holding requesting means for requesting the central processing unit.
【請求項4】 論理アドレスを生成する中央処理装置
と、タグアドレス及びデータよりなるエントリが記憶さ
れるダイレクトマップ方式又はセットアソシェイティブ
方式のキャッシュメモリと、前記論理アドレスの上位部
を物理アドレス上位部に変換するアドレス変換装置と、
該アドレス変換装置を構成し前記論理アドレスの上位部
の前記キャッシュメモリの読み出しに用いられるキャッ
シュ読み出し部の値に対応してそれぞれ設けられ対応す
るキャッシュ読み出し部を含む前記論理アドレスの上位
部が入力された場合にヒット信号を出力する複数のアド
レス変換部とを備え、該複数のアドレス変換部の何れか
からの前記ヒット信号とアドレス変換されない前記論理
アドレスの下位部からなるオフセット部とにより前記キ
ャッシュメモリに記憶されているエントリが読み出され
るよう構成されていることを特徴とする情報処理装置。
4. A central processing unit for generating a logical address, a cache memory of a direct map system or a set associative system in which an entry consisting of a tag address and data is stored, and a higher part of the logical address is a physical address higher order. An address translation device for translating into parts,
The high-order part of the logical address, which is provided in correspondence with the value of the high-order part of the logical address and which is used in the reading of the cache memory of the address translation device and includes the corresponding cache read part, is input. A plurality of address conversion units that output a hit signal in the case of a cache memory, and the cache memory by the hit signal from any one of the plurality of address conversion units and an offset unit composed of a lower part of the logical address that is not address-converted. An information processing apparatus, characterized in that the entry stored in is read.
【請求項5】 前記論理アドレスのオフセット部によっ
て前記キャッシュメモリの複数のエントリを選択する第
1のエントリ選択手段と、前記アドレス変換部の何れか
からのヒット信号に基づいて前記第1のエントリ選択手
段によって選択された複数のエントリのうちの1つを選
択する第2のエントリ選択手段とを更に備えたことを特
徴とする請求項4記載の情報処理装置。
5. The first entry selection means for selecting a plurality of entries of the cache memory by the offset part of the logical address, and the first entry selection based on a hit signal from any of the address conversion parts. The information processing apparatus according to claim 4, further comprising a second entry selecting unit that selects one of the plurality of entries selected by the unit.
【請求項6】 論理アドレスを生成する中央処理装置
と、タグアドレス及びデータよりなるエントリが記憶さ
れるダイレクトマップ方式又はセットアソシェイティブ
方式のキャッシュメモリと、前記論理アドレスの上位部
を物理アドレス上位部に変換するアドレス変換装置と、
該アドレス変換装置に設けられ前記キャッシュメモリに
記憶されているエントリの読み出し情報を格納し前記ア
ドレス変換装置で得られた物理アドレス上位部に対応す
るエントリが前記キャッシュメモリに記憶されている場
合に前記読み出し情報を出力する読み出し情報格納部と
を備え、前記読み出し情報格納部からの読み出し情報と
アドレス変換されない前記論理アドレスの下位部からな
るオフセット部とにより前記キャッシュメモリに記憶さ
れているエントリが読み出されるよう構成されているこ
とを特徴とする情報処理装置。
6. A central processing unit for generating a logical address, a cache memory of a direct map system or a set associative system in which an entry consisting of a tag address and data is stored, and an upper part of the logical address is set as a physical address upper part. An address translation device for translating into parts,
The read information of the entry provided in the address translation device and stored in the cache memory is stored, and when the entry corresponding to the higher physical address obtained by the address translation device is stored in the cache memory, A read information storage unit for outputting read information is provided, and an entry stored in the cache memory is read by the read information from the read information storage unit and an offset unit composed of a lower part of the logical address that is not subjected to address translation. An information processing apparatus having the above-mentioned configuration.
【請求項7】 前記論理アドレスのオフセット部により
前記キャッシュメモリの複数のエントリを選択する第1
のエントリ選択手段と、前記読み出し情報格納部からの
前記読み出し情報に基づいて前記第1のエントリ選択手
段によって選択された複数のエントリのうちの1つを選
択する第2のエントリ選択手段とを更に備えたことを特
徴とする請求項6記載の情報処理装置。
7. A first selection of a plurality of entries in the cache memory according to an offset part of the logical address.
Entry selection means and second entry selection means for selecting one of the plurality of entries selected by the first entry selection means based on the read information from the read information storage section. The information processing apparatus according to claim 6, further comprising:
JP3187441A 1991-07-26 1991-07-26 Information processor Withdrawn JPH0535599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3187441A JPH0535599A (en) 1991-07-26 1991-07-26 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3187441A JPH0535599A (en) 1991-07-26 1991-07-26 Information processor

Publications (1)

Publication Number Publication Date
JPH0535599A true JPH0535599A (en) 1993-02-12

Family

ID=16206121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3187441A Withdrawn JPH0535599A (en) 1991-07-26 1991-07-26 Information processor

Country Status (1)

Country Link
JP (1) JPH0535599A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011049051A1 (en) * 2009-10-20 2011-04-28 国立大学法人電気通信大学 Cache memory and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011049051A1 (en) * 2009-10-20 2011-04-28 国立大学法人電気通信大学 Cache memory and control method thereof
JP5622155B2 (en) * 2009-10-20 2014-11-12 国立大学法人電気通信大学 Cache memory and control method thereof
US8904111B2 (en) 2009-10-20 2014-12-02 The University Of Electro-Communications Cache memory with CAM and SRAM sub-tags and generation control

Similar Documents

Publication Publication Date Title
KR920005280B1 (en) High speed cache system
JP3936378B2 (en) Address translation device
US5230045A (en) Multiple address space system including address translator for receiving virtual addresses from bus and providing real addresses on the bus
KR960001946B1 (en) Translation lookaside buffer
JP3666689B2 (en) Virtual address translation method
JPH03194632A (en) Cache access on the basis of translation look ahead
JP2005538465A (en) Conversion index buffer with partial tags hashed based on page size index
US6385696B1 (en) Embedded cache with way size bigger than page size
JPH0371355A (en) Apparatus and method for retrieving cache
EP0173909B1 (en) Look-aside buffer least recently used marker controller
US6560689B1 (en) TLB using region ID prevalidation
JP2846697B2 (en) Cache memory controller
JP3190700B2 (en) Address translator
EP0486154B1 (en) Method of operating a virtual memory system
JP3242161B2 (en) Data processor
JPH0535599A (en) Information processor
US5649155A (en) Cache memory accessed by continuation requests
JP2002312239A (en) Processor, system-on-chip device and method of access
JPS623354A (en) Cache memory access system
JPH06187286A (en) Bus conversion adapter
JP2641319B2 (en) Address translation buffer clear method
JPH01226056A (en) Address converter
JP2507785B2 (en) Pageable entry invalidation device
JPH01193961A (en) Address converting device
JPH0567001A (en) Cache memory circuit

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19981008