JPS59140685A - Data processor having hierarchical cache memory - Google Patents

Data processor having hierarchical cache memory

Info

Publication number
JPS59140685A
JPS59140685A JP58013807A JP1380783A JPS59140685A JP S59140685 A JPS59140685 A JP S59140685A JP 58013807 A JP58013807 A JP 58013807A JP 1380783 A JP1380783 A JP 1380783A JP S59140685 A JPS59140685 A JP S59140685A
Authority
JP
Japan
Prior art keywords
address
cache memory
data
central processing
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58013807A
Other languages
Japanese (ja)
Inventor
Iwao Negishi
根岸 巌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Nippon Electric Co Ltd filed Critical NEC Corp
Priority to JP58013807A priority Critical patent/JPS59140685A/en
Publication of JPS59140685A publication Critical patent/JPS59140685A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Abstract

PURPOSE:To enable a central processing unit to read out data at a high speed without deteriorating the hit ratio by constituting hierarchical cache memory of a central processing unit, an address converter and the 1st and 2nd cache memories. CONSTITUTION:When a central processing unit 2 delivers a reading request, the address to be converted among virtual addresses used for reading is sent to an address converter 3. In parallel to this action, an offset address among the virtual addresses used for reading is sent to the 1st cache memory 6. A converted addresses of two physical addresses put on address lines 120 and 103 and 104 are sent to a address comparator 64 for comparison with each other. When the coincidence is obtained between these two addresses, a gate 63 is opened by the control signal put on a control line 110. Then the date of the 1st cache memory 6 is put on a data line 20 and then sent to the unit 2. If no coincidence is obtained from the comparison, the gate 63 is closed to give an indication to check whether the read-out data of the 2nd cathe memory 7 is effective or not.

Description

【発明の詳細な説明】 発明の属する技術分野 本発明は、主記憶より中央処理装置がデータを高速に読
み出すことができるデータ処理装置に関し、特に、キャ
ッシュメモリを用いてデータを高速に読み出すことがで
きるデータ処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a data processing device that allows a central processing unit to read data from a main memory at high speed, and in particular, to a data processing device that allows a central processing unit to read data at high speed using a cache memory. The present invention relates to a data processing device capable of processing data.

従来技術・ 従来、この種のデータ処理装置においては、中央処理装
置が主記憶より高速にデータを読み出すためにキャッジ
−メモリを接続するものが使用されている。しかしなが
ら、第1図に示すように。
Prior Art Conventionally, in this type of data processing device, a cage-memory connection has been used in order for the central processing unit to read data at a higher speed than the main memory. However, as shown in FIG.

従来のデータ処理装置1においては、キャッジ−メモリ
4は、アドレス変換装置3と主記憶5の間に設けられて
いて、中央処理装置2がデータを読み出す過程において
、必らず、アドレス変換装置3において仮想アドレスか
ら物理アドレスに変換し、この物理アドレスを用いてキ
ャッシュメモリ4をアクセスしなければならなかった。
In the conventional data processing device 1, the cache memory 4 is provided between the address conversion device 3 and the main memory 5, and in the process of reading data by the central processing unit 2, the cache memory 4 is necessarily connected to the address conversion device 3. It was necessary to convert the virtual address into a physical address in the step 1 and access the cache memory 4 using this physical address.

このような方法を取ると、中央処理装置2が読出しデー
タを得る時間には、必ずアドレス変換装置3を連撮する
時間が付加される欠点があった。
If such a method is adopted, there is a drawback that the time for continuous photographing of the address translation device 3 is always added to the time when the central processing unit 2 obtains the read data.

また、キャッシュメモリを直接仮想アドレスによりアク
セスする方法では、アドレス変換装置を通さず高速にア
クセス可能であるが1次に示すような欠点がある。主記
憶に周辺機器匍J御部から直接データを書き込む、所謂
、直接メモリアクセス(DMA)転送の場合、キャッジ
−メモリは主記憶のデータ(7) コピーを保持してい
るので、主記憶がDMA転送で変更される時、キャッシ
ュメモリは。
Furthermore, in the method of directly accessing the cache memory using a virtual address, it is possible to access the cache memory at high speed without passing through an address translation device, but it has the following drawbacks. In the case of so-called direct memory access (DMA) transfer, in which data is written directly from the peripheral device to the main memory, the cache memory holds a copy of the main memory data (7), so the main memory is DMA When the cache memory is modified in a transfer.

変更されたデータのコピーが自分にあるかどうかを判断
し、コピーを持っているならそのコピーを更新する処理
をしなくてはならない。しかし、この場合、 DMA転
送で用いられるアドレスは物理アドレスで実行されるた
め、仮想アドレスでアクセスされるキャッジ−メモリは
、 DMA転送で主記憶の変更された領域が自分の持っ
ているメモリ域に該当する部分があるかどうかを判断す
るには、物理アドレスから仮想アドレスへの逆変換が必
要となる欠点を生じる。この逆変換は非常に困難である
ため実用的でない。
You must determine whether you have a copy of the changed data and, if so, take steps to update that copy. However, in this case, since the addresses used in DMA transfers are executed using physical addresses, the cache memory accessed using virtual addresses will cause the area of main memory changed by the DMA transfer to become its own memory area. Determining whether there is a corresponding part has the drawback of requiring a reverse translation from a physical address to a virtual address. This inverse transformation is extremely difficult and therefore impractical.

発明の目的 本発明の目的は、上記従来の欠点を解決し、中央処理装
置が高速にデータを読み出す事を可能にしたデータ処理
装置を提供することにある。
OBJECTS OF THE INVENTION It is an object of the present invention to provide a data processing device that solves the above-mentioned conventional drawbacks and enables a central processing unit to read data at high speed.

発明の構成 本発明のデータ処理装置は、演算を実行する中央処理装
置と仮想アドレスを物理アドレスに変換するアドレス変
換装置と、仮想アドレス中のオフセットアドレスを用い
てアクセスされる第1のキャッシュメモリと、アドレス
変換装置で変換された物理アドレスを用いてアクセスさ
れる第2のキャッシュメモリから構成される。
Structure of the Invention The data processing device of the present invention includes a central processing unit that executes an operation, an address translation device that converts a virtual address into a physical address, and a first cache memory that is accessed using an offset address in the virtual address. , a second cache memory that is accessed using a physical address translated by an address translation device.

このような構成の本発明のデータ処理装置では。In the data processing apparatus of the present invention having such a configuration.

中央処理装置は、主記憶のアクセスにおいて読出し要求
があると、アドレス変換装置と第1のキャッジ−メモリ
を同時並行動作させ、第1のキャッンユメモリがヒツト
しているかどうかを調べ、ノーヒツトの場合、アドレス
変換装置で変換を受けた物理アドレスを用いて第2のキ
ャッシュメモリをアクセスする。
When the central processing unit receives a read request in accessing the main memory, the central processing unit causes the address translation device and the first cache memory to operate in parallel, checks whether the first cache memory has been hit, and in the case of no hit, determines whether the first cache memory has been hit or not. , the second cache memory is accessed using the physical address translated by the address translation device.

発明の原理と作用 次に本発明の原理と作用について説明する。中央処理装
置がデータを読み出す時用いる仮想アドレスは、第2図
に示すように、必らず、アドレス変換装置3でアドレス
変換を受けないオフセットアドレス部と、アドレス変換
を受け−る被変換アドレス部を持つ。
Principle and operation of the invention Next, the principle and operation of the present invention will be explained. As shown in FIG. 2, the virtual address used by the central processing unit when reading data necessarily consists of an offset address part that does not undergo address translation in the address translation device 3, and a translated address part that undergoes address translation. have.

このオフセットアドレスを利用して、オフセットアドレ
スによりアクセスされる第1のキャッシュメモリを設け
る。第1のキャッジ−メモリは。
Using this offset address, a first cache memory accessed by the offset address is provided. The first cache-memory is.

オフセットアドレスを用いてアクセスされるため。Because it is accessed using an offset address.

アドレス変換装置3と全く同時に動作することができる
。そして、第1のキャッジ−メモリのディレクトリ部か
らは第2図の物理アドレスのうちの変換アドレスが、デ
ータ部からはデータが読み出される。また、アドレス変
換装置3には、仮想アドレス中の被変換アドレスが与え
られ、これを変換アドレスに変換することによって物理
アドレスが生成される。
It can operate completely simultaneously with the address translation device 3. Then, a translated address of the physical addresses shown in FIG. 2 is read from the directory section of the first cache memory, and data is read from the data section. Further, the address translation device 3 is given a translated address among the virtual addresses, and generates a physical address by converting this into a translated address.

第1のキャッシュメモリのディレクトリ部とアドレス変
換装置3で変換された物理アドレス中の変換アドレスが
一致(ヒツト)すれば、第1のキャッシュメモリのデー
タ部から読み出されたデータを、中央処理装置からの要
求データとして高速に中央処理装置に送ることができる
。一方、上記物理アドレス中の変換アドレスが一致しな
い(ノーヒツト)時は、アドレス変換装置3で変換され
た物理アドレス(変換アドレスとオフセットアドレスか
らなる)を用いて第2のキャッシュメモリがアクセスさ
れる。
If the directory section of the first cache memory and the translated address in the physical address translated by the address translation device 3 match (hit), the data read from the data section of the first cache memory is transferred to the central processing unit. can be sent to the central processing unit at high speed as requested data. On the other hand, when the translated addresses in the physical addresses do not match (no hit), the second cache memory is accessed using the physical address (consisting of translated address and offset address) translated by address translation device 3.

このように、第1のキャッシュメモリからの読出しにお
いては、アドレス変換装置3の変換時間が加算されない
高速なアクセスが可能になっている。また、第2のキャ
ッシュメモリは1次の理由により必要とされる。第2図
に示されるように。
In this way, when reading from the first cache memory, high-speed access is possible without adding the conversion time of the address translation device 3. Also, the second cache memory is required for the first order of reasons. As shown in FIG.

オフセットアドレスは、比較的アドレス幅が小さいため
、第1のキャッシュメモリが高速で小容量のメモリ素子
を用いて構成でき、高速化ができる反面、メモリ容量が
小さいのでノーヒツトになる確率が高くなる欠点が生じ
る。これを補う手段として、従来と同様の変換を受けた
物理アドレスを用いてアクセスされる大容量の第2のキ
ャッシュメモリを設け、第1のキャッジ−メモリだけで
はノーヒツトになる確率が高くなるのを解消している。
Offset addresses have a relatively small address width, so the first cache memory can be configured using high-speed, small-capacity memory elements, increasing speed, but the drawback is that the memory capacity is small, so there is a high probability of a no-hitter. occurs. As a means of compensating for this, a large-capacity second cache memory that is accessed using physical addresses that have been converted in the same way as in the past is provided to avoid the high probability of a no-hitter using only the first cache memory. It has been resolved.

この発明の実施例 次に本発明の実施例について図面を参照して詳細に説明
する。
Embodiments of the Invention Next, embodiments of the invention will be described in detail with reference to the drawings.

第3図は2本発明に、よるデータ処理装置の一実施例の
構成を示すブロック図である。図において。
FIG. 3 is a block diagram showing the configuration of an embodiment of a data processing device according to the present invention. In fig.

1′は本発明のデータ処理装置を示し、中央処理装置2
.アドレス変換装置3.第1のキャッジ−メモリ6、第
2のキャッシュメモリ7から構成される。又、5は主記
憶、8は周4辺機器制御部、9は共通バスを示す。
1' indicates a data processing device of the present invention, and a central processing device 2
.. Address translation device 3. It is composed of a first cache memory 6 and a second cache memory 7. Further, 5 is a main memory, 8 is a peripheral device control unit, and 9 is a common bus.

第4図は、第3図のデータ処理装置1′を詳細に中央処
理装置2が読出し要求を行う場合、読出しに用いる仮想
アドレスのうちの被変換アドレスは、アドレス線101
を経由してアドレス変換装置3に送られる。この動作と
並行して、読出しに用いる仮想アドレスの中のオフセン
トアドレスは。
FIG. 4 shows details of the data processing device 1' in FIG. 3. When the central processing unit 2 makes a read request, the translated address among the virtual addresses used for the read is transferred to the address line 101.
It is sent to the address translation device 3 via. In parallel with this operation, the offset address among the virtual addresses used for reading is

アドレス線102を経由して第1のキャッシュメモリ6
に送られる。この第1のキャッシュメモリ6のディレク
トリ部61からは、物理アドレス中ノ変換アドレスが読
み出されてアドレス線120ニ乗せられ、データ部62
からは、データが読み出されてデータ線201に乗せら
れる。一方、アトし・ス変換装置3で生成された物理ア
ドレス中の変換アドレスは、その下位側はアドレス線1
03に。
the first cache memory 6 via the address line 102;
sent to. From the directory section 61 of the first cache memory 6, the translated address in the physical address is read out and placed on the address line 120, and the data section 62
From there, data is read out and placed on the data line 201. On the other hand, the lower-order side of the translated address in the physical address generated by the address conversion device 3 is the address line 1.
On 03.

上位側はアドレス線104に乗せられる。The upper side is placed on the address line 104.

上記のアドレス線120とアドレス線103゜104に
乗せられた2つの物理アドレス中の変換アドレスは、ア
ドレス比較器64に送られて比較され、一致すると制御
線110に乗せられた制御信号によってダート63を開
き、データ線200に第1のキャッシュメモリ6のデー
タを乗せ、中央処理装置2に送る。一方、アドレス比較
器64でアドレスが一致しないときには制御線20際ノ 乗ぜられた制御信号によってケ゛−トロ3を閉じ。
The translated addresses in the two physical addresses carried on the address lines 120 and 103 and 104 are sent to the address comparator 64 and compared, and if they match, the control signal carried on the control line 110 causes the dart 63 is opened, data from the first cache memory 6 is loaded onto the data line 200, and sent to the central processing unit 2. On the other hand, if the addresses do not match in the address comparator 64, the controller 3 is closed by the control signal multiplied by the control line 20.

第2のキャッンユメモリ7の読出しデータが有効かどう
か調べるよう指示する。
It instructs to check whether the read data of the second cache memory 7 is valid.

上記の指示を受けると、第2のキャッシュメモリ7は、
アドレス線102に乗せられたオフセットアドレスとア
ドレス線】03に乗せられた下位側変換アドレスでアク
セスされる。この第2のキャッシュメモリ7のディレク
トリ部71からは。
Upon receiving the above instruction, the second cache memory 7
It is accessed using the offset address carried on the address line 102 and the lower-order converted address carried on the address line 03. From the directory section 71 of this second cache memory 7.

読み出された物理アドレス中の上位側変換アドレスが読
み出されてアドレス線121に乗せられ。
The higher-order translated address among the read physical addresses is read and placed on the address line 121.

データ部72からは、データが読み出されてデータ線2
02に乗せられる。ディレクトリ部71から読み出され
た上側変換アドレスとアドレス変換装置3で生成されて
アドレス線104に乗せられた上位側変換アドレスが、
アドレス比較器74に送られて比較され、一致すると制
御線111に乗せられた制御信号によってゲート73を
開き、データ線200に第2のキャッシュメモリ7のデ
ータを乗せ、中央処理装置2に送る。一方、アドレス比
較器74でアドレスが一致しないときは、制御線111
に乗せられた制御信号によって、ゲート73を閉じると
ともに主記憶5に読みに行くようにバス制御回路75に
指示をする。
Data is read from the data section 72 and the data line 2
It will be put on board 02. The upper translated address read from the directory section 71 and the upper translated address generated by the address translation device 3 and placed on the address line 104 are
The addresses are sent to the address comparator 74 for comparison, and if they match, the gate 73 is opened by a control signal placed on the control line 111, and the data from the second cache memory 7 is placed on the data line 200 and sent to the central processing unit 2. On the other hand, if the addresses do not match in the address comparator 74, the control line 111
A control signal placed on the bus instructs the bus control circuit 75 to close the gate 73 and read data from the main memory 5.

発明の効果 以上の説明で明らかなように2本発明によると。Effect of the invention As is clear from the above description, there are two aspects of the present invention.

キャッシュメモリを階層式とすることにより、ヒツト率
を低下させる事なく、高速に中央処理装置がデータを読
み出す事ができるという効果がある。
By making the cache memory hierarchical, there is an effect that the central processing unit can read data at high speed without reducing the hit rate.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来のデータ処理装置の構成を示しだブロック
図、第2図はアドレス変換装置で変換される仮想アドレ
スと物理アドレスの関係を示した図、第3図は本発明に
よるデータ処理装置の一実施例の構成を示したブロック
図、第4図は第3図に示されたデータ処理装置を詳細に
示したブロック図である。 1.1′・・・データ処理装置、2・・・中央処理装置
。 3・・・アドレス変換装置、4・・・キャッジ−メモリ
。 5・・・主記憶、6・・・第1のキャッシュメモリ、7
・・・第2のキャッジ−メモリ、8・・・周辺機器制御
部。 9・・・共通ハス、61・・・第1のキャッシュメモリ
のディレクトリ部、62・・・第1のキャッシュメモリ
のデータ部、63・・・ダート、64・・・アドレス比
較器、71・・・第2のキャッシュメモリのディレクト
リ部、7・2・・・第2のキャッシュメモリのデータ部
。 73・・・ケ”−)、74・・・アドレス比較器、75
・・・パス制御回路、101〜104,120,121
・・・第1図 第2■ 1 第3図
FIG. 1 is a block diagram showing the configuration of a conventional data processing device, FIG. 2 is a diagram showing the relationship between virtual addresses and physical addresses translated by an address translation device, and FIG. 3 is a data processing device according to the present invention. FIG. 4 is a block diagram showing the data processing apparatus shown in FIG. 3 in detail. 1.1'...Data processing device, 2...Central processing unit. 3...Address translation device, 4...Catch-memory. 5... Main memory, 6... First cache memory, 7
. . . second cage-memory, 8 . . . peripheral device control section. 9... Common lotus, 61... Directory section of first cache memory, 62... Data section of first cache memory, 63... Dirt, 64... Address comparator, 71... - Directory section of the second cache memory, 7.2... Data section of the second cache memory. 73...Ke"-), 74...Address comparator, 75
...Path control circuit, 101 to 104, 120, 121
...Figure 1 2 ■ 1 Figure 3

Claims (1)

【特許請求の範囲】[Claims] 1、 演算を実行するとともに・データを読み出す時に
被変換アドレスとオフセットアドレスからなる仮想アド
レスを送出する中央処理装置と、前記被変換アドレスを
変換アドレスに変換することによシ前記仮想アドレスを
前記変換アドレスと前記オフセットアドレスからなる物
理アドレスに変換するアドレス変換装置と、該アドレス
変換装置と並行して動作され前記オフセットアドレスを
用いてアクセスされる第1のキャッシュメモリと、該第
1のキャッシュメモリがノーヒツトの場合、前記物理ア
ドレスを用いてアクセスされる第2のキヤ、ンユメモリ
から構成される階層式キャッシュメモリを有するデータ
処理装置。
1. A central processing unit that executes operations and sends out a virtual address consisting of a translated address and an offset address when reading data, and a central processing unit that converts the translated address into a translated address. an address translation device that converts an address and the offset address into a physical address; a first cache memory that operates in parallel with the address translation device and is accessed using the offset address; A data processing device having a hierarchical cache memory comprising a second cache memory that is accessed using the physical address in the case of a no-hit.
JP58013807A 1983-02-01 1983-02-01 Data processor having hierarchical cache memory Pending JPS59140685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58013807A JPS59140685A (en) 1983-02-01 1983-02-01 Data processor having hierarchical cache memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58013807A JPS59140685A (en) 1983-02-01 1983-02-01 Data processor having hierarchical cache memory

Publications (1)

Publication Number Publication Date
JPS59140685A true JPS59140685A (en) 1984-08-13

Family

ID=11843536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58013807A Pending JPS59140685A (en) 1983-02-01 1983-02-01 Data processor having hierarchical cache memory

Country Status (1)

Country Link
JP (1) JPS59140685A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6413649A (en) * 1987-07-07 1989-01-18 Nec Corp Information processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6413649A (en) * 1987-07-07 1989-01-18 Nec Corp Information processor

Similar Documents

Publication Publication Date Title
JP4607405B2 (en) Input / output (I / O) address translation at the bridge close to the local I / O bus
JP2974526B2 (en) Data transfer processing method and data transfer processing device
JPH0137773B2 (en)
JPH03142644A (en) Cache memory control system
JPS59140685A (en) Data processor having hierarchical cache memory
JP2501353B2 (en) Prefetch control method
JPH02110646A (en) Pre-readout device for memory
JPS59173828A (en) Data processing system
JPS6329297B2 (en)
JPS6141023B2 (en)
JPS62118457A (en) Buffer memory control system
JPH0573415A (en) Hierarchized cache system
JPH0877062A (en) Address managing device
JPH01193961A (en) Address converting device
JPH0659980A (en) Cache device
JPH0336647A (en) Cache buffering control system
JPS63247852A (en) Cache memory control method
JPH04348442A (en) Address converter
JPH041373B2 (en)
JPS6054057A (en) Cache memory control system
JPH04353949A (en) Cache memory control system
JPH0934777A (en) Memory access system
JPS61125658A (en) Address converting system
JPS61246850A (en) Buffer storage control system
JPH0353355A (en) Virtual storage system