JPH08221327A - Information processor - Google Patents

Information processor

Info

Publication number
JPH08221327A
JPH08221327A JP7026529A JP2652995A JPH08221327A JP H08221327 A JPH08221327 A JP H08221327A JP 7026529 A JP7026529 A JP 7026529A JP 2652995 A JP2652995 A JP 2652995A JP H08221327 A JPH08221327 A JP H08221327A
Authority
JP
Japan
Prior art keywords
data
cache
area
main memory
access
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7026529A
Other languages
Japanese (ja)
Inventor
Yumiko Tarusawa
由美子 樽沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7026529A priority Critical patent/JPH08221327A/en
Publication of JPH08221327A publication Critical patent/JPH08221327A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE: To provide an information processor capable of shortening read access time while suppressing the increase of design quantity of hardware. CONSTITUTION: A certain quantity of data is brought in comprehensively from main memory 3 and accumulated in cache memory 12 since much time to read in data from the main memory 3 is required. A CPU 10 efficiently reads the data by reading out sequentially from the cache memory 12. When the CPU 10 makes red access the I/O working area 4a of the main memory 3, all blocks including target data are brought in. Then, when the data in the same block is desired to make access, it is read quickly from a buffer 11 dedicated for non-cache area since the data is written in the buffer 11 dedicated for non-cache area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は情報処理装置に係り、特
にメインメモリを中央処理装置(CPU)や入出力(I
/O)装置で共有使用し、また、ライトバック方式でア
クセスされるキャッシュメモリを有する情報処理装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, and more particularly, to a main memory which is a central processing unit (CPU) or an input / output (I).
/ O) and an information processing apparatus having a cache memory which is shared and used by a device and which is accessed by a write-back method.

【0002】[0002]

【従来の技術】メインメモリをCPUやI/O装置で共
有使用し、また、キャッシュメモリを有する情報処理装
置において、キャッシュメモリへデータを書き込む方式
としてライトスルー方式とライトバック方式とがある。
前者のライトスルー方式は、CPUやI/O装置からの
ライトアクセスがあった時には、メインメモリにデータ
を書き込むと共にキャッシュメモリには少なくともエン
トリーアドレスと一致した時にデータを書き込む方式で
あり、書き込みはメインメモリへのアクセスを必要とす
るため、メインメモリとキャッシュメモリとの間のデー
タを一致させることができる反面、書き込みはすべてメ
インメモリへアクセスすることになるため、アクセス競
合が発生してシステム性能の低下を招くという問題があ
る。
2. Description of the Related Art In an information processing apparatus that shares a main memory with a CPU or an I / O device and has a cache memory, there are a write-through method and a write-back method as a method for writing data to the cache memory.
The former write-through method is a method of writing data to the main memory when there is a write access from the CPU or I / O device, and writing data to the cache memory at least when it matches the entry address. Since access to the memory is required, the data between the main memory and the cache memory can be matched. On the other hand, all the writes will access the main memory, so access conflicts will occur and system performance will be reduced. There is a problem of causing a decrease.

【0003】一方、後者のライトバック方式は、CPU
からのライトアクセスがあった時には、キャッシュメモ
リに対してのみデータを書き込む方式であるため、処理
が高速であるという特長がある反面、メインメモリのデ
ータ更新はキャッシュメモリ内にリプレースが生じるま
で行わず、この更新までにプロセッサやI/O装置が同
一アドレスにアクセスを行った場合、キャッシュメモリ
の記憶内容とメインメモリの記憶内容が一致しないこと
があるという問題がある。
On the other hand, the latter write-back method uses a CPU
When a write access is made from, the data is written only to the cache memory, so the processing is fast, but the main memory data is not updated until the cache memory is replaced. However, if the processor or I / O device accesses the same address before this update, there is a problem in that the stored contents of the cache memory may not match the stored contents of the main memory.

【0004】そこで、従来よりキャッシュメモリをメイ
ンメモリのCPUやI/O装置により共有して使用され
る共有領域か、共有して使用されない非共有領域である
かに応じてキャッシュメモリの書き込み方式を切り換え
る情報処理装置が従来より知られている(特開平2−2
26449号公報:発明の名称「キャッシュメモリ制御
方式」)。
Therefore, conventionally, the cache memory write method is selected according to whether the cache memory is a shared area which is shared by the CPU or the I / O device of the main memory, or a non-shared area which is not shared and used. An information processing device for switching is conventionally known (Japanese Patent Laid-Open No. 2-2).
No. 26449: Title of the invention "Cache memory control system").

【0005】図2はこの従来の情報処理装置の一例の構
成図を示す。同図において、CPU1、I/O装置2、
メインメモリ3、ライトスルーキャッシュメモリ5及び
ライトバックキャッシュメモリ6はそれぞれバス7を介
して接続されている。メインメモリ3は、その記憶領域
がCPU1及びI/O装置2にそれぞれ共通に使用され
るI/O使用領域(共有領域)4aと、I/O装置2に
は使用されないI/O不使用領域(非共有領域)4bと
に分割されている。また、ライトスルーキャッシュメモ
リ5はライトスルー方式でデータが書き込まれるキャッ
シュメモリであり、ライトバックキャッシュメモリ6は
ライトバック方式でデータが書き込まれるキャッシュメ
モリである。なお、I/O装置2は他のCPUでもよ
い。
FIG. 2 is a block diagram showing an example of this conventional information processing apparatus. In the figure, a CPU 1, an I / O device 2,
The main memory 3, the write-through cache memory 5, and the write-back cache memory 6 are connected to each other via a bus 7. The main memory 3 has an I / O use area (shared area) 4a whose storage area is commonly used by the CPU 1 and the I / O device 2, and an I / O non-use area which is not used by the I / O device 2. (Non-shared area) 4b. The write-through cache memory 5 is a cache memory in which data is written by the write-through method, and the write-back cache memory 6 is a cache memory in which data is written by the write-back method. The I / O device 2 may be another CPU.

【0006】この従来装置では、I/O装置2からメイ
ンメモリ3へのデータ書き込みはI/O使用領域4aに
対してのみ行われる。また、CPU1からメインメモリ
2のI/O使用領域4aにデータを書き込む場合は、キ
ャッシュメモリとメインメモリ3との間でデータの一致
をとる必要があるので、ライトスルー方式に従い、ライ
トスルーキャッシュメモリ5とI/O使用領域4aのそ
れぞれにデータが書き込まれる。
In this conventional device, data writing from the I / O device 2 to the main memory 3 is performed only in the I / O use area 4a. Further, when writing data from the CPU 1 to the I / O use area 4a of the main memory 2, it is necessary to match the data between the cache memory and the main memory 3. Therefore, according to the write-through method, the write-through cache memory is used. 5 and the I / O use area 4a are respectively written with data.

【0007】これに対し、CPU1からメインメモリ2
のI/O不使用領域4bに対するライトアクセス時に
は、ライトバック方式に従い、通常はライトバックキャ
ッシュメモリ6にデータが書き込まれる。これにより、
従来ライトスルー方式で行われていたメインメモリ3の
I/O不使用領域4bに対する不要なデータ書き込みが
不要にでき、またI/O使用領域4aに対するデータ書
き込みはライトスルー方式で行うことにより、ライトス
ルーキャッシュメモリ5とメインメモリ3の記憶データ
の整合性を保つことができ、よって、次にそのデータを
CPU1が必要とした場合に、ライトスルーキャッシュ
メモリ5内にあってヒットしたときには、そのまま使用
することができ、アクセス速度が向上するという特長が
ある。
On the other hand, the CPU 1 to the main memory 2
At the time of write access to the I / O unused area 4b, data is normally written in the write-back cache memory 6 according to the write-back method. This allows
Unnecessary data writing to the I / O unused area 4b of the main memory 3 which is conventionally performed by the write through method can be eliminated, and data writing to the I / O used area 4a is performed by the write through method. The consistency of the data stored in the through-cache memory 5 and the main memory 3 can be maintained, so that when the CPU 1 needs the data next time and it is in the write-through cache memory 5 and hits, it is used as it is. The advantage is that the access speed is improved.

【0008】[0008]

【発明が解決しようとする課題】しかるに、上記の従来
の情報処理装置では、キャッシュメモリ5及び6でライ
トアドレスを見て、それがメインメモリ3のI/O使用
領域4aかI/O不使用領域4bであるかを判定する機
構が必要になる。また、ライトバック方式とライトスル
ー方式とではキャッシュメモリの状態遷移が異なるの
で、その実現にはキャッシュメモリ5及び6という2種
類のキャッシュメモリが必要となり、そのためにハード
の設計量が増加して、ハードの設計に時間がかかり、ま
たバグの出る可能性が増え、また、部品量が増加してそ
れに伴いコストが上昇するという問題がある。
However, in the above-mentioned conventional information processing apparatus, the write address is seen in the cache memories 5 and 6, and it is determined whether the write address is the I / O use area 4a of the main memory 3 or the I / O nonuse. A mechanism for determining whether it is the region 4b is required. Further, since the state transition of the cache memory is different between the write-back method and the write-through method, two types of cache memories, the cache memories 5 and 6, are required to realize it, which increases the hardware design amount, There is a problem that it takes time to design the hardware, the possibility of bugs increases, the number of parts increases, and the cost increases accordingly.

【0009】本発明は上記の点に鑑みなされたもので、
ハードの設計量の増加を抑えつつリードアクセス時間を
短縮し得る情報処理装置を提供することを目的とする。
The present invention has been made in view of the above points,
An object of the present invention is to provide an information processing device capable of reducing read access time while suppressing an increase in the amount of hardware design.

【0010】[0010]

【課題を解決するための手段】本発明は上記の目的を達
成するため、中央処理装置がバスを介してキャッシュメ
モリに接続されると共に、バスを介して接続されたメイ
ンメモリを入出力装置あるいは他の中央処理装置と共有
する構成の情報処理装置において、中央処理装置内に設
けられた非キャッシュ領域専用バッファと、中央処理装
置がメインメモリの共有領域のデータリード時には、共
有領域からデータを読み出して非キャッシュ領域専用バ
ッファに書き込み、その後中央処理装置による共有領域
の同じアドレスブロックからのデータリード時には非キ
ャッシュ領域専用バッファからデータを読み出し、共有
領域のデータライト時には共有領域にデータを書き込む
制御手段と、入出力装置又は他の中央処理装置からメイ
ンメモリの共有領域へのアクセスの有無を監視し、アク
セス検出時にはアクセス検出信号を発生して非キャッシ
ュ領域専用バッファを有する中央処理装置に供給し、非
キャッシュ領域専用バッファのデータを無効化するメモ
リコントローラとを有する構成としたものである。
In order to achieve the above object, the present invention has a central processing unit connected to a cache memory via a bus, and a main memory connected via the bus to an input / output device or In an information processing apparatus configured to be shared with another central processing unit, a buffer dedicated to a non-cache area provided in the central processing unit and the central processing unit reads data from the shared area when reading data from the shared area of the main memory. To a buffer for exclusive use in the non-cache area, then when the central processing unit reads data from the same address block in the shared area, data is read from the buffer for exclusive use in the non-cache area, and when writing data to the shared area, the control means writes the data in the shared area. , Shared area of main memory from I / O device or other central processing unit A memory controller that monitors the presence / absence of access to the memory, generates an access detection signal when an access is detected, supplies the signal to a central processing unit having a non-cache area dedicated buffer, and invalidates the data in the non-cache area dedicated buffer. It is what

【0011】[0011]

【作用】本発明では、メインメモリの共有領域のアクセ
ス時には、データを共有領域に書き込みあるいは読み出
すが、データリード時には更に非キャッシュ領域専用バ
ッファに共有領域から読み出したデータを書き込み、そ
の後の同じアドレスのデータリード時には非キャッシュ
領域専用バッファからデータを読み出す。従って、本発
明では、メインメモリ共有領域のアクセスはキャッシュ
メモリを介さないで行うことができる。
According to the present invention, when the shared area of the main memory is accessed, data is written to or read from the shared area, but at the time of data read, the data read from the shared area is further written to the non-cache area dedicated buffer, and the same address after that. When reading data, the data is read from the non-cache area dedicated buffer. Therefore, in the present invention, the access to the main memory shared area can be performed without passing through the cache memory.

【0012】特に、制御手段が、メインメモリの共有領
域のデータリード時には、共有領域から目的のデータを
含むブロックをブロックリフィルしてすべてを一度に非
キャッシュ領域専用バッファに書き込むことにより、次
の同じアドレスのデータリード時に非キャッシュ領域専
用バッファから高速にデータを読み出すことができる。
Particularly, when the data is read from the shared area of the main memory, the control means performs block refilling of the block containing the target data from the shared area and writes all the blocks into the non-cache area dedicated buffer at the same time. Data can be read at high speed from the non-cache area dedicated buffer at the time of address data reading.

【0013】また、中央処理装置は、メインメモリの非
共有領域のライトアクセス時には、ライトバック方式に
従いキャッシュメモリにデータを書き込むことにより、
処理を簡単で高速に行える。
Further, the central processing unit writes data in the cache memory according to the write-back method at the time of write access to the non-shared area of the main memory,
Processing is easy and fast.

【0014】[0014]

【実施例】次に、本発明の実施例について説明する。図
1は本発明にする情報処理装置の一実施例の構成図を示
す。図1中、図2と同一構成部分には同一符号を付して
ある。本実施例は、CPU10、I/O装置2、キャッ
シュメモリ12、メモリコントローラ13がそれぞれバ
ス15を介して接続されており、また、メモリコントロ
ーラ13を介してメインメモリ3がバス15に接続され
ている。
Next, an embodiment of the present invention will be described. FIG. 1 shows a block diagram of an embodiment of an information processing apparatus according to the present invention. In FIG. 1, the same components as those in FIG. 2 are designated by the same reference numerals. In this embodiment, the CPU 10, the I / O device 2, the cache memory 12, and the memory controller 13 are connected to each other via the bus 15, and the main memory 3 is connected to the bus 15 via the memory controller 13. There is.

【0015】CPU10内には、ブロックサイズ程度の
容量のレジスタのような非キャッシュ領域専用バッファ
11が設けられている。メモリコントローラ13はI/
O装置2からメインメモリ3へのアクセスがあるか否か
監視しており、アクセスがあった時にI/Oアクセス信
号を信号線14を介してCPU10へ供給し、非キャッ
シュ領域専用バッファ11のデータを無効化する。
In the CPU 10, a non-cache area dedicated buffer 11 such as a register having a capacity of about a block size is provided. The memory controller 13 is I /
Whether or not the O device 2 accesses the main memory 3 is monitored, and when there is an access, an I / O access signal is supplied to the CPU 10 via the signal line 14, and data in the non-cache area dedicated buffer 11 is supplied. Invalidate.

【0016】CPU10は、メインメモリ3に蓄えられ
た命令やデータをバス15を介して読み込み順次実行す
る。メインメモリ3は実行すべき命令コードと実行中に
使用するデータを格納する。キャッシュメモリ12はメ
インメモリ3からCPU10がデータを読み込むのは時
間がかかるため、メインメモリ3からある程度の量のデ
ータをまとめて持ってきて蓄積されており、そこから順
次にCPU10に読み出すことで効率的なリードを行う
ために設けられている。I/O装置2はメインメモリ3
のI/O使用領域4aにデータの書き込みを行う。
The CPU 10 reads instructions and data stored in the main memory 3 via the bus 15 and sequentially executes them. The main memory 3 stores an instruction code to be executed and data used during execution. Since it takes time for the CPU 10 to read the data from the main memory 3 in the cache memory 12, a certain amount of data is brought together from the main memory 3 and accumulated, and the efficiency can be improved by sequentially reading the data from there to the CPU 10. It is provided for the purpose of effective lead. I / O device 2 is main memory 3
Data is written in the I / O use area 4a.

【0017】次に、本実施例の動作について説明する。
CPU10が命令実行を行うため、それに必要なデータ
を得るべくメインメモリ3をリードアクセスした時、そ
のデータがメインメモリ3のI/O使用領域4aにある
場合、本実施例ではI/Oアクセスとのデータの整合性
を保つため、キャッシュメモリ12を経由せずに非キャ
ッシュメモリアクセスを行う。
Next, the operation of this embodiment will be described.
Since the CPU 10 executes the instruction, when the main memory 3 is read-accessed to obtain the data necessary for the instruction, and the data is in the I / O use area 4a of the main memory 3, the I / O access is performed in this embodiment. In order to maintain the consistency of the data, the non-cache memory access is performed without passing through the cache memory 12.

【0018】すなわち、I/O使用領域4aからデータ
をリードする場合、通常、縮小命令セットコンピュータ
(RISC:Restricted Instruction Set Computer)
系では1ワードずつしか持ってくることができないが、
本実施例では目的のデータを含むブロック(ここでは、
ブロックサイズを16ワードとする)をブロックリフィ
ルしてすべて持ってくる。
That is, when data is read from the I / O use area 4a, a reduced instruction set computer (RISC) is usually used.
You can bring only 1 word at a time, but
In this embodiment, a block containing the target data (here,
Block size is set to 16 words) and all are brought by block refill.

【0019】ブロックリフィルは16ワードを一度に持
ってくるために1ワードリフィルより少し時間がかかる
が、次に同じブロック内のデータをアクセスしたい場合
には、非キャッシュ領域専用バッファ11内にデータが
書き込まれているために、非キャッシュ領域専用バッフ
ァ11から素早く読み込むことができる。実際、データ
アクセスは連続したアドレスについて行われることが多
く、16ワードのブロックの最初のデータからアクセス
が行われ、16ワードすべてが使われた場合には、1ワ
ードあたりの平均アクセス時間は (ブロックリフィルにかかる時間)/16 となり、1ワードずつリードした場合に比べ、格段に速
く行えることになる。
Since the block refill takes 16 words at a time, it takes a little longer than the one-word refill. However, when the user wants to access the data in the same block next time, the data is stored in the non-cache area dedicated buffer 11. Since it is written, it can be quickly read from the non-cache area dedicated buffer 11. In fact, data access is often done in contiguous addresses, where the first data in a 16-word block is accessed, and if all 16 words are used, the average access time per word is (block (Refilling time) / 16, which is much faster than reading one word at a time.

【0020】この場合、I/O使用領域4aはI/O装
置2などもデータを書き込む可能性のある共有領域であ
るという性質上、CPU10が非キャッシュ領域専用バ
ッファ11内に読み込まれたデータをリードしている最
中にI/O装置2が同じブロックに書き込むという可能
性がある。
In this case, since the I / O use area 4a is a shared area in which the I / O device 2 and the like may also write data, the CPU 10 stores the data read into the non-cache area dedicated buffer 11. There is a possibility that the I / O device 2 writes to the same block while reading.

【0021】そこで、本実施例では、メモリコントロー
ラ13によりI/O装置2からメインメモリ3へのアク
セスを監視しており、アクセスがあった時には信号線1
4上のI/Oアクセス信号をアクティブ(例えば、ハイ
レベル)にする。I/Oアクセス信号がハイレベルにな
った場合は、メインメモリ3内のデータの整合性がとれ
ていない場合があるので、ハードウェアにより非キャッ
シュ領域専用バッファ11内のデータを自動的に無効化
する。
Therefore, in this embodiment, the memory controller 13 monitors the access from the I / O device 2 to the main memory 3, and when there is an access, the signal line 1
The I / O access signal on 4 is made active (for example, high level). When the I / O access signal goes high, the data in the main memory 3 may not be consistent, so the data in the non-cache area dedicated buffer 11 is automatically invalidated by hardware. To do.

【0022】この無効化には、例えば前記16ワードの
ブロック中に無効フラグを設けておき、I/Oアクセス
信号がハイレベルになった時に無効フラグを立て、この
無効フラグが立っている時にはCPU10はメインメモ
リ3のI/O使用領域4a内のブロックをリードする方
法などがある。
For this invalidation, for example, an invalidation flag is provided in the block of 16 words, the invalidation flag is set when the I / O access signal becomes high level, and the CPU 10 is activated when the invalidation flag is set. Is a method of reading a block in the I / O use area 4a of the main memory 3.

【0023】また、CPU10が非キャッシュ領域専用
バッファ11内に読み込まれたデータをリードしている
最中に、I/Oアクセス信号ハイレベルになったことを
検出した時には、そのリード動作を停止する。
When the CPU 10 detects that the I / O access signal becomes high level while the data read in the non-cache area dedicated buffer 11 is being read, the read operation is stopped. .

【0024】なお、I/O装置2がアクセスしたI/O
使用領域4a内のブロックは非キャッシュ領域専用バッ
ファ11内に読み込まれているブロックとは異なる場合
もあり、その場合には本来無効化は必要ないわけである
が、アーキテクチャの簡易性、反応の即時性のためにこ
こではこの方式を採用する。
The I / O accessed by the I / O device 2
The block in the used area 4a may be different from the block read in the non-cache area dedicated buffer 11, and in that case, invalidation is not necessary in principle, but the simplicity of the architecture and immediate reaction This method is adopted here for the sake of sex.

【0025】本実施例では、I/O装置2によるメイン
メモリ3のI/O使用領域4aのアクセスとの整合性を
保つために、CPU10が非キャッシュアクセスを行う
場合、このように非キャッシュ領域専用バッファ11か
ら素早く読み込む方法で高速化を行う。
In this embodiment, in order to maintain consistency with the access to the I / O use area 4a of the main memory 3 by the I / O device 2, when the CPU 10 makes a non-cache access, The speed is increased by a method of quickly reading from the dedicated buffer 11.

【0026】なお、本実施例において、CPU10はメ
インメモリ3のI/O使用領域4aのライトアクセス時
には、メインメモリ3のI/O使用領域4aにのみデー
タを書き込む。また、CPU10はメインメモリ3のI
/O不使用領域4bのライトアクセス時には、ライトバ
ック方式によりキャッシュメモリ12にデータを書き込
む。
In the present embodiment, the CPU 10 writes data only to the I / O use area 4a of the main memory 3 at the time of write access to the I / O use area 4a of the main memory 3. Further, the CPU 10 is the I of the main memory 3.
At the time of write access to the / O unused area 4b, data is written in the cache memory 12 by the write back method.

【0027】[0027]

【発明の効果】以上説明したように、本発明によれば、
メインメモリ共有領域のアクセスはキャッシュメモリを
介さないで行うようにしたため、ライトスルー方式で必
要とされるライトスルーキャッシュメモリよりも充分に
容量が小さな非キャッシュ領域専用バッファとメモリコ
ントローラの追加だけで済み、従来に比べてハード設計
量が低減できると共に部品量が少なくて済み、設計、コ
スト及び実装の面の向上を実現できる。
As described above, according to the present invention,
Since the access to the shared area of the main memory is performed without passing through the cache memory, it is only necessary to add a dedicated buffer for the non-cache area and a memory controller, which has a sufficiently smaller capacity than the write-through cache memory required by the write-through method. In addition, the amount of hardware design can be reduced and the amount of components can be reduced as compared with the conventional case, and improvement in design, cost and mounting can be realized.

【0028】また、本発明によれば、共有領域の同じア
ドレスの連続データリード時には非キャッシュ領域専用
バッファから共有領域の目的のデータを含むブロックを
ブロックリフィルしてすべてを一度に読み出すため、1
ワードずつ時間をかけて読み出す場合に比べてロス無く
効率良くデータを読み出すことができ、リードアクセス
速度を向上できる。
Further, according to the present invention, when consecutive data of the same address in the shared area is read, the block containing the target data in the shared area is block-filled from the non-cache area dedicated buffer and all of them are read at once.
Data can be efficiently read without loss and the read access speed can be improved as compared with the case where data is read word by word over time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】従来の一例の構成図である。FIG. 2 is a configuration diagram of a conventional example.

【符号の説明】[Explanation of symbols]

2 入出力(I/O)装置 3 メインメモリ 4a I/O使用領域 4b I/O不使用領域 10 中央処理装置(CPU) 11 非キャッシュ領域専用バッファ 12 キャッシュメモリ 13 メモリコントローラ 14 I/Oアクセス信号伝送用信号線 2 input / output (I / O) device 3 main memory 4a I / O used area 4b I / O unused area 10 central processing unit (CPU) 11 non-cache area dedicated buffer 12 cache memory 13 memory controller 14 I / O access signal Signal line for transmission

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 中央処理装置がバスを介してキャッシュ
メモリに接続されると共に、該バスを介して接続された
メインメモリを入出力装置あるいは他の中央処理装置と
共有する構成の情報処理装置において、 前記中央処理装置内に設けられた非キャッシュ領域専用
バッファと、 前記中央処理装置が前記メインメモリの共有領域のデー
タリード時には、該共有領域からデータを読み出して該
非キャッシュ領域専用バッファに書き込み、その後該中
央処理装置による該共有領域の同じアドレスブロックか
らのデータリード時には該非キャッシュ領域専用バッフ
ァからデータを読み出し、該共有領域のデータライト時
には、該共有領域にデータを書き込む制御手段と、 前記入出力装置又は他の中央処理装置から前記メインメ
モリの共有領域へのアクセスの有無を監視し、該アクセ
ス検出時にはアクセス検出信号を発生して前記非キャッ
シュ領域専用バッファを有する中央処理装置に供給し、
該非キャッシュ領域専用バッファのデータを無効化する
メモリコントローラとを有することを特徴とする情報処
理装置。
1. An information processing apparatus having a configuration in which a central processing unit is connected to a cache memory via a bus, and a main memory connected via the bus is shared with an input / output device or another central processing unit. A non-cache area dedicated buffer provided in the central processing unit, and when the central processing unit reads data in the shared area of the main memory, reads data from the shared area and writes the data in the non-cache area dedicated buffer, and When the central processing unit reads data from the same address block of the shared area, the data is read from the non-cache area dedicated buffer, and when the shared area is written, the control unit writes the data to the shared area, and the input / output device. Or access to the shared area of the main memory from another central processing unit. Access to the central processing unit having the non-cache area dedicated buffer by generating an access detection signal when the access is detected,
An information processing apparatus comprising: a memory controller that invalidates data in the non-cache area dedicated buffer.
【請求項2】 前記制御手段は、前記メインメモリの共
有領域のデータリード時には、該共有領域から目的のデ
ータを含むブロックをブロックリフィルしてすべてを一
度に前記非キャッシュ領域専用バッファに書き込むこと
を特徴とする請求項1記載の情報処理装置。
2. The control means, at the time of reading data from a shared area of the main memory, block refills a block containing target data from the shared area and writes all the blocks to the non-cache area dedicated buffer at one time. The information processing apparatus according to claim 1, which is characterized in that.
【請求項3】 前記中央処理装置は、前記メインメモリ
の非共有領域のライトアクセス時には、ライトバック方
式に従い前記キャッシュメモリにデータを書き込むこと
を特徴とする請求項1又は2記載の情報処理装置。
3. The information processing apparatus according to claim 1, wherein the central processing unit writes data in the cache memory according to a write back method at the time of write access to a non-shared area of the main memory.
JP7026529A 1995-02-15 1995-02-15 Information processor Pending JPH08221327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7026529A JPH08221327A (en) 1995-02-15 1995-02-15 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7026529A JPH08221327A (en) 1995-02-15 1995-02-15 Information processor

Publications (1)

Publication Number Publication Date
JPH08221327A true JPH08221327A (en) 1996-08-30

Family

ID=12196018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7026529A Pending JPH08221327A (en) 1995-02-15 1995-02-15 Information processor

Country Status (1)

Country Link
JP (1) JPH08221327A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348593A (en) * 1993-06-03 1994-12-22 Sumitomo Electric Ind Ltd Data transfer controller

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348593A (en) * 1993-06-03 1994-12-22 Sumitomo Electric Ind Ltd Data transfer controller

Similar Documents

Publication Publication Date Title
KR100240912B1 (en) Stream filter
US6205521B1 (en) Inclusion map for accelerated cache flush
US5265236A (en) Method and apparatus for increasing the speed of memory access in a virtual memory system having fast page mode
KR100262906B1 (en) Data prefetch method and system
JP3289661B2 (en) Cache memory system
JP3352598B2 (en) Microprocessor
JP3264319B2 (en) Bus bridge
JP2010191638A (en) Cache device
JPH09259036A (en) Write-back cache and method for maintaining consistency in write-back cache
US20060179175A1 (en) Method and system for cache utilization by limiting prefetch requests
US5590310A (en) Method and structure for data integrity in a multiple level cache system
KR100505695B1 (en) Cache memory device having dynamically-allocated or deallocated buffers, digital data processing system comprising it and method thereof
EP0470739B1 (en) Method for managing a cache memory system
US5293622A (en) Computer system with input/output cache
JPH06318174A (en) Cache memory system and method for performing cache for subset of data stored in main memory
KR100322223B1 (en) Memory controller with oueue and snoop tables
JPH06202951A (en) Cash memory system
US5619673A (en) Virtual access cache protection bits handling method and apparatus
JP2000122929A (en) Information processor
EP0488566A2 (en) Method and apparatus for fast page mode selection
JP3971807B2 (en) Cache storage device and method
JPH0532776B2 (en)
JPH08221327A (en) Information processor
US6401173B1 (en) Method and apparatus for optimizing bcache tag performance by inferring bcache tag state from internal processor state
JPH0628258A (en) Microprocessor