JPH08221327A - Information processor - Google Patents
Information processorInfo
- Publication number
- JPH08221327A JPH08221327A JP7026529A JP2652995A JPH08221327A JP H08221327 A JPH08221327 A JP H08221327A JP 7026529 A JP7026529 A JP 7026529A JP 2652995 A JP2652995 A JP 2652995A JP H08221327 A JPH08221327 A JP H08221327A
- Authority
- JP
- Japan
- Prior art keywords
- data
- cache
- area
- main memory
- access
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は情報処理装置に係り、特
にメインメモリを中央処理装置(CPU)や入出力(I
/O)装置で共有使用し、また、ライトバック方式でア
クセスされるキャッシュメモリを有する情報処理装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, and more particularly, to a main memory which is a central processing unit (CPU) or an input / output (I).
/ O) and an information processing apparatus having a cache memory which is shared and used by a device and which is accessed by a write-back method.
【0002】[0002]
【従来の技術】メインメモリをCPUやI/O装置で共
有使用し、また、キャッシュメモリを有する情報処理装
置において、キャッシュメモリへデータを書き込む方式
としてライトスルー方式とライトバック方式とがある。
前者のライトスルー方式は、CPUやI/O装置からの
ライトアクセスがあった時には、メインメモリにデータ
を書き込むと共にキャッシュメモリには少なくともエン
トリーアドレスと一致した時にデータを書き込む方式で
あり、書き込みはメインメモリへのアクセスを必要とす
るため、メインメモリとキャッシュメモリとの間のデー
タを一致させることができる反面、書き込みはすべてメ
インメモリへアクセスすることになるため、アクセス競
合が発生してシステム性能の低下を招くという問題があ
る。2. Description of the Related Art In an information processing apparatus that shares a main memory with a CPU or an I / O device and has a cache memory, there are a write-through method and a write-back method as a method for writing data to the cache memory.
The former write-through method is a method of writing data to the main memory when there is a write access from the CPU or I / O device, and writing data to the cache memory at least when it matches the entry address. Since access to the memory is required, the data between the main memory and the cache memory can be matched. On the other hand, all the writes will access the main memory, so access conflicts will occur and system performance will be reduced. There is a problem of causing a decrease.
【0003】一方、後者のライトバック方式は、CPU
からのライトアクセスがあった時には、キャッシュメモ
リに対してのみデータを書き込む方式であるため、処理
が高速であるという特長がある反面、メインメモリのデ
ータ更新はキャッシュメモリ内にリプレースが生じるま
で行わず、この更新までにプロセッサやI/O装置が同
一アドレスにアクセスを行った場合、キャッシュメモリ
の記憶内容とメインメモリの記憶内容が一致しないこと
があるという問題がある。On the other hand, the latter write-back method uses a CPU
When a write access is made from, the data is written only to the cache memory, so the processing is fast, but the main memory data is not updated until the cache memory is replaced. However, if the processor or I / O device accesses the same address before this update, there is a problem in that the stored contents of the cache memory may not match the stored contents of the main memory.
【0004】そこで、従来よりキャッシュメモリをメイ
ンメモリのCPUやI/O装置により共有して使用され
る共有領域か、共有して使用されない非共有領域である
かに応じてキャッシュメモリの書き込み方式を切り換え
る情報処理装置が従来より知られている(特開平2−2
26449号公報:発明の名称「キャッシュメモリ制御
方式」)。Therefore, conventionally, the cache memory write method is selected according to whether the cache memory is a shared area which is shared by the CPU or the I / O device of the main memory, or a non-shared area which is not shared and used. An information processing device for switching is conventionally known (Japanese Patent Laid-Open No. 2-2).
No. 26449: Title of the invention "Cache memory control system").
【0005】図2はこの従来の情報処理装置の一例の構
成図を示す。同図において、CPU1、I/O装置2、
メインメモリ3、ライトスルーキャッシュメモリ5及び
ライトバックキャッシュメモリ6はそれぞれバス7を介
して接続されている。メインメモリ3は、その記憶領域
がCPU1及びI/O装置2にそれぞれ共通に使用され
るI/O使用領域(共有領域)4aと、I/O装置2に
は使用されないI/O不使用領域(非共有領域)4bと
に分割されている。また、ライトスルーキャッシュメモ
リ5はライトスルー方式でデータが書き込まれるキャッ
シュメモリであり、ライトバックキャッシュメモリ6は
ライトバック方式でデータが書き込まれるキャッシュメ
モリである。なお、I/O装置2は他のCPUでもよ
い。FIG. 2 is a block diagram showing an example of this conventional information processing apparatus. In the figure, a CPU 1, an I / O device 2,
The main memory 3, the write-through cache memory 5, and the write-back cache memory 6 are connected to each other via a bus 7. The main memory 3 has an I / O use area (shared area) 4a whose storage area is commonly used by the CPU 1 and the I / O device 2, and an I / O non-use area which is not used by the I / O device 2. (Non-shared area) 4b. The write-through cache memory 5 is a cache memory in which data is written by the write-through method, and the write-back cache memory 6 is a cache memory in which data is written by the write-back method. The I / O device 2 may be another CPU.
【0006】この従来装置では、I/O装置2からメイ
ンメモリ3へのデータ書き込みはI/O使用領域4aに
対してのみ行われる。また、CPU1からメインメモリ
2のI/O使用領域4aにデータを書き込む場合は、キ
ャッシュメモリとメインメモリ3との間でデータの一致
をとる必要があるので、ライトスルー方式に従い、ライ
トスルーキャッシュメモリ5とI/O使用領域4aのそ
れぞれにデータが書き込まれる。In this conventional device, data writing from the I / O device 2 to the main memory 3 is performed only in the I / O use area 4a. Further, when writing data from the CPU 1 to the I / O use area 4a of the main memory 2, it is necessary to match the data between the cache memory and the main memory 3. Therefore, according to the write-through method, the write-through cache memory is used. 5 and the I / O use area 4a are respectively written with data.
【0007】これに対し、CPU1からメインメモリ2
のI/O不使用領域4bに対するライトアクセス時に
は、ライトバック方式に従い、通常はライトバックキャ
ッシュメモリ6にデータが書き込まれる。これにより、
従来ライトスルー方式で行われていたメインメモリ3の
I/O不使用領域4bに対する不要なデータ書き込みが
不要にでき、またI/O使用領域4aに対するデータ書
き込みはライトスルー方式で行うことにより、ライトス
ルーキャッシュメモリ5とメインメモリ3の記憶データ
の整合性を保つことができ、よって、次にそのデータを
CPU1が必要とした場合に、ライトスルーキャッシュ
メモリ5内にあってヒットしたときには、そのまま使用
することができ、アクセス速度が向上するという特長が
ある。On the other hand, the CPU 1 to the main memory 2
At the time of write access to the I / O unused area 4b, data is normally written in the write-back cache memory 6 according to the write-back method. This allows
Unnecessary data writing to the I / O unused area 4b of the main memory 3 which is conventionally performed by the write through method can be eliminated, and data writing to the I / O used area 4a is performed by the write through method. The consistency of the data stored in the through-cache memory 5 and the main memory 3 can be maintained, so that when the CPU 1 needs the data next time and it is in the write-through cache memory 5 and hits, it is used as it is. The advantage is that the access speed is improved.
【0008】[0008]
【発明が解決しようとする課題】しかるに、上記の従来
の情報処理装置では、キャッシュメモリ5及び6でライ
トアドレスを見て、それがメインメモリ3のI/O使用
領域4aかI/O不使用領域4bであるかを判定する機
構が必要になる。また、ライトバック方式とライトスル
ー方式とではキャッシュメモリの状態遷移が異なるの
で、その実現にはキャッシュメモリ5及び6という2種
類のキャッシュメモリが必要となり、そのためにハード
の設計量が増加して、ハードの設計に時間がかかり、ま
たバグの出る可能性が増え、また、部品量が増加してそ
れに伴いコストが上昇するという問題がある。However, in the above-mentioned conventional information processing apparatus, the write address is seen in the cache memories 5 and 6, and it is determined whether the write address is the I / O use area 4a of the main memory 3 or the I / O nonuse. A mechanism for determining whether it is the region 4b is required. Further, since the state transition of the cache memory is different between the write-back method and the write-through method, two types of cache memories, the cache memories 5 and 6, are required to realize it, which increases the hardware design amount, There is a problem that it takes time to design the hardware, the possibility of bugs increases, the number of parts increases, and the cost increases accordingly.
【0009】本発明は上記の点に鑑みなされたもので、
ハードの設計量の増加を抑えつつリードアクセス時間を
短縮し得る情報処理装置を提供することを目的とする。The present invention has been made in view of the above points,
An object of the present invention is to provide an information processing device capable of reducing read access time while suppressing an increase in the amount of hardware design.
【0010】[0010]
【課題を解決するための手段】本発明は上記の目的を達
成するため、中央処理装置がバスを介してキャッシュメ
モリに接続されると共に、バスを介して接続されたメイ
ンメモリを入出力装置あるいは他の中央処理装置と共有
する構成の情報処理装置において、中央処理装置内に設
けられた非キャッシュ領域専用バッファと、中央処理装
置がメインメモリの共有領域のデータリード時には、共
有領域からデータを読み出して非キャッシュ領域専用バ
ッファに書き込み、その後中央処理装置による共有領域
の同じアドレスブロックからのデータリード時には非キ
ャッシュ領域専用バッファからデータを読み出し、共有
領域のデータライト時には共有領域にデータを書き込む
制御手段と、入出力装置又は他の中央処理装置からメイ
ンメモリの共有領域へのアクセスの有無を監視し、アク
セス検出時にはアクセス検出信号を発生して非キャッシ
ュ領域専用バッファを有する中央処理装置に供給し、非
キャッシュ領域専用バッファのデータを無効化するメモ
リコントローラとを有する構成としたものである。In order to achieve the above object, the present invention has a central processing unit connected to a cache memory via a bus, and a main memory connected via the bus to an input / output device or In an information processing apparatus configured to be shared with another central processing unit, a buffer dedicated to a non-cache area provided in the central processing unit and the central processing unit reads data from the shared area when reading data from the shared area of the main memory. To a buffer for exclusive use in the non-cache area, then when the central processing unit reads data from the same address block in the shared area, data is read from the buffer for exclusive use in the non-cache area, and when writing data to the shared area, the control means writes the data in the shared area. , Shared area of main memory from I / O device or other central processing unit A memory controller that monitors the presence / absence of access to the memory, generates an access detection signal when an access is detected, supplies the signal to a central processing unit having a non-cache area dedicated buffer, and invalidates the data in the non-cache area dedicated buffer. It is what
【0011】[0011]
【作用】本発明では、メインメモリの共有領域のアクセ
ス時には、データを共有領域に書き込みあるいは読み出
すが、データリード時には更に非キャッシュ領域専用バ
ッファに共有領域から読み出したデータを書き込み、そ
の後の同じアドレスのデータリード時には非キャッシュ
領域専用バッファからデータを読み出す。従って、本発
明では、メインメモリ共有領域のアクセスはキャッシュ
メモリを介さないで行うことができる。According to the present invention, when the shared area of the main memory is accessed, data is written to or read from the shared area, but at the time of data read, the data read from the shared area is further written to the non-cache area dedicated buffer, and the same address after that. When reading data, the data is read from the non-cache area dedicated buffer. Therefore, in the present invention, the access to the main memory shared area can be performed without passing through the cache memory.
【0012】特に、制御手段が、メインメモリの共有領
域のデータリード時には、共有領域から目的のデータを
含むブロックをブロックリフィルしてすべてを一度に非
キャッシュ領域専用バッファに書き込むことにより、次
の同じアドレスのデータリード時に非キャッシュ領域専
用バッファから高速にデータを読み出すことができる。Particularly, when the data is read from the shared area of the main memory, the control means performs block refilling of the block containing the target data from the shared area and writes all the blocks into the non-cache area dedicated buffer at the same time. Data can be read at high speed from the non-cache area dedicated buffer at the time of address data reading.
【0013】また、中央処理装置は、メインメモリの非
共有領域のライトアクセス時には、ライトバック方式に
従いキャッシュメモリにデータを書き込むことにより、
処理を簡単で高速に行える。Further, the central processing unit writes data in the cache memory according to the write-back method at the time of write access to the non-shared area of the main memory,
Processing is easy and fast.
【0014】[0014]
【実施例】次に、本発明の実施例について説明する。図
1は本発明にする情報処理装置の一実施例の構成図を示
す。図1中、図2と同一構成部分には同一符号を付して
ある。本実施例は、CPU10、I/O装置2、キャッ
シュメモリ12、メモリコントローラ13がそれぞれバ
ス15を介して接続されており、また、メモリコントロ
ーラ13を介してメインメモリ3がバス15に接続され
ている。Next, an embodiment of the present invention will be described. FIG. 1 shows a block diagram of an embodiment of an information processing apparatus according to the present invention. In FIG. 1, the same components as those in FIG. 2 are designated by the same reference numerals. In this embodiment, the CPU 10, the I / O device 2, the cache memory 12, and the memory controller 13 are connected to each other via the bus 15, and the main memory 3 is connected to the bus 15 via the memory controller 13. There is.
【0015】CPU10内には、ブロックサイズ程度の
容量のレジスタのような非キャッシュ領域専用バッファ
11が設けられている。メモリコントローラ13はI/
O装置2からメインメモリ3へのアクセスがあるか否か
監視しており、アクセスがあった時にI/Oアクセス信
号を信号線14を介してCPU10へ供給し、非キャッ
シュ領域専用バッファ11のデータを無効化する。In the CPU 10, a non-cache area dedicated buffer 11 such as a register having a capacity of about a block size is provided. The memory controller 13 is I /
Whether or not the O device 2 accesses the main memory 3 is monitored, and when there is an access, an I / O access signal is supplied to the CPU 10 via the signal line 14, and data in the non-cache area dedicated buffer 11 is supplied. Invalidate.
【0016】CPU10は、メインメモリ3に蓄えられ
た命令やデータをバス15を介して読み込み順次実行す
る。メインメモリ3は実行すべき命令コードと実行中に
使用するデータを格納する。キャッシュメモリ12はメ
インメモリ3からCPU10がデータを読み込むのは時
間がかかるため、メインメモリ3からある程度の量のデ
ータをまとめて持ってきて蓄積されており、そこから順
次にCPU10に読み出すことで効率的なリードを行う
ために設けられている。I/O装置2はメインメモリ3
のI/O使用領域4aにデータの書き込みを行う。The CPU 10 reads instructions and data stored in the main memory 3 via the bus 15 and sequentially executes them. The main memory 3 stores an instruction code to be executed and data used during execution. Since it takes time for the CPU 10 to read the data from the main memory 3 in the cache memory 12, a certain amount of data is brought together from the main memory 3 and accumulated, and the efficiency can be improved by sequentially reading the data from there to the CPU 10. It is provided for the purpose of effective lead. I / O device 2 is main memory 3
Data is written in the I / O use area 4a.
【0017】次に、本実施例の動作について説明する。
CPU10が命令実行を行うため、それに必要なデータ
を得るべくメインメモリ3をリードアクセスした時、そ
のデータがメインメモリ3のI/O使用領域4aにある
場合、本実施例ではI/Oアクセスとのデータの整合性
を保つため、キャッシュメモリ12を経由せずに非キャ
ッシュメモリアクセスを行う。Next, the operation of this embodiment will be described.
Since the CPU 10 executes the instruction, when the main memory 3 is read-accessed to obtain the data necessary for the instruction, and the data is in the I / O use area 4a of the main memory 3, the I / O access is performed in this embodiment. In order to maintain the consistency of the data, the non-cache memory access is performed without passing through the cache memory 12.
【0018】すなわち、I/O使用領域4aからデータ
をリードする場合、通常、縮小命令セットコンピュータ
(RISC:Restricted Instruction Set Computer)
系では1ワードずつしか持ってくることができないが、
本実施例では目的のデータを含むブロック(ここでは、
ブロックサイズを16ワードとする)をブロックリフィ
ルしてすべて持ってくる。That is, when data is read from the I / O use area 4a, a reduced instruction set computer (RISC) is usually used.
You can bring only 1 word at a time, but
In this embodiment, a block containing the target data (here,
Block size is set to 16 words) and all are brought by block refill.
【0019】ブロックリフィルは16ワードを一度に持
ってくるために1ワードリフィルより少し時間がかかる
が、次に同じブロック内のデータをアクセスしたい場合
には、非キャッシュ領域専用バッファ11内にデータが
書き込まれているために、非キャッシュ領域専用バッフ
ァ11から素早く読み込むことができる。実際、データ
アクセスは連続したアドレスについて行われることが多
く、16ワードのブロックの最初のデータからアクセス
が行われ、16ワードすべてが使われた場合には、1ワ
ードあたりの平均アクセス時間は (ブロックリフィルにかかる時間)/16 となり、1ワードずつリードした場合に比べ、格段に速
く行えることになる。Since the block refill takes 16 words at a time, it takes a little longer than the one-word refill. However, when the user wants to access the data in the same block next time, the data is stored in the non-cache area dedicated buffer 11. Since it is written, it can be quickly read from the non-cache area dedicated buffer 11. In fact, data access is often done in contiguous addresses, where the first data in a 16-word block is accessed, and if all 16 words are used, the average access time per word is (block (Refilling time) / 16, which is much faster than reading one word at a time.
【0020】この場合、I/O使用領域4aはI/O装
置2などもデータを書き込む可能性のある共有領域であ
るという性質上、CPU10が非キャッシュ領域専用バ
ッファ11内に読み込まれたデータをリードしている最
中にI/O装置2が同じブロックに書き込むという可能
性がある。In this case, since the I / O use area 4a is a shared area in which the I / O device 2 and the like may also write data, the CPU 10 stores the data read into the non-cache area dedicated buffer 11. There is a possibility that the I / O device 2 writes to the same block while reading.
【0021】そこで、本実施例では、メモリコントロー
ラ13によりI/O装置2からメインメモリ3へのアク
セスを監視しており、アクセスがあった時には信号線1
4上のI/Oアクセス信号をアクティブ(例えば、ハイ
レベル)にする。I/Oアクセス信号がハイレベルにな
った場合は、メインメモリ3内のデータの整合性がとれ
ていない場合があるので、ハードウェアにより非キャッ
シュ領域専用バッファ11内のデータを自動的に無効化
する。Therefore, in this embodiment, the memory controller 13 monitors the access from the I / O device 2 to the main memory 3, and when there is an access, the signal line 1
The I / O access signal on 4 is made active (for example, high level). When the I / O access signal goes high, the data in the main memory 3 may not be consistent, so the data in the non-cache area dedicated buffer 11 is automatically invalidated by hardware. To do.
【0022】この無効化には、例えば前記16ワードの
ブロック中に無効フラグを設けておき、I/Oアクセス
信号がハイレベルになった時に無効フラグを立て、この
無効フラグが立っている時にはCPU10はメインメモ
リ3のI/O使用領域4a内のブロックをリードする方
法などがある。For this invalidation, for example, an invalidation flag is provided in the block of 16 words, the invalidation flag is set when the I / O access signal becomes high level, and the CPU 10 is activated when the invalidation flag is set. Is a method of reading a block in the I / O use area 4a of the main memory 3.
【0023】また、CPU10が非キャッシュ領域専用
バッファ11内に読み込まれたデータをリードしている
最中に、I/Oアクセス信号ハイレベルになったことを
検出した時には、そのリード動作を停止する。When the CPU 10 detects that the I / O access signal becomes high level while the data read in the non-cache area dedicated buffer 11 is being read, the read operation is stopped. .
【0024】なお、I/O装置2がアクセスしたI/O
使用領域4a内のブロックは非キャッシュ領域専用バッ
ファ11内に読み込まれているブロックとは異なる場合
もあり、その場合には本来無効化は必要ないわけである
が、アーキテクチャの簡易性、反応の即時性のためにこ
こではこの方式を採用する。The I / O accessed by the I / O device 2
The block in the used area 4a may be different from the block read in the non-cache area dedicated buffer 11, and in that case, invalidation is not necessary in principle, but the simplicity of the architecture and immediate reaction This method is adopted here for the sake of sex.
【0025】本実施例では、I/O装置2によるメイン
メモリ3のI/O使用領域4aのアクセスとの整合性を
保つために、CPU10が非キャッシュアクセスを行う
場合、このように非キャッシュ領域専用バッファ11か
ら素早く読み込む方法で高速化を行う。In this embodiment, in order to maintain consistency with the access to the I / O use area 4a of the main memory 3 by the I / O device 2, when the CPU 10 makes a non-cache access, The speed is increased by a method of quickly reading from the dedicated buffer 11.
【0026】なお、本実施例において、CPU10はメ
インメモリ3のI/O使用領域4aのライトアクセス時
には、メインメモリ3のI/O使用領域4aにのみデー
タを書き込む。また、CPU10はメインメモリ3のI
/O不使用領域4bのライトアクセス時には、ライトバ
ック方式によりキャッシュメモリ12にデータを書き込
む。In the present embodiment, the CPU 10 writes data only to the I / O use area 4a of the main memory 3 at the time of write access to the I / O use area 4a of the main memory 3. Further, the CPU 10 is the I of the main memory 3.
At the time of write access to the / O unused area 4b, data is written in the cache memory 12 by the write back method.
【0027】[0027]
【発明の効果】以上説明したように、本発明によれば、
メインメモリ共有領域のアクセスはキャッシュメモリを
介さないで行うようにしたため、ライトスルー方式で必
要とされるライトスルーキャッシュメモリよりも充分に
容量が小さな非キャッシュ領域専用バッファとメモリコ
ントローラの追加だけで済み、従来に比べてハード設計
量が低減できると共に部品量が少なくて済み、設計、コ
スト及び実装の面の向上を実現できる。As described above, according to the present invention,
Since the access to the shared area of the main memory is performed without passing through the cache memory, it is only necessary to add a dedicated buffer for the non-cache area and a memory controller, which has a sufficiently smaller capacity than the write-through cache memory required by the write-through method. In addition, the amount of hardware design can be reduced and the amount of components can be reduced as compared with the conventional case, and improvement in design, cost and mounting can be realized.
【0028】また、本発明によれば、共有領域の同じア
ドレスの連続データリード時には非キャッシュ領域専用
バッファから共有領域の目的のデータを含むブロックを
ブロックリフィルしてすべてを一度に読み出すため、1
ワードずつ時間をかけて読み出す場合に比べてロス無く
効率良くデータを読み出すことができ、リードアクセス
速度を向上できる。Further, according to the present invention, when consecutive data of the same address in the shared area is read, the block containing the target data in the shared area is block-filled from the non-cache area dedicated buffer and all of them are read at once.
Data can be efficiently read without loss and the read access speed can be improved as compared with the case where data is read word by word over time.
【図1】本発明の一実施例の構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.
【図2】従来の一例の構成図である。FIG. 2 is a configuration diagram of a conventional example.
2 入出力(I/O)装置 3 メインメモリ 4a I/O使用領域 4b I/O不使用領域 10 中央処理装置(CPU) 11 非キャッシュ領域専用バッファ 12 キャッシュメモリ 13 メモリコントローラ 14 I/Oアクセス信号伝送用信号線 2 input / output (I / O) device 3 main memory 4a I / O used area 4b I / O unused area 10 central processing unit (CPU) 11 non-cache area dedicated buffer 12 cache memory 13 memory controller 14 I / O access signal Signal line for transmission
Claims (3)
メモリに接続されると共に、該バスを介して接続された
メインメモリを入出力装置あるいは他の中央処理装置と
共有する構成の情報処理装置において、 前記中央処理装置内に設けられた非キャッシュ領域専用
バッファと、 前記中央処理装置が前記メインメモリの共有領域のデー
タリード時には、該共有領域からデータを読み出して該
非キャッシュ領域専用バッファに書き込み、その後該中
央処理装置による該共有領域の同じアドレスブロックか
らのデータリード時には該非キャッシュ領域専用バッフ
ァからデータを読み出し、該共有領域のデータライト時
には、該共有領域にデータを書き込む制御手段と、 前記入出力装置又は他の中央処理装置から前記メインメ
モリの共有領域へのアクセスの有無を監視し、該アクセ
ス検出時にはアクセス検出信号を発生して前記非キャッ
シュ領域専用バッファを有する中央処理装置に供給し、
該非キャッシュ領域専用バッファのデータを無効化する
メモリコントローラとを有することを特徴とする情報処
理装置。1. An information processing apparatus having a configuration in which a central processing unit is connected to a cache memory via a bus, and a main memory connected via the bus is shared with an input / output device or another central processing unit. A non-cache area dedicated buffer provided in the central processing unit, and when the central processing unit reads data in the shared area of the main memory, reads data from the shared area and writes the data in the non-cache area dedicated buffer, and When the central processing unit reads data from the same address block of the shared area, the data is read from the non-cache area dedicated buffer, and when the shared area is written, the control unit writes the data to the shared area, and the input / output device. Or access to the shared area of the main memory from another central processing unit. Access to the central processing unit having the non-cache area dedicated buffer by generating an access detection signal when the access is detected,
An information processing apparatus comprising: a memory controller that invalidates data in the non-cache area dedicated buffer.
有領域のデータリード時には、該共有領域から目的のデ
ータを含むブロックをブロックリフィルしてすべてを一
度に前記非キャッシュ領域専用バッファに書き込むこと
を特徴とする請求項1記載の情報処理装置。2. The control means, at the time of reading data from a shared area of the main memory, block refills a block containing target data from the shared area and writes all the blocks to the non-cache area dedicated buffer at one time. The information processing apparatus according to claim 1, which is characterized in that.
の非共有領域のライトアクセス時には、ライトバック方
式に従い前記キャッシュメモリにデータを書き込むこと
を特徴とする請求項1又は2記載の情報処理装置。3. The information processing apparatus according to claim 1, wherein the central processing unit writes data in the cache memory according to a write back method at the time of write access to a non-shared area of the main memory.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7026529A JPH08221327A (en) | 1995-02-15 | 1995-02-15 | Information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7026529A JPH08221327A (en) | 1995-02-15 | 1995-02-15 | Information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08221327A true JPH08221327A (en) | 1996-08-30 |
Family
ID=12196018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7026529A Pending JPH08221327A (en) | 1995-02-15 | 1995-02-15 | Information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08221327A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06348593A (en) * | 1993-06-03 | 1994-12-22 | Sumitomo Electric Ind Ltd | Data transfer controller |
-
1995
- 1995-02-15 JP JP7026529A patent/JPH08221327A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06348593A (en) * | 1993-06-03 | 1994-12-22 | Sumitomo Electric Ind Ltd | Data transfer controller |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100240912B1 (en) | Stream filter | |
US6205521B1 (en) | Inclusion map for accelerated cache flush | |
US5265236A (en) | Method and apparatus for increasing the speed of memory access in a virtual memory system having fast page mode | |
KR100262906B1 (en) | Data prefetch method and system | |
JP3289661B2 (en) | Cache memory system | |
JP3352598B2 (en) | Microprocessor | |
JP3264319B2 (en) | Bus bridge | |
JP2010191638A (en) | Cache device | |
JPH09259036A (en) | Write-back cache and method for maintaining consistency in write-back cache | |
US20060179175A1 (en) | Method and system for cache utilization by limiting prefetch requests | |
US5590310A (en) | Method and structure for data integrity in a multiple level cache system | |
KR100505695B1 (en) | Cache memory device having dynamically-allocated or deallocated buffers, digital data processing system comprising it and method thereof | |
EP0470739B1 (en) | Method for managing a cache memory system | |
US5293622A (en) | Computer system with input/output cache | |
JPH06318174A (en) | Cache memory system and method for performing cache for subset of data stored in main memory | |
KR100322223B1 (en) | Memory controller with oueue and snoop tables | |
JPH06202951A (en) | Cash memory system | |
US5619673A (en) | Virtual access cache protection bits handling method and apparatus | |
JP2000122929A (en) | Information processor | |
EP0488566A2 (en) | Method and apparatus for fast page mode selection | |
JP3971807B2 (en) | Cache storage device and method | |
JPH0532776B2 (en) | ||
JPH08221327A (en) | Information processor | |
US6401173B1 (en) | Method and apparatus for optimizing bcache tag performance by inferring bcache tag state from internal processor state | |
JPH0628258A (en) | Microprocessor |