JPS6344256A - Buffer memory controlling system - Google Patents
Buffer memory controlling systemInfo
- Publication number
- JPS6344256A JPS6344256A JP61187240A JP18724086A JPS6344256A JP S6344256 A JPS6344256 A JP S6344256A JP 61187240 A JP61187240 A JP 61187240A JP 18724086 A JP18724086 A JP 18724086A JP S6344256 A JPS6344256 A JP S6344256A
- Authority
- JP
- Japan
- Prior art keywords
- address
- data
- processor
- memory
- cache memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 1
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
Description
【発明の詳細な説明】
〔概要〕
プロセッサと入出力装置間にキャッシュメモリを備えた
装置において、キャッシュメモリに希望のデータが存在
しない時、入出力装置からキャッシュメモリにデータロ
ードが行われるが、このデータロード時間中はプロセッ
サの入出力装置に対するアクセスが阻止されるため、プ
ロセッサが入出力装置から読出すデータの次のアドレス
のデータをバッファメモリに記憶させ、これを利用する
ことで処理効率低下を防止する。[Detailed Description of the Invention] [Summary] In a device equipped with a cache memory between a processor and an input/output device, when desired data does not exist in the cache memory, data is loaded from the input/output device to the cache memory. During this data loading time, access to the processor's input/output device is blocked, so the data at the address next to the data read from the input/output device by the processor is stored in the buffer memory, which reduces processing efficiency. prevent.
本発明はプロセッサと入出力装置との間にキャフシュメ
モリを備えた装置に係り、特にキャッシュメモリに希望
するデータが無く、入出力装置からキャッシュメモリに
データをロードする際に、プロセッサの処理効率低下を
防止するバッファメモリ制御方式に関する。The present invention relates to a device equipped with a cache memory between a processor and an input/output device, and in particular, when there is no desired data in the cache memory and data is loaded from the input/output device to the cache memory, the processing efficiency of the processor is improved. This invention relates to a buffer memory control method that prevents deterioration.
情報処理装置ではプロセッサが入出力装置からデータを
読出し、このデータを処理して入出力装置に書込むこと
でジョブを遂行しているが、情報処理装置の処理効率向
上が求められており、このためプロセッサが入出力装置
をアクセスする時間を短縮する目的で、キャッシュメモ
リが使用される。In information processing equipment, a processor reads data from an input/output device, processes this data, and writes it to the input/output device to accomplish a job, but there is a need to improve the processing efficiency of information processing equipment, and this Therefore, cache memory is used to reduce the time it takes for a processor to access an input/output device.
ところで、キャッシュメモリは通常プロセッサが最も利
用する確率の高いデータを格納しているが、キャッシュ
メモリにプロセッサが必要とするデータが存在しない時
、プロセッサは例えばメモリにアクセスすると共に、キ
ャッシュメモリにもデータをロードする。By the way, cache memory usually stores data that is most likely to be used by a processor, but when the cache memory does not contain data that the processor needs, the processor accesses the memory and also stores data in the cache memory. Load.
この時、プロセッサの処理が待たされて処理効率が低下
しないことが必要である。At this time, it is necessary that the processing efficiency of the processor does not deteriorate due to the processing of the processor being made to wait.
第2図は従来のキャッシュメモリを使用したメモリアク
セスを説明するブロック図である。FIG. 2 is a block diagram illustrating memory access using a conventional cache memory.
プロセッサ1はタグ回路2にアドレスを送出して、希望
するデータが存在するか否かを調べる。The processor 1 sends an address to the tag circuit 2 to check whether the desired data exists.
タグ回路2に希望するデータのアドレスが存在すると、
キャッシュメモリ3から8亥当するアドレスのデータを
読出すが、希望するデータのアドレスが無い場合、即ち
ヒツトしなかった場合、プロセッサ1はメモリ4にアド
レスを送出し、メモリ4からデータを読出すと共に、キ
ャッシュメモリ3にも同じデータをロードする。If the desired data address exists in tag circuit 2,
The data at the corresponding address of 8 is read from the cache memory 3, but if the address of the desired data is not found, that is, if it is not hit, the processor 1 sends the address to the memory 4 and reads the data from the memory 4. At the same time, the same data is also loaded into the cache memory 3.
この場合、通常キャッシュメモリ3にロードされるデー
タは、複数のアドレスが連続するデータプロツクが転送
される。従って、このロードには時間が必要となり、メ
モリ4はこの間キャッシュメモリ3のデータロードに占
有される。In this case, data loaded into the cache memory 3 is normally transferred as a data block having a plurality of consecutive addresses. Therefore, this loading requires time, and the memory 4 is occupied during this time by loading data from the cache memory 3.
プロセ、す1は例えばn番地のデータをメモリ4から読
出すと共に、n+1番地のデータを直ちに読出すため、
メモリ4をアクセスするが、上記の如くメモリ4は占有
されているため、キャッシュメモリ3にデータロー ド
が済むまでメモリ4のn+1番地のデータアクセスを待
たされることとなる。For example, the processor 1 reads the data at address n from the memory 4 and also immediately reads the data at address n+1.
The memory 4 is accessed, but since the memory 4 is occupied as described above, access to the data at address n+1 of the memory 4 has to wait until the data is loaded into the cache memory 3.
上記の如く、キャッシュメモリがヒントしなかった場合
、プロセッサが連続するアドレスでメモリをアクセスす
ると、キャッシュメモリにメモリからデータのロードが
完了するまで、プロセッサは処理を待たされることとな
り、処理効率が低下するという問題がある。As mentioned above, if the cache memory does not provide a hint, if the processor accesses the memory at consecutive addresses, the processor will have to wait until the data has been loaded from memory to the cache memory, reducing processing efficiency. There is a problem with doing so.
第1図は本発明の一実施例を示す回路のブロック図であ
る。FIG. 1 is a block diagram of a circuit showing one embodiment of the present invention.
第1図は第2図にアドレス比較回路5とバッファメモリ
6とを追加したものである。FIG. 1 shows an arrangement in which an address comparison circuit 5 and a buffer memory 6 are added to FIG. 2.
バッファメモリ6はn+1番地のデータを記憶しており
、アドレス比較回路5はfi+1番地のアドレスを記憶
している。Buffer memory 6 stores data at address n+1, and address comparison circuit 5 stores address at address fi+1.
プロセッサ1はメモリ4のアクセスが阻止された時、ア
ドレス比較回路5を参照し、このアドレスが一致した時
、即ちn+1番地である時、バッファメモリ6からデー
タを読出す構成とする。When access to the memory 4 is blocked, the processor 1 refers to the address comparison circuit 5, and when the addresses match, that is, when the address is n+1, the processor 1 reads data from the buffer memory 6.
上記構成とすることにより、プロセッサ1はメモリ4か
らn番地のデータを読出すと共に、バッファメモリ6に
n + 1番地のデータを続出させ、アドレス比較回路
5にn+1番地のアドレスを格納してから、キャッシュ
メモリ3に対するデータロードを行わせることで、キャ
ッシュメモリ3にデータロード中でも、バッファメモリ
6から次に必要なn+1番地のデータを得ることが可能
となるため、処理の中断を防止することが出来る。With the above configuration, the processor 1 reads the data at address n from the memory 4, outputs the data at address n+1 to the buffer memory 6 one after another, stores the address at address n+1 in the address comparison circuit 5, and then reads the data at address n+1 from the memory 4. By loading data into the cache memory 3, it is possible to obtain the next necessary data at address n+1 from the buffer memory 6 even while data is being loaded into the cache memory 3, thereby preventing interruption of processing. I can do it.
〔実施例〕
第1図において、プロセッサ1はタグ回路2から目的と
するn番地が存在せず、ヒツトしなかったことを通知さ
れた場合、メモリ4にn番地のアドレスを送出してデー
タを読出す。この時n+1番地のデータをバッファメモ
リ6に読出させ、アドレス比較回路5にn+1番地のア
ドレスを格納する。[Example] In FIG. 1, when the processor 1 is notified from the tag circuit 2 that the target address n does not exist and was not hit, the processor 1 sends the address of the n address to the memory 4 and stores the data. Read out. At this time, the data at address n+1 is read out to the buffer memory 6, and the address at address n+1 is stored in the address comparison circuit 5.
プロセッサ1は続いてタグ回路2にメモリ4からn番地
より順次fi+1番地、n+2番地と1データブロツク
のデータをキャッシュメモリ3にロードすることを指示
する。The processor 1 then instructs the tag circuit 2 to load the data of one data block from the memory 4 to addresses fi+1 and n+2 sequentially from address n to the cache memory 3.
プロセッサ1はn番地のデータを取り込んだ後、直ちに
n+1番地のデータを読出すため、メモリ4をアクセス
するが、メモリ4はキャッシュメモI73にデータロー
ド中で、このアクセスは拒否される。従ってプロセッサ
1はアドレス比較回路5のアドレスを参照し、ここにn
+1番地のアドレスがあるため、バッファメモリ6のデ
ータを取り込む。After taking in the data at address n, processor 1 immediately accesses memory 4 to read data at address n+1, but this access is rejected because memory 4 is loading data into cache memory I73. Therefore, the processor 1 refers to the address of the address comparison circuit 5, and here n
Since there is an address at address +1, data from the buffer memory 6 is fetched.
プロセッサ1がn+1番地のデータをバッファメモリ6
から取り込んだ時には、メモリ4からキャッシュメモリ
3に対するデータロードが完了しているため、プロセッ
サ1が続いてn+2番地のデータが必要な場合、タグ回
路2によりアドレス−敗が取れるため、キャッシュメモ
リ3からデータを読出すことが出来る。Processor 1 transfers data at address n+1 to buffer memory 6
When the data is fetched from the cache memory 3, the data loading from the memory 4 to the cache memory 3 has been completed, so if the processor 1 subsequently needs data at address n+2, the tag circuit 2 will take the address - failure, so the data will be loaded from the cache memory 3. Data can be read.
本実施例はバッファメモリ6にn+ 1番地のデータを
記憶させることで説明したが、この番地は複数であって
も良いことは勿論である。Although this embodiment has been described by storing data at address n+1 in the buffer memory 6, it goes without saying that there may be a plurality of addresses.
以上説明した如く、本発明はキャッシュメモリがヒツト
しなかった場合、メモリからキャッシュメモリにデータ
ロードするために、プロセッサの処理が待たされること
を防止するため、処理効率を高めることが出来る。As described above, the present invention can improve processing efficiency by preventing processor processing from having to wait in order to load data from the memory to the cache memory when the cache memory is not hit.
第1図は本発明の一実施例を示す回路のブロック図、
第2図は従来のキャッシュメモリを使用したメモリアク
セスを説明するブロック図である。
図において、
1はプロセッサ、 2はタグ回路、3はキャッシ
ュメモリ、4はメモリ、
5はアドレス比較回路、
6はバッファメモリである。
がり斃旺め一笑オ七+f’3λ7ネず口圃トのフ′口・
ソノ図箒 1 2FIG. 1 is a block diagram of a circuit showing an embodiment of the present invention, and FIG. 2 is a block diagram illustrating memory access using a conventional cache memory. In the figure, 1 is a processor, 2 is a tag circuit, 3 is a cache memory, 4 is a memory, 5 is an address comparison circuit, and 6 is a buffer memory. Ichisho O7+f'3λ7
Sono Zuhoki 1 2
Claims (1)
間を短縮するキャッシュメモリ(3)を備え、該キャッ
シュメモリ(3)に該プロセッサ(1)が希望するデー
タが存在しない時、該入出力装置(4)から該データを
ロードする装置において、 該プロセッサ(1)が入出力装置(4)からデータを読
出す際に、該プロセッサ(1)が指示したアドレスにチ
ェインしたアドレスのデータを格納するバッファメモリ
(6)と、 該チェインしたアドレスを格納するアドレス比較回路(
5)とを設け、 プロセッサ(1)がキャッシュメモリ(3)に希望する
データが存在せず、入出力装置(4)からデータを読出
す際、プロセッサ(1)が指示したアドレスにチェイン
したアドレスのデータを続けて読出す時、前記キャッシ
ュメモリ(3)に対する入出力装置(4)からのデータ
ロードに関係無く、前記アドレス比較回路(5)の記憶
するアドレスを参照し、前記バッファメモリ(6)のデ
ータを読取ることを特徴とするバッファメモリ制御方式
。[Claims] A cache memory (3) that reduces the time it takes for a processor (1) to access an input/output device (4), and data desired by the processor (1) exists in the cache memory (3). When the processor (1) reads data from the input/output device (4), the device that loads the data from the input/output device (4) chains the address specified by the processor (1). a buffer memory (6) that stores the data of the chained address, and an address comparison circuit (6) that stores the chained address.
5), and when the processor (1) reads data from the input/output device (4) because the desired data does not exist in the cache memory (3), the address chained to the address specified by the processor (1) is provided. When continuously reading data from the buffer memory (6), the address stored in the address comparison circuit (5) is referred to, regardless of data loading from the input/output device (4) to the cache memory (3). A buffer memory control method characterized by reading data from ).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61187240A JPS6344256A (en) | 1986-08-09 | 1986-08-09 | Buffer memory controlling system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61187240A JPS6344256A (en) | 1986-08-09 | 1986-08-09 | Buffer memory controlling system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6344256A true JPS6344256A (en) | 1988-02-25 |
Family
ID=16202505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61187240A Pending JPS6344256A (en) | 1986-08-09 | 1986-08-09 | Buffer memory controlling system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6344256A (en) |
-
1986
- 1986-08-09 JP JP61187240A patent/JPS6344256A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6370617B1 (en) | Non-stalling pipeline tag controller | |
US20050033944A1 (en) | System and method for performing matrix operations | |
US4688188A (en) | Data storage apparatus for storing groups of data with read and write request detection | |
JPH06222993A (en) | Cache memory system and method for realization of it | |
JPH09138778A (en) | Device and method using semaphore buffer for semaphore instruction | |
JPS6344256A (en) | Buffer memory controlling system | |
JPH117410A (en) | Cache device | |
US5933856A (en) | System and method for processing of memory data and communication system comprising such system | |
JP2001184259A (en) | Arithmetic processor and data transferring method in the device | |
JP2000040057A (en) | Computer system, buffer controller and transferring method | |
US6996665B2 (en) | Hazard queue for transaction pipeline | |
JPH07114509A (en) | Memory access device | |
JPH0333951A (en) | Microcomputer system | |
JPS61264455A (en) | Coinciding and controlling system for main storage | |
JPH1040165A (en) | Data read method and read buffer | |
JPH0553912A (en) | Control method for cache memory | |
JPH03262056A (en) | Cache burst transfer system | |
JPH01276254A (en) | Cache memory control device | |
JPH0713920A (en) | Dma transferring method | |
JPS6385949A (en) | Cache memory storing system | |
JPH03257555A (en) | Store buffer device | |
JPH04102146A (en) | High efficiency cash | |
JPH03271859A (en) | Information processor | |
JPH01103751A (en) | Device for controlling cash memory | |
JPS63178349A (en) | Microprocessor |