JPH0962575A - Information processor and its control method - Google Patents

Information processor and its control method

Info

Publication number
JPH0962575A
JPH0962575A JP7211796A JP21179695A JPH0962575A JP H0962575 A JPH0962575 A JP H0962575A JP 7211796 A JP7211796 A JP 7211796A JP 21179695 A JP21179695 A JP 21179695A JP H0962575 A JPH0962575 A JP H0962575A
Authority
JP
Japan
Prior art keywords
processor
data
cache memory
memory
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7211796A
Other languages
Japanese (ja)
Inventor
Kazumasa Hamaguchi
一正 濱口
Shuichi Nakamura
秀一 中村
Toshiyuki Fukui
俊之 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7211796A priority Critical patent/JPH0962575A/en
Priority to US08/699,943 priority patent/US6021472A/en
Publication of JPH0962575A publication Critical patent/JPH0962575A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)
  • Multi Processors (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the system performance by reducing the overhead at a synchronizing point. SOLUTION: When the access issued from a processor 10 to a cache memory 11 is synchronous access, DIRTY block seek in the cache memory 11 is started. The cache memory 11 issues a transaction for consistency maintenance to a required block in accordance with the state of the DIRTY block in the cache memory 11. Meanwhile, the write-back bus transaction issued from one cache memory 11 in this manner is snooped by the other cache memory 16. Thus, the unnecessary consistency maintenance operation is omitted to shorten the delay for memory access.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、複数のプロセッサ
及び複数のキャッシュ・メモリを有する情報処理装置及
びその制御方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus having a plurality of processors and a plurality of cache memories, and a control method thereof.

【0002】[0002]

【従来の技術】並列計算機システムにおいては、プロセ
ッサから発せられる主記憶に対するアクセス要求に高速
に応じるため、及び相互結合網のトラフィックを減じる
ために、各プロセッサにキャッシュ・メモリを付随させ
ることが多い。各プロセッサから発行されるメモリ・ア
クセスはキャッシュ・メモリを介して行われ、キャッシ
ュ・メモリ中にはそれらメモリ・アクセス対象のデータ
・ブロックのコピーが置かれることになる。並列計算機
システムにおいては、複数あるキャッシュ・メモリ中に
同一データ・ブロックのコピーが各々存在する状況が生
じ得るが、それらコピー間の一貫性を保証するために、
従来様々な方法が考案/実現されている。
2. Description of the Related Art In a parallel computer system, a cache memory is often attached to each processor in order to respond to an access request to a main memory issued from the processor at high speed and to reduce traffic of an interconnection network. The memory access issued from each processor is performed via the cache memory, and a copy of the data block to be the memory access target is placed in the cache memory. In a parallel computer system, a situation may occur in which multiple copies of the same data block exist in multiple cache memories, but in order to guarantee consistency among these copies,
Conventionally, various methods have been devised / implemented.

【0003】プロセッサ間やプロセッサ・主記憶間を相
互に接続する結合網に、全てのトランザクションが監視
可能であるバスのようなものを用いた並列計算機システ
ムにおいては、スヌープ方式が一般的である。スヌープ
方式は、キャッシュ・メモリが結合網上に発行される全
トランザクションを監視し、トランザクション対象のデ
ータ・ブロックのコピーが自キャッシュ・メモリ中に存
在していた場合は、必要な一貫性保持動作を施すもので
ある。
The snoop method is generally used in a parallel computer system that uses a bus such as a bus capable of monitoring all transactions in a connection network that interconnects processors and processors and main memory. In the snoop method, the cache memory monitors all transactions issued on the connection network, and if a copy of the data block to be transacted exists in its own cache memory, the necessary coherency maintenance operation is performed. It is something to give.

【0004】また、プロセッサ間やプロセッサ・主記憶
間を相互に接続する結合網に、全てのトランザクション
を監視することが困難なものを用いた並列計算機システ
ムにおいては、ディレクトリ方式が用いられる。ディレ
クトリ方式は、データ・ブロック単位、あるいはそれに
類する単位毎に、いずれのキャッシュ・メモリ中にその
コピーが存在するかというキャッシング情報を、ディレ
クトリと呼ばれる記憶装置に格納・管理しておき、プロ
セッサからのトランザクション発行時にはディレクトリ
から得られるキャッシング情報をもとにして、トランザ
クション対象データ・ブロックのコピーを有するキャッ
シュ・メモリにトランザクションの発生を通知し、コピ
ー間の一貫性保持を図るものである。
Further, a directory system is used in a parallel computer system using a coupled network that interconnects processors and a processor / main memory with each other, in which it is difficult to monitor all transactions. The directory method stores and manages, in a storage device called a directory, caching information indicating in which cache memory the copy exists in each data block unit or similar unit, and the cache information from the processor is stored. When a transaction is issued, the occurrence of a transaction is notified to the cache memory having a copy of the transaction target data block based on the caching information obtained from the directory, and the consistency is maintained between the copies.

【0005】[0005]

【発明が解決しようとしている課題】従来、並列計算機
システムにおける複数キャッシュ・メモリ中に存在する
コピー間の一貫性をとるための動作は、上述の通りトラ
ンザクション毎に行われるものであった。しかしこれ
は、メモリに対するアクセス・レイテンシを抑えるため
に様々考案/実現されている緩いメモリ・コンシステン
シ・モデルにはそぐわないものである。一般に緩いメモ
リ・コンシステンシ・モデルでは、処理の過程に同期ポ
イントを定め、処理が同期ポイントに達した時点で、そ
れまでに発行したメモリ・トランザクションをシステム
中に反映させることを義務付けている。このことは、同
期ポイント以前には各メモリ・トランザクション結果を
反映させる必要がないことを意味する。即ち、緩いメモ
リ・コンシステンシ・モデルを採る並列計算機システム
において従来のキャッシュ一貫性保持手法を用いた場
合、その時点では不要な一貫性保持動作がトランザクシ
ョン毎に入ることとなり、そのオーバヘッドは、緩いメ
モリ・コンシステンシ・モデルの目的に反し、不用意に
メモリ・アクセス・レイテンシを嵩ませていると言え
る。
Conventionally, the operation for achieving consistency between copies existing in a plurality of cache memories in a parallel computer system has been performed for each transaction as described above. However, this is incompatible with the loose memory consistency model that has been variously designed / implemented in order to suppress the access latency to the memory. Generally, in the loose memory consistency model, a synchronization point is set in the course of processing, and when the processing reaches the synchronization point, it is obliged to reflect the memory transaction issued so far in the system. This means that it is not necessary to reflect the outcome of each memory transaction prior to the sync point. In other words, when a conventional cache coherency retention method is used in a parallel computer system that adopts a loose memory consistency model, an unnecessary coherency retention operation is entered in each transaction at that time, and the overhead is loose memory.・ Contrary to the purpose of the consistency model, it can be said that the memory access latency is carelessly increased.

【0006】この課題に対して、プロセッサからのライ
ト・アクセスによって書き換えられたデータ・ブロック
(DIRTYなデータ・ブロック)をシークし、主記憶
にライト・バックする機能と、相互結合網上に発行され
たライト・バック・トランザクションを検出する機能を
有するキャッシュ・メモリを用い、プロセッサの処理が
同期ポイントに達した時点でのみ、キャッシュ・メモリ
内に存在する全てのDIRTYなデータ・ブロックを主
記憶にライト・バックし、かつ一貫性をとるようにする
ことで、緩いメモリ・コンシステンシ・モデルを採るシ
ステムにおいて不要な一貫性保持動作を省こうという考
案がなされている。
To solve this problem, a function of seeking a data block (DIRTY data block) rewritten by a write access from the processor and writing back to the main memory, and a function issued on the interconnection network Using the cache memory that has the function of detecting write back transaction, all the DIRTY data blocks existing in the cache memory are written to the main memory only when the processing of the processor reaches the synchronization point. -It has been devised to eliminate unnecessary consistency maintaining operation in a system adopting a loose memory consistency model by backing up and achieving consistency.

【0007】しかしながら上記考案においては、同期ポ
イントにおけるライト・バック・トランザクションの発
行による相互結合網上のトラフィックの増加、及びライ
ト・バックすること自体のコストが大きいことにより、
同期ポイントにおけるオーバヘッドが過大となるという
問題があった。
However, in the above-mentioned invention, the traffic on the interconnection network increases due to the issue of the write back transaction at the synchronization point, and the cost of the write back itself is large.
There is a problem that the overhead at the synchronization point becomes excessive.

【0008】[0008]

【課題を解決するための手段】上記課題を解決する為
に、本発明は、複数のプロセッサ、各プロセッサに付随
する複数のキャッシュ・メモリ、記憶装置、及び各キャ
ッシュ・メモリと記憶装置とを相互に接続する結合網を
備え、各プロセッサの処理が予め定めた段階に達した時
点でのみ、付随するキャッシュ・メモリ中に存在するデ
ータ・ブロックのシステムにおける一貫性保持を図るこ
とを特徴とする情報処理装置であって、前記キャッシュ
・メモリ中に存在するデータ・ブロックのシステムにお
ける一貫性保持を図る際に、一貫性保持を図る必要があ
るデータ・ブロックを判別する判別手段と、該判別手段
により一貫性保持を図る必要があるデータ・ブロックに
関して状態変更を行う状態変更手段と、ある契機におい
てデータ転送を行うデータ転送手段とを有することを特
徴とする情報処理装置を提供する。上記課題を解決する
為に、本発明は、好ましくは、前記判別手段は、データ
ブロックの状態により判別することを特徴とする。上記
課題を解決する為に、本発明は、好ましくは、前記判別
手段に、前記プロセッサの処理が予め定めた段階に達し
ているか否かを判断し、各キャッシュ・メモリ中に存在
するデータ・ブロックのシステムにおける一貫性保持を
図る手段を、一貫性保持を図る段階において専有状態に
あるデータ・ブロックに関しては、状態管理によって行
うことを特徴とする。上記課題を解決する為に、本発明
は、好ましくは、プロセッサの処理が予め定めた段階に
達したことを、プロセッサが付随するキャッシュ・メモ
リに知らせる手段として、プロセッサが発行した要求の
種別によって判別する機能をキャッシュ・メモリ中に設
けることを特徴とする。上記課題を解決する為に、本発
明は、好ましくは、プロセッサの処理が予め定めた段階
に達したことを、プロセッサが付随するキャッシュ・メ
モリに知らせる手段として、プロセッサが発行したアド
レスによって判別する機能をキャッシュ・メモリ中に設
けることを特徴とする。上記課題を解決する為に、本発
明は、好ましくは、前記情報処理装置は緩いメモリ・コ
ンシステンシ・モデルに基づいた動作を行うをとること
を特徴とする。
In order to solve the above problems, the present invention relates to a plurality of processors, a plurality of cache memories associated with each processor, a storage device, and each cache memory and a storage device. Information characterized by having a coupling network connected to each of the processors, and ensuring coherency in the system of data blocks existing in the associated cache memory only when the processing of each processor reaches a predetermined stage. In the processing device, when the data block existing in the cache memory is to be kept coherent in the system, a discriminating unit that discriminates a data block that needs to be kept coherent, and the discriminating unit State change means that changes the state of data blocks that need to be kept consistent, and data transfer at a certain opportunity To provide an information processing apparatus characterized by having a chromatography data transfer means. In order to solve the above-mentioned problems, the present invention is preferably characterized in that the discrimination means discriminates based on a state of a data block. In order to solve the above-mentioned problems, the present invention is preferably configured such that the determination means determines whether or not the processing of the processor has reached a predetermined stage, and a data block existing in each cache memory. In this system, the means for maintaining the consistency is characterized by performing the state management for the data block in the exclusive state at the stage of maintaining the consistency. In order to solve the above-mentioned problems, the present invention preferably determines, by means of the type of request issued by the processor, as means for notifying the cache memory attached to the processor that the processing of the processor has reached a predetermined stage. It is characterized in that the function to perform is provided in the cache memory. In order to solve the above-mentioned problems, the present invention preferably has a function of discriminating based on an address issued by the processor as means for notifying a cache memory attached to the processor that the processing of the processor has reached a predetermined stage. Is provided in the cache memory. In order to solve the above-mentioned problems, the present invention is preferably characterized in that the information processing device operates based on a loose memory consistency model.

【0009】上記課題を解決する為に、本発明は、複数
のプロセッサ、各プロセッサに付随する複数のキャッシ
ュ・メモリ、記憶装置、及び各キャッシュ・メモリと記
憶装置とを相互に接続する結合網を備え、各プロセッサ
の処理が予め定めた段階に達した時点でのみ、付随する
キャッシュ・メモリ中に存在するデータ・ブロックのシ
ステムにおける一貫性保持を図ることを特徴とする情報
処理装置の制御方法であって、前記キャッシュ・メモリ
中に存在するデータ・ブロックのシステムにおける一貫
性保持を図る際に、一貫性保持を図る必要があるデータ
・ブロックを判別する判別工程と、該判別工程により一
貫性保持を図る必要があるデータ・ブロックに関して状
態変更を行う状態変更工程と、ある契機においてデータ
転送を行うデータ転送工程と、を有することを特徴とす
る情報処理装置の制御方法を提供する。
In order to solve the above-mentioned problems, the present invention provides a plurality of processors, a plurality of cache memories associated with each processor, a storage device, and a connection network interconnecting each cache memory and the storage device. A method of controlling an information processing device, comprising: providing consistency in a system of data blocks existing in an associated cache memory only when processing of each processor reaches a predetermined stage. Therefore, in order to maintain the consistency of the data block existing in the cache memory in the system, a determination step of determining the data block for which the consistency retention is required, and the consistency maintenance by the determination step State change process that changes the state of the data blocks that need to be achieved, and the data that transfers the data at a certain opportunity It provides a method of controlling an information processing apparatus characterized by comprising: a sending step.

【0010】[0010]

【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0011】〈マルチプロセッサシステムの構成〉図1
は本発明を実現するためのシステムの第1のマルチプロ
セッサシステムの構成図である。
<Structure of Multiprocessor System> FIG. 1
FIG. 1 is a configuration diagram of a first multiprocessor system of a system for implementing the present invention.

【0012】10、15はプロセッサであり、各プロセ
ッサはプロセッサバス(12〜14、17〜19)を介
してキャッシュ・メモリ11、16に接続される。プロ
セッサバスは、コントロール信号線12、17、アドレ
ス信号線13、18、及びデータ信号線14、19から
成る。また、キャッシュ・メモリ11、16はシステム
バス(21、22、23)を介して主記憶20、及びキ
ャッシュ同志の間を接続され、主記憶20に反映させた
り等すると共に、バス上を流れるアドレス情報等をスヌ
ープしてキャッシュのメインテナンスを実施する。シス
テムバスは、コントロール信号線21、アドレス信号線
22、及びデータ信号線23から成る。バスアービタ2
4はシステム・バス(21、22、23)の利用権を調
停するためのものである。
Reference numerals 10 and 15 denote processors, and each processor is connected to the cache memories 11 and 16 via a processor bus (12 to 14, 17 to 19). The processor bus includes control signal lines 12 and 17, address signal lines 13 and 18, and data signal lines 14 and 19. Further, the cache memories 11 and 16 are connected between the main memory 20 and the caches via the system bus (21, 22, 23) to reflect them in the main memory 20 and the addresses flowing on the bus. Snoop information and perform cache maintenance. The system bus includes a control signal line 21, an address signal line 22, and a data signal line 23. Bus arbiter 2
Reference numeral 4 is for arbitrating the right to use the system bus (21, 22, 23).

【0013】図2は、図1におけるキャッシュ・メモリ
11、16の構成図である。
FIG. 2 is a block diagram of the cache memories 11 and 16 in FIG.

【0014】キャッシュの本体は、キャッシュ全体を制
御する制御論理100、タグメモリ101、データ・メ
モリ102、比較器103、バッファ104、プロセッ
サ・バスとのコントロール信号インタフェース105、
プロセッサ・バスとのアドレス信号インタフェース10
6、プロセッサ・バスとのデータ信号インタフェース1
07、システム・バスとのコントロール信号インタフェ
ース108、システム・バスとのアドレス信号インタフ
ェース109、システム・バスとのデータ信号インタフ
ェース110からなる。
The main body of the cache is a control logic 100 for controlling the entire cache, a tag memory 101, a data memory 102, a comparator 103, a buffer 104, a control signal interface 105 with a processor bus,
Address signal interface with processor bus 10
6. Data signal interface with processor bus 1
07, a control signal interface 108 with the system bus, an address signal interface 109 with the system bus, and a data signal interface 110 with the system bus.

【0015】タグ・メモリ101は、図3に示すように
キャッシュ・メモリ11、16中のデータ・ブロックの
タグとなるアドレス、及びその状態フラグを格納するメ
モリである。データ・メモリ102は、データ・ブロッ
クのデータそのものを格納するメモリである。比較器1
03はヒット或はミスをチェックする。
As shown in FIG. 3, the tag memory 101 is a memory for storing an address to be a tag of a data block in the cache memories 11 and 16 and its status flag. The data memory 102 is a memory that stores the data itself of the data block. Comparator 1
03 checks for hits or misses.

【0016】104はタグ・メモリから或はタグ・メモ
リへのリード或はライト時に用いるバッファである。1
05はプロセッサ・バスとのコントロール信号インタフ
ェースである。106はプロセッサ・バスとのアドレス
信号インタフェースである。107はプロセッサ・バス
とのデータ信号インタフェースである。108はシステ
ム・バスとのコントロール信号インタフェースである。
109はシステム・バスとのアドレス信号インタフェー
スである。110はシステム・バスとのデータ信号イン
タフェースである。
Reference numeral 104 is a buffer used when reading or writing from or to the tag memory. 1
Reference numeral 05 is a control signal interface with the processor bus. Reference numeral 106 is an address signal interface with the processor bus. 107 is a data signal interface with the processor bus. Reference numeral 108 is a control signal interface with the system bus.
Reference numeral 109 is an address signal interface with the system bus. Reference numeral 110 is a data signal interface with the system bus.

【0017】111はプロセッサ・バスのコントロール
信号インタフェース105と制御論理100間の信号線
である。112はシステム・バスのコントロール信号イ
ンタフェース108と制御論理100間の信号線であ
る。113、114、及び115はアドレス信号線であ
り、各々図4に示すタグ・フィールド(ビット0 から
ビット14の15ビット)、セット・フィールド(ビッ
ト15からビット26の12ビット)、及びブロック内
フィールド(ビット27からビット31の5ビット)が
出力される。116はデータ信号線である。117は制
御論理100とプロセッサ・バスのアドレス信号インタ
フェース106間の制御信号線であり、118は制御論
理100とプロセッサ・バスのデータ信号インタフェー
ス107間の制御信号線である。119は制御論理10
0が発するデータ・メモリ102のOE(:Outpu
t Enable)信号であり、120は同様にW
E(:Write Enable)信号である。121
は制御論理100が発するタグ・メモリ101のOE信
号であり、122は同様にWE信号である。123は制
御論理100が発するバッファ104の方向制御信号で
ある。125は比較器103の比較結果を制御論理10
0に通知する信号線である。126は制御論理100と
システム・バスのデータ信号インタフェース110間の
制御信号線であり、127は制御論理100とシステム
・バスのアドレス信号インタフェース109間の制御信
号線である。124はタグ・メモリ101に格納される
エントリの状態が流れる信号線である。
Reference numeral 111 is a signal line between the control signal interface 105 of the processor bus and the control logic 100. Reference numeral 112 is a signal line between the control signal interface 108 of the system bus and the control logic 100. Address signal lines 113, 114, and 115 are a tag field (bit 0 to bit 15 of bit 14), a set field (bit 15 to bit 26 of 12 bits), and an intra-block field shown in FIG. (5 bits from bit 27 to bit 31) are output. Reference numeral 116 is a data signal line. Reference numeral 117 is a control signal line between the control logic 100 and the processor bus address signal interface 106, and 118 is a control signal line between the control logic 100 and the processor bus data signal interface 107. 119 is control logic 10
OE (: Outpu of the data memory 102 issued by 0
t Enable signal, and 120 is also W
This is an E (: Write Enable) signal. 121
Is the OE signal of the tag memory 101 issued by the control logic 100 and 122 is also the WE signal. 123 is a direction control signal of the buffer 104 issued by the control logic 100. Reference numeral 125 indicates the comparison result of the comparator 103 as control logic 10
This is a signal line for notifying 0. Reference numeral 126 is a control signal line between the control logic 100 and the system bus data signal interface 110, and 127 is a control signal line between the control logic 100 and the system bus address signal interface 109. Reference numeral 124 is a signal line through which the state of the entry stored in the tag memory 101 flows.

【0018】なお、本実施形態におけるキャッシュ・メ
モリの構成は、4kエントリ、データ・ブロック・サイ
ズ32Bのダイレクト・マップ方式を採っているが、こ
の構成は本発明を制限するものではない。
The cache memory according to the present embodiment employs a direct map method with a 4k entry and a data block size of 32B, but this configuration does not limit the present invention.

【0019】本実施形態では、図1、図2に示すような
構成のシステムにおいて、その条件の下で、緩いメモリ
・コンシステンシ・モデルに適合したキャッシュメモリ
の制御方法に基づいて、キャッシュ・メモリの一貫性が
保証される例を示す。
In the present embodiment, in the system having the configuration as shown in FIGS. 1 and 2, under the condition, the cache memory is controlled based on the control method of the cache memory adapted to the loose memory consistency model. An example is shown in which the consistency of is guaranteed.

【0020】以下、本装置の動作を説明する。The operation of this apparatus will be described below.

【0021】図5に示す通り、本実施形態のシステムの
キャッシュ・メモリ11/16は、格納するデータ・ブ
ロックを以下の6状態で管理し、プロセッサからのアク
セス、或いはシステム・バス上に発行されるトランザク
ションに対して、各状態に応じた動作を行う。
As shown in FIG. 5, the cache memory 11/16 of the system of this embodiment manages the data blocks to be stored in the following six states, and is accessed by the processor or issued on the system bus. For each transaction, the operation according to each state is performed.

【0022】INVALID 無効であるステートである。即ち、そのエントリには有
効なデータ・ブロックが格納されていない。
INVALID This is an invalid state. That is, no valid data block is stored in that entry.

【0023】EXCLUSIVE−CLEAN 他のキャッシュ・メモリ中には格納されておらず、主記
憶との一貫性がとられているステートである。
EXCLUSIVE-CLEAN This state is not stored in any other cache memory and is consistent with the main memory.

【0024】SHARED−CLEAN 他のキャッシュ・メモリ中にも格納されている可能性が
あり、主記憶との一貫性がとられているステートであ
る。
SHARED-CLEAN This state may be stored in another cache memory and is consistent with the main memory.

【0025】EXCLUSIVE−DIRTY 他のキャッシュ・メモリ中には格納されておらず、内容
が書き換えられ、主記憶との一貫性が崩れており、かつ
その関連する処理が同期ポイントまで達していないステ
ートである。
EXCLUSIVE-DIRTY In a state where it is not stored in another cache memory, the contents are rewritten, the consistency with the main memory is broken, and the related processing has not reached the synchronization point. is there.

【0026】SHARED−DIRTY 他のキャッシュ・メモリ中にも格納されている可能性が
あり、内容が書き換えられ、主記憶との一貫性が崩れて
おり、かつその関連する処理が同期ポイントまで達して
いないステートである。
SHARED-DIRTY It may be stored in other cache memory, the contents have been rewritten, the consistency with the main memory has been lost, and the related processing has reached the synchronization point. There is no state.

【0027】RELEASED 他のキャッシュ・メモリ中には格納されておらず、内容
が書き換えられ、主記憶との一貫性が崩れており、かつ
その関連する処理が同期ポイントまで達しているステー
トである。
RELEASED It is a state in which the contents are not stored in the other cache memories, the contents are rewritten, the consistency with the main memory is lost, and the related processing reaches the synchronization point.

【0028】以下、本装置の動作を説明する。The operation of this apparatus will be described below.

【0029】以下に、プロセッサ10からのアクセスを
例にとって実施形態を説明するがこれに限定されるもの
ではない。プロセッサ15からのアクセスが発行される
場合も同様に処理される。
The embodiment will be described below by taking the access from the processor 10 as an example, but the present invention is not limited to this. The same processing is performed when an access is issued from the processor 15.

【0030】図6に、プロセッサ10からのアクセスに
起因した動作の流れ図を示す。ステップS1で、プロセ
ッサ10がアクセスを発行すると、プロセッサ・バスの
コントロール信号インタフェース105は出力されたコ
ントロール信号をデコードし、制御論理100に対し
て、プロセッサ10がアクセスを発行したことを通知
し、ステップS2で、同期アクセスか否か判断しプロセ
ッサがアクセスを発行したこと、及びアクセス属性(リ
ード/ライトアクセス・サイズ、同期アクセスであるか
否か等)を制御論理100に通知する。なお、本実施形
態のプロセッサ10は同期アクセスとして定義されたア
クセスを発行することができ、アクセス種を示すコント
ロール信号をデコードすることによって、発行されたア
クセスが同期アクセスであるか否かが判断できる。同期
アクセスとして定義されたアクセスを発行できないプロ
セッサを用いる場合には、キャッシュ・メモリ側でレジ
スタを備え、そのレジスタにアサインされたアドレスに
対しプロセッサがアクセスを発行する等して、キャッシ
ュ・メモリに同期アクセスの発行を通知する。
FIG. 6 shows a flow chart of the operation caused by the access from the processor 10. When the processor 10 issues an access in step S1, the control signal interface 105 of the processor bus decodes the output control signal and notifies the control logic 100 that the processor 10 has issued the access. In S2, the control logic 100 is notified of whether the processor has issued an access by judging whether it is a synchronous access or not, and the access attributes (read / write access size, whether it is a synchronous access, etc.). The processor 10 of the present embodiment can issue an access defined as a synchronous access, and by decoding a control signal indicating the access type, it can be determined whether the issued access is a synchronous access. . When using a processor that cannot issue an access defined as a synchronous access, the cache memory side has a register and the processor issues an access to the address assigned to that register to synchronize with the cache memory. Notify that access is issued.

【0031】なお、アクセスが同期アクセスでなかった
場合は、ステップS3〜ステップS6で示すようなキャ
ッシュ・メモリとしての一般的な動作を行う。
When the access is not the synchronous access, the general operation as the cache memory is performed as shown in steps S3 to S6.

【0032】ステップS3では、以下に説明する処理に
よりキャッシュ・アクセスが開始される。
In step S3, cache access is started by the processing described below.

【0033】制御論理100は制御信号線117を用い
て、プロセッサ・バスのアドレス信号インタフェース1
06にアドレスのキャッシュ・メモリ11内への出力を
指示する。プロセッサ・バスのアドレス信号インタフェ
ース106がアドレスを出力。アドレス信号線113に
タグ・フィールドを、アドレス線114にセット・フィ
ールドを、アドレス線115にブロック内フィールドを
出力する。制御論理100はタグ・メモリ101のOE
信号122をアサートする。プロセッサ10が発行した
アクセスがリード・アクセスであった場合は、データ・
メモリ102のOE信号119も同時にアサートする。
タグ・メモリ101はセット・フィールドで指されたエ
ントリの内容を出力する。
The control logic 100 uses the control signal line 117 to address the address signal interface 1 of the processor bus.
At 06, the output of the address to the cache memory 11 is instructed. The address signal interface 106 of the processor bus outputs the address. The tag field is output to the address signal line 113, the set field is output to the address line 114, and the in-block field is output to the address line 115. The control logic 100 is the OE of the tag memory 101.
Assert signal 122. If the access issued by the processor 10 is a read access, the data
The OE signal 119 of the memory 102 is also asserted at the same time.
Tag memory 101 outputs the content of the entry pointed to by the set field.

【0034】次に、ステップS4では、以下の処理によ
りキャッシュにヒットしたか否かが判断される。
Next, in step S4, it is determined whether or not the cache is hit by the following processing.

【0035】出力されたデータは、比較器103でタグ
・フィールドと比較され、比較の結果(一致/不一致)
が制御論理100に信号線124で伝えられる。伝えら
れた比較結果が一致であった場合はキャッシュ・ヒット
であり、ステップS5で、アクセスに対するサービスが
開始される。また、不一致であった場合はキャッシュ・
ミスであり、ステップS6で、キャッシュ・ミス処理が
行われる。
The output data is compared with the tag field in the comparator 103, and the comparison result (match / mismatch)
Are communicated to the control logic 100 on signal line 124. If the transmitted comparison result is a match, it means a cache hit, and the service for access is started in step S5. If there is a mismatch, cache /
This is a miss, and cache miss processing is performed in step S6.

【0036】比較器103から伝えられた比較結果が不
一致であった場合はキャッシュ・ミスであり、キャッシ
ュ・ミス処理が以下のように行われる。
When the comparison result transmitted from the comparator 103 does not match, it is a cache miss, and the cache miss process is performed as follows.

【0037】当該エントリの状態がINVALID(状
態値0b0xxx)、EXCLUSIVE−CLEAN
(0b1000)、またはSHARED−CLEAN
(0b1100)であった場合。制御論理100は信号
線112を用いて、システム・バスのコントロール信号
インタフェース108に対してシステム・バスの獲得を
指示する。
The state of the entry is INVALID (state value 0b0xxx), EXCLUSIVE-CLEAN.
(0b1000), or SHARED-CLEAN
When it is (0b1100). The control logic 100 uses signal line 112 to instruct the system bus control signal interface 108 to acquire the system bus.

【0038】システム・バスのコントロール信号インタ
フェース108はシステム・バスのコントロール信号線
21を用いて、バス・アービタ24に対してシステム・
バスの使用を要求する。バス・アービタ24は調停の
後、コントロール信号線21を用いてコントロール信号
インタフェース108に対してシステム・バスの使用を
許可する。コントロール信号インタフェース108は信
号線112を用いて、システム・バスが獲得できたこと
を制御論理100に通知する。制御論理100は信号線
127を用いて、システム・バスのアドレス信号インタ
フェース109に対して、システム・バス上へのアドレ
ス信号の出力を指示する。また、制御論理100は信号
線112を用いて、コントロール信号インタフェース1
08に対してリード・トランザクションの開始を指示す
る。アドレス信号インターフェイス109はシステム・
バスのアドレス信号線22にアドレスを出力し、コント
ロール信号インタフェース108はバス・プロトコルに
従って、リード・トランザクションを開始する。
The system bus control signal interface 108 uses the system bus control signal line 21 to send a system signal to the bus arbiter 24.
Request the use of the bus. After arbitration, the bus arbiter 24 permits the control signal interface 108 to use the system bus by using the control signal line 21. Control signal interface 108 uses signal line 112 to notify control logic 100 that the system bus has been acquired. Control logic 100 uses signal line 127 to instruct the system bus address signal interface 109 to output the address signal on the system bus. Further, the control logic 100 uses the signal line 112 to control the control signal interface 1
08 is instructed to start a read transaction. The address signal interface 109 is a system
The address is output to the address signal line 22 of the bus, and the control signal interface 108 starts the read transaction according to the bus protocol.

【0039】このとき他方のキャッシュ・メモリ11/
16では後述するスヌープ動作が行われ、自キャッシュ
・メモリ中にトランザクション対象のデータ・ブロック
が存在するか否か、後述するRELEASEDステート
のデータ・ブロックに対するスヌープ・ヒットに起因し
たライト・バック動作を行うか否かを、バス・プロトコ
ルに従ってコントロール信号線21上に提示する。主記
憶20は、ライト・バック処理が生じる場合はその完了
を待って、またそのような事象が生じない場合は速やか
に、リード・トランザクションに対するサービスを行
う。
At this time, the other cache memory 11 /
In 16, a snoop operation described later is performed, and whether or not there is a transaction target data block in its own cache memory, and a write back operation resulting from a snoop hit to a data block in the RELEASED state described later is performed. It is indicated on the control signal line 21 according to the bus protocol. The main memory 20 waits for the completion of the write-back processing when the write-back processing occurs, and promptly services the read transaction when such an event does not occur.

【0040】主記憶20はデータの準備が整うと、バス
・プロトコルに従って、コントロール信号線21を用い
てターミネーション動作に入る。コントロール信号イン
タフェース108はターミネーション動作の開始を信号
線112を用いて制御論理100に通知し、制御論理1
00は信号線126を用いて、システム・バスのデータ
信号インタフェース110に対して、データの取り込み
を指示する。データ信号インタフェース110はデータ
を取り込み、キャッシュ・メモリ11/16内のデータ
信号線116への当該データの出力を行う。それと同時
に制御論理100はデータ・メモリ102のWE信号1
20のアサートを行い、データを102へ書き込む。
When the main memory 20 is ready for data, it enters the termination operation using the control signal line 21 according to the bus protocol. The control signal interface 108 notifies the start of the termination operation to the control logic 100 using the signal line 112, and the control logic 1
00 uses a signal line 126 to instruct the data signal interface 110 of the system bus to take in data. The data signal interface 110 takes in the data and outputs the data to the data signal line 116 in the cache memory 11/16. At the same time, the control logic 100 outputs the WE signal 1 of the data memory 102.
Assert 20 and write data to 102.

【0041】また、制御論理100は信号線123を用
いてバッファ104の方向制御を行い、アドレスのタグ
・フィールドをタグ・メモリ101に対して出力し、ス
テータス信号を、当該データ・ブロックが他キャッシュ
・メモリ11/16中に存在しなかった場合はEXCL
USIVE−CLEAN、存在した場合はSHARED
−CLEANをエンコードしたものを101に対して出
力し、WE信号122を用いてタグ・メモリ101に書
き込む。
Further, the control logic 100 controls the direction of the buffer 104 by using the signal line 123, outputs the tag field of the address to the tag memory 101, and outputs the status signal to the other cache of the data block.・ EXCL if it does not exist in memory 11/16
USIVE-CLEAN, SHARED if present
-CLEAN encoded is output to 101 and written to tag memory 101 using WE signal 122.

【0042】当該エントリの状態がEXCLUSIVE
−DIRTY(状態値0b1010)、SHARED−
DIRTY(0b1110)、またはRELEASED
(0b1011)であった場合、上記とほぼ同様に、バ
ス・プロトコルに従って、システム・バス上にライト・
トランザクションを発行し、当該エントリ中のデータ・
ブロックを主記憶に書き戻す。その後、システム・バス
上にリード・トランザクションを発行し、主記憶から当
該データ・ブロックを読み出し、当該エントリに格納す
る。
The state of the entry is EXCLUSIVE
-DIRTY (state value 0b1010), SHARED-
DIRTY (0b1110) or RELEASED
If it is (0b1011), write to the system bus according to the bus protocol in the same manner as above.
Issue the transaction and
Write the block back to main memory. After that, a read transaction is issued on the system bus to read the data block from the main memory and store it in the entry.

【0043】なお、キャッシュ・ヒットしたデータ・ブ
ロックの状態がRELEASED(状態値0b101
1)であり、かつアクセスがライト・アクセスであった
場合、アクセスに対するサービスを行う前に、当該デー
タ・ブロックの主記憶20に対する書き戻しを行う。
It should be noted that the state of the data block having the cache hit is RELEASED (state value 0b101
If 1) and the access is a write access, the write-back of the data block to the main memory 20 is performed before the access is serviced.

【0044】次に、ステップS5の、アクセスに対する
サービス及びデータ・ブロックの状態更新について説明
する。
Next, the service update for access and the status update of the data block in step S5 will be described.

【0045】〔LOAD命令〕主記憶20からプロセッ
サ10にデータブロックを読み込むLOAD命令実行の
際の、キャッシュ11による制御手順を示したものであ
る。 (a)制御論理100はプロセッサ・バスのデータ信号
インタフェース107に対して、制御信号線118を用
いて、アドレスのブロック内フィールドで指されるデー
タの、プロセッサ・バスのデータ信号線14への出力を
指示する。 (b)制御論理100はプロセッサ・バスのコントロー
ル信号インタフェース105に対して、制御信号線11
1を用いて、アクセスのターミネートを指示する。 (c)プロセッサ・バスのデータ信号インタフェース1
07はデータ信号線14へデータを出力し、コントロー
ル信号インタフェース105はアクセスをターミネート
する。 (d)プロセッサ10はデータを受けとる。
[LOAD instruction] This shows a control procedure by the cache 11 when executing a LOAD instruction for reading a data block from the main memory 20 to the processor 10. (A) The control logic 100 uses the control signal line 118 to the data signal interface 107 of the processor bus to output the data pointed to by the field in the block of the address to the data signal line 14 of the processor bus. Instruct. (B) The control logic 100 supplies the control signal line 11 to the control signal interface 105 of the processor bus.
Use 1 to indicate termination of access. (C) Processor bus data signal interface 1
07 outputs data to the data signal line 14, and the control signal interface 105 terminates the access. (D) The processor 10 receives data.

【0046】〔STORE命令〕STORE命令実行の
際の、キャッシュ11による制御手順を示したものであ
る。 (a)制御論理100はプロセッサ・バスのデータ信号
インタフェース107に対して、制御信号線118を用
いて、プロセッサ・バスのデータ信号線14/19上の
データのキャッシュ・メモリ11/16内のデータ信号
線116への出力を指示する。データ信号インタフェー
ス107はデータ信号線116上へデータを出力する。 (b)制御論理100はアドレスのブロック内フィール
ドで指されている部分の、データ・メモリ102に対す
るWE信号120をアサートし、当該データ・ブロック
の更新を行う。 (c)制御論理100は信号線124上に、元のステー
トがEXCLUSIVE−CLEANまたはRELEA
SEDであった場合はEXCLUSIVE−DIRT
Y、元のステートがSHARED−CLEANであった
場合はSHARED−DIRTYをエンコードしたもの
を出力し、タグ・メモリ101のWE信号122をアサ
ートすることで、当該データ・ブロックの状態の更新を
行う。
[STORE Command] This shows the control procedure by the cache 11 when the STORE command is executed. (A) The control logic 100 uses the control signal line 118 to the data signal interface 107 of the processor bus to store the data on the data signal line 14/19 of the processor bus in the cache memory 11/16. The output to the signal line 116 is instructed. The data signal interface 107 outputs data onto the data signal line 116. (B) The control logic 100 asserts the WE signal 120 to the data memory 102 in the portion pointed to by the in-block field of the address, and updates the data block. (C) The control logic 100 has the original state of EXCLUSIVE-CLEAN or RELEA on the signal line 124.
EXCLUSIVE-DIRT if SED
Y, if the original state is SHARED-CLEAN, an encoded SHARED-DIRTY is output, and the WE signal 122 of the tag memory 101 is asserted to update the state of the data block.

【0047】次に、ステップS2で、アクセスが同期ア
クセスであった場合は、以下のような動作を行う。
Next, if the access is a synchronous access in step S2, the following operation is performed.

【0048】ステップS7では、DIRTYブロック・
シークを開始する。
In step S7, the DIRTY block
Start seeking.

【0049】(1)制御論理100は、セット・フィー
ルドに対応するアドレス線114に値0x000を出力
し、同時にタグ・メモリ101のOE信号121をアサ
ートし、また制御信号123を用いて、バッファ104
の方向制御を行い、タグ・メモリ101から出力される
タグ・データがタグ・フィールドに対応するアドレス線
113に出力されるようにしておく。これと同時に制御
論理100は、データ・メモリ102のOE信号119
をアサートしておく。
(1) The control logic 100 outputs the value 0x000 to the address line 114 corresponding to the set field and at the same time asserts the OE signal 121 of the tag memory 101, and also uses the control signal 123 to buffer 104.
Direction control is performed so that the tag data output from the tag memory 101 is output to the address line 113 corresponding to the tag field. At the same time, the control logic 100 operates the OE signal 119 of the data memory 102.
Is asserted.

【0050】ステップS8では、DIRTYブロックで
あるか否か判断し、DIRTYブロックでなければステ
ップS12の処理に移る。ステップS8で、DIRTY
ブロックであると判断された場合ステップS9の処理に
移る。
In step S8, it is determined whether or not it is a DIRTY block. If it is not a DIRTY block, the process proceeds to step S12. In step S8, DIRTY
If it is determined that the block is a block, the process proceeds to step S9.

【0051】(2)ステップS9では、制御論理100
は、タグ・メモリ101から出力されるデータ・ブロッ
クの状態値を判断し、タグ・メモリ101から出力され
るデータ・ブロックの状態値(Vフラグ、Sフラグ、D
フラグ、及びRフラグ、124)が0b1010(EX
CLUSIVE−DIRTY)、または0b1110
(SHARED−DIRTY)であった場合は、ステッ
プS10に処理を移し、各々以下のように動作を行う。
(2) In step S9, the control logic 100
Determines the state value of the data block output from the tag memory 101, and outputs the state value of the data block output from the tag memory 101 (V flag, S flag, D
Flag and R flag, 124) is 0b1010 (EX
CLUSIVE-DIRTY), or 0b1110
If it is (SHARED-DIRTY), the process is moved to step S10, and the operation is performed as follows.

【0052】なお、ステップS9で、制御論理100
は、タグ・メモリ101から出力されるデータ・ブロッ
クの状態値が0b0xxx(INVALID)、0b1
000(EXCLUSIVE−CLEAN)、0b11
00(SHARED−CLEAN)、及び0b1011
(RELEASED)と判断されたときには何も特別な
動作は行わず、次データ・ブロックのチェックに移る。
In step S9, the control logic 100
Indicates that the status value of the data block output from the tag memory 101 is 0b0xxx (INVALID), 0b1.
000 (EXCLUSIVE-CLEAN), 0b11
00 (SHARERED-CLEAN), and 0b1011
When it is determined to be (RELEASED), no special operation is performed and the process moves to the check of the next data block.

【0053】EXCLUSIVE−DIRTY(0b1
010)時 制御論理100はタグ・メモリ101のOE信号121
をネゲートし、信号線124上にRELEASEDステ
ートを示す新たな状態値0b1011を出力し、タグ・
メモリ101のWE信号122をアサートすることで、
これをタグ・メモリ101の当該エントリ中に書き込
む。
EXCLUSIVE-DIRTY (0b1
010) time, the control logic 100 outputs the OE signal 121 of the tag memory 101.
, A new state value 0b1011 indicating the RELEASED state is output on the signal line 124, and the tag
By asserting the WE signal 122 of the memory 101,
This is written in the relevant entry of the tag memory 101.

【0054】SHARED−DIRTY(0b111
0)時 ライト・バック処理とデータ・ブロックの状態の更新
を、以下のように行う。
SHARED-DIRTY (0b111
0) hour Write back processing and updating of the state of the data block are performed as follows.

【0055】制御論理100は信号線112を用いて、
システム・バスのコントロール信号インタフェース10
8に対してシステム・バスの獲得を指示する。コントロ
ール信号インタフェース108はシステム・バスのコン
トロール信号線21を用いて、バス・アービタ24に対
してシステム・バスの使用を要求する。バス・アービタ
24は調停の後、コントロール信号線21を用いてコン
トロール信号インタフェース108に対してシステム・
バスの使用を許可する。コントロール信号インタフェー
ス108は信号線112を用いて、システム・バスが獲
得できたことを制御論理100に通知する。制御論理1
00は信号線127を用いて、システム・バスのアドレ
ス信号インタフェース109に対して、システム・バス
上へのアドレス信号の出力を指示し、信号線126を用
いて、システム・バスのデータ信号インタフェース11
0に対して、システム・バス上へのデータ信号の出力を
指示する。
Control logic 100 uses signal line 112 to
System bus control signal interface 10
8 is instructed to acquire the system bus. The control signal interface 108 requests the bus arbiter 24 to use the system bus by using the control signal line 21 of the system bus. After arbitration, the bus arbiter 24 uses the control signal line 21 to send the system signal to the control signal interface 108.
Allow bus use. Control signal interface 108 uses signal line 112 to notify control logic 100 that the system bus has been acquired. Control logic 1
00 uses the signal line 127 to instruct the address signal interface 109 of the system bus to output the address signal on the system bus, and the signal line 126 uses the data signal interface 11 of the system bus.
0 is instructed to output the data signal on the system bus.

【0056】また、ステップS10では、制御論理10
0は信号線112を用いて、コントロール信号インタフ
ェース108に対してライト・トランザクションの開始
を指示する。アドレス信号インターフェイス109はシ
ステム・バスのアドレス信号線22にアドレスを出力
し、またデータ信号インターフェイス110はシステム
・バスのデータ信号線23にデータを出力し、コントロ
ール信号インターフェイス108はバス・プロトコルに
従って、ライト・トランザクションを開始する。
In step S10, the control logic 10
0 uses the signal line 112 to instruct the control signal interface 108 to start a write transaction. The address signal interface 109 outputs an address to the address signal line 22 of the system bus, the data signal interface 110 outputs data to the data signal line 23 of the system bus, and the control signal interface 108 writes according to the bus protocol. -Start a transaction.

【0057】このとき他方のキャッシュ・メモリ11/
16では後述するスヌープ動作が行われる。主記憶20
はライト・トランザクションに対するサービスを行い、
ターミネーション動作に入る。
At this time, the other cache memory 11 /
At 16, a snoop operation described later is performed. Main memory 20
Services write transactions,
Enter the termination operation.

【0058】コントロール信号インターフェイス108
はターミネーション動作の開始を信号線112を用いて
制御論理100に通知し、制御論理100は制御信号線
127及び126を用いて、アドレス信号インターフェ
イス109及びデータ信号インターフェイス110に対
してアドレス及びデータのシステム・バス上への出力を
止めさせる。
Control signal interface 108
Notifies the start of the termination operation to the control logic 100 via signal line 112, which uses control signal lines 127 and 126 to address and data system 110 to address signal interface 109 and data signal interface 110. -Stop the output on the bus.

【0059】また制御論理100はタグ・メモリ101
のOE信号121をネゲートし、信号線124上にEX
CLUSIVE−CLEANステートを示す新たな状態
値0b1000を出力し、タグ・メモリ101のWE信
号122をアサートすることで、これをタグ・メモリ1
01の当該エントリ中に書き込む。
The control logic 100 is also a tag memory 101.
Negate the OE signal 121 of the
This is output by outputting a new state value 0b1000 indicating the CLUSIVE-CLEAN state and asserting the WE signal 122 of the tag memory 101.
Write in the corresponding entry of 01.

【0060】ステップS12では、全ブロックのシーク
が完了したか否か判断し、完了していなと判断された場
合、以上の動作をセット・フィールドを0x001単位
でインクリメントして、0xfffまで繰返し、シーク
動作を完了させる。
In step S12, it is judged whether or not the seek of all blocks is completed. If it is judged that the seek is not completed, the above operation is repeated by incrementing the set field by 0x001 unit to 0xfff, and seeking is performed. Complete the operation.

【0061】ステップS12で、全データ・ブロックの
シーク動作が完了したと判断された場合、制御論理10
0は信号線111を用いて、プロセッサ・バスのコント
ロール信号インタフェース105に対して、プロセッサ
10/15が発行している同期アクセスのターミネート
を指示し、コントロール信号インタフェース105はア
クセスのターミネートを行う。(ステップS14) なお一方、上記のようにして一方のキャッシュ・メモリ
11/16からシステム・バス上に発行されるリード・
トランザクションやライト・トランザクションに対し
て、他方のキャッシュ・メモリ16/11はそれをスヌ
ープし、以下のような動作を行う。
If it is determined in step S12 that the seek operation for all data blocks has been completed, the control logic 10
0 uses the signal line 111 to instruct the control signal interface 105 of the processor bus to terminate the synchronous access issued by the processor 10/15, and the control signal interface 105 terminates the access. (Step S14) On the other hand, a read command issued from the one cache memory 11/16 to the system bus as described above.
For the transaction or write transaction, the other cache memory 16/11 snoops it and performs the following operation.

【0062】図7に動作フローを示す。FIG. 7 shows an operation flow.

【0063】ステップS21で、システム・バスのコン
トロール信号インタフェース108は、システム・バス
上にトランザクションが発行されたことを検出すると、
信号線112を用いて制御論理100に通知する。
In step S21, when the system bus control signal interface 108 detects that a transaction has been issued on the system bus,
The control logic 100 is notified using signal line 112.

【0064】制御論理100は、信号線127を用い
て、システム・バスのアドレス信号インタフェース10
9に対して、システム・バス上に出力されているアドレ
スのキャッシュ・メモリ内への出力を指示する。アドレ
ス信号インタフェース109はアドレス線114にセッ
ト・フィールド対応部分を、またアドレス線113にタ
グ・フィールド対応部分を出力する。
The control logic 100 uses the signal line 127 to address the system bus address signal interface 10.
9 is instructed to output the address output on the system bus into the cache memory. The address signal interface 109 outputs the set field corresponding portion to the address line 114 and the tag field corresponding portion to the address line 113.

【0065】制御論理100はタグ・メモリ101のO
E信号121をアサートする。タグ・メモリ101はセ
ット・フィールドで指されたエントリの内容を出力す
る。ステップS22で、出力された内容のうちのタグ・
データは比較器103において、アドレスのタグ・フィ
ールドと比較され、比較結果(一致/不一致)が信号線
125により、100に通知される。また、当該エント
リの状態値は信号線124で制御論理100に伝えられ
る。
The control logic 100 is the O of the tag memory 101.
Assert the E signal 121. Tag memory 101 outputs the content of the entry pointed to by the set field. In step S22, the tag of the contents output
The data is compared with the tag field of the address in the comparator 103, and the comparison result (match / mismatch) is notified to the signal line 100 through the signal line 125. The status value of the entry is also transmitted to the control logic 100 via the signal line 124.

【0066】ステップS22で、ヒットしなかった場
合、即ち、制御論理100は比較器103からの比較結
果が不一致であった場合、即ちシステム・バス上に発行
されているトランザクション対象が自キャッシュ・メモ
リ中に格納されていなかった場合、ステップS26へ処
理を移し、何も行わず、ここでこの一連の動作は終了す
る。
In step S22, if there is no hit, that is, if the comparison result from the comparator 103 does not match, that is, if the transaction object issued on the system bus is the own cache memory. If not stored therein, the process proceeds to step S26, nothing is performed, and this series of operations ends here.

【0067】ステップS22でヒットした場合、即ち、
比較器103からの比較結果が一致であった場合は、ス
テップS23で、トランザクションがリードであるかラ
イトであるか、また当該データ・ブロックの状態によっ
て、以下のような動作を行う。
If hit in step S22, that is,
If the comparison result from the comparator 103 is a match, the following operation is performed in step S23 depending on whether the transaction is a read or a write and the state of the data block.

【0068】以下に、リード・トランザクション時につ
いてステップS23からステップS26を用いて説明す
る。
The read transaction will be described below with reference to steps S23 to S26.

【0069】当該データ・ブロックがSHARED−C
LEAN(状態値0b1100)、SHARED−DI
RTY(0b1110)であった場合は、ステップS2
6に処理を移し、何も行わず、ここでこの一連の動作は
終了する。EXCLUSIVE−CLEAN(0b10
00)であった場合は、状態をSHARED−CLEA
N(0b1100)に、EXCLUSIVE−DIRT
Y(0b1010)であった場合は、状態をSHARE
D−DIRTY(0b1110)に、前述の場合と全く
同様に変更する。RELEASED(0b1011)で
あった場合は、ステップS24に処理を移し、システム
・バス上に発行されているトランザクションを一旦止め
て、当該データ・ブロックのライト・トランザクション
を、バス・プロトコルに従って、前述の場合と全く同様
に発行する。
If the data block is SHARED-C
LEAN (state value 0b1100), SHARED-DI
If it is RTY (0b1110), step S2
The processing is moved to 6 and nothing is performed, and this series of operations ends here. EXCLUSIVE-CLEAN (0b10
00), the status is SHARED-CLEA.
EXCLUSIVE-DIRT to N (0b1100)
If Y (0b1010), the status is SHARE
Change to D-DIRTY (0b1110) in exactly the same way as in the above case. If it is RELEASED (0b1011), the process is moved to step S24, the transaction issued on the system bus is temporarily stopped, and the write transaction of the data block is executed according to the bus protocol in the above-mentioned case. Issue exactly the same as.

【0070】ライト・トランザクション完了後、ステッ
プS25で、当該データ・ブロックの状態をSHARE
D−CLEAN(0b1100)に変更する。なお当該
データ・ブロックは主記憶20に書き戻され、再び発行
される該リード・トランザクションは20によりサービ
スが行われる。
After the write transaction is completed, the state of the data block is changed to SHARE in step S25.
Change to D-CLEAN (0b1100). The data block is written back to the main memory 20, and the read transaction issued again is served by 20.

【0071】ライト・トランザクション時について、以
下に説明する ライト・トランザクションに対しては、原理的にSHA
RED−CLEAN(状態値0b1100)またはSH
ARED−DIRTY(0b1110)でしか、この状
況は起こり得ない。
At the time of a write transaction, SHA is basically applied to the write transaction described below.
RED-CLEAN (state value 0b1100) or SH
Only with ARED-DIRTY (0b1110) can this situation occur.

【0072】SHARED−CLEANであった場合
は、状態をINVALID(0b0xxx)にすること
で、無効化処理を行う。またSHARED−DIRTY
の場合も同様に無効化処理を行うが、このような状況は
本装置においては規約違反である。
If it is SHARED-CLEAN, the invalidation processing is performed by setting the state to INVALID (0b0xxx). SHARED-DIRTY
In the case of, the invalidation process is performed in the same manner, but such a situation is a violation of the convention in this device.

【0073】(第2の実施形態)図8に本発明を実現す
るための第2の実施形態のキャッシュ・メモリ中のデー
タ・ブロックの状態遷移図を示す。
(Second Embodiment) FIG. 8 shows a state transition diagram of a data block in a cache memory according to a second embodiment for realizing the present invention.

【0074】システムの構成等は前出のものと全く同じ
であるので説明を省略する。
Since the system configuration and the like are exactly the same as those described above, description thereof will be omitted.

【0075】動作は図8に従ったものとなるが、プロセ
ッサが同期アクセスを発行した際に、SHARED−D
IRTYステートのデータ・ブロックに関して、システ
ム・バス上にデータを伴わない無効化トランザクション
を発行し、ステートをRELEASEDステートに変更
する点が、第1の実施形態とは異なる点であり、したが
ってあるプロセッサが同期アクセスを発行した際には、
そのプロセッサに付随するキャッシュ・メモリからは無
効化トランザクションが発行され、その時点では主記憶
は更新されない点が第1の実施形態とは異なる。
The operation is according to FIG. 8, but when the processor issues a synchronous access, SHARED-D
It differs from the first embodiment in that an invalidation transaction with no data is issued on the system bus and the state is changed to the RELEASED state with respect to the data block in the IRTY state. When issuing synchronous access,
This differs from the first embodiment in that an invalidation transaction is issued from the cache memory attached to the processor, and the main memory is not updated at that time.

【0076】図9に第3の実施形態のキャッシュ・メモ
リ中のデータ・ブロックの状態遷移図を示す。
FIG. 9 shows a state transition diagram of data blocks in the cache memory of the third embodiment.

【0077】システムの構成等は前出のものと全く同じ
であるので説明を省略する。
Since the system configuration and the like are exactly the same as those described above, description thereof will be omitted.

【0078】動作としては、プロセッサが同期アクセス
を発行した際に、SHARED−DIRTYステートの
データ・ブロックに関して、主記憶の更新を行う際に、
同時に他キャッシュ・メモリ中の当該データ・ブロック
の更新も行う点が第3の実施形態の特徴である。
As an operation, when the processor issues a synchronous access and updates the main memory for the data block in the SHARED-DIRTY state,
A feature of the third embodiment is that the data block in another cache memory is updated at the same time.

【0079】以上説明したように、RELEASEDス
テート、即ちそのデータ・ブロックに関するプロセッサ
の処理が予め定めた同期のポイントに達している状態を
データ・ブロックの状態の1つとして定義し、RELE
ASEDステート以外のステートのデータ・ブロックを
対象とした、キャッシュ・ミス処理に伴う相互結合網上
のトランザクションに対して、その時点での一貫性保持
動作が入らないように制御、動作させることにより、緩
いメモリ・コンシステンシ・モデルを採る情報処理装置
において不要な一貫性保持動作が省かれ、キャッシュ・
ミス処理時の遅延を小さくし、システム性能の向上を図
ることができる。
As described above, the RELEASED state, that is, the state in which the processing of the processor for the data block has reached a predetermined synchronization point is defined as one of the states of the data block, and
By controlling and operating the transaction on the interconnection network associated with the cache miss processing for the data blocks in the states other than the ASED state so that the coherency holding operation at that time does not enter, In the information processing device that adopts the loose memory consistency model, unnecessary consistency maintaining operation is omitted, and cache
It is possible to reduce the delay at the time of miss processing and improve the system performance.

【0080】また、プロセッサの処理が予め定めた同期
のポイントに達した時点で、キャッシュ・メモリ内に存
在する全てのデータ・ブロックをチェックし、そのステ
ートがEXCLUSIVE−DIRTYステート、即ち
他キャッシュ・メモリ中には当該データ・ブロックが格
納されておらず、主記憶との一貫性が崩れている状態の
データ・ブロックに関しては、そのステートRELEA
SEDに変え、当該データ・ブロックを対象とするトラ
ンザクションが相互結合網上に発行された際には、当該
データ・ブロックをもってサービス動作を行うように
し、またそのステートがSHARED−DIRTYステ
ート、即ち他キャッシュ・メモリ中にも当該データ・ブ
ロックが格納されている可能性があり、主記憶との一貫
性が崩れている状態のデータ・ブロックに関しては、第
1の実施形態においては、主記憶を更新し、他キャッシ
ュ・メモリ中に存在する当該データ・ブロックは無効化
する。
Further, when the processing of the processor reaches a predetermined synchronization point, all the data blocks existing in the cache memory are checked, and the state is EXCLUSIVE-DIRTY state, that is, another cache memory. If the data block is not stored inside and the data block is inconsistent with the main memory, its state is RELEA.
Instead of SED, when a transaction targeting the data block is issued on the interconnection network, the data block is used to perform the service operation, and the state is the SHARED-DIRTY state, that is, another cache. -In the first embodiment, the main memory is updated for the data block in a state where the data block may be stored in the memory and the consistency with the main memory is lost. , The data block existing in another cache memory is invalidated.

【0081】第2の実施形態においては、同期時点での
主記憶の更新は行わず、他キャッシュ・メモリ中に存在
する当該データ・ブロックは無効化する。当該データ・
ブロックを対象とするトランザクションが相互結合網上
に発行された際には、当該データ・ブロックをもってサ
ービス動作を行うようにする。
In the second embodiment, the main memory is not updated at the time of synchronization, and the data block existing in the other cache memory is invalidated. The data
When a transaction for a block is issued on the interconnection network, the service operation is performed using the data block.

【0082】第3の実施例においては、主記憶を更新
し、他キャッシュ・メモリ中に存在する当該データ・ブ
ロックの更新も行う。
In the third embodiment, the main memory is updated and the data block existing in the other cache memory is also updated.

【0083】以上の動作を行うことによって、その時点
で非共有データ・ブロックであるEXCLUSIVE−
DIRTYステートのデータ・ブロックに関しては、状
態を変えるという比較的低コストな方法で、自ら書き換
えたデータをシステムに対して開放し、同期ポイント時
点でのオーバヘッドを軽減でき、システム性能の向上を
図ることができ、また、その時点で共有データ・ブロッ
クであるSHARED−DIRTY ステートのデータ
・ブロックに関しては、他キャッシュ・メモリにおける
当該データ・ブロックの以降の利用頻度等を鑑みて、最
低コストであるが他キャッシュ・メモリにおけるヒット
率も最低となることが予想される第2の実施形態の方
法、高コストであるが他キャッシュ・メモリにおけるヒ
ット率は保たれる。
By performing the above operation, EXCLUSIVE- which is a non-shared data block at that time
For DIRTY state data blocks, a relatively low-cost method of changing the state is used to release the data that has been rewritten by itself to the system and reduce the overhead at the synchronization point, thus improving system performance. In addition, a SHARED-DIRTY state data block that is a shared data block at that time has the lowest cost in consideration of the frequency of subsequent use of the data block in another cache memory, etc. The method of the second embodiment, in which the hit rate in the cache memory is also expected to be the lowest, has a high cost, but the hit rate in the other cache memory is maintained.

【0084】第3の実施形態の方法、また、コストは第
3の実施形態の方法と変わらず、そのキャッシュ・メモ
リにおいて不要なデータ・ブロックを結果的に排除する
効果のある第1の実施形態の方法、或いはそれらの派生
手法を適時選択することにより、同期ポイント時点及び
同期ポイント以降のオーバヘッドを軽減でき、システム
性能の向上を図ることができる。
The method of the third embodiment is the same as the method of the third embodiment in cost, and the first embodiment is effective in eliminating unnecessary data blocks in the cache memory as a result. By appropriately selecting the above method or a derivative method thereof, it is possible to reduce the overhead at and after the synchronization point, and improve the system performance.

【0085】[0085]

【発明の効果】以上説明したように、本発明によれば、
緩いメモリ・コンシステンシ・モデルに基づいた動作を
行う情報処理装置において不要な一貫性保持動作が省か
れ、キャッシュ・ミス処理時の遅延を小さくし、システ
ム性能の向上を図ることができる。また、非共有データ
・ブロックであるEXCLUSIVE−DIRTYステ
ートのデータ・ブロックに関しては、状態を変えるとい
う比較的低コストな方法で、自ら書き換えたデータをシ
ステムに対して開放し、同期ポイント時点でのオーバヘ
ッドを軽減でき、システム性能の向上を図ることができ
る。
As described above, according to the present invention,
In the information processing device that operates based on the loose memory consistency model, unnecessary coherency holding operation is omitted, the delay at cache miss processing can be reduced, and the system performance can be improved. In addition, regarding the EXCLUSIVE-DIRTY state data block, which is a non-shared data block, the rewritten data is released to the system by a relatively low-cost method of changing the state, and the overhead at the synchronization point Can be reduced and the system performance can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実現するためのシステム構成図であ
る。
FIG. 1 is a system configuration diagram for implementing the present invention.

【図2】本発明を実現するための第1の実施形態のキャ
ッシュ・メモリの構成図である。
FIG. 2 is a configuration diagram of a cache memory according to the first embodiment for realizing the present invention.

【図3】タグ・メモリ・エントリのフィールド構成図で
ある。
FIG. 3 is a field configuration diagram of a tag memory entry.

【図4】本装置のアドレスのフィールド構成図である。FIG. 4 is a field configuration diagram of an address of this device.

【図5】第1の実施形態のキャッシュ・メモリ中のデー
タ・ブロック状態遷移図である。
FIG. 5 is a data block state transition diagram in the cache memory according to the first embodiment.

【図6】第1の実施形態におけるプロセッサのアクセス
発行に起因したキャッシュ・メモリの動作流れ図であ
る。
FIG. 6 is an operation flow chart of the cache memory caused by access issuance by the processor in the first embodiment.

【図7】バス・トランザクションに起因したキャッシュ
・メモリの動作流れ図である。
FIG. 7 is an operational flow diagram of a cache memory resulting from a bus transaction.

【図8】第2の実施形態のキャッシュ・メモリ中のデー
タ・ブロックの状態遷移図である。
FIG. 8 is a state transition diagram of data blocks in the cache memory according to the second embodiment.

【図9】第3の実施形態のキャッシュ・メモリ中のデー
タ・ブロック状態遷移図である。
FIG. 9 is a data block state transition diagram in the cache memory according to the third embodiment.

【符号の説明】[Explanation of symbols]

10、15 プロセッサ 11、16 キャッシュ・メモリ 12、17 プロセッサ・バスのコントロール信号線 13、18 プロセッサ・バスのアドレス信号線 14、19 プロセッサ・バスのデータ信号線 20 主記憶 21 システム・バスのコントロール信号線 22 システム・バスのアドレス信号線 23 システム・バスのデータ信号線 24 システム・バスのバス・アービタ 100 キャッシュ・メモリの制御論理 101 タグ・メモリ 102 データ・メモリ 103 比較器 104 バッファ 105 プロセッサ・バスとのコントロール信号インタ
フェース 106 プロセッサ・バスとのアドレス信号インタフェ
ース 107 プロセッサ・バスとのデータ信号インタフェー
ス 108 システム・バスとのコントロール信号インタフ
ェース 109 システム・バスとのアドレス信号インタフェー
ス 110 システム・バスとのデータ信号インタフェース 111、112 信号線 113、114、115 はアドレス信号線 116 データ信号線 117、118 は制御信号線 119 データ・メモリのOE信号線 120 データ・メモリのWE信号線 121 タグ・メモリのOE信号線 122 タグ・メモリのWE信号線 123 制御信号線 124、125 信号線 126、127 制御信号線
10, 15 processor 11, 16 cache memory 12, 17 processor bus control signal line 13, 18 processor bus address signal line 14, 19 processor bus data signal line 20 main memory 21 system bus control signal Line 22 System Bus Address Signal Line 23 System Bus Data Signal Line 24 System Bus Bus Arbiter 100 Cache Memory Control Logic 101 Tag Memory 102 Data Memory 103 Comparator 104 Buffer 105 Processor Bus and Control signal interface 106 with address signal interface with processor bus 107 data signal interface with processor bus 108 control signal interface with system bus 109 Address signal interface with system bus 110 Data signal interface with system bus 111, 112 Signal lines 113, 114, 115 are address signal lines 116 Data signal lines 117, 118 are control signal lines 119 OE signal lines of data memory 120 WE signal line of data memory 121 OE signal line of tag memory 122 WE signal line of tag memory 123 Control signal line 124, 125 Signal line 126, 127 Control signal line

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 複数のプロセッサ、各プロセッサに付随
する複数のキャッシュ・メモリ、記憶装置、及び各キャ
ッシュ・メモリと記憶装置とを相互に接続する結合網を
備え、 各プロセッサの処理が予め定めた段階に達した時点での
み、付随するキャッシュ・メモリ中に存在するデータ・
ブロックのシステムにおける一貫性保持を図ることを特
徴とする情報処理装置であって、 前記キャッシュ・メモリ中に存在するデータ・ブロック
のシステムにおける一貫性保持を図る際に、一貫性保持
を図る必要があるデータ・ブロックを判別する判別手段
と、 該判別手段により一貫性保持を図る必要があるデータ・
ブロックに関して状態変更を行う状態変更手段と、 ある契機においてデータ転送を行うデータ転送手段と、 を有することを特徴とする情報処理装置。
1. A processor comprising: a plurality of processors; a plurality of cache memories attached to each processor; a storage device; and a coupling network interconnecting each cache memory and the storage device, wherein the processing of each processor is predetermined. Only when the stage is reached is the data present in the associated cache memory
An information processing device, characterized in that the consistency of a block system is maintained in a system, wherein the consistency of the data block existing in the cache memory is required to be maintained in the system. Discriminating means for discriminating a certain data block and data for which it is necessary to maintain consistency by the discriminating means.
An information processing apparatus comprising: a state changing unit that changes a state of a block; and a data transfer unit that transfers data at a certain trigger.
【請求項2】 前記判別手段は、データブロックの状態
により判別することを特徴とする請求項1に記載の情報
処理装置。
2. The information processing apparatus according to claim 1, wherein the determination unit makes a determination based on a state of a data block.
【請求項3】 前記判別手段に、前記プロセッサの処理
が予め定めた段階に達しているか否かを判断し、各キャ
ッシュ・メモリ中に存在するデータ・ブロックのシステ
ムにおける一貫性保持を図る手段を、一貫性保持を図る
段階において専有状態にあるデータ・ブロックに関して
は、状態管理によって行うことを特徴とする請求項1に
記載の情報処理装置。
3. The determining means includes means for determining whether or not the processing of the processor has reached a predetermined stage and for maintaining the consistency of the data blocks existing in each cache memory in the system. 2. The information processing apparatus according to claim 1, wherein the data block in the exclusive state at the stage of maintaining the consistency is performed by the state management.
【請求項4】 プロセッサの処理が予め定めた段階に達
したことを、プロセッサが付随するキャッシュ・メモリ
に知らせる手段として、プロセッサが発行した要求の種
別によって判別する機能をキャッシュ・メモリ中に設け
ることを特徴とする請求項1及至請求項3に記載情報処
理装置。
4. The cache memory is provided with a function of determining the type of request issued by the processor as means for informing the cache memory attached to the processor that the processing of the processor has reached a predetermined stage. The information processing apparatus according to any one of claims 1 to 3, wherein:
【請求項5】プロセッサの処理が予め定めた段階に達し
たことを、プロセッサが付随するキャッシュ・メモリに
知らせる手段として、プロセッサが発行したアドレスに
よって判別する機能をキャッシュ・メモリ中に設けるこ
とを特徴とする請求項1及至請求項3に記載の情報処理
装置。
5. The cache memory is provided with a function of discriminating based on an address issued by the processor as means for notifying a cache memory attached to the processor that the processing of the processor has reached a predetermined stage. The information processing apparatus according to claim 1, wherein:
【請求項6】 前記情報処理装置は緩いメモリ・コンシ
ステンシ・モデルに基づいた動作を行うことを特徴とす
る請求項1及至請求項5に記載の情報処理装置。
6. The information processing apparatus according to claim 1, wherein the information processing apparatus operates based on a loose memory consistency model.
【請求項7】 複数のプロセッサ、各プロセッサに付随
する複数のキャッシュ・メモリ、記憶装置、及び各キャ
ッシュ・メモリと記憶装置とを相互に接続する結合網を
備え、 各プロセッサの処理が予め定めた段階に達した時点での
み、付随するキャッシュ・メモリ中に存在するデータ・
ブロックのシステムにおける一貫性保持を図ることを特
徴とする情報処理装置の制御方法であって、 前記キャッシュ・メモリ中に存在するデータ・ブロック
のシステムにおける一貫性保持を図る際に、一貫性保持
を図る必要があるデータ・ブロックを判別する判別工程
と、 該判別工程により一貫性保持を図る必要があるデータ・
ブロックに関して状態変更を行う状態変更工程と、 ある契機においてデータ転送を行うデータ転送工程と、 を有することを特徴とする情報処理装置の制御方法。
7. A processor comprising: a plurality of processors; a plurality of cache memories attached to each processor; a storage device; and a coupling network interconnecting each cache memory and the storage device, wherein the processing of each processor is predetermined. Only when the stage is reached is the data present in the associated cache memory
A method of controlling an information processing device, characterized in that the consistency of a block system is maintained in a system, wherein the consistency of the data block existing in the cache memory is maintained in the system. A determination step for determining the data blocks that need to be achieved, and a data step that needs to be kept consistent by the determination step.
A control method for an information processing apparatus, comprising: a state changing step of changing the state of a block; and a data transfer step of transferring data at a certain trigger.
JP7211796A 1995-08-21 1995-08-21 Information processor and its control method Withdrawn JPH0962575A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7211796A JPH0962575A (en) 1995-08-21 1995-08-21 Information processor and its control method
US08/699,943 US6021472A (en) 1995-08-21 1996-08-20 Information processing device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7211796A JPH0962575A (en) 1995-08-21 1995-08-21 Information processor and its control method

Publications (1)

Publication Number Publication Date
JPH0962575A true JPH0962575A (en) 1997-03-07

Family

ID=16611758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7211796A Withdrawn JPH0962575A (en) 1995-08-21 1995-08-21 Information processor and its control method

Country Status (1)

Country Link
JP (1) JPH0962575A (en)

Similar Documents

Publication Publication Date Title
US5353415A (en) Method and apparatus for concurrency of bus operations
US5463753A (en) Method and apparatus for reducing non-snoop window of a cache controller by delaying host bus grant signal to the cache controller
US5426765A (en) Multiprocessor cache abitration
US5659710A (en) Cache coherency method and system employing serially encoded snoop responses
US5802559A (en) Mechanism for writing back selected doublewords of cached dirty data in an integrated processor
US5561779A (en) Processor board having a second level writeback cache system and a third level writethrough cache system which stores exclusive state information for use in a multiprocessor computer system
US5903911A (en) Cache-based computer system employing memory control circuit and method for write allocation and data prefetch
US5893153A (en) Method and apparatus for preventing a race condition and maintaining cache coherency in a processor with integrated cache memory and input/output control
US5761725A (en) Cache-based computer system employing a peripheral bus interface unit with cache write-back suppression and processor-peripheral communication suppression for data coherency
EP1215584A2 (en) Highly pipelined bus architecture
WO1994008297A9 (en) Method and apparatus for concurrency of bus operations
US5918069A (en) System for simultaneously writing back cached data via first bus and transferring cached data to second bus when read request is cached and dirty
JPH0247756A (en) Reading common cash circuit for multiple processor system
JPH09223118A (en) Snoop cache memory control system
JP2001147854A (en) Processing system and method for optimizing storage in writing buffer unit and method for storing and distributing data
US5920891A (en) Architecture and method for controlling a cache memory
KR100322223B1 (en) Memory controller with oueue and snoop tables
US6976132B2 (en) Reducing latency of a snoop tenure
US7406571B2 (en) Memory system and method for controlling the same, and method for maintaining data coherency
JPH10105461A (en) Improved device and method for snooping processor and look-aside cache
JPH0744459A (en) Cache control method and cache controller
US6021472A (en) Information processing device and control method thereof
JP2000347933A (en) Bus bridge, device and method for controlling cache coherence, processor unit and multiprocessor system
JPH0962575A (en) Information processor and its control method
JPH06309231A (en) Cache memory control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20021105