WO1998003918A1 - Cache memory device and information processing system - Google Patents

Cache memory device and information processing system Download PDF

Info

Publication number
WO1998003918A1
WO1998003918A1 PCT/JP1996/002020 JP9602020W WO9803918A1 WO 1998003918 A1 WO1998003918 A1 WO 1998003918A1 JP 9602020 W JP9602020 W JP 9602020W WO 9803918 A1 WO9803918 A1 WO 9803918A1
Authority
WO
WIPO (PCT)
Prior art keywords
cache
memory
data
access
memory device
Prior art date
Application number
PCT/JP1996/002020
Other languages
French (fr)
Japanese (ja)
Inventor
Atsushi Nakajima
Masabumi Shibata
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to US09/182,046 priority Critical patent/US20010034808A1/en
Priority to PCT/JP1996/002020 priority patent/WO1998003918A1/en
Publication of WO1998003918A1 publication Critical patent/WO1998003918A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0864Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using pseudo-associative means, e.g. set-associative or hashing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/128Replacement control using replacement algorithms adapted to multidimensional cache systems, e.g. set-associative, multicache, multiset or multilevel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

In a highly associative cache memory device, a memory such as an SRAM, which is accessed through row access and column access is used as a data memory and the data of all ways of the same set number are arranged in the same row. A cache control circuit (5) executes the row access to the data memory before a cache hit is judged. When a cache hit is judged to have occurred, column access is executed by using a hit way number. When a cache miss is judged to have occurred and write back is performed, column access is executed by using a replace way number. When a cache miss is judged to have occurred and no write back is performed, column access is suspended. Therefore, when an SDRAM chip is used as a data memory externally installed, the access latency and the memory bank busy time are shortened and the number of pins of an LSI which receives data is decreased. Since the row access becomes effective for reading out write back data even when a cache miss occurs, the efficiency of use of the data memory bank does not drop.

Description

キヤッシュメモリ装置及び情報処理システム  Cache memory device and information processing system
技術分野 Technical field
本発明は、 情報処理システムにおけるキャッシュメモリ装置に関し、 特に 7 タ メ モ ジ と し飞 D R AM (Synchronous Dynamic Randam Access Memory)等の D R A Mを用いたキャ明ッシュメモリ装置及びそれを用いた情報処 理システムに関する。 書  The present invention relates to a cache memory device in an information processing system, and more particularly to a cache memory device using a DRAM such as a DRAM (Synchronous Dynamic Random Access Memory) and an information processing system using the same. About. book
背景技術 Background art
計算機システムにおいては、 プロセッサの処理性能を向上させるため、 高 速なプロセッサとブロセッサと比べると低速な主記憶装置との間に、 小容量 高速のメモリからなるキャッシュメモリを設けることが一般に行われる。 主 記憶装置のデータの一部をキヤッシュメモリに格納して主記憶装置のかわり にキャッシュメモリをアクセスすることにより、 プロセッサから主記憶装置 への見掛けのアクセス速度を高速にすることができる。 一般にキャッシュメ モリの設計目標は、 ヒッ 卜率の向上とアクセスレイテンシの短縮である。 ヒッ ト率の向上のためには、 キヤッシュメモリの大容量化及び高連想性化 が必要であるが、 これはアクセスレイテンシと トレードオフの関係がある。 従来はアクセスレイテンシの短縮を図って、 S R AM素子をデータメモリに 使用してきているが、 S RAM素子は集積度の点から大容量化に限界がある。 シンクロナス DRAM (以下 S DRAMと記述)等の DRAMをデータメモリ に使用することにより、 ½来以上の大容量化は実現できるが、 レイテンシの 増大、 メモリバンクのビジー時間の増大が問題となる。 特に、 ロウアクセス のレイテンシが大きいことが問題である。 従来、 DRAMを用いたメモリシ ステムでは、 特開昭 6 2 - 825 92号公報記載の様に、 へ一ジモード機能 を活用してロウアクセスのレイテンシを隠す方式が考案されていろ。  In computer systems, in order to improve the processing performance of a processor, it is common practice to provide a cache memory consisting of a small-capacity high-speed memory between a high-speed processor and a main storage device that is slower than the processor. By storing part of the data in the main memory in the cache memory and accessing the cache memory instead of the main memory, the apparent access speed from the processor to the main memory can be increased. In general, the design goals for cache memory are to increase the hit rate and reduce access latency. In order to improve the hit rate, it is necessary to increase the capacity of the cache memory and increase the associativeness. This has a trade-off relationship with the access latency. Conventionally, access latencies have been reduced by using SRAM devices for data memory. However, there is a limit to increasing the capacity of SRAM devices in terms of integration. By using a DRAM such as a synchronous DRAM (hereinafter referred to as S DRAM) as a data memory, it is possible to achieve a larger capacity than ever, but there is a problem of an increase in latency and an increase in the busy time of a memory bank. In particular, the problem is that the latency of row access is large. Conventionally, in a memory system using a DRAM, as described in Japanese Patent Application Laid-Open No. 62-82592, a method of hiding the latency of row access by utilizing the edge mode function has been devised.
一方、 データメモリを外付けメモリチッフで実現する場合、 キャッシュメ モリの連想性とデータを受けるし S Iのヒン数との卜レ一ドオフが発生する。 口経エレク トロ二クス、 1 9 9 5年 1月 30日号(No.627)の 97へ一ジから 1 0 8ページの記事には、 シンク口ナス S R AMを使用した 2ウェイセッ ト ァソシァティブのキャッシュにおいて、 一度に一方のウェイのデータのみを 読み出すことにより L S I ピン節約を図る方式が示されている。 On the other hand, when the data memory is realized by an external memory chip, the associativity of the cache memory and the data are received, and a trade-off occurs between the SI hin and the data. Kojitsu Electronics, from January 30, 1995 (No. 627) to 97 An article on page 108 describes a method of saving LSI pins by reading only data in one way at a time in a 2-way set-associative cache using sink-mouth eggplant SRAM.
本発明の目的は、 高連想性のキャッシュメモリ装置において、 データメモ リに外付けで S D R A Mチップを使用した場合に、 データを受ける L S Iの ビン数を節約しながらアクセスレイテンシの短縮、 メモリバンクのビジー時 間短縮を図ることにある。 発明の開示  SUMMARY OF THE INVENTION It is an object of the present invention to reduce access latency while reducing the number of bins of an LSI for receiving data when a memory cell with an external memory is used in a highly associative cache memory device, and to provide a busy memory bank. The goal is to reduce time. Disclosure of the invention
[課題を解決するための手段] [Means for solving the problem]
上記課題を解決するために、 本発明では、 データメモリと して S D R AMを 使用する、 複数連想性のキャッシュメモリ装置において、 同一セッ ト番号の 全ウェイのデータを D R AMの同一ロウァドレスに配置し、 キャッシュァク セスに際して、 前記データメモリのロウアクセスをキャッシュヒッ ト判定確 定以前に実行し、 前記キヤッシュヒッ ト判定においてキヤッシュヒッ トカ判 定された場合、 ヒ ッ 卜したウェイの番号を用いて前記データメモリのカラム アクセスを実行し、 また前記キャッシュヒッ ト判定においてキャッシュミス が判定され、 かつリブレース対象のウェイをメモリにライ トバックする必要 がある場合、 前記リプレース対象のウェイの番号を用いて前記データメモリ のカラムアクセスを実行し、 また前記キヤッシュヒッ 卜判定においてキヤッ シュミスが判定され、 かつリブレース対象のウェイをメモリにライ トノくック する必要がない場合、 前記データメモリのカラムアクセスを中断する手段を 設けた。 In order to solve the above problems, in the present invention, in a multiple associative cache memory device using SDRAM as a data memory, data of all ways having the same set number is arranged in the same row address of the DRAM. At the time of cache access, a row access to the data memory is executed before the cache hit determination is determined, and when the cache hit determination is made in the cache hit determination, the number of the hit way is used. When a column miss of the data memory is performed, and a cache miss is determined in the cache hit determination, and it is necessary to write back the way to be re-raced to the memory, the number of the way to be replaced is Performs a column access to the data memory, and executes the cache A means is provided for interrupting column access to the data memory when cache miss is determined in the hit determination and the rib race target way does not need to be knocked in the memory.
[作用] [Action]
本発明により、 デ一タメモリとして S D R A Mの外付けチップを用いて、 しかもデータを受ける L S I のピン数を節約した上で、 大容量、 高連想性、 短アクセスレイテンシのキヤッシュメモリ装置を構成することが可能となる。 デ一タメモリのロウアクセスをキャッシュヒ ッ ト判定結果の確定より先行 して行うことにより、 キヤッシュアクセスのレイテンシ短縮を実現する。 キャッシュヒ ッ 卜判定結果確定時にカラムァ ドレスを変えるだけでヒッ ト ウェイ及びリフレースウェイの読み出しが行えるため、 キャッシュミス時で もデータメモリバンクの先行した口ゥアクセスが無駄とならない。 よって、 キャッシュメモリのダーティ率 (キャッシュに保持するデータが更新されて おりメモリにある内容と異なる確率) が高いシステムでは、 先行ロウァクセ スを行わない場合と比較して、 デ一タメモリバンクの使用効率を低下させな いでアクセスレイテンシの短縮を実現できる。 キャッシュミスでリブレース ウェイをライ トバックする必要がない場合、 データメモリバンクの先行した ロウアクセスが無駄となり、 不要なバンクのビジ一時間を作り出してしまう。 しカゝし、 以下の実施例に示すようにデータメモリバンクを複数設けることに より、 後続のキヤッシュアクセスが不要なバンクビジー時間のために被る被 害を低減することができる。 図面の簡単な説明 According to the present invention, it is possible to configure a cache memory device having a large capacity, a high associativity, and a short access latency while using an external SDRAM chip as a data memory and reducing the number of pins of an LSI for receiving data. It becomes possible. By performing data memory row access prior to the determination of the cache hit determination result, cache access latency can be reduced. When the cache hit judgment result is determined, the hitway and the refresh way can be read only by changing the column address. Therefore, even in the case of a cache miss, the preceding access to the data memory bank is not wasted. Therefore, In a system with a high cache memory dirty ratio (the probability that the data stored in the cache is updated and differs from the contents in the memory), the use efficiency of the data memory bank is reduced as compared to the case where the preceding row access is not performed. Access latency can be reduced without lowering it. If it is not necessary to write back the rib raceway due to a cache miss, the preceding row access of the data memory bank will be wasted, creating an unnecessary busy hour for the bank. However, by providing a plurality of data memory banks as shown in the following embodiments, it is possible to reduce the damage caused by the bank busy time when the subsequent cache access is unnecessary. BRIEF DESCRIPTION OF THE FIGURES
図 1は本発明の一実施例であるキヤッシュメモリ装置を含む計算機システ ムの構成図、 図 2はアドレスセレクタの詳細構成を示す図である。 また、 図 3はバンク 0データメモリ 1 5のリ一ド時のタイムチヤ一ト、 図 4はバンク 0データメモリ 1 5のライ ト時のタイムチヤ一卜、 図 5はバンク 0デ一タメ チヤ一卜である。 図 6は図 1におけるァドレスラッチの詳細構成を示す図、 図 7はタグメモリのェントリの詳細構成を示す図、 図 8はフ :口セッサ 1から のロード要求でキャッシュヒッ ト判定時あるレ、はライ トバック時に、 バンク 0データメモリ 1 5 リードのタイムチャートである。 発明を実施するための最良の形態 FIG. 1 is a configuration diagram of a computer system including a cache memory device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a detailed configuration of an address selector. Also, FIG. 3 is a time chart when the bank 0 data memory 15 is read, FIG. 4 is a time chart when the bank 0 data memory 15 is written, and FIG. 5 is a bank 0 data chart. It is. 6 FIG, 7 showing a detailed configuration of Adoresuratchi in FIG. 1 is a diagram showing a detailed configuration of the tag memory entry, 8 off: there when determining cache hits in load request from the mouth processor 1 Les, Is a time chart of bank 0 data memory 15 read at write back. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明の一実施例を図面を参照して詳細に説明する。  Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図 1は本発明の一実施例であるキヤッシュメモリ装置を含む計算機システ ムの構成図である。 図 1において、 1はプロセッサ (C P U ) 、 2は主記憶 装置、 3はキャッシュシステム、 2 0 0はプロセッサ 1 とキャッシュシステ ム 3とを接続するプロセッサバス、 3 0 0は主記憶装置 2とキャッシュシス テム 3とを接続するメモリバスである。 キャッシュシステム 3は、 タグメモ リ 4、 キャッシュ制御回路 5、 ア ドレスセレクタ 7、 ア ドレスラッチ 8、 デ—タバッファ 1 2、 ブロセッサバスインタフェース 1 3、 メモリバスイン タフエース 1 4、 バンク 0データメモリ 1 5、 バンク 1データメモリ 1 6を 有する。 さらに、 バンク 0デ一タメモリ 1 5及びバンク 1デ一タメモリ 1 6 は、 各々 S D R A M制御回路 6、 D R AMマッ ト 1 1を有する。  FIG. 1 is a configuration diagram of a computer system including a cache memory device according to one embodiment of the present invention. In FIG. 1, 1 is a processor (CPU), 2 is a main memory, 3 is a cache system, 200 is a processor bus connecting processor 1 and cache system 3, and 300 is a main memory 2 and a cache. This is a memory bus that connects to system 3. The cache system 3 includes a tag memory 4, a cache control circuit 5, an address selector 7, an address latch 8, a data buffer 12, a processor bus interface 13, a memory bus interface 14, and a bank 0 data memory 15. And bank 1 data memory 16. Further, the bank 0 data memory 15 and the bank 1 data memory 16 have an SDRAM control circuit 6 and a DRAM mat 11, respectively.
本実施例では、 キャッシュの容量は 1 6 M B、 連想性は 4ウェイセッ トァ ソシァティブ、 ラインサイズ (ブロックサイズ) は 6 4バイ ト、 データメモ リのバンク数は 2で 6 4バイ トインタリーブ、 各 D R AMマツ ト 1 1の構成 は 2 0 4 8ロウ X 2 5 6カラム X I 6バイ ト、 主記憶装匱 2の容量は 2 Gバ ィ 卜、 プロセッサ 1とキャッシュシステム 3との間及びキャッシュシステム 3と主記憶装置 2との間のデータ転送単位は 6 4バイ トとする。 In this embodiment, the cache capacity is 16 MB, and the associativity is a 4-way setter. Socially, the line size (block size) is 64 bytes, the number of data memory banks is 2, 64 bytes interleaved, and each DRAM mat 11 has a configuration of 2048 rows x 2556 columns XI 6 bytes, the capacity of the main memory 2 is 2 Gbytes, and the data transfer unit between the processor 1 and the cache system 3 and between the cache system 3 and the main memory 2 is 64 bytes. .
以下において、 用語と して、 1 6バイ トをダブルワード (D W) 、 6 4ノく ィ ト内の 4個のダブルワードをダブルワードアドレスの昇順にダブルワード 0、 ダブルワード 1、 ダブルワード 2、 ダブルワード 3と定義する。  In the following, 16 words are double words (DW) and 4 double words in 64 bytes are double word 0, double word 1, and double word 2 in ascending order of double word address. , Defined as doubleword 3.
プロセッサ 1は、 プロセッサバス 2 0 0上に口一ドア ドレスを送り、 キャッシュシステム 3にデータロードを要求する手段を有する。 また、 プロ セッサ 1 は、 プロセッサバス 2 0 0上にス トァァ ドレスとス 卜アデ一タを送 り、 キャッシュシステム 3にデータス トアを要求する手段を持つ。 なお、 プ 口セッサ 1のデータロード要求手段及びデ一タス トァ要求手段は本発明の本 質的な部分でないので、 図示せず、 詳細な説明も省略する。  The processor 1 has means for sending a mouth address on the processor bus 200 and requesting the cache system 3 to load data. Further, the processor 1 has a means for transmitting a storage address and a storage data on the processor bus 200 and requesting the cache system 3 for a data storage. Since the data load requesting means and the data requesting means of the processor 1 are not an essential part of the present invention, they are not shown and their detailed description is omitted.
プロセッサ 1がデータロード要求を発行すると、 プロセッサバスインタ フェース 1 3は、 口一ドア ドレスをア ドレスラッチ 8に設定した後、 データ バッファ 1 2に設定されたロードデータをプロセッサバス 2 0 0を介してプ 口セッサ 1に送る。 また、 プロセッサ 1がデータス トア要求を発行すると、 ブロセッサバスィンタフエース 1 3は、 ス トアア ドレスをア ドレスラッチ 8 に設定した後、 ス トァデータをデータバッファ 1 2に設定する。  When the processor 1 issues a data load request, the processor bus interface 13 sets the mouth address to the address latch 8, and then loads the load data set in the data buffer 12 via the processor bus 200. To the processor 1 When the processor 1 issues a data store request, the processor bus interface 13 sets the store address in the address latch 8 and then sets the store data in the data buffer 12.
主記憶装置 2は、 キャッシュシステム 3からのロード要求に応じて、 メモ リバス 3 0 0を介して受け取った口一 ドア ドレスを用いてメモリから口一ド データを読み出し、 このロードデータをロードア ドレスと共に、 メモリバス 3 0 0を介してキャッシュシステム 3に送る手段を持つ。 また、 主記憶装匱 2は、 キャッシュシステム 3からのス 卜ァ要求に応じて、 メモリバス 3 0 0 を介して受け取ったス トァデータを、 同じくメモリバス 3 0 0を介して受け 取ったス トアア ドレスを用いて、 メモリヘス トァする手段を持つ。  In response to a load request from the cache system 3, the main storage device 2 reads the data from the memory using the memory address received via the memory bus 300, and reads the load data together with the load address. It has means for sending to the cache system 3 via the memory bus 300. In addition, the main storage device 2 stores the store data received via the memory bus 300 in response to a store request from the cache system 3, and stores the store data also received via the memory bus 300. It has a means of memory restoration using dresses.
メモリバスインタフェース 1 4は、 キヤッシュ制御回路 5から受け取った 口一ドア ドレスをメモリバス 3 0 0を介して主記憶装置 2に送る。 主記憶装 置 2からロー ドデータとロー ドア ドレスが送られた時、 メモリバスインタ フェース 1 4は、 ロー ドア ドレスをア ドレスラッチ 8に設定し、 口一ドデ一 タをデータバッファ 1 2に設定する。  The memory bus interface 14 sends the mouth address received from the cache control circuit 5 to the main storage device 2 via the memory bus 300. When the load data and the load address are sent from the main memory 2, the memory bus interface 14 sets the load address to the address latch 8 and stores the read data in the data buffer 12. Set.
また、 メモリ バスインタフェース 1 4は、 キャッシュ制御回路 5からのス トァァ ドレスとデータバッファ 1 2からのス 卜アデ一タをメモリバス 3 0 0 を介して主記憶装置 2に送る手段(図示せず)を有する。 Also, the memory bus interface 14 stores the address from the cache control circuit 5 and the storage data from the data buffer 12 into the memory bus 300. (Not shown) for sending to the main storage device 2 via
バンク 0デ一タメモリ 1 5及びバンク 1デ一タメモリ 1 6は、 外部からの ク口ックに同期して高速に動作する SDRAM(Synchronus DRAM)で構成する。 以下、 DRAMマツ 卜 1 1上のデータ配置を説明する。  The bank 0 data memory 15 and the bank 1 data memory 16 are composed of SDRAM (Synchronus DRAM) that operates at high speed in synchronization with an external clock. Hereinafter, the data arrangement on the DRAM mat 11 will be described.
バンク 0デ一タメモリ 1 5には偶数セッ ト番号を、 バンク 1データメモリ Bank 0 data memory 15 An even set number is assigned to 5, Bank 1 data memory
1 6には奇数セッ ト番号を割り当てる。 各々のバンクの中で、 同一セッ ト番 号の 4個のウェイに属する 1 6個のダブルヮ一ドを、 同一口ゥァドレスの連 続する 1 6個のカラムアドレスに割り当てる。 この時、 同一ウェイに属する 4個のダブルヮ一ドを連続するカラムァドレスに配置する。 カラムアドレス が大きくなる方向にダブルヮ一ドアドレスの昇順で配置する。 16 is assigned an odd set number. In each bank, 16 double pads belonging to 4 ways of the same set number are assigned to 16 consecutive column addresses of the same address. At this time, four double cards belonging to the same way are arranged in a continuous column address. Arrange them in ascending order of double-address in the direction in which the column address increases.
ウェイ問の順番は任意であるが、 本実施例では、 カラムア ドレスが大きく なる方向にウェイ番号の昇順で配置する。  The order of way queries is arbitrary, but in the present embodiment, they are arranged in ascending order of way numbers in the direction in which the column address increases.
こうして、 図 1に示すように、 バンク 0デ一タメモリ 1 5の口ゥ番号 i、 力ラム番号 1 6 j 、 1 6 j + l、 l 6 j + 2、 1 6 j + 3の位置には、 セッ ト番号 ( 1 6 i + j ) X 2のゥヱイ 0に属するダブルヮ一ド 0、 1、 2、 3 をそれぞれ割り当てる。 また、 バンク 0デ一タメモリ 1 5の口ゥ番号 i、 力 ラム番号 1 6 j + 4、 1 6 j + 8 , 1 6 j + 1 2の位置には、 セッ ト番号 ( 1 6 i + j ) X 2のゥヱイ 1、 2、 3にそれぞれ属するダブルワード 0を それぞれ割り当てる。 本実施例の場合、 1は 0から 204 7までの自然数で あり、 jは 0から 1 5までの自然数である。  Thus, as shown in FIG. 1, the position of the port number i of the bank 0 data memory 15 and the power ram numbers 16 j, 16 j + l, l 6 j + 2, 16 j + 3 The double numbers 0, 1, 2, and 3 belonging to the set 0 of the set number (16i + j) X2 are assigned. In addition, the set number (16i + j) is placed at the position of the port number i of bank 0 data memory 15 and the column number 16j + 4, 16j + 8, 16j + 12 ) Allocate double word 0, which belongs to X 1, 2, 3 respectively. In the case of the present embodiment, 1 is a natural number from 0 to 2047, and j is a natural number from 0 to 15.
図 2にァドレスセレクタ 7の詳細構成を示す。  FIG. 2 shows the detailed configuration of the address selector 7.
ァ ドレスセレクタ 7の出力信号 1 1 2のビッ ト幅は 1 1 ビッ 卜であり、 こ れを Z 1 0から Z 0と記述する。 Z 1 0が MS B (最上位ビッ ト)であり、 Z 0が L S B (最下位ビッ ト)である。 ァドレスラツチ 8から信号線 1 04及び 信号線 1 02を介して送られるァドレスビッ 卜 2 1からビッ 卜 7を A2 1力 ら A7と記述している。 また、 キャッシュ制御回路から信号線 1 07を介し て送られるウェイデコードビッ ト 1、 0を Wl、 WOと記述する。 信号線 1 09の値が論理値 1の場合、 出力信号線 1 1 'λには信号線 1 04上の値 A 2 1から A l 1を出力する。 号線 1 09の値が論理値 0の場合、 出力信号線 1 1 2の Z 1 0から Z 8は論理値 0、 Z 7から Z 4は信号線 1 02上の値 A 1 0から A 7、 Z 3から Z 2は信号線 1 07上の値 W 1から WO、 Z 1力 ら Z 0は論理値 0を出力する。  The bit width of the output signal 112 of the address selector 7 is 11 bits, which are described as Z10 to Z0. Z 10 is the MSB (most significant bit) and Z 0 is the LSB (least significant bit). The address bits 21 to 7 transmitted from the address latch 8 via the signal lines 104 and 102 are described as A21 to A7. Way decode bits 1 and 0 sent from the cache control circuit via the signal line 107 are described as Wl and WO. When the value of the signal line 109 is a logical value 1, the values A 21 to A 11 on the signal line 104 are output to the output signal line 1 1 ′ λ. If the value of signal line 109 is logical value 0, the output signal lines 1 1 2 Z 1 0 to Z 8 will be logical value 0, Z 7 to Z 4 will be the values A 10 to A 7 on signal line 102, Z3 to Z2 output values on signal line 107 from W1 to WO, and Z1 output from Z0 output logical value 0.
SDRAM制御回路 6は、 キャッシュ制御回路 5から ί言号線 1 1 0及び信 号線 1 1 1を介して送られろ S D R AMアクセスコマン ドの指示により、 了 ドレスセレクタ 7から信号線 1 1 2を介して送られる S DRAMアクセスァ ドレスを用いて、 DRAMマツ ト 1 1のロウアクセス、 カラムアクセスを行 う機能を持つ。 S DRAM制御回路 6は、 外部から与えられるクロックに同 期して動作する。 また、 S D RAM制御回路 6は、 初期化時に設定された バースト長を保持し、 カラムアクセスの場合、 自動的にカラムアドレスのィ ンクリメントを行う機能を持つ。 本実施例では、 バース ト長は 4と設定され ているとする。 The SDRAM control circuit 6 sends the data from the cache control circuit 5 via the symbol line 110 and the signal line 111 to the end by the instruction of the SDRAM access command. It has the function of performing row access and column access of the DRAM mat 11 using the SDRAM access address sent from the dress selector 7 via the signal line 112. SDRAM control circuit 6 operates in synchronization with an externally applied clock. The SDRAM control circuit 6 has a function of holding the burst length set at the time of initialization and automatically incrementing the column address in the case of column access. In this embodiment, it is assumed that the burst length is set to 4.
図 3にバンク 0データメモリ 1 5のリ一ド時のタイムチヤ一卜を示す。 時刻 t 0に信号線 1 1 0を介してアクティブコマンドが送られ、 信号線 1 1 2を介してロウア ドレス iが送られる。 これにより SDRAM制御回路 6 は、 ロウ番号 iのアクセスを開始する。  FIG. 3 shows a time chart when the bank 0 data memory 15 is read. At time t0, an active command is sent via signal line 110, and row address i is sent via signal line 112. This causes the SDRAM control circuit 6 to start accessing the row number i.
時刻 t 1に信号線 1 1 0を介してリー ドコマンドが送られ、 信号線 1 1 2 を介してカラムァドレス 1 6 jが送られる。 これにより S DRAM制御回路 6は、 カラム番号 1 6 j 、 1 6 j + l、 1 6 j + 2、 1 6 j + 3のリードを 開始する。 時亥 ij t 0から時刻 t 1 までの最小時間間隔を、 アクティブ一カラ ムコマンドディレイと呼ぶ。  At time t1, a read command is sent via the signal line 110 and a column address 16j is sent via the signal line 112. As a result, the SDRAM control circuit 6 starts reading the column numbers 16 j, 16 j +1, 16 j +2, and 16 j +3. The minimum time interval between time ij t 0 and time t 1 is called an active column command delay.
時刻 t 2、 t 3、 t 4. t 5に信号線 1 1 3上に、 それぞれセッ ト番号 ( 1 6 i + j ) X 2のウェイ 0に属するダブルワード 0、 1、 2、 3が読み 出される。 時刻 t 1力、ら日寺刻 t 2までの時間間隔を、 カラムアクセスディレ ィと呼ぶ。 時刻 t 2と t 3との間、 時亥り t 3と t 4との間、 時刻 t 4と t 5 との間、 時刻 5と t 6との間の時間間隔は、 S DRAM制御回路 6に与えら れているクロックのサイクル時間である。 時刻 t 6以降、 ί言号線 1 1 3上の データは保証されない。  At times t2, t3, t4, t5, double words 0, 1, 2, and 3 belonging to way 0 of set number (16i + j) X2 are read on signal line 1 13 respectively. Will be issued. The time interval from the time t1 to the time t2 is called the column access delay. The time intervals between times t2 and t3, between times t3 and t4, between times t4 and t5, and between times 5 and t6 are as follows: Is the cycle time of the clock given to After time t6, the data on ίcode line 1 1 3 is not guaranteed.
ロウ番号 i 上のデータアクセスを終了する場合、 信号線 1 1 3上にプリ チャージコマンドが送られる。 プリチャージコマンドを送るまでは、 ロウ番 号 i 上のデータに対するカラムアクセスが実行できる。 図 3は、 t 6にて口 ゥ番号 i上のデータアクセスを終了する場合を示している。 本実施例では、 最も早くて t 4でァリチヤ一ジコマン ドが発行可能とする。 To end data access on row number i, a precharge command is sent on signal lines 113. Until the precharge command is sent, column access to data on row number i can be performed. FIG. 3 shows a case where the data access on the port number i ends at t6. In this embodiment, the earliest and Arichiya one Jikoman de at t 4 is to be issued.
ブリチヤ一ジコマンド発行後、 ブリチャージ一アクティブコマンドディレ ィと呼ぶ時間間隔が経過した後、 アクティブコマンドが発行可能となる。 図 3では、 時刻 t 1 3以降、 (言号線 1 1 3上にアクティブコマンドを送る二と ができろ。  An active command can be issued after a time interval called a bricharge-active command delay has elapsed after the british command is issued. In FIG. 3, after time t 13, (Send an active command on code line 1 13.
図 4にバンク 0データメモリ 1 5のライ ト時のタイムチヤ一トを示す。 時刻 t 7に信号線 1 I 0を介してアクティブコマン ドが送られ、 (言号線 1 1 2を介してロウァドレス iが送られる。 これにより S D R AM制御回路 6 は、 ロウ番号 iのアクセスを開始する。 Figure 4 shows the time chart for writing to the bank 0 data memory 15. At time t7, an active command is sent via signal line 1 I0, Row dress i is sent via 1 2. This causes the SDRAM control circuit 6 to start accessing the row number i.
時刻 t 8に信号線 1 1 0を介してライ トコマンドが送られ、 信号線 1 1 2 を介してカラムアドレス 1 6 jが送られる。 また、 時刻 t 8、 t 9、 t l O、 t 1 1に信号線 1 1 3を介して、 それぞれデータ A、 B、 C、 Dが送られる。 これにより S D R AM制御回路 6は、 カラム番号 1 6 j 、 1 6 j + 1 、 1 6 j + 2、 1 6 j + 3の位置へそれぞれデータ A、 B、 C、 Dのライ トを開始 する。 時刻 t 7カゝら時刻 t 8までの最小時間間隔は、 アクティブ一カラムコ マンドディレイである。 時刻 t 8と t 9との間、 時刻 t 9と t 1 0との間、 時刻 t 1 0と t 1 1との間、 時刻 1 1 と t 1 2との問の時間間隔は、 S D R At time t8, a write command is sent via signal line 110, and a column address 16j is sent via signal line 112. In addition, data A, B, C, and D are transmitted via signal lines 113 at times t8, t9, t10, and t11, respectively. As a result, the SDRAM control circuit 6 starts writing the data A, B, C, and D to the positions of the column numbers 16 j, 16 j +1, 16 j +2, and 16 j +3, respectively. . The minimum time interval from time t7 to time t8 is the active one column command delay. The time interval between the times t8 and t9, between the times t9 and t10, between the times t10 and t11, and between the times 11 and t12 is SDR
AM制御回路 6に与えられているクロックのサイクル時間である。 This is the cycle time of the clock supplied to the AM control circuit 6.
ロウ番号 i上のデータアクセスを終了する場合、 信号線 1 1 3上にプリ チャージコマン ドが送られる。 プリチャージコマンドを送るまでは、 ロウ番 号 i上のデータに対するカラムアクセスが実行できる。 図 4は、 t 1 2にて ロウ番号 i上のデ一タアクセスを終了する場合を示している。 本実施例では、 最も早くて t 1 4でプリチャージコマンドが発行可能とする。  When terminating data access on row number i, a precharge command is sent on signal lines 113. Until the precharge command is sent, column access to data on row number i can be performed. FIG. 4 shows a case where the data access on row number i ends at t12. In this embodiment, the precharge command can be issued at t14 at the earliest.
プリチヤ一ジコマンド発行後、 プリチャージ一アクティブコマンドディレ ィの時間がが経過した後、 アクティブコマンドが発行可能となる。 図 4では、 時刻 t 1 5以降、 信号線 1 1 3上にアクティブコマンドを送ることができる。 図 5にバンク 0デ一タメモリ 1 5に対して、 ロウアクセスのみ行いカラム アクセスを行わなかった時のタイムチヤ一卜を示す。  After the precharge command is issued, the active command can be issued after the elapse of the precharge-active command delay time. In FIG. 4, after time t15, an active command can be sent on the signal line 113. FIG. 5 shows a time chart when only the row access is performed to the bank 0 data memory 15 and the column access is not performed.
時刻 t 1 6に信号線 1 1 0を介してアクティブコマンドが送られ、 信号線 At time t16, an active command is sent via the signal line 110, and the signal line
1 1 2を介してロウァドレス ίが送られる。 これにより S D R AM制御回路The row address 送 is sent via 1 1 2. This makes the SDRAM control circuit
6は、 ロウ番号 i のアクセスを開始する。 6 starts accessing row number i.
最も早くて時刻 t 1 7に、 プリチャージコマンドが発行可能となる。 時刻 t 1 6と t 1 7の時間間隔をアクティブ一プリチャージコマンドディレイと 呼ぶ。  At the earliest, at time t17, a precharge command can be issued. The time interval between times t16 and t17 is called an active precharge command delay.
時刻 t 1 8以降、 信号線 1 1 3上にアクティブコマンドを送ることができ る。 時刻 t 1 7と t 1 8の時間間隔は、 プリチャージ一アクティブコマン ド ディレイである。  After time t18, an active command can be sent on signal line 113. The time interval between times t17 and t18 is a precharge-active command delay.
図 6にァドレスラッチ 3の詳細構成を示す。  FIG. 6 shows the detailed configuration of the address latch 3.
ア ドレスラッチ 3のビッ ト幅は 2 6で、 ビッ ト 6を最下位ビッ ト ( L S B ) 、 ビッ ト 3 1を最上位ビッ ト (M S B ) とする。  Address latch 3 has a bit width of 26, where bit 6 is the least significant bit (LSB) and bit 31 is the most significant bit (MSB).
ア ドレスラッチのビッ ト 7からビッ 卜 I 0までの 4ビッ 卜の値を、 S D R AMのカラムァドレスの一部として信号線 1 0 2を介してア ドレスセレクタ 7に接続する。 ア ドレスラッチのビッ ト 6からビッ ト 2 1までの 1 6ビッ ト の値を、 セッ ト番号として信号線 1 0 3を介してタグメモリ 4へ接続する。 ア ドレスラツチのビッ ト 1 1からビッ ト 2 1までの 1 1 ビッ 卜の値を、 S D R AMのロウァドレスとして信号線 1 0 4を介してア ドレスセレクタ 7へ伝 達する。 ァドレスラッチのビッ ト 6からビッ ト 3 1までの 2 6ビッ トを、 信 号線 1 0 5を介してキャッシュ制御回路 5へ接続する。 The 4-bit value from address latch bit 7 to bit I0 is Connected to the address selector 7 via the signal line 102 as a part of the AM column address. The 16-bit value from bit 6 to bit 21 of the address latch is connected to tag memory 4 via signal line 103 as a set number. The value of 11 bits from bit 11 to bit 21 of the address latch is transmitted to the address selector 7 via the signal line 104 as the address of the SDRAM. 26 bits from bit 6 to bit 31 of the address latch are connected to the cache control circuit 5 via the signal line 105.
タグメモリ 4は、 4ウェイ構成で、 エントリの個数は 6 4 K個である。 信 号線 1 0 3上の値を用いて、 タグメモリ 4のアクセスェントリの指定を行う。 タグメモリ 4のリ一 ドデータとライ トデータは、 信号線 1 0 6を介して キャッシュ制御回路 5に接続する。 キャッシュ制御回路 5は、 タグメモリ 4 に対してリード、 ライ トの手段を持つ。  The tag memory 4 has a 4-way configuration, and the number of entries is 64K. The access entry of the tag memory 4 is specified using the value on the signal line 103. The read data and the write data of the tag memory 4 are connected to the cache control circuit 5 via the signal line 106. The cache control circuit 5 has means for reading from and writing to the tag memory 4.
図 7に、 タグメモリ 4のエント リの詳細構成を示す。  FIG. 7 shows a detailed configuration of the entry of the tag memory 4.
4 0 1はア ドレスフィールドで、 ア ドレスのビッ ト 3 1からビッ ト 2 2の 1 0ビッ トを保持する。 4 0 2はメモリロードフラグで、 論理値が 1の時、 このエン トリで示されるァドレスに対してメモリへロード要求中であること を示す。 4 0 3はダ一ティフラグで、 論理値が 1の時、 このェントリで示さ れるァドレスに対してブロセッサ 1からス トァが発行された (メモリと値が 異なる =ダ一ティである) ことを示す。  Reference numeral 401 denotes an address field, which holds 10 bits from bit 31 to bit 22 of the address. 402 is a memory load flag. When the logical value is 1, it indicates that a load request to the memory for the address indicated by this entry is being made. 403 is a duty flag. When the logical value is 1, it indicates that a store has been issued from processor 1 for the address indicated by this entry (the memory and the value are different = duty). .
キャッシュ制御回路 5は、 プロセッサ 1からのロード要求あるいはス トア 要求が送られた時、 あるいは主記憶装置 2から口一ドデータが送られた時、 キャッシュヒ ッ ト判定あるいはリフレースウェイ決定を行う。  The cache control circuit 5 performs a cache hit determination or a refresh race determination when a load request or a store request is sent from the processor 1 or when a cached data is sent from the main storage device 2.
また、 キャッシュ制御回路 5は、 ブロセッサ 1からのロード要求あるいは ス トア要求、 あるいは主記憶装置 2からロードデータが送られ、 ア ドレス ラッチ 8にア ドレスがセッ トされた時、 信号線 1 0 5を介して送られるアド レスビッ ト 6の値からアクセスを行うデ一タメモリのバンクを選択する。 次 に、 信号線 1 0 5を介して送られるァドレスビッ ト 2 1から 1 1の値を用い て、 選択したバンクに対してロウアクセスを行うか否かを判定する。 選択し たバンクにおいて、 ア ドレスビッ 卜 2 1力、ら 1 1の値と同じ口ゥ番号に対し てアクティブコマンドが発行されており、 かつプリチャージが未発行であつ た場合 (ケース 1 ) 、 ロウアクセス不要と判定する。 ケース 1以外の場合、 ロウアクセス要と判定し、 信号線 1 0 9上に論理値 0を送り、 選択したバン ク番号に従って信号線 1 1 0、 1 1 1いずれかの上にアクティブコマンドを 送る。 次に、 キャッシュヒッ ト判定の詳細手順を説明する。 When a load request or a store request from the processor 1 or load data is sent from the main storage device 2 and an address is set in the address latch 8, the cache control circuit 5 Selects the data memory bank to be accessed from the value of address bit 6 sent via. Next, using the values of the address bits 21 to 11 sent via the signal line 105, it is determined whether or not to perform row access to the selected bank. In the selected bank, if an active command has been issued to the same port number as the value of address bits 21 and 11 and precharge has not been issued (Case 1), the row is deactivated. It is determined that access is unnecessary. In cases other than Case 1, it is determined that row access is required, a logical value 0 is sent on the signal line 109, and an active command is sent on one of the signal lines 110, 111 according to the selected bank number. . Next, a detailed procedure of the cache hit determination will be described.
キャッシュ制御回路 5は、 信号線 1 0 5を介して送られるァドレスラッチ 8のビッ 卜 3 1からビッ ト 2 2の ί直と、 信号線 1 0 6を介して送られるタグ メモリ 4のリードデータを用いてキャッシュヒッ 卜判定を行う。  The cache control circuit 5 reads the bits 31 to 22 of the address latch 8 sent via the signal line 105 and the read data of the tag memory 4 sent via the signal line 106. Is used to make a cache hit determination.
キャッシュヒッ ト判定の論理は、 プロセッサ 1からのロード要求あるいは ス トァ要求が送られた時と、 主記憶装置 2からロードデータが送られた時と で異なる。  The logic of the cache hit determination differs between when a load request or a store request is sent from the processor 1 and when the load data is sent from the main storage device 2.
1 ) プロセッサ 1からの口一ド要求あるいはス トァ要求が送られた時  1) When a mouth request or store request is sent from processor 1
信号線 1 0 5を介して送られるァドレスラツチ 8のビッ ト 3 1からビット 2 2の値と、 信号線 1 0 5を介して送られるタグメモリ 4のリ一ドデータの ァドレスフィールド 4 0 1をウェイ毎に比較し、 比較の結果とメモリ ロード フラグ 4 0 2の値の反転値とをウェイ毎に A N Dする。 A N Dした結果の論 理値が 1であるウェイがあればキャッシュヒッ トであり、 このウェイをヒッ トウエイとする。 A N D した結果の論理値が 1であるウェイがなければ キャッシュミスである。  The value of bits 31 to 22 of the address latch 8 transmitted via the signal line 105 and the address field 401 of the read data of the tag memory 4 transmitted via the signal line 105 are weighed. The result of the comparison is ANDed with the inverted value of the memory load flag 402 for each way. If there is a way with a logical value of 1 as a result of AND, it is a cache hit and this way is a hitway. If there is no way for which the logical value of the result of A N D is 1, it is a cache miss.
2 ) 主記憶装置 2からロードデ一タが送られた時  2) When load data is sent from main storage device 2
信号線 1 0 5を介して送られるァドレスラツチ 8のビッ 卜 3 1からビッ 卜 2 2の値と、 信号線 1 0 5を介して送られるタグメモリ 4のリ一ドデータの ァドレスフィ一ルド 4 0 1をウェイ毎に比較し、 比較の結果とメモリ 口一ド フラグ 4 0 2の値とをゥヱイ毎に A N Dする。 A N Dした結果の論理値が 1 であるウェイがあればキヤッシュヒッ 卜であり、 このウェイをヒッ トウエイ とする。 A N Dした結果の論理値が 1であるウェイがなければキヤッシユミ スである。 なお本実施例では、 メモリロードフラグ 4 0 2の論理値が 1であ るウェイはリプレースゥヱイの対象としないものとする。 このため、 主記憶 装置 2からロードデータが送られた時、 キャッシュミスとなることはなくな る。  The value of bits 31 to 22 of address latch 8 sent via signal line 105 and the address field of read data of tag memory 4 sent via signal line 105 4 0 1 Is compared for each way, and the result of the comparison is ANDed with the value of the memory entry flag 402 for each bay. If there is a way with a logical value of 1 as a result of AND, it is a cache hit, and this way is defined as a hitway. If no way has a logical value of 1 as a result of A N D, it is cache miss. In this embodiment, it is assumed that the way in which the logical value of the memory load flag 402 is 1 is not a target of the replacement pay. Therefore, when the load data is sent from the main storage device 2, a cache miss does not occur.
次ぎに、 リプレースウェイ決定の詳細手順を説明する。  Next, the detailed procedure for determining the replacement way will be described.
キャッシュ制御回路 5は、 キヤッシュミス判定時にはリァレースウェイを 決定する。 リプレースウェイの决定方式としては、 ランダム方式、 L R U方 式等が知られているが、 本実施例においては決定方式の選択は重要ではない ので、 ランダム方式やし R U方式等のうちのいずれか適当な方式を用いるこ ととする。 なお、 前述の通り、 本実施例では、 メモリロードフラグ 4 0 2の 論理値が 1であるウェイはリブレースウェイの対象としない方式を採用する 力';、 これを採用しなくて 良い。 リフレースウェイに決定したウェイのダ一 ティフラグ 4 0 3の論理値が 1の時、 ライ トバックを行う。 The cache control circuit 5 determines a release way when a cache miss is determined. As a method of determining the replacement way, a random method, an LRU method, or the like is known. However, in this embodiment, since the selection of the determination method is not important, any one of the random method, the RU method, and the like is appropriate. A simple method shall be used. Note that, as described above, in the present embodiment, the way in which the logic value of the memory load flag 402 is 1 adopts a method that is not a target of the rib raceway. This need not be adopted. No. of way decided as riff raceway When the logical value of the ti flag 403 is 1, write-back is performed.
キャッシュ制御回路 5は、 以上で説明したキャッシュヒッ ト判定、 リブ レースウェイ決定の結果に基づいて、 次の動作を行う。  The cache control circuit 5 performs the following operation based on the results of the cache hit determination and the live raceway decision described above.
(動作 1 )  (Operation 1)
キャッシュヒ ッ ト時、 アクセスウェイ番号としてヒ ッ トウェイ番号を 2 ビッ トにエンコードして信号線 1 0 7上に送る。 キャッシュミス時、 ァクセ スウェイ番号としてリブレースウェイ番号を 2ビッ 卜にエンコードして信号 線 1 0 7上に送る。  At the time of a cache hit, the hitway number is encoded into 2 bits as an access way number and sent on the signal line 107. At the time of a cache miss, the rib raceway number is encoded as an access way number into two bits and sent on the signal line 107.
(動作 2 )  (Operation 2)
プロセッサからのロード要求におけるキャッシュミス時、 ί言号線.1 0 5を 介してァドレスラツチ 8から送られたァドレスビット 6からビッ ト 3 1の値 を、 メモリへのロードア ドレスとして信号線 1 0 8上に送る。 また、 ライ ト ノベック時、 信号線 1 0 5を介してァ ドレスラツチ 8から送られたァドレス ビッ ト 6からビッ ト 2 1の値と、 リプレースウェイに決定したウェイのァド レスフィールド 4 0 1の値とを結合して、 メモリへのス トアア ドレスとして 信号線 1 0 8上に送る。  At the time of a cache miss in the load request from the processor, the word line.The value of bit 31 from address bit 6 sent from address latch 8 via 105 is used as the load address to memory on signal line 108. Send to Also, at the time of write Novec, the values of address bits 6 to 21 sent from address latch 8 via signal line 105 and the address field 401 of the way determined as the replacement way are used. Combine with the value and send on signal line 108 as a store address to memory.
(動作 3 )  (Operation 3)
キャッシュヒッ ト判定時及びライ トバックを行う時、 信号線 1 0 9上に論 理値 1を出力する。 また、 信号線 1 1 0あるいは 1 1 1を介して、 バンク 0 デ一タメモリ 1 5あるいはバンク 1データメモリ 1 6の S D R AM制御回路 6へ、 カラムアクセスコマンド (リードコマン ドあるレヽはライ トコマンド) を送る。  When a cache hit is determined and write-back is performed, a logical value of 1 is output on the signal line 109. Also, a column access command (a read command is used for a command with a read command) to the SDRAM control circuit 6 of the bank 0 data memory 15 or the bank 1 data memory 16 via the signal line 110 or 111. ).
(動作 4 )  (Operation 4)
プロセッサ 1力、らのロード要求に対してキヤッシュミス判定時、 タグメモ リ 4のリプレースウェイのエン ト リに対して、 ア ドレスフィールド 4 0 1に ア ドレスラッチ 8のビッ ト 3 1力 ら 2 2の値をライ 卜し、 メモリ ロー ドフラ グ 4 0 2に論理値 1をライ 卜する。  When a cache miss is determined in response to a load request from the processor 1 and the like, the address latch 4 bit 2 of the address latch 4 is stored in the address field 410 for the tag memory 4 replacement way entry. Write the value of, and write the logical value 1 to memory load flag 402.
プロセッサ 1からのス トァ要求に対してキヤッシュミス判定時、 タグメモ リ 4のリ プレ一スウェイのェン ト リに対して、 ァ ドレスフィ ールド 4 0 1に ア ドレスラッチ 8のビッ ト 3 1から 2 2の値をライ トし、 ダーティフラグ 4 0 3に論理値 1をライ 卜する。  When a cache miss is determined in response to a store request from processor 1, address latch 401 is assigned to address field 410 of address space of tag memory 4 bits 31 to 2 of address latch 8 Write the value of 2 and write the logical value 1 to the dirty flag 403.
主記憶装置 2からのロ ー ドデータ送付に対してキャッシュヒッ 卜判定時、 タグメモリ 4のヒ ッ トウェイのェン トリに対して、 メモリ ロー ドフラグ 4 0 2に論理値 0をライ 卜し、 ダーティフラグ 4 0 3に論理値 0をライ 卜する。 図 8に、 プロセッサ 1からのロード要求に対して、 キャッシュヒッ ト判定 時あるいはライ トバック時のタイムチヤ一トを示す。 ロードアドレスはバン ク 0データメモリ 1 5に含まれるとする。 When a cache hit is determined for the load data sent from the main storage device 2, a logical value 0 is written to the memory load flag 402 for the entry of the hitway of the tag memory 4 to be dirty. Write logical value 0 to flag 4003. FIG. 8 shows a time chart at the time of cache hit determination or writeback in response to a load request from the processor 1. It is assumed that the load address is included in bank 0 data memory 15.
時刻 t 2 0でア ドレスラッチ 8に口一ドアドレスがセッ トされる。 タグメ モリ 4のリードと同時に、 バンク 0デ一タメモリに対してアクティブコマン ドが送られる。 時刻 t 2 1でキヤッシュヒッ ト判定が確定し、 時刻 t 2 2で バンク 0データメモリ 1 5に対してリードコマンドが送られる。 図 8には記 述していないが、 時刻 t 2 2でバンク 0データメモリ 1 5に送られるァドレ スは、 キャッシュヒ ッ ト判定時はヒッ トウェイのア ドレスで、 ライ トバック 時はリプレースウェイのア ドレスである。 キャッシュヒッ ト判定時、 時刻 t 2 3でロードデータが出力される。 また、 ライ トノくック時、 時刻 t 2 3でラ ィ トバックデータが出力される。 日寺刻 t 2 2から t 2 3の時間間隔はカラム アクセスディ レイである。 図 8では時刻 t 2 0カゝら t 2 1までの時間間隔 (ヒッ ト判定レイテンシ) 力;、 アクティブ一カラムコマンドディレイより小 さい場合を示した。 ヒッ ト判定レイテンシがアクティブ一力ラムコマンド ディレイと同じ時は、 時刻 t 2 1 と t 2 2が同時刻となる。  At time t 20, the address latch is set to the address latch 8. At the same time that tag memory 4 is read, an active command is sent to the bank 0 data memory. At time t21, the cache hit determination is determined, and at time t22, a read command is sent to bank 0 data memory 15. Although not described in FIG. 8, the address sent to bank 0 data memory 15 at time t22 is the address of the hitway at the time of cache hit determination, and the address of the replaceway at the time of writeback. It is an address. At the time of cache hit determination, load data is output at time t23. At the time of light knocking, write-back data is output at time t23. The time interval from t22 to t23 is the column access delay. FIG. 8 shows a case where the time interval (hit judgment latency) from time t 20 to t 21 is smaller than the active one column command delay. When the hit determination latency is the same as the active one-time ram command delay, the times t 21 and t 22 are the same.
以上のとおり、 データメモリのロウアクセスをキャッシュヒッ ト判定結果 の確定より先行して行うことにより、 キャッシュアクセスのレイテンシ短縮 を実現することができる。 キャッシュヒッ 卜判定結果確定時にカラムァドレ スを変えるだけでヒッ トゥヱイ及びリプレースウェイの読み出しが行えるた め、 キャッシュミス時でもデ一タメモリバンクの先行した口ゥアクセスが無 駄とならない。 よって、 キャッシュメモリのダ一ティ率 (キャッシュに保持 するデータが更新されておりメモリにある内容と異なる確率) が高いシステ ムでは、 先行ロウアクセスを行わない場合と比較して、 データメモリバンク の使用効率を低下させないでアクセスレイテンシの短縮を実現できる。  As described above, by performing the row access of the data memory prior to the determination of the cache hit determination result, the latency of the cache access can be reduced. When the cache hit determination result is determined, the hit-and-replace way can be read only by changing the column address. Therefore, even in the event of a cache miss, the preceding access to the data memory bank is not wasted. Therefore, in a system where the duty ratio of the cache memory (the probability that the data held in the cache is updated and differs from the contents in the memory) is high, the data memory bank of the data memory bank is compared with the case where the preceding row access is not performed. Access latency can be reduced without reducing usage efficiency.
また、 キャッシュミスでリプレースウェイをライ トバックする必要がない 場合、 データメモリバンクの先行したロウアクセスが無駄となり、 不要なバ ンクのビジ一時間を作り出してしまう力 上記実施例に示すようにデ一タメ モリバンクを複数設けることにより、 後続のキャッシュアクセスが不要なバ ンクビジ一時間のために被る被害を低减することができる。  In addition, when it is not necessary to write back the replacement way due to a cache miss, the preceding row access of the data memory bank is wasted, and the time required to create an unnecessary bank busy time is reduced as shown in the above embodiment. By providing a plurality of memory banks, it is possible to reduce damage caused by one hour of bank visits in which subsequent cache access is unnecessary.
上記実施例によれば、 S D R A Mを用いたキャッシュシステムにおいて、 キャッシュのヒ ッ ト判定とデータメモリアクセスを効率良くォ一バーラップ することができる。  According to the above embodiment, in a cache system using SDRAM, it is possible to efficiently overlap cache hit determination and data memory access.
以上、 本発明の実施例に Sづき具体的に説明したが、 本発明は前記実施例 に限定されるものではなく、 その要旨を逸脱しない範囲で種々変更し得るこ とは言うまでもない。 As described above, the embodiment of the present invention has been specifically described based on S. It is needless to say that the present invention is not limited to this and various changes can be made without departing from the gist of the present invention.
例えば、 上述の実施例においては、 データメモリのメモリ素子として S D R A Mを用いたが、 一般の D R A M等の口ゥアクセス及びカラムアクセスの 2つのステップによってアクセスするメモリ素子であればよい。 すなわち、 デ一タメモリのメモリ素子としてこのようなメモリ素子を用いれば、 キヤッ シュアクセスに際し、 ロウアクセスをキャッシュヒッ ト判定確定以前に以前 に実行し、 カラムアクセスをキヤッシュヒッ ト判定確定以降に実行すること によりアクセスレイテンシを短縮できることは言うまでもない。  For example, in the above embodiment, the SDRAM was used as the memory element of the data memory, but any memory element such as a general DRAM that can be accessed by two steps of mouth access and column access may be used. That is, if such a memory element is used as the memory element of the data memory, the row access is executed before the cache hit determination is determined and the column access is executed after the cache hit determination is performed at the time of the cache access. Needless to say, this can reduce access latency.
また、 上述の実施例においては、 プロセッサチップ搭載のキャッシュ (レ ベル 1キャッシュ) については特に述べなかったが、 通常はプロセッサチッ ブ搭載のレベル 1 キャッシュと、 上記実施冽に示した S D R AM等の外付け メモリチップからなるレベル 2キヤッシュとでキヤッシュメモリを構成する ことが多い。 このような構成の計算機システムにおいて、 レベル 2キヤッ シュに本発明のキヤッシュメモリ装置を適用すれば、 レべノレ 2キヤッシュの アクセスレイテンシを短縮し、 2 レベルのキヤッシュメモリ全体として性能 を向上させることができることはいうまでもない。 また、 レベル 2よりも」 さらに主記憶装置側に位置付けられるレベル 3キャッシュ等を設け、 このレ ベル 3キャッシュ等に本発明を適用可能であることは言うまでもない。 産業上の利用可能性  Also, in the above embodiment, the cache with the processor chip (level 1 cache) is not particularly described. However, the level 1 cache with the processor chip and the SRAM such as the SDRAM shown in the above example are usually used. A cache memory is often composed of a level 2 cache consisting of external memory chips. In the computer system having such a configuration, if the cache memory device of the present invention is applied to the level 2 cache, the access latency of the level 2 cache can be reduced, and the performance of the entire 2-level cache memory can be improved. It goes without saying that you can do it. It is needless to say that a level 3 cache or the like positioned on the main storage device side is provided, and the present invention can be applied to the level 3 cache or the like. Industrial applicability
本願発明を、 階層化されたメモリ構造と、 ダイレク トメモリアクセス (D M A ) 機能を備える情報処理装置, 特に D M A処理が発生したときに階層化 されたメモリ間 (例えばメインメモリ とキャッシュメモリ) の一致性の保証 をスヌ一ブ処理によって行う情報処理装置に適用することにより、 D M A発 生時に階層化されたメモリ問の一致性を保証しつつ、 メモリアクセスタイム の低减によるシステム性能の向上が可能になる。  According to the present invention, the matching between a hierarchical memory structure and an information processing device having a direct memory access (DMA) function, particularly between hierarchical memories (for example, a main memory and a cache memory) when a DMA process occurs. By applying the assurance to the information processing device that performs snub processing, it is possible to improve the system performance by reducing the memory access time while guaranteeing the consistency of the hierarchical memory questions when DMA occurs. become.

Claims

請 求 の 範 囲 The scope of the claims
1 . データを格納するデータメモリ と、 ア ドレスを格納するタグメモリ とを 備えるキャッシュメモリ装置であって、 1. A cache memory device including a data memory for storing data and a tag memory for storing an address,
前記データメモリはロウアクセスとカラムアクセスの 2つのステップに よってアクセスするメモリ素子で構成され、  The data memory is composed of memory elements accessed by two steps of row access and column access,
キヤッシュアクセスに際して、 前記デ一タメモリのロウアクセスを キャッシュヒッ 卜判定確定以前に実行することを特徴とするキヤッシュメ モリ装置。  A cache memory device, wherein a row access of the data memory is executed before a cache hit determination is determined upon a cache access.
2 . キャッシュアクセスに際して、 カラムアクセスをキャッシュ判定確定以 降に実行することを特徴とする請求項 1記載のキャッシュメモリ装置。2. The cache memory device according to claim 1, wherein at the time of cache access, a column access is performed after a cache determination is determined.
3 . データを格納するデ一タメモリと、 ア ドレスを格納するタグメモリ とを 備え、 ロウアクセスとカラムアクセスの 2つのステップによってアクセス するメモリ素子を前記データメモリ として使用し、 前記タグメモリのイン デクスァ ドレスであるセッ ト番号に対して複数のウェイが存在する複数連 想性のキャッシュメモリ装置であって、 3. It has a data memory for storing data and a tag memory for storing addresses, and uses a memory element accessed by two steps of row access and column access as the data memory, and an indexer of the tag memory. A multiple associative cache memory device in which a plurality of ways exist for a set number as a dress,
同一セッ 卜番号の全ウェイのデータが、 前記データメモリの同一ロウァ ドレスに配置されることを特徴とするキャッシュメモリ装置。  A cache memory device wherein data of all ways having the same set number is arranged at the same address of the data memory.
4 . データを格納するデータメモリと、 ア ドレスを格納するタグメモリと、 キャッシュ制御手段とを備え、 ロウアクセスとカラムアクセスの 2つのス テツブによってアクセスするメモリ素子を前記データメモリとして使用し、 前記タグメモリのィンデクスァ ドレスであるセッ ト番号に対して複数の ゥヱイが存在する複数連想性のキャッシュメモリ装置であって、  4. A data memory for storing data, a tag memory for storing addresses, and a cache control means, wherein a memory element accessed by two steps of row access and column access is used as the data memory, A multiple associative cache memory device in which a plurality of bays exist for a set number which is an index address of a tag memory,
同一セッ ト番号の全ウェイのデータを、 前記データメモリの同一口ゥァ ドレスに配匱し、  The data of all ways having the same set number is allocated to the same address in the data memory,
前記キャッシュ制御手段は、 キャッシュアクセスに際して、 前記データ メモリのロウアクセスをキヤッシュヒ ッ 卜判定確定以前に実行し、  The cache control means executes a row access of the data memory before a cache hit determination is determined at the time of a cache access,
前記キャッシュヒッ ト判定においてキャッシュヒッ 卜が判定された場合、 ヒ ッ 卜したウェイの番号を用いて前記データメモリのカラムアクセスを実 行し、  When a cache hit is determined in the cache hit determination, a column access of the data memory is executed using the number of the hit way, and
前記キャッシュヒッ 卜判定においてキャッシュミスが判定され、 かつリ ブレース対象のウェイをキヤッシュ対象とするメモリにライ 卜バックする 必要がある場合、 前記リブレース対象のウェイの番号を用いて前記データ メモリのカラムアクセスを実行し、 前記キャッシュヒッ ト判定においてキャッシュミスが判定され、 かつリ プレース対象のゥヱイをキヤッシュ対象とするメモリにライ トバックする 必要がない場合、 前記データメモリのカラムアクセスを中断することを特 徴とするキヤッシュメモリ装置。 If a cache miss is determined in the cache hit determination, and it is necessary to write back the rebrace target way to the memory to be cached, the data memory column access is performed using the rebrace target way number. Run A cache memory characterized in that column access to the data memory is interrupted when a cache miss is determined in the cache hit determination and it is not necessary to write back the replacement target cache to the cache target memory. apparatus.
5 . 前記データメモリを複数のバンクから構成することを特徴とする請求項5. The data memory comprises a plurality of banks.
4記載のキヤッシュメモリ装置。 4. The cache memory device according to 4.
6 . 前記データメモリを D R AMで構成することを特徴とする請求項 1記載 のキヤッシュメモリ装置。  6. The cache memory device according to claim 1, wherein the data memory comprises a DRAM.
7 . 前記データメモリをシンクロナス D R AMで構成することを特徴とする 請求項 1記載のキャッシュメモリ装置。  7. The cache memory device according to claim 1, wherein the data memory comprises a synchronous DRAM.
8 . プロセッサと、 主記憶装置と、 前記主記憶装置に記憶するデータの一部 を保持するキヤッシュメモリ装置と、 前記プロセッサ及び前記キャッシュ メモリ装置を接続するプロセッサバスと、 前記主記憶装置及び前記キヤッ シュメモリ装置を接続するメモリバスとを有する情報処理システムであつ て、  8. A processor, a main storage device, a cache memory device that retains a part of data stored in the main storage device, a processor bus connecting the processor and the cache memory device, the main storage device and the cache. An information processing system having a memory bus for connecting a flash memory device,
前記プロセッサは、 前記プロセッサバスを介して前記キャッシュメモリ 装置にデータロードを要求する手段と、 前記プロセッサバスを介して前記 キャッシュメモリ装置にデータストァを要求する手段とを有し、  The processor has means for requesting a data load to the cache memory device via the processor bus, and means for requesting a data store to the cache memory device via the processor bus,
前記主記憶装置は、 前記メモリバス経由の前記キヤッシュメモリ装置か らのロード要求に応じて要求されたデータを前記キャッシュメモリ装置に 送る手段と、 前記メモリバス経由の前記キヤッシュメモリ装匱からのス ト ァ要求に応じて受け取ったデータをストァする手段とを有し、  Means for sending requested data to the cache memory device in response to a load request from the cache memory device via the memory bus; and a switch from the cache memory device via the memory bus. Means for storing the data received in response to the store request.
前記キャッシュメモリ装 gは、 データを格納するデータメモリ と、 アド レスを格納するタグメモリとを備え、 前記データメモリはロウアクセスと カラムアクセスの 2つのステップによってアクセスするメモリ素子で構成 され、 キャッシュアクセスに際して、 前記データメモリのロウアクセスを キャッシュヒッ ト判定確定以前に実行することを特徴とする情報処理シス テム。  The cache memory device g includes a data memory that stores data, and a tag memory that stores an address. The data memory is configured by a memory element that is accessed by two steps of row access and column access. In this case, the information processing system executes a row access of the data memory before a cache hit determination is determined.
9 . キャッシュアクセスに際して、 カラムアクセスをキャッシュ判定確定以 降に実行する二とを特徴とする請求項 8記載の情報処理システム。  9. The information processing system according to claim 8, wherein at the time of cache access, a column access is executed after a cache determination is determined.
1 0 . プロセッサと、 主記憶装匱と、 前記主記憶装匱に記憶するデータの一 部を保持するキヤッシュメモリ装置と、 前記プロセッサ及び前記キヤッ シュメモリ装匱を接続するブロセッサバスと、 前記主記憶装置及び前記 キャッシュメモリ装置を接続するメモリバスとを有する情報処理システム であって、 10. A processor, a main storage device, a cache memory device for holding a part of data stored in the main storage device, a processor bus connecting the processor and the cache memory device, and the main storage device. And an information processing system having a memory bus connecting the cache memory device And
前記プロセッサは、 前記プロセッサバスを介して前記キヤッシュメモリ 装置にデータロードを要求する手段と、 前記プロセッサバスを介して前記 キャッシュメモリ装匱にデ一タス トァを要求する手段とを有し、  The processor has means for requesting the cache memory device to load data via the processor bus, and means for requesting a data store from the cache memory device via the processor bus.
前記主記憶装置は、 前記メモリバス経由の前記キャッシュメモリ装匱か らの口一ド要求に応じて要求されたデータを前記キャッシュメモリ装置に 送る手段と、 前記メモリバス経由の前記キヤッシュメモリ装置からのスト ァ要求に応じて受け取ったデータをストァする手段とを有し、  The main storage device includes: a unit that sends requested data to the cache memory device in response to a cache request from the cache memory device via the memory bus; and the cache memory device via the memory bus. Means for storing the data received in response to the storage request of
前記キャッシュメモリ装置は、 データを格納するデータメモリと、 アド レスを格納するタグメモリ と、 キャッシュ制御手段とを備え、 ロウァクセ スとカラムアクセスの 2つのステップによってアクセスするメモリ素子を 前記データメモリ と して使用し、 前記タグメモリのインデクスァ ドレスで あるセッ ト番号に対して複数のウェイが存在する複数連想性のキヤッシュ メモリ装置であり、  The cache memory device includes a data memory for storing data, a tag memory for storing an address, and cache control means, and a memory element accessed in two steps of row access and column access is referred to as the data memory. A multiple associative cache memory device in which a plurality of ways exist for a set number, which is an index address of the tag memory.
同一セット番号の全ウェイのデータを、 前記データメモリの同一ロウァ ドレスに配置し、  Placing data of all ways of the same set number in the same address of the data memory,
前記キャッシュ制御手段は、 キャッシュアクセスに際して、 前記データ メモリのロウアクセスをキャッシュヒ ッ ト判定確定以前に実行し、  The cache control means executes a row access of the data memory before a cache hit determination is determined at the time of a cache access,
前記キャッシュヒッ ト判定においてキャッシュヒッ 卜が判定された場合、 ヒットしたウェイの番号を用いて前記データメモリのカラムアクセスを実 行し、  When a cache hit is determined in the cache hit determination, a column access of the data memory is executed using a hit way number,
前記キャッシュヒッ 卜判定においてキャッシュミスが判定され、 かつリ ブレース対象のウェイを前記主記憶装置にライ トバックする必要がある場 合、 前記リプレース対象のウェイの番号を用いて前記データメモリのカラ ムアクセスを実行し、  If a cache miss is determined in the cache hit determination and the way to be rebraced needs to be written back to the main storage device, column access to the data memory is performed using the number of the way to be replaced. Run
前記キャッシュヒッ ト判定においてキャッシュミスが判定され、 かつリ ブレース対象のウェイを前記主記憶装置にライ トバックする必要がない場 合、 前記データメモリのカラムアクセスを中断することを特徴とする情報 処理システム。  An information processing system for suspending column access of the data memory when a cache miss is determined in the cache hit determination and a way to be rebraced does not need to be written back to the main storage device. .
1 1 . 前記データメモリを D R A Mで構成することを特徴とする請求項 8記 載の情報処理システム。 11. The information processing system according to claim 8, wherein the data memory is configured by DRAM.
1 2 . 前記データメモリをシンクロナス D R A Mで構成することを特徴とす る請求項 1 0記載の情報処理システム。 12. The information processing system according to claim 10, wherein said data memory is configured by synchronous DRAM.
PCT/JP1996/002020 1996-07-19 1996-07-19 Cache memory device and information processing system WO1998003918A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US09/182,046 US20010034808A1 (en) 1996-07-19 1996-07-19 Cache memory device and information processing system
PCT/JP1996/002020 WO1998003918A1 (en) 1996-07-19 1996-07-19 Cache memory device and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1996/002020 WO1998003918A1 (en) 1996-07-19 1996-07-19 Cache memory device and information processing system

Publications (1)

Publication Number Publication Date
WO1998003918A1 true WO1998003918A1 (en) 1998-01-29

Family

ID=14153579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/002020 WO1998003918A1 (en) 1996-07-19 1996-07-19 Cache memory device and information processing system

Country Status (1)

Country Link
WO (1) WO1998003918A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040010A (en) * 2009-08-18 2011-02-24 Kobe Univ Cache memory, and method of switching mode thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6439691A (en) * 1987-08-05 1989-02-09 Mitsubishi Electric Corp Semiconductor memory device for handy cache system
JPH01189095A (en) * 1988-01-22 1989-07-28 Hitachi Ltd Cache memory
JPH03194790A (en) * 1989-12-25 1991-08-26 Hitachi Ltd Buffer memory device
JPH03205680A (en) * 1989-10-02 1991-09-09 Texas Instr Inc <Ti> Memory device having a plurality of memory cell of matrix arrangement
JPH0628239A (en) * 1990-11-29 1994-02-04 Sun Microsyst Inc Computer system provided with shortened memory acccess time and method for shortening of memory access time

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6439691A (en) * 1987-08-05 1989-02-09 Mitsubishi Electric Corp Semiconductor memory device for handy cache system
JPH01189095A (en) * 1988-01-22 1989-07-28 Hitachi Ltd Cache memory
JPH03205680A (en) * 1989-10-02 1991-09-09 Texas Instr Inc <Ti> Memory device having a plurality of memory cell of matrix arrangement
JPH03194790A (en) * 1989-12-25 1991-08-26 Hitachi Ltd Buffer memory device
JPH0628239A (en) * 1990-11-29 1994-02-04 Sun Microsyst Inc Computer system provided with shortened memory acccess time and method for shortening of memory access time

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NIKKEI ELECTRONICS, No. 641, (31 July 1995), (TOKYO), AKIRA FUKUDA et al., "Change over to High-Speed DRAM in Urgency of Its Decision, p. 100-125. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040010A (en) * 2009-08-18 2011-02-24 Kobe Univ Cache memory, and method of switching mode thereof

Similar Documents

Publication Publication Date Title
US5530941A (en) System and method for prefetching data from a main computer memory into a cache memory
US5465342A (en) Dynamically adaptive set associativity for cache memories
US6959374B2 (en) System including a memory controller configured to perform pre-fetch operations including dynamic pre-fetch control
TW384426B (en) Virtual channel memory system
US6295582B1 (en) System and method for managing data in an asynchronous I/O cache memory to maintain a predetermined amount of storage space that is readily available
JP2509766B2 (en) Cache memory exchange protocol
US6321296B1 (en) SDRAM L3 cache using speculative loads with command aborts to lower latency
JP3629519B2 (en) Programmable SRAM and DRAM cache interface
US6496905B1 (en) Write buffer with burst capability
US6332179B1 (en) Allocation for back-to-back misses in a directory based cache
EP3532933A1 (en) Hybrid memory module
US5287512A (en) Computer memory system and method for cleaning data elements
US6240487B1 (en) Integrated cache buffers
TW491970B (en) Page collector for improving performance of a memory
US7055016B2 (en) Computer system including a memory controller configured to perform pre-fetch operations
WO2006030382A2 (en) System and method for fetching information in response to hazard indication information
US20040153610A1 (en) Cache controller unit architecture and applied method
US5835945A (en) Memory system with write buffer, prefetch and internal caches
US5434990A (en) Method for serially or concurrently addressing n individually addressable memories each having an address latch and data latch
JPH1165925A (en) Information processor
US5953740A (en) Computer memory system having programmable operational characteristics based on characteristics of a central processor
US20010034808A1 (en) Cache memory device and information processing system
WO1998003918A1 (en) Cache memory device and information processing system
CN108509151B (en) Line caching method and system based on DRAM memory controller
EP0471462A1 (en) Computer memory operating method and system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09182046

Country of ref document: US

122 Ep: pct application non-entry in european phase