JP2010176692A - Arithmetic processing device, information processing apparatus, and control method - Google Patents

Arithmetic processing device, information processing apparatus, and control method Download PDF

Info

Publication number
JP2010176692A
JP2010176692A JP2010057979A JP2010057979A JP2010176692A JP 2010176692 A JP2010176692 A JP 2010176692A JP 2010057979 A JP2010057979 A JP 2010057979A JP 2010057979 A JP2010057979 A JP 2010057979A JP 2010176692 A JP2010176692 A JP 2010176692A
Authority
JP
Japan
Prior art keywords
cache
prefetch
data
address
line size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010057979A
Other languages
Japanese (ja)
Inventor
Mikio Hondo
幹雄 本藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010057979A priority Critical patent/JP2010176692A/en
Publication of JP2010176692A publication Critical patent/JP2010176692A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suppress wasteful consumption of a low hierarchy cache access pipeline by a hardware prefetch request issued from a cash memory of high hierarchy to a cache memory of low hierarchy in a cache memory having a plurality of hierarchies. <P>SOLUTION: A processor having prefetch function includes a cache memory of first hierarchy having a first line size; a cache memory of second hierarchy lower in hierarchy than the cash memory of first hierarchy and having a second line size different from the first line size, and a prefetch control part which issues, for each second line size, the prefetch request from the cache memory of first hierarchy to the cache memory of second hierarchy so as to prefetch a block corresponding to the first line size. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、お互いにラインサイズが異なる2階層以上のキャッシュメモリを備えるプロセッサに関し、更に詳しくはキャッシュメモリに対するプリフェッチ機能を有するプロセッサについての技術に関する。   The present invention relates to a processor having two or more layers of cache memories having different line sizes, and more particularly to a technique for a processor having a prefetch function for a cache memory.

従来からHPC(High Performance Computing)など、科学技術計算等で用いられるメモリへの連続アクセスを行うコンピュータでは、キャッシュレジスタに対してプリフェッチの技術が適用されている。   2. Description of the Related Art Conventionally, in a computer that performs continuous access to a memory used in science and technology calculations, such as HPC (High Performance Computing), a prefetch technique is applied to a cash register.

プリフェッチは、近い将来必要とされている命令もしくはデータを予め予測してキャッシュメモリ等に読み込んでおく手法で、キャッシュメモリのキャッシュミスを減らすことが出来る。   Prefetching is a technique of predicting instructions or data that will be required in the near future in advance and reading them into the cache memory or the like, and can reduce cache memory cache misses.

特許文献1は、プリフェッチ機能を備えたキャッシュシステムについて開示がある。特許文献1のシステムでは、メモリデータへの連続アクセスする場合において、キャッシュミスを起因として、連続アクセスにおいて次にアクセスするラインサイズ先の予測アドレスをキューに登録しておき、実際にアクセスアドレスがキューにヒットし、予測が当たった場合に、連続アクセスであると判断し、ラインサイズ先の次にアクセスするアドレスに対して、プリフェッチを発行している。   Patent Document 1 discloses a cache system having a prefetch function. In the system of Patent Document 1, in the case of continuous access to memory data, a predicted address of the line size destination to be accessed next in continuous access is registered in a queue due to a cache miss, and the access address is actually queued. Is hit and the prediction is successful, it is determined that the access is continuous, and a prefetch is issued to the address accessed next to the line size.

複数階層のキャッシュメモリにおいて、上位階層のキャッシュメモリと下位階層のキャッシュメモリとでラインサイズが異なる場合、最下位階層のキャッシュミスによって、ムーブインされるデータサイズは、上位階層のラインサイズから下位階層のラインサイズまでのいずれかのサイズである。そして、ハードウエアプリフェッチが機能する連続アクセスのケースでは、もっともデータサイズの大きい下位階層のラインサイズであるケースがもっとも性能が高くなるため、上記ケースでは、ムーブインされるデータサイズは、下位階層のキャッシュのラインサイズである可能性が高い。   In a multi-level cache memory, if the upper-level cache memory and the lower-level cache memory have different line sizes, the data size to be moved in due to a cache error in the lower-level hierarchy is changed from the upper-level line size to the lower-level cache memory. Any size up to the line size. In the case of continuous access in which hardware application fetch functions, the case of the line size of the lower hierarchy with the largest data size provides the highest performance. In this case, the data size to be moved in is the cache of the lower hierarchy. The line size is likely to be.

たとえば、Columbus2メモリシステムでは、キャッシュミスによりムーブインされるデータサイズは、メモリアクセスのケースでは下位階層のキャッシュのラインサイズであるが、コピーバックのケースでは上位階層のキャッシュのラインサイズである。   For example, in the Columbia 2 memory system, the data size moved in due to a cache miss is the line size of the lower layer cache in the case of memory access, but the line size of the upper layer cache in the copy back case.

連続アクセスの多いHPC系JOBでは、コピーバック率が低いため、上記の連続アクセスのケースでは、ムーブインされるデータサイズは、下位階層のキャッシュのラインサイズである可能性が高い。   Since an HPC JOB with many continuous accesses has a low copyback rate, the data size to be moved in is likely to be the cache line size of the lower hierarchy in the case of the above continuous access.

上位階層のキャッシュメモリと下位階層のキャッシュメモリとでラインサイズが異なるキャッシュメモリシステムにおいてプリフェッチを行うと、以下の問題点が生じる。
下位階層のキャッシュミスでムーブインされるデータサイズが、下位階層のキャッシュのラインサイズである場合、上位階層のキャッシュから下位階層のキャッシュに発行されるハードウエアプリフェッチの要求(下位階層のキャッシュへのムーブイン要求)は、下位階層のキャッシュのラインサイズにつき1回でよい。しかし、従来のキャッシュシステムでは上位階層のキャッシュのラインサイズごとに発行してしまい、無駄な下位階層キャッシュアクセスパイプラインを消費することとなる。
When prefetching is performed in a cache memory system in which the line size is different between an upper layer cache memory and a lower layer cache memory, the following problems occur.
When the data size moved in due to a cache miss in the lower hierarchy is the line size of the cache in the lower hierarchy, a hardware application fetch request issued from the upper hierarchy cache to the lower hierarchy cache (move-in to the lower hierarchy cache (Request) may be performed once for the line size of the cache in the lower hierarchy. However, in the conventional cache system, it is issued for each line size of the cache of the upper hierarchy, and a useless lower hierarchy cache access pipeline is consumed.

下位階層のキャッシュミスでムーブインされるデータサイズが、下位階層のキャッシュのラインサイズである場合、下位階層のキャッシュに発行されるハードウエアプリフェッチの要求は、下位階層のキャッシュのラインサイズにつき1回でよい。しかし、ハードウエアプリフェッチは、実装上の制約により、プリフェッチ要求をロストしてしまうケースが時々あり、ハードウエアプリフェッチがロストした場合には、プリフェッチ要求の発行が1回のみだと、下位階層のキャッシュへのメモリデータのムーブイン要求が発行されなくなってしまう。   If the data size moved in due to a cache error in the lower hierarchy is the line size of the lower hierarchy cache, a hardware application fetch request issued to the lower hierarchy cache can be issued once per line size of the lower hierarchy cache. Good. However, hardware application fetch sometimes loses the prefetch request due to implementation restrictions, and if the hardware application fetch is lost, if the prefetch request is issued only once, the cache of the lower layer No move-in request for memory data is issued.

下位階層のキャッシュレジスタで生じたキャッシュミスでムーブインされるデータサイズが、下位階層のキャッシュメモリのラインサイズである場合、下位階層のキャッシュメモリに対して発行されるプリフェッチ要求は、下位階層のキャッシュメモリのラインサイズにつき1回でよい。よって、上位階層のキャッシュレジスタでミスしたアドレスに対して、上位階層のキャッシュメモリのラインサイズ分先のアドレスをプリフェッチ要求のプリフェッチアドレスの初期値としてしまうと、下位階層のキャッシュにとって同一ラインである可能性があるため、無駄なプリフェッチ要求で下位階層キャッシュアクセスパイプラインを消費する。   If the data size to be moved in due to a cache miss that occurred in the lower-level cache register is the line size of the lower-level cache memory, the prefetch request issued to the lower-level cache memory is the lower-level cache memory. Once per line size. Therefore, if the address that is the line size of the cache memory in the upper hierarchy is the initial value of the prefetch address of the prefetch request for the address missed in the cache register in the upper hierarchy, it may be the same line for the cache in the lower hierarchy Because of this, the lower-level cache access pipeline is consumed with a useless prefetch request.

プリフェッチが機能するメモリへの連続アクセスの場合では、下位階層のキャッシュメモリへムーブインされるデータサイズは、下位階層のキャッシュメモリのラインサイズである可能性が高いが、場合によっては下位階層のキャッシュのラインサイズとは異なるデータサイズであることもある。   In the case of continuous access to memory for which prefetch functions, the data size moved into the lower-level cache memory is likely to be the line size of the lower-level cache memory. The data size may be different from the line size.

特開2004−38345号公報JP 2004-38345 A

本発明の課題は、上記問題点を解決したプリフェッチ機能を有するプロセッサを提供することである。   An object of the present invention is to provide a processor having a prefetch function that solves the above problems.

上記課題を解決するため、本発明によるプリフェッチ機能を有するプロセッサは、第1の階層のキャッシュメモリ、第2の階層のキャッシュメモリ、及びプリフェッチ制御部を備える。   In order to solve the above problems, a processor having a prefetch function according to the present invention includes a first hierarchy cache memory, a second hierarchy cache memory, and a prefetch control unit.

第1の階層のキャッシュメモリは、第1のラインサイズを持つ。
第2の階層のキャッシュメモリは、当該第1の階層のキャッシュメモリの下位階層で、前記第1のラインサイズとは異なる大きさの第2のラインサイズを持つ。
The cache memory of the first hierarchy has a first line size.
The cache memory of the second hierarchy is a lower hierarchy of the cache memory of the first hierarchy and has a second line size that is different from the first line size.

プリフェッチ制御部は、前記第2のラインサイズ毎に、前記第1のラインサイズ分のブロックをプリフェッチするように、前記第1の階層のキャッシュメモリから前記第2の階層のキャッシュに対するプリフェッチ要求を発行する。   The prefetch control unit issues a prefetch request for the cache of the second hierarchy from the cache memory of the first hierarchy so as to prefetch the block corresponding to the first line size for each of the second line sizes. To do.

この構成により、不必要なプリフェッチ要求が発行されるのを防ぐことが出来る。
前記プリフェッチ制御部は、前記第2のラインサイズ毎に1回乃至複数回前記プリフェッチ要求を発行する構成とすることも出来る。
With this configuration, it is possible to prevent an unnecessary prefetch request from being issued.
The prefetch control unit may issue the prefetch request once to a plurality of times for each second line size.

また前記プリフェッチ制御部は、前記第1のラインサイズの2倍以上のブロックをプリフェッチするように、前記プリフェッチ要求を発行する構成とすることも出来る。
この構成により、実装上の制約によって、プリフェッチ要求がロストする場合にも対処することが出来る。
The prefetch control unit may be configured to issue the prefetch request so as to prefetch a block that is twice or more the first line size.
With this configuration, it is possible to cope with a case where a prefetch request is lost due to restrictions in implementation.

更に前記プリフェッチ制御部は、前記プリフェッチ要求を行うプリフェッチ先のアドレスを、前記第1の階層のキャッシュメモリでミスしたアドレスから前記第2のラインサイズ分先のアドレスとする構成とすることも出来る。   Furthermore, the prefetch control unit may be configured such that a prefetch destination address for performing the prefetch request is an address ahead of the second line size from an address missed in the cache memory of the first hierarchy.

また前記プリフェッチ制御部は、前記第1のラインサイズ毎に前記プリフェッチ要求を発行するのと、前記第2のラインサイズ毎に前記プリフェッチ要求を発行するのとを、ムーブインしたデータの大きさに基づいて切り換える切換部を更に備える構成とすることも出来る。   The prefetch control unit issues the prefetch request for each of the first line sizes and issues the prefetch request for each of the second line sizes based on the size of the moved-in data. It is also possible to employ a configuration that further includes a switching unit that switches between the two.

この構成により、コピーバック等第2のラインの大きさ以外のムーブインにも対処することが出来る。
本発明によれば、第1の階層のキャッシュメモリではなく、第2の階層のキャッシュメモリのラインサイズである第2のラインサイズ毎にプリフェッチ要求が発行されるので、無駄な発行によって、第2の階層のキャッシュメモリのアクセスパイプラインが消費されるのを抑制することが出来る。
With this configuration, it is possible to cope with a move-in other than the size of the second line such as copy back.
According to the present invention, the prefetch request is issued for each second line size that is the line size of the cache memory of the second hierarchy, not the cache memory of the first hierarchy. It is possible to suppress the consumption of the access pipeline of the cache memory in the hierarchy.

また、実装上の制約によって、プリフェッチ要求がロストしても、第2の階層のキャッシュメモリへのメモリデータのムーブイン要求が発行される可能性が高くなるようにすることで、性能向上が図れる。   Further, even if a prefetch request is lost due to implementation restrictions, performance can be improved by increasing the possibility that a memory data move-in request to the second-level cache memory will be issued.

更に、第1の階層のキャッシュメモリにミスしたアドレスに対して、第1のラインサイズ分先のアドレスではなく、第2の階層のキャッシュメモリのラインサイズ分先のアドレスをハードウエアプリフェッチのプリフェッチアドレスの初期値とすることによって、無駄な要求によって第2の階層のキャッシュアクセスパイプラインが消費されるのを抑制することが出来る。   Further, for the address missed in the cache memory of the first hierarchy, the address of the line size ahead of the cache memory of the second hierarchy is used instead of the address ahead of the first line size, and the prefetch address of the hardware application fetch By using this initial value, it is possible to suppress consumption of the cache access pipeline of the second hierarchy due to useless requests.

また最終的にムーブインしたデータサイズに応じて、ハードウエアプリフェッチ要求を発行することによって、第2の階層のキャッシュメモリへムーブインされるデータサイズが、第2の階層のキャッシュメモリのラインサイズと異なる場合でも、必要な要求がもれることなく、正しく要求が発行されるようになる。   When the data size moved into the second-level cache memory differs from the line size of the second-level cache memory by issuing a hardware application fetch request according to the finally moved-in data size However, the request can be correctly issued without leaking the necessary request.

本実施形態におけるコンピュータシステムのプロセッサ及びその周辺構成の概略図である。It is the schematic of the processor of the computer system in this embodiment, and its periphery structure. 本実施形態におけるプロセッサのメモリ管理部分を中心に描いた図である。It is the figure drawn focusing on the memory management part of the processor in this embodiment. 第1の実施形態のプリフェッチキュー(PFQ)の構成例を示す図である。It is a figure which shows the structural example of the prefetch queue (PFQ) of 1st Embodiment. 加算器の出力アドレスと比較器の出力の関係を示す図である。It is a figure which shows the relationship between the output address of an adder, and the output of a comparator. 手順8、9、10における各状態を示した図である。It is the figure which showed each state in procedure 8,9,10. 第1の実施形態のプリフェッチキュー(PFQ)の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the prefetch queue (PFQ) of 1st Embodiment. 第2の実施形態のプリフェッチキュー(PFQ)の構成例を示す図である。It is a figure which shows the structural example of the prefetch queue (PFQ) of 2nd Embodiment. 第3の実施形態のプリフェッチキュー(PFQ)の構成例を示す図である。It is a figure which shows the structural example of the prefetch queue (PFQ) of 3rd Embodiment. 第4の実施形態のプリフェッチキュー(PFQ)の構成例を示す図である。It is a figure which shows the structural example of the prefetch queue (PFQ) of 4th Embodiment.

以下に本発明の一実施形態を図面を参照しながら説明する。
図1は本実施形態におけるコンピュータシステムのプロセッサ及びその周辺構成の概略図である。
An embodiment of the present invention will be described below with reference to the drawings.
FIG. 1 is a schematic diagram of a processor of a computer system and its peripheral configuration in the present embodiment.

図1の構成では、プロセッサユニット1、プリフェッチ制御装置2、1次キャッシュ3、2次キャッシュ4及び主記憶装置5を有している。
プロセッサユニット1は、ALU、レジスタ等を含み、実際の計算やデータ処理を司る部分である。また同図の構成では、分岐予測等もプロセッサユニット1内で行われ、予測結果に基いたリクエストを1次キャッシュ3に行う。プリフェッチ制御装置2は、プリフェッチ処理の制御全般を受け持つ装置で、プロセッサユニット1から1次キャッシュ3へのリクエストアドレスを監視しながら、2次キャッシュ4にプリフェッチを要求する。1次キャッシュ3は、1次キャッシュシステムで、アクセス速度の早いメモリと1次キャッシュ制御装置から構成されている。2次キャッシュ4は、2次キャッシュシステムで、主記憶装置5よりはアクセス速度が早く1次キャッシュ3より容量の大きなメモリと2次キャッシュ制御装置から構成されている。また本実施形態では、プリフェッチされたデータはこの2次キャッシュ4に保持される。主記憶装置5は、DRAM等によって構成されるメモリである。
The configuration of FIG. 1 includes a processor unit 1, a prefetch control device 2, a primary cache 3, a secondary cache 4, and a main storage device 5.
The processor unit 1 includes an ALU, a register, and the like, and is a part that manages actual calculation and data processing. Further, in the configuration of the figure, branch prediction and the like are also performed in the processor unit 1 and a request based on the prediction result is made to the primary cache 3. The prefetch control device 2 is a device that is responsible for overall control of prefetch processing, and requests prefetch to the secondary cache 4 while monitoring the request address from the processor unit 1 to the primary cache 3. The primary cache 3 is a primary cache system and includes a memory having a high access speed and a primary cache control device. The secondary cache 4 is a secondary cache system, and includes a memory having a higher access speed than the main storage device 5 and a larger capacity than the primary cache 3, and a secondary cache control device. In the present embodiment, the prefetched data is held in the secondary cache 4. The main storage device 5 is a memory constituted by a DRAM or the like.

プロセッサユニット1が、主記憶装置5上のデータにアクセスする際は、要求アドレスをリクエストアドレス6から指定し、読み出し時にはフェッチデータ7を読み出し、書き込み時にはストアデータ8として1次キャッシュ3に出力する。   When the processor unit 1 accesses data on the main storage device 5, the request address is designated from the request address 6, the fetch data 7 is read at the time of reading, and is output to the primary cache 3 as the store data 8 at the time of writing.

1次キャッシュ3は、プロセッサユニット1からの読み出し要求に対して、要求アドレスのデータを自己が保持していれば、そのデータをフェッチデータ7としてプロセッサユニット1に出力し、保持していない場合には、リクエストバス11からそのデータを含む1ライン分のデータを2次キャッシュ4に対して要求すると共にキャッシュミス9としてプリフェッチ制御装置2に通知する。そして、フェッチデータ12を受け取ると、プロセッサユニット1に要求されたデータをフェッチデータ7として出力する。また1次キャッシュ3は、自己が保持しているキャッシュデータが更新された場合、適当なタイミングでデータバス13からそのデータを2次キャッシュ4にライトバックする。   In response to a read request from the processor unit 1, the primary cache 3 outputs the data to the processor unit 1 as fetch data 7 if it holds the data at the request address. Requests the one-line data including the data from the request bus 11 to the secondary cache 4 and notifies the prefetch control device 2 as a cache miss 9. When the fetch data 12 is received, the data requested to the processor unit 1 is output as the fetch data 7. Further, when the cache data held by itself is updated, the primary cache 3 writes back the data from the data bus 13 to the secondary cache 4 at an appropriate timing.

2次キャッシュ4は、1次キャッシュ3からのデータの要求に対して、そのデータを保持していれば、そのデータを含む1ライン分のデータをフェッチデータ7として1次キャッシュ3に出力し、保持していない場合には、リクエストバス14からそのデータを含む1ライン分のデータを主記憶装置5に対して要求する。そして、フェッチデータ15を受け取ると、1ライン分のデータを1次キャッシュ3に出力する。また2次キャッシュ4は、1次キャッシュ3と同様、自己が保持しているキャッシュデータが更新されると、適当なタイミングでデータバス16からそのデータを主記憶装置5にライトバックする。   If the secondary cache 4 holds the data in response to the data request from the primary cache 3, it outputs the data for one line including the data to the primary cache 3 as fetch data 7. If not, the main memory 5 is requested from the request bus 14 for one line of data including the data. When the fetch data 15 is received, data for one line is output to the primary cache 3. Similarly to the primary cache 3, the secondary cache 4 writes back the data from the data bus 16 to the main storage device 5 at an appropriate timing when the cache data held by the secondary cache 4 is updated.

プロセッサユニット1が1次キャッシュ3に対してデータを要求する時、アドレスバス6でアドレスを指定するが、このアドレス値をプリフェッチ制御装置2は監視し、自己が備えているプリフェッチアドレスキューをこのアドレス値によって検索する。そしてこのアドレスが、プリフェッチアドレスキューに存在するアドレスを先頭とする1ブロック中にある(以下、ヒットするという)場合、プリフェッチアドレスバス10から2次キャッシュ4にプリフェッチ要求アドレスを出力してプリフェッチ要求を行うと共にアドレスをプリフェッチアドレスキュー25に登録し、またプリフェッチアドレスキュー内に存在しない場合はプリフェッチを要求しない。   When the processor unit 1 requests data from the primary cache 3, the address is specified by the address bus 6, and the prefetch control device 2 monitors this address value, and the prefetch address queue provided therein is assigned to this address. Search by value. If this address is in one block starting from the address existing in the prefetch address queue (hereinafter referred to as hit), the prefetch request address is output from the prefetch address bus 10 to the secondary cache 4 and the prefetch request is issued. At the same time, the address is registered in the prefetch address queue 25, and if it does not exist in the prefetch address queue, no prefetch is requested.

なお本実施形態では、1次キャッシュ3と2次キャッシュ4はお互いに異なるラインサイズを持つキャッシュメモリであり、以下の説明では、1次キャッシュ3のラインサイズは64バイト(以下Bと記す)、2次キャッシュ4のラインサイズは256Bであるとする。   In the present embodiment, the primary cache 3 and the secondary cache 4 are cache memories having different line sizes. In the following description, the line size of the primary cache 3 is 64 bytes (hereinafter referred to as B), It is assumed that the line size of the secondary cache 4 is 256B.

図2は本実施形態におけるプロセッサのメモリ管理部分を中心に描いた図である。
同図において、プロセッサは、メモリ管理用の構成要素として、フェッチポート(FP)21、ストアポート(SP)22、1次キャッシュアクセスパイプライン23及び1次キャッシュムーブインバッファ(L1$MIB)24を1次キャッシュ3内に備え、プリフェッチキュー25をプリフェッチ制御装置2内に備え、2次キャッシュムーブインポート(L2$MIP)26、2次キャッシュプリフェッチポート(L2$PFP)、2次キャッシュアクセスパイプライン28及び2次キャッシュムーブインバッファ(L2$MIP)29を2次キャッシュ4内に備え、システムコントローラムーブインポート(SCMIP)30を主記憶装置5内に備えている。
FIG. 2 is a diagram depicting the memory management portion of the processor in this embodiment.
In the figure, the processor includes a fetch port (FP) 21, a store port (SP) 22, a primary cache access pipeline 23, and a primary cache move-in buffer (L1 $ MIB) 24 as components for memory management. Provided in the primary cache 3, provided with a prefetch queue 25 in the prefetch control device 2, a secondary cache move import (L2 $ MIP) 26, a secondary cache prefetch port (L2 $ PFP), and a secondary cache access pipeline 28 And a secondary cache move-in buffer (L2 $ MIP) 29 is provided in the secondary cache 4, and a system controller move import (SCMIP) 30 is provided in the main storage device 5.

フェッチポート(FP)21は、プロセッサユニット1からのload命令やstore命令等を受け付けるポートである。またストアポート(SP)22は、ストアコミットしたstore命令が、キャッシュにデータを書き込むためのポートである。また2次キャッシュムーブインバッファ(L2$MIP)29及びシステムコントローラムーブインポート(SCMIP)30は、それぞれ2次キャッシュ4及び主記憶装置5に対するムーブイン要求を受け付けるポートである。   The fetch port (FP) 21 is a port that receives a load instruction, a store instruction, and the like from the processor unit 1. The store port (SP) 22 is a port for the store instruction that has committed the store to write data to the cache. The secondary cache move-in buffer (L2 $ MIP) 29 and the system controller move import (SCMIP) 30 are ports for receiving move-in requests to the secondary cache 4 and the main storage device 5, respectively.

1次キャッシュアクセスパイプライン23及び2次キャッシュアクセスパイプライン28は、1次キャッシュ3及び2次キャッシュ4に対するアクセス要求を受け付けるパイプラインである。1次キャッシュアクセスパイプライン23は、P、T、M、B及びRの5つのステージを持ち、Pステージではアドレスを選択してそのアドレスを転送し、Tステージでは転送されたアドレスで1次キャッシュのタグとTLB(トランスレーションルックアップテーブル)を参照し、MステージではTステージの参照結果として得られたデータの比較(マッチング)を行ない、Bステージでは比較結果に基づいて、1次キャッシュのデータを選択して転送し、Rステージでは1次キャッシュミスやTLBミスなどに対して転送したデータが有効かあるいは無効かを示すフラグを計算して送る。2次キャッシュアクセスパイプライン28は、PR1,XP0-14のステージを持ち、各ステージでは、ポートの選択、L2$タグ検索、アドレス比較、L2$ミス時にL2$MIBに登録、L2$ヒット時にL2$データの読み出し、L2$データのL1$MIBへの転送などを行っている。   The primary cache access pipeline 23 and the secondary cache access pipeline 28 are pipelines that accept access requests to the primary cache 3 and the secondary cache 4. The primary cache access pipeline 23 has five stages of P, T, M, B, and R. In the P stage, an address is selected and the address is transferred, and in the T stage, the primary cache is transferred with the transferred address. Referring to the tag and TLB (translation lookup table), the M stage compares (matches) the data obtained as the T stage reference result, and the B stage uses the comparison result to compare the data in the primary cache. In the R stage, a flag indicating whether the transferred data is valid or invalid for a primary cache miss or a TLB miss is calculated and sent. The secondary cache access pipeline 28 has stages PR1 and XP0-14. At each stage, port selection, L2 $ tag search, address comparison, L2 $ miss is registered in the L2 $ MIB, and L2 $ hits L2 $ Data is read, L2 $ data is transferred to L1 $ MIB, etc.

1次キャッシュムーブインバッファ(L1$MIB)24及び2次キャッシュムーブインバッファ(L2$MIB)29は、1次キャッシュ3及び2次キャッシュ4に対して生じたムーブイン命令をバッファリングするものである。   The primary cache move-in buffer (L1 $ MIB) 24 and the secondary cache move-in buffer (L2 $ MIB) 29 buffer move-in instructions generated for the primary cache 3 and the secondary cache 4. .

プリフェッチキュー(PFQ)25は、以前プリフェッチを行ったアドレスの1ライン分先のアドレスを登録しており、1次キャッシュ3でキャッシュミスが生じると、キャッシュミスが生じたアドレスとプリフェッチキュー(PFQ)25内に登録されているアドレスをマッチングし、プリフェッチキュー(PFQ)25に一致するアドレスが登録されていれば、2次キャッシュプリフェッチポート(L2$PFP)27に、プリフェッチ要求を発行する。2次キャッシュプリフェッチポート(L2$PFP)27は、プリフェッチキュー(PFQ)25からのプリフェッチ要求を受け付けるものである。   The prefetch queue (PFQ) 25 registers an address one line ahead of the address previously prefetched. When a cache miss occurs in the primary cache 3, the address at which the cache miss occurs and the prefetch queue (PFQ) 25, a prefetch request is issued to the secondary cache prefetch port (L2 $ PFP) 27 if an address matching the prefetch queue (PFQ) 25 is registered. The secondary cache prefetch port (L2 $ PFP) 27 receives a prefetch request from the prefetch queue (PFQ) 25.

同図における動作を以下に説明する。
プロセッサユニット1で、load命令等をデコードし、メモリの読み出し要求が発行されると、この要求は、フェッチポート(FP)25から1次キャッシュアクセスパイプライン23に入力される。読む出し要求に対して1次キャッシュ2がヒットすればそのままデータをフェッチポート(FP)25から要求を発行したプロセッサユニット1に返して、データをレジスタ31に書きこむ。
The operation in the figure will be described below.
When the processor unit 1 decodes a load instruction or the like and issues a memory read request, the request is input from the fetch port (FP) 25 to the primary cache access pipeline 23. If the primary cache 2 hits the read request, the data is returned as it is from the fetch port (FP) 25 to the processor unit 1 that issued the request, and the data is written to the register 31.

1次キャッシュ2がミスしたときは、2次キャッシュ3からデータを持ってこなければいけないので、1次キャッシュムーブインバッファ(L1$MIB)24に要求を入れる。1次キャッシュムーブインバッファ(L1$MIB)24は、2次キャッシュ3に対して読み出し要求を出す。これは2次キャッシュ3のリクエストを受け取る2次キャッシュムーブインポート(L2$MIP)26を介して2次キャッシュアクセスパイプライン28に入る。   When the primary cache 2 misses, data must be brought from the secondary cache 3, so a request is entered in the primary cache move-in buffer (L1 $ MIB) 24. The primary cache move-in buffer (L1 $ MIB) 24 issues a read request to the secondary cache 3. This enters the secondary cache access pipeline 28 via the secondary cache move import (L2 $ MIP) 26 that receives the secondary cache 3 request.

そしてこの読み出し要求が2次キャッシュ3でヒットすれば、そのデータを1次キャッシュムーブインバッファ(L1$MIB)24に入れ、1次キャッシュムーブインバッファ(L1$MIB)24は1次キャッシュラインアクセスパイプラインを獲得して1次キャッシュキャッシュ2にデータを書きにゆく(1次キャッシュミス2次キャッシュヒットの場合)。   If this read request hits the secondary cache 3, the data is put into the primary cache move-in buffer (L1 $ MIB) 24, and the primary cache move-in buffer (L1 $ MIB) 24 accesses the primary cache line. A pipeline is acquired and data is written to the primary cache cache 2 (in the case of a primary cache miss and secondary cache hit).

次にハードウエアプリフェッチを行う場合について説明する。
1次キャッシュ2でミスして、プリフェッチキュー(PFQ)25にハードウエアプリフェッチとして動作すべきアドレスが登録されていない場合、そのアドレスを一旦プリフェッチキュー(PFQ)27に登録する。このとき特許文献1に示してあるように、64B分先のアドレスを登録する、次に64バイト先のアクセスしに行ったときには1次キャッシュがミスすると同時にプリフェッチキュー(PFQ)25はヒットする。このときプリフェッチキュー(PFQ)25は、更に64Bを足して+128Bのアドレスのプリフェッチのリクエストをプリフェッチポート(L2$PFP)27に出す。
Next, a case where hardware application fetch is performed will be described.
If there is a miss in the primary cache 2 and the address to be operated as the hardware application fetch is not registered in the prefetch queue (PFQ) 25, the address is once registered in the prefetch queue (PFQ) 27. At this time, as shown in Patent Document 1, when the address of 64B ahead is registered, and when accessing next 64 bytes ahead, the prefetch queue (PFQ) 25 hits at the same time as the primary cache misses. At this time, the prefetch queue (PFQ) 25 adds 64 B and issues a prefetch request with an address of +128 B to the prefetch port (L 2 $ PFP) 27.

1次キャッシュミスは、2次キャッシュムーブインポート(L2$MIP)26と2次キャッシュプリフェッチポート(L2$PFP)27に登録され、2次キャッシュにアクセスしてヒットすればデータを返す。また、ミスすれば2次キャッシュムーブインバッファ(L2$MIB)29に登録してシステムコントローラムーブインポート(SCMIP)30に出力して主記憶装置5にリクエストを出す。そして主記憶装置5データが帰ってきたら、それを2次キャッシュアクセスパイプライン28を介して2次キャッシュ3に書きこみ、同時にバイパスで1次キャッシュアクセスパイプライン23に返しこれを1次キャッシュ2に書き込む。   The primary cache miss is registered in the secondary cache move import (L2 $ MIP) 26 and the secondary cache prefetch port (L2 $ PFP) 27, and returns data if the secondary cache is accessed and hit. If there is a miss, it is registered in the secondary cache move-in buffer (L2 $ MIB) 29 and output to the system controller move import (SCMIP) 30 to issue a request to the main storage device 5. When the main memory 5 data is returned, it is written to the secondary cache 3 via the secondary cache access pipeline 28, and simultaneously returned to the primary cache access pipeline 23 by bypass, and this is stored in the primary cache 2. Write.

図3は、第1の実施形態のプリフェッチキュー(PFQ)25の構成例を示す図である。
同図のプリフェッチ3、選択回路44、加算器45、選択回路46及び47、及び加算器48を備え、各エントリ41−1〜41−nはそれぞれ、エントリ41に登録されるアドレス値等がセットされるレジスタ49、レジスタ49内のアドレスとリクエストアドレスを比較する比較器50及び比較器50の比較結果と後述するレジスタ49内の有効ビットとのANDを求めるAND回路51を有している。
FIG. 3 is a diagram illustrating a configuration example of the prefetch queue (PFQ) 25 according to the first embodiment.
The prefetch 3, the selection circuit 44, the adder 45, the selection circuits 46 and 47, and the adder 48 shown in the figure are provided. Each entry 41-1 to 41-n is set with an address value or the like registered in the entry 41. A register 49 for comparing the address in the register 49 with the request address, and an AND circuit 51 for obtaining an AND between a comparison result of the comparator 50 and a valid bit in the register 49 described later.

レジスタ49は、アドレス値の他に状態フラグとして働く有効ビット、待機ビット及びL2$PFP登録許可フラグを記録している。
レジスタ49内の有効ビットは、レジスタ48にセットされているアドレス値が有効かどうかを示すもので、アドレス値がレジスタ48に登録される時セットされ、このエントリ41からアドレス値が読み出された時にリセットされる。待機ビットは、有効ビットがセットされているエントリ41において、1次キャッシュアクセスパイプライン23からのリクエストアドレスがレジスタ48内に登録されているアドレス値にマッチした場合セットされる。プリフェッチアドレスキュー(PFQ)25は、この待機ビットの状態から読み出しを行うエントリ41−1〜41−nを決定する。L2$PFP登録許可フラグは、1次キャッシュアクセスパイプライン23からのリクエストアドレスと、このエントリ41に登録されているアドレスがマッチ(ヒット)したときに次の256Bの連続アドレスを2次キャッシュプリフェッチポート(L2$PFP)27に登録するかどうかの判断に用いられるもので、L2$PFP登録許可フラグに1がセットされていれば2次キャッシュプリフェッチポート(L2$PFP)に登録を行ない、0がセットされていれば2次キャッシュプリフェッチポート(L2$PFP)に登録を行わない。
In addition to the address value, the register 49 records a valid bit that serves as a status flag, a standby bit, and an L2 $ PFP registration permission flag.
The valid bit in the register 49 indicates whether the address value set in the register 48 is valid. The valid value is set when the address value is registered in the register 48, and the address value is read from the entry 41. Sometimes reset. The standby bit is set when the request address from the primary cache access pipeline 23 matches the address value registered in the register 48 in the entry 41 in which the valid bit is set. The prefetch address queue (PFQ) 25 determines entries 41-1 to 41-n to be read from the state of the standby bit. The L2 $ PFP registration permission flag indicates that the request address from the primary cache access pipeline 23 and the address registered in this entry 41 match (hit) the next 256B continuous address as the secondary cache prefetch port. (L2 $ PFP) 27 is used to determine whether or not to register, and if the L2 $ PFP registration permission flag is set to 1, registration to the secondary cache prefetch port (L2 $ PFP) is performed. If set, registration is not performed in the secondary cache prefetch port (L2 $ PFP).

1次キャッシュアクセスパイプライン23からリクエストアドレスが入力され、これが新規登録される場合、有効ビットには1、待機ビットには0、L2$PFP登録許可フラグには1、及びアドレスにはリクエストアドレスに加算器45で64を加えた値が入力される。   When a request address is input from the primary cache access pipeline 23 and is newly registered, the valid bit is 1, the standby bit is 0, the L2 $ PFP registration permission flag is 1, and the address is the request address. A value obtained by adding 64 to the adder 45 is input.

またレジスタ49の登録アドレスが更新される場合には、L2$PFP登録許可フラグには、比較器42による加算器45の出力のビット[7:6]が0かどうかの比較結果と新規登録かどうかのORをOR回路43で求めた結果が入力される。このL2$PFP登録許可フラグの内容は、選択回路46及び47の選択信号となっており、L2$PFP登録許可フラグが1のときPFPリクエスト信号として1が出力され、またPFPリクエストアドレスとしてそのエントリ41のレジスタ49に登録されているレジスタ値に加算器48によって256B加算した値が出力される。そしてこれらの出力によって、2次キャッシュPFP(L2$PFP)27にPFPリクエストアドレスが登録される。   When the registration address of the register 49 is updated, the comparison result of whether the bits [7: 6] of the output of the adder 45 by the comparator 42 are 0 or not is newly registered in the L2 $ PFP registration permission flag. The result obtained by the OR circuit 43 obtaining the OR of whether is input. The content of the L2 $ PFP registration permission flag is a selection signal for the selection circuits 46 and 47. When the L2 $ PFP registration permission flag is 1, 1 is output as the PFP request signal and the entry as the PFP request address. A value obtained by adding 256 B to the register value registered in the register 49 of 41 by the adder 48 is output. With these outputs, the PFP request address is registered in the secondary cache PFP (L2 $ PFP) 27.

図4は、加算器45の出力アドレスと比較器42の出力の関係を示す図である。
加算器45によって、レジスタ49にセットされているアドレス値を64Bインクリメントしてレジスタ49に登録すると、その出力アドレスのビット[7:6]は、4回に一回0となり、よって比較器42からは4回に1回1が出力され、これがOR回路43を介してL2$PFP登録許可フラグにセットされる。なおレジスタ49への登録が新規登録の場合、L2$PFP登録許可フラグには1がセットされる。よって、アドレスの新規登録からアドレスが4回更新されるごとに1回L2$PFP登録許可フラグに1がセットされ、2次キャッシュPFP(L2$PFP)27にPFPリクエストアドレスが登録される。
FIG. 4 is a diagram showing the relationship between the output address of the adder 45 and the output of the comparator 42.
When the address value set in the register 49 is incremented by 64B by the adder 45 and registered in the register 49, the bits [7: 6] of the output address become 0 once every four times. 1 is output once every four times, and this is set to the L2 $ PFP registration permission flag via the OR circuit 43. If the registration in the register 49 is a new registration, 1 is set in the L2 $ PFP registration permission flag. Therefore, every time the address is updated four times from the new address registration, 1 is set in the L2 $ PFP registration permission flag, and the PFP request address is registered in the secondary cache PFP (L2 $ PFP) 27.

このL2$PFP登録許可フラグは、プリフェッチキュー(PFQ)25に新規登録を行うとき及び256B境界の先頭64Bアドレスをプリフェッチキュー(PFQ)25に更新登録するときにセットされる。また256B境界の先頭64B以外のアドレスをPFQに更新登録するときリセットされる。   The L2 $ PFP registration permission flag is set when new registration is performed in the prefetch queue (PFQ) 25 and when the head 64B address at the 256B boundary is updated and registered in the prefetch queue (PFQ) 25. It is reset when an address other than the head 64B of the 256B boundary is updated and registered in the PFQ.

このプリフェッチキュー(PFQ)25は、1次キャッシュアクセスパイプライン23からプリフェッチのリクエストアドレスが入力されると、このアドレス値はレジスタ49内のアドレス値と比較器50によって比較され、この比較結果と有効ビットとのANDをAND回路51で取り、結果をPFQにヒットしたかどうかを示すPFQヒット信号として1次キャッシュアクセスパイプライン23に出力する。したがって、リクエストアドレスとレジスタ49が一致し、且つ有効ビットが1のときPFQヒット信号が1になる。   When a prefetch request address is input from the primary cache access pipeline 23, the prefetch queue (PFQ) 25 is compared with the address value in the register 49 by the comparator 50, and this comparison result is validated. The AND circuit 51 takes an AND with the bit, and outputs the result to the primary cache access pipeline 23 as a PFQ hit signal indicating whether or not the PFQ has been hit. Accordingly, when the request address matches the register 49 and the valid bit is 1, the PFQ hit signal becomes 1.

また1次キャッシュ2のラインの大きさが64Bに対して2次キャッシュ3のラインの大きさが256Bと、上位と下位のキャッシュメモリのラインサイズが異なるときであっても、2次キャッシュプリフェッチポート(L2$PFP)27へのアドレス値の登録は4回に1回(256B/64B)にすることが出来、プリフェッチ要求は2次キャッシュ3のラインサイズに付き1回となる。よって無駄な下位階層キャッシュアクセスパイプラインの消費を抑止し、性能向上を図ることが出来る。   Even when the line size of the primary cache 2 is 64B and the line size of the secondary cache 3 is 256B, and the line sizes of the upper and lower cache memories are different, the secondary cache prefetch port is used. Registration of the address value to (L2 $ PFP) 27 can be made once every four times (256B / 64B), and a prefetch request is made once per line size of the secondary cache 3. Therefore, it is possible to suppress unnecessary consumption of the lower hierarchy cache access pipeline and improve performance.

次に、図2、図3を用い、プリフェッチ動作を含む、プロセッサのメモリアクセス命令に対する処理の詳細手順を以下に示す。
以下の説明では、アドレスA、A+8、A+16、...、A+56に対するload命令がプロセッサユニットでデコードされた場合を例として示す。
1:load命令が、フェッチポート(FP)21を介して1次キャッシュアクセスパイプライン23を獲得。
2:1次キャッシュアクセスパイプライン23において、1次キャッシュに対してアドレスAでアクセス。
3:1次キャッシュアクセスパイプライン23において、2の結果、1次キャッシュミスを検出。
4:1次キャッシュムーブインバッファ(L1$MIB)24にミスアドレスを登録。
Next, using FIG. 2 and FIG. 3, the detailed procedure of the processing for the memory access instruction of the processor including the prefetch operation is shown below.
In the following description, addresses A, A + 8, A + 16,. . . , A + 56 load instruction is decoded by the processor unit as an example.
1: The load instruction acquires the primary cache access pipeline 23 via the fetch port (FP) 21.
2: In the primary cache access pipeline 23, the primary cache is accessed at address A.
3: In the primary cache access pipeline 23, a primary cache miss is detected as a result of 2.
4: Register a miss address in the primary cache move-in buffer (L1 $ MIB) 24.

4.1:1次キャッシュムーブインバッファ(L1$MIB)24は、2次キャッシュ3から1次キャッシュ2へのムーブイン要求を、2次キャッシュムーブインポート(L2$MIP)26に対して発行。   4.1: The primary cache move-in buffer (L1 $ MIB) 24 issues a move-in request from the secondary cache 3 to the primary cache 2 to the secondary cache move import (L2 $ MIP) 26.

4.2:2次キャッシュムーブインポート(L2$MIP)26は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュに対してアドレスAでアクセス。
4.3:2次キャッシュアクセスパイプライン28において、手順4.2の結果、2次キャッシュミスを検出。
4.2: Secondary cache move import (L2 $ MIP) 26 acquires the secondary cache access pipeline 28 and accesses the secondary cache at address A.
4.3: In the secondary cache access pipeline 28, a secondary cache miss is detected as a result of the procedure 4.2.

4.4:2次キャッシュムーブインバッファ(L2$MIB)29にミスアドレスを登録。
4.5:2次キャッシュムーブインバッファ(L2$MIB)29は、主記憶装置5から2次キャッシュ3へのムーブイン要求を、システムコントローラムーブインポート(SCMIP)30に対して発行。
4.4: A miss address is registered in the secondary cache move-in buffer (L2 $ MIB) 29.
4.5: The secondary cache move-in buffer (L2 $ MIB) 29 issues a move-in request from the main storage 5 to the secondary cache 3 to the system controller move import (SCMIP) 30.

4.6:システムコントローラムーブインポート(SCMIP)30は、主記憶装置5からミスアドレスAから256B分のデータを取り出し、2次キャッシュムーブインバッファ(L2$MIB)29にムーブイン。   4.6: The system controller move import (SCMIP) 30 takes 256 B of data from the miss address A from the main storage device 5 and moves it into the secondary cache move-in buffer (L 2 $ MIB) 29.

4.7:2次キャッシュムーブインバッファ(L2$MIB)29は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュ4に256Bのムーブインデータを書き込む。   4.7: The secondary cache move-in buffer (L2 $ MIB) 29 acquires the secondary cache access pipeline 28 and writes 256B of move-in data to the secondary cache 4.

4.8:2次キャッシュムーブインバッファ(L2$MIB)29は、1次キャッシュムーブインバッファ(L1$MIB)24に64Bのムーブインデータをバイパス転送。
4.9:アドレスAで1次キャッシュミスしたload命令は、1次キャッシュアクセスパイプライン23を獲得し、1次キャッシュムーブインバッファ(L1$MIB)24に転送されたムーブインデータをバイパスして読み出し、プロセッサユニット1内のレジスタ31にデータを書き込む。
4.8: The secondary cache move-in buffer (L2 $ MIB) 29 bypass-transfers 64B of move-in data to the primary cache move-in buffer (L1 $ MIB) 24.
4.9: A load instruction having a primary cache miss at address A acquires the primary cache access pipeline 23 and bypasses the move-in data transferred to the primary cache move-in buffer (L1 $ MIB) 24. Read and write data to the register 31 in the processor unit 1.

4.10:1次キャッシュムーブインバッファ(L1$MIB)24は、1次キャッシュアクセスパイプライン23を獲得し、1次キャッシュ2に64Bのムーブインデータを書き込む。
5:プリフェッチキュー(PFQ)25がミスを検出。
6:次の連続アドレス(A+64)をプリフェッチキュー(PFQ)25に新規登録。レジスタ49内のL2$PFP登録許可フラグをセット。
7:同様に、連続アドレス(A+8、A+16、...、A+56)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
8:このとき2次キャッシュ3からのムーブインデータが到着していなければ、1次キャッシュMIBヒット、データミスを検出し、1次キャッシュアクセスパイプライン23をアボート。アボートされた要求は、フェッチポート(FP)21に戻る。
9:また2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていなければ、1次キャッシュMIBヒット、データヒットを検出し、1次キャッシュムーブインバッファ(L1$MIB)24のデータをバイパスして読み出し、レジスタ31にデータを書き込む。
10:また2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュにデータが書き込まれていれば、1次キャッシュヒットを検出し、1次キャッシュ2からデータを読み出し、レジスタ31にデータを書き込む。
4.10: The primary cache move-in buffer (L1 $ MIB) 24 acquires the primary cache access pipeline 23 and writes 64 B of move-in data to the primary cache 2.
5: The prefetch queue (PFQ) 25 detects a miss.
6: The next continuous address (A + 64) is newly registered in the prefetch queue (PFQ) 25. Set L2 $ PFP registration permission flag in register 49.
7: Similarly, a load instruction that accesses consecutive addresses (A + 8, A + 16,..., A + 56) acquires the primary cache access pipeline 23.
8: If the move-in data from the secondary cache 3 has not arrived at this time, the primary cache MIB hit and data miss are detected, and the primary cache access pipeline 23 is aborted. The aborted request returns to the fetch port (FP) 21.
9: If move-in data from the secondary cache 3 has arrived and no data has been written to the primary cache 2, a primary cache MIB hit and data hit are detected, and the primary cache move-in buffer ( L1 $ MIB) 24 data is bypassed and read, and data is written to the register 31.
10: If the move-in data from the secondary cache 3 has arrived and data has been written to the primary cache, the primary cache hit is detected, the data is read from the primary cache 2, and the register 31 is read. Write data.

図5は、この手順8、9、10における各状態を示したものである。
手順8の状態では、1次キャッシュムーブインバッファ(L1$MIB)24からアドレスは到着しているがデータは到着しておらず、また1次キャッシュ2にはデータは書き込まれていないので、1次キャッシュアクセスパイプライン23をアボートする。
FIG. 5 shows each state in the procedures 8, 9, and 10.
In the state of procedure 8, since the address has arrived from the primary cache move-in buffer (L1 $ MIB) 24 but no data has arrived, and no data has been written to the primary cache 2, 1 The next cache access pipeline 23 is aborted.

また手順9の状態では、1次キャッシュムーブインバッファ(L1$MIB)24からアドレス及びデータが到着しているが、1次キャッシュ2にはデータは書き込まれていないので、1次キャッシュムーブインバッファ(L1$MIB)24からデータを読み出してレジスタ31にデータを書き込む。   In the state of the procedure 9, the address and data have arrived from the primary cache move-in buffer (L1 $ MIB) 24, but no data has been written to the primary cache 2, so the primary cache move-in buffer Data is read from (L1 $ MIB) 24 and written to register 31.

また手順10の状態では、1次キャッシュムーブインバッファ(L1$MIB)24からアドレス及びデータが到着しており、また1次キャッシュ2にはデータが書き込まれているので、1次キャッシュ2からデータを読み出してレジスタ31にデータを書き込む。   In the state of procedure 10, since the address and data have arrived from the primary cache move-in buffer (L1 $ MIB) 24 and the data has been written to the primary cache 2, the data is transferred from the primary cache 2. And data is written to the register 31.

以下に続けて連続アドレス(A+64)にアクセスするload命令についての処理を説明する。
11:手順1と同様に、連続アドレス(A+64)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
12:手順11の結果、1次キャッシュミスを検出。
The process for the load instruction for accessing the continuous address (A + 64) will be described below.
11: Similar to Procedure 1, the load instruction that accesses the continuous address (A + 64) acquires the primary cache access pipeline 23.
12: As a result of the procedure 11, a primary cache miss is detected.

12.1:1次キャッシュムーブインバッファ(L1$MIB)24にミスアドレスを登録し、2次キャッシュ3にアクセス。
12.2:2次キャッシュヒットを検出し、2次キャッシュから64Bのデータを読み出し、1次キャッシュムーブインバッファ(L1$MIB)24に転送。
12.1: Register a miss address in the primary cache move-in buffer (L1 $ MIB) 24 and access the secondary cache 3.
12.2: A secondary cache hit is detected, 64B data is read from the secondary cache, and transferred to the primary cache move-in buffer (L1 $ MIB) 24.

12.3:アドレス(A+64)で、1次キャッシュミスしたload命令は、1次キャッシュムーブインバッファ(L1$MIB)24のデータをバイパスして読み出し、レジスタ31にデータを書き込む。
12.4:1次キャッシュムーブインバッファ(L1$MIB)24は、1次キャッシュ2に64Bデータを書き込む。
13:プリフェッチキュー(PFQ)25のヒットを検出。レジスタ49内の待機ビットをセット。
14:次の連続アドレス(A+128)をプリフェッチキュー(PFQ)25に登録。レジスタ49内のL2$PFP登録許可フラグをリセット。
15:手順14でリセットされるまでL2$PFP登録許可フラグがセットされていたので、次の256B連続アドレス(A+64+256)を2次キャッシュプリフェッチポート(L2$PFP)27に登録。
12.3: A load instruction with a primary cache miss at address (A + 64) reads data by bypassing data in the primary cache move-in buffer (L1 $ MIB) 24 and writes data to the register 31.
12.4: The primary cache move-in buffer (L1 $ MIB) 24 writes 64B data to the primary cache 2.
13: A hit in the prefetch queue (PFQ) 25 is detected. Set the wait bit in register 49.
14: The next continuous address (A + 128) is registered in the prefetch queue (PFQ) 25. Reset L2 $ PFP registration permission flag in register 49.
15: Since the L2 $ PFP registration permission flag was set until it was reset in step 14, the next 256B continuous address (A + 64 + 256) is registered in the secondary cache prefetch port (L2 $ PFP) 27.

15.1:2次キャッシュプリフェッチポート(L2$PFP)27は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュ3に対して、アドレス(A+64+256)でアクセス。   15.1: The secondary cache prefetch port (L2 $ PFP) 27 acquires the secondary cache access pipeline 28 and accesses the secondary cache 3 at the address (A + 64 + 256).

15.2:手順15.1の結果、2次キャッシュミスを検出。
15.3:2次キャッシュムーブインバッファ(L2$MIB)29にキャッシュミスアドレスを登録。
15.2: A secondary cache miss is detected as a result of the procedure 15.1.
15.3: A cache miss address is registered in the secondary cache move-in buffer (L2 $ MIB) 29.

15.4:2次キャッシュムーブインバッファ(L2$MIB)29は、主記憶装置5から2次キャッシュ3へのムーブイン要求を、システムコントローラムーブインポート(SCMIP)30に発行。   15.4: The secondary cache move-in buffer (L2 $ MIB) 29 issues a move-in request from the main storage 5 to the secondary cache 3 to the system controller move import (SCMIP) 30.

15.5:システムコントローラムーブインポート(SCMIP)30は、主記憶装置5からミスアドレス(A+64+256)から256B分のデータを取り出し、それを2次キャッシュムーブインバッファ(L2$MIB)29にムーブイン。   15.5: The system controller move import (SCMIP) 30 takes 256 B of data from the miss address (A + 64 + 256) from the main storage device 5 and moves it into the secondary cache move-in buffer (L2 $ MIB) 29.

15.6:2次キャッシュムーブインバッファ(L2$MIB)29は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュ3に256Bのムーブインデータを書き込む。
16:同様に、連続アドレス(A+64+8、A+64+16、...、A+64+56)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
17:2次キャッシュ4からのムーブインデータが到着していなければ、1次キャッシュMIBヒット、データミスを検出し1次キャッシュアクセスパイプライン23をアボート。アボートした要求は、フェッチポート(FP)21に戻る。
18:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていなければ、1次キャッシュMIBヒット、データヒットを検出し、1次キャッシュムーブインバッファ(L1$MIB)24のデータをバイパスして読み出し、それをレジスタ31に書き込む。
19:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていれば、1次キャッシュヒットを検出し、1次キャッシュ2からデータを読み出し、それをレジスタ41に書き込む。
15.6: The secondary cache move-in buffer (L2 $ MIB) 29 acquires the secondary cache access pipeline 28 and writes 256B of move-in data to the secondary cache 3.
16: Similarly, a load instruction that accesses consecutive addresses (A + 64 + 8, A + 64 + 16,..., A + 64 + 56) acquires the primary cache access pipeline 23.
17: If the move-in data from the secondary cache 4 has not arrived, the primary cache MIB hit and data miss are detected and the primary cache access pipeline 23 is aborted. The aborted request returns to the fetch port (FP) 21.
18: If move-in data from the secondary cache 3 has arrived and no data has been written to the primary cache 2, a primary cache MIB hit and data hit are detected, and the primary cache move-in buffer (L1 $ MIB) 24 data is bypassed and read and written to the register 31.
19: If move-in data from the secondary cache 3 has arrived and data has been written to the primary cache 2, a primary cache hit is detected, data is read from the primary cache 2, and it is stored in the register Write to 41.

以下に続けて連続アドレス(A+128)にアクセスするload命令についての処理を説明する。
20:手順1、11と同様に、連続アドレス(A+128)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
21:手順20の結果、1次キャッシュミスを検出。
The process for the load instruction for accessing the continuous address (A + 128) will be described below.
20: Similar to procedures 1 and 11, the load instruction that accesses the continuous address (A + 128) acquires the primary cache access pipeline 23.
21: As a result of the procedure 20, a primary cache miss is detected.

21.1:1次キャッシュムーブインバッファ(L1$MIB)24にキャッシュミスアドレスを登録し、2次キャッシュ3にアクセス。
21.2:手順21.1の結果、2次キャッシュヒットを検出し、2次キャッシュ3から64Bのデータを読み出し、1次キャッシュムーブインバッファ(L1$MIB)24に転送。
21.1: A cache miss address is registered in the primary cache move-in buffer (L1 $ MIB) 24 and the secondary cache 3 is accessed.
21.2: As a result of the procedure 21.1, a secondary cache hit is detected, 64B data is read from the secondary cache 3, and transferred to the primary cache move-in buffer (L1 $ MIB) 24.

21.3:アドレス(A+128)で1次キャッシュミスしたload命令は、1次キャッシュムーブインバッファ(L1$MIB)24からデータをバイパスして読み出し、これをレジスタ31に書き込む。   21.3: A load instruction having a primary cache miss at address (A + 128) reads data from the primary cache move-in buffer (L1 $ MIB) 24, bypassing the data, and writes it to the register 31.

21.4:1次キャッシュムーブインバッファ(L1$MIB)24は、1次キャッシュ2に64Bデータを書き込む。
22:プリフェッチキュー(PFQ)25のヒットを検出。レジスタ49の待機ビットをセット。
23:次の連続アドレス(A+192)をプリフェッチキュー(PFQ)25に登録。L2$PFP登録許可フラグをリセット。
24:(手順23でリセットされるまでL2$PFP登録許可フラグがセットされていたので、次の256B連続アドレス(A+128+256)は、2次キャッシュプリフェッチポート(L2$PFP)27に登録しない。)
25:同様に、連続アドレス(A+128+8、A+128+16、...、A+128+56)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
26:2次キャッシュ3からのムーブインデータが到着していなければ、1次キャッシュムーブインバッファ(L1$MIB)24、データミスを検出し1次キャッシュアクセスパイプライン23をアボート。アボートした要求は、フェッチポート(FP)21に戻る。
27:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュにデータが書き込まれていなければ、1次キャッシュMIBヒット、データヒットを検出し、1次キャッシュMIBのデータをバイパスして読み出し、レジスタ31にデータを書き込む。
28:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていれば、1次キャッシュヒットを検出し、1次キャッシュ2からデータを読み出し、レジスタ31にデータを書き込む。
21.4: The primary cache move-in buffer (L1 $ MIB) 24 writes 64B data to the primary cache 2.
22: A hit of the prefetch queue (PFQ) 25 is detected. Set the wait bit in register 49.
23: The next continuous address (A + 192) is registered in the prefetch queue (PFQ) 25. Reset L2 $ PFP registration permission flag.
24: (L2 $ PFP registration permission flag was set until reset in step 23, so the next 256B consecutive address (A + 128 + 256) is not registered in the secondary cache prefetch port (L2 $ PFP) 27)
25: Similarly, a load instruction that accesses consecutive addresses (A + 128 + 8, A + 128 + 16,..., A + 128 + 56) acquires the primary cache access pipeline 23.
26: If the move-in data from the secondary cache 3 has not arrived, the primary cache move-in buffer (L1 $ MIB) 24 detects a data miss and aborts the primary cache access pipeline 23. The aborted request returns to the fetch port (FP) 21.
27: If move-in data from the secondary cache 3 has arrived and no data has been written to the primary cache, a primary cache MIB hit or data hit is detected, and the data in the primary cache MIB is bypassed. Read and write data to the register 31.
28: If move-in data from the secondary cache 3 has arrived and data has been written to the primary cache 2, a primary cache hit is detected, the data is read from the primary cache 2 and stored in the register 31. Write data.

以下に続けて連続アドレス(A+192)にアクセスするload命令についての処理を説明する。
29:手順1、11,20と同様に、連続アドレス(A+192)にアクセスするload命令が、1次キャッシュアクセスパイプラインを獲得。
30:手順29の結果、1次キャッシュミスを検出。
The process for the load instruction for accessing the continuous address (A + 192) will be described below.
29: Similar to procedures 1, 11, and 20, the load instruction that accesses the continuous address (A + 192) acquires the primary cache access pipeline.
30: As a result of the procedure 29, a primary cache miss is detected.

30.1:1次キャッシュムーブインバッファ(L1$MIB)24にキャッシュミスアドレスを登録し、2次キャッシュ3にアクセス。
30.2:2次キャッシュヒットを検出し、2次キャッシュから64Bのデータを読み出し、1次キャッシュムーブインバッファ(L1$MIB)24に転送。
30.1: A cache miss address is registered in the primary cache move-in buffer (L1 $ MIB) 24 and the secondary cache 3 is accessed.
30.2: A secondary cache hit is detected, 64B data is read from the secondary cache, and transferred to the primary cache move-in buffer (L1 $ MIB) 24.

30.3:アドレス(A+192)で、1次キャッシュミスしたload命令は、1次キャッシュムーブインバッファ(L1$MIB)24からデータをバイパスして読み出し、これをレジスタ31を書き込む。   30.3: A load instruction with a primary cache miss at address (A + 192) reads data from the primary cache move-in buffer (L1 $ MIB) 24, bypassing the data, and writes it to the register 31.

30.4:1次キャッシュムーブインバッファ(L1$MIB)24は、1次キャッシュ2に64Bデータを書き込む。
31:プリフェッチキュー(PFQ)25のヒットを検出。レジスタ49の待機ビットをセット。
32:次の連続アドレス(A+256)をプリフェッチキュー(PFQ)25に登録。レジスタ49のL2$PFP登録許可フラグをセット。
33:(手順32でセットされるまでL2$PFP登録許可フラグがリセットされていたので、次の256B連続アドレス(A+192+256)は、2次キャッシュプリフェッチポート(L2$PFP)27に登録しない。)
34:同様に、連続アドレス(A+192+8、A+192+16、...、A+192+56)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
35:2次キャッシュ3からのムーブインデータが到着していなければ、1次キャッシュムーブインバッファ(L1$MIB)24ヒット、データミスを検出し1次キャッシュアクセスパイプライン23をアボート。アボートされた要求はフェッチポート(FP)21に戻る。
36:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていなければ、1次キャッシュムーブインバッファ(L1$MIB)24ヒット、データヒットを検出し、1次キャッシュムーブインバッファ(L1$MIB)24からデータをバイパスして読み出し、これをレジスタ31に書き込む。
37:2次キャッシュ3からのムーブインデータが到着していて、1次キャッシュ2にデータが書き込まれていれば、1次キャッシュヒットを検出し、1次キャッシュ2からデータを読み出し、これをレジスタ31に書き込む。
30.4: The primary cache move-in buffer (L1 $ MIB) 24 writes 64B data to the primary cache 2.
31: A hit in the prefetch queue (PFQ) 25 is detected. Set the wait bit in register 49.
32: The next continuous address (A + 256) is registered in the prefetch queue (PFQ) 25. Set L2 $ PFP registration permission flag of register 49.
33: (Since the L2 $ PFP registration permission flag was reset until it was set in step 32, the next 256B continuous address (A + 192 + 256) is not registered in the secondary cache prefetch port (L2 $ PFP) 27)
34: Similarly, a load instruction that accesses consecutive addresses (A + 192 + 8, A + 192 + 16,..., A + 192 + 56) acquires the primary cache access pipeline 23.
35: If move-in data from the secondary cache 3 has not arrived, the primary cache move-in buffer (L1 $ MIB) 24 hit, data miss is detected, and the primary cache access pipeline 23 is aborted. The aborted request returns to the fetch port (FP) 21.
36: If move-in data from the secondary cache 3 has arrived and data has not been written to the primary cache 2, a primary cache move-in buffer (L1 $ MIB) 24 hit, data hit is detected, Data is read out from the primary cache move-in buffer (L1 $ MIB) 24, bypassed, and written into the register 31.
37: If move-in data from the secondary cache 3 has arrived and data has been written to the primary cache 2, a primary cache hit is detected, data is read from the primary cache 2, and this is stored in the register Write to 31.

以下に続けて連続アドレス(A+256)にアクセスするload命令についての処理を説明する
38:同様に、連続アドレス(A+256)にアクセスするload命令が、1次キャッシュアクセスパイプライン23を獲得。
39:手順38の結果1次キャッシュ2ミスを検出。
Next, the processing for the load instruction that accesses the continuous address (A + 256) will be described 38: Similarly, the load instruction that accesses the continuous address (A + 256) acquires the primary cache access pipeline 23.
39: As a result of the procedure 38, a primary cache 2 miss is detected.

39.1:1次キャッシュムーブインバッファ(L1$MIB)24にミスアドレスを登録し、2次キャッシュ3にアクセス。
39.2:2次キャッシュヒットを検出し、2次キャッシュ3から64Bのデータを読み出し、これを1次キャッシュムーブインバッファ(L1$MIB)24に転送。
39.1: A miss address is registered in the primary cache move-in buffer (L1 $ MIB) 24 and the secondary cache 3 is accessed.
39.2: A secondary cache hit is detected, 64B data is read from the secondary cache 3 and transferred to the primary cache move-in buffer (L1 $ MIB) 24.

39.3:アドレス(A+256)で、1次キャッシュミスしたload命令は、1次キャッシュムーブインバッファ(L1$MIB)24からデータをバイパスして読み出し、これをレジスタ31に書き込む。   39.3: A load instruction with a primary cache miss at address (A + 256) reads data from the primary cache move-in buffer (L1 $ MIB) 24, bypassing the data, and writes it to the register 31.

39.4:1次キャッシュMIBは、1次キャッシュに64Bデータを書き込む。
40:プリフェッチキュー(PFQ)25ヒットを検出。レジスタ49内の待機ビットをセット。
41:次の連続アドレス(A+320)をプリフェッチキュー(PFQ)25に登録。レジスタ49内のL2$PFP登録許可フラグをリセット。
42:手順41でリセットされるまでL2$PFP登録許可フラグがセットされていたので、次の256B連続アドレス(A+256+256)を2次キャッシュプリフェッチポート(L2$PFP)27に登録。
39.4: The primary cache MIB writes 64B data to the primary cache.
40: Detect 25 prefetch queue (PFQ) hits. Set the wait bit in register 49.
41: The next continuous address (A + 320) is registered in the prefetch queue (PFQ) 25. Reset L2 $ PFP registration permission flag in register 49.
42: Since the L2 $ PFP registration permission flag was set until it was reset in step 41, the next 256B continuous address (A + 256 + 256) is registered in the secondary cache prefetch port (L2 $ PFP) 27.

42.1:2次キャッシュプリフェッチポート(L2$PFP)27は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュ3に対してアドレス(A+256+256)でアクセス。   42.1: The secondary cache prefetch port (L2 $ PFP) 27 acquires the secondary cache access pipeline 28 and accesses the secondary cache 3 at the address (A + 256 + 256).

42.2:手順42.1の結果、2次キャッシュミスを検出。
42.3:1次キャッシュムーブインバッファ(L1$MIB)24にミスアドレスを登録。
42.2: As a result of the procedure 42.1, a secondary cache miss is detected.
42.3: A miss address is registered in the primary cache move-in buffer (L1 $ MIB) 24.

42.4:1次キャッシュムーブインバッファ(L1$MIB)24は、主記憶装置5から2次キャッシュ3へのムーブイン要求を、システムコントローラムーブインポート(SCMIP)30に対して発行。   42.4: The primary cache move-in buffer (L1 $ MIB) 24 issues a move-in request from the main storage 5 to the secondary cache 3 to the system controller move import (SCMIP) 30.

42.5:システムコントローラムーブインポート(SCMIP)30は、主記憶装置5からキャッシュミスアドレス(A+256+256)から256B分のデータを取り出し、このデータを2次キャッシュムーブインバッファ(L2$MIB)29にムーブイン。   42.5: The system controller move import (SCMIP) 30 extracts 256 B of data from the cache miss address (A + 256 + 256) from the main memory 5 and moves this data into the secondary cache move-in buffer (L2 $ MIB) 29. .

42.6:2次キャッシュムーブインバッファ(L2$MIB)29は、2次キャッシュアクセスパイプライン28を獲得し、2次キャッシュ3に256Bのムーブインデータを書き込む。   42.6: The secondary cache move-in buffer (L2 $ MIB) 29 acquires the secondary cache access pipeline 28 and writes 256B of move-in data to the secondary cache 3.

以下、連続アドレス(A+320)、(A+384)、・・・にアクセスするload命令について同様の処理を繰り返す。
図6は、図3に示した第1の実施形態のプリフェッチキュー(PFQ)25の動作を示すフローチャートである。
Thereafter, the same processing is repeated for the load instruction for accessing the continuous addresses (A + 320), (A + 384),.
FIG. 6 is a flowchart showing the operation of the prefetch queue (PFQ) 25 of the first embodiment shown in FIG.

ステップS1において、アドレスAにて1次キャッシュ2にアクセスし、1次キャッシュ2がキャッシュミスし(ステップS2、Y)、且つプリフェッチキュー(PFQ)25もミスしたら(ステップS3、Y)、ステップS4としてプリフェッチキュー(PFQ)25に1次キャッシュ2の1ライン分先のアドレス(A+64)を登録し、またプリフェッチキュー(PFQ)25内のレジスタ49のL2$登録許可フラグをセットして、処理をステップS1に戻す。   In step S1, when the primary cache 2 is accessed at the address A, the primary cache 2 misses the cache (step S2, Y), and the prefetch queue (PFQ) 25 also misses (step S3, Y), step S4 Register the address (A + 64) one line ahead of the primary cache 2 in the prefetch queue (PFQ) 25, and set the L2 $ registration permission flag of the register 49 in the prefetch queue (PFQ) 25 to perform processing. Return to step S1.

またステップS2において、1次キャッシュ2がヒットし(ステップS2、N)、プリフェッチキューがミスしたとき(ステップS3、Y)、処理をステップS1に戻す。
ステップS2において、1次キャッシュ2がミスし(ステップS2、Y)、プリフェッチキュー(PFQ)25はヒットしたとき(ステップS3、N)、及び1次キャッシュ2がヒットし(ステップS2、N)、プリフェッチキュー(PFQ)25はヒットしたとき(ステップS3、N)、処理をステップS6に移し、プリフェッチを行う。
In step S2, when the primary cache 2 hits (step S2, N) and the prefetch queue misses (step S3, Y), the process returns to step S1.
In step S2, the primary cache 2 misses (step S2, Y), the prefetch queue (PFQ) 25 hits (step S3, N), and the primary cache 2 hits (step S2, N). When the prefetch queue (PFQ) 25 is hit (step S3, N), the process moves to step S6 and prefetch is performed.

ステップS6では、プリフェッチキュー(PFQ)25のレジスタ49内の待機ビットをセットする。そしてレジスタ49内のL2$登録許可フラグがセットされていたら(ステップS7、Y)、2次キャッシュプリフェッチポート(L2$PFP)27にPFPリクエストアドレス(A+64)でプリフェッチう要求を登録し、L2$登録許可フラグがセットされていなければ(ステップS7、N)、2次キャッシュプリフェッチポート(L2$PFP)27にリクエストを登録しない。   In step S6, the standby bit in the register 49 of the prefetch queue (PFQ) 25 is set. If the L2 $ registration permission flag in the register 49 is set (step S7, Y), a request to prefetch with the PFP request address (A + 64) is registered in the secondary cache prefetch port (L2 $ PFP) 27, and the L2 $ is registered. If the registration permission flag is not set (step S7, N), the request is not registered in the secondary cache prefetch port (L2 $ PFP) 27.

次にステップS9としてプリフェッチキュー(PFQ)25の登録アドレスをA+64に更新した後、(A/64+1)を4で割った余りが0ならばステップS11としてレジスタ49内のL2$登録許可フラグをセットして、処理をステップS1に戻す。またA/64+1)を4で割った余りが0でないのならばステップS12としてL2$登録許可フラグをリセットして、処理をステップS1に戻す。   Next, after updating the registration address of the prefetch queue (PFQ) 25 to A + 64 in step S9, if the remainder obtained by dividing (A / 64 + 1) by 4 is 0, the L2 $ registration permission flag in the register 49 is set in step S11. Then, the process returns to step S1. If the remainder obtained by dividing A / 64 + 1) by 4 is not 0, the L2 $ registration permission flag is reset in step S12, and the process returns to step S1.

このように第1の実施形態では、下位層のキャッシュレジスタのラインの大きさ毎にプリフェッチ要求を発行することが出来るので、無駄なプリフェッチ要求がアクセスパイプラインを占めることが無く、性能向上を図ることが出来る。   As described above, in the first embodiment, a prefetch request can be issued for each line size of a lower-layer cache register, so that a useless prefetch request does not occupy an access pipeline, thereby improving performance. I can do it.

次に、プリフェッチキュー(PFQ)25の第2の構成例について説明する。
第1の実施形態のプリフェッチキュー(PFQ)25が、下位階層のキャッシュの1ラインの大きさが上位階層のキャッシュの1ラインの大きさのn倍であったとき、n回の連続アクセスに対して1回2次キャッシュプリフェッチポート(L2$PFP)27に対してプリフェッチ要求を登録していたが、第2の実施形態のプリフェッチキュー(PFQ)25は、n回に2回以上プリフェッチ要求を登録する。
Next, a second configuration example of the prefetch queue (PFQ) 25 will be described.
When the prefetch queue (PFQ) 25 of the first embodiment has a size of one line of the lower layer cache n times the size of one line of the upper layer cache, the prefetch queue (PFQ) 25 can handle n consecutive accesses. The prefetch request has been registered to the secondary cache prefetch port (L2 $ PFP) 27 once, but the prefetch queue (PFQ) 25 of the second embodiment registers the prefetch request at least twice n times. To do.

下位階層のキャッシュのミスでムーブインされるデータサイズが、下位階層のキャッシュのラインサイズである場合、下位階層のキャッシュに発行されるハードウエアプリフェッチの要求は、第1の実施形態のプリフェッチキュー(PFQ)25のように下位階層のキャッシュのラインサイズにつき1回でよい。   When the data size to be moved in due to a miss in the lower hierarchy cache is the line size of the lower hierarchy cache, the hardware application fetch request issued to the lower hierarchy cache is the prefetch queue (PFQ) of the first embodiment. ) 25, it may be performed once for the cache line size of the lower hierarchy.

しかし、プリフェッチ要求は、ハードウエア実装上の制約によりロストしてしまうケースが時々あるため、プリフェッチ要求の発行が1回のみだと、ハードウエアプリフェッチがロストした場合に、下位階層のキャッシュへのメモリデータのムーブイン要求が発行されなくなってしまう。この実装上の制約とは、例えば2次キャッシュ3がミスすると2次キャッシュムーブインバッファ(L2$MIB)29に登録されるが、2次キャッシュムーブインバッファ(L2$MIB)29が一杯のときは、再登録を行わずにプリフェッチ要求がロストしてしまうことがある。   However, there are cases where prefetch requests are lost due to restrictions on hardware implementation. If the prefetch request is issued only once, the memory to the lower-level cache is lost when the hardware application fetch is lost. Data move-in requests are no longer issued. For example, when the secondary cache 3 misses, it is registered in the secondary cache move-in buffer (L2 $ MIB) 29, but the secondary cache move-in buffer (L2 $ MIB) 29 is full. The prefetch request may be lost without re-registration.

この点に対処し、第2の実施形態のプリフェッチキュー(PFQ)25は、下位階層のキャッシュのラインサイズにつき複数回プリフェッチ要求を2次キャッシュプリフェッチポート(L2$PFP)27に発行する。   In response to this point, the prefetch queue (PFQ) 25 of the second embodiment issues a prefetch request to the secondary cache prefetch port (L2 $ PFP) 27 a plurality of times for the line size of the cache in the lower hierarchy.

図7は、第2の実施形態のプリフェッチキュー(PFQ)25の構成例を示す図である。なお同図は、図3の第1の実施形態のプリフェッチキュー(PFQ)25と対比する形で記載されている。   FIG. 7 is a diagram illustrating a configuration example of the prefetch queue (PFQ) 25 according to the second embodiment. This figure is described in contrast to the prefetch queue (PFQ) 25 of the first embodiment shown in FIG.

図7を図3の第1の実施形態のプリフェッチキュー(PFQ)25と比較すると、比較器42aの入力が、加算器45aから出力されるアドレスのうちビット[6]のみになっている。よって第1の実施形態ではレジスタ49のアドレスが4回更新されると1回L2$PFP登録許可フラグが1にセットされているが、第2の実施形態のプリフェッチキュー(PFQ)25では、アドレスが4回更新されると2回L2$PFP登録許可フラグに1がセットされ、2次キャッシュプリフェッチポート(L2$PFP)27にリクエストが登録される。   Comparing FIG. 7 with the prefetch queue (PFQ) 25 of the first embodiment of FIG. 3, the input of the comparator 42a is only bit [6] in the address output from the adder 45a. Therefore, in the first embodiment, when the address of the register 49 is updated four times, the L2 $ PFP registration permission flag is set to 1 once. However, in the prefetch queue (PFQ) 25 of the second embodiment, the address Is updated four times, 1 is set in the L2 $ PFP registration permission flag twice, and the request is registered in the secondary cache prefetch port (L2 $ PFP) 27.

これにより第2の実施形態では、1つのプリフェッチ要求が、ハードウエアの実装上の問題でロストしても、対処することが出来る。
次に、プリフェッチキュー(PFQ)25の第3の実施形態について説明する。
Accordingly, in the second embodiment, even if one prefetch request is lost due to a hardware implementation problem, it can be dealt with.
Next, a third embodiment of the prefetch queue (PFQ) 25 will be described.

第3の実施形態のプリフェッチキュー(PFQ)25も、第2の実施形態と同様、ハードウエアの実装上の問題で、プリフェッチ要求がロストする場合に対処したものである。
第3の実施形態では、上位階層のキャッシュのラインサイズの2倍以上のブロックをプリフェッチするように2次キャッシュプリフェッチポート(L2$PFP)27にプリフェッチ要求を発行する。これによりプリフェッチ要求は、2次キャッシュプリフェッチポート(L2$PFP)27で2倍以上に展開され、複数のプリフェッチ要求が発行される。
Similarly to the second embodiment, the prefetch queue (PFQ) 25 of the third embodiment deals with a case where a prefetch request is lost due to a hardware implementation problem.
In the third embodiment, a prefetch request is issued to the secondary cache prefetch port (L2 $ PFP) 27 so as to prefetch a block that is twice or more the line size of the cache of the upper hierarchy. As a result, the prefetch request is expanded twice or more by the secondary cache prefetch port (L2 $ PFP) 27, and a plurality of prefetch requests are issued.

図8は、第3の実施形態のプリフェッチキュー(PFQ)25の構成例を示す図である。なお同図も、図3の第1の実施形態のプリフェッチキュー(PFQ)25と対比する形で記載されている。   FIG. 8 is a diagram illustrating a configuration example of the prefetch queue (PFQ) 25 according to the third embodiment. This figure is also shown in contrast to the prefetch queue (PFQ) 25 of the first embodiment shown in FIG.

図8の第3の実施形態のプリフェッチキュー(PFQ)25の構成を図3の第1の実施形態の構成と比較すると、2次キャッシュプリフェッチポート(L2$PFP)27に出力されるPFPリクエストブロックサイズ61が128Bと、1次キャッシュ2のラインの2倍になっている。なお不図示であるが、図3の第1の実施形態ではこのPFPリクエストブロックサイズは、1次キャッシュ2のラインサイズと同じ64Bとなっている。   When the configuration of the prefetch queue (PFQ) 25 of the third embodiment of FIG. 8 is compared with the configuration of the first embodiment of FIG. 3, the PFP request block output to the secondary cache prefetch port (L2 $ PFP) 27 The size 61 is 128 B, which is twice the line of the primary cache 2. Although not shown, in the first embodiment shown in FIG. 3, the PFP request block size is 64 B, which is the same as the line size of the primary cache 2.

この構成により第3の実施形態のプリフェッチキュー(PFQ)25では、1次キャッシュ2のラインサイズの2倍のサイズのブロックサイズを指定して、プリフェッチ要求を2次キャッシュプリフェッチポート(L2$PFP)27に対して発行するので、2次キャッシュプリフェッチポート(L2$PFP)27では2回のプリフェッチ要求が発行されることになる。   With this configuration, the prefetch queue (PFQ) 25 of the third embodiment designates a block size that is twice the line size of the primary cache 2 and sends a prefetch request to the secondary cache prefetch port (L2 $ PFP). 27, the secondary cache prefetch port (L2 $ PFP) 27 issues two prefetch requests.

これにより第3の実施形態でも、1つのプリフェッチ要求が、ハードウエアの実装上の問題でロストしても、対処することが出来る。
次に、プリフェッチキュー(PFQ)25の第4の実施形態について説明する。
As a result, even in the third embodiment, even if one prefetch request is lost due to a hardware implementation problem, it can be dealt with.
Next, a fourth embodiment of the prefetch queue (PFQ) 25 will be described.

第4の実施形態のプリフェッチキュー(PFQ)25は、本実施形態で行われている下位層キャッシュのラインサイズ(256B)毎のムーブインと、従来のプロセッサで行われている上位層キャッシュのラインサイズ(64B)毎のムーブインを切り換えることが出来るようしたものである。   The prefetch queue (PFQ) 25 of the fourth embodiment has a move-in for each line size (256B) of the lower layer cache performed in the present embodiment and a line size of the upper layer cache performed by a conventional processor. The move-in for each (64B) can be switched.

これにより、コピーバックの際に実行される上位層キャッシュのラインサイズ(64B)毎のムーブインにも対処することが出来る。
図9は、第4の実施形態のプリフェッチキュー(PFQ)25の構成例を示す図である。なお同図も、図3の第1の実施形態のプリフェッチキュー(PFQ)25と対比する形で記載されている。
Thereby, it is possible to cope with a move-in for each line size (64 B) of the upper layer cache executed at the time of copy back.
FIG. 9 is a diagram illustrating a configuration example of the prefetch queue (PFQ) 25 according to the fourth embodiment. This figure is also shown in contrast to the prefetch queue (PFQ) 25 of the first embodiment shown in FIG.

同図の第4の実施形態のプリフェッチキュー(PFQ)25と図3の第1の実施形態を比較すると、図9の構成では、レジスタ49bにムーブイン(MI)データサイズが記憶されている。このMIデータサイズは、0がセットされるとプリフェッチキュー(PFQ)25は256B毎のムーブインを行ない、1がセットされると64B毎のムーブインを行う。   Comparing the prefetch queue (PFQ) 25 of the fourth embodiment shown in the figure and the first embodiment of FIG. 3, in the configuration of FIG. 9, the move-in (MI) data size is stored in the register 49b. When the MI data size is set to 0, the prefetch queue (PFQ) 25 performs move-in for every 256B, and when 1 is set, it performs move-in for every 64B.

このMIデータサイズには、初期値として0がセットされ、キャッシュミスしたムーブインアドレスとレジスタ49bにセットされているアドレスを比較器71で比較した結果、両者が一致し、且つムーブインデータサイズが64Bであったとき、AND回路72の出力によって1がセットされる。またこのMIデータサイズは、OR回路73によってL2$PFP登録許可フラグとのORが取られた結果が選択回路46bに入力される。よって、MIデータサイズに0がセットされているときは256Bのムーブインを行ない、1がセットされているときは64Bのムーブインを行なう、というようにムーブインの大きさを切り換えることができる。   This MI data size is set to 0 as an initial value. As a result of comparing the cache-in move-in address with the address set in the register 49b by the comparator 71, they match, and the move-in data size is the same. When it is 64B, 1 is set by the output of the AND circuit 72. The MI data size is input to the selection circuit 46b as a result of ORing with the L2 $ PFP registration permission flag by the OR circuit 73. Therefore, the size of the move-in can be switched such that when the MI data size is set to 0, 256B move-in is performed, and when 1 is set, 64B move-in is performed.

以上のように本実施形態によれば、上位層のキャッシュレジスタと下位層のキャッシュレジスタのラインの大きさが異なっても、下位層のキャッシュレジスタのラインの大きさ毎にプリフェッチ要求を発行することが出来るので、無駄なプリフェッチ要求でキャッシュアクセスパイプラインが消費されるのを抑止し、性能向上を図ることが出来る。   As described above, according to the present embodiment, even if the line sizes of the upper layer cache register and the lower layer cache register are different, the prefetch request is issued for each line size of the lower layer cache register. Therefore, it is possible to suppress the consumption of the cache access pipeline due to a useless prefetch request and to improve the performance.

また実装上の制約により、プリフェッチ要求がロストしてしまう点にも対処することが出来る。
更には、コピーバックの際に実行される上位層キャッシュのラインサイズのムーブインにも対処することが出来る。
In addition, the prefetch request may be lost due to implementation restrictions.
Furthermore, it is possible to cope with a move-in of the line size of the upper layer cache executed at the time of copy back.

なお上記例では、本発明を2次キャッシュメモリと主記憶装置間のプリフェッチに適用した場合を例として示したが、本発明はこれに限定されるものではなく、システムが3次キャッシュ以上のキャッシュメモリを備えている場合、2次キャッシュと3次キャッシュの間、3次キャッシュと主記憶装置の間等にも適用することが出来る。   In the above example, the case where the present invention is applied to the prefetch between the secondary cache memory and the main storage device is shown as an example, but the present invention is not limited to this, and the system is not limited to the cache having the tertiary cache or higher. When the memory is provided, the present invention can be applied between the secondary cache and the tertiary cache, between the tertiary cache and the main storage device, and the like.

また、上記例では、プリフェッチの連続アクセス方向が、昇順であるケースについて適用した場合を例として示したが、本発明はこれに限定されるものではなく、プリフェッチの連続アクセス方向が、降順であるケースについても、適用することができる。   In the above example, the case where the prefetch continuous access direction is applied to the ascending order is shown as an example. However, the present invention is not limited to this, and the prefetch continuous access direction is the descending order. The case can also be applied.

Claims (9)

データを保持する記憶装置に接続される演算処理装置において、
処理を行う演算に用いるデータを要求する演算処理部と、
第1のラインサイズの第1のキャッシュラインを複数有するとともに、前記演算処理部が要求したデータを、前記複数の第1のキャッシュラインのいずれにも保持しない場合、キャッシュミス通知を送信するとともに、受信した第1のプリフェッチ要求に対応して入力する第1のデータを保持する第1のキャッシュメモリと、
第2のラインサイズの第2のキャッシュラインを複数有するとともに、受信した第2のプリフェッチ要求に対応して前記記憶装置から入力する第2のデータを保持する第2のキャッシュメモリと、
前記キャッシュミス通知を受信した場合、前記第2のキャッシュライン毎に、前記第2のラインサイズのデータ量を、前記記憶装置から前記第2のキャッシュメモリにプリフェッチする第2のプリフェッチ要求を発行するとともに、前記第1のキャッシュライン毎に、前記第1のラインサイズのデータ量を、前記記憶装置から前記第1のキャッシュメモリにプリフェッチする第1のプリフェッチ要求を発行するプリフェッチ制御部を有することを特徴とする演算処理装置。
In an arithmetic processing unit connected to a storage device that holds data,
An arithmetic processing unit for requesting data to be used for an operation to perform processing;
When having a plurality of first cache lines of the first line size and not holding the data requested by the arithmetic processing unit in any of the plurality of first cache lines, sending a cache miss notification, A first cache memory for holding first data to be input in response to the received first prefetch request;
A second cache memory having a plurality of second cache lines of a second line size and holding second data input from the storage device in response to the received second prefetch request;
When the cache miss notification is received, a second prefetch request for prefetching the data amount of the second line size from the storage device to the second cache memory is issued for each second cache line. And a prefetch control unit that issues a first prefetch request for prefetching the data amount of the first line size from the storage device to the first cache memory for each first cache line. Arithmetic processing device characterized.
前記演算処理装置において、
前記プリフェッチ制御部は、
前記第2のプリフェッチ要求を、前記第1のプリフェッチ要求に先行して発行されることを特徴とする請求項1記載の演算処理装置。
In the arithmetic processing unit,
The prefetch control unit
The arithmetic processing unit according to claim 1, wherein the second prefetch request is issued prior to the first prefetch request.
前記演算処理装置において、
前記第1のプリフェッチ要求は、
前記キャッシュミスが発生したアドレスから前記第1のラインサイズ分先のアドレスに対して発行されることを特徴とする請求項1又は2記載の演算処理装置。
In the arithmetic processing unit,
The first prefetch request is:
3. The arithmetic processing unit according to claim 1, wherein the arithmetic processing unit is issued to an address that is ahead of the first line size from an address where the cache miss has occurred.
前記演算処理装置において、
前記第2のプリフェッチ要求は、
前記キャッシュミスが発生したアドレスから前記第2のラインサイズ分先のアドレスに対して発行されることを特徴とする請求項1又は2記載の演算処理装置。
In the arithmetic processing unit,
The second prefetch request is
3. The arithmetic processing unit according to claim 1, wherein the arithmetic processing unit is issued to an address ahead of the second line size from an address where the cache miss has occurred.
データを保持する記憶装置と、
処理を行う演算に用いるデータを要求する演算処理部と、
第1のラインサイズの第1のキャッシュラインを複数有するとともに、前記演算処理部が要求したデータを、前記複数の第1のキャッシュラインのいずれにも保持しない場合、キャッシュミス通知を送信するとともに、受信した第1のプリフェッチ要求に対応して入力する第1のデータを保持する第1のキャッシュメモリと、
第2のラインサイズの第2のキャッシュラインを複数有するとともに、受信した第2のプリフェッチ要求に対応して前記記憶装置から入力する第2のデータを保持する第2のキャッシュメモリと、
前記キャッシュミス通知を受信した場合、前記第2のキャッシュライン毎に、前記第2のラインサイズのデータ量を、前記記憶装置から前記第2のキャッシュメモリにプリフェッチする第2のプリフェッチ要求を発行するとともに、前記第1のキャッシュライン毎に、前記第1のラインサイズのデータ量を、前記記憶装置から前記第1のキャッシュメモリにプリフェッチする第1のプリフェッチ要求を発行するプリフェッチ制御部を有することを特徴とする情報処理装置。
A storage device for holding data;
An arithmetic processing unit for requesting data to be used for an operation to perform processing;
When having a plurality of first cache lines of the first line size and not holding the data requested by the arithmetic processing unit in any of the plurality of first cache lines, sending a cache miss notification, A first cache memory for holding first data to be input in response to the received first prefetch request;
A second cache memory having a plurality of second cache lines of a second line size and holding second data input from the storage device in response to the received second prefetch request;
When the cache miss notification is received, a second prefetch request for prefetching the data amount of the second line size from the storage device to the second cache memory is issued for each second cache line. And a prefetch control unit that issues a first prefetch request for prefetching the data amount of the first line size from the storage device to the first cache memory for each first cache line. A characteristic information processing apparatus.
前記情報処理装置において、
前記プリフェッチ制御部は、
前記第2のプリフェッチ要求を、前記第1のプリフェッチ要求に先行して発行されることを特徴とする請求項5記載の情報処理装置。
In the information processing apparatus,
The prefetch control unit
6. The information processing apparatus according to claim 5, wherein the second prefetch request is issued prior to the first prefetch request.
前記情報処理装置において、
前記第1のプリフェッチ要求は、
前記キャッシュミスが発生したアドレスから前記第1のラインサイズ分先のアドレスに対して発行されることを特徴とする請求項5又は6記載の情報処理装置。
In the information processing apparatus,
The first prefetch request is:
The information processing apparatus according to claim 5, wherein the information processing apparatus is issued to an address that is ahead of the first line size from an address where the cache miss has occurred.
前記情報処理装置において、
前記第2のプリフェッチ要求は、
前記キャッシュミスが発生したアドレスから前記第2のラインサイズ分先のアドレスに対して発行されることを特徴とする請求項5又は6記載の情報処理装置。
In the information processing apparatus,
The second prefetch request is
7. The information processing apparatus according to claim 5, wherein the information processing apparatus is issued to an address ahead of the second line size from an address where the cache miss has occurred.
データを保持する記憶装置に接続される演算処理装置の制御方法において、
前記演算処理装置が有する演算処理部が、処理を行う演算に用いるデータを要求するステップと、
第1のラインサイズの第1のキャッシュラインを複数有する第1のキャッシュメモリが、前記演算処理部が要求したデータを、前記複数の第1のキャッシュラインのいずれにも保持しない場合、キャッシュミス通知を送信するステップと、
前記演算処理装置が有するプリフェッチ制御部が、前記キャッシュミス通知を受信した場合、前記第2のキャッシュライン毎に、前記第2のラインサイズのデータ量を、前記記憶装置から第2のラインサイズの第2のキャッシュラインを複数有する第2のキャッシュメモリにプリフェッチする第2のプリフェッチ要求を発行するステップと、
前記第2のキャッシュメモリが、受信した第2のプリフェッチ要求に対応して前記記憶装置から入力する第2のデータを保持するステップと、
前記プリフェッチ制御部が、前記第1のキャッシュライン毎に、前記第1のラインサイズのデータ量を、前記記憶装置から前記第1のキャッシュメモリにプリフェッチする第1のプリフェッチ要求を発行するステップと、
前記第1のキャッシュメモリが、受信した第1のプリフェッチ要求に対応して前記記憶装置から入力する第1のデータを保持するステップを有することを特徴とする制御方法。
In a control method of an arithmetic processing unit connected to a storage device that holds data,
A step of requesting data to be used for a calculation performed by a calculation processing unit included in the calculation processing device;
When the first cache memory having a plurality of first cache lines of the first line size does not hold the data requested by the arithmetic processing unit in any of the plurality of first cache lines, a cache miss notification A step of sending
When the prefetch control unit included in the arithmetic processing unit receives the cache miss notification, for each second cache line, the data amount of the second line size is transferred from the storage unit to the second line size. Issuing a second prefetch request for prefetching to a second cache memory having a plurality of second cache lines;
The second cache memory holding second data input from the storage device in response to the received second prefetch request;
The prefetch control unit issuing a first prefetch request for prefetching the data amount of the first line size from the storage device to the first cache memory for each first cache line;
A control method comprising the step of: the first cache memory holding first data input from the storage device in response to the received first prefetch request.
JP2010057979A 2010-03-15 2010-03-15 Arithmetic processing device, information processing apparatus, and control method Pending JP2010176692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010057979A JP2010176692A (en) 2010-03-15 2010-03-15 Arithmetic processing device, information processing apparatus, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010057979A JP2010176692A (en) 2010-03-15 2010-03-15 Arithmetic processing device, information processing apparatus, and control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008502585A Division JP4574712B2 (en) 2006-02-28 2006-02-28 Arithmetic processing apparatus, information processing apparatus and control method

Publications (1)

Publication Number Publication Date
JP2010176692A true JP2010176692A (en) 2010-08-12

Family

ID=42707525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010057979A Pending JP2010176692A (en) 2010-03-15 2010-03-15 Arithmetic processing device, information processing apparatus, and control method

Country Status (1)

Country Link
JP (1) JP2010176692A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61169949A (en) * 1985-01-22 1986-07-31 Fujitsu Ltd Buffer memory control system
JPH02301843A (en) * 1989-05-17 1990-12-13 Fujitsu Ltd Pre-fetch controlling system
JPH06149669A (en) * 1992-11-04 1994-05-31 Fujitsu Ltd System and device for transferring cache data
JPH07129464A (en) * 1993-11-05 1995-05-19 Hitachi Ltd Information processor
JPH09128293A (en) * 1995-10-27 1997-05-16 Hitachi Ltd Information processor
JP2000339157A (en) * 1999-05-27 2000-12-08 Fujitsu Ltd Cache memory controller and computer system
JP2004038345A (en) * 2002-06-28 2004-02-05 Fujitsu Ltd Prefetch control device, information processor, and prefetch control process
JP2006040141A (en) * 2004-07-29 2006-02-09 Fujitsu Ltd Multithread processor
JP2006048182A (en) * 2004-07-30 2006-02-16 Fujitsu Ltd Storage controller, move-in buffer control method and program
JP2006048181A (en) * 2004-07-30 2006-02-16 Fujitsu Ltd Storage controller, move-in buffer control method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61169949A (en) * 1985-01-22 1986-07-31 Fujitsu Ltd Buffer memory control system
JPH02301843A (en) * 1989-05-17 1990-12-13 Fujitsu Ltd Pre-fetch controlling system
JPH06149669A (en) * 1992-11-04 1994-05-31 Fujitsu Ltd System and device for transferring cache data
JPH07129464A (en) * 1993-11-05 1995-05-19 Hitachi Ltd Information processor
JPH09128293A (en) * 1995-10-27 1997-05-16 Hitachi Ltd Information processor
JP2000339157A (en) * 1999-05-27 2000-12-08 Fujitsu Ltd Cache memory controller and computer system
JP2004038345A (en) * 2002-06-28 2004-02-05 Fujitsu Ltd Prefetch control device, information processor, and prefetch control process
JP2006040141A (en) * 2004-07-29 2006-02-09 Fujitsu Ltd Multithread processor
JP2006048182A (en) * 2004-07-30 2006-02-16 Fujitsu Ltd Storage controller, move-in buffer control method and program
JP2006048181A (en) * 2004-07-30 2006-02-16 Fujitsu Ltd Storage controller, move-in buffer control method and program

Similar Documents

Publication Publication Date Title
JP4574712B2 (en) Arithmetic processing apparatus, information processing apparatus and control method
KR102448124B1 (en) Cache accessed using virtual addresses
US7284112B2 (en) Multiple page size address translation incorporating page size prediction
US10877901B2 (en) Method and apparatus for utilizing proxy identifiers for merging of store operations
US7958317B2 (en) Cache directed sequential prefetch
US8484434B2 (en) Index generation for cache memories
US10083126B2 (en) Apparatus and method for avoiding conflicting entries in a storage structure
US9892039B2 (en) Non-temporal write combining using cache resources
US9131899B2 (en) Efficient handling of misaligned loads and stores
JP2016534431A (en) Improved load / store unit and data cache ordering and bandwidth
US9817762B2 (en) Facilitating efficient prefetching for scatter/gather operations
US20170091097A1 (en) Hazard checking
JP2009512943A (en) Multi-level translation index buffer (TLBs) field updates
US20120173843A1 (en) Translation look-aside buffer including hazard state
US9690707B2 (en) Correlation-based instruction prefetching
WO2013084315A1 (en) Processing unit and method for controlling processing unit
US6643743B1 (en) Stream-down prefetching cache
US8688952B2 (en) Arithmetic processing unit and control method for evicting an entry from a TLB to another TLB
US20010032297A1 (en) Cache memory apparatus and data processing system
US7689776B2 (en) Method and system for efficient cache locking mechanism
US7076635B1 (en) Method and apparatus for reducing instruction TLB accesses
JP2010176692A (en) Arithmetic processing device, information processing apparatus, and control method
JP7311959B2 (en) Data storage for multiple data types
JP2017191564A (en) Arithmetic processing unit and control method of arithmetic processing unit
JP2001344152A (en) Cash memory device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120904