JP2009528612A - データ処理システム並びにデータ及び/又は命令のプリフェッチ方法 - Google Patents
データ処理システム並びにデータ及び/又は命令のプリフェッチ方法 Download PDFInfo
- Publication number
- JP2009528612A JP2009528612A JP2008556897A JP2008556897A JP2009528612A JP 2009528612 A JP2009528612 A JP 2009528612A JP 2008556897 A JP2008556897 A JP 2008556897A JP 2008556897 A JP2008556897 A JP 2008556897A JP 2009528612 A JP2009528612 A JP 2009528612A
- Authority
- JP
- Japan
- Prior art keywords
- data
- memory
- instructions
- cache
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline, look ahead
- G06F9/3824—Operand accessing
- G06F9/383—Operand prefetching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0862—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
Abstract
少なくとも1つのアプリケーションを処理するデータ処理システムを提供する。データ処理システムは、アプリケーションを実行するためのプロセッサ(100)を備える。システムは、プロセッサに対してデータ及び/又は命令をキャッシュするための、プロセッサ(100)に関連するキャッシュメモリ(200)をさらに備える。システムは、アプリケーションに対してデータ及び/命令を格納するためのメモリユニット(400)をさらに備える。メモリユニット(400)は、複数のメモリパーティション(401-404)を備える。同様のデータ属性を有するデータは、同一のメモリパーティション(401-404)に格納される。所定のプリフェッチパターンが、メモリパーティション(401-404)の各々に関連する。
Description
本発明は、データ処理システム、データ及び/又は命令のプリフェッチ方法、データ及び/又は命令のメモリ及び電子デバイスへのロード方法に関する。
今日のデータ処理システムやプロセッサはあるメモリ階層に基づいており、速度及びサイズの異なるメモリを備えている。しかしながら、高速なメモリは高価であるため、メモリ階層は、各レベルがすぐ下のレベルよりも小さく高速で、かつバイト単価がより高価である複数のレベルに編成される。階層の最下層に達するまで、通常、1つのレベルにおける全データはそれよりも下位のレベルで見つけることができ、さらに、その下位のレベルの全データは、それよりも下位のレベルで見つけることができる。
キャッシュメモリは、メモリ階層の第1レベルを構成することができ、すなわち、それは中央演算処理装置CPU又は処理装置に最も近いメモリである。CPUがデータアイテムを要求し、そのデータアイテムがキャッシュ内で見つかれば、いわゆるキャッシュヒットが生じる。しかしながら、CPUによってリクエストされたデータアイテムがキャッシュ内で見つからない場合は、いわゆるキャッシュミスが生じる。キャッシュミスを正し、リクエストされたデータアイテムをフェッチするのに必要な時間は、メモリのレイテンシ及びバンド幅に依存する。レイテンシは、1ブロックの第1のワードを読み出すための時間に相当し、バンド幅は、1ブロックの残りを読み出すための時間に関連する。キャッシュの基本的な考えは、来るべき処理サイクルの期間に必要となるであろうデータアイテムを、それらの実際の処理の前にフェッチすることである。
キャッシュミスが生じた場合、全部のキャッシュラインを一度にリプレイスすることでメモリバンド幅を活用することができる。しかしながら、このようなアプローチは、使用できるメモリバンド幅を向上するために、キャッシュラインサイズをも拡大させることになる。キャッシュラインの拡大は、特にプリフェッチに関して有利である。しかしながら、キャッシュラインのサイズが拡大すると、プログラムが充分な空間的局所性を有さずにキャッシュミスが頻発する場合、システムのパフォーマンスが低減するおそれがある。
K.イノウエ等による、“Dynamically Variable Line-Size Cache Exploiting High On-Chip Memory Bandwidth of Merged DRAM/Logic LSIs”,Proceedings of HPCA-5.5 International Conference on High Performance Computing, Jan. 1999には、現在実行されているアプリケーションに従って、ランタイムにキャッシュラインのサイズを変更することが記載されている。
データ処理システムの内部で処理することができるアルゴリズムは、データ及び命令に対するそれらの参照の局所性に関して異なる。参照の局所性は、プロセッサ上で動作しているアプリケーションのプロパティを構成する。参照の局所性は、種々のメモリ領域がアプリケーションによってどのようにアクセスされるかを示す。ここで、参照の局所性とは、参照の空間的局所性及び参照の時間的局所性のことを指す。最近アクセスされたデータ位置に近接するデータ位置が、近い将来にアクセスされるという大きな見込みがある場合、アプリケーションは、良好な参照の空間的局所性を有する。参照の時間的局所性は、最近のデータ位置へのアクセスが、近い将来に再び起こることを示す。従って、幾つかのアルゴリズムが良好な参照の局所性(空間的又は時間的のいずれか、或いは両方)を有することになる一方で、他のものは、不良の参照の局所性を成す。従って、幾つかのアルゴリズムは良好なキャッシュヒット率を有するようになり、一方で、他のものはいくぶん悪いキャッシュヒット率を有するようになる。なお、キャッシュミスは回避できない点に留意されたい。しかしながら、キャッシュミス率は、キャッシュミスペナルティを削減すべく最小限まで低減しなければならない。処理中のデータが高い空間的局所性を有する場合は、より大きなキャッシュラインが使用される。
本発明の目的は、キャッシュミスペナルティの量を低減した、データ処理システム並びにデータ及び/又は命令のプリフェッチ方法を提供することにある。
この目的は、請求項1に係るデータ処理システム、請求項5にかかるデータ及び/又は命令のロード方法、請求項6に係るデータ及び/又は命令のプリフェッチ方法、及び請求項8に係る電子デバイスよって解決される。
その結果、少なくとも1つのアプリケーションを処理するためのデータ処理システムが提供される。データ処理システムは、アプリケーションを実行するためのプロセッサを備える。システムは、データ及び/又はプロセッサに対する命令をキャッシュするための、プロセッサに関連するキャッシュメモリをさらに備える。システムは、データ及び/又はアプリケーションに対する命令を格納するためのメモリユニットをさらに備える。メモリユニットは、複数のメモリパーティションを含む。同様のデータ属性を有するデータは、同じメモリパーティションに格納される。所定のプリフェッチパターンが、メモリパーティションの各々に関連している。
本発明の一態様によれば、キャッシュメモリが複数のレジスタを備え、それら各々はメモリのメモリパーティションのうちの1つに関連している。レジスタは、メモリパーティションに関連する所定のプリフェッチパターンを格納するのに用いられる。データ及び/又は命令は、レジスタに格納されたプリフェッチパターンに従ってプリフェッチされる。従って、データアイテムのプリフェッチは、特定のデータアイテムに対して、特に、そのデータ属性を考慮してカスタマイズすることができる。
本発明のさらに別の態様によれば、同様の参照の局所性を有するデータは、同じメモリパーティションに格納される。従って、必要とされるそれらデータアイテムだけがプリフェッチされて、キャッシュミスペナルティを低減することができる。
本発明のさらに別の態様によれば、高い参照の局所性を有するメモリパーティションに格納されるデータは、完全なデータブロックとしてフェッチされ、低い参照の局所性を有するメモリパーティションに格納されている要求データは、ただ単にフェッチされる。
本発明は、アプリケーションのデータ及び/又は命令のメモリユニットへのロードの方法にも関する。メモリユニットは、複数のメモリパーティションを備える。同様のデータ属性を有するデータ及び/又は命令は、同じメモリパーティションにロードされる。従って、その中に格納されるメモリ及びデータは、データ属性に従って編成されることになる。
本発明は、さらに、複数のメモリパーティションを備えるメモリユニットから、アプリケーションのデータ及び/又は命令をプリフェッチするための方法にも関する。メモリユニットからのデータは、プロセッサに関連するキャッシュメモリにプリフェッチされる。同様のデータ属性を有するデータが、同じメモリパーティションに格納される。所定のプリフェッチパターンが、各々のメモリパーティション上で実行される。
本発明は、アプリケーションを処理するための電子デバイスにも関する。電子デバイスは、アプリケーションを実行するための少なくとも1つのプロセッサを備えている。電子デバイスは、複数のメモリパーティションを有するメモリユニットから受信したデータ及び/又は命令をキャッシュするための、少なくとも1つのプロセッサに関連するキャッシュメモリをさらに備える。同様のデータ属性を有するデータは、同じメモリパーティションに格納される。所定のプリフェッチパターンが、各々のメモリパーティションに関連する。
本発明は、同様のキャッシュパフォーマンスを有する命令及び/又はデータを同様の領域に一緒に分類しながら、メモリ空間を異なる領域にパーティション化するための構想に関する。この領域は、キャッシュミスの期間にフェッチされるワードの量に基づいてもよい。従って、メモリにおけるデータの記憶を再編成することによって、かなりの利得を得ることができる。このことは、より良好なパフォーマンスと実行時間の削減とにつながる。
これ以降に、本発明の実施例及びその効果を、図面を参照して更に詳細に説明する。
図1は、第1実施例による、アプリケーションを処理するためのデータ処理システムのアーキテクチャのブロック図である。データ処理システムは、プロセッサ100、キャッシュ200、データバス300及びメモリユニット400を備える。個別のプログラムデータ及び/又はアプリケーションに対する命令は、メモリユニット400に格納される。メモリ400からのデータ及び/又は命令は、バス300を経て、キャッシュ200にプリフェッチされる。キャッシュは、キャッシュの動作を制御するためのキャッシュコントローラ210及びキャッシュメモリ220を備えることができる。キャッシュは、コンフィギュラブルなレジスタ240をさらに備えることができる。
図2は、図1のメモリ400の一例である。具体的には、メモリ400は、異なる領域401〜404に分割され、データ及び/又はアプリケーションに対する命令は、これらメモリ領域401〜404に格納される。同様の参照の局所性のパターンを有するデータは、同じメモリ領域401〜404に配置される。データがいかなる参照の局所性も示さない場合は、そのようなデータは、メモリ領域401に置かれる。このデータがアクセスされる場合は、単に1つのワードのみがフェッチされて転送される。例として、領域404が、非常に良好な参照の局所性を共有しているデータ及び命令を含んでいるとする。メモリ領域404におけるこれらのデータがアクセスされる場合は、データの全キャッシュブロック(キャッシュライン又は多数のワード)が、キャッシュ200にプリフェッチされる。従って、データ及び/又は命令のプリフェッチは、データが格納された場所、すなわち、データが格納されるメモリ領域に依存することになる。従って、このようなアーキテクチャによって、キャッシュミスペナルティが低減する。参照の局所性又は局所性の原理は、単一のリソースに複数回アクセスする処理と関係がある。参照の局所性は、時間的、空間的及び逐次的な局所性に関係し得る。参照の時間的局所性は、ある点でのリソース参照が、やがて近い将来再び参照されるという概念に関する。参照の空間的局所性は、近傍のリソースが参照されたリソースは、参照される可能性がより高いという概念に関する。参照の逐次的局所性は、メモリが順次アクセスされるという概念に関する。従って、データは、時間的、空間的及び/又は逐次的な参照の局所性に従って、特定のメモリ領域401〜404に格納される。メモリ400に格納されるデータを解析して、そのデータの参照の局所性を判定し、さらに、それらの参照の局所性に基づいて、それぞれのメモリ領域401〜404にデータを格納することができる。
図3は、図1のキャッシュのパーティションの一例である。キャッシュ200は、キャッシュメモリ内のデータの状態を示すのに用いることができるキャッシュメモリ220と、キャッシュの動作を制御するためのキャッシュコントローラ210とを備えることができる。第1のキャッシュカラム201は、キャッシュブロックの状態、すなわち、それが変更されるか、共有されるか、無効であるか又は排他的であるかどうかを示すのに用いられる。第2のキャッシュカラム202は、キャッシュブロック内のデータのビット状態を示すのに用いられる。この状態は、有効又は無効の状態を取りえる。第3のキャッシュコラム203は、多様なキャッシュメカニズムを実装するために必要となりえる他の状態ビット及びタグ情報を示すのに用いられる。第4のキャッシュカラムは、キャッシュに格納されている特定のデータを示すのに用いる。
キャッシュ200は、(コンフィギュラブルな)レジスタ240を更に備えることができる。レジスタは、各パーティションに関連するのが好適である。このレジスタは、パーティションの各々に関する情報を格納するのに役立つ。この情報は、開始及び終了アドレス、データ又は命令がかかるパーティションからアクセスされた場合にフェッチすべきワードの数を含むことができる。
プロセッサ100は、キャッシュ200に対し、指定されたアドレスからデータを読み出すことを要求する命令を出す。このデータがすでにキャッシュ200にプリフェッチされている場合はキャッシュヒットが生じ、それから、そのデータがキャッシュ200からプロセッサ100へと転送される。しかしながら、データがキャッシュ200に存在しない場合は、キャッシュミスが生じる。キャッシュ200のキャッシュコントローラ210は、メモリ400内のアドレスのパーティション又はメモリ領域401〜404を判定して、このパーティションに関連付けられている幾つかのワードをフェッチするために、フェッチオペレーションを発することができる。続いて、パーティション又はメモリ・サブシステムからのデータは、この領域401〜404に対する所定のプリフェッチパターンに従って、キャッシュ200へ転送される。その後、有効データがキャッシュブロックに存在するかどうかを示すべく、キャッシュブロックの状態が更新される。
本発明によれば、メモリ空間がパーティション化又は異なるメモリ領域に分割されて、命令及び/又はデータは、同様の参照の局所性のような同様のキャッシュ性能を有する他の命令及び/又はデータを有するメモリ領域の1つに分類される。データが格納されるメモリ領域は、キャッシュミス期間にフェッチされるワードの量を示す。
上述のアーキテクチャは、複数のプロセッサシステムオンチップに実装することができる。従って、参照の局所性が低いアプリケーションもマッピングすることができる。
本発明は、異なる性質のデータ及び命令を分類するための方法、及びメモリ内に対応するメモリパーティションを生成するための方法にも関する。この情報によれば、アプリケーション・オブジェクトコード(バイナリファイル)をブートアップ時間の間システムメモリにロードするリンカ又はローダ・アプリケーションが、命令の通りに、特定のメモリ領域内に実データを編成することができる。従って、コンパイラ、リンカ及び/又はローダユニットを、上述の編成及び生成を可能にするために設けることができる。所定のプリフェッチパターンは、メモリパーティション又はメモリ領域のそれぞれに関連づけられる。
上述した実施態様は本発明を制限するものではなく、当業者は、添付の請求の範囲から逸脱することなく、多くの代わりの実施態様を設計することができることに留意されたい。「含む」又は「備える」は、請求項又は明細書全体に記載されたもの以外の要素又はステップの存在を除外するものではない。単一の要素で示していたとしても、そのような要素が多数存在することを排除するものではない。複数の手段を列挙している装置クレームにおいて、それらの手段の幾つかを、同一のソフトウェア又はハードウェアによって実現してもよい。ある手法を、互いに異なる独立項において引用しているという単なる事実は、それらの手法を組み合わせて使用することが有利ではない、ということを示すものではない。
Claims (8)
- 少なくとも1つのアプリケーションを処理するためのデータ処理システムであって、
- 前記少なくとも1つのアプリケーションを実行するための少なくとも1つのプロセッサと;
- 前記少なくとも1つのプロセッサに関連し、データ及び/又は命令をキャッシュするためのキャッシュメモリと;さらに
‐ 前記少なくとも1つのアプリケーションのデータ及び/又は命令を格納するためのメモリユニットと;
を備え、
前記メモリユニットは、複数のメモリパーティションを含み、同様のデータ属性を有するデータは、同じメモリパーティションに格納され;さらに、
所定のプリフェッチパターンが、前記メモリパーティションの各々に関連している、
ことを特徴とするデータ処理システム。 - 請求項1に記載のデータ処理システムにおいて、前記キャッシュメモリが、前記メモリパーティションに関連する前記所定のプリフェッチパターンを格納するための、各々が前記メモリパーティションのうちの1つに関連している複数のレジスタを備え、データ及び/又は命令が、前記レジスタに格納された前記プリフェッチパターンに従ってプリフェッチされる、ことを特徴とするデータ処理システム。
- 請求項1または2に記載のデータ処理システムにおいて、同様の参照の局所性を有するデータが、同じ前記メモリパーティションに格納される、ことを特徴とするデータ処理システム。
- 請求項3に記載のデータ処理システムにおいて、高い参照の局所性を有するメモリパーティションに格納されるデータは完全なデータブロックとしてフェッチされ、低い参照の局所性を有するメモリパーティションに格納されている要求データはただ単にフェッチされる、ことを特徴とするデータ処理システム。
- メモリユニットへ少なくとも1つのアプリケーションのデータ及び/又は命令をロードするための方法であって、前記メモリユニットは複数のメモリパーティションを備え、前記方法が:
‐ 同様のデータ属性を有するデータ及び/又は命令を、同じ前記メモリパーティションにロードするステップ、
を含むことを特徴とするメモリユニットへ少なくとも1つのアプリケーションのデータ及び/又は命令をロードするための方法。 - 複数のメモリパーティションを有するメモリユニットからの少なくとも1つのアプリケーションのデータ及び/又は命令を、プロセッサに関連するキャッシュメモリにプリフェッチするための方法であって、同様のデータ属性を有するデータが、同一の前記メモリパーティションに格納されており、前記方法が:
‐ 前記メモリパーティションの各々に関連する所定のプリフェッチパターンを実行するステップ、
を含むことを特徴とするデータ及び/又は命令をプリフェッチするための方法。 - 請求項6に記載のデータ及び/又は命令をプリフェッチするための方法において、同様の参照の局所性を有するデータ及び/又は命令が、同一の前記メモリパーティションに格納され、前記プリフェッチパターンが、プリフェッチすべき前記データが格納される前記メモリ領域に依存する、ことを特徴とするデータ及び/又は命令をプリフェッチするための方法。
- 少なくとも1つのアプリケーションを処理するための電子デバイスであって:
‐ 前記少なくとも1つのアプリケーションを実行するための少なくとも1つのプロセッサと、
‐ 複数のメモリパーティションを有するメモリユニットかたデータ及び/又は命令をキャッシュするための、前記少なくとも1つのプロセッサに関連するキャッシュメモリと、
を備え、
同様のデータ属性を有するデータが、同一の前記メモリパーティションに格納され、所定のプリフェッチパターンが、前記メモリパーティションの各々に関連する、
ことを特徴とする電子デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06110435 | 2006-02-27 | ||
PCT/IB2007/050604 WO2007096843A1 (en) | 2006-02-27 | 2007-02-26 | Data processing system and method for prefetching data and/or instructions |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009528612A true JP2009528612A (ja) | 2009-08-06 |
Family
ID=38163370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008556897A Withdrawn JP2009528612A (ja) | 2006-02-27 | 2007-02-26 | データ処理システム並びにデータ及び/又は命令のプリフェッチ方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20090177842A1 (ja) |
EP (1) | EP1997003A1 (ja) |
JP (1) | JP2009528612A (ja) |
CN (1) | CN101390047A (ja) |
WO (1) | WO2007096843A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662713B (zh) | 2012-04-12 | 2014-04-16 | 腾讯科技(深圳)有限公司 | 提高应用程序运行速度的方法、装置及终端 |
CN102981883B (zh) * | 2012-10-29 | 2016-01-13 | 无锡江南计算技术研究所 | 一种编译器数据预取方法和装置 |
US9529722B1 (en) * | 2014-07-31 | 2016-12-27 | Sk Hynix Memory Solutions Inc. | Prefetch with localities and performance monitoring |
KR101814577B1 (ko) * | 2015-10-16 | 2018-01-03 | 삼성전자주식회사 | 프로세싱-인-메모리를 이용한 명령어 처리 방법 및 그 장치 |
CN105912476A (zh) * | 2016-04-06 | 2016-08-31 | 中国科学院计算技术研究所 | 片上重复寻址的方法及装置 |
US10713053B2 (en) * | 2018-04-06 | 2020-07-14 | Intel Corporation | Adaptive spatial access prefetcher apparatus and method |
US11086526B2 (en) | 2018-06-07 | 2021-08-10 | Micron Technology, Inc. | Adaptive line width cache systems and methods |
US11093404B2 (en) * | 2019-10-14 | 2021-08-17 | EMC IP Holding Company LLC | Efficient pre-fetching on a storage system |
KR20210078616A (ko) * | 2019-12-18 | 2021-06-29 | 에스케이하이닉스 주식회사 | 데이터 처리 시스템 |
CN114968073A (zh) * | 2021-02-27 | 2022-08-30 | 华为技术有限公司 | 数据预取的方法、设备及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030154349A1 (en) * | 2002-01-24 | 2003-08-14 | Berg Stefan G. | Program-directed cache prefetching for media processors |
-
2007
- 2007-02-26 JP JP2008556897A patent/JP2009528612A/ja not_active Withdrawn
- 2007-02-26 CN CNA2007800069664A patent/CN101390047A/zh active Pending
- 2007-02-26 EP EP07705947A patent/EP1997003A1/en not_active Withdrawn
- 2007-02-26 US US12/280,817 patent/US20090177842A1/en not_active Abandoned
- 2007-02-26 WO PCT/IB2007/050604 patent/WO2007096843A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20090177842A1 (en) | 2009-07-09 |
EP1997003A1 (en) | 2008-12-03 |
WO2007096843A1 (en) | 2007-08-30 |
CN101390047A (zh) | 2009-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009528612A (ja) | データ処理システム並びにデータ及び/又は命令のプリフェッチ方法 | |
US6219760B1 (en) | Cache including a prefetch way for storing cache lines and configured to move a prefetched cache line to a non-prefetch way upon access to the prefetched cache line | |
US7975108B1 (en) | Request tracking data prefetcher apparatus | |
US8527707B2 (en) | High-performance cache system and method | |
US5829025A (en) | Computer system and method of allocating cache memories in a multilevel cache hierarchy utilizing a locality hint within an instruction | |
JP4006436B2 (ja) | 種々のキャッシュ・レベルにおける連想セットの重畳一致グループを有するマルチレベル・キャッシュ | |
US7558920B2 (en) | Apparatus and method for partitioning a shared cache of a chip multi-processor | |
US6430656B1 (en) | Cache and management method using combined software and hardware congruence class selectors | |
US8140759B2 (en) | Specifying an access hint for prefetching partial cache block data in a cache hierarchy | |
US9619390B2 (en) | Proactive prefetch throttling | |
US6782454B1 (en) | System and method for pre-fetching for pointer linked data structures | |
US8595443B2 (en) | Varying a data prefetch size based upon data usage | |
US8250307B2 (en) | Sourcing differing amounts of prefetch data in response to data prefetch requests | |
JP2006517040A (ja) | キャッシュラインサイズが異なる第一レベルキャッシュと第二レベルキャッシュを備えたマイクロプロセッサ | |
WO2000034870A1 (en) | Buffer memory management in a system having multiple execution entities | |
US20090063777A1 (en) | Cache system | |
US20100318741A1 (en) | Multiprocessor computer cache coherence protocol | |
US6421761B1 (en) | Partitioned cache and management method for selectively caching data by type | |
US20100011165A1 (en) | Cache management systems and methods | |
US6715035B1 (en) | Cache for processing data in a memory controller and a method of use thereof to reduce first transfer latency | |
JP5625809B2 (ja) | 演算処理装置、情報処理装置及び制御方法 | |
US8266381B2 (en) | Varying an amount of data retrieved from memory based upon an instruction hint | |
US9262325B1 (en) | Heterogeneous memory system | |
US7293141B1 (en) | Cache word of interest latency organization | |
US8661169B2 (en) | Copying data to a cache using direct memory access |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090917 |