JP4484923B2 - プロセッサ - Google Patents

プロセッサ Download PDF

Info

Publication number
JP4484923B2
JP4484923B2 JP2007337083A JP2007337083A JP4484923B2 JP 4484923 B2 JP4484923 B2 JP 4484923B2 JP 2007337083 A JP2007337083 A JP 2007337083A JP 2007337083 A JP2007337083 A JP 2007337083A JP 4484923 B2 JP4484923 B2 JP 4484923B2
Authority
JP
Japan
Prior art keywords
lsi
cache
address information
processor
lsis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007337083A
Other languages
English (en)
Other versions
JP2009157775A (ja
Inventor
直伸 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007337083A priority Critical patent/JP4484923B2/ja
Priority to US12/068,700 priority patent/US8234453B2/en
Publication of JP2009157775A publication Critical patent/JP2009157775A/ja
Application granted granted Critical
Publication of JP4484923B2 publication Critical patent/JP4484923B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0893Caches characterised by their organisation or structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0864Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using pseudo-associative means, e.g. set-associative or hashing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1048Scalability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1056Simplification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

本発明は、プロセッサのキャッシュメモリの構造に関し、特に、複数のLSIを積層してキャッシュメモリを構成する技術に関する。
近年、半導体製造技術の進歩による素子の微細化により、一つのダイに膨大な数のトランジスタを集積することが可能となり、複数または多数のプロセッサコアを一つのダイまたは一つのパッケージに集積することが可能となっている。複数のプロセッサコアを備えたマルチコアプロセッサなどでは、演算処理能力が飛躍的に増大している。
一方、プロセッサがデータなどの読み書きを行う主記憶として広く採用されているDRAMの転送速度は、上述のプロセッサの処理能力の向上に比して遅れており、プロセッサが主記憶にアクセスする際には大きなレイテンシを伴う。このため、近年のプロセッサでは、プロセッサコアと同一のダイまたは同一のパッケージにL2(Level 2)またはL3キャッシュを搭載して、プロセッサコアが直接主記憶にアクセスする頻度を低減する技術が広く採用されている(例えば、特許文献1またはIBM社のPowerシリーズ)。
また、プロセッサコアが主記憶にアクセスする際のレイテンシを低減するために、メモリコントローラをオンダイで実装する技術も広く採用されている。
上記のように、L2やL3キャッシュの容量を増大することで、プロセッサコアが主記憶をアクセスする頻度を低減できるが、オンダイでL2及びL3キャッシュを実装した場合、ダイの面積が増大することになり、プロセッサを製造する際には、ダイの面積の増大に応じて製品の歩留まりが悪化するという問題がある。
この問題を解決するために、プロセッサを構成するLSIを複数の層に分けて、各LSIを積層することでひとつのパッケージにする技術が提案されている(例えば、非特許文献1)。非特許文献1の技術では、複数の層に分割したLSIに断面方向で貫通した電極(貫通電極)を設けて積層したLSI同士を接続する。そして、プロセッサコアとL2キャッシュを複数の層に分割したLSIにそれぞれ配置し、各層を積層することで一つのプロセッサを構成している。
特開2000−68460号 Feihui Li, Chrysostomos Nicopoulos, Thomas Richardson, Yuan Xie,Vijaykrishnan Narayanan, Mahmut Kandemir 共著、「Design and Management of 3D Chip Multiprocessors Using Network-in-Memory」、[online]、Dept. of CSE, The Pennsylvania State University 刊、[平成19年12月1日検索]、インターネット<URL :http://www.cs.utah.edu/classes/cs7940-010-rajeev/sum06/papers/3disca06.pdf>
近年では半導体の素子の微細化により、オンダイで実装するプロセッサコア数の増大が図られており、一つのダイに4ないし8個あるいはそれ以上のプロセッサコアを実装する技術が提案されており、主記憶の転送速度とプロセッサの処理能力の乖離はさらに進むことが予想され、この乖離を抑制するためにキャッシュメモリの大容量化が進むことも予想される。
ここで、非特許文献1のように一つの層にプロセッサコアとL2キャッシュを混在させた場合、複数の層を積層することでL2キャッシュの容量を増大することが可能となる。
しかしながら、上記従来例では、ひとつの層に複数のL2キャッシュが分散して配置されており、ひとつのL2キャッシュが1つのキャッシュノードを構成しているため、プロセッサパッケージ全体では、多数のキャッシュノードが各層に分散して配置されることになる。
このため、上記従来例では、キャッシュアクセスの際にタグとインデックスを比較する比較器やデータを読み書きするリードライト回路をノードの数に応じて配置する必要があり、各層のLSIの回路構成が複雑になるという問題があった。さらに、上記従来例ではキャッシュノード毎に比較器やリードライト回路を設けるため、これらの回路面積の分だけ、1つのLSIに搭載するキャッシュの容量が制限されるという問題があった。
また、上記従来例では、ひとつのLSI層にプロセッサコアとL2キャッシュを混在させるため、キャッシュメモリの容量のみを増減することが難しい、という問題があった。すなわち、上記従来例でプロセッサの用途に応じてキャッシュメモリの容量を増減させる場合、単純にLSI層の数を増減させるとプロセッサコアの数も増減することになり、プロセッサコアの数を一定にしてキャッシュメモリの容量を増減させるのは難しい、という問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、複数のLSIでプロセッサを構成する際に、回路構成を簡素にしながらキャッシュメモリの容量が異なるプロセッサを容易に構成することを目的とする。
本発明は、演算処理を行うプロセッサを含む第1のLSIと、データとアドレス情報を格納するキャッシュメモリを備えた第2のLSIと、前記第1のLSIと複数の第2のLSIを接続する情報伝達経路とを備えたプロセッサであって、前記第1のLSIは、前記複数の第2のLSIに対して前記プロセッサがアクセスを要求するデータのアドレス情報を前記情報伝達経路からブロードキャストするアドレス情報発行部を含み、前記第2のLSIの各々は、キャッシュメモリ全体の記憶域のうちアドレス情報の一部を格納する部分アドレス情報格納部と、前記部分アドレス情報格納部に格納されたアドレス情報に対応するデータを格納する部分データ格納部と、前記情報伝達経路を形成する貫通電極と、
前記ブロードキャストされたアドレス情報から当該第2のLSIの前記部分アドレス情報格納部に格納されアドレス情報を選択する選択部と、前記選択されたアドレス情報と前記部分アドレス情報格納部に格納されたアドレス情報とを比較してキャッシュヒットまたはキャッシュミスを判定する比較部と、を含み、前記第1のLSIと前記複数の第2のLSIは積層され、前記第1のLSIのアドレス情報発行部の直下に前記複数の第2のLSIの全ての選択部が配置され、前記全ての選択部が前記情報伝達経路にそれぞれ接続される。
したがって、本発明は、第2のLSIの数を変更することによりキャッシュメモリの容量の増減を容易に行うことができる。また、貫通電極を用いて各LSIを積層することで、回路構成を簡素にしながらキャッシュアクセスの高速化を図ることができる。
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、第1の実施形態を示し、本発明を適用するプロセッサ1の断面方向の概略図である。
プロセッサ1は、基板6上に複数のLSIチップを積層して構成される。複数のLSI(Large Scale Integration)チップは、基板6側からメモリコントローラLSI5、キャッシュLSI−B4、キャッシュLSI−A3、CPU−LSI2の順に積層される。CPU−LSI2の上面はヒートスプレッダ7に覆われており、メモリコントローラLSI5の下面は基板6に指示される。各LSIチップは、後述するようにキャッシュLSI−A、B内に形成した貫通電極40、41、42を介して図中上下方向で接続される。なお、ヒートスプレッダ7の周縁は基板6に結合される。また、各LSI2〜5は、板状のチップとして構成される。
キャッシュLSI−A3(以下、キャッシュLSI−Aとする)とキャッシュLSI−B4(以下、キャッシュLSI−Bとする)は、図3で示すように、ひとつのキャッシュメモリ30を構成する。
メモリコントローラLSI5は、図1において、基板6のメモリバス8を介して外部の主記憶9に接続される。メモリコントローラLSI5は、CPU−LSI2からの要求に応じて主記憶9とキャッシュメモリ30にアクセスしてデータの読み書きを行う。
CPU−LSI2は、図2にも示すように、演算処理を行う実行ユニット10と、データやフラグを格納するレジスタ11と、実行ユニット10が要求するアドレスを格納し、キャッシュメモリを検索するアドレスリクエスタ12と、キャッシュメモリ30に格納されたデータのうち、最後に利用された(ヒットした)データと、利用されていない(ヒットしていない)データを識別する情報(以下、LRU情報とする)を格納するLRU(Least Recently Used)情報格納部13と、行(ROW)と列(Column)で構成されたキャッシュメモリ30の行方向を特定するロウ選択回路14とを含んで構成される。なお、LRU情報は、キャッシュラインの入れ替え(リフィルまたはリプレース)時に複数のロウのキャッシュラインのうち、ヒットしていないキャッシュラインまたは利用されてからの経過時間が最も長いキャッシュラインを特定するものであり、公知の手法により設定することができる。
また、ロウ選択回路14は、キャッシュミスが発生した時にリプレースするキャッシュラインを決定するリプレースライン決定回路を含む。
LRU情報格納部13は、キャッシュライン毎の利用状態(ヒットの有無及び利用された順位)を示すLRU情報に加えて、キャッシュラインのデータが有効か無効かを示すバリッドビットや、キャッシュラインの内容がメモリから読まれたままであるか、書き換えられた部分があるかなどのキャッシュラインの状態を示す情報を含んでも良い。
<キャッシュの回路構成>
本第1実施形態では、図2に示すように、アドレスの幅が32ビットで、1つのキャッシュLSIに1行(ロウ)のキャッシュラインを備え、キャッシュラインが1024列の例を示す。そして、図1、図3のように2つのキャッシュLSI−A、Bにより構成されたキャッシュメモリ30は、2Wayセットアソシアティブで構成した例を示す。図3の例では、各キャッシュLSI−A,Bの連想度N=1で、キャッシュLSIの数M=2であるので、最大連想度はN×M=2となる。なお、キャッシュメモリ30は、例えば、CPU−LSI2のL2キャッシュを構成する。
ここで、キャッシュメモリ30は、図3で示すように、アドレスなどの管理情報を格納するタグ31と、キャッシュライン単位のデータを格納するデータメモリ32の2つの領域を含んでいる。タグ31とデータメモリ32は、それぞれROW方向で異なるキャッシュLSI−A、Bの部分タグ20と部分データメモリ21で構成される。すなわち、キャッシュメモリ30は、ロウ(Way)方向で独立したキャッシュLSI−A、Bに分散して情報を格納する。したがって、キャッシュLSI−A、Bの部分タグ20は、それぞれキャッシュメモリ30の全体の記憶域のうちの一部のロウ方向についてアドレス情報を格納し、部分データメモリ21は、部分タグ20のアドレス情報に対応するキャッシュラインのデータをそれぞれ格納する。すなわち、アドレス情報とデータを各キャッシュLSI−A,B毎に分散して記憶する構成となる。
キャッシュLSI−A、Bは同一の構成であり、以下ではキャッシュLSI−Aについて説明する。図2において、キャッシュLSI−Aは、主記憶9のデータをキャッシュライン単位で格納する部分データメモリ21と、キャッシュライン毎のタグ(アドレス情報)を格納する部分タグ20がキャッシュメモリ30の記憶領域を構成する。
次に、キャッシュLSI−Aは、CPU−LSI2のアドレスリクエスタ12からのインデックスを受信し、受信したインデックスに基づいて部分タグ20に格納されたタグのエントリを選択するエントリ選択デコーダ22と、アドレスリクエスタ12からのタグと部分タグ20に格納されたタグを比較して一致するエントリを特定するタグ比較器23と、部分データメモリ21の内容を読み書きするデータメモリリードライト回路24を備える。
アドレスリクエスタ12がキャッシュLSI−A、Bに発行するアドレス情報は、図2のように、アドレス幅が32ビットでラインサイズが128Byteの場合、上位15ビットをタグとし、上位16ビット目から25ビット目までをインデックスとして使用する例を示す。
タグ比較器23は、タグの比較に加えてキャッシュラインの入れ替え(リフィル)の際にはタグを更新する回路(タグ更新回路)を包含する。また、データメモリリードライト回路24は、CPU−LSI2からのキャッシュアクセスがリードのときには、ヒットした部分データメモリ21のデータを読み込んでからCPU−LSI2のレジスタ11に転送し、CPU−LSI2からのキャッシュアクセスがライトのときには、ヒットした部分データメモリ21にCPU−LSI2のレジスタ11から読み込んだデータを書き込む。
なお、CPU−LSI2のキャッシュアクセスの動作については、上記従来例及び公知のnWayセットアソシアティブと同様であるので、ここでは詳述しない。
<プロセッサの物理的構成>
次に、複数のLSIチップを積層したプロセッサ1の物理的な構成について説明する。図1において、CPU−LSI2は、図中左側からアドレスリクエスタ12と、LRU情報格納部13と、レジスタ11の順で配置される。なお、LRU情報格納部13は、図2に示したロウ選択回路14を含む。
キャッシュLSI−A、Bは、アドレスリクエスタ12の直下にエントリ選択デコーダ22を配置し、LRU情報格納部13の直下にタグ比較器23を配置し、レジスタ11の直下に部分データメモリ21を配置する。なお、部分タグ20はタグ比較器23と部分データメモリ21の間に配置される。
そして、プロセッサ1を構成するキャッシュLSI−A、Bには、上面と下面を接続する貫通電極40、41、42を設ける。
貫通電極40は、エントリ選択デコーダ22に形成されてアドレスリクエスタ12からのアドレス情報(タグとインデックス)をキャッシュLSI−A、B及びメモリコントローラLSI5にブロードキャストする情報伝達経路として機能する。このため、貫通電極40は、タグとインデックスのビット数に応じた複数の信号線をキャッシュLSI−A、Bの上面と下面を貫通する方向に形成したものである。
貫通電極41は、タグ比較器23に形成されて、タグ比較器23からのキャッシュヒットまたはキャッシュミスを示す判定信号と、ロウ選択回路14からの選択信号を転送する信号線をキャッシュLSI−A、Bの上面と下面を貫通する方向に形成したものである。ただし、キャッシュLSI−Aが使用する信号線とキャッシュLSI−Bが使用する信号線は異なるものである。例えば、判定信号を1ビット、選択信号を1ビットで構成した場合は、1枚のキャッシュLSI当たりに2本の信号線を設ければ良く、図1のように2枚のキャッシュLSI−A、Bを使用する場合は、4本の信号線を設ければよい。なお、グラウンド信号は図示しない貫通電極を用いるものとする。
また、キャッシュLSIを増減する場合には、キャッシュLSIの最大数に応じた判定信号と選択信号の貫通電極41を予め設けておけばよい。すなわち、キャッシュLSIを最大4枚使用するプロセッサ1では、8本の信号線からなる貫通電極41をキャッシュLSI−A、Bに予め設けておく。
次に、貫通電極42は、部分データメモリ21に形成されてレジスタ11とキャッシュLSI−A、B及びメモリコントローラLSI5の間でデータをブロードキャストする情報伝達経路として機能する。このため、貫通電極42は、データのビット数に応じた複数の信号線をキャッシュLSI−A、Bの上面と下面を貫通する方向に形成したものであり、データが32ビットであれば32本の信号線からなる。
なお、CPU−LSI2の下面(キャッシュLSI−Aに対向する面)には、アドレスリクエスタ12の位置にタグとインデックスを送信する電極を設け、LRU情報格納部13(ロウ選択回路14)の位置に判定信号と選択信号を送受信する電極(バンプ等)を設け、レジスタ11の位置にデータを送受信する電極を設けておく。また、メモリコントローラLSI5の上面(キャッシュLSI−Bと対向する面)には、キャッシュLSI−Bの下面の貫通電極40、41、42と接続する電極(バンプ等)を設けておく。なお、CPU−LSI2からメモリコントローラLSI5に対する制御信号などは、図示しない貫通電極等で送受信する。
CPU−LSI2の下面に接続されるキャッシュLSI−Aは、上面の貫通電極40をアドレスリクエスタ12の電極に接続し、上面の貫通電極41をLRU情報格納部13(ロウ選択回路14)の電極に接続し、上面の貫通電極42をレジスタ11の電極に接続する。
キャッシュLSI−Aの下面は貫通電極40、41、42を、キャッシュLSI−Bの上面の貫通電極40、41、42に接続する。キャッシュLSI−Bの下面は、貫通電極40、41、42をメモリコントローラLSI5の上面に設けた電極に接続する。
CPU−LSI2がキャッシュアクセス(リード)を行うと、アドレスリクエスタ12から貫通電極40を介してキャッシュLSI−A、B及びメモリコントローラLSI5にタグとインデックスがブロードキャストされる。キャッシュLSI−A(またはB)のタグ比較器23がキャッシュヒットを判定すると、図2に示したデータメモリリードライト回路24が部分データメモリ21の該当データを貫通電極42へ送信し、レジスタ11へ書き込む。なお、キャッシュアクセスがライトの場合には、レジスタ11がデータを貫通電極42へ送信し、キャッシュヒットしたキャッシュLSI−A、Bのデータメモリリードライト回路24が該当キャッシュラインに書き込む。
一方、キャッシュLSI−A、Bがキャッシュミスした場合は、メモリコントローラLSI5が貫通電極41からキャッシュミスを検知し、アドレスリクエスタ12がブロードキャストしたタグとインデックスから主記憶9にアクセスし、キャッシュミスしたキャッシュラインのデータを取得する。
メモリコントローラLSI5は、主記憶9から取得したデータを貫通電極42へブロードキャストすることにより、キャッシュLSI−A、Bのリフィルと、レジスタ11への書き込みを同時に行うことができる。
このように、アドレスリクエスタ12からのアドレス情報(タグとインデックス)と、タグ比較器23からの判定信号及びロウ選択回路14からの選択信号と、データを貫通電極41〜42でブロードキャストすることにより、低レイテンシイで複数のLSIチップ間の通信を行うことが可能となる。
そして、プロセッサ1のキャッシュメモリ30を増量するには、キャッシュLSI−BとメモリコントローラLSI5の間(またはCPU−LSI2とキャッシュLSI−Aの間)にキャッシュLSI−A、Bと同様の構成のキャッシュLSIを挿入することで、容易に増量することができる。
すなわち、本第1実施形態のキャッシュメモリ30では、タグを格納する部分タグ20と部分データメモリ21をキャッシュLSI−A、B側に分散して配置し、LRU情報などの管理情報をCPU−LSI2で集中して管理する構成を備え、さらに、各キャッシュLSI−A、Bは、キャッシュメモリ30のロウ方向でLSIを独立させる構成となる。したがって、追加したキャッシュLSIは、ロウ方向にキャッシュメモリ30を拡大することができ、Way数を増大させることができる。例えば、キャッシュLSI−Bの下面と、メモリコントローラLSI5の上面の間にキャッシュLSIを2枚追加すれば、4WAYセットアソシアティブのキャッシュメモリ30に拡張することができる。つまり、キャッシュLSI当たりの連想度N=2であり、キャッシュLSIの数M=4であるので、最大連想度は4となる。逆に、キャッシュメモリ30を減らすことにより、Way数を低減して小容量のキャッシュメモリ30を構成することができる。
また、タグをキャッシュLSI−A、B側に配置することで、容量の大きなタグ情報をCPU−LSI2に配置することなく、キャッシュLSIの数(=キャッシュ容量)に応じたサイズのタグを確保することが可能となる。
一方、LRU情報は、タグに比して容量が小さく、集中して管理した方がどのキャッシュラインがリフィル可能であるかを迅速に判定できるので、CPU−LSI2に配置する。
次に、プロセッサ1のキャッシュメモリ30を各LSI2〜5を積層して3次元で実装する際には、図1で示したように、メモリコントローラLSI5を基板6側とすることで、主記憶9との通信を行うメモリバス8を容易に配置することができる。そして、メモリコントローラLSI5とCPU−LSI2の間のキャッシュLSIの数を増減させることで、プロセッサ1のキャッシュメモリ30の容量に関する自由度を大幅に向上させることが可能となる。
さらに、CPU−LSI2をヒートスプレッダ7側に配置することで、プロセッサ1内のLSIチップの中で最も発熱量の多いCPU−LSI2を確実に冷却することができるのである。そして、CPU−LSI2とメモリコントローラLSI5の間に複数のキャッシュLSI−A,Bを挟むように構成して貫通電極40〜42で接続したので、キャッシュLSIの数を増減しても、プロセッサ1内の配線を変更する必要はなく、キャッシュ容量及びWay数の異なるプロセッサ1を容易に構成することが可能となる。
このように本発明によれば、キャッシュメモリ30の容量が異なるプロセッサ1を容易に構成可能としながらも、情報をブロードキャストする貫通電極40〜42により高速なキャッシュアクセスとCPU−LSI2の効果的な冷却を実現することが可能となるのである。
なお、上記第1実施形態では、キャッシュLSI−A、Bを1ロウで構成する例を示したが、図4で示すように、1枚のキャッシュLSIに複数のロウを配置することができる。この例では、各キャッシュLSI−A,Bのキャッシュラインを2ロウとし、4Wayセットアソシアティブのキャッシュメモリとなる。この場合、キャッシュLSI当たりの連想度N=2で、キャッシュLSIの数M=2であるから最大連想度はN×M=4となる。
<第2実施形態>
図5は、第2の実施形態を示し、プロセッサ1の要部を示す断面図である。本第2実施形態は、前記第1実施形態のLRU情報格納部13を変更したものである。CPU−LSI2には、前記第1実施形態のLRU情報格納部13に代わって、どのキャッシュLSI−A、Bがリフィル可能であるかを識別するチップLRU情報を保持するチップLRU情報格納部13Aとし、キャッシュLSI−A、Bには各キャッシュLSI毎にどのキャッシュラインがリフィル可能かを識別する部分LRU情報を保持する部分LRU情報格納部130を設けたもので、その他の構成は前記第1実施形態と同様である。
LRU情報は、前述したようにタグに比して容量は少ないが、キャッシュLSI−A、Bのキャッシュラインが多い場合には、LRU情報も増大することになる。そこで、図5で示すように、CPU−LSI2にはどのキャッシュLSIが最も使われていないか(リフィル可能か)を示すチップLRU情報を保持し、キャッシュLSIには、どのキャッシュラインが最も使われていないか(リフィル可能か)を示す部分LRU情報を保持することで、CPU−LSI2のチップLRU情報格納部13Aの容量を低減できる。
そして、キャッシュラインの部分LRU情報を各キャッシュLSIの部分LRU情報格納部130へ格納することにより、キャッシュLSIの増減に応じて部分LRU情報格納部130も増減することが可能となる。
これにより、チップLRU情報格納部13Aは、プロセッサ1に搭載するキャッシュLSIの最大数に応じたチップLRU情報のみを格納すればよいので、CPU−LSI2の物量を低減して構成を簡素にすることができる。
<第3実施形態>
図6は、第3の実施形態を示し、プロセッサ1の要部を示す断面図である。本第3実施形態は、前記第1実施形態の貫通電極40をパラレルの信号線からシリアルの信号線に変更し、各LSIにシリアル−パラレル変換回路を加えてビット列の情報を転送するものである。CPU−LSI2のアドレスリクエスタ12にはシリアルの信号線の貫通電極40Aにアドレス情報を送信するパラレル−シリアル変換回路(Ser回路)120を設け、キャッシュLSI−A、Bのエントリ選択デコーダ22には、貫通電極40Aのシリアル信号をパラレル信号に変換するシリアル−パラレル変換回路(Des回路)220を設け、メモリコントローラLSI5にもシリアル−パラレル変換回路(Des回路)520を設けたもので、その他の構成は前記第1実施形態と同様である。
アドレス情報は、32ビットや64ビットなどビット数が多いため、貫通電極40をパラレルの信号線で構成すると、貫通電極40の回路面積が増大することになる。そこで、図6のように、アドレスリクエスタ12のパラレル−シリアル変換回路120でシリアル信号に変換してからキャッシュLSI−A、BやメモリコントローラLSI5へブロードキャストすることにより、貫通電極40Aの物量を低減し、CPU−LSI2及びメモリコントローラLSI5の電極も低減することが可能になる。なお、図示はしないが、データを転送する貫通電極42についてもシリアル信号としてもよい。
<第4実施形態>
図7、図8は、第4の実施形態を示し、前記第1実施形態の各LSIを板状のインターポーザ60で結合したSIP実装を適用した例であり、各LSI2〜5の構成は前記第1実施形態と同様である。
図7は、インターポーザ60上のプロセッサ1Aの要部を示す平面図である。図8は、プロセッサ1Aの断面図である。
図7において、インターポーザ60上には図中上方からCPU−LSI2、キャッシュLSI−A,B及びメモリコントローラLSI5の順で各LSIが配置される。すなわち、板状のインターポーザ60の上面には図8で示すように各LSI2〜5が配置される。
そして、前記第1実施形態の貫通電極に代わって、インターポーザ60上には、アドレスリクエスタ12からのアドレス情報をキャッシュLSI−A,B及びメモリコントローラLSI5へブロードキャストする配線640と、LRU情報格納部13からの選択信号とタグ比較器23からの判定信号を各LSIへブロードキャストする配線641と、レジスタ11とキャッシュLSI−A,Bの部分データメモリ21及びメモリコントローラLSI5の間でデータをブロードキャストする配線642が配置される。
この場合も前記第1実施形態と同様に、低レイテンシイで複数のLSIチップ間の通信を行うことが可能となる。さらに、前記第1実施形態と同様に、インターポーザ60を拡大してキャッシュLSI−BとメモリコントローラLSI5の間などに新たなキャッシュLSIを追加することで、キャッシュメモリ30の容量が異なるプロセッサ1Aを容易に構成することができる。
<第5実施形態>
図9は、第5の実施形態を示し、前記図7,図8の第4実施形態に、図6に示した第3実施形態のシリアル信号を適用したもので、その他の構成は前記第4実施形態と同様である。
図9において、前記第4実施形態の配線640〜642をパラレルの信号線からシリアルの信号線に変更し、各LSIにシリアル−パラレル変換回路を加えたものである。CPU−LSI2のアドレスリクエスタ12にはシリアルの信号線650にアドレス情報を送信するパラレル−シリアル変換回路(Ser回路)120を設け、キャッシュLSI−A、Bのエントリ選択デコーダ22には、信号線650のシリアル信号をパラレル信号に変換するシリアル−パラレル変換回路(Des回路)220を設け、メモリコントローラLSI5にもシリアル−パラレル変換回路(Des回路)520を設けたもので、その他の構成は前記第4実施形態と同様である。
この場合も、前記第3実施形態と同様にして、配線の物量を低減し、CPU−LSI2及びメモリコントローラLSI5の電極も低減することが可能になる。
以上のように、本発明は、複数のLSIチップで構成されたプロセッサに適用することができる。
第1の実施形態を示し、本発明を適用するプロセッサの断面方向の概略図である。 第1の実施形態を示し、プロセッサの要部を示すブロック図。 第1の実施形態を示し、キャッシュメモリの記憶域を示すブロック図。 第1の実施形態を示し、キャッシュメモリの他の形態の記憶域を示すブロック図。 第2の実施形態を示し、プロセッサの断面方向の概略図。 第3の実施形態を示し、プロセッサの断面方向の概略図。 第4の実施形態を示し、プロセッサの断面方向の概略図。 第4の実施形態を示し、プロセッサの断面図である。 第5の実施形態を示し、プロセッサの断面方向の概略図。
符号の説明
1 プロセッサ
2 CPU−LSI
3 キャッシュLSI−A
4 キャッシュLSI−B
5 メモリコントローラLSI
6 基板
7 ヒートスプレッダ
8 メモリバス
9 主記憶
10 実行ユニット
11 レジスタ
12 アドレスリクエスタ
13 LRU格納部
14 ロウ選択回路
20 部分タグ
21 部分データメモリ
22 エントリ選択デコーダ
23 タグ比較器
24 データメモリリードライト回路
40〜42 貫通電極

Claims (6)

  1. 演算処理を行うプロセッサを含む第1のLSIと、
    データとアドレス情報を格納するキャッシュメモリを備えた第2のLSIと、
    前記第1のLSIと複数の第2のLSIを接続する情報伝達経路とを備えたプロセッサであって、
    前記第1のLSIは、
    前記複数の第2のLSIに対して前記プロセッサがアクセスを要求するデータのアドレス情報を前記情報伝達経路からブロードキャストするアドレス情報発行部を含み、
    前記第2のLSIの各々は、
    キャッシュメモリ全体の記憶域のうちアドレス情報の一部を格納する部分アドレス情報格納部と、
    前記部分アドレス情報格納部に格納されたアドレス情報に対応するデータを格納する部分データ格納部と、
    前記情報伝達経路を形成する貫通電極と、
    前記ブロードキャストされたアドレス情報から当該第2のLSIの前記部分アドレス情報格納部に格納されアドレス情報を選択する選択部と、
    前記選択されたアドレス情報と前記部分アドレス情報格納部に格納されたアドレス情報とを比較してキャッシュヒットまたはキャッシュミスを判定する比較部と、を含み、
    前記第1のLSIと前記複数の第2のLSIは積層され、
    前記第1のLSIのアドレス情報発行部の直下に前記複数の第2のLSIの全ての選択部が配置され、
    前記全ての選択部が前記情報伝達経路にそれぞれ接続されたことを特徴とするプロセッサ。
  2. 前記第2のLSIは、連想度Nのセットアソシアティブのキャッシュメモリを構成し、前記複数の第2のLSIの数がM枚のときに最大連想度がN×Mのキャッシュメモリとして機能することを特徴とする請求項1に記載のプロセッサ。
  3. 前記第1のLSIは、
    前記比較部がキャッシュミスを判定したときに、アドレス情報とデータを入れ替えるリプレースライン決定部を有し、当該リプレースライン決定部は、前記比較部がキャッシュヒットを判定したときに、前記複数の第2のLSIのうちの何れがキャッシュヒットしたかを判定することを特徴とする請求項2に記載のプロセッサ。
  4. 前記情報伝達経路は、アドレス情報をシリアル信号で伝達することを特徴とする請求項1または請求項2に記載のプロセッサ。
  5. 前記プロセッサの外部に配置された主記憶と通信を行うメモリコントローラを含む第3のLSIをさらに備え、
    前記第1のLSIと第3のLSIとの間に前記複数の第2のLSIを積層したことを特徴とする請求項1に記載のプロセッサ。
  6. 前記第3のLSIを支持する基板と、
    前記基板に支持されて前記第1のLSIに当接するヒートスプレッダと、をさらに備えたことを特徴とする請求項5に記載のプロセッサ。
JP2007337083A 2007-12-27 2007-12-27 プロセッサ Expired - Fee Related JP4484923B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007337083A JP4484923B2 (ja) 2007-12-27 2007-12-27 プロセッサ
US12/068,700 US8234453B2 (en) 2007-12-27 2008-02-11 Processor having a cache memory which is comprised of a plurality of large scale integration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007337083A JP4484923B2 (ja) 2007-12-27 2007-12-27 プロセッサ

Publications (2)

Publication Number Publication Date
JP2009157775A JP2009157775A (ja) 2009-07-16
JP4484923B2 true JP4484923B2 (ja) 2010-06-16

Family

ID=40800014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007337083A Expired - Fee Related JP4484923B2 (ja) 2007-12-27 2007-12-27 プロセッサ

Country Status (2)

Country Link
US (1) US8234453B2 (ja)
JP (1) JP4484923B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899879B2 (en) * 2002-09-06 2011-03-01 Oracle International Corporation Method and apparatus for a report cache in a near real-time business intelligence system
US8255454B2 (en) 2002-09-06 2012-08-28 Oracle International Corporation Method and apparatus for a multiplexed active data window in a near real-time business intelligence system
US8679861B2 (en) 2007-11-29 2014-03-25 International Business Machines Corporation Semiconductor chip repair by stacking of a base semiconductor chip and a repair semiconductor chip
US8229622B2 (en) * 2008-01-30 2012-07-24 Honeywell International Inc. Data recorder and storage system for line replaceable unit
EP2096115A1 (en) * 2008-02-26 2009-09-02 Nestec S.A. Oligosaccharide ingredient
US8597960B2 (en) * 2008-03-04 2013-12-03 International Business Machines Corporation Semiconductor chip stacking for redundancy and yield improvement
JP5331427B2 (ja) * 2008-09-29 2013-10-30 株式会社日立製作所 半導体装置
US8281074B2 (en) * 2008-10-07 2012-10-02 Micron Technology, Inc. Interface device for memory in a stack, storage devices and a processor
US20120221785A1 (en) * 2011-02-28 2012-08-30 Jaewoong Chung Polymorphic Stacked DRAM Memory Architecture
JP6092019B2 (ja) 2013-06-25 2017-03-08 株式会社東芝 プロセッサ
WO2021129304A1 (zh) * 2019-12-23 2021-07-01 华为技术有限公司 内存管理器、处理器内存子系统、处理器和电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6255743A (ja) * 1985-09-04 1987-03-11 Nec Corp キヤツシユメモリおよびこれを用いたキヤツシユメモリシステム
JPH05108484A (ja) * 1990-06-07 1993-04-30 Intel Corp キヤツシユメモリ
JPH08222690A (ja) * 1995-02-14 1996-08-30 Nec Corp マイクロプロセッサ用半導体モジュール
JPH08272688A (ja) * 1995-03-17 1996-10-18 Fujitsu Ltd 階層化された記憶項目とキャッシュタグを単一キャッシュアレイ構造に格納するキャッシュメモリ装置及び方法
JPH09232503A (ja) * 1996-02-21 1997-09-05 Hitachi Ltd 三次元積層モジュール
JP2001068618A (ja) * 1999-08-27 2001-03-16 Seiko Epson Corp 半導体チップおよびその製造方法、半導体装置、コンピュータ、回路基板ならびに電子機器
JP2004152811A (ja) * 2002-10-28 2004-05-27 Sharp Corp 積層型半導体装置及びその製造方法
JP2004327474A (ja) * 2003-04-21 2004-11-18 Elpida Memory Inc メモリモジュール及びメモリシステム
JP2005191172A (ja) * 2003-12-25 2005-07-14 Elpida Memory Inc 半導体集積回路装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330643B1 (en) * 1998-02-17 2001-12-11 International Business Machines Corporation Cache coherency protocols with global and local posted operations
JP3104686B2 (ja) 1998-08-25 2000-10-30 日本電気株式会社 集積回路装置
US6813646B2 (en) * 2001-10-31 2004-11-02 Agilent Technologies, Inc. Controlling electronics across an RF barrier using a serial interface bus
GB2412012B (en) * 2004-05-28 2006-02-01 High Performance Pc Ltd Computing device
US20070168620A1 (en) * 2006-01-19 2007-07-19 Sicortex, Inc. System and method of multi-core cache coherency

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6255743A (ja) * 1985-09-04 1987-03-11 Nec Corp キヤツシユメモリおよびこれを用いたキヤツシユメモリシステム
JPH05108484A (ja) * 1990-06-07 1993-04-30 Intel Corp キヤツシユメモリ
JPH08222690A (ja) * 1995-02-14 1996-08-30 Nec Corp マイクロプロセッサ用半導体モジュール
JPH08272688A (ja) * 1995-03-17 1996-10-18 Fujitsu Ltd 階層化された記憶項目とキャッシュタグを単一キャッシュアレイ構造に格納するキャッシュメモリ装置及び方法
JPH09232503A (ja) * 1996-02-21 1997-09-05 Hitachi Ltd 三次元積層モジュール
JP2001068618A (ja) * 1999-08-27 2001-03-16 Seiko Epson Corp 半導体チップおよびその製造方法、半導体装置、コンピュータ、回路基板ならびに電子機器
JP2004152811A (ja) * 2002-10-28 2004-05-27 Sharp Corp 積層型半導体装置及びその製造方法
JP2004327474A (ja) * 2003-04-21 2004-11-18 Elpida Memory Inc メモリモジュール及びメモリシステム
JP2005191172A (ja) * 2003-12-25 2005-07-14 Elpida Memory Inc 半導体集積回路装置

Also Published As

Publication number Publication date
JP2009157775A (ja) 2009-07-16
US8234453B2 (en) 2012-07-31
US20090172288A1 (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4484923B2 (ja) プロセッサ
US10310976B2 (en) System and method for concurrently checking availability of data in extending memories
CN112558889B (zh) 一种基于SEDRAM的堆叠式Cache系统、控制方法和Cache装置
JP3807582B2 (ja) 情報処理装置及び半導体装置
US7986543B2 (en) Method for achieving very high bandwidth between the levels of a cache hierarchy in 3-dimensional structures, and a 3-dimensional structure resulting therefrom
Woo et al. An optimized 3D-stacked memory architecture by exploiting excessive, high-density TSV bandwidth
US6912624B2 (en) Method and system for exclusive two-level caching in a chip-multiprocessor
US10496561B2 (en) Resilient vertical stacked chip network for routing memory requests to a plurality of memory dies
JP2017220242A (ja) メモリ装置、メモリモジュール、及びメモリ装置の動作方法
JP2005522773A (ja) 非均等型キャッシュ装置、システム及び方法
KR20220066122A (ko) 집적 캐시를 갖는 능동 브릿지 칩렛
US9990143B2 (en) Memory system
TWI839537B (zh) 封裝裝置、運算系統及用以形成封裝裝置之方法
US9058283B2 (en) Cache arrangement
JP7516428B2 (ja) 高帯域クロスリンクを使用したgpuチップレット
US12073217B2 (en) Memory system and data processing system including the same
CN115132238A (zh) 集成三维(3d)dram缓存
WO2022012307A1 (zh) 数据访问的方法和处理器系统
US7562190B1 (en) Cache protocol enhancements in a proximity communication-based off-chip cache memory architecture
US7444473B1 (en) Speculative memory accesses in a proximity communication-based off-chip cache memory architecture
US7496712B1 (en) Proximity communication-based off-chip cache memory architectures
WO2024189774A1 (ja) 演算システムおよび半導体集積回路モジュール
US20240078195A1 (en) Systems, methods, and devices for advanced memory technology
US20240070073A1 (en) Page cache and prefetch engine for external memory
US11995005B2 (en) SEDRAM-based stacked cache system and device and controlling method therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100323

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4484923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees