JP5404433B2 - マルチコアシステム - Google Patents

マルチコアシステム Download PDF

Info

Publication number
JP5404433B2
JP5404433B2 JP2010003159A JP2010003159A JP5404433B2 JP 5404433 B2 JP5404433 B2 JP 5404433B2 JP 2010003159 A JP2010003159 A JP 2010003159A JP 2010003159 A JP2010003159 A JP 2010003159A JP 5404433 B2 JP5404433 B2 JP 5404433B2
Authority
JP
Japan
Prior art keywords
data
router
read
access
processor element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010003159A
Other languages
English (en)
Other versions
JP2011141831A (ja
Inventor
田辺  淳
弘之 薄井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010003159A priority Critical patent/JP5404433B2/ja
Priority to US12/874,495 priority patent/US8612725B2/en
Publication of JP2011141831A publication Critical patent/JP2011141831A/ja
Application granted granted Critical
Publication of JP5404433B2 publication Critical patent/JP5404433B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17375One dimensional, e.g. linear array, ring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/084Multiuser, multiprocessor or multiprocessing cache systems with a shared cache

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Multi Processors (AREA)

Description

本発明は、マルチコアシステムに関する。
従来、複数のプロセッサエレメントと、共有キャッシュメモリとを備えたマルチコアシステムにおいては、各プロセッサと共有キャッシュメモリとは複数のルータを備えたネットワークで接続される(特許文献1参照)。共有キャッシュメモリは、ブリッジを介して外部メモリと接続される。
このようなマルチコアシステムにおいて、各プロセッサエレメントのアクセスは、それぞれ何段かのルータを経由して共有キャッシュメモリに到達する。この場合全てのメモリアクセスが集中するため、通常は共有キャッシュメモリが接続されたルータの負荷が高くなり、これがネットワーク全体のボトルネックとなるという問題がある。
特許文献2には、CPUと外部装置との間でのデータ転送を中継する通信制御装置にキャッシュを設け、主記憶部のディスクリプタ内のCPUが書き込んだ転送制御情報を読み出して、キャッシュメモリに書き込むことによって、CPUと通信制御装置との間のデータ転送を効率化することが開示されている。しかし、特許文献2に開示される発明をマルチコアシステムのルータに適用しても、各ルータがキャッシュメモリにデータを書き込もうとして共有キャッシュメモリや外部メモリにアクセスすることとなるため、共有キャッシュメモリに接続されたルータの負荷が高くなってしまうという上記の問題は解決されない。
特開2009−54083号公報 特開2000−20489号公報
本発明は、プロセッサ間ネットワークの特定のルータに負荷が集中することを軽減したマルチコアシステムを提供することを目的とする。
本願発明の一態様によれば、複数のプロセッサエレメントと、該複数のプロセッサエレメントを結合するネットワークとを有するマルチコアシステムであって、ネットワークは、各プロセッサエレメントから発せられたアクセス及び各プロセッサエレメント宛のデータを中継する複数のルータと、各プロセッサエレメントからのアクセスに応じて、該アクセスの対象のデータを要求元のプロセッサエレメント宛に送信するアクセス処理手段と、を備え、各ルータは、他のルータ又はプロセッサエレメントへ転送したデータを保持するキャッシュ機構と、各プロセッサエレメントから発せられたアクセスが転送されてきた際に該アクセスの対象のデータをキャッシュ機構に保持している場合には、当該データをキャッシュ機構から読み出して要求元のプロセッサエレメント宛に送信する手段と、を備えることを特徴とするマルチコアシステムが提供される。
本発明によれば、マルチコアシステムのプロセッサ間ネットワークの特定のルータに負荷が集中することを軽減できるという効果を奏する。
図1は、本発明の第1の実施の形態に係るマルチコアシステムの構成を示すブロック図。 図2は、第1の実施の形態に係るマルチコアシステムのプロセッサ間ネットワークの概略構成を示す図。 図3は、ルータ内キャッシュ機構に格納されるデータの構造の一例を示す図。 図4は、本発明の第2の実施の形態に係るマルチコアシステムでのルータ内キャッシュ機構に格納されるデータの構造の一例を示す図。 図5は、共有キャッシュメモリに格納されたリードオンリー属性のデータに対してあるプロセッサエレメントがアクセスした状態を示す図。 図6は、共有キャッシュメモリに格納されたリードオンリー属性のデータに対して別のプロセッサエレメントがアクセスした状態を示す図。 図7は、共有キャッシュメモリに格納されたリードオンリー属性のデータに対してさらに別のプロセッサエレメントがアクセスした状態を示す図。 図8は、共有キャッシュメモリに格納されたリードオンリー属性の別のデータに対してあるプロセッサエレメントがアクセスした状態を示す図。 図9は、発明者が知得した参考例のマルチコアシステムにおけるプロセッサ間ネットワークの概略構成を示す図。
以下に添付図面を参照して、本発明の実施の形態に係るマルチコアシステムを詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係るマルチコアシステムの構成を示すブロック図である。マルチコアシステム1は、複数のプロセッサエレメントPE0〜PE9と共有キャッシュメモリ12とが複数のルータを備えたプロセッサ間ネットワーク11を介して接続された構成である。共有キャッシュメモリ12は、キャッシュメモリを二つ(M0、M1)備えており、ブリッジ13を介して外部メモリ2へ接続されている。
図2に、本実施の形態に係るマルチコアシステムのプロセッサ間ネットワーク11の概略構成を示す。プロセッサ間ネットワーク11は、ルータR00〜R23が格子点の上に配置されたメッシュ状(格子状)のネットワークトポロジーである。各ルータ00〜R23は、キャッシュ機構(ルータ内キャッシュ機構C00〜C23)を備えている。ルータ内キャッシュ機構C00〜C23は、プロセッサエレメントPE0〜PE9がアクセスするリードオンリーのデータをキャッシュする。ルータ内キャッシュ機構C00〜C23の各々は、一般的なキャッシュメモリと同様に、SRAM(Static Random Access Memory)型のメモリセルとメモリコントローラとを用いて構成可能である。
図3に、ルータ内キャッシュ機構C00〜C23に格納されるデータの構造の一例を示す。ここでは2ウェイのキャッシュを例としているが、特定のウェイ数に限定されることはない。図3に示すように、ルータ内キャッシュ機構C00〜C23は通常のプロセッサの命令キャッシュとほぼ同様の構造でデータを格納しており、ウェイの入れ替え条件を規定するリプレースビットを2ウェイ共通で持ち、有効ビット、タグアドレス、データはウェイごとに持つ。
本実施の形態においては、ルーティングは固定とし、あるプロセッサエレメントがあるキャッシュメモリにアクセスする際の経路は常に一意に決まるものとする。プロセッサエレメントのアクセスやリードデータは、図2に示すプロセッサ間ネットワーク11内をまず横方向に移動し、その後縦方向に移動するものとする。
具体例を挙げると、プロセッサエレメントPE0又はPE4がキャッシュメモリM1にリードアクセスする場合、PE0/PE4→R00→R01→R02→R12→R22→M1という経路でアクセスが伝わる。リードデータは逆に、M1→R22→R12→R02→R01→R00→PE0/PE4という経路でキャッシュメモリM1からプロセッサエレメントPE0又はPE4へ伝わる。
別の一例を挙げると、プロセッサエレメントPE2がキャッシュメモリM0にリードアクセスする場合は、PE2→R02→R01→R11→R21→M0という経路でアクセスが伝わる。リードデータは逆に、M0→R21→R11→R01→R02→PE2という経路でキャッシュメモリM0からプロセッサエレメントPE2へ伝わる。
一方、共有キャッシュメモリ12のリードオンリー属性ではない領域に対するリードアクセスは、全てが共有キャッシュメモリ12に到達し、共有キャッシュメモリ12(キャッシュメモリM0、M1)から読み出されたリードデータが要求元(リードアクセスの送信元)のプロセッサエレメントへ戻される。
ルータ内キャッシュ機構C00〜C23は、各プロセッサエレメントPE0〜PE9のリードアクセスが共有キャッシュメモリ12のリードオンリー属性の領域に対して行われた場合に動作する。リードアクセスが共有キャッシュメモリ12のリードオンリー属性の領域に対してであるか否かは、各プロセッサエレメントのMMU(Memory Management Unit)情報などをリード要求とともに各ルータR00〜R23に伝えていくことで、ルータR00〜R23において判断する。
いずれかのプロセッサエレメントが共有キャッシュメモリ12のリードオンリー属性の領域に対してアクセスした場合、そのアクセスは共有キャッシュメモリ12に到達するまでに通る各ルータでチェックされる。アクセスを中継するいずれかのルータがアクセスの対象のデータをルータ内キャッシュ機構C00〜C23にキャッシュしている場合には、そのルータは、アクセスの対象のデータをリードデータとして読み出して、アクセス元のプロセッサエレメント宛に送信する。途中のどのルータのルータ内キャッシュ機構C00〜C23にもアクセスの対象のデータが無かった場合には、プロセッサエレメントのリード要求は共有キャッシュメモリ12(キャッシュメモリM0、M1)まで伝わり、共有キャッシュメモリ12からリードデータが送信される。
共有キャッシュメモリ12から送信されたリードデータ(又は、ルータ内キャッシュ機構C00〜C23でヒットしてルータR00〜R23から送信されたリードデータ)は、リードデータが通る経路上の各ルータR00〜R23のルータ内キャッシュ機構C00〜C23にキャッシュされる。
このような動作を行うことにより、ルータ内キャッシュ機構C00〜C23でアクセスの対象のデータがヒットした場合には、リードアクセスが共有キャッシュメモリ12まで到達しないため、共有キャッシュメモリ12に接続されたルータR21、R22で起こるアクセス集中を緩和できる。
比較のために、図9に、発明者が知得した参考例のマルチコアシステムにおけるプロセッサ間ネットワーク11’の概略構成を示す。これは、図1におけるプロセッサ間ネットワーク11に相当する構成である。このネットワーク構成においては、各プロセッサエレメントPE0’〜PE9’から共有キャッシュメモリ12’(キャッシュメモリM0’、M1’)へのアクセスは、共有キャッシュメモリ12’と直に接続されているルータ(R21’、R22’)に集中する。したがって、ルータR21’、R22’に高い負荷がかかってネットワーク全体としてのボトルネックとなる。
なお、本実施の形態においては、共有キャッシュメモリ12のリードオンリー属性の領域に対するリードアクセスと他のアクセス(共有キャッシュメモリ12のリードオンリー属性ではない領域に対するリードアクセス、ライトアクセス)とでルーティングポリシーを変更しても良い。
例えば、上記の横方向→縦方向のルーティングポリシーを適用する場合、ルータR11は八つのプロセッサエレメント(PE0〜PE5、PE7、PE8)に関してのアクセス及びデータを中継する可能性があり、ルータR20は一つのプロセッサエレメント(PE6)に関してのアクセス及びデータを中継する可能性があることとなる。一方、縦方向→横方向のルーティングポリシーを適用した場合には、ルータR11は一つのプロセッサエレメント(PE1)に関してのアクセス及びデータを中継する可能性があり、ルータR20は四つのプロセッサエレメント(PE0、PE4〜PE6)に関してのアクセス及びデータを中継する可能性があることとなる。したがって、リードオンリー属性の領域に対するリードアクセスと他のアクセスとでルーティングポリシーを変更することで、各ルータR00〜R23にかかる負荷の差異を低減できる。
また、マルチコアシステム1において、各プロセッサエレメントPE0〜PE9から外部メモリ2へのアクセスや外部メモリ2から各プロセッサエレメントPE0〜PE9へのデータの転送は、共有キャッシュメモリ12及びブリッジ13を介して行われる。したがって、外部メモリ2へのアクセスに関してもルータ内キャッシュ機構C00〜C23にリードデータをキャッシュすることで、共有キャッシュメモリ12に直に接続されたルータR21、R22に対するアクセス集中を緩和できる。なお、外部メモリ2が共有キャッシュメモリ12を介さずに接続された構成であっても同様である。
このように、本実施の形態に係るマルチコアシステムは、各ルータにルータ内キャッシュ機構を設けたため、各プロセッサエレメントのリード要求が必ずしも共有キャッシュメモリまで到達するとは限らない。また、ルータ内キャッシュ機構にキャッシュされるデータは、他のルータやプロセッサエレメントへ中継したデータであり、ルータが自発的に共有キャッシュメモリにアクセスしてデータをキャッシュすることはない。このため、共有キャッシュメモリに直に接続されたルータに対するアクセス集中が緩和されるため、プロセッサ間ネットワーク全体としてのボトルネックを解消できる。
(第2の実施の形態)
本発明の第2の実施の形態に係るマルチコアシステムについて説明する。マルチコアシステム全体の構成及びプロセッサ間ネットワークの概略構成は第1の実施の形態と同様である。ただし、本実施の形態においては、ルータ内キャッシュ機構C00〜C23の構造が第1の実施の形態とは相違する。
図4に、ルータ内キャッシュ機構C00〜C23に格納されるデータの構造の一例を示す。本実施の形態においては、各ウェイのエントリごとにルーティング経路ビットを備える。このビットは、リードデータを転送する可能性があるルータ(又はプロセッサエレメント)の数だけあり、どの経路に対してキャッシュエントリのリードデータを転送したかを記憶する。例えば、ルータR11は、リードデータをルータR01、R10、R12に転送する可能性があるため、これらのルータに対応した3ビットのルーティング経路ビットを各ウェイのエントリに持つ。また、ルータR00は、リードデータをプロセッサエレメントPE0、PE4へ転送する可能性があるため、これらのプロセッサエレメントに対応した2ビットのルーティング経路ビットを各ウェイのエントリに持つ。
ルーティング経路ビットの変化の一例について、図5〜図8を用いて説明する。図5〜図8は、キャッシュメモリM0に格納されたリードオンリー属性のデータdataAに対してプロセッサエレメントPE5、PE1、PE8が順番にアクセスした後に、キャッシュメモリM0に格納されたリードオンリー属性のデータdataBにプロセッサエレメントPE1がアクセスした場合の動作を時系列に沿って示すものである。なお、dataBは、ルータ内キャッシュ機構C00〜C23でdataAと同じエントリに格納されるデータ(エントリアドレスが同一のデータ)であるとする。
図5に、キャッシュメモリM0に格納されたリードオンリー属性のデータdataAに対してプロセッサエレメントPE5がアクセスした状態を示す。プロセッサエレメントPE5がdataAにアクセスした際には、リード要求はPE5→R10→R11→R21→M0と伝わっていき、リードデータはM0→R21→R11→R10→PE5という順番で各ルータを伝わっていく。ルータR21、R11、R10では、それぞれdataAがルータ内キャッシュ機構に格納される。
ルータR11のルータ内キャッシュ機構C11では、dataAが格納されたウェイ/エントリのルーティング経路ビットのルータR10に対応するビットに“1”が入り、他の経路であるルータR01、R12に対応するビットには“0”が入る。
図6に、キャッシュメモリM0に格納されたリードオンリー属性のデータdataAに対してプロセッサエレメントPE1がアクセスした状態を示す。プロセッサエレメントPE1がdataAにアクセスした際には、リード要求はPE1→R01→R11と伝わっていき、ルータR11でキャッシュがヒットするため、ルータ内キャッシュ機構C11からdataAが読み出され、リードデータはR11→R01→PE1という順番で各ルータを伝わっていく。このとき、ルータR01では、dataAがルータ内キャッシュ機構C01に格納される。
ルータR11のルータ内キャッシュ機構C11では、dataAが格納されたウェイ/エントリのルーティング経路ビットのルータR01に対応するビットが“0”から“1”へ変更される。
図7に、キャッシュメモリM0に格納されたリードオンリー属性のデータdataAに対してプロセッサエレメントPE8がアクセスした状態を示す。プロセッサエレメントPE8がdataAにアクセスした際には、リード要求はPE8→R13→R12→R11と伝わっていき、ルータR11でキャッシュがヒットするため、ルータ内キャッシュ機構C11からdataAが読み出され、リードデータはR11→R12→R13という順番で各ルータを伝わっていく。このとき、ルータR12、R13では、dataAがルータ内のキャッシュ機構C12、C13に格納される。
ルータR11のルータ内キャッシュ機構C11では、dataAが格納されたウェイ/エントリのルーティング経路ビットのルータR12に対応するビットが“0”から“1”へ変更される。ルータ内キャッシュ機構C11は、このタイミングにおいて、dataAが格納されたウェイ/エントリのルーティング経路ビットが3ビット全て“1”となる。3ビット全てが“1”になったということは、データの転送先となりうるルータ(ルータR10、R01、R12)にも同じデータがキャッシュされたことを示す。これは、ルータR11のルータ内キャッシュ機構にdataAをキャッシュしておく必要が無くなったことを意味する。
図8に、キャッシュメモリM0に格納されたリードオンリー属性のデータdataBに対してプロセッサエレメントPE1がアクセスした状態を示す。プロセッサエレメントPE1がdataBにアクセスした際には、リード要求はPE1→R01→R11→R21→M0と伝わっていき、リードデータは、M0→R21→R11→R01→PE1という順番で各ルータを伝わっていく。ルータR21、R11、R01では、それぞれdataBがルータ内キャッシュ機構C21、C11、C01に格納される。
この時点では、ルータR10、R21に関しては、dataAが格納されたウェイ/エントリのルーティング経路ビットは全て“1”になっていないため、dataBを格納するに当たってデータのリプレースが必要な場合には、リプレースされるデータは、通常のリプレースポリシー(LRU(Least Recently Used)など)が適用されて、リプレースビットに基づいて決定される。dataBが格納されたウェイ/エントリのルーティング経路ビットのルータR11又はプロセッサエレメントPE1に対応するビットには“1”が入り、他の経路であるルータR20、R22又はルータR00、R02に対応するビットには“0”が入る。
一方、ルータR11に関しては、ルータ内キャッシュ機構C11にdataBを格納する際には、dataAに対応するルーティング経路ビットが3ビット全て“1”となっており、dataAが不要であることが分かっている。このため、dataAが入っているウェイの有効ビットが“0”(無効)となっていない限り、通常のリプレースポリシーとは関係なくdataBは必ずdataAが入っている側のウェイに格納される(換言すると、通常のルーティングポリシーとは無関係にdataAを上書きして消去する)。dataBが格納されたウェイ/エントリのルーティング経路ビットのルータR01に対応するビットには“1”が入り、他の経路であるルータR10、R12に対応するビットには“0”が入る。
このように、本実施の形態においては、リードデータの転送先に同じ情報がキャッシュされているか否かをルーティング経路ビットに基づいて判断するため、各ルータのルータ内キャッシュ機構が同じデータを重複して持つことを減らし、ルータ内キャッシュ機構を有効に活用できる。
以上の説明においては、ルーティング経路ビットに基づいて、データのリプレースの優先度を変更する動作について説明したが、任意のルータにおいて、ルーティング経路ビットのうちの所定の割合(例えば過半数)が“1”となったら、その時点でルーティング経路ビットが“0”のルータやプロセッサエレメントへデータを転送するように動作させることも可能である。
なお、上記各実施の形態は本発明の実施の一例であり、本発明はこれらに限定されることはない。
例えば、上記各実施の形態においては、共有キャッシュメモリに直に接続されたルータへのアクセス集中を低減する構成を例としたが、外部メモリ(ブリッジ)や他と比べて稼働率が高いプロセッサエレメントに直に接続されたルータへのアクセスの集中を緩和する構成をとることも可能である。
また、プロセッサ間ネットワークのトポロジーは正方格子状のメッシュ型に限定されることはなく、他の形状(正方格子状ではない任意のメッシュ型、ハイパーキューブ型など)であっても良い。
このように、本発明は様々な変形が可能である。
1 マルチコアシステム、2 外部メモリ、11 プロセッサ間ネットワーク、12 共有キャッシュメモリ、13 ブリッジ、PE0〜PE9 プロセッサエレメント、R00〜R23 ルータ、C00〜C23 ルータ内キャッシュ機構、M0、M1 キャッシュメモリ。

Claims (3)

  1. 複数のプロセッサエレメントと、該複数のプロセッサエレメントを結合するネットワークとを有するマルチコアシステムであって、
    前記ネットワークは、
    前記各プロセッサエレメントから発せられたアクセス及び前記各プロセッサエレメント宛のデータを中継する複数のルータと、
    前記各プロセッサエレメントからのアクセスに応じて、該アクセスの対象のデータを要求元のプロセッサエレメント宛に送信するアクセス処理手段と、
    を備え、
    前記各ルータは、
    他のルータ又は前記プロセッサエレメントへ転送したデータ、および、当該データを転送したか否かを示すルーティング経路情報を記憶するキャッシュ機構と、
    前記各プロセッサエレメントから発せられたアクセスが転送されてきた際に該アクセスの対象のデータを前記キャッシュ機構に保持している場合には、当該データを前記キャッシュ機構から読み出して要求元のプロセッサエレメント宛に送信する手段と、
    を備え
    前記各ルータは、前記キャッシュ機構に保持中のいずれかのデータのルーティング経路情報が、転送先となりうる全てのルータ及びプロセッサエレメントに対してデータを転送済みであることを示す全経路転送済状態となった場合には、当該データが格納されたエントリを、前記ルーティング経路情報が前記全経路転送済状態にないデータが格納されたエントリよりも優先的に書き換えることを特徴とするマルチコアシステム。
  2. 前記アクセス処理手段は、前記複数のプロセッサエレメントによって共有される共有メモリであることを特徴とする請求項1記載のマルチコアシステム。
  3. 前記各ルータのキャッシュ機構は、前記共有メモリのリードオンリー属性の領域に対するリードアクセスの場合、該共有メモリから読み出されたデータを保持することを特徴とする請求項2記載のマルチコアシステム。
JP2010003159A 2010-01-08 2010-01-08 マルチコアシステム Expired - Fee Related JP5404433B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010003159A JP5404433B2 (ja) 2010-01-08 2010-01-08 マルチコアシステム
US12/874,495 US8612725B2 (en) 2010-01-08 2010-09-02 Multi-processor system with mesh topology routers comprising local cache storing for each data information indicating redundancy in neighbor router cache for cache management

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010003159A JP5404433B2 (ja) 2010-01-08 2010-01-08 マルチコアシステム

Publications (2)

Publication Number Publication Date
JP2011141831A JP2011141831A (ja) 2011-07-21
JP5404433B2 true JP5404433B2 (ja) 2014-01-29

Family

ID=44259413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010003159A Expired - Fee Related JP5404433B2 (ja) 2010-01-08 2010-01-08 マルチコアシステム

Country Status (2)

Country Link
US (1) US8612725B2 (ja)
JP (1) JP5404433B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013177854A1 (zh) * 2012-07-17 2013-12-05 中兴通讯股份有限公司 一种多核处理器的核间通信装置及方法
US9924490B2 (en) 2013-10-09 2018-03-20 International Business Machines Corporation Scaling multi-core neurosynaptic networks across chip boundaries
US9690494B2 (en) * 2015-07-21 2017-06-27 Qualcomm Incorporated Managing concurrent access to multiple storage bank domains by multiple interfaces

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5373927A (en) * 1976-11-10 1978-06-30 Fujitsu Ltd Replacing system of intermediate buffer memory
JPS61166651A (ja) * 1985-01-18 1986-07-28 Fujitsu Ltd バツフアメモリにおけるリプレイス方式
JPH05120130A (ja) * 1991-10-29 1993-05-18 Nec Eng Ltd メモリアクセス処理方式
JP3309425B2 (ja) * 1992-05-22 2002-07-29 松下電器産業株式会社 キャッシュ制御装置
JPH06208547A (ja) 1993-01-08 1994-07-26 Sony Corp 通信制御装置
JPH09128296A (ja) * 1995-11-02 1997-05-16 Hitachi Ltd データ処理装置
US5900015A (en) * 1996-08-09 1999-05-04 International Business Machines Corporation System and method for maintaining cache coherency using path directories
JP2000010860A (ja) * 1998-06-16 2000-01-14 Hitachi Ltd キャッシュメモリ制御回路及びプロセッサ及びプロセッサシステム及び並列プロセッサシステム
JP2000020489A (ja) 1998-06-29 2000-01-21 Toshiba Corp 計算機におけるデータ転送装置
US6457100B1 (en) * 1999-09-15 2002-09-24 International Business Machines Corporation Scaleable shared-memory multi-processor computer system having repetitive chip structure with efficient busing and coherence controls
US6507854B1 (en) * 1999-11-05 2003-01-14 International Business Machines Corporation Enhanced network caching and mirroring system
JP3840966B2 (ja) * 2001-12-12 2006-11-01 ソニー株式会社 画像処理装置およびその方法
JP2003256276A (ja) * 2002-02-27 2003-09-10 Nec Corp スイッチ間データ転送機能付きキャッシュ内蔵スイッチ装置と制御方法
US20050120134A1 (en) * 2003-11-14 2005-06-02 Walter Hubis Methods and structures for a caching to router in iSCSI storage systems
JP2006079218A (ja) * 2004-09-08 2006-03-23 Fujitsu Ltd メモリ制御装置及び制御方法
KR101168364B1 (ko) 2004-11-24 2012-07-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 로컬 메모리 데이터의 가간섭성 캐싱
US7619545B2 (en) 2007-03-12 2009-11-17 Citrix Systems, Inc. Systems and methods of using application and protocol specific parsing for compression
JP2009054083A (ja) 2007-08-29 2009-03-12 Hitachi Ltd プロセッサ、データ転送ユニット及びマルチコアプロセッサシステム
JP2009252165A (ja) * 2008-04-10 2009-10-29 Toshiba Corp マルチプロセッサシステム
US8392664B2 (en) * 2008-05-09 2013-03-05 International Business Machines Corporation Network on chip

Also Published As

Publication number Publication date
JP2011141831A (ja) 2011-07-21
US8612725B2 (en) 2013-12-17
US20110173415A1 (en) 2011-07-14

Similar Documents

Publication Publication Date Title
JP4556761B2 (ja) パケット転送装置
JP5529194B2 (ja) 限定された誤りによる遅延した更新によるソフトウェアキャッシュ処理
KR100348200B1 (ko) Ccr 디렉토리
US8423715B2 (en) Memory management among levels of cache in a memory hierarchy
KR100978156B1 (ko) 스누프 필터에서의 실효를 감소시키기 위한 라인 스와핑 스킴을 위한 방법, 장치, 시스템 및 컴퓨터 판독 가능 기록 매체
US8848703B2 (en) On-chip router and multi-core system using the same
US7069392B2 (en) Methods and apparatus for extended packet communications between multiprocessor clusters
US20090187716A1 (en) Network On Chip that Maintains Cache Coherency with Invalidate Commands
US5900015A (en) System and method for maintaining cache coherency using path directories
US20080098178A1 (en) Data storage on a switching system coupling multiple processors of a computer system
JP2002373115A (ja) 共有キャッシュメモリのリプレイスメント制御方法及びその装置
US20150370732A1 (en) Information processing apparatus, input and output control device, and method of controlling information processing apparatus
TWI652576B (zh) Memory system and processor system
US20100251005A1 (en) Multiprocessor system and failure recovering system
JP4753549B2 (ja) キャッシュメモリおよびシステム
US10839289B2 (en) Neural network processing with von-Neumann cores
JP5404433B2 (ja) マルチコアシステム
KR100828869B1 (ko) 사이클당 다중 캐시 라인 무효화 지원 장치 및 방법
US10437725B2 (en) Master requesting missing segments of a cache line for which the master has coherence ownership
EP2343655A1 (en) Memory access method and information processing apparatus
US10970208B2 (en) Memory system and operating method thereof
JP2018195183A (ja) 演算処理装置および演算処理装置の制御方法
JP2016057763A (ja) キャッシュ装置、及びプロセッサ
CN106302259B (zh) 片上网络中处理报文的方法和路由器
JP6213366B2 (ja) 演算処理装置とその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131029

LAPS Cancellation because of no payment of annual fees