JP2007504549A - データ処理システム - Google Patents

データ処理システム Download PDF

Info

Publication number
JP2007504549A
JP2007504549A JP2006525227A JP2006525227A JP2007504549A JP 2007504549 A JP2007504549 A JP 2007504549A JP 2006525227 A JP2006525227 A JP 2006525227A JP 2006525227 A JP2006525227 A JP 2006525227A JP 2007504549 A JP2007504549 A JP 2007504549A
Authority
JP
Japan
Prior art keywords
data processing
memory
node
processing system
port
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006525227A
Other languages
English (en)
Other versions
JP2007504549A5 (ja
JP4729490B2 (ja
Inventor
ピーテル、ファン、デル、ウォルフ
ヨセフス、テー.イェー.ファン、アイイェンドーフェン
ヨハネス、ブーンストラ
Original Assignee
コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. filed Critical コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ.
Publication of JP2007504549A publication Critical patent/JP2007504549A/ja
Publication of JP2007504549A5 publication Critical patent/JP2007504549A5/ja
Application granted granted Critical
Publication of JP4729490B2 publication Critical patent/JP4729490B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/1652Handling requests for interconnection or transfer for access to memory bus based on arbitration in a multiprocessor architecture
    • G06F13/1663Access to shared memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0831Cache consistency protocols using a bus scheme, e.g. with bus monitoring or watching means

Abstract

開示されたデータ処理システムは、メモリ手段(SDRAM)と、上記メモリ手段(SDRAM)にアクセスするため設けられた複数のデータ処理手段(IP)と、上記メモリ手段(SDRAM)と上記複数のデータ処理手段(IP)との間に接続された通信インターフェイス手段を備え、上記通信インターフェイス手段がノードのネットワーク(H11,H12,H2)を含み、各ノードがデータ処理手段(IP)または前のノードからメモリアクセス要求を受信する少なくとも1個のスレーブポート(s)と上記スレーブポート(s)で受信されたメモリアクセス要求に従って次のノードまたは上記メモリ手段(SDRAM)へメモリアクセス要求を発行する少なくとも1個のマスターポート(m)を備え、上記少なくとも1個のスレーブポート(s)が前のノードのマスターポート(m)または上記データ処理手段(IP)のうちの1台に接続され、上記少なくとも1個のマスターポート(m)が次のノードのスレーブポート(s)または上記メモリ手段(SDRAM)に接続される。

Description

本発明は、メモリ手段と、上記メモリ手段にアクセスする複数のデータ処理手段とを備えるデータ処理システムに関係する。
このようなシステムは、通常、マルチプロセッサシステムと呼ばれ、データ処理手段は、互いにある程度独立して動作し、あるプロセスを実行する。複数のデータ処理手段がメモリ手段にアクセスし、その結果、メモリ手段は複数のデータ処理手段によって共有される。通常、単一の共通メモリ手段だけがこのようなデータ処理システムに設けられ、複数のデータ処理手段が単一の共通チップに設けられるが、メモリ手段はオフチップメモリとしてこのようなチップの外部にある。上記処理手段の内部の詳細は本発明の範囲外であるので、それらは単にインテレクチュアルプロパティ(IP)手段と呼ばれる。
このような共有メモリデータ処理システムの一例として、デジタルビデオプラットフォーム(DVP)システムがその基本的な形式で図1に表されている。このシステムは、オフチップメモリSDRAMと通信する複数のデータ処理ユニットIPを備える。データ処理ユニットIPは、CPUのようなプログラマブル装置、特定用途ハードウェアブロック、複雑な内部構造をもつサブシステムなどである。さらに、図1のシステムには、装置トランザクションレベル(DTL)インターフェイスDTLが設けられ、それを介して各データ処理ユニットIPは、オフチップメモリSDRAMへのアクセスを調停する中央主記憶(MMI)インターフェイスとつながる。すべてのIP同士の通信は、オフチップメモリSDRAMにマップされた論理バッファ(図示されず)を介して行われる。通常、データ処理ユニットIPのうちの1台は、メモリマップされたコンフィギュレーションレジスタ(図示せず)を介してデータ処理ユニットをプログラミングすることによりタスクグラフのコンフィギュレーションを管理するCPU(中央処理ユニット)である。データ処理ユニットIP間の同期は、メモリマップされた入力/出力ネットワークを介して、満杯のバッファまたは空のバッファが利用可能であるかどうかをデータ処理ユニットIPへ通知するこのCPUによって集中化された方式で同様に取り扱われる。データ処理ユニットIPは、これらのバッファが空であるか、または、満杯になっているかを割り込みライン(図示せず)を介してCPUに通知する。
同期のため使用されるメカニズムは、オフチップメモリSDARMに設けられたバッファがCPUへの割り込みのレートを低く保つためにある程度大きくなければならないということになる。たとえば、ビデオ処理ユニットは、機能的な観点からは、細粒度(たとえば、ライン)で同期することが可能であるとしても、粗粒度(たとえば、フレーム)で同期することがよくある。
このようなデータ処理システムは、共有メモリアーキテクチャを備えているので、すべてのデータ処理手段がアクセスできる単一アドレス空間が存在する。これはプログラミングモデルを簡単化する。さらに、共通メモリ手段は費用効率が高いシステムソリューションを提供するために役立つ。
しかし、このようなデータ処理システムは、その基本的な形式で、テクノロジーが進歩すると共により顕著になる幾つかの欠点がある。すなわち、データ処理手段の台数が増加すると、メモリインターフェイスへのコネクションの個数が増加し、その結果として、メモリインターフェイスがより複雑になる。特に、種々のデータ処理手段間の調停はより複雑になる。さらに、ワイヤー長はメモリインターフェイスから離れた場所に置かれたデータ処理手段について問題になるので、多数の長いワイヤーは、時間遅延および消費電力の問題のみならず配線混雑の原因になる。さらなる重大な欠点は、帯域幅要件がさらに増加するとき、ボトルネックの可能性が存在することであり、(オフチップ)メモリ手段への帯域幅がオフチップ相互接続のシグナリング速度およびピン数のようなある種の側面によって制限される。
英国特許第2233480A号は、各プロセッサがローカルメモリを有するマルチプロセッサデータ処理システムを開示する。ローカルメモリは一体となってシステムのメインメモリを形成し、各プロセッサは、メモリがそのプロセッサにローカルであるか、リモートであるかとは無関係に、いずれのメモリでもアクセス可能である。各プロセッサは、メモリアクセス要求がローカルメモリに関係するか、または、リモートメモリに関係するかを判定し、その要求を適切なメモリへ経路制御するインターフェイス回路を有し、リモート要求はバスを介して経路制御される。書き込みアクセスがローカルメモリに対して行われるときはいつも、ダミー書き込み要求がそのバスを介してすべての他のプロセッサへ経路制御される。各プロセッサはバス上のすべての書き込み要求を監視し、その要求に指定されたロケーションのコピーがローカルキャッシュメモリに保持されているならば、そのようなコピーはキャッシュ整合性を確保するため無効にされる。
米国特許第5,261,067A号は、並列プロセッサ間でデータキャッシュ内容完全性を確保する装置および方法を開示する。各プロセッサは、中間計算の結果を記憶するデータキャッシュを有する。各プロセッサのデータキャッシュは同期間隔の使用によって互いに同期させられる。同期間隔のエントリーの間に、個別のキャッシュに収容された修正データ変数は共有メモリに書き戻される。データキャッシュに収容された無修正データはメモリからフラッシュされる。同期間隔を終了する間に、同期間隔へのエントリー以降に修正されなかったデータ変数は同様にフラッシュされる。修正データキャッシュ値を修正値を計算した個別のプロセッサに置くことにより、共有メモリへの不要なアクセスが回避される。
米国特許第6,253,290B1号は、複数のプロセッサユニットを有し、各プロセッサユニットがCPUとCPUに接続されたローカルキャッシュメモリとを含むマルチプロセッサシステムについて記載する。CPUはグローバル共有バスに接続されたそれらの共有バス端子を有し、ローカルキャッシュメモリはグローバル非共有バスに接続されたそれらのバス端子を有する。グローバル共有バスは、CPUによって共通に使用される共有情報を記憶する外部共有メモリに接続され、グローバル非共有バスはCPUによって使用される非共有情報を記憶する外部非共有メモリに接続される。
米国特許第6,282,708B1号は、各基本ブロックが内部非循環有向グラフに編成された内部命令および外部命令から構成された複数の基本ブロックを含むような複数命令コンピュータプログラムを構造化する方法を開示する。ガーディングは、それぞれが個々に関連付けられた単一の先行命令から集合的に生じる後続命令で実行される。単一のジョイン/ターゲット命令に集中する結合された命令の部分集合は、次に、無条件で結合される。これは、結合された命令の部分集合内の個々の命令を相互に関係しない条件下で実行させ、ジャンプ命令についてのすべての演算を指定し、先に実行されていなければならないすべての演算を指定し、内部に収容された命令のさらなる部分集合の並列実行を可能にさせる非循環有向グラフ内の後続命令の部分集合により構成される種々の基本ブロックを連結することにより実現される。
本発明の目的は、上記の欠点を解決し、メモリインターフェイスへのコネクションの個数を削減し、ワイヤー長を短縮するために、帯域幅要件がさらに増加するときでもデータ処理手段とメモリ手段との間で通信ボトルネックを回避するようにデータ処理システムを改良することである。
上記の目的およびさらなる目的を達成するため、本発明によれば、メモリ手段と、上記メモリ手段にアクセスするため設けられた複数のデータ処理手段とを備えたデータ処理システムであって、通信インターフェイス手段が上記メモリ手段と上記複数のデータ処理手段との間に接続され、上記通信インターフェイス手段がノードのネットワークを含み、データ処理手段または前のノードからメモリアクセス要求を受信する少なくとも1個のスレーブポートと上記スレーブポートで受信されたメモリアクセス要求に従って次のノードまたは上記メモリ手段へメモリアクセス要求を発行する少なくとも1個のマスターポートとを各ノードが備え、上記少なくとも1個のスレーブポートが前のノードのマスターポートまたは上記データ処理手段のうちの1台に接続され、上記少なくとも1個のマスターポートが次のノードのスレーブポートまたは上記メモリ手段に接続される、データ処理システムが提供される。
本発明による構成によって、メモリ手段へのコネクションの個数は削減される。これは、通信インターフェイス手段がデータ処理手段からメモリアクセス要求を受信するスレーブポートおよびメモリ手段へ特有のメモリアクセス要求を発行する少なくとも1個のマスターポートを有する複数のノードのネットワークを含む、論理的に共有されたメモリアーキテクチャの特有の物理的な編成を準備することによって達成される。典型的に、ノードのマスターポートの個数はそのノードのスレーブポートの個数より少ない。その結果として、メモリインターフェイスの複雑さはそこに接続されるクライアントの個数が減少するので減少する。さらに、通信インターフェイス手段の相互接続が原因で、個別の配線の長さ、よって、配線の全長は配線混雑を回避するため役立つように削減される。
通信インターフェイス手段は複数のノード手段のネットワークを含み、各ノード手段は、メモリアクセス要求を受信する少なくとも1個のスレーブポートと、上記スレーブポートによって受信されたメモリアクセス要求に従ってメモリアクセス要求を発行する少なくとも1個のマスターポートとを備え、上記スレーブポートの個数は上記マスターポートの個数より大きくなり得る。したがって、本発明による通信インターフェイス手段は、データ処理手段とメモリ手段との間のコネクションのためのノード構造を含み、多数のデータ処理手段はノード手段にそのスレーブポートを介して接続され、一方、各ノード手段は唯一または少数のマスターポートを有する。ノード手段のスレーブポートはそれらが同一のサービスを提供するので均一であり、ノード手段にはスレーブポートがデータ処理手段に属するかまたは別のノード手段に属するかが明白である。データ処理手段によって発行されたメモリアクセスの要求がそのデータ処理手段に接続されたノード手段のうちの1台に渡される。本発明の概念の利点は段階的に導入できることである。すなわち、本発明の概念を採用するために最初のチップは、僅かに数台のデータ処理手段のため新しいノード手段を使用することが可能であり、後のチップでは、ノード手段の台数は徐々に上昇し、本発明の通信インターフェイス手段の設備はデータ処理手段の間のより多くの通信のため使用される。ノード手段が多数のマスターポートを有する場合、単一のポートが、たとえば、アドレス範囲識別に従って、転送のため選択される。
本発明の第1の実施形態では、上記ノード手段のスレーブポートのそれぞれは、上記複数のデータ処理手段のうちの1台に接続され、上記ノード手段のマスターポートは上記メモリ手段に接続される。よって、すべてのノード手段が同じレベルで設けられ、データ処理手段はこのような単一レベルのノード手段を介してメモリ手段に接続される。データ処理手段は、関連付けられたノード手段へメモリアクセス要求を発行可能であり、この関連付けられたノード手段がその要求をメモリ手段へ転送する。
代替的な第2の実施形態では、ノード手段のネットワークは、データ処理手段をリーフとしてもち、ノード手段をノードとしてもつ階層構造である。
複数のノード手段は非循環有向グラフ構造(directed acyclic graph structure)に配置される。非循環有向グラフ構造の各エッジは、メモリアクセス要求に役立つ相互接続パスに対応する。エッジは有向であり、各エッジはあるノード手段のマスターポートを別のノード手段のスレーブポートに接続する。メモリ手段が複数の記憶セクションを含む場合、非循環グラフ構造は、結果として各データ処理手段が1個以上の記憶セクションと通信できるように、それぞれが異なる記憶セクションへのコネクションを提供するマスターポートの集合を生じ、それによって、多数のデータ処理手段が異なる記憶セクションへ並列にアクセスすることを可能にさせ、それによって、帯域幅ボトルネックを軽減させる。さらに、非循環グラフ構造は、あるデータ処理手段からある記憶セクションへ通じるグラフの中を通る数個の異なるパスを提供することがある。これらの異なるパスは、通信ボトルネックをさらに軽減するため、または、故障したコネクションの使用を回避するため有利に利用される。
さらに、上記の実施形態の好ましい改良では、複数のノード手段がツリー構造で配置され、その結果、1台以上のデータ処理手段および/または前のノードがノード手段にそのスレーブポートを介して接続されるが、各ノード手段は1個のマスターポートだけを有する。これは、ノード手段における転送プロセスを簡単化し、すべてのデータ処理手段によってアクセスされるノードツリーのルートで単一記憶セクションへの接続性を提供する。
この代替的な第2の改良では、好ましくは、複数のノード手段は、n≧2として、ノード手段のn個のグループを含み、1番目のグループのノード手段のスレーブポートのそれぞれは上記複数のデータ処理手段のうちの1台に接続され、n番目のグループのノード手段のマスターポートは上記メモリ手段に接続され、n番目のグループのノード手段のスレーブポートのそれぞれは(n−1)番目のグループのノード手段のマスターポートに接続される。よって、複数のノード手段はn個のグループに分割され、各グループは構造の中の異なるレベルを画定する。ノード手段がそのスレーブポートの一つでメモリアクセス要求を受信するならば、その要求はより上位のグループのノード手段へ転送されるか、または、ノード手段が最上位(すなわち、n番目)のグループにあるならば、メモリ手段へ転送される。これに関して、ノード構造は必ずしも均一な深さをもたなくてもよいことに補足する。一部のデータ処理手段は、1台または2台のノードだけがそのデータ手段をメモリ手段から分離するので、メモリ手段の「近く」にあり、一方(同時に)、その他のデータ処理手段は、そのデータ処理手段が発行するメモリアクセス要求が非常に多数のノードを経由して移動しなければならないので、メモリ手段からより「遠く」にある。
上記のノード手段の階層構造は、データ処理手段には全くわからないので、データ処理手段の変更は不要である。
好ましくは、ノード手段はハブである。
本発明のさらなる好ましい一実施形態では、少なくとも1台のローカルメモリユニットが通信インターフェイスに取り付けられ、このようなローカルメモリユニットがメモリアクセス要求によって選択的にアクセスされることを可能にさせる。よって、単一アドレス空間がグローバルメモリおよびこのような1台〜複数のローカルメモリユニットに分配される。この実施形態の利点は、データ処理手段がグローバルメモリを用いる代わりにローカルメモリユニットだけを用いて相互にデータを交換し、その結果として、メモリアクセスレイテンシーを低下させ、消費電力を削減し、外部メモリ帯域幅の使用を削減することにより、通信における潜在的なボトルネックの危険性を低減することである。
好ましくは、少なくとも1台のノード手段は、ローカルメモリユニットが接続された少なくとも1個のメモリポートをさらに備える。よって、ノード手段は、メモリアクセス要求のアドレスをこのようなノード手段に取り付けられた、1台または複数のローカルメモリユニットに関連付けられたアドレス範囲と比較することにより、メモリアクセス要求がこのようなノード手段に取り付けられた、1台または複数のローカルメモリユニットを参照するかどうかをチェックする。もし、肯定的な結果であるならば、メモリアクセスがその選択されたローカルメモリユニットについて実行される。さもなければ、ノード手段は、そのマスターポートのうちの一つを介して、メモリアクセス要求を次のノード手段に転送し、ローカルメモリユニットがこのような次のノード手段にも取り付けられているならばチェックと「アクセスまたは転送」が繰り返されるか、または、メモリアクセス要求をメモリ手段へ転送する。
直前に説明した実施形態の変形では、通信インターフェイス手段は、1台または複数のローカルメモリユニットをキャッシュメモリとして制御するキャッシュコントローラ手段を含む。この場合、ローカルメモリユニットの少なくとも一部分は、そのマスターポートを介して到達可能な他のメモリにあるデータのコピーをローカルに記憶するため使用される。よって、メモリアクセス要求はキャッシュ動作が有効にされたより広いアドレス範囲に対してローカルに機能する。
さらに、通信インターフェイス手段は、データ処理手段の間で通信をストリーム化する少なくとも1台の同期手段を含む。特に、少なくとも1台のノード手段は、上記ノード手段に直接的または間接的に接続されたデータ処理手段の間で通信をストリーム化する上記同期手段を含む。
ローカルメモリユニットがノード手段に取り付けられている場合、ローカルメモリユニットは先入れ/先出し(FIFO)機能をもつべきであり、同期手段は、1台または複数の前記ローカルメモリユニットを制御するFIFO管理手段を備える。同期サービスはFIFO管理がローカルに記憶されるときにローカルに処理され、それによって、多数のデータ処理手段がノード手段に取り付けられた、1台または複数のローカルメモリユニットを介してデータを通信可能であり、さもなければ、同期要求が対応するノード手段のマスターポートのうちの一つに転送される。
さらなる好ましい一実施形態では、通信インターフェイス手段がシングルチップに設けられる。さらに、複数のデータ処理手段の少なくとも一部分が前記シングルチップにさらに設けられる。
本発明の上記の目的およびその他の態様は以下の説明および添付図面によってよりよく理解されるであろう。
本発明の好ましい実施形態は図面を参照して説明される。
図2は、本発明の第1の好ましい実施形態によるハブ構造を有するデジタルビデオプラットフォーム(DVP)システムを表す。図1に示されたシステムと同様に、図2のシステムは、インテレクチュアルプロパティ(IP)ユニットとも呼ばれる複数のデータ処理ユニットIPと、メモリSDRAMとを備えている。データ処理ユニットIPは、プログラマブル装置(CPU)、特定用途ハードウェアブロック、複雑な内部構造をもつサブシステムなどでもよい。すべてのデータ処理ユニットは、装置トランザクションレベル(DTL)インターフェイスを備えている。さらに、複数のハブH11、H12、Hが設けられ、各ハブは数個のスレーブポートsと1個のマスターポートmとを備えている。図2のシステムでは、ハブは、ハブH11およびH12の第1のグループと、1台のハブHだけにより構成される第2のグループとを備えているハブのネットワークを画定する。ハブH11およびH12の第1のグループは、データ処理ユニットIPに隣接した第1のレベルを画定するので、第1のグループのハブH11およびH12はそのスレーブポートsによってデータ処理ユニットIPに直接的に接続される。図2に実施形態では、各ハブは次のハブまたはメモリインターフェイスMMIへの接続のための1個のマスターポートだけを有する。第1のグループのハブH11はそのマスターポートによって第2のグループのハブHのスレーブポートに接続され、第2のグループのハブHはそのマスターポートmによってメモリインターフェイスMMIへ接続され、一方、第1のグループのハブH12はそのマスターポートmによってメモリインターフェイスMMIへ直接的に接続される。メモリインターフェイスMMIはメモリSDRAMに接続される。
図2の実施形態では、ハブのネットワークは非循環有向グラフ(DAG)構造として作られ、DAG構造のノードはハブH11、H12およびHによって画定され、DAG構造の各エッジはメモリアクセス要求に役立つ相互接続パスに対応する。エッジは有向である。図2に示されたDAG構造はツリー構造をもつように制限され、各ハブH12、H11およびHは1個のマスターポートだけを有する。これによって、ハブは、たとえば、メモリ要求ごとに要求されたアドレスの範囲を識別することによってマスターポートを選択する必要がないので、ハブの転送プロセスを簡単化する。
ハブのスレーブポートsにおいて、メモリアクセス要求が受信され、マスターポートmによって転送される。ハブのスレーブポートsは同じサービスを提供するので均一である。したがって、スレーブポートがデータ処理ユニットIPまたはその他のハブに接続されているかどうかはハブから見えない。
図2の実施形態に対して多様な構造の変形が可能であり、図2は一実施例に過ぎないことに注意すべきである。よって、ハブのネットワークは3以上のレベルを含むことがある。さらに、ハブH12は構造内の上位の次のハブに接続される。その上、ハブは多数のマスターポートを有し、単一のマスターポートが、たとえば、アドレス範囲識別に従って、転送のため選択される。
図2にさらに示されているように、データ処理ユニット、装置トランザクションレベルDTL、ハブH11、H12およびH、並びに、メモリインターフェイスMMIはシングルチップC上にあり、一方、メモリSDRAMはチップCの外部に設けられる。
図2に表されたハブ構造に起因して、メモリインターフェイスMMIのクライアントの個数は削減される。さらに、個別の配線の長さ、したがって、配線の全長が削減され、それによって、配線混雑が回避される。
階層的なハブ構造はデータ処理ユニットIPから全く見えず、データ処理ユニットIPの変更は不要である。さらに、同期が実行される方法にも影響がなく、同期は依然として、メモリマップされた入力/出力(図示せず)と、CPUを含むデータ処理ユニットによる割り込みとを用いて集中的に取り扱われる。
図3は、組み込みローカルメモリMEMが各ハブに取り付けられている点で図2の第1の実施形態とは異なる本発明の第2の好ましい実施形態を表す。しかし、それに関して、代替的な実施形態では、ローカルメモリが一部のハブだけに設けられることに注意すべきである。ローカルメモリMEMはアドレス空間内でプライベートセグメントが割り当てられ、オフチップメモリSDRAMおよび多数のローカルメモリMEMに分配された単一アドレス空間が設けられる。データ処理ユニットIPは通常のアドレスベースの方法でメモリアクセス要求を実行し、アドレスはオフチップメモリSDRAMまたはオンチップローカルメモリMEMを参照する。すべてのデータ処理ユニットIPは、オフチップメモリSDRAMと、メモリインターフェイスMMIに取り付けられたさらなるオンチップローカルメモリMEMとにアクセスできるが、すべてのデータ処理ユニットIPがハブH11、H12およびHに取り付けられたすべてのオンチップローカルメモリMEMにアクセスできるのではない。すなわち、データ処理ユニットIPはメモリインターフェイスMMIへの経路上のハブに取り付けられたローカルメモリMEMにアクセスだけにアクセスできる。
データ処理ユニットIPは共通ハブを共有するので、バッファ通信はそのハブに取り付けられたローカルメモリMEMによって実行される。データ処理ユニット間の通信のため使用される先入れ/先出し(FIFO)バッファは、共通ハブに、好ましくは、共通ハブに最も接近している第1のグループの共通ハブH11またはH12に取り付けられたローカルメモリMEMのメモリセグメントにマップされる。データ処理ユニットIPは、このようなバッファがそれらのDTLインターフェイスによって割り付けられたアドレス範囲内のデータにアクセスするように単に指示されるが、しかし、データ処理ユニットはそのアドレス範囲の物理的なロケーションに気付くことがなく、このことはデータ処理ユニットIPから見えない。ハブはデータ処理ユニットIPによって実行されるメモリアクセス要求のアドレスをチェックし、そのアドレスが指定された範囲内に入るならば、それらのローカルメモリへのアクセスを実行し、さもなければ、その要求を階層の上位へ転送する。IP同士の通信のためのバッファはコンフィギュレーションの際にローカルメモリMEMに割り付けられ、バッファのアドレス範囲は、そのローカルメモリMEMが取り付けられたハブにプログラムされる。
オンチップローカルメモリMEMによる通信にマップされたIP同士の通信はオフチップメモリSDRAMへの高価な帯域幅を消費しない。ハブ構造は、頻繁に通信する必要のあるデータ処理ユニットIPがローカルメモリの取り付けられた共通ハブを有し、そのローカルメモリを介して通信するように選択されるべきである。たとえば、ビデオデータ処理ユニットIPはハブ構造と同じサブツリーに入るべきである。その上、全体の可用メモリ帯域幅は著しく増加される。一部のデータ処理ユニットIPによるオフチップメモリSDRAMへのアクセスと並列して、オンチップローカルメモリへのアクセスは、他の(分離した)サブツリーに位置するデータ処理ユニットIPによって実行される。さらに、オンチップローカルメモリMEMによる通信はより電力効率が高く、より高い帯域幅(より広い相互接続およびメモリポート、より高いクロック)をより容易にサポートすることが可能である。
上記のように、データ処理ユニットIPは、データがオンチップ(ローカルメモリMEM)にあるか、または、オフチップ(メモリSDRAM)にあるかとは無関係に、それらのDTLインターフェイスを介してデータに簡単にアクセス可能である。したがって、オンチップ通信はデータ処理ユニットIPから見えない。これは提案されたコンフィギュレーションにおけるデータ処理ユニットIPの再利用を促進する。
データ処理ユニットIP間での同期に特に注意すべきである。既に説明したように、DVPシステムでは、同期は、粗データ粒度で低レート同期を必要とする、CPUを含むデータ処理ユニットによって実行される。これによって、オフチップSDRAMに容易に収容されるバッファサイズがより大きくなる。しかし、オンチップ通信の場合、細データ粒度での同期を必要とするより小さいバッファが使用されるべきである。多数のデータ処理ユニットによって実行される機能の場合、細粒度(たとえば、ラインまたはマクロブロック)での同期は単に論理的である。しかし、細粒度での同期のための割り込みベースのスキームの使用はCPU上により高い割り込みレートを引き起こす。
一つのソリューションは、より多くのCPUパワーを同期のために専用し、または、さらに特別な(軽量の)CPUを同期タスクのために専用することである。
別の魅力的なソリューションはハブに同期サポートを追加することである。この場合、各ハブは、このハブに取り付けられたローカルメモリMEMを介して(FIFOベースの)IP同士の通信に関係する同期タスクを実行可能であり、すなわち、先入れ/先出し動作毎に、データおよび場所の可用性が管理され、データ処理ユニットIPへシグナリングされる。結果として、これは、少なくともローカルメモリによる通信が伴う限り、CPUソフトウェアの介入がないデータ処理ユニットの連続的な(自律的な)動作をサポートする。
データ処理ユニットIPはそれらのポートで抽象的な同期呼び出しを行う必要のあることが提案される。この基盤構造は、データ処理ユニットIPがシステムオンチップにどのように統合化されているかに依存して、これらの同期呼び出しがどのようにして解決されるかを決定する。これは再利用可能なデータ処理ユニットに組み込まれない。たとえば、このようなポートがローカルメモリを用いるローカル通信にマッピングするならば、対応するハブが同期呼び出しをローカルに解決し、その同期呼び出しを次の上位ハブへ転送する。通信がオフチップメモリSDRAMを介して行われるならば、割り込みが発生される。データ処理ユニットIPに対し、これは「抽象的な」インターフェイス(図示せず)に隠され、その「抽象的な」インターフェイスは、上位レベル要求を通信インターフェイスに発行するためデータ処理ユニットIPに機能を提供し、このような要求がどのように実施されるかデータ処理ユニットIPから見えないように構成される。バッファがハブに取り付けられたローカルメモリMEMに設けられるとき、同期のためのポートアドレスは、適宜に、コンフィギュレーション時にバッファのアドレス範囲と一緒にハブにプログラムされる。
上記のスキームにおいて、ローカルメモリMEMは、データがオフチップSDRAMへ全く移動する必要のないバッファされたIP同士の通信のため使用されることに注意すべきである。これは、反復的な使用のためオフチップSDRAMからオンチップローカルメモリMEMにデータをコピーするキャッシュとしてのオンチップローカルメモリの使用とは異なる。
しかし、図3のアーキテクチャはキャッシングをサポートするために同様に使用され、トランスペアレントキャッシングとIP制御キャッシングの2種類のキャッシングが有名である。
トランスペアレントキャッシングを用いると、データ処理ユニットIPは、データがローカルメモリMEMにコピーされたことが実際にはわからず、むしろ、データ処理ユニットIPはデータをアクセスする際のレイテンシーの差異を感知する。キャッシュ制御機能を用いて、データがオフチップメモリSDRAMとオンチップローカルメモリMEMとの間でコピーされる。このようなキャッシュ制御はハブで実施される。キャッシュコヒーレンシは、ハードウェアキャッシュコヒーレンシスキームを実施するか、または、プログラミングモデルに制限を取り入れるかのいずれかによって解決されるべきである。
IP制御キャッシングを用いると、データ処理ユニットIP自体は、反復的な(細粒度の)使用のためオフチップメモリSDRAMからオンチップローカルメモリへデータをコピーする。オンチップローカルメモリMEM内のコピーは、オフチップメモリSDRAM内の対応するデータとは異なるアドレス範囲にある。IP制御キャッシングを用いると、データ処理ユニットIPがコヒーレンシの役割を担う。IP制御キャッシングの一実施例として、細粒度アクセスを実行するためにテクスチャデータをオンチップローカルメモリに「キャッシュ」する3次元グラフィックレンダラが考えられる。これは、テクスチャデータをハブに取り付けられたローカルメモリMEMのアドレス範囲にコピーし、細粒度アクセスを実行するときにそのアドレス範囲内のアドレスを参照することによって行われる。このような場合、キャッシュ制御はデータ処理ユニットIP自体によって実行され、この種の使用は、IP同士の通信のためのオンチップローカルメモリのトランスペアレントな使用とは異なる。それにもかかわらず、図3のアーキテクチャはこの種の使用をサポートする。
図4は、第1のオフチップメモリSDRAM1およびそれに接続された関連した第1のメモリインターフェイスMMI1の他に、第2のオフチップメモリSDRAM2およびそれに接続された関連した第2のメモリインターフェイスMMI2が設けられる点で、図2の第1の実施形態とは異なる第3の好ましい実施形態を表す。さらに、複数のハブH11、H12、H21およびH22が設けられ、ハブH11およびH12はそれぞれ数個のスレーブポートsと2個のマスターポートmを備え、ハブH21およびH22はそれぞれ2個のスレーブポートsと1個のマスターポートmを備えている。よって、図4のシステムでは、ハブは、ハブH11およびH12の第1のグループとハブH21およびH22により構成された第2のグループとを備えたハブのネットワークを画定する。ハブH11およびH12の第1のグループは、データ処理ユニットIPに隣接した第1のレベルを画定するので、第1のグループのハブH11およびH12はそのスレーブポートsを介してデータ処理ユニットIPへ直接的に接続される。ハブH21およびH22の第2のグループは、メモリインターフェイスMMI1およびMMI2に隣接した第2のレベルを画定し、ハブH21およびH22はそれぞれそのスレーブポートの一方によってハブH11のマスターポートmの一つに接続され、さらに、そのスレーブポートのもう一方によってハブH12のマスターポートmの一つに接続される。さらに、ハブH21はそのマスターポートmによって第1のメモリインターフェイスMMI1に接続され、ハブH22はそのマスターポートmによって第2のメモリインターフェイスMMI2に接続される。
よって、図4の第3の実施形態では、ハブのネットワークは、図2および3のそれぞれの第1および第2の実施形態におけるDAG構造のようなDAG構造として編成されるが、データ処理ユニットIPは2台のオフチップメモリSDRAM1およびSDRAM2へのオプション的なアクセスが可能であり、一方、図2および3の第1および第2の実施形態では、単一のオフチップメモリSDRAMとデータ処理ユニットIPとの間の通信だけが存在する。2台のオフチップメモリSDRAM1およびSDRAM2がハブのネットワークに接続されることは別として、図4の第3の実施形態の動作は図2の第1の実施形態の動作と同じであるので、図2の説明が参照される。さらに、図4の第3の実施形態では、図3と併せて説明されたようなローカルメモリおよび同期が同様にオプション的に設けられる。
上記のように、図4の第3の実施形態は、2台のオフチップメモリSDRAM1およびSDRAM2を備えている。しかし、3台以上のオフチップメモリが同様に設けられる。
上記の説明において、オフチップメモリSDRAMへの通信ボトルネックを回避するためオンチップローカルメモリMEMの使用を可能にさせるDVPプラットフォームのようなマルチプロセッシングデータシステムの発展の次のステップが提示されている。IP同士の通信のためのローカルメモリMEMの使用はデータ処理ユニットIPからは概ね見えない。
本発明による上記のアーキテクチャのさらなる利点は、それが段階的に導入できることである。そのソリューションを採用するために最初のチップは、ローカルメモリMEMを介して通信したい僅かに数台のデータ処理ユニットIPだけのためオンチップローカルメモリMEMおよび新しいハブ(たとえば、H12)を使用可能である。後のチップでは、ローカルメモリをもつハブの台数は徐々に増加し、オンチップ通信設備はより多くのIP同士の通信のため使用される。
本発明は添付図面に示された実施例に関して説明されたが、本発明はそれに限定されず、請求項に記載された事項の範囲内で様々に変化することが明白である。
従来技術によるDVPシステムの基本形式の概略的な基本ブロック図である。 本発明の第1の好ましい実施形態によるハブ構造を含むDVPシステムの概略的な基本ブロック図である。 オンチップローカルメモリをさらに含む本発明の第2の好ましい実施形態によるハブ構造をもつDVPシステムの概略的な基本ブロック図である。 本発明の第3の好ましい実施形態によるハブ構造を含むDVPシステムの概略的な基本ブロック図である。
符号の説明
SDRAM メモリ
MMI メモリインターフェイス
IP インテレクチュアルプロパティ
DTL 装置トランザクションレベル
11、H12 ハブ
m マスターポート
s スレーブポート
MEM 組み込みローカルメモリ

Claims (15)

  1. メモリ手段と前記メモリ手段にアクセスするため設けられた複数のデータ処理手段とを備えたデータ処理システムであって、
    通信インターフェイス手段が前記メモリ手段と前記複数のデータ処理手段との間に接続され、前記通信インターフェイス手段がノードのネットワークを含み、各ノードがデータ処理手段または前のノードからメモリアクセス要求を受信する少なくとも1個のスレーブポートと、前記スレーブポートで受信された前記メモリアクセス要求に従って次のノードまたは前記メモリ手段へメモリアクセス要求を発行する少なくとも1個のマスターポートとを備え、前記少なくとも1個のスレーブポートが前のノードのマスターポートまたは前記データ処理手段のうちの1台に接続され、前記少なくとも1個のマスターポートが次のノードのスレーブポートまたは前記メモリ手段に接続される、
    データ処理システム。
  2. 各ノード手段において前記スレーブポートの個数が前記マスターポートの個数よりも多い、請求項1に記載のデータ処理システム。
  3. 前記ノード手段のネットワークが階層構造化される、請求項1または2に記載のデータ処理システム。
  4. 前記複数のノード手段が非循環有向グラフ構造に配置される、請求項3に記載のデータ処理システム。
  5. 前記複数のノード手段がツリー構造に配置される、請求項4に記載のデータ処理システム。
  6. 前記複数のノード手段が、ノード手段のn(n≧2)個のグループを含み、
    1番目のグループの前記ノード手段の前記スレーブポートのそれぞれが、前記複数のデータ処理手段のうちの1台に接続され、
    n番目のグループの前記ノード手段の前記マスターポートが前記メモリ手段に接続され、
    前記n番目のグループの前記ノード手段の前記スレーブポートのそれぞれが(n−1)番目のグループの前記ノード手段のマスターポートに接続される、
    請求項1から5の少なくともいずれか一項に記載のデータ処理システム。
  7. 前記ノード手段がハブである、請求項1から6の少なくともいずれか一項に記載のデータ処理システム。
  8. メモリアクセス要求によって選択的にアクセスされるように適合した少なくとも1台のローカルメモリユニットを前記通信インターフェイス手段がさらに含む、請求項1から7の少なくともいずれか一項に記載のデータ処理システム。
  9. 少なくとも1台のノード手段が、ローカルメモリユニットが接続された少なくとも1個のメモリポートをさらに備えている、請求項8に記載のデータ処理システム。
  10. 1台または複数の前記ローカルメモリユニットの少なくとも1個のセクションをキャッシュメモリとして制御するキャッシュコントローラ手段を前記通信インターフェイス手段が含む、請求項8または9に記載のデータ処理システム。
  11. 前記通信インターフェイス手段が、データ処理手段同士の通信をストリーム化する少なくとも1台の同期手段をさらに含む、請求項1から10の少なくともいずれか一項に記載のデータ処理システム。
  12. 少なくとも1台のノード手段が、前記ノード手段に直接的または間接的に接続された前記データ処理手段同士の通信をストリーム化する前記同期手段を含む、請求項11に記載のデータ処理システム。
  13. 前記1台または複数のローカルメモリユニットが先入れ/先出し機能のための記憶手段を備えるように構成され、前記同期手段が前記1台または複数のローカルメモリユニットを制御する先入れ/先出し管理手段を備えている、請求項8並びに請求項11または12に記載のデータ処理システム。
  14. 前記通信インターフェイス手段がシングルチップ上に設けられる、請求項1から13の少なくともいずれか一項に記載のデータ処理システム。
  15. 前記複数のデータ処理手段の少なくとも一部分が前記シングルチップ上にさらに設けられる、請求項14に記載のデータ処理システム。
JP2006525227A 2003-09-04 2004-08-19 データ処理システム Expired - Fee Related JP4729490B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03103293 2003-09-04
EP03103293.1 2003-09-04
PCT/IB2004/051491 WO2005026964A2 (en) 2003-09-04 2004-08-19 Data processing system

Publications (3)

Publication Number Publication Date
JP2007504549A true JP2007504549A (ja) 2007-03-01
JP2007504549A5 JP2007504549A5 (ja) 2007-10-11
JP4729490B2 JP4729490B2 (ja) 2011-07-20

Family

ID=34306924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006525227A Expired - Fee Related JP4729490B2 (ja) 2003-09-04 2004-08-19 データ処理システム

Country Status (7)

Country Link
US (1) US7870347B2 (ja)
EP (1) EP1671233B1 (ja)
JP (1) JP4729490B2 (ja)
KR (1) KR101109016B1 (ja)
CN (1) CN100520748C (ja)
AT (1) ATE534080T1 (ja)
WO (1) WO2005026964A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021520566A (ja) * 2018-06-27 2021-08-19 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. オンチップコードのブレークポイントによるデバッグ方法、オンチッププロセッサ及びブレークポイントによるチップデバッグシステム
JP2021166033A (ja) * 2018-10-18 2021-10-14 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co., Ltd. ネットワークオンチップによるデータ処理方法及び装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8086800B2 (en) 2004-05-18 2011-12-27 Koninklijke Philips Electronics N.V. Integrated circuit and method for buffering to optimize burst length in networks on chips
US7561584B1 (en) * 2005-11-09 2009-07-14 Sun Microsystems, Inc. Implementation of a graph property in a switching fabric for fast networking
CN103186501A (zh) * 2011-12-29 2013-07-03 中兴通讯股份有限公司 一种多处理器共享存储方法及系统
WO2015028528A1 (en) 2013-09-02 2015-03-05 Koninklijke Philips N.V. Transparent computer structure
US20160164999A1 (en) * 2014-12-09 2016-06-09 International Business Machines Corporation Hybrid web storage model
CN107368523B (zh) * 2017-06-07 2020-05-12 武汉斗鱼网络科技有限公司 一种数据处理方法及系统
KR102109371B1 (ko) 2018-01-15 2020-05-12 주식회사 경인기계 팬 및 이를 포함하는 냉각탑
US11250015B2 (en) 2020-02-07 2022-02-15 Coupang Corp. Systems and methods for low-latency aggregated-data provision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63236159A (ja) * 1987-03-25 1988-10-03 Hitachi Ltd 並列プロセツサのメモリアクセス方式
JPH04333955A (ja) * 1990-11-30 1992-11-20 Xerox Corp バスの競合を解決するための裁定手段
JPH06274461A (ja) * 1993-03-18 1994-09-30 Hitachi Ltd 範囲指定可能なキャッシュ一致保証機能を有するマルチプロセッサシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8713460D0 (en) * 1987-06-09 1987-07-15 Philips Nv Data processing system
GB8914352D0 (en) 1989-06-22 1989-08-09 Int Computers Ltd Multiprocessor data processing system
US5261067A (en) 1990-04-17 1993-11-09 North American Philips Corp. Method and apparatus for providing synchronized data cache operation for processors in a parallel processing system
US5469542A (en) * 1991-07-22 1995-11-21 International Business Machines Corporation Serial diagnostic interface bus for multiprocessor systems
US6292705B1 (en) * 1998-09-29 2001-09-18 Conexant Systems, Inc. Method and apparatus for address transfers, system serialization, and centralized cache and transaction control, in a symetric multiprocessor system
TW440793B (en) 1998-02-25 2001-06-16 Koninkl Philips Electronics Nv A method for structuring a multi-instruction computer program from basic blocks that compose from internal instructions and external jumps in an internal directed acyclic graph, and a processor loaded with such program
JP4179677B2 (ja) 1998-09-04 2008-11-12 株式会社ルネサステクノロジ マルチプロセッサ装置
US6625700B2 (en) * 2001-05-31 2003-09-23 Sun Microsystems, Inc. Arbitration and select logic for accessing a shared memory
US6961804B2 (en) * 2001-07-20 2005-11-01 International Business Machines Corporation Flexible techniques for associating cache memories with processors and main memory
US7024506B1 (en) * 2002-12-27 2006-04-04 Cypress Semiconductor Corp. Hierarchically expandable fair arbiter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63236159A (ja) * 1987-03-25 1988-10-03 Hitachi Ltd 並列プロセツサのメモリアクセス方式
JPH04333955A (ja) * 1990-11-30 1992-11-20 Xerox Corp バスの競合を解決するための裁定手段
JPH06274461A (ja) * 1993-03-18 1994-09-30 Hitachi Ltd 範囲指定可能なキャッシュ一致保証機能を有するマルチプロセッサシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021520566A (ja) * 2018-06-27 2021-08-19 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. オンチップコードのブレークポイントによるデバッグ方法、オンチッププロセッサ及びブレークポイントによるチップデバッグシステム
JP7053891B2 (ja) 2018-06-27 2022-04-12 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッド オンチップコードのブレークポイントによるデバッグ方法、オンチッププロセッサ及びブレークポイントによるチップデバッグシステム
JP2021166033A (ja) * 2018-10-18 2021-10-14 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co., Ltd. ネットワークオンチップによるデータ処理方法及び装置
JP7074831B2 (ja) 2018-10-18 2022-05-24 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッド ネットワークオンチップによるデータ処理方法及び装置

Also Published As

Publication number Publication date
WO2005026964A3 (en) 2006-08-31
US20070028038A1 (en) 2007-02-01
KR20060080186A (ko) 2006-07-07
CN100520748C (zh) 2009-07-29
US7870347B2 (en) 2011-01-11
EP1671233A2 (en) 2006-06-21
WO2005026964A2 (en) 2005-03-24
EP1671233B1 (en) 2011-11-16
KR101109016B1 (ko) 2012-01-31
CN1902611A (zh) 2007-01-24
JP4729490B2 (ja) 2011-07-20
ATE534080T1 (de) 2011-12-15

Similar Documents

Publication Publication Date Title
CN110741356B (zh) 多处理器系统中的中继一致存储器管理
EP1046999B1 (en) Transfer controller with hub and ports architecture
US8473667B2 (en) Network on chip that maintains cache coherency with invalidation messages
CN112527730A (zh) 用于处理具有设备附接的存储器的远程直接存储器存取操作的系统、装置和方法
US10169087B2 (en) Technique for preserving memory affinity in a non-uniform memory access data processing system
US20160299714A1 (en) Computing architecture with peripherals
US20060225074A1 (en) Method and apparatus for communication between two or more processing elements
US7380102B2 (en) Communication link control among inter-coupled multiple processing units in a node to respective units in another node for request broadcasting and combined response
JP2021529488A (ja) ゲートウェイ上のホストプロキシ
CN102375800A (zh) 用于机器视觉算法的多处理器片上系统
JPH05128071A (ja) 多重プロセツサ・システムの性能の最適化装置及び方法
US20180181503A1 (en) Data flow computation using fifos
TWI573076B (zh) 訊息訊號中斷之通訊
US20120311266A1 (en) Multiprocessor and image processing system using the same
JP4729490B2 (ja) データ処理システム
US10659396B2 (en) Joining data within a reconfigurable fabric
JP2021528929A (ja) データ通過ゲートウェイ
CN112189324A (zh) 带宽匹配的调度器
US8990501B1 (en) Multiple cluster processor
JPH10260895A (ja) 半導体記憶装置およびそれを用いた計算機システム
JP2002198987A (ja) ハブおよびポート付き転送コントローラのアクティブ・ポート
US7073004B2 (en) Method and data processing system for microprocessor communication in a cluster-based multi-processor network
US20200285579A1 (en) Programmable data delivery to a system of shared processing elements with shared memory
JP2009505178A (ja) 少なくとも2つの命令実行部と少なくともデータ及び/または命令のための第1記憶装置または記憶領域とを備えたコンピュータシステムにおいて、データ及び/または命令を格納する装置及び方法
JP6303632B2 (ja) 演算処理装置および演算処理装置の制御方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

R150 Certificate of patent or registration of utility model

Ref document number: 4729490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350