JP2005521124A - データ処理システム - Google Patents

データ処理システム Download PDF

Info

Publication number
JP2005521124A
JP2005521124A JP2003553409A JP2003553409A JP2005521124A JP 2005521124 A JP2005521124 A JP 2005521124A JP 2003553409 A JP2003553409 A JP 2003553409A JP 2003553409 A JP2003553409 A JP 2003553409A JP 2005521124 A JP2005521124 A JP 2005521124A
Authority
JP
Japan
Prior art keywords
processor
data
cache
memory
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003553409A
Other languages
English (en)
Inventor
アイントホーフェン ヨセフス ティー ジェイ ファン
エヴェルト ジェイ ポル
マルテイン ジェイ ルッテン
オム ピー ガングワル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005521124A publication Critical patent/JP2005521124A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0837Cache consistency protocols with software control, e.g. non-cacheable data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0862Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0808Multiuser, multiprocessor or multiprocessing cache systems with cache invalidating means

Abstract

共有のメモリ(10)を介して互いにデータストリームを通信する、複数のプロセッサ(12a、12b、12c)を有するデータ処理システムが説明されている。各々のプロセッサは、管理ユニット(18a)及び計算ユニット(12a)を有する。データ処理システムは、データオブジェクトのストリームを通過するとき、プロセッサ(12a−c)を同期するためのプロセッサ同期手段(18)を有する。この目的のため、プロセッサは、同期手段(18)への同期命令(Ca−c)を発することができる。少なくともプロセッサの一つ(12a)は、キャッシュメモリ(184a)を有し、同期手段(18)は、同期命令(Ca)に応じてキャッシュ動作(CCa)を開始する。

Description

本発明は、複数のプロセッサを持つデータ処理システムに関する。
高いパフォーマンスの、データに依存したメディア処理、例えば高品位のMPEG復号化に対するヘテロジェネアスなマルチプロセッサのアーキテクチャが知られている。メディア処理アプリケーションは、データの単一方向の流れ(ストリーム)により単独で情報を交換するタスクを同時に実行するセットとして特定できる。斯様なアプリケーションの正式なモデルは、G. Kahnが既に1974年に”The Semantics of a Simple Language for Parallel Programming”Proc. Of the IFIP congress 74, August 5-10, Stockholm, Sweden, North-Holland publ. Co, 1974, pp.471-475により紹介し、Kahn及びMacQueenにより1977年に”Co-routines and Networks of Parallel Programming”, Information Processing 77, B. Gilchhirst (Ed.), North-Holland publ., 1977, pp993-998で動作説明された。この正式なモデルは、Kahn Process Networkと一般に呼ばれている。
同時に実行できるタスクのセットとしてのアプリケーションが知られている。情報は、データの単一方向の流れによりタスク間で交換できるだけである。タスクは、既定のデータストリームに関する読取及び書き込みプロセスにより決定論的にのみ通信するべきである。データストリームは、FIFOの振る舞いを基にしてバッファされる。バッファのおかげで、ストリームを通じての2つのタスクの通信は個別の読取及び書き込みプロセスで同期をとる必要はない。
ストリーム処理において、データのストリーム上での連続する動作は、異なるプロセッサにより実施される。例えば、第1のストリームはイメージのピクセル値からなってもよく、第1プロセッサによりピクセルの8x8ブロックのDCT(離散余弦変換)係数のブロックの第2のストリームを作るために処理されてもよい。第2プロセッサは、DCT係数の各ブロックに対して選択され圧縮された係数のブロックのストリームを作るためにDCT係数のブロックを処理する。
図1は、従来から既知のプロセッサにアプリケーションをマッピングした図を示す。データストリーム処理を実現するために、多くのプロセッサが提供され、各々は繰返し特定の動作を実施でき、毎回データオブジェクトのストリームからの次のデータオブジェクトからのデータを使用及び/又は斯様なストリームに次のデータオブジェクトを作っている。ストリームはあるプロセッサから次のプロセッサへ通り、第1プロセッサにより作られたストリームは第2プロセッサにより処理される、以下同様である。第1プロセッサから第2プロセッサへデータを通す一つの機構は、第1プロセッサにより作られたデータブロックをメモリに書き込むことである。
ネットワーク内のデータストリームはバッファされる。各バッファは、正確に一つの書き込み器及び一つ以上の読出し器を伴ってFIFOとして実現される。このバッファリングのため、これら書き込み器及び読出し器は、チャネル上で個別の読出し及び書き込み動作で相互に同期を取る必要はない。利用可能だが不充分なデータを持つチャネルからの読み出しは、読出しタスクを立ち往生させてしまう。コプロセッサは、プアなプログラム可能なだけであるハードウェア機能ユニットに専念できる。全てのコプロセッサはパラレルに走り、コントロールのこれら自身のスレッドを実行する。これらコプロセッサはKahnスタイルのアプリケーションを実行し、各タスクは単一のコプロセッサへマッピングされる。コプロセッサはマルチタスクを許容し、すなわちマルチのKahnタスクが単一のコプロセッサへマッピングできる。斯様なシステムにおけるプロセッサは、共通のメモリへ試みかけようとするプロセッサ間の衝突を低減するために、キャッシュを具備する。しかしながら、プロセッサにより共有されるメモリの内容とコヒーレントなキャッシュの内容を維持することは必要である。
キャッシュのコヒーレンス性を維持するための既知の方法は、バススヌーピング及びキャッシュライトスルーである。
第1の方法によると、各キャッシュは、メモリへの取り扱いを観察し、それに従って状態を更新する制御器を持つ。
前記キャッシュライトスルー方法によると、メモリの内容の各変更は、これらキャッシュ各々に報知される。
これら両方法は、大量のオーバヘッドを要求する。
したがって、本発明の目的は、Kahnスタイルのデータ処理システムの動作を改善することである。本発明によるデータ処理システムが請求項1に記載されている。本発明によるデータ処理システムにおいては、キャッシュのコヒーレンス性は、同期手段により維持される。キャッシュコヒーレンス性を維持するために、前記同期手段は、プロセッサにより発せられた同期命令に応じてキャッシュ動作を実施する。これは、キャッシュコヒーレンス性が同期メカニズムの側面的な効果として簡単に維持されるという利益を持つ。
前記同期手段は、種々の態様で実現される。これらは、中央同期プロセッサとして、例えばプログラムが走っているマイクロプロセッサの形式で又は専用ハードウェアの形式で実現できるだろう。さもなければ、同期プロセッサは、同期ユニットのセットとして実施され、それぞれの同期ユニットは各プロセッサに割当てられ、これら同期ユニットはトークンリング又はバスを介して互いに通信し合う。
請求項2の実施例によると、同期手段は読出しプロセッサの問い合わせに応じて無効動作を開始する。前記読出しプロセッサが、問い合わせを発する、すなわち書き込みプロセッサにより生成された新しいデータオブジェクトを読もうとしているメモリの部分へのアクセスを要求するならば、キャッシュメモリの対応する部分が前記メモリとまだコヒーレントでないということが、起こり得る。キャッシュ内の対応する部分を無効にすることは、ペシミスティックではあるが安全な動作である。
請求項3の実施例によると、同期手段は書き込みプロセッサのコミットに応じてフラッシュ動作を開始する。前記書き込みプロセッサがコミットを発するならば、読出しプロセッサにより他の処理のための多くのデータオブジェクトを開放する。このコミットの際に、フラッシュ動作を実行することにより、前記同期手段は、読出しプロセッサがデータオブジェクトの他の処理をしようとするときにメモリが書き込みプロセッサのキャッシュとコヒーレントであることを達成する。
請求項4の実施例によると、同期手段は、読出しプロセッサの問い合わせに応じて、プリフェッチ動作を開始する。前記読出しプロセッサの問い合わせは、メモリ内のデータオブジェクトを処理しようとすることを示す。前記プリフェッチ動作により、読出しプロセッサのキャッシュは、読出しプロセッサがそこからデータオブジェクトを本当に読み出し始める時に、既にコヒーレントである。
請求項5の実施例によると、同期手段は、書き込みプロセッサのコミットに応じて、読み出しプロセッサのキャッシュのプリフェッチ動作を開始する。この実施例は、新しいデータオブジェクトが利用可能になるとすぐ読み出しプロセッサのキャッシュのコヒーレンス性を整えるという利点を持つ。
本発明のこれら及び他の特徴は、図を参照して詳細に説明される。
図2は、本発明による処理システムを示す。当該システムは、メモリ10、複数のプロセッサ11a、11b、11c及びアービタ16を含む。各プロセッサ11a、11b、11cは、計算ユニット12a、12b、12c及び管理ユニット18a、18b、18cを有する。これら3つのプロセッサ11a、11b、11cは例示として示されただけであり、実際にはいろんな数のプロセッサが用いられてよい。プロセッサ11a、11b、11cは、アドレスバス14及びデータバス13を介してメモリ10へ接続されている。プロセッサ11a、11b、11cは、アービタ16に接続され、トークンリングのような通信ネットワーク19を介して互いに結合された管理ユニット18a−cを有する同期チャネルを介して互いに接続されている。
好ましくは、プロセッサ11a、11b、11cは、ストリーム処理タスクの限られた範囲を効果的に実施するように各々特定化された専用プロセッサであろう。すなわち、各プロセッサは、データバス13を介して受信した連続するデータオブジェクトへ繰返し同じ処理動作を付与する。プロセッサ11a、11b、11cは、可変長復号化、ランレングス復号化、動き補償、イメージスケーリング又はDCT変換を実施するような種々のタスク又は機能を各々実施してもよい。また、トライメディア(TriMedia)又はMIPSプロセッサのようなプログラム可能なプロセッサも含んでもよい。
動作時、各プロセッサ11a、11b、11cは、1つ又はそれ以上のデータストリームでの動作を実施する。動作は、例えばストリームを受信して他のストリームを生成したり、新しいストリームを生成することなくストリームを受信したり、ストリームを受信することなくストリームを生成したり、又は受信ストリームを変形することを含む。プロセッサ11a、11b、11cは、これらプロセッサの中の他のプロセッサにより生成されたデータストリーム、又は当該プロセッサ自身で生成したストリームをさえ処理できる。ストリームは、メモリ10を介してプロセッサ11a、11b、11cから転送された又はプロセッサ11a、11b、11cへ転送されるデータオブジェクトの連続を有する。
データオブジェクトからのデータを読み出したり又は書き込むために、プロセッサ11a、11b、11cはストリームに割当てられたメモリ10の一部をアクセスする。
図3は、読出し、書き込み及びこれらに関連した同期動作の処理を表したものである。コプロセッサの観点から、データストリームは、アクセスの現在のポイントを持つデータの無限のテープのように見える。コプロセッサ(計算ユニット)から発せられるgetspaceコールは、図3a内の小さな矢印により示されるようにアクセスの現在のポイントに先んじたあるデータスペースへのアクセスのための許可を求める。この許可が認められたら、コプロセッサは要求されたスペース、すなわち図3bのフレーム窓内の読出し動作及び書き込み動作を、n_bytes引数により示されるような可変長データを使用して、offset引数により示されるような任意のアクセス位置で実施できる。
許可が認められない場合、コールは失敗(false)をリターンする。1つ又はそれ以上のgetspaceがコールした後で、また時には幾つかの読出し/書き込み動作の後で、コプロセッサは、データスペースのいくらかの部分で処理が終了したかどうかを決定し、putspaceコールを発する。このコールはアクセスのポイントをある数のバイト、すなわち図3dではn_bytes2前に進め、当該サイズは以前に認められたスペース(スペース)により束縛される。
図4は、論理的に連続なアドレスを持つ一連のメモリ位置を含むメモリ10の論理メモリスペース20を示す。図5は、2つのプロセッサ11aと11bとがメモリ10を介してどのようにデータオブジェクトを交換するかを示す。メモリスペース20は、異なるストリームに割当てられた副スペース21、22、23を含む。例示として、低い境界アドレスLBと高い境界アドレスHBとにより境界付けられる副スペース22が、図4に詳細に示されている。この副スペース22では、セクションA2−A1によっても示されたアドレスA2とアドレスA1との間のメモリ位置は、読出しプロセッサ11bに利用可能な、有効なデータを含む。副スペースの高い境界HBとアドレスA1との間のメモリ位置、同様にアドレスA2と副スペースの低い境界LBとの間のメモリ位置は、セクションA1−A2により示され、新しいデータを書き込むために書き込みプロセッサ11aに利用可能である。例示として、プロセッサ11bは、プロセッサ11aにより生成されたストリームへ割当てられたメモリ位置に記憶されたデータオブジェクトをアクセスするとする。
上述の例では、ストリームのためのデータは、論理的に最高のアドレスHBに到達する度論理的に最低のアドレスLBで始まり、サイクリックに一連のメモリ位置に書き込まれる。このことが、低めの境界LBと高めの境界HBとが互いに隣接している図5のメモリ副スペースの周期的表示により示されている。
管理ユニット18bは、処理されたストリームに対する有効なデータがメモリ位置22へ書き込まれてしまう前に、プロセッサ11bがメモリ位置22にアクセスしないことを保証する。同様に、管理ユニット18aは、プロセッサ11aがメモリ10の有益なデータを重ね書きしないことを保証するためにここでは使用される。図2に示される実施例では、管理ユニット18a及び18bは、リング18a、b、cの一部を形成し、ここにおいて同期信号がプロセッサ11a−cの一つから次のプロセッサへ通されるか、これらの同期信号がどの次のプロセッサ11a−cでも必要とされないときブロックされるか重ね書きされる。管理ユニット18a、18b、18cは一緒に同期チャネルを形成する。管理ユニット18aは、プロセッサ11aからプロセッサ11bへのデータオブジェクトのストリームを転送するために用いられるメモリスペースについての情報を維持する。示された実施例では、管理ユニット18aは、プロセッサ11aにより書き込まれることができるセクションA1−A2のアドレス範囲の始まりのA1を表す値A1を記憶する。そのセクションのサイズを表す値S1も記憶する。しかしながら、前記アドレス範囲は、それらの境界により示されてもよく、又は上限境界A2と値S1とにより示されてもよい。同様にして、管理ユニット18bは、プロセッサ11bに対して有効なデータを含むセクションA2−A1の始まりA2を表す値A2を記憶する。そのセクションのサイズを表す値S2も記憶する。プロセッサ11aがプロセッサ11bに対するデータを生成し始めるとき、後のプロセッサ11bに対して有効なデータはまだ利用可能ではないので、セクションA2−A1のサイズS2はゼロに初期化されるべきである。プロセッサ11aがメモリ副スペース22へのデータ書き込みを始める前に、第1命令C1(getspace)によりこのスペース内にセクションを要求する。この命令のパラメータは、クレームされているサイズnである。複数のメモリ副スペースが利用可能ならば、副スペースを識別するためのパラメータも含む。副スペースは、この副スペースを介して転送されるストリームの識別子により識別されてもよい。クレームされたサイズnがセクションに対して管理ユニット18aにより記憶されたサイズS1以下である限り、管理ユニット18aはこの要求を認める。このときプロセッサ11aは、アクセスを要求されたメモリ副スペースのセクションA1−A2のサイズnで部分A1−A2‘へデータオブジェクトを書くことができる。
要求された数nが示された数S1を超えてしまうならば、生成プロセッサ11aは示されたストリームの処理を中断する。このとき生成プロセッサ11aは生成中の他のストリームに対する処理を採用してもよいし、生成プロセッサ11aは、一緒に処理を休止してもよい。要求された数が示された数を超えたならば、生成プロセッサ11aは、後で再び新しいデータを持つメモリ位置の要求された数を示す命令を、生成プロセッサ11aが、要求された数が受信しているプロセッサ11aにより示された位置を越えない事象を検出するまで、実行するだろう。この事象の検出後、生成プロセッサ11aは処理を継続する。
同期をとるために、データストリームを生成する生成プロセッサ11a−cは、データストリームの内容が有効になった後で、その位置のデータストリームの内容が有効になるメモリ10内の位置の数の指標を送信する。この例では、プロセッサ11aがスペースmを占有するデータオブジェクトを書き込んだならば、第2プロセッサ11bにより他の処理に利用可能なデータオブジェクトを示す第2命令C2(putspace)を与える。この命令のパラメータmは、開放されたメモリ副スペース22内のセクションの対応するサイズを示す。他のパラメータがメモリ副スペースを示すために含まれてもよい。この命令を受信すると、管理ユニット18aは、利用可能なサイズS1をmだけ減少し、アドレスA1をmだけ増やす。
Figure 2005521124
ここで、
Figure 2005521124
は加算モジュロHB−LBである。
管理ユニット18aは、更にメッセージMをプロセッサ11bの管理ユニット18bへ送信する。このメッセージを受信すると、管理ユニット18bはA2−A1のサイズS2をmだけ増やす。受信プロセッサ、ここでは11bが新しいデータが必要とされるストリームの処理の段に到達するとき、新しいデータを持ったメモリ位置kの要求された数を示す命令C1(k)を送信する。命令の後、受信プロセッサ11bの計算ユニット12bは、この要求された数が生成プロセッサ11aにより示された位置を越えて達しないことを管理ユニット18bからの応答が示すならば、処理を継続する。
要求された数kが示された数S2を超えて到達するならば、受信プロセッサ11bは、示されたストリームの処理を中断する。受信プロセッサ11bは、処理している他のストリームの処理に取りかかるか、又は受信プロセッサは完全に処理を休止する。要求された数kが示された数S2を超えて到達する場合、要求された数kが生成プロセッサ11aにより示された位置A1を超えて到達しない事象が受信プロセッサ11bに記録されてしまうまで、受信プロセッサ11bは、後で再び新しいデータを持つメモリ位置の要求された数を示す命令を実行するだろう。この事象を記録すると、受信プロセッサ11bは、ストリーム処理を再び始める。
上述の例では、論理的に最高のアドレスHBに到達する度に論理的に最低のアドレスLBで始めて、ストリームに対するデータがサイクリックに一連のメモリ位置に書き込まれる。このことは、生成プロセッサ11aが受信プロセッサに追いつき、受信プロセッサによりまだ必要とされるデータを重ね書きする可能性を生じさせる。生成プロセッサ11a−cが斯様なデータを重ね書きすることを防止することを所望するとき、受信プロセッサ11a−cがメモリの位置からの内容を処理することを止めた後で、毎回もはや必要はないメモリ内のメモリ位置の数の指標を送信する。このことは、生成プロセッサ11aにより用いられる同じ命令C2(putdata)により実現できる。この命令は、もはや必要ではないメモリ位置m‘の数を含む。加えて、ストリームの識別子、及び又は一つより多いストリームが処理されるならばメモリ副スペースを含む。この命令を受信すると、管理ユニット18bはm’でサイズS2を減少させ、m‘のメモリ副スペースのサイズに対するモジュロでアドレスA2を増大させる。管理ユニット18bもまた、生成プロセッサ11aの管理ユニット18aへメッセージM’を送信する。このメッセージを受信すると、生成プロセッサ11aの管理ユニット18aはサイズS1を増大させる。
このことは、ストリームからのデータが、多数の種々のストリームに対して図4で示された現在の初期位置24a−cまで重ね書きできることを意味する。指標が、生成プロセッサ11a−cに記録される。生成プロセッサ11a−cは、生成されたストリームからメモリ内の多くの新しい位置へデータを書き込むために必要である処理の段へ到達するとき、生成プロセッサ11a−cは、新しいデータに対して必要とされるメモリ位置の要求される数を示す命令を実行する。命令の後、生成プロセッサ11a−cにより記録された指標が、受信プロセッサ11a−cにより示された位置を超えてこの要求された数が到達しないことを示すならば、生成プロセッサ11a−cは処理を続ける。
好ましくは、重ね書きされてもよい位置の数と有効な内容を持つ位置の数とが、多くの標準位置に関して示されていて、ストリーム内の多くのデータオブジェクトに関して示されているわけではない。このことは、データストリームを生成したり受信したりするプロセッサが、同じブロックサイズを持つ位置の再利用性又は有効性を示す必要がないという効果を持つ。利点は、生成プロセッサ及び受信プロセッサ11a−c各々が他のプロセッサ11a−cのブロックサイズを知ることなく設計できるということである。小さなブロックサイズで動作するプロセッサ11a−cは、大きなブロックサイズで動作するプロセッサを待つ必要はない。
メモリ位置の指標は、幾つかの態様で実施される。一つの態様は、有効である又は重ね書きされてもよい追加のメモリ位置の数を示すことである。他の解決の仕方は、最後の有効な又は重ね書きできる位置のアドレスを送信することである。
好ましくは、プロセッサ11a−cの少なくとも一つは、種々のストリームで交替的に動作できる。各受信したストリームに対して、プロセッサ11a−cはメモリ内の位置についての情報をローカルに保持し、その位置までデータは有効であり、各生成されたストリームに対して、メモリ内の位置についての情報を保持し、その位置まで新しいデータは書き込まれる。
管理ユニット18a、b、cの動作及び実施は、特別なインスタンス化がこれらの区別を作るかもしれないが、読み出しポートと書き込みポートとの間の区別を作る必要はない。管理ユニット18a、18b、18cにより実行された動作は、FIFOバッファ22のサイズ、メモリ20内の位置、メモリバウンドサイクリックFIFOに対するアドレスについてのラップアラウンド(wrap-around)メカニズム、キャッシングストラテジ、キャッシュコヒーレンス性、汎用I/Oアライメント制限、データバス幅、メモリアライメント制限、通信ネットワーク構造及びメモリオーガナイゼーションのような実施の態様を効果的に隠す。
好ましくは、管理ユニット18a−cは、フォーマットされていないシーケンスのバイトで動作する。データのストリームを通信させる書き込み器11a及び読出し器11bにより用いられる同期パケットサイズ間の相関は必要ない。データ内容の意味解釈は、コプロセッサ、すなわち計算ユニット12a、12bにまかされる。タスクは、通信している他のタスク及びこれらのタスクがマッピングされているコプロセッサ又は同じコプロセッサでマッピングされる他のタスクのような、アプリケーショングラフインデンス構造を知る必要はない。
管理ユニット18a−cの高いパフォーマンスの実施において、読出しコール、書き込みコール、getspaceコール、putspaceコールが、管理ユニット18a−cに含まれる同期ユニット及び読出し/書き込みユニットを介してパラレルに発することができる。管理ユニット18a−cの異なる部分でのコール動作は、相互のオーダー束縛を持たず、一方で管理ユニット18a−cの同一の部分でのコール動作は、コーラータスク又はコプロセッサにしたがってオーダーされなければならない。斯様な場合に対して、ファンクションコールからのリターンによるソフトウェアの実施で、アクノリッジ信号を供給することによりハードウェアの実施で、以前のコールがリターンされたとき、コプロセッサからの次のコールが起動できる。
読出しコールにおけるサイズ引数、即ちn_bytesのゼロ値が、メモリから管理ユニットのキャッシュへport_ID引数及びoffset引数により示される位置でデータのプリフェッチを実施するためにリザーブできる。斯様な動作は、管理ユニットにより実施された自動プリフェッチのために使用できる。同様に、書き込みコールのゼロ値は、自動キャッシュフラッシュが管理ユニットの責任であるけれども、キャッシュフラッシュ要求のためにリザーブできる。
オプション的に、全ての五つの動作は追加の最後のlast_ID引数を受ける。これは通常、より早めのgettaskコールからの結果値として得られる小さな正の数である。Gettaskコールで、コプロセッサ(計算ユニット)は、例えば不充分なデータオブジェクトしか利用可能でないので計算ユニットが現在のタスクで処理できない場合、その管理ユニットに新しいタスクを割当てることを要求できる。このgettaskコールの際、管理ユニットは、新しいタスクの識別子をリターンする。読出し、書き込み、putspace及びgetspace動作におけるこの引数に対するゼロ値は、タスクに特定されないがコプロセッサ制御に関係するコールに対してリザーブされる。
好ましい実施例において、データストリームと通信するためのセットアップ(set-up)は、有限サイズ(finite-size)のFIFOバッファに接続された一つの読出し器及び一つの書き込み器でのストリームのことである。斯様なストリームは、有限且つ一定のサイズを持つFIFOバッファを必要とする。サイクリックなアドレス機構が適当なFIFOの振る舞いに対して適用されるということが、メモリにおいて及びそのリニアアドレスレンジにおいて予備的に割当てられるだろう。
しかしながら、図2及び図6に基づいた他の実施例においては、一つのタスクにより作られるデータストリームは、異なる入力ポートを持つ二つ又はそれ以上の異なる消費者により消費されるべきものである。斯様な状況は、タームフォーキングにより記述できる。しかしながら、マルチタスク処理のハードウェアコプロセッサと同様にCPUで動作するソフトウェアタスクの両方に対してタスクの実行を再使用することを我々は望んでいる。これは、基本機能に対応して、固定数のポートを持つタスクを通じて実行される。アプリケーションコンフィギュレーションにより生じるフォーキングのための必要性は、管理ユニットにより解決されるべきである。
明らかにフォーキングは、ただ二つの別個の通常のストリームバッファを保持することにより、書き込み及びputspace動作全てを2回繰り返すことにより、及び2回繰り返されたgetspaceチェックの結果値でAND演算を実施することにより、管理ユニット18a−cにより実施できる。好ましくは、ダブルの書き込み帯域幅及びおそらく更なるバッファスペースを含んでコストがかかるので、これは実行されない。その代わり、好ましくは同じFIFOバッファを共有する1つの書き込み器及び二つ又はそれ以上の読出し器で実行される。
図6は、単一の書き込み器及び複数の読出し器を持つFIFOバッファの図を示す。同期機構は、BとCとが互いの束縛を持たない、例えばこれらが純粋に読出し器と仮定すると、AとCとの間の対の順の次に、AとBとの間の通常の対の順を保証しなければならない。このことは、各読出し器に対して別個に利用可能なスペースのトラックを保持することにより(AからB及びAからC)、書き込み動作を実施するコプロセッサに関連して管理ユニットで実行される。書き込み器が、ローカルgetspaceコールを実施するとき、そのn_bytes引数は、これらのスペース値の各々と比較される。これは、次のラインへの変更を示す列又は一つのエクストラのフィールドにより接続されたフォーキングのための前記ストリームテーブルにエクストラのラインを使用することにより実施される。
これは、フォーキングがほとんど使用されず、同時に二方向のみのフォーキングに限定されない、主要な場合においてほんの僅かのオーバヘッドを提供することになる。好ましくは、フォーキングは、書き込み器により実施されるのみである。読出し器は、この状況を知る必要はない。
図2及び図7に基づく他の実施例において、データストリームはテープモデルによると、三つのステーションストリームとして実現される。各ステーションは、通過するデータストリームの幾つかの更新を実施する。三つのステーションストリームのアプリケーション例は、一つの書き込み器であり、中間(intermediate)のウォッチドッグ及びファイナルの読出し器である。このような例において、第2タスクは好ましくは通過するデータを監視し、しばらく検査して多くの場合データが変形なしに通過することを許可する。相対的にはめったにないことであるが、ストリーム内の2、3の項目を変更することを決定できるだろう。これは、あるバッファから他のバッファへ全ストリーム内容をコピーすることを避けるために、プロセッサによりある地点でのバッファの更新によって効果的に達成できる。実際、このことは、ハードウェアコプロセッサが通信し、メインのCPUが、若干異なるストリームフォーマットへの適応をなすか又は単にデバッグの理由のためにハードウェアの不備を補正するようにストリームを修正するために介在するときに便利であろう。斯様なセットアップは、メモリトラフィック及びプロセッサのワークロードを低減するために、メモリの単一ストリームバッファを共有する全ての三つのプロセッサで達成できたであろう。タスクBは、全てのデータストリームを実際には読み出したり、又は書き込んだりしないだろう。
図7は、三つのステーションストリームに対する有限メモリバッファ実行を表す。この三方向バッファの適切なセマンティックスは、互いに関してA、B及びCの厳格なオーダーを維持しウィンドウが重ならないことを保証することを含む。このようにして、三方向バッファは、図4及び図5に示された二方向バッファからの拡張である。斯様な多方向のサイクリックFIFOは、上述の管理ユニットの動作によって、同様に好ましい実施例の中で説明されたputspaceメッセージで分配された実行スタイルにより、直接的にサポートされる。単一のFIFOの三つのステーションにだけ限定はされない。一つのステーションが有効なデータを消費し作るIn-place処理は、たった二つのステーションでも適用可能である。この場合、互いにデータを交換するためにin-place処理をどちらのタスクも実施するので、空きのスペースはバッファに残っていない。
図2に基づく他の実施例では、バッファへの単一のアクセスが説明される。斯様な単一アクセスバッファは、単一ポートだけを有する。この実施例では、タスク間又はプロセッサ間のデータ交換は実施されないだろう。代わりに、これはローカルな使用のための管理ユニットの標準通信動作の単なるアプリケーションである。管理ユニットのセットアップは、メモリに付けられた単一のアクセスポイントを持つ標準バッファメモリからなる。タスクは今、ローカルなスクラッチパッド(scratchpad)又はキャッシュとしてバッファを使用できる。構成上の観点から、これは、幾つかの目的及びタスク、例えばソフトウェア構成可能なメモリサイズの使用のための比較的大きなメモリの組み合わされた使用のような利点を持つことができる。とりわけ、このセットアップのタスクに特別なアルゴリズムに役立つスクラッチパッドメモリとしての使用は、マルチのタスクを行うコプロセッサでのタスク状態を記憶し、取り出すために良く適用できる。この場合、状態スワッピングのための読出し/書き込み動作を実施することは、タスク機能コード自身の一部ではなく、コプロセッサ制御コードの一部である。バッファが他のタスクと通信するために使用されないので、このバッファについてput space及びgetspace動作を実施する必要は通常ない。
図2及び図8に基づく他の実施例では、好ましい実施例による管理ユニット18a−cは更に、データ送信、すなわちコプロセッサ12とメモリ20との間の読出し動作及び書き込み動作のためのデータキャッシュを有する。管理ユニット18a−cのデータキャッシュの実施は、データバス幅のトランスペアレント変換、グローバルな相互接続すなわちデータバス13上の整列制限の解決策、グローバルな相互接続上のI/O動作の数の減少を提供する。
好ましくは、管理ユニット18a−cは、キャッシュをそれぞれ持つ別個の読出し書き込みインタフェースを有するが、これらのキャッシュはアプリケーション機能の観点から見えることはない。ここで、put space及びgetspace動作のメカニズムは、明らかにキャッシュコヒーレンスを制御するために使用される。キャッシュは、通信ネットワーク(データバス)13のグローバルな相互接続から、コプロセッサの読出し及び書き込みポートを分断する重要な役割を演じる。これらのキャッシュは、スピード、パワー及びエリアに関するシステムパフォーマンスに大きな影響を持つ。
タスクポートに認容されたストリームデータのウィンドウのアクセスは、プライベートであることを保証する。結果として、このエリアの読出し及び書き込み動作はセーブされ、第1段階では、中間イントラプロセッサ通信を必要としない。アクセスウィンドウは、サイクリックFIFOの前のものから新しいメモリスペースを得るローカルgetspaceリクエストにより拡張される。キャッシュの幾らかの部分がこのような拡張に対応するためにタグを付けられ、タスクが当該拡張内のデータを読み出すことに興味を持つならば、そのときキャッシュのこのような部分は無効化を必要とする。それから後で読出し動作がこの位置で起こるならば、キャッシュミスが起こり、新鮮な有効データがキャッシュにロードされる。管理ユニットの丹念な実施は、キャッシュミスの制裁を低減するために予備フェッチリクエストを発するようにgetspaceを使用できた。アクセスウィンドウは、サイクリックFIFOの後継器へ新しいメモリスペースを残すローカルputspaceリクエストにより縮む。このような縮みの幾つかの部分がたまたまキャッシュ内にあり、その部分が書き込まれてしまったならば、そのときキャッシュのそのような部分は、他のプロセッサへ利用可能なローカルデータを作るために、フラッシュされる必要がある。Putspaceメッセージを他のコプロセッサへ送り出すことは、キャッシュのフラッシュが完了し、メモリ位置の安全なオーダーが保証できるまで延期されなければならない。
明瞭なキャッシュコヒーレンス制御のためのローカルなgetspace及びputspace事象だけを使用することは、バススヌーピングのような他の一般的キャッシュコヒーレントメカニズムと比較して大きなシステムアーキテクチャにおける実施を相対的に容易にする。また、例えばキャッシュライトスルーアーキテクチャのような通信オーバヘッドを提供しない。
getspace及びputspace動作は、バイトグラニュラリティで動作するように規定される。キャッシュの主要な責任は、コプロセッサに対するデータ転送整列制限及びグローバルな相互接続データ転送サイズを隠すことである。好ましくは、データ転送サイズは、同じ整列で16バイトに設定され、一方2バイトと同じ小ささの同期のとれたデータ量は動的に用いられてもよい。したがって、同一のメモリワード又は転送されたユニットは、異なるコプロセッサのキャッシュに同時に記憶されることができ、無効な情報がバイトグラニュラリティで各キャッシュで扱われる。
図8は、図2に示された処理システムでの使用のための管理ユニット18及びプロセッサ12の組合せを示す。詳細に示された管理ユニット18は、制御器181、ストリーム情報を有する第1テーブル(ストリームテーブル)182、及びタスク情報を有する第2テーブル(タスクテーブル)183を有する。管理ユニット18はまた、プロセッサ12のためのキャッシュ184を有する。同期インタフェース18におけるキャッシュ184の存在は簡便なデザインのキャッシュを考慮し、キャッシュ制御を単純にしている。加えて、指令キャッシュのような一つ又はそれ以上のキャッシュがプロセッサ12にあってもよい。
制御器181は、タイプC1、C2の命令を受けるために対応するプロセッサ、すなわちプロセッサ12aと命令バスIinを介して結合される。フィードバックラインFBは、例えばバッファスペースのためのリクエストを認容してもらうために、前記プロセッサへのフィードバックを与えるのに役立つ。前記制御器は、リング内の先行する管理ユニットからのメッセージを受けるためにメッセージ入力ラインMinを持ち、また、後続の管理ユニットへメッセージを送るためにメッセージ出力ラインMoutを持つ。管理ユニットがその後続の管理ユニットへ送ってもよいメッセージの例は、バッファメモリの一部が開放されたということである。制御器181は、ストリームテーブル182のアドレス及びタスクテーブル183のアドレスを選択するためにアドレスバスSTA及びTTAをそれぞれ持つ。更に、これらのテーブルからの読出し、テーブルへの書き込みのためにデータバスSTD及びTTDをそれぞれ持つ。
管理ユニット18は、他のプロセッサ(図3には示されていない)からの同期情報を送受信し、少なくとも受信した情報を記憶する。管理ユニット18は更に、ローカルにプロセッサ12においてデータストリームからのデータの写しを記憶するのに役立つキャッシュメモリ184を有する。キャッシュメモリ184は、ローカルアドレスバス185及びローカルデータバス186を介してプロセッサ12と結合されている。原則として、プロセッサ12は、図1の処理システムのメモリ10での位置への参照となるアドレスでもってキャッシュメモリ184をアドレスする。キャッシュメモリ184がアドレスされたデータの内容の有効な写しを含むならば、プロセッサ12は前記写しを含むキャッシュメモリ184での位置をアクセスし、メモリ10(図1)はアクセスされない。好ましくは、プロセッサ12は、あるタイプの動作、例えばMPEGデコーディングを非常に効率よく実施するように設計された特別なプロセッサコアである。システム内の種々のプロセッサのプロセッサコアは、種々の特別な部分を持つ。同期インタフェース18及びそのキャッシュメモリ184は、全ての種々のプロセッサに対して同一でもよく、ただキャッシュメモリサイズがプロセッサ12の要求に応じておそらく適応するようになっているだろう。
本発明によるデータ処理システムでは、同期手段は、同期命令に応じてキャッシュ動作を開始する。このようにして、キャッシュコヒーレンス性が最小量の追加のキャッシュ制御手法で維持できる。本発明の幾つかの実施例が可能である。
第1の実施例では、少なくとも一つのプロセッサは、第1プロセッサ(書き込みプロセッサ)により生成されたデータオブジェクトを有するスペースを要求する同期命令(問い合わせ)を発する第2プロセッサ(読み出しプロセッサ)であり、キャッシュ動作は無効動作である。
図9に概略的に示されるように、読み出しプロセッサは、要求命令getspaceを発する。同期手段18、ここではプロセッサ11の一部を形成する管理ユニット18は、要求されたスペースが書き込みプロセッサによりコミットされたスペース10の中にあるかどうかを示すフィードバック信号FBをリターンする。更に、この実施例では、管理ユニットは、前記要求されたスペースと重なるキャッシュメモリ184のメモリ転送ユニットを無効にするだろう。結果として、キャッシュからデータを読み出そうとし、このデータが無効であることを検出したならば、制御器181は即座にメモリからの有効なデータをプリフェッチするだろう。
図11に示されているように、三つの異なる状況が起こり得る。この図において、各々の状況は、読出しリクエストが空のキャッシュ184で起こり、キャッシュミスとなるとする。概略的に図の左半分では、プロセッサ11のキャッシュ184及び計算ユニット12が示されている。右半分は、概略的に読出しリクエストRが起こったときに関わるキャッシュの部分184を示す。キャッシュのためのデータがフェッチされるメモリ10の部分も示される。
図11Aは、認められたウィンドウW内に完全に含まれるワードである、キャッシュ184内のメモリ転送ユニットMTUをフェッチすることを導く読出しリクエストRを示す。明らかにこの全体のワードMTUはメモリで有効であり、一旦キャッシュにロードされると有効と宣言できる。
図11Bでは、読出しリクエストRは、コプロセッサにより得られたスペースWを部分的に越えて延在し、それ以外は利用可能なものとして管理ユニット18内でローカルに管理される、ワードMTUがメモリ10からキャッシュ184へフェッチされるという結果を持つ。Getspace引数だけが使用されるならば、このワードMTUは部分的に無効であると宣言されるようになるだろうし、getspaceウィンドウWが一旦拡張されると、再読み出しされる必要があるだろう。しかしながら、利用可能なスペースW2の実際の値がチェックされるならば、全ワードが有効としてマークできる。
図11Cでは、読出しリクエストRは、メモリ10からキャッシュ184へフェッチされるワードMTUが、セーブされるべきと知られていない、幾つかの他のプロセッサにより依然書き込まれるようになるかもしれないスペースSへ部分的に拡張されるという効果を持っている。キャッシュ184へロードされるとき、無効なものとしてワードMTUの対応するエリアS‘をマークすることは、必須である。ワードのこの部分S’が後でアクセスされるならば、ワードMTUは再読み出しされる必要がある。
更に、信号読出しリクエスト(図11CのR‘参照)は1より多いメモリワードをカバーできる。なぜならば、2つの連続するワード間の境界を交差するからである。これは、コプロセッサ12の読出しインタフェースがメモリワードより広い場合も、起こるであろう。図11A−Cは、要求されたバッファスペースWと比較して相対的に大きなメモリワードを示す。実際、要求されたウィンドウWは、ときにはかなり大きいが、極端な場合、全サイクリックな通信バッファは、単一のメモリワードと同じくらい小さくできるだろう。
前の実施例では、読み出しの試みがキャッシュ184で起こる時に、データがメモリからキャッシュへフェッチされ、キャッシュ内のデータが無効であるとわかる。第2実施例では、読み出しプロセッサがスペースを要求する命令を発するやいなやデータは読み出しプロセッサのキャッシュにプリフェッチされる。このとき、キャッシュ内のデータを最初に無効にする必要はない。
第3実施例では、書き込みプロセッサが、新しいデータオブジェクトを書いたスペースを開放するという命令を発するやいなやデータが読み出しプロセッサのキャッシュにフェッチされる。
本発明の第4実施例は、書き込みプロセッサのキャッシュにキャッシュコヒーレンス性を維持するのに適している。これは、そのプロセッサがコミット動作を与えた後で当該キャッシュのフラッシュ動作を実施することにより達成される。これが図10に示されている。この中で、メモリの一部10Aは、書き込みプロセッサにより既にコミットされたスペースである。Putspace命令は、プロセッサ12がそれに割当てられたスペースであって、新しいデータオブジェクトが書き込まれた当該スペースを開放するということを示す。キャッシュコヒーレンス性は、putspace命令により開放されるスペースと重なるキャッシュ184の部分184A、184Bをフラッシュすることにより、維持される。Putspace命令により示されたスペースが開放されたという読み出しプロセッサへのメッセージは、フラッシュ動作が完了するまで遅延される。コプロセッサは、バイトグラニュアリティでデータを書き込み、キャッシュは当該キャッシュ内のバイト当りのダーティ(汚染された)ビットを管理する。Putspace要求の際、キャッシュは、この要求により示されたアドレス範囲で重なる、前記キャッシュから共有のメモリへのワードをフラッシュする。前記ダーティビットは、メモリがアクセスウィンドウの外のバイト位置で決して書き込まれないことを保証するために、バス書き込み要求の書き込みマスクのために用いられるべきである。
’Kahn’スタイルのアプリケーションにおいてポートは、専用の方向、すなわち入力又は出力の何れかを持つ。好ましくは、幾つかの実施発行を簡略化する別個の読出しキャッシュ及び書き込みキャッシュが用いられる。多くのストリームに対して、コプロセッサはサイクリックなアドレススペースを通じてリニアに働き、読出しキャッシュはオプション的にプリフェッチをサポートし、書き込みキャッシュはオプション的にプリフラッシュをサポートし、次のワードへの二つの読出しアクセス動き内で、以前のワードのキャッシュ位置が期待される将来の使用に利用できる。読出しデータパス及び書き込みデータパスの別個の実施が、例えばパイプライン形式のプロセッサの実施で、パラレルに発生するコプロセッサからの読出しリクエスト及び書き込みリクエストを更に容易にサポートする。
このように、データオブジェクトのストリームに対するメモリへのアクセスの予測が、キャッシュ管理を改善するために用いられる。
示されている実施例では、同期インタフェース間の同期メッセージネットワークは、トークンリングネットワークである。このことは、相対的に少ない数の接続でコンパイルできるという利点を持つ。更に、トークンリング自体の構造はスケーラブルなので、ノードがインタフェースデザイン上ほとんど影響を及ぼすことなく付加又は削除できる。しかしながら、他の実施例では、通信ネットワークは、同期の待ち時間を最小にするために、例えばバスをベースにしたネットワーク又はスイッチされるマトリクスネットワークのように異なる態様で実施されてもよい。
実施例においては、第1テーブル182はプロセッサにより処理される複数のストリームに対する以下の情報を有する:データが書き込まれるか読み出されるべきメモリ10の位置をポイントするアドレス、通信しているプロセッサ間のデータのストリームをバッファするために利用可能なメモリ内のメモリセクションのサイズを示すバリューサイズ、管理ユニットに結合されたプロセッサへ結合されたプロセッサに利用可能なそのセクションの部分のサイズを示すバリュースペース、このストリームを読出し又は書き込むプロセッサ及びストリームを識別するグローバル識別子gsid。
実施例では、第2テーブル183は、実施されるタスクについての下記の情報を有する:前記タスクのために処理される一つ又はそれ以上のストリームの識別子、各タスクに対して利用可能なバジェット、タスクがイネーブル又はディスイネーブルであることを示すタスクイネーブルフラグ、タスクが走る用意をしているか否かを示すタスクランニングフラグである。好ましくは、テーブル183は各タスクに対して、ストリームの、例えばタスクの第1ストリームの一つの識別子だけを有する。好ましくは、識別子はストリームテーブルへのインデックスである。管理ユニット18は、前記インデックス及びポート番号pを加えることにより、他のストリームに対して対応するidを容易に計算する。ポート番号は、管理ユニットに結合されたプロセッサにより与えられる命令のパラメータとして通過できる。
図12は、他の実施例を示す。この実施例では、プロセッサ同期手段は、プロセッサ12a、12b、12cにより発せられたコミット及び問い合わせ命令を処理する中心ユニットである。前記プロセッサ同期手段は、専用のハードウェアで実現されてもよいが、さもなければプログラムされた汎用プロセッサでも可能である。プロセッサ12a−cは、同期ユニット18へ同期命令Ca、Cb、Ccを発し、フィードバックFBa、FBb、FBcを得る。同期ユニット18はまた、キャッシュ制御命令CCa、CCb及びCCcによりキャッシュ184a、184b、184cもそれぞれ制御する。プロセッサ12a、12b、12cは、これらキャッシュ184a、184b、184c、データバス13及びアドレスバス14を介して共有メモリ10に結合される。
例として、プロセッサ12aが書き込みプロセッサであり、プロセッサ12cが前記書き込みプロセッサにより書き込まれたデータを読み出すプロセッサであるとする。しかしながら、各プロセッサの役割は、利用可能なタスクに依存して動的にスケジュールされてよい。
この例では、プロセッサ12aは書き込みプロセッサであり、同期ユニットは、書き込みプロセッサ12aによりputspace命令を受信した後で、フラッシュ命令をキャッシュ184aへ発することにより、キャッシュ184aのコヒーレンス性を維持する。この実施例の更なる実施例では、同期ユニットは、プロセッサ12aのデータストリームを読み出すプロセッサ12cのキャッシュへプリフェッチ命令を発してもよい。このプリフェッチ命令は、キャッシュ184aへの前記フラッシュ命令の後で与えられるべきである。
しかしながら、他の実施例においては、読み出しプロセッサ12cのキャッシュ184cのキャッシュコヒーレンス性が、書き込みプロセッサ12aの動作とは独立に達成される。これは、プロセッサ12cからgetspace命令を受信した際に、読み出しプロセッサ12cのキャッシュ184cへ無効命令を同期ユニット18が発するとき、達成できる。この命令の結果として、getspace命令により請求された領域と重なる前記キャッシュ184cの部分は、無効化される。前記部分は、読み出しの試みが読み出しプロセッサ12cにより起こるやいなやメモリ10からフェッチされる。同期ユニット18は、読み出しプロセッサ12cのキャッシュ184cへのプリフェッチ命令を発することもできるので、読み出しプロセッサ12cが実際に読み始めるならばデータは既に利用可能である。
図1は、アプリケーションを従来のプロセッサへマッピングしている図である。 図2は、ストリームに基づいた処理システムのアーキテクチャの概略的ブロック図である。 図3は、図2のシステムにおけるI/O動作及び同期動作を示す。 図4は、共有メモリの概略図である。 図5は、図4のメモリを使用する図2の書く管理ユニットにおけるローカルスペース値を更新する仕組みを示す。 図6は、複数の読出し器と単一の書き込み器を持つFIFOバッファの概略図である。 図7は、3つのステーションストリームに対する有限メモリバッファの実行を示す。 図8は、処理システムの一部を形成するプロセッサを詳細に示す。 図9は、読み出しプロセッサが要求命令getspaceを発している図である。 図10は、プロセッサがコミット動作を与えた後でキャッシュのフラッシュ動作を実施する図である。 図11Aは、キャッシュにおけるデータの有効性を読み出して管理する説明図の一つである。 図11Bは、キャッシュにおけるデータの有効性を読み出して管理する説明図の一つである。 図11Cは、キャッシュにおけるデータの有効性を読み出して管理する説明図の一つである。 図12は、本発明による処理システムの第2実施例である。

Claims (5)

  1. メモリと、当該メモリに接続された第1プロセッサ及び第2プロセッサと、データオブジェクトのストリームを通すとき前記プロセッサを同期させるためのプロセッサ同期手段とを有し、これらプロセッサは前記データオブジェクトの前記ストリーム上でプロセスを実施し、第1プロセッサは、第2プロセッサによる読出しのために前記メモリに連続的に前記データオブジェクトを記憶することによって前記ストリームから第2プロセッサへ連続的なデータオブジェクトを通し、前記プロセッサは前記同期手段へ同期命令を発することができ、少なくとも前記プロセッサの一つは、キャッシュメモリを有し、前記同期手段は、同期命令に応じてキャッシュ動作を開始する、データ処理システム。
  2. 前記少なくとも一つのプロセッサは、第1プロセッサにより生成されたデータオブジェクトを有するスペースを要求するための同期命令(問い合わせ)を発する第2プロセッサであり、前記キャッシュ動作は無効動作である、請求項1に記載のデータ処理システム。
  3. 前記少なくとも一つのプロセッサは、命令に割当てられ、新しいデータオブジェクトを書き込んだスペースを開放するために当該命令(コミット)を発する第1プロセッサであり、前記キャッシュ動作はフラッシュ動作である、請求項1に記載のデータ処理システム。
  4. 前記少なくとも一つのプロセッサは、第1プロセッサにより生成されたデータオブジェクトを有する、スペースを要求する命令(問い合わせ)を発する第2プロセッサであり、前記キャッシュ動作はプリフェッチ動作である、請求項1に記載のデータ処理システム。
  5. 前記少なくとも一つのプロセッサは、命令に割当てられ、新しいデータオブジェクトを書き込んだスペースを開放するために当該命令(コミット)を発する第1プロセッサであり、前記キャッシュ動作は読出しプロセッサのキャッシュのプリフェッチ動作である、請求項1に記載のデータ処理システム。
JP2003553409A 2001-12-14 2002-12-05 データ処理システム Pending JP2005521124A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP01204885 2001-12-14
PCT/IB2002/005208 WO2003052588A2 (en) 2001-12-14 2002-12-05 Data processing system

Publications (1)

Publication Number Publication Date
JP2005521124A true JP2005521124A (ja) 2005-07-14

Family

ID=8181432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003553409A Pending JP2005521124A (ja) 2001-12-14 2002-12-05 データ処理システム

Country Status (6)

Country Link
US (1) US20050015637A1 (ja)
EP (1) EP1459180A2 (ja)
JP (1) JP2005521124A (ja)
CN (1) CN1320458C (ja)
AU (1) AU2002366404A1 (ja)
WO (1) WO2003052588A2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204292A (ja) * 2007-02-21 2008-09-04 Toshiba Corp メモリ管理システム
JP2008305246A (ja) * 2007-06-08 2008-12-18 Freescale Semiconductor Inc 情報処理装置、キャッシュフラッシュ制御方法及び情報処理制御装置
JP2009116872A (ja) * 2007-11-08 2009-05-28 Internatl Business Mach Corp <Ibm> ネットワーク・オン・チップ(noc)上のソフトウェア・パイプライン化の方法、プログラムおよび装置
JP2009129447A (ja) * 2007-11-27 2009-06-11 Internatl Business Mach Corp <Ibm> デザイン構造、ネットワーク・オン・チップ(‘noc’)でのデータ処理方法、ネットワーク・オン・チップ、およびネットワーク・オン・チップでのデータ処理のためのコンピュータ・プログラム(パーティションを有するネットワーク・オン・チップのためのデザイン構造)
JP2011181094A (ja) * 2004-07-30 2011-09-15 Intel Corp アーキテクチャイベントの間のプロセッサリソースの保持
US8726295B2 (en) 2008-06-09 2014-05-13 International Business Machines Corporation Network on chip with an I/O accelerator
US8843706B2 (en) 2008-05-01 2014-09-23 International Business Machines Corporation Memory management among levels of cache in a memory hierarchy
US8898396B2 (en) 2007-11-12 2014-11-25 International Business Machines Corporation Software pipelining on a network on chip

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4796346B2 (ja) * 2004-07-28 2011-10-19 ルネサスエレクトロニクス株式会社 マイクロコンピュータ
US8130841B2 (en) * 2005-12-29 2012-03-06 Harris Corporation Method and apparatus for compression of a video signal
US8543750B1 (en) * 2008-10-15 2013-09-24 Octasic Inc. Method for sharing a resource and circuit making use of same
US8689218B1 (en) 2008-10-15 2014-04-01 Octasic Inc. Method for sharing a resource and circuit making use of same
US8352797B2 (en) * 2009-12-08 2013-01-08 Microsoft Corporation Software fault isolation using byte-granularity memory protection
US8255626B2 (en) * 2009-12-09 2012-08-28 International Business Machines Corporation Atomic commit predicated on consistency of watches
US8375170B2 (en) * 2010-02-12 2013-02-12 Arm Limited Apparatus and method for handling data in a cache
CN105874439A (zh) * 2014-05-28 2016-08-17 联发科技股份有限公司 不同计算单元共享内存池的内存池管理方法和相关的计算机可读介质和内存池管理装置
WO2017028877A1 (en) * 2015-08-14 2017-02-23 Huawei Technologies Co., Ltd. Device and method for prefetching content to a cache memory
US10489087B2 (en) 2017-05-24 2019-11-26 International Business Machines Corporation Using a space release data structure to indicate tracks to release for a space release command to release space of tracks in a consistency group being formed
US10528256B2 (en) 2017-05-24 2020-01-07 International Business Machines Corporation Processing a space release command to free release space in a consistency group
US11907589B2 (en) * 2019-07-08 2024-02-20 Vmware, Inc. Unified host memory for coprocessors

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995004557A1 (en) * 1993-08-05 1995-02-16 Max-Medical Pty. Ltd. Blood donation monitoring means
US5958019A (en) * 1996-07-01 1999-09-28 Sun Microsystems, Inc. Multiprocessing system configured to perform synchronization operations
US6021473A (en) * 1996-08-27 2000-02-01 Vlsi Technology, Inc. Method and apparatus for maintaining coherency for data transaction of CPU and bus device utilizing selective flushing mechanism
US6081783A (en) * 1997-11-14 2000-06-27 Cirrus Logic, Inc. Dual processor digital audio decoder with shared memory data transfer and task partitioning for decompressing compressed audio data, and systems and methods using the same

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8806172B2 (en) 2004-07-30 2014-08-12 Intel Corporation Maintaining processor resources during architectural evens
US10740249B2 (en) 2004-07-30 2020-08-11 Intel Corporation Maintaining processor resources during architectural events
US10303620B2 (en) 2004-07-30 2019-05-28 Intel Corporation Maintaining processor resources during architectural events
US9996475B2 (en) 2004-07-30 2018-06-12 Intel Corporation Maintaining processor resources during architectural events
JP2011181094A (ja) * 2004-07-30 2011-09-15 Intel Corp アーキテクチャイベントの間のプロセッサリソースの保持
US8543793B2 (en) 2004-07-30 2013-09-24 Intel Corporation Maintaining processor resources during architectural events
US9507730B2 (en) 2004-07-30 2016-11-29 Intel Corporation Maintaining processor resources during architectural events
US8788790B2 (en) 2004-07-30 2014-07-22 Intel Corporation Maintaining processor resources during architectural events
US9164918B2 (en) 2004-07-30 2015-10-20 Intel Corporation Maintaining processor resources during architectural events
US9164901B2 (en) 2004-07-30 2015-10-20 Intel Corporation Maintaining processor resources during architectural events
US9086958B2 (en) 2004-07-30 2015-07-21 Intel Corporation Maintaining processor resources during architectural events
US9152561B2 (en) 2004-07-30 2015-10-06 Intel Corporation Maintaining processor resources during architectural events
JP2008204292A (ja) * 2007-02-21 2008-09-04 Toshiba Corp メモリ管理システム
JP2008305246A (ja) * 2007-06-08 2008-12-18 Freescale Semiconductor Inc 情報処理装置、キャッシュフラッシュ制御方法及び情報処理制御装置
JP2009116872A (ja) * 2007-11-08 2009-05-28 Internatl Business Mach Corp <Ibm> ネットワーク・オン・チップ(noc)上のソフトウェア・パイプライン化の方法、プログラムおよび装置
US8898396B2 (en) 2007-11-12 2014-11-25 International Business Machines Corporation Software pipelining on a network on chip
JP2009129447A (ja) * 2007-11-27 2009-06-11 Internatl Business Mach Corp <Ibm> デザイン構造、ネットワーク・オン・チップ(‘noc’)でのデータ処理方法、ネットワーク・オン・チップ、およびネットワーク・オン・チップでのデータ処理のためのコンピュータ・プログラム(パーティションを有するネットワーク・オン・チップのためのデザイン構造)
US8843706B2 (en) 2008-05-01 2014-09-23 International Business Machines Corporation Memory management among levels of cache in a memory hierarchy
US8726295B2 (en) 2008-06-09 2014-05-13 International Business Machines Corporation Network on chip with an I/O accelerator

Also Published As

Publication number Publication date
AU2002366404A8 (en) 2003-06-30
CN1605065A (zh) 2005-04-06
WO2003052588A2 (en) 2003-06-26
CN1320458C (zh) 2007-06-06
WO2003052588A3 (en) 2004-07-22
AU2002366404A1 (en) 2003-06-30
US20050015637A1 (en) 2005-01-20
EP1459180A2 (en) 2004-09-22

Similar Documents

Publication Publication Date Title
JP4322119B2 (ja) データ処理システム
JP2005521124A (ja) データ処理システム
US6526481B1 (en) Adaptive cache coherence protocols
US9323672B2 (en) Scatter-gather intelligent memory architecture for unstructured streaming data on multiprocessor systems
US8205067B2 (en) Context switching and synchronization
US20110016277A1 (en) Method for Performing Cache Coherency in a Computer System
JP2010507160A (ja) データ処理装置の共有メモリへの書込みアクセス要求の処理
KR100960413B1 (ko) 데이터 처리 시스템, 통신 수단 및 데이터 처리 방법
KR100266314B1 (ko) 다중프로세서의 코히어런스 오버헤드 감소를 위한 자기-무효화 장치 및 방법
KR20070052335A (ko) 바운디드 에러 지연된 갱신 소프트웨어 캐싱
JP2010517184A (ja) スヌープ要求キャッシュを用いたスヌープ・フィルタリング
JP2008544417A (ja) キャッシュする方法、装置及びシステム
US10095627B2 (en) Method and system for efficient communication and command system for deferred operation
US5875468A (en) Method to pipeline write misses in shared cache multiprocessor systems
WO2011002371A1 (en) A programmable controller
Chen Cache design and performance in a large-scale shared-memory multiprocessor system
JP2005528671A (ja) 多重プロセッサデータ処理システムにおけるデータ処理方法及び対応するデータ処理システム
CN116680229A (zh) 一种分布式共享内存协议的操作方法
CN116685958A (zh) 一种访问数据的方法和装置
JPH03235145A (ja) キャッシュメモリ装置
JP2000132456A (ja) 並列計算機のキャッシュメモリ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070323

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090811