JP2006515690A - 複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法 - Google Patents

複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法 Download PDF

Info

Publication number
JP2006515690A
JP2006515690A JP2003553417A JP2003553417A JP2006515690A JP 2006515690 A JP2006515690 A JP 2006515690A JP 2003553417 A JP2003553417 A JP 2003553417A JP 2003553417 A JP2003553417 A JP 2003553417A JP 2006515690 A JP2006515690 A JP 2006515690A
Authority
JP
Japan
Prior art keywords
task
processor
stream
data
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003553417A
Other languages
English (en)
Inventor
マーティーン ヨット ルッテン
アインドーフェン ヨゼフス テー ヨット ファン
エヴァート ヨット ポル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2006515690A publication Critical patent/JP2006515690A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/48Indexing scheme relating to G06F9/48
    • G06F2209/485Resource constraint

Abstract

【課題】 カーンスタイルのデータ処理システムの動作を改良すること。
【解決手段】 本発明は、複数のプロセッサを有するデータ処理システムにおいて分散型タスクスケジューリングを提供するための発想に基づいている。従って、データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサと、通信ネットワークと、メモリとを有するデータ処理システムであって、第一プロセッサが、データオブジェクトのストリームからのデータオブジェクトを第二プロセッサに渡す、データ処理システムが提供される。第二プロセッサは、第一および第二タスクをインターリーブ式に処理することのできるマルチタスキングプロセッサであり、第一および第二タスクは、それぞれ、データオブジェクトの第一および第二ストリームを処理する。このデータ処理システムは、第二プロセッサのそれぞれのためのタスクスケジューリング手段をさらに有し、タスクスケジューリング手段は、第二プロセッサと通信ネットワークの間に作動的に配置されており、第二プロセッサのタスクスケジューリングを制御する。

Description

本発明は、複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法とに関する。
データ依存性のハイパフォーマンスメディア処理、例えば高品位(high−definition) MPEG復号化のための異種マルチプロセッサアーキテクチャは公知である。メディア処理アプリケーションは、単方向のデータストリームによってのみ情報を交換する一連の同時実行タスクとして指定することができる。G. Kahnは、このようなアプリケーションの形式モデルを、「パラレルプログラミング用の単純な言語のセマンティクス(The Semantics of a Simple Language for Parallel Programming)」(Proc. of the IFIP congress 74、8月5〜10日、スウェーデン、ストックホルム、North−Holland publ. Co, 1974年、p.471〜475)ですでに1974年に紹介し、その後、1977年に、KahnおよびMacQueenが、「パラレルプログラミングのコルーチンとネットワーク(Co−routines and Networks of Parallel Programming)」(Information Processing 77、B. Gilchhirst (Ed.)、North−Holland publ、1977年、p.993〜998)で動作を説明した。この形式モデルは、現在では一般にKahnプロセスネットワークと呼ばれている。
一連の同時実行可能タスクとしてのアプリケーションは、公知である。情報は、タスク間で単方向のデータストリームによって交換しかできない。タスクは、事前定義されたデータストリームに関する読み取りおよび書き込みアクションによって決定論的にのみ通信する必要がある。データストリームは、FIFO挙動に基づいてバッファリングされる。このバッファリングによって、ストリームを通じて通信する2つのタスクは、個々の読み取りまたは書き込みアクションにおいて同期する必要がない。
ストリーム処理においては、データストリームに対する連続的な操作が、異なるプロセッサによって実行される。例えば、第一ストリームは、イメージのピクセル値から成り、これらが第一プロセッサによって処理されて、ピクセルの8×8ブロックのDCT(離散コサイン変換)係数のブロックの第二ストリームが生成される。第二プロセッサは、このDCT係数のブロックを処理して、DCT係数の各ブロックに対する、選択および圧縮された係数のブロックのストリームを生成することができる。
図1は、先行技術から知られている、アプリケーションからプロセッサへのマッピングの図解を示している。データストリーム処理を実現するために、多数のプロセッサが設けられており、各プロセッサは、特定の操作を繰り返し実行することができ、各回に、データオブジェクトのストリームからの次のデータオブジェクトからのデータを使用する、および/または、そのようなストリームにおける次のデータオブジェクトを生成する。ストリームは1つのプロセッサから別のプロセッサに渡され、従って、第一プロセッサによって生成されたストリームを第二プロセッサによって処理することができ、以下同様である。第一プロセッサから第二プロセッサにデータを渡す1つのメカニズムは、第一プロセッサによって生成されたデータブロックをメモリに書き込むことによる。
ネットワーク内のデータストリームは、バッファリングされる。各バッファは、FIFOとして実現されており、1つのみのライターと1つ以上のリーダーとを有する。このバッファリングによって、ライターとリーダーは、チャネル上の個々の読み取りおよび書き込みアクションを相互に同期させる必要がない。利用可能なデータが十分にないチャネルからの読み取りは、それに起因して読み取りタスクが停止する。プロセッサは、弱くのみプログラム可能な専用ハードウェアの機能装置でよい。すべてのプロセッサは平行に動作し、それぞれ自身の制御のスレッドを実行する。これらのプロセッサは、まとまって、Kahn型アプリケーションを実行し、Kahn型アプリケーションでは、各タスクは1つのプロセッサにマッピングされる。これらのプロセッサは、マルチタスキングを可能とし、すなわち、複数のKahnタスクを1つのプロセッサにマッピングすることができる。
G. Kahn「パラレルプログラミング用の単純な言語のセマンティクス(The Semantics of a Simple Language for Parallel Programming)」(Proc. of the IFIP congress 74、8月5〜10日、スウェーデン、ストックホルム、North−Holland publ. Co, 1974年、p.471〜475) Kahn、MacQueen「パラレルプログラミングのコルーチンとネットワーク(Co−routines and Networks of Parallel Programming)」(Information Processing 77、B. Gilchhirst (Ed.)、North−Holland publ、1977年、p.993〜998)
本発明の目的は、カーン型データ処理システムの動作を改良することである。
この目的は、請求項1によるデータ処理システムと、請求項19によるタスクスケジューラと、請求項32によるタスクスケジューリングの対応する方法とによって解決される。
本発明は、複数のプロセッサを有するデータ処理システムにおいて分散型タスクスケジューリングを提供するための発想に基づいている。従って、データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサが、データオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡す、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、通信ネットワークとを有する、データ処理システムが提供される。当該第二プロセッサは、第一および第二タスクをインターリーブ式に処理することのできるマルチタスキングプロセッサであり、当該第一および第二タスクが、それぞれ、データオブジェクトの第一および第二ストリームを処理する。当該データ処理システムは、当該第二プロセッサのそれぞれのためのタスクスケジューリング手段をさらに有し、当該タスクスケジューリング手段は、当該第二プロセッサと当該通信ネットワークの間に作動的に配置されており、当該第二プロセッサの前記タスクスケジューリングを制御する。
第二プロセッサそれぞれが自身のタスクスケジューラを有する分散型タスクスケジューリングは、有利である。なぜなら、スケーラブルシステムの前提条件である、第二プロセッサを自立させることが可能となるためである。
本発明の1つの観点においては、当該タスクスケジューリング手段は、当該第二プロセッサによって処理される次のタスクを、当該第二プロセッサからの要求を受け取った時点で確定し、かつ、当該次のタスクの識別情報を当該第二プロセッサに転送する。当該第二プロセッサは、次のタスクを所定の間隔で要求し、当該間隔は、当該第二プロセッサの前記処理ステップに相当する。従って、ノンプリエンプティブタスクスケジューリングを実現することができる。
本発明の好ましい観点においては、当該タスクスケジューリング手段は、ストリームテーブルとタスクテーブルとを有する。当該ストリームテーブルは、前記関連付けられているプロセッサにマッピングされている前記タスクに関連付けられている各ストリームのパラメータを格納するために使用される。当該パラメータは、読み取りのための有効なデータの量、書き込みのための利用可能な空間の量、実行中のタスクが当該ストリームに対する読み取りまたは書き込み時にブロックされているかに関する情報、および/または、当該ストリームをタスクに関係付ける構成設定情報を含む。当該タスクテーブルは、当該第二プロセッサに関連付けられている前記異なるタスクを管理するために使用され、当該タスクテーブルは、どのストリームが当該タスクに関連付けられているかを示す前記ストリームテーブルへのインデックス、前記タスクが実行を許可されているか否かを示す各タスクのイネーブルフラグ、および/または、各タスクの利用可能な処理割当量(budget)を示す割当量カウンタを含む。第二プロセッサに関連付けられているタスクスケジューリング手段にストリームテーブルとタスクテーブルとを設けることにより、データ処理システムのローカル制御および管理能力が向上する。
本発明のさらに別の観点においては、当該タスクスケジューリング手段は、当該ストリームテーブル内のすべてのストリームをチェックし、かつ、当該ストリームのうちのどのストリームがタスクの進行を許可するかを確定する。a)前記ストリームが読み取りのための有効なデータまたは書き込みのための利用可能な空間を持つ場合、b)前記タスクが、前記ストリームにおいて利用可能である以上の有効なデータまたはスペースを要求しなかった場合、および/または、c)オプションa)およびb)がタスクの進行に無関係であるものとして構成設定されている場合に、ストリームは進行を許可する。
本発明のさらなる観点においては、当該タスクスケジューリング手段は、当該タスクテーブル内のタスクをチェックし、当該タスクのうちのどのタスクが実行を許可されるかを確定する。タスクは、当該タスクに関連付けられている前記ストリームのすべてが実行を許可されており、かつ当該タスクの前記イネーブルフラグが設定されている場合に、実行が許可される。
本発明のさらに別の観点においては、当該タスクスケジューリング手段は、前記現在のタスクの後に次に処理されるタスクを、当該第二プロセッサからの要求を受け取った時点で選択し、前記現在のタスクは、前記現在のタスクが依然として実行を許可されておりかつ当該タスクテーブル内の割当量カウンタが0でない場合に、続行が許可される。これ以外の場合には、当該タスクスケジューリング手段によって確定された前記次のタスクが、現在のタスクとして選択され、かつ、前記割当量カウンタがリセットされる。このように、第二プロセッサにマッピングされている各タスクが、第二プロセッサ上で実行される機会を定期的に得ることが、保証される。
本発明の別の観点においては、当該タスクスケジューリング手段は、選択された次のタスクの識別情報を当該第二プロセッサにただちに戻すことができるように、当該第二プロセッサが前記次のタスクを要求する前に、次に処理されるタスクを選択する。従って、データ処理システムの処理速度が向上する。
本発明のさらに別の観点においては、当該タスクスケジューリング手段は、前記現在のタスクの前記割当量カウンタを制御する割当量カウンタ手段を有する。各タスクに対して割当量カウンタを設けることにより、相異なるタスクの処理における正当性(justice)の実施が確保される。
本発明は、データ処理システムのためのタスクスケジューラにも関する。当該システムは、データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサが、データオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡すように構成されている、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、通信ネットワークと、メモリとを有する。前記タスクスケジューラは、当該第二プロセッサのうちの1つに関連付けられており、当該第二プロセッサと当該通信ネットワークの間に作動的に配置されており、かつ、当該関連付けられている第二プロセッサのタスクスケジューリングを制御する。
本発明は、データ処理システムにおけるタスクスケジューリングのための方法にも関する。当該システムは、データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサがデータオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡すように構成されている、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、通信ネットワークとを有する。当該システムは、当該第二プロセッサのそれぞれのためのタスクスケジューラを有する。前記タスクスケジューラは、当該第二プロセッサのタスクスケジューリングを制御する。
本発明の観点においては、前記タスクスケジューラは、プログラム可能な第二プロセッサ上に実装されている。
本発明のさらなる実施例は、従属請求項に記載されている。
本発明の上記およびその他の観点は、図面を参照しながら以下により詳細に説明されている。
図2は、本発明の好ましい実施例による、データオブジェクトのストリームを処理する処理システムを示す。このシステムは、異なる層、すなわち計算層1と、通信サポート層2と、通信ネットワーク層3とに分割することができる。計算層1は、CPU 11と、2個のプロセッサまたはコプロセッサ12a, 12bとを含む。これは単なる一例であり、明らかに、より多くのプロセッサをシステムに含めることができる。通信サポート層2は、CPU 11に関連付けられているシェル21と、コプロセッサ12a, 12bにそれぞれ関連付けられているシェル22a, 22bとを有する。通信ネットワーク層3は、通信ネットワーク31とメモリ32とを有する。
プロセッサ12a, 12bは、好ましくは専用プロセッサであり、それぞれが、ストリーム処理の限られた範囲を実行するように特殊化されている。各プロセッサは、ストリームの連続するデータオブジェクトに同じ処理操作を繰り返し適用するように構成されている。プロセッサ12a, 12bは、それぞれが、異なるタスクまたは機能、例えば、可変長復号化、ランレングス復号化、動き補償、イメージスケーリング、またはDCT変換の実行などを行うことができる。動作時、各プロセッサ12a, 12bは、1つ以上のデータストリームに対する操作を実行する。この操作は、例えば、ストリームを受信して別のストリームを生成する、新しいストリームを生成せずにストリームを受信する、ストリームを受信せずにストリームを生成する、または受信したストリームを修正することを含むことができる。プロセッサ12a, 12bは、別のプロセッサ12b, 12aによって、またはCPU 11によって生成されたデータストリーム、あるいは自身が生成したストリームを処理することができる。ストリームは、メモリ32を介してプロセッサ12a, 12bから/に転送される一連のデータオブジェクトを有する。
シェル22a, 22bは、通信層である通信ネットワーク層の方への第一インタフェースを有する。この層は、すべてのシェルに対して均一または包括的である。さらに、シェル22a, 22bは、シェル22a, 22bがそれぞれ関連付けられているプロセッサ12a, 12bの方への第二インタフェースを有する。第二インタフェースは、タスクレベルのインタフェースであり、関連付けられているプロセッサ12a, 12bの特定のニーズを処理することができるように、これらのプロセッサ12a, 12b用にカスタマイズされている。従って、シェル22a, 22bは、第二インタフェースとしてプロセッサに固有なインタフェースを持つが、システムアーキテクチャ全体の中でシェルの再利用を容易にする一方で、特定のアプリケーションのパラメータ化との適合化を行うことができるように、これらのシェルの全体的なアーキテクチャは、すべてのプロセッサに対して包括的かつ均一である。
シェル22a, 22bは、データ転送のための読み取り/書き込み装置と、同期装置と、タスク切替え装置とを有する。これらの3つの装置は、関連付けられているプロセッサとマスター/スレーブベースで通信し、プロセッサはマスターとして機能する。従って、3つの装置それぞれは、プロセッサからの要求によって初期化される。プロセッサとこれら3つの装置の間の通信は、引数値を渡して要求値が戻されるのを待つようにするために、要求/アクノリッジハンドシェークメカニズムによって実施されることが好ましい。従って、通信はブロッキング式、すなわちそれぞれの制御スレッドがその完了を待つ。
読み取り/書き込み装置は、2つの異なる操作、すなわちプロセッサ12a, 12bがメモリからデータオブジェクトを読み取ることができるようにする読み取り操作と、プロセッサ12a, 12bがメモリ32にデータオブジェクトを書き込むことができるようにする書き込み操作とを実施することが好ましい。各タスクは、データストリームの付加ポイント(attachment point)に対応する事前定義された一連のポートを持つ。これらの操作の引数は、それぞれのポートのID「port_id」と、読み取り/書き込みが行われるオフセット位置「offset」と、データオブジェクトの可変長「n_bytes」である。ポートは、引数「port_id」によって選択される。この引数は、現在のタスクのみのローカルスコープを保持する、負でない小さな数である。
同期装置は、空のFIFOからの読み取り、または満杯のFIFOへの書き込み時のローカルなブロッキング条件を扱うための同期を目的とする2つの操作を実施する。第一操作、すなわちgetspace操作は、FIFOとして実装されているメモリ内のスペースの要求であり、第二操作、すなわちputspace操作は、FIFO内のスペースを解放するための要求である。これらの操作の引数は、「port_id」と可変長「n−bytes」である。
getspace操作とputspace操作は、リニアテープまたはFIFOの同期順に実行されるが、この操作によって取得されるウィンドウの内側では、ランダムアクセスの読み取り/書き込みアクションがサポートされる。
タスク切替え装置は、プロセッサのタスク切り替えをgettask操作として実施する。この操作の引数は、「blocked」、「error」、および「task_info」である。
引数「blocked」は、入力ポートまたは出力ポート上のgetspace呼び出しが偽を戻したために、最後の処理ステップを正常に完了することができなかった場合に設定されるブーリアンである。従って、ブロックされているポートに対して新しい「space」メッセージが到着しない限りはそのタスクを再スケジューリングしない方がよいことが、タスクスケジューリング装置にただちに通知される。この引数値は、スケジューリングの向上につながるアドバイスとして考慮されるにすぎず、機能性に影響することはない。引数「error」は、最後の処理ステップの間にプロセッサの内部で致命的エラーが起きた場合に設定されるブーリアン値である。mpeg復号化の例では、例えば、未知の可変長符号または不正なモーションベクトルが現れた場合である。その場合、シェルは、タスクテーブルのイネーブルフラグをクリアしてさらなるスケジューリングを防止し、システムの状態を修復するための割り込みが主CPUに送られる。現在のタスクは、CPUがソフトウェアを通じて対話するまでは絶対にスケジューリングされない。
シェル22とプロセッサ12の間のタスクレベルのインタフェースに関して、シェル22とプロセッサ12の間の境界は、以下のいくつかの点を念頭に置いて引かれる。すなわち、すべてのプロセッサは、シェルのマイクロアーキテクチャを再利用することができる。また、シェルは、機能に固有な問題に関する意味論的な知識を持たない。シェルは、グローバルな通信システム上の抽象部分を形成する。(プロセッサの観点から)異なるタスクは、互いを認識しない。
上述されている操作は、プロセッサからのread呼び出し、write呼び出し、getspace呼び出し、putspace呼び出し、またはgettask呼び出しによって開始される。
図2によるシステムアーキテクチャは、マルチタスキングをサポートし、すなわち、いくつかのアプリケーションタスクを1つのプロセッサにマッピングすることができる。マルチタスキングのサポートは、一連のアプリケーションを構成設定することと、データ処理システムにおける異なる場所に同じハードウェアプロセッサを適用することに対してのアーキテクチャの柔軟性を達成するうえで重要である。明らかに、マルチタスキングでは、アプリケーションを正しく進行させるためにプロセッサがどのタスクをどの時点で実行しなければならないかを決定するプロセスとして、タスクスケジューリング装置が必要となる。好ましい実施例のデータ処理システムは、データ依存のストリームの不定期な処理と動的な作業負荷とが目標とされており、タスクスケジューリングはオフラインではなくオンラインで実行され、実際の状況を考慮することができる。タスクスケジューリングは、固定的なコンパイル時スケジュールとは対照的に実行時に実行される。
プロセッサ12は、タスクが実行されている間で、実行中のタスクに割り込むことができる時間的な瞬間を明示的に決定することが好ましい。このようにして、このハードウェアアーキテクチャは、任意の時点におけるコンテキストを保存するための方策を必要としない。プロセッサは、状態をほとんど、またはまったく持たない時点まで処理を続行することができる。これらの時点は、プロセッサがタスク切り替えを最も容易に実行することができる瞬間である。
このような瞬間において、プロセッサ12は、自身が次に処理を実行すべきタスクをシェル22に尋ねる。この問い合わせは、gettask呼び出しを通じて行われる。このような問い合わせの間の間隔は、処理ステップとみなされる。一般的には、処理ステップには、1つ以上のデータパケットを読み取ることと、取得されたデータに何らかの操作を実行することと、1つ以上のデータパケットを書き込むことが含まれる。
タスクスケジューリング装置は、シェル22に属しており、gettask機能を実装している。プロセッサ12は、各処理ステップの前にgettask呼び出しを実行する。戻り値は、タスクのコンテキストを識別する負でない小さな数であるタスクIDである。このように、プロセッサ12の要求時、スケジューラは、次の最適なタスクをプロセッサ12に伝える。この手順構成は、切り替えポイントがプロセッサ12によって提供されるノンプリエンプティブスケジューリングとみなすことができる。スケジューリング装置は、プロセッサ12に割り込むことはできず、プロセッサ12が処理ステップを終了して新しいタスクを要求するのを待つ。
本発明によるタスクスケジューリングのアルゴリズムは、次のようなアプリケーション、すなわち、作業負荷が動的であり、一時的な過負荷状況時の挙動が予測可能であり、次のタスクが数クロックサイクル内に選択され、かつアルゴリズムが単純であって各シェルにハードウェアを高い費用効果で実装するのに適したアプリケーションに効果を発揮するはずである。
マルチタスキングアプリケーションは、マルチタスキングプロセッサ上に適切なタスクをインスタンス化することによって実施される。あるタスクの挙動が、同じプロセッサを共有している別のタスクの挙動に悪い影響を与えてはならない。従って、スケジューラは、割り当てられている以上のリソースを要求して別のタスクの進行を妨げるタスクを防止する。
典型的な場合においては、メディアデータストリームのリアルタイムスループットを可能にするために、すべてのタスクの作業負荷の合計がプロセッサの計算能力を超えないことが好ましい。データ依存挙動のタスクの場合に、最悪の条件時における一時的な過負荷状況は起きてもよい。
ラウンドロビン式のタスク選択は、この場合のリアルタイムパフォーマンス要件に適している。なぜなら、この方式では、処理ステップの所要時間が短い場合、各タスクが十分に高い頻度で処理されることが保証されるためである。
システム設計者は、構成設定時にリソース割当量を各タスクに割り当てる。タスクスケジューリング装置は、割当量を確実に保護するためにポリシー方式をサポートしている必要がある。スケジューラは、タスクの正確な実行時間に割当量を関係付けることによって、リソース割当量のポリシー化を実施する。スケジューラは、測定単位としてタイムスライス、すなわち、(代表的には処理ステップの長さのオーダーである)所定の固定数のサイクルを使用する。タスク割当量は、多数のタイムスライスとして与えられる。タスクスケジューラは、運用中の割当量を、新しく選択されたタスクの割当量に初期化する。シェルは、各タイムスライスの後に、アクティブタスクの運用中の割当量をデクリメントする。このようにして、割当量は、処理ステップの長さとは無関係であり、スケジューラは、アクティブタスクを、その割当量によって与えられるタイムスライスの数に制限する。
このようなタスクあたりの割当量の実施は、二重の用途がある。すなわち、プロセッサを共有するタスクの相対的な割当量の値が、タスク間での計算リソースの分割を制御し、絶対的な割当量の値が、状態の保存と回復の相対的なオーバーヘッドに影響するタスク切り替え頻度を制御する。
運用中の割当量は、アクティブタスクが通信をブロックすると破棄される。このブロックしているタスクがスケジューリング上の割当量に戻ると、ただちに次のタスクが始まる。このようにして、作業負荷が十分なタスクは、その割当量をより頻繁に使用することによって余分な計算時間を使用することができる。
プロセッサにおけるタスクの絶対的な割当量は、これらのタスクの実行時間、従ってプロセッサのタスク切り替え速度を決定する。そして、プロセッサのこのタスク切り替え速度は、タスクの全ストリームのためのバッファサイズに関連する。タスク切り替え速度が小さいことは、タスクのスリープタイムが長いことを意味し、バッファ要件が大きくなる。従って、タスク切り替え速度はかなり高いことが好ましく、従って、長いタスク切り替え時間は容認されない。理想的には、プロセッサのタスク切り替え時間は、毎回のタスク切り替えを可能にするために、1つの処理ステップと比較して短くすべきである。これにより、最低の絶対的割当量と最小のストリームバッファとを割り当てることが可能になる。
本発明によるタスクは、動的な作業負荷を持つ。これらのタスクは、実行時間、ストリームの選択、および/またはパケットサイズに関して、データに依存することがある。このデータ依存性は、スケジューラの設計に影響する。なぜなら、タスクが進行できるか否かを事前に確定することができないためである。本発明による実施例として、「最良の推測」を実行するスケジューリング装置が説明されている。このタイプのスケジューラは、ほとんどの場合に正しいタスクを選択し、そうでない場合には限られたペナルティによって回復することによって、有効となり得る。スケジューラの目的は、プロセッサの稼働率を向上させて、タスクができるだけ進行できるようにスケジューリングすることである。タスクの操作がデータに依存するため、スケジューラは、選択されたタスクが処理ステップを完了できることを保証することができない。
タスクは、タスクに少なくともいくらかの利用可能な作業負荷がある場合に実行可能である。タスクがアクティブであるように構成設定時に設定されている場合、タスクのイネーブルフラグが設定される。スケジュールフラグも、構成設定パラメータであり、タスクが実行可能であるためにはスケジューラがストリームの利用可能なスペースを考慮する必要があるか否かをストリームごとに示す。スペースパラメータは、putspace操作を介して実行時に更新された、ストリーム内の利用可能なデータまたは空間を保持する。これに代えて、タスクの最後のgetspace問い合わせ時に不十分なスペースが存在していた場合には、ブロック状態フラグが実行時に設定される。
スペースが不十分であることに起因してタスクが進行できない場合には、そのタスクのストリームの1つに対するgetspace問い合わせが偽を戻したはずである。シェル22a, 22bは、ストリームごとに、最後のgetspace問い合わせの否定の結果値と共にブロック状態フラグを維持する。
このようなブロック状態フラグが設定されると、そのタスクは以降は実行可能ではなく、タスクスケジューリング装置は、ブロック状態フラグがリセットされるまでは、以降のgettask要求においてそのタスクを再び発行することはない。このメカニズムにより、タスクスケジューリング装置は、プロセッサのストリームI/O選択またはパケットサイズがデータ依存でありスケジューラよって予測することができない場合に進行することのできるタスクを選択することができる。
getspace要求が失敗した後、そのアクティブタスクは、より少ない数のバイトの第二のgetspace問い合わせを発行して、それによってブロック状態フラグをリセットすることができる。ブロックされているストリーム用のスペースが外部の「putspace」によって増すと、シェルがブロック状態フラグをクリアする。
タスクの実行可能性は、そのタスクに対する利用可能な作業負荷に基づく。少なくとも1つの処理ステップを完了させることができるためには、タスクに関連付けられているすべてのストリームが、十分な入力データまたは出力空間を持つ必要がある。シェルは、タスクスケジューリング装置を含めて、メディアデータを解釈せず、データパケットを認識しない。データパケットのサイズは、タスクごとに可変であり、パケットサイズがデータ依存である場合がある。従って、スケジューラは、getspaceアクションの成功を保証するための十分な情報を持たない。なぜなら、そのタスクがどのストリーム上にどのくらいのスペースを要求するかが不明であるためである。
スケジューリング装置は、タスクの実行に対してどのくらいの量のスペースが利用可能であるかまたは必要であるかに関係なく、関連付けられているすべてのストリームに対して少なくともいくらかの利用可能な作業負荷を有するタスク(すなわちスペース > 0)を選択することによって、「最良の推測」を発行する。1つの処理ステップを完了させるのに十分な量には関係なく、いくらかのデータ、またはバッファ内の利用可能な空間があるかをチェックすることは、−消費側タスクと生産側タスクが、同じ粒度において同期する−場合には、少なくとも1つの処理ステップの実行には充分である。従って、データまたは空間が利用可能である場合、これは、少なくとも、1つの処理ステップの実行に必要なデータまたは空間の量となる。消費側タスクと生産側タスクは、操作の同じ論理単位、すなわち処理ステップの同じ粒度で動作する。例えば、バッファ内にいくらかの、しかし不十分なデータがある場合、このことは、生産側タスクが現在アクティブであることと、タスク切り替えを実行する代わりに消費側タスクが待つことができるだけ十分に早く不足データが到着することとを示している。
入力または出力ストリームの選択は、処理されているデータに依存することがある。このことは、タスクに関連付けられているストリームのいくつかに対してスペース = 0である場合でも、そのタスクがこれらのストリームにアクセスしなければ、そのタスクは依然として実行可能であることを意味する。従って、スケジューラは、各ストリームのスケジュールフラグを考慮する。偽のスケジュールフラグは、タスクがそのストリームにアクセスするか否かが不明であることと、スケジューラはそのストリームに対してスペース > 0の実行可能性テストを省略しなければならないこととを示す。しかしながら、そのタスクが選択されてその後にそのストリームにおける利用できないデータまたは空間によってブロック状態になる場合には、ブロック状態フラグが設定される。ブロック状態フラグを設定することにより、ブロック状態のストリームも少なくともいくらかの利用可能なスペースを持つまでは、スケジューリング装置がそのタスクを再び選択しないことが保証される。
スケーラブルなシステムのためには、プロセッサはできるだけ自立的である必要がある。この目的のため、非同期型かつ分散型のタスクスケジューリング装置が採用され、各プロセッサシェルは自身のタスクスケジューリング装置を持つ。プロセッサは弱く結合されており、すなわち、バッファが橋渡しすることのできるタイムスケールの中では、1つのプロセッサ上のタスクのスケジューリングが、別のプロセッサ上のタスクの瞬間的なスケジューリングと無関係である。バッファが橋渡しできる以上のタイムスケールでは、異なるプロセッサ上のタスクのスケジューリングは、共有されているバッファにおけるデータストリームの同期によって結合されている。
図2によるシステムアーキテクチャは、相対的に高いパフォーマンスの高データスループットのアプリケーションをサポートする。ストリームのFIFOバッファを含むオンチップメモリのサイズが限られているため、高いデータ同期速度とタスク切り替え速度とが必要である。プリエンプティブスケジューリングの割り込み駆動式のタスク切り替えを使用しない場合、十分に粒度の細かいタスク切り替えを可能にするためには、処理ステップの持続時間を短く維持する必要がある。プロセッサとシェルの間のインタフェースは、これらの要件に対応できるだけの非常に高いタスク切り替え速度を可能とし、主CPUからの介入の必要なしにローカルかつ自立的に実装することができる。gettask呼び出しは、10〜1000クロックサイクルごとに1回の割合で実行されることが好ましく、これはマイクロ秒のオーダーの処理ステップの持続時間に対応する。
図3は、図2によるデータ処理システムに基づく、好ましい実施例によるタスクスケジューリングプロセスのフローチャートである。しかしながら、この実施例においては、シェル22の中に読み取り/書き込み装置と同期装置が存在している必要はない。
このタスクスケジューリングプロセスは、ステップS1において、プロセッサ12aがそのシェル22a内のスケジューリング装置に送られるgettask呼び出しを実行することによって開始される。シェル22aのスケジューリング装置は、このgettask呼び出しを受け取り、タスクの選択を開始する。ステップS2において、タスクスケジューリング装置は、現在のタスクが依然として実行可能であるか、すなわち実行することができるかを確定する。タスクを実行することができるのは、入力ストリーム内にデータがあり、かつ利用可能な出力ストリーム内に空間があるときである。タスクスケジューリング装置は、現在のタスクの運用中の割当量が0より大きいかをさらに確定する。現在のタスクが実行可能であり、かつその運用中の割当量が0より大きい場合には、タスクスケジューリング装置は、ステップS3において、現在のタスクのtask_IDを、関連付けられているプロセッサ12aに戻し、プロセッサ12aが現在のタスクの処理を続行すべきことを示す。次いで、プロセッサ12aは、次のgettask呼び出しの発行まで、現在のタスクの処理を続行する。
しかしながら、運用中の割当量が0である場合、または、例えば、入力ストリーム内にデータの不足に起因して現在のタスクが実行可能でない場合は、フローはステップS4に飛ぶ。このステップにおいては、タスクスケジューリング装置は、プロセッサ12aによって次に処理されるべきタスクを選択しなければならない。タスクスケジューリング装置は、実行可能タスクのリストからラウンドロビンの順序で次のタスクを選択する。ステップS5において、次のタスクの運用中の割当量が、タスクテーブルからの対応する設定パラメータに設定され、ステップS6において、そのタスクのtask_IDがプロセッサ12aに戻される。次いで、プロセッサ12aは、次のgettask呼び出しの発行まで、次のタスクの処理を開始する。
次のタスクの実際の選択について、以下にさらに詳しく説明する。このタスク選択は、スケジューリング装置がプロセッサ12aからgettask呼び出しを受け取った時点でただちに行うか、または、スケジューリング装置がgettask呼び出しを受け取った時点で、選択の結果、すなわち次のタスクがすでに用意されているように、従ってプロセッサがgettask呼び出しの戻り値を待つ必要がないように、次のgettask呼び出しを受け取る前にスケジューリング装置が開始することができる。後者が可能であるのは、プロセッサ12aがgettask呼び出しを定期的な間隔で発行し、この間隔が処理ステップであるためである。
シェル22a, 22bのスケジューリング装置は、ストリームテーブルとタスクテーブルとを有することが好ましい。スケジューリング装置は、関連付けられているプロセッサ12a, 12bにマッピングされている異なるタスクを構成設定および管理するためにタスクテーブルを使用する。これらのローカルテーブルには、高速にアクセスすることができる。このテーブルは、各タスクの一連のフィールドを含んでいる。好ましくは、このテーブルは、タスクに関連付けられている第一ストリームへのストリームテーブル内のインデックスと、タスクが実行を許可されておりかつ必要な利用可能リソースを持つかを示すイネーブルビットと、タスクスケジューリング装置をパラメータ化するためとタスク間で処理上の公正さを確保するための割当量フィールドとを含む。
タスクスケジューリング装置は、ストリームテーブル内の全ストリームを1つずつ繰り返し検査して、これらが実行可能かを確定する。ストリームが実行を許可されている、すなわち実行可能であるとみなされるのは、ストリームが0でないスペースを含んでいる場合か、または、そのスケジュールフラグが設定されておらずかつブロック状態フラグが設定されていない場合である。この後、タスクスケジューリング装置は、タスクテーブル内の全タスクについて、これらが実行可能であるか1つずつ検査する。タスクが実行可能であるとみなされるのは、関連付けられているストリームすべてが実行可能であり、かつタスクのイネーブルフラグが設定されている場合である。タスクスケジューリング装置の次のステップは、このタスクテーブルから実行可能タスクのうちの1つを選択することであり、このタスクはプロセッサ12aによって次に処理されるべきタスクである。
個々のプロセスでは、シェル22a, 22b内のクロック分周器によって定義される各タイムスライスごとに、運用中の割当量がデクリメントされる。
シェルは、タスクスケジューリング装置を専用ハードウェアの中に実装している。なぜならソフトウェア実装にはタスク切り替え速度が高すぎるためである。タスクスケジューリング装置は、gettask要求への回答を数クロックサイクル以内に供給しなければならない。
タスクスケジューリング装置は、新しいタスクの提案をバックグラウンドプロセスにおいて準備しておき、gettask要求が到着したときにただちにこの提案を利用可能とすることもできる。さらに、各タスクがプロセッサ上にスケジューリングされている持続時間を制御するために、タスクスケジューリング装置は「運用中の割当量」カウンタを追跡する。
タスク選択は、バッファの実際のステータスに関して後ろに遅れることができる。アクティブタスクのみがストリームバッファ内のスペースを減少させ、外部のすべての同期putspaceメッセージがバッファ内のスペースを増大させる。従って、実行する準備ができているタスクは、外部の同期メッセージがバッファスペースの値を更新している間、実行可能のままである。従って、スケジューラをプルメカニズム(pull mechanism)として実装することができる。この場合、スケジューラはストリームテーブル内を周期的にループし、入力される同期メッセージに関係なく各タスクの実行可能性のフラグを更新する。スケジューリングと同期とがこのように分離されていることにより、タイムクリティカル性の低いスケジューラを実装し、同時に、同期コマンドの待ち時間を最小にすることができる。
gettask要求は、データのブロッキングに起因して処理ステップが時期尚早に終了したときにプロセッサによって設定される「active_blocked」フラグを含むこともできる。このフラグが設定されると、アクティブタスクの「実行可能」ステータスがただちにクリアされる。この迅速なフィードバックは、スケジューラのプロセスにおける待ち時間を補正し、スケジューラは異なるタスクにただちに応答することができる。
本発明の好ましい実施例によるシステムアーキテクチャは、リアルタイム挙動と動的挙動とを合わせ持つ一連のメディアアプリケーション間で計算ハードウェアを再利用するための、費用効果の高いスケーラブルな解決策を提供する。各プロセッサシェル内のタスクスケジューリング装置は、利用可能な作業負荷を観察し、データ依存性の挙動を認識し、その一方で、各タスクに最小の計算割当量と最大のスリープタイムとを保証する。シェルのハードウェア実装によって、非常に高いタスク切り替え速度がサポートされる。スケジューリングは分散される。各プロセッサのタスクは、それぞれのシェルによって独立してスケジューリングされる。
図4は、読み取りおよび書き込み操作とそれに関連付けられている同期操作のプロセスの図解を描いている。プロセッサの観点からは、データストリームは、現在のアクセスポイントを持つ無限のデータテープのように見える。プロセッサから発行されたgetspace呼び出しは、図4aの小さな矢印によって描かれている現在のアクセスポイントより先の特定のデータスペースへのアクセスの許可を求める。この許可が認められる場合、プロセッサは、要求されたスペース、すなわち図4bにおける枠型ウィンドウの内側で、引数n_bytesによって示されている可変長データを使用して、引数offsetによって示されているランダムなアクセス位置において、読み取りおよび書き込みアクションを実行することができる。
許可が認められない場合には、この呼び出しは偽を戻す。1つ以上のgetspace呼び出し(およびオプションとしていくつかの読み取り/書き込みアクション)の後、プロセッサは、その処理、またはデータスペースのいくらかの部分について完了することを決定し、putspace呼び出しを発行することができる。この呼び出しにより、アクセスポイントが、特定のバイト数だけ、すなわち図4dにおいてはn_bytes2だけ前に進み、このサイズは前に認められたスペースによって制約されている。
図4は、循環的なFIFOメモリの図解を描いている。データストリームを伝達するにはFIFOバッファが必要であり、FIFOバッファは有限かつ一定のサイズであることが好ましい。好ましくは、このバッファは、メモリ内に事前に割り当てられており、リニアメモリのアドレス範囲内で正しいFIFO挙動を得るため、循環的なアドレス指定メカニズムが適用される。
図4の中央における回転矢印50は、プロセッサからのgetspace呼び出しが、読み取り/書き込み用に認められたウィンドウを確認する方向を描いており、これは、putspace呼び出しによってアクセスポイントが先に移動する方向と同じである。小さな矢印51, 52は、タスクAおよびBの現在のアクセスポイントを示す。この例においては、Aはライターであり、従って適切なデータを後に残すのに対し、Bはリーダーであり、空のスペース(または意味のない屑)を後に残す。各アクセスポイントより先の斜線領域(A1, B1)は、getspace操作を通じて取得されたアクセスウィンドウを示す。
タスクAおよびBは、マルチタスキングに起因して、異なる速度で進む、および/または、ある期間について処理されないことがある。シェル22a, 22bは、AおよびBが実行されるプロセッサ12a, 12bに、AおよびBのアクセスポイントがそれぞれの順序付けを確実に維持するための、より厳密には、認められるアクセスウィンドウが絶対に重ならないようにするための情報を提供する。シェル22a, 22bによって提供されたこの情報を使用して、この機能全体としての正確性が達成されるようにすることは、プロセッサ12a, 12bの責任である。例えば、シェル22a, 22bが、プロセッサからのgetspace要求に対して、例えば、バッファ内の利用可能なスペースが不十分であるために、場合によっては偽と回答することがある。その場合、プロセッサは、拒否されたアクセス要求に従って、そのバッファへのアクセスを控えるべきである。
シェル22a, 22bは分散されており、従って、それぞれのシェルは、自身に関連付けられているプロセッサ12a, 12bの近くに実装することができる。各シェルは、そのプロセッサにマッピングされているタスクに付帯するストリームの構成設定データをローカルに含んでおり、このデータを正しく扱うための制御ロジックすべてをローカルに実装している。従って、各ストリームの、言い換えれば各アクセスポイントの一連のフィールドを含んでいるローカルストリームテーブルが、シェル22a, 22bの中に実装されている。
図4の手順構成を処理するために、タスクAおよびBのプロセッサシェル22a, 22bのストリームテーブルそれぞれは、自身のアクセスポイントからこのバッファ内の別のアクセスポイントの方向への(おそらくは悲観的な)距離を含む「space」フィールドと、このバッファ内のその別のアクセスポイントのタスクとポートを持つリモートシェルを表すIDとを保持している、1行を含んでいる。さらに、このローカルのストリームテーブルは、現在のアクセスポイントに対応するメモリアドレスと、アドレスのインクリメントをサポートするための、バッファのベースアドレスおよびバッファのサイズのコーディングを含むことができる。
これらのストリームテーブルは、シェル22のそれぞれの中の小さなメモリ内にマッピングされている(レジスタファイルに似た)メモリであることが好ましい。従って、getspace呼び出しに対し、要求されたサイズとローカルに格納されている利用可能なスペースとを比較することによって、ただちにかつローカルに回答することができる。putspace呼び出し時、このローカルスペースのフィールドは、指示された量だけデクリメントされ、前のアクセスポイントを保持する別のシェルには、そのスペース値をインクリメントする目的でputspaceメッセージが送られる。これに対応して、シェル22は、リモート発信元からのこのようなputメッセージを受け取った時点で、ローカルフィールドをインクリメントする。シェル間でのメッセージの転送には時間がかかるため、両方のスペースフィールドの合計が全体のバッファサイズに達する必要がなく、かつ悲観的な値を瞬間的に含む場合が起こることがある。しかしながら、このことは同期の安全性に違反しない。例外的な状況においては、複数のメッセージが現時点で送り先までの途中にあり、正しくない順序で処理されることがあるが、たとえこの場合にも、同期は正しいままである。
図5は、各シェル内でローカルスペース値を更新して「putspace」メッセージを送るメカニズムを示す。この配置構成においては、プロセッサ12a, 12bからのgetspace要求、すなわちgetspace呼び出しに対して、関連付けられているシェル22a, 22bにおいて、要求されたサイズとローカルに格納されているスペースの情報とを比較することによって、ただちにかつローカルに回答することができる。putspace呼び出し時、ローカルシェル22a, 22bは、スペースのフィールドを、指示された量だけデクリメントし、putspaceメッセージをリモートシェルに送る。リモートシェル、すなわちもう1つのプロセッサのシェルは、別のアクセスポイントを保持しており、そのスペース値をインクリメントする。これに対応して、ローカルシェルは、リモートの発信元からのこのようなputspaceメッセージを受け取った時点で、そのスペースフィールドをインクリメントする。
アクセスポイントに属すスペースフィールドは、2つの発信元によって修正される、すなわち、ローカルなputspace呼び出し時にデクリメントされ、putspaceメッセージの受け取り時にインクリメントされる。このようなインクリメントまたはデクリメントが自動的な操作として実施されない場合、これによって誤った結果につながることがある。このような場合には、それぞれが1つの発信元のみによって更新される、個別のローカルスペースフィールドおよびリモートスペースフィールドを使用することができる。この場合には、ローカルなgetspace呼び出し時、これらの値が減じられる。シェル22は、自身のローカルテーブルの更新を常に制御しており、これらの更新を自動的に実行する。このことは、明らかにシェルの実装の問題に過ぎず、外部の機能からは見えない。
getspace呼び出しが偽を戻す場合には、プロセッサは、それに対する挙動を自由に決定することができる。可能な挙動は、a)プロセッサは、より小さい引数n_bytesを使用して新しいgetspace呼び出しを発行する、b)プロセッサは、しばらく待ってから、再試行する、c)プロセッサは、現在のタスクを終了して、自身の別のタスクを進行させる、である。
これにより、タスク切り替えの決定を、より多くのデータが到着する予測時刻と、状態を保存するためのコストをかけて内部的に蓄積される状態の量とに依存して行うことができる。プログラム可能でない専用ハードウェアプロセッサの場合には、この決定は、アーキテクチャの設計プロセスの一部である。状態の保存と回復は、タスクスケジューラではなくプロセッサの責任である。プロセッサは、状態の保存と回復を様々な方法において実装することができ、例えば、次のとおりである。
− プロセッサは、自身にローカルな各タスク用の明示的な状態メモリを持つ。
− プロセッサは、getspace、read、write、およびputspaceプリミティブを使用して、共有されているメモリに状態を保存および回復する。
− プロセッサは、プロセッサとシェルの間のインタフェースとは別のインタフェースを介して、外部のメモリに状態を保存および回復する。
シェル22の実装と操作によって、読み取りポートと書き込みポートの間に違いが生じることはないが、特定の具体化によってこの違いが生じることがある。シェル22によって実施される操作は、実装上の側面、例えば、FIFOバッファのサイズ、メモリ内のその位置、メモリバウンド的な循環的FIFOのアドレスに関するラップアラウンドメカニズム、キャッシング方式、キャッシュコヒーレンシ、グローバルなI/O配列の制限、データバスの幅、メモリ配列の制約、通信ネットワークの構造、メモリ編成などを実質的に隠す。
シェル22a, 22bは、未フォーマットのバイト列に対して動作する。データストリームを伝達するライターとリーダーによって使用される同期パケットのサイズの間に、何らの相関性は必要ない。データの内容の意味論的な解釈は、プロセッサに任される。タスクは、アプリケーショングラフに付帯する構造、例えば、自身が通信している相手のタスク、自身がマッピングされているプロセッサ、同じプロセッサにマッピングされている他のタスクなどは認識しない。
シェル22の高パフォーマンスの実装においては、read呼び出し、write呼び出し、getspace呼び出し、およびputspace呼び出しは、シェル22a, 22bの読み取り/書き込み装置と同期装置とを介して平行に発行することができる。シェル22の異なるポートに作用する呼び出しには、相互順序の制約がないが、シェル22の同じポートに作用する呼び出しは、呼び出し側のタスクまたはプロセッサに従って順序付けされなくてはならない。このような場合、プロセッサからの次の呼び出しは、前の呼び出しが戻るときに、すなわちソフトウェア実装においては機能呼び出しから戻ることによって、ハードウェア実装においてはアクノリッジ信号を供給することによって、開始することができる。
read呼び出しにおけるサイズの引数、すなわちn_bytesの0値は、メモリからシェルキャッシュへの、引数port_IDとoffsetによって示される位置におけるデータのプリフェッチを実行するために、予約しておくことができる。このような操作は、シェルによって実行される自動的なプリフェッチのために使用することができる。同様に、write呼び出しにおける0値は、キャッシュフラッシュ要求用に予約しておくことができるが、自動的なキャッシュフラッシュは、シェルの責任である。
オプションとして、5つのすべての操作は、さらなる最後の引数task_IDを受け取る。これは、通常、それより前のgettask呼び出しからの結果の値として取得される小さな正の数である。この引数の0値は、タスクに固有ではなくプロセッサ制御に関連する呼び出し用に予約される。
図2と図3による好ましい実施例に基づく別の実施例においては、機能に固有な専用プロセッサを、プログラム可能なプロセッサに置き換えて、好ましい実施例のそれ以外の特徴は同じままにすることができる。このプログラム可能なプロセッサ上に実装されているプログラムによって、各プロセッサは、ストリーム処理の限られた範囲を実行するように特殊化される。各プロセッサは、そのプログラミングによって、ストリームの連続的なデータオブジェクトに同じ処理操作を繰り返し適用するように構成されている。タスクスケジューラも、関連付けられているプロセッサ上で実行することのできるソフトウェアに実装されていることが好ましい。
先行技術による、アプリケーションからプロセッサへのマッピングの図解である。 ストリームベースの処理システムのアーキテクチャの概略的なブロック図である。 好ましい実施例によるタスク切り替えプロセスのフローチャートである。 図2のシステムにおける同期操作とI/O操作の図解である。 図2による各シェルにおいてローカルスペース値を更新するメカニズムである。
符号の説明
1 計算層
2 通信サポート層
3 通信ネットワーク層
11 CPU
12a、12b プロセッサ
21、22a、22b シェル
31 通信ネットワーク
32 メモリ

Claims (47)

  1. − データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサが、データオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡すように構成されており、当該第二プロセッサが、第一および第二タスクをインターリーブ式に処理することのできるマルチタスキングプロセッサであり、当該第一および第二タスクが、それぞれ、データオブジェクトの第一および第二ストリームを処理する、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、
    − 通信ネットワークと、
    − 当該第二プロセッサのそれぞれのためのタスクスケジューリング手段であって、当該タスクスケジューリング手段が、当該第二プロセッサと当該通信ネットワークの間に作動的に配置されている、前記タスクスケジューリング手段と、
    を有する、データ処理システムであって、
    当該第二プロセッサのそれぞれの前記タスクスケジューリング手段が、当該第二プロセッサの前記タスクスケジューリングを制御する、
    データ処理システム。
  2. 当該第二プロセッサが、タスクごとに複数の入力および出力ストリームおよび/または複数のストリームを処理するように構成されている、請求項1に記載のデータ処理システム。
  3. 当該タスクスケジューリング手段が、当該第二プロセッサによって処理される次のタスクを、当該第二プロセッサからの要求を受け取った時点で確定し、かつ、当該次のタスクの識別情報を当該第二プロセッサに転送するように適合化されており、
    当該第二プロセッサが、次のタスクを連続的な間隔で要求し、当該間隔が、当該第二プロセッサの前記処理ステップに相当する、
    請求項1に記載のデータ処理システム。
  4. 当該第二プロセッサとそれらの関連付けられているタスクスケジューリング手段の間の前記通信が、マスター/スレーブ通信であり、当該第二プロセッサが、マスターとして機能する、
    請求項1に記載のデータ処理システム。
  5. 当該第二プロセッサが、一連のパラメータ化されたストリーム処理機能を実行する、機能に固有な専用プロセッサである、
    請求項1に記載のデータ処理システム。
  6. 当該タスクスケジューリング手段が、
    − 前記関連付けられているプロセッサにマッピングされている前記タスクに関連付けられている各ストリームのパラメータを格納するためのストリームテーブルであって、当該ストリームテーブルが、ストリームごとの様々な管理データを含んでいる、前記ストリームテーブル、および/または、
    − 当該第二プロセッサに関連付けられている前記異なるタスクを管理するためのタスクテーブルであって、当該タスクテーブルが、どのストリームが当該タスクに関連付けられているかを示す前記ストリームテーブルへのインデックス、前記タスクが実行を許可されているかを示す各タスクのイネーブルフラグ、および/または、各タスクの利用可能な処理割当量を示す割当量カウンタを含んでいる、前記タスクテーブル、
    を有する、請求項1に記載のデータ処理システム。
  7. 当該ストリームテーブルが、読み取りのための有効なデータの量、書き込みのための利用可能な空間の量、実行中のタスクが当該ストリームに対する読み取りまたは書き込み時にブロックされているかに関する情報、および/または、当該ストリームをタスクに関係付ける構成設定情報、を含んでいる、
    請求項6に記載のデータ処理システム。
  8. 当該タスクスケジューリング手段が、当該ストリームテーブル内のすべてのストリームをチェックし、かつ、当該ストリームのうちのどのストリームがタスクの進行を許可するかを確定するように適合化されており、
    a)前記ストリームが読み取りのための有効なデータまたは書き込みのための利用可能な空間を持つ場合、b)前記タスクが、前記ストリームにおいて利用可能である以上の有効なデータまたはスペースを要求しなかった場合、および/または、c)オプションa)およびb)がタスクの進行に無関係であるものとして構成設定されている場合、にストリームが進行を許可する、
    請求項6に記載のデータ処理システム。
  9. 当該タスクスケジューリング手段が、当該タスクテーブル内のすべてのタスクをチェックし、かつ、当該タスクのうちのどのタスクが実行を許可されるかを確定するように適合化されており、
    当該タスクに関連付けられている前記ストリームのすべてがタスクの進行を許可し、かつ前記タスクが実行可能と構成設定されている場合に、タスクが実行を許可される、
    請求項6または8に記載のデータ処理システム。
  10. 当該タスクスケジューリング手段が、構成設定されている複数のタスクから1つのタスクを、前記次に処理されるタスクとして選択するように適合化されている、
    請求項6、7、8、または9に記載のデータ処理システム。
  11. 当該タスクスケジューリング手段が、前記現在のタスクの前記リソース割当量を制御するための割当量カウンタ手段を有する、
    請求項1または9に記載のデータ処理システム。
  12. 当該タスクスケジューリング手段が、タスクごとのリソース割当量パラメータを利用するように適合化されており、当該リソース割当量パラメータが、プロセッサが前記関係付けられているタスクによって連続的に占有されている時間を制限する、
    請求項1または11に記載のデータ処理システム。
  13. 当該タスクスケジューリング手段が、前記現在のタスクの後に次に処理されるタスクを、当該第二プロセッサからの要求を受け取った時点で選択するように適合化されており、
    前記現在のタスクが依然として実行を許可されており、かつそのリソース割当量が使い果たされていない場合に、前記現在のタスクが続行を許可され、
    これ以外の場合には、当該タスクスケジューリング手段によって確定された次のタスクが、新しい現在のタスクとして選択される、
    請求項12に記載のデータ処理システム。
  14. 当該タスクスケジューリング手段が、実行を許可されている前記次のタスクをラウンドロビン順序にて選択するように適合化されている、
    請求項13に記載のデータ処理システム。
  15. 当該タスクスケジューリング手段が、選択された次のタスクの識別情報を当該第二プロセッサにただちに戻すことができるように、当該第二プロセッサが前記次のタスクを要求する前に、次に処理されるタスクを選択するように適合化されている、
    請求項1に記載のデータ処理システム。
  16. 当該割当量カウンタが、リアルタイムクロックに基づいてイベントによって更新される、
    請求項12、13、または14に記載のデータ処理システム。
  17. 当該タスクスケジューリング手段が、次のタスクが前記現在のタスクとなるように選択されたときに当該次のタスクの前記割当量を補充するように適合化されている、
    請求項12、13、または14に記載のデータ処理システム。
  18. 当該第二プロセッサが、一連のプログラム可能なパラメータ化されたストリーム処理機能を実行するプログラム可能なプロセッサである、
    請求項1に記載のデータ処理システム。
  19. データ処理システムのためのタスクスケジューラであって、当該システムが、
    − データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサが、データオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡すように構成されている、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、
    − 通信ネットワークと、
    − メモリと、
    を有する、データ処理システムのためのタスクスケジューラであって、
    − 前記タスクスケジューラが、当該第二プロセッサのうちの1つに関連付けられるように適合化されており、
    − 前記タスクスケジューラが、当該第二プロセッサと当該通信ネットワークの間に作動的に配置されているように適合化されており、かつ、
    − 前記タスクスケジューラが、当該関連付けられている第二プロセッサのタスクスケジューリングを制御するように適合化されている、
    データ処理システムのためのタスクスケジューラ。
  20. 当該タスクスケジューラが、当該第二プロセッサによって処理される次のタスクを、当該第二プロセッサからの要求を受け取った時点で確定し、かつ、当該次のタスクの識別情報を当該第二プロセッサに転送するように適合化されており、
    当該第二プロセッサが、次のタスクを所定の間隔で要求し、当該間隔が、当該第二プロセッサの前記処理ステップに相当する、
    請求項19に記載のタスクスケジューラ。
  21. − 前記関連付けられているプロセッサにマッピングされている前記タスクに関連付けられている各ストリームのパラメータを格納するためのストリームテーブルであって、当該ストリームテーブルが、ストリームごとの様々な管理データを含んでいる、ストリームテーブル、および/または、
    − 当該第二プロセッサに関連付けられている前記異なるタスクを管理するためのタスクテーブルであって、当該タスクテーブルが、どのストリームが当該タスクに関連付けられているかを示す前記ストリームテーブルへのインデックス、前記タスクが実行を許可されているかを示す各タスクのイネーブルフラグ、および/または、各タスクの利用可能な処理割当量を示す割当量カウンタを含んでいる、タスクテーブル、
    をさらに有する、請求項19に記載のタスクスケジューラ。
  22. 当該ストリームテーブルが、読み取りのための有効なデータの量、書き込みのための利用可能な空間の量、実行中のタスクが当該ストリームに対する読み取りまたは書き込み時にブロックされているかに関する情報、および/または、当該ストリームをタスクに関係付ける構成設定情報、を含んでいる、
    請求項19に記載のタスクスケジューラ。
  23. 当該ストリームテーブル内のすべてのストリームをチェックし、かつ、当該ストリームのうちのどのストリームがタスクの進行を許可するかを確定するように適合化されており、
    a)前記ストリームが読み取りのための有効なデータまたは書き込みのための利用可能な空間を持つ場合、b)前記タスクが、前記ストリームにおいて利用可能である以上の有効なデータまたはスペースを要求しなかった場合、および/または、c)オプションa)およびb)がタスクの進行に無関係であるものとして構成設定されている場合、にストリームが進行を許可する、
    請求項21に記載のタスクスケジューラ。
  24. 当該タスクテーブル内のすべてのタスクをチェックし、かつ、当該タスクのうちのどのタスクが実行を許可されるかを確定するように適合化されており、
    当該タスクに関連付けられている前記ストリームのすべてがタスクの進行を許可し、かつ前記タスクが実行可能と構成設定されている場合に、タスクが実行を許可される、
    請求項21または23に記載のタスクスケジューラ。
  25. 前記現在のタスクの後に次に処理されるタスクを、当該第二プロセッサからの要求を受け取った時点で選択するように適合化されており、
    前記現在のタスクが依然として実行を許可されており、かつ当該タスクテーブル内の割当量カウンタが0でない場合に、前記現在のタスクが続行を許可され、
    これ以外の場合には、当該タスクスケジューリング手段によって確定された次のタスクが現在のタスクとして選択され、かつ、前記割当量カウンタがリセットされる、
    請求項24に記載のタスクスケジューラ。
  26. 構成設定されている複数のタスクから1つのタスクを、前記次に処理されるタスクとして選択するように適合化されている、
    請求項21、22、23、または24に記載のタスクスケジューラ。
  27. 前記現在のタスクの前記リソース割当量を制御するための割当量カウンタ手段、
    を有する、請求項19または24に記載のタスクスケジューラ。
  28. タスクごとのリソース割当量パラメータを利用するように適合化されており、当該リソース割当量パラメータが、プロセッサが前記関係付けられているタスクによって連続的に占有されている時間を制限する、
    請求項19または27に記載のタスクスケジューラ。
  29. 前記現在のタスクの後に次に処理されるタスクを、当該第二プロセッサからの要求を受け取った時点で選択するように適合化されており、
    前記現在のタスクが依然として実行を許可されており、かつそのリソース割当量が使い果たされていない場合に、前記現在のタスクが続行を許可され、
    これ以外の場合には、当該タスクスケジューリング手段によって確定された次のタスクが、新しい現在のタスクとして選択される、
    請求項28に記載のタスクスケジューラ。
  30. 当該タスクスケジューリング手段が、実行を許可されている前記次のタスクをラウンドロビン順序にて選択するように適合化されている、
    請求項29に記載のタスクスケジューラ。
  31. 次のタスクが前記現在のタスクとなるように選択されたときに当該次のタスクの前記割当量を補充するように適合化されている、
    請求項28、29、または30に記載のタスクスケジューラ。
  32. データ処理システムにおけるタスクスケジューリングのための方法であって、当該システムが、
    − データオブジェクトのストリームを処理するための第一プロセッサおよび少なくとも1つの第二プロセッサであって、当該第一プロセッサがデータオブジェクトのストリームからのデータオブジェクトを前記第二プロセッサに渡すように構成されている、前記第一プロセッサおよび少なくとも1つの第二プロセッサと、
    − 通信ネットワークと、
    を有する、タスクスケジューリングのための方法であって、
    当該システムが、当該第二プロセッサのそれぞれのためのタスクスケジューラを有し、これによって、
    前記タスクスケジューラが、当該第二プロセッサの前記タスクスケジューリングを制御する、
    タスクスケジューリングのための方法。
  33. − 当該第二プロセッサによって処理される次のタスクを、当該第二プロセッサからの要求を受け取った時点で確定するステップと、
    − 当該次のタスクの識別情報を当該第二プロセッサに転送するステップと、
    をさらに有する、請求項32に記載のタスクスケジューリングのための方法であって、
    当該第二プロセッサが、次のタスクを連続的な間隔で要求し、当該間隔が、当該第二プロセッサの前記処理ステップに相当する、
    タスクスケジューリングのための方法。
  34. 当該第二プロセッサとそれらの関連付けられているタスクスケジューリング手段の間の前記通信が、マスター/スレーブ通信であり、当該第二プロセッサが、マスターとして機能する、
    請求項32に記載のタスクスケジューリングのための方法。
  35. − 前記関連付けられているプロセッサにマッピングされている前記タスクに関連付けられている各ストリームのパラメータをストリームテーブルに格納するステップであって、当該ストリームテーブルが、ストリームごとの様々な管理データを含んでいる、ステップ、および/または、
    − 当該第二プロセッサに関連付けられている前記異なるタスクをタスクテーブルによって管理するステップであって、当該タスクテーブルが、どのストリームが当該タスクに関連付けられているかを示す前記ストリームテーブルへのインデックス、前記タスクが実行を許可されているかを示す各タスクのイネーブルフラグ、および/または、各タスクの利用可能な処理割当量を示す割当量カウンタを含んでいる、ステップと、
    をさらに有する、請求項32に記載のタスクスケジューリングのための方法。
  36. 当該ストリームテーブルが、読み取りのための有効なデータの量、書き込みのための利用可能な空間の量、実行中のタスクが当該ストリームに対する読み取りまたは書き込み時にブロックされているかに関する情報、および/または、当該ストリームをタスクに関係付ける構成設定情報、を含んでいる、
    請求項35に記載のタスクスケジューリングのための方法。
  37. 当該ストリームテーブル内のすべてのストリームをチェックし、かつ、当該ストリームのうちのどのストリームがタスクの進行を許可するかを確定するステップ、
    をさらに有する、請求項35に記載のタスクスケジューリングのための方法であって、
    a)前記ストリームが読み取りのための有効なデータまたは書き込みのための利用可能な空間を持つ場合、b)前記タスクが、前記ストリームにおいて利用可能である以上の有効なデータまたはスペースを要求しなかった場合、および/または、c)オプションa)およびb)がタスクの進行に無関係であるものとして構成設定されている場合、にストリームが進行を許可する、
    タスクスケジューリングのための方法。
  38. 当該タスクテーブル内のすべてのタスクをチェックし、かつ、当該タスクのうちのどのタスクが実行を許可されるかを確定するステップ、
    をさらに有する、請求項35または37に記載のタスクスケジューリングのための方法であって、
    当該タスクに関連付けられている前記ストリームのすべてがタスクの進行を許可し、かつ前記タスクが実行可能と構成設定されている場合に、タスクが実行を許可される、
    タスクスケジューリングのための方法。
  39. 構成設定されている複数のタスクから1つのタスクを、前記次に処理されるタスクとして選択するステップ、
    をさらに有する、請求項35、36、37、または38に記載のタスクスケジューリングのための方法。
  40. 前記現在のタスクの前記リソース割当量を制御するステップ、
    をさらに有する、請求項32または39に記載のタスクスケジューリングのための方法。
  41. タスクごとのリソース割当量パラメータを利用するステップであって、当該リソース割当量パラメータが、プロセッサが前記関係付けられているタスクによって連続的に占有されている時間を制限する、前記ステップ、
    をさらに有する、請求項32または40に記載のタスクスケジューリングのための方法。
  42. 前記現在のタスクの後に次に処理されるタスクを、当該第二プロセッサからの要求を受け取った時点で選択するステップ、
    をさらに有する、請求項41に記載のタスクスケジューリングのための方法であって、
    前記現在のタスクが依然として実行を許可されており、かつそのリソース割当量が使い果たされていない場合に、前記現在のタスクが続行を許可され、
    これ以外の場合には、当該タスクスケジューリング手段によって確定された次のタスクが、新しい現在のタスクとして選択される、
    タスクスケジューリングのための方法。
  43. 実行を許可されている前記次のタスクをラウンドロビン順序にて選択するステップ、
    をさらに有する、請求項42に記載のタスクスケジューリングのための方法。
  44. 選択された次のタスクの識別情報を当該第二プロセッサにただちに戻すことができるように、当該第二プロセッサが前記次のタスクを要求する前に、次に処理されるタスクを選択するステップ、
    をさらに有する、請求項32に記載のタスクスケジューリングのための方法。
  45. 当該割当量カウンタをリアルタイムクロックに基づいてイベントによって更新するステップ、
    をさらに有する、請求項41、42、または43に記載のタスクスケジューリングのための方法。
  46. 次のタスクが前記現在のタスクとなるように選択されたときに当該次のタスクの前記割当量を補充するステップ、
    をさらに有する、請求項41、42、または43に記載のタスクスケジューリングのための方法。
  47. 前記タスクスケジューラをプログラム可能な第二プロセッサ上に実装するステップ、
    をさらに有する、請求項1に記載のタスクスケジューリングのための方法。
JP2003553417A 2001-12-14 2002-12-05 複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法 Withdrawn JP2006515690A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP01204882 2001-12-14
PCT/IB2002/005199 WO2003052597A2 (en) 2001-12-14 2002-12-05 Data processing system having multiple processors and task scheduler and corresponding method therefore

Publications (1)

Publication Number Publication Date
JP2006515690A true JP2006515690A (ja) 2006-06-01

Family

ID=8181429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003553417A Withdrawn JP2006515690A (ja) 2001-12-14 2002-12-05 複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法

Country Status (6)

Country Link
US (1) US20050081200A1 (ja)
EP (1) EP1459179A2 (ja)
JP (1) JP2006515690A (ja)
CN (1) CN1602467A (ja)
AU (1) AU2002353280A1 (ja)
WO (1) WO2003052597A2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242948A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 情報処理装置および同装置の動作制御方法
JP2009116872A (ja) * 2007-11-08 2009-05-28 Internatl Business Mach Corp <Ibm> ネットワーク・オン・チップ(noc)上のソフトウェア・パイプライン化の方法、プログラムおよび装置
JP2009129447A (ja) * 2007-11-27 2009-06-11 Internatl Business Mach Corp <Ibm> デザイン構造、ネットワーク・オン・チップ(‘noc’)でのデータ処理方法、ネットワーク・オン・チップ、およびネットワーク・オン・チップでのデータ処理のためのコンピュータ・プログラム(パーティションを有するネットワーク・オン・チップのためのデザイン構造)
CN102750182A (zh) * 2012-06-12 2012-10-24 苏州微逸浪科技有限公司 一种基于自定义任务调度的主动采集的处理方法
US8726295B2 (en) 2008-06-09 2014-05-13 International Business Machines Corporation Network on chip with an I/O accelerator
US8843706B2 (en) 2008-05-01 2014-09-23 International Business Machines Corporation Memory management among levels of cache in a memory hierarchy
US8898396B2 (en) 2007-11-12 2014-11-25 International Business Machines Corporation Software pipelining on a network on chip

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7861246B2 (en) * 2004-06-17 2010-12-28 Platform Computing Corporation Job-centric scheduling in a grid environment
WO2006016283A2 (en) * 2004-08-06 2006-02-16 Koninklijke Philips Electronics N.V. Task scheduling using context switch overhead table
US8091088B2 (en) * 2005-02-22 2012-01-03 Microsoft Corporation Method and system for hierarchical resource management involving hard and soft resource limits
US9361156B2 (en) 2005-03-14 2016-06-07 2236008 Ontario Inc. Adaptive partitioning for operating system
US8387052B2 (en) 2005-03-14 2013-02-26 Qnx Software Systems Limited Adaptive partitioning for operating system
CA2538503C (en) * 2005-03-14 2014-05-13 Attilla Danko Process scheduler employing adaptive partitioning of process threads
US8245230B2 (en) 2005-03-14 2012-08-14 Qnx Software Systems Limited Adaptive partitioning scheduler for multiprocessing system
DE602006013128D1 (de) * 2005-06-15 2010-05-06 Solarflare Comm Inc Empfangen von daten gemäss eines datentransferprotokolls von daten, die ein beliebiges einer mehrzahl von empgangsgeräten gerichtet sind
US7877750B2 (en) * 2005-07-27 2011-01-25 Sap Ag Scheduled job execution management
US8130841B2 (en) * 2005-12-29 2012-03-06 Harris Corporation Method and apparatus for compression of a video signal
US8234623B2 (en) * 2006-09-11 2012-07-31 The Mathworks, Inc. System and method for using stream objects to perform stream processing in a text-based computing environment
CN101236513B (zh) * 2007-01-30 2012-07-18 阿里巴巴集团控股有限公司 一种分布式任务系统和分布式任务管理方法
US8413064B2 (en) * 2007-02-12 2013-04-02 Jds Uniphase Corporation Method and apparatus for graphically indicating the progress of multiple parts of a task
US7853950B2 (en) * 2007-04-05 2010-12-14 International Business Machines Corporarion Executing multiple threads in a processor
CN101349974B (zh) * 2007-07-16 2011-07-13 中兴通讯股份有限公司 一种分布式系统中提高多核cpu处理能力的方法
US8555282B1 (en) 2007-07-27 2013-10-08 Dp Technologies, Inc. Optimizing preemptive operating system with motion sensing
US8574393B2 (en) * 2007-12-21 2013-11-05 Tsinghua University Method for making touch panel
US8250396B2 (en) * 2008-02-01 2012-08-21 International Business Machines Corporation Hardware wake-and-go mechanism for a data processing system
US8171476B2 (en) * 2008-02-01 2012-05-01 International Business Machines Corporation Wake-and-go mechanism with prioritization of threads
US8612977B2 (en) * 2008-02-01 2013-12-17 International Business Machines Corporation Wake-and-go mechanism with software save of thread state
US8452947B2 (en) 2008-02-01 2013-05-28 International Business Machines Corporation Hardware wake-and-go mechanism and content addressable memory with instruction pre-fetch look-ahead to detect programming idioms
US8145849B2 (en) 2008-02-01 2012-03-27 International Business Machines Corporation Wake-and-go mechanism with system bus response
US8341635B2 (en) * 2008-02-01 2012-12-25 International Business Machines Corporation Hardware wake-and-go mechanism with look-ahead polling
US8516484B2 (en) * 2008-02-01 2013-08-20 International Business Machines Corporation Wake-and-go mechanism for a data processing system
US8788795B2 (en) * 2008-02-01 2014-07-22 International Business Machines Corporation Programming idiom accelerator to examine pre-fetched instruction streams for multiple processors
US8386822B2 (en) * 2008-02-01 2013-02-26 International Business Machines Corporation Wake-and-go mechanism with data monitoring
US8312458B2 (en) * 2008-02-01 2012-11-13 International Business Machines Corporation Central repository for wake-and-go mechanism
US8880853B2 (en) * 2008-02-01 2014-11-04 International Business Machines Corporation CAM-based wake-and-go snooping engine for waking a thread put to sleep for spinning on a target address lock
US8225120B2 (en) * 2008-02-01 2012-07-17 International Business Machines Corporation Wake-and-go mechanism with data exclusivity
US8640141B2 (en) * 2008-02-01 2014-01-28 International Business Machines Corporation Wake-and-go mechanism with hardware private array
US8725992B2 (en) 2008-02-01 2014-05-13 International Business Machines Corporation Programming language exposing idiom calls to a programming idiom accelerator
US8127080B2 (en) 2008-02-01 2012-02-28 International Business Machines Corporation Wake-and-go mechanism with system address bus transaction master
US8732683B2 (en) * 2008-02-01 2014-05-20 International Business Machines Corporation Compiler providing idiom to idiom accelerator
US8316218B2 (en) * 2008-02-01 2012-11-20 International Business Machines Corporation Look-ahead wake-and-go engine with speculative execution
US8276143B2 (en) * 2008-03-10 2012-09-25 Oracle America, Inc. Dynamic scheduling of application tasks in a distributed task based system
US8102552B2 (en) * 2008-04-03 2012-01-24 Sharp Laboratories Of America, Inc. Performance monitoring and control of a multifunction printer
US8392924B2 (en) * 2008-04-03 2013-03-05 Sharp Laboratories Of America, Inc. Custom scheduling and control of a multifunction printer
US9720729B2 (en) * 2008-06-02 2017-08-01 Microsoft Technology Licensing, Llc Scheduler finalization
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
US8250579B2 (en) * 2008-06-27 2012-08-21 Oracle America, Inc. Method for stage-based cost analysis for task scheduling
US8082315B2 (en) * 2009-04-16 2011-12-20 International Business Machines Corporation Programming idiom accelerator for remote update
US8886919B2 (en) * 2009-04-16 2014-11-11 International Business Machines Corporation Remote update programming idiom accelerator with allocated processor resources
US8230201B2 (en) * 2009-04-16 2012-07-24 International Business Machines Corporation Migrating sleeping and waking threads between wake-and-go mechanisms in a multiple processor data processing system
US8145723B2 (en) * 2009-04-16 2012-03-27 International Business Machines Corporation Complex remote update programming idiom accelerator
WO2011012157A1 (en) * 2009-07-28 2011-02-03 Telefonaktiebolaget L M Ericsson (Publ) Apparatus and method for processing events in a telecommunications network
CN104932946B (zh) * 2009-07-28 2022-01-25 瑞典爱立信有限公司 用于处理电信网络中的事件的设备和方法
EP2320327A1 (en) * 2009-11-09 2011-05-11 Imec A data transferring device
CN101794239B (zh) * 2010-03-16 2012-11-14 浙江大学 一种基于数据流模型的多处理器任务调度管理方法
US9547528B1 (en) * 2010-03-29 2017-01-17 EMC IP Holding Company LLC Pizza scheduler
CN102111451B (zh) * 2011-03-02 2014-03-19 上海市共进通信技术有限公司 基于反应堆模式的多任务处理方法
US9098331B2 (en) * 2011-06-29 2015-08-04 Telefonaktiebolaget L M Ericsson (Publ) Joint scheduling of multiple processes on a shared processor
CN102591623B (zh) * 2012-01-20 2014-04-02 周超勇 分布式模块间通信方法
US9229847B1 (en) 2012-04-18 2016-01-05 Open Invention Network, Llc Memory sharing for buffered macro-pipelined data plane processing in multicore embedded systems
CN104216785B (zh) * 2014-08-26 2017-10-10 烽火通信科技股份有限公司 通用策略任务系统及其实现方法
CN104484228B (zh) * 2014-12-30 2017-12-29 成都因纳伟盛科技股份有限公司 基于Intelli‑DSC的分布式并行任务处理系统
CN105528243B (zh) * 2015-07-02 2019-01-11 中国科学院计算技术研究所 一种利用数据拓扑信息的优先级分组调度方法及系统
US9940169B2 (en) 2015-07-23 2018-04-10 Pearson Education, Inc. Real-time partitioned processing streaming
FI127266B (en) * 2016-07-08 2018-02-28 Sarokal Test Systems Oy A system for processing data stream messages
CN113407633A (zh) * 2018-09-13 2021-09-17 华东交通大学 一种分布式数据源异构同步的方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1394431A (en) * 1971-06-24 1975-05-14 Plessey Co Ltd Multiprocessor data processing system
US4245306A (en) * 1978-12-21 1981-01-13 Burroughs Corporation Selection of addressed processor in a multi-processor network
US4905145A (en) * 1984-05-17 1990-02-27 Texas Instruments Incorporated Multiprocessor
US4816993A (en) * 1984-12-24 1989-03-28 Hitachi, Ltd. Parallel processing computer including interconnected operation units
US5517656A (en) * 1993-06-11 1996-05-14 Temple University Of The Commonwealth System Of Higher Education Multicomputer system and method
US5689431A (en) * 1995-04-18 1997-11-18 Leading Edge Technologies, Inc. Golf course yardage and information system
US5826081A (en) * 1996-05-06 1998-10-20 Sun Microsystems, Inc. Real time thread dispatcher for multiprocessor applications
US6243735B1 (en) * 1997-09-01 2001-06-05 Matsushita Electric Industrial Co., Ltd. Microcontroller, data processing system and task switching control method
US6438678B1 (en) * 1998-06-15 2002-08-20 Cisco Technology, Inc. Apparatus and method for operating on data in a data communications system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242948A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 情報処理装置および同装置の動作制御方法
JP2009116872A (ja) * 2007-11-08 2009-05-28 Internatl Business Mach Corp <Ibm> ネットワーク・オン・チップ(noc)上のソフトウェア・パイプライン化の方法、プログラムおよび装置
US8898396B2 (en) 2007-11-12 2014-11-25 International Business Machines Corporation Software pipelining on a network on chip
JP2009129447A (ja) * 2007-11-27 2009-06-11 Internatl Business Mach Corp <Ibm> デザイン構造、ネットワーク・オン・チップ(‘noc’)でのデータ処理方法、ネットワーク・オン・チップ、およびネットワーク・オン・チップでのデータ処理のためのコンピュータ・プログラム(パーティションを有するネットワーク・オン・チップのためのデザイン構造)
US8843706B2 (en) 2008-05-01 2014-09-23 International Business Machines Corporation Memory management among levels of cache in a memory hierarchy
US8726295B2 (en) 2008-06-09 2014-05-13 International Business Machines Corporation Network on chip with an I/O accelerator
CN102750182A (zh) * 2012-06-12 2012-10-24 苏州微逸浪科技有限公司 一种基于自定义任务调度的主动采集的处理方法

Also Published As

Publication number Publication date
WO2003052597A3 (en) 2004-05-13
AU2002353280A8 (en) 2003-06-30
CN1602467A (zh) 2005-03-30
EP1459179A2 (en) 2004-09-22
AU2002353280A1 (en) 2003-06-30
WO2003052597A2 (en) 2003-06-26
US20050081200A1 (en) 2005-04-14

Similar Documents

Publication Publication Date Title
JP2006515690A (ja) 複数のプロセッサを有するデータ処理システムと、複数のプロセッサを有するデータ処理システムのためのタスクスケジューラと、タスクスケジューリングの対応する方法
US8505012B2 (en) System and method for scheduling threads requesting immediate CPU resource in the indexed time slot
Van Tilborg et al. Foundations of real-time computing: Scheduling and resource management
US7373640B1 (en) Technique for dynamically restricting thread concurrency without rewriting thread code
KR100649107B1 (ko) 실시간 동작 수행방법 및 시스템
KR100628492B1 (ko) 실시간 동작 수행방법 및 시스템
WO2016183028A2 (en) Methods and architecture for enhanced computer performance
Pyarali et al. Evaluating and optimizing thread pool strategies for real-time CORBA
US20020103847A1 (en) Efficient mechanism for inter-thread communication within a multi-threaded computer system
CN107797848B (zh) 进程调度方法、装置和主机设备
WO2007084700A2 (en) System and method for thread handling in multithreaded parallel computing of nested threads
US10649914B1 (en) Scratchpad-based operating system for multi-core embedded systems
WO2003102758A1 (en) Method and apparatus for real-time multithreading
US20140068165A1 (en) Splitting a real-time thread between the user and kernel space
US20050066149A1 (en) Method and system for multithreaded processing using errands
US20230315526A1 (en) Lock-free work-stealing thread scheduler
CN111488210A (zh) 基于云计算的任务调度方法、装置和计算机设备
Andreoli et al. RT-MongoDB: A NoSQL database with differentiated performance
CN112306652A (zh) 带有上下文提示的功能的唤醒和调度
US9229716B2 (en) Time-based task priority boost management using boost register values
Al-Bayati et al. Partitioning and selection of data consistency mechanisms for multicore real-time systems
Al-Bayati et al. Task placement and selection of data consistency mechanisms for real-time multicore applications
EP3702911B1 (en) Hardware for supporting os driven load anticipation based on variable sized load units
Müller et al. MULTI SLOTH: An efficient multi-core RTOS using hardware-based scheduling
JP7346649B2 (ja) 同期制御システムおよび同期制御方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060801

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070712