JP5764265B2 - 複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワークを利用する回路装置、集積回路デバイス、プログラム製品および方法(複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワーク) - Google Patents

複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワークを利用する回路装置、集積回路デバイス、プログラム製品および方法(複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワーク) Download PDF

Info

Publication number
JP5764265B2
JP5764265B2 JP2014548257A JP2014548257A JP5764265B2 JP 5764265 B2 JP5764265 B2 JP 5764265B2 JP 2014548257 A JP2014548257 A JP 2014548257A JP 2014548257 A JP2014548257 A JP 2014548257A JP 5764265 B2 JP5764265 B2 JP 5764265B2
Authority
JP
Japan
Prior art keywords
variable
processing core
destination
transmission
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014548257A
Other languages
English (en)
Other versions
JP2015501056A (ja
Inventor
シアラー、ロバート
フーヴァー、ラッセル、ディーン
ワトソン、アルフレッド
コンパラン、ミゲル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2015501056A publication Critical patent/JP2015501056A/ja
Application granted granted Critical
Publication of JP5764265B2 publication Critical patent/JP5764265B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3824Operand accessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3824Operand accessing
    • G06F9/3826Bypassing or forwarding of data results, e.g. locally between pipeline stages or within a pipeline stage
    • G06F9/3828Bypassing or forwarding of data results, e.g. locally between pipeline stages or within a pipeline stage with global bypass, e.g. between pipelines, between clusters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3836Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
    • G06F9/3851Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution from multiple instruction streams, e.g. multistreaming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3885Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units
    • G06F9/3889Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units controlled by multiple instructions, e.g. MIMD, decoupled access or execute
    • G06F9/3891Concurrent instruction execution, e.g. pipeline or look ahead using a plurality of independent parallel functional units controlled by multiple instructions, e.g. MIMD, decoupled access or execute organised in groups of units sharing resources, e.g. clusters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Multi Processors (AREA)

Description

本発明は、一般的にデータ処理に関し、詳細には、プロセッサ・アーキテクチャおよびマルチスレッドに関する。
半導体技術がクロック速度の増加に関して実質的な限界に刻々と近づき続けているので、設計者は、性能改善を得るために、プロセッサのアーキテクチャにおける並列処理にますます着目している。集積回路デバイスまたはチップのレベルでは、複数の処理コアが同じチップ上に配設され、別個のプロセッサ・チップ、またはある程度までは完全に別個のコンピュータと、ほとんど同じように機能することがしばしばある。加えて、コア内部でさえ、一定のタイプの動作を取り扱うことに特殊化した複数の実行ユニットを使用することで、並列処理が採用されている。実施するのに複数のクロック・サイクルがかかる場合がある一定の動作をステージに分割し、前の動作が完了する前に他の動作が開始されることが可能になるように、パイプライン化も多くの例で採用されている。複数の命令ストリームが並列に処理されることを可能にし、全体としてより多くの仕事が任意の所与のクロック・サイクルで実施されることを可能にするために、マルチスレッドも採用されている。
上述の技法を適用することの最終結果は、ハードウェア・スレッドのプールが、1つまたは複数のプロセッサ・チップ内および1つまたは複数のコンピュータ内の1つまたは複数の処理コア間に分散されるマルチスレッド化した処理環境を提供することができることであって、複数の命令ストリームを並列に処理することができる。技術が高くなると、プロセッサ・アーキテクチャは、数百または数千のハードウェア・スレッドをサポートすることが可能となり、複数のプロセッサがスーパーコンピュータおよび超並列コンピュータなどの高性能コンピューティング・システムに組み合わされると、数百万のハードウェア・スレッドをサポートする潜在能力があることが予想される。
しかし、効果的な並列処理には、マルチスレッド化した処理環境で動作するソフトウェア・アプリケーションが、マルチスレッド化能力を適切に利用することが必要となる。ソフトウェア開発者は、典型的には、シングル・スレッド化されたアプリケーションを開発することがより楽である。というのは、シングル・スレッド化されたアプリケーションは、典型的には、所望のタスクを実施するのに必要なステップのシーケンスに従うからである。マルチスレッド化のサポートは、直感で理解できないことがしばしばあり、スレッド自体の仕事をスレッドが完了することができる前にスレッドが必要とする、他のスレッドが仕事を完了するのを待つことに費やす可能性のある頻度を最小化するために、コンフリクトおよび依存性を最小化するよう考察する必要がしばしばある。例えば、他のスレッドにより計算されている値の、いくつかの組の平均を計算することを1つのスレッドが必要とする場合、そのスレッドは、他のスレッドの全てがそれぞれの値を計算するまで、スレッドの動作を実施できないことになる。一方、完全に独立したタスクを実施するスレッドは、典型的には、依存性問題からは影響を受けない。そのため、マルチスレッド化したアプリケーションを開発することに関連する努力の多くは、スレッド間依存性が最小化するように、タスクを比較的独立したスレッドに分割することに捧げられている。
マルチスレッド化したアプリケーションを開発することに関連する難点があるので、マルチスレッド化したアプリケーションの開発を簡略化するための技法について、当技術分野で、かなりの必要性が存在してきた。例えば、シングル・スレッド化されたアプリケーション・コードをマルチスレッド化したアプリケーション・コードに、例えば最適化コンパイラを使用して、コンパイル期間にプログラムで変換するために、かなりの努力がなされてきた。例えば、1つの方法論では、細粒化並列処理が採用されて、命令ストリーム中の順序付けたコードを複数の小さな順序付けないコード・セグメントに変換し、命令が命令ストリーム中に挿入され、データをコード・セグメント間で変数の形で受け渡す。1つのタイプの命令は、「put」命令であり、これは、変数を別のスレッドに送る。別のタイプの命令は、「get」命令であり、これは、変数を別のスレッドから取り出す。これらの命令の使用を介して、特定の変数へのget文を発行したコード・セグメントを、別のコード・セグメントがその変数に対応するput命令を発行するまでストールすることにより、複数のスレッド上で実行するコード・セグメント間の同期を維持することができる。
put命令およびget命令の使用によって、異なるハードウェア・スレッド上で実行している依存性のあるコード・セグメント間の同期を効果的に維持することができる一方で、別のスレッドからの変数を待ってスレッドがストールしている全ての時間は、生産性が損失することを表しており、そのため、スレッド間での変数を通信することに関連する遅延を最小化することが望ましい。
したがって、スレッド間依存性についての遅延を最小化するため、マルチスレッド化した処理環境内の複数のスレッド間でデータを効果的に通信する方法について、当技術分野にかなりの必要性がある。
本発明は、マルチコア・プロセッサ・チップ内の複数の処理コアのレジスタ・ファイル間の低遅延変数伝達ネットワークを利用して、複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理をサポートする、方法および回路装置を提供することによって、従来技術に関連するこれらおよび他の問題に対処する。本発明のいつくかの実施形態では、変数伝達ネットワークを介する変数の通信は、送信元処理コアのレジスタ・ファイル中のローカル・レジスタから、送信先処理コア内の送信先ハードウェア・スレッドに割り振られる変数レジスタへの移動により開始され、その結果、次いで送信先ハードウェア・スレッドが、変数レジスタから送信先処理コア内のローカル・レジスタに変数を移動させることができる。
本発明の1つの態様に一致して、変数伝達ネットワークが複数の処理コア間で結合され、複数のハードウェア・スレッドが複数の処理コア内に配設され、各処理コアがレジスタ・ファイルおよび複数のハードウェア・スレッドのうちの少なくとも1つのハードウェア・スレッドを含む。変数伝達ネットワークは、複数の処理コアのうちの送信元処理コア内の送信元ハードウェア・スレッドと複数の処理コアのうちの送信先処理コア内の送信先ハードウェア・スレッドとの間で、変数を通信するように構成される。
本発明を特徴付けるこれらおよび他の利点および特徴は、本明細書に添付し、本明細書のさらなる部分を形成する請求項に記載される。しかし、本発明および本発明の使用を通じて得られる利点および目的をより良好に理解するために、図面および本発明の例示的な実施形態が記載される添付の記載事項への参照をするべきである。
第1の態様から見ると、本発明は、複数の処理コア内に配設される複数のハードウェア・スレッドであって、各処理コアがレジスタ・ファイルおよび複数のハードウェア・スレッドのうちの少なくとも1つのハードウェア・スレッドを含む、複数のハードウェア・スレッドと、複数の処理コア間で結合される変数伝達ネットワークであって、複数の処理コアのうちの送信元処理コア内の送信元ハードウェア・スレッドと複数の処理コアのうちの送信先処理コア内の送信先ハードウェア・スレッドとの間で変数を通信するように構成される、変数伝達ネットワークとを備える、回路装置を提供する。
好ましくは、本発明は、複数の変数レジスタであって、各変数レジスタが複数のハードウェア・スレッドのうちの個別のハードウェア・スレッドに割り振られる複数の変数レジスタをさらに備え、送信先ハードウェア・スレッドに割り振られる変数レジスタ内の変数の記憶に応答して送信先処理コアに変数を通信するように変数伝達ネットワークが構成される、回路装置を提供する。
好ましくは、本発明は、複数の変数レジスタが各処理コアのレジスタ・ファイル内に設計され、各処理コア内に配設される依存性論理部が、レジスタ・ファイル内の複数のローカル・レジスタおよび複数の変数レジスタの両方についての依存性を取り扱う、回路装置を提供する。
好ましくは、本発明は、送信元ハードウェア・スレッドにより実行される命令に応答して送信先処理コアに変数を通信するように変数伝達ネットワークが構成される、回路装置を提供する。
好ましくは、本発明は、命令が、送信元処理コアのレジスタ・ファイル内のローカル・レジスタから送信先ハードウェア・スレッドに割り振られる変数レジスタに変数を移動させるput命令を含む、回路装置を提供する。
好ましくは、本発明は、送信先ハードウェア・スレッドが変数伝達ネットワークを介して変数を受け取る準備ができているかどうかを示すクレジット・フラグを、送信先ハードウェア・スレッドに割り振られる変数レジスタが含み、送信先ハードウェア・スレッドが変数を受け取る準備ができていることをクレジット・フラグが示すまで、put命令をストールするように送信元処理コアが構成される、回路装置を提供する。
好ましくは、本発明は、送信元処理コア内の送信先ハードウェア・スレッドに割り振られる変数レジスタ内の変数の記憶に応答して、送信先処理コア内の送信元スレッドに関連する変数レジスタで変数を提示するように変数伝達ネットワークが構成され、送信先ハードウェア・スレッドにより実行される命令に応答して、送信元ハードウェア・スレッドに割り振られる変数レジスタから送信先処理コアのレジスタ・ファイル内のローカル・レジスタに変数を移動するように送信先ハードウェア・スレッドが構成される、回路装置を提供する。
好ましくは、本発明は、命令がget命令を含み、送信先処理コア内の送信元ハードウェア・スレッドに割り振られる変数レジスタが、送信先処理コア内の送信元ハードウェア・スレッドに割り振られる変数レジスタ内に有効なデータが記憶されているかどうかを示す有効フラグを含み、送信先処理コア内の送信元ハードウェア・スレッドに割り振られる変数レジスタ内に有効なデータが記憶されていることを有効フラグが示すまで、get命令をストールするように送信先処理コアが構成される、回路装置を提供する。
好ましくは、本発明は、送信先処理コア内の送信元ハードウェア・スレッドに割り振られる変数レジスタから送信先処理コアのレジスタ・ファイル内のローカル・レジスタに変数を移動することに応答して、変数伝達ネットワークを介してクレジットを返すように送信先処理コアが構成される、回路装置を提供する。
好ましくは、本発明は、変数伝達ネットワークが送信元処理コアと送信先処理コアとの間に結合される送信バスを備え、送信バスが、変数を通信するように構成される複数のデータ線、送信先ハードウェア・スレッド用に識別子を通信するように構成される少なくとも1つのスレッド識別子線、および有効なデータが複数のデータ線を介して通信されていることを示すように構成される有効線を含む、回路装置を提供する。
好ましくは、本発明は、データ線、スレッド識別子線、および有効線のそれぞれが送信元処理コアにより駆動され、送信先処理コアにより駆動され、送信先ハードウェア・スレッドによる変数の伝達が成功したことに応答して送信元処理コアにクレジットを返すように構成されるクレジット線を送信バスがさらに備える、回路装置を提供する。
好ましくは、本発明は、送信バスが送信元処理コアから送信先処理コアへの専用バスを備え、変数伝達ネットワークが複数の送信バスを備え、そのため、複数の処理コアのそれぞれが複数の処理コアのうちのそれぞれの他の処理コアへの専用バスを含む、回路装置を提供する。
好ましくは、本発明は、送信バスが送信元処理コアから複数の処理コアのうちのそれぞれの他の処理コアに結合され、送信先処理コア用に識別子を通信するように構成される少なくとも1つのコア識別子線を送信バスがさらに含む、回路装置を提供する。
別の態様から見ると、本発明は、上記のような回路装置を含む集積回路デバイスを提供する。
別の態様から見ると、本発明は、コンピュータ可読媒体およびコンピュータ可読媒体上に記憶されて上記のような回路装置を規定する論理規定プログラム・コードを備えるプログラム製品を提供する。
別の態様から見ると、本発明は、複数の処理コア内に配設される複数のハードウェア・スレッド間で変数を通信する方法であって、各処理コアがレジスタ・ファイルおよび複数のハードウェア・スレッドのうちの少なくとも1つのハードウェア・スレッドを含み、複数の処理コアのうちの送信元処理コア内の送信元ハードウェア・スレッドを用いて、複数の処理コアのうちの送信先処理コア内の送信先ハードウェア・スレッドへの変数の伝達を開始するステップと、変数の伝達を開始するステップに応答して、送信元処理コアから送信先処理コアに、送信元処理コアおよび送信先処理コアに結合された変数伝達ネットワークを介して変数を通信するステップとを含む、方法を提供する。
好ましくは、本発明は、変数の伝達を開始するステップが送信先ハードウェア・スレッドに割り振られる変数レジスタ内に変数を記憶するステップを含み、変数レジスタが、マルチコア処理チップ上に配設される複数の変数レジスタの中にあり、各変数レジスタが複数のハードウェア・スレッドの中の個別のハードウェア・スレッドに割り振られる、方法を提供する。
好ましくは、本発明は、複数の変数レジスタが各処理コアのレジスタ・ファイル内に設計され、各処理コア内に配設される依存性論理部が、レジスタ・ファイル内の複数のローカル・レジスタおよび複数の変数レジスタの両方についての依存性を取り扱う、方法を提供する。
好ましくは、本発明は、変数の伝達を開始するステップが、送信元ハードウェア・スレッドを用いてput命令を実行するステップを含み、put命令が送信元処理コアのレジスタ・ファイル内のローカル・レジスタから送信先ハードウェア・スレッドに割り振られる変数レジスタに変数を移動させる、方法を提供する。
好ましくは、本発明は、送信先ハードウェア・スレッドが変数伝達ネットワークを介して変数を受け取る準備ができているかどうかを示すクレジット・フラグを、送信先ハードウェア・スレッドに割り振られる変数レジスタが含み、送信先ハードウェア・スレッドが変数を受け取る準備ができていることをクレジット・フラグが示すまで、put命令をストールするステップをさらに含む、方法を提供する。
好ましくは、本発明は、送信元処理コア内の送信先ハードウェア・スレッドに割り振られる変数レジスタ内の変数の記憶に応答して、送信先処理コア内の送信元スレッドに関連する変数レジスタで変数を提示するように変数伝達ネットワークが構成され、送信先ハードウェア・スレッドにより実行されるget命令に応答して、送信先処理コア内の送信元スレッドに割り振られる変数レジスタから送信先処理コアのレジスタ・ファイル内のローカル・レジスタに変数を移動するステップを方法がさらに含み、送信先処理コア内の送信元スレッドに割り振られる変数レジスタが、有効なデータが送信先処理コア内の送信元スレッドに割り振られる変数レジスタに記憶されるかどうかを示す有効フラグを含み、有効なデータが送信先処理コア内の送信元スレッドに割り振られる変数レジスタに記憶されることを有効フラグが示すまでget命令をストールするステップを方法がさらに含む、方法を提供する。
好ましくは、本発明は、送信先処理コア内の送信元スレッドに割り振られる変数レジスタから送信先処理コアのレジスタ・ファイル内のローカル・レジスタに変数を移動するステップに応答して、変数伝達ネットワークを介してクレジットを返すステップをさらに含む、方法を提供する。
好ましくは、本発明は、変数伝達ネットワークが送信元処理コアと送信先処理コアとの間に結合される送信バスを備え、送信バスが、変数を通信するように構成される複数のデータ線、送信先ハードウェア・スレッド用に識別子を通信するように構成される少なくとも1つのスレッド識別子線、および有効なデータが複数のデータ線を介して通信されていることを示すように構成される有効線を含み、データ線、スレッド識別子線、および有効線のそれぞれが送信元処理コアにより駆動され、送信先処理コアにより駆動され、送信先ハードウェア・スレッドへの変数の伝達が成功したことに応答して送信元処理コアにクレジットを返すように構成されるクレジット線を送信バスがさらに含む、方法を提供する。
好ましくは、本発明は、送信バスが送信元処理コアから送信先処理コアへの専用バスを備え、変数伝達ネットワークが複数の送信バスを備え、そのため、複数の処理コアのそれぞれが複数の処理コアのうちのそれぞれの他の処理コアへの専用バスを含む、方法を提供する。
好ましくは、本発明は、送信バスが送信元処理コアから複数の処理コアのうちのそれぞれの他の処理コアに結合され、送信先処理コア用に識別子を通信するように構成される少なくとも1つのコア識別子線を送信バスがさらに含む、方法を提供する。
ここで、本発明の好ましい実施形態は、添付の図面を参照して、単に例として記載されることとなる。
本発明の実施形態に一致するデータ処理で有用な例示的なコンピュータを含む、例示的な自動化されたコンピューティング機械のブロック図である。 図1のコンピュータに実装された例示的なNOCのブロック図である。 図2のNOCからのノードの例示的な実装を詳細に示すブロック図である。 図2のNOCからのIPブロックの例示的な実装を示すブロック図である。 シングル・スレッド化されたコードを複数のハードウェア・スレッドにより実行可能な複数のコード・セグメントに分割するために使用される、細粒化並列処理を示すブロック図である。 本発明に一致する低遅延変数伝達ネットワークを組み込んだマルチコア・プロセッサ・チップを含む、例示的なデータ処理システムのブロック図である。 図6で参照される拡張されたレジスタ・ファイルの例示的な実装のブロック図である。 図6で参照される変数伝達ネットワーク内の送信バスの例示的な実装のブロック図である。 図8で参照される送信バスを介する例示的な変数伝送を示すタイミング図である。 図8に示される送信バスの代替の実装のブロック図である。 図6のマルチコア・プロセッサ・チップ内の変数伝達ネットワークを介して変数を送信するためput命令を実行するときに実施される動作の、例示的なシーケンスを示す流れ図である。 図6のマルチコア・プロセッサ・チップ内の変数伝達ネットワークから変数を受け取るためget命令を実行するときに実施される動作の、例示的なシーケンスを示す流れ図である。
本発明に一致する実施形態は、マルチコア・プロセッサ・チップ内の複数の処理コアのレジスタ・ファイル間に結合される低遅延変数伝達ネットワークを利用して、マルチスレッド化した処理環境内のスレッド間で変数を通信する。以下で議論される実施形態では、任意選択で拡張されたレジスタ・ファイル内に設計される、複数の変数レジスタのそれぞれは、複数のハードウェア・スレッドのうちの個別のハードウェア・スレッドに割り振られ、そのため、その送信先ハードウェア・スレッドに割り振られる変数レジスタへの変数の記憶に応答して、変数伝達ネットワークが送信先処理コアに変数を通信する。加えて、以下に記載される実施形態では、変数レジスタが各処理コアのレジスタ・ファイル内に設計され、そのため、変数レジスタは、レジスタ・ファイル内のローカル・レジスタとほとんど同じようにアクセス可能であり、そのため、各処理コア内に配設される依存性論理部が、レジスタ・ファイル内のローカル・レジスタおよび変数レジスタの両方についての依存性を取り扱う。
他の変形形態および変更形態が当業者には明らかであろう。したがって、本発明は、本明細書で議論される特定の実装に限定されない。
ハードウェア環境およびソフトウェア環境
ここで、図面に戻ると、複数の図を通して同様の番号は同様の部分を示しているが、図1では、本発明の実施形態に一致するデータ処理で有用な例示的なホスト・コンピュータ10を含む、例示的な自動化されたコンピューティング機械を示している。図1のホスト・コンピュータ10は、少なくとも1つのコンピュータ・プロセッサ12または「CPU」ならびにランダム・アクセス・メモリ14(「RAM」)を含み、RAM14は、高速メモリ・バス16およびバス・アダプタ18を介してコンピュータ・プロセッサ12、およびホスト・コンピュータ10の他の構成要素に接続される。
RAM14には、アプリケーション・プログラム20、例えば、ワード・プロセシング、スプレッドシート、データベース操作、ビデオ・ゲーム、株式市場シミュレーション、原子の量子プロセス・シミュレーション、または他のユーザレベルのアプリケーションなどの特定のデータ処理タスクを実行するための、ユーザレベルのコンピュータ・プログラム命令のモジュールが記憶される。RAM14には、オペレーティング・システム22も記憶される。本発明の実施形態に関して有用なオペレーティング・システムとしては、UNIX(R)、Linux(R)、Microsoft Windows XP(R)、AIX(R)、IBMのi5/OS(R)および当業者に想到される他のオペレーティング・システムが挙げられる。図1の例の中のオペレーティング・システム22およびアプリケーション・プログラム20はRAM14内に示されるが、そのようなソフトウェアの多くの構成要素が、典型的には、例えばディスク・ドライブ24上といった、不揮発性メモリにも記憶される。
以下でより明らかになるように、本発明に一致する実施形態は、ネットワーク・オン・チップ(NOC)集積回路デバイス、またはチップ内に実装することができ、したがって、ホスト・コンピュータ10は、2つの例示的なNOC、すなわち、NOCビデオ・アダプタ26およびNOCコプロセッサ28を含んで示されている。NOCビデオ・アダプタ26は、代替的にグラフィックス・アダプタと呼ぶことができるが、表示スクリーンまたはコンピュータ・モニタなどの表示デバイス30へのグラフィックス出力のため特に設計されたI/Oアダプタの例である。NOCビデオ・アダプタ26は、高速ビデオ・バス32、バス・アダプタ18、およびやはり高速バスであるフロント・サイド・バス34を介してコンピュータ・プロセッサ12に接続される。NOCコプロセッサ28は、バス・アダプタ18、ならびにやはり高速バスであるフロント・サイド・バス34および36を介してコンピュータ・プロセッサ12に接続される。図1のNOCコプロセッサは、例えば、コンピュータ・プロセッサ12の指令で特定のデータ処理タスクを加速するように最適化することができる。
図1の例示的なNOCビデオ・アダプタ26およびNOCコプロセッサ28のそれぞれは、統合プロセッサ(「IP」)ブロック、ルータ、メモリ通信コントローラ、およびネットワーク・インターフェイス・コントローラを含むNOCを含み、その詳細は、図2〜図3に関連して以下でさらに詳細に議論されることとなる。NOCビデオ・アダプタおよびNOCコプロセッサは、それぞれ、並列処理を使用し、共有メモリへの高速なランダム・アクセスが必要でもあるプログラム用に最適化される。しかし、本発明がNOCデバイスおよびNOCデバイス・アーキテクチャ以外のデバイスおよびデバイス・アーキテクチャに実装可能であることが、本開示の恩恵を被る当業者には理解されよう。したがって、本発明は、NOCデバイス内の実装に限定されない。
図1のホスト・コンピュータ10は、拡張バス40を介して結合されるディスク・ドライブ・アダプタ38およびコンピュータ・プロセッサ12およびホスト・コンピュータ10の他の構成要素へのバス・アダプタ18を含む。ディスク・ドライブ・アダプタ38は、不揮発性データ記憶装置をディスク・ドライブ24の形でホスト・コンピュータ10に接続し、例えば、インテグレーテッド・ドライブ・エレクトロニクス(「IDE」)アダプタ、スモール・コンピュータ・システム・インターフェイス(「SCSI」)アダプタ、および当業者に想到される他のものを使用して実装することができる。不揮発性コンピュータ・メモリは、当業者に想到されるような、光ディスク・ドライブ、電気的消去可能プログラム可能読取り専用メモリ(いわゆる「EEPROM」または「Flash」メモリ)、RAMドライブなどとして実装することもできる。
ホスト・コンピュータ10は、例えば、コンピュータ表示スクリーンなどの表示デバイスへの出力ならびにキーボードおよびマウスなどのユーザ入力デバイス44からのユーザ入力を制御するための、ソフトウェア・ドライバおよびコンピュータ・ハードウェアを介してユーザ指向の入出力装置を実装する、1つまたは複数の入出力(「I/O」)アダプタ42も含む。加えて、ホスト・コンピュータ10は、他のコンピュータ48とのデータ通信およびデータ通信ネットワーク50とのデータ通信のための通信アダプタ46を含む。そのようなデータ通信は、RS−232接続を介して、ユニバーサル・シリアル・バス(「USB」)などの外部バスを介して、IPデータ通信ネットワークなどのデータ通信ネットワークを介して、ならびに当業者に想到される他の方法で直列に実行することができる。通信アダプタは、1つのコンピュータが他のコンピュータに直接またはデータ通信ネットワークを介してデータ通信を送信する、データ通信のハードウェア・レベルを実装する。ホスト・コンピュータ10で使用するために好適な通信アダプタの例としては、有線ダイアルアップ通信用モデム、有線データ通信ネットワークの通信用のイーサネット(R)(IEEE 802.3)アダプタ、および無線データ通信ネットワークの通信用の802.11アダプタが挙げられる。
さらに説明するために、図2では、本発明の実施形態による例示的なNOC102の機能ブロック図を記載する。図2のNOCは、「チップ」100上、すなわち集積回路上に実装される。NOC102は、相互接続されるノードへとグループ化される、統合プロセッサ(「IP」)ブロック104、ルータ110、メモリ通信コントローラ106、およびネットワーク・インターフェイス・コントローラ108を含む。各IPブロック104は、メモリ通信コントローラ106およびネットワーク・インターフェイス・コントローラ108を介してルータ110に適合される。各メモリ通信コントローラは、IPブロックとメモリとの間の通信を制御し、各ネットワーク・インターフェイス・コントローラ108は、ルータ110を介してIPブロック間通信を制御する。
NOC102では、各IPブロックは、NOC内のデータ処理用ビルディング・ブロックとして使用される、同期または非同期の論理部設計の再使用可能なユニットを表す。用語「IPブロック」は、関係者により所有され、他のユーザまたは半導体回路の設計者にライセンスが与えられる、関係者の知的財産である設計としてIPブロックを有効に表している「知的財産ブロック」として展開されることがある。しかし、本発明の範囲では、IPブロックが、何らかの特定の所有権を施されることについての要件はない。そのため、その用語は、この明細書では、「統合プロセッサ・ブロック」として常に展開される。ここで指定されるように、IPブロックは、知的財産の対象であってもなくてもよい、論理部、セル、またはチップ・レイアウト設計の再使用可能なユニットである。IPブロックは、ASICチップ設計またはFPGA論理部設計として形成することができる論理部コアである。
IPブロックを類推によって述べる、1つの方法では、コンピュータ・プログラミングにとってライブラリがあり、またはプリント回路板設計にとって個別集積回路装置要素があるように、NOC設計にとってIPブロックがある。本発明の実施形態に一致するNOCでは、IPブロックは、完全な専用マイクロプロセッサまたは汎用マイクロプロセッサとして、一般的なゲート・ネットリストとして実装することができ、または当業者が想到することができる他の方法で実装することができる。ネットリストは、高水準プログラム・アプリケーションにとってのアセンブリコード・リストに類似している、IPブロックの論理機能のブール代数表現(ゲート、標準セル)である。NOCは、例えば、VerilogまたはVHDLなどのハードウェア記述言語で記載される合成可能形式で実装することもできる。ネットリストおよび合成可能実装に加えて、NOCは、低水準の物理的記述で伝えることもできる。SERDES、PLL、DAC、ADCなどのアナログIPブロック要素は、GDSIIなどのトランジスタ・レイアウト形式で供給することができる。IPブロックのデジタル要素が同様にレイアウト形式で提供されることがある。本発明に一致して実装されるIPブロックならびに他のロジック回路は、そのようなロジックを実装する回路装置の機能性またはレイアウトあるいはその両方を、様々なレベルの詳細さで規定する例えば論理規定プログラム・コードといった、コンピュータ・データ・ファイルの形で供給できることも理解されよう。したがって、本発明は、完全に機能する集積回路デバイス、そのようなデバイスを利用するデータ処理システム、および他の有形の物理的なハードウェア回路に実装される回路装置の文脈で記載されてきており、以降も記載されることになるが、本開示の恩恵を被る当業者なら、本発明がプログラム製品内で実装することもでき、プログラム製品を供給するために使用されるコンピュータ可読記憶媒体の特定のタイプに関わらず、本発明が等しく適用されることを理解されよう。コンピュータ可読記憶媒体の例としては、限定するものではないが、(とりわけ)揮発性および不揮発性のメモリ・デバイス、フロッピ・ディスク、ハード・ディスク・ドライブ、CD−ROM、およびDVDなどの物理的で記録可能なタイプの媒体が挙げられる。
図2の例の中の各IPブロック104は、メモリ通信コントローラ106を介してルータ110に適合される。各メモリ通信コントローラは、IPブロックとメモリとの間でデータ通信を実現するように適合される、同期論理回路および非同期論理回路の集合である。IPブロックとメモリとの間のそのような通信の例としては、メモリ・ロード命令およびメモリ・ストア命令が挙げられる。メモリ通信コントローラ106は、図3を参照して以下でより詳細に記載される。各IPブロック104は、やはり、IPブロック104間でルータ110を介して通信を制御するネットワーク・インターフェイス・コントローラ108を介して、ルータ110に適合される。IPブロック間の通信の例としては、並列アプリケーションおよびパイプライン化アプリケーションで、IPブロック間でデータおよびそのデータを処理するための命令を搬送するメッセージが挙げられる。ネットワーク・インターフェイス・コントローラ108は、やはり、図3を参照して以下でより詳細に記載される。
ルータ110およびルータ110間の対応するリンク118は、NOCのネットワーク動作を実装する。リンク118は、全てのルータを接続する、物理的な並列ワイヤ・バス上に実装されるパケット構造であってよい。すなわち、各リンクは、全てのヘッダ情報およびペイロード・データを含む、全データ交換パケットを同時に収めるのに十分な幅のワイヤ・バス上に実装することができる。パケット構造が、例えば8バイトのヘッダおよび56バイトのペイロード・データを含む64バイトを含む場合、各リンクに対するワイヤ・バスは、64バイト幅、512本のワイヤとなる。加えて、各リンクは双方向性である場合があり、その結果、リンク・パケット構造が64バイトを含む場合、ワイヤ・バスは、各ルータとネットワーク内のその隣接先のそれぞれとの間に、実際には1024本のワイヤを含む。そのような実装では、メッセージは、2パケット以上を含むことができるが、各パケットは、ワイヤ・バスの幅に正確に合うことになる。代替では、パケットの一部を収めるのに十分なだけの幅であるワイヤ・バス上にリンクを実装することができ、そのためパケットが複数のビートに分割されることになり、例えばその結果、リンクが幅16バイト、すなわち128本のワイヤで実装される場合、64バイトのパケットは4つのビートに分割することができる。実質的な物理的制限ならびに所望の性能特性に基づいて、異なる実装では異なるバス幅を使用できることが理解されよう。ルータとワイヤ・バスの各セクションとの間の接続をポートと呼ぶ場合、各ルータは5つのポート、すなわち、ネットワーク上のデータ伝送の4つの方向それぞれに1つずつ、および、ルータを特定のIPブロックにメモリ通信コントローラおよびネットワーク・インターフェイス・コントローラを介して適合させるための5番目のポートを含む。
各メモリ通信コントローラ106が、IPブロックとメモリとの間の通信を制御する。メモリは、オフチップ・メインRAM112、メモリ通信コントローラ106を介してIPブロックに直接接続されるオンチップ・メモリ114、IPブロックとして使用可能なオンチップ・メモリ116、およびオンチップ・キャッシュを含むことができる。NOC102では、オンチップ・メモリ114、116の両方を、例えばオンチップ・キャッシュ・メモリとして実装することができる。全てのこれらの形のメモリは、本当に、IPブロックに直接取り付けられるメモリに関してさえ、同じアドレス空間、物理アドレスまたは仮想アドレス内に配設することができる。したがって、メモリ・アドレス指定メッセージは、IPブロックに関して完全に双方向性であることができる。というのは、そのようなメモリは、ネットワーク上の任意の場所の任意のIPブロックから直接アドレス指定することができるからである。IPブロック上のオンチップ・メモリ116は、そのIPブロックまたはNOC内の任意の他のIPブロックからアドレス指定することができる。メモリ通信コントローラに直接取り付けられるオンチップ・メモリ114は、そのメモリ通信コントローラによりネットワークに適合されるIPブロックによってアドレス指定することができ、NOC内の任意の場所の任意の他のIPブロックからアドレス指定することもできる。
NOC102は、本発明の実施形態に一致するNOCについての、2つの代替のメモリ・アーキテクチャを示す、2つのメモリ管理ユニット(「MMU」)120、122を含む。MMU120は、IPブロック内に実装され、IPブロック内のプロセッサが、仮想メモリで動作することを可能にする一方で、NOCの残りのアーキテクチャ全体が、物理的なメモリ・アドレス空間で動作することを可能にする。MMU122は、オフチップで実装され、データ通信ポート124を介してNOCと接続される。データ通信ポート124は、NOCとMMUとの間で信号を伝導するのに必要なピンおよび他の相互接続、ならびにNOCパケット形式から外部のMMU122により必要とされるバス形式にメッセージ・パケットを変換するのに十分なインテリジェンスを含む。MMUが外部に配置されていることは、NOCの全てのIPブロック内の全てのプロセッサが仮想メモリ・アドレス空間で動作することができ、オフチップ・メモリの物理アドレスへの全ての変換をオフチップのMMU122により取り扱うことができることを意味する。
MMU120、122の使用により示される2つのメモリ・アーキテクチャに加えて、データ通信ポート126は、本発明の実施形態で利用することができる、NOC内で有用な第3のメモリ・アーキテクチャを示す。データ通信ポート126は、NOC102のIPブロック104とオフチップ・メインRAM112との間で直接接続を実現する。処理経路内にMMUがないので、このアーキテクチャによって、NOCの全てのIPブロックによる物理的なアドレス空間の利用が可能になる。アドレス空間を双方向で共有することで、NOCの全てのIPブロックは、データ通信ポート126に直接接続されるIPブロックを介して導かれる、ロードおよびストアを含む、メモリ・アドレス指定メッセージによりアドレス空間内のメモリにアクセスすることができる。データ通信ポート126は、NOCとオフチップ・メインRAM112との間で信号を伝導するのに必要なピンおよび他の相互接続、ならびにNOCパケット形式からオフチップ・メインRAM112により必要とされるバス形式にメッセージ・パケットを変換するのに十分なインテリジェンスを含む。
図2の例では、IPブロックのうちの1つはホスト・インターフェイス・プロセッサ128と表される。ホスト・インターフェイス・プロセッサ128は、NOCとNOCを設置することができるホスト・コンピュータ10との間にインターフェイスをもうけ、例えば、ホスト・コンピュータからNOCのIPブロック間でデータ処理要求を受け取り、送ることを含む、NOC上の他のIPブロックへのデータ処理サービスも実現する。例えば、NOCは、図1を参照して上で記載したような、より大きなホスト・コンピュータ10上にNOCビデオ・アダプタ26またはNOCコプロセッサ28を実装することができる。図2の例では、ホスト・インターフェイス・プロセッサ128は、より大きなホスト・コンピュータにデータ通信ポート130を介して接続される。データ通信ポート130は、NOCとホスト・コンピュータとの間で信号を伝導するのに必要なピンおよび他の相互接続、ならびにNOCからのメッセージ・パケットをホスト・コンピュータ10により必要とされるバス形式に変換するのに十分なインテリジェンスを含む。図1のコンピュータ内のNOCコプロセッサの例では、そのようなポートは、NOCコプロセッサ28のリンク構造と、NOCコプロセッサ28とバス・アダプタ18との間のフロント・サイド・バス36で必要なプロトコルとの間の、データ通信形式変換を実現することになる。
次いで、図3は、132でまとめて示される、NOC102内の、IPブロック104、メモリ通信コントローラ106、ネットワーク・インターフェイス・コントローラ108、およびルータ110の中に実装される構成要素をさらに詳細に示す機能ブロック図である。IPブロック104は、コンピュータ・プロセッサ134およびI/O機能部136を含む。この例では、コンピュータ・メモリは、IPブロック104内のランダム・アクセス・メモリ(「RAM」)138のセグメントにより表される。図2を参照して上で記載されたように、メモリは、各IPブロックのその内容がNOC内の任意のIPブロックからアドレス指定可能およびアクセス可能である、物理的なアドレス空間のセグメントを占めることができる。各IPブロック内のコンピュータ・プロセッサ134、I/O機能部136、およびランダム・アクセス・メモリ138は、IPブロックを一般的にプログラム可能なマイクロコンピュータとして有効に実装する。しかし、上で説明したように、本発明の範囲では、IPブロックは、NOC内のデータ処理用ビルディング・ブロックとして使用される、同期または非同期の論理部の再使用可能なユニットを全体として表す。したがって、一般的にプログラム可能なマイクロコンピュータとしてIPブロックを実装することは、説明のために有用な共通の実施形態であるが、本発明を制限するものではない。
図3のNOC102では、各メモリ通信コントローラ106は、複数のメモリ通信実行エンジン140を含む。各メモリ通信実行エンジン140がイネーブルとなり、ネットワークとIPブロック104との間の双方向性のメモリ通信命令の流れ141、142、144を含む、IPブロック104からのメモリ通信命令を実行する。メモリ通信コントローラにより実行されるメモリ通信命令は、特定のメモリ通信コントローラを介してルータに適合されるIPブロックからのみならず、NOC102内の任意の場所のIPブロック104からでも始めることができる。すなわち、NOC内の任意のIPブロックがメモリ通信命令を生成し、そのメモリ通信命令を実行するために、別のIPブロックに関連する別のメモリ通信コントローラに、NOCのルータを介してそのメモリ通信命令を伝送することができる。そのようなメモリ通信命令としては、例えば、変換索引バッファ制御命令、キャッシュ制御命令、バリア命令、ならびにメモリ・ロードおよびメモリ・ストア命令が挙げられる。
各メモリ通信実行エンジン140がイネーブルとなり、別個かつ他のメモリ通信実行エンジンと並列に、完全なメモリ通信命令を実行する。メモリ通信実行エンジンは、メモリ通信命令の並行処理能力に最適化されたスケーラブル・メモリ・トランザクション・プロセッサを実装する。メモリ通信コントローラ106は、その全てが複数のメモリ通信命令の同時実行のため並行して動作する、複数のメモリ通信実行エンジン140をサポートする。新しいメモリ通信命令は、メモリ通信コントローラ106によりメモリ通信実行エンジン140に割り振られ、メモリ通信実行エンジン140は、複数の応答イベントを同時に受け入れることができる。この例では、メモリ通信実行エンジン140の全てが同一である。したがって、メモリ通信コントローラ106により同時に取り扱うことができるメモリ通信命令の数をスケーリングすることは、メモリ通信実行エンジン140の数をスケーリングすることにより実装される。
図3のNOC102では、各ネットワーク・インターフェイス・コントローラ108がイネーブルとなり、IPブロック104間でルータ110を介して伝送するため、通信命令をコマンド形式からネットワーク・パケット形式に変換する。通信命令は、IPブロック104により、またはメモリ通信コントローラ106によりコマンド形式で公式化され、コマンド形式でネットワーク・インターフェイス・コントローラ108に提供することができる。コマンド形式は、IPブロック104およびメモリ通信コントローラ106のアーキテクチャ上のレジスタ・ファイルに準拠する、固有形式であってよい。ネットワーク・パケット形式は、典型的には、ネットワークのルータ110を介して伝送するのに必要な形式である。それぞれのそのようなメッセージは、1つまたは複数のネットワーク・パケットから構成される。ネットワーク・インターフェイス・コントローラ内でコマンド形式からパケット形式に変換されるそのような通信命令の例としては、IPブロックとメモリとの間の、メモリ・ロード命令およびメモリ・ストア命令が挙げられる。そのような通信命令としては、並列アプリケーションおよびパイプライン化したアプリケーションで、IPブロック間でデータおよびそのデータを処理するための命令を搬送するメッセージをIPブロック間で送信する通信命令も挙げられる。
図3のNOC102では、各IPブロックがイネーブルとなり、メモリ・アドレス・ベースの通信を、IPブロックのメモリ通信コントローラを介してメモリとの間で、次いでIPブロックのネットワーク・インターフェイス・コントローラを介してネットワークにも送信する。メモリ・アドレス・ベースの通信は、ロード命令またはストア命令などの、IPブロックのメモリ通信コントローラのメモリ通信実行エンジンにより実行される、メモリ・アクセス命令である。そのようなメモリ・アドレス・ベースの通信は、典型的には、IPブロックで始まり、コマンド形式で公式化され、実行するためにメモリ通信コントローラにハンドオフされる。
多くのメモリ・アドレス・ベースの通信がメッセージ・トラフィックで実行される。というのは、どのIPブロックが任意の特定のメモリ・アドレス・ベースの通信を始めたのかに関わらず、アクセスされる任意のメモリは、物理的なメモリ・アドレス空間の中で、オンチップまたはオフチップの、NOC内の任意のメモリ通信コントローラに直接取り付けられる、または究極的にはNOCの任意のIPブロックを介してアクセスされる、任意の場所に配置することができるからである。したがって、NOC102では、メッセージ・トラフィックで実行される全てのメモリ・アドレス・ベースの通信は、コマンド形式からパケット形式へ変換しネットワークを介してメッセージで伝送するために、メモリ通信コントローラから関連するネットワーク・インターフェイス・コントローラに受け渡される。パケット形式への変換では、ネットワーク・インターフェイス・コントローラは、メモリ・アドレス・ベースの通信によりアクセスされる1つのメモリ・アドレスまたは複数のメモリ・アドレスに依存して、パケットのネットワーク・アドレスも識別する。メモリ・アドレス・ベースのメッセージは、メモリ・アドレスでアドレス指定される。各メモリ・アドレスは、ネットワーク・インターフェイス・コントローラによって、ネットワーク・アドレス、典型的にはある範囲の物理的なメモリ・アドレスを担当するメモリ通信コントローラのネットワーク位置にマッピングされる。メモリ通信コントローラ106のネットワーク位置は、当然、そのメモリ通信コントローラの関連するルータ110、ネットワーク・インターフェイス・コントローラ108、およびIPブロック104のネットワーク位置でもある。各ネットワーク・インターフェイス・コントローラ内の命令変換論理部150は、メモリ・アドレス・ベースの通信をNOCのルータを介して伝送するために、メモリ・アドレスをネットワーク・アドレスに変換することが可能である。
ネットワークのルータ110からメッセージ・トラフィックを受け取ると、各ネットワーク・インターフェイス・コントローラ108は、メモリ命令のため各パケットを調べる。メモリ命令を含む各パケットは、受け取ったネットワーク・インターフェイス・コントローラに関連するメモリ通信コントローラ106に渡され、さらなる処理のためにパケットの残りのペイロードをIPブロックに送る前に、メモリ命令を実行する。このようにして、メモリの内容は、特定のメモリの内容に依存するメッセージからの命令の実行をIPブロックが始める前に、IPブロックによるデータ処理をサポートするように常に準備される。
図3のNOC102では、各IPブロック104がイネーブルとなり、そのメモリ通信コントローラ106をバイパスし、IPブロック間のネットワーク・アドレス指定通信146を、IPブロックのネットワーク・インターフェイス・コントローラ108を介してネットワークに直接送信する。ネットワーク・アドレス指定通信は、ネットワーク・アドレスによって別のIPブロックに導かれるメッセージである。当業者には想到されるように、そのようなメッセージは、パイプライン化したアプリケーションではワーキング・データを伝送し、SIMDアプリケーションでのIPブロック間の単一プログラム処理では複数のデータを伝送し、以下同様である。NOCのルータを介してメッセージが導かれるネットワーク・アドレスを知っている発信側IPブロックによって、メモリ・アドレス・ベースの通信が最初からネットワーク・アドレス指定されているという点で、そのようなメッセージは、メモリ・アドレス・ベースの通信とは異なっている。そのようなネットワーク・アドレス指定通信は、IPブロックによりI/O機能部136を介して直接IPブロックのネットワーク・インターフェイス・コントローラにコマンド形式で受け渡され、次いで、ネットワーク・インターフェイス・コントローラによりパケット形式に変換され、別のIPブロックにNOCのルータを介して伝送される。そのようなネットワーク・アドレス指定通信146は双方向性であり、任意の特定のアプリケーション内でのネットワーク・アドレス指定通信146の使用に依存して、場合によって、NOCの各IPブロックに行ったり来たりする。しかし、各ネットワーク・インターフェイス・コントローラがイネーブルとなり、関連するルータとの間でそのような通信の送信および受信の両方を行い、各ネットワーク・インターフェイス・コントローラがイネーブルとなり、関連するIPブロックとの間でそのような通信の直接送信および直接受信の両方を行って、関連するメモリ通信コントローラ106をバイパスする。
図3の例の中の各ネットワーク・インターフェイス・コントローラ108もイネーブルとなり、ネットワーク上に仮想チャネルを実装し、タイプによりネットワーク・パケットを特徴付ける。各ネットワーク・インターフェイス・コントローラ108は、各通信命令をタイプにより分類し、NOC上で伝送するためルータ110にパケット形式で命令をハンドオフする前に、命令のタイプをネットワーク・パケット形式の領域で記録する、仮想チャネル実装論理部148を含む。通信命令のタイプの例としては、IPブロック間ネットワーク・アドレス・ベースのメッセージ、要求メッセージ、要求メッセージへの応答、キャッシュに向けた無効化メッセージ、メモリ・ロード・メッセージおよびメモリ・ストア・メッセージ、ならびにメモリ・ロード・メッセージへの応答などが挙げられる。
図3の例の中の各ルータ110は、ルーティング論理部152、仮想チャネル制御論理部154、および仮想チャネル・バッファ156を含む。ルーティング論理部は、典型的には、ルータ110、リンク118、およびルータ間のバス・ワイヤにより形成されるネットワーク内のデータ通信用の、データ通信プロトコル・スタックを実装する同期論理部および非同期論理部のネットワークとして実装される。ルーティング論理部152は、当業者がオフチップ・ネットワークでルーティング・テーブルと関連付ける可能性がある機能部を含むが、少なくともいくつかの実施形態のルーティング・テーブルは、NOCで使用するには遅くて煩雑すぎると考えられる。同期論理部および非同期論理部のネットワークとして実装されるルーティング論理部は、単一のクロック・サイクルと同じくらい速いルーティング決定を行うように構成することができる。この例でのルーティング論理部は、ルータで受け取った各パケットを転送するためにポートを選択することによりパケットをルーティングする。各パケットは、各パケットがルーティングされるネットワーク・アドレスを含む。
上のメモリ・アドレス・ベースの通信の記載では、各メモリ・アドレスは、ネットワーク・インターフェイス・コントローラによってネットワーク・アドレス、すなわちメモリ通信コントローラのネットワーク位置にマッピングされるものとして記載された。メモリ通信コントローラ106のネットワーク位置は、当然、そのメモリ通信コントローラの関連するルータ110、ネットワーク・インターフェイス・コントローラ108、およびIPブロック104のネットワーク位置でもある。IPブロック間、またはネットワーク・アドレス・ベースの通信では、したがって、アプリケーション・レベルのデータ処理が、ネットワーク・アドレスを、NOCのルータ、リンク、およびバス・ワイヤにより形成されるネットワーク内のIPブロックの位置として見ることも一般的である。図2では、そのようなネットワークの1つの組織が行および列のメッシュであり、例えば、メッシュの関連するルータ、IPブロック、メモリ通信コントローラ、およびネットワーク・インターフェイス・コントローラの各組の一意の識別子、またはメッシュ内のそのような各組のx、y座標のいずれかとして各ネットワーク・アドレスを実装できることを示す。
図3のNOC102では、各ルータ110が2つ以上の仮想通信チャネルを実装し、各仮想通信チャネルは、通信のタイプにより特徴付けられる。通信命令のタイプ、およびしたがって仮想チャネルのタイプとしては、上に述べられたもの、すなわち、IPブロック間ネットワーク・アドレス・ベースのメッセージ、要求メッセージ、要求メッセージへの応答、キャッシュに向けた無効化メッセージ、メモリ・ロード・メッセージおよびメモリ・ストア・メッセージ、ならびにメモリ・ロード・メッセージへの応答などが挙げられる。仮想チャネルをサポートして、図3の例の中の各ルータ110は、仮想チャネル制御論理部154および仮想チャネル・バッファ156も含むことができる。仮想チャネル制御論理部154は、それぞれの受け取ったパケットをその割り当てられた通信のタイプについて検査し、NOC上の隣接するルータにポートを介して伝送するため、その通信のタイプの発信用仮想チャネル・バッファに各パケットを入れる。
各仮想チャネル・バッファ156は、有限の記憶空間を有する。多くのパケットを短期間に受け取ると、仮想チャネル・バッファがいっぱいになる場合があり、その結果、それ以上のパケットをバッファに入れることができない場合がある。他のプロトコルでは、バッファがいっぱいの仮想チャネルに到達するパケットは欠落することになる。しかし、この例の各仮想チャネル・バッファ156は、バス・ワイヤの制御信号でイネーブルとなり、仮想チャネル制御論理部を介して周りのルータに通知して、仮想チャネルでの伝送を一時停止する、すなわち特定の通信タイプのパケットの伝送を一時停止する。1つの仮想チャネルがそのように一時停止されるとき、全ての他の仮想チャネルは影響を受けず、全容量で動作を続けることができる。制御信号は、各ルータに関連するネットワーク・インターフェイス・コントローラ108へと各ルータを介してずっと戻って配線される。各ネットワーク・インターフェイス・コントローラは、そのような信号を受信すると、その関連するメモリ通信コントローラ106またはその関連するIPブロック104から、一時停止された仮想チャネルへの通信命令を受け入れることを拒否するように構成される。このようにして、仮想チャネルの一時停止は、発信側IPブロックまでずっと戻って、仮想チャネルを実装する全てのハードウェアに影響をおよぼす。
仮想チャネルでのパケット伝送を一時停止することの1つの効果は、欠落するパケットが全くなくなることである。例えばインターネット・プロトコルなどのいくつかの信頼できないプロトコルでパケットが欠落した可能性がある状況にルータが遭遇する場合、図3の例の中のルータは、バッファ空間が再び利用可能になるまで、仮想チャネルでの全てのパケットの伝送を、ルータの仮想チャネル・バッファ156およびルータの仮想チャネル制御論理部154により一時停止して、パケットを欠落させる必要をなくすことができる。したがって、図3のNOCは、ハードウェアの極めて薄い層で、高い信頼性のネットワーク通信プロトコルを実装することができる。
図3の例のNOCは、オンチップのメモリ・キャッシュとオフチップのメモリ・キャッシュとの両方の間のキャッシュ・コヒーレンシを維持するように構成することもできる。各NOCは、複数のキャッシュをサポートすることができ、キャッシュのそれぞれは、同じ基礎となるメモリ・アドレス空間に対して動作する。例えば、キャッシュは、IPブロックにより、メモリ通信コントローラにより、またはNOCの外部のキャッシュ・コントローラにより制御することができる。図2の例の中のオンチップ・メモリ114、116のいずれかが、オンチップのキャッシュとしても実装することができ、本発明の範囲内で、キャッシュ・メモリは、オフチップでも実装することができる。
図3に示される各ルータ110は、4つのポート158A〜Dがリンク118を介して他のルータに接続され、5番目のポート160が各ルータをその関連するIPブロック104にネットワーク・インターフェイス・コントローラ108を介して接続している5つのポート、およびメモリ通信コントローラ106を含む。図2および図3の説明から理解できるように、NOC102のルータ110およびリンク118は、各ルータ内の垂直ポートおよび水平ポートを接続する垂直リンクおよび水平リンクでメッシュ・ネットワークを形成する。例えば、図3の説明では、ポート158A、158C、および160が垂直ポートと呼ばれ、ポート158Bおよび158Dが水平ポートと呼ばれる。
次いで、図4は、発行または命令ユニット(IU)162、実行ユニット(XU)164、および補助実行ユニット(AXU)166に仕切られた処理要素として実装される、本発明に一致するIPブロック104の1つの例示的な実装を、別の方法で示す。示された実装では、IU162はL1命令キャッシュ(iCACHE)170からの命令を受け取る複数の命令バッファ168を含む。各命令バッファ168は、複数例えば4つの対称的なマルチスレッド化(SMT)ハードウェア・スレッドのうちの1つに専用である。有効アドレス−実アドレス変換ユニット(iERAT)172がiCACHE170に結合され、より低次のメモリからの命令を取り出すために、複数のスレッド・フェッチ・シーケンサ174からの命令フェッチ要求を実アドレスに変換するために使用される。各スレッド・フェッチ・シーケンサ174は、特定のハードウェア・スレッドに専用であり、関連するスレッドにより実行される命令が適切な実行ユニットへ発送するためiCACHEに確実にフェッチされるように使用される。図4にやはり示されるように、命令バッファ168内にフェッチされる命令は、分岐予測論理部176により監視することもでき、このことによって、スレッドの実行での分岐から生じる命令キャッシュ・ミスを最小化するため、手がかりを各スレッド・フェッチ・シーケンサ174へ提供する。
IU162は、各ハードウェア・スレッドに専用の、依存性/発行論理ブロック178も含み、依存性を解決して命令バッファ168からXU164への命令の発行を制御するように構成される。加えて、示された実施形態では、別個の依存性/発行論理部180がAXU166にもうけられ、したがって、異なるスレッドにより別個の命令をXU164およびAXU166へ同時に発行することを可能にする。代替の実施形態では、依存性/発行論理部180をIU162内に配設することができ、またはその全体を省略することができ、そのため、依存性/発行論理ブロック178がAXU166に命令を発行する。
XU164は、固定小数点論理部184、分岐論理部186、およびロード/ストア論理部188に結合される汎用レジスタ(GPR)182の組を含む、固定小数点実行ユニットとして実装される。ロード/ストア論理部188は、dERAT論理部192により提供される有効アドレス−実アドレス変換でL1データ・キャッシュ(dCACHE)190に結合される。XU164は、例えば32bまたは64bのPowerPC命令セットの全てまたは一部といった、事実上任意の命令セットを実装するように構成することができる。
AXU166は、専用の依存性/発行論理部180ならびに1つまたは複数の実行ブロック194を含む補助実行ユニットとして動作する。AXU166は、任意の数の実行ブロックを含むことができ、例えば、浮動小数点ユニット、あるいは暗号化/復号化ユニット、コプロセッサ、ベクトル処理ユニット、画像処理ユニット、XML処理ユニットなど1つまたは複数の特殊化した実行ユニットといった、事実上任意のタイプの実行ユニットを実装することができる。示された実施形態では、AXU166は、例えば、AXU設計された状態とXU設計された状態との間で直接動くことをサポートするために、XU164への高速補助インターフェイスを含む。
IPブロック104での通信は、NOC102に結合されたネットワーク・インターフェイス・コントローラ108を介して、図2に関して上で議論されたように管理することができる。例えばL2キャッシュ・メモリにアクセスするためといった、アドレス・ベースの通信は、メッセージ・ベースの通信と一緒に提供することができる。例えば、各IPブロック104は、IPブロック間のノード間通信を取り扱うために、専用の受信ボックスまたは送信ボックスあるいはその両方を含むことができる。
本発明の実施形態は、図1〜図4に関して上で記載されたハードウェア環境およびソフトウェア環境内に実装することができる。しかし、本発明が数多くの異なる環境で実装することができ、本発明の精神および範囲から逸脱することなく上記のハードウェアおよびソフトウェアの実施形態に他の変更を加えることができることは、本開示の恩恵を被る当業者には理解されよう。したがって本発明は、本明細書に開示される特定のハードウェアおよびソフトウェア環境に限定されない。
低遅延変数伝達ネットワーク
拡張されたハードウェア・スレッド化を介してシングル・スレッドのコード実行性能をより高くすることは、処理能力の計算において、長い間の目標であった。この目標を達するための1つのコンパイラのオプションは、シングル・スレッド化されたコードを多くの小さいコード・セグメントに分割し、それらを複数のハードウェア・スレッド上で並列に実行することである。例えば、図5に示されるように、シングル・スレッド化されたコード200は、場合によって、A〜Dと表される、複数のより小さいコード・セグメントに分割され、202、204、206、および208で示されるように複数のスレッドT0〜T3でそれぞれ実行することができる。
しかし、シングル・スレッド化されたコードを複数のセグメントに分割することは、ハードウェア・スレッド間に緊密な相互依存性をもたらすことがしばしばあり、その結果、完了するべき他のスレッドの結果を待つ間、スレッドがストールまたは遅延することになる。例えば、本発明に一致するいくつかの実施形態では、異なるスレッドで実行するコード・セグメント間で、本明細書では変数と呼ぶデータを伝達するために、コンパイラによって依存性のあるコード・セグメント内にput命令およびget命令が挿入される。例えば、図5は、R1に記憶された値を変数Xに割り当てる、スレッドT0で実行するコード・セグメントA内のput命令、および変数Xを取り出してその変数の内容をレジスタR72内に記憶する、スレッドT2で実行するコード・セグメントC内のget命令を示す。
データが1つのスレッドにより変数に記憶され、次いで別のスレッドにより取り出すことができる速度は、システム性能にかなりの影響をおよぼす可能性があり、比較的高遅延のデータ伝達は、全ての並列化の有効性を必然的に減少させることになる。というのは、変数が他のスレッドから到達するのを待って、より頻繁にスレッドがストールされるからである。
したがって本発明に一致する実施形態は、ハードウェア・スレッド間に本明細書では変数伝達ネットワークと呼ばれる低遅延レジスタ伝達機構をもうけることにより、マルチスレッド化した処理環境で1つまたは複数の処理コアに配設されるスレッド間で変数を通信する細粒化並列処理を容易にする。恩恵の中でもとりわけ、本発明に一致する実施形態は、単一のプロセス・スレッドを複数のスレッドの実行にわたって拡げ、シングル・スレッド化されたコードからそれ以上の性能を引き出すことを可能にすることができる。
以下でより詳細に議論される実施形態では、マルチスレッド化した処理環境が、ハードウェア・スレッド間で低遅延変数伝達を可能にする命令セットのアーキテクチャでの命令の組をサポートする。1つの実施形態では、拡張されたレジスタ・ファイルのエントリのグループが、他のハードウェア・スレッドから送信された変数を受け取るために使用されるFIFOのヘッドとして機能する。各FIFOは1つのエントリと同じくらい小さくてよく、またはシステム要件に基づいて、多数のエントリを含むことができる。次いで、これらのレジスタに依存する命令が既存の依存性チェック・ハードウェアを利用して、入力レジスタが利用可能となるまで、パイプライン・レベルのストールを可能にすることができる。したがって、ソース・オペランドが利用可能になるまで、依存性命令は、命令発行待ち行列で待つ。入力レジスタは、それが送信側ハードウェア・スレッドから受け取られるとすぐに利用可能となり、クレジット・スキームが望ましくは使用されてFIFOを管理し、そのため、利用可能なスロットがあるときは、レジスタ値を伝送するのに遅延がない。送信先ハードウェア・スレッド上で、レジスタ値が設計されたレジスタに移動され、FIFOレジスタのヘッドをクリアし、送信側ハードウェア・スレッドにクレジットを直ちに返して、次の伝達を可能にする。
異なる実施形態では、拡張されたレジスタのエントリは、固定小数点部内、浮動小数点部内、またはハードウェア・スレッド間で完全なベクトル・レジスタ変数までを伝達するのを可能にするベクトル・レジスタ・ファイル内、あるいはそれらの組合せ内に含むことができる。しかし、他の実施形態では、FIFOレジスタは、任意のレジスタ・ファイルから別個に実装することができ、そのため本発明は、そのように限定されない。
例えば、図6は、マルチスレッド化した処理環境の例示的な実装、すなわちデータ処理システム210を示し、そこでは、本発明に一致した方法で、低遅延変数伝達ネットワークを実装することができる。データ処理システム210は、4つの処理コア212(コアA〜Dとも表される)を含んで実装され、それぞれが、4つのハードウェア・スレッド214(スレッドT0〜T3とも表される)、および低遅延変数伝達ネットワーク218により互いに結合される、ハードウェア・スレッド214により共有される共通レジスタ・ファイル216を含む。したがって、合計16のスレッドが4つの処理コア212間でサポートされる。
処理コア212は、典型的には、マルチコア・プロセッサ・チップまたはSOCデバイスなどの共通の集積回路デバイス上に配設され、コアは、典型的には、(例えば、NOC構成で)他の通信バスまたはネットワークあるいはその両方を介して互いに結合され、チップ上の他の構成要素を共有することが理解されよう。しかし、これらの追加の通信バス、ネットワーク、および構成要素は、本発明の議論を簡略化するため、図6から省略される。
データ処理システム210に低遅延変数伝達ネットワークを実装するために、各処理コアは、共通レジスタ・ファイル216に拡張されたレジスタとして実装される複数の変数レジスタ220を含み、変数伝達ネットワーク制御論理部222がこれらの変数レジスタ220を低遅延変数伝達ネットワーク218とインターフェイスする。例えば、図7に示されるように、共通レジスタ・ファイル216は、4つのスレッドに特定のグループに仕切られる、128個のローカル・レジスタR0〜R127を含むことができ、そのため、各スレッドT0〜T3は32個のローカル・レジスタに割り振られる。加えて、共通レジスタ・ファイル216は、VR0〜VR15とも呼ばれる複数の変数レジスタ220で拡張することができ、1つの変数レジスタが、データ処理システム内の各個別スレッドに割り振られるまたは割り当てられる。
加えて、ハードウェア・スレッド間の変数の伝達を調整するために、各変数レジスタは、関連するクレジット・フラグ224および有効フラグ226を有する。クレジット・フラグ224は、クレジット・ベースのプロトコルで使用され、送信元スレッドが利用可能クレジットを有するときだけ、送信元スレッドが送信先スレッドに新しい変数を通信することを可能にし、一方有効フラグ226は、送信元スレッドにより使用され、いつ有効なデータが変数レジスタに書き込まれたかを示す。有効フラグ226は、送信先スレッドが変数を読み取り、送信元スレッドにクレジットを送り返すことに応答してクリアされる。
変数伝達ネットワークが実装される方法は、異なる実施形態で変化することができる。例えば、図8に示されるように、変数伝達ネットワークは、各処理コア212用に、別個の専用の送信バス230をそれぞれの他の処理コア212にもうけることにより実装することができる。特に、図8は、コアAをイネーブルにして、コアB、コアC、およびコアDのそれぞれに変数を送信するために実装することができる、3つの専用の送信バス230を示す。それぞれの他のコアB、コアC、およびコアDは、それ自体の専用の送信バスを備えることができ、このことにより、合計12個の送信バス、すなわちコアの対当たり2つがもうけられることを理解されよう。
各送信バス230は、主に、送信側コア内の変数伝達ネットワーク制御論理部222により駆動され、内部コアの送信バス232を介して変数レジスタ220に結合される。図8を簡略化するために、コアAからコアCへの送信バス230だけが、その個別の信号経路に分割されているが、コアAからコアBおよびコアAからコアDの送信バスが同様に構成されることを理解されよう。
この実施形態では、変数レジスタ220を含む、共通レジスタ・ファイル216内のレジスタは、64ビット幅であり、したがって、64本のデータ線の組が各送信バス230にもうけられ、同じクロック・サイクルで変数レジスタの内容を通信する。データ線を介して変数を通信することと同時に、2ビットスレッド識別子(スレッドID)と同様に、1ビッド有効信号がアサートされる。単一のビットを返す線が使用され、変数が送信先スレッドにより読み取られたときに、送信先コアから送信元コアにクレジットを返す。したがって各送信バス230は68個の信号経路を用いて実装され、クレジット線は送信先コアにより駆動され、他の全ての線は送信元コアにより駆動される。
図9は、送信バス230を介した典型的な変数伝送のタイミング図を示し、これにより、変数が特定の送信先スレッドに向けて変数レジスタに書き込まれると、変数レジスタ用の有効フラグが設定され、送信先スレッドが常駐する処理コアに結合される送信バス上にデータがアサートされる(時間A)。加えて、送信先スレッド用の識別子(T0〜T3)がスレッドID線上にアサートされ、そのため、送信先処理コア内の適切な変数レジスタにデータをルーティングすることができる。下でより詳細に議論されるように、データが変数レジスタに記憶され、変数レジスタ内の有効フラグが送信先コア内で設定される。
その後のある時(時間B)に、送信先処理コア内の送信先スレッドが変数レジスタを読み取り、送信先コアの変数レジスタ内の有効フラグをクリアし、クレジットを送信側処理コアに返させ、送信側処理コアに、送信側処理コア内の変数レジスタの有効ビットをクリアさせる。
変数伝達ネットワークは、いくつかの実施形態で、異なる処理コア間の通信に使用されるものと同じプロトコルを利用して、同じ処理コア上のスレッド間の変数の、スレッド間通信を可能にし、またはいくつかの実施形態で所望であれば、スレッドがそれ自体に変数を送ることを可能にさえするように構成できることも理解されよう。
各処理コアから他の処理コアのそれぞれへの別個の送信バスを使用することによって、スレッド間のコンフリクトの可能性を最小化した非常に低遅延の動作が可能になる。しかし、他の実施形態では、他の実装を使用することができる。例えば、図10は、各処理コアに別個の送信バスを利用するのではなく、各処理コア212用に他の3つの処理コアへ単一の送信バス232’がもうけられる場合の代替実装を示す。したがって、図10では、コアA用に単一の送信バス232’を示しているが、コアB〜コアDのそれぞれがそれ自体の送信バス232’を含み、合計4つのバスとなることが理解されよう。送信バス232’は、送信バス232と同様に構成することができるが、変数用に送信先コアを符号化する2つのコアID線を追加し、その結果、3つの処理コア全てが送信バス232’を介して通信される各変数を探るのだが、送信先スレッドを有する処理コアだけがプロトコルに関与する。この点に関連して、4つのコアID線およびスレッドID線が集合的に、16個のハードウェア・スレッドのうちの単一のスレッドを識別する。
本発明の他の実施形態では、他のネットワーク通信を使用することができる。例えば、いくつかの実装では、例えばバッファ234といった1つまたは複数のバッファを組み込むことが望ましい場合がある。というのは、信号伝搬遅延を考慮すると、処理コア間のより長い相互接続で必要な場合があるからである。それにも関わらず、本明細書で開示されるプロトコルでは、変数の送信および受信は非同期で取り扱われるので、1つまたは複数のバッファを追加することは、伝送の遅延を増加させる一方で、それにも関わらず、伝送プロトコルに影響をおよぼすことがない。加えて、同じ処理コア内のスレッド間のスレッド間変数伝送は、コア間通信に要求される信号経路の長さと比較して、コア内の信号経路の長さが実質的により短いことに起因して、コア間伝送に要求されうるプロトコルに依拠しない最適化されたプロトコルを利用できることを理解されよう。さらに、いくつかの実装では、各スレッドは、変数伝達ネットワークに関与する全ての他の一意のスレッドに専用送信バスを有することができ、このことによってスレッドID線またはコアID線の必要を完全になくすことになる。
いくつかの実施形態では、変数伝達ネットワーク内の信号経路の数を減少させるために、より狭いバスを利用することが望ましい場合もある。例えば、64ビットの変数に関して、2、4、または8サイクルにわたって通信される32ビット、16ビット、または8ビットの部片に変数を分割することができる。あるいは、直列伝送プロトコルを使用することができる。これらの変形形態のそれぞれでは、より少ない信号経路が要求されるが、遅延が増加することを代償としており、このことは、性能を最大化するため最小の遅延が望まれる用途では、望ましくない可能性がある。
次いで、図11および図12は、本発明に一致する低遅延変数伝達ネットワークを利用することができる例示的なput命令およびget命令を示す。put命令(送信元スレッドにより実行され、ローカル・レジスタRxに記憶された値を、送信先スレッドyに関して変数レジスタVRyに送信する、put VRy、Rx)は、図11の250で示されるように、最初にブロック252で、変数レジスタVRy内のクレジット・フラグを送信先スレッドyに関してチェックして、クレジットがレジスタに関して利用可能であるかどうか決定することによって取り扱われる。利用可能でない場合、送信元スレッドは、クレジットが利用可能になるまで、従来型の依存性論理部を使用してストールする。
しかし、クレジットが利用可能である場合、制御はブロック254に進み、送信先スレッドが常駐するコアに関して送信バスを選択し、次いでブロック256に進み、レジスタRxの内容を送信バスに移動し、レジスタRxに記憶された値をデータ線にアサートし、送信バスの有効線をアサートし、送信バスのスレッドID線に送信先コア内の送信先スレッドの識別子をアサートする。このデータが送信バスに一度アサートされたら、送信側スレッドは解放されて次に進み、命令ストリーム中の後続の命令を実行する。
get命令(送信先スレッドにより実行され、送信元スレッドyの変数レジスタに記憶された変数をローカル・レジスタRxに移動する、get Rx、VRy)は、図12の260で示されるように、最初にブロック262で、変数レジスタVRy内の有効フラグをチェックして、有効なデータが変数レジスタに記憶されているかどうか決定することによって取り扱われる。記憶されていない場合、送信先スレッドは、有効なデータが変数レジスタに示されるまで従来型の依存性論理部を使用してストールする。
しかし、有効なデータが変数レジスタに記憶されている場合、制御はブロック264に進み、変数レジスタ内の有効フラグをクリアし、次いでブロック266に進み、送信元スレッドが常駐するコアに関して送信バスを選択する。次いで、ブロック268で、クレジットが送信バスを介して返され、変数が読み取られたことを送信元コアに通知する。クレジットが送信バスに一度アサートされたら、送信先スレッドは解放されて次に進み、命令ストリーム中の後続の命令を実行する。
図11〜図12に示されたput命令およびget命令に関して、送信元スレッド内のput命令が送信先スレッドに関連する変数レジスタに移動するが、送信元スレッドに関連する変数レジスタ内の送信先スレッドにデータが提示され、その結果、送信先スレッド内のget命令が、送信元スレッドに関連する変数レジスタから移動し、送信元スレッド自体ではないように変数伝達ネットワークが構成されることを理解されよう。
したがって、例えば、1つの処理コア上のローカル・レジスタR1に記憶されたデータを、その処理コア上で実行しているスレッド0を使用して、別の処理コア上のローカル・レジスタR29に、その別の処理コア上のスレッド1(グローバルには、スレッド13として識別される)によりアクセスするため移動することが求められる場合、スレッド0は、典型的には、「put VR13、R1」動作を実施し、そのローカル・レジスタR1の内容を、スレッド13に関して変数レジスタVR13に移動させることになる。その別の処理コア上のスレッド13は、典型的には、次いで「get R29、VR0」動作を実施し、変数レジスタVR0の内容を、スレッド0に関してそのローカル・レジスタR29に移動させることになる。
示された実施形態では、put命令およびget命令は、典型的には、例えば、アプリケーションの開発およびコンパイルの期間に、最適化コンパイラによりアプリケーションの1つまたは複数の命令ストリームに組み込まれる。上記のように、命令は、シングル・スレッド化されたコードを複数の仮想スレッドに並列化することに関して使用することができる。コンパイル期間に、遅延を最小化するため可能なときはいつでも、同じ処理コア上で互いの間で変数を頻繁に受け渡す仮想スレッドを、コンパイラがコロケートすることが典型的には望ましいことを理解されたい。さらに、例えば、同じプロセッサ・チップ上で互いから遠いコア間のより長い経路を取り扱うために、変数伝達ネットワーク内にバッファを挿入することに起因して、異なる処理コア間で遅延が異なる場合、またはいくつかの処理コアが異なるチップ上に配設される可能性があるとき、コンパイラはそのことを、仮想スレッドを処理コアに割り当てるときに、考慮することができる。
本発明に一致する変数伝達ネットワークは、コンパイラ・スレッド仮想化に関連して使用される必要はなく、低遅延スレッド間通信を必要とする他のアプリケーションに有用性を見いだすことができることも理解されよう。
上記のように、示された実施形態内の各変数レジスタは、その関連するハードウェア・スレッド用の受信ボックスにそっくりの、単一エントリの待ち行列またはFIFOデータ構造体のヘッドとして機能する。しかし、変数レジスタは、複数のエントリの待ち行列またはFIFOを使用して実装することができ、クレジット・ベースのプロトコルは、送信元スレッドに複数のクレジットを付与して、送信先スレッドが以降に消費するため複数の変数をバッファすることを可能にできることが理解されよう。
加えて、示された実施形態内の各変数レジスタは、レジスタ・ファイル内の他のレジスタとほとんど同じようにアクセス可能であり、各処理コアの既存の依存性論理部に結合され、その結果、既存の依存性論理部を活用して、命令間遅延が同期される同じように変数レジスタへのアクセスを同期することができる。
様々な実施形態では、変数レジスタが異なるレジスタ・ファイル内に組み込まれ、異なる実行ユニットにより利用されて、例えば、その結果、低遅延変数伝達ネットワークが固定小数点実行ユニット、浮動小数点実行ユニット、スカラー実行ユニット、ベクトル実行ユニットまたはこれらの様々な組合せのためにだけ実装される場合があることを理解されよう。
さらに、示された実施形態は、16個のスレッドが、4つの処理コア間の4つのグループに分散されるプロセッサ・チップを開示するが、本発明は、任意の数のスレッドおよび任意の数の処理コアに関連して利用できることを理解されよう。加えて、本明細書に開示された、クレジット・ベースの単一のエントリの待ち行列プロトコルの代替として、他の同期プロトコル、待ち行列プロトコル、またはハンドシェイク・プロトコルあるいはその組合せを使用でき、本明細書で開示されたネットワーク・トポロジー以外の他のネットワーク・トポロジーを使用できることを理解されよう。したがって、本発明は、本明細書に開示された特定の実装の詳細に限定されない。
加えて、変数レジスタは、変数伝達ネットワーク内に関与するあらゆるハードウェア・スレッド用にあらゆるコア内に完全に設計されているが、本発明に一致する実施形態は、あらゆるコア内の各レジスタ用に完全な論理回路を実装する必要はないことを理解されよう。例えば、いくつかの実施形態で、共有化した受信ボックス/送信ボックスとして機能する共有化したバッファを使用して、変数がレジスタ・ファイル内のローカル・レジスタに受け渡される前に変数を一時的に記憶し、このことにより、あらゆるコア内のあらゆる変数レジスタ用に記憶装置を割り振る必要を回避する。また、スレッドが割り振られた変数レジスタにスレッドがデータを送ることを可能にすることが望ましい場合がある。そのようにすることによって、各スレッドにそれ自体のスクラッチ・レジスタを効果的に提供することになる。加えて、いくつかの実施形態では、所与のコア内のローカル・スレッドについて変数レジスタを省略すること、またはいくつかの実装で有効インジケータもしくはクレジット・インジケータを省略することが望ましい場合がある。いくつかの実施形態では、変数レジスタ内の直接的とは異なるデータ構造体でクレジット・インジケータまたは有効インジケータあるいはその両方を実装することが望ましい場合もある。加えて、いくつかの実施形態では、各処理コア内のスレッドのサブセットだけが変数伝達ネットワークをサポートする場合があり、このことによって、変数伝達を必要とする任意の作業負荷をそれらのスレッド上で実行し、変数伝達を必要としない他の作業負荷を他のスレッド上で実行することを可能にしながら、変数伝達ネットワークを実装するのに必要な論理回路の削減を可能にすることができる。本発明の範囲から逸脱することなく、開示された実施形態に対し、様々な追加の変更を行うことができる。

Claims (23)

  1. 複数の処理コア内に配設される複数のハードウェア・スレッドであって、各処理コアが、レジスタ・ファイル、および前記複数のハードウェア・スレッドのうちの少なくとも1つのハードウェア・スレッドを含み、各処理コア内の前記レジスタ・ファイルが前記ハードウェア・スレッドに対応する複数のローカル・レジスタを含む、前記複数のハードウェア・スレッドと、
    前記複数の処理コア間で結合される変数伝達ネットワークであって、前記複数の処理コアのうちの送信元処理コア内の送信元ハードウェア・スレッドと前記複数の処理コアのうちの送信先処理コア内の送信先ハードウェア・スレッドとの間で変数を通信するように構成される、前記変数伝達ネットワークと
    前記レジスタ・ファイルに含まれる複数の変数レジスタであって、各変数レジスタが前記複数のハードウェア・スレッドのうちの個別のハードウェア・スレッドに割り振られる、前記複数の変数レジスタをさらに備え、前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタ内の前記変数の格納に応答して前記送信先処理コアに前記変数を通信するように前記変数伝達ネットワークが構成される、前記複数の変数レジスタと
    を備える、回路装置。
  2. 前記複数の変数レジスタが各処理コアの前記レジスタ・ファイル内に設計され、各処理コア内に配設される依存性論理部が、前記レジスタ・ファイル内の複数のローカル・レジスタおよび前記複数の変数レジスタの両方についての依存性を取り扱う、請求項1に記載の回路装置。
  3. 前記送信元ハードウェア・スレッドにより実行される命令に応答して前記送信先処理コアに前記変数を通信するように前記変数伝達ネットワークが構成される、請求項1に記載の回路装置。
  4. 前記命令が、前記送信元処理コアの前記レジスタ・ファイル内の複数のローカル・レジスタのうちのローカル・レジスタから前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタに前記変数を移動させるput命令を含む、請求項3に記載の回路装置。
  5. 前記送信先ハードウェア・スレッドが前記変数伝達ネットワークを介して変数を受け取る準備ができているかどうかを示すクレジット・フラグを、前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタが含み、前記送信先ハードウェア・スレッドが変数を受け取る準備ができていることを前記クレジット・フラグが示すまで、前記put命令をストールするように前記送信元処理コアが構成される、請求項4に記載の回路装置。
  6. 前記送信元処理コア内の前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタ内の前記変数を、送信処理コア内の送信ハードウェア・スレッドが格納することに応答して、前記送信先処理コア内の前記送信元ハードウェア・スレッドに関連する前記変数レジスタで前記変数を提示するように前記変数伝達ネットワークが構成され、前記送信先ハードウェア・スレッドにより実行される命令に応答して、前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタから前記送信先処理コアの前記レジスタ・ファイル内のローカル・レジスタに前記変数を移動するように前記送信先ハードウェア・スレッドが構成される、請求項1に記載の回路装置。
  7. 前記命令がget命令を含み、前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタが、前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタ内に有効なデータが記憶されているかどうかを示す有効フラグを含み、前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタ内に有効なデータが記憶されていることを前記有効フラグが示すまで、前記get命令をストールするように前記送信先処理コアが構成される、請求項6に記載の回路装置。
  8. 前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタから前記送信先処理コアの前記レジスタ・ファイル内のローカル・レジスタに前記変数を移動することに応答して、前記変数伝達ネットワークを介してクレジットを返すように前記送信先処理コアが構成される、請求項6に記載の回路装置。
  9. 前記変数伝達ネットワークが、前記送信元処理コアと前記送信先処理コアとの間に結合される送信バスを備え、前記送信バスが、前記変数を通信するように構成される複数のデータ線、前記送信先ハードウェア・スレッド用に識別子を通信するように構成される少なくとも1つのスレッド識別子線、および有効なデータが前記複数のデータ線を介して通信されていることを示すように構成される有効線を含む、請求項1に記載の回路装置。
  10. 前記データ線、スレッド識別子線、および有効線のそれぞれが前記送信元処理コアにより駆動され、前記送信先処理コアにより駆動され前記送信先ハードウェア・スレッドによる前記変数の伝達が成功したことに応答して前記送信元処理コアにクレジットを返すように構成されるクレジット線を前記送信バスがさらに備える、請求項9に記載の回路装置。
  11. 前記送信バスが前記送信元処理コアから前記送信先処理コアに専用バスを備え、前記変数伝達ネットワークが複数の送信バスを備え、そのため、前記複数の処理コアのそれぞれが前記複数の処理コアのうちのそれぞれの他の処理コアへの専用バスを含む、請求項9に記載の回路装置。
  12. 前記送信バスが前記送信元処理コアから前記複数の処理コアのうちのそれぞれの他の処理コアに結合され、前記送信先処理コア用に識別子を通信するように構成される少なくとも1つのコア識別子線を前記送信バスがさらに含む、請求項9に記載の回路装置。
  13. 請求項1に記載の回路装置を含む、集積回路デバイス。
  14. 複数の処理コア内に配設される複数のハードウェア・スレッド間で変数を通信する方法であって、各処理コアがレジスタ・ファイルおよび前記複数のハードウェア・スレッドのうちの少なくとも1つのハードウェア・スレッドを含み、各処理コア内の前記レジスタ・ファイルが前記ハードウェア・スレッドに対応する複数のローカル・レジスタを含み、前記レジスタ・ファイルが複数の変数レジスタを含み、
    前記複数の処理コアのうちの送信元処理コア内の送信元ハードウェア・スレッドを用いて、前記複数の処理コアのうちの送信先処理コア内の送信先ハードウェア・スレッドへの変数の伝達を開始するステップと、
    前記変数の前記伝達を開始するステップに応答して、前記送信元処理コアから前記送信先処理コアに、前記送信元処理コアおよび前記送信先処理コアに結合された変数伝達ネットワークを介して前記変数を通信するステップと
    を含み、
    前記変数の前記伝達を開始するステップが前記送信先ハードウェア・スレッドに割り振られる変数レジスタ内に前記変数を格納するステップを含み、前記変数レジスタが、マルチコア処理チップ上に配設される複数の変数レジスタの中にあり、各変数レジスタが前記複数のハードウェア・スレッドの中の個別のハードウェア・スレッドに割り振られる、
    方法。
  15. 前記複数の変数レジスタが各処理コアの前記レジスタ・ファイル内に設計され、各処理コア内に配設される依存性論理部が、前記レジスタ・ファイル内の複数のローカル・レジスタおよび前記複数の変数レジスタの両方についての依存性を取り扱う、請求項14に記載の方法。
  16. 前記変数の前記伝達を開始するステップが、前記送信元ハードウェア・スレッドを用いてput命令を実行するステップを含み、前記put命令が前記送信元処理コアの前記レジスタ・ファイル内の複数のローカル・レジスタのうちのローカル・レジスタから前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタに前記変数を移動させる、請求項14に記載の方法。
  17. 前記送信先ハードウェア・スレッドが前記変数伝達ネットワークを介して変数を受け取る準備ができているかどうかを示すクレジット・フラグを、前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタが含み、前記送信先ハードウェア・スレッドが変数を受け取る準備ができていることを前記クレジット・フラグが示すまで前記put命令をストールするステップをさらに含む、請求項16に記載の方法。
  18. 前記送信元処理コア内の前記送信先ハードウェア・スレッドに割り振られる前記変数レジスタ内の前記変数を、送信処理コア内の送信ハードウェア・スレッドが格納することに応答して、前記送信先処理コア内の前記送信元ハードウェア・スレッドに関連する前記変数レジスタで前記変数を提示するように前記変数伝達ネットワークが構成され、前記方法が、前記送信先ハードウェア・スレッドにより実行されるget命令に応答して、前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタから前記送信先処理コアの前記レジスタ・ファイル内の複数のローカル・レジスタのうちのローカル・レジスタに前記変数を移動するステップをさらに含み、前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタが、有効なデータが前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタに記憶されているかどうかを示す有効フラグを含み、前記方法が、有効なデータが前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタに記憶されていることを前記有効フラグが示すまで前記get命令をストールするステップをさらに含む、請求項14に記載の方法。
  19. 前記送信先処理コア内の前記送信元ハードウェア・スレッドに割り振られる前記変数レジスタから前記送信先処理コアの前記レジスタ・ファイル内の複数のローカル・レジスタのうちのローカル・レジスタに前記変数を移動するステップに応答して、前記変数伝達ネットワークを介してクレジットを返すステップをさらに含む、請求項18に記載の方法。
  20. 前記変数伝達ネットワークが前記送信元処理コアと前記送信先処理コアとの間に結合される送信バスを備え、前記送信バスが、前記変数を通信するように構成される複数のデータ線、前記送信先ハードウェア・スレッド用に識別子を通信するように構成される少なくとも1つのスレッド識別子線、および有効なデータが前記複数のデータ線を介して通信されていることを示すように構成される有効線を含み、前記データ線、スレッド識別子線、および有効線のそれぞれが前記送信元処理コアにより駆動され、前記送信先処理コアにより駆動され前記送信先ハードウェア・スレッドへの前記変数の伝達が成功したことに応答して前記送信元処理コアにクレジットを返すように構成されるクレジット線を前記送信バスがさらに含む、請求項14に記載の方法。
  21. 前記送信バスが前記送信元処理コアから前記送信先処理コアに専用バスを備え、前記変数伝達ネットワークが複数の送信バスを備え、そのため、前記複数の処理コアのそれぞれが前記複数の処理コアのうちのそれぞれの他の処理コアへの専用バスを含む、請求項20に記載の方法。
  22. 前記送信バスが前記送信元処理コアから前記複数の処理コアのうちのそれぞれの他の処理コアに結合され、前記送信先処理コア用に識別子を通信するように構成される少なくとも1つのコア識別子線を前記送信バスがさらに含む、請求項20に記載の方法。
  23. 請求項14〜22の何れかに記載の方法の各ステップを、コンピュータに実行させるプログラム・コードを備える、プログラム。
JP2014548257A 2011-12-20 2012-12-05 複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワークを利用する回路装置、集積回路デバイス、プログラム製品および方法(複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワーク) Expired - Fee Related JP5764265B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/330,831 2011-12-20
US13/330,831 US9021237B2 (en) 2011-12-20 2011-12-20 Low latency variable transfer network communicating variable written to source processing core variable register allocated to destination thread to destination processing core variable register allocated to source thread
PCT/IB2012/056968 WO2013093681A1 (en) 2011-12-20 2012-12-05 Low latency variable transfer network for fine grained parallelism of virtual threads across multiple hardware threads

Publications (2)

Publication Number Publication Date
JP2015501056A JP2015501056A (ja) 2015-01-08
JP5764265B2 true JP5764265B2 (ja) 2015-08-19

Family

ID=48611442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014548257A Expired - Fee Related JP5764265B2 (ja) 2011-12-20 2012-12-05 複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワークを利用する回路装置、集積回路デバイス、プログラム製品および方法(複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワーク)

Country Status (6)

Country Link
US (1) US9021237B2 (ja)
JP (1) JP5764265B2 (ja)
CN (1) CN104011676B (ja)
DE (1) DE112012005058T5 (ja)
GB (1) GB2512004B (ja)
WO (1) WO2013093681A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8824295B2 (en) * 2011-12-30 2014-09-02 Qualcomm Technologies, Inc. Link between chips using virtual channels and credit based flow control
US9378168B2 (en) * 2013-09-18 2016-06-28 International Business Machines Corporation Shared receive queue allocation for network on a chip communication
US9473415B2 (en) * 2014-02-20 2016-10-18 Netspeed Systems QoS in a system with end-to-end flow control and QoS aware buffer allocation
US9520180B1 (en) 2014-03-11 2016-12-13 Hypres, Inc. System and method for cryogenic hybrid technology computing and memory
US9742630B2 (en) * 2014-09-22 2017-08-22 Netspeed Systems Configurable router for a network on chip (NoC)
US9979668B2 (en) * 2014-12-22 2018-05-22 Intel Corporation Combined guaranteed throughput and best effort network-on-chip
CN105827535A (zh) * 2015-01-06 2016-08-03 普天信息技术有限公司 硬线程多核中央处理器的报文转发方法及装置
US10348563B2 (en) 2015-02-18 2019-07-09 Netspeed Systems, Inc. System-on-chip (SoC) optimization through transformation and generation of a network-on-chip (NoC) topology
US20160274915A1 (en) * 2015-03-20 2016-09-22 Qualcomm Incorporated PROVIDING LOWER-OVERHEAD MANAGEMENT OF DATAFLOW EXECUTION OF LOOP INSTRUCTIONS BY OUT-OF-ORDER PROCESSORS (OOPs), AND RELATED CIRCUITS, METHODS, AND COMPUTER-READABLE MEDIA
US10218580B2 (en) 2015-06-18 2019-02-26 Netspeed Systems Generating physically aware network-on-chip design from a physical system-on-chip specification
CN105183434B (zh) * 2015-10-14 2017-08-11 无锡江南计算技术研究所 采用隐式求解的众核流水线并行方法
US20170116154A1 (en) * 2015-10-23 2017-04-27 The Intellisis Corporation Register communication in a network-on-a-chip architecture
CN106091568A (zh) * 2016-06-29 2016-11-09 合肥华凌股份有限公司 一种基于并行多线程的智能冰箱食品管理方法、系统及智能冰箱
US10452124B2 (en) 2016-09-12 2019-10-22 Netspeed Systems, Inc. Systems and methods for facilitating low power on a network-on-chip
KR101956992B1 (ko) * 2016-11-25 2019-06-27 현대오트론 주식회사 멀티 코어 시스템 및 이의 구동 방법
US20180159786A1 (en) 2016-12-02 2018-06-07 Netspeed Systems, Inc. Interface virtualization and fast path for network on chip
US10063496B2 (en) 2017-01-10 2018-08-28 Netspeed Systems Inc. Buffer sizing of a NoC through machine learning
US10469337B2 (en) 2017-02-01 2019-11-05 Netspeed Systems, Inc. Cost management against requirements for the generation of a NoC
KR102322740B1 (ko) * 2017-04-24 2021-11-09 에스케이하이닉스 주식회사 복수의 프로세서를 포함하는 컨트롤러 및 컨트롤러의 동작방법
US10872393B2 (en) * 2017-05-15 2020-12-22 Google Llc Image processor with high throughput internal communication protocol
US10983910B2 (en) 2018-02-22 2021-04-20 Netspeed Systems, Inc. Bandwidth weighting mechanism based network-on-chip (NoC) configuration
US10547514B2 (en) 2018-02-22 2020-01-28 Netspeed Systems, Inc. Automatic crossbar generation and router connections for network-on-chip (NOC) topology generation
US11144457B2 (en) 2018-02-22 2021-10-12 Netspeed Systems, Inc. Enhanced page locality in network-on-chip (NoC) architectures
US11176302B2 (en) 2018-02-23 2021-11-16 Netspeed Systems, Inc. System on chip (SoC) builder
US11023377B2 (en) 2018-02-23 2021-06-01 Netspeed Systems, Inc. Application mapping on hardened network-on-chip (NoC) of field-programmable gate array (FPGA)
US11513838B2 (en) * 2018-05-07 2022-11-29 Micron Technology, Inc. Thread state monitoring in a system having a multi-threaded, self-scheduling processor
GB2575294B8 (en) * 2018-07-04 2022-07-20 Graphcore Ltd Host Proxy On Gateway
WO2021050951A1 (en) 2019-09-11 2021-03-18 Intel Corporation Hardware queue scheduling for multi-core computing environments

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2602240B2 (ja) * 1987-08-28 1997-04-23 株式会社日立製作所 マルチプロセツサシステム
US6766517B1 (en) * 1999-10-14 2004-07-20 Sun Microsystems, Inc. System and method for facilitating thread-safe message passing communications among threads in respective processes
JP2001167066A (ja) * 1999-12-08 2001-06-22 Nec Corp プロセッサ間通信方法及びマルチプロセッサシステム
US20020103847A1 (en) * 2001-02-01 2002-08-01 Hanan Potash Efficient mechanism for inter-thread communication within a multi-threaded computer system
JP3925105B2 (ja) * 2001-05-16 2007-06-06 日本電気株式会社 マルチプロセッサシステム
CN100520714C (zh) 2005-01-25 2009-07-29 Nxp股份有限公司 多线程处理器
US7814242B1 (en) * 2005-03-25 2010-10-12 Tilera Corporation Managing data flows in a parallel processing environment
US8209690B2 (en) 2006-01-19 2012-06-26 University Of Maryland System and method for thread handling in multithreaded parallel computing of nested threads
US8108844B2 (en) 2006-06-20 2012-01-31 Google Inc. Systems and methods for dynamically choosing a processing element for a compute kernel
US20080024489A1 (en) * 2006-07-28 2008-01-31 Robert Allen Shearer Cache Utilization Optimized Ray Traversal Algorithm with Minimized Memory Bandwidth Requirements
KR101286700B1 (ko) * 2006-11-06 2013-07-16 삼성전자주식회사 멀티 코어 프로세서 시스템에서 로드 밸런싱을 위한 장치및 방법
JP5379122B2 (ja) * 2008-06-19 2013-12-25 パナソニック株式会社 マルチプロセッサ
US8239866B2 (en) 2009-04-24 2012-08-07 Microsoft Corporation Reduction of memory latencies using fine grained parallelism and FIFO data structures
CN101661386B (zh) 2009-09-24 2013-03-20 成都市华为赛门铁克科技有限公司 多硬件线程处理器的业务处理装置及其业务处理方法
CN101957744B (zh) 2010-10-13 2013-07-24 北京科技大学 一种用于微处理器的硬件多线程控制方法及其装置
CN102012803B (zh) * 2010-11-25 2014-09-10 中国人民解放军国防科学技术大学 支持多宽度simd和多粒度simt的可配置矩阵寄存器单元
US8572628B2 (en) * 2010-12-02 2013-10-29 International Business Machines Corporation Inter-thread data communications in a computer processor

Also Published As

Publication number Publication date
GB2512004B (en) 2015-01-07
CN104011676B (zh) 2017-03-01
DE112012005058T5 (de) 2014-09-18
GB2512004A (en) 2014-09-17
GB201412178D0 (en) 2014-08-20
JP2015501056A (ja) 2015-01-08
CN104011676A (zh) 2014-08-27
WO2013093681A1 (en) 2013-06-27
US20130159669A1 (en) 2013-06-20
US9021237B2 (en) 2015-04-28

Similar Documents

Publication Publication Date Title
JP5764265B2 (ja) 複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワークを利用する回路装置、集積回路デバイス、プログラム製品および方法(複数のハードウェア・スレッドにわたる仮想スレッドの細粒化並列処理のための低遅延変数伝達ネットワーク)
US10831504B2 (en) Processor with hybrid pipeline capable of operating in out-of-order and in-order modes
US9606841B2 (en) Thread scheduling across heterogeneous processing elements with resource mapping
US8140830B2 (en) Structural power reduction in multithreaded processor
US10521234B2 (en) Concurrent multiple instruction issued of non-pipelined instructions using non-pipelined operation resources in another processing core
US7945764B2 (en) Processing unit incorporating multirate execution unit
US7873816B2 (en) Pre-loading context states by inactive hardware thread in advance of context switch
US8719455B2 (en) DMA-based acceleration of command push buffer between host and target devices
JP6381541B2 (ja) データ処理システム中で命令を処理する方法、回路構成、集積回路デバイス、プログラム製品(リモート処理ノード中のアドレス変換データ構造を更新するための変換管理命令)
US7809925B2 (en) Processing unit incorporating vectorizable execution unit
US8495643B2 (en) Message selection based on time stamp and priority in a multithreaded processor
US7904700B2 (en) Processing unit incorporating special purpose register for use with instruction-based persistent vector multiplexer control
US8356162B2 (en) Execution unit with data dependent conditional write instructions
US8291201B2 (en) Dynamic merging of pipeline stages in an execution pipeline to reduce power consumption
US7904699B2 (en) Processing unit incorporating instruction-based persistent vector multiplexer control
US20090260013A1 (en) Computer Processors With Plural, Pipelined Hardware Threads Of Execution
US20130138925A1 (en) Processing core with speculative register preprocessing
US20130159668A1 (en) Predecode logic for autovectorizing scalar instructions in an instruction buffer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140704

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140704

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150612

R150 Certificate of patent or registration of utility model

Ref document number: 5764265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees