JP7447241B2 - 円環コンピュータネットワークへのリングの組み込み - Google Patents

円環コンピュータネットワークへのリングの組み込み Download PDF

Info

Publication number
JP7447241B2
JP7447241B2 JP2022508517A JP2022508517A JP7447241B2 JP 7447241 B2 JP7447241 B2 JP 7447241B2 JP 2022508517 A JP2022508517 A JP 2022508517A JP 2022508517 A JP2022508517 A JP 2022508517A JP 7447241 B2 JP7447241 B2 JP 7447241B2
Authority
JP
Japan
Prior art keywords
links
bandwidth
layer
computer
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022508517A
Other languages
English (en)
Other versions
JP2022543886A (ja
Inventor
ノウルズ サイモン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Graphcore Ltd
Original Assignee
Graphcore Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB2004430.1A external-priority patent/GB202004430D0/en
Priority claimed from GBGB2006402.8A external-priority patent/GB202006402D0/en
Application filed by Graphcore Ltd filed Critical Graphcore Ltd
Publication of JP2022543886A publication Critical patent/JP2022543886A/ja
Application granted granted Critical
Publication of JP7447241B2 publication Critical patent/JP7447241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17306Intercommunication techniques
    • G06F15/17318Parallel communications techniques, e.g. gather, scatter, reduce, roadcast, multicast, all to all
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17381Two dimensional, e.g. mesh, torus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4063Device-to-bus coupling
    • G06F13/4068Electrical coupling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17375One dimensional, e.g. linear array, ring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17387Three dimensional, e.g. hypercubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multi Processors (AREA)

Description

本開示は、特に、但し非限定的に、機械学習/人工知能用途におけるデータ交換を最適化するための、コンピュータ内で接続された処理ノード間のデータの交換に関する。
コレクティブとは、コンピュータ内でデータを処理する際に共通して使用されるルーチンである。これらは、複数の異なる処理間でのデータの共有及び処理を可能にするルーチンであり、処理は、同じ処理ノード又は異なる処理ノードで動作し得る。例えば、ある処理がデータ記憶装置からデータを読み出す場合、「ブロードキャスト」処理を用いてそのデータを他の処理と共有することができる。別の例は、特定の機能の結果を複数の処理で必要とする場合である。「集約(reduction)」は、複数の処理の各々からのデータ値に計算機能の適用を要求した結果である。「Gather」及び「Scatter」コレクティブは、複数のデータ項目を扱う。特定のコレクティブは、機械学習処理用途で一層重要になっている。
MPI(メッセージ通信インターフェース)は、多くの並列コンピューティングアーキテクチャに適用可能なメッセージ通信標準である。MPIは、機械学習に適用可能な多くのコレクティブを定義している。1つのそのようなコレクティブは、「Allreduce」と称される。Allreduce動作は、異なるソース処理からの複数のデータ値に作用する計算機能の結果が受信処理で提供されることを可能にする。受信処理がソース処理の1つであり得、複数の受信処理があり得ることに留意されたい。Allreduceコレクティブは、複数のソース処理からのデータ値を集約して、結果を(集約(reduce)された結果の受信処理として動作する)全てのソース処理に配信する。MPI標準によれば、Allreduceコレクティブは、全てのソース処理からのデータ値をreduceコレクティブで(例えば、複数の処理の1つにおいて)集約し、次いで各ソース処理に結果をブロードキャストすることにより実行される。
図1は、ニューラルネットワークを訓練する分散アーキテクチャの概略ブロック図である。訓練データのソース100が提供される。これは、訓練データを、訓練されているニューラルネットワークモデルに適用可能な状態に維持することができるデータベース又は他の任意の種類のデータ記憶装置であり得る。ニューラルネットワークモデルによる処理自体が複数の処理ユニット110a、110b、110c等にわたり分散される。図1には、3つのユニットのみを示しているが、任意の数の処理ユニットが使用され得ることが容易に認識されるであろう。各処理ユニット110a、b、cが訓練データソース100から訓練データのバッチを受信する。各処理ユニット110a、b、cは、モデルを定義するパラメータの組112a、112b、112cを保持する。訓練データの入力バッチは、計算機能114のパラメータの現在の組を用いて処理され、計算機能の結果を用いて、元のパラメータと、訓練データのバッチ及びパラメータの現在の組に対して計算機能を適用した結果としての新たなパラメータとの差違を表すいわゆるデルタを生成する。多くのニューラルネットワークにおいて、これらのパラメータは、「重み」と呼ばれ、そのため、デルタ値は、「デルタ重み」と称される。図1において、重みは、112a、b、cと表示され、デルタ重みは、116a、b、cと表示される。実際には、重み及びデルタ重みは、処理ユニットからアクセス可能な適当な記憶装置に保存されることが認識されるであろう。重み及びデルタ重みをローカルメモリに保持することができる場合、訓練処理の効率が大幅に向上する。
図1のアーキテクチャの目的は、3つの別々のモデルを訓練するのではなく、単一のモデルを分散的に訓練することである。従って、目的は、モデルパラメータ(又は重み)を各処理ユニット内の単一の共通の組に収束させることである。任意の特定の重みの組から始まり、各処理ユニットで受信された訓練データのバッチが同じでないと仮定すると、各処理ユニットの各計算機能により生成されるデルタ重みに変動があることは、明らかである。従って、必要とされるのは、バッチ化された訓練データの各反復後に複数の処理ユニットにわたりデルタ重みを分散させる方法である。これは、図1に概略的に示されており、組み合わせ関数118は、各処理ユニットからデルタ重みを受信し、デルタ重みを集約する平均化関数等の数学関数を実行する。組み合わせ関数118の出力は、次いで、各処理ユニット内の結合回路120a、120b及び120cにそれぞれフィードバックされる。従って、新たな重みの組は、元の重みと、組み合わせ関数118からの組み合わされた出力との組み合わせとして生成され、新たな重み118a、118b、118cは、局所メモリに戻されて保存される。次いで、訓練データの次のバッチが各処理ユニットに供給され、処理が複数回反復される。処理ユニットの開始重みが同じである場合、各反復後に同じ新たな値に再びリセットされることが明らかである。上記は、Allreduce機能が特に有用な例であることが容易に分かるであろう。デルタ重みは、組み合わせ関数118aに供給され、そこで集約され、次いで集約された形式で各処理ユニットに戻されて、元の重みと組み合わされ得る。
図1Aは、Allreduceコレクティブが6つの処理ノードN・・・Nの直線的に接続されたトポロジとしてどのように実装され得るかを示す概略図である。これらの処理ノードは、組み合わせ関数が分散される図1の処理ユニットに対応し得る。処理ノードは、各処理ノードが「順方向」リンクL及び「逆方向」リンクLによって隣接ノードに接続されるライン構成で接続されて示されている。この図に示すように、方向語句が示唆するように、順方向リンクは、処理ノードを図1Aの左から右に接続し、逆方向リンクは、処理ノードを図1Aの右から左に接続する。各処理ノードは、200として指定された処理能力及び202として指定された記憶能力を有する。処理能力及び記憶能力は、非常に多くの方法のいずれかで実装され得る。1つの特定の具体例において、処理ノードは、個々のタイルがその処理能力及び付随するメモリ機能を有する複数のタイルを含み得る。各処理ノードは、それがリンクL/Lを介して隣接ノードに接続されることを可能にする1つ以上のリンクインターフェースも有する。
Allreduceコレクティブの実装を理解するために、第1のノードNが、Δ0と表示された「部分」ベクトルを生成していると仮定する。「部分」とは、デルタ重みの配列、例えばベクトル又はテンソルを含むデータ構造であり得る。部分ベクトルは、各々が処理ノードに対する計算に対応する複数の部分の配列である。各「部分」は、デルタ重みの組であり得る。部分は、Allreduceコレクティブ内で直ちに交換可能であるように記憶能力202に保存される。単純な「ストリーミング」ラインAllreduceアルゴリズムにおいて、順方向リンクは、「集約(reduce)」に使用され、逆方向リンクは、「ブロードキャスト」に使用される。アルゴリズムは、一端の処理ノードN(図1Aの左側ノード)において、その隣接するノードNにその部分Δ0を送信することから始まる。ノードにおいて、入力部分(この場合にはΔ0)は、処理ノードNにおける計算機能200により生成された対応する部分Δ1だけ集約される。次いで、この集約(図1AではADD機能として示す)の結果は、処理ノードNから次の接続ノードNに送られる。以下に詳述するように、ADD機能は、部分の集約に使用され得る任意の組み合わせ機能で代替することができる。処理は、図1AにNで示す最後の処理ノードにおいて部分の集約が完了するまで各処理ノードで行われる。この時点において、集約結果(Δの和)は、逆方向リンクLを介して各処理ノードに返送される。集約結果は、各ノードで受信され、そのノードのメモリ機能に保存され、その後、次のノードにも送信される。このように、各処理ノードは、集約結果で終了する。
図1Bは、集約及びブロードキャストフェーズのタイミング図を示す。処理ノードは、1つ前のノードから入力データを受信するまで、集約結果を次のノードに送信できないことに留意されたい。従って、順方向リンクの各出力送信のために、Δと表記する固有の待ち時間が存在する。
更に、逆方向リンクは、完全に集約された結果が終点ノードで取得されるまでブロードキャストに使用されない。しかし、パイプライン効果に起因して部分ベクトルが大きい場合、そのノードが自らの部分のデータ項目の送信を終了するよりもかなり前に結果の先頭のデータ項目が始点ノードに戻るため、全ての順方向及び逆方向リンクで動作が相当重なる可能性がある。
若干の改良であるこのアルゴリズムの変更形態では、線の各終端の処理ノードは、集約が中央ノードで完了した状態で自らの部分の中央ノードに送信を開始することができる。その場合、結果は、ブロードキャストされて終点ノードに戻される。このシナリオでは、順方向及び逆方向リンクの両方において、例えばノードN及びN間並びにN及びN間で移動方向が反転されることに留意されたい。(順方向及び逆方向リンクの両方において最終ノードNを第1のノードNに接続することにより)線が閉じてリングとした場合、パイプラインアルゴリズムは、集約及びブロードキャストを同じ方向に直列化できるため、双方向リンクによって形成された2つの論理リングは、それぞれ独立して、データの半分に対して作用することができる。すなわち、各部分ベクトルは、二分割され、第1の半分ΔAは、順方向リンクで集約され(図1Aのように)、NとNとの間で接続レッグにブロードキャストされる。ベクトルΔBの他の半分は、逆方向リンクで集約され、次いで逆方向リンクの接続リングにブロードキャストされる。
図1Dは、順方向及び逆方向リンクに対応するタイミング図を示す。
図1C及び1Dに示す1次元リングの原理は、円環(torus or troid)接続されたコンピュータのような2次元リングに拡張可能である。
2次元でリングを用いる代替方式は、Allgatherコレクティブに続いて、reduce-scatterコレクティブを用いてAllreduceを実行することである。Jain及びSabharwalによる「Optimal Bucket Algorithms for large MPI collecives on torus interconnects」(ICS’10,June 2-4,Tsukuba)という名称の論文は、円環相互接続プロセッサ内の処理ノード間の双方向リンクを仮定するAllgather、reduce-scatter及びAllreduceコレクティブのためのバケットに基づくアルゴリズムを提示している。このアプローチは、各ステップで扱われる複数のデータ値(フラグメント)が存在することに基づいて動作する。reduce-scatterコレクティブにおいて、各処理は、初期部分ベクトルから開始される。ここでの処理への言及は、処理ノードで実行される処理への言及であると仮定する。部分ベクトルは、複数の要素又はフラグメントに分割することができる。全ての処理の対応する要素が集約され、これらの集約要素は、次いで、複数の処理にわたり分散される。Allgatherコレクティブにおいて、他の処理が他の全ての処理から全ての要素を受信する。reduce-scatterコレクティブは、全ての部分を集約し、各集約を各ノードに保存する(図2を参照されたい)。Allreduceコレクティブは、reduce-scatterコレクティブに続いて、Allgatherコレクティブ動作を実行することにより実行され得る。
Jainの論文で議論されているように、円環相互接続は、分散メモリスーパーコンピュータのための魅力的な相互接続アーキテクチャである。上記の議論において、コレクティブを処理間通信に関連して説明してきた。分散スーパーコンピュータにおいて、処理ノードは、相互接続され、各処理ノードは、コレクティブに関する1つ以上の処理に対して応答的であり得る。円環相互接続は、N次元配列に構成された処理ノードを有する一種のメッシュ相互接続であり、各ノードは、最も近い隣接ノードに接続され、配列の両端縁の対応するノードも接続される。多くの円環構成において、双方向通信リンクは、相互接続された処理ノード間に存在する。
Jain及びSabharwalによる上述の論文で議論されたコレクティブを実行するアルゴリズムは、円環接続されたアーキテクチャに適用される。これにより、コレクティブは、異なる次元のリング内でベクトルの異なるフラグメントを同時に処理することができるため、処理帯域幅が効率的になる。しかし、本発明者は、この分野で肯定されている見解にもかかわらず、Jain及びSabharwalが提示した技術が対称又は非対称な円環に最適でないと判断した。対称な円環は、非軸方向リング内のノードの数が円環の軸方向リング内のノードの数に一致する円環であることが理解される。非対称な円環は、非軸方向リング内のノードの数が軸方向リング内のノードの数に一致しない円環であることが理解される。いずれの場合にも、軸方向リングの数が非軸方向リング内のノードの数に等しいことに留意されたい。
本開示の目的は、特に、但し非限定的に、機械学習における処理機能に使用するための、Allreduce機能などのコレクティブを実行するための改良されたコンピュータ及び方法を提示することである。本明細書に記載するトポロジ及び構成は、特にAllreduceの効率的な実装に有効であるが、他の機械学習コレクティブ及び他の種類の並列プログラムにも有利に使用され得る。
本発明の一態様によれば、軸に沿って配置された複数の層を有する円環構成で配置された複数の相互接続された処理ノードを含むコンピュータであって、
各層は、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向の第1の次元のリング状に接続された複数の処理ノードを含み、各組のリンクは、同時に動作するように適合され、
各層内の処理ノードは、軸に沿って第2の次元のリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
コンピュータは、複数の組み込み1次元論理経路が同時に動作するように、複数の組み込み1次元論理経路を周回してデータを送信するようにプログラムされ、各論理経路は、リングシーケンス内のコンピュータの全ての処理ノードを使用する、コンピュータが提供される。
いくつかの実施形態において、コンピュータは、非対称な帯域幅でデータを送信するようにプログラムされる。他の実施形態において、コンピュータは、対称な帯域幅でデータを送信するようにプログラムされる。
いくつかの実施形態において、層内リンク帯域幅は、軸に沿った帯域幅よりも大きい。
いくつかの実施形態において、組み込み経路は同型である。
コンピュータを用いて、本明細書に記載するようにAllreduceコレクティブを実装することができる。
一実施形態において、層内リンクの組は、2つのリンクを含み、帯域幅は、軸に沿ってB/6、各層内でB/3であり、ここで、Bは、各処理ノードの総帯域幅である。3つの論理経路が組み込まれ得る。
別の実施形態において、層内リンクの組は、3つのリンクを含み、帯域幅は、各層内で3B/8、軸に沿ってB/8である。4つの論理経路が組み込まれ得る。
データは、各層内の処理ノードを通る各論理経路に沿って反時計回り又は時計回りに通過することができる。いくつかの実施形態において、データは、連続的な層を同じ方向に通過することができる。他の実施形態において、データは、連続的な層を反対方向に通過することができる。多くの変形が可能である。
各処理ノードは、reduce scatterフェーズで交換される準備ができているデータ項目の配列を保存するように構成されたメモリを含み得、各データ項目は、それぞれ配列内に配置され、対応するデータ項目は、それぞれ他の処理ノードの配列内の対応する位置に配置される。配列は、「部分」(部分結果のベクトル)又は「結果」(完全に集約された部分のベクトル)であり得る。
処理ノードは、reduce-scatterフェーズにおいて、各論理経路を周回して、隣接する接続された処理ノードにデータ項目を順方向に送信するようにそれぞれプログラムされ得る。各ステップで送信され得るデータ項目は、「フラグメント」と称される。フラグメントは、本明細書に記載するようにベクトルの一部であり、ベクトルは、組み込み経路に形成された論理リングを利用するために複数のフラグメントに分割される。
各配列は、部分デルタのベクトルの少なくとも一部を表し得、各部分デルタは、各処理ノードに保存された値への調整を表す。各処理ノードは、計算ステップで部分デルタのベクトルを生成するようにプログラムされ得る。各処理ノードは、ベクトルを、組み込み経路の利用のために部分配列に分割するようにプログラムされ得る。
処理ノードの各々は、データ送信ステップで使用されない層間及び層内リンクのいずれも無効化するようにプログラムされ得る。
各処理ノードは、ノードのそれぞれの部分ベクトルをフラグメントに分割し、データを、連続的なフラグメントの形式で各組み込み1次元経路を周回して送信するようにプログラムされ得る。
コンピュータは、各経路を論理リングの組として動作させるようにプログラムされ得、連続的なフラグメントは、同時送信ステップで各論理リングを周回して送信される。
各処理ノードは、層内及び層内リンクの組の各々において、それぞれのフラグメントを同時に出力するように構成され得る。
各処理ノードは、入力フラグメントを対応する局所的に保存されたフラグメントと共に集約するように構成され得る。
各処理ノードは、AllreduceコレクティブのAllgatherフェーズにおいて、完全に集約されたフラグメントをリンクの各々で同時に送信するように構成され得る。
いくつかの実施形態において、いくつか又は全てのリンクは、双方向性を有し、すなわち、それらは、リンクを介してデータを両方向に任意に同時に送信することができる。
本発明の別の態様は、軸に沿って配置された複数の層を有する円環構成で配置された複数の相互接続された処理ノードを含むコンピュータで並列に実行されるプログラムの組を生成する方法であって、
各層は、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向の第1の次元のリング状に接続された複数の処理ノードを含み、各組のリンクは、同時に動作するように適合され、
各層内の処理ノードは、軸に沿って第2の次元のリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
本方法は、
各プログラムについて、そのプログラムを実行する処理ノードからデータが送信されるデータ送信段階を定義するための少なくとも1つのデータ送信命令を生成するステップであって、データ送信命令は、そのデータ送信段階でデータが送信される出力リンクを定義するリンク識別子を含む、ステップと、
複数の組み込み1次元論理経路が同時に動作するように、複数の組み込み1次元論理経路を周回してデータを送信するためにリンク識別子を決定するステップであって、各論理経路は、コンピュータの全ての処理ノードを順次使用する、ステップと、
を含む、方法を提供する。
いくつかの実施形態において、プログラムは、対称又は非対称な帯域幅でデータを送信するように生成される。
いくつかの実施形態において、層内リンク帯域幅は、軸に沿った帯域幅よりも大きい。
いくつかの実施形態において、各プログラムは、データ送信ステップで使用されない層間及び層内リンクのいずれも無効化するための1つ以上の命令を含む。
いくつかの実施形態において、各プログラムは、プログラムが実行される処理ノードのそれぞれの部分ベクトルをフラグメントに分割し、それぞれに定義されたリンクを介してデータを連続的なフラグメントの形式で送信するための1つ以上の命令を含む。
いくつかの実施形態において、各プログラムは、それぞれのフラグメントを複数のリンクの各々で同時に出力するための1つ以上の命令を含む。
いくつかの実施形態において、各プログラムは、入力フラグメントを対応する局所的に保存されたフラグメントと共に集約するための1つ以上の命令を含む。
いくつかの実施形態において、各プログラムは、AllreduceコレクティブのAllgatherフェーズにおいて、完全に集約されたフラグメントをリンクの各々で同時に送信するための1つ以上の命令を含む。
本発明の別の態様は、軸に沿って配置された複数の層を有する円環構成で配置された複数の相互接続された処理ノードを含むコンピュータでプログラムの組を並列に実行する方法であって、
各層は、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向の第1の次元のリング状に接続された複数の処理ノードを含み、各組のリンクは、同時に動作するように適合され、
各層内の処理ノードは、軸に沿って第2の次元のリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
本方法は、
各プログラムにおいて、そのプログラムを実行する処理ノードからデータが送信されるデータ送信段階を定義するための少なくとも1つのデータ送信命令を実行するステップであって、データ送信命令は、そのデータ送信段階でデータが送信される出力リンクを定義するリンク識別子を含む、ステップを含み、
リンク識別子は、複数の組み込み1次元論理経路が同時に動作するように、処理ノード及びリンクのそれぞれの組によって形成された複数の組み込み1次元論理経路の各々を周回してデータを送信するために決定されており、各論理経路は、コンピュータの全ての処理ノードを順次使用する、方法を提供する。
データは、対称又は非対称な帯域幅で送信され得る。
いくつかの実施形態において、層内リンク帯域幅は、軸に沿った帯域幅よりも大きい。
いくつかの実施形態において、プログラムを実行するステップは、各経路を論理リングの組として動作させ、各処理ノードで提供される部分ベクトルの連続的なフラグメントは、同時送信ステップで各論理リングを周回して送信される。
ここで、本発明のよりよい理解のため、本発明がどのように実施されるかを示すために添付の図面を例として参照する。
ニューラルネットの分散訓練を示す概略図である。 簡単な「ストリーミング」ラインAllreduceアルゴリズムを実行する一連の処理ノードを示す概略図である。 「ストリーミング」ラインAllreduceアルゴリズムのタイミング図である。 リングに接続された終点ノードを有するラインの概略図である。 リングAllreduceアルゴリズムのタイミング図である。 reduce-scatterステップに続いて、AllgatherステップによるAllreduce機能の実行を示す概略図である。 バケットに基づくAllreduceアルゴリズムを示す。 3つのリングが埋められた処理ノードの「三角形円環」構成の概略図である。 2:1帯域幅非対称性を有する3×8円環を示す。 各々がリンク毎にB/6を使用する、グラフを同時に循環可能な3つの同型組み込みリングを示す。 3つの組み込みリングの一代替形態の3D図を示し、他の2つのリングは、長軸の周りで120°回転すれば同じである。 3つの組み込みリングの別の代替形態の3D図を示し、他の2つのリングは、長軸の周りで120°回転すれば同じである。 3:1帯域幅非対称性を有する4×6円環を示す。 各々がリンク毎に帯域幅B/8を使用する、グラフを同時に循環可能な4つの同型組み込みリングを示す。 4つの組み込みリングの1つの3D図を示す。他の3つのリングは、長軸の周りで90°回転すれば同じである。 円環として接続された4×4コンピュータネットワークに組み込み可能な2つの同型組み込みリングを示す。 円環として接続された4×4コンピュータネットワークに組み込み可能な2つの同型組み込みリングを示す。 円環として接続された4×8コンピュータネットワークに組み込まれた2つの同型リングをそれぞれ示す。 円環として接続された4×8コンピュータネットワークに組み込まれた2つの同型リングをそれぞれ示す。 円環として接続された8×8コンピュータネットワークに組み込み可能な2つの同型リングをそれぞれ示す。 円環として接続された8×8コンピュータネットワークに組み込み可能な2つの同型リングをそれぞれ示す。
本発明の態様は、学習機械の動作負荷のアクセラレータとして機能するように設計されたマルチタイルプロセッサに関連して開発された。アクセラレータは、複数の相互接続された処理ノードを含む。各処理ノードは、単一のマルチタイルチップ、複数のチップのパッケージ又は複数のパッケージのラックであり得る。本明細書における目的は、決定論的(反復可能)な計算で極めて効率的な機械を考案することである。処理ノードは、コレクティブ、特に、但し非限定的にブロードキャスト(broadcast)及びAllreduceを効率的に実行可能にするように相互接続される。
分散処理を用いてニューラルネットワークを訓練する際の1つの特定の応用は、モデルを更新することである。これに関連して、分散処理は、チップ若しくはパッケージ又はラック等の異なる物理的実体である複数の処理ノードを利用する。すなわち、処理ノード間のデータの送信では、物理リンクを介してメッセージを交換する必要がある。
機械学習専用のトポロジを開発する際の課題は、高性能コンピューティング(HPC)ネットワークの一般的な分野の課題と異なる。HPCネットワークは、通常、オンデマンド非同期全対全個人向け通信に重点が置かれ、そのため、動的ルーティング及び帯域幅の過剰供給が通常行われる。帯域幅の提供よりも待ち時間を短縮する目的のため、余剰帯域幅がHPCネットワークに供給される場合がある。動作中の通信リンクの過剰な供給は、電力を浪費して計算性能に影響する恐れがある。今日計算に用いられる最も一般的な種類のリンクは、データ送信に使用されるか否かに関わらず、動作中に電力を消費する。
本発明者は、特にMI作業負荷に適合され、MI作業負荷の以下の属性に対処にする機械トポロジを開発した。本実施形態は、R×Nの円環にR個のリングが組み込まれる異なる構造を提供し、ここで、Rは、1つ層内のノードの数であり、Nは、層の数であり、各リングは、次の層に移動する前に1つの層内の全てのノードを辿る。
MI動作負荷において、チップ間通信は、現在、ブロードキャスト及びAllreduceコレクティブが主流となっている。ブロードキャストコレクティブは、scatterコレクティブに続いてAllgatherコレクティブにより実行可能であり、Allreduceコレクティブは、reduce-scatterコレクティブに続いてAllgatherコレクティブにより実行可能である。この前提において、チップ間という用語は、外部通信リンクを介して接続された処理ノード間のあらゆる通信を指す。上述のように、これらの処理ノードは、チップ、パッケージ又はラックであり得る。
通信リンクは、印刷回路基板のチップ間又は異なる印刷回路基板のチップ間であり得ることに留意されたい。
動作負荷は、個々の知能処理装置(IPU)機械内で全対全通信が基本的にチップ間であるようにコンパイル可能である。
Allreduceコレクティブは、上述の通りであり、図2に示されている。図2は、開始状態S1における4つのノードの各々の部分値の組、すなわち「部分」ベクトルP、P、P、Pを示す。これに関連して、ノードとは、複数の処理ノードのネットワークにおける処理ノードである。各ノードN、N、N、Nは、対応してマークされた(大きいひし形格子、幅広の下向き斜め縞、大きい正方形格子、幅広の上向き斜め縞)4つの「対応する」部分を有することに留意されたい。すなわち、各部分は、例えば、P(n)のベクトルにおけるノードnが、P(n+1)のベクトルにおけるノードn+1と同じ位置を有するように、自らの部分ベクトルに位置を有する。添え字(n)は、部分が存在するノードを示すために使用され、従って、P(0)は、ノードNの部分Pである。reduce-scatterパスにおいて、対応する部分は、集約され、集約は、複数ノードの1つに施される。例えば、部分P(0)、P(1)、P(2)、P(3)は、(rに)集約されてノードNに置かれる。同様に、部分P(0)、P(1)、P(2)及びP(3)は、(rに)集約されてノードNに置かれる。以下同様であり、中間状態S2において、各ノードは、複数の集約r、r、r及びrの1つを施される。説明したように、集約は、任意の組み合わせ関数
であり得、これは、独立演算子(例えば、最大化)又は関連演算子=P(0)*P(1)*P(2)*P(3)を含み得る。次いで、Allgatherパスにおいて、各集約が全てのノードに施されて状態S3を起動させ、ここで、各ノードに4つの集約の全てが施される。S1において、「対応する」部分、例えばP(0)、P(1)、P(2)及びP(3)が全て異なり得るのに対し、状態S3では、各集約、例えばrが全てのノードに対して同じであるが、但しr=f{(P(0)、P(1)、P(2)及びP(3))}であることに留意されたい。機械学習において、部分P、P、P、Pの組は、ベクトルである。部分(例えば、更新された重み)のベクトルが訓練中にモデルの各パスに生成される。状態S3における各ノード上の集約r、r、r、rは、完全集約ベクトル、すなわち「結果」又は完全に集約された部分のベクトルである。機械学習に関連して、各部分は、モデルのパラメータに対する更新デルタであり得る。代替的に、各部分は、(本明細書で詳述しない構成での)更新されたパラメータであり得る。
図3A及び3Bは、6つの「仮想」リングを仮定するreduce-scatter/Allgatherのためのバケットに基づくアルゴリズムを示す。これらは、本明細書において「論理」リングとも呼ばれる。図3Aは、複数の仮想リングにおける部分の集約を示す概略図である。各部分は、6つのフラグメントに分割される。図3Aにおいて、大文字R、Y、G、B、P、Lは、各ノードに保存された部分の異なるフラグメントを赤、黄色、緑、青、紫の色又は対応するハッシング(R - ダイヤモンド格子、Y - 斜め上向きトライプ、G - 正方形格子、B - 横方向ストライプ、P - 斜め下向きストライプ、L - 縦方向ストライプ)によりそれぞれ示す。文字は、互いに集約対象であり、フラグメントの「仮想」又は「論理」リングを定義する対応するフラグメントを示す。図3Aを参照すると、各々の部分P、P、P、P及びPにおける「R」フラグメントは、結果ベクトル
の単一のフラグメントに集約される。Y、G、B、P及びLフラグメントも同様である。
図3Bは、Allreduce処理の各ステップにおけるデータ交換及び計算を示す、横軸に時間を取ったタイミング図を示す。図3A及びBにおいて、Allreduce処理は、reduce-scatterフェーズに続いてAllgatherフェーズにより実現される。図3Bにおいて、各フラグメントを異なるハッチングで示している。
図3A及び3Bにおける表記は、以下の通りである。部分は、それぞれP、P、P、P、P、Pとして示される。処理の開始時点において、各部分は、各ノードN、N、N、N、N、Nに保存される。各フラグメントは、各々が集約されると考えられる仮想リング内でのフラグメントの定義及び位置に応じて表示される。例えば、RAは、ノードN-N-N-N-N-Nによって形成された仮想リングの先頭フラグメントであるため、部分PのRフラグメントを示す。RAは、その仮想リングで2番目の位置にあるノードNのRフラグメントを示す。YAは、ノードNのYフラグメントを示す。添え字「0」は、その仮想リングの先頭フラグメントであることを示し、Y-リングは、N-N-N-N-N-Nである。特に、Aの添え字が仮想リングを反映し、物理ノード(又は部分)に対応しないことに留意されたい。図3Aは、順方向リンクの仮想リングのみを示すことに留意されたい。図3Bは、逆方向リンクで均等な処理が行われることを示し、フラグメントをBで示す。
ステップ1において、各仮想リングの先頭フラグメント(A0)がそのノードから次の隣接ノードに移送され、そのノードで対応するフラグメントにより集約される。すなわち、RAは、NからNまで移動して、R(A0+A1)に集約される。再び、ここでは記号「+」は、任意の組み合わせ関数の省略形として使用される。同じステップで各仮想リングのA0フラグメントが同時に送信されることに留意されたい。すなわち、NとNとの間のリンクは、YAの送信に使用され、NとNとの間のリンクは、GAの送信に使用され、以下同様である。次のステップでは、対応する集約フラグメントが順方向リンクを介して次の隣接ノードに送信される。例えば、R(A0+A1)がNからNに送信され、Y(A0+A1)がNからNに送信される。明快さのため、図3Aで全てのフラグメントに番号が付与されておらず、全ての送信に番号が付与されていないことに留意されたい。フラグメント及び数の完全な組を図3Bに示す。本処理は、5ステップで実行される。5ステップ後、各ノードで全てのフラグメントが集約される。第5のステップの終了時点において、集約は、そのフラグメントの対応する各リングの最後のノードで行われる。例えば、R集約は、ノードNで行われる。
Allgatherフェーズの開始は、各仮想リングの最後から最初のノードへの送信により始まる。従って、Rフラグメントの最後の集約は、Allgatherフェーズの第1のステップの準備ができているノードNで終了する。Yフラグメントの最後の集約は、対応してノードNで終了する。Allgatherフェーズの次のステップでは、集約されたフラグメントは、自らの次の隣接ノードに再び送信される。従って、完全に集約されたRフラグメントは、現在、Nにも存在し、完全に集約されたYフラグメントは、現在、Nにも存在し、以下同様である。このように、各ノードは、Allgatherフェーズの終了時点において、部分ベクトルの全てのフラグメントR、Y、G、B、P、Lが完全に集約された状態となって終了する。
アルゴリズムの実行が効果的であるのは、集約に必要な計算をパイプライン待ち時間に覆い隠すことができる場合である。本発明者は、Allreduceの実行のためにコンピュータ内に適当なリングを形成する際、リングの循環がリング内の各ノードを1回のみ辿る場合に最も効率的であることを認識している。従って、双方向リンク(図1A)を有するラインによって形成された自然のリングは、最も効率的なリングではない。
ここで、Allreduceコレクティブを実行するために、処理ノード間で部分及び結果の効率的な受け渡しを可能にする処理ノードの相互接続されたネットワークの改良されたトポロジについて記載する。
組み込み1次元のリングの構成によれば、複数の積層を有する構成が提供される。本明細書では、組み込みリングを「経路」とも称することに留意されたい。これらの用語は、交換可能であるが、用語「仮想リング」は、上で概説したように、各組み込みリング又は経路上の仮想リングで複数のフラグメントが動作し得るシナリオのために準備されることを認識することが重要である。このような構成の一実施形態を、三角形円環の3次元図である図4に示す。物理的接続と論理的接続があり、その両方について記載する。物理的接続性によれば、構成は、複数の積層、すなわち図4の左から右に示す積層を含む。積層の向きは、重要でないが、処理ユニットがサーバラックに配置され得る実際の構成では、サーバラックに対して垂直に構成された積層が有用であり得ることに留意されたい。図5A及び6Aは、そのような垂直積層を示す。
各層は、図4にN51、N52及びN53として示す左端の層に示す3つの処理ノードを含む。用語「左端」は、図示するレイアウトを指すが、実際には、円環構成では、各層は、リングにおいて接続されたノードを含み、その各々が軸に沿って形成された別のリングに属する。軸に沿って延びないため、各層のリングは、「非軸対象」と考えられる。「左端」層の処理ノードは、リングにおいて接続され、各処理ノードは、2つのリンクL1、L2によってその隣接する処理ノードに接続される。これらのリンクは、それぞれ双方向性であり得る。積層の「右端」層もノード間の2つのリンクによって互いに接続される。しかし、積層の「中央」層は、単一のリンクのみに接続される。ここで、リンクによる接続性は、リンクが有効であり、データを送信可能であることを意味する。処理ノード間には、構成の動作の一部を形成しない他の無効な接続があり得る。
構成は、同時に動作し得る3つの組み込み1次元リング又は経路を提供するように動作される。図4は、R1、R2及びR3と表示されたリングでこれを概略的に示す。R1を実線で、R2を点線で、R3を破線で示す。構成を、断面が三角形であるシリンダと考えると、シリンダの各々の平坦な面に1次元組み込みリングが組み込まれる。例えば、リングR1は、(最も端の層の)ノードN51、(層間の)N52、N52とN55との間のリンク、(次の層内の)N55とN54との間のリンク、(層間の)N57とN54との間のリンク、(次の層内の)N57とN58との間のリンク、N58とN511との層間のリンク、(最も右端の層の)N511とN510との間のリンク、N510とN512との間のリンク並びにN512とN53との間の戻りリンク及びN51への戻りによって形成される。
対応する組み込みリングを他の2つのフェーズの各々に見出すことができる。従って、各リングは、リングが完成するまで、層間リンクに接続された各層内のリンク内に形成される。リング(又は経路)について、図4を参照して以下でより詳細に記述する。
第1の組み込み経路において、ノードN51は、ノードN51及びN52間のリンクにより、第1の末端層の一方に沿ってノードN52に接続される。これは、第1の末端層の一方に沿った層内リンクであるが、図示の便宜上、そのように記載される。経路は、第1の末端層の次の側面に沿ってノードN53まで続く。経路は、次いで、層間リンクを介してノードN53からノードN56に進む。経路は、次いで、ノードN52及びN56の構成と同じ面上の別の層内リンクを介してノードN56からN55に進む。経路は、側面を下向きにノードN55からノードN58に、次いで層内リンクに沿って面を横断してノードN59まで延びる。経路は、層間リンクに沿ってノードN59からノードN512に進み、次いで層内リンクに沿ってノードN512からノードN511に進み、そこから層内リンクに沿ってN511から第2の末端層のノードN510に進む。ノードN511、N512及びN510間の層内リンクは、第2の末端層の側面である。経路は、次いで、ノードN510から戻り部分に沿って第1の末端層のノードN51に進む。この経路を図4に細かい破線で示す。
第2の組み込み経路も、ノードN53から始まる黒い実線で示すことができる。この経路は、ノードN53からノードN51に、ノードN51からノードN52に、ノードN52からノードN55に、ノードN55からノードN54に、ノードN54からN57に、ノードN57からN58に、ノードN58からノードN511に、N511からノードN510に、そして、ノードN510からノードN512に延びる、図4に示す構成の「最下」面に沿った第1の部分を有する。
経路の戻りの第2の部分は、第2の末端層のノードN512と、第1の末端層のN53との間の相互接続リンクにより提供される。
ノードN52から始まり、層内リンクに沿ってノードN53まで延びる第3の組み込み経路を示すことができる。第3の組み込み経路は、破線で示されている。経路は、次いで、ノードN53からN51に、N51からN54に、N54からN56に、ノードN56からN59に、ノードN59からN57に、ノードN57からN510に、ノードN510からノードN512に、そして、ノードN512からN511に、図4に示す構成の底面に沿って進む。経路は、ノードN511からN52への戻り部分を有する。
各経路は、構成の1つの面内の各ノード及び各々の末端層の2つの「脚部」を1回のみ用いる第1の部分を有することに留意されたい。各経路は、従って、いずれの中間処理ノードも通過することなく末端層間を直接通過する戻り部分を有する。各経路は、「最初の」ノードが「最後」のノードに接続されるリング又はループ形式の処理ノードのシーケンスを用いる。
3つの組み込みリングは、同時に動作できる。全てのリンクが同時双方向動作を行うことが可能である場合、6つの組み込みリングが同時に動作できる。
コンピュータの能力は、処理ノードの新たな層を追加することにより拡張することができる。これを行うには、処理ノードの相互接続性を変更する。例えば、第2の末端層(図4の右側層)に追加される余剰層の追加を考える。ノードN511からのリンクの1つが切り離されて、追加的な層の対応する処理ノードに接続され、処理ノードをEPN1(余剰処理ノード1)と表示して示している。同様に、ノードN512及びノードN511の各々からのリンクの1つは、現在、それらが接続されているノードから切り離され、それぞれEPN2、EPN3と表示された対応する余剰処理ノードに接続される。次いで、ノードEPN1、EPN2及びEPN3は、自らがリングとして接続され、各リンク構造は、構成の他の層と同様である。構成の残りの部分の接続性は、同じままであることに留意されたい。このように、複数の層を積層構成のいずれの終端にも追加することができる。
三角筒構成の各層を周回する経路(3つのノードの組)は、3つの処理ノードの層の拡張された三角柱が異なる長さのパーティションに分割されて、各パーティションが自己完結的に動作できるようなものであることに留意されたい。これは、別々のパーティションの層間のリンクを無効化することにより行うことができる。
相互接続されたネットワークは、非対称な帯域幅が割り当てられた円環構成であり、複数の1次元リング又は経路が組み込まれる。リングは、データ交換ステップで同時に使用できる。構造を使用するために、送信対象の部分(又はフラグメント)が各ノードで2つの部分に分割され、各部分は、図3A及び3Bを参照して上で述べた1次元リングアルゴリズムを用いて、リングの1つを周回して全て集約される。
各ノードは、
サイズのフラグメントを出力し、ここで、Nは、特定のフェーズでreduce-scattered又はAllgatherされるノードの数であり、Vは、データ構造のサイズである。開始時点において、Vは、部分ベクトルのサイズである。フラグメントの数は、リングを周回する各ステップの実行前のリング内のノードの数に等しい。ほとんどの実施形態では、各フラグメントは、同じサイズを有する。しかし、例えば、ベクトルの成分の数が均一に割り切れない、フラグメントのサイズが僅かに異なるシナリオもあり得る。その場合、これらは、ほぼ同じサイズ、すなわち除数に応じて1又は2つの成分が異なり得る。上述のJainの論文に記述される構造と比較して、リングが全てのノードを通過し、全てのリンクが常に使用されることに留意されたい。ここでは、各処理ノードがそのデータを2つのリンクで同時に出力でき、データを同時に受信及び処理できると仮定する。各リングは、1次元、すなわち処理ノードの非分岐鎖である。
いくつかの実施形態において、リングとしての動作への言及は、Allreduceコレクティブを実装する上述の1次元のアルゴリズムの実装を指す。本明細書に記載する構造において、全ての組み込みリングは、同時に動作可能であり、構造内の複数のリングを同時に処理するために各ノードで部分ベクトルを複数の部分に分割可能にする。
戻り経路が末端層内の対応処理ノード間、例えば図4のノードN51N及びN510間の接続により提供される場合、円環構造が形成される。本発明の実施形態は、円環構成に接続されたコンピュータネットワークを動作させる新たな方法を提供する。図4の構造は、非対称な帯域幅で動作されるものとして示されている。すなわち、あるノードによる帯域幅は、そのノードのリンク間で異なる。更なる実施形態は、非対称な帯域幅で同様に動作する円環を提供する。図4の構造において、非対称性は、層間により多くの帯域幅があるとの形で現れる。以下に記述する新たな構成において、非対称は、層内でより多くの帯域幅を提供することによって現れる。
非対称な帯域幅は、非対称な円環構成と異なり、非軸方向リング内のノードの数が軸方向リング内のノードの数と異なることに留意されたい。非対称な帯域幅は、対称又は非対称な円環構成で使用することができる。
図5Aは、3×8の円環を示す。すなわち、リング状に接続された処理ノードの各層は、3つの処理ノードを含み、それぞれ8つのノードの3つの軸方向リングを形成する8つの層がある。図5Aにおいて、丸印は、処理ノードを示し、中間の線は、処理ノードを接続するリンクを示す。これは、概略的なレベルであることに留意されたい。図5Aは、処理ノードの各ペア間の動作リンクの数を示していない。実際、動作リンクの数は、処理ノード間での帯域幅を定義する。図5Aに示すコンピュータネットワークは、2対1の帯域幅非対称性で構成される。すなわち、1つ層内の処理ノード間での帯域幅は、B/3である。隣接する層の処理ノード間での帯域幅は、B/6である。Bは、使用する最大帯域幅であることに留意されたい。図5Aは、リンクへの総ノード帯域幅Bの割り当てを示す構造の接続性を示す。この帯域幅割り当ては、図5Bでより明らかに分かる。
図5Bは、各々がリンク毎にB/6の帯域幅を使用する、構造を同時に循環可能な3つの同型組み込みリングの各々を示す。これらのリングは、それぞれTR1、TR2、TR3とラベル付けされる。帯域幅は、3つの同型組み込みリングを調べることにより分かる。例えば、リングTR1及びTR2において図の最上部にある3つの処理ノードの「末端」層を考える。両方のリングが右端の2つの処理ノードのリンクを使用する。従って、これらの処理ノード間での帯域幅利用は、2つのリンクの使用に起因して2倍になる。同様に、左端の2つの処理ノードは、リングTR1、TR3における2つのリンクを使用する。しかし、ページ下側の構造の軸では、処理ノード間で各リングにおいて1つの下方リンクのみを使用する。各処理ノードによるデータ送信のためのリンクの選択は、後述するように、コンパイラにより決定される。コンパイラは、各々がデータ交換ステップで使用するリンク識別子を定義するノードレベルプログラムを生成する。
このような方法で異なるリングをプログラムすることができる。例えば、データが各層の処理ノードを周回する方向は、時計回り又は反時計回りであり得る。層内の各ノードは、次の層に移動する前に辿られることに留意されたい。しかし、ノードを辿り得る方向は、時計回り又は反時計回りであり得る。これは、双方向リンクの場合に特定のデータフローを指し、データは、両方向に同時に流れることができる。「辿る方向」は、組み込みリング内のノードの物理的シーケンスを指す。各層において、ノードは、2つの方向、すなわち時計回り及び反時計回りのいずれかで辿られ得る。
図5Cは、1つの可能なリング構造による3つの組み込みリングの1つを示す3次元図である。他の2つのリングは、長軸の周りで120°回転すれば同じである。上述のように、各リングへの均等な複数の経路がある。図5Dは、他の1つの代替形態を示す。図5Dのリングにおいて、リングは、次の層に移動する前に各層の処理ノードを時計回りに周回する。しかし、上述の通りである必要はないことに留意されたい。すなわち、特定の層を周回してノードを辿る方向は、各層で同じであるか又は各層で異なり得る。いくつかの実施形態では、各層で同じであり得、他の実施形態では、異なる層、例えば連続的な層で異なり得る。リンクが同時に双方向性である場合、各経路を周回するいずれの方向にもデータが送信され得ることに留意されたい。以下の記述は、各組み込み経路内でノードを辿るシーケンスを説明するためにデータ送信の一方向を説明する。
図5Cの実施形態において、リングは、代替的に各々の交互の層で時計回り及び反時計回りに移動する。他の変型形態もこの構造を用いて可能である。
図6Aは、4×6の円環の構造を示す。すなわち、構造の各層は、リングにおいて接続された4つの処理ノードを含み、それぞれ6つのノードの4つのリングを形成する6つの層がある。「末端」層の対応する処理ノードは、互いに接続されて円環を形成する。図6Aは、リンクへの総ノードの帯域幅Bの割り当てを示す構造の接続性を示す。この場合、各層内の処理ノード間での帯域幅は、3B/8である。隣接する層内の処理ノード間の帯域幅は、B/8である。これに関連して、末端層間の戻り経路での帯域幅もB/8であることに留意されたい。帯域幅は、処理ノード間のリンクの提供により決定される。各層内で隣接する処理ノード間に3つの動作リンクがある。隣接する層内の処理ノード間に1つの動作リンクがある。
図6Bは、各々がリンク毎にB/8の帯域幅を有する、構造を同時に循環可能な4つの同型組み込みリングを示すことにより、帯域幅を更に詳細に示す。例えば、リングBR1、BR2及びBR3は、最上層内の右端の処理ノード間のリンクをそれぞれ使用することが分かる。同様に、リングBR1、BR2及びBR4は、最上層の中間の2つの処理ノード間のリンクを使用する。逆に、隣接する層間を接続するために、各リング内で1つのリンクのみを使用する。
図6Cは、4つの組み込みリングの1つを示す3次元図である。他の3つのリングは、構造の長軸の周りで90°回転すれば同じである。リングは、次の層に移動する前に層の各処理ノードを辿ることに留意されたい。図5A~5Dに示す構造と同様に、各層を例えばそれぞれ異なる方向(反時計回り又は時計回り)に周回することにより、異なる種類のリングを組み込むことができる。上述のように、特定の層を周回してノードを辿る方向は、各層で同じであるか又は各層で異なり得る。
図5A~5Dの構造と同様に、帯域幅は、コンパイラを用いてプログラムされる。
図7A及び7Bは、4×4ネットワーク構成の2つの組み込み経路を示す。図7A及び7Bのノード間の相互接続は、構成内の2つの組み込み経路をそれぞれ示す。各経路は、図7A及び7Bのノードを接続する線で示すように、ノードのシーケンスを通して延び、各経路が構成の各ノードを順次辿る。
図8A及び8Bは、4×8ネットワーク構成の2つの組み込み経路を示す。ノード番号は、図7Aのものと同じであり、下から4行のノードN16~N31が追加される。図5Aの4×4構成を拡張して、図8A及び8Bに示す4×8構成を形成できるが、そのネットワークノードから4×8構成を形成することも可能であろう。
図8A及び8Bの各々のノード間の相互接続は、構成内の各々の2つの組み込み経路を表す。
8×8ネットワーク構成の2つの組み込み経路を示す図9A及び9Bを参照する。図9A及び9Bのノードは、図8Aのノードに従ってラベル付けされ、構成の更に4列のノードN32~N63が追加される。ノードを追加することにより図8Aの構成を拡張して、図9A及び9Bに示す構成を形成することが可能であろう。代替的に、その元のノードから図9A及び9Bの構成を形成することも可能であろう。
図9A及び9Bの各々のノード間の相互接続は、ネットワーク構成における2つの組み込みリングをそれぞれ示す。
上述の実施形態において、フラグメントサイズは、各リンクの帯域幅から独立している。
フラグメントサイズは、組み込みリングのノードの数のみに依存する(n個のノードがある場合、上述のように、最適リングAllreduceアルゴリズムは、完全なベクトルのサイズ1/nのフラグメントを用いる)。図示する帯域幅割り当ては、全ての組み込みリングにわたるデータの循環が、全てのノード及びリンクにわたり使用可能な帯域幅の全てを同時に使用するために、そのリンクに割り当てる必要がある総ノードの帯域幅の分数(全てのリングが双方向性である場合、ノードを同時に出入りする)である。
帯域幅非対称性は、帯域幅の割り当てが、有線接続性の2次元、すなわち層の平面(非軸方向と称する)及び層がそれに沿って向けられる(積層される)「長軸」で異なることを指す。完全を期すために、リングは、1次元のみを有するが、データ送信経路を考慮する場合、構造は、全て2次元を有することに留意されたい。
各ノードは、処理を実行又は機能を計算することができる。各ノードは、単一のプロセッサとして実装することができる。しかし、各ノードが単一のチップ又はチップのパッケージとして実装され、各チップが複数のプロセッサを含む可能性がより高い。個々のノードの各々を実現する多くの異なる方法がある。一例において、ノードは、公開番号英国特許第2569843号明細書、英国特許第2569430号明細書、英国特許第2569275号明細書の英国出願に記載された種類の知能処理ユニットで構成され得、その内容は、参照により本明細書に援用される。しかし、本明細書に記載する技術は、ノードを構成する任意の種類のプロセッサに使用され得る。本明細書で概説するのは、機械学習モデルで有用な特定の交換パターンを実行するために効率的にデータを交換する方法である。更に、リンクは、任意の適当な方法で実現できる。リンクが双方向性であることが有利であり、同時に両方向で動作可能であることが好適であるが、これは、必須条件ではない。通信リンクの1つの特定のカテゴリは、リンクを介して搬送されるデータの量又はそのデータの搬送に費やした時間から独立した電力要件を有するSERDESリンクである。SERDESは、シリアライザ/デシリアライザの略語であり、そのようなリンクは、公知である。このようなリンクの導線を介して信号を送信するには、信号を生成するために導線に電力を印加して電圧を変化させる必要がある。SERDESリンクには、電力を導線に印加し続けて特定の電圧レベルに維持して、その電圧レベルの変動(0~印加電圧レベルの変動)により信号が搬送されるようにするという特徴がある。従って、使用されるか否かに関わらず、SERDESリンクの帯域幅容量を維持するのに固定電力が存在する。SERDESリンクは、各終端において、リンク層装置を銅線等の物理リンクに接続する回路により実装される。この回路は、PHY(物理層)と称される場合がある。PCIe(Peripheral Component Interconnect Express)は、高速コンピュータを接続するためのインターフェース基準である。
リンクが使用されない間、電力を殆ど消費しないように動的に無効化することが可能である。しかし、機械学習アプリケーションの起動時間及び非決定論的性質では、一般にプログラム実行中の動的起動が問題となる。その結果、本発明者は、チップ間リンクの電力消費がいずれの特定の構成でも本質的に一定であり、従って、最良の最適化が、チップ間トラフィックを可能な限りIPU動作と同期状態に維持することにより、物理リンクの利用率を最大化することであるとの事実を利用することがより良好であり得ると判断した。
SERDES PHYは、全二重(すなわち、毎秒16GビットのPHYは、各方向に同時に毎秒16Gビットをサポートする)であるため、全リンクの帯域幅の利用は、バランスが取れた双方向トラフィックを示唆する。更に、直接チップ間通信の使用は、スイッチ経由等の間接通信と比較して重要な利点があることに留意されたい。直接チップ間通信は、スイッチ方式の通信よりも電力効率がはるかに高い。
考慮すべき別の要因として、ノード間の帯域幅の要件がある。1つの目的は、ノード間通信を、分散機械学習の各ノードで実行される計算で覆い隠すのに十分な帯域幅を得ることである。
機械学習用マシンアーキテクチャを最適化する場合、必要とされる帯域幅の尺度としてAllreduceコレクティブを用いることができる。Allreduceコレクティブの一例を、モデル平均化のためのパラメータ更新の扱いに関して上記に示した。他の複数の例では、勾配平均化及び基準の計算が含まれる。
一例として、残差学習ネットワークのAllreduce要件を考慮することができる。残差学習ネットワークは、深い畳み込みニューラルネットワークのクラスである。深い畳み込みのニューラルネットワークにおいて、複数の層を用いて各層内の各々の特徴を学習する。残差学習において、特徴の代わりに残差が学習され得る。ResNetとして知られる特定の残差学習ネットワークは、ネットワークの異なる層間の直接接続を実行する。このような残差ネットワークの訓練は、ある状況では従来の深い畳み込みニューラルネットワークよりも容易であり得ることが示されている。
ResNet50は、50層の残差ネットワークである。ResNet50は、25Mの重みを有するため、単位置浮動小数点形式F16の全ての重み勾配のAllreduceが50メガバイトの部分を含む。帯域幅の要件を例示するために、1つの完全なAllreduceが完全なバッチ毎に必要であると仮定する。これは、勾配のAllreduceである可能性が高い(しかし、必須ではない)。これを実現するには、各ノードは、完全な集約毎に100メガビットを出力しなければならない。ResNet50は、訓練用画像毎に250ギガフロップスを必要とする。処理ノード毎のサブバッチサイズが16画像である場合、各プロセッサは、各Allreduceコレクティブに対して400ギガフロップスを実行する。プロセッサが毎秒100テラフロップを達成した場合、Allreduce通信との計算の並列性を維持するには、全てのリンク間で毎秒約25ギガビットが必要とされる。プロセッサ毎のサブバッチが8画像である場合、より小さいバッチを処理するのに要する毎秒テラフロップ数が少なくて済むため、部分的に緩和されて、必要な帯域幅は、名目的に2倍になる。
各々がサイズmメガバイト(集約サイズに等しい)である部分から始まるp個のプロセッサ間でのAllreduceコレクティブの実行は、リンクを介して少なくとも2m・(p-1)メガバイトの送信を必要とする。従って、各プロセッサが、同時送信可能なlリンクを有する場合、漸近的最短集約時間は、2m・(p-1)・(p-1)/(p・l)である。
上述の概念及び技術は、いくつかの異なる例で用いることができる。
一例において、コンピュータとして使用するために固定構成が提供される。本例において、複数の処理ノードは、上述の各種の実施形態で記述及び図示したように相互接続される。このような構成では、本質的な層内及び層間リンクのみが処理ノード間に配置される。
固定構成は、その構成の処理ノードの厳密な数で構築され得る。代替的に、それは、より大きい構造から分割することにより提供され得る。すなわち、積層の組で多面角柱を構成する処理ノードの組が提供され得る。各積層内の処理ノードは、隣接する積層内の対応する処理ノードへの層間リンク及び層内の隣接する処理ノード間の層内リンクを有し得る。
所望の数の積層の固定構成は、積層の元の組の指定された積層内の各層間リンクを切り離し、それを、指定された積層内の隣接する処理ノードに接続して層内リンクを提供することにより得られる。このように、積層の元の組の指定された積層に構造の第1及び第2の末端層の1つを形成することができる。複数の層の元の組は、このように複数の固定構造に分割できることに留意されたい。
層間及び層内リンクは、上述のように適当なバス又は導線により提供される物理リンクである。1つの具体例において、各処理ノードから、自らを別の処理ノードに接続する複数の導線の組が伸長する。これは、例えば、1つ以上の物理的導線が接続された1つ以上のポートを有する各処理ノードの1つ以上のインターフェースにより行うことができる。
別の具体例において、リンクは、オンボード導線により構成され得る。例えば、単一の基板がチップのグループ、例えば4つのチップを支持することができる。各チップは、他のチップに接続可能なポートとのインターフェースを有する。所定の方法に従って基板に導線をはんだ付けすることにより、チップ間の接続を形成することができる。本明細書に記述する概念及び技術は、印刷回路基板のチップ間に予めはんだ付けされるリンクの利用率を最大化するため、特にこの状況で有用であることに留意されたい。
本明細書に記載した概念及び技術が特に有用である理由は、切り替え不可能なリンクを最適に使用できるようにするからである。ノード間の固定された切り替え不可能なリンクを使用して、本明細書に記載したように処理ノードを接続することにより構成を構築することができる。いくつかの具体例において、このようなリンクを使用しない場合、処理ノード間に更なるリンクを提供する必要がない。例えば、構成の複数の中間層では、処理ノード間のリンクが末端層よりも少ない。代替的に、処理ノード間にリンクが提供され得るが、特定の構成では永久に無効化される場合がある。
この構成を用いるために、並列プログラムの組が生成される。並列プログラムの組は、ノードレベルプログラム、すなわち構成内の特定の処理ノードに対して作用するように指定されたプログラムを含む。特定の構成に作用する並列プログラムの組は、コンパイラにより生成することができる。特定のデータの各データ送信ステップで使用するリンクを正しく定義するノードレベルプログラムを生成することは、コンパイラが担当する。これらのプログラムは、リンク識別子を用いて、送信ステージで使用されるリンクを識別する、そのデータ送信ステージでデータ送信を実行するための1つ以上の命令を含む。例えば、処理ノードは、いずれの1つの時点でも2又は3つ(リンクが同時に双方向性である場合にはその2倍)の有効リンクを有し得る。リンク識別子は、その送信ステージのためのデータ項目に対して正しいリンクを選択させる。各処理ノードがその隣接するノードの動作について不可知であり得、すなわち、交換動作は、交換ステージ毎に予めコンパイルされることに留意されたい。
リンクを切り替える必要もなく、すなわちデータ項目を送信時点で動的にルーティングするか又はリンクの接続性を変える必要がないことにも留意されたい。
上述のように、本明細書に記載したコンピュータネットワークの構成は、計算の並列性を強化するものである。これに関連して、並列性は、並列に実行する、例えば上述のように人工知能モデルを分散的に訓練することを意図されたノードレベルプログラムを構成の処理ノードにロードすることにより実現される。しかし、これは、本明細書に記載した構成により可能にされる並列性の1つの応用例に過ぎないことが容易に認識されるであろう。並列性を実現する1つのスキームは、「バルク同期並列(bulk synchronous parallel)」(BSP)計算として知られる。BSPプロトコルによれば、各処理ノードは、計算フェーズ及び計算フェーズに続いて交換フェーズを実行する。計算フェーズ実行中、各処理ノードは、その計算タスクを局所的に実行するが、計算の結果を他の処理ノードと交換しない。交換フェーズにおいて、各処理ノードは、先行計算フェーズからの計算結果を構成の他の処理ノードと交換することが許容される。この構成で交換フェーズが完了するまで、新たな計算フェーズは開始されない。この形式のBSPプロトコルにおいて、バリア同期化は、計算フェーズから交換フェーズに遷移するか若しくは交換フェーズから計算フェーズに遷移する分岐点又はその両方で行われる。
本実施形態において、交換フェーズが開始された場合、各処理ノードは、コンパイラにより、その交換フェーズのために決定されたリンク識別子を用いて、その隣接するノードとデータを交換するための命令を実行する。交換フェーズの性質は、上記したMPIメッセージ受け渡し標準を用いて決定することができる。例えば、Allreducedコレクティブ等のコレクティブをライブラリから取り出すことができる。このように、コンパイラは、部分ベクトルが送信される(または、部分ベクトルの各フラグメントが送信される)リンクを制御する予めコンパイルされたノードレベルプログラムを有する。
他の同期化プロトコルを用い得ることは、容易に明らかになるであろう。
特定の実施形態について記載してきたが、開示する技術の他の応用及び変型形態は、本明細書の開示をもって当業者に明らかになるであろう。本開示の範囲は、記載した実施形態ではなく、添付の請求項のみによって限定される。

Claims (30)

  1. 相互接続されたノードの複数の層が軸に沿って配置される円環構成で配置された複数の相互接続された処理ノードを含むコンピュータであって、
    各層は、少なくとも、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向平面においてリング状に接続された複数の処理ノードを含み、各組の前記リンクは、同時に動作するように適合され、
    各層内の前記処理ノードの各々は、前記軸に沿ってリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
    前記コンピュータは、複数の組み込み1次元論理経路を提供し、前記複数の組み込み1次元論理経路が同時に動作するように、前記組み込み1次元論理経路の各々を周回してデータを送信するようにプログラムされ、各論理経路は、前記コンピュータの全ての処理ノードを順次使用し、
    前記コンピュータは、前記リンクの層内の組において第1帯域幅でデータを送信し、前記層間リンクにおいて前記第1帯域幅とは異なる第2帯域幅でデータを送信することにより、非対称な帯域幅で前記データを送信するようにプログラムされる、
    コンピュータ。
  2. 層内リンク帯域幅は、前記軸に沿った帯域幅よりも大きい、請求項1に記載のコンピュータ。
  3. 前記組み込み1次元論理経路は同型である、請求項1又は2に記載のコンピュータ。
  4. 層内リンクの組は、2つのリンクを含み、前記帯域幅は、前記軸に沿ってB/6であり、各層内でB/3であり、ここで、Bは、各処理ノードの総帯域幅である、請求項1~3のいずれか一項に記載のコンピュータ。
  5. 3つの論理経路が組み込まれる、請求項4に記載のコンピュータ。
  6. 層内リンクの組は、3つのリンクを含み、前記帯域幅は、各層内で3B/8であり、前記軸に沿ってB/8であり、ここで、Bは、各処理ノードの総帯域幅である、請求項1~3のいずれか一項に記載のコンピュータ。
  7. 4つの論理経路が組み込まれる、請求項6に記載のコンピュータ。
  8. 各論理経路が、反時計回り及び時計回りの方向の一方で辿られる各層内の処理ノードのシーケンスを含むように構成される、請求項1~7のいずれか一項に記載のコンピュータ。
  9. 連続的な層の前記ノードは、同じ方向に辿られる、請求項8に記載のコンピュータ。
  10. 連続的な層の前記ノードは、反対方向に辿られる、請求項8に記載のコンピュータ。
  11. 各処理ノードは、reduce scatterフェーズで交換される準備ができているデータ項目の配列を保存するように構成されたメモリを含み、各データ項目は、それぞれ前記配列に配置され、対応するデータ項目は、それぞれ他の処理ノードの前記配列内の対応する位置に配置される、請求項1~10のいずれか一項に記載のコンピュータ。
  12. 処理ノードは、reduce-scatterフェーズにおいて、各論理経路を周回して、その隣接する接続された処理ノードにデータ項目を順方向に送信するようにそれぞれプログラムされる、請求項11に記載のコンピュータ。
  13. 各処理ノードは、計算ステップで部分デルタのベクトルを生成し、そのベクトルを、前記組み込み1次元論理経路のそれぞれの利用のために部分配列に分割するようにプログラムされる、請求項11又は12に記載のコンピュータ。
  14. 前記処理ノードの各々は、データ送信ステップで使用されない層間及び層内リンクのいずれも無効化するようにプログラムされる、請求項1~13のいずれか一項に記載のコンピュータ。
  15. 各処理ノードは、前記ノードのそれぞれの部分ベクトルをフラグメントに分割し、前記データを、連続的なフラグメントの形式で各組み込み1次元経路を周回して送信するようにプログラムされる、請求項1~14のいずれか一項に記載のコンピュータ。
  16. 各経路を論理リングの組として動作させるようにプログラムされ、前記連続的なフラグメントは、同時送信ステップで各論理リングを周回して送信される、請求項15に記載のコンピュータ。
  17. 各処理ノードは、層内及び層間リンクの組の各々において、それぞれのフラグメントを同時に出力するように構成される、請求項16に記載のコンピュータ。
  18. 各処理ノードは、入力フラグメントを対応する局所的に保存されたフラグメントと共に集約するように構成される、請求項15~17のいずれか一項に記載のコンピュータ。
  19. 各処理ノードは、AllreduceコレクティブのAllgatherフェーズにおいて、完全に集約されたフラグメントをリンクの各々で同時に送信するように構成される、請求項18に記載のコンピュータ。
  20. リンクは、前記リンクを介して両方向にデータを送信することができるように双方向性を有する、請求項1~19のいずれか一項に記載のコンピュータ。
  21. 軸に沿って配置された複数の層を有する円環構成で配置された複数の相互接続された処理ノードを含むコンピュータで並列に実行されるプログラムの組を生成する方法であって、
    各層は、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向平面においてリング状に接続された複数の処理ノードを含み、各組の前記リンクは、同時に動作するように適合され、
    各層内の前記処理ノードは、前記軸に沿ってリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
    前記方法は、
    各プログラムについて、前記プログラムを実行する前記処理ノードからデータが送信されるデータ送信段階を定義するための少なくとも1つのデータ送信命令を生成するステップであって、前記データ送信命令は、前記データ送信段階でデータが送信される出力リンクを定義するリンク識別子を含む、ステップと、
    複数の組み込み1次元論理経路が同時に動作するように、複数の組み込み1次元論理経路を周回してデータを送信するために前記リンク識別子を決定するステップであって、各論理経路は、前記コンピュータの全ての処理ノードを順次使用する、ステップと、
    を含み、
    前記プログラムは、前記リンクの層内の組において第1帯域幅でデータを送信し、前記層間リンクにおいて前記第1帯域幅とは異なる第2帯域幅でデータを送信することにより、非対称な帯域幅で前記データを送信するように生成される、
    方法。
  22. 層内リンク帯域幅は、前記軸に沿った帯域幅よりも大きい、請求項21に記載の方法。
  23. 各プログラムは、データ送信ステップで使用されない層間及び層内リンクのいずれも無効化するための1つ以上の命令を含む、請求項21又は22に記載の方法。
  24. 各プログラムは、前記プログラムが実行される前記処理ノードのそれぞれの部分ベクトルをフラグメントに分割し、前記それぞれに定義されたリンクを介して前記データを連続的なフラグメントの形式で送信するための1つ以上の命令を含む、請求項21~23のいずれか一項に記載の方法。
  25. 各プログラムは、それぞれのフラグメントを複数のリンクの各々で同時に出力するための1つ以上の命令を含む、請求項24に記載の方法。
  26. 各プログラムは、入力フラグメントを対応する局所的に保存されたフラグメントと共に集約するための1つ以上の命令を含む、請求項24又は25に記載の方法。
  27. 各プログラムは、AllreduceコレクティブのAllgatherフェーズにおいて、完全に集約されたフラグメントをリンクの各々で同時に送信するための1つ以上の命令を含む、請求項21~26のいずれか一項に記載の方法。
  28. 軸に沿って配置された複数の層を有する円環構成で配置された複数の相互接続された処理ノードを含むコンピュータでプログラムの組を並列に実行する方法であって、
    各層は、隣接する処理ノードの各ペア間のリンクの層内の組により、非軸方向平面においてリング状に接続された複数の処理ノードを含み、各組の前記リンクは、同時に動作するように適合され、
    各層内の処理ノードは、前記軸に沿って第2の次元のリングを形成するために、層間リンクによって、隣接する層内の対応するノードに接続され、
    前記方法は、
    各プログラムにおいて、前記プログラムを実行する前記処理ノードからデータが送信されるデータ送信段階を定義するための少なくとも1つのデータ送信命令を実行するステップであって、前記データ送信命令は、前記データ送信段階でデータが送信される出力リンクを定義するリンク識別子を含む、ステップを含み、
    前記リンク識別子は、複数の組み込み1次元論理経路が同時に動作するように、処理ノード及びリンクのそれぞれの組によって形成された複数の組み込み1次元論理経路の各々を周回してデータを送信するために決定されており、各論理経路は、前記コンピュータの全ての処理ノードを順次使用し、
    前記データは、前記リンクの層内の組において第1帯域幅で送信され、前記層間リンクにおいて前記第1帯域幅とは異なる第2帯域幅で送信されることにより、非対称な帯域幅で送信される、
    方法。
  29. 層内リンク帯域幅は、前記軸に沿った帯域幅よりも大きい、請求項28に記載の方法。
  30. 前記プログラムを実行するステップは、各経路を論理リングの組として動作させ、各処理ノードで提供される部分ベクトルの連続的なフラグメントは、同時送信ステップで各論理リングを周回して送信される、請求項28又は29に記載の方法。
JP2022508517A 2020-03-26 2021-03-24 円環コンピュータネットワークへのリングの組み込み Active JP7447241B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GBGB2004430.1A GB202004430D0 (en) 2020-03-26 2020-03-26 Embedding rings on a toroid computer network
GB2004430.1 2020-03-26
GBGB2006402.8A GB202006402D0 (en) 2020-04-30 2020-04-30 A network computer with two embedded rings
GB2006402.8 2020-04-30
PCT/EP2021/057563 WO2021191272A1 (en) 2020-03-26 2021-03-24 Embedding rings on a toroid computer network

Publications (2)

Publication Number Publication Date
JP2022543886A JP2022543886A (ja) 2022-10-14
JP7447241B2 true JP7447241B2 (ja) 2024-03-11

Family

ID=75302548

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022507331A Pending JP2022543814A (ja) 2020-03-26 2021-03-24 2つの組み込みリングを有するネットワークコンピュータ
JP2022508517A Active JP7447241B2 (ja) 2020-03-26 2021-03-24 円環コンピュータネットワークへのリングの組み込み

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022507331A Pending JP2022543814A (ja) 2020-03-26 2021-03-24 2つの組み込みリングを有するネットワークコンピュータ

Country Status (6)

Country Link
US (2) US11531637B2 (ja)
EP (2) EP3973405A1 (ja)
JP (2) JP2022543814A (ja)
KR (2) KR20220006122A (ja)
CN (2) CN114026551A (ja)
WO (2) WO2021191271A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201904265D0 (en) * 2019-03-27 2019-05-08 Graphcore Ltd A partitionable networked computer
EP3973405A1 (en) * 2020-03-26 2022-03-30 Graphcore Limited A network computer with two embedded rings
CN116501691B (zh) * 2023-06-27 2023-09-22 北京燧原智能科技有限公司 互联系统的自动化布局方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118855A (ja) 1995-10-31 2004-04-15 Cray Res Inc マルチプロセッサコンピュータシステムを保全する方法
US20090307467A1 (en) 2008-05-21 2009-12-10 International Business Machines Corporation Performing An Allreduce Operation On A Plurality Of Compute Nodes Of A Parallel Computer
US20180240039A1 (en) 2017-02-21 2018-08-23 Google Llc Parallel processing of reduction and broadcast operations on large datasets of non-scalar data
WO2018211042A1 (en) 2017-05-17 2018-11-22 Derrick John Hamlin Digital processing connectivity
US20190045003A1 (en) 2018-01-09 2019-02-07 Intel Corporation Collective communication operation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689647A (en) * 1989-03-14 1997-11-18 Sanyo Electric Co., Ltd. Parallel computing system with processing element number setting mode and shortest route determination with matrix size information
US5533198A (en) * 1992-11-30 1996-07-02 Cray Research, Inc. Direction order priority routing of packets between nodes in a networked system
JPH06290158A (ja) * 1993-03-31 1994-10-18 Fujitsu Ltd 再構成可能なトーラス・ネットワーク方式
US6167502A (en) * 1997-10-10 2000-12-26 Billions Of Operations Per Second, Inc. Method and apparatus for manifold array processing
EP1370966B1 (en) * 2001-02-24 2010-08-25 International Business Machines Corporation A novel massively parrallel supercomputer
US7613900B2 (en) * 2003-03-31 2009-11-03 Stretch, Inc. Systems and methods for selecting input/output configuration in an integrated circuit
JP2006215816A (ja) * 2005-02-03 2006-08-17 Fujitsu Ltd 情報処理システムおよび情報処理システムの制御方法
US7581079B2 (en) * 2005-03-28 2009-08-25 Gerald George Pechanek Processor composed of memory nodes that execute memory access instructions and cooperate with execution nodes to execute function instructions
US7809006B2 (en) * 2007-08-16 2010-10-05 D. E. Shaw Research, Llc Routing with virtual channels
US8484440B2 (en) 2008-05-21 2013-07-09 International Business Machines Corporation Performing an allreduce operation on a plurality of compute nodes of a parallel computer
US20100017655A1 (en) * 2008-07-16 2010-01-21 International Business Machines Corporation Error Recovery During Execution Of An Application On A Parallel Computer
US20100158005A1 (en) * 2008-12-23 2010-06-24 Suvhasis Mukhopadhyay System-On-a-Chip and Multi-Chip Systems Supporting Advanced Telecommunication Functions
US7957385B2 (en) * 2009-03-26 2011-06-07 Terascale Supercomputing Inc. Method and apparatus for packet routing
US9081501B2 (en) * 2010-01-08 2015-07-14 International Business Machines Corporation Multi-petascale highly efficient parallel supercomputer
US20130191437A1 (en) * 2010-10-01 2013-07-25 Hitachi, Ltd. Distributed processing system and method of node distribution in distributed processing system
JP5696779B2 (ja) * 2011-03-22 2015-04-08 富士通株式会社 並列計算機システム及び並列計算機システムの制御方法
JP5786088B2 (ja) * 2012-03-09 2015-09-30 株式会社日立製作所 情報処理システム
US9077616B2 (en) * 2012-08-08 2015-07-07 International Business Machines Corporation T-star interconnection network topology
US9280504B2 (en) * 2012-08-24 2016-03-08 Intel Corporation Methods and apparatus for sharing a network interface controller
JP6122135B2 (ja) * 2012-11-21 2017-04-26 コーヒレント・ロジックス・インコーポレーテッド 分散型プロセッサを有する処理システム
US20140149715A1 (en) * 2012-11-28 2014-05-29 Los Alamos National Security, Llc Scalable and programmable computer systems
US9424229B2 (en) * 2013-02-13 2016-08-23 Advanced Micro Devices, Inc. Parallel torus network interconnect
US9742630B2 (en) * 2014-09-22 2017-08-22 Netspeed Systems Configurable router for a network on chip (NoC)
US10587534B2 (en) * 2017-04-04 2020-03-10 Gray Research LLC Composing cores and FPGAS at massive scale with directional, two dimensional routers and interconnection networks
NO343359B1 (en) * 2017-05-02 2019-02-11 Numascale As Interconnect switch in multiprocessor systems
GB201717303D0 (en) 2017-10-20 2017-12-06 Graphcore Ltd Scheduling tasks in a multi-threaded processor
GB201717295D0 (en) 2017-10-20 2017-12-06 Graphcore Ltd Synchronization in a multi-tile processing array
GB2569275B (en) 2017-10-20 2020-06-03 Graphcore Ltd Time deterministic exchange
US20200065659A1 (en) * 2018-08-24 2020-02-27 Samsung Electronics Co., Ltd. Method of accelerating training process of neural network and neural network device thereof
EP3973405A1 (en) * 2020-03-26 2022-03-30 Graphcore Limited A network computer with two embedded rings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118855A (ja) 1995-10-31 2004-04-15 Cray Res Inc マルチプロセッサコンピュータシステムを保全する方法
US20090307467A1 (en) 2008-05-21 2009-12-10 International Business Machines Corporation Performing An Allreduce Operation On A Plurality Of Compute Nodes Of A Parallel Computer
US20180240039A1 (en) 2017-02-21 2018-08-23 Google Llc Parallel processing of reduction and broadcast operations on large datasets of non-scalar data
WO2018211042A1 (en) 2017-05-17 2018-11-22 Derrick John Hamlin Digital processing connectivity
US20190045003A1 (en) 2018-01-09 2019-02-07 Intel Corporation Collective communication operation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARLO H. SEQUIN,Doublytwisted torus networks for VLSI processor arrays,ISCA'81:Proceedingsof the 8th annual symposium on Computer Architecture,米国,ACM,1981年05月12日,Pages 471-480

Also Published As

Publication number Publication date
WO2021191272A1 (en) 2021-09-30
KR20220003621A (ko) 2022-01-10
US11625356B2 (en) 2023-04-11
JP2022543886A (ja) 2022-10-14
WO2021191271A1 (en) 2021-09-30
CN114026551A (zh) 2022-02-08
CN114008602A (zh) 2022-02-01
EP3973406A1 (en) 2022-03-30
EP3973405A1 (en) 2022-03-30
KR20220006122A (ko) 2022-01-14
JP2022543814A (ja) 2022-10-14
US20210349847A1 (en) 2021-11-11
US11531637B2 (en) 2022-12-20
US20210303505A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP7447241B2 (ja) 円環コンピュータネットワークへのリングの組み込み
CN111630487A (zh) 用于神经网络处理的共享存储器的集中式-分布式混合组织
JP7344981B2 (ja) 環状コンピュータネットワークにおけるリングの組み込み
US11614946B2 (en) Networked computer
JP7463397B2 (ja) 組み込みリング領域を有するネットワークコンピュータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7447241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150