JP6959141B2 - スケーラブルなイベント駆動型計算システムのための異種メモリ構造をもつネットワークおよび階層型ルーティングファブリック - Google Patents

スケーラブルなイベント駆動型計算システムのための異種メモリ構造をもつネットワークおよび階層型ルーティングファブリック Download PDF

Info

Publication number
JP6959141B2
JP6959141B2 JP2017555655A JP2017555655A JP6959141B2 JP 6959141 B2 JP6959141 B2 JP 6959141B2 JP 2017555655 A JP2017555655 A JP 2017555655A JP 2017555655 A JP2017555655 A JP 2017555655A JP 6959141 B2 JP6959141 B2 JP 6959141B2
Authority
JP
Japan
Prior art keywords
core
router
event
circuit
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017555655A
Other languages
English (en)
Other versions
JP2018514872A (ja
Inventor
ジャコモ インディベリ
セイバー モラディ
ニン チャオ
ファビオ ステファニーニ
Original Assignee
ユニヴァーシテト チューリッヒ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴァーシテト チューリッヒ filed Critical ユニヴァーシテト チューリッヒ
Publication of JP2018514872A publication Critical patent/JP2018514872A/ja
Application granted granted Critical
Publication of JP6959141B2 publication Critical patent/JP6959141B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/25Routing or path finding in a switch fabric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • H04L45/04Interdomain routing, e.g. hierarchical routing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Multi Processors (AREA)

Description

本発明は、ネットワークに関し、特に、ニューラルネットワーク、ルーティングファブリック、および対応する方法に関する。
本発明の基礎にある問題は、改善されたネットワーク、特にニューラルネットワーク、および対応する方法を提供することである。
この問題は、請求項1に記載のネットワークにより解決される。それによれば、相互接続された複数のコア回路(例えばいくつかのチップまたはユニットまたはタイルに配列される)を備えるネットワークが準備され、各コア回路は、
−複数の計算ノードおよび複数のメモリ回路を備える電子アレイであって、電子アレイは、到着イベントを受信するよう(特にローカルメモリを使用して入力イベントまたは到着イベントを識別するよう)構成され、各計算ノードは、個々の計算ノードにより受信された到着イベントが所定の基準を満足すれば、データパケットを備えるイベントを生成するように構成されている、電子アレイと、
−宛先アドレスと、追加のソース情報(例えばソースコアID、特に仮想ソースコアID、例えば下記参照)とを、個々のデータパケットに付加するように構成されている回路と、
−迅速なコア内接続性を提供する、および/またはコア間のための中間レベルの第2ルータ(R2)およびチップ間(またはユニット間またはタイル間)接続性のためのより上位レベルの第3ルータ(R3)にイベントを伝達する、ローカル第1ルータ(R1)と、
−コア内のメモリ回路すべてに到着イベントを並行してブロードキャストするブロードキャストドライバと、
を備える。
以下では、コア回路はコアとも表記される。
さらに、特に、個々の計算ノードは、個々の電子アレイのメモリ回路を介して前記到着イベントを受信してもよい。
特に、階層型ルーティング構造と異種メモリアーキテクチャとを組み合わせるイベントベースのルーティングファブリックが提供される。このルーティングファブリックは、複数の計算コアにわたり分散した非同期計算ノードを備えるアーキテクチャに適用可能である。ファブリックは、ソースベースおよび宛先ベースの組み合わせのルーティングからなり、データパケットは異なる階層レベルで処理されてからルーティングされる。これは、メモリおよび帯域幅の最適化を可能にする異種ネットワーク構造の構築を可能にする。ブロードキャスト、ツリー、およびメッシュルーティングの異なる3つの戦略を使用するルーティングファブリックのスタックの実現により本発明を例示する。計算ノード間の接続性を格納するのに使用されるメモリは、ノード、コア、およびルータ中に分散された異なる構造を使用する。計算ノードは、非同期入力を処理して、入力データに関する条件が満たされると非同期イベントを発生させることにより、並列、独立、かつ非同期に動作する。スパイキングニューラルネットワークの場合、計算ノードは、複数のソースから入力イベント(例えば到着イベント)を受信して、入力イベントの合計が設定された閾値を超えると1つの出力スパイクを発生させる、人工ニューロンである。フルカスタムのマイクロチップ上に実装されたプログラム可能な接続性を備える、スケーラブルなスパイキングニューラルネットワークの文脈の中で、本発明を例示する。
さらに、特に本発明は、情報処理および計算のための非同期イベントベースのシステムおよび回路、特にイベントベースのネットワーク、および特にスパイキングニューラルネットワークに関する。イベントベースのシステムは、計算ノードの入力信号に関する条件の所定のセットが満たされると構成要素の計算ノードが発生させる非同期イベントを介して、計算および通信を構成要素が実行する電子計算システムである。本発明は、ネットワーク接続性をプログラムするためのメモリの使用を最適化する、分散型異種メモリ構造をもつ階層型ルーティングファブリックに関する。ネットワーク接続性がその計算特性を決定するので、本発明は、ディープビリーフおよび畳み込みネットワークを含む「ディープネットワーク」、リザーバー計算ネットワークを含む回帰型ニューラルネットワーク、ならびに因子グラフを含む確率的グラフィカルモデルのハードウェア実装を構築するために使用可能である。ネットワーク接続性は、ネットワーク上に分散したルーティングルックアップテーブル(LUT:Look Up Tables)、および計算ノードに関連する連想メモリ(CAM:Content−Addressable Memories)をプログラムすることにより実現される。システムにプログラム可能なネットワークのタイプは、構成要素、コア、およびルータ内の配分されたメモリの量に依存する。
かかるシステムの具体的な事例は、スパイキングニューラルネットワークである。計算要素は、ダイナミクスまたは生物学的ニューロンをモデルとし、よって、多くの場合スパイクと称されるイベントを、集積された入力スパイクが設定された閾値を上回るのに応答して生成する。このスパイクイベントは、パケットとしてエンコードされ、その宛先に、ルータユニットおよびシナプスユニットを備える物理的ネットワークにより伝達される。ニューラルネットワークの接続性は、ローカルの分散型メモリ構造を使用して、ソースからスパイクイベントの宛先にスパイクイベントを適切にルーティングすることにより実現される。このアーキテクチャは、イベント駆動型と呼ばれ、人工ニューラルネットワークを実現する。
さらに、特に本発明の実施形態は、並列計算システムのための非同期イベント駆動型アーキテクチャを提供する。システムの計算ノード間の接続性の度合いと、システムにプログラム可能な計算のタイプとは、個々のノード、コア、およびルータに配分されたメモリの量に依存する。
特に、本発明は、本発明の範囲を限定することなく、計算ノードがダイナミックシナプスをもつ集積始動ニューロンである実施形態により説明される。この実施形態によれば、ニューラルネットワークは、1つ以上の電子チップ上に分散された複数のコアの中で、および複数のコアにわたって、相互接続された複数のノードを備える。各コアは、ネットワークの接続性を格納してニューラル計算を実現するニューラルおよびシナプス要素をもつ多数のブロックを備える。コア内のニューロンのシナプス要素は、それらが入力を受領するシナプス前ニューロンのアイデンティティを格納するメモリ構造を有する。適切なシナプス前ニューロンが有効なシナプス要素を刺激すると、この要素がアナログ電流を生成し、それが当該シナプスの接続されているシナプス後ニューロンにより集積される。或るニューロンに接続されたすべてのシナプスにより送られた、集積された入力電流が閾値を上回ると、ニューロンはスパイク生成メカニズムを活性化する。ニューロンが出力スパイクを発生させると、これがそのソースアドレスによりエンコードされ、このアドレスが非同期データパケットとして階層型スキームに従って他のノードにルーティングされる。最下位レベルでは、コアルータが、ソースおよび宛先が同じコアに位置するスパイクを分配する。中間レベルでは、1つ以上のセットのツリールータが、同じチップ内のコアにより生成されるかまたは同じチップの中のコアをターゲットとするかいずれかのスパイクを分配する。ツリールータは、階層レベルに編成され、複数のルータが、複数レベルの階層に広がることができる。
最上位レベルでは、メッシュルータが2次元メッシュに分散した複数チップにわたりスパイクを分配する。
本発明によるネットワークの実施形態によれば、ネットワークは、コア回路を相互接続するイベントルーティングシステムをさらに備え、イベントルーティングシステムは、前記ローカル第1ルータを備え、かつ特に、さらなるルータ、特に第2および第3ルータをも備え、特にルータの全体が、階層型構造を形成する。
さらに、本発明によるネットワークの実施形態によれば、各ルータ(R1、R2、R3)は、特に個々のイベント/データパケットが備えるルートペイロードに従ってイベント(または信号)をルーティングするように構成されている少なくとも1つの制御回路を備え、各第1ルータ(R1)は、
−前記データパケットの、ルートペイロードおよび特に仮想ソースコアIDを格納するように構成されたプログラム可能メモリ(例えばデジタルローカルメモリのアレイ)と、
−前記メモリに格納されたプログラムされたルート割り当てに応じて、ルートペイロードおよび特に仮想ソースコアIDを個々のデータパケットに付加するように構成された少なくとも1つの回路と、
をさらに備える。
仮想ソースコアIDは、全体的なアドレス空間を広げ、特にイベント識別可能性を向上させ、したがってアドレス曖昧性を低減するために、コア毎ではなくニューロン毎に、各ニューロンに関し独立してソースアドレスに付加される追加のコードである。
さらに、本発明によるネットワークの実施形態によれば、コア回路は、ユニット、特にモジュラータイルまたはチップの形態で配列され、特に各ユニットは、コア回路のいくつかを備え、各ユニットは、第1ルータのうちの1つを備え、特に前記第1ルータはそれぞれ、ルータの全体により形成される階層型構造内に配置される。
さらに、本発明によるネットワークの実施形態によれば、前記階層型構造は、第1ルータを備える最下位レベルを備え、特に、第1ルータは、イベントのソースおよび宛先が同じコア回路に位置する該イベントを分配するように構成されている。
さらに、本発明によるネットワークの実施形態によれば、前記階層型構造は、第2ルータを備える少なくとも1つの中間レベルを備え、特に第2ルータは、同じユニットの中のコア回路により生成されまたはそれをターゲットとするイベントを分配するように構成されている。
さらに、本発明によるネットワークの実施形態によれば、前記階層型構造は、異なるユニットにイベントを分配するように構成されている第3(例えばメッシュ)ルータを備える最上位レベルを備え、特に第3ルータは、2次元メッシュに配列される。
さらに、本発明によるネットワークの実施形態によれば、ルータは、ルータにより形成された階層型構造に配置され、異なるレベルにおける異なる非同期ルーティングスキームを整合させるために、ソースアドレスと、コア回路において計算ノードにより生成された前記データパケットとを対応付けることにより、階層型構造の異なるレベルにおける異なるルーティングスキームが共存する。
さらに、本発明によるネットワークの実施形態によれば、ネットワークは、人工的なニューロンネットワークであり、各計算ノードは、ニューロンを形成し、前記メモリ回路のそれぞれが、シナプスを形成し、特に計算ノードは、到着イベントを集積(例えば合計)して、集積されたイベントにより形成される信号が始動閾値を超えるとイベントを生成するよう設計される。
請求項10によれば、本発明はさらに、(例えば高度に)相互作用するマルチコアプロセッサの(超)並列型ネットワークの側面に関し、各マルチコアプロセッサは、コア回路の中および/または異なるコア回路間でデータパケットの形態のイベントを通信するように構成されている複数のコア回路を備え、ネットワークは、独立した通信経路に作用するように構成されている非同期ルータの階層により前記通信を規制するように構成されている。
さらに、本発明による並列ネットワークの実施形態によれば、各データパケットは、エンコードされたソースアドレスを生成するコア回路の計算ノードの当該アドレスと、ネットワークに沿った個々のイベントのルートの一部または全部を指定する追加のデジタルコードとからなる。
請求項12によれば、本発明はさらに、ネットワークにルーティングメモリを(特にパケットペイロードを最小化する形で)分散させる方法の側面に関し、同じネットワークの中に共存する異なるルーティング戦略が使用される。
請求項13によれば、本発明はさらに、特に請求項1〜9のいずれか1項に記載のネットワークを使用して、ネットワーク内でイベントをルーティングする方法の側面に関し、本方法は、
−相互接続された複数のコア回路を備えるネットワークを準備するステップであって、各コア回路は、複数の計算ノードおよび複数のメモリ回路を備えた電子アレイを備える、ステップと、
−個々の計算ノードにより受信された到着イベントが所定の基準を満足すれば、データパケットを備えるイベントを計算ノードにより生成するステップと、
−生成されたイベントを、各コア回路が備えるローカル第1ルータによって、そのイベントのコア回路の中で分配するステップであって、前記メモリに格納されているプログラムされたルート割り当てに応じて、個々のデータパケットに、個々の第1ルータによって宛先アドレス、および特に追加の仮想ソースコアIDが付加される、ステップと、
−個々の第1ルータによって、個々のコア回路内のメモリ回路すべてに到着イベントを並行してブロードキャストするステップと、
−個々のデータパケットに付加された宛先アドレスに従って、同じユニットの中のコア回路により生成されまたは同じユニットの中のコア回路をターゲットとするイベントを、中間レベルの個々の第2ルータによって分配するステップと、
−個々のデータパケットに付加された宛先アドレスに従って、より上位レベルの個々の第3ルータによって異なるユニットにイベントを分配するステップと、
を含む。
請求項14によれば、本発明はさらに、相互接続された複数のコア回路を備えるネットワークにおいてイベントをルーティングするためのルーティングファブリックの側面に関し、各コア回路は、複数の計算ノードおよび複数のメモリ回路(例えば入力イベントまたは到着イベントを識別するためにローカルメモリを使用する)を備える電子アレイを備え、このアレイは、到着イベントを受信するように構成され、各計算ノードは、個々の計算ノードにより受信された到着イベントが所定の基準を満足すればデータパケットを備えるイベントを生成するように構成され、ルーティングファブリックは、
−迅速なコア内回路接続性を提供する複数のローカル第1ルータ(R1)であって、ローカル第1ルータ(R1)は、各コア回路に割り当てられるように構成され、個々の第1ルータ(R1)は、
−個々の第1ルータが割り当てられているのと同じコア回路にイベントのソースおよび宛先が位置する該イベントのデータパケットを分配するように構成されている、ローカル第1ルータと、
−複数のブロードキャストドライバであって、各ブロードキャストドライバは、コア回路の1つに割り当てられて到着イベントをその関連するコア回路内のメモリ回路すべてに並行して伝達するように構成されている、複数のブロードキャストドライバと、
−コア間接続性を提供するように構成された複数の第2ルータ(R2)であって、特に、第2ルータは、個々のデータパケットが備えるルートペイロードに従ってイベントを分配するように構成されている、複数の第2ルータ(R2)と、
−チップ間(またはユニット間またはタイル間)接続性を提供するように構成された複数の第3ルータ(R3)であって、特に、第3ルータは、個々のデータパケットが備えるルートペイロードに従ってイベントを分配するように構成されている、複数の第3ルータ(R3)と、
を備える。
本発明の上述の特徴および他の特徴、側面、ならびに利点が、下記の記載、添付の特許請求の範囲、および添付の図面を参照することにより理解されるであろう。
本発明の実施形態による、例示のマルチコアネットワークの構造を例示する概観図を示す。 本発明の実施形態による、コアルータR1上で、対応するコアの中で生成されたイベントによりインスタンス生成されたプロセスの図を示す。 本発明の実施形態による、チップコアの1つの中で生成されたイベントによりチップルータR2上でインスタンス生成されたプロセスの図を示す。 本発明の実施形態による、相互接続されたチップのいずれかの中のニューロンにより生成されたイベントによりチップルータR2上でインスタンス生成されたプロセスの図を示す。 本発明の実施形態による、メッシュルータR3上で、対応するチップの中のニューロンにより生成されたイベントによりインスタンス生成されるプロセスの図を示す。 本発明の実施形態による、メッシュルータR3の北または南ポートに到達する、相互接続されたチップのいずれかの中のニューロンにより生成されたイベントにより、R3上でインスタンス生成されたプロセスの図を示す。 本発明の実施形態による、メッシュルータR3の東または西ポートに到達する、相互接続されたチップのいずれかの中のニューロンにより生成されたイベントにより、R3上でインスタンス生成されたプロセスの図を示す。 本発明の実施形態による、1つのニューラルネットワークのアーキテクチャを例示する図を示す。 本発明の実施形態による、多数のニューロンピクセルと、コアの外からニューロンピクセルにブロードキャストされる信号のフローとを例示する図を示す。 本発明の実施形態による、1つのコアと、当該コアの中でスパイクが生成されたときの信号のフローとのブロック図を示す。 本発明の実施形態による、1つのコアと、当該コアによりスパイクが受信されたときの信号のフローとのブロック図を示す。 本発明の実施形態による、1つのコアと、コアメモリをプログラムするためおよびニューロンを構成するために使用される信号のフローとのブロック図を示す。 本発明の実施形態による、3レベルの階層規模および分岐(ツリー)をもつ階層型構造のメッシュを示す。 本発明の実施形態による、階層型構造に編成された64個のコアをもつチップと、通信フローとの例のブロック図を示す。 本発明の実施形態による、コアおよびルータ間の通信フロー、ならびにパケット構造の詳細を示す。 本発明の実施形態による、ソースニューロンから宛先ニューロンへのイベントのルーティングの例を示す。 モジュール配列された複数の計算ノードを例示する図を示す。
本発明の実施形態は、スケーラブルニューラルネットワークのための分散型メモリおよび異種メモリ構造を備えVLSI実装可能なイベント駆動型ニューラルアーキテクチャを提供する。階層型ルータアーキテクチャは、マルチコアチップ上に分散した複数のコアの中および間で各ノードを相互接続するための能力と、時間効率のよい戦略とを提供する。各コアに分散したメモリおよび各コアにおいてブロードキャストされるイベントが、膨大なファンアウトを提供して、生物学的にもっともらしいモデルの典型的な構造的制約をもつ大規模ニューラルネットワークを実装する。完全に非同期のルータおよびプログラミングファブリックは、差し迫ったオフライン学習のためのシナプス計算の高速演算を可能にする。
本願明細書で使用されるニューロンおよびシナプスという用語は、生物学上のニューロンおよびシナプスをシミュレートする回路を表す。電子ニューロンは、関連したシナプスの貢献度を合計してスパイクイベントを発生させる。本発明の実施形態による電子ニューロンおよびシナプスを備える神経形態学的システムは、生物学的ニューロンをモデルとする様々な処理要素を含んでもよい。シナプス接続性を格納するためにアナログニューロンおよびCAMモジュールを使用する、本発明の特定の例示的実施形態が本願明細書に記載される。本発明は、ニューロンおよびシナプスの計算要素に限定されない。本発明の実施形態によるイベント駆動型の計算システムは、複数の入力イベントを処理して単一の出力イベントを発生させる任意の非同期計算ノードを使用することができる。さらに、本発明は、情報共有のために膨大なファンアウトを必要とする任意の種類の超並列型の混成信号イベントに基づく計算をサポートする。
本発明の実施形態によれば、完全非同期の回路実装がルータに使用されるが、本発明はかかる実装に限定はされない。
本発明の実施形態によれば(例えば図1参照)、ニューラルネットワークは複数のマルチコアチップ6を備える。各チップ6は、ネットワークの接続性を格納してそれにより特定の形態のニューラル計算を実現するニューラルおよびシナプス要素をもつ多数のコア10を備える。
各コア10は、ニューロン90一つにつき(または計算ノード90一つにつき)複数のシナプス80(またはメモリ回路80)をもつニューロンのアレイ9、シナプスアレイ8(このアレイ8、9は電子アレイ8、9の一部を形成し得る)、宛先LUT3を格納するSRAMメモリ2、およびコア(または第1)ルータR1を備える。さらに各チップ6は、チップ(または第2)ルータR2、およびメッシュ(または第3)ルータR3も備える。各ニューロン90は、対応するシナプス80により受信および受領された複数のイベントを集積し、集積された信号が始動閾値を超えるとスパイクイベントを生成する。ニューロン90の発生させたスパイクは、コアのエンコーダにより、ソースのアイデンティティを表すデジタルアドレスイベントとしてエンコードされ、R1に送信される。R1は、そのローカルLUT3に格納されている宛先情報により、イベントを処理してさらにR2に伝達するか、コアに再び伝達するかを決定する。さらにR1は、そのイベントからファンアウトを生成でき、すなわち、最大4つのイベントが生成されて、LUT SRAM2においてプログラムされた異なる宛先を割り当てられることができる。R2ルータがいずれかのコアルータR1からスパイクイベントを受信すると、R2ルータは、宛先アドレスを確認して、対応するコアルータにイベントを再び伝達するか、R3にさらに伝達するかを適宜決定する。各シナプス80は、接続されているソースニューロン90のアドレス、シナプスタイプ、およびそのシナプス効力を格納するためのnビットCAMワードを有する。1つのイベントが特定のコア10に送られると、アドレスがコア10の中のすべてのシナプス80にブロードキャストされる。格納されているアドレスがブロードキャストされたアドレスに一致するシナプス90は、対応するシナプス後ニューロン90に対して、シナプスタイプおよびシナプス効力の所定パラメータをもつPSCを生成する。なお、ファンアウトは、(1)イベントが1つのコア10を出てR1に到達するときに、そのイベントについてR1メモリがどのようにプログラムされているかに応じて、および(2)イベントがR1からコア10に到達するときに生成される。記載されるスキームは、短距離および長距離での情報共有を要求する高度相互接続型ネットワークをサポートする。
図2は、本発明の実施形態によるR1ルータのプロセスのさらなる詳細を示す。ニューロン90がスパイクを生成すると、このスパイクのアドレスがR1に送られる。このイベントの宛先は、R1がアクセスできるLUT3に格納されている。イベントについてプログラムされている宛先に従って、R1は、イベントをコア10に送り返すか、またはイベントパケットにこのイベントの宛先を表すデジタルコードを付加することができる。所与の例では、コア10からのスパイクは8ビットアドレスイベントとして表される。付加された宛先アドレスは、12ビットコードからなり、チップシフト(dx,dy)のための6ビット、仮想ソースコアIDのための2ビット、およびチップ内宛先のための4ビットを含む。仮想ソースコアIDは、全体的なアドレス空間を広げ、イベント識別可能性を向上させ、したがってアドレス曖昧性を低減するために、コア毎ではなくニューロン毎に、各ニューロンに関し独立してソースアドレスに付加される追加のコードである。例えば、コア1のニューロン243には仮想ID=1が割り当てられ、同じコアのニューロン121には別の仮想ID、例えば2が割り当てられることが可能である。1つのスパイクイベントはさらに、SRAMメモリ2においてプログラムされているとおりファンアウトを生成することができ、各イベントは異なる宛先を割り当てられるが、同じソースアドレスを輸送する。
R2がR1からイベントを受信すると、R2は、図3に示されているとおり、このイベントのターゲットコア10が同じチップ6の中に位置するかどうかを確認する。そうである場合、R2は、イベントパケットから読み取った宛先コア10に従ってイベントを伝達する。そうでない場合、このイベントはR3に伝達される。R2はさらに、図4に示されるとおり、他のチップ6からR3を介してイベントを受信する。これが発生すると、R2は、ソースアドレスに付加された宛先コードに従って分岐にイベントを送る。
図5は、本発明の実施形態による、R3ルータがR2からイベントを受信したときのR3ルータの処理の詳細を示す。この例では、R3はまずx方向(東西)シフトの数を確認する。xシフトが0でない場合、R3は、dxの符号を確認して、dx>0であれば東、dx<0であれば西、の伝達の方向を決定する。次にdxが1減じられ、イベントが適切な方向に伝達される。xシフトが0の場合、R3は、dyの符号を確認して、dy>0であれば北、dy<0であれば南、伝達の方向を決定する。次に、dyが1減じられ、イベントが適切な方向に伝達される。したがって、本例では、イベントがR3に伝達されると、まず東西方向に沿ってシフトされ、次に南北方向に沿ってシフトされるように優先順位規則が設定されている。イベントは、dxおよびdy両方が0になるまでメッシュに沿って移動する。図6に示されているとおり、R3が南/北(y方向)からイベントを受信すると、上記の優先順位規則が当てはまるので、イベントをx方向に沿ってさらにシフトする必要はないと推定することができる。故に、dyの値が0になると、イベントは対応するチップのR2に伝達される。
CAMワードは、ニューロン接続およびシナプス効力を格納するためのシナプス80として使用される。或る例では、1つのコア10は、256個のニューロンを有し、ニューロン1つにつき64個のCAMベースシナプスがある。各CAMワードは、ソースアドレスのための10ビットと、シナプスタイプのための2ビットとの12ビットからなる。1つのコアに到達するスパイクイベントは、ブロードキャストドライバによりコア全体にブロードキャストされる。各CAMは、ブロードキャストバス上のイベントと、格納されたコンテンツとを比較する。ブロードキャストされたイベントにコンテンツが一致するものは「一致状態」を出し、適切なシナプス後電流(PSC:Post−Synaptic Current)を生成する。図9では、ニューロン1のシナプス4、ニューロン16のシナプス1、およびニューロン5のシナプス5が、ブロードキャストドライバにより伝達されたものに一致するアドレスを格納しているので、これらが、対応するニューロンに対して適切な電流を生成する応答を出す。
図10は、ニューロンアレイ9の中で生成されたスパイクに対しイベントを発するプロセスを示す。ニューロン90により生成されたスパイクは、ニューロンアドレスとしてエンコードされる。例えば、16×16ニューロンアレイの場合、スパイクは、列のための4ビットおよび行のための4ビットの8ビットとして列エンコーダ5および行エンコーダ4によりエンコードできる。このイベントは、上記説明のとおり宛先SRAM LUTを読み取ることにより宛先アドレスおよび追加のソースコアIDを得るためにまずコアルータR1へ送られる。
図11は、1つのイベントが特定のコア10に送られるのを受けてイベントをブロードキャストするプロセスを示す。受信されるイベントは、まずR1により受信され、次にブロードキャストドライバ7によりシナプスアレイ8にブロードキャストされる。ブロードキャストドライバ7は、スパイクをコア10内のすべてのCAMに伝達し、続いてCAMが、イベントのソースアドレスを識別し、PSCを適宜生成する。
図12は、アドレスおよびデータを行デコーダ40および列デコーダ50に送ることによりコアのメモリ3をプログラムする例を示す。CAMベースの異種メモリ構造および分散型宛先SRAM LUT3が各コア10において使用されるので、CAM/SRAMのコンテンツは、CAM/SRAMに対する標準の書き込み動作を使用して行デコーダ40および列デコーダ50により容易にプログラムできる。
図13は、異種メモリ構造をもつ階層型ネットワークまたはルーティングファブリックの別の例を示す。ルーティングファブリックは、その葉がマルチニューロンコア10であるツリー構造6の2次元メッシュを統合する。本発明の実施形態によれば、各コア10は、スパイク入力/出力(例えばコア内接続性)のための1つのコア(または第1)ルータR1を有する。1つのコア10から同じ分岐60内の他のコア10に伝達されるイベントは、まず下位レベルの分岐ルータ(または第2ルータ)R2に送られ、次に、アドレスイベントにより輸送される宛先コードに従って1つ以上のターゲットコア10へ送られる。1つのコア10から他の分岐であるが同じチップ6の中にある他の1つ以上のコア10へ伝達されるイベントは、まずより上位の(第2)ルータR2へ送られ、次に、イベントにより輸送された宛先コードにエンコードされているとおりにより下位の分岐ルータR2へ送られる。ターゲットにできるツリーの深さおよび同じチップの中の異なるコアの数は、宛先コードとしてアドレスイベントにより輸送されるビット数に依存する。一例では、各チップ6は2次元メッシュ状に当該ツリー構造を相互接続する1つのタイルルータ(または第3ルータ)R3を有する。
図14は、図13に記載された階層型ルーティングスキームを使用する64個のコア10からなるチップ構造の例を示す。本例では、各コア10は、ローカルコア接続のための専用(第1)ルータR1を有する。4つのコアのグループが、ツリー構造の最下位レベル分岐と定義される。これらのモジュール4つの各グループは、レベル2分岐と定義され、したがって、それぞれ16個のコア10を含む。例示のチップ6は、これらのモジュール4つのグループからなり(ツリーにおける第3レベル)、したがって、合計で64個のコア10からなる。各レベルは、当該レベルの中でのコアの通信のため、およびツリー6の他のレベルへ/からのイベント送信/受信のため、専用(第2)ルータR2を含む。
コア10の中で生成された各イベントに割り当てられた宛先アドレスに従って、同じコア10の中の宛先をターゲットとするイベントは、コアルータR1によりルーティングされ、そうしてローカル接続性が実現される。同じレベル1分岐の中の他のコア10をターゲットとするイベントは、(第2)ルータR2に送られ、次に処理されて、対応するコア10へ伝達される。概して、ルータのメモリは、チップ6の中の任意の宛先コア10に到達するのに必要なだけイベントが各レベルのR2ルータを通ってツリーを上がるようにプログラムされる。イベントのターゲットが別のチップ6のコア10にある場合、イベントは、すべての層を通ってチップ(第3)ルータR3まで送られ、R3はそれをさらに処理してメッシュ内の適切な方向に沿って伝達する。
図15は、ネットワーク内の1つのコア10の構造の詳細を示す。本例において、1つのマルチコアチップ6は、各コア10内に256個のニューロン90、ニューロン90それぞれに対し64個のシナプス80を備えた4つのコア10を有する。各コア10は、シナプス/ニューロンアレイ8、9、列/行エンコーダ5、4、ブロードキャストドライバ7、宛先LUT3、およびローカルコア(または第1)ルータR1を含む。ニューロンアレイ9により生成されたイベントは、8ビットアドレス(列のための4ビットおよび行アドレスのための4ビット)としてエンコードおよび表現される。ニューロンアレイ9により生成されたイベントには、10ビットの宛先アドレス(dx距離およびx方向符号のための3ビット、dyおよびy方向符号のための3ビット、宛先チップ6上のターゲットコア10、すなわちdx−dyチップに到達したらどのコア10をターゲットとするかの4ビット)およびソースアドレス識別性を増す追加のソースコアIDのための2ビットが割り当てられる。各イベントは複数回複製でき、各複製にはコアルータR1により異なる宛先アドレスを割り当てできる。本発明の実施形態において、2ビットがコアアドレスによりソースアドレスに内部的に付加され、LUT(3)を4回読み取るために使用される。こうして、異なる12ビット宛先アドレスおよびコアIDが各複製に付加される。ソース8ビットイベントアドレスは、LUT3から読み取られた12ビットデータとともに、20ビットイベントの単一パケットとして送られ、その後(第2)ルータR2へ伝達される。(第3)ルータR3からルータR2に到達するイベントは、図9に記載されたとおり宛先コアにブロードキャストされる。
図16は、ソース計算ノードから宛先ノードへのイベントのルーティングの例を示す。図13に示された階層型マルチレベルスキームに従うことにより、任意の1つのチップ6内でノード90により生成されるイベントに特定の宛先が割り当てられる。イベントはさらに、複数回複製され、各複製に異なる宛先が割り当てられる。本例では、白丸で示されたノード90により生成されたイベントに異なる4つの宛先が割り当てられ、4つのマルチチップ6に送られる。複製イベントのうちの1つは、同じチップ6上の別のコア10に伝達される(よってそのルートはR1−R2−R1)。他の3つのイベントは、別々のチップ6に伝達されて、複数のコア10上でローカルに分配される(よってそのルートはR1−R2−R3−…−R3−R2−R1)。
図17は、異種メモリ構造をもつ階層型ルーティングファブリックまたはネットワークの別の例を示す。本例において、自己相似計算アーキテクチャは、必要な計算を実装するためにローカルメモリ80にアクセスし異種混合性のルーティングシステムの階層(R1、R2、R3)により相互接続された複数のイベントベース計算ノード90からなる。ノード98は、前記複数のノード90、ローカル(または第1)ルータR1、および前記ルータR1によりアクセスされるルータメモリ3からなるコア10に配列される。コア10の複数のグループが、コア10の前記グループ、ローカル(または第2)ルータR2、および前記ルータR2によりアクセスされるルータメモリ32からなる複数のタイル(またはチップまたはユニット)6に配列される。前記タイルモジュール6は、自己相似構造を形成するよう任意に組み合わされ、ルータR2、R3は、ソースアドレスを、さらに伝送されるべきパケットにルートデータを付加するために使用されるローカルメモリエントリ3、32、33に対するポインタとして使用する。さらに、前記ルータR2、R3は、より上位レベルから伝達されたイベントを処理して、それらをパケットに含まれたルートデータに従ってより下位レベルの宛先をターゲットにするようにルーティングするようプログラムされる。

Claims (16)

  1. いくつかのユニット(6)上に配列された、相互接続された複数のコア回路(10)を備えるネットワークであって、各コア回路(10)は、
    −複数の計算ノード(90)および複数のメモリ回路(80)を備える電子アレイ(8、9)であって、前記電子アレイ(8、9)は、到着イベントを受信するように構成され、各計算ノード(90)は、個々の前記計算ノード(90)により受信された到着イベントが所定の基準を満足すると、データパケットを備えるイベントを生成するように構成されている、前記電子アレイ(8、9)と、
    −宛先アドレスと、仮想ソースコアIDを含む追加のソース情報とを、個々の前記データパケットに付加するように構成されている回路と、
    −コア内接続性を提供し、コア間接続性のための中間レベルの第2ルータ(R2)にイベントを伝達する、コア回路(10)内のローカル第1ルータ(R1)であって、前記第2ルータ(R2)は、ユニット間接続性のためのより上位レベルの第3ルータ(R3)にイベントを伝達するように構成されている、ローカル第1ルータ(R1)と、
    −前記コア回路(10)内の前記メモリ回路(80)すべてに到着イベントを並行してブロードキャストするブロードキャストドライバ(7)と、
    を備える、ネットワーク。
  2. 前記ネットワークは、前記コア回路(10)を相互接続するイベントルーティングシステム(R1、R2、R3)をさらに備え、前記イベントルーティングシステムは、前記ローカル第1ルータ(R1)、中間レベルの第2ルータ(R2)およびより上位レベルの第3ルータ(R3)を備え、前記ルータの全体は、階層型構造を形成することを特徴とする、請求項1に記載のネットワーク。
  3. 前記ネットワークは、
    ルートペイロード、すなわち、個々の前記データパケットの一部、に従ってイベントをルーティングするように構成されている少なくとも1つの制御回路を備え、
    前記ネットワークは、
    −前記データパケットのためのルートペイロードおよび仮想ソースコアIDを格納するように構成されたプログラム可能メモリと、
    −前記プログラム可能メモリに格納されたプログラムされたルート割り当てに応じて、ルートペイロードおよび仮想ソースコアIDを前記個々のデータパケットに付加するように構成された少なくとも1つの回路と、
    をさらに備えることを特徴とする、請求項2に記載のネットワーク。
  4. 前記コア回路(10)は、ユニット(6)に、モジュラータイル(6)またはチップ(6)の形態で配列され、各ユニット(6)は、前記コア回路(10)のいくつかを備え、各ユニット(6)は、前記第1ルータ(R1)のうちの1つを備え、前記第1ルータ(R1)はそれぞれ、前記ルータ(R1、R2、R3)の全体により形成される階層型構造内に配置されることを特徴とする、請求項1〜3のいずれか一項に記載のネットワーク。
  5. 前記階層型構造は、前記第1ルータ(R1)を備える最下位レベルを備え、前記第1ルータ(R1)は、同じ前記コア回路(10)にイベントのソースおよび宛先が位置する前記イベントを分配するように構成されていることを特徴とする、請求項2または4に記載のネットワーク。
  6. 前記階層型構造は、前記第2ルータ(R2)を備える少なくとも1つの中間レベルを備え、前記第2ルータ(R2)は、同じ前記ユニットの中のコア回路(10)により生成されまたは同じ前記ユニットの中のコア回路(10)をターゲットとするイベントを分配するように構成されていることを特徴とする、請求項2、4、および5のいずれか一項に記載のネットワーク。
  7. 前記階層型構造は、異なるユニット(6)にイベントを分配するように構成されている前記第3ルータ(R3)を備える最上位レベルを備え、前記第3ルータ(R3)は、2次元メッシュ状に配列されることを特徴とする、請求項2、4、5、および6のいずれか一項に記載のネットワーク。
  8. 前記ルータ(R1、R2、R3)は、前記ルータにより形成された階層型構造に配置され、異なるレベルにおける異なる非同期ルーティングスキームを整合させるために、ソースアドレスと、前記コア回路(10)内で前記計算ノード(90)により生成された前記データパケットとを対応付けることにより、前記階層型構造の前記異なるレベルにおける前記異なるルーティングスキームが共存することを特徴とする、請求項1〜7のいずれか一項に記載のネットワーク。
  9. 前記ネットワークは、人工的なニューロンネットワークであり、各計算ノード(90)は、ニューロンを形成し、前記メモリ回路(80)それぞれは、シナプスを形成し、前記計算ノード(90)は、到着イベントを集積して、前記集積されたイベントにより形成される信号が始動閾値を超えるとイベントを生成するよう設計されることを特徴とする、請求項1〜8のいずれか一項に記載のネットワーク。
  10. 請求項1〜9のいずれか一項に記載のネットワークを使用して、ネットワーク内でイベントをルーティングする方法であって、前記方法は、
    −相互接続された複数のコア回路(10)を備えるネットワークを準備するステップであって、各コア回路(10)は、ローカル第1ルータ(R1)と、複数の計算ノード(90)および複数のメモリ回路(80)を備えた電子アレイ(8、9)とを備える、ステップと、
    −前記計算ノード(90)により受信された到着イベントが所定の基準を満足すると、データパケットを備えるイベントを前記計算ノード(90)により生成するステップと、
    −メモリ(2、3)に格納されているプログラムされたルート割り当てに応じて、前記データパケットに、宛先アドレス、および追加の仮想ソースコアIDを付加するステップと、
    −前記生成されたイベントを、前記コア回路(10)が備える前記ローカル第1ルータ(R1)によって、前記イベントが生成されたコア回路(10)の中で分配するステップと、
    −前記個々の第1ルータ(R1)によって、個々の前記コア回路(10)内の前記メモリ回路(80)すべてに到着イベントを並行してブロードキャストするステップと、
    −前記個々のデータパケットに付加された前記宛先アドレスに従って、同じユニット(6)の中のコア回路(10)により生成されまたは同じユニット(6)の中のコア回路をターゲットとするイベントを、中間レベルの個々の第2ルータ(R2)によって分配するステップと、
    −前記個々のデータパケットに付加された前記宛先アドレスに従って、前記より上位レベルの個々の第3ルータ(R3)によって異なるユニット(6)にイベントを分配するステップと、
    を含む方法。
  11. 相互接続された複数のコア回路(10)を備えるネットワークにおいてイベントをルーティングするためのルーティングファブリックであって、各コア回路は、複数の計算ノード(90)および複数のメモリ回路(80)を備えた電子アレイ(8、9)を備え、前記ルーティングファブリックは、
    −コア内回路接続性を提供する複数のローカル第1ルータ(R1)であって、ローカル第1ルータ(R1)は、各コア回路(10)に割り当てられるように構成され、個々の前記第1ルータ(R1)は、前記個々の第1ルータ(R1)が割り当てられているのと同じ前記コア回路(10)にソースおよび宛先が位置するイベントのデータパケットを分配するように構成されている、前記ローカル第1ルータ(R1)と、
    −複数のブロードキャストドライバ(7)であって、各ブロードキャストドライバ(7)は、前記コア回路(10)の1つに割り当てられて到着イベントをその関連するコア回路(10)内の前記メモリ回路(80)すべてに並行して伝達するように構成されている、前記複数のブロードキャストドライバ(7)と、
    −コア間接続性を提供するように構成された複数の第2ルータ(R2)であって、前記第2ルータ(R2)は、個々の前記データパケットが備えるルートペイロードに従ってイベントを分配するように構成されている、前記複数の第2ルータ(R2)と、
    −チップ間接続性を提供するように構成された複数の第3ルータ(R3)であって、前記第3ルータ(R3)は、前記個々のデータパケットが備える前記ルートペイロードに従ってイベントを分配するように構成されている、前記複数の第3ルータ(R3)と、
    を備える、ルーティングファブリック。
  12. 複数のタイル/チップ(6)を含むVLSI回路であって、
    前記タイル/チップ(6)は、複数のコア(10)を含み、
    前記コア(10)は、生物学的ニューロンをシミュレートする回路(90)およびシナプスをシミュレートする回路(80)を含み、
    前記コア(10)は、複数のニューロン回路(90)を含み、
    前記ニューロン回路(90)は、対応するシナプス回路(80)によって受信および受け入れられた複数のイベントを統合し、前記統合された信号がトリガーしきい値を超えるとスパイクイベントを生成し、
    前記コア(10)はまた、前記コア内に回路接続を提供するためのコアルータR1を含み、
    前記タイル/チップ(6)はさらに、前記コア間の接続を提供するためのチップルータR2と、前記タイル/チップ(6)間の接続を提供するためのメッシュルータR3とを含み、
    前記コアルータR1は、イベントを前記チップルータR2に送信または/および受信し、前記チップルータR2は、イベントを前記メッシュルータR3に送信または/および受信し、
    1つのタイル/チップ(6)上に、前記コアルータR1、前記チップルータR2、および前記メッシュルータR3が、ツリー構造を形成し、
    前記メッシュルータR3は2次元メッシュに配列されている、VLSI回路。
  13. 前記コア(10)はまた、前記コアルータR1がイベントを受信した後に、ブロードキャストドライバ(7)を介してシナプスアレイ(8)にブロードキャストするように構成された前記ブロードキャストドライバ(7)を含み、前記シナプスアレイ(8)は、複数の前記シナプス回路(80)を有する、請求項12に記載のVLSI回路。
  14. 各タイル/チップ(6)は1つのメッシュルータR3を有しており、前記メッシュルータR3は、前記ツリー構造を2次元メッシュ状に相互接続する、請求項12に記載のVLSI回路。
  15. 前記チップルータR2は、3つのレベル/レイヤ分岐を有する、または1つのレベル/レイヤ分岐のみを有する、請求項12に記載のVLSI回路。
  16. 前記ニューロン回路(90)がスパイクイベントを生成すると、前記スパイクイベントのアドレスが前記コアルータR1に送信され、
    前記コア(10)は、前記スパイクイベントの宛先を格納するように構成され、前記コアルータR1によってアクセス可能である宛先LUT(3)をさらに含む、請求項12に記載のVLSI回路。

JP2017555655A 2015-04-27 2016-04-27 スケーラブルなイベント駆動型計算システムのための異種メモリ構造をもつネットワークおよび階層型ルーティングファブリック Active JP6959141B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15165272.4 2015-04-27
EP15165272.4A EP3089080A1 (en) 2015-04-27 2015-04-27 Networks and hierarchical routing fabrics with heterogeneous memory structures for scalable event-driven computing systems
PCT/EP2016/059446 WO2016174113A1 (en) 2015-04-27 2016-04-27 Networks and hierarchical routing fabrics with heterogeneous memory structures for scalable event-driven computing systems

Publications (2)

Publication Number Publication Date
JP2018514872A JP2018514872A (ja) 2018-06-07
JP6959141B2 true JP6959141B2 (ja) 2021-11-02

Family

ID=53008354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017555655A Active JP6959141B2 (ja) 2015-04-27 2016-04-27 スケーラブルなイベント駆動型計算システムのための異種メモリ構造をもつネットワークおよび階層型ルーティングファブリック

Country Status (7)

Country Link
US (1) US11240177B2 (ja)
EP (2) EP3089080A1 (ja)
JP (1) JP6959141B2 (ja)
KR (1) KR20170140297A (ja)
CN (1) CN107533666B (ja)
ES (1) ES2822919T3 (ja)
WO (1) WO2016174113A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824937B2 (en) * 2016-12-20 2020-11-03 Intel Corporation Scalable neuromorphic core with shared synaptic memory and variable precision synaptic memory
US10867238B2 (en) * 2016-12-20 2020-12-15 Intel Corporation Population-based connectivity architecture for spiking neural networks
US10248906B2 (en) 2016-12-28 2019-04-02 Intel Corporation Neuromorphic circuits for storing and generating connectivity information
US10387298B2 (en) * 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
JP6794336B2 (ja) * 2017-11-17 2020-12-02 株式会社東芝 ニューラルネットワーク装置
US10621129B2 (en) * 2018-03-27 2020-04-14 Xilinx, Inc. Peripheral interconnect for configurable slave endpoint circuits
US10621489B2 (en) 2018-03-30 2020-04-14 International Business Machines Corporation Massively parallel neural inference computing elements
EP3798850A4 (en) 2018-06-27 2022-03-23 Shanghai Cambricon Information Technology Co., Ltd ON-CHIP CODE BREAKPOINT DEBUG METHOD, ON-CHIP PROCESSOR AND CHIP BREAKPOINT DEBUG SYSTEM
US10834024B2 (en) * 2018-09-28 2020-11-10 International Business Machines Corporation Selective multicast delivery on a bus-based interconnect
WO2020078470A1 (zh) 2018-10-18 2020-04-23 上海寒武纪信息科技有限公司 片上网络数据处理方法及装置
JP6946364B2 (ja) * 2019-03-18 2021-10-06 株式会社東芝 ニューラルネットワーク装置
CN110163016B (zh) * 2019-04-29 2021-08-03 清华大学 混合计算系统和混合计算方法
EP3757813A3 (en) 2019-06-18 2021-01-20 Tenstorrent Inc. Processor cores using packet identifiers for routing and computation
CN110322010B (zh) * 2019-07-02 2021-06-25 深圳忆海原识科技有限公司 用于类脑智能与认知计算的脉冲神经网络运算系统及方法
US11076210B1 (en) 2020-01-03 2021-07-27 Microsoft Technology Licensing, Llc Distributed processing architecture
US11580388B2 (en) 2020-01-03 2023-02-14 Microsoft Technology Licensing, Llc Distributed processing architecture
US20220114135A1 (en) * 2020-09-21 2022-04-14 Mostafizur Rahman Computer architecture for artificial intelligence and reconfigurable hardware
CN112163673B (zh) * 2020-09-28 2023-04-07 复旦大学 一种用于大规模类脑计算网络的种群路由方法
CN113965294A (zh) * 2021-10-22 2022-01-21 北京灵汐科技有限公司 数据包编码方法、数据包解码方法及装置
WO2023076830A1 (en) * 2021-10-26 2023-05-04 Rambus Inc. Stacked memory device with interface die
CN114282661A (zh) * 2021-12-23 2022-04-05 安谋科技(中国)有限公司 神经网络模型的运行方法、可读介质和电子设备
CN114116596A (zh) * 2022-01-26 2022-03-01 之江实验室 面向片上神经网络的基于动态中继的无限路由方法和架构

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233586A (ja) * 1992-02-25 1993-09-10 Mitsubishi Electric Corp デジタル神経回路およびその駆動方法
US5751913A (en) * 1996-07-29 1998-05-12 Industrial Technology Research Institute Reconfigurable neural network and difference-square neuron
GB0207372D0 (en) * 2002-03-28 2002-05-08 Cogniscience Ltd Digital memory
US7502769B2 (en) * 2005-01-31 2009-03-10 Knowmtech, Llc Fractal memory and computational methods and systems based on nanotechnology
US20070174429A1 (en) * 2006-01-24 2007-07-26 Citrix Systems, Inc. Methods and servers for establishing a connection between a client system and a virtual machine hosting a requested computing environment
US7555469B2 (en) * 2006-11-16 2009-06-30 L-3 Communications Integrated Systems L.P. Reconfigurable neural network systems and methods utilizing FPGAs having packet routers
US8515885B2 (en) 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8977583B2 (en) * 2012-03-29 2015-03-10 International Business Machines Corporation Synaptic, dendritic, somatic, and axonal plasticity in a network of neural cores using a plastic multi-stage crossbar switching
JP5738811B2 (ja) 2012-08-29 2015-06-24 京セラドキュメントソリューションズ株式会社 マルチプロセッシングシステムにおけるオブジェクト間通信装置

Also Published As

Publication number Publication date
CN107533666A (zh) 2018-01-02
CN107533666B (zh) 2022-01-28
KR20170140297A (ko) 2017-12-20
EP3089080A1 (en) 2016-11-02
US20180139153A1 (en) 2018-05-17
EP3289526A1 (en) 2018-03-07
EP3289526B1 (en) 2020-07-08
WO2016174113A1 (en) 2016-11-03
ES2822919T3 (es) 2021-05-05
US11240177B2 (en) 2022-02-01
JP2018514872A (ja) 2018-06-07

Similar Documents

Publication Publication Date Title
JP6959141B2 (ja) スケーラブルなイベント駆動型計算システムのための異種メモリ構造をもつネットワークおよび階層型ルーティングファブリック
US11410017B2 (en) Synaptic, dendritic, somatic, and axonal plasticity in a network of neural cores using a plastic multi-stage crossbar switching
US10785745B2 (en) Scaling multi-core neurosynaptic networks across chip boundaries
US20200034687A1 (en) Multi-compartment neurons with neural cores
US8843425B2 (en) Hierarchical routing for two-way information flow and structural plasticity in neural networks
US10650301B2 (en) Utilizing a distributed and parallel set of neurosynaptic core circuits for neuronal computation and non-neuronal computation
US9852006B2 (en) Consolidating multiple neurosynaptic core circuits into one reconfigurable memory block maintaining neuronal information for the core circuits
US11184221B2 (en) Yield tolerance in a neurosynaptic system
JP6912491B2 (ja) 省エネルギな多重ニューラル・コア回路、方法及びニューロシナプティック・システム
US11049001B2 (en) Event-based neural network with hierarchical addressing for routing event packets between core circuits of the neural network
TW202125337A (zh) 深度神經網路硬體加速器與其操作方法
JP2021013048A (ja) 3次元ネットワークオンチップによるスパイキングニューラルネットワーク
US20220156564A1 (en) Routing spike messages in spiking neural networks
Oruç One-sided binary tree-crossbar switching for on-chip networks
Ding et al. An ultra-low latency multicast router for large-scale multi-chip neuromorphic processing
Wang Linked crossbar architecture for multicomputer interconnection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200619

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150