JP6130056B2 - スパイキングネットワークの効率的なハードウェア実装 - Google Patents
スパイキングネットワークの効率的なハードウェア実装 Download PDFInfo
- Publication number
- JP6130056B2 JP6130056B2 JP2016515029A JP2016515029A JP6130056B2 JP 6130056 B2 JP6130056 B2 JP 6130056B2 JP 2016515029 A JP2016515029 A JP 2016515029A JP 2016515029 A JP2016515029 A JP 2016515029A JP 6130056 B2 JP6130056 B2 JP 6130056B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- memory
- artificial
- processing unit
- synaptic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Stored Programmes (AREA)
Description
[0001]本出願は、2013年5月21日に出願された「Spike Time Windowing for Implementing Spike−Timing Dependent Plasticity(STDP)」と題する米国仮特許出願第61/825,657号、2013年8月6日に出願された「Spike Time Windowing for Implementing Spike−Timing Dependent Plasticity(STDP)」と題する米国仮特許出願第61/862,714号、2013年8月6日に出願された「Computed Synapses for Neuromorphic Systems」と題する米国仮特許出願第61/862,741号、2013年8月6日に出願された「Implementing Delays between Neurons in an Artificial Nervous System」と題する米国仮特許出願第61/862,734号、2014年1月28日に出願された「Efficient Hardware Implementation of Spiking Networks」と題する米国仮特許出願第61/932,364号の利益を主張し、これらの各々は、参照により全体が本明細書に組み込まれる。
[0024]図1は、本開示のいくつかの態様による、複数のレベルのニューロンをもつ例示的なニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104(すなわち、フィードフォワード結合)を介してニューロンの別のレベル106に結合されたニューロンのあるレベル102を備え得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、典型的なニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。ニューロンのいくつかは、ラテラル結合を介して同じ層の他のニューロンに結合し得ることに留意されたい。さらに、ニューロンのいくつかは、フィードバック結合を介して前の層のニューロンに戻る形で結合し得る。
[0036]ニューラルネットワークのハードウェアおよびソフトウェアモデルでは、シナプス関係機能の処理がシナプスタイプに基づき得る。シナプスタイプは、非塑性シナプス(non-plastic synapse)(重みおよび遅延の変化がない)と、可塑性シナプス(重みが変化し得る)と、構造遅延可塑性シナプス(重みおよび遅延が変化し得る)と、完全可塑性シナプス(重み、遅延および結合性が変化し得る)と、それの変形(たとえば、遅延は変化し得るが、重みまたは結合性の変化はない)とを備え得る。これの利点は、処理が再分割(subdivide)され得ることである。たとえば、非塑性シナプスは、可塑性機能を実行すること(またはそのような機能が完了するのを待つこと)を必要とし得ない。同様に、遅延および重み可塑性は、一緒にまたは別々に、順にまたは並列に動作し得る動作に再分割され得る。異なるタイプのシナプスは、適用される異なる可塑性タイプの各々の異なるルックアップテーブルまたは式およびパラメータを有し得る。したがって、本方法は、シナプスのタイプの関係するテーブルにアクセスすることになる。
[0038]神経可塑性(または単に「可塑性」)は、脳内のニューロンおよびニューラルネットワークがそれらのシナプス結合と挙動とを新しい情報、感覚上の刺激、発展、損傷または機能不全に応答して変える能力である。可塑性は、生物学における学習および記憶にとって、また計算論的神経科学およびニューラルネットワークにとって重要である。(たとえば、Hebb則理論による)シナプス可塑性、スパイクタイミング依存可塑性(STDP)、非シナプス可塑性、活性依存可塑性、構造可塑性および恒常的可塑性など、様々な形の可塑性が研究されている。
[0045]有用なスパイキングニューロンモデルを設計するための一般的原理がいくつかある。良いニューロンモデルは、2つの計算レジーム、すなわち、一致検出および関数計算の点で豊かな潜在的挙動を有し得る。その上、良いニューロンモデルは、時間コーディングを可能にするための2つの要素を有する必要がある。すなわち、入力の到着時間は出力時間に影響を与え、一致検出は狭い時間ウィンドウを有し得る。最後に、計算上魅力的であるために、良いニューロンモデルは、連続時間において閉形式解を有し得、ニアアトラクター(near attractor)と鞍点とを含む安定した挙動を有し得る。言い換えれば、有用なニューロンモデルは、実用的なニューロンモデルであり、豊かで、現実的で、生物学的に一貫した挙動をモデル化するために使用され得、神経回路のエンジニアリングとリバースエンジニアリングの両方を行うために使用され得るニューロンモデルである。
[0049]Hunzinger Coldニューロンモデルは、豊かな様々な神経挙動を再生し得るミニマル・デュアルレジーム・スパイキング線形動的モデル(minimal dual-regime spiking linear dynamical model)である。モデルの1次元または2次元の線形ダイナミクスは2つのレジームを有することができ、ここで、時間定数(および結合)はレジームに依存し得る。閾値下レジームでは、時間定数は、慣例により負であり、一般に生物学的に一貫した線形方式で静止状態に細胞を戻す役目を果たすリーキーチャネルダイナミクスを表す。閾値上(supra-threshold)レジームにおける時間定数は、慣例により正であり、一般にスパイク生成のレイテンシを生じさせる一方でスパイク状態に細胞を駆り立てる反リーキーチャネルダイナミクスを反映する。
[0064]図1の人工ニューロン102、106から構成されるニューラルネットワークモデルなどの有用なニューラルネットワークモデルは、一致コーディング、時間コーディングまたはレートコーディングなど、様々な好適なニューラルコーディング方式のうちのいずれかを介して情報を符号化することができる。一致コーディングでは、情報は、ニューロン集団の活動電位(スパイキング活動)の一致(または時間的近接度)で符号化される。時間コーディングでは、ニューロンは、絶対時間であるか相対時間であるかを問わず、活動電位(すなわち、スパイク)の正確なタイミングを通して情報を符号化する。したがって、情報は、ニューロン集団の間でスパイクの相対的タイミングで符号化され得る。対照的に、レートコーディングは、発火レートまたは集団発火レートでニューラル情報をコーディングすることを伴う。
[0066]良いニューロンモデルでは、入力の到着の時間は、出力の時間に影響を与えるはずである。シナプス入力は、ディラックのデルタ関数であるか、成形シナプス後電位(PSP:shaped post-synaptic potential)であるかを問わず、興奮性(EPSP)であるか、抑制性(IPSP)であるかを問わず、到着時間(たとえば、デルタ関数またはステップもしくは他の入力関数の開始もしくはピークの時間)を有し、これは入力時間と呼ばれ得る。ニューロン出力(すなわち、スパイク)は、(細胞体、軸索に沿ったポイント、または軸索の端部など、どこで測定される場合でも)発生の時間を有し、これは出力時間と呼ばれ得る。出力時間は、スパイクのピークの時間、スパイクの開始の時間、または出力波形に関係する任意の他の時間であり得る。支配的原理は、出力時間が入力時間に依存することである。
[0068]ニューロンモデルへの入力はディラックのデルタ関数、たとえば電流としての入力または伝導性ベースの入力を含み得る。後者の場合、ニューロン状態への寄与は連続的または状況依存的であり得る。
[0069]本開示のいくつかの態様は、スパイキングニューラルネットワークの効率的なハードウェア実装形態を提供する。スパイクベースの計算は、ハードウェアで実装されるときに特別な考慮を必要とし得る。とても細かい粒度の並列は、しばしばスパイクベースの計算を伴う人工神経システム固有のものである。たとえば、ニューロンの「ファンアウト」が、スパイキングニューラルネットワーク(人工神経システム、たとえば、図1によるシステム100)における多数の人工ニューロンに関して効率的に計算される必要があり得る。この問題に対する解決策は、ダイナミックランダムアクセスメモリ(DRAM)を利用することに関係し得、それは、最高密度を有する現在の技術を表し、最高のメモリスループットのために連続アクセスを必要とする。さらに、スパイクベースの計算は、人工神経システムのシナプス前人工ニューロンおよびシナプス後人工ニューロンに対する可塑性照会を必要とし得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
複数の人工ニューロンを伴う人工神経システムを動作させるための方法であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させること、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするために、前記スーパーニューロン処理ユニットをメモリとインターフェースすること、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える方法。
[C2]
複数のスーパーニューロン処理ユニットを同時に動作させることは、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化すること
を備える、C1に記載の方法。
[C3]
前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新すること
をさらに備える、C1に記載の方法。
[C4]
前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶すること
をさらに備える、C1に記載の方法。
[C5]
複数のスーパーニューロン処理ユニットを同時に動作させることは、
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施すること
を備える、C1に記載の方法。
[C6]
各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、C1に記載の方法。
[C7]
前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、C1に記載の方法。
[C8]
メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、C1に記載の方法。
[C9]
動的確率的方法での前記人工神経システムのスパイクの除去
をさらに備える、C1に記載の方法。
[C10]
前記人工神経システムのシナプスに関連するデータを前記メモリに記憶することをさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、C1に記載の方法。
[C11]
前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合すること
をさらに備える、C1に記載の方法。
[C12]
複数の人工ニューロンを伴う人工神経システムを動作させるための装置であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させるように構成された第1の回路、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするために、前記スーパーニューロン処理ユニットをメモリとインターフェースするように構成された第2の回路、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える装置。
[C13]
前記第1の回路はまた、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化する
ように構成される、C12に記載の装置。
[C14]
前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新するように構成された第3の回路をさらに備える、C12に記載の装置。
[C15]
前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶するように構成された第3の回路
をさらに備える、C12に記載の装置。
[C16]
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施するように構成された第3の回路
をさらに備える、C12に記載の装置。
[C17]
各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、C12に記載の装置。
[C18]
前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、C12に記載の装置。
[C19]
メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、C12に記載の装置。
[C20]
動的確率的方法で前記人工神経システムのスパイクを除去するように構成された第3の回路
をさらに備える、C12に記載の装置。
[C21]
前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するように構成された第3の回路をさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、C12に記載の装置。
[C22]
前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合するように構成された第3の回路
をさらに備える、C12に記載の装置。
[C23]
複数の人工ニューロンを伴う人工神経システムを動作させるための装置であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させるための手段、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするために、前記スーパーニューロン処理ユニットをメモリとインターフェースするための手段、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える装置。
[C24]
複数のスーパーニューロン処理ユニットを同時に動作させるための前記手段は、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化するための手段
をさらに備える、C23に記載の装置。
[C25]
前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新するための手段
をさらに備える、C23に記載の装置。
[C26]
前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶するための手段
をさらに備える、C23に記載の装置。
[C27]
複数のスーパーニューロン処理ユニットを同時に動作させるための前記手段は、
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施するための手段
をさらに備える、C23に記載の装置。
[C28]
各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、C23に記載の装置。
[C29]
前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、C23に記載の装置。
[C30]
メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、C23に記載の装置。
[C31]
動的確率的方法での前記人工神経システムのスパイクの除去のための手段をさらに備える、C23に記載の装置。
[C32]
前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するための手段をさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、C23に記載の装置。
[C33]
前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合するための手段をさらに備える、C23に記載の装置。
[C34]
非一時的コンピュータ可読媒体を備える、複数の人工ニューロンを伴う人工神経システムを動作させるためのコンピュータプログラム製品であって、前記非一時的コンピュータ可読媒体が、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させること、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするために、前記スーパーニューロン処理ユニットをメモリとインターフェースすること、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を行うように実行可能な命令を有する、コンピュータプログラム製品。
[C35]
前記コンピュータ可読媒体は、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化する
ためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
[C36]
前記コンピュータ可読媒体は、
前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新する
ためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
[C37]
前記コンピュータ可読媒体は、
前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶する
ためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
[C38]
前記コンピュータ可読媒体は、
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施する
ためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
[C39]
各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、C34に記載のコンピュータプログラム製品。
[C40]
前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、C34に記載のコンピュータプログラム製品。
[C41]
メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、C34に記載のコンピュータプログラム製品。
[C42]
前記コンピュータ可読媒体は、
動的確率的方法での前記人工神経システムのスパイクの除去
のためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
[C43]
前記コンピュータ可読媒体は、
前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するためのコードをさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、C34に記載のコンピュータプログラム製品。
[C44]
前記コンピュータ可読媒体は、
前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合する
ためのコードをさらに備える、C34に記載のコンピュータプログラム製品。
Claims (44)
- 複数の人工ニューロンを伴う人工神経システムを動作させるための方法であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させること、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記スーパーニューロン処理ユニットをメモリとインターフェースすることと、
前記メモリに記憶された前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスすること、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える方法。 - 複数のスーパーニューロン処理ユニットを同時に動作させることは、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化することを備える、請求項1に記載の方法。 - 前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新することをさらに備える、請求項1に記載の方法。
- 前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶することをさらに備える、請求項1に記載の方法。
- 複数のスーパーニューロン処理ユニットを同時に動作させることは、
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施することを備える、請求項1に記載の方法。 - 各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、請求項1に記載の方法。
- 前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、請求項1に記載の方法。 - メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、請求項1に記載の方法。
- 動的確率的方法での前記人工神経システムのスパイクの除去
をさらに備える、請求項1に記載の方法。 - 前記人工神経システムのシナプスに関連するデータを前記メモリに記憶することをさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、請求項1に記載の方法。
- 前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合することをさらに備える、請求項1に記載の方法。
- 複数の人工ニューロンを伴う人工神経システムを動作させるための装置であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させるように構成された第1の回路、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記スーパーニューロン処理ユニットをメモリとインターフェースするように構成された第2の回路と、
前記メモリに記憶された前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするための第3の回路、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える装置。 - 前記第1の回路はまた、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化するように構成される、請求項12に記載の装置。 - 前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新するように構成された第4の回路をさらに備える、請求項12に記載の装置。
- 前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶するように構成された第4の回路をさらに備える、請求項12に記載の装置。
- 前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施するように構成された第4の回路をさらに備える、請求項12に記載の装置。
- 各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、請求項12に記載の装置。
- 前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、請求項12に記載の装置。 - メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、請求項12に記載の装置。
- 動的確率的方法で前記人工神経システムのスパイクを除去するように構成された第4の回路をさらに備える、請求項12に記載の装置。
- 前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するように構成された第4の回路をさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、請求項12に記載の装置。
- 前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合するように構成された第4の回路をさらに備える、請求項12に記載の装置。
- 複数の人工ニューロンを伴う人工神経システムを動作させるための装置であって、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させるための手段、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記スーパーニューロン処理ユニットをメモリとインターフェースするための手段と、
前記メモリに記憶された前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスするための手段、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を備える装置。 - 複数のスーパーニューロン処理ユニットを同時に動作させるための前記手段は、
入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化するための手段をさらに備える、請求項23に記載の装置。 - 前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新するための手段をさらに備える、請求項23に記載の装置。
- 前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶するための手段をさらに備える、請求項23に記載の装置。
- 複数のスーパーニューロン処理ユニットを同時に動作させるための前記手段は、
前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施するための手段をさらに備える、請求項23に記載の装置。 - 各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、請求項23に記載の装置。
- 前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、請求項23に記載の装置。 - メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、請求項23に記載の装置。
- 動的確率的方法での前記人工神経システムのスパイクの除去のための手段をさらに備える、請求項23に記載の装置。
- 前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するための手段をさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、請求項23に記載の装置。
- 前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合するための手段をさらに備える、請求項23に記載の装置。
- 複数の人工ニューロンを伴う人工神経システムを動作させるための非一時的コンピュータ可読媒体であって、前記非一時的コンピュータ可読媒体が、
前記人工ニューロンの状態を更新するために前記人工神経システムにおける複数のスーパーニューロン処理ユニットを同時に動作させること、ここにおいて、前記人工ニューロンのサブセットが各スーパーニューロン処理ユニットに割り当てられる、と、
前記スーパーニューロン処理ユニットをメモリとインターフェースすることと、
前記メモリに記憶された前記人工神経システムのシナプス重みおよび可塑性のパラメータにアクセスすること、ここにおいて、前記メモリの構成が連続メモリアクセスを可能にする、と、
を行うように実行可能な命令を有する、非一時的コンピュータ可読媒体。 - 入力電流アキュムレータおよび前記人工ニューロンのモデルのために前記スーパーニューロン処理ユニットを時間多重化するためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 前記スーパーニューロン処理ユニットのうちの1つに割り当てられた任意の人工ニューロンの状態を、定められたステップごとに更新するためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 前記人工ニューロンのいずれかに関連するシナプス後ファンアウトへのポインタを前記メモリに記憶するためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 前記スーパーニューロン処理ユニットの各々によって、ニューラル入力アキュムレータを実施するためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 各スーパーニューロン処理ユニットにおける計算ユニットの数は、そのスーパーニューロン処理ユニットに割り当てられた前記人工ニューロンの数よりも少ない、請求項34に記載の非一時的コンピュータ可読媒体。
- 前記メモリは、ダイナミックランダムアクセスメモリ(DRAM)を備え、
前記DRAMの前記連続メモリアクセスは、複数のシナプスに関係するデータへの同時アクセスを備える、請求項34に記載の非一時的コンピュータ可読媒体。 - メモリの前記構成は、可塑性を実現するためのシナプス前ニューロンおよびシナプス後ニューロンのルックアップテーブルを備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 動的確率的方法での前記人工神経システムのスパイクの除去
のためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。 - 前記人工神経システムのシナプスに関連するデータを前記メモリに記憶するためのコードをさらに備え、ここにおいて、前記データが宛先ルーティング情報を備える、請求項34に記載の非一時的コンピュータ可読媒体。
- 前記スーパーニューロン処理ユニットと前記メモリの構成とを利用することによって、前記人工神経システムに外部および内部シナプス活性化を統合するためのコードをさらに備える、請求項34に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (13)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201361825657P | 2013-05-21 | 2013-05-21 | |
| US61/825,657 | 2013-05-21 | ||
| US201361862714P | 2013-08-06 | 2013-08-06 | |
| US201361862741P | 2013-08-06 | 2013-08-06 | |
| US201361862734P | 2013-08-06 | 2013-08-06 | |
| US61/862,714 | 2013-08-06 | ||
| US61/862,734 | 2013-08-06 | ||
| US61/862,741 | 2013-08-06 | ||
| US201461932364P | 2014-01-28 | 2014-01-28 | |
| US61/932,364 | 2014-01-28 | ||
| US14/267,005 US9542643B2 (en) | 2013-05-21 | 2014-05-01 | Efficient hardware implementation of spiking networks |
| US14/267,005 | 2014-05-01 | ||
| PCT/US2014/038841 WO2014189970A2 (en) | 2013-05-21 | 2014-05-20 | Efficient hardware implementation of spiking networks |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2016522495A JP2016522495A (ja) | 2016-07-28 |
| JP2016522495A5 JP2016522495A5 (ja) | 2017-03-09 |
| JP6130056B2 true JP6130056B2 (ja) | 2017-05-17 |
Family
ID=51022429
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016515029A Active JP6130056B2 (ja) | 2013-05-21 | 2014-05-20 | スパイキングネットワークの効率的なハードウェア実装 |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US9542643B2 (ja) |
| EP (1) | EP3000076A2 (ja) |
| JP (1) | JP6130056B2 (ja) |
| KR (1) | KR101793011B1 (ja) |
| CN (1) | CN105229675B (ja) |
| WO (1) | WO2014189970A2 (ja) |
Families Citing this family (65)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8712940B2 (en) * | 2011-05-31 | 2014-04-29 | International Business Machines Corporation | Structural plasticity in spiking neural networks with symmetric dual of an electronic neuron |
| US9053429B2 (en) | 2012-12-21 | 2015-06-09 | International Business Machines Corporation | Mapping neural dynamics of a neural model on to a coarsely grained look-up table |
| US9087301B2 (en) * | 2012-12-21 | 2015-07-21 | International Business Machines Corporation | Hardware architecture for simulating a neural network of neurons |
| US9330355B2 (en) | 2013-08-06 | 2016-05-03 | Qualcomm Incorporated | Computed synapses for neuromorphic systems |
| EP3035249B1 (en) | 2014-12-19 | 2019-11-27 | Intel Corporation | Method and apparatus for distributed and cooperative computation in artificial neural networks |
| US10552731B2 (en) | 2015-12-28 | 2020-02-04 | International Business Machines Corporation | Digital STDP synapse and LIF neuron-based neuromorphic system |
| US10891543B2 (en) | 2015-12-28 | 2021-01-12 | Samsung Electronics Co., Ltd. | LUT based synapse weight update scheme in STDP neuromorphic systems |
| US10748058B2 (en) | 2015-12-28 | 2020-08-18 | International Business Machines Corporation | LUT based neuron membrane potential update scheme in STDP neuromorphic systems |
| KR102505695B1 (ko) | 2016-03-18 | 2023-03-02 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 반도체 장치 및 이를 사용한 시스템 |
| US11003984B2 (en) | 2016-05-31 | 2021-05-11 | Samsung Electronics Co., Ltd. | Timing sequence for digital STDP synapse and LIF neuron-based neuromorphic system |
| CN107688853B (zh) * | 2016-08-05 | 2020-01-10 | 中科寒武纪科技股份有限公司 | 一种用于执行神经网络运算的装置及方法 |
| US11501131B2 (en) * | 2016-09-09 | 2022-11-15 | SK Hynix Inc. | Neural network hardware accelerator architectures and operating method thereof |
| US10586147B2 (en) * | 2016-09-22 | 2020-03-10 | Intel Corporation | Neuromorphic computing device, memory device, system, and method to maintain a spike history for neurons in a neuromorphic computing environment |
| US11281963B2 (en) | 2016-09-26 | 2022-03-22 | Intel Corporation | Programmable neuron core with on-chip learning and stochastic time step control |
| US10489702B2 (en) * | 2016-10-14 | 2019-11-26 | Intel Corporation | Hybrid compression scheme for efficient storage of synaptic weights in hardware neuromorphic cores |
| KR101997975B1 (ko) * | 2016-12-01 | 2019-07-08 | 한국과학기술원 | 신경망 시스템을 이용한 정보의 장기, 단기, 및 하이브리드 기억을 위한 방법 |
| US20180174027A1 (en) * | 2016-12-20 | 2018-06-21 | Michael I. Davies | Multi-compartment dendrites in neuromorphic computing |
| US10248906B2 (en) * | 2016-12-28 | 2019-04-02 | Intel Corporation | Neuromorphic circuits for storing and generating connectivity information |
| US10140574B2 (en) * | 2016-12-31 | 2018-11-27 | Via Alliance Semiconductor Co., Ltd | Neural network unit with segmentable array width rotator and re-shapeable weight memory to match segment width to provide common weights to multiple rotator segments |
| KR101918102B1 (ko) | 2017-02-14 | 2019-02-08 | 한국과학기술연구원 | 플로팅 게이트 적분기를 이용한 고집적 저전력 소모 인공뉴런 회로 및 이를 포함하는 뉴로모르픽 시스템, 이의 제어 방법 |
| US10922608B2 (en) * | 2017-03-08 | 2021-02-16 | Arm Ltd | Spiking neural network |
| CN106934457B (zh) * | 2017-03-08 | 2019-12-06 | 杭州领芯电子有限公司 | 一种可灵活时分复用的脉冲神经元实现架构 |
| FR3064384B1 (fr) * | 2017-03-23 | 2019-05-03 | Stmicroelectronics Sa | Bloc refractaire pour dispositif integre de neurone artificiel |
| US10679119B2 (en) * | 2017-03-24 | 2020-06-09 | Intel Corporation | Handling signal saturation in spiking neural networks |
| US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
| US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
| US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
| US12430543B2 (en) | 2017-04-04 | 2025-09-30 | Hailo Technologies Ltd. | Structured sparsity guided training in an artificial neural network |
| US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
| US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
| US10909449B2 (en) * | 2017-04-14 | 2021-02-02 | Samsung Electronics Co., Ltd. | Monolithic multi-bit weight cell for neuromorphic computing |
| US11308387B2 (en) | 2017-05-09 | 2022-04-19 | Samsung Electronics Co., Ltd. | STDP with synaptic fatigue for learning of spike-time-coded patterns in the presence of parallel rate-coding |
| US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
| US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
| US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
| US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
| US11157287B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system with variable latency memory access |
| GB2568776B (en) * | 2017-08-11 | 2020-10-28 | Google Llc | Neural network accelerator with parameters resident on chip |
| US10452540B2 (en) * | 2017-10-20 | 2019-10-22 | International Business Machines Corporation | Memory-mapped interface for message passing computing systems |
| CN107742153B (zh) * | 2017-10-20 | 2020-02-21 | 华中科技大学 | 一种基于忆阻器的具有稳态可塑性的神经元电路 |
| US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
| US11366998B2 (en) | 2018-03-27 | 2022-06-21 | Intel Corporation | Neuromorphic accelerator multitasking |
| CA3069779C (en) * | 2018-05-08 | 2021-06-29 | The Governing Council Of The University Of Toronto | Neural network processing element |
| EP3605401A1 (en) * | 2018-07-31 | 2020-02-05 | GrAl Matter Labs S.A.S. | Data processing module, data processing system and data processing method |
| US11200484B2 (en) | 2018-09-06 | 2021-12-14 | International Business Machines Corporation | Probability propagation over factor graphs |
| CN109886416A (zh) * | 2019-02-01 | 2019-06-14 | 京微齐力(北京)科技有限公司 | 集成人工智能模块的系统芯片及机器学习方法 |
| CN113728383B (zh) | 2019-02-22 | 2023-05-30 | 美光科技公司 | 存储器装置接口及方法 |
| KR102351087B1 (ko) | 2019-06-04 | 2022-01-14 | 주식회사 딥엑스 | 인공신경망의 데이터 로컬리티 기반의 데이터 캐슁을 이용하여 고속의 인공신경망 오퍼레이션을 지원하는 데이터 관리 장치 |
| KR102301041B1 (ko) * | 2019-07-04 | 2021-09-14 | 한국과학기술연구원 | 뉴로모픽 장치 |
| US11934946B2 (en) | 2019-08-01 | 2024-03-19 | International Business Machines Corporation | Learning and recall in spiking neural networks |
| US11054997B2 (en) * | 2019-08-12 | 2021-07-06 | Micron Technology, Inc. | Artificial neural networks in memory |
| KR102832599B1 (ko) | 2019-11-15 | 2025-07-14 | 삼성전자주식회사 | 메모리 기반의 뉴로모픽 장치 |
| EP4081954A4 (en) | 2019-12-27 | 2023-04-05 | Micron Technology, Inc. | NEUROMORPHIC STORAGE DEVICE AND METHOD |
| CN114930452A (zh) | 2019-12-30 | 2022-08-19 | 美光科技公司 | 存储器装置接口和方法 |
| EP4085459A4 (en) | 2019-12-31 | 2024-02-21 | Micron Technology, Inc. | Memory module mutiple port buffer techniques |
| CN111461312B (zh) * | 2020-03-26 | 2022-04-22 | 华中科技大学 | 一种基于忆阻器随机丢弃神经元 |
| KR102860886B1 (ko) | 2020-06-01 | 2025-09-18 | 삼성전자주식회사 | 스케줄러, 스케줄러의 동작 방법 및 이를 포함한 가속기 시스템 |
| KR102204107B1 (ko) * | 2020-07-16 | 2021-01-18 | 세종대학교산학협력단 | 뉴런의 임계값에 STDP(Spiking Timing Dependent Plasticity)를 적용한 스파이킹 뉴럴 네트워크(Spiking Neural Network) |
| US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
| US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
| US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
| US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
| US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
| US12248367B2 (en) | 2020-09-29 | 2025-03-11 | Hailo Technologies Ltd. | Software defined redundant allocation safety mechanism in an artificial neural network processor |
| CN114037050B (zh) * | 2021-10-21 | 2022-08-16 | 大连理工大学 | 一种基于脉冲神经网络内在可塑性的机器人退化环境避障方法 |
Family Cites Families (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3260357B2 (ja) * | 1990-01-24 | 2002-02-25 | 株式会社日立製作所 | 情報処理装置 |
| US7085749B2 (en) | 2001-05-31 | 2006-08-01 | Canon Kabushiki Kaisha | Pulse signal circuit, parallel processing circuit, pattern recognition system, and image input system |
| US7430546B1 (en) | 2003-06-07 | 2008-09-30 | Roland Erwin Suri | Applications of an algorithm that mimics cortical processing |
| WO2006000103A1 (en) * | 2004-06-29 | 2006-01-05 | Universite De Sherbrooke | Spiking neural network and use thereof |
| US7627540B2 (en) | 2005-06-28 | 2009-12-01 | Neurosciences Research Foundation, Inc. | Addressing scheme for neural modeling and brain-based devices using special purpose processor |
| US8103602B2 (en) | 2006-12-29 | 2012-01-24 | Neurosciences Research Foundation, Inc. | Solving the distal reward problem through linkage of STDP and dopamine signaling |
| US7818273B2 (en) | 2007-09-18 | 2010-10-19 | International Business Machines Corporation | System and method for cortical simulation |
| GB0811057D0 (en) * | 2008-06-17 | 2008-07-23 | Univ Ulster | Artificial neural network architecture |
| WO2010025130A1 (en) | 2008-08-28 | 2010-03-04 | Massachusetts Institute Of Technology | Circuits and methods representative of spike timing dependent plasticity of neurons |
| US8630966B2 (en) | 2009-01-27 | 2014-01-14 | Salk Institute For Biological Studies | Temporally dynamic artificial neural networks |
| US8510244B2 (en) | 2009-03-20 | 2013-08-13 | ISC8 Inc. | Apparatus comprising artificial neuronal assembly |
| US8250010B2 (en) * | 2009-05-21 | 2012-08-21 | International Business Machines Corporation | Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements |
| US20100312736A1 (en) | 2009-06-05 | 2010-12-09 | The Regents Of The University Of California | Critical Branching Neural Computation Apparatus and Methods |
| US8527438B2 (en) | 2009-12-22 | 2013-09-03 | International Business Machines Corporation | Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array |
| US9665822B2 (en) | 2010-06-30 | 2017-05-30 | International Business Machines Corporation | Canonical spiking neuron network for spatiotemporal associative memory |
| US9269042B2 (en) | 2010-09-30 | 2016-02-23 | International Business Machines Corporation | Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices |
| US8655813B2 (en) | 2010-12-30 | 2014-02-18 | International Business Machines Corporation | Synaptic weight normalized spiking neuronal networks |
| US9147156B2 (en) | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
| KR101888468B1 (ko) | 2011-06-08 | 2018-08-16 | 삼성전자주식회사 | Stdp 기능 셀을 위한 시냅스, stdp 기능 셀 및 stdp 기능 셀을 이용한 뉴로모픽 회로 |
| US9104973B2 (en) | 2011-09-21 | 2015-08-11 | Qualcomm Technologies Inc. | Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel |
| US9460387B2 (en) * | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
| US9412064B2 (en) | 2011-08-17 | 2016-08-09 | Qualcomm Technologies Inc. | Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update |
| US8725662B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Apparatus and method for partial evaluation of synaptic updates based on system events |
| US8909576B2 (en) | 2011-09-16 | 2014-12-09 | International Business Machines Corporation | Neuromorphic event-driven neural computing architecture in a scalable neural network |
| US9092735B2 (en) * | 2011-09-21 | 2015-07-28 | Qualcomm Incorporated | Method and apparatus for structural delay plasticity in spiking neural networks |
| US9111222B2 (en) * | 2011-11-09 | 2015-08-18 | Qualcomm Incorporated | Method and apparatus for switching the binary state of a location in memory in a probabilistic manner to store synaptic weights of a neural network |
| US8832010B2 (en) | 2012-01-04 | 2014-09-09 | International Business Machines Corporation | Electronic synapses from stochastic binary memory devices |
| US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
| US9177245B2 (en) | 2013-02-08 | 2015-11-03 | Qualcomm Technologies Inc. | Spiking network apparatus and method with bimodal spike-timing dependent plasticity |
| US9436908B2 (en) | 2013-02-22 | 2016-09-06 | Qualcomm Technologies Inc. | Apparatus and methods for rate-modulated plasticity in a neuron network |
| US20140351186A1 (en) | 2013-05-21 | 2014-11-27 | Qualcomm Incorporated | Spike time windowing for implementing spike-timing dependent plasticity (stdp) |
| US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
| US20150046381A1 (en) | 2013-08-06 | 2015-02-12 | Qualcomm Incorporated | Implementing delays between neurons in an artificial nervous system |
| US9330355B2 (en) | 2013-08-06 | 2016-05-03 | Qualcomm Incorporated | Computed synapses for neuromorphic systems |
-
2014
- 2014-05-01 US US14/267,005 patent/US9542643B2/en active Active
- 2014-05-20 KR KR1020157033774A patent/KR101793011B1/ko active Active
- 2014-05-20 EP EP14733423.9A patent/EP3000076A2/en not_active Ceased
- 2014-05-20 JP JP2016515029A patent/JP6130056B2/ja active Active
- 2014-05-20 WO PCT/US2014/038841 patent/WO2014189970A2/en not_active Ceased
- 2014-05-20 CN CN201480029027.1A patent/CN105229675B/zh active Active
Also Published As
| Publication number | Publication date |
|---|---|
| WO2014189970A2 (en) | 2014-11-27 |
| CN105229675A (zh) | 2016-01-06 |
| US9542643B2 (en) | 2017-01-10 |
| US20140351190A1 (en) | 2014-11-27 |
| CN105229675B (zh) | 2018-02-06 |
| KR101793011B1 (ko) | 2017-11-02 |
| WO2014189970A3 (en) | 2015-04-09 |
| JP2016522495A (ja) | 2016-07-28 |
| EP3000076A2 (en) | 2016-03-30 |
| KR20160010477A (ko) | 2016-01-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6130056B2 (ja) | スパイキングネットワークの効率的なハードウェア実装 | |
| JP6275868B2 (ja) | ニューラルウォッチドッグ | |
| JP2016536679A (ja) | ニューラルシミュレータ用の共有メモリアーキテクチャ | |
| JP2016539414A (ja) | スパイキングニューラルネットワークにおいてリプレーを使用するシナプス学習を実装すること | |
| JP2017511936A (ja) | 現在の計算リソースへのニューラルネットワーク適応 | |
| JP6133503B2 (ja) | 擬似乱数のプログラム可能な確率分布関数を生成するための方法および装置 | |
| JP2017509951A (ja) | スパースニューラルネットワークを構成すること | |
| JP2017509952A (ja) | シャドウネットワークでニューラルネットワークを監視すること | |
| JP2017509982A (ja) | 原位置ニューラルネットワークコプロセッシング | |
| JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
| JP2016536657A (ja) | ニューラルモデルのためのグループタグの実装のための方法および装置 | |
| JP2017519268A (ja) | スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること | |
| JP2017510890A (ja) | 一般的なニューロンモデルの効率的な実装のための方法および装置 | |
| JP2017513108A (ja) | サブしきい値変調を介するアナログ信号再構築および認識 | |
| JP6193509B2 (ja) | 可塑性シナプス管理 | |
| WO2015112713A2 (en) | Value synchronization across neural processors | |
| JP2017509980A (ja) | 動的な空間ターゲット選択 | |
| WO2015153150A2 (en) | Probabilistic representation of large sequences using spiking neural network | |
| JP2016537711A (ja) | スパイキングニューロンのネットワークにおける輻輳回避 | |
| JP2017509956A (ja) | 値をスパイクに変換するための方法 | |
| JP6133517B2 (ja) | 座標変換のための位相コーディング | |
| JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
| JP6096388B2 (ja) | ニューラルネットワークモデルにおけるドップラー効果処理 | |
| WO2015023441A2 (en) | Post ghost plasticity | |
| US20150278684A1 (en) | Time synchronization of spiking neuron models on multiple nodes |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160205 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160208 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170203 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170203 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170203 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170206 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170314 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170412 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6130056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
