JP2016027485A - 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 - Google Patents
発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 Download PDFInfo
- Publication number
- JP2016027485A JP2016027485A JP2015179468A JP2015179468A JP2016027485A JP 2016027485 A JP2016027485 A JP 2016027485A JP 2015179468 A JP2015179468 A JP 2015179468A JP 2015179468 A JP2015179468 A JP 2015179468A JP 2016027485 A JP2016027485 A JP 2016027485A
- Authority
- JP
- Japan
- Prior art keywords
- synaptic
- neuron
- circuit
- input
- neuron circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000015654 memory Effects 0.000 title claims abstract description 40
- 230000010355 oscillation Effects 0.000 title claims description 42
- 230000002123 temporal effect Effects 0.000 title abstract description 37
- 230000001537 neural effect Effects 0.000 title abstract description 21
- 230000006041 cell recruitment Effects 0.000 title abstract description 6
- 210000002569 neuron Anatomy 0.000 claims abstract description 376
- 230000000946 synaptic effect Effects 0.000 claims abstract description 204
- 238000012421 spiking Methods 0.000 claims abstract description 53
- 230000003111 delayed effect Effects 0.000 claims abstract description 29
- 230000008859 change Effects 0.000 claims abstract description 20
- 238000010304 firing Methods 0.000 claims description 142
- 210000000225 synapse Anatomy 0.000 claims description 32
- 210000004027 cell Anatomy 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 240000002627 Cordeauxia edulis Species 0.000 claims description 10
- 230000028161 membrane depolarization Effects 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims description 6
- 230000002829 reductive effect Effects 0.000 abstract description 7
- 210000002364 input neuron Anatomy 0.000 description 17
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000012528 membrane Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 210000005056 cell body Anatomy 0.000 description 5
- 230000001934 delay Effects 0.000 description 5
- 230000013632 homeostatic process Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000033228 biological regulation Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 210000004205 output neuron Anatomy 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 3
- 230000001242 postsynaptic effect Effects 0.000 description 3
- 230000036982 action potential Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001364 causal effect Effects 0.000 description 2
- 210000001787 dendrite Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003518 presynaptic effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007115 recruitment Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010001497 Agitation Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003376 axonal effect Effects 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002999 depolarising effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003126 m-cell Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000008062 neuronal firing Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000005022 packaging material Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000003956 synaptic plasticity Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
- Neurology (AREA)
- Semiconductor Memories (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【解決手段】ネットワークのニューロン回路に各々がシナプス重みのうちの1つのシナプス重みと時間遅延とに関連付けられるシナプス入力を提供し、シナプス入力を含むニューロン回路の入力が増加したら、重み付けされ遅延されているシナプス入力の各々をラッチする。入力があったらまたは入力の増加に基づいてニューロン回路がスパイクしたら、そのシナプス入力に関連付けられたシナプス重みの変化を決定するために、ラッチされたシナプス入力に学習ルールを適用する。
【選択図】図15
Description
図1は、本開示の特定の態様による、複数のレベルのニューロンを含む例示的な神経システム100を示す。神経システム100は、シナプス結合のネットワーク104を介して別のレベルのニューロン106に接続されたあるレベルのニューロン102を含み得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、典型的な神経システムには、より少ないまたはより多くのレベルのニューロンが存在し得る。
本開示では、シナプスにおける入力間の相対遅延、シナプスにおける入力と基準入力との間の相対遅延、またはその両方に基づいてニューロンの挙動が決定され得る方法が提案される。時間符号化モデルの基本的な態様が図2に示される。ニューロン202、204、206、208(すなわち、入力ニューロン)から出力されたスパイクの空間時間的パターンは、ニューロン210のためのスパイク入力を構成し得る。各入力ニューロンは、ニューロン210の1つまたは複数の樹状突起において1つまたは複数のシナプスを介してニューロン210に接続することができる。各シナプスは、ニューロン204とニューロン210とを接続しているシナプス212について図2に示すように、ニューロン210の細胞体に到達する前に入力ニューロンからのスパイクが受ける時間遅延を特徴付ける関連する遅延を有し得る。図2に示すように、入力は、遅延および統合の前にスケーリングを受け得る。代替的に、入力は、大規模なネットワークにおける処理低減のためのスケーリングの前に遅延を受け得る。
本開示では、まず、時間符号化および学習のためのロバストな低減された方法が提案される。次に、この方法は、発振およびリズムを使用したさらなるロバストネスの方法のためのベースとして利用され得る。本開示の態様では、メモリのためのセル・リクルートメントのために、これらの2つの方法が一緒に使用され得る。
ヘブルールを適用するにせよ、STDP状効果を適用するにせよ、本開示では、重みが許容される、さらには分極させる(たとえば、パターンの安定した学習時に、0または1に向かう双極性の傾向)ように設計されることが提案される。言い換えれば、学習ルールは、学習ニューロンでは重みを分極させ、非学習ニューロン(他のメモリのために予約されている、または所与のパターンを符号化するために競争を失っているニューロン)については重みを脱分極させることが提案される。
本開示のいくつかの態様は、パターンマッチの信頼度またはロバストネスを効率的に測定する方法およびそれを時間コードに変換する方法をサポートする。図7は、シナプスの重み、樹状遅延、および同じパターンに曝露されたときの結合の結果として、さまざまな大きさのニューロンの細胞体への一致する入力(coincident input)の3つのケースについての一例700を示す。
本開示では、ロバストネスに関するこれらの上記の問題を解決するための1つまたは複数の態様の組合せが提案される。第1に、ニューロンレギュレーションまたはホメオスタシスは、数、重み、またはそれ以外に関して、寄与する入力の合計寄与を制御または正規化するために使用され得る。したがって、ターゲットパターンが図7のケース706に対応するように、ニューロンの入力レベルが調整され得る(すなわち、十分に閾値708以上であるが、正しいパターンなしに発火をもたらすのにかけはなれすぎない)。実際、入力レベルは、重みをスケーリングすることによって調整され得る。また、これらの重みは、所望のロバストネス(余分の入力)を与えるように調整され得る。これは、信頼度または完全性符号化方法の以下の説明の構成単位であり得る。
信頼度は、パターンマッチング確度または信頼度に対してある範囲の感度を有するニューロン群を使用することによって、レートコードとして符号化され得ることに留意されたい。ニューロンの結合されたスパイキングは、総スパイク数または信頼度のレートコードとして機能し得る(すなわち、より多くのニューロン発火はより高い信頼度を意味する)。この目的で、図10に示すように、様々な精度のニューロン群の出力が、レート符号化信頼度ニューロン1002に供給され得る。図10は、2つのパターンケース1004および1006を示しており、第1のパターンケース1004は、すべての精度ニューロンが発火するように、パターンとマッチする入力を有し、信頼度は、ニューロン1002から高レートスパイクパターン1008へとレート符号化され得る。第2のケースでは、パターン1006は、同様にマッチしない場合があり、したがって、ニューロンのサブセットのみが発火する可能性があり、スパイクパターン1010によって示されるように、ニューロン1002は、より遅いレートにレート符号化し得る。
本開示では、完全性または信頼度および精度の上述した概念が特にメモリの側面に関連することがさらに提案される。図11は、ネットワーク1102によって記憶されることが望ましい特定の入力に曝露され得る多数の相互接続されたニューロンのネットワーク1102を示す。答えるべき重要な問題は、ネットワークがこの特定の入力パターンに曝露される次のときそれがこの入力を認識することができるように、ネットワーク1102が1つ1つのニューロンの出力を記憶(符号化)することが必要かどうかということである。答えるべき別の重要な問題は、ネットワークがその最上位層(出力)ニューロンのすべての出力を記憶(符号化)することが必要かどうかということである。
さらに、本開示では、異なる発振周波数またはオフセットを受けるネットワーク(図13に示される例)の異なる部分に入力を供給することによって、入力の時間的パターンのこれらの部分がそれらのネットワーク部分内のロバストなパターンマッチングのために切り離され(分離され)得、次いで結果が再結合され得ることが提案される。非常に効率的なネットワークにおいて、これは、一方または他方において発振ピークとして2つのネットワーク部分の間で前後にパターンマッチングを渡すことによっても起こり得る。
一態様では、2つの時間的に符号化された記号的メモリを考慮することができ、それらは互いに接続されている(関連付けられている)ことが望ましい。一態様では、時間的にエンコードされ得る任意の所望の重なりを取得するためにニューロンアセンブリを再アラインメントするために、発振(リズム)が使用され得る。これをどのように行うかを理解するために、上記の時間的信頼符号化構成単位を考慮することができる。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージする方法であって、
前記ネットワークのニューロン回路にシナプス入力を提供することであって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、提供することと、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチすることと、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用することと
を含む方法。
[C2]
前記学習ルールが実数値のヘブ学習ルールを含む、上記C1に記載の方法。
[C3]
前記ヘブ学習ルールがOja学習ルールを含む、上記C2に記載の方法。
[C4]
前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、上記C1に記載の方法。
[C5]
ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、上記C1に記載の方法。
[C6]
ラッチすることが、
ニューロン回路が最後に発火して以来、前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチすること
を含む、上記C1に記載の方法。
[C7]
ラッチすることが、
ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチすること
を含む、上記C1に記載の方法。
[C8]
前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、上記C1に記載の方法。
[C9]
前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、上記C1に記載の方法。
[C10]
前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、上記C1に記載の方法。
[C11]
前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、上記C1に記載の方法。
[C12]
前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化すること
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
上記C1に記載の方法。
[C13]
別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供すること
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
上記C1に記載の方法。
[C14]
前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択すること
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
上記C1に記載の方法。
[C15]
スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージするための電気回路であって、
前記ネットワークのニューロン回路にシナプス入力を提供するように構成された第1の回路であって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、第1の回路と、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチするように構成された第2の回路と、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用するように構成された第3の回路と
を含む電気回路。
[C16]
前記学習ルールが実数値のヘブ学習ルールを含む、上記C15に記載の電気回路。
[C17]
前記ヘブ学習ルールがOja学習ルールを含む、上記C16に記載の電気回路。
[C18]
前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、上記C15に記載の電気回路。
[C19]
ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、上記C15に記載の電気回路。
[C20]
前記第2の回路が、また、ニューロン回路が最後に発火して以来前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチするように構成される、上記C15に記載の電気回路。
[C21]
前記第2の回路が、また、ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチするように構成される、上記C15に記載の電気回路。
[C22]
前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、上記C15に記載の電気回路。
[C23]
前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、上記C15に記載の電気回路。
[C24]
前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、上記C15に記載の電気回路。
[C25]
前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、上記C15に記載の電気回路。
[C26]
前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化するように構成された第4の回路
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
上記C15に記載の電気回路。
[C27]
別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供するように構成された第4の回路
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
上記C15に記載の電気回路。
[C28]
前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択するように構成された第4の回路
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
上記C15に記載の電気回路。
[C29]
スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージするための装置であって、
前記ネットワークのニューロン回路にシナプス入力を提供するための手段であって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、手段と、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチするための手段と、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用するための手段と
を含む装置。
[C30]
前記学習ルールが実数値のヘブ学習ルールを含む、上記C29に記載の装置。
[C31]
前記ヘブ学習ルールがOja学習ルールを含む、上記C30に記載の装置。
[C32]
前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、上記C29に記載の装置。
[C33]
ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、上記C29に記載の装置。
[C34]
ニューロン回路が最後に発火して以来、前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチするための手段
をさらに含む、上記C29に記載の装置。
[C35]
ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチするための手段
をさらに含む、上記C29に記載の装置。
[C36]
前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、上記C29に記載の装置。
[C37]
前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、上記C29に記載の装置。
[C38]
前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、上記C29に記載の装置。
[C39]
前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、上記C29に記載の装置。
[C40]
前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化するための手段
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
上記C29に記載の装置。
[C41]
別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供するための手段
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
上記C29に記載の装置。
[C42]
前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択するための手段
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
上記C29に記載の装置。
[C43]
ニューラルネットワークのニューロン回路の発火率を調節する方法であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算することと、
前記発火率が下限を下回るか、または上限を上回るかを決定することと、
前記決定に基づいてステップ量によって前記発火率を調整することと
を含む方法。
[C44]
前記発火率を調整することが、
前記計算された発火率が前記下限を下回る場合、前記発火率をブーストすること
を含む、上記C43に記載の方法。
[C45]
前記発火率を調整することが、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制すること
を含む、上記C43に記載の方法。
[C46]
前記発火率を調節するために、乗算器を前記ニューロン回路のすべてのシナプス入力に適用すること
をさらに含む、上記C43に記載の方法。
[C47]
前記ステップ量によって前記発火率を調整することが、前記適用された乗算器を調整することを含む、上記C43に記載の方法。
[C48]
ニューラルネットワークのニューロン回路の発火率を調節するための電気回路であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算するように構成された第1の回路と、
前記発火率が下限を下回るか、または上限を上回るかを決定するように構成された第2の回路と、
前記決定に基づいてステップ量によって前記発火率を調整するように構成された第3の回路と
を含む電気回路。
[C49]
前記第3の回路が、また、
前記計算された発火率が前記下限を下回る場合、前記発火率をブーストするように構成される、上記C48に記載の電気回路。
[C50]
前記第3の回路が、また、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制するように構成される、上記C48に記載の電気回路。
[C51]
前記発火率を調節するために、前記ニューロン回路のすべてのシナプス入力に適用されるように構成された乗算器
をさらに含む、上記C48に記載の電気回路。
[C52]
前記ステップ量によって前記発火率を調整することが、前記適用された乗算器を調整することを含む、上記C48に記載の電気回路。
[C53]
ニューラルネットワークのニューロン回路の発火率を調節する装置であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算するための手段と、
前記発火率が下限を下回るか、または上限を上回るかを決定するための手段と、
前記決定に基づいてステップ量によって前記発火率を調整するための手段と
を含む装置。
[C54]
前記発火率を調整するための前記手段が、
前記計算された発火率が前記下限を下回る場合、前記発火率をブートするための手段
を含む、上記C53に記載の装置。
[C55]
前記発火率を調整するための前記手段が、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制するための手段
を含む、上記C53に記載の装置。
[C56]
前記発火率を調節するために、乗算器を前記ニューロン回路のすべてのシナプス入力に適用するための手段
をさらに含む、上記C53に記載の装置。
[C57]
前記ステップ量によって前記発火率を調整するための手段が、前記適用された乗算器を調整するための手段を含む、上記C53に記載の装置。
Claims (57)
- スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージする方法であって、
前記ネットワークのニューロン回路にシナプス入力を提供することであって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、提供することと、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチすることと、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用することと
を含む方法。 - 前記学習ルールが実数値のヘブ学習ルールを含む、請求項1に記載の方法。
- 前記ヘブ学習ルールがOja学習ルールを含む、請求項2に記載の方法。
- 前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、請求項1に記載の方法。
- ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、請求項1に記載の方法。
- ラッチすることが、
ニューロン回路が最後に発火して以来、前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチすること
を含む、請求項1に記載の方法。 - ラッチすることが、
ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチすること
を含む、請求項1に記載の方法。 - 前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、請求項1に記載の方法。
- 前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、請求項1に記載の方法。
- 前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、請求項1に記載の方法。
- 前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、請求項1に記載の方法。
- 前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化すること
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
請求項1に記載の方法。 - 別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供すること
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
請求項1に記載の方法。 - 前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択すること
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
請求項1に記載の方法。 - スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージするための電気回路であって、
前記ネットワークのニューロン回路にシナプス入力を提供するように構成された第1の回路であって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、第1の回路と、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチするように構成された第2の回路と、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用するように構成された第3の回路と
を含む電気回路。 - 前記学習ルールが実数値のヘブ学習ルールを含む、請求項15に記載の電気回路。
- 前記ヘブ学習ルールがOja学習ルールを含む、請求項16に記載の電気回路。
- 前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、請求項15に記載の電気回路。
- ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、請求項15に記載の電気回路。
- 前記第2の回路が、また、ニューロン回路が最後に発火して以来前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチするように構成される、請求項15に記載の電気回路。
- 前記第2の回路が、また、ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチするように構成される、請求項15に記載の電気回路。
- 前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、請求項15に記載の電気回路。
- 前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、請求項15に記載の電気回路。
- 前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、請求項15に記載の電気回路。
- 前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、請求項15に記載の電気回路。
- 前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化するように構成された第4の回路
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
請求項15に記載の電気回路。 - 別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供するように構成された第4の回路
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
請求項15に記載の電気回路。 - 前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択するように構成された第4の回路
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
請求項15に記載の電気回路。 - スパイキングニューロン回路のネットワークを、前記ニューロン回路に関連付けられたシナプス重みを学習するためのルールとマージするための装置であって、
前記ネットワークのニューロン回路にシナプス入力を提供するための手段であって、前記シナプス入力の各々がシナプス重みと時間遅延とに関連付けられた、手段と、
前記シナプス入力を含む前記ニューロン回路の入力が増加したら、重み付けされ遅延されている前記シナプス入力の各々をラッチするための手段と、
前記入力があったら、または前記入力の前記増加に基づいて前記ニューロン回路がスパイクしたら、そのシナプス入力に関連付けられた前記シナプス重みの変化を決定するために、前記ラッチされたシナプス入力に前記学習ルールを適用するための手段と
を含む装置。 - 前記学習ルールが実数値のヘブ学習ルールを含む、請求項29に記載の装置。
- 前記ヘブ学習ルールがOja学習ルールを含む、請求項30に記載の装置。
- 前記時間遅延が時間遅延分解能の1または複数の倍数に等しい、請求項29に記載の装置。
- ニューロン回路の前記入力が、前記シナプス入力の合計を含み、前記合計されたシナプス入力の各々が、前記シナプス重みおよび前記時間遅延によって特徴付けられるシナプスに関連付けられる、請求項29に記載の装置。
- ニューロン回路が最後に発火して以来、前記ニューロン回路の前記入力が最大値であるときに、前記重み付けされ遅延されたシナプス入力をラッチするための手段
をさらに含む、請求項29に記載の装置。 - ニューロン回路の前記入力の増加があれば、前記重み付けされ遅延されたシナプス入力をラッチするための手段
をさらに含む、請求項29に記載の装置。 - 前記適用された学習ルールが、そのシナプス入力に関連付けられた前記シナプス重みを分極させる、請求項29に記載の装置。
- 前記ニューロン回路および前記シナプス入力が、ダイナミックスパイキングニューロンモデルに関連付けられる、請求項29に記載の装置。
- 前記ニューロン回路および前記シナプス入力が、leaky−integrate−and−fireニューロンモデルに関連付けられる、請求項29に記載の装置。
- 前記学習ルールが、前記シナプス入力の定義されたレベルの脱分極から前記ニューロン回路のスパイクまでの遅延を補償するために、シフトされたスパイクタイミング依存可塑性(STDP)学習曲線に関連付けられる、請求項29に記載の装置。
- 前記ニューロン回路の発火と前記ネットワークの基準ニューロン回路の発火との間の時間差を利用して、前記ネットワークの別のニューロン回路の出力を時間的に符号化するための手段
をさらに含み、時間的に符号化された出力が、前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度に関する情報を含み、
前記ニューロン回路の出力および前記基準ニューロン回路の出力が、前記時間的に符号化された出力を生成するために、前記別のニューロン回路に供給される
請求項29に記載の装置。 - 別のニューロン回路の出力を生成するために、前記ネットワークの前記別のニューロン回路に前記ニューロン回路の出力を提供するための手段
をさらに含み、前記別のニューロン回路の前記出力の発火率が、前記ニューロン回路への前記シナプス入力のスパイキングパターンが定義されたパターンとマッチする信頼度を示す
請求項29に記載の装置。 - 前記ネットワークの基準ニューロン回路の入力での発振を使用して、前記ネットワークに供給されるスパイキングパターンを記憶するためのメモリセルとして前記ニューロン回路のうちの1つを選択するための手段
をさらに含み、前記選択は、そのニューロン回路が1組の前記ニューロン回路の中で前記発振のトラフに最も近い前記スパイキングパターンに応答することに基づく
請求項29に記載の装置。 - ニューラルネットワークのニューロン回路の発火率を調節する方法であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算することと、
前記発火率が下限を下回るか、または上限を上回るかを決定することと、
前記決定に基づいてステップ量によって前記発火率を調整することと
を含む方法。 - 前記発火率を調整することが、
前記計算された発火率が前記下限を下回る場合、前記発火率をブーストすること
を含む、請求項43に記載の方法。 - 前記発火率を調整することが、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制すること
を含む、請求項43に記載の方法。 - 前記発火率を調節するために、乗算器を前記ニューロン回路のすべてのシナプス入力に適用すること
をさらに含む、請求項43に記載の方法。 - 前記ステップ量によって前記発火率を調整することが、前記適用された乗算器を調整することを含む、請求項43に記載の方法。
- ニューラルネットワークのニューロン回路の発火率を調節するための電気回路であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算するように構成された第1の回路と、
前記発火率が下限を下回るか、または上限を上回るかを決定するように構成された第2の回路と、
前記決定に基づいてステップ量によって前記発火率を調整するように構成された第3の回路と
を含む電気回路。 - 前記第3の回路が、また、
前記計算された発火率が前記下限を下回る場合、前記発火率をブーストするように構成される、請求項48に記載の電気回路。 - 前記第3の回路が、また、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制するように構成される、請求項48に記載の電気回路。 - 前記発火率を調節するために、前記ニューロン回路のすべてのシナプス入力に適用されるように構成された乗算器
をさらに含む、請求項48に記載の電気回路。 - 前記ステップ量によって前記発火率を調整することが、前記適用された乗算器を調整することを含む、請求項48に記載の電気回路。
- ニューラルネットワークのニューロン回路の発火率を調節する装置であって、
時間期間内の前記ニューロン回路の発火の数をカウントすることによって、前記ニューロン回路の前記発火率を定期的に計算するための手段と、
前記発火率が下限を下回るか、または上限を上回るかを決定するための手段と、
前記決定に基づいてステップ量によって前記発火率を調整するための手段と
を含む装置。 - 前記発火率を調整するための前記手段が、
前記計算された発火率が前記下限を下回る場合、前記発火率をブートするための手段
を含む、請求項53に記載の装置。 - 前記発火率を調整するための前記手段が、
前記計算された発火率が前記上限を上回る場合、前記発火率を抑制するための手段
を含む、請求項53に記載の装置。 - 前記発火率を調節するために、乗算器を前記ニューロン回路のすべてのシナプス入力に適用するための手段
をさらに含む、請求項53に記載の装置。 - 前記ステップ量によって前記発火率を調整するための手段が、前記適用された乗算器を調整するための手段を含む、請求項53に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/187,915 | 2011-07-21 | ||
US13/187,915 US9053428B2 (en) | 2011-07-21 | 2011-07-21 | Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014521805A Division JP5840776B2 (ja) | 2011-07-21 | 2012-07-19 | 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016027485A true JP2016027485A (ja) | 2016-02-18 |
JP6092334B2 JP6092334B2 (ja) | 2017-03-08 |
Family
ID=46604567
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014521805A Active JP5840776B2 (ja) | 2011-07-21 | 2012-07-19 | 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 |
JP2015179468A Active JP6092334B2 (ja) | 2011-07-21 | 2015-09-11 | 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014521805A Active JP5840776B2 (ja) | 2011-07-21 | 2012-07-19 | 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9053428B2 (ja) |
EP (1) | EP2734958A1 (ja) |
JP (2) | JP5840776B2 (ja) |
KR (2) | KR101851838B1 (ja) |
CN (1) | CN103688277B (ja) |
BR (1) | BR112014001180A2 (ja) |
CA (1) | CA2842334A1 (ja) |
RU (1) | RU2014106545A (ja) |
WO (1) | WO2013013095A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9147155B2 (en) | 2011-08-16 | 2015-09-29 | Qualcomm Incorporated | Method and apparatus for neural temporal coding, learning and recognition |
US9092735B2 (en) | 2011-09-21 | 2015-07-28 | Qualcomm Incorporated | Method and apparatus for structural delay plasticity in spiking neural networks |
US9111224B2 (en) | 2011-10-19 | 2015-08-18 | Qualcomm Incorporated | Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks |
US8909575B2 (en) | 2012-02-29 | 2014-12-09 | Qualcomm Incorporated | Method and apparatus for modeling neural resource based synaptic placticity |
US9064215B2 (en) | 2012-06-14 | 2015-06-23 | Qualcomm Incorporated | Learning spike timing precision |
US9286006B2 (en) * | 2013-04-05 | 2016-03-15 | Netapp, Inc. | Systems and methods for scheduling deduplication of a storage system |
US9275329B2 (en) | 2013-08-12 | 2016-03-01 | Qualcomm Incorporated | Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models |
DE112016000146T5 (de) * | 2015-10-23 | 2017-07-06 | Semiconductor Energy Laboratory Co., Ltd. | Halbleitervorrichtung und elektronische Vorrichtung |
WO2018081560A1 (en) | 2016-10-27 | 2018-05-03 | University Of Florida Research Foundation | Memristive learning for neuromorphic circuits |
US11580373B2 (en) | 2017-01-20 | 2023-02-14 | International Business Machines Corporation | System, method and article of manufacture for synchronization-free transmittal of neuron values in a hardware artificial neural networks |
US10803383B2 (en) | 2017-01-25 | 2020-10-13 | Electronics And Telecommunications Research Institute | Neuromorphic arithmetic device |
KR102314300B1 (ko) * | 2017-02-10 | 2021-10-21 | 한국전자통신연구원 | 뉴로모픽 연산 장치 |
US10438116B2 (en) | 2017-02-10 | 2019-10-08 | Electronics And Telecommunications Research Institute | Neuromorphic arithmetic device |
CN108229830B (zh) * | 2018-01-08 | 2021-09-10 | 东北大学 | 考虑学习效应的动态混合流水作业极小化总完工时间问题下界算法 |
US11403515B2 (en) | 2018-04-09 | 2022-08-02 | Electronics And Telecommunications Research Institute | Spike neural network circuit including radiation source |
CN109324503B (zh) * | 2018-08-28 | 2022-02-15 | 南京理工大学 | 基于鲁棒积分的多层神经网络电机系统控制方法 |
US11861483B2 (en) | 2018-11-20 | 2024-01-02 | Electronics And Telecommunications Research Institute | Spike neural network circuit including comparator operated by conditional bias current |
WO2020175209A1 (ja) * | 2019-02-28 | 2020-09-03 | 国立研究開発法人科学技術振興機構 | スパイク生成回路、情報処理回路、電力変換回路、検出器および電子回路 |
US20200356847A1 (en) | 2019-05-07 | 2020-11-12 | Hrl Laboratories, Llc | Transistorless all-memristor neuromorphic circuits for in-memory computing |
JP7447034B2 (ja) | 2021-02-24 | 2024-03-11 | 株式会社東芝 | シナプス回路およびニューラルネットワーク装置 |
KR102521702B1 (ko) * | 2021-11-04 | 2023-04-17 | 서울대학교산학협력단 | 뉴런 회로와 이의 동작 방법, 그리고, 뉴런 회로를 포함하는 뉴로모픽 장치 |
CN114089630B (zh) * | 2021-11-12 | 2024-05-17 | 南京模数智芯微电子科技有限公司 | 一种基于stdp学习规则的低功耗非对称性可调突触电路 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348637A (ja) * | 2003-05-26 | 2004-12-09 | Fuji Xerox Co Ltd | 連想記憶装置および方法 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993018474A1 (en) | 1992-03-11 | 1993-09-16 | University College London | Devices for use in neural processing |
JP3178884B2 (ja) | 1992-03-30 | 2001-06-25 | 株式会社東芝 | ニューラルネットワーク装置 |
JP3345478B2 (ja) | 1993-09-20 | 2002-11-18 | 株式会社東芝 | ニューラルネットワーク装置およびその学習方法 |
US5666079A (en) | 1994-05-06 | 1997-09-09 | Plx Technology, Inc. | Binary relative delay line |
WO1997029437A1 (en) | 1996-02-09 | 1997-08-14 | Sarnoff Corporation | Method and apparatus for training a neural network to detect and classify objects with uncertain training data |
US6284794B1 (en) | 1996-11-05 | 2001-09-04 | Head Explorer Aps | Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase |
KR100567465B1 (ko) * | 1997-06-11 | 2006-04-03 | 유니버시티 오브 서던 캘리포니아 | 신경망에서의 신호처리를 위한 다이내믹 시냅스 |
US6581046B1 (en) | 1997-10-10 | 2003-06-17 | Yeda Research And Development Co. Ltd. | Neuronal phase-locked loops |
US6505182B1 (en) | 1998-10-09 | 2003-01-07 | Van Den Heuvel Raymond C. | Recognition engine with time referenced neurons |
US7088860B2 (en) | 2001-03-28 | 2006-08-08 | Canon Kabushiki Kaisha | Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus |
CA2467401A1 (en) | 2001-11-16 | 2003-05-30 | Yuan Yan Chen | Pausible neural network with supervised and unsupervised cluster analysis |
US7412428B2 (en) | 2002-03-12 | 2008-08-12 | Knowmtech, Llc. | Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks |
US7174325B1 (en) | 2002-06-07 | 2007-02-06 | George Mason Intellectual Properties, Inc. | Neural processor |
US7430546B1 (en) | 2003-06-07 | 2008-09-30 | Roland Erwin Suri | Applications of an algorithm that mimics cortical processing |
US7657313B2 (en) | 2003-07-21 | 2010-02-02 | Ai-Semi Ltd | Adaptive cardiac resynchronization therapy system |
WO2006126185A2 (en) | 2005-05-27 | 2006-11-30 | A.I. Medical Semiconductor | Ventricle pacing during atrial fibrillation episodes |
US7904398B1 (en) | 2005-10-26 | 2011-03-08 | Dominic John Repici | Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times |
EP1964036A4 (en) | 2005-12-23 | 2010-01-13 | Univ Sherbrooke | ROOM-TIME PATTERN RECOGNITION USING A NEURONAL SPIKING NETWORK AND PROCESSING THEREOF FOR A PORTABLE AND / OR DISTRIBUTED COMPUTER |
EP2046445A4 (en) | 2006-07-17 | 2013-02-13 | A I Medical Semiconductor | INTELLIGENT CONTROL SYSTEM FOR AN ADAPTIVE DEVICE FOR CARDIAC RESYNCHRONIZATION THERAPY |
WO2008106615A1 (en) | 2007-02-28 | 2008-09-04 | Numenta, Inc. | Spatio-temporal learning algorithms in hierarchical temporal networks |
JP2008225607A (ja) * | 2007-03-09 | 2008-09-25 | Institute Of Physical & Chemical Research | 制御装置、制御システム、ならびに、プログラム |
EP2012260B1 (en) * | 2007-06-22 | 2012-04-11 | Honda Research Institute Europe GmbH | Method and device for realizing an associative memory based on inhibitory neural networks |
GB0811057D0 (en) | 2008-06-17 | 2008-07-23 | Univ Ulster | Artificial neural network architecture |
WO2010025130A1 (en) | 2008-08-28 | 2010-03-04 | Massachusetts Institute Of Technology | Circuits and methods representative of spike timing dependent plasticity of neurons |
US8250011B2 (en) | 2008-09-21 | 2012-08-21 | Van Der Made Peter A J | Autonomous learning dynamic artificial neural computing device and brain inspired system |
US8630966B2 (en) | 2009-01-27 | 2014-01-14 | Salk Institute For Biological Studies | Temporally dynamic artificial neural networks |
KR20100090147A (ko) * | 2009-02-05 | 2010-08-13 | 김시영 | 쾌적한 난방을 제공하는 난방기 |
US7978510B2 (en) | 2009-03-01 | 2011-07-12 | International Businesss Machines Corporation | Stochastic synapse memory element with spike-timing dependent plasticity (STDP) |
US8250010B2 (en) | 2009-05-21 | 2012-08-21 | International Business Machines Corporation | Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements |
US8447714B2 (en) | 2009-05-21 | 2013-05-21 | International Business Machines Corporation | System for electronic learning synapse with spike-timing dependent plasticity using phase change memory |
US8527438B2 (en) | 2009-12-22 | 2013-09-03 | International Business Machines Corporation | Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array |
US8625337B2 (en) | 2010-05-06 | 2014-01-07 | Qualcomm Incorporated | Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements |
US8694452B2 (en) | 2010-07-07 | 2014-04-08 | Qualcomm Incorporated | Methods and systems for CMOS implementation of neuron synapse |
US8433665B2 (en) | 2010-07-07 | 2013-04-30 | Qualcomm Incorporated | Methods and systems for three-memristor synapse with STDP and dopamine signaling |
US8892485B2 (en) | 2010-07-08 | 2014-11-18 | Qualcomm Incorporated | Methods and systems for neural processor training by encouragement of correct output |
US8606732B2 (en) | 2010-08-04 | 2013-12-10 | Qualcomm Incorporated | Methods and systems for reward-modulated spike-timing-dependent-plasticity |
US9269042B2 (en) | 2010-09-30 | 2016-02-23 | International Business Machines Corporation | Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices |
US8515885B2 (en) | 2010-10-29 | 2013-08-20 | International Business Machines Corporation | Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation |
US8473439B2 (en) | 2010-12-08 | 2013-06-25 | International Business Machines Corporation | Integrate and fire electronic neurons |
US8756173B2 (en) | 2011-01-19 | 2014-06-17 | Qualcomm Incorporated | Machine learning of known or unknown motion states with sensor fusion |
US9147156B2 (en) | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
US8706662B2 (en) | 2011-07-21 | 2014-04-22 | Qualcomm Incorporated | Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate |
US9147155B2 (en) | 2011-08-16 | 2015-09-29 | Qualcomm Incorporated | Method and apparatus for neural temporal coding, learning and recognition |
US9092735B2 (en) | 2011-09-21 | 2015-07-28 | Qualcomm Incorporated | Method and apparatus for structural delay plasticity in spiking neural networks |
US9111224B2 (en) | 2011-10-19 | 2015-08-18 | Qualcomm Incorporated | Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks |
KR101912165B1 (ko) * | 2011-12-09 | 2018-10-29 | 삼성전자주식회사 | 스파이킹 뉴런 기반 작업 기억 장치 |
US8909575B2 (en) | 2012-02-29 | 2014-12-09 | Qualcomm Incorporated | Method and apparatus for modeling neural resource based synaptic placticity |
US9064215B2 (en) | 2012-06-14 | 2015-06-23 | Qualcomm Incorporated | Learning spike timing precision |
-
2011
- 2011-07-21 US US13/187,915 patent/US9053428B2/en active Active
-
2012
- 2012-07-19 CA CA2842334A patent/CA2842334A1/en not_active Abandoned
- 2012-07-19 BR BR112014001180A patent/BR112014001180A2/pt not_active IP Right Cessation
- 2012-07-19 RU RU2014106545/08A patent/RU2014106545A/ru not_active Application Discontinuation
- 2012-07-19 CN CN201280035922.5A patent/CN103688277B/zh not_active Expired - Fee Related
- 2012-07-19 WO PCT/US2012/047481 patent/WO2013013095A1/en active Application Filing
- 2012-07-19 JP JP2014521805A patent/JP5840776B2/ja active Active
- 2012-07-19 KR KR1020157019882A patent/KR101851838B1/ko active IP Right Grant
- 2012-07-19 EP EP12743303.5A patent/EP2734958A1/en not_active Withdrawn
- 2012-07-19 KR KR1020147004466A patent/KR101596656B1/ko not_active IP Right Cessation
-
2015
- 2015-09-11 JP JP2015179468A patent/JP6092334B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348637A (ja) * | 2003-05-26 | 2004-12-09 | Fuji Xerox Co Ltd | 連想記憶装置および方法 |
Non-Patent Citations (3)
Title |
---|
JPN5014008834; BOFILL-I-PETIT ADRIA et al.: 'SYNCHRONY DETECTION AND AMPLIFICATION BY SILICON NEURONS WITH STDP SYNAPSES' IEEE TRANSACTIONS ON NEURAL NETWORKS Vol.15, No.5, 200409, p.1296-1304 * |
JPN5014008835; BAKTASH BABADI et al.: 'INTRINSIC STABILITY OF TEMPORALLY SHIFTED SPIKE-TIMING DEPENDENT PLASTICITY' PLOS COMPUTATIONAL BIOLOGY Vol.6, No.11, 2010, p.1-14 * |
JPN6016030052; 飯塚博幸: '恒常性機構を用いたニューラルネットワークモデルの拡張と適応性の比較' 情報処理学会研究報告 Vol.2008, No.20, 20080305, p.55-60, 社団法人情報処理学会 * |
Also Published As
Publication number | Publication date |
---|---|
BR112014001180A2 (pt) | 2017-02-21 |
US9053428B2 (en) | 2015-06-09 |
KR101851838B1 (ko) | 2018-04-24 |
CA2842334A1 (en) | 2013-01-24 |
US20130024409A1 (en) | 2013-01-24 |
JP2014523592A (ja) | 2014-09-11 |
CN103688277B (zh) | 2016-08-17 |
KR101596656B1 (ko) | 2016-02-23 |
EP2734958A1 (en) | 2014-05-28 |
KR20140041866A (ko) | 2014-04-04 |
CN103688277A (zh) | 2014-03-26 |
RU2014106545A (ru) | 2015-08-27 |
JP5840776B2 (ja) | 2016-01-06 |
WO2013013095A1 (en) | 2013-01-24 |
KR20150091186A (ko) | 2015-08-07 |
JP6092334B2 (ja) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6092334B2 (ja) | 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置 | |
JP6219418B2 (ja) | ニューラルテンポラルコーディング、学習および認識のための方法および装置 | |
Dieleman et al. | The challenge of realistic music generation: modelling raw audio at scale | |
CN106575377B (zh) | 共同特征上的分类器更新 | |
JP6009570B2 (ja) | スパイキングニューラルネットワークにおける構造遅延可塑性のための方法および装置 | |
US11615298B2 (en) | STDP with synaptic fatigue for learning of spike-time-coded patterns in the presence of parallel rate-coding | |
EP3937087A1 (en) | Knowledge-graph biased classification for data | |
JP2017509951A (ja) | スパースニューラルネットワークを構成すること | |
US20150212861A1 (en) | Value synchronization across neural processors | |
WO2013130872A1 (en) | Method and apparatus for modeling neural resource based synaptic placticity | |
US9652711B2 (en) | Analog signal reconstruction and recognition via sub-threshold modulation | |
Sboev et al. | Solving a classification task by spiking neural network with STDP based on rate and temporal input encoding | |
CN114186063A (zh) | 跨域文本情绪分类模型的训练方法和分类方法 | |
Falez et al. | Mastering the output frequency in spiking neural networks | |
Zhang et al. | Learning contextual causality between daily events from time-consecutive images | |
Panchev et al. | Spike-timing-dependent synaptic plasticity: from single spikes to spike trains | |
US20150213356A1 (en) | Method for converting values into spikes | |
CN115329146A (zh) | 时序网络中的链路预测方法、电子设备及存储介质 | |
CN115879518A (zh) | 一种基于ai芯片的任务处理方法和装置 | |
Savin et al. | Two is better than one: distinct roles for familiarity and recollection in retrieving palimpsest memories | |
Nilsson et al. | A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with Few Neurons | |
Liu et al. | Push-pull feedback implements hierarchical information retrieval efficiently | |
Wang et al. | KD-FixMatch: Knowledge distillation siamese neural networks | |
Bapiyev et al. | METHOD FOR DETERMINING EFFECTIVE TYPES OF NEURAL NETWORK MODELS FOR RECOGNITION OF CYBER ATTACKS BASED ON PROCEDURAL RULES | |
Mahat | A Human Face Recognition using Alyuda Neurointelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6092334 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |