JP2015510193A - スパイキングニューラル計算のための方法および装置 - Google Patents
スパイキングニューラル計算のための方法および装置 Download PDFInfo
- Publication number
- JP2015510193A JP2015510193A JP2014556690A JP2014556690A JP2015510193A JP 2015510193 A JP2015510193 A JP 2015510193A JP 2014556690 A JP2014556690 A JP 2014556690A JP 2014556690 A JP2014556690 A JP 2014556690A JP 2015510193 A JP2015510193 A JP 2015510193A
- Authority
- JP
- Japan
- Prior art keywords
- neuron model
- input
- time
- neuron
- delay
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012421 spiking Methods 0.000 title claims abstract description 71
- 230000001537 neural effect Effects 0.000 title abstract description 36
- 210000002569 neuron Anatomy 0.000 claims abstract description 566
- 210000000225 synapse Anatomy 0.000 claims abstract description 39
- 230000009466 transformation Effects 0.000 claims abstract description 25
- 239000012528 membrane Substances 0.000 claims description 67
- 238000010304 firing Methods 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 64
- 230000002123 temporal effect Effects 0.000 claims description 55
- 238000013528 artificial neural network Methods 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 34
- 230000003111 delayed effect Effects 0.000 claims description 26
- 230000002964 excitative effect Effects 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 15
- 230000002401 inhibitory effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 230000001242 postsynaptic effect Effects 0.000 abstract description 44
- 230000000946 synaptic effect Effects 0.000 abstract description 24
- 230000001364 causal effect Effects 0.000 abstract description 22
- 230000008878 coupling Effects 0.000 abstract description 6
- 238000010168 coupling process Methods 0.000 abstract description 6
- 238000005859 coupling reaction Methods 0.000 abstract description 6
- 238000001914 filtration Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 26
- 239000013598 vector Substances 0.000 description 26
- 238000010586 diagram Methods 0.000 description 22
- 230000001934 delay Effects 0.000 description 12
- 210000005215 presynaptic neuron Anatomy 0.000 description 11
- 230000001902 propagating effect Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 230000001629 suppression Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 210000002364 input neuron Anatomy 0.000 description 7
- 230000003518 presynaptic effect Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 230000027928 long-term synaptic potentiation Effects 0.000 description 6
- 210000005056 cell body Anatomy 0.000 description 5
- 230000028161 membrane depolarization Effects 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010355 oscillation Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000009472 formulation Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000004205 output neuron Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 240000002627 Cordeauxia edulis Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000003050 axon Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000036279 refractory period Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 210000003520 dendritic spine Anatomy 0.000 description 1
- 230000002999 depolarising effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000008062 neuronal firing Effects 0.000 description 1
- 230000008906 neuronal response Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
[0001]本出願は、両方とも参照により本明細書に組み込まれる、2012年2月8日に出願された「METHODS AND APPARATUS FOR SPIKING NEURAL COMPUTATION」と題する米国特許出願第13/369,080号(代理人整理番号第113075U2号)、および2012年2月8日に出願された「METHODS AND APPARATUS FOR SPIKING NEURAL COMPUTATION」と題する米国特許出願第13/369,095号(代理人整理番号第113075U3号)に関する。
[0072]図1に、本開示のいくつかの態様による、複数のレベルのニューロンをもつ例示的なニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104を介してニューロンの別のレベル106に結合されたニューロンのあるレベル102を備え得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、典型的なニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。
[0076]ニューラルネットワークを設計するための様々な方法が提案されている。たとえば、ニューラルシミュレーションを設計または合成する方法が、最近、ニューラルエンジニアリングフレームワーク(NEF:Neural Engineering Framework)を使用してEliasmithおよびAndersonによって提案された。たとえば、Chris Eliasmith&Charles H.Anderson、Neural Engineering:Computation, Representation, and Dynamics in Neurobiological Systems、MIT Press(2003)、http://compneuro.uwaterloo.ca、およびChris Eliasmith、A Unified Approach to Building and Controlling Spiking Attractor Networks、Neural Computation 17、1276−1314(2005)を参照されたい。この方法は、(iによってインデックス付けされた)ニューロンのセットのアクティビティ{ai}において、符号化された値を表すことに依拠する。値は、アクティビティの線形関数によって推定され得、
[0095]情報が、ニューロンのスパイク間の相対時間において、またはあるニューロンのスパイクと別のニューロンのスパイクとの間の(またはさらにより一般的に、後で明らかになるように、あるニューロンのスパイクと何らかの基準時間との間の)相対時間において符号化され得ると仮定されたい。いくつかの態様では、情報は、2つの基本形態、すなわち、(1)同じニューロンの連続するスパイク間の相対時間、および(2)あるニューロンのスパイクと別のニューロン(または基準)のスパイクとの間の相対時間において、スパイク間の相対的タイミングにおいて表され得る。
[00107]ニューロンの多くの生物学的に一貫性があるモデルが提案されている。特に生物学的に一貫性がありフレキシブルである1つのスパイキングニューロンモデルは、微分方程式の以下のペア、
上式で、ciは(コンダクタンスなどから導出された)ニューロンパラメータであり、vr、vt、およびvθは膜電圧しきい値であり、Iは時間tにおける正味入力であり、上式で、一般にvθ>vt>vrであり、一般に、不応時間期間(refractory time period)以外において、v>vrである。スパイキング条件が満たされない場合、出力y(t)=0である。しかしながら、電圧式は、2つの領域、すなわち、(1)ニューロンがリーキー積分発火(LIF)ニューロンのように動作する、v<vt、および(2)ニューロンが反リーキー積分発火(ALIF)ニューロンのように動作する、v>vtにおいて動作する。
[00138]入力が、スパイクトレインyi(t)としてシナプスに与えられ得る。しかしながら、感覚入力シーケンスは、しばしば実数値形態xi(t)のものである。そのようなシーケンスは、いくつかの方法でSRまたはNSRスパイクトレインに変換され得る。最初に、基本形態が考慮される。
[00153]本開示のいくつかの態様は、スケーリングの例を用いて証明され得る。この例では、スパイキングニューロンはxk(t)=aikxi(t)を実行し得る。言い換えれば、所望の出力は、入力のスケーリングされたバージョンである。この例は、基準時間として出力ニューロンのスパイクを使用して非同期フレームモードで全部スパイキングネットワーク(すべての入力および出力がスパイクの形態の入力および出力である)を使用する。一時的な分解能は無限(連続)または離散(固定ステップにおいてにせよ可変ステップにおいてにせよ)であり得ることを想起されたい。
[00161]この例では、上記と同じ例が使用されるが、負の係数が含まれる。10個の入力が使用され、任意の係数が、範囲、たとえば小数[0.5 0.65 0.55 0.5 −0.39 −0.59 −0.4 0.81 0.88 0.35]にわたって選定される。遅延を計算するために、これらの絶対値が使用される。ただし、負値入力について、シナプスは抑制性に切り替えられる。
[00163]様々な好適な方法のいずれかで雑音項を追加することによって、雑音がALIFモデルに追加され得る。1つの単純な方法は、微分方程式係数p+に雑音項を追加することである。
[00166]このセクションは、2つの相対時間形態、すなわち自己参照(SR)と非自己参照(NSR)との間で変換することに対処する。自己参照(SR)時間を非自己参照シナプス後ニューロン時間(NSR−POST)に変換することは、(たとえば、図7に関して)上記で説明されたニューロンモデルが、NSR−POST入力タイミングを許容し、SRタイミングを出力するので、特別の関心の対象である。そのニューロンの入力を別のニューロンに供給することは、たいがい変換を伴い得る。NSRサブ形態の差異は、シナプス前スパイク時間が、シナプス後ニューロンスパイク時間(NSR−POST)に対するものであるのか、第3のニューロンのスパイク時間(NSR−THIRD)に対するものであるのかの間の差異である。
[00194]このセクションは、変動する数の入力とともに上記で説明されたニューロンモデルの線形性の特徴づけに対処する。この特徴づけのために、ランダム入力およびランダム係数が使用される。離散系がこの特徴づけのために任意に選択され、簡単のために、Δt=1msの一時的な分解能が使用される。線形性グラフ2101、2102、2104、2108、2116、および2132が、それぞれ1つ、2つ、4つ、8つ、16個、および32個の入力について図21に示されている。入力の数が増加するにつれて、実効分解能は、範囲が増加するので、増加する。しかしながら、精度は減少し得る。これは一様分布の結果にすぎない。その効果が出力(および入力および係数)の値の範囲に応じて変動し得ることに留意されたい。精度はまた、一般に、上記の例において示されたように、より良い一時的な分解能であれば根本的に改善する。
[00195]ある程度まで、単純なモデルを含む、LIFおよび他のニューロンモデルは、線形的に予測可能な発火を有する。その差は、線形予測子を使用してそれを用いて予測することができる忠実度または精度にある。
[00208]スパイキングネットワークにおける学習は、一般に、長期増強(LTP)と長期抑圧(LTD)の両方を備えるペアワイズスパイクタイミング依存可塑性(STDP)則を使用して、モデル化される。LTPは、一般にシナプス後ニューロンがシナプス前ニューロンの後に発火するとき、シナプス荷重を増加させる。LTDは、一般に逆の順序が現れるとき、シナプス荷重を減少させる。一般に、指数モデルが両方のために使用される。
[00223]この例では、遅延学習則は、雑音の多いバイナリ入力ベクトルのための係数を学習するために使用される。15個の入力(シナプス前ニューロン)、および(合計15個の入力について)各々からシナプス後ニューロンへの1つのシナプス/結合があると仮定されたい。(ランダムに選定された)同じバイナリ入力組合せにシナプス後ニューロンを繰り返しさらすことによって、遅延学習則は、シナプス後ニューロンが、所望のターゲット時間に発火を生じる遅延を学習することを可能にする。早い入力(すなわち、短い相対入力時間)がブール1を表すために使用され得、遅い入力(すなわち、長い相対入力時間)がブール0を表すために使用され得る。図24に、本開示のいくつかの態様による、15個のシナプス前ニューロンの5つの代表(A〜E)2402とシナプス後ニューロン(F)2404とを示す。
[00227]この例では、遅延学習則は、雑音の多い実数値入力ベクトルのための係数を学習するために使用される。この例は、入力ベクトルにおける値がブールの代わりに実数値であることを除いて、上記の例と同じである。
[00229]この例では、遅延学習則は、変動するブール入力ベクトルの因果的論理関係を学習するために適用される。ここで、入力ベクトルは時間とともに変化しているが、遅延学習則が論理関係が何であるかを学習することができるかどうかを確かめるために、入力における一貫性がある論理関係が課される。第1の事例では、3つの入力のセットが、OR関係を表すために選定(1に設定)される。第2の事例では、すべての入力が、AND関係を表すために選定(1に設定)される。前の例に関しては雑音が追加される。この例では、設定は前の例と同じである。
[00233]xiを、(それぞれ)falseまたはtrueのいずれかである論理変数iを表すブール値(0または1)とする。真の論理関係{i}→jを真の原因関数(true cause function)によって定義されるものとし、
[00260]スパイクの相対時間において情報をコーディングすることによって、スパイキングニューロンを使用することの計算利点が実際にあり得る。したがって、任意の精度でスパイキングニューラルネットワークにおいて時間コーディングを効率的にシミュレートすることができるニューロンモデル(シミュレータ設計のタイプ)が本明細書で説明された。
Claims (80)
- スパイキングニューラルネットワークを実行するための方法であって、
第1のニューロンモデルにおいて少なくとも1つの入力を受信することと、
前記入力に基づいて、前記第1のニューロンモデルの第1の出力スパイク時間と基準時間との間の相対時間を判断することと、
前記相対時間に基づいて前記第1のニューロンモデルから出力スパイクを放出することと
を備える、方法。 - 前記入力がバイナリ値入力スパイクを備える、請求項1に記載の方法。
- 前記入力が入力値を備え、ここにおいて、前記相対時間を判断することが、前記相対時間として前記入力値を符号化することを備える、請求項1に記載の方法。
- 前記符号化することが、前記入力値の対数の負数として前記相対時間を計算することを備える、請求項3に記載の方法。
- 前記対数が、前記第1のニューロンモデルのための膜電位の関数として前記膜電位の変化の係数の指数値に等しい底を有する、請求項4に記載の方法。
- 前記第1のニューロンモデルによってモデル化される関数に基づいて前記少なくとも1つの入力における遅延を判断することと、
前記遅延に基づいて前記相対時間を調整することであって、その結果、前記放出することが、前記調整された相対時間に基づいて前記出力スパイクを放出することを備える、調整することと
をさらに備える、請求項1に記載の方法。 - 前記関数が線形変換を備える、請求項6に記載の方法。
- 前記関数がスカラーによる乗算を備え、ここにおいて、前記遅延を判断することが、前記遅延を判断するために前記スカラーの絶対値を計算することを備え、ここにおいて、前記スカラーが負である場合は、前記第1のニューロンモデルへの前記入力に関連するシナプスが抑制性シナプスとして使用され、ここにおいて、前記スカラーが正である場合は、前記第1のニューロンモデルへの前記入力に関連する前記シナプスが興奮性シナプスとして使用される、請求項6に記載の方法。
- 前記遅延を判断することが、前記遅延を所望の一時的な分解能に量子化することを備え、ここにおいて、前記相対時間を調整することが、前記量子化された遅延に基づいて前記相対時間を調整することを備える、請求項6に記載の方法。
- 前記関数の精度が前記一時的な分解能に依存する、請求項9に記載の方法。
- 前記放出された出力スパイクの時間と前記基準時間との間の時間差に基づいて前記第1のニューロンモデルのための出力値を判断することであって、ここにおいて、前記出力値が、前記第1のニューロンモデルのための膜電位の変化の係数の指数値の逆数であり、前記指数が、前記逆数をとる前に前記時間差のパワーに上げる、判断することと、
前記出力値をディスプレイに出力することと
をさらに備える、請求項6に記載の方法。 - 前記基準時間が前記第1のニューロンモデルの第2の出力スパイク時間を備え、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項1に記載の方法。
- 前記基準時間が第2のニューロンモデルの第2の出力スパイク時間を備え、ここにおいて、前記第1のニューロンモデルの出力が前記第2のニューロンモデルの入力に結合され、ここにおいて、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項1に記載の方法。
- 前記第1のニューロンモデルが、前記第1のニューロンモデルのための第1の膜電位の変化の第1の係数を有し、ここにおいて、前記第2のニューロンモデルが、変化の前記第1の係数とは異なる、前記第2のニューロンモデルのための第2の膜電位の変化の第2の係数を有する、請求項13に記載の方法。
- 前記第2のニューロンモデルが、前記第1のニューロンモデルのための前記基準時間から遅延された別の基準時間を使用する、請求項13に記載の方法。
- 前記第1のニューロンモデルが反リーキー積分発火(ALIF)ニューロンモデルを備える、請求項1に記載の方法。
- 前記第1のニューロンモデルは、指数関数的に増大する膜電位を有し、不在において脱分極し続け、ここにおいて、興奮性入力は、前記第1のニューロンモデルを、前記第1のニューロンモデルが前記興奮性入力なしに発火するであろうよりもすぐに発火させる、請求項1に記載の方法。
- 前記出力スパイクを放出した後に、前記第1のニューロンモデルの膜電位を0を上回る公称設定に再設定すること
をさらに備える、請求項1に記載の方法。 - 前記入力を受信することが、所望の一時的な分解能に基づくサンプリングレートを用いて前記入力をサンプリングすることを備え、ここにおいて、前記相対時間を判断することが、前記相対時間を前記一時的な分解能に量子化することを備える、請求項1に記載の方法。
- スパイキングニューラルネットワークを実行するための装置であって、
第1のニューロンモデルにおいて少なくとも1つの入力を受信することと、
前記入力に基づいて、前記第1のニューロンモデルの第1の出力スパイク時間と基準時間との間の相対時間を判断することと、
前記相対時間に基づいて前記第1のニューロンモデルから出力スパイクを放出することと
を行うために構成された処理ユニット
を備える、装置。 - 前記入力がバイナリ値入力スパイクを備える、請求項20に記載の装置。
- 前記入力が入力値を備え、ここにおいて、前記処理ユニットが、前記相対時間として前記入力値を符号化することによって前記相対時間を判断するために構成された、請求項20に記載の装置。
- 前記符号化することが、前記入力値の対数の負数として前記相対時間を計算することを備える、請求項22に記載の装置。
- 前記対数が、前記第1のニューロンモデルのための膜電位の関数として前記膜電位の変化の係数の指数値に等しい底を有する、請求項23に記載の装置。
- 前記処理ユニットは、
前記第1のニューロンモデルによってモデル化される関数に基づいて前記少なくとも1つの入力における遅延を判断することと、および
前記遅延に基づいて前記相対時間を調整することであって、その結果、前記出力スパイクが、前記調整された相対時間に基づいて放出されること、
を行うためにさらに構成された、請求項20に記載の装置。 - 前記関数が線形変換を備える、請求項25に記載の装置。
- 前記関数がスカラーによる乗算を備え、ここにおいて、前記処理ユニットが、前記遅延を判断するために前記スカラーの絶対値を計算することによって前記遅延を判断するために構成され、ここにおいて、前記スカラーが負である場合は、前記第1のニューロンモデルへの前記入力に関連するシナプスが抑制性シナプスとして使用され、ここにおいて、前記スカラーが正である場合は、前記第1のニューロンモデルへの前記入力に関連する前記シナプスが興奮性シナプスとして使用される、請求項25に記載の装置。
- 前記処理ユニットが、前記遅延を所望の一時的な分解能に量子化することによって前記遅延を判断するために構成され、ここにおいて、前記処理ユニットが、前記量子化された遅延に基づいて前記相対時間を調整することによって前記相対時間を調整するために構成される、請求項25に記載の装置。
- 前記関数の精度が前記一時的な分解能に依存する、請求項28に記載の装置。
- 前記処理ユニットは、
前記放出された出力スパイクの時間と前記基準時間との間の時間差に基づいて前記第1のニューロンモデルのための出力値を判断することであって、ここにおいて、前記出力値が、前記第1のニューロンモデルのための膜電位の変化の係数の指数値の逆数であり、前記指数が、前記逆数をとる前に前記時間差のパワーに上げる、判断することと、
前記出力値をディスプレイに出力することと
を行うためにさらに構成された、請求項25に記載の装置。 - 前記基準時間が前記第1のニューロンモデルの第2の出力スパイク時間を備え、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項20に記載の装置。
- 前記基準時間が第2のニューロンモデルの第2の出力スパイク時間を備え、ここにおいて、前記第1のニューロンモデルの出力が前記第2のニューロンモデルの入力に結合され、ここにおいて、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項20に記載の装置。
- 前記第1のニューロンモデルが、前記第1のニューロンモデルのための第1の膜電位の変化の第1の係数を有し、ここにおいて、前記第2のニューロンモデルが、変化の前記第1の係数とは異なる、前記第2のニューロンモデルのための第2の膜電位の変化の第2の係数を有する、請求項32に記載の装置。
- 前記第2のニューロンモデルが、前記第1のニューロンモデルのための前記基準時間から遅延された別の基準時間を使用する、請求項32に記載の装置。
- 前記第1のニューロンモデルが反リーキー積分発火(ALIF)ニューロンモデルを備える、請求項20に記載の装置。
- 前記第1のニューロンモデルは、指数関数的に増大する膜電位を有し、不在において脱分極し続け、ここにおいて、興奮性入力は、前記第1のニューロンモデルを、前記第1のニューロンモデルが前記興奮性入力なしに発火するであろうよりもすぐに発火させる、請求項20に記載の装置。
- 前記処理ユニットは、
前記出力スパイクが放出された後に、前記第1のニューロンモデルの膜電位を0を上回る公称設定に再設定する
ためにさらに構成された、請求項20に記載の装置。 - 前記処理ユニットが、所望の一時的な分解能に基づくサンプリングレートを用いて前記入力をサンプリングすることによって前記入力を受信するために構成され、ここにおいて、前記処理ユニットが、前記相対時間を前記一時的な分解能に量子化することによって前記相対時間を判断するために構成された、請求項20に記載の装置。
- スパイキングニューラルネットワークを実行するための装置であって、
第1のニューロンモデルにおいて少なくとも1つの入力を受信するための手段と、
前記入力に基づいて、前記第1のニューロンモデルの第1の出力スパイク時間と基準時間との間の相対時間を判断するための手段と、
前記相対時間に基づいて前記第1のニューロンモデルから出力スパイクを放出するための手段と
を備える、装置。 - 前記入力がバイナリ値入力スパイクを備える、請求項39に記載の装置。
- 前記入力が入力値を備え、ここにおいて、前記相対時間を判断するための前記手段が、前記相対時間として前記入力値を符号化するために構成された、請求項39に記載の装置。
- 前記入力値を符号化することが、前記入力値の対数の負数として前記相対時間を計算することを備える、請求項41に記載の装置。
- 前記対数が、前記第1のニューロンモデルのための膜電位の関数として前記膜電位の変化の係数の指数値に等しい底を有する、請求項42に記載の装置。
- 前記第1のニューロンモデルによってモデル化される関数に基づいて前記少なくとも1つの入力における遅延を判断するための手段と、
前記遅延に基づいて前記相対時間を調整するための手段であって、その結果、放出するための前記手段が、前記調整された相対時間に基づいて前記出力スパイクを放出するために構成される、調整するための手段と
をさらに備える、請求項39に記載の装置。 - 前記関数が線形変換を備える、請求項44に記載の装置。
- 前記関数がスカラーによる乗算を備え、ここにおいて、前記遅延を判断するための前記手段が、前記遅延を判断するために前記スカラーの絶対値を計算するために構成され、ここにおいて、前記スカラーが負である場合は、前記第1のニューロンモデルへの前記入力に関連するシナプスが抑制性シナプスとして使用され、ここにおいて、前記スカラーが正である場合は、前記第1のニューロンモデルへの前記入力に関連する前記シナプスが興奮性シナプスとして使用される、請求項44に記載の装置。
- 前記遅延を判断するための前記手段が、前記遅延を所望の一時的な分解能に量子化するために構成され、ここにおいて、前記相対時間を調整するための前記手段が、前記量子化された遅延に基づいて前記相対時間を調整するために構成された、請求項44に記載の装置。
- 前記関数の精度が前記一時的な分解能に依存する、請求項47に記載の装置。
- 前記放出された出力スパイクの時間と前記基準時間との間の時間差に基づいて前記第1のニューロンモデルのための出力値を判断するための手段であって、ここにおいて、前記出力値が、前記第1のニューロンモデルのための膜電位の変化の係数の指数値の逆数であり、前記指数が、前記逆数をとる前に前記時間差のパワーに上げる、判断するための手段と、
前記出力値を前記出力値を示すための手段に出力するための手段と
をさらに備える、請求項44に記載の装置。 - 前記基準時間が前記第1のニューロンモデルの第2の出力スパイク時間を備え、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項39に記載の装置。
- 前記基準時間が第2のニューロンモデルの第2の出力スパイク時間を備え、ここにおいて、前記第1のニューロンモデルの出力が前記第2のニューロンモデルの入力に結合され、ここにおいて、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項39に記載の装置。
- 前記第1のニューロンモデルが、前記第1のニューロンモデルのための第1の膜電位の変化の第1の係数を有し、ここにおいて、前記第2のニューロンモデルが、変化の前記第1の係数とは異なる、前記第2のニューロンモデルのための第2の膜電位の変化の第2の係数を有する、請求項51に記載の装置。
- 前記第2のニューロンモデルが、前記第1のニューロンモデルのための前記基準時間から遅延された別の基準時間を使用する、請求項51に記載の装置。
- 前記第1のニューロンモデルが反リーキー積分発火(ALIF)ニューロンモデルを備える、請求項39に記載の装置。
- 前記第1のニューロンモデルは、指数関数的に増大する膜電位を有し、不在において脱分極し続け、ここにおいて、興奮性入力は、前記第1のニューロンモデルが、前記第1のニューロンモデルが前記興奮性入力なしに発火するであろうよりもすぐに発火させる、請求項39に記載の装置。
- 前記出力スパイクが放出された後に、前記第1のニューロンモデルの膜電位を0を上回る公称設定に再設定するための手段
をさらに備える、請求項39に記載の装置。 - 前記入力を受信するための前記手段が、所望の一時的な分解能に基づくサンプリングレートを用いて前記入力をサンプリングするために構成され、ここにおいて、前記相対時間を判断するための前記手段が、前記相対時間を前記一時的な分解能に量子化するために構成された、請求項39に記載の装置。
- スパイキングニューラルネットワークを実行するためのコンピュータプログラム製品であって、
第1のニューロンモデルにおいて少なくとも1つの入力を受信することと、
前記入力に基づいて、前記第1のニューロンモデルの第1の出力スパイク時間と基準時間との間の相対時間を判断することと、
前記相対時間に基づいて前記第1のニューロンモデルから出力スパイクを放出することと
を行うために実行可能な命令を備えるコンピュータ可読媒体を備える、コンピュータプログラム製品。 - 前記入力がバイナリ値入力スパイクを備える、請求項58に記載のコンピュータプログラム製品。
- 前記入力が入力値を備え、ここにおいて、前記相対時間を判断することが、前記相対時間として前記入力値を符号化することを備える、請求項58に記載のコンピュータプログラム製品。
- 前記符号化することが、前記入力値の対数の負数として前記相対時間を計算することを備える、請求項60に記載のコンピュータプログラム製品。
- 前記対数が、前記第1のニューロンモデルのための膜電位の関数として前記膜電位の変化の係数の指数値に等しい底を有する、請求項61に記載のコンピュータプログラム製品。
- 前記第1のニューロンモデルによってモデル化される関数に基づいて前記少なくとも1つの入力における遅延を判断することと、
前記遅延に基づいて前記相対時間を調整することであって、その結果、前記放出することが、前記調整された相対時間に基づいて前記出力スパイクを放出することを備える、調整することと
を行うために実行可能な命令をさらに備える、請求項58に記載のコンピュータプログラム製品。 - 前記関数が線形変換を備える、請求項63に記載のコンピュータプログラム製品。
- 前記関数がスカラーによる乗算を備え、ここにおいて、前記遅延を判断することが、前記遅延を判断するために前記スカラーの絶対値を計算することを備え、ここにおいて、前記スカラーが負である場合は、前記第1のニューロンモデルへの前記入力に関連するシナプスが抑制性シナプスとして使用され、ここにおいて、前記スカラーが正である場合は、前記第1のニューロンモデルへの前記入力に関連する前記シナプスが興奮性シナプスとして使用される、請求項63に記載のコンピュータプログラム製品。
- 前記遅延を判断することが、前記遅延を所望の一時的な分解能に量子化することを備え、ここにおいて、前記相対時間を調整することが、前記量子化された遅延に基づいて前記相対時間を調整することを備える、請求項63に記載のコンピュータプログラム製品。
- 前記関数の精度が前記一時的な分解能に依存する、請求項66に記載のコンピュータプログラム製品。
- 前記放出された出力スパイクの時間と前記基準時間との間の時間差に基づいて前記第1のニューロンモデルのための出力値を判断することであって、ここにおいて、前記出力値が、前記第1のニューロンモデルのための膜電位の変化の係数の指数値の逆数であり、前記指数が、前記逆数をとる前に前記時間差のパワーに上げる、判断することと、
前記出力値をディスプレイに出力することと
を行うために実行可能な命令をさらに備える、請求項63に記載のコンピュータプログラム製品。 - 前記基準時間が前記第1のニューロンモデルの第2の出力スパイク時間を備え、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項58に記載のコンピュータプログラム製品。
- 前記基準時間が第2のニューロンモデルの第2の出力スパイク時間を備え、ここにおいて、前記第1のニューロンモデルの出力が前記第2のニューロンモデルの入力に結合され、ここにおいて、前記第2の出力スパイク時間が前記第1の出力スパイク時間の前に発生する、請求項58に記載のコンピュータプログラム製品。
- 前記第1のニューロンモデルが、前記第1のニューロンモデルのための第1の膜電位の変化の第1の係数を有し、ここにおいて、前記第2のニューロンモデルが、変化の前記第1の係数とは異なる、前記第2のニューロンモデルのための第2の膜電位の変化の第2の係数を有する、請求項70に記載のコンピュータプログラム製品。
- 前記第2のニューロンモデルが、前記第1のニューロンモデルのための前記基準時間から遅延された別の基準時間を使用する、請求項70に記載のコンピュータプログラム製品。
- 前記第1のニューロンモデルが反リーキー積分発火(ALIF)ニューロンモデルを備える、請求項58に記載のコンピュータプログラム製品。
- 前記第1のニューロンモデルは、指数関数的に増大する膜電位を有し、不在において脱分極し続け、ここにおいて、興奮性入力は、前記第1のニューロンモデルを、前記第1のニューロンモデルが前記興奮性入力なしに発火するであろうよりもすぐに発火させる、請求項58に記載のコンピュータプログラム製品。
- 前記出力スパイクを放出した後に、前記第1のニューロンモデルの膜電位を0を上回る公称設定に再設定する
ために実行可能な命令をさらに備える、請求項58に記載のコンピュータプログラム製品。 - 前記入力を受信することが、所望の一時的な分解能に基づくサンプリングレートを用いて前記入力をサンプリングすることを備え、ここにおいて、前記相対時間を判断することが、前記相対時間を前記一時的な分解能に量子化することを備える、請求項58に記載のコンピュータプログラム製品。
- 前記関数が、恒常的プロセスまたはターゲット出力遅延に基づく学習関数である、請求項6に記載の方法。
- 前記関数が、恒常的プロセスまたはターゲット出力遅延に基づく学習関数である、請求項25に記載の装置。
- 前記関数が、恒常的プロセスまたはターゲット出力遅延に基づく学習関数である、請求項44に記載の装置。
- 前記関数が、恒常的プロセスまたはターゲット出力遅延に基づく学習関数である、請求項63に記載のコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/368,994 | 2012-02-08 | ||
US13/368,994 US9111225B2 (en) | 2012-02-08 | 2012-02-08 | Methods and apparatus for spiking neural computation |
PCT/US2013/025210 WO2013119861A1 (en) | 2012-02-08 | 2013-02-07 | Methods and apparatus for spiking neural computation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015510193A true JP2015510193A (ja) | 2015-04-02 |
JP2015510193A5 JP2015510193A5 (ja) | 2017-08-10 |
JP6272784B2 JP6272784B2 (ja) | 2018-01-31 |
Family
ID=47754984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014556690A Active JP6272784B2 (ja) | 2012-02-08 | 2013-02-07 | スパイキングニューラル計算のための方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9111225B2 (ja) |
EP (1) | EP2812853A1 (ja) |
JP (1) | JP6272784B2 (ja) |
KR (1) | KR20140129067A (ja) |
CN (1) | CN104094295B (ja) |
BR (1) | BR112014019743A8 (ja) |
WO (1) | WO2013119861A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190140276A (ko) * | 2018-06-11 | 2019-12-19 | 고려대학교 산학협력단 | 비지도 학습장치 및 그 학습방법 |
KR102339485B1 (ko) * | 2020-06-30 | 2021-12-15 | 강원대학교산학협력단 | 인공신경망을 이용한 아크신호 검출방법 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9367797B2 (en) | 2012-02-08 | 2016-06-14 | Jason Frank Hunzinger | Methods and apparatus for spiking neural computation |
US9208431B2 (en) | 2012-05-10 | 2015-12-08 | Qualcomm Incorporated | Method and apparatus for strategic synaptic failure and learning in spiking neural networks |
US9015096B2 (en) * | 2012-05-30 | 2015-04-21 | Qualcomm Incorporated | Continuous time spiking neural network event-based simulation that schedules co-pending events using an indexable list of nodes |
US9369340B2 (en) * | 2013-06-30 | 2016-06-14 | Jive Software, Inc. | User-centered engagement analysis |
US9275329B2 (en) * | 2013-08-12 | 2016-03-01 | Qualcomm Incorporated | Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models |
US10339447B2 (en) * | 2014-01-23 | 2019-07-02 | Qualcomm Incorporated | Configuring sparse neuronal networks |
US9269045B2 (en) * | 2014-02-14 | 2016-02-23 | Qualcomm Incorporated | Auditory source separation in a spiking neural network |
US9536189B2 (en) | 2014-02-20 | 2017-01-03 | Qualcomm Incorporated | Phase-coding for coordinate transformation |
US20150242745A1 (en) * | 2014-02-21 | 2015-08-27 | Qualcomm Incorporated | Event-based inference and learning for stochastic spiking bayesian networks |
US9672464B2 (en) * | 2014-02-28 | 2017-06-06 | Qualcomm Incorporated | Method and apparatus for efficient implementation of common neuron models |
US20150269485A1 (en) * | 2014-03-24 | 2015-09-24 | Qualcomm Incorporated | Cold neuron spike timing back-propagation |
US10783900B2 (en) * | 2014-10-03 | 2020-09-22 | Google Llc | Convolutional, long short-term memory, fully connected deep neural networks |
US11126913B2 (en) * | 2015-07-23 | 2021-09-21 | Applied Brain Research Inc | Methods and systems for implementing deep spiking neural networks |
US10671912B2 (en) * | 2016-09-13 | 2020-06-02 | Sap Se | Spatio-temporal spiking neural networks in neuromorphic hardware systems |
US11037054B2 (en) | 2016-12-20 | 2021-06-15 | Intel Corporation | Trace-based neuromorphic architecture for advanced learning |
CN106875004B (zh) * | 2017-01-20 | 2019-09-10 | 北京灵汐科技有限公司 | 复合模式神经元信息处理方法和系统 |
US10107959B2 (en) | 2017-02-02 | 2018-10-23 | International Business Machines Corporation | Waveguide architecture for photonic neural component |
US10031287B1 (en) | 2017-02-02 | 2018-07-24 | International Business Machines Corporation | Waveguide architecture for photonic neural component with multiplexed optical signals on inter-node waveguides |
US11200484B2 (en) | 2018-09-06 | 2021-12-14 | International Business Machines Corporation | Probability propagation over factor graphs |
KR101951914B1 (ko) * | 2018-10-08 | 2019-02-26 | 넷마블 주식회사 | 데이터 변화의 검출 및 표시를 위한 장치 및 방법 |
JP7108570B2 (ja) | 2019-04-01 | 2022-07-28 | 出光興産株式会社 | 流動接触分解ガソリンの製造方法 |
KR20210083624A (ko) | 2019-12-27 | 2021-07-07 | 삼성전자주식회사 | 신경망의 데이터 입력 및 출력을 제어하는 제어 방법 및 장치 |
CN114254106A (zh) * | 2020-09-25 | 2022-03-29 | 北京灵汐科技有限公司 | 文本分类方法、装置、设备及存储介质 |
KR102637568B1 (ko) * | 2020-11-23 | 2024-02-19 | 충북대학교 산학협력단 | 스파이킹 뉴럴 네트워크를 최적화하는 방법 및 장치 |
CN114997391B (zh) * | 2022-08-02 | 2022-11-29 | 深圳时识科技有限公司 | 电子神经系统中的泄露方法、芯片及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262157A (ja) * | 1994-03-17 | 1995-10-13 | Kumamoto Techno Porisu Zaidan | ニューラルネットワークおよびそのための回路 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5355434A (en) * | 1991-08-19 | 1994-10-11 | Toyoda Koki Kabushiki Kaisha | Method and apparatus for performing learning in a neural network |
IL133384A0 (en) * | 1997-06-11 | 2001-04-30 | Univ Southern California | Dynamic synapse for signal processing in neural networks |
US6581046B1 (en) | 1997-10-10 | 2003-06-17 | Yeda Research And Development Co. Ltd. | Neuronal phase-locked loops |
JP4392089B2 (ja) | 1999-05-27 | 2009-12-24 | 株式会社デンソー | ニューロン、当該ニューロンを用いて構成された階層型ニューラルネットワーク及び当該ニューロン内部での乗算処理に用いられる乗算回路 |
US6618712B1 (en) | 1999-05-28 | 2003-09-09 | Sandia Corporation | Particle analysis using laser ablation mass spectroscopy |
US7430546B1 (en) | 2003-06-07 | 2008-09-30 | Roland Erwin Suri | Applications of an algorithm that mimics cortical processing |
WO2005007075A2 (en) | 2003-07-21 | 2005-01-27 | Ai-Semi Ltd. | Adaptive resynchronization therapy system |
EP1515270A1 (en) * | 2003-09-09 | 2005-03-16 | Semeion | An artificial neural network |
US7958071B2 (en) | 2007-04-19 | 2011-06-07 | Hewlett-Packard Development Company, L.P. | Computational nodes and computational-node networks that include dynamical-nanodevice connections |
WO2009027980A1 (en) | 2007-08-28 | 2009-03-05 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method, device and system for speech recognition |
US8250011B2 (en) | 2008-09-21 | 2012-08-21 | Van Der Made Peter A J | Autonomous learning dynamic artificial neural computing device and brain inspired system |
US20100312736A1 (en) | 2009-06-05 | 2010-12-09 | The Regents Of The University Of California | Critical Branching Neural Computation Apparatus and Methods |
US8467623B2 (en) * | 2010-03-26 | 2013-06-18 | Brain Corporation | Invariant pulse latency coding systems and methods systems and methods |
US20130204814A1 (en) | 2012-02-08 | 2013-08-08 | Qualcomm Incorporated | Methods and apparatus for spiking neural computation |
US9367797B2 (en) | 2012-02-08 | 2016-06-14 | Jason Frank Hunzinger | Methods and apparatus for spiking neural computation |
-
2012
- 2012-02-08 US US13/368,994 patent/US9111225B2/en not_active Expired - Fee Related
-
2013
- 2013-02-07 BR BR112014019743A patent/BR112014019743A8/pt not_active IP Right Cessation
- 2013-02-07 CN CN201380008278.7A patent/CN104094295B/zh not_active Expired - Fee Related
- 2013-02-07 JP JP2014556690A patent/JP6272784B2/ja active Active
- 2013-02-07 WO PCT/US2013/025210 patent/WO2013119861A1/en active Application Filing
- 2013-02-07 EP EP13706808.6A patent/EP2812853A1/en not_active Withdrawn
- 2013-02-07 KR KR20147024203A patent/KR20140129067A/ko not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262157A (ja) * | 1994-03-17 | 1995-10-13 | Kumamoto Techno Porisu Zaidan | ニューラルネットワークおよびそのための回路 |
Non-Patent Citations (1)
Title |
---|
RUNCHUN WANG 外3名: "A programmable axonal propagation delay circuit for time-delay spiking neural networks", 2011 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS (ISCAS), JPN5015003943, 15 May 2011 (2011-05-15), US, pages 869 - 872, XP031997769, ISSN: 0003690541, DOI: 10.1109/ISCAS.2011.5937704 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190140276A (ko) * | 2018-06-11 | 2019-12-19 | 고려대학교 산학협력단 | 비지도 학습장치 및 그 학습방법 |
KR102091498B1 (ko) | 2018-06-11 | 2020-03-24 | 고려대학교 산학협력단 | 비지도 학습장치 및 그 학습방법 |
KR102339485B1 (ko) * | 2020-06-30 | 2021-12-15 | 강원대학교산학협력단 | 인공신경망을 이용한 아크신호 검출방법 |
Also Published As
Publication number | Publication date |
---|---|
CN104094295B (zh) | 2017-05-31 |
US20130204819A1 (en) | 2013-08-08 |
WO2013119861A1 (en) | 2013-08-15 |
BR112014019743A2 (ja) | 2017-06-20 |
JP6272784B2 (ja) | 2018-01-31 |
EP2812853A1 (en) | 2014-12-17 |
CN104094295A (zh) | 2014-10-08 |
KR20140129067A (ko) | 2014-11-06 |
BR112014019743A8 (pt) | 2017-07-11 |
US9111225B2 (en) | 2015-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6017590B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP6227565B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP6272784B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP2015510193A5 (ja) | ||
US9558442B2 (en) | Monitoring neural networks with shadow networks | |
US20130103626A1 (en) | Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks | |
JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
US20150212861A1 (en) | Value synchronization across neural processors | |
TW201602807A (zh) | Cold神經元尖峰時序反向傳播 | |
US9652711B2 (en) | Analog signal reconstruction and recognition via sub-threshold modulation | |
JP2016536664A (ja) | ニューラルダイナミクスを修正するための自動化された方法 | |
CN112085198A (zh) | 基于全局反馈以及局部突触可塑的脉冲神经网络优化方法 | |
US20150066826A1 (en) | Methods and apparatus for implementing a breakpoint determination unit in an artificial nervous system | |
JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
CN113454648A (zh) | 循环神经网络中的勒让德存储器单元 | |
JP2017515207A (ja) | 可塑性シナプス管理 | |
US9460384B2 (en) | Effecting modulation by global scalar values in a spiking neural network | |
CN115879518A (zh) | 一种基于ai芯片的任务处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170621 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20170626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6272784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |