JP6227565B2 - スパイキングニューラル計算のための方法および装置 - Google Patents
スパイキングニューラル計算のための方法および装置 Download PDFInfo
- Publication number
- JP6227565B2 JP6227565B2 JP2014556696A JP2014556696A JP6227565B2 JP 6227565 B2 JP6227565 B2 JP 6227565B2 JP 2014556696 A JP2014556696 A JP 2014556696A JP 2014556696 A JP2014556696 A JP 2014556696A JP 6227565 B2 JP6227565 B2 JP 6227565B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- neuron
- inputs
- logical
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
[0001]本出願は、両方とも参照により本明細書に組み込まれる、本明細書とともに出願された「METHODS AND APPARATUS FOR SPIKING NEURAL COMPUTATION」と題する米国特許出願第13/368,994号(代理人整理番号第113075U1号)、および本明細書とともに出願された「METHODS AND APPARATUS FOR SPIKING NEURAL COMPUTATION」と題する米国特許出願第13/369,080号(代理人整理番号第113075U2号)に関する。
[0072]図1に、本開示のいくつかの態様による、複数のレベルのニューロンをもつ例示的なニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104を介してニューロンの別のレベル106に結合されたニューロンのあるレベル102を備え得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、典型的なニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。
[0076]ニューラルネットワークを設計するための様々な方法が提案されている。たとえば、ニューラルシミュレーションを設計または合成する方法が、最近、ニューラルエンジニアリングフレームワーク(NEF:Neural Engineering Framework)を使用してEliasmithおよびAndersonによって提案された。たとえば、Chris Eliasmith&Charles H.Anderson、Neural Engineering:Computation, Representation, and Dynamics in Neurobiological Systems、MIT Press(2003)、http://compneuro.uwaterloo.ca、およびChris Eliasmith、A Unified Approach to Building and Controlling Spiking Attractor Networks、Neural Computation 17、1276−1314(2005)を参照されたい。この方法は、(iによってインデックス付けされた)ニューロンのセットのアクティビティ{ai}において、符号化された値を表すことに依拠する。値は、アクティビティの線形関数によって推定され得、
[0095]情報が、ニューロンのスパイク間の相対時間において、またはあるニューロンのスパイクと別のニューロンのスパイクとの間の(またはさらにより一般的に、後で明らかになるように、あるニューロンのスパイクと何らかの基準時間との間の)相対時間において符号化され得ると仮定されたい。いくつかの態様では、情報は、2つの基本形態、すなわち、(1)同じニューロンの連続するスパイク間の相対時間、および(2)あるニューロンのスパイクと別のニューロン(または基準)のスパイクとの間の相対時間において、スパイク間の相対的タイミングにおいて表され得る。
[00107]ニューロンの多くの生物学的に一貫性があるモデルが提案されている。特に生物学的に一貫性がありフレキシブルである1つのスパイキングニューロンモデルは、微分方程式の以下のペア、
上式で、ciは(コンダクタンスなどから導出された)ニューロンパラメータであり、vr、vt、およびvθは膜電圧しきい値であり、Iは時間tにおける正味入力であり、上式で、一般にvθ>vt>vrであり、一般に、不応時間期間(refractory time period)以外において、v>vrである。スパイキング条件が満たされない場合、出力y(t)=0である。しかしながら、電圧式は、2つの領域、すなわち、(1)ニューロンがリーキー積分発火(LIF)ニューロンのように動作する、v<vt、および(2)ニューロンが反リーキー積分発火(ALIF)ニューロンのように動作する、v>vtにおいて動作する。
[00138]入力が、スパイクトレインyi(t)としてシナプスに与えられ得る。しかしながら、感覚入力シーケンスは、しばしば実数値形態xi(t)のものである。そのようなシーケンスは、いくつかの方法でSRまたはNSRスパイクトレインに変換され得る。最初に、基本形態が考慮される。
[00153]本開示のいくつかの態様は、スケーリングの例を用いて証明され得る。この例では、スパイキングニューロンはxk(t)=aikxi(t)を実行し得る。言い換えれば、所望の出力は、入力のスケーリングされたバージョンである。この例は、基準時間として出力ニューロンのスパイクを使用して非同期フレームモードで全部スパイキングネットワーク(すべての入力および出力がスパイクの形態の入力および出力である)を使用する。時間分解能は無限(連続)または離散(固定ステップにおいてにせよ可変ステップにおいてにせよ)であり得ることを想起されたい。
[00161]この例では、上記と同じ例が使用されるが、負の係数が含まれる。10個の入力が使用され、任意の係数が、範囲、たとえば小数[0.5 0.65 0.55 0.5 −0.39 −0.59 −0.4 0.81 0.88 0.35]にわたって選定される。遅延を計算するために、これらの絶対値が使用される。ただし、負値入力について、シナプスは抑制性に切り替えられる。
[00163]様々な好適な方法のいずれかで雑音項を追加することによって、雑音がALIFモデルに追加され得る。1つの単純な方法は、微分方程式係数p+に雑音項を追加することである。
[00166]このセクションは、2つの相対時間形態、すなわち自己参照(SR)と非自己参照(NSR)との間で変換することに対処する。自己参照(SR)時間を非自己参照シナプス後ニューロン時間(NSR−POST)に変換することは、(たとえば、図7に関して)上記で説明されたニューロンモデルが、NSR−POST入力タイミングを許容し、SRタイミングを出力するので、特別の関心の対象である。そのニューロンの入力を別のニューロンに供給することは、たいがい変換を伴い得る。NSRサブ形態の差異は、シナプス前スパイク時間が、シナプス後ニューロンスパイク時間(NSR−POST)に対するものであるのか、第3のニューロンのスパイク時間(NSR−THIRD)に対するものであるのかの間の差異である。
[00194]このセクションは、変動する数の入力とともに上記で説明されたニューロンモデルの線形性の特徴づけに対処する。この特徴づけのために、ランダム入力およびランダム係数が使用される。離散系がこの特徴づけのために任意に選択され、簡単のために、Δt=1msの時間分解能が使用される。線形性グラフ2101、2102、2104、2108、2116、および2132が、それぞれ1つ、2つ、4つ、8つ、16個、および32個の入力について図21に示されている。入力の数が増加するにつれて、実効分解能は、範囲が増加するので、増加する。しかしながら、精度は減少し得る。これは一様分布の結果にすぎない。その効果が出力(および入力および係数)の値の範囲に応じて変動し得ることに留意されたい。精度はまた、一般に、上記の例において示されたように、より良い時間分解能であれば根本的に改善する。
[00195]ある程度まで、単純なモデルを含む、LIFおよび他のニューロンモデルは、線形的に予測可能な発火を有する。その差は、線形予測子を使用してそれを用いて予測することができる忠実度または精度にある。
[00208]スパイキングネットワークにおける学習は、一般に、長期増強(LTP)と長期抑圧(LTD)の両方を備えるペアワイズスパイクタイミング依存可塑性(STDP)則を使用して、モデル化される。LTPは、一般にシナプス後ニューロンがシナプス前ニューロンの後に発火するとき、シナプス荷重を増加させる。LTDは、一般に逆の順序が現れるとき、シナプス荷重を減少させる。一般に、指数モデルが両方のために使用される。
[00223]この例では、遅延学習則は、雑音の多いバイナリ入力ベクトルのための係数を学習するために使用される。15個の入力(シナプス前ニューロン)、および(合計15個の入力について)各々からシナプス後ニューロンへの1つのシナプス/結合があると仮定されたい。(ランダムに選定された)同じバイナリ入力組合せにシナプス後ニューロンを繰り返しさらすことによって、遅延学習則は、シナプス後ニューロンが、所望のターゲット時間に発火を生じる遅延を学習することを可能にする。早い入力(すなわち、短い相対入力時間)がブール1を表すために使用され得、遅い入力(すなわち、長い相対入力時間)がブール0を表すために使用され得る。図24に、本開示のいくつかの態様による、15個のシナプス前ニューロンの5つの代表(A〜E)2402とシナプス後ニューロン(F)2404とを示す。
[00227]この例では、遅延学習則は、雑音の多い実数値入力ベクトルのための係数を学習するために使用される。この例は、入力ベクトルにおける値がブールの代わりに実数値であることを除いて、上記の例と同じである。
[00229]この例では、遅延学習則は、変動するブール入力ベクトルの因果的論理関係を学習するために適用される。ここで、入力ベクトルは時間とともに変化しているが、遅延学習則が論理関係が何であるかを学習することができるかどうかを確かめるために、入力における一貫性がある論理関係が課される。第1の事例では、3つの入力のセットが、OR関係を表すために選定(1に設定)される。第2の事例では、すべての入力が、AND関係を表すために選定(1に設定)される。前の例に関しては雑音が追加される。この例では、設定は前の例と同じである。
[00233]xiを、(それぞれ)falseまたはtrueのいずれかである論理変数iを表すブール値(0または1)とする。真の論理関係{i}→jを真の原因関数(true cause function)によって定義されるものとし、
[00260]スパイクの相対時間において情報をコーディングすることによって、スパイキングニューロンを使用することの計算利点が実際にあり得る。したがって、任意の精度でスパイキングニューラルネットワークにおいて時間コーディングを効率的にシミュレートすることができるニューロンモデル(シミュレータ設計のタイプ)が本明細書で説明された。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
スパイキングニューラルネットワークを使用して学習する方法であって、
1つまたは複数の学習ニューロンモデルの各々において、論理入力のセットを与えることであって、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたは複数の学習ニューロンモデルの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習ニューロンモデルが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出する、
を備える上記方法。
[C2]
前記1つまたは複数の学習ニューロンモデルの各々について、前記調整することの前に前記論理入力の各々に関連する前記遅延を初期化すること
をさらに備える、C1に記載の方法。
[C3]
前記1つまたは複数の学習ニューロンモデルの各々において、論理入力の前記セットを与えることが、複数の論理入力を備えるグループから論理入力の各セットを選択することを備える、C1に記載の方法。
[C4]
前記グループが前記複数の論理入力の複数の否定をさらに備え、ここにおいて、論理入力の各セットを選択することが、前記複数の論理入力と前記複数の否定とを備える前記グループから論理入力の各セットを選択することを備える、C3に記載の方法。
[C5]
入力ニューロンモデルとして前記複数の論理入力の各々をモデル化することと、
前記複数の論理入力の各々について、1つまたは複数の否定ベクトルのうちの少なくとも1つが前記論理入力のための否定表示を有する場合、前記論理入力の否定を表す否定ニューロンモデルを与えることであって、ここにおいて、論理入力の各セットが前記否定ベクトルのうちの1つに従って選択される、
をさらに備えるC3に記載の方法。
[C6]
各学習ニューロンモデルが前記否定ベクトルのうちの1つに対応し、ここにおいて、前記複数の論理入力の各々について、前記入力ニューロンモデルのまたはそれの対応する否定ニューロンモデルの出力が、前記否定ベクトルに従って前記学習ニューロンモデルの入力に結合される、C5に記載の方法。
[C7]
前記入力ニューロンモデルの各々が、前記対応する否定ニューロンモデルを抑制する、C5に記載の方法。
[C8]
前記否定表示が−1を備える、C5に記載の方法。
[C9]
前記1つまたは複数の学習ニューロンモデルが、前記学習ニューロンモデルからの前記出力スパイクのタイミングに基づいて、前記真の因果的論理関係に対応する前記1つまたはより多くの論理条件を学習したと判断すること
をさらに備える、C1に記載の方法。
[C10]
前記1つまたはより多くの学習ニューロンモデルが前記1つまたはより多くの論理条件を学習したと判断することは、前記複数の学習ニューロンモデルの間の発火のパターンまたはコインシデンスを判断することを備える、C9に記載の方法。
[C11]
前記学習ニューロンモデルの各々からの出力に結合された一時的コインシデンス認識ニューロンモデルを与えることであって、ここにおいて、前記一時的コインシデンス認識ニューロンモデルは、しきい値数の前記学習ニューロンモデルがほぼ同じ時間に発火する場合、発火するために構成される、与えることと、
前記一時的コインシデンス認識ニューロンモデルが発火する場合、前記1つまたは複数の学習ニューロンモデルが、前記真の因果的論理関係に対応する前記論理条件のうちの少なくとも1つを学習した、と判断することと
をさらに備える、C1に記載の方法。
[C12]
論理入力の各セットにおいて前記入力スパイク間の前記変動するタイミングを受信することが、論理入力の前記セットにおいて変動するブールベクトルを受信することを備える、C1に記載の方法。
[C13]
前記変動するブールベクトルにおいて前記入力スパイク間の比較的長い遅延が論理FALSEを表し、前記入力スパイク間の比較的短い遅延が論理TRUEを表す、C12に記載の方法。
[C14]
スパイキングニューラルネットワークを使用して学習するための装置であって、
1つまたはより多くの学習ニューロンモデルの各々において論理入力のセットを与えることであって、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたはより多くの学習ニューロンモデルの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習ニューロンモデルが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出する、
を行うように構成された処理ユニットを備える上記装置。
[C15]
前記処理ユニットが、前記1つまたはより多くの学習ニューロンモデルの各々について、前記遅延を調整する前に前記論理入力の各々に関連する前記遅延を初期化するように構成された、C14に記載の装置。
[C16]
前記処理ユニットが、複数の論理入力を備えるグループから論理入力の各セットを選択することによって論理入力の前記セットを前記1つまたは複数の学習ニューロンモデルの各々において与えるように構成された、C14に記載の装置。
[C17]
前記グループが前記複数の論理入力の否定をさらに備え、ここにおいて、論理入力の各セットを選択することが、前記複数の論理入力と前記複数の否定とを備える前記グループから論理入力の各セットを選択することを備える、C16に記載の装置。
[C18]
前記処理ユニットは、
入力ニューロンモデルとして前記複数の論理入力の各々をモデル化することと、
前記複数の論理入力の各々について、1つまたはより多くの否定ベクトルのうちの少なくとも1つが前記論理入力のための否定表示を有する場合、前記論理入力の否定を表す否定ニューロンモデルを与えることであって、ここにおいて、論理入力の各セットが前記否定ベクトルのうちの1つに従って選択される、
を行うようにさらに構成されたC16に記載の装置。
[C19]
各学習ニューロンモデルが前記否定ベクトルのうちの1つに対応し、ここにおいて、前記複数の論理入力の各々について、前記入力ニューロンモデルのまたはそれの対応する否定ニューロンモデルの出力が、前記否定ベクトルに従って前記学習ニューロンモデルの入力に結合される、C18に記載の装置。
[C20]
前記入力ニューロンモデルの各々が、前記対応する否定ニューロンモデルを抑制する、C18に記載の装置。
[C21]
前記否定表示が−1を備える、C18に記載の装置。
[C22]
前記処理ユニットは、
前記1つまたは複数の学習ニューロンモデルが、前記学習ニューロンモデルからの前記出力スパイクのタイミングに基づいて前記真の因果的論理関係に対応する前記1つまたはより多くの論理条件を学習したと判断するようにさらに構成された、C14に記載の装置。
[C23]
前記処理ユニットは、前記1つまたは複数の学習ニューロンモデルが前記学習ニューロンモデルの間の発火のパターンまたはコインシデンスを判断することによって、前記1つまたはより多くの論理条件を学習したと判断するように構成される、C22に記載の装置。
[C24]
前記処理ユニットは、
前記学習ニューロンモデルの各々からの出力に結合された一時的コインシデンス認識ニューロンモデルを与えるように、ここにおいて、前記一時的コインシデンス認識ニューロンモデルは、しきい値数の前記学習ニューロンモデルがほぼ同じ時間に発火する場合、発火するように構成される、
前記1つまたはより多くの学習ニューロンモデルが、前記一時的コインシデンス認識ニューロンモデルが発火する場合、前記真の因果的論理関係に対応する前記論理条件のうちの少なくとも1つを学習したと判断するようにさらに構成される、C14に記載の装置。
[C25]
前記処理ユニットは、論理入力の前記セットにおいて変動するブールベクトルを受信することによって、論理入力の各セットにおいて前記入力スパイク間の前記変動するタイミングを受信するように構成される、C14に記載の装置。
[C26]
前記変動するブールベクトルにおいて前記入力スパイク間の比較的長い遅延が論理FALSEを表し、前記入力スパイク間の比較的短い遅延が論理TRUEを表す、C25に記載の装置。
[C27]
スパイキングニューラルネットワークを使用して学習するための装置であって、
1つまたはより多くの学習ニューロンモデルの各々において、論理入力のセットを与えるための手段であって、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信するための手段と、
前記1つまたはより多くの学習ニューロンモデルの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整するための手段であって、その結果、前記学習ニューロンモデルが、前記真の因果的論理関係に対応する1つまたはより多くの論理条件に従ってターゲット出力遅延に合う出力スパイクを放出する、
を備える上記装置。
[C28]
前記1つまたはより多くの学習ニューロンモデルの各々について、前記調整することの前に前記論理入力の各々に関連する前記遅延を初期化するための手段
をさらに備える、C27に記載の装置。
[C29]
前記1つまたはより多くの学習ニューロンモデルの各々において論理入力の前記セットを与えるための前記手段が、複数の論理入力を備えるグループから論理入力の各セットを選択するように構成された、C27に記載の装置。
[C30]
前記グループが前記複数の論理入力の否定をさらに備え、ここにおいて、論理入力の各セットを選択することが、前記複数の論理入力と前記複数の否定とを備える前記グループから論理入力の各セットを選択することを備える、C29に記載の装置。
[C31]
入力ニューロンモデルとして前記複数の論理入力の各々をモデル化するための手段と、
前記複数の論理入力の各々について、1つまたはより多くの否定ベクトルのうちの少なくとも1つが前記論理入力のための否定表示を有する場合、前記論理入力の否定を表す否定ニューロンモデルを与えるための手段であって、ここにおいて、論理入力の各セットが前記否定ベクトルのうちの1つに従って選択される、
をさらに備えるC29に記載の装置。
[C32]
各学習ニューロンモデルが前記否定ベクトルのうちの1つに対応し、ここにおいて、前記複数の論理入力の各々について、前記入力ニューロンモデルのまたはそれの対応する否定ニューロンモデルの出力が、前記否定ベクトルに従って前記学習ニューロンモデルの入力に結合される、C31に記載の装置。
[C33]
前記入力ニューロンモデルの各々が、前記対応する否定ニューロンモデルを抑制する、C31に記載の装置。
[C34]
前記否定表示が−1を備える、C31に記載の装置。
[C35]
前記1つまたはより多くの学習ニューロンモデルが、前記学習ニューロンモデルからの前記出力スパイクのタイミングに基づいて、前記真の因果的論理関係に対応する前記1つまたはより多くの論理条件を学習したと判断するための手段
をさらに備えるC27に記載の装置。
[C36]
前記1つまたはより多くの学習ニューロンモデルが前記1つまたは複数の論理条件を学習したと判断するための前記手段は、前記学習ニューロンモデルの間の発火のパターンまたはコインシデンスを判断するように構成されたC35に記載の装置。
[C37]
前記学習ニューロンモデルの各々からの出力に結合された一時的コインシデンス認識ニューロンモデルを与えるための手段であって、ここにおいて、前記時間コインシデンス認識ニューロンモデルは、しきい値数の前記学習ニューロンモデルがほぼ同じ時間に発火する場合、発火するように構成される、
前記一時的コインシデンス認識ニューロンモデルが発火する場合、前記1つまたは複数の学習ニューロンモデルが、前記真の因果的論理関係に対応する前記論理条件のうちの少なくとも1つを学習したと判断するための手段と
をさらに備えるC27に記載の装置。
[C38]
論理入力の各セットにおいて前記入力スパイク間の前記変動するタイミングを受信するための前記手段が、論理入力の前記セットにおいて変動するブールベクトルを受信するように構成された、C27に記載の装置。
[C39]
前記変動するブールベクトルにおいて前記入力スパイク間の比較的長い遅延が論理FALSEを表し、前記入力スパイク間の比較的短い遅延が論理TRUEを表すC38に記載の装置。
[C40]
スパイキングニューラルネットワークを使用して学習するためのコンピュータプログラム製品であって、
1つまたはより多くの学習ニューロンモデルの各々において論理入力のセットを与えることであって、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたはより多くの学習ニューロンモデルの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習ニューロンモデルが、前記真の因果的論理関係に対応する1つまたはより多くの論理条件に従ってターゲット出力遅延に合う出力スパイクを放出する、
を行うために実行可能な命令を備えるコンピュータ可読媒体を備える、コンピュータプログラム製品。
[C41]
前記1つまたはより多くの学習ニューロンモデルの各々について、前記調整することの前に前記論理入力の各々に関連する前記遅延を初期化するために実行可能な命令をさらに備える、C40に記載のコンピュータプログラム製品。
[C42]
前記1つまたはより多くの学習ニューロンモデルの各々において、論理入力の前記セットを与えることが、複数の論理入力を備えるグループから論理入力の各セットを選択することを備える、C40に記載のコンピュータプログラム製品。
[C43]
前記グループが前記複数の論理入力の否定をさらに備え、ここにおいて、論理入力の各セットを選択することが、前記複数の論理入力と前記複数の否定とを備える前記グループから論理入力の各セットを選択することを備える、C42に記載のコンピュータプログラム製品。
[C44]
入力ニューロンモデルとして前記複数の論理入力の各々をモデル化することと、
前記複数の論理入力の各々について、1つまたはより多くの否定ベクトルのうちの少なくとも1つが前記論理入力のための否定表示を有する場合、前記論理入力の否定を表す否定ニューロンモデルを与えることであって、ここにおいて、論理入力の各セットが前記否定ベクトルのうちの1つに従って選択される、
を行うために実行可能な命令をさらに備えるC42に記載のコンピュータプログラム製品。
[C45]
各学習ニューロンモデルが前記否定ベクトルのうちの1つに対応し、ここにおいて、前記複数の論理入力の各々について、前記入力ニューロンモデルのまたはそれの対応する否定ニューロンモデルの出力が、前記否定ベクトルに従って前記学習ニューロンモデルの入力に結合される、C44に記載のコンピュータプログラム製品。
[C46]
前記入力ニューロンモデルの各々が、前記対応する否定ニューロンモデルを抑制する、C44に記載のコンピュータプログラム製品。
[C47]
前記否定表示が−1を備える、C44に記載のコンピュータプログラム製品。
[C48]
前記学習ニューロンモデルからの前記出力スパイクのタイミングに基づいて、前記1つまたは複数の学習ニューロンモデルが、前記真の因果的論理関係に対応する前記1つまたは複数の論理条件を学習したと判断するために実行可能な命令をさらに備える、C40に記載のコンピュータプログラム製品。
[C49]
ここから
前記1つまたは複数の学習ニューロンモデルが前記1つまたは複数の論理条件を学習したと判断することは、前記学習ニューロンモデルの間の発火のコインシデンスまたはパターンを判断することを備える、C48に記載のコンピュータプログラム製品。
[C50]
前記学習ニューロンモデルの各々からの出力に結合された時間コインシデンス認識ニューロンモデルを与えることであって、ここにおいて、前記時間コインシデンス認識ニューロンモデルは、しきい値数の前記学習ニューロンモデルがほぼ同じ時間に発火する場合、発火するために構成
される、与えることと、
前記時間コインシデンス認識ニューロンモデルが発火する場合、前記1つまたは複数の学習ニューロンモデルが、前記真の因果的論理関係に対応する前記論理条件のうちの少なくとも1つを学習したと判断することと
を行うために実行可能な命令をさらに備える、C40に記載のコンピュータプログラム製品。
[C51]
論理入力の各セットにおいて前記入力スパイク間の前記変動するタイミングを受信することが、論理入力の前記セットにおいて変動するブールベクトルを受信することを備える、C40に記載のコンピュータプログラム製品。
[C52]
前記変動するブールベクトルにおいて、前記入力スパイク間の比較的短い遅延が論理TRUEを表し、前記入力スパイク間の比較的長い遅延が論理FALSEを表す、C51に記載のコンピュータプログラム製品。
Claims (15)
- スパイキングニューラルネットワークを使用して学習する方法であって、
1つまたは複数の学習人工ニューロンの各々において、論理入力のセットを与えることと、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたは複数の学習人工ニューロンの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習人工ニューロンが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出することと、
を備える上記方法。 - 前記1つまたは複数の学習人工ニューロンの各々について、前記調整することの前に前記論理入力の各々に関連する前記遅延を初期化することをさらに備える、請求項1に記載の方法。
- 前記1つまたは複数の学習人工ニューロンの各々において、論理入力の前記セットを与えることが、複数の論理入力を備えるグループから論理入力の各セットを選択することを備える、請求項1に記載の方法。
- 前記グループが前記複数の論理入力の複数の否定をさらに備え、ここにおいて、論理入力の各セットを選択することが、前記複数の論理入力と前記複数の否定とを備える前記グループから論理入力の各セットを選択することを備える、請求項3に記載の方法。
- 入力人工ニューロンとして前記複数の論理入力の各々をモデル化することと、
前記複数の論理入力の各々について、1つまたは複数の否定ベクトルのうちの少なくとも1つが前記論理入力のための否定表示を有する場合、前記論理入力の否定を表す否定人工ニューロンを与えることと、ここにおいて、論理入力の各セットが前記否定ベクトルのうちの1つに従って選択される、
をさらに備える請求項3に記載の方法。 - 各学習人工ニューロンが前記否定ベクトルのうちの1つに対応し、ここにおいて、前記複数の論理入力の各々について、前記入力人工ニューロンのまたはそれの対応する否定人工ニューロンの出力が、前記否定ベクトルに従って前記学習人工ニューロンの入力に結合される、請求項5に記載の方法。
- 前記入力人工ニューロンの各々が、前記対応する否定人工ニューロンを抑制する、または、
前記否定表示が−1を備える、請求項5に記載の方法。 - 前記1つまたは複数の学習人工ニューロンが、前記学習人工ニューロンからの前記出力スパイクのタイミングに基づいて、前記真の因果的論理関係に対応する前記1つまたは複数の論理条件を学習したと判断することをさらに備える、請求項1に記載の方法。
- 前記1つまたは複数の学習人工ニューロンが前記1つまたは複数の論理条件を学習したと判断することは、前記複数の学習人工ニューロンの間の発火のパターンまたはコインシデンスを判断することを備える、請求項8に記載の方法。
- 前記学習人工ニューロンの各々からの出力に結合された一時的コインシデンス認識人工ニューロンを与えることと、ここにおいて、前記一時的コインシデンス認識人工ニューロンは、しきい値数の前記学習人工ニューロンがほぼ同じ時間に発火する場合、発火するように構成される、
前記一時的コインシデンス認識人工ニューロンが発火する場合、前記1つまたは複数の学習人工ニューロンが、前記真の因果的論理関係に対応する前記論理条件のうちの少なくとも1つを学習した、と判断することと、
をさらに備える、請求項1に記載の方法。 - 論理入力の各セットにおいて前記入力スパイク間の前記変動するタイミングを受信することが、論理入力の前記セットにおいて変動するブールベクトルを受信することを備える、請求項1に記載の方法。
- 前記変動するブールベクトルにおいて前記入力スパイク間の比較的長い遅延が論理FALSEを表し、前記入力スパイク間の比較的短い遅延が論理TRUEを表す、請求項11に記載の方法。
- スパイキングニューラルネットワークを使用して学習するための装置であって、
1つまたは複数の学習人工ニューロンの各々において、論理入力のセットを与えるための手段と、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信するための手段と、
前記1つまたは複数の学習人工ニューロンの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整するための手段であって、その結果、前記学習人工ニューロンが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出するための手段と、
を備える上記装置。 - スパイキングニューラルネットワークを使用して学習するための方法を、コンピュータに実施させるためのプログラムであって、該方法は下記を具備する、
1つまたは複数の学習人工ニューロンの各々において論理入力のセットを与えることと、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたは複数の学習人工ニューロンの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習人工ニューロンが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出すること。 - スパイキングニューラルネットワークを使用して学習するための装置であって、
1つまたは複数の学習人工ニューロンの各々において論理入力のセットを与えることと、ここにおいて、真の因果的論理関係が論理入力の前記セットに課される、
論理入力の各セットにおいて入力スパイク間の変動するタイミングを受信することと、
前記1つまたは複数の学習人工ニューロンの各々について、前記受信された入力スパイクを使用して前記論理入力の各々に関連する遅延を調整することであって、その結果、前記学習人工ニューロンが、前記真の因果的論理関係に対応する1つまたは複数の論理条件に従ってターゲット出力遅延に合う出力スパイクを放出することと、
を行うように構成された処理ユニットを備える上記装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/369,095 US20130204814A1 (en) | 2012-02-08 | 2012-02-08 | Methods and apparatus for spiking neural computation |
US13/369,095 | 2012-02-08 | ||
PCT/US2013/025225 WO2013119872A1 (en) | 2012-02-08 | 2013-02-07 | Methods and apparatus for spiking neural computation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015510195A JP2015510195A (ja) | 2015-04-02 |
JP2015510195A5 JP2015510195A5 (ja) | 2016-03-03 |
JP6227565B2 true JP6227565B2 (ja) | 2017-11-08 |
Family
ID=47754987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014556696A Active JP6227565B2 (ja) | 2012-02-08 | 2013-02-07 | スパイキングニューラル計算のための方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20130204814A1 (ja) |
EP (1) | EP2812855A1 (ja) |
JP (1) | JP6227565B2 (ja) |
KR (1) | KR20140128384A (ja) |
CN (1) | CN104094294B (ja) |
BR (1) | BR112014019745A8 (ja) |
WO (1) | WO2013119872A1 (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US9111225B2 (en) | 2012-02-08 | 2015-08-18 | Qualcomm Incorporated | Methods and apparatus for spiking neural computation |
US9367797B2 (en) | 2012-02-08 | 2016-06-14 | Jason Frank Hunzinger | Methods and apparatus for spiking neural computation |
US9224090B2 (en) | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
US9208431B2 (en) | 2012-05-10 | 2015-12-08 | Qualcomm Incorporated | Method and apparatus for strategic synaptic failure and learning in spiking neural networks |
US9015096B2 (en) * | 2012-05-30 | 2015-04-21 | Qualcomm Incorporated | Continuous time spiking neural network event-based simulation that schedules co-pending events using an indexable list of nodes |
US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9311594B1 (en) * | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9239985B2 (en) * | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
US9305256B2 (en) * | 2013-10-02 | 2016-04-05 | Qualcomm Incorporated | Automated method for modifying neural dynamics |
US20150120627A1 (en) * | 2013-10-29 | 2015-04-30 | Qualcomm Incorporated | Causal saliency time inference |
US10198689B2 (en) * | 2014-01-30 | 2019-02-05 | Hrl Laboratories, Llc | Method for object detection in digital image and video using spiking neural networks |
US9536189B2 (en) * | 2014-02-20 | 2017-01-03 | Qualcomm Incorporated | Phase-coding for coordinate transformation |
US20150242745A1 (en) * | 2014-02-21 | 2015-08-27 | Qualcomm Incorporated | Event-based inference and learning for stochastic spiking bayesian networks |
US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9881252B2 (en) | 2014-09-19 | 2018-01-30 | International Business Machines Corporation | Converting digital numeric data to spike event data |
US9886662B2 (en) | 2014-09-19 | 2018-02-06 | International Business Machines Corporation | Converting spike event data to digital numeric data |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
US10262259B2 (en) * | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
CN105426957B (zh) * | 2015-11-06 | 2017-09-29 | 兰州理工大学 | 一种电磁辐射下的神经元电活动模拟器 |
KR102565273B1 (ko) | 2016-01-26 | 2023-08-09 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 학습 방법 |
US11010302B2 (en) * | 2016-10-05 | 2021-05-18 | Intel Corporation | General purpose input/output data capture and neural cache system for autonomous machines |
US10423876B2 (en) * | 2016-12-01 | 2019-09-24 | Via Alliance Semiconductor Co., Ltd. | Processor with memory array operable as either victim cache or neural network unit memory |
US10339444B2 (en) | 2017-01-20 | 2019-07-02 | International Business Machines Corporation | Monitoring potential of neuron circuits |
CN106909969B (zh) * | 2017-01-25 | 2020-02-21 | 清华大学 | 神经网络信息接收方法和系统 |
CN107798384B (zh) * | 2017-10-31 | 2020-10-16 | 山东第一医科大学(山东省医学科学院) | 一种基于可进化脉冲神经网络的鸢尾花卉分类方法和装置 |
KR101951914B1 (ko) * | 2018-10-08 | 2019-02-26 | 넷마블 주식회사 | 데이터 변화의 검출 및 표시를 위한 장치 및 방법 |
CN112308107A (zh) * | 2019-07-25 | 2021-02-02 | 智力芯片有限责任公司 | 可重构和时间编码卷积尖峰神经网络中基于事件的特征分类 |
US12079707B2 (en) | 2020-10-21 | 2024-09-03 | International Business Machines Corporation | Neural apparatus for a neural network system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262157A (ja) * | 1994-03-17 | 1995-10-13 | Kumamoto Techno Porisu Zaidan | ニューラルネットワークおよびそのための回路 |
US6618712B1 (en) * | 1999-05-28 | 2003-09-09 | Sandia Corporation | Particle analysis using laser ablation mass spectroscopy |
JP4478296B2 (ja) * | 2000-06-16 | 2010-06-09 | キヤノン株式会社 | パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路 |
US7430546B1 (en) * | 2003-06-07 | 2008-09-30 | Roland Erwin Suri | Applications of an algorithm that mimics cortical processing |
US8250011B2 (en) * | 2008-09-21 | 2012-08-21 | Van Der Made Peter A J | Autonomous learning dynamic artificial neural computing device and brain inspired system |
-
2012
- 2012-02-08 US US13/369,095 patent/US20130204814A1/en not_active Abandoned
-
2013
- 2013-02-07 EP EP13706811.0A patent/EP2812855A1/en not_active Ceased
- 2013-02-07 JP JP2014556696A patent/JP6227565B2/ja active Active
- 2013-02-07 KR KR20147024221A patent/KR20140128384A/ko not_active Application Discontinuation
- 2013-02-07 WO PCT/US2013/025225 patent/WO2013119872A1/en active Application Filing
- 2013-02-07 BR BR112014019745A patent/BR112014019745A8/pt not_active IP Right Cessation
- 2013-02-07 CN CN201380008240.XA patent/CN104094294B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104094294B (zh) | 2018-12-25 |
EP2812855A1 (en) | 2014-12-17 |
KR20140128384A (ko) | 2014-11-05 |
WO2013119872A1 (en) | 2013-08-15 |
BR112014019745A8 (pt) | 2017-07-11 |
US20130204814A1 (en) | 2013-08-08 |
CN104094294A (zh) | 2014-10-08 |
BR112014019745A2 (ja) | 2017-06-20 |
JP2015510195A (ja) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6227565B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP6017590B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP6272784B2 (ja) | スパイキングニューラル計算のための方法および装置 | |
JP2015510193A5 (ja) | ||
AU2020385049B2 (en) | Identifying optimal weights to improve prediction accuracy in machine learning techniques | |
JP6092477B2 (ja) | ニューラルダイナミクスを修正するための自動化された方法 | |
JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
JP2017515205A (ja) | Coldニューロンスパイクタイミングバックプロバゲーション | |
WO2015148189A2 (en) | Differential encoding in neural networks | |
JP2017509952A (ja) | シャドウネットワークでニューラルネットワークを監視すること | |
US9652711B2 (en) | Analog signal reconstruction and recognition via sub-threshold modulation | |
CN113454648A (zh) | 循环神经网络中的勒让德存储器单元 | |
JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
US9542645B2 (en) | Plastic synapse management | |
Hota et al. | Net asset value prediction using extreme learning machine with dolphin swarm algorithm | |
Al-Allaf | Removing noise from speech signals using different approaches of artificial neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6227565 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |