JP2022504942A - パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 - Google Patents

パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 Download PDF

Info

Publication number
JP2022504942A
JP2022504942A JP2021520563A JP2021520563A JP2022504942A JP 2022504942 A JP2022504942 A JP 2022504942A JP 2021520563 A JP2021520563 A JP 2021520563A JP 2021520563 A JP2021520563 A JP 2021520563A JP 2022504942 A JP2022504942 A JP 2022504942A
Authority
JP
Japan
Prior art keywords
neuron
error
binary
layer
ternary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021520563A
Other languages
English (en)
Other versions
JP7433307B2 (ja
Inventor
ティエレ,ジョハネス
ビヒラー,オリビエ
Original Assignee
コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ filed Critical コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ
Publication of JP2022504942A publication Critical patent/JP2022504942A/ja
Application granted granted Critical
Publication of JP7433307B2 publication Critical patent/JP7433307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Memory System (AREA)
  • Semiconductor Memories (AREA)

Abstract

Figure 2022504942000001
本発明は、パルスニューラルネットワークを実装する素子のハードウェア制約に適した誤差逆伝播アルゴリズムの新たな実装を提案する。特に、本発明は逆伝播フェーズの実行中に計算された誤差の二進又は三進符号化を用いて実装をネットワークの制約に適合させることにより、浮動小数点乗算演算子の利用を回避する。より一般的には、本発明はパルスニューラルネットワークの特定の制約への逆伝播アルゴリズムの全般的適合を提案する。特に、本発明により、学習相実行中のデータ伝播及び誤差逆伝播に同じ伝播基盤を用いることができる。本発明は、任意の種類のパルスニューラルネットワーク、特に畳み込みネットワークの実装に適したパルスニューロンの一般的な実装を提案する。

Description

本発明は、人工ニューラルネットワークの分野に関し、より正確にはスパイキングニューラルネットワークの分野に関する。
人工ニューラルネットワークは本質的に、シナプスにより相互に接続されたニューロンから構成され、これらのニューロンは従来デジタルメモリに実装されていたが、端子に印加された電圧に基づいてコンダクタンスが変化する抵抗成分にも実装できる。
スパイキングニューラルネットワークは一般に、教師有り又は教師無し学習方法を実装することにより最適化される。
これらの方法は、ニューラルネットワークの入力端で生成されたデータをニューラルネットワークの出力層に伝播する第1のフェーズ、次いで出力層から入力層に誤差を逆伝播する第2のフェーズを含んでいる。第2の逆伝播フェーズにおいて、シナプスは、ニューラルネットワークの前層から逆伝播された誤差に基づいて各ニューロンにより局所的に計算された誤差に基づいて更新される。
本発明は、符号有り又は符号無しスパイク或いは二進若しくは三進データの形式で誤差を逆伝播するアルゴリズムを実装すべく設計されているスパイキングニューロン及びスパイキングニューラルネットワークに関する。
スパイキングニューラルネットワークは、訓練伝播フェーズの実行中に、又は分類フェーズの実行中に実装された処理動作は浮動小数点乗算を一切必要としないため、リソースが限られたコンピュータへの実装が可能になるという利点がある。具体的には、スパイキングニューラルネットワーク内でデータが(符号有り又は符号無し)スパイクの形式で符号化され、各ニューロンが実行する処理動作は従ってアキュムレータ及びコンパレータだけを用いて実装することができる。従って浮動小数点乗算演算子の利用が避けられるため、リソースが限られた装置にデジタル又はアナログ実装することに一定の利点がある。
しかし、訓練フェーズの実行中にシナプスの値の更新に用いられる逆伝播アルゴリズム自体が、各ニューロンに局所的な誤差を計算するために浮動小数点乗算の使用を必要とする。更に、ニューラルネットワークのニューロンの各層間でこれらの誤差を浮動小数点の形式で同期伝播することも必要である。しかし、スパイキングニューラルネットワークは、スパイクの形式での非同期データの伝播論理に基づいている。
従って逆伝播アルゴリズムは一般に、このようなネットワークのハードウェア制約を考慮してスパイキングニューラルネットワークには実装されない。
スパイキングニューラルネットワークに逆伝播アルゴリズムを実装する際の非互換性に起因して、そのようなネットワーク内での訓練は一般に「スパイクタイミング依存可塑性」すなわちSTDP生体ルールに触発されたアルゴリズムを用いて実行される。しかし、この種の訓練ルールは逆伝播アルゴリズムに基づく訓練よりも非効率である。
科学論文[1]はスパイキングニューラルネットワークの逆伝播アルゴリズムの可能な一実装を記述している。しかし、これは浮動小数点乗算を必要とするため高価な実装であり、低電力且つリソースが限られた装置には適していない。
科学論文[2]は逆伝播アルゴリズムにより逆伝播された誤差を3値に量子化する可能性を記述している。しかし、当該文献はスパイキングニューラルネットワークではなく公式のニューラルネットワークに関するものである。当該文献はこれらのネットワークの非同期処理制約を考慮していない。
本発明は、スパイキングニューラルネットワークを実装している装置のハードウェア制約に適した誤差逆伝播アルゴリズムの新たな実装を提案する。
本発明は特に、実装をネットワークの制約に適合させるべく、且つ浮動小数点乗算演算子を使用する必要をなくすべく逆伝播フェーズで計算された誤差の二進又は三進符号化を用いる。
より一般的には、本発明はスパイキングニューラルネットワークの特定の制約に逆伝播アルゴリズムを大域的に適合させることを提案する。特に、本発明は、同一伝播基盤を用いて訓練フェーズにおけるデータの伝播及び誤差の逆伝播を可能にする。
本発明は、任意の種類のスパイキングニューラルネットワーク、特に畳み込みネットワークの実装に適したスパイキングニューロンの一般的な実装を提案する。
第1の実施形態において、本発明の一主題は複数のニューロンの中間層に属するスパイキング人工ニューロンであり、中間層は複数の連続する層を含むニューラルネットワークに属し、ニューラルネットワークは、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、スパイキング人工ニューロンは、第2の逆伝播フェーズを実行すべく、
- シナプス係数により重み付けされた二進又は三進誤差信号を受信可能な第1の入出力インターフェースと、
- 受信した誤差信号に応答してニューロンが生成した二進又は三進中間信号から、及び第1のデータ伝播フェーズの実行中にニューロンにより実装された等価活性化関数の微分係数の推定値から二進又は三進局所誤差信号を計算すべく構成された誤差計算モジュールと、
- 二進又は三進局所誤差信号を複数のシナプスにスパイクの形式で伝播可能な第2の入出力インターフェースとを含んでいる。
本発明の第1の実施形態の特定の一態様によれば、第1の入出力インターフェースは、第1のデータ伝播フェーズの実行中に複数のシナプスに二進又は三進信号をスパイクの形式で送信可能であり、第2の入出力インターフェースは、第1のデータ伝播フェーズの実行中にシナプス係数により重み付けされた二進又は三進信号を受信可能である。
本発明の第1の実施形態の特定の一変型例によれば、スパイキング人工ニューロンは、
- 累積誤差を計算すべく前記誤差信号を積分する積分モジュールと、
- 累積誤差を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータと、
-少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号を生成すべく構成された活性化モジュールとを含んでいる。
第2の実施形態において、本発明の別の主題は、複数のニューロンの中間層に属するスパイキング人工ニューロンであり、中間層は複数の連続する層を含むニューラルネットワークに属し、ニューラルネットワークは、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、スパイキング人工ニューロンは第2の逆伝播フェーズを実行すべく、
- 二進又は三進誤差信号を受信可能な第1の入出力インターフェースと、
- 受信した誤差信号に応答してニューロンが生成した二進又は三進中間信号から、及び第1のデータ伝播フェーズの実行中にニューロンにより実装された等価活性化関数の微分係数の推定値から二進又は三進局所誤差信号を計算すべく構成された誤差計算モジュールと、
- 二進又は三進局所誤差信号を次層のニューロンに伝播可能な第2の入出力インターフェースとを含んでいる。
本発明の第2の実施形態の特定の一態様によれば、第1の入出力インターフェースは、第1のデータ伝播フェーズの実行中に二進又は三進信号を次層のニューロンに送信可能であり、第2の入出力インターフェースは、第1のデータ伝播フェーズの実行中に二進又は三進信号を受信可能である。
本発明の第2の実施形態の特定の一変型例によれば、スパイキング人工ニューロンは、
- シナプス係数により重み付けされた累積誤差を計算すべく前記二進又は三進誤差信号を積分する積分モジュールと、
- 累積誤差を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータと、
- 少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号を生成すべく構成された活性化モジュールとを含んでいる。
特定の本発明の一態様によれば、活性化モジュールは、累積誤差が正の活性化閾値よりも大きい場合は正の中間信号を生成し、累積誤差が負の活性化閾値よりも小さい場合は負の中間信号を生成すべく構成されている。
特定の一変型例によれば、本発明の実施形態の任意の一つによるスパイキング人工ニューロンは更に、正の中間信号が生成された場合は累積誤差からの正の活性化閾値の値を減算し、負の中間信号が生成された場合は累積誤差から負の活性化閾値の値を減算する減算器を含んでいる。
特定の一変型例によれば、本発明の実施形態の任意の一つによるスパイキング人工ニューロンは更に、局所誤差及び等価活性化関数の結果からシナプス係数の更新値を計算するモジュールを含んでいる。
本発明の特定の一態様によれば、等価活性化関数の結果はニューロンのデータ伝播フェーズの実行中に計算される。
本発明の特定の一態様によれば、シナプス係数の更新値を計算するモジュールは局所誤差の伝播後に活性化される。
本発明の特定の一態様によれば、局所誤差信号を計算するモジュールは、中間信号と、等価活性化関数の微分係数の推定値の積を計算すべく構成されている。
本発明の特定の一態様によれば、等価活性化関数はニューロンが生成したスパイクを積分する関数であり、ニューラルネットワークの学習率パラメータにより重み付けされている。
特定の一変型例によれば、本発明の実施形態の任意の一つによるスパイキング人工ニューロンは、第1のデータ伝播フェーズの実行中にニューロンにより実装された等価活性化関数の結果から、及び第1のデータ伝播フェーズの実行中のニューロンの積分変数から等価活性化関数の微分係数の推定値を計算すべく構成された微分係数計算モジュールを含んでいる。
本発明の特定の一態様によれば、等価活性化関数の微分係数の推定値は、前記関数の結果が厳密に正であるか又は積分変数が厳密に正ならば1に等しく、さもなければ0に等しい。
本発明の特定の一態様によれば、微分係数計算モジュールは、ニューロンのデータ伝播フェーズの実行中に又はニューロンの誤差逆伝播フェーズの実行中に活性化される。
本発明の更なる主題は、入力層から出力層にデータを伝播する第1のフェーズ及び出力層からの入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されたスパイキング人工ニューラルネットワークであり、ニューラルネットワークは本発明の実施形態の任意の一つによるスパイキング人工ニューロンの複数の層を含み、各ニューロンはシナプスを介して少なくとも次層のニューロン又は前層のニューロンに接続されている。
本発明の特定の一態様によれば、ネットワークは入力層及び出力層を含み、入力層のニューロンは二進又は三進形式で伝播されるデータを受信すべく構成され、出力層のニューロンは、第1のデータ伝播フェーズの実行中に伝播されたデータから得られた結果と目標結果との誤差を計算すべく構成されている。
本発明の特定の一態様によれば、誤差を出力層の各ニューロンは、少なくとも1個の二進又は三進信号の組に符号化すべく構成されたエンコーダを含んでいる。
本発明の特定の一態様によれば、エンコーダは、二進又は三進信号を生成すべく2又は3段階の量子化レベルに誤差を量子化すべく構成されている。
本発明の特定の一態様によれば、エンコーダは、連続する二進信号のグループ又は連続する三進信号のグループを介して誤差を符号化すべく構成されている。
本発明の更なる主題は、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成された人工ニューラルネットワークであり、ニューラルネットワークは、本発明の第2の実施形態によるスパイキング人工ニューロンの複数の層を含み、各ニューロンはシナプス重みを有するシナプスを介して少なくとも次層のニューロンに又は前層のニューロンに接続されていて、シナプスはデジタルメモリ、メモリスティブ素子又はアナログ回路の形式で実装されている。
本発明の特定の一態様によれば、各シナプスは、次層のニューロンから受信した二進又は三進誤差信号及び前層のニューロンから受信した等価活性化関数の結果を表す信号に応答して自身のシナプス重みを更新すべく構成されている。
本発明の他の特徴及び利点は、添付の図面を参照しながら以下の記述を精査することでより明らかになろう。
スパイキング人工ニューラルネットワークの概要図を示す。 訓練機構の第1のデータ伝播フェーズを実行する、本発明の第1の実施形態によるスパイキング人工ニューロンの図を示す。 訓練機構の第1のデータ伝播フェーズを実行する、本発明の第2の実施形態によるスパイキング人工ニューロンの図を示す。 ニューラルネットワークの出力層のスパイキング人工ニューロンの図を示す。 訓練機構の第2の誤差逆伝播フェーズを実行する、本発明の第1の実施形態によるスパイキング人工ニューロンの図を示す。 第1の実施形態の一変型例の図を示す。 訓練機構の第2の誤差逆伝播フェーズを実行する、本発明の第2の実施形態によるスパイキング人工ニューロンの図を示す。
図1に、スパイキング人工ニューラルネットワークの概要図を示す。ニューラルネットワークは従来、相互接続されたスパイキングニューロンの複数の層C、C、Cl+1、Cから構成される。ネットワークは少なくとも1個の入力層C、出力層C及び少なくとも1個の中間層C、Cl+1を含んでいる。入力層CのニューロンNi,eは各々入力端で入力データ101を受信する。入力データは、目標とするアプリケーションに応じて異なる種類であってよい。例えば、画像のピクセル又は音声或いはテキストデータ、若しくはより一般的にスパイクの形式で符号化可能な任意の種類のデータであってよい。ニューラルネットワークの適用は特に、自動運転乗り物に埋め込まれた装置又はビデオ監視カメラに関連付けられたビデオ監視装置向けに、画像又はビデオ内の対象を分類及び検出することを含んでいる。ニューラルネットワークは例えば、画像分類又は画像認識の分野、或いはより一般的に視覚、音声又は同時に両方であり得る特徴の認識に用いられる。層の各ニューロンは、自身の入力及び/又出力端を介して先行又は次層のニューロンの全てに接続される。より一般的には、ニューロンは、特に畳み込みネットワークの場合、別の層の一部のニューロンだけに接続されている場合がある。2個のニューロンNi,e及びNi,lの間の接続102、103、104は人工シナプスS、S、Sにより行われ、特にデジタルメモリ又はメモリスティブ素子により形成することができる。シナプスの係数は、ニューラルネットワークを訓練する訓練機構を通じて最適化することができる。当該機構は、2個の別々なフェーズ、すなわち入力層から出力層にデータを伝播する第1のフェーズ、及び出力層から入力層に誤差を逆伝播する第2のフェーズを含み、シナプスの重みは各層毎に更新されている
第1のデータ伝播フェーズにおいて、訓練データ、例えば画像又は画像のシーケンスが入力層のニューロンへの入力として提供されてネットワークで伝播される。スパイキングニューラルネットワークの場合、データは非同期スパイクの形式で符号化される。スパイクは二進又は三進信号に対応する。換言すれば、これらは符号有り又は符号無しスパイクであってよい。
各ニューロンは、当該第1のフェーズの実行中に、前層(又は入力層のニューロンへの入力データから符号化されたスパイク)のニューロンから、受信するスパイクを積分する関数を実装する。積分関数は本質的に、人工シナプスの重みにより重み付けされたスパイクを累積するものである。各ニューロンはまた、積分変数と1又は2個の活性化閾値との比較に基づいて、スパイクを生成して次層のニューロンに伝播するものである活性化関数を実装する。選択されたニューロンモデルに応じて、積分関数及び活性化関数は異なっていてよい。特に、ニューロンがスパイクを全く受信しなかった場合に時間経過に伴い積分変数を減衰させるべく、ニューロンにより漏出流を実装することができる。出力層CのニューロンNi,sが追加的な処理を行うことにより、ニューロンNi,sが受信したスパイクの積分結果と、出力層のニューロンの最終状態に対応し、且つ訓練入力データとの関連で取得することが望まれる期待値又は目標値との誤差を計算する。
第2の誤差逆伝播フェーズにおいて、出力層Cのニューロンは計算された誤差を前層Cl+1のニューロンに送信し、当該ニューロンは前層から逆伝播した誤差から局所誤差を計算し、次いで当該局所誤差を前層Cに送信する。並行して、各ニューロンは自身が接続されているシナプスの重みの更新値を局所誤差から計算してシナプスを更新する。当該処理は、入力層Cに接続するシナプスの重みを更新する役割を果たす最後から2番目の層までニューロンの各層にわたり継続する。
本発明の目的の一つは、実装の制約又はスパイキングニューロンのハードウェア制約に適した誤差逆伝播フェーズの特定の実装を提案することである。
図2に、本発明の第1の実施形態によるスパイキングニューロンの一例及びデータ伝播フェーズにおけるその動作を示す。
図2は、中間層Cに属するニューロンNi,lを示す。ニューロンNi,lはニューロンにシナプスW1,l+1,W2,l+1,…,WK,l+1を介して次層Cl+1の下流に接続されている。本発明の第1の実施形態によれば、シナプスは、メモリスティブ素子すなわちメモリスタ又は任意の等価アナログの回路により形成されている。同様に、ニューロンNi,lは、ニューロンにシナプスW1,l,W2,l...,WK,lを介して前層Cl-1の上流に接続されている。
データ伝播フェーズにおいて、ニューロンNi,lは第1の入出力インターフェースE/Sを介して、前層のニューロンにより送信されてシナプスW1,l,W2,l...,WK,lの重みにより重み付けされたスパイクを受信する。メモリスティブ素子により形成されたシナプスは、ニューロンにより送信された一定振幅の符号有り又は符号無しスパイクを受信し、自身の出力端で、シナプスの重みを表す値により増幅されたスパイクを送信する。ニューロンNi,lが受信した信号は、シナプスの重みにより重み付けされた二進又は三進信号に対応する。受信した信号は、ニューロンの性質に依存する積分関数を実行する積分モジュールINTにより積分される。例示的な一実施形態によれば、積分関数は受信した信号を時間経過に伴い加算又は積分するものである。別の例示的な実施形態において、積分関数は、ニューロンが信号を受信していない場合に積分変数を時間経過に伴い減衰させる減衰又は漏出関数を含んでいる。積分モジュールINTの出力端で得られた積分変数Vi,lは次いでコンパレータCOMPを介して1個以上の活性化閾値と比較される。第1の例示的な実施形態によれば、単一の正の活性化閾値θffを用いる。積分変数Vi,lが正の活性化閾値θffを上回る場合、活性化モジュールACTが正のスパイクを生成して積分変数Vi,lが正の閾値θffの値だけ減らされる。第2の例示的な実施形態によれば、正の閾値θffに加えて負の閾値-θffが用いられる。積分変数Vi,lが負の活性化閾値-θffを下回る場合、活性化モジュールACTが負のスパイクを生成して、積分変数Vi,lは閾値-θffの値だけ減らされる(又は値θffだけ増やされる)。2個の閾値の絶対値は等しくても異なっていてもよい。活性化モジュールACTにより生成されたスパイクは、ニューロンNi,lと次層Cl+1のニューロンの間に接続されたシナプスW1,l+1,W2,l+1,...,WK,l+1に伝播されるべく入出力インターフェースE/Sに送信される。
時間経過に伴い積分モジュールINTにより計算された積分変数Vi,lは以下の関係で表すことができる。
i,l(t)=Vi,l(t-Δt)-θff・si,l(t-Δt)+Σωi,j,l・sj,l-1(t) (1)
i,l(t)は、三進信号の場合に値が以下の関係で与えられるニューロンが生成したスパイクを表す。
Figure 2022504942000002
二進信号の場合、関係(2)は次式で置き替えられる。
Figure 2022504942000003
積分変数Vi,lはデータ伝播フェーズの開始時点で0以外の値に初期化されてよい。
上で述べた、ニューロンNi,lが実施する処理動作は、累積又は比較だけに基づいており、浮動小数点乗算を一切必要としない。
ニューロンNi,lはまた、誤差逆伝播フェーズの実行中に用いる変数を計算すべく2個の追加的な計算関数を実行する。
第2の積分モジュールFAEを用いて、時間経過に伴いニューロンが生成したスパイクsi,lを累積するし、累積はニューラルネットワークのパラメータである学習率ηにより重み付けされている。この学習率ηはネットワークの各層毎に異なっていてよい。
上述の第2の積分モジュールの出力端で得られた変数xi,lは以下の関係で表される。
i,l(t)=η・si,l(t)+xi,l(t-Δt) (3)
この変数は以下の関係でも表すことができ、ai,lはニューロンが生成したスパイクの時間経過に伴う累積に対応し、ニューロンの等価活性化関数と呼ばれる。変数xi,l(t)は、学習率パラメータηにより重み付けされた等価活性化関数に対応する。
i,l(t)=η・ai,l(t)
i,l(t)=si,l(t)+ai,l(t-Δt)
スパイクsi,lが値1、0又は-1をとるため、変数xi,lの計算も乗算を一切必要としない。変数xi,lの計算とは値ηを累積することである。
微分モジュールDERもまた、ニューロンの等価活性化関数ai,lの推定値a’i,lを計算に用いられる。この推定値を誤差逆伝播フェーズで用いる。
積分変数Vi,lが0よりも大きいか又は変数xi,lが0よりも大きい場合、推定値a’i,lは1に等しく、さもなければ値0をとる。
Figure 2022504942000004
本発明の範囲から逸脱することなく、二進変数{0;1}又は三進の変数{-1;0;1}を生成すべく等価活性化関数の他の推定値a’i,lを決定することができる。本発明の特徴の一つは、浮動小数点乗算を含む計算を回避するべく推定値a’i,lが二進又は三進変数であることである。
a’i,lの計算に用いるVi,l(t)及びxi,l(t)の値は、ニューラルネットワークの入力端で提示された訓練シーケンスのデータ伝播フェーズにおいてニューロンにより計算された最後の最新値である。
ニューロンの等価活性化関数ai,lの推定値a’i,lは、データ伝播フェーズの実行中に計算することができ、その場合a’i,lの値は誤差逆伝播フェーズで用いるべくメモリに保存される。推定値a’i,lはまた、誤差逆伝播フェーズの実行中にニューロンにより保存されたVi,l(t)及びxi,l(t)の最後の値から計算することもできる。
一変型実施形態において、ニューロンにより実装される活性化関数は次式のように変更することができる。
Figure 2022504942000005
この変型例によれば、変数ai,l(t)で表される、ニューロンが生成したスパイクの和は常に0よりも大きい。
図3に、本発明のスパイキングニューロンの第2の実施形態を示す。第2の実施形態において、ニューロンはデジタル素子に実装されている。二進又は三進スパイク信号は二進又は三進デジタル信号により符号化され、デジタル通信基盤を介してニューロン間を送信される。シナプスはもはや2個のニューロン間の接続部に配置された能動素子により形成されていない。このデジタル実装によれば、シナプスの重みはデジタルメモリMEM_Wに保存される。入力インターフェースE/Sが受信した信号は(選択されたニューロンモデルに応じて)二進又は三進信号である。積分モジュールINTは、メモリMEM_Wから読み出されたシナプスの重みにより重み付けされた受信信号の和を計算すべく変更されている。換言すれば、シナプスの重みによる信号の重み付けは第1の実施形態のようにシナプスによってではなく、ニューロンにより実行される。
ニューラルネットワークの入力端で、換言すればネットワークの入力層Cの入力端で生成されたデータがネットワークの出力層Cに伝播されたならばデータ伝播フェーズが完了する。出力層の各ニューロンは、変数及び当該変数の所望の目標値を計算すべく構成されている。選択された出力ニューロンモデルに応じて、用いた変数は、積分モジュールINTが計算した積分変数Vi,s、又は活性化モジュールACTが生成したスパイクsi,s、或いは等価活性化関数ai,sの結果、若しくはこれらの変数又は出力ニューロンが計算した他の変数の1個以上の任意の組み合わせであってよい。目標値は、用途に応じて選択される。例えば、ニューラルネットワークを対象分類の文脈で用いる場合、目標値は各出力ニューロンが検出する筈の対象に対応する。
換言すれば、各出力ニューロンは、1個以上の計算された変数又はこれら1個以上の変数及び目標値又は所望値の組み合わせに依存するコスト関数を計算することができる。出力ニューロンにより計算される誤差は従って使用する各変数に関するコスト関数の微分係数に等しい。例えば、使用するコスト関数は等価活性化関数ai,s(t)だけに依存してよく、計算された誤差は当該等価活性化関数の微分係数に依存するであろう。δi,Sは出力ニューロンNi,Sにより計算される誤差を表す。この誤差が次いで、出力ニューロンに含まれるエンコーダを用いてスパイク又はデジタルデータの形式で符号化される。異なる種類の符号化が可能である。スパイクは、三進信号の形式で3レベルに符号化されてよい。第1の変型例によれば、誤差δi,Sは浮動小数点数であり、-1、0、1の3レベルに量子化されて、デジタル信号又は三進スパイクを介して前層のニューロンに送信される。第2の変型例によれば、誤差δi,Sは値-1、0及び1の和に分解されて、デジタルデータ又は三進スパイクの組により符号化される。例えば、値5.3は5個の連続する正のスパイクにより符号化され、値-3.2は3個の連続する負のスパイクにより符号化されてよい。スパイクはまた、上に示す2個の符号化変型例に従い二進信号の形式で2レベルに符号化されてもよい。
図4に、出力ニューロンNi,Sの例示的な一実装を示す。これは主に入出力インターフェースE/S、積分モジュールINT、誤差計算モジュールCALC_ER、及び計算された誤差をスパイクに符号化してから入出力インターフェースE/Sを介して前層に逆伝播するエンコーダCODを含んでいる。出力ニューロンNi,Sはまた、誤差の計算に用いる変数の計算に必要ならばコンパレータCOMP及び活性化モジュールACTを含んでいてよい。
本発明の第1の実施形態によれば、図5に、出力層のニューロンが計算した誤差を逆伝播フェーズの実行中に中間層CのスパイキングニューロンNi,lの動作を示す。
上述の第1の実施形態において、図2に関する段落で説明したように、シナプスはメモリスティブ素子、メモリスタ又は任意の等価なアナログ回路により形成される。図5に、逆伝播フェーズの実行中に関与する計算モジュール及びニューロンの演算子だけを示す。ニューロンの実際の実装では、これは逆伝播フェーズの実行中に活性化された図5に示すモジュール及び演算子と、データ逆伝播フェーズの実行中に活性化された図2に示すモジュール及び演算子との両方を含んでいる。
シナプスW1,l+1,W2,l+1,...,WK,l+1は、二進又は三進スパイクの形式で前層Cl+1のニューロンにより(逆伝播の向きに)計算された誤差を受信する。各シナプスはこれに応答して、シナプスの重みにより重み付けされた受信スパイクに対応する信号を送信する。これらの重み付け誤差信号は入出力インターフェースE/Sにより受信され、次いで受信した信号を累積する積分モジュールINT_ERにより処理される。逆伝播フェーズの実行中に活性化された積分モジュールINT_ERがデータ伝播フェーズの実行中に活性化された積分モジュールINTと同一の関数を実行する。これらは2個の別々のモジュールにより、又は同一モジュールにより形成することができる。積分モジュールINT_ERの出力端で得られた積分変数Ui,lは次いで1個又は2個の活性化閾値と比較される。例えば、受信した信号が三進信号である場合、図2に示すコンパレータCOMPと同じ要素により形成できるコンパレータCOMP_ERを介して、正の活性化閾値θbp及び負の活性化閾値-θbpが用いられる。積分変数Ui,lが正の活性化閾値θbpを上回った場合、活性化モジュールACT_ERが正のスパイクを生成し、積分変数Ui,lは閾値θbpの値だけ減少する。積分変数Ui,lが負の活性化閾値-θbpを下回った場合、活性化モジュールACT_ERが負のスパイクを生成し、積分変数Ui,lが閾値-θbpの値だけ減少する。活性化モジュールACT_ERは、図2に示す活性化モジュールACTと同じ要素により形成することができる。
誤差逆伝播フェーズの実行中のニューロンの積分変数は以下の関係で与えられる。
i,l(t)=Ui,l(t-Δt)-θbp・zi,l(t-Δt)+Σωi,k,l+1・δk,l+1(t)
活性化モジュールACT_ERにより生成された信号は中間のスパイク信号zi,lである。これは以下の関係で表すことができる。
Figure 2022504942000006
一変型実施形態において、正の活性化閾値をT+θbpで代替し、負の活性化閾値をT-θbpで代替することができ、ここにTは正、負又はゼロの定数である。
別の変型実施形態において、中間スパイク信号zi,lは以下の関係で表すことができる。
Figure 2022504942000007
上述の変型例において、2個の閾値の代わりに単一の閾値θbpを用いる。この場合、積分変数Ui,lは、閾値θbpに等しくてよい所定の値又は閾値θbpとは異なる値だけ減らされる。
別の変型実施形態によれば、受信した信号が二進信号である場合、単一の活性化閾値θbpを用いる。
上述の変型実施形態によれば、中間スパイク信号zi,lを以下の関係で表すことができる。
Figure 2022504942000008
ここにθbpは値が正又は負であり得る活性化閾値である。この場合、積分変数Ui,lは閾値θbpに等しくてもよい所定の値又は閾値θbpとは異なる値だけ減らされる。
更に別の変型実施形態において、受信した信号が二進信号である場合、ニューラルネットワークが実行する逆伝播アルゴリズムは2個の連続するフェーズで実行される。
第1のフェーズにおいて、逆伝播アルゴリズムは、以下の関係で表される二進中間スパイク信号zi,lを考慮しながらニューラルネットワークにより実行され、ここにθbpは正の活性化閾値である。
Figure 2022504942000009
積分変数Ui,lが活性化閾値θbpを上回る場合、活性化モジュールACT_ERは正のスパイクを生成し、積分変数Ui,lは閾値θbpの値だけ減らされる。
第2のフェーズにおいて、逆伝播アルゴリズムは、以下の関係で表される二進中間スパイク信号zi,lを考慮しながらニューラルネットワークにより実行され、ここに-θbpは負の活性化閾値である。
Figure 2022504942000010
積分変数Ui,lが活性化閾値-θbpを下回る場合、活性化モジュールACT_ERは負のスパイクを生成し、積分変数Ui,lは閾値-θbpの値だけ減らされる(又はθbpの値だけ増やされる)。
上述の信号を用いて、引き続き局所誤差を同じスパイク形式で生成する。局所誤差は中間信号zi,l、及びニューロンの等価活性化関数の微分係数の推定値a’i,lから計算モジュールER_LOCにより計算される。推定値a’i,lは、データ伝播フェーズ(図2参照)実行中にニューロンにより計算されたか又は誤差逆伝播フェーズの実行中にデータ伝播フェーズの終了時点で保存された変数xi,l及びVi,lの最後の値から計算された。
局所誤差は、中間信号zi,lと推定値a’i,lの積を求めることにより計算され、推定値a’i,lの選択されたモデルに応じて二進又は三進変数である。
δi,l(t)=zi,l(t)・a’i,l(t)
一変型実施形態において、a’i,l(t)=0の場合に上述の計算を実行しないよう、コンパレータが追加される。
局所誤差の計算は従って浮動小数点乗算を必要とせず、当該計算の結果は(値1、0又は-1をとる)三進変数又は二進変数である。
局所誤差δi,l(t)は次いでインターフェースE/Sを介して次層Cl-1のシナプスに伝播される。
ニューロンはまた、シナプスの重みの更新値を計算するモジュールMAJも含んでいる。この更新値は、局所誤差から、及びニューロンNi,lが接続されている層Cl-1の各ニューロンにより送信される変数xj,l-1から計算される。変数xj,l-1はデータ伝播フェーズの実行中に予め計算されている。
シナプスWj,lの重みの更新値は以下の関係で与えられる。
Δωi,j,l(t)=-δi,l(t)・xj,l-1(t)
これらの値がシナプスW1,l,W2,l,...WK,lに伝播されることにより、以下のルールを介して自身の重みを更新する。
ωi,j,l(t)=Δωi,j,l(t)+ωi,j,l(t-Δ(t))
シナプスの重みは好適には誤差が次層に伝播された後で更新されるが、これら二つの動作の順序を入れ替えることも可能である。
一変型実施形態において、変数xj,l-1は、図5に示すように二つの連続する層のニューロンにアクセス可能なメモリMEM_Xに保存される。
図5aに示す別の変型実施形態ではシナプスの重みの更新値を計算するモジュールMAJが除去されており、シナプスの重みは当該シナプスを形成するメモリスティブ素子により直接更新される。本変型例において、誤差信号δi,l(t)が層CのニューロンからシナプスW1,l,W2,l,...WK,lに伝播され、変数xj,l-1が層Cl-1のニューロンからシナプスW1,l,W2,l,...WK,lに信号の形式で伝播される。各シナプスは次いで、項Δωi,j,l(t)を表す値により自身の重みを更新すべく2個の信号の電位差を解析することにより2個の信号δi,l(t)及びxj,l-1(t)の相互作用に直接基づいて自身のシナプス重みを更新する。
図6に、図3に示す本発明の第2の実施形態による逆伝播フェーズの実行中の中間層CのスパイキングニューロンNi,lの動作を示す。
上述の第2の実施形態によれば、ニューロンはデジタル素子に実装される。二進又は三進誤差信号は二進又は三進デジタル信号により符号化されて、データ伝播フェーズの実行中に伝達された信号と同じ通信基盤を介してニューロン間を送信される。シナプスの重みは、デジタルメモリMEM_Wl+1、MEM_Wに保存される。積分モジュールINT_ERは、層Cl+1のシナプスの重みを保存しているメモリMEM_Wl+1から読み出されたシナプスの重みにより重み付けされた受信信号の和を計算すべく変更される。換言すれば、シナプスの重みによる信号の重み付けは、第1の実施形態のようにシナプスによってではなく、ニューロンにより実行される。層CのメモリMEM_Wは、シナプスの重みの更新値を計算するモジュールMAJにより直接更新される。シナプスの重みをメモリに保存する各種のアーキテクチャが可能である。図6に、ニューロンの各層Cl+1、Cに関連付けられたメモリMEM_Wl+1、MEM_Wを示す。しかし、ニューロンの少なくとも二つの連続する層、又はニューラルネットワーク全体に対して単一の共有メモリを有することも可能である。一方、各ニューロンに局所的なメモリもまた考えられる。積分モジュールINT_ERは、読出しモードにおいて前層Cl+1のシナプスの重みが保存されているメモリにアクセスすべく構成されている。
図6に示すようなデジタル素子による実装の場合、ニューロン間で交換される信号は2個の別々のバスにより実行することができる。第1のデータバスを用いて、生成されたスパイクを、二進信号の場合は値1を介して、又は三進信号の場合は値1又は-1を介して送信する。第2の非同期シグナリングバスを用いて、データの受信(又は送信)をニューロンに通知する。換言すれば、第2の非同期バスを用いて、データバスに0以外の値が存在する旨の情報を送信する。第2の非同期バスは例えば、AER「アドレスイベント表現(Address Event Representation)」バスであってよい。本実装の利点の一つは、「0」状態に対応する受信値に対してニューロンが処理動作を実行するのを防止することである。データバス及び非同期バスが形成するアセンブリは、二進デジタル信号又は三進デジタル信号を送信可能である。二進信号の場合、リーダーは値「1」がデータバスにより指示され、値「0」が非同期バスにより指示されていることが分かるであろう。三進信号の場合、値「1」及び「-1」はデータバスにより指示され、値「0」は非同期バスにより指示されている。
本発明には、誤差逆伝播フェーズで計算された局所誤差の二進又は三進表現を用いるため誤差計算の実行に浮動小数点乗算を一切必要としないという利点がある。更に、2種類の信号が同様に符号化されているため、同じ通信基盤をデータの伝播と誤差の逆伝播の両方に用いることができる。いくつかの計算モジュール及び演算子をデータ伝播フェーズ及び誤差逆伝播フェーズに合同で用いることができる。例えば、積分モジュールINT、INT_ER、コンパレータCOMP、COMP_ER、及び活性化モジュールACT、ACT_ERを単一の要素で構成することができる。一般に、本発明では、二つのフェーズで伝播される信号は類似の性質を有し、これらの信号に対する処理動作は二つのフェーズの累積及び比較に限られるため、データ伝播フェーズ及び誤差逆伝播フェーズの実行に同じ種類の素子又は回路を用いることが可能になる。
一般に、本発明はハードウェア及び/又はソフトウェア要素を用いて実装されてよい。ソフトウェア要素はコンピュータ可読媒体上のコンピュータプログラム製品の形式であってよく、当該媒体は電子、磁気、光又は電磁気媒体であってよい。ハードウェア要素は、全部又は一部が、例えば専用集積回路(ASIC)及び/又は設定可能集積回路(FPGA)の形式及び/又は本発明によるニューラル回路の形式又はデジタル信号プロセッサDSPの形式及び/又はグラフィックプロセッサGPUの形式及び/又はマイクロコントローラの形式及び/又は汎用プロセッサの形式であってよい。
より正確には、本発明によるニューラルネットワークは、少なくとも1個のデジタルメモリを含む一つ以上のデジタル素子及びニューロン間で二進又は三進信号を伝播させる通信基盤に実装されていてよい。
本発明によるニューラルネットワークはまた、少なくとも1個のメモリスティブ素子を含む1個以上のアナログ素子及び符号有り又は符号無しスパイクの形式でアナログ信号を伝播可能な通信基盤にも実装されていてよい。
シナプスは、メモリスティブ素子すなわちメモリスタ、例えばPCM(相変化メモリ(Phase-Change Memory))素子、又はRAM又はOXRAMメモリ或いは他の任意の素子若しくは同等のアナログ回路の形式で生成されていてよい。シナプスは特に、少なくとも1個のキャパシタンス又は少なくとも1個のコンデンサに基づいていて、キャパシタンス又はコンデンサに充電することでシナプス重みの値を保存可能にするアナログ回路に実装されていてよい。
参照文献
[1]“Algorithm and hardware design of discrete-time spiking neural networks based on back propagation with binary activations”,S.Yin et al,2017 IEEE Biomedical Circuits and Systems
[2]“Hardware efficient on line learning through pipelined truncated error back-propagation in binary state networks”,H.Mostafa et al,Frontiers in Neuroscience,2017

Claims (23)

  1. 計算素子に実装されたスパイキング人工ニューロン(Ni,l)であって、前記ニューロンが複数の連続する層(Cl-1、C、Cl+1)を含むニューラルネットワーク内で積分されることを意図されており、各層が複数のニューロンで形成され、前記ニューラルネットワークが、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、前記スパイキング人工ニューロン(Ni,l)が、前記第2の逆伝播フェーズを実行すべく、
    - シナプス係数により重み付けされた二進又は三進誤差信号を受信可能な第1の入出力インターフェース(E/S)と、
    - 前記受信した誤差信号に応答して前記ニューロンが生成した二進又は三進中間信号(zi,l)から、及び前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の微分係数の推定値(a’i,l)から二進又は三進局所誤差信号(δi,l)を計算すべく構成された誤差計算モジュール(ER_LOC)と、
    - 前記二進又は三進局所誤差信号(δi,l)を複数のシナプスにスパイクの形式で伝播可能な第2の入出力インターフェース(E/S)と
    を含むスパイキング人工ニューロン(Ni,l)。
  2. 前記第1の入出力インターフェース(E/S)が、第1のデータ伝播フェーズの実行中に複数のシナプスに二進又は三進信号をスパイクの形式で送信可能であり、前記第2の入出力インターフェース(E/S)が、第1のデータ伝播フェーズの実行中にシナプス係数により重み付けされた二進又は三進信号を受信可能である、請求項1に記載のスパイキング人工ニューロン(Ni,l)。
  3. - 累積誤差(Ui,l)を計算すべく前記誤差信号を積分する積分モジュール(INT_ER)と、
    - 前記累積誤差(Ui,l)を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータ(COMP_ER)と、
    -前記少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号(Zi,l)を生成すべく構成された活性化モジュール(ACT_ER)
    とを含む、請求項1又は2に記載のスパイキング人工ニューロン。
  4. 計算素子に実装されたスパイキング人工ニューロン(Ni,l)であって、前記ニューロンが複数の連続する層(Cl-1、C、Cl+1)を含むニューラルネットワーク内で積分されることを意図されており、各層が複数のニューロンで形成され、前記ニューラルネットワークが、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、前記スパイキング人工ニューロン(Ni,l)が、前記第2の逆伝播フェーズを実行すべく、
    - 二進又は三進誤差信号を受信可能な第1の入出力インターフェース(E/S)と、
    - 受信した誤差信号に応答して前記ニューロンが生成した二進又は三進中間信号(zi,l)から、及び前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の微分係数の推定値(a’i,l)から二進又は三進局所誤差信号(δi,l)を計算すべく構成された誤差計算モジュール(ER_LOC)と、
    - 前記二進又は三進局所誤差信号(δi,l)を次層(Cl-1)のニューロンに伝播可能な第2の入出力インターフェース(E/S)と
    を含むスパイキング人工ニューロン(Ni,l)。
  5. 前記第1の入出力インターフェース(E/S)が前記第1のデータ伝播フェーズの実行中に前記次層(Cl+1)のニューロンに二進又は三進信号を送信可能であり、前記第2の入出力インターフェース(E/S)が前記第1のデータ伝播フェーズの実行中に二進又は三進信号を受信可能である、請求項4に記載のスパイキング人工ニューロン(Ni,l)。
  6. - シナプス係数により重み付けされた累積誤差(Ui,l)を計算すべく前記二進又は三進誤差信号を積分する積分モジュール(INT_ER)と、
    - 前記累積誤差(Ui,l)を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータ(COMP_ER)と、
    - 前記少なくとも1個のコンパレータからの結果に基づいて前記二進又は三進中間信号(Zi,l)を生成すべく構成された活性化モジュール(ACT_ER)と
    を含む、請求項4又は5に記載のスパイキング人工ニューロン。
  7. 前記活性化モジュール(ACT_ER)が、前記累積誤差が前記正の活性化閾値よりも大きい場合は正の中間信号を生成し、前記累積誤差が前記負の活性化閾値よりも小さい場合は負の中間信号を生成すべく構成されている、請求項3又は6に記載のスパイキング人工ニューロン(Ni,l)。
  8. 正の中間信号が生成された場合は前記累積誤差(Ui,l)からの前記正の活性化閾値の値を減算し、負の中間信号が生成された場合は前記累積誤差(Ui,l)から前記負の活性化閾値の値を減算する減算器を更に含んでいる、請求項7に記載のスパイキング人工ニューロン(Ni,l)。
  9. 前記局所誤差(δi,l)及び前記等価活性化関数(FAE)の結果(xj,l-1)からシナプス係数の更新値を計算するモジュール(MAJ)を更に含んでいる、請求項1~8のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
  10. 前記等価活性化関数(FAE)の前記結果(xj,l-1)がニューロンの前記データ伝播フェーズの実行中に計算される、請求項9に記載のスパイキング人工ニューロン(Ni,l)。
  11. シナプス係数の更新値を計算する前記モジュール(MAJ)が前記局所誤差の伝播後に活性化される、請求項9又は10に記載のスパイキング人工ニューロン(Ni,l)。
  12. 局所誤差信号を計算する前記モジュール(ER_LOC)が、前記中間信号(zi,l)と、前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)の積を計算すべく構成されている、請求項1~11のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
  13. 前記等価活性化関数(FAE)が、前記ニューロンが生成したスパイク(si,l)を積分する関数であって、前記ニューラルネットワークの学習率パラメータ(η)により重み付けされている、請求項1~12のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
  14. 前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の結果(xi,l)から、及び前記第1のデータ伝播フェーズの実行中の前記ニューロンの積分変数(Vi,l)から前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)を計算すべく構成された微分係数計算モジュール(DER)を含んでいる、請求項1~13のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
  15. 前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)が、前記関数の前記結果(xi,l)が厳密に正であるか又は前記積分変数(Vi,l)が厳密に正ならば1に等しく、さもなければ0に等しい、請求項14に記載のスパイキング人工ニューロン(Ni,l)。
  16. 前記微分係数計算モジュール(DER)が前記ニューロンの前記データ伝播フェーズの実行中に又は前記ニューロンの前記誤差逆伝播フェーズの実行中に活性化される、請求項1~15のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
  17. 入力層から出力層にデータを伝播する第1のフェーズ及び前記出力層から前記入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されたスパイキング人工ニューラルネットワークであって、前記ニューラルネットワークが請求項1~16のいずれか1項に記載のスパイキング人工ニューロンの複数の層を含み、各ニューロンがシナプスを介して少なくとも次層のニューロン又は前層のニューロンに接続されているスパイキング人工ニューラルネットワーク。
  18. 前記ネットワークが入力層及び出力層を含み、前記入力層のニューロンが二進又は三進形式で伝播されるデータを受信すべく構成され、前記出力層のニューロンが、前記第1のデータ伝播フェーズの実行中に伝播されたデータから得られた結果と目標結果との誤差を計算すべく構成されている、請求項17に記載のスパイキング人工ニューラルネットワーク。
  19. 前記出力層の各ニューロンが、前記誤差を少なくとも1個の二進又は三進信号の組に符号化すべく構成されたエンコーダ(COD)を含んでいる、請求項18に記載のスパイキング人工ニューラルネットワーク。
  20. 前記エンコーダ(COD)が、二進又は三進信号を生成すべく前記誤差を2又は3段階の量子化レベルに量子化すべく構成されている、請求項19に記載のスパイキング人工ニューラルネットワーク。
  21. 前記エンコーダ(COD)が、連続する二進信号のグループ又は連続する三進信号のグループを介して前記誤差を符号化すべく構成されている、請求項19に記載のスパイキング人工ニューラルネットワーク。
  22. 入力層から出力層にデータを伝播する第1のフェーズ及び前記出力層から前記入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されたスパイキング人工ニューラルネットワークであって、前記ニューラルネットワークが、請求項4~6のいずれか1項に記載のスパイキング人工ニューロンの複数の層を含み、各ニューロンがシナプス重みを有するシナプスを介して少なくとも次層のニューロン又は前層のニューロンに接続されていて、前記シナプス(W1,l,...WK,l+1)がデジタルメモリ、メモリスティブ素子又はアナログ回路の形式で実装されているスパイキング人工ニューラルネットワーク。
  23. 各シナプスが、次層(C)のニューロンから受信した二進又は三進誤差信号(δi,l)及び前層(Cl-1)のニューロンから受信した等価活性化関数(FAE)の結果(xj,l-1)を表す信号に応答して自身のシナプス重みを更新すべく構成されている、請求項22に記載のスパイキング人工ニューラルネットワーク。
JP2021520563A 2018-10-23 2019-10-22 パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 Active JP7433307B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1859760A FR3087560A1 (fr) 2018-10-23 2018-10-23 Retro-propagation d'erreurs sous forme impulsionnelle dans un reseau de neurones impulsionnels
FR1859760 2018-10-23
PCT/EP2019/078669 WO2020083880A1 (fr) 2018-10-23 2019-10-22 Retro-propagation d'erreurs sous forme impulsionnelle dans un reseau de neurones impulsionnels

Publications (2)

Publication Number Publication Date
JP2022504942A true JP2022504942A (ja) 2022-01-13
JP7433307B2 JP7433307B2 (ja) 2024-02-19

Family

ID=66166046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520563A Active JP7433307B2 (ja) 2018-10-23 2019-10-22 パルスニューラルネットワークにおける誤差のパルス形式での逆伝播

Country Status (5)

Country Link
US (1) US20210397968A1 (ja)
EP (1) EP3871153A1 (ja)
JP (1) JP7433307B2 (ja)
FR (1) FR3087560A1 (ja)
WO (1) WO2020083880A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200076083A (ko) * 2018-12-19 2020-06-29 에스케이하이닉스 주식회사 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템
US20200293860A1 (en) * 2019-03-11 2020-09-17 Infineon Technologies Ag Classifying information using spiking neural network
KR102474053B1 (ko) * 2020-06-22 2022-12-06 주식회사 퓨리오사에이아이 뉴럴네트워크 프로세서
US11837281B2 (en) * 2021-08-31 2023-12-05 Integrated Circuit, Interface Circuit And Method Integrated circuit, interface circuit and method
CN114781633B (zh) * 2022-06-17 2022-10-14 电子科技大学 一种融合人工神经网络与脉冲神经网络的处理器
CN115392443B (zh) * 2022-10-27 2023-03-10 之江实验室 类脑计算机操作系统的脉冲神经网络应用表示方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US20170228646A1 (en) * 2016-02-04 2017-08-10 Qualcomm Incorporated Spiking multi-layer perceptron

Also Published As

Publication number Publication date
FR3087560A1 (fr) 2020-04-24
EP3871153A1 (fr) 2021-09-01
US20210397968A1 (en) 2021-12-23
WO2020083880A1 (fr) 2020-04-30
JP7433307B2 (ja) 2024-02-19

Similar Documents

Publication Publication Date Title
JP7433307B2 (ja) パルスニューラルネットワークにおける誤差のパルス形式での逆伝播
JP5944518B2 (ja) スパイキングニューラルネットワークにおける自然マルチスパイク列のニューラル学習のための方法および装置
Marhon et al. Recurrent neural networks
US11954579B2 (en) Synaptic weight training method, target identification method, electronic device and medium
CN111723901A (zh) 神经网络模型的训练方法及装置
WO2019020384A9 (fr) Calculateur pour reseau de neurones impulsionnel avec agregation maximale
US9053430B2 (en) Method and apparatus for inferring logical dependencies between random processes
Finke et al. Estimating a-posteriori probabilities using stochastic network models
CN113537455B (zh) 突触权重训练方法、电子设备和计算机可读介质
CN113269113B (zh) 人体行为识别方法、电子设备和计算机可读介质
Alonso et al. Tightening the biological constraints on gradient-based predictive coding
Dong et al. Training generative adversarial networks with binary neurons by end-to-end backpropagation
JP2023085564A (ja) ニューラルネットワーク装置、処理方法およびプログラム
KR20200108173A (ko) 스파이킹 뉴럴 네트워크에 대한 연산량을 감소시키는 stdp 기반의 뉴로모픽 연산처리장치
JPH08272759A (ja) 相関信号処理用ニューラルネットワークの実行スピードアップの方法
US20230004351A1 (en) Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision
CN113269313A (zh) 突触权重训练方法、电子设备和计算机可读介质
Turchenko et al. Parallel batch pattern BP training algorithm of recurrent neural network
US20200193276A1 (en) Neuromorphic Neuron Apparatus For Artificial Neural Networks
US12003255B2 (en) Method and device for binary coding of signals in order to implement digital MAC operations with dynamic precision
US20230252272A1 (en) Neural processing cell
Dinh et al. FBW-SNN: a fully binarized weights-spiking neural networks for edge-AI applications
Huang et al. Synchronization of Delayed Inertial Cohen—Grossberg Neural Networks Under Adaptive Feedback Controller
US11727252B2 (en) Adaptive neuromorphic neuron apparatus for artificial neural networks
Ansari et al. Back propagation algorithm for neurofuzzy filter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240206

R150 Certificate of patent or registration of utility model

Ref document number: 7433307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150