JP2022504942A - パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 - Google Patents
パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 Download PDFInfo
- Publication number
- JP2022504942A JP2022504942A JP2021520563A JP2021520563A JP2022504942A JP 2022504942 A JP2022504942 A JP 2022504942A JP 2021520563 A JP2021520563 A JP 2021520563A JP 2021520563 A JP2021520563 A JP 2021520563A JP 2022504942 A JP2022504942 A JP 2022504942A
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- error
- binary
- layer
- ternary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 68
- 210000002569 neuron Anatomy 0.000 claims abstract description 174
- 230000004913 activation Effects 0.000 claims description 82
- 238000012421 spiking Methods 0.000 claims description 70
- 230000006870 function Effects 0.000 claims description 47
- 210000000225 synapse Anatomy 0.000 claims description 40
- 230000000946 synaptic effect Effects 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000001186 cumulative effect Effects 0.000 claims description 16
- 230000000644 propagated effect Effects 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 12
- 230000001902 propagating effect Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 16
- 230000006978 adaptation Effects 0.000 abstract 1
- 230000010354 integration Effects 0.000 description 14
- 210000004205 output neuron Anatomy 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000000034 method Methods 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Memory System (AREA)
- Semiconductor Memories (AREA)
Abstract
Description
- シナプス係数により重み付けされた二進又は三進誤差信号を受信可能な第1の入出力インターフェースと、
- 受信した誤差信号に応答してニューロンが生成した二進又は三進中間信号から、及び第1のデータ伝播フェーズの実行中にニューロンにより実装された等価活性化関数の微分係数の推定値から二進又は三進局所誤差信号を計算すべく構成された誤差計算モジュールと、
- 二進又は三進局所誤差信号を複数のシナプスにスパイクの形式で伝播可能な第2の入出力インターフェースとを含んでいる。
- 累積誤差を計算すべく前記誤差信号を積分する積分モジュールと、
- 累積誤差を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータと、
-少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号を生成すべく構成された活性化モジュールとを含んでいる。
- 二進又は三進誤差信号を受信可能な第1の入出力インターフェースと、
- 受信した誤差信号に応答してニューロンが生成した二進又は三進中間信号から、及び第1のデータ伝播フェーズの実行中にニューロンにより実装された等価活性化関数の微分係数の推定値から二進又は三進局所誤差信号を計算すべく構成された誤差計算モジュールと、
- 二進又は三進局所誤差信号を次層のニューロンに伝播可能な第2の入出力インターフェースとを含んでいる。
- シナプス係数により重み付けされた累積誤差を計算すべく前記二進又は三進誤差信号を積分する積分モジュールと、
- 累積誤差を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータと、
- 少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号を生成すべく構成された活性化モジュールとを含んでいる。
Vi,l(t)=Vi,l(t-Δt)-θff・si,l(t-Δt)+Σjωi,j,l・sj,l-1(t) (1)
xi,l(t)=ηl・si,l(t)+xi,l(t-Δt) (3)
xi,l(t)=ηl・ai,l(t)
ai,l(t)=si,l(t)+ai,l(t-Δt)
Ui,l(t)=Ui,l(t-Δt)-θbp・zi,l(t-Δt)+Σkωi,k,l+1・δk,l+1(t)
δi,l(t)=zi,l(t)・a’i,l(t)
Δωi,j,l(t)=-δi,l(t)・xj,l-1(t)
ωi,j,l(t)=Δωi,j,l(t)+ωi,j,l(t-Δ(t))
[1]“Algorithm and hardware design of discrete-time spiking neural networks based on back propagation with binary activations”,S.Yin et al,2017 IEEE Biomedical Circuits and Systems
[2]“Hardware efficient on line learning through pipelined truncated error back-propagation in binary state networks”,H.Mostafa et al,Frontiers in Neuroscience,2017
Claims (23)
- 計算素子に実装されたスパイキング人工ニューロン(Ni,l)であって、前記ニューロンが複数の連続する層(Cl-1、Cl、Cl+1)を含むニューラルネットワーク内で積分されることを意図されており、各層が複数のニューロンで形成され、前記ニューラルネットワークが、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、前記スパイキング人工ニューロン(Ni,l)が、前記第2の逆伝播フェーズを実行すべく、
- シナプス係数により重み付けされた二進又は三進誤差信号を受信可能な第1の入出力インターフェース(E/S1)と、
- 前記受信した誤差信号に応答して前記ニューロンが生成した二進又は三進中間信号(zi,l)から、及び前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の微分係数の推定値(a’i,l)から二進又は三進局所誤差信号(δi,l)を計算すべく構成された誤差計算モジュール(ER_LOC)と、
- 前記二進又は三進局所誤差信号(δi,l)を複数のシナプスにスパイクの形式で伝播可能な第2の入出力インターフェース(E/S2)と
を含むスパイキング人工ニューロン(Ni,l)。 - 前記第1の入出力インターフェース(E/S1)が、第1のデータ伝播フェーズの実行中に複数のシナプスに二進又は三進信号をスパイクの形式で送信可能であり、前記第2の入出力インターフェース(E/S2)が、第1のデータ伝播フェーズの実行中にシナプス係数により重み付けされた二進又は三進信号を受信可能である、請求項1に記載のスパイキング人工ニューロン(Ni,l)。
- - 累積誤差(Ui,l)を計算すべく前記誤差信号を積分する積分モジュール(INT_ER)と、
- 前記累積誤差(Ui,l)を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータ(COMP_ER)と、
-前記少なくとも1個のコンパレータからの結果に基づいて二進又は三進中間信号(Zi,l)を生成すべく構成された活性化モジュール(ACT_ER)
とを含む、請求項1又は2に記載のスパイキング人工ニューロン。 - 計算素子に実装されたスパイキング人工ニューロン(Ni,l)であって、前記ニューロンが複数の連続する層(Cl-1、Cl、Cl+1)を含むニューラルネットワーク内で積分されることを意図されており、各層が複数のニューロンで形成され、前記ニューラルネットワークが、入力層から出力層にデータを伝播する第1のフェーズ及び出力層から入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されていて、前記スパイキング人工ニューロン(Ni,l)が、前記第2の逆伝播フェーズを実行すべく、
- 二進又は三進誤差信号を受信可能な第1の入出力インターフェース(E/S1)と、
- 受信した誤差信号に応答して前記ニューロンが生成した二進又は三進中間信号(zi,l)から、及び前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の微分係数の推定値(a’i,l)から二進又は三進局所誤差信号(δi,l)を計算すべく構成された誤差計算モジュール(ER_LOC)と、
- 前記二進又は三進局所誤差信号(δi,l)を次層(Cl-1)のニューロンに伝播可能な第2の入出力インターフェース(E/S2)と
を含むスパイキング人工ニューロン(Ni,l)。 - 前記第1の入出力インターフェース(E/S1)が前記第1のデータ伝播フェーズの実行中に前記次層(Cl+1)のニューロンに二進又は三進信号を送信可能であり、前記第2の入出力インターフェース(E/S2)が前記第1のデータ伝播フェーズの実行中に二進又は三進信号を受信可能である、請求項4に記載のスパイキング人工ニューロン(Ni,l)。
- - シナプス係数により重み付けされた累積誤差(Ui,l)を計算すべく前記二進又は三進誤差信号を積分する積分モジュール(INT_ER)と、
- 前記累積誤差(Ui,l)を正の活性化閾値及び負の活性化閾値のうち少なくとも一方の活性化閾値と比較する少なくとも1個のコンパレータ(COMP_ER)と、
- 前記少なくとも1個のコンパレータからの結果に基づいて前記二進又は三進中間信号(Zi,l)を生成すべく構成された活性化モジュール(ACT_ER)と
を含む、請求項4又は5に記載のスパイキング人工ニューロン。 - 前記活性化モジュール(ACT_ER)が、前記累積誤差が前記正の活性化閾値よりも大きい場合は正の中間信号を生成し、前記累積誤差が前記負の活性化閾値よりも小さい場合は負の中間信号を生成すべく構成されている、請求項3又は6に記載のスパイキング人工ニューロン(Ni,l)。
- 正の中間信号が生成された場合は前記累積誤差(Ui,l)からの前記正の活性化閾値の値を減算し、負の中間信号が生成された場合は前記累積誤差(Ui,l)から前記負の活性化閾値の値を減算する減算器を更に含んでいる、請求項7に記載のスパイキング人工ニューロン(Ni,l)。
- 前記局所誤差(δi,l)及び前記等価活性化関数(FAE)の結果(xj,l-1)からシナプス係数の更新値を計算するモジュール(MAJ)を更に含んでいる、請求項1~8のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
- 前記等価活性化関数(FAE)の前記結果(xj,l-1)がニューロンの前記データ伝播フェーズの実行中に計算される、請求項9に記載のスパイキング人工ニューロン(Ni,l)。
- シナプス係数の更新値を計算する前記モジュール(MAJ)が前記局所誤差の伝播後に活性化される、請求項9又は10に記載のスパイキング人工ニューロン(Ni,l)。
- 局所誤差信号を計算する前記モジュール(ER_LOC)が、前記中間信号(zi,l)と、前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)の積を計算すべく構成されている、請求項1~11のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
- 前記等価活性化関数(FAE)が、前記ニューロンが生成したスパイク(si,l)を積分する関数であって、前記ニューラルネットワークの学習率パラメータ(ηl)により重み付けされている、請求項1~12のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
- 前記第1のデータ伝播フェーズの実行中に前記ニューロン(Ni,l)に実装された等価活性化関数(FAE)の結果(xi,l)から、及び前記第1のデータ伝播フェーズの実行中の前記ニューロンの積分変数(Vi,l)から前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)を計算すべく構成された微分係数計算モジュール(DER)を含んでいる、請求項1~13のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
- 前記等価活性化関数(FAE)の微分係数の前記推定値(a’i,l)が、前記関数の前記結果(xi,l)が厳密に正であるか又は前記積分変数(Vi,l)が厳密に正ならば1に等しく、さもなければ0に等しい、請求項14に記載のスパイキング人工ニューロン(Ni,l)。
- 前記微分係数計算モジュール(DER)が前記ニューロンの前記データ伝播フェーズの実行中に又は前記ニューロンの前記誤差逆伝播フェーズの実行中に活性化される、請求項1~15のいずれか1項に記載のスパイキング人工ニューロン(Ni,l)。
- 入力層から出力層にデータを伝播する第1のフェーズ及び前記出力層から前記入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されたスパイキング人工ニューラルネットワークであって、前記ニューラルネットワークが請求項1~16のいずれか1項に記載のスパイキング人工ニューロンの複数の層を含み、各ニューロンがシナプスを介して少なくとも次層のニューロン又は前層のニューロンに接続されているスパイキング人工ニューラルネットワーク。
- 前記ネットワークが入力層及び出力層を含み、前記入力層のニューロンが二進又は三進形式で伝播されるデータを受信すべく構成され、前記出力層のニューロンが、前記第1のデータ伝播フェーズの実行中に伝播されたデータから得られた結果と目標結果との誤差を計算すべく構成されている、請求項17に記載のスパイキング人工ニューラルネットワーク。
- 前記出力層の各ニューロンが、前記誤差を少なくとも1個の二進又は三進信号の組に符号化すべく構成されたエンコーダ(COD)を含んでいる、請求項18に記載のスパイキング人工ニューラルネットワーク。
- 前記エンコーダ(COD)が、二進又は三進信号を生成すべく前記誤差を2又は3段階の量子化レベルに量子化すべく構成されている、請求項19に記載のスパイキング人工ニューラルネットワーク。
- 前記エンコーダ(COD)が、連続する二進信号のグループ又は連続する三進信号のグループを介して前記誤差を符号化すべく構成されている、請求項19に記載のスパイキング人工ニューラルネットワーク。
- 入力層から出力層にデータを伝播する第1のフェーズ及び前記出力層から前記入力層に誤差を逆伝播する第2のフェーズを含む訓練機構を実行すべく構成されたスパイキング人工ニューラルネットワークであって、前記ニューラルネットワークが、請求項4~6のいずれか1項に記載のスパイキング人工ニューロンの複数の層を含み、各ニューロンがシナプス重みを有するシナプスを介して少なくとも次層のニューロン又は前層のニューロンに接続されていて、前記シナプス(W1,l,...WK,l+1)がデジタルメモリ、メモリスティブ素子又はアナログ回路の形式で実装されているスパイキング人工ニューラルネットワーク。
- 各シナプスが、次層(Cl)のニューロンから受信した二進又は三進誤差信号(δi,l)及び前層(Cl-1)のニューロンから受信した等価活性化関数(FAE)の結果(xj,l-1)を表す信号に応答して自身のシナプス重みを更新すべく構成されている、請求項22に記載のスパイキング人工ニューラルネットワーク。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1859760A FR3087560A1 (fr) | 2018-10-23 | 2018-10-23 | Retro-propagation d'erreurs sous forme impulsionnelle dans un reseau de neurones impulsionnels |
FR1859760 | 2018-10-23 | ||
PCT/EP2019/078669 WO2020083880A1 (fr) | 2018-10-23 | 2019-10-22 | Retro-propagation d'erreurs sous forme impulsionnelle dans un reseau de neurones impulsionnels |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504942A true JP2022504942A (ja) | 2022-01-13 |
JP7433307B2 JP7433307B2 (ja) | 2024-02-19 |
Family
ID=66166046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520563A Active JP7433307B2 (ja) | 2018-10-23 | 2019-10-22 | パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210397968A1 (ja) |
EP (1) | EP3871153A1 (ja) |
JP (1) | JP7433307B2 (ja) |
FR (1) | FR3087560A1 (ja) |
WO (1) | WO2020083880A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200076083A (ko) * | 2018-12-19 | 2020-06-29 | 에스케이하이닉스 주식회사 | 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템 |
US20200293860A1 (en) * | 2019-03-11 | 2020-09-17 | Infineon Technologies Ag | Classifying information using spiking neural network |
KR102474053B1 (ko) * | 2020-06-22 | 2022-12-06 | 주식회사 퓨리오사에이아이 | 뉴럴네트워크 프로세서 |
US11837281B2 (en) * | 2021-08-31 | 2023-12-05 | Integrated Circuit, Interface Circuit And Method | Integrated circuit, interface circuit and method |
CN114781633B (zh) * | 2022-06-17 | 2022-10-14 | 电子科技大学 | 一种融合人工神经网络与脉冲神经网络的处理器 |
CN115392443B (zh) * | 2022-10-27 | 2023-03-10 | 之江实验室 | 类脑计算机操作系统的脉冲神经网络应用表示方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150269485A1 (en) * | 2014-03-24 | 2015-09-24 | Qualcomm Incorporated | Cold neuron spike timing back-propagation |
US20170228646A1 (en) * | 2016-02-04 | 2017-08-10 | Qualcomm Incorporated | Spiking multi-layer perceptron |
-
2018
- 2018-10-23 FR FR1859760A patent/FR3087560A1/fr active Pending
-
2019
- 2019-10-22 US US17/287,277 patent/US20210397968A1/en active Pending
- 2019-10-22 JP JP2021520563A patent/JP7433307B2/ja active Active
- 2019-10-22 WO PCT/EP2019/078669 patent/WO2020083880A1/fr unknown
- 2019-10-22 EP EP19787001.7A patent/EP3871153A1/fr active Pending
Also Published As
Publication number | Publication date |
---|---|
FR3087560A1 (fr) | 2020-04-24 |
EP3871153A1 (fr) | 2021-09-01 |
US20210397968A1 (en) | 2021-12-23 |
WO2020083880A1 (fr) | 2020-04-30 |
JP7433307B2 (ja) | 2024-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7433307B2 (ja) | パルスニューラルネットワークにおける誤差のパルス形式での逆伝播 | |
JP5944518B2 (ja) | スパイキングニューラルネットワークにおける自然マルチスパイク列のニューラル学習のための方法および装置 | |
Marhon et al. | Recurrent neural networks | |
US11954579B2 (en) | Synaptic weight training method, target identification method, electronic device and medium | |
CN111723901A (zh) | 神经网络模型的训练方法及装置 | |
WO2019020384A9 (fr) | Calculateur pour reseau de neurones impulsionnel avec agregation maximale | |
US9053430B2 (en) | Method and apparatus for inferring logical dependencies between random processes | |
Finke et al. | Estimating a-posteriori probabilities using stochastic network models | |
CN113537455B (zh) | 突触权重训练方法、电子设备和计算机可读介质 | |
CN113269113B (zh) | 人体行为识别方法、电子设备和计算机可读介质 | |
Alonso et al. | Tightening the biological constraints on gradient-based predictive coding | |
Dong et al. | Training generative adversarial networks with binary neurons by end-to-end backpropagation | |
JP2023085564A (ja) | ニューラルネットワーク装置、処理方法およびプログラム | |
KR20200108173A (ko) | 스파이킹 뉴럴 네트워크에 대한 연산량을 감소시키는 stdp 기반의 뉴로모픽 연산처리장치 | |
JPH08272759A (ja) | 相関信号処理用ニューラルネットワークの実行スピードアップの方法 | |
US20230004351A1 (en) | Method and device for additive coding of signals in order to implement digital mac operations with dynamic precision | |
CN113269313A (zh) | 突触权重训练方法、电子设备和计算机可读介质 | |
Turchenko et al. | Parallel batch pattern BP training algorithm of recurrent neural network | |
US20200193276A1 (en) | Neuromorphic Neuron Apparatus For Artificial Neural Networks | |
US12003255B2 (en) | Method and device for binary coding of signals in order to implement digital MAC operations with dynamic precision | |
US20230252272A1 (en) | Neural processing cell | |
Dinh et al. | FBW-SNN: a fully binarized weights-spiking neural networks for edge-AI applications | |
Huang et al. | Synchronization of Delayed Inertial Cohen—Grossberg Neural Networks Under Adaptive Feedback Controller | |
US11727252B2 (en) | Adaptive neuromorphic neuron apparatus for artificial neural networks | |
Ansari et al. | Back propagation algorithm for neurofuzzy filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7433307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |