JP2022509754A - 改良されたスパイキングニューラルネットワーク - Google Patents
改良されたスパイキングニューラルネットワーク Download PDFInfo
- Publication number
- JP2022509754A JP2022509754A JP2021524331A JP2021524331A JP2022509754A JP 2022509754 A JP2022509754 A JP 2022509754A JP 2021524331 A JP2021524331 A JP 2021524331A JP 2021524331 A JP2021524331 A JP 2021524331A JP 2022509754 A JP2022509754 A JP 2022509754A
- Authority
- JP
- Japan
- Prior art keywords
- spike
- spiking neuron
- value
- synapse
- spiking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012421 spiking Methods 0.000 title claims abstract description 123
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 45
- 210000002569 neuron Anatomy 0.000 claims abstract description 207
- 230000000946 synaptic effect Effects 0.000 claims abstract description 111
- 210000000225 synapse Anatomy 0.000 claims abstract description 86
- 238000000034 method Methods 0.000 claims abstract description 63
- 239000012528 membrane Substances 0.000 claims abstract description 61
- 230000006870 function Effects 0.000 claims abstract description 46
- 230000036962 time dependent Effects 0.000 claims abstract description 4
- 230000001537 neural effect Effects 0.000 claims description 51
- 210000004126 nerve fiber Anatomy 0.000 claims description 35
- 239000000872 buffer Substances 0.000 claims description 34
- 239000013023 spike buffer Substances 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims 2
- 230000001953 sensory effect Effects 0.000 claims 2
- 238000000605 extraction Methods 0.000 abstract description 5
- 238000004590 computer program Methods 0.000 abstract description 3
- 238000011176 pooling Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 19
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000003139 buffering effect Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 210000004556 brain Anatomy 0.000 description 6
- 238000003491 array Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000002401 inhibitory effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003278 mimic effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000002964 excitative effect Effects 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000011010 flushing procedure Methods 0.000 description 2
- 230000013632 homeostatic process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003955 neuronal function Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000008672 reprogramming Effects 0.000 description 1
- 210000001044 sensory neuron Anatomy 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000031893 sensory processing Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000003977 synaptic function Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Memory System (AREA)
- Error Detection And Correction (AREA)
- Television Systems (AREA)
- Feedback Control In General (AREA)
Abstract
Description
[0001] 本願は、2018年11月1日付けで出願された「An Improved Spiking Neural Network」と題する米国仮特許出願第62/754,348号の利益を主張するものであり、この仮特許出願は全体的に、参照により本明細書に援用される。
[0002] 本手法は、一般的にはニューラル回路エンジニアリングに関し、より詳細には、低電力高密度自律学習人工ニューラルネットワークオンチップのシステム及び方法に関する。
[0003] 人工ニューラルネットワークが生物学的神経回路網(脳)の機能を複製することが、長い間目標であったが、成功は限られてきた。人工ニューラルネットワークの設計へのブルートフォースハードウェア手法は、面倒で不適切であり、人間の脳の機能を複製するという所望の目標から遅れている。したがって、多種多様な可能な入力データ及び/又はセンサソースから高速で推論を行いながら、非常に大規模なネットワークにスケーリングすることができ、それでいてなおチップに収まることができる自律し再構成可能なスパイキングニューラルネットワークを実現できるようにする手法が必要とされている。
[0004] 本明細書には、入力ストリームから特徴を学習し、教師なし抽出を実行するように構成された、改良されたスパイキングニューラルネットワーク(SNN)のシステム、装置、製品、方法、及び/又はコンピュータプログラム製品の実施形態及び/又はその組合せ及び下位組合せが提供される。幾つかの実施形態は、スパイク変換器と、再構成可能神経線維と、メモリと、プロセッサとを備えたニューロモルフィック集積回路を含む。スパイク変換器は、入力データからスパイクを生成するように構成される。再構成可能神経線維は、複数のスパイキングニューロン回路を含むニューラルプロセッサを含む。スパイキングニューロン回路は、スパイク変換器から受信したスパイク及びニューラルネットワーク構成に基づいてタスクを実行するように構成される。メモリは、電位アレイ及び複数のシナプスを含むニューラルネットワーク構成を含む。ニューラルネットワーク構成は、複数のスパイキングニューロン回路と複数のシナプスとの間の接続を更に定義する。プロセッサは、構成ファイルに基づいてニューラルネットワーク構成を変更するように構成される。
[0007] 添付図面は、本明細書に組み込まれ、本明細書の一部をなす。
[0028] 本明細書には、入力ストリームからの特徴を学習し、教師なし抽出を実行するように構成された、改良されたスパイキングニューラルネットワーク(SNN)のシステム、装置、デバイス、方法、及び/又はコンピュータプログラム製品の実施形態及び/又はその組合せ及び下位組合せが提供される。本明細書における実施形態は、改良されたSNNを提供するスタンドアロンニューロモルフィック集積回路を含む。ニューロモルフィック集積回路は幾つかの利点を提供する。第1に、ニューロモルフィック集積回路はサイズがコンパクトである。例えば、ニューロモルフィック集積回路は、シリコンダイ上にプロセッサ複合体、1つ又は複数のセンサインターフェース、1つ又は複数のデータインターフェース、スパイク変換器、及びメモリを集積する。これは、ハードウェア実装でのシリコンエリアの効率的な使用を可能にする。第2に、ニューロモルフィック集積回路は、ユーザ定義の構成ファイルを使用して多くの異なるタスクに向けて再プログラムすることができる。例えば、ニューロモルフィック集積回路における層及びニューラルプロセッサ間の接続は、ユーザ定義の構成ファイルを使用して再プログラムすることができる。第3に、ニューロモルフィック集積回路は低待ち時間出力を提供する。第4に、ニューロモルフィック集積回路の消費電力量は小さい。例えば、ニューロモルフィック集積回路は、同じタスクを実行する場合、同等の人工ニューラルネットワーク(ANN)よりも2桁低い電力を消費することができる。さらに、ニューロモルフィック集積回路は、現行水準に近づく又は現行水準に等しい精度を提供することができる。最後に、ニューロモルフィック集積回路は、内蔵ホメオスタシス及び入力データパターンへのシナプス重みの高速収束の両方を示す改良された学習法を提供する。
有効タイプ:Cw=Iw-(kw-1) (2)
同じタイプ:Cw=Iw (3)
フルタイプ:Cw=Iw+(kw-1) (4)
Claims (24)
- ニューロモルフィック集積回路であって、
入力データからスパイクを生成するように構成されたスパイク変換器と、
前記スパイク及びニューラルネットワーク構成に基づいてタスクを実行するように構成された複数のスパイキングニューロン回路を含むニューラルプロセッサを含む再構成可能神経線維と、
前記ニューラルネットワーク構成を含むメモリであって、前記ニューラルネットワーク構成は、電位アレイ及び複数のシナプスを含み、前記ニューラルネットワーク構成は、前記複数のスパイキングニューロン回路と前記複数のシナプスとの間の接続を定義し、前記電位アレイは、前記複数のスパイキングニューロン回路のメンブレン電位値を含み、前記複数のシナプスは対応するシナプス重みを有する、メモリと、
構成ファイルに基づいて前記ニューラルネットワーク構成を変更するように構成されたプロセッサと、
を備えるニューロモルフィック集積回路。 - 前記シナプス重みの各シナプス重みは、-1、0、及び1からなる群から選択される重み値を有する、請求項1に記載のニューロモルフィック集積回路。
- 前記ニューロモルフィック集積回路は、
前記スパイク変換器からの前記スパイクを記憶するように構成されたスパイク入力バッファと、
前記スパイク入力バッファ内の前記スパイクを表すスパイクビットを含むスパイクパケットを生成するように構成されたパケタイザであって、前記スパイクパケット内の各スパイクビットは前記複数のシナプス内のシナプスに対応する、パケタイザと、
を更に備える、請求項1に記載のニューロモルフィック集積回路。 - 前記スパイクパケット内の各スパイクビットは、デジタルビットを使用して表される、請求項3に記載のニューロモルフィック集積回路。
- 前記複数のスパイキングニューロン回路内のスパイキングニューロン回路は、
第1の論理AND関数を前記スパイクパケット内の第1のスパイクビット及び前記第1のスパイクビットに対応する第1のシナプスの第1のシナプス重みに適用することであって、前記第1のシナプス重みは1の値を有し、前記第1の論理AND関数の適用により、論理1が出力される、適用することと、
前記第1の論理AND関数を適用して前記論理1が出力されたことに応答して、前記スパイキングニューロン回路に関連付けられたメンブレン電位値をインクリメントすることと、
を行うように構成される、請求項3に記載のニューロモルフィック集積回路。 - 前記複数のスパイキングニューロン回路内のスパイキングニューロン回路は、
第2の論理AND関数を前記スパイクパケット内の第1のスパイクビット及び前記第1のスパイクビットに対応する第2のシナプス重みに適用することであって、前記第2のシナプス重みは-1の値を有し、前記第2の論理AND関数の適用により、論理1が出力される、適用することと、
前記第2の論理AND関数を適用して前記論理1が出力されたことに応答して、前記スパイキングニューロン回路に関連付けられたメンブレン電位値をデクリメントすることと、
を行うように構成される、請求項3に記載のニューロモルフィック集積回路。 - 前記ニューラルプロセッサは、
前記複数のスパイキングニューロン回路の前記メンブレン電位値の中の最高値であるメンブレン電位値を有する前記スパイキングニューロン回路に基づいて、前記複数のスパイキングニューロン回路内のスパイキングニューロン回路を選択することと、
前記選択されたスパイキングニューロン回路の前記メンブレン電位値が、前記スパイキングニューロン回路に関連付けられた学習閾値に達したと判断することと、
前記選択されたスパイキングニューロン回路の前記メンブレン電位値が、前記選択されたスパイキングニューロン回路に関連付けられた学習閾値に達したとの判断に基づいて、スパイク時間依存可塑性(STDP)学習関数を実行することと、
を行うように構成される、請求項3に記載のニューロモルフィック集積回路。 - 前記STDP学習関数を実行するために、前記ニューラルプロセッサは、
前記スパイクパケット内の第1のスパイクビットが未使用スパイクを表すと判断することであって、前記第1のスパイクビットは前記複数のシナプス内の第1のシナプスに対応し、前記第1のスパイクビットは値1を有し、前記第1のシナプスの第1のシナプス重みは値0を有する、判断することと、
前記複数のシナプス内の第2のシナプスの第2のシナプス重みが未使用シナプス重みであると判断することであって、前記第2のシナプス重みは前記スパイクパケット内の第2のスパイクビットに対応し、前記第2のシナプス重みは値1を有し、前記スパイクパケット内の前記第2のスパイクビットは値0を有する、判断することと、
前記第2のシナプス重みの値を前記第1のスパイクの値と交換することと、
を行うように構成される、請求項7に記載のニューロモルフィック集積回路。 - 前記複数のスパイキングニューロン回路内のスパイキングニューロン回路は、
前記スパイキングニューロン回路に関連付けられたメンブレン電位値が前記スパイキングニューロン回路のスパイキング閾値に達したと判断することと、
前記スパイキングニューロン回路の前記メンブレン電位値が前記スパイキング閾値に達したとの判断に基づいて、出力スパイクを生成することと、
を行うように構成される、請求項1に記載のニューロモルフィック集積回路。 - 出力スパイクバッファ及びネットワークオンチップ(NoC)バスを更に備え、前記複数のスパイキングニューロン回路内の前記スパイキングニューロン回路は、前記NoCバスで送信するために、前記出力スパイクを前記出力スパイクバッファに挿入するように構成される、請求項9に記載のニューロモルフィック集積回路。
- 前記再構成可能神経線維は、畳み込み演算を使用して前記タスクを実行するように構成される、請求項1に記載のニューロモルフィック集積回路。
- 前記ニューラルネットワーク構成を変更するために、前記プロセッサは、前記構成ファイルに基づいて前記複数のスパイキングニューロン回路と前記複数のシナプスとの間の前記接続を変更するように構成される、請求項1に記載のニューロモルフィック集積回路。
- 前記構成ファイルは拡張可能マークアップ言語(XML)を使用して定義される、請求項1に記載のニューロモルフィック集積回路。
- 前記ニューロモルフィック集積回路は、
ユニバーサルシリアルバス(USB)インターフェース、イーサネットインターフェース、コントローラエリアネットワーク(CAN)バスインターフェース、万能非同期送信受信機(UART)を使用したシリアルインターフェース、ペリフェラルコンポーネントインターコネクトエクスプレス(PCIe)インターフェース、又はジョイントテストアクショングループ(JTAG)インターフェースの少なくとも1つを含む複数の通信インターフェースを更に備える、請求項1に記載のニューロモルフィック集積回路。 - 前記入力データは、ピクセルデータ、オーディオデータ、又は感覚データを含む、請求項1に記載のニューロモルフィック集積回路。
- 前記ニューロモルフィック集積回路は、複数のセンサインターフェースを更に備える、請求項1に記載のニューロモルフィック集積回路。
- スパイキングニューロン回路において、前記スパイキングニューロン回路に関連付けられた1組のシナプスに対応する1組のスパイクビットを受信することと、
前記スパイキングニューロン回路において、第1の論理AND関数を前記1組のスパイクビット内の第1のスパイクビット及び前記1組のシナプス内の第1のシナプスの第1のシナプス重みに適用することであって、前記第1のシナプスは前記第1のスパイクビットに対応する、適用することと、
前記スパイキングニューロン回路において、前記適用することに基づいて前記スパイキングニューロン回路に関連付けられたメンブレン電位値をインクリメントすることと、
ニューラルプロセッサにおいて、前記スパイキングニューロン回路に関連付けられた前記メンブレン電位値が、前記スパイキングニューロン回路に関連付けられた学習閾値に達したと判断することと、
前記ニューラルプロセッサにおいて、前記スパイキングニューロン回路の前記メンブレン電位値が前記スパイキングニューロン回路に関連付けられた前記学習閾値に達したとの判断に基づいて、スパイク時間依存可塑性(STDP)学習関数を実行することと、
を含む方法。 - 前記1組のスパイクビットは、ピクセルデータ、オーディオデータ、又は感覚データを含む入力データを表す、請求項17に記載の方法。
- 前記1組のシナプスは対応するシナプス重みを有し、各シナプス重みは、-1、0、及び1からなる値の群から選択される重み値を有する、請求項17に記載の方法。
- 前記ニューラルプロセッサにより、前記複数のスパイキングニューロン回路のメンブレン電位値の中から最高値を有する前記スパイキングニューロン回路の前記メンブレン電位値に基づいて、複数のスパイキングニューロン回路から前記スパイキングニューロン回路を選択することを更に含む請求項17に記載の方法。
- 前記スパイキングニューロン回路において、第2の論理AND関数を前記1組のスパイクビット内の前記第1のスパイクビット及び前記1組のシナプス内の第2のシナプスの第2のシナプス重みに適用することであって、前記第2のシナプスは前記第1のスパイクビットに対応し、前記第2のシナプス重みは値-1を有し、前記第2の論理AND関数を適用することにより、論理1が出力される、適用することと、
前記スパイキングニューロン回路において、前記第2の論理AND関数の適用により前記論理1が出力されたことに応答して、前記スパイキングニューロン回路に関連付けられた前記メンブレン電位値をデクリメントすることと、
を更に含む請求項17に記載の方法。 - 前記STDP学習関数を実行することは、
前記スパイクパケット内の第2のスパイクビットが未使用スパイクを表すと判断することであって、前記第2のスパイクビットは前記複数のシナプス内の第2のシナプスに対応し、前記第2のスパイクビットは値1を有し、前記第2のシナプスの第2のシナプス重みは値0を有する、判断することと、
前記複数のシナプス内の第3のシナプスの第3のシナプス重みが未使用シナプス重みであると判断することであって、前記第3のシナプスは前記スパイクパケット内の第3のスパイクビットに対応し、前記第3のシナプス重みは値1を有し、前記スパイクパケット内の前記第3のスパイクビットは値0を有する、判断することと、
前記第3のシナプス重みを前記第2のスパイクビットの値と交換することと、
を更に含む、請求項17に記載の方法。 - 前記スパイキングニューロン回路において、前記スパイキングニューロン回路に関連付けられた前記メンブレン電位値が、前記スパイキングニューロン回路のスパイキング閾値に達したと判断することと、
前記スパイキングニューロン回路において、前記スパイキングニューロン回路の前記メンブレン電位値が前記スパイキング閾値に達したとの判断に基づいて、出力スパイクを生成することと、
を更に含む請求項17に記載の方法。 - 前記スパイキングニューロン回路により、ネットワークオンチップ(NOC)バスに送信するために、出力スパイクビットを出力スパイクバッファに挿入することを更に含む請求項24に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862754348P | 2018-11-01 | 2018-11-01 | |
US62/754,348 | 2018-11-01 | ||
PCT/US2019/059032 WO2020092691A1 (en) | 2018-11-01 | 2019-10-31 | An improved spiking neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509754A true JP2022509754A (ja) | 2022-01-24 |
JPWO2020092691A5 JPWO2020092691A5 (ja) | 2022-11-09 |
Family
ID=70458523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021524331A Pending JP2022509754A (ja) | 2018-11-01 | 2019-10-31 | 改良されたスパイキングニューラルネットワーク |
Country Status (7)
Country | Link |
---|---|
US (2) | US11468299B2 (ja) |
EP (1) | EP3874411A4 (ja) |
JP (1) | JP2022509754A (ja) |
KR (1) | KR20210098992A (ja) |
CN (2) | CN111417963B (ja) |
AU (2) | AU2019372063B2 (ja) |
WO (1) | WO2020092691A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111417963B (zh) | 2018-11-01 | 2021-06-22 | P·A·范德梅德 | 改进的尖峰神经网络 |
US11204740B2 (en) * | 2018-12-04 | 2021-12-21 | Electronics And Telecommunications Research Institute | Neuromorphic arithmetic device and operating method thereof |
US20200401876A1 (en) * | 2019-06-24 | 2020-12-24 | Washington University | Method for designing scalable and energy-efficient analog neuromorphic processors |
CN112766511A (zh) * | 2019-11-01 | 2021-05-07 | 伊姆西Ip控股有限责任公司 | 用于模型自适应的方法、设备以及机程序产品 |
KR20210063721A (ko) * | 2019-11-25 | 2021-06-02 | 삼성전자주식회사 | 뉴로모픽 장치 및 이를 포함하는 뉴로모픽 시스템 |
EP4081954A4 (en) * | 2019-12-27 | 2023-04-05 | Micron Technology, Inc. | NEUROMORPHIC STORAGE DEVICE AND METHOD |
EP4085458A4 (en) | 2019-12-30 | 2023-05-31 | Micron Technology, Inc. | STORAGE DEVICE INTERFACE AND METHOD |
US11538508B2 (en) | 2019-12-31 | 2022-12-27 | Micron Technology, Inc. | Memory module multiple port buffer techniques |
US11176043B2 (en) * | 2020-04-02 | 2021-11-16 | International Business Machines Corporation | Distributed memory-augmented neural network architecture |
US20220143820A1 (en) * | 2020-11-11 | 2022-05-12 | Sony Interactive Entertainment Inc. | Domain adaptation for simulated motor backlash |
FR3123748A1 (fr) * | 2021-06-04 | 2022-12-09 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes |
CN113902106B (zh) * | 2021-12-06 | 2022-02-22 | 成都时识科技有限公司 | 脉冲事件决策装置、方法、芯片及电子设备 |
WO2023158352A1 (en) * | 2022-02-21 | 2023-08-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Communication of spiking data over a wireless communication network |
WO2023163619A1 (en) * | 2022-02-22 | 2023-08-31 | Telefonaktiebolaget Lm Ericsson (Publ) | Communication of spiking data on radio resources |
CN114692681B (zh) * | 2022-03-18 | 2023-08-15 | 电子科技大学 | 基于scnn的分布式光纤振动及声波传感信号识别方法 |
WO2023250093A1 (en) * | 2022-06-22 | 2023-12-28 | Brainchip, Inc. | Method and system for implementing temporal convolution in spatiotemporal neural networks |
WO2023250092A1 (en) * | 2022-06-22 | 2023-12-28 | Brainchip, Inc. | Method and system for processing event-based data in event-based spatiotemporal neural networks |
CN116030535B (zh) * | 2023-03-24 | 2023-06-20 | 深圳时识科技有限公司 | 手势识别方法及装置、芯片和电子设备 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10410117B2 (en) * | 2008-09-21 | 2019-09-10 | Brainchip, Inc. | Method and a system for creating dynamic neural function libraries |
US8250011B2 (en) * | 2008-09-21 | 2012-08-21 | Van Der Made Peter A J | Autonomous learning dynamic artificial neural computing device and brain inspired system |
EP2259214B1 (en) * | 2009-06-04 | 2013-02-27 | Honda Research Institute Europe GmbH | Implementing a neural associative memory based on non-linear learning of discrete synapses |
US9129220B2 (en) * | 2010-07-07 | 2015-09-08 | Qualcomm Incorporated | Methods and systems for digital neural processing with discrete-level synapes and probabilistic STDP |
US9269042B2 (en) * | 2010-09-30 | 2016-02-23 | International Business Machines Corporation | Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices |
US8856055B2 (en) * | 2011-04-08 | 2014-10-07 | International Business Machines Corporation | Reconfigurable and customizable general-purpose circuits for neural networks |
US9460387B2 (en) | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
US20130325766A1 (en) * | 2012-06-04 | 2013-12-05 | Csaba Petre | Spiking neuron network apparatus and methods |
US9367798B2 (en) * | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US20150134582A1 (en) * | 2013-11-08 | 2015-05-14 | Qualcomm Incorporated | Implementing synaptic learning using replay in spiking neural networks |
US20150269482A1 (en) * | 2014-03-24 | 2015-09-24 | Qualcomm Incorporated | Artificial neural network and perceptron learning using spiking neurons |
US11157800B2 (en) * | 2015-07-24 | 2021-10-26 | Brainchip, Inc. | Neural processor based accelerator system and method |
US20170236027A1 (en) * | 2016-02-16 | 2017-08-17 | Brainchip Inc. | Intelligent biomorphic system for pattern recognition with autonomous visual feature extraction |
US10586147B2 (en) * | 2016-09-22 | 2020-03-10 | Intel Corporation | Neuromorphic computing device, memory device, system, and method to maintain a spike history for neurons in a neuromorphic computing environment |
EP3324343A1 (en) * | 2016-11-21 | 2018-05-23 | Centre National de la Recherche Scientifique | Unsupervised detection of repeating patterns in a series of events |
US10846590B2 (en) * | 2016-12-20 | 2020-11-24 | Intel Corporation | Autonomous navigation using spiking neuromorphic computers |
US10565500B2 (en) | 2016-12-20 | 2020-02-18 | Intel Corporation | Unsupervised learning using neuromorphic computing |
US20180174042A1 (en) | 2016-12-20 | 2018-06-21 | Intel Corporation | Supervised training and pattern matching techniques for neural networks |
US11062203B2 (en) | 2016-12-30 | 2021-07-13 | Intel Corporation | Neuromorphic computer with reconfigurable memory mapping for various neural network topologies |
US10713558B2 (en) * | 2016-12-30 | 2020-07-14 | Intel Corporation | Neural network with reconfigurable sparse connectivity and online learning |
US11295204B2 (en) * | 2017-01-06 | 2022-04-05 | International Business Machines Corporation | Area-efficient, reconfigurable, energy-efficient, speed-efficient neural network substrate |
US11151441B2 (en) | 2017-02-08 | 2021-10-19 | Brainchip, Inc. | System and method for spontaneous machine learning and feature extraction |
US10878313B2 (en) | 2017-05-02 | 2020-12-29 | Intel Corporation | Post synaptic potential-based learning rule |
US11080592B2 (en) * | 2017-10-05 | 2021-08-03 | International Business Machines Corporation | Neuromorphic architecture for feature learning using a spiking neural network |
US11195079B2 (en) * | 2017-11-22 | 2021-12-07 | Intel Corporation | Reconfigurable neuro-synaptic cores for spiking neural network |
WO2019125419A1 (en) | 2017-12-19 | 2019-06-27 | Intel Corporation | Device, system and method for varying a synaptic weight with a phase differential of a spiking neural network |
US20190228285A1 (en) * | 2018-01-24 | 2019-07-25 | The Regents Of The University Of Michigan | Configurable Convolution Neural Network Processor |
CN111417963B (zh) | 2018-11-01 | 2021-06-22 | P·A·范德梅德 | 改进的尖峰神经网络 |
-
2019
- 2019-10-31 CN CN201980004791.6A patent/CN111417963B/zh active Active
- 2019-10-31 WO PCT/US2019/059032 patent/WO2020092691A1/en unknown
- 2019-10-31 KR KR1020217016728A patent/KR20210098992A/ko unknown
- 2019-10-31 EP EP19880608.5A patent/EP3874411A4/en active Pending
- 2019-10-31 CN CN202110835587.8A patent/CN113537471B/zh active Active
- 2019-10-31 US US16/670,368 patent/US11468299B2/en active Active
- 2019-10-31 JP JP2021524331A patent/JP2022509754A/ja active Pending
- 2019-10-31 AU AU2019372063A patent/AU2019372063B2/en active Active
-
2021
- 2021-10-18 AU AU2021254524A patent/AU2021254524B2/en active Active
-
2022
- 2022-10-07 US US17/962,082 patent/US11657257B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN113537471A (zh) | 2021-10-22 |
AU2019372063A1 (en) | 2021-06-10 |
EP3874411A1 (en) | 2021-09-08 |
AU2021254524B2 (en) | 2022-07-28 |
EP3874411A4 (en) | 2022-08-03 |
AU2019372063B2 (en) | 2022-12-01 |
US20230026363A1 (en) | 2023-01-26 |
US11468299B2 (en) | 2022-10-11 |
WO2020092691A1 (en) | 2020-05-07 |
CN111417963A (zh) | 2020-07-14 |
CN111417963B (zh) | 2021-06-22 |
CN113537471B (zh) | 2024-04-02 |
KR20210098992A (ko) | 2021-08-11 |
US11657257B2 (en) | 2023-05-23 |
AU2021254524A1 (en) | 2021-11-11 |
US20200143229A1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022509754A (ja) | 改良されたスパイキングニューラルネットワーク | |
CN107563497B (zh) | 用于稀疏人工神经网络的计算装置和运算方法 | |
KR102545128B1 (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
JP2022541909A (ja) | 再構成可能な時間符号化畳み込みスパイキングニューラルネットワークにおける特徴のイベントベースの分類 | |
KR20210127133A (ko) | 탄력적인 뉴럴 네트워크 | |
Koulakov et al. | Encoding innate ability through a genomic bottleneck | |
US10832121B2 (en) | Transform for a neurosynaptic core circuit | |
CN111340194B (zh) | 脉冲卷积神经网络神经形态硬件及其图像识别方法 | |
Li et al. | Performance analysis of fine-tune transferred deep learning | |
CN112598119B (zh) | 一种面向液体状态机的神经形态处理器片上存储压缩方法 | |
CN114766024A (zh) | 用于修剪神经网络的方法和设备 | |
Tareen et al. | Convolutional neural networks for beginners | |
JP2023526915A (ja) | アナログ人工知能ネットワーク推論のための行単位畳み込みニューラル・ネットワーク・マッピングのための効率的なタイル・マッピング | |
AU2022287647B2 (en) | An improved spiking neural network | |
Sugiarto et al. | Understanding a deep learning technique through a neuromorphic system a case study with spinnaker neuromorphic platform | |
Bihl et al. | Exploring spiking neural networks (SNN) for low Size, Weight, and Power (SWaP) benefits | |
Ali et al. | FlexPooling with Simple Auxiliary Classifiers in Deep Networks. | |
Negi et al. | Devanagari character recognition using artificial neural network | |
AU2023214246A1 (en) | Event-based extraction of features in a convolutional spiking neural network | |
Domen et al. | Implementation of Massive Artificial Neural Networks with Field-programmable Gate Arrays | |
Naylor | Design and application of neurocomputers | |
Tien | Neural Petri nets and their applications to combinatorial games |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231025 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240517 |