JP2017519268A - スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること - Google Patents
スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること Download PDFInfo
- Publication number
- JP2017519268A JP2017519268A JP2016561273A JP2016561273A JP2017519268A JP 2017519268 A JP2017519268 A JP 2017519268A JP 2016561273 A JP2016561273 A JP 2016561273A JP 2016561273 A JP2016561273 A JP 2016561273A JP 2017519268 A JP2017519268 A JP 2017519268A
- Authority
- JP
- Japan
- Prior art keywords
- state variable
- axon
- synapse
- state
- spike
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
例示的なニューラルシステム、トレーニングおよび動作
[0023]図1は、本開示のいくつかの態様による、複数のレベルのニューロンをもつ例示的な人工ニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104(すなわち、フィードフォワード結合)を介してニューロンの別のレベル106に結合されたニューロンのあるレベル102を有し得る。簡単のために、図1には2つのレベルのニューロンのみが示されているが、ニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。ニューロンのいくつかは、ラテラル結合を介して同じ層の他のニューロンに結合し得ることに留意されたい。さらに、ニューロンのいくつかは、フィードバック結合を介して前の層のニューロンに戻る形で結合し得る。
シナプスタイプ
[0035]ニューラルネットワークのハードウェアおよびソフトウェアモデルでは、シナプス関係機能の処理がシナプスタイプに基づき得る。シナプスタイプは、非塑性シナプス(non-plastic synapse)(重みおよび遅延の変化がない)、可塑性シナプス(重みが変化し得る)、構造遅延可塑性シナプス(重みおよび遅延が変化し得る)、完全可塑性シナプス(重み、遅延および結合性が変化し得る)、およびそれの変形(たとえば、遅延は変化し得るが、重みまたは結合性の変化はない)であり得る。複数のタイプの利点は、処理が再分割され得ることである。たとえば、非塑性シナプスは、可塑性機能を使用しないで実行される場合がある(またはそのような機能が完了するのを待つ)。同様に、遅延および重み可塑性は、一緒にまたは別々に、順にまたは並列に動作し得る動作に再分割され得る。異なるタイプのシナプスは、適用される異なる可塑性タイプの各々の異なるルックアップテーブルまたは式およびパラメータを有し得る。したがって、本方法は、シナプスのタイプについての関連する表、式、またはパラメータにアクセスする。
シナプス可塑性の決定
[0037]神経可塑性(または単に「可塑性」)は、脳内のニューロンおよびニューラルネットワークがそれらのシナプス結合と挙動とを新しい情報、感覚上の刺激、発展、損傷または機能不全に応答して変える能力である。可塑性は、生物学における学習および記憶にとって、また計算論的神経科学およびニューラルネットワークにとって重要である。(たとえば、Hebb則理論による)シナプス可塑性、スパイクタイミング依存可塑性(STDP)、非シナプス可塑性、活性依存可塑性、構造可塑性および恒常的可塑性など、様々な形の可塑性が研究されている。
ニューロンモデルおよび演算
[0044]有用なスパイキングニューロンモデルを設計するための一般的原理がいくつかある。良いニューロンモデルは、2つの計算レジーム、すなわち、一致検出および関数計算の点で豊かな潜在的挙動を有し得る。その上、良いニューロンモデルは、時間コーディングを可能にするための2つの要素を有する必要がある:入力の到着時間は出力時間に影響を与え、一致検出は狭い時間ウィンドウを有し得る。最終的に、計算上魅力的であるために、良いニューロンモデルは、連続時間に閉形式解と、ニアアトラクター(near attractor)と鞍点とを含む安定した挙動とを有し得る。言い換えれば、有用なニューロンモデルは、実用的なニューロンモデルであり、豊かで、現実的で、生物学的に一貫した挙動をモデル化でき、神経回路のエンジニアリングとリバースエンジニアリングの両方を可能にするニューロンモデルである。
Hunzinger Coldモデル
[0048]Hunzinger Coldニューロンモデルは、豊かな様々な神経挙動を再生し得る最小二重レジームスパイキング線形動的モデルである。モデルの1次元または2次元の線形ダイナミクスは2つのレジームを有することができ、時間定数(および結合)はレジームに依存し得る。しきい値下レジームでは、時間定数は、慣例により負であり、一般に生物学的に一貫した線形方式で静止状態に細胞を戻す役目を果たすリーキーチャネルダイナミクスを表す。しきい値上レジームにおける時間定数は、慣例により正であり、一般にスパイク生成のレイテンシを生じさせる一方でスパイク状態に細胞を駆り立てる反リーキーチャネルダイナミクスを反映する。
スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること
[0063]ドーパミン(DA)は、シナプスの可塑性を調節するニューロモジュレータである。ドーパミン調節可塑性は、プレスパイクおよびポストスパイクイベントと遅れ報酬信号とを相関させる。プレスパイクおよびポストスパイクイベントは、シナプスが、たとえば重み変化などの更新のために「適格(eligible)」であるかどうかを決定するために使用され得る。いくつかの態様では、プレ/ポストスパイクイベントは、シナプスごとに適格度トレースをトリガし得る。適格度トレースの大きさは、プレスパイクイベントとポストスパイクイベントとのタイミングに基づいて計算され得る。たとえば、大きさは、スパイクタイミング依存性可塑性ルックアップテーブル(たとえば、STDP(t_pre,post))などのルックアップテーブルを使用して計算され得る。したがって、適格度トレースの大きさは以下によって与えられ得る。
ニューラルモジュール更新
[0070]次に、ニューラルモジュール、含まれる状態変数がステップごとに更新され得る。たとえば、状態変数は各時間ステップ(τ)で更新され得る。いくつかの態様では、ニューラルモジュール状態変数はニューラル状態更新の終了時に更新され得る。他の態様では、ニューラルモジュール状態変数は、スパイクイベント(たとえば、スパイクまたはスパイクリプレイイベント)に基づくタイミングで更新され得る。
シナプス更新
[0080]次に、シナプスの状態変数は、ニューラルモジュール状態変数(たとえば、累積重み変化(報酬−適格度トレース累積))に基づいて更新され得る。いくつかの態様では、シナプスの状態変数は、特定のあらかじめ定められたイベントの発生に基づいて更新され得る。たとえば、シナプス状態変数は、指定されたタイミングまたは他のあらかじめ定められたイベントに応じて、スパイクイベントおよび/またはスパイクリプレイイベントの発生時に更新され得る。同様に、重み変化は、スパイクイベントに基づいて更新され得る。このように、シナプスの状態変数は、すべての時間ステップで状態変数を更新することに関連する負担および非効率性なしに更新され得る。これは、たとえば、大規模なシナプスファンイン/ファンアウトを有するネットワークにとって有利であり得る。
がトリガされる。ニューロモジュレータ信号(Da_F0)(906)が累積されて、その後、減衰を開始し得る。ニューロモジュレータ信号は、重み変化を累積する(908c)ために、すべての時間ステップで適格度トレースで乗算され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ニューラルネットワークのシナプスにおける状態変数を維持するための方法であって、
軸索における少なくとも1つの状態変数を維持することと、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新することと
を備える、方法。
[C2]
前記第1のあらかじめ定められたイベントが軸索状態更新を含む、C1に記載の方法。
[C3]
前記軸索状態更新が時間ステップベースで実行される、C2に記載の方法。
[C4]
前記第1のあらかじめ定められたイベントが報酬入力イベントを含む、C1に記載の方法。
[C5]
前記第2のあらかじめ定められたイベントが、スパイクイベントまたはスパイクリプレイイベントを備える、C1に記載の方法。
[C6]
前記軸索における前記少なくとも1つの状態変数が経時的に減衰し、時間差を補償するために経時的に畳み込まれる、C1に記載の方法。
[C7]
前記シナプスにおける前記状態変数が重みを備える、C1に記載の方法。
[C8]
前記軸索における前記少なくとも1つの状態変数が適格度トレースを備える、C1に記載の方法。
[C9]
前記軸索における前記少なくとも1つの状態変数が累積重みを備える、C1に記載の方法。
[C10]
前記軸索における前記少なくとも1つの状態変数が、複数のシナプスに影響を与えるグローバル値である、C1に記載の方法。
[C11]
前記軸索における前記少なくとも1つの状態変数と前記シナプスの前記状態変数とが異なるメモリに記憶される、C1に記載の方法。
[C12]
前記異なるメモリが異なる位置で提供される、C11に記載の方法。
[C13]
前記異なるメモリが異なるアクセス速度を有する、C11に記載の方法。
[C14]
前記シナプスの前記状態変数を記憶するメモリが、前記軸索における前記少なくとも1つの状態変数を記憶するメモリを実質的に上回る、C11に記載の方法。
[C15]
更新する前記ことが、シナプス適格度に少なくとも部分的に基づいてゲートされる、C1に記載の方法。
[C16]
前記シナプス適格度が、シナプス前スパイクとシナプス後スパイクとの時間的近接度に少なくとも部分的に基づいて決定される、C15に記載の方法。
[C17]
ニューラルネットワークのシナプスにおける状態変数を維持するための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
軸索における少なくとも1つの状態変数を維持して、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新する
ように構成される、装置。
[C18]
前記第1のあらかじめ定められたイベントが軸索状態更新を含む、C17に記載の装置。
[C19]
前記少なくとも1つのプロセッサが、前記軸索状態更新を時間ステップベースで実行するようにさらに構成される、C18に記載の装置。
[C20]
前記第1のあらかじめ定められたイベントが報酬入力イベントを含む、C17に記載の装置。
[C21]
前記第2のあらかじめ定められたイベントが、スパイクイベントまたはスパイクリプレイイベントを備える、C17に記載の装置。
[C22]
前記少なくとも1つのプロセッサが、前記軸索における前記少なくとも1つの状態変数が経時的に減衰して、時間差を補償するために経時的に畳み込まれるように、前記軸索における前記少なくとも1つの状態変数を維持するように構成される、C17に記載の装置。
[C23]
前記シナプスにおける前記状態変数が重みを備え、前記軸索における前記少なくとも1つの状態変数が累積重みを備える、C17に記載の装置。
[C24]
前記軸索における前記少なくとも1つの状態変数が、複数のシナプスに影響を与えるグローバル値である、C17に記載の装置。
[C25]
前記軸索における前記少なくとも1つの状態変数と前記シナプスの前記状態変数とが異なるメモリに記憶される、C17に記載の装置。
[C26]
前記異なるメモリが異なる位置で提供されて、異なるアクセス速度を有する、C25に記載の装置。
[C27]
前記シナプスの前記状態変数を記憶するメモリが、前記軸索における前記少なくとも1つの状態変数を記憶するメモリを実質的に上回る、C25に記載の装置。
[C28]
前記少なくとも1つのプロセッサが、シナプス適格度に少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新する前記ことをゲートするようにさらに構成され、前記シナプス適格度が、シナプス前スパイクとシナプス後スパイクとの時間的近接度に少なくとも部分的に基づいて決定される、C17に記載の装置。
[C29]
ニューラルネットワークのシナプスにおける状態変数を維持するための装置であって、
軸索における少なくとも1つの状態変数を維持するための手段と、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新するための手段と、
を備える、装置。
[C30]
ニューラルネットワークのシナプスにおける状態変数を維持するためのコンピュータプログラム製品であって、
プログラムコードを符号化した非一時的コンピュータ可読媒体を備え、前記プログラムコードが、
軸索における少なくとも1つの状態変数を維持するためのプログラムコードと、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新するためのプログラムコードと、
を備える、コンピュータプログラム製品。
Claims (30)
- ニューラルネットワークのシナプスにおける状態変数を維持するための方法であって、
軸索における少なくとも1つの状態変数を維持することと、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新することと
を備える、方法。 - 前記第1のあらかじめ定められたイベントが軸索状態更新を含む、請求項1に記載の方法。
- 前記軸索状態更新が時間ステップベースで実行される、請求項2に記載の方法。
- 前記第1のあらかじめ定められたイベントが報酬入力イベントを含む、請求項1に記載の方法。
- 前記第2のあらかじめ定められたイベントが、スパイクイベントまたはスパイクリプレイイベントを備える、請求項1に記載の方法。
- 前記軸索における前記少なくとも1つの状態変数が経時的に減衰し、時間差を補償するために経時的に畳み込まれる、請求項1に記載の方法。
- 前記シナプスにおける前記状態変数が重みを備える、請求項1に記載の方法。
- 前記軸索における前記少なくとも1つの状態変数が適格度トレースを備える、請求項1に記載の方法。
- 前記軸索における前記少なくとも1つの状態変数が累積重みを備える、請求項1に記載の方法。
- 前記軸索における前記少なくとも1つの状態変数が、複数のシナプスに影響を与えるグローバル値である、請求項1に記載の方法。
- 前記軸索における前記少なくとも1つの状態変数と前記シナプスの前記状態変数とが異なるメモリに記憶される、請求項1に記載の方法。
- 前記異なるメモリが異なる位置で提供される、請求項11に記載の方法。
- 前記異なるメモリが異なるアクセス速度を有する、請求項11に記載の方法。
- 前記シナプスの前記状態変数を記憶するメモリが、前記軸索における前記少なくとも1つの状態変数を記憶するメモリを実質的に上回る、請求項11に記載の方法。
- 更新する前記ことが、シナプス適格度に少なくとも部分的に基づいてゲートされる、請求項1に記載の方法。
- 前記シナプス適格度が、シナプス前スパイクとシナプス後スパイクとの時間的近接度に少なくとも部分的に基づいて決定される、請求項15に記載の方法。
- ニューラルネットワークのシナプスにおける状態変数を維持するための装置であって、
メモリと、
前記メモリに結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサが、
軸索における少なくとも1つの状態変数を維持して、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新する
ように構成される、装置。 - 前記第1のあらかじめ定められたイベントが軸索状態更新を含む、請求項17に記載の装置。
- 前記少なくとも1つのプロセッサが、前記軸索状態更新を時間ステップベースで実行するようにさらに構成される、請求項18に記載の装置。
- 前記第1のあらかじめ定められたイベントが報酬入力イベントを含む、請求項17に記載の装置。
- 前記第2のあらかじめ定められたイベントが、スパイクイベントまたはスパイクリプレイイベントを備える、請求項17に記載の装置。
- 前記少なくとも1つのプロセッサが、前記軸索における前記少なくとも1つの状態変数が経時的に減衰して、時間差を補償するために経時的に畳み込まれるように、前記軸索における前記少なくとも1つの状態変数を維持するように構成される、請求項17に記載の装置。
- 前記シナプスにおける前記状態変数が重みを備え、前記軸索における前記少なくとも1つの状態変数が累積重みを備える、請求項17に記載の装置。
- 前記軸索における前記少なくとも1つの状態変数が、複数のシナプスに影響を与えるグローバル値である、請求項17に記載の装置。
- 前記軸索における前記少なくとも1つの状態変数と前記シナプスの前記状態変数とが異なるメモリに記憶される、請求項17に記載の装置。
- 前記異なるメモリが異なる位置で提供されて、異なるアクセス速度を有する、請求項25に記載の装置。
- 前記シナプスの前記状態変数を記憶するメモリが、前記軸索における前記少なくとも1つの状態変数を記憶するメモリを実質的に上回る、請求項25に記載の装置。
- 前記少なくとも1つのプロセッサが、シナプス適格度に少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新する前記ことをゲートするようにさらに構成され、前記シナプス適格度が、シナプス前スパイクとシナプス後スパイクとの時間的近接度に少なくとも部分的に基づいて決定される、請求項17に記載の装置。
- ニューラルネットワークのシナプスにおける状態変数を維持するための装置であって、
軸索における少なくとも1つの状態変数を維持するための手段と、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新するための手段と、
を備える、装置。 - ニューラルネットワークのシナプスにおける状態変数を維持するためのコンピュータプログラム製品であって、
プログラムコードを符号化した非一時的コンピュータ可読媒体を備え、前記プログラムコードが、
軸索における少なくとも1つの状態変数を維持するためのプログラムコードと、前記軸索における前記少なくとも1つの状態変数が、第1のあらかじめ定められたイベントの発生に少なくとも部分的に基づいて更新される、
前記軸索における前記少なくとも1つの状態変数と第2のあらかじめ定められたイベントの発生とに少なくとも部分的に基づいて、前記シナプスにおける前記状態変数を更新するためのプログラムコードと、
を備える、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/248,211 US20150286925A1 (en) | 2014-04-08 | 2014-04-08 | Modulating plasticity by global scalar values in a spiking neural network |
US14/248,211 | 2014-04-08 | ||
PCT/US2015/022024 WO2015156989A2 (en) | 2014-04-08 | 2015-03-23 | Modulating plasticity by global scalar values in a spiking neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017519268A true JP2017519268A (ja) | 2017-07-13 |
JP2017519268A5 JP2017519268A5 (ja) | 2018-04-12 |
Family
ID=53059393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016561273A Pending JP2017519268A (ja) | 2014-04-08 | 2015-03-23 | スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること |
Country Status (8)
Country | Link |
---|---|
US (1) | US20150286925A1 (ja) |
EP (1) | EP3129921A2 (ja) |
JP (1) | JP2017519268A (ja) |
KR (1) | KR20160145636A (ja) |
CN (1) | CN106164940A (ja) |
BR (1) | BR112016023535A2 (ja) |
TW (1) | TW201602924A (ja) |
WO (1) | WO2015156989A2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499396B1 (ko) | 2017-03-03 | 2023-02-13 | 삼성전자 주식회사 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 |
CN108665061B (zh) * | 2017-03-28 | 2021-06-15 | 华为技术有限公司 | 数据处理装置和用于卷积计算的计算设备 |
TWI653584B (zh) | 2017-09-15 | 2019-03-11 | 中原大學 | 利用非揮發性記憶體完成類神經網路訓練的方法 |
KR102592146B1 (ko) * | 2017-11-06 | 2023-10-20 | 삼성전자주식회사 | 시냅스 가중치 학습을 위한 뉴런 회로, 시스템 및 방법 |
CN108009636B (zh) * | 2017-11-16 | 2021-12-07 | 华南师范大学 | 深度学习神经网络进化方法、装置、介质和计算机设备 |
CN108388213B (zh) * | 2018-02-05 | 2019-11-08 | 浙江天悟智能技术有限公司 | 基于局部可塑性回声状态网络的聚酯纺丝工艺控制方法 |
US10846593B2 (en) * | 2018-04-27 | 2020-11-24 | Qualcomm Technologies Inc. | System and method for siamese instance search tracker with a recurrent neural network |
CN109919305A (zh) * | 2018-11-12 | 2019-06-21 | 中国科学院自动化研究所 | 基于自主决策脉冲神经网络的响应动作确定方法及系统 |
US11526735B2 (en) * | 2018-12-16 | 2022-12-13 | International Business Machines Corporation | Neuromorphic neuron apparatus for artificial neural networks |
US11727252B2 (en) | 2019-08-30 | 2023-08-15 | International Business Machines Corporation | Adaptive neuromorphic neuron apparatus for artificial neural networks |
CN113011573B (zh) * | 2021-03-18 | 2024-04-16 | 北京灵汐科技有限公司 | 一种权重处理方法及装置、电子设备和可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013071160A1 (en) * | 2011-11-09 | 2013-05-16 | Qualcomm Incorporated | Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: neural component memory transfer |
JP2014504756A (ja) * | 2010-12-30 | 2014-02-24 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 電子シナプスを含むシステム、装置およびコンピュータ・プログラム(強化学習のための電子シナプス) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5630024A (en) * | 1994-01-19 | 1997-05-13 | Nippon Telegraph And Telephone Corporation | Method and apparatus for processing using neural network with reduced calculation amount |
US7330369B2 (en) * | 2004-04-06 | 2008-02-12 | Bao Tran | NANO-electronic memory array |
US8200593B2 (en) * | 2009-07-20 | 2012-06-12 | Corticaldb Inc | Method for efficiently simulating the information processing in cells and tissues of the nervous system with a temporal series compressed encoding neural network |
US8475063B1 (en) * | 2012-01-02 | 2013-07-02 | Chung Jen Chang | Lens cap |
US9208431B2 (en) * | 2012-05-10 | 2015-12-08 | Qualcomm Incorporated | Method and apparatus for strategic synaptic failure and learning in spiking neural networks |
-
2014
- 2014-04-08 US US14/248,211 patent/US20150286925A1/en not_active Abandoned
-
2015
- 2015-03-23 CN CN201580018549.6A patent/CN106164940A/zh active Pending
- 2015-03-23 EP EP15721364.6A patent/EP3129921A2/en not_active Withdrawn
- 2015-03-23 KR KR1020167030348A patent/KR20160145636A/ko unknown
- 2015-03-23 BR BR112016023535A patent/BR112016023535A2/pt not_active IP Right Cessation
- 2015-03-23 WO PCT/US2015/022024 patent/WO2015156989A2/en active Application Filing
- 2015-03-23 JP JP2016561273A patent/JP2017519268A/ja active Pending
- 2015-03-24 TW TW104109401A patent/TW201602924A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014504756A (ja) * | 2010-12-30 | 2014-02-24 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 電子シナプスを含むシステム、装置およびコンピュータ・プログラム(強化学習のための電子シナプス) |
WO2013071160A1 (en) * | 2011-11-09 | 2013-05-16 | Qualcomm Incorporated | Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: neural component memory transfer |
Also Published As
Publication number | Publication date |
---|---|
WO2015156989A2 (en) | 2015-10-15 |
BR112016023535A2 (pt) | 2017-08-15 |
CN106164940A (zh) | 2016-11-23 |
US20150286925A1 (en) | 2015-10-08 |
KR20160145636A (ko) | 2016-12-20 |
WO2015156989A3 (en) | 2015-12-03 |
EP3129921A2 (en) | 2017-02-15 |
TW201602924A (zh) | 2016-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6130056B2 (ja) | スパイキングネットワークの効率的なハードウェア実装 | |
JP2017509982A (ja) | 原位置ニューラルネットワークコプロセッシング | |
JP6275868B2 (ja) | ニューラルウォッチドッグ | |
JP2017519268A (ja) | スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること | |
US9558442B2 (en) | Monitoring neural networks with shadow networks | |
JP2017509951A (ja) | スパースニューラルネットワークを構成すること | |
JP2017516192A (ja) | ニューラルネットワークにおける差分符号化 | |
JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
JP2017525038A (ja) | ニューラルネットワークにおける畳込み演算の分解 | |
JP2017515205A (ja) | Coldニューロンスパイクタイミングバックプロバゲーション | |
JP2016536679A (ja) | ニューラルシミュレータ用の共有メモリアーキテクチャ | |
JP2017509978A (ja) | 確率論的スパイキングベイジアンネットワークに関する事象に基づく推論および学習 | |
JP2016539414A (ja) | スパイキングニューラルネットワークにおいてリプレーを使用するシナプス学習を実装すること | |
JP2016536657A (ja) | ニューラルモデルのためのグループタグの実装のための方法および装置 | |
JP2017509980A (ja) | 動的な空間ターゲット選択 | |
JP2017510890A (ja) | 一般的なニューロンモデルの効率的な実装のための方法および装置 | |
JP2016538633A (ja) | 多次元範囲にわたって分離可能なサブシステムを含むシステムの評価 | |
JP6193509B2 (ja) | 可塑性シナプス管理 | |
JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
JP2016537711A (ja) | スパイキングニューロンのネットワークにおける輻輳回避 | |
JP6133517B2 (ja) | 座標変換のための位相コーディング | |
JP6096388B2 (ja) | ニューラルネットワークモデルにおけるドップラー効果処理 | |
JP2017509956A (ja) | 値をスパイクに変換するための方法 | |
JP2017513110A (ja) | ニューロモーフィックモデル開発のためのコンテキストリアルタイムフィードバック | |
JP2016536676A (ja) | ニューラルモデル実行をリモートで制御および監視するための方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191112 |