JP6219509B2 - シナプス遅延を動的に割り当てることおおよび検査すること - Google Patents
シナプス遅延を動的に割り当てることおおよび検査すること Download PDFInfo
- Publication number
- JP6219509B2 JP6219509B2 JP2016523259A JP2016523259A JP6219509B2 JP 6219509 B2 JP6219509 B2 JP 6219509B2 JP 2016523259 A JP2016523259 A JP 2016523259A JP 2016523259 A JP2016523259 A JP 2016523259A JP 6219509 B2 JP6219509 B2 JP 6219509B2
- Authority
- JP
- Japan
- Prior art keywords
- delay
- synapse
- synapses
- dynamically
- delay parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
例示的なニューラルシステム、トレーニングおよび動作
シナプスタイプ
シナプス可塑性の決定
ニューロンモデルおよび演算
Hunzinger Coldモデル
シナプス遅延を動的に割り当てることおよび検査すること
[0065]SetDelay(int delay)
[0066]は、特定のシナプスに割り当てられるべき遅延に対応する整数値を受け入れる。いくつかの態様では、遅延は浮動小数点数であり得る。関数
[0067]SetDelay(float delay)
[0068]は、浮動小数点値を受け入れて、整数遅延の指定を可能にする。浮動小数点値を使用して、遅延も秒単位で設定され得る。
[0070]いくつかの態様では、将来の時間のために遅延値が計算され得る。遅延を変更するべき時間を指定することによって、研究者は、遅延変更をスケジューリングし得る。たとえば、シナプス遅延は、以下の形式の関数を使用して割り当てられ得る。
[0071]SetDelay(int time,float delay)
[0072]この関数は、将来の指定された時間にシナプスの遅延を割り当てるために使用され得る。遅延値は、浮動小数点数であり得る。もちろん、これは例示にすぎず、遅延の整数値は代替的に指定され得る。
[0074]いくつかの態様では、遅延はまた、以下の形式の関数を使用してインクリメントまたはデクリメントされ得る。
[0075]IncrementDelay(float delta)
[0076]DecrementDelay(float delta)
[0077]これは、まず遅延を検査することなしに遅延の修正を可能にする。
[0079]上述のように単一のシナプスの遅延を割り当てることに加えて、いくつかの態様では、シナプスの指定されたグループまたはサブセットの遅延は、以下の形式の関数を使用して割り当てられ得る。
[0080]SetDelay(string tag,float delay)
[0081]これは、指定されたタグが付けられたシナプスのすべてに指定された遅延を割り当てるために使用され得る。
[0083]いくつかの態様では、シナプスの指定されたサブセットのランダム遅延は、以下の形式の関数を使用して割り当てられ得る。
[0084]SetDelay(string tag,function distribution)
[0085]これは、指定された確率分布から取得された値を使用して、指定されたタグが付けられたシナプスのすべてに遅延を割り当てるために使用され得る。これは、ニューラルネットワークにおける多様性を提供し得るので、有益であり得る。
[0087]いくつかの態様では、シナプスの指定されたサブセットの任意の関数から得られる遅延は、以下の形式の関数を使用して割り当てられ得る。
[0088]SetDelay(string tag,function arbitrary)
[0089]これは、指定された任意の関数から取得された値を使用して、指定されたタグが付けられたシナプスのすべてに遅延を割り当てるために使用され得る。
[0091]いくつかの態様では、適切な遅延を決定するために、シナプスを通じて接続されたニューロンのタイプが使用され得る。たとえば、そのようなシナプスの遅延は、以下の形式の関数を使用して割り当てられ得る。
[0092]SetDelay(neuron_type pre,neuron_type post)
[0093]これは、指定されたシナプス前(pre)およびシナプス後(post)ニューロンタイプを使用して、シナプスに遅延を割り当てる。
[0095]いくつかの態様では、ネットワークからシナプスを除去するために、予約された遅延値が使用され得る。たとえば、この予約された値(たとえば、−1)に遅延を設定することによって、シナプスは将来の処理において使用されるべきではないことを示すことができる。
[0097]SetDelay()関数に相補的な、GetDelay()関数が、HLND言語の一部として提供され得る。GetDelay()関数は、遅延値を動的に取り出すために使用され得る。また、GetDelay()関数は、シナプスの遅延値を検査するために使用され得る。関数は、たとえば以下によって与えられ得る。
[0098]int GetDelay()、または
[0099]float GetDelay()
[00100]これは、どの引数も受け付けないことがあるが、それぞれ、特定のシナプスに現在割り当てられた遅延値に対応する整数値、または浮動小数点値のいずれかを返し得る。
[00102]単一シナプスの遅延を検査することに加えて、シナプスの指定されたサブセットの遅延が検査され得る。たとえば、シナプスのファミリまたはグループが特定のタグを割り当てられている場合、指定されたファミリの遅延は、以下の例示的な関数を使用して検査され得る。
[00103]int[]GetDelay(string tag)、または
[00104]float[]GetDelay(string tag)
[00105]両方とも、指定されたタグが付けられたすべてのシナプスに対応する遅延の配列を返す。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ニューラルネットワークにおけるシナプス遅延を動的に修正するための方法であって、
遅延パラメータを初期化することと、
前記ニューラルネットワークを操作することと、
前記遅延パラメータを含むステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記遅延パラメータを動的に更新することと
を備える、方法。
[C2]
前記遅延パラメータは、シナプスタイプ、ニューロンタイプ、およびメモリリソースのうちの少なくとも1つに基づいて動的に更新される、
C1に記載の方法。
[C3]
動的に更新することは、前記遅延パラメータをインクリメントまたはデクリメントすることをさらに備える、
C1に記載の方法。
[C4]
動的に更新することは、シナプスまたはシナプスのファミリの前記遅延パラメータを更新することをさらに備える、
C1に記載の方法。
[C5]
少なくとも1つの遅延値を動的に取り出すことをさらに備える、
C1に記載の方法。
[C6]
動的に更新することは、シナプスを除去するために前記遅延パラメータを動的に更新することを備える、
C1に記載の方法。
[C7]
無効な遅延パラメータを決定することと、
前記無効な遅延パラメータを切り捨てることと
をさらに備える、C1に記載の方法。
[C8]
動的な更新の数を限定することをさらに備える、
C1に記載の方法。
[C9]
前記動的に更新することは、将来の時間に発生する前記遅延パラメータを更新することを含む、
C1に記載の方法。
[C10]
前記遅延パラメータは、任意の関数に少なくとも部分的に基づいて動的に更新される、
C1に記載の方法。
[C11]
前記任意の関数は、シナプスの集団の確率関数、あるいはシナプスのグループまたは特定のシナプスのための時間にわたる関数である、
C10に記載の方法。
[C12]
前記遅延パラメータの前記更新は、確率的または決定論的である、
C11に記載の方法。
[C13]
ニューラルネットワークにおけるシナプス遅延を動的に修正するための装置であって、
メモリと、
少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
遅延パラメータを初期化することと、
前記ニューラルネットワークを操作することと、
前記遅延パラメータを含むステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記遅延パラメータを動的に更新することと
を行うように構成される、装置。
[C14]
前記遅延パラメータは、シナプスタイプ、ニューロンタイプ、およびメモリリソースのうちの少なくとも1つに基づいて動的に更新される、
C13に記載の装置。
[C15]
前記少なくとも1つのプロセッサは、前記遅延パラメータをインクリメントまたはデクリメントするようにさらに構成される、
C13に記載の装置。
[C16]
前記少なくとも1つのプロセッサは、シナプスまたはシナプスのファミリの前記遅延パラメータを動的に更新するようにさらに構成される、
C13に記載の装置。
[C17]
前記少なくとも1つのプロセッサは、少なくとも1つの遅延値を動的に取り出すようにさらに構成される、
C13に記載の装置。
[C18]
前記少なくとも1つのプロセッサは、シナプスを除去するために前記遅延パラメータを動的に更新するようにさらに構成される、
C13に記載の装置。
[C19]
前記少なくとも1つのプロセッサは、
無効な遅延パラメータを決定することと、
前記無効な遅延パラメータを切り捨てることと
を行うようにさらに構成される、C13に記載の装置。
[C20]
前記少なくとも1つのプロセッサは、動的な更新の数を限定するようにさらに構成される、
C13に記載の装置。
[C21]
前記少なくとも1つのプロセッサは、将来の時間に発生する前記遅延パラメータを動的に更新するようにさらに構成される、
C13に記載の装置。
[C22]
前記遅延パラメータは、任意の関数に少なくとも部分的に基づいて動的に更新される、
C13に記載の装置。
[C23]
前記任意の関数は、シナプスの集団の確率関数、あるいはシナプスのグループまたは特定のシナプスのための継時的な関数である、
C22に記載の装置。
[C24]
前記遅延パラメータの前記更新は、確率的または決定論的である、
C23に記載の装置。
[C25]
ニューラルネットワークにおけるシナプス遅延を動的に修正するための装置であって、
遅延パラメータを初期化するための手段と、
前記ニューラルネットワークを操作するための手段と、
前記遅延パラメータを含むステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記遅延パラメータを動的に更新するための手段とを備える、装置。
[C26]
ニューラルネットワークにおけるシナプス遅延を動的に修正するためのコンピュータプログラム製品であって、
その上に符号化したプログラムコードを有する非一時的コンピュータ可読媒体を備え、前記プログラムコードは、
遅延パラメータを初期化するためのプログラムコードと、
前記ニューラルネットワークを操作するためのプログラムコードと、
前記遅延パラメータを含むステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記遅延パラメータを動的に更新するためのプログラムコードと
を備える、コンピュータプログラム製品。
Claims (22)
- 複数のシナプスを含むニューラルネットワークにおけるシナプス遅延を動的に修正するためのコンピュータによって実装される方法であって、
前記複数のシナプスのうちの1つのシナプスの遅延パラメータを初期化することと、
前記遅延パラメータを設定するための関数を使用してシミュレーションモードで前記ニューラルネットワークを操作することと、
前記シナプスの前記遅延パラメータを含む前記関数のプログラムステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記シミュレーションモードでの前記ニューラルネットワークの操作の間に、シナプスタイプ、ニューロンモデルタイプ、またはメモリリソースのうちの少なくとも1つに基づいて、前記シナプスの前記遅延パラメータを動的に更新することと、
前記複数のシナプスのサブセットに関する少なくとも1つの遅延値を動的に取り出すことと
を備える、コンピュータによって実装される方法。 - 前記動的に更新することは、前記シナプスの前記遅延パラメータをインクリメントまたはデクリメントすることをさらに備える、
請求項1に記載のコンピュータによって実装される方法。 - 前記動的に更新することは、前記複数のシナプスのファミリの前記遅延パラメータを更新することをさらに備える、
請求項1に記載のコンピュータによって実装される方法。 - 前記動的に更新することは、前記シナプスを除去するために前記シナプスの前記遅延パラメータを動的に更新することを備える、
請求項1に記載のコンピュータによって実装される方法。 - 前記シナプスの前記遅延パラメータが、指定された遅延値よりも大きいとき、前記シナプスの前記遅延パラメータの値を切り捨てること
をさらに備える、請求項1に記載のコンピュータによって実装される方法。 - 動的な更新の数が所定のしきい値に限定される、
請求項1に記載のコンピュータによって実装される方法。 - 前記動的に更新することは、将来の時間に発生する前記シナプスの前記遅延パラメータを更新することを含む、
請求項1に記載のコンピュータによって実装される方法。 - 前記シナプスの前記遅延パラメータは、任意の関数に少なくとも部分的に基づいて動的に更新される、
請求項1に記載のコンピュータによって実装される方法。 - 前記任意の関数は、前記複数のシナプスの前記サブセットの確率関数、あるいは前記複数のシナプスの特定のシナプスまたは前記複数のシナプスの前記サブセットのための時間にわたる関数である、
請求項8に記載のコンピュータによって実装される方法。 - 前記シナプスの前記遅延パラメータの前記更新は、確率的または決定論的である、
請求項9に記載のコンピュータによって実装される方法。 - 複数のシナプスを含むニューラルネットワークにおけるシナプス遅延を動的に修正するための装置であって、
メモリと、
少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
前記複数のシナプスのうちの1つのシナプスの遅延パラメータを初期化することと、
前記遅延パラメータを設定するための関数を使用してシミュレーションモードで前記ニューラルネットワークを操作することと、
前記シナプスの前記遅延パラメータを含む前記関数のプログラムステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記シミュレーションモードでの前記ニューラルネットワークの操作の間に、シナプスタイプ、ニューロンモデルタイプ、またはメモリリソースのうちの少なくとも1つに基づいて、前記シナプスの前記遅延パラメータを動的に更新することと、
前記複数のシナプスのサブセットに関する少なくとも1つの遅延値を動的に取り出すことと
を行うように構成される、装置。 - 前記少なくとも1つのプロセッサは、前記シナプスの前記遅延パラメータをインクリメントまたはデクリメントするようにさらに構成される、
請求項11に記載の装置。 - 前記少なくとも1つのプロセッサは、前記複数のシナプスのファミリの前記遅延パラメータを動的に更新するようにさらに構成される、
請求項11に記載の装置。 - 前記少なくとも1つのプロセッサは、前記シナプスを除去するために前記シナプスの前記遅延パラメータを動的に更新するようにさらに構成される、
請求項11に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記シナプスの前記遅延パラメータが、指定された遅延値よりも大きいとき、前記シナプスの前記遅延パラメータの値を切り捨てるようにさらに構成される、請求項11に記載の装置。 - 前記少なくとも1つのプロセッサは、動的な更新の数を所定のしきい値に限定するようにさらに構成される、
請求項11に記載の装置。 - 前記少なくとも1つのプロセッサは、将来の時間に発生する前記シナプスの前記遅延パラメータを動的に更新するようにさらに構成される、
請求項11に記載の装置。 - 前記シナプスの前記遅延パラメータは、任意の関数に少なくとも部分的に基づいて動的に更新される、
請求項11に記載の装置。 - 前記任意の関数は、前記複数のシナプスの前記サブセットの確率関数、あるいは前記複数のシナプスの特定のシナプスまたは前記複数のシナプスの前記サブセットのための時間にわたる関数である、
請求項18に記載の装置。 - 前記シナプスの前記遅延パラメータの前記更新は、確率的または決定論的である、
請求項19に記載の装置。 - 複数のシナプスを含むニューラルネットワークにおけるシナプス遅延を動的に修正するための装置であって、
前記複数のシナプスのうちの1つのシナプスの遅延パラメータを初期化するための手段と、
前記遅延パラメータを設定するための関数を使用してシミュレーションモードで前記ニューラルネットワークを操作するための手段と、
前記シナプスの前記遅延パラメータを含む前記関数のプログラムステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記シミュレーションモードでの前記ニューラルネットワークの操作の間に、シナプスタイプ、ニューロンモデルタイプ、またはメモリリソースのうちの少なくとも1つに基づいて、前記シナプスの前記遅延パラメータを動的に更新するための手段と、
前記複数のシナプスのサブセットに関する少なくとも1つの遅延値を動的に取り出すための手段と
を備える、装置。 - 複数のシナプスを含むニューラルネットワークにおけるシナプス遅延を動的に修正するための、プログラムコードを備えるコンピュータプログラムであって、前記プログラムコードは、プロセッサによって実行され、および、
前記複数のシナプスのうちの1つのシナプスの遅延パラメータを初期化するためのプログラムコードと、
前記遅延パラメータを設定するための関数を使用してシミュレーションモードで前記ニューラルネットワークを操作するためのプログラムコードと、
前記シナプスの前記遅延パラメータを含む前記関数のプログラムステートメントに少なくとも部分的に基づくプログラムに少なくとも部分的に基づいて、前記シミュレーションモードでの前記ニューラルネットワークの操作の間に、シナプスタイプ、ニューロンモデルタイプ、またはメモリリソースのうちの少なくとも1つに基づいて、前記シナプスの前記遅延パラメータを動的に更新するためのプログラムコードと、
前記複数のシナプスのサブセットに関する少なくとも1つの遅延値を動的に取り出すためのプログラムコードと
を備える、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/056,856 | 2013-10-17 | ||
US14/056,856 US9536190B2 (en) | 2013-10-17 | 2013-10-17 | Dynamically assigning and examining synaptic delay |
PCT/US2014/052157 WO2015057305A1 (en) | 2013-10-17 | 2014-08-21 | Dynamically assigning and examining synaptic delay |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016537712A JP2016537712A (ja) | 2016-12-01 |
JP2016537712A5 JP2016537712A5 (ja) | 2017-03-23 |
JP6219509B2 true JP6219509B2 (ja) | 2017-10-25 |
Family
ID=51492476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016523259A Active JP6219509B2 (ja) | 2013-10-17 | 2014-08-21 | シナプス遅延を動的に割り当てることおおよび検査すること |
Country Status (7)
Country | Link |
---|---|
US (1) | US9536190B2 (ja) |
EP (1) | EP3058517A1 (ja) |
JP (1) | JP6219509B2 (ja) |
KR (1) | KR101782760B1 (ja) |
CN (1) | CN105659260B (ja) |
CA (1) | CA2926034A1 (ja) |
WO (1) | WO2015057305A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10084620B1 (en) | 2017-03-01 | 2018-09-25 | Intel Corporation | Neural network-based systems for high speed data links |
CN108256638B (zh) * | 2018-01-05 | 2021-06-22 | 上海兆芯集成电路有限公司 | 微处理器电路以及执行神经网络运算的方法 |
CN109002647B (zh) * | 2018-08-17 | 2019-06-07 | 郑州轻工业学院 | 一种具有延时学习功能的忆阻联想记忆神经网络电路 |
US11461645B2 (en) | 2019-12-02 | 2022-10-04 | International Business Machines Corporation | Initialization of memory networks |
CN111563593B (zh) * | 2020-05-08 | 2023-09-15 | 北京百度网讯科技有限公司 | 神经网络模型的训练方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5666518A (en) * | 1995-06-26 | 1997-09-09 | The United States Of America As Represented By The Secretary Of The Air Force | Pattern recognition by simulated neural-like networks |
US5877954A (en) | 1996-05-03 | 1999-03-02 | Aspen Technology, Inc. | Hybrid linear-neural network process control |
US8335564B2 (en) | 2005-05-27 | 2012-12-18 | Rami Rom | Ventricle pacing during atrial fibrillation episodes |
US7958071B2 (en) * | 2007-04-19 | 2011-06-07 | Hewlett-Packard Development Company, L.P. | Computational nodes and computational-node networks that include dynamical-nanodevice connections |
US9147156B2 (en) * | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
US8725662B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Apparatus and method for partial evaluation of synaptic updates based on system events |
US9092735B2 (en) | 2011-09-21 | 2015-07-28 | Qualcomm Incorporated | Method and apparatus for structural delay plasticity in spiking neural networks |
-
2013
- 2013-10-17 US US14/056,856 patent/US9536190B2/en not_active Expired - Fee Related
-
2014
- 2014-08-21 CN CN201480056520.2A patent/CN105659260B/zh active Active
- 2014-08-21 EP EP14759414.7A patent/EP3058517A1/en not_active Ceased
- 2014-08-21 CA CA2926034A patent/CA2926034A1/en not_active Abandoned
- 2014-08-21 WO PCT/US2014/052157 patent/WO2015057305A1/en active Application Filing
- 2014-08-21 JP JP2016523259A patent/JP6219509B2/ja active Active
- 2014-08-21 KR KR1020167012560A patent/KR101782760B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101782760B1 (ko) | 2017-09-27 |
CN105659260B (zh) | 2018-06-29 |
CN105659260A (zh) | 2016-06-08 |
US20150112908A1 (en) | 2015-04-23 |
WO2015057305A1 (en) | 2015-04-23 |
US9536190B2 (en) | 2017-01-03 |
JP2016537712A (ja) | 2016-12-01 |
KR20160071437A (ko) | 2016-06-21 |
CA2926034A1 (en) | 2015-04-23 |
EP3058517A1 (en) | 2016-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6130056B2 (ja) | スパイキングネットワークの効率的なハードウェア実装 | |
JP6275868B2 (ja) | ニューラルウォッチドッグ | |
US9558442B2 (en) | Monitoring neural networks with shadow networks | |
JP2017509982A (ja) | 原位置ニューラルネットワークコプロセッシング | |
JP2017509951A (ja) | スパースニューラルネットワークを構成すること | |
JP2017513127A (ja) | スパイキング深層信念ネットワーク(dbn)におけるトレーニング、認識、および生成 | |
JP2017516192A (ja) | ニューラルネットワークにおける差分符号化 | |
JP2017525038A (ja) | ニューラルネットワークにおける畳込み演算の分解 | |
JP2016536679A (ja) | ニューラルシミュレータ用の共有メモリアーキテクチャ | |
JP2017515205A (ja) | Coldニューロンスパイクタイミングバックプロバゲーション | |
JP2017519268A (ja) | スパイキングニューラルネットワークにおけるグローバルスカラ値によって可塑性を調節すること | |
WO2015053864A1 (en) | Compiling network descriptions to multiple platforms | |
JP2016539414A (ja) | スパイキングニューラルネットワークにおいてリプレーを使用するシナプス学習を実装すること | |
US20150278685A1 (en) | Probabilistic representation of large sequences using spiking neural network | |
JP2017510890A (ja) | 一般的なニューロンモデルの効率的な実装のための方法および装置 | |
JP6219509B2 (ja) | シナプス遅延を動的に割り当てることおおよび検査すること | |
JP2016538633A (ja) | 多次元範囲にわたって分離可能なサブシステムを含むシステムの評価 | |
JP2017509980A (ja) | 動的な空間ターゲット選択 | |
JP6193509B2 (ja) | 可塑性シナプス管理 | |
JP2016537711A (ja) | スパイキングニューロンのネットワークにおける輻輳回避 | |
JP6096388B2 (ja) | ニューラルネットワークモデルにおけるドップラー効果処理 | |
JP2017509956A (ja) | 値をスパイクに変換するための方法 | |
JP2017513110A (ja) | ニューロモーフィックモデル開発のためのコンテキストリアルタイムフィードバック | |
JP2017509979A (ja) | 空間ターゲット選択のためのアンバランスな交差抑制メカニズム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170220 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6219509 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |