JP6092213B2 - ニューラルテンポラルコーディング、学習および認識のための方法および装置 - Google Patents

ニューラルテンポラルコーディング、学習および認識のための方法および装置 Download PDF

Info

Publication number
JP6092213B2
JP6092213B2 JP2014526129A JP2014526129A JP6092213B2 JP 6092213 B2 JP6092213 B2 JP 6092213B2 JP 2014526129 A JP2014526129 A JP 2014526129A JP 2014526129 A JP2014526129 A JP 2014526129A JP 6092213 B2 JP6092213 B2 JP 6092213B2
Authority
JP
Japan
Prior art keywords
neuron circuit
neuron
delay
input
synapse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014526129A
Other languages
English (en)
Other versions
JP2014526110A (ja
Inventor
チャン、ビクター・ホッキウ
ハンジンジャー、ジェイソン・フランク
ベハバディ、バルディア・ファラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014526110A publication Critical patent/JP2014526110A/ja
Application granted granted Critical
Publication of JP6092213B2 publication Critical patent/JP6092213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示のいくつかの態様は、一般に、ニューラルシステム工学に関し、より詳細には、ニューラルテンポラルコーディング、学習および認識の方法および装置に関する。
ニューラルシステムにおけるニューロンは、タイミングスパイクの形の、いわゆるテンポラルコードをテンポラルに使って、情報を通信することができる。このため、コード化および復号の方法ならびにそのようなテンポラル情報を学習する方法が、主な対象である。
具体的には、入力の一致または入力の順序だけではなく、他のテンポラルパターン方法とは対照的にテンポラルパターンを区別することが所望される。本開示は、生物学的に示唆される/一貫するが、複雑さが低減され、テンポラルスパイク信号パターンをコーディング、復号、認識、および学習することが可能な方法を提供する。
本開示のいくつかの態様は、ニューラルテンポラルコーディングの方法を提供する。この方法は概して、ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用することと、動的スパイキングモデルを適用して、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断することと、教師なし学習規則に従って、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整することとを含む。
本開示のいくつかの態様は、ニューラルテンポラルコーディングのための装置を提供する。この装置は概して、ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用するように構成された第1の回路と、動的スパイキングモデルを適用して、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断するように構成された第2の回路と、教師なし学習規則に従って、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するように構成された第3の回路とを含む。
本開示のいくつかの態様は、ニューラルテンポラルコーディングのための装置を提供する。この装置は概して、ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用するための手段と、動的スパイキングモデルを適用して、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断するための手段と、教師なし学習規則に従って、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するための手段とを含む。
本開示のいくつかの態様は、ニューラルテンポラルコーディングのためのコンピュータプログラム製品を提供する。このコンピュータプログラム製品は概して、ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用し、動的スパイキングモデルを適用して、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断し、教師なし学習規則に従って、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するためのコードを備えるコンピュータ可読媒体を含む。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングの方法を提供する。この方法は概して、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合することと、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを入力パターンの第1のサブセクションとマッチングすることとを含み、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤは、別のレイヤのニューロン回路の発火の組合せにマッチングする。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置を提供する。この装置は概して、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合するように構成された第1の回路と、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを入力パターンの第1のサブセクションとマッチングするように構成された第2の回路とを含み、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤは、別のレイヤのニューロン回路の発火の組合せにマッチングする。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置を提供する。この装置は概して、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合するための手段と、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを入力パターンの第1のサブセクションとマッチングするための手段とを含み、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤは、別のレイヤのニューロン回路の発火の組合せとマッチングする。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのためのコンピュータプログラム製品を提供する。このコンピュータプログラム製品は概して、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合し、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを入力パターンの第1のサブセクションとマッチングするためのコードを備えるコンピュータ可読媒体を含み、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤは、別のレイヤのニューロン回路の発火の組合せとマッチングする。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングの方法を提供する。この方法は概して、関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えることを含み、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられ、シナプスは複数のセットに属し、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置を提供する。この装置は概して、関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えるように構成された第1の回路を含み、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられ、シナプスは複数のセットに属し、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置を提供する。この装置は概して、関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えるための手段を含み、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられ、シナプスは複数のセットに属し、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える。
本開示のいくつかの態様は、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのためのコンピュータプログラム製品を提供する。このコンピュータプログラム製品は概して、関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えるためのコードを備えるコンピュータ可読媒体を含み、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられ、シナプスは複数のセットに属し、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える。
本開示のいくつかの態様は、一般入力パターンのためのニューラルコーディングの方法を提供する。この方法は概して、細胞体をもつニューロン回路に1つまたは複数のシナプスを結合することであって、1つまたは複数のシナプスの各々は、ニューロン回路の入力求心性部分に対応し、重みおよび相対遅延を有することと、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招くこととを含み、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える。
本開示のいくつかの態様は、一般入力パターンのためのニューラルコーディングのための装置を提供する。この装置は概して、細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するように構成された第1の回路であって、1つまたは複数のシナプスの各々は、ニューロン回路の入力求心性部分に対応し、重みおよび相対遅延を有する回路と、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招くように構成された第2の回路とを含み、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える。
本開示のいくつかの態様は、一般入力パターンのためのニューラルコーディングのための装置を提供する。この装置は概して、細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するための手段であって、1つまたは複数のシナプスの各々が、ニューロン回路の入力求心性部分に対応し、重みおよび相対遅延を有する手段と、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招くための手段とを含み、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える。
本開示のいくつかの態様は、一般入力パターンのためのニューラルコーディングのためのコンピュータプログラム製品を提供する。このコンピュータプログラム製品は概して、細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するためのコードであって、1つまたは複数のシナプスの各々が、ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有し、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招くためのコードを備えるコンピュータ可読媒体を含み、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える。
本開示の上述の特徴を詳細に理解することができるように、添付の図面にその一部を示す態様を参照することによって、上記で簡単に要約したもののさらに具体的な説明が得られ得る。しかし、添付の図面は、本開示の特定の典型的な態様のみを示し、したがって、本開示の範囲の限定と見なされてはならず、その理由は、この説明が他の同等の効果のある態様をもたらし得るからであることに留意されたい。
本開示のいくつかの態様による例示的なニューロンネットワークを示す図。 本開示のいくつかの態様による、方法構成要素および特徴の例を示す図。 本開示のいくつかの態様による例示的な相対遅延ニューロンモデルを示す図。 本開示のいくつかの態様による樹状モデルによる相対遅延入力の例示的な再アラインを示す図。 本開示のいくつかの態様による典型的なスパイクタイミング依存可塑性(STDP)学習曲線の例を示す図。 本開示のいくつかの態様によるSTDP学習曲線のテンポラル感度に対する変形の例を示す図。 本開示のいくつかの態様によるSTDP学習曲線の再強化/デエンファシスバランスの例示的変形を示す図。 本開示のいくつかの態様による、テンポラル入力パターンに対するニューロン応答の精度およびロバスト性の例を示す図。 本開示のいくつかの態様による、例示的なシナプスターンオーバを示す図。 本開示のいくつかの態様による、テンポラルパターン学習における発火レートの例示的効果を示す図。 本開示のいくつかの態様による、ニューラルテンポラルコーディングのための、ニューラルネットワークのニューロン回路によって実施することができる例示的動作を示す図。 図11に示す動作を実施することが可能な例示的な構成要素を示す図。 本開示のいくつかの態様による長い大きい空間テンポラルパターンの例を示す図。 本開示のいくつかの態様による、より長いおよび/またはより大規模な空間テンポラルパターンコーディングのためのマルチレイヤネットワークの例を示す図。 本開示のいくつかの態様による、軸索遅延がある、より長い空間テンポラルパターンコーディングのためのマルチレイヤネットワークの例を示す図。 本開示のいくつかの態様による、より長いおよび/またはより大きい空間テンポラルパターンコーディングのための例示的なスケーラブルネットワークを示す図。 本開示のいくつかの態様による例示的な再帰的スケーラブル空間テンポラルパターンコーディングを示す図。 本開示のいくつかの態様による、各ニューロンにおける重みの適合の例示的グラフを示す図。 本開示のいくつかの態様による、長いおよび大きい空間テンポラルパターンの、ニューラルテンポラルコーディングのためのマルチレイヤニューラルネットワークにおいて実施することができる例示的動作を示す図。 図18に示す動作を実施することが可能な例示的な構成要素を示す図。 本開示のいくつかの態様による、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための、ニューラルネットワークのニューロン回路において実施することができる他の例示的動作を示す図。 図19に示す動作を実施することが可能な例示的な構成要素を示す図。 本開示のいくつかの態様による、スパイクタイミングをアラインすることによって異なるニューラルコーディング方式を復号する例を示す図。 本開示のいくつかの態様による、相対遅延に依存する一致復号の例を示す図。 本開示のいくつかの態様による、相対遅延に依存するテンポラルパターン復号の例を示す図。 本開示のいくつかの態様による論理ORテンポラルパターンマッチングの例を示す図。 本開示のいくつかの態様による、相対遅延に依存する発火レート復号の例を示す図。 本開示のいくつかの態様による、発火レートが復号するべき標的レートである発火レート復号の例を示す図。 本開示のいくつかの態様による、一致への変換レートを用いる発火レート復号の例を示す図。 本開示のいくつかの態様による、出力発火レートが不変である発火レート復号の例を示す図。 本開示のいくつかの態様による、異なる入力タイミングにさらされる単純スパイキングモデルの時間位相ポートレートの例を示す図。 本開示のいくつかの態様による、異なる名目時定数にさらされる単純スパイキングモデルの時間位相ポートレートの例を示す図。 本開示のいくつかの態様による例示的なSTDP実装形態を示す図。 本開示のいくつかの態様による、一般入力パターン向けのニューラルコーディングの例示的動作を示す図。 図31に示す動作を実施することが可能な例示的な構成要素を示す図。 本開示のいくつかの態様による、汎用プロセッサを使用したニューラルコーディングの例示的なソフトウェア実装形態を示す図。 本開示のいくつかの態様による、メモリが個々の分散処理ユニットとインターフェースされ得るニューラルコーディングの例示的な実装形態を示す図。 本開示のいくつかの態様による、分散メモリと分散処理ユニットとに基づくニューラルコーディングの例示的な実装形態を示す図。
添付の図面を参照しながら本開示の様々な態様について以下でより十分に説明する。ただし、本開示は、多くの異なる形態で実施され得るものであり、本開示全体にわたって提示する任意の特定の構造または機能に限定されるものと解釈すべきではない。むしろ、これらの態様は、本開示が周到で完全になり、本開示の範囲を当業者に十分に伝えるために与えるものである。本明細書の教示に基づいて、本開示の範囲は、本開示の他の態様とは無関係に実装されるにせよ、本開示の他の態様と組み合わせて実装されるにせよ、本明細書で開示する本開示のいかなる態様をもカバーするものであることを、当業者なら諒解されたい。たとえば、本明細書に記載の態様をいくつ使用しても、装置を実施することができ、または方法を実施することができる。さらに、本開示の範囲は、本明細書に記載の本開示の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能性、または構造および機能性を使用して実施されるそのような装置または方法をカバーするものとする。本明細書で開示する本開示のいずれの態様も、請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
「例示的」という単語は、本明細書では「例、事例、または例示の働きをすること」を意味するために使用する。「例示的」として本明細書で説明するいかなる態様も、必ずしも他の態様よりも好適または有利なものと解釈すべきではない。
本明細書では特定の態様について説明するが、これらの態様の多くの変形体および置換は本開示の範囲内に入る。好ましい態様のいくつかの利益および利点について説明するが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々な技術、システム構成、ネットワーク、およびプロトコルに広く適用可能であるものとし、そのうちのいくつかを例として図および好ましい態様についての以下の説明で示す。発明を実施するための形態および図面は、限定的なものではなく本開示を説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびその均等物によって規定される。
例示的なニューラルシステム
図1は、本開示のいくつかの態様による、複数のレベルのニューロンを含む例示的なニューラルシステム100を示す。ニューラルシステム100は、シナプス結合のネットワーク104を介して別のレベルのニューロン106に接続されたあるレベルのニューロン102を備え得る。簡単のために、図1には2レベルのニューロンのみが示されているが、代表的なニューラルシステムには、より少ないまたはより多くのレベルのニューロンが存在し得る。
図1に示すように、レベル102における各ニューロンは、前のレベル(図1には図示せず)の複数のニューロンによって生成され得る入力信号108を受信することができる。信号108は、レベル102のニューロンの入力電流を表し得る。この電流は、膜電位に充電するために、ニューロン膜に蓄積され得る。膜電位がそのしきい値値に達すると、ニューロンは、発火し、次のレベルのニューロン(たとえば、レベル106)に転送される出力スパイクを生成することができる。
図1に示すように、あるレベルのニューロンから別のレベルのニューロンへのスパイクの転送は、シナプス結合(または単に「シナプス」)のネットワーク104によって達成され得る。シナプス104は、レベル102のニューロンから出力信号(すなわち、スパイク)を受信し、調整可能なシナプス重み
Figure 0006092213
(ここで、Pは、レベル102および106のニューロンの間のシナプス結合の総数である)に従って、それらの信号をスケーリングし、スケーリングされた信号を、レベル106における各ニューロンの入力信号として組み合わせることができる。レベル106におけるあらゆるニューロンは、対応する結合された入力信号に基づいて、出力スパイク110を生成し得る。出力スパイク110は、次いで、シナプス結合の別のネットワーク(図1には図示せず)を使用して、別のレベルのニューロンに転送され得る。
ニューラルシステム100は、電気回路によってエミュレートすることができ、たとえば画像およびパターン認識、機械学習、モータ制御など、かなりの適用範囲において利用することができる。ニューラルシステム100における各ニューロンは、ニューロン回路として実装され得る。出力スパイクを開始するしきい値値までチャージされるニューロン膜は、たとえば、そこを通って流れる電流を積分するキャパシタとして実装され得る。
一態様では、キャパシタは、ニューロン回路の電流積分デバイスとして除去することができ、その代わりにより小さいメモリスタ要素が使用され得る。この手法は、ニューロン回路において適用されると同様にかさばるキャパシタが電流積分器として利用される様々な他の用途において適用され得る。さらに、シナプス104の各々は、メモリスタ要素に基づいて実装され得、シナプスの重みの変化は、メモリスタ抵抗の変化に関係し得る。ナノメートルの特徴サイズのメモリスタを用いると、ニューロン回路およびシナプスの面積が大幅に低減され、これによって、非常に大規模なニューラルシステムハードウェア実装形態の実装が実用的になり得る。
ニューラルテンポラルパターンコーディング、学習および認識の方法
ニューラルシステム100のニューロン回路は、タイミングスパイクの形のいわゆるテンポラルコードを使って、テンポラルに情報を通信することができるので、コーディングおよび復号方法ならびにそのようなテンポラル情報を学習する方法が、主要な対象となる。本開示のいくつかの態様は、他の「テンポラルパターン」方法とは対照的に、入力の一致または入力の順序だけではなく、顕著なテンポラルパターンのための方法をサポートする。さらに、本開示は、生物学的に示唆される/一貫するが、複雑さが低減され、テンポラルスパイク信号パターンをコード化し、復号し、認識し、学習することが可能な実用的方法を提案する。
本開示において提案されるシステムは、図2に示す相互依存特徴の組合せを備え得る。概して、システム200は、学習(たとえば、ヘブ則学習)の側面および実行側面(動的スパイキングモデル)を中心に展開し得る。スパイキングモデル用の相対入力タイミングは、樹状遅延線(1つまたは複数)側面によって判断することができるが、この側面は、シナプスターンオーバおよび他の側面による影響を受ける可能性がある。学習により、シナプス重みならびに他の側面に対する影響を決定することができ、学習は、調節(正規化)、アラインメント、アニーリング、ならびに他の側面による影響を受ける可能性がある。これらの側面の各々については、他の側面との関係、ならびにそれらの側面の重要性、パラメータ、および利点とともに、本開示において説明する。
相対遅延および樹状遅延線
シナプスにおける入力の間の相対遅延、シナプスにおける入力と基準入力との間の相対遅延、または両方に基づいてニューロンの行動を判断することができる方法を、本開示において提案する。テンポラルコーディングモデルの基本側面を、図3に示す。ニューロン302、304、306、308(すなわち、入力ニューロン)から出力されるスパイクの空間テンポラルパターンは、ニューロン310(すなわち、出力ニューロン)に対するスパイク入力を構成し得る。各入力ニューロンは、ニューロン310の1つまたは複数の樹状突起上の1つまたは複数のシナプスによりニューロン310に結合し得る。各シナプスは、ニューロン304をニューロン310に結合するシナプス312について図3に示すように、入力ニューロンからのスパイクが、ニューロン310の細胞体に達する前に受ける時間遅延を特徴付ける関連遅延を有し得る。図3に示すように、入力は、遅延および統合の前にスケーリングを受ける場合がある。あるいは、入力は、大規模ニューラルネットワークにおける処理削減のために、スケーリングの前に遅延を受ける場合がある。
この方法を使って、ニューロンは、入力ニューロンの出力中の空間テンポラルパターン(入力ニューロンの意味では空間、相対スパイクタイミングまたはスパイクの間の時間差の意味では時間)を認識することができる。これについては、図4に示すが、図中で、入力ニューロン402、404、406、408は、異なる時間にスパイクし得る。ただし、樹状突起(1つまたは複数)における遅延により、入力ニューロンからの信号は、時間アラインされた出力ニューロンxの細胞体に達し得る。時間tにおける出力ニューロンxへの入力はしたがって、入力ニューロンの遅延出力、すなわち、下記の式として表すことができる。
Figure 0006092213
ここで、jはシナプスインデックスであり、ijは、シナプスjが結合する入力ニューロンであり、njは、Δtの単位でのシナプス遅延であり、νi(t)は入力ニューロンiの出力であり、wjは、シナプス重みである。式(1)において、シナプス遅延は、総遅延を抽象化するための遅延を表す。その総遅延は、デジタルアナログ遅延(すなわち、活動電位(AP)からシナプス後電位(PSP)への変換のための時間)、樹状遅延(すなわち、PSPが細胞体に達するための受動移動時間)、または他の遅延(たとえば、異なるレイヤもしくはいくつかのニューロンを通る経路による軸索遅延やネットワークアーキテクチャ遅延)に起因し得る1つまたは複数の実際のシナプス遅延(の組合せ)により得る。
ニューロン402、404、406、408の発火の実際のタイミングは、図4では410として標示される。シナプスに対応する特定の遅延(時間遅延分解能Δtの倍数で示される)により、遅延の後の入力タイミングは、(図4で412として標示される)相対遅延が計上されると、アラインしてもしなくてもよい。いくつかのシナプスは、他のシナプスの遅延と一致するにはあまりにも長い遅延(たとえば、遅延414を有するシナプス)または短い(たとえば、遅延416を有するシナプス)に関連付けられることが、図4から観察され得る。ある態様では、これらの短い遅延および長い遅延は、認識されたパターンから破棄され、または追加されなくてよく、一致する遅延スパイクをもたらす遅延は、認識されたパターンに対応するように、保持または追加されてよい。
本開示の好ましい態様において、整数ミリ秒の個別時間遅延を使用することができる(すなわち、時間遅延分解能Δt=1msの倍数の遅延)。ただし、概して、どの個別または連続分解能が使われてもよい。個別モデルにおいて、遅延は整数nxiで表すことができ、xは入力ニューロン(たとえば、図4のニューロン402)であり、各入力に対して1つまたは複数のシナプスがあり得るので、iは、その入力ニューロンについてのシナプスインデックスである。
スパイクタイミング依存可塑性(STDP)の根拠は、実験によって測定し報告することができる。そのような学習関係の典型的な記述を、長期増強(LTP)の曲線502および長期抑圧(LTD)の曲線504で図5に示す。一般に、x軸は、入力と出力との間の時間差を示す(因果が曲線502に対してであり、非因果が曲線504に対してである)。提案される方法は、樹状突起における遅延を誘導し得ることに留意されたい。したがって、x軸は、学習曲線において、ニューロン発火と再アラインされた入力との間の遅延と見なすことができる。本開示において、Δtは、ニューロン発火の時間から、ニューロンの細胞体に達した所与の入力の時間を差し引いたものとして定義することができる。これは、信号が遅延線をシナプスから細胞体まで移動するのにかかる時間(nj・Δt)とは区別されるべきである。
さらに、時間差に対する変動感度を反映するための様々な変形、ならびに関係、スケーリングおよびこれらに対する変形を純粋に強化し、またはデエンファシスするものが提案され得る。概して、因果方向および非因果方向における水平拡張は必ずしも同じでなくてよいことに留意されたい。同様に、ピークである負および正の規模は、学習を不等に強調する/強調を抑えるように異なり得る。図6は、本開示のいくつかの態様による、時間差に対する感度における変化の例602、604を示す。図7は、本開示のいくつかの態様による、純粋に強化する例702と、純粋に強調を抑える例704とを示す。
空間テンポラルパターンマッチングのための制御
ニューロンが、所与の持続時間のテンポラルスパイクパターンを認識することが可能であるためには、シナプスのセットが、パターン持続時間に対応する樹状遅延のスパンでの、ゼロでない(または無視できない)重みを有する必要があり得る。したがって、いくつかの要因が、分解できるパターン持続時間(時間ウィンドウスパン)、サイズ(ウィンドウ中のスパイク)および分解できるタイミング精度の判断にとって適切であり得る。本開示のいくつかの態様によると、これらの要因は、樹状突起の長さ(最大遅延)、区画メモリ(樹状突起または細胞体内の膜の時定数)、シナプス前膜応答性(シナプス前のフィルタリング効果の時定数、AP幅の判断)、シナプスコンダクタンスの時定数、または樹状突起内の機能演算(たとえば、論理OR、それに対する論理AND)のうちの少なくとも1つを備え得る。
膜の低域フィルタリング効果により、スパイク応答の分化が低下し得るので、より長い時定数により、異なる遅延における時間分解能を低減することができ、同時により長いパターンを考慮できることに留意されたい。言い換えると、異なるニューロンは、異なる時間スケールで構成することができ、または所与のニューロンの時間スケールを変化させることができ、または異なるニューロンの列が、異なる(可能性としては重複する)時間スケールで動作し得る。さらに、分解できるパターン複雑度(持続時間に加え)は、シナプスの数(同じ重み、しきい値を与えられる)、重み分散(同じしきい値、シナプス数を与えられたとき)、しきい値(および比較的静止したレベル)(同じ数のシナプス、重みを与えられたとき)という要因によって制限される場合もある。
本開示のいくつかの態様によると、上記の1つまたは複数において限定が与えられると、パターンは、ニューロンが発火するには少なすぎるスパイク(しきい値と交差する)または個々のニューロンが特定のパターンを変形と区別するには多すぎるスパイクを有するので、バランスが重要であり得る。そのような側面については、各シナプスの重みを備える図8で説明する。
発火しきい値802を超えるために、組み合わされた一致入力は、(静止電位に相対した)しきい値を超えることが要求される場合がある。シナプスの重み、しきい値、および数の寄与を、図8に示す。ケース804では、一致するシナプスが少なすぎる場合がある(または重みが少なすぎ、もしくはしきい値804が高すぎる場合がある)。ケース806では、その逆が真である場合がある。ケース808でのみ、マッチが完全になり得る。ケース806は、見方によって、コンテキストまたはノイズレベルによっては、ルース(冗長)またはロバストのいずれかであると見なすことができる。同様に、ケース808は、完全(的確もしくは効率的)または敏感(脆い、ロバストでない)と見なされる場合がある。
所与の発火の場合、単一の入力ニューロンの総寄与は、一致する遅延をもつシナプス(相互に相対するだけでなく、他の入力との組合せにも相対する)とその重みの合計で判断できることに留意されたい。それらのシナプスについての入力ニューロンにわたる合計一致入力がしきい値を下回る場合、発火は起こることができない。それらのシナプスについての入力ニューロンにわたる合計一致入力がしきい値を上回る場合、発火が起こり得る。これには問題があり、その理由は、図8のケース806として示すように、入力aのパターン(すなわち、パターン812)など、パターン810のいくつかの部分が発火に要求されなくてよいからである。
この問題を解決するための方法は、ニューロンの調節、すなわち、入力に寄与する総寄与を、数、重み、発火周波数またはそれ以外によって制御または正規化することを備え得る。
シナプスターンオーバ
本開示のいくつかの態様によると、シナプスターンオーバも、上述した問題を解決するのに重要であり得る。実際、シナプスターンオーバは、シナプスの数もしくは重みが制限される(または両方)場合、上記問題を解決するのに要求され得る。シナプスターンオーバは、異なる時間遅延または異なる入力用にシナプスリソースを再利用することを備え得る。このことは、リソースが制限され、または結合が制限される場合に重要であり得る。
樹状突起上のシナプスの位置は、スパイクタイミングを暗黙的に符号化することができるので、特定のシナプス位置(したがって相対レイテンシ)が特に入力aによって占有される場合、同じ樹状突起上の異なる入力bによって同じ樹状レイテンシを使ってはならない。しかし、入力bが同じ相対レイテンシを使うべきである場合、入力bは、異なる樹状突起上では(相対レイテンシにマッチングする)シナプスを利用する必要があり得る。その結果、特定のスパイクパターンを表すのに使われるシナプスの数の節約と、それに関連した、同じレイテンシが他の入力によって使用され得るように特定の入力とほとんどまたはまったく相関しないシナプスを再利用する際の効率(相対レイテンシ)とが要求される場合がある。本開示において使われるモデルでは、樹状突起は、このような限定がないように抽象化することができる。ただし、シナプスの総数を制限し、リソースを再利用する動機づけがあり得る。これは、ハードウェアまたはソフトウェアリソースならびにニューロンの調節に関し得る。
システムのコンテキストにおけるシナプスターンオーバ態様を、図9に示す。シナプスターンオーバのプロセスは、モデルの他の側面の1つまたは複数の反復の間に定期的に(動的スパイキングモデルまたは遅延線分解能のすべての時間ステップごとではなく)効率的に実行され得ることに留意されたい。図9におけるニューロンxは、図9に示すように、ランダム遅延をもつランダム入力に対するランダムまたは均等な重みで初期化されると仮定することができる。モデルが反復されるとき、学習機構は、一部の重みを増大させ、他の重みを減少させる傾向があり得る。提案されるモデルでは、学習曲線によるか、それともヘブ規則によるかにかかわらず、学習機構は、重みをゼロまたはその最大(もしくは何らかの正規化された最大)にさせる傾向がある。ただし、これは全体として成り立たない場合がある。ほぼゼロの重みを有する(低いしきい値が使われる)シナプスは、シナプスターンオーバによってリサイクルすることができ、新たな遅延、新たな入力、または新たな重みのうちの少なくとも1つが取得される。これらの各々は、ランダムにまたは決定論的に判断してよく、制限され得る(たとえば、入力ごとのシナプスの数または重み値の範囲)。次いで、システムは、学習を含む他の側面を反復し続けてよく、重みはさらに適合し得る。
概して、新たなシナプスは、その重みがしきい値を下回る場合であってもリサイクルされてはならない「試行期間」が認められ得ることに留意されたい。
学習方法を反復した後、重みは減衰または増大する。シナプスの数が制限され(これについては動機づけがある)、重みが制限される(これについても、ニューロンの調節のための動機づけがある)場合、より低い(または比較的無視できる)重みシナプスの一部が再利用されない限り、パターン認識能力が制限されてよい。シナプスターンオーバは、異なる遅延および/または重みおよび/または結合性(異なる入力ニューロン)をもつシナプスを再構成することを備え得る。こうすることによって、ニューロンのシナプスパターンは、特定の入力パターンについての臨界点に向かって発展し得る(すなわち、特定の数のシナプスが、パターン中の特定の数のスパイクに対応することを要求する)。次いで、この一連のターンオーバおよび再反復が繰り返される場合、重みは、パターン(1つまたは複数)へのマッチを向上させるように漸次学習され得る。
ニューロンの学習のブートストラップ
STDPまたは他のヘブ則学習機構を用いると、学習は発火を要求し得ることに留意されたい。発火しないニューロンは、学習をしない。他のやり方でニューラルネットワークを制限せずに効果的に学習が開始するようにするのを助けるためのいくつかの方法が、本開示において提案される。ニューロンは、大きい重み、多数のシナプス、より長い時定数、低いしきい値(高い相対静止状態)、最初は比較的少ない抑制、またはより大きい入力ノイズのうちの少なくとも1つを構成することによって、発火するようにされ得る。
したがって、一態様では、ニューロンが発火を開始するためには、ニューロンの入力における発振を使用すればよい。別の態様では、ニューロンに関連付けられたシナプス重みは高く設定してよい。さらに別の態様では、シナプスの数が高く設定されてよい。図10は、最初により励起可能なニューロンがどのように、はるかに速く学習するかの例1000を示し、これらのニューロンは、より発火しやすく、したがって重みがより速く調整されるので学習が速い。たとえば、例1000では、ニューロン1002はめったに発火しなくてよい。このニューロンは、テンポラルパターン認識装置としてよりも、スパイクカウンタとして作用し得る。このニューロンは、ごくまれにしか発火しないので、テンポラルコードについての重みを学習する機会がほとんどない可能性がある。同様に、ニューロン1004は、より少ないスパイク(たとえば、4つのスパイク)のスパイクカウンタにしか見えない場合がある。ニューロン1004は適合し得るが、4スパイクパターンごとに一度のみ発火することができるので、遅いプロセスであり得る。
対照的に、ニューロン1006、1008は最初に、非常に急速に発火することができ、テンポラルパターンを認識可能には見えない。ただし、まさにその逆が真となり得る。これらのニューロンは非常にしばしば発火し得るので、ニューロンの重みは、急速に適合することができ、図10に示すように、履歴に依存して、異なるパターンを追尾することができる。重みが適合するとき、発火レートは、遅くなり、特定の時間ウィンドウ/遅延を追尾することができる。このプロセスが円滑に起きた場合、これらのニューロンは、遅い発火ニューロンよりもはるかに良好に/速くテンポラルコードを学習することができる。次いで、パターンが後になって再出現したとき、これらのニューロンは、異なるパターンまたは異なるパターン部分にマッチングするようにうまく応答することができる。
この手法には、さらなるテンポラルな利益があり得る。ニューロンは、高いレートで最初に発火することができ、広い時間ウィンドウにわたって側抑制を引き起こす。次いで、ニューロンは多様化し始めてよく、異なる入力組合せおよびニューロンの調節においてヒンジ結合する。その後、ニューロンは、その発火レートを遅くし始めてよく、したがって、より精密な遅延に対してより敏感になり得、遅延オフセットを学習する。ある態様では、ニューロンは、オフセット時間において発火することができ、側抑制は、時間遅延にわたって削減し得る。ここで、同様だが異なるパターンをもつニューロンにより、発火レートが増大する場合があり、多様性が微細になる。
活動レベルの間の遷移は、多様化にとって重要であり得る。なぜなら、発火が遅いニューロンは、他のニューロンに対する抑制効果を削減し得るからである。さらに、より低い抑制を受けるニューロンが、ニューロンの発火レートと抑制効果とを増大させる。上記によると、活動レベルが時間学習能力に影響し得るので、変動発火レートとの組合せで、学習は、効率的な分散型の組合せ探索で進んでよく、収束するまで一連の段階において、低い時間感度から高い時間感度に変動する。ある態様では、ネットワークの記憶機能は、抑制ならびに結合性および個々のニューロンの側面に依存してよく、効率的分散型多段プロセス中に起こってよい。
シミュレートされたアニーリング
発火カウント(活動の履歴)に基づいて重み調整レートを低下させることによって、ニューロンの学習レートは、パターンが学習されると固定化し得るように、「冷却」することができる。このことは、上述した問題により、テンポラルコーディングにおいて特に有用であり得る。たとえば、STDPまたは他の規則の使用は、パターンウィンドウが重複し、したがって冗長になってしまうまで、パターンウィンドウをシフトしようとする傾向があり得る。重みが「冷却」した場合、この傾向は回避され得る。
最後に、樹状処理がすべて必須である(論理AND)ために重要なわけではないが、テンポラルシステムが機能するためには、しきい値を上回る、追加の何らかの構成要素があるべきであることに留意されたい。言い換えると、樹状突起にわたってまたは細胞体において必須構成要素があり得る限り、樹状突起を論理OR演算としてのみモデル化することが可能な場合がある。
図11は、本開示のいくつかの態様による、ニューラルテンポラルコーディングのための、ニューラルネットワークのニューロン回路によって実施することができる例示的動作1100を示す。1102で、相対遅延線抽象化を使用することができ、この抽象化により、ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させることができる。1104で、動的スパイキングモデルが、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断するために適用され得る。1106で、シナプス入力に関連付けられた重みは、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、教師なし学習規則に従って調整され得る。
本開示のある態様では、重み、ニューロン回路に関連付けられたシナプスの数、シナプスの時間定数、ニューロン回路の発火しきい値、ニューロン回路の抑制度合、またはニューロン回路に関連付けられたノイズのうちの少なくとも1つが、ニューロン回路の初期発火レートを誘導するように制御され得る。さらに、シミュレートされたアニーリングが、重みの調整のために、教師なし学習規則によって適用され得る。
本開示のある態様では、ニューロン回路に関連付けられた再利用可能シナプスを選択することができ、重み、遅延、または再利用可能シナプスの求心性部分のうちの少なくとも1つを修正することができる。再利用可能シナプスの選択は、しきい値を下回る値まで、教師なし学習規則によって削減される再利用可能シナプスの重みに基づき得る。さらに、再利用可能シナプスの選択は、シナプスが再利用されてから経過した時間によって条件付けられ得る。
大きいまたは長い空間テンポラルパターンのニューラルコーディングの方法
パターンの所与の持続時間とサイズ(入力の数)とをテンポラルパターンマッチングすることが可能なニューロンを設計するために、提案されるテンポラルパターン方法を使用することができる。ただし、より大きいパターンとマッチングすることがさらに所望される場合がある。図12は、入力(スパイク)を示すバーのプロット1200を示す。スパイクの垂直ポジションは、入力インデックスまたは空間次元を示し、水平方向は時間を表す。図12に示すように、対応するボックス1202、1204、1206によって示される全体的パターンの空間テンポラル部分を認識することが可能であり得る3つのパターンマッチングニューロン、すなわちx、yおよびzがあり得る。パターンマッチングニューロンの各々は、重複し得る、異なる空間テンポラルフレームにおける入力を考慮することができる。
本開示は、パターンが起きたときにパターン全体をどのようにして認識するかについてのソリューションを提案する。このソリューションは、効率的に(すなわち、あまりに多くのニューロンレイヤを用いずに)実施される必要があり得る。さらに、提案されるソリューションは、所望のパターンから、並べ替えられ、または入れ換えられた部分を備えるパターンを誤って認識することを防止することが可能であり得る。
個々のニューロンが、上述したように、空間(考慮される入力ニューロンまたはシナプスの数)またはテンポラルパターン分解性(たとえば、精度やウィンドウ)に関して制限された(または制御された)能力を有してよい。ただし、より長いテンポラルパターンもしくはより大きい空間パターン(または両方)の学習および認識は、複数のニューロンまたは複数のニューロンレイヤを使って達成され得る。
より長いおよびより大きい空間テンポラルパターンをコーディングするためのネットワーク
図12に示す例1200では、ニューロンx、yおよびzがすべて発火した場合、完全パターンの大部分がマッチングされ得る。ただし、空間テンポラルフレームワーク中に、このマッチングは、出力を空間的に組み合わせるだけでなく、テンポラルに組み合わせることも要求し得る。したがって、次のレイヤのニューロンiは、図13に示すように、一致する遅延を有し得る。図13において、3つのレイヤ1302、1304、1306を、レイヤ1302における入力、レイヤ1304における小さいパターンニューロンx、y、z、およびレイヤ1306における長い/大きいパターンニューロンiとともに示す。図13から、両方のレイヤ1304および1306の出力が空間テンポラルパターンを形成し得ることを観察することができる。レイヤ1306のニューロンiは、x、y、zニューロンスパイクパターンとマッチングするシナプスについての重みおよび遅延を備え得る。図13に示す例において、ニューロンiは、(x/zの、およびyの)隣接時間ウィンドウの結果を組み合わせることができるが、これは、この構造的ビルディングブロックは、後続レイヤが一層長いまたは大きい空間テンポラルパターンを符号化/復号/応答する階層ネットワークアーキテクチャに組み立てられ得るので、例にすぎない。
ただし、上述したように個々のニューロンの時間ウィンドウが制御され得る(およびしたがってネットワーク時間ウィンドウが制御され得る)ので、より長いおよびより長いテンポラルパターンを認識/復号するのに、ますます多くのレイヤを追加する必要はなくてよい。
スケーラブルな空間テンポラルネットワークソリューション
さらに、軸索遅延またはネットワークアーキテクチャ上の(異なる経路)遅延との組合せで、より長いパターンを、いくつかのレイヤにマッチングすることもできる。これについては、図14で説明され得る。レイヤ1404のニューロンw、x、y、およびzは、レイヤ1402の求心性部分における空間テンポラルパターンのサブパターンを認識することができる。レイヤ1404の発火時間(活動電位(AP)発生時間)が、レイヤ1406に示されている。ただし、APが、そのそれぞれの軸索に沿って伝播し、レイヤ1410中にあるニューロンi上のシナプス(1つまたは複数)に達するには、ある程度の時間がかかり得る。さらに、軸索ケーブルプロパティ(長さ、コンダクタンス、膜コンダクタンスなど)によっては、ニューロンに依存して異なる時間量がかかり得る。この場合、ニューロンx、y、およびzは、細胞体から、ニューロンiをもつシナプス接合部におけるシナプス前点まで、ニューロンwの場合よりも長い軸索距離(もしくはより遅い速度(より薄いミエリン)、またはより大きいホップネットワーク経路)を有し得る。シナプス前点におけるAPタイミングは、レイヤ1408中に示されている。この点におけるタイミングは、ニューロンiが分解し得る(すなわち、起点におけるよりもはるかに時間が接近している)時間ウィンドウ1412内であり得る。ニューロンiは、このパターンと、したがってレイヤ1402のパターン全体とを認識することができ、それに従って発火し得る。効果的には、軸索遅延は、任意に長いパターンのパターン認識を、ニューロンiが認識するべきウィンドウに圧縮済みである。
テンポラルパターン能力をスケーリングするための別の方法は、回帰結合または自己回帰結合で実装することができる。図15に示すように、より早期の部分と組み合わされたパターンの後続部分にマッチングするニューロンに部分的パターンマッチが供給され得るように、1つのニューロンまたは複数のニューロンを結合すればよい。
この概念は、いくつかのやり方で拡張することができる。本開示の一態様では、より長いパターンを学習するように、ニューロンが追加され得る。別の態様では、ニューロンは、隣接または非隣接パターン部分をまとめることができる。さらに別の態様では、ニューロンは、パターンの一部分がどの程度重要であるか、またはパターンのその部分において入力が(空間的またはテンポラルに)どの程度可変であるかに依存して、異なる精度もしくは一般性をもつパターンの異なる部分を認識し、または異なる感度を有することができる。
生物学的に、プレシナプスニューロンについての軸索遅延は一般に、そのニューロンをもつシナプスすべてに対して等しい(すなわち、共通軸索遅延)と特徴付けられ得ることに留意されたい。これは、上述したアラインメント/圧縮にとって有用な機構であり得るが、遅延処理側面は抽象化され得るので、本開示において提案される方法は、この特徴付けを厳格に要求するわけではない。第1のニューロンが、異なる樹状遅延で次のレイヤのニューロンに入力しようとも、まさに同じ処理を有するが軸索遅延が異なる2つのニューロンが次のレイヤのニューロンに入力しようとも、計算的視点から、均等な遅延表現がモデル化され得る。
スーパースケーラブル/再帰的テンポラルパターンコーディング
さらに、単一のニューロンを使って、一層長いテンポラルパターンマッチングを達成することができる。単一のニューロンは、複数のパターンを認識するように構成され得ることに留意されたい。この構成は、入力パターン(部分)に依存して異なるシナプスが一致し得るので、可能であり得る。図16に、同じ4つの入力ニューロン1602、1604、1606、1608のうち、あるパターンの2つの部分を示してある。第1の部分(半分)について、いくつかの遅延が、一致するアラインメントを引き起こす可能性があり、他の遅延はその可能性がないことに留意されたい。ただし、パターンの第2の部分(半分)でアラインするのは、他の遅延(シナプス)であり得る。シナプスの重み(および数)が、パターンの第1の部分を認識するとニューロン1610が発火するようなものである場合、この重みは、ニューロン自体に(遅延もともに)フィードバックされ、パターンの第2の部分とのマッチングを行うのに使われてよい。当然ながら、このことは、どの長さのパターンにも一般化され得る。それゆえ、一回帰ニューロン1610が、長いパターンおよび/または大きい空間パターンを認識することができる。
そのようなより大きいまたはより長いテンポラルパターンをコード化するための機構を有することに加えて、テンポラルパターンコーディングのタスクを複数のニューロンの間で効率的に分割することができるネットワーク学習方法がさらに提案される。
空間テンポラルパターンを学習する際の分化のための方法
異なるニューロンを用いて、異なるパターンを認識することができる。教師なしトレーニングでは、異なるパターンをニューロンが自律的に学習/選択することが望ましい場合がある。ただし、スパイクタイミング依存可塑性(STDP)により、一般に表されるように、ニューロンが分化するのを防止することができる。これは、異なる部分に対して個々のニューロンを使って、より長いパターンを学習する際にも重要であり得る。(複数の部分の間で)分化がない場合、全体的なパターン対応(マッチ/学習)が防止され得る。
STDPが問題となり得る理由は、パターンのどの部分でニューロンが学習を開始しても、ニューロンは、パターンの最も早い部分に向かってシフトし得るようにテンポラルドリフトを引き起こし得るからである。この問題を解決するためのいくつかの方法、たとえば分割正規化(divisive normalization)(出力抑制)または側抑制(すなわち、勝者総取り)が提案され得る。
側抑制または勝者総取りは、テンポラルパターンの間に競争を採り入れることによって、多様化を向上させることができ、異なる時間に発火するニューロンを優先し、したがって可能性としてパターンカバレージを広げる。側抑制の影響は、図17に記すことができる。プロット1702、1704は、それぞれ、側抑制がある場合およびない場合の各ニューロンにおける重みの適合を表す。
観察されるSTDP効果と矛盾せずに、重みは、極を向いてよく(双極性重み)、最大値まで増大するか、またはほぼゼロまで減少する。プロット1702において、側抑制なしで、ニューロンはすべて、同じパターン(不十分であり制限されている)を学習することができる。プロット1704において、側抑制ありで、ニューロン1706、1708は、パターンの異なる部分を学習することができ、ニューロン1710、1712は、未使用(空きメモリ)のままでよい。
図18は、本開示のいくつかの態様による、長いおよび大きい空間テンポラルパターンの、ニューラルテンポラルコーディングのためのマルチレイヤニューラルネットワークにおいて実施することができる例示的動作1800を示す。1802で、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤは、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合することができる。1804で、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤは、入力パターンの第1のサブセクションとマッチングすることができ、その結合されたレイヤは、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、別のレイヤのニューロン回路の発火の組合せとマッチングする。ある態様では、入力パターンの別のサブセクションは、入力パターンのサブセクションに続き得る。
本開示のいくつかの態様によると、第1のレイヤは、ポリクロノス発火波をリプレイすることによって、テンポラルコードでメモリを維持する入力パターンの第1のサブセクションによって励起される回帰ニューロン回路のネットワークを備え得る。マルチレイヤニューラルネットワークの回帰ニューロン回路の別のネットワークは、入力パターンの第2のサブセクションとポリクロノス発火波の組合せによって励起することができる。本開示のある態様では、階層型マルチレイヤニューラルネットワークのレイヤの間の軸索遅延は、応答が、入力パターンの第2の部分に対応する時間ウィンドウ内に入るように入力パターンの第1の部分にマッチングするまで応答を遅延させ得る。
図19は、本開示のいくつかの態様による、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための、ニューラルネットワークのニューロン回路において実施することができる例示的動作1900を示す。1902で、シナプス入力を、関連付けられた遅延をもつシナプスを介して、ニューロン回路に与えることができ、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられてよく、シナプスは複数のセットに属してよく、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備え得る。
本開示のいくつかの態様によると、複数のセットのうちの少なくとも1つの他のセットは、パターンの第2の部分と、第1のパターン部分を、別の遅延組合せにマッチングする第2のパターン部分と相関させるための遅延を有する、自己結合されている少なくとも1つのシナプスとをマッチングするための別の遅延組合せを備え得る。ある態様では、自己結合されている少なくとも1つのシナプスに関連付けられた軸索遅延は、応答が、第2のパターン部分に対応する時間ウィンドウの範囲内になり得るように、第1のパターン部分にマッチングしたことに対する応答を遅延させ得る。
一般化されたニューラルコーディングおよび学習の方法:時間およびレートコーディング
従来から、ニューラル通信は、ニューロンの発火(スパイキング)レートでコード化されるように理論化されている。ただし、スパイクタイミングの重要性は、通信がスパイクのテンポラルな一致でコード化され得るように提案される。さらに、スパイクタイミングにおけるテンポラルパターンが情報をコード化し得ることが提案され、そのようなテンポラルパターンの復号および学習を、生物学的に理にかなったやり方で遂行できるようにするための方法が提案される。本開示では、単一モデルがどのように、情報コーディング方式のスペクトルを発火(スパイク)レートから、スパイクテンポラルパターンとのスパイク一致に符号化/復号することができるか、およびこのようなモデルがどのように、このようなスペクトルにわたる復号方法に動的に適合し、または複数のコードフォームに対して同時に普遍的に動作し得るかが、さらに提案される。さらに、生物学的に示唆され/一貫するが、計算の複雑度が低下した実用的方法が提案される。
普遍的なニューラルコーディング:一致、時間および発火レートの組合せ:コードのスペクトル
本開示において提案される方法の主要な利点は、発火レートでコード化された情報、スパイクタイミング一致、またはスパイク空間テンポラルパターンはすべて、同じニューロンモデルによって復号され得ることである。例示的ケースでは、図20に示すように、ニューロンa〜dからの求心性部分(入力)をもつニューロンxと見なすことができる。さらに、ニューロンxへのそれらの求心性部分の入力情報は、一致、テンポラルパターンまたは発火レート(または発火レート組合せ)のいずれかの形でコード化され得ると仮定することができる。図20は、そのような形を復号する、3つの代表的例2002、2004、2006を示し、Δtによって示される任意の時間分解能があってよく、個々の結合遅延は、その倍数で示すことができる(すなわち、遅延nAiは整数である)。
実際の入力スパイク時間は、その入力への1つまたは複数の結合に関連付けられた1つまたは複数の遅延だけ遅延させることができる。概してニューロンxの時定数に対応する時間ウィンドウ(統合ウィンドウ)に達する遅延入力を組み合わせることができ、可能性としてニューロンを消極し、したがって、(可能性として、その消極またはニューロンの活動レベルもしくは励起性によっては、遅延の後で)出力スパイクを引き起こす。
入力スパイクタイミングの一致(図20の例2002)は、一致する遅延求心性部分の組合せ(統合)が、入力一致に関連付けられたゼロでない相互情報を伝えるタイミングでニューロンxを発火させるしきい値を超え得るように、等しい(すなわち、nai=nbi)または生じる遅延スパイクがニューロンxについての統合ウィンドウの範囲内になり得るほど十分接近しているどの遅延でも復号することができる。言い換えると、ニューロンxが発火するという事実、およびニューロンxの出力スパイクのタイミングは、入力の一致についての情報を伝えることができる。ニューロンxが発火しない場合、このことは、入力一致の不足または欠如に関する情報を伝えることができる。
ニューロンは、求心性部分bに関して図20の例2002に示すように、求心性部分への複数の結合と、それらの結合に関連付けられた異なる遅延とを備え得る。すべてのそのような遅延が互いに対応することは要求されなくてよいことに留意されたい(たとえば、図20の遅延nb1)。また、図20の例2004に示すように、遅延のうちの不十分な数が等しい場合、一致する実際のスパイクのうちあまり多くないものが、遅延の後でアラインしてよく、したがってニューロンxをスパイクさせなくてよい(または異なる時間に、たとえば、後でスパイクさせてよい)。
さらに、遅延が違うように構成されている場合、ニューロンxによって入力の一致を認識することができない(図21の例2102を参照)。言い換えると、ニューロンは、入力の一致を認識する(一致にさらされると、発火する)、またはしないように構成され得る。遅延のいくつか(すべてではなく)が異なることを識別するために、それらの遅延は、プライムシンボル(たとえば、図21の遅延nb1’)で示されている。
入力スパイクタイミングのテンポラルパターン(たとえば、図20の例2004)は、テンポラルパターンにおけるスパイクの間の時間差に対応する相対差を有する遅延のプロファイルで復号することができる。具体的には、時間基準trefに相対した時間tAに達する求心性部分Aに対する、Δt、すなわち、下記式のタイミング分解能が与えられると、少なくとも1つの遅延nAiがあり得る。
Figure 0006092213
基準時間は、参照求心性部分(たとえば、求心性部分a)または求心性部分(たとえば、発振)以外の絶対時間基準もしくは相対時間基準を指すことができ、タイミングtAは、同時に相対または絶対でよいことに留意されたい。
これについての1つの視点は、時間遅延が、遅延パターンを、上述したように復号される一致に効果的に転換し得ることである。必要な遅延のうちの十分な数が存在しない場合(図20〜図21の遅延のプライム指示が、遅延が異なることを示す)、遅延スパイクは、アラインされるよりも、むしろ時間分散され得る(図22の例2202を参照)。この分散により、ニューロンxは、スパイクしない(または異なる時間に、たとえば後で、スパイクする)場合がある。これは、必要なパターンが入力として与えられない場合とは異なってよく(図22の例2204を参照)、同様の結果(非発火)が起こり得るが、それは、ニューロンが、そのパターンを認識するように構成されなくてよいからである。
すべてのそのような遅延が、たとえば、図20の例2004または図22の例2206における遅延nb2のように、テンポラルパターンに対応することは要求されなくてよいことに、再度気づくであろう。実際、ニューロンは、対応する遅延よりもかなり多い、入力に対する非対応遅延を有し、非常に多数の可能入力の間で所望のテンポラルパターンを区別することが依然として可能な場合がある。M個の求心性部分があり、分解できる時間分解能はΔtであってよく、遅延範囲はΔtとTとの間であってよい場合、求心性部分ごとに1スパイクがある可能入力テンポラルパターンの数は、次のようになり得る。
Figure 0006092213
求心性部分ごとに任意の数のスパイクがある可能入力テンポラルパターンの数は、次のようになり得る。
Figure 0006092213
明らかに、可能パターンの数は、比較的少数の求心性部分および遅延範囲であっても、非常に大きくなり得る。したがって、単一のニューロンが、たとえば、2つのテンポラルパターンに対応する遅延を有する場合、第3の望まれないパターンを認識する確率は、ほとんどないくらい小さくて(すなわち、1/(C1−2))よく、標的遅延パターンのハイブリッドであるテンポラルパターンに関連付けられ得る。言い換えると、論理OR演算は、図23に示すように、高い効率で入力パターンに対して実装することができる(パターンCは、パターンAとBのハイブリッドであり得る)。必要な場合、そのような非標的パターンは、抑制をもつアーキテクチャによって、もしくは別個のニューロンによって、パターンを区別するのを拒絶されてよく、または遅延は、特定のパターンに対応する遅延が分岐内ではあるが複数の分岐にわたらずに超線形に合計され得るように、「樹状分岐」でグループ化されてよい。これを遂行するための別のやり方は、ニューロンxの樹状分岐ごとに発火しきい値を適用することであり得る。少なくとも1つの遅延を再利用することができる(たとえば、図23の遅延nc1参照)ので、2つの異なるパターンをマッチングするための結合の数を倍にする必要がなくてよいことにも留意されたい。
パターンAおよびBは、図23ではテンポラルパターンであるものとして示されているが、一方または両方が、部分的または全体的に(遅延が等しい)一致パターンであってはならない理由はないことにさらに気づくことができよう。言い換えると、単一のニューロンは、テンポラルパターンと一致の混合を認識するように構成され得る。
入力の発火(スパイク)レート(図20の例2002)は、入力(求心性部分)ごとに2つ以上の遅延が与えられ他場合、このような方法でも復号され得ることが、本開示においてさらに提案され、遅延は、求心性部分のスパイク間間隔(求心性部分Aについての標的入力発火レートfAの逆)、すなわち、以下の式に対応しうる。
Figure 0006092213
単一の入力のスパイクは、統合ウィンドウに再アラインされ得るので、ニューロンxは、発火レートを復号することができ、一致する遅延入力の組合せ(統合)がしきい値を超えたときに発火する。一致およびテンポラルパターンマッチングと同様に、図24に示すように、すべての遅延(たとえば、図24の例2402および図20の例2006における遅延nd2)が互いに対応する必要はなくてよい。さらに、ある入力からのスパイクをアラインさせる遅延は、アラインし得ない余分補助遅延スパイクも生じ得る(たとえば、図24の求心性部分aから第2の入力スパイクに適用される遅延na1)と予想することができるが、これらの遅延はサブしきい値であってよいので、パターンマッチング実施を中断することはない。
さらに、顕著なしきい値が与えられると、ニューロンにサブミットされるものとは異なるレートに対応する遅延により、発火が起こることはない(すなわち、図24の例2402、2404における同じパターンのサブミットを、異なる遅延と比較し、例2406における異なるパターンの、同じ遅延構成へのサブミットを比較されたい)。たとえば、図24において、しきい値は、6に構成されてよく、そうすることによって、例2402に示す発火レート組合せ(標的発火レート組合せ)が起こり、それ以外の組合せが起こらないとき、ニューロンxの発火が起こり得る。
図25は、求心性部分aについて、2つの異なる発火レートが、求心性部分aに対する同じ遅延ペアで構成されたニューロンxにサブミットされ得る例2500を示す。遅延ペアは、標的レートAにより、すなわち、オリジナルスパイクの画像を厳密に一致させるように構成することができる。
図26は、求心性部分ごとの(この場合、求心性部分aおよびbについての)2つの遅延が、オリジナルスパイクの画像をアラインするのにどのように使われ得るかについての例2600を示す。ニューロンxのしきい値を、一致画像の数(たとえば、図26では2)に対応するレベルに設定することによって、単一の求心性部分の発火レートがマッチングされ得る。ただし、レートの組合せ(Aからの1つのレートと、Bからの1つのレート)をマッチングしようとするとき、求心性部分ごとに遅延ペアが使われるだけである場合、求心性部分発火レートシーケンスのアラインメントに依存して、両方の求心性部分からの画像(遅延スパイク)が、統合ウィンドウ内でアラインし得る前に、ある程度の時間がかかり得る(求心性部分aについての画像を、求心性部分bについてのケース1画像と比較されたい)。
ただし、予想遅延は、より多くの遅延を追加することによって削減することができる(たとえば、求心性部分bのケース2では、3つの遅延があり、求心性部分aおよびbの画像が、ウィンドウの範囲内である可能性の方が高い)。標的入力発火レートで起こる入力スパイクペアだけでなく、むしろ標的入力発火レートにおける一連のスパイクにマッチングするために、(たとえば、ロバスト性のために)求心性部分ごとに2つより多い遅延タップでニューロンxを構成することが検討されてもよい。ただし、求心性部分ごとに1ペアを超える遅延が使われ、連続するスパイクについて構成される場合、フルシーケンスのみにマッチングするように十分高くしきい値が設定されない限り、エイリアシングが起こり得ることに留意されたい。したがって、(2つより多い場合)遅延を疎な時間配置で構成することが所望され得る。たとえば、1のレートにマッチングすることが、0および1の遅延において提案されてもよい。より長い時間ウィンドウが所望される場合、3、4単位の遅延分解能において同じ求心性部分に対して遅延を追加すればよい。ただし、4つの入力単位を要求するようにしきい値が増大された場合、マッチングするように時間を遅延させればよい(少なくとも最大遅延である)。
これを実施するための別のやり方は、別個のニューロンに、各求心性部分についての発火レートを復号させるものであり得る。ある態様では、ニューロンx、y、z、およびwは、それぞれ、求心性部分a、b、c、およびdについての標的発火レートを復号することができる。次いで、遅い時定数で構成された別のニューロンが、標的発火レート組合せを認識するために、4つすべての一致にマッチングするのに使われ得る。ただし、これは、異なる発火レートにマッチングするために異なる遅延で構成された別個の樹状分岐上で各発火レートを復号する1つのニューロンで遂行することもできる。発火レート認識を達成するためのさらに別のやり方は、再帰を用いるものでよい。ただし、これには、出力が包括的であるよりもむしろレートコーディングされること(スパイクカウンティング)が要求され得る。
それにも関わらず、これらの技法のいずれも、入力発火レートが互いの妥当な範囲内であるときは必要とされなくてよいことが提案され、それは、発火レートの形での情報の符号化は、テンポラルパターンコーディングとしては、(同じ数の求心性部分が与えられると)本質的により遅いからである。したがって、発火レートの復号は、必ずしも高速である必要はなくてよい。ただし、このことから、可能性として興味深い洞察を観察することができ、すなわち、求心性部分xの発火レートは、求心性部分の周期性の関数にすぎなくてよく(それらの相対オフセットではなく)、発火を開始するための、求心性部分xについての遅延は、それらのオフセットの関数であってよい。言い換えると、求心性部分と発火レートの組合せを復号する際、ニューロンxは、図27に示すように、個々の求心性部分発火レートのオフセットにかかわらず一定であるレートで発火し得る。このことは、2つの求心性部分について成り立ってよく、確率的には多くの求心性部分について成り立ち得る。ただし、画像の重複の確率に依存して、2つより多い求心性部分がある場合、発火レートが変化し得る。さらに、複数の遅延ペアを使うことができ、ニューロンの統合時間ウィンドウを修正することができるので、発火レート組合せオフセットにかかわらず同じ発火レートを生じるように、学習が適用され得ることが可能であり得る。
上記3つのコーディングケース(一致、時間、発火レート/レート組合せ)において、すべての遅延が、標的入力タイミングをアラインする必要があるわけではないことに留意されたい。それゆえ、単一のニューロンは、複数の差分一致、複数の異なるテンポラルパターン、または複数の発火レートもしくはレート組合せを復号(認識)するように構成すればよい。さらに、単一のニューロンは、一致パターン、テンポラルパターン、および発火レートまたはレート組合せの混合物を復号するように構成すればよい。上記方法は一般化することができ、アーキテクチャ的または樹状分岐方法が、これらの組合せに適用されて、ハイブリッドまたは非標的パターンの一致の可能性を削減することができる。
普遍的学習:すべてのコード、すなわち一致、時間および発火レートの組合せに対して1つの方法
ニューロンの構成は可塑性があり得るので、特定の入力への結合に関連付けられた重み(1つまたは複数)(ならびに/あるいは遅延および/または結合/シナプスの数)が学習され得る。一般に、ヘブ則学習またはスパイクタイミング依存可塑性(STDP)が、教師なし学習において、入力と出力との間の近似因果律関係を学習するのに使われ得る。そのような方法は、テンポラルパターン学習に適用することができ、発火レートをマッチングするのに、求心性部分ごとに2つ以上の遅延をどのように使うことができるか、そのような学習が、特定のニューロンに入力される一致、テンポラルパターンおよび/または発火レートもしくはレート組合せを普遍的に学習するのに適用され得ることを、本開示に示す。これにとっての主要な要素は、オリジナルスパイクタイミングではなくアラインされた(画像)スパイクのタイミングに基づいて、結合に学習が適用され得ることである。
上記に対して暗示したように、入力一致、テンポラルパターンまたは発火レートのニューロン復号の品質は、ニューロンの統合ウィンドウに依存し得る。このウィンドウは本質的に、ニューロン(たとえば、細胞体膜)の瞬間的時定数であり得る。したがって、時間およびレート忠実度は、この時定数に依存し得る。ただし、時定数は、動的に変化してよく、この変化が、コーディングスペクトル(レート、時間または一致)の異なる領域中で学習および動作する際に重要であり得る。
図28は、モデル化されたニューロンの電圧の経路に印をつけるテンポラル位相ポートレートおよびニューロンが異なる入力を受信し、スパイクする(またはスパイクしない)ときの回復変数の例2800を示す。経路のどの地点も、第1の入力以降の一定の遅延に関連付けられ得る(たとえば、遅延は、0msと50msとの間でよい)。新皮質錐体細胞パラメータで構成される、Izhikevichによって提案された単純スパイキングモデルを使うことができる。時間が、(結合または求心性部分ごとに適用される任意の遅延の後)細胞体における到着時間、すなわち0msにおける10個のシナプスの入力、0msにおける20個のシナプスの入力、0msにおける30個のシナプスの入力、0msにおける15個のシナプスおよびさらに10msにおける15個のシナプスの入力、ならびに35msにおける(上の3の後の)30個のシナプスの入力を指す以下のケースが示される。
線図2800における数字付きピンは、入力が適用された直後の地点に対応する。入力は、ピンへの消極ステップ(たとえば、RESTからの)に対応し得る。入力消極がサブしきい値(vt)である場合、電圧は静止まで減衰し得る。入力消極がしきい値を上回る場合、消極が不安定になり、vpeakまで増大してよく、スパイクが起こり得る。スパイクの後、電圧は回復点まで回復し得るが、ニューロンの回復は、ある程度の追加時間がかかり得る(RESTまでのuの回復)。
3つの時間忠実度側面を指摘することができる。第1に、サブしきい値入力消極からの回復するための時間は、入力に依存して変わり得る(図28における1対4aと比較されたい)。第2に、発火するべき時間は、入力タイミング、(入力成分の間の)バランス、および総量(図28の2と3と4bと比較されたい)に依存して変わり得る。第3に、発火するべき時間は、(発火前の)活動レベルに依存して変わり得る(図28の3と5と比較されたい)。
したがって、非常にアクティブなニューロンは、比較的低い時定数、ならびにしたがってより高い時間(およびしたがってレート)忠実度で動作していてよい。発火レートコーディング方式での動作が、(時々のタイミングスパイクとは反対に)比較的高い活動レベルでの動作と見なされる場合、ニューロンは、ニューロンの忠実度を、適切により的確になるように調整することによって、高い発火レートに適合し得る。これは、時定数が効果的に修正され得るので、コーディングおよび学習のための主要な側面であり得る。比較(図29のグラフを参照)のために、モデルの名目時定数は、より多くの入力を与え、またはより高い活動レベルで動作するときと同様の効果を達成することができることを示すように、1/2だけ(すなわち、2倍速く)変化させることができる。
本開示のいくつかの態様によると、恒常性またはニューロンの調節および側抑制が、ニューロンの発火活動と、したがって学習とを調節することを学習する際の主要な要素となり得る。コーディングスペクトルの異なる部分(たとえば、発火レートと、それに対するテンポラルパターン)において動作している間、ニューロンの活動レベルは異なり得る。したがって、特定の発火レートを標的にすることが提案されることはなく、むしろ一定の範囲の発火レートが許可される。発火レートが下限を下回る場合、長期間にわたって発火レートを高め、発火レートが上限を上回る場合、長期間にわたって発火レートを抑えることが、本開示において提案される。このような範囲を認めることが、一般コーディングにとっての主要な要素となり得る。ニューロンが、何にさらされるかに依存して、一致、テンポラルパターン、または発火レートもしくはレート組合せを学習できることが所望される場合がある。したがって、特定の長期出力レートを標的にするのではなく、ニューロンに、一定の範囲の発火レートをもたせることが推奨され得る。
生物学的に一貫するスパイクタイミングに依存する可塑性は、次のように定義することができる。求心性部分結合iからニューロンjまでの入力スパイクシーケンスが(オリジナル求心性部分信号への遅延の適用に続いて)xi,j(t)で与えられ、ニューロンjの出力がyj(t)で与えられ、両方が2進シーケンスである場合、jの発火についての学習に対する感度は、
Figure 0006092213
で、入力についての学習に対する感度は、
Figure 0006092213
で定義することができ、上式でLTPは長期増強を指し、LTDは長期抑圧を指し、αLTP、αLTDは、対応するIIR(無限インパルス応答)フィルタ係数である。
さらなる入力がない場合、フィルタはしたがって、それらの係数に従って減衰し得る。シナプス(結合)iについての重みは、量
Figure 0006092213
(図30のドット3002)だけ発火すると、調整されてよく、シナプス(結合)iについての重みは、遅延(図30のドット3004)の後で、細胞体で入力が受信されたとき、量
Figure 0006092213
だけ調整することができる。
ニューロンについての詳細なスパイキングモデルは要求されなくてよいが、復号および学習についてのニューロンの統合時間ウィンドウ(時定数)の適合は、一般化された復号および学習が可能であるような求心性部分ごとに2つ以上の時間遅延との組合せで、主要な側面であり得ることが、本開示において提案される。本開示のいくつかの態様によると、上述した学習規則は、入力パターンが一致、テンポラルパターン、もしくは発火レートまたはそれらの組合せであるかにかかわらず、入力パターンを学習するように、一般的なやり方で適用することができる。さらに、学習規則は、遅延されたタイミングに基づいて適用される必要があり得る。そうでない場合、発火レートおよびテンポラルパターンマッチングを折衷させればよい。
パターンを学習するために、ニューロンは、一致、テンポラルパターンまたは発火レートに対応する遅延のセットに関連付けられる必要があり得る。しかし、概して、これらの遅延および結合の特性は、コーディング方式に依存して変わってよく、一致は、異なる入力にわたって等しい遅延を要求する場合があり、テンポラルパターンは、異なる入力にわたって異なる遅延を要求する場合があり、発火レート組合せは、入力ごとに複数の異なる遅延結合を要求する場合がある。しかし、効率のために、結合の数を最小限にすることが所望され得る。したがって、構造的可塑性についても、本開示において次のように提案される。一般化された学習のために、ニューロンは、使用されているコーディング方式に依存して、1つの入力への、または多様な入力への複数の結合を学習することができる。この学習は、上記規則に従って、学習方式に重みを削減または増大させることによって遂行することができる。ただし、異なる遅延をもつ異なる入力への新たな結合が行われ得るような、構造的可塑性の方法が提案される。好ましい態様では、学習によって非常に低い値まで抑圧された結合を、再利用することができ、(許容範囲内の)ランダム遅延をもつランダム入力に割り当て直すことができる。新たな(または再利用される)結合の追加のみのせいで全体的なニューロンの行動が大きくは変わり得ないように、低い重みをもつ新たな結合を開始することが推奨され得る。
図31は、本開示のいくつかの態様による、一般入力パターン向けのニューラルコーディングの例示的動作3100を示す。3102で、1つまたは複数のシナプスを、細胞体をもつニューロン回路に結合することができ、1つまたは複数のシナプスの各々は、ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有する。3104で、相対遅延の各々だけ、対応する入力求心性部分と細胞体との間の遅延を招く場合があり、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有してよく、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備え得る。
本開示のいくつかの態様によると、一致サブパターンに対応するシナプスのセットが、異なる入力求心性部分についての同じ遅延を有してよく、発火パターンのサブパターンに対応するシナプスのセットが、同じ入力求心性部分についての異なる遅延を有してよく、テンポラルパターンのサブパターンに対応するシナプスのセットが、異なる入力求心性部分についての異なる遅延を有してよい。
本開示のある態様では、互いからオフセットされている遅延を有する発火パターンに対応するシナプスの2つ以上のセットを有することによって、学習された発火レートにニューロン回路が応答するための遅延を、最小限にすることができる。さらに、2つ以上のセットからのシナプスのうちの一部は、1つまたは複数の望まれないレートのエイリアスに起因するニューロン回路の発火を引き起こす時間オフセットを省くようにパンクチャ(削除)されてよい。ある態様では、ニューロン回路の発火の統合ウィンドウは、ニューロン回路が、他の結合とは等しくない遅延をもつ単一結合入力とは反対に、結合ごとの複数の遅延または同じである異なる結合についての遅延を有する程度に依存して変わり得る。
本開示のある態様では、学習のせいで抑圧された結合は、同じ入力への既存結合によってすでに使用されているいずれとも異なる遅延をもつ、その同じ入力に割り当て直すことができる。別の態様では、学習のせいで抑圧された結合は、異なる入力に割り当て直すことができる。
本開示のある態様では、ニューロン回路の入力求心性部分のうちの1つについての遅延のセットにおける遅延の間の時間差は、その1つの入力求心性部分に関連付けられた発火レートの逆の倍数に対応し得る。さらに、アラインされていない入力求心性部分の1つまたは複数の余分補助遅延スパイクは、1つまたは複数のしきい値を下回ってよく、1つまたは複数のサブしきい値余分補助遅延スパイクは、ニューロン回路のパターンマッチング実施を中断することはない。
図32は、本開示のいくつかの態様による、汎用プロセッサ3202を使ったニューラルテンポラルコーディングのための、上述した方法の例示的ソフトウェア実施態様3200を示す。計算ネットワーク(ニューラルネットワーク)の各結合(シナプス)に関連付けられた重みおよび遅延は、メモリブロック3204に記憶することができ、汎用プロセッサ3202において実行されるニューラルコーディングに関連した命令は、プログラムメモリ3206からロードすることができる。
本開示の一態様では、汎用プロセッサ3202にロードされる命令は、ニューラルネットワークのニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用するためのコードと、動的スパイキングモデルを適用して、ニューロン回路の重みおよび遅延シナプス入力に基づいてニューロン回路のスパイキング行動を判断するためのコードと、教師なし学習規則に従って、ニューロン回路スパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するコードとを備え得る。別の態様では、汎用プロセッサ3202にロードされる命令は、階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、およびマルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合するためのコードと、マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを、入力パターンの第1のサブセクションとマッチングするためのコードであって、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果、その結合されたレイヤが別のレイヤのニューロン回路の発火の組合せとマッチングし得るコードとを備え得る。さらに別の態様では、汎用プロセッサ3202にロードされる命令は、関連付けられた遅延をもつシナプスにより、ニューラルネットワークのシナプス入力をニューロン回路中に与えるためのコードを備えることができ、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられてよく、シナプスは複数のセットに属してよく、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分をマッチングするための遅延組合せを備え得る。さらに別の態様では、汎用プロセッサ3202にロードされる命令は、ニューラルネットワークの細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するためのコードであって、1つまたは複数のシナプスの各々が、ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有してよいコードと、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招くためのコードであって、1つまたは複数のシナプスの1つまたは複数のセットが、組み合わされて一般入力パターンを形成するサブパターンに対応する遅延と入力求心性部分とを有してよく、サブパターンが、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備え得るコードとを備え得る。
図33は、本開示のいくつかの態様による、メモリ3302が相互接続ネットワーク3304を経由して計算ネットワーク(ニューラルネットワーク)の個々の(分散型)処理ユニット(ニューラルプロセッサ)3306とインターフェースされ得るニューラルテンポラルコーディングのための、上述した方法の例示的実施態様3300を示す。計算ネットワーク(ニューラルネットワーク)の1つまたは複数の結合(シナプス)に関連付けられた1つまたは複数の重みおよび遅延は、相互接続ネットワーク3304の接続(1つまたは複数)を介して、各処理ユニット(ニューラルプロセッサ)3306にメモリ3302からロードすることができる。
本開示の一態様では、処理ユニット3306は、ニューラルネットワークのニューロンへの1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用し、動的スパイキングモデルを適用して、ニューロンの重みおよび遅延シナプス入力に基づいてニューロンのスパイキング行動を判断し、教師なし学習規則に従って、ニューロンスパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するように構成され得る。別の態様では、処理ユニット3306は、階層型マルチレイヤニューラルネットワーク内のニューロンの各レイヤを、入力と、マルチレイヤニューラルネットワーク内のニューロンの別のレイヤとに結合し、マルチレイヤニューラルネットワーク内のニューロンの第1のレイヤを、入力パターンの第1のサブセクションとマッチングするように構成してよく、その結合されたレイヤは、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、別のレイヤのニューロンの発火の組合せにマッチングすることができる。さらに別の態様では、処理ユニット3306は、関連付けられた遅延をもつシナプスにより、ニューラルネットワークのシナプス入力をニューロンに与えるように構成されてよく、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられてよく、シナプスは複数のセットに属してよく、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするための遅延組合せを備え得る。さらに別の態様では、処理ユニット3306は、ニューロンへの1つまたは複数のシナプスを、ニューラルネットワークの細胞体と結合するように構成されてよく、1つまたは複数のシナプスの各々は、ニューロンの入力求心性部分に対応し、重みと相対遅延とを有し、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招く可能性があり、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有してよく、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備え得る。
図34は、本開示のいくつかの態様による、分散型重み/遅延メモリ3402と、分散型処理ユニット(ニューラルプロセッサ)3404とに基づく、ニューラルテンポラルコーディングのための、上述した方法の例示的実施態様3400を示す。図34に示すように、1つのメモリバンク3402が、計算ネットワーク(ニューラルネットワーク)の1つの処理ユニット3404と直接インターフェースされてよく、メモリバンク3402は、処理ユニット(ニューラルプロセッサ)3404に関連付けられた1つまたは複数の結合(シナプス)の1つまたは複数の重みおよび遅延を記憶することができる。
本開示の一態様では、処理ユニット3404は、ニューラルネットワークのニューロンへの1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用し、動的スパイキングモデルを適用して、ニューロンの重みおよび遅延シナプス入力に基づいてニューロンのスパイキング行動を判断し、教師なし学習規則に従って、ニューロンスパイキングと遅延シナプス入力のタイミング関係に依存して、シナプス入力に関連付けられた重みを調整するように構成され得る。別の態様では、処理ユニット3404は、階層型マルチレイヤニューラルネットワーク内のニューロンの各レイヤを、入力と、マルチレイヤニューラルネットワーク内のニューロンの別のレイヤとに結合し、マルチレイヤニューラルネットワーク内のニューロンの第1のレイヤを、入力パターンの第1のサブセクションとマッチングするように構成してよく、その結合されたレイヤは、入力パターンのサブセクションと入力パターンの別のサブセクションとをマッチングした結果として、別のレイヤのニューロンの発火の組合せにマッチングすることができる。さらに別の態様では、処理ユニット3404は、関連付けられた遅延をもつシナプスにより、ニューラルネットワークのシナプス入力をニューロンに与えるように構成されてよく、シナプス入力のうちの少なくとも1つは、自己結合されているシナプスのうちの少なくとも1つに関連付けられてよく、シナプスは複数のセットに属してよく、セットのうちの少なくとも1つは、再帰的自己結合を備えないシナプス入力のパターンの第1の部分にマッチングするための遅延組合せを備え得る。さらに別の態様では、処理ユニット3404は、ニューロンへの1つまたは複数のシナプスを、ニューラルネットワークの細胞体と結合するように構成されてよく、1つまたは複数のシナプスの各々は、ニューロンの入力求心性部分に対応し、重みと相対遅延とを有し、相対遅延の各々によって、対応する入力求心性部分と細胞体との間の遅延を招く可能性があり、1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有してよく、サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備え得る。
上記で説明した方法の様々な動作は、対応する機能を実施することができる任意の好適な手段によって実施され得る。それらの手段は、限定はしないが、回路、特定用途向け集積回路(ASIC)、またはプロセッサを含む、様々な(1つまたは複数の)ハードウェアおよび/またはソフトウェア構成要素および/またはモジュールを含み得る。一般に、図に示す動作がある場合、それらの動作は、同様の番号をもつ対応するカウンターパートのミーンズプラスファンクション構成要素を有し得る。たとえば、図11、図18、図19および図31に示す動作1100、1800、1900および3100は、図11A、18A、図19Aおよび図31Aに示す構成要素1100A、1800A、1900Aおよび3100Aに対応する。
本明細書で使用する「判断」という用語は、多種多様なアクションを包含する。たとえば、「判断」は、計算、算出、処理、導出、調査、探索(たとえば、テーブル、データベースまたは別のデータ構造での探索)、確認などを含み得る。また、「判断」は、受信(たとえば、情報を受信すること)、アクセス(たとえば、メモリ中のデータにアクセスすること)などを含むことができる。また、「判断」は、解決、選択、選出、確立などを含み得る。
本明細書で使用する、項目のリスト「のうちの少なくとも1つ」を指す句は、単一のメンバーを含む、それらのアイテムの任意の組合せを指す。一例として、「a、b、またはcのうちの少なくとも1つ」は、a、b、c、a−b、a−c、b−c、およびa−b−cをカバーするものとする。
本開示に関連して説明した様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、個別ゲートまたはトランジスタ論理、個別ハードウェア構成要素、あるいは本明細書で説明した機能を実施するように設計されたそれらの任意の組合せを用いて実装または実施できる。汎用プロセッサはマイクロプロセッサとすることができるが、代替として、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラ、または状態機械とすることができる。プロセッサは、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装することもできる。
本開示に関連して説明された方法またはアルゴリズムのステップは、ハードウェアで直接実施されるか、プロセッサによって実行されるソフトウェアモジュールで実施されるか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、当技術分野で知られている任意の形式の記憶媒体内に常駐することができる。使用し得る記憶媒体のいくつかの例には、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROMなどがある。ソフトウェアモジュールは、単一の命令、または多数の命令を備えることができ、いくつかの異なるコードセグメント上で、異なるプログラム間で、および複数の記憶媒体にわたって分散され得る。記憶媒体は、プロセッサがその記憶媒体から情報を読み取ることができ、その記憶媒体に情報を書き込み得るように、プロセッサに結合し得る。代替として、記憶媒体はプロセッサに一体化され得る。
本明細書で開示された方法は、記載の方法を達成するための1つまたは複数のステップまたはアクションを備える。方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく、互いに交換され得る。言い換えれば、ステップまたはアクションの特定の順序が指定されていない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく修正することができる。
説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装した場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され得る。コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む、コンピュータ記憶媒体とコンピュータ通信媒体の両方を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の形態の所望のプログラムコードを担持または記憶するために使用でき、コンピュータによってアクセスできる、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線(IR)、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ここで使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイ(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。したがって、いくつかの態様では、コンピュータ可読媒体は、非一時的なコンピュータ可読媒体(たとえば、有形媒体)を備え得る。さらに、他の態様では、コンピュータ可読媒体は、一時的なコンピュータ可読媒体(たとえば、信号)を備え得る。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
したがって、いくつかの態様は、本明細書で提示する動作を実施するためのコンピュータプログラム製品を含むことができる。たとえば、そのようなコンピュータプログラム製品は、本明細書で説明する動作を実施するために1つまたは複数のプロセッサによって実行可能な命令を記憶(および/または符号化)するコンピュータ可読媒体を備え得る。いくつかの態様では、コンピュータプログラム製品はパッケージング材料を含み得る。
ソフトウェアまたは命令はまた、送信媒体を介して送信され得る。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、伝送媒体の定義に含まれる。
さらに、本明細書で説明する方法および技法を実施するためのモジュールおよび/または他の適切な方法は、適用可能な場合、ユーザ端末および/または基地局によってダウンロードされ得、および/または場合によっては得られ得ることを諒解されたい。たとえば、そのようなデバイスは、本明細書で説明する方法を実施するための手段の転送を容易にするために、サーバに結合することができる。代替的に、本明細書で説明した様々な方法を記憶手段(たとえば、RAM、ROM、コンパクトディスク(CD)またはフロッピーディスクなどの物理的記憶媒体など)によって提供することができ、それにより、ユーザ端末および/または基地局は、その記憶手段をデバイスに結合または供給すると、それらの様々な方法を取得することができるようになる。さらに、本明細書で説明する方法および技法をデバイスに与えるための任意の他の適切な技法を利用し得る。
特許請求の範囲は、上記に示した正確な構成および構成要素に限定されないことを理解されたい。上記の方法および装置の構成、動作および詳細において、特許請求の範囲から逸脱することなく、様々な改変、変更および変形を行うことができる。
上記は本開示の態様を対象とするが、本開示の他の態様は、それらの基本的な範囲から逸脱することなく考案することができ、それらの範囲は、以下の特許請求の範囲によって決定される。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ニューラルテンポラルコーディングの方法であって、
ニューロン回路への1つまたは複数のシナプス入力を時間遅延によって遅延させる相対遅延線抽象化を使用することと、
前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するために、動的スパイキングモデルを適用することと、
教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存する前記シナプス入力に関連付けられた重みを調整することと
を備える方法。
[C2]
前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御することをさらに備える、
[C1]に記載の方法。
[C3]
前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用することをさらに備える、
[C1]に記載の方法。
[C4]
前記ニューロン回路に関連付けられた再利用可能シナプスを選択することと、
重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正することと
をさらに備える、[C1]に記載の方法。
[C5]
前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
[C4]に記載の方法。
[C6]
前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、
[C4]に記載の方法。
[C7]
ニューラルテンポラルコーディングのための装置であって、
ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用するように構成された第1の回路と、
前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するために動的スパイキングモデルを適用するように構成された第2の回路と、
教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整するように構成された第3の回路と
を備える装置。
[C8]
前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御するように構成された第4の回路をさらに備える、
[C7]に記載の装置。
[C9]
前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用するように構成された第4の回路をさらに備える、
[C7]に記載の装置。
[C10]
前記ニューロン回路に関連付けられた再利用可能シナプスを選択するように構成された第4の回路と、
重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正するように構成された第5の回路とをさらに備える、[C7]に記載の装置。
[C11]
前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
[C10]に記載の装置。
[C12]
前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、
[C10]に記載の装置。
[C13]
ニューラルテンポラルコーディングのための装置であって、
ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用するための手段と、
前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するために動的スパイキングモデルを適用するための手段と、
教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整するための手段と
を備える装置。
[C14]
前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御するための手段をさらに備える、
[C13]に記載の装置。
[C15]
前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用するための手段をさらに備える、
[C13]に記載の装置。
[C16]
前記ニューロン回路に関連付けられた再利用可能シナプスを選択するための手段と、
重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正するための手段と
をさらに備える、[C13]に記載の装置。
[C17]
前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
[C16]に記載の装置。
[C18]
前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、
[C16]に記載の装置。
[C19]
コンピュータ可読媒体を備える、ニューラルテンポラルコーディングのためのコンピュータプログラム製品であって、前記コンピュータ可読媒体は、
ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させる相対遅延線抽象化を使用することと、
前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するために、動的スパイキングモデルを適用することと、
教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整することと
を行うためのコードを備えるコンピュータプログラム製品。
[C20]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングの方法であって、
階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、および前記マルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合することと、
前記マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを、入力パターンの第1のサブセクションとマッチングすることと
を備え、
前記入力パターンのサブセクションと前記入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤが、前記別のレイヤのニューロン回路の発火の組合せにマッチングする、
方法。
[C21]
前記入力パターンの別のサブセクションは、前記入力パターンのサブセクションに連続する、
[C20]に記載の方法。
[C22]
前記第1のレイヤは、ポリクロノス発火波をリプレイすることによって、テンポラルコードでメモリを維持する入力パターンの前記第1のサブセクションによって励起される回帰ニューロン回路のネットワークを備え、前記方法は、
前記入力パターンの第2のサブセクションと前記ポリクロノス発火波の組合せによって、前記マルチレイヤニューラルネットワークの回帰ニューロン回路の別のネットワークを励起させることをさらに備える、
[C20]に記載の方法。
[C23]
前記階層型マルチレイヤニューラルネットワークのレイヤの間の軸索遅延は、応答が前記入力パターンの第2の部分に対応する時間ウィンドウ内に入るように前記入力パターンの第1の部分にマッチングするまで前記応答を遅延させる、
[C20]に記載の方法。
[C24]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置であって、
階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、および前記マルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合するように構成された第1の回路と、
前記マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを、入力パターンの第1のサブセクションとマッチングするように構成された第2の回路と
を備え、
前記入力パターンのサブセクションと前記入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤが、前記別のレイヤのニューロン回路の発火の組合せにマッチングする、
装置。
[C25]
前記入力パターンの別のサブセクションは、前記入力パターンのサブセクションに連続する、
[C24]に記載の装置。
[C26]
前記第1のレイヤは、ポリクロノス発火波をリプレイすることによって、テンポラルコードでメモリを維持する入力パターンの前記第1のサブセクションによって励起される回帰ニューロン回路のネットワークを備え、前記装置は、
前記入力パターンの第2のサブセクションと前記ポリクロノス発火波の組合せによって、前記マルチレイヤニューラルネットワークの回帰ニューロン回路の別のネットワークを励起させるように構成された第3の回路をさらに備える、
[C24]に記載の装置。
[C27]
前記階層型マルチレイヤニューラルネットワークのレイヤの間の軸索遅延は、応答が前記入力パターンの第2の部分に対応する時間ウィンドウ内に入るように前記入力パターンの第1の部分にマッチングするまで前記応答を遅延させる、
[C24]に記載の装置。
[C28]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置であって、
階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、および前記マルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合するための手段と、
前記マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを、入力パターンの第1のサブセクションとマッチングするための手段と
を備え、
前記入力パターンのサブセクションと前記入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤが、前記別のレイヤのニューロン回路の発火の組合せにマッチングする、
装置。
[C29]
入力パターンの前記別のサブセクションが、入力パターンの前記サブセクションに連続する、[C28]に記載の装置。
[C30]
前記第1のレイヤが、ポリクロノス発火波をリプレイすることによって、テンポラルコードでメモリを維持する入力パターンの前記第1のサブセクションによって励起される回帰ニューロン回路のネットワークを備え、前記装置が、
前記入力パターンの第2のサブセクションと前記ポリクロノス発火波の組合せによって、前記マルチレイヤニューラルネットワークの回帰ニューロン回路の別のネットワークを励起させるための手段をさらに備える、[C28]に記載の装置。
[C31]
前記階層型マルチレイヤニューラルネットワークのレイヤの間の軸索遅延が、応答が前記入力パターンの第2の部分に対応する時間ウィンドウ内に入るように前記入力パターンの第1の部分にマッチングするまで前記応答を遅延させる、[C28]に記載の装置。
[C32]
コンピュータ可読媒体を備える、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのためのコンピュータプログラム製品であって、前記コンピュータ可読媒体は、
階層型マルチレイヤニューラルネットワーク内のニューロン回路の各レイヤを、入力に、および前記マルチレイヤニューラルネットワーク内のニューロン回路の別のレイヤに結合することと、
前記マルチレイヤニューラルネットワーク内のニューロン回路の第1のレイヤを、入力パターンの第1のサブセクションとマッチングすることと
を行うためのコードを備え、
前記入力パターンのサブセクションと前記入力パターンの別のサブセクションとをマッチングした結果として、その結合されたレイヤが、前記別のレイヤのニューロン回路の発火の組合せにマッチングする、
コンピュータプログラム製品。
[C33]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングの方法であって、
関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えることを備え、
前記シナプス入力のうちの少なくとも1つは、自己結合されている前記シナプスのうちの少なくとも1つに関連付けられ、
前記シナプスが複数のセットに属し、
前記セットのうちの少なくとも1つは、再帰的自己結合を備えない前記シナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える、
方法。
[C34]
前記複数のセットのうちの少なくとも1つの他のセットは、前記パターンの第2の部分と、前記第1のパターン部分を、別の遅延組合せにマッチングする前記第2のパターン部分と相関させるための遅延を有する自己結合されている前記少なくとも1つのシナプスとをマッチングするための前記別の遅延組合せを備える、
[C33]に記載の方法。
[C35]
自己結合されている前記少なくとも1つのシナプスに関連付けられた軸索遅延は、前記第1のパターン部分にマッチングしたことに対する応答を、前記第2のパターン部分に対応する時間ウィンドウ内に前記応答が入るように遅延させる、
[C33]に記載の方法。
[C36]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置であって、
関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えるように構成された第1の回路を備え、
前記シナプス入力のうちの少なくとも1つが、自己結合されている前記シナプスのうちの少なくとも1つに関連付けられ、
前記シナプスが複数のセットに属し、
前記セットのうちの少なくとも1つが、再帰的自己結合を備えない前記シナプス入力のパターンの第1の部分にマッチングするべき遅延組合せを備える、
装置。
[C37]
前記複数のセットのうちの少なくとも1つの他のセットは、前記パターンの第2の部分と、前記第1のパターン部分を、別の遅延組合せにマッチングする前記第2のパターン部分と相関させるための遅延を有する自己結合されている前記少なくとも1つのシナプスとをマッチングするための前記別の遅延組合せを備える、
[C36]に記載の装置。
[C38]
自己結合されている前記少なくとも1つのシナプスに関連付けられた軸索遅延は、前記第1のパターン部分にマッチングしたことに対する応答を、前記第2のパターン部分に対応する時間ウィンドウ内に前記応答が入るように遅延させる、
[C36]に記載の装置。
[C39]
長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのための装置であって、
関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えるための手段を備え、
前記シナプス入力のうちの少なくとも1つは、自己結合されている前記シナプスのうちの少なくとも1つに関連付けられ、
前記シナプスは、複数のセットに属し、
前記セットのうちの少なくとも1つは、再帰的自己結合を備えない前記シナプス入力のパターンの第1の部分にマッチングするための遅延組合せを備える
装置。
[C40]
前記複数のセットのうちの少なくとも1つの他のセットは、前記パターンの第2の部分と、前記第1のパターン部分を、別の遅延組合せにマッチングする前記第2のパターン部分と相関させるための遅延を有する自己結合されている前記少なくとも1つのシナプスとをマッチングするための前記別の遅延組合せを備える、
[C39]に記載の装置。
[C41]
自己結合されている前記少なくとも1つのシナプスに関連付けられた軸索遅延は、前記第1のパターン部分にマッチングしたことに対する応答を、前記第2のパターン部分に対応する時間ウィンドウ内に前記応答が入るように遅延させる、
[C39]に記載の装置。
[C42]
コンピュータ可読媒体を備える、長いおよび大きい空間テンポラルパターンのニューラルテンポラルコーディングのためのコンピュータプログラム製品であって、前記コンピュータ可読媒体は、
関連付けられた遅延をもつシナプスにより、シナプス入力をニューロン回路中に与えることを行うためのコードを備え、
前記シナプス入力のうちの少なくとも1つは、自己結合されている前記シナプスのうちの少なくとも1つに関連付けられ、
前記シナプスは、複数のセットに属し、
前記セットのうちの少なくとも1つは、再帰的自己結合を備えない前記シナプス入力のパターンの第1の部分にマッチングするための遅延組合せを備える、
コンピュータプログラム製品。
[C43]
一般入力パターンのためのニューラルコーディングの方法であって、
細胞体をもつニューロン回路に1つまたは複数のシナプスを結合することと、ここで、前記1つまたは複数のシナプスの各々が、前記ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有する、
前記相対遅延の各々によって、前記対応する入力求心性部分と前記細胞体との間の遅延を招くことと
を備え、
前記1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて前記一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、
前記サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える、
方法。
[C44]
前記一致サブパターンに対応するシナプスのセットは、異なる入力求心性部分についての同じ遅延を有し、
前記発火パターンのサブパターンに対応するシナプスのセットは、同じ入力求心性部分についての異なる遅延を有し、
前記テンポラルパターンのサブパターンに対応するシナプスのセットは、異なる入力求心性部分についての異なる遅延を有する、
[C43]に記載の方法。
[C45]
互いからオフセットされている遅延を有する前記発火パターンに対応する前記シナプスの2つ以上のセットを有することによって、学習された発火レートに前記ニューロン回路が応答するための遅延を最小限にすることをさらに備える、
[C44]に記載の方法。
[C46]
前記2つ以上のセットからの前記シナプスのうちの一部を、1つまたは複数の望まれないレートのエイリアスに起因する前記ニューロン回路の発火を引き起こす時間オフセットを省くようにパンクチャすることをさらに備える、
[C45]に記載の方法。
[C47]
前記ニューロン回路の発火の統合ウィンドウを、前記ニューロン回路は、他の結合とは等しくない遅延をもつ単一結合入力とは反対に同じである、結合ごとの複数の遅延、または異なる結合についての遅延を有する程度に依存して変えることをさらに備える、
[C43]に記載の方法。
[C48]
学習のせいで抑圧した前記結合を、同じ入力への既存の結合によってすでに使用されているいずれとも異なる遅延をもつ、その同じ入力に割り当て直すことをさらに備える、
[C47]に記載の方法。
[C49]
異なる入力に、学習のせいで抑圧した前記結合を割り当て直すことをさらに備える、
[C47]に記載の方法。
[C50]
前記ニューロン回路の前記入力求心性部分のうちの1つについての遅延のセットにおける遅延の間の時間差は、その1つの入力求心性部分に関連付けられた発火レートの逆の倍数に対応する、
[C43]に記載の方法。
[C51]
アラインされていない前記入力求心性部分の1つまたは複数の余分補助遅延スパイクが1つまたは複数のしきい値を下回り、
前記1つまたは複数のサブしきい値余分補助遅延スパイクが、前記ニューロン回路のパターンマッチング実施を中断しない、
[C43]に記載の方法。
[C52]
一般入力パターンのためのニューラルコーディングのための装置であって、
細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するように構成された第1の回路と、ここで、前記1つまたは複数のシナプスの各々は、前記ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有するように構成される、
前記相対遅延の各々によって、前記対応する入力求心性部分と前記細胞体との間の遅延を招くように構成された第2の回路と
を備え、
前記1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて前記一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、
前記サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える、
装置。
[C53]
前記一致サブパターンに対応するシナプスのセットは、異なる入力求心性部分についての同じ遅延を有し、
前記発火パターンのサブパターンに対応するシナプスのセットは、同じ入力求心性部分についての異なる遅延を有し、
前記テンポラルパターンのサブパターンに対応するシナプスのセットは、異なる入力求心性部分についての異なる遅延を有する、
[C52]に記載の装置。
[C54]
互いからオフセットされている遅延を有する前記発火パターンに対応する前記シナプスの2つ以上のセットを有することによって、学習された発火レートに前記ニューロン回路が応答するための遅延を最小限にするように構成された第3の回路をさらに備える、
[C53]に記載の装置。
[C55]
前記2つ以上のセットからの前記シナプスのうちの一部を、1つまたは複数の望まれないレートのエイリアスに起因する前記ニューロン回路の発火を引き起こす時間オフセットを省くようにパンクチャするように構成された第4の回路をさらに備える、
[C54]に記載の装置。
[C56]
前記ニューロン回路の発火の統合ウィンドウを、前記ニューロン回路が、他の結合とは等しくない遅延をもつ単一結合入力とは反対に同じである、結合ごとの複数の遅延、または異なる結合についての遅延を有する程度に依存して変えるように構成された第3の回路をさらに備える、
[C52]に記載の装置。
[C57]
学習のせいで抑圧した前記結合を、同じ入力への既存の結合によってすでに使用されているいずれとも異なる遅延をもつ、その同じ入力に割り当て直すように構成された第4の回路をさらに備える、
[C56]に記載の装置。
[C58]
異なる入力に、学習のせいで抑圧した前記結合を割り当て直すように構成された第4の回路をさらに備える、
[C56]に記載の装置。
[C59]
前記ニューロン回路の前記入力求心性部分のうちの1つについての遅延のセットにおける遅延の間の時間差が、その1つの入力求心性部分に関連付けられた発火レートの逆の倍数に対応する、
[C52]に記載の装置。
[C60]
アラインされていない前記入力求心性部分の1つまたは複数の余分補助遅延スパイクが1つまたは複数のしきい値を下回り、
前記1つまたは複数のサブしきい値余分補助遅延スパイクが、前記ニューロン回路のパターンマッチング実施を中断しない、
[C52]に記載の装置。
[C61]
一般入力パターンのためのニューラルコーディングのための装置であって、
細胞体をもつニューロン回路に1つまたは複数のシナプスを結合するための手段と、ここで、前記1つまたは複数のシナプスの各々は、前記ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有する、
前記相対遅延の各々によって、前記対応する入力求心性部分と前記細胞体との間の遅延を招くための手段と
を備え、
前記1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて前記一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、
前記サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える、
装置。
[C62]
前記一致サブパターンに対応するシナプスのセットは、異なる入力求心性部分についての同じ遅延を有し、
前記発火パターンのサブパターンに対応するシナプスのセットは、同じ入力求心性部分についての異なる遅延を有し、
前記テンポラルパターンのサブパターンに対応するシナプスのセットは、異なる入力求心性部分についての異なる遅延を有する、
[C61]に記載の装置。
[C63]
互いからオフセットされている遅延を有する前記発火パターンに対応する前記シナプスの2つ以上のセットを有することによって、学習された発火レートに前記ニューロン回路が応答するための遅延を最小限にするための手段をさらに備える、
[C62]に記載の装置。
[C64]
前記2つ以上のセットからの前記シナプスのうちの一部を、1つまたは複数の望まれないレートのエイリアスに起因する前記ニューロン回路の発火を引き起こす時間オフセットを省くようにパンクチャするための手段をさらに備える、
[C63]に記載の装置。
[C65]
前記ニューロン回路の発火の統合ウィンドウを、前記ニューロン回路が、他の結合とは等しくない遅延をもつ単一結合入力とは反対に同じである、結合ごとの複数の遅延、または異なる結合についての遅延を有する程度に依存して変えるための手段をさらに備える、
[C61]に記載の装置。
[C66]
学習のせいで抑圧した前記結合を、同じ入力への既存の結合によってすでに使用されているいずれとも異なる遅延をもつ、その同じ入力に割り当て直すための手段をさらに備える、
[C65]に記載の装置。
[C67]
異なる入力に、学習のせいで抑圧した前記結合を割り当て直すための手段をさらに備える、
[C65]に記載の装置。
[C68]
前記ニューロン回路の前記入力求心性部分のうちの1つについての遅延のセットにおける遅延の間の時間差が、その1つの入力求心性部分に関連付けられた発火レートの逆の倍数に対応する、
[C61]に記載の装置。
[C69]
アラインされていない前記入力求心性部分の1つまたは複数の余分補助遅延スパイクが1つまたは複数のしきい値を下回り、
前記1つまたは複数のサブしきい値余分補助遅延スパイクは、前記ニューロン回路のパターンマッチング実施を中断しない、
[C61]に記載の装置。
[C70]
コンピュータ可読媒体を備える、一般入力パターン向けのニューラルコーディングのためのコンピュータプログラム製品であって、コンピュータ可読媒体は、
細胞体をもつニューロン回路に1つまたは複数のシナプスを結合することを行うことと、ここで、前記1つまたは複数のシナプスの各々は、前記ニューロン回路の入力求心性部分に対応し、重みと相対遅延とを有する、
前記相対遅延の各々によって、前記対応する入力求心性部分と前記細胞体との間の遅延を招くことと
を行うためのコードを備え、
前記1つまたは複数のシナプスの1つまたは複数のセットは、組み合わされて前記一般入力パターンのうちの1つを形成するサブパターンに対応する遅延と入力求心性部分とを有し、
前記サブパターンは、一致、発火レート、またはテンポラルパターンのうちの少なくとも1つを備える、
コンピュータプログラム製品。

Claims (20)

  1. ニューラルテンポラルコーディングの方法であって、
    ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させることと、
    前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断することと、
    教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整することと、
    前記ニューロン回路に関連付けられた再利用可能シナプスを選択することと
    を備え、前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、方法。
  2. 前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御することをさらに備える、
    請求項1に記載の方法。
  3. 前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用することをさらに備える、
    請求項1に記載の方法。
  4. 重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正することと
    をさらに備える、請求項1に記載の方法。
  5. 前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
    請求項4に記載の方法。
  6. ニューラルテンポラルコーディングのための装置であって、
    ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させるように構成された第1の回路と、
    前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するように構成された第2の回路と、
    教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整するように構成された第3の回路と、
    前記ニューロン回路に関連付けられた再利用可能シナプスを選択するように構成された第4の回路と
    を備え、前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、装置。
  7. 前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御するように構成された第4の回路をさらに備える、
    請求項6に記載の装置。
  8. 前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用するように構成された第4の回路をさらに備える、
    請求項6に記載の装置。
  9. 重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正するように構成された第5の回路とをさらに備える、請求項6に記載の装置。
  10. 前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
    請求項9に記載の装置。
  11. ニューラルテンポラルコーディングのための装置であって、
    ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させるための手段と、
    前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断するための手段と、
    教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整するための手段と、
    前記ニューロン回路に関連付けられた再利用可能シナプスを選択するための手段と
    を備え、前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、装置。
  12. 前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御するための手段をさらに備える、
    請求項11に記載の装置。
  13. 前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用するための手段をさらに備える、
    請求項11に記載の装置。
  14. 重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正するための手段と
    をさらに備える、請求項11に記載の装置。
  15. 前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
    請求項14に記載の装置。
  16. ニューラルテンポラルコーディングのためのコンピュータプログラムであって、
    ニューロン回路への1つまたは複数のシナプス入力を時間遅延だけ遅延させることと、
    前記ニューロン回路の重みおよび遅延シナプス入力に基づいて前記ニューロン回路のスパイキング行動を判断することと、
    教師なし学習規則に従って、前記ニューロン回路スパイキングと前記遅延シナプス入力のタイミング関係に依存して、前記シナプス入力に関連付けられた重みを調整することと、
    前記ニューロン回路に関連付けられた再利用可能シナプスを選択することと、
    を少なくとも1つのプロセッサに行わせるためのコードを備え、前記再利用可能シナプスを選択することは、前記シナプスが再利用されてから経過した時間によって条件付けられる、コンピュータプログラム。
  17. 前記重み、前記ニューロン回路に関連付けられたシナプスの数、前記シナプスの時間定数、前記ニューロン回路の発火しきい値、前記ニューロン回路の抑制度合、または前記ニューロン回路に関連付けられたノイズのうちの少なくとも1つを、前記ニューロン回路の初期発火レートを誘導するように制御することを少なくとも1つのプロセッサに行わせるためのコードをさらに備える、
    請求項16に記載のコンピュータプログラム。
  18. 前記教師なし学習規則によって、前記重みの調整のためにシミュレートされたアニーリングを適用することを少なくとも1つのプロセッサに行わせるためのコードをさらに備える、
    請求項16に記載のコンピュータプログラム。
  19. 重み、遅延、または前記再利用可能シナプスの求心性部分のうちの少なくとも1つを修正することと
    を少なくとも1つのプロセッサに行わせるためのコードをさらに備える、請求項16に記載のコンピュータプログラム。
  20. 前記再利用可能シナプスを選択することは、前記教師なし学習規則によって、しきい値を下回る値まで削減される前記再利用可能シナプスの重みに基づく、
    請求項19に記載のコンピュータプログラム。
JP2014526129A 2011-08-16 2012-08-14 ニューラルテンポラルコーディング、学習および認識のための方法および装置 Active JP6092213B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/211,091 US9147155B2 (en) 2011-08-16 2011-08-16 Method and apparatus for neural temporal coding, learning and recognition
US13/211,091 2011-08-16
PCT/US2012/050781 WO2013025708A2 (en) 2011-08-16 2012-08-14 Method and apparatus for neural temporal coding, learning and recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016002807A Division JP6219418B2 (ja) 2011-08-16 2016-01-08 ニューラルテンポラルコーディング、学習および認識のための方法および装置

Publications (2)

Publication Number Publication Date
JP2014526110A JP2014526110A (ja) 2014-10-02
JP6092213B2 true JP6092213B2 (ja) 2017-03-08

Family

ID=46690767

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014526129A Active JP6092213B2 (ja) 2011-08-16 2012-08-14 ニューラルテンポラルコーディング、学習および認識のための方法および装置
JP2016002807A Active JP6219418B2 (ja) 2011-08-16 2016-01-08 ニューラルテンポラルコーディング、学習および認識のための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016002807A Active JP6219418B2 (ja) 2011-08-16 2016-01-08 ニューラルテンポラルコーディング、学習および認識のための方法および装置

Country Status (11)

Country Link
US (1) US9147155B2 (ja)
EP (1) EP2745244A2 (ja)
JP (2) JP6092213B2 (ja)
KR (4) KR20150105488A (ja)
CN (2) CN103733209B (ja)
BR (1) BR112014003581A2 (ja)
CA (1) CA2844777C (ja)
IN (1) IN2014CN00716A (ja)
RU (1) RU2597504C2 (ja)
TW (4) TWI526954B (ja)
WO (1) WO2013025708A2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9070039B2 (en) * 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US9015091B2 (en) * 2011-11-09 2015-04-21 Qualcomm Incorporated Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling
US9443190B2 (en) 2011-11-09 2016-09-13 Qualcomm Incorporated Methods and apparatus for neural pattern sequence completion and neural pattern hierarchical replay by invoking replay of a referenced neural pattern
US9424511B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for unsupervised neural component replay by referencing a pattern in neuron outputs
US9424513B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for neural component memory transfer of a referenced pattern by including neurons to output a pattern substantially the same as the referenced pattern
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
WO2014149070A1 (en) * 2013-03-15 2014-09-25 Hrl Laboratories, Llc Neural network and method of programming
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9275329B2 (en) * 2013-08-12 2016-03-01 Qualcomm Incorporated Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
US9652711B2 (en) 2014-03-12 2017-05-16 Qualcomm Incorporated Analog signal reconstruction and recognition via sub-threshold modulation
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US20150278685A1 (en) * 2014-03-31 2015-10-01 Qualcomm Incorporated Probabilistic representation of large sequences using spiking neural network
EP3132389A1 (en) * 2014-04-15 2017-02-22 Intel Corporation Methods, systems and computer program products for neuromorphic graph compression using associative memories
CN111353590A (zh) * 2014-07-21 2020-06-30 徐志强 具有stdp突触可塑性的突触模拟方法及装置
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
CN106295799B (zh) * 2015-05-12 2018-11-02 核工业北京地质研究院 一种深度学习多层神经网络的实现方法
US10083395B2 (en) * 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
KR101701250B1 (ko) 2015-08-03 2017-02-01 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
US10423879B2 (en) 2016-01-13 2019-09-24 International Business Machines Corporation Efficient generation of stochastic spike patterns in core-based neuromorphic systems
TWI581205B (zh) * 2016-02-16 2017-05-01 國立屏東大學 文具供應商的選擇方法與電腦程式產品
CN109348707A (zh) * 2016-04-27 2019-02-15 纽拉拉股份有限公司 针对基于深度神经网络的q学习修剪经验存储器的方法和装置
CN106055866A (zh) * 2016-05-16 2016-10-26 天津大学 基于前馈网络的针刺信息传导通路模型
CN106447032B (zh) * 2016-09-09 2018-12-25 中国传媒大学 大脑神经元动作电位序列的快速预测方法
CN109155001B (zh) * 2016-11-28 2022-03-29 华为技术有限公司 基于脉冲神经网络的信号处理方法和装置
EP3340129B1 (en) * 2016-12-21 2019-01-30 Axis AB Artificial neural network class-based pruning
CN106897768B (zh) * 2017-01-25 2020-04-21 清华大学 神经网络信息发送方法和系统
WO2018164539A1 (ko) 2017-03-09 2018-09-13 (주)엘지하우시스 열가소성 폴리우레탄 입자 및 이의 제조방법
US20190087714A1 (en) * 2017-09-20 2019-03-21 International Business Machines Corporation Automatic timing resolution among neural network components
CN111386535A (zh) * 2017-11-30 2020-07-07 语享路有限责任公司 进行变换的方法及其装置
US20190302707A1 (en) * 2018-03-28 2019-10-03 Mitsubishi Electric Research Laboratories, Inc. Anomaly Detection in Manufacturing Systems Using Structured Neural Networks
US11734555B2 (en) * 2018-06-05 2023-08-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
US11507818B2 (en) 2018-06-05 2022-11-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
CN108985447B (zh) * 2018-06-15 2020-10-16 华中科技大学 一种硬件脉冲神经网络系统
US11188815B2 (en) * 2019-01-07 2021-11-30 International Business Machines Corporation Weight shifting for neuromorphic synapse array
US11734556B2 (en) 2019-01-14 2023-08-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
KR20200111584A (ko) 2019-03-19 2020-09-29 한국전자통신연구원 시공간 입력 신호들이 나타내는 사건을 부호화하기 위한 전자 장치 및 그것의 동작 방법
KR102545066B1 (ko) * 2019-07-05 2023-06-20 한국전자통신연구원 뉴로모픽 컴퓨팅을 위한 신경망 생성 방법 및 이를 위한 장치
US11727250B2 (en) 2019-09-06 2023-08-15 International Business Machines Corporation Elastic-centroid based clustering
US11719963B2 (en) 2020-04-29 2023-08-08 Lightelligence, Inc. Optical modulation for optoelectronic processing
US11741353B2 (en) 2020-12-09 2023-08-29 International Business Machines Corporation Bias scheme for single-device synaptic element
US12013958B2 (en) 2022-02-22 2024-06-18 Bank Of America Corporation System and method for validating a response based on context information
CN114925734B (zh) * 2022-07-20 2022-11-25 浙江大学 一种基于神经拟态计算的在线神经元分类方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4893255A (en) * 1988-05-31 1990-01-09 Analog Intelligence Corp. Spike transmission for neural networks
WO1993018474A1 (en) 1992-03-11 1993-09-16 University College London Devices for use in neural processing
JP3178884B2 (ja) * 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
JP3345478B2 (ja) 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5666079A (en) 1994-05-06 1997-09-09 Plx Technology, Inc. Binary relative delay line
RU2128363C1 (ru) * 1995-06-06 1999-03-27 Таганрогский государственный радиотехнический университет Рефлекторная нейросеть
WO1997029437A1 (en) 1996-02-09 1997-08-14 Sarnoff Corporation Method and apparatus for training a neural network to detect and classify objects with uncertain training data
US6284794B1 (en) * 1996-11-05 2001-09-04 Head Explorer Aps Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase
WO1999012085A2 (en) * 1997-09-04 1999-03-11 Camelot Information Technologies Ltd. Heterogeneous neural networks
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6505182B1 (en) 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
JP4478296B2 (ja) * 2000-06-16 2010-06-09 キヤノン株式会社 パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路
JP2002024795A (ja) * 2000-07-04 2002-01-25 Sony Corp 情報処理装置および方法、並びに記録媒体
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
AU2002356946A1 (en) 2001-11-16 2003-06-10 Joseph Chen Pausible neural network with supervised and unsupervised cluster analysis
US7412428B2 (en) 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US7174325B1 (en) 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
US7430546B1 (en) 2003-06-07 2008-09-30 Roland Erwin Suri Applications of an algorithm that mimics cortical processing
WO2005007075A2 (en) * 2003-07-21 2005-01-27 Ai-Semi Ltd. Adaptive resynchronization therapy system
US8335564B2 (en) 2005-05-27 2012-12-18 Rami Rom Ventricle pacing during atrial fibrillation episodes
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
CA2642041C (en) * 2005-12-23 2014-07-15 Le Tan Thanh Tai Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
US8301250B2 (en) 2006-07-17 2012-10-30 Rami Rom Intelligent control system for adaptive cardiac resynchronization therapy device
US8037010B2 (en) 2007-02-28 2011-10-11 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
GB0811057D0 (en) 2008-06-17 2008-07-23 Univ Ulster Artificial neural network architecture
WO2010025130A1 (en) * 2008-08-28 2010-03-04 Massachusetts Institute Of Technology Circuits and methods representative of spike timing dependent plasticity of neurons
US8250011B2 (en) 2008-09-21 2012-08-21 Van Der Made Peter A J Autonomous learning dynamic artificial neural computing device and brain inspired system
US8630966B2 (en) 2009-01-27 2014-01-14 Salk Institute For Biological Studies Temporally dynamic artificial neural networks
US7978510B2 (en) 2009-03-01 2011-07-12 International Businesss Machines Corporation Stochastic synapse memory element with spike-timing dependent plasticity (STDP)
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
JP5458791B2 (ja) * 2009-10-16 2014-04-02 トヨタ自動車株式会社 連想記憶装置、連想記憶方法、及びプログラム
RU2413304C1 (ru) * 2009-11-02 2011-02-27 Василий Юрьевич Осипов Способ и устройство интеллектуальной обработки информации в нейронной сети
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8625337B2 (en) 2010-05-06 2014-01-07 Qualcomm Incorporated Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements
CN101860357B (zh) * 2010-06-09 2012-04-11 中国科学院半导体研究所 一种利用时间编码控制权重和信息整合的方法
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8892485B2 (en) 2010-07-08 2014-11-18 Qualcomm Incorporated Methods and systems for neural processor training by encouragement of correct output
US8606732B2 (en) 2010-08-04 2013-12-10 Qualcomm Incorporated Methods and systems for reward-modulated spike-timing-dependent-plasticity
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US8515885B2 (en) 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8473439B2 (en) 2010-12-08 2013-06-25 International Business Machines Corporation Integrate and fire electronic neurons
US8768865B2 (en) 2011-01-19 2014-07-01 Qualcomm Incorporated Learning situations via pattern matching
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US8706662B2 (en) 2011-07-21 2014-04-22 Qualcomm Incorporated Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision

Also Published As

Publication number Publication date
WO2013025708A2 (en) 2013-02-21
BR112014003581A2 (pt) 2017-03-14
CN103733209B (zh) 2016-10-26
WO2013025708A3 (en) 2013-08-15
TWI522935B (zh) 2016-02-21
IN2014CN00716A (ja) 2015-04-03
JP2016106299A (ja) 2016-06-16
KR101945678B1 (ko) 2019-02-07
KR101972282B1 (ko) 2019-04-24
KR20180027627A (ko) 2018-03-14
KR101616749B1 (ko) 2016-04-29
US9147155B2 (en) 2015-09-29
EP2745244A2 (en) 2014-06-25
RU2014110033A (ru) 2015-09-27
KR20140054267A (ko) 2014-05-08
JP2014526110A (ja) 2014-10-02
CN103733209A (zh) 2014-04-16
TW201510883A (zh) 2015-03-16
CA2844777A1 (en) 2013-02-21
US20130046716A1 (en) 2013-02-21
RU2597504C2 (ru) 2016-09-10
JP6219418B2 (ja) 2017-10-25
KR20180027628A (ko) 2018-03-14
TW201514868A (zh) 2015-04-16
CN105930899B (zh) 2019-01-08
CA2844777C (en) 2017-11-28
TW201319960A (zh) 2013-05-16
KR20150105488A (ko) 2015-09-16
TWI526954B (zh) 2016-03-21
TWI540517B (zh) 2016-07-01
TWI480812B (zh) 2015-04-11
TW201514869A (zh) 2015-04-16
CN105930899A (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
JP6219418B2 (ja) ニューラルテンポラルコーディング、学習および認識のための方法および装置
JP6092334B2 (ja) 発振を使用したメモリのためのロバストなニューラル時間符号化、学習、およびセル・リクルートメントの方法および装置
JP5989791B2 (ja) 無監督ニューラルリプレイ、学習改善、関連付け、およびメモリ転送のための方法および装置:ニューラル連想学習、パターン補間、分離、一般化および階層的リプレイ
JP5944518B2 (ja) スパイキングニューラルネットワークにおける自然マルチスパイク列のニューラル学習のための方法および装置
JP5934378B2 (ja) 無監督ニューラルリプレイ、学習改善、関連付け、およびメモリ転送のための方法および装置:構造可塑性および構造制約モデリング
TW201329876A (zh) 用於棘波神經網路中的結構延遲可塑性的方法和裝置
US11615298B2 (en) STDP with synaptic fatigue for learning of spike-time-coded patterns in the presence of parallel rate-coding
US9424513B2 (en) Methods and apparatus for neural component memory transfer of a referenced pattern by including neurons to output a pattern substantially the same as the referenced pattern
US11080592B2 (en) Neuromorphic architecture for feature learning using a spiking neural network

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170208

R150 Certificate of patent or registration of utility model

Ref document number: 6092213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250