JPH04507014A - 神経ネットワークのためのスリープ・リフレッシュ・メモリ - Google Patents

神経ネットワークのためのスリープ・リフレッシュ・メモリ

Info

Publication number
JPH04507014A
JPH04507014A JP1509711A JP50971189A JPH04507014A JP H04507014 A JPH04507014 A JP H04507014A JP 1509711 A JP1509711 A JP 1509711A JP 50971189 A JP50971189 A JP 50971189A JP H04507014 A JPH04507014 A JP H04507014A
Authority
JP
Japan
Prior art keywords
level
output
neural
circuit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1509711A
Other languages
English (en)
Other versions
JP2847133B2 (ja
Inventor
タパン カーロス シー
Original Assignee
株式会社エレクトロダイン研究所
日本製紙株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エレクトロダイン研究所, 日本製紙株式会社 filed Critical 株式会社エレクトロダイン研究所
Publication of JPH04507014A publication Critical patent/JPH04507014A/ja
Application granted granted Critical
Publication of JP2847133B2 publication Critical patent/JP2847133B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 神経ネットワークのためのスリーブ・リフレッシュ・メモリ発明の背景 本発明は経時により消失するであろうメモリのトレースを補強するための動的な スリーブ・リフレッシュ能力を含む、神経ネットワークを実現する装置に関する 。
Z関連技術の説明 神経ネットワークはその理学上の基盤として哺乳動物のモデル同定としてとらえ ることができる情報処理装置の高度に相似する一形態である。典型的な神経ネッ トワークはニューロンまたはニューロン回路とも呼ばれる多数のノードを含み、 各々は哺乳動物の脳におけるニューロンと類似する態様による動作するものであ る。このニューロンはシナプシス若しくは単に連結と呼ばれている、シナプシス の接続回路により相互に接続されており、各々は哺乳動物の脳におけるシナプシ スと類似する態様により動作するものである。
哺乳動物のように、神経ネットワークのしくみは各ニューロンがシナプシスを介 してネットワーク内の多数の他のニューロンに相互結合されるようになっている 。多くの場合、この結合は多方向性のものであるが、単方向性の場合もある。
神経ネットワークの領域での動作の多くが理学上の基盤に基づいているため、こ の分野における進展は哺乳動物の脳を科学的により一層、理解するのを助け、脳 の研究における進展は神経ネットワークの最新技術を向上させるのを助ける。
神経ネットワークが動作するとき、外部からの入力信号がネットワーク内の一層 のニューロンの入力に供給される。あるアルゴリズムに従って、この信号はネッ トワークを介して伝播し、最終的にその入力信号の処理された形態を表わす一以 上の出力ニューロンを起動せしめる。例えば、入力がCCD画像アレイ内の様、 々な画素に接続されていれば、その出力は26文字のアルファベットのうちのと れがそのCCDアレイ上に表わされているかを特定するようなものでありうる。
代表的には、それにより情報かネットワークを介して伝播する伝達機能はある種 の学習アルゴリズムに従って変形されつる。このようにして、ネットワークはそ れがさらされている周囲環境に依存して、異なる入カバターンを理解するように 学習することができる。通常、この学習アルゴリズムは指示された形態のものも あれば、指示されていない形態のものでもありうる。指示された学習により学習 するネットワークにおいては、その出力応答は人間若しくは自動的な監視者のい づれかにより所定の正しい出力応答に対して計測される。そして、このネットワ ークは実際の出力応答とその所定の出力応答との間の差異とはしばしば独立して 、その所定の出力応答か得られるまで繰り返して、その自身の伝達機能を変形せ しめられる。そのようなシステムの目的は入力信号と出力応答との所定の関係へ のそれ自身の道を見い出さしめることである。
指示されない学習ネットワークにおいては、そのネットワークはいかなる入力信 号に対してもそれ自身の独特な出力応答を形成する。そのようなネットワークは それ自体で例えば文字“八”の様々な形の中から文字“B”の異なる変形例が異 なるカテゴリーに属することを決定することができるはずである。そのようなネ ットワークは各カテゴリーの入力信号に対して異なる出力応答をもたらすために 、それ自身の伝達機能を変形するであろう。
指示される学習アルゴリズムの一例はクーパ(Cooper)に与えられた米国 特許第3.950.733号に説明される、いわゆる後伝播のアルゴリズムであ る。指示されない学習アルゴリズムの一例はツクシマ(Fukushima)に よる“ネオコグニトロン(Neocogni tron)“視覚パターン認識を 行うことができる階層化された神経ネットワーク゛ニューラル・ネットワーク( Neural Networks)、 Vol、 1. pp、119−130  (1988)において議論されるものである。
別の指示されない学習アルゴリズムはカーペンター(Carpenter)およ びグロスバーブ(Grossberg)により提案されたA、RT型ネットワー クにおいて用いられる。
例えば、カーペンターおよびグロスバーブによる“自己構成する神経パターン認 識装置のための大規模平行構造” Computer Vision、 Gra phics、 and Image Processing、 Vol、37.  pp、54−115 (191!7) (”グロスバーブI”)とカーペンタ ーおよびグロスバーブによる“自己構成する神経ネットワークによる適応的なパ ターン認識のART″IEEE Computer (19883月)の77〜 88(“グロスバーブII”)。その最も単純な形態においてはARTネットワ ークは2つの層F1およびF2のニューロンからなっている。F1層は多数のク ラスターからなっており、そのクラスターのそれぞれは相互に禁止の内部接続を 備えた多数のノードからなっている。入力ニューロン若しくはノードのそれぞれ は3つのタイプの源、すなわち周囲環境からの刺激入力からのもの、F2内のノ ードからのもの(トップ−ダウン連結)、全体的な制御メカニズムのもの、から のシナプシス信号の形態をとる。各F2のクラスターは相互に禁止のノードをも っており、そのうちの1つのみがいかなるときも起動状態である。F2の起動は 2つの主たるタイプの源、すなわちFlノードからのもの(ボトム−アップ連結 )およびリセット・メカニズムからのもの、からの入力により制御される。トッ プ−ダウンおよびボトム−アップ連結の両者はロングーターム・メモリ(LTM Long−Term Memorい接続であり、それはシナプシスの強度の時定 数若しくは減衰定数がFiおよびF2内のショートーターム・メモリ(STM:  Short−TermMemory)アクティビティのそれらに比べて充分に 長いことを意味する。ニューロンにより生成される出力信号はアクティブまたは インアクティブのしづれかを示す2値であることに注目すべきである。ニューロ ンに対して内部的に生成されるアナログのアクティビティ・レベルはそれにより 2値の出力か生成されるところの公式の複数のパラメータのうちの1つのみを形 成する。
ネットワークを介して情報を伝播せしめる伝達機能は通常、学習アルゴリズムに 従って変更され得る係数若しくは他の定数を伴ったあらかじめ定義された形態を 有する。例えばARTモデルにおいては、各ニューロンVkは次式の膜状等式に 従う“STMアクティビティ″Xkをそれぞれ有する。
EdXk/dt=−Xk+(1−A、Xk)J″″に−(B+CXk)J−に尚 E、A、BおよびCは定数でありJ”kはVkに対する刺激入力の総量であり、 J−にはVkに対する禁止入力の総量である。Jkの値のそれぞれは次式の等式 からめられる。
Jk=Σef (Xe)Zek 尚、Veはその出力がニューロンVkに影響を及ぼすニューロンであり、f(X e)はニューロンVe内の内部アクティビティレベルXeの定められた形態の2 値の出力関数であり、Zekは学習アルゴリズムに従って変化する係数である。
接続性の重みとして考えられ得る、Zのような係数はキャパシタの充電レベルと して各ンナブシス接続を実現する多くの回路のそれぞれの中に保持されつる。
この構成にはキャパシタかそれ自体完全な物ではなく、経時により充電を失うと いう問題かある。従って現行の構成はメモリをできるだけ維持するために高価な CCD若しくはフローティング・ゲートMO3FETをしばしば用いる。少なく とも1つの例においては、もれをせき止め、メモリの消失を防ぐために、キャパ シタを一100℃にまで冷却することさえ行われてきた。マッキ(Mackie )らによる“シリコン内での神経ネットワーク・モデルの実現”NATOASI Series、 Vol、 F41. ”Neural Computers、 ”pp、467−476. at472(1987)。他の例においては、メモ リはデジタル的に保持される。これらの技術は高価なものであり、最適な集積密 度に役に立つものではない。回路の使用により充電の損失をせき止めるようにし た試みは成されたことはなかった。
保持キャパシタの充電もれによりメモリが徐々に消失することに加え、そのよう なメモリの消失はしばしば意図的にシステムの中に作り込まれる。例えば、カー ペンタ−およびグロスバーブは長期間の哺乳動物のシナプシスさえ科学的な送信 本/受容体が前後にシナプシスの活動がないときにいかに早く失われるかに関連 する特性的な減衰定数を有していることを認知した。従って、彼らのARTモデ ルはいわゆる関連性のある減衰規則を含み、そのルールはある接続性は学習の期 間0に向かっての減衰に重みづけることを意味している。グロスバーブIのワク 番孔この関連性のある減衰規則は哺乳動物の脳の機能の一面をモデル化している が、それは完全なものではない。説明として、ARTシステムが文字A−Fを表 わす6つのカテゴリーを学習したとしよう。さらに、そののちの長期間、そのシ ステムがカテゴリーA−Dのみを表わす外部入力にさらされていたとしよう。
このARTモデルにおいてはそのシステムがカテゴリーEおよびFを認識すると ころのメモリ・トレースは逐には消失してしまうであるもしかしながら、我々は 人間が反復的な刺激なしでも、何年も前に起った映像や出来事を覚えていること ができることを知っている。
従って、本発明の目的はいかなる原因によるメモリの消失にも対処するために、 メモリのトレースが動的にリフレッシュされる神経ネットワーク装置を提供する ことである。
発明の概要 本発明によると、システムが“起きている状態”および“寝ている状態”の少な くとも2のモードで動作する神経ネットワーク・システムが提供される。システ ムがそのウェーキング・モード(waking ff1ode)である間、シス テムは様々な周知のアルゴリズムに従って学習し、問題を解決する。システムが スリーブ・モード(sleep mode)にある時は、システムはその外部入 力から隔絶さね、その時点までに学習されてきた接続性の重みがスリーブ・リフ レッシュ・アルゴリズムに従って調整される。このスリーブ・リフレッシュ・ア ルゴリズムは比較的洗練されたタイプのものでもなくともよく、そのアルゴリズ ムにおいては様々な接続性の重みは一定の値若しくはそれらの以前の値に比例す る実質的に一定の値により増加せしめられるだけである。このリフレッシュ動作 が行われるアルゴリズムはシステムの電気的な限界を超えないようにするために 接続性の重みにおける増加を制限する一面を含んでもよい。
しかしながら、より洗練されたスリーブ・リフレッシュ・アルゴリズムが本発明 の別の特徴に関連づけられて用いられる。この特徴は哺乳動物の大脳皮質におけ る記憶保持は単にシナプシスの時間定数に基づくのみでなく、層全体の確率論的 な動的構造に基づ(ものであるという認識に部分的に立脚するものである。従っ て、神経ネットワーク・システムは多数のニューロンを含み、それぞれはネット ワーク内の他のニューロンの少なくとも一層の出力の重みづけられた合算に感応 する。合算の項は接続性の重みに従って重みづけられ、その接続性の重みは以下 に詳述される学習アルゴリズムに従って変更可能である。周知のネットワークと は異なり、様々なニューロンが多くのフィードバック・ループを含む形状で相互 接続される。説明を簡単にするために本発明は2つのレベルのみのニューロンを 存するネットワークについて説明する。第1のレベルにおいては、各ニューロン はそれぞれの外部入力信号および第2のレベルのそれぞれのニューロンの両者に 感応する。第2のレベルのニューロンは競合的なりラスターを形成し、この第2 のレベルのニューロンの各々の出力は第1のレベルのニューロンの各々に正方向 に感応し、またクラスター内の他の第2のレベルのニューロンの各々に負方向に 感応する。
この種の形状を有した従来技術のシステムにおいては、各ニューロンの出力は“ 付勢状態”若しくは“消勢状態”のいづれかであった。このニューロンの応答式 は所定の入カバターンに応じてループを介しての正のフィードバックが第2のレ ベルのニューロンのうちの1つの選択を強めるようなものとなるまで第2のレベ ルのニューロンのうちの異なるものを実際起動するように、様々なフィードバッ ク・ループにより動作するものである。この時、このシステムは共振状態である といわれ、付勢状態の第2のレベルのニューロンは入カバターンが属するカテゴ リーを表わしているといわれる。しかしながら、本発明のこの特徴に従って構成 されるネットワークはニューロンの出力としてアナログのアクティビティ・レベ ルを有する。さらに、本ネットワークは第1のレベルのニューロンが外部刺激の ない時でさえゼロでないアクティビティ・レベルの出力を育するように構成され る。本発明のこの特徴によるネットワークにおいては、従来技術のネットワーク のように入カバターンが認識された時に共振が成し逐げられるだけでなく、外部 刺激に起因しないニューロンの低い強度の発火により特徴づけられる補助的な共 振も第1のレベルのニューロンのゼロでないアクティビティ・レベルに起因して 起こる。
効果として、第1のレベルのニューロン出力のアクティビティ・レベルは各々  。
の休止の値を下回ることはなく、また、この値はその補助的な共振が通常動作に おいてシステムにより選択されたカテゴリーによりほとんど影響を及ぼすことが ないほどに充分に低いものである。しかしながら、ネットワークがその入力から 隔絶されている時、その補助的な共振はそれらがそのシステム内に存在する唯一 の共振である為そのシステムを支配する。そして、ネットワークの回帰的な性質 により、ネットワークの形状、様々なニューロンのアクティビティ・レベルの過 去の履歴、およびニューロンの出力が他のニューロンのアクティビティ・レベル に影響を及ぼす程度の量の接続性の重みにより指令される疑似ランダム・シーケ ンスにおいて、第2のレベルのニューロンのうちの様々なニューロンは発火(す なわち、一時的な高いアクティビティ・レベルへの上昇)せしめられる。これら の補助共振は入力が再びシステムに入力されるまで続き、このときに主共振が支 配を再開する。選択的に、若しくは付随的に、構造がどうであろうと、第1のレ ベルのニューロンのゼロでないアクティビティ・レベルの出力はネットワークが 起きているときは絶縁されるか若しくは抑圧され、ネットワークが寝ているとき は起動される。
本発明によると、ネットワークが起きている間にどのような学習アルゴリズムが 用いられていようとも、ネットワークが寝ている間も起動されたままである。
学習アルゴリズムは通常、共振を発生した接続を補強し、カテゴリーの誤まった 選択を発生する接続を弱めるようにされている。従って、ネットワークがそのス リーブ・モードにあるときは、補助共振を起こす接続は強化される。さらに、様 々な第2のレベルのニューロンがそれにより発火する疑似ランダム・シーケンス は第2のレベルのニューロンに接する接続の接続性の重みに依存しているので、 第1のレベルのニューロンへの強い接続を有しているか、若しくは多数の第1の レベルのニューロンにより起動されるような第2のレベルのニューロンは第1の レベルのニューロンと弱い接続を有するか、若しくはより少ない数の第1のレベ ルのニューロンにしか起動されないような第2のレベルのニューロンより、より 頻繁に発火するであろう。学習アルゴリズムはそれらが使われているときに接続 を強めるので、学習アルゴリズムは事実上、眠ろうとしたときに存在する接続の 相対的な重みに比例して大まかに全ての接続を強化するであろう。
第2のレベルのニューロンのうちの1つへの接続が強くなりすぎると問題が生じ るであろう。これらのニューロンは他のニューロンより頻繁に発火し、これによ り、それらにつながる全ての接続の強度を増加せしめる。そのような優遇される 第2のレベルのニューロンにつながる接続は他の接続より速く強くなるであろう から、この状態は再生的なものである。これにより、これらの状態を呈する第1 および第2のレベルのニューロンの間の増加したフィードバックのために、その ような優遇された状態は更により優遇されるものとなる。これらの接続の強度は 不活性な接続を犠牲にして限定的に増加しつる。従って、接続の領域を対照刺激 するかわりに、ネットワークは刺激されない、いくつかのメモリを消失するかも しれない。
従って、効果として、本発明によるネットワークは寝ている間に優遇された状態 の存在を検出し、そのような状態がシステムを圧倒してしまうのを防ぐために、 それらの再生的な進展をチェックする構造を含んでいる。好ましくは、ディープ ・スリーブ機構は1以上の第2のレベルのニューロンのアクティビティ・レベル を観察し、1つの優遇されたニューロンが検出されると、そのニューロンへの接 続がそれにより学習したところの感度を反転する。すなわち、刺激された接続を 強めるかわりに、その学習アルゴリズムは刺激された接続を弱めるであろう。
より好ましい実施例においては、ディープ・スリーブ機構はディープ・スリーブ 機構により監視されている第2のレベルのニューロンにつながるシナプシスの接 続の各々に結合されるアナログ・ディープ・スリーブ信号を生成し、第2のレベ ルのニューロンがより優遇されたものとなるような学習を一層、ゆっくりしたも のにする。ニューロンがより優遇された状態のものとなったときに、学習の感度 はゼロを通過し、優遇度がさらに増えるにつれ徐々に負の値のものとなる。1つ の第2のレベルのニューロンを監視するか、若しくはクラスタ内の第2のレベル のニューロン全ての出力を観察するよう供給されるような構造となっている。
前者の場合、そのディープ・スリーブ信号がその第2のレベルのニューロンにつ ながる接続のみに影響を及ぼすよう接続され、後者の場合、ディープ・スリーブ 信号はそのような第2のレベルのニューロンのうちのいづれかにつながる接続の 全てに結合されている。学習アルゴリズムは刺激された接続のみに影響を及ぼす ものであるから、優遇された状態の部分を形成する接続のみがディープ・スリー ブ信号により影響されるだろう。全ての場合において、第1のレベルのニューロ ンの出力を第2のレベルのニューロンの入力に結合する接続じフィード・フォワ ード(feed−forward)”連結)のみがディープ・スリーブ信号によ り影響される、すなわち、反対方向の接続がそれらのもつとも強い値にまで強く なることができる。さらに、ディープ・スリーブ機構はウェーバ・の法則のルー ル(WederLaw Ru1e)により従うものでもある。
図面の簡単な説明 本発明をその一実施例について次の図面を参照しながら説明する。
図1は本発明による神経ネットワークのブロック図である。
図2は本発明によるニューロンの機能ブロック図である。
図3は本発明によるニューロンの概略図である。
図4はフィード・フォワード・シナプシス接続回路の概略図である。
図5はフィード・バック・シナプシス接続回路の概略図である。
図6は禁止の接続回路の概略図である。
図7は図3の神経回路内の様々なノードの波形である。
図8はある入カバターンに応じて、本発明のネットワークにより展開される接続 性の領域を示すものである。
図9はディープ・スリーブ・ノードのパルス・エクスンダ(extender) の概略図である。
図10はディープ・スリーブ・ニューロンと共に用いられる特別な接続の概略図 である。
図11はディープ・スリーブ神経回路の概略図である。
詳細な説明 図1に本発明による神経ネットワークのブロック図が示されている。図1に示さ れる装置は神経ネットワーク全体が若しくはずっと大きい神経ネットワークの一 部分のみを表わすものである。このネットワークには2つのレベル10および1 2のノード若しくはニューロンがそれらを相互に接続する複数の接続回路と共に 含まれている。第1のレベル10のニューロンはクラスタ(cluster)  I 4−1.14−2、および14−3の中に構成され、各々は各々、1つのニ ューロン16−1.16−2、および16−3を含んでいる。クラスタ14−1 .14−2および14−3は各々、1つより多くのニューロンを含みつるが、説 明を簡単にするために、唯一のニューロンの第1のレベルのクラスタか示されて いる。
第2のレベルのニューロン12は相互に競合するニューロン18−4.18−5 .18−6および18−7の単一のクラスタの中に構成される。第2のレベルも 他のクラスタのニューロンを含みつるが、簡単のために1つのみのクラスタか示 されている。
第1のレベルのニューロンlO内の各ニューロンは各々の隔絶スイッチ2〇−1 ,20−2および20−3を介して各々の外部人力22−1.22−2および2 2−3に接続された1つの入力を備えている。入力22は異なるレベルの他のニ ューロンの出力に接続しつるか、またはある種の入力回路を介して外部入力に接 続しうることがおわかりいただけよう。また、ニューロン16の各々は後述され るような態様で第2のレベルのニューロン18の全てからの入力信号を受け、そ の結果、多数の信号がニュー−ロン16の各々によって受けられる。意味的には 、これらの信号がニューロンの別個の入力に入力され、そして合算されるか、若 しくは合算されてニューロンの唯一の入力に入力されるものと考えるのは等価で ある。例えば、以下に説明する回路実施例において、全ての入力信号は共に共通 の回路ノードに接続される。また、第1のレベル10の各ニューロンは入力に対 すると同様に、唯一の出力と考えられ得る複数の出力を含んでいる。
第2のレベル12内のニューロンは好ましくは第1のレベル10内のニューロン と同じものである。第1のレベル10内のニューロンのように、第2のレベル内 のニューロンは各々、複数の入力(単一の入力と考えられ得るか)および複数の 出力(単一の出力と考えられ得るが)を備えている。ニューロン18の各々の外 部出力は各々の隔絶スイッチ24−4.24−5.24−6および24−7を介 して各々の出力回路26−4.26−5.26−6および26−7に結合されて いる。
第1のレベルのニューロン16の各々の出力はフィード・フォワード回路30を 介して第2のレベルのニューロン18の各々の入力に結合されている。これらの 回路はそれらは接続される目的ニューロン、これはポスト・シフブシス・ニュー ロンとも呼ばれるが、はそこより外部出力信号が取り出されるところのニューロ ンであるので、フィード・フォワード接続回路と呼ばれる。こうして、神経回路 16−1の出力はフィード・フォワード接続回路30−14.30−1.5.3 0−16および30−17を介して各々の第2のレベルのニューロン18−4. 18−5.18−6および18−7に結合されている。説明を簡単にするために 、図1に示されるフィード・フォワード接続回路は1つのみであるか、第1のレ ベルのニューロン14−2および14−3の各々も各々のフィード・フォワード ・ノードを介して4つの第2のレベルのニューロン18の各々に結合されること は御理解いただけよう。計12個の別個のフィード・フォワード接続回路が含ま れる。
同様に、第2のレベルのニューロン18の各々はフィード・バック接続回路32 を介して第1のレベルのニューロン16の各々の入力に結合されている。図1に は各々の第2のレベルのニューロンl8−4.18−5.18−6および18− 7の出力を第」のレベルのニューロン16−1の入力に結合するフィード・バッ ク接続回路32−41.32−51,32−61および32−71か示されてい る。第2のレベルのニューロンI8の各々の出力はまた、フィード・バック回路 (図1に示されていない)を介して第1のレベルのニューロン14−2および1 4−3の各々の入力に結合されている。図1において参照されている様々な要素 の引用記号はこの説明の簡便のために選ばれている。特に、第4のレベルのニュ ーロン16および各々の第1のレベルのニューロン16と1対1に対応する図1 内の要素の各々はサフィックスl、2および3かふられている。同様に第2のレ ベルのニューロン18および各々のニューロン18に1対1に対応する図1内の 要素の全てはサフィックス4.5.6および7が付られている。このようにして 、7つのニューロンが示されており、ニューロン1.2および3は第1のレベル の中にありニューロン4.5.6および7は第2のレベルの中にある。
接続回路30および32はそれらが逆子情報の源および目的地を表わすサフィッ クスが付られている。例えば、フィード・フォワード接続回路30−17はニュ ーロン1の出力をニューロン7の入力に結合し、フィード・バック接続回路32 −51はニューロン5の出力をニューロン1の入力に結合する。一般にN個のニ ューロンがあり、そのうちのM個は第1のレベルの中にあり、そのうちのN−M 個は第2のレベルの中にある。フィード・フすワード接続回路3O−ijは各々 のi番目のニューロンの出力を各々の3番目のニューロンの入力に結合し、フィ ード・バック接続回路32− j fは各々の1番目のニューロンの出力を各々 のi番目のニューロンの入力に結合する。ここで、i=1、・・・Mであり、j =M+1、・・・Nである。
、隔絶スイッチ20−1.20−2および20−3は全て、共通バッファ36に より制御され、この共通バッファの入力はネットワーク・モート信号を受けるよ うに接続されている。同様に隔絶スイッチ24−4.24−5.24−6および 24−7は全て、共通バッファ38により制御され、この共通バッファもネット ワーク・モード信号を受けるように接続されている。いづれの場合においても、 モード信号が消勢状態であるときくシステムが“眠っている”ことを示している )、隔絶スイッチは開き、モード信号が付勢状態であるとき(システムが“起き ている”ことを示している)、閉じるように接続が成される。ネットワーク・モ ード信号は回路40により発生され、この回路40は周期的にその信号を発生す るか、あるいは人間による入力に応じて発生することができる。
ディープ・スリーブ・メカニズムを実行するために図1のネットワークはさらに ディープ・スリーブ・ニューロン50を含む。ディープ・スリーブ・ニューロン はニューロン16および18に類似のものであるが、全く同一でないことはおわ かりいただけよう。ディープ・スリーブ・ニューロン50への入力信号は各々の “特別な”接続回路52−4.52−5.52−6および52−7を介して各々 の第2のレベルのニューロン18の出力に結合され、ディープ・スリーブ・ニュ ーロン50の信号出力はパルス・エクステンダ52を介してフィード・フォワー ド・ノード30の各々に対するディープ・スリーブ制御入力に結合されている。
また、ディープ・スリーブ・ニューロンはモード信号源ニューロン40からのネ ットワーク・モード信号を受けるよう結合された禁止の入力を備えている。また 、図1のネットワーク内に含まれているのは、図示されていないが、第2のレベ ルのニューロン18の各々の出力を他の第2のレベルのニューロン18の各々に 結合する禁止の接続回路である。
前に説明した通り、先行技術のネットワークとは異なり、ニューロン間で送られ る信号はニューロンが発火しているか否かを示す2値信号ではなく、アナログの アクティビティ・レベルを表わしている。本発明の1つの特徴によれば、このア ナログのアクティビティ・レベルはアナログの周波数を有する2値のパルス信号 として表わされる。好ましくは、パルスの周波数が高くなればなる程表わされる アクティビティ・レベルも高くなる。さらに、第1のレベルのニューロンのうち のいづれのものの出力信号の周波数も休止の正の周波数を下回ることはない。
これらの特徴は関係する回路の説明に従い明らかになるであろう。
神経回路 図2は本発明によるノート若しくは神経回路16若しくは18の機能図を示して いる。それは入力ブロック+00を含み、この入力ブロックはニューロンへの入 力信号のアクティビティ・レベルの合計の時間積を発生する。入力ブロックの出 力は以下に説明される合算器102において他の信号と合算され、電圧制御発振 器(VCO)104への入力を形成する。第1のレベルのニューロンについては 入力ブロック100に対する付加的な入力として、または合算器102の付加入 力として、定数項Cも神経回路に接続される。VCOl 04はその入力上の電 圧に応じた周波数を有する信号を発生する。その信号はレギュレータと呼ばれる 別のインテグレータ(integrator) 106により累積加算され、そ の出力は加算器+02への減算入力を形成する。この図はニューロンがいかに機 能的に動作しているかを示しているが、実際の回路構成は図示された機能ブロッ クにきちんと分けられ得るものでないことは理解いただけよう。
図2の3つの特徴が注目されるべきである。まず、ニューロンの出力周波数は入 力信号の周波数の合計が急速に増加するときに急速に増加するであろう。同様に 、入力周波数の合計か急落すると神経出力の周波数において比較釣魚な下降が発 生するであろう。入力ブロック100の積算機能によりもたらされる平滑化およ び遅延があろうが、それは入力信号か積算される期間に依存するであろう。一般 に信号が積算される期間が短か(なればなる程、ニューロンの出力周波数はより 迅速により忠実に入力周波数の合計に追従するであろう。
第2に、ニューロンの入力上の高(維持されたアクティビティ・レベルはレギュ レータ106の出力が徐々に増加するであろうから、出力上に維持された高いア クティビティ・レベルを生じせしめることはないてあろう。レギュレータ106 の出力電圧は加算器102により入力ブロック100の出力電圧から減算される ので、レギュレータ106のより高い出力電圧はVCO104への制御電圧入力 を低減し、これにより徐々にニューロンの出力周波数をより低い値に戻すであろ う。ニューロンへの入力のアクティビティ・レベルが引き続き下降すると、ニュ ーロンの出力周波数は最初は下降し、そしてレギュレータ+06により徐々によ り高い値に戻るであろう。
第3に、レギュレータ106の機能は神経出力上の安定状態の周波数変化に完全 に対応するものではなく、それは単に時間をかけてそれらを徐々に柔らげるのみ である。このようにして、第1のレベルのニューロンにおいて、入力ブロック1 00若しくは合算器102への入力として定数項を含めることによりニューロン の安定状態の出力周波数がある休止状態の値を確実に下回らないようにする。
図3は図2のニューロンの機能を実行する好適な神経回路の回路図である。それ は一端を地気に接続されて他端を回路の入力128に接続された合算キャパシタ 130からなっている。また、入力128はレジスタ132を介して比較器14 4の反転入力ノード136に結合される。また、反転入力ノード136は抵抗1 34を介してvCCに接続され、キャパシタ138を介して地気に接続される。
比較器144の非反転入力146は直列に接続された3つのダイオード148を 介して比較器144の出力ノード150に結合される。また、比較器144の反 転入力136は抵抗140および平行ダイオード142を介して比較器144の 出力ノード150に接続されている。
また、比較器144の非反転入力146は抵抗158を介して別の比較器162 の出力に接続されている。比較器162の反転入力は抵抗152および直列ダイ オード156を介して比較器144の出力150に結合されている。また、それ はキャパシタ168および平行な抵抗160を介して比較器162の出力164 に結合されている。比較器162の非反転入力はボランショメータ159のタッ プ(tap)に接続ざ顛ボランショメータの両端は各々、Vccおよび地気に接 続されている。また、比較器144の出力ノード150は出力比較器170の反 転入力に接続されており出力比較器170の非反転入力はVcc/2に接続され ている。
比較器170の出力172は神経回路16若しくは18の出力を形成する。
神経回路16若しくは18の入力128は時間的および空間的な合算点であり、 それが各入力の時間における変化のみではなく、全ての入力によりもたらされる 電流をも積算することを意味する。他のニューロンからこのニューロンへの連結 は全て、この点128に集まり、そこにおいてそのような接続からの電流はキャ パシタ130により所定時間、合算され積算される。これらの信号が積算される 所定期間はかなり複雑な問題であるが、抵抗132を介してのキャパシタ138 への電流の流れ込みのため、その積算は神経出力信号の最も最近のパルスから発 生する入力信号に有利に重く重みづけられることかおわかりいただけよう。
抵抗132は積算キャパシタ130から再生のためのキャパシタ13gへ電気的 な電荷を移す。このキャパシタ138は比較器144、抵抗140および158 、およびダイオード142および!48と共に簡単な発振器を構成する。この発 振器がその休止状態にある時でもそれは遅いレートで幅の狭いパルスを出力する (例えば、5mm秒内に1パルス)ことがわかるであろう。これは積算キャパシ タ130を充電する入力電流がなくとも、キャパシタ138をゆっくり充電する ための電流がもれ抵抗134を介して流れ得るためである。第2のレベルの神経 回路において、ゼロでない休止状態の出力周波数を避けるためにもれ抵抗+34 は省略され得るだろう(開回路)。さらに、第1のレベルのニューロンのゼロで ない休止状態の出力周波数は別のメカニズムにより選択的若しくは付随的にもれ 抵抗134に対し発生せしめられ得、例えば低い周波数の電流パルス源を第1の レベルのニューロン16の各々の入力回路ノード12Bへ供給することにより発 生され得る。
発振器の動作はまず、比較器144の出力150が高いレベルであるとすること により理解され得る。この状態において、ダイオード144および148は全て 逆にバイアスされており、ノード146の電圧はノード164の電圧と等しく、 キャパシタ138は抵抗134を介して(および合算キャパシタ130上の電圧 がノード136の電圧より高ければレジスタ132も介して)充電を開始する。
しばらくして後、キャパシタ138の充電量はポイント136の電圧かポイント 1、46の電圧を越えるような点にまで達する。これにより、比較器144はそ の出力電圧を反転させ、その出カポインド150での電圧を地気の方に引き下げ る。
この動作によりタイオード142および148に順方向にバイアスかかかり、ポ イント146の電圧を、比較器144の低出力電圧および3つのダイオード14 8により決定される低スレッシュホールド電圧VthLにまで引き下げる。また 、このポイントのダイオード142は順方向にバイアスされ、抵抗140を介し てキャパシタ138の放電を開始する。徐々にキャパシタ138の電圧はそれが ノード146の低スレッシュホールド電圧VthLを下回るまで減少し、その時 、比較器144は再びその出力150上の電圧を反転し、それを高いレベルに上 昇せしめるだろう。こうして、比較器144の出力ノード150での電圧か低レ ベルにとどまっている時間はレジスタ140を伴ったキャパシタ+38の時間ペ ースに依存する。また、この期間は抵抗132および134を介してキャパシタ 138を充電する電流の範囲にまで延長され得るが、望ましくはこの影響を最小 化するように抵抗の値は選ばれる。
比較器144の出力ノード150での電圧が高くなると、キャパシタ138は抵 抗132および134を介する電流により再び徐々に充電され、これによりサイ クルを繰り返す。比較器144の電圧出力は短いシーケンス、すなわち、低いレ ベル状態のパルスを除いて通常は高いレベルであることがわかるであろう。パル スの各々は期間はほぼ固定されており、望ましくは抵抗140の値を小さく選ぶ ことにより短かく保たれる。パルスの高いレベルの期間は代表的には相対的にず っと長いものであり、合算キャパシタ130に保持される入力電圧の時間的およ び空間的合計に依存する。すなわち入力の平均電圧力塙くなればなる程、比較器 144の出力150上のパルスの高いレベルの期間は短くなる。しかしながら入 力信号が全くなくとも、高いレベルの期間はもれ抵抗134を介して流れる充電 電流によって、ある最大炎を越えることはない。
比較器170はノード150上のパルスの感度を逆転させるためのみに動作し、 これにより、平均の入力アクティビティ・レベルおよびもれ抵抗134を介して の電流に依存する期間により離間される一連の短い高いレベルを保持するパルス らかなる電圧信号をニューロンの出力ノード172の所に生成する。こうして、 ニューロン16内のレギュレータ回路の機能を考慮する前のニューロン16の出 力はニューロン16への入力のアクティビティ・レベルの合計の最新の平均時間 に応じたパルス周波数(アクティビティ・レベル)を有するであろう。例えば、 入力ノード128での電圧の急激な増加によりニューロンは“発火′、すなわち 出力パルスの割合における一時的な増加によって特徴づけられる状態となるであ ろう。
しかしながら、出力パルスの割合はまた、オペアンプ162、キャパシタ16B 、抵抗152.160およびダイオード156から作られるレギュレーデイング 回路により制御されるため、ポイント128において増加した電圧レベルを維持 することは神経出力のパルスの増加したレートを維持することとはならない。ポ イント164の電圧は発振器の高スレッンユホールド電圧VthHであり、ポイ ント136の電圧がポイント146の電圧を上回るようにするためにキャパシタ 138が充電しなければならない電圧を表わしている。キャパシタ168に対す るダイオード156および抵抗16oの充電動作のため、それは出力周波数が増 加するにつれ増加する傾向となる。この結果、ついには出方周波数を低減させる こととなる。このように、ニューロンはその入力合算、128での即時の電圧レ ベルのみに感応するだけでなく、その電圧レベルの変化にも感応する。
ポテンショメータ1.59は二ニーロンのレギュレータ回路のための元となる電 位をもたらす。集積fヒされた実施例においては、このポテンショメータはむろ ん固定抵抗に置き換えられる。比較器144の出力ノード150上にパルスがな いと、抵抗160はキャパシタ168を放電せしめ、これによりポイント164 の電圧を基準電位の方向に減衰せしめる。抵抗152およびダイオード156は ポイント+50でパルスダウンするときは、いつもポイント166を引き下げる 。
これによりキャパシタ168は充電され、ポイント146の高シュレッシュホー ルド電圧を上昇せしめる。
フィード・フォワード・シナプシス接続図4にはフィード・シナプシス接続3O −ijの1つを実現するために好適な回路のM図が示されている。図4に示され るシナプシス接続は第1のレベルのニューロン16−iの出力信号を第2のレベ ルのニューロン18−jの入力に結合するものとする。
フィード・フすワード・シナプシス接続の心臓部はキャパシタ124であり、そ れは情報が転送されることに使われる接続性の重みwljを示す電荷を保持する 。
キャパシタ124の一端は地気に接続され、他端はユニッティ(unity)ゲ イン・バッファ226を介してスイッチ278の第1のターミナル228に接続 されている。スイッチ278の反射側の端子は電圧制御ノード282であり、ス イッチ280の一端にも接続されている。スイッチ280の他端はポテンショメ ータ274のタップに接続されており、ポテンショメータの一端は地気に接続さ れており、他端は抵抗276を介してVccに接続されている。
第1のレベルのニューロン16−iの信号出力はフィード・フォワード・シナプ シス接続回路3O−ijの信号入力端子206につながっている。この信号入力 端子206は比較器208を介して回路ノード210に接続されている。比較器 208はインピーダンス変換器として働き、ブレ・シナプシス・ニューロンl6 −4に対し、とても高い入力インピーダンスを呈する。このような高いインピー ダンスの入力は数千もの接続回路が同じ神経出力に接続されるかもしれないので 重要である。インピーダンス変換器208は信号入力端子206に接続される非 反転入力およびVcc/2の電圧に接続された反転入力を備えている。
回路ノード210はスイッチ278の制御端子に接続され、電圧反転器275を 介してスイッチ280の接続端子にも接続されている。図示のとおり、高しルベ ルの電圧か信号入力端子206上に存在する時、スイッチ278は閉じ、電圧制 御ノード282は(ホロアー(fol 1.ower)によりもたらされるオフ セットを除いて)キャパシタ124の電圧に等しい電圧を出力するであろう。ス イッチ280は開放となる。信号入力端子206が低い電圧を出力すると、スイ ッチ278は開き、スイッチ280は閉じる。電圧制御ノード282は電圧を出 力し、この電圧は好ましくは以下に説明するように、抵抗276およびボランシ タメータ274により形成される抵抗分割器による低い電圧である。抵抗286 の値は抵抗274および276の値よりずっと大きいので、抵抗286を介する 電流はこの低い電圧に影響を及ぼさない。こうして、電圧制御ノード282上の 電圧は第1のレベルのニューロン16−iの信号出力のパルスの比率に等しい比 率で、低い基準電圧とキャパシタ124の電圧との間で発振する。抵抗274お よび276により形成される調整可能な電圧分割器の目的はキャパシタ124の 電圧がゼロである時、ホロアー226のオフセットによりノード228はその間 中、ゼロにいくことはできないので、低い電圧のオフセットをもたらすことであ る。従って、電圧分割器によりトランスコンダクタンス変換器は後述するように 、キャパシタ124がゼロ電圧の時に真にゼロの電流を供給することができる。
電圧制御ノード282は能動素子として電圧ホロアー200およびオペアンプ2 94により形成されるトランスコンダクタンス変換器への入力を形成する。電圧 制御ノード282は抵抗284を介してオペアンプ294の非反転入力290に 接続されており、オペアンプ294の出力298は抵抗292を介してオペアン プ294の反転入力28日に接続されている。また、オペアンプ294の反転入 力は抵抗286を介してポテンショメータ274のタップに接続されている。
オペアンプ294の出力298はさらに抵抗202を介して電圧ホロアー200 の非反転入力に接続されており、電圧ホロアー200の出力はそれ自身の反転入 力に直接、接続されている。さらにホロアー200の出力は抵抗296を介して オペアンプ294の非反転入力290に接続されている。また、ホロアー200 の非反転入力はフィード・フォワード・シナプシス接続回路3O−ijの信号出 力端子204を形成し、フィード・フォワード・シナプシス接続回路3O−ij は第2のレベルのニューロン18−jの信号入力に結合されている。
トランスコンダクタンス増幅器はそれが接続される第2のレベルのニューロン1 8−jの合算点128(図3参照)に電流を流し込むように構成されている。
その流し込まれる電流の量は電流出力端子204での電圧変化とは独立して、抵 抗202の両端間の電圧により制御される。ホロアー200はポイント204の 電圧を検出し、抵抗296および284により形成される電圧分割器へ同じ電圧 を出力し、電圧分割器のタップはオペアンプ294の非反転入力に接続されてい る。ポイント298の電圧は抵抗292および286により形成される別の電圧 分割器を介してオペアンプ294に負の方向にフィードバックされる。オペアン プ294はポイント28Bおよび290の電圧がおよそ等しくなるようにポイン ト298の電圧を維持する。従って、抵抗202を通る電流は電流制御ノード2 82の電圧により制御されることがわかるであろう。
このように保持キャパシタ】24、スイッチ278,280および前述した関連 する回路に関し、トランスコンダクタンス増幅器はシナプシス出力端子204に 一連の電流パルスを発生ずる。これらの電流パルスはある周波数と信号入力端子 206のところでフィード・フォワード・シナプシス接続回路3O−3Jに入る 電圧パルスの期間と等しい期間を有する。各パルスの頂上部の電流レベルは保持 キャパシタ124の電圧により支配され、パルス間の電流レベルは非常に小さい かあるいはゼロである。フィード・フォワード・シナプシス接続回路3O−jj の出力ノード204はWlla+におよそ等しいアクティビティ・レベルを出力 するといえよう。尚、alはフィード・フォワード・シナプシス接続回路3O− ijの入力206が接続される第1のレベルのニューロン16−1のアクティビ ティ・レベルの出力である。
本実施例のネットワークはフィード・フォワード・シナプシス接続回路3〇−1 j内の接続性の重みWiJを、第1のレベルのニューロン16−iおよび第2の レベルのニューロン18−jの両者の出力上に高いアクティビティ・レベルが同 時に発生するまで強めることにより、カテゴリーを学習する。両者のニューロン が同時に発火すれば、それらに結合するフィード・フォワード・シナプシス接続 回路の接続性の重みは強められるべきである。また、学習アルゴリズムは接続性 の重みWijか第2のレベルのニューロン18−j上の高いアクティビティ・レ ベルおよび第1のレベルのニューロン16−1上の低いアクティビティ・レベル が同時に発生することにより決まる程度まで弱められるべきことを保つ。第2の レベルのニューロン18−jのアクティビティ・レベルの出力が低いアクティビ ティ・レベルであれば、全ての連続性の重みWl」、i−1,・・・、Mは第1 のレベルのニューロン16−1の出力のアクティビティ・レベルにかかわらず実 質的に変化しないままとどまる。それにもかかわらず、メモリ・キャパシタ12 4内のもれによって、接続性の重みは弱められ得る。
従って、図4のフィード・フォワード・シナプシス接続の中には、第2のレベル のニューロン18−jの出力のパルスの高いレベルの間のみに、保持キャパシタ 124を充電(または放電)するための学習回路が含まれる。第1のレベルのニ ューロン16−1の電圧出力が(後述するエクステンダにより伸張されて)第2 のレベルのパルスの間、高いレベルであれば、キャパシタ124は再び充電する 。それが低いレベルであれば、キャパシタ124は充電を失う。
インピーダンス変換器208の出力はスイッチ278の制御端子に接続されてい ることに加えて、ダイオード212に直列なダイオード2】1を介して比較器2 +7の非反転入力213にも接続されている。また、比較器217の非反転入力 213はキャパシタ218に平行な抵抗2+6により地気に結合されている。
図4のフィード・フォワード・シナプシス接続回路への回路人力ノード236は 後述するディープ・スリーブ・ニューロン(DSN)エクステンダーの出力に結 合されている。回路ノード236は別のインピーダンス変換器238および直列 の抵抗239を介して比較器2】7の反転入力214に結合されている。また、 比較器217の反転入力214は抵抗240を介してVccに接続されている。
比較器217の出力2+9は抵抗22+に直列なスイッチ220を介して、保持 キャパシタ124の非接地端子に結合されている。スイッチ220のための制御 端子はさらに別のインピーダンス変換器241の出力242に接続されておりイ ンピーダンス変換器241の入力は回路人力ノード237に接続されている。回 路人力ノード237と第2のレベルのニューロン18−jからの出力信号を受け 、この第2のレベルのニューロン18−jはフィード・フォワード・シナプシス 接続回路3O−ijの出力204に接続された入力を存する第2のレベルのニュ ーロンと全く同じである。
フィード・フォワード・シナプシス接続回路のパルス・エクステンダの部分は次 のように動作する。入力236が低いレベルであれば抵抗239および240は 比較器217の反転入力214にスレッシュホールド電圧をもたらす電圧分割器 を形成する。パルスが信号入力端子206に到来すると、ダイオード211およ び212はキャパシタ218を充電し、これにより比較器217の非反転入力2 13の電圧を、それか反転入力214のスレッシュホールド電圧を越えるまで、 急速に上昇せしめる。比較器217の出力電圧219が高くなり、レジスタ21 6か非反転入力213の電圧を反転入力214のスレッシュホールド・レベルを 下回るレベルにまで低下させるためにキャパシタ218を充分に放電するまで、 高いレベルにとどまる。従って、出力パルスの幅は抵抗239.240.2+6 およびキャパシタ218によって決定される。
以下に、より詳しく説明する本発明の一特徴によれば、回路人力ノード236の 高い電圧レベルはパルス・エクステンダを消勢し、比較器217の出力219を 低い電圧とすることがわかるであろう。インピーダンス変換器238の出力が高 いレベルとなり、これにより反転入力214のスレッシュホールド電圧が高いレ ベルになることに気づくことにより理解されよう。非反転入力213の電圧はダ イオード211および212によりもたらされる二重のダイオード電圧低下によ り、この高いスレッシュホールド電圧を越えることはなく、従って、比較器21 7の出力電圧は低いレベルにとどまる。従って後述する本発明の一特徴によれば 、DSNエクステンダの出力上のパルスの高いレベルは第1および第2のレベル のニューロン16−iおよび18−jの出力上に同時に高いレベルが発生する時 に起こるであろう保持キャパシタ充電操作と重なり、そのかわり保持キャパシタ 124を抵抗221を介して第2のレベルのニューロン18−jからのパルス出 力の周波数により決められる比率で放電せしめる。
フィード・バック・シナプシス接続回路図5はフィード・バック・シナプシス接 続32−jiの概略図を示している。
ある例外を除いてそれは図4のフィード・フォワード・シナプシス接続に非常に よく似たものである。第1に、第4のレベルのニューロン16−iによす制御さ れるかわりに、シナプシス接続の出力パルスの周波数を決定するスイッチ278 および280は第2のレベルのニューロン18−jからの出力信号により制御さ れる。これはスイッチ278の制御入力および電圧反転器275の反転入力を、 インピーダンス変換器208の出力に変えて、インピーダンス変換器241の出 力に接続することにより成される。インピーダンス変換器241の出力は以下に 明らかになるであろう理由のために、学習スイッチ220の制御入力に接続され たままである。
第2に、第2のレベルのニューロン18−jの信号入力に接続されるがわりに、 フィード・バック・シナプシス接続32−jiの出力204はシナプシスの後の 第1のレベルのニューロン16−iの信号入力に接続されている。
フィート・バック・シナプシス接続32−jfのための学習アルゴリズムは同じ 2つのニューロンに結合するフィード・フォワード・シナプシス接続のための学 習アルゴリズムと同じものである。即ち、接続性の重みWjlは第1のレベルの ニューロン16−iおよび第2のレベルのニューロン16−jの両者において高 いアクティビティ・レベルが同時に発生するまで強まり、第2のレベルのニュー ロン18−jの出力上の高いアクティビティ・レベルおよび第1のレベルのニュ ーロン16−1の出力上の低いアクティビティ・レベルが同時に発生するまで弱 まる。こうして、フィード・バック・シナプシス接続回路32−jiの中のパル ス・エクステンダ回路の入力206はフィード・フォワード・シナプシス接続回 路内と同様に、第1のレベルのニューロン16−1の出力に接続されたままとな り、学習スイッチ220を制御する、フィード・バック・シナプシス接続回路3 2−ji内の回路人力ノード237は第2のレベルのニューロン+8−jの出力 に接続されたままである。
フィード・バック・シナプシス接続回路とフィード・フォワード・シナプシス接 続回路とのさらなる差異において、以下に説明される通り、フィード・バック・ シナプシス接続回路内の接続性の重みWjiのスリーブ・リフレシュはディープ ・スリーブ・ニューロンによりチェックされる必要がない。従って、図5に示さ れるフィード・バック・シナプシス接続回路は、図4のフィード・フォワード・ シナプシス接続回路内でDSNエクステンダ出力に接続されていた入力236を 省略しており、そのかわり抵抗239を地気に接続している。従って、抵抗23 9および240により形成される抵抗分割器は比較器217の反転入力に固定の スレッシュホールド電圧をもたらし、これによりパルス・エクステンダが消勢さ れないことを確実ならしめる。
尚、スイッチ220はリフレッシュおよび学習の両者のスイッチとして働く。
この結果、いづれの接続回路に関しても、それが一部分となるネットワークが眠 っているか、または学習しているかは問題ではない。即ち、それはスリーブ・モ ード若しくは学習(アラエイフ)モードのいずれでも同じように機能する。
禁止の接続回路 図6は禁止の接続回路を図説するものである。前に述べたように、第2のレベル のクラスタ内にある全てのニューロンは相互に競合的である。相互の競合はクラ スタ内の第2のレベルのニューロンの各々の出力とクラスタ内の第2のレベルの ニューロンのどの他のニューロンの入力との間に禁止の接続を設けることにより 成し遂げられる。禁止の接続回路は固定の接続性の重みをもち、それは負のもの であり、これにより、クラスタ内の第2のレベルのニューロンの各々の出力のア クティビティ・レベルを、クラスタ内の他の第2のレベルのニューロンの各々の アクティビティ・レベルに対し、負の方向に感応せしめる。このように、図6に 示されるような禁止の接続回路は各々のに番目の第2のレベルのニューロンの出 力を各々の5番目の第2のレベルのニューロンの入力に接続する。尚、j=M+ 1、・・・、Nであり、K=M+1. ・・・、Nであり、K≠jである。
禁止の接続回路3l−jkは第2のレベルのニューロン18−jの出力を第2の レベルのニューロン18−にの入力に結合する。そして、第2のレベルのニュー ロン18−jの出力は禁止の接続回路3l−jkの回路入力ノード344に接続 され、禁止の接続回路3l−jkの出力ノード382は第2のレベルのニューロ ン18−にの入力に接続される。抵抗358.360.362および368は全 てほぼ同じ値であり、抵抗370および374の値はほぼ等しい。抵抗358の 値は比例定数Kにより抵抗370の値に比例する。定数には以下に示されるよう にそれはどれだけの電流かシナプシスの後のニューロンから引き出されるかを決 定しているために、回路のシナプシスの接続性を決定するものである。
反転器350は入力344に到来するパルスを反転し、一方、反転器346はそ のパルスをそれらの元の特性に反転して戻す。電圧ホロアー378およびオペア ンプ372は入力344が低い時に次のようにして抵抗380の両端の電圧降下 をゼロに維持する。パルスの間ではポイント348の電圧は高いレベルでありポ イント352の電圧は低い、その結果、ダイオード354および356の両者は 順方向にバイアスされる。抵抗358.362.360および368は全て等し い値のものであり、オペアンプ372はポイント364および366の電圧が等 しくなるようにポイント376の電圧を維持するので、抵抗370および374 を通る電流は等しくなければならない。そして、R370=R374であるので 、ポイント376の電圧(以下、v376と称する)はv382と等しくなけれ ばならない。このようにパルスの間では図6の禁止の接続回路はシナプシスの後 のニューロン18−kに電流を供給しない。
パルスが発生している時、ポイント348は低いがポイント352は高い、従っ て、ダイオード354および356は逆方向にバイアスされる。ポイント346 のところでキルヒホッフの法則を用いると、(VCC−VSe2)/R362=  (VSe2−V376)/R370となり、同様に、ポイント366では (VSe2−0)/R368= (V382−VSe2)/R374となる。
オペアンプ372はVSe2がVSe6と等しくなるようにv376を保つため に、上記の式は結合されて次式となるように再構成される。
(1/K)’VCC=V382−V376従って、パルスが発生すると(1/K )Vccに比例した電流がシナプシスの後のニューロン18−kから引き出され る。
ネットワークの動作 図1のネットワークの一般的な動作を理解するために、まず、第1のレベルのニ ューロン16の内の単一のニューロン16−1およびそれが結合される第2のレ ベルのニューロン18の内の単一のニューロン18−jについてあたかもそれら か簡単とはいえ、完全なネットワークを形成するかの如く切り離してみてみる。
この簡単なネットワークの周囲はずっとより大きいネットワークの残りの部分か らなっている。
前に説明したとおり、ニューロンはそれらが休止状態にある時さえ、常にパルス を出力する電子的物体である。1つのニューロンはそれが発生しているパルスの 周波数若しくは比率が休止状態の比率に比べずっと速い比率にまで急速に増加す る時に発火したといえる。図3のニューロンのようなニューロンの動作を思い出 すと、入力アクティビティ・レベルにおける充分に速い増加によりニューロンか 発火することがわかるであろう。第1のレベルのニューロン16について、これ らの入力アクティビティ・レベルは外部入力からも、その入力か結合されるとこ ろの第2のレベルのニューロン18からも到来する。フィード・バック接続回路 32−jiの動作を思い出すと、第1のレベルのニューロン16−1により受け られる、第2のレベルのニューロン18−jからのアクティビティ・レベルはW llρ1に等しいことかおわかりいただけよう。尚、WJlは第2のレベルのニ ューロン18−jから第1のレベルのニューロン16−1への接続の接続性の重 みであり、f、は第2のレベルのニューロン18−jの出力周波数である。こう して、第2のレベルのニューロン18−jの高いアクティビティ・レベルにより 1、接続性の重みWJiが充分に強いものでありさえすれば、第1のレベルのニ ューロン16−1は発火しつる。
第2のレベルのニューロン18については入力アクティビティ・レベルはその入 力か結合されている第1のレベルのニューロン16から到来する。第1のレベル のニューロン16と同様に、第2のレベルのニューロン18−jは接続性の重み Wijが充分に強いものでありさえすれば、第1のレベルのニューロン16−i により発火せしめられ得る。
接続性の重みWi」およびWJlか弱い2つのニューロンのネットワークをまス 考えてみよう。この状況において、両ニューロンか同時に発火する本質的な理由 はない。従って、いかなる時も両ニューロンのうちのいづれも発火しないか、あ るいは1つのみが発火する可能性は両方共発火する可能性に比べて極めて大きい 。
従って、第1のレベルのニューロン16−iにより生成されるパルスのタイミン グは第2のレベルのニューロン18−jにより生成されるパルスのタイミングと ほとんど相関はなく、シナプシスの接続性の重みWIJおよびWjlは小さくま まである。それらは現実には第1のレベルのニューロン16−1が休止状態であ る時に第2のレベルのニューロン18−jか発火すれば、低減されるであろう。
さて、接続性の重みWIJおよびWJlが強い2つのニューロンのネットワーク を考えてみよう。この状況において、ニューロンのいづれか一方の高いアクティ ビティ・レベルは他方のニューロンのアクティビティ・レベルに強く、かつ正方 向に影響を及ぼし、きわだってそれらか同期して発火する可能性を増大せしめる 。
(尚、いづれのニューロンの高いアクティビティ・レベルも各々のニューロン内 のレギュレータ回路106(図2)の抑止効果により長い間維持されることはな い。)2つのニューロンの電圧出力波形のピークはより頻繁に同時に発生するの で、それらの間の接続は強まる。しかしながら、この状況において何ら規則制は ないので、それにもかかわらず、2つのニューロンが通常よりより同期しないで 発火する時の接続の減衰の次定数より長い時間間隔となる。上述の選ばれた学習 アルゴリズムによると、および上述により実現されるネットワークの動作による と、これらの間隔において接続性の重みWijおよびWjiは弱められる。
この理由若しくは単純な電荷のもれによる所望としないメモリの消失に対処する ために本発明のネットワークはネットワークが時折遷移するスリーブ・モードを 含んでいる。このスリーブ・モードはここではネットワークに対する全ての入力 が止められるように神経ネットワークをその外界から物理的に隔絶することをさ すものとする。また、寝ている間の出力の活性化もほとんど意味がないので、出 力も切り離される。ネットワークはそれ自身の状態空間をランダムに往来するで あろうことがおわかりいただけよう。
2つのニューロンのネットワークの場合には4つの状態のみが存在する。第1の レベルのニューロン16−1および第2のレベルのニューロン18−Jの両者か 休止状態(“オフ”)であるときに第1の状態となり、第2のレベルのニューロ ン18−jが休止状態であり、第1のレベルのニューロン16−iか発火(“オ ン”)しているときに第2の状態になり、第2のレベルのニューロン18−jか 発火し、第1のレベルのニューロン16−iか休止状態であるときに第3の状態 になり、両方のニューロンが同時に発火しているときに第4の状態になる。
図2および3に関し前述したように各ニューロンはそれ自体すでに1つの発振器 である。指摘してきたように、第1のレベルのニューロンについてはそのニュー ロンが休止状態にある時でさえ主発振は発生する。ネットワーク内の2つのニュ ーロンおよびそれらの間の2つの接続はさらに各ニューロンの周波数fを発振せ しめる第3のフィード・バック発振器を形成する。周波数の任意的な変調、ここ では補助発振と称するが、は次のようにして起こる。両ニューロンはオフである スタート状態であるとしよう。第1のレベルのニューロンからの休止状態のパル スは第2のレベルのニューロンの合算入力のところで時間的に合算され、これに より第2のレベルのニューロン内の合算キャパシタ130(図3)の電荷を増加 せしめる。到来するパルスの各々によりもたらされる増加の量はフィード・フォ ワード接続回路のキャパシタ124(図4または5)の電荷に比例する。この増 加はキャパシタ138が第2のレベルのニューロンの主発振のサイクルの各々に おいてより迅速に充電されるようになるように、抵抗132を介しての第2のレ ベルのニューロン内のキャパシタ138(図3)の充電を加速するのを助ける。
キャパシタ130に蓄積される電荷の割合はフィード・フォワード接続回路内の 接続性の重みのキャパシタ124の電荷に比例しているので、第2のレベルのニ ューロン内で蓄積される周波数の割合も接続性の重みのキャパシタ124の電荷 に比例する。第2のレベルのニューロンにおける主発振の周波数の増加はフィー ド・バック接続回路を介して第1のレベルのニューロンにフィード・バックされ 、これにより第1のレベルのニューロンにおける主発振の周波数を増大せしめる 。
さらに、これにより第2のレベルのニューロンのキャパシタ!38の充電か加速 される。なだれ効果は両ニューロンが高い周波数に達するまで起こる。そして両 者はオンとなったどいえる。
各ニューロンはレギュレータ回路内の各々のキャパシタ168の電荷が主発振の 周波数がその各々の休止状態の値の方向に低下して戻る点までたまるまで状態を 維持する。そして補助発振のサイクルは繰り返す。なだれが生じる割合(即ち、 補助発振の頻度)は各接続回路内のキャパシタ124の初期状態の電荷に依存す る。
図7にはキャパシタi30の合算された入力電圧が増加し、そして減少するとき のニューロンのアクティビティのいくつかのグラフが示されている。曲線400 はキャパシタ130の電圧V130を示している。回路出力ノード172上に生 成される比率fのパルスのときに測定される、神経応答が曲線402に示されて いる。レギュレータ電圧V164は曲線404として示されている。fはV13 0ど共に増加するが、ニューロンのレギュレータ電圧v164の上昇は禁止する 効果を有している(神経パルスの周波数fを低下する)ので、fの減衰は■13 0の減衰より急激となりうることに注目してもらいたい。そして、ニューロンは 2つの主要な内部状態、即ち、キャパシタ168が充電され、■164が高いレ ベルであり、合算された入力電圧V130に対する応答か減少する禁止状態およ びV164が低いレベルで、ニューロンが合算された入力電圧N]30の変化に 感応するアコモデーション状態を有する。以下に、より詳しく説明するように− 漕ぎの中で同じニューロンを2回発火させないようにするに充分中長さである限 り、禁止状態の正確な長さは重要ではない。
補助発振はキャパシタ124がその電荷を保持するための主要なメカニズムであ ることかわかるであろう。2つのニューロンのネットワーク内での2つのニュー ロンの間の接続の強度か眠ろうとしているときに高いレベルものであれば、第1 の状態(オフーオ))および第4の状態(オン−オン)は第2の状!!!!(オ ン−オフ)および第3の状態(オフ−オン)よりネットワークにより優遇される 。2つのニューロンの出力の周波数は増加し、そして減少し、より頻繁に同時に 発火し、これにより元々の同調的な発火によりもたらされる以前のシナプシスの 強度を保持し、強める。共振発火の度に、メモリ・キャパシタ124の電荷はス イッチ220(図4または5)によりリフレッシュされる。
ネットワーク内の2つのニューロンの間の接続強度が眠そうとするときに低いレ ベルであれば、第2および第3のレベルが優遇されるであろう。第2の状態(オ ン−オフ)は接続性の重みにあったとしてもほとんど影響しないだろうし、第3 の状態(オフ−オン)は現実に接続性の強度を弱めるであろう。一般に、同時発 火の割合は初期の接続性の重みWijおよびWjiおよび、これらの接続性の重 みが変化する時定数に依存する。このように、それによりネットワークがその状 態空間を往来するところの補助発振がネットワークがその外部から隔絶されてい る(眠っている)ときに任意的に発生するので、眠っている間連結分野中の様々 な連結性の値開のコントラストはこれにより良(なる。学習したことではあるが 、た起きている間に最近は活性化されなかったような応答か消失してしまうこと に対処することができる。
マルチ・ニューロン・ネットワーク 図1のネットワークを参照すると、ネットワークは3つの第1のレベルのニュー ロン16および4つの第2のレベルのニューロン18を含んでいると考えること ができる。このネットワークは次の4つの入カバターンの組合せを区別するよう 教育されたものとする。
No、1 オフ オフ オン No、2 オン オン オン No、3 オン 才) オン No、4 オン オン オン ネットワーク内の第2のレベルのニューロン18の全ては全てのニューロンが相 互に競合的である同じクラスタに属しているので、4つの第2のレベルのニュー ロン18の各々のニューロンは4つの入カバターンのうちの異なる1つを認識す るようになるものと期待されつる。
図8は4つのパターンの学習の結果として、展開する接続を図説するものである 。この図においては、強い接続のみが示されており、フィード・フォワード接続 およびフィード・バック接続は両者共に単一の線として示されている。例えば、 入カバターンNo、3の(オン−オフ−オン)は第2のレベルのニューロン18 −5および第1のレベルのニューロン16−1および16−3の両者との間の共 振を引き起こし、そのことは第2のレベルのニューロン18−5がこの3番目の 入カバターンを認識したことを示していることがわかるであろ九すなわち、3番 目の入カバターンが第1のレベルのニューロン16に入力されると、第2のレベ ルのニューロン18−5は発火するであろうニューロンである。同様に、第2の レベルのニューロン18−7は1番目の入カバターン(オフ−オフ−オン)を認 識し、第2のレベルのニューロン18−6は2番目の入カバターン(オフ−オン −オン)を認識し、そして、第2のレベルのニューロン18−4は4番目の入カ バターン(オン−オン−オン)を認識する。入カバターンがネットワークに入力 されたシーケンスに依存し、かつ学習済の初期状態の接続性の値に依存して、入 カバターンと第2のレベルのニューロンとの間の異なる相関が代わりに学習され つるだろう。
第2のレベルのニューロン18−6と第1のレベルのニューロン16−2および 16−3との間の接続は第2のレベルのニューロン18−7と第1のレベルのニ ューロン16−3との間の接続より弱いことに注目してもらいたい。そうでなけ れば、入カバターンNo、1 (オフ−オフ−オン)が入力ニューロン16に入 力されると、第2のレベルのニューロン18−6は第2のレベルのニューロン1 8−7により受けられた信号と同じ強さの信号を受けるであろう。過去の履歴お よびその他の要素に依存して、第2のレベルのニューロン18−6は第2のレベ ルのニューロン18−7に対して勝つことができる。図8は示される連続により 判断すると、第2のレベルのニューロン18−7は入カバターンNo、1に対し て反応するのに正当なニューロンであるので、このことは望ましいことではない 。他方、第2のレベルのニューロン18−6に接する接続が第2のレベルのニュ ーロンl8−7に接する接続より弱いと、第2のレベルのニューロン18−7は 正当に、入カバターンNo、1に対し反応するニューロンとなるであろう。
図8のネットワークが眠っている状態にされたとすると、補助発振か起こり、ニ ューロンの共振発火により安定な状態に遷移する。ニューロンの内部的な禁止状 態が充分に長くなると、−漕ぎの中で2回、同じ状態に遷移することは奨励され ず、ネットワークは疑似ランダム・シーケンスにより異なる状態に遷移するであ ろう。各状態に遷移する度に、その入カバターンを認識する第2のレベルのニュ ーロンと共に、学習された入カバターンを表わす第1のレベルのニューロンの共 振発火は更に、そのような第1および第2のレベルのニューロンの間の接続を強 める傾向がある。従って、実際は、スリーブ間の本発明のネットワークの通常動 作では、フィード・フォワード接続回路30およびフィード・バック接続回路3 2内のキャパシタ内に保持された接続性の重みは自動的にリフレッシュされる。
出願人は接続性の重みは相互にほぼ一定の割合で増加する傾向にあり、これによ り、それを全て等しいレベルに合わせるより、様々な接続性の重みの値のコント ラストを適宜、維持し、改善するものであることに気づいている。
ディープ・スリーブ システムか起きているときは、ニューロンは主にシステムに対する外部刺激によ り発火する。しかしながら、システムが眠っているときはニューロンは主に補助 共振若しくは発振により発火する。補助発振は起きている間でさえ起こりつるが 、それらはバックグランド雑音の中にあるときであり、それらによる発火は以下 に説明されるように外部入力による発火よりずっと小さい強度のものである。
外部刺激による発火は補助発振による発火より常により強い強度のものであり、 この2つタイプの発火を区別するために、1番目のものを高強度発火(HIF: High Intensity Firings)と呼ぶ、2番目のものを低強 度発火(LIF:LowIntensity Firings)と呼ぶ。強度に おける差は励起状態であるときに外部入力は通常、高い周波数に維持されるため に生じるものであり、そのような維持された周波数で、第1および第2のレベル のニューロンの両者のレギュレータ回路+06は遅いものであり、ニューロンの 応答をすばやく抑圧することはない。他方、補助発振による発火は、フィード・ フォワード接続がレギュレータ回路の抑圧効果を封じ込めるほどの大きいもので なければ、なだれ現象が始まるとすぐに抑圧されうる。従って、ネットワークが 起きているときにはHIFの活動はニューロンの中で広くいきわたり、ネットワ ークが眠っているときはHIFは稀となり、LrFが勢力を広げることが容易に 理解されよう。
メモリ領域の接続性の全体的なリフレッシュを正確に行うためにネットワークが 眠っている間に、ネットワーク内の学習した状態の全てが等しい確率で遷移によ り発生することが好ましい。しかしながら、接続が第1および第2のレベルのニ ューロンの間に多すぎる量の正のフィード・バック量となってしまうようなレベ ルまで、それらの影響度を増加する可能性があり、HIFの活動は外部入力がな いときでさえ起こる。この現象はここではディープ・スリーブと呼ぶ。
起きているとき、本発明によるネットワークはHIF活動を伴った接続を他の接 続に比べより頻繁に行う。いくつかのニューロンはほとんどの時間、発火してい る一方で、他のニューロンは全く発火しない。その結果、発火するニューロンを 接続する接続のみが用いられ、これにより、それらの接続性を少しだけ増加せし める。また、システムが起きている間に新しいカテゴリーを学習すると、新しい 接続が設定されつる。全く発火しないニューロン間の接続はしだいに衰えていき 、HIF活動により用いられる接続はLIF活動により用いられる接続よりより 早く成長する。
従って、眠ろうとするときに、起きている間にHrF活動による遷移によって発 生したネットワークの状態は全く遷移による発生のなかった状態より優遇される こととなる。眠っている間に、優遇された状態を呈する第2のレベルのニューロ ンは優遇されなかったニューロンより(LIFにより)より頻繁に発火し、これ により、その優遇されたニューロンへのまたほからの全接続の影響度を増加せし めることとなる。これらの接続の影響度は不活性な接続を犠牲にして限定的に増 加しつる。接続性の領域を交互に高めるかわりに、システムは刺激されなかった いくつかの記憶を失うかもしれない。
従って、本発明の1つの特徴において、ディープ・スリーブ状態を自動的に検出 して修正するための装置がネットワーク内に含まれる。再び図4を参照すると、 ネットワークは更に特別な接続52−4.52−5.52−6および52−7を 介して各々の第2のレベルのニューロン18−4.18−5.18−6.18− 7の出力に結合される入力を育するディープ・スリーブ・ニューロン(DSN) 50を含んでいる。このディープ・スリーブ・ニューロン5oは更に隔絶スイッ チ22および24を作動する同一モード信号源ニューロン4oからの信号を受け るよう結合された禁止の入力を含んでいる。DSN50の出力はDSNパルス・ エクステンダ52を介して、フィード・フォワード・シナプシス接続回路3oの 各々のDSNエクステンダ信号入力236(図4)に結合されている。
DSN50はレギュレータ回路か省略されている点を除いて、図3に示されるニ ューロン16および18の各々と設計上、同様のものである。DSN50は図1 1に示されており、図示のとおり、抵抗158はスレッシュホールド回路ノード 146をレギュレータ回路の出力164(図3)の代わりに、Vccと地気との 間に接続されたポテンショメータ502のタップに結合している。また、もれ抵 抗j34(図3)もDSN50では省略されている。ネットワークのモード源ニ ューロン40のアクティビティ・レベル出力はネットワークが起きているときは DSN50の回路人力ノード128に強い禁止の(すなわち頁の)信号を供給し 、ネットワークが眠っているときはほとんど若しくは全く信号を供給しない。( 従って、要するに、ネットワーク・モード源ニューロン40はネットワークが起 きているときにはDSN50の動作を禁止する。
DSNパルス・エクステンダ52は図9に示されるように実現されうる。基本的 には図5に示されたフィード・バック・シナプシス接続回路の学習入力上のパル ス・エクステンダと同じものである。図9のパルス・エクステンダの動作につい ては、シナプシス接続回路に関してすでに説明されたので、ここでは詳述しない 。しかしながら、図5の回路において固定の電圧分割器に接続されていたのに代 わり、DSNパルス・エクステンダ52の反転入力はポテンショメータのタップ に接続されている。これにより、実験的DSN信号中の各パルスの長さを調整す ることかできる。勿論、集積化された実施例においては、このポテンショメータ は固定の一対の抵抗によって置き代えられつる。
更に、DSNパルス・エクステンダ52の機能はDSN50の出力のところで実 行される代わりに、フィード・フォワード・シナプシス接続回路3O−ijの各 々のディープ・スリーブ・信号入力236のところで実行されうることも注目す べきである。しかしながら、これによると、不必要な回路の二重となるであろう 。フィード・フォワードおよびフィード・バック・シナプシス接続回路の各々の 信号入力端子206のところのパルス・エクステンダは少なくとも、フィード・ フォワード・シナプシス接続回路3O−ijの場合には、第1のレベルのニュー ロンからの生のパルス情報もスイッチ278および280(図4)を作動させる のに必要とされるので、これらの接続回路の各々において二重化される。同様に 、フィード・バック・シナプシス接続回路32−jiにおいて、第2のレベルの ニューロン18−jからの生のパルス情報は同じスイッチおよび学習スイッチ2 20(図5)をも作動させるのに必要とされる。しかしながら、パルス・エクス テンダをニューロンの各々の出力上に設け、ニューロンの各々の付加的な出力と して生のパルス情報を供給するように回路を変形することも可能である。
図10は第2のレベルのニューロン18−Jのうちの1つの出力をディープ・ス リーブ・ニューロン50の入力に結合する特別な接続回路52−jのうちの1つ の回路概略図を示している。その多くはシナプシス接続回路30若しくは32の いずれかの回路と同じものでありこの回路の特徴の説明についてはここでは繰り 返さない。特に特別な接続出力端子204上に第2のレベルのニューロン18− jの出力からの到来する電圧パルスの周波数により指令される周波数で、そして 保持キャパシタ424の電圧により決められる大きさを有する電流パルスを生成 する、動作および回路要素間の構造的接続関係はフィード・バック・シナプシス 接続回路32−ji(図5)のものと同じである。しかしながら、特別な接続5 2−jの学習メカニズムフィード・バック・シナプシス接続回路32−jiの入 力メカニズムとは異っている。スイッチ220を介してパルス・エクステンダ( 図5)の出力に接続される代わりに、保持キャパシタ424に接続されたのは反 対側の抵抗221の端子はダイオード420のカソードに接続され、ダイオード 420のアノードなインピーダンス変換器241の出力に接続されている。また 、ダイオード420のアノードも抵抗425により締められている。
ディープ・スリーブ装置の動作を図1O13,9および4(情報の流れの順序に 沿って列挙)を参照して説明する。まず初めに、眠りに入ろうとするとき、特別 な接続52内の保持キャパシタ424の各々の電荷レベルは低いものとする。
そして特別な接続52の各々の出力端子204は電圧パルスが第2のレベルのニ ューロン18−jから到来する比率と同じ比率であるが、接続キャパシタ424 内の小さい電荷のためにとても小さい振幅の一連の電流パルスを出力する。これ らの電流パルスは全て、DSN50の入力端子!28のところで合算されるか、 それらは非常に小さい振幅のものであるので、DSN50が発火するようには影 響を及ぼさない。従って、DSN50の出力端子172は休止状態の比率で電圧 パルスを出力し、その比率はDSN50がその入力上にもれ抵抗を備えていない ので、はぼゼロである。DSN50によるいかなるパルス出力もDSN/<ルス ・エクステンダ52により拡張され、フィード・フォワード・シナプシス接続回 路30の全ての入力端子236に供給される。
フィード・フォワード・シナプシス接続回路3O−ijの各々は前述したように ほとんど完全に動作しつづける。すなわち、第1のレベルのニューロン16−1 および第2のレベルのニューロン18−jの両者に高いアクティビティ・レベル が同時に発生するまで、キャパシタ124に電荷を加えることにより、その連結 性の重みを強くシ、第2のレベルのニューロン18−i上の高いアクティビティ ・レベルおよび第1のレベルのニューロン16−i上の低いアクティビティ・レ ベルか同時に発生するまで、接続キャパシタ124に保持された電荷を減らすこ とにより接続性の重みを弱くする。DSN50の現在の周波数が何であれ、1つ のパルスかフィー1乙フオワード・シナプシス接続回路3O−iJへの入力端子 236上に到来し、そのパルスの高電圧の部分の間に、前述したように、低い電 圧か比較器217の出力219に印加されるだろう。そのようなパルスが第2の レベルのニューロン18−jから端子237上にパルス到来するのと同時に到来 するならば、スイッチ220は短かく閉じ、接続性のキャパシタ124は抵抗2 21を介して少しだけ放電されるであろう。しかしながら、第2のレベルのニュ ーロン!8−jから到来するパルスは伸張されないので、ディープ・スリーブ信 号か低周波数にととまる限り、キャパシタ124の放電は無視できるであろう。
特別な接続52−jが接続されている第2のレベルのニューロン18−jが決し て発火しないとすると、特別な接続52−jはDSN50が発火するように影響 を及ぼすことはないだろう。特別な接続52−jの端子237上に入ってくる休 止状態のパルスはその回路内のキャパシタ424を少しだけ充電するが、第2の レベルのニューロン18−jから到来する信号の長い低電圧のレベルによりキャ パシタは抵抗425を介して再び放電することができる。第2のレベルのニュー ロン18−jか発火すれば、特別な回路15−jの接続性はいくらか増加するで あろう。しかしながら、第2のレベルのニューロン18−jが静かになると、接 続性は再び減少するであろう。第2のレベルのニューロン18−jが高すぎると 周波数(I(I P)により発火するか、若しくは非常に頻繁に発火するならば 、特別な接続52−j内の接続性のキャパシタ124は満充電となるだろう。こ れにより、伸張されたより高いレベルの電流パルスがDSN50の入力合算端子 に送られ、すぐにDSN50を発火させるだろう。そうするとき、パルスが高い 比率でフィード・フォワード・シナプシス接続回路30の各々の端子236のと ころに到来するであろう。これにより、フィード・フォワード・シナプシス接続 回路内の接続性のキャパシタ124はそれが接続されているシナプシスの後の第 2のレベルのニューロン18からパルスが到来する比率に応じて放電される。従 って、要するに、接続性の重みWIJを強化するかわりに、ディープ・スリーブ ・ニューロン50の活性化により、第2のレベルのニューロン18−jのアクテ ィビティ・レベルに応じて接続性の重みWljを弱めることとなる。学習の感度 は一時的に反転される。
接続性の重みWIJが弱まるにつれ、第2のレベルのニューロン18−jが発火 する頻度および強度は低下するだろう。それにつれ、特別な接続52−j内の接 続性の重みも低下し、DSN50はその休止状態の出力周波数へ戻るであろう。
これによりフィード・フォワード・シナプシス接続回路30はそれらの通常の学 習感度に戻る。
上述の説明において、1つのDSN50がクラスタ内の第2のレベルのニューロ ン18の全てを制御する。第2のレベルのニューロンのうちの1つが優遇状態と なれば、クラスタ内の第2のレベルのニューロンの全てを扶養するフィード・フ ォワード・シナプシス接続の全てにおいて学習の感度は反転されるであろう。
しかしながら、これらの接続の全てが実際に放電するのではないので、これは問 題ではない。接続性のキャパシタの充電または放電は対応する第2のレベルのニ ューロンが発火するときのみ発生し、ディープ・スリーブにおいては、優遇され た第2のレベルのニューロンのみが発火しつづけるのが当然である。従って、実 際には、優遇された接続のみが弱められる。第2のレベルのニューロン18−j の各々はニューロン18−jに関係するフィード・フォワード・シナプシス接続 のみを制御する、それ自身のDSNを持つようにしてもよいことは考えられるで あろう。また、フィード・バック・シナプシス接続はディープ・スリーブの間で さえ、その最高のレベルまで強められつる。さらに、上述したものの代わりに、 より簡便なディープ・スリーブ・メカニズムが用いられてもよい。例えば、単一 のあるかないかの接続が各第2のレベルのノード18−jの出力をニューロン1 8−Jに隣接するフィード・フォワード・シナプシス接続回路の全ての“学習感 度反転”入力との間に設けられてもよい。
ディープ・スリーブは必然的にウェーバの法則に従うことを奨励するものである ウェーバの法則のルールは次のように説明されつる。各々が第2のレベルのニュ ーロンにより表わされる、SlおよびS2の異なる2つのシステムの状態を考え てみよう。これらの2つの状態はある状態(Sl)に対してトリガーをかける第 1のレベルのニューロンのセット(set)は他の状態(S2)に対してトリガ ーをかけるセットのサブセット(Subset)であるようなものである。換言 すると、31に対してトリガーをかけるセット内の全ての第1のレベルのニュー ロンはまたS2に対してトリガをかけるセットの中にあるが、S2に対してトリ ガをかけるセット内のいくつかの第1のレベルのニューロンはSlに対してトリ ガをかけるセットの中にはない。ウェーバの法則のルールはSlのためのフィー ド・フォワード接続はS2のためのフィード・フォワード接続より強いものであ るべきであることを述べている。
本ディープ・スリーブ機構はこのルールに合うようにフィード・フォワード接続 を規定している。一般に、本ディープ・スリーブ機構により複雑なシステムの状 fl(すなわち、多数の第1のレベルのニューロンの励起を含むような状態)の ための接続はより複雑でないシステムの状態のための連結より弱くなるようにフ ィード・フォワード接続かを規定している。
これを示すために、全てのフィード・フォワード接続が初期状態において等しい 強度であるとしよう。このことはより複雑なパターンを呈する第2のレベルのニ ューロンはより複雑でない状態を呈する第2のレベルのニューロンよりそれらの 合流点においてより多くの電流を受けることであろう。してみると、より複雑な 状態はより複雑でない状態より、より頻繁に遷移し、そしてついには、ディープ ・スリーブによる接続性強度の低減プロセスはより複雑な状態を呈する第2のレ ベルのニューロンを扶養するフィード・フォワード接続の強度を低減することに より、より複雑な状態の発生確率を低減するであろう。このように本発明のネッ トワークのディープ・スリーブ・メカニズムは必然的に付加的なメカニズムを必 要とすることなくウェーバの法則のルールに従うものである。
本発明をその一実施例について説明してきたが、多くの変形例が本発明の範囲を 逸脱することなく可能であることは理解していただけよう。例えば、上述の実施 例においては2つのレベルのみのニューロンが含まれていたが、これらの2つの レベルは実際は複雑なレベルのネットワークの小さい部分にしかすぎない場合も ありうることも理解していただけよう。別の例として、上述の2つのレベルは相 互に回帰的であるが、本発明によるネットワークはその中の3つ以上のニューロ ンが各ループの部分であるようにも設計されつる。例えば、第1のレベルのニュ ーロンはフィード・フォワード接続を介して第2のレベルのニューロンに結合さ れるかもしれないし、第2のレベルのニューロンはフィード・フォワード接続を 介して第3のレベルのニューロンに結合されるかもしれないし、第3のレベルの ニューロンはフィード・バッル接続を介して第1のレベルのニューロンに結合さ れるかもしれない。また、他のレベルが前処理および後処理の目的のために含ま れうる。これらのおよび他の変形例は全て、本請求の範囲内のものである。
にニューロン) FIGURE 3 にニューロン) (禁止の接続回路) (DSN エクステンダ) FIGURE8 ン 国際調査報告 1−−16MI A*el1cmle++ 5ePcT / US 89 /  03754

Claims (40)

    【特許請求の範囲】
  1. 1.M個の第1の神経回路およびN−M個の第2の神経回路を含み、前記第1お よび第2の神経回路の各々の出力はあるアクティビティ・レベルを有する信号を もたらし、前記第2の神経回路の各j番目のものの出力のアクティビティ・レベ ルは各々の接続性の値Wijに従って、前記第1の神経回路の各i番目のものの 出力のアクティビティ・レベルに応答し、前記第1の神経回路の各i番目のもの の出力のアクティビティ・レベルは各々の連続性の値Wjiに従って、前記第2 の神経回路の各j番目のものの出力のアクティビティ・レベルに応答する複数の 神経回路と、 前記i番目の第1の神経回路の出力および前記j番目の第2の神経回路の出力上 で同時に高アクティビティ・レベルであることに応答して、接続性の値Wijお よびWjiのうちの少なくとも1つを増加せしめ、前記j番目の第2の神経回路 の出力が高アクティビティ・レベルであると同時に前記i番目の第1の神経回路 の出力が低アクティビティ・レベルであることに応答して連結性の値Wijおよ びWjiのうちの前記少なくとも1つを減少せしめるための第1のメモリ調整手 段を含む学習手段と、 スリーブ・モードの間、起動状態であり、前記入力される刺激を消熱するための 手段および前記スリーブ・モードの間、起動状態であり、前記第2の神経回路の 全ての出力上のアクティビティ・レベルをより高いアクティビティ・レベルに向 けて同等に刺激するための手段を含むリフレッシュ手段とを含む入力される刺激 と共に用いられるための神経ネットワーク。
  2. 2.学習アルゴリズム、スリーブ・リフレッシュ・アルゴリズム、および各々が 1つのアクティビティ・レベルを有する複数の外部入力信号と共に用いられ、M 個の第1のレベルの神経出力およびN−M個の第2のレベルの神経出力を含む、 1つのアクティビティ・レベルを有する信号を出力する複数のN個を神経出力と 、 各々が各々の連続性の重みWijにより重み付けされる、前記第1のレベルの神 経出力の全てのi番目の出力(i=1、・・・、M)上の前記信号のアクティビ ティ・レベルの時間的および空間的合算に応じて、1つのアクティビティ・レベ ルを有するj番目の信号を、M<j≦Nなる、前記第2のレベルの神経出力のj 番目の出力上に生成するためのフィードフォワード応答手段と、前記学習アルゴ リズムに従って前記接続性の重みWijのうちの少なくとも1つを変更するため の手段と、 スリーブ期間の間、前記神経出力を前記環境入力から隔絶し、前記スリーブ・リ フレッシュ・アルゴリズムに従って、前記接続性の重みWijのうちの少なくと もいくつかを調整するためのスリーブ起動手段とを含み、 前記フィード・フォワード応答手段は前記j番目の信号のアクティビティ・レベ ルが前記各接続性の重みWijにより重み付けられる前記第1のレベルの神経出 力のうちの全てのi番目の出力上の前記信号のアクティビティ・レベルの合算の 時間積に正方向に感応するように、前記j番目の信号を生成する神経ネットワー ク。
  3. 3.前記フィード・フォワード応答手段は前記j番目の信号のアクティビティレ ベルが更に前記j番目の信号のアクティビティ・レベルの時間積に負方向に感応 するように、前記j番目の信号を生成する請求項2の神経ネットワーク。
  4. 4.学習アルゴリズム、スリーブ・リフレッシュ・アルゴリズム、および各々が 1つのアクティビティ・レベルを有する複数の外部入力信号と共に用いられ、M 個の第1のレベルの神経出力およびN−M個の第2のレベルの神経出力を含む、 1つのアクティビティ・レベルを有する信号を出力する複数のN個を神経出力と 、 各々が各々の接続性の重みWijにより重み付けされる、前記第1のレベルの神 経出力の全てのi番目の出力(i=1、・・・M)上の前記信号のアクティビテ ィ・レベルの時間的および空間的合算に応じて、1つのアクティビティ・レベル を有するj番目の信号を、M<j≦Nなる、前記第2のレベルの神経出力のj番 目の出力上に生成するためのフィード・フォワード応答手段と、前記学習アルゴ リズムに従って前記接続性の重みWijのうちの少なくとも1つを変更するため の手段と、 スリーブ期間の間、前記神経出力を前記外部入力から隔絶し、前記スリーブ。 リフレッシュ・アルゴリズムに従って、前記接続性の重みWijのうちの少なく ともいくつかを調整するためのスリーブ起動手段とを食み、 前記各神経出力上の前記信号は各々、周波数を有しており、前記神経出力の各所 定出力上の前記信号のアクティビティ・レベルは前記信号のうちの前記所定のも のの周波数によって表わされ、より高い周波数はより高いアクティビティ・レベ ルに対応し、より低い周波数はより低いアクティビティ・レベルに対応する神経 ネットワーク。
  5. 5.学習アルゴリズム、スリーブ・リフレッシュ・アルゴリズム、および各々が 1つのアクティビティ・レベルを有する複数の外部入力信号と共に用いられ、M 個の第1のレベルの神経出力およびN−M個の第2のレベルの神経出力を含む、 1つのアクティビティ・レベルを有する信号を出力する複数のN個を神経出力と 、 各々が各々の接続性の重みWijにより重み付けされる、前記第1のレベルの神 経出力の全てのi番目の出力(i=1、・・・、M)上の前記信号のアクティビ ティ・レベルの時間的および空間的合算に応じて、1つのアクティビティ・レベ ルを有するj番目の信号を、M<j≦Nなる、前記第2のレベルの神経出力のj 番目の出力上に生成するためのフィード・フォワード応答手段と、前記学習アル ゴリズムに従って前記接続性の重みWijのうちの少なくとも1つを変更するた めの手段と、 スリーブ期間の間、前記神経出力を前記外部入力から隔絶し、前記スリーブ・リ フレッシュ・アルゴリズムに従って、前記接続性の重みWijのうちの少なくと もいくつかを調整するためのスリーブ起動手段とを含み、 前記フィード・フォワード応答手段は 各々が出力を有し、i番目(i=1、・・・、M)のシナプシス回路手段の各々 は前記i番目のシナプシス回路手段の前記出力上に前記第1のレベルの神経出力 のi番目の各出力上の信号のアクティビティ・レベルのWij倍に実質的に等し いアクティビティ・レベルを有する信号を生成するためのものである複数のM個 のシナプシス回路手段と、 前記第2のレベルの神経出力の前記j番目の出力上に前記シナプシス回路手段の 全ての前記出力上に前記信号のアクティビティ・レベルの時間的および空間的合 算に応じたアクティビティ・レベルを有する信号を生成するための神経回路手段 と を含み、 前記神経出力の各出力上および前記シナプシス回路手段の前記各出力の前記信号 は各々の周波数を有し、前記神経出力の各所定の出力上および前記シナプシス回 路手段の各所定のものの前記出力上の前記信号のアクティビティ・レベルのアク ティビティ・レベルは前記信号のうちの前記所定のものの周波数により表わされ 、高い周波数はより高いアクティビティ・レベルに対応し、より低い周波数はよ り低いアクティビティ・レベルに対応している神経ネットワーク。
  6. 6.前記神経出力の各出力上の前記信号は各々の電圧波形により表わされ、前記 シナプシス回路手段の各々の前記出力上の前記信号は各々の電流波形により表わ される請求項5の神経ネットワーク。
  7. 7.学習アルゴリズム、スリーブ・リフレッシュ・アルゴリズム、および各々が 1つのアクティビティ・レベルを有する複数の外部入力信号と共に用いられ、M 個の第1のレベルの神経出力およびN−M個の第2のレベルの神経出力を含む、 1つのアクティビティ・レベルを有する信号を出力する複数のN個を神経出力と 、 各々が各々の接続性の重みWijにより重み付けされる、前記第1のレベルの神 経出力の全てのi番目の出力(i=1、・・・、M)上の前記信号のアクティビ ティ・レベルの時間的および空間的合算に応じて、1つのアクティビティ・レベ ルを有するj番目の信号を、M<j≦Nなる、前記第2のレベルの神経出力のj 番目の出力上に生成するためのフィード・フォワード応答手段と、前記学習アル ゴリズムに従って前記接続性の重みWijのうちの少なくとも1つを変更するた めの手段と、 スリーブ期間の間、前記神経出力を前記外部入力から隔絶し、前記スリーブ・リ フレッシュ・アルゴリズムに従って、前記接続性の重みWijのうちの少なくと もいくつかを調整するためのスリーブ起動手段と周期的に前記スリーブ期間をひ き起こすための手段とを含む神経ネットワーク。
  8. 8.学習アルゴリズム、スリーブ・リフレッシュ・アルゴリズム、および各々が 1つのアクティビティ・レベルを有する複数の外部入力信号と共に用いられ、M 個の第1のレベルの神経出力およびN−M個の第2のレベルの神経出力を含む、 1つのアクティビティ・レベルを有する信号を出力する複数のN個を神経出力と 、 各々の接続性の重みWijにより重みづけされる前記第1のレベルの神経出力の うちの全てのi番目の出力上の前記信号のアクティビティ・レベルの合算の時間 積に正方向に感応し、更に、実質的に一定の各々の禁止の接続性の重みに従い、 前記第2のレベルの神経出力のうちの全ての他の出力上のアクティビティ・レベ ルの合算の時間積に負方向に感応し、更に前記j番目の信号のアクティビティ・ レベルの時間積に負方向に感応するアクティビティ・レベルを有するj番目の信 号を、M<j≦Nある前記第2のレベルの神経出力のj番目の出力上に生成する ためのフィード・フォワード応答手段と、各々の接続性の重みWjiにより重み 付けられた前記第2のレベルの神経出力のうちの全てのj番目の出力上の前記信 号のアクティビティ・レベルの合算の時間積に、前記外部入力信号のうちのi番 目のもののアクティビティ・レベルの時間積を加えたものに、正方向に感応し、 更に、前記i番目の信号のアクティビティ・レベルの時間積に負方向に感応する i番目の信号を、1≦i<Mなる前記第1のレベルの神経出力のi番目の出力上 に生成するためのフィード・バック応答手段と、 前記学習アルゴリズムに従って前記接続性の重みWijのうちの少なくとも1つ を変更するための手段と、 スリーブ期間の間、前記神経出力を前記環境入力から隔絶し、前記スリーブ・リ フレッシュ・アルゴリズムに従って、前記接続性の重みWijのうちの少なくと もいくつかを調整するためのスリーブ起動手段とを含む神経ネットワーク。
  9. 9.あるアクティビティ・レベルを有するスリーブ信号を出力するスリーブ神経 出力を更に含み、前記フィード・フォワード応答手段は前記j番目の信号のアク ティビティ・レベルが更に前記スリーブ信号のアクティビティ・レベルに正方向 に感応するように前記j番目の信号を生成する請求項8のネットワーク。
  10. 10.前記スリーブ起動手段は更に、前記スリーブ期間の間に前記スリーブ信号 のアクティビティ・レベルを増加せしめ、前記スリーブ起動期間外の前記スリー ブ信号のアクティビティ・レベルを減少せしめるためのものである請求項9のネ ットワーク。
  11. 11.あるアクティビティ・レベルを有するスリーブ信号を出力するスリーブ神 経出力を更に含み、前記フィード・バック応答手段は前記i番目の信号のアクテ ィビティ・レベルが更に前記スリーブ信号のアクティビティ・レベルに正方向に 感応するように前記i番目の信号を生成する請求項8のネットワーク。
  12. 12.前記スリーブ起動手段は前記スリーブ期間の間、補助的な共振を生成する ためのものであり、そのスリーブ期間、前記第2のレベルの出力信号のうちの異 なるもののアクティビティ・レベルは疑似ランダム・シーケンスに従って上昇し 、下降し、前記スリーブ・リフレッシュ・アルゴリズムは前記第2のレベルの出 力信号のうちの関与する全ての信号のアクティビティ・レベルがより均等な確率 により上昇し、下降するように、前記疑似ランダム・シーケンスを修正する請求 項8のネットワーク。
  13. 13.前記学習アルゴリズムはi番目およびj番目の神経出力信号の両者に高い アクティビティ・レベルが同時に発生するのと同等の量により前記接続性の重み Wijの各々を増加し、前記i番目の神経出力信号上の低いアクティビティ・レ ベルおよび前記j番目の神経出力信号上の高いアクティビティ・レベルが同時に 発生するのに相当の量により前記接続性の重みWijの各々を減少せしめること を含む請求項8のネットワーク。
  14. 14.前記スリーブ起動手段は前記スリーブ期間の間、補助的な共振を生成する ためのものであり、そのスリーブ期間、前記第2のレベルの出力信号のうちの異 なるもののアクティビティ・レベルは疑似ランダム・シーケンスに従うて上昇し 、下降し、前記スリーブ・リフレッシュ・アルゴリズムは前記第2のレベルの出 力信号のうちの関与する全ての信号のアクティビティ・レベルがより均等な確率 により上昇し、下降するように、前記疑似ランダム・シーケンスを修正する請求 項13のネットワーク。
  15. 15.前記スリーブ起動手段は前記スリーブ期間の間、補助的な共振を生成する ためのものであり、そのスリーブ期間、前記第2のレベルの出力信号のうちの異 なるもののアクティビティ・レベルは疑似ランダム・シーケンスに従って上昇し 、下降し、前記リフレッシュ・アルゴリズムは前記接続性の重みの少なくともい くつかを強め、ある特定のj番目の神経出力をまき込む不要な周波数の補助的共 振に応じて弱めることを含み、前記接続性の重みWijの各々は前記i番目およ びj番目の神経出力信号の両信号上に高いアクティビティ・レベルが同時に起こ ることに相当の量によるものである請求項13のネットワーク。
  16. 16.各々がアクティビティ・レベルを有する複数の外部入力信号と共に用いら れ、 各々が少なくとも1つの入力を有する複数の第1のレベルの神経回路であって、 前記第1のレベルの神経回路の各々の前記入力の各々はアクティビティ・レベル を有し、前記第1のレベルの神経回路の各々は更に1つの出力および前記第1の レベルの神経回路の前記出力上に前記第1のレベルの神経回路の前記入力信号の アクティビティ・レベルの合算の時間積に少なくとも部分的に感応するアクティ ビティ・レベルを有する出力信号をもたらすための手段を有する複数の第1のレ ベルの神経回路と、 各々が少なくとも1つの入力を有する一群の第2のレベルの神経回路であって、 前記第2のレベルの神経回路の各々の前記入力の各々はアクティビティ・レベル を有する入力信号を入力し、前記第2のレベルの神経回路の各々は更に1つの出 力および前記第2のレベルの神経回路の前記出力上に前記第2のレベルの神経回 路の前記入力信号のアクティビティ・レベルの合算の時間積に少なくとも部分的 に感応し、前記群内の前記第2のレベルの神経回路のうちの他の全ての回路の出 力信号のアクティビティ・レベルの合算の時間積に少なくとも部分的に相反して 感応するアクティビティ・レベルを有する出力信号をもたらすための手段を有す る一群の第2のレベルの神経回路と、 複数のフィード・フォワード接続回路であって、各回路がアクティビティ・レベ ルを有する1つの入力信号を入力する1つの入力と、各々の接続性の強度を保持 するための保持手段と、1つの出力と、前記フィード・フォワード接続回路の前 記出力上に前記各々の接続性の強度により重み付けられる前記フィード・フォワ ード接続回路の前記入力信号のアクティビティ・レベルに応じたアクティビティ ・レベルを有する出力信号をもたらすための手段とを備え、前記フィード・フォ ワード接続回路の各々の前記入力は前記第1のレベル神経回路の各々の回路の出 力信号を受けるよう結合され、前記フィード・フォワード接続回路の各々の前記 出力は前記フィード・フォワード接続回路の前記出力信号を前記群内の前記第2 のレベルの神経回路のうちの各回路の前記入力のうちの1つに供給するよう結合 され、前記第1のレベルの神経回路の各々の出力は前記フィード・フォワード接 続回路の各回路を介して前記群内の前記第2のレベルの神経回路の全ての1つの 入力に結合されている複数のフィード・フォワード接続回路と、複数のフィード ・バック接続回路であって、各回路はアクティビティ・レベルを有する入力信号 を入力する1つの入力と、各々の接続性の強度を保持するための保持手段と1つ の出力と、前記フィード・バック接続回路の前記各接続性の強度により重みづけ られる前記フィード・パック接続回路の前記入力信号のアクティビティ・レベル に感応するアクティビティ・レベルを有する出力信号を前記フィード・バック接 続回路の前記出力上に供給するための手段とを備え、前記フィード・バック接続 回路の各々の前記入力は前記第2のレベルの神経回路の各回路の出力信号を受け るよう結合され、前記フィード・バック接続回路の各々の前記出力は前記フィー ド・バック接続回路の前記出力信号を前記第1のレベルの神経回路の各回路の前 記入力のうちの1つに供給するよう結合され、前記群内の前記第2のレベルの神 経回路の各々の出力は前記フィード・パック接続回路の各回路を介して前記第1 のレベルの神経回路の全ての1つの入力に結合されており、前記第1および第2 のレベルの神経回路および前記フィード・フォワードおよびフィード・バック接 続回路の全てにおいて、供給するための手段はループを回わるアクティビティ・ レベルの正味のフィード・バック量が負でないようにされている複数のフィード ・パック接続回路と、学習アルゴリズムに従って、前記フィード・フォワードお よびフィード・バック接続回路の前記保持手段内に保持される前記接続性の強度 を調整するための学習手段と を含む神経ネットワーク。
  17. 17.前記第1のレベルの神経回路のうちの1つへの前記入力の1つは前記外部 入力信号の各信号を受けるよう結合される請求項16のネットワーク。
  18. 18.前記群内の前記第2のレベルの神経回路のうちの所定の回路の各々におい て、前記群内の前記第2のレベルの神経回路のうちの他の全ての回路の出力信号 のアクティビティ・レベルの合算の時間積に少なくとも部分的に相反して感応す るアクティビティ・レベルを有する出力信号を供給するための手段は複数の禁止 接続回路を含み、この各禁止接続回路はアクティビティ・レベルを有する入力信 号を入力する1つの入力と、1つの出力と、前記禁止接続回路の前記入力信号の アクティビティ・レベルに相反して感応するアクティビティ・レベルを有する出 力信号を前記禁止接続回路の前記出力上に供給するための手段を含み、前記禁止 接続回路の全ての前記出力は前記第2のレベルの神経回路のうちの前記所定の回 路の各入力に結合され、前記禁止接続回路の各々の前記入力は前記他の第2のレ ベルの神経回路の各回路の前記出力信号を受けるよう結合され、前記群内の前記 第2のレベルの神経回路の各々の出力は前記禁止接続回路の各回路を介して前記 群内の前記第2のレベルの神経回路のうちの他の全回路の1つの入力に結合され ている請求項16のネットワーク。
  19. 19.前記第1および第2のレベルの神経回路のうちの所定回路の各々において 、前記供給するための手段は更に前記神経回路のうちの前記所定の回路の前記出 力信号のアクティビティ・レベルの時間変化率が前記神経回路のうちの前記所定 回路を含むループを回るアクティビティ・レベルの前記正味の負でないフィード ・バック量に起因する共振を制止するように、前記神経回路のうちの前記所定回 路の前記出力信号の即時のアクティビティ・レベルに相反して感応するようにす る請求項16のネットワーク。
  20. 20.前記第1のレベルの神経回路のうちの所定回路の各々において、前記供給 するための手段は前記第1のレベルの神経回路のうちの前記所定回路の前記出力 信号のアクティビティ・レベルが前記第1のレベルの神経回路のうちの所定回路 の前記入力の前記アクティビティ・レベルの合算が時間によらず一定であるとき 、各々の正の休止の値を有するようにした請求項19のネットワーク。
  21. 21.前記第1および第2のレベルの神経回路のうちの所定回路の各々において 、前記供給するための手段は更に前記神経回路のうちの前記所定回路の前記出力 信号のアクティビティ・レベルの時間変化率が前記神経回路のうちの前記所定回 路を含むループを回るアクティビティ・レベルの前記正味の負でないフィード・ バック量に起因する共振を制止するように、前記神経回路のうちの前記所定回路 の前記出力信号の即時のアクティビティ・レベルに相反して感応し、前記第1の レベルの神経回路のうちの所定回路の各々において、前記供給するための手段は 前記第1のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティビ ティ・レベルが前記第1のレベルの神経回路のうちの所定回路の前記入力の前記 アクティビティ・レベルの合算が時間によらず一定であるとき、各々の正の休止 の値を有するようにし、 前記第2のレベルの神経回路のうちの所定回路の各々において、前記供給するた めの手段は前記第2のレベルの神経回路のうちの前記所定回路の前記出力信号の アクティビティ・レベルが前記第2のレベルの神経回路のうちの前記所定回路の 前記入力信号のアクティビティ・レベルの合算値から前記第2のレベルの神経回 路の前記他の全ての回路の出力信号のアクティビティ・レベルの重み付けされた 合算値を差し引いたものが時間によらず一定であるとき、各々の正の休止の値を もつようにした。 請求項18のネットワーク。
  22. 22.前記学習手段は、 所定のフィード・フォワード接続回路の入力信号上の高いアクティビティ・レベ ルおよび前記所定のフィード・フォワード接続回路の出力が結合される第2のレ ベルの神経回路の出力信号上の高いアクティビティ・レベルが同時に発生するに 相当な量だけ、前記フィード・フォワード接続回路のうちの前記所定回路の各々 の保持手段に保持された接続性の強度を増加させ、前記所定のフィード・フォワ ード接続回路の前記入力信号上の低いアクティビティ・レベルおよび前記所定の フィード・フォワード接続回路の出力が結合される第2のレベルの神経回路の出 力信号上の高いアクティビティ・レベルが同時に発生するに相当な量でけ、前記 所定のフィード・フォワード接続回路の前記保持手段内に保持された前記接続性 の強度を減少せしめるための手段と、所定のフィード・バック接続回路の入力信 号上の高いアクティビティ・レベルおよび前記所定のフィード・バック接続回路 の出力が結合される第1のレベルの神経回路の出力信号上の高いアクティビティ ・レベルが同時に発生するに相当な量だけ、前記フィード・バック接続回路のう ちの前記所定回路の各々の保持手段に保持された接続性の強度を増加させ、前記 所定のフィード・フォワード接続回路の前記入力信号上の高いアクティビティ・ レベルおよび前記所定のフィード・バック接続回路の出力が結合される第1のレ ベルの神経回路の出力信号上の低いアクティビティ・レベルが同時に発生するに 相当な量だけ、前記所定のフィード・バック接続回路の前記保持手段内に保持さ れた前記接続性の強度を減少せしめるための手段と を含む請求項16のネットワーク。
  23. 23.選択的にアウェイク(awake)・モードまたはスリーブ(sleep )・モードにおいて動作し、前記第1のレベルの神経回路の各々への入力のうち の1つは前記外部入力信号の各信号を受けるよう結合され、前記第1のレベルの 神経回路のうちの所定回路の各々において、前記供給するための手段は更に、前 記第1のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティビテ ィ・レベルが前記所定の第1のレベルの神経回路の入力信号のアクティビティ・ レベルの全ての合算の時間積に正方向に感応し、更に、前記第1のレベルの神経 回路のうちの前記所定回路の前記出力信号のアクティビティ・レベルの時間変化 率が前記第1のレベルの神経回路のうちの前記所定回路の前記出力信号の前記ア クティビティ・レベルの即時の値に負方向に感応するようにされており、 前記第2のレベルの神経回路のうちの所定回路の各々において、前記供給するた めの手段は更に、前記第2のレベルの神経回路のうちの前記所定回路の前記出力 信号のアクティビティ・レベルが前記所定の第2のレベルの神経回路の前記入力 信号のアクティビティ・レベルの全ての合算の時間積に正方向に感応し、更に、 前記第2のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティビ ティ・レベルは前記第2のレベルの神経回路のうちの全ての他の回路の前記出力 のアクティビティ・レベルの重み付けされた合算の時間積に負方向に感応し、更 に前記第2のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティ ビティ・レベルの時間変化率が前記第2のレベルの神経回路のうちの前記所定回 路の前記出力信号のアクティビティ・レベルの即時の値に負方向に感応するよう にされており、 前記学習手段は所定のフィード・フォワード接続回路の入力信号上の高いアクテ ィビティ・レベルおよび前記所定のフィード・フォワード接続回路の出力が結合 される第2のレベルの神経回路の出力信号上の高いアクティビティ・レベルが同 時に発生するに相当な量だけ、前記フィード・フォワード接続回路のうちの前記 所定回路の各々の保持手段に保持された接続性の強度を増加させ、前記所定のフ ィード・フォワード接続回路の前記入力信号上の低いアクティビティ・レベルお よび前記所定のフィード・フォワード接続回路の出力が結合される第2のレベル の神経回路の出力信号上の高いアクティビティ・レベルが同時に発生するに相当 な量だけ、前記所定のフィード・フォワード接続回路の前記保持手段内に保持さ れた前記接続性の強度を減少せしめるための手段と、所定のフィード・バック接 続回路の入力信号上の高いアクティビティ・レベルおよび前記所定のフォワード ・バック接続回路の出力が結合される第1のレベルの神経回路の出力信号上の高 いアクティビティ・レベルが同時に発生するに相当な量だけ、前記フィード・バ ック接続回路のうちの前記所定回路の各々の保持手段に保持された接続性の強度 を増加させ、前記所定のフィード・フォワード接続回路の前記入力信号上の高い アクティビティ・レベルおよび前記所定のフィード・バック接続回路の出力が結 合される第1のレベルの神経回路の出力信号上の低いアクティビティ・レベルが 同時に発生する相当な量だけ、前記所定のフィード・バック接続回路の前記保持 手段内に保持された前記接続性の強度を減少せしめるための手段と を含み、 前記ネットワークは更に、前記システムが少なくとも前記スリーブ・モードにあ るときに、前記第2のレベルの神経回路の全ての1つの入力に、実質的に一定の バックグランド信号を入力するためのバックグランド信号源手段を含む請求項1 6のネットワーク。
  24. 24.前記ネットワークが前記スリーブ・モードで動作している間、前記入力信 号の全てを前記第1のレベルの神経回路から切り離すための手段を更に含む請求 項23のネットワーク。
  25. 25.スリーブの間に動作し、前記第2のレベルの神経回路のうちのある回路の 出力上の信号が前記第2のレベルの神経回路の他の回路の出力上の信号に比べ全 く異ってより頻繁にあるアクティビティ・レベルに達成する、優遇された状態条 件を検出するための第1の手段と、 スリーブの間に動作し、それにより前記学習手段が前記ある第2のレベルの神経 回路のうちのいづれかに接している前記フィード・フォワード接続回路の各々の 保持手段内に保持された接続性の強度を調整するところの感度を反転させるため の第2の手段と を更に含む請求項24のネットワーク。
  26. 26.前記第1の手段が前記優遇された状態条件を検出するとき、前記第2の手 段はそれにより前記学習手段が前記フィード・フォワード接続回路の全ての保持 手段内に保持された接続性の強度を調整するところの感度を反転させるよう動作 する請求項25のネットワーク。
  27. 27.選択的にアウェイク(awake)・モードまたはスリーブ(s1eep )・モードにおいて動作し、前記第1のレベルの神経回路の各々への入力のうち の1つは前記外部入力信号の各信号を受けるよう結合され、前記第1のレベルの 神経回路のうちの所定回路の各々において、前記供給するための手段は更に、前 記第1のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティビテ ィ・レベルが前記所定の第1のレベルの神経回路の入力信号のアクティビティ・ レベルの全ての合算の時間積に正方向に感応し、更に、前記第1のレベルの神経 回路のうちの前記所定回路の前記出力信号のアクティビティ・レベルの時間変化 率が前記第1のレベルの神経回路のうちの前記所定回路の前記出力信号の前記ア クティビティ・レベルの即時の値に負方向に感応するようにされており、 前記第2のレベルの神経回路のうちの所定回路の各々において、前記供給するた めの手段は更に、前記第2のレベルの神経回路のうちの前記所定回路の前記出力 信号のアクティビティ・レベルが前記所定の第2のレベルの神経回路の前記入力 信号のアクティビティ・レベルの全ての合算の時間積に正方向に感応し、更に、 前記第2のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティビ ティ・レベルは前記第2のレベルの神経回路のうちの全ての他の回路の前記出力 のアクティビティ・レベルの重み付けされた合算の時間積に負方向に感応し、更 に前記第2のレベルの神経回路のうちの前記所定回路の前記出力信号のアクティ ビティ・レベルの時間変化率が前記第2のレベルの神経回路のうちの前記所定回 路の前記出力信号の前記アクティビティ・レベルの即時の値に負方向に感応する ようにされており、 前記学習手段は所定のフィード・フォワード接続回路の入力信号上の高いアクテ ィビティ・レベルおよび前記所定のフィード・フォワード接続回路の出力が結合 される第2のレベルの神経回路の出力信号上の高いアクティビティ・レベルが同 時に発生するに相当な量だけ、前記フィード・フォワード接続回路のうちの前記 所定回路の各々の保持手段に保持された接続性の強度を増加させ、前記所定のフ ィード・フォワード接続回路の前記入力信号上の低いアクティビティ・レベルお よび前記所定のフィード・フォワード接続回路の出力が結合される第2のレベル の神経回路の出力信号上の高いアクティビティ・レベルが同時に発生するに相当 な量だけ、前記所定のフィード・フォワード接続回路の前記保持手段内に保持さ れた前記接続性の強度を減少せしめるための手段と、所定のフィード・バック接 続回路の入力信号上の高いアクティビティ・レベルおよび前記所定のフォワード ・バック接続回路の出力が結合される第1のレベルの神経回路の出力信号上の高 いアクティビティ・レベルが同時に発生するに相当な量だけ、前記フィード・バ ック接続回路のうちの前記所定回路の各々の保持手段に保持された接続性の強度 を増加させ、前記所定のフィード・フォワード接続回路の前記入力信号上の高い アクティビティ・レベルおよび前記所定のフィード・バック接続回路の出力が結 合される第1のレベルの神経回路の出力信号上の低いアクティビティ・レベルが 同時に発生する相当な量だけ、前記所定のフィード・バック接続回路の前記保持 手段内に保持された前記接続性の強度を減少せしめるための手段と を含み、 前記ネットワークは更に、前記システムが少なくとも前記スリーブ・モードにあ るときに、前記第2のレベルの神経回路の全ての1つの入力に、実質的に一定の バックグランド信号を入力するためのバックグランド信号源手段を含む請求項1 6のネットワーク。
  28. 28.神経ネットワーク内に用いられるのに好適であって、複数の電流入力ライ ンと、 1つの出力ラインと、 前記出力ライン上に、前記電流入力ライン上の電流の合流量の時間積に正方向に 感応し、前記出力信号の時間積に負方向に感応する周波数を有する出力信号を供 給するための手段と を含む神経回路。
  29. 29.前記供給するための手段は 前記電流入力の全てを受けるよう接続された合流点と、一定電圧のノードと、 前記合流点と前記一定電圧のノードとの間に接続された合流キャパシタと、1つ の入力と1つの出力とを有するレギュレータ手段であって、前記レギュレータ手 段の前記出力上に、前記レギュレータ手段の前記入力上の信号の周波数に正方向 に感応する電圧信号を供給するためのレギュレータ手段と、第1および第2の入 力と1つの出力とを有する発振手段であって、前記発振手段の前記第1の入力は 前記合流点に接続されており、前記発振手段の第2の入力は前記レギュレータ手 段の前記出力を受けるよう接続されており、前記レギュレータ手段の前記入力は 前記発振手段の前記出力を受けるよう接続されており、前記発振手段は前記発振 手段の前記出力上に前記発振手段の前記第1および第2の入力の電圧間の電位差 に正方向に感応する周波数を有する信号を供給するためのものである発振手段と を含む請求項28の回路。
  30. 30.神経ネットワーク内に用いられるのに好適であって、合流点、定電圧ノー ド、および前記合流点と前記定電圧ノードとの間に接続される合流キャパシタと 、 1つの入力および1つの電圧出力を有する反転インテグレータ(integra tor)と、 発振キャパシタと、 前記反転インチグレータの前記入力に接続される出力を有し、更に前記発振キャ パシタの両端の電位差が前記反転インチグレータの前記電圧出力より小さいとき 、前記合流キャパシタから前記発振キャパシタへ電荷を転送し、前記発振キャパ シタの両端の電位差が前記反転インチグレータの前記電圧出力を越えるとき、前 記発振キャパシタを放電するための手段とを有する神経回路。
  31. 31.神経回路内で用いられるのに好適なシナプシス接続回路であって、プレ・ シナプシス信号入力および電流出力と、保持キャパシタと 前記シナプシス接続回路の前記出力上に、その時間平均が前記保持キャパシタの 両端の電位差の前記プレ・シナプシス信号入力上の信号の周波数であるところの 電流信号を供給するための手段と を含むシナプシス接続回路。
  32. 32.前記供給するための手段は前記シナプシス接続回路の前記出力上に、前記 プレ・シナプシス信号入力上の信号の周波数と等しい周波数を有し、前記保持キ ャパシタの両端の電位差に正方向に応答する大きさを有する電流パルス信号を供 給するための手段を含む請求項31の回路。
  33. 33.ポスト・シナプシス信号入力と、前記プレ・シナプシス信号入力上の高周 波数と前記ポスト・シナプシス信号入力上の高周波数とが同時に発生したことに 応じて前記保持キャパシタの両端の電位差を所定の方向に調整するための手段と を更に含む請求項31の回路。
  34. 34.前記所定の方向は増加する方向である請求項33の回路。
  35. 35.ディープ・スリーブ(deep−sleep)信号入力を更に含み、前記 調整するための手段は前記ディープ・スリーブ信号入力に応じて前記所定の方向 として増加する方向および減少する方向との間で選択するための手段を含む請求 項33の回路。
  36. 36.前記プレおよびポスト・シナプシス入力上の信号は各々、変化する周波数 の一連のパルスからなり、前記調整するための手段は前記プレ・シナプシス入力 が前記ポスト・シナプシス入力上のパルスと同時に発生するときは必ず、前記所 定の方向に前記保持キャパシタの両端の電位差を調整するための手段を含む請求 項33の回路。
  37. 37.ポスト・シナプシス信号入力と、前記ポスト・シナプシス信号入力上の信 号を受けるよう接続される、1つの入力を有し、更に1つの出力を有し、前記出 力上に前記ポスト・シナプシス信号入力上の信号の周波数の時間積に正方向に応 じた周波数を有するパルス信号を供給するためのディープ・スリープ手段と、前 記プレ・シナプシス入力上のパルス、前記ポスト・シナプシス入力上のパルス、 および前記ディープ・スリーブ手段の前記出力上のパルス間のスペースに応答し て前記保持キャパシタの両端の電位差を増加せしめ、前記プレ・シナプシス入力 上のパルス、前記ポスト・シナプシス入力上のパルス、および前記ディープスリ ープ手段の前記出力上のパルスに応答して前記保持キャパシタの両端の電位差を 減少せしめるための手段と を更に含む請求項31の回路。
  38. 38.神経ネットワーク内で用いられるに好適なシナプシス接続回路であって、 プレ・シナプシス信号入力および電源出力と、保持キャパシタと、 基準電圧ノードと、 1つの入力および1つの出力を有するトランスコンダクタンス変換器であって、 前記トランスコンダクタンス変換器の前記出力は前記シナプシス接続回路の前記 電流出力であるトランスコンダクタンス変換器と、前記プレ・シナプシス信号入 力上の各パルスに対し、前記保持キャパシタの電圧を前記トランスコンダクタン ス変換器の前記入力に印加するためのスイッチ手段と、 前記プレおよびポスト・シナプシス入力のうちの1つの入力上の各パルスに対し 、前記保持キャパシタを前記基準電圧ノードに接続するための学習スイッチ手段 と、 前記プレおよびポスト・シナプシス入力のうちの他方の入力上の各パルスに対し 、基準電圧ノード上にパルスを生成するための手段とを含むシナプシス接続回路 。
  39. 39.前記基準電圧ノード上にパルスを生成するための手段は前記プレおよびポ スト・シナプシス入力のうちの前記他方からパルスを受けるよう接続された入力 を有し、前記基準電圧ノードに接続された出力を有するパルス・エクテンダ(e xtender)を含む請求項38の回路。
  40. 40.ディープ・スリーブ信号入を更に含み、前記基準電圧ノード上にパルスを 生成するための手段は前記基準電圧ノードと前記プレおよびポスト・シナプシス 入力のうちの他方との間に接続された反転器を含み、前記反転器は前記ディープ ・パルス信号入力上の各パルスに対し動作可能である請求項38の回路。
JP1509711A 1989-07-26 1989-08-29 神経ネットワークのためのスリープ・リフレッシュ・メモリ Expired - Fee Related JP2847133B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US387,373 1989-07-26
US07/387,373 US4926064A (en) 1988-07-22 1989-07-26 Sleep refreshed memory for neural network
CA000614908A CA1328023C (en) 1989-07-26 1989-09-29 Sleep refreshed memory for neural network

Publications (2)

Publication Number Publication Date
JPH04507014A true JPH04507014A (ja) 1992-12-03
JP2847133B2 JP2847133B2 (ja) 1999-01-13

Family

ID=25673183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1509711A Expired - Fee Related JP2847133B2 (ja) 1989-07-26 1989-08-29 神経ネットワークのためのスリープ・リフレッシュ・メモリ

Country Status (4)

Country Link
US (1) US4926064A (ja)
JP (1) JP2847133B2 (ja)
CA (1) CA1328023C (ja)
WO (1) WO1991002325A1 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2760543B2 (ja) * 1989-02-10 1998-06-04 株式会社東芝 多重帰還回路
US5274745A (en) * 1989-07-28 1993-12-28 Kabushiki Kaisha Toshiba Method of processing information in artificial neural networks
US5023614A (en) * 1989-09-13 1991-06-11 Advanced Micro Devices, Inc. Switchable DAC with current surge protection
US5184129A (en) * 1989-09-13 1993-02-02 Advanced Micro Devices, Inc. Switchable DAC with current surge protection
JP2724374B2 (ja) * 1989-10-11 1998-03-09 株式会社鷹山 データ処理装置
JPH03167655A (ja) * 1989-11-28 1991-07-19 Toshiba Corp ニューラルネットワーク
US5130563A (en) * 1989-11-30 1992-07-14 Washington Research Foundation Optoelectronic sensory neural network
KR950001601B1 (ko) * 1990-07-09 1995-02-27 니폰 덴신 덴와 가부시끼가시야 뉴-럴 네트워크 회로
JP2785155B2 (ja) * 1990-09-10 1998-08-13 富士通株式会社 ニューロコンピュータの非同期制御方式
US5097141A (en) * 1990-12-12 1992-03-17 Motorola, Inc. Simple distance neuron
US5087826A (en) * 1990-12-28 1992-02-11 Intel Corporation Multi-layer neural network employing multiplexed output neurons
US5204872A (en) * 1991-04-15 1993-04-20 Milltech-Hoh, Inc. Control system for electric arc furnace
US5263122A (en) * 1991-04-22 1993-11-16 Hughes Missile Systems Company Neural network architecture
US6374311B1 (en) 1991-10-01 2002-04-16 Intermec Ip Corp. Communication network having a plurality of bridging nodes which transmit a beacon to terminal nodes in power saving state that it has messages awaiting delivery
US7558557B1 (en) * 1991-11-12 2009-07-07 Broadcom Corporation Low-power messaging in a network supporting roaming terminals
US5394436A (en) * 1991-10-01 1995-02-28 Norand Corporation Radio frequency local area network
US6084867A (en) * 1991-10-01 2000-07-04 Intermec Ip Corp. Apparatus and method of routing data in a radio frequency local area network
US6407991B1 (en) * 1993-05-06 2002-06-18 Intermec Ip Corp. Communication network providing wireless and hard-wired dynamic routing
EP1246404B1 (en) * 1991-10-01 2006-03-22 Broadcom Corporation A radio frequency local area network
US6400702B1 (en) * 1991-10-01 2002-06-04 Intermec Ip Corp. Radio frequency local area network
US5274744A (en) * 1992-01-21 1993-12-28 Industrial Technology Research Institute Neural network for performing a relaxation process
JPH05210649A (ja) * 1992-01-24 1993-08-20 Mitsubishi Electric Corp 神経回路網表現装置
US5428710A (en) * 1992-06-29 1995-06-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Fast temporal neural learning using teacher forcing
US5386497A (en) * 1992-08-18 1995-01-31 Torrey; Stephen A. Electronic neuron simulation with more accurate functions
US5930781A (en) * 1992-10-27 1999-07-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network training by integration of adjoint systems of equations forward in time
DE69504316T2 (de) * 1994-03-08 1999-01-21 Preben Frederiksberg Alstrom Neuronales netzwerk
WO2000029970A1 (en) * 1998-11-13 2000-05-25 Arizona Board Of Regents, A Body Corporate Acting On Behalf Of Arizona State University Oscillatary neurocomputers with dynamic connectivity
US6957204B1 (en) * 1998-11-13 2005-10-18 Arizona Board Of Regents Oscillatary neurocomputers with dynamic connectivity
US7577631B2 (en) * 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
US7398259B2 (en) * 2002-03-12 2008-07-08 Knowmtech, Llc Training of a physical neural network
US9269043B2 (en) 2002-03-12 2016-02-23 Knowm Tech, Llc Memristive neural processor utilizing anti-hebbian and hebbian technology
US20030236760A1 (en) * 2002-06-05 2003-12-25 Alex Nugent Multi-layer training in a physical neural network formed utilizing nanotechnology
US7412428B2 (en) * 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US6889216B2 (en) 2002-03-12 2005-05-03 Knowm Tech, Llc Physical neural network design incorporating nanotechnology
US7392230B2 (en) * 2002-03-12 2008-06-24 Knowmtech, Llc Physical neural network liquid state machine utilizing nanotechnology
US20040039717A1 (en) * 2002-08-22 2004-02-26 Alex Nugent High-density synapse chip using nanoparticles
US20040193558A1 (en) * 2003-03-27 2004-09-30 Alex Nugent Adaptive neural network utilizing nanotechnology-based components
US8156057B2 (en) * 2003-03-27 2012-04-10 Knowm Tech, Llc Adaptive neural network utilizing nanotechnology-based components
US7752151B2 (en) * 2002-06-05 2010-07-06 Knowmtech, Llc Multilayer training in a physical neural network formed utilizing nanotechnology
US7827131B2 (en) * 2002-08-22 2010-11-02 Knowm Tech, Llc High density synapse chip using nanoparticles
US7426501B2 (en) * 2003-07-18 2008-09-16 Knowntech, Llc Nanotechnology neural network methods and systems
US20070280270A1 (en) * 2004-03-11 2007-12-06 Pauli Laine Autonomous Musical Output Using a Mutually Inhibited Neuronal Network
US7502769B2 (en) * 2005-01-31 2009-03-10 Knowmtech, Llc Fractal memory and computational methods and systems based on nanotechnology
US7409375B2 (en) * 2005-05-23 2008-08-05 Knowmtech, Llc Plasticity-induced self organizing nanotechnology for the extraction of independent components from a data stream
US7420396B2 (en) * 2005-06-17 2008-09-02 Knowmtech, Llc Universal logic gate utilizing nanotechnology
US7599895B2 (en) 2005-07-07 2009-10-06 Knowm Tech, Llc Methodology for the configuration and repair of unreliable switching elements
US7930257B2 (en) 2007-01-05 2011-04-19 Knowm Tech, Llc Hierarchical temporal memory utilizing nanotechnology
US11341408B2 (en) 2016-10-27 2022-05-24 University Of Florida Research Foundation, Inc. Memristive learning for neuromorphic circuits
US10679119B2 (en) * 2017-03-24 2020-06-09 Intel Corporation Handling signal saturation in spiking neural networks
GB2579120B (en) * 2018-11-20 2021-05-26 Cirrus Logic Int Semiconductor Ltd Inference system
CN112270409B (zh) * 2020-10-19 2024-03-01 杭州电子科技大学 一种基于霍尔条的无监督学习突触单元电路

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL269964A (ja) * 1961-08-22
US3496382A (en) * 1967-05-12 1970-02-17 Aerojet General Co Learning computer element
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4731747A (en) * 1986-04-14 1988-03-15 American Telephone And Telegraph Company, At&T Bell Laboratories Highly parallel computation network with normalized speed of response
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network

Also Published As

Publication number Publication date
CA1328023C (en) 1994-03-22
JP2847133B2 (ja) 1999-01-13
WO1991002325A1 (en) 1991-02-21
US4926064A (en) 1990-05-15

Similar Documents

Publication Publication Date Title
JPH04507014A (ja) 神経ネットワークのためのスリープ・リフレッシュ・メモリ
KR101793011B1 (ko) 스파이킹 네트워크들의 효율적인 하드웨어 구현
KR101815438B1 (ko) 비감독 신경 리플레이, 학습 리파인먼트, 연관 및 기억 전달: 신경 연관 학습, 패턴 완성, 분리, 일반화 및 계층적 리플레이를 위한 방법들 및 장치
Little et al. A statistical theory of short and long term memory
Kleinfeld et al. Associative neural network model for the generation of temporal patterns. Theory and application to central pattern generators
von der Malsburg et al. Statistical coding and short-term synaptic plasticity: A scheme for knowledge representation in the brain
Reiss A theory and simulation of rhythmic behavior due to reciprocal inhibition in small nerve nets
Wilson et al. A mathematical theory of the functional dynamics of cortical and thalamic nervous tissue
KR20160138002A (ko) 스파이킹 dbn (deep belief network) 에서의 트레이닝, 인식, 및 생성
Freeman Chaos in the brain: Possible roles in biological intelligence
KR20170031695A (ko) 신경망들에서의 콘볼루션 동작의 분해
JPS5981755A (ja) 神経単位をシミユレ−トする回路とその方法
TW201535277A (zh) 以陰影網路監視神經網路
Gerstner et al. Hebbian learning of pulse timing in the barn owl auditory system
Wang et al. Anticipation-based temporal pattern generation
KR20140092881A (ko) 비감독 신경 리플레이, 학습 리파인먼트, 연관 및 기억 전달: 신경 성분 리플레이를 위한 방법들 및 장치
KR20160047581A (ko) 인공 신경 시스템에서 브레이크포인트 결정 유닛을 구현하기 위한 방법들 및 장치
Hosaka et al. STDP provides the substrate for igniting synfire chains by spatiotemporal input patterns
Roach et al. Acetylcholine mediates dynamic switching between information coding schemes in neuronal networks
US9275329B2 (en) Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
Aviel et al. Memory capacity of balanced networks
Bofill-i-Petit et al. Synchrony detection by analogue VLSI neurons with bimodal STDP synapses
Aoun Resonant neuronal groups
Bofill-i-Petit et al. Learning temporal correlations in biologically-inspired aVLSI
McMillen et al. Simple central pattern generator model using phasic analog neurons

Legal Events

Date Code Title Description
S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees