JPS63501450A - パタ−ン・コ−ド化システム - Google Patents

パタ−ン・コ−ド化システム

Info

Publication number
JPS63501450A
JPS63501450A JP50635486A JP50635486A JPS63501450A JP S63501450 A JPS63501450 A JP S63501450A JP 50635486 A JP50635486 A JP 50635486A JP 50635486 A JP50635486 A JP 50635486A JP S63501450 A JPS63501450 A JP S63501450A
Authority
JP
Japan
Prior art keywords
pattern
list
node
code
coding system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP50635486A
Other languages
English (en)
Other versions
JP2647371B2 (ja
Inventor
グロスバーグ,ステイーブン
コーエン,マイケル
Original Assignee
ザ・トラステイ−ズ・オブ・ボストン・ユニバ−シテイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ・トラステイ−ズ・オブ・ボストン・ユニバ−シテイ filed Critical ザ・トラステイ−ズ・オブ・ボストン・ユニバ−シテイ
Publication of JPS63501450A publication Critical patent/JPS63501450A/ja
Application granted granted Critical
Publication of JP2647371B2 publication Critical patent/JP2647371B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 パターン・コード化システム 発明の背景 音声と言語研究、特に知覚、認知、と人工知能に関する基本的問題領域の1つは 、音声音が受信器(人間又は機械)によって分類される機能的単位の特性表示に 関する。核心問題は、これらの機能的単位の文脈依存性(context−se nsitivity)、又は機能的単位への知覚分類が、全音声ストリームの時 空的パターン化に依存することができる方法に関する。
別の核心問題は、認識機構(recognition mechaylism) の適応チューニング(tuning)と、そのようなチューニングが、なじみの 要素の文脈内に形成された分類を変更することができる方法に関する。認識プロ セスの適応チューニングは、表現が、経験によるコヒーレント認識コードに単位 化又は成分化される(chunk)機構の1つである。
例えば、rmyselfJの如きワードは、単位化された口頭表現(Verba l chunk)として人によって使用される。しかし、異なる文脈において、 rmyself」の成分’m3’J、rself」、とrelf」は、すべて、 独自にワードとして使用される。さらに、用H’my」で終了する発声は、音声 ストリームの1つの分類を生成するが、全ワード「MyselfJを含む発声は 、この1分類を長いワードに適当な分類と取り替える。こうして、文脈依存言語 単位が受信器によって知覚される方法を理解するために、音声ストリームのすべ ての可能な分類が、時間の経過を通して分析される方法と、一定の分類が、異な る文脈において他の分類が選ばれるのを防ぐことなしに、1つの文脈において選 ばれる方法について、分析が行われなければならない。
同様な問題は、視覚対象認識及び図地(f igure−ground)分割、 と認知情報処理において解決される1例えば、Eの如き文字は、部分として、L とFの如き文字を含む。
さらに、観測者が、音声又は視覚ストリームのデータを分類する機能的単位は、 観測者の事前言語経験に依存する0例えば、ワードrmy 5elf」に対する 単位化表現は、このワードになじみのない観測者の脳には存在しない、こうして 、観測者が、音声ストリームを文脈依存言語単位に分解しかつ適応的に分類する 方法についての適切な理論では、発達及び学習プロセスが、観測者をバイアスさ せて、幾つかの知覚分類を優先的に経験させる方法を分析することが必要とされ る。そのような発達及び学習プロセスは、しばしば、理論生物物理学において、 「自己組織化jのプロセスと呼ばれる(「脳の共同作用」、イー・パーザ−、エ ッチ・フロール、エッチ・ハケン、とニー・マンデル(編集)、ニューヨーク、 シュブルンガー出版、1983年)、ビー・リントストム、ピー・マツクネイラ ージュ、とエム・シュツデールト・ケネディーは、最近、1983年に、音声知 覚における自己組織プロセスの重要性を示唆した(「自己組織プロセスと音韻論 的普遍的特性の説明」、言語の9退的特性の説明、バターワース、コムリーとダ ール(#1集)、ハーグ;ムートン。
スティーヴン・グロスベルブは、「適応パターン分類及び普遍的再コード化、■ :神経特徴検出器の並列化展開とコード化」、生物学サイバネティックス、19 76年、において「適応共鳴理論」を導入した。この理論は、それ以来、広範囲 な発展と応用を遂げた。1つのそのような発展は、言語システムが、複雑な入力 環境に応答して実時間で自己組織する方法についての分析から生ずる音声及び言 語知覚の理論である。スティーヴン・グロスベルブ著、「人間の記憶の理論:求 心性運動神経コード、マツプ、とプランの自己組織と運用」、理論生物学の進歩 、アール・ローゼンとエフ・シュネル(編集)、ニューヨーク:アカデミツク・ プレス、1978年、スティーヴン・グロスベルブ著、「心と頭の研究:学習、 知覚、発達、認知、と運動神経制御の神経原理」、リーデル・プレス、ボストン 、1982年、このアプローチは、言語発達、学習、と記憶を制御する瞬間毎の 動的相互作用を強調し、そしてマスキング・フィールドと呼ばれる神経モデルを 導入した。
本発明は、適応共鳴理論(^daptive Re5onancaTheory )において適応分類問題を解決する音声及び言語知覚の理論内において、核心プ ロセスとして、マスキング・フィールドを量的に分析しかつさらに発展させ、そ してさらに詳細には、内部言語表現が、文脈依存形式において音声ストリームを コード化する方法を示す、さらに、マスキング・フィールドは、視覚対象認識と 認知情報処理への応用において、同様な分類問題を解決する。
発ジV11び 本発明は、パターン認識に対して、マスキング・フィールド(maskingf ielcl)と呼ばれる、大規模並列協同競合神経ネットワーク(networ k)を開示する。マスキング・フィールドは、直接アクセスにより、全入カバタ ーンとそれらのサブパターンの部分的分類(grouping)の両方を検出し 、そして分類のコードに対しアクティビティ重み(activity weig ht)を割り当てる1重みは、ネットワークの空間的大きさと過去の経験に基づ くサブパターンの情報量を予測する。入カバターンが、音声及びレーダー・スト リームの如く時系列(time 5eries)の空間的コード化である時、マ スキツプ・フィールドは5音声ストリームを文脈依存言語表現に分析する。マス キング・フィールドは、事象の時間リストを単位化表現に分類又は成分化しくC hunk)、新しく発生する項目によって伝えられる情報に基づいて、過去の項 目のサブリストの知覚分類(perceptual groupings)を再 組繊し、そして(音声単位の)情報とく発生時の)時間順序情報を文脈依存コー ドに一緒に結合する。これらの言語単位は、入カバターンの全体サイズが、各入 カバターン内の微細構造(miero 5tructure)に感知のまま変化 する時、その3度を自動的に再スケールする(reesea I i ng)マ スキング・フィールドによる開発的(emergent)特性である。マスキン グ・フィールドネットワークは、空間勾配に沿う結合のランダム成長、アクティ ビティ依存自己類似セル成長、と保存シナプシス位置に対する競合、の神経単位 (neuronal)発達の単純規則に従う、これらの成長規則は、その並列相 互作用が、先行探索(pri□rsearch)の必要なしに、正しいサブリス ト分類又は成分化(ehunks)を直接に活動化することができるネットワー ク構造を生成する。
本発明によれば、ネットワークは、時間的に発展する入カバターンの多重スケー ル分析を行うことによって、直接アクセスを達成する。この分析は、正しいサブ パターン及びパターンのコード化を高め、そして短期又は作業記憶において不適 当なリストのコード化を競合的にマスクする。高められた短期記憶アクティビテ ィは、入力ストリームを表現する仮定、即ちコード、を具体的に表現する。この コードは、利用できる証拠に基づいて、まだ完全に発生していない分類にアクテ ィビティを割り当てることによって、次の事象を予測又は予想する。こうして、 マスキング・フィールドは、入力が次の時間間隔中に一部を形成することができ る大分類を予想する予測プライミング能力(prilling capabil ity)を有する。これらの特性を達成するために、ネットワーク内に逐次プロ グラム又は認知規則構造は存在せず、そして神経単位(neurons)は、質 蓋作用、フィードバック、協同競合相互作用に従う。
マスキング・フィールドは、適応鋭敏特性(aclaptive sharpe ningpr。
p’Wy)を有し、これによってよく知られた入カバターンが、よく知られてい ない入カバターンよりも認識コードのより焦点に絞られた空間的活動化を起こす 、認識コードはまた、入カバターンが、その曖昧な予測の基礎となる情報をより 多く含む時、より分散されずかつより少ない予測分類を包む、これにより、マス キング・フィールドは、入カバターン内に含まれる予測証拠に対して、実時間コ ードを具体的に表現することによって、クレジット割り当て問題を解決する。
さらに、連続マスキング原理及び自己類似(self−simi far)成長 原理と呼ばれる設計原理が、ネットワークによって具体化される。ネットワーク 設計は、連合機構(associative a+eehnnis@)、多重ス ケール競合相互作用、及び調節的ゲート信号が、単位化認識コードの学習(le arning)を調整するために、−緒に結合して使用される方法を示唆する。
図面の簡単な説明 本発明の前述及び他の目的、特徴、と利点は、各図面を通して同様な参照番号が 同じ部分を指示している添付図面に示された如く、本発明の好ましい実施R様の 次のより具体的な説明から明らかとなるであろう。
図面は、必ずしも共通の尺度がとれておらず、代わりに、本発明の詳細な説明す ることに強調が置かれている。
第1図は、本発明のプロセスが行われる1つの応用領域を提供する適応共鳴理論 のブロック図、 第2図は、本発明のパターン・コード化プロセスの概略図。
第3図は、本発明のプロセスにおいて具体化された容積依存膜組織受容体機構( Volusedependent membrane receptor 5c he+se)の概略図。
第4図は、第3図の機構の代わりに、本発明のプロセスにおいて具体化されたア クティビティ依存自己類似セル成長機構を示す図。
第5図は、本発明を具体化するマスキング・フィールドによって処理された2つ のタイプの感度を示す図。
第6図乃至第16図は、コンピュータ・シミュレーションによるマスキング・フ ィールド特性を示す図。
第6図は、シミュレートされたマスキング・フィールドF、のSTMに記憶され たF、における単一項目(0)に対するF2リスト・コード化を示す図。
第7図は、F、における単一項目(1)に対するF、リスト・コード化を示す図 。
第8図は、F、における単一項目(2)に対するF2リスト・コード化を示す図 。
第9図は、活動化サイズの減少順において2つのF、項目(0,1)についての F2リスト・コード化を示す図。
第10図は、マスキング・フィールドが同じ項目の異なる順序く。rderin g)間を識別することを示し、F、における2つの項目(0,1)についてのF 2リスト・コード化の例示である。
第11図は、減少順において3つのF8項目(0,1,2)に対するF、リスト ・コード化の例示である。
第12図は、項目サイズにおける順序(1)、(2)、(0)により、3つのF 3項目(0,1,2)に対するF2リスト・コード化の例示である。
第13図は、活動化サイズの増加順において3つのF、項目(0,1,2)に対 するF 、 S T Mリスト・コード化を示す図。
第14図は、入力項目(0)に対するサブリスト分類を示し、LTM学習により 更新されたF、リスト・コード化の例示である。
第15図は、F1項目(0,1)に対するサブリスト分類を示し、LTM学習に より更新されたF、リスト・コード化の例示である。
第16図は、F5項目(0,1,2)に対するサブリスト分類を示し、LTM学 習により更新されたF2リスト・コード化の例示である。
第17図は、マスキング・フィールドのF2ノードの間の相互作用の例示である 。
第18a図は、X、アクティビティの大領域上について、STMアクティビティ Xlのサンプリング信号f (x、)の線形より高速な増加のグラフ、 第18 b図は、X、アクティビティの大領域について、STMアクティビティX、のサ ンプリング信号f(x+)のしきい値−線形の増加のグラフ。
第19図は、学習が、F2における好ましいリスト・コードを選ぶために、適応 フィルターをバイアスさせる方法を示し、第14図と第15図と同じ入力項目を 使用する適応鋭化リスト・コード化によるコンピュータ・シミュレートされたマ スキング・フィールドの例示である。 。
第20図は、第16図の入力項目と他の入力項目に応答するコンピュータ・シミ ュレートされた適応鋭化を示す図。
第21図は、学習によるF2LTM強度における時間の経過による変化の例示で ある。
第22図は、F、について広汎から焦点へのフェーズ2の活動化の遷移を示すコ ンピュータ・シミュレーションの例示である。
第23図は、異なる学習速度の下でF、においてSTMに記憶されたリスト・コ ードを示すコンピュータ・シミュレーションの例示である。
第24図は、フェーズ1バースト問題を無くす励起及び抑制経路を示す概略図。
第25図は、F2の内部フィードバック経路として第24図の抑制及び励起経路 を示す概略図、 第26図は、フェーズ1バースト問題への別の構造的解決法を 示す概略図。
奸tkU大施皿檄々脱咀 本発明は、マスキング・フィールド(masking field)と呼ばれる 実時間神経ネットワークモデルの更にそれ以上の開発である。マスキング・フィ ールドは、多重スケール、自己類似、自動的ゲイン制御協同競合フィードバック ネットワークである。それは、その特性が、実時間音声認識、視覚対象認識、及 び認知情報処理中に、大クラスの圧縮認識コードが確立される方法を理解するた めに有益である連想記憶の如く作用する。
マスキング・フィールドが向けられてい圧縮コード化又は成分化プロセス(eh unking process)の1つの例が、第1図に示されたニス・グロス ベルブ(S、 Crossberg)の適応共鳴理論(^daptive Re 5onance Theory)のマクロ回路内で行なわれる。このマクロ回路 は、聴覚媒介言語プロセス(レベルA、)、視覚認識プロセス(レベルV*)、 及び言語生産のための運動神経(motor)制御プロセス(レベルM、)の組 み合わせを経て、言語認識及び再現プロセスの自己組織を制御する。これらの段 階は、内部的に条件可能経路(黒線)を経て、そして外部的に自己生成前の環境 媒介聴取者フィードバック(破線)を経て相互作用する。
理論内の段1iitA、とM、のすべては、同様の一般的ネットワーク法則に従 う、これらの法則は、各レベルにおいて存在するノード間の協同及び競合相互作 用を説明している。そのような協同競合相互作用は、ネットワークレベルにセル 活動化の特性と短期記憶(STM)を賦与する。異なるレベルは、2つのタイプ の因子によりSTMの特殊化された特性を示す、即ち、内部連結における差と、 各レベルにおけるセルの他のパラメーターである。事実、全ネットワーク階層( heiarchy)の異なる位置内で発生することによって、異なるレベルは、 異なるタイプの入力を受信する。この理論の1つの課題は、どのようにして非常 に多様な37M特性が、特殊化セル間配線図を選ぶことによって、少数のSTM 法則から生成されるかを示すことである。
理論内の学習(learning)及び長期記憶(LTM)プロセスのすべては 、相互レベル間経路において発生する。これらの学習プロセスのすべてはまた、 同様の動的法則に従う、それらは、全ネットワーク階層内におけるそれらの異な るパラメーター選択と異なる位置により、異なるタイプの情報をコード化する。
本発明は、このネットワーク階層の設計レベルA4に焦点を当てる。
マスキング・フィールドと呼ばれるレベルA4は、レベルA3<一ついて時間と ともに明滅する活動化パターンの文脈依存(context−renri Li ve)コード化を生成する。A、についての活動化パターンは、A3からA4へ の、適応フィルター又は条件可能経路を経て、A、に影響を与える。A3からA 、への結合の発達成長規則とA4内の結合の成長規則により、A4が、A3のア クティビティ・パターンの文脈依存分析を達成することを可能にする方法を説明 する。最初に、A、によってコード化されるA3についてのアクティビティ・パ ターンの意味を明確にするために、簡単な再検討が、レベルA3、A7、とA、 の特性に与えられる。
発達の初期段階において、第1図の段階A、における環境的活動化聴覚パターン は、A、からA、への経路内で、適応重み(adaptive weights )又は長期記憶(LTM))レースをチューニング(yune) L始める。こ れはまた、A2についての短期記憶(STM)IN覚[特徴検出器(Featu reDetector) J活動化のパターン化の変更を開始する。LT−Mチ ューニング・プロセスの開始後、それは、「バブリング(babbl ing)  Jフェーズによって補なわれる。運動神経コマンド段階M1の内生的活動化が 、簡単な言葉表現を引き出させるのはこの「バブリング」フェーズ中である。
これらの言葉表現は、A、→A2経路をチューニングできるMlからAIへの環 境フィードバックを生成する。フィードバック経路M1→A、→A2内の学習( learning)は、調音必要要件に対して聴覚感度をチューニングするのを 助ける。
A、についての聴覚パターンが、A、→A、のLTM)レースをチューニングす るのとちょうど同じ如く、M、についての内発的活動化運動神経コマンド・パタ ーンは、M、→M2のLTM)レースをチューニングする1M2についての活動 化パターンは、A2についての活動化パターンが、Aについての内発的活動化聴 覚パターンを「聴覚特徴(anditory featuers) Jにコード 化するために使用する同じ機構を使用して、M、についての内発的活動化運動神 経コマンドを「運動神経特徴(motor featuers) Jにコード化 する。
適応信号化の流れは、A、からA、へ、及びM、からM、へのボトムアップでは ない、A2からAIへ、及びM2からM、へのトップダウン条件可能信号も存在 する。これらのトップダウン信号パターンは、学習された期待を表わす、これら の最も重要な役割は、適応経路A1→A2とM、→M2内で進行する学習を安定 イヒすることである。それを行う際、これらのトップダウン信号パターンはまた 、曖昧又は新しいボトムアップ信号に応答する最適期待値の読み出しを構成する 。これらの最適期待値は、システムが、過去の経験に基づいて、A、又はM、に おいて見い出すことを期待されるパターンを予測する。予測及び実パターンは、 実及び期待情報の混合である完了複合パターンを形成するために、A、とM、に おいて併合される。
聴覚(^uditory)及び運動神経(motor)特徴は、A2からM、へ の連合マツプを経てリンクされる0M、が内発的に活動化される時、それは、適 応経路M、→M、を経てM2において運動神経表現を活動化し、そして環境フィ ードバックM、−A、プラス適応経路Al−4A2を経て、A2において聴覚表 現を活動化する。従ってA2とM2は同時にアクティブであるから、関連マツプ AI−+M、が学習されることができる。このマツプはまた、聴覚調音特徴をリ ンクする。
関連マツプA、→M、は、新しい音、特に非自己生成前の模倣を進行させること ができる。それは、新しい音をボトムアップ聴覚経路A、→A。
を経て分析し、関連マツプA、→M2を経て聴覚特徴検出器の活動化パターンを 特徴検出器にマツプし、そしてそれからトップダウン運動神経テンブレー)M2 →M1を経て運動神経特徴パターンをM、における純運動神経コマンドにシンセ サイズすることによって、それを行う、このようにしてシンセサイズされる運動 神経コマンド又は共同作用(Synergy)は、システムによって現在コード 化されている音のいずれよりも新しい音により近い音を生成する。また、学習さ れたマツプA、→A2→M2→M、に続いて行われるMlからA1への環境フィ ードバックは、閉フィードバック・ループスは「循環性反応(circular  reaction)」(ビアジェ、J。
著、「子供における知能の起点」、ニューヨーク:ツートン、1963年、を参 照)を規定する。
段階A、とM2は、各々、一度に聴覚又は運動神経特徴のただ1つの空間的パタ ーンを処理することができる。こうして、A、は、音声スペクトルの狭い時間ス ライスから導出される聴覚「特徴コード(feature code)」を処理 し、そしてM2は、同期的に同等の筋肉収縮の単純な運動神経共同作用を制御す る。これらの特性は、ネットワークノードのフィールドを横切るアクティビティ の空間的パターン即ち分散パターンが実時間ネットワークの計算単位であるとい う事実の結果である。これらの計算単位は、グロスベルブ、S、著、「心と頭の 研究:学習、知覚、発達、認識、と運動神経制御の神経原理J、ボストン:リー デル・プレス、1982年、に詳述された如く、ネットワークを支配する関連学 習法則の数学的結論である。第1図における後のレベルA、とMJは、すべて、 空間的パターン構成ブロックの時間的分類又はリストに対して識別と想起表現を 構成するために向けられる。
A2についてのアクティビティの空間的パターンは、瞬間的にA、を活動化して いる聴覚パターンを表わすA2の「特徴検出器」のすべての相対的重要度をコー ド化する。Axについての各空間的パターンは、A2からM2への関連マツプを 活動化することに加えて、A2からA3への適応経路を活動化する。理論の適応 経路のすべては、同じ法則に従うが、各経路は、ネットワークにおけるその位置 によって、異なる情報を学習する。A2からA、経路は、A、についての特徴パ ターンによって活動化されるので、経路は、これらの特徴パターンの圧縮識別コ ード又は成分(chunks)の形式において学習された表現を構成する。各そ のような表現は、項目表現と呼ばれる1項目表現は、音素の表現を含む。
項目表現についてのすべての新しい学習は、A2→A、の適応経路のしTM)レ ース内でコード化される。各項目表現は、A、についての活動化のパターンとし て表わされるが、これらの項目表現の学習は、A、内では行われない0例えば、 一連の音パターンがAIを活動化する時、A2についての「聴覚特徴」活動化の パターンは、一種の映像的(iconic>記憶を経て構成されかつ急速に崩壊 する(スパーリング、G、著、「簡単な視覚表象において利用可能な情報」、心 理学研究論文、1960年より)、更に、これらのA2活動化パターンは、A、 を横切る項目表現(i tets representation)の活動化が 行われる9項目表現は、A、内のフィードバック相互作用により、一種の[作業 記憶側orking MeLIory)」(r人間の記憶における処理レベル」 、サーマツク、L、S、とフレーク、F。
(編薬)、ヒルスプール、NJ:エルバウム、1979年〉としてSTMに記憶 される。A3を横切る一連の項目表現はSTMに記憶されるに従って、A3を横 切る87Mアクティビティの空間的パターンは、A、の項目表現を横切る「時間 順序情報(Te+5poral 0rder Information)」を表 現する。
多数の項目が提出されるに従って、A、を横切るアクティビティの発展空間的パ ターンは、いくつかの最大長さまでの項目フィールドの大領域を含む、こうして 、項目の時間的処理は、A、における一連の拡大する空間的パターンに変換され る。これは、何故視覚処理に適用される空間的機構がまた、音声処理に対するマ スキング・フィールドA4を設計するのに使用されることができるかの主な理由 である。
A、を横切る各アクティビティ・パターンは、それ自身の権利で文脈依存計算単 位である。そのような表現において、任意の1つのアクティビティを変化させる と、項目の全体リストのコード化された意味が変化する。このため、アクティビ ティ・パターンは、コードであり、そしてそれを規定するために、さらに他のラ ベル又はアルゴリズムは必要とされない、しかし、コードが作用する法則の3つ のセットがある。
1番目は、項目が、A、を横切る活動化の空間的パターン化を経て、時間的順序 情報を確実に表現できる法則である。スティーヴン・グロスベルブは、「人間の 記憶の理論:感覚運動神経コード、マツプ、とプランの自己組織と運用」、理輪 生、学における進 、アール・ローゼンとエフ・シュネル(@a)=第5巻、ニ ューヨーク:アカデミツク・プレス、1978年、及び「短期記憶における行動 対照:逐次バイナリ−記憶モデル又は並列連続記憶モデル」、致Tn豪児Y省雅 誌、1978年、において、安定LTMコード化と両立するA、に対するSTM 法則を導出するために、rLTM不変性原理(LTHInvariance P r1nciple) Jを導入した。この原理は、新項目の提示に応答して、前 の項目の87Mアクティビティを変更する方法を示し、その結果新項目によって 引き起こされる87Mアクティビティの再パターン化は、古い項目分類に対する LTMコードをうっかり抹消しない0例えば、ワードrmyselfJを考える 。’myJ、rself」、とrelf」に対するLTMコードは、ネットワー クが、新ワードrmyselfJを学習しているからといって抹消されるべきで はない、他方において、分類’m3’J、rSelfJ、とrelf」の予測の 重要度は、リストrMyself」内のそれらの一時的埋め込みによって減少さ れる。従って、A、は、次に述べる旦工yZ3むυ胆1を満足するように設計さ れる。
STMにおける時間順序情報の空間的パターンは、新項目がAsを活動化する時 、過去の分類によって引き起こされたSTMの活動化がA4を横切って著しく変 化するとしても、過去事象分類のA3→A4のLTMコードを不変にしておく如 き方法により、逐次的に提出されたリストによって生成される。
A、を横切り適切に設計された協同競合相互作用は、機械的にこの原理を実現す る0本目的のために、A3内の項目表現の同一セットを横切る、異なる87Mア クティビティ・パターンは、これらの項目の異なる時間順序をコード化する。L TM不変性原理に基づ<A2設計は、また、種々の他のデータを分析かつ予測す るために使用された。(グロスベルブ、S6著、「人間の記憶の理論:感覚運動 神経コード、マツプ、とプランの自己組織と運用」、理−・−にお番る゛ 、ア ール・ローゼンとエフ・シュネル(@集)、第5巻、ニューヨーク:アカデミツ ク・プレス、1978年;「短期記憶における行動対照:逐次バイナリ−記憶モ デル又は並列連続記憶モデル」、’fi!3m昼lヱ@誰薩、1978年;及び 「行動における逐次順序の適応自己組織:音声、言語、と運動神経制御」、 と  、によるパターン切= 1^: 、イー・シー・シュワップとエッチ・シー・ ナスバウム<aaS> 、ニューヨーク:アカデミツク・プレス、1986年、 及びグロスベルブ、S、とストーン、G、0.著、「短期記憶における注意切り 替えと時間順序情報の神経勧学」、記箆ζ認翅、1986年出版1を参照)。
次に、コードが作用する法則の第2及び第3セツトを記述する。これらの法則は 、どのようにそれぞれ、ワードの如く完全リストの圧縮又は単位化表現が学習さ れかつ実行されるか、どのような項目が、A、によって単位化される前後に、リ ハーサルされかつ想起されるかを支配する。
これらの法則の背景を通して、新しい音の総合による分析が、複合マツプA1→ A2→M2→M、によって達成されたとする。そのようなマツプは、A2を横切 る聴覚特徴の新しいパターンと、M2についての運動神経特徴の新しいパターン を生成する。その時、これらの特徴パターンは、A3とM3における単位化項目 表現の学習をトリガーできる。これらの単位化表現は、ネットワークが、「バブ リング(bubbl ing) Jフェーズ中にこれらの特徴パターンを内発的 に活動化しないとしても、学習されることができる。このようにして、ネットワ ークの学習された項目コードは、模倣、自己生成発声、STM再分類、とLTM 単位化の組み合わせによって、さらに複雑な構成に発展し続ける。新しい単位化 項目表現の間の連合マツプ(assoeiative map)A3=M3もま た、学習され続ける。
ネットワークが音声ストリームを処理する時、それは、A、の項目表現を横切る 、時間順序情報の発展する57Mパターンを確立する。リストのすべてのサブリ ストは、また、リストであるので、A、からA4への条件付けられる経路は、音 声ストリームが時間を通して提出される時、感知するサブリスト分類のすべてを 同時に「見る」又はフィルターする。
それから、A4内のマスキング・フィールドは、これらのサブリスト分類のどれ がA4J二おけるSTMに記憶されることによってリストを表現するかを決定す る。
これらのサブリスト表現は、ワードの認識に寄与する(グロスベルブ、S、とス トーン、G、0.著、「ワード認識と想起の神経勧学:注意プライミング、学習 、と共鳴」、必皿工圧准、1986年出版1を、それら自身では、想起を引き出 さない、これは、なじみの項目のどのような短い新リストが、単位化の前も想起 できるかの問題を提起する。まず、言葉単位が、項目表現とリスト表現の両方を 有することができること留意0次に、なじみの項目の短い新リストの想起(re call)が、A、への非特定リハーサル波によってトリガーされることに留意 、(グロスベルブ、S、著、「人間の記憶の理論:感覚運動神経コード、マツプ 、とプランの自己組織と運用J、F!!U −におけ ゛ 、アール・ローゼン とエフ・シュネル(編A)、第5巻、ニューヨーク:アカデミツク・プレス、1 978年、及び[逐次バイナリ−記憶モデル又は並列連続記憶モデル」、* 籐 介y)祉誰、1978年)、そのような波は、アクティブ項目の出力信号をA、 からM、に放出可能にする出力ゲートを開にし、最もアクティブな項目表現は、 アクティブさが劣る項目表現の前に読み出される。各項目が読み出されると、そ の項目表現を選択的に抑止する負のフィードバック・ループをそれ自身に対し活 動化し、これにより次の項目表現を読み出し可能にする。各項目表現は、学習さ れたA3→M3→M、→M1の感覚運動神経マツプを経て想起される。
このタイプの想起は、単位化項目表現のリストのSTM又は作業記憶からの即時 想起である。それは、LTMからの「自動的(into+matie) J単位 化想起であるよりもむしろ、「制御化(control 1ed) Jプロセス のタイプである。A4における単位化リスト成分(chunk)が、LTMがら 運動神経コマンドのリストを読み出すほうほうを学習するために、その成分は、 全運動神経コマンドへの経路をサンプリングするために、学習プロセス中、充分 に長くアクティブでなければならない、どのように項目表現を横切る時間順序情 報が、LTMにコード化されかつそれがら読み出されるかの最も簡単な実現にお いて、A、からA、への条件付けられる経路が、チューニングされている間、A 4からA、のトップダウン・テンブレー1・は、この情報を学習する。A4にお けるリスト成分(list ehaunk)の後の活動化は、このLTM時間順 序情報を、A3の項目表現を横切るSTM時間順序情報のパターンに読み込む、 この時のリハーサル波の活動化は、リストをSTMの読み出しを可能にする。こ れにより、単位化想起(unitized recall)が、学習されたA、 →A、→M3→M2→M1の感覚運動神経マツプを経て発生する。
この背景により、マスキング・フィールドA、の設計を、今、詳細に説明する。
マスキング・フィールドのコンピュータ・シミュレーションに使用される数学的 関係を、つづいて概念的に説明する。マスキング・フィールドは、適応分類問題 を解決するための実時間ネットワークモデルである。一連の項目が時間的に処理 されると、マスキング・フィールドは、リスト表現の選択を更新し、優先パラメ ーター選択の組み合わせと過去の学習に基づいて、項目列を連想(conten t−adressable)圧縮サブリスト選択の予測分類に分析する。A3の 項目表現を横切る87Mアクティビイの空間的パターンは、A4によって分類さ れる入力を提供する。
さらに項目が提出されると、いくつかの最大リスト長さまでのAコの項目フィー ルドの大領域を含む新空間的パターンが、登録される。こうして、項目の時間的 処理が、A、によって、一連の拡大する空間的パターンに変換される。
これは、絵により第2図に示されている0項目フィールドF、は、A。
の項目表現を横切る87Mアクティビイの空間的パターンから、マスキング・フ ィールドF2によって受けとられる。マスキング・フィールドF、は、項目フィ ールドF1内の多重分類(multiple grouping)を同時に検出 し、そして重み(weights) 20.22.24をこれらの分類に対する 圧縮表現又はコードに割り当てる。それぞれの重みを有する分類は、項目フィー ルドの文脈とシステムの前の学習に関して入カバターンを予測する。
ワードrrnyself」の例が、ここで示される。この場合ワード’frD’ J、rself」、とrelf」は、ワードrmyself」を含む項目フィー ルド内の多重分類である0部分’m:YJとrselfJは、relf、1より もワードrmyself」のより顕著な部分であることが予測されるために、大 きな重み(weight)が、ワードrelf」よ・りも部分’m3’Jとrs elfJに割り当てられる。この予測は、項目フィールドrmyself」の文 脈、及び先行の学習又は類似ワードと文脈との親密性に基づく、さらに、ワード 「my」で終了する項目フィールドは、分類の1つのセットを生成し、そして完 全ワードrmyselfJの包含へと進む項目フィールドは、前の分類に取って 代わる分類のセットを生成する。
同じことは、rmyself」の如きワードが、聴覚的よりもむしろ視覚的に提 出される時成り立つ、その時、問題は、視覚対象認識と図地分割(figure −ground regmentation)の1つになる。Eの如き文字は、 視覚項目フィールドにおける項目として、「L」と「F」の如き文字を含むため に、問題はまた、視覚又は聴覚処理の精練レベルに存在する。マスキング・フィ ールドは、多重空間的スケールの範囲を定める多重パターン分類を感知すること ができ、そしてこれらの分類の各々に、これらの分類の短期記憶(STM)表現 又はコードにおける適切なコード化重みを割り当てる。
この特性が与えられると、マスキング・フィールド設計の原理は、適応フィルタ ーF + = F zを経て、項目フィールドF、をマスキング・フィールドF 、に関連させて述べることができる。
マスキング・フィールドF2は、逐次マスキング原理に従って、適応フィルター F1→F2から入カバターンを受けとる。逐次性弧匹旺吐ヱみ炙ZA度風は、次 の如く述べられる。即ち、項目フィールドF、の広範囲領域は、広範囲領域がよ り強力なマスキング・パラメーターによりF2におけるノードを選択的に励起す る如き方法で、F、−F2経路によってフィルターされる。
言い換えれば、マスキング・フィールドF2は、A、から受けとる項目フィール ドの空間的周波数又はスクールに敏感である0項目の空間的周波数は、また、空 間的スケールと共に、多重スケールを意味することが意図される。規定された空 間的スケール範囲に選択的に感知する7、8.9の如くマスキング・フィールド (第2図)におけるノードは、それぞれ、マスキング・サブフィールド12.1 4.16を規定する。各マスキング・サブフィールドは、論述された単純な神経 単位の成長規則によって決定される数値パラメーターの異なる選択によって特徴 付けられる。
サブフィールド14の如く、そのセル個体数が広範囲の空間的スケール及び/又 は多数のコード化位置を有するサブフィールドは、サブフィールド12と16の 如く、狭範囲の空間的周波数スケールと少数のコード化位置を有するサブフィー ルドのSTMアクティビティを競合的にマスクする。
項目フィールドF、とそれ自身のノード7.8、と9の間の結合のために、マス キング・フィールドF2が従う神経単位成長の規則は、FlからF2への空間的 傾斜に沿った結合のランダム成長と、F2内の自己類似アクティビティ依存ノー ド成長と、保存されたシナプシス位置に対して競合するF2の間の細胞間相互作 用とを含む。
これらの成長規則は、任意数のネットワークレベルによって従われることができ るので、マスキング・フィールドは、その連続するレベルが、項目フィールドF 1のさらに抽象的な分類を検出しかつ操作することができるコード化された階層 F、→F2→Fs→・・・F7にリンクされることができる。
この論述を通して明確さのために、項目フィールドF1は、「項目(item)  Jレベルと呼ばれ、そしてマスキング・フィールドF2は、「リスト(l 1 st) Jレベルと呼ばれる。これらの抽象的用語は、2つのレベルF。
とF、の動的特性と一致し、そして知覚及び認知処理中に発生するコード再組織 の文脈依存を適切に取り扱うことのない−「ワード・レベル(word 1ev el)」と「文字レベル(letter 1evel) Jの如く一代替的術語 の落とし六を避ける。
成長規則を理解する際に、幾つかの特性が暗に含まれている。即ち、(A) 表  (Se uenee Re resentation :最大列長までの全実 現可能項目列(ite輪52quenees)は、初期的に、マスキング・フィ ールドにおいて、ある差分反応を生成するが、しかし弱い。
(B) に マス ン ・パーメー −:マスキング・フィールド・ノードの限 界マスキング・パラメーターは、それらを活動化する項目列の長さと共に増加す る。この規則は、最適列長に達するまで保持する。
(C)マスキング 層ll1askin Rierareh ):与えられた項 目列によって活動化されるノードは、この列の部分列(subrequenee s)によって活動化されるノードをマスクすることができる。
(D ) M (Se uenee 5electivit :ノードのトリガ ー列が、長さnを有するならば、それは、nよりもかなり小さな長きの列によっ て微いき上(supral 1m1nally)では活動化されない。
特性(A)と(B)は、F1→F、経路が、マスキング・フィールドに亙って広 く散在する多数の結合を含むことを示唆する。特性(C)は、密接に関連した列 が、マスキング・フィールドにおける近くのセルを活動化することを示唆する。
(D)は、多数の結合にも拘わらず、長い列のセルのチューニングが、それらを 短い部分列に応答することから防止するという意味であると仮定する。
主な問題は、多数の結合と列選択性との間の設計上の緊張問題を解決することで ある。この緊張(tension)は、複列ノードと長列ノードの両方に対して 解決されなければならない0本出願人は、F、→F2におけるランダム成長規則 とF2内のアクティビティ付随自己類似成長規則の均衡のとれた組み合わせが、 この設計の緊張問題を解決することを発見した。これらの成長規則の相互作用は 、次により最も良く理解される。
F、における各項目ノードが、非常に多数のランダムに分布された経路をF2に おけるリスト・ノードの方に送出するとする0項目ノードは、小さな確率Pを有 する列ノードにランダムに接触するとする8項目ノードよりもさらに多数のリス ト・ノードが存在するので、この確率は小さい、λを、列ノードのすべてに互る そのような接触の平均数とする。その時、正確にに経路が、与えられた列ノード に接触する確率は、ポアソン分布によって与えられる。
I Kが、K〈λ〈K+1として選ばれるならば、P、は、1≦に≦にの時、kの増 加関数であり、そしてに≧にの時、kの減少関数である。^が充分に小さい(約 4)ならば、(1)は、長さに≦にの列が、マスキング・フィールド内に再提出 され、これにより特性(A)と(B)を満足することを意味する。超幾何分布の 如き関連ランダム成長規則は、また、類似特性を有する。
経路の広くかつランダムな分布により、リスト・ノードは、それらのサブリスト に対応するノードの近くに密集する傾向があり、これにより特性(C)を満足す る傾向がある。さらに他の特性は、また、特性(C)を満足することを必要とさ れる。長リスト・ノードは、そのサブリストのすべてをマスクする傾向があるの で、そのようなノードは、これらのサブリストをコード化するノードのすべてに 抑制信号を送信することができなければならない、こうして、F2ノードにおけ る相互作用範囲(軸索)は、第2図に示された如く最大に感知するリストの長さ と共に増加しなければならない、これは、自己類似成長(Self−Si+*1 lar にrowth)の原理と呼ばれる。
特性(D)を実現するために、Fからに経路を受けとるF、ノードは、各経路に おいて入力を希釈し、その結果(はとんど)すべてのに経路は、しきい値上の応 答を生成するためにアクティブでなければならない、kが増加する時、希釈の量 もまた増加する。この特性は、大容量が、単一の信号出力経路により信号をより 効果的に希釈することができるので、長リスト・セルが、大細胞容量を有するこ とを示唆する。大容量はまた、他のものが等しい時、より多くの経路がセルの表 面に到達することを可能にする。これにより、長リスト・ノードが、位置と空間 的スケールの数の如く大パラメーターに関連する制約は、大表面領域を含むよう に拡張される。この結論は、マスキング・フィールドを設計する際に自己類似性 原理の重要性を再確認する。ノードは、これらの相互作用を支持するために大ノ ード体を有するので、長い相互作用(軸索)を有する。
その結果、4つの正式な特性(A)−(D)は、神経単位成長の単純規則の組み 合わせによって、マスキング・フィールドの設計において実現され、この場合多 数のランダム成長は、シナプシスの位置に対する競合によって制約されるF、内 のアクティビティ依存自己類似成長を誘導するF、からF2への空間的傾斜に沿 って発生する。
まだ実験的に検査されていないこの特性を達成する2つの主な方法が、コーエン 、M、A、とグロスベルブ、S、著、「音声及び言語コード化の神経動学:発達 プログラム、知覚分類、と短期記憶に対する競合」、人間神経生物学、1986 年、によって記載されている。2つの方法の組み合わせも可能である。1つの方 法は、経路が、第3図に示された如< F rからF、にランダムに成長する時 、はぼ同一サイズで起こりかつ成長するF2ノードによる。F+hFz経路は、 可変量のノード成長を引き起こす可変レベルのF、ノード活動化を生成する。第 2のa楕は、第4図に示された如く、容量依存膜受容体を有するF、に依存する 。F2のノードは、種々のサイズを取り、そして膜シナプシス位置の数は、ノー ドの励起を防ぐためにノード位置と共変する。
マスキング・フィールドF2は、項目フィールドF1におけるアクティビティ・ パターンの多重空間的スケール又は空間的周波数分析を行うことによって、項目 フィールドF2の分類のコード又は単位化表現を選択する。この分析は、正しい 分類を高め、そしてF3項目の不適当な分類を競合的に抑制又はマスクする。特 に、マスキング・フィールドF2は、「全体(wholes) Jを1部分(p arts) Jと混乱せず、適当な入力文脈において、なじみの1部分」がそれ 自身で「全体」として現れるのを可能にする0例えば、ワード「my」とrse lf」は、それらが分離して提出されるか、又は−緒に提出される時rmyse lfJ内の1部分」として処理されるならば、「全体(wholes) Jとし て処理される。
F才を横切る高められなF、87Mアクティビティの空間的パターンは、入力ス トリーム(項目フィールド)を表現する単位化コード又は仮定を具体化する。以 下にさらに詳細に記載されている如く、このコードは、利用できる証拠に基づい て、まだ充分に発生していない分類にアクティビティを割り当てることによって 、後続の事象を予測又は予想することができる。こうして、マスキング・フィー ルドは、実時間予測、又は証拠収集の連想記憶機械として作用する。逐次プログ ラム又は認知規則構造は、これらの特性を達成するために、マスキング・フィー ルド内に存在しない0代わりに、マスキング・フィールド・ノードは、第17図 に示された分路(質量作用)、中心オン周囲オフ(on−center off −surround)(協同競合)再発(フィードバック)相互作用を受ける膜 方程式に従う、マスキング・フィールドF、の37Mコードは、これらの相互作 用の開発的特性である。
第17図において、F、のりスト・コード5は、項目フィールドF1の項目ノー ドの分類3のコード又は単位化表現を受けとる。リスト・ノード5は、正のフィ ードバック相互作用6によりそれ自身と、そして負のフィードバック・ライン2 1によりマスキング・フィールドF2の他のリスト・ノードとリンクされる。こ れらの相互作用は、それらのフィードバックと協同競合設計により再発する中心 集中周囲離脱の相互作用である。リスト・ノード5と項目ノード3の間には、マ スキング・フィールドF2の長期記憶の適応フィルター17がある。適応フィル ター17は、適切な重み(weight) 15を各信号交差経路FI Fxに 割り当て可能にする。これらの重み15は、信号を過去の学習に基づいた信号の 予測重要度を示す量だけ掛は算する。積は、F2を横切る空間的アクティビティ ・パターンの一部分であり、そしてこれにより単位化コードの一部分である。
マスキング・フィールドF2によって行なわれる多重空間的スケール分析は、2 つの異なるタイプのパターン変化に感知する。rmyself」の如くリスト/ ワードが処理される時、’1’l’Jの如くサブワードは、完全リスト/ワード rmyselfJが経験される前に発生する。
第5a図は、このタイプの情報変化を図式化する。リスト/ワードが提出される 時、高く暗いバー要素として第5a図に示されたF、内の前の87Mアクティビ ティは、より短くより明るいカラー・バーとして示された後続の37M活動化に よって修正されかつ補われる。F、についてのS7Mパターンは、リスト・ワー ドが提出される時、(左から右に)発展する。ワードrmyselfJが、F、 内に完全に記憶された後、’myJ、rself」とrelf」の如く部分は、 全体の中になオ存在する。それから、マスキング・フィールドF2は、rmys elf」の残りが提出される時、「my」へのその初期応答を自動的に再スケー ルする。このようにして、マスキング・フィールドは、部分よりも全体リスト/ ワードを優遇することができる。
部分よりもむしろ全体リストの表現を優遇するマスキング・フィールドの能力は 、検出される全体リスト内の分類の各々の全体スケールへの感度から導出される 。この自動スケール特性は、マスキング・フィールドに部分よりも全体パターン を優遇することを可能にするが、パターンの一部分のみが提出される時、同じ全 体パターン・コードを優遇し続けない、さらに、フィールド感度は、部分自身に 新全体として応答し、その結果大パターンが実際に発生する時、大パターン・コ ードが優遇され、そして小パターンが発生する時、小パターン・コードが優遇さ れる。
マスキング・フィールド分析の第2の感度は、内部パターン微細構造への感度で ある。これは、2つのワード「レフト(left)Jと「フェルト(felt) 」によって示されている。2つのワードは、項目表現の同一セット−例えば、文 字rl、J、rEJ、「F」とr’l’Jに対するコードは、異なる項目順序− 例えば、L−E−F−TとF−E−L−Tによって活動化されるという問題を示 す、rleft」とrfelt」の両方がF、の同一空間的パターンを活動化す るために、項目フィーノにドF1についての2つのそのようなアクティビティ・ パターンを識別するためには、F、の異なる空間的パターンに対するマスキング ・フィールビF2内の感度は不充分である1代わりに、項目コード(即ち、文字 rfJ、「e」、rl、と「t」)の同一セットを励起する37Mパターンにお ける異なる項目に対する感度が、第5b図に示された如く、必要とされる0項目 の同一セットは、1つの暗い、1つの中間の、そして1つの明るいバー成分を有 する三つ組みによって示される。パターン微細構造に対する感度は、三つ組みの 各バーが、示された3つの異なる全体パターンにおいて自身の強度又は高さを有 することを可能にする。そのような感度により、個々の項目強度は、マスキング ・フィールドによって承認されかつ考慮される。
自動的再スケール(rescalling)と微@構造検出特性は、F2ノード の間の非線形フィードバック相互作用が、F2によって受けとられた入力をF2 の圧縮活動化コードに自動的に変形するような方法から導出される。このタイプ の非線形フィードバックは、先行技術の多数の代りの分類アルゴリズムにはない 、そのようなアルゴリズムの開発に対する最近の寄手における中心問題は、「パ ラメーター空間におけるオフビークの正投票を取り消すために「負投票」を使用 する方法を発見することである(ブラウン、c、m、、rツウ(Hough)変 形における固有バイアスと雑音」、パターン 、にお番るアメリ − Δ工上旦 旦旦と隨!緩、1983年)、関連したタイプの問題は、マスキング・フィール ドによって解決される。マスキング・フィールドは、正及び負のr投票(vot ing) Jに対するアルゴリズムを正及び負フィードバック相互作用を受ける 実時間網と置き換える。このため、本発明は、環境的予測特性を有する単位化分 類の安定学習を生成するために、F2内の非線形フィードバックの設計をF1→ F23iI応フィルターにおける非線形学習の適切なタイプと結合する。
マスキング・フィールドF1はまた、F、を活動化する事象のリスト内の1以上 の分類を同時に弁別することができる0例えば、マスキング・フィールドF2は 、全ワードに感知するF2ノード個体群を強く活動化し、かつ、ワードの最も顕 著な部分に感知するF2ノード個体群を弱く活動化することによって、ワードr myselfJのF+表現に応答する。
さらに−鍛的に、事象を単独に表現することによって、そして単位化構成として 、事象AとBの対に反応する。そのような表現において、F2を横切る全STM パターンは、p、37Mパターンを表現する。F2のSTMアクティビティの相 対サイズは、それぞれのF2ノード個体群によってコード化された単位化分類の 相対的重要度に重み付けする。
F、を横切るしきい値上のSTMアクティビティは、そのフィードバック相互作 用が、第17図に示され々正と負のフィードバックの間で競合するという事実に より、近似的に標準化又は保存される。こうして、F2を横切るSTMアクティ ビティは、実時間確率的論理、又は仮定検査アルゴリズム、又はマスキング・フ ィールドF2がF、についてのパターンについて有する証拠のモデルの如く機能 する。
さらに、マスキング・フィールドは、予測、予期又はブライミング能力を所有す る1項目フィールド感度を横切る単一項目に応答して、最も活発に活動化される マスキング・フィールドF2ノード個体群が、その項目をコード化する。さらに 、より活発でない活動化は、項目によって部分が形成された最も顕著な大分類を 表現するF、ノードにおいて発生する。それから、マスキング・フィールドは、 項目が、次の時間間隔中に部分を形成する発生大分類を予期又は予測する。
より多くの項目がF、によって記憶される時、F、において表現された情報に関 するF、の不確実性は、より予測的な全体パターンの出現により減少する。F2 の不確実性が減少するとき、F2を横切るSTMアクティビティの空間的分布は 、より集中され、又は空間的に局所化され、そしてより予測されない分類を含む 、このタイプの空間的鋭化(spaeial sharpening)は、F2 コード内の情報の不確実性の程度を測定する。
マスキング・フィールドのコンピュータ・シミュレーションの結果が、第6図乃 至第16図に示されている。多重パターン・スケールと内部パターン微細構造に 対するマスキング・フィールド感度が、第6図乃至第13図のコンピュータ・シ ミュレーションに示されている。これらの図は、本発明のマスキング・フィール ドによる分類の最も簡単なタイプを描いている。この実旅例において、F、を横 切る明確なSTMアクティビティ・パターンの各々は、F2内の37M記憶に対 し、F、における単一ノード又は個体群のノードを活動化する。即ち、マスキン グ・フィールドは、F+を横切るアクティビティ・パターンをF、内のSTM選 択に全体的に分類する。明確な選択は、微細構造におけると同様に、全体スケー ルにおいて変化するF、パターンに応答して行われ、これにより上記で要約され た特性を示す、同じ数値パラメーターが、これらのシミュレーションのすべてに 使用された;入カバターンのみが変化している。
学習(learning)は、長期記憶(LTM))レース又はF、→F、Fl における信号を掛は算する適応重み内で行われることが許容された。
第14図乃至第16図において、マスキング・フィールドの予測多重分類特性が 示されている。これらの図に示されたコンピュータ・シミュレーションにおいて 、F、を横切るアクティビティ・パターンの予測分類を含めて、マスキング・フ ィールドが、多重分類をコード化するSTM表現を生成する方法を示すために、 パラメーターの固定であるが異なるセットが使用された。これらのSTM表現に おいて、マスキング・フィールドは、Flを横切る全体S7Mパターンに最大に 感知するが、それは、また、このパターンのま著なサブパターン(「部分」)と スーパーパターン(「予測」)への部分的活動化を生成する。再び、学習は、F 、−F2経路におけるLTMトレース内で行われることは許容されなかった。
第6図において、F、における単一項目が、見出しr項目フィールド(Item  Field) 」の下でグラフ・ラインに示された如くアクティブである。
この項目は、F、における非常に多数のノードに対する正の入力を生成する。入 力サイズは、「入カバターン(Input Pattern) Jとラベル付け された3つの行においてバーの高さによって示される。各行は、F + b)ら の同じ数の経路を受けとるすべてのF2ノードをリストする。第1の行は、1つ の経路を受けとるF2ノードを含み、第2の行は、2つの経路を受信するF2ノ ードを含み、そして第3の行は、3つの経路を受けとるF2ノードを含む2行1 において、(i)とラベル付けされたセットにおいて各F2ノードは、i=0. 1.2111.4の時(i)とラベル付けされたF1項目ノードからの経路を受 けとる。4つのF、ノードが、(0)Flノードからの入力を受けとることに注 意0行2において、(0,1)とラベル付けされたすべてのF2ノードは、F、 ノード(0)と(1)からの経路を受けとる0行3において、(0、l、2)と ラベル付けされたすべてのF2ノードは、F、ノード(0)、(1)と(2)か らの経路を受けとる。
F、ノード(0)からの経路を受けとるF2ノードのすべてに対する入力は、正 である。第6図にはそのようなノードが44ある。この事実に拘わらず、STM において持続的にアクティブになることができるF。
ノードのみが、アクティブ項目ノード(0)からのみの経路を受けとるノードで ある。これらは、(0)とラベル付けされたF2ノードである。
すべての他のF2ノードの37Mアクティビティは、これらのF2ノードの多数 がまた、Flから大きな励起的入力を受けとるという事実に拘わらず、F2内の 競合的フィードバック相互作用によって急速に抑制される。F、ノードの平衡S TMアクティビティが、見出しrsTMにおけるリスト・コード(List C ode in STM) 」の下で3つの行にリストされる。
これらは、F2が、広範囲の入カバターンを集中しかつ適切なSTM活動化コー ドに変形することができるアクティビティである。各バーの高さは、そのバーに よって表現されたアクティビティの強度を示す、正のアクティビティは、各行■ 、II、とIIIのラインの上にあるバーとして示される。負のアクティビティ は、行ラインの下のバーとして示される。入カバターンに応答する正のアクティ ビティのみが、リスト・コードの行IにあるF2リスト・コードのO番目ノード であることに注意。
F2のSTMに記憶されるのは、コードのこの部分である。
さらに、第7図乃至第13図は、マスキング・フィールドのS7Mコード形成特 性を示す、これらの図の各々は、異なる入カバターンに対するネットワーク応答 を表現する。第7図と第8図において、F、における異なる項目が活動化される 。各項目が、F2に対する広範囲の入カバターンを生成する。各入カバターンは 、集中STM活動化へコントラスト向上されている。この87M活動化は、アク ティブ項目ノードのみから経路を受けとるF、ノードに制限される。
第6図、第7図と第9図の比較は、マスキング・フィールド勧学の自己スケール 特性を示す0項目(0)、(1)の時間的に順序付けされたリストが、FIによ って受けとられるとする。全体としてリストは、第6図における第1項目(0) 、又は独立に取られた第7図における第2項目とは異なる第9図におけるF、を 横切る空間的パターンを生成する。
このリストは全体的にまた別々にとったいづれかの項目よりもより多くのノード を活動化する。この事実に拘わらず、単−F2ノードのアクティビティのみが、 87M記憶される。さらに、このF、ノードは、F33項目0)と(1)からの み経路を受けとる(0.1)ノードの1つであるから、適切なノードである。こ うして、この比較は、F1ノードの小サブセットによって活動化されるF、ノー ドのアクティビティをマスクするために、非常に多数のF1ノードによって活動 化されるF2ノードのアクティビティを示す、これは、連想記憶(conten t−addressably w+ewory)としてF2が機能する際の重要 特性である。
第9図と第10図の比較は、異なる微細構造を有する項目パターンを識別するF 2の能力を示す、W図において、F11項目0)、(1)のセットは、活動化さ れるが、アクティビティの異なる空間的パターンが、項目に互って存在する。第 9図の空間的パターンは、項目(0,1)の時間的に順序付けされたリストを表 現するが、これに対して第10図の空間的パターンは、時間的に順序付けされた リスト(1,0)を表現する。
これは、項目(0)の強度が、第9図における項目(1)の強度よりも大きく、 そして第10図においては逆であることを示す、シミュレーションは、項目フィ ールドにおけるF1ノードの同−項目又は順序付けされていないセットを活動化 するとしても、F2が、これらのパターンに対し異なるS7M応答を生成するこ とができるから、全体として項目パターンに感知するのを示している。特に、第 9図と第10図において、異なるF2ノードは、項目(0)と(1)のみから経 路を受けとるF2ノードのセット内でアクティブになる。
第9図と第10図の間のこの比較は、F、を横切る空間的パターンが、ネットワ ークの計算単位であり、かつこれらの計算単位に対するF2の差分S7M応答が 、文脈依存リスト成分化プロセスを具体化するという主張によって意味している ものを明確にする。
第6図乃至第11図の比較は、これらのF2特性のより要求の厳しい変形を示す 0項目(0)、(1)、(2)の時間的に順序付けされたリストは、Flによっ て処理されるので、項目のすべては、第6図、第9図、と第11図における空間 的パターンが時間により発展する時、FIにおいて個々にアクティブになる。し かし、第11図における記憶されたS7Mパターンは、項目(0)、(1)と( 2)、又はグラフにおいてラベル付けされた如くセット(0,1,2)からのみ 経路を受けとるノードの1つである単−F、ノードに制限される。こうして、F 、は、構成項目であるよりもむし゛ろ、Flにおける全パターンの圧縮連想表現 を選択する。
第11図乃至第13図の比較は、第9図と′第10図の比較と同じ点であるが、 より要求の厳しい変形において行われている。第11図乃至第13図の各々にお いて、項目(0)、(1)と(2)の同−無順序のセットは、Flを横切りアク ティブであるsFlを横切る空間的パターンは、これらの項目の異なる時間的順 序付けを表現する:即ち、それぞれ、(0,1,2)、(1,2,0)と(2, 1,0)である。各図において、異なるF2ノードは、リスト・コードの第3行 に示された如く、活動化される。さらに、アクティブ項目ノードは、項目ノード (0)、(1)、と(2)からのみの経路を受けとるノードの1つであり、こう して(0,1,2)ノードとしてグラフにおいてラベル付けされる。こうして、 連想F2コードは、F、アクティビティ・パターンの微細構造に感知する。
第140乃至第16図は、パラメーターが、F+パターンの多重分類がF、にお けるSTMにおいてコード化可能であるように選ばれるマスキング・フィールド の反応を示す、同じ入カバターンが、第6図、第9図と第11図における如く使 用された。第14図乃至第16図の比較は、F1アクティビティ・パターンが拡 大する時、自動的スケール特性により、F2が、検出される分類のすべてに基づ いて、STM表現を更新することが可能になる方法を示す、第14図において、 項目(0)は、F、の(0)ノードを最も強く活動化するが、また(0)を含む 分類を表す他のF2ノードを弱く活動化する。(0)からのみの項目経路を受け とるF、ノードは、リスト・コードの行Iに示された約0.130の最大アクテ ィビティ・レベルを有する。(0)からの経路を含む、2つの項目経路を受けと るF2ノードは、リスト・コードの行IIに示された約0.07の最大アクティ ビティ・レベルを有する。(0)からの経路を含む、3つの項目経路を受けとる F2ノードは、リスト・コードの行IIIに示された約0.007の最大アクテ ィビティ・レベルを有する。
入カバターンに反映される。
第15図において、Flを横切る(0.1)空間的パターンは、F、の(0,1 )サブフィールド内のFノードを最も強く活動化するが、また、(0)からの入 力を受けとるF2の他のノー、ドを弱く活動化する。アクティビティ・レベルは 、リスト・コードの行IIにおける(0.1)ノードに対して約0.19であり 、そしてリスト・コードの行Iの(0)ノードに対して約0.072である。
第16図において、FIを横切る(0.1.2)空間的パターンは、約0.18 4のアクティビティを有するF2の(0,1,2)サブフィールド内でFノード を最も強く活動化する。それはまた、約0.004のアクティビティ・レベルを 有するF2の(0)サブフィールドを弱く活動化する。F2を横切るSTMアク ティビティ・パターンは、文脈情報が増加すると予測の不確実性を減らすために 、第14図から第15図、第16図へとより集中する。
前記では、マスキング・フィールドのSTM特性を示した。マスキング・フィー ルドはまた。長期記憶(LTM)において適応鋭化特性を所有する。
FIに対する任意のなじみのない入カバターンが、F、を横切るSTM表現を生 成する時、F、に対する同一パターンの後続の入力が、F2を横切る空間的に鋭 化された又はコントラスト向上された37Mパターンを生成するような方法で、 LTMは、このF1→F2対から学習する。特に、F2が、第6図乃至第13図 における如く、STMにおいて選択する時、適応鋭化特性を満足する学習は、こ の選択を確認するように作用する。
さらに一般的に、適応鋭化は、F、とF2との間の信号を適応的にフィルターす る経路における学習が、マスキング・フィールドの良好な前記線特性を破壊する のを防ぐ。学習は、マスキング・フィールドを有する適応フィルターの相互作用 により、初期決定を強調するが、単に同−F。
パターンの繰り返された提出により、この平衡を崩すことはない。
適応鋭化特性は、当技術のすべての連合学習法則によって明らかに満足されるわ けではない、これは、F2が、そのノードのすべてによって受信された入力の全 体的パターン化に基づいて、STM反応を自動的に再組織するためである。LT Mは、適応フィルターのF、→F、Flのすべてにおいて使用される単−LTM 法則に従う、LTM法則は、適応鋭化を有するFlとF、を横切るアクティビテ ィ・パターンのすべての可能な組み合わせに反応するが、F、→F、FlとF2 →F2相互作用の間の全体的平衡の破壊には反応しない。
LTM法則は、適応鋭化特性を保証し、そしてF、パターンの多重分類が学習に よって影響を受けることを可能にする。このため、FIを横切る規定パターンが 繰り返して提出されるならば、このパターンは、F2におけるSTMの最も顕著 な分類を優先的にコード化するために、適応フィルターをチューニングすること によって「なじみ(familiar) Jになる。Flにおける新しいスーパ ーセット・パターン、即ち、サブパターンとしてなじみパターンを含むパターン が、提出されるならば、なじみパターンのサブセット・パターン分類は、相補的 スーパーセット分類から密集して「離脱」する、その結果、スーパーセット・パ ターンは、共鳴する「部分」の37Mパターン、又はF2についての「構造的分 類」によって表現される。言い換えれば、先行の適応チューニングは、新しいF 1パターンが、F、パターンをなじみの分類の分布コードに分割するF2につい ての直接アクセスSTM反応を生成することを可能にする。
サブセット・パターンがしばしばF、に対し独自に提出されなければ、適応鋭化 特性1よまた、スーパーセット分類の繰り返された提出が、そうでなければ可能 なサブセット分類をしだいにマスクすることを可能にする。直観的用語において 、入力時間列の統計に依存して、なじみの部分の可干渉性セットが、全体を表現 するようになるか、又はより全体的な分割が、全体を表現するようになる。その 時、適応フィルターとマスキング・フィールドとの間の相互作用は、殆どの環境 においては通常失敗する前記線の分割規則を使用して環境を先読みしようとする のではなく、入り入カバターンをユニークな入力環境の統計から学習される構造 的関係に動的に組織化する。
本発明のコンピュータ・シミュレーションにおいて、本出願人は、適応鋭化特性 の完全バージョン(version)を要求した。第6図乃至第16図における 37M分類のすべてが与えられると、適応鋭化は、学習の開始前にSTMにおい て最大に優遇されたF7個体群を選ぶ、これを満足するLTM法則は、次の形式 を有する。
この場合ZJIは、項目フィールドF1における1番目のノード■、からマスキ ング・フィールドF2におけるi番目のノードV、への適応フィルターF、→F 2における適応重み又はLTM)レースである。Lは、F1からの入力である。
Xsは、F8のSTMアクティビティ・レベルである。
f (x、)は、X、の充分に大きな値によって活動化される非線形サンプリン グ信号である。そしてεとLは、定数である。
(1)に述べられた如き法則は、多数の現在の学習モデルに対する基礎であるヘ ビアン(Hebbian)連合前提条件を侵害する。ヘプ、D、0.著、「行動 の組織化」、ニューヨーク:ワイリー、1949年から、ヘブ前提条件1よ、次 の如く述べられる:「セルAの軸索が、セルBを刺激するに充分に近く、かつ、 繰り返して又は持続的に、それを発火する(firing)ことに加わる時、B を発火するセルの1つとしてのAの有効性が増加する如く、ある成長プロセスが 、1つ又は両方のセルにおいて起こる。」さらに、(1)における学習規則は、 r連合規則(associative rule) Jと呼ばれ、これによって LTM有効性は、相関したシナプシス前及びシナプシス後のセル・アクティビテ ィの時間平均の関数として変化する。
連合規則は、しばしば、ヘブ(Hebb)を祝して「ヘビアン(Hebbian ) 」規則と呼ばれる。しかし、異なる連合規則は、学習特性の異なるタイプを 質的に支持することができるので、この慣習は、連合学習の文献において混乱を 引き起こしたと信じられる。
連合学習(associative learning)の単位が、別のノード のアクティビティとのその相関が、ノード間の経路のLTM強度を増加できる単 一ノードのアクティビティであると仮定すれば、ヘブの公理は、もつともである ように見える。しかし、第6図乃至第16図によって必要とされる如く、連合学 習の単位が、ノードのネットワークを横切るアクティビティの空間的パターンで あることに同意するならば、異なる連合規則が、必要とされる。それから、Fl を横切る空間的パターンとF2におけるノードのアクティビティとの間の相関関 係は、FlからアクティブF2ノードへの経路のセットにおけるLTM)レース が、LTMへのアクティビティの全空間的パターンをコード化することを可能に する。この状況において、F、における非アクディプ・ノードvjは、F2にお けるアクティブ・ノードv1と相関する時、Zs+をゼロに接近させな1すれば ならないので、連合規則は、ノード・アクティビティ対の関数として、LTM@ 度の増加と減少の両方をコード化できる連合規則(associative r ule)が必要とされる。こうして、単一ノードからノードのネットワークを横 切る空間的パターンへの学習の機能的単位における変化は、ヘブの公理を侵害す る連合規則を必要とする。
学習規則(learning law) (1)の別の非クラシックな特性は、 サンプリング信号f (X、)が、第18 (a)図に示された如く、限定では ないが二次的に、線形より高速に、又は第18(b)図に示された如く、X、が ゼロの上に増加する時、しきい値−線形の様式で成長する非負関数である1式( 1)のサンプリング信号f(Xt>において、X、の値は、X、の大きな値より もzjLにおいてずっと遅い学習速度を決定する。その結果、初期のSTM利点 を得るF2ノードは、隣接するLTM)レースの学習を速めることによって利点 を非常に増大する。対照的に、アクティビティがゼロの下にあるF、ノードは、 X、=Oであれば、t (X、)=0であるから、それらの隣接するLTM)レ ースにおいて任意の学習をトリガーできない、この特性は、f(Xt)をサンプ リング信号と呼ぶことを正当化する。
(1)における状態依存学習速度f (Xs)は、目標アクティビティX、が、 F2の協同競合意志決定機構によって選ばれるLTMトレースZハのみにおいて 、学習が行われ得るという意味である9、そのF3項目が正の入カニ、を受けと るすべてのLTM)レースZJIは、F2へのそれらの経路においてそれらの入 力を掛は算することによって、F2の意志決定に影響を及ぼすことができる。対 照的に、ずっと少数のLTM)レースは、F2が受けとる入カバターンよりもず っと分散しない圧縮認識コードを選ぶという特性により、意志決定プロセスから 学習される。この意味において、適応F、→F、フィルターにより読み出される LTMと連合法則(1)によって読み込まれるLTMは、F2内の協同競合相互 作用の干渉により、少なくとも部分的に分離される。
出願人は、学習法則(1)が、第6図乃至第13図において記載されたSTM! !択のすべてを確認することを発見した。また、適応鋭化特性は、学習法則(1 )がFl→F、適応フィルターにおいて使用される時、STM選択に適応的に変 換される第14図乃至第16図の多重分類によって示される。
第19図乃至第23図は、学習プロセスが、各入カバターンに応答して限界に接 近する時、生成される平衡STM選択を示す、システムが常に平衡STM及びL TM値に接近するという事実は、STM(高速)とLTM(低速)プロセスとの 間のフィードバック相互作用が、設計の悪いシステムにおいては、容易に持続し た振動となることがあるので、基本的特性である。
完全動的システムにおいて、STMは、低速のLTM学習プロセスよりもより迅 速に入カバターンに反応する。完全動的システムに対する特異近似(Singu lar approximation)において、37Mアクティビティが平衡 値にほとんど達するまで、LTMが全く変化しないと仮定されている。
それから、LTM学習プロセスは、切り替えられ、そしてSTMとLTMの両方 は、共同して平衡に接近するまで、相互作用する。そのような特異近似を使用し て、ずっと高速のLTM学習速度(式(1)における大きなε)が、完全システ ムを使用して検出される平衡STM及びLTMパターンをあまり変化させること なしに使用される。こうして、特異システムのコンピュータ・シミュレーション は、完全システムが、平衡に達するまで、小さなεで統合されるシミュレーショ ンよりもずっと急速に行なわれる。特異近似を使用して適応脱化特性を確認後、 完全システムによるシミュレーションは、式(1)における学習速度パラメータ ーεの幾つかの異なる選択を使用して行われた。
第19図と第20図は、そのパラメーターのすべてが、学習速度εを除いて、第 14図乃至第16図のシミュレーションにおけると同じである特異システムにお ける平衡パターンを示す、第14図乃至第16図に対して、学習速度ε=0であ る。第19図と第20図において、εは、トされ、それから、完全システムが平 衡に接近することが可能であるように1に等しく切り替えられた。
第19a図、第19b図、及び第20b図と、それぞれ第14図乃至第16図と の比較は、適応鋭化特性が得られることを示す、第14図乃至第16図における 学習なしと、第19a図、第19d図及び第20b図における学習後のF2ノー ドに対する入カバターンの比較は、Fl→F2経路におけるLTM変化が、どの ようにF2ノードに対する全体入力を変更させるかを示す、さらに特定的には、 学習後、第19a図におけるリスト・コードの行II及びIIIには正のアクテ ィビティはなく、この場合、学習前、第14図におけるそれらの行にはアクティ ビティはあった。F+への入力は、行II及びIIIに正のアクティビティを残 さないリスト・コードの行■における(0)ノードにのみ対応すべきである単な る単一(0)項目であったので、これは、F2に記憶されるべきアクティビティ ・コードの正確な鋭化(Sharpening)である、マスキング・フィール ド入カバターンの同じ鋭化と結果のリスト・コードが、学習を有する第19d図 において示され、学習なしの第15図に比較される。第19d図において、マス キング・フィールド入カバターンの1つの(0,1)ノードは、他の2項目ノー ドよりも誇張されている。これは、リスト・コードにおけるノード(0,1)の 活動化の増加と、第15図におけるリスト・コードにおいて得られたアクティビ ティに関して、他のリスト・コード・ノードのアクティビティの減少に反映され る。さらに、第19図の誇張された(0.1)F2人力ノードを有する行IIは 、適応鋭化が、第15図におけるF2に対する入カバターンの行IIについて得 られることを示す、他方、第15図におけるF2に対する入カバターンは、他の F2人力ノードに関する任意の1つの(0,1)ノードを強調せず、そして(0 ,1)のF、入力に対してより曖昧なリスト・コードを生成する。同様に、第2 0b図におけるF2人カバターンの行IIIは、第16図におけるF2人カバタ ーンの行IIIの鋭化である。その結果、第20b図のリスト・コードは、(0 )ノードと比較的高く活動化された(0.1.2)ノードを有する第16図にお けるリスト・コードの鋭化である単一(0,1,2)ノードである。
特異システムにおいて適応鋭化特性を達成したならば、特性は、次に、第21図 に示された如く、完全システム以外のパラメーターの変化なしに示されている。
これらの完全システムにおいては、シミュレーションは、0.1にセットされて おり、そして内部フィードバック信号のないF2を横切る37Mアクティビティ の崩壊速度は、1に等しく選ばれた。
適応鋭化特性は、STMとLTM変化のもつともな相対速度を使用して、完全シ ステムにおいて確認された。第21図は、F1→F、経路のサブセットにおける LTM値が、学習により時間を通していかに変化したかのコンピュータ・シミュ レーションを示す、シミュレーションは、本マスキング・フィールドと連合学習 法則が、特性(A)−(D)を生成するために充分であることを示す。
第21図において、項目フィールドは、(0)項目と比較的小さな(1)項目の 入力を有する。第1の図は、1.025の時点で取られている。
マスキング・フィールド・ノード(0)乃至ノード(4)の各々は、半円グラフ のパイ形状区分として示されている。マスキング・フィールド・ノード(0)と (1)は、入力セット(0,1)からの完全に活動化された信号を有する。即ち 、項目フィールドの項目(0)と(1)の両方からの経路は、マスキング・フィ ールドの(0)及び(1)ノードのすべての完全活動化を示す、完全活動化は、 グラフにおいて完全半径によって示され、そして部分的活動化は、部分的半径に よって示される。1゜057と1.123の後の時点において、幾つかの経路の 活動化レベルは、マスキング・フィールドの(0)と(1)における完全半径拡 張から部分的半径拡張から僅かに減少した。これは、マスキング・フィールドの 学習による。経路におけるさらに多数のLTM変更は、3.038と5.427 の時点において現れる。fkt&に、7.814と8.524の時点において、 マスキング・フィールドのただ1つの(0)ノードが完全に活動化され、1つの (1)ノードは、75パーセントだけアクティブであり、そして他の(0)及び (1)ノードは、最小にアクティブである。
F、における入カバターンに対するF2の反応において、3つの主要フェーズが ある。フェーズ1において、入カバターンは、F、→F2経路を横切る、信号を F2ノードに伝え始め、そしてこれにより多数のF2ノードが、活動化され始め る。これらのノードが活動化されると、それらは、第17図に以前に示された如 く、他のF2ノードに対するフィードバック信号、特に競合信号、を生成し始め る。各ノードに対する励起及び抑制信号の間の平衡は、FIからの入カバターン を急速にコントラスト向上させ、そして第6図乃至第16図に示されたF、にお けるより集中したSTM反応を生成する。追加の学習、リセット、又は常習性機 構のない時には、これらの集中したSTM反応は、F2内の入力とフィードバッ ク信号の平衡によって記憶される。
フェーズ2は、コントラスト向上と、STMパターンの記憶を含む。
ハウ(Hough)変換の言語において、マスキング・フィールドによって投ぜ られた正と負の「投票(Votes) Jは、適応フィルターによって引き起こ された「オフビーク(off−peaks) 」と「フォールス・ピーク(fa lse peaks) Jの両方を取り消す、フェーズ1からフェーズ2への遷 移のコンピュータ・シミュレーションが、第22図に要約される。パラメーター は、第9図におけるものと同じである。連続図(a)乃至(e)の各々は、FI への入カバターンの開始後の時点におけるF、ノードの37Mアクティビティを 示す0行Iの最初の37Mアクティビティは、正の(0)メートと、比較的小さ な正の(1)ノードを示す、後に、第22e図において、(0)ノードは、負で あり、そして(1)ノードは、F2のフィードバック相互作用によりさらに一層 負にアクティブである0行IIにおいて、原始ノードのすべては、第22a図に おける(2.3)、(2,4)、と(3,4)ノードを除いて、正のアクティビ ティを有する。後の時点までに、行IIのノードは、1つが他よりもずっとアク ティブである2つの(Oll)ノードを除いて、すべて負である0行IIIにお いて、(2,3,4)ノードを除いて、ノードのすべては、正から負のアクティ ビティに変化する。こうして、第22図は、入カバターン・アクティビティF+ の後、F2のフィードバック相互作用によって急速に浸食されるF2についての 大規模であるが瞬間的なアクティビティのバーストがある。
式(1)におけるεは、非常に大きく選ばれているので、重要な学習は、フェー ズ1中に行われ(即ち、学習速度は、非常に高速である)、多数のF、ノードV 、は、それらの学習速度εt (X、)が、フェーズ1中、大であるために、F 、アクティビティ・パターンをサンプリングすることができる。対照的に、εが 小ならば、フェーズ1の持続時間は、速度εf (X、)において大きなLTM 変化を統合するために充分に長くないので、重要でない学習は、フェーズ1中、 行われない、フェーズ2中、F、内の内部フィードバック相互作用によって選択 されるF2ノードのみが、入カバターンをサンプリングし、そしてこのため、他 のF2ノードのすべてにおいて、f (X、)=0であるために、LTM)レー スをチューニングする。こうして、学習速度が、フェーズ1の持続時間に関して 高速ならば、学習は、マスキング・フィールドの分類プロセスによって制御され ない、さらに、そのような擬似学習は、フェーズ2中に、予測分類を選択するた めのマスキング・フィールドの能力と干渉する。
第23図は、どのように学習パラメーターにおける変化が、最後に学習される平 衡分類を変更するかを示すコンピュータ・シミュレーションを示している。εを 非常に大きく選ぶと、また、適応鋭化特性の侵害を引き起こす、第23a図は、 幾つかの学習された分類を有する非学習の場合の比較を助けるために、第9図を 繰り返している。第23b−d図において、εは、それぞれ、11.1と、01 に等しく選ばれる。ε=1の時、F2は、第23c図に示された如く、(0)及 び(0,1)ノードの両方を選択した。ε=0.01の時、F2は、第23d図 において示された正しい(0,1)ノードを選ぶ、すべての場合において、学習 された27分類は、適応鋭化の形式を示した。しかし、第23b図において、選 ばれたF2ノードは、項目(1)についての情報を全くコード化しない、高速の 学習速度における(0)ノードに向かうこのバイアスに対する理由は、フェーズ 1サージの特性にトレースされる。第21図において、(0,1)ノードに対す る(0)ノードの初期の利点が、F2内の自己スケール・フィードバック相互作 用のこの利点の逆転前に、見られる。
これらの結果は、前述のマスキング・フィールドにおいて、F2による協同競合 意志決定の速度と、F、→F2適応フィルターによる学習の速度との間にトレー ドオフが存在することを示す、学習は、瞬間的決定の擬似学習を避けるために、 意志決定プロセスに関して充分に遅い、しかし、結果はまた、LTMがSTMよ りも約100倍遅い速度の適切なスケール化が、このサンプリング問題を避ける ことができることを示す。
フェーズ1サージと、第22図と第23図におけるシミュレーションによって提 起された高速学習の問題は、マスキング・フィールドの内部結合の変更による本 発明の1つの実施態様において解決される。変更は、実質的に、フェーズ1サー ジを減少させ、そしてマスキング・フイールドに、なお発生する残余のサージに 非感知であるようにして学習することを可能にする。
フェーズ1サージは、すべてのFl−4F、入力が、刺激的であるという事実に よる。出願人は、これらの入力が、F2における目標ノードに影響を与える前に 、抑制信号で刺激信号を平衡させるF、内の内部フィードバック経路を活動化さ せるということを提案している。これは、第24図に示されており、この場合、 刺激信号45が、46における内部フィードバック経路によりF2に登録される と同じ瞬間に、抑制信号42が登録される。刺激人力45が、抑制信号42(こ よってI’1mされなV1フェーズ1バーストを活動化するような時間間隔番ま 存在しな0゜好ましい実施態様において、出願人は、第25図(=示された々口 く、マスキング・フィールドを規定するために使用されるのと同じ内部フィード バック・ノートを使用するために、適応フィルターからフィードフォワード入力 を選ぶ、それから、非制御のフェーズ1バーストは、入力バーストを受けとる時 、即時に分類プロセスを開始する構造的機構によって防止される。
第25図が示す如く、マスキング・フィールドは、今、3つの内部段階に分割さ れる0段階1は、F、から刺激入力52を受けとる。段階2は、マスキング・フ ィールドF、についての刺激及び抑制信号を分布する内部経路54を含む0段階 3は、これらの内部経路の目標ノードを含む、これらの目標ノードは、常に刺激 57及び抑制58信号の混合を受けとる。それらは、決して非制御フェーズ1バ ーストにさらされない。
段階3ノードは、それらの段階1ソース・ノード2に対して、トポグラフ的の正 のフィードバック経路25を生ずる。これらの正のフィードバック経路25は、 マスキング・フィールド内t内でフィードバック・ループを閉じる。これらの段 階を使用して、マスキング・フィールドの内部フィードバック相互作用は、不変 のままであるが、Ft大入力、段階3ノードに影響を与える前に、これらの相互 作用に係合する。
第25図における体系は、完全非制御フェーズ1バ〒ストが発生するのを防ぐ、 他方、マスキング・フィールド内の内部フィードバックは、即時には平衡分類を 選択しない、Fl→F、経路内のLTM)レースが、平衡から遠い学習アクティ ビティ・パターンに対してバッファーに入れられる方法を以下に言及する。
克服されるべき主要な問題が、明確に第25図に示されている0段階3セルは、 刺激57及び抑制58信号の混合を受けとるが、段階1セルは、刺激信号52の みを受けとる。さらに、段階1セルについてのF1→F2経路を受けとる。これ らの経路の終了内のLTM)レースが、段階1セルからの信号をサンプリングす ることによって活動化されるのを防ぐものは、LTMトレースを活動化するサン プリング信号であり、そして段1ii:1ノードから導出されないと、出願人は 仮定している。むしろ、サンプリング信号は、経路25による段階3ノードから のフィードバックによって活動化される。多数の段階3ノードは、入カバターン がオンになる時、段階2介在神経単位によって即時に抑制される F、入力によ って初期的に活動化される多数の段階1ノードは、続く分類プロセス中法して活 動化されない段階3ノードに対応するために、サンプリング信号のソースとして の段階3ノードの使用は、マスキング・フィールド相互作用が、相互作用の最も 最初の瞬間から学習を制限することを可能にする。この制約を事例により示すた めに、出願人は、単に式(1)を次の式によって置き換える。
この場合X 、 + 31は、マスキング・フィールドの段階3におけるi番目 のノード個体群のアクティビティである。内部フィードバック信号がLTMサン プリング信号を生成するという概念は、グロスベルブ、S、著、「注意、強化、 と弁別学習の神経モデル」、t の 、′秒1975年、において導入された。
出願人は、今、フィードバック信号が、第25図における如く、細胞間で生成さ れるか、又は生化学のフィードバック相互作用のネットワークによって細胞内で 生成されるかは、脳において広く使用される設計原理であることを信じている。
この設計に対して実験的に検査するために使用される特性の幾つかが、今、要約 される。
LTM龜み゛みと怖み しの : 経モジュレータ−としてのフィードバック LTMの読み出しは、LTM)レースが、F、からF、への経路において信号を 掛は算によりゲートで制御する時、行なわれる。上記のマスキング・フィールド において、LTMは、LTM)レースが、新しいLTM値をサンプリングする又 は読み込むことを可能にする同じF、ノードに読み出される(第17図)、第2 5図における設計は、学習速度がいかに高速に選ばれても、学習を何もトリガー することなしに、幾つかの段階1ノードが活動化されることを可能にすることに よって、LTM読み出しとLTM読み込みのプロセスを分離する。
しかし、段階3から段階1へのフィードバック信号は、サンプリング信号として のみ作用する。それらは、また、マスキング・フィールドがSTMにおけるリス ト・コードを選択することを可能にする内部フィードバック・ループを閉じるた めに、それらの目標段階1ノード2を活動化しなければならない1段階1に隣接 するLTM)レースは、Flからの入力による段階1セルの活動化と、段階3か らのフィードバック信号による段11i1セルの活動化との間を区別する。その ような区別が、行なわれなかったならば、LTM読み出しとLTM読み込みの機 能的分離は達成されない。
2つのタイプの分離機構が存在する。即ち、化学的か又は電気的のどちらかで示 される動的機構と構造的機構である。動的機構において、LTM)レースは、段 階1セルをサンプリング信号として使用し続けるが、サンプリング信号f(xa )を活動化するためのしきい値は、高く選ばれる。段階1セルは、Flからの入 力によるそれらの直接的活動化が、段階3セルからの大きな正のフィードバック 信号によって補なわれる時、サンプリングしきい値を超えるために充分に活動化 されると仮定される。
そのような機構は、簡単な学習問題を解決するために適切であるが、それは、複 雑な学習システムにおいては不適切である8例えば、マスキング・フィールドに おいて、サンプリングしきい値が非常に小さく選ばれるならば、フェーズ1サー ジが学習される。サンプリングしきい値が非常に大きく選ばれるならば、適応チ ューニングを誘導すべき多数の分類は、それを行うことに失敗する。そのような 設計は、ロボストではない。
対照的に、問題に対する構造的機構は、はっきりロボストである。五つのそのよ うな構造的機構において、フィードバック信号は、異なる化学的伝達物質により 引き渡され、化学的伝達物質は、FlからF2への信号をゲートで制御し、かつ F、→F2経路における学習されたLTM変化を調節する。それから、式(2) における項f(XJ′3’)は、フィードフォワード伝達物質において、フィー ドフォワード伝達物質のモジュレータ−作用により実現される。
2つの伝達物質の使用は、両伝達物質システムが、段階1セルを電気的に活動化 することを可能にするが、また、段階1セルに隣接するLTMトレースが、段階 3からのフィードバック信号と、段階1における総効果の間を区別することを可 能にする。そのような二重の伝達物質システムの1つの微細な実現において、ど ちらかの伝達物質は、電気的活動化を発生可能にする段階1セルのセル膜におけ る高分子変化を引き起こすが、それらの共同作用のみが、学習プロセスを展開可 能にする高分子変化を引き起こす、無を椎動物における連合学習に関する先行技 術データは、臨界事象の対が一緒に発生する時のみ活動化されるC a”依存製 電流を含意する。さらに、カテコールアミンの関与する伝達物質は、このCa− 電流の活動化に関係することが公知である1段階3から段階1へのフィードバッ ク信号は、第25区に示された回路において類似した正式の役割をする。連合学 習が、Ca”電流に依存するという提議は、(1)の如き学習式が物理的に実現 される方法を説明するために、利用できる断片的な生化学的証拠に基づいて、グ ロスベルブ、S、著、「心理学的前提条件の生理学的及び生化学的結果J 、i j 国立アカデミ−の鐵!廷、1968年、及び「化学的伝達物質の生産と放出 、及び細胞制御における関連論題」、猟揄虫物ヱ@錐蒸、1969年、において 行われた。
分離問題を解決するための別の構造的1R楕もまた、もくろまれる、この機構に おいて、各F、→F2経路は、第26図に示された如ぐ段階1において目標ノー ド膜4において局所的変化を起こす。これらの局所的膜導管4は、段階1ノード 60が、段階2ノードを活動化する前に、それらによって合計される局所的変化 を潜在的に起こす6段階3ノードからのフィードバック信号は、段階1ノード6 0を通して、全体的な作用ポテンシャルを引き起こす、これらの全体的な作用ポ テンシャルは、F+からの局所的信号のみによって活動化されない膜導管62を 活動化させる。これらの膜導管62は、当接するLTM)レース内で、学習が行 われることを可能にする。この可能性は、海鳥内のクラシック条件を議論するた めに、グロスベルブ、S、著、「注意、強化、と弁別学習の神経モデル」、挫梗 生換ヱΩ皿除比論互誰、1975年、及びグロスベルブ、S、著、「人間の記憶 の理論:感覚運動神経コード、マツプ、とプランの自己組繊と運用」、1度生立 竺り遣之、アール・ローゼンとエフ・シュネル(編集)、第5巻、ニューヨーク :アカデミツク・プレス、1978年、及び新皮質条件を議論するために、「心 と頭の研究:学習、知覚、発達、認知、と運動神経制御の神経原理」、ボストン :リーデル・プレス、1982年、において使用された。フィードフォワード信 号内で充分に合計されるのはフィードバック信号だけではないが、フィードバッ ク信号のすべては、学習が行われることを可能にする全体的変化をトリガーする ことが仮定されるために、動的であるよりも構造的機構である。そのような構造 的機構はまた、ノードが全体的に活動化される時、Ca−依存電流をトリガーす るために使用される。
クティビティ又はポテンシャルX5(t)を有する。
V (t)は、可変電圧である。Cは、一定静電容量である。定数V゛、■−1 とF2は、それぞれ、刺激、抑制、及び受動飽和点である0項g゛、g−1とg Dは、入力信号の関数として時間と共に変化するコンダクタンスである。このた め、項(V”−V)g”は、刺激導管を示し、項(V−−V)g−は、抑制導管 を示す、そして(V’−V)g’は、受動導管を示す0式(3)におけるコンダ クタンスと電圧の間の掛は算関係により、膜方程式は、また、分路相互作用を示 すと言われる。
マスキング・フィールドにおいて、ノードは、回帰的又はフィードバック、中心 集中周囲離脱相互作用により一緒にリンクされる(第17図)。
こうして、マスキング・フィールドの特性は、分路回帰的中心集中周囲離脱ネッ トワークの一般理論の一部分となる。このクラスのネットワークの一般特性の再 論評(review)が、グロスベルブ、S、(!集)、「発達、知覚、と認知 における適応共鳴」、 −心理 と 生理学、プロヴイデンス、RI:米国数学 学会、1981年、及びグロスベルブ、S3、「視覚空間の量子化幾何学:深さ 、形式、と明度の苛干渉性計算」、行動と脳の科学、1983年、に見られる。
式(3)は、ポテンシャルX、(t)に対して次の如く書き換えられる。
この場合添字1は、i番目のノードを意味し、X、は、i番目のノードのアクテ ィビティ・レベルである。0は、受動平衡点であり、B (> Q)は、刺激飽 和点であり、そして−C(≦0)は、抑制飽和点である0項P、は、全体刺激入 力であり、そして項Q、は、■、への全体抑制入力である。入力P1とQ、は、 時間と共に変動するので、−C≦X1≦Bである。
刺激入力P、は、項目フィールドからの全体入力と、■、がらそれ自身への正の フィードバック信号の和である。こうして、P、は、次の形式において書かれる 。
この場合I、は、項目ノード(j)からの出力である。PJIは、F、における vjからF2におけるV、への経路の強度である。そしてZJIは、この経路内 のLTMトレースの適応重みである1項Df (X、)は、vIがらそれ自身へ の正のフィードバック信号である。このフィードバック信号は、■、の終了後、 ■、が、STMにアクティビティを記憶することを可能にする。
式(4)における抑制入力Q、は、マスキング・フィールドにおける他のノード ■1からのフィールド信号g(X、)の和である。こうして、Q、は、次の如く 書かれる。
Q・=Σ I g (X −) E−1−ε (6) この場合EMIは、ノード■、からノードV、への抑制係数であり、そしてrr IIは、項目ノードから入力Iを受けとるマスキング・フィールドQノード■、 のセットである。
しかし、マスキング・フィールドの異なるサブフィールドにおけるノ−ドは、異 なるパラメーターを所有する。それから、上の添字(J)は、経路をF2におけ るノードに選択的に送信するF8項目ノードのすべての非順序セットJを表記す るために、式(4)において使用される5式(4)は、次の如く書き換えられる 。
この場合x、”’は、F+項目ノードのセットJからのみ入力経路を受けとるF 2個体群v、′1の87Mアクティビティを表わす、F2におけるノードV 、  l J lの任意の数の異なる個体数が、F1項目の各固定セットJに対応す る。
式(5)は、次の如ぐ書き換えられる。
この場合jεJは、F2ノードの個体群に言及する項目のセットJに属するF2 項目ノードの非順序セットである。そしてIJIは、セットJのサイズを表記し 、こうしてD/J/は、セットJのサイズに依存し、セットJにおける項目には 依存しない、こうして、刺激フィードバック係数D7,7は、個体数V、(J) の空間的スケールに感知し、セットJの微細構造又は順序項目には感知しない。
同様に、式(6)は、上添字(J)によって精練される。関数Ql′J′は、次 の関係式に従う。
%式%(9) この場合E0は、y、+x+からV、IJIへの抑制フィードバック経路の強度 を決定し、mは、セット内のすべての活動化を表記し、そしてKは、すべての非 順序セットを表記する。
この経路強度は、v、fflとV 、 l J lが応答する項目の非順序セッ トにとJにのみ依存する。EにJは、次の如く、F2における個体数の間の自己 類似成長プロセスのランダムさを表わす。
鷺象作里徂夏作里 E=F G H(10) KJ IJI /に/ /KnJ/ F/J/、G/X、/とHytnJyは、項目の非順序セットのサイズにのみに 依存する。この場合J、にとそれらの相互作用KnJは、非順序セットである0 式(10)は、V j If 1から■IJへの抑制相互作用強度が、3つの独 立ランダム因子の相互作用の結果であるという仮定を表わす、こうして、純強度 E0は、K、J、とそれらの重なりのサイズに依存する成長因子の間の統計的独 立な相互作用から起こる。
式(8)、(9)、と(10〉を式(7)に代入すると、次式が与えられる。
マスキング・フィールド 程 り、J、は、ノードからそれ自身への正のフィードバックが、ノードの自己類似 スケールによりどのように変化するかを決定する。 D/J/は、スケールと共 に増加し、これにより長いサブリストに対応するノードが、他の事項が等しい時 、STMにおける競合的利点を獲得することを可能にする。f&も簡単な選択は 、出願人のシミュレーション、即ち、次式において行われる。
この場合りは、正の定数である。この規則は、F、ノード(個体群)が、F、入 力の高レベルに応答して成長する時、それはまた、それ自身の軸索側枝(axo n eollaterals)に対してより刺激的シナプシス位置を生成すると いう可能性と一致する。
Flにおけるすべてのノードからの各個体数V 、 l J lに対する全体結 合強度と、F:におけるすべてのノードからの各個体数V%Jlに対する全体抑 制結合強度は、両方共、KとJとは独立に選ばれる。この特性は、各ノードのサ イズ(個体群)が、(第3図に示された如く)入力経路の全体強度にスケールさ れるという説明と両立する。より多くの経路が、そのようなノードに入力される ならば、各入力の効果は、第4図に示されたノードの大サイズによりさらに広げ られる。入力経路の全体数に対する一致ノード(個体群)容積の特性は、「シナ プシス位置の保存(canservation of 5ynaptic 5i tes) Jと呼ばれる。
シナプシス位置の保存は、ネットワークが次の問題を克服することを可能にする 。成長規則のランダム性により、F2のマスキング・サブフィールドの各々にお いて異なる数のノードが存在する。これらのF、ノードは、87Mアクティビテ ィを競合するので、競合平衡は、ランダム成長の偶発によってバイアスされる0 機構は、ランダム結合の増殖を制御するために必要とされる。シナプシス位置の 保存は、1つの効果的機構である。そのような成長規則を具体化するマスキング ・フィールドは、次の関係式を使用する。
シナス)ノJ酉υ」牲 Σ j、JPJt=eonstant = 1 (13)この場合F、におけるvl からF2におけるV、への経路が多い程、各経路はより少なく重みを保持する。
そして 9kF/J/ G/J/ H/KIIJ/ = constant = F ( 14)その結果F2におけるノードのすべての抑制ノードの和は、一定である。
式(14)から、 この式は、F2と連絡するノードのすべての容量に関するF2のノード容量を表 わす。
あるいはまた、係数p 、 、 (J lは、ウェーバ−の法則に従うPJ、”  [1+α、p、、lJl]−1によって置換された。同様な結果は、共鳴パラ メーター範囲内で見いだされた。
F、からF2への結合p、lJlは、ランダム成長規則と共に、式(13)のシ ナプシス保存法則を満足するように選ばれる。
−ン ム、− この場合変動係数P IJIは、FlからF2における成長のランダム程度を決 定論的である(しかし部分的に分散している)。
この制限された場合において、F、における項目ノードからF2における固定リ スト・ノードへのすべての結合強度は、等しく、そしてリスト・ノードに接触す る項目ノードの数/J/と逆比例するa P /j/≠Oならば、式(16)に おける係数r!l+J′は、結合強度p、、IJIに影響を与える。数値[rJ 、′J1:jJ]は、擬似ランダムに選ばれる。即ち、それらは、次式の如く、 0と1の間を一様に分散される。
こうして、F、からF2への成長のランダム性は、F、の項目ノードから出る経 路数によって制御され、F2ノードに収束する経路数によって制御されない。
式16と17は、両方で、式13の保存規則を可能にする。
変動係数P7,7は、セット・サイズ/J/に依存するようにされており、その 結果平均値[PJ−”’: JεJ]によって除算された標準偏差[PJl”’ : jεJ]は、/J/に独立である。これは、次の如く達成される。
次式の単体上に一様に分布された数値[r 、 、 l J l : JεJ] の擬似ランダム列を生成するために、 これは、次の如く行われる。標準アルゴリズム(クヌス、D、E、、「半数値的 アルゴリズム:コンピュータ・プログラミングの技法」、第2巻、記事:アディ ソン・ウェスレイ、1981年)により、n−立法体■。
=Xx−+”[O11コ上に一様に分布された数Mw= (Wl、Wl、・・・ 、w、)のベクトルが得られる。W′1、w’2、・・・W′。の如く新ベクト ルw’ = (w’ 、、w′7、・・・、w’、)を生成するために、サイズ の昇順に数値を再配列せよ、Inからそれ自身へのマツプww’は、w’ 、= wσ、。の如くインデックス(1,21,、、、n)の置換により決定される。
各置換σは、■、の異なるサブセットを増大するエントリを有するベクトルに変 換する。こうして、■、は、単一置換σが、すべてのWεDをW′ε工、にマツ プする如く、セットDσに分解される。
このため、マツプW→W′は、1.における一様に分布したベクトルを、増大す る順序に要素を有する工ゎにおける一様に分布したベクトルに変換する。
次に、増大する順序で要素を有する11におけるベクトルW′を、1対1の線形 変換yl=w’l、yz=W’ z W’ +、、、y、l=w’ −w’ゎ− 1、とy7.、=1−Wゎにより、S+t*lにおけるベクトルyにマツプする 。
この線形変換は、等しい容積を等しい表面領域にマツプするので、ベクトルyは 、単体S1..において一様に分布する。
変動[P!%”: JJコの係数は、次の如</J/(>)と独立に作成される 。上記の精成により、式16における限界分布r、、IJIは、濃度関数(/  J/−1) (1−x ) ”’−”により分布される。この分布の平均値は、 1 // J /であり、そして標準偏差は、1//J/I</J/−1’)  / C/J/+ 1 >である、こうして、pJ、lJ茅の平均値は、また、1 //J/であり、そして標準偏差は、次式である。
F4.′ハの変動の係数は、標準偏差を平均値で除算した値であり、出願人は、 これを/J/とは独立な定数pに等しくセットしな、こうして、

Claims (33)

    【特許請求の範囲】
  1. 1.パターン認識装置において: 全体入力パターンとそれらのサブパターンの部分的分類の両方を、これらの該サ ブパターンが、それらの空間的スケールと過去の経験に基づいてどれ程情報があ るかを予測するアクティビティ重みを使用して、直接アクセスにより、同時にコ ード化することができる、マスキング・フィールドと呼ばれる、大規模並列協同 競合ネットワークを具備することを特徴とするパターン認識装置。
  2. 2.入力パターンが、音声又はレーダー・ストリームの如き時系列の空間的コー ド化であり、そして該マスキング・フィールドが、音声ストリームを文脈依存言 語表現に送り、かつ、事象の時間リストを単位化表現に分類又は成分化可能であ り、新しく発生する項目によって伝えられる情報により過去の項目のサブリスト の知覚分類を再組繊できる方法と、(音声単位の)項目情報と(発生時の)時間 順序情報が文脈依存コードに結合される方法とを示す請求の範囲1に記載の装置 。
  3. 3.該マスキング・フィールドネットワークが、空間的傾斜に沿う結合のランダ ム成長、アクティビティ依存自己類似セル成長、と保存シナプシス位置に対する 競合との神経単位発達の単純な規則に従い、該成長規則は、その並列相互作用が 、先行探索の必要なしに正しいサブリスト分類スは成分化を直接に活動化するネ ットワーク体系を生成する請求の範囲1に記載の装置。
  4. 4.該ネットワークが、正しいリストのコード化を高め、そして短期記憶におい て不適当なリストのコード化を競合的にマスクする、時間的に発展する入力パタ ーンの多重空間的スケール分析を行うことによって、直接アクセスを達成する請 求の範囲1に記載の装置。
  5. 5.高められた短期記憶アクティビティが、入力ストリームを表現する仮定、即 ちコード、を具体的に表現し、そしてこのコードが、これらの特性を達成するた めに、ネットワーク内に、逐次プログラム又は認知規則構造なしに、利用できる 証拠に基づいて、まだ完全に発生していない分類にアクティビティを割り当てる ことによって、後続の事象を予測又は予想でき、そして神経単位が、質量作用、 フィードバック、協同競合相互作用を受ける膜方程式に従う請求の範囲1に記載 の装置。
  6. 6.連続マスキング原理と、長期記憶不変性原理と、自己類似成長の原理とに基 づく請求の範囲1に記載の装置。
  7. 7.パターンコード化システムにおいて:ソース・パターンによって活動化され 、かつ、ソース・パターンを示す入力パターンを提供する適応フィルターと、該 適応フィルター入力パターンを受けとり、かつ、入力パターンに基づいて、該ソ ース・パターンを予測する圧縮認識又はリスト・コードを活動化し、かつ、該ソ ース・パターンを予測しないリスト・コードを競合的に抑制又はマスクする連想 記憶を含む自己類似の自動的ゲイン制御協同競合非線形フィードバック・マスキ ング・フィールドネットワークとを具備することを特徴とするパターン・コード 化システム。
  8. 8.さらに、該マスキング・フィールドが、入力パターン内の多重分類を同時に 検出し、そして活動化重みをこれらの分類に対するリスト・コードに割り当て、 該重みが、入力パターン内に埋め込まれた文脈情報とシステムの先行学習に基づ く請求の範囲7に記載のパターン・コード化システム。
  9. 9.該予測リスト・コードが、活動化され、そして非予測リスト・コードが、多 重スケール分析により抑制される請求の範囲7に記載のパターン・コード化シス テム。
  10. 10.該システムの先行学習が、好ましいリスト・コードを活動化するために、 該マスキング・フィールドに信号を送るために、適応フィルターをバイアスする 請求の範囲9に記載のパターン・コード化システム。
  11. 11.該マスキング・フィールドが、該ソース・パターンの顕著な部分に対する リスト・コートとは異なる全体ソース・パターンに対するレベルにおいてリスト ・コードを活動化し、かつ該マスキング・フィールドは、パターン部分が、新ソ ース文脈においてパターン全体になる時、異なるレベルにおいてソース・パター ン部分に対するリスト・コードを活動化する如く、該マスキング・フィールドは 、入力パターンの全体サイズが、変化するが入力パターンの微細構造に感知のま まの時、その感度を自動的に再スケールする請求の範囲7に記載のパターン・コ ード化システム。
  12. 12.該マスキング・フィールドが、該ソース・パターンが後続の時間間隔にお いてどのように発展するかの予測を表現するリスト・コードを活動化する如く、 該ソース・パターンから直接に入力によってプライミングされる請求の範囲7に 記載のパターン・コード化システム。
  13. 13.該マスキング・フィールドは、なじみのソース・パターンの繰り返しが、 なじみでないソース・パターンよりもリスト・コートのより集中した空間的活動 化を引き出すために、該適応フィルターをチューニングする適応鋭化特任を示す 請求の範囲7に記載のパターン・コード化システム。
  14. 14.該適応フィルターが、システムの短期記憶に保持される好ましいリスト・ コードの活動化を引き出すためにチューニングされる請求の範囲13に記載のパ ターン・コード化システム。
  15. 15.該入力パターンが、処理される該ソース・パターンの明白な予測の基礎と なるより多くの文脈的情報を含む時、活動化されたリスト・コードは、より少く 分布されるようになる請求の範囲7に記載のパターン・コード化システム。
  16. 16.さらに、該ソース・パターンを保持し、かつ該適応フィルターを活動化さ せるために、該適応フィルターにランダムに経路が成長されるソース・ノードを 具備する請求の範囲7に記載のパターン・コード化システム。
  17. 17.該経路のランダム成長が、ソース・ノードから現れる経路数に依存する請 求の範囲16に記載のパターン・コード化システム。
  18. 18.該リスト・コードが、アクティビティ依存自己類似成長規則に従うマスキ ング・フィールド・ノードによって保持される請求の範囲7に記載のパターン・ コード化システム。
  19. 19.該アクティビティ依存自己類似成長が、シナプシス位置の保存によって抑 えられる請求の範囲18に記載のパターン・コード化システム。
  20. 20.パターンコード化システムにおいて:ソース・パターンを具体化する複数 のソース・ノードと、入力パターンを提供するために該ソース・ノードから成長 する複数の適応フィルター経路と、 該入力パターンを受けとり、そして該ソース・パターンを予測する圧縮認識コー ドを提供するリスト・ノードを活動化し、かつ該ソース・パターンを予測しない 圧縮認識コードを提供するリスト・ノードを競合的に抑制又はマスクする連想記 憶を含むリスト・ノードの多重スケールの協同競合フィードバック・マスキング ・フィールドネットワークとを具備し、少なくとも1つの適応フィルター経路が 、各ソース・ノードからリスト・ノード又はそのサブセットに成長することを特 徴とするパターン・コード化システム。
  21. 21.該適応フィルター経路が、神経単位発達の豊富なランダム成長規則に従う 請求の範囲20に記載のパターン・コード化システム。
  22. 22.該ソース・ノードからの成長のランダム性が、そのソース・ノードから現 れる適応フィルター経路数によって制御される請求の範囲21に記載のパターン ・コード化システム。
  23. 23.リスト・ノードに収束する適応フィルター経路の数が、該リスト・ノード のサイズを決定し、そして該リスト・ノードの活動化が、一定の収束経路のサブ セットを通り各収束経路の数と強度に依存する請求の範囲20に記載のパターン ・コード化システム。
  24. 24.さらに、リスト・ノードの過度の刺激を防ぐための手段を具備するパター ン・コード化システム。
  25. 25.該過度の刺激を防ぐための該手段が、シナプシス位置の保存によって抑え られるアクティビティ依存自己類似成長規則に従うリスト・ノードを含む請求の 範囲24に記載のパターン・コード化システム。
  26. 26.1つのノードに収束する経路が、該ノードがサイズを変化する時、相互に 対して強度の変化を受ける請求の範囲23に記載のパターン・コード化システム 。
  27. 27.該リスト・ノードが、シナプシス位置の保存によって抑えられるアクティ ビティ依存自己類似成長に従う請求の範囲20に記載のパターン・コード化シス テム。
  28. 28.該リスト・ノードの容積がサイズの関数であり、かつ該リスト・ノードの 相互作用能力が、容積の関数である場合、該リスト・ノードが異なるサイズを取 る請求の範囲20に記載のパターン・コード化システム。
  29. 29.リスト・ノードの相互作用が、それが感知する最大経路入力変化と共に変 化する請求の範囲28に記載のパターン・コード化システム。
  30. 30.リスト・ノードの短期記憶における利点が、その相互作用能力に依存する 請求の範囲28に記載のパターン・コード化システム。
  31. 31.該適応フィルター経路の異なるサブセットが、一定の相互作用能力のリス ト・ノードを選択的に刺激する該入力パターンの異なるサブセットを提供する請 求の範囲28に記載のパターン・コード化システム。
  32. 32.該マスキング・フィールドが、該入力パターンにおいて多重分類を同時に 検出し、そしてこれらの分類に対する該リスト・コードに活動化重みを割り当て 、該重みは、該入力パターン内に埋め込まれた文脈情報と該システムの先行学習 とに基づく請求の範囲20に記載のパターン・コード化システム。
  33. 33.該マスキング・フィールドが、該ソース・パターンの顕著な経路に対する コードを生成する該リスト・ノードとは異なる全ソース・パターンに対するコー ドを生成する該リスト・ノードを活動化し、かつ新文脈においてパターンが全体 になる時、ソース・パターン部分に対するコードを生成する該リスト・ノードを 異なるように活動化する如く、該入力パターンの全体サイズが、変化するが該入 力パターンにおけるサブパターンの順序に感知のままの時、該マスキング・フィ ールドが、自動的にその感度を再スケールする請求の範囲20に記載のパターン ・コード化システム。
JP50635486A 1985-11-27 1986-11-26 パターン・コード化システム Expired - Lifetime JP2647371B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US80247985A 1985-11-27 1985-11-27
US802479 1985-11-27
US934412 1986-11-24

Publications (2)

Publication Number Publication Date
JPS63501450A true JPS63501450A (ja) 1988-06-02
JP2647371B2 JP2647371B2 (ja) 1997-08-27

Family

ID=25183808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50635486A Expired - Lifetime JP2647371B2 (ja) 1985-11-27 1986-11-26 パターン・コード化システム

Country Status (1)

Country Link
JP (1) JP2647371B2 (ja)

Also Published As

Publication number Publication date
JP2647371B2 (ja) 1997-08-27

Similar Documents

Publication Publication Date Title
US5040214A (en) Pattern learning and recognition apparatus in a computer system
Cohen et al. Neural dynamics of speech and language coding: Developmental programs, perceptual grouping, and competition for short-term memory
Kasabov Foundations of neural networks, fuzzy systems, and knowledge engineering
Page Connectionist modelling in psychology: A localist manifesto
Massaro et al. Information processing models: Microscopes of the mind
US5687286A (en) Neural networks with subdivision
EP0526504B1 (en) Artificial neural device
Ahmad et al. Connectionist simulation of quantification skills
Evers Connectionist modelling and education
JPS63501450A (ja) パタ−ン・コ−ド化システム
Taylor Cortical activity and the explanatory gap
Blanc et al. Identification of prosodic attitudes by a temporal recurrent network
Gast et al. Encoding and decoding dynamic sensory signals with recurrent neural networks: An application of conceptors to birdsongs
Wijesinghe et al. Biologically plausible class discrimination based recurrent neural network training for motor pattern generation
Hummel Localism as a first step toward symbolic representation
Trung et al. Speech perception based on mapping speech to image by using convolution neural network
Urbani Combining Deep Learning and Game Theory for Music Genre Classification
Wagner The role of spatio-temporal information in speech recognition: A spiking network model
Wittenburg et al. DE GENEVE Dilosilla Chive ouvelle unige Ch
Robins Neural networks and models of cognition: a review
Afana et al. Predicting Car Mileage per Gallon
French et al. Why localist connectionist models are inadequate for categorization
Carpenter Combining distributed and localist computations in real-time neural networks
Farrell et al. The case against distributed representations: Lack of evidence
Jelasity Instance-based manifesto?