JPH05265999A - ニューロン回路網に用いるプロセッサー及び処理要素 - Google Patents
ニューロン回路網に用いるプロセッサー及び処理要素Info
- Publication number
- JPH05265999A JPH05265999A JP4115065A JP11506592A JPH05265999A JP H05265999 A JPH05265999 A JP H05265999A JP 4115065 A JP4115065 A JP 4115065A JP 11506592 A JP11506592 A JP 11506592A JP H05265999 A JPH05265999 A JP H05265999A
- Authority
- JP
- Japan
- Prior art keywords
- expected value
- signal
- value
- input
- term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Feedback Control In General (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Complex Calculations (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【目的】 より基本的な学習法則に基づくニューロン回
路網の建設ブロックとしてのプロセッサを提供するこ
と。 【構成】 ニューロン回路網に用いるシナプス・プロセ
ッサ102は入力信号に応じて結果信号を生成する。該
シナプス・プロセッサは、入力期待値を初期化104し
て入力信号を受信する。該シナプス・プロセッサは手段
108において該入力期待値に対する正味修正値を決定
する。入力期待値に対する該正味修正値は増加項と減少
項とを有する。該増加項は該入力信号の関数として決定
される。該減少項は該入力信号の大きさから独立してい
て、減衰定数の関数である。該シナプス・プロセッサ
は、手段110において該入力期待値に応じて結果信号
を生成する。
路網の建設ブロックとしてのプロセッサを提供するこ
と。 【構成】 ニューロン回路網に用いるシナプス・プロセ
ッサ102は入力信号に応じて結果信号を生成する。該
シナプス・プロセッサは、入力期待値を初期化104し
て入力信号を受信する。該シナプス・プロセッサは手段
108において該入力期待値に対する正味修正値を決定
する。入力期待値に対する該正味修正値は増加項と減少
項とを有する。該増加項は該入力信号の関数として決定
される。該減少項は該入力信号の大きさから独立してい
て、減衰定数の関数である。該シナプス・プロセッサ
は、手段110において該入力期待値に応じて結果信号
を生成する。
Description
【0001】この発明は神経回路網に関し、特に人工の
神経単位(ニューロン)を構成するためのプロセッサー
に関する。
神経単位(ニューロン)を構成するためのプロセッサー
に関する。
【0002】
【従来技術とその問題点】脳の情報処理能力に関する関
心は1800年代末からあった。しかし、人工ニューロ
ンに基づく回路網が真に役に立つ能力を獲得したのは最
近になってからである。例えば、人工ニューロン回路網
は視覚及び音声認識システム、信号処理、及びロボット
工学に使われるようになってきている。
心は1800年代末からあった。しかし、人工ニューロ
ンに基づく回路網が真に役に立つ能力を獲得したのは最
近になってからである。例えば、人工ニューロン回路網
は視覚及び音声認識システム、信号処理、及びロボット
工学に使われるようになってきている。
【0003】ニューロン回路網の研究及び開発は、脳の
動作及び機能を模する試みから発展した。従って、用語
の多くは生物学に起源を有する。ニューロン回路網の基
本的構成要素はニューロンである。ニューロンは、重み
付け加算器と見なすことの出来るものである。ニューロ
ンは数個の入力を有する。各入力は、重み値を乗じら
れ、その積が加え合わされる。その重みは、正(興奮を
示す)又は負(抑制する)である。ニューロンの出力
は、その積の和の関数である。
動作及び機能を模する試みから発展した。従って、用語
の多くは生物学に起源を有する。ニューロン回路網の基
本的構成要素はニューロンである。ニューロンは、重み
付け加算器と見なすことの出来るものである。ニューロ
ンは数個の入力を有する。各入力は、重み値を乗じら
れ、その積が加え合わされる。その重みは、正(興奮を
示す)又は負(抑制する)である。ニューロンの出力
は、その積の和の関数である。
【0004】一つのニューロン回路網は単層回路網と呼
ばれている。単層回路網は、線型分離可能な問題を解く
のに役立つ。単層回路網の一つのアプリケーションはパ
ターン認識である。最も簡単な場合には、各ニューロン
は入力信号中の特別のパターンを識別するように設計さ
れる。回路網の各ニューロンは同数の入力を有する。各
ニューロンの出力は『ヒット』又は『ミス』である。各
ニューロンについての積の和は臨界値と比較される。ニ
ューロンの和が臨界値より大きければ、それはそのパタ
ーンを認識していて、『ヒット』を信号する。回路網の
出力の数は、認識されるべきパターンの数に等しく、従
ってニューロンの数に等しい。一度に『ヒット』を信号
する(そのパターンが入力に出現したとき)ニューロン
は1個だけである。
ばれている。単層回路網は、線型分離可能な問題を解く
のに役立つ。単層回路網の一つのアプリケーションはパ
ターン認識である。最も簡単な場合には、各ニューロン
は入力信号中の特別のパターンを識別するように設計さ
れる。回路網の各ニューロンは同数の入力を有する。各
ニューロンの出力は『ヒット』又は『ミス』である。各
ニューロンについての積の和は臨界値と比較される。ニ
ューロンの和が臨界値より大きければ、それはそのパタ
ーンを認識していて、『ヒット』を信号する。回路網の
出力の数は、認識されるべきパターンの数に等しく、従
ってニューロンの数に等しい。一度に『ヒット』を信号
する(そのパターンが入力に出現したとき)ニューロン
は1個だけである。
【0005】もっと複雑な場合には、ニューロンの出力
は『ヒット』又は『ミス』ではない。むしろ、それは、
入力パターンが外ニューロンのパターンにどれだけ近い
かを示す段階付きスケール値である。もっと困難な問題
については、多層回路網が必要である。ニューロンの重
みは、固定又は適応可能である。適応可能な重みは、ニ
ューロン回路網を柔軟にする。適応可能な重みは、法則
又は規則を学習することにより修正される。
は『ヒット』又は『ミス』ではない。むしろ、それは、
入力パターンが外ニューロンのパターンにどれだけ近い
かを示す段階付きスケール値である。もっと困難な問題
については、多層回路網が必要である。ニューロンの重
みは、固定又は適応可能である。適応可能な重みは、ニ
ューロン回路網を柔軟にする。適応可能な重みは、法則
又は規則を学習することにより修正される。
【0006】殆どの学習法則は、連合可能性(associat
ivity)に基づいている。1949年にドナルド・ヘッブ
(Donald O. Hebb) が提案した学習規則(ヘッブの規
則)から始めると、学習理論は、一般に、学習現象の精
髄は2以上の信号間の連合を伴うことであると仮定して
いる。ヘッブの規則では、例えば、入力に付随する重み
は、若し入力ライン及び出力ラインの両方が同時に活性
状態であれば、大きくされる。このテーマについては多
くの変形があるが、いずれにせよ、ニューロン学習規則
の大半はこの基礎から派生するものである。
ivity)に基づいている。1949年にドナルド・ヘッブ
(Donald O. Hebb) が提案した学習規則(ヘッブの規
則)から始めると、学習理論は、一般に、学習現象の精
髄は2以上の信号間の連合を伴うことであると仮定して
いる。ヘッブの規則では、例えば、入力に付随する重み
は、若し入力ライン及び出力ラインの両方が同時に活性
状態であれば、大きくされる。このテーマについては多
くの変形があるが、いずれにせよ、ニューロン学習規則
の大半はこの基礎から派生するものである。
【0007】最近になって、他の学習理論は、同時入力
信号に基づく連合規則に注目した。この研究方針では、
一つの入力の重みは、若しその入力と、指定された隣接
の入力とが共に、限定された時間窓の中で活性状態であ
るならば、大きくされる。適応パターンの認識及び分類
では、例えば、適応マッピング・メカニズムを構成する
のは複数の入力信号同士又は入力信号及び出力信号の間
の相関であることが今では一般に認められている。パタ
ーンを認識し且つ/又は分類することを『学習する』シ
ステムは、これらの相関をコード化しなければならな
い。従って、全部ではないとしても、殆どの研究は連合
に基づくメカニズムに焦点を当てている。
信号に基づく連合規則に注目した。この研究方針では、
一つの入力の重みは、若しその入力と、指定された隣接
の入力とが共に、限定された時間窓の中で活性状態であ
るならば、大きくされる。適応パターンの認識及び分類
では、例えば、適応マッピング・メカニズムを構成する
のは複数の入力信号同士又は入力信号及び出力信号の間
の相関であることが今では一般に認められている。パタ
ーンを認識し且つ/又は分類することを『学習する』シ
ステムは、これらの相関をコード化しなければならな
い。従って、全部ではないとしても、殆どの研究は連合
に基づくメカニズムに焦点を当てている。
【0008】しかし、これらの学習規則の各々は、限界
のあるものであることが分かった。各規則は、特別の種
類又はグループの問題が与えられたときには良く役立つ
けれども、そのいずれも、これまでのところでは、当該
分野における多様な問題に適用するのに充分な一般性又
は適応性を持っているとは証明されていない。適応とい
う言葉が鍵である。適応又は適応性応答(ARと略記す
る)は、新しい状態の要求に適合するために回路網の応
答を変更するプロセスである。
のあるものであることが分かった。各規則は、特別の種
類又はグループの問題が与えられたときには良く役立つ
けれども、そのいずれも、これまでのところでは、当該
分野における多様な問題に適用するのに充分な一般性又
は適応性を持っているとは証明されていない。適応とい
う言葉が鍵である。適応又は適応性応答(ARと略記す
る)は、新しい状態の要求に適合するために回路網の応
答を変更するプロセスである。
【0009】生物系では、その様な変更は、最初の変化
の経験では行われない。むしろ、生物が実質的変更を被
るまでには変化が頻繁に且つ/又は長期間にわたって起
こらなければならない。生物系は、これに関して非常に
保守的である。運動選手の筋肉組織の発展は、適応応答
のこの面の良い例である。スポーツを始めたばかりの自
称重量挙げ選手を考えてみよ。
の経験では行われない。むしろ、生物が実質的変更を被
るまでには変化が頻繁に且つ/又は長期間にわたって起
こらなければならない。生物系は、これに関して非常に
保守的である。運動選手の筋肉組織の発展は、適応応答
のこの面の良い例である。スポーツを始めたばかりの自
称重量挙げ選手を考えてみよ。
【0010】1週間の練習後、彼は、始めに出来たより
も相当重い重量を持ち上げることが出来るかもしれな
い。練習の性質は、練習と練習との間の長い(練習自体
の時間に比べて)期間にわたる周期性のものであること
に注意しなければならない。短期間にわたっては、人体
は練習と練習との間に筋肉に課された物理的要求の記憶
を維持する。
も相当重い重量を持ち上げることが出来るかもしれな
い。練習の性質は、練習と練習との間の長い(練習自体
の時間に比べて)期間にわたる周期性のものであること
に注意しなければならない。短期間にわたっては、人体
は練習と練習との間に筋肉に課された物理的要求の記憶
を維持する。
【0011】この記憶は、練習の継続で向上する。重量
挙げ選手が1週間続けると、その週の終りには、同じ重
量を上げるのが始めのときよりも幾分容易になっている
のに気付くだろう。1か月練習し続ければ、初めの頃に
少ない重量に要したのと同じ力で、もっと重い重量を持
ち上げられる様になっているのに気付くであろう。
挙げ選手が1週間続けると、その週の終りには、同じ重
量を上げるのが始めのときよりも幾分容易になっている
のに気付くだろう。1か月練習し続ければ、初めの頃に
少ない重量に要したのと同じ力で、もっと重い重量を持
ち上げられる様になっているのに気付くであろう。
【0012】規則的練習をつづければ、筋肉系に物理的
変化が生じる。継続する要求を満たすのに役立つ様に新
しい組織が付くに従って、筋肉束が膨らんでくる。練習
を或る期間行わなくても、この新しい組織は或る期間に
わたって残るので、長期記憶の一つの形が続く。何故人
体は最初の又は2回目の要求でこの新しい組織を作らな
いのだろうか。その理由は、生物組織は環境の確率的性
質に対処するように進化していることである。それは本
来保守的で、日常生活を処理するのに『通常』要する応
答能力の量だけを維持する。新しいレベルの要求に繰り
返しさらされた後に初めて人体は新しい筋肉繊維を作る
ことにより応答する。
変化が生じる。継続する要求を満たすのに役立つ様に新
しい組織が付くに従って、筋肉束が膨らんでくる。練習
を或る期間行わなくても、この新しい組織は或る期間に
わたって残るので、長期記憶の一つの形が続く。何故人
体は最初の又は2回目の要求でこの新しい組織を作らな
いのだろうか。その理由は、生物組織は環境の確率的性
質に対処するように進化していることである。それは本
来保守的で、日常生活を処理するのに『通常』要する応
答能力の量だけを維持する。新しいレベルの要求に繰り
返しさらされた後に初めて人体は新しい筋肉繊維を作る
ことにより応答する。
【0013】練習から遠ざかった運動選手に何が起こる
だろうか。或る点までは、それは彼がこれまでどの程度
長い期間練習をしてきたかによる。若し彼が僅か1週間
後にやめたならば、その後1週間程度で彼の能力は練習
開始前に戻ってしまうであろう。しかし、6か月練習し
た後にやめた場合には、新しい能力が練習前のレベルに
萎縮するのには幾箇月もかかる。実際、若しその運動選
手が運動を止めてから数カ月以内に練習プログラムを作
り直せば、彼は、初期プロセスに比べて比較的に短い時
間でピーク時の能力を回復できるチャンスがある。これ
は、適応性応答の長期間記憶効果による。
だろうか。或る点までは、それは彼がこれまでどの程度
長い期間練習をしてきたかによる。若し彼が僅か1週間
後にやめたならば、その後1週間程度で彼の能力は練習
開始前に戻ってしまうであろう。しかし、6か月練習し
た後にやめた場合には、新しい能力が練習前のレベルに
萎縮するのには幾箇月もかかる。実際、若しその運動選
手が運動を止めてから数カ月以内に練習プログラムを作
り直せば、彼は、初期プロセスに比べて比較的に短い時
間でピーク時の能力を回復できるチャンスがある。これ
は、適応性応答の長期間記憶効果による。
【0014】実際、生物系の適応性応答は、学習が厳密
に2信号間の相関ではないことを示す。むしろ、もっと
一般的なアプローチは、学習は単一の入力チャネルに沿
って時間変化する信号に固有の情報の符号化に基づくと
いうことである。
に2信号間の相関ではないことを示す。むしろ、もっと
一般的なアプローチは、学習は単一の入力チャネルに沿
って時間変化する信号に固有の情報の符号化に基づくと
いうことである。
【0015】
【発明の概要】本発明は、この、より基本的な学習法則
に基づくニューロン回路網の建設ブロックとしてのプロ
セッサを提供することを目的とする。本発明は、一面に
おいて、入力信号に応答して結果信号を生成するための
シナプス・プロセッサを提供するものである。このシナ
プス・プロセッサは第1及び第2の期待値を包含する。
該シナプス・プロセッサは、該第1期待値を入力信号と
該第2期待値との関数として修正し、該第2期待値を該
第1期待値の関数として修正する。該結果信号は、該第
1期待値に応じて決定される。
に基づくニューロン回路網の建設ブロックとしてのプロ
セッサを提供することを目的とする。本発明は、一面に
おいて、入力信号に応答して結果信号を生成するための
シナプス・プロセッサを提供するものである。このシナ
プス・プロセッサは第1及び第2の期待値を包含する。
該シナプス・プロセッサは、該第1期待値を入力信号と
該第2期待値との関数として修正し、該第2期待値を該
第1期待値の関数として修正する。該結果信号は、該第
1期待値に応じて決定される。
【0016】本発明は、他の面では、処理要素を提供す
る。該処理要素は、入力信号に応じて結果信号を生成す
る入力シナプス・プロセッサを包含する。該入力シナプ
ス・プロセッサは第1及び第2の期待値を包含する。該
シナプス・プロセッサは該第1期待値を入力信号と該第
2期待値との関数として修正し、該第2期待値を該第1
期待値の関数として修正する。該結果信号は、該第1期
待値に応じて決定される。該処理要素は、該結果信号と
臨界値信号とに応じて出力信号を生成する。
る。該処理要素は、入力信号に応じて結果信号を生成す
る入力シナプス・プロセッサを包含する。該入力シナプ
ス・プロセッサは第1及び第2の期待値を包含する。該
シナプス・プロセッサは該第1期待値を入力信号と該第
2期待値との関数として修正し、該第2期待値を該第1
期待値の関数として修正する。該結果信号は、該第1期
待値に応じて決定される。該処理要素は、該結果信号と
臨界値信号とに応じて出力信号を生成する。
【0017】
【実施例】この特許文献の開示内容の一部は、著作権保
護の対象となるものを含んでいる。著作権所有者は、特
許商標庁の特許ファイル又は記憶にある通りの該特許文
献又は特許開示の如何なる者による複写にも異議はない
けれども、その他については全ての著作権を留保する。
護の対象となるものを含んでいる。著作権所有者は、特
許商標庁の特許ファイル又は記憶にある通りの該特許文
献又は特許開示の如何なる者による複写にも異議はない
けれども、その他については全ての著作権を留保する。
【0018】図1を参照すると、ニューロン回路網に用
いるシナプス・プロセッサ102、又は単一レベル・ア
ダプトロード、の実施例が示されている。従来、ニュー
ロン回路網は広範な技術を用いて実施されている。その
技術はアナログ又はディジタルである。実際の実施で
は、例えば回路網の複雑さなどに基づいてアプリケーシ
ョンと共に変動する。アナログ回路は低コストであるけ
れども、高速の実施、大規模な回路網は厄介になり、あ
る程度の精度が失われる。
いるシナプス・プロセッサ102、又は単一レベル・ア
ダプトロード、の実施例が示されている。従来、ニュー
ロン回路網は広範な技術を用いて実施されている。その
技術はアナログ又はディジタルである。実際の実施で
は、例えば回路網の複雑さなどに基づいてアプリケーシ
ョンと共に変動する。アナログ回路は低コストであるけ
れども、高速の実施、大規模な回路網は厄介になり、あ
る程度の精度が失われる。
【0019】もっと複雑な回路網は一般に汎用コンピュ
ーターや特別に設計されたハードウェアで実施される。
この理由により、本発明を数学的に解説するのが便利で
ある。しかし、本発明は、その様な数学的実施や、アナ
ログ又はディジタル実施には限定されないことに注意す
るべきである。シナプス・プロセッサ102は入力信号
Xを受信して、結果信号rを生成する。この結果信号
は、以下に説明するように、入力期待値W0 の関数であ
る。
ーターや特別に設計されたハードウェアで実施される。
この理由により、本発明を数学的に解説するのが便利で
ある。しかし、本発明は、その様な数学的実施や、アナ
ログ又はディジタル実施には限定されないことに注意す
るべきである。シナプス・プロセッサ102は入力信号
Xを受信して、結果信号rを生成する。この結果信号
は、以下に説明するように、入力期待値W0 の関数であ
る。
【0020】以下の記述の幾つかの部分において、連続
システムと離散的システムとを区別する。連続システム
では、システム・パラメーターは連続的に更新され、連
続的に可変であると言われる。離散的システムでは、シ
ステム・パラメーターは、代表的には△tと書かれる離
散的時間間隔で更新される。更に、例えば大強度とか中
間強度とかにおける強度という用語は、入力信号を説明
するのに使われる。例えば、入力信号が、一定の幅を有
するパルス系列としてモデル化される離散的システム
は、大強度入力信号は、殆どがパルスから成るものであ
る。
システムと離散的システムとを区別する。連続システム
では、システム・パラメーターは連続的に更新され、連
続的に可変であると言われる。離散的システムでは、シ
ステム・パラメーターは、代表的には△tと書かれる離
散的時間間隔で更新される。更に、例えば大強度とか中
間強度とかにおける強度という用語は、入力信号を説明
するのに使われる。例えば、入力信号が、一定の幅を有
するパルス系列としてモデル化される離散的システム
は、大強度入力信号は、殆どがパルスから成るものであ
る。
【0021】単一レベル・アダプトロード102は、入
力期待値を初期化する手段104を含む。入力期待値W
0 は、最大期待値WM 及び平衡期待値WE を境界とす
る。一実施例では、入力期待値W0 はWE (代表的には
ゼロ)に等しい初期値を与えられる。手段106は、入
力信号を受信して、入力信号の大きさを検出する。入力
信号の大きさは、該信号の性質に依存する。例えば、連
続システムでは、入力信号の周波数は一様でなくてもよ
い。入力信号は、一様でない連続的な電圧又は電流を有
することも出来る。若しニューロン回路網がディジタル
で実験されるならば、入力信号は論理低レベル(ゼロ)
又は論理高レベル(非ゼロ)である。
力期待値を初期化する手段104を含む。入力期待値W
0 は、最大期待値WM 及び平衡期待値WE を境界とす
る。一実施例では、入力期待値W0 はWE (代表的には
ゼロ)に等しい初期値を与えられる。手段106は、入
力信号を受信して、入力信号の大きさを検出する。入力
信号の大きさは、該信号の性質に依存する。例えば、連
続システムでは、入力信号の周波数は一様でなくてもよ
い。入力信号は、一様でない連続的な電圧又は電流を有
することも出来る。若しニューロン回路網がディジタル
で実験されるならば、入力信号は論理低レベル(ゼロ)
又は論理高レベル(非ゼロ)である。
【0022】手段又は処理ユニット108は、入力期待
値W0 を修正する。手段108は、入力期待値に対する
正味の修正を計算する。その正味の修正は、新しい入力
期待値を形成するために前の入力期待値に加算される。
正味の修正は、増加項と減少項とを有する。該増加項は
入力期待値を増加させるのに貢献し、減少項は入力期待
値を減少させるのに貢献する。その二つの項の正味の効
果は、その相対的な大きさによる。
値W0 を修正する。手段108は、入力期待値に対する
正味の修正を計算する。その正味の修正は、新しい入力
期待値を形成するために前の入力期待値に加算される。
正味の修正は、増加項と減少項とを有する。該増加項は
入力期待値を増加させるのに貢献し、減少項は入力期待
値を減少させるのに貢献する。その二つの項の正味の効
果は、その相対的な大きさによる。
【0023】入力期待値W0 は、入力信号の強度に関す
る該アダプトロードの現在の期待値を表す。アダプトロ
ードは、該入力信号に順応し又は該入力信号から学習す
る。即ち、該アダプトロードは、その履歴の入力期待値
を通して記憶を保持する。将来の入力信号の、その期待
値は、その履歴に基づく。増加項は、入力信号の関数で
あって、入力期待値を『引っ張り上げる』のに役立つ。
減少項は、入力信号の関数ではなくて、長い期間に疎信
号を受信すると予期するために該アダプトロードに固有
のバイアスを与える。
る該アダプトロードの現在の期待値を表す。アダプトロ
ードは、該入力信号に順応し又は該入力信号から学習す
る。即ち、該アダプトロードは、その履歴の入力期待値
を通して記憶を保持する。将来の入力信号の、その期待
値は、その履歴に基づく。増加項は、入力信号の関数で
あって、入力期待値を『引っ張り上げる』のに役立つ。
減少項は、入力信号の関数ではなくて、長い期間に疎信
号を受信すると予期するために該アダプトロードに固有
のバイアスを与える。
【0024】一実施例では、増加項は入力信号の関数で
あり、減少項は入力信号とは無関係である。他の実施例
では、増加項は上昇定数α0 の関数であり、減少項は減
衰定数δ0 の関数である。更に、この上昇定数及び減衰
定数は独立である。更に他の実施例では、増加項は唯一
の入力信号の関数である。第1実施例では、入力期待値
は式1に従って修正する。 W0 =W0 P +X・α0 ・〔WM −W0 P 〕 −δ0 ・〔W0 P −WE 〕 (式 1) この式において、 W0 =新しい入力期待値 W0 =前の入力期待値 XP =入力信号 α0 =上昇定数 WM =最大期待値 δ0 =減衰定数 WE =平衡期待値 である。第1実施例では、上昇項は非線型関数である。
従って、第1実施例による単一レベル・アダプトロード
は非線型利得を有すると言われる。
あり、減少項は入力信号とは無関係である。他の実施例
では、増加項は上昇定数α0 の関数であり、減少項は減
衰定数δ0 の関数である。更に、この上昇定数及び減衰
定数は独立である。更に他の実施例では、増加項は唯一
の入力信号の関数である。第1実施例では、入力期待値
は式1に従って修正する。 W0 =W0 P +X・α0 ・〔WM −W0 P 〕 −δ0 ・〔W0 P −WE 〕 (式 1) この式において、 W0 =新しい入力期待値 W0 =前の入力期待値 XP =入力信号 α0 =上昇定数 WM =最大期待値 δ0 =減衰定数 WE =平衡期待値 である。第1実施例では、上昇項は非線型関数である。
従って、第1実施例による単一レベル・アダプトロード
は非線型利得を有すると言われる。
【0025】第2実施例では、入力期待値は式2に従っ
て修正される。 W0 =W0 P +X・α0 −δ0 ・〔W0 P −WE 〕 (式 2) 第2実施例では、上昇項は線型関数である。従って、第
2実施例によるアダプトロードは線型利得を有すると言
われる。更に、入力期待値W0 は最大値に特別に限定さ
れるものではない。しかし、シミュレーションは、適当
な期間にわたって連続的入力信号が与えられた場合には
式2は最大定常状態平衡値に到達することを示した。正
確な最大値は方程式パラメーター、入力信号の強度、及
び入力信号の大きさの関数である。
て修正される。 W0 =W0 P +X・α0 −δ0 ・〔W0 P −WE 〕 (式 2) 第2実施例では、上昇項は線型関数である。従って、第
2実施例によるアダプトロードは線型利得を有すると言
われる。更に、入力期待値W0 は最大値に特別に限定さ
れるものではない。しかし、シミュレーションは、適当
な期間にわたって連続的入力信号が与えられた場合には
式2は最大定常状態平衡値に到達することを示した。正
確な最大値は方程式パラメーター、入力信号の強度、及
び入力信号の大きさの関数である。
【0026】線型利得モデル及び非線型利得モデルの両
方において、率定数は、減衰の率が増加の率より長い時
間にわたることとなる様に設定される。即ち、α0 >δ
0 である。図2を参照すると、入力期待値修正手段10
8は、増加項を決定する手段202と、減少項を決定す
る手段204とを含む。
方において、率定数は、減衰の率が増加の率より長い時
間にわたることとなる様に設定される。即ち、α0 >δ
0 である。図2を参照すると、入力期待値修正手段10
8は、増加項を決定する手段202と、減少項を決定す
る手段204とを含む。
【0027】式1から、増加項は X・α0 ・〔WM −W0 P 〕である。好適な実施例で
は、増加項は正であり、入力期待値に加算される。増加
項決定手段202は、遅延させられた又は前の入力期待
値W0 P を生成するための遅延ブロック206を含む。
遅延させられた入力期待値(W0 P )は、第1加算器2
08によって最大期待値WM から減算される。第1掛算
器210は、第1加算器208の出力に上昇定数α0 を
掛ける。
は、増加項は正であり、入力期待値に加算される。増加
項決定手段202は、遅延させられた又は前の入力期待
値W0 P を生成するための遅延ブロック206を含む。
遅延させられた入力期待値(W0 P )は、第1加算器2
08によって最大期待値WM から減算される。第1掛算
器210は、第1加算器208の出力に上昇定数α0 を
掛ける。
【0028】同じく、減少項は式1において δ0 ・〔W0 P −WE 〕として定義されている。好適な
実施例では、減少項は正で、入力期待値から減算され
る。減少項決定手段20は、遅延させられた入力期待値
から平衡期待値を減算する第2加算器212を含む。第
2掛算器214は、第2加算器212の出力に減衰定数
δ0 を掛ける。
実施例では、減少項は正で、入力期待値から減算され
る。減少項決定手段20は、遅延させられた入力期待値
から平衡期待値を減算する第2加算器212を含む。第
2掛算器214は、第2加算器212の出力に減衰定数
δ0 を掛ける。
【0029】第3掛算器216は、第1掛算器210の
出力に入力信号Xを掛ける。第3加算器218は、第3
掛算器216の出力を加算すると共に第2掛算器214
の出力を遅延させられた入力期待値から減算して新しい
入力期待値W0 を形成する。図1を再び参照すると、手
段110は、入力期待値W0 の関数として結果信号rを
生成する。一実施例では、結果信号は入力期待値の線型
関数である。
出力に入力信号Xを掛ける。第3加算器218は、第3
掛算器216の出力を加算すると共に第2掛算器214
の出力を遅延させられた入力期待値から減算して新しい
入力期待値W0 を形成する。図1を再び参照すると、手
段110は、入力期待値W0 の関数として結果信号rを
生成する。一実施例では、結果信号は入力期待値の線型
関数である。
【0030】他の実施例では、結果信号は入力期待値の
非線型関数である。例えば、連続システムでは式3Aが
成り立つが、 r=k・W0 ・e-λτ (式 3A) この式においては、 r=結果信号 k=第1定数 W0 =入力期待値 λ=第2定数 τ=所定の時間差 である。時間差rは、現在の時間から、入力信号の大き
さがゼロでなくなる時を引いたものとして決定される。
非線型関数である。例えば、連続システムでは式3Aが
成り立つが、 r=k・W0 ・e-λτ (式 3A) この式においては、 r=結果信号 k=第1定数 W0 =入力期待値 λ=第2定数 τ=所定の時間差 である。時間差rは、現在の時間から、入力信号の大き
さがゼロでなくなる時を引いたものとして決定される。
【0031】他の例では、離散的システムについて式3
Bが成り立つ。 r(t)=k・W0 (t)=W0 (t−△t) 又は r(t)=r(t−△t)−λ・r(t−△t) (その他の場合) (式 3B) この式では、 r=結果信号 k=第1定数 W0 =入力期待値 λ=第2定数 である。
Bが成り立つ。 r(t)=k・W0 (t)=W0 (t−△t) 又は r(t)=r(t−△t)−λ・r(t−△t) (その他の場合) (式 3B) この式では、 r=結果信号 k=第1定数 W0 =入力期待値 λ=第2定数 である。
【0032】図3を参照すると、式3Bを具体化するた
めの結果信号生成手段110が示されている。手段11
0は、入力期待値W0 に定数kを掛ける第4掛算器30
2を含む。第2遅延ブロック303は、該結果信号を第
5掛算器304及び第4加算器306に供給する。第5
掛算器304は、遅延させられた結果信号に定数λを掛
ける。第4加算器306は、第5掛算器304の出力
を、遅延させられた結果信号から減算する。判定ブロッ
ク308は、入力信号Xを臨界値(例えばゼロ)と比較
する。入力信号が該臨界値より大きければ、第4掛算器
302が出力は制御ブロック310により通過させられ
る。その他の場合には、第4加算器306の出力が通さ
れる。
めの結果信号生成手段110が示されている。手段11
0は、入力期待値W0 に定数kを掛ける第4掛算器30
2を含む。第2遅延ブロック303は、該結果信号を第
5掛算器304及び第4加算器306に供給する。第5
掛算器304は、遅延させられた結果信号に定数λを掛
ける。第4加算器306は、第5掛算器304の出力
を、遅延させられた結果信号から減算する。判定ブロッ
ク308は、入力信号Xを臨界値(例えばゼロ)と比較
する。入力信号が該臨界値より大きければ、第4掛算器
302が出力は制御ブロック310により通過させられ
る。その他の場合には、第4加算器306の出力が通さ
れる。
【0033】アダプトロード102の或る作動状態を説
明するために、アダプトロード102のグラフを使う。
図4及び図5を参照すると、入力信号Xが入力期待値修
正手段108に加えられる。増加項及び減少項が決定さ
れて、新しい入力期待値を決定するために使われる。結
果信号生成手段110(応答ユニット)は、入力期待値
の関数として結果信号を決定する。
明するために、アダプトロード102のグラフを使う。
図4及び図5を参照すると、入力信号Xが入力期待値修
正手段108に加えられる。増加項及び減少項が決定さ
れて、新しい入力期待値を決定するために使われる。結
果信号生成手段110(応答ユニット)は、入力期待値
の関数として結果信号を決定する。
【0034】図4のアダプトロードは、棒402により
示されている様に、高入力期待値を有する。対照的に、
図5のアダプトロード102の棒502は、比較的に低
い入力期待値を有する。本発明の重要な特徴を説明する
ために、類似の図を以下の記述を通じて使用する。図6
〜11を参照すると、非線型利得を有する単一レベルの
アダプトロード102の入力期待値W0 が、いろいろな
入力信号について示されている。各々の例において上昇
定数α0 は0.25であり、減衰定数δ0 は0.125であ
る。これららの定数の値は、単なる例に過ぎないことに
注意しなければならない。最大期待値WM は1に設定さ
れ、平衡期待値WE はゼロに設定されている。入力期待
値はゼロに初期化される。更に入力信号は1.0の大きさ
を有する。
示されている様に、高入力期待値を有する。対照的に、
図5のアダプトロード102の棒502は、比較的に低
い入力期待値を有する。本発明の重要な特徴を説明する
ために、類似の図を以下の記述を通じて使用する。図6
〜11を参照すると、非線型利得を有する単一レベルの
アダプトロード102の入力期待値W0 が、いろいろな
入力信号について示されている。各々の例において上昇
定数α0 は0.25であり、減衰定数δ0 は0.125であ
る。これららの定数の値は、単なる例に過ぎないことに
注意しなければならない。最大期待値WM は1に設定さ
れ、平衡期待値WE はゼロに設定されている。入力期待
値はゼロに初期化される。更に入力信号は1.0の大きさ
を有する。
【0035】以下の記述に使われるグラフは、離散的シ
ステムについての入力期待値修正手段108の応答を表
す。即ち、入力期待値は離散的時間間隔△tで修正され
る。非線型利得を有する単一レベルのアダプトロードに
ついては、入力期待値は式4Aで決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 ・〔WM −W0 (t−△t)〕 −δ0 〔W0 (t−△t)−WE 〕 (式 4A) 図6〜17及び24〜47を参照すると、入力信号は一
定の幅及び大きさを有するパルスの系列である。入力信
号は各グラフの底部に棒として示されている。この棒
は、非ゼロである入力信号に対応する。図6〜17及び
24〜47のグラフは離散的データに基づいているが、
そのデータは線グラフで表されていることに注意するべ
きである。線グラフは、アダプトロードの応答特性を調
べるのに特に有益である。
ステムについての入力期待値修正手段108の応答を表
す。即ち、入力期待値は離散的時間間隔△tで修正され
る。非線型利得を有する単一レベルのアダプトロードに
ついては、入力期待値は式4Aで決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 ・〔WM −W0 (t−△t)〕 −δ0 〔W0 (t−△t)−WE 〕 (式 4A) 図6〜17及び24〜47を参照すると、入力信号は一
定の幅及び大きさを有するパルスの系列である。入力信
号は各グラフの底部に棒として示されている。この棒
は、非ゼロである入力信号に対応する。図6〜17及び
24〜47のグラフは離散的データに基づいているが、
そのデータは線グラフで表されていることに注意するべ
きである。線グラフは、アダプトロードの応答特性を調
べるのに特に有益である。
【0036】図6において、時刻t=0で、入力信号は
ゼロで、入力期待値も0である。時刻t=5で、入力信
号は非ゼロであって、1.0の大きさを有する。入力は、
t=9まで非ゼロのままである。図に示されている様
に、入力が非ゼロである間は増加項は減少項より大きく
て、入力期待値は指数関数的に上昇する。入力信号が再
びゼロになった後、入力期待値は平衡期待値WE に向か
って『落ちる』又は減衰する。
ゼロで、入力期待値も0である。時刻t=5で、入力信
号は非ゼロであって、1.0の大きさを有する。入力は、
t=9まで非ゼロのままである。図に示されている様
に、入力が非ゼロである間は増加項は減少項より大きく
て、入力期待値は指数関数的に上昇する。入力信号が再
びゼロになった後、入力期待値は平衡期待値WE に向か
って『落ちる』又は減衰する。
【0037】図7において、中間持続時間の入力信号が
アダプトロードに加えられる。図に示されている様に、
1.0の大きさを有する入力信号が時刻t=5に加えら
れ、t=14で再びゼロになる。入力信号が非ゼロであ
る期間を通じて入力期待値は増加し続けるけれども、正
味の修正は実際には減少しつつあることに注意するべき
である。これは、増加項は最大期待値と現在の期待値と
の差の関数であるという事実に帰せられるのであり、ま
た減少項の増加する効果による。この効果が図8に更に
示されているが、ここでは長持続時間の大強度入力信号
がアダプトロードに加えられる。入力期待値は平らにな
る様に見える。
アダプトロードに加えられる。図に示されている様に、
1.0の大きさを有する入力信号が時刻t=5に加えら
れ、t=14で再びゼロになる。入力信号が非ゼロであ
る期間を通じて入力期待値は増加し続けるけれども、正
味の修正は実際には減少しつつあることに注意するべき
である。これは、増加項は最大期待値と現在の期待値と
の差の関数であるという事実に帰せられるのであり、ま
た減少項の増加する効果による。この効果が図8に更に
示されているが、ここでは長持続時間の大強度入力信号
がアダプトロードに加えられる。入力期待値は平らにな
る様に見える。
【0038】実際に、図9に示されている様に、一定の
大きさの最大強度入力信号が与えられると、入力期待値
は飽和点又は定常状態値に到達する。この状況では、増
加項と減少項とは互いに相殺し合い、正味の修正はゼロ
である。図10において、確率的な又はランダムな入力
信号が図示の様にアダプトロード102に加えられてい
る。入力信号が非ゼロであるときには、増加項が正味の
修正を正にし、入力信号がゼロであるときには、減少項
が正味の修正を負にする。
大きさの最大強度入力信号が与えられると、入力期待値
は飽和点又は定常状態値に到達する。この状況では、増
加項と減少項とは互いに相殺し合い、正味の修正はゼロ
である。図10において、確率的な又はランダムな入力
信号が図示の様にアダプトロード102に加えられてい
る。入力信号が非ゼロであるときには、増加項が正味の
修正を正にし、入力信号がゼロであるときには、減少項
が正味の修正を負にする。
【0039】図11において、逐次入力信号がアダプト
ロードに加えられている。即ち、入力信号は、最初の短
時間(5≦t≦10)の間は非ゼロであり、第2期間
(11≦t≦24)中はゼロであり、次に第3期間(2
5≦t≦29)中は非ゼロである。その結果として生じ
る入力期待値は、単一レベルのアダプトロードの学習能
力を示す。第1及び第2の期間のとき、入力期待値は、
期待される通りに、且つ上記した通りに、上昇し下降す
る。t=25で、入力信号は非ゼロになり、入力期待値
は再び上昇し始める。しかし、それは、その現在の値か
ら上昇する。
ロードに加えられている。即ち、入力信号は、最初の短
時間(5≦t≦10)の間は非ゼロであり、第2期間
(11≦t≦24)中はゼロであり、次に第3期間(2
5≦t≦29)中は非ゼロである。その結果として生じ
る入力期待値は、単一レベルのアダプトロードの学習能
力を示す。第1及び第2の期間のとき、入力期待値は、
期待される通りに、且つ上記した通りに、上昇し下降す
る。t=25で、入力信号は非ゼロになり、入力期待値
は再び上昇し始める。しかし、それは、その現在の値か
ら上昇する。
【0040】上昇定数及び減衰定数は、入力期待値の増
減の率の性質に影響を与える。例えば、上昇定数及び減
衰定数の大きさが同様であれば、入力期待値の増減の率
は同様となる。一方、若し減衰定数が上昇定数より比較
的に遥かに小さければ(δ0<<α0 )、アダプトロード
は『速い』学習と遅い『忘却』とを示す。図12〜17
を参照すると、線型利得を有する単一レベルのアダプト
ロード102の入力期待値W0 がいろいろな入力信号に
ついて示されている。各々の例において、上昇定数α0
は4.0であり、減衰定数δ0 は0.125である。平衡期
待値WE はゼロに設定され、入力期待値はゼロに初期化
される。
減の率の性質に影響を与える。例えば、上昇定数及び減
衰定数の大きさが同様であれば、入力期待値の増減の率
は同様となる。一方、若し減衰定数が上昇定数より比較
的に遥かに小さければ(δ0<<α0 )、アダプトロード
は『速い』学習と遅い『忘却』とを示す。図12〜17
を参照すると、線型利得を有する単一レベルのアダプト
ロード102の入力期待値W0 がいろいろな入力信号に
ついて示されている。各々の例において、上昇定数α0
は4.0であり、減衰定数δ0 は0.125である。平衡期
待値WE はゼロに設定され、入力期待値はゼロに初期化
される。
【0041】図12〜17は、離散的システムについて
の入力期待値修正手段の応答を表す。従って、線型利得
を有する単一レベルのアダプトロードについて、入力期
待値は式4Bによって決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 −δ0 〔W0 (t−△t)−WE 〕 (式 4B) 図12において、大強度で短持続時間の入力信号が単一
レベルのアダプトロード102に加えられる。図13及
び14において、大強度の、中間持続時間及び長持続時
間の入力信号がそれぞれアダプトロード102に加えら
れる。しかし、増加項は線型関数として定義されている
けれども、入力期待値は減少項に起因して線型関数では
ない。
の入力期待値修正手段の応答を表す。従って、線型利得
を有する単一レベルのアダプトロードについて、入力期
待値は式4Bによって決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 −δ0 〔W0 (t−△t)−WE 〕 (式 4B) 図12において、大強度で短持続時間の入力信号が単一
レベルのアダプトロード102に加えられる。図13及
び14において、大強度の、中間持続時間及び長持続時
間の入力信号がそれぞれアダプトロード102に加えら
れる。しかし、増加項は線型関数として定義されている
けれども、入力期待値は減少項に起因して線型関数では
ない。
【0042】図15において、一定の大きさ(1.0)
の最大強度入力信号が単一レベルのアダプトロード10
2に加えられる。非線型利得を有する単一レベルのアダ
プトロード102の場合と同じく、線型利得を有する単
一レベルのアダプトロードの入力期待値も定常状態値に
到達する。しかし、入力期待値W0 は式4によって最大
値に束縛されないことに注意しなければならない。むし
ろ、定常状態値は、アダプトロードのパラメーター、入
力信号の強度、及び入力信号の大きさの関数である。与
えられたアダプトロードについて、最大強度及び最大の
大きさの入力信号が適当な持続時間にわたって加えられ
たときに定常状態値は最大期待値に到達する。
の最大強度入力信号が単一レベルのアダプトロード10
2に加えられる。非線型利得を有する単一レベルのアダ
プトロード102の場合と同じく、線型利得を有する単
一レベルのアダプトロードの入力期待値も定常状態値に
到達する。しかし、入力期待値W0 は式4によって最大
値に束縛されないことに注意しなければならない。むし
ろ、定常状態値は、アダプトロードのパラメーター、入
力信号の強度、及び入力信号の大きさの関数である。与
えられたアダプトロードについて、最大強度及び最大の
大きさの入力信号が適当な持続時間にわたって加えられ
たときに定常状態値は最大期待値に到達する。
【0043】図16において、確率的入力信号が単一レ
ベルのアダプトロード102に加えられる。図17にお
いて、逐次入力信号が単一レベルのアダプトロードに加
えられる。両方のグラフが、線型利得を有する単一レベ
ルのアダプトロードが非線型利得を有するアダプトロー
ドと同様の学習能力を有することを示している。これら
の例は、単一レベルのアダプトロードの『学習』(上
昇)及び『忘却』(減衰)の面を証明する。更に、上昇
定数と減衰定数とが独立である結果として、各アダプト
ロードの『学習』及び『忘却』の面は独立に設定される
ことが出来る。即ち、所望の特徴に従って、両方が速く
なったり、両方が遅くなったり、或いは如何なる組合せ
ともなる。
ベルのアダプトロード102に加えられる。図17にお
いて、逐次入力信号が単一レベルのアダプトロードに加
えられる。両方のグラフが、線型利得を有する単一レベ
ルのアダプトロードが非線型利得を有するアダプトロー
ドと同様の学習能力を有することを示している。これら
の例は、単一レベルのアダプトロードの『学習』(上
昇)及び『忘却』(減衰)の面を証明する。更に、上昇
定数と減衰定数とが独立である結果として、各アダプト
ロードの『学習』及び『忘却』の面は独立に設定される
ことが出来る。即ち、所望の特徴に従って、両方が速く
なったり、両方が遅くなったり、或いは如何なる組合せ
ともなる。
【0044】単一レベルのアダプトロードは、一時間領
域において記憶能力を示す。平衡期待値(入力期待値に
ついて)が変化するのを許すことによって、アダプトロ
ードが示す記憶能力は複数の時間領域にある。この様な
アダプトロードは多レベルのアダプトロードと呼ばれ
る。図18を参照すると、シナプス・プロセッサ100
2、又は多レベルのアダプトロード、は複数の期待値を
有する。期待値は一般にW1 と記されるが、ここで0≦
1≦Lである。
域において記憶能力を示す。平衡期待値(入力期待値に
ついて)が変化するのを許すことによって、アダプトロ
ードが示す記憶能力は複数の時間領域にある。この様な
アダプトロードは多レベルのアダプトロードと呼ばれ
る。図18を参照すると、シナプス・プロセッサ100
2、又は多レベルのアダプトロード、は複数の期待値を
有する。期待値は一般にW1 と記されるが、ここで0≦
1≦Lである。
【0045】手段1004は期待値W1 を初期化する。
期待値は、最大期待値WM と平衡期待値WE とを境界と
する。一般に、期待値には次の関係がある。 WM ≧W0 ≧W1 ≧WL ≧WE 手段又は処理ユニット1006(1)は、期待値W1 を
修正する。修正手段1006(1)は、正味の修正値を
決定して、その正味修正値を期待値W1 に加算する。正
味修正値は増加項と減少項とを有する。一般に、増加項
は、1>ならば、先行の期待値W1-L の関数である。若
し1=0であれば、増加項は最大期待値WM の関数であ
る。減少項は、1<Lならば次の期待値W1+1 の関数で
あり、1=LならばWE の関数である。
期待値は、最大期待値WM と平衡期待値WE とを境界と
する。一般に、期待値には次の関係がある。 WM ≧W0 ≧W1 ≧WL ≧WE 手段又は処理ユニット1006(1)は、期待値W1 を
修正する。修正手段1006(1)は、正味の修正値を
決定して、その正味修正値を期待値W1 に加算する。正
味修正値は増加項と減少項とを有する。一般に、増加項
は、1>ならば、先行の期待値W1-L の関数である。若
し1=0であれば、増加項は最大期待値WM の関数であ
る。減少項は、1<Lならば次の期待値W1+1 の関数で
あり、1=LならばWE の関数である。
【0046】第1実施例では、第1期待値W0 は入力信
号の大きさの関数である。第2実施例では、第1期待値
W0 は線型利得を有する(上記した通り)。第3実施例
では、第1期待値W0 は非線型利得を有する(上記した
通り)。第4実施例では、各期待値W1 の増加項は上昇
定数α1 の関数であり、減少項は減衰定数δ1 の関数で
ある。
号の大きさの関数である。第2実施例では、第1期待値
W0 は線型利得を有する(上記した通り)。第3実施例
では、第1期待値W0 は非線型利得を有する(上記した
通り)。第4実施例では、各期待値W1 の増加項は上昇
定数α1 の関数であり、減少項は減衰定数δ1 の関数で
ある。
【0047】第5実施例では、各々の期待値W1 (1>
0)の増加項は、先行の期待値W1- 1 と現在の期待値W
1 との差お関数である。第6の実施例では、各期待値W
1 の減少項は、現在の期待値W1 と次の期待値W1+1 と
の差の関数であるか、又は、1=Lであれば現在の期待
値W1 と平衡期待値WE との差の関数である。
0)の増加項は、先行の期待値W1- 1 と現在の期待値W
1 との差お関数である。第6の実施例では、各期待値W
1 の減少項は、現在の期待値W1 と次の期待値W1+1 と
の差の関数であるか、又は、1=Lであれば現在の期待
値W1 と平衡期待値WE との差の関数である。
【0048】第7実施例では、第1期待値は式5Aに従
って修正される。 W0 =W0 +X・α0 ・〔WM −W0 P 〕 −δ0 ・〔W0 P −W1 〕 (式 5A) ここではW0 P は前の第1期待値である。
って修正される。 W0 =W0 +X・α0 ・〔WM −W0 P 〕 −δ0 ・〔W0 P −W1 〕 (式 5A) ここではW0 P は前の第1期待値である。
【0049】第8実施例では、第1期待値は式5Bに従
って修正される。 W0 =W0 P +X・α0 −δ0 ・〔W0 P −W1 〕 (式 5B) 各々の他の期待値(1>0についてはW1)は式6に従っ
て修正される。 W1 =W1 P +α1 ・ 〔W1-1 −W1 P 〕 −δ1 ・〔W0 P −W1+1 〕 (式 6) ここでW1 P は前の期待値、W1+1 は、1<Lならば次
のレベルの期待値、1=Lならば平衡期待値WE であ
り、W1-1 は先行の期待値である。
って修正される。 W0 =W0 P +X・α0 −δ0 ・〔W0 P −W1 〕 (式 5B) 各々の他の期待値(1>0についてはW1)は式6に従っ
て修正される。 W1 =W1 P +α1 ・ 〔W1-1 −W1 P 〕 −δ1 ・〔W0 P −W1+1 〕 (式 6) ここでW1 P は前の期待値、W1+1 は、1<Lならば次
のレベルの期待値、1=Lならば平衡期待値WE であ
り、W1-1 は先行の期待値である。
【0050】単一レベルのアダプトロードの場合と同じ
く、各レベルについて率定数は、典型的には、減衰の率
が増加の率よりも長い時間にわたることとなるように設
定される。即ち、α1 >δ1 である。更に、多レベルの
アダプトロードでは、各レベル(1)についての率定数
の各々は、一レベル(1)の増加及び減少の率が先行の
レベル(1−1)の増加及び減少の率より長い時間にわ
たることとなる様に設定される。即ち、 α0 ≧α1 ≧α1 ≧αL 及び δ0 ≧δ1 ≧δ1 ≧δL 手段1008は、第1期待値W0 の関数として結果信号
を生成する。上記したように、結果信号は第1期待値W
0 の線型又は非線型の関数である。
く、各レベルについて率定数は、典型的には、減衰の率
が増加の率よりも長い時間にわたることとなるように設
定される。即ち、α1 >δ1 である。更に、多レベルの
アダプトロードでは、各レベル(1)についての率定数
の各々は、一レベル(1)の増加及び減少の率が先行の
レベル(1−1)の増加及び減少の率より長い時間にわ
たることとなる様に設定される。即ち、 α0 ≧α1 ≧α1 ≧αL 及び δ0 ≧δ1 ≧δ1 ≧δL 手段1008は、第1期待値W0 の関数として結果信号
を生成する。上記したように、結果信号は第1期待値W
0 の線型又は非線型の関数である。
【0051】図19を参照すると、多レベルのアダプト
ロード1002がグラフ的に示されている。このグラフ
は、多レベルのアダプトロード1002の幾つかの重要
な特徴を示す。第1に、第1期待値W0 は、入力信号X
により直接左右される唯一の期待値である。第2に、結
果信号rは、第1期待値W0 だけの関数である。また、
棒1102(1)の大きさは、それぞれの期待値の相対
的大きさを示す。更に、矢印は、各期待値が(増加項に
より)正にも(減少項により)負にも影響を受けること
を示す。
ロード1002がグラフ的に示されている。このグラフ
は、多レベルのアダプトロード1002の幾つかの重要
な特徴を示す。第1に、第1期待値W0 は、入力信号X
により直接左右される唯一の期待値である。第2に、結
果信号rは、第1期待値W0 だけの関数である。また、
棒1102(1)の大きさは、それぞれの期待値の相対
的大きさを示す。更に、矢印は、各期待値が(増加項に
より)正にも(減少項により)負にも影響を受けること
を示す。
【0052】図18を再び参照すると、更に他の実施例
において、多レベルのアダプトロード1002は、第2
入力信号H1 を受信して、これに応じて増強信号P1 を
生成する手段1010を抱含している。該増強信号は1
>0について期待値の一つと連合させられる。第1実施
例では、初期化手段1004は、ゲート制御信号g1 を
初期化する。増強信号生成手段1010は、第2入力信
号H1 をゲート制御信号と比較して、これに応じて増強
信号P1 を生成する。例えば、離散的システムではP1
は式7によって決定されることが出来る。 P1 =1(H1 >g1 の場合)、又は P1 =0(その他の場合) (式 7) 連続システムでは、P1 は第2入力信号H1 とゲート制
御信号g1 との差の関数である。
において、多レベルのアダプトロード1002は、第2
入力信号H1 を受信して、これに応じて増強信号P1 を
生成する手段1010を抱含している。該増強信号は1
>0について期待値の一つと連合させられる。第1実施
例では、初期化手段1004は、ゲート制御信号g1 を
初期化する。増強信号生成手段1010は、第2入力信
号H1 をゲート制御信号と比較して、これに応じて増強
信号P1 を生成する。例えば、離散的システムではP1
は式7によって決定されることが出来る。 P1 =1(H1 >g1 の場合)、又は P1 =0(その他の場合) (式 7) 連続システムでは、P1 は第2入力信号H1 とゲート制
御信号g1 との差の関数である。
【0053】第2実施例では、第2入力信号H1 は複数
の相互作用信号hn の和の関数として決定されるが、こ
こでNは相互作用信号の数を表し、0≦n≦Nである。
相互作用信号については以下に更に説明をする。第3実
施例では、ゲート制御信号g1 はアダプトロード100
2のパラメーターの関数として変えられる。例えば、該
ゲート制御信号はW0 又は結果信号rの関数である。
の相互作用信号hn の和の関数として決定されるが、こ
こでNは相互作用信号の数を表し、0≦n≦Nである。
相互作用信号については以下に更に説明をする。第3実
施例では、ゲート制御信号g1 はアダプトロード100
2のパラメーターの関数として変えられる。例えば、該
ゲート制御信号はW0 又は結果信号rの関数である。
【0054】図20を参照すると、好適な実施例におい
て、各期待値(1=0を除く)は、連合するゲート制御
信号g1 を有する。図に示されている様に、増強信号P
1 により達成される増強は、増加項又は期待値の『学
習』だけに影響を与える。減少項又は『忘却』は影響を
受けない。従って、1>0では、式6は式8となる。 W1 =W1 P +P1 ・α1 ・〔W1-1 −W1 P 〕 −δ1 ・〔W0 P −W1+1 〕 (式 8) この式において、W1+1 は、若し1<Lならば次の期待
値であり、若し1=Lならば平衡期待値WE である。
て、各期待値(1=0を除く)は、連合するゲート制御
信号g1 を有する。図に示されている様に、増強信号P
1 により達成される増強は、増加項又は期待値の『学
習』だけに影響を与える。減少項又は『忘却』は影響を
受けない。従って、1>0では、式6は式8となる。 W1 =W1 P +P1 ・α1 ・〔W1-1 −W1 P 〕 −δ1 ・〔W0 P −W1+1 〕 (式 8) この式において、W1+1 は、若し1<Lならば次の期待
値であり、若し1=Lならば平衡期待値WE である。
【0055】離散的システムにおいて、若しP=1なら
ば、学習が許されるので、増強信号は『許容』状態にあ
ると言われる。若しP=0ならば、学習は許されないの
で増強信号は『抑制』状態にあると言われる。図21を
参照すると、3個の期待値(L=2)を有する多レベル
のアダプトロードについての期待値修正手段1006
(0)、1006(1)、1006(2)が、本発明の
実施例に従って更に詳しく図示されている。
ば、学習が許されるので、増強信号は『許容』状態にあ
ると言われる。若しP=0ならば、学習は許されないの
で増強信号は『抑制』状態にあると言われる。図21を
参照すると、3個の期待値(L=2)を有する多レベル
のアダプトロードについての期待値修正手段1006
(0)、1006(1)、1006(2)が、本発明の
実施例に従って更に詳しく図示されている。
【0056】第1期待値修正手段1006(0)は、増
加項を決定する手段1302(0)と、第1期待値の減
少項を決定する手段1304(0)とを包含している。
増加項決定手段1302(0)は、遅延させられた又は
前の第1期待値W0 P を生成する第3遅延ブロック13
06を包含する。遅延させられた第1期待値(W0 P )
は、第5加算器1308によって最大期待値WM から減
算される。第6掛算器1310は、第5加算器1308
の出力に第1上昇定数α0 を掛ける。
加項を決定する手段1302(0)と、第1期待値の減
少項を決定する手段1304(0)とを包含している。
増加項決定手段1302(0)は、遅延させられた又は
前の第1期待値W0 P を生成する第3遅延ブロック13
06を包含する。遅延させられた第1期待値(W0 P )
は、第5加算器1308によって最大期待値WM から減
算される。第6掛算器1310は、第5加算器1308
の出力に第1上昇定数α0 を掛ける。
【0057】減少項決定手段1304(0)は、第2期
待値W1 を遅延させられた第1期待値W0 P から減算す
るための第6加算器1312を包含する。第7掛算器1
314は、第6加算器1312の出力に第1減衰定数δ
0 を掛ける。第8掛算器1316は、第6掛算器131
0の出力に入力信号Xを掛ける。第7加算器1318
は、第8掛算器1316の出力を加算して、第7掛算器
1314の出力を遅延させられた第1期待値から減算し
て新しい第1期待値W0 を形成する。
待値W1 を遅延させられた第1期待値W0 P から減算す
るための第6加算器1312を包含する。第7掛算器1
314は、第6加算器1312の出力に第1減衰定数δ
0 を掛ける。第8掛算器1316は、第6掛算器131
0の出力に入力信号Xを掛ける。第7加算器1318
は、第8掛算器1316の出力を加算して、第7掛算器
1314の出力を遅延させられた第1期待値から減算し
て新しい第1期待値W0 を形成する。
【0058】第2期待値修正手段1006(1)は、増
加項を決定する手段1302(1)と、第2期待値の減
少項を決定する手段1304(1)とを包含する。増加
項決定手段1302(1)は、遅延させられた第2期待
値W1 P を生成する第4遅延ブロック1320を包含す
る。第2期待値についての増強生成手段1010(1)
は、第1期待値W0 、遅延させられた第2期待値
W1 P 、及び相互作用信号hN 1(Nは信号の数を指し、
1は期待値レベルを指す)を受信し、増強信号P1 を生
成する。増強生成手段1010について以下に更に説明
する。第9掛算器1322によって、増強信号P1 に第
2上昇定数α1 がかけられる。
加項を決定する手段1302(1)と、第2期待値の減
少項を決定する手段1304(1)とを包含する。増加
項決定手段1302(1)は、遅延させられた第2期待
値W1 P を生成する第4遅延ブロック1320を包含す
る。第2期待値についての増強生成手段1010(1)
は、第1期待値W0 、遅延させられた第2期待値
W1 P 、及び相互作用信号hN 1(Nは信号の数を指し、
1は期待値レベルを指す)を受信し、増強信号P1 を生
成する。増強生成手段1010について以下に更に説明
する。第9掛算器1322によって、増強信号P1 に第
2上昇定数α1 がかけられる。
【0059】第2期待値についての減少項決定手段13
04(1)は、第3期待値W2 P を第2期待値W1 から
減算する第8加算器1324を含む。第10掛算器13
26は、第8加算器1324の出力に第2減衰定数δ1
を掛ける。第9加算器1328は、第9掛算器1322
の出力を加算し,第10掛算器1326の出力を遅延さ
せられた第2期待値W1 P から減算して新しい第2期待
値W1 を形成する。
04(1)は、第3期待値W2 P を第2期待値W1 から
減算する第8加算器1324を含む。第10掛算器13
26は、第8加算器1324の出力に第2減衰定数δ1
を掛ける。第9加算器1328は、第9掛算器1322
の出力を加算し,第10掛算器1326の出力を遅延さ
せられた第2期待値W1 P から減算して新しい第2期待
値W1 を形成する。
【0060】第3期待値修正手段1006(2)は、増
加項を決定する手段1302(2)と、第3期待値の減
少項を決定する手段とを包含する。増加項決定手段13
02(2)は、遅延させられた第3期待値W2 P を生成
する第5遅延ブロック1330を包含する。第3期待値
についての増強生成手段1010(2)は第2期待値W
1 、遅延させられた第3期待値W2 P 、及び相互作用信
号hM2(Mは信号の数を指し、2は期待値レベルを指
す)を受取り、増強信号P2 を生成する。第11掛算器
1332によって増強信号P2 に第3上昇定数α2 が掛
けられる。
加項を決定する手段1302(2)と、第3期待値の減
少項を決定する手段とを包含する。増加項決定手段13
02(2)は、遅延させられた第3期待値W2 P を生成
する第5遅延ブロック1330を包含する。第3期待値
についての増強生成手段1010(2)は第2期待値W
1 、遅延させられた第3期待値W2 P 、及び相互作用信
号hM2(Mは信号の数を指し、2は期待値レベルを指
す)を受取り、増強信号P2 を生成する。第11掛算器
1332によって増強信号P2 に第3上昇定数α2 が掛
けられる。
【0061】第3期待値についての減少項決定手段13
04(2)は、平衡期待値WE を第3期待値W2 P から
減算する第10加算器1334を含む。第12掛算器1
336は第10加算器1334の出力に第3減衰定数δ
2 を掛ける。第11加算器1338は、第11掛算器1
332の出力を加算し、第10掛算器1336の出力を
遅延させられた第3期待値W2 P から減算して新しい第
3期待値W2 を形成する。
04(2)は、平衡期待値WE を第3期待値W2 P から
減算する第10加算器1334を含む。第12掛算器1
336は第10加算器1334の出力に第3減衰定数δ
2 を掛ける。第11加算器1338は、第11掛算器1
332の出力を加算し、第10掛算器1336の出力を
遅延させられた第3期待値W2 P から減算して新しい第
3期待値W2 を形成する。
【0062】図22を参照して、本発明の実施例による
増強信号生成手段1010を更に説明する。増強信号生
成手段1010は、掛算棒1402とハードル符号源1
404とを包含する。図23に示されている様に、ハー
ドル符号源1404は複数の掛算器1502(n)を含
む。該掛算棒は相互作用信号h1..Nと、テーブル150
4から符号(+1又は−1)とを受け取る。ディジタル
表記では、−1による乗算は2の補数表記を使って行え
ることが理解されるべきである。
増強信号生成手段1010を更に説明する。増強信号生
成手段1010は、掛算棒1402とハードル符号源1
404とを包含する。図23に示されている様に、ハー
ドル符号源1404は複数の掛算器1502(n)を含
む。該掛算棒は相互作用信号h1..Nと、テーブル150
4から符号(+1又は−1)とを受け取る。ディジタル
表記では、−1による乗算は2の補数表記を使って行え
ることが理解されるべきである。
【0063】図22に戻ると、掛算器1402の出力は
第12加算器1406によって加え合わされる。加算器
1408は、ゲート信号g1 を第12加算器1406の
出力から減算する。加算器1408の出力は第1条件ブ
ロック1410に接続される。第1判定ブロック141
2は、先行の期待値W1-1 を受け取る。第2判定ブロッ
ク1414は、現在の期待値W1 P の前の値を受け取
る。判定ブロックは、条件ブロック内の条件が真であれ
ば、YESのラベルが付された入力を通す。従って、第
13掛算器1408の出力が0より大きいならば、第1
及び第2の条件ブロック1412、1414は、それぞ
れ、先行の期待値W1-1 と、現在の期待値W1 P の前の
値とを通す。第1及び第2の判定ブロック1412、1
414は、加算器1408の出力が0より大きくなけれ
ば、0及び1をそれぞれ通す。第13加算器1416
は、第2判定ブロック1414の出力を第1判定ブロッ
ク1412の出力から減算する。
第12加算器1406によって加え合わされる。加算器
1408は、ゲート信号g1 を第12加算器1406の
出力から減算する。加算器1408の出力は第1条件ブ
ロック1410に接続される。第1判定ブロック141
2は、先行の期待値W1-1 を受け取る。第2判定ブロッ
ク1414は、現在の期待値W1 P の前の値を受け取
る。判定ブロックは、条件ブロック内の条件が真であれ
ば、YESのラベルが付された入力を通す。従って、第
13掛算器1408の出力が0より大きいならば、第1
及び第2の条件ブロック1412、1414は、それぞ
れ、先行の期待値W1-1 と、現在の期待値W1 P の前の
値とを通す。第1及び第2の判定ブロック1412、1
414は、加算器1408の出力が0より大きくなけれ
ば、0及び1をそれぞれ通す。第13加算器1416
は、第2判定ブロック1414の出力を第1判定ブロッ
ク1412の出力から減算する。
【0064】図24〜47を参照すると、非線型利得を
有する3レベルのアダプトロードの期待値W0 、W1 、
W2 がいろいろな入力信号について示されている。各例
において、第1上昇定数α0 及びδ0 はそれぞれ0.25
及び0.125に設定されている。第2上昇定数α1 及び
第2減衰定数δ1 はそれぞれ0.0625及び0.0312
である。第3上昇定数及び第3減衰定数α2 及びδ2 は
それぞれ0.0156及び0.0078である。最大期待値
WM は1に設定され、平衡期待値WE は0に設定されて
いる。第1、第2、及び第3期待値W0 、W1 、W2 は
0に初期化される。
有する3レベルのアダプトロードの期待値W0 、W1 、
W2 がいろいろな入力信号について示されている。各例
において、第1上昇定数α0 及びδ0 はそれぞれ0.25
及び0.125に設定されている。第2上昇定数α1 及び
第2減衰定数δ1 はそれぞれ0.0625及び0.0312
である。第3上昇定数及び第3減衰定数α2 及びδ2 は
それぞれ0.0156及び0.0078である。最大期待値
WM は1に設定され、平衡期待値WE は0に設定されて
いる。第1、第2、及び第3期待値W0 、W1 、W2 は
0に初期化される。
【0065】離散的システムにおける非線型利得を有す
る3レベルのアダプトロードについては、第1期待値
は、第1期待値は式9Aにより決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 ・〔WM −W0 (t−△t)〕 −δ0 ・〔W0 (t−△t)−W1 (t−△t)〕 (式 9A) 第2期待値は式9Bにより決定される。 W1 (t)=W1 (t−△t) +α1 ・〔W0 −W1 (t−△t)〕 −δ1 ・〔W1 (t−△t)−W2 (t−△t)〕 (式 9B) 第3期待値は式9Cにより決定される。 W2 (t)=W2 (t−△t) +α2 ・〔W1 −W2 (t−△t)〕 −δ2 ・〔W2 (t−△t)−WE 〕 (式 9C) 図24において、大強度、短持続時間の入力信号が3レ
ベルのアダプトロードに加えられる。第1期待値W
0 は、入力信号が非ゼロである間、増大する。そして、
入力信号がゼロであるとき、減衰する。時刻t=5から
始まって、入力信号が非ゼロになるとき、第2期待値W
1 も上昇し始める。しかし、第2期待値W1の増加項は
第1期待値W0 の関数である。従って、第1期待値W0
に起因して入力信号がゼロになった後、第2期待値W1
は増大し続ける。実際、第1期待値が第2期待値より大
きい間は、第2期待値の増加項は正である。この点で、
多レベルのアダプトロードについて第1期待値W0 の平
衡期待値は次の期待値、即ち、第2期待値W1 であるこ
とに留意することが重要である。実際上、第1期待値の
下限は第2期待値である。
る3レベルのアダプトロードについては、第1期待値
は、第1期待値は式9Aにより決定される。 W0 (t)=W0 (t−△t) +X(t)・α0 ・〔WM −W0 (t−△t)〕 −δ0 ・〔W0 (t−△t)−W1 (t−△t)〕 (式 9A) 第2期待値は式9Bにより決定される。 W1 (t)=W1 (t−△t) +α1 ・〔W0 −W1 (t−△t)〕 −δ1 ・〔W1 (t−△t)−W2 (t−△t)〕 (式 9B) 第3期待値は式9Cにより決定される。 W2 (t)=W2 (t−△t) +α2 ・〔W1 −W2 (t−△t)〕 −δ2 ・〔W2 (t−△t)−WE 〕 (式 9C) 図24において、大強度、短持続時間の入力信号が3レ
ベルのアダプトロードに加えられる。第1期待値W
0 は、入力信号が非ゼロである間、増大する。そして、
入力信号がゼロであるとき、減衰する。時刻t=5から
始まって、入力信号が非ゼロになるとき、第2期待値W
1 も上昇し始める。しかし、第2期待値W1の増加項は
第1期待値W0 の関数である。従って、第1期待値W0
に起因して入力信号がゼロになった後、第2期待値W1
は増大し続ける。実際、第1期待値が第2期待値より大
きい間は、第2期待値の増加項は正である。この点で、
多レベルのアダプトロードについて第1期待値W0 の平
衡期待値は次の期待値、即ち、第2期待値W1 であるこ
とに留意することが重要である。実際上、第1期待値の
下限は第2期待値である。
【0066】同様に、第3期待値の増加項は第2期待値
の関数である。従って、図24に示されている様に、第
2期待値が第3期待値を引っ張り上げるのに充分な大き
さを持っている間は、第3期待値は上昇し続ける。図2
5及び26において、中間持続時間及び長持続時間の大
強度入力信号がそれぞれ3レベルのアダプトロードに加
えられる。第1期待値W0 が第2期待値W 1 の増加項を
減少項より大きくさせるのに充分な大きさである間は、
第2期待値W1 は増加することを両方のグラフが示して
いる。
の関数である。従って、図24に示されている様に、第
2期待値が第3期待値を引っ張り上げるのに充分な大き
さを持っている間は、第3期待値は上昇し続ける。図2
5及び26において、中間持続時間及び長持続時間の大
強度入力信号がそれぞれ3レベルのアダプトロードに加
えられる。第1期待値W0 が第2期待値W 1 の増加項を
減少項より大きくさせるのに充分な大きさである間は、
第2期待値W1 は増加することを両方のグラフが示して
いる。
【0067】該グラフは、多レベルのアダプトロードの
長期間記憶能力も示す。実際上、第2期待値及び第3期
待値は異なる時間領域のなのである。即ち、多レベルの
アダプトロードの各々の追加のレベル又は期待値は、よ
り遅い応答時間を有する。第1期待値は入力信号に応じ
て比較的に速く変化するけれども、これは後の期待値に
抑制される。
長期間記憶能力も示す。実際上、第2期待値及び第3期
待値は異なる時間領域のなのである。即ち、多レベルの
アダプトロードの各々の追加のレベル又は期待値は、よ
り遅い応答時間を有する。第1期待値は入力信号に応じ
て比較的に速く変化するけれども、これは後の期待値に
抑制される。
【0068】実際、第1期待値W0 は連続的入力信号に
応じて飽和するけれども、後の期待値は、遥かに遅い率
で上昇する。図27に示されている様に、第1入力期待
値が飽和している間、第2期待値W1 及び第3期待値W
2 は、遥かに遅い率でではあるけれども、増加し続け
る。入力信号が最後に再びゼロになるとき、第1期待値
は、減少項により支配される率で減衰し始める。しか
し、これは第2期待値により抑制される。第2期待値は
遥かに遅い率で減衰するので、入力信号が非ゼロであっ
た時間の長さに応じて、従って、第2期待値がどの程度
の高さにされたかに応じて、第1期待値を引き止める。
同様に、第3期待値は第2期待値を引き止める、又はそ
の減衰を阻止する。
応じて飽和するけれども、後の期待値は、遥かに遅い率
で上昇する。図27に示されている様に、第1入力期待
値が飽和している間、第2期待値W1 及び第3期待値W
2 は、遥かに遅い率でではあるけれども、増加し続け
る。入力信号が最後に再びゼロになるとき、第1期待値
は、減少項により支配される率で減衰し始める。しか
し、これは第2期待値により抑制される。第2期待値は
遥かに遅い率で減衰するので、入力信号が非ゼロであっ
た時間の長さに応じて、従って、第2期待値がどの程度
の高さにされたかに応じて、第1期待値を引き止める。
同様に、第3期待値は第2期待値を引き止める、又はそ
の減衰を阻止する。
【0069】与えられた期待値(W1 )について、後の
期待値(W1-1 )は減衰率も左右するが、これは図28
に示されており、この場合、確率的入力信号が3レベル
のアダプトロードに加えられる。入力信号は、第1期待
値W0 のレベルを押し上げる効果を有する。第2期待値
W1 は第1期待値によって動かされる。第3期待値は第
2期待値に動かされる。入力信号がゼロであるとき、第
1期待値の減少項は増加項より大きく、従って第1期待
値に対する正味の修正値は負である。しかし、第1期待
値の減少項は第1期待値と第2期待値との差の関数であ
る。従って、図に示されている様に、第2期待値が大き
いほど、第1期待値の減衰率が低い。
期待値(W1-1 )は減衰率も左右するが、これは図28
に示されており、この場合、確率的入力信号が3レベル
のアダプトロードに加えられる。入力信号は、第1期待
値W0 のレベルを押し上げる効果を有する。第2期待値
W1 は第1期待値によって動かされる。第3期待値は第
2期待値に動かされる。入力信号がゼロであるとき、第
1期待値の減少項は増加項より大きく、従って第1期待
値に対する正味の修正値は負である。しかし、第1期待
値の減少項は第1期待値と第2期待値との差の関数であ
る。従って、図に示されている様に、第2期待値が大き
いほど、第1期待値の減衰率が低い。
【0070】これは図29により明瞭に示されており、
この場合には遂次入力信号が3レベル・アダプトロード
に加えられる。第1期間において、入力信号は非ゼロ
(1.0)になる。第2期間において、第1期待値は、第
1減衰定数と第2期待値の現在の値とによって確定され
る率で減衰する。第3期間において、入力信号は再び非
ゼロになり、第1期待値は上昇する。第4期間におい
て、入力信号は再びゼロになり、第1期待値は減衰す
る。しかし、第2期待値は第1期待値によって、より高
いレベルに押し上げられているので、第4期間における
減衰率は第2期間における減衰率より小さい。
この場合には遂次入力信号が3レベル・アダプトロード
に加えられる。第1期間において、入力信号は非ゼロ
(1.0)になる。第2期間において、第1期待値は、第
1減衰定数と第2期待値の現在の値とによって確定され
る率で減衰する。第3期間において、入力信号は再び非
ゼロになり、第1期待値は上昇する。第4期間におい
て、入力信号は再びゼロになり、第1期待値は減衰す
る。しかし、第2期待値は第1期待値によって、より高
いレベルに押し上げられているので、第4期間における
減衰率は第2期間における減衰率より小さい。
【0071】図30〜35において、非線型利得を有す
る3レベルのアダプトロードの期待値W0 、W1 、W2
がいろいろな入力信号について示されている。更に、第
2期待値は増強信号Pによってゲート制御される。第1
期待値は式9Aによって決定される。第2期待値は式1
0Aによって決定される。 W1 (t)=W1 (t−△t) +P・α1 ・〔W0 −W1 (t−△t)〕 −δ1 ・〔W1 (t−△t)−W2 (t−△t)〕 (式 10A) 第3期待値は式10Bによって決定される。 W2 (t)=W2 (t−△t) +α2 ・〔W1 −W2 (t−△t)〕 −δ2 ・〔W2 (t−△t)−WE 〕 (式 10B) これらの例において、増強信号Pは単に0又は1であ
る。しかし、増強信号は如何なる値であってもよい。
る3レベルのアダプトロードの期待値W0 、W1 、W2
がいろいろな入力信号について示されている。更に、第
2期待値は増強信号Pによってゲート制御される。第1
期待値は式9Aによって決定される。第2期待値は式1
0Aによって決定される。 W1 (t)=W1 (t−△t) +P・α1 ・〔W0 −W1 (t−△t)〕 −δ1 ・〔W1 (t−△t)−W2 (t−△t)〕 (式 10A) 第3期待値は式10Bによって決定される。 W2 (t)=W2 (t−△t) +α2 ・〔W1 −W2 (t−△t)〕 −δ2 ・〔W2 (t−△t)−WE 〕 (式 10B) これらの例において、増強信号Pは単に0又は1であ
る。しかし、増強信号は如何なる値であってもよい。
【0072】図30〜35の例に使用される入力信号
は、それぞれ、図24〜49についての入力信号と同じ
である。各々の例において、増強信号は0に初期化さ
れ、所定の時に増強信号は1になる。各図において増強
信号が1になるまでは第2期待値値及び第3期待値は
『学習』又は上昇をしないことに注意することが重要で
ある。また、増強信号は第2及び第3の期待値の減衰率
に影響を与えないことにも注意すべきである。
は、それぞれ、図24〜49についての入力信号と同じ
である。各々の例において、増強信号は0に初期化さ
れ、所定の時に増強信号は1になる。各図において増強
信号が1になるまでは第2期待値値及び第3期待値は
『学習』又は上昇をしないことに注意することが重要で
ある。また、増強信号は第2及び第3の期待値の減衰率
に影響を与えないことにも注意すべきである。
【0073】図36〜47を参照すると、第1期待値が
線型利得を有する3レベルのアダプトロードの期待値W
0 、W1 、W2 がいろいろな入力信号について示されて
いる。各例において、第1上昇定数α0 は4に設定さ
れ、減衰率δ0 は0.125に設定されている。第2上昇
定数α1 及び第2減衰定数δ1 は、それぞれ0.0625
及び0.0312に設定されている。第3上昇定数α2 及
び第3減衰定数δ2 は、それぞれ、0.0156及び0.0
078に設定されている。
線型利得を有する3レベルのアダプトロードの期待値W
0 、W1 、W2 がいろいろな入力信号について示されて
いる。各例において、第1上昇定数α0 は4に設定さ
れ、減衰率δ0 は0.125に設定されている。第2上昇
定数α1 及び第2減衰定数δ1 は、それぞれ0.0625
及び0.0312に設定されている。第3上昇定数α2 及
び第3減衰定数δ2 は、それぞれ、0.0156及び0.0
078に設定されている。
【0074】図36〜47において、入力信号は図29
〜35の入力信号と同様である。図2〜47において、
図30〜35の場合と同じく、第2及び第3の期待値は
増強信号Pによってゲート制御される。しかし、増強信
号は、0又は1である(図解の目的上、増強信号は30
にされている)。結果は、非線型モデルにより示される
ものと同様である。
〜35の入力信号と同様である。図2〜47において、
図30〜35の場合と同じく、第2及び第3の期待値は
増強信号Pによってゲート制御される。しかし、増強信
号は、0又は1である(図解の目的上、増強信号は30
にされている)。結果は、非線型モデルにより示される
ものと同様である。
【0075】図48を参照すると、アダプトロードに基
づくニューロン又はニューリスタ(Neuristor)2002
が示されている。ニューリスタ2002は入力アダプト
ロードのアレーを包含する。入力アダプトロード・アレ
ー2004は複数のアダプトロードを含む。アダプトロ
ードの数は一般にJで表される。各入力アダプトロード
2004(j)は、関連する入力信号Xj を有する。
づくニューロン又はニューリスタ(Neuristor)2002
が示されている。ニューリスタ2002は入力アダプト
ロードのアレーを包含する。入力アダプトロード・アレ
ー2004は複数のアダプトロードを含む。アダプトロ
ードの数は一般にJで表される。各入力アダプトロード
2004(j)は、関連する入力信号Xj を有する。
【0076】各入力アダプトロード2004(j)の結
果信号rj は、標準的ニューロンの重み信号が乗じられ
た入力信号と置換されるものと見ることの出来るもので
ある。ニューリスタ2002は、臨界値信号Tを初期化
し生成する手段2006を含む。
果信号rj は、標準的ニューロンの重み信号が乗じられ
た入力信号と置換されるものと見ることの出来るもので
ある。ニューリスタ2002は、臨界値信号Tを初期化
し生成する手段2006を含む。
【0077】一実施例では、臨界値信号生成手段200
6は、臨界値信号を所定値に初期化する手段を含む。第
2実施例では、臨界値信号は定数である。第3実施例で
は、臨界値信号生成手段2006は、出力アダプトロー
ド2008と臨界値プロセッサ2010とを含む。臨界
値信号は臨界値修正信号の関数である。臨界値修正信号
は、第1期待値又は出力アダプトロードの結果信号であ
ることが出来る。臨界値信号生成手段2006は、ニュ
ーリスタの出力を時間上で積分する。出力アダプトロー
ドは、1個以上の他のアダプトロードの結果信号によっ
てゲート制御されることが出来る。
6は、臨界値信号を所定値に初期化する手段を含む。第
2実施例では、臨界値信号は定数である。第3実施例で
は、臨界値信号生成手段2006は、出力アダプトロー
ド2008と臨界値プロセッサ2010とを含む。臨界
値信号は臨界値修正信号の関数である。臨界値修正信号
は、第1期待値又は出力アダプトロードの結果信号であ
ることが出来る。臨界値信号生成手段2006は、ニュ
ーリスタの出力を時間上で積分する。出力アダプトロー
ドは、1個以上の他のアダプトロードの結果信号によっ
てゲート制御されることが出来る。
【0078】ニューリスタ2002は、入力アダプトロ
ード結果信号rj と臨界値信号Tとを受信して、これに
応じて出力信号Oを生成する手段2012を含む。図4
9を参照すると、出力信号生成手段2012は結果信号
を合計してシグマ信号を生成する手段を含む。このシグ
マ信号は臨界値信号Tと比較される。出力信号生成手段
2012は、第2掛算棒2102と符号テーブル210
4とを含む。符号テーブル2104の出力は+1又は−
1である。
ード結果信号rj と臨界値信号Tとを受信して、これに
応じて出力信号Oを生成する手段2012を含む。図4
9を参照すると、出力信号生成手段2012は結果信号
を合計してシグマ信号を生成する手段を含む。このシグ
マ信号は臨界値信号Tと比較される。出力信号生成手段
2012は、第2掛算棒2102と符号テーブル210
4とを含む。符号テーブル2104の出力は+1又は−
1である。
【0079】図50を参照すると、符号源2014は、
符号テーブル2202と複数の掛算器2204(j)と
を含む。符号テーブル2204中の+1と関連したアダ
プトロードの入力は、励起的であると言われ、符号テー
ブル2204中の−1と関連したアダプトロードの入力
は抑制的であると言われる。図49に戻ると、出力信号
生成手段2012は加算及び出力プロセッサを含む。第
14加算器2106は、結果信号rj を加算し、臨界値
信号を該結果信号から減算する。第3条件ブロック21
08は、第14加算器2106の出力を所定値(0)と
比較する。第3判定ブロック2110は出力信号X0 を
生成する。好適な実施例では、第3判定ブロック211
0は、条件ブロック2108内の条件が真であれば1を
生成し、判定ブロック2108内の条件が偽であれば0
を生成する。
符号テーブル2202と複数の掛算器2204(j)と
を含む。符号テーブル2204中の+1と関連したアダ
プトロードの入力は、励起的であると言われ、符号テー
ブル2204中の−1と関連したアダプトロードの入力
は抑制的であると言われる。図49に戻ると、出力信号
生成手段2012は加算及び出力プロセッサを含む。第
14加算器2106は、結果信号rj を加算し、臨界値
信号を該結果信号から減算する。第3条件ブロック21
08は、第14加算器2106の出力を所定値(0)と
比較する。第3判定ブロック2110は出力信号X0 を
生成する。好適な実施例では、第3判定ブロック211
0は、条件ブロック2108内の条件が真であれば1を
生成し、判定ブロック2108内の条件が偽であれば0
を生成する。
【0080】図48に戻ると、各入力アダプトロード
(Aj )の第1期待値(又は結果信号)は、矢印で図示
されているように、後のアダプトロード(Aj+1 )にお
いて相互作用信号(h)として使われる。各アダプトロ
ードを先行のアダプトロードでゲート制御させるのは説
明の目的だけで行われたことであることが理解されるべ
きである。
(Aj )の第1期待値(又は結果信号)は、矢印で図示
されているように、後のアダプトロード(Aj+1 )にお
いて相互作用信号(h)として使われる。各アダプトロ
ードを先行のアダプトロードでゲート制御させるのは説
明の目的だけで行われたことであることが理解されるべ
きである。
【0081】一般に、ゲート制御に使われる入力アダプ
トロード間の信号は、局地的相互作用信号と呼ばれる。
更に、出力アダプトロード2008の結果信号は、矢印
で示されている様にゲート制御のために利用可能であ
る。図51を参照すると、本発明の実施例による臨界値
プロセッサ2010のブロック図が示されている。臨界
値プロセッサ2010は、3種類の臨界値信号を考慮し
たものである。臨界値信号はTの種類で定義される。若
しTの種類が1であれば、臨界値信号はTC の大きさを
有する定数である。Tの種類が2であれば、臨界値信号
Tは、定数を乗じた臨界値プロセッサ2010の入力と
定数TM との差である。一実施例では、臨界値プロセッ
サ2010への入力は出力アダプトロード2008の第
1期待値(W00)である。第2実施例では、臨界値プロ
セッサ2010への入力は出力アダプトロード2008
の結果信号である。若しTの種類が3であれば、臨界値
信号はW00の線型関数である。
トロード間の信号は、局地的相互作用信号と呼ばれる。
更に、出力アダプトロード2008の結果信号は、矢印
で示されている様にゲート制御のために利用可能であ
る。図51を参照すると、本発明の実施例による臨界値
プロセッサ2010のブロック図が示されている。臨界
値プロセッサ2010は、3種類の臨界値信号を考慮し
たものである。臨界値信号はTの種類で定義される。若
しTの種類が1であれば、臨界値信号はTC の大きさを
有する定数である。Tの種類が2であれば、臨界値信号
Tは、定数を乗じた臨界値プロセッサ2010の入力と
定数TM との差である。一実施例では、臨界値プロセッ
サ2010への入力は出力アダプトロード2008の第
1期待値(W00)である。第2実施例では、臨界値プロ
セッサ2010への入力は出力アダプトロード2008
の結果信号である。若しTの種類が3であれば、臨界値
信号はW00の線型関数である。
【0082】臨界値プロセッサ2010は、第4、第5
及び第6の判定ブロック2302、2306、231
0、及び第4、第5及び第6の制御ブロック2304、
2308、2312を含む。第14掛算器2314は、
出力アダプトロード2308の第1期待値に定数βを掛
ける。第15加算器2316は、第14掛算器2314
の出力を定数TC から減算する。
及び第6の判定ブロック2302、2306、231
0、及び第4、第5及び第6の制御ブロック2304、
2308、2312を含む。第14掛算器2314は、
出力アダプトロード2308の第1期待値に定数βを掛
ける。第15加算器2316は、第14掛算器2314
の出力を定数TC から減算する。
【0083】図52を参照すると、第1入力アダプトロ
ードと第2入力アダプトロードとが示されているが、こ
こで第1アダプトロードは第2アダプトロードの第2期
待値をゲート制御するのに使われる。各期待値はWabで
一般的に記されている。ここで、aは期待値レベルを指
し、bは入力アダプトロードを指す。典型的には、ニュ
ーロン回路網は種々の技術を使って実施されることが出
来る。これは、超大規模集積回路(VLSI)、ソフト
ウェア・シミュレーター及び開発システム、及び特殊目
的ハードウェア・システムなどの『標準的』技術と、光
プロセッサなどの『最新の』技術を含む。
ードと第2入力アダプトロードとが示されているが、こ
こで第1アダプトロードは第2アダプトロードの第2期
待値をゲート制御するのに使われる。各期待値はWabで
一般的に記されている。ここで、aは期待値レベルを指
し、bは入力アダプトロードを指す。典型的には、ニュ
ーロン回路網は種々の技術を使って実施されることが出
来る。これは、超大規模集積回路(VLSI)、ソフト
ウェア・シミュレーター及び開発システム、及び特殊目
的ハードウェア・システムなどの『標準的』技術と、光
プロセッサなどの『最新の』技術を含む。
【0084】
【産業上の利用可能性】図面を参照すると、実施に当た
って、本発明はニューロン回路網における基本的な学習
能力を備える。アダプトロードの学習能力は、連合可能
性自体に基づいているのではなくて、単一入力チャネル
に沿って時間変更する信号に固有の情報の符号化に基づ
く。該符号化プロセッサは、時間明示的であり、実際
に、情報がこれら時間領域の各々の間に記録されるよう
に複数の時間スケールで働く。情報符号化へのこの様な
アプローチは短期間及び長期間の記憶を実施するときの
回帰ループの代替手段となる。アダプトロードは、記憶
装置を形成する他のチャネルとの相関に本来的に依存す
るものではない。
って、本発明はニューロン回路網における基本的な学習
能力を備える。アダプトロードの学習能力は、連合可能
性自体に基づいているのではなくて、単一入力チャネル
に沿って時間変更する信号に固有の情報の符号化に基づ
く。該符号化プロセッサは、時間明示的であり、実際
に、情報がこれら時間領域の各々の間に記録されるよう
に複数の時間スケールで働く。情報符号化へのこの様な
アプローチは短期間及び長期間の記憶を実施するときの
回帰ループの代替手段となる。アダプトロードは、記憶
装置を形成する他のチャネルとの相関に本来的に依存す
るものではない。
【0085】しかし、連合可能性は、若し第2信号が存
在しなければ符号化を阻止するゲート機能の導入から生
じることが出来る。2個以上の入力信号は入力信号と出
力信号との組合せの間の連合を達成することが出来る。
図54〜60を参照すると、アダプトロードは連合回路
網2802を構成するのに使われている。回路網280
2は、3個の入力アダプトロード及び出力アダプトロー
ド(A10、A11、A12、A13、A20、A21、A22、
A23)を各々有する第1及び第2のニューリスタ280
4、2806を含む。参照のために、図54〜60につ
いての凡例が図53に示されている。この凡例は、3種
類の入力(抑制−−5302、学習励起−−5304、
及び非学習励起−−5306)についての記号を示す。
在しなければ符号化を阻止するゲート機能の導入から生
じることが出来る。2個以上の入力信号は入力信号と出
力信号との組合せの間の連合を達成することが出来る。
図54〜60を参照すると、アダプトロードは連合回路
網2802を構成するのに使われている。回路網280
2は、3個の入力アダプトロード及び出力アダプトロー
ド(A10、A11、A12、A13、A20、A21、A22、
A23)を各々有する第1及び第2のニューリスタ280
4、2806を含む。参照のために、図54〜60につ
いての凡例が図53に示されている。この凡例は、3種
類の入力(抑制−−5302、学習励起−−5304、
及び非学習励起−−5306)についての記号を示す。
【0086】増強ゲート手段は、入力アダプトロードA
11及びA12の間、及びA23及びA22の間の局地的相互作
用を介して制御される。後者のアダプトロードA12及び
A22は、いずれの場合にも、(2枚板端子で示されてい
る様に)それぞれのニューリスタの中の学習アダプトロ
ードである。即ち、アダプトロードA12及びA22の第2
及び第3の期待値についての上昇定数は非ゼロであり、
アダプトロードA11,A13,A21,及びA23の第2及び
第3の期待値はゼロである。
11及びA12の間、及びA23及びA22の間の局地的相互作
用を介して制御される。後者のアダプトロードA12及び
A22は、いずれの場合にも、(2枚板端子で示されてい
る様に)それぞれのニューリスタの中の学習アダプトロ
ードである。即ち、アダプトロードA12及びA22の第2
及び第3の期待値についての上昇定数は非ゼロであり、
アダプトロードA11,A13,A21,及びA23の第2及び
第3の期待値はゼロである。
【0087】臨界値は、出力を遅延させるのに充分な値
に固定され設定される。ニューリスタ2804、280
6は、一方のニューリスタが優越すると、それが唯一の
応答するユニットとなる様に、相互に抑制し合う。これ
は、円形入力により示されている様に良く静的応答を有
するA11及びA21を通じて行われる。入力USC1 及び
USC2 は、外部環境からの二つの相反する(必ずしも
相互に排他的ではないけれども)刺激であると解され
る。UCR1 及びUCR2 は相互に排他的な応答であ
る。CSという符号が付されている入力は、図示の両方
のニューリスタに利用可能である。露出前には、A12も
A22も、如何なる記憶の痕跡も符号化していない。
に固定され設定される。ニューリスタ2804、280
6は、一方のニューリスタが優越すると、それが唯一の
応答するユニットとなる様に、相互に抑制し合う。これ
は、円形入力により示されている様に良く静的応答を有
するA11及びA21を通じて行われる。入力USC1 及び
USC2 は、外部環境からの二つの相反する(必ずしも
相互に排他的ではないけれども)刺激であると解され
る。UCR1 及びUCR2 は相互に排他的な応答であ
る。CSという符号が付されている入力は、図示の両方
のニューリスタに利用可能である。露出前には、A12も
A22も、如何なる記憶の痕跡も符号化していない。
【0088】説明の目的上、回路網2802を単純なロ
ボット・コントローラは見なすのが好都合である。ここ
で、例えばバッテリーを再充電するパワーを利用する可
能性などの褒美UCS2 、又は、例えば高温の存在など
の罰UCR1 、がそれぞれの刺激に連合しているなら
ば、出力挙動は、刺激を求める挙動(UCR2 )又は刺
激を回避する挙動(UCR1 )である。
ボット・コントローラは見なすのが好都合である。ここ
で、例えばバッテリーを再充電するパワーを利用する可
能性などの褒美UCS2 、又は、例えば高温の存在など
の罰UCR1 、がそれぞれの刺激に連合しているなら
ば、出力挙動は、刺激を求める挙動(UCR2 )又は刺
激を回避する挙動(UCR1 )である。
【0089】この場合、刺激(CS)は光源の存在であ
るとする。目的は、光源を自分の発意で探す様に光をパ
ワーの利用可能性と連合させるようにロボットを訓練す
ることである。光と熱を連合させるように回路網を訓練
する様に決定することが等しく可能であったであろうこ
とに注意しなければならない。CS及びUCS2 へ一緒
に露出させる幾度かの試行(必要な数は、信号の大き
さ、その持続時間、及びその位相関係に依存する)の
後、これは、実際に、図55において達成される。この
露出は、正確に同じ段階で(即ち、正確に同位相で)行
われる必要はないことに注意すべきである。若しCS露
出がUSC2 より僅かに先んじて行われたならば(時間
窓はアダプトロードにおけるα及びδにより確定され
る)、UCS2 の発生はなおA22における増強を生じさ
せる。
るとする。目的は、光源を自分の発意で探す様に光をパ
ワーの利用可能性と連合させるようにロボットを訓練す
ることである。光と熱を連合させるように回路網を訓練
する様に決定することが等しく可能であったであろうこ
とに注意しなければならない。CS及びUCS2 へ一緒
に露出させる幾度かの試行(必要な数は、信号の大き
さ、その持続時間、及びその位相関係に依存する)の
後、これは、実際に、図55において達成される。この
露出は、正確に同じ段階で(即ち、正確に同位相で)行
われる必要はないことに注意すべきである。若しCS露
出がUSC2 より僅かに先んじて行われたならば(時間
窓はアダプトロードにおけるα及びδにより確定され
る)、UCS2 の発生はなおA22における増強を生じさ
せる。
【0090】回路網2802に与えられた信号は確率的
でノイズ的である(約10%非ガウシアン・ノイズ)。
中間範囲におけるUSC2 及びCSでの一緒の提示での
僅か3回の試行の後に、回路網は図55の様に見え始め
る。A21及びA22の間の局地的相互作用の結果としてあ
る程度の増強がA22に起こっているのが分る。回路網2
802は、相互抑制を実施する−ユニットから他のユニ
ットへの抑制的リンクを含む。これは、応答規則の相互
排除を実施するのに必要である。しかし、若しUCS1
が僅かに活性であれば(これは起こり得ることである)
CS及びUCS1 からの信号のある程度の『漏れ』は可
能であるので、この規則はぼやけた(ファジーな)規則
であることに注意しなければならない。一般的に、UC
S2 の出力はUCS1 の出力を減衰させ、また、その逆
も起こるが、それは絶対的名辞においてではない。
でノイズ的である(約10%非ガウシアン・ノイズ)。
中間範囲におけるUSC2 及びCSでの一緒の提示での
僅か3回の試行の後に、回路網は図55の様に見え始め
る。A21及びA22の間の局地的相互作用の結果としてあ
る程度の増強がA22に起こっているのが分る。回路網2
802は、相互抑制を実施する−ユニットから他のユニ
ットへの抑制的リンクを含む。これは、応答規則の相互
排除を実施するのに必要である。しかし、若しUCS1
が僅かに活性であれば(これは起こり得ることである)
CS及びUCS1 からの信号のある程度の『漏れ』は可
能であるので、この規則はぼやけた(ファジーな)規則
であることに注意しなければならない。一般的に、UC
S2 の出力はUCS1 の出力を減衰させ、また、その逆
も起こるが、それは絶対的名辞においてではない。
【0091】各アダプトロードにおける陰影付き領域
は、凡例に示されている各期待値についてのレベルを表
す。各々の後続の期待値は、先行の期待値に重なること
に注意しなければならない。また、W0 ≧W1 ≧W2 と
いう関係は常に真である。黒い矢印は、そのラインが
『活性』であることを示す。従って、第2ニューリスタ
2806における黒い矢印は、A22の学習挙動に対する
A23の強い局地的相互作用効果を示す。A11からA12へ
の第1ニューリスタ2804における矢印は弱い相互作
用を表し、従って、A11は、A12に増強が起こるのを許
すために充分な勾配付き応答を与えることが出来ない。
は、凡例に示されている各期待値についてのレベルを表
す。各々の後続の期待値は、先行の期待値に重なること
に注意しなければならない。また、W0 ≧W1 ≧W2 と
いう関係は常に真である。黒い矢印は、そのラインが
『活性』であることを示す。従って、第2ニューリスタ
2806における黒い矢印は、A22の学習挙動に対する
A23の強い局地的相互作用効果を示す。A11からA12へ
の第1ニューリスタ2804における矢印は弱い相互作
用を表し、従って、A11は、A12に増強が起こるのを許
すために充分な勾配付き応答を与えることが出来ない。
【0092】図56は、回路網2802が入力無しで或
る期間を過ごした後の回路網2802の状態を示す。ア
ダプトロードA22は、それがさらされた連合の残留記憶
を或る程度示すことが分る。この残留の結果として、該
回路網は、図57に示されている様に思い出すことの出
来る連合した信号間の関係を確立していることが分る。
図57において、信号はCSだけで注入される。これ
は、ロボットが光だけを見ているのに対応する。A22の
増強の結果として、A22における入力信号は、A 12の第
1期待値において達成されるよりも高い値まで第1期待
値W0 を迅速に押し上げる。これは、第1ニューリスタ
2804を減衰させる抑制的信号を結果するUCR2 に
おける出力信号を駆動するのに充分である。この様にし
て、回路網2802は、それ自身では意味のない信号で
あるCSを、或る意味のある信号の予測値として利用す
ることを学習している(この場合、パワー利用可能
性)。これら2個の信号が過去に一緒に発生した程度
は、連合の予測能力の或る程度の信頼性を与える。ロボ
ットは明かりを探すことを学習し(そのパワーが低い
時)、連合が保持する或る程度の自信を持つことが出来
る。
る期間を過ごした後の回路網2802の状態を示す。ア
ダプトロードA22は、それがさらされた連合の残留記憶
を或る程度示すことが分る。この残留の結果として、該
回路網は、図57に示されている様に思い出すことの出
来る連合した信号間の関係を確立していることが分る。
図57において、信号はCSだけで注入される。これ
は、ロボットが光だけを見ているのに対応する。A22の
増強の結果として、A22における入力信号は、A 12の第
1期待値において達成されるよりも高い値まで第1期待
値W0 を迅速に押し上げる。これは、第1ニューリスタ
2804を減衰させる抑制的信号を結果するUCR2 に
おける出力信号を駆動するのに充分である。この様にし
て、回路網2802は、それ自身では意味のない信号で
あるCSを、或る意味のある信号の予測値として利用す
ることを学習している(この場合、パワー利用可能
性)。これら2個の信号が過去に一緒に発生した程度
は、連合の予測能力の或る程度の信頼性を与える。ロボ
ットは明かりを探すことを学習し(そのパワーが低い
時)、連合が保持する或る程度の自信を持つことが出来
る。
【0093】ここまでは、回路網2802は、連合学習
規則から予期されるように作動する。時間が明示的で学
習プロセスが強化を通じて動的である幾分独特の態様を
除いて、回路網2802は、本質的に他の如何なる連合
に基づくニューロン回路網が達成するものを達成する。
しかし今私達は、もっと困難な考慮事項を指摘する。或
る短時間にわたって、例えばロボットの環境に火事が起
こったならば生じる様な不利な関係がUCS1とCSと
の間に存在すると仮定する。
規則から予期されるように作動する。時間が明示的で学
習プロセスが強化を通じて動的である幾分独特の態様を
除いて、回路網2802は、本質的に他の如何なる連合
に基づくニューロン回路網が達成するものを達成する。
しかし今私達は、もっと困難な考慮事項を指摘する。或
る短時間にわたって、例えばロボットの環境に火事が起
こったならば生じる様な不利な関係がUCS1とCSと
の間に存在すると仮定する。
【0094】第1に、私達は、適切な応答に関心を持
つ。即ち、ロボットは火事を避けるべきである。第2
に、私達は、この不利な条件の重要性を決定するなんら
かの手段を必要とする。それは騒音だろうか、或いは、
環境の性質の、もっと永久的変化を意味するのだろうか
?第3に、この新しい関係が一時的なものである場合に
は、古い関係が将来再び規範となる可能性があるので、
私達は確かに前の連合をロボットが忘れることを望まな
い。
つ。即ち、ロボットは火事を避けるべきである。第2
に、私達は、この不利な条件の重要性を決定するなんら
かの手段を必要とする。それは騒音だろうか、或いは、
環境の性質の、もっと永久的変化を意味するのだろうか
?第3に、この新しい関係が一時的なものである場合に
は、古い関係が将来再び規範となる可能性があるので、
私達は確かに前の連合をロボットが忘れることを望まな
い。
【0095】図58〜60において、不利な連合の符号
化の進行が示されているが、それは異なる時間領域を表
すので、干渉無しに該回路網に直に記憶されることが出
来る。回路網2802は正しく応答して、新しい条件に
付く重要性のレベルを正しく決定する。図58におい
て、回路網2802は、強くて幾分持続する刺激UCS
1 にさらされるが、これは、その前の学習に反する。該
システムは、あたかもパワーの使用可能性に応答するか
の様に第2ニューリスタ2806を最初に発火させ始め
る。A11の第1期待値W0 が、A21における抑制的リン
クを通じて第2ニューリスタ2806の出力を覆すのに
充分なレベルになるのには或る短い時間がかかる。しか
し、第1ニューリスタ2804の発火が厳格なために、
これは競争に勝ち、UCR1 での適切な応答(回避)に
つながる。A22はW2 に増強されるが、A12はW1 まで
の増強あ示すだけである。
化の進行が示されているが、それは異なる時間領域を表
すので、干渉無しに該回路網に直に記憶されることが出
来る。回路網2802は正しく応答して、新しい条件に
付く重要性のレベルを正しく決定する。図58におい
て、回路網2802は、強くて幾分持続する刺激UCS
1 にさらされるが、これは、その前の学習に反する。該
システムは、あたかもパワーの使用可能性に応答するか
の様に第2ニューリスタ2806を最初に発火させ始め
る。A11の第1期待値W0 が、A21における抑制的リン
クを通じて第2ニューリスタ2806の出力を覆すのに
充分なレベルになるのには或る短い時間がかかる。しか
し、第1ニューリスタ2804の発火が厳格なために、
これは競争に勝ち、UCR1 での適切な応答(回避)に
つながる。A22はW2 に増強されるが、A12はW1 まで
の増強あ示すだけである。
【0096】回路網に今CS入力だけが与えられたなら
ば、これは、短時間、図59に示されている様にUCR
1 での出力をもって、弱いけれども、応答する。その理
由は、A12の第2期待値W1 が、A22の第2期待値のそ
れよりわずかに大きいだけのレベルまで上昇しているか
らである。これは、A12のW1 が、A22のW1 と同じレ
ベルまで減衰するまで続き、この時に応答が曖昧にな
る。この曖昧さは長くは続かない。不利な条件への露出
は短くてA12のW2 は上昇しなかったので、A12のW1
は減衰し続け、A22のW1 のレベルより下まで落ちる。
その時、回路網2802は、図60に示されている様に
古い連合が優勢として再び現れるとき元のUCR2 応答
をもって応答する。
ば、これは、短時間、図59に示されている様にUCR
1 での出力をもって、弱いけれども、応答する。その理
由は、A12の第2期待値W1 が、A22の第2期待値のそ
れよりわずかに大きいだけのレベルまで上昇しているか
らである。これは、A12のW1 が、A22のW1 と同じレ
ベルまで減衰するまで続き、この時に応答が曖昧にな
る。この曖昧さは長くは続かない。不利な条件への露出
は短くてA12のW2 は上昇しなかったので、A12のW1
は減衰し続け、A22のW1 のレベルより下まで落ちる。
その時、回路網2802は、図60に示されている様に
古い連合が優勢として再び現れるとき元のUCR2 応答
をもって応答する。
【0097】本発明の他の面、目的、及び利点は、図
面、明細書、及び特許請求の範囲の記述を検討すること
から得られる。
面、明細書、及び特許請求の範囲の記述を検討すること
から得られる。
【図1】シナプス・プロセッサ又はアダプトロード(Ad
aptrode)のブロック図である。
aptrode)のブロック図である。
【図2】図1のシナプス・プロセッサの入力期待値修正
手段の略図である。
手段の略図である。
【図3】図1のシナプス・プロセッサの結果信号生成手
段の略図である。
段の略図である。
【図4】高入力期待値を有する単一レベルのアダプトロ
ードのグラフである。
ードのグラフである。
【図5】低入力期待値を有する単一べルのアダプトロー
ドのグラフである。
ドのグラフである。
【図6】大強度、短持続時間の入力信号に対する非線型
利得を有する炭一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
利得を有する炭一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
【図7】大強度、中間持続時間入力信号に対する非線型
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
【図8】大強度、長持続時間入力信号に対する非線型利
得を有する単一レベルのアダプトロードの入力期待値の
応答を示すグラフである。
得を有する単一レベルのアダプトロードの入力期待値の
応答を示すグラフである。
【図9】飽和入力信号に対する非線型利得を有する単一
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
【図10】確率的入力信号に対する非線型利得を有する
単一レベル・アダプトロードの入力期待値の応答を示す
グラフである。
単一レベル・アダプトロードの入力期待値の応答を示す
グラフである。
【図11】逐次入力信号に対する非線型利得を有する単
一レベル・アダプトロードの入力期待値の応答を示すグ
ラフである。
一レベル・アダプトロードの入力期待値の応答を示すグ
ラフである。
【図12】大強度、短持続時間の入力信号に対する線型
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
【図13】大強度、中間持続時間入力信号に対する線型
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
利得を有する単一レベルのアダプトロードの入力期待値
の応答を示すグラフである。
【図14】大強度、長持続時間入力信号に対する線型利
得を有する単一レベルのアダプトロードの入力期待値の
応答を示すグラフである。
得を有する単一レベルのアダプトロードの入力期待値の
応答を示すグラフである。
【図15】飽和入力信号に対する線型利得を有する単一
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
【図16】確率的入力信号に対する線型利得を有する単
一レベル・アダプトロードの入力期待値の応答を示すグ
ラフである。
一レベル・アダプトロードの入力期待値の応答を示すグ
ラフである。
【図17】逐次入力信号に対する線型利得を有する単一
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
レベル・アダプトロードの入力期待値の応答を示すグラ
フである。
【図18】多レベルのシナプス・プロセッサ又はアダプ
トロードのブロック図である。
トロードのブロック図である。
【図19】図18の多レベルのシプナス・プロセッサの
グラフである。
グラフである。
【図20】ゲート制御機能を用いる多レベルのシプナス
・プロセッサのグラフである。
・プロセッサのグラフである。
【図21】3レベルのシプナス・プロセッサの期待値修
正手段の略図である。
正手段の略図である。
【図22】図18の増強信号生成手段の略図である。
【図23】図22のハードル符号源の略図である。
【図24】大強度、短持続時間入力信号に対する非線型
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフである。
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフである。
【図25】大強度、中間持続時間入力信号に対する非線
型利得を有する3レベルのアダプトロードの期待値の応
答を示すグラフである。
型利得を有する3レベルのアダプトロードの期待値の応
答を示すグラフである。
【図26】大強度、長持続時間入力信号に対する非線型
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフである。
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフである。
【図27】大強度、飽和入力信号に対する非線型利得を
有する3レベルのアダプトロードの期待値の応答を示す
グラフである。
有する3レベルのアダプトロードの期待値の応答を示す
グラフである。
【図28】確率的入力信号に対する非線型利得を有する
3レベルのアダプトロードの期待値の応答を示すグラフ
である。
3レベルのアダプトロードの期待値の応答を示すグラフ
である。
【図29】逐次入力信号に対する非線型利得を有する3
レベルのアダプトロードの期待値の応答を示すグラフで
ある。
レベルのアダプトロードの期待値の応答を示すグラフで
ある。
【図30】大強度、短持続時間入力信号に対する非線型
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフであり、第2期待値がゲート制御されてい
る。
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフであり、第2期待値がゲート制御されてい
る。
【図31】大強度、中間持続時間入力信号に対する非線
型利得を有する3レベルのアダプトロードの期待値の応
答を示すグラフであり、第2期待値がゲート制御されて
いる。
型利得を有する3レベルのアダプトロードの期待値の応
答を示すグラフであり、第2期待値がゲート制御されて
いる。
【図32】大強度、長持続時間入力信号に対する非線型
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフであり、第2期待値がゲート制御されてい
る。
利得を有する3レベルのアダプトロードの期待値の応答
を示すグラフであり、第2期待値がゲート制御されてい
る。
【図33】大強度、飽和入力信号に対する非線型利得を
有する3レベルのアダプトロードの期待値の応答を示す
グラフであり、第2期待値がゲート制御されている。
有する3レベルのアダプトロードの期待値の応答を示す
グラフであり、第2期待値がゲート制御されている。
【図34】確率的入力信号に対する非線型利得を有する
3レベルのアダプトロードの期待値の応答を示すグラフ
であり、第2期待値がゲート制御されている。
3レベルのアダプトロードの期待値の応答を示すグラフ
であり、第2期待値がゲート制御されている。
【図35】遂次入力信号に対する非線型利得を有する3
レベルのアダプトロードの期待値の応答を示すグラフで
あり、第2期待値がゲート制御されている。
レベルのアダプトロードの期待値の応答を示すグラフで
あり、第2期待値がゲート制御されている。
【図36】大強度、短持続時間入力信号に対する3レベ
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有する。
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有する。
【図37】大強度、中間持続時間入力信号に対する3レ
ベルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有する。
ベルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有する。
【図38】大強度、長持続時間入力信号に対する3レベ
ルのアダプトロードの入力期待値の応答を示すグラフで
あり、第1期待値が線型利得を有する。
ルのアダプトロードの入力期待値の応答を示すグラフで
あり、第1期待値が線型利得を有する。
【図39】大強度、飽和入力信号に対する3レベルのア
ダプトロードの期待値の応答を示すグラフであり、第1
期待値が線型利得を有する。
ダプトロードの期待値の応答を示すグラフであり、第1
期待値が線型利得を有する。
【図40】確率的入力信号に対する3レベルのアダプト
ロードの期待値の応答を示すグラフであり、第1期待値
が線型利得を有する。
ロードの期待値の応答を示すグラフであり、第1期待値
が線型利得を有する。
【図41】逐次入力信号に対する3レベルのアダプトロ
ードの期待値の応答を示すグラフであり、第1期待値が
線型利得を有する。
ードの期待値の応答を示すグラフであり、第1期待値が
線型利得を有する。
【図42】大強度、短持続時間入力信号に対する3レベ
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
【図43】大強度、中間持続時間入力信号に対する3レ
ベルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
ベルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
【図44】大強度、長持続時間入力信号に対する3レベ
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
ルのアダプトロードの期待値の応答を示すグラフであ
り、第1期待値が線型利得を有し、第2期待値がゲート
制御される。
【図45】大強度、飽和入力信号に対する3レベルのア
ダプトロードの期待値の応答を示すグラフであり、第1
期待値が線型利得を有し、第2期待値がゲート制御され
る。
ダプトロードの期待値の応答を示すグラフであり、第1
期待値が線型利得を有し、第2期待値がゲート制御され
る。
【図46】確率的入力信号に対する3レベルのアダプト
ロードの期待値の応答を示すグラフであり、第1期待値
が線型利得を有し、第2期待値がゲート制御される。
ロードの期待値の応答を示すグラフであり、第1期待値
が線型利得を有し、第2期待値がゲート制御される。
【図47】逐次入力信号に対する3レベルのアダプトロ
ードの期待値の応答を示すグラフであり、第1期待値が
線型利得を有し、第2期待値がゲート制御される。
ードの期待値の応答を示すグラフであり、第1期待値が
線型利得を有し、第2期待値がゲート制御される。
【図48】入力アダプトロード・アレーと、加算及び出
力プロセッサと、臨界値プロセッサとを有する処理要素
のブロック図である。
力プロセッサと、臨界値プロセッサとを有する処理要素
のブロック図である。
【図49】図48の加算及び出力プロセッサの略図であ
る。
る。
【図50】図49の掛算棒の略図である。
【図51】図48の臨界値プロセッサの略図である。
【図52】一方の出力が他方をゲート制御するために使
われるようになっている2個のシナプス・プロセッサの
グラフである。
われるようになっている2個のシナプス・プロセッサの
グラフである。
【図53】図58〜60についての凡例である。
【図54】条件付き応答による連合を示す2個のニュー
リスター連合回路網(Neuristorassociative network)
のブロック図である。
リスター連合回路網(Neuristorassociative network)
のブロック図である。
【図55】図54の回路網のブロック図であり、ここで
は条件付き刺激が無条件刺激/応答と連合させられてい
る。
は条件付き刺激が無条件刺激/応答と連合させられてい
る。
【図56】刺激が或る期間無かった後の図55の回路網
のブロック図である。
のブロック図である。
【図57】図56の条件付き刺激/応答連合を示す回路
網のブロック図である。
網のブロック図である。
【図58】図57の回路網のブロック図であり、反対の
無条件刺激の効果を示す。
無条件刺激の効果を示す。
【図59】図58の回路網のブロック図であり、後の、
仮に条件を付された刺激/応答連合の効果を示す。
仮に条件を付された刺激/応答連合の効果を示す。
【図60】図59の回路網のブロック図であり、条件付
き応答と第1の無条件刺激との間の長時間連合を示す。
き応答と第1の無条件刺激との間の長時間連合を示す。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ジョージ イー モーブス アメリカ合衆国 テキサス州 76205 デ ントン ウィロー ウッド ストリート 1925
Claims (47)
- 【請求項1】 入力信号に応じて結果信号を生成するシ
ナプス・プロセッサであって、 入力期待値を初期化する手段を備えており、前記期待値
は最大期待値と平衡期待値とを境界としており、 前記入力信号を受信して前記入力期待値を修正する手段
を備えており、前記入力期待値に対する正味の修正値は
増加項と減少項とを有し、前記増加項は前記入力信号と
第1上昇定数との関数であり、前記減少項は第1減衰定
数の関数であり、前記第1上昇定数及び減衰定数は独立
であり、 前記入力期待値に応じて前記結果信号を生成する手段を
備えていることを特徴とするシナプス・プロセッサ。 - 【請求項2】 前記結果信号は前記入力期待値の線型関
数であることを特徴とする請求項1に記載のシナプス・
プロセッサ。 - 【請求項3】 前記結果信号は前記入力期待値の非線型
関数であることを特徴とする請求項1に記載のシナプス
・プロセッサ。 - 【請求項4】 前記減少項は前記入力期待値と前記平衡
期待値との差に比例することを特徴とする請求項1に記
載のシナプス・プロセッサ。 - 【請求項5】 前記増加項は前記入力期待値と前記最大
期待値との差に比例することを特徴とする請求項1に記
載のシナプス・ペロセッサ。 - 【請求項6】 前記平衡期待値を修正する手段を含み、
前記平衡期待値に対する正味の修正値は、第2増加項と
第2減少項とを有し、前記第2増加項は前記入力期待値
と第2上昇定数との関数であり、前記第2減少項は第2
減衰定数の関数であることを特徴とする請求項1に記載
のシナプス・プロセッサ。 - 【請求項7】 前記入力期待値修正手段は、△tの離散
的時間間隔で前記入力期待値を更新する手段を含むこと
を特徴とする請求項1に記載のシナプス・ペロセッサ。 - 【請求項8】 入力信号に応じて結果信号を生成するシ
ナプス・プロセサであって、 第1及び第2の期待値を初期化する手段を備えており、
前記第1及び第2の期待値は最大期待値と平衡期待値と
を境界としており、 前記入力信号を受信して、前記第1期待値を前記入力信
号及び前記第2期待値に応じて修正する手段を備えてお
り、 前記第2期待値を前記第1期待値に応じて修正する手段
を備えており、 前記第1期待値に応じて前記結果信号を生成する手段を
備えていることを特徴とするシナプス・プロセッサ。 - 【請求項9】 前記期待値は、 WM ≧W0 ≧W1 ≧WE という関係を有し、ここで WM = 最大期待値、 W0 = 第1期待値、 W1 = 第2期待値、 WE = 平衡期待値 であることを特徴とする請求項8に記載のシナプス・プ
ロセッサ。 - 【請求項10】 前記第1期待値は前記入力信号の大き
さの関数であることを特徴とする請求項8に記載のシナ
プス・プロセッサ。 - 【請求項11】 前記第1期待値修正手段は、前記第2
期待値に応じて前記第1期待値を減少させる手段を含む
ことを特徴とする請求項8に記載のシナプス・プロセッ
サ。 - 【請求項12】 前記第1期待値減少手段は、前記第1
及び第2の期待値の差を決定すると共に前記第1期待値
を前記の差と第1減衰定数とに応じて減少させる手段を
含むことを特徴とする請求項11に記載のシナプス・プ
ロセッサ。 - 【請求項13】 前記第1期待値修正手段は、前記入力
信号及び前記最大期待値の大きさに応じて前記第1期待
値を増加させる手段を含むことを特徴とする請求項8に
記載のシナプス・プロセッサ。 - 【請求項14】 前記第1期待値増加手段は、前記第1
期待値と前記最大期待値との差を決定し、前記第1期待
値を前記入力信号、前記差、及び第1上昇定数に応じて
増加させる手段を含むことを特徴とする請求項13に記
載のシナプス・プロセッサ。 - 【請求項15】 前記第2期待値修正手段は、前記第2
期待値を前記第1期待値に応じて増加させる手段を含む
ことを特徴とする請求項8に記載のシナプス・プロセッ
サ。 - 【請求項16】 前記第2期待値増加手段は、前記第2
期待値及び前記第1期待値の差を決定して前記第2期待
値を前記の差と第2上昇定数とに応じて増加させる手段
を含むことを特徴とする請求項13に記載のシナプス・
プロセッサ。 - 【請求項17】 前記第2期待値修正手段は、前記第2
期待値を前記平衡期待値に応じて減少させる手段を含む
ことを特徴とする請求項8に記載のシナプス・プロセッ
サ。 - 【請求項18】 前記平衡期待値を修正する手段を含ん
でおり、前記平衡期待値に対する正味の修正値は増加項
と減少項とを有し、前記増加項は前記第2期待値と上昇
定数との関数であり、前記減少項は第2減衰定数の関数
であることを特徴とする請求項8に記載のシナプス・プ
ロセッサ。 - 【請求項19】 入力信号に応じて結果信号を生成する
シナプス・プロセッサであって、 第1期待値と少なくとも一つの第2期待値とを初期化す
る手段を備えており、前記第1及び第2の期待値は最大
期待値と平衡期待値とを境界としており、第2期待値の
数はLで表され、 前記入力信号を受信して前記第1期待値を前記入力信号
に応じて修正する手段を備えており、前記第2期待値の
中の一つを修正する手段を備えており、前記の一つの第
2期待値は、W1 で表されて、 1=1ならば前記第1期待値、或いは 前の第2期待値、 その他の場合にはW1-1 の関数であり、 前記結果信号を前記第1期待値に応じて生成する手段を
備えていることを特徴とするシナプス・プロセッサ。 - 【請求項20】 第2入力信号を受信し、これに応じて
増強信号を生成する手段を含み、前記の一つの第2期待
値は前記増強信号の関数であることを特徴とする請求項
19に記載のシナプス・プロセッサ。 - 【請求項21】 第1入力信号及び第2入力信号に応じ
て結果信号を生成するシナプス・プロセッサであって、 第1及び第2の期待値を初期化する手段を備えており、
前記第1及び第2の期待値は最大期待値と平衡期待値と
を境界としており、 前記第1入力信号を受信して、前記第1期待値を前記第
1入力信号と前記第2期待値とに応じて修正する手段を
備えており、 前記第2入力信号を受信して、これに応じて増強信号を
生成する手段を備えており、 前記第2期待値を前記第1期待値と前記増強信号とに応
じて修正する手段を備えており、 前記結果信号を前記第1入力信号と前記第1期待値信号
とに応じて生成する手段を備えていることを特徴とする
シナプス・プロセッサ。 - 【請求項22】 前記第1期待値は前記入力信号の大き
さの関数であることを特徴とする請求項21に記載のシ
ナプス・プロセッサ。 - 【請求項23】 前記初期化手段はゲート制御信号を初
期化する手段を含み、前記増強信号は前記第2入力信号
と前記ゲート制御信号とに応じて生成されることを特徴
とする請求項21に記載のシナプス・プロセッサ。 - 【請求項24】 前記増強信号生成手段は、前記ゲート
制御信号と前記第2入力信号とを決定する手段を含むこ
とを特徴とする請求項23に記載のシナプス・プロセッ
サ。 - 【請求項25】 前記第2入力信号決定手段は,複数の
相互作用信号を受信して前記相互作用信号を合計する手
段を含むことを特徴とする請求項24に記載のシナプス
・プロセッサ。 - 【請求項26】 前記増強信号は、前記第2入力信号が
前記ゲート制御信号を上回るならば許容状態にあり、他
の場合には抑制状態にあることを特徴とする請求項23
に記載のシナプス・プロセッサ。 - 【請求項27】 前記第2期待値修正手段は、前記増強
信号が前記許容状態にあるならば前記第2期待値を前記
第1期待値に応じて増加させる手段を含むことを特徴と
する請求項26に記載のシナプス・プロセッサ。 - 【請求項28】 処理要素であって、 第1入力信号に応じて第1結果信号を生成する第1シナ
プス・プロセッサを備えており、この第1シナプス・プ
ロセッサは、 入力期待値を初期化する手段を備えており、前記第1入
力期待値は第1最大期待値と第1平衡期待値とを境界と
しており、 前記第1入力信号を受信して、これに応じて前記入力期
待値を修正する手段を備えており、前記入力期待値に対
する正味の修正値は第1増加項と第1減少項とを有し、
前記第1増加項は前記第1入力信号に応じ、前記第1減
少項は前記第1平衡期待値の関数であり、 前記入力期待値に応じて前記第1結果信号を生成する手
段を備えており、 第2入力信号に応じて第2結果信号を生成する第2シナ
プス・プロセッサを備えており、この第2シナプス・プ
ロセッサは、 第1及び第2の期待値を初期化する手段を含み、前記の
第1及び第2の期待値は第2最大期待値と第2平衡期待
値とを境界としており、 前記第2入力信号を受信して前記第1期待値を前記第2
入力信号と前記第2期待値とに応じて修正する手段を含
み、 前記第1結果信号を受信して、これに応じて増強信号を
生成する手段を含み、 前記第2期待値を前記第1期待値と前記増強信号とに応
じて修正する手段を含み、 前記第2結果信号を前記第2入力信号と前記第1期待値
とに応じて生成する手段を含むことを特徴とする処理要
素。 - 【請求項29】 前記第1シナプス・プロセッサは前記
第1平衡期待値を修正する手段を含み、前記第1平衡期
待値に対する正味の修正値は第2増加項と第2減少項と
を有し、前記第2増加項は前記入力期待値と第2上昇定
数との関数であり、前記第2減少項は第2減衰定数の関
数であることを特徴とする請求項28に記載の処理要
素。 - 【請求項30】 前記第1期待値修正手段は、第1正味
修正値を決定して前記第1正味修正値を前記第1期待値
に加算する手段を含み、前記第1正味修正値は第3増加
項と第3減少項とを有し、前記第3増加項は前記第1期
待値と第3上昇定数との関数であり、前記第3減少項は
前記第1期待値、及び第3減衰定数の関数であり、前記
第2期待値修正手段は、前記第2期待値に対する第2正
味修正値を決定すると共に前記第2正味修正値を前記第
2期待値に加算する手段を含み、前記第2正味修正値は
第4増加項と第4減少項とを有し、前記第4増加項は前
記第1期待値と第4上昇定数との関数であり、前記第4
減少項は前記第1期待値と第2減衰定数との関数である
ことを特徴とする請求項28に記載の処理要素。 - 【請求項31】 前記第2平衡期待値を修正する手段を
含み、前記第2平衡期待値に対する正味修正値は第5増
加項と第5減少項とを有し、前記第5増加項は前記第2
期待値と第5上昇定数との関数であり、前記第5減少項
は第5減衰定数の関数であることを特徴とする請求項2
8に記載の処理要素。 - 【請求項32】 処理要素であって、 臨界値信号を生成する手段を備え、 入力信号に応じて結果信号を生成する入力シナプス・プ
ロセッサを備え、前記入力シナプス・プロセッサは、 入力期待値を初期化する手段を含み、前記入力期待値は
最大期待値と平衡期待値とを境界としており、 前記入力信号を受信して前記入力信号の大きさを検出す
る手段を含み、 前記入力期待値を修正する手段を含み、前記入力期待値
に対する正味修正値は第1増加項と第1減少項とを有
し、前記第1増加項は前記入力信号の大きさに応じ、前
記第1減少項は前記大きさと、減衰定数とから独立して
おり、 前記入力期待値に応じて前記結果信号を生成する手段を
含み、更に前記結果信号と前記臨界値信号とを受信し
て、これに応じて出力信号を生成する手段を備えている
ことを特徴とする処理要素。 - 【請求項33】 前記平衡期待値を修正する手段を含ん
でおり、前記平衡期待値に対する正味修正値は第2増加
項と第2減少項とを有し、前記第2増加項は前記入力期
待値と第2上昇定数との関数であり、前記第2減少項は
第2減衰定数の関数であることを特徴とする請求項32
に記載の処理要素。 - 【請求項34】 前記臨界値生成手段は、臨界値定数を
初期化し、臨界値修正信号を受信し、前記臨界値修正信
号に定数を乗じ、積を前記臨界値定数から減算する手段
を含むことを特徴とする請求項32に記載の処理要素。 - 【請求項35】 前記臨界値信号生成手段は、前記出力
信号を受信して、これに応じて臨界値修正信号を生成す
る出力プロセッサを含むことを特徴とする請求項32に
記載の処理要素。 - 【請求項36】 処理要素であって、 臨界値信号を生成する手段を備えており、 それぞれの入力信号に応じてそれぞれの結果信号を生成
する少なくとも2個の入力シナプス・プロセッサを備え
ており、各々の前記入力シナプス・プロセッサは、 入力期待値を初期化する手段を含み、前記入力期待値は
最大期待値と平衡期待値とを境界としており、 前記入力信号を受信して前記入力信号の大きさを検出す
る手段を含み、 前記入力期待値を修正する手段を含み、前記入力期待値
に対する正味修正値は増加項と減少項とを有し、前記増
加項前記入力信号の大きさに応じ、前記減少項は前記大
きさと、減衰定数の関数とから独立しており、 前記入力期待値に応じて前記結果信号を生成する手段を
含んでおり、 前記結果信号を受信し、前記結果信号を合計し、これに
応じてシグマ信号を生成する手段を備えており、 前記シグマ信号と前記臨界値信号とを受信して、これに
応じて出力信号を生成する手段を備えていることを特徴
とする処理要素。 - 【請求項37】 前記臨界値生成手段は、臨界値定数を
初期化し、臨界値修正信号を受信し、前記臨界値修正信
号に定数を乗じ、積を前記臨界値定数から減算する手段
を含むことを特徴とする請求項36に記載の処理要素。 - 【請求項38】 前記出力信号生成手段は、前記臨界値
信号と前記ジクマ信号とを比較する手段を含み、前記出
力信号は、前記シグマ信号が前記臨界値信号より大きけ
れば第1状態を有し、その他の場合には前記出力信号は
第2状態を有することを特徴とする請求項36に記載の
処理要素。 - 【請求項39】 前記臨界値信号生成手段は、前記出力
信号を受信して、これに応じて臨界値修正信号を生成す
る出力プロセッサを含むことを特徴とする請求項36に
記載の処理要素。 - 【請求項40】 処理要素であって、 臨界値信号を生成する手段を備えており、 入力信号に応じて結果信号を生成する入力シナプス・プ
ロセッサを揃えており、前記入力シナプス・プロセッサ
は、 第1及び第2の期待値を初期化する手段を含み、前記第
1及び第2の期待値値は最大期待値と平衡期待値とを境
界としており、 前記入力信号を受信して、前記第1期待値を前記入力信
号及び前記第2期待値に応じて修正する手段を含み、 前記第2期待値を前記第1期待値に応じて修正する手段
を含み、 前記第1期待値に応じて前記結果信号を生成する手段を
含んでおり、 前記臨界値信号と前記結果信号とを受信して、これに応
じて出力信号を生成する手段を備えていることを特徴と
する処理要素。 - 【請求項41】 前記第1期待値修正手段は、第1正味
修正値を決定して前記第1正味修正値を前記第1期待値
に加算する手段を含んでおり、前記第1正味修正値は第
1増加項と第1減少項とを有し、前記第1増加項は前記
第1期待値と第1上昇定数との関数であり、前記第1減
少項は前記第1期待値と第1減衰定数との関数であり、
前記第2期待値修正手段は、前記第2期待値に対する第
2正味修正値を決定して前記第2正味修正値を前記第2
期待値に加算する手段を含み、前記第2正味修正値は第
2増加項と第2減少項とを有し、前記第2増加項は前記
第2期待値と第2上昇定数との関数であり、前記第2減
少項は前記第2期待値と第2減衰定数との関数であるこ
とを特徴とする請求項40に記載の処理要素。 - 【請求項42】 前記平衡期待値を修正する手段を含
み、前記平衡期待値に対する正味修正値は増加項と減少
項とを有し、前記増加項は前記第2期待値と上昇定数と
の関数であり、前記減少項は第2減衰定数の関数である
こと特徴とする請求項40に記載の処理要素。 - 【請求項43】 第2入力信号を受信して、これに応じ
て増強信号を生成する手段を含み、前記第2期待値は前
記増強信号の関数であることを特徴とする請求項40に
記載の処理要素。 - 【請求項44】 前記臨界値信号生成手段は、前記出力
信号を受信して、これに応じて臨界値修正信号を生成す
る出力プロセッサを含むことを特徴とする請求項40に
記載の処理要素。 - 【請求項45】 処理要素であって、 臨界値信号を生成する手段を備えており、 それぞれの入力信号に応じてそれぞれの結果信号を生成
する少なくとも2個の入力シナプス・プロセッサを備え
ており、各々の前記入力シナプス・プロセッサは、 第1及び第2の期待値をして初期化する手段を含み、前
記第1及び第2の期待値は最大期待値と平衡期待値とを
境界としており、 前記入力信号を受信して前記第1期待値を前記入力信号
及び前記第2期待値に応じて修正する手段を含み、 前記第2期待値を前記第1期待値に応じて修正する手段
を含み、 前記結果信号を前記第1期待値に応じて生成擦る手段を
含み、 前記結果を受信し、前記結果信号を合計し、これに応じ
てシグマ信号を生成する手段を備えており、 前記ジグマ信号と前記臨界値信号とを受信して、これに
応じて出力信号を生成する手段を備えていることを特徴
とする処理要素。 - 【請求項46】 前記第1期待値修正手段は、第1正味
修正値を決定して前記第1正味修正値を前記第1期待値
に加算する手段を含み、前記第1正味修正値は第1増加
項と第1減少項とを有し、前記第1増加項は前記第1期
待値と第1上昇定数との関数であり、前記第1減少項は
前記第1期待値と第1減衰定数との関数であり、前記第
2期待値修正手段は、前記第2期待値に対する第2正味
修正値を決定して前記第2正味修正値を前記第2期待値
に加算する手段を含んでおり、前記第2正味修正値は第
2増加項と第2減少項とを有し、前記第2増加項は前記
第2期待値と第2上昇定数との関数であり、前記第2減
少項は前記第2期待値と第2減衰定数との関数であるこ
とを特徴とする請求項45に記載の処理要素。 - 【請求項47】 前記臨界値信号生成手段は、前記出力
信号を受信して、これに応じて臨界値修正信号を生成す
る出力プロセッサを含むことを特徴とする請求項45に
記載の処理要素。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US69714291A | 1991-05-08 | 1991-05-08 | |
US07/697142 | 1991-05-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05265999A true JPH05265999A (ja) | 1993-10-15 |
JP3369213B2 JP3369213B2 (ja) | 2003-01-20 |
Family
ID=24799975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11506592A Expired - Fee Related JP3369213B2 (ja) | 1991-05-08 | 1992-05-08 | ニューロン回路網に用いるプロセッサー及び処理要素 |
Country Status (3)
Country | Link |
---|---|
US (1) | US5504839A (ja) |
JP (1) | JP3369213B2 (ja) |
DE (1) | DE4215179A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6754644B1 (en) * | 2000-03-06 | 2004-06-22 | William R. Hutchison | Adaptive autonomous agent with verbal learning |
US7089218B1 (en) * | 2004-01-06 | 2006-08-08 | Neuric Technologies, Llc | Method for inclusion of psychological temperament in an electronic emulation of the human brain |
US7925492B2 (en) | 2004-01-06 | 2011-04-12 | Neuric Technologies, L.L.C. | Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain |
US6282530B1 (en) * | 1999-06-09 | 2001-08-28 | Helios Semiconductor Inc. | Digital neural node |
GB9924310D0 (en) * | 1999-10-15 | 1999-12-15 | Univ Manchester | Neural network component |
WO2002027654A2 (de) * | 2000-09-29 | 2002-04-04 | Siemens Aktiengesellschaft | Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung |
US8473449B2 (en) * | 2005-01-06 | 2013-06-25 | Neuric Technologies, Llc | Process of dialogue and discussion |
US8290847B2 (en) * | 2007-02-21 | 2012-10-16 | General Electric Capital Corporation | Methods, apparatus and computer program products for use in association with joint ventures and/or potential joint ventures |
US10839302B2 (en) | 2015-11-24 | 2020-11-17 | The Research Foundation For The State University Of New York | Approximate value iteration with complex returns by bounding |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
WO2019210275A2 (en) * | 2018-04-26 | 2019-10-31 | David Schie | Event driven mathematical engine and method |
RU2724784C2 (ru) * | 2018-05-18 | 2020-06-25 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" | Способ управления реакцией нейропроцессора на входные сигналы |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US12086567B1 (en) * | 2021-03-14 | 2024-09-10 | Jesse Forrest Fabian | Computation system using a spherical arrangement of gates |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3103648A (en) * | 1961-08-22 | 1963-09-10 | Gen Electric | Adaptive neuron having improved output |
US3097349A (en) * | 1961-08-28 | 1963-07-09 | Rca Corp | Information processing apparatus |
US3293609A (en) * | 1961-08-28 | 1966-12-20 | Rca Corp | Information processing apparatus |
US3165644A (en) * | 1961-12-26 | 1965-01-12 | Ibm | Electronic circuit for simulating brain neuron characteristics including memory means producing a self-sustaining output |
US3218475A (en) * | 1962-10-02 | 1965-11-16 | Frederick F Hiltz | Artificial neuron |
US3308441A (en) * | 1963-09-06 | 1967-03-07 | Rca Corp | Information processing apparatus |
US3310783A (en) * | 1963-09-06 | 1967-03-21 | Rca Corp | Neuron information processing apparatus |
US3310784A (en) * | 1963-09-06 | 1967-03-21 | Rca Corp | Information processing apparatus |
US3351783A (en) * | 1965-06-21 | 1967-11-07 | Conductron Corp | Means for simulating learning, forgetting and other like processes |
US3413735A (en) * | 1965-11-08 | 1968-12-03 | Teaching Complements Inc | Optical pattern recognition system |
US4518866A (en) * | 1982-09-28 | 1985-05-21 | Psychologics, Inc. | Method of and circuit for simulating neurons |
US4773024A (en) * | 1986-06-03 | 1988-09-20 | Synaptics, Inc. | Brain emulation circuit with reduced confusion |
US5093899A (en) * | 1988-09-17 | 1992-03-03 | Sony Corporation | Neural network with normalized learning constant for high-speed stable learning |
US4912649A (en) * | 1988-12-14 | 1990-03-27 | Gte Government Systems Corporation | Accelerating learning in neural networks |
US5093900A (en) * | 1991-02-13 | 1992-03-03 | At&T Bell Laboratories | Reconfigurable neural network |
-
1992
- 1992-05-08 DE DE4215179A patent/DE4215179A1/de not_active Ceased
- 1992-05-08 JP JP11506592A patent/JP3369213B2/ja not_active Expired - Fee Related
-
1994
- 1994-08-29 US US08/297,529 patent/US5504839A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP3369213B2 (ja) | 2003-01-20 |
US5504839A (en) | 1996-04-02 |
DE4215179A1 (de) | 1992-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3369213B2 (ja) | ニューロン回路網に用いるプロセッサー及び処理要素 | |
KR102592146B1 (ko) | 시냅스 가중치 학습을 위한 뉴런 회로, 시스템 및 방법 | |
US10339447B2 (en) | Configuring sparse neuronal networks | |
Levin et al. | Neural network architecture for adaptive system modeling and control | |
US9417845B2 (en) | Method and apparatus for producing programmable probability distribution function of pseudo-random numbers | |
KR20170041724A (ko) | 비동기 펄스 변조를 이용한 인공 뉴런들 및 스파이킹 뉴런들 | |
KR20160136381A (ko) | 신경 네트워크들에서의 차분 인코딩 | |
WO2013119867A1 (en) | Methods and apparatus for spiking neural computation | |
EP2812855A1 (en) | Methods and apparatus for spiking neural computation | |
TW201541372A (zh) | 使用尖峰發放神經元的人工神經網路和感知器學習 | |
WO2013119861A1 (en) | Methods and apparatus for spiking neural computation | |
CN112101535B (zh) | 脉冲神经元的信号处理方法及相关装置 | |
US20150212861A1 (en) | Value synchronization across neural processors | |
JP6750118B2 (ja) | スパイクニューラルネットワークに基づく信号処理方法及び信号処理装置 | |
KR20160084401A (ko) | 스파이킹 뉴럴 네트워크들에서 리플레이를 사용한 시냅스 학습의 구현 | |
CN112085198A (zh) | 基于全局反馈以及局部突触可塑的脉冲神经网络优化方法 | |
US20150269479A1 (en) | Conversion of neuron types to hardware | |
US20140310216A1 (en) | Method for generating compact representations of spike timing-dependent plasticity curves | |
US9342782B2 (en) | Stochastic delay plasticity | |
Widrow | The LMS algorithm | |
Schmidgall | Adaptive reinforcement learning through evolving self-modifying neural networks | |
US20150213356A1 (en) | Method for converting values into spikes | |
Barto | Temporal difference learning | |
Annabi et al. | Continual sequence modeling with predictive coding | |
Peng et al. | Adaptive self-scaling non-monotone BFGS training algorithm for recurrent neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021021 |
|
LAPS | Cancellation because of no payment of annual fees |