JP2002304617A - 反応型情報処理装置 - Google Patents
反応型情報処理装置Info
- Publication number
- JP2002304617A JP2002304617A JP2001106432A JP2001106432A JP2002304617A JP 2002304617 A JP2002304617 A JP 2002304617A JP 2001106432 A JP2001106432 A JP 2001106432A JP 2001106432 A JP2001106432 A JP 2001106432A JP 2002304617 A JP2002304617 A JP 2002304617A
- Authority
- JP
- Japan
- Prior art keywords
- node
- recall
- layer
- input
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 特徴を表す信号群からなる概念を生成し、関
連のある概念間を結びつけて連想を可能とし、処理系が
外界に対して行う動作を概念をベースとして学習する。 【解決手段】 特徴信号Xを入力する入力ノードを有す
る特徴反応層31と、外部環境4に出力する行動ノード
を有する行動決定層33とを備え、前記特徴反応層31
と前記行動決定層33の間に、前記入力ノードの出力に
基づき興奮して前記行動ノードへ出力する想起ノードを
有する想起層32を備える。
連のある概念間を結びつけて連想を可能とし、処理系が
外界に対して行う動作を概念をベースとして学習する。 【解決手段】 特徴信号Xを入力する入力ノードを有す
る特徴反応層31と、外部環境4に出力する行動ノード
を有する行動決定層33とを備え、前記特徴反応層31
と前記行動決定層33の間に、前記入力ノードの出力に
基づき興奮して前記行動ノードへ出力する想起ノードを
有する想起層32を備える。
Description
【0001】
【発明の属する技術分野】本発明は、情報処理装置に関
する。
する。
【0002】
【従来の技術】脳の構造は非常に複雑であり、それは処
理要素としてのニューロンが、高度に相互連絡したネッ
トワークと見ることができる。脳に近い動作を実現する
ためには、本物のニューラルシステムの重要な特徴を反
映したモデルを構築する必要があった。本物の単一ニュ
ーロンの基本的な働きは、入力を加算してその値が閾値
と呼ばれるある値を越えると出力信号を出す。図28に
示すように、ニューロン60への入力は樹状突起状に存
在するシナプス61と呼ばれる特別な接合点を通して他
のニューロン60からの出力と接続される。これらの接
合点は、それぞれの信号伝達効率が異なり、あるシナプ
ス61は大きな電位変化を引き起こすが、他のシナプス
61はさほどでもないといった違いがある。細胞体62
は全てのシナプスからの入力を受け入力の総和が閾値を
超えると発火する。そこで、ニューロンモデルは、この
重要な特徴をとどめるようにしたものである。
理要素としてのニューロンが、高度に相互連絡したネッ
トワークと見ることができる。脳に近い動作を実現する
ためには、本物のニューラルシステムの重要な特徴を反
映したモデルを構築する必要があった。本物の単一ニュ
ーロンの基本的な働きは、入力を加算してその値が閾値
と呼ばれるある値を越えると出力信号を出す。図28に
示すように、ニューロン60への入力は樹状突起状に存
在するシナプス61と呼ばれる特別な接合点を通して他
のニューロン60からの出力と接続される。これらの接
合点は、それぞれの信号伝達効率が異なり、あるシナプ
ス61は大きな電位変化を引き起こすが、他のシナプス
61はさほどでもないといった違いがある。細胞体62
は全てのシナプスからの入力を受け入力の総和が閾値を
超えると発火する。そこで、ニューロンモデルは、この
重要な特徴をとどめるようにしたものである。
【0003】また、ニューロンモデルでは、図29に示
すように、シナプス70の入力をx iとし、それぞれの
信号伝達効率をwiの重みで表す。また、ニューロンの
細胞体62に対応するものをユニット71とし、シナプ
ス70からの入力を受け、入力に信号伝達効率を掛け合
わせた総和が閾値を越えた場合に、出力(out)が行われ
るものとする。つまり、ユニット71の入力Eは、入力
xiにwiの重みを掛け合わせた総和となり、
すように、シナプス70の入力をx iとし、それぞれの
信号伝達効率をwiの重みで表す。また、ニューロンの
細胞体62に対応するものをユニット71とし、シナプ
ス70からの入力を受け、入力に信号伝達効率を掛け合
わせた総和が閾値を越えた場合に、出力(out)が行われ
るものとする。つまり、ユニット71の入力Eは、入力
xiにwiの重みを掛け合わせた総和となり、
【数1】 である。この総和Eが閾値以上のものに対してのみ出力
(out)が行われる。
(out)が行われる。
【0004】また、ニューロンモデルでは、出力が正し
い判断を示すように重みを変化させることによって、次
回好ましい出力が得られように学習させる。
い判断を示すように重みを変化させることによって、次
回好ましい出力が得られように学習させる。
【0005】さらに、コホーネン(Kohonen)は、人間
の脳は、複雑なデータ構造を表現するとき空間マッピン
グを使用しているという考えを取り入れている。図30
に示すように、コホーネンはユニットが平面に並べられ
全ての入力と結合を持つものとし、コホーネンの特徴マ
ップ(feature map)80(あるいは、トポグラフィッ
クマップ80)と呼ばれるネットワークモデルを提案し
ている。
の脳は、複雑なデータ構造を表現するとき空間マッピン
グを使用しているという考えを取り入れている。図30
に示すように、コホーネンはユニットが平面に並べられ
全ての入力と結合を持つものとし、コホーネンの特徴マ
ップ(feature map)80(あるいは、トポグラフィッ
クマップ80)と呼ばれるネットワークモデルを提案し
ている。
【0006】このコホーネンのネットワークは学習アル
ゴリズムにより、格子状のユニット81(以降、ノード
とする。)を組織して、入力データの特徴を分類する局
所的な近傍を作るものである。トポグラフィックマップ
は、入力パターンとネットワーク内に蓄積されたベクト
ルを比較することを繰り返して自己組織化される。入力
データがノード81の持つベクトルにマッチした場合、
その近傍領域が、学習データの平均を表現するように最
適化される。また、コホーネンのネットワークは、基本
的には、教師なし学習法である。
ゴリズムにより、格子状のユニット81(以降、ノード
とする。)を組織して、入力データの特徴を分類する局
所的な近傍を作るものである。トポグラフィックマップ
は、入力パターンとネットワーク内に蓄積されたベクト
ルを比較することを繰り返して自己組織化される。入力
データがノード81の持つベクトルにマッチした場合、
その近傍領域が、学習データの平均を表現するように最
適化される。また、コホーネンのネットワークは、基本
的には、教師なし学習法である。
【0007】コホーネンのアルゴリズムは、 1.初期化 wij(t)(0≦i≦n−1)を、時刻tにおける入力
iからノードjへの結合の重みとする。そしてこのn個
の入力データから各ノードへの重みを乱数で初期化し、
ノードjの近傍の初期範囲Nj(0)を大きく設定す
る。 2.入力データの提示 xi(t)(0≦i≦n−1)を、時刻tにおけるノー
ドjへの入力とする。 3.距離の計算 以下の計算により、入力データと出力データとの距離d
jを計算する。
iからノードjへの結合の重みとする。そしてこのn個
の入力データから各ノードへの重みを乱数で初期化し、
ノードjの近傍の初期範囲Nj(0)を大きく設定す
る。 2.入力データの提示 xi(t)(0≦i≦n−1)を、時刻tにおけるノー
ドjへの入力とする。 3.距離の計算 以下の計算により、入力データと出力データとの距離d
jを計算する。
【数2】 4.最初距離の選択 djが最小値なる出力ノードをj*とする。 5.重みの更新 ノードj*とNj*(t)で定義される近傍への重みを以
下の式により更新する。
下の式により更新する。
【数3】 ここで、jはNj*(t)に含まれるすべてであり、0≦
i≦n−1である。また、η(t)は、ゲイン(0<η
(t)<1)であり、時間とともにサイズを減少させ、
更新される領域を狭めてゆく。 6.ステップ2.から5.を繰り返す。
i≦n−1である。また、η(t)は、ゲイン(0<η
(t)<1)であり、時間とともにサイズを減少させ、
更新される領域を狭めてゆく。 6.ステップ2.から5.を繰り返す。
【0008】上記コホーネンのアルゴリズムは、要約す
ると学習データに最も近い重みベクトルを持つノードj
*を捜し、このノードj*の重みベクトルwijと入力デー
タx iの近似度を増加させ、その近傍のノードj*につい
ても、重みwijと入力xiの距離を減少させるものであ
る。
ると学習データに最も近い重みベクトルを持つノードj
*を捜し、このノードj*の重みベクトルwijと入力デー
タx iの近似度を増加させ、その近傍のノードj*につい
ても、重みwijと入力xiの距離を減少させるものであ
る。
【0009】次に、グロスバーグ(Grossberg)の適応
共鳴理論(ART:adaptive resonance theory)は、自
己組織的なモデルである。また、ARTも基本的には、
教師なし学習法である。ARTネットワーク90は、図
31に示すように2層から成り、第1層は入力/比較の
層で、第2層は出力/認識の層である。以下、入力/比
較の層を比較層91、また、出力/認識の層を認識層9
2と呼ぶ。また、ARTネットワークの各層は、比較層
91から認識層92へフィードフォワード結合と、認識
層92から比較層へのフィードバック結合により相互に
結合しており、フィードフォワードによるトップダウン
の重みのベクトルをWとし、フィードバックによるボト
ムアップの重みのベクトルをTとする。
共鳴理論(ART:adaptive resonance theory)は、自
己組織的なモデルである。また、ARTも基本的には、
教師なし学習法である。ARTネットワーク90は、図
31に示すように2層から成り、第1層は入力/比較の
層で、第2層は出力/認識の層である。以下、入力/比
較の層を比較層91、また、出力/認識の層を認識層9
2と呼ぶ。また、ARTネットワークの各層は、比較層
91から認識層92へフィードフォワード結合と、認識
層92から比較層へのフィードバック結合により相互に
結合しており、フィードフォワードによるトップダウン
の重みのベクトルをWとし、フィードバックによるボト
ムアップの重みのベクトルをTとする。
【0010】また、図32に示すように、認識層92の
ノードと全ての比較層91のノードと結合する。さら
に、認識層92の各ノードは側抑制によって広範囲な結
合を持ち、認識層92のいくつかのノード間で高い活動
レベルで反応した場合、ノード間の最大の反応をもった
ノード以外をオフにする。
ノードと全ての比較層91のノードと結合する。さら
に、認識層92の各ノードは側抑制によって広範囲な結
合を持ち、認識層92のいくつかのノード間で高い活動
レベルで反応した場合、ノード間の最大の反応をもった
ノード以外をオフにする。
【0011】ARTのアルゴリズムは、 1.初期化 tij(0)=1 wij(0)=1/(1+N) 0≦i≦N−1, 0≦j≦M−1 ρの値を0から1の間に設定 ここで、wij(t)およびはtij(t)、時間tにおけ
るノードiとjの間のトップダウンおよびボトムアップ
の重み係数を表す。これらの重みが認識層92上のノー
ドjによって規定する代表パターンを定義する。ρはネ
ットに蓄えられている代表パターンと入力パターンのマ
ッチングの程度の指標となるビジランス閾値(適合度を
みるための閾値)である。比較層91のノードはNで、
認識層92のノードはM個である。 2.新しい入力をネットワークに与える。 3.適合度の計算
るノードiとjの間のトップダウンおよびボトムアップ
の重み係数を表す。これらの重みが認識層92上のノー
ドjによって規定する代表パターンを定義する。ρはネ
ットに蓄えられている代表パターンと入力パターンのマ
ッチングの程度の指標となるビジランス閾値(適合度を
みるための閾値)である。比較層91のノードはNで、
認識層92のノードはM個である。 2.新しい入力をネットワークに与える。 3.適合度の計算
【数4】 Ejはノードjの出力、xiは0または1の値をとるi番
目の入力を表す。 4.最も適合する代表出力ノードの選択
目の入力を表す。 4.最も適合する代表出力ノードの選択
【数5】 5.判定
【数6】 を計算する。ここで、
【数7】 が成り立つか?YESのときステップ7に、NOのとき
ステップ6へ 6.最良マッチングの取り消し 最良マッチングのノードj*の出力をリセットし無効と
した後、ステップ3へ、 7.最良マッチングの更新
ステップ6へ 6.最良マッチングの取り消し 最良マッチングのノードj*の出力をリセットし無効と
した後、ステップ3へ、 7.最良マッチングの更新
【数8】 8.繰り返し ステップ6.でリセットし無効としたノードを使用可能
にしてステップ2.へ
にしてステップ2.へ
【0012】上記ARTのアルゴリズムは、選ばれた認
識層92上のノードの代表するパターンがビジランステ
ストにかけられ、合格するノードがみつかるまで繰り返
す。合格するノードが見つからない場合は、ネットワー
クは入力ベクトルxは、未知のパターンである判断し認
識層92に新しいノードを割り当てる。このように、入
力ベクトルxの情報は変化しながら最終的な安定状態を
みいだすまで比較層91と認識層92の間を巡回するも
のである。
識層92上のノードの代表するパターンがビジランステ
ストにかけられ、合格するノードがみつかるまで繰り返
す。合格するノードが見つからない場合は、ネットワー
クは入力ベクトルxは、未知のパターンである判断し認
識層92に新しいノードを割り当てる。このように、入
力ベクトルxの情報は変化しながら最終的な安定状態を
みいだすまで比較層91と認識層92の間を巡回するも
のである。
【0013】
【発明が解決しようとする課題】従来のニューラルロジ
ックは徹底的な分散記憶であり、重みの値の変化が多く
の場合全体に及ぶ。また、構造が一様なため、各ノード
全ての重みに分散して記憶される。したがって、学習が
ほぼ完了した時点においても、なぜその結果をもたらす
のかを学習結果から推定することが極めて困難であっ
た。また、このため大規模化や複数のニューラルロジッ
クを結合した複合構造の実現も難しかった。
ックは徹底的な分散記憶であり、重みの値の変化が多く
の場合全体に及ぶ。また、構造が一様なため、各ノード
全ての重みに分散して記憶される。したがって、学習が
ほぼ完了した時点においても、なぜその結果をもたらす
のかを学習結果から推定することが極めて困難であっ
た。また、このため大規模化や複数のニューラルロジッ
クを結合した複合構造の実現も難しかった。
【0014】処理系が外部から入力される特徴を表す信
号群には、その時点では処理系にとって不要な情報、さ
らにはノイズが含まれ、多くの場合は、少数の信号群に
注目するだけで適切な判断が可能である。このことか
ら、有効な特徴を示す信号群のみを簡単な方法で抽出す
ることが望まれていた。
号群には、その時点では処理系にとって不要な情報、さ
らにはノイズが含まれ、多くの場合は、少数の信号群に
注目するだけで適切な判断が可能である。このことか
ら、有効な特徴を示す信号群のみを簡単な方法で抽出す
ることが望まれていた。
【0015】また、単に有効な特徴を抽出するだけでな
く、抽出された信号群を群としてまとめて記憶すること
や、この記憶された信号群を少数の信号線によりまとめ
て読み出し可能とすることが望まれていた。加えて、あ
る時点のみの信号群に依るだけでなく、それ以前にどの
ような信号群が生起しているかに基づいて有用な特徴群
を抽出すること、すなわち、人間が連想するのと同様
に、信号群と信号群との相互の関係の表現を可能にする
ことも望まれていた。
く、抽出された信号群を群としてまとめて記憶すること
や、この記憶された信号群を少数の信号線によりまとめ
て読み出し可能とすることが望まれていた。加えて、あ
る時点のみの信号群に依るだけでなく、それ以前にどの
ような信号群が生起しているかに基づいて有用な特徴群
を抽出すること、すなわち、人間が連想するのと同様
に、信号群と信号群との相互の関係の表現を可能にする
ことも望まれていた。
【0016】人間が様々に考える上で、概念を用いてい
ることは良く知られているが、“特徴を示す信号群”を
一種の概念と見なし、この概念を単位として、記憶し、
想起し、相互に連想することを可能にすることを通じ
て、ニューラルネットワークの持つ様々な欠点を回避す
るものが必要である。具体的には、学習結果がいたずら
に分散されることもなく、意味を持つ概念とその関係を
用いて、分かりやすい構造を持たせながら学習するこ
と、すなわち、概念をベースに学習することが必要であ
る。さらに、既に我々人間が自らの内で達成してきてい
るような処理系の大規模化や複合的な構造の実現のため
には、この概念ベースで学習することが不可欠である。
ることは良く知られているが、“特徴を示す信号群”を
一種の概念と見なし、この概念を単位として、記憶し、
想起し、相互に連想することを可能にすることを通じ
て、ニューラルネットワークの持つ様々な欠点を回避す
るものが必要である。具体的には、学習結果がいたずら
に分散されることもなく、意味を持つ概念とその関係を
用いて、分かりやすい構造を持たせながら学習するこ
と、すなわち、概念をベースに学習することが必要であ
る。さらに、既に我々人間が自らの内で達成してきてい
るような処理系の大規模化や複合的な構造の実現のため
には、この概念ベースで学習することが不可欠である。
【0017】既にニューラルネットワークにおいて、概
念をベースに学習する方法の一つとして、コホーネンの
方法がある。しかし、コホーネンのSOMでの学習の方法
は、信号群相互の類似関係のみに注目して、トポグラフ
ィックマップ上の距離の近さで表現したものであり、有
効な特徴群を明示的に抽出する方法にはなっていない。
また、記憶した概念を読み出す方法を備えていないこと
や、先行して生じた概念からの影響等、時間的に近接し
て発生することの関係や、原因と結果の関係を表す方法
がない等、概念をベースに学習する方法として不十分な
ものである。
念をベースに学習する方法の一つとして、コホーネンの
方法がある。しかし、コホーネンのSOMでの学習の方法
は、信号群相互の類似関係のみに注目して、トポグラフ
ィックマップ上の距離の近さで表現したものであり、有
効な特徴群を明示的に抽出する方法にはなっていない。
また、記憶した概念を読み出す方法を備えていないこと
や、先行して生じた概念からの影響等、時間的に近接し
て発生することの関係や、原因と結果の関係を表す方法
がない等、概念をベースに学習する方法として不十分な
ものである。
【0018】同様に、グロスバーグのARTは概念をベ
ースに学習する方法の一つである。しかし、入力される
特徴を記憶し、想起する機能を持ち、入力された概念と
既に記憶している概念の類似性を判定する機能は持って
いるが、有効な特徴群を新たな概念として抽出するこ
と、記憶されている概念相互の類似性に基づく連想機能
も備えていない等、概念をベースに学習する方法として
同様に不十分なものである。
ースに学習する方法の一つである。しかし、入力される
特徴を記憶し、想起する機能を持ち、入力された概念と
既に記憶している概念の類似性を判定する機能は持って
いるが、有効な特徴群を新たな概念として抽出するこ
と、記憶されている概念相互の類似性に基づく連想機能
も備えていない等、概念をベースに学習する方法として
同様に不十分なものである。
【0019】以上述べたように、従来の技術では、概念
をベースとする学習として不完全であり、一部、入力さ
れる特徴を信号群として記憶する方法はあるものの、記
憶された複数の概念の特徴を表す信号群を用いて、新し
く有効な特徴を表す信号群を概念として生成することは
できない。さらに、有効な特徴群からなる新しい概念
を、信号群単位で記憶し、信号群単位で簡単に読み出す
(制御する)ことはできず、また、これら概念の特徴を
表す信号群から新たに概念の特徴を表す信号群を連想す
ることもできなかった。そこで、本発明では、新しく有
効な特徴を表す信号群を概念として生成し、さらに、概
念の特徴を表す信号群から新たに概念の特徴を表す信号
群を連想することができる情報処理装置を提供する。
をベースとする学習として不完全であり、一部、入力さ
れる特徴を信号群として記憶する方法はあるものの、記
憶された複数の概念の特徴を表す信号群を用いて、新し
く有効な特徴を表す信号群を概念として生成することは
できない。さらに、有効な特徴群からなる新しい概念
を、信号群単位で記憶し、信号群単位で簡単に読み出す
(制御する)ことはできず、また、これら概念の特徴を
表す信号群から新たに概念の特徴を表す信号群を連想す
ることもできなかった。そこで、本発明では、新しく有
効な特徴を表す信号群を概念として生成し、さらに、概
念の特徴を表す信号群から新たに概念の特徴を表す信号
群を連想することができる情報処理装置を提供する。
【0020】
【課題を解決するための手段】前述の課題を解決するた
め、本発明に係る反応型情報処理装置は、請求項1で
は、特徴信号を入力する入力ノードを有する特徴反応層
と、外部環境に出力する行動ノードを有する行動決定層
とを備え、前記特徴反応層と前記行動決定層の間に、前
記入力ノードの出力に基づき興奮して前記行動ノードへ
出力する想起ノードを有する想起層を備える。
め、本発明に係る反応型情報処理装置は、請求項1で
は、特徴信号を入力する入力ノードを有する特徴反応層
と、外部環境に出力する行動ノードを有する行動決定層
とを備え、前記特徴反応層と前記行動決定層の間に、前
記入力ノードの出力に基づき興奮して前記行動ノードへ
出力する想起ノードを有する想起層を備える。
【0021】上記構成では、特徴反応層と想起層とで、
特徴信号群(概念)を記憶することが可能となり、さら
に、想起層と行動決定層とでは、外部環境に対する有効
な行動を記憶することが可能である。ここで、概念と
は、認識しようとする対象物を表す特徴を情報とし、そ
の集まりである。また、特徴信号とは、外部環境からの
センサー入力に対する特徴を抽出した信号である。
特徴信号群(概念)を記憶することが可能となり、さら
に、想起層と行動決定層とでは、外部環境に対する有効
な行動を記憶することが可能である。ここで、概念と
は、認識しようとする対象物を表す特徴を情報とし、そ
の集まりである。また、特徴信号とは、外部環境からの
センサー入力に対する特徴を抽出した信号である。
【0022】また、請求項2記載の反応型情報処理装置
では、特徴信号を入力する入力ノードを有する特徴反応
層と、外部環境に出力する行動ノードを有する行動決定
層とを備え、前記特徴反応層と前記行動決定層の間に、
前記入力ノードの出力に基づき興奮して前記行動ノード
へ出力する想起ノードを有する想起層を備え、前記行動
ノードから前記想起層の想起ノードを介して前記特徴反
応層の入力ノードに特徴信号を逆入力する。
では、特徴信号を入力する入力ノードを有する特徴反応
層と、外部環境に出力する行動ノードを有する行動決定
層とを備え、前記特徴反応層と前記行動決定層の間に、
前記入力ノードの出力に基づき興奮して前記行動ノード
へ出力する想起ノードを有する想起層を備え、前記行動
ノードから前記想起層の想起ノードを介して前記特徴反
応層の入力ノードに特徴信号を逆入力する。
【0023】上記構成では、特徴信号群(概念)単位に
想起することが可能である。
想起することが可能である。
【0024】また、請求項3では、請求項2記載の反応
型情報処理装置において、前記行動ノードから前記想起
層の想起ノードを選択し、選択した想起ノードから前記
特徴反応層の入力ノードに特徴信号を逆入力することを
特徴とする。
型情報処理装置において、前記行動ノードから前記想起
層の想起ノードを選択し、選択した想起ノードから前記
特徴反応層の入力ノードに特徴信号を逆入力することを
特徴とする。
【0025】上記構成では、ある種の行動を条件とし
て、その範囲で概念を読み出すことが可能である。
て、その範囲で概念を読み出すことが可能である。
【0026】また、請求項4では、請求項2または3記
載の反応型情報処理装置において、前記入力ノードで
は、前記想起ノードから入力された複数の特徴信号を演
算して出力することを特徴とする
載の反応型情報処理装置において、前記入力ノードで
は、前記想起ノードから入力された複数の特徴信号を演
算して出力することを特徴とする
【0027】上記構成では、特徴反応層で反応(演算)
させることで、新たな特徴信号群(概念)の生成をする
ことができる。また、演算の方法や読み出し範囲を変え
ることで、生成する概念を別のかたちで取り出すことが
できる。
させることで、新たな特徴信号群(概念)の生成をする
ことができる。また、演算の方法や読み出し範囲を変え
ることで、生成する概念を別のかたちで取り出すことが
できる。
【0028】また、請求項5では、請求項1〜4いずれ
か記載の反応型情報処理装置において、前記入力ノード
と前記想起ノードとを結ぶリンク上の重みWと、前記入
力ノードの出力とを演算した総入力Eに基づき興奮する
想起ノードを勝者とすることを特徴とする。
か記載の反応型情報処理装置において、前記入力ノード
と前記想起ノードとを結ぶリンク上の重みWと、前記入
力ノードの出力とを演算した総入力Eに基づき興奮する
想起ノードを勝者とすることを特徴とする。
【0029】上記構成では、記憶されている重みに応じ
て入力した特徴信号を反映させて、想起ノードを興奮す
ることができる。
て入力した特徴信号を反映させて、想起ノードを興奮す
ることができる。
【0030】また、請求項6では、請求項1〜5いずれ
か記載の反応型情報処理装置において、興奮した想起ノ
ードと前記行動ノードとを結ぶリンク上の重みUに基づ
き外部環境に出力する行動ノードを選択することを特徴
とする。
か記載の反応型情報処理装置において、興奮した想起ノ
ードと前記行動ノードとを結ぶリンク上の重みUに基づ
き外部環境に出力する行動ノードを選択することを特徴
とする。
【0031】上記構成では、記憶されている重みに応じ
て興奮した想起ノードを外部環境に出力することができ
る。
て興奮した想起ノードを外部環境に出力することができ
る。
【0032】また、請求項7では、請求項5または6記
載の反応型情報処理装置において、前記想起ノードにリ
ンクする重みWは、前記入力ノードからの出力に応じて
学習することを特徴とする。
載の反応型情報処理装置において、前記想起ノードにリ
ンクする重みWは、前記入力ノードからの出力に応じて
学習することを特徴とする。
【0033】上記構成では、ノイズを含むような、個々
の特徴信号群から、中心的な信号群からなる概念を学習
することができる。
の特徴信号群から、中心的な信号群からなる概念を学習
することができる。
【0034】また、請求項8では、請求項6または7記
載の反応型情報処理装置において、外部環境に出力した
行動ノードにリンクする前記重みUは、外部環境による
評価に基づき学習することを特徴とする。
載の反応型情報処理装置において、外部環境に出力した
行動ノードにリンクする前記重みUは、外部環境による
評価に基づき学習することを特徴とする。
【0035】上記構成では、外部環境の評価に応じて学
習することができる。
習することができる。
【0036】また、請求項9記載の反応型情報処理装置
では、特徴信号を入力する入力ノードを有する特徴反応
層と、前記入力ノードの出力に基づき興奮して出力する
想起ノードを有する想起層とを備え、前記想起ノードか
ら前記特徴反応層の入力ノードに特徴信号を逆入力す
る。
では、特徴信号を入力する入力ノードを有する特徴反応
層と、前記入力ノードの出力に基づき興奮して出力する
想起ノードを有する想起層とを備え、前記想起ノードか
ら前記特徴反応層の入力ノードに特徴信号を逆入力す
る。
【0037】上記構成では、同一の行動からだけでな
く、さまざまな条件から新たな概念を生成することが可
能である。
く、さまざまな条件から新たな概念を生成することが可
能である。
【0038】また、請求項10では、請求項9記載の反
応型情報処理装置において、前記入力ノードでは、前記
想起ノードから入力された複数の特徴信号を演算して出
力することを特徴とする。
応型情報処理装置において、前記入力ノードでは、前記
想起ノードから入力された複数の特徴信号を演算して出
力することを特徴とする。
【0039】上記構成では、特徴反応層で反応(演算)
させることで、新たな特徴信号群(概念)の生成をする
ことができる。また、演算の方法や読み出し範囲を変え
ることで、生成する概念を別のかたちで取り出すことが
できる。
させることで、新たな特徴信号群(概念)の生成をする
ことができる。また、演算の方法や読み出し範囲を変え
ることで、生成する概念を別のかたちで取り出すことが
できる。
【0040】また、請求項11では、請求項9または1
0記載の反応型情報処理装置において、前記入力ノード
と前記想起ノードとを結ぶリンク上の重みWと、前記入
力ノードの出力とを演算した総入力Eに基づき興奮する
想起ノードを勝者とすることを特徴とする。
0記載の反応型情報処理装置において、前記入力ノード
と前記想起ノードとを結ぶリンク上の重みWと、前記入
力ノードの出力とを演算した総入力Eに基づき興奮する
想起ノードを勝者とすることを特徴とする。
【0041】上記構成では、記憶されている重みに応じ
て入力した特徴信号を反映させて、想起ノードを興奮す
ることができる。
て入力した特徴信号を反映させて、想起ノードを興奮す
ることができる。
【0042】また、請求項12では、請求項11記載の
反応型情報処理装置において、前記想起ノードにリンク
する重みWは、前記入力ノードからの出力に応じて学習
することを特徴とする。
反応型情報処理装置において、前記想起ノードにリンク
する重みWは、前記入力ノードからの出力に応じて学習
することを特徴とする。
【0043】上記構成では、入力された概念の特徴を学
習することができる。
習することができる。
【0044】また、請求項13では、請求項1〜12い
ずれか記載の反応型情報処理装置において、興奮した想
起ノードと、この想起ノードの興奮に関連して繰り返し
興奮する想起ノードを従属ノードとし重みVでリンクす
ることを特徴とする
ずれか記載の反応型情報処理装置において、興奮した想
起ノードと、この想起ノードの興奮に関連して繰り返し
興奮する想起ノードを従属ノードとし重みVでリンクす
ることを特徴とする
【0045】上記構成では、類似性とは関係なく概念間
の関係を覚えることができる。
の関係を覚えることができる。
【0046】また、請求項14では、請求項1〜12い
ずれか記載の反応型情報処理装置において、興奮した想
起ノードと、この想起ノードが興奮した近接時間内に繰
り返し興奮する想起ノードを従属ノードとし重みVでリ
ンクすることを特徴とする。
ずれか記載の反応型情報処理装置において、興奮した想
起ノードと、この想起ノードが興奮した近接時間内に繰
り返し興奮する想起ノードを従属ノードとし重みVでリ
ンクすることを特徴とする。
【0047】上記構成では、類似性とは関係なく概念間
の時間的な関係を覚えることができる。また、ここで、
近接時間とは、相互関係が認められる範囲の時間であ
り、対象によって適宜きめられるものである。
の時間的な関係を覚えることができる。また、ここで、
近接時間とは、相互関係が認められる範囲の時間であ
り、対象によって適宜きめられるものである。
【0048】また、請求項15では、請求項14記載の
反応型情報処理装置において、前記想起ノードとこの想
起ノードの従属ノードとが近接時間内にともに興奮する
程度に応じて、前記重みVを変化させることを特徴とす
る。
反応型情報処理装置において、前記想起ノードとこの想
起ノードの従属ノードとが近接時間内にともに興奮する
程度に応じて、前記重みVを変化させることを特徴とす
る。
【0049】上記構成では、近接時間内に頻繁に生じる
概念間の関係を覚えることができる。
概念間の関係を覚えることができる。
【0050】また、請求項16では、請求項13〜15
いずれか記載の反応型情報処理装置において、前記想起
ノードにリンクする従属ノードの総入力Eとその重みV
とに応じた従属ノードからの影響を、前記想起ノードの
総入力Eに加えることを特徴とする。
いずれか記載の反応型情報処理装置において、前記想起
ノードにリンクする従属ノードの総入力Eとその重みV
とに応じた従属ノードからの影響を、前記想起ノードの
総入力Eに加えることを特徴とする。
【0051】上記構成では、様々な概念間の関係を加味
して外部環境に適応できる。
して外部環境に適応できる。
【0052】また、請求項17では、請求項13〜15
いずれか記載の反応型情報処理装置において、前記想起
ノード毎に活性の度合いを記憶するアクティビティを、
前記想起ノードの総入力Eに加味することを特徴とす
る。
いずれか記載の反応型情報処理装置において、前記想起
ノード毎に活性の度合いを記憶するアクティビティを、
前記想起ノードの総入力Eに加味することを特徴とす
る。
【0053】上記構成では、頻繁に利用される概念を維
持し、滅多に使用されない概念を淘汰することができ
る。また、少し前(時間的)に利用された概念を想起し
やすくすることができる。
持し、滅多に使用されない概念を淘汰することができ
る。また、少し前(時間的)に利用された概念を想起し
やすくすることができる。
【0054】また、請求項18では、請求項13〜15
いずれか記載の反応型情報処理装置において、前記想起
ノードにリンクする従属ノードの総入力Eとその重みV
とに応じた従属ノードのからの影響と、前記想起ノード
毎に活性の度合いを記憶するアクティビティとを、前記
想起ノードの総入力Eに加えることを特徴とする。
いずれか記載の反応型情報処理装置において、前記想起
ノードにリンクする従属ノードの総入力Eとその重みV
とに応じた従属ノードのからの影響と、前記想起ノード
毎に活性の度合いを記憶するアクティビティとを、前記
想起ノードの総入力Eに加えることを特徴とする。
【0055】上記構成では、関連する概念間の関係を覚
えることができる。さらに、頻繁に利用される概念を維
持し、滅多に使用されない概念を淘汰することができ
る。また、少し前(時間的)に利用された概念が想起さ
れやすくすることができる。
えることができる。さらに、頻繁に利用される概念を維
持し、滅多に使用されない概念を淘汰することができ
る。また、少し前(時間的)に利用された概念が想起さ
れやすくすることができる。
【0056】
【発明の実施の形態】以下、本発明にかかる実施の形態
を、図面に基づいて説明する。第1の実施の形態とし
て、3層構造のイメージリアクタを用いて外部環境から
受け取った概念の特徴を表す信号群(以下、特徴信号群
とする。)から最適な行動決を決定する方法について説
明する。本実施の形態における反応型情報処理装置1
は、図1に示すように、前処理系2とイメージリアクタ
3から概要構成される。前処理系2は、外部環境4から
の感覚入力に対して特徴抽出を行い、イメージリアクタ
3の入力とするものである。ここでは、外部環境から時
間的に継続して感覚情報が前処理系2に入力され、それ
に応じた特徴信号の集まりである特徴信号群Xが、イメ
ージリアクタ3に継続的に入力され、その結果1個の出
力イメージ5を決定する。
を、図面に基づいて説明する。第1の実施の形態とし
て、3層構造のイメージリアクタを用いて外部環境から
受け取った概念の特徴を表す信号群(以下、特徴信号群
とする。)から最適な行動決を決定する方法について説
明する。本実施の形態における反応型情報処理装置1
は、図1に示すように、前処理系2とイメージリアクタ
3から概要構成される。前処理系2は、外部環境4から
の感覚入力に対して特徴抽出を行い、イメージリアクタ
3の入力とするものである。ここでは、外部環境から時
間的に継続して感覚情報が前処理系2に入力され、それ
に応じた特徴信号の集まりである特徴信号群Xが、イメ
ージリアクタ3に継続的に入力され、その結果1個の出
力イメージ5を決定する。
【0057】イメージリアクタ3は、層構造を持つ反応
型の連想記憶系である。層構造のイメージリアクタ3
は、図2に示すように、特徴反応層31、想起層32、
行動決定層33の3層から構成され、各層にはノードが
平面的に配置される。
型の連想記憶系である。層構造のイメージリアクタ3
は、図2に示すように、特徴反応層31、想起層32、
行動決定層33の3層から構成され、各層にはノードが
平面的に配置される。
【0058】層と層の関係を含めた構成は、図3に示す
ように、特徴反応層31と想起層32の2層とその間を
結合するリンクが連想記憶系34を構成し、特徴反応層
31上の入力ノードと全ての想起層32上の想起ノード
とがリンクしている。さらに、想起層32上の想起ノー
ドは行動決定層33上の行動ノードにリンクしている。
特徴反応層31と想起層32と行動決定層33の3層
は、信号が特徴反応層31から想起層32へ伝播し、さ
らに、想起層32から行動決定層33へと伝播する順走
伝播の機能を備える。
ように、特徴反応層31と想起層32の2層とその間を
結合するリンクが連想記憶系34を構成し、特徴反応層
31上の入力ノードと全ての想起層32上の想起ノード
とがリンクしている。さらに、想起層32上の想起ノー
ドは行動決定層33上の行動ノードにリンクしている。
特徴反応層31と想起層32と行動決定層33の3層
は、信号が特徴反応層31から想起層32へ伝播し、さ
らに、想起層32から行動決定層33へと伝播する順走
伝播の機能を備える。
【0059】図4に示すように、特徴反応層31上の入
力ノードは想起層32上の想起ノードと重みWでリンク
する。また、特徴反応層31上の入力ノードiは、図5
に示すように、前処理系2からの特徴信号xiが入力さ
れ、入力ノードiから想起層32へriを出力する。
力ノードは想起層32上の想起ノードと重みWでリンク
する。また、特徴反応層31上の入力ノードiは、図5
に示すように、前処理系2からの特徴信号xiが入力さ
れ、入力ノードiから想起層32へriを出力する。
【0060】重みWは、図6に示すように、特徴反応層
31上の入力ノードiと想起層32上の想起ノードkと
のリンクをwikで表す。そこで、特徴反応層31上の入
力ノードiから想起層32上の想起ノードkへの影響
は、入力ノードiの出力riと、入力ノードiと想起ノ
ードkをリンクする重みwikに基づき求められ、全ての
入力ノードから想起ノードkへの影響は、総入力Ekで
表される。
31上の入力ノードiと想起層32上の想起ノードkと
のリンクをwikで表す。そこで、特徴反応層31上の入
力ノードiから想起層32上の想起ノードkへの影響
は、入力ノードiの出力riと、入力ノードiと想起ノ
ードkをリンクする重みwikに基づき求められ、全ての
入力ノードから想起ノードkへの影響は、総入力Ekで
表される。
【0061】また、想起層32の想起ノードと行動決定
層33の行動ノードとは、重みUでリンクする。この重
みUは、図7に示すように、想起層32上の想起ノード
kと行動決定層33上の行動ノードlとをリンクをukl
で表す。想起層31上の想起ノードkは、特徴反応層3
1からの総入力Ekと重みuklに基づき、行動決定層3
3の行動ノードlを選択する機能を備える。
層33の行動ノードとは、重みUでリンクする。この重
みUは、図7に示すように、想起層32上の想起ノード
kと行動決定層33上の行動ノードlとをリンクをukl
で表す。想起層31上の想起ノードkは、特徴反応層3
1からの総入力Ekと重みuklに基づき、行動決定層3
3の行動ノードlを選択する機能を備える。
【0062】次に、特徴反応層31の入力ノードと想起
層32の想起ノードとをリンクする重みWと、リンク想
起層32の想起ノードと行動決定層33の行動ノードと
をリンクする重みUとを変化させて、行動決定層33上
の最適な行動ノードを決定していく具体的な例を図8の
フローチャートを用いて説明する。前処理系2から、時
間tにおいて入力される特徴信号の集まりである特徴信
号群X(t)は、
層32の想起ノードとをリンクする重みWと、リンク想
起層32の想起ノードと行動決定層33の行動ノードと
をリンクする重みUとを変化させて、行動決定層33上
の最適な行動ノードを決定していく具体的な例を図8の
フローチャートを用いて説明する。前処理系2から、時
間tにおいて入力される特徴信号の集まりである特徴信
号群X(t)は、
【数9】 で表される。また、前処理系2からの特徴信号群X
(t)を入力として、特徴反応層31はR(t)を出力
する。R(t)は、
(t)を入力として、特徴反応層31はR(t)を出力
する。R(t)は、
【数10】 であるまず、ここではri=xiとする(S100)。ま
た、特徴反応層31上の入力ノードiと想起層32上の
想起ノードkとのリンク上の重みwikはランダムな値を
初期値として与える。
た、特徴反応層31上の入力ノードiと想起層32上の
想起ノードkとのリンク上の重みwikはランダムな値を
初期値として与える。
【0063】ここでは、ri・wikのとる値が、1,
0,#のいずれかである場合を例に説明する。また、特
徴反応層31上の入力ノードiから想起層32上の想起
ノードkへ及ぼす影響は、演算子*を用いて表し、ri
*wijと表す。演算子*は、一例として、表1に示すよ
うに2つの入力中いずれかもが1または0の場合は、一
致したときにのみ1を、他の場合は、0を出力する。ま
た、2つの入力中いずれかに#がある場合は常に1を出
力するものとする。
0,#のいずれかである場合を例に説明する。また、特
徴反応層31上の入力ノードiから想起層32上の想起
ノードkへ及ぼす影響は、演算子*を用いて表し、ri
*wijと表す。演算子*は、一例として、表1に示すよ
うに2つの入力中いずれかもが1または0の場合は、一
致したときにのみ1を、他の場合は、0を出力する。ま
た、2つの入力中いずれかに#がある場合は常に1を出
力するものとする。
【表1】
【0064】図6で示したように、特徴反応層31上の
全ての入力ノードから想起層32上の想起ノードkへ入
力され、想起層32上の想起ノードkにおける特徴反応
層31からの総入力Ekは、
全ての入力ノードから想起層32上の想起ノードkへ入
力され、想起層32上の想起ノードkにおける特徴反応
層31からの総入力Ekは、
【数11】 である(S101)。このとき、特徴反応層31上の入
力ノードは、1〜nまで存在とする。
力ノードは、1〜nまで存在とする。
【0065】ここで、想起層32上の全てのノードの中
からEkが一番興奮した場合は想起ノードkを勝者とす
る(S102)。Ekが興奮するとは、例えば、Ekが一
番大きな値を持つ場合を興奮したとする。或いは、Ek
が閾値より大きくなった場合を興奮したとすることもで
きる。
からEkが一番興奮した場合は想起ノードkを勝者とす
る(S102)。Ekが興奮するとは、例えば、Ekが一
番大きな値を持つ場合を興奮したとする。或いは、Ek
が閾値より大きくなった場合を興奮したとすることもで
きる。
【0066】また、想起ノードkが勝者の場合には、こ
の状態を与えられた確率pでwikはriと置き換えて学
習していく(S103)。この置き換えは勝者となった
想起ノードにリンクする重みについて行われ、確率p=
1では、1回の入力でri=wikとなるようにする。p
=1/4の場合では、riに同じ特徴信号が入ってきた場合
は1/4の確率で、ri=wikとすることを表す(pは独立
事象で、各々の重みwikに対してpの確率で置き換えが
行われる。)。 確率pが低ければ、何度も同じ特徴信
号が入ってこなければ、ri=wikに変化しない。図9
は、想起層32上のノードkにおける値Ekが一番興奮
した場合、特徴反応層31上のノードnで、ri=wik
の置き換えが行われる様子を表したものである。
の状態を与えられた確率pでwikはriと置き換えて学
習していく(S103)。この置き換えは勝者となった
想起ノードにリンクする重みについて行われ、確率p=
1では、1回の入力でri=wikとなるようにする。p
=1/4の場合では、riに同じ特徴信号が入ってきた場合
は1/4の確率で、ri=wikとすることを表す(pは独立
事象で、各々の重みwikに対してpの確率で置き換えが
行われる。)。 確率pが低ければ、何度も同じ特徴信
号が入ってこなければ、ri=wikに変化しない。図9
は、想起層32上のノードkにおける値Ekが一番興奮
した場合、特徴反応層31上のノードnで、ri=wik
の置き換えが行われる様子を表したものである。
【0067】Ekが勝者の場合には、さらに、行動決定
層33に伝えられる。想起層32のノードkから行動決
定層の行動ノードlの重みをuklとすると、想起層32
の想起ノードkから行動決定層の行動ノードlへは確率
P(ukl)で伝播する(S104)。確率P(ukl)
は、
層33に伝えられる。想起層32のノードkから行動決
定層の行動ノードlの重みをuklとすると、想起層32
の想起ノードkから行動決定層の行動ノードlへは確率
P(ukl)で伝播する(S104)。確率P(ukl)
は、
【数12】 である。
【0068】想起層32の想起ノードkから行動決定層
33の行動ノードlへ伝播する重みuklは、図10に示
すように、行動決定層33へ出力が行われた結果flを
外部環境4へ出力し適応度で評価して重みuklを変化さ
せる(S105)。つまり、行動決定層33上のノード
kへ出力が行われた結果、外部環境4の適応度が高い場
合には重みuklを高くして、ノードkが選択される確率
を高くする。あるいは、外部環境4の適応度が低い場合
には重みuklを低くして、選択される確率を低くする。
いわゆる、教師ありの学習を進めていく。
33の行動ノードlへ伝播する重みuklは、図10に示
すように、行動決定層33へ出力が行われた結果flを
外部環境4へ出力し適応度で評価して重みuklを変化さ
せる(S105)。つまり、行動決定層33上のノード
kへ出力が行われた結果、外部環境4の適応度が高い場
合には重みuklを高くして、ノードkが選択される確率
を高くする。あるいは、外部環境4の適応度が低い場合
には重みuklを低くして、選択される確率を低くする。
いわゆる、教師ありの学習を進めていく。
【0069】以上の処理を繰り返し(S106)、特徴
反応層31と想起層32をリンクする重みWと、想起層
32と行動決定層33をリンクする重みUとを変化させ
て、外部環境からの入力に応じた学習をすることが可能
になる。
反応層31と想起層32をリンクする重みWと、想起層
32と行動決定層33をリンクする重みUとを変化させ
て、外部環境からの入力に応じた学習をすることが可能
になる。
【0070】ここでは、ri・wikのとる値は、1,
0,#のいずれかである場合について、説明したが、ス
カラー量を取ることもできる。特徴反応層31から想起
層32への入力は、ri、wijから求められる関数とし
てF(ri、wij)として与えることもできる。このと
き、想起層32上の想起ノードkへの総入力Ekは、
0,#のいずれかである場合について、説明したが、ス
カラー量を取ることもできる。特徴反応層31から想起
層32への入力は、ri、wijから求められる関数とし
てF(ri、wij)として与えることもできる。このと
き、想起層32上の想起ノードkへの総入力Ekは、
【数13】 で表すことができる。
【0071】次に、第2の実施の形態では、イメージリ
アクタ3の想起層32上の想起ノード間の関連付け、そ
の影響を加味して行動を決定する場合について説明す
る。イメージリアクタ3に基本的な構成は、前述の実施
の形態と同じであるので詳細な説明は省略する。また、
同一のものには同一符号を付すものとする。
アクタ3の想起層32上の想起ノード間の関連付け、そ
の影響を加味して行動を決定する場合について説明す
る。イメージリアクタ3に基本的な構成は、前述の実施
の形態と同じであるので詳細な説明は省略する。また、
同一のものには同一符号を付すものとする。
【0072】図11に示すように、想起層32上のノー
ドi、j、k、lの間で、時間的に近接して興奮する場
合には、波線で表すようなリンクが重みVで張られてい
く。このリンクは、例えば、図12に示すように、想起
層32上の想起ノードkが興奮(勝者となる)し、Δt
(近接時間)後に想起層32上の想起ノードlが繰り返
し興奮する場合には想起ノードlと相関があるものとし
て重みvklでリンクを張るものである。このとき、想起
ノードlを想起ノードkの従属ノードとする。また、こ
の重みvkiは、興奮の度合いに応じて、重みを変化させ
る機能を持つ。たとえば、繰り返し興奮する回数が多い
ほど関連が強いものとして重みを大きくする機能を備え
る。ここで、近接時間とは、パブロフの犬に代表される
ように、事象が連続して起こったと認められる範囲の時
間である。この近接時間は、対象によって適宜決められ
るものである。例えば、msec単位のこともあれば、
sec単位のこともある。
ドi、j、k、lの間で、時間的に近接して興奮する場
合には、波線で表すようなリンクが重みVで張られてい
く。このリンクは、例えば、図12に示すように、想起
層32上の想起ノードkが興奮(勝者となる)し、Δt
(近接時間)後に想起層32上の想起ノードlが繰り返
し興奮する場合には想起ノードlと相関があるものとし
て重みvklでリンクを張るものである。このとき、想起
ノードlを想起ノードkの従属ノードとする。また、こ
の重みvkiは、興奮の度合いに応じて、重みを変化させ
る機能を持つ。たとえば、繰り返し興奮する回数が多い
ほど関連が強いものとして重みを大きくする機能を備え
る。ここで、近接時間とは、パブロフの犬に代表される
ように、事象が連続して起こったと認められる範囲の時
間である。この近接時間は、対象によって適宜決められ
るものである。例えば、msec単位のこともあれば、
sec単位のこともある。
【0073】次に、想起層32上の関連する想起ノード
間のリンクを変化させて、行動決定層33上の最適な行
動ノードを決定していく具体的な例を図13のフローチ
ャートを用いて説明する。まず、前述の実施の形態と同
様にri=xiとする(S100)。想起層32上の想起
ノードkにリンクした想起ノード(以降、想起ノードk
の従属ノードとする。)の影響を加味する。つまり、想
起層32上の想起ノードkにおける特徴反応層31から
総入力Ekは、特徴反応層31からの総入力に従属ノー
ドlにおける総入力Elの影響を加えて、
間のリンクを変化させて、行動決定層33上の最適な行
動ノードを決定していく具体的な例を図13のフローチ
ャートを用いて説明する。まず、前述の実施の形態と同
様にri=xiとする(S100)。想起層32上の想起
ノードkにリンクした想起ノード(以降、想起ノードk
の従属ノードとする。)の影響を加味する。つまり、想
起層32上の想起ノードkにおける特徴反応層31から
総入力Ekは、特徴反応層31からの総入力に従属ノー
ドlにおける総入力Elの影響を加えて、
【数14】 である(S201)。ここで、上式の第2項は、想起ノ
ードkの全ての従属ノードlの総和である。また、g
(El)は、適当な関数で与えられ好ましい結果が得ら
れるように設定することが可能である。例えば、図14
に示されるように、従属ノードlにおけるの総入力El
の関数として与える。
ードkの全ての従属ノードlの総和である。また、g
(El)は、適当な関数で与えられ好ましい結果が得ら
れるように設定することが可能である。例えば、図14
に示されるように、従属ノードlにおけるの総入力El
の関数として与える。
【0074】ここで、想起層32上の全ての想起ノード
の中からEkが一番興奮した場合は想起ノードkを勝者
とする(S102)。また、Δt(近接時間)以内に他
に興奮した想起層32上の想起ノードjが存在する場合
は(S202)、想起ノードkと想起ノードjの間の重
みvkjを増やす(S203)。また、Δt(近接時間)
以内に他に興奮した想起総32上の想起ノードjが存在
しない場合は(S202)、想起層32上の想起ノード
間の重みVは、変化させない。以下、第1の実施の形態
と同様(S103〜105)に行動決定層33に情報を
伝播する。
の中からEkが一番興奮した場合は想起ノードkを勝者
とする(S102)。また、Δt(近接時間)以内に他
に興奮した想起層32上の想起ノードjが存在する場合
は(S202)、想起ノードkと想起ノードjの間の重
みvkjを増やす(S203)。また、Δt(近接時間)
以内に他に興奮した想起総32上の想起ノードjが存在
しない場合は(S202)、想起層32上の想起ノード
間の重みVは、変化させない。以下、第1の実施の形態
と同様(S103〜105)に行動決定層33に情報を
伝播する。
【0075】以上の処理を繰り返し(S106)、想起
層32上の想起ノード間をリンクする重みVを変化させ
ることにより、外部環境からの入力に応じた結果を得る
ことが可能になる。
層32上の想起ノード間をリンクする重みVを変化させ
ることにより、外部環境からの入力に応じた結果を得る
ことが可能になる。
【0076】また、想起ノード間の重みVは、時間と共
に減衰していき、想起ノードと従属ノード間でΔt(近
接時間)以内に、再び、ともに興奮した場合には重みV
を増やすようにすることもできる。
に減衰していき、想起ノードと従属ノード間でΔt(近
接時間)以内に、再び、ともに興奮した場合には重みV
を増やすようにすることもできる。
【0077】このように、時間的相関に基づいて想起ノ
ード間のリンクを生成した場合には、時間的に近接して
生じる事象間の連想を実現することができる。
ード間のリンクを生成した場合には、時間的に近接して
生じる事象間の連想を実現することができる。
【0078】ここでは、時間について相関がある場合に
ついて説明したが、系の外部の条件を取り入れ想起層3
2上の想起ノード間のリンクを張り、系の外部からの条
件により連想させることも可能である。
ついて説明したが、系の外部の条件を取り入れ想起層3
2上の想起ノード間のリンクを張り、系の外部からの条
件により連想させることも可能である。
【0079】次に、第3の実施の形態では、逆走伝播に
ついて説明する。この逆方向の伝播は、順方向の伝播に
対してある割合で行い、どのような行動をとったらよい
か判断する上で有効な特徴、またはその有無が、行動の
適切さに影響を与える特徴のみを含む特徴信号群を生成
するものである。また、前述の実施の形態と同一のもの
には同一符号を付し詳細な説明は省略する。
ついて説明する。この逆方向の伝播は、順方向の伝播に
対してある割合で行い、どのような行動をとったらよい
か判断する上で有効な特徴、またはその有無が、行動の
適切さに影響を与える特徴のみを含む特徴信号群を生成
するものである。また、前述の実施の形態と同一のもの
には同一符号を付し詳細な説明は省略する。
【0080】特徴反応層31上の入力ノードと想起層3
2上の想起ノードとは、双方向にリンクする。さらに、
想起層32上の想起ノードと行動決定層33の行動ノー
ドとも双方向にリンクするものである。特徴反応層31
と想起層32と行動決定層33の3層は、信号が特徴反
応層31から想起層32へ伝播し、さらに、行動決定層
33へと伝播する順走伝播の機能と、行動決定層33か
ら想起層32へ伝播し、さらに、想起層32から特徴反
応層31へ伝播する逆走伝播の機能とを備える。
2上の想起ノードとは、双方向にリンクする。さらに、
想起層32上の想起ノードと行動決定層33の行動ノー
ドとも双方向にリンクするものである。特徴反応層31
と想起層32と行動決定層33の3層は、信号が特徴反
応層31から想起層32へ伝播し、さらに、行動決定層
33へと伝播する順走伝播の機能と、行動決定層33か
ら想起層32へ伝播し、さらに、想起層32から特徴反
応層31へ伝播する逆走伝播の機能とを備える。
【0081】特徴反応層31上の入力ノードiは、図1
5の(a)に示すように、前処理系2からの特徴信号x
iの入力と、入力ノードiから想起層32へriを出力す
る構成に、想起層32上の想起ノードjから特徴反応層
31に逆走伝播を伝える入力とを備える。ここでは、想
起層32上の想起ノードjから特徴反応層31に逆走伝
播を伝える入力は、順走伝播で求められた重みwijで伝
播する場合を例に説明する。また、順走伝播の場合は、
図15の(b)に示すように、特徴信号の入力xiがO
Nとなり、想起層32からの逆走伝播の特徴信号の入力
wijはOFFとなり、逆走伝播の場合には、図15の
(c)に示すように、想起層32からの逆走伝播の特徴
信号の入力wijがONとなり、特徴信号の入力xiはO
FFとなるものである。
5の(a)に示すように、前処理系2からの特徴信号x
iの入力と、入力ノードiから想起層32へriを出力す
る構成に、想起層32上の想起ノードjから特徴反応層
31に逆走伝播を伝える入力とを備える。ここでは、想
起層32上の想起ノードjから特徴反応層31に逆走伝
播を伝える入力は、順走伝播で求められた重みwijで伝
播する場合を例に説明する。また、順走伝播の場合は、
図15の(b)に示すように、特徴信号の入力xiがO
Nとなり、想起層32からの逆走伝播の特徴信号の入力
wijはOFFとなり、逆走伝播の場合には、図15の
(c)に示すように、想起層32からの逆走伝播の特徴
信号の入力wijがONとなり、特徴信号の入力xiはO
FFとなるものである。
【0082】想起層32上の想起ノードkは、図16に
示すように、特徴反応層31からの総入力Ekの入力
と、行動決定層33の行動ノードlから想起層32上の
想起ノードjに逆走伝播を伝える入力とを備える。行動
決定層33の行動ノードlから想起層32上の想起ノー
ドjに逆走伝播を伝える入力は、重みujlの応じて行動
ノードからいくつかが選択される機能を持つ。
示すように、特徴反応層31からの総入力Ekの入力
と、行動決定層33の行動ノードlから想起層32上の
想起ノードjに逆走伝播を伝える入力とを備える。行動
決定層33の行動ノードlから想起層32上の想起ノー
ドjに逆走伝播を伝える入力は、重みujlの応じて行動
ノードからいくつかが選択される機能を持つ。
【0083】次に、図17のフローチャートを用いて、
逆方向の伝播について説明する。この逆走伝播は、順送
伝播に対してある割合で行う。(ここで、ある割合と
は、一定の周期で行っても良いし、不定期に行うように
しても良い。)行動決定層33から想起層32への逆走
伝播は、図18に示すように、前述の実施の形態で説明
した順送伝播で情報が伝播された行動決定層33の行動
ノードから想起層32、さらに、特徴反応層31へ伝播
される。
逆方向の伝播について説明する。この逆走伝播は、順送
伝播に対してある割合で行う。(ここで、ある割合と
は、一定の周期で行っても良いし、不定期に行うように
しても良い。)行動決定層33から想起層32への逆走
伝播は、図18に示すように、前述の実施の形態で説明
した順送伝播で情報が伝播された行動決定層33の行動
ノードから想起層32、さらに、特徴反応層31へ伝播
される。
【0084】第1の実施の形態で説明した想起層32か
ら行動決定層33へ伝える時の確率P(ukl)に基づい
て、行動決定層33上の行動ノードから想起層32上の
想起ノードを選択して伝播される。行動決定層33上の
行動ノードから想起層32上のいずれの想起ノードに伝
播するかは、確率P(ukl)の大きいものからランダム
に選択される。これに加え、後述するアクティビティの
大きいものを考慮に入れて選択することも可能である
(S300)。
ら行動決定層33へ伝える時の確率P(ukl)に基づい
て、行動決定層33上の行動ノードから想起層32上の
想起ノードを選択して伝播される。行動決定層33上の
行動ノードから想起層32上のいずれの想起ノードに伝
播するかは、確率P(ukl)の大きいものからランダム
に選択される。これに加え、後述するアクティビティの
大きいものを考慮に入れて選択することも可能である
(S300)。
【0085】また、逆走伝播のとき、想起層32上の想
起ノードから特徴反応層31上の入力ノードへの入力
は、順走伝播で決定された重みWがそのまま入力とな
る。つまり、想起層32上の想起ノードjから特徴反応
層31に逆走伝播を伝える入力は、順走伝播で求められ
た重みwijで伝播する(S301)。
起ノードから特徴反応層31上の入力ノードへの入力
は、順走伝播で決定された重みWがそのまま入力とな
る。つまり、想起層32上の想起ノードjから特徴反応
層31に逆走伝播を伝える入力は、順走伝播で求められ
た重みwijで伝播する(S301)。
【0086】ここで、行動決定層33上の行動ノードか
ら、確率P(ukl)に基づいて、想起層32上の想起ノ
ードを2つ選択された場合について説明する。図19に
示すように、行動決定層33上の行動ノードAから反映
された想起層32上の想起ノードα1、さらに、想起層
32上の想起ノードα1から特徴反応層31上の入力ノ
ードに反映された概念が、図19の(A)のハッチング
されたところである。また、行動決定層33上のノード
Aから反映された想起層32上のノードα2、さらに、
ノードα2から特徴反応層31上のノードに反映された
概念が、図19(B)のハッチングされたところであ
る。
ら、確率P(ukl)に基づいて、想起層32上の想起ノ
ードを2つ選択された場合について説明する。図19に
示すように、行動決定層33上の行動ノードAから反映
された想起層32上の想起ノードα1、さらに、想起層
32上の想起ノードα1から特徴反応層31上の入力ノ
ードに反映された概念が、図19の(A)のハッチング
されたところである。また、行動決定層33上のノード
Aから反映された想起層32上のノードα2、さらに、
ノードα2から特徴反応層31上のノードに反映された
概念が、図19(B)のハッチングされたところであ
る。
【0087】想起層32上の想起ノードから特徴反応層
31の入力ノードに逆走する伝播は、想起層32上の想
起ノードと特徴反応層31上の入力ノードを結ぶ重みw
ijが入力ノードの入力となる。このとき、図20に示さ
れるように、図19の(A)と(B)のハッチングされ
たところの重ね合わせた部分の信号群を新しい概念とす
ることができる。より具体的には、特徴反応層31で
は、複数の入力に対してある演算を行い、その演算結果
を特徴反応層31の入力ノードからの出力とする。ここ
で、例として、想起ノードα1とα2の双方から特徴反
応層31の同じ入力ノードiに伝播する場合の演算を考
える。図21に示すように、想起ノードα1からの重み
と想起ノードα2からの重みを演算した結果が入力ノー
ドの出力r iとなる(S302)。
31の入力ノードに逆走する伝播は、想起層32上の想
起ノードと特徴反応層31上の入力ノードを結ぶ重みw
ijが入力ノードの入力となる。このとき、図20に示さ
れるように、図19の(A)と(B)のハッチングされ
たところの重ね合わせた部分の信号群を新しい概念とす
ることができる。より具体的には、特徴反応層31で
は、複数の入力に対してある演算を行い、その演算結果
を特徴反応層31の入力ノードからの出力とする。ここ
で、例として、想起ノードα1とα2の双方から特徴反
応層31の同じ入力ノードiに伝播する場合の演算を考
える。図21に示すように、想起ノードα1からの重み
と想起ノードα2からの重みを演算した結果が入力ノー
ドの出力r iとなる(S302)。
【0088】想起層32から特徴反応層31の入力ノー
ドiに逆走伝播する場合に、入力ノードiの逆走の入力
を演算する演算子の一例として、
ドiに逆走伝播する場合に、入力ノードiの逆走の入力
を演算する演算子の一例として、
【数15】 または、
【数16】 で求められものとする。このときの演算子は、一例とし
て、以下のように定義する。
て、以下のように定義する。
【表2】
【0089】演算子は、表2に示した演算だけでなく、
他の演算を行うものとすることもできる。さらに、ここ
では2つの入力に対する演算子を用いて説明したが、3
つの入力・4つの入力など多入力に応じた演算結果を出
力するようにしても良い。
他の演算を行うものとすることもできる。さらに、ここ
では2つの入力に対する演算子を用いて説明したが、3
つの入力・4つの入力など多入力に応じた演算結果を出
力するようにしても良い。
【0090】また、ここでは重みWは0,1,#の場合
について説明したが、スカラー量とすることも可能であ
る。また、スカラー量の場合の入力ノードから出力は、
演算子に替わって入力に応じた関数で表される。
について説明したが、スカラー量とすることも可能であ
る。また、スカラー量の場合の入力ノードから出力は、
演算子に替わって入力に応じた関数で表される。
【0091】このようにして、特徴反応層31で反応
(演算)させることで、新たな概念の生成をすることが
できる。また、演算の方法や読み出し範囲を変えること
で、生成する概念を別のかたちで取り出すことができ
る。つまり、行動決定層33上の単一のノードから、想
起層32上の複数のノードを同時に励起すると、例えば
×(×は(数15)の演算子であるが、便宜上、○は省
略する)の演算の場合、同一の行動に至る概念(同一の
意味を持つ概念)が励起され、特徴反応層31上で共通
的に注目すべき特徴信号群が得られる。
(演算)させることで、新たな概念の生成をすることが
できる。また、演算の方法や読み出し範囲を変えること
で、生成する概念を別のかたちで取り出すことができ
る。つまり、行動決定層33上の単一のノードから、想
起層32上の複数のノードを同時に励起すると、例えば
×(×は(数15)の演算子であるが、便宜上、○は省
略する)の演算の場合、同一の行動に至る概念(同一の
意味を持つ概念)が励起され、特徴反応層31上で共通
的に注目すべき特徴信号群が得られる。
【0092】さらに、図22に示すように、ハッチング
が重なり合わさったところに含まれる特徴反応層31上
の入力ノードから出力される信号riから、再度、想起
ノードの総入力Ei計算を行い想起層32上の勝者を求
める(S303)。
が重なり合わさったところに含まれる特徴反応層31上
の入力ノードから出力される信号riから、再度、想起
ノードの総入力Ei計算を行い想起層32上の勝者を求
める(S303)。
【0093】想起層32上の想起ノードγが、勝者の場
合には、想起層32上の想起ノードγのアクティビティ
Acvγを増やしていく(S304)。アクティビティ
Acvkとは、想起層32の各想起ノードの入力に加算
されるもので、想起ノードkの総入力Ekは、
合には、想起層32上の想起ノードγのアクティビティ
Acvγを増やしていく(S304)。アクティビティ
Acvkとは、想起層32の各想起ノードの入力に加算
されるもので、想起ノードkの総入力Ekは、
【数17】 で求められる。また、このアクティビティAcvkは、
図23に示すように、時間の経過と共に減少し、再度、
逆方向の伝播によって、想起層32上の想起ノードkが
勝者になった場合(図23の矢印)には、アクティビテ
ィAcvkは増える。
図23に示すように、時間の経過と共に減少し、再度、
逆方向の伝播によって、想起層32上の想起ノードkが
勝者になった場合(図23の矢印)には、アクティビテ
ィAcvkは増える。
【0094】このアクティビティは、頻繁に利用される
概念を維持し、滅多に使用されない概念を淘汰する。さ
らに、時間的に少し前に利用された概念を想起しやすく
することが可能である。
概念を維持し、滅多に使用されない概念を淘汰する。さ
らに、時間的に少し前に利用された概念を想起しやすく
することが可能である。
【0095】さらに、図24に示すように、逆走の伝播
の結果、想起層32上のノードγが勝者の場合には、さ
らに、その行動決定層33上の行動ノードの選択は確率
uγ δで決定される。例えば、確率が最も大きいmax
(P(uγδ))となる行動決定層33上の行動ノード
δが選択される(S305)。以上の処理を、外部環境
4へ適応するまで繰り返す(S306)。
の結果、想起層32上のノードγが勝者の場合には、さ
らに、その行動決定層33上の行動ノードの選択は確率
uγ δで決定される。例えば、確率が最も大きいmax
(P(uγδ))となる行動決定層33上の行動ノード
δが選択される(S305)。以上の処理を、外部環境
4へ適応するまで繰り返す(S306)。
【0096】さらに、想起層32上の想起ノード間のリ
ンクを生成している場合には、その既存のリンクを考慮
にいれて、その行動決定層33上の行動ノードの選択を
行うことも可能である。
ンクを生成している場合には、その既存のリンクを考慮
にいれて、その行動決定層33上の行動ノードの選択を
行うことも可能である。
【0097】以上の処理を繰り返すことによって、概念
の特徴を表す特徴信号群から新たに概念の特徴を表す特
徴信号群を連想し、その連想を加味した行動選択ができ
る。
の特徴を表す特徴信号群から新たに概念の特徴を表す特
徴信号群を連想し、その連想を加味した行動選択ができ
る。
【0098】第3の実施の形態では、特徴反応層31の
入力ノードから想起層32の想起ノードへの順走伝播を
伝える出力と、想起層32上の想起ノードから特徴反応
層31に逆走伝播を伝える入力とは別の伝達経路を備え
るものとして説明したが、同一の伝達経路上を順走伝播
と逆走伝播が行える構成としても良い。
入力ノードから想起層32の想起ノードへの順走伝播を
伝える出力と、想起層32上の想起ノードから特徴反応
層31に逆走伝播を伝える入力とは別の伝達経路を備え
るものとして説明したが、同一の伝達経路上を順走伝播
と逆走伝播が行える構成としても良い。
【0099】次に、第4の実施の形態として、各ノード
にアクティビティが設定されている場合に、外部環境か
ら特徴信号が入力し順走伝播する場合について説明す
る。
にアクティビティが設定されている場合に、外部環境か
ら特徴信号が入力し順走伝播する場合について説明す
る。
【0100】第3の実施の形態で、逆走伝播によるアク
ティビティの求め方に付いて説明したが、アクティビテ
ィの設定の仕方はこれに限らず、系の外部などから適切
な値を設定するようにしても良い。
ティビティの求め方に付いて説明したが、アクティビテ
ィの設定の仕方はこれに限らず、系の外部などから適切
な値を設定するようにしても良い。
【0101】前述の実施の形態と同一のものについては
同一の符号を振って詳細な説明は省略する。また、動作
は、第1の実施の形態で図8を用いて説明したものと同
様に、特徴反応層31から想起層32、さらに、行動決
定層33に順走伝播する。但し、このとき想起層32上
の想起ノードk上の総入力Ekは、(数17)で与えら
れる。
同一の符号を振って詳細な説明は省略する。また、動作
は、第1の実施の形態で図8を用いて説明したものと同
様に、特徴反応層31から想起層32、さらに、行動決
定層33に順走伝播する。但し、このとき想起層32上
の想起ノードk上の総入力Ekは、(数17)で与えら
れる。
【0102】このとき、重みWの学習は、アクティビテ
ィに依存せず、外部環境からの特徴信号の入力にのみ依
存するようにする方が好ましい
ィに依存せず、外部環境からの特徴信号の入力にのみ依
存するようにする方が好ましい
【0103】これにより、記憶された複数の概念の信号
群を用いて頻繁に利用される概念を維持し、滅多に使用
されない概念を淘汰することができる。また、少し前
(時間的)に利用された概念を想起しやすくする。
群を用いて頻繁に利用される概念を維持し、滅多に使用
されない概念を淘汰することができる。また、少し前
(時間的)に利用された概念を想起しやすくする。
【0104】さらに、第5の実施の形態として、第2の
実施の形態で説明した想起層32上のリンクが張られた
ものと、第4の実施の形態で説明した各ノードにアクテ
ィビティが設定されているものとの両方の機能を兼ね備
えた場合について説明する。
実施の形態で説明した想起層32上のリンクが張られた
ものと、第4の実施の形態で説明した各ノードにアクテ
ィビティが設定されているものとの両方の機能を兼ね備
えた場合について説明する。
【0105】前述の実施の形態と同一のものについては
同一の符号を振って詳細な説明は省略する。想起層32
上のリンクと逆走伝播との両方の機能を兼ね備えた場合
には、想起層32のリンクと逆走伝播との両方の機能を
兼ね備えた場合には、想起層32上の想起ノードへの総
入力Ejは、
同一の符号を振って詳細な説明は省略する。想起層32
上のリンクと逆走伝播との両方の機能を兼ね備えた場合
には、想起層32のリンクと逆走伝播との両方の機能を
兼ね備えた場合には、想起層32上の想起ノードへの総
入力Ejは、
【数18】 で与えられる。
【0106】動作は、第1の実施の形態で図8を用いて
説明したものと同様に、特徴反応層31から想起層3
2、さらに、行動決定層33に順走伝播する。
説明したものと同様に、特徴反応層31から想起層3
2、さらに、行動決定層33に順走伝播する。
【0107】このとき、重みWの学習は、アクティビテ
ィや想起ノード上のリンクに依存せず、外部環境からの
特徴信号の入力にのみ依存するようにする方が好ましい
ィや想起ノード上のリンクに依存せず、外部環境からの
特徴信号の入力にのみ依存するようにする方が好ましい
【0108】以上、第2の実施の形態〜第5の実施の形
態で説明したように、逆走伝播及び想起ノード上のリン
クを利用して、興奮した想起ノードに関連して他の想起
ノードを興奮させる。また、記憶された複数の概念の信
号群を用いて頻繁に利用される概念を維持し、滅多に使
用されない概念を淘汰する。さらに、少し前(時間的)
に利用された概念が想起しやすくする。これらより、新
たな概念を連想することができる。逆走伝播では、さら
に、逆入力した特徴信号を特徴反応層31で反応(演
算)させることで、新たな概念の生成をすることができ
る
態で説明したように、逆走伝播及び想起ノード上のリン
クを利用して、興奮した想起ノードに関連して他の想起
ノードを興奮させる。また、記憶された複数の概念の信
号群を用いて頻繁に利用される概念を維持し、滅多に使
用されない概念を淘汰する。さらに、少し前(時間的)
に利用された概念が想起しやすくする。これらより、新
たな概念を連想することができる。逆走伝播では、さら
に、逆入力した特徴信号を特徴反応層31で反応(演
算)させることで、新たな概念の生成をすることができ
る
【0109】以上の実施の形態では、特徴反応層31・
想起走32・行動決定層33の3層の構造について説明
してきたが、第6の実施の形態として、特徴反応層31
・想起走32からなる連想記憶系34における逆走伝播
ついて説明する。前述の実施の形態と同一のものには同
一符号を振って詳細な説明は省略する。
想起走32・行動決定層33の3層の構造について説明
してきたが、第6の実施の形態として、特徴反応層31
・想起走32からなる連想記憶系34における逆走伝播
ついて説明する。前述の実施の形態と同一のものには同
一符号を振って詳細な説明は省略する。
【0110】第3の実施の形態では、行動決定33層上
の一つ行動ノードから逆送していく(同一の行動に至る
概念・同一の意味を持つ概念からの逆走伝播)場合につ
いて説明した。ここでは、想起層32上で、複数の想起
ノードを選択して逆走伝播し、新たな概念を生成する場
合について図25のフローチャートを用いて説明する。
の一つ行動ノードから逆送していく(同一の行動に至る
概念・同一の意味を持つ概念からの逆走伝播)場合につ
いて説明した。ここでは、想起層32上で、複数の想起
ノードを選択して逆走伝播し、新たな概念を生成する場
合について図25のフローチャートを用いて説明する。
【0111】学習したイメージリアクタ3の想起層32
上の想起ノードを、図26に示すように、α1とα2を
任意に選択し、想起ノードから入力ノードに重みwijで
逆送伝播する(S301)。特徴反応層31上で重みを
演算した結果が入力ノードの出力riとなり(S30
2)、新たな概念として取り出すことができる。
上の想起ノードを、図26に示すように、α1とα2を
任意に選択し、想起ノードから入力ノードに重みwijで
逆送伝播する(S301)。特徴反応層31上で重みを
演算した結果が入力ノードの出力riとなり(S30
2)、新たな概念として取り出すことができる。
【0112】また、これに対して、行動決定層33の複
数のノード、例えば、相反する行動をとる行動ノードの
各々から、それぞれの想起ノードを刺激して特徴反応層
31上の共通に励起される特徴信号群は、相反する行動
に基づくため無意味な特徴信号群を示すものとなる。
数のノード、例えば、相反する行動をとる行動ノードの
各々から、それぞれの想起ノードを刺激して特徴反応層
31上の共通に励起される特徴信号群は、相反する行動
に基づくため無意味な特徴信号群を示すものとなる。
【0113】第7の実施の形態として、図27に示すよ
うに、複数の連想記憶系34が行動決定層33にリンク
している場合について説明する。同じ前処理系2から特
徴信号群をそれぞれの連想記憶系34へ入力して行動決
定層33の行動ノードを選択する。各連想記憶系34の
特徴反応層31から想起層32への重みWの初期値は違
う値を与え、さらに、各連想記憶系34から行動決定層
33への重みUの初期値も違う値を与える。
うに、複数の連想記憶系34が行動決定層33にリンク
している場合について説明する。同じ前処理系2から特
徴信号群をそれぞれの連想記憶系34へ入力して行動決
定層33の行動ノードを選択する。各連想記憶系34の
特徴反応層31から想起層32への重みWの初期値は違
う値を与え、さらに、各連想記憶系34から行動決定層
33への重みUの初期値も違う値を与える。
【0114】それぞれの連想記憶系34で、特徴反応層
31〜想起層32〜行動決定層33の順走伝播を行い、
行動決定層33〜想起層32〜特徴反応層31へ逆走伝
播を行い支配イメージから、さらに、特徴反応層31〜
想起層32〜行動決定層33の順走伝播を行う。これを
繰り返し、図25のの系から導き出される行動ノード
と、の系と、・・の系から導き出される行動ノードが
一致するまで繰り返す。但し、一致せずに結果が離れて
いく場合もある。この場合は、解なしとすることも可能
である。
31〜想起層32〜行動決定層33の順走伝播を行い、
行動決定層33〜想起層32〜特徴反応層31へ逆走伝
播を行い支配イメージから、さらに、特徴反応層31〜
想起層32〜行動決定層33の順走伝播を行う。これを
繰り返し、図25のの系から導き出される行動ノード
と、の系と、・・の系から導き出される行動ノードが
一致するまで繰り返す。但し、一致せずに結果が離れて
いく場合もある。この場合は、解なしとすることも可能
である。
【0115】第7の実施の形態で説明したように、複数
の連想記憶系を使って、それぞれで連想していくことで
より望ましい解を捜すことができる。或いは、競合する
結果を調整することも可能である。
の連想記憶系を使って、それぞれで連想していくことで
より望ましい解を捜すことができる。或いは、競合する
結果を調整することも可能である。
【0116】
【発明の効果】以上詳細に説明したように、本願発明で
は、特徴信号群の群単位の記憶を読み出し、それによっ
て複数の特徴信号群を入力とする関数により、新しい特
徴信号群を生成する。この記憶の読み出し方によって
は、自律的に新しい特徴信号群を生成可能である。この
新しい信号群を重みとして連想記憶系に記憶すること、
想起層のノードに反映することが可能である。
は、特徴信号群の群単位の記憶を読み出し、それによっ
て複数の特徴信号群を入力とする関数により、新しい特
徴信号群を生成する。この記憶の読み出し方によって
は、自律的に新しい特徴信号群を生成可能である。この
新しい信号群を重みとして連想記憶系に記憶すること、
想起層のノードに反映することが可能である。
【0117】読み出した特徴信号群は、設定する関数に
よって、複数の特徴信号に共通する特徴、もしくは複数
の特徴のいずれかに含まれる特徴など、様々な形態をと
ることができる。
よって、複数の特徴信号に共通する特徴、もしくは複数
の特徴のいずれかに含まれる特徴など、様々な形態をと
ることができる。
【0118】すなわち、特徴信号群を概念と見なした場
合、本願発明では、人間と同様に概念を用いて学習可能
とすることで、学習結果がいたずらに分散されることも
なく、意味を持つ概念とその概念間の関係として、分か
りやすい構造を持たせながら学習することが可能にな
る。ニューラルネットワークの持つ様々な欠点が回避で
きるだけでなく、新しく、概念をベースとした学習が可
能となる。またこれを通じて、既に我々人間が自らの内
で達成してきているように、処理系の大規模化や複合的
な構造の実現も容易になる。
合、本願発明では、人間と同様に概念を用いて学習可能
とすることで、学習結果がいたずらに分散されることも
なく、意味を持つ概念とその概念間の関係として、分か
りやすい構造を持たせながら学習することが可能にな
る。ニューラルネットワークの持つ様々な欠点が回避で
きるだけでなく、新しく、概念をベースとした学習が可
能となる。またこれを通じて、既に我々人間が自らの内
で達成してきているように、処理系の大規模化や複合的
な構造の実現も容易になる。
【0119】さらに複数の特徴に共通に含まれる信号群
を出力する関数を活用した場合には、システムが外界に
適応するために必要な特徴のみをスピーディかつ効率的
に選択することが可能である。これにより、少ない処理
量、メモリ量で自律的に適応する新しい情報処理系が構
成可能となる。
を出力する関数を活用した場合には、システムが外界に
適応するために必要な特徴のみをスピーディかつ効率的
に選択することが可能である。これにより、少ない処理
量、メモリ量で自律的に適応する新しい情報処理系が構
成可能となる。
【0120】加えて、様々な要因に基づく連想(類似性
に基づく連想、時間的な近接さに基づく連想)を、個々
に、または、複合して取り入れることができる。これに
より、自然な形での連想系が可能となるため、人間的な
連想が必要とされる場面で有用である。
に基づく連想、時間的な近接さに基づく連想)を、個々
に、または、複合して取り入れることができる。これに
より、自然な形での連想系が可能となるため、人間的な
連想が必要とされる場面で有用である。
【図1】 反応型情報処理装置の構成を表す図である。
【図2】 イメージリアクタの構造を表す図である。
【図3】 層と層の関係を含めた構成を表す図である。
【図4】 特徴反応層と想起層とのリンクを表す図です
る。
る。
【図5】 特徴反応層の入力ノードの入出力を表す図で
ある。
ある。
【図6】 特徴反応層の入力ノードと想起層の想起ノー
ドとの関係を表す図である。
ドとの関係を表す図である。
【図7】 想起層の想起ノードと行動決定層の行動ノー
ドとのリンクを表す図である。
ドとのリンクを表す図である。
【図8】 第1の実施の形態のフローチャートである。
【図9】 重みWの学習をする様子を示す図である。
【図10】 外部環境で重みUを評価する様子を表す図
である。
である。
【図11】 想起層の想起ノード間のリンクVを表す図
である。
である。
【図12】 リンクVの生成を説明するための図であ
る。
る。
【図13】 第2の実施の形態のフローチャートであ
る。
る。
【図14】 従属ノードからの影響を表す関数を表す図
である。
である。
【図15】 入力ノードの入力と出力を表す図である。
【図16】 想起ノードの入力と出力を表す図である。
【図17】 第3の実施の形態のフローチャートであ
る。
る。
【図18】 逆走伝播の様子を表す図である。
【図19】 逆走伝播による反映されたイメージを表す
図である。
図である。
【図20】 逆走伝播による共有概念を表す図である。
【図21】 逆走伝播による入力ノードへの入力を表す
図である。
図である。
【図22】 共有概念から総入力を表す図である。
【図23】 アクティビティの時間の経過による変化を
示す図である。
示す図である。
【図24】 逆走伝播からさらに順走して行動ノードま
で四郷の届く様子を示す図である。
で四郷の届く様子を示す図である。
【図25】 第6の実施の形態のフローチャートであ
る。
る。
【図26】 2層の逆走伝播を表す図である。
【図27】 複数の連想記憶系が行動決定層にリンクし
ている構成を表す図である。
ている構成を表す図である。
【図28】 ニューロンを表す図である。
【図29】 ニューロンモデルを表すである。
【図30】 コホーネンの特徴マップを表す図である。
【図31】 グロスバーグのARTのモデルを表す図で
ある。
ある。
【図32】 側抑制を表す図である。
1 反応型情報処理装置 2 前処理系 3 イメージリアクタ 4 外部環境 5 出力イメージ 31 特徴反応層 32 想起層 33 行動決定層 34 連想記憶系 60 ニューロン 61 シナプス 70 シナプス 71 ユニット 80 特徴マップ 81 ユニット(ノード) 90 ARTネットワーク 91 比較層 92 認識層
───────────────────────────────────────────────────── フロントページの続き (72)発明者 稲林 昌二 東京都文京区本郷四丁目8番17号 パシフ ィックシステム株式会社内 (72)発明者 水谷 正大 東京都調布市つつじヶ丘4−23−18−105 (72)発明者 小沼 利光 千葉県千葉市若葉区千城台西2−2−2 (72)発明者 石橋 英水 千葉県千葉市若葉区桜木町515−3 ロフ ティフラワー 3−101 (72)発明者 田村 祐一 栃木県小山市楢木142−6 (72)発明者 松本 直樹 千葉県野田市宮崎121−5
Claims (18)
- 【請求項1】 特徴信号を入力する入力ノードを有する
特徴反応層と、外部環境に出力する行動ノードを有する
行動決定層とを備え、前記特徴反応層と前記行動決定層
の間に、前記入力ノードの出力に基づき興奮して前記行
動ノードへ出力する想起ノードを有する想起層を備える
反応型情報処理装置。 - 【請求項2】 特徴信号を入力する入力ノードを有する
特徴反応層と、外部環境に出力する行動ノードを有する
行動決定層とを備え、前記特徴反応層と前記行動決定層
の間に、前記入力ノードの出力に基づき興奮して前記行
動ノードへ出力する想起ノードを有する想起層を備え、 前記行動ノードから前記想起層の想起ノードを介して前
記特徴反応層の入力ノードに特徴信号を逆入力する反応
型情報処理装置。 - 【請求項3】 請求項2記載の反応型情報処理装置にお
いて、 前記行動ノードから前記想起層の想起ノードを選択し、
選択した想起ノードから前記特徴反応層の入力ノードに
特徴信号を逆入力することを特徴とする反応型情報処理
装置。 - 【請求項4】 請求項2または3記載の反応型情報処理
装置において、 前記入力ノードでは、前記想起ノードから入力された複
数の特徴信号を演算して出力することを特徴とする反応
型情報処理装置。 - 【請求項5】 請求項1〜4いずれか記載の反応型情報
処理装置において、 前記入力ノードと前記想起ノードとを結ぶリンク上の重
みWと、前記入力ノードの出力とを演算した総入力Eに
基づき興奮する想起ノードを勝者とすることを特徴とす
る反応型情報処理装置。 - 【請求項6】 請求項1〜5いずれか記載の反応型情報
処理装置において、 興奮した想起ノードと前記行動ノードとを結ぶリンク上
の重みUに基づき外部環境に出力する行動ノードを選択
することを特徴とする反応型情報処理装置。 - 【請求項7】 請求項5または6記載の反応型情報処理
装置において、 前記想起ノードにリンクする重みWは、前記入力ノード
からの出力に応じて学習することを特徴とする反応型情
報処理装置。 - 【請求項8】 請求項6または7記載の反応型情報処理
装置において、 外部環境に出力した行動ノードにリンクする前記重みU
は、外部環境による評価に基づき学習することを特徴と
する反応型情報処理装置。 - 【請求項9】 特徴信号を入力する入力ノードを有する
特徴反応層と、前記入力ノードの出力に基づき興奮して
出力する想起ノードを有する想起層とを備え、前記想起
ノードから前記特徴反応層の入力ノードに特徴信号を逆
入力する反応型情報処理装置。 - 【請求項10】 請求項9記載の反応型情報処理装置に
おいて、 前記入力ノードでは、前記想起ノードから入力された複
数の特徴信号を演算して出力することを特徴とする反応
型情報処理装置。 - 【請求項11】 請求項9または10記載の反応型情報
処理装置において、 前記入力ノードと前記想起ノードとを結ぶリンク上の重
みWと、前記入力ノードの出力とを演算した総入力Eに
基づき興奮する想起ノードを勝者とすることを特徴とす
る反応型情報処理装置。 - 【請求項12】 請求項11記載の反応型情報処理装置
において、 前記想起ノードにリンクする重みWは、前記入力ノード
からの出力に応じて学習することを特徴とする反応型情
報処理装置。 - 【請求項13】 請求項1〜12いずれか記載の反応型
情報処理装置において、 興奮した想起ノードと、この想起ノードの興奮に関連し
て繰り返し興奮する想起ノードを従属ノードとし重みV
でリンクすることを特徴とする反応型情報処理装置。 - 【請求項14】 請求項1〜12いずれか記載の反応型
情報処理装置において、 興奮した想起ノードと、この想起ノードが興奮した近接
時間内に繰り返し興奮する想起ノードを従属ノードとし
重みVでリンクすることを特徴とする反応型情報処理装
置。 - 【請求項15】 請求項13または14記載の反応型情
報処理装置において、 前記想起ノードとこの想起ノードの従属ノードとが近接
時間内にともに興奮する程度に応じて、前記重みVを変
化させることを特徴とする反応型情報処理装置。 - 【請求項16】 請求項13〜15いずれか記載の反応
型情報処理装置において、 前記想起ノードにリンクする従属ノードの総入力Eとそ
の重みVとに応じた従属ノードからの影響を、前記想起
ノードの総入力Eに加えることを特徴とする反応型情報
処理装置。 - 【請求項17】 請求項13〜15いずれか記載の反応
型情報処理装置において、 前記想起ノード毎に活性の度合いを記憶するアクティビ
ティを、前記想起ノードの総入力Eに加味することを特
徴とする反応型情報処理装置。 - 【請求項18】 請求項13〜15いずれか記載の反応
型情報処理装置において、 前記想起ノードにリンクする従属ノードの総入力Eとそ
の重みVとに応じた従属ノードからの影響と、前記想起
ノード毎に活性の度合いを記憶するアクティビティと
を、前記想起ノードの総入力Eに加味することを特徴と
する反応型情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001106432A JP2002304617A (ja) | 2001-04-04 | 2001-04-04 | 反応型情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001106432A JP2002304617A (ja) | 2001-04-04 | 2001-04-04 | 反応型情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002304617A true JP2002304617A (ja) | 2002-10-18 |
Family
ID=18958938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001106432A Pending JP2002304617A (ja) | 2001-04-04 | 2001-04-04 | 反応型情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002304617A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213151A (ja) * | 2006-02-07 | 2007-08-23 | Hitachi Ltd | グラフ構造を利用した類似概念抽出システム及び類似概念抽出方法 |
JP2013535067A (ja) * | 2010-06-30 | 2013-09-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 時空パターンを記憶する方法、そのためのシステム、およびコンピュータ・プログラム |
JP2015072700A (ja) * | 2014-10-29 | 2015-04-16 | 洋彰 宮崎 | 自動論理構築機 |
-
2001
- 2001-04-04 JP JP2001106432A patent/JP2002304617A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213151A (ja) * | 2006-02-07 | 2007-08-23 | Hitachi Ltd | グラフ構造を利用した類似概念抽出システム及び類似概念抽出方法 |
JP2013535067A (ja) * | 2010-06-30 | 2013-09-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 時空パターンを記憶する方法、そのためのシステム、およびコンピュータ・プログラム |
US9524462B2 (en) | 2010-06-30 | 2016-12-20 | International Business Machines Corporation | Canonical spiking neuron network for spatiotemporal associative memory |
US9665822B2 (en) | 2010-06-30 | 2017-05-30 | International Business Machines Corporation | Canonical spiking neuron network for spatiotemporal associative memory |
US11138492B2 (en) | 2010-06-30 | 2021-10-05 | International Business Machines Corporation | Canonical spiking neuron network for spatiotemporal associative memory |
US11176445B2 (en) | 2010-06-30 | 2021-11-16 | International Business Machines Corporation | Canonical spiking neuron network for spatiotemporal associative memory |
JP2015072700A (ja) * | 2014-10-29 | 2015-04-16 | 洋彰 宮崎 | 自動論理構築機 |
WO2016067478A1 (ja) * | 2014-10-29 | 2016-05-06 | 洋彰 宮崎 | 自動論理構築機 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jeatrakul et al. | Comparing the performance of different neural networks for binary classification problems | |
US11010658B2 (en) | System and method for learning the structure of deep convolutional neural networks | |
Aliev et al. | Evolutionary algorithm-based learning of fuzzy neural networks. Part 2: Recurrent fuzzy neural networks | |
Chung et al. | Deep neural network using trainable activation functions | |
Abraham | Adaptation of fuzzy inference system using neural learning | |
Anderson et al. | Artificial neural networks technology | |
Huang et al. | Action-sufficient state representation learning for control with structural constraints | |
CN114757362B (zh) | 一种基于边缘增强的多智能体系统通信方法及相关装置 | |
Tsoi | Recurrent neural network architectures: an overview | |
CN114998525A (zh) | 基于动态局部-全局图卷积神经网络的动作识别方法 | |
JP2002304617A (ja) | 反応型情報処理装置 | |
Yao et al. | EPNet for chaotic time-series prediction | |
JP5170698B2 (ja) | 確率的推論装置 | |
CN115204374A (zh) | 基于分割神经网络的联邦学习及预测的系统、方法和设备 | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
CN115546556A (zh) | 用于图像分类的脉冲神经网络的训练方法 | |
Oh et al. | Relation-based neurofuzzy networks with evolutionary data granulation | |
Park et al. | Rule-based fuzzy polynomial neural networks in modeling software process data | |
Ballini et al. | A recurrent neuro-fuzzy network structure and learning procedure | |
Arisawa et al. | Enhanced back-propagation learning and its application to business evaluation | |
Wen et al. | CCNet: Cluster-Coordinated Net for Learning Multi-agent Communication Protocols with Reinforcement Learning | |
Hossain et al. | Hybrid neural network for efficient training | |
Cho et al. | How to pretrain deep Boltzmann machines in two stages | |
Shukla et al. | Deep Belief Network with Fuzzy Parameters and Its Membership Function Sensitivity Analysis | |
Kadakia et al. | Multi-Modal Instruction based Reinforcement Learning using MoME Transformer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111004 |