JPH05181828A - 知識情報処理装置 - Google Patents

知識情報処理装置

Info

Publication number
JPH05181828A
JPH05181828A JP4000948A JP94892A JPH05181828A JP H05181828 A JPH05181828 A JP H05181828A JP 4000948 A JP4000948 A JP 4000948A JP 94892 A JP94892 A JP 94892A JP H05181828 A JPH05181828 A JP H05181828A
Authority
JP
Japan
Prior art keywords
associative
associative memory
memory device
stage
device group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4000948A
Other languages
English (en)
Other versions
JP3171897B2 (ja
Inventor
Shinya Oita
真也 追田
Shuichi Tai
修市 田井
Kazuo Hisama
和生 久間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP00094892A priority Critical patent/JP3171897B2/ja
Priority to US08/000,624 priority patent/US5418886A/en
Publication of JPH05181828A publication Critical patent/JPH05181828A/ja
Application granted granted Critical
Publication of JP3171897B2 publication Critical patent/JP3171897B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4496Unification in logic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 論理的に矛盾する結果を出力しにくく連想能
力の高い知識情報処理装置を実現する。 【構成】 入力パターン2を第1段目の連想記憶装置群
1で処理して複数の特徴を連想する。次に、その複数の
特徴の組み合わせを入力とする第2段目の連想記憶装置
群4により対応する特徴を連想する。この連想出力と第
1段目の連想出力とを論理演算装置群6で比較すること
により、第1段目の連想出力が組み合わせとして正しい
かどうか判断できる。正しくない場合は、両段の連想結
果が等しくなるまで、論理演算装置群6により、第1段
目の連想記憶装置群1のエネルギー関数を修正、再連想
させる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、人間の直感的思考に
対応した働きを行うニューラルネットワークと、人間の
論理的思考に対応した働きを行うニューラルネットワー
クとを有機的に結合させ、より人間の脳に近い情報処理
を可能とする知識情報処理装置に関するものである。
【0002】
【従来の技術】ニューラルネットワークモデルを構築す
るに当たっては、生物の脳の中ではニューロン一つ一つ
がある特定の情報を記憶しているのではなく、膨大な数
のニューロン集団全体が複数の情報を同時に協力して記
憶しているものとしている。また、生物の脳の中での情
報処理は、各ニューロンに入力された初期状態がニュー
ロン集団に記憶されている情報によって形成された各ニ
ューロン間の結合パターンの作用を受けて、入力の総和
演算、しきい値処理及びフィードバックを繰り返すこと
によって、自発的に安定状態(系のエネルギーの低い状
態)に収束していく過程で行われるとされている。
【0003】従って、記憶された情報を完全情報と見な
せば、任意の不完全情報が各ニューロンに入力されたと
き、図3に示すように、各ニューロンの状態は、入力に
最も類似した記憶情報に自発的に収束し、最終的に安定
状態に達したときのニューロンの状態を完全情報として
出力するものと理解することができる。これがニューラ
ルネットワークモデルによる連想記憶の原理である。
【0004】ニューラルネットワークモデルの一つであ
るHopfieldモデルによって、連想記憶装置を実
現した例を以下に示す。図4は例えば刊行物(電子情報
通信学会,光・量子エレクトロニクス研究会資料、OQ
E87−174,1988)に示された光技術を適用し
た従来の光連想記憶装置の構成図である。図において、
10a,10bは発光素子アレイ、11a,11bは光
学マスク(空間光変調素子)、12a,12bは受光素
子アレイ、13は差動増幅器、14は比較器、2は入力
装置、15は出力装置である。
【0005】次に動作について説明する。発光素子アレ
イ10a,10bからの扇状の光を光学マスク11a,
11bへ照射する。発光素子アレイ10a,10bの内
部状態は、各素子の状態を Xk (k=1,2,・・・,j,・・・,i,・・・,
n) で表し、それぞれの発光素子が点灯しているか消灯して
いるかに対応して、Xkを“1”と“0”とで表現すれ
ば、発光素子アレイ10a,10bの内部状態をベクト
ルXとして X=(X1 ,X2,・・・,Xi ,・・・,Xj ,・・
・,Xn) で表現できる。ここで、nは発光素子アレイおよび受光
素子アレイそれぞれの素子数であり、このニューラルネ
ットワークのニューロン数に相当する。
【0006】光学マスク11a,11bはn×nの要素
に分割されており、その各要素の光透過率はそれぞれ独
立に変化させることができるように構成されており、各
要素の光透過率はマトリクス T = [Tij ] で表される。また、受光素子アレイ12a,12bの内
部状態は、ベクトルXと同様に U=(U1,U2,・・・,Ui,・・・,Uj,・・・,
n) で表される。j番目の発光素子で光学マスクのj行目を
照射し、光学マスクのi番目を透過した光をi番目の受
光素子で受けるとすると、i番目の受光素子では次のベ
クトル・マトリクス乗算を行ったことに相当する。
【0007】
【数1】
【0008】ニューラルネットワークでは、各ニューロ
ン間の結合強度が情報の蓄積を担っているものと見なす
ことができる。上記の構成においては、この結合強度を
光学マスク11a,11bのn×nの要素に分割された
各要素の透過率Tによって実現できる。すなわち、上記
の構成においては、光学マスク11a,11bの透過率
Tが情報を蓄積していることになる。情報蓄積規則は、
ここで説明しようとするHopfieldモデルにあっ
ては、Nを蓄積情報数として次式で与えられる。
【0009】
【数2】
【0010】Tijは正の値も負の値も取り得るが、光学
的には負の値を取り扱うことが困難なため、この実施例
では、図4に示すようにTijの成分の正の値の要素T
(+) ijと負の値の要素T(-) ij とに対応させて、光学系
を2系統作製し、受光素子アレイ12a,12bのそれ
ぞれの出力の差 Ui = U(+) i − U(-) i を差動増幅器13によって得ている。この出力信号を比
較器14でしきい値処理 Xi =θ(Ui ) 但し、θ(y)=1(y>0),0(y≦0) を行った後、受光素子アレイ10a,10bにフィード
バックしている。
【0011】このようにすると、例えば光学マスク11
a,11bにアルファベット[A]、[J]、[E]に
相当する3種類の情報を蓄積しておけば、最初に入力装
置2から発光素子アレイ10a,10bに不完全な情
報、例えば[A′]を入力しても、フィードバックを繰
り返すうちに、出力は入力情報[A′]に最も近い蓄積
情報[A]に収束して行き、最終的には出力装置15に
完全出力として[A]を出力する。
【0012】このことを前述した言葉で言えば、系のエ
ネルギーが蓄積情報「A」、「J」、「E」で極小値を
取り、不完全情報が与えられると、その近くのエネルギ
ー極小値を取るように、発光素子アレイ10a,10b
の点滅状態が変化することにより、系全体が自発的に変
化して行くということである。これは人間の連想機能と
類似の機能である。
【0013】
【発明が解決しようとする課題】従来の連想記憶装置で
は以上のように構成されているため、不適当な結果を連
想しても、それを修正する機能は有していない。すなわ
ち、記憶している情報のうちから、入力と最も相関の高
いパターンを連想しているに過ぎず、人間の脳のような
柔軟な思考に相当する動作は行えず、汎用性に乏しいと
いう問題があった。
【0014】この発明は、以上のような問題点を解決す
るためになされたもので、人間の直感的思考と論理的思
考に動作を合わせて行いながら、この2つの機能がお互
いに補間し合うようにした知識情報処理装置を実現する
ことを目的とする。
【0015】
【課題を解決するための手段】この発明に係る知識情報
処理装置は、ニューラルネットワークモデルによる連想
記憶装置を備えた情報処理装置において、入力パターン
からそれぞれ異なった特徴を連想する複数の連想記憶装
置からなる初段の連想記憶装置群と、その連想出力の組
み合わせを入力して評価し、上記初段の連想記憶装置群
に各構成要素を構成するニューラルネットワークのエネ
ルギー関数に対する連想の拘束条件を付加する連想出力
を送出して、上記初段の連想記憶装置群の各構成要素を
構成するニューラルネットワークのエネルギー関数を更
新し、上記入力パターン情報について再度上記連想、上
記評価、上記更新を繰り返し実行させる複数の連想記憶
装置からなる次段の連想記憶装置群とで構成したもので
ある。
【0016】また、ニューラルネットワークモデルによ
る連想記憶装置を備えた情報処理装置において、入力パ
ターンからそれぞれ異なった特徴を連想する複数の連想
記憶装置からなる初段の連想記憶装置群と、その連想出
力の組み合わせを入力して評価し、上記特徴の組み合わ
せに対応する連想出力を送出する複数の連想記憶装置か
らなる次段の連想記憶装置群と、上記初段と次段の連想
記憶装置群の出力を比較し、その比較結果に基づいて上
記初段の連想記憶装置群に各構成要素を構成するニュー
ラルネットワークのエネルギー関数を更新し、上記入力
パターン情報について再度上記連想、上記評価、上記更
新を繰り返し実行させるフィードバック入力を与える複
数の論理演算装置からなる論理演算装置群とで構成した
ものである。
【0017】
【作用】この発明における知識情報処理装置は、あるパ
ターン情報が入力されると、初段の連想記憶装置群によ
り直感的に複数の対応するパターンを連想し、次段の連
想記憶装置群により初段の連想記憶装置群から送出され
る連想出力の組み合わせを論理的に評価し修正すること
により、人間の直感的思考に対応した働きを行うニュー
ラルネットワークと、人間の論理的思考に対応した働き
を行うニューラルネットワークとを有機的に組み合わ
せ、人間の脳に近い情報処理を行う。
【0018】また、論理的演算装置群により初段と次段
の連想記憶装置群の出力を比較し、比較結果に基づき初
段の連想記憶装置群のエネルギー関数を修正し再連想さ
せる。
【0019】
【実施例】
実施例1.以下、この発明の実施例を図について説明す
る。図1はこの発明の実施例1による知識情報処理装置
のシステム構成を示す概念図である。図において、1は
ニューラルネットワークによる第1段目の連想記憶装置
群、1a,1b,1cは第1段目の連想記憶装置群1の
各要素となる連想記憶装置、2は第1段目の連想記憶装
置群1への入力パターンであり、3は第1段目の連想記
憶装置群1の連想出力群でこの知識情報処理装置の連想
出力、3a,3b,3cは同じ入力パターン2から第1
段目の連想記憶装置群1の各要素としての連想記憶装置
1a,1b,1cによりそれぞれ出力される連想出力で
ある。
【0020】また、4はニューラルネットワークによる
第2段目の連想記憶装置群で、4a,4b,4cは第1
段目の連想記憶装置群1により出力される連想出力3
a,3b,3cの組み合わせ連想出力群3を入力とする
第2段目の連想記憶装置群4の各連想記憶装置、5a,
5b,5cはそれぞれ第1段目の連想記憶装置群1の各
連想記憶装置1a,1b,1cへのエネルギー関数の補
正情報からなるフィードバック入力の働きをする第2段
目の連想記憶装置群4の各連想記憶装置4a,4b,4
cの連想出力である。
【0021】以下動作について説明する。図1におい
て、入力パターン2から第1段目の連想記憶装置群1の
各連想記憶装置1a,1b,1cでそれぞれ異なる特徴
の連想出力3a,3b,3cを連想させる。ここで、第
1段目の連想記憶装置群1の各連想記憶装置1a,1
b,1cは予め同じ記憶させたい入力パターンからそれ
ぞれ異なる特徴を連想するように学習または記憶させて
おく。次に、第1段目の連想記憶装置群1で連想した特
徴の連想出力3a,3b,3cの組み合わせである連想
出力群3を入力として、第2段目の連想記憶装置群4の
各連想記憶装置4a,4b,4cで連想させ、それぞれ
連想出力5a,5b,5cを得る。
【0022】ここで、第2段目の連想記憶装置群4の各
連想記憶装置4a,4b,4cは予め以下のように学習
させておく。例えば、第2段目の連想記憶装置群4の一
つの要素である連想記憶装置4aに対して、第1段目の
連想記憶装置1で連想した特徴の連想出力3a,3b,
3cの組み合わせ連想出力群3が適当であれば連想出力
5aをなくすようにし、連想出力3a,3b,3cの組
み合わせ連想出力群3が不適当であれば第1段目の連想
記憶装置1の一つの連想記憶装置1aの連想出力3aを
変更するように第1段目の連想記憶装置群1の1つの連
想記憶装置1aを構成するニューラルネットワークのエ
ネルギー関数を更新する出力5aを出すようにする。第
2段目の連想記憶装置群4の他の連想記憶装置4b,4
cについても同様の学習を行っておく。
【0023】上述するようにして学習した第2段目の連
想記憶装置群4の各連想記憶装置4a,4b,4cの連
想出力5a,5b,5cを第1段目の連想記憶装置群1
の各連想記憶装置1a,1b,1cへそれぞれフィード
バックさせる。そして、入力パターン2について、エネ
ルギー関数を変更した第1段目の連想記憶装置群1で再
び連想させ、第2段目の連想記憶装置群4で、第1段目
の連想記憶装置群1で連想した特徴の連想結果3a,3
b,3cの組み合わせの連想出力群3を評価すること
を、第2段目の連想記憶装置群4の全ての出力5a,5
b,5cがなくなるまで繰り返す。この全ての出力5
a,5b,5cが無くなった時の第1段目の連想記憶装
置群1で連想した特徴の連想出力3a,3b,3cの組
み合わせの連想出力群3を、この知識情報処理装置の連
想出力結果とする。
【0024】実施例2.図2は別の実施例による知識情
報処理装置のシステム構成を示す概念図である。図1に
示す構成と同一部分は同一符号を示す図2において、新
たな構成として、6は第1段目の連想記憶装置群1と第
2段目の連想記憶装置群4との連想出力を比較し第1段
目の連想記憶装置群1にフィードバック入力を与える論
理演算装置群、6a,6b,6cは論理演算装置群6の
各要素となる論理演算装置、7a,7b,7cはそれぞ
れ論理演算装置群6の各論理演算装置6a,6b,6c
からそれぞれ第1段目の連想記憶装置群1の各連想記憶
装置1a,1b,1cへ与えられるエネルギー関数の補
正情報からなるフィードバック入力、8a,8b,8c
はそれぞれ論理演算装置群6の各論理演算装置6a,6
b,6cの処理出力でこの知識情報処理装置の連想出力
である。
【0025】以下動作について説明する。図2におい
て、入力パターン2から第1段目の連想記憶装置群1の
各連想記憶装置1a,1b,1cでそれぞれ異なる特徴
の連想出力3a,3b,3cを連想させる。ここで、第
1段目の連想記憶装置群1の各連想記憶装置1a,1
b,1cは予め同じ記憶させたいパターンからそれぞれ
異なる特徴を連想するように学習または記憶させてお
く。次に、第1段目の連想記憶装置群1で連想した特徴
の連想出力3a,3b,3cの組み合わせである連想出
力群3を入力として、第2段目の連想記憶装置群4の各
連想記憶装置4a,4b,4cで連想させ、それぞれ連
想出力5a,5b,5cを得る。
【0026】ここで、第2段目の連想記憶装置群4の各
連想記憶装置4a,4b,4cは予め以下のように学習
させておく。例えば、第2段目の連想記憶装置群4の一
つの連想記憶装置4aに対して、第1段目の連想記憶装
置群1で連想した特徴の連想出力3a,3b,3cの組
み合わせである連想出力群3を入力として、第1段目の
連想記憶装置群1の1つの連想記憶装置1aの連想出力
3aを連想出力とするように学習させておく。第2段目
の連想記憶装置群4の他の連想記憶装置4b,4cにつ
いても同様の学習を行っておく。
【0027】そして、第1段目の連想記憶装置群1の各
連想記憶装置1a,1b,1cでそれぞれ連想させた連
想出力3a,3b,3cと第2段目の連想記憶装置群4
の各連想記憶装置4a,4b,4cでそれぞれ連想させ
た連想出力5a,5b,5cとを、それぞれ論理演算装
置群6の論理演算装置6a,6b,6cで比較する。こ
の比較結果に基づき、必要に応じて、第1段目の連想記
憶装置群1の各連想記憶装置1a,1b,1cを構成す
るニューラルネットのエネルギー関数を更新するフィー
ドバック入力7a,7b,7cを第1段目の連想記憶装
置群1の各連想記憶装置1a,1b,1cへそれぞれ与
える。
【0028】そして、入力パターン2について、エネル
ギー関数を変更した第1段目の連想記憶装置群1で再び
連想させ、第2段目の連想記憶装置群4と論理演算装置
群6とで第1段目の連想記憶装置群1で連想した特徴の
連想出力3a,3b,3cの組み合わせである連想出力
群3を評価することを、第1段目の連想記憶装置群1の
各連想記憶装置1a,1b,1cでそれぞれ連想させた
連想出力3a,3b,3cと第2段目の連想記憶装置群
4の各連想記憶装置4a,4b,4cでそれぞれ連想さ
せた連想出力5a,5b,5cとがそれぞれすべて一致
するまで繰り返し実行させ、全て一致したときの第1段
目の連想記憶装置群1で連想した特徴の連想出力3a,
3b,3cの組み合わせである連想出力群3、すなわ
ち、論理演算装置群6の各論理演算装置6a,6b,6
cの処理出力である連想出力8a,8b,8cを、この
知識情報処理装置の連想出力結果とする。
【0029】図2において、単語認識の場合についてよ
り詳細に説明する。ここでは、第1段目の連想記憶装置
群1として、ニューラルネットワークモデルの一つであ
る上述したHopfieldモデルを、また、第2段目
の連想記憶装置群4として、ニューラルネットワークモ
デルの一つである3層構造のフィードフォワード型ネッ
トワークに逆伝搬学習法を用いてパターンを記憶させた
ものを使用した場合について述べる。ここで、入力パタ
ーン2は、手書きあるいはノイズに埋もれた文字列であ
る。
【0030】第1段目の連想記憶装置1にはアルファベ
ットや各種の記号を記憶しているものとする。また、第
2段目の連想記憶装置群4には以下のようにして学習を
行って単語を記憶させているものとする。単語の第1文
字目を連想する連想記憶装置4aには、単語の第1文字
目以外の文字のパターン列を入力として第1文字目を出
力するように学習させる。例えば、単語「CAT」を記
憶させるには、文字パターン「AT」を入力とし、
「C」を出力するように学習させる。第2段目の他の連
想記憶装置4b,4cにも同様に、それぞれ第2文字
目、第3文字目を連想させるように学習させる。
【0031】以下の説明では、第2段目の連想記憶装置
群4には「CAT」という単語は記憶されているが、
「CAE」という単語は記憶されていないとして説明す
る。まず、「CAT」という3つの文字にノイズが乗っ
た入力パターン2を各文字毎に第1段目の連想記憶装置
群1の各連想記憶装置1a,1b,1cに入力する。そ
の結果、第1段目の連想記憶装置群1から「CAE」と
いう連想出力群3が得られたものとする。
【0032】次に、この連想出力の組み合わせである連
想出力群3を、第2段目の連想記憶装置群4に入力し
て、その組み合わせが記憶している単語であるかどうか
を連想させる。すなわち、「AE」、「CE」、「C
A」を、それぞれ第2段目の連想記憶装置群4の各連想
記憶装置4a,4b,4cへ入力する。第2段目の連想
記憶装置群4の各連想記憶装置4a,4b,4cはニュ
ーラルネットワークモデルに基づいて学習、記憶を行っ
ているから、入力パターンが学習パターンと若干異なっ
ていても記憶したパターンを連想することができる。そ
のため、第2段目の連想記憶装置群4の1文字目、2文
字目、3文字目をそれぞれ受け持つ各連想記憶装置4
a,4b,4cのそれぞれの連想出力5a,5b,5c
はそれぞれ「C」、「A」、「T」となる。
【0033】これら連想出力5a,5b,5cを第1段
目の連想記憶装置群1の各連想記憶装置1a,1b,1
cの連想出力3a,3b,3cと論理演算装置群6で比
較し、記憶している単語であるかどうかを評価する。こ
の場合、「C」、「A」は一致しており、第1段目の連
想記憶装置群1の対応する連想記憶装置1a,1bで再
び連想させる必要はないが、「E」と「T」は相違する
ので、論理演算装置群6の対応する論理演算装置6c
は、第1段目の連想記憶装置群1の対応する連想記憶装
置1cを構成するニューラルネットワークのエネルギー
関数を更新するフィードバック入力7cを生成し、連想
記憶装置1cに入力し、再び連想させる。
【0034】この操作を第2段目の連想記憶装置群4の
各連想記憶装置4a,4b,4cのそれぞれの連想出力
5a,5b,5cが第1段目の連想記憶装置群1の対応
する各連想記憶装置1a,1b,1cのそれぞれの連想
出力3a,3b,3cと一致するまで繰り返す。この場
合、第1段目の連想記憶装置群1の対応する連想記憶装
置1cの連想出力3cが正しく「A」と連想されたもの
とし、これを最終結果として論理演算装置群6の各論理
演算装置6a,6b,6cから出力される連想出力8
a,8b,8cにそれぞれ「C」、「A」、「T」が得
られる。
【0035】なお、論理演算装置群6で第2段目の連想
記憶装置群4の各連想記憶装置4a,4b,4cの連想
出力5a,5b,5cが第1段目の連想記憶装置群1の
対応する各連想記憶装置1a,1b,1cの連想出力3
a,3b,3cと一定回数の再連想によっても全て一致
しない場合は、連想出力8a,8b,8cとして処理不
能出力が論理演算装置群6から出力される。
【0036】以上のように、文字パターンの連想、文字
列の照合評価、再連想という操作を繰り返すことによ
り、複雑でノイズに埋もれた文字列、別の表現で言えば
複雑でノイズに埋もれた単語でも、正しく認識すること
ができる。
【0037】以上のことを、さらに定量的に説明する。
Hopfieldモデルにおけるエネルギー関数Eは次
式で表される。
【0038】
【数3】
【0039】ここで、Tijはi番目とj番目のニューロ
ンの結合重み、Vi はi番目のニューロンの状態、Ii
はi番目のニューロンに対する外部からの入力もしくは
しきい値レベルを表す。これに次式に示す付加的な拘束
条件を導入する。
【0040】
【数4】
【0041】ここで、△i は外部から変更可能な因子で
ある。今、k番目のニューロンに着目し、その状態が Vk → V′k と変化するものとすれば、エネルギーの変化△Ek は次
式のように表すことができる。
【0042】
【数5】
【0043】但し Tii = 0 Tijij = Tjiji △Vk = V′k − Vk である。
【0044】また、△k は例えば次のような値を取れば
良い。第1段目の連想記憶装置群1の1要素の連想出力
パターンV(c) と第2段目の連想記憶装置群4の1要素
の連想出力パターンV(p) に対して次式のように与え
る。 △k =(V(c)(p)2(V(c) k −V(p) k )/N2 この拘束条件は、間違っている第1段目の連想記憶装置
群1の1要素の連想出力パターンV(c) のエネルギーを
高くして、そのパターンを連想しにくくし、正しい第2
段目の連想記憶装置群4の1要素の連想出力パターンV
(p) を出現しやすくすることに相当する。拘束条件の与
え方はこれに限るものではない。例えば、間違ったパタ
ーンを出現しにくくするだけのもの、その他のものでも
良い。
【0045】また、上記実施例では、各段の連想記憶装
置群1,4の要素数を3個として示したが、要素の数は
何個であっても良い。
【0046】なお、上記実施例では、Hopfield
モデルのニューラルネットワークを第1段目の連想記憶
装置群1、3層構造のフィードフォワード型のニューラ
ルネットワークを第2段目の連想記憶装置群4として使
用したものを示したが、どちらも適当なエネルギー関数
を定義することによって、ボルツマンマシンのような他
のニューラルネットワークモデルを用いることができ
る。
【0047】さらに、連想記憶装置として、光ニューラ
ルネットワークやSi−LSIによって実現されたニュ
ーラルネットワークを用いることも可能である。勿論逐
次型コンピュータを用いたシミュレーションによる連想
記憶装置であっても良い。
【0048】また上記実施例では、知識情報処理の対象
として文字認識について示したが、音声認識や画像等の
パターン認識にも適応できることは言うまでもない。
【0049】
【発明の効果】以上のように、この発明によれば、ある
パターン情報が入力されると、初段の連想記憶装置群に
より直感的に複数の対応するパターンを連想し、次段の
連想記憶装置群により初段の連想記憶装置群から送出さ
れる連想出力の組み合わせを論理的に評価し修正するこ
とにより、人間の直感的思考に対応した働きを行うニュ
ーラルネットワークと、人間の論理的思考に対応した働
きを行うニューラルネットワークとを有機的に組み合わ
せたので、2つのネットワークがお互いに相手側の機能
の欠点を補い、人間の脳に近い情報処理を行うことがで
き、より知的な情報処理装置が実現できるという効果が
ある。
【0050】また、論理演算装置群により初段と次段の
連想記憶装置群の出力を比較し、比較結果に基づき初段
の連想記憶装置群のエネルギー関数を修正し再連想させ
るようにしたので、より連想性能が高く、また、論理的
に矛盾する結果を出力しにくい知識情報処理装置が得ら
れる。
【図面の簡単な説明】
【図1】この発明の実施例1による知識情報処理装置の
システム構成を示す概念図である。
【図2】この発明の実施例2による知識情報処理装置の
システム構成を示す概念図である。
【図3】ニューラルネットワークの動作説明図である。
【図4】従来の連想記憶装置の構成図である。
【符号の説明】
1 第1段目の連想記憶装置群 1a,1b,1c 連想記憶装置 2 入力パターン 3 第1段目の連想記憶装置群1の連想出力群 3a,3b,3c 連想記憶装置群1a,1b,1cに
よりそれぞれ出力される連想出力 4 第2段目の連想記憶装置群 4a,4b,4c 連想記憶装置 5a,5b,5c 連想記憶装置4a,4b,4cの連
想出力、 6 論理演算装置群 6a,6b,6c 論理演算装置 7a,7b,7c 連想記憶装置群1a,1b,1cへ
のエネルギー関数の補正情報からなるフィードバック入
力 8a,8b,8c 論理演算装置6a,6b,6c処理
出力で知識情報処理装置の連想出力

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワークモデルによる連
    想記憶装置を備えた情報処理装置において、入力パター
    ンからそれぞれ異なった特徴を連想する複数の連想記憶
    装置からなる初段の連想記憶装置群と、その連想出力の
    組み合わせを入力して評価し、上記初段の連想記憶装置
    群に各構成要素を構成するニューラルネットワークのエ
    ネルギー関数に対する連想の拘束条件を付加する連想出
    力を送出して、上記初段の連想記憶装置群の各構成要素
    を構成するニューラルネットワークのエネルギー関数を
    更新し、上記入力パターン情報について再度上記連想、
    上記評価、上記更新を繰り返し実行させる複数の連想記
    憶装置からなる次段の連想記憶装置群とで構成したこと
    を特徴とする知識情報処理装置。
  2. 【請求項2】 ニューラルネットワークモデルによる連
    想記憶装置を備えた情報処理装置において、入力パター
    ンからそれぞれ異なった特徴を連想する複数の連想記憶
    装置からなる初段の連想記憶装置群と、その連想出力の
    組み合わせを入力して評価し、上記特徴の組み合わせに
    対応する連想出力を送出する複数の連想記憶装置からな
    る次段の連想記憶装置群と、上記初段と次段の連想記憶
    装置群の出力を比較し、その比較結果に基づいて上記初
    段の連想記憶装置群に各構成要素を構成するニューラル
    ネットワークのエネルギー関数を更新し、上記入力パタ
    ーン情報について再度上記連想、上記評価、上記更新を
    繰り返し実行させるフィードバック入力を与える複数の
    論理演算装置からなる論理演算装置群とで構成したこと
    を特徴とする知識情報処理装置。
JP00094892A 1992-01-07 1992-01-07 知識情報処理装置 Expired - Fee Related JP3171897B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP00094892A JP3171897B2 (ja) 1992-01-07 1992-01-07 知識情報処理装置
US08/000,624 US5418886A (en) 1992-01-07 1993-01-05 Knowledge information processing system including two associative memory groups each including a plurality of associated memory units

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00094892A JP3171897B2 (ja) 1992-01-07 1992-01-07 知識情報処理装置

Publications (2)

Publication Number Publication Date
JPH05181828A true JPH05181828A (ja) 1993-07-23
JP3171897B2 JP3171897B2 (ja) 2001-06-04

Family

ID=11487903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00094892A Expired - Fee Related JP3171897B2 (ja) 1992-01-07 1992-01-07 知識情報処理装置

Country Status (2)

Country Link
US (1) US5418886A (ja)
JP (1) JP3171897B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0859332A1 (en) * 1997-02-12 1998-08-19 STMicroelectronics S.r.l. Word recognition device and method
US7577631B2 (en) * 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
US7747549B2 (en) * 2001-09-25 2010-06-29 Rikan Long-term memory neural network modeling memory-chaining functions of the brain wherein a pointer holds information about mutually related neurons and neurons are classified hierarchically by degree of activation
WO2011113478A1 (de) * 2010-03-16 2011-09-22 Carlo Trugenberger Authentifizierungssystem, verfahren zur authentifizierung eines objekts, vorrichtung zur erzeugung einer identifikationseinrichtung, verfahren zur erzeugung einer identifikationseinrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4901271A (en) * 1987-01-20 1990-02-13 American Telephone And Telegraph Company, At&T Bell Laboratories Computational network
US4937872A (en) * 1987-04-03 1990-06-26 American Telephone And Telegraph Company Neural computation by time concentration
GB2220780B (en) * 1988-07-05 1992-12-23 Mitsubishi Electric Corp Neurocomputer
JPH087789B2 (ja) * 1988-08-15 1996-01-29 工業技術院長 パターン連想記憶方法および装置
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
JP2760145B2 (ja) * 1990-09-26 1998-05-28 三菱電機株式会社 知識情報処理装置

Also Published As

Publication number Publication date
US5418886A (en) 1995-05-23
JP3171897B2 (ja) 2001-06-04

Similar Documents

Publication Publication Date Title
Parekh et al. Constructive neural-network learning algorithms for pattern classification
Zhang et al. Dynamic extreme learning machine and its approximation capability
US5630023A (en) Signal processor
Kumaraswamy Neural networks for data classification
JP2760145B2 (ja) 知識情報処理装置
Chartier et al. A sequential dynamic heteroassociative memory for multistep pattern recognition and one-to-many association
Kumara et al. Use of associative memory and self-organization in conceptual design
Dimitrichenko A method for diagnosing a robotic complex using logical neural networks apparatus
KR950012359B1 (ko) 신경회로망 구조와 학습방법
JP3171897B2 (ja) 知識情報処理装置
Basak et al. A connectionist model for category perception: theory and implementation
Chartier et al. BAM learning of nonlinearly separable tasks by using an asymmetrical output function and reinforcement learning
CN109697511B (zh) 数据推理方法、装置及计算机设备
JP2907486B2 (ja) ニューラルネットワーク装置
EP3876160A1 (en) Method and system for multimodal classification based on brain-inspired unsupervised learning
JP3310009B2 (ja) ニューラルネットワークシステム
Dong et al. Meta gradient boosting neural networks
JPH02165285A (ja) パターン認識装置
Tsoi et al. Building MLP networks by construction
JPH1063632A (ja) 大規模ニューラルネットワーク構築方法及び大規模ニューラルネットワーク構築装置及びニューラルネットワーク装置
CN117592537A (zh) 一种动态场景下的图数据表示学习方法
Dong et al. MetaGB: A Gradient Boosting Framework for Efficient Task Adaptive Meta Learning
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
Castillo et al. Introduction to Neural Networks
Fang Connectionist constructive learning for autonomous knowledge acquisition

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080323

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090323

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees