JP4687199B2 - 連想記憶装置とそのソフトウェア - Google Patents

連想記憶装置とそのソフトウェア Download PDF

Info

Publication number
JP4687199B2
JP4687199B2 JP2005102707A JP2005102707A JP4687199B2 JP 4687199 B2 JP4687199 B2 JP 4687199B2 JP 2005102707 A JP2005102707 A JP 2005102707A JP 2005102707 A JP2005102707 A JP 2005102707A JP 4687199 B2 JP4687199 B2 JP 4687199B2
Authority
JP
Japan
Prior art keywords
learning
attractor
input data
neural network
associative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005102707A
Other languages
English (en)
Other versions
JP2006285489A (ja
Inventor
陽太郎 八塚
浩 袁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2005102707A priority Critical patent/JP4687199B2/ja
Publication of JP2006285489A publication Critical patent/JP2006285489A/ja
Application granted granted Critical
Publication of JP4687199B2 publication Critical patent/JP4687199B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、劣化画像の雑音除去や復元機能も持った画像認識、種々のパターン認識や、不正アクセス防止などのセキュリティシステム、或いは更に高速メモリ検索などに適用可能な多層ニューラルネットワークを用いた相互連想(Hetero-Associative)記憶装置に関するものである。
ニューラルネットワークを用いた連想メモリの種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがある。文献、Hopfield,J.J., Proc. Nationl. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。
図3は、従来技術としての一つのニューラルネットワークを用いた自己連想メモリの1構成例である。入力層と出力層だけから構成された2層ニューラルネットワークや3層ニューラルネットワーク(一つの中間層を持つ砂時計ニューラルネットワーク)、或いはホップフィールドネットワークとして知られる相互結合ネットワーク型のニューラルネットワークなどが用いられている。これらは自己連想ニューラルネットワークの出力信号が直接入力にフィードバックされる構成となっている。
図3の従来技術による自己連想メモリとして、自己連想用ニューラルネットワーク33の2層ニューラルネットワーク(中間層を持たない)を用いた場合について、これらの動作を簡単に説明する。
先ず、最初に連想ループ制御処理部35からの制御のもとに、入力端子11からの連想入力信号が、入力切替スイッチ4及び入力端子12を介して自己連想用ニューラルネットワーク33に入力されるとともに、アトラクタ収束検出処理部34に入力記憶される。自己連想用ニューラルネットワーク33としての学習済み2層ニューラルネットワークの出力信号が出力端子13に得られると、これを、連想ループ制御処理部35の制御の基に、入力切替スイッチ4を介して該自己連想用ニューラルネットワーク33の入力端子12にフィードバックする。この為、入力層ユニット数と出力層ユニット数は同一の構成となっている。 従って、学習入力データ(学習アトラクタ)と教師信号が同一で、これらを事前に学習させている。ここで、2層ニューラルネットワークを用いた学習では、多くの場合、重み係数は計算によって求められ設定される。
連想ループ制御処理部35により、自己連想用ニューラルネットワーク33からの出力信号を入力切替スイッチ4と入力端子12を介して自己連想用ニューラルネットワーク33へフィードバックし、再度、自己連想用ニューラルネットワーク33から出力信号を得る。この一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数jとする。
ここで、連想ループ回数jに於ける入力端子12の自己連想用ニューラルネットワーク33の入力層への入力信号をX(j)とし、自己連想用ニューラルネットワーク33の出力信号をX(j+1)とし、連想ループ回数j+1の連想ループ処理に於いて、X(j+1)が入力端子12へ再度フィードバックされる。
この連想ループ処理を繰り返し行った際に、前回の連想ループ処理との出力信号が同一となり、変化しなくなった状態、即ち、X(j)=X(j+1)の状態をアトラクタ収束状態と呼び、また、その時の出力信号をアトラクタと呼び、アトラクタ出力信号として出力端子13から得る。
収束し得られたアトラクタは、連想入力信号に最も近い特徴を持った学習入力データである学習アトラクタとなる場合と、スプリアス・アトラクタ(偽りのアトラクタ)となる場合とがある。スプリアス・アトラクタは、学習入力データではなく、殆どの場合は、多くの雑音を含んだデータから構成されており明確な特徴を持っていない。
このように、入力端子11の連想入力信号X(0)を入力した後、アトラクタ収束状態になるまでの一連の動作を以下に説明する。先ず、連想ループ制御処理部35からの連想ループ制御によって入力切替スイッチ4の初期設定(j=0時)を行ない、入力切替スイッチ4を介して入力端子11と入力端子12を接続する。また、アトラクタ収束検出処理部34の内部状態をリセットし、入力端子11の連想入力信号X(0)を入力記憶する。更に、連想入力信号X(0)が、入力切替スイッチ4を介して学習済み自己連想用ニューラルネットワーク33に入力信号として入力される。自己連想用ニューラルネットワーク33から出力信号X(1)が得られ、アトラクタ収束検出処理部34に該出力信号X(1)がアトラクアに収束したかどうかを検出する為に入力記憶される。
更に、連想ループ制御処理部35は、該出力信号X(1)をフィードバックし自己連想用ニューラルネットワーク33に入力する為に、連想ループ回数j=1とし、入力切替スイッチ4を切り替え、出力信号X(1)を、入力端子12を介して自己連想用ニューラルネットワーク33にフィードバック入力し、新たな出力信号X(2)を得え、アトラクタ収束検出処理部34に入力する。このような連想ループ処理を繰り返す。
ここで、X(0)が学習入力データ、即ち学習アトラクタであると、X(0)とその出力信号X(1)は等しくなり、直ちに平衡状態のアトラクタ収束状態となり、アトラクタ収束検出処理部34にて検出される。
即ち、アトラクタ収束検出処理部34では、X(j)とX(j+1)との一致検出を行う。但し、j≧0である。一致すると、アトラクタに収束したとして、アトラクタ収束信号を出力端子20に送出すると共に、連想ループ制御処理部35に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の自己連想用ニューラルネットワーク33の出力信号がアトラクタ出力信号として出力端子13に送出される。このアトラクタに収束した状態を想起状態と呼ぶ。
一致しない場合には、収束していないと見なし、連想ループ制御処理部35に再度連想ループ処理を要求するために、連想ループ処理要求信号を送出する。
連想ループ制御処理部35では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大回数J未満であれば、連想ループ回数j=j+1として、連想ループ処理を再度実行するため、出力信号X(j+1)を、入力切替スイッチ4を介して入力端子12へフィードバックする。一方、連想ループ処理完了信号を受信した場合、或いは連想ループ回数jが連想ループ最大回数Jとなると、連想ループ処理を完了する。
連想ループ回数j=Jの状態で連想ループ処理を完了し、アトラクタ収束検出処理部34はアトラクタ発散信号を出力端子20に送出する。
この状態は、連想ループ回数jが指定された最大回数Jとなっても、アトラクタ収束検出処理部34に於いて、X(J)とX(J+1)との一致状態が得られない状態を意味する。このアトラクタ発散識別状態は、不想起状態と呼ばれる。
連想ループ制御処理部35では、入力端子11に新たな連想入力信号X(0)が入力される度毎に入力切替スイッチ4及びアトラクタ収束検出処理部34とを初期設定し、上記の一連の処理を新たな連想入力信号X(0)に対して繰り返す。
自己連想用ニューラルネットワーク33は、重み係数が予め設定された学習済みニューラルネットワークであるが、その重み係数の学習処理では、入力端子11の学習アトラクタとして与えられた学習入力データとその出力信号とが同一の学習アトラクタとなる関係の基で重み係数を計算により得、設定している。尚、この重み係数の求め方については、前記の文献に詳細が記載されている。
入力端子11の連想入力信号が学習アトラクタとは異なり、これに似た連想入力信号の場合、複数回の連想ループ処理を介してアトラクタ収束状態に達し、想起される場合がある。例えば、雑音などを含む未知連想入力信号に対しても、連想ループ処理を繰り返すことにより、所望の学習アトラクタに収束し、想起が成功する場合もある。このような動作はフィルタ作用やコンテント・アドレッサブル・メモリとしての働きをする。
一方、アトラクタ収束検出処理部34の出力端子20からアトラクタ収束信号が送出されると同時に、出力端子13に学習アトラクアとは異なるアトラクタ出力信号が送出され、スプリアス・アトラクタ(偽りアトラクタ)と呼ばれるアトラクタ収束状態に想起される場合がある。即ち、多くの雑音や歪みを含んだ連想入力信号に対して、アトラクタ収束状態となるが、通常の学習アトラクアタとは全く異なった有意な意味を殆ど持たないスプリアス・アトラクタがアトラクタ出力信号として送出される。このスプリアス・アトラクタに収束したアトラクタ出力信号を用いる応用システムでは、誤動作の原因となる。しかしながら、従来技術では、アトラクタ出力信号に対して、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別を行っていない。
従来の自己連想用ニューラルネットワーク33での正しい想起をできるだけ成功させ、然もスプリアス・アトラクタの発生を抑えるには、学習アトラクタとしての学習入力データは互いに相関を持たない直交関係を持つ必要がある。即ち、比較的似た連想入力信号を、学習入力データとして学習記憶させる重み係数を計算し求めて設定すると、学習アトラクタ間の干渉が発生し、スプリアス・アトラクタに収束する場合が増加するか、或いは想起されない無収束の発散状態になる場合が増える。
従って、自己連想用ニューラルネットワーク33の最適な重み係数によって記憶されている学習入力データ数、即ち学習アトラクタ数に大幅な制限がある。また、学習入力データ数が増えると、自己連想用ニューラルネットワーク33では、汎化能力が低く、連想ループ処理に於ける単独のフィードバック・ループによってのみアトラクタ収束を行わせることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束してもスプリアス・アトラクタになり易いなどの欠点がある。
上記のように、自己連想用ニューラルネットワーク33を用いた自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12x入力層ユニット数で与えられる。
更に、互いに似た学習入力データを学習させると、互いの干渉からアトラクタ収束状態が得にくくなるなどの欠点もある。また、誤って想起されるアトラクタ収束状態でのスプリアス・アトラクタを少なくするためには、記憶容量が更に少なくなる。このように、学習入力データ数が理論的限界に近づくとアトラクタ収束が一段と困難となってくる。
一方、自己連想用ニューラルネットワーク33として、2層ニューラルネットワークの代わりに、学習に於いて教師信号を用いた重み係数の適応更新により求めた重み係数を設定した3層ニューラルネットワーク(一つの中間層を持つ)を用いた場合には、上記の2層ニューラルネットワークと同様の動作を行ない、2層ニューラルネットワークより汎化能力が比較的高いことから、アトラクタに収束しやすく、また、重み係数による学習アトラクタの記憶容量も比較的大きい。汎化率を最大とする最適な中間層ユニット数は、入力層及び出力層のユニット数より一般的に小さく、砂時計型連想メモリと呼ばれる。中間層ユニット数を増やしても連想特性改善は図れない。
記憶容量は、2層ニューラルネットワークの場合より大きく、記憶する学習アトラクタ数が入力層ユニット数よりも比較的少なければ、高性能な連想特性を実現できる。しかしながら、入力層ユニット数よりも多くなると、汎化能力が急激に劣化することから、連想能力は低下し、認識率や、学習アトラクタへの収束速度の低下、更には、スプリアス・アトラクタへの収束や、アトラクタ発散状態が急激に増加するなどの欠点を持っている。
このような従来方式では、このスプリアス・アトラクタ出力信号は、記憶している全ての学習アトラクタと比較しない限り、学習アトラクタかスプリアス・アトラクタかの区別はできず、多くの処理量を要する。
この他の従来技術として、2つの従属接続されたニューラルネットワークを用いた相互(ヘテロ)連想メモリと呼ばれる方式がある。この方式は,図4のように、夫々教師信号を用い重み係数更新によって学習された前進ニューラルネットワーク32及び後進ニューラルネットワーク31から構成される。
前進ニューラルネットワーク32の出力信号としては、何れか1つのユニットのみが1となり、他のR-1個のユニットは0となるRユニットの2値出力信号形式、即ち、One out of Rと(但し、Rは出力層出力ユニット数で、分類カテゴリ数に対応)呼ばれる粗い符号化コードを用いて学習させている。これは、ニューラルネットワークの学習入力データに対応した教師信号の分類カテゴリへの対応づけが簡単であることから、殆どの多層ニューラルネットワークの出力信号形式として採り入れられ、学習させている。
一方、後進ニューラルネットワーク31では、前進ニューラルネットワーク32の教師信号を学習入力データとして学習させる。また、後進ニューラルネットワーク31の教師信号としては、入力切替スイッチ4を介して、前進ニューラルネットワーク32にフィードバック入力する為に、入力端子11からの前進連想入力信号X(0)と同一ユニット数の出力形式を持たせる必要があり、前進ニューラルネットワーク32の学習入力データ、即ち学習アトラクタとする。
即ち、前進ニューラルネットワーク32への学習入力データが、後進ニューラルネットワーク31の出力信号として再現されるよう夫々の学習を行う。このようにして重み係数更新により学習された重み係数を、前進ニューラルネットワーク32及び後進ニューラルネットワーク31の重み係数として夫々設定する。
ここで、これらの動作を簡単に説明する。図4の入力切替スイッチ4、連想ループ制御処理部35、アトラクタ収束検出処理部34は、夫々図3のそれらと同一構成である。図3の場合と同様に、連想ループ制御処理部35からの制御信号により入力切替スイッチ4は制御され、入力端子11の前進連想入力信号X(0)が学習済みの前進ニューラルネットワーク32の入力端子12を介して入力されるよう接続を行う。また、前進連想入力信号X(0)をアトラクタ収束検出処理部34に初期設定される。前進ニューラルネットワーク32に於いて、前進連想入力信号X(0)に対応した出力信号Y(0)を出力端子13から送出し、更に入力端子17を介して学習済み後進ニューラルネットワーク31に入力する。対応した出力信号X(2)は、連想ループ制御処理部35の制御の基に、連想ループ処理として、入力切替スイッチ4を介して入力端子12にフィードバックされると共に、アトラクタ収束検出処理部34に入力記憶される。
アトラクタ収束検出処理部34に於いては、連想ループ回数jの時、記憶されている後進ニューラルネットワーク31の出力信号X(j)と、出力信号X(j+1)とが一致すると、アトラクタに収束したとみなし、アトラクタ収束信号を出力端子20から送出し、出力端子18から後進ニューラルネットワーク31の出力信号がアトラクタ出力信号として送出される。連想ループ回数j=Jに於いても、アトラクタに収束しないアトラクタ発散状態では、アトラクタ発散信号が出力端子20から送出される。
この従来の3層ニューラルネットワークによる相互連想メモリの構成では、必要なR個の学習アトラクタとしての学習入力データと教師信号とを前進ニューラルネットワーク32に学習させることから、重み係数による記憶容量を大きくすることが出来き、然も汎化能力が2層ニューラルネットワークによる自己連想用ニューラルネットワーク33より高く、前進ニューラルネットワーク32及び後進ニューラルネットワーク31を介した連想ループ処理を行うことから、アトラクタへの収束も速く、認識率もよい。
しかしながら、学習アトラクタとしての学習入力データ数Rが非常に多い場合、One out of Rの粗コード出力形式を用いた前進ニューラルネットワーク32では、R個の出力層ユニット数が必要で、然も同一の入力層ユニット数を持った後進ニューラルネットワーク31を準備する必要があり、ニューラルネットワーク規模が非常に大きくなる。従って、粗コード出力型前進ニューラルネットワーク32及び後進ニューラルネットワーク31の学習処理及び実行処理の演算量が膨大となる欠点を有している。
また、一般的に学習アトラクタ間の距離が互いに近い場合には、汎化率が比較的高いことから、アトラクタ収束速度も比較的速いが、R個のユニットの粗コードからなるスパース出力信号形式が用いられることから、スプリアス・アトラクタに収束する場合が非常に多くなる。
また、お互いの距離が離れた相関の小さい学習アトラクタを学習させた前進ニューラルネットワークを用いた相互連想メモリの場合には、汎化能力を高くできず、優れた連想特性が得られない欠点を持っている。
上記では、教師信号を用い学習する粗コード出力型前進ニューラルネットワーク32について説明したが、密なコード出力型3層ニューラルネットワークを前進ニューラルネットワーク32として用いてもよい。しかしながら、粗コード出力型3層ニューラルネットワークを用いた前進ニューラルネットワーク32の場合の性能に比べて、スプリアス・アトラクタは発生しにくいものの、汎化特性が若干低く、誤った学習アトラクタに収束しやすく、認識率が低い。更に、性能が劣化するが自己組織化ネットワークを用いる場合もあるが、上記に述べた欠点を併せ持っている。
上記の説明の如く、2層ニューラルネットワークによる自己連想メモリでは、入出力ユニット数が同一で限定された構成であることから、学習入力データである学習アトラクタに収束するためには、重み係数に制約があり、多くの学習入力データを記憶することが出来ない欠点を持っている。例えば、2層ニューラルネットワークに於ける記憶できる理論的最大学習入力データ数は、0.12x入力層ユニット数であり、重み係数の記憶量が非常に少ない欠点を持っている。
また、3層ニューラルネットワークを用いた砂時計型自己連想メモリに於いて、記憶容量を増加させた場合、学習アトラクタ数が入力層ユニット数以上になると、汎化能力が急激に劣化し、然も粗い出力信号形式であることから、スプリアス・アトラクタ状態に収束する場合が非常に多く発生し、また、大きく雑音劣化した連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合が非常に多いなどの欠点も有している。
上記の説明のごとく、従来の自己連想メモリや相互連想メモリは、実用的には多くの欠点を有している。2層及び3層ニューラルネットワークを用いた自己連想メモリの場合、重み係数が持つ記憶容量が小さく、多くの学習アトラクタを記憶できない。また、連想ループ処理に於いて、単独のフィードバック処理であることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点がある。
一方、従来の3層ニューラルネットワークによる相互連想メモリでは、記憶容量を大幅に増加させることができるが、粗コード出力型3層ニューラルネットワークによる前進ニューラルネットワーク32を用いた場合、多くの学習アトラクタを記憶させる為には、前進ニューラルネットワーク32の出力層ユニット数を非常に大きくしなければならず、前進及び後進ニューラルネットワーク32,31の規模が非常に大きくなり、当然のことながら演算量が膨大となるとともに、正しい学習も困難となる欠点を持っている。また、同様の構成理由からスプリアス・アトラクタに非常に収束し易い欠点も有している。
また、密なコード出力型3層ニューラルネットワークによる前進ニューラルネットワークを用いた相互連想メモリでは、粗コード形式3層ニューラルネットワークの場合よりも汎化能力が若干劣ることから、スプリアス・アトラクタは発生しにくいものの、認識率が若干劣る欠点を持っている。
更に、互いに距離が離れた相関の小さい学習アトラクタを多く学習した前進ニューラルネットワークでは、汎化能力が低くなることから、これを用いた相互連想メモリは、優れた連想能力を実現できない欠点を持っている。
また、従来の連想メモリでは、アトラクタ識別を行っておらず、アトラクタ出力信号を用いる応用システムでは誤動作の原因となる欠点も持っている。
上記のように、連想メモリとして種々の欠点を持っている。
本発明の目的は、上記の問題を解決し、従来のニューラルネットワークを用いた自己連想メモリや相互連想メモリなどに比べて、非常に大きな記憶容量を持たせることができると共に、スプリアス・アトラクタに落ち込むことも非常に少なく、また、アトラクタ発散状態も非常に少なく、認識率が非常に高い高性能な連想特性を持ち、更に、分類カテゴリ識別、アトラクタ識別と、連想入力信号が学習入力データであるか、非学習入力データかの連想入力識別と、収束したアトラクタ出力信号に対応した学習入力データ読み出しも可能で、種々の応用に適した非常に優れた連想記憶装置を提供することにある。
上記の問題点を解決するために、第1の手段として、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習し、入力信号に対する出力信号をフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する自己連想用追加学習ニューラルネットワーク手段1と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、連想入力信号を該自己連想用追加学習ニューラルネットワーク手段1に一旦入力し、出力信号とその入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該自己連想用追加学習ニューラルネットワーク手段1から出力され該アトラクタ収束検出手段2により検出されたアトラクタ出力信号を入力し、該リングメモリ用ニューラルネットワーク手段5から順次読みだされた該学習入力データと該アトラクタ出力信号の一致を検出し、該アトラクタ出力信号のスプリアス・アトラクタか学習アトラクタかのアトラクタ識別をするアトラクタ識別手段6とから少なくとも構成することを特徴とした自己連想記憶装置を構成する。
第2の手段として、前進ニューラルネットワーク手段と後進ニューラルネットワーク手段とから構成される相互連想記憶装置に於いて、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク手段25と、該前進追加学習ニューラルネットワーク手段25からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態ではアトラクタ出力信号を送出する、該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク手段31と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、該前進追加学習ニューラルネットワーク手段25に入力された連想入力信号に対する出力信号と該連想入力信号とを比較しアトラクタ収束状態を検出するアトラクタ収束検出手段23と、該後進ニューラルネットワーク手段31から出力され、アトラクタ出力信号と該アトラクタ収束検出手段23により検出された該出力信号と、該出力信号を入力し該リングメモリ用ニューラルネットワーク手段5から順次読みだされた該出力信号の分類カテゴリの該学習入力データとの一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別手段6とから少なくとも構成することを特徴とした相互連想記憶装置を構成する。
第3の手段として、前進ニューラルネットワーク手段と後進ニューラルネットワーク手段とから構成される相互連想記憶装置に於いて、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク手段25と、該前進追加学習ニューラルネットワーク手段25からの入力信号に対する出力信号を該前進追加学習済みニューラルネットワーク手段25にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク手段31と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、連想入力信号を該前進追加学習ニューラルネットワーク手段25に一旦入力し、該後進ニューラルネットワーク手段31の出力信号と該前進追加学習ニューラルネットワーク手段25の入力信号との一致比較によりアトラクタ収束状態を検出すると、該前進追加学習ニューラルネットワーク手段25の出力信号を用いて、該後進ニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ検出識別手段26と、該アトラクタ出力信号を入力し該リングメモリ用ニューラルネットワーク手段5から順次読み出された該学習入力データと該アトラクタ出力信号との一致を検出し該アトラクタ出力信号が学習アトラクタかスプリアス・アトラクタかを識別すると共に、該リングメモリ用学習済みニューラルネットワーク手段5からの該学習入力データの読み出しを制御するアトラクタ一致検出手段29とから少なくとも構成することを特徴とした相互連想記憶装置。
第4の手段として、第1、2及び第3の手段の連想記憶装置に於いて、前記リングメモリ用ニューラルネットワーク手段5からの前記学習入力データと前記連想入力信号との一致を検出し、該連想入力信号の学習入力データか非学習入力データかを識別する連想入力識別手段9とから構成することを特徴とした連想記憶装置を構成する。
第5の手段として、第1、2、3、及び第4の手段の連想記憶装置に於いて、前記リングメモリ用ニューラルネットワーク手段5から順次読み出された前記学習入力データを記憶する学習入力データ記憶手段8とから構成することを特徴とした連想記憶装置を構成する。
第6の手段として、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習し、入力信号に対する出力信号をフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する自己連想用追加学習ニューラルネットワーク機能130と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習したリングメモリ用ニューラルネットワーク機能190とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、連想入力信号を該自己連想用追加学習ニューラルネットワーク機能130に一旦入力し、出力信号とその入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出機能140と、該自己連想用追加学習ニューラルネットワーク機能130から出力され該アトラクタ収束検出機能140により検出されたアトラクタ出力信号を入力し、該リングメモリ用ニューラルネットワーク機能190から順次読みだされた該学習入力データと該アトラクタ出力信号の一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能260とから少なくとも構成することを特徴とした自己連想記憶ソフトウェアを構成する。
第7の手段として、前進ニューラルネットワーク機能と後進ニューラルネットワーク機能とから構成される相互連想記憶ソフトウェアに於いて、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク機能430と、該前進追加学習ニューラルネットワーク機能430からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク430にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク機能610と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク機能490とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、該前進追加学習ニューラルネットワーク機能430に一旦入力し、該後進ニューラルネットワーク機能610の出力信号と該前進追加学習ニューラルネットワーク機能430の入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出機能440と、該後進ニューラルネットワーク機能610から出力され、アトラクタ出力信号と該アトラクタ収束検出機能440により検出された該出力信号と、
該出力信号を入力し該リングメモリ用ニューラルネットワーク機能490から順次読みだされた該出力信号の分類カテゴリの該学習入力データとの一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能560とから少なくとも構成することを特徴とした相互連想記憶ソフトウェアを構成する。
第8の手段として、前進ニューラルネットワーク機能と後進ニューラルネットワーク機能とから構成される相互連想記憶ソフトウェアに於いて、分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習したニューラルネットワーク機能730と、該前進追加学習ニューラルネットワーク機能730からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク機能730にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク機能610と、該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク機能490とを有し、ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、連想入力信号を該前進追加学習ニューラルネットワーク機能730に一旦し、該後進ニューラルネットワーク610の出力信号と該前進追加学習ニューラルネットワーク730の入力信号との一致比較によりアトラクタ収束状態を検出すると、更に該前進追加学習ニューラルネットワーク機能730の出力信号を用いて、該後進ニューラルネットワーク機能610から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能740と、該アトラクタ出力信号を入力し該リングメモリ用ニューラルネットワーク機能490から順次読み出された該学習入力データと該アトラクタ出力信号との一致を検出し該アトラクタ出力信号が学習アトラクタかスプリアス・アトラクタかを識別すると共に、該リングメモリ用ニューラルネットワーク機能490からの該学習入力データの読み出しを制御するアトラクタ出力ー学習入力データ一致状態判定機能520とから少なくとも構成することを特徴とした相互連想記憶ソフトウェアを構成する。
第9の手段として、第6、7及び第8の手段の連想記憶ソフトウェアに於いて、前記リングメモリ用ニューラルネットワーク機能730からの前記学習入力データと前記連想入力信号との一致を検出し、該連想入力信号の学習入力データか非学習入力データを識別する連想入力識別機能590、290とから構成することを特徴とした連想記憶ソフトウェアを構成する。
第10の手段として、第6、7、8、及び第9の連想記憶ソフトウェアに於いて、前記リングメモリ用ニューラルネットワーク機能190、490から前記学習入力データを順次読み出し、記憶する学習入力データ記憶機能200、500とから構成することを特徴とした連想記憶ソフトウェア。
本発明の連想記憶装置は、初期学習に於いて、各分類カテゴリに一つ割り当てられた学習入力データとしての代表的なプロトタイプ以外に、追加学習入力データとして、プロトタイプの近傍テストデータも用いて追加学習した、非常に高い汎化能力を持った多層ニューラルネットワークを、自己連想メモリの自己連想用ニューラルネットワーク、及び相互連想メモリの前進ニューラルネットワークとしてそれぞれ導入している。この為、大規模な記憶容量を実現でき、然も、アトラクタ状態への吸引力も強く、アトラクタ発散状態も大幅に改善され、スプリアス・アトラクタへの収束も減少し、認識率が非常に高くなる特徴を有し優れた連想特性を実現できる。更に、分類カテゴリに対応したプロトタイプ以外に追加学習入力データを記憶したリングメモリを導入することにより、アトラクタ識別、収束した学習アトラクタに対応した、追加学習入力データも含めた一連の学習入力データを呼び出すとともに、連想入力信号の学習・非学習入力データ識別も行うことができ、従来の連想記憶装置には無い優れた特徴を有する。
本発明の第1の実施形態に於ける、リングメモリを有し、追加学習ニューラルネットワークを用いた自己連想記憶装置の構成例を図1に示す。以下の本発明の自己連想記憶装置に於いて、その基本構成の説明を簡単にする為、2値の入出力信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。尚、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークなど教師信号を用いて学習するニューラルネットワークであればよい。
図1の自己連想記憶装置は、入力端子11に入力された連想入力信号と自己連想用追加学習ニューラルネットワーク1からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とへ入力する入力切り替えスイッチ4と、入力端子12からの入力信号に対して出力信号を得、アトラクタ出力信号として出力端子13から送出するとともに、入力切り替えスイッチ4及びアトラクタ収束検出処理部2へ夫々送出する自己連想用追加学習ニューラルネットワーク1と、連想ループ制御処理部3からの制御の基に自己連想用追加学習ニューラルネットワーク1への入力信号及び出力信号とが夫々入力され、アトラクタ収束信号、或いはアトラクタ発散信号を端子20から送出するアトラクタ収束検出処理部2と、出力端子13を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部3からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号である学習入力データとを連想ループ制御処理部3の制御の基に記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部3の制御の基に出力端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部3からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部2、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部3とから構成される。
以下に、一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、自己連想用追加学習ニューラルネットワーク1では、高性能な汎化能力を持たせるために、以下のプロトタイプの近傍テストデータ追加学習処理を実行して得られた重み係数を設定した場合について説明する。この学習処理としては、先ず、各分類カテゴリに一つ割り当てられた代表的なプロトタイプP(r)で、然も学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データに対して、全正解出力となるよう3層ニューラルネットワークを収束させる初期学習を行う。尚、当然ではあるが、プロトタイプだけを学習させた初期学習だけの重み係数を設定してもよい。また、ここでは、分類カテゴリ毎に一個のプロトタイプP(r)を用意したが、これが複数個の場合は、一個以外を近傍テスト入力データとして扱えばよい。
その後、引き続き、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とからなるプロトタイプの近傍テストデータを用いて、初期学習された3層ニューラルネットワークのテストを行ない、不正解出力を送出している近傍テスト入力データを学習入力データZ(r,n)、(但し、nは分類カテゴリrの学習データ番号で、0≦n≦nr)として、初期学習入力データと共に追加学習させ、これら学習入力データに対して全正解出力を送出し収束するよう追加学習を行う。その後、再度同様のテストを行ない、不正解出力があれば、その近傍テスト入力データを追加学習入力データとして加え、上記の追加学習を再度行う。このような追加学習処理を繰り返し、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習処理を完了する。
プロトタイプの近傍テストデータ追加学習処理が完了すると、その重み係数を自己連想用ニューラルネットワークに設定し、自己連想用追加学習ニューラルネットワーク1として用いる。尚、上記の3層ニューラルネットワークの追加学習処理については、特開平10−49509に詳細が明らかにされている。
一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習処理で用いたプロトタイプP(r)からなる初期学習入力データと学習入力データZ(r,n)、(但し、0≦n≦nr、nrは、分類カテゴリrの追加学習入力データ数)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の為のリングメモリ用学習データを準備し、これらの学習入力データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。尚、表1に於いて、プロトタイプP(r)に対応した分類カテゴリ数、即ち、プロトタイプ数をR、カテゴリ別の追加学習入力データ数nrの内最大値をNmaxとする。
Figure 0004687199
表1では、分類カテゴリrに割り当てられた初期学習入力データであるプロトタイプP(r)と、それに対応した学習入力データZ(r,n), 0≦n≦nrとを分類カテゴリ・グループとした学習データの関係を示す。グループ内の最後の追加学習入力データに対応した教師信号として、そのプロトタイプP(r)を割り当てられていることから、リング状態に配置された学習入力データを記憶させることができる。ここでは、この学習入力データとその教師信号との配置関係をリング傾斜配置と呼ぶこととする。即ち、プロトタイプP(r)とnr個の学習入力データZ(r,n),0≦n≦nrとからなる学習入力データと、これらがリング傾斜配置された教師信号とからなる分類カテゴリ別学習データを得る。
これら分類カテゴリ別学習データを全て学習させ、これらの学習入力データに対して全て正解出力となるよう収束させる。このように学習させた重み係数をリングメモリ用ニューラルネットワーク5に設定する。従って、端子15を介してリングメモリ用ニューラルネットワーク5にプロトタイプP(r)が入力されると、入力切替スイッチ7を介した、リングメモリの一連の出力フィードバック読み出し処理により、学習入力データZ(r,n)が順次読み出され、最後に、プロトタイプP(r)が読み出されることとなる。分類カテゴリrのグループ内の全学習入力データ読み出しループ回数はnr+1で与えられる。従って、プロトタイプであるリングメモリ入力信号がプロトタイプである場合には、同一のリングメモリ読み出し出力信号が得られるとグループ内の一連の学習入力データが全て読み出されたこととなる。
次に、本実施形態の、上記の自己連想用ニューラルネットワーク1及びリングメモリ用ニューラルネットワーク5を有する自己連想記憶装置の動作について説明する。連想ループ制御処理部3に於いて連想ループ回数j=0を、また、リングメモリ読み出しカウンタn=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ収束検出処理部2及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定を行う。連想入力信号X(0)が入力切替スイッチ4に入力され入力端子12を介して自己連想用追加学習ニューラルネットワーク1に入力されると共に、アトラクタ収束検出処理部2に入力記憶される。
また、連想入力信号X(0)は連想入力識別処理部9に入力記憶される。自己連想用追加学習ニューラルネットワーク1は、入力されたX(0)に対応した出力信号X(1)を送出し、アトラクタ収束検出処理部2へ入力する。アトラクタ収束検出処理部2では、連想ループ制御処理部3からの制御信号の基に連想ループ回数カウンタ設定(j=0)を行うとともに、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数jをj=j+1とし、連想ループ制御処理部3に連想ループ処理要求をする。
連想ループ制御処理部3では、連想ループ処理要求があると、入力切替スイッチ4を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とに入力し、出力信号X(2)を得る。
このようにアトラクタ収束状態の検出の為の一連の連想ループ処理を繰り返し、連想ループ処理回数jに対して、アトラクタ収束検出処理部2に於いて、自己連想用追加学習ニューラルネットワーク1の入力信号X(j)及び出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部3へアトラクタ収束信号を送出すると共に、アトラクタ収束検出処理を終了する。更に、アトラクタ収束信号を出力端子20に出力する。この時、連想ループ回数がj=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を出力端子20から送出させる。また、不一致状態が続き、指定された連想ループ回数Jになっても、アトラクタ収束が得られない場合には、発散アトラクタであり、アトラクタ発散信号を出力端子20から送出し、連想ループ処理停止要求を出し、アトラクタ収束検出処理を終了させる。更に、連想ループ制御処理部3では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部21の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。
アトラクタ収束検出処理部2において、アトラクタ収束状態が検出され、アトラクタ収束信号が連想ループ制御処理部3に送入されると、連想ループ制御処理部3の制御の基に、自己連想用追加学習ニューラルネットワーク1の出力信号を出力端子18からアトラクタ出力信号として、入力切替スイッチ7及び入力端子15を介してリングメモリ用ニューラルネットワーク5に送出し、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8に於いて、それぞれ以下の学習入力データ読み出し処理と、アトラクタ識別処理及び連想入力識別処理からなる一連の連想ループ処理を行う。以下これらの一連の処理について説明する。
連想ループ制御処理部3の制御の基に、入力切替スイッチ7を介して、自己連想用追加学習ニューラルネットワーク1の出力端子13のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、アトラクタ識別処理部6に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。アトラクタ識別処理部6に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1とし(但し、初期値n=0)、連想ループ制御処理部3の制御の基に入力切替スイッチ7が制御され、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力され、再度読み出し処理を行う。
アトラクタ識別処理部6内のリングメモリ読み出しカウンタn(≧0)が予め指定されたカテゴリ別読み出し最大カウンタ数となる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記のフィードバックによる一連の処理が繰り返される。尚、カテゴリ別読み出し最大カウンタ数は、表1に示すカテゴリ別の追加学習入力データ数nr、但し(n1,n2,..nr,…nR)内の最大値Nmaxを設定する。表2に示すようにX(j)とRout(n)が一致すると、この時のリングメモリ読み出しカウンタnと同じ値を持つ学習データ数nrが存在し、然も、その対応したプロトタイプP(r)とアトラクタ出力信号X(j+1)が一致すれば、学習アトラクタであることが判明し識別でき、学習アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々出力する。
ここで、アトラクタ識別処理部6に於けるアトラクタ識別条件を表2にまとめて示す。
Figure 0004687199
一方、表2に示すように、同じ学習データ数nrを持った分類カテゴリrのプロトタイプP(r)とアトラクタ出力信号X(j+1)を比較し、一致しない場合、即ち、そのリングメモリ読み出しカウンタnに対応した学習データ数を持つプロトタイプが存在しない、或いは、一致しても、n≦Nmaxのリングメモリ読み出しカウンタnに一致する学習データ数nrのカテゴリ番号rが存在しない場合などには、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明しスプリアス・アトラクタ識別信号が送出される。また、表2のようにカテゴリ別読み出し最大カウント数Nmax以下で、アトラクタ出力信号X(j+1)、出力Rout(n)及びP(r)が全て一致しない場合も、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明し、スプリアス・アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々送出する。このように、リングメモリ読み出し出力信号を用いることにより、アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかの識別ができる。
アトラクタ識別処理部6に於いて、アトラクタ識別処理が終了すると、連想ループ制御処理部3は、学習アトラクタ識別の場合には、学習入力データメモリ8を読み出し、出力端子16から学習アトラクタに対応したプロトタイプとその追加学習入力データを全て送出する。
連想入力識別処理部9では、連想入力信号X(0)とRout(n)とが比較され、一旦一致したならば、連想入力信号が学習入力データであることから、学習入力データ一致状態を記憶する。ここで、アトラクタ識別処理部6から学習アトラクタ識別信号が入力されると、出力端子21から学習入力データ識別信号が送出される。学習アトラクタ識別信号が入力された時に、リングメモリ読み出し出力信号が全て連想入力信号X(0)と不一致状態で、学習入力データ不一致状態が記憶されているならば、非学習入力データ識別信号が送出される。
一方、アトラクタ識別処理部6に於いて、スプリアス・アトラクタ識別信号が識別された場合には、出力端子14からスプリアス・アトラクタ識別信号を送出し、連想ループ制御処理部3の制御の基に、学習入力データメモリ8の内部状態はリセットされ、連想入力識別処理部9は、連想入力信号X(0)を非学習入力データと識別し、出力端子21から非学習入力データ識別信号を送出し、全ての処理を完了する。
尚、初期設定として、表1を基に、カテゴリ別読み出し最大カウント数Nmax、カテゴリ別追加学習入力データ数nr及びそのプロトタイプP(r)が予め記憶されている。
上記の説明の如く、学習アトラクタである分類カテゴリ別のプロトタイプP(r)がアトラクタ出力信号として、出力端子13から送出されると、プロトタイプP(r)とその近傍追加学習入力データとを記憶したカテゴリ別追加学習入力データ数nrに等しいリングメモリ読み出しカウンタnで、X(j+1)=Rout(nr)=P(r)となり、然もプロトタイプ(最後に読み出される)を含め分類カテゴリ別の学習入力データを全て読み出すことができる。
スプリアス・アトラクタであるアトラクタ出力信号が出力端子13から送出されると、出力端子14からスプリアス・アトラクタ識別信号が送出される。
尚、アトラクタ識別処理部6に於いて、出力端子14から学習アトラクタ識別信号と共に、一致したプロトタイプP(r)の分類カテゴリ番号rを送出してもよい。これによりカテゴリ分類も行うことができる。
ここで、アトラクタ識別処理部6に於いて、出力端子13からのアトラクタ出力信号X(j+1)と予め記憶されたプロトタイプP(r)、1≦r≦Rと直接比較し、何れかと一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9、連想ループ制御処理部3及び出力端子14へ送出してもよい。
上記の説明の如く、連想入力信号X(0)に対して、連想ループ処理に於いて、表3に示すようにアトラクタ収束状態を検出し、アトラクタに収束しておれば、アトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から一連の学習入力データを読み出すと共に、表2に示すように、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別、及び連想入力信号の学習・非学習入力識別ができる。
Figure 0004687199
ここで、本発明の第1の実施形態に於ける図1に示す自己連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図6に示す。尚、ここでは、自己連想用追加学習ニューラルネットワーク処理130及びリングメモリ用ニューラルネットワーク処理190に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
連想初期設定処理100は、連想ループ回数判定処理160に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理230におけるカテゴリ別読み出し最大カウント数Nmax、即ち表1に於ける分類カテゴリ内で最大の追加学習データ数であるカテゴリ内最大追加学習データ数Nmax = Max{n1,n2,..,nR}、及びアトラクタ識別処理260への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を夫々行う。
連想ループ初期設定処理110は、連想ループ回数jの初期設定としてj=0及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理210及び学習入力データ記憶処理200の内部状態のリセットを行う。
連想入力信号入力設定処理120は、連想入力信号X(0)を自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及び連想入力-リングメモリ出力一致検出処理210へ夫々入力設定を行う。
自己連想用追加学習ニューラルネットワーク処理130は、連想ループ回数j=0で、入力された連想入力信号X(0)に対する2値出力信号X(1)を、或いは、連想ループ回数j>0の場合には、自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180を介して入力設定された連想ループ回数j-1に於ける2値出力信号X(j)を入力し、2値出力信号X(j+1)を夫々送出する。
アトラクタ収束検出処理140は、連想ループ回数j=0の場合には、自己連想用追加学習ニューラルネットワーク処理130の連想入力信号X(0)に対する出力信号X(1)、或いは連想ループ回数jの場合には、2値入力信号X(j)に対する出力信号X(j+1)との一致比較を行ないアトラクタ収束状態の検出を行う。入力信号X(j)と出力信号X(j+1)とが一致しておれば、入出力信号がアトラクタとなったアトラクタ収束状態である。また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならば、アトラクタ未収束状態とする。
アトラクタ収束判定処理150に於いて、アトラクタ収束状態が得られると、リングメモリ用ニューラルネットワーク処理190を行う。一方、アトラクタ未収束状態であれば、引き続き連想ループ回数判定処理160を行う。
連想ループ回数判定処理160では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理170にて連想ループ回数jを1増加させる。
自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180では、X(j+1)を自己連想用追加学習ニューラルネットワーク処理130の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及びアトラクタ収束判定処理150を再度実施する。
一方、連想ループ回数判定処理160にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、連想入力信号X(0)が、アトラクタに収束ぜず、アトラクタ発散状態で不想起となったと判定する。この判定結果に従い、連想入力識別設定処理310に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであると識別し、全ての連想ループ処理を完了する。
アトラクタ収束判定処理150に於いて、アトラクタ収束状態であると判定されると、自己連想用追加学習ニューラルネットワーク130の出力信号であるアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク処理190に於いてリングメモリ読み出しを行う。
即ち、リングメモリ用ニュウラルネットワーク処理190にて、アトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理200にて記憶する。ここで、アトラクタ出力信号X(j+1)がプロトタイプP(r)である場合には、Rout(1)は、学習入力データZ(r,1)となる。
更に、連想入力―リングメモリ出力一致検出処理210にて、連想入力信号X(0)と読み出されたリングメモリ出力信号Rout(1)との一致比較を行う。一旦一致すれば、学習入力データ一致状態を設定する。不一致の場合には、学習入力データ不一致状態を設定する。
更に、アトラクタ出力ー学習入力データ一致状態判定処理220にて、X(j+1)≠Rout(n)の学習入力データ不一致状態の場合には、読み出し回数判定処理230にて、リングメモリ読み出しカウンタnがNmax未満であると、リングメモリ読み出しカウンタn←n+1処理240にて、nを1増加して、読み出されたRout(1)を入力しリングメモリ用ニューラルネットワーク処理190を再度行ない、新たなリングメモリ出力信号Rout(2)を得る。
更に、同様に学習入力データ記憶処理200、連想入力―リングメモリ出力一致検出処理210及びアトラクタ出力ー学習入力データ一致状態判定処理220を行う。
読み出し回数判定処理230にてリングメモリ読み出しカウンタnがNmaxとなると、スプリアス・アトラクタ識別設定処理250にて、アトラクタ出力信号がスプリアス・アトラクタであると識別設定し、スプリアス・アトラクタ状態とし、学習アトラクタ識別判定処理270を行う。
一方、アトラクタ出力ー学習入力データ一致状態判定処理220にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致し、学習入力データ一致状態と判定されると、アトラクタ識別処理260にて、表2のようにアトラクタ出力信号X(j+1)のアトラクタ識別を行う。
即ち、アトラクタ識別処理260では、n≦Nmaxのリングメモリ読み出しカウンタnに等しい追加学習入力データ数nrを持った分類カテゴリのプロトタイプP(r)とリングメモリ出力Rout(n)及びX(j+1)との一致を調べ、一致であれば、アトラクタ出力信号X(j+1)を学習アトラクタと識別し、学習アトラクタ状態とする。また、上記の条件を満たさない場合には、アトラクタ出力信号X(j+1)はスプリアス・アトラクタと識別し、スプリアス・アトラクタ識別状態とする。(尚、同じ追加学習データ数nrを持ったプロトタイプが複数個存在する場合も表2の条件で対応できる。)
次に、学習アトラクタ識別判定処理270に於いて、アトラクタ出力信号X(j+1)が学習アトラクタ状態と識別された場合には、連想入力識別処理290にて、連想入力―リングメモリ出力一致検出処理210の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は学習入力データと識別される。ここで、更に、アトラクタ出力信号X(j+1)と一致すれば、プロトタイプであり、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。
学習入力データ読み出し処理300にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプが読み出され、一連の連想ループ処理が全て完了する。
一方、学習アトラクタ識別判定処理270の結果、アトラクタ出力信号X(j+1)がスプリアス・アトラクタ状態であると識別されると、連想入力非学習入力データ識別設定処理280にて、連想入力信号X(0)が非学習入力データ(未知連想入力データ)であると識別設定され、一連の連想ループ処理が全て完了する。
尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理110を行ない、上記の一連の連想ループ処理を行う。
次に、本発明の第2の実施形態として、リングメモリを有し、前進追加学習ニューラルネットワークを用いた相互連想記憶装置について説明する。図2は、本実施形態の相互連想記憶装置の1構成例を示す。
図2の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ収束検出処理部23に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ収束検出処理部23へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部24の制御の基に、前進追加学習ニューラルネットワーク25の入力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、アトラクタ収束信号、或いはアトラクア発散信号を出力端子20へ夫々送出するアトラクタ収束検出処理部23と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部24からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部24の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部24の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部24からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)の比較により、連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部23、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部24とから構成される。
尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1と、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、及び従来技術に関する図3及び図4に於いて、同一番号を持つ機能は、同じである。従って、それらの詳細な説明は省略する。
以下に、アトラクタ収束検出、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理からなる一連の連想ループ処理の動作を中心に説明する。これらの連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、前記の第1の実施形態と同様に、追加学習処理を実行して得られた重み係数を設定しておく。追加学習処理としては、先ず、予め準備されたプロトタイプP(r)で学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データを学習させ、全正解出力となり収束した初期学習を行わせる。
その後、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とを近傍テストデータとしてテストを行ない、誤った出力信号を送出している近傍テスト入力データを学習入力データZ(r,n)として、初期学習に引き続いて初期学習データと共に追加学習させ、これら学習データに対して全正解出力を送出し収束するまで追加学習を行う。その後、再度テストを行ない、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習を完了する。不正解出力があれば、その近傍テストデータを追加学習入力データとして加え、上記の追加学習を再度行う。
このような一連の追加学習処理をプロトタイプの近傍テストデータに対して行ない、全ての近傍テスト入力データに対して正解出力が得られるまで繰り返す。全てのプロトタイプの近傍テスト入力データに対して正解出力を送出する追加学習が完了すると、その重み係数を設定し、前進追加学習ニューラルネットワーク25として用いる。ここで、追加学習された、プロトタイプとテストに於いて誤った出力を送出したプロトタイプの近傍テスト入力データとからなる学習入力データを同様に表1に示す。
更に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号とからなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。
一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習で用いた、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の教師信号を準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。上記のリングメモリ用ニューラルネットワーク5の学習は、第1の実施形態に於ける自己連想記憶装置での場合と同様である。
ここで、先ず、アトラクタ収束検出処理に関する連想ループ処理について説明する。連想ループ制御処理部24に於いて、連想ループ回数j=0を初期設定し、連想ループ制御信号を、入力切替スイッチ4の設定及びアトラクタ収束検出処理部23及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定の為夫々送出する。前進連想入力信号X(0)が入力端子11を介して入力切替スイッチ4に入力され、入力端子12を介して前進追加学習ニューラルネットワーク25に入力されると共に、アトラクタ収束検出処理部23に入力記憶される。また、前進連想入力信号X(0)は連想入力識別処理部9に入力記憶される。
前進追加学習ニューラルネットワーク25は、入力されたX(0)に対応した分類カテゴリを示す出力信号Y(0)を分類カテゴリ出力信号として送出し、出力端子13を介して後進ニューラルネットワーク31の入力端子17に入力する。後進ニューラルネットワーク31は、入力された分類カテゴリ出力信号Y(0)に対して出力信号X(1)を送出し、アトラクタ収束検出処理部23へ入力する。アトラクタ収束検出処理部23では、連想ループ制御処理部24から連想ループ回数j=0の設定を行ない、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数j=1とし、連想ループ制御処理部24に連想ループ処理要求をする。連想ループ制御処理部24では、連想ループ処理要求があると、出力信号X(1)を、入力切替スイッチ4を介して前進追加学習ニューラルネットワーク25とアトラクタ収束検出処理部23とに入力する。
一連の連想ループ処理に於いて、アトラクタ収束検出処理部23にて、前進追加学習ニューラルネットワーク25の入力信号X(j)及び後進ニューラルネットワーク31の出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部24へアトラクタ収束信号を送出すると共に、アトラクタ収束信号を出力端子20に出力する。この時、j=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を、j≠0ならば、アトラクタ収束信号(汎化アトラクタ収束信号)を出力端子20から夫々送出させる。また、指定された連想ループ最大回数Jになっても、アトラクタ収束が得られない場合には、アトラクタ発散信号を出力端子20から送出させると共に、連想ループ制御処理部24では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部9の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。
次に、アトラクタ収束状態が検出された後の、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理に関する一連の連想ループ処理を説明する。ここで、第1の実施形態の自己連想記憶装置に於ける図1及び本実施形態の図2に示すように、入力切替スイッチ7、リングメモリ用ニューラルネトワーク5、学習入力データメモリ8及び連想入力識別処理部9の構成及び接続は基本的に同一で、従って、これらの動作は互いに同じであることから、詳細説明は省略する。基本的に、アトラクタ識別処理部6に於いて、リングメモリ用ニューラルネットワーク5から指定されたカウンタ範囲Nmax(カテゴリ別読み出し最大カウント数Nmax)内で順次読み出された出力信号Rout(n)と出力端子18からのアトラクタ出力信号X(j+1)とが一致した時のリングメモリ読み出しカウンタnと等しい追加学習入力データ数nrが存在し、然もX(j+1)が、プロトタイプP(r)と一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9へ送出する。X(j+1)=Rout(n)となるリングメモリ読み出しカウンタn(但し、n≦Nmax)と等しいnrが存在しない場合、X(j+1)=Rout(nr)=P(r)が成立しない場合或いはリングメモリ読み出しカウンタn>Nmaxの場合には、スプリアス・アトラクタと識別し、スプリアス・アトラクタ識別信号を送出する。
また、学習アトラクタと識別されると、学習入力データメモリ8から対応した一連の学習入力データが読み出され、更に連想入力識別処理部9では、前進連想入力信号X(0)が読み出されたプロトタイプ、或いは追加学習入力データの何れかと一致すれば学習入力データ、その他の場合には非学習入力データと識別され、学習入力データ識別信号或いは非学習入力データ識別信号が夫々送出される。
上記の説明の如く、前進連想入力信号X(0)に対してアトラクタ収束状態を検出し、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、アトラクタ識別を行う共に、前進連想入力信号X(0)の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
次に、本発明の第2の実施形態に於ける図2に示す相互連想記憶処理に関して、前進連想入力信号X(0)が与えられた時の連想処理フローを図7に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490は、前記の第1の実施形態と同様に、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
前進連想初期設定処理400は、連想ループ回数判定処理460に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理530におけるカテゴリ別読み出し最大カウント数Nmax及びアトラクタ識別処理560への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理410は、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理420は、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理430、アトラクタ収束検出処理440及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
前進追加学習ニューラルネットワーク処理430は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された連想ループ回数j-1での出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
アトラクタ収束検出処理440は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理430の入力信号X(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数j(j≧1)の場合には、前進追加学習ニューラルネットワーク処理430の2値入力信号X(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)との一致比較処理を行ない、一致の場合にはアトラクタ収束状態、不一致の場合にはアトラクタ未収束状態とする。この時、表3に示すように、連想ループ回数j=0の時に一致しておれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。
アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。
連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理430の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610、アトラクタ収束検出処理440及びアトラクタ収束判定処理450を再度実施する。
一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであるとし、全ての連想ループ処理を完了する。
アトラクタ収束判定処理450に於いて、アトラクタ収束状態であると判定されると、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)を基に、リングメモリ用ニューラルネトワーク処理490を介したリングメモリ読み出しによるアトラクタ識別、連想入力信号識別及び対応した学習入力データ読み出す処理を引き続き行う。ここで、これらの一連の連想ループ処理は、図7での処理と全て同一であることから、説明は省略する。
本発明に於ける第3の実施形態に於けるリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例について、図5を用いて説明する。尚、ここでの前進追加学習ニューラルネットワーク25の学習に於いて用いられる教師信号は、密な2値コード(例えば、教師信号としての2値コードの整数変換値が0から、或いはある整数値から連続となる場合など)に分類カテゴリrを夫々割り当てることにより、スプリアス・アトラクタが発生しない場合及び、前進追加学習ニューラルネットワーク25に於いて、Winner takes allのような疎な2値出力形式を持った教師信号が用いられる場合に、学習アトラクタ識別及びスプリアス・アトラクタ識別をアトラクタ検出識別処理26に於いて行う例について説明する。
尚、ここでは、説明を簡単にする為に、前進追加学習ニューラルネットワーク25はR個の出力層ユニット数を持ち、その2値出力信号Y(j)として、One out of R 或いはWinner takes allと呼ばれる疎な2値符号化形式を仮定する。
図5の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部28からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ検出識別処理部26に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力すると共に、アトラクタ検出識別処理部26へ送出する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ検出識別処理部26へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部28の制御の基に、前進追加学習ニューラルネットワーク25の入力信号及び出力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、収束したアトラクタを識別し、アトラクタ検出識別信号を連想ループ制御処理部28へ、アトラクタ識別信号を出力端子27へ夫々送出するアトラクタ検出識別処理部26と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部28からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ一致検出処理部29、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部28の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部28の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、一致状態を検出し、アトラクタ一致判定信号を連想入力識別処理部9へ送出するアトラクタ一致検出処理部29と、連想ループ制御処理部28からの制御信号の基に、出力端子18からのアトラクタ出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ検出識別処理部26、連想入力識別処理部9及びアトラクタ一致検出処理部29、学習入力データメモリ8を夫々制御する連想ループ制御処理部28とから構成される。
尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、本実施形態の相互連想記憶装置の1構成例を示す図5、従来技術の構成例である図3及び図4に於いて、同一番号の機能は、同一である。従って、これらの詳細な説明は省略する。
アトラクタ検出識別処理部26では、表3に示すように、アトラクタ収束状態が検出された場合、前進追加学習ニューラルネットワーク25のWinner takes all 2値表現形式を持った出力信号Y(j)のハミング重み、Hamming・Weight{Y(j)}、即ちRビットからなる出力信号Y(j)の1となるビットの数を計算する。
その結果、
Hamming・Weight{Y(j)}≠1 (1)
を満足する場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習外カテゴリの2値出力信号であると識別される。即ち、分類カテゴリに割り当てられた2値教師信号以外の2値出力信号となっており、後進ニューラルネットワーク31の出力であるアトラクタ出力信号はスプリアス・アトラクタで、スプリアス・アトラクタ識別となる。
一方、
Hamming・Weight{Y(j)}=1 (2)
を満たす場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習内カテゴリの出力信号と識別され、前進追加学習ニューラルネットワーク25の教師信号の何れかと同じであり、後進ニューラルネットワーク31の出力であるアトラクタ出力信号は、学習アトラクタであり、学習アトラクタ識別となる。
以下に、これら一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、相互連想記憶装置の第2の実施形態に於いて説明した如く、プロトタイプを用いた初期学習と、初期学習データ及びテストに於いて出力誤りとなったプロトタイプの近傍テストデータからなる追加学習データとを学習データとして追加学習して得られた重み係数が設定されている。
また、図2と同様に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号からなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。
前進追加学習ニューラルネットワーク25は、後進ニューラルネットワーク31と同一のデータ構造の2値出力信号を送出し、後進ニューラルネットワーク31は前進連想入力信号と同一のデータ構造の出力信号を送出する。
更に、リングメモリ用ニューラルネットワーク5に於いても、図2と同様に、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の学習データを準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定する。
アトラクタ検出識別処理部26に関する連想ループ処理では、連想ループ制御処理部28に於いて連想ループ回数j=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ検出識別処理部26及び学習入力データメモリ8の内部状態、連想入力識別処理部9及びアトラクタ一致検出処理部29などの初期設定を夫々行う。入力端子11に前進連想入力信号X(0)が入力されると、入力切替スイッチ4は、入力端子11と入力端子12とを接続し、アトラクタ収束識別処理に関する連想ループ処理が実行される。
入力端子11の前進連想入力信号X(0)が前進追加学習ニューラルネットワーク25に入力され、更にアトラクタ検出識別処理部26及び連想入力識別処理部9へ入力され記憶される。
連想ループ回数j=0の場合に、前進連想入力信号X(0)に対応して、前進追加学習ニューラルネットワーク25から分類カテゴリ出力信号としての出力信号Y(0)、更に後進ニューラルネットワーク31から出力信号X(1)が夫々得られる。また、連想ループ回数j(但し、j≧1)の場合には、連想ループ制御処理部28からの制御信号の基に、入力切替スイッチ4を介して入力端子12に後進ニューラルネットワーク31の出力信号X(j)が入力され、更に前進追加学習ニューラルネットワーク25から出力信号Y(j)、後進ニューラルネットワーク31から出力信号X(j+1)が夫々得られ、これらの比較の為に、アトラクタ検出識別処理部26に夫々入力され記憶される。
更に、アトラクタ検出識別処理部26では、表3の如く、これらの前進追加学習ニューラルネットワーク25及び後進ニューラルネットワーク31の記憶された入出力信号X(j-1)、Y(j-1)、X(j)、Y(j)、X(j+1)を夫々比較し、アトラクタの収束状態の検出と識別を行う。連想ループ回数j(但し、j≧1)に於いて、X(j-1)=X(j)、Y(j-1)=Y(j)、X(j)=X(j+1)の関係を満たすとアトラクタ収束状態になる。j=1で、アトラクタ収束状態が検出されると、Y(j)が式(2)を満足し、学習内カテゴリであれば、One-Shot学習アトラクタ識別信号、式(1)を満足し、学習外カテゴリであれば、One-Shotスプリアス・アトラクタ識別信号、また、j≠1の場合には、夫々汎化学習アトラクタ識別信号、学習外カテゴリであれば、汎化スプリアス・アトラクタ識別信号を出力端子27に夫々送出する。尚、連想ループ回数に無関係に、アトラクタの識別を単純に学習アトラクタ識別信号、スプリアス・アトラクタ識別信号及びアトラクタ発散識別信号としてもよい。
また、表3の如く、アトラクタ検出識別処理部26に於いて、アトラクタ未収束状態で、連想ループ回数jが連想ループ最大回数J未満であれば、連想ループ処理要求信号を、アトラクタ収束状態ならば、学習アトラクタ識別信号かスプリアス・アトラクタ識別信号かのアトラクタ識別信号を連想ループ制御処理部28へ送出する。また、アトラクタ未収束状態で、連想ループ回数が最大回数Jであれば、アトラクタ発散状態として、アトラクタ発散識別信号を連想ループ制御処理部28及び出力端子27に送出する。
連想ループ制御処理部28では、アトラクタ未収束信号が入力されると、連想ループ処理を継続し、アトラクタ発散識別信号が入力されるとアトラクタ検出識別の為の連想ループ処理を終了する。
また、アトラクタ検出識別処理部26からアトラクタ識別信号が入力されると、アトラクタ検出識別の為の連想ループ処理を終了し、学習・非学習データ識別とアトラクタ出力信号に対応した学習入力データをリングメモリ用ニューラルネットワーク5から読み出す為のリングメモリ読み出し処理の連想ループ処理を行う。以下これらの一連の処理について説明する。
連想ループ制御処理部28の制御の基に、アトラクタ検出識別処理部26からアトラクタ識別信号としてのOne-Shot 及び汎化スプリアス・アトラクタ識別信号が入力された場合、或いはアトラクタ発散識別信号の場合には、アトラクタ出力信号は無意味な情報を有していることから、端子27からスプリアス・アトラクタ識別信号、或いはアトラクタ発散識別信号を、また、端子21からは、非学習入力識別信号を送出し、全ての連想ループ処理を完了させる。
一方、One-Shot或いは汎化学習アトラクタなどの学習アトラクタ識別信号が入力されると、出力端子13から分類カテゴリ出力信号を得、更に、出力端子18からのアトラクタ出力信号を基に、リングメモリ用ニューラルネットワーク5からのこれに対応した一連の追加学習入力データとプロトタイプとを読み出し、更に、前進連想入力信号X(0)が未知連想入力データであるか、プロトタイプ或いは追加学習入力データであるかの連想入力識別処理を行う。この為、入力切替スイッチ7を介して、後進ニューラルネットワーク31の出力端子18のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、学習入力データメモリ8及びアトラクタ一致検出処理部29に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ一致検出処理部29、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。
アトラクタ一致検出処理部29に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1と1増加し(但し、初期値n=0)し、連想ループ制御処理部28の制御の基に入力切替スイッチ7を切替え、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力される。
アトラクタ一致検出処理部29内のリングメモリ読み出しカウンタnが予め指定されたカテゴリ別読み出し最大カウント数Nmaxとなる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記の一連のフィードバックによる読み出し処理が繰り返される。尚、カテゴリ別読み出し最大カウント数Nnaxは、表1に示すカテゴリ別追加学習入力データ数nr内の最大値Nmaxを設定する。アトラクタ出力信号X(j+1)と出力Rout(n)が一致すると、分類カテゴリに対応した全ての学習入力データを読み出し、学習入力データメモリ8に記憶したこととなる。
また、リングメモリ読み出し完了信号を連想入力識別処理部9へ出力する。連想入力識別処理部9では、この間に読み出された追加学習入力データの何れかに連想入力信号X(0)が一致していると、連想入力信号X(0)は追加学習入力データ或いはプロトタイプに一致していると、学習入力データ識別、何れとも一致していなければ、非学習入力データ識別とされ、出力端子21から夫々送出される。また、連想ループ制御処理部28へ全処理完了信号を送出する。連想ループ制御処理部28がこの信号を受け取ると全ての一連の処理が完了し、新たな連想入力信号の受信状態とする。新たな前進連想入力信号X(0)が入力端子11に入力されると、再び連想ループ回数j=0とし、上記の一連の連想ループ処理を実施する。
本発明の第3の実施形態では、前進追加学習ニューラルネットワーク25の2値出力形式として、Winner Takes All 或いはOne out of Rの出力形式を用いて、学習内外カテゴリ識別処理を行う場合について説明したが、この2値出力形式に限るものではなく、2値出力形式を基に前進追加学習ニューラルネットワーク25の出力信号から学習内外カテゴリ識別が行えるものであればよい。また、例えば、特願2004-236466「相互連想記憶装置とそのソフトウェア」に詳細が記載されているが、2値教師信号である密な2値コード全てを連続した通し番号に整数値変換した、即ち、0から最大分類カテゴリ番号(=R-1)の通し番号から構成された分類カテゴリ番号領域を設け、前進追加学習ニューラルネットワーク25の2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法や、ある特定の整数値以上の分類カテゴリ番号から連続した分類カテゴリ番号から構成された分類カテゴリ番号領域を設け、これらを2値コードに対応させた教師信号を用いて学習させ、2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法を用いても良い。このような出力表現形式の2値教師信号を用いた場合には、スプリアス・アトラクタは発生しないことから、アトラクタ検出識別処理部26は、アトラクタ収束状態の検出機能だけでよい。
即ち、上記の分類カテゴリ番号領域を表すために必要となる最小ビット数以上の2値コードの分散型出力形式を持った2値出力信号を用いても良い。特に、2値教師信号数或いは分類カテゴリ数Rが2のべき乗(R=2**Qで、完全パッキング・コード)である場合には、所要最小ビット数を用いることにより、学習外カテゴリを発生することはなく、常に学習アトラクタか汎化学習アトラクタに収束し、One-Shot及び汎化スプリアス・アトラクタを発生しない、非常に優れた特性が実現され、アトラクタ識別が簡単となる。
尚、収束状態のアトラクタを、One-Shot学習アトラクタと汎化学習アトラクタ、One-Shotスプリアス・アトラクタと汎化スプリアス・アトラクタと夫々識別したが、これらを簡単に、学習トラクタとスプリアス・アトラクタとに識別してもよい。
上記の説明の如く、前進連想入力信号X(0)に対して、アトラクタ収束状態を検出し、アトラクタ識別を行う共に、分類カテゴリ出力信号Y(j)を得、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、前進連想入力信号の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
次に、本発明の第3の実施形態に於ける図5に示す相互連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図8に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
前進連想初期設定処理700は、連想ループ回数判定処理460に於ける連想ループ最大回数J、及びアトラクタ識別処理740への表3に示すアトラクタ検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理710では、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理720では、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理730、アトラクタ検出識別処理740及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
前進追加学習ニューラルネットワーク処理730は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
アトラクタ検出識別処理740は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(0)、出力信号Y(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数jの場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(j)、出力信号Y(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)を用いた一致比較からアトラクタ収束状態の検出を行う。X(j)とX(j+1)とが一致すれば、アトラクタ収束状態、また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならばアトラクタ未収束状態とする。
更に、アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、夫々リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。
連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理730の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610、アトラクタ検出識別処理740及びアトラクタ収束判定処理450を再度実施する。
一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力識別信号と、アトラクタ発散識別信号を送出し、全ての連想ループ処理を完了する。
アトラクタ判定識別処理740に於いて、アトラクタ収束状態であると判定されると、更に学習アトラクタかスプリアス・アトラクタかの識別を行う。
アトラクタ判定識別処理740では、前進追加学習ニューラルネットワーク処理730の出力信号Y(j)である2値出力コードのハミング重みを計算し、式(1)を満たす場合には、学習外カテゴリの2値出力信号であることからスプリアス・アトラクタと識別され、式(2)を満たす場合には、学習内カテゴリの出力信号であることから学習アトラクアと夫々識別される。
学習アトラクタ判定処理750に於いて、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)が、スプリアス・アトラクタ識別であると判定されたならば、連想入力識別設定処理630に於いて、スプリアス・アトラクタ識別信号、非学習入力識別信号を送出して、全ての一連の連想ループ処理を完了する。
一方、学習アトラクタ識別であると判定されると、リングメモリ用ニューラルネットワーク処理490を介したリングメモリ読み出しによる連想入力信号識別処理、及び対応した学習入力データ読み出す処理を引き続き以下のように行う。
リングメモリ用ニューラルネットワーク処理490にて、学習アトラクタであるアトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理500にて記憶する。
更に、連想入力識別の為の連想入力―リングメモリ出力一致検出処理510にて、連想入力信号X(0)とリングメモリ出力信号Rout(1)の一致比較を行う。一旦一致すれば、学習入力データであり、追加学習入力データかプロトタイプであることが明らかであることから、学習入力データ一致状態を設定する。
アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号とリングメモリ出力Rout(1)との一致判定を行ない、不一致の場合には、リングメモリ読み出しカウンタn←n+1処理540にて、nを1増加して、リングメモリ用ニューラルネットワーク処理490を再度行ない、新たなリングメモリ出力信号Rout(n)を得る。更に、学習入力データ記憶処理500、連想入力―リングメモリ出力一致検出処理510及びアトラクタ出力ー学習入力データ一致状態判定処理520を行う。
アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致すると、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した追加学習入力データ及びプロトタイプP(r)を全て読み出したことから、連想入力識別処理590にて、連想入力―リングメモリ出力一致検出処理510の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は、学習入力データと識別される。更に、アトラクタ出力信号と一致すれば、プロトタイプで、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。
学習入力データ読み出し処理600にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプとが読み出され、一連の連想ループ処理が全て完了する。
尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理710を行ない、上記の一連の連想ループ処理を行う。
上記の実施形態の連想記憶装置では、記憶量に対応した自己連想用ニューラルネットワークや前進追加学習ニューラルネットワークのプトロタイプである学習アトラクタの数が非常に多い場合、即ち連想記憶の所要記憶量が非常に大きい場合にも、多層ニューラルネットワークの中間層ユニット数を増やすことで、追加学習を確実に正しく収束させることができ連想記憶を実現することが可能である。従って、記憶容量を従来方式の連想記憶装置より飛躍的に連想特性を改善することができる。
また、従来の自己連想メモリでは、記憶容量の制限から記憶できる学習アトラクタとして、代表的なものに限られ、然も互いに余り相関のない学習アトラクタであることの制限があったが、本実施形態の自己及び相互連想記憶装置では、この代表的な学習アトラクタ以外に、それらに似た大きな相関を持った複雑な入力データも追加学習入力データとして多く記憶でき、然も複雑な前進連想入力信号や後進連想入力信号に対しても学習アトラクタに収束させることができる。
本発明の実施形態では、3層ニューラルネットワークを用いた場合について説明したが、3層以上の多層ニューラルネットワークでも良い。更に、多層ニューラルネットワークに限ることなく、入出力が同一の形式を持った2値教師信号を利用して学習させたニューラルネットワークでもよい。
また、分類カテゴリに対してWinner Takes allのような疎な2値出力コードを用いる代わりに、密な分散型2値コード、例えば、表し得る全ての2値コードに分類カテゴリを割り当てた出力2値コード(完全パッキング・コード)や、ある範囲内で連続した整数値に変換される2値コードに分類カテゴリを割り当てた出力2値コード(連続割り当てコード)などを用いた、高い汎化能力を持った前進追加学習ニューラルネットワークを適用してもよい。これにより、スプリアス・アトラクタを発生させることなく処理を行うこともできる。
以上述べたように、従来の自己連想メモリでは、そのデータ記憶容量が非常に少ない。また、学習アトラクタ数や学習アトラクタの距離分布によっては、連想能力を高くできないなどの問題がある。
また、従来の相互連想メモリ装置は、データ記憶容量は大きくできるが、スプリアス・アトラクタが多く発生するなど、連想特性が余り優れていない。然も後進多層ニューラルネットワークからのアトラクタ出力信号は、所望の学習アトラクタかスプリアス・アトラクタかの識別や連想入力識別もできない。従って、アトラクタ出力信号を用いた応用処理システムでは誤動作が避けられない。
これに対して、本発明の連想記憶装置に於いては、記憶する大量の学習アトラクタ数に応じて、中間層ユニット数を増やし、全正解出力となるよう収束させ追加学習を行った、非常に高い汎化能力を持った追加学習ニューラルネットワークを導入することにより、スプリアス・アトラクタの発生の大幅な削減とアトラクタ吸引力の改善が図られ、非常に優れた連想特性を持ち、然も非常に多量の学習アトラクタを記憶できる。また、プロトタイプ及び追加学習入力データを記憶したリングメモリの導入により、それらの読み出しループ処理に於ける、連想入力信号の学習・非学習入力データ識別、学習アトラクタ及びスプリアス・アトラクタ間のアトラクタ識別、及びアトラクタ出力信号に対応した全ての学習入力データの読み出しなどをダイナミックに行うことができる。
このように自己及び相互連想記憶の構造面及び特性面で非常に優れており、種々の応用に合わせた自由な設計が可能で、然も信頼性も優れている。従って、従来の自己或いは相互連想記憶装置では、記憶容量だけでなく、アトラクタ吸引力、多くのスプリアス・アトラクタの発生などに関しても、種々の実用上の制約があったが、これらの問題を解決できる。
また、非常に優れた連想特性と大容量記憶能力以外に、カテゴリ分類能力、アトラクタ識別能力、連想入力識別能力及び収束したアトラクタ出力信号に対応した学習入力データ読み出し機能を有していることから、非常に幅広い応用処理システムにも適用できる。
上記の幅広い効果から、本発明のリングメモリを有し、追加学習ニュ−ラルネットワークを用いた自己及び相互連想記憶装置は、セキュリティ管理システムや不正アクセス検出などのセキュリティシステムへの応用、バイオメトリクスに於ける各種高機能なパターン認識や多くの雑音などにより劣化した大容量の画像データなどの認識への応用、高速データ検索などへの応用、更にはネットワーク障害状態の異常状態検出などネットワーク障害検出システムへの応用など、非常に幅広く適用できる特徴を有している。
本発明の第1の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能とを有した、自己連想用追加学習ニューラルネットワークとを用いた自己連想記憶装置の1構成例である。 本発明の第2の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例である。 従来方式に於ける自己連想ニューラルネットワークによる自己連想記憶装置の1構成例である。 従来方式に於ける前進及び更新ニューラルネットワークを用いた相互連想記憶装置の1構成例である。 本発明の第3の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例である。 本発明の第1の実施形態に於ける連想入力信号に対する自己連想記憶の連想ループ処理フロー図である。 本発明の第2の実施形態に於ける前進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。 本発明の第3の実施形態に於ける前進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。
符号の説明
1 自己連想用追加学習ニューラルネットワーク
2 アトラクタ収束検出処理部
3 連想ループ制御処理部
入力切替スイッチ
5 リングメモリ用ニューラルネットワーク
6 アトラクタ識別処理部
7 入力切替スイッチ
8 学習入力データ記憶メモリ
9 連想入力識別処理部
10 入力切替スイッチ
11 連想入力信号端子
12 ニューラルネットワーク入力端子
13 ニューラルネットワーク出力端子
14 アトラクタ識別出力端子
15 リングメモリ入力端子
16 学習データ出力端子
17 後進ニューラルネットワーク入力端子
18 後進ニューラルネットワーク出力端子
19 後進連想入力端子
20 アトラクタ収束検出出力端子
21 連想入力識別出力端子
22 アトラクタ検出識別処理部
23 アトラクタ収束検出処理部
24 連想ループ制御処理部
25 前進追加学習ニューラルネットワーク
26 アトラクタ検出識別処理部
27 アトラクタ検出識別出力端子
28 連想ループ制御処理部
29 アトラクタ一致検出処理部
31 後進ニューラルネットワーク
32 前進ニューラルネットワーク
33 自己連想用ニューラルネットワーク
34 アトラクタ収束検出処理部
35 連想ループ制御処理部
100 連想初期設定処理
110 連想ループ初期設定処理
120 連想入力信号入力設定処理
130 自己連想用追加学習ニューラルネットワーク処理
140 アトラクタ収束検出処理
150 アトラクタ収束判定処理
160 連想ループ回数判定処理
170 連想ループ回数j←j+1設定処理
180 自己連想用追加学習ニューラルネットワーク出力信号入力設定処理
190 リングメモリ用ニューラルネットワーク処理
200 学習入力データ記憶処理
210 連想入力―リングメモリ出力一致検出処理
220 アトラクタ出力ー学習入力データ一致状態判定処理
230 リングメモリ読み出し回数判定処理
240 リングメモリ読み出しカウンタnのn←n+1設定処理
250 スプリアス・アトラクタ識別設定処理
260 アトラクタ識別処理
270 学習アトラクタ識別判定処理
280 連想入力非学習入力データ識別設定処理
290 連想入力識別処理
300 学習入力データ読み出し処理
310 連想入力識別設定処理
400 前進連想初期設定処理
410 連想ループ初期設定処理
420 前進連想入力信号入力設定処理
430 前進追加学習ニューラルネットワーク処理
440 アトラクタ収束検出処理
450 アトラクタ収束判定処理
460 連想ループ回数判定処理
470 連想ループ回数j←j+1設定処理
480 後進ニューラルネットワーク出力信号入力設定処理
490 リングメモリ用ニューラルネットワーク処理
500 学習入力データ記憶処理
510 連想入力―リングメモリ出力一致検出処理
520 アトラクタ出力ー学習入力データ一致状態判定処理
530 リングメモリ読み出し回数判定処理
540 リングメモリ読み出しカウンタnのn←n+1設定処理
550 スプリアス・アトラクタ識別設定処理
560 アトラクタ識別処理
570 学習アトラクタ識別判定処理
580 連想入力非学習入力データ識別設定処理
590 連想入力識別処理
600 学習入力データ読み出し処理
610 後進ニューラルネットワーク処理
620 連想入力識別設定処理
630 連想入力識別設定処理
700 前進連想初期設定処理
710 連想ループ初期設定処理
720 前進連想入力信号入力設定処理
730 前進追加学習ニューラルネットワーク処理
740 アトラクタ検出識別処理
750 学習アトラクタ識別判定処理

Claims (10)

  1. 自己連想用ニューラルネットワーク手段から構成される自己連想記憶装置に於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習し、入力信号に対する出力信号をフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する自己連想用追加学習ニューラルネットワーク手段1と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5とを有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該自己連想用追加学習ニューラルネットワーク手段1に一旦入力し、出力信号とその入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出手段2と、
    該自己連想用追加学習ニューラルネットワーク手段1から出力され該アトラクタ収束検出手段2により検出されたアトラクタ出力信号を入力し、該リングメモリ用ニューラルネットワーク手段5から順次読みだされた該学習入力データと該アトラクタ出力信号の一致を検出し、該アトラクタ出力信号のスプリアス・アトラクタか学習アトラクタかのアトラクタ識別をするアトラクタ識別手段6とから少なくとも構成することを特徴とした自己連想記憶装置。
  2. 前進ニューラルネットワーク手段と後進ニューラルネットワーク手段とから構成される相互連想記憶装置に於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク手段25と、
    該前進追加学習ニューラルネットワーク手段25からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク手段25にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク手段31と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5とを有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該前進追加学習ニューラルネットワーク手段25に一旦入力し、該後進ニューラルネットワーク手段31の出力信号と該前進追加学習ニューラルネットワーク手段25の入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出手段23と、
    該後進ニューラルネットワーク手段31から出力され、アトラクタ出力信号と該アトラクタ収束検出手段23により検出された該出力信号と、
    該出力信号を入力し該リングメモリ用ニューラルネットワーク手段5から順次読みだされた該出力信号の分類カテゴリの該学習入力データとの一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別手段6とから少なくとも構成することを特徴とした相互連想記憶装置。
  3. 前進ニューラルネットワーク手段と後進ニューラルネットワーク手段とから構成される相互連想記憶装置に於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク手段25と、
    該前進追加学習ニューラルネットワーク手段25からの入力信号に対する出力信号を該前進追加学習済みニューラルネットワーク手段25にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク手段31と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク手段5と、を有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該前進追加学習ニューラルネットワーク手段25に一旦入力し、該後進ニューラルネットワーク手段31の出力信号と該前進追加学習ニューラルネットワーク手段25の入力信号との一致比較によりアトラクタ収束状態を検出すると、
    該前進追加学習ニューラルネットワーク手段25の出力信号を用いて、該後進ニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ検出識別手段26と、
    該アトラクタ出力信号を入力し該リングメモリ用ニューラルネットワーク手段5から順次読み出された該学習入力データと該アトラクタ出力信号との一致を検出し該アトラクタ出力信号が学習アトラクタかスプリアスアトラクタかを識別すると共に、該リングメモリ用学習済みニューラルネットワーク手段5からの該学習入力データの読み出しを制御するアトラクタ一致検出手段29とから少なくとも構成することを特徴とした相互連想記憶装置。
  4. 請求項1、2及び請求項3の連想記憶装置に於いて、前記リングメモリ用ニューラルネットワーク手段5からの前記学習入力データと前記連想入力信号との一致を検出し、該連想入力信号の学習入力データか非学習入力データかを識別する連想入力識別手段9とから構成することを特徴とした連想記憶装置。
  5. 請求項1、2、3、及び請求項4の連想記憶装置に於いて、前記リングメモリ用ニューラルネットワーク手段5から順次読み出された前記学習入力データを記憶する学習入力データ記憶手段8とから構成することを特徴とした連想記憶装置。
  6. 自己連想用ニューラルネットワーク機能から構成される自己連想記憶ソフトェアに於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習し、入力信号に対する出力信号をフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する自己連想用追加学習ニューラルネットワーク機能130と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習したリングメモリ用ニューラルネットワーク機能190とを有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該自己連想用追加学習ニューラルネットワーク機能130に一旦入力し、出力信号とその入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出機能140と、
    該自己連想用追加学習ニューラルネットワーク機能130から出力され該アトラクタ収束検出機能140により検出されたアトラクタ出力信号を入力し、該リングメモリ用ニューラルネットワーク機能190から順次読みだされた該学習入力データと該アトラクタ出力信号の一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能260とから少なくとも構成することを特徴とした自己連想記憶ソフトウェア。
  7. 前進ニューラルネットワーク機能と後進ニューラルネットワーク機能とから構成される相互連想記憶ソフトウェアに於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク機能430と、
    該前進追加学習ニューラルネットワーク機能430からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク430にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク機能610と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク機能490とを有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該前進追加学習ニューラルネットワーク機能430に一旦入力し、該後進ニューラルネットワーク機能610の出力信号と該前進追加学習ニューラルネットワーク機能430の入力信号との一致比較によりアトラクタ収束状態を検出するアトラクタ収束検出機能440と、
    該後進ニューラルネットワーク機能610から出力され、アトラクタ出力信号と該アトラクタ収束検出機能440により検出された該出力信号と、
    該出力信号を入力し該リングメモリ用ニューラルネットワーク機能490から順次読みだされた該出力信号の分類カテゴリの該学習入力データとの一致を検出し、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能560とから少なくとも構成することを特徴とした相互連想記憶ソフトウェア。
  8. 前進ニューラルネットワーク機能と後進ニューラルネットワーク機能とから構成される相互連想記憶ソフトウェアに於いて、
    分類カテゴリ毎に準備された、プロトタイプと追加学習入力データからなる学習入力データとそれらに対応した教師信号とからなる学習データを追加学習した前進追加学習ニューラルネットワーク機能730と、
    該前進追加学習ニューラルネットワーク機能730からの入力信号に対する出力信号を該前進追加学習ニューラルネットワーク機能730にフィードバック入力すると共に、アトラクタ収束状態ではアトラクタ出力信号を送出する、該学習データの該学習入力データとそれらに対応した該教師信号とを逆配置した学習データに対して学習した後進ニューラルネットワーク機能610と、
    該学習入力データをリング傾斜配置した分類カテゴリ毎のリングメモリ用学習データを学習し記憶したリングメモリ用ニューラルネットワーク機能490とを有し、
    ここでリング傾斜配置とは、該プロトタイプと該追加学習入力データからなる該学習入力データに於いて、該学習入力データの教師信号として該学習入力データ自身を割り当てるに当り、
    最初の第1の該学習入力データである該プロトタイプの教師信号として第2の該学習入力データを割り当て、該第2の該学習入力データの教師信号として第3の該学習入力データを割り当て、以降の該学習入力データの教師信号として残りの該学習入力データを順次重なりが無いよう割り当て、最後の該学習入力データの教師信号として該プロトタイプを割り当てた、該学習入力データとその教師信号の関係をいい、
    連想入力信号を該前進追加学習ニューラルネットワーク機能730に一旦入力し、該後進ニューラルネットワーク610の出力信号と該前進追加学習ニューラルネットワーク730の入力信号との一致比較によりアトラクタ収束出力信号を用いて、該後進ニューラルネットワーク機能610から出力された状態を検出すると、該前進追加学習ニューラルネットワーク機能730のアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別機能740と、
    該アトラクタ出力信号を入力し該リングメモリ用ニューラルネットワーク機能490から順次読み出された該学習入力データと該アトラクタ出力信号との一致を検出し該アトラクタ出力信号が学習アトラクタかスプリアスアトラクタかを識別すると共に、該リングメモリ用学習済みニューラルネットワーク機能490からの該学習入力データの読み出しを制御するアトラクタ出力ー学習入力データ一致状態判定機能520とから少なくとも構成することを特徴とした相互連想記憶ソフトウェア。
  9. 請求項6、7及び請求項8の連想記憶ソフトウェアに於いて、前記リングメモリ用ニューラルネットワーク機能730からの前記学習入力データと前記連想入力信号との一致を検出し、該連想入力信号の学習入力データか非学習入力データを識別する連想入力識別機能590、290とから構成することを特徴とした連想記憶ソフトウェア。
  10. 請求項6、7、8、及び請求項9の連想記憶ソフトウェアに於いて、前記リングメモリ用ニューラルネットワーク機能190、490から前記学習入力データを順次読み出し、記憶する学習入力データ記憶機能200、500とから構成することを特徴とした連想記憶ソフトウェア。
JP2005102707A 2005-03-31 2005-03-31 連想記憶装置とそのソフトウェア Expired - Fee Related JP4687199B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005102707A JP4687199B2 (ja) 2005-03-31 2005-03-31 連想記憶装置とそのソフトウェア

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005102707A JP4687199B2 (ja) 2005-03-31 2005-03-31 連想記憶装置とそのソフトウェア

Publications (2)

Publication Number Publication Date
JP2006285489A JP2006285489A (ja) 2006-10-19
JP4687199B2 true JP4687199B2 (ja) 2011-05-25

Family

ID=37407372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005102707A Expired - Fee Related JP4687199B2 (ja) 2005-03-31 2005-03-31 連想記憶装置とそのソフトウェア

Country Status (1)

Country Link
JP (1) JP4687199B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022021203A (ja) 2020-07-21 2022-02-02 富士通株式会社 学習プログラム,学習装置及び学習方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05165801A (ja) * 1991-12-16 1993-07-02 Toshiba Corp ニューラルネットの学習方式
JPH0666852A (ja) * 1992-04-22 1994-03-11 Nec Corp スペクトラム測定装置

Also Published As

Publication number Publication date
JP2006285489A (ja) 2006-10-19

Similar Documents

Publication Publication Date Title
US5151969A (en) Self-repairing trellis networks
US11822579B2 (en) Apparatus for functioning as sensor node and data center, sensor network, communication method and program
JP3328935B2 (ja) 並列多値ニューラルネットワーク
De Stefano et al. A Bayesian approach for combining ensembles of GP classifiers
US11942152B2 (en) Fuzzy string search circuit
US20050049984A1 (en) Neural networks and neural memory
JP4687199B2 (ja) 連想記憶装置とそのソフトウェア
US5493632A (en) Neural network employing a location addressable memory and method for operating the same
JP3675246B2 (ja) 正誤答判定機能を有するニューラルネットワーク手段
JPH08249302A (ja) 回帰形ニューラル回路網における耐障害決定性有限状態オートマトンを実現する方法および該回路網における耐障害決定性有限状態オートマトン
Huang et al. Functional error correction for reliable neural networks
Kareem et al. Multi-Connect Architecture (MCA) associative memory: A modified hopfield neural network
JP3277648B2 (ja) 並列ニューラルネットワーク
JP3757722B2 (ja) 多層ニューラルネットワークユニット数最適化方法及び装置
JP4696529B2 (ja) 多層ニューラルネットワーク装置とそのソフトウェア
JP3855665B2 (ja) 出力状態判定機能を有する並列ニューラルネットワーク処理システム
JP4539221B2 (ja) 相互連想記憶装置とそのソフトウェア
Quiterio et al. Determining the structure of decision directed acyclic graphs for multiclass classification problems
JP3855580B2 (ja) 並列ニューラルネットワーク装置
Bandyopadhyay et al. A novel neural hetero-associative memory model for pattern recognition
JP2020091813A (ja) ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
KR102353390B1 (ko) 데이터 획득 및 데이터 변환 방법 및 이를 위한 장치
JP3678071B2 (ja) ニューラルネットワーク入力判別装置
JP3855582B2 (ja) 出力状態判定機能を有する並列ニューラルネットワーク処理システム
Ni et al. A neural network case-based reasoning and its application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

R150 Certificate of patent or registration of utility model

Ref document number: 4687199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees