JP4539221B2 - Mutual associative memory and its software - Google Patents
Mutual associative memory and its software Download PDFInfo
- Publication number
- JP4539221B2 JP4539221B2 JP2004236466A JP2004236466A JP4539221B2 JP 4539221 B2 JP4539221 B2 JP 4539221B2 JP 2004236466 A JP2004236466 A JP 2004236466A JP 2004236466 A JP2004236466 A JP 2004236466A JP 4539221 B2 JP4539221 B2 JP 4539221B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- learning
- associative
- attractor
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Description
本発明は、劣化画像の雑音除去や復元機能も持った画像認識、種々のパターン認識や、不正アクセス防止などのセキュリティシステム、或いは更に高速メモリ検索などに適用可能な多層ニューラルネットワークを用いた相互連想(Hetero-Associative)記憶装置に関するものである。 The present invention relates to image recognition having a noise removal and restoration function for degraded images, various pattern recognitions, security systems such as unauthorized access prevention, or a mutual association using a multilayer neural network applicable to high-speed memory search. (Hetero-Associative) relates to a storage device.
ニューラルネットワークを用いた連想メモリの種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがある。文献、Hopfield,J.J., Proc. Nationl. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。 Types of associative memories using neural networks include self-associative memories and mutual (hetero) associative memories. Details are described in literature, Hopfield, JJ, Proc. Nationl. Acad. Sci. USA, 79, pp. 2554-2558, 1982, Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993, etc. Yes.
図2は、従来技術としての一つのニューラルネットワークを用いた自己連想メモリの1構成例がある。入力層と出力層だけから構成された2層ニューラルネットワークや3層ニューラルネットワーク(砂時計ニューラルネットワーク)或いはホップフィールドネットワークとして知られる相互結合ネットワーク型のニューラルネットワークなどが用いられている。これらは自己連想ニューラルネットワークの出力信号が直接入力にフィードバックされる構成となっている。 FIG. 2 shows a configuration example of a self-associative memory using one neural network as a conventional technique. A two-layer neural network composed only of an input layer and an output layer, a three-layer neural network (hourglass neural network), or an interconnection network type neural network known as a hop field network is used. These are configured such that the output signal of the self-associative neural network is directly fed back to the input.
図2の従来技術による自己連想メモリとして、自己連想ニューラルネットワーク22の2層ニューラルネットワークを用いた場合について、これらの動作を簡単に説明する。
先ず、最初に連想ループ制御処理部20からの制御のもとに、入力端子29からの連想入力信号が切替スイッチ10及び端子30を介して自己連想ニューラルネットワーク22に入力される。自己連想ニューラルネットワーク22としての学習済み2層ニューラルネットワークの出力層出力信号が出力端子31に得られると、これを、連想ループ制御処理部20の制御の基に、入力切替スイッチ10を介して該2層ニューラルネットワークの入力端子30にフィードバックする。この為、入力層ユニット数と出力層ユニット数は同一の構成となっている。従って、学習入力データ(学習アトラクタ)と教師信号が同一で、これらを学習させる。この場合には、多くの場合、重み係数は、計算によって求められる。
The operation of the self-associative memory according to the prior art shown in FIG. 2 will be briefly described in the case where a two-layer neural network of the self-associative neural network 22 is used.
First, under the control of the associative loop control processing unit 20, an associative input signal from the
連想ループ制御処理部20により、自己連想ニューラルネットワーク22からの出力信号を入力切替スイッチ10と入力端子30を介して自己連想ニューラルネットワーク22へフィードバックし、再度、自己連想ニューラルネットワーク22から出力信号を得る。この一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数nとする。
ここで、連想ループ回数nに於ける入力端子30の自己連想ニューラルネットワーク22の入力層への入力信号をX(n)とし、自己連想ニューラルネットワーク22の出力信号をX(n+1)とし、連想ループ回数n+1の連想ループ処理に於いて、X(n+1)が入力端子30へ再度フィードバックされる。
The associative loop control processing unit 20 feeds back the output signal from the self-associative neural network 22 to the self-associative neural network 22 through the
Here, the input signal to the input layer of the self-associative neural network 22 at the
この連想ループ処理を繰り返し行った際に、前回の連想ループ処理との出力信号が同一となり、変化しなくなった状態をアトラクタ収束状態と呼び、その時の出力信号をアトラクタと呼び、アトラクタ出力信号として出力端子31から得る。
収束し得られたアトラクタは、連想入力信号に最も近い特徴を持った学習入力データである学習アトラクタ(教師信号)となる場合と、スプリアス・アトラクタ(偽りのアトラクタ)となる場合とがある。スプリアス・アトラクタは、学習入力データではなく、殆どの場合は、多くの雑音を含んだデータから構成されており明確な特徴を持っていない。
When this associative loop processing is repeated, the output signal is the same as the previous associative loop processing, and the state that does not change is called the attractor convergence state, the output signal at that time is called the attractor, and is output as the attractor output signal Obtained from
The attractor that can be converged may be a learning attractor (teacher signal) that is learning input data having characteristics closest to the associative input signal, or may be a spurious attractor (false attractor). Spurious attractors are not learning input data, and in most cases are composed of data containing a lot of noise and do not have clear features.
このように、入力端子29の連想入力信号を入力した後、アトラクタ収束状態になるまでの一連の動作を以下に説明する。先ず、連想ループ制御処理部20からの連想ループ制御によって入力切替スイッチ10の初期設定(n=0時)を行い、入力端子29と入力端子30を接続する。また、アトラクタ収束状態識別処理部21の内部状態をリセットする。入力端子29の連想入力信号X(0)が自己連想ニューラルネットワーク22に入力信号として入力される。自己連想ニューラルネットワーク22から出力信号X(1)が得られ、アトラクタ収束状態識別処理部21に該出力信号X(1)がアトラクアに収束したかどうかの識別を行う収束識別処理の為に入力記憶される。
A series of operations from when the associative input signal of the
更に、連想ループ制御処理部20は、該出力信号X(1)をフィードバックし自己連想ニューラルネットワーク22に入力する為に、連想ループ回数n=1とし、入力切替スイッチ10を切り替え、出力信号X(1)を、入力端子30を介して自己連想ニューラルネットワーク22にフィードバック入力し、新たな出力信号X(2)を得え、アトラクタ収束状態識別処理部21に入力する。このような連想ループ処理を繰り返す。
Furthermore, the associative loop control processing unit 20 sets the number of associative loops n = 1, switches the
アトラクタ収束状態識別処理部21では、蓄積されている連想ループ回数nでの自己連想ニューラルネットワーク22の出力信号X(n)と連想ループ回数n+1連想ループ処理により得られた連想ニューラルネットワークの出力信号X(n+1)と比較し一致検出を行う。即ち、一般にはX(n)とX(n+1)の一致検出を行う。但し、n≧0である。
一致すると、アトラクタに収束したとして、アトラクタ収束識別信号を出力端子32に送出すると共に、連想ループ制御処理部20に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の自己連想ニューラルネットワーク22の出力信号がアトラクタ出力信号として出力端子31に送出される。このアトラクタに収束した状態を想起状態と呼ぶ。
In the attractor convergence state
If they match, it is assumed that the attractor has converged, and an attractor convergence identification signal is sent to the
一致しない場合には、収束していないと見なし、連想ループ制御処理部20に再度連想ループ処理を要求するために、連想ループ処理要求信号を送出する。
連想ループ制御処理部20では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大許容回数N未満であれば、連想ループ回数n=n+1として、連想ループ処理を再度実行するため、出力信号X(n)を、入力切替スイッチ10を介して入力端子30へフィードバックする。一方、連想ループ処理完了信号を受信した場合、或いは連想ループ回数nが連想ループ最大許容回数N以上となると、連想ループ処理を終了する。
If they do not match, it is considered that they have not converged, and an associative loop processing request signal is sent to request the associative loop control processing unit 20 again for associative loop processing.
When the associative loop control processing unit 20 receives the associative loop processing request signal, the associative loop number n = n + 1 is executed again if the associative loop processing number n is smaller than the maximum associative loop number N specified in advance. The output signal X (n) is fed back to the
連想ループ回数n=Nの状態で連想ループ処理を終了し、アトラクタ収束状態識別処理部21から連想ループ処理要求信号を受信した場合には、アトラクタ発散識別信号送出要求信号をアトラクタ収束状態識別処理部21に送る。この時、アトラクタ収束状態識別処理部21はアトラクタ発散識別信号を出力端子32に送出する。
この状態は、連想ループ回数nが指定された最大許容回数Nとなっても、アトラクタ収束状態識別処理部21に於いて、X(n)とX(n+1)との一致状態が得られない状態を意味する。このアトラクタ発散識別状態は、不想起状態と呼ばれる。
When the associative loop processing is finished in the state where the number of associative loops n = N and the associative loop processing request signal is received from the attractor convergence state
In this state, even if the number of associative loops n is the specified maximum allowable number N, the attractor convergence state
連想ループ制御処理部20では、入力端子29に新たな連想入力信号X(0)が入力される度毎に入力切替スイッチ10及びアトラクタ収束状態識別処理部21とを初期設定し、上記の一連の処理を新たな連想入力信号X(0)に対して繰り返す。
自己連想ニューラルネットワーク22は、重み係数が予め設定された学習済みニューラルネットワークであるが、その重み係数の学習処理では、入力端子29の学習アトラクタとして与えられた連想入力信号とその出力信号とが同一の学習アトラクタとなる関係の基で重み係数を計算により得、設定している。尚、この重み係数の求め方については、前記の文献に詳細が記載されている。
The associative loop control processing unit 20 initializes the
The self-associative neural network 22 is a learned neural network in which a weighting factor is set in advance. In the weighting factor learning process, an associative input signal given as a learning attractor at the
出力端子31から得られたアトラクタ出力信号が学習入力データ(学習アトラクタ)であれば、この学習アトラクタを用いたその後に接続される応用処理システムを正しく動作させることができ、問題とならない。しかしながら、後述のスプリアス・アトラクタと呼ばれる偽のアトラクタの場合には、応用処理システムに於いて、誤動作の原因となる。
If the attractor output signal obtained from the
入力端子29の連想入力信号が学習アトラクタとは異なり、これに似た連想入力信号の場合、複数回の連想ループ処理を介してアトラクタ収束状態に達し、想起される場合がある。例えば、雑音などを含む未知連想入力信号に対しても、連想ループ処理を繰り返すことにより、学習アトラクタに収束し、想起が成功する場合もある。このような動作はフィルタ作用やコンテント・アドレッサブル・メモリとしての働きをする。
When the associative input signal at the
一方、アトラクタ収束状態識別処理部21の出力端子32からアトラクタ収束識別信号が送出されると同時に、出力端子31に学習アトラクアとは異なるアトラクタ出力信号が送出され、スプリアス・アトラクタ(偽りアトラクタ)と呼ばれるアトラクタ収束状態に想起される場合がある。即ち、多くの雑音や歪みを含んだ連想入力信号に対して、アトラクタ収束状態となるが、通常の学習アトラクアタとは全く異なった有意な意味を殆ど持たないスプリアス・アトラクタで、端子31から誤って学習アトラクタ出力信号として送出される。
On the other hand, an attractor convergence identification signal is sent from the
これは、従来方式では、学習アトラクタとは区別できず、重み係数に記憶されている学習入力データの影響を大きく受け自動的に生成され、予期し得ず紛らわしいスプリアス・アトラクタであり、想起が正しく行われていない。このスプリアス・アトラクタに収束した場合には、出力端子31からのアトラクタ出力信号や端子32からのアトラクタ収束状態識別信号を用いる応用処理システムで、誤動作の原因となる。
This is a spurious attractor that is indistinguishable from the learning attractor in the conventional method, is automatically generated greatly influenced by the learning input data stored in the weighting factor, and is unexpected and misleading. Not done. When converged to the spurious attractor, an error occurs in the application processing system using the attractor output signal from the
従来の自己連想ニューラルネットワーク22での正しい想起をできるだけ成功させ、然もスプリアス・アトラクタの発生を抑えるには、学習アトラクタとしての学習入力データは互いに相関を持たない直交関係を持つ必要がある。即ち、比較的似た連想入力信号を、学習入力データとして学習記憶させる重み係数を計算し求めて設定すると、学習アトラクタ間の干渉が発生し、スプリアス・アトラクタに収束する場合が増加するか、或いは想起されない無収束の発散状態になる場合が増える。 In order to succeed in correct recall with the conventional self-associative neural network 22 as much as possible and to suppress the occurrence of spurious attractors, the learning input data as learning attractors must have orthogonal relationships that are not correlated with each other. That is, if a relatively similar associative input signal is calculated by calculating and setting a weighting factor for learning and storing as learning input data, interference between learning attractors occurs, and the case of convergence to spurious attractors increases, or There are more cases of non-convergent and non-convergent divergence.
従って、自己連想ニューラルネットワーク22の最適な重み係数によって記憶されている学習入力データ数、即ち学習アトラクタ数に大幅な制限がある。また、自己連想ニューラルネットワーク22では、ニューラルネットワークの一つの特徴である、汎化能力を余り利用しておらず、連想ループ処理に於けるフィードバック・ループによってのみアトラクタ収束を行わせることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束してもスプリアス・アトラクタになり易いなどの欠点があることを意味している。 Therefore, the number of learning input data stored by the optimum weighting coefficient of the self-associative neural network 22, that is, the number of learning attractors is greatly limited. Further, the self-associative neural network 22 does not make much use of the generalization ability, which is one of the features of the neural network, and causes the attractor to converge only by the feedback loop in the associative loop processing. This means that it does not converge very easily and tends to be in an attractor divergence state, but even if it converges to the attractor, it tends to become a spurious attractor.
更に、このような従来方式では、このスプリアス・アトラクタ出力信号は、記憶している全ての学習アトラクタと比較しない限り、学習アトラクタかスプリアス・アトラクタかの区別はできず、比較する為には多くの処理量を要する。
このような自己連想ニューラルネットワーク22を用いた自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12x入力層ユニット数Pで与えられる。
更に、互いに似た学習入力データを学習させると、互いの干渉からアトラクタ収束状態が得にくくなるなどの欠点もある。また、誤って想起されるアトラクタ収束状態でのスプリアス・アトラクタを少なくするためには、記憶容量が更に少なくなる。従って、学習入力データ数が理論的限界に近づくとアトラクタ収束が一段と困難となってくる。
Furthermore, in such a conventional method, unless the spurious attractor output signal is compared with all the stored learning attractors, it cannot be distinguished whether it is a learning attractor or a spurious attractor. A processing amount is required.
The biggest drawback of the self-associative memory using such a self-associative neural network 22 is a small storage capacity due to a large restriction on the possible weighting factor. According to the above document, this storage capacity is theoretically given by about 0.12 × number of input layer units P.
Furthermore, when learning input data similar to each other is learned, there is a drawback that it is difficult to obtain an attractor convergence state from mutual interference. Further, in order to reduce spurious attractors in the attractor converged state that is erroneously recalled, the storage capacity is further reduced. Therefore, attractor convergence becomes more difficult as the number of learned input data approaches the theoretical limit.
この他の従来技術として、2つの従属接続されたニューラルネットワークを用いた相互(ヘテロ)連想メモリと呼ばれる方式がある。この方式は,図3のように、夫々教師信号を用いて学習された前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24から構成される。従来では、前進3層ニューラルネットワーク23としては、粗コード出力型前進3層ニューラルネットワーク23が用いられている。
As another prior art, there is a method called a mutual (hetero) associative memory using two cascaded neural networks. As shown in FIG. 3, this method is composed of a forward three-layer neural network 23 and a reverse three-layer
粗コード出力型前進3層ニューラルネットワーク23の出力信号としては、何れか1つのユニットのみが1となり、他のK-1個のユニットは0となるKユニットの2値出力信号形式、即ち、One out of Kと呼ばれる粗い符号化コードが用いられる。これは、ニューラルネットワークの学習入力データに対応した教師信号の分類カテゴリへの対応づけが簡単であることから、殆どの多層ニューラルネットワークの出力信号形式として採り入れられ、学習させている。 As an output signal of the coarse code output type forward three-layer neural network 23, only one of the units becomes 1, and the other K-1 units become 0. A binary output signal format of K units, that is, One A coarse encoded code called out of K is used. Since it is easy to associate the teacher signal corresponding to the learning input data of the neural network with the classification category, it is adopted as the output signal format of most multilayer neural networks and is learned.
一方、後進3層ニューラルネットワーク24では、粗コード出力型前進3層ニューラルネットワーク23の教師信号を学習入力データとして学習させる。後進3層ニューラルネットワーク24の教師信号としては、入力切替スイッチ10を介して、粗コード出力型前進3層ニューラルネットワーク23にフィードバック入力する為に、入力端子1からの前進連想入力信号X(0)と同一入力ユニット数の出力形式を持たせる必要があり、粗コード出力型前進3層ニューラルネットワーク23の学習入力データ、即ち学習アトラクタとする。
On the other hand, in the reverse three-layer
即ち、粗コード出力型前進3層ニューラルネットワーク23への学習入力データが、後進3層ニューラルネットワーク24の出力信号として再現されるよう夫々の学習を行う。このようにして学習された重み係数を、粗コード出力型前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24の重み係数として夫々設定する。
That is, each learning is performed so that learning input data to the coarse code output type forward three-layer neural network 23 is reproduced as an output signal of the reverse three-layer
ここで、これらの動作を簡単に説明する。図3の入力切替スイッチ10、連想ループ制御処理部20、アトラクタ収束状態識別処理部21は、夫々図2のそれらと同一構成である。図2の場合と同様に、連想ループ制御処理部20からの制御信号により、入力切替スイッチ10は制御され、初期設定として、入力端子1の前進連想入力信号が学習済みの粗コード出力型前進3層ニューラルネットワーク23の入力端子2を介して入力されるよう接続を行う。粗コード出力型前進3層ニューラルネットワーク23は、前進連想入力信号X(0)に対応した出力信号を出力端子3から送出し、更に端子4を介して学習済み後進3層ニューラルネットワーク24に入力される。対応した出力信号は、連想ループ制御処理部20の制御の基に、連想ループ処理として、入力切替スイッチ10を介して入力端子2にフィードバックされると共に、アトラクタ収束状態識別処理部21に入力記憶される。
Here, these operations will be briefly described. The
アトラクタ収束状態識別処理部21に於いては、連想ループ回数n-1の時の記憶された後進3層ニューラルネットワーク24の出力信号X(n)と、連想ループ回数nの出力信号X(n+1)とが一致すると、アトラクタに収束したとみなし、アトラクタ収束識別信号を出力端子32から送出し、出力端子5から後進3層ニューラルネットワーク24の出力信号がアトラクタ出力信号として送出される。連想ループ回数n=Nに於いても、アトラクタに収束しないアトラクタ発散状態では、アトラクタ発散識別信号が出力端子32から送出される。
In the attractor convergence state
この従来の相互連想メモリの構成では、必要なK個の学習アトラクタとしての学習入力データとそれらに夫々対応したOne out of K出力信号形式の教師信号とを学習させることから、重み係数による記憶容量を多くすることが出来る。しかしながら、学習アトラクタとしての学習入力データ数Kが非常に多い場合には、前進3層ニューラルネットワーク23のK個の出力層ユニット数と同一のユニット数を持つ後進3層ニュラールネットワーク24の入力層ユニット数が必然的に非常に大きくなる。従って、粗コード出力型前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24の規模が非常に大きくなり、学習処理の演算量が膨大となる欠点を有している。また、K個のユニットの粗コードからなるスパース出力信号形式が用いられることから、スプリアス・アトラクタに収束する場合が非常に多くなる。
In this conventional associative memory configuration, the learning input data as the necessary K learning attractors and the teacher signals in the One out of K output signal format corresponding to each of them are learned. Can be increased. However, when the learning input data number K as the learning attractor is very large, the input layer of the backward three-layer
この従来方式に於いても、スプリアス・アトラクタへの収束状態の検出ができないことから、学習アトラクタとスプリアス・アトラクタとの区別ができず、アトラクタ収束状態識別処理部21からアトラクタ収束識別信号が送出された際に、出力端子5から学習アトラクタ出力信号として出力されたアトラクタを用いた応用処理システムでは、誤動作を発生する欠点を持っている。しかしながら、学習アトラクタ数が多い場合には、アトラクタ収束状態に到達しない不想起のアトラクタ発散状態は、自己連想メモリほどは多くない。
上記では、教師信号を用い学習する粗コード出力型前進3層ニューラルネットワーク23について説明したが、この他に、性能が劣化するが自己組織化ネットワークを用いる場合もあるが、上記に述べた欠点は併せ持っている。
Even in this conventional method, since the convergence state to the spurious attractor cannot be detected, the learning attractor cannot be distinguished from the spurious attractor, and the attractor convergence state
In the above description, the coarse code output type forward three-layer neural network 23 that learns using a teacher signal has been described. In addition to this, although the performance is deteriorated, a self-organizing network may be used. Have both.
上記の説明の如く、自己連想メモリは、入出力ユニット数が同一で限定された構成であることから、劣化画像データなどの認識などへの応用に限られる欠点を持っている。また、カテゴリ分類機能を有していない。更に、学習入力データである学習アトラクタに収束するためには、重み係数に制約があり、多くの学習入力データを記憶することが出来ない欠点を持っている。例えば、2層ニューラルネットワークに於ける記憶できる理論的最大学習入力データ数は、0.12x入力層ユニット数であり、重み係数の記憶量が非常に少ない欠点を持っている。 As described above, since the self-associative memory has the same number of input / output units and is limited, it has a drawback limited to application to recognition of degraded image data and the like. Moreover, it does not have a category classification function. Furthermore, in order to converge to the learning attractor which is learning input data, there exists a fault that a weighting coefficient has restrictions and many learning input data cannot be memorize | stored. For example, the theoretical maximum learning input data number that can be stored in a two-layer neural network is 0.12 × input layer unit number, and has a disadvantage that the storage amount of the weight coefficient is very small.
また、必然的に、入力信号と同一の多くのユニット数からなる出力信号は、記憶する学習入力データ数が少ないことから粗い出力信号形式となっている。この為、比較的小さな雑音劣化した連想入力信号が入力された後、その出力信号を入力端子2にフィードバックし連想ループ処理を繰り返すことにより、アトラクタ収束状態識別処理部21に於いて学習アトラクタ以外の正しく想起されていないスプリアス・アトラクタ状態に収束する場合が非常に多く発生し、また、大きく雑音劣化した連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合が非常に多いなどの欠点も有している。
Inevitably, an output signal consisting of a large number of units identical to the input signal has a coarse output signal format because the number of learning input data to be stored is small. For this reason, after an associative input signal having a relatively small noise deterioration is input, the output signal is fed back to the
上記の説明のごとく、従来の自己連想メモリや相互連想メモリに多くの欠点を有している。自己連想ニューラルネットワーク22では、重み係数が持つ記憶容量が非常に小さく、多くの学習アトラクタを記憶できない。この記憶容量は、理論的に約0.12x入力層ユニット数で与えら、記憶容量を増加するためには、ニューラルネットワークが非常に複雑なものとなる。また、連想ループ処理に於いて、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点がある。更に、入出力ユニット数が同一で限定された構成であること、及びカテゴリ分類機能を持っておらず、応用が限られる欠点も併せ持っている。 As described above, the conventional self-associative memory and the mutual associative memory have many drawbacks. In the self-associative neural network 22, the storage capacity of the weight coefficient is very small, and many learning attractors cannot be stored. This storage capacity is theoretically given by about 0.12 × number of input layer units, and the neural network becomes very complicated in order to increase the storage capacity. Also, in the associative loop processing, there is a drawback that the attractor does not converge so much and is likely to diverge the attractor, but even if it converges to the attractor, it is not a desired learning attractor but a spurious attractor. is there. In addition, the configuration has the same number of input / output units and is limited, and has the disadvantage that it does not have a category classification function and its application is limited.
一方、従来の3層ニューラルネットワークによる相互連想メモリでは、粗コード出力型前進3層ニューラルネットワーク23が用いられることから、多くの学習アトラクタを記憶させる為には、前進3層ニューラルネットワーク23の出力層ユニット数を非常に大きくしなければならず、前進及び後進3層ニューラルネットワーク規模が非常に大きくなり、当然のことながら演算量が膨大となるとともに、正しい学習も困難となる欠点を持っている。また、同様の構成理由からスプリアス・アトラクタに非常に収束し易い欠点も有している。
更に、スプリアス・アトラクタの検出手段が無い事から、アトラクタ出力信号やアトラクタ収束識別信号を用いた応用処理システムでの誤動作の原因となるなどの欠点も持っている。
On the other hand, in the conventional associative memory using the three-layer neural network, the coarse code output type forward three-layer neural network 23 is used. Therefore, in order to store many learning attractors, the output layer of the forward three-layer neural network 23 is used. The number of units has to be very large, the forward and backward three-layer neural network scale becomes very large, naturally, the amount of computation becomes enormous, and correct learning is difficult. Also, for the same reason, it has a drawback that it is very easy to converge on the spurious attractor.
Further, since there is no spurious / attractor detection means, there is a disadvantage that it causes a malfunction in the application processing system using the attractor output signal or the attractor convergence identification signal.
本発明の目的は、上記の問題を解決し、従来のニューラルネットワークを用いた自己連想メモリや相互連想メモリなどに比べて、非常に大きな記憶容量を持たせることができると共に、スプリアス・アトラクタに落ち込むことも非常に少なく、アトラクタ発散状態も非常に少ない、然もアトラクタ検出識別機能及び連想入力信号の学習・非学習入力データの識別機能を持った非常に優れた高性能な多層ニューラルネットワークを用いた相互連想記憶装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems, and can have a very large storage capacity as compared with a self-associative memory and a mutual associative memory using a conventional neural network, and falls into a spurious attractor. Very few high-performance multi-layer neural networks with attractor detection / discriminating function and associative input learning / non-learning input data discriminating function The object is to provide an associative memory device.
上記の問題点を解決するために、第1の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段を従属接続し、前進連想入力信号を連想ループ回数の元に制御される入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力し(連想ループ回数n=0)、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワーク手段の出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 In order to solve the above-mentioned problem, as a first means, a forward neural network means that has been trained to transmit a teacher signal that is a learning attractor corresponding to the classification category to learning input data, Backward neural network means learned so that the learning input data can be sent to the teacher signal is cascade-connected, and the forward neural network is connected via an input changeover switch controlled based on the number of associative loops of the forward associative input signal. Once input to the network means (associative loop number n = 0) and obtaining the output signal of the backward neural network means, the output switch of the backward neural network means is input to the forward neural network means. And the output signal of the forward neural network means And an associative loop process (associative loop number n ≧ 1) for sequentially obtaining an output signal of the backward neural network means, and an associative memory device having an associative loop control processing means for performing associative loop number counting and control, By comparing the classification category number region prepared from the classification category numbers corresponding to all of the teacher signals with the classification category number corresponding to the output signal of the forward neural network means, the learning signal of the output signal is detected. An associative memory device comprising at least learning internal / external category identifying means for identifying a category is configured.
第2の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段とを用い、該後進ニューラルネットワーク手段に該前進ニューラルネットワーク手段を従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該前進ニューラルネットワーク手段の出力信号を得た後、該前進ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該前進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 As a second means, forward neural network means learned so as to be able to send a teacher signal which is a learning attractor corresponding to the classification category to the learning input data, and the learning input data to the teacher signal Reciprocal neural network means learned so that it can be transmitted, the forward neural network means is subordinately connected to the reverse neural network means, and associative loop control processing means for performing associative loop count counting and control In the storage device, the reverse associative input signal is temporarily input to the reverse neural network means via the input changeover switch (number of associative loops n = 0) to obtain the output signal of the forward neural network means, and then the forward The output signal of the neural network means is converted to the backward neural network. Performing an associative loop process (associative loop number n ≧ 1) for sequentially obtaining an output signal of the backward neural network means and an output signal of the forward neural network means by feeding back to the input of the network means via the input changeover switch, A learning internal / external category of the output signal is obtained by a comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the forward neural network means. A mutual associative memory device characterized by having at least a learning internal / external category identifying means for identifying.
第3の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段を従属接続し、前進連想入力信号を入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワークの出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワークと、該多層ニューラルネットワークからの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段と、該出力逆変換処理手段の出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第1の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワークニューラルネットワーク手段を少なくとも構成し、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 As a third means, to the learning input data, the learning input data is sent to the forward neural network means that has been learned so that the learning signal corresponding to the classification category can be transmitted to the learning input data. The backward neural network means trained so that it can be transmitted is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means via the input changeover switch (number of associative loops n = 0). After obtaining the output signal of the network means, the output signal of the backward neural network is fed back to the input of the forward neural network means via the input changeover switch, and the output signal of the forward neural network means and the backward neural network means Associative loop processing that sequentially obtains the output signal An associative loop control processing means for performing associative loop count n ≧ 1) and performing associative loop count counting and control, and a plurality of parallel-connected teacher signals for the classification category and Is a multi-layer neural network that has learned teacher signals for parallel connection having different allocation arrangements, and an output that inversely converts each output signal from the multi-layer neural network into an output signal of an output code system that is the basis of the teacher signal Learning that is composed at least of an inverse transform processing means and an output composite means for selectively sending out one output signal from the output signal of the output inverse transform processing means, and can send the teacher signal to the learning input data Using the first forward parallel complex neural network means, the forward neural network neural network. Class means corresponding to all of the teacher signals and a classification category number prepared in advance and a classification category number corresponding to the output signal of the first forward parallel composite neural network means And a learning internal / external category identifying means for identifying the learning internal / external category of the output signal by the comparison process.
第4の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段とを用い、該後進ニューラルネットワークに該前進ニューラルネットワークを従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワークと、該多層ニューラルネットワークからの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段と、該出力逆変換処理手段の出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第1の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該第1の前進並列複合ニューラルネットワーク手段の出力信号を得た後、該第1の前進並列複合ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該第1の前進並列複合ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 As a fourth means, forward neural network means learned so that a teacher signal which is a learning attractor corresponding to the classification category can be sent to the learning input data, and the learning input data is sent to the teacher signal. Reciprocal neural network means trained so that it can be transmitted, the forward neural network is connected to the reverse neural network as a subordinate, and associative memory having associative loop control processing means for counting and controlling associative loops A multi-layer neural network in which each parallel connection teacher signal having a different allocation arrangement from the teacher signal for the classification category connected in parallel is learned, and each of the multi-layer neural networks The output signal is output from the output code system that is the basis of the teacher signal. An output inverse transform processing means for inversely transforming into a signal, and an output composite means for selectively sending out one output signal from the output signal of the output inverse transform processing means, and the teacher signal for the learning input data Using the learned first forward parallel complex neural network means that can be transmitted, at least the forward neural network means is configured, and a reverse associative input signal is temporarily input to the reverse neural network means via an input changeover switch ( The number of associative loops n = 0) and obtaining the output signal of the first forward parallel composite neural network means, the output signal of the first forward parallel composite neural network means is input to the reverse neural network means as the input Feedback neural network means fed back via an input changeover switch Associative loop processing (associative loop count n ≧ 1) for sequentially obtaining an output signal and an output signal of the first forward parallel complex neural network means, and preparing in advance composed of classification category numbers corresponding to all of the teacher signals At least learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process between the classification category number region thus determined and the classification category number corresponding to the output signal of the first forward parallel complex neural network means The mutual associative memory device is characterized by having.
第5の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段を従属接続し、前進連想入力信号を入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワークの出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワークと、該多層ニューラルネットワークの出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第2の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 As a fifth means, the learning input data is input to the forward neural network means that has been trained so as to be able to transmit a teacher signal that is a learning attractor corresponding to the classification category to the learning input data. The backward neural network means trained so that it can be transmitted is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means via the input changeover switch (number of associative loops n = 0). After obtaining the output signal of the network means, the output signal of the backward neural network is fed back to the input of the forward neural network means via the input changeover switch, and the output signal of the forward neural network means and the backward neural network means Associative loop processing that sequentially obtains the output signal An associative memory device having an associative loop control processing means for performing associative loop count n ≧ 1) and performing associative loop count counting and control, wherein the learning input data is converted into different parallel learning input data. A conversion processing means; a plurality of parallel connected multi-layer neural networks that learn the parallel learning input data and the teacher signal; and an output composite that selectively transmits one output signal from the output signals of the multi-layer neural network. And at least the forward neural network means using the trained second forward parallel complex neural network means capable of transmitting the teacher signal to the learning input data, and Prepared classification categories composed of classification category numbers corresponding to all teacher signals. It has at least learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process between a Gori number area and a classification category number corresponding to the output signal of the second forward parallel composite neural network means. The characteristic associative memory device is constructed.
第6の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段とを用い、該後進ニューラルネットワークに該前進ニューラルネットワークを従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワークと、該多層ニューラルネットワークの出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第2の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該第2の前進並列複合ニューラルネットワーク手段の出力信号を得た後、該第2の前進並列複合ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該第2の前進並列複合ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 A sixth means is a forward neural network means that learns to be able to send a teacher signal that is a learning attractor corresponding to the classification category to the learning input data, and the learning input data is sent to the teacher signal. Reciprocal neural network means trained so that it can be transmitted, the forward neural network is connected to the reverse neural network as a subordinate, and associative memory having associative loop control processing means for counting and controlling associative loops An input conversion processing means for converting the learning input data into different parallel learning input data, and a plurality of parallel connected multi-layered neural circuits that have learned the parallel learning input data and the teacher signal One output signal from the output signal of the network and the multilayer neural network And at least the forward neural network means using the learned second forward parallel parallel neural network means capable of sending the teacher signal to the learning input data. The reverse associative input signal is temporarily input to the reverse neural network means via the input changeover switch (number of associative loops n = 0) to obtain the output signal of the second forward parallel complex neural network means, The output signal of the second forward parallel complex neural network means is fed back to the input of the reverse neural network means via the input changeover switch, and the output signal of the backward neural network means and the second forward parallel complex neural network are fed back. Associative loop to obtain the output signal of the means sequentially (Associative loop count n ≧ 1), the prepared classification category number region composed of the classification category numbers corresponding to all of the teacher signals and the output signal of the second forward parallel complex neural network means A mutual associative memory device characterized by comprising at least a learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process with a corresponding classification category number.
第7の手段として、第1、第3及び第5の手段の何れかの前記相互連想記憶装置にあって、連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク手段の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク手段の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段を有することを特徴とした相互連想記憶装置を構成する。 As a seventh means, in the mutual associative memory device of any one of the first, third and fifth means, the two input signals of the forward neural network means obtained through continuous associative loop processing A mutual associative memory device comprising attractor convergence state identifying means for identifying an attractor convergence state based on a matching state between two output signals corresponding to each other and between two output signals of the backward neural network means Configure.
第8の手段として、第2、4及び第6の手段の前記相互連想記憶装置にあって、連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク手段の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク手段の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段を有することを特徴とした相互連想記憶装置を構成する。 As an eighth means, there is the mutual associative memory device of the second, fourth and sixth means, and the two input signals of the backward neural network means obtained and correspondingly obtained through continuous associative loop processing The mutual associative memory device is characterized by having attractor convergence state identifying means for identifying the attractor convergence state based on the matching state between the two output signals and between the two output signals of the forward neural network means.
第9の手段として、第7の手段の前記アトラクタ収束状態識別手段にあって、前記前進連想入力信号を前記前進ニューラルネットワーク手段に入力し、対応した出力信号及び前記後進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、その後該後進ニューラルネットワーク手段の該出力信号を前記入力切替スイッチを介してフィードバックして該前進ニューラルネットワーク手段に入力し、対応した出力信号及び該後進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記前進ニューラルネットワーク手段の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段の学習内外カテゴリ識別信号とにより、前記前進ニューラルネットワーク手段に入力された前記前進連想入力信号の学習・非学習入力データ識別することを特徴とした相互連想記憶装置を構成する。 As ninth means, in the attractor convergence state identifying means of the seventh means, the forward associative input signal is inputted to the forward neural network means, and a corresponding output signal and an output signal of the backward neural network means are obtained. Associative loop processing with n = 0 associative loops respectively obtained, and then the output signal of the backward neural network means is fed back via the input changeover switch and input to the forward neural network means, and the corresponding output signal and the The matching state between the two input signals of the forward neural network means obtained through the associative loop processing of the associative loop number n = 1 for obtaining the output signals of the backward neural network means and the learning internal / external category identifying means The forward neural network according to the learning internal / external category identification signal Constituting the mutual associative memory apparatus characterized by learning and non-learning input data identification of the forward associative input signals input to the stage.
第10の手段として、第8の手段のアトラクタ収束状態識別手段にあって、前記後進連想入力信号を前記後進ニューラルネットワーク手段に入力し、対応した出力信号及び前記前進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、該前進ニューラルネットワーク手段の該出力信号を入力切替スイッチを介してフィードバックして該後進ニューラルネットワーク手段に入力し、対応した出力信号及び該前進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記後進ニューラルネットワーク手段の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段の学習内外カテゴリ識別信号とにより、前記後進ニューラルネットワーク手段に入力された前記後進連想入力信号の学習・非学習入力データ識別し、前記の一致状態で、学習内カテゴリ識別状態である場合のみ、学習入力データと識別することを特徴とした相互連想記憶装置を構成する。 The tenth means is an attractor convergence state identification means of the eighth means, wherein the reverse associative input signal is inputted to the reverse neural network means, and the corresponding output signal and the output signal of the forward neural network means are respectively input. Associative loop processing with n = 0 associative loops to be obtained, and the output signal of the forward neural network means is fed back via an input changeover switch and input to the reverse neural network means, and the corresponding output signal and the forward neural network The matching state between the two input signals of the backward neural network means obtained through the associative loop processing of the associative loop number n = 1 for obtaining the output signal of each means, and the learning inside / outside category of the learning inside / outside category identifying means Based on the identification signal, it is input to the backward neural network means. Further, a learning / non-learning input data of the backward associative input signal is identified, and the mutual associative memory device is characterized in that it is discriminated from the learning input data only when the matching state is the in-learning category identification state. .
第11の手段として、第7、8、9及び10の手段の何れかの前記相互連想記憶装置にあって、前記学習内外カテゴリ識別手段からの前記前進ニューラルネットワーク手段の出力信号に対する前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別手段からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で、学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理手段とを有することを特徴とした相互連想記憶装置を構成する。 The eleventh means is the mutual associative memory device of any one of the seventh, eighth, ninth and tenth means, wherein the learning internal / external category for the output signal of the forward neural network means from the learning internal / external category identifying means Based on the identification signal and the attractor convergence identification signal from the attractor convergence state identification means, in the attractor convergence state, if it is a non-learning category identification state, the spurious attractor identification and the learning / attractor identification if it is an in-learning category identification state. The mutual associative memory device is characterized by having at least attractor identification processing means.
第12の手段として、第11の手段の前記アトラクタ識別処理手段にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶装置を構成する。 As a twelfth means, in the attractor identification processing means of the eleventh means, from the attractor convergence identification signal and the learning inside / outside category identification signal, when the association loop number n = 1, If it is a category identification state, it is a learning attractor identification, if it is a non-learning category identification state, if it is One-Shot spurious attractor identification, the number of associative loops n> 1, if it is an attractor convergence state, if it is an in-learning category identification state, If the generalized learning / attractor identification and the non-learning category identification states are set, a generalized spurious / attractor identification is set.
第13の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理とを少なくとも有し、前進連想入力信号を該前進ニューラルネットワーク処理にて処理し出力信号を得え、更に、該出力信号を入力し該後進ニューラルネットワーク処理にて出力信号を得、その後、該出力信号を後進ニューラルネットワーク出力信号入力設定処理を介してフィードバック入力し該前進ニューラルネットワーク処理にて出力信号を得る連想ループ処理を行い、連想ループ回数を計数する連想ループ回数判定処理を有する相互連想記憶処理ソフトウェアにあって、該前進ニューラルネットワーク処理の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理と、連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク処理の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク処理の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理と、前記前進連想入力信号と連想ループ回数n=1に於ける該前進ニューラルネットワーク処理の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する前進連想入力信号学習・非学習入力データ識別処理と、前記学習内外カテゴリ識別処理からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェアを構成する。 As thirteenth means, forward neural network processing learned so as to be able to send out a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data for the teacher signal And a backward neural network processing learned so that it can be transmitted, a forward associative input signal is processed by the forward neural network processing to obtain an output signal, and the output signal is further input to the backward neural network. An output signal is obtained by processing, and then the output signal is fed back via a reverse neural network output signal input setting process, and an associative loop process is performed to obtain an output signal by the forward neural network process, and the number of associative loops is counted. Interactive Associative Memory Processing with Associative Loop Count Determination Processing In the software, by a comparison process between a classification category number corresponding to the output signal of the forward neural network processing and a classification category number region configured from classification category numbers corresponding to all the teacher signals of the forward neural network processing The learning internal / external category identifying process for identifying the learning internal / external category of the output signal and the continuous associative loop process between the two input signals of the forward neural network processing and the corresponding two output signals, the reverse Attractor convergence state identification processing for identifying the attractor convergence state based on the respective coincidence states between the two output signals of the neural network processing, and the forward neural network processing for the forward associative input signal and the association loop number n = 1 Between the two input signals and the learning internal / external Learning associated with the forward associative input signal and non-learning input data for identifying the forward associative input signal based on the learning internal / external category identification signal for the Gori identification process, and the learning from the learning internal / external category identifying process Based on the inside / outside category identification signal and the attractor convergence identification signal from the attractor convergence state identification process, if the attractor is in a non-learning category identification state, the spurious attractor identification and the learning / attractor identification is in a learning internal category identification state. And an associative memory processing software comprising at least an attractor identifying process.
第14の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理と、連想ループ回数を計数する連想ループ回数判定処理を少なくとも有する相互連想記憶処理ソフトウェアにあって、後進連想入力信号を該後進ニューラルネットワーク処理にて処理し出力信号を得え、更に、該出力信号を入力し該前進ニューラルネットワーク処理にて出力信号を得、その後、該出力信号を前進ニューラルネットワーク出力信号入力設定処理を介してフィードバック入力し該後進ニューラルネットワーク処理にて出力信号を得る連想ループ処理を行い、該前進ニューラルネットワーク処理の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理と、連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク処理の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク処理の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理と、前記後進連想入力信号と連想ループ回数n=1に於ける該後進ニューラルネットワーク処理の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する後進連想入力信号学習・非学習入力データ識別処理と、前記学習内外カテゴリ識別処理からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェアを構成する。 As a fourteenth means, forward neural network processing learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the learning input data is sent to the teacher signal. In the associative memory processing software having at least a reverse neural network process learned so that it can be transmitted and an associative loop number determination process for counting the number of associative loops, the reverse associative input signal is processed by the reverse neural network process The output signal is input, the output signal is input and the output signal is obtained by the forward neural network processing, and then the output signal is fed back via the forward neural network output signal input setting processing to input the reverse neural network. Associating output signals with network processing A comparison process between the classification category number corresponding to the output signal of the forward neural network processing and the classification category number region formed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing. The learning internal / external category identification process for identifying the learning internal / external category of the output signal, and the two input signals of the backward neural network processing and the corresponding two output signals obtained through the continuous associative loop process, Attractor convergence state identification processing for identifying attractor convergence state based on respective coincidence states between two output signals of forward neural network processing, and the backward neural network in the backward associative input signal and the number of associative loops n = 1 Processing input signal coincidence state between two input signals, and the learning internal and external categories The learning associative input signal learning / non-learning input data identification process for identifying the learning associative input signal learning / non-learning input data of the forward associative input signal and the learning internal / external category identification process from the learning internal / external category identification process, by the learning internal / external category identification signal Based on the category identification signal and the attractor convergence identification signal from the attractor convergence state identification process, if the attractor is in a non-learning category identification state in the convergence state, the spurious attractor identification and the learning / attractor identification is in the learning category identification state. The associative memory processing software is characterized by having at least attractor identification processing.
第15の手段として、第13の手段及び第14の手段の前記アトラクタ識別処理にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習・アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶処理ソフトウェアを構成する。 As a fifteenth means, in the attractor identification process of the thirteenth means and the fourteenth means, when the associative loop count n = 1 from the attractor convergence identification signal and the learning inside / outside category identification signal, the attractor convergence state In the learning category identification state, learning / attractor identification, and non-learning category identification state, One-Shot spurious / attractor identification, associative loop count n> 1, the category classification in learning in the attractor convergence state If it is in the state, generalized learning / attractor identification, and if it is in the non-learning category identification state, generalized spurious / attractor identification is set.
本発明の多層ニューラルネットワークによる相互連想メモリは、前進多層ニューラルネットワークの出力信号に於いて、密な2値コードを教師信号として割り当てた分散型出力形式を用い、更に、前進多層ニューラルネットワークの2値出力信号に対する学習内外カテゴリ識別と、連想入力信号の学習・非学習入力データ識別と、連想ループ処理に於いて、前進多層ニューラルネットワークの入力信号間及び出力信号間、更に後進多層ニューラルネットワークの出力信号間での夫々の一致比較によるアトラクタ収束状態識別及びアトラクタ識別とを行っている。 The mutual associative memory according to the multilayer neural network of the present invention uses a distributed output format in which a dense binary code is assigned as a teacher signal in the output signal of the forward multilayer neural network, and further the binary of the forward multilayer neural network. Learning internal / external category identification for output signal, learning / non-learning input data identification of associative input signal, and associative loop processing, between input signals and output signals of forward multi-layer neural network, and further output signal of reverse multi-layer neural network Attractor convergence state identification and attractor identification are performed by comparing each match between the two.
上記説明のごとく本発明の相互連想記憶装置は、分類カテゴリ番号を密に符号化した2値コードを前進多層ニューラルネットワークの2値教師信号として用いることから、連想ループ回数n=1の段階での、前進連想入力信号の学習・アトラクタ識別とOne-Shotスプリアス・アトラクタ識別、及び学習・非学習入力データの識別が瞬時にできる。更に、連想ループ処理に於いて、前進多層ニューラルネットワーク及び後進多層ニューラルネットワークの汎化状態を検出することにより、アトラクタ収束状態での汎化学習・アトラクタ識別や汎化スプリアス・アトラクタ識別もできる。また、非常に少ない連想ループ処理の基でアトラクタ収束状態が達成されるとともに、スプリアス・アトラクタの発生が非常に少ない。更に、非常に多量の学習アトラクタを自由且つ安定に記憶できるなど、従来装置にない、一段と優れた相互連想メモリを実現している。 As described above, the associative memory device of the present invention uses a binary code in which classification category numbers are densely encoded as a binary teacher signal of a forward multi-layer neural network. In addition, learning / attractor identification of the forward associative input signal and One-Shot spurious / attractor identification, and learning / non-learning input data can be instantly identified. Further, in the associative loop processing, generalization learning / attractor identification and generalized spurious / attractor identification in the attractor convergence state can be performed by detecting the generalization state of the forward multilayer neural network and the backward multilayer neural network. In addition, the attractor convergence state is achieved based on very few associative loop processes, and spurious attractors are very rarely generated. In addition, a much larger amount of learning attractors can be stored freely and stably, and a much more excellent associative memory that is not available in conventional devices is realized.
これらのことから、本発明の大容量の記憶能力を持った優れた相互連想記憶装置は、高速データ検索や、未知入力データによる不正アクセス検出などのセキュリティシステムへの応用や、ネットワーク障害検出システムなどへの応用、更には、多くの雑音により劣化した大容量の画像データなどの認識や劣化除去フィルタリングなどのパターン認識へ幅広く適用できる。 For these reasons, the excellent associative memory device having a large capacity of the present invention is applicable to security systems such as high-speed data retrieval, unauthorized access detection by unknown input data, network failure detection system, etc. Furthermore, it can be widely applied to pattern recognition such as recognition of large-capacity image data degraded by a large amount of noise and filtering for degradation removal.
本発明の実施形態の3層ニューラルネットワークを用いた相互連想メモリの1実施例を図1に示す。以下の本発明の多層ニューラルネットワークを用いた相互(ヘテロ)連想メモリの実施形態に於いて、その基本構成の説明を簡単にする為、2値教師信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。尚、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークなどの教師信号を用いて学習するニューラルネットワークであればよい。 An example of an associative memory using a three-layer neural network according to an embodiment of the present invention is shown in FIG. In the following embodiment of the mutual (hetero) associative memory using the multilayer neural network of the present invention, a three-layer neural network using a binary teacher signal is taken as an example to simplify the description of the basic configuration. The configuration and operation thereof will be described in detail. The present invention is not limited to a three-layer neural network, and any neural network that learns using a teacher signal such as a multilayer neural network having four or more layers may be used.
入力端子1に入力された前進連想入力信号と後進3層ニューラルネットワーク13からの出力信号の何れかを連想ループ制御処理部11からの制御信号により切替選択し、入力端子2を介して前進3層ニューラルネットワーク12へ送出すると共に、アトラクタ収束状態識別処理部14に送出する入力切り替えスイッチ10と、入力端子1から前進連想入力信号と入力端子18からの後進連想入力信号の何れかを連想ループ制御処理部11からの制御信号により切替選択し、アトラクタ収束状態識別処理部14に送出する入力切替スイッチ19と、入力端子2からの入力信号に対して2値出力信号を得、出力端子3から送出し、出力端子9から分類カテゴリ出力信号として送出するとともに、入力切り替えスイッチ17、学習内外カテゴリ識別処理部15、アトラクタ収束状態識別処理部14へ夫々送出する前進3層ニューラルネットワーク12と、前進3層ニューラルネットワーク12からの2値出力信号と端子18からの後進連想入力信号の何れかを連想ループ制御処理部11の制御により切替選択し、入力端子4を介して前記後進3層ニューラルネットワーク13に入力する入力切り替えスイッチ17と、入力端子4の入力信号に対する出力信号を入力切替スイッチ10及びアトラクタ収束状態識別処理部14へ夫々送出すると共に、アトラクタ出力信号として出力端子5から送出する後進3層ニューラルネットワーク13と、前進3層ニューラルネットワーク12からの2値出力信号が入力され、学習内外カテゴリ識別信号をアトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する学習内外カテゴリ識別処理部15と、連想ループ制御処理部11から初期設定され、入力切替スイッチ19からの連想入力信号と前進3層ニューラルネットワーク12の入力信号及び出力信号と後進3層ニューラルネットワーク13の出力信号とが入力され、アトラクタ識別処理部16及び出力端子8へアトラクタ収束識別信号を送出し、更に学習・非学習入力データ識別信号を出力端子7へ送出し、前記連想ループ制御処理部11へ連想ループ処理要求信号或いはアトラクタ収束信号を送出するアトラクタ収束状態識別処理部14と、学習内外カテゴリ識別処理部15から学習内外カテゴリ識別信号とアトラクタ収束状態識別処理部14からアトラクタ収束識別信号が入力され、連想ループ制御処理部11からアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号が入力され、アトラクタ識別信号を出力端子6へ送出する前記アトラクタ識別処理部16と、前進連想入力信号が入力端子1から入力される時、或いは後進連想入力信号が入力端子18から入力される時、前記入力切替スイッチ10、17及び19の切替設定制御を行い、アトラクタ収束状態識別処理部14の初期設定及びアトラクタ識別処理部16へアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号を送出し、更に連想ループ処理の開始及び終了を制御する連想ループ制御処理部11とから構成される。
Either a forward associative input signal input to the
以下に、これらの連想ループ処理の動作を説明する。連想ループ処理に先だって、前進3層ニューラルネットワーク12の学習入力データとしての学習アトラクタと、分類カテゴリに割り当てられた2値教師信号としての2値コードとからなる学習データを用いて前進3層ニューラルネットワーク12を予め学習させ、更に、前記の前進3層ニューラルネットワーク12の学習データとは逆配置の入出力関係を持つ学習データを用いて後進3層ニューラルネットワーク13を学習させ、夫々を設定しておく。ここでは、前進ニューラルネットワーク12の2値出力信号は、分類カテゴリを表す2値コードの分散型出力形式である。
The operation of these associative loop processes will be described below. Prior to the associative loop processing, the forward three-layer neural network using learning data including a learning attractor as learning input data of the forward three-layer
また、前進3層ニューラルネットワーク12の分類カテゴリ数(教師信号数)M個の分類カテゴリに割り当てられた2値教師信号に対応した0からM-1の連続した整数の通し番号の分類カテゴリ番号から構成された分類カテゴリ番号領域を設け、この領域の最大値(M-1)を最大分類カテゴリ番号Maxcatgとして、学習内外カテゴリ識別処理部15に予め設定する。更に、0からM-1のカテゴリ番号に2値教師信号としての分散型2値コードを対応させる。
The number of classification categories (the number of teacher signals) of the forward three-layer
ここでは、先ず、前進連想入力信号が入力端子1に入力される通常の場合についての動作を説明する。連想ループ制御処理部11に於いて連想ループ回数n=0を初期設定し、連想ループ制御信号を、入力切替スイッチ10、17、19の設定及びアトラクタ収束状態識別処理部14の連想ループ回数記憶及び入出力信号記憶の初期設定の為夫々送出する。端子1に前進連想入力信号X(0)が入力されると、入力切替スイッチ10は、入力端子1と入力端子2とが接続されるよう、また入力切替スイッチ17は、常に出力端子3と入力端子4とが接続されるよう、更に入力切替スイッチ19は、前進連想入力信号X(0)がアトラクタ収束状態識別処理部16に入力されるよう設定制御され、連想ループ処理が実行される。
入力端子1の雑音を多く含む画像データや一部の情報からなる画像データ、或いは、メモリ高速検索データとしての前進連想入力信号X(0)が入力切替スイッチ10を介して、学習済み前進ニューラルネットワーク12に入力され、更にアトラクタ収束状態識別処理部14へ入力され記憶される。
Here, first, the operation in the normal case where the forward associative input signal is input to the
Image data including a lot of noise at the
連想ループ回数n=0の場合に、前進連想入力信号X(0)に対応して、前進3層ニューラルネット12から2値出力信号Y(0)、更に後進3層ニューラルネット13から出力信号X(1)が得られる。また、連想ループ回数n(但し、n≧1)の場合には、連想ループ制御処理部11からの制御信号の基に、入力切替スイッチ10を介して入力端子2に後進3層ニューラルネットワーク13の出力信号X(n)が入力され、更に前進3層ニューラルネットワーク12から出力信号Y(n)、後進3層ニューラルネットワーク13から出力信号X(n+1)が夫々得られ、これらの比較の為に、アトラクタ収束状態識別処理部14に夫々入力され記憶される。
When the number of associative loops n = 0, the binary output signal Y (0) from the forward three-layer
学習内外カテゴリ識別処理部15では、前進3層ニューラルネットワーク12の2値出力信号Y(n)である分散型出力形式の2値コードから変換された整数値、即ち分類カテゴリ番号IcatgY(n)を得る。これを前記の最大分類カテゴリ番号Maxcatgと比較処理をする。
In the learning internal / external category
分類カテゴリ番号IcatgY(n)が予め与えられた前記の最大分類カテゴリ番号Maxcatgより大きい場合には、
即ち、
IcatgY(n)>Maxcatg (1)
を満足する場合には、前進3層ニューラルネットワーク12の2値出力信号Y(n)が学習外カテゴリの2値出力信号であると識別され、学習外カテゴリ識別信号を学習内外カテゴリ識別信号として、アトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する。
If the classification category number IcatgY (n) is greater than the previously given maximum classification category number Maxcatg,
That is,
IcatgY (n)> Maxcatg (1)
Is satisfied, the binary output signal Y (n) of the forward three-layer
一方、最大分類カテゴリ番号Maxcatg以下の場合には、
即ち、
IcatgY(n)≦Maxcatg (2)
を満たす場合には、前進3層ニューラルネットワーク12の2値出力信号Y(n)が学習内カテゴリの出力信号と識別され、学習内カテゴリ識別信号を学習内外カテゴリ識別信号として、アトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する。
このように、学習内外カテゴリ識別処理部15に於いて、2値教師信号とその分類カテゴリ番号間の割り当て規則に従った分類カテゴリ番号を介した演算処理により、学習内外カテゴリ識別が簡単にできる。
On the other hand, if the maximum category number is less than Maxcatg,
That is,
IcatgY (n) ≦ Maxcatg (2)
If the condition is satisfied, the binary output signal Y (n) of the forward three-layer
In this way, the learning inside / outside category
連想ループ回数nの連想ループ処理では、後進3層ニューラルネットからの出力信号X(n)が入力切替スイッチ10を介してフィードバックされ、前進3層ニューラルネット12に入力される。これに対応した前進3層ニューラルネット12からの2値出力信号Y(n)は、入力端子4を介して後進3層ニューラルネットワーク13へ、更に学習内外カテゴリ識別処理部15及びアトラクタ収束状態識別処理部14にそれぞれ送出される。また、出力端子9へ分類カテゴリ出力信号として出力される。
後進3層ニューラルネットワーク13は、入力された2値出力信号Y(n)に対する出力信号X(n+1)を出力し、アトラクタ収束状態識別処理部14及び入力切替スイッチ10へ夫々送出する。
In the associative loop process of the associative loop count n, the output signal X (n) from the reverse three-layer neural network is fed back via the
The reverse three-layer
アトラクタ収束状態識別処理部14では、表1の如く、これらの前進及び後進3層ニューラルネットワーク12、13の記憶された入出力信号を夫々比較し、アトラクタの収束状態識別を行い、One-Shotアトラクタ収束識別信号、アトラクタ収束直前識別信号、アトラクタ未収束識別信号の何れかのアトラクタ収束識別信号を出力端子8から送出すると共にアトラクタ識別処理部16へ送出する。更に、連想ループ制御処理部11へアトラクタ未収束状態ならば、連想ループ処理要求信号を、アトラクタ収束状態或いは汎化アトラクタ収束直前状態ならば、アトラクタ収束信号を送出する。また、連想ループ回数n=1の連想ループ処理に於いて、学習内外カテゴリ識別処理部15からの学習内外カテゴリ識別信号を基に、出力端子7から学習・非学習入力データ識別信号としての学習入力データ識別信号、或いは非学習入力データ識別信号の何れかを送出する。
As shown in Table 1, the attractor convergence state identification processing unit 14 compares the stored input / output signals of the forward and backward three-layer
アトラクタ識別処理部16では、アトラクタ収束状態識別処理部14からアトラクタ収束識別信号及び連想ループ制御処理部11からアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号が、また、学習内外カテゴリ識別処理部15から学習内外カテゴリ識別信号が夫々入力される。これら信号を基に、収束したアトラクタのアトラクタ識別信号として、学習・アトラクタ識別信号、汎化学習・アトラクタ識別信号、One-Shotスプリアス・アトラクタ識別信号、汎化スプリアス・アトラクタ識別信号及びアトラクタ発散識別信号の何れかを出力端子6から送出する。
In the attractor
更に、後進3層ニュウラルネット13からの2値出力信号が、学習・アトラクタ出力信号、汎化学習・アトラクタ出力信号、One-Shotスプリアス・アトラクタ出力信号、汎化スプリアス・アトラクタ出力信号或いはアトラクタ未収束出力信号の何れかのアトラクタ出力信号として、出力端子5から送出される。
Furthermore, the binary output signal from the reverse three-layer
ここで、前進連想入力信号X(0)が学習入力データの場合には、連想ループ回数n=0に於いて、常にそれに対応した2値教師信号である2値出力信号Y(0)が得られ、学習内外カテゴリ識別処理部15に於いて、式(2)を満足することから、学習内カテゴリと識別される。更に、入力切替スイッチ10を切替え、連想ループ回数n=1の連想ループ処理を行うと、同様に式(2)を満足し、学習内カテゴリと識別される。
Here, when the forward associative input signal X (0) is learning input data, the binary output signal Y (0), which is a binary teacher signal corresponding to the number of associative loops n = 0, is always obtained. Then, the learning inside / outside category
アトラクタ収束状態識別処理部14では、表1のように、前進及び後進3層ニューラルネットワーク12、13の入出力関係が、X(0)=X(1), Y(0)=Y(1), X(1)=X(2)となるOne-Shotアトラクタ収束状態となり、出力端子8からOne-Shotアトラクタ収束識別信号がアトラクタ収束識別信号として送出される。
また、学習内外カテゴリ識別処理部15でY(1)が学習内カテゴリと識別され、然も前進連想入力信号X(0)=X(1)であることから、前進連想入力信号X(0)が学習入力データであることが明かとなる。この結果、学習入力データ識別信号が学習・非学習入力データ識別信号として出力端子7に送出される。このように、連想ループ回数n=1の時点で、前進連想入力信号X(0)が学習入力データか非学習入力データかの識別が行われる。
In the attractor convergence state identification processing unit 14, as shown in Table 1, the input / output relationship between the forward and backward three-layer
Further, since the learning inside / outside category
更に、アトラクタ識別処理部16に於いて、連想ループ制御処理部11からのアトラクタ識別信号送出要求信号のもとに、アトラクタ収束識別信号としてのOne-Shotアトラクタ収束識別信号と学習内外カテゴリ識別信号としての学習内カテゴリ識別信号とからアトラクタの識別が行われ、学習・アトラクタ識別信号をアトラクタ識別信号として出力端子6に送出する。
また、後進3層ニューラルネットワーク13からの出力信号X(1)である学習・アトラクタ出力信号がアトラクタ出力信号として出力端子5に送出される。
Further, in the attractor
Further, a learning / attractor output signal which is an output signal X (1) from the reverse three-layer
一方、前進連想入力信号X(0)として、前記の学習入力データ以外の非学習入力データである未知入力データが入力された場合、連想ループ回数n=1で、学習内外カテゴリ識別処理部15でIcatgY(1)が学習外カテゴリと識別されていると、前進連想入力信号X(0)は非学習入力データで、即座に判明する。この時、表1に示すように、X(0)=X(1)、Y(0)=Y(1)、X(1)=X(2)の関係を満たすOne-Shotアトラクタ収束状態では、One-Shotスプリアス・アトラクタである。
On the other hand, when unknown input data that is non-learning input data other than the learning input data is input as the forward associative input signal X (0), the learning internal / external category
アトラクタ収束状態識別処理部14では、連想ループ回数n+1(但し、n≧1)に於いて、X(n)=X(n+1)、Y(n)=Y(n+1)、X(n+1)=X(n+2)の関係を満たす汎化アトラクタ収束状態になる場合には,その直前の連想ループ回数nに於いて必ず前進或いは後進3層ニューラルネットワーク12、13の何れかに於いて汎化状態が発生し、前進3層ニューラルネットワーク12が汎化状態の場合には、X(n-1)≠X(n)、Y(n-1)=Y(n)、X(n)=X(n+1)の関係が満たされる。一方、後進3層ニューラルネットワーク13が汎化状態の場合には、X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)=X(n+1)の関係が満たされる。何れの場合も、汎化アトラクタ収束直前状態となり、夫々アトラクタ収束直前識別信号が、出力端子8から送出される。
In the attractor convergence state identification processing unit 14, X (n) = X (n + 1), Y (n) = Y (n + 1), where the number of associative loops is n + 1 (where n ≧ 1). When a generalized attractor convergence state satisfying the relationship X (n + 1) = X (n + 2) is satisfied, the forward or backward three-layer
例えば、連想ループ回数n=1で、アトラクタ収束状態識別処理部14で、前進3層ニューラルネットワーク12の汎化状態によって、X(0)≠X(1)、Y(0)=Y(1)、X(1)=X(2)の関係となる汎化アトラクタ収束直前状態(n=2で汎化アトラクタ収束状態となる)が検出されると、出力端子8からアトラクタ収束直前識別信号が送出される。アトラクタ識別処理部16では、この時、前進3層ニューラルネットワーク12の出力信号Y(1)が学習内カテゴリと識別されると、汎化学習・アトラクタであることが判明し、汎化学習・アトラクタ識別信号が出力端子6から送出される。
一方、前進3層ニューラルネットワーク12の出力信号Y(1)が学習外カテゴリと識別されると、アトラクタ識別処理部16では、汎化スプリアス・アトラクタであることが判明し、汎化スプリアス・アトラクタ識別信号が出力端子6から送出される。尚、何れの場合も、前進連想入力信号は、非学習入力データである。
For example, when the number of associative loops n = 1, the attractor convergence state identification processing unit 14 determines X (0) ≠ X (1), Y (0) = Y (1) depending on the generalization state of the forward three-layer
On the other hand, when the output signal Y (1) of the forward three-layer
連想ループ制御処理部11では、アトラクタ収束状態識別処理部14からアトラクタ収束信号が入力されると、連想ループ処理を終了し、アトラクタ識別処理部16に対して、アトラクタ識別信号送出要求信号を送出する。また、アトラクタ識別処理部16では、2値出力信号Y(n)が学習内カテゴリであれば、汎化学習・アトラクタに収束しており、一方、学習外カテゴリであると汎化スプリアス・アトラクタに収束していることが判明し、夫々汎化学習・アトラクタ識別信号及び汎化スプリアス・アトラクタ識別信号が出力端子6から夫々送出される。
In the associative loop
また、連想ループ回数nが指定された連想ループ最大許容回数N以下で汎化アトラクタ収束直前状態にならない、即ち、X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)≠X(n+1)の関係の場合には、アトラクタ未収束状態で、不想起状態であることが判明する。アトラクタ収束状態識別処理部14から連想ループ制御処理部11へ連想ループ処理要求信号を送出とともに、アトラクタ未収束識別信号を出力端子8及びアトラクタ識別処理部16へ送出する。
連想ループ制御処理部11では、連想ループ回数nがN未満であると、連想ループ回数nをn+1とし、連想ループ処理を引き続き実施する。
In addition, when the number of associative loops n is equal to or less than the specified maximum allowable number of associative loops N, the state immediately before the generalized attractor convergence does not occur, that is, X (n-1) ≠ X (n), Y (n-1) ≠ Y ( In the case of the relationship of n), X (n) ≠ X (n + 1), it is found that the attractor has not converged and is a recollection state. The attractor convergence state identification processing unit 14 sends an associative loop processing request signal to the associative loop
If the associative loop count n is less than N, the associative loop
この時、連想ループ制御処理部11に於いて連想ループ回数n>Nの場合には,アトラクタ識別処理部16に対して、アトラクタ発散識別信号送出要求信号を送出し、連想ループ処理を終了する。アトラクタ識別処理部16では、連想ループ制御処理部11からのアトラクタ発散識別信号送出要求信号により、出力端子6を介してアトラクタ発散識別信号が送出される。
このことは、前進連想入力信号X(0)に対して、指定された連想ループ回数nがN以下でアトラクタ収束状態が得られず、不想起状態になったことを意味する。
新たな前進連想入力信号X(0)が入力端子1に入力されると、再び連想ループ回数n=0とし、上記の一連の連想ループ処理を実施する。
At this time, if the number of associative loops n> N in the associative loop
This means that, for the forward associative input signal X (0), the number of specified associative loops n is N or less and the attractor convergence state is not obtained, and a recollection state is entered.
When a new forward associative input signal X (0) is input to the
ここで、アトラクタ収束状態識別処理部14に於いて、表1に於ける連想ループ回数nでのアトラクタ収束状態と、前進3層ニューラルネットワーク12の入力信号のX(n-1)とX(n)間、出力信号のY(n-1)とY(n)間、及び後進3層ニューラルネットワーク13の出力信号のX(n)とX(n+1)間との関係を以下にまとめる。
Here, in the attractor convergence state identification processing unit 14, the attractor convergence state at the number of associative loops n in Table 1 and the input signals X (n−1) and X (n ), Between the output signals Y (n−1) and Y (n), and between the output signals X (n) and X (n + 1) of the reverse three-layer
連想ループ回数n(但し、N≧n≧1)の連想ループ処理に於いて、
X(n-1)=X(n)、Y(n-1)=Y(n)、X(n)=X(n+1) (3)
の状態であれば、アトラクタ収束状態である。
表1に示すように、特に、n=1で式(3)が成立した場合には、One-Shotアトラクタ収束状態である。前進連想入力信号X(0)=X(1)で、然もY(1)が学習内カテゴリであるならば、学習入力データであることが判明し、学習・アトラクタに収束している。一方、学習外カテゴリならば、前進連想入力信号X(0)は非学習入力データであり、One-Shotスプリアス・アトラクタと呼ぶスプリアス・アトラクタに収束している。
N≠1の場合には、直前に汎化状態を経て、アトラクタに収束する汎化アトラクタ収束状態となる。
In the associative loop processing of the associative loop number n (where N ≧ n ≧ 1),
X (n-1) = X (n), Y (n-1) = Y (n), X (n) = X (n + 1) (3)
Is the attractor convergence state.
As shown in Table 1, in particular, when Equation (3) holds when n = 1, the One-Shot attractor converges. If the forward associative input signal X (0) = X (1) and Y (1) is still within the learning category, it turns out that it is learning input data and converges to the learning / attractor. On the other hand, in the non-learning category, the forward associative input signal X (0) is non-learning input data and converges to a spurious attractor called a One-Shot spurious attractor.
When N ≠ 1, the generalized attractor converges to the attractor through the generalized state immediately before.
X(n-1)≠X(n)、Y(n-1)=Y(n)、X(n)=X(n+1) (4)
の状態であれば、前進3層ニューラルネットワーク12が汎化状態である。
また、
X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)=X(n+1) (5)
の状態であれば、後進3層ニューラルネットワーク13が汎化状態である。
X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)≠X(n+1) (6)
の状態であれば、アトラクタ未収束状態である。
X (n-1) ≠ X (n), Y (n-1) = Y (n), X (n) = X (n + 1) (4)
In this state, the forward three-layer
Also,
X (n-1) ≠ X (n), Y (n-1) ≠ Y (n), X (n) = X (n + 1) (5)
In this state, the reverse three-layer
X (n-1) ≠ X (n), Y (n-1) ≠ Y (n), X (n) ≠ X (n + 1) (6)
In this state, the attractor has not converged.
本発明の実施形態に於ける図1の学習内外カテゴリ識別処理部15に於いて、2値教師信号である密な2値コード全てを連続した通し番号に整数値変換した、即ち、0から最大分類カテゴリ番号Maxcatg(=M-1)の通し番号から構成された分類カテゴリ番号領域を設け、前進3層ニューラルネットワーク12の2値出力信号Y(n)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法について説明した。ここで、上記の分類カテゴリ番号領域を表すために必要となる最小ビット数以上の2値コードの分散型出力形式を持った2値出力信号を用いても良い。
In the learning inside / outside category
即ち、分散型出力形式の2値コードを表すためのビット数をQとすると、
Q ≧ Int[log2M] (7)
となるQを用いても良い。ここで、Int[x]は、xの小数切り上げ整数値を示す。
但し、Qとして、式(7)を満たす最小の整数値を用いることにより、学習外カテゴリを殆ど発生することはなく、スプリアス・アトラクタの発生を最小限に抑えることができる。特に、2値教師信号数Mが2のべき乗(M=2**Q)である場合には、所要最小ビット数Qを用いることにより、学習外カテゴリを発生することはなく、常に学習アトラクタか汎化学習アトラクタに収束し、One-Shot及び汎化スプリアス・アトラクタを発生しない、非常に優れた特性が実現される。
That is, if the number of bits for representing a binary code in a distributed output format is Q,
Q ≧ Int [log 2 M] (7)
Q may be used. Here, Int [x] represents an integer value obtained by rounding up x.
However, by using the smallest integer value satisfying Equation (7) as Q, almost no out-of-learning category is generated, and the occurrence of spurious attractors can be minimized. In particular, when the number of binary teacher signals M is a power of 2 (M = 2 ** Q), by using the required minimum number of bits Q, a non-learning category is not generated and is always a learning attractor. A very good characteristic that converges to the generalized learning attractor and does not generate a one-shot or generalized spurious attractor is realized.
また、学習内外カテゴリ識別処理部15に於ける2値教師信号に対応した分類カテゴリ番号が0から最大分類カテゴリ番号Maxcatgから構成された連続した分類カテゴリ番号領域の領域内外識別の他に、0以外の最小分類カテゴリ番号から最大分類カテゴリ番号の分類カテゴリ数ほどの連続した通し番号から構成された連続した分類カテゴリ番号領域に対して領域内外識別を行ってもよい。
更に、上記の連続した通し番号から構成された分類カテゴリ番号領域でなく、連続した整数番号の内、指定された不連続な整数値だけから構成された不連続な分類カテゴリ番号領域を設け、学習内外カテゴリ識別を行う為に、それらの2値コードを2値教師信号として前進3層ニューラルネットワーク12を、また、それらを学習入力データとして後進3層ニューラルネットワーク13を夫々学習させてもよい。
In addition, in the learning inside / outside category
Furthermore, instead of the classification category number area composed of the consecutive serial numbers described above, a discontinuous classification category number area composed only of the specified discontinuous integer values is provided in the continuous integer numbers, and the learning inside and outside are provided. In order to perform category identification, the forward three-layer
例えば、必要な2値教師信号数Mほど、指定個数毎置きに(例えば、2個毎置きの場合では、0、3、6、9、・・)分類カテゴリ番号を準備した不連続な分類カテゴリ番号領域(これらの分類カテゴリ番号以外は全て学習外カテゴリである。)を設け、この分類カテゴリ番号領域の分類カテゴリ番号を2値コード変換して2値教師信号に割り当ててもよい。
即ち、2値教師信号に対して、特定の整数値範囲毎、或いは特定の整数値毎などからなる規則的な分類カテゴリ番号領域の分類カテゴリ番号に対して2値コードを割り当て、これらを2値教師信号としてもよい。
For example, the required number of binary teacher signals M is a discontinuous classification category in which classification category numbers are prepared for every designated number (for example, in the case of every two, 0, 3, 6, 9,...). A number area (all categories other than these classification category numbers are non-learning categories) may be provided, and the classification category numbers in this classification category number area may be binary code converted and assigned to the binary teacher signal.
In other words, a binary code is assigned to a classification category number in a regular classification category number area composed of a specific integer value range or a specific integer value for a binary teacher signal, and these are converted into binary values. It may be a teacher signal.
また、従来方式で用いられている粗コード出力型前進3層ニューラルネットワーク23に於ける、何れか1つの出力層ユニットのみ1となり、他は全て0であるOne out of K(a winner takes all)の出力形式を前進3層ニューラルネットワーク12に於いて用いても良い。しかしながら、この場合には、前進及び後進ニューラルネットワーク12、13の規模が非常に大きくなり、然もスプリアス・アトラクタが非常に多く発生し、相互連想メモリとしての性能は必ずしも高くない。
Further, in the coarse code output type forward three-layer neural network 23 used in the conventional method, only one output layer unit is 1 and all others are 0. One out of K (a winner takes all) May be used in the forward three-layer
One out of Kの出力形式の2値教師信号を用いる場合には、学習内外カテゴリ識別処理部15に於いて、2値出力信号から変換された分類カテゴリ番号のModulo2演算処理を最大K回ほどくり返し、0でない結果が一度でも得られたならば、その分類カテゴリ番号を学習外カテゴリと識別し、全て0ならば学習内カテゴリとする学習内外カテゴリ識別方法を用いれば良い。或いは、2値出力信号Y(n)の1の出力層ユニット数が複数個存在している場合には、学習外カテゴリ、1個の場合には学習内カテゴリと識別する学習内外カテゴリ識別方法を用いてもよい。即ち、One out of K出力形式以外の2値出力信号の場合には、学習外カテゴリ、この出力形式に準拠している2値出力信号の場合には学習内カテゴリと識別してもよい。
尚、収束状態のアトラクタを、学習アトラクタと汎化学習アトラクタ、One-Shotスプリアス・アトラクタと汎化スプリアスアトラクタと夫々識別したが、これらを簡単に、学習アトラクタとスプリアス・アトラクタに識別してもよい。
When a binary teacher signal in the output format of One out of K is used, the learning inside / outside category
The attracted attractors are identified as the learning attractor and generalized learning attractor, and the One-Shot spurious attractor and generalized spurious attractor, respectively. .
本発明の実施形態に於ける上記の説明は、入力端子1の前進連想入力信号X(0)を入力切替スイッチ10を介して前進3層ニューラルネットワーク12に入力した場合のヘテロ連想メモリの動作に関するものである。この他に、図1の入力端子18の後進連想入力信号Y(0)を入力切替スイッチ17を介して後進3層ニューラルネットワーク13に入力するヘテロ連想メモリの動作について簡単に説明する。
The above description in the embodiment of the present invention relates to the operation of the hetero-associative memory when the forward associative input signal X (0) at the
後進連想入力信号Y(0)は、前進3層ニューラルネットワーク12の出力信号と同一の形式を持った分類カテゴリを示す2値コードである。曖昧な分類カテゴリを示す後進連想入力信号Y(0)に対して、連想ループ処理を介して正しい分類カテゴリとその学習アトラクタを出力端子9及び5から夫々取り出す場合や、分類カテゴリの教師信号に対応した後進連想入力信号Y(0)に対して、学習アトラクタ、即ち、学習入力データを読み出す場合に用いる。
The backward associative input signal Y (0) is a binary code indicating a classification category having the same format as the output signal of the forward three-layer
後進連想入力信号Y(0)を入力し、連想ループ処理を行うには、入力切替スイッチ10を後進3層ニュ−ラルネットワーク13の出力信号が入力端子2に常に入力されるよう設定する。 また、入力切替スイッチ19は、表2に示すアトラクタ収束状態識別の為の条件を設定する。更に、入力切替スイッチ17は、連想ループ回数n=0に於いて、入力端子18からの後進連想入力信号Y(0)を入力端子4を介して後進3層ニューラルネットワーク13に入力するよう設定する。その後の連想ループ回数n>0では、出力端子3と入力端子4とを接続し、前進3層ニューラルネットワーク12の出力信号が入力されるよう設定する。
アトラクタ収束状態識別処理部14に於いては、前進連想入力信号の場合の表1と異なり、表2に示すように、前進及び後進3層ニューラルネットワーク12,13の入出力関係からアトラクタ収束状態識別をする。他の動作は、前進連想入力信号X(0)の連想ループ処理の場合と同様である。
In order to input the reverse associative input signal Y (0) and perform the associative loop processing, the
In the attractor convergence state identification processing unit 14, unlike Table 1 in the case of the forward associative input signal, as shown in Table 2, the attractor convergence state identification is performed from the input / output relationship of the forward and backward three-layer
次に、本発明の実施形態に於ける図1に示す相互連想記憶処理に関して、前進連想入力信号X(0)が与えられた時の連想処理フローを図6に示す。尚、ここでは、前進3層ニューラルネットワーク及び後進3層ニューラルネットワークは、既に前記と同様夫々学習が完了していることを前提として処理フローを説明する。 Next, FIG. 6 shows an associative process flow when the forward associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 1 in the embodiment of the present invention. Here, the processing flow of the forward three-layer neural network and the reverse three-layer neural network will be described on the assumption that learning has already been completed in the same manner as described above.
前進連想初期設定処理100は、学習内外カテゴリ識別処理150に於ける最大分類カテゴリ番号Maxcatg及び連想ループ回数判定処理180に於ける連想ループ処理最大許容回数N、及びアトラクタ収束状態識別処理160への表1に示すアトラクア収束状態識別の条件設定など、初期パラメータ設定を行う。
連想ループ処理初期設定処理110は、連想ループ回数nの初期設定として、n=0の設定とアトラクタ収束状態識別処理160の内部状態の初期設定を行う。
前進連想入力信号入力設定処理120は、前進連想入力信号を学習済み前進3層ニューラルネットワーク処理130へ入力設定を行う。
The forward associative
The associative loop process
The forward associative input signal
前進3層ニューラルネットワーク処理130は、連想ループ回数n=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数nの場合には、後進3層ニューラルネットワーク出力信号入力設定処理200を介して入力設定された出力信号X(n)を処理し、2値出力信号Y(0)、Y(n)を夫々送出する。
学習内外カテゴリ識別処理150は、連想ループ回数n=0の場合には、前進ニューラルネットワークの2値出力信号Y(0)、或いは連想ループ回数nの場合には、2値出力信号Y(n)を分類カテゴリ番号IcatgY(0)、或いはIcatgY(n)に夫々変換する。
The forward three-layer
The learning internal / external
2値教師信号を変換して得られた連続した分類カテゴリ番号の内、予め与えられた最大分類カテゴリ番号Maxcatgと比較処理し、式(2)が成り立つならば、IcatgY(0)、IcatgY(n)は、それぞれ何れかの教師信号の分類カテゴリ番号と一致しており、学習内カテゴリとみなし、式(1)が成り立つならば、何れの教師信号の分類カテゴリ番号とも不一致であり、割り当てされていない分類カテゴリ番号であることから、学習外カテゴリと夫々識別し、学習内外カテゴリ識別信号を送出する。 Of the consecutive classification category numbers obtained by converting the binary teacher signal, comparison processing is performed with the maximum classification category number Maxcatg given in advance, and if equation (2) holds, IcatgY (0), IcatgY (n ) Match the classification category number of any teacher signal, and are considered to be in-learning categories, and if the formula (1) holds, they do not match the classification category number of any teacher signal and are assigned. Since there is no classification category number, it is identified as a non-learning category, and a learning inside / outside category identification signal is transmitted.
後進3層ニューラルネットワーク処理140では、連想ループ回数n=0の場合には前進3層ニューラルネットワーク処理130の2値出力信号Y(0)、或いは連想ループ回数nの場合にはY(n)を学習済み後進3層ニューラルネットワークに各々入力し、その出力信号X(1)、X(n+1)を夫々得る。
In the backward three-layer
アトラクタ収束状態識別処理160では、連想ループ回数n=0の場合には、アトラクタ収束状態識別を行わず、アトラクタ未収束状態とし、そのまま、アトラクタ収束状態判定処理170に進む。連想ループ回数n≠0では、連想ループ回数n-1及びnの場合の連続した2回の連想ループ処理での前進3層ニューラルネットワークへ夫々入力された入力信号X(n-1)とX(n)間、夫々の2値出力信号Y(n-1)とY(n)間、及びこれら2値出力信号Y(n-1)及びY(n)を夫々入力信号として処理した後進ニューラルネットワークの出力信号X(n)とX(n+1)間で夫々比較し、連想ループ回数n=1の時に式(3)が成立するとOne-Shotアトラクタ収束状態、連想ループ回数n≧1の場合、式(4)或いは式(5)の何れかが成立すると汎化アトラクタ収束直前状態と識別する。
In the attractor convergence
式(6)が成立すると、アトラクタ未収束状態と識別し、アトラクタ収束状態判定処理170を行う。
When Expression (6) is satisfied, the attractor is not yet converged, and attractor converged
アトラクタ収束状態判定処理170では、アトラクタ未収束状態であれば、連想ループ回数判定処理180に進む。それ以外のアトラクタ収束状態であれば、連想ループ回数n=1判定処理210へ進む。
連想ループ回数n=1判定処理210にて、連想ループ回数n=1の状態を検出すると、前進連想入力信号学習・非学習入力データ識別処理220に於いて、X(0)=X(1)、且つ学習内外カテゴリ識別処理150にて、Y(0)が学習内カテゴリと識別され、One-Shotアトラクタ収束状態であると、前進連想入力信号X(0)を学習入力データ、それ以外の場合には、非学習入力データとして識別する。連想ループ回数n=1で、前進連想入力信号X(0)の学習・非学習入力データ識別が行われる。連想ループ回数n≠1の場合には、アトラクタ識別処理230を直接行う。
In the attractor convergence
When the association loop count n = 1
連想ループ回数判定処理180では、連想ループ回数nが連想ループ最大許容回数N未満であれば、n←n+1設定処理190にて連想ループ回数nを1増加させる。
後進3層ニューラルネットワーク出力信号入力設定処理200では、X(n+1)を前進ニューラルネットワークの入力として設定する。その後、前回の連想ループ回数nの場合と同様に、前進3層ニューラルネットワーク処理130、学習内外カテゴリ識別処理150、後進3層ニューラルネットワーク処理140、アトラクタ収束状態識別処理160及びアトラクタ収束状態判定処理170を実施する。
In the associative loop
In the backward three-layer neural network output signal
一方、連想ループ回数判定処理180にて、アトラクタ収束状態判定処理170にてアトラクタ収束状態或いは汎化アトラクタ収束直前状態が得られず、連想ループ回数n≧Nならば、指定された回数Nの連想ループ処理に於いて、アトラクタに収束せず、前進連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想ループ処理を中止しアトラクタ識別処理230を行う。
On the other hand, in the associative loop
アトラクタ識別処理230では、連想ループ回数判定処理180で、n≧Nの場合には、アトラクタ未収束状態であればアトラクタ発散と識別する。また、One-Shotアトラクタ収束識別状態で、然も学習内外カテゴリ識別処理150で学習内カテゴリと識別された場合には、学習・アトラクタと識別する。学習外カテゴリと識別された場合には、One-Shotスプリアス・アトラクタと識別する。汎化アトラクタ収束直前状態であれば、学習内外カテゴリ識別処理150で学習内カテゴリと識別された場合には、汎化学習・アトラクタ、学習外カテゴリと識別された場合には、汎化スプリアス・アトラクタと夫々識別する。
In the
最終前進連想入力信号判定処理240では、連想ループ処理を行った前進連想入力信号が最終前進連想入力信号であるかの判定を行う。最終前進連想入力信号であれば、一連の連想ループ処理を完了する。でなければ、連想ループ処理初期設定処理110を行い、新たな前進連想入力信号に対して連想ループ処理を引き続き行う。
In the final forward associative input
上記の連想処理フローの説明は、前進連想入力信号X(0)が与えられた場合のものである。ここで、後進連想入力信号Y(0)が与えられた場合の連想処理フローを図7に示す。後進連想入力信号Y(0)の連想ループ処理の為には、前進連想初期設定処理300に於いて、学習内外カテゴリ識別処理150に於ける最大分類カテゴリ番号Maxcatg及び連想ループ回数判定処理180に於ける連想ループ処理最大許容回数N、及びアトラクタ収束状態識別処理320への表2に示すアトラクア収束状態識別の条件設定など、初期パラメータ設定を行う。
尚、ここで、図7の処理番号が図6の処理番号と同一番号の場合には、図6と同様の処理であり、説明は省略する。
The above description of the associative processing flow is for the case where the forward associative input signal X (0) is given. Here, FIG. 7 shows an associative process flow when the backward associative input signal Y (0) is given. In the associative loop process of the backward associative input signal Y (0), in the forward associative
Here, when the processing number in FIG. 7 is the same as the processing number in FIG. 6, the processing is the same as that in FIG.
後進連想入力信号入力設定処理310にて、後進連想入力信号Y(0)を後進3層ニューラルネットワーク処理140に入力設定する。その後、処理130及び140を経て、アトラクタ収束状態識別処理320を実施する。この処理では、表2に従って、アトラクタ収束状態の識別を行う。但し、連想ループ回数n=0では、識別を行わず、アトラクタ未収束状態として、アトラクタ収束状態判定処理170を実施する。
アトラクタ未収束状態の場合に、連想ループ回数N≧n≧1であると、前進3層ニューラルネットワーク出力信号入力設定処理330に於いて、前進3層ニューラルネットワークの出力信号を後進3層ニューラルネットワークに入力設定する。
In the reverse associative input signal
If the number of associative loops N ≧ n ≧ 1 when the attractor has not converged, the forward three-layer neural network output signal
後進連想入力信号Y(0)学習・非学習入力データ識別処理340では、アトラクタ収束状態識別処理320に於いて、連想ループ回数n=1の時、アトラクタ収束識別状態がOne-Shotアトラクタ収束状態であり、学習内外カテゴリ識別処理150での前進3層ニューラルネットワークの出力信号Y(1)が学習内カテゴリと識別されていると、後進連想入力信号Y(0)が学習を行った分類カテゴリを示す教師信号となることから、学習入力データと識別される。
In the backward associative input signal Y (0) learning / non-learning input
一方、学習外カテゴリと識別されている場合には、後進連想入力信号Y(0)は非学習入力データと識別する。表2に従って、アトラクタ識別処理230を行った後、最終後進連想入力信号判定処理350にて、後進連想入力信号Y(0)が最終後進連想入力信号Y(0)でなければ、新たな後進連想入力信号Y(0)を設定して、連想ループ処理を繰り返す。最終後進連想入力信号Y(0)であれば、連想ループ処理を完了する。
On the other hand, when it is identified as a non-learning category, the backward associative input signal Y (0) is identified as non-learning input data. After performing the
尚、本発明の実施形態では、汎化状態が発生した時点で、アトラクタ収束状態識別の為に、式(4)或いは式(5)により汎化アトラクタ収束直前状態を識別することを前提とし説明したが、この前進或いは後進3層ニューラルネットワークの汎化状態の信号を出力端子に送出してもよい。更に、表1及び表2に示すように、式(4)或いは式(5)による、アトラクタ収束状態識別としてのアトラクタ収束直前識別信号を用いる代わりに、連想ループ回数n≠1で、式(3)が成り立つ場合(連想ループ処理が汎化アトラクタ収束直前状態より1回ほど増える)に、汎化アトラクタ収束状態として、汎化アトラクタ収束識別信号を用いても良い。但し、この場合には、前進及び後進3層ニューラルネットワークのどちらで汎化状態が発生しているか不明となる。 In the embodiment of the present invention, it is assumed that when a generalized state occurs, the state immediately before the generalized attractor convergence is identified by formula (4) or formula (5) in order to identify the attractor converged state. However, a signal indicating the generalized state of the forward or backward three-layer neural network may be sent to the output terminal. Further, as shown in Tables 1 and 2, instead of using the identification signal immediately before attractor convergence as the attractor convergence state identification according to Equation (4) or Equation (5), Equation (3) ) Holds (the associative loop process increases about once from the state immediately before the generalized attractor convergence), the generalized attractor convergence identification signal may be used as the generalized attractor convergence state. In this case, however, it is unclear whether the generalized state occurs in the forward or backward three-layer neural network.
また、前進3層ニューラルネットワーク12や前進3層ニューラルネットワーク処理130に於いて、図4或いは図5に示す、汎化特性に非常に優れた並列複合ニューラルネットワークを代わりに用いても良い。前進並列複合ニューラルネットワーク40では、例えば、3並列接続された3層ニューラルネットワーク41、42、43は、学習入力データに対応した同一の分類カテゴリ割り当て配置を表す基本となる出力コード体系の2値コードに対して、夫々異なった出力コード体系に変換された2値コードの並列用教師信号割り当てを夫々用いて、学習を行った3層ニューラルネットワークである。
Further, in the forward three-layer
出力逆変換処理部44、45、46では、端子2の入力信号X(n)に対するこれらの並列ニューラルネットワーク41、42、43からの3個の2値出力信号が夫々入力され、同一分類カテゴリ割り当て配置を表す元のコード体系の2値コードに逆変換され送出される。出力複合処理部47では、元の2値コード体系に逆変換され得られたこれらの3個の2値コードに対して、例えば、出力複合方式として、多数決選択(Majority Voting)を用いて、最終的な1個の2値コードを選択し端子3から2値出力信号Y(n)として送出する。或いは、出力複合方式として、学習入力データに対する中間層2値出力信号を基準に入力信号に対する中間層2値出力とのハミング距離を元に、最終出力選択を行なっても良い。
In the output inverse transform processing units 44, 45, and 46, three binary output signals from these parallel
図4の並列複合ニューラルネットワーク40では、並列接続の3層ニューラルネットワークに対して同一の分類カテゴリ割り当て配置に対して異なる2値コードの並列用教師信号を用いて学習させたが、図5の並列複合ニューラルネットワーク50では、例えば、3並列接続された3層ニューラルネットワーク41、42、43は、分類カテゴリ割り当て配置を表す2値コードの同一の教師信号に対して、元の学習入力データを、例えば、ハッシュ関数などによる入力変換処理部51、52、53を介して変換した夫々異なる並列用学習入力データを対応させ、学習を行っている。
In the parallel composite
これらの複合並列複合ニューラルネットワーク40、50は、単一の3層ニューラルネットワークより格段に優れた汎化能力を持っていることから、少なくとも前進3層ニューラルネットワーク12の代わりに用いることにより、アトラクタ吸引力は格段に改善され、学習入力データから大きく距離が離れた前進連想入力信号に対してもスプリアス・アトラクタやアトラクタ発散状態は殆ど発生しない。複雑にはなるが、更なる改善の為に、後進3層ニューラルネットワーク13に対しても代わりに同様の構造を持つ後進並列複合ニューラルネットワークを用いてもよい。
Since these complex parallel complex
上記の実施形態の相互連想メモリでは、記憶量に対応した前進3層ニューラルネットワーク12の学習入力データである学習アトラクタの数が非常に多い場合、即ち相互連想記憶の所要記憶量が非常に大きい場合にも、3層ニューラルネットワークの中間層ユニット数を増やすことで、学習を確実に正しく収束させることができ相互連想記憶を実現することが可能である。従って、記憶容量を従来方式の自己連想メモリより飛躍的に増加させられる。
In the associative memory of the above embodiment, when the number of learning attractors as learning input data of the forward three-layer
また、従来の自己連想メモリでは、記憶容量の制限から記憶できる学習アトラクタとして、代表的なものに限られ、然も互いに余り相関のない学習アトラクタであることの制限があったが、本実施形態の相互連想メモリでは、この代表的な学習アトラクタ以外に、それらに似た大きな相関を持った複雑な入力データも学習アトラクタとして多く記憶でき、然も複雑な前進連想入力信号や後進連想入力信号に対しても学習或いは汎化学習アトラクタに収束させることができる。 In the conventional self-associative memory, the learning attractor that can be stored due to the limitation of the storage capacity is limited to a representative one, and there is a restriction that the learning attractors are not much correlated with each other. In addition to these typical learning attractors, this mutual associative memory can store a large amount of complex input data with a large correlation similar to them as learning attractors, but it can also store complex forward associative input signals and backward associative input signals. In contrast, learning or generalized learning attractors can be converged.
本発明の実施形態では、3層ニューラルネットワークを用いた場合について説明したが、3層以上の多層ニューラルネットワークでも良い。更に、多層ニューラルネットワークに限ることなく、入出力が同一の形式を持った2値教師信号を利用して学習させたニューラルネットワークでもよい。 In the embodiment of the present invention, the case where a three-layer neural network is used has been described, but a multilayer neural network having three or more layers may be used. Furthermore, the present invention is not limited to a multilayer neural network, and may be a neural network trained using a binary teacher signal having the same input / output format.
また、分類カテゴリに対して密な分散型2値コードを用い高い汎化能力を持った前進3層ニューラルネットワークを用い、前進及び後進3層ニューラルネットワーク12、13の教師信号への汎化能力によって高いアトラクタ吸引力を実現している。
従って、学習アトラクタから離れた前進連想入力信号に対しても簡単に学習アトラクタに収束させることができる。特に、本発明の相互連想記憶装置では、前進3層ニューラルネットワーク12の2値教師信号として、密な分散型2値出力形式を用い、2値教師信号から変換された連続した通し番号が分類カテゴリ番号として割当られていることから、連想ループ処理に於ける汎化学習アトラクタへの収束能力が従来方式よりも非常に高く、スプリアス・アトラクタも発生しにくい。
Further, a forward three-layer neural network having a high generalization ability using a dense distributed binary code for the classification category is used, and the generalization ability to the teacher signals of the forward and backward three-layer
Therefore, it is possible to easily converge the forward associative input signal away from the learning attractor to the learning attractor. In particular, in the associative memory device of the present invention, a continuous serial number converted from a binary teacher signal using a dense distributed binary output format as a binary teacher signal of the forward three-layer
更に、図4及び図5に示す汎化特性に非常に優れた並列複合ニューラルネットワークを前進3層ニューラルネットワーク12の代わりに用いることにより、一段と優れた相互連想メモリを実現することもできる。
また、前進連想入力信号X(0)が、学習入力データで、学習アトラクタそのものであるか、或いは非学習入力データであるか、連想ループ回数n=1の連想ループ処理で識別できる特徴を有し、自己連想メモリとは異なり正確なカテゴリ分類を行うことが出来る特徴も持っている。
Furthermore, by using the parallel composite neural network having excellent generalization characteristics shown in FIG. 4 and FIG. 5 in place of the forward three-layer
In addition, the forward associative input signal X (0) is a learning input data, whether it is a learning attractor itself or non-learning input data, and has a feature that can be identified by an associative loop process of associative loop count n = 1. Unlike self-associative memory, it has a feature that enables accurate categorization.
連想ループ回数n=1で識別される学習アトラクタ、連想ループ処理を繰り返す事により収束した汎化学習アトラクタ、或いは有意な情報を持っていないOne-Shotや汎化スプリアス・アトラクタを簡単に識別するアトラクタ識別を行うことによって、アトラクタ出力信号や分類カテゴリ出力信号を利用する応用処理システムでの誤動作を防ぐことや、誤動作警報を応用処理システムに送出することができるなどの特徴も有している。 A learning attractor identified by the association loop count n = 1, a generalized learning attractor that has converged by repeating associative loop processing, or an attractor that easily identifies one-shots or generalized spurious attractors that do not have significant information By performing the identification, it is possible to prevent malfunctions in the application processing system using the attractor output signal and the classification category output signal, and to send a malfunction alarm to the application processing system.
以上述べたように、従来の自己連想メモリでは、そのデータ記憶容量が非常に少ない。
また、従来の相互連想メモリ装置は、データ記憶容量は大きくできるが、スプリアス・アトラクタが多く発生し、然も後進多層ニューラルネットワークからのアトラクタ出力信号は、所望の学習アトラクタかスプリアス・アトラクタかの区別ができなことから、この出力信号を用いた応用処理システムでは誤動作が避けられない。
As described above, the conventional self-associative memory has a very small data storage capacity.
In addition, although the conventional associative memory device can increase the data storage capacity, a lot of spurious attractors are generated, and the attractor output signal from the backward multi-layer neural network can be distinguished from the desired learning attractor or spurious attractor. Therefore, malfunctions are unavoidable in the application processing system using this output signal.
更に、前進ニューラルネットワークにおけるK個の出力層ユニットがOne out of K 出力形式で、粗い2値コードの2値教師信号を用いて学習していることから、汎化能力も低く正しい分類カテゴリ出力信号が得にくく、然もアトラクタ出力信号がスプリアス・アトラクタに引き込まれる場合が非常に多い。また、連想ループ処理に於けるアトラクタ吸引力(収束力)が小さく、アトラクタ発散状態になる場合も多い。
更に、記憶データ数を増加させる為、2値教師信号数を大きくすると、粗い2値コードを用いているために前進及び後進ニューラルネットワーク規模が非常に大きくなるなど数々の欠点がある。
Furthermore, since K output layer units in the forward neural network are trained using a binary teacher signal of coarse binary code in the one out of K output format, the correct category category output signal has low generalization ability. However, the attractor output signal is often pulled into the spurious attractor. Further, the attracting force (convergence force) in the associative loop process is small, and the attractor diverges in many cases.
Furthermore, if the number of binary teacher signals is increased in order to increase the number of stored data, there are a number of disadvantages such as the scale of forward and backward neural networks becomes very large due to the use of coarse binary codes.
これに対して、本発明の相互連想メモリ装置は、上記説明のごとく、密な2値コードの分散型出力形式を持った2値教師信号を前進3層ニューラルネットワークに学習させることから、汎化能力も高く、必要な3層ニューラルネットワーク規模も小さくできる。また、スプリアス・アトラクタへの収束やアトラクタ発散状態などになることが非常に少なく、然も汎化学習アトラクタへの高速収束が可能であるなど多くの点で優れている。 On the other hand, the mutual associative memory device according to the present invention, as described above, allows the forward three-layer neural network to learn a binary teacher signal having a dense binary code distributed output format. The capability is high and the required three-layer neural network scale can be reduced. In addition, the convergence to the spurious attractor and the attractor divergence state are very rare, and the high speed convergence to the generalized learning attractor is possible.
更に、中間層ユニット数を増やす事により、スプリアス・アトラクタの発生を増加させることもなく、また、アトラクタ吸引力にも影響を与えず、非常に多量の学習アトラクタを正しく記憶できる相互連想記憶が実現される。また、前進連想入力信号の学習・非学習入力データ識別、収束したアトラクタの学習・アトラクタ及びスプリアス・アトラクタ間の詳細な識別能力を有していることから、実用の為の一段と優れた特性を実現できる。また、アトラクタ出力信号だけでなく、これらの識別出力や分類カテゴリ出力信号なども用いた、幅広い応用処理システムに適用できる。 Furthermore, by increasing the number of intermediate layer units, it is possible to realize mutual associative memory that can correctly store a large amount of learning attractors without increasing the generation of spurious attractors and without affecting the attracting force of attractors. Is done. In addition, it has advanced associative input signal learning / non-learning input data identification, converged attractor learning / detailing ability between attractors and spurious attractors, so it has much better characteristics for practical use. it can. Further, the present invention can be applied to a wide range of application processing systems that use not only the attractor output signal but also these identification output and classification category output signal.
このようにヘテロ連想記憶の構造面及び特性面で非常に優れており、種々の応用に合わせた自由な設計が可能で、然も信頼性も優れている。従って、従来の自己或いは相互連想記憶装置では、記憶容量だけでなく、アトラクタ収束速度(吸引力)、多くのスプリアス・アトラクタの発生などに関しても、種々の実用上の制約があったが、これらの問題を解決できる。
更に、収束アトラクタの識別能力と、前進連想入力信号に対する前進3層ニューラルネットワークの高い汎化能力と精度の高いカテゴリ分類能力とにより、分類カテゴリ出力信号をも得ることができ、分類カテゴリ機能を用いた応用処理システムにも接続できる。
As described above, the structure and characteristics of the hetero associative memory are very excellent, and a free design according to various applications is possible, and the reliability is also excellent. Therefore, the conventional self-associative memory device has various practical restrictions on not only the storage capacity but also the attractor convergence speed (suction force) and the generation of many spurious attractors. Can solve the problem.
Furthermore, the classification category output signal can be obtained by the discrimination ability of the convergence attractor, the high generalization ability of the forward three-layer neural network for the forward associative input signal, and the high-precision category classification ability. It can also be connected to the applied processing system.
上記の幅広い効果から、本発明の大容量の記憶能力を持った相互連想記憶装置は、セキュリティ管理システムや不正アクセス検出などのセキュリティシステムへの応用、バイオメトリクスに於ける各種高機能なパターン認識や多くの雑音などにより劣化した大容量の画像データなどの認識への応用、高速データ検索などへの応用、更にはネットワーク障害状態の異常状態検出などネットワーク障害検出システムへの応用など、非常に幅広く適用できる特徴を有している。 Because of the above-mentioned wide range of effects, the associative memory device having a large capacity of the present invention is applicable to security management systems and security systems such as unauthorized access detection, various high-performance pattern recognition in biometrics, Application to recognition of large-capacity image data degraded by a lot of noise, etc., application to high-speed data retrieval, etc., and application to network fault detection systems such as abnormal detection of network fault status, etc. It has the characteristics that can be.
1 前進連想入力信号の入力端子
2 前進ニューラルネットワークの入力端子
3 前進ニューラルネットワークの出力端子
4 後進ニューラルネットワークの入力端子
5 アトラクタ出力信号の出力端子
6 アトラクタ識別信号の出力端子
7 前進連想入力信号の学習・非学習入力データ識別信号の出力端子
8 アトラクタ収束識別信号の出力端子
9 分類カテゴリ出力信号の出力端子
10 入力切替スイッチ
11 連想ループ制御処理部
12 前進3層ニューラルネットワーク
13 後進3層ニューラルネットワーク
14 アトラクタ収束状態識別処理部
15 学習内外カテゴリ識別処理部
16 アトラクタ識別処理部
17 入力切替スイッチ
18 後進連想入力信号の入力端子
19 入力切替スイッチ
20 連想ループ制御処理部
21 アトラクタ収束状態識別処理部
22 自己連想ニューラルネットワーク
23 粗コード出力型前進3層ニューラルネットワーク
24 後進3層ニューラルネットワーク
29 連想入力信号の入力端子
30 自己連想ニューラルネットワークの入力端子
31 アトラクタ出力信号の出力端子
32 アトラクタ収束識別信号の出力端子
40 前進並列複合ニューラルネットワーク処理部
41 3層ニューラルネットワーク
42 3層ニューラルネットワーク
43 3層ニューラルネットワーク
44 出力変換処理部
45 出力変換処理部
46 出力変換処理部
47 出力複合処理部
50 前進並列複合ニューラルネットワーク処理部
51 入力変換処理部
52 入力変換処理部
53 入力変換処理部
100 前進連想初期設定処理
110 連想ループ処理初期設定処理
120 前進連想入力信号入力設定処理
130 前進3層ニューラルネットワーク処理
140 後進3層ニューラルネットワーク処理
150 学習内外カテゴリ識別処理
160 アトラクタ収束状態識別処理
170 アトラクタ収束状態判定処理
180 連想ループ回数判定処理
190 連想ループ回数n=n+1設定処理
200 後進3層ニューラルネットワーク出力信号入力設定処理
210 連想ループ回数n=1判定処理
220 前進連想入力信号学習・非学習入力データ識別処理
230 アトラクタ識別処理
240 最終前進連想入力信号判定処理
300 後進連想初期設定処理
310 前進連想入力信号入力設定処理
320 アトラクタ収束状態識別処理
330 前進3層ニューラルネットワーク出力信号入力設定処理
340 後進連想入力信号学習・非学習入力データ識別処理
350 最終後進連想入力信号判定処理
1 Input terminal of forward associative input signal 2 Input terminal of forward neural network 3 Output terminal of forward neural network 4 Input terminal of reverse neural network 5 Output terminal of attractor output signal 6 Output terminal of attractor identification signal 7 Output terminal of learning / non-learning input data identification signal of forward associative input signal 8 Output terminal of attractor convergence identification signal 9 Classification category output signal Output terminal 10 input selector switch 11 associative loop control processing unit 12 forward three-layer neural network 13 reverse three-layer neural network 14 attractor convergence state identification processing unit 15 learning internal / external category identification processing unit 16 attractor identification processing unit 17 input changeover switch 18 reverse Associative input signal input terminal 19 Input changeover switch 20 Associative loop control processing unit 21 Attractor convergence state identification processing unit 22 Self-associative neural network 23 Coarse code output type forward three-layer neural network 24 Reverse three-layer Neural network 29 Input terminal of associative input signal 30 Input terminal of self-associative neural network 31 Output terminal of attractor output signal 32 Output terminal of attractor convergence identification signal 40 Forward parallel composite neural network processing unit 41 Three-layer neural network 42 Three-layer neural network 43 three-layer neural network 44 output conversion processing unit 45 output conversion processing unit 46 output conversion processing unit 47 output composite processing unit 50 forward parallel composite neural network processing unit 51 input conversion processing unit 52 input conversion processing unit 53 input conversion processing unit 100 forward Associative initial setting processing 110 Associative loop processing initial setting processing 120 Forward associative input signal input setting processing 130 Forward three-layer neural network processing 140 Reverse three-layer neural network processing 150 Learning internal / external category identification processing 160 Attractor convergence state identification processing 170 Attractor convergence state determination processing 180 Association loop number determination processing 190 Association loop number n = n + 1 setting processing 200 Reverse three-layer neural network output signal input setting processing 210 Association loop number n = 1 determination processing 220 forward associative input signal learning / non-learning input data identification processing 230 attractor identification processing 240 final forward associative input signal determination processing 300 reverse associative initial setting processing 310 forward associative input signal input setting processing 320 attractor convergence state identification processing 330 Forward three-layer neural network output signal input setting process 340 Reverse associative input signal learning / non-learning input data identification process 350 Final reverse associative input signal determination process
Claims (15)
前進連想入力信号を連想ループ回数の元に制御される入力切替スイッチ10を介して該前進ニューラルネットワーク手段12に一旦入力し(連想ループ回数n=0)、該後進ニューラルネットワーク手段13の出力信号を得た後、該後進ニューラルネットワーク手段13の出力信号を該前進ニューラルネットワーク手段12の入力に前記入力切替スイッチ10を介してフィードバックし、該前進ニューラルネットワーク手段12の出力信号及び該後進ニューラルネットワーク手段13の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段12の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. Subordinately connecting the backward neural network means 13 learned as described above,
The forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 controlled based on the number of associative loops (the number of associative loops n = 0), and the output signal of the backward neural network means 13 is input. After being obtained, the output signal of the backward neural network means 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the backward neural network means 13 are fed back. An associative loop process (associative loop number n ≧ 1) for sequentially obtaining output signals of the associative loop, and an associative memory device having an associative loop control processing means 11 for counting and controlling the associative loop number,
Learning of the output signal is performed by comparing the prepared category category number region composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the forward neural network means 12. A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying an internal / external category.
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該前進ニューラルネットワーク手段12の出力信号を得た後、該前進ニューラルネットワーク手段12の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該前進ニューラルネットワーク手段12の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段12の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network means 12 being subordinately connected to the backward neural network means 13 In the device,
The backward associative input signal is temporarily input to the backward neural network means 13 via the input changeover switch 17 (the number of associative loops n = 0) to obtain the output signal of the forward neural network means 12, and then the forward neural network means. 12 associative loop processing for feeding back the output signal of the backward neural network means 13 and the output signal of the forward neural network means 12 sequentially by feeding back the 12 output signals to the input of the backward neural network means 13 via the input changeover switch 17. (Associative loop count n ≧ 1)
Learning of the output signal is performed by comparing the prepared category category number region composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the forward neural network means 12. A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying an internal / external category.
複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41,42,43からの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段44,45,46と、該出力逆変換処理手段44、45、46の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第1の前進並列複合ニューラルネットワーク手段40を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段40の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. The backward neural network means 13 trained as described above is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 (number of associative loops n = 0). After the output signal of 13 is obtained, the output signal of the backward neural network 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the reverse The output signal of the neural network means 13 Follow obtain associative loop (associative loop count n ≧ 1), be in mutually associative memory device having an associative loop control processing means 11 for performing the control and associative loop count counting,
A plurality of parallel neural networks 41, 42, 43 that have learned respective parallel connection teacher signals having an allocation arrangement different from the teacher signal for the classification category, and the multilayer neural networks 41, 42 , 43 are inversely transformed into output signals of the output code system that is the basis of the teacher signal, and output of the output inverse transformation processing means 44, 45, 46 A first forward parallel complex neural network means 40 that is trained to be capable of sending the teacher signal to the learning input data, comprising at least an output composite means 47 that selectively sends out one output signal from the signal. Using at least the forward neural network means 12;
A comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the first forward parallel composite neural network means 40, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41,42,43からの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段44,45,46と、該出力逆変換処理手段44、45、46の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第1の前進並列複合ニューラルネットワーク手段40を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該第1の前進並列複合ニューラルネットワーク手段40の出力信号を得た後、該第1の前進並列複合ニューラルネットワーク手段40の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該第1の前進並列複合ニューラルネットワーク手段40の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段40の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory device having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network 12 being cascade-connected to the backward neural network 13 There,
A plurality of parallel neural networks 41, 42, 43 that have learned respective parallel connection teacher signals having an allocation arrangement different from the teacher signal for the classification category, and the multilayer neural networks 41, 42 , 43 are inversely transformed into output signals of the output code system that is the basis of the teacher signal, and output of the output inverse transformation processing means 44, 45, 46 A first advanced parallel complex neural network means 40 that has been learned and is composed of at least an output composite means 47 that selectively sends out one output signal from the signal, and that can send the teacher signal to the learning input data. At least the forward neural network means 12;
After the reverse associative input signal is once inputted to the reverse neural network means 13 via the input changeover switch 17 (the number of associative loops n = 0) and the output signal of the first forward parallel complex neural network means 40 is obtained, The output signal of the first forward parallel complex neural network means 40 is fed back to the input of the backward neural network means 13 via the input changeover switch 17, and the output signal of the backward neural network means 13 and the first advance Perform an associative loop process (associative loop count n ≧ 1) for sequentially obtaining the output signal of the parallel composite neural network means 40,
A comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the first forward parallel composite neural network means 40, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段51、52、53と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41、42、43の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第2の前進並列複合ニューラルネットワーク手段50を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段50の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. The backward neural network means 13 trained as described above is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 (number of associative loops n = 0). After the output signal of 13 is obtained, the output signal of the backward neural network 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the reverse The output signal of the neural network means 13 Follow obtain associative loop (associative loop count n ≧ 1), be in mutually associative memory device having an associative loop control processing means 11 for performing the control and associative loop count counting,
Input conversion processing means 51, 52, 53 for converting the learning input data into different parallel learning input data, and a multi-layer neural network that learns the parallel learning input data and the teacher signal connected in parallel. Network 41, 42, 43, and output composite means 47 for selectively sending out one output signal from the output signals of the multilayer neural networks 41, 42, 43, and the teacher signal for the learning input data At least the forward neural network means 12 is configured with a learned second forward parallel complex neural network means 50 that can be delivered;
By comparing the prepared category category number area composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the second forward parallel composite neural network means 50, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段51、52、53と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41、42、43の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第2の前進並列複合ニューラルネットワーク手段50を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該第2の前進並列複合ニューラルネットワーク手段50の出力信号を得た後、該第2の前進並列複合ニューラルネットワーク手段50の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該第2の前進並列複合ニューラルネットワーク手段50の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段50の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。 The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory device having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network 12 being cascade-connected to the backward neural network 13 There,
Input conversion processing means 51, 52, 53 for converting the learning input data into different parallel learning input data, and a multi-layer neural network that learns the parallel learning input data and the teacher signal connected in parallel. Network 41, 42, 43, and output composite means 47 for selectively sending out one output signal from the output signals of the multilayer neural networks 41, 42, 43, and the teacher signal for the learning input data At least the forward neural network means 12 is configured with a learned second forward parallel complex neural network means 50 that can be delivered;
After a reverse associative input signal is input once to the reverse neural network means 13 via the input changeover switch 17 (number of associative loops n = 0) and an output signal of the second forward parallel complex neural network means 50 is obtained, The output signal of the second forward parallel complex neural network means 50 is fed back to the input of the backward neural network means 13 via the input changeover switch 17, and the output signal of the backward neural network means 13 and the second forward Perform an associative loop process (associative loop count n ≧ 1) to obtain the output signal of the parallel composite neural network means 50 sequentially,
By comparing the prepared category category number area composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the second forward parallel composite neural network means 50, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク手段12、40、50の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク手段13の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段14を有することを特徴とした相互連想記憶装置。 In the mutual associative memory device according to any one of claims 1, 3 and 5,
Through successive associative loop processing, the respective agreements between the two input signals of the forward neural network means 12, 40, 50 obtained and between the corresponding two output signals and between the two output signals of the backward neural network means 13 are obtained. An associative memory device comprising attractor convergence state identification means for identifying an attractor convergence state based on a state.
連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク手段13の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク手段12、40、50の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段14を有することを特徴とした相互連想記憶装置。 In the mutual associative memory device according to claim 2, 4 and 6,
Through a continuous associative loop process, the respective agreements between the two input signals of the backward neural network means 13 and the corresponding two output signals obtained, and between the two output signals of the forward neural network means 12, 40, 50 are obtained. An associative memory device comprising attractor convergence state identification means for identifying an attractor convergence state based on a state.
前記前進連想入力信号を前記前進ニューラルネットワーク手段12に入力し、対応した出力信号及び前記後進ニューラルネットワーク手段13の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、その後該後進ニューラルネットワーク手段13の該出力信号を前記入力切替スイッチ10を介してフィードバックして該前進ニューラルネットワーク手段12に入力し、対応した出力信号及び該後進ニューラルネットワーク手段13の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記前進ニューラルネットワーク手段12の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段15の学習内外カテゴリ識別信号とにより、前記前進ニューラルネットワーク手段12に入力された前記前進連想入力信号の学習・非学習入力データ識別することを特徴とした相互連想記憶装置。 In the attractor convergence state identifying means 14 of claim 7,
Associative loop processing of n = 0 associative loops for inputting the forward associative input signal to the forward neural network means 12 and obtaining the corresponding output signal and the output signal of the backward neural network means 13, respectively, and then the backward neural network The number of associative loops in which the output signal of the means 13 is fed back via the input changeover switch 10 and inputted to the forward neural network means 12 and the corresponding output signal and the output signal of the backward neural network means 13 are obtained respectively. The forward neural network means based on the matching state between the two input signals of the forward neural network means 12 obtained through the associative loop processing of 1 and the learning internal / external category identification signal of the learning internal / external category identifying means 15 The forward associative input signal input to 12 Mutual associative memory apparatus characterized by learning and non-learning input data identification.
前記後進連想入力信号を前記後進ニューラルネットワーク手段13に入力し、対応した出力信号及び前記前進ニューラルネットワーク手段12の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、該前進ニューラルネットワーク手段12の該出力信号を入力切替スイッチ17を介してフィードバックして該後進ニューラルネットワーク手段13に入力し、対応した出力信号及び該前進ニューラルネットワーク手段12の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記後進ニューラルネットワーク手段13の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段15の学習内外カテゴリ識別信号とにより、前記後進ニューラルネットワーク手段13に入力された前記後進連想入力信号の学習・非学習入力データ識別し、前記の一致状態で、学習内カテゴリ識別状態である場合のみ、学習入力データと識別することを特徴とした相互連想記憶装置。 In the attractor convergence state identifying means 14 of claim 8,
Associative loop processing of n = 0 associative loops for inputting the reverse associative input signal to the reverse neural network means 13 and obtaining the corresponding output signal and the output signal of the forward neural network means 12, respectively, and the forward neural network means The twelve output signals are fed back via the input changeover switch 17 and input to the backward neural network means 13 so that the corresponding output signal and the output signal of the forward neural network means 12 are obtained. Through the associative loop processing, the backward neural network means 13 receives the matching state between the two input signals of the backward neural network means 13 obtained and the learning internal / external category identification signal of the learning internal / external category identifying means 15. Learning of the input reverse associative input signal Training input data identified in the matching state of, when it is learned the category identification state only, mutual associative memory apparatus is characterized in that identifying the learning input data.
前記学習内外カテゴリ識別手段15からの前記前進ニューラルネットワーク手段12の出力信号に対する前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別手段14からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば前記学習・アトラクタ識別を少なくともするアトラクタ識別処理手段16とを有することを特徴とした相互連想記憶装置。 In the mutual associative memory device according to any one of claims 7, 8, 9 and 10,
Learning in the attractor convergence state based on the learning inside / outside category identification signal for the output signal of the forward neural network means 12 from the learning inside / outside category identification means 15 and the attractor convergence identification signal from the attractor convergence state identification means 14 An associative memory device comprising: an attractor identification processing means 16 for performing at least the learning / attractor identification in the outside category identification state and the learning / attractor identification in the learning category identification state.
前進連想入力信号を該前進ニューラルネットワーク処理130にて処理し出力信号を得え、更に、該出力信号を入力し該後進ニューラルネットワーク処理140にて出力信号を得、その後、該出力信号を後進ニューラルネットワーク出力信号入力設定処理200を介してフィードバック入力し該前進ニューラルネットワーク処理130にて出力信号を得る連想ループ処理を行い、連想ループ回数を計数する連想ループ回数判定処理180を有する相互連想記憶処理ソフトウェアにあって、
該前進ニューラルネットワーク処理130の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理130の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理150と、
連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク処理130の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク処理140の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理160と、
前記前進連想入力信号と連想ループ回数n=1に於ける該前進ニューラルネットワーク処理130の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理150の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する前進連想入力信号学習・非学習入力データ識別処理220と、
前記学習内外カテゴリ識別処理150からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理160からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理230とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェア。 The learning input data can be sent to the forward neural network processing 130 that has been learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the teacher signal. And at least a backward neural network processing 140 learned as follows:
A forward associative input signal is processed by the forward neural network processing 130 to obtain an output signal. Further, the output signal is inputted and an output signal is obtained by the backward neural network processing 140, and then the output signal is converted to a backward neural network. Interactive associative memory processing software having an associative loop number determination process 180 for performing an associative loop process in which feedback is input via the network output signal input setting process 200 and an output signal is obtained by the forward neural network process 130, and counting the number of associative loops There,
By comparing the classification category number corresponding to the output signal of the forward neural network processing 130 with the classification category number region composed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing 130, the output Learning internal / external category identification processing 150 for identifying the learning internal / external category of the signal;
Through the continuous associative loop processing, based on the respective coincidence states obtained between the two input signals of the forward neural network processing 130 and the corresponding two output signals, and between the two output signals of the backward neural network processing 140. Attractor convergence state identification processing 160 for identifying the attractor convergence state;
The coincidence state between the two input signals of the forward associative input signal and the input signal of the forward neural network processing 130 at the associative loop number n = 1, and the learning internal / external category identification signal of the learning internal / external category identification processing 150, A forward associative input signal learning / non-learning input data identification process 220 for identifying the forward associative input signal learning / non-learning input data;
Based on the learning inside / outside category identification signal from the learning inside / outside category identification processing 150 and the attractor convergence state identification signal from the attractor convergence state identification processing 160, if the attracting state is a non-learning category identification state, spurious attractor identification is performed. And an associative memory processing software characterized by having at least an attractor identifying process 230 for at least learning / attractor identification in the category identification state within learning.
後進連想入力信号を該後進ニューラルネットワーク処理140にて処理し出力信号を得え、更に、該出力信号を入力し該前進ニューラルネットワーク処理130にて出力信号を得、その後、該出力信号を前進ニューラルネットワーク出力信号入力設定処理330を介してフィードバック入力し該後進ニューラルネットワーク処理140にて出力信号を得る連想ループ処理を行い、
該前進ニューラルネットワーク処理130の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理130の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理150と、
連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク処理140の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク処理130の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理320と、
前記後進連想入力信号と連想ループ回数n=1に於ける該後進ニューラルネットワーク処理140の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理150の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する後進連想入力信号学習・非学習入力データ識別処理340と、
前記学習内外カテゴリ識別処理150からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理320からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理230とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェア。 The learning input data can be sent to the forward neural network processing 130 that has been learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the teacher signal. In the associative memory processing software having at least the backward neural network processing 140 learned as described above and the associative loop number determination processing 180 for counting the number of associative loops,
A reverse associative input signal is processed by the reverse neural network processing 140 to obtain an output signal. Further, the output signal is input to obtain an output signal by the forward neural network processing 130, and then the output signal is converted to the forward neural network. Perform an associative loop process to input feedback through the network output signal input setting process 330 and obtain an output signal in the backward neural network process 140;
By comparing the classification category number corresponding to the output signal of the forward neural network processing 130 with the classification category number region composed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing 130, the output Learning internal / external category identification processing 150 for identifying the learning internal / external category of the signal;
Through the continuous associative loop processing, based on the respective coincidence states obtained between the two input signals of the backward neural network processing 140 and the corresponding two output signals, and between the two output signals of the forward neural network processing 130. Attractor convergence state identification processing 320 for identifying the attractor convergence state;
The coincidence state between the two input signals of the reverse associative input signal and the input signal of the reverse neural network processing 140 at the associative loop number n = 1, and the learning internal / external category identification signal of the learning internal / external category identification processing 150, Reverse associative input signal learning / non-learning input data identification processing 340 for identifying the forward associative input signal learning / non-learning input data;
On the basis of the learning internal / external category identification signal from the learning internal / external category identification processing 150 and the attractor convergence identification signal from the attractor convergence state identification processing 320, the spurious / attractor identification is performed in the attractor convergence state and the non-learning category identification state. And an associative memory processing software characterized by having at least an attractor identifying process 230 for at least learning / attractor identification in the category identification state within learning.
15. In the attractor identification processing 230 according to claim 13 and claim 14, from the attractor convergence identification signal and the learning inside / outside category identification signal, when the associative loop count n = 1, the attractor convergence state and the in-learning category identification state If there is a learning / attractor identification and non-learning category identification state, if one-shot spurious / attractor identification and associative loop count n> 1, the attractor is converged, and if it is in-learning category identification state, generalization Interactive associative memory software characterized by generalized spurious attractor identification in the learning / attractor identification and non-learning category identification states.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004236466A JP4539221B2 (en) | 2004-08-16 | 2004-08-16 | Mutual associative memory and its software |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004236466A JP4539221B2 (en) | 2004-08-16 | 2004-08-16 | Mutual associative memory and its software |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006053850A JP2006053850A (en) | 2006-02-23 |
JP4539221B2 true JP4539221B2 (en) | 2010-09-08 |
Family
ID=36031279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004236466A Expired - Fee Related JP4539221B2 (en) | 2004-08-16 | 2004-08-16 | Mutual associative memory and its software |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4539221B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001057263A (en) * | 1999-08-20 | 2001-02-27 | D D K Ltd | Electric connector |
JP2004005680A (en) * | 2003-05-22 | 2004-01-08 | Matsushita Electric Ind Co Ltd | Simplified hierarchical pattern classifying device and simplified hierarchical pattern classifying device with priority |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0612396A (en) * | 1991-03-08 | 1994-01-21 | Fuji Xerox Co Ltd | Pattern recognition and learning system |
-
2004
- 2004-08-16 JP JP2004236466A patent/JP4539221B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001057263A (en) * | 1999-08-20 | 2001-02-27 | D D K Ltd | Electric connector |
JP2004005680A (en) * | 2003-05-22 | 2004-01-08 | Matsushita Electric Ind Co Ltd | Simplified hierarchical pattern classifying device and simplified hierarchical pattern classifying device with priority |
Also Published As
Publication number | Publication date |
---|---|
JP2006053850A (en) | 2006-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Goodman et al. | Rule-based neural networks for classification and probability estimation | |
Hespanha et al. | Multiple model adaptive control. Part 2: switching | |
US11822579B2 (en) | Apparatus for functioning as sensor node and data center, sensor network, communication method and program | |
Collet et al. | Polar ifs+ parisian genetic programming= efficient ifs inverse problem solving | |
US5216750A (en) | Computation system and method using hamming distance | |
Fumera et al. | Performance analysis and comparison of linear combiners for classifier fusion | |
JPS61193279A (en) | Apparatus for sorting and identifying pattern | |
EP3948604B1 (en) | Computer security | |
EP1038260B1 (en) | Neural networks | |
US11436320B2 (en) | Adaptive computer security | |
EP3948603B1 (en) | Pre-emptive computer security | |
JP4539221B2 (en) | Mutual associative memory and its software | |
JP4687199B2 (en) | Associative memory and its software | |
Bien et al. | An inference network for bidirectional approximate reasoning based on an equality measure | |
JP4696529B2 (en) | Multi-layer neural network device and its software | |
CN116032515A (en) | DDoS attack detection method based on transducer on SDN | |
JP3277648B2 (en) | Parallel neural network | |
Hammer | Approximation capabilities of folding networks. | |
JP3855580B2 (en) | Parallel neural network device | |
US5430829A (en) | Learning method for a data processing system | |
JP2001511980A (en) | Data compression system and method | |
JP2002259940A (en) | Parallel neural network processing system equipped with output condition determination function | |
Xu et al. | Quantized Distributed Nonconvex Optimization Algorithms with Linear Convergence under the Polyak--${\L} $ ojasiewicz Condition | |
US5980079A (en) | Synthesis of threshold networks | |
Arai | An upper bound on the node complexity of depth-2 multilayer perceptrons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100601 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100614 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130702 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |