JP4539221B2 - Mutual associative memory and its software - Google Patents

Mutual associative memory and its software Download PDF

Info

Publication number
JP4539221B2
JP4539221B2 JP2004236466A JP2004236466A JP4539221B2 JP 4539221 B2 JP4539221 B2 JP 4539221B2 JP 2004236466 A JP2004236466 A JP 2004236466A JP 2004236466 A JP2004236466 A JP 2004236466A JP 4539221 B2 JP4539221 B2 JP 4539221B2
Authority
JP
Japan
Prior art keywords
neural network
learning
associative
attractor
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004236466A
Other languages
Japanese (ja)
Other versions
JP2006053850A (en
Inventor
陽太郎 八塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2004236466A priority Critical patent/JP4539221B2/en
Publication of JP2006053850A publication Critical patent/JP2006053850A/en
Application granted granted Critical
Publication of JP4539221B2 publication Critical patent/JP4539221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、劣化画像の雑音除去や復元機能も持った画像認識、種々のパターン認識や、不正アクセス防止などのセキュリティシステム、或いは更に高速メモリ検索などに適用可能な多層ニューラルネットワークを用いた相互連想(Hetero-Associative)記憶装置に関するものである。   The present invention relates to image recognition having a noise removal and restoration function for degraded images, various pattern recognitions, security systems such as unauthorized access prevention, or a mutual association using a multilayer neural network applicable to high-speed memory search. (Hetero-Associative) relates to a storage device.

ニューラルネットワークを用いた連想メモリの種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがある。文献、Hopfield,J.J., Proc. Nationl. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。   Types of associative memories using neural networks include self-associative memories and mutual (hetero) associative memories. Details are described in literature, Hopfield, JJ, Proc. Nationl. Acad. Sci. USA, 79, pp. 2554-2558, 1982, Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993, etc. Yes.

図2は、従来技術としての一つのニューラルネットワークを用いた自己連想メモリの1構成例がある。入力層と出力層だけから構成された2層ニューラルネットワークや3層ニューラルネットワーク(砂時計ニューラルネットワーク)或いはホップフィールドネットワークとして知られる相互結合ネットワーク型のニューラルネットワークなどが用いられている。これらは自己連想ニューラルネットワークの出力信号が直接入力にフィードバックされる構成となっている。   FIG. 2 shows a configuration example of a self-associative memory using one neural network as a conventional technique. A two-layer neural network composed only of an input layer and an output layer, a three-layer neural network (hourglass neural network), or an interconnection network type neural network known as a hop field network is used. These are configured such that the output signal of the self-associative neural network is directly fed back to the input.

図2の従来技術による自己連想メモリとして、自己連想ニューラルネットワーク22の2層ニューラルネットワークを用いた場合について、これらの動作を簡単に説明する。
先ず、最初に連想ループ制御処理部20からの制御のもとに、入力端子29からの連想入力信号が切替スイッチ10及び端子30を介して自己連想ニューラルネットワーク22に入力される。自己連想ニューラルネットワーク22としての学習済み2層ニューラルネットワークの出力層出力信号が出力端子31に得られると、これを、連想ループ制御処理部20の制御の基に、入力切替スイッチ10を介して該2層ニューラルネットワークの入力端子30にフィードバックする。この為、入力層ユニット数と出力層ユニット数は同一の構成となっている。従って、学習入力データ(学習アトラクタ)と教師信号が同一で、これらを学習させる。この場合には、多くの場合、重み係数は、計算によって求められる。
The operation of the self-associative memory according to the prior art shown in FIG. 2 will be briefly described in the case where a two-layer neural network of the self-associative neural network 22 is used.
First, under the control of the associative loop control processing unit 20, an associative input signal from the input terminal 29 is input to the self-associative neural network 22 via the changeover switch 10 and the terminal 30. When the output layer output signal of the learned two-layer neural network as the self-associative neural network 22 is obtained at the output terminal 31, it is transmitted via the input changeover switch 10 under the control of the associative loop control processing unit 20. Feedback is provided to the input terminal 30 of the two-layer neural network. For this reason, the number of input layer units is the same as the number of output layer units. Therefore, the learning input data (learning attractor) and the teacher signal are the same and are learned. In this case, the weighting factor is often obtained by calculation.

連想ループ制御処理部20により、自己連想ニューラルネットワーク22からの出力信号を入力切替スイッチ10と入力端子30を介して自己連想ニューラルネットワーク22へフィードバックし、再度、自己連想ニューラルネットワーク22から出力信号を得る。この一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数nとする。
ここで、連想ループ回数nに於ける入力端子30の自己連想ニューラルネットワーク22の入力層への入力信号をX(n)とし、自己連想ニューラルネットワーク22の出力信号をX(n+1)とし、連想ループ回数n+1の連想ループ処理に於いて、X(n+1)が入力端子30へ再度フィードバックされる。
The associative loop control processing unit 20 feeds back the output signal from the self-associative neural network 22 to the self-associative neural network 22 through the input changeover switch 10 and the input terminal 30 and obtains the output signal from the self-associative neural network 22 again. . This series of feedback processing is called associative loop processing, and the number of feedbacks is defined as the number of associative loops n.
Here, the input signal to the input layer of the self-associative neural network 22 at the input terminal 30 in the associative loop count n is X (n), the output signal of the self-associative neural network 22 is X (n + 1), In the associative loop processing of the associative loop count n + 1, X (n + 1) is fed back to the input terminal 30 again.

この連想ループ処理を繰り返し行った際に、前回の連想ループ処理との出力信号が同一となり、変化しなくなった状態をアトラクタ収束状態と呼び、その時の出力信号をアトラクタと呼び、アトラクタ出力信号として出力端子31から得る。
収束し得られたアトラクタは、連想入力信号に最も近い特徴を持った学習入力データである学習アトラクタ(教師信号)となる場合と、スプリアス・アトラクタ(偽りのアトラクタ)となる場合とがある。スプリアス・アトラクタは、学習入力データではなく、殆どの場合は、多くの雑音を含んだデータから構成されており明確な特徴を持っていない。
When this associative loop processing is repeated, the output signal is the same as the previous associative loop processing, and the state that does not change is called the attractor convergence state, the output signal at that time is called the attractor, and is output as the attractor output signal Obtained from terminal 31.
The attractor that can be converged may be a learning attractor (teacher signal) that is learning input data having characteristics closest to the associative input signal, or may be a spurious attractor (false attractor). Spurious attractors are not learning input data, and in most cases are composed of data containing a lot of noise and do not have clear features.

このように、入力端子29の連想入力信号を入力した後、アトラクタ収束状態になるまでの一連の動作を以下に説明する。先ず、連想ループ制御処理部20からの連想ループ制御によって入力切替スイッチ10の初期設定(n=0時)を行い、入力端子29と入力端子30を接続する。また、アトラクタ収束状態識別処理部21の内部状態をリセットする。入力端子29の連想入力信号X(0)が自己連想ニューラルネットワーク22に入力信号として入力される。自己連想ニューラルネットワーク22から出力信号X(1)が得られ、アトラクタ収束状態識別処理部21に該出力信号X(1)がアトラクアに収束したかどうかの識別を行う収束識別処理の為に入力記憶される。   A series of operations from when the associative input signal of the input terminal 29 is input to the attractor convergence state will be described below. First, the input changeover switch 10 is initially set (when n = 0) by the associative loop control from the associative loop control processing unit 20, and the input terminal 29 and the input terminal 30 are connected. Also, the internal state of the attractor convergence state identification processing unit 21 is reset. The associative input signal X (0) at the input terminal 29 is input to the self-associative neural network 22 as an input signal. An output signal X (1) is obtained from the self-associative neural network 22 and is stored in the attractor convergence state identification processing unit 21 for convergence identification processing for identifying whether the output signal X (1) has converged to attractor. Is done.

更に、連想ループ制御処理部20は、該出力信号X(1)をフィードバックし自己連想ニューラルネットワーク22に入力する為に、連想ループ回数n=1とし、入力切替スイッチ10を切り替え、出力信号X(1)を、入力端子30を介して自己連想ニューラルネットワーク22にフィードバック入力し、新たな出力信号X(2)を得え、アトラクタ収束状態識別処理部21に入力する。このような連想ループ処理を繰り返す。   Furthermore, the associative loop control processing unit 20 sets the number of associative loops n = 1, switches the input changeover switch 10 and feeds the output signal X (1) in order to feed back the output signal X (1) and input it to the self-associative neural network 22. 1) is fed back to the self-associative neural network 22 via the input terminal 30 to obtain a new output signal X (2) and input to the attractor convergence state identification processing unit 21. Such an associative loop process is repeated.

アトラクタ収束状態識別処理部21では、蓄積されている連想ループ回数nでの自己連想ニューラルネットワーク22の出力信号X(n)と連想ループ回数n+1連想ループ処理により得られた連想ニューラルネットワークの出力信号X(n+1)と比較し一致検出を行う。即ち、一般にはX(n)とX(n+1)の一致検出を行う。但し、n≧0である。
一致すると、アトラクタに収束したとして、アトラクタ収束識別信号を出力端子32に送出すると共に、連想ループ制御処理部20に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の自己連想ニューラルネットワーク22の出力信号がアトラクタ出力信号として出力端子31に送出される。このアトラクタに収束した状態を想起状態と呼ぶ。
In the attractor convergence state identification processing unit 21, the output signal X (n) of the self-associative neural network 22 at the accumulated associative loop count n and the output of the associative neural network obtained by the associative loop count n + 1 associative loop processing. Compared with the signal X (n + 1), coincidence is detected. That is, generally, coincidence detection of X (n) and X (n + 1) is performed. However, n ≧ 0.
If they match, it is assumed that the attractor has converged, and an attractor convergence identification signal is sent to the output terminal 32, and an associative loop process completion signal is sent to the associative loop control processing unit 20 to stop the associative loop process. The output signal of the self-associative neural network 22 at this time is sent to the output terminal 31 as an attractor output signal. The state converged on this attractor is called a recall state.

一致しない場合には、収束していないと見なし、連想ループ制御処理部20に再度連想ループ処理を要求するために、連想ループ処理要求信号を送出する。
連想ループ制御処理部20では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大許容回数N未満であれば、連想ループ回数n=n+1として、連想ループ処理を再度実行するため、出力信号X(n)を、入力切替スイッチ10を介して入力端子30へフィードバックする。一方、連想ループ処理完了信号を受信した場合、或いは連想ループ回数nが連想ループ最大許容回数N以上となると、連想ループ処理を終了する。
If they do not match, it is considered that they have not converged, and an associative loop processing request signal is sent to request the associative loop control processing unit 20 again for associative loop processing.
When the associative loop control processing unit 20 receives the associative loop processing request signal, the associative loop number n = n + 1 is executed again if the associative loop processing number n is smaller than the maximum associative loop number N specified in advance. The output signal X (n) is fed back to the input terminal 30 via the input changeover switch 10. On the other hand, when the associative loop process completion signal is received or when the associative loop count n becomes equal to or greater than the maximum associative loop count N, the associative loop process is terminated.

連想ループ回数n=Nの状態で連想ループ処理を終了し、アトラクタ収束状態識別処理部21から連想ループ処理要求信号を受信した場合には、アトラクタ発散識別信号送出要求信号をアトラクタ収束状態識別処理部21に送る。この時、アトラクタ収束状態識別処理部21はアトラクタ発散識別信号を出力端子32に送出する。
この状態は、連想ループ回数nが指定された最大許容回数Nとなっても、アトラクタ収束状態識別処理部21に於いて、X(n)とX(n+1)との一致状態が得られない状態を意味する。このアトラクタ発散識別状態は、不想起状態と呼ばれる。
When the associative loop processing is finished in the state where the number of associative loops n = N and the associative loop processing request signal is received from the attractor convergence state identification processing unit 21, the attractor divergence identification signal transmission request signal is transmitted to the attractor convergence state identification processing unit. Send to 21. At this time, the attractor convergence state identification processing unit 21 sends an attractor divergence identification signal to the output terminal 32.
In this state, even if the number of associative loops n is the specified maximum allowable number N, the attractor convergence state identification processing unit 21 can obtain the coincidence state of X (n) and X (n + 1). Means no state. This attractor divergence identification state is called a recollection state.

連想ループ制御処理部20では、入力端子29に新たな連想入力信号X(0)が入力される度毎に入力切替スイッチ10及びアトラクタ収束状態識別処理部21とを初期設定し、上記の一連の処理を新たな連想入力信号X(0)に対して繰り返す。
自己連想ニューラルネットワーク22は、重み係数が予め設定された学習済みニューラルネットワークであるが、その重み係数の学習処理では、入力端子29の学習アトラクタとして与えられた連想入力信号とその出力信号とが同一の学習アトラクタとなる関係の基で重み係数を計算により得、設定している。尚、この重み係数の求め方については、前記の文献に詳細が記載されている。
The associative loop control processing unit 20 initializes the input selector switch 10 and the attractor convergence state identification processing unit 21 every time a new associative input signal X (0) is input to the input terminal 29, and the series of the above-described series. The process is repeated for a new associative input signal X (0).
The self-associative neural network 22 is a learned neural network in which a weighting factor is set in advance. In the weighting factor learning process, an associative input signal given as a learning attractor at the input terminal 29 is the same as its output signal. The weighting coefficient is obtained and set based on the relationship that becomes the learning attractor. The details of how to obtain this weighting factor are described in the above-mentioned document.

出力端子31から得られたアトラクタ出力信号が学習入力データ(学習アトラクタ)であれば、この学習アトラクタを用いたその後に接続される応用処理システムを正しく動作させることができ、問題とならない。しかしながら、後述のスプリアス・アトラクタと呼ばれる偽のアトラクタの場合には、応用処理システムに於いて、誤動作の原因となる。   If the attractor output signal obtained from the output terminal 31 is learning input data (learning attractor), the application processing system connected thereafter using this learning attractor can be operated correctly, and there is no problem. However, in the case of a fake attractor called a spurious attractor, which will be described later, it causes a malfunction in the application processing system.

入力端子29の連想入力信号が学習アトラクタとは異なり、これに似た連想入力信号の場合、複数回の連想ループ処理を介してアトラクタ収束状態に達し、想起される場合がある。例えば、雑音などを含む未知連想入力信号に対しても、連想ループ処理を繰り返すことにより、学習アトラクタに収束し、想起が成功する場合もある。このような動作はフィルタ作用やコンテント・アドレッサブル・メモリとしての働きをする。   When the associative input signal at the input terminal 29 is different from the learning attractor, an associative input signal similar to the learning attractor may reach the attractor convergence state through a plurality of associative loop processes and be recalled. For example, an associative loop process may be repeated for an unknown associative input signal including noise or the like to converge to a learning attractor and recall may be successful. Such an operation acts as a filter action or a content addressable memory.

一方、アトラクタ収束状態識別処理部21の出力端子32からアトラクタ収束識別信号が送出されると同時に、出力端子31に学習アトラクアとは異なるアトラクタ出力信号が送出され、スプリアス・アトラクタ(偽りアトラクタ)と呼ばれるアトラクタ収束状態に想起される場合がある。即ち、多くの雑音や歪みを含んだ連想入力信号に対して、アトラクタ収束状態となるが、通常の学習アトラクアタとは全く異なった有意な意味を殆ど持たないスプリアス・アトラクタで、端子31から誤って学習アトラクタ出力信号として送出される。   On the other hand, an attractor convergence identification signal is sent from the output terminal 32 of the attractor convergence state identification processing unit 21, and at the same time, an attractor output signal different from the learning attractor is sent to the output terminal 31, which is called a spurious attractor (false attractor). It may be recalled in the attractor convergence state. That is, it is an attractor convergence state for an associative input signal containing a lot of noise and distortion, but it is a spurious attractor that has almost no significant meaning completely different from a normal learning attractor. It is sent out as a learning attractor output signal.

これは、従来方式では、学習アトラクタとは区別できず、重み係数に記憶されている学習入力データの影響を大きく受け自動的に生成され、予期し得ず紛らわしいスプリアス・アトラクタであり、想起が正しく行われていない。このスプリアス・アトラクタに収束した場合には、出力端子31からのアトラクタ出力信号や端子32からのアトラクタ収束状態識別信号を用いる応用処理システムで、誤動作の原因となる。   This is a spurious attractor that is indistinguishable from the learning attractor in the conventional method, is automatically generated greatly influenced by the learning input data stored in the weighting factor, and is unexpected and misleading. Not done. When converged to the spurious attractor, an error occurs in the application processing system using the attractor output signal from the output terminal 31 or the attractor convergence state identification signal from the terminal 32.

従来の自己連想ニューラルネットワーク22での正しい想起をできるだけ成功させ、然もスプリアス・アトラクタの発生を抑えるには、学習アトラクタとしての学習入力データは互いに相関を持たない直交関係を持つ必要がある。即ち、比較的似た連想入力信号を、学習入力データとして学習記憶させる重み係数を計算し求めて設定すると、学習アトラクタ間の干渉が発生し、スプリアス・アトラクタに収束する場合が増加するか、或いは想起されない無収束の発散状態になる場合が増える。   In order to succeed in correct recall with the conventional self-associative neural network 22 as much as possible and to suppress the occurrence of spurious attractors, the learning input data as learning attractors must have orthogonal relationships that are not correlated with each other. That is, if a relatively similar associative input signal is calculated by calculating and setting a weighting factor for learning and storing as learning input data, interference between learning attractors occurs, and the case of convergence to spurious attractors increases, or There are more cases of non-convergent and non-convergent divergence.

従って、自己連想ニューラルネットワーク22の最適な重み係数によって記憶されている学習入力データ数、即ち学習アトラクタ数に大幅な制限がある。また、自己連想ニューラルネットワーク22では、ニューラルネットワークの一つの特徴である、汎化能力を余り利用しておらず、連想ループ処理に於けるフィードバック・ループによってのみアトラクタ収束を行わせることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束してもスプリアス・アトラクタになり易いなどの欠点があることを意味している。   Therefore, the number of learning input data stored by the optimum weighting coefficient of the self-associative neural network 22, that is, the number of learning attractors is greatly limited. Further, the self-associative neural network 22 does not make much use of the generalization ability, which is one of the features of the neural network, and causes the attractor to converge only by the feedback loop in the associative loop processing. This means that it does not converge very easily and tends to be in an attractor divergence state, but even if it converges to the attractor, it tends to become a spurious attractor.

更に、このような従来方式では、このスプリアス・アトラクタ出力信号は、記憶している全ての学習アトラクタと比較しない限り、学習アトラクタかスプリアス・アトラクタかの区別はできず、比較する為には多くの処理量を要する。
このような自己連想ニューラルネットワーク22を用いた自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12x入力層ユニット数Pで与えられる。
更に、互いに似た学習入力データを学習させると、互いの干渉からアトラクタ収束状態が得にくくなるなどの欠点もある。また、誤って想起されるアトラクタ収束状態でのスプリアス・アトラクタを少なくするためには、記憶容量が更に少なくなる。従って、学習入力データ数が理論的限界に近づくとアトラクタ収束が一段と困難となってくる。
Furthermore, in such a conventional method, unless the spurious attractor output signal is compared with all the stored learning attractors, it cannot be distinguished whether it is a learning attractor or a spurious attractor. A processing amount is required.
The biggest drawback of the self-associative memory using such a self-associative neural network 22 is a small storage capacity due to a large restriction on the possible weighting factor. According to the above document, this storage capacity is theoretically given by about 0.12 × number of input layer units P.
Furthermore, when learning input data similar to each other is learned, there is a drawback that it is difficult to obtain an attractor convergence state from mutual interference. Further, in order to reduce spurious attractors in the attractor converged state that is erroneously recalled, the storage capacity is further reduced. Therefore, attractor convergence becomes more difficult as the number of learned input data approaches the theoretical limit.

この他の従来技術として、2つの従属接続されたニューラルネットワークを用いた相互(ヘテロ)連想メモリと呼ばれる方式がある。この方式は,図3のように、夫々教師信号を用いて学習された前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24から構成される。従来では、前進3層ニューラルネットワーク23としては、粗コード出力型前進3層ニューラルネットワーク23が用いられている。   As another prior art, there is a method called a mutual (hetero) associative memory using two cascaded neural networks. As shown in FIG. 3, this method is composed of a forward three-layer neural network 23 and a reverse three-layer neural network 24 that are trained using teacher signals. Conventionally, a coarse code output type forward three-layer neural network 23 is used as the forward three-layer neural network 23.

粗コード出力型前進3層ニューラルネットワーク23の出力信号としては、何れか1つのユニットのみが1となり、他のK-1個のユニットは0となるKユニットの2値出力信号形式、即ち、One out of Kと呼ばれる粗い符号化コードが用いられる。これは、ニューラルネットワークの学習入力データに対応した教師信号の分類カテゴリへの対応づけが簡単であることから、殆どの多層ニューラルネットワークの出力信号形式として採り入れられ、学習させている。   As an output signal of the coarse code output type forward three-layer neural network 23, only one of the units becomes 1, and the other K-1 units become 0. A binary output signal format of K units, that is, One A coarse encoded code called out of K is used. Since it is easy to associate the teacher signal corresponding to the learning input data of the neural network with the classification category, it is adopted as the output signal format of most multilayer neural networks and is learned.

一方、後進3層ニューラルネットワーク24では、粗コード出力型前進3層ニューラルネットワーク23の教師信号を学習入力データとして学習させる。後進3層ニューラルネットワーク24の教師信号としては、入力切替スイッチ10を介して、粗コード出力型前進3層ニューラルネットワーク23にフィードバック入力する為に、入力端子1からの前進連想入力信号X(0)と同一入力ユニット数の出力形式を持たせる必要があり、粗コード出力型前進3層ニューラルネットワーク23の学習入力データ、即ち学習アトラクタとする。   On the other hand, in the reverse three-layer neural network 24, the teacher signal of the coarse code output type forward three-layer neural network 23 is learned as learning input data. As a teacher signal of the backward three-layer neural network 24, the forward associative input signal X (0) from the input terminal 1 is used for feedback input to the coarse code output type forward three-layer neural network 23 via the input changeover switch 10. It is necessary to have the output format of the same number of input units as the learning input data of the coarse code output type forward three-layer neural network 23, that is, the learning attractor.

即ち、粗コード出力型前進3層ニューラルネットワーク23への学習入力データが、後進3層ニューラルネットワーク24の出力信号として再現されるよう夫々の学習を行う。このようにして学習された重み係数を、粗コード出力型前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24の重み係数として夫々設定する。   That is, each learning is performed so that learning input data to the coarse code output type forward three-layer neural network 23 is reproduced as an output signal of the reverse three-layer neural network 24. The weighting factors learned in this way are set as weighting factors for the coarse code output type forward three-layer neural network 23 and the reverse three-layer neural network 24, respectively.

ここで、これらの動作を簡単に説明する。図3の入力切替スイッチ10、連想ループ制御処理部20、アトラクタ収束状態識別処理部21は、夫々図2のそれらと同一構成である。図2の場合と同様に、連想ループ制御処理部20からの制御信号により、入力切替スイッチ10は制御され、初期設定として、入力端子1の前進連想入力信号が学習済みの粗コード出力型前進3層ニューラルネットワーク23の入力端子2を介して入力されるよう接続を行う。粗コード出力型前進3層ニューラルネットワーク23は、前進連想入力信号X(0)に対応した出力信号を出力端子3から送出し、更に端子4を介して学習済み後進3層ニューラルネットワーク24に入力される。対応した出力信号は、連想ループ制御処理部20の制御の基に、連想ループ処理として、入力切替スイッチ10を介して入力端子2にフィードバックされると共に、アトラクタ収束状態識別処理部21に入力記憶される。   Here, these operations will be briefly described. The input selector switch 10, the associative loop control processing unit 20, and the attractor convergence state identification processing unit 21 in FIG. 3 have the same configuration as that in FIG. As in the case of FIG. 2, the input changeover switch 10 is controlled by a control signal from the associative loop control processing unit 20, and as a default setting, the coarse code output type forward 3 in which the forward associative input signal of the input terminal 1 has been learned. Connection is performed so that the signal is input via the input terminal 2 of the layer neural network 23. The coarse code output type forward three-layer neural network 23 outputs an output signal corresponding to the forward associative input signal X (0) from the output terminal 3 and is further input to the learned reverse three-layer neural network 24 via the terminal 4. The The corresponding output signal is fed back to the input terminal 2 via the input changeover switch 10 as an associative loop process under the control of the associative loop control processing unit 20, and is also input and stored in the attractor convergence state identification processing unit 21. The

アトラクタ収束状態識別処理部21に於いては、連想ループ回数n-1の時の記憶された後進3層ニューラルネットワーク24の出力信号X(n)と、連想ループ回数nの出力信号X(n+1)とが一致すると、アトラクタに収束したとみなし、アトラクタ収束識別信号を出力端子32から送出し、出力端子5から後進3層ニューラルネットワーク24の出力信号がアトラクタ出力信号として送出される。連想ループ回数n=Nに於いても、アトラクタに収束しないアトラクタ発散状態では、アトラクタ発散識別信号が出力端子32から送出される。   In the attractor convergence state identification processing unit 21, the stored output signal X (n) of the backward three-layer neural network 24 at the time of the association loop number n-1 and the output signal X (n +) of the association loop number n. When 1) matches, it is considered that the beam has converged on the attractor, and the attractor convergence identification signal is sent from the output terminal 32, and the output signal of the reverse three-layer neural network 24 is sent from the output terminal 5 as the attractor output signal. Even if the number of associative loops n = N, an attractor divergence identification signal is transmitted from the output terminal 32 in an attractor divergence state that does not converge on the attractor.

この従来の相互連想メモリの構成では、必要なK個の学習アトラクタとしての学習入力データとそれらに夫々対応したOne out of K出力信号形式の教師信号とを学習させることから、重み係数による記憶容量を多くすることが出来る。しかしながら、学習アトラクタとしての学習入力データ数Kが非常に多い場合には、前進3層ニューラルネットワーク23のK個の出力層ユニット数と同一のユニット数を持つ後進3層ニュラールネットワーク24の入力層ユニット数が必然的に非常に大きくなる。従って、粗コード出力型前進3層ニューラルネットワーク23及び後進3層ニューラルネットワーク24の規模が非常に大きくなり、学習処理の演算量が膨大となる欠点を有している。また、K個のユニットの粗コードからなるスパース出力信号形式が用いられることから、スプリアス・アトラクタに収束する場合が非常に多くなる。   In this conventional associative memory configuration, the learning input data as the necessary K learning attractors and the teacher signals in the One out of K output signal format corresponding to each of them are learned. Can be increased. However, when the learning input data number K as the learning attractor is very large, the input layer of the backward three-layer neural network 24 having the same number of units as the K output layer units of the forward three-layer neural network 23. The number of units will inevitably become very large. Therefore, the scale of the coarse code output type forward three-layer neural network 23 and the reverse three-layer neural network 24 becomes very large, and there is a drawback that the amount of calculation of the learning process becomes enormous. Also, since a sparse output signal format consisting of K units of coarse codes is used, the number of cases of convergence to a spurious attractor is extremely high.

この従来方式に於いても、スプリアス・アトラクタへの収束状態の検出ができないことから、学習アトラクタとスプリアス・アトラクタとの区別ができず、アトラクタ収束状態識別処理部21からアトラクタ収束識別信号が送出された際に、出力端子5から学習アトラクタ出力信号として出力されたアトラクタを用いた応用処理システムでは、誤動作を発生する欠点を持っている。しかしながら、学習アトラクタ数が多い場合には、アトラクタ収束状態に到達しない不想起のアトラクタ発散状態は、自己連想メモリほどは多くない。
上記では、教師信号を用い学習する粗コード出力型前進3層ニューラルネットワーク23について説明したが、この他に、性能が劣化するが自己組織化ネットワークを用いる場合もあるが、上記に述べた欠点は併せ持っている。
Even in this conventional method, since the convergence state to the spurious attractor cannot be detected, the learning attractor cannot be distinguished from the spurious attractor, and the attractor convergence state identification processing unit 21 sends out the attractor convergence identification signal. In this case, the application processing system using the attractor output as the learning attractor output signal from the output terminal 5 has a drawback of causing a malfunction. However, when the number of learning attractors is large, the number of attracted attractor divergent states that do not reach the attractor converged state is not as large as that of the self-associative memory.
In the above description, the coarse code output type forward three-layer neural network 23 that learns using a teacher signal has been described. In addition to this, although the performance is deteriorated, a self-organizing network may be used. Have both.

上記の説明の如く、自己連想メモリは、入出力ユニット数が同一で限定された構成であることから、劣化画像データなどの認識などへの応用に限られる欠点を持っている。また、カテゴリ分類機能を有していない。更に、学習入力データである学習アトラクタに収束するためには、重み係数に制約があり、多くの学習入力データを記憶することが出来ない欠点を持っている。例えば、2層ニューラルネットワークに於ける記憶できる理論的最大学習入力データ数は、0.12x入力層ユニット数であり、重み係数の記憶量が非常に少ない欠点を持っている。   As described above, since the self-associative memory has the same number of input / output units and is limited, it has a drawback limited to application to recognition of degraded image data and the like. Moreover, it does not have a category classification function. Furthermore, in order to converge to the learning attractor which is learning input data, there exists a fault that a weighting coefficient has restrictions and many learning input data cannot be memorize | stored. For example, the theoretical maximum learning input data number that can be stored in a two-layer neural network is 0.12 × input layer unit number, and has a disadvantage that the storage amount of the weight coefficient is very small.

また、必然的に、入力信号と同一の多くのユニット数からなる出力信号は、記憶する学習入力データ数が少ないことから粗い出力信号形式となっている。この為、比較的小さな雑音劣化した連想入力信号が入力された後、その出力信号を入力端子2にフィードバックし連想ループ処理を繰り返すことにより、アトラクタ収束状態識別処理部21に於いて学習アトラクタ以外の正しく想起されていないスプリアス・アトラクタ状態に収束する場合が非常に多く発生し、また、大きく雑音劣化した連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合が非常に多いなどの欠点も有している。   Inevitably, an output signal consisting of a large number of units identical to the input signal has a coarse output signal format because the number of learning input data to be stored is small. For this reason, after an associative input signal having a relatively small noise deterioration is input, the output signal is fed back to the input terminal 2 and the associative loop processing is repeated, so that the attractor convergence state identification processing unit 21 receives a signal other than the learning attractor. Convergence occurs very often in spurious attractor states that are not recalled correctly, and for an associative input signal that is greatly degraded in noise, there are very many cases where the attractor divergence state does not reach the attractor convergence state. There are also disadvantages such as.

上記の説明のごとく、従来の自己連想メモリや相互連想メモリに多くの欠点を有している。自己連想ニューラルネットワーク22では、重み係数が持つ記憶容量が非常に小さく、多くの学習アトラクタを記憶できない。この記憶容量は、理論的に約0.12x入力層ユニット数で与えら、記憶容量を増加するためには、ニューラルネットワークが非常に複雑なものとなる。また、連想ループ処理に於いて、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点がある。更に、入出力ユニット数が同一で限定された構成であること、及びカテゴリ分類機能を持っておらず、応用が限られる欠点も併せ持っている。   As described above, the conventional self-associative memory and the mutual associative memory have many drawbacks. In the self-associative neural network 22, the storage capacity of the weight coefficient is very small, and many learning attractors cannot be stored. This storage capacity is theoretically given by about 0.12 × number of input layer units, and the neural network becomes very complicated in order to increase the storage capacity. Also, in the associative loop processing, there is a drawback that the attractor does not converge so much and is likely to diverge the attractor, but even if it converges to the attractor, it is not a desired learning attractor but a spurious attractor. is there. In addition, the configuration has the same number of input / output units and is limited, and has the disadvantage that it does not have a category classification function and its application is limited.

一方、従来の3層ニューラルネットワークによる相互連想メモリでは、粗コード出力型前進3層ニューラルネットワーク23が用いられることから、多くの学習アトラクタを記憶させる為には、前進3層ニューラルネットワーク23の出力層ユニット数を非常に大きくしなければならず、前進及び後進3層ニューラルネットワーク規模が非常に大きくなり、当然のことながら演算量が膨大となるとともに、正しい学習も困難となる欠点を持っている。また、同様の構成理由からスプリアス・アトラクタに非常に収束し易い欠点も有している。
更に、スプリアス・アトラクタの検出手段が無い事から、アトラクタ出力信号やアトラクタ収束識別信号を用いた応用処理システムでの誤動作の原因となるなどの欠点も持っている。
On the other hand, in the conventional associative memory using the three-layer neural network, the coarse code output type forward three-layer neural network 23 is used. Therefore, in order to store many learning attractors, the output layer of the forward three-layer neural network 23 is used. The number of units has to be very large, the forward and backward three-layer neural network scale becomes very large, naturally, the amount of computation becomes enormous, and correct learning is difficult. Also, for the same reason, it has a drawback that it is very easy to converge on the spurious attractor.
Further, since there is no spurious / attractor detection means, there is a disadvantage that it causes a malfunction in the application processing system using the attractor output signal or the attractor convergence identification signal.

本発明の目的は、上記の問題を解決し、従来のニューラルネットワークを用いた自己連想メモリや相互連想メモリなどに比べて、非常に大きな記憶容量を持たせることができると共に、スプリアス・アトラクタに落ち込むことも非常に少なく、アトラクタ発散状態も非常に少ない、然もアトラクタ検出識別機能及び連想入力信号の学習・非学習入力データの識別機能を持った非常に優れた高性能な多層ニューラルネットワークを用いた相互連想記憶装置を提供することにある。   The object of the present invention is to solve the above-mentioned problems, and can have a very large storage capacity as compared with a self-associative memory and a mutual associative memory using a conventional neural network, and falls into a spurious attractor. Very few high-performance multi-layer neural networks with attractor detection / discriminating function and associative input learning / non-learning input data discriminating function The object is to provide an associative memory device.

上記の問題点を解決するために、第1の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段を従属接続し、前進連想入力信号を連想ループ回数の元に制御される入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力し(連想ループ回数n=0)、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワーク手段の出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   In order to solve the above-mentioned problem, as a first means, a forward neural network means that has been trained to transmit a teacher signal that is a learning attractor corresponding to the classification category to learning input data, Backward neural network means learned so that the learning input data can be sent to the teacher signal is cascade-connected, and the forward neural network is connected via an input changeover switch controlled based on the number of associative loops of the forward associative input signal. Once input to the network means (associative loop number n = 0) and obtaining the output signal of the backward neural network means, the output switch of the backward neural network means is input to the forward neural network means. And the output signal of the forward neural network means And an associative loop process (associative loop number n ≧ 1) for sequentially obtaining an output signal of the backward neural network means, and an associative memory device having an associative loop control processing means for performing associative loop number counting and control, By comparing the classification category number region prepared from the classification category numbers corresponding to all of the teacher signals with the classification category number corresponding to the output signal of the forward neural network means, the learning signal of the output signal is detected. An associative memory device comprising at least learning internal / external category identifying means for identifying a category is configured.

第2の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段とを用い、該後進ニューラルネットワーク手段に該前進ニューラルネットワーク手段を従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該前進ニューラルネットワーク手段の出力信号を得た後、該前進ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該前進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a second means, forward neural network means learned so as to be able to send a teacher signal which is a learning attractor corresponding to the classification category to the learning input data, and the learning input data to the teacher signal Reciprocal neural network means learned so that it can be transmitted, the forward neural network means is subordinately connected to the reverse neural network means, and associative loop control processing means for performing associative loop count counting and control In the storage device, the reverse associative input signal is temporarily input to the reverse neural network means via the input changeover switch (number of associative loops n = 0) to obtain the output signal of the forward neural network means, and then the forward The output signal of the neural network means is converted to the backward neural network. Performing an associative loop process (associative loop number n ≧ 1) for sequentially obtaining an output signal of the backward neural network means and an output signal of the forward neural network means by feeding back to the input of the network means via the input changeover switch, A learning internal / external category of the output signal is obtained by a comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the forward neural network means. A mutual associative memory device characterized by having at least a learning internal / external category identifying means for identifying.

第3の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段を従属接続し、前進連想入力信号を入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワークの出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワークと、該多層ニューラルネットワークからの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段と、該出力逆変換処理手段の出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第1の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワークニューラルネットワーク手段を少なくとも構成し、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a third means, to the learning input data, the learning input data is sent to the forward neural network means that has been learned so that the learning signal corresponding to the classification category can be transmitted to the learning input data. The backward neural network means trained so that it can be transmitted is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means via the input changeover switch (number of associative loops n = 0). After obtaining the output signal of the network means, the output signal of the backward neural network is fed back to the input of the forward neural network means via the input changeover switch, and the output signal of the forward neural network means and the backward neural network means Associative loop processing that sequentially obtains the output signal An associative loop control processing means for performing associative loop count n ≧ 1) and performing associative loop count counting and control, and a plurality of parallel-connected teacher signals for the classification category and Is a multi-layer neural network that has learned teacher signals for parallel connection having different allocation arrangements, and an output that inversely converts each output signal from the multi-layer neural network into an output signal of an output code system that is the basis of the teacher signal Learning that is composed at least of an inverse transform processing means and an output composite means for selectively sending out one output signal from the output signal of the output inverse transform processing means, and can send the teacher signal to the learning input data Using the first forward parallel complex neural network means, the forward neural network neural network. Class means corresponding to all of the teacher signals and a classification category number prepared in advance and a classification category number corresponding to the output signal of the first forward parallel composite neural network means And a learning internal / external category identifying means for identifying the learning internal / external category of the output signal by the comparison process.

第4の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段とを用い、該後進ニューラルネットワークに該前進ニューラルネットワークを従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワークと、該多層ニューラルネットワークからの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段と、該出力逆変換処理手段の出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第1の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該第1の前進並列複合ニューラルネットワーク手段の出力信号を得た後、該第1の前進並列複合ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該第1の前進並列複合ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a fourth means, forward neural network means learned so that a teacher signal which is a learning attractor corresponding to the classification category can be sent to the learning input data, and the learning input data is sent to the teacher signal. Reciprocal neural network means trained so that it can be transmitted, the forward neural network is connected to the reverse neural network as a subordinate, and associative memory having associative loop control processing means for counting and controlling associative loops A multi-layer neural network in which each parallel connection teacher signal having a different allocation arrangement from the teacher signal for the classification category connected in parallel is learned, and each of the multi-layer neural networks The output signal is output from the output code system that is the basis of the teacher signal. An output inverse transform processing means for inversely transforming into a signal, and an output composite means for selectively sending out one output signal from the output signal of the output inverse transform processing means, and the teacher signal for the learning input data Using the learned first forward parallel complex neural network means that can be transmitted, at least the forward neural network means is configured, and a reverse associative input signal is temporarily input to the reverse neural network means via an input changeover switch ( The number of associative loops n = 0) and obtaining the output signal of the first forward parallel composite neural network means, the output signal of the first forward parallel composite neural network means is input to the reverse neural network means as the input Feedback neural network means fed back via an input changeover switch Associative loop processing (associative loop count n ≧ 1) for sequentially obtaining an output signal and an output signal of the first forward parallel complex neural network means, and preparing in advance composed of classification category numbers corresponding to all of the teacher signals At least learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process between the classification category number region thus determined and the classification category number corresponding to the output signal of the first forward parallel complex neural network means The mutual associative memory device is characterized by having.

第5の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段を従属接続し、前進連想入力信号を入力切替スイッチを介して該前進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段の出力信号を得た後、該後進ニューラルネットワークの出力信号を該前進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該前進ニューラルネットワーク手段の出力信号及び該後進ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワークと、該多層ニューラルネットワークの出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第2の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a fifth means, the learning input data is input to the forward neural network means that has been trained so as to be able to transmit a teacher signal that is a learning attractor corresponding to the classification category to the learning input data. The backward neural network means trained so that it can be transmitted is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means via the input changeover switch (number of associative loops n = 0). After obtaining the output signal of the network means, the output signal of the backward neural network is fed back to the input of the forward neural network means via the input changeover switch, and the output signal of the forward neural network means and the backward neural network means Associative loop processing that sequentially obtains the output signal An associative memory device having an associative loop control processing means for performing associative loop count n ≧ 1) and performing associative loop count counting and control, wherein the learning input data is converted into different parallel learning input data. A conversion processing means; a plurality of parallel connected multi-layer neural networks that learn the parallel learning input data and the teacher signal; and an output composite that selectively transmits one output signal from the output signals of the multi-layer neural network. And at least the forward neural network means using the trained second forward parallel complex neural network means capable of transmitting the teacher signal to the learning input data, and Prepared classification categories composed of classification category numbers corresponding to all teacher signals. It has at least learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process between a Gori number area and a classification category number corresponding to the output signal of the second forward parallel composite neural network means. The characteristic associative memory device is constructed.

第6の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段とを用い、該後進ニューラルネットワークに該前進ニューラルネットワークを従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段を有する相互連想記憶装置にあって、前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワークと、該多層ニューラルネットワークの出力信号から一つの出力信号を選択送出する出力複合手段とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第2の前進並列複合ニューラルネットワーク手段を用いて、前記前進ニューラルネットワーク手段を少なくとも構成し、後進連想入力信号を入力切替スイッチを介して該後進ニューラルネットワーク手段に一旦入力(連想ループ回数n=0)し、該第2の前進並列複合ニューラルネットワーク手段の出力信号を得た後、該第2の前進並列複合ニューラルネットワーク手段の出力信号を該後進ニューラルネットワーク手段の入力に前記入力切替スイッチを介してフィードバックし、該後進ニューラルネットワーク手段の出力信号及び該第2の前進並列複合ニューラルネットワーク手段の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   A sixth means is a forward neural network means that learns to be able to send a teacher signal that is a learning attractor corresponding to the classification category to the learning input data, and the learning input data is sent to the teacher signal. Reciprocal neural network means trained so that it can be transmitted, the forward neural network is connected to the reverse neural network as a subordinate, and associative memory having associative loop control processing means for counting and controlling associative loops An input conversion processing means for converting the learning input data into different parallel learning input data, and a plurality of parallel connected multi-layered neural circuits that have learned the parallel learning input data and the teacher signal One output signal from the output signal of the network and the multilayer neural network And at least the forward neural network means using the learned second forward parallel parallel neural network means capable of sending the teacher signal to the learning input data. The reverse associative input signal is temporarily input to the reverse neural network means via the input changeover switch (number of associative loops n = 0) to obtain the output signal of the second forward parallel complex neural network means, The output signal of the second forward parallel complex neural network means is fed back to the input of the reverse neural network means via the input changeover switch, and the output signal of the backward neural network means and the second forward parallel complex neural network are fed back. Associative loop to obtain the output signal of the means sequentially (Associative loop count n ≧ 1), the prepared classification category number region composed of the classification category numbers corresponding to all of the teacher signals and the output signal of the second forward parallel complex neural network means A mutual associative memory device characterized by comprising at least a learning internal / external category identifying means for identifying a learning internal / external category of the output signal by a comparison process with a corresponding classification category number.

第7の手段として、第1、第3及び第5の手段の何れかの前記相互連想記憶装置にあって、連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク手段の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク手段の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段を有することを特徴とした相互連想記憶装置を構成する。   As a seventh means, in the mutual associative memory device of any one of the first, third and fifth means, the two input signals of the forward neural network means obtained through continuous associative loop processing A mutual associative memory device comprising attractor convergence state identifying means for identifying an attractor convergence state based on a matching state between two output signals corresponding to each other and between two output signals of the backward neural network means Configure.

第8の手段として、第2、4及び第6の手段の前記相互連想記憶装置にあって、連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク手段の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク手段の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段を有することを特徴とした相互連想記憶装置を構成する。   As an eighth means, there is the mutual associative memory device of the second, fourth and sixth means, and the two input signals of the backward neural network means obtained and correspondingly obtained through continuous associative loop processing The mutual associative memory device is characterized by having attractor convergence state identifying means for identifying the attractor convergence state based on the matching state between the two output signals and between the two output signals of the forward neural network means.

第9の手段として、第7の手段の前記アトラクタ収束状態識別手段にあって、前記前進連想入力信号を前記前進ニューラルネットワーク手段に入力し、対応した出力信号及び前記後進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、その後該後進ニューラルネットワーク手段の該出力信号を前記入力切替スイッチを介してフィードバックして該前進ニューラルネットワーク手段に入力し、対応した出力信号及び該後進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記前進ニューラルネットワーク手段の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段の学習内外カテゴリ識別信号とにより、前記前進ニューラルネットワーク手段に入力された前記前進連想入力信号の学習・非学習入力データ識別することを特徴とした相互連想記憶装置を構成する。   As ninth means, in the attractor convergence state identifying means of the seventh means, the forward associative input signal is inputted to the forward neural network means, and a corresponding output signal and an output signal of the backward neural network means are obtained. Associative loop processing with n = 0 associative loops respectively obtained, and then the output signal of the backward neural network means is fed back via the input changeover switch and input to the forward neural network means, and the corresponding output signal and the The matching state between the two input signals of the forward neural network means obtained through the associative loop processing of the associative loop number n = 1 for obtaining the output signals of the backward neural network means and the learning internal / external category identifying means The forward neural network according to the learning internal / external category identification signal Constituting the mutual associative memory apparatus characterized by learning and non-learning input data identification of the forward associative input signals input to the stage.

第10の手段として、第8の手段のアトラクタ収束状態識別手段にあって、前記後進連想入力信号を前記後進ニューラルネットワーク手段に入力し、対応した出力信号及び前記前進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、該前進ニューラルネットワーク手段の該出力信号を入力切替スイッチを介してフィードバックして該後進ニューラルネットワーク手段に入力し、対応した出力信号及び該前進ニューラルネットワーク手段の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記後進ニューラルネットワーク手段の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段の学習内外カテゴリ識別信号とにより、前記後進ニューラルネットワーク手段に入力された前記後進連想入力信号の学習・非学習入力データ識別し、前記の一致状態で、学習内カテゴリ識別状態である場合のみ、学習入力データと識別することを特徴とした相互連想記憶装置を構成する。   The tenth means is an attractor convergence state identification means of the eighth means, wherein the reverse associative input signal is inputted to the reverse neural network means, and the corresponding output signal and the output signal of the forward neural network means are respectively input. Associative loop processing with n = 0 associative loops to be obtained, and the output signal of the forward neural network means is fed back via an input changeover switch and input to the reverse neural network means, and the corresponding output signal and the forward neural network The matching state between the two input signals of the backward neural network means obtained through the associative loop processing of the associative loop number n = 1 for obtaining the output signal of each means, and the learning inside / outside category of the learning inside / outside category identifying means Based on the identification signal, it is input to the backward neural network means. Further, a learning / non-learning input data of the backward associative input signal is identified, and the mutual associative memory device is characterized in that it is discriminated from the learning input data only when the matching state is the in-learning category identification state. .

第11の手段として、第7、8、9及び10の手段の何れかの前記相互連想記憶装置にあって、前記学習内外カテゴリ識別手段からの前記前進ニューラルネットワーク手段の出力信号に対する前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別手段からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で、学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理手段とを有することを特徴とした相互連想記憶装置を構成する。   The eleventh means is the mutual associative memory device of any one of the seventh, eighth, ninth and tenth means, wherein the learning internal / external category for the output signal of the forward neural network means from the learning internal / external category identifying means Based on the identification signal and the attractor convergence identification signal from the attractor convergence state identification means, in the attractor convergence state, if it is a non-learning category identification state, the spurious attractor identification and the learning / attractor identification if it is an in-learning category identification state. The mutual associative memory device is characterized by having at least attractor identification processing means.

第12の手段として、第11の手段の前記アトラクタ識別処理手段にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶装置を構成する。   As a twelfth means, in the attractor identification processing means of the eleventh means, from the attractor convergence identification signal and the learning inside / outside category identification signal, when the association loop number n = 1, If it is a category identification state, it is a learning attractor identification, if it is a non-learning category identification state, if it is One-Shot spurious attractor identification, the number of associative loops n> 1, if it is an attractor convergence state, if it is an in-learning category identification state, If the generalized learning / attractor identification and the non-learning category identification states are set, a generalized spurious / attractor identification is set.

第13の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理とを少なくとも有し、前進連想入力信号を該前進ニューラルネットワーク処理にて処理し出力信号を得え、更に、該出力信号を入力し該後進ニューラルネットワーク処理にて出力信号を得、その後、該出力信号を後進ニューラルネットワーク出力信号入力設定処理を介してフィードバック入力し該前進ニューラルネットワーク処理にて出力信号を得る連想ループ処理を行い、連想ループ回数を計数する連想ループ回数判定処理を有する相互連想記憶処理ソフトウェアにあって、該前進ニューラルネットワーク処理の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理と、連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク処理の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク処理の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理と、前記前進連想入力信号と連想ループ回数n=1に於ける該前進ニューラルネットワーク処理の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する前進連想入力信号学習・非学習入力データ識別処理と、前記学習内外カテゴリ識別処理からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェアを構成する。   As thirteenth means, forward neural network processing learned so as to be able to send out a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data for the teacher signal And a backward neural network processing learned so that it can be transmitted, a forward associative input signal is processed by the forward neural network processing to obtain an output signal, and the output signal is further input to the backward neural network. An output signal is obtained by processing, and then the output signal is fed back via a reverse neural network output signal input setting process, and an associative loop process is performed to obtain an output signal by the forward neural network process, and the number of associative loops is counted. Interactive Associative Memory Processing with Associative Loop Count Determination Processing In the software, by a comparison process between a classification category number corresponding to the output signal of the forward neural network processing and a classification category number region configured from classification category numbers corresponding to all the teacher signals of the forward neural network processing The learning internal / external category identifying process for identifying the learning internal / external category of the output signal and the continuous associative loop process between the two input signals of the forward neural network processing and the corresponding two output signals, the reverse Attractor convergence state identification processing for identifying the attractor convergence state based on the respective coincidence states between the two output signals of the neural network processing, and the forward neural network processing for the forward associative input signal and the association loop number n = 1 Between the two input signals and the learning internal / external Learning associated with the forward associative input signal and non-learning input data for identifying the forward associative input signal based on the learning internal / external category identification signal for the Gori identification process, and the learning from the learning internal / external category identifying process Based on the inside / outside category identification signal and the attractor convergence identification signal from the attractor convergence state identification process, if the attractor is in a non-learning category identification state, the spurious attractor identification and the learning / attractor identification is in a learning internal category identification state. And an associative memory processing software comprising at least an attractor identifying process.

第14の手段として、学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理と、連想ループ回数を計数する連想ループ回数判定処理を少なくとも有する相互連想記憶処理ソフトウェアにあって、後進連想入力信号を該後進ニューラルネットワーク処理にて処理し出力信号を得え、更に、該出力信号を入力し該前進ニューラルネットワーク処理にて出力信号を得、その後、該出力信号を前進ニューラルネットワーク出力信号入力設定処理を介してフィードバック入力し該後進ニューラルネットワーク処理にて出力信号を得る連想ループ処理を行い、該前進ニューラルネットワーク処理の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理と、連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク処理の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク処理の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理と、前記後進連想入力信号と連想ループ回数n=1に於ける該後進ニューラルネットワーク処理の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する後進連想入力信号学習・非学習入力データ識別処理と、前記学習内外カテゴリ識別処理からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェアを構成する。   As a fourteenth means, forward neural network processing learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the learning input data is sent to the teacher signal. In the associative memory processing software having at least a reverse neural network process learned so that it can be transmitted and an associative loop number determination process for counting the number of associative loops, the reverse associative input signal is processed by the reverse neural network process The output signal is input, the output signal is input and the output signal is obtained by the forward neural network processing, and then the output signal is fed back via the forward neural network output signal input setting processing to input the reverse neural network. Associating output signals with network processing A comparison process between the classification category number corresponding to the output signal of the forward neural network processing and the classification category number region formed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing. The learning internal / external category identification process for identifying the learning internal / external category of the output signal, and the two input signals of the backward neural network processing and the corresponding two output signals obtained through the continuous associative loop process, Attractor convergence state identification processing for identifying attractor convergence state based on respective coincidence states between two output signals of forward neural network processing, and the backward neural network in the backward associative input signal and the number of associative loops n = 1 Processing input signal coincidence state between two input signals, and the learning internal and external categories The learning associative input signal learning / non-learning input data identification process for identifying the learning associative input signal learning / non-learning input data of the forward associative input signal and the learning internal / external category identification process from the learning internal / external category identification process, by the learning internal / external category identification signal Based on the category identification signal and the attractor convergence identification signal from the attractor convergence state identification process, if the attractor is in a non-learning category identification state in the convergence state, the spurious attractor identification and the learning / attractor identification is in the learning category identification state. The associative memory processing software is characterized by having at least attractor identification processing.

第15の手段として、第13の手段及び第14の手段の前記アトラクタ識別処理にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習・アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶処理ソフトウェアを構成する。   As a fifteenth means, in the attractor identification process of the thirteenth means and the fourteenth means, when the associative loop count n = 1 from the attractor convergence identification signal and the learning inside / outside category identification signal, the attractor convergence state In the learning category identification state, learning / attractor identification, and non-learning category identification state, One-Shot spurious / attractor identification, associative loop count n> 1, the category classification in learning in the attractor convergence state If it is in the state, generalized learning / attractor identification, and if it is in the non-learning category identification state, generalized spurious / attractor identification is set.

本発明の多層ニューラルネットワークによる相互連想メモリは、前進多層ニューラルネットワークの出力信号に於いて、密な2値コードを教師信号として割り当てた分散型出力形式を用い、更に、前進多層ニューラルネットワークの2値出力信号に対する学習内外カテゴリ識別と、連想入力信号の学習・非学習入力データ識別と、連想ループ処理に於いて、前進多層ニューラルネットワークの入力信号間及び出力信号間、更に後進多層ニューラルネットワークの出力信号間での夫々の一致比較によるアトラクタ収束状態識別及びアトラクタ識別とを行っている。   The mutual associative memory according to the multilayer neural network of the present invention uses a distributed output format in which a dense binary code is assigned as a teacher signal in the output signal of the forward multilayer neural network, and further the binary of the forward multilayer neural network. Learning internal / external category identification for output signal, learning / non-learning input data identification of associative input signal, and associative loop processing, between input signals and output signals of forward multi-layer neural network, and further output signal of reverse multi-layer neural network Attractor convergence state identification and attractor identification are performed by comparing each match between the two.

上記説明のごとく本発明の相互連想記憶装置は、分類カテゴリ番号を密に符号化した2値コードを前進多層ニューラルネットワークの2値教師信号として用いることから、連想ループ回数n=1の段階での、前進連想入力信号の学習・アトラクタ識別とOne-Shotスプリアス・アトラクタ識別、及び学習・非学習入力データの識別が瞬時にできる。更に、連想ループ処理に於いて、前進多層ニューラルネットワーク及び後進多層ニューラルネットワークの汎化状態を検出することにより、アトラクタ収束状態での汎化学習・アトラクタ識別や汎化スプリアス・アトラクタ識別もできる。また、非常に少ない連想ループ処理の基でアトラクタ収束状態が達成されるとともに、スプリアス・アトラクタの発生が非常に少ない。更に、非常に多量の学習アトラクタを自由且つ安定に記憶できるなど、従来装置にない、一段と優れた相互連想メモリを実現している。   As described above, the associative memory device of the present invention uses a binary code in which classification category numbers are densely encoded as a binary teacher signal of a forward multi-layer neural network. In addition, learning / attractor identification of the forward associative input signal and One-Shot spurious / attractor identification, and learning / non-learning input data can be instantly identified. Further, in the associative loop processing, generalization learning / attractor identification and generalized spurious / attractor identification in the attractor convergence state can be performed by detecting the generalization state of the forward multilayer neural network and the backward multilayer neural network. In addition, the attractor convergence state is achieved based on very few associative loop processes, and spurious attractors are very rarely generated. In addition, a much larger amount of learning attractors can be stored freely and stably, and a much more excellent associative memory that is not available in conventional devices is realized.

これらのことから、本発明の大容量の記憶能力を持った優れた相互連想記憶装置は、高速データ検索や、未知入力データによる不正アクセス検出などのセキュリティシステムへの応用や、ネットワーク障害検出システムなどへの応用、更には、多くの雑音により劣化した大容量の画像データなどの認識や劣化除去フィルタリングなどのパターン認識へ幅広く適用できる。   For these reasons, the excellent associative memory device having a large capacity of the present invention is applicable to security systems such as high-speed data retrieval, unauthorized access detection by unknown input data, network failure detection system, etc. Furthermore, it can be widely applied to pattern recognition such as recognition of large-capacity image data degraded by a large amount of noise and filtering for degradation removal.

本発明の実施形態の3層ニューラルネットワークを用いた相互連想メモリの1実施例を図1に示す。以下の本発明の多層ニューラルネットワークを用いた相互(ヘテロ)連想メモリの実施形態に於いて、その基本構成の説明を簡単にする為、2値教師信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。尚、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークなどの教師信号を用いて学習するニューラルネットワークであればよい。   An example of an associative memory using a three-layer neural network according to an embodiment of the present invention is shown in FIG. In the following embodiment of the mutual (hetero) associative memory using the multilayer neural network of the present invention, a three-layer neural network using a binary teacher signal is taken as an example to simplify the description of the basic configuration. The configuration and operation thereof will be described in detail. The present invention is not limited to a three-layer neural network, and any neural network that learns using a teacher signal such as a multilayer neural network having four or more layers may be used.

入力端子1に入力された前進連想入力信号と後進3層ニューラルネットワーク13からの出力信号の何れかを連想ループ制御処理部11からの制御信号により切替選択し、入力端子2を介して前進3層ニューラルネットワーク12へ送出すると共に、アトラクタ収束状態識別処理部14に送出する入力切り替えスイッチ10と、入力端子1から前進連想入力信号と入力端子18からの後進連想入力信号の何れかを連想ループ制御処理部11からの制御信号により切替選択し、アトラクタ収束状態識別処理部14に送出する入力切替スイッチ19と、入力端子2からの入力信号に対して2値出力信号を得、出力端子3から送出し、出力端子9から分類カテゴリ出力信号として送出するとともに、入力切り替えスイッチ17、学習内外カテゴリ識別処理部15、アトラクタ収束状態識別処理部14へ夫々送出する前進3層ニューラルネットワーク12と、前進3層ニューラルネットワーク12からの2値出力信号と端子18からの後進連想入力信号の何れかを連想ループ制御処理部11の制御により切替選択し、入力端子4を介して前記後進3層ニューラルネットワーク13に入力する入力切り替えスイッチ17と、入力端子4の入力信号に対する出力信号を入力切替スイッチ10及びアトラクタ収束状態識別処理部14へ夫々送出すると共に、アトラクタ出力信号として出力端子5から送出する後進3層ニューラルネットワーク13と、前進3層ニューラルネットワーク12からの2値出力信号が入力され、学習内外カテゴリ識別信号をアトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する学習内外カテゴリ識別処理部15と、連想ループ制御処理部11から初期設定され、入力切替スイッチ19からの連想入力信号と前進3層ニューラルネットワーク12の入力信号及び出力信号と後進3層ニューラルネットワーク13の出力信号とが入力され、アトラクタ識別処理部16及び出力端子8へアトラクタ収束識別信号を送出し、更に学習・非学習入力データ識別信号を出力端子7へ送出し、前記連想ループ制御処理部11へ連想ループ処理要求信号或いはアトラクタ収束信号を送出するアトラクタ収束状態識別処理部14と、学習内外カテゴリ識別処理部15から学習内外カテゴリ識別信号とアトラクタ収束状態識別処理部14からアトラクタ収束識別信号が入力され、連想ループ制御処理部11からアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号が入力され、アトラクタ識別信号を出力端子6へ送出する前記アトラクタ識別処理部16と、前進連想入力信号が入力端子1から入力される時、或いは後進連想入力信号が入力端子18から入力される時、前記入力切替スイッチ10、17及び19の切替設定制御を行い、アトラクタ収束状態識別処理部14の初期設定及びアトラクタ識別処理部16へアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号を送出し、更に連想ループ処理の開始及び終了を制御する連想ループ制御処理部11とから構成される。   Either a forward associative input signal input to the input terminal 1 or an output signal from the backward three-layer neural network 13 is selected by a control signal from the associative loop control processing unit 11, and the forward three-layer through the input terminal 2 An associative loop control process that sends the input to the neural network 12 and the input changeover switch 10 sent to the attractor convergence state identification processing unit 14 and the forward associative input signal from the input terminal 1 and the reverse associative input signal from the input terminal 18 A binary output signal is obtained for the input signal from the input changeover switch 19 and the input terminal 2 which is switched and selected by the control signal from the unit 11 and sent to the attractor convergence state identification processing unit 14 and sent out from the output terminal 3 , And output as a category category output signal from the output terminal 9, and the input selector switch 17, the learning internal / external category identification Either an advance three-layer neural network 12 to be sent to the processing unit 15 or the attractor convergence state identification processing unit 14, a binary output signal from the forward three-layer neural network 12, and a backward associative input signal from the terminal 18 are associative loops. An input changeover switch 17 that is switched and selected under the control of the control processing unit 11 and is input to the reverse three-layer neural network 13 through the input terminal 4, and an output signal corresponding to the input signal at the input terminal 4 is input to the input changeover switch 10 and attractor convergence. Each of the signals is sent to the state identification processing unit 14, and the binary output signal from the backward three-layer neural network 13 and the forward three-layer neural network 12 sent from the output terminal 5 as the attractor output signal is input, and the learning internal / external category identification signal is input. The attractor convergence state identification processing unit 14 and the attractor The learning internal / external category identification processing unit 15 and the associative loop control processing unit 11 which are respectively sent to the data identification processing unit 16 are initialized, and the associative input signal from the input changeover switch 19 and the input signal and output of the forward three-layer neural network 12 are output. The signal and the output signal of the reverse three-layer neural network 13 are input, the attractor convergence identification signal is transmitted to the attractor identification processing unit 16 and the output terminal 8, and the learning / non-learning input data identification signal is further transmitted to the output terminal 7. , An attractor convergence state identification processing unit 14 for sending an associative loop processing request signal or attractor convergence signal to the associative loop control processing unit 11, and a learning internal / external category identification signal and attractor convergence state identification processing unit from the learning internal / external category identification processing unit 15. 14, an attractor convergence identification signal is input, and an associative loop control processing unit 11 When an attractor identification signal transmission request signal or an attractor divergence identification signal transmission request signal is input from, and the attractor identification processing unit 16 that transmits the attractor identification signal to the output terminal 6 and the forward associative input signal are input from the input terminal 1 Alternatively, when a reverse associative input signal is input from the input terminal 18, switching setting control of the input changeover switches 10, 17, and 19 is performed, and the initial setting of the attractor convergence state identification processing unit 14 and the attractor identification processing unit 16 are attracted. It comprises an associative loop control processing unit 11 that sends an identification signal transmission request signal or attractor divergence identification signal transmission request signal, and further controls the start and end of the associative loop process.

以下に、これらの連想ループ処理の動作を説明する。連想ループ処理に先だって、前進3層ニューラルネットワーク12の学習入力データとしての学習アトラクタと、分類カテゴリに割り当てられた2値教師信号としての2値コードとからなる学習データを用いて前進3層ニューラルネットワーク12を予め学習させ、更に、前記の前進3層ニューラルネットワーク12の学習データとは逆配置の入出力関係を持つ学習データを用いて後進3層ニューラルネットワーク13を学習させ、夫々を設定しておく。ここでは、前進ニューラルネットワーク12の2値出力信号は、分類カテゴリを表す2値コードの分散型出力形式である。   The operation of these associative loop processes will be described below. Prior to the associative loop processing, the forward three-layer neural network using learning data including a learning attractor as learning input data of the forward three-layer neural network 12 and a binary code as a binary teacher signal assigned to the classification category. 12 is learned in advance, and further, the backward three-layer neural network 13 is learned using learning data having an input / output relationship opposite to the learning data of the forward three-layer neural network 12, and each is set. . Here, the binary output signal of the forward neural network 12 is a distributed output format of a binary code representing a classification category.

また、前進3層ニューラルネットワーク12の分類カテゴリ数(教師信号数)M個の分類カテゴリに割り当てられた2値教師信号に対応した0からM-1の連続した整数の通し番号の分類カテゴリ番号から構成された分類カテゴリ番号領域を設け、この領域の最大値(M-1)を最大分類カテゴリ番号Maxcatgとして、学習内外カテゴリ識別処理部15に予め設定する。更に、0からM-1のカテゴリ番号に2値教師信号としての分散型2値コードを対応させる。   The number of classification categories (the number of teacher signals) of the forward three-layer neural network 12 is composed of the classification category numbers of serial numbers from 0 to M-1 corresponding to binary teacher signals assigned to the M classification categories. The classified category number area is provided, and the maximum value (M-1) of this area is set as the maximum classified category number Maxcatg in the learning internal / external category identification processing unit 15 in advance. Further, a distributed binary code as a binary teacher signal is associated with a category number from 0 to M-1.

ここでは、先ず、前進連想入力信号が入力端子1に入力される通常の場合についての動作を説明する。連想ループ制御処理部11に於いて連想ループ回数n=0を初期設定し、連想ループ制御信号を、入力切替スイッチ10、17、19の設定及びアトラクタ収束状態識別処理部14の連想ループ回数記憶及び入出力信号記憶の初期設定の為夫々送出する。端子1に前進連想入力信号X(0)が入力されると、入力切替スイッチ10は、入力端子1と入力端子2とが接続されるよう、また入力切替スイッチ17は、常に出力端子3と入力端子4とが接続されるよう、更に入力切替スイッチ19は、前進連想入力信号X(0)がアトラクタ収束状態識別処理部16に入力されるよう設定制御され、連想ループ処理が実行される。
入力端子1の雑音を多く含む画像データや一部の情報からなる画像データ、或いは、メモリ高速検索データとしての前進連想入力信号X(0)が入力切替スイッチ10を介して、学習済み前進ニューラルネットワーク12に入力され、更にアトラクタ収束状態識別処理部14へ入力され記憶される。
Here, first, the operation in the normal case where the forward associative input signal is input to the input terminal 1 will be described. The associative loop control processing unit 11 initializes the associative loop count n = 0, and the associative loop control signal is stored in the input changeover switches 10, 17, and 19 and the attractor convergence state identification processing unit 14 stores the associative loop count. Transmitted for initial setting of I / O signal storage. When the forward associative input signal X (0) is input to the terminal 1, the input selector switch 10 is connected to the input terminal 1 and the input terminal 2, and the input selector switch 17 is always connected to the output terminal 3. Further, the input changeover switch 19 is set and controlled so that the forward associative input signal X (0) is input to the attractor convergence state identification processing unit 16 so that the terminal 4 is connected, and associative loop processing is executed.
Image data including a lot of noise at the input terminal 1 or image data consisting of a part of information, or a forward associative input signal X (0) as memory high-speed search data is learned via the input changeover switch 10 12 and further input to and stored in the attractor convergence state identification processing unit 14.

連想ループ回数n=0の場合に、前進連想入力信号X(0)に対応して、前進3層ニューラルネット12から2値出力信号Y(0)、更に後進3層ニューラルネット13から出力信号X(1)が得られる。また、連想ループ回数n(但し、n≧1)の場合には、連想ループ制御処理部11からの制御信号の基に、入力切替スイッチ10を介して入力端子2に後進3層ニューラルネットワーク13の出力信号X(n)が入力され、更に前進3層ニューラルネットワーク12から出力信号Y(n)、後進3層ニューラルネットワーク13から出力信号X(n+1)が夫々得られ、これらの比較の為に、アトラクタ収束状態識別処理部14に夫々入力され記憶される。   When the number of associative loops n = 0, the binary output signal Y (0) from the forward three-layer neural network 12 and the output signal X from the reverse three-layer neural network 13 corresponding to the forward associative input signal X (0). (1) is obtained. When the number of associative loops is n (where n ≧ 1), the reverse three-layer neural network 13 is connected to the input terminal 2 via the input changeover switch 10 based on the control signal from the associative loop control processing unit 11. An output signal X (n) is input, and further, an output signal Y (n) is obtained from the forward three-layer neural network 12, and an output signal X (n + 1) is obtained from the reverse three-layer neural network 13, respectively. The attractor convergence state identification processing unit 14 is inputted and stored respectively.

学習内外カテゴリ識別処理部15では、前進3層ニューラルネットワーク12の2値出力信号Y(n)である分散型出力形式の2値コードから変換された整数値、即ち分類カテゴリ番号IcatgY(n)を得る。これを前記の最大分類カテゴリ番号Maxcatgと比較処理をする。   In the learning internal / external category identification processing unit 15, the integer value converted from the binary code in the distributed output format which is the binary output signal Y (n) of the forward three-layer neural network 12, that is, the classification category number IcatgY (n) is obtained. obtain. This is compared with the maximum classification category number Maxcatg.

分類カテゴリ番号IcatgY(n)が予め与えられた前記の最大分類カテゴリ番号Maxcatgより大きい場合には、
即ち、
IcatgY(n)>Maxcatg (1)
を満足する場合には、前進3層ニューラルネットワーク12の2値出力信号Y(n)が学習外カテゴリの2値出力信号であると識別され、学習外カテゴリ識別信号を学習内外カテゴリ識別信号として、アトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する。
If the classification category number IcatgY (n) is greater than the previously given maximum classification category number Maxcatg,
That is,
IcatgY (n)> Maxcatg (1)
Is satisfied, the binary output signal Y (n) of the forward three-layer neural network 12 is identified as the binary output signal of the outside learning category, and the outside learning category identification signal is used as the outside learning category identification signal. The data is sent to the attractor convergence state identification processing unit 14 and the attractor identification processing unit 16, respectively.

一方、最大分類カテゴリ番号Maxcatg以下の場合には、
即ち、
IcatgY(n)≦Maxcatg (2)
を満たす場合には、前進3層ニューラルネットワーク12の2値出力信号Y(n)が学習内カテゴリの出力信号と識別され、学習内カテゴリ識別信号を学習内外カテゴリ識別信号として、アトラクタ収束状態識別処理部14及びアトラクタ識別処理部16へ夫々送出する。
このように、学習内外カテゴリ識別処理部15に於いて、2値教師信号とその分類カテゴリ番号間の割り当て規則に従った分類カテゴリ番号を介した演算処理により、学習内外カテゴリ識別が簡単にできる。
On the other hand, if the maximum category number is less than Maxcatg,
That is,
IcatgY (n) ≦ Maxcatg (2)
If the condition is satisfied, the binary output signal Y (n) of the forward three-layer neural network 12 is identified as the output signal of the in-learning category, and the attractor convergence state identification process is performed using the in-learning category identification signal as the learned in-out category identification signal Are sent to the unit 14 and the attractor identification processing unit 16, respectively.
In this way, the learning inside / outside category identification processing unit 15 can easily identify the learning inside / outside category by the arithmetic processing via the classification category number according to the assignment rule between the binary teacher signal and the classification category number.

連想ループ回数nの連想ループ処理では、後進3層ニューラルネットからの出力信号X(n)が入力切替スイッチ10を介してフィードバックされ、前進3層ニューラルネット12に入力される。これに対応した前進3層ニューラルネット12からの2値出力信号Y(n)は、入力端子4を介して後進3層ニューラルネットワーク13へ、更に学習内外カテゴリ識別処理部15及びアトラクタ収束状態識別処理部14にそれぞれ送出される。また、出力端子9へ分類カテゴリ出力信号として出力される。
後進3層ニューラルネットワーク13は、入力された2値出力信号Y(n)に対する出力信号X(n+1)を出力し、アトラクタ収束状態識別処理部14及び入力切替スイッチ10へ夫々送出する。
In the associative loop process of the associative loop count n, the output signal X (n) from the reverse three-layer neural network is fed back via the input changeover switch 10 and input to the forward three-layer neural network 12. The binary output signal Y (n) from the forward three-layer neural network 12 corresponding to this is input to the backward three-layer neural network 13 via the input terminal 4 and further to the learning internal / external category identification processing unit 15 and attractor convergence state identification processing. Each is sent to the unit 14. Further, it is output to the output terminal 9 as a category category output signal.
The reverse three-layer neural network 13 outputs an output signal X (n + 1) corresponding to the input binary output signal Y (n) and sends it to the attractor convergence state identification processing unit 14 and the input changeover switch 10 respectively.

アトラクタ収束状態識別処理部14では、表1の如く、これらの前進及び後進3層ニューラルネットワーク12、13の記憶された入出力信号を夫々比較し、アトラクタの収束状態識別を行い、One-Shotアトラクタ収束識別信号、アトラクタ収束直前識別信号、アトラクタ未収束識別信号の何れかのアトラクタ収束識別信号を出力端子8から送出すると共にアトラクタ識別処理部16へ送出する。更に、連想ループ制御処理部11へアトラクタ未収束状態ならば、連想ループ処理要求信号を、アトラクタ収束状態或いは汎化アトラクタ収束直前状態ならば、アトラクタ収束信号を送出する。また、連想ループ回数n=1の連想ループ処理に於いて、学習内外カテゴリ識別処理部15からの学習内外カテゴリ識別信号を基に、出力端子7から学習・非学習入力データ識別信号としての学習入力データ識別信号、或いは非学習入力データ識別信号の何れかを送出する。   As shown in Table 1, the attractor convergence state identification processing unit 14 compares the stored input / output signals of the forward and backward three-layer neural networks 12 and 13 to identify the attractor's convergence state, and the One-Shot attractor. One of the convergence identification signal, the identification signal immediately before the attractor convergence, and the attractor non-convergence identification signal is sent from the output terminal 8 and sent to the attractor identification processing unit 16. Furthermore, if the attractor has not converged, the associative loop processing request signal is sent to the associative loop control processing unit 11, and if the attractor has converged or just before the generalized attractor has converged, the attractor convergence signal is sent. Further, in the associative loop processing with the association loop count n = 1, the learning input as the learning / non-learning input data identification signal is output from the output terminal 7 based on the learning internal / external category identification signal from the learning internal / external category identification processing unit 15. Either a data identification signal or a non-learning input data identification signal is transmitted.

Figure 0004539221
Figure 0004539221

アトラクタ識別処理部16では、アトラクタ収束状態識別処理部14からアトラクタ収束識別信号及び連想ループ制御処理部11からアトラクタ識別信号送出要求信号或いはアトラクタ発散識別信号送出要求信号が、また、学習内外カテゴリ識別処理部15から学習内外カテゴリ識別信号が夫々入力される。これら信号を基に、収束したアトラクタのアトラクタ識別信号として、学習・アトラクタ識別信号、汎化学習・アトラクタ識別信号、One-Shotスプリアス・アトラクタ識別信号、汎化スプリアス・アトラクタ識別信号及びアトラクタ発散識別信号の何れかを出力端子6から送出する。   In the attractor identification processing unit 16, the attractor convergence state identification processing unit 14 receives the attractor convergence identification signal, the associative loop control processing unit 11 receives the attractor identification signal transmission request signal or the attractor divergence identification signal transmission request signal, and learning internal / external category identification processing. A learning internal / external category identification signal is input from the unit 15. Based on these signals, as the attractor identification signal of the converged attractor, learning / attractor identification signal, generalized learning / attractor identification signal, One-Shot spurious attractor identification signal, generalized spurious attractor identification signal and attractor divergence identification signal Is sent from the output terminal 6.

更に、後進3層ニュウラルネット13からの2値出力信号が、学習・アトラクタ出力信号、汎化学習・アトラクタ出力信号、One-Shotスプリアス・アトラクタ出力信号、汎化スプリアス・アトラクタ出力信号或いはアトラクタ未収束出力信号の何れかのアトラクタ出力信号として、出力端子5から送出される。   Furthermore, the binary output signal from the reverse three-layer neural network 13 is a learning / attractor output signal, generalized learning / attractor output signal, One-Shot spurious attractor output signal, generalized spurious attractor output signal, or attractor unconvergence. The output signal is sent from the output terminal 5 as any one of the output signals.

ここで、前進連想入力信号X(0)が学習入力データの場合には、連想ループ回数n=0に於いて、常にそれに対応した2値教師信号である2値出力信号Y(0)が得られ、学習内外カテゴリ識別処理部15に於いて、式(2)を満足することから、学習内カテゴリと識別される。更に、入力切替スイッチ10を切替え、連想ループ回数n=1の連想ループ処理を行うと、同様に式(2)を満足し、学習内カテゴリと識別される。   Here, when the forward associative input signal X (0) is learning input data, the binary output signal Y (0), which is a binary teacher signal corresponding to the number of associative loops n = 0, is always obtained. Then, the learning inside / outside category identification processing unit 15 satisfies the expression (2), so that it is identified as a learning category. Further, when the input selector switch 10 is switched and the associative loop processing with the associative loop count n = 1 is performed, the expression (2) is similarly satisfied and the category within learning is identified.

アトラクタ収束状態識別処理部14では、表1のように、前進及び後進3層ニューラルネットワーク12、13の入出力関係が、X(0)=X(1), Y(0)=Y(1), X(1)=X(2)となるOne-Shotアトラクタ収束状態となり、出力端子8からOne-Shotアトラクタ収束識別信号がアトラクタ収束識別信号として送出される。
また、学習内外カテゴリ識別処理部15でY(1)が学習内カテゴリと識別され、然も前進連想入力信号X(0)=X(1)であることから、前進連想入力信号X(0)が学習入力データであることが明かとなる。この結果、学習入力データ識別信号が学習・非学習入力データ識別信号として出力端子7に送出される。このように、連想ループ回数n=1の時点で、前進連想入力信号X(0)が学習入力データか非学習入力データかの識別が行われる。
In the attractor convergence state identification processing unit 14, as shown in Table 1, the input / output relationship between the forward and backward three-layer neural networks 12 and 13 is X (0) = X (1), Y (0) = Y (1). , X (1) = X (2), the One-Shot attractor convergence state is established, and the One-Shot attractor convergence identification signal is transmitted from the output terminal 8 as the attractor convergence identification signal.
Further, since the learning inside / outside category identification processing unit 15 identifies Y (1) as the learning inside category and the forward associative input signal X (0) = X (1), the forward associative input signal X (0) Is the learning input data. As a result, the learning input data identification signal is sent to the output terminal 7 as a learning / non-learning input data identification signal. In this way, at the time when the number of associative loops n = 1, the forward associative input signal X (0) is identified as learning input data or non-learning input data.

更に、アトラクタ識別処理部16に於いて、連想ループ制御処理部11からのアトラクタ識別信号送出要求信号のもとに、アトラクタ収束識別信号としてのOne-Shotアトラクタ収束識別信号と学習内外カテゴリ識別信号としての学習内カテゴリ識別信号とからアトラクタの識別が行われ、学習・アトラクタ識別信号をアトラクタ識別信号として出力端子6に送出する。
また、後進3層ニューラルネットワーク13からの出力信号X(1)である学習・アトラクタ出力信号がアトラクタ出力信号として出力端子5に送出される。
Further, in the attractor identification processing unit 16, based on the attractor identification signal transmission request signal from the associative loop control processing unit 11, the One-Shot attractor convergence identification signal as the attractor convergence identification signal and the learning inside / outside category identification signal The attractor is identified from the learning category identification signal, and the learning / attractor identification signal is sent to the output terminal 6 as the attractor identification signal.
Further, a learning / attractor output signal which is an output signal X (1) from the reverse three-layer neural network 13 is sent to the output terminal 5 as an attractor output signal.

一方、前進連想入力信号X(0)として、前記の学習入力データ以外の非学習入力データである未知入力データが入力された場合、連想ループ回数n=1で、学習内外カテゴリ識別処理部15でIcatgY(1)が学習外カテゴリと識別されていると、前進連想入力信号X(0)は非学習入力データで、即座に判明する。この時、表1に示すように、X(0)=X(1)、Y(0)=Y(1)、X(1)=X(2)の関係を満たすOne-Shotアトラクタ収束状態では、One-Shotスプリアス・アトラクタである。   On the other hand, when unknown input data that is non-learning input data other than the learning input data is input as the forward associative input signal X (0), the learning internal / external category identification processing unit 15 uses the associative loop count n = 1. If IcatgY (1) is identified as a non-learning category, the forward associative input signal X (0) is non-learning input data and is immediately identified. At this time, as shown in Table 1, in the One-Shot attractor convergence state satisfying the relationship of X (0) = X (1), Y (0) = Y (1), X (1) = X (2) , One-Shot spurious attractor.

アトラクタ収束状態識別処理部14では、連想ループ回数n+1(但し、n≧1)に於いて、X(n)=X(n+1)、Y(n)=Y(n+1)、X(n+1)=X(n+2)の関係を満たす汎化アトラクタ収束状態になる場合には,その直前の連想ループ回数nに於いて必ず前進或いは後進3層ニューラルネットワーク12、13の何れかに於いて汎化状態が発生し、前進3層ニューラルネットワーク12が汎化状態の場合には、X(n-1)≠X(n)、Y(n-1)=Y(n)、X(n)=X(n+1)の関係が満たされる。一方、後進3層ニューラルネットワーク13が汎化状態の場合には、X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)=X(n+1)の関係が満たされる。何れの場合も、汎化アトラクタ収束直前状態となり、夫々アトラクタ収束直前識別信号が、出力端子8から送出される。   In the attractor convergence state identification processing unit 14, X (n) = X (n + 1), Y (n) = Y (n + 1), where the number of associative loops is n + 1 (where n ≧ 1). When a generalized attractor convergence state satisfying the relationship X (n + 1) = X (n + 2) is satisfied, the forward or backward three-layer neural networks 12 and 13 are always transmitted in the associative loop count n immediately before that. If a generalized state occurs in any of the cases and the forward three-layer neural network 12 is in a generalized state, X (n-1) ≠ X (n), Y (n-1) = Y (n) , X (n) = X (n + 1) is satisfied. On the other hand, when the backward three-layer neural network 13 is in a generalized state, X (n−1) ≠ X (n), Y (n−1) ≠ Y (n), X (n) = X (n + The relationship of 1) is satisfied. In any case, the state immediately before the generalized attractor converges, and an identification signal just before the attractor convergence is sent from the output terminal 8.

例えば、連想ループ回数n=1で、アトラクタ収束状態識別処理部14で、前進3層ニューラルネットワーク12の汎化状態によって、X(0)≠X(1)、Y(0)=Y(1)、X(1)=X(2)の関係となる汎化アトラクタ収束直前状態(n=2で汎化アトラクタ収束状態となる)が検出されると、出力端子8からアトラクタ収束直前識別信号が送出される。アトラクタ識別処理部16では、この時、前進3層ニューラルネットワーク12の出力信号Y(1)が学習内カテゴリと識別されると、汎化学習・アトラクタであることが判明し、汎化学習・アトラクタ識別信号が出力端子6から送出される。
一方、前進3層ニューラルネットワーク12の出力信号Y(1)が学習外カテゴリと識別されると、アトラクタ識別処理部16では、汎化スプリアス・アトラクタであることが判明し、汎化スプリアス・アトラクタ識別信号が出力端子6から送出される。尚、何れの場合も、前進連想入力信号は、非学習入力データである。
For example, when the number of associative loops n = 1, the attractor convergence state identification processing unit 14 determines X (0) ≠ X (1), Y (0) = Y (1) depending on the generalization state of the forward three-layer neural network 12. , X (1) = X (2) relation, a generalized attractor just before convergence state (when n = 2, a generalized attractor converged state) is detected, an identification signal just before attractor convergence is sent from the output terminal 8 Is done. At this time, when the output signal Y (1) of the forward three-layer neural network 12 is identified as a learning category, the attractor identification processing unit 16 is determined to be a generalized learning / attractor, and the generalized learning / attractor is identified. An identification signal is sent from the output terminal 6.
On the other hand, when the output signal Y (1) of the forward three-layer neural network 12 is identified as a non-learning category, the attractor identification processing unit 16 turns out to be a generalized spurious attractor, and generalized spurious attractor identification. A signal is sent out from the output terminal 6. In any case, the forward associative input signal is non-learning input data.

連想ループ制御処理部11では、アトラクタ収束状態識別処理部14からアトラクタ収束信号が入力されると、連想ループ処理を終了し、アトラクタ識別処理部16に対して、アトラクタ識別信号送出要求信号を送出する。また、アトラクタ識別処理部16では、2値出力信号Y(n)が学習内カテゴリであれば、汎化学習・アトラクタに収束しており、一方、学習外カテゴリであると汎化スプリアス・アトラクタに収束していることが判明し、夫々汎化学習・アトラクタ識別信号及び汎化スプリアス・アトラクタ識別信号が出力端子6から夫々送出される。   In the associative loop control processing unit 11, when an attractor convergence signal is input from the attractor convergence state identification processing unit 14, the associative loop processing is terminated and an attractor identification signal transmission request signal is transmitted to the attractor identification processing unit 16. . In addition, the attractor identification processing unit 16 converges to the generalized learning / attractor if the binary output signal Y (n) is in the learning category, and on the other hand to the generalized spurious attractor in the case of the non-learning category. It is found that they have converged, and a generalized learning / attractor identification signal and a generalized spurious / attractor identification signal are transmitted from the output terminal 6, respectively.

また、連想ループ回数nが指定された連想ループ最大許容回数N以下で汎化アトラクタ収束直前状態にならない、即ち、X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)≠X(n+1)の関係の場合には、アトラクタ未収束状態で、不想起状態であることが判明する。アトラクタ収束状態識別処理部14から連想ループ制御処理部11へ連想ループ処理要求信号を送出とともに、アトラクタ未収束識別信号を出力端子8及びアトラクタ識別処理部16へ送出する。
連想ループ制御処理部11では、連想ループ回数nがN未満であると、連想ループ回数nをn+1とし、連想ループ処理を引き続き実施する。
In addition, when the number of associative loops n is equal to or less than the specified maximum allowable number of associative loops N, the state immediately before the generalized attractor convergence does not occur, that is, X (n-1) ≠ X (n), Y (n-1) ≠ Y ( In the case of the relationship of n), X (n) ≠ X (n + 1), it is found that the attractor has not converged and is a recollection state. The attractor convergence state identification processing unit 14 sends an associative loop processing request signal to the associative loop control processing unit 11, and sends an attractor non-convergence identification signal to the output terminal 8 and the attractor identification processing unit 16.
If the associative loop count n is less than N, the associative loop control processing unit 11 sets the associative loop count n to n + 1 and continues the associative loop processing.

この時、連想ループ制御処理部11に於いて連想ループ回数n>Nの場合には,アトラクタ識別処理部16に対して、アトラクタ発散識別信号送出要求信号を送出し、連想ループ処理を終了する。アトラクタ識別処理部16では、連想ループ制御処理部11からのアトラクタ発散識別信号送出要求信号により、出力端子6を介してアトラクタ発散識別信号が送出される。
このことは、前進連想入力信号X(0)に対して、指定された連想ループ回数nがN以下でアトラクタ収束状態が得られず、不想起状態になったことを意味する。
新たな前進連想入力信号X(0)が入力端子1に入力されると、再び連想ループ回数n=0とし、上記の一連の連想ループ処理を実施する。
At this time, if the number of associative loops n> N in the associative loop control processing unit 11, an attractor divergence identification signal transmission request signal is transmitted to the attractor identification processing unit 16, and the associative loop processing is terminated. In the attractor identification processing unit 16, the attractor divergence identification signal is transmitted via the output terminal 6 in response to the attractor divergence identification signal transmission request signal from the associative loop control processing unit 11.
This means that, for the forward associative input signal X (0), the number of specified associative loops n is N or less and the attractor convergence state is not obtained, and a recollection state is entered.
When a new forward associative input signal X (0) is input to the input terminal 1, the number of associative loops n = 0 is set again, and the above-described series of associative loop processing is performed.

ここで、アトラクタ収束状態識別処理部14に於いて、表1に於ける連想ループ回数nでのアトラクタ収束状態と、前進3層ニューラルネットワーク12の入力信号のX(n-1)とX(n)間、出力信号のY(n-1)とY(n)間、及び後進3層ニューラルネットワーク13の出力信号のX(n)とX(n+1)間との関係を以下にまとめる。   Here, in the attractor convergence state identification processing unit 14, the attractor convergence state at the number of associative loops n in Table 1 and the input signals X (n−1) and X (n ), Between the output signals Y (n−1) and Y (n), and between the output signals X (n) and X (n + 1) of the reverse three-layer neural network 13 are summarized below.

連想ループ回数n(但し、N≧n≧1)の連想ループ処理に於いて、
X(n-1)=X(n)、Y(n-1)=Y(n)、X(n)=X(n+1) (3)
の状態であれば、アトラクタ収束状態である。
表1に示すように、特に、n=1で式(3)が成立した場合には、One-Shotアトラクタ収束状態である。前進連想入力信号X(0)=X(1)で、然もY(1)が学習内カテゴリであるならば、学習入力データであることが判明し、学習・アトラクタに収束している。一方、学習外カテゴリならば、前進連想入力信号X(0)は非学習入力データであり、One-Shotスプリアス・アトラクタと呼ぶスプリアス・アトラクタに収束している。
N≠1の場合には、直前に汎化状態を経て、アトラクタに収束する汎化アトラクタ収束状態となる。
In the associative loop processing of the associative loop number n (where N ≧ n ≧ 1),
X (n-1) = X (n), Y (n-1) = Y (n), X (n) = X (n + 1) (3)
Is the attractor convergence state.
As shown in Table 1, in particular, when Equation (3) holds when n = 1, the One-Shot attractor converges. If the forward associative input signal X (0) = X (1) and Y (1) is still within the learning category, it turns out that it is learning input data and converges to the learning / attractor. On the other hand, in the non-learning category, the forward associative input signal X (0) is non-learning input data and converges to a spurious attractor called a One-Shot spurious attractor.
When N ≠ 1, the generalized attractor converges to the attractor through the generalized state immediately before.

X(n-1)≠X(n)、Y(n-1)=Y(n)、X(n)=X(n+1) (4)
の状態であれば、前進3層ニューラルネットワーク12が汎化状態である。
また、
X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)=X(n+1) (5)
の状態であれば、後進3層ニューラルネットワーク13が汎化状態である。
X(n-1)≠X(n)、Y(n-1)≠Y(n)、X(n)≠X(n+1) (6)
の状態であれば、アトラクタ未収束状態である。
X (n-1) ≠ X (n), Y (n-1) = Y (n), X (n) = X (n + 1) (4)
In this state, the forward three-layer neural network 12 is in a generalized state.
Also,
X (n-1) ≠ X (n), Y (n-1) ≠ Y (n), X (n) = X (n + 1) (5)
In this state, the reverse three-layer neural network 13 is in a generalized state.
X (n-1) ≠ X (n), Y (n-1) ≠ Y (n), X (n) ≠ X (n + 1) (6)
In this state, the attractor has not converged.

本発明の実施形態に於ける図1の学習内外カテゴリ識別処理部15に於いて、2値教師信号である密な2値コード全てを連続した通し番号に整数値変換した、即ち、0から最大分類カテゴリ番号Maxcatg(=M-1)の通し番号から構成された分類カテゴリ番号領域を設け、前進3層ニューラルネットワーク12の2値出力信号Y(n)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法について説明した。ここで、上記の分類カテゴリ番号領域を表すために必要となる最小ビット数以上の2値コードの分散型出力形式を持った2値出力信号を用いても良い。   In the learning inside / outside category identification processing unit 15 of FIG. 1 in the embodiment of the present invention, all dense binary codes which are binary teacher signals are converted into consecutive serial numbers, that is, from 0 to the maximum classification. A classification category number area composed of serial numbers of category number Maxcatg (= M-1) is provided, and the binary output signal Y (n) of the forward three-layer neural network 12 is converted into a classification category number for comparison processing. The category identification method was explained. Here, it is also possible to use a binary output signal having a distributed output format of a binary code that is equal to or larger than the minimum number of bits required to represent the above category category number region.

即ち、分散型出力形式の2値コードを表すためのビット数をQとすると、
Q ≧ Int[log2M] (7)
となるQを用いても良い。ここで、Int[x]は、xの小数切り上げ整数値を示す。
但し、Qとして、式(7)を満たす最小の整数値を用いることにより、学習外カテゴリを殆ど発生することはなく、スプリアス・アトラクタの発生を最小限に抑えることができる。特に、2値教師信号数Mが2のべき乗(M=2**Q)である場合には、所要最小ビット数Qを用いることにより、学習外カテゴリを発生することはなく、常に学習アトラクタか汎化学習アトラクタに収束し、One-Shot及び汎化スプリアス・アトラクタを発生しない、非常に優れた特性が実現される。
That is, if the number of bits for representing a binary code in a distributed output format is Q,
Q ≧ Int [log 2 M] (7)
Q may be used. Here, Int [x] represents an integer value obtained by rounding up x.
However, by using the smallest integer value satisfying Equation (7) as Q, almost no out-of-learning category is generated, and the occurrence of spurious attractors can be minimized. In particular, when the number of binary teacher signals M is a power of 2 (M = 2 ** Q), by using the required minimum number of bits Q, a non-learning category is not generated and is always a learning attractor. A very good characteristic that converges to the generalized learning attractor and does not generate a one-shot or generalized spurious attractor is realized.

また、学習内外カテゴリ識別処理部15に於ける2値教師信号に対応した分類カテゴリ番号が0から最大分類カテゴリ番号Maxcatgから構成された連続した分類カテゴリ番号領域の領域内外識別の他に、0以外の最小分類カテゴリ番号から最大分類カテゴリ番号の分類カテゴリ数ほどの連続した通し番号から構成された連続した分類カテゴリ番号領域に対して領域内外識別を行ってもよい。
更に、上記の連続した通し番号から構成された分類カテゴリ番号領域でなく、連続した整数番号の内、指定された不連続な整数値だけから構成された不連続な分類カテゴリ番号領域を設け、学習内外カテゴリ識別を行う為に、それらの2値コードを2値教師信号として前進3層ニューラルネットワーク12を、また、それらを学習入力データとして後進3層ニューラルネットワーク13を夫々学習させてもよい。
In addition, in the learning inside / outside category identification processing unit 15, the classification category number corresponding to the binary teacher signal is from 0 to the inside / outside identification of the continuous classification category number area composed of the maximum classification category number Maxcatg. The inside / outside region identification may be performed for continuous classification category number areas composed of consecutive serial numbers from the minimum classification category number to the maximum classification category number.
Furthermore, instead of the classification category number area composed of the consecutive serial numbers described above, a discontinuous classification category number area composed only of the specified discontinuous integer values is provided in the continuous integer numbers, and the learning inside and outside are provided. In order to perform category identification, the forward three-layer neural network 12 may be learned using these binary codes as binary teacher signals, and the backward three-layer neural network 13 may be learned using them as learning input data.

例えば、必要な2値教師信号数Mほど、指定個数毎置きに(例えば、2個毎置きの場合では、0、3、6、9、・・)分類カテゴリ番号を準備した不連続な分類カテゴリ番号領域(これらの分類カテゴリ番号以外は全て学習外カテゴリである。)を設け、この分類カテゴリ番号領域の分類カテゴリ番号を2値コード変換して2値教師信号に割り当ててもよい。
即ち、2値教師信号に対して、特定の整数値範囲毎、或いは特定の整数値毎などからなる規則的な分類カテゴリ番号領域の分類カテゴリ番号に対して2値コードを割り当て、これらを2値教師信号としてもよい。
For example, the required number of binary teacher signals M is a discontinuous classification category in which classification category numbers are prepared for every designated number (for example, in the case of every two, 0, 3, 6, 9,...). A number area (all categories other than these classification category numbers are non-learning categories) may be provided, and the classification category numbers in this classification category number area may be binary code converted and assigned to the binary teacher signal.
In other words, a binary code is assigned to a classification category number in a regular classification category number area composed of a specific integer value range or a specific integer value for a binary teacher signal, and these are converted into binary values. It may be a teacher signal.

また、従来方式で用いられている粗コード出力型前進3層ニューラルネットワーク23に於ける、何れか1つの出力層ユニットのみ1となり、他は全て0であるOne out of K(a winner takes all)の出力形式を前進3層ニューラルネットワーク12に於いて用いても良い。しかしながら、この場合には、前進及び後進ニューラルネットワーク12、13の規模が非常に大きくなり、然もスプリアス・アトラクタが非常に多く発生し、相互連想メモリとしての性能は必ずしも高くない。   Further, in the coarse code output type forward three-layer neural network 23 used in the conventional method, only one output layer unit is 1 and all others are 0. One out of K (a winner takes all) May be used in the forward three-layer neural network 12. However, in this case, the scales of the forward and backward neural networks 12 and 13 become very large, and spurious attractors are generated so much that the performance as an associative memory is not necessarily high.

One out of Kの出力形式の2値教師信号を用いる場合には、学習内外カテゴリ識別処理部15に於いて、2値出力信号から変換された分類カテゴリ番号のModulo2演算処理を最大K回ほどくり返し、0でない結果が一度でも得られたならば、その分類カテゴリ番号を学習外カテゴリと識別し、全て0ならば学習内カテゴリとする学習内外カテゴリ識別方法を用いれば良い。或いは、2値出力信号Y(n)の1の出力層ユニット数が複数個存在している場合には、学習外カテゴリ、1個の場合には学習内カテゴリと識別する学習内外カテゴリ識別方法を用いてもよい。即ち、One out of K出力形式以外の2値出力信号の場合には、学習外カテゴリ、この出力形式に準拠している2値出力信号の場合には学習内カテゴリと識別してもよい。
尚、収束状態のアトラクタを、学習アトラクタと汎化学習アトラクタ、One-Shotスプリアス・アトラクタと汎化スプリアスアトラクタと夫々識別したが、これらを簡単に、学習アトラクタとスプリアス・アトラクタに識別してもよい。
When a binary teacher signal in the output format of One out of K is used, the learning inside / outside category identification processing unit 15 repeats Modulo2 arithmetic processing of the classification category number converted from the binary output signal up to K times. If a result other than 0 is obtained even once, the classification category number is identified as a non-learning category, and if all are 0, a learning internal / external category identification method may be used. Alternatively, when there are a plurality of output layer units of one binary output signal Y (n), a learning internal / external category identification method for identifying a non-learning category and a learning internal category in the case of one output layer unit is provided. It may be used. That is, a binary output signal other than the One out of K output format may be identified as a non-learning category, and a binary output signal compliant with this output format may be identified as an in-learning category.
The attracted attractors are identified as the learning attractor and generalized learning attractor, and the One-Shot spurious attractor and generalized spurious attractor, respectively. .

本発明の実施形態に於ける上記の説明は、入力端子1の前進連想入力信号X(0)を入力切替スイッチ10を介して前進3層ニューラルネットワーク12に入力した場合のヘテロ連想メモリの動作に関するものである。この他に、図1の入力端子18の後進連想入力信号Y(0)を入力切替スイッチ17を介して後進3層ニューラルネットワーク13に入力するヘテロ連想メモリの動作について簡単に説明する。   The above description in the embodiment of the present invention relates to the operation of the hetero-associative memory when the forward associative input signal X (0) at the input terminal 1 is input to the forward three-layer neural network 12 via the input changeover switch 10. Is. In addition, the operation of the hetero-associative memory for inputting the reverse associative input signal Y (0) of the input terminal 18 of FIG. 1 to the reverse three-layer neural network 13 via the input changeover switch 17 will be briefly described.

後進連想入力信号Y(0)は、前進3層ニューラルネットワーク12の出力信号と同一の形式を持った分類カテゴリを示す2値コードである。曖昧な分類カテゴリを示す後進連想入力信号Y(0)に対して、連想ループ処理を介して正しい分類カテゴリとその学習アトラクタを出力端子9及び5から夫々取り出す場合や、分類カテゴリの教師信号に対応した後進連想入力信号Y(0)に対して、学習アトラクタ、即ち、学習入力データを読み出す場合に用いる。   The backward associative input signal Y (0) is a binary code indicating a classification category having the same format as the output signal of the forward three-layer neural network 12. Corresponding to the backward association input signal Y (0) indicating an ambiguous classification category, when the correct classification category and its learning attractor are extracted from the output terminals 9 and 5 through the associative loop processing, or the teacher signal of the classification category The learning attractor, that is, the learning input data is read out from the backward associative input signal Y (0).

後進連想入力信号Y(0)を入力し、連想ループ処理を行うには、入力切替スイッチ10を後進3層ニュ−ラルネットワーク13の出力信号が入力端子2に常に入力されるよう設定する。 また、入力切替スイッチ19は、表2に示すアトラクタ収束状態識別の為の条件を設定する。更に、入力切替スイッチ17は、連想ループ回数n=0に於いて、入力端子18からの後進連想入力信号Y(0)を入力端子4を介して後進3層ニューラルネットワーク13に入力するよう設定する。その後の連想ループ回数n>0では、出力端子3と入力端子4とを接続し、前進3層ニューラルネットワーク12の出力信号が入力されるよう設定する。
アトラクタ収束状態識別処理部14に於いては、前進連想入力信号の場合の表1と異なり、表2に示すように、前進及び後進3層ニューラルネットワーク12,13の入出力関係からアトラクタ収束状態識別をする。他の動作は、前進連想入力信号X(0)の連想ループ処理の場合と同様である。
In order to input the reverse associative input signal Y (0) and perform the associative loop processing, the input selector switch 10 is set so that the output signal of the reverse three-layer neural network 13 is always input to the input terminal 2. The input changeover switch 19 sets conditions for attractor convergence state identification shown in Table 2. Further, the input changeover switch 17 is set so that the reverse associative input signal Y (0) from the input terminal 18 is input to the reverse three-layer neural network 13 through the input terminal 4 at the associative loop count n = 0. . In the subsequent associative loop count n> 0, the output terminal 3 and the input terminal 4 are connected, and the output signal of the forward three-layer neural network 12 is set to be input.
In the attractor convergence state identification processing unit 14, unlike Table 1 in the case of the forward associative input signal, as shown in Table 2, the attractor convergence state identification is performed from the input / output relationship of the forward and backward three-layer neural networks 12 and 13. do. Other operations are the same as in the case of the associative loop processing of the forward associative input signal X (0).

Figure 0004539221
Figure 0004539221

次に、本発明の実施形態に於ける図1に示す相互連想記憶処理に関して、前進連想入力信号X(0)が与えられた時の連想処理フローを図6に示す。尚、ここでは、前進3層ニューラルネットワーク及び後進3層ニューラルネットワークは、既に前記と同様夫々学習が完了していることを前提として処理フローを説明する。   Next, FIG. 6 shows an associative process flow when the forward associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 1 in the embodiment of the present invention. Here, the processing flow of the forward three-layer neural network and the reverse three-layer neural network will be described on the assumption that learning has already been completed in the same manner as described above.

前進連想初期設定処理100は、学習内外カテゴリ識別処理150に於ける最大分類カテゴリ番号Maxcatg及び連想ループ回数判定処理180に於ける連想ループ処理最大許容回数N、及びアトラクタ収束状態識別処理160への表1に示すアトラクア収束状態識別の条件設定など、初期パラメータ設定を行う。
連想ループ処理初期設定処理110は、連想ループ回数nの初期設定として、n=0の設定とアトラクタ収束状態識別処理160の内部状態の初期設定を行う。
前進連想入力信号入力設定処理120は、前進連想入力信号を学習済み前進3層ニューラルネットワーク処理130へ入力設定を行う。
The forward associative initial setting process 100 includes a maximum classification category number Maxcatg in the learning internal / external category identification process 150, an associative loop process maximum allowable number N in the associative loop number determination process 180, and a table to the attractor convergence state identification process 160. 1. Set initial parameters such as setting the conditions for identifying the attractive convergence state shown in FIG.
The associative loop process initial setting process 110 sets n = 0 and the initial state of the attractor convergence state identification process 160 as an initial setting of the associative loop count n.
The forward associative input signal input setting process 120 performs input setting of the forward associative input signal to the learned forward three-layer neural network process 130.

前進3層ニューラルネットワーク処理130は、連想ループ回数n=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数nの場合には、後進3層ニューラルネットワーク出力信号入力設定処理200を介して入力設定された出力信号X(n)を処理し、2値出力信号Y(0)、Y(n)を夫々送出する。
学習内外カテゴリ識別処理150は、連想ループ回数n=0の場合には、前進ニューラルネットワークの2値出力信号Y(0)、或いは連想ループ回数nの場合には、2値出力信号Y(n)を分類カテゴリ番号IcatgY(0)、或いはIcatgY(n)に夫々変換する。
The forward three-layer neural network processing 130 is an associative loop number n = 0 and the input forward associative input signal X (0) or, in the case of the associative loop number n, a reverse three-layer neural network output signal input setting process. The output signal X (n) input through 200 is processed, and binary output signals Y (0) and Y (n) are sent out, respectively.
The learning internal / external category identification processing 150 performs the binary output signal Y (0) of the forward neural network when the association loop number n = 0, or the binary output signal Y (n) when the association loop number n. Are converted into classification category number IcatgY (0) or IcatgY (n), respectively.

2値教師信号を変換して得られた連続した分類カテゴリ番号の内、予め与えられた最大分類カテゴリ番号Maxcatgと比較処理し、式(2)が成り立つならば、IcatgY(0)、IcatgY(n)は、それぞれ何れかの教師信号の分類カテゴリ番号と一致しており、学習内カテゴリとみなし、式(1)が成り立つならば、何れの教師信号の分類カテゴリ番号とも不一致であり、割り当てされていない分類カテゴリ番号であることから、学習外カテゴリと夫々識別し、学習内外カテゴリ識別信号を送出する。   Of the consecutive classification category numbers obtained by converting the binary teacher signal, comparison processing is performed with the maximum classification category number Maxcatg given in advance, and if equation (2) holds, IcatgY (0), IcatgY (n ) Match the classification category number of any teacher signal, and are considered to be in-learning categories, and if the formula (1) holds, they do not match the classification category number of any teacher signal and are assigned. Since there is no classification category number, it is identified as a non-learning category, and a learning inside / outside category identification signal is transmitted.

後進3層ニューラルネットワーク処理140では、連想ループ回数n=0の場合には前進3層ニューラルネットワーク処理130の2値出力信号Y(0)、或いは連想ループ回数nの場合にはY(n)を学習済み後進3層ニューラルネットワークに各々入力し、その出力信号X(1)、X(n+1)を夫々得る。   In the backward three-layer neural network processing 140, the binary output signal Y (0) of the forward three-layer neural network processing 130 is obtained when the association loop number n = 0, or Y (n) is obtained when the association loop number n. Each is input to a learned reverse three-layer neural network, and its output signals X (1) and X (n + 1) are obtained, respectively.

アトラクタ収束状態識別処理160では、連想ループ回数n=0の場合には、アトラクタ収束状態識別を行わず、アトラクタ未収束状態とし、そのまま、アトラクタ収束状態判定処理170に進む。連想ループ回数n≠0では、連想ループ回数n-1及びnの場合の連続した2回の連想ループ処理での前進3層ニューラルネットワークへ夫々入力された入力信号X(n-1)とX(n)間、夫々の2値出力信号Y(n-1)とY(n)間、及びこれら2値出力信号Y(n-1)及びY(n)を夫々入力信号として処理した後進ニューラルネットワークの出力信号X(n)とX(n+1)間で夫々比較し、連想ループ回数n=1の時に式(3)が成立するとOne-Shotアトラクタ収束状態、連想ループ回数n≧1の場合、式(4)或いは式(5)の何れかが成立すると汎化アトラクタ収束直前状態と識別する。   In the attractor convergence state identification process 160, when the association loop number n = 0, the attractor convergence state identification is not performed, the attractor non-convergence state is set, and the process proceeds to the attractor convergence state determination process 170 as it is. When the number of associative loops n ≠ 0, the input signals X (n−1) and X (X () respectively input to the forward three-layer neural network in two consecutive associative loop processes in the case of the number of associative loops n−1 and n. n), a binary neural network that processes binary output signals Y (n-1) and Y (n), and these binary output signals Y (n-1) and Y (n) as input signals. The output signals X (n) and X (n + 1) are compared, and if Equation (3) holds when the number of associative loops n = 1, the One-Shot attractor convergence state and the number of associative loops n ≧ 1 When either formula (4) or formula (5) is established, it is identified as a state immediately before the generalized attractor converges.

式(6)が成立すると、アトラクタ未収束状態と識別し、アトラクタ収束状態判定処理170を行う。   When Expression (6) is satisfied, the attractor is not yet converged, and attractor converged state determination processing 170 is performed.

アトラクタ収束状態判定処理170では、アトラクタ未収束状態であれば、連想ループ回数判定処理180に進む。それ以外のアトラクタ収束状態であれば、連想ループ回数n=1判定処理210へ進む。
連想ループ回数n=1判定処理210にて、連想ループ回数n=1の状態を検出すると、前進連想入力信号学習・非学習入力データ識別処理220に於いて、X(0)=X(1)、且つ学習内外カテゴリ識別処理150にて、Y(0)が学習内カテゴリと識別され、One-Shotアトラクタ収束状態であると、前進連想入力信号X(0)を学習入力データ、それ以外の場合には、非学習入力データとして識別する。連想ループ回数n=1で、前進連想入力信号X(0)の学習・非学習入力データ識別が行われる。連想ループ回数n≠1の場合には、アトラクタ識別処理230を直接行う。
In the attractor convergence state determination process 170, if the attractor has not converged, the process proceeds to the associative loop number determination process 180. If the attractor is in any other convergence state, the process proceeds to the association loop number n = 1 determination process 210.
When the association loop count n = 1 determination process 210 detects the state of the associative loop count n = 1, in the forward associative input signal learning / non-learning input data identification process 220, X (0) = X (1) In the learning internal / external category identification processing 150, when Y (0) is identified as the learning internal category and the One-Shot attractor converges, the forward associative input signal X (0) is used as the learning input data, otherwise Is identified as non-learning input data. Learning / non-learning input data identification of the forward associative input signal X (0) is performed with the association loop count n = 1. When the number of associative loops n ≠ 1, attractor identification processing 230 is directly performed.

連想ループ回数判定処理180では、連想ループ回数nが連想ループ最大許容回数N未満であれば、n←n+1設定処理190にて連想ループ回数nを1増加させる。
後進3層ニューラルネットワーク出力信号入力設定処理200では、X(n+1)を前進ニューラルネットワークの入力として設定する。その後、前回の連想ループ回数nの場合と同様に、前進3層ニューラルネットワーク処理130、学習内外カテゴリ識別処理150、後進3層ニューラルネットワーク処理140、アトラクタ収束状態識別処理160及びアトラクタ収束状態判定処理170を実施する。
In the associative loop count determination process 180, if the associative loop count n is less than the maximum associative loop count N, the associative loop count n is incremented by 1 in the n ← n + 1 setting process 190.
In the backward three-layer neural network output signal input setting process 200, X (n + 1) is set as the input of the forward neural network. Thereafter, as in the case of the previous associative loop count n, forward three-layer neural network processing 130, learning internal / external category identification processing 150, reverse three-layer neural network processing 140, attractor convergence state identification processing 160, and attractor convergence state determination processing 170. To implement.

一方、連想ループ回数判定処理180にて、アトラクタ収束状態判定処理170にてアトラクタ収束状態或いは汎化アトラクタ収束直前状態が得られず、連想ループ回数n≧Nならば、指定された回数Nの連想ループ処理に於いて、アトラクタに収束せず、前進連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想ループ処理を中止しアトラクタ識別処理230を行う。   On the other hand, in the associative loop number determination process 180, if the attractor convergence state determination process 170 cannot obtain the attractor convergence state or the state just before the generalized attractor convergence, and if the associative loop number n ≧ N, the specified number N of associations In the loop processing, if the forward associative input signal X (0) does not converge to the attractor and becomes unrecognized in the attractor diverging state, the associative loop processing is stopped and the attractor identification processing 230 is performed.

アトラクタ識別処理230では、連想ループ回数判定処理180で、n≧Nの場合には、アトラクタ未収束状態であればアトラクタ発散と識別する。また、One-Shotアトラクタ収束識別状態で、然も学習内外カテゴリ識別処理150で学習内カテゴリと識別された場合には、学習・アトラクタと識別する。学習外カテゴリと識別された場合には、One-Shotスプリアス・アトラクタと識別する。汎化アトラクタ収束直前状態であれば、学習内外カテゴリ識別処理150で学習内カテゴリと識別された場合には、汎化学習・アトラクタ、学習外カテゴリと識別された場合には、汎化スプリアス・アトラクタと夫々識別する。   In the attractor identification process 230, in the associative loop number determination process 180, when n ≧ N, the attractor divergence is identified if the attractor has not converged. In the One-Shot attractor convergence identification state, if it is identified as a learning category by the learning inside / outside category identification processing 150, it is identified as a learning / attractor. If it is identified as a non-learning category, it is identified as a One-Shot spurious attractor. In the state immediately before the convergence of the generalized attractor, when the learning internal / external category identification processing 150 identifies the category within the learning, generalized learning / attractor, and when the generalized attractor is identified as the non-learning category, the generalized spurious attractor. Identify each.

最終前進連想入力信号判定処理240では、連想ループ処理を行った前進連想入力信号が最終前進連想入力信号であるかの判定を行う。最終前進連想入力信号であれば、一連の連想ループ処理を完了する。でなければ、連想ループ処理初期設定処理110を行い、新たな前進連想入力信号に対して連想ループ処理を引き続き行う。   In the final forward associative input signal determination process 240, it is determined whether the forward associative input signal subjected to the associative loop process is the final forward associative input signal. If it is the final forward associative input signal, a series of associative loop processing is completed. Otherwise, the associative loop process initial setting process 110 is performed, and the associative loop process is continued for the new forward associative input signal.

上記の連想処理フローの説明は、前進連想入力信号X(0)が与えられた場合のものである。ここで、後進連想入力信号Y(0)が与えられた場合の連想処理フローを図7に示す。後進連想入力信号Y(0)の連想ループ処理の為には、前進連想初期設定処理300に於いて、学習内外カテゴリ識別処理150に於ける最大分類カテゴリ番号Maxcatg及び連想ループ回数判定処理180に於ける連想ループ処理最大許容回数N、及びアトラクタ収束状態識別処理320への表2に示すアトラクア収束状態識別の条件設定など、初期パラメータ設定を行う。
尚、ここで、図7の処理番号が図6の処理番号と同一番号の場合には、図6と同様の処理であり、説明は省略する。
The above description of the associative processing flow is for the case where the forward associative input signal X (0) is given. Here, FIG. 7 shows an associative process flow when the backward associative input signal Y (0) is given. In the associative loop process of the backward associative input signal Y (0), in the forward associative initial setting process 300, the maximum classification category number Maxcatg and the associative loop number determination process 180 in the learning internal / external category identification process 150 are performed. Initial parameter settings such as the maximum allowable number N of associative loop processing and the attractor convergence state identification process 320 shown in Table 2 for attractor convergence state identification processing 320 are performed.
Here, when the processing number in FIG. 7 is the same as the processing number in FIG. 6, the processing is the same as that in FIG.

後進連想入力信号入力設定処理310にて、後進連想入力信号Y(0)を後進3層ニューラルネットワーク処理140に入力設定する。その後、処理130及び140を経て、アトラクタ収束状態識別処理320を実施する。この処理では、表2に従って、アトラクタ収束状態の識別を行う。但し、連想ループ回数n=0では、識別を行わず、アトラクタ未収束状態として、アトラクタ収束状態判定処理170を実施する。
アトラクタ未収束状態の場合に、連想ループ回数N≧n≧1であると、前進3層ニューラルネットワーク出力信号入力設定処理330に於いて、前進3層ニューラルネットワークの出力信号を後進3層ニューラルネットワークに入力設定する。
In the reverse associative input signal input setting processing 310, the reverse associative input signal Y (0) is input and set to the reverse three-layer neural network processing 140. Thereafter, the attractor convergence state identification process 320 is performed through the processes 130 and 140. In this process, the attractor convergence state is identified according to Table 2. However, when the number of associative loops n = 0, the attractor convergence state determination process 170 is performed as an attractor unconvergence state without performing identification.
If the number of associative loops N ≧ n ≧ 1 when the attractor has not converged, the forward three-layer neural network output signal input setting processing 330 converts the forward three-layer neural network output signal into a reverse three-layer neural network. Set the input.

後進連想入力信号Y(0)学習・非学習入力データ識別処理340では、アトラクタ収束状態識別処理320に於いて、連想ループ回数n=1の時、アトラクタ収束識別状態がOne-Shotアトラクタ収束状態であり、学習内外カテゴリ識別処理150での前進3層ニューラルネットワークの出力信号Y(1)が学習内カテゴリと識別されていると、後進連想入力信号Y(0)が学習を行った分類カテゴリを示す教師信号となることから、学習入力データと識別される。   In the backward associative input signal Y (0) learning / non-learning input data identification processing 340, when the number of associative loops n = 1 in the attractor convergence state identification processing 320, the attractor convergence identification state is the One-Shot attractor convergence state. Yes, if the output signal Y (1) of the forward three-layer neural network in the learning internal / external category identification processing 150 is identified as the learning internal category, the backward associative input signal Y (0) indicates the classification category for which learning has been performed. Since it becomes a teacher signal, it is identified as learning input data.

一方、学習外カテゴリと識別されている場合には、後進連想入力信号Y(0)は非学習入力データと識別する。表2に従って、アトラクタ識別処理230を行った後、最終後進連想入力信号判定処理350にて、後進連想入力信号Y(0)が最終後進連想入力信号Y(0)でなければ、新たな後進連想入力信号Y(0)を設定して、連想ループ処理を繰り返す。最終後進連想入力信号Y(0)であれば、連想ループ処理を完了する。   On the other hand, when it is identified as a non-learning category, the backward associative input signal Y (0) is identified as non-learning input data. After performing the attractor identification process 230 according to Table 2, in the final reverse association input signal determination process 350, if the reverse association input signal Y (0) is not the final reverse association input signal Y (0), a new reverse association The input signal Y (0) is set and the associative loop process is repeated. If it is the final reverse associative input signal Y (0), the associative loop processing is completed.

尚、本発明の実施形態では、汎化状態が発生した時点で、アトラクタ収束状態識別の為に、式(4)或いは式(5)により汎化アトラクタ収束直前状態を識別することを前提とし説明したが、この前進或いは後進3層ニューラルネットワークの汎化状態の信号を出力端子に送出してもよい。更に、表1及び表2に示すように、式(4)或いは式(5)による、アトラクタ収束状態識別としてのアトラクタ収束直前識別信号を用いる代わりに、連想ループ回数n≠1で、式(3)が成り立つ場合(連想ループ処理が汎化アトラクタ収束直前状態より1回ほど増える)に、汎化アトラクタ収束状態として、汎化アトラクタ収束識別信号を用いても良い。但し、この場合には、前進及び後進3層ニューラルネットワークのどちらで汎化状態が発生しているか不明となる。   In the embodiment of the present invention, it is assumed that when a generalized state occurs, the state immediately before the generalized attractor convergence is identified by formula (4) or formula (5) in order to identify the attractor converged state. However, a signal indicating the generalized state of the forward or backward three-layer neural network may be sent to the output terminal. Further, as shown in Tables 1 and 2, instead of using the identification signal immediately before attractor convergence as the attractor convergence state identification according to Equation (4) or Equation (5), Equation (3) ) Holds (the associative loop process increases about once from the state immediately before the generalized attractor convergence), the generalized attractor convergence identification signal may be used as the generalized attractor convergence state. In this case, however, it is unclear whether the generalized state occurs in the forward or backward three-layer neural network.

また、前進3層ニューラルネットワーク12や前進3層ニューラルネットワーク処理130に於いて、図4或いは図5に示す、汎化特性に非常に優れた並列複合ニューラルネットワークを代わりに用いても良い。前進並列複合ニューラルネットワーク40では、例えば、3並列接続された3層ニューラルネットワーク41、42、43は、学習入力データに対応した同一の分類カテゴリ割り当て配置を表す基本となる出力コード体系の2値コードに対して、夫々異なった出力コード体系に変換された2値コードの並列用教師信号割り当てを夫々用いて、学習を行った3層ニューラルネットワークである。   Further, in the forward three-layer neural network 12 and the forward three-layer neural network processing 130, a parallel composite neural network having very good generalization characteristics shown in FIG. 4 or 5 may be used instead. In the forward parallel composite neural network 40, for example, three-layered three-layer neural networks 41, 42 and 43 connected in parallel are binary codes of a basic output code system representing the same classification category assignment arrangement corresponding to the learning input data. On the other hand, this is a three-layer neural network in which learning is performed by using parallel teacher signal assignment of binary codes converted into different output code systems.

出力逆変換処理部44、45、46では、端子2の入力信号X(n)に対するこれらの並列ニューラルネットワーク41、42、43からの3個の2値出力信号が夫々入力され、同一分類カテゴリ割り当て配置を表す元のコード体系の2値コードに逆変換され送出される。出力複合処理部47では、元の2値コード体系に逆変換され得られたこれらの3個の2値コードに対して、例えば、出力複合方式として、多数決選択(Majority Voting)を用いて、最終的な1個の2値コードを選択し端子3から2値出力信号Y(n)として送出する。或いは、出力複合方式として、学習入力データに対する中間層2値出力信号を基準に入力信号に対する中間層2値出力とのハミング距離を元に、最終出力選択を行なっても良い。   In the output inverse transform processing units 44, 45, and 46, three binary output signals from these parallel neural networks 41, 42, and 43 with respect to the input signal X (n) at the terminal 2 are respectively input and assigned to the same classification category. The binary code of the original code system representing the arrangement is converted back and transmitted. The output composite processing unit 47 uses, for example, majority vote (Majority Voting) as an output composite method for these three binary codes obtained by inverse conversion to the original binary code system. A single binary code is selected and transmitted from the terminal 3 as a binary output signal Y (n). Alternatively, as the output composite method, final output selection may be performed based on the Hamming distance between the input signal and the intermediate layer binary output based on the intermediate layer binary output signal for the learning input data.

図4の並列複合ニューラルネットワーク40では、並列接続の3層ニューラルネットワークに対して同一の分類カテゴリ割り当て配置に対して異なる2値コードの並列用教師信号を用いて学習させたが、図5の並列複合ニューラルネットワーク50では、例えば、3並列接続された3層ニューラルネットワーク41、42、43は、分類カテゴリ割り当て配置を表す2値コードの同一の教師信号に対して、元の学習入力データを、例えば、ハッシュ関数などによる入力変換処理部51、52、53を介して変換した夫々異なる並列用学習入力データを対応させ、学習を行っている。   In the parallel composite neural network 40 of FIG. 4, the parallel-connected three-layer neural network is trained by using different binary code parallel teacher signals for the same classification category assignment arrangement. In the composite neural network 50, for example, the three-layered neural networks 41, 42, and 43 connected in parallel have the original learning input data for the same teacher signal of the binary code representing the classification category assignment arrangement, for example, Learning is performed by associating different parallel learning input data converted via the input conversion processing units 51, 52, and 53 using a hash function or the like.

これらの複合並列複合ニューラルネットワーク40、50は、単一の3層ニューラルネットワークより格段に優れた汎化能力を持っていることから、少なくとも前進3層ニューラルネットワーク12の代わりに用いることにより、アトラクタ吸引力は格段に改善され、学習入力データから大きく距離が離れた前進連想入力信号に対してもスプリアス・アトラクタやアトラクタ発散状態は殆ど発生しない。複雑にはなるが、更なる改善の為に、後進3層ニューラルネットワーク13に対しても代わりに同様の構造を持つ後進並列複合ニューラルネットワークを用いてもよい。   Since these complex parallel complex neural networks 40 and 50 have a generalization capability far superior to that of a single three-layer neural network, attracting attractor by using at least the forward three-layer neural network 12 instead. The force is remarkably improved, and the spurious attractor and attractor divergence state hardly occur even for the forward associative input signal far away from the learning input data. Although it is complicated, a reverse parallel complex neural network having the same structure may be used instead of the reverse three-layer neural network 13 for further improvement.

上記の実施形態の相互連想メモリでは、記憶量に対応した前進3層ニューラルネットワーク12の学習入力データである学習アトラクタの数が非常に多い場合、即ち相互連想記憶の所要記憶量が非常に大きい場合にも、3層ニューラルネットワークの中間層ユニット数を増やすことで、学習を確実に正しく収束させることができ相互連想記憶を実現することが可能である。従って、記憶容量を従来方式の自己連想メモリより飛躍的に増加させられる。   In the associative memory of the above embodiment, when the number of learning attractors as learning input data of the forward three-layer neural network 12 corresponding to the storage amount is very large, that is, when the required storage amount of the associative memory is very large. In addition, by increasing the number of intermediate layer units in the three-layer neural network, learning can be reliably converged and mutual associative memory can be realized. Therefore, the storage capacity can be dramatically increased as compared with the conventional self-associative memory.

また、従来の自己連想メモリでは、記憶容量の制限から記憶できる学習アトラクタとして、代表的なものに限られ、然も互いに余り相関のない学習アトラクタであることの制限があったが、本実施形態の相互連想メモリでは、この代表的な学習アトラクタ以外に、それらに似た大きな相関を持った複雑な入力データも学習アトラクタとして多く記憶でき、然も複雑な前進連想入力信号や後進連想入力信号に対しても学習或いは汎化学習アトラクタに収束させることができる。   In the conventional self-associative memory, the learning attractor that can be stored due to the limitation of the storage capacity is limited to a representative one, and there is a restriction that the learning attractors are not much correlated with each other. In addition to these typical learning attractors, this mutual associative memory can store a large amount of complex input data with a large correlation similar to them as learning attractors, but it can also store complex forward associative input signals and backward associative input signals. In contrast, learning or generalized learning attractors can be converged.

本発明の実施形態では、3層ニューラルネットワークを用いた場合について説明したが、3層以上の多層ニューラルネットワークでも良い。更に、多層ニューラルネットワークに限ることなく、入出力が同一の形式を持った2値教師信号を利用して学習させたニューラルネットワークでもよい。   In the embodiment of the present invention, the case where a three-layer neural network is used has been described, but a multilayer neural network having three or more layers may be used. Furthermore, the present invention is not limited to a multilayer neural network, and may be a neural network trained using a binary teacher signal having the same input / output format.

また、分類カテゴリに対して密な分散型2値コードを用い高い汎化能力を持った前進3層ニューラルネットワークを用い、前進及び後進3層ニューラルネットワーク12、13の教師信号への汎化能力によって高いアトラクタ吸引力を実現している。
従って、学習アトラクタから離れた前進連想入力信号に対しても簡単に学習アトラクタに収束させることができる。特に、本発明の相互連想記憶装置では、前進3層ニューラルネットワーク12の2値教師信号として、密な分散型2値出力形式を用い、2値教師信号から変換された連続した通し番号が分類カテゴリ番号として割当られていることから、連想ループ処理に於ける汎化学習アトラクタへの収束能力が従来方式よりも非常に高く、スプリアス・アトラクタも発生しにくい。
Further, a forward three-layer neural network having a high generalization ability using a dense distributed binary code for the classification category is used, and the generalization ability to the teacher signals of the forward and backward three-layer neural networks 12 and 13 is used. High attractor suction is achieved.
Therefore, it is possible to easily converge the forward associative input signal away from the learning attractor to the learning attractor. In particular, in the associative memory device of the present invention, a continuous serial number converted from a binary teacher signal using a dense distributed binary output format as a binary teacher signal of the forward three-layer neural network 12 is a classification category number. Therefore, the convergence ability to the generalized learning attractor in the associative loop processing is much higher than that of the conventional method, and spurious attractors are hardly generated.

更に、図4及び図5に示す汎化特性に非常に優れた並列複合ニューラルネットワークを前進3層ニューラルネットワーク12の代わりに用いることにより、一段と優れた相互連想メモリを実現することもできる。
また、前進連想入力信号X(0)が、学習入力データで、学習アトラクタそのものであるか、或いは非学習入力データであるか、連想ループ回数n=1の連想ループ処理で識別できる特徴を有し、自己連想メモリとは異なり正確なカテゴリ分類を行うことが出来る特徴も持っている。
Furthermore, by using the parallel composite neural network having excellent generalization characteristics shown in FIG. 4 and FIG. 5 in place of the forward three-layer neural network 12, a further excellent associative memory can be realized.
In addition, the forward associative input signal X (0) is a learning input data, whether it is a learning attractor itself or non-learning input data, and has a feature that can be identified by an associative loop process of associative loop count n = 1. Unlike self-associative memory, it has a feature that enables accurate categorization.

連想ループ回数n=1で識別される学習アトラクタ、連想ループ処理を繰り返す事により収束した汎化学習アトラクタ、或いは有意な情報を持っていないOne-Shotや汎化スプリアス・アトラクタを簡単に識別するアトラクタ識別を行うことによって、アトラクタ出力信号や分類カテゴリ出力信号を利用する応用処理システムでの誤動作を防ぐことや、誤動作警報を応用処理システムに送出することができるなどの特徴も有している。   A learning attractor identified by the association loop count n = 1, a generalized learning attractor that has converged by repeating associative loop processing, or an attractor that easily identifies one-shots or generalized spurious attractors that do not have significant information By performing the identification, it is possible to prevent malfunctions in the application processing system using the attractor output signal and the classification category output signal, and to send a malfunction alarm to the application processing system.

以上述べたように、従来の自己連想メモリでは、そのデータ記憶容量が非常に少ない。
また、従来の相互連想メモリ装置は、データ記憶容量は大きくできるが、スプリアス・アトラクタが多く発生し、然も後進多層ニューラルネットワークからのアトラクタ出力信号は、所望の学習アトラクタかスプリアス・アトラクタかの区別ができなことから、この出力信号を用いた応用処理システムでは誤動作が避けられない。
As described above, the conventional self-associative memory has a very small data storage capacity.
In addition, although the conventional associative memory device can increase the data storage capacity, a lot of spurious attractors are generated, and the attractor output signal from the backward multi-layer neural network can be distinguished from the desired learning attractor or spurious attractor. Therefore, malfunctions are unavoidable in the application processing system using this output signal.

更に、前進ニューラルネットワークにおけるK個の出力層ユニットがOne out of K 出力形式で、粗い2値コードの2値教師信号を用いて学習していることから、汎化能力も低く正しい分類カテゴリ出力信号が得にくく、然もアトラクタ出力信号がスプリアス・アトラクタに引き込まれる場合が非常に多い。また、連想ループ処理に於けるアトラクタ吸引力(収束力)が小さく、アトラクタ発散状態になる場合も多い。
更に、記憶データ数を増加させる為、2値教師信号数を大きくすると、粗い2値コードを用いているために前進及び後進ニューラルネットワーク規模が非常に大きくなるなど数々の欠点がある。
Furthermore, since K output layer units in the forward neural network are trained using a binary teacher signal of coarse binary code in the one out of K output format, the correct category category output signal has low generalization ability. However, the attractor output signal is often pulled into the spurious attractor. Further, the attracting force (convergence force) in the associative loop process is small, and the attractor diverges in many cases.
Furthermore, if the number of binary teacher signals is increased in order to increase the number of stored data, there are a number of disadvantages such as the scale of forward and backward neural networks becomes very large due to the use of coarse binary codes.

これに対して、本発明の相互連想メモリ装置は、上記説明のごとく、密な2値コードの分散型出力形式を持った2値教師信号を前進3層ニューラルネットワークに学習させることから、汎化能力も高く、必要な3層ニューラルネットワーク規模も小さくできる。また、スプリアス・アトラクタへの収束やアトラクタ発散状態などになることが非常に少なく、然も汎化学習アトラクタへの高速収束が可能であるなど多くの点で優れている。   On the other hand, the mutual associative memory device according to the present invention, as described above, allows the forward three-layer neural network to learn a binary teacher signal having a dense binary code distributed output format. The capability is high and the required three-layer neural network scale can be reduced. In addition, the convergence to the spurious attractor and the attractor divergence state are very rare, and the high speed convergence to the generalized learning attractor is possible.

更に、中間層ユニット数を増やす事により、スプリアス・アトラクタの発生を増加させることもなく、また、アトラクタ吸引力にも影響を与えず、非常に多量の学習アトラクタを正しく記憶できる相互連想記憶が実現される。また、前進連想入力信号の学習・非学習入力データ識別、収束したアトラクタの学習・アトラクタ及びスプリアス・アトラクタ間の詳細な識別能力を有していることから、実用の為の一段と優れた特性を実現できる。また、アトラクタ出力信号だけでなく、これらの識別出力や分類カテゴリ出力信号なども用いた、幅広い応用処理システムに適用できる。   Furthermore, by increasing the number of intermediate layer units, it is possible to realize mutual associative memory that can correctly store a large amount of learning attractors without increasing the generation of spurious attractors and without affecting the attracting force of attractors. Is done. In addition, it has advanced associative input signal learning / non-learning input data identification, converged attractor learning / detailing ability between attractors and spurious attractors, so it has much better characteristics for practical use. it can. Further, the present invention can be applied to a wide range of application processing systems that use not only the attractor output signal but also these identification output and classification category output signal.

このようにヘテロ連想記憶の構造面及び特性面で非常に優れており、種々の応用に合わせた自由な設計が可能で、然も信頼性も優れている。従って、従来の自己或いは相互連想記憶装置では、記憶容量だけでなく、アトラクタ収束速度(吸引力)、多くのスプリアス・アトラクタの発生などに関しても、種々の実用上の制約があったが、これらの問題を解決できる。
更に、収束アトラクタの識別能力と、前進連想入力信号に対する前進3層ニューラルネットワークの高い汎化能力と精度の高いカテゴリ分類能力とにより、分類カテゴリ出力信号をも得ることができ、分類カテゴリ機能を用いた応用処理システムにも接続できる。
As described above, the structure and characteristics of the hetero associative memory are very excellent, and a free design according to various applications is possible, and the reliability is also excellent. Therefore, the conventional self-associative memory device has various practical restrictions on not only the storage capacity but also the attractor convergence speed (suction force) and the generation of many spurious attractors. Can solve the problem.
Furthermore, the classification category output signal can be obtained by the discrimination ability of the convergence attractor, the high generalization ability of the forward three-layer neural network for the forward associative input signal, and the high-precision category classification ability. It can also be connected to the applied processing system.

上記の幅広い効果から、本発明の大容量の記憶能力を持った相互連想記憶装置は、セキュリティ管理システムや不正アクセス検出などのセキュリティシステムへの応用、バイオメトリクスに於ける各種高機能なパターン認識や多くの雑音などにより劣化した大容量の画像データなどの認識への応用、高速データ検索などへの応用、更にはネットワーク障害状態の異常状態検出などネットワーク障害検出システムへの応用など、非常に幅広く適用できる特徴を有している。   Because of the above-mentioned wide range of effects, the associative memory device having a large capacity of the present invention is applicable to security management systems and security systems such as unauthorized access detection, various high-performance pattern recognition in biometrics, Application to recognition of large-capacity image data degraded by a lot of noise, etc., application to high-speed data retrieval, etc., and application to network fault detection systems such as abnormal detection of network fault status, etc. It has the characteristics that can be.

本発明のアトラクタ識別機能を有する3層ニューラルネットワークを用いた相互連想メモリ装置の実施形態に於ける第1の構成例である。It is the 1st structural example in embodiment of the mutual associative memory device using the three-layer neural network which has an attractor identification function of this invention. 従来方式に於ける自己連想ニューラルネットワーク22による自己連想メモリ装置の1構成例である。It is one structural example of the self-associative memory device by the self-associative neural network 22 in the conventional system. 従来方式に於ける多層ニューラルネットワークを用いた相互連想メモリ装置の1構成例である。It is one structural example of the mutual associative memory device using the multilayer neural network in a conventional system. 出力逆変換を伴う前進並列複合ニューラルネットワークの1構成である。It is one configuration of a forward parallel complex neural network with output inverse transformation. 入力変換を伴う前進並列複合ニューラルネットワークの1構成である。1 is a configuration of a forward parallel complex neural network with input conversion. 本発明の実施形態に於ける前進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。It is an associative loop process flow figure of the mutual associative memory with respect to the forward associative input signal in embodiment of this invention. 本発明の実施形態に於ける後進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。It is an associative loop process flow figure of the mutual associative memory with respect to the reverse associative input signal in embodiment of this invention.

符号の説明Explanation of symbols

1 前進連想入力信号の入力端子
2 前進ニューラルネットワークの入力端子
3 前進ニューラルネットワークの出力端子
後進ニューラルネットワークの入力端子
5 アトラクタ出力信号の出力端子
6 アトラクタ識別信号の出力端子
7 前進連想入力信号の学習・非学習入力データ識別信号の出力端子
8 アトラクタ収束識別信号の出力端子
9 分類カテゴリ出力信号の出力端子
10 入力切替スイッチ
11 連想ループ制御処理部
12 前進3層ニューラルネットワーク
13 後進3層ニューラルネットワーク
14 アトラクタ収束状態識別処理部
15 学習内外カテゴリ識別処理部
16 アトラクタ識別処理部
17 入力切替スイッチ
18 後進連想入力信号の入力端子
19 入力切替スイッチ
20 連想ループ制御処理部
21 アトラクタ収束状態識別処理部
22 自己連想ニューラルネットワーク
23 粗コード出力型前進3層ニューラルネットワーク
24 後進3層ニューラルネットワーク
29 連想入力信号の入力端子
30 自己連想ニューラルネットワークの入力端子
31 アトラクタ出力信号の出力端子
32 アトラクタ収束識別信号の出力端子
40 前進並列複合ニューラルネットワーク処理部
41 3層ニューラルネットワーク
42 3層ニューラルネットワーク
43 3層ニューラルネットワーク
44 出力変換処理部
45 出力変換処理部
46 出力変換処理部
47 出力複合処理部
50 前進並列複合ニューラルネットワーク処理部
51 入力変換処理部
52 入力変換処理部
53 入力変換処理部
100 前進連想初期設定処理
110 連想ループ処理初期設定処理
120 前進連想入力信号入力設定処理
130 前進3層ニューラルネットワーク処理
140 後進3層ニューラルネットワーク処理
150 学習内外カテゴリ識別処理
160 アトラクタ収束状態識別処理
170 アトラクタ収束状態判定処理
180 連想ループ回数判定処理
190 連想ループ回数n=n+1設定処理
200 後進3層ニューラルネットワーク出力信号入力設定処理
210 連想ループ回数n=1判定処理
220 前進連想入力信号学習・非学習入力データ識別処理
230 アトラクタ識別処理
240 最終前進連想入力信号判定処理
300 後進連想初期設定処理
310 前進連想入力信号入力設定処理
320 アトラクタ収束状態識別処理
330 前進3層ニューラルネットワーク出力信号入力設定処理
340 後進連想入力信号学習・非学習入力データ識別処理
350 最終後進連想入力信号判定処理
1 Input terminal of forward associative input signal 2 Input terminal of forward neural network 3 Output terminal of forward neural network 4 Input terminal of reverse neural network 5 Output terminal of attractor output signal 6 Output terminal of attractor identification signal 7 Output terminal of learning / non-learning input data identification signal of forward associative input signal 8 Output terminal of attractor convergence identification signal 9 Classification category output signal Output terminal 10 input selector switch 11 associative loop control processing unit 12 forward three-layer neural network 13 reverse three-layer neural network 14 attractor convergence state identification processing unit 15 learning internal / external category identification processing unit 16 attractor identification processing unit 17 input changeover switch 18 reverse Associative input signal input terminal 19 Input changeover switch 20 Associative loop control processing unit 21 Attractor convergence state identification processing unit 22 Self-associative neural network 23 Coarse code output type forward three-layer neural network 24 Reverse three-layer Neural network 29 Input terminal of associative input signal 30 Input terminal of self-associative neural network 31 Output terminal of attractor output signal 32 Output terminal of attractor convergence identification signal 40 Forward parallel composite neural network processing unit 41 Three-layer neural network 42 Three-layer neural network 43 three-layer neural network 44 output conversion processing unit 45 output conversion processing unit 46 output conversion processing unit 47 output composite processing unit 50 forward parallel composite neural network processing unit 51 input conversion processing unit 52 input conversion processing unit 53 input conversion processing unit 100 forward Associative initial setting processing 110 Associative loop processing initial setting processing 120 Forward associative input signal input setting processing 130 Forward three-layer neural network processing 140 Reverse three-layer neural network processing 150 Learning internal / external category identification processing 160 Attractor convergence state identification processing 170 Attractor convergence state determination processing 180 Association loop number determination processing 190 Association loop number n = n + 1 setting processing 200 Reverse three-layer neural network output signal input setting processing 210 Association loop number n = 1 determination processing 220 forward associative input signal learning / non-learning input data identification processing 230 attractor identification processing 240 final forward associative input signal determination processing 300 reverse associative initial setting processing 310 forward associative input signal input setting processing 320 attractor convergence state identification processing 330 Forward three-layer neural network output signal input setting process 340 Reverse associative input signal learning / non-learning input data identification process 350 Final reverse associative input signal determination process

Claims (15)

学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段12に、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段13を従属接続し、
前進連想入力信号を連想ループ回数の元に制御される入力切替スイッチ10を介して該前進ニューラルネットワーク手段12に一旦入力し(連想ループ回数n=0)、該後進ニューラルネットワーク手段13の出力信号を得た後、該後進ニューラルネットワーク手段13の出力信号を該前進ニューラルネットワーク手段12の入力に前記入力切替スイッチ10を介してフィードバックし、該前進ニューラルネットワーク手段12の出力信号及び該後進ニューラルネットワーク手段13の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段12の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. Subordinately connecting the backward neural network means 13 learned as described above,
The forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 controlled based on the number of associative loops (the number of associative loops n = 0), and the output signal of the backward neural network means 13 is input. After being obtained, the output signal of the backward neural network means 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the backward neural network means 13 are fed back. An associative loop process (associative loop number n ≧ 1) for sequentially obtaining output signals of the associative loop, and an associative memory device having an associative loop control processing means 11 for counting and controlling the associative loop number,
Learning of the output signal is performed by comparing the prepared category category number region composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the forward neural network means 12. A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying an internal / external category.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク手段12と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク手段13とを用い、該後進ニューラルネットワーク手段13に該前進ニューラルネットワーク手段12を従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該前進ニューラルネットワーク手段12の出力信号を得た後、該前進ニューラルネットワーク手段12の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該前進ニューラルネットワーク手段12の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該前進ニューラルネットワーク手段12の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network means 12 being subordinately connected to the backward neural network means 13 In the device,
The backward associative input signal is temporarily input to the backward neural network means 13 via the input changeover switch 17 (the number of associative loops n = 0) to obtain the output signal of the forward neural network means 12, and then the forward neural network means. 12 associative loop processing for feeding back the output signal of the backward neural network means 13 and the output signal of the forward neural network means 12 sequentially by feeding back the 12 output signals to the input of the backward neural network means 13 via the input changeover switch 17. (Associative loop count n ≧ 1)
Learning of the output signal is performed by comparing the prepared category category number region composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the forward neural network means 12. A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying an internal / external category.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段12に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段13を従属接続し、前進連想入力信号を入力切替スイッチ10を介して該前進ニューラルネットワーク手段12に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段13の出力信号を得た後、該後進ニューラルネットワーク13の出力信号を該前進ニューラルネットワーク手段12の入力に前記入力切替スイッチ10を介してフィードバックし、該前進ニューラルネットワーク手段12の出力信号及び該後進ニューラルネットワーク手段13の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41,42,43からの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段44,45,46と、該出力逆変換処理手段44、45、46の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第1の前進並列複合ニューラルネットワーク手段40を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段40の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. The backward neural network means 13 trained as described above is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 (number of associative loops n = 0). After the output signal of 13 is obtained, the output signal of the backward neural network 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the reverse The output signal of the neural network means 13 Follow obtain associative loop (associative loop count n ≧ 1), be in mutually associative memory device having an associative loop control processing means 11 for performing the control and associative loop count counting,
A plurality of parallel neural networks 41, 42, 43 that have learned respective parallel connection teacher signals having an allocation arrangement different from the teacher signal for the classification category, and the multilayer neural networks 41, 42 , 43 are inversely transformed into output signals of the output code system that is the basis of the teacher signal, and output of the output inverse transformation processing means 44, 45, 46 A first forward parallel complex neural network means 40 that is trained to be capable of sending the teacher signal to the learning input data, comprising at least an output composite means 47 that selectively sends out one output signal from the signal. Using at least the forward neural network means 12;
A comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the first forward parallel composite neural network means 40, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段12と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段13とを用い、該後進ニューラルネットワーク13に該前進ニューラルネットワーク12を従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
複数個の並列接続された、前記分類カテゴリに対する前記教師信号とは異なる割り当て配置を持った夫々の並列接続用教師信号を学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41,42,43からの各出力信号を前記教師信号の基本となる出力コード体系の出力信号に逆変換する出力逆変換処理手段44,45,46と、該出力逆変換処理手段44、45、46の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第1の前進並列複合ニューラルネットワーク手段40を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該第1の前進並列複合ニューラルネットワーク手段40の出力信号を得た後、該第1の前進並列複合ニューラルネットワーク手段40の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該第1の前進並列複合ニューラルネットワーク手段40の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第1の前進並列複合ニューラルネットワーク手段40の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory device having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network 12 being cascade-connected to the backward neural network 13 There,
A plurality of parallel neural networks 41, 42, 43 that have learned respective parallel connection teacher signals having an allocation arrangement different from the teacher signal for the classification category, and the multilayer neural networks 41, 42 , 43 are inversely transformed into output signals of the output code system that is the basis of the teacher signal, and output of the output inverse transformation processing means 44, 45, 46 A first advanced parallel complex neural network means 40 that has been learned and is composed of at least an output composite means 47 that selectively sends out one output signal from the signal, and that can send the teacher signal to the learning input data. At least the forward neural network means 12;
After the reverse associative input signal is once inputted to the reverse neural network means 13 via the input changeover switch 17 (the number of associative loops n = 0) and the output signal of the first forward parallel complex neural network means 40 is obtained, The output signal of the first forward parallel complex neural network means 40 is fed back to the input of the backward neural network means 13 via the input changeover switch 17, and the output signal of the backward neural network means 13 and the first advance Perform an associative loop process (associative loop count n ≧ 1) for sequentially obtaining the output signal of the parallel composite neural network means 40,
A comparison process between a classification category number area prepared from classification category numbers corresponding to all of the teacher signals and a classification category number corresponding to the output signal of the first forward parallel composite neural network means 40, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段12に、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段13を従属接続し、前進連想入力信号を入力切替スイッチ10を介して該前進ニューラルネットワーク手段12に一旦入力(連想ループ回数n=0)し、該後進ニューラルネットワーク手段13の出力信号を得た後、該後進ニューラルネットワーク13の出力信号を該前進ニューラルネットワーク手段12の入力に前記入力切替スイッチ10を介してフィードバックし、該前進ニューラルネットワーク手段12の出力信号及び該後進ニューラルネットワーク手段13の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段51、52、53と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41、42、43の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習させた第2の前進並列複合ニューラルネットワーク手段50を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段50の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The learning input data can be sent to the forward neural network means 12 which has learned so that the training signal corresponding to the classification category can be sent to the learning input data. The backward neural network means 13 trained as described above is cascade-connected, and the forward associative input signal is temporarily input to the forward neural network means 12 via the input changeover switch 10 (number of associative loops n = 0). After the output signal of 13 is obtained, the output signal of the backward neural network 13 is fed back to the input of the forward neural network means 12 via the input changeover switch 10, and the output signal of the forward neural network means 12 and the reverse The output signal of the neural network means 13 Follow obtain associative loop (associative loop count n ≧ 1), be in mutually associative memory device having an associative loop control processing means 11 for performing the control and associative loop count counting,
Input conversion processing means 51, 52, 53 for converting the learning input data into different parallel learning input data, and a multi-layer neural network that learns the parallel learning input data and the teacher signal connected in parallel. Network 41, 42, 43, and output composite means 47 for selectively sending out one output signal from the output signals of the multilayer neural networks 41, 42, 43, and the teacher signal for the learning input data At least the forward neural network means 12 is configured with a learned second forward parallel complex neural network means 50 that can be delivered;
By comparing the prepared category category number area composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the second forward parallel composite neural network means 50, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネトワーク手段12と、該教師信号に対して該学習入力データを送出することができるよう学習させた後進ニューラルネット手段13とを用い、該後進ニューラルネットワーク13に該前進ニューラルネットワーク12を従属接続し、連想ループ回数計数と制御とを行う連想ループ制御処理手段11を有する相互連想記憶装置にあって、
前記学習入力データを夫々異なる並列用学習入力データに変換する入力変換処理手段51、52、53と、複数個の並列接続された、該並列用学習入力データ及び前記教師信号とを学習した多層ニューラルネットワーク41、42、43と、該多層ニューラルネットワーク41、42、43の出力信号から一つの出力信号を選択送出する出力複合手段47とから少なくとも構成され、前記学習入力データに対して前記教師信号を送出することができる学習済み第2の前進並列複合ニューラルネットワーク手段50を用いて、前記前進ニューラルネットワーク手段12を少なくとも構成し、
後進連想入力信号を入力切替スイッチ17を介して該後進ニューラルネットワーク手段13に一旦入力(連想ループ回数n=0)し、該第2の前進並列複合ニューラルネットワーク手段50の出力信号を得た後、該第2の前進並列複合ニューラルネットワーク手段50の出力信号を該後進ニューラルネットワーク手段13の入力に前記入力切替スイッチ17を介してフィードバックし、該後進ニューラルネットワーク手段13の出力信号及び該第2の前進並列複合ニューラルネットワーク手段50の出力信号を順次得る連想ループ処理(連想ループ回数n≧1)を行い、
前記教師信号の全てに対応した分類カテゴリ番号から構成された予め準備された分類カテゴリ番号領域と該第2の前進並列複合ニューラルネットワーク手段50の出力信号に対応した分類カテゴリ番号との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別手段15とを少なくとも有することを特徴とした相互連想記憶装置。
The forward neural network means 12 that has learned so as to be able to send a teacher signal, which is a learning attractor corresponding to the classification category, to the learning input data, and the learning input data can be sent to the teacher signal. The associative memory device having the associative loop control processing means 11 for counting and controlling the number of associative loops by using the backward neural network means 13 learned as described above, the forward neural network 12 being cascade-connected to the backward neural network 13 There,
Input conversion processing means 51, 52, 53 for converting the learning input data into different parallel learning input data, and a multi-layer neural network that learns the parallel learning input data and the teacher signal connected in parallel. Network 41, 42, 43, and output composite means 47 for selectively sending out one output signal from the output signals of the multilayer neural networks 41, 42, 43, and the teacher signal for the learning input data At least the forward neural network means 12 is configured with a learned second forward parallel complex neural network means 50 that can be delivered;
After a reverse associative input signal is input once to the reverse neural network means 13 via the input changeover switch 17 (number of associative loops n = 0) and an output signal of the second forward parallel complex neural network means 50 is obtained, The output signal of the second forward parallel complex neural network means 50 is fed back to the input of the backward neural network means 13 via the input changeover switch 17, and the output signal of the backward neural network means 13 and the second forward Perform an associative loop process (associative loop count n ≧ 1) to obtain the output signal of the parallel composite neural network means 50 sequentially,
By comparing the prepared category category number area composed of the category category numbers corresponding to all of the teacher signals with the category category number corresponding to the output signal of the second forward parallel composite neural network means 50, A mutual associative memory device comprising at least learning internal / external category identifying means 15 for identifying a learning internal / external category of the output signal.
請求項1、3及び請求項5の何れかの前記相互連想記憶装置にあって、
連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク手段12、40、50の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク手段13の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段14を有することを特徴とした相互連想記憶装置。
In the mutual associative memory device according to any one of claims 1, 3 and 5,
Through successive associative loop processing, the respective agreements between the two input signals of the forward neural network means 12, 40, 50 obtained and between the corresponding two output signals and between the two output signals of the backward neural network means 13 are obtained. An associative memory device comprising attractor convergence state identification means for identifying an attractor convergence state based on a state.
請求項2、4及び請求項6の前記相互連想記憶装置にあって、
連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク手段13の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク手段12、40、50の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別手段14を有することを特徴とした相互連想記憶装置。
In the mutual associative memory device according to claim 2, 4 and 6,
Through a continuous associative loop process, the respective agreements between the two input signals of the backward neural network means 13 and the corresponding two output signals obtained, and between the two output signals of the forward neural network means 12, 40, 50 are obtained. An associative memory device comprising attractor convergence state identification means for identifying an attractor convergence state based on a state.
請求項7の前記アトラクタ収束状態識別手段14にあって、
前記前進連想入力信号を前記前進ニューラルネットワーク手段12に入力し、対応した出力信号及び前記後進ニューラルネットワーク手段13の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、その後該後進ニューラルネットワーク手段13の該出力信号を前記入力切替スイッチ10を介してフィードバックして該前進ニューラルネットワーク手段12に入力し、対応した出力信号及び該後進ニューラルネットワーク手段13の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記前進ニューラルネットワーク手段12の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段15の学習内外カテゴリ識別信号とにより、前記前進ニューラルネットワーク手段12に入力された前記前進連想入力信号の学習・非学習入力データ識別することを特徴とした相互連想記憶装置。
In the attractor convergence state identifying means 14 of claim 7,
Associative loop processing of n = 0 associative loops for inputting the forward associative input signal to the forward neural network means 12 and obtaining the corresponding output signal and the output signal of the backward neural network means 13, respectively, and then the backward neural network The number of associative loops in which the output signal of the means 13 is fed back via the input changeover switch 10 and inputted to the forward neural network means 12 and the corresponding output signal and the output signal of the backward neural network means 13 are obtained respectively. The forward neural network means based on the matching state between the two input signals of the forward neural network means 12 obtained through the associative loop processing of 1 and the learning internal / external category identification signal of the learning internal / external category identifying means 15 The forward associative input signal input to 12 Mutual associative memory apparatus characterized by learning and non-learning input data identification.
請求項8のアトラクタ収束状態識別手段14にあって、
前記後進連想入力信号を前記後進ニューラルネットワーク手段13に入力し、対応した出力信号及び前記前進ニューラルネットワーク手段12の出力信号を夫々得る連想ループ回数n=0の連想ループ処理と、該前進ニューラルネットワーク手段12の該出力信号を入力切替スイッチ17を介してフィードバックして該後進ニューラルネットワーク手段13に入力し、対応した出力信号及び該前進ニューラルネットワーク手段12の出力信号を夫々得る連想ループ回数n=1の連想ループ処理とを介して、得られた前記後進ニューラルネットワーク手段13の2入力信号間の一致状態と、前記学習内外カテゴリ識別手段15の学習内外カテゴリ識別信号とにより、前記後進ニューラルネットワーク手段13に入力された前記後進連想入力信号の学習・非学習入力データ識別し、前記の一致状態で、学習内カテゴリ識別状態である場合のみ、学習入力データと識別することを特徴とした相互連想記憶装置。
In the attractor convergence state identifying means 14 of claim 8,
Associative loop processing of n = 0 associative loops for inputting the reverse associative input signal to the reverse neural network means 13 and obtaining the corresponding output signal and the output signal of the forward neural network means 12, respectively, and the forward neural network means The twelve output signals are fed back via the input changeover switch 17 and input to the backward neural network means 13 so that the corresponding output signal and the output signal of the forward neural network means 12 are obtained. Through the associative loop processing, the backward neural network means 13 receives the matching state between the two input signals of the backward neural network means 13 obtained and the learning internal / external category identification signal of the learning internal / external category identifying means 15. Learning of the input reverse associative input signal Training input data identified in the matching state of, when it is learned the category identification state only, mutual associative memory apparatus is characterized in that identifying the learning input data.
請求項7、8、9及び10の何れかの前記相互連想記憶装置にあって、
前記学習内外カテゴリ識別手段15からの前記前進ニューラルネットワーク手段12の出力信号に対する前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別手段14からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば前記学習・アトラクタ識別を少なくともするアトラクタ識別処理手段16とを有することを特徴とした相互連想記憶装置。
In the mutual associative memory device according to any one of claims 7, 8, 9 and 10,
Learning in the attractor convergence state based on the learning inside / outside category identification signal for the output signal of the forward neural network means 12 from the learning inside / outside category identification means 15 and the attractor convergence identification signal from the attractor convergence state identification means 14 An associative memory device comprising: an attractor identification processing means 16 for performing at least the learning / attractor identification in the outside category identification state and the learning / attractor identification in the learning category identification state.
請求項11の前記アトラクタ識別処理手段16にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習・アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶装置。   In the attractor identification processing means 16 of claim 11, from the attractor convergence identification signal and the learning inside / outside category identification signal, when the association loop count n = 1, if the attractor is in the convergence state and the in-learning category identification state, If learning / attractor identification, non-learning category identification state, one-shot spurious / attractor identification, associative loop count n> 1, generalized learning / attractor if attractor converged state and in-learning category identification state A mutual associative memory device characterized by performing generalized spurious attractor identification in the case of identification and non-learning category identification states. 学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理130と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理140とを少なくとも有し、
前進連想入力信号を該前進ニューラルネットワーク処理130にて処理し出力信号を得え、更に、該出力信号を入力し該後進ニューラルネットワーク処理140にて出力信号を得、その後、該出力信号を後進ニューラルネットワーク出力信号入力設定処理200を介してフィードバック入力し該前進ニューラルネットワーク処理130にて出力信号を得る連想ループ処理を行い、連想ループ回数を計数する連想ループ回数判定処理180を有する相互連想記憶処理ソフトウェアにあって、
該前進ニューラルネットワーク処理130の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理130の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理150と、
連続した連想ループ処理を介して、得られた前記前進ニューラルネットワーク処理130の2入力信号間及び対応した2出力信号間、前記後進ニューラルネットワーク処理140の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理160と、
前記前進連想入力信号と連想ループ回数n=1に於ける該前進ニューラルネットワーク処理130の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理150の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する前進連想入力信号学習・非学習入力データ識別処理220と、
前記学習内外カテゴリ識別処理150からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理160からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理230とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェア。
The learning input data can be sent to the forward neural network processing 130 that has been learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the teacher signal. And at least a backward neural network processing 140 learned as follows:
A forward associative input signal is processed by the forward neural network processing 130 to obtain an output signal. Further, the output signal is inputted and an output signal is obtained by the backward neural network processing 140, and then the output signal is converted to a backward neural network. Interactive associative memory processing software having an associative loop number determination process 180 for performing an associative loop process in which feedback is input via the network output signal input setting process 200 and an output signal is obtained by the forward neural network process 130, and counting the number of associative loops There,
By comparing the classification category number corresponding to the output signal of the forward neural network processing 130 with the classification category number region composed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing 130, the output Learning internal / external category identification processing 150 for identifying the learning internal / external category of the signal;
Through the continuous associative loop processing, based on the respective coincidence states obtained between the two input signals of the forward neural network processing 130 and the corresponding two output signals, and between the two output signals of the backward neural network processing 140. Attractor convergence state identification processing 160 for identifying the attractor convergence state;
The coincidence state between the two input signals of the forward associative input signal and the input signal of the forward neural network processing 130 at the associative loop number n = 1, and the learning internal / external category identification signal of the learning internal / external category identification processing 150, A forward associative input signal learning / non-learning input data identification process 220 for identifying the forward associative input signal learning / non-learning input data;
Based on the learning inside / outside category identification signal from the learning inside / outside category identification processing 150 and the attractor convergence state identification signal from the attractor convergence state identification processing 160, if the attracting state is a non-learning category identification state, spurious attractor identification is performed. And an associative memory processing software characterized by having at least an attractor identifying process 230 for at least learning / attractor identification in the category identification state within learning.
学習入力データに対してその分類カテゴリに対応した学習アトラクタである教師信号を送出することができるよう学習した前進ニューラルネットワーク処理130と、該教師信号に対して該学習入力データを送出することができるよう学習した後進ニューラルネットワーク処理140と、連想ループ回数を計数する連想ループ回数判定処理180を少なくとも有する相互連想記憶処理ソフトウェアにあって、
後進連想入力信号を該後進ニューラルネットワーク処理140にて処理し出力信号を得え、更に、該出力信号を入力し該前進ニューラルネットワーク処理130にて出力信号を得、その後、該出力信号を前進ニューラルネットワーク出力信号入力設定処理330を介してフィードバック入力し該後進ニューラルネットワーク処理140にて出力信号を得る連想ループ処理を行い、
該前進ニューラルネットワーク処理130の出力信号に対応した分類カテゴリ番号と該前進ニューラルネットワーク処理130の全ての前記教師信号に対応した分類カテゴリ番号から構成された分類カテゴリ番号領域との比較処理により、該出力信号の学習内外カテゴリを識別する学習内外カテゴリ識別処理150と、
連続した連想ループ処理を介して、得られた前記後進ニューラルネットワーク処理140の2入力信号間及び対応した2出力信号間、前記前進ニューラルネットワーク処理130の2出力信号間の夫々の一致状態を基に、アトラクタ収束状態を識別するアトラクタ収束状態識別処理320と、
前記後進連想入力信号と連想ループ回数n=1に於ける該後進ニューラルネットワーク処理140の入力信号との2入力信号間一致状態と、前記学習内外カテゴリ識別処理150の学習内外カテゴリ識別信号とにより、前記前進連想入力信号の学習・非学習入力データ識別する後進連想入力信号学習・非学習入力データ識別処理340と、
前記学習内外カテゴリ識別処理150からの前記学習内外カテゴリ識別信号と、前記アトラクタ収束状態識別処理320からのアトラクタ収束識別信号とを基に、アトラクタ収束状態で学習外カテゴリ識別状態ならばスプリアス・アトラクタ識別及び学習内カテゴリ識別状態ならば学習・アトラクタ識別を少なくともするアトラクタ識別処理230とを少なくとも有することを特徴とした相互連想記憶処理ソフトウェア。
The learning input data can be sent to the forward neural network processing 130 that has been learned so that a teacher signal that is a learning attractor corresponding to the classification category can be sent to the learning input data, and the teacher signal. In the associative memory processing software having at least the backward neural network processing 140 learned as described above and the associative loop number determination processing 180 for counting the number of associative loops,
A reverse associative input signal is processed by the reverse neural network processing 140 to obtain an output signal. Further, the output signal is input to obtain an output signal by the forward neural network processing 130, and then the output signal is converted to the forward neural network. Perform an associative loop process to input feedback through the network output signal input setting process 330 and obtain an output signal in the backward neural network process 140;
By comparing the classification category number corresponding to the output signal of the forward neural network processing 130 with the classification category number region composed of the classification category numbers corresponding to all the teacher signals of the forward neural network processing 130, the output Learning internal / external category identification processing 150 for identifying the learning internal / external category of the signal;
Through the continuous associative loop processing, based on the respective coincidence states obtained between the two input signals of the backward neural network processing 140 and the corresponding two output signals, and between the two output signals of the forward neural network processing 130. Attractor convergence state identification processing 320 for identifying the attractor convergence state;
The coincidence state between the two input signals of the reverse associative input signal and the input signal of the reverse neural network processing 140 at the associative loop number n = 1, and the learning internal / external category identification signal of the learning internal / external category identification processing 150, Reverse associative input signal learning / non-learning input data identification processing 340 for identifying the forward associative input signal learning / non-learning input data;
On the basis of the learning internal / external category identification signal from the learning internal / external category identification processing 150 and the attractor convergence identification signal from the attractor convergence state identification processing 320, the spurious / attractor identification is performed in the attractor convergence state and the non-learning category identification state. And an associative memory processing software characterized by having at least an attractor identifying process 230 for at least learning / attractor identification in the category identification state within learning.
請求項13及び請求項14の前記アトラクタ識別処理230にて、前記アトラクタ収束識別信号と前記学習内外カテゴリ識別信号とから、連想ループ回数n=1の時、アトラクタ収束状態で、学習内カテゴリ識別状態あれば、学習・アトラクタ識別、学習外カテゴリ識別状態であれば、One-Shotスプリアス・アトラクタ識別、連想ループ回数n>1の時、アトラクタ収束状態で、学習内カテゴリ識別状態であれば、汎化学習・アトラクタ識別、及び学習外カテゴリ識別状態であれば、汎化スプリアス・アトラクタ識別とすることを特徴とした相互連想記憶ソフトウェア。
15. In the attractor identification processing 230 according to claim 13 and claim 14, from the attractor convergence identification signal and the learning inside / outside category identification signal, when the associative loop count n = 1, the attractor convergence state and the in-learning category identification state If there is a learning / attractor identification and non-learning category identification state, if one-shot spurious / attractor identification and associative loop count n> 1, the attractor is converged, and if it is in-learning category identification state, generalization Interactive associative memory software characterized by generalized spurious attractor identification in the learning / attractor identification and non-learning category identification states.
JP2004236466A 2004-08-16 2004-08-16 Mutual associative memory and its software Expired - Fee Related JP4539221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004236466A JP4539221B2 (en) 2004-08-16 2004-08-16 Mutual associative memory and its software

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004236466A JP4539221B2 (en) 2004-08-16 2004-08-16 Mutual associative memory and its software

Publications (2)

Publication Number Publication Date
JP2006053850A JP2006053850A (en) 2006-02-23
JP4539221B2 true JP4539221B2 (en) 2010-09-08

Family

ID=36031279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004236466A Expired - Fee Related JP4539221B2 (en) 2004-08-16 2004-08-16 Mutual associative memory and its software

Country Status (1)

Country Link
JP (1) JP4539221B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057263A (en) * 1999-08-20 2001-02-27 D D K Ltd Electric connector
JP2004005680A (en) * 2003-05-22 2004-01-08 Matsushita Electric Ind Co Ltd Simplified hierarchical pattern classifying device and simplified hierarchical pattern classifying device with priority

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612396A (en) * 1991-03-08 1994-01-21 Fuji Xerox Co Ltd Pattern recognition and learning system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057263A (en) * 1999-08-20 2001-02-27 D D K Ltd Electric connector
JP2004005680A (en) * 2003-05-22 2004-01-08 Matsushita Electric Ind Co Ltd Simplified hierarchical pattern classifying device and simplified hierarchical pattern classifying device with priority

Also Published As

Publication number Publication date
JP2006053850A (en) 2006-02-23

Similar Documents

Publication Publication Date Title
Goodman et al. Rule-based neural networks for classification and probability estimation
Hespanha et al. Multiple model adaptive control. Part 2: switching
US11822579B2 (en) Apparatus for functioning as sensor node and data center, sensor network, communication method and program
Collet et al. Polar ifs+ parisian genetic programming= efficient ifs inverse problem solving
US5216750A (en) Computation system and method using hamming distance
Fumera et al. Performance analysis and comparison of linear combiners for classifier fusion
JPS61193279A (en) Apparatus for sorting and identifying pattern
EP3948604B1 (en) Computer security
EP1038260B1 (en) Neural networks
US11436320B2 (en) Adaptive computer security
EP3948603B1 (en) Pre-emptive computer security
JP4539221B2 (en) Mutual associative memory and its software
JP4687199B2 (en) Associative memory and its software
Bien et al. An inference network for bidirectional approximate reasoning based on an equality measure
JP4696529B2 (en) Multi-layer neural network device and its software
CN116032515A (en) DDoS attack detection method based on transducer on SDN
JP3277648B2 (en) Parallel neural network
Hammer Approximation capabilities of folding networks.
JP3855580B2 (en) Parallel neural network device
US5430829A (en) Learning method for a data processing system
JP2001511980A (en) Data compression system and method
JP2002259940A (en) Parallel neural network processing system equipped with output condition determination function
Xu et al. Quantized Distributed Nonconvex Optimization Algorithms with Linear Convergence under the Polyak--${\L} $ ojasiewicz Condition
US5980079A (en) Synthesis of threshold networks
Arai An upper bound on the node complexity of depth-2 multilayer perceptrons

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees