JPH07121494A - Parallel neural network - Google Patents

Parallel neural network

Info

Publication number
JPH07121494A
JPH07121494A JP5288791A JP28879193A JPH07121494A JP H07121494 A JPH07121494 A JP H07121494A JP 5288791 A JP5288791 A JP 5288791A JP 28879193 A JP28879193 A JP 28879193A JP H07121494 A JPH07121494 A JP H07121494A
Authority
JP
Japan
Prior art keywords
neural network
output
signal
correction
output unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5288791A
Other languages
Japanese (ja)
Other versions
JP3277648B2 (en
Inventor
Fumiaki Sugaya
史昭 菅谷
Yotaro Hachitsuka
陽太郎 八塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
Kokusai Denshin Denwa KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Denshin Denwa KK filed Critical Kokusai Denshin Denwa KK
Priority to JP28879193A priority Critical patent/JP3277648B2/en
Publication of JPH07121494A publication Critical patent/JPH07121494A/en
Application granted granted Critical
Publication of JP3277648B2 publication Critical patent/JP3277648B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a required output signal for a learning input signal or a non-learning input signal by outputting an output unit signal from a main and compensation neural networks as against the input signal through the use of an output state signal from a last stage compensation neural network. CONSTITUTION:The main neural network 21 is connected to more than one compensation neural networks 22 in parallel for an input and they are successively executed learning. Then, through the use of the output state signal from the last stage compensation neural network 22, the output unit signal from the main and the compensation neural networks 21 and 22 is directly outputted or outputted with an addition operating processing, moreover, with an adding method operation processing at the time of a multilevel operation processing as against the input signal. Thus, the required output signal is outputted for the learning input signal and the multiple required outputs can be obtained for the non-learning input signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パターン認識、連想メ
モリ、データ変換、画像処理及び大規模多値論理回路な
どの分野に適用可能な大規模ニューラルネットワークに
おいて、簡単な学習により高速かつ安定に所望の出力信
号を得ることが出来る並列ニューラルネットワークに関
するものである。
The present invention relates to a large-scale neural network applicable to the fields of pattern recognition, associative memory, data conversion, image processing, large-scale multi-valued logic circuit, etc., with high speed and stability by simple learning. The present invention relates to a parallel neural network capable of obtaining a desired output signal.

【0002】[0002]

【従来の技術】従来のニューラルネットワークには、文
献 麻生英樹著、「ニューラルネットワーク情報処
理」、産業図書出版などに示されているように、多層
(階層)ニューラルネットワークや相互結合ニューラル
ネットワークなどがある。
2. Description of the Related Art Conventional neural networks include multi-layered (hierarchical) neural networks and interconnected neural networks, as shown in the document Hideki Aso, "Neural network information processing", industrial book publishing, etc. .

【0003】図1は、多層ニューラルネットワークとし
て、1層の中間層を持った3層ニューラルネットワーク
1の実行処理モードでの実行処理の1構成例を示す。N
個のユニットからなる入力層4、P個のユニットからな
る中間層5及びM個のユニットからなる出力層6から構
成される。入力層のユニット数Nは入力端子2の入力信
号Iのエレメント総数に対応し、出力層のユニット数M
は出力端子3の出力信号Oのエレメント総数に対応して
いる。
FIG. 1 shows a configuration example of an execution process in an execution process mode of a three-layer neural network 1 having one intermediate layer as a multilayer neural network. N
It is composed of an input layer 4 composed of P units, an intermediate layer 5 composed of P units, and an output layer 6 composed of M units. The number of units N of the input layer corresponds to the total number of elements of the input signal I of the input terminal 2, and the number of units M of the output layer is M.
Corresponds to the total number of elements of the output signal O of the output terminal 3.

【0004】多層ニューラルネットワークへの入力信号
Iは、I1 、I2 、..IN の入力信号エレメントを持
ったベクトルから構成され、入力端子2を介してそれぞ
れ対応した入力層4のユニットに入力された後、更に中
間層5の各ユニット(隠れユニット)にそれぞれ重み付
けされ出力される。中間層5では、入力層4の各ユニッ
トからの重み付けされた出力の総和を入力とし、スレシ
ョルド値を差し引いた後、シグモイド関数と呼ばれる入
出力特性を持った関数を介してユニット出力信号が出力
される。出力層6においても中間層5と同様な入出力処
理が行われた後、各出力ユニットからそれぞれ出力ユニ
ット信号を出力端子3を介してベクトルの出力信号Oの
エレメントO1 、O2 、..OM に対応させて送出す
る。尚、ここでは、出力層6から出力されるユニット出
力信号を出力ユニット信号と呼び、他の層からの出力と
区別する。
The input signal I to the multilayer neural network is I 1 , I 2 ,. . I N composed of vectors having input signal elements, input to corresponding units of the input layer 4 via the input terminals 2, and then further weighted and output to the units (hidden units) of the intermediate layer 5 respectively. To be done. In the intermediate layer 5, the sum of weighted outputs from each unit of the input layer 4 is used as an input, the threshold value is subtracted, and then the unit output signal is output through a function having an input / output characteristic called a sigmoid function. It In the output layer 6, after the same input / output processing as that of the intermediate layer 5 is performed, the output unit signals are output from the respective output units via the output terminal 3 and the elements O 1 , O 2 ,. . It is sent in correspondence with O M. Here, the unit output signal output from the output layer 6 is referred to as an output unit signal, and is distinguished from outputs from other layers.

【0005】3層以上の多層の際にも、同様に各層にお
けるそれぞれのユニットは、入力側の隣接層の各ユニッ
ト出力信号に重み付けをした後、それらの総和を入力と
して得、更にその入力からスレショルド値を差し引いた
後、シグモイド関数を介し出力層側の隣接層にユニット
出力信号を送出する。
In the case of three or more layers, similarly, each unit in each layer weights the output signal of each unit in the adjacent layer on the input side, and then obtains the sum of them as an input. After subtracting the threshold value, the unit output signal is sent to the adjacent layer on the output layer side via the sigmoid function.

【0006】次に、3層ニューラルネットワークの学習
モードにおける学習処理の1構成例を図2に示す。この
ような多層ニューラルネットワークの学習方法として
は、例えば、前記文献にも記載されているようにバック
・プロパゲーション・アルゴリズムがある。本アルゴリ
ズムを用いた学習過程では、結合重みを初期設定した
後、端子2を介して入力層4に予め用意された学習用入
力信号を入力する。出力層6の出力ユニット信号から予
め用意された教師信号Tを減算器8にて差し引き、結合
重み更新用誤差信号として結合重み制御器9に入力す
る。結合重み制御器9は、端子10を介して入力された
各層のユニット出力信号と結合重み更新用誤差信号とを
基に誤差電力を最小にするように各層間の結合重みの修
正値を求め、端子10を介して3層ニューラルネットワ
ーク1の結合重みとして新たに設定する。この学習処理
をすべての学習用入力信号に対して繰り返す。
Next, FIG. 2 shows a configuration example of a learning process in the learning mode of the three-layer neural network. As a learning method for such a multilayer neural network, for example, there is a back propagation algorithm as described in the above document. In the learning process using this algorithm, after the connection weights are initialized, a learning input signal prepared in advance is input to the input layer 4 via the terminal 2. The teacher signal T prepared in advance is subtracted from the output unit signal of the output layer 6 by the subtracter 8 and is input to the connection weight controller 9 as an error signal for updating connection weight. The connection weight controller 9 obtains a correction value of the connection weight between the layers so as to minimize the error power based on the unit output signal of each layer input through the terminal 10 and the error signal for updating the connection weight, It is newly set as the connection weight of the three-layer neural network 1 via the terminal 10. This learning process is repeated for all learning input signals.

【0007】学習過程に於て完全に収束すると、学習用
入力信号に対する出力ユニット信号が教師信号Tと同一
となる。しかしながら、誤差電力を極小にする所に一旦
落ち込むと、学習が進まず最小とならず教師信号Tと異
なった出力ユニット信号を出力するなどの問題がある。
特に、入力ユニット数の多い3層あるいは多層ニューラ
ルネットワークにおいて教師信号Tに対して確実に収束
させる設計手法は明らかになっておらず、結合重みの初
期値を変更したり、隠れユニット(中間ユニット)数あ
るいは更に中間層を増やすなどの試行錯誤を行ってい
る。
When the learning process is completely converged, the output unit signal for the learning input signal becomes the same as the teacher signal T. However, once the error power falls to the minimum, there is a problem that the learning does not proceed and the output is not minimized and an output unit signal different from the teacher signal T is output.
In particular, in a three-layer or multi-layer neural network with a large number of input units, a design method for surely converging on the teacher signal T has not been clarified, and the initial value of the connection weight may be changed or a hidden unit (intermediate unit) We are conducting trial and error, such as increasing the number or even more intermediate layers.

【0008】また、論文 "Parallel, Self-Organizing,
Hierarchical Neural Networks"IEEE Trans on Neural
Networks, Vol.1, No.2, June 1990 において示されて
いる並列ニューラルネットワーク20では、複数個のニ
ューラルネットワークを並列に接続し、例えば図3の実
行処理で示すように、後述の学習処理で順次学習させて
得られた結合重みを各ニューラルネットワーク12、1
3、14に、また、学習処理で得た出力ユニット信号に
対するそれぞれの誤差検出領域を誤差検出器15、1
6、17に設定して動作させる。各ニューラルネットワ
ーク12、13、14のそれぞれの出力ユニット信号と
その誤差検出領域とを誤差検出器15、16、17にお
いて比較し、出力選択制御器18にて誤差検出領域に落
ち込まない出力ユニット信号を1つ決定し、出力選択ス
イッチ19にてその出力ユニット信号を取り出し2値ス
レショルド回路41を介して所望の出力信号Oとして端
子3から送出させている。
Also, the paper "Parallel, Self-Organizing,
Hierarchical Neural Networks "IEEE Trans on Neural
In the parallel neural network 20 shown in Networks, Vol.1, No.2, June 1990, a plurality of neural networks are connected in parallel, and for example, as shown in the execution process of FIG. The connection weights obtained by sequentially learning the neural networks 12, 1
3 and 14, and the error detection areas for the output unit signals obtained by the learning processing are set to error detectors 15 and 1, respectively.
Set to 6 and 17 to operate. The output unit signals of the neural networks 12, 13, 14 and their error detection areas are compared by the error detectors 15, 16, 17, and the output unit signals which do not fall into the error detection area are output by the output selection controller 18. One of them is determined and the output unit signal is taken out by the output selection switch 19 and sent out from the terminal 3 as a desired output signal O via the binary threshold circuit 41.

【0009】また、学習処理においては、学習用入力信
号に対して第1ニューラルネットワーク12を予め規定
された回数の学習を行わせ、その出力ユニット信号の2
値スレショルド回路出力と2値の教師信号Tとが一致し
ない学習用入力信号を検出し、その学習用入力信号に対
して、次段の第2ニューラルネットワーク13を予め規
定された回数程同様に学習させている。このように、そ
の出力ユニット信号の2値スレショルド回路出力と教師
信号Tとが一致しない学習用入力信号があれば、その学
習用入力信号に対して更に次段のニューラルネットワー
ク14を規定の回数程順次学習させる。この結果、全て
の学習用入力信号に対応した出力ユニット信号の2値ス
レショルド回路出力と教師信号Tとが一致すると、並列
ニューラルネットワークの追加を止め、収束したとみな
している。
Further, in the learning processing, the first neural network 12 is made to perform learning a predetermined number of times on the learning input signal, and the output unit signal of 2 is output.
A learning input signal in which the output of the value threshold circuit and the binary teacher signal T do not match is detected, and the second neural network 13 at the next stage is similarly learned with respect to the learning input signal for a predetermined number of times. I am letting you. In this way, if there is a learning input signal in which the output of the binary threshold circuit of the output unit signal and the teacher signal T do not match, the neural network 14 of the next stage is further provided with respect to the learning input signal for a prescribed number of times. Have students learn sequentially. As a result, when the binary threshold circuit outputs of the output unit signals corresponding to all the learning input signals and the teacher signal T match, the addition of the parallel neural network is stopped and it is considered that the learning has converged.

【0010】また、実行処理において正しい出力ユニッ
ト信号を1つ選択するために、この学習過程では、それ
ぞれのニューラルネットワークの各出力ユニット信号に
おいて、教師信号Tと一致しない2値出力を生じた場合
に出力ユニット信号からその教師信号Tを差し引き誤差
を求め、その最大の誤差を検出しそれぞれの出力ユニッ
ト信号に対する誤差検出領域を定めている。
Further, in order to select one correct output unit signal in the execution process, in this learning process, when a binary output that does not match the teacher signal T is generated in each output unit signal of each neural network. The error is subtracted from the output unit signal to find the error, the maximum error is detected, and the error detection area for each output unit signal is defined.

【0011】実行処理では、誤差検出器15、16、1
7において設定された誤差検出領域をもとに出力ユニッ
ト信号の誤りの有無を検出し、出力選択制御器18にお
いてニューラルネットワークからの1つの出力ユニット
信号の選択を決定する。この方法では、論文に報告され
ているように学習用入力信号に対しても完全に正しく出
力させることが出来ない。また、それぞれの出力ユニッ
ト信号に対して一定の独立な誤差領域を設けていること
から、学習外入力信号に対して出力ユニット信号の選択
をある程度は正しくできるものの、入力信号によっては
誤動作が多くなる。特に、誤差検出領域には汎化性が無
いことから、入力信号に相関が少ない場合、あるいは出
力信号のクラス分けの数(教師信号の数)が増えた場合
には、大幅に選択を誤るなどの欠点を有する。
In the execution process, the error detectors 15, 16, 1
Whether or not there is an error in the output unit signal is detected based on the error detection area set in 7, and the output selection controller 18 determines the selection of one output unit signal from the neural network. With this method, it is not possible to output correctly the learning input signal as reported in the paper. Moreover, since a certain independent error area is provided for each output unit signal, the output unit signal can be correctly selected for the non-learning input signal to some extent, but there are many malfunctions depending on the input signal. . In particular, since the error detection area has no generalization property, if the input signal has little correlation or the number of output signal classifications (the number of teacher signals) increases, the selection will be greatly erroneous. Has the drawback of.

【0012】[0012]

【発明が解決しようとする課題】従来の多層ニューラル
ネットワーク1の学習処理において説明したごとく、多
層ニューラルネットワークにおいて教師信号Tを用いて
結合重みを学習させる際に、結合重みの初期値の設定に
よっては、所望の出力信号を送出する収束状態になるま
での学習回数が非常に多くなる場合や、ローカルミニマ
ム(局部極小)の状態に落ち込み、学習を続けても収束
しない場合があるなどの欠点を有している。また、従来
の並列ニューラルネットワーク20において、誤差検出
領域を設け正しい出力ユニット信号を1つ選択し出力さ
せる方法においても、誤差検出器15、16、17の検
出動作が不完全であるために、学習用入力信号に対して
も所望の出力信号を選択出来ない場合や、学習外入力信
号に対しては大幅に誤った選択をする場合がある。特
に、入出力層のユニット数や教師信号Tの数が多い場合
には、所望の出力信号を送出することが非常に困難であ
り、満足するニューラルネットワークを自由に設計する
方法が確立されていない。
As described in the conventional learning processing of the multilayer neural network 1, when the connection weight is learned using the teacher signal T in the multilayer neural network, depending on the setting of the initial value of the connection weight. , There are some drawbacks such as when the number of learning times to reach the converged state to send the desired output signal becomes very large, or when the state falls into the state of local minimum (local minimum) and it does not converge even if the learning is continued. is doing. Further, in the conventional parallel neural network 20, even in the method of providing an error detection region and selecting and outputting one correct output unit signal, the learning operation is not complete because the detection operations of the error detectors 15, 16 and 17 are incomplete. There is a case where a desired output signal cannot be selected even for the input signal for use, or a large erroneous selection is made for an input signal other than learning. Particularly, when the number of units in the input / output layer or the number of teacher signals T is large, it is very difficult to send a desired output signal, and a method for freely designing a satisfying neural network has not been established. .

【0013】本発明の目的は、上記の問題を解決し、従
来方式のニューラルネットワークなどに比べて、簡単な
学習により等価的に安定に収束させ、学習外入力信号に
対しても所望の出力信号を得やすい並列ニューラルネッ
トワークを提供することにある。
An object of the present invention is to solve the above-mentioned problems, to equivalently and stably converge by simple learning as compared with a conventional neural network or the like, and to obtain a desired output signal even for an unlearned input signal. It is to provide a parallel neural network that is easy to obtain.

【0014】[0014]

【課題を解決するための手段】上記の問題点を解決する
ために、本発明の並列ニューラルネットワークにおい
て、主ニューラルネットワークと少なくとも1つ以上の
補正ニューラルネットワークとを入力に対して並列接続
し、予め用意された学習用入力信号に対して学習させた
該主ニューラルネットワークと、前段のニューラルネッ
トワークの出力ユニット信号に予め用意された教師信号
と比べ許容範囲を越えた誤差を生じた学習用入力信号に
対して順次学習させた該補正ニューラルネットワーク
と、前段の該ニューラルネットワークの出力ユニット信
号における許容範囲を越えた誤差の有無を出力状態教師
信号とし、出力状態信号を送出できるよう更に学習させ
た少なくとも最終段の該補正ニューラルネットワーク
と、該出力状態信号をもとに該ニューラルネットワーク
の出力ユニット信号の選択を決定する出力選択制御手段
と、該出力選択制御手段からの制御信号をもとに出力ユ
ニット信号を選択し送出する出力選択スイッチ手段とを
少なくとも具備し、出力信号を得る。
In order to solve the above problems, in the parallel neural network of the present invention, the main neural network and at least one or more correction neural networks are connected in parallel to the input, and The main neural network learned from the prepared learning input signal and the learning input signal in which the output unit signal of the preceding neural network has an error exceeding the allowable range compared with the teacher signal prepared in advance On the other hand, the correction neural network sequentially learned with respect to the output neural network and the presence or absence of an error in the output unit signal of the preceding neural network exceeding the allowable range are used as the output status teaching signal, and at least the final learning is performed so that the output status signal can be transmitted. The correction neural network of the stage and the output state signal And at least output selection control means for determining the selection of the output unit signal of the neural network, and output selection switch means for selecting and transmitting the output unit signal based on the control signal from the output selection control means. Get the output signal.

【0015】あるいは、主ニューラルネットワークと少
なくとも1つ以上の補正ニューラルネットワークとを入
力に対して並列接続し、予め用意された学習用入力信号
に対して学習させた該主ニューラルネットワークと、前
段のニューラルネットワークの出力ユニット信号にその
用いられた教師信号と比べ許容範囲を越えた誤差を生じ
た学習用入力信号に対して該誤差を教師信号として順次
学習させた補正用誤差を出力する該補正ニューラルネッ
トワークと、前段の該ニューラルネットワークの出力ユ
ニット信号における許容範囲を越えた誤差の有無を出力
状態教師信号とした出力状態信号を送出できるよう更に
学習させた少なくとも最終段の補正ニューラルネットワ
ークと、該出力状態信号をもとに該ニューラルネットワ
ークの出力ユニット信号の選択加算処理を決定する出力
選択制御手段と、該出力選択制御手段からの制御信号を
もとに該ニューラルネットワークの出力ユニット信号を
選択し、許容範囲を越えた誤差を持つ出力ユニット信号
に対しては補正用誤差である後段の補正ニューラルネッ
トワークの出力ユニット信号を加算し補正して送出する
出力選択加算手段とを少なくとも具備し、出力信号を得
る。
Alternatively, a main neural network and at least one or more correction neural networks are connected in parallel with respect to the input, and the main neural network trained on a prepared input signal for learning and the neural network of the preceding stage. The correction neural network for outputting a correction error obtained by sequentially learning an input unit signal for learning in which an error exceeding an allowable range is generated in an output unit signal of the network as compared with the used teacher signal as the teacher signal. And a correction neural network at least in the final stage, which is further learned so that an output state signal can be transmitted with the presence or absence of an error in the output unit signal of the preceding neural network exceeding the allowable range as an output state teacher signal, and the output state The output unit of the neural network is based on the signal. Output selection control means for determining signal selective addition processing, and an output unit signal of the neural network is selected based on a control signal from the output selection control means to obtain an output unit signal having an error exceeding an allowable range. On the other hand, at least output selecting and adding means for adding, correcting and transmitting the output unit signals of the subsequent stage correction neural network, which is a correction error, is provided, and an output signal is obtained.

【0016】[0016]

【作用】本発明の並列ニューラルネットワークでは、上
記のごとく主ニューラルネットワークからの出力ユニッ
ト信号が教師信号Tと比較して許容範囲を越えた誤差を
生じる学習用入力信号に対して、並列に接続された補正
ニューラルネットワークを用いて順次学習させ、また、
どのニューラルネットワークが許容誤差範囲内の出力ユ
ニット信号を送出するかを示す出力状態信号を少なくと
も最終段の補正ニューラルネットワークから送出できる
よう学習させている。従って、実行処理においては、主
及び補正ニューラルネットワークからの出力ユニット信
号の内、少なくとも最終段の補正ニューラルネットワー
クから出力された出力状態信号を基に、許容誤差範囲内
の出力ユニット信号を直接選択し、あるいは許容範囲を
越えた誤差を持つ出力ユニット信号を補正したのち選択
し、所望の出力信号を送出させる。
In the parallel neural network of the present invention, as described above, the output unit signal from the main neural network is connected in parallel to the learning input signal which causes an error exceeding the allowable range as compared with the teacher signal T. Learning using the corrected neural network,
The output state signal indicating which neural network outputs the output unit signal within the allowable error range is learned so as to be output from at least the final stage correction neural network. Therefore, in the execution process, the output unit signal within the allowable error range is directly selected from the output unit signals output from the correction neural network at the final stage among the output unit signals from the main and correction neural networks. , Or an output unit signal having an error exceeding the allowable range is corrected and then selected, and a desired output signal is transmitted.

【0017】並列接続された後段の補正ニューラルネッ
トワークでは、許容範囲を越えた誤差を発生する学習用
入力信号の数が段数と共に次第に少なくなり、最終段の
補正ニューラルネットワークにおいては、その出力ユニ
ット信号を許容できる誤差範囲内で確実に収束させるこ
とができ、学習用入力信号に対して所望の出力信号を出
力することが出来ると共に、学習外入力信号に対して
も、補正ニューラルネットワークの汎化性から、所望の
出力信号を得やすい。
In the correction neural network in the subsequent stage connected in parallel, the number of learning input signals that generate an error exceeding the allowable range gradually decreases with the number of stages, and in the correction neural network in the final stage, the output unit signal is changed. It can be reliably converged within an allowable error range, a desired output signal can be output for the learning input signal, and the non-learning input signal can be output from the generalization property of the correction neural network. It is easy to obtain a desired output signal.

【0018】また、教師信号Tに対して主あるいは補正
ニューラルネットワークの出力ユニット信号の許容範囲
を越えた誤差を補正教師信号として、学習用入力信号に
対して補正用誤差を出力するよう補正ニューラルネット
ワークを順次学習させ、最終段の補正ニューラルネット
ワークの学習過程において、その出力ユニット信号がそ
の補正教師信号と許容誤差範囲内になるよう収束させて
いるが、補正教師信号にはゼロ成分が非常に多く、而も
少ない数の学習用入力信号に対して少なくとも収束させ
ればよいことから、少ない学習回数あるいは少ない隠れ
ユニット数の条件下でも最終段の補正ニューラルネット
ワークの収束が簡単に得られる。また、中段の補正ニュ
ーラルネットワークにおいても、誤差を生じる学習用入
力信号の数が前段のそれより減少することから、学習回
数や隠れユニット数を大幅に減すことが出来きる。
Further, the correction neural network outputs the correction error to the learning input signal by using the error exceeding the allowable range of the output unit signal of the main or correction neural network for the teacher signal T as the correction teacher signal. Are sequentially learned, and in the learning process of the final stage correction neural network, the output unit signal is converged so as to be within the allowable error range with the correction teacher signal. However, the correction teacher signal has many zero components. However, since it is sufficient to converge at least a small number of learning input signals, the final stage correction neural network can be easily converged even under the condition of a small number of learning times or a small number of hidden units. Also, in the correction neural network in the middle stage, the number of learning input signals that cause an error is smaller than that in the preceding stage, so that the number of times of learning and the number of hidden units can be significantly reduced.

【0019】各ニューラルネットワークの出力ユニット
信号が許容誤差範囲内かどうかを示す出力状態信号を出
力するため補正ニューラルネットワークを学習させる
際、その出力状態教師信号は多くのゼロ成分をもってお
り、容易に収束させることが出来きる。また、主および
補正ニューラルネットワークの汎化性から学習外入力信
号に対しても誤りの少ない出力状態信号及び出力ユニッ
ト信号を送出させることが出来る。
When the correction neural network is trained to output the output state signal indicating whether the output unit signal of each neural network is within the allowable error range, the output state teacher signal has many zero components and easily converges. It can be done. Further, due to the generalization of the main and correction neural networks, it is possible to send the output state signal and the output unit signal with few errors even for the non-learning input signal.

【0020】複雑な教師信号Tの為に、最終段のニュー
ラルネットワークが規定の学習回数以内で収束しない場
合には、その隠れユニット数を増やすか、あるいは前段
のニューラルネットワークの学習回数か、その隠れユニ
ット数を増やして再度学習させ、中段のニューラルネッ
トワークの補正教師信号との誤差を生じる学習用入力信
号の数を少なくすることにより、確実に最終段の補正ニ
ューラルネットワークを収束させることが出来る。
When the final stage neural network does not converge within the prescribed number of learning due to the complicated teacher signal T, the number of hidden units is increased, or the number of learning of the preceding stage neural network is increased or hidden. By increasing the number of units and performing learning again, and reducing the number of learning input signals that cause an error from the correction teacher signal of the neural network in the middle stage, the correction neural network in the final stage can be reliably converged.

【0021】[0021]

【実施例】以下に本発明の並列ニューラルネットワーク
の実施例1−5をあげ、その構成及びその動作につい
て、詳細に説明する。本発明の並列ニューラルネットワ
ークは、予め準備された学習用入力信号に対して結合重
みを学習させるための学習処理モードと、学習された結
合重みを用いて入力信号に対して出力信号を求める実行
処理モードとの2つのモードのもとに動作させる場合を
前提に説明する。ここで、入力信号、出力信号及び教師
信号、補正教師信号等はベクトルとして扱う。
EXAMPLES Examples 1 to 5 of the parallel neural network of the present invention will be given below, and the configuration and operation thereof will be described in detail. The parallel neural network of the present invention is a learning processing mode for learning a connection weight for a learning input signal prepared in advance, and an execution processing for obtaining an output signal for an input signal using the learned connection weight. The description will be made assuming that the operation is performed in two modes, ie, the mode. Here, the input signal, the output signal, the teacher signal, the corrected teacher signal, and the like are treated as vectors.

【0022】[0022]

【実施例1】実施例1としての本発明の並列ニューラル
ネットワーク30において、実行処理モードにおける実
行処理の1構成例を図4に示す。本発明の並列ニューラ
ルネットワーク30は、入力に対して並列接続された主
ニューラルネットワーク21と補正ニューラルネットワ
ーク22と、出力選択制御器23と、出力選択スイッチ
19と、主及び補正ニューラルネットワーク21及び2
2の上記の動作モードを制御するための動作モード制御
器24とから構成される。
First Embodiment FIG. 4 shows a configuration example of the execution processing in the execution processing mode in the parallel neural network 30 of the present invention as the first embodiment. The parallel neural network 30 of the present invention includes a main neural network 21, a correction neural network 22, an output selection controller 23, an output selection switch 19, and main and correction neural networks 21 and 2 which are connected in parallel to an input.
2 and an operation mode controller 24 for controlling the above operation modes.

【0023】次に動作を説明する。動作モード制御器2
4は、学習処理モードと実行処理モードとの切り替えを
行う機能を有しており、動作モード制御回路24からの
制御により実行処理モードに設定され動作を開始する。
主及び補正ニューラルネットワーク21及び22には、
学習処理モードにおける学習処理により得られた結合重
みがそれぞれ設定されている。主ニューラルネットワー
ク21及び補正ニューラルネットワーク22に入力され
た入力信号に対して、主ニューラルネットワーク21及
び補正ニューラルネットワーク22からの出力ユニット
信号の内、許容誤差範囲内の1つの出力ユニット信号の
選択を、補正ニューラルネットワーク22からの出力状
態信号を基に出力選択制御器23にて決定し、その出力
の制御信号により出力選択スイッチ19内のスイッチを
切り替え、ニューラルネットワーク21、22からのい
ずれかの出力ユニット信号を端子3を介して出力信号O
として出力する。
Next, the operation will be described. Operation mode controller 2
Reference numeral 4 has a function of switching between the learning processing mode and the execution processing mode, and is set to the execution processing mode by the control of the operation mode control circuit 24 to start the operation.
The main and correction neural networks 21 and 22 are
The connection weights obtained by the learning processing in the learning processing mode are set respectively. For the input signals input to the main neural network 21 and the correction neural network 22, one output unit signal within the allowable error range is selected from the output unit signals from the main neural network 21 and the correction neural network 22. The output selection controller 23 determines based on the output state signal from the correction neural network 22, and switches the switch in the output selection switch 19 according to the output control signal to output either of the output units from the neural networks 21 and 22. Output signal O via terminal 3
Output as.

【0024】ここで、出力状態信号は、主ニューラルネ
ットワーク21からの出力ユニット信号が教師信号Tに
対して許容誤差範囲内であるかどうかを示す信号であ
り、補正ニューラルネットワーク22の出力層にユニッ
トを付加し、後述の学習処理における出力状態教師信号
生成器26にて求めた出力状態教師信号を用いて学習さ
せ、送出される。
Here, the output state signal is a signal indicating whether the output unit signal from the main neural network 21 is within the allowable error range with respect to the teacher signal T, and the output state signal is a unit in the output layer of the correction neural network 22. Is added, learning is performed using the output state teacher signal obtained by the output state teacher signal generator 26 in the learning processing described later, and the learning signal is transmitted.

【0025】主ニューラルネットワーク21は、学習用
入力信号に対して必ずしも全ては所望の出力ユニット信
号を与えず、教師信号Tに対して許容範囲を越えた誤差
を持った出力ユニット信号を出力する場合がある。従っ
て、補正ニューラルネットワーク22では、少なくとも
この誤差を生じている学習用入力信号に対して許容誤差
範囲内の出力ユニット信号が送出されるよう学習させ
る。また、出力状態信号は、主ニューラルネットワーク
21の出力ユニット信号において教師信号Tに対して許
容範囲を越えた誤差の有無を示しており、この信号を基
に許容誤差範囲内の出力ユニット信号の選択が行われ
る。主ニューラルネットワーク21が許容誤差範囲内の
出力ユニット信号を送出している場合には、補正ニュー
ラルネットワーク22が許容誤差範囲を越えた出力信号
ユニットを出力しても、出力信号には影響を与えないこ
とから、補正ニューラルネットワーク22の学習が簡単
に行える。
In the case where the main neural network 21 does not always give a desired output unit signal to the learning input signal but outputs an output unit signal having an error exceeding the allowable range with respect to the teacher signal T. There is. Therefore, the correction neural network 22 performs learning so that at least an output unit signal within the allowable error range is transmitted to the learning input signal having this error. The output state signal indicates whether or not there is an error in the output unit signal of the main neural network 21 that exceeds the allowable range with respect to the teacher signal T. Based on this signal, the selection of the output unit signal within the allowable error range is performed. Is done. When the main neural network 21 outputs the output unit signal within the allowable error range, even if the correction neural network 22 outputs the output signal unit exceeding the allowable error range, the output signal is not affected. Therefore, the correction neural network 22 can be easily learned.

【0026】次に、本発明の並列ニューラルネットワー
ク30における学習処理モードでの学習処理の構成を図
5に示す。学習処理モードでは、まず、主ニューラルネ
ットワーク21の初期パラメータを設定し、学習用入力
信号に対して教師信号Tを用いて結合重みの学習を開始
させる。ここで、例えば、学習回数など規定の学習条件
を満足すると学習を終了させ、出力ユニット信号と教師
信号Tとから誤差検出器25にて誤差を検出し、出力状
態教師信号生成器26にて、許容範囲を越えた誤差の有
無を主ニューラルネットワークの出力状態教師信号とし
て、例えば、許容範囲を越えた誤差が有れば1、無けれ
ば0とし学習用入力信号に対応させてそれぞれ記憶させ
る。この時、出力状態教師信号の成分は殆どがゼロとな
る。
Next, FIG. 5 shows the structure of the learning process in the learning process mode in the parallel neural network 30 of the present invention. In the learning processing mode, first, the initial parameters of the main neural network 21 are set, and the learning of the connection weight is started using the teacher signal T for the learning input signal. Here, for example, when a prescribed learning condition such as the number of times of learning is satisfied, learning is terminated, an error is detected by the error detector 25 from the output unit signal and the teacher signal T, and the output state teacher signal generator 26 The presence / absence of an error exceeding the allowable range is stored as the output state teacher signal of the main neural network, for example, 1 if there is an error exceeding the allowable range, and 0 if there is no error that exceeds the allowable range, and is stored in association with the learning input signal. At this time, most of the components of the output state teacher signal become zero.

【0027】次に、補正ニューラルネットワーク22の
初期パラメータを設定し、学習用入力信号と教師信号T
と出力状態教師信号とを用いて学習を開始させる。主ニ
ューラルネットワーク21の学習過程では、従来と同様
に、減算器210において、出力ユニット信号から教師
信号Tを差し引き、結合重み更新用誤差信号として結合
重み制御器211に入力し、端子212からの各層のユ
ニット出力信号とを基にその誤差電力が最小となるよう
結合重みの更新を行い、端子212を介して新たな結合
重みの設定を繰り返す。
Next, the initial parameters of the correction neural network 22 are set, and the learning input signal and the teacher signal T are set.
And learning is started using the output state teacher signal. In the learning process of the main neural network 21, as in the conventional case, the subtractor 210 subtracts the teacher signal T from the output unit signal and inputs it to the connection weight controller 211 as an error signal for updating connection weight, and each layer from the terminal 212. The unit weight is updated based on the unit output signal of (1) to minimize the error power, and the setting of a new unit weight is repeated via the terminal 212.

【0028】ここで、主ニューラルネットワーク21か
らの出力ユニット信号が教師信号Tと許容誤差範囲内で
一致するまで結合重みの学習を行うことは、従来技術の
問題点においても明らかにしたように困難な場合が多
い。従って、結合重み制御器211にて、例えば、学習
回数を規定値と比較する方法、実時間処理の場合などで
はタイマを用いその設定値と比較する方法、あるいは結
合重み更新用誤差信号の大きさを規定値と比較する方法
などのいずれかの方法により学習を終了させ、動作モー
ド制御器24に指示する。
Here, it is difficult to learn the connection weights until the output unit signal from the main neural network 21 matches the teacher signal T within the allowable error range, as has been made clear in the problems of the prior art. In many cases Therefore, in the connection weight controller 211, for example, a method of comparing the number of times of learning with a specified value, a method of using a timer to compare with the set value in the case of real-time processing, or the size of the error signal for updating the connection weight The learning is ended by any method such as a method of comparing with the specified value, and the operation mode controller 24 is instructed.

【0029】補正ニューラルネットワーク22の学習過
程では、減算器220にて出力ユニット信号から教師信
号Tを差し引き結合重み更新用誤差信号として、また、
減算器223にて出力状態信号から出力状態教師信号を
差し引き出力状態信号の為の結合重み更新用誤差信号と
して、結合重み制御器221にそれぞれ入力し、端子2
22からの各層のユニット出力信号とを基にその誤差電
力が最小となるよう結合重みの更新を行い、端子222
を介して新たな結合重みの設定を繰り返す。
In the learning process of the correction neural network 22, the subtractor 220 subtracts the teacher signal T from the output unit signal as an error signal for updating the connection weight, and
The subtractor 223 subtracts the output state teacher signal from the output state signal and inputs it to the connection weight controller 221 as an error signal for updating the connection weight for the output state signal.
The connection weight is updated based on the unit output signals of the respective layers from 22 to minimize the error power, and the terminal 222 is updated.
The setting of a new connection weight is repeated via.

【0030】ここで、収束判定器27では、少なくとも
主ニューラルネットワーク21において誤差を生じてい
る学習用入力信号に対する出力ユニット信号が対応した
教師信号Tと許容誤差範囲内で一致し、更に、全ての学
習用入力信号に対して出力状態信号と出力状態教師信号
とが許容誤差範囲内で一致する状態を検出するまで学習
を繰り返す。一致すれば、補正ニューラルネットワーク
22が収束しているとみなし学習を終了させる。その
後、動作モード制御器24により学習モードから実行処
理モードへ切り替える。
Here, in the convergence determiner 27, at least the output unit signal corresponding to the learning input signal having an error in the main neural network 21 matches the corresponding teacher signal T within the allowable error range, and further, all The learning is repeated until a state in which the output state signal and the output state teacher signal match the learning input signal within the allowable error range is detected. If they match, it is considered that the correction neural network 22 has converged, and learning is terminated. Then, the operation mode controller 24 switches the learning mode to the execution processing mode.

【0031】この時、補正ニューラルネットワーク22
において、規定の学習条件下で収束しない場合は、主ニ
ューラルネットワーク21で許容範囲を越えた誤差を生
じている学習用入力信号に対してのみ学習回数を増やし
てもよく、更には、その誤差を生じている学習用入力信
号数が多すぎると見なし、動作モード制御器24からの
制御のもとに補正ニューラルネットワーク22の隠れユ
ニット数を増やし、再度学習させ、同様な処理を行わせ
てもよい。あるいは、主ニューラルネットワーク21を
再度学習させ、許容範囲を越えた誤差を生じる学習用入
力信号の数を減少させ、出力状態教師信号を生成しなお
した後、補正ニューラルネットワーク22を学習させ完
全に収束させてもよい。
At this time, the correction neural network 22
In the case where the learning does not converge under the specified learning condition, the number of learning times may be increased only for the learning input signal in which the main neural network 21 has an error exceeding the allowable range. It may be considered that the number of learning input signals that have occurred is too large, the number of hidden units in the correction neural network 22 is increased under the control of the operation mode controller 24, learning is performed again, and the same processing may be performed. . Alternatively, the main neural network 21 is re-learned to reduce the number of learning input signals that cause an error exceeding the allowable range, the output state teacher signal is regenerated, and then the correction neural network 22 is learned to completely converge. You may let me.

【0032】実行処理モードでは、上記の学習処理によ
り得られたそれぞれの結合重みが主及び補正ニューラル
ネットワーク21、22に設定されており、少なくとも
学習用入力信号に対しては許容誤差範囲内で教師信号T
と同一の出力ユニット信号が出力選択スイッチ19を介
して得られ、主ニューラルネットワーク21の不完全な
学習により生じた誤差に関係なく所望の出力信号Oを端
子3から得ることが出来る。
In the execution processing mode, the respective connection weights obtained by the above-mentioned learning processing are set in the main and correction neural networks 21 and 22, and at least the learning input signal is within the allowable error range. Signal T
The same output unit signal as the above is obtained through the output selection switch 19, and the desired output signal O can be obtained from the terminal 3 regardless of the error caused by the incomplete learning of the main neural network 21.

【0033】本実施例のニューラルネットワーク30に
おいて、上記説明のごとく補正ニューラルネットワーク
22を、少なくとも許容範囲を越えた誤差を発生してい
る限られた学習用入力信号に対して教師信号Tを用い
て、また、出力状態信号が正しく得られるよう出力状態
教師信号を用いてそれぞれ収束させれば良く、主ニュー
ラルネットワーク21の収束は必ずしも必要ない。例え
ば、主ニューラルネットワークからの出力ユニット信号
の内、許容誤差範囲内の出力ユニット信号を90%程度
送出するように学習させることは僅かの学習回数で実現
できる。これ以上に収束させ、より多くの所望の出力信
号を主ニューラルネットワーク21から得ようとすれ
ば、指数関数的に学習回数が増加することからも、従来
方式に比べて学習回数を大幅に削減できることが明らか
である。
In the neural network 30 of this embodiment, as described above, the correction neural network 22 uses the teacher signal T for at least the limited learning input signal which has an error exceeding the allowable range. Also, the output state signal may be converged by using the output state teacher signal so that the output state signal can be correctly obtained, and the main neural network 21 does not necessarily have to converge. For example, of the output unit signals from the main neural network, learning to output about 90% of the output unit signals within the allowable error range can be realized with a small number of learning times. If more desired output signals are obtained from the main neural network 21 by converging more than this, the number of learning increases exponentially, so that the number of learning can be significantly reduced compared to the conventional method. Is clear.

【0034】一方、補正ニューラルネットワーク22は
残りの10%程度の学習用入力信号に対して、また、ゼ
ロ成分の多い出力状態教師信号に対して収束すればよ
く、これらを僅かの学習回数で許容誤差範囲内で完全に
収束させることは容易である。従って、学習において主
ニューラルネットワーク21を所望の出力信号を送出す
るよう完全に収束させる必要がないことと、補正ニュー
ラルネットワーク22でも学習の際に収束が簡単な為、
それぞれの中間層や隠れユニット数を削減でき、演算規
模も小さくなる。
On the other hand, the correction neural network 22 has only to converge to the remaining about 10% of the learning input signal and the output state teacher signal having many zero components. It is easy to completely converge within the error range. Therefore, it is not necessary to completely converge the main neural network 21 so as to output a desired output signal during learning, and the correction neural network 22 also easily converges during learning.
The number of hidden layers and the number of hidden units can be reduced, and the scale of operations can be reduced.

【0035】学習外入力信号に対しても、補正ニューラ
ルネットワーク22の汎化性から誤りの少ない出力状態
信号を得ることができ、同様に汎化性を持った主及び補
正ニューラルネットワーク21、22のいずれかから許
容誤差範囲内の出力ユニット信号を出力選択制御器23
の制御のもとに選択して出力させることにより所望の出
力信号が得やすい。
With respect to the unlearned input signal, an output state signal with few errors can be obtained from the generalization of the correction neural network 22, and the main and correction neural networks 21 and 22 having the generalization can be similarly obtained. The output unit signal within the allowable error range is output from any one of the output selection controllers 23
A desired output signal can be easily obtained by selecting and outputting under the control of.

【0036】ここで、説明は省略するが、主ニューラル
ネットワーク21と補正ニューラルネットワーク22と
の間に並列に更に複数個の補正ニューラルネットワーク
を挿入し、前段のニューラルネットワークで許容範囲を
越えた誤差を生じている学習用入力信号に対して順次学
習させ、主ニューラルネットワーク21及び全ての前段
の補正ニューラルネットワークで同時に誤差を生じてい
る学習用入力信号に対して少なくとも最終段の補正ニュ
ーラルネットワーク22を学習させても良い。これらの
学習により得られたそれぞれの結合重みを設定し実行動
作させ、何れかのニューラルネットワークの出力ユニッ
ト信号を出力選択スイッチ19を介して1つ選択して取
り出す構成でも良い。
Although not described here, a plurality of correction neural networks are further inserted in parallel between the main neural network 21 and the correction neural network 22, and the error exceeding the allowable range in the preceding neural network is eliminated. The learning input signals that have occurred are sequentially learned, and at least the final stage correction neural network 22 is learned with respect to the learning input signals that have errors simultaneously in the main neural network 21 and all the correction neural networks in the previous stage. You may let me. A configuration may be adopted in which the respective connection weights obtained by these learnings are set and executed, and one output unit signal of any neural network is selected and output via the output selection switch 19.

【0037】更には、最終段の補正ニューラルネットワ
ーク22からだけでなく、全ての補正ニューラルネット
ワークからそれぞれの出力状態信号を送出させ、出力選
択制御器23にて選択すべき出力ユニット信号を決定し
て、出力選択スイッチ19を介して所望の出力ユニット
信号を選択し出力させてもよい。ここでは、これらの実
施例の実行処理及び学習処理の構成例は省略する。
Further, not only the correction neural network 22 at the final stage but also all correction neural networks are caused to output respective output state signals, and the output selection controller 23 determines the output unit signal to be selected. A desired output unit signal may be selected and output via the output selection switch 19. Here, configuration examples of the execution process and the learning process of these embodiments are omitted.

【0038】このように本発明の並列ニューラルネット
ワーク30を用いて簡単に而も短時間で確実に学習させ
ることができることから、従来のニューラルネットワー
クでは極めて設計が困難な大規模ニューラルネットワー
クを容易に実現できる。また、本発明の並列ニューラル
ネットワーク30において複数組の学習した結合重みを
それぞれ用意し、これらを切り替えて設定すれば、同一
の構成で複数個の大規模ニューラルネットワークを容易
に実現できる。また、状況に応じて短時間で学習し直す
ことも可能なことから、同一構成上に新たな入出力関係
を与える大規模ニューラルネットワークも容易に実現出
来る。また、従来のニューラルネットワークを本発明の
並列ニューラルネットワーク30で置き換え、簡単に学
習をさせ、パターン認識、連想メモリ、データ圧縮、デ
ータ変換などに用いることも出来る。
As described above, since the parallel neural network 30 of the present invention can be simply and surely learned in a very short time, a large-scale neural network which is extremely difficult to design by the conventional neural network can be easily realized. it can. Also, by preparing a plurality of sets of learned connection weights in the parallel neural network 30 of the present invention and switching and setting them, it is possible to easily realize a plurality of large-scale neural networks with the same configuration. Also, since it is possible to re-learn in a short time according to the situation, it is possible to easily realize a large-scale neural network which gives a new input / output relationship on the same configuration. Further, the conventional neural network can be replaced with the parallel neural network 30 of the present invention, and the learning can be easily performed to use for pattern recognition, associative memory, data compression, data conversion and the like.

【0039】[0039]

【実施例2】実施例2としての本発明の並列ニューラル
ネットワーク40は、主ニューラルネットワーク21と
補正ニューラルネットワーク22とを用い入力に対して
並列接続し、主ニューラルネットワーク21の出力ユニ
ット信号に許容範囲を越える誤差が有る場合は、補正ニ
ューラルネットワーク22から補正用誤差としての出力
ユニット信号を送出させ、加算演算処理によりこの誤差
を補正して出力させる。
Second Embodiment A parallel neural network 40 of the present invention as a second embodiment is configured such that a main neural network 21 and a correction neural network 22 are connected in parallel to an input, and an output unit signal of the main neural network 21 has an allowable range. If there is an error that exceeds, an output unit signal as a correction error is sent from the correction neural network 22, and this error is corrected by the addition calculation process and output.

【0040】実行処理モードでの実行処理の構成では、
実施例1と同様に各ニューラルネットワークに学習モー
ドでの学習処理により得られた結合重みが設定されてい
る。図6に示すように教師信号Tに対して主ニューラル
ネットワーク21からの許容誤差範囲内の出力ユニット
信号は、出力選択制御器23からの制御のもとに出力選
択加算器28を介して端子3から直接出力し、許容誤差
範囲を越えた出力ユニット信号には補正ニューラルネッ
トワーク22から補正用誤差として送出された出力ユニ
ット信号を出力選択加算器28にて加算演算し誤差を補
正した後、端子3に出力する。実施例1と同様に、主ニ
ューラルネットワーク21からの出力ユニット信号の許
容範囲を越えた誤差の有無を示す出力状態信号を補正ニ
ューラルネットワーク22から送出させ、主ニューラル
ネットワーク21からの出力ユニット信号を直接出力す
るか、あるいは補正し出力するかの選択を出力選択制御
器23にて決定し、出力選択加算器28を制御して、所
望の出力信号を端子3から得る。
In the configuration of the execution process in the execution process mode,
Similar to the first embodiment, the connection weight obtained by the learning process in the learning mode is set in each neural network. As shown in FIG. 6, the output unit signal within the allowable error range from the main neural network 21 with respect to the teacher signal T is output to the terminal 3 via the output selection adder 28 under the control of the output selection controller 23. The output unit signal output from the correction neural network 22 as an error for correction is directly output from the correction neural network 22 to the output unit signal, and the output selection adder 28 performs addition calculation to correct the error. Output to. Similar to the first embodiment, the output state signal indicating the presence or absence of an error exceeding the allowable range of the output unit signal from the main neural network 21 is sent from the correction neural network 22, and the output unit signal from the main neural network 21 is directly output. The output selection controller 23 determines whether to output or correct and output, and controls the output selection adder 28 to obtain a desired output signal from the terminal 3.

【0041】学習処理モードでの学習処理の1構成例を
図7に示す。これまでの実施例と同様に、まず、動作モ
ード制御器24からの制御信号により、主ニューラルネ
ットワーク21の学習を開始させる。学習終了後、誤差
検出器25にて教師信号Tから出力ユニット信号を差し
引き誤差を求め、許容範囲を越えた誤差を補正教師信号
生成器29にて補正教師信号として記憶させると共に、
出力状態教師信号生成器26にて許容範囲を越えた誤差
の有無を示す出力状態教師信号を記憶させる。
FIG. 7 shows a structural example of the learning processing in the learning processing mode. Similar to the above-described embodiments, first, the main neural network 21 is started to be learned by the control signal from the operation mode controller 24. After the learning is completed, the error detector 25 subtracts the output unit signal from the teacher signal T to obtain an error, and the error exceeding the allowable range is stored in the corrected teacher signal generator 29 as the corrected teacher signal.
The output state teacher signal generator 26 stores the output state teacher signal indicating the presence or absence of an error exceeding the allowable range.

【0042】次に、動作モード制御器24からの制御信
号により補正ニューラルネットワーク22の学習を開始
させ、補正教師信号を補正教師信号生成器29から読み
だし、減算器220にて結合重み更新用誤差信号を求
め、また、出力状態教師信号生成器26から出力状態教
師信号を読みだし、減算器223にて結合重み更新用誤
差信号を求め、結合重み処理器221にそれぞれ入力
し、結合重みを修正し、端子222を介して補正ニュー
ラルネットワーク22に設定し学習させる。この学習過
程において、収束判定器27にて、少なくとも主ニュー
ラルネットワーク21で許容範囲を越えた誤差を生じて
いる補正教師信号に対して出力ユニット信号が許容誤差
範囲内にあり、また、出力状態教師信号に対しても出力
状態信号がすべて許容誤差範囲内にあれば、収束したと
みなし学習を終了する。
Next, the learning of the correction neural network 22 is started by the control signal from the operation mode controller 24, the correction teacher signal is read from the correction teacher signal generator 29, and the subtraction unit 220 updates the connection weight updating error. A signal is obtained, the output state teacher signal is read from the output state teacher signal generator 26, the error signal for updating the connection weight is calculated by the subtractor 223, and the error signal for updating the connection weight is input to the connection weight processor 221 to correct the connection weight. Then, the correction neural network 22 is set and learned through the terminal 222. In this learning process, in the convergence determiner 27, the output unit signal is within the allowable error range with respect to the correction teacher signal in which the error exceeds the allowable range in at least the main neural network 21, and the output state teacher If all the output state signals of the signals are within the allowable error range, it is considered that the signals have converged, and learning is terminated.

【0043】規定の学習条件下で収束しなければ、実施
例1と同様な処理や、あるいは、更に主ニューラルネッ
トワーク21の学習を再度開始して、主ニューラルネッ
トワーク21での許容範囲を越えた誤差を生じる学習用
入力信号の数を減し、補正教師信号を生成しなおし、再
度補正ニューラルネットワーク22を学習させてもよ
い。学習処理が終了すると、動作モード制御器24によ
り学習処理モードを実行処理モードに切り替える。
If the convergence does not occur under the specified learning conditions, the same processing as that of the first embodiment, or the learning of the main neural network 21 is restarted, and the error exceeding the allowable range in the main neural network 21 is restarted. It is also possible to reduce the number of learning input signals that cause the above, regenerate the corrected teacher signal, and train the corrected neural network 22 again. When the learning process ends, the operation mode controller 24 switches the learning process mode to the execution process mode.

【0044】補正教師信号は補正用誤差のあるところ以
外はゼロ成分となること、教師信号Tとは全く異なった
成分を有することから、また、少なくとも主ニューラル
ネットワーク21において許容範囲を越えた誤差を生じ
ている学習用入力信号に対して学習させればよいことな
どから、補正ニューラルネットワーク22を迅速に収束
させることが簡単にできる。
The corrected teacher signal has a zero component except where there is a correction error, and has a completely different component from the teacher signal T. Further, at least in the main neural network 21, an error exceeding an allowable range is generated. Since the learned input signal may be learned, it is possible to easily converge the correction neural network 22 quickly.

【0045】[0045]

【実施例3】実施例3としての本発明の並列ニューラル
ネットワーク50において、学習による収束をより簡単
に行う為に、主ニューラルネットワーク21と補正ニュ
ーラルネットワーク22との間に更に並列に補正ニュー
ラルネットワーク31を付加し、許容誤差範囲内の出力
ユニット信号の選択と誤差の補正とを組み合わせた1構
成例を示す。この場合の実行処理の1構成例を図8に示
す。最初に、主ニューラルネットワーク21、次に補正
ニューラルネットワーク31、更に補正ニューラルネッ
トワーク22と実施例1あるいは2のごとく順次学習さ
せた結合重み係数がそれぞれ設定されている。出力選択
加算器28にて、主ニューラルネットワーク21の許容
範囲を越えた誤差に対して、補正ニューラルネットワー
ク31からの出力ユニット信号を、切り替えて用いる処
理や、補正用誤差として加算処理によりその誤差の補正
に用いる処理などが出力選択制御器32からの制御信号
のもとに内部のスイッチを制御することにより実行され
る。
Third Embodiment In a parallel neural network 50 of the present invention as a third embodiment, a correction neural network 31 is further provided in parallel between the main neural network 21 and the correction neural network 22 in order to more easily perform convergence by learning. Is added, and a configuration example in which the selection of the output unit signal within the allowable error range and the correction of the error are combined is shown. FIG. 8 shows a configuration example of the execution process in this case. First, the main neural network 21, the correction neural network 31, the correction neural network 22, and the connection weighting factors sequentially learned as in the first or second embodiment are set. In the output selection adder 28, for an error exceeding the allowable range of the main neural network 21, a process of switching the output unit signal from the correction neural network 31 to be used or an addition process as a correction error is performed. The processing used for correction and the like are executed by controlling internal switches under the control signal from the output selection controller 32.

【0046】更には、補正ニューラルネットワーク31
からの出力ユニット信号が許容範囲を越えた誤差を生じ
ている場合には、出力選択加算器28にて、補正ニュー
ラルネットワーク22からの出力ユニット信号を、切り
替えて用いる処理、あるいは補正ニューラルネットワー
ク31で生じている許容範囲を越えた誤差を補正ニュー
ラルネットワーク22からの補正用誤差を用いて加算処
理により補正する処理なども内部のスイッチを制御する
ことにより実現される。
Further, the correction neural network 31
When the output unit signal from the output error signal exceeds the allowable range, the output selection adder 28 uses the output unit signal from the correction neural network 22 by switching or the correction neural network 31. A process of correcting an error that exceeds the allowable range by an addition process using a correction error from the correction neural network 22 is also realized by controlling an internal switch.

【0047】このように出力選択制御器32ではどのニ
ューラルネットワークからの出力ユニット信号を直接用
いるか、あるいは補正用誤差として用いるかを補正ニュ
ーラルネットワーク22、31からの出力状態信号をも
とに決定し、出力選択加算器28を制御する。
In this way, the output selection controller 32 determines which output unit signal from the neural network is used directly or used as the correction error based on the output state signals from the correction neural networks 22 and 31. , And controls the output selection adder 28.

【0048】それぞれニューラルネットワークでは、実
行処理の方法によって学習方法が異なり、出力ユニット
信号を選択し直接出力する場合には教師信号Tを用いて
学習させ、補正用誤差としての出力ユニット信号を出力
させるには補正教師信号を用いて学習させることにな
る。従って、前段のニューラルネットワークの許容範囲
を越えた誤差の出方によって、教師信号Tを用いるか補
正教師を用いるかの学習方法を選択することも出来る。
これらの学習処理の説明はここでは省略する。
In each neural network, the learning method differs depending on the execution processing method. When the output unit signal is selected and directly output, the learning is performed using the teacher signal T, and the output unit signal as the correction error is output. Will be learned using the corrected teacher signal. Therefore, it is possible to select the learning method of using the teacher signal T or the correction teacher depending on how the error exceeds the allowable range of the neural network in the previous stage.
The description of these learning processes is omitted here.

【0049】[0049]

【実施例4】実施例4の本発明の並列ニューラルネット
ワーク60として、主ニューラルネットワーク21と、
補正ニューラルネットワーク22と、出力状態ニューラ
ルネットワーク33とを入力に対して並列に接続し、主
及び補正ニューラルネットワーク21、22のいずれが
許容誤差範囲内の出力ユニット信号を出力しているかを
示す出力状態信号を得る為に、実施例1とは異なり、独
立に出力状態ニューラルネットワーク33を用意して行
う方式を示す。
Fourth Embodiment As a parallel neural network 60 according to the fourth embodiment of the present invention, a main neural network 21 and
An output state in which the correction neural network 22 and the output state neural network 33 are connected in parallel to the input to indicate which of the main and correction neural networks 21 and 22 outputs the output unit signal within the allowable error range. Unlike the first embodiment, an output state neural network 33 is independently prepared in order to obtain a signal.

【0050】実行処理モードでの実行処理の1構成例を
図9に示す。補正ニューラルネットワーク22には、学
習モードにおける学習処理により主ニューラルネットワ
ーク21からの出力ユニット信号において許容範囲を越
える誤差を生じる学習用入力信号に対して、許容誤差範
囲内の出力ユニット信号を送出するよう学習させた結合
重みが設定されている。また、出力状態ニューラルネッ
トワーク33には、主ニューラルネットワーク21の許
容範囲を越えた誤差の有無を示す出力状態信号を独立に
出力するよう学習させた結合重みが設定されている。こ
の出力状態信号に基づき出力選択制御器23にてどのニ
ューラルネットワークの出力ユニット信号を選択するか
を決定し、出力選択スイッチ19を動作させ、所望の出
力信号Oを端子3から出力させることが出来る。
FIG. 9 shows an example of the configuration of the execution process in the execution process mode. The correction neural network 22 outputs the output unit signal within the allowable error range to the learning input signal which causes an error exceeding the allowable range in the output unit signal from the main neural network 21 due to the learning process in the learning mode. The learned connection weight is set. Further, in the output state neural network 33, a connection weight learned so as to independently output an output state signal indicating the presence / absence of an error exceeding the allowable range of the main neural network 21 is set. Based on this output state signal, the output selection controller 23 determines which neural network output unit signal to select, operates the output selection switch 19, and outputs the desired output signal O from the terminal 3. .

【0051】図10の学習処理モードでの学習処理の構
成としては、実施例1と同様に、まず、主ニューラルネ
ットワーク21を学習させる。規定の学習条件下で学習
が終了すると、教師信号Tと出力ユニット信号とから誤
差を誤差検出器25にて求め、出力状態教師信号生成器
26にて許容範囲を越えた誤差の有無を出力状態教師信
号として記憶させる。次に、補正ニューラルネットワー
ク22を教師信号Tを用いて学習させる。主ニューラル
ネットワーク21からの出力ユニット信号が許容範囲を
越えた誤差を送出する学習用入力信号に対して、補正ニ
ューラルネットワーク22からの出力ユニット信号とそ
の教師信号Tとが許容誤差範囲内で一致したことを収束
判定器39にて検出すると、収束したと見なし学習を終
了させる。
As the configuration of the learning process in the learning process mode of FIG. 10, the main neural network 21 is first learned as in the first embodiment. When the learning is completed under the specified learning condition, an error is obtained from the teacher signal T and the output unit signal by the error detector 25, and the output state teacher signal generator 26 determines whether or not there is an error exceeding the allowable range. Store as a teacher signal. Next, the correction neural network 22 is trained using the teacher signal T. The output unit signal from the correction neural network 22 and the teacher signal T coincide with each other within the allowable error range with respect to the learning input signal in which the output unit signal from the main neural network 21 outputs an error exceeding the allowable range. When this is detected by the convergence determiner 39, it is considered that the convergence has occurred, and learning is terminated.

【0052】更に、出力状態ニューラルネットワーク3
3において、出力状態教師信号生成器26からの出力状
態教師信号を基に学習させる。出力ユニット信号と出力
状態教師信号とが許容誤差範囲内で一致したことを収束
判定器35にて検出すると、収束したとみなし学習を終
了させる。
Further, the output state neural network 3
In 3, the learning is performed based on the output state teacher signal from the output state teacher signal generator 26. When the convergence determiner 35 detects that the output unit signal and the output state teacher signal match within the allowable error range, it is regarded as converged and learning is terminated.

【0053】規定の学習回数以内で一致しない場合は、
動作モード制御器34からの制御のもとに補正ニューラ
ルネットワーク22や出力状態ニューラルネットワーク
33の隠れユニット数を増やし、再度、これらのニュー
ラルネットワークを学習させる。更に収束しない場合に
は、主ニューラルネットワーク21を再度学習させ、許
容範囲を越える誤差を生じる学習用入力信号の数を減
し、出力状態教師信号を求め直した後、補正ニューラル
ネットワーク22及び出力状態ニューラルネットワーク
33を再度学習させてもよい。
If they do not match within the specified number of learnings,
Under the control of the operation mode controller 34, the number of hidden units of the correction neural network 22 and the output state neural network 33 is increased, and these neural networks are learned again. If it does not converge further, the main neural network 21 is re-learned to reduce the number of learning input signals that cause an error exceeding the permissible range, the output state teacher signal is calculated again, and then the correction neural network 22 and the output state are obtained. The neural network 33 may be retrained.

【0054】尚、ここでは、詳細な構成は省略するが、
図9において出力選択スイッチ19の代わりに出力選択
加算器28を用い、実施例2のごとく主ニューラルネッ
トワーク21での許容範囲を越えた誤差からなる補正教
師信号を用いて補正ニューラルネットワーク22を学習
させて、補正用誤差を出力させ出力選択加算器28にて
加算処理させて誤差を補正する構成としても良い。
Although a detailed structure is omitted here,
In FIG. 9, an output selection adder 28 is used in place of the output selection switch 19, and the correction neural network 22 is trained using a correction teacher signal having an error exceeding the allowable range in the main neural network 21 as in the second embodiment. Then, the correction error may be output, and the output selection adder 28 may perform addition processing to correct the error.

【0055】本実施例とこれまでの実施例との基本的な
違いは、出力状態信号を出力させるために出力状態ニュ
ーラルネットワーク33を独立に用いて実現しているこ
とである。補正及び出力状態ニューラルネットワーク2
2、33は自由度が増し簡単に確実に収束させることが
出来ることから、それぞれのニューラルネットワークの
隠れユニット数の削減や学習回数の削減が可能となる。
The fundamental difference between this embodiment and the previous embodiments is that the output state neural network 33 is independently used to output the output state signal. Correction and output state neural network 2
Since 2 and 33 have a higher degree of freedom and can be converged easily and surely, it is possible to reduce the number of hidden units and the number of learning of each neural network.

【0056】本実施例は、主ニューラルネットワーク2
1、補正ニューラルネットワーク22及び出力状態ニュ
ーラルネットワーク33とも設計の自由度を増すことが
でき、従来では高速で安定な収束ができない大規模ニュ
ーラルネットワークを本発明の並列ニューラルネットワ
ークで実現出来る。
In this embodiment, the main neural network 2 is used.
1. The correction neural network 22 and the output state neural network 33 can increase the degree of freedom in design, and can realize a large-scale neural network that cannot perform stable convergence at high speed by the parallel neural network of the present invention.

【0057】[0057]

【実施例5】実施例5の本発明の並列ニューラルネット
ワーク70として、主ニューラルネットワーク21と、
補正ニューラルネットワーク22と、出力状態ニューラ
ルネットワーク33とを入力に対して並列接続し、補正
ニューラルネットワーク22からの出力状態信号の許容
誤差を越えた誤差を出力状態ニューラルネットワーク3
3からの出力ユニット信号で補正する方式の1構成例を
示す。
Fifth Embodiment As a parallel neural network 70 of the fifth embodiment of the present invention, a main neural network 21 and
The correction neural network 22 and the output state neural network 33 are connected in parallel to the input, and an error exceeding the allowable error of the output state signal from the correction neural network 22 is output state neural network 3
3 shows an example of a configuration of a method of correcting with an output unit signal from 3.

【0058】実行処理モードでの実行処理の構成におい
て、図11に示すように実施例2と同様に教師信号Tに
対して主ニューラルネットワーク21からの許容誤差範
囲内の出力ユニット信号を、出力選択制御器36からの
制御のもとに出力選択加算器28を介して端子3から出
力し、許容誤差範囲を越えた出力ユニット信号には補正
ニューラルネットワーク22から補正用誤差として送出
された出力ユニット信号を出力選択加算器28にて加算
演算し誤差を補正した後、端子3に出力し所望の出力信
号を得る。
In the configuration of the execution processing in the execution processing mode, as shown in FIG. 11, the output unit signal within the allowable error range from the main neural network 21 with respect to the teacher signal T is output selected as in the second embodiment. Under the control of the controller 36, the output unit signal output from the terminal 3 via the output selection adder 28 and exceeding the permissible error range is output as the correction error from the correction neural network 22. Is added to the output selection adder 28 to correct the error and then output to the terminal 3 to obtain a desired output signal.

【0059】出力選択制御器36は、主ニューラルネッ
トワーク21からの出力ユニット信号の許容範囲を越え
た誤差の有無を示す出力状態信号を補正ニューラルネッ
トワーク22から送出させ、これに許容範囲を越えた誤
差があれば、出力状態ニューラルネットワーク33から
の出力状態補正用誤差としての出力ユニット信号を加算
しその誤差を補正し、正しい出力状態信号を得た後、制
御信号を出力選択加算器28に出力する。
The output selection controller 36 causes the correction neural network 22 to output an output state signal indicating the presence or absence of an error exceeding the allowable range of the output unit signal from the main neural network 21, and causes the error to exceed the allowable range. If there is, an output unit signal as an output state correction error from the output state neural network 33 is added, the error is corrected, and a correct output state signal is obtained, and then a control signal is output to the output selection adder 28. .

【0060】学習処理モードでの学習処理の1構成例を
図12に示す。実施例3と同様に、まず、動作モード制
御器34からの制御信号により主ニューラルネットワー
ク21の学習を開始させる。学習終了後、誤差検出器2
5にて教師信号Tから出力ユニット信号を差し引き誤差
を求め、許容範囲を越えた誤差を補正教師信号生成器2
9にて補正教師信号として記憶させると共に、出力状態
教師信号生成器26にて許容範囲を越えた誤差の有無を
示す出力状態教師信号を記憶させる。
FIG. 12 shows a configuration example of the learning process in the learning process mode. Similar to the third embodiment, first, learning of the main neural network 21 is started by the control signal from the operation mode controller 34. After learning, error detector 2
In step 5, the output unit signal is subtracted from the teacher signal T to obtain an error, and the error exceeding the allowable range is corrected.
The output state teacher signal generator 26 stores the corrected teacher signal as a correction signal 9, and the output state teacher signal generator 26 stores an output state teacher signal indicating the presence or absence of an error exceeding the allowable range.

【0061】次に、動作モード制御器34からの制御信
号により補正ニューラルネットワーク22の学習を補正
教師信号と出力状態教師信号とを用いて開始させ、補正
教師信号を補正教師信号生成器29から読みだし学習さ
せる。この学習過程において、収束判定器39にて主ニ
ューラルネットワーク21にて許容範囲を越えた誤差を
生じている学習用入力信号に対して出力ユニット信号が
許容誤差範囲内にあれば、収束したと見なして学習を終
了させる。また、この時、誤差検出器37にて出力教師
信号生成器26からの出力状態教師信号から出力状態信
号を差し引き誤差を検出し、許容範囲を越えた誤差があ
れば、出力状態補正教師信号として出力状態補正教師信
号生成器38に記憶させる。
Next, the learning of the correction neural network 22 is started using the correction teacher signal and the output state teacher signal by the control signal from the operation mode controller 34, and the correction teacher signal is read from the correction teacher signal generator 29. But let's learn. In this learning process, if the output signal of the output unit signal is within the allowable error range with respect to the learning input signal in which an error exceeding the allowable range has occurred in the main neural network 21 in the convergence determiner 39, it is considered to have converged. To end learning. At this time, the error detector 37 detects the error by subtracting the output state signal from the output state teacher signal from the output teacher signal generator 26, and detects an error. It is stored in the output state correction teacher signal generator 38.

【0062】次に、動作モード制御器34からの制御信
号により出力状態補正教師信号を用いて出力状態ニュー
ラルネットワーク33の学習を開始させる。この学習過
程において、収束判定器35にて出力状態補正教師信号
に対して出力状態補正信号が許容誤差範囲内にあれば、
収束したと見なして学習を終了させる。
Next, learning of the output state neural network 33 is started using the output state correction teacher signal in accordance with the control signal from the operation mode controller 34. In the learning process, if the output state correction signal is within the allowable error range with respect to the output state correction teacher signal in the convergence determiner 35,
Learning is considered to have converged, and learning is terminated.

【0063】規定の学習条件下で収束しなければ、出力
状態ニューラルネットワーク33の隠れユニット数を増
やし再度出力状態ニューラルネットワーク33の学習を
繰り返してもよい。また、補正ニューラルネットワーク
22の収束判定器39において収束が検出されない場合
には、その隠れユニット数を増やし再度補正ニューラル
ネットワーク22の学習を繰り返してもよい。あるい
は、更に主ニューラルネットワーク21の学習を再度開
始して、主ニューラルネットワーク21での許容範囲を
越えた誤差を生じる学習用入力信号の数を減し、補正教
師信号生成器29での補正教師信号を生成しなおし、再
度補正ニューラルネットワーク22を学習させてもよ
い。学習処理が終了すると、動作モード制御器34によ
り学習処理モードを実行処理モードに切り替える。
If the convergence does not occur under the specified learning condition, the number of hidden units of the output state neural network 33 may be increased and the learning of the output state neural network 33 may be repeated again. If convergence is not detected by the convergence determiner 39 of the correction neural network 22, the number of hidden units may be increased and learning of the correction neural network 22 may be repeated. Alternatively, the learning of the main neural network 21 is started again to reduce the number of learning input signals that cause an error exceeding the allowable range in the main neural network 21, and the correction teacher signal generator 29 corrects the correction teacher signal. May be regenerated and the correction neural network 22 may be learned again. When the learning process ends, the operation mode controller 34 switches the learning process mode to the execution process mode.

【0064】このように、正しい出力状態信号が補正ニ
ューラルネットワーク22で得られない場合には、出力
状態ニューラルネットワーク33を用いて出力状態補正
信号を出力させ、出力選択制御器36にて加算処理によ
り補正し、正しい出力状態信号を得た後、制御信号を出
力選択加算器28に出力する。これにより、学習外入力
信号に対しても所望の出力信号が得やすくなる。
As described above, when the correct output state signal cannot be obtained by the correction neural network 22, the output state correction signal is output by using the output state neural network 33, and the output selection controller 36 performs addition processing. After the correction and the correct output state signal are obtained, the control signal is output to the output selection adder 28. As a result, it becomes easy to obtain a desired output signal even for a non-learning input signal.

【0065】ここでは、詳細を省略するが、実施例1−
5において、主及び補正ニューラルネットワークの出力
ユニット信号に対してそれぞれ多値スレショルド回路を
介して多値出力ユニット信号を得、収束判定器において
教師信号Tとあるいは補正教師信号と多値出力ユニット
信号とが一致したことを検出することにより収束したと
判断させ、また、実行処理における各ニューラルネット
ワークと出力選択スイッチとの間、あるいは出力選択加
算器との間にそれぞれ多値スレショルド回路を挿入した
多値ニューラルネットワークを構成してもよい。
Although details are omitted here, the embodiment 1-
In 5, the multi-valued output unit signals are respectively obtained for the output unit signals of the main and the correction neural network through the multi-valued threshold circuit, and the teacher signal T or the corrected teacher signal and the multi-valued output unit signal are obtained in the convergence determiner. It is judged that they have converged by detecting that they match each other, and the multi-valued threshold circuit is inserted between each neural network and the output selection switch in the execution processing, or between the output selection adder. You may comprise a neural network.

【0066】また、更に出力選択加算器の代わりに出力
選択加法演算器を用いることにより、多値論理ニューラ
ルネットワークを構成してもよい。
Further, a multi-valued logic neural network may be constructed by using an output selection additive arithmetic unit instead of the output selection adder.

【0067】以上の実施例1−5において、示したごと
く補正ニューラルネットワークとして教師信号を用いて
学習させることが出来るニューラルネットワークであれ
ば、上記の多層ニューラルネットワーク以外のニューラ
ルネットワークを用いても良い。また、主ニューラルネ
ットワーク21としては教師信号を用いないニューラル
ネットワークを適用することも出来る。
In the first to fifth embodiments described above, a neural network other than the above-mentioned multilayer neural network may be used as long as it is a neural network that can be trained by using the teacher signal as the correction neural network as shown. Further, as the main neural network 21, a neural network that does not use a teacher signal can be applied.

【0068】また、並列ニューラルネットワークにおい
て、最終段の該補正ニューラルネットワークの学習の際
に、該補正ニューラルネットワーク、あるいは更に該主
ニューラルネットワークの隠れユニット数を増やし再度
学習させ収束させることもできる。
Further, in the parallel neural network, when the correction neural network at the final stage is learned, the number of hidden units of the correction neural network or the main neural network can be increased and the learning can be made to converge again.

【0069】また、並列ニューラルネットワークにおい
て、出力選択制御器を省略し、その機能を補正ニューラ
ルネットワークもしくは出力状態ニューラルネットワー
クに行わせることもできる。
In the parallel neural network, the output selection controller may be omitted and the function thereof may be performed by the correction neural network or the output state neural network.

【0070】[0070]

【発明の効果】以上述べたように、本発明の並列ニュー
ラルネットワークは、入力に対して主ニューラルネット
ワークと少なくとも1つ以上の補正ニューラルネットワ
ークとを入力に対して並列に接続し、それぞれを順次学
習させ、少なくとも最終段の補正ニューラルネットワー
クからの出力状態信号を用いて、入力信号に対して主及
び補正ニューラルネットワークからの出力ユニット信号
を直接出力させるか、あるいは加算演算処理を介して、
更に多値演算処理の場合には加法演算処理を介して出力
させることにより、学習用入力信号に対して所望の出力
信号を出力させ、学習外入力信号に対してもより多くの
所望の出力信号を得ることが簡単に出来る。
As described above, according to the parallel neural network of the present invention, the main neural network and at least one or more correction neural networks are connected in parallel to the input, and each of them is sequentially learned. Then, using the output state signal from at least the final stage of the correction neural network, the output unit signal from the main and correction neural network is directly output with respect to the input signal, or via the addition operation processing,
Further, in the case of multi-valued arithmetic processing, a desired output signal is output to the learning input signal by outputting through the additive arithmetic processing, and more desired output signals are output to the non-learning input signal. Can be easily obtained.

【0071】従来方式によるニューラルネットワークに
比べて、少ない中間層ユニットあるいは隠れユニットを
用いて少ない学習回数で等価的に安定に収束させ、所望
の出力信号を送出することができ、また、非常に多くの
入力信号エレメント数を持った入力信号や数多くの教師
信号Tを有したユニット数の多い並列ニューラルネット
ワークも実現できる。
Compared with the conventional neural network, a small number of hidden layers units or hidden units can be used to equivalently and stably converge with a small number of learning operations, and a desired output signal can be transmitted. It is also possible to realize a parallel neural network having a large number of units having a large number of input signal elements and a large number of teacher signals T.

【0072】これらのことから、従来技術では実現が困
難な大規模ニューラルネットワークを短時間で自由に設
計し実現することや、これまで迅速な学習が必要で、且
つ完全な収束が要求される人工知能システムや検索シス
テム、データ変換、データ圧縮、多値画像処理、更に
は、通信システムなどへの幅広い応用ができるなどの非
常に幅広い効果を有している。
From these facts, it is necessary to freely design and realize a large-scale neural network, which is difficult to be realized by the conventional technique, in a short time, and artificial learning that requires rapid learning and complete convergence is required. It has a very wide range of effects such as a wide range of applications such as intelligent systems, search systems, data conversion, data compression, multi-valued image processing, and communication systems.

【0073】また、本発明の多値論理ニューラルネット
ワークにおいて学習した結合重みをそれぞれ複数組用意
し、結合重みを切り替え設定すれば、一定遅延を持った
プログラマブルな大規模可変多値論理回路も容易に実現
でき、また、状況に応じて短時間で学習しなおすことに
より同一ハードウェア上に新たな大規模多値論理回路も
実現できる。特に、本発明の並列ニューラルネットワー
クを低い内部演算精度を持った同一の複数のニューロL
SIチップを用いて構成することにより、並列処理機能
と柔軟性に富んだ多値論理演算処理の効果的な利用が出
来る。また等価的に完全に学習用入力信号に対して収束
させられることからも、本発明の並列ニューラルネット
ワークを複雑に組み合わせた大規模ニューラルネットワ
ークを容易に構成することも可能である。
If a plurality of sets of connection weights learned in the multi-valued logic neural network of the present invention are prepared and the connection weights are switched and set, a programmable large-scale variable multi-valued logic circuit with a fixed delay can be easily provided. It can be realized, and a new large-scale multi-valued logic circuit can be realized on the same hardware by learning again in a short time according to the situation. In particular, the parallel neural network of the present invention is applied to a plurality of identical neuro L's having low internal calculation accuracy.
By using the SI chip, it is possible to effectively use the parallel processing function and the flexible multivalued logic operation processing. Also, since the learning input signal can be completely equivalently converged, it is possible to easily construct a large-scale neural network in which the parallel neural networks of the present invention are complicatedly combined.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来方式による3層ニューラルネットワークの
実行処理の1構成例である。
FIG. 1 is an example of a configuration of execution processing of a three-layer neural network according to a conventional method.

【図2】従来方式による3層ニューラルネットワークに
おける学習処理の1構成例である。
FIG. 2 is an example of a configuration of a learning process in a conventional three-layer neural network.

【図3】従来方式による並列ニューラルネットワークの
実行処理の1構成例である。
FIG. 3 is an example of a configuration of execution processing of a parallel neural network according to a conventional method.

【図4】実施例1における本発明の並列ニューラルネッ
トワークの実行処理の1構成例である。
FIG. 4 is a configuration example of an execution process of the parallel neural network of the present invention in the first embodiment.

【図5】実施例1における本発明の並列ニューラルネッ
トワークの学習処理の1構成例である。
FIG. 5 is a configuration example of a learning process of the parallel neural network of the present invention in the first embodiment.

【図6】実施例2における本発明の並列ニューラルネッ
トワークの実行処理の1構成例である。
FIG. 6 is a configuration example of an execution process of the parallel neural network of the present invention in the second embodiment.

【図7】実施例2における本発明の並列ニューラルネッ
トワークの学習処理の1構成例である。
FIG. 7 is a configuration example of a learning process of the parallel neural network of the present invention in the second embodiment.

【図8】実施例3における本発明の並列ニューラルネッ
トワークの実行処理の1構成例である。
FIG. 8 is a configuration example of an execution process of a parallel neural network of the present invention in a third exemplary embodiment.

【図9】実施例4における本発明の並列ニューラルネッ
トワークの実行処理の1構成例である。
FIG. 9 is a configuration example of an execution process of the parallel neural network of the present invention in the fourth embodiment.

【図10】実施例4における本発明の並列ニューラルネ
ットワークの学習処理の1構成例である。
FIG. 10 is a configuration example of a learning process of the parallel neural network of the present invention in the fourth embodiment.

【図11】実施例5における本発明の並列ニューラルネ
ットワークの実行処理の1構成例である。
FIG. 11 is a configuration example of an execution process of the parallel neural network of the present invention in the fifth embodiment.

【図12】実施例5における本発明の並列ニューラルネ
ットワークの学習処理の1構成例である。
FIG. 12 is a configuration example of a learning process of the parallel neural network of the present invention in the fifth embodiment.

【符号の説明】[Explanation of symbols]

1 3層ニューラルネットワーク 2 ニューラルネットワーク入力信号入力端子 21 ニューラルネットワーク入力信号ユニット入力端
子 22 ニューラルネットワーク入力信号ユニット入力端
子 2N ニューラルネットワーク入力信号ユニット入力端
子 3 ニューラルネットワーク出力信号出力端子 31 ニューラルネットワーク出力信号ユニット出力端
子 32 ニューラルネットワーク出力信号ユニット出力端
子 3M ニューラルネットワーク出力信号ユニット出力端
子 4 入力層 41 入力層ユニット 42 入力層ユニット 4N 入力層ユニット 5 中間層 51 中間層ユニット 52 中間層ユニット 5P 中間層ユニット 6 出力層 61 出力層ユニット 62 出力層ユニット 6M 出力層ユニット 7 教師信号入力端子 71 ユニット教師信号入力端子 72 ユニット教師信号入力端子 7M ユニット教師信号入力端子 8 減算器 81 減算器 82 減算器 8M 減算器 9 結合重み制御器 10 結合重み制御入出力端子 11 2値スレショルド回路 12 第1のニューラルネットワーク 13 第2のニューラルネットワーク 14 第3のニューラルネットワーク 15 誤差検出器 16 誤差検出器 17 誤差検出器 18 出力選択制御器 19 出力選択スイッチ 20 従来技術による並列ニューラルネットワーク 21 主ニューラルネットワーク 210 減算器 211 結合重み制御器 212 結合重み制御入出力端子 22 補正ニューラルネットワーク 220 減算器 221 結合重み制御器 222 結合重み制御入出力端子 223 減算器 23 出力選択制御器 24 動作モード制御器 25 誤差検出器 26 出力状態教師信号生成器 27 収束判定器 28 出力選択加算器 29 補正教師信号生成器 30 実施例1の本発明の並列ニューラルネットワーク 31 補正ニューラルネットワーク 32 出力選択制御器 33 出力状態ニューラルネットワーク 331 結合重み制御器 332 結合重み制御入出力端子 34 動作モード制御器 35 収束判定器 36 出力選択制御器 37 誤差検出器 38 出力状態補正教師信号生成器 39 収束判定器 40 実施例2の本発明の並列ニューラルネットワーク 41 2値スレショルド回路 50 実施例3の本発明の並列ニューラルネットワーク 60 実施例4の本発明の並列ニューラルネットワーク 70 実施例5の本発明の並列ニューラルネットワーク
1 3 layer neural network 2 Neural network input signal input terminal 2 1 Neural network input signal unit input terminal 2 2 Neural network input signal unit input terminal 2 N Neural network input signal unit input terminal 3 Neural network output signal output terminal 3 1 Neural network Output signal unit output terminal 3 2 Neural network output signal unit output terminal 3 M Neural network output signal unit output terminal 4 Input layer 4 1 Input layer unit 4 2 Input layer unit 4 N Input layer unit 5 Intermediate layer 5 1 Intermediate layer unit 5 2 middle layer unit 5 P middle layer unit 6 output layer 6 1 output layer unit 6 2 output layer unit 6 M output layer unit 7 teacher signal input terminal 7 1 unit teacher signal input terminal 7 2 unit teacher signal No. Input terminal 7 M unit Teacher signal input terminal 8 Subtractor 8 1 Subtractor 8 2 Subtractor 8 M Subtractor 9 Coupling weight controller 10 Coupling weight control input / output terminal 11 Binary threshold circuit 12 First neural network 13th 2 neural network 14 3rd neural network 15 error detector 16 error detector 17 error detector 18 output selection controller 19 output selection switch 20 parallel neural network 21 according to prior art 21 main neural network 210 subtractor 211 combination weight controller 212 coupling weight control input / output terminal 22 correction neural network 220 subtractor 221 coupling weight controller 222 coupling weight control input / output terminal 223 subtractor 23 output selection controller 24 operation mode controller 25 error detector 26 output state teacher signal generator 7 Convergence Determinator 28 Output Selection Adder 29 Corrected Teacher Signal Generator 30 Parallel Neural Network of the Present Invention of First Embodiment 31 Correction Neural Network 32 Output Selection Controller 33 Output State Neural Network 331 Connection Weight Controller 332 Connection Weight Control Input Output terminal 34 Operation mode controller 35 Convergence determiner 36 Output selection controller 37 Error detector 38 Output state correction teacher signal generator 39 Convergence determiner 40 Parallel neural network 41 of the present invention of Example 2 41 Binary threshold circuit 50 Implementation Example 3 parallel neural network of the present invention 60 Example 4 parallel neural network of the present invention 70 Example 5 parallel neural network of the present invention

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 主ニューラルネットワークに対して少な
くとも1つの補正ニューラルネットワークを並列接続
し、学習用入力信号に対して学習させた該主ニューラル
ネットワークと、前段の該ニューラルネットワークの出
力ユニット信号に予め用意された教師信号と比べ許容範
囲を越えた誤差を生じた学習用入力信号に対して順次学
習させた該補正ニューラルネットワークと、前段の該ニ
ューラルネットワークの出力ユニット信号における許容
範囲を越えた誤差の有無を出力状態教師信号とし、出力
状態信号を送出できるよう更に学習させた少なくとも最
終段の該補正ニューラルネットワークと、該出力状態信
号をもとに該ニューラルネットワークの出力ユニット信
号の選択を決定する出力選択制御手段と、該出力選択制
御手段からの制御信号のもとに出力ユニット信号を選択
し送出する出力選択スイッチ手段とを少なくとも具備
し、出力信号を得ることを特徴とした並列ニューラルネ
ットワーク。
1. A main neural network in which at least one correction neural network is connected in parallel, and the main neural network trained on a learning input signal and an output unit signal of the preceding neural network are prepared in advance. The correction neural network that sequentially learns the learning input signal that has an error that exceeds the allowable range compared to the generated teacher signal, and whether there is an error that exceeds the allowable range in the output unit signal of the preceding neural network. Is used as an output state teaching signal, and at least the final stage of the correction neural network further learned so that the output state signal can be transmitted, and output selection for determining the selection of the output unit signal of the neural network based on the output state signal Control means and control signal from the output selection control means A parallel neural network comprising at least output selecting switch means for selecting and transmitting an output unit signal based on the above, and obtaining an output signal.
【請求項2】 主ニューラルネットワークに対して少な
くとも1つの補正ニューラルネットワークを並列接続
し、学習用入力信号に対して学習させた該主ニューラル
ネットワークと、前段の該ニューラルネットワークの出
力ユニット信号にその用いられた教師信号と比べ許容範
囲を越えた誤差を生じた学習用入力信号に対して該誤差
を教師信号として順次学習させた補正用誤差を出力する
該補正ニューラルネットワークと、前段の該ニューラル
ネットワークの出力ユニット信号における許容範囲を越
えた誤差の有無を出力状態教師信号とした出力状態信号
を送出できるよう更に学習させた少なくとも最終段の補
正ニューラルネットワークと、該出力状態信号をもとに
該ニューラルネットワークの出力ユニット信号の選択加
算処理を決定する出力選択制御手段と、該出力選択制御
手段からの制御信号のもとに該ニューラルネットワーク
の出力ユニット信号を選択し、許容範囲を越えた誤差を
持つ出力ユニット信号に対しては補正用誤差である後段
の補正ニューラルネットワークの出力ユニット信号を加
算し補正して送出する出力選択加算手段とを少なくとも
具備し、出力信号を得ることを特徴とした並列ニューラ
ルネットワーク。
2. A main neural network in which at least one correction neural network is connected in parallel to the main neural network, and the main neural network learned for a learning input signal and the output unit signal of the preceding neural network are used. Of the learning input signal having an error exceeding the allowable range as compared with the learned teacher signal, and outputting the correction error obtained by sequentially learning the learning input signal using the error as a teacher signal, and the neural network of the preceding stage. A correction neural network at least in the final stage, which is further learned so as to output an output state signal with the presence or absence of an error in the output unit signal exceeding an allowable range as an output state teacher signal, and the neural network based on the output state signal Output that determines the selective addition processing of the unit output signal The output unit signal of the neural network is selected based on the selection control means and the control signal from the output selection control means, and the output unit signal having an error exceeding the allowable range is a correction error. A parallel neural network, which comprises at least output selecting and adding means for adding, correcting and transmitting the output unit signals of the correction neural network, and obtaining an output signal.
【請求項3】 主ニューラルネットワークに対して少な
くとも2つの補正ニューラルネットワークを並列接続
し、学習用入力信号に対して学習させた該主ニューラル
ネットワークと、前段の該ニューラルネットワークの出
力ユニット信号にその用いられた教師信号と比べ許容範
囲を越えた誤差を生じた学習用入力信号に対して順次学
習させた該補正ニューラルネットワークと、前段の該ニ
ューラルネットワークの出力ユニット信号にその用いら
れた教師信号と比べ許容範囲を越えた誤差を生じた学習
用入力信号に対して該誤差を教師信号として順次学習さ
せた補正用誤差を出力する該補正ニューラルネットワー
クと、該ニューラルネットワークの出力ユニット信号に
おける許容範囲を越えた誤差の有無を出力状態教師信号
とした出力状態信号を送出できるよう更に学習させた少
なくとも最終段の該補正ニューラルネットワークと、該
出力状態信号をもとに該ニューラルネットワークの出力
ユニット信号の選択あるいは選択加算処理を決定する出
力選択制御手段と、該出力選択制御手段からの制御信号
のもとに該ニューラルネットワークの出力ユニット信号
を選択し、更に補正用誤差を出力する補正ニューラルネ
ットワークの出力ユニット信号を前段の補正ニューラル
ネットワークの出力ユニットに加算し補正して送出する
出力選択加算手段とを少なくとも具備し、出力信号を得
ることを特徴としたニューラルネットワーク。
3. A main neural network in which at least two correction neural networks are connected in parallel to the main neural network, and the main neural network trained on a learning input signal and the output unit signal of the preceding neural network are used. Compared with the corrected neural network in which the learning input signal having an error exceeding the allowable range is successively learned, and the teacher signal used as the output unit signal of the preceding neural network. A correction neural network that outputs a correction error in which a learning input signal having an error exceeding the allowable range is sequentially learned using the error as a teacher signal, and the allowable range in the output unit signal of the neural network is exceeded. The output status signal with or without the error At least the final stage of the correction neural network that has been further learned so that it can be transmitted, output selection control means that determines the selection or selective addition processing of the output unit signal of the neural network based on the output state signal, and the output selection The output unit signal of the neural network is selected on the basis of the control signal from the control means, and the output unit signal of the correction neural network for outputting the correction error is added to the output unit of the correction neural network of the preceding stage to correct it. A neural network comprising at least an output selecting and adding means for sending out and obtaining an output signal.
【請求項4】 前記ニューラルネットワークの出力ユニ
ット信号を多値スレショルド回路で多値化して多値出力
ユニット信号を得て、出力選択加算手段を出力選択加法
手段に置き換えた請求項2記載の並列ニューラルネット
ワーク。
4. A parallel neural network according to claim 2, wherein the output unit signal of said neural network is multi-valued by a multi-valued threshold circuit to obtain a multi-valued output unit signal, and the output selective addition means is replaced with an output selective addition means. network.
【請求項5】 前記ニューラルネットワークの出力ユニ
ット信号を多値スレショルド回路で多値化して多値出力
ユニット信号を得て、出力選択加算手段を出力選択加法
手段に置き換えた請求項3記載の並列ニューラルネット
ワーク。
5. The parallel neural according to claim 3, wherein the output unit signal of the neural network is multi-valued by a multi-valued threshold circuit to obtain a multi-valued output unit signal, and the output selective addition means is replaced with the output selective addition means. network.
【請求項6】 前記主ニューラルネットワークと該補正
ニューラルネットワークとに少なくとも1つの出力状態
ニューラルネットワークとを並列接続し、該出力状態教
師信号を該出力状態ニューラルネットワークで学習し、
該出力状態信号を出力選択制御手段に出力する請求項1
記載の並列ニューラルネットワーク。
6. The main state neural network and at least one output state neural network are connected in parallel to the correction neural network, and the output state teacher signal is learned by the output state neural network,
The output state signal is output to the output selection control means.
The described parallel neural network.
【請求項7】 前記主ニューラルネットワークと該補正
ニューラルネットワークとに少なくとも1つの出力状態
ニューラルネットワークとを並列接続し、該出力状態教
師信号を該出力状態ニューラルネットワークで学習し、
該出力状態信号を出力選択制御手段に出力する請求項2
記載の並列ニューラルネットワーク。
7. The main state neural network and the correction neural network are connected in parallel with at least one output state neural network, and the output state teacher signal is learned by the output state neural network,
3. The output state signal is output to output selection control means.
The described parallel neural network.
【請求項8】 前記主ニューラルネットワークと該補正
ニューラルネットワークとに少なくとも1つの出力状態
ニューラルネットワークとを並列接続し、該出力状態教
師信号を該出力状態ニューラルネットワークで学習し、
該出力状態信号を出力選択制御手段に出力する請求項3
記載の並列ニューラルネットワーク。
8. The main neural network and the correction neural network are connected in parallel with at least one output state neural network, and the output state teacher signal is learned by the output state neural network,
The output state signal is output to the output selection control means.
The described parallel neural network.
【請求項9】 請求項6−8に記載のニューラルネット
ワークにおいて、少なくとも最終段の該補正ニューラル
ネットワークを該ニューラルネットワークの出力ユニッ
ト信号における許容範囲を越えた誤差の有無を出力状態
教師信号とした出力状態信号を送出できるよう更に学習
させ、出力選択制御手段において該出力状態ニューラル
ネットワークと少なくとも最終段の該補正ニューラルネ
ットワークとからの出力状態信号をもとに該ニューラル
ネットワークの出力ユニット信号の選択、あるいは選択
加算処理を決定することを特徴とした並列ニューラルネ
ットワーク。
9. The neural network according to claim 6, wherein at least the final stage of the correction neural network outputs an output state teacher signal indicating whether or not there is an error in an output unit signal of the neural network that exceeds an allowable range. Further learning is performed so that the state signal can be transmitted, and the output selection control means selects the output unit signal of the neural network based on the output state signals from the output state neural network and at least the final correction neural network, or A parallel neural network characterized by deciding selective addition processing.
【請求項10】 請求項1−3及び6−9の1つに記載
のニューラルネットワークにおいて、該主及び補正ニュ
ーラルネットワークの出力ユニット信号から多値出力ユ
ニット信号を得るために多値スレショルド回路を該ニュ
ーラルネットワークと出力選択スイッチ手段、あるいは
出力選択加算手段の間に少なくとも挿入した並列ニュー
ラルネットワーク。
10. A neural network as claimed in any one of claims 1-3 and 6-9, comprising a multi-valued threshold circuit for obtaining a multi-valued output unit signal from the output unit signals of the main and correction neural networks. A parallel neural network inserted at least between the neural network and the output selection switch means or the output selection addition means.
【請求項11】 前記ニューラルネットワークの出力ユ
ニット信号を多値スレショルド回路で多値化して多値出
力ユニット信号を得て、出力選択加算手段を出力選択加
法手段に置き換えた請求項7記載の並列ニューラルネッ
トワーク。
11. The parallel neural network according to claim 7, wherein the output unit signal of the neural network is multivalued by a multivalued threshold circuit to obtain a multivalued output unit signal, and the output selection / addition means is replaced with an output selection / addition means. network.
【請求項12】 前記ニューラルネットワークの出力ユ
ニット信号を多値スレショルド回路で多値化して多値出
力ユニット信号を得て、出力選択加算手段を出力選択加
法手段に置き換えた請求項8記載の並列ニューラルネッ
トワーク。
12. A parallel neural network according to claim 8, wherein the output unit signal of said neural network is multi-valued by a multi-valued threshold circuit to obtain a multi-valued output unit signal, and the output selection and addition means is replaced with the output selection and addition means. network.
【請求項13】 請求項11−12に記載のニューラル
ネットワークにおいて、少なくとも最終段の該補正ニュ
ーラルネットワークを該ニューラルネットワークの多値
出力ユニット信号における誤差の有無を出力状態教師信
号とした出力状態信号を送出できるよう更に学習させ、
出力選択制御手段において該出力状態ニューラルネット
ワークと少なくとも最終段の該補正ニューラルネットワ
ークとからの出力状態信号をもとに該ニューラルネット
ワークの多値出力ユニット信号の選択、あるいは選択加
法処理を決定することを特徴とした並列ニューラルネッ
トワーク。
13. The neural network according to claim 11, wherein at least the final stage of the correction neural network is an output state signal in which the presence or absence of an error in a multilevel output unit signal of the neural network is used as an output state teacher signal. Learn further to be able to send,
In the output selection control means, the selection of the multivalued output unit signal of the neural network or the determination of the selective addition processing is performed based on the output state signals from the output state neural network and at least the final stage correction neural network. A featured parallel neural network.
JP28879193A 1993-10-26 1993-10-26 Parallel neural network Expired - Fee Related JP3277648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28879193A JP3277648B2 (en) 1993-10-26 1993-10-26 Parallel neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28879193A JP3277648B2 (en) 1993-10-26 1993-10-26 Parallel neural network

Publications (2)

Publication Number Publication Date
JPH07121494A true JPH07121494A (en) 1995-05-12
JP3277648B2 JP3277648B2 (en) 2002-04-22

Family

ID=17734776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28879193A Expired - Fee Related JP3277648B2 (en) 1993-10-26 1993-10-26 Parallel neural network

Country Status (1)

Country Link
JP (1) JP3277648B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009054038A1 (en) * 2007-10-22 2009-04-30 Fujitsu Limited Method, program and device for making 2 class classification prediction model
US9183450B2 (en) 2006-04-27 2015-11-10 Hitachi High-Technologies Corporation Inspection apparatus
WO2019069649A1 (en) * 2017-10-06 2019-04-11 キヤノン株式会社 Control device, lithography device, measuring device, machining device, planarization device, and method for manufacturing goods
WO2021054118A1 (en) * 2019-09-18 2021-03-25 日本電気株式会社 Parameter determining device, signal transmitting device, parameter determining method, signal transmitting method, and recording medium
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183450B2 (en) 2006-04-27 2015-11-10 Hitachi High-Technologies Corporation Inspection apparatus
WO2009054038A1 (en) * 2007-10-22 2009-04-30 Fujitsu Limited Method, program and device for making 2 class classification prediction model
WO2019069649A1 (en) * 2017-10-06 2019-04-11 キヤノン株式会社 Control device, lithography device, measuring device, machining device, planarization device, and method for manufacturing goods
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning
WO2021054118A1 (en) * 2019-09-18 2021-03-25 日本電気株式会社 Parameter determining device, signal transmitting device, parameter determining method, signal transmitting method, and recording medium
US11831347B2 (en) 2019-09-18 2023-11-28 Nec Corporation Parameter determination apparatus, signal transmission apparatus, parameter determination method, signal transmission method and recording medium

Also Published As

Publication number Publication date
JP3277648B2 (en) 2002-04-22

Similar Documents

Publication Publication Date Title
JP3328935B2 (en) Parallel multi-valued neural network
Hespanha et al. Multiple model adaptive control. Part 2: switching
US6601053B1 (en) Optimized artificial neural networks
US5265224A (en) Recognition unit and recognizing and judging apparatus employing same
JPH07121494A (en) Parallel neural network
US5764860A (en) Learning method for multi-level neural network
US5870728A (en) Learning procedure for multi-level neural network
JP2001051969A (en) Neural network means having right/wrong answer discriminating function
JP3757722B2 (en) Multi-layer neural network unit optimization method and apparatus
JP3329202B2 (en) Neural network learning method
US6463423B1 (en) Multi-winners feedforward neural network
JP4687199B2 (en) Associative memory and its software
JP3855665B2 (en) Parallel neural network processing system with output state judgment function
JP3855580B2 (en) Parallel neural network device
JP3367264B2 (en) Neural network learning method
JP4696529B2 (en) Multi-layer neural network device and its software
JP3368774B2 (en) neural network
Sugawara et al. Fault tolerant multi-layer neural networks with GA training
JP3367295B2 (en) Multi-valued neural network learning method
JP4539221B2 (en) Mutual associative memory and its software
KR100342886B1 (en) Method of learning binary system
US5980079A (en) Synthesis of threshold networks
JP3855582B2 (en) Parallel neural network processing system with output state judgment function
Ansari et al. Noise Cancellation in Hand Free Cellphone Using Neurofuzzy Filter
Thimm et al. A Neural Network Construction Method based on Boolean Logic

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees