JP3367264B2 - Neural network learning method - Google Patents

Neural network learning method

Info

Publication number
JP3367264B2
JP3367264B2 JP07716895A JP7716895A JP3367264B2 JP 3367264 B2 JP3367264 B2 JP 3367264B2 JP 07716895 A JP07716895 A JP 07716895A JP 7716895 A JP7716895 A JP 7716895A JP 3367264 B2 JP3367264 B2 JP 3367264B2
Authority
JP
Japan
Prior art keywords
signal
neural network
output unit
learning
error signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07716895A
Other languages
Japanese (ja)
Other versions
JPH08249304A (en
Inventor
陽太郎 八塚
Original Assignee
ケイディーディーアイ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケイディーディーアイ株式会社 filed Critical ケイディーディーアイ株式会社
Priority to JP07716895A priority Critical patent/JP3367264B2/en
Publication of JPH08249304A publication Critical patent/JPH08249304A/en
Priority to US08/923,333 priority patent/US5764860A/en
Application granted granted Critical
Publication of JP3367264B2 publication Critical patent/JP3367264B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、大規模論理回路、パタ
ーン認識、連想メモリ、データ変換及び画像処理などの
分野に適用可能なニューラルネットワークにおいて、簡
単な学習により高速かつ安定に所望の出力信号を得るこ
とができるニューラルネットワークの学習方式に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network applicable to the fields of large-scale logic circuits, pattern recognition, associative memory, data conversion, image processing and the like, and can output desired output signals stably at high speed by simple learning. The present invention relates to a learning method of a neural network that can obtain

【0002】[0002]

【従来の技術】ニューラルネットワークの1つとして、
多層(階層)ニューラルネットワークがあるが、このニ
ューラルネットワークの教師信号を用いた学習方法とし
て、バック・プロパゲーション・アルゴリズムが幅広く
使用されている。本アルゴリズムを用いた学習過程で
は、重み係数を初期設定した後、予め用意された教師信
号T(教師信号エレメント、T 、T 、... 、T
)から、入力層に入力された学習用入力信号に対する
出力層からの出力ユニット信号を減算器を介して差し引
き誤差信号を求め、各層のユニット出力信号と誤差信号
とを基に誤差信号の電力を最小にするように各層間の重
み係数の更新を行い学習を行うものである。この重み係
数適応制御からなる学習をすべての学習用入力信号に対
して実行し、収束するまで繰り返す。
2. Description of the Related Art As one of neural networks,
Although there is a multilayer neural network, a back propagation algorithm is widely used as a learning method using a teacher signal of this neural network. In the learning process using this algorithm, after the weighting coefficient is initialized, the teacher signals T (teacher signal elements, T 1 , T 2 , ..., T M prepared in advance are prepared.
), The output unit signal from the output layer with respect to the learning input signal input to the input layer is subtracted through a subtracter to obtain an error signal, and the power of the error signal is calculated based on the unit output signal of each layer and the error signal. The weighting coefficient between layers is updated so as to minimize the learning. The learning consisting of the weighting coefficient adaptive control is executed for all learning input signals and repeated until convergence.

【0003】この学習過程に於て誤差電力が最小となる
と完全に収束し、学習用入力信号に対する出力ユニット
信号が教師信号と一致する。しかしながら、誤差電力が
局部極小(ローカルミニマム)となる所に一旦落ち込む
と、それ以降は学習が進まず最小とならないこと、ま
た、最小の状態になるために学習回数が著しく増加する
ことや重み係数の初期値依存性があるなどの問題があ
る。
In the learning process, when the error power becomes minimum, the error power converges completely, and the output unit signal for the learning input signal matches the teacher signal. However, once the error power drops to the local minimum (local minimum), the learning does not proceed to the minimum after that, and the number of learning increases remarkably because of the minimum state, and the weighting factor There is a problem that there is an initial value dependency of.

【0004】一方、0および1の2値教師信号Tに対し
て学習速度を改善するために"Parallel Distributed Pr
ocessing" D.E. Rumelhart, MIT Press.では、図1に示
す従来方式の学習を用いた多層ニューラルネットワーク
において、それぞれのエレメントに対して0.1及び
0. 9の新たな教師信号T’を設定し、動作モード制御
器9からの制御信号により夫々初期設定を行った後、学
習を開始する。端子3からの教師信号T’から、端子2
からの学習用入力信号に対する多層ニューラルネットワ
ーク1の出力ユニット信号を減算器4を介して差し引き
誤差信号を求め、これを重み係数制御器5に入力し、バ
ックプロパゲーションアルゴリズムにより重み係数更新
を行い、多層ニューラルネットワーク1に再度設定する
処理を繰り返し学習する。2値スレショルド回路を用い
て2値化する2値スレショルド回路6を介して出力ユニ
ット信号から2値出力ユニット信号を得、また、2値ス
レショルド回路を用いて2値化する2値スレショルド回
路7を介して教師信号T’から2値教師信号Tを得、一
致検出器8にてこれらが完全に一致する状態を検出する
ことにより、多層ニューラルネットワーク1が収束した
として動作モード制御器9を介して学習が終了する。
On the other hand, in order to improve the learning speed for the binary teacher signals T of 0 and 1, "Parallel Distributed Pr" is used.
In ocessing "DE Rumelhart, MIT Press., a new teacher signal T'of 0.1 and 0.9 is set for each element in the multilayer neural network using the conventional learning shown in FIG. Learning is started after initialization is performed by the control signal from the operation mode controller 9. From the teacher signal T ′ from the terminal 3, the terminal 2 is started.
The output unit signal of the multilayer neural network 1 with respect to the learning input signal is obtained through the subtractor 4 to obtain a subtraction error signal, which is input to the weighting factor controller 5, and the weighting factor is updated by the back propagation algorithm, The process of setting again in the multilayer neural network 1 is repeatedly learned. A binary output unit signal is obtained from the output unit signal through the binary threshold circuit 6 which is binarized by using the binary threshold circuit, and a binary threshold circuit 7 which is binarized by using the binary threshold circuit is provided. A binary teacher signal T is obtained from the teacher signal T'through the detection signal, and the coincidence detector 8 detects a state in which they are completely coincident with each other. Learning ends.

【0005】このように教師信号を0.1及び0. 9に
設定することにより、0及び1の2値教師信号の場合に
比較して収束するための学習回数が削減されることが述
べられている。これは、シグモイド関数において、入力
が0あるいは1に近づくと、勾配が非常に小さくなるこ
とにより、重み係数の更新速度が小さくなることの理由
による。このため、教師信号を0.1及び0. 9に設定
し、勾配を大きくすることにより、学習速度を改善して
いる。しかしながら、同様に安定したローカルミニマム
に落ち込むと学習が進展しない。
By setting the teacher signals to 0.1 and 0.9 in this way, it is stated that the number of learnings for convergence is reduced as compared with the case of binary teacher signals of 0 and 1. ing. This is because, in the sigmoid function, when the input approaches 0 or 1, the gradient becomes very small and the update rate of the weighting coefficient becomes small. Therefore, the learning speed is improved by setting the teacher signal to 0.1 and 0.9 and increasing the gradient. However, learning will not progress if it falls into a stable local minimum as well.

【0006】これらの従来の学習方式では、上記の説明
のごとくローカルミニマムの状態に落ち込み抜け出せな
いことから、完全な収束状態が簡単には到達できないな
どの欠点がある。特に、入力ユニット数の多い3層ある
いは多層ニューラルネットワークにおいて、一般の教師
信号に対して確実に収束させる設計手法は明らかになっ
ておらず、初期値依存性の為に重み係数の初期値を変更
したり、隠れユニット(中間ユニット)数を増やすなど
の試行錯誤を行っている。
As described above, these conventional learning methods have a drawback in that they cannot reach the local minimum state and cannot escape, so that a completely converged state cannot be easily reached. In particular, in a three-layer or multi-layer neural network with a large number of input units, a design method for reliably converging general teacher signals has not been clarified, and the initial value of the weighting factor is changed due to the initial value dependence. And increasing the number of hidden units (intermediate units) by trial and error.

【0007】[0007]

【発明が解決しようとする課題】教師信号を用いた多層
ニューラルネットワークの従来の学習処理において、多
層ニューラルネットワークが学習用入力信号に対応した
所望の出力ユニット信号を送出するよう重み係数を更新
する際に、所望の出力ユニット信号を送出する収束した
状態になるまでの学習回数即ち学習繰り返し回数が非常
に多くなる場合や、学習しても収束しない状態即ち安定
したローカルミニマムの状態に落ち込み所望の出力ユニ
ット信号が送出されないなど重み係数の初期値依存性が
あるなどの欠点を有している。特に、入力層のユニット
数が多く、出力ユニット数が少ない場合には、学習によ
る収束が非常に困難となり、所望の出力ユニット信号を
送出する多層ニューラルネットワークを自由に設計する
方法が確立されていない。また、収束しやすくするため
に中間ユニット数を大幅に増やす方法があるが、汎化能
力が劣化すると共に当然のことながらそれぞれの演算量
が増し、非常に大きいハードウェア能力あるいは演算能
力が要求される。又、これらの欠点から、短い実時間で
学習し、収束した重み係数を適時設定する多層ニューラ
ルネットワークを実現することが非常に困難である。
In the conventional learning processing of a multilayer neural network using a teacher signal, when the weighting coefficient is updated so that the multilayer neural network sends out a desired output unit signal corresponding to the learning input signal. In addition, when the number of times of learning, that is, the number of times of learning iterations until a converged state in which a desired output unit signal is transmitted becomes extremely large, or when learning does not converge, that is, a stable local minimum state is reached, the desired output is output. It has drawbacks such as that the unit signal is not transmitted and the weighting factor depends on the initial value. In particular, when the number of units in the input layer is large and the number of output units is small, convergence by learning becomes very difficult, and a method for freely designing a multilayer neural network that sends a desired output unit signal has not been established. . In addition, there is a method to significantly increase the number of intermediate units to make it easier to converge, but as the generalization capacity deteriorates, the amount of calculation of each increases naturally, and a very large hardware capacity or calculation capacity is required. It Further, from these drawbacks, it is very difficult to realize a multi-layer neural network which learns in a short real time and sets the converged weighting coefficient in a timely manner.

【0008】本発明の目的は、上記の問題を解決し、多
層ニューラルネットワークの従来の学習方式などに比べ
て、非常に少ない学習回数で収束させ、10倍から10
0倍の高速度で安定に学習を完了させることが出来、学
習用入力信号に対して所望の出力ユニット信号を容易に
得ることができる多層ニューラルネットワークの新たな
学習方式を提供することにある。
An object of the present invention is to solve the above-mentioned problems and to converge with a very small number of learning times as compared with a conventional learning method of a multilayer neural network, etc.
It is an object of the present invention to provide a new learning method for a multi-layer neural network capable of stably completing learning at 0 times higher speed and easily obtaining a desired output unit signal for a learning input signal.

【0009】[0009]

【課題を解決するための手段】上記の問題点を解決する
ために、教師信号を用いて学習させるニューラルネット
ワークにおいて、該教師信号から該ニューラルネットワ
ークの出力ユニット信号を差し引いて得た誤差信号の絶
対値が第一のスレショルドより小さいと、該誤差信号と
逆の極性を持ち該教師信号から離れるに従い振幅が小さ
くなる重み係数更新誤差信号を、該誤差信号の絶対値が
該第1のスレショルドと第2のスレショルドとの領域に
あると、該誤差信号より小さい振幅を持った同極性の重
み係数更新誤差信号を、該誤差信号の絶対値が第2のス
レショルドより大きいと、該誤差信号と同じ重み係数更
新誤差信号を生成し、該重み係数更新誤差信号を用いて
重み係数を更新することを特徴としたニューラルネット
ワーク学習方式を構成する。
In order to solve the above problems, in a neural network for learning using a teacher signal, the absolute error signal obtained by subtracting the output unit signal of the neural network from the teacher signal If the value is smaller than the first threshold, a weighting factor update error signal having a polarity opposite to that of the error signal and having an amplitude that decreases with distance from the teacher signal is generated. In the region of the threshold of 2, the weighting coefficient update error signal of the same polarity having an amplitude smaller than that of the error signal, and when the absolute value of the error signal is larger than the second threshold, the same weight as the error signal is weighted. A neural network learning method characterized by generating a coefficient update error signal and updating the weight coefficient using the weight coefficient update error signal. It is formed.

【0010】[0010]

【作用】本発明の多層ニューラルネットワークの学習方
式においては、教師信号から大きくずれた出力ユニット
信号を与えている出力ユニットに対しては、教師信号か
ら差し引いて得られる誤差信号をそのまま重み係数更新
誤差信号として用い、一方、教師信号に非常に近い出力
ユニット信号を与えている出力ユニットにおいては、誤
差信号とは逆の極性を持った該教師信号から離れるに従
い振幅が小さくなる重み係数更新誤差信号を用い、更に
教師信号から比較的近い出力ユニット信号を与えている
出力ユニットにおいては、誤差信号と同一極性の若干小
さめの振幅を持った重み係数更新誤差信号を用いて、そ
れぞれ重み係数の修正を行うことから、安定したローカ
ルミニマムから抜け出し易く、少ない学習回数で最適状
態に素早く近付ける働きを持っている。このような重み
係数更新誤差信号を用いることにより、重み係数の初期
値依存性もなく学習回数を著しく短縮することが出来
き、学習回数や中間ユニット(隠れユニット)数あるい
は中間層数を大幅に削減できる。
In the learning method of the multi-layer neural network of the present invention, for the output unit giving the output unit signal greatly deviated from the teacher signal, the error signal obtained by subtracting from the teacher signal is directly used as the weighting coefficient update error. On the other hand, in the output unit which is used as a signal and gives an output unit signal very close to the teacher signal, a weighting coefficient update error signal whose amplitude becomes smaller as the distance from the teacher signal having a polarity opposite to that of the error signal increases. In addition, in the output unit which gives the output unit signal relatively close to the teacher signal, the weight coefficient is corrected by using the weight coefficient update error signal having a slightly smaller amplitude with the same polarity as the error signal. Therefore, it is easy to get out of the stable local minimum and quickly approach the optimum state with a small number of learnings. We have the work. By using such a weight coefficient update error signal, it is possible to significantly reduce the number of learning without the dependence of the weight coefficient on the initial value, and to significantly reduce the number of learning, the number of intermediate units (hidden units), or the number of intermediate layers. Can be reduced.

【0011】上記説明のごとく本発明の学習方式は、多
層ニューラルネットワークのローカルミニマムから抜け
出し易く、従来方式に比べて重み係数の初期値依存性も
なく非常に高速に且つ確実に収束させ、所望の出力ユニ
ット信号を容易に得ることができることから、大規模な
多値ニューラルネットワークを自由に設計できる。ま
た、実時間で学習をやり直す必要のある学習機能を持っ
た論理システムや、非常に多くの入力信号エレメント数
を持った入力信号やユニット数の多い多層ニューラルネ
ットワークを用いた多値論理システムを実現できる。更
に、従来方式では安定で高速に収束させることができず
所望の出力信号を得ることが困難であったパターン認識
や画像処理など、更には、データ変換なども容易に設計
し実現することが可能となる。
As described above, the learning method of the present invention is easy to get out of the local minimum of a multilayer neural network, has no dependence on the initial value of the weighting coefficient, and converges very quickly and surely as compared with the conventional method. Since the output unit signal can be easily obtained, a large-scale multivalued neural network can be freely designed. In addition, we have realized a logic system with a learning function that requires re-learning in real time, and a multi-valued logic system using an input signal with an extremely large number of input signal elements and a multilayer neural network with a large number of units. it can. Furthermore, it is possible to easily design and realize pattern recognition, image processing, etc., which were difficult to obtain a desired output signal because the conventional method could not converge stably and at high speed, and also data conversion etc. Becomes

【0012】[0012]

【実施例】以下に本発明の学習方式を用いた多層ニュー
ラルネットワークの実施例1−2をあげ、その構成及び
その動作について、2値教師信号を用いた場合について
詳細に説明する。
EXAMPLES Examples 1-2 of a multilayer neural network using the learning method of the present invention will be given below, and the configuration and operation thereof will be described in detail when a binary teacher signal is used.

【0013】(実施例1) 本発明の学習方式を用いた多層ニューラルネットワーク
の学習過程の1実施例を図2に示す。端子2から入力信
号が入力層の入力ユニットに入力され、出力層の出力ユ
ニットから出力ユニット信号を送出する多層ニューラル
ネットワーク1、2値教師信号と出力ユニット信号と学
習判定器11からの正誤判定信号とを入力とし、重み係
数更新誤差信号を出力する重み係数更新誤差信号生成器
10、出力ユニット信号を2値識別スレショルド回路を
用いて2値化し2値出力ユニット信号を得る2値スレシ
ョルド回路6、入力された重み係数更新誤差信号を用い
て多層ニューラルネットワーク1の重み係数を更新し設
定する重み係数制御器5、出力ユニット信号と2値教師
信号と2値出力ユニット信号とを入力とし、学習状況判
断を行い2値教師信号と2値出力ユニット信号とを比較
し出力ユニット内の2値誤りを検出し正誤判定信号を送
出する学習判定器11、多層ニューラルネットワーク1
と重み係数制御器5と学習判定器11の各初期設定、更
に学習の開始及び終了を制御する動作モード制御器12
から構成される。
(Embodiment 1) FIG. 2 shows an embodiment of a learning process of a multilayer neural network using the learning method of the present invention. The input signal from the terminal 2 is input to the input unit of the input layer, and the output unit signal is output from the output unit of the output layer. Multilayer neural network 1, binary teacher signal, output unit signal, and correct / incorrect determination signal from the learning determiner 11. A weighting factor update error signal generator 10 that outputs a weighting factor update error signal, and a binary threshold circuit 6 that binarizes the output unit signal using a binary discrimination threshold circuit to obtain a binary output unit signal, The weighting factor controller 5 for updating and setting the weighting factor of the multilayer neural network 1 using the input weighting factor updating error signal, the output unit signal, the binary teacher signal, and the binary output unit signal as inputs, and the learning status Judgment is made and the binary teacher signal and the binary output unit signal are compared to detect a binary error in the output unit, and a correct / wrong judgment signal is sent. Learning determiner 11, multi-layer neural network 1
And initial setting of the weighting factor controller 5 and the learning judging device 11, and an operation mode controller 12 for controlling the start and end of learning.
Composed of.

【0014】次に学習過程における動作を説明する。多
層ニューラルネットワーク1は端子2からの学習用入力
信号と端子3からの2値教師信号とを用いて学習を行
う。重み係数更新誤差信号生成器10において、学習判
定器11からの正誤判定信号により2値教師信号に対し
て誤った2値出力ユニット信号が検出された出力ユニッ
トに対しては、2値教師信号からその出力ユニット信号
を差し引いて得られた誤差信号をそのまま重み係数更新
誤差信号として出力させ、一方、正しい2値出力ユニッ
ト信号を与えている出力ユニットにおいては、その誤差
信号の絶対値が与えられたスレショルド値以下である
と、その誤差信号とは逆の極性を持ち該教師信号から離
れるに従い振幅が小さくなる重み係数更新誤差信号を生
成し出力させ、誤差信号の絶対値が前記スレショルドよ
り大きいと、同一極性の同じかあるいは小さめの振幅を
持った重み係数更新誤差信号を生成し出力させる。
Next, the operation in the learning process will be described. The multilayer neural network 1 performs learning using a learning input signal from the terminal 2 and a binary teacher signal from the terminal 3. In the weighting coefficient update error signal generator 10, for the output unit in which an incorrect binary output unit signal is detected with respect to the binary teacher signal by the correctness / wrongness judgment signal from the learning determiner 11, The error signal obtained by subtracting the output unit signal is output as the weighting coefficient update error signal as it is, while the absolute value of the error signal is given to the output unit giving the correct binary output unit signal. If it is less than or equal to the threshold value, a weighting coefficient update error signal having a polarity opposite to that of the error signal and having a smaller amplitude as the distance from the teacher signal is generated and output, and if the absolute value of the error signal is greater than the threshold value, The weighting factor update error signal having the same polarity or the same or a small amplitude is generated and output.

【0015】2値あるいは多値教師信号を用いた場合の
重み係数更新誤差信号の1生成方法を式を用いて以下に
示す。
A method of generating one of the weighting factor update error signals in the case of using the binary or multi-valued teacher signal will be shown below by using an equation.

【0016】 出力ユニットの多値出力ユニット信号が正解(一致)の場合、 |Tm−Ym|≦dmの時、 Em=Tm−Ym−Dm1・sgn(Tm−Ym) (1) 但しDm1>dm[0016]   If the multi-valued output unit signal of the output unit is correct (match),   When | Tm−Ym | ≦ dm,   Em = Tm-Ym-Dm1 · sgn (Tm-Ym) (1)                                     However, Dm1> dm

【0017】 |Tm−Ym|>dmの時、 Em=Tm−Ym−Dm2・sgn(Tm−Ym) (2) 但しdm≧Dm2[0017]   When | Tm-Ym |> dm,   Em = Tm-Ym-Dm2 · sgn (Tm-Ym) (2)                                     However, dm ≧ Dm2

【0018】 出力ユニットの多値出力ユニット信号が不正解(誤り)の場合、 Em=Tm−Ym (3)[0018]   If the multilevel output unit signal of the output unit is incorrect (incorrect),   Em = Tm-Ym (3)

【0019】ここで、 sgn(x)= 1 : x≧0 =−1 : x<0、 (4)Here,   sgn (x) = 1: x ≧ 0               = -1: x <0, (4)

【0020】mは出力ユニット番号(1≦m≦M)、E
mは出力ユニットmの重み係数更新誤差信号、Tmは出
力ユニットmの多値教師信号、2値の場合は(0または
1)、Ymは出力ユニットmの多値出力ユニット信号、
dmは出力ユニットmに対する0または正の定数からな
るスレショルド、Dm1は出力ユニットmに対する0ま
たは正の定数、Dm2は出力ユニットmに対する0また
は正の定数である。
M is an output unit number (1≤m≤M), E
m is a weight coefficient update error signal of the output unit m, Tm is a multivalued teacher signal of the output unit m, binary (0 or 1), Ym is a multivalued output unit signal of the output unit m,
dm is a threshold consisting of 0 or a positive constant for the output unit m, Dm1 is 0 or a positive constant for the output unit m, and Dm2 is 0 or a positive constant for the output unit m.

【0021】式(1)、(2)及び(3)は、出力ユニ
ットmにおける多値教師信号Tmと出力ユニット信号Y
mとを用いて重み係数更新誤差信号を求める一般計算式
を示している。多値出力ユニット信号と多値教師信号と
が一致した多値誤りの無い正解の出力ユニットmにおい
て、出力ユニット信号Ymが多値教師信号Tmに非常に
近く、多値教師信号Tmから出力ユニット信号Ymを差
し引いて求めた誤差信号の絶対値が定数dm(但し≧
0)の範囲内にあれば、式(1)のごとく誤差信号と逆
極性で該教師信号から離れるに従い振幅が定数Dm1
(但し≧0)より小さくなる重み係数更新誤差信号を用
いている。この範囲外では、式(2)のごとく誤差信号
を定数Dm2(但し≧0)程小さくした重み係数更新誤
差信号を用いている。一方、多値誤りがあると、式
(3)のごとく誤差信号をそのまま重み係数更新誤差信
号として用いている。ここで、dmを第1のスレショル
ド、多値識別スレショルドを第2のスレショルドとし、
第1のスレショルドを収束領域と定めれば、連続量を扱
うニューラルネットワークにも同様に適用出来る。
The expressions (1), (2) and (3) are expressed by the multi-value teacher signal Tm and the output unit signal Y in the output unit m.
The general calculation formula for obtaining the weighting factor update error signal by using m and m is shown. In the correct output unit m having no multilevel error in which the multilevel output unit signal and the multilevel teacher signal match, the output unit signal Ym is very close to the multilevel teacher signal Tm, and the output unit signal from the multilevel teacher signal Tm The absolute value of the error signal obtained by subtracting Ym is a constant dm (where ≧
If it is within the range of 0), the amplitude has a constant Dm1 as the error signal has a polarity opposite to that of the teacher signal as the distance from the teacher signal increases, as shown in Expression (1).
A weight coefficient update error signal smaller than (where ≧ 0) is used. Outside this range, a weighting coefficient update error signal is used, which is smaller than the error signal by a constant Dm2 (where ≧ 0) as shown in equation (2). On the other hand, if there is a multi-level error, the error signal is used as it is as the weighting coefficient update error signal as shown in Expression (3). Where dm is the first threshold and the multi-valued discrimination threshold is the second threshold,
If the first threshold is defined as the convergence region, it can be similarly applied to a neural network that handles continuous quantities.

【0022】重み係数制御器5では、この重み係数更新
誤差信号を用いてバックプロパゲーションアルゴリズム
により重み係数修正を行い、誤差信号の電力が最小とな
るよう学習を繰り返す。このように従来と異なり、出力
ユニット信号が2値教師信号と非常に近いと、その誤差
信号の方向を逆にし、大きく離れて誤っている場合はそ
のままの誤差信号を用いて重み係数を更新することか
ら、安定したローカルミニマムからも抜け出し易く、初
期値依存性も非常に小さくなり少ない学習回数で最適状
態に素早く近付ける特徴を持っている。この結果、学習
回数を著しく10倍から100倍程度短縮することが出
来き、不要な学習回数や中間ユニット(隠れユニット)
数あるいは中間層数を大幅に削減できる。
The weight coefficient controller 5 uses the weight coefficient update error signal to correct the weight coefficient by the back propagation algorithm, and repeats learning so that the power of the error signal is minimized. In this way, unlike the conventional case, when the output unit signal is very close to the binary teacher signal, the direction of the error signal is reversed, and when the output unit signal is greatly separated and is erroneous, the weight coefficient is updated using the error signal as it is. Therefore, it is easy to get out of the stable local minimum, and the initial value dependence becomes very small, and it has the feature of quickly approaching the optimum state with a small number of learnings. As a result, the number of learnings can be significantly reduced by a factor of 10 to 100, and unnecessary learnings and intermediate units (hidden units)
The number or the number of intermediate layers can be significantly reduced.

【0023】また、学習を繰り返しても誤った2値出力
ユニット信号の個数が減少しない非常に安定したローカ
ルミニマムに落ち込んだ場合には、学習判定器11にて
2値誤り個数の変化を調べ変化が小さいと、逆方向の重
み係数更新誤差信号の振幅をそれまでより一時的に大き
くすれば、非常に安定したローカルミニマムからも容易
に逃れられる。あるいは、学習用入力信号に対して2値
出力ユニット信号が2値教師信号と一致しない全ての出
力ユニットで、2値スレショルド回路6の2値識別スレ
ショルドからの出力ユニット信号の距離の最小値を求
め、最小値が与えられたスレショルドより大きいと非常
に安定したローカルミニマムと見做し、逆方向の重み係
数更新誤差信号の振幅をそれまでより一時的に大きくし
て、重み係数を更新してもよい。更に、Tm≧Ym、あ
るいはTm<Ymの状態に応じて、Dm1及びDm2の
値を変えても良い。
Further, when the number of erroneous binary output unit signals does not decrease even if learning is repeated and falls into a very stable local minimum, the learning decision unit 11 examines a change in the number of binary erroneous signals and changes. Is small, it is possible to easily escape from a very stable local minimum by temporarily increasing the amplitude of the weighting coefficient update error signal in the opposite direction. Alternatively, the minimum value of the distance of the output unit signal from the binary discrimination threshold of the binary threshold circuit 6 is calculated for all the output units whose binary output unit signal does not match the binary teacher signal with respect to the learning input signal. , If the minimum value is larger than the given threshold, it is regarded as a very stable local minimum, and even if the weight coefficient is updated by temporarily increasing the amplitude of the weight coefficient update error signal in the opposite direction, Good. Further, the values of Dm1 and Dm2 may be changed according to the state of Tm ≧ Ym or Tm <Ym.

【0024】学習判定器11内において、2値誤りがな
くなり2値教師信号と全ての2値出力ユニット信号とが
一致した収束状態を一旦達成した後、誤差信号をそのま
ま重み係数更新誤差信号として用いて、重み係数制御器
5にて重み係数を更新してもよい。更に、出力ユニット
信号から2値識別スレショルド値を差し引いた距離を計
算し、学習用入力信号に対して最小距離を求め、これが
予め与えられたスレショルドを越えると、動作モード制
御器12から学習終了信号を送出し、多層ニューラルネ
ットワーク1の学習を終了させてもよい。これにより、
不必要な学習を避けるとともに汎化性を大きく出来る。
In the learning decision device 11, after the binary error is eliminated and the convergence state in which the binary teacher signal and all the binary output unit signals are coincident with each other is once achieved, the error signal is used as it is as the weight coefficient update error signal. Then, the weighting factor controller 5 may update the weighting factor. Further, the distance obtained by subtracting the binary discrimination threshold value from the output unit signal is calculated to obtain the minimum distance with respect to the learning input signal, and when this exceeds a preset threshold, the operation mode controller 12 outputs the learning end signal. May be sent to terminate the learning of the multilayer neural network 1. This allows
Avoid unnecessary learning and increase generalization.

【0025】尚、本発明の学習方式は、多値ニューラル
ネットワークの他に連続量の教師信号を扱うニューラル
ネットワークにおいても、教師信号に対して正解とみな
す領域を設けることにより、上記と同様な方式を適用で
き一般の教師信号を用いたニューラルネットワークの学
習に対しても幅広く適用できる。
The learning method of the present invention is similar to the above method in the neural network that handles a continuous amount of teacher signals in addition to the multi-valued neural network, by providing a region that is regarded as the correct answer for the teacher signals. Can be widely applied to the learning of neural networks using general teacher signals.

【0026】(実施例2) 実施例2としての本発明の学習方式を用いた多層ニュー
ラルネットワークを並列2値ニューラルネットワーク1
3に適用した場合の実施例を示す。主ニューラルネット
ワーク1と補正ニューラルネットワーク16とを入力に
対して並列接続し、実行処理時には、主ニューラルネッ
トワーク1の2値出力ユニット信号内の主2値教師信号
に対する2値誤りを補正ニューラルネットワーク16か
らの2値出力ユニット信号を用いてXOR加法論理演算
処理により補正する構成とする。並列2値ニューラルネ
ットワーク13は、学習用入力信号に対して重み係数を
学習させるための学習処理モードと、学習された重み係
数を用いて入力信号に対して2値出力信号を送出する実
行処理モードとの2つのモードのもとに動作する。ここ
でも、同様に並列2値ニューラルネットワークを前提に
説明する。
(Embodiment 2) A parallel binary neural network 1 is used as a multilayer neural network using the learning method of the present invention as Embodiment 2.
An example when applied to No. 3 will be shown. The main neural network 1 and the correction neural network 16 are connected in parallel to the input, and at the time of execution processing, the correction neural network 16 corrects a binary error in the main binary teacher signal in the binary output unit signal of the main neural network 1. The binary output unit signal is used for correction by the XOR additive logical operation processing. The parallel binary neural network 13 has a learning processing mode for learning a weighting coefficient for a learning input signal and an execution processing mode for sending a binary output signal to the input signal by using the learned weighting coefficient. It operates under two modes: Here, similarly, description will be made on the premise of a parallel binary neural network.

【0027】ここで、本発明の学習方式を用いた並列2
値ニューラルネットワーク13における学習処理の構成
を図3に示す。端子2からの予め用意された学習用入力
信号と端子3からの主2値教師信号Tとを用いて学習を
行う主ニューラルネットワーク1、学習用入力信号と補
正教師信号生成器17からの補正2値教師信号Tcとを
用いて学習を行う補正ニューラルネットワーク16、主
ニューラルネットワーク1の出力ユニット信号と主2値
教師信号Tと学習判定器14からの正誤判定信号とから
重み係数更新誤差信号を生成する重み係数更新誤差信号
生成器10、補正ニューラルネットワーク16の出力ユ
ニット信号と補正2値教師信号Tcと学習判定器14か
らの正誤判定信号とから重み係数更新誤差信号を生成す
る重み係数更新誤差信号生成器18、重み係数更新誤差
信号生成器10、18からの重み係数更新誤差信号を元
に、主2値教師信号T及び補正2値教師信号Tcから主
及び補正ニューラルネットワーク1、18の出力ユニッ
ト信号をそれぞれ差し引いた誤差信号の電力が最小とな
るようバックプロパゲーションアルゴリズムにより重み
係数の更新を行い、主及び補正ニューラルネットワーク
1、18にそれぞれ新たな重み係数の設定する為の重み
係数制御器5、19、出力ユニット信号を2値識別スレ
ショルドにより2値化し2値出力ユニット信号を得る2
値スレショルド回路6、20、主2値教師信号Tと出力
ユニット信号及び2値出力ユニット信号とを入力とし、
2値出力ユニット信号内の主2値教師信号Tと一致しな
い2値誤りを検出した正誤判定信号を出力し、誤ってい
る場合の出力ユニット信号の2値識別スレショルドから
の距離を求め、この最小値を検出する学習判定器14、
主ニューラルネットワーク1の学習が終了すると、教師
信号Tとその時の2値出力ユニット信号とからXOR論
理演算により2値誤りを求め、これを補正2値教師信号
とする補正教師信号生成器17、2値出力ユニット信号
と補正2値教師信号Tcとの一致を検出する一致判定器
21、主ニューラルネットワーク1の初期値の設定と学
習開始及び終了の制御とを行い、次に、補正教師信号生
成器17における補正2値教師信号の生成と補正ニュー
ラルネットワーク16の初期設定と学習開始及び終了の
制御とを行い、学習処理が終了すると実行処理モードに
切り替える動作モード制御器15とから構成される。
Here, the parallel 2 using the learning method of the present invention is used.
The configuration of the learning process in the value neural network 13 is shown in FIG. A main neural network 1 that performs learning using a previously prepared learning input signal from the terminal 2 and a main binary teacher signal T from the terminal 3, a learning input signal, and a correction 2 from the correction teacher signal generator 17. A weighting coefficient update error signal is generated from the correction neural network 16 that performs learning using the value teacher signal Tc, the output unit signal of the main neural network 1, the main binary teacher signal T, and the correctness determination signal from the learning determiner 14. Weight coefficient update error signal generator 10, weight coefficient update error signal for generating a weight coefficient update error signal from the output unit signal of the correction neural network 16, the corrected binary teacher signal Tc, and the correctness determination signal from the learning determiner 14. Based on the weight coefficient update error signals from the generator 18 and the weight coefficient update error signal generators 10 and 18, the main binary teacher signal T and the correction 2 The weighting coefficient is updated by the backpropagation algorithm so that the power of the error signal obtained by subtracting the output unit signals of the main and correction neural networks 1 and 18 from the teacher signal Tc is minimized, and the main and correction neural networks 1 and 18 are updated. Weighting factor controllers 5 and 19 for setting new weighting factors, and the output unit signal is binarized by a binary discrimination threshold to obtain a binary output unit signal.
The value threshold circuits 6 and 20, the main binary teacher signal T, the output unit signal and the binary output unit signal are input,
The correctness determination signal that detects a binary error that does not match the main binary teacher signal T in the binary output unit signal is output, and the distance from the binary discrimination threshold of the output unit signal in the case of error is obtained, and this minimum Learning determiner 14 for detecting a value,
When the learning of the main neural network 1 is completed, a binary error is obtained from the teacher signal T and the binary output unit signal at that time by an XOR logic operation, and this is used as a corrected binary teacher signal. A coincidence determiner 21 that detects a match between the value output unit signal and the corrected binary teacher signal Tc, sets the initial value of the main neural network 1 and controls learning start and end, and then a corrected teacher signal generator. The operation mode controller 15 performs the generation of the corrected binary teacher signal in 17 and the initial setting of the correction neural network 16 and the control of the start and end of learning, and switches to the execution processing mode when the learning processing ends.

【0028】重み係数更新誤差信号生成器10、18で
は、実施例1と同様に式(1)、(2)及び(3)によ
って与えられる重み係数更新誤差信号を求め、これを用
いて重み係数制御器5、19において重み係数を更新制
御させている。実施例1と同様に出力ユニット信号が2
値教師信号と非常に近いと、その重み係数更新誤差信号
の極性を誤差信号と逆にすることにより、安定したロー
カルミニマム状態からも抜け出し易くすることができ、
初期値依存性もなく少ない学習回数で最適状態あるいは
非常に安定したローカルミニマム状態にすることができ
る。また、主ニューラルネットワーク1の学習を繰り返
しても学習判定器14で検出される2値誤り個数が減少
しないと、非常に安定したローカルミニマムに落ち込ん
だ状態であり、実施例1と同様に学習判定器14にてこ
の状態を検出して、誤差信号と逆極性を持った重み係数
更新誤差信号の振幅を一時的に大きくして重み係数制御
器5へ入力すれば、非常に安定したローカルミニマムか
らも出ることが出きる。又、この時、2値誤り個数が与
えられたスレショルド以下であれば、学習を終了させて
もよい。
In the weight coefficient update error signal generators 10 and 18, the weight coefficient update error signals given by the equations (1), (2) and (3) are obtained as in the first embodiment, and the weight coefficient update error signals are used. The weighting coefficient is updated and controlled in the controllers 5 and 19. The output unit signal is 2 as in the first embodiment.
If it is very close to the value teacher signal, by reversing the polarity of the weight coefficient update error signal to the error signal, it is possible to easily get out of the stable local minimum state.
An optimal state or a very stable local minimum state can be achieved with a small number of learnings without initial value dependence. Further, if the number of binary errors detected by the learning determiner 14 does not decrease even after repeating the learning of the main neural network 1, the state is in a very stable local minimum, and the learning determination is the same as in the first embodiment. If this condition is detected by the controller 14 and the amplitude of the weighting coefficient update error signal having a polarity opposite to that of the error signal is temporarily increased and input to the weighting coefficient controller 5, a very stable local minimum is obtained. You can even get out. At this time, if the number of binary errors is less than or equal to a given threshold, learning may be terminated.

【0029】学習判定器14内において、2値出力ユニ
ット信号と主2値教師信号Tとの2値誤りの個数を検出
しスレショルドと比較する方法、あるいは不正解の各出
力ユニットに対して、2値識別スレショルドと出力ユニ
ット信号との距離を求め、学習用入力信号に対する不正
解の全ての出力ユニット間で最小となる最小距離を求
め、これが予め与えられたスレショルドと比較する方法
(非常に安定したローカルミニマム状態の検出)、学習
回数を規定回数と比較する方法などいずれかの方法によ
りにより、重み係数制御器5を介して主ニューラルネッ
トワーク1の学習を終了させる。
In the learning decision unit 14, a method of detecting the number of binary errors between the binary output unit signal and the main binary teacher signal T and comparing it with the threshold, or 2 for each incorrect output unit A method to find the distance between the value discrimination threshold and the output unit signal, find the minimum distance between all output units of the incorrect answer to the learning input signal, and compare this with the given threshold (very stable. The learning of the main neural network 1 is terminated via the weighting factor controller 5 by any method such as detection of a local minimum state) or comparison of the number of times of learning with a prescribed number of times.

【0030】特に、主ニューラルネットワーク1が学習
処理を行うことで主2値教師信号と2値出力ユニット信
号とが完全に一致した収束状態になった場合には、補正
ニューラルネットワーク16の重み係数を全てゼロと
し、補正ニューラルネットワーク16の学習を行う必要
はない。
In particular, when the main neural network 1 performs the learning process and the main binary teacher signal and the binary output unit signal are in a completely converged converged state, the weighting coefficient of the correction neural network 16 is set. All are set to zero, and it is not necessary to learn the correction neural network 16.

【0031】一方、一致しない場合には、学習が終了し
た時点での主2値教師信号Tに対する学習用入力信号に
対応した2値出力ユニット信号の2値誤りを、補正教師
信号生成器17内においてXOR論理演算により求め、
これを補正2値教師信号Tcとして記憶させ、補正ニュ
ーラルネットワーク16の補正2値教師信号Tcとして
用いる。
On the other hand, if they do not match, a binary error in the binary output unit signal corresponding to the learning input signal with respect to the main binary teacher signal T at the end of learning is corrected in the corrected teacher signal generator 17. At XOR logical operation,
This is stored as the corrected binary teacher signal Tc and used as the corrected binary teacher signal Tc of the correction neural network 16.

【0032】上記動作が完了すると、動作モード制御器
15を介して、前記学習用入力信号と補正2値教師信号
Tcとを用いて補正ニューラルネットワーク16の学習
を開始させ、重み係数更新誤差信号生成器18にて補正
2値教師信号Tcと補正ニューラルネットワーク16の
出力ユニット信号とから式(1)、(2)、(3)によ
り重み係数更新誤差信号を求め、重み係数制御器19に
入力し、パックプロパゲーションアルゴリズムにより誤
差電力が最小となるよう重み係数の更新を行い新たな重
み係数の設定する。この学習過程では、一致判定器21
において補正2値教師信号Tcと2値スレショルド回路
20を介して得られた2値出力ユニット信号との完全な
一致を検出するまで学習を繰り返し、一致すれば、補正
2値教師信号Tcに対して補正ニューラルネットワーク
16が完全に収束しているとみなし学習を終了させる。
学習判定器14と同様な処理を一致判定器21において
も行わせることにより非常に安定したローカルミニマム
からも簡単に抜け出せる。
When the above operation is completed, the learning of the correction neural network 16 is started using the learning input signal and the corrected binary teacher signal Tc via the operation mode controller 15, and the weighting coefficient update error signal is generated. The weighting factor update error signal is obtained from the corrected binary teacher signal Tc and the output unit signal of the correction neural network 16 by the device 18, and is input to the weighting factor controller 19 by the formulas (1), (2) and (3). , The weight coefficient is updated by the pack propagation algorithm so as to minimize the error power, and a new weight coefficient is set. In this learning process, the match determiner 21
In step 2, learning is repeated until a complete match between the corrected binary teacher signal Tc and the binary output unit signal obtained via the binary threshold circuit 20 is detected. The learning is terminated assuming that the correction neural network 16 is completely converged.
By causing the coincidence determiner 21 to perform the same processing as the learning determiner 14, it is possible to easily get out of a very stable local minimum.

【0033】本実施例の並列2値ニューラルネットワー
ク13において、上記説明のごとく補正ニューラルネッ
トワーク16が、学習用入力信号に対する主ニューラル
ネットワーク1の2値出力ユニット信号内の2値誤りを
補正2値教師信号Tcとして学習し、完全に収束するこ
とができれば、主ニューラルネットワーク1は必ずしも
収束しなくてもよい。例えば、主ニューラルネットワー
ク1の2値出力ユニット信号の内2値誤りを持たない2
値出力ユニット信号の割合は、非常に少ない学習回数で
約85%以上に達成し、而も、この時の補正2値教師信
号Tcのパターンの種類は非常に少なく、このような補
正2値教師信号に対して補正ニューラルネットワーク1
6は非常に僅かの学習回数で完全に収束する。従って、
従来方式の並列2値ニューラルネットワークに比べても
重み係数初期値依存性が無くなり、学習回数を一段と大
幅に削減でき、而も汎化能力も高くすることができるこ
とが明らかである。
In the parallel binary neural network 13 of this embodiment, the correction neural network 16 corrects the binary error in the binary output unit signal of the main neural network 1 with respect to the learning input signal as described above. The main neural network 1 does not necessarily have to converge as long as it can be learned as the signal Tc and completely converge. For example, if the binary output unit signal of the main neural network 1 does not have a binary error,
The ratio of the value output unit signal reaches about 85% or more with a very small number of times of learning, and the number of types of patterns of the correction binary teacher signal Tc at this time is very small. Signal correction neural network 1
6 completely converges with a very small number of learnings. Therefore,
It is clear that the dependency on the initial value of the weighting coefficient is eliminated as compared with the conventional parallel binary neural network, the number of learning can be further reduced, and the generalization ability can be enhanced.

【0034】次に、上記のように学習させた並列2値ニ
ューラルネットワーク13の実行処理の1構成例を図4
に示す。並列接続された主及び補正ニューラルネットワ
ーク1、18と、主ニューラルネットワーク1からの出
力ユニット信号を2値識別スレショルドを用いて2値化
する2値スレショルド回路6と、補正ニューラルネット
ワーク16からの出力ユニット信号を2値識別スレショ
ルドを用いて2値化する2値スレショルド回路20と、
2値スレショルド回路6及び20からのそれぞれ対応し
た2値出力ユニット信号をXOR論理演算するXOR加
法論理演算器22と、主及び補正ニューラルネットワー
ク1及び16の動作モードを制御するための動作モード
制御器15とから構成される。
Next, a configuration example of the execution processing of the parallel binary neural network 13 learned as described above will be described with reference to FIG.
Shown in. Main and correction neural networks 1 and 18 connected in parallel, a binary threshold circuit 6 for binarizing an output unit signal from the main neural network 1 using a binary discrimination threshold, and an output unit from a correction neural network 16. A binary threshold circuit 20 for binarizing a signal using a binary discrimination threshold;
An XOR additive logic operator 22 for performing an XOR logic operation on the corresponding binary output unit signals from the binary threshold circuits 6 and 20, and an operation mode controller for controlling the operation modes of the main and correction neural networks 1 and 16. 15 and.

【0035】並列2値ニューラルネットワーク13は、
動作モード制御回路15からの制御により実行処理モー
ドに設定され動作する。この時、主及び補正ニューラル
ネットワーク1及び16はそれぞれ学習処理モードにお
ける学習により得られた重み係数が設定されている。入
力信号Iに対して、主ニューラルネットワーク1及び補
正ニューラルネットワーク16から出力される出力ユニ
ット信号を2値スレショルド回路6及び20により2値
出力ユニット信号とし、XOR加法論理演算器22にそ
れぞれ入力する。
The parallel binary neural network 13 is
Under the control of the operation mode control circuit 15, the operation processing mode is set to operate. At this time, the weighting factors obtained by learning in the learning processing mode are set in the main and correction neural networks 1 and 16, respectively. With respect to the input signal I, the output unit signals output from the main neural network 1 and the correction neural network 16 are converted into binary output unit signals by the binary threshold circuits 6 and 20, and are input to the XOR additive logical operation unit 22.

【0036】XOR加法論理演算器22では、それぞれ
をXOR論理演算によって処理して、端子23から並列
2値ニューラルネットワーク13の2値出力信号Oとし
て出力する。主ニューラルネットワーク1は学習用入力
信号に対して必ずしも全ては所望の2値出力ユニット信
号を与えず、2値誤りを持った2値出力ユニット信号を
送出する。一方、補正ニューラルネットワーク16で
は、この2値誤りに等しい2値出力ユニット信号を送出
することから、XOR加法論理演算器22にてこの2値
誤りを完全に補正でき、並列2値ニューラルネットワー
ク13の所望の2値出力信号Oが端子23から送出され
る。
The XOR additive logical operation unit 22 processes each by an XOR logical operation, and outputs the binary output signal O of the parallel binary neural network 13 from the terminal 23. The main neural network 1 does not necessarily give a desired binary output unit signal to the learning input signal, but sends a binary output unit signal having a binary error. On the other hand, in the correction neural network 16, since the binary output unit signal equal to this binary error is transmitted, this binary error can be completely corrected by the XOR additive logical operation unit 22, and the parallel binary neural network 13 The desired binary output signal O is sent out from the terminal 23.

【0037】補正2値教師信号Tc内のパターンの種類
が非常に少ないことから、補正ニューラルネットワーク
16は主ニューラルネットワーク1より原理的に汎化性
に優れているが、主ニューラルネットワーク1の不必要
な過学習を学習判定器14により避けることにより、並
列2値ニューラルネットワーク13としての汎化能力が
高められる。これらの理由から、初期値依存性もなく少
ない学習回数で高速に収束し、而も汎化性の高い大規模
並列2値ニューラルネットワークを実現することができ
る。又、学習において主ニューラルネットワーク1を完
全に収束させる必要がなく、中間層や隠れユニット数を
大幅に削減でき、2値スレショルド回路やXOR演算処
理を行うために主及び補正ニューラルネットワーク内の
演算精度も低くて良く、演算規模も小さくなる。
Since the number of types of patterns in the corrected binary teacher signal Tc is very small, the corrected neural network 16 is superior to the main neural network 1 in general in generality, but the main neural network 1 is unnecessary. By avoiding excessive over-learning by the learning determiner 14, the generalization ability of the parallel binary neural network 13 is enhanced. For these reasons, it is possible to realize a large-scale parallel binary neural network which does not depend on the initial value, converges quickly with a small number of learnings, and is highly generalizable. Further, it is not necessary to completely converge the main neural network 1 in learning, the number of hidden layers and hidden units can be greatly reduced, and the operation accuracy in the main and correction neural networks for performing a binary threshold circuit and XOR operation processing. Can be low, and the calculation scale can be small.

【0038】教師信号が2値以上の多値の場合には、2
値スレショルド回路6、20として多値識別スレショル
ドを用いて多値化する多値スレショルド回路を用い、X
OR加法論理演算器22はXOR回路の代わりに多値の
加法演算処理を行わせ、補正2値教師信号生成器17内
のXOR回路の代わりに多値の減法演算処理を行わせる
ことで多値ニューラルネットワークへの拡張も簡単に実
現される。
If the teacher signal is multi-valued with two or more values, 2
As the value threshold circuits 6 and 20, a multi-value threshold circuit that multi-values using a multi-value discrimination threshold is used, and X
The OR additive logical operation unit 22 performs multi-valued addition operation processing in place of the XOR circuit, and multi-valued subtraction operation processing in place of the XOR circuit in the corrected binary teacher signal generator 17 Extensions to neural networks are easily realized.

【0039】以上の実施例1−2において、多層ニュー
ラルネットワークを前提に説明したが、教師信号を利用
して学習させるニューラルネットワークであれば、上記
以外のニューラルネットワークを用いても良い。また、
ここでは、2値ニューラルネットワークを例にあげ説明
したが、説明は省略するが不連続な整数値でなく連続量
の教師信号を持ったニューラルネットワークでも本学習
方式は適用できる。
In the above-described Embodiment 1-2, the explanation has been made on the premise of the multilayer neural network, but a neural network other than the above may be used as long as it is a neural network which performs learning by using a teacher signal. Also,
Although a binary neural network has been described as an example here, the description is omitted, but the present learning method can also be applied to a neural network having a continuous amount of teacher signals instead of discrete integer values.

【0040】[0040]

【発明の効果】以上述べたように、本発明のニューラル
ネットワークの学習方式において、教師信号から大きく
離れた出力ユニット信号を与えている出力ユニットに対
しては、教師信号から差し引いて得られる誤差信号をそ
のまま重み係数更新誤差信号として用い、一方、教師信
号に比較的近い出力ユニット信号を与えている出力ユニ
ットに対しては、その誤差信号以下の振幅の重み係数更
新誤差信号を用い、また教師信号に非常に近い出力ユニ
ット信号を与えている出力ユニットにおいては、その誤
差信号と逆極性で教師信号と離れると共に小さくなる振
幅を持った重み係数更新誤差信号を用いることから、ロ
ーカルミニマム状態から簡単に抜け出すことができる。
As described above, in the learning method of the neural network of the present invention, the error signal obtained by subtracting from the teacher signal is given to the output unit which gives the output unit signal greatly separated from the teacher signal. Is used as the weighting coefficient update error signal as it is. On the other hand, for the output unit giving an output unit signal relatively close to the teacher signal, the weighting coefficient update error signal having an amplitude less than that error signal is used. In the output unit that gives an output unit signal very close to, a weighting coefficient update error signal with an amplitude that decreases with the polarity opposite to that of the error signal and decreases with the teacher signal is used. You can get out.

【0041】また、学習を進めても教師信号と多値出力
ユニット信号との間の誤り個数が変化しない非常に安定
したローカルミニマムに陥っている場合には、誤差信号
と異なった極性を持った重み係数更新誤差信号の振幅を
一時的に大きくして重み係数を更新させることにより、
簡単に安定したローカルミニマムからも出ることが出来
る。従って、従来方式より学習回数が10倍から100
倍程度著しく短縮される。また、必要最小限の中間ユニ
ット数あるいは中間層数を用いて安定に最適状態に収束
させることが出来ることから、ハードウェア規模や演算
量を少なく出来る。
Further, when the learning is in a very stable local minimum in which the number of errors between the teacher signal and the multilevel output unit signal does not change, it has a polarity different from that of the error signal. By updating the weight coefficient by temporarily increasing the amplitude of the weight coefficient update error signal,
You can easily get out of a stable local minimum. Therefore, the number of learning times is 10 to 100 times that of the conventional method.
It is significantly shortened by about twice. Further, since it is possible to stably converge to the optimum state by using the minimum required number of intermediate units or the number of intermediate layers, the hardware scale and the amount of calculation can be reduced.

【0042】本発明の学習方式を用いた多値ニューラル
ネットワークあるいは並列多値ニューラルネットワーク
は、従来方式に比べて少ない中間層ユニット数あるいは
中間層を用い、初期依存性もなく且つ低い演算精度を持
った重み係数で重み係数が高速かつ安定に収束し、所望
の多値出力信号を送出することができる。このことか
ら、従来技術では実現が困難な大規模な多値論理回路な
どを本発明を用いた多値ニューラルネットワークにより
短時間で自由に設計し実現することや、これまで迅速な
学習が必要で、且つ完全な収束が要求される人工知能シ
ステムや検索システム、パターン認識、データ変換、デ
ータ圧縮、多値画像処理さらには通信システムなどへの
幅広い応用ができるなどの非常に幅広い効果を有してい
る。
The multi-valued neural network or the parallel multi-valued neural network using the learning method of the present invention uses a smaller number of intermediate layer units or intermediate layers than the conventional method, has no initial dependency, and has low calculation accuracy. With the weighting factor, the weighting factor converges rapidly and stably, and a desired multilevel output signal can be transmitted. From this, it is necessary to freely design and realize a large-scale multivalued logic circuit or the like, which is difficult to be realized by the conventional technology, in a short time by the multivalued neural network using the present invention, and rapid learning so far. In addition, it has a very wide range of effects such as wide application to artificial intelligence systems and search systems, pattern recognition, data conversion, data compression, multi-valued image processing, and communication systems that require complete convergence. There is.

【0043】また、異なった2値教師信号を用いて学習
させた重み係数をそれぞれ複数組用意し、本発明の2値
ニューラルネットワークの重み係数を切り替え設定すれ
ば、2値論理関数の真理値表などを簡単に而も短時間で
学習させることができることから、一定遅延を持ったプ
ログラマブルな大規模可変2値論理回路も容易に実現で
き、また、状況に応じて短時間で学習仕直すことによ
り、同一ハードウェア上に新たな大規模2値論理回路も
実現できる。
If a plurality of sets of weighting coefficients learned by using different binary teacher signals are prepared and the weighting coefficients of the binary neural network of the present invention are switched and set, the truth table of the binary logic function is obtained. , Etc. can be easily learned in a short time, so that a programmable large-scale variable binary logic circuit with a fixed delay can be easily realized, and learning can be done in a short time according to the situation. A new large-scale binary logic circuit can be realized on the same hardware.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の学習方式による多層ニューラルネットワ
ークにおける学習処理の1構成例である。
FIG. 1 is a configuration example of a learning process in a multilayer neural network according to a conventional learning method.

【図2】実施例1における本発明の学習方式を用いた多
層ニューラルネットワークの学習処理の1構成例であ
る。
FIG. 2 is a configuration example of a learning process of a multilayer neural network using the learning method of the present invention in the first embodiment.

【図3】実施例2における本発明の学習方式を用いた並
列2値ニューラルネットワークの学習処理の1構成例で
ある。
FIG. 3 is a configuration example of a learning process of a parallel binary neural network using the learning method of the present invention in the second embodiment.

【図4】実施例2における並列2値ニューラルネットワ
ークの実行処理の1構成例である。
FIG. 4 is a configuration example of an execution process of a parallel binary neural network according to the second embodiment.

【符号の説明】[Explanation of symbols]

1 多層ニューラルネットワーク 2 入力信号入力端子 2 入力信号ユニット入力端子 2 入力信号ユニット入力端子 2 入力信号ユニット入力端子 3 教師信号入力端子 3 教師信号ユニット入力端子 3 教師信号ユニット入力端子 3 教師信号ユニット入力端子 4 減算器 4 減算器 4 減算器 4 減算器 5 重み係数制御器 6 2値スレショルド回路 6 2値スレショルド回路 6 2値スレショルド回路 6 2値スレショルド回路 7 2値スレショルド回路 7 2値スレショルド回路 7 2値スレショルド回路 7 2値スレショルド回路 8 一致検出器 9 動作モード制御器 10 重み係数更新誤差信号生成器 10 重み係数更新誤差信号生成器 10 重み係数更新誤差信号生成器 10 重み係数更新誤差信号生成器 11 学習判定器 12 動作モード制御器 13 本発明の学習方式を用いた並列2値ニューラルネ
ットワーク 14 学習判定器 15 動作モード制御器 16 補正ニューラルネットワーク 17 補正2値教師信号生成器 18 重み係数更新誤差信号生成器 18 重み係数更新誤差信号生成器 18 重み係数更新誤差信号生成器 18 重み係数更新誤差信号生成器 19 重み係数制御器 20 2値スレショルド回路 20 2値スレショルド回路 20 2値スレショルド回路 20 2値スレショルド回路 21 一致判定器 22 XOR加法論理演算器 23 出力信号出力端子 23 出力信号ユニット出力端子 23 出力信号ユニット出力端子 23 出力信号ユニット出力端子
1 Multilayer neural network 2 Input signal input terminal 2 1 Input signal unit input terminal 2 2 Input signal unit input terminal 2 N Input signal unit input terminal 3 Teacher signal input terminal 3 1 Teacher signal unit input terminal 3 2 Teacher signal unit input terminal 3 M teacher signal unit input terminal 4 subtracter 4 1 subtractor 4 second subtracter 4 M subtracter 5 weight coefficient controller 6 binary threshold circuit 61 binary threshold circuit 6 2 binary threshold circuit 6 M binary threshold circuit 7 Binary Threshold Circuit 7 1 Binary Threshold Circuit 7 2 Binary Threshold Circuit 7 M Binary Threshold Circuit 8 Match Detector 9 Operation Mode Controller 10 Weighting Factor Update Error Signal Generator 10 1 Weighting Factor Update Error Signal Generator 10 2 weight coefficient updating error signal generator 10 M weighting coefficient updating error signal generator 11 learning determination 12 operation mode controller parallel binary using the learning method of the present invention 13 the neural network 14 learn determiner 15 operation mode controller 16 corrects the neural network 17 corrects the binary teacher signal generator 18 weight coefficient updating error signal generator 18 1 weight coefficient updating error signal generator 18 2 weighting factor updating error signal generator 18 M weighting coefficient updating error signal generator 19 weighting factor controller 20 binary threshold circuit 20 1 binary threshold circuit 20 2 binary threshold circuit 20 M 2 Value threshold circuit 21 Matching discriminator 22 XOR additive logic operator 23 Output signal output terminal 23 1 Output signal unit output terminal 23 2 Output signal unit output terminal 23 M Output signal unit output terminal

フロントページの続き (56)参考文献 特開 平4−15860(JP,A) 特開 平4−251392(JP,A) 特開 平3−273444(JP,A) 国際公開95/5640(WO,A1) 菅谷史昭、八塚陽太郎,「並列型ニュ ーラルネットワークの収束特性」,電子 情報通信学会1993年秋季大会講演論文 集,日本,社団法人電子情報通信学会, 1993年 8月15日,第6分冊,pp.18 菅谷史昭、八塚陽太郎,「並列ニュー ラルネットワークのコード変換を用いた 高速収束」,電子情報通信学会1994年春 季大会講演論文集,日本,社団法人電子 情報通信学会,1994年 3月10日,第6 分冊,pp.66 渡辺嘉二郎・他,「学習係数の適応調 整によるニューラルネットワークの学習 の高速化」,計測自動制御学会論文集, 日本,1994年,Vol.30,No.9, pp.1093−1099,JST資料番号:S 0104A (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)Continuation of front page (56) References JP-A-4-15860 (JP, A) JP-A-4-251392 (JP, A) JP-A-3-273444 (JP, A) International Publication 95/5640 (WO, A1) Fumiaki Sugaya, Yotaro Yatsuka, “Convergence Characteristics of Parallel-type Neural Networks”, Proceedings of the 1993 Autumn Meeting of the Institute of Electronics, Information and Communication Engineers, Japan, The Institute of Electronics, Information and Communication Engineers, August 15, 1993, 6th Separate volume, pp. 18 Fumiaki Sugaya, Yotaro Yatsuka, “Fast convergence using code conversion of parallel neural network”, IEICE Spring Conference 1994 Spring Conference, Japan, The Institute of Electronics, Information and Communication Engineers, March 10, 1994, 6th volume, pp. 66 Kajiro Watanabe et al., “Speeding up learning of neural network by adaptive adjustment of learning coefficient”, Transactions of the Society of Instrument and Control Engineers, Japan, 1994, Vol. 30, No. 9, pp. 1093-1099, JST Material No .: S 0104A (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 JST file (JOIS) CSDB (Japan Patent Office)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 教師信号を用いて学習させるニューラル
ネットワークにおいて、該教師信号から該ニューラルネ
ットワークの出力ユニット信号を差し引いて得た誤差信
号の絶対値が第一のスレショルドより小さいと、該誤差
信号と逆の極性を持った該教師信号から離れるに従い振
幅が小さくなる重み係数更新誤差信号を、該誤差信号の
絶対値が該第1のスレショルドと第2のスレショルドと
の領域にあると、該誤差信号より小さい振幅を持った同
極性の重み係数更新誤差信号を、該誤差信号の絶対値が
第2のスレショルドより大きいと、該誤差信号と同じ重
み係数更新誤差信号を生成し、該重み係数更新誤差信号
を用いて重み係数を更新することを特徴としたニューラ
ルネットワーク学習方式。
1. In a neural network for learning using a teacher signal, if the absolute value of the error signal obtained by subtracting the output unit signal of the neural network from the teacher signal is smaller than a first threshold, the error signal When the weight coefficient update error signal whose amplitude becomes smaller as the distance from the teacher signal having the opposite polarity is increased, and the absolute value of the error signal is in the region between the first threshold and the second threshold, the error signal If the absolute value of the weighting coefficient update error signal of the same polarity having a smaller amplitude is larger than the second threshold, the same weighting coefficient update error signal as the error signal is generated, and the weighting coefficient update error is generated. A neural network learning method characterized by updating weighting factors using signals.
【請求項2】 多値教師信号を用いて学習させる多値ニ
ューラルネットワークにおいて、該多値教師信号から該
多値ニューラルネットワークの出力ユニット信号から多
値スレショルド回路を介して得られた多値出力ユニット
信号が該多値教師信号と一致した出力ユニットでは、該
多値教師信号から出力ユニット信号を差し引いた誤差信
号の絶対値が与えられたスレショルド以下であると、該
誤差信号と逆の極性を持った該多値教師信号から離れる
に従い振幅が小さくなる重み係数更新誤差信号を生成
し、該誤差信号の絶対値が該スレショルドより大きい
と、該誤差信号以下の振幅を持った同極性の重み係数更
新誤差信号を生成し、該多値出力ユニット信号が該多値
教師信号と一致しない出力ユニットでは、該誤差信号と
同じ重み係数更新誤差信号を生成し、該重み係数更新誤
差信号を用いて重み係数を更新することを特徴とした多
値ニューラルネットワーク学習方式。
2. In a multivalued neural network for learning using a multivalued teacher signal, a multivalued output unit obtained from the output unit signal of the multivalued neural network from the multivalued teacher signal through a multivalued threshold circuit. In the output unit in which the signal matches the multi-valued teacher signal, when the absolute value of the error signal obtained by subtracting the output unit signal from the multi-valued teacher signal is less than or equal to the given threshold, the output unit has a polarity opposite to that of the error signal. A weighting factor update error signal whose amplitude decreases with increasing distance from the multi-valued teacher signal is generated. When the absolute value of the error signal is greater than the threshold, the weighting factor update error of the same polarity having an amplitude equal to or less than the error signal is generated. In the output unit that generates an error signal and the multi-value output unit signal does not match the multi-value teacher signal, the same weight coefficient update error signal as the error signal is generated. A multi-valued neural network learning method characterized by generating a signal and updating the weighting coefficient using the weighting coefficient update error signal.
【請求項3】 請求項2記載のニューラルネットワーク
において、前記教師信号と異っている前記出力ユニット
信号の誤り個数が学習を繰り返しても規定以上減少しな
い場合に、前記誤差信号と極性が反転している重み係数
更新誤差信号の振幅を一時的に大きくして、重み係数の
更新を行うことを特徴とした多値ニューラルネットワー
ク学習方式。
3. The neural network according to claim 2, wherein the polarity of the error signal is inverted when the error number of the output unit signal, which is different from the teacher signal, does not decrease more than a prescribed value even after repeated learning. Multi-valued neural network learning method characterized by updating the weighting coefficient by temporarily increasing the amplitude of the weighting coefficient updating error signal.
【請求項4】 請求項2記載の多値ニューラルネットワ
ークにおいて、学習用入力信号に対して前記多値出力ユ
ニット信号が前記多値教師信号と一致しない全ての出力
ユニットで、前記多値スレショルド回路の多値識別スレ
ショルドからの前記出力ユニット信号の距離の中で最小
値を求め、該最小値が用意されているスレショルドより
大きいと、前記誤差信号と極性が反転している重み係数
更新誤差信号の振幅を一時的に大きくして、重み係数の
更新を行うことを特徴とした多値ニューラルネットワー
ク学習方式。
4. The multi-valued neural network according to claim 2, wherein the multi-valued output unit signal does not match the multi-valued teacher signal with respect to a learning input signal in all output units, The minimum value is obtained in the distance of the output unit signal from the multi-valued discrimination threshold, and when the minimum value is larger than the prepared threshold, the amplitude of the weighting factor update error signal whose polarity is inverted from that of the error signal. A multi-valued neural network learning method characterized by updating the weighting coefficient by temporarily increasing.
【請求項5】 請求項2、3、または4記載の多値ニュ
ーラルネットワークを用いた主及び補正ニューラルネッ
トワークを並列接続し、該主ニューラルネットワークを
主多値教師信号を用いて学習させ、学習用入力信号に対
して該主ニューラルネットワークの出力ユニット信号を
多値スレショルド回路を介して得られた多値出力ユニッ
ト信号が該主多値教師信号と異なる為に生じた多値誤り
を該補正ニューラルネットワークの補正多値教師信号と
して順次学習させる並列多値ニューラルネットワークに
おいて、該学習用入力信号に対して該主ニューラルネッ
トワークの該多値出力ユニット信号と該主多値教師信号
とが不一致の全出力ユニットにおいて、該多値スレショ
ルド回路の多値識別スレショルドと該出力ユニット信号
との距離の最小値が、予め与えられたスレショルドを越
えると、該主ニューラルネットワークの学習を終了する
ことを特徴とした並列多値ニューラルネットワーク学習
方式。
5. A main and a correction neural network using the multivalued neural network according to claim 2, 3 or 4, are connected in parallel, and the main neural network is trained using a main multivalued teacher signal for learning. The multi-valued output unit signal obtained from the output signal of the main neural network through the multi-valued threshold circuit with respect to the input signal is different from the main multi-valued teacher signal. In a parallel multi-valued neural network for sequentially learning as corrected multi-valued teacher signals, all output units in which the multi-valued output unit signal of the main neural network and the main multi-valued teacher signal do not match the learning input signal. , The minimum value of the distance between the multi-level discrimination threshold of the multi-level threshold circuit and the output unit signal is , A parallel multi-valued neural network learning method characterized by terminating learning of the main neural network when a threshold value given in advance is exceeded.
JP07716895A 1995-03-09 1995-03-09 Neural network learning method Expired - Fee Related JP3367264B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07716895A JP3367264B2 (en) 1995-03-09 1995-03-09 Neural network learning method
US08/923,333 US5764860A (en) 1995-03-09 1997-09-04 Learning method for multi-level neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07716895A JP3367264B2 (en) 1995-03-09 1995-03-09 Neural network learning method

Publications (2)

Publication Number Publication Date
JPH08249304A JPH08249304A (en) 1996-09-27
JP3367264B2 true JP3367264B2 (en) 2003-01-14

Family

ID=13626267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07716895A Expired - Fee Related JP3367264B2 (en) 1995-03-09 1995-03-09 Neural network learning method

Country Status (1)

Country Link
JP (1) JP3367264B2 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
渡辺嘉二郎・他,「学習係数の適応調整によるニューラルネットワークの学習の高速化」,計測自動制御学会論文集,日本,1994年,Vol.30,No.9,pp.1093−1099,JST資料番号:S0104A
菅谷史昭、八塚陽太郎,「並列ニューラルネットワークのコード変換を用いた高速収束」,電子情報通信学会1994年春季大会講演論文集,日本,社団法人電子情報通信学会,1994年 3月10日,第6分冊,pp.66
菅谷史昭、八塚陽太郎,「並列型ニューラルネットワークの収束特性」,電子情報通信学会1993年秋季大会講演論文集,日本,社団法人電子情報通信学会,1993年 8月15日,第6分冊,pp.18

Also Published As

Publication number Publication date
JPH08249304A (en) 1996-09-27

Similar Documents

Publication Publication Date Title
Chen et al. Combined genetic algorithm optimization and regularized orthogonal least squares learning for radial basis function networks
Kwok et al. Constructive algorithms for structure learning in feedforward neural networks for regression problems
Purushothaman et al. Quantum neural networks (QNNs): inherently fuzzy feedforward neural networks
JP3328935B2 (en) Parallel multi-valued neural network
Ng et al. Fast convergent generalized back-propagation algorithm with constant learning rate
US5764860A (en) Learning method for multi-level neural network
Karunanithi et al. Genetic cascade learning for neural networks
JP3367264B2 (en) Neural network learning method
US5870728A (en) Learning procedure for multi-level neural network
JP3367295B2 (en) Multi-valued neural network learning method
JP3277648B2 (en) Parallel neural network
JP3368774B2 (en) neural network
Al-Nima et al. Design a technology based on the fusion of genetic algorithm, neural network and fuzzy logic
JP3329202B2 (en) Neural network learning method
JP3757722B2 (en) Multi-layer neural network unit optimization method and apparatus
Chang et al. Polynomial and standard higher order neural network
JP4258268B2 (en) Multi-layer neural network learning method
Wang et al. Second-Order Structure Optimization of Fully Complex-Valued Neural Networks
JP4586420B2 (en) Multilayer neural network learning apparatus and software
Papageorgiou et al. Learning algorithms for fuzzy cognitive maps.
Almeida et al. Automatically searching near-optimal artificial neural networks.
Kwan et al. Second-order recurrent neural network for word sequence learning
Liu et al. Immune clonal selection wavelet network based intrusion detection
Nakao et al. CT image reconstruction by back-propagation
Brodsky et al. Binary backpropagation in content addressable memory

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021008

LAPS Cancellation because of no payment of annual fees