JP3367295B2 - Multi-valued neural network learning method - Google Patents
Multi-valued neural network learning methodInfo
- Publication number
- JP3367295B2 JP3367295B2 JP22701495A JP22701495A JP3367295B2 JP 3367295 B2 JP3367295 B2 JP 3367295B2 JP 22701495 A JP22701495 A JP 22701495A JP 22701495 A JP22701495 A JP 22701495A JP 3367295 B2 JP3367295 B2 JP 3367295B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- output unit
- valued
- error signal
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、大規模論理回路、
パターン認識、連想メモリ、データ変換及び画像処理な
どの分野に適用可能なニューラルネットワークにおい
て、ローカルミニマム捕獲状態を検出することにより高
速かつ安定に所望の出力信号を得ることができる多値ニ
ューラルネットワークの学習方式に関するものである。
本発明は特に特願平7−77168(平成7年3月9日
出願)の改良に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a large scale logic circuit,
Learning of a multi-valued neural network that can obtain a desired output signal at high speed and stably by detecting a local minimum capture state in a neural network applicable to fields such as pattern recognition, associative memory, data conversion and image processing. It is related to the method.
The present invention particularly relates to an improvement of Japanese Patent Application No. 7-77168 (filed on Mar. 9, 1995).
【0002】[0002]
【従来の技術】ニューラルネットワークの1つとして、
多層(階層)ニューラルネットワークがあるが、このニ
ューラルネットワークの教師信号を用いた学習方法とし
て、バック・プロパゲーション・アルゴリズムが幅広く
使用されている。本アルゴリズムを用いた学習過程で
は、重み係数を初期設定した後、予め用意された教師信
号T(教師信号エレメント、T1、T2、...、TM)
から、入力層に入力された学習用入力信号に対する出力
層からの出力ユニット信号を減算器を介して差し引き誤
差信号を求め、各層の出力ユニット信号と誤差信号とを
基に誤差信号の電力を最小にするように各層間の重み係
数の更新を行い学習を行うものである。この重み係数適
応制御からなる学習をすべての学習用入力信号に対して
実行し、収束するまで繰り返す。2. Description of the Related Art As one of neural networks,
Although there is a multilayer neural network, a back propagation algorithm is widely used as a learning method using a teacher signal of this neural network. In the learning process using this algorithm, after the weighting coefficient is initialized, the teacher signal T (teacher signal element, T 1 , T 2 , ..., T M ) prepared in advance is set.
Then, the output unit signal from the output layer for the learning input signal input to the input layer is subtracted through a subtractor to obtain the error signal, and the error signal power is minimized based on the output unit signal and error signal of each layer. As described above, the weighting coefficient between layers is updated and learning is performed. The learning consisting of the weighting coefficient adaptive control is executed for all learning input signals and repeated until convergence.
【0003】この学習過程に於て誤差電力が最小となる
と完全に収束し、学習用入力信号に対する、出力ユニッ
ト信号を多値識別スレショルドにより多値化した多値出
力ユニット信号が多値教師信号と一致する。しかしなが
ら、誤差電力が局部極小(ローカルミニマム)となる所
に一旦落ち込むと、それが非常に安定な場合はそれ以降
は学習が進まず最小とならないこと、また、最小の状態
になるためには学習回数が著しく増加することや、収束
特性に重み係数の初期値依存性があるなどの問題があ
る。In the learning process, when the error power is minimized, the error power completely converges, and the multi-valued output unit signal obtained by multi-valued the output unit signal with respect to the learning input signal by the multi-valued discrimination threshold becomes the multi-valued teacher signal. Match. However, once the error power drops to the local minimum (local minimum), if it is very stable, the learning does not proceed thereafter and does not become the minimum. There are problems that the number of times increases remarkably and that the convergence characteristic depends on the initial value of the weighting coefficient.
【0004】一方、0および1の2値教師信号Tに対し
て学習速度を改善するために"Parallel Distributed Pr
ocessing" D.E. Rumelhart, MIT Press.では、図1に示
す従来方式の学習を用いた多層ニューラルネットワーク
において、それぞれのエレメントに対して0.1及び
0. 9の新たな教師信号T’を設定し、動作モード制御
器9からの制御信号により夫々初期設定を行った後、学
習を開始する。端子3からの教師信号T’から、端子2
からの学習用入力信号に対する多層ニューラルネットワ
ーク1の出力ユニット信号を減算器4を介して差し引き
誤差信号を求め、これを重み係数制御器5に入力し、バ
ックプロパゲーションアルゴリズムにより重み係数更新
を行い、多層ニューラルネットワーク1に再度設定する
処理を繰り返し学習する。2値識別スレショルドを用い
て2値化する2値スレショルド回路6を介して出力ユニ
ット信号から2値出力ユニット信号を得、また、2値識
別スレショルドを用いて2値化する2値スレショルド回
路7を介して教師信号T’から2値教師信号Tを得、一
致検出器8にてこれらが完全に一致する状態を検出する
ことにより、多層ニューラルネットワーク1が収束した
として動作モード制御器9を介して学習が終了する。On the other hand, in order to improve the learning speed for the binary teacher signals T of 0 and 1, "Parallel Distributed Pr" is used.
In ocessing "DE Rumelhart, MIT Press., a new teacher signal T'of 0.1 and 0.9 is set for each element in the multilayer neural network using the conventional learning shown in FIG. Learning is started after initialization is performed by the control signal from the operation mode controller 9. From the teacher signal T ′ from the terminal 3, the terminal 2 is started.
The output unit signal of the multilayer neural network 1 with respect to the learning input signal is obtained through the subtractor 4 to obtain a subtraction error signal, which is input to the weighting factor controller 5, and the weighting factor is updated by the back propagation algorithm, The process of setting again in the multilayer neural network 1 is repeatedly learned. A binary output unit signal is obtained from the output unit signal through the binary threshold circuit 6 that performs binarization using the binary discrimination threshold, and a binary threshold circuit 7 that performs binarization using the binary discrimination threshold is provided. A binary teacher signal T is obtained from the teacher signal T'through the detection signal, and the coincidence detector 8 detects a state in which they are completely coincident with each other. Learning ends.
【0005】このように教師信号を0.1及び0. 9に
設定することにより、0及び1の2値教師信号の場合に
比較して収束するための学習回数が削減されることが述
べられている。これは、シグモイド関数において、入力
が0あるいは1に近づくと、勾配が非常に小さくなるこ
とにより、重み係数の更新速度が小さくなることの理由
による。このため、教師信号を0.1及び0. 9に設定
し、勾配を大きくすることにより、学習速度を改善して
いる。しかしながら、同様に安定したローカルミニマム
に落ち込むと学習が進展しない。By setting the teacher signals to 0.1 and 0.9 in this way, it is stated that the number of learnings for convergence is reduced as compared with the case of binary teacher signals of 0 and 1. ing. This is because, in the sigmoid function, when the input approaches 0 or 1, the gradient becomes very small and the update rate of the weighting coefficient becomes small. Therefore, the learning speed is improved by setting the teacher signal to 0.1 and 0.9 and increasing the gradient. However, learning will not progress if it falls into a stable local minimum as well.
【0006】これらの従来の学習方式では、上記の説明
のごとくローカルミニマムの状態に落ち込みやすく、ま
た、なかなか抜け出せないことから、完全な収束状態が
簡単には到達できないなどの欠点がある。特に、入力ユ
ニット数の多い3層あるいは多層ニューラルネットワー
クにおいて、多値教師信号に対して確実に収束させる設
計手法は明らかになっておらず、初期値依存性の為に重
み係数の初期値を変更したり、隠れユニット(中間ユニ
ット)数を増やすなどの試行錯誤を行っている。また、
安定なローカルミニマムへの捕獲状態を簡単に検出する
手段はこれまでない。[0006] These conventional learning methods have the drawback that the state of the local minimum can be easily dropped as described above, and that the state of complete convergence cannot be easily reached because it is difficult to get out. In particular, in a three-layer or multi-layer neural network with a large number of input units, a design method for surely converging the multivalued teacher signal has not been clarified, and the initial value of the weighting factor is changed due to the initial value dependence. And increasing the number of hidden units (intermediate units) by trial and error. Also,
Until now, there has been no easy way to detect the capture state in the stable local minimum.
【0007】[0007]
【発明が解決しようとする課題】上記の説明のごとく、
多値教師信号を用いた多層ニューラルネットワークの従
来の学習処理において、多層ニューラルネットワークが
学習用入力信号に対応した所望の多値出力ユニット信号
を送出するよう重み係数を更新する際に、所望の多値出
力ユニット信号を送出する収束した状態になるまでの学
習回数即ち学習繰り返し回数が非常に多くなる場合や、
学習しても収束しない状態即ち非常に安定したローカル
ミニマムの状態に落ち込み所望の多値出力ユニット信号
が送出されないなど重み係数の初期値依存性があるなど
の欠点を有している。特に、入力層のユニット数が多
く、出力ユニット数が少なく、而も分布型の表現形式を
持った教師信号の場合には、学習による収束が非常に困
難となり、所望の多値出力ユニット信号を送出する多層
ニューラルネットワークを自由に設計する方法が確立さ
れていない。また、収束しやすくするために中間ユニッ
ト数を大幅に増やす方法があるが、汎化能力が劣化する
と共に当然のことながらそれぞれの演算量が増し、非常
に大きいハードウェア能力あるいは演算能力が要求され
る。DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention As described above,
In the conventional learning process of the multi-layer neural network using the multi-valued teaching signal, when the weighting coefficient is updated so that the multi-layer neural network sends out the desired multi-valued output unit signal corresponding to the learning input signal, When the number of learning, that is, the number of learning iterations until the converged state in which the value output unit signal is transmitted becomes very large,
However, it has a drawback that the weighting coefficient has an initial value dependency such that it does not converge even if it is learned, that is, it falls into a very stable local minimum state and a desired multi-value output unit signal is not transmitted. In particular, in the case of a teacher signal having a large number of units in the input layer and a small number of output units and a distributed expression format, convergence due to learning becomes very difficult, and a desired multi-valued output unit signal can be obtained. A method for freely designing a multi-layer neural network for transmission has not been established. In addition, there is a method to significantly increase the number of intermediate units to make it easier to converge, but as the generalization capacity deteriorates, the amount of calculation of each increases naturally, and a very large hardware capacity or calculation capacity is required. It
【0008】本発明の目的は、上記の問題を解決し、多
値ニューラルネットワークの従来の学習方式などに比べ
て、非常に少ない学習回数で収束し、10倍から100
倍の高速度で安定に学習を完了させることが出来、学習
用入力信号に対して所望の多値出力ユニット信号を容易
に得ることができるローカルミニマム捕獲状態検出機能
を有した多値ニューラルネットワークの新たな学習方式
を提供することにある。An object of the present invention is to solve the above-mentioned problems, to converge with an extremely small number of learning times as compared with the conventional learning method of a multivalued neural network, and to increase from 10 times to 100 times.
A multi-valued neural network with a local minimum capture state detection function that can stably complete learning at double speed and can easily obtain a desired multi-valued output unit signal for the learning input signal. To provide a new learning method.
【0009】[0009]
【課題を解決するための手段】上記の問題点を解決する
ために、多値教師信号を用いて学習させる多値ニューラ
ルネットワークにおいて、該多値教師信号から正解の出
力ユニットの出力ユニット信号を差し引いて得た誤差信
号の絶対値が第1のスレショルド以下であると、該誤差
信号と逆極性を持ち該多値教師信号から離れるに従い振
幅が小さくなる重み係数更新誤差信号を、該誤差信号の
絶対値が該第1のスレショルドより大きいと、該誤差信
号以下の振幅を持った同極性の重み係数更新誤差信号
を、不正解の出力ユニットでは該誤差信号以下の振幅を
持った同極性の重み係数更新誤差信号を生成し、該重み
係数更新誤差信号を用いて重み係数を更新し、不正解の
出力ユニットにおける該誤差信号の絶対値の最小値を少
なくとも用いてローカルミニマム捕獲状態を検出し、該
重み係数更新誤差信号の振幅あるいは更に該第1のスレ
ショルドを調整し重み係数を更新することを特徴とした
ニューラルネットワーク学習方式を構成する。In order to solve the above problems, in a multi-valued neural network for learning using a multi-valued teacher signal, the output unit signal of the correct output unit is subtracted from the multi-valued teacher signal. If the absolute value of the obtained error signal is less than or equal to the first threshold, a weighting coefficient update error signal that has a polarity opposite to that of the error signal and whose amplitude decreases as the distance from the multilevel teacher signal increases If the value is larger than the first threshold, the weighting coefficient update error signal having the same amplitude as the error signal or less and the same weighting coefficient having the amplitude less than the error signal is output in the incorrect output unit. An update error signal is generated, the weight coefficient is updated by using the weight coefficient update error signal, and the weight coefficient is updated by using at least the minimum absolute value of the error signal in the incorrect output unit. Detecting a Ruminimamu captivity, constituting the neural network learning method which is characterized by updating the amplitude or further adjusted weighting coefficient threshold of the first heavy viewed coefficient updating error signal.
【0010】[0010]
【作用】本発明の多値ニューラルネットワークの学習方
式においては、多値教師信号から大きくずれた不正解の
多値出力ユニット信号を与えている出力ユニットに対し
ては、多値教師信号から差し引いて得られる誤差信号以
下の振幅を持った重み係数更新誤差信号を用い、一方、
誤差信号が多値教師信号に非常に近く第1のスレショル
ド以下で正解の多値出力ユニット信号を与えている出力
ユニットにおいては、誤差信号とは逆極性を持った該教
師信号から離れるに従い振幅が小さくなる重み係数更新
誤差信号を用い、更に誤差信号が第1のスレショルドよ
り大きく多値教師信号から比較的近い正解の多値出力ユ
ニット信号を与えている出力ユニットにおいては、誤差
信号と同一極性の若干小さめの振幅を持った重み係数更
新誤差信号を用いて、それぞれ重み係数の修正を行う。
この際、不正解の出力ユニットの内、誤差信号の絶対値
の最小値である出力ユニット最小誤差を検出し、与えら
れたスレショルドとの比較結果から安定したローカルミ
ニマム捕獲状態を簡単に検出でき、検出結果に従って重
み係数更新誤差信号の振幅あるいは更に第1のスレショ
ルドを制御し、学習させることにより非常に安定したロ
ーカルミニマムからも抜け出し易く、少ない学習回数で
最適状態に素早く近付ける働きを持っている。このよう
な極性と振幅を制御された重み係数更新誤差信号を用い
ることにより、重み係数の初期値依存性もなく学習回数
を著しく短縮することが出来、学習回数や中間ユニット
(隠れユニット)数あるいは中間層数を大幅に削減でき
る。In the learning method of the multi-valued neural network of the present invention, an output unit giving an incorrect multi-valued output unit signal which is largely deviated from the multi-valued teacher signal is subtracted from the multi-valued teacher signal. Using the weighting factor update error signal with amplitude less than the obtained error signal, while
In the output unit in which the error signal is very close to the multi-valued teacher signal and gives the correct multi-valued output unit signal below the first threshold, the amplitude changes as the distance from the teacher signal having the opposite polarity to the error signal increases. In the output unit which uses the smaller weight coefficient update error signal and further provides the correct multi-valued output unit signal whose error signal is larger than the first threshold and is relatively close to the multi-valued teacher signal, the same polarity as the error signal is used. The weighting coefficient update error signal having a slightly smaller amplitude is used to modify the weighting coefficient.
At this time, among the incorrect output units, the output unit minimum error which is the minimum value of the absolute value of the error signal is detected, and the stable local minimum capture state can be easily detected from the comparison result with the given threshold, By controlling and learning the amplitude of the weighting coefficient update error signal or further the first threshold according to the detection result, it is possible to easily get out of a very stable local minimum and to quickly approach the optimum state with a small number of learnings. By using the weight coefficient update error signal whose polarity and amplitude are controlled as described above, it is possible to significantly reduce the number of learning without the dependency of the weight coefficient on the initial value, and the number of learning or the number of intermediate units (hidden units) or The number of intermediate layers can be significantly reduced.
【0011】上記説明のごとく本発明の学習方式は、非
常に安定したローカルミニマム捕獲状態を簡単に検出で
きることから多値ニューラルネットワークのローカルミ
ニマムから抜け出させ易く、従来方式に比べて重み係数
の初期値依存性もなく非常に高速に且つ確実に収束さ
せ、所望の多値出力ユニット信号を容易に得ることがで
きることから、大規模な多値ニューラルネットワークを
自由に設計できる。また、実時間で学習をやり直す必要
のある学習機能を持った論理システムや、非常に多くの
入力信号エレメント数を持った入力信号やユニット数の
多い多層ニューラルネットワークを用いた多値論理シス
テムを実現できる。更に、従来方式では安定で高速に収
束させることができず所望の出力信号を得ることが困難
であったパターン認識や画像処理など、更には、データ
変換なども容易に設計し実現することが可能となる。As described above, since the learning method of the present invention can easily detect a very stable local minimum capture state, it is easy to get out of the local minimum of a multi-valued neural network, and the initial value of the weighting coefficient is higher than that of the conventional method. Since a desired multi-valued output unit signal can be easily obtained without any dependence and very quickly and surely, a large-scale multi-valued neural network can be freely designed. In addition, we have realized a logic system with a learning function that requires re-learning in real time, and a multi-valued logic system using an input signal with an extremely large number of input signal elements and a multilayer neural network with a large number of units. it can. Furthermore, it is possible to easily design and realize pattern recognition, image processing, etc., which were difficult to obtain a desired output signal because the conventional method could not converge stably and at high speed, and also data conversion etc. Becomes
【0012】[0012]
【発明の実施の形態】以下に本発明の学習方式を用いた
多値ニューラルネットワークの実施例をあげ、その構成
及びその動作について、2値教師信号を用いた場合につ
いて詳細に説明する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a multi-valued neural network using the learning method of the present invention will be described below, and its configuration and operation will be described in detail when a binary teacher signal is used.
【0013】本発明の学習方式を用いた多値ニューラル
ネットワークの学習過程の1実施例を図2に示す。端子
2から入力信号が入力層の入力ユニットに入力され、出
力層の出力ユニットから出力ユニット信号を送出する多
層ニューラルネットワーク1、2値教師信号と出力ユニ
ット信号と出力正誤判定器11からの正誤判定信号とを
入力とし、重み係数更新誤差信号を出力する重み係数更
新誤差信号生成器10、出力ユニット信号を2値識別ス
レショルドを用いて2値化し2値出力ユニット信号を得
る2値スレショルド回路6、入力された重み係数更新誤
差信号を用いて多層ニューラルネットワーク1の重み係
数を更新し設定する重み係数制御器5、2値教師信号と
2値出力ユニット信号とを入力とし、2値教師信号と2
値出力ユニット信号とを比較し出力ユニット内の正解、
不正解を検出し正誤判定信号を送出する出力正誤判定器
11、出力正誤判定器11からの正誤判定信号と2値教
師信号と出力ユニット信号とを入力し、不正解の出力ユ
ニットにおいて出力ユニット信号と2値教師信号との差
の絶対値の最小値、即ち不正解出力ユニット最小誤差を
検出する不正解出力ユニット最小誤差検出器13と、正
解の出力ユニットにおいて出力ユニット信号と2値スレ
ショルド回路6の2値識別スレショルドとの差の絶対値
の最小値、即ち正解出力ユニット最小余裕を検出する正
解出力ユニット最小余裕検出器14と、不正解出力ユニ
ット最小誤差及び正解出力ユニット最小余裕とを用いて
ローカルミニマム捕獲状態を検出するローカルミニマム
捕獲状態検出器15、多層ニューラルネットワーク1と
重み係数制御器5と出力正誤判定器11、不正解出力ユ
ニット最小誤差検出器13、正解出力ユニット最小余裕
検出器14及びローカルミニマム捕獲状態検出器15の
各初期設定、更に学習の開始及び終了を制御する動作モ
ード制御器12とから構成される。FIG. 2 shows an embodiment of the learning process of a multi-valued neural network using the learning method of the present invention. The input signal from the terminal 2 is input to the input unit of the input layer, and the output unit signal is sent from the output unit of the output layer. Multilayer neural network 1, binary teacher signal, output unit signal, and output A weighting factor update error signal generator 10 which receives a signal as an input and outputs a weighting factor update error signal, a binary threshold circuit 6 which binarizes the output unit signal using a binary discrimination threshold to obtain a binary output unit signal, The weight coefficient controller 5 for updating and setting the weight coefficient of the multilayer neural network 1 by using the input weight coefficient update error signal, receives the binary teacher signal and the binary output unit signal, and inputs the binary teacher signal and the binary teacher signal.
Correct value in the output unit by comparing with the value output unit signal,
An output correct / wrong judgment device 11 for detecting an incorrect answer and sending a correct / wrong judgment signal, a correct / wrong judgment signal from the output correct / wrong judgment device 11, a binary teacher signal and an output unit signal are inputted, and an output unit signal is outputted at an incorrect output unit. And the binary teacher signal, the minimum absolute value of the difference, that is, the incorrect output unit minimum error detector 13 for detecting the incorrect output unit minimum error, and the output unit signal and the binary threshold circuit 6 in the correct output unit. Using the minimum absolute value of the difference from the binary discrimination threshold of, that is, the correct output unit minimum margin detector 14 for detecting the correct output unit minimum margin, and the incorrect output unit minimum error and the correct output unit minimum margin. Local minimum capture state detector 15, multi-layer neural network 1 and weighting factor controller 5 for detecting the local minimum capture state Each of the output correctness determination unit 11, the incorrect output unit minimum error detector 13, the correct output unit minimum margin detector 14, and the local minimum capture state detector 15 is initialized, and the operation mode controller controls the start and end of learning. 12 and.
【0014】次に学習過程における動作を説明する。多
層ニューラルネットワーク1は端子2からの学習用入力
信号と端子3からの2値教師信号とを用いて学習を行
う。重み係数更新誤差信号生成器10において、出力正
誤判定器11からの正誤判定信号により不正解の2値出
力ユニット信号が検出された出力ユニットに対しては、
2値教師信号からその出力ユニット信号を差し引いて得
られた誤差信号を式(3)のごとく振幅をDm3程小さ
くして重み係数更新誤差信号として出力させ、一方、正
解の出力ユニット信号を与えている出力ユニットにおい
ては、その誤差信号の絶対値が与えられた第1のスレシ
ョルド値dm以下であると、逆極性で該教師信号から離
れるに従い振幅が定数Dm1(但し≧0)より小さくな
る重み係数更新誤差信号を生成し出力させ、誤差信号の
絶対値が前記スレショルドより大きいと、同一極性でD
m2程小さい振幅を持った重み係数更新誤差信号を生成
し出力させる。Next, the operation in the learning process will be described. The multilayer neural network 1 performs learning using a learning input signal from the terminal 2 and a binary teacher signal from the terminal 3. In the weighting coefficient update error signal generator 10, for the output unit in which the incorrect binary output unit signal is detected by the correctness determination signal from the output correctness determination unit 11,
The error signal obtained by subtracting the output unit signal from the binary teacher signal is output as the weighting coefficient update error signal with the amplitude reduced by about Dm3 as shown in equation (3), while the correct output unit signal is given. In the output unit, when the absolute value of the error signal is less than or equal to the given first threshold value dm, the weighting coefficient whose amplitude becomes smaller than the constant Dm1 (however ≧ 0) as the distance from the teacher signal is increased with the opposite polarity. An updated error signal is generated and output, and if the absolute value of the error signal is larger than the threshold, D with the same polarity
A weight coefficient update error signal having an amplitude as small as m2 is generated and output.
【0015】ここで、2値あるいは多値教師信号を用い
た場合の重み係数更新誤差信号の1生成方法を式を用い
て以下に示す。Here, a method for generating one of the weighting coefficient update error signals in the case of using a binary or multi-valued teacher signal will be shown below by using an equation.
【0016】 出力ユニットの多値出力ユニット信号が正解の場合、 |Tm−Ym|≦dmの時、 Em=Tm−Ym−Dm1・sgn(Tm−Ym) (1) 但し Dm1>dm |Tm−Ym|>dmの時、 Em=Tm−Ym−Dm2・sgn(Tm−Ym) (2) 但し dm≧Dm2 出力ユニットの多値出力ユニット信号が不正解の場合、 Em=Tm−Ym−Dm3・sgn(Tm−Ym) (3) ここで、 sgn(x)= 1:x≧0 =−1:x<0、 (4)[0016] If the multi-valued output unit signal of the output unit is correct, When | Tm−Ym | ≦ dm, Em = Tm-Ym-Dm1 · sgn (Tm-Ym) (1) However, Dm1> dm When | Tm-Ym |> dm, Em = Tm-Ym-Dm2 · sgn (Tm-Ym) (2) However, dm ≧ Dm2 If the multilevel output unit signal of the output unit is incorrect, Em = Tm-Ym-Dm3 · sgn (Tm-Ym) (3) here, sgn (x) = 1: x ≧ 0 = -1, x <0, (4)
【0017】mは出力ユニット番号(1≦m≦M)、E
mは出力ユニットmの重み係数更新誤差信号、Tmは出
力ユニットmの多値教師信号(2値の場合は、0または
1)、Ymは出力ユニットmの出力ユニット信号、dm
は出力ユニットmに対する正の定数、Dm1は出力ユニ
ットmに対する0または正の定数、Dm2は出力ユニッ
トmに対する正の定数、Dm3は出力ユニットmに対す
る正の定数である。M is an output unit number (1≤m≤M), E
m is a weight coefficient update error signal of the output unit m, Tm is a multivalued teacher signal (0 or 1 in the case of binary) of the output unit m, Ym is an output unit signal of the output unit m, dm
Is a positive constant for the output unit m, Dm1 is 0 or a positive constant for the output unit m, Dm2 is a positive constant for the output unit m, and Dm3 is a positive constant for the output unit m.
【0018】ここで、dmを第1のスレショルドとし、
第1のスレショルドを収束領域と定めれば、連続量の教
師信号を扱うニューラルネットワークにも同様に適用出
来る。重み係数制御器5では、この重み係数更新誤差信
号を用いてバックプロパゲーションアルゴリズムにより
重み係数修正を行い、誤差信号の電力が最小となるよう
学習を繰り返す。Where dm is the first threshold,
If the first threshold is defined as the convergence region, it can be similarly applied to a neural network that handles a continuous amount of teacher signals. The weighting factor controller 5 uses the weighting factor update error signal to correct the weighting factor by the back propagation algorithm, and repeats learning so that the power of the error signal is minimized.
【0019】また、学習を進める過程で、ローカルミニ
マム捕獲状態検出器15において、不正解出力ユニット
最小誤差検出器13からの出力である不正解出力ユニッ
ト最小誤差が与えられた第2のスレショルドより大きく
なると、非常に安定したローカルミニマムと見做しロー
カルミニマム捕獲状態として出力端子16に検出出力を
送出する。この時、検出出力に従って重み係数更新誤差
信号生成器10内のDm1及びDm3を、あるいは更に
Dm2やdmを大きくすれば、非常に安定したローカル
ミニマムからも容易に逃れられる。Further, in the course of learning, in the local minimum capture state detector 15, the incorrect output unit minimum error output from the incorrect output unit minimum error detector 13 becomes larger than the given second threshold. Then, it is regarded as a very stable local minimum, and the detection output is sent to the output terminal 16 as the local minimum capture state. At this time, if Dm1 and Dm3 in the weighting factor update error signal generator 10 or Dm2 and dm are further increased according to the detection output, it is possible to easily escape from a very stable local minimum.
【0020】また、ローカルミニマム捕獲状態検出器1
5において、不正解出力ユニット最小誤差検出器13か
らの出力である不正解出力ユニット最小誤差あるいは正
解出力ユニット最小余裕検出器14からの出力である正
解出力ユニット最小余裕が、与えられた第2のスレショ
ルドを越えた状態から一旦スレショルド以下となり、再
びスレショルドを急激に越えた場合には、異なる安定な
ローカルミニマム捕獲状態に移ったと見做す。Further, the local minimum capture state detector 1
5, the incorrect output unit minimum error which is the output from the incorrect output unit minimum error detector 13 or the correct output unit minimum allowance which is the output from the correct output unit minimum margin detector 14 is given by the second If the threshold is exceeded and then falls below the threshold, and the threshold is rapidly exceeded again, it is considered that a different stable local minimum capture state has been entered.
【0021】更に、安定なローカルミニマム捕獲状態と
なった後、不正解出力ユニット最小誤差検出器13から
の出力である不正解出力ユニット最小誤差が、学習回数
と共に第3のスレショルドを越えた状態から徐々に小さ
くなり、この第3のスレショルド以下となり、多値化の
ための多値識別スレショルドに近づくと、安定したロー
カルミニマム捕獲状態から放れ、収束過程にあるとみな
し、dm、Dm1、Dm2及びDm3の値を小さくして
も良い。Further, after the stable local minimum capture state is reached, the incorrect output unit minimum error output from the incorrect output unit minimum error detector 13 exceeds the third threshold together with the learning count. It gradually becomes smaller than this third threshold, and when it approaches the multilevel discrimination threshold for multileveling, it is considered that the local minimum capture state is released and it is considered to be in the convergence process, and dm, Dm1, Dm2 and Dm3. The value of may be reduced.
【0022】出力正誤判定器11内において、誤りがな
くなり多値教師信号と全ての多値出力ユニット信号とが
それぞれ一致した収束状態を一旦達成した後は、重み係
数更新誤差信号生成器10において誤差信号をそのまま
重み係数更新誤差信号として用いて、重み係数制御器5
にて重み係数を更新してもよい。また、正解出力ユニッ
ト最小余裕検出器14の出力信号が予め与えられた第4
のスレショルドを越えると、動作モード制御器12から
学習終了信号を送出し、多層ニューラルネットワーク1
の学習を終了させてもよい。これにより、不必要な学習
を避けるとともに汎化性を大きく出来る。After the error is eliminated and the multivalued teacher signal and all the multivalued output unit signals have reached the converged state in the output correctness / incorrectness determiner 11, the error is generated in the weighting coefficient update error signal generator 10. The signal is used as it is as the weighting factor update error signal, and the weighting factor controller 5
The weighting factor may be updated at. In addition, the output signal of the correct output unit minimum margin detector 14 is given in advance by the fourth signal.
When the threshold of is exceeded, the learning end signal is sent from the operation mode controller 12, and the multilayer neural network 1
The learning of may be ended. This can avoid unnecessary learning and increase generalization.
【0023】尚、本発明の学習方式は、多値ニューラル
ネットワークの他に連続量の教師信号を扱うニューラル
ネットワークにおいても、教師信号に収束し正解とみな
す領域を設けることにより、上記と同様な方式を適用で
き一般の教師信号を用いたニューラルネットワークの学
習に対しても幅広く適用できる。The learning method according to the present invention is similar to the above method in the neural network which handles a continuous amount of teacher signals in addition to the multi-valued neural network, by providing a region which is regarded as a correct answer by converging to the teacher signals. Can be widely applied to the learning of neural networks using general teacher signals.
【0024】以上の実施例において、多層ニューラルネ
ットワークを前提に説明したが、教師信号を利用して学
習させるニューラルネットワークであれば、上記以外の
ニューラルネットワークを用いても良い。また、ここで
は、2値ニューラルネットワークを例にあげ説明した
が、説明は省略するが連続量の教師信号を持ったニュー
ラルネットワークでも本学習方式は適用できる。In the above embodiments, the explanation has been made on the premise of the multilayer neural network, but a neural network other than the above may be used as long as it is a neural network which performs learning by using a teacher signal. Further, although a binary neural network has been described as an example here, although the description is omitted, the present learning method can also be applied to a neural network having a continuous amount of teacher signals.
【0025】[0025]
【発明の効果】以上述べたように、本発明のニューラル
ネットワークの学習方式において、学習を進めても多値
教師信号と多値出力ユニット信号との間の誤り個数が変
化しない非常に安定したローカルミニマムに陥っている
場合には、不正解出力ユニット最小誤差検出あるいは更
に正解出力ユニット最小余裕検出とを用いたローカルミ
ニマム捕獲状態検出器15を介してこれを検出し、正解
を与える出力ユニットにおける重み係数更新誤差信号の
振幅あるいは更に極性を調整すること、更に不正解の出
力ユニットにおける重み係数更新誤差信号の振幅を調整
することにより、簡単にこのような安定したローカルミ
ニマムからも出ることが出来る。従って、従来方式より
学習回数が10倍から100倍程度著しく短縮される。
また、必要最小限の中間ユニット数あるいは中間層数を
用いて安定に最適状態に収束させることが出来ることか
ら、ハードウェア規模や演算量を少なく出来る。As described above, in the learning method of the neural network of the present invention, the number of errors between the multi-valued teacher signal and the multi-valued output unit signal does not change even if the learning is advanced, and it is a very stable local. In the case of falling into the minimum, this is detected through the local minimum capture state detector 15 using the incorrect output unit minimum error detection or the correct output unit minimum margin detection, and the weight in the output unit giving the correct answer. By adjusting the amplitude or further polarity of the coefficient update error signal, and further adjusting the amplitude of the weighting coefficient update error signal at the incorrect output unit, one can easily get out of such a stable local minimum. Therefore, the number of times of learning is remarkably reduced by 10 to 100 times as compared with the conventional method.
Further, since it is possible to stably converge to the optimum state by using the minimum required number of intermediate units or the number of intermediate layers, the hardware scale and the amount of calculation can be reduced.
【0026】本発明の学習方式を用いた多値ニューラル
ネットワークは、従来方式に比べて少ない中間層ユニッ
ト数あるいは中間層を用い、初期依存性もなく且つ低い
演算精度を持った重み係数で重み係数が高速かつ安定に
収束し、所望の多値出力信号を送出することができる。
このことから、従来技術では実現が困難な大規模な多値
論理回路などを本発明を用いた多値ニューラルネットワ
ークにより短時間で自由に設計し実現することや、これ
まで迅速な学習が必要で、且つ完全な収束が要求される
人口知能システムや検索システム、パターン認識、デー
タ変換、データ圧縮、多値画像処理さらには通信システ
ムなどへの幅広い応用ができるなどの非常に幅広い効果
を有している。The multi-valued neural network using the learning method of the present invention uses a smaller number of intermediate layer units or intermediate layers as compared with the conventional method, has no initial dependence, and has a low calculation accuracy. Can converge at high speed and stably, and a desired multilevel output signal can be transmitted.
From this, it is necessary to freely design and realize a large-scale multi-valued logic circuit or the like, which is difficult to be realized by the conventional technology, in a short time by the multi-valued neural network using the present invention, and rapid learning so far. In addition, it has a very wide range of effects such as a wide range of applications such as artificial intelligence systems and search systems, pattern recognition, data conversion, data compression, multi-valued image processing, and communication systems that require complete convergence. There is.
【図1】従来の学習方式による多層ニューラルネットワ
ークにおける学習処理の1構成例である。FIG. 1 is a configuration example of a learning process in a multilayer neural network according to a conventional learning method.
【図2】実施例における本発明の学習方式を用いた多層
ニューラルネットワークの学習処理の1構成例である。FIG. 2 is a configuration example of a learning process of a multilayer neural network using the learning method of the present invention in the embodiment.
1 多層ニューラルネットワーク
2 入力信号入力端子
21、22、2N 入力信号ユニット入力端子
3 教師信号入力端子
31、32、3M 教師信号ユニット入力端子
4、41、42、4M 減算器
5 重み係数制御器
6、61、62、6M、7、71、72、7M 2値ス
レショルド回路
8 一致検出器
9 動作モード制御器
10、101、102、10M 重み係数更新誤差信号
生成器
11 学習判定器
12 動作モード制御器
13 不正解出力ユニット最小誤差検出器
14 正解出力ユニット最小余裕検出器
15 ローカルミニマム捕獲状態検出器
16 ローカルミニマム捕獲状態検出器出力端子1 Multi-layer neural network 2 Input signal input terminal 2 1 , 2 2 , 2 N Input signal unit input terminal 3 Teacher signal input terminal 3 1 , 3 2 , 3 M Teacher signal unit input terminal 4, 4 1 , 4 2 , 4 M Subtractor 5 Weighting factor controller 6, 6 1 , 6 2 , 6 M , 7, 7 1 , 7 2 , 7 M Binary threshold circuit 8 Matching detector 9 Operation mode controller 10, 10 1 , 10 2 , 10 M weight coefficient update error signal generator 11 learning determiner 12 operation mode controller 13 incorrect output unit minimum error detector 14 correct output unit minimum margin detector 15 local minimum capture state detector 16 local minimum capture state detector output terminal
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−15860(JP,A) 特開 平4−251392(JP,A) 特開 平3−218559(JP,A) 八塚陽太郎,「誤差摂動による2値3 層ニューラルネットワークの高速収束 化」,電子情報通信学会1995年総合大会 講演論文集,日本,社団法人電子情報通 信学会,1995年 3月10日,第1分冊, pp.24 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)─────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-4-15860 (JP, A) JP-A-4-251392 (JP, A) JP-A-3-218559 (JP, A) Yotaro Yatsuka, “Error Fast Convergence of Binary 3-Layer Neural Network by Perturbation ", Proc. Of IEICE General Conference 1995, Japan, The Institute of Electronics, Information and Communication Engineers, March 10, 1995, 1st volume, pp. 24 (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 JST file (JOIS) CSDB (Japan Patent Office)
Claims (4)
ューラルネットワークにおいて、該多値教師信号から、
該多値ニューラルネットワークの多値出力ユニット信号
が該多値教師信号と一致し正解である出力ユニットで
は、該多値教師信号から出力ユニット信号を差し引いた
誤差信号の絶対値が第1のスレショルド以下であると、
該誤差信号と逆極性を持ち該多値教師信号から離れるに
従い振幅が小さくなる重み係数更新誤差信号を生成し、
該誤差信号の絶対値が該第1のスレショルドより大きい
と、該誤差信号以下の振幅を持った同極性の重み係数更
新誤差信号を生成し、該多値出力ユニット信号が該多値
教師信号と一致しない不正解である出力ユニットでは、
前記多値教師信号から出力ユニット信号を差し引いた誤
差信号以下の振幅を持った同極性の重み係数更新誤差信
号を生成し、該重み係数更新誤差信号を用いて重み係数
を更新し、更に、不正解の出力ユニットにおける該誤差
信号の絶対値の最小値を不正解出力ユニット最小誤差と
し、これが第2のスレショルドを超えるとローカルミニ
マム捕獲状態とみなし、これを検出すると、前記重み係
数更新誤差信号の振幅或いは更に前記第1のスレショル
ドを大きくした後、重み係数更新誤差信号を得、重み係
数を更新することを特徴とした多値ニューラルネットワ
ーク学習方式。1. A multi-valued neural network for learning using a multi-valued teacher signal, wherein:
In the output unit in which the multi-valued output unit signal of the multi-valued neural network matches the multi-valued teacher signal and is correct, the absolute value of the error signal obtained by subtracting the output unit signal from the multi-valued teacher signal is less than or equal to the first threshold. Then,
Generating a weighting coefficient update error signal having a polarity opposite to that of the error signal and having an amplitude that decreases as the distance from the multivalued teacher signal increases,
When the absolute value of the error signal is larger than the first threshold, a weighting coefficient update error signal of the same polarity having an amplitude equal to or smaller than the error signal is generated, and the multi-valued output unit signal becomes the multi-valued teacher signal. For output units that are incorrect and do not match,
A weight coefficient update error signal of the same polarity having an amplitude equal to or smaller than the error signal obtained by subtracting the output unit signal from the multi-valued teacher signal is generated, and the weight coefficient is updated using the weight coefficient update error signal. The minimum value of the absolute value of the error signal in the correct output unit is set as the incorrect output unit minimum error, and when it exceeds the second threshold, it is regarded as the local minimum capture state, and when this is detected, the weight coefficient update error signal is detected. A multi-valued neural network learning method characterized in that after the amplitude or the first threshold is increased, a weighting coefficient update error signal is obtained and the weighting coefficient is updated.
ューラルネットワークにおいて、該多値教師信号から、
該多値ニューラルネットワークの多値出力ユニット信号
が該多値教師信号と一致し正解である出力ユニットで
は、該多値教師信号から出力ユニット信号を差し引いた
誤差信号の絶対値が第1のスレショルド以下であると、
該誤差信号と逆極性を持ち該多値教師信号から離れるに
従い振幅が小さくなる重み係数更新誤差信号を生成し、
該誤差信号の絶対値が該第1のスレショルドより大きい
と、該誤差信号以下の振幅を持った同極性の重み係数更
新誤差信号を生成し、該多値出力ユニット信号が該多値
教師信号と一致しない不正解である出力ユニットでは、
該誤差信号以下の振幅を持った同極性の重み係数更新誤
差信号を生成し、該重み係数更新誤差信号を用いて重み
係数を更新し、不正解の出力ユニットにおける誤差信号
の絶対値の最小値を不正解出力ユニット最小誤差とし、
これが第2のスレショルドを超えると同時に、正解の出
力ユニットに対して多値識別スレショルドから出力ユニ
ット信号を差し引いて得た差の絶対値の最小値を正解出
力ユニット最小余裕とし、該第2のスレショルドを超え
るとローカルミニマム捕獲状態とみなし、これを検出
し、前記重み係数更新誤差信号の振幅或いは更に該第1
のスレショルドを大きくした後、重み係数更新誤差信号
を得、重み係数を更新することを特徴とした多値ニュー
ラルネットワーク学習方式。2. A multi-valued neural network for learning using a multi-valued teacher signal,
In the output unit in which the multi-valued output unit signal of the multi-valued neural network matches the multi-valued teacher signal and is correct, the absolute value of the error signal obtained by subtracting the output unit signal from the multi-valued teacher signal is less than or equal to the first threshold. Then,
Generating a weighting coefficient update error signal having a polarity opposite to that of the error signal and having an amplitude that decreases as the distance from the multivalued teacher signal increases,
When the absolute value of the error signal is larger than the first threshold, a weighting coefficient update error signal of the same polarity having an amplitude equal to or smaller than the error signal is generated, and the multi-valued output unit signal becomes the multi-valued teacher signal. For output units that are incorrect and do not match,
A weight coefficient update error signal of the same polarity having an amplitude equal to or smaller than the error signal is generated, the weight coefficient is updated using the weight coefficient update error signal, and the minimum absolute value of the error signal in the incorrect output unit Is the incorrect error output unit minimum error,
At the same time when this exceeds the second threshold, the minimum absolute value of the difference obtained by subtracting the output unit signal from the multilevel discrimination threshold for the correct output unit is defined as the correct output unit minimum margin, and the second threshold is set. When it exceeds, it is regarded as a local minimum capture state, this is detected, and the amplitude of the weighting factor update error signal or further the first
Multi-valued neural network learning method characterized by updating the weighting coefficient by obtaining the weighting coefficient update error signal after increasing the threshold of.
ットワークの学習において、ローカルミニマム捕獲状態
となった後に、更に、前記不正解出力ユニット最小誤差
が、第3のスレショルドより小さくなると、前記重み係
数更新誤差信号の振幅或いは更に前記第1のスレショル
ドを小さくして、重み係数更新誤差信号を得、重み係数
を更新することを特徴とした多値ニューラルネットワー
ク学習方式。3. The learning of the multivalued neural network according to claim 1, wherein when the minimum error output unit minimum error becomes smaller than a third threshold after a local minimum capture state is entered, the weight is reduced. A multi-valued neural network learning method characterized in that the amplitude of the coefficient update error signal or further the first threshold is reduced to obtain a weight coefficient update error signal and the weight coefficient is updated.
ルネットワークにおける学習において、前記多値出力ユ
ニット信号の全てが対応した前記多値教師信号とそれぞ
れ一致した後、正解の出力ユニットに対して多値識別ス
レショルドから出力ユニット信号を差し引いて得た差の
絶対値の最小値からなる正解出力ユニット最小余裕が第
4のスレショルドより大きくなると、学習における重み
係数の更新を終了させることを特徴とした多値ニューラ
ルネットワーク学習方式。4. The learning in the multi-valued neural network according to claim 1, 2 or 3, wherein after all of the multi-valued output unit signals match the corresponding multi-valued teacher signals, the correct output unit is selected. When the correct output unit minimum margin, which is the minimum absolute value of the difference obtained by subtracting the output unit signal from the multilevel discrimination threshold, becomes larger than the fourth threshold, the updating of the weighting coefficient in learning is terminated. Multi-valued neural network learning method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22701495A JP3367295B2 (en) | 1995-08-14 | 1995-08-14 | Multi-valued neural network learning method |
US08/923,333 US5764860A (en) | 1995-03-09 | 1997-09-04 | Learning method for multi-level neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22701495A JP3367295B2 (en) | 1995-08-14 | 1995-08-14 | Multi-valued neural network learning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0954763A JPH0954763A (en) | 1997-02-25 |
JP3367295B2 true JP3367295B2 (en) | 2003-01-14 |
Family
ID=16854171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22701495A Expired - Fee Related JP3367295B2 (en) | 1995-03-09 | 1995-08-14 | Multi-valued neural network learning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3367295B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378712B (en) * | 2021-06-10 | 2023-07-04 | 北京百度网讯科技有限公司 | Training method of object detection model, image detection method and device thereof |
-
1995
- 1995-08-14 JP JP22701495A patent/JP3367295B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
八塚陽太郎,「誤差摂動による2値3層ニューラルネットワークの高速収束化」,電子情報通信学会1995年総合大会講演論文集,日本,社団法人電子情報通信学会,1995年 3月10日,第1分冊,pp.24 |
Also Published As
Publication number | Publication date |
---|---|
JPH0954763A (en) | 1997-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Combined genetic algorithm optimization and regularized orthogonal least squares learning for radial basis function networks | |
Corwin et al. | An iterative method for training multilayer networks with threshold functions | |
US5764860A (en) | Learning method for multi-level neural network | |
CN116341558A (en) | Multi-modal emotion recognition method and model based on multi-level graph neural network | |
JP3367295B2 (en) | Multi-valued neural network learning method | |
CN108574653B (en) | Signal blind detection method based on double Sigmoid hysteresis noise chaotic neural network | |
US5870728A (en) | Learning procedure for multi-level neural network | |
Al-Nima et al. | Design a technology based on the fusion of genetic algorithm, neural network and fuzzy logic | |
Rangarajan et al. | Markov random fields and neural networks with applications to early vision problems | |
JP3368774B2 (en) | neural network | |
Looney | Neural networks as expert systems | |
JP3367264B2 (en) | Neural network learning method | |
JPH0991264A (en) | Method and device for optimizing neural network structure | |
Vinod et al. | Growing nonuniform feedforward networks for continuous mappings | |
JP3277648B2 (en) | Parallel neural network | |
Umano et al. | Acquisition of fuzzy rules using fuzzy neural networks with forgetting | |
CN110991480A (en) | Attention mechanism-based sparse coding method | |
KR102642528B1 (en) | Artificial intelligence system and artificial neural network learning method thereof | |
JP4586420B2 (en) | Multilayer neural network learning apparatus and software | |
Majewski et al. | Extracting symbolic function expressions by means of neural networks | |
Gong et al. | Surrogate models based on individual's interval fitness in interactive genetic algorithms | |
JPH1049509A (en) | Neural network learning system | |
Yao | Learning of decision regions based on the genetic algorithm | |
Wang et al. | Second-Order Structure Optimization of Fully Complex-Valued Neural Networks | |
Inoue et al. | On-line learning of non-monotonic rules by simple perceptron |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021008 |
|
LAPS | Cancellation because of no payment of annual fees |