JPH0696046A - Learning processor of neural network - Google Patents

Learning processor of neural network

Info

Publication number
JPH0696046A
JPH0696046A JP4244467A JP24446792A JPH0696046A JP H0696046 A JPH0696046 A JP H0696046A JP 4244467 A JP4244467 A JP 4244467A JP 24446792 A JP24446792 A JP 24446792A JP H0696046 A JPH0696046 A JP H0696046A
Authority
JP
Japan
Prior art keywords
learning
equation
layer
neural network
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4244467A
Other languages
Japanese (ja)
Inventor
Masato Kobayashi
正人 小林
Takashi Yamaguchi
高司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4244467A priority Critical patent/JPH0696046A/en
Publication of JPH0696046A publication Critical patent/JPH0696046A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the learning processor of the neural network which increases the efficiency of the whole learning and makes the learning fast and precise. CONSTITUTION:The structure of the neural network is changed between pattern conversion and the learning. At the time of the pattern conversion, a sigmoid function is applied to for units of an output layer as before. At the time of the learning, on the other hand, nonlinear conversion is not applied to the units of the output layer 6, an inverse sigmoid function 8 is applied to a tutor signal 9, and the difference is an error signal 11. A load calculating circuit 13 learns a synapsis load 5 by least square algorithm and a load calculating circuit 14 learns a synapsis load 3 by an error inverse propagating method.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、記憶,推論,判断,予
測,パターン認識,制御,最適化などに用いられる階層
型ニューラルネットワークの高速な学習処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-speed learning processing device for a hierarchical neural network used for memory, inference, judgment, prediction, pattern recognition, control, optimization and the like.

【0002】[0002]

【従来の技術】ニューラルネットワークは、生物の神経
素子の働きを模した多入力一出力の人工的神経素子(ユ
ニット)を多数層状に結合することにより、信号処理,
情報処理を実現するネットワークの総称である。
2. Description of the Related Art A neural network is a signal processing system in which a plurality of input-output artificial neural elements (units) simulating the functions of biological neural elements are connected in layers.
It is a general term for networks that realize information processing.

【0003】図2は、3層の階層型ニューラルネットワ
ークの構成例で、i個のユニットを持つ入力層2、j個
のユニットを持つ中間層4、k個のユニットを持つ出力
層7からなる。ここでは、中間層4を一層としているが
複数層あってもよい。図2において、信号の伝達は以下
に示す通りである。
FIG. 2 shows an example of the structure of a three-layer hierarchical neural network, which comprises an input layer 2 having i units, an intermediate layer 4 having j units, and an output layer 7 having k units. . Here, the intermediate layer 4 is a single layer, but there may be a plurality of layers. In FIG. 2, signal transmission is as follows.

【0004】xi をネットワークの入力信号1,wji
入力層と中間層間のシナプス荷重3,θj をオフセット
量とすると、中間層4の各ユニットの内部状態信号uj
は次式で表される。
When x i is the input signal of the network 1, w ji is the synapse weight between the input layer and the intermediate layer, and θ j is the offset amount, the internal state signal u j of each unit of the intermediate layer 4 is represented.
Is expressed by the following equation.

【0005】[0005]

【数1】 [Equation 1]

【0006】記述を簡単化するために上式を新たに次式
に置き改める。
In order to simplify the description, the above equation is newly replaced with the following equation.

【0007】[0007]

【数2】 [Equation 2]

【0008】これより、中間層4のjユニットの出力h
jは次式で表される。
From this, the output h of the j unit of the intermediate layer 4
j is expressed by the following equation.

【0009】[0009]

【数3】 hj=f(uj) …(数3) ここで、f(・)は、例えば、次式のシグモイド関数が一
般に用いられている。
## EQU00003 ## h j = f (u j ) (Equation 3) Here, for f (·), for example, a sigmoid function of the following equation is generally used.

【0010】[0010]

【数4】 [Equation 4]

【0011】同様に、vkjを中間層と出力層間のシナプ
ス荷重5、φk をオフセット量とすると、出力層7の各
ユニットの内部状態信号sk は次式で表される。
Similarly, when v kj is the synapse load 5 between the intermediate layer and the output layer and φ k is the offset amount, the internal state signal s k of each unit of the output layer 7 is expressed by the following equation.

【0012】[0012]

【数5】 [Equation 5]

【0013】記述を簡単化するために上式を新たに次式
に置き改める。
In order to simplify the description, the above equation is newly replaced with the following equation.

【0014】[0014]

【数6】 [Equation 6]

【0015】これより、出力層7のkユニットの出力y
k は次式で表される。
From this, the output y of the k unit of the output layer 7
k is expressed by the following equation.

【0016】[0016]

【数7】 yk=f(sk) …(数7) 以上、階層型ニューラルネットワークは、入力層2に与
えられた入力データ1を、各ユニットが処理して、次の
層へ伝達し、出力層7から入力データに応じた出力デー
タ10が得られるようになっている。
Y k = f (s k ) (Equation 7) As described above, in the hierarchical neural network, each unit processes the input data 1 given to the input layer 2 and transfers it to the next layer. The output data 7 corresponding to the input data is obtained from the output layer 7.

【0017】従来から、階層型ニューラルネットワーク
のシナプス荷重の学習方法として誤差逆伝播法が広く用
いられてきたラメルハルト,ヒルトン アンド ウィリ
アムス;“ラーニング インターナル レプレゼンテー
ション バイ エラー バッシ プロパゲーション”(R
umelhart,Hinton,and Williams:“Learning InternalRe
presenations by Error Back Propagation”, In Paral
lel DistributedProcessing,Vol.1,pp318−36
2,MIT Press(1986))。
The error back-propagation method has been widely used as a learning method for synapse weights of a hierarchical neural network, as previously described by Ramelhardt, Hilton and Williams; “Learning Internal Representation By Error Bass Propagation” (R
umelhart, Hinton, and Williams: “Learning InternalRe
presenations by Error Back Propagation ”, In Paral
lel Distributed Processing, Vol.1, pp318-36
2, MIT Press (1986)).

【0018】図3は、図2の階層型ニューラルネットワ
ークに誤差逆伝播法を適用した構成例である。以下、図
3を用いて誤差逆伝播法を説明する。
FIG. 3 is an example of a configuration in which the error back propagation method is applied to the hierarchical neural network of FIG. The error back propagation method will be described below with reference to FIG.

【0019】入力層2にパターンPの入力データ1が入
力された時、出力層7のユニットkに出てきてもらいた
い出力データを教師信号ymk9とする。この時、教師信
号9と実際の出力データ10の誤差12を
When the input data 1 of the pattern P is input to the input layer 2, the output data which the unit k of the output layer 7 wants to output is the teacher signal y mk 9. At this time, the error 12 between the teacher signal 9 and the actual output data 10

【0020】[0020]

【数8】 ek=ymk−yk …(数8) と定義すると、ある一つのパターンPに対する二乗誤差
の評価関数EP は次式で表される。
## EQU00008 ## Defining e k = y mk -y k (Equation 8), the square error evaluation function E P for a certain pattern P is expressed by the following equation.

【0021】[0021]

【数9】 [Equation 9]

【0022】まず、荷重計算回路15の設計を行う。こ
れは、シナプス荷重vkjの変化量を最急降下法より以下
のようになる。
First, the load calculation circuit 15 is designed. This is as follows based on the steepest descent method for the amount of change in the synaptic load v kj .

【0023】[0023]

【数10】 [Equation 10]

【0024】次に、荷重計算回路16の設計を行う。こ
れは、シナプス荷重wkjの変化量を最急降下法より以下
のようになる。
Next, the load calculation circuit 16 is designed. This is as follows from the steepest descent method for the amount of change in the synaptic weight w kj .

【0025】[0025]

【数11】 [Equation 11]

【0026】層の数が4層以上の場合も同様にして、逐
次、誤差を前段階の層における誤差に換算することを繰
り返すことにより、全ての層間のシナプス荷重を決定す
ることができる。
Similarly, when the number of layers is four or more, the synapse load between all the layers can be determined in the same manner by repeatedly converting the error into the error in the previous layer.

【0027】また、数9と数10の誤差逆伝播法の高速
化を達成するために、前回の修正量を考慮する学習法が
知られている。前回(n−1)ステップの修正量をΔv
(n−1),Δw(n−1),今回(n)ステップの修
正量をΔv(n),Δw(n)とすると次式となる。
In addition, a learning method is known in which the previous correction amount is taken into consideration in order to achieve the speedup of the error backpropagation method of Expressions 9 and 10. The correction amount of the previous (n-1) step is Δv
(N−1), Δw (n−1), and the correction amounts of the (n) th step this time are Δv (n) and Δw (n), the following equation is obtained.

【0028】[0028]

【数12】 [Equation 12]

【0029】[0029]

【数13】 [Equation 13]

【0030】これは、前回の修正量を加えることによっ
て、シナプス荷重の変化に一種の慣性を生じさせ、誤差
曲面の細かい凹凸を無視する効果が得られる。
This is because by adding the correction amount of the previous time, a kind of inertia is generated in the change of the synapse load, and the effect of ignoring the fine irregularities of the error curved surface can be obtained.

【0031】ところで、上記の学習はあるパターンPの
入出力の組に対する誤差EP を最小化するもので、逐
次、修正学習と呼ばれている。一方、全パターンの入出
力の組に対する以下の誤差量ET を最小化するには、逐
次、修正学習で求めたシナプス荷重を加算し、全パター
ンについて加算されたシナプス荷重で修正を行う必要が
ある。これは一括修正学習と呼ばれている。
By the way, the above learning is to minimize the error E P with respect to the input / output group of a certain pattern P, and is sequentially called correction learning. On the other hand, in order to minimize the following error amount E T with respect to the input / output pairs of all patterns, it is necessary to sequentially add the synaptic loads obtained by the correction learning and perform correction with the added synaptic loads for all patterns. is there. This is called batch modification learning.

【0032】[0032]

【数14】 [Equation 14]

【0033】また、従来、上記誤差逆伝播法の学習速度
の高速化を図る手法が、特開平3−252887号公報に記載
されている。そこでは、出力の内部信号(sk:数6)
と教師信号(ymk)を逆シグモイド変換を施した教師内
部信号との差を用いて上記誤差伝播法で学習を行う手法
が記載されている。
Further, conventionally, a method for increasing the learning speed of the above-mentioned error back-propagation method is described in Japanese Patent Laid-Open No. 3-252887. There, the internal signal of the output (s k : Equation 6)
And a teacher signal (y mk ) and a teacher internal signal subjected to inverse sigmoid transformation are used to perform learning by the above error propagation method.

【0034】[0034]

【発明が解決しようとする課題】しかしながら、上記従
来技術の誤差逆伝播法および特開平3-252887号公報に記
載のものは、入力層と中間層間のシナプス荷重wjiと、
中間層と出力層間のシナプス荷重vkjの両方の荷重を最
急降下法に基づいて決定しているため、上述の二乗誤差
の総和EP を十分に小さくして学習を終了するまでに要
する学習の繰り返し回数が膨大な値になってしまい、効
率の良い学習処理を行うことができないという問題があ
った。
However, the above-mentioned conventional back-propagation method and the method disclosed in Japanese Patent Application Laid-Open No. 3-252887 disclose the synapse load w ji between the input layer and the intermediate layer,
Since the weights of both the synapse weights v kj between the intermediate layer and the output layer are determined based on the steepest descent method, the sum of the squared errors E P described above is made sufficiently small and the learning required until the learning is finished. There is a problem that the number of iterations becomes a huge value and efficient learning processing cannot be performed.

【0035】さらに詳細に述べるならば、従来の誤差逆
伝播法の学習手順は、入力層と中間層間のシナプス荷重
jiを更新する際、数11で示されているように中間層
と出力層間のシナプス荷重vkjが正しい値を示している
ものとして学習を行い、同様に、シナプス荷重vkjを更
新する際、数10で示されているように中間層の出力h
j の情報が必要となりシナプス荷重wjiが正しい値であ
るものとして学習を行っている。すなわち、従来の誤差
逆伝播法は、シナプス荷重wji,vkjの更新を互いに独
立に学習しているにもかかわらず、その両方のシナプス
荷重を、一般に収束が遅いと言われている誤差曲面の勾
配に基づいて決定する最急降下法で学習する構成となっ
ているため、学習時間が膨大な値になってしまうという
問題があった。
More specifically, the learning procedure of the conventional error back-propagation method is as follows, when updating the synapse weight w ji between the input layer and the intermediate layer, as shown in Equation 11. perform learning as synaptic weights v kj of indicates the correct value, likewise, synapse load v when updating kj, output h of the intermediate layer as shown by the number 10
The information of j is needed, and the learning is performed assuming that the synaptic weight w ji is a correct value. That is, although the conventional error back-propagation method learns the update of the synapse weights w ji and v kj independently of each other, both synapse weights of the error curved surface, which are generally said to have slow convergence, are calculated. Since the learning is performed by the steepest descent method that is determined based on the gradient of, there is a problem that the learning time becomes a huge value.

【0036】本発明の目的は、従来の問題点に鑑み、階
層型ニューラルネットワークの中間層と出力層間のシナ
プス荷重の学習を高速高精度化することで、全体の学習
の効率を高め、学習の高速高精度化を達成するニューラ
ルネットワークの学習処理装置を提供することにある。
In view of the conventional problems, an object of the present invention is to improve the learning efficiency of the whole learning by improving the learning speed of the synapse weight between the intermediate layer and the output layer of the hierarchical neural network with high accuracy. It is to provide a learning processing device for a neural network that achieves high speed and high accuracy.

【0037】[0037]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、シグモイド状の非線形関数を内部にも
ち、人工的神経素子に対応する信号処理を行う複数のユ
ニットにより構成された、入力層,中間層、および出力
層を備える信号処理部と、前記入力層に入力される入力
信号パターンに対する該出力層の出力値と教師信号との
誤差信号に基づいて前記各ユニット間の結合の強さの係
数を前記出力層側から前記入力層側に向かって順次に繰
り返し計算する学習処理部とを備えたニューラルネット
ワークの学習処理装置において、前記中間層と前記出力
層間の前記結合の強さの係数を学習する第一の学習処理
部と、それ以外の前記結合の強さの係数を学習する前記
第一の学習処理部とは異なる第二の学習処理部を設けた
ものである。
In order to achieve the above-mentioned object, the present invention comprises a plurality of units which have a sigmoid-like nonlinear function inside and which perform signal processing corresponding to an artificial neural element, A signal processing unit including an input layer, an intermediate layer, and an output layer, and a coupling between the units based on an error signal between an output value of the output layer and a teacher signal with respect to an input signal pattern input to the input layer. In a learning processing device of a neural network, comprising: a learning processing unit that sequentially and repeatedly calculates a coefficient of strength from the output layer side toward the input layer side, the strength of the coupling between the intermediate layer and the output layer. The second learning processing unit different from the first learning processing unit that learns the coefficient and the other first learning processing unit that learns the coefficient of the coupling strength is provided.

【0038】また、本発明は、前記第一の学習処理部と
前記第二の学習処理部は、前記教師信号を前記シグモイ
ド状の非線形関数の逆関数に通した値を用いて前記誤差
信号を決定し、前記結合の強さの係数を計算する学習処
理部を設けたものである。
Further, in the present invention, the first learning processing unit and the second learning processing unit use the value obtained by passing the teacher signal through an inverse function of the sigmoid-like nonlinear function to obtain the error signal. A learning processing unit for determining and calculating the coefficient of the coupling strength is provided.

【0039】さらに、本発明は、前記第一の学習処理部
は、前記誤差信号より得られる誤差曲面の最小値に向か
って前記結合の強さの係数を計算する最小二乗法を用
い、前記第二の学習処理部は、該誤差曲面の最急降下方
向に向かって前記結合の強さの係数を計算する学習処理
部を設けたものである。
Further, in the present invention, the first learning processing section uses the least squares method for calculating the coefficient of the coupling strength toward the minimum value of the error curved surface obtained from the error signal, The second learning processing unit is provided with a learning processing unit that calculates the coefficient of the coupling strength in the steepest descent direction of the error curved surface.

【0040】[0040]

【作用】本発明の学習方法は、中間層と出力層間のシナ
プス荷重の学習を高速高精度化することで階層型ニュー
ラルネットワークの学習の高速高精度化を図るものであ
る。すなわち、シナプス荷重vkjを最小二乗法アルゴリ
ズムに基づき高速高精度学習させ、その他のシナプス荷
重は従来の誤差逆伝播法で学習させることにより、中間
層と出力層間のシナプス荷重の学習が極小値に陥ること
なく、最小値に収束させることができる。
According to the learning method of the present invention, learning of the synapse weight between the intermediate layer and the output layer is performed at high speed and with high accuracy, thereby achieving high speed and high accuracy of learning of the hierarchical neural network. That is, the synapse weight v kj is learned at high speed and high accuracy based on the least squares method algorithm, and other synapse weights are learned by the conventional error backpropagation method, so that the learning of the synapse weight between the intermediate layer and the output layer is minimized. It can be converged to the minimum value without falling.

【0041】[0041]

【実施例】以下、本発明の一実施例を図面により詳細に
説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.

【0042】図1は、本発明の学習法で学習を行う時の
3層のニューラルネットワーク構造である。従来の誤差
逆伝播法は、パターン変換時(図2)と学習時(図3)
とでニューラルネットワークの構造に変化はない。ここ
で、パターン変換時とは学習が終了しシナプス荷重を固
定して入力層に入るパターンを変換し、出力層からニュ
ーラルネットワークの解を出力している間を示す。学習
時とは、ある評価関数に従ってシナプス荷重を学習して
いる間を示す。
FIG. 1 shows a three-layer neural network structure when learning is performed by the learning method of the present invention. The conventional error backpropagation method uses pattern conversion (Fig. 2) and learning (Fig. 3).
There is no change in the structure of the neural network. Here, the time of pattern conversion refers to a period during which learning is completed, a synapse weight is fixed, a pattern entering the input layer is converted, and a neural network solution is output from the output layer. “Learning time” refers to a time when learning the synapse weight according to a certain evaluation function.

【0043】一方、本発明の学習法は、パターン変換時
(図2)と学習時(図1)とでニューラルネットワーク
の構造を変化させる。パターン変換時は誤差逆伝播法と
同様に出力層7のユニットに数4のシグモイド関数を施
すが、学習時は出力層6のユニットに非線形変換を施さ
ずに教師信号9を次式の逆シグモイド関数8を施して変
換させる。
On the other hand, the learning method of the present invention changes the structure of the neural network at the time of pattern conversion (FIG. 2) and at the time of learning (FIG. 1). At the time of pattern conversion, the sigmoid function of the equation 4 is applied to the unit of the output layer 7 similarly to the error back propagation method, but at the time of learning, the teacher signal 9 is given the inverse sigmoid of the following equation without performing the nonlinear conversion on the unit of the output layer 6. Function 8 is applied and converted.

【0044】[0044]

【数15】 [Equation 15]

【0045】これより、学習時の出力層6のkユニット
の出力skPは次式となる。
From this, the output s kP of the k unit of the output layer 6 at the time of learning is given by the following equation.

【0046】[0046]

【数16】 [Equation 16]

【0047】ただし、However,

【0048】[0048]

【数17】 [Equation 17]

【0049】[0049]

【数18】 [Equation 18]

【0050】である。ここで、下付きのPはパターンP
に対する信号である。また、パターンPに対する教師信
号ymkP9の逆シグモイド変換をf~1(ymkP)8とする。
It is Here, the subscript P is the pattern P
Is a signal to. Further, the inverse sigmoid transformation of the teacher signal y mkP 9 for the pattern P is defined as f ~ 1 (y mkP ) 8.

【0051】ここで、パターンPに対する誤差信号ekP
11を
Here, the error signal e kP for the pattern P
11

【0052】[0052]

【数19】 ekP=f~1(ymkP)−skP …(数19) とし、全パターンに対する各出力層毎の二乗誤差の評価
関数を次式と定義する。
Equation 19] e kP = f ~ 1 and (y mkP) -s kP ... (Equation 19), the evaluation function of the square error of each output layer to the total pattern is defined as the following equation.

【0053】[0053]

【数20】 [Equation 20]

【0054】まず、荷重計算回路13の設計を行う。
今、誤差EkAをシナプス荷重Vk(式17)に関して最小
化することを考える。すると、シナプス荷重Vk の微小
変化に対する誤差EkAへの影響は以下のように分解で
き、最小点が存在することから下式を零と置く。
First, the load calculation circuit 13 is designed.
Now consider minimizing the error E kA with respect to the synaptic weight V k (equation 17). Then, the influence on the error E kA with respect to the minute change of the synapse load V k can be decomposed as follows, and since the minimum point exists, the following equation is set to zero.

【0055】[0055]

【数21】 [Equation 21]

【0056】これより、上式の右辺第1項が正則なら
ば、VkをVkPと置き
From this, if the first term on the right-hand side of the above equation is regular, Vk is set as VkP.

【0057】[0057]

【数22】 [Equation 22]

【0058】としてVkPを定めればよい。これを逐次式
に書き改めると次式となる。
V kP may be set as Rewriting this into a sequential formula gives the following formula.

【0059】[0059]

【数23】 [Equation 23]

【0060】[0060]

【数24】 [Equation 24]

【0061】ただし、However,

【0062】[0062]

【数25】 [Equation 25]

【0063】[0063]

【数26】 [Equation 26]

【0064】例えば、λ1P=1,λ2P=1とすると上式
は逐次型最小二乗法アルゴリズムとなる。
For example, if λ 1P = 1 and λ 2P = 1 then the above equation is a recursive least squares algorithm.

【0065】また、Also,

【0066】[0066]

【数27】 [Equation 27]

【0067】[0067]

【数28】 [Equation 28]

【0068】と設定すると、ГPのトレースを一定とす
ることもできる。
By setting, the trace of Γ P can be made constant.

【0069】次に、荷重計算回路14の設計を行う。入
力層2と中間層4間のシナプス荷重wji3の学習方法
は、誤差信号11(数19)に対し、従来の誤差逆伝播
法で学習を行う。まず、パターンPに対する二乗誤差を
定義する。
Next, the load calculation circuit 14 is designed. As a learning method of the synapse weight w ji 3 between the input layer 2 and the intermediate layer 4, the error signal 11 (Equation 19) is learned by the conventional error back propagation method. First, the squared error for the pattern P is defined.

【0070】[0070]

【数29】 [Equation 29]

【0071】シナプス荷重wkjの変化量を最急降下法よ
り以下のように定める。
The amount of change in the synaptic weight w kj is determined by the steepest descent method as follows.

【0072】[0072]

【数30】 [Equation 30]

【0073】上式に数13のように前回の修正量を考慮
し高速化することもできる。
It is also possible to increase the speed by considering the previous correction amount as shown in the above equation.

【0074】図4は、本発明の一実施例の実行手順を示
す図である。まず、図1の構成でシナプス荷重の学習
(ステップ401)を、次式の絶対値誤差がある設定値
R 以下になるまで繰り返す(ステップ402)。
FIG. 4 is a diagram showing an execution procedure of an embodiment of the present invention. First, the learning of the synapse load (step 401) is repeated with the configuration of FIG. 1 until the absolute value error of the following equation becomes equal to or less than a set value E R (step 402).

【0075】[0075]

【数31】 [Equation 31]

【0076】次に、シナプス荷重を固定して、図2の構
成でパターン変換を実施する(ステップ403)。この
場合、図1の学習は、読み込み専用メモリ(ROM)と
ランダムアクセスメモリ(RAM)で実施し、図2のパ
ターン変換は、ROMで実施することが可能となる。
Next, the synapse load is fixed and pattern conversion is carried out with the configuration of FIG. 2 (step 403). In this case, the learning shown in FIG. 1 can be executed by the read only memory (ROM) and the random access memory (RAM), and the pattern conversion shown in FIG. 2 can be executed by the ROM.

【0077】図5は、本発明の一実施例の実行手順を示
す図である。まず、図5で説明したのと同様に、図1の
構成でシナプス荷重の学習(ステップ501)を、(数
31)の絶対値誤差がある設定値ER 以下になるまで繰
り返す(ステップ502)。
FIG. 5 is a diagram showing an execution procedure of an embodiment of the present invention. First, as described with reference to FIG. 5, learning of synapse weights (step 501) in the configuration of FIG. 1 is repeated until the absolute value error of (Equation 31) becomes equal to or less than a set value E R (step 502). .

【0078】次に、図2の構成でパターン変換を実施す
る(ステップ503)。この時、式(数31)の絶対値
をパターン変換毎に監視し(ステップ504)、もし、
その値がある設定値ES 以下ならばシナプス荷重をその
まま固定させてパターン変換を繰り返し(ステップ50
6)、その値がある設定値以上ならば図1の構成にネッ
トワークの構造を変化させて、シナプス荷重を学習する
(ステップ5050)。この場合、読み込み専用メモリ
(ROM)とランダムアクセスメモリ(RAM)でネッ
トワークを実施する。
Next, pattern conversion is performed with the configuration of FIG. 2 (step 503). At this time, the absolute value of the equation (Equation 31) is monitored for each pattern conversion (step 504).
If the value is less than or equal to a set value E S, the synaptic weight is fixed as it is and the pattern conversion is repeated (step 50).
6) If the value is above a certain set value, the structure of the network is changed to the configuration of FIG. 1 to learn the synaptic weight.
(Step 5050). In this case, the read only memory (ROM) and the random access memory (RAM) are used to implement the network.

【0079】本発明の学習処理装置の有効性を確認する
ために以下で排他的論理和(XOR)の学習結果を示す。
この問題の応用として、種々のパターン認識が考えられ
る。
In order to confirm the effectiveness of the learning processing device of the present invention, the learning result of exclusive OR (XOR) will be shown below.
Various pattern recognitions can be considered as applications of this problem.

【0080】以下の表1に排他的論理和(XOR)の入
出力関係を示す。
Table 1 below shows the input / output relationship of the exclusive OR (XOR).

【0081】[0081]

【表1】 [Table 1]

【0082】この関係をニューラルネットワークが獲得
するためには、中間層の学習が必要となる。3層ニュー
ラルネットワークの構成で学習を行った。入力層ユニッ
ト数2,中間層ユニット数2,出力層ユニット数1であ
る。全てのシナプス荷重は±1の範囲の乱数で初期化
し、全てのオフセット量は0,+1の範囲の乱数で初期
化した。
In order for the neural network to acquire this relationship, learning of the intermediate layer is necessary. Learning was performed with a three-layer neural network configuration. The number of input layer units is 2, the number of intermediate layer units is 2, and the number of output layer units is 1. All synapse weights were initialized with random numbers in the range of ± 1, and all offset amounts were initialized with random numbers in the range of 0 and +1.

【0083】図6に本発明による学習パラメータγ0
ηに関する学習結果を、図7に従来の誤差逆伝播法によ
る学習パラメータηとαに関する学習結果を示す。縦軸
は、(数31)で定義される絶対値誤差が0.1 以下に
なるのに要した学習のステップ数である。
FIG. 6 shows the learning results for the learning parameters γ 0 and η according to the present invention, and FIG. 7 shows the learning results for the learning parameters η and α by the conventional error back propagation method. The vertical axis represents the number of learning steps required for the absolute value error defined by (Equation 31) to become 0.1 or less.

【0084】本発明の学習方法では、数27のσを1と
し、また、wjiの学習を(数30)で学習を行ってい
る。
In the learning method of the present invention, σ in the equation 27 is set to 1, and learning of w ji is performed by the equation (30).

【0085】一方、従来の誤差逆伝播法では、数12,
数13を用い学習を行っている。
On the other hand, in the conventional error back propagation method,
Learning is performed using Equation 13.

【0086】本発明の学習方法では、最短で27ステッ
プ(γ0=10.0,η=0.01の場合)で学習を終了し
ているのに対し、誤差逆伝播法では最短で153ステッ
プ(η=1.0,α=0.9の場合)で学習を終了してい
る。また、図より誤差逆伝播法はαに対し線形に学習ス
テップ数が減少するのに対し、本発明の学習方法ではγ
0 に対し指数関数的に学習ステップ数が減少するのが分
かる。本発明の学習法は誤差逆伝播法に比べ全体的にみ
て5倍から10倍の高速性が実現できる。
In the learning method of the present invention, the learning is completed in the shortest 27 steps (when γ 0 = 10.0 and η = 0.01), whereas the error back propagation method has the shortest 153 steps. The learning is completed at (η = 1.0, α = 0.9). From the figure, the error backpropagation method linearly reduces the number of learning steps with respect to α, whereas the learning method of the present invention uses γ
It can be seen that the number of learning steps decreases exponentially with respect to 0 . The learning method of the present invention as a whole can realize 5 to 10 times higher speed than the back propagation method.

【0087】なお、上述した実施例では、中間層と出力
層間のシナプス荷重の学習を最小二乗法アルゴリズムを
用いて実施する方法を示したが、本発明は、最小二乗法
アルゴリズムに限定するものではなく、例えば、高速学
習が可能な共役勾配法や、種々の最適化アルゴリズムを
用いても良い。
In the above-described embodiment, the method of learning the synapse weight between the intermediate layer and the output layer by using the least square method algorithm is shown. However, the present invention is not limited to the least square method algorithm. Instead, for example, a conjugate gradient method that enables high-speed learning or various optimization algorithms may be used.

【0088】また、上述した実施例では、3層のニュー
ラルネットワークに対し説明したが、本発明は層数を限
定するものではない。
In the above-mentioned embodiment, the description has been given for the three-layer neural network, but the present invention does not limit the number of layers.

【0089】[0089]

【発明の効果】本発明の学習処理装置および学習方法で
は、中間層と出力層間のシナプス荷重を高速高精度に学
習することが可能であるため、全体としての学習速度と
学習精度を向上させることができる。
According to the learning processing apparatus and the learning method of the present invention, the synapse weight between the intermediate layer and the output layer can be learned at high speed and with high accuracy, so that the learning speed and learning accuracy as a whole are improved. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す学習時におけるニュー
ラルネットワーク構造の説明図。
FIG. 1 is an explanatory diagram of a neural network structure during learning showing an embodiment of the present invention.

【図2】パターン変換時におけるニューラルネットワー
ク構造の説明図。
FIG. 2 is an explanatory diagram of a neural network structure during pattern conversion.

【図3】従来の誤差逆伝播法による学習時のニューラル
ネットワーク構造の説明図。
FIG. 3 is an explanatory diagram of a neural network structure at the time of learning by the conventional back propagation method.

【図4】本発明の一実施例を示す実行手順のフローチャ
ート。
FIG. 4 is a flowchart of an execution procedure showing an embodiment of the present invention.

【図5】本発明の一実施例を示す実行手順のフローチャ
ート。
FIG. 5 is a flowchart of an execution procedure showing an embodiment of the present invention.

【図6】本発明の一実施例による実行結果の説明図。FIG. 6 is an explanatory diagram of an execution result according to an embodiment of the present invention.

【図7】従来の誤差逆伝播法による学習結果の説明図。FIG. 7 is an explanatory diagram of a learning result by the conventional error back propagation method.

【符号の説明】[Explanation of symbols]

1…入力データ、2…入力層、3…シナプス荷重、4…
中間層、5…シナプス荷重、6…出力層、8…逆シグモ
イド関数、9…教師信号、11…誤差信号、13…荷重
計算回路、14…荷重計算回路。
1 ... input data, 2 ... input layer, 3 ... synaptic load, 4 ...
Intermediate layer, 5 ... Synapse load, 6 ... Output layer, 8 ... Inverse sigmoid function, 9 ... Teacher signal, 11 ... Error signal, 13 ... Weight calculation circuit, 14 ... Weight calculation circuit.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年3月22日[Submission date] March 22, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Name of item to be corrected] Brief description of the drawing

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す学習時におけるニュ−
ラルネットワ−ク構造の説明図。
FIG. 1 is a diagram illustrating a new example during learning showing an embodiment of the present invention.
Explanatory drawing of a Lar network structure.

【図2】パタ−ン変換時におけるニュ−ラルネットワ−
ク構造の説明図。
[Fig. 2] Neural network at the time of pattern conversion
FIG.

【図3】従来の誤差逆伝播法による学習時のニュ−ラル
ネットワ−ク構造の説明図。
FIG. 3 is an explanatory diagram of a neural network structure at the time of learning by the conventional back propagation method.

【図4】本発明の一実施例を示す実行手順のフロ−チャ
−ト。
FIG. 4 is a flowchart of an execution procedure showing an embodiment of the present invention.

【図5】本発明の一実施例を示す実行手順のフロ−チャ
−ト。
FIG. 5 is a flowchart of an execution procedure showing an embodiment of the present invention.

【図6】本発明の一実施例による実行結果の説明図。FIG. 6 is an explanatory diagram of an execution result according to an embodiment of the present invention.

【図7】従来の誤差逆伝播法による学習結果の説明図。FIG. 7 is an explanatory diagram of a learning result by the conventional error back propagation method.

【符号の説明】 1…入力デ−タ、2…入力層、3…シナプス荷重、4…
中間層、5…シナプス荷重、6…出力層、8…逆シグモ
イド関数、9…教師信号、11…誤差信号、13…荷重
計算回路、14…荷重計算回路。
[Explanation of Codes] 1 ... Input data, 2 ... Input layer, 3 ... Synapse load, 4 ...
Intermediate layer, 5 ... Synapse load, 6 ... Output layer, 8 ... Inverse sigmoid function, 9 ... Teacher signal, 11 ... Error signal, 13 ... Weight calculation circuit, 14 ... Weight calculation circuit.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】全図[Correction target item name] All drawings

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図1】 [Figure 1]

【図2】 [Fig. 2]

【図4】 [Figure 4]

【図3】 [Figure 3]

【図5】 [Figure 5]

【図6】 [Figure 6]

【図7】 [Figure 7]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】シグモイド状の非線形関数を内部にもち、
人工的神経素子に対応する信号処理を行う複数のユニッ
トにより構成された入力層,中間層、および出力層を備
える信号処理部と、前記入力層に入力される入力信号パ
ターンに対する前記出力層の出力値と教師信号との誤差
信号に基づいて前記各ユニット間の結合の強さの係数を
前記出力層側から前記入力層側に向かって、順次、繰り
返し計算する学習処理部とを備えたニューラルネットワ
ークの学習処理装置において、 前記中間層と前記出力層間の前記結合の強さの係数を学
習する第一の学習処理部と、 それ以外の前記結合の強さの係数を学習する第二の学習
処理部を設けたことを特徴とするニューラルネットワー
クの学習処理装置。
1. A sigmoid-like nonlinear function is provided inside,
A signal processing unit including an input layer, an intermediate layer, and an output layer configured by a plurality of units that perform signal processing corresponding to an artificial neural element, and an output of the output layer with respect to an input signal pattern input to the input layer A neural network including a learning processing unit that sequentially and repeatedly calculates a coefficient of coupling strength between the units from the output layer side to the input layer side based on an error signal between a value and a teacher signal. In the learning processing device, the first learning processing unit that learns the coefficient of the bond strength between the intermediate layer and the output layer, and the second learning process that learns the other coefficient of the bond strength between them. A learning processing device for a neural network, which is provided with a section.
JP4244467A 1992-09-14 1992-09-14 Learning processor of neural network Pending JPH0696046A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4244467A JPH0696046A (en) 1992-09-14 1992-09-14 Learning processor of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4244467A JPH0696046A (en) 1992-09-14 1992-09-14 Learning processor of neural network

Publications (1)

Publication Number Publication Date
JPH0696046A true JPH0696046A (en) 1994-04-08

Family

ID=17119087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4244467A Pending JPH0696046A (en) 1992-09-14 1992-09-14 Learning processor of neural network

Country Status (1)

Country Link
JP (1) JPH0696046A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01113077A (en) * 1987-10-26 1989-05-01 Hea Dr Kk Hair growing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01113077A (en) * 1987-10-26 1989-05-01 Hea Dr Kk Hair growing method

Similar Documents

Publication Publication Date Title
JPH07114524A (en) Signal processor
WO1994001823A1 (en) A tree-like perceptron and a method for parallel distributed training of such perceptrons
JP2897220B2 (en) Signal processing device
JPH0696046A (en) Learning processor of neural network
JP2699447B2 (en) Signal processing device
JPH05197705A (en) Learning system for neural network
JPH05128284A (en) Neuro-processor
JPH04237388A (en) Neuro processor
JP2979562B2 (en) Learning processing device
JPH04291662A (en) Operation element constituted of hierarchical network
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JP3393511B2 (en) Character recognition apparatus and method
JPH0492901A (en) Fuzzy controller by neural network
Cios et al. Neural networks in detection of coronary artery disease
JPH05128086A (en) Network type information processing system
JP2654686B2 (en) neural network
JPH06131482A (en) Analog neural network circuit
JPH0554163A (en) Neural network and learning method thereof
JPH0736183B2 (en) Network configuration data processor
JPH03210686A (en) Neural network device
JPH05159088A (en) Neural network device and learning method for it
JPH08235146A (en) Learning method of probabilistic noncyclic neural network
JPH05159086A (en) Learning system for neural network
JPH0511806A (en) Process dynamic characteristic learning device
JPH05324598A (en) Learning system in neural network learning device