JPH0336659A - Learning controller for hierarchical neural network - Google Patents

Learning controller for hierarchical neural network

Info

Publication number
JPH0336659A
JPH0336659A JP1172285A JP17228589A JPH0336659A JP H0336659 A JPH0336659 A JP H0336659A JP 1172285 A JP1172285 A JP 1172285A JP 17228589 A JP17228589 A JP 17228589A JP H0336659 A JPH0336659 A JP H0336659A
Authority
JP
Japan
Prior art keywords
output
neuron
layer
input
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1172285A
Other languages
Japanese (ja)
Inventor
Toru Fujii
徹 藤井
Taiji Sogo
十河 太治
Hiroshi Nakajima
宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP1172285A priority Critical patent/JPH0336659A/en
Publication of JPH0336659A publication Critical patent/JPH0336659A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To enable speedy and satisfactory convergence by extracting neuron, for which the size of an input is larger than a prescribed value, and executing the prescribed change of an output function. CONSTITUTION:In a learning device to repeat learning by back propagation and to converge a hierarchical neural network, neuron input f(X)=Xj(m) larger than the prescribed value extracted by a neuron extracting means is back propa gated to an m-layer control part Bm. This function f(X) is transformed to a function y=f(X/t)=[Xj(m)]/t, t>1 through a converter 11 to refer a derived function table 12. Accordingly, error to be back propagated is made large and correction quantity to coupled weight is also made large. Then, the network is speedily and satisfactorily converged to a desired state.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、階層型ニューラルネットワークの学習制御
装置に関し、さらに詳しくは、学習効率を向上しうるよ
うにした階層型ニューラルネットワークの学習制御装置
に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a learning control device for a hierarchical neural network, and more particularly, to a learning control device for a hierarchical neural network that can improve learning efficiency. .

[従来の技術] 階層型ニューラルネットワークの一般的なネットワーク
構造を第13図に示す。
[Prior Art] FIG. 13 shows a general network structure of a hierarchical neural network.

この階層型ニューラルネットワーク200は、人力層と
中間層と出力層とに分れた多数のニューロンを人力層か
ら出力層へ向う方向にのみ結合したもので、外部からの
入力Ul−Upを出力V1〜Vrに変換するものである
This hierarchical neural network 200 is a network in which a large number of neurons divided into a human layer, an intermediate layer, and an output layer are connected only in the direction from the human layer to the output layer. ~Vr.

人力層は第1層のみ、中間層は第2層から第(L−4)
層まで、出力層は第り層のみであり、第m層のニューロ
ン数はN (+++)個である。
The human resources layer is only the 1st layer, the middle layer is the 2nd layer to (L-4)
Up to this layer, the output layer is only the 2nd layer, and the number of neurons in the mth layer is N (+++).

さて、従来の人力層のニューロンは、第14図に示す5
1の如き構成になっており、その出力関数gは、 y 1(1)= g (x 01))= x 1(1)
x 1(1)= U 1 i=1.2.・・・、N(1) で表わされる恒等関数である(第20図参照)。
Now, the neurons of the conventional human layer are the 5 neurons shown in Figure 14.
1, and its output function g is y 1 (1) = g (x 01)) = x 1 (1)
x 1 (1) = U 1 i = 1.2. . . . is an identity function expressed as N(1) (see Figure 20).

ここで、1(1)は第1層のi番目のニューロンを表わ
している。
Here, 1(1) represents the i-th neuron in the first layer.

上記従来の入力層のニューロン51は、例えば第19図
に示す如きニューロン装W181によって構成されうる
The conventional input layer neuron 51 may be constituted by a neuron device W181 as shown in FIG. 19, for example.

このニューロン装W81において、出力関数のテーブル
26には、第20図に示す恒等関数の関係にあるxi(
1)とy 1(1)の対がテーブルとして記憶されてい
る。
In this neuron device W81, the output function table 26 includes xi(
1) and y1(1) are stored as a table.

変換器25は、入力xi(1)が与えられると、前記出
力関数のテーブル26を参照し、出力yi(1)を得て
、これを出力するようになっている。
When the converter 25 is given the input xi(1), it refers to the output function table 26, obtains the output yi(1), and outputs it.

従来の中間層と出力層のニューロンは、第15図に示す
61の如き構成になっており、その出力関数fは、 )’ j(m)= f (x j(m))=(1+ax
p (−xj(o+)) l−’xj(+s)=ΣWi
j(a+−1)・)’ i(+m−1)i=1.2.・
・・、N(m−1) j=1.2.・・・、N(m) 閣=2.3.・・・、L で表わされるシグモイド関数である(第17図参照)。
Conventional neurons in the intermediate layer and output layer have a configuration like 61 shown in Fig. 15, and the output function f is )' j(m)=f (x j(m))=(1+ax
p (-xj(o+)) l-'xj(+s)=ΣWi
j(a+-1)・)' i(+m-1)i=1.2.・
..., N(m-1) j=1.2. ..., N(m) Kaku = 2.3. . . . is a sigmoid function expressed by L (see Fig. 17).

ここで、j(m)は第m層のjl目のニューロンを表わ
している。また、Wij(m−1)は第m−1層の1番
目のニューロンから第m層のj番目のニューロンに入力
される信号にかかる重みを表わしている。
Here, j(m) represents the jlth neuron in the mth layer. Moreover, Wij(m-1) represents the weight applied to the signal input from the first neuron of the m-1th layer to the j-th neuron of the m-th layer.

上記従来の中間層と出力層のニューロン61は、例えば
第16図に示す如きニューロン装置71によって構成さ
れうる。
The conventional intermediate layer and output layer neurons 61 described above may be constituted by a neuron device 71 as shown in FIG. 16, for example.

このニューロン装置71において、乗算器2は、重みレ
ジスタ53が出力する重みWij(+a−1)と前層の
出力yi(+a−1)とを乗算するもので、ニューロン
装置71に入力される信号の数だけある。
In this neuron device 71, the multiplier 2 multiplies the weight Wij (+a-1) output from the weight register 53 by the output yi (+a-1) of the previous layer, and the multiplier 2 multiplies the signal input to the neuron device 71 by There are as many as.

加算器4は、各乗算器2の出力信号を加算し、総和s 
J(m)を変換器5に人力する。
Adder 4 adds the output signals of each multiplier 2, and obtains a total sum s
J(m) is input manually to the converter 5.

変換器5は、総和sj(m)を出力関数のテーブル6へ
の人力xj(+s)とし、テーブル6から出力されるy
j(m)を出力する。
The converter 5 takes the sum sj (m) as the manual input xj (+s) to the table 6 of the output function, and y output from the table 6.
Output j(m).

出力関数のテーブル6は、第17図に示すシグモイド関
数の関係にあるxj(m)とyj(+++)の対をテー
ブルとして記憶している。
The output function table 6 stores pairs of xj(m) and yj(+++) having a sigmoid function relationship shown in FIG. 17 as a table.

この階層型ニューラルネットワーク200における学習
制御は、次のようなパックプロパゲーションの手順によ
り行なわれる。
Learning control in this hierarchical neural network 200 is performed by the following pack propagation procedure.

(1)人力層に第1のパターンの人力Uiを与える。(1) Give the first pattern of human power Ui to the human power layer.

(2)入力層から出力層までの各ニューロンの出力yj
(m)を順次計算し、出力yj(L) (=Vj)を得
る。
(2) Output yj of each neuron from the input layer to the output layer
(m) is sequentially calculated to obtain the output yj(L) (=Vj).

(3)その出力yj(L)と期待出力djとにより出力
層(第り層)の第j番目のニューロンの誤差dj (L
)を求める。
(3) Based on the output yj (L) and the expected output dj, the error dj (L
).

dj(L)= (dj−yj(L))  −t (xj
(L))ここで、t (xj(L))は出力関数の導関
数のxj(L)における値である(第18図参照)。
dj(L)=(dj-yj(L))-t(xj
(L)) Here, t (xj(L)) is the value of the derivative of the output function at xj(L) (see FIG. 18).

(4)結合の重みWij(L−1)の修正量ω1j(L
−1)を算出する。
(4) Modification amount ω1j(L
-1) is calculated.

ω1j(L−1)= c−dj(L) ・y 1(L−
1)但し、Cは学習パラメータである。
ω1j(L-1)=c-dj(L)・y1(L-
1) However, C is a learning parameter.

(5)出力層への結合の重みWij(L−1)を修正す
る。
(5) Modify the weight Wij(L-1) of the connection to the output layer.

Wij(L−1)(τ+1) =Wij(L−1)(τ)+ω1j(L−1)但し、τ
は離散時間であり、(τ◆1)は(τ)の次の時間を表
わしている。
Wij (L-1) (τ+1) = Wij (L-1) (τ) + ω1j (L-1) However, τ
is a discrete time, and (τ◆1) represents the next time after (τ).

(6)第L−1層の第j番目のニューロンの誤差dj(
L−1)を求める。
(6) Error dj(
Find L-1).

dj (L−1) =Σ(δk(L)・Wjk(L−1
)(τ))・t (x j(L−1)) k=1.2.・・・、N(L) 結合の重みは、修正前の値Wjk(L−1)(τ)を使
用する。
dj (L-1) = Σ(δk(L)・Wjk(L-1
)(τ))・t (x j(L-1)) k=1.2. ..., N(L) The value Wjk(L-1)(τ) before modification is used as the connection weight.

(7)上記の(4)(5)と同様にして結合の重みWi
j(L−2)を修正する。
(7) Similar to (4) and (5) above, the connection weight Wi
Modify j(L-2).

ω1j(L−2)= c ・dj(L−1) ・’j 
1(L−2)W ij (L−2) (τ+1) =WiJ(L−2)(τ)+ω1j(L−2)(8)以
下、上記(6)(7)と同様の演算を繰り返し、第2層
の各ニューロンの結合の重みW i j (1)までを
修正する。
ω1j (L-2) = c ・dj (L-1) ・'j
1(L-2)W ij (L-2) (τ+1) =WiJ(L-2)(τ)+ω1j(L-2) (8) Below, repeat the same calculations as in (6) and (7) above. , the connection weight W i j (1) of each neuron in the second layer is modified.

(9)入力Uiと期待出力djのパターンを変えて上記
手順を繰り返す。これを必要な全てのバターンについて
行なう。
(9) Repeat the above procedure by changing the pattern of input Ui and expected output dj. Do this for all necessary patterns.

(10)全てのパターンについての評価値Eを各々算出
する。
(10) Calculate evaluation values E for all patterns.

E=Σ(d j−y j(L)) ”/ 2j=1.2
.・・・、N(L) (11)全てパターンの評価値Eの総和ΣEが適当な小
さな値E0以下になるまで上記(1〉から(10)まで
を繰り返す。
E=Σ(d j−y j(L))”/2j=1.2
.. ..., N(L) (11) Repeat the above (1> to (10)) until the sum ΣE of the evaluation values E of all patterns becomes an appropriately small value E0 or less.

(12)学習回数n(上記手順の繰り返しの回数)が所
定の最大値n0に達しても評価値Eの総和ΣEが適当な
小さな値E0以下にならない場合は、結合の重みWij
(m)をランダムに再設定し、上記手順を再度行なう。
(12) Even if the number of learning times n (the number of repetitions of the above procedure) reaches the predetermined maximum value n0, if the sum ΣE of the evaluation values E does not become less than an appropriate small value E0, the connection weight Wij
(m) is randomly reset and the above procedure is performed again.

[発明が解決しようとする課題] 上記階層型ニューラルネットワークの学習制御において
、第m層の第j番目のニューロンにおける誤差δj (
m)は、 δj (m) =Σ(δk(a+1) ・W jk(m
) (r ))・j (xj(m)) k=1.2.・・・、N(L) として算出される。
[Problems to be Solved by the Invention] In the learning control of the above-mentioned hierarchical neural network, the error δj (
m) is δj (m) = Σ(δk(a+1) ・W jk(m
) (r))・j (xj(m)) k=1.2. ..., N(L).

この式でj (xj(m))の値は、第17図に示す出
力関数fの場合はxj(m)の値によって第18図に示
すように変化するが、xj(a+)の絶対錬が大きいと
ほとんどOに近い値となり、誤差δj (m)の大きさ
も極めて小さくなってしまう。
In this equation, the value of j (xj(m)) changes as shown in FIG. 18 depending on the value of xj(m) in the case of the output function f shown in FIG. 17, but the absolute value of xj(a+) If is large, the value becomes almost O, and the magnitude of the error δj (m) also becomes extremely small.

従って、結合の重みの修正量ωij(m−1)も極めて
小さくなり、望ましい状態に収束するまでの学習速度が
非常に遅くなったり、あるいは学習回数を多くしても望
ましい状態に収束しなくなる問題点がある。
Therefore, the amount of modification of the connection weights ωij(m-1) also becomes extremely small, leading to the problem that the learning speed until convergence to the desired state becomes extremely slow, or that the learning speed does not converge to the desired state even if the number of times of learning is increased. There is a point.

このような問題点は、先述のように結合の重みWij(
m)をランダムに再設定し、パックプロパゲーションを
やり直すことにより解決できる可能性があるが、不確実
であり、効率が悪い。
Such a problem can be solved by the connection weight Wij(
It may be possible to solve this problem by randomly resetting m) and redoing pack propagation, but this is uncertain and inefficient.

そこで、この発明は、上記のような問題点を確実に、効
率よく解決することができる階層型ニューラルネットワ
ークの学習制御装置を提供することを目的とする。
Therefore, an object of the present invention is to provide a learning control device for a hierarchical neural network that can reliably and efficiently solve the above-mentioned problems.

[課題を解決するための手段] この発明の階層型ニューラルネットワークの学習制御装
置は、パックプロパゲーションによる学習を繰り返して
階層型ニューラルネットワークを所望の状態に収束させ
る学習制御装置において、各ニューロンの中から入力の
大きさが所定値以上のニューロンを抽出するニューロン
抽出手段と、前記抽出したニューロンのもつ出力関数y
 = f (x)をy=f(x/t)、t>1に変更す
る出力関数変更手段とを具備したことを構成上の特徴と
するものである。
[Means for Solving the Problems] A learning control device for a hierarchical neural network according to the present invention is a learning control device for converging a hierarchical neural network to a desired state by repeating learning by pack propagation. a neuron extraction means for extracting neurons whose input size is greater than or equal to a predetermined value, and an output function y of the extracted neuron;
= f (x) to y=f(x/t), t>1.

[作用] この発明の階層型ニューラルネットワークの学習制御装
置では、入力が大きなニューロンについては出力関数y
=f (x)のXが等価的に小さくなる。
[Operation] In the hierarchical neural network learning control device of the present invention, for neurons with large inputs, the output function y
= f (x) becomes equivalently smaller.

このため、導関数の値もある程度大きな値となり、パッ
クプロパゲーションで伝播される誤差もある程度大きな
値となる。従って、結合の重みの修正量も大きくなり、
望ましい状態に確実に速く収束するようになる。
Therefore, the value of the derivative also becomes a somewhat large value, and the error propagated by pack propagation also becomes a somewhat large value. Therefore, the amount of modification of the connection weights also increases,
This ensures faster convergence to the desired state.

[実施例] 以下、この発明を図に示す実施例によりさらに詳しく説
明する。なお、これによりこの発明が限定されるもので
はない。
[Example] Hereinafter, the present invention will be explained in more detail with reference to Examples shown in the drawings. Note that this invention is not limited to this.

第1図は、この発明の一実施例の学習制御装置を含む階
層型ニューラルネットワーク100を示すものである。
FIG. 1 shows a hierarchical neural network 100 including a learning control device according to an embodiment of the present invention.

第1層のニューロン1(t)〜P(1)には、外部から
の入力U1〜Upまたは第1制御部B1から学習用のパ
ターンが入力される。また、第1制御部B1から入力X
と出力yの対が入力され、各々の出力関数のテーブル(
第7図参照)を設定される。
A learning pattern is input to neurons 1(t) to P(1) in the first layer from external inputs U1 to Up or from the first control unit B1. In addition, input X from the first control unit B1
and output y are input, and each output function table (
(see Figure 7).

また、第1層のニューロン1(1)〜P(1)は、第1
制御部B1へ入力x j(1)を出力している。第1層
のニューロン1(1)〜P(1)の出力yl(1)〜y
pl(1)は、第2層のニューロン1(2)、・・・に
所定の組合せで人力されると共に、第2制御部B2にも
入力されている。
Furthermore, neurons 1(1) to P(1) in the first layer are
The input x j (1) is output to the control unit B1. Outputs yl(1) to y of neurons 1(1) to P(1) in the first layer
pl(1) is manually input to neurons 1(2), . . . in the second layer in a predetermined combination, and is also input to the second control unit B2.

第2層のニューロン1(2)、・・・は、第2制御部B
2から温度tで除算した重みW i j (1)が入力
されるので、これを記憶すると共に、その記憶した温度
tで除算した重みWij(1)を第2制御部B2からの
要求に応じて第2制御部B2へと逆に出力する。
The neurons 1 (2), . . . in the second layer are connected to the second control unit B.
Since the weight W i j (1) obtained by dividing 2 by the temperature t is input, this is stored, and the weight W i j (1) obtained by dividing the stored temperature t is input in response to a request from the second control unit B2. and is output to the second control section B2.

後述するx j(2)の形態で表わされた第2層のニュ
ーロン1(2)、・・・の入力は、第2制御部B2へと
出力されている。また、出力Vj(2)は、第3層のニ
ューロン1(3)、・・・に所定の組合せで人力される
と共に、第3制御部B3(図示省略)にも人力されてい
る。
The inputs of the second layer neurons 1 (2), . Further, the output Vj(2) is manually input to the third layer neurons 1(3), . . . in a predetermined combination, and is also manually input to the third control unit B3 (not shown).

第3層のニューロンから第り層のニューロンまでの構成
は、上記第2層のニューロン1(2)、・・・と、同様
である。但し、第り層のニューロン1(L)、・・・の
出力yj(L)は、この階層型ニューラルネットワーク
100の出力Vl〜VRになると共に第1制御部B1に
入力されている。
The configuration from the third layer neuron to the second layer neuron is the same as the second layer neuron 1 (2), . . . . However, the outputs yj(L) of the neurons 1(L), .

第1制御部B1は、学習制御を遂行するスーパバイザに
当るもので、第1層のニューロン1(1)〜PI(1)
に所定のパターンを人力したときの第り層の出力yj(
L)と期待出力djの偏差gj(L)を算出し、第り制
御部BLへと出力する。
The first control unit B1 corresponds to a supervisor that performs learning control, and controls neurons 1(1) to PI(1) of the first layer.
The output yj(
A deviation gj(L) between the expected output dj and the expected output dj is calculated and output to the second control unit BL.

gj(L)= d j−y j(L) また、入力層!(1) 〜P(1)の人力xj(1)を
入力され、これらの大きさに対して出力yj(1)を正
規化するように各ニューロン1(1)〜P(1)の出力
関数のテーブルを設定変更する。
gj(L)=d j−y j(L) Also, input layer! (1) Input the human power xj(1) of ~P(1), and set the output function of each neuron 1(1) to P(1) so as to normalize the output yj(1) with respect to these magnitudes. Change table settings.

第り制御部BLは、第り層のニューロン1 (L)〜R
(L)の偏差gj(L)と1人力xj(L)と、第L−
1層のニューロン1(L−1) 、・・・の出力yi(
L−1)と現在の重みWij(L−1)(τ)とから新
たな重みWij(L−1)(・τ+1)を算出し、それ
を第1制御部B1から入力される温度tで除算して各ニ
ューロン1(L)〜R(L)に再設定する。
The first control unit BL controls neurons 1 (L) to R of the second layer.
(L) deviation gj (L), one-man power xj (L), and the L-th
The output yi(
A new weight Wij(L-1)(・τ+1) is calculated from the current weight Wij(L-1)(τ) and the current weight Wij(L-1)(τ+1), and it is calculated based on the temperature t input from the first control unit B1. The division is performed to reset each neuron 1(L) to R(L).

また、第L−1制御部BL−1へ第L−1層の各ニュー
ロン1(L−1)、・・・の偏差gj(L−1)を算出
して出力する。
Further, the deviation gj (L-1) of each neuron 1 (L-1), . . . in the L-1 layer is calculated and output to the L-1 controller BL-1.

gj(L−1)=Σ(δk (L)・Wjk(L−1)
(τ))第L−1制御部BL−1から第2制御部B2ま
での構成は、上記第り制御部BLの作動と同様である。
gj(L-1)=Σ(δk(L)・Wjk(L-1)
(τ)) The configuration from the L-1st control section BL-1 to the second control section B2 is similar to the operation of the above-mentioned first control section BL.

以上で階層型ニューラルネットワーク100の全体につ
いて既述したが、次に各部を詳細に説明する。
The entire hierarchical neural network 100 has been described above, and each part will now be described in detail.

まず、人力層のニューロンは第5図に示すニューロン装
置21により構成されている。
First, the neurons of the human power layer are constituted by a neuron device 21 shown in FIG.

このニューロン装M21において、加算器22は複数の
人力を受入可能とするために設けられているものである
が、第1図に示す階層型ニューラルネットワーク100
では人力層の1つのニューロンに1つの入力信号だけが
対応しているから、加算器22の1つの人力だけを使用
することになる。
In this neuron device M21, the adder 22 is provided in order to make it possible to accept a plurality of human inputs, but the hierarchical neural network 100 shown in FIG.
Since only one input signal corresponds to one neuron in the human power layer, only one human power of the adder 22 is used.

出力関数のテーブル24は、x 1(1)とy 1(1
)の対をテーブルとして記憶している。このxi(1)
とy 1(1)の対は、出力関数のテーブル24への人
力x 1(1)の最小値Xaiと最大値Xbiと、出力
yi(1)の好ましい最小値Yaiと最大値Ybiとか
ら、ai=(Ybi−Yai)/(Xbi−Xai)b
 i= (XbiYai −XaiYbi)/ (Xb
i −Xai)y 1(1)= a ix 1(1)十
b iにより第1制御部B1が算出し、出力関数のテー
ブル24に設定するものである。第8図は上式で表わさ
れる線形関数の概念図である。
The output function table 24 includes x 1 (1) and y 1 (1
) are stored as a table. This xi(1)
The pair of and y1(1) is obtained from the minimum value Xai and maximum value Xbi of the human power x1(1) to the output function table 24, and the preferable minimum value Yai and maximum value Ybi of the output yi(1), ai=(Ybi-Yai)/(Xbi-Xai)b
i= (XbiYai −XaiYbi)/(Xb
i - Xai)y 1(1) = a ix 1(1) + b i is calculated by the first control unit B1 and set in the output function table 24. FIG. 8 is a conceptual diagram of the linear function expressed by the above equation.

変換器23は、加算器22の出力する総和5i(1)を
出力関数のテーブル24への入力x 1(1)とし、こ
れを出力yi(1)に変換して出力する。
The converter 23 uses the sum 5i(1) output from the adder 22 as an input x 1(1) to the output function table 24, converts it into an output yi(1), and outputs it.

階層型ニューラルネットワークへの入力Uiは、例えば
光センサ、重量センサ、超音波センサ、ビデオセンサ等
の出力信号であり、それらの信号がとりうる値(レベル
、レンジ)は様々である。
Input Ui to the hierarchical neural network is, for example, an output signal from a light sensor, a weight sensor, an ultrasonic sensor, a video sensor, etc., and the values (levels, ranges) that these signals can take are various.

このため、例えば第21図に示すように、人力Ulの変
動領域が人力Ulの変動領域の一部に相当するという場
合もありうるが、第19図に示す従来の第1層のニュー
ロン装置81では出力yl(1)の変動領域が出力y 
2(1)の変動領域の一部になってしまい、入力Uiと
人力Ulの評価の領域が異なる問題点がある。また、第
22図に示すように、入力Ulと入力U2の変動領域に
偏りがある場合、出力yl(1)と出力y 2(1)の
変動領域も偏ったものとなり、評価の領域に偏りを生ず
る問題点がある。
Therefore, as shown in FIG. 21, for example, there may be a case where the variation area of the human power Ul corresponds to a part of the variation area of the human power Ul, but the conventional first layer neuron device 81 shown in FIG. Then, the variation area of output yl(1) is output y
2(1), and there is a problem that the evaluation areas of input Ui and human power Ul are different. In addition, as shown in Fig. 22, if there is a bias in the variation range of input Ul and input U2, the variation range of output yl(1) and output y2(1) will also be biased, and the evaluation range will be biased. There are problems that arise.

このため、階層型ニューラルネットワークで正しい出力
Viを得られるまでの学習速度が遅くなったり、学習回
数を増やしても正しい出力Viを得られなくなってしま
うことがある(収束しなくなる)問題点があったが、上
記ニューロン装置21ではこのような問題点が解消され
ている。
For this reason, there are problems in that the learning speed required to obtain the correct output Vi in a hierarchical neural network may be slow, or the correct output Vi may not be obtained (no convergence) even if the number of times of learning is increased. However, in the neuron device 21, such problems have been solved.

すなわち、第9図および第10図に示すように、階層型
ニューラルネットワーク100への人力Ulの変動領域
が人力U2の変動領域の一部に相当する場合には、人力
Ulに対応する入力層のニューロンの出力関数Y 1(
1)と1人力層2に対応する人力層のニューロンの出力
関数y 2(1)を各々図のように設定し、出力yl(
1)とy2(1)の変動領域を等しくする。また、第1
1図および第12図に示すように、階層型ニューラルネ
ットワーク100への入ノJUIの変動領域と人力U2
の変動領域に偏りがある場合には、各人力に対応する人
力層のニューロンの出力関数y 1(1)、  y 2
(1)を各々図のように設定し、出力yl(1)と出力
y2(1)の変動領域を等しくする。
That is, as shown in FIGS. 9 and 10, when the variation range of the human power Ul to the hierarchical neural network 100 corresponds to a part of the variation range of the human power U2, the input layer corresponding to the human power Ul The output function of the neuron Y 1 (
1) and the output function y2(1) of the neuron of the human-powered layer corresponding to the human-powered layer 2 are set as shown in the figure, and the output yl(
1) and y2(1) are made equal. Also, the first
As shown in FIGS. 1 and 12, the variation area of JUI entering the hierarchical neural network 100 and human power U2
If there is a bias in the fluctuation region of
(1) are respectively set as shown in the figure, and the variation areas of the output yl(1) and the output y2(1) are made equal.

これにより、人力される外部信号の変動領域の相違に評
価が影響されないようになる。
This prevents the evaluation from being influenced by differences in the variation range of the manually input external signal.

次に、中間層および出力層のニューロンは、第2図に示
すニューロン装rf!1.1により構成されている。
Next, the neurons in the intermediate layer and the output layer are arranged as shown in FIG. 1.1.

このニューロン装置1において、乗算器2は、重みレジ
スタ3が出力する重みWij(m−1)/ tと前層の
出力yi(m−1)とを乗算するもので、ニューロン装
置1に入力される信号の数だけある。
In this neuron device 1, a multiplier 2 multiplies the weight Wij(m-1)/t output from the weight register 3 by the output yi(m-1) of the previous layer. There are as many signals as there are.

加算器4は、各乗算器2の出力信号を加算し、総和s 
j(m)/ tを変換器5に人力する。
Adder 4 adds the output signals of each multiplier 2, and obtains a total sum s
j(m)/t is manually input to the converter 5.

変換器5は、前記!9 j(m)/ t  を出力関数
のテーブル6への人力xj(m)とし、テーブル6から
出力されるyj(m)を出力する。また、xj(m)を
第1制御部B1へと出力する。
The converter 5 is as described above! 9 j(m)/t is the human power xj(m) to table 6 of the output function, and yj(m) output from table 6 is output. Furthermore, xj(m) is output to the first control unit B1.

出力関数のテーブル6は、第3図に実線で示すシグモイ
ド関数f1の関係にあるxj(m)とyj(m)の対を
テーブルとして記憶している。
The output function table 6 stores pairs of xj(m) and yj(m) having the relationship of the sigmoid function f1 shown by the solid line in FIG. 3 as a table.

この出力関数flは、 y j(11)= f 1(x j(m))=fl+e
xp(xj(m))l−’ xj(m)=Σ (Wij(m−1)/ t )  ・
y i(m−1)i= 1.2.−、N(m−1) j=1.2.・・・、N(m) m=2.3.・・・、L で表わされる。
This output function fl is y j (11) = f 1 (x j (m)) = fl + e
xp(xj(m))l-' xj(m)=Σ(Wij(m-1)/t) ・
y i (m-1) i= 1.2. -, N(m-1) j=1.2. ..., N(m) m=2.3. ..., represented by L.

次に、第m制開部Bm (m=L 〜2)は、第5図に
示すブロック図のように構成されている。
Next, the m-th opening control section Bm (m=L to 2) is configured as shown in the block diagram shown in FIG.

変換器11は、第m層の第j番目のニューロンの人力x
j(m)を入力され、導関数のテーブル12を参照して
出力関数の導関数f(xj(m))を出力する。
The converter 11 converts the human power x of the jth neuron in the mth layer
j(m) is input, and outputs the derivative f(xj(m)) of the output function by referring to the derivative table 12.

乗算器13は、偏差εj (m)と前記導関数f(xj
(m)を乗算し、誤差δj (m)を出力する。
The multiplier 13 calculates the deviation εj (m) and the derivative f(xj
(m) and outputs the error δj (m).

この誤差δj (m)は、δメモリ14に記憶され、乗
算器15.18へと出力される。
This error δj (m) is stored in the δ memory 14 and output to the multiplier 15.18.

乗算器15は、第m−1層の出力yi(m−1)と前記
誤差δj (m)とを乗算し、重みの修正量ωij(m
−1)を出力する。
The multiplier 15 multiplies the output yi (m-1) of the m-1th layer by the error δj (m), and calculates the weight correction amount ωij (m
-1) is output.

Wメモリ16は、各ニューロンの重みレジスタ3に保持
している重みWij(m−1)/ tを読み出し、温度
tを乗算器20bで乗算し、得た重みW i j (m
−1)を記憶している。
The W memory 16 reads the weight Wij (m-1)/t held in the weight register 3 of each neuron, multiplies it by the temperature t by the multiplier 20b, and calculates the obtained weight Wij (m
-1) is remembered.

加算器17は、修正対象の重みWij(m−1)(r 
)に前記修正量ωij(m−1)を加算して、新たな重
みWij(m−1)(τ+1)を出力する。
The adder 17 calculates the weight Wij(m-1)(r
) and the correction amount ωij(m-1) to output a new weight Wij(m-1)(τ+1).

新たな重みWLj(m−1)(r 41)は、除算器2
0aにて温度tで除算され、対応するニューロンの重み
レジスタ3へと出力される。
The new weight WLj (m-1) (r 41) is calculated by the divider 2
0a is divided by the temperature t and output to the weight register 3 of the corresponding neuron.

乗算器18は、前記誤差δj (m)と修正前の重みW
ij(n+−1)とを乗算し、累算器19はそれを累積
加算する。従って、累積器19の出力は第m−1制御部
Bm−1への偏差εj(m−1)となる。
The multiplier 18 calculates the error δj (m) and the weight W before correction.
ij(n+-1), and the accumulator 19 cumulatively adds the result. Therefore, the output of the accumulator 19 becomes the deviation εj(m-1) to the m-1th control unit Bm-1.

次に、第6図(a)(b)を参照して第1制御部B1の
作動を詳細に説明する。
Next, the operation of the first control section B1 will be explained in detail with reference to FIGS. 6(a) and 6(b).

(0)第1制御部B1は、操作部101からコマンドを
入力されると共に評価値の目標値EO,学習回数の最大
値nO,温度tの増加分の初期値ΔtO1温度t温度用
分の減少率におよび各ニューロンでの入力xj(m)の
累積加算値Σxj(m)の最大値SOを入力されている
(0) The first control unit B1 receives a command from the operation unit 101, and at the same time, the target value EO of the evaluation value, the maximum value nO of the number of learning times, the initial value ΔtO1 for the increase in temperature t, the decrease for the temperature t The maximum value SO of the cumulative addition value Σxj(m) of the input xj(m) at each neuron is inputted at the rate.

(1)学習回数n=0.温度t=iとしくPI、P2)
、入力層に第1のパターンの入力を与える(P3)。
(1) Number of learning times n=0. Temperature t=i and PI, P2)
, gives the first pattern input to the input layer (P3).

(2〉入力層から出力層までの各ニューロン装置21.
1での出力yj(gm)を順次計算し、出力yj(L)
(=Vj)を得る(P4)。
(2> Each neuron device 21 from the input layer to the output layer.
Sequentially calculate the output yj (gm) at 1, and calculate the output yj (L)
(=Vj) is obtained (P4).

このとき中間層と出力層の各ニューロン装置1からのx
j(+s)をそれぞれ累積加算する。
At this time, x from each neuron device 1 of the intermediate layer and output layer
j(+s) are cumulatively added.

(3)出力yj(L)と期待出力djとにより出力層(
第り層)の第j番目のニューロンの偏差sj (L)を
算出し、第り制御部BLへ出力する。
(3) The output layer (
The deviation sj (L) of the j-th neuron in the second layer) is calculated and output to the second control unit BL.

第り制御部BLは次の演算により誤差sj (L)を求
める(P5)。
The second control unit BL calculates the error sj (L) by the following calculation (P5).

sj(L)= e j(L) −+ l (x j(L
))(4)第り制御部BLから第2制御部B2まで順に
作動させ、パックプロパゲーション処理により結合の重
みW i j (■)を修正させる(P6)。
sj(L)= e j(L) −+ l (x j(L
)) (4) The first control unit BL to the second control unit B2 are operated in order, and the connection weight W i j (■) is corrected by pack propagation processing (P6).

(5)必要な全てのパターンについて上記(2)〜(4
)を繰り返す(P7.P8)。
(5) All necessary patterns (2) to (4) above
) is repeated (P7.P8).

(6)再び第1のパターンを与え(P9)、出力を計算
しくPlo)、さらに評価値Eを算出する(pH)。
(6) Apply the first pattern again (P9), calculate the output (Plo), and further calculate the evaluation value E (pH).

E=Σ(d j−y j(L))り/2j=1,2.・
・・、N(L) (7)必要な全てのパターンについて上記(6)を繰り
返す(PI2.PI3)。
E=Σ(d j−y j(L))ri/2j=1,2.・
..., N(L) (7) Repeat (6) above for all necessary patterns (PI2.PI3).

(8)学習回数nをインクリメントする(P 14)。(8) Increment the learning count n (P14).

(9)全てのパターンについての評価値Eの総和ΣEを
計算し、もし、ΣE5EOであれば学習を終了し、ΣE
≦EOでなければPI6へと移行する(p 15)。
(9) Calculate the sum ΣE of the evaluation values E for all patterns, and if ΣE5EO, end the learning and
If it is not ≦EO, move to PI6 (p. 15).

(10)学習回数nが最大値noに達したか否かをチエ
ツクし、学習回数nが最大値nOに達していなければ前
記P3へと移行する。学習回数nが最大値noに達する
と、望ましくない状態に収束してしまったと判定し、こ
の発明にかかる再学習処理へと移行する(P 16)。
(10) Check whether the number of learning times n has reached the maximum value no, and if the number of learning times n has not reached the maximum value nO, proceed to P3. When the number of times of learning n reaches the maximum value no, it is determined that the state has converged to an undesirable state, and the process proceeds to relearning processing according to the present invention (P16).

再学習処理では次のような作動が行なわれる。The following operations are performed in the relearning process.

(11)学習回数n=oとする(Ql)。(11) Set the number of learning times n=o (Ql).

(12)各ニューロン装置1の累積加算値Σxj(m)
と、予め設定された最大値SOとを比較して、前者が後
者より小さければ温度t=1とし、等しいか大きければ
温度t=1+Δto−に−nとする。但し、Δto<k
’nのときは温度t=1とする(Q2)。
(12) Cumulative addition value Σxj(m) of each neuron device 1
and a preset maximum value SO, and if the former is smaller than the latter, the temperature t=1 is set, and if they are equal or larger, the temperature t=1+Δto- is set to -n. However, Δto<k
'n, the temperature is set to t=1 (Q2).

最初はn=oだから温度t=1+Δtoであり、これは
1より大きい。学習回数nが増えてくると徐々に温度t
は元の1に戻るようになる。
Initially, since n=o, the temperature t=1+Δto, which is greater than 1. As the number of learning n increases, the temperature t gradually increases.
will return to its original value of 1.

この温度tを第り制御部BL〜第2第2郎御2へと出力
する。
This temperature t is outputted to the second controller BL to the second controller 2.

第LiMIIltsBL 〜第2制御部B2(7)除算
器20aはこの温度tで重みWljを除算し、それが新
たな重みとなるが、これは実質的にはt=1のときのs
j(■)をtで除算したことと等価である。従って、第
3図に実線で示す出力関数fl(xj(m))が点線で
示す出力関数f 2 (s j(+a))に実質的に変
更されたことになる。また、第4図に実線で示す導関数
i 1 (x j(m))が点線で示す導関数t 2 
(s j(m))に実質的に変更されたことになる。
The divider 20a divides the weight Wlj by this temperature t, which becomes a new weight, but this is essentially the same as s when t=1.
This is equivalent to dividing j(■) by t. Therefore, the output function fl(xj(m)) shown by the solid line in FIG. 3 has been substantially changed to the output function f 2 (s j (+a)) shown by the dotted line. In addition, the derivative i 1 (x j (m)) shown by the solid line in FIG. 4 is the derivative t 2 shown by the dotted line.
(s j (m)).

(13)入力層に第1のパターンの入力を与え(Q3)
、入力層から出力層までの各ニューロン装fil、21
での出力yj(a+)を順次計算し、出力yj(L) 
(=Vj)を得る(Q4)。
(13) Give the first pattern input to the input layer (Q3)
, each neuron device fil from the input layer to the output layer, 21
Sequentially calculate the output yj(a+) at and output yj(L)
(=Vj) is obtained (Q4).

(14)出力yj(L)と期待出力djとにより出力層
(第り層)の第j番目のニューロンの偏差sj(L)を
求め、第り制御部BLへと出力する。
(14) Determine the deviation sj(L) of the j-th neuron in the output layer (second layer) from the output yj(L) and the expected output dj, and output it to the second control unit BL.

第り制御部BLは誤差sj (L)を求める(Q5)。The second control unit BL calculates the error sj (L) (Q5).

ここで注意すべきことは、累積加算値Σxj(L)が小
さかったニューロンでは上記(3)の演算でx j(L
)= s j(1)として誤差sj (L)が算出され
るが、累積加算値Σxj(L)が大きかったニューロン
ではx j(L)−s j(L)/ tとして誤差sj
(L)が算出されることである。このため、第4図から
理解されるように、累積加算値Σxj(L)が大きかっ
たニューロンでは、5j(L)が大きな値であっても?
 2 (s j(m))はある程度大きな値となり、従
って、誤差sj (L)もある程度大きな値となる。
What should be noted here is that for neurons whose cumulative addition value Σxj(L) is small, x j(L) is
) = s j (1), and the error s j (L) is calculated as
(L) is calculated. Therefore, as can be understood from FIG. 4, in a neuron where the cumulative addition value Σxj(L) is large, even if 5j(L) is a large value?
2 (s j (m)) has a somewhat large value, and therefore the error s j (L) also has a somewhat large value.

以下のQ6からQ16は、先述のP6からPI3と同じ
処理であるため説明は省略するが、そのうちのパックプ
ロパゲーション処理(Q6)では、上記のように選択さ
れたニューロンにおいて、Sj (L)が大きな値でも
ある程度大きな誤差Sj (L)を得られるから、結合
の重みの修正量ωijもある程度大きな値となり、望ま
しくない収束状態(局所的な最適値)から脱出できる確
率が高くなる。
The following Q6 to Q16 are the same processes as P6 to PI3 described above, so their explanation will be omitted, but in the pack propagation process (Q6), Sj (L) is Since a relatively large error Sj (L) can be obtained even with a large value, the connection weight correction amount ωij also becomes a relatively large value, increasing the probability of escaping from an undesirable convergence state (local optimum value).

また、学習回数nが増えてくると、温度tも徐々に1に
戻ってくるので、より望ましい状態(真の最適解)に収
束しやすくなる。
Furthermore, as the number of times of learning n increases, the temperature t gradually returns to 1, making it easier to converge to a more desirable state (true optimal solution).

[発明の効果] この発明の階層型ニューラルネットワークの学習制御装
置によれば、望ましくない収束状態から効率良く脱出し
て、より望ましい状態に収束させることが出来るように
なる。
[Effects of the Invention] According to the learning control device for a hierarchical neural network of the present invention, it is possible to efficiently escape from an undesirable convergence state and converge to a more desirable state.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例の学習制御装置を含む階層
型ニューラルネットワークの構成図、第2図はこの発明
にかかる中間層および出力層のニューロン装置の一例の
ブロック図、第3図は第2図に示すニューロン装置の出
力関数の概念図、第4図は第2図に示すニューロン装置
の出力関数の導関数の概念図、第5図は第m制御部のブ
ロック図、第6図(a)(b)はこの発明の一実施例の
学習制御装置の作動のフローチャート、第7図は人力層
のニューロン装置の一例のブロック図、第8図は第7図
に示すニューロン装置の出力関数の概念図、第9図から
第12図は人力の変動領域と出力の変動領域の関係を示
す特性図、第I3図は階層型ニューラルネットワークの
概念図、第14図は人力層のニューロンの概念図、第1
5図は中間層および出力層のニューロンの概念図、第1
6図は従来の中間層および出力層のニューロン装置の一
例のブロック図、第17図は第16図に示すニューロン
装置の出力関数の概念図、第18図は第16図に示すニ
ューロン装置の出力関数の導関数の概念図、第19図は
従来の入力層のニューロン装置の一例のブロック図、第
20図は第19図に示すニューロン装置の入出力特性図
、第21図および第22図は第19図に示すニューロン
装置における入力の変動領域と出力の変動領域の関係を
示す特性図である。 (符号の説明) 100・・・階層型ニューラルネットワークBl・・・
第1制御部 Bm・・・第m制御部 1(1)〜R(L)・・・ニューロン 装置・・ニューロン装置 2・・・乗算器 3・・・重みレジスタ 4・・・加算器 5・・・変換器 6・・・出力関数のテーブル 20a・・・除算器。
FIG. 1 is a block diagram of a hierarchical neural network including a learning control device according to an embodiment of the present invention, FIG. 2 is a block diagram of an example of a neuron device for the intermediate layer and output layer according to the present invention, and FIG. FIG. 2 is a conceptual diagram of the output function of the neuron device shown in FIG. 4, FIG. 4 is a conceptual diagram of the derivative of the output function of the neuron device shown in FIG. 2, FIG. 5 is a block diagram of the m-th control section, and FIG. (a) and (b) are flowcharts of the operation of a learning control device according to an embodiment of the present invention, FIG. 7 is a block diagram of an example of a neuron device in the human power layer, and FIG. 8 is an output of the neuron device shown in FIG. 7. Conceptual diagram of the function, Figures 9 to 12 are characteristic diagrams showing the relationship between the human power fluctuation range and the output fluctuation range, Figure I3 is a conceptual diagram of the hierarchical neural network, and Figure 14 is the neuron of the human power layer. Conceptual diagram, 1st
Figure 5 is a conceptual diagram of neurons in the intermediate layer and output layer.
Fig. 6 is a block diagram of an example of a conventional neuron device in the intermediate layer and output layer, Fig. 17 is a conceptual diagram of the output function of the neuron device shown in Fig. 16, and Fig. 18 is the output of the neuron device shown in Fig. 16. A conceptual diagram of the derivative of a function, FIG. 19 is a block diagram of an example of a conventional input layer neuron device, FIG. 20 is an input/output characteristic diagram of the neuron device shown in FIG. 19, and FIGS. 21 and 22 are FIG. 20 is a characteristic diagram showing the relationship between the input variation region and the output variation region in the neuron device shown in FIG. 19; (Explanation of symbols) 100...Hierarchical neural network Bl...
First control unit Bm...m-th control unit 1(1) to R(L)...neuron device...neuron device 2...multiplier 3...weight register 4...adder 5... ...Converter 6...Output function table 20a...Divider.

Claims (1)

【特許請求の範囲】 1、バックプロパゲーションによる学習を繰り返して階
層型ニューラルネットワークを所望の状態に収束させる
学習制御装置において、各ニューロンの中から入力の大
きさが所定 値以上のニューロンを抽出するニューロン抽出手段と、
前記抽出したニューロンのもつ出力関数y=f(x)を
y=f(x/t)、t>1に変更する出力関数変更手段
とを具備したことを特徴とする階層型ニューラルネット
ワークの学習制御装置。
[Claims] 1. In a learning control device that repeatedly performs backpropagation learning to converge a hierarchical neural network to a desired state, a neuron whose input magnitude is equal to or greater than a predetermined value is extracted from each neuron. Neuron extraction means;
Learning control for a hierarchical neural network, characterized in that it comprises an output function changing means for changing the output function y=f(x) of the extracted neuron to y=f(x/t), t>1. Device.
JP1172285A 1989-07-04 1989-07-04 Learning controller for hierarchical neural network Pending JPH0336659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1172285A JPH0336659A (en) 1989-07-04 1989-07-04 Learning controller for hierarchical neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1172285A JPH0336659A (en) 1989-07-04 1989-07-04 Learning controller for hierarchical neural network

Publications (1)

Publication Number Publication Date
JPH0336659A true JPH0336659A (en) 1991-02-18

Family

ID=15939094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1172285A Pending JPH0336659A (en) 1989-07-04 1989-07-04 Learning controller for hierarchical neural network

Country Status (1)

Country Link
JP (1) JPH0336659A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280564A (en) * 1991-02-20 1994-01-18 Honda Giken Kogyo Kabushiki Kaisha Neural network having an optimized transfer function for each neuron
US5313559A (en) * 1991-02-15 1994-05-17 Hitachi, Ltd. Method of and system for controlling learning in neural network
KR100379177B1 (en) * 2000-10-10 2003-04-11 한미하이테크주식회사 Simulator device for training fire fight

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313559A (en) * 1991-02-15 1994-05-17 Hitachi, Ltd. Method of and system for controlling learning in neural network
US5280564A (en) * 1991-02-20 1994-01-18 Honda Giken Kogyo Kabushiki Kaisha Neural network having an optimized transfer function for each neuron
KR100379177B1 (en) * 2000-10-10 2003-04-11 한미하이테크주식회사 Simulator device for training fire fight

Similar Documents

Publication Publication Date Title
Papageorgiou et al. Active Hebbian learning algorithm to train fuzzy cognitive maps
Khan et al. Neufuz: Neural network based fuzzy logic design algorithms
Ferreira et al. Comparing recurrent networks for time-series forecasting
Atencia et al. Hopfield neural networks for parametric identification of dynamical systems
Ahrns et al. On-line learning with dynamic cell structures
Abido et al. On-line identification of synchronous machines using radial basis function neural networks
Eng et al. Forecast forex with ANN using fundamental data
US6768927B2 (en) Control system
JPH0336659A (en) Learning controller for hierarchical neural network
JP3214876B2 (en) Neural network configuration method and neural network construction support system
Rizzi et al. Automatic training of ANFIS networks
Shannon et al. Adaptive critic based approximate dynamic programming for tuning fuzzy controllers
Hlavac Kinematics control of a redundant planar manipulator with a MLP neural network
JP3751982B2 (en) Learning method of neural network
CN106875008A (en) A kind of Inverse Solution For Manipulator Kinematics method and system
JP2654686B2 (en) neural network
Mansour et al. Neural network based tuning algorithm for MPID control
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
JPH0359757A (en) Neural circuit net processing system
da Silva Application of neural networks in geotechnical engineering
Godjevac et al. Adaptive neuro-fuzzy controller for navigation of mobile robot
JPH04246781A (en) Shape deciding method for cable structure
JPH0981535A (en) Learning method for neural network
JPH11259445A (en) Learning device
Keshavaraj et al. Prediction of solvent activity in polymer systems with neural networks