JPH0680505B2 - Learning method for multilayer neural network - Google Patents

Learning method for multilayer neural network

Info

Publication number
JPH0680505B2
JPH0680505B2 JP63250915A JP25091588A JPH0680505B2 JP H0680505 B2 JPH0680505 B2 JP H0680505B2 JP 63250915 A JP63250915 A JP 63250915A JP 25091588 A JP25091588 A JP 25091588A JP H0680505 B2 JPH0680505 B2 JP H0680505B2
Authority
JP
Japan
Prior art keywords
layer
pattern
load
learning
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63250915A
Other languages
Japanese (ja)
Other versions
JPH0298770A (en
Inventor
信也 細木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP63250915A priority Critical patent/JPH0680505B2/en
Publication of JPH0298770A publication Critical patent/JPH0298770A/en
Publication of JPH0680505B2 publication Critical patent/JPH0680505B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Description

【発明の詳細な説明】 〔概要〕 多層神経回路網の学習を行う学習方式に関し、 中間層に興奮性荷重および抑制性荷重を設け、第1層に
入力パターンを入力して自己学習させることにより、入
力パターンに対して特異的に反応する要素を自動形成さ
せ、冗長性、汎化能力を向上させることを目的とし、 入力パターンを非線型処理する第1層と、この第1層か
らのパターンV(1)の全てに対して演算するための学習し
得る興奮性荷重、およびモニタセルからのパターンに対
して演算するための学習し得る抑制性荷重、上記興奮性
荷重と上記抑制性荷重とについてそれぞれ演算したパタ
ーンの総和を求める和回路、この和回路によって求めた
パターンを非線型処理する第2層と、この第2層からの
パターンV(2)に所定の荷重を演算し、これら演算したパ
ターンの総和を求める和回路からなる第3層と、上記第
1層からのパターンV(1)および上記第2層からのパター
ンV(2)の和を求めて非線型処理を行い、その結果のパタ
ーンを上記第2層(中間層)の抑制性荷重と演算させる
モニタセルとを備え、第1層からのパターンV(1)および
第2層のパターンV(2)に基づいて該当する興奮性荷重の
値を更新(増分・減分)すると共に、第1層からのパタ
ーンV(1)の総和および第2層のパターンV(2)の総和に基
づいて該当する抑制性荷重(4)の値を更新(増分・減
分)する自己学習を行うようち構成する。また、第3層
の荷重に対して誤差分に対応するパターンによって、当
該荷重を更新(増分・減分)して誤差修正学習し得るよ
うに構成する。
DETAILED DESCRIPTION OF THE INVENTION [Outline] A learning method for learning a multi-layer neural network, in which an excitatory load and an inhibitory load are provided in an intermediate layer, and an input pattern is input to the first layer to perform self-learning. , A first layer for nonlinearly processing an input pattern and a pattern from this first layer for the purpose of automatically forming elements that specifically react to the input pattern and improving redundancy and generalization ability. Regarding the excitable load that can be learned for all V (1) , and the restrainable load that can be learned for computing the pattern from the monitor cell, the excitatory load and the inhibitory load OR circuit for obtaining the sum of each operation pattern, computed and a second layer of non-linear processing a pattern determined by the OR circuit, a predetermined load pattern V (2) from the second layer, and these calculation A third layer consisting of OR circuit for obtaining the sum of the pattern, performs non-linear processing calculates the sum of the pattern V (2) from the pattern V (1) and the second layer from the first layer, as a result It said second layer a pattern of a monitor cell for calculating the inhibitory load (intermediate layer), excitatory appropriate based on the pattern V (1) and pattern V of the second layer (2) from the first layer The value of the load is updated (increment / decrement ) , and based on the sum of the pattern V (1) from the first layer and the sum of the pattern V (2) of the second layer, the applicable inhibitory load (4) is It is configured to perform self-learning to update (increment / decrement) the value. In addition, the load is updated (incremented / decremented) by a pattern corresponding to the error with respect to the load of the third layer, and error correction learning can be performed.

〔産業上の利用分野〕[Industrial application field]

本発明は、多層神経回路網の学習を行う学習方式、特に
中間層を設けて自己学習を行うと共に誤差学習を行い得
るように構成した多層神経回路網の学習方式に関するも
のである。
The present invention relates to a learning method for learning a multi-layered neural network, and more particularly to a learning method for a multi-layered neural network configured to provide an intermediate layer for self-learning and error learning.

〔従来の技術と発明が解決しようとする課題〕[Problems to be Solved by Conventional Techniques and Inventions]

近年、小脳を模式した多層神経回路網を適用したロボッ
トマニュピュレータの学習方式として、バックプロパゲ
ーション法、誤差修正法などが提案されている。バック
プロパゲーション法は、中間層も最終層と同じアルゴリ
ズムで学習可能である点で優れているが、記憶可能な入
力パターン数、冗長性(細胞の一部に故障が発生しても
学習により正常な動作が可能となる性質)、汎化能力
(学習された入力パターンとは異なるが、それに近い入
力パターンがきた場合に、近い出力が得られる能力)な
どの点で未だ十分とは言えない問題がある。また、誤差
修正法は、最終層のみについて学習が行われ、中間層の
構成は先見的な知識に基づいていわば固定的であり、自
己学習し得ないという問題がある。
In recent years, a back propagation method, an error correction method, etc. have been proposed as a learning method for a robot manipulator to which a multilayered neural network that models the cerebellum is applied. The backpropagation method is excellent in that the middle layer can be learned with the same algorithm as the last layer, but the number of memorable input patterns and redundancy (normal even if a part of a cell fails due to learning) Is not yet sufficient in terms of generalization ability (the ability to perform various actions) and generalization ability (the ability to obtain a similar output when an input pattern that is different from the learned input pattern, but similar to the learned input pattern). There is. In addition, the error correction method has a problem in that learning is performed only in the final layer, and the structure of the intermediate layer is fixed based on the a priori knowledge, and cannot be self-learned.

本発明は、中間層に興奮性荷重および抑制性荷重を設
け、第1層に入力パターンを入力して自己学習させるこ
とにより、入力パターンに対して特異的に反応する要素
を自動形成させ、冗長性、汎化能力を向上させることを
目的としている。
According to the present invention, an excitatory load and an inhibitory load are provided in the middle layer, and an input pattern is input to the first layer for self-learning, whereby elements that specifically react to the input pattern are automatically formed and redundant. Its purpose is to improve sex and generalization ability.

〔課題を解決する手段〕[Means for solving the problem]

第1図を参照して課題を解決する手段を説明する。 Means for solving the problems will be described with reference to FIG.

第1図において、第1層は、入力パターンを非線型処理
1するものである。
In FIG. 1, the first layer is for performing non-linear processing 1 on the input pattern.

第2層(中間層)は、第1層からのパターンV(1)の全て
に対して演算するための学習し得る興奮性荷重2、およ
びモニタセル6からのパターンに対して演算するための
学習し得る抑制性荷重4、興奮性荷重2と抑制性荷重4
とについてそれぞれ演算したパターンの総和を求める和
回路3、この和回路3によって求めたパターンを非線型
処理5するものである。
The second layer (intermediate layer) has a learnable excitatory load 2 for computing all patterns V (1) from the first layer, and a learning for computing patterns from the monitor cell 6. Possible inhibitory load 4, excitatory load 2 and inhibitory load 4
A summing circuit 3 for calculating the sum of the patterns calculated for and, and a non-linear processing 5 for the patterns calculated by the summing circuit 3.

第3層は、第2層からのパターンV(2)に所定の荷重7を
演算し、これら演算したパターンの総和を求める和回路
8からなるものである。
The third layer is composed of a summing circuit 8 which calculates a predetermined load 7 on the pattern V (2) from the second layer and calculates the sum of these calculated patterns.

モニタセル6は、第1層からのパターンV(1)および第2
層からのパターンV(2)の和を求めて非線型処理を行い、
その結果のパターンを第2層(中間層)の抑制性荷重4
と演算させるものである。
The monitor cell 6 includes the pattern V (1) and the second pattern from the first layer.
Non-linear processing is performed by summing the patterns V (2) from the layers,
The resulting pattern is the restraining load 4 of the second layer (intermediate layer).
Is calculated.

〔作用〕[Action]

本発明は、第1図に示すように、第1層が入力パターン
について非線型処理を行ってパターンV(1)を送出し、第
2層がこれらのパターンV(1)に興奮性荷重2を演算した
結果と、モニタセル6からのパターンに抑制性荷重4を
演算した結果との和を求め、更に非線形処理5を行って
パターンV(2)を送し、第3層がこのパターンV(2)に荷重
7を演算して和を求めて出力パターン(例えば第7図T
n)を出力するようにしている。この際、第2層へのパ
ターンV(1)および第2層からのパターンV(2)に基づい
て、第2層の要素の興奮性荷重2の値を更新(増分・減
分)し、また、モニタセル6が、第1層からのパターン
V(1)の和および第2層からのパターンV(2)に基づいて、
第2層の要素の抑制性荷重4の値を更新(増分・減分)
し、発火要素数を抑制することにより、自己学習(入力
パターンに対し特異的に反応する要素を形成)するよう
にしている。更に、第3層の荷重7について、誤差を修
正するように更新(増分・減分)する学習を行うように
している(第7図、第8図参照)。
According to the present invention, as shown in FIG. 1, the first layer performs non-linear processing on an input pattern and sends out a pattern V (1) , and the second layer sends an excitable load 2 to these patterns V (1). and results of calculation, and calculates the sum of the calculation result of the inhibitory load 4 to the pattern of the monitor cell 6, to further feed the pattern V (2) performs a nonlinear process 5, the third layer is the pattern V ( 2) The load 7 is calculated and the sum is calculated to output the output pattern (for example, FIG. 7 T
n) is output. At this time, based on the pattern V (1) to the second layer and the pattern V (2) from the second layer, the value of the excitatory load 2 of the element of the second layer is updated (increment / decrement), In addition, the monitor cell 6 is a pattern from the first layer.
Based on the sum of V (1) and the pattern V (2) from the second layer,
Update the value of the restraining load 4 of the element of the 2nd layer (increment / decrement)
However, by suppressing the number of firing elements, self-learning (forming elements that react specifically to the input pattern) is performed. Further, with respect to the load 7 of the third layer, learning for updating (increment / decrement) so as to correct the error is performed (see FIGS. 7 and 8).

従って、入力パターンを第1層に入力して中間層に設け
た興奮性荷重2および抑制性荷重4について自己学習さ
せることにより、入力に適応した結線が自動的に行われ
て入力パターンに対して特異的に反応する要素(細胞)
を形成することが可能となると共に、冗長性、汎可能力
を得ることが可能となる。更に、最終層である第3層の
荷重7に対して誤差修正学習を行わせる。
Therefore, by inputting the input pattern to the first layer and self-learning the excitatory load 2 and the inhibitory load 4 provided in the intermediate layer, the wiring adapted to the input is automatically performed, and the input pattern is connected to the input pattern. Elements (cells) that react specifically
Can be formed, and at the same time, redundancy and universal power can be obtained. Further, the error correction learning is performed on the load 7 of the third layer which is the final layer.

〔実施例〕 次に、第1図から第8図を用いて本発明の1実施例の構
成および動作を順次詳細に説明する。
[Embodiment] Next, the configuration and operation of one embodiment of the present invention will be sequentially described in detail with reference to FIGS. 1 to 8.

第1図において、第1層は、入力パターンを非線型処理
1する要素から構成されている。この非線型処理1は、
例えば下式で表される非線型処理を行う。
In FIG. 1, the first layer is composed of elements that perform nonlinear processing 1 on the input pattern. This non-linear processing 1
For example, non-linear processing represented by the following formula is performed.

第2層(中間層)は、興奮性荷重2、和回路3、抑制性
荷重4、非線型処理5を持つ複数の要素(例えば500
個)から構成されている。ここで、和回路3は、第1層
からのパターンV(1)の全てについて興奮性荷重2をそれ
ぞれ演算した値と、モニタセル6からのパターンについ
て抑制性荷重4を演算した値との和を基めるものであ
る。
The second layer (intermediate layer) is a plurality of elements having excitatory load 2, sum circuit 3, inhibitory load 4, and nonlinear processing 5 (for example, 500).
Individual)). Here, the sum circuit 3 calculates the sum of the value obtained by calculating the excitatory load 2 for all the patterns V (1) from the first layer and the value obtained by calculating the inhibitory load 4 for the pattern from the monitor cell 6. It is the basis.

第3層は、第2層からのパターンV(2)に所定の荷重(誤
差修正学習した荷重)7を演算し、これら演算したパタ
ーンの総和を求める和回路8から構成されている。
The third layer is composed of a summing circuit 8 that calculates a predetermined load (a load that has been subjected to error correction learning) 7 on the pattern V (2) from the second layer and calculates the sum of these calculated patterns.

モニタセル6は、第1層からのパターンV(1)および第2
層からのパターンV(2)の総和を求めて非線型処理を行う
ものである。
The monitor cell 6 includes the pattern V (1) and the second pattern from the first layer.
Non-linear processing is performed by obtaining the sum of patterns V (2) from the layers.

第2図は、第1図第2層の1つの要素(細胞)構成例を
示す。ここで、Vj(1)は第1層からのパターン、Vi(2)
第2層から出力されるパターン、Wijは興奮性荷重、Wig
は抑制性荷重、Σは和回路、θiは閾値、∫は非線型処
理を表す。
FIG. 2 shows an example of the constitution of one element (cell) in the second layer of FIG. Here, Vj (1) is the pattern from the first layer, Vi (2) is the pattern output from the second layer, Wij is the excitatory load, Wig
Represents an inhibitory load, Σ represents a sum circuit, θi represents a threshold, and ∫ represents nonlinear processing.

次に、第3図を用いて、本発明の全体概念を説明する。Next, the overall concept of the present invention will be described with reference to FIG.

第3図において、signalは後述する第7図に示すような
平面2関節マニュピレータの理想軌道についての入力
(関節角とその速度)である。
In FIG. 3, signal is an input (joint angle and its velocity) about an ideal trajectory of a plane two-joint manipulator as shown in FIG. 7 described later.

Gaussian filterは、ガウスフィルタであって、第4図
を用いて後述するように、入力パターンから第4図
(ハ)上段に示すような位相幅Δa(=40゜)、間隔10
゜からなる信号成分を抽出するものである。
The Gaussian filter is a Gaussian filter, and as will be described later with reference to FIG. 4, a phase width Δa (= 40 °) and an interval of 10 from the input pattern as shown in the upper part of FIG.
This is to extract a signal component consisting of °.

第1層は、第1図非線型処理から構成されている。The first layer comprises the non-linear processing of FIG.

第2層(中間層)は、第1図第2層に示す構成を持ち、
self-organization(自己学習)を実行する層である。
The second layer (intermediate layer) has the structure shown in FIG.
It is a layer that executes self-organization.

第3層は、第1図第3層に示す構成を持ち、error-corr
ection(誤差修正学習)を実行する層である。
The third layer has the structure shown in FIG. 1 and the third layer, and error-corr
This is the layer that executes ection (error correction learning).

モニタセル6は、第1層からのパターンV(1)および第2
層からのパターンV(2)に基づいて、第2層(中間層)の
抑制を行うものである。
The monitor cell 6 includes the pattern V (1) and the second pattern from the first layer.
The second layer (intermediate layer) is suppressed based on the pattern V (2) from the layer.

第4図を用いて、第1層へ入力する入力パターンの生成
例について説明する。
An example of generating an input pattern to be input to the first layer will be described with reference to FIG.

第4図(イ)はガウスフィルタの動作説明を示す。これ
は、第7図平面2関節マニピュレータのものであって、
第4図(ハ)上段の関節角θに示すように、 −60゜ないし+60゜(関節角の範囲) Δa=40゜(半値幅) フィルタ数=16 とした場合、第4図(ロ)に示すように指示された関節
角θを入力として、16個のガウスフィルタ(半値幅Δa
=40゜、間隔=10゜の特性を持つ合計16個のガウスフィ
ルタ)によって、合計16個の要素を持つ入力パターンを
生成する。また、第4図(ハ)速度についても同様に、
24個のガウスフィルタ(半値幅Δv=240度、間隔50度
/秒の特性を持つ合計24個のガウスフィルタ)によっ
て、合計24個の要素を持つ入力パターンを生成する。そ
して、第7図平面2関節マニュピレータの場合には、第
5図関節角および速度が2組となるから、合計 (16+24)×2=80 の入力パターンを第3図第1層(第1図第1層)に入力
する。これら入力した80個の要素の入力パターンについ
てそれぞれ既述した非線型処理を行ったパターンV(1)
第2層に入力する。
FIG. 4A shows the operation of the Gaussian filter. This is that of the plane 2 joint manipulator of FIG.
As shown in the joint angle θ in the upper part of Fig. 4 (c), -60 ° to + 60 ° (range of joint angle) Δa = 40 ° (half width) When the number of filters = 16, Fig. 4 (b) Input the joint angle θ instructed as shown in, and enter 16 Gaussian filters (half-value width Δa
= 40 °, 16 = a total of 16 Gaussian filters with intervals = 10 °) to generate an input pattern with a total of 16 elements. In addition, similarly for the speed shown in FIG.
An input pattern having a total of 24 elements is generated by the 24 Gauss filters (a total of 24 Gauss filters having a half width Δv = 240 degrees and an interval of 50 degrees / second). In the case of the plane two-joint manipulator shown in FIG. 7, since there are two sets of joint angles and velocities shown in FIG. 5, a total of (16 + 24) × 2 = 80 input patterns are shown in FIG. Input in the 1st layer). The pattern V (1) that has been subjected to the nonlinear processing described above for the input patterns of these 80 input elements is input to the second layer.

次に、第5図式(1)から(4)を用いて、第2層(中
間層)の自己学習について詳細に説明する。
Next, the self-learning of the second layer (intermediate layer) will be described in detail by using the fifth equations (1) to (4).

第5図において、式(1)の左辺のτdwij(2)/dtは興奮
性荷重の増分を示し、式(2)の右辺のτdwig/dtは抑
制性荷重の増分を示し、式(3)の左辺のVgはモニタセ
ル6からの抑制パターンを示し、式(4)のVi(2)は第
2層からのパターンを示す。また、τは時定数、c1、c2
は学習の速度や収束値を決める学習パラメータを示す。
以下自己学習の手順を説明する。
In FIG. 5, τdwij (2) / dt on the left side of equation (1) indicates the increment of excitatory load, τdwig / dt on the right side of equation (2) indicates the increment of inhibitory load, and equation (3) Vg on the left-hand side of FIG. 4 shows the suppression pattern from the monitor cell 6, and Vi (2) in equation (4) shows the pattern from the second layer. Also, τ is the time constant, c 1 , c 2
Indicates a learning parameter that determines the learning speed and the convergence value.
The procedure of self-learning will be described below.

第1に、式(1)の興奮性荷重wij(2)および式(2)の
抑制性荷重wigは、当初ランダム(例えば一様乱数)に
与える。
First, the excitatory load wij (2) of the equation (1) and the inhibitory load wig of the equation (2) are initially given randomly (for example, uniform random numbers).

第2に、第4図ガウスフィルタを通ってきた入力パター
ン(例えば平面2関節マニュピレータの関節角(θ
θ)、速度(V1、V2)から生成した80個の要素を持つ
入力パターン)が、第1層の非線形処理1によって非線
型の変換を受け、第2層へのパターンV(1)となる。
Second, the input pattern that has passed through the Gaussian filter shown in FIG. 4 (for example, the joint angle (θ 1 , the joint angle of the plane two-joint manipulator,
θ 2 ), velocity (V 1 , V 2 ) generated input pattern with 80 elements) undergoes non-linear conversion by the non-linear processing 1 of the first layer, and the pattern V (1 ) .

第3に、この第2層へのパターンV(1)について、当初ラ
ンダムに設定し、その後学習する興奮性荷重wij(2)およ
び抑制性荷重wigの値に基づいて、式(4)に従って第
2層から出力されるパターンV(2)を生成する。ここで、
θiは閾値である。
Thirdly, based on the values of the excitatory load wij (2) and the inhibitory load wig, which are initially set at random for the pattern V (1) for the second layer, the second pattern is calculated according to the equation (4). Generate the pattern V (2) output from the second layer. here,
θi is a threshold.

第4に、式(1)によって興奮性荷重の増分“Δwi
j(2)"を行う。この式(1)によって表される増分“Δw
ij(2)"は(シナップス値の上昇は)、第2層のある要素
(細胞、Vi(2))が発火し、かつ第1層のある要素(細
胞、Vj(1))が発火した時に、その積に比例する。一
方、第2層のある要素が発火していない時や第1層から
の入力がない時には、減少する。当初ランダムな興奮性
荷重wij(2)に設定しても、種々の特異的な入力パターン
を入力して繰り返し学習を行って更新することにより、
式(1)の右辺の括弧の中が零となるような安定平衡状
態に収束するように自動的に第2層の結線が形成され
る。
Fourthly, according to the equation (1), the increment of excitatory load “Δwi
j (2) ". The increment" Δw represented by this equation (1)
"ij (2) " (increased synapse value) fired an element in the second layer (cell, Vi (2) ) and an element in the first layer (cell, Vj (1) ). Sometimes it is proportional to the product, on the other hand, it decreases when some element of the second layer is not firing or when there is no input from the first layer. Initially set to random excitatory load wij (2) Also, by inputting various specific input patterns and performing repeated learning and updating,
The connection of the second layer is automatically formed so as to converge to a stable equilibrium state where the value in the parenthesis on the right side of Expression (1) becomes zero.

第5に、式(2)によって抑制性荷重の増分“Δwig"を
行う。この式(2)によって表される増分“Δwig"は、
第2層のある要素(細胞、Vi(2)が発火し、かつ第1層
からの出力パターンVi(1)の総和および第2層からのパ
ターンVj(2)の総和が所定閾値θよりも大きい時に、
その積に比例する。一方、第2層のある要素が発火して
いない時や、総和が小さい時には、減少する。当初ラン
ダムな抑制性荷重wigに設定しても、種々の特異的な入
力パターンを入力して学習を行って更新することによ
り、式(2)の右辺の括弧の中が零となるような安定平
衡状態に収束するように自動的に第2層の抑制が制御さ
れる。即ち、第2層(中間層)の要素(細胞)が発火し
すぎると、式(3)のVgが大となり、式(2)によって
抑制性荷重が大きくなって第2層の総発火数を抑えるよ
うに制御する。一方、総発火数が少ない時には、多くな
るように制御する。更に、第2層からのパターンV(2)
値が小さくなってくると、式(1)、式(2)の右辺に
かかっているV(2)によって、興奮性荷重および抑制性荷
重の増分が小さくなるように制御される。
Fifth, the inhibitory load increment “Δwig” is performed by the equation (2). The increment “Δwig” represented by this equation (2) is
A certain element of the second layer (cell, Vi (2) is fired, and the sum of output patterns Vi (1) from the first layer and the sum of patterns Vj (2) from the second layer are more than a predetermined threshold θ 0 . Is also large,
Proportional to the product. On the other hand, it decreases when a certain element of the second layer is not firing or when the sum is small. Even if initially set to random suppressive load wig, by inputting various peculiar input patterns and performing learning and updating, stability such that the value in the parenthesis on the right side of equation (2) becomes zero The suppression of the second layer is automatically controlled so as to converge to the equilibrium state. That is, when the elements (cells) of the second layer (intermediate layer) are overly ignited, Vg of the equation (3) becomes large, and the inhibitory load becomes large according to the equation (2), and the total number of firings of the second layer is increased. Control to suppress. On the other hand, when the total number of ignitions is small, it is controlled to increase. Further, when the value of the pattern V (2) from the second layer becomes smaller, V (2) applied to the right side of the equations (1) and (2) reduces the excitatory load and the inhibitory load. The increment is controlled to be small.

次に、第6図は、中間層(第2層)の応答例のシミュレ
ーション結果を模式的に表したものである。横軸に入力
パターンを示し、縦軸は細胞(要素)の種類を示す。図
中の横棒が発火した細胞、即ち入力パターンに対して特
異的に反応する細胞を示す。この応答例から入力パター
ンに対応してほぼ一様に当該入力パターンの検出細胞
(要素)が形成されたことが判明する(90%以上)。ま
た、検出細胞(第2層の要素)は、1個の入力パターン
に反応するものから、類似する数個の入力パターンに反
応するものまで分布している様子が判る。
Next, FIG. 6 schematically shows a simulation result of a response example of the intermediate layer (second layer). The horizontal axis represents the input pattern, and the vertical axis represents the type of cell (element). The horizontal bar in the figure indicates a fired cell, that is, a cell that specifically reacts to the input pattern. From this response example, it is found that the detected cells (elements) of the input pattern were formed substantially uniformly (90% or more) corresponding to the input pattern. Further, it can be seen that the detected cells (elements of the second layer) are distributed from those that respond to one input pattern to those that respond to several similar input patterns.

次に、第7図および第8図を用いて、本発明を平面2関
節マニュピレータに適用した場合の構成およびシミュレ
ーション結果を説明する。
Next, a configuration and a simulation result when the present invention is applied to a planar two-joint manipulator will be described with reference to FIGS. 7 and 8.

第7図は、本発明を平面2関節マニュピレータに適用し
た場合の応用例を示す。この制御対象の力学的モデル
は、下式で表せる。
FIG. 7 shows an application example when the present invention is applied to a plane two-joint manipulator. The mechanical model of this controlled object can be expressed by the following equation.

A(θ)+B(θ、)+C(θ)=T ここで、左辺の各項は慣性項、求心およびコリオリ力の
項、重力項を表す。また、右辺のTはトルクである。シ
ミュレーションでは、アームの質量M1=M2=5.0kg、長
さL1=L2=0.3mとした。理想軌道として、1秒間続く4
種類を採用し、シミュレーションの時間間隔は0.02秒と
した。従って、1個の軌道につき、50パターンが第1図
構成に提示されることとなる。フィードバックの利得Kp
=1.0、速度Kv=3.0とした。第1図の第1層の各要素
(細胞)には、角度と角速度とを既述した第4図(ロ)
ガウスフィルタを通して80個に離散化した入力パターン
を与えた。各関節につき、40個(角度:16個、各速度:24
個)である。
A (θ) + B (θ,) + C (θ) = T Here, each term on the left side represents an inertial term, a centripetal and Coriolis force term, and a gravity term. Further, T on the right side is torque. In the simulation, the mass of the arm M 1 = M 2 = 5.0 kg and the length L 1 = L 2 = 0.3 m. As an ideal trajectory, it lasts 1 second 4
Different types were adopted, and the simulation time interval was 0.02 seconds. Therefore, 50 patterns are presented in the configuration of FIG. 1 for one trajectory. Feedback gain Kp
= 1.0 and speed Kv = 3.0. In each element (cell) of the first layer in FIG. 1, the angle and the angular velocity are already described in FIG. 4 (b).
80 discrete patterns were given through a Gaussian filter. For each joint, 40 pieces (angle: 16 pieces, each speed: 24
Individual).

第8図(イ)、(ロ)は、アーム角θ、アーム角θ
について、単一軌道について学習を行わせた結果を表
す。横軸は学習回数を表し、縦軸は規格化したRMSE(平
均自乗誤差の平方)を表す。尚、第8図(ハ)は60回の
学習後のRMSEを示す。ここで、N(2)は中間層(第2の
層)の細胞数である。
8A and 8B show the arm angle θ 1 and the arm angle θ 2.
For, the result of learning about a single trajectory is shown. The horizontal axis represents the number of times of learning, and the vertical axis represents the normalized RMSE (square of mean square error). Note that FIG. 8C shows the RMSE after 60 learnings. Here, N (2) is the number of cells in the intermediate layer (second layer).

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明によれば、入力パターンを
第1層に入力して中間層(第2層)に設けた興奮性荷重
2および抑制性荷重4について自己学習させ、入力に適
応した結線を自動的に行う構成を採用しているため、入
力パターンに対して特異的に反応する要素(細胞)を自
己学習的に形成することができると共に、冗長性、汎化
能力を持たせることができる。更に、最終層である第3
層の荷重7の学習によって誤差修正学習を行わせること
ができる。これら中間層の自己学習および最終層の誤差
修正学習を行う多層神経回路網をフィードバック系に適
用、例えば第7図に示すように適用することにより、フ
ィードバック系から学習に従い、本発明に係わる多層神
経回路網によるフィードフォワード系に移行する。
As described above, according to the present invention, the input pattern is input to the first layer, the excitatory load 2 and the inhibitory load 4 provided in the intermediate layer (second layer) are self-learned, and applied to the input. Since the configuration that automatically connects the wires is adopted, it is possible to form elements (cells) that specifically react to the input pattern in a self-learning manner and to have redundancy and generalization ability. You can Furthermore, the third layer, which is the final layer
The error correction learning can be performed by learning the layer weight 7. By applying a multilayer neural network that performs self-learning of the intermediate layer and error correction learning of the final layer to a feedback system, for example, as shown in FIG. 7, the multilayer neural network according to the present invention is learned according to the learning from the feedback system. Transition to feedforward system by network.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の原理ブロック図、第2図は第2層の要
素構成例、第3図は本発明の全体説明図、第4図はガウ
スフィルタ説明図、第5図は中間層の学習動作説明図、
第6図は中間層の応答例、第7図は本発明の応用例説明
図、第8図は本発明の応用例の学習説明図を示す。 図中、1、5は非線形処理、2は興奮性荷重、3、8は
和回路、4は抑制性荷重、6はモニタセル、7は荷重を
表す。
FIG. 1 is a block diagram of the principle of the present invention, FIG. 2 is an example of the element structure of the second layer, FIG. 3 is an overall explanatory diagram of the present invention, FIG. 4 is a Gaussian filter explanatory diagram, and FIG. Learning operation explanatory diagram,
FIG. 6 is a response example of the intermediate layer, FIG. 7 is an explanatory diagram of an application example of the present invention, and FIG. 8 is a learning explanatory diagram of an application example of the present invention. In the figure, 1 and 5 are nonlinear processing, 2 is excitatory load, 3 and 8 are sum circuits, 4 is inhibitory load, 6 is monitor cell, and 7 is load.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】多層神経回路網の学習を行う学習方式にお
いて、 入力パターンを非線型処理する手段(1)を有する第1
層と、 この第1層からのパターンV(1)の全てに対して演算する
ための学習し得る興奮性荷重手段(2)と、モニタセル
(6)からのパターンに対して演算するための学習し得
る抑制性荷重手段(4)と、上記興奮性荷重手段(2)
と上記抑制性荷重手段(4)とについてそれぞれ演算し
たパターンの総和を求める和回路(3)と、この和回路
(3)によって求めたパターンを非線型処理する手段
(5)を含む第2層と、 この第2層からのパターンV(2)に所定の荷重を演算する
荷重手段(7)と、当該演算したパターンの総和を求め
る和回路(8)とを含む第3層と、 上記第1層からのパターンV(1)および上記第2層からの
パターンV(2)の和を求めて非線型処理を行い、その結果
のパターンを上記第2層(中間層)の抑制性荷重手段
(4)と演算させるモニタセル(6)とを備え、 第1層からのパターンV(1)と第2層からのパターンV(2)
の積に比例して該当する興奮性荷重手段(2)の値を更
新(増分・減分)すると共に、 第1層からのパターンV(1)の総和に第2層からのパター
ンV(2)の総和を加えたものに第2層からのパターンV(2)
を積算した値に比例して該当する抑制性荷重手段(4)
の値を更新(増分・減分)する自己学習を行うように構
成したことを特徴とする多層神経回路網の学習方式。
1. A learning method for learning a multi-layer neural network, comprising first means for nonlinearly processing an input pattern.
A layer, a learnable excitatory load means (2) for computing all patterns V (1) from the first layer, and a learning for computing patterns from the monitor cell (6) Restrainable load means (4) and the excitable load means (2)
And a second circuit including a summing circuit (3) for calculating the sum of the patterns calculated by the suppressing load means (4) and a means (5) for nonlinearly processing the patterns calculated by the summing circuit (3). A third layer including a load means (7) for calculating a predetermined load on the pattern V (2) from the second layer, and a summing circuit (8) for obtaining the sum of the calculated patterns; Non-linear processing is performed by obtaining the sum of the pattern V (1) from the first layer and the pattern V (2) from the second layer, and the resulting pattern is the restraining load means of the second layer (intermediate layer). The pattern V (1) from the first layer and the pattern V (2) from the second layer are provided with the monitor cell (6) for calculating (4 )
Pattern V (2 values and updates (down increment-min) of the corresponding excitatory load means in proportion to the product (2), the sum of the pattern V (1) from the first layer from the second layer ) And the pattern V from the second layer (2)
Inhibitory load means (4) applicable in proportion to the integrated value of
A learning method for a multilayer neural network characterized by being configured to perform self-learning for updating (incrementing / decrementing) the value of.
【請求項2】上記第3層の荷重手段(7)に対して誤差
分に対応するパターンによって、当該荷重手段(7)を
更新(増分・減分)して誤差学習し得るように構成した
ことを特徴とする第(1)項記載の多層神経回路網の学
習方式。
2. The weight means (7) of the third layer is configured to update (increment / decrement) the weight means (7) by a pattern corresponding to the error amount so that the error learning can be performed. A learning method for a multilayer neural network according to item (1).
JP63250915A 1988-10-06 1988-10-06 Learning method for multilayer neural network Expired - Lifetime JPH0680505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63250915A JPH0680505B2 (en) 1988-10-06 1988-10-06 Learning method for multilayer neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63250915A JPH0680505B2 (en) 1988-10-06 1988-10-06 Learning method for multilayer neural network

Publications (2)

Publication Number Publication Date
JPH0298770A JPH0298770A (en) 1990-04-11
JPH0680505B2 true JPH0680505B2 (en) 1994-10-12

Family

ID=17214911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63250915A Expired - Lifetime JPH0680505B2 (en) 1988-10-06 1988-10-06 Learning method for multilayer neural network

Country Status (1)

Country Link
JP (1) JPH0680505B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463423B1 (en) 1998-05-22 2002-10-08 Nec Corporation Multi-winners feedforward neural network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5402519A (en) * 1990-11-26 1995-03-28 Hitachi, Ltd. Neural network system adapted for non-linear processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463423B1 (en) 1998-05-22 2002-10-08 Nec Corporation Multi-winners feedforward neural network

Also Published As

Publication number Publication date
JPH0298770A (en) 1990-04-11

Similar Documents

Publication Publication Date Title
Yu et al. Levenberg–marquardt training
JP5115965B2 (en) Neuron device, neural network device, non-negative integer coding device, integer cluster device, feedback control device, and program
Castillo et al. Reinforcement learning-based cascade motion policy design for robust 3D bipedal locomotion
Wang et al. A neuromorphic controller for a three-link biped robot
Belov et al. Self-tuning PID controller using a neural network for nonlinear exoskeleton system
JPH0680505B2 (en) Learning method for multilayer neural network
US20010034560A1 (en) Control system
Cardenas-Maciel et al. A TS Fuzzy Logic Controller for biped robot walking based on adaptive network fuzzy inference system
Jacobs et al. A modular connectionist architecture for learning piecewise control strategies
Song et al. Neural adaptive control of excavators
Pesch et al. Synthesis of optimal strategies for differential games by neural networks
Ghani et al. Optimization of fuzzy logic scaling parameters with spiral dynamic algorithm in controlling a stair climbing wheelchair: Ascending task
Kitamura et al. Autonomous motion planning and learning control of a biped locomotive robot
Wang et al. Takagi-Sugeno recurrent fuzzy neural networks for identification and control of dynamic systems
Branson et al. Incorporation, characterization, and conversion of negative rules into fuzzy inference systems
Zweiri et al. A new three-term backpropagation algorithm with convergence analysis
Zak et al. On the adaptation algorithms for feedforward neural networks
JP2929538B2 (en) Nonlinear system learning controller
Katić et al. Control algorithm for humanoid walking based on fuzzy reinforcement learning
Upadhyay et al. ANN based intelligent controller for inverted pendulum system
Kang et al. Learning deterministic spiking neuron feedback controllers
Ma et al. Theory and implementation of a fuzzy control scheme for Pendubot
Kurtaj et al. New model of information processing at granule cell layer makes cerebellum as biological equivalent for ANFIS and CANFIS: Sharing of processing resources and generalization
Ziauddin et al. Model-based compensation and comparison of neural network controllers for uncertainties of robotic arms
Hou et al. Hybrid Control Method for a Flexible Manipulator

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term