JP3224831B2 - Neural network device - Google Patents

Neural network device

Info

Publication number
JP3224831B2
JP3224831B2 JP22073791A JP22073791A JP3224831B2 JP 3224831 B2 JP3224831 B2 JP 3224831B2 JP 22073791 A JP22073791 A JP 22073791A JP 22073791 A JP22073791 A JP 22073791A JP 3224831 B2 JP3224831 B2 JP 3224831B2
Authority
JP
Japan
Prior art keywords
learning
neuron
signal
synapse
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22073791A
Other languages
Japanese (ja)
Other versions
JPH0567062A (en
Inventor
健 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP22073791A priority Critical patent/JP3224831B2/en
Publication of JPH0567062A publication Critical patent/JPH0567062A/en
Application granted granted Critical
Publication of JP3224831B2 publication Critical patent/JP3224831B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はニューラルネットワーク
装置に係り、特に同一構成のニューロンユニットで異な
った学習法を適宜選択できるようにしたニューラルネッ
トワーク装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network device, and more particularly, to a neural network device in which different learning methods can be appropriately selected for neurons having the same configuration.

【0002】[0002]

【従来の技術】ニューラルネットワークは、音声認識等
の識別問題、ロボット等の運動制御問題、各種のプロセ
ス制御問題およびニューロコンピュータ等に広く利用さ
れ始めている。ニューラルネットワークの基本構成は、
図5に示されるようにニューロンユニットjと、各ニュ
ーロンユニット間を結合するシナプスユニットからなっ
ている。
2. Description of the Related Art Neural networks have begun to be widely used for identification problems such as speech recognition, motion control problems for robots and the like, various process control problems, and neurocomputers. The basic configuration of a neural network is
As shown in FIG. 5, it is composed of a neuron unit j and a synapse unit connecting the neuron units.

【0003】神経学習においては、文献1:「神経回路
網の数理」甘利俊一著、産業図書、1978、に記載さ
れているように、シナプスユニットに設定された荷重
(シナプス荷重)Wijはそのシナプスユニットへの入力
信号の強さxi とニューロンユニットjからの学習信号
rとの積r・xi を更新量として変化することが知られ
ている。この時、シナプス荷重wijは Wij(t+1) =Wij(t) +C・r(t) ・xi(t) により更新される。Cは学習の速度を決める係数であ
る。
In neural learning, as described in Reference 1: "Mathematics of Neural Networks", Shun-ichi Amari, Sangyo Tosho, 1978, the load (synapse load) Wij set in a synapse unit is the synapse. It is known that the product r · xi of the intensity xi of the input signal to the unit and the learning signal r from the neuron unit j changes as an update amount. At this time, the synapse load wij is updated by Wij (t + 1) = Wij (t) + Cr (t) .xi (t). C is a coefficient that determines the speed of learning.

【0004】ここで、学習信号rとしてどのような信号
を用いるかによって、種々の学習法が得られる。例えば
学習信号rにニューロンユニットjの出力を用いる方法
は、ヘッブ(Hebb)学習と呼ばれ、学習信号rとし
て教師信号とニューロンユニットjの出力との差を用い
る方法は、誤り訂正学習法と呼ばれる。また、学習信号
rとして教師信号自身を用いる方法は相関学習と呼ばれ
る。さらに、非線形最適化法手法により教師信号とニュ
ーロンユニットjの出力の差を評価関数とし、この評価
関数を小さくするような学習信号rを生成すると、誤差
逆伝搬学習法が実現される(文献2:ARTIFICAL NEURAL
SYSTEMS,PERGAMON PRESS,1990)。
Here, various learning methods can be obtained depending on what kind of signal is used as the learning signal r. For example, a method using the output of the neuron unit j as the learning signal r is called Hebb learning, and a method using the difference between the teacher signal and the output of the neuron unit j as the learning signal r is called an error correction learning method. . The method of using the teacher signal itself as the learning signal r is called correlation learning. Furthermore, when the difference between the teacher signal and the output of the neuron unit j is used as an evaluation function by a nonlinear optimization method, and a learning signal r that reduces this evaluation function is generated, the error back propagation learning method is realized (Reference 2). : ARTIFICAL NEURAL
SYSTEMS, PERGAMON PRESS, 1990).

【0005】これらの学習法は、それぞれ特有の能力を
持っている。例えば、ヘッブ学習は雑音抑圧能力を持つ
(文献3:Self-Organization in a Perceptual Networ
k,R.Linsker et.al,IEEE Computer ,March 1988 pp.105
-117)。誤差逆伝搬学習法については、任意の非線形写
像の実現可能性が示されている(文献4:Neural andCo
ncurrent Real-Time Systems,John Wiley & Sons,1989)
。これらの能力は学習が正しく行われた場合にはじめ
て得られるものであって、学習が進まなかったり、過学
習と呼ばれる現象により、学習が不成立となる場合がし
ばしばある。
[0005] Each of these learning methods has unique capabilities. For example, Hebb's learning has noise suppression capability (Ref. 3: Self-Organization in a Perceptual Networ).
k, R. Linsker et.al, IEEE Computer, March 1988 pp. 105
-117). As for the backpropagation learning method, the feasibility of arbitrary nonlinear mapping has been shown (Reference 4: Neural and Co.)
ncurrent Real-Time Systems, John Wiley & Sons, 1989)
. These abilities are obtained only when learning is correctly performed, and learning often does not proceed or learning is not established due to a phenomenon called over-learning.

【0006】そこで、個々の学習法の欠点を取り除くた
めに、異なった学習法をそれぞれ用いたニューラルネッ
トワークを直列または直並列に接続する方法が先の文献
1に開示されている。しかしながら、このような学習法
の異なる複数種類のニューラルネットワークを用意する
ことは、集積回路設計に要する手間が増大するばかりで
なく、全体の回路規模が増大するため、大幅なコストア
ップを招くという問題がある。
Therefore, in order to eliminate the drawbacks of the individual learning methods, a method of connecting neural networks using different learning methods in series or in series / parallel is disclosed in the above-mentioned document 1. However, preparing a plurality of types of neural networks having different learning methods not only increases the work required for integrated circuit design, but also increases the overall circuit scale, thereby causing a significant cost increase. There is.

【0007】さらに、特に誤差逆伝搬学習法における学
習不成立の問題を回避するため、学習開始時とは異なっ
た初期値で再学習させる方法も提案されているが、この
方法を具体的にどのように実現するかの知見に欠けてい
る。
[0007] Furthermore, in order to avoid the problem of learning failure in the error backpropagation learning method, a method of re-learning with an initial value different from that at the start of learning has also been proposed. Lack of knowledge on how to achieve this.

【0008】[0008]

【発明が解決しようとする課題】上述したように、ニュ
ーラルネットワークにおける個々の学習法の欠点を除く
ために学習法の異なる複数種類のニューラルネットワー
クを直列または直並列に接続する方法は、大幅なコスト
アップを招くという問題があり、また誤差逆伝搬学習法
において学習不成立の問題を回避するため、学習開始時
とは異なった初期値で再学習させる方法については、具
体的な実現手段が提示されていないという問題があっ
た。
As described above, the method of connecting a plurality of types of neural networks having different learning methods in series or in series / parallel in order to eliminate the disadvantages of the individual learning methods in the neural network requires a large cost. In order to avoid the problem of learning failure in the error back propagation learning method, there is a specific means for re-learning with an initial value different from that at the start of learning. There was no problem.

【0009】本発明は、ニューロンユニットについて複
数種類のハードウェア(集積回路)を用意することな
く、同一構成で異なる複数の学習法を任意に選択できる
ようにしたニューラルネットワーク装置を提供すること
を目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a neural network device in which a plurality of different learning methods having the same configuration can be arbitrarily selected without preparing a plurality of types of hardware (integrated circuits) for a neuron unit. And

【0010】[0010]

【課題を解決するための手段】上記の課題を解決するた
め、本発明では複数のニューロンユニットと、これらの
ニューロンユニットへの入力信号に対して、学習信号に
基づいて更新されるシナプス荷重を与えるシナプスユニ
ットとを基本構成要素とするニューラルネットワーク装
置において、各ニューロンユニットが、異なる学習法に
対応する複数の学習信号を生成する学習信号生成手段
と、これら複数の学習信号からシナプス荷重を更新する
ための一つの学習信号を選択する学習信号選択手段とを
それぞれ備えることを特徴とする。
In order to solve the above-mentioned problems, the present invention provides a plurality of neuron units and a synapse load updated based on a learning signal to input signals to these neuron units. In a neural network device having a synapse unit as a basic component, each neuron unit generates a plurality of learning signals corresponding to different learning methods, and updates a synapse load from the plurality of learning signals. And a learning signal selecting means for selecting one of the learning signals.

【0011】本発明においては、各ニューロンユニット
が同一の集積回路により構成され、外部からの制御信号
により所定の処理を行うように制御されるようにするこ
とが好ましい。
In the present invention, it is preferable that each neuron unit is constituted by the same integrated circuit, and is controlled so as to perform predetermined processing by an external control signal.

【0012】また、学習信号生成手段は、例えばヘッブ
学習法と、微分ヘッブ学習法および誤差逆伝搬学習法の
うちの少なくとも二つの学習法に対応する学習信号を生
成するものとする。
The learning signal generating means generates a learning signal corresponding to at least two learning methods of, for example, the Hebb learning method, the differential Hebb learning method and the error back propagation learning method.

【0013】[0013]

【作用】このように本発明では各ニューロンユニットが
異なる学習法に対応する複数の学習信号から一つの学習
信号を選択してシナプスユニットに供給する構成となっ
ているため、学習信号の選択によって同一構成のニュー
ロンユニットで学習法を変えることができる。従って、
例えば多層パーセプトロン型ニューラルネットワークに
おいて、各層毎に学習法を変えることでそれぞれの学習
法の能力を併せ持った信号処理が可能となる。また、特
に誤差逆伝搬学習法において、学習不成立の問題回避の
ための初期値の変更を学習信号の切り替えによって実現
することも可能となる。
As described above, according to the present invention, since each neuron unit selects one learning signal from a plurality of learning signals corresponding to different learning methods and supplies it to the synapse unit, the same learning signal is selected. The learning method can be changed by the configured neuron unit. Therefore,
For example, in a multilayer perceptron-type neural network, by changing the learning method for each layer, it becomes possible to perform signal processing having the ability of each learning method. Particularly, in the error back propagation learning method, it is also possible to change the initial value for avoiding the problem of learning failure by switching the learning signal.

【0014】[0014]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は、本発明の一実施例に係るニューラルネッ
トワーク装置全体の概略構成を示すブロック図である。
このニューラルネットワーク装置は、図6に模式的に示
した多層パーセプトロン型ニューラルネットワークを集
積回路により実現したものであり、中間層ニューロンチ
ップ1、出力層ニューロンチップ2と、両ニューロンチ
ップ1,2間を結合するシナプスチップ3からなる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of the entire neural network device according to one embodiment of the present invention.
This neural network device realizes a multilayer perceptron type neural network schematically shown in FIG. 6 by an integrated circuit, and connects an intermediate layer neuron chip 1, an output layer neuron chip 2 and both neuron chips 1 and 2 to each other. It consists of synaptic chips 3 to be connected.

【0015】ニューロンチップ1,2はそれぞれ3個の
ニューロンユニット4により構成され、入出力端子とし
て各ニューロンユニット4毎にニューロン入力端子F
I、ニューロン出力端子FO、ニューロン学習信号入力
端子EIおよびニューロン学習信号出力端子EOを有す
る。ニューロンチップ1,2に用いられるニューロンユ
ニット4は、全て同一構成となっている。
Each of the neuron chips 1 and 2 is composed of three neuron units 4 and has a neuron input terminal F for each neuron unit 4 as an input / output terminal.
I, a neuron output terminal FO, a neuron learning signal input terminal EI, and a neuron learning signal output terminal EO. The neuron units 4 used in the neuron chips 1 and 2 all have the same configuration.

【0016】一方、シナプスチップ3はマトリックス状
に結線された同一構成の9個のシナプスユニット5によ
り構成され、入出力端子として中間層ニューロンチップ
1のニューロン出力端子FOに接続されるシナプス入力
端子SFI、中間層ニューロンチップ1のニューロン学
習信号入力端子EIに接続されるシナプス学習信号出力
端子SEO、出力層ニューロンチップ2のニューロン学
習信号出力端子EOに接続されるシナプス学習信号入力
端子SEIおよび出力層ニューロンチップ2のニューロ
ン入力端子FIに接続されるシナプス出力端子SFOを
有する。
On the other hand, the synapse chip 3 is composed of nine synapse units 5 of the same configuration connected in a matrix, and has a synapse input terminal SFI connected as an input / output terminal to the neuron output terminal FO of the intermediate layer neuron chip 1. , A synapse learning signal output terminal SEO connected to the neuron learning signal input terminal EI of the intermediate layer neuron chip 1, a synapse learning signal input terminal SEI connected to the neuron learning signal output terminal EO of the output layer neuron chip 2, and an output layer neuron The chip 2 has a synapse output terminal SFO connected to the neuron input terminal FI.

【0017】シナプスチップ3において、行方向に各3
個ずつ並んだシナプスユニットは、シナプス入力端子S
FIを介して中間層ニューロンチップ1内の同一のニュ
ーロンユニットからの出力信号を入力し、またこれらの
シナプスユニットから出力される学習信号は電流加算さ
れた後、シナプス学習信号出力端子SEOを介して出力
され、同じニューロンユニットへ供給される。
In the synapse chip 3, each of the three in the row direction
The synapse units arranged one by one are synapse input terminals S
An output signal from the same neuron unit in the intermediate layer neuron chip 1 is input via FI, and the learning signals output from these synapse units are subjected to current addition and then output via a synapse learning signal output terminal SEO. It is output and supplied to the same neuron unit.

【0018】列方向に各3個ずつ並んだシナプスユニッ
トは、出力層ニューロンチップ2内の同一のニューロン
ユニットからの学習信号がシナプス学習信号入力端子S
EIを介して入力し、またこれらのシナプスユニットか
ら出力される信号は電流加算された後、シナプス出力端
子SFOを介して出力され、同じニューロンユニットへ
供給される。
Each of three synapse units arranged in the column direction receives a learning signal from the same neuron unit in the output layer neuron chip 2 by a synapse learning signal input terminal S.
Signals input through the EI and output from these synapse units are subjected to current addition, output through the synapse output terminal SFO, and supplied to the same neuron unit.

【0019】ニューロンユニット4は、図2に示すよう
に、シグモイド関数回路21、シグモイド導関数演算回
路22、減算器23、乗算器24、機能切替スイッチ2
5,26および学習信号選択スイッチ27からなる。
As shown in FIG. 2, the neuron unit 4 includes a sigmoid function circuit 21, a sigmoid derivative operation circuit 22, a subtractor 23, a multiplier 24, and a function changeover switch 2.
5, 26 and a learning signal selection switch 27.

【0020】シグモイド関数回路21およびシグモイド
導関数演算回路22の入力は、ニューロン入力端子FI
に共通に接続されている。シグモイド関数回路21は閾
値処理要素であって、入力をa、出力をbとした時、F
(a)=bなる関数処理を行い、その出力をニューロン
出力端子FOへ送る。シグモイド導関数演算回路22は
入力をa、出力をbとした時、dF(a)/da=bな
る演算を行う。
The inputs of the sigmoid function circuit 21 and the sigmoid derivative operation circuit 22 are input to the neuron input terminal FI.
Are connected in common. The sigmoid function circuit 21 is a threshold processing element, and when an input is a and an output is b,
(A) = b is performed and the output is sent to the neuron output terminal FO. When the input is a and the output is b, the sigmoid derivative operation circuit 22 performs an operation of dF (a) / da = b.

【0021】減算器23は、シグモイド関数回路21の
出力とニューロン学習信号入力端子EIから入力される
信号との減算を行う。機能切替スイッチ25,26はニ
ューロンユニット4の機能を切替えるためのものであ
り、ニューロンユニット4が中間層の時はスイッチ25
はオフ状態、スイッチ26はオン状態とされ、ニューロ
ンユニット4が出力層の時はスイッチ25はオン状態、
スイッチ26はオフ状態とされる。乗算器24は、ニュ
ーロン学習信号入力端子EIから入力される信号または
減算器23の出力信号と、シグモイド導関数演算回路2
2の出力信号との乗算を行う。
The subtractor 23 subtracts the output of the sigmoid function circuit 21 from the signal input from the neuron learning signal input terminal EI. The function changeover switches 25 and 26 are for switching the function of the neuron unit 4, and when the neuron unit 4 is an intermediate layer, the switches 25 and 26 are used.
Is turned off, the switch 26 is turned on, and when the neuron unit 4 is in the output layer, the switch 25 is turned on.
The switch 26 is turned off. The multiplier 24 includes a signal input from the neuron learning signal input terminal EI or an output signal of the subtracter 23 and the sigmoid derivative operation circuit 2
2 is multiplied by the output signal.

【0022】ここで、ニューロンユニット4内では、異
なる学習法に対応する複数(この場合、3個)の学習信
号が生成される。すなわち、乗算器24の出力からは誤
差逆伝搬学習法に対応する学習信号、シグモイド関数回
路21の出力(ニューロンユニット4の出力)からはヘ
ッブ学習法に対応する学習信号、さらにシグモイド導関
数演算回路22の出力からは、シグモイド関数回路21
の出力の微分値、すなわち微分ヘッド学習法に対応する
学習信号がそれぞれ得られる。学習信号選択スイッチ2
7は、外部からの制御によりこれら3個の学習信号のう
ちの一つを選択し、それをニューロン学習信号出力端子
EOから出力する。
Here, in the neuron unit 4, a plurality (three in this case) of learning signals corresponding to different learning methods are generated. That is, the learning signal corresponding to the back propagation learning method is obtained from the output of the multiplier 24, the learning signal corresponding to the Hebb learning method is obtained from the output of the sigmoid function circuit 21 (the output of the neuron unit 4), and the sigmoid derivative operation circuit The output of the sigmoid function circuit 21
, That is, a learning signal corresponding to the differential head learning method is obtained. Learning signal selection switch 2
7 selects one of these three learning signals by external control and outputs it from a neuron learning signal output terminal EO.

【0023】シナプスユニット5は、図3に示すよう
に、乗算器31〜33およびレジスタ34からなる。第
1の乗算器31は、シナプス入力端子SFIに入力され
る信号とレジスタ34に保持されたシナプス荷重を乗算
して、シナプス出力端子SFOへ出力する。第2の乗算
器32は、シナプス学習信号入力端子SEIに入力され
る信号とレジスタ34に保持されたシナプス荷重を乗算
して、シナプス学習信号出力端子SEOへ出力する。第
3の乗算器33は、シナプス学習信号に入力される学習
信号とシナプス入力端子SFIに入力される信号とを乗
算して、レジスタ34に保持されたシナプス荷重の値を
更新する。すなわち、シナプス荷重Wは、乗算器33の
乗算結果をΔWとして、W(T+1) =W(T) +ΔW(Tは
時間刻み)により更新される。
The synapse unit 5 includes multipliers 31 to 33 and a register 34, as shown in FIG. The first multiplier 31 multiplies the signal input to the synapse input terminal SFI by the synapse load held in the register 34 and outputs the result to the synapse output terminal SFO. The second multiplier 32 multiplies the signal input to the synapse learning signal input terminal SEI by the synapse load held in the register 34 and outputs the result to the synapse learning signal output terminal SEO. The third multiplier 33 multiplies the learning signal input to the synapse learning signal by the signal input to the synapse input terminal SFI, and updates the value of the synapse load held in the register 34. That is, the synapse load W is updated by W (T + 1) = W (T) + ΔW (T is a time unit), where ΔW is the multiplication result of the multiplier 33.

【0024】図4は、図2および図3に示すニューロン
ユニットおよびシナプスユニットを用いて図1に示した
多層パーセプトロンを実現した時の一部の構成を詳細に
示すブロック図であり、入力信号xがシナプスユニット
5aを介して中間層ニューロンユニット4aに結合さ
れ、中間層ニューロンユニット4aの出力がシナプスユ
ニット5bを介して出力層ニューロンユニット4bに結
合され、出力層ニューロンユニット4bから出力信号y
が出力される。各ニューロンユニット4a,4bおよび
シナプスユニット5a,5bの構成は、それぞれ図2お
よび図3に示した通りである。
FIG. 4 is a block diagram showing in detail a part of the configuration when the multilayer perceptron shown in FIG. 1 is realized using the neuron unit and the synapse unit shown in FIGS. Is coupled to the intermediate layer neuron unit 4a via the synapse unit 5a, the output of the intermediate layer neuron unit 4a is coupled to the output layer neuron unit 4b via the synapse unit 5b, and the output signal y from the output layer neuron unit 4b
Is output. The configurations of the neuron units 4a and 4b and the synapse units 5a and 5b are as shown in FIGS. 2 and 3, respectively.

【0025】機能切替スイッチ25,26および学習信
号選択スイッチ27は、制御回路6によって制御され、
中間層ニューロンユニット4aにおいてはスイッチ25
はオフ状態、スイッチ26はオン状態となって減算器2
3がバイパスされた状態となっており、出力層ニューロ
ンユニット4bにおいてはスイッチ25はオン状態、ス
イッチ26はオフ状態となっている。中間層ニューロン
ユニット4aおよび出力層ニューロンユニット4bから
は、それぞれ学習信号選択スイッチ27により選択され
たr2 ,r1 なる学習信号がシナプスユニット5a,5
bへそれぞれ出力され、シナプスユニット5a,5bに
おいてそれぞれの入力(一つ前の段のニューロンユニッ
トの出力)と乗算されることにより、シナプス荷重の更
新量ΔWが算出される。但し、出力層ニューロンユニッ
ト4bのニューロン学習信号入力端子には、外部学習信
号(または教師信号)r0 が入力される。
The function changeover switches 25 and 26 and the learning signal selection switch 27 are controlled by the control circuit 6,
In the intermediate layer neuron unit 4a, the switch 25
Is turned off, the switch 26 is turned on, and the subtractor 2
3 is bypassed, and in the output layer neuron unit 4b, the switch 25 is on and the switch 26 is off. From the intermediate layer neuron unit 4a and the output layer neuron unit 4b, the learning signals r 2 and r 1 selected by the learning signal selection switch 27 are output from the synapse units 5a and 5 respectively.
b, and are multiplied by the respective inputs (outputs of the immediately preceding neuron unit) in the synapse units 5a and 5b, thereby calculating the update amount ΔW of the synapse load. However, an external learning signal (or teacher signal) r 0 is input to the neuron learning signal input terminal of the output layer neuron unit 4b.

【0026】この場合、学習信号選択スイッチ27はニ
ューロン層毎にあるいはニューロン群毎に個別に切り替
えることができるため、複数の学習法の特徴を合せ持っ
た信号処理が可能となる。例えば縦続接続したニューラ
ルネットワークの前段が入力信号ベクトル集合を直交ベ
クトル集合に変換し、さらにこの直交化した入力信号に
より後段が連想学習を行うといった複雑な処理を同一の
ハードウェアで実行することができる。また、前段で直
交化学習を行うことにより、異なった環境下での学習速
度が異なるという問題を回避することもできる。
In this case, since the learning signal selection switch 27 can be individually switched for each neuron layer or for each neuron group, it is possible to perform signal processing having features of a plurality of learning methods. For example, the first stage of a cascade-connected neural network converts a set of input signal vectors into a set of orthogonal vectors, and the subsequent stage performs associative learning with the orthogonalized input signal, so that complicated processing can be executed by the same hardware. . Further, by performing the orthogonalization learning at the preceding stage, it is possible to avoid the problem that the learning speeds under different environments are different.

【0027】さらに、誤差逆伝搬学習法において学習不
成立に陥った時に、学習信号選択スイッチ27によって
他の学習法、例えばヘッブ学習法や微分ヘッブ学習法に
一時的に切り替えれば、学習の初期値を変更したことに
なるため、この学習不成立の問題を容易に回避すること
ができる。
Further, when learning fails in the error back propagation learning method, if the learning signal selection switch 27 is used to temporarily switch to another learning method, for example, the Hebb learning method or the differential Hebb learning method, the initial value of the learning can be changed. Since this has been changed, this problem of learning failure can be easily avoided.

【0028】また、異なる特徴を持つニューラルネット
ワークを容易にしかも自在に組み合わせることが同一ハ
ードウェアで可能となるため、構成的に脳機能が解明さ
れた暁には、脳の構成要素を極めて簡単に実現すること
が可能となる。
Further, since it is possible to easily and freely combine neural networks having different characteristics with the same hardware, when the brain function is elucidated in a constructive manner, the constituent elements of the brain can be extremely easily constructed. It can be realized.

【0029】なお、上述の実施例ではニューロンユニッ
ト内でヘッブ学習法、微分ヘッブ学習法および誤差逆伝
播学習法の3つの学習法に対応する学習信号を選択でき
るようにしたが、これはあくまで一例であり、種々の学
習法に対応する学習信号を選択できるようにすることも
同様に可能である。その他、本発明はその主旨を逸脱し
ない範囲で種々変形して実施することができる。
In the above-described embodiment, the learning signals corresponding to the three learning methods of the Hebb learning method, the differential Hebb learning method, and the back propagation learning method can be selected in the neuron unit. It is likewise possible to select learning signals corresponding to various learning methods. In addition, the present invention can be variously modified and implemented without departing from the gist thereof.

【0030】[0030]

【発明の効果】以上説明したように、本発明によればニ
ューロンユニット内に異なる学習法に対応した複数の学
習信号から任意の一つの学習信号を選択してシナプスユ
ニットに供給する機能を持たせたことにより、簡単なハ
ードウェア構成により、異なる複数の学習法の任意の組
み合わせによって所望の複雑な信号処理を容易に実現す
ることができる。また、誤差逆伝搬学習法における学習
不成立の問題を他の学習法への一時的な切り替えによる
初期値の変更によって容易に回避することが可能とな
る。
As described above, according to the present invention, the neuron unit has a function of selecting any one learning signal from a plurality of learning signals corresponding to different learning methods and supplying the selected learning signal to the synapse unit. Thus, with a simple hardware configuration, a desired complicated signal processing can be easily realized by an arbitrary combination of a plurality of different learning methods. Further, the problem of learning failure in the error back propagation learning method can be easily avoided by changing the initial value by temporarily switching to another learning method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る多層パーセプトロン型
ニューラルネットワーク装置の概略構成を示すブロック
FIG. 1 is a block diagram showing a schematic configuration of a multilayer perceptron type neural network device according to an embodiment of the present invention.

【図2】同実施例におけるニューロンユニットの構成を
示すブロック図
FIG. 2 is a block diagram showing a configuration of a neuron unit in the embodiment.

【図3】同実施例におけるシナプスユニットの構成を示
すブロック図
FIG. 3 is a block diagram showing a configuration of a synapse unit in the embodiment.

【図4】同実施例における中間層および出力層ニューロ
ンユニットとその前後のシナプスユニットを示すブロッ
ク図
FIG. 4 is a block diagram showing an intermediate layer and an output layer neuron unit and synapse units before and after it in the embodiment.

【図5】ニューラルネットワークにおける学習の概略に
ついての説明図
FIG. 5 is an explanatory diagram showing an outline of learning in a neural network.

【図6】多層パーセプトロン型ニューラルネットワーク
装置を模式的に示す図
FIG. 6 is a diagram schematically showing a multilayer perceptron type neural network device.

【符号の説明】[Explanation of symbols]

1…中間層ニューロンチップ 2…出力層ニュ
ーロンチップ 3…シナプスチップ 4,4a,4b
…ニューロンユニット 5,5a,5b…シナプスユニット 6…制御回路 21…シグモイド関数回路 22…シグモイ
ド導関数演算回路 23…減算器 24…乗算器 25,26…機能切替スイッチ 27…学習信号
選択スイッチ 31〜33…乗算器 34…レジスタ
DESCRIPTION OF SYMBOLS 1 ... Middle layer neuron chip 2 ... Output layer neuron chip 3 ... Synapse chip 4, 4a, 4b
... neuron unit 5, 5a, 5b ... synapse unit 6 ... control circuit 21 ... sigmoid function circuit 22 ... sigmoid derivative operation circuit 23 ... subtractor 24 ... multiplier 25, 26 ... function changeover switch 27 ... learning signal selection switch 31- 33: Multiplier 34: Register

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数のニューロンユニットと、これらのニ
ューロンユニットへの入力信号に対して、学習信号に基
づいて修正されるシナプス荷重を与えるシナプスユニッ
トとを基本構成要素とするニューラルネットワーク装置
において、 前記ニューロンユニットは、異なる学習法に対応する複
数の学習信号を生成する学習信号生成手段と、これら複
数の学習信号から前記シナプス荷重を更新するための一
つの学習信号を選択する学習信号選択手段とを備えるこ
とを特徴とするニューラルネットワーク装置。
1. A neural network device comprising a plurality of neuron units and a synapse unit for applying a synapse load modified based on a learning signal to input signals to these neuron units as basic components, The neuron unit includes learning signal generation means for generating a plurality of learning signals corresponding to different learning methods, and learning signal selection means for selecting one learning signal for updating the synaptic load from the plurality of learning signals. A neural network device comprising:
【請求項2】前記複数のニューロンユニットは、同一構
成の集積回路からなり、外部からの制御信号により所定
の処理を行うように制御されることを特徴とする請求項
1記載のニューラルネットワーク装置。
2. The neural network device according to claim 1, wherein the plurality of neuron units are formed of integrated circuits having the same configuration, and are controlled so as to perform predetermined processing by an external control signal.
【請求項3】前記学習信号生成手段は、ヘッブ学習法
と、微分ヘッブ学習法および誤差逆伝搬学習法のうちの
少なくとも二つの方法に対応する学習信号を生成するこ
とを特徴とする請求項1記載のニューラルネットワーク
装置。
3. The learning signal generating means according to claim 1, wherein said learning signal generating means generates a learning signal corresponding to at least two of a Hebb learning method, a differential Hebb learning method and an error back propagation learning method. A neural network device as described.
JP22073791A 1991-08-30 1991-08-30 Neural network device Expired - Fee Related JP3224831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22073791A JP3224831B2 (en) 1991-08-30 1991-08-30 Neural network device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22073791A JP3224831B2 (en) 1991-08-30 1991-08-30 Neural network device

Publications (2)

Publication Number Publication Date
JPH0567062A JPH0567062A (en) 1993-03-19
JP3224831B2 true JP3224831B2 (en) 2001-11-05

Family

ID=16755743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22073791A Expired - Fee Related JP3224831B2 (en) 1991-08-30 1991-08-30 Neural network device

Country Status (1)

Country Link
JP (1) JP3224831B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694592B2 (en) 1999-09-30 2004-02-24 Honda Giken Kogyo Kabushiki Kaisha Method for tightening fixing band and constant velocity universal joint apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016000146T5 (en) * 2015-10-23 2017-07-06 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694592B2 (en) 1999-09-30 2004-02-24 Honda Giken Kogyo Kabushiki Kaisha Method for tightening fixing band and constant velocity universal joint apparatus

Also Published As

Publication number Publication date
JPH0567062A (en) 1993-03-19

Similar Documents

Publication Publication Date Title
KR102578124B1 (en) Apparatus and method for regularizating of neural network device
US5056037A (en) Analog hardware for learning neural networks
US5087826A (en) Multi-layer neural network employing multiplexed output neurons
US4874963A (en) Neuromorphic learning networks
US5083285A (en) Matrix-structured neural network with learning circuitry
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
JPH02193251A (en) Error backward propagation and nerve network system
US5075868A (en) Memory modification of artificial neural networks
WO1993003443A1 (en) Signal processor and learning method thereof
US5103496A (en) Artificial neural network system for memory modification
JP3224831B2 (en) Neural network device
JP2760170B2 (en) Learning machine
JPH0264787A (en) Hierarchy structure neutral net
EP0985181B1 (en) Associative neural network
JPH04237388A (en) Neuro processor
FI103304B (en) Associative neuron
JP3082530B2 (en) Neural network circuit
Krestinskaya et al. Amsnet: analog memristive system architecture for mean-pooling with dropout convolutional neural network
KR19980074455A (en) Neural network and implementation method
Wang Analog CMOS implementation of backward error propagation
Wang A modular analog CMOS LSI for feedforward neural networks with on-chip BEP learning
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
Lee Identification and control of nonlinear dynamic systems using higher order neural networks
JPH04118741A (en) Neural network device
Lange Fast and accurate training of multilayer perceptrons using an extended Kalman filter (EKFNet)

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees