JP3273568B2 - Hierarchical neural network and learning method thereof - Google Patents

Hierarchical neural network and learning method thereof

Info

Publication number
JP3273568B2
JP3273568B2 JP24838991A JP24838991A JP3273568B2 JP 3273568 B2 JP3273568 B2 JP 3273568B2 JP 24838991 A JP24838991 A JP 24838991A JP 24838991 A JP24838991 A JP 24838991A JP 3273568 B2 JP3273568 B2 JP 3273568B2
Authority
JP
Japan
Prior art keywords
correction
test
calculating
square error
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24838991A
Other languages
Japanese (ja)
Other versions
JPH0561850A (en
Inventor
則男 赤松
Original Assignee
株式会社ジャストシステム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャストシステム filed Critical 株式会社ジャストシステム
Priority to JP24838991A priority Critical patent/JP3273568B2/en
Publication of JPH0561850A publication Critical patent/JPH0561850A/en
Application granted granted Critical
Publication of JP3273568B2 publication Critical patent/JP3273568B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、階層型ニューラルネ
ットワークおよびその学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hierarchical neural network and a learning method thereof.

【0002】[0002]

【従来の技術】人間の脳神経系の仕組みを工学的に実現
し、情報処理を行おうとするニューラルネットワークが
注目されている。このニューラルネットワークは、複数
のニューロン素子から構成されており、所定の学習を行
うことにより、文字や図形等のパターン認識、音声の分
析や合成処理、連続的アナログデータの処理、多量デー
タの並列処理が効率的に行われる。ニューラルネットワ
ークは、データの伝搬を行う複数のニューロン素子から
成るニューロン素子網とその学習を制御する学習制御部
から構成されている。このニューロン素子網は、データ
が入力される入力層と、入力されたデータに対してデー
タが出力される出力層、およびこの両層間に配置された
1または複数の中間層から構成されている。そして、ニ
ューロン素子網の各層間におけるニューロン素子は、他
のニューロン素子に対して所定の強さ(結合重み)で結
合されており、この結合重みの値の違いにより出力信号
が変化するようになっている。
2. Description of the Related Art Attention has been paid to a neural network for realizing information processing by mechanically realizing the mechanism of the human brain nervous system. This neural network is composed of a plurality of neuron elements. By performing predetermined learning, pattern recognition of characters and figures, analysis and synthesis of voice, continuous analog data processing, parallel processing of large amounts of data are performed. Is performed efficiently. The neural network includes a neuron element network composed of a plurality of neuron elements for transmitting data, and a learning control unit for controlling learning of the neuron element network. The neuron element network includes an input layer to which data is input, an output layer to which data is output in response to the input data, and one or a plurality of intermediate layers arranged between the two layers. The neuron elements between the layers of the neuron element network are connected to other neuron elements with a predetermined strength (connection weight), and the output signal changes due to the difference in the value of the connection weight. ing.

【0003】このような階層構造に構成された従来のニ
ューラルネットワークでは、各ニューロン素子相互間の
結合重みを学習制御部により変化させることによって
「学習」という処理が行われる。学習は、入力層と出力
層の入出力数に対応して与えられる、アナログまたは2
値のデータ(パターン)によって行われる。いま、入力
データとしてg1 〜g6 が与えられ、この内、g1 〜g
3 が入力層から学習パターンとして入力され、この学習
パターンの入力に対して出力層からある出力信号が出力
される。この出力信号に対する正解がg4 〜g6 であ
り、一般に教師信号と呼ばれている。そして、出力信号
と教師信号との誤差が小さくなるように、または一致す
るように各ニューロン素子の結合重みを修正する処理
を、複数の学習パターンに対して実行することによって
学習が行われる。
In a conventional neural network having such a hierarchical structure, a process called "learning" is performed by changing a connection weight between neuron elements by a learning control unit. The learning is performed in the form of an analog or 2
This is performed by value data (pattern). Now, g 1 to g 6 are given as input data, among the, g 1 to g
3 is input as a learning pattern from the input layer, and an output signal is output from the output layer in response to the input of the learning pattern. Correct answer to this output signal is g 4 to g 6, are commonly referred to as a teacher signal. Then, learning is performed by executing processing for correcting the connection weight of each neuron element such that the error between the output signal and the teacher signal becomes small or coincides with each other for a plurality of learning patterns.

【0004】このような、教師信号に出力信号が一致す
るように、ニューロン素子網における各ニューロン素子
間の結合重みを修正する具体的方法として、従来から誤
差逆伝播法(以下、BP法という。)が用いられてい
る。BP法は、出力層での出力値と教師信号との2乗誤
差を最小にするために、このニューラルネットワークを
構成する全ての層間における各ニューロン素子相互間の
結合重みを修正するものである。すなわち、出力層にお
ける誤差は、各中間層のニューロン素子で生じる個々の
誤差が積算されたものであると判断し、単に出力層から
の誤差だけでなく、その原因となっている各中間層のニ
ューロン素子の誤差も最小となるように結合重みを修正
する。そのために出力層、各中間層のニューロン素子毎
の全ての誤差を計算処理する。この計算処理は、出力層
のニューロン素子の個々の誤差値を初期条件として与え
て、n番目の中間層の各ニューロン素子の誤差値、(n
−1)番目の中間層の誤差、……、といったように、逆
の方向に計算処理を行う。このようにして求めた各ニュ
ーロン素子の持つ誤差値と、その時点での結合重みを用
いて、結合重みの修正値を算出する。以上の、学習処理
を教師信号との誤差が一定値以下となるまで、または所
定回数だけ、全ての学習パターンについて繰り返すこと
により、学習が終了する。
As a specific method of correcting the connection weight between the neuron elements in the neuron element network so that the output signal matches the teacher signal, a back propagation method (hereinafter referred to as a BP method) has been conventionally used. ) Is used. The BP method corrects the connection weight between the neuron elements between all the layers constituting the neural network in order to minimize the square error between the output value and the teacher signal in the output layer. That is, the error in the output layer is determined to be the sum of the individual errors generated in the neuron elements of each intermediate layer, and not only the error from the output layer but also the error of each intermediate layer The connection weight is modified so that the error of the neuron element is also minimized. For this purpose, all errors for each neuron element in the output layer and each intermediate layer are calculated. In this calculation process, the error value of each neuron element of the n-th intermediate layer is given as (n
Calculation processing is performed in the opposite direction, such as -1) the error of the intermediate layer,. The correction value of the connection weight is calculated using the error value of each neuron element thus obtained and the connection weight at that time. The above learning process is repeated for all learning patterns until the error from the teacher signal becomes equal to or less than a certain value or a predetermined number of times, thereby completing the learning.

【0005】[0005]

【発明が解決しようとする課題】しかし、従来から行わ
れているBP法による階層型ニューラルネットワークの
学習は、修正値を算出するための誤差の計算処理が複雑
であった。このため、BP法は、学習が終了するまでに
時間がかかるという問題があった。一方、学習時間を短
縮するためには、学習の計算処理をソフトウェアで行わ
ずに、計算の処理部をハードウェア化することにより解
決することが可能である。しかし、前述のように、BP
法によるニューラルネットワークの学習は、計算処理が
複雑であるため、ハードウェア化が困難であった。
However, in the conventional learning of the hierarchical neural network by the BP method, calculation of an error for calculating a correction value is complicated. For this reason, the BP method has a problem that it takes time until the learning is completed. On the other hand, in order to shorten the learning time, it is possible to solve the problem by making the calculation processing unit hardware instead of performing the learning calculation processing by software. However, as mentioned above, BP
Learning a neural network by the method is difficult to implement in hardware because of the complicated calculation processing.

【0006】そこで本発明の目的は、簡単な計算処理に
より、学習を迅速に行うことが可能な階層型ニューラル
ネットワークおよびその学習方法を提供することにあ
る。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a hierarchical neural network capable of performing learning quickly by a simple calculation process and a learning method therefor.

【0007】[0007]

【課題を解決するための手段】請求項1記載の発明で
は、図1の実線で原理的に示されるように、所定の結合
重みで階層型に結合された複数のニューロン素子からな
るニューロン素子網と、このニューロン素子網に入力さ
れた学習パターンに対する出力信号と教師信号との2乗
誤差を算出する第1算出手段と、前記複数のニューロン
素子のうち1つの結合重みを所定のテスト修正幅Sだけ
正および負の少なくとも一方向にテスト修正する第1修
正手段と、この第1修正手段によるテスト修正後の前記
ニューロン素子網における前記第1算出手段と同一の学
習パターンに対する出力信号と教師信号との2乗誤差を
算出する第2算出手段と、この第2算出手段で算出した
2乗誤差が、前記第1算出手段で算出した2乗誤差より
も小さくなるテスト修正幅Sの正または負の方向を決定
する方向決定手段と、この方向決定手段による修正方向
および前記テスト修正幅Sに応じて前記結合重みの修正
値を算出する第3算出手段と、この第3算出手段で所定
数の結合重みの修正値を算出し、その修正値に各結合重
みを修正する第2修正手段を階層型ニューラルネットワ
ークに具備させる。そして、第3算出手段において、方
向決定手段で決定した方向が正のとき、W n ij +S×k
×〔E(W n ij )−E(W n ij +S)〕により、方向決定
手段で決定した方向が負のとき、W n ij −S×k×〔E
(W n ij )−E(W n ij −S)〕により、それぞれ修正値
を算出する。 請求項2記載の発明では、図1の点線で原
理的に示されるように、請求項1記載の階層型ニューラ
ルネットワークにおいて、テスト修正幅Sと係数kの少
なくとも一方、を変更する変更手段を具備させる。 請求
項3記載の発明では、請求項1記載の階層型ニューラル
ネットワークにおいて、テスト修正幅Sを0.1、係数
kを100とする。
According to the first aspect of the present invention, as shown in principle by a solid line in FIG. 1, a neuron element network comprising a plurality of neuron elements hierarchically connected with a predetermined connection weight. A first calculating means for calculating a square error between an output signal and a teacher signal for the learning pattern input to the neuron element network; and a connection weight of one of the plurality of neuron elements for a predetermined test correction width S First correction means for performing test correction only in at least one of the positive and negative directions, and an output signal and a teacher signal for the same learning pattern as the first calculation means in the neuron element network after the test correction by the first correction means. A second calculating means for calculating the squared error of the test, and a test wherein the squared error calculated by the second calculating means is smaller than the squared error calculated by the first calculating means. Direction determining means for determining the positive or negative direction of the positive width S; third calculating means for calculating a correction value of the connection weight according to the correction direction by the direction determining means and the test correction width S; 3 in calculating means calculates a correction value of the coupling weight of a predetermined number, Ru is provided with a second correction means for correcting the respective connection weight to the correction value to the hierarchical neural network. And in the third calculating means,
When the direction determined by the direction determining means is positive, W n ij + S × k
× [E (W n ij ) −E (W n ij + S)]
When the direction determined by the means is negative, W n ij −S × k × [E
(W n ij ) −E (W n ij −S)]
Is calculated. According to the second aspect of the present invention, the original is indicated by a dotted line in FIG.
2. The hierarchical neural network according to claim 1, wherein the hierarchical neural network comprises:
In the network, the test correction width S and coefficient k are small.
At least one of them is provided with a changing means for changing. Claim
In the invention according to claim 3, the hierarchical neural network according to claim 1 is provided.
In the network, the test modification width S is 0.1 and the coefficient is
Let k be 100.

【0008】請求項4記載の発明では、図1の実線で原
理的に示されるように、所定の結合重みで階層型に結合
された複数のニューロン素子からなるニューロン素子網
と、このニューロン素子網に入力された学習パターンに
対する出力信号と教師信号との2乗誤差を算出する第1
算出手段と、前記複数のニューロン素子のうち1つの結
合重みを所定のテスト修正幅Sだけ正および負の向にテ
スト修正する第1修正手段と、この第1修正手段による
テスト修正後の前記ニューロン素子網における前記第1
算出手段と同一の学習パターンに対する出力信号と教師
信号との2乗誤差を算出する第2算出手段と、この第2
算出手段で算出した2乗誤差が、前記第1算出手段で算
出した2乗誤差よりも小さくなるテスト修正幅Sの正ま
たは負の方向を決定する方向決定手段と、この方向決定
手段による修正方向および前記テスト修正幅Sに応じて
前記結合重みの修正値を算出する第3算出手段と、この
第3算出手段で所定数の結合重みの修正値を算出し、そ
の修正値に各結合重みを修正する第2修正手段を階層型
ニューラルネットワークに具備させて、前記目的を達成
する。
[0010] In the invention according to claim 4, the original line is indicated by a solid line in FIG.
As shown in the figure, a hierarchical connection is performed with a predetermined connection weight.
Neuron element network consisting of multiple neuron elements
And the learning pattern input to this neuron element network
Calculating the square error between the output signal and the teacher signal
Calculating means, and one of the plurality of neuron elements
The combined weight is tested in the positive and negative directions by a predetermined test correction width S.
First correcting means for correcting the strike, and the first correcting means
The first in the neuron element network after test correction
Output signal and teacher for the same learning pattern as the calculation means
A second calculating means for calculating a square error with respect to the signal;
The square error calculated by the calculating means is calculated by the first calculating means.
Test correction width S that is smaller than the square error
Direction determining means for determining the negative or negative direction, and the direction determining means.
According to the correction direction by means and the test correction width S
A third calculating means for calculating a correction value of the connection weight;
A third calculating means calculates a correction value of a predetermined number of connection weights, and
Correction means for correcting each connection weight to the correction value of
Achieved the above purpose by providing neural network
I do.

【0009】請求項5記載の発明では、所定の結合重み
で階層型に結合された複数のニューロン素子からなるニ
ューロン素子網に学習パターンを入力してその出力信号
と教師信号との2乗誤差を算出する第1工程と、複数の
ニューロン素子のうち他の結合重みを第1工程と同一の
状態とし、1つの結合重みを所定のテスト修正幅Sだけ
正および負の方向にテスト修正し、テスト修正後の前記
ニューロン素子網に第1工程と同一の学習パターンを入
力して算出した2乗誤差が第1工程で算出した2乗誤差
よりも小さくなるテスト修正幅Sの正または負の方向を
決定し、決定した修正方向と前記テスト修正幅Sに応じ
て結合重みの修正値を算出する工程を、所定数の結合重
みに対して行う第2工程と、第2工程で所定数の結合重
みの修正値を算出した後に算出した修正値に各結合重み
を修正する第3工程により、階層型ニューラルネットワ
ークの学習を行う。
According to the fifth aspect of the present invention, a learning pattern is input to a neuron element network composed of a plurality of neuron elements hierarchically connected with a predetermined connection weight, and a square error between an output signal and a teacher signal is obtained. The first step to be calculated and the other connection weights of the plurality of neuron elements are set in the same state as in the first step, and one connection weight is changed by a predetermined test correction width S.
The test error is corrected in the positive and negative directions, and the square error calculated by inputting the same learning pattern as in the first step to the neuron element network after the test correction becomes smaller than the square error calculated in the first step. A second step of determining the positive or negative direction of the test correction width S and calculating a correction value of the connection weight according to the determined correction direction and the test correction width S for a predetermined number of connection weights; In the second step, learning of the hierarchical neural network is performed in a third step in which correction values of a predetermined number of connection weights are calculated in the second step, and then each connection weight is corrected to the correction value calculated.

【0010】[0010]

【作用】請求項1に記載の発明では、第1修正手段で複
数のニューロン素子のうち1つの結合重みを所定のテス
ト修正幅Sだけ正および負の少なくとも一方向にテスト
修正し、第1の算出手段と第2の算出手段において、同
一の学習パターンの入力に対するテスト修正前後の2乗
誤差をそれぞれ算出する。そして、方向決定手段でテス
ト修正前よりも2乗誤差が小さくなるテスト修正幅Sの
正または負の方向を決定し、決定した正または負の方向
に対応しする式により第3算出手段で結合重みの修正値
を算出する。そして、第2修正手段で所定数の結合重み
を算出した修正値に結合重みを修正する。請求項4、5
に記載の発明では、第1修正手段で複数のニューロン素
子のうち1つの結合重みを所定のテスト修正幅Sだけ正
および負の方向にテスト修正し、第1の算出手段と第2
の算出手段において、同一の学習パターンの入力に対す
るテスト修正前後の2乗誤差をそれぞれ算出する。そし
て、方向決定手段でテスト修正前よりも2乗誤差が小さ
くなるテスト修正幅Sの正または負の方向を決定し、第
3算出手段で結合重みの修正値を算出する。そして、第
2修正手段で所定数の結合重みを算出した修正値に結合
重みを修正する。このように、各結合重みの単独のテス
ト修正によって生じるニューロン素子網の出力誤差の変
動を調べることにより、結合重みの修正方向と修正値を
決定するので、少ない計算量で済む。
According to the first aspect of the present invention, the first correction means test-corrects one connection weight of the plurality of neuron elements in at least one of the positive and negative directions by a predetermined test correction width S. The calculating means and the second calculating means calculate square errors before and after the test correction for the same learning pattern input. Then, the direction determining means determines the positive or negative direction of the test correction width S in which the square error is smaller than before the test correction, and determines the determined positive or negative direction.
The correction value of the connection weight is calculated by the third calculating means by the equation corresponding to Then, the second correction unit corrects the connection weight to a correction value obtained by calculating a predetermined number of connection weights. Claims 4 and 5
In the invention described in (1), a plurality of neuron elements are
One of the children is positive by a predetermined test correction width S
Test correction in the negative direction and the first calculation means and the second
Calculating means for inputting the same learning pattern
The square errors before and after the test correction are calculated. Soshi
And the square error is smaller by the direction determination means than before the test correction.
Determine the positive or negative direction of the test correction width S
(3) A correction value of the connection weight is calculated by the calculation means. And the second
(2) Combining a predetermined number of connection weights with the correction value calculated by the correction means
Modify the weight. As described above, the correction direction and the correction value of the connection weight are determined by examining the fluctuation of the output error of the neuron element network caused by the single test correction of each connection weight, so that a small amount of calculation is required.

【0011】[0011]

【実施例】以下、本発明の階層型ニューラルネットワー
クの一実施例を図2ないし図9を参照して詳細に説明す
る。図2は階層型ニューラルネットワークのニューロン
素子網の構成を表したものである。この実施例では、簡
単のために3層構造のニューラルネットワークについて
説明するものとする。ニューロン素子網は、入力層がニ
ューロン素子1、2、3から成る3層、中間層がニュー
ロン素子4、5、6から成る3層、出力層がニューロン
素子7、8、9から成る3層でそれぞれ構成されてい
る。そして、中間層のニューロン素子4に対する、入力
層のニューロン素子1、2、3の結合重みをそれぞれW
1 11、W1 21、W 1 31 とする。同様に、各層のニュー
ロン素子に対する結合重みを図2に示し、その一般式を
n ijとする。各ニューロン素子は、専用のハードウェ
アで構成されるが、ノイマン型のコンピュータのソフト
ウェアにより構成してもよい。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the hierarchical neural network according to the present invention will be described below in detail with reference to FIGS. FIG. 2 shows the configuration of a neuron element network of a hierarchical neural network. In this embodiment, a three-layered neural network will be described for simplicity. The neuron element network has three layers consisting of neuron elements 1, 2, and 3 as an input layer, three layers consisting of neuron elements 4, 5, and 6 as an intermediate layer, and three layers consisting of neuron elements 7, 8, and 9 as an output layer. Each is configured. Then, the connection weights of the neurons 1, 2, and 3 of the input layer to the neurons 4 of the intermediate layer are respectively represented by W
1 11, and W 1 21, W 1 31. Similarly, the connection weights for the neuron elements in each layer are shown in FIG. 2, and the general formula is W n ij . Each neuron element is configured by dedicated hardware, but may be configured by software of a Neumann computer.

【0012】図3は、このようなニューロン素子網の学
習を制御する学習制御部の構成を表したものである。こ
の学習制御部は、ニューロン素子網に対する学習パター
ンの入力指示、入力に対する出力信号と教師信号との2
乗誤差の算出、修正値の算出等の各種制御を行うCPU
(中央処理装置)11を備えている。このCPU11
は、データバス等のバスライン12によって次の各部と
接続されている。すなわち、ニューラルネットワークに
おける各種制御や結合重みの修正値の算出をCPU11
で行うための各種プログラムを格納したROM(リード
・オンリ・メモリ)13が接続されている。このROM
13には、結合重みの修正量dWn ijを算出するための
式(1)および式(2)が格納されている。 dW n ij= S×k×〔E(W n ij)−E(W n ij+S)〕……(1) dW n ij=−S×k×〔E(W n ij)−E(W n ij−S)〕……(2) この式(1)、(2)において、Sは結合重みW n ij
学習の途中でテスト修正するテスト修正幅、kは係数、
E(W n ij)はある学習パターンの入力に対する出力信
号と教師信号との2乗誤差、E(W n ij±S)は結合重
みW n ijをテスト修正幅Sだけ増加(+S)または減少
(−S)させて学習パターンを入力した場合の出力信号
と教師信号との2乗誤差を、それぞれ示す。
FIG. 3 shows the configuration of a learning control unit for controlling learning of such a neuron element network. The learning control unit includes an instruction to input a learning pattern to the neuron element network, an output signal corresponding to the input, and a teacher signal.
CPU that performs various controls such as calculation of a squared error and calculation of a correction value
(Central processing unit) 11. This CPU 11
Are connected to the following units via a bus line 12 such as a data bus. That is, the CPU 11 performs various controls in the neural network and calculation of the correction value of the connection weight.
A ROM (Read Only Memory) 13 storing various programs to be executed by the computer is connected. This ROM
13 stores equations (1) and (2) for calculating the correction amount dW n ij of the connection weight. dW n ij = S × k × [E (W n ij ) −E (W n ij + S)] (1) dW n ij = −S × k × [E (W n ij ) −E (W n ij− S)] (2) In the equations (1) and (2), S is a test correction width for test-correcting the connection weight W n ij during learning, k is a coefficient,
E (W n ij ) is the square error between the output signal and the teacher signal with respect to the input of a certain learning pattern, and E (W n ij ± S) increases (+ S) or decreases the connection weight W n ij by the test correction width S. (−S) shows the square error between the output signal and the teacher signal when the learning pattern is input.

【0013】またバスライン12には、学習パターンや
テスト修正幅Sや係数kその他各種データを格納するR
AM(ランダム・アクセス・メモリ)14、ニューロン
素子網の各結合重みの値が格納されている重みテーブル
15とその修正値W ij′が格納される修正値テーブ
ル16とを有する結合重みメモリ17が接続されてい
る。更に、RAM14に格納されているテスト修正幅S
や係数kの修正等を指示する入力装置としてのキーボー
ド18、ニューロン素子網の各ニューロン素子に対して
結合重みの修正値W ij′等を供給する結合重みI/
O(入出力ポート)19、出力層からの各出力値が供給
される出力信号I/O20、学習パターン等の各種デー
タが入出力されるデータI/O21等の各種I/Oが接
続されている。また、図示しない表示装置、図形や文字
を読み取るスキャナ、音声入出力装置等が必要に応じて
接続されている。
The bus line 12 has an R for storing a learning pattern, a test correction width S, a coefficient k, and other various data.
A connection weight memory 17 having an AM (random access memory) 14, a weight table 15 storing the value of each connection weight of the neuron element network, and a correction value table 16 storing the correction value W n ij '. Is connected. Further, the test correction width S stored in the RAM 14
18 as an input device for instructing correction of coefficient k and coefficient k, etc., and connection weight I / I for supplying a correction value W n ij ′ of connection weight to each neuron element of the neuron element network.
O (input / output port) 19, an output signal I / O 20 to which each output value from the output layer is supplied, and various I / Os such as a data I / O 21 to which various data such as a learning pattern are input / output are connected. I have. Further, a display device (not shown), a scanner for reading figures and characters, a voice input / output device, and the like are connected as necessary.

【0014】このように構成されたニューラルネットワ
ークにおける学習動作について次に説明する。学習動作の概要 全ての結合重みW n ijが所定値に決められた初期状態に
おいて、入力層に所定の学習パターンを入力し、その出
力信号と教師信号との2乗誤差を算出する。そして、1
つの結合重みW n ijについて、所定のテスト修正幅Sだ
け増加および減少させ、テスト修正前に入力した学習パ
ターンと同一の学習パターンを入力する。そして、結合
重みのテスト修正前後で、ニューラルネットワークの出
力と教師信号の2乗誤差を比較し、修正の方向を決定す
る。結合重みを増加させたときに2乗誤差が減少すれ
ば、修正幅dWn ijを式(1)により算出する。一方、
結合重みを減少させたとき2乗誤差が減少すれば、修正
幅dW n ijを式(2)により算出する。いずれの方向に
修正した場合も2乗誤差が減少する場合には、より2乗
誤差の小さくなる方向の式(1)または式(2)により
修正幅dW n ijを算出する。また、結合重みを増加およ
び減少させて、いずれの場合も2乗誤差が減少しないと
きには、修正幅dW n ijを0とし、修正を行わない。他
の結合重みの修正幅も同様にして算出するが、すでに修
正幅を算出した結合重みW n ijは元の値に戻した状態、
すなわち、テスト修正幅Sのテスト修正を行う結合重み
以外は初期状態に戻した状態で処理を行う。全ての結合
重みW n ijについてそれぞれの修正幅dW n ijを求めた
後、一斉に結合重みを修正して1回の学習を終了する。
Next, the learning operation in the neural network configured as described above will be described. Outline of Learning Operation In an initial state in which all the connection weights W n ij are set to predetermined values, a predetermined learning pattern is input to an input layer, and a square error between an output signal of the input learning signal and a teacher signal is calculated. And 1
One of the connection weights W n ij, a predetermined test correction range S increases and decreases, and inputs the same learning pattern and learning pattern previously entered test fix. Then, before and after the test correction of the connection weight, the square error between the output of the neural network and the teacher signal is compared to determine the direction of the correction. If the square error decreases when the connection weight is increased, the correction width dW n ij is calculated by equation (1). on the other hand,
If the square error decreases when the connection weight is reduced, the correction width dW n ij is calculated by equation (2). If the square error decreases in either direction, the correction width dW n ij is calculated by equation (1) or equation (2) in the direction in which the square error decreases. If the square weight does not decrease in either case by increasing or decreasing the connection weight, the correction width dW n ij is set to 0, and no correction is performed. The correction widths of the other connection weights are calculated in the same manner, but the connection weights W n ij for which the correction widths have already been calculated are returned to the original values.
That is, the processing is performed in a state where the test correction width S is returned to the initial state except for the connection weight for performing the test correction. After determining the respective correction range dW n ij for all connection weights W n ij, completed one study to correct the simultaneously coupling weight.

【0015】動作の詳細 図4ないし図6は動作の詳細を表した流れ図である。ま
ず、CPU11はデータI/O21から供給される学習
パターンとその教師信号をRAM14に格納し、以下の
学習動作を行う。いま、各種条件として、学習パターン
の数がaであり、各ニューロン素子の結合重みW n ij
規定するn、i、jの値がそれぞれ1からb、c、dで
あるものとする。そして、CPU11は、各ニューロン
素子の結合重みW n ijを初期化する(ステップ(S)
1)。すなわち、各結合重みW n ijを乱数値により決定
して結合重みI/O19からそれぞれのニューロン素子
に供給すると共に、決定した各結合重みW n ijの値を重
みテーブル15に格納する。各ニューロン素子4〜9で
は、結合重みI/O19を介して供給された結合重みW
n ijに初期設定する。次に、CPU11は、RAM14
に格納した学習パターンの識別子xを1に設定する(ス
テップ2)と共に、各ニューロン素子4〜9の結合重み
n ijに対する修正幅dW n ijを個別に決定するため
に、n=1、i=1、j=1を設定する(ステップ
3)。そして、RAM14から最初の学習パターンPx
を読み出してデータI/O21から入力層の各ニューロ
ン素子1、2、3に入力する(ステップ4)。この入力
によって出力層の各ニューロン素子7、8、9から出力
信号Ox が出力される。この出力信号Ox を出力信号I
/O20から受け取り、これと、教師信号Tx との2乗
誤差E(W n ij)を算出し、その値をRAM14の所定
エリアに格納する(ステップ5)。
Operation Details FIGS. 4 to 6 are flowcharts showing the operation details. First, the CPU 11 stores the learning pattern supplied from the data I / O 21 and the teacher signal thereof in the RAM 14, and performs the following learning operation. Now, as various conditions, the number of learning patterns is a, and n defining the connection weights W n ij of each neuron element, i, the value of j is from respectively 1 b, c, as is d. Then, CPU 11 initializes the connection weight W n ij of each neuron elements (step (S)
1). That is, each connection weight W n ij is determined by a random value and supplied to each neuron element from the connection weight I / O 19, and the determined value of each connection weight W n ij is stored in the weight table 15. In each of the neuron elements 4 to 9, the connection weight W supplied through the connection weight I / O 19
Initially set to n ij . Next, the CPU 11
Setting the identifier x of the training patterns stored in the 1 (step 2), in order to determine separately the correction range dW n ij for connection weight W n ij of each neuron elements 4 to 9, n = 1, i = 1 and j = 1 are set (step 3). Then, the first learning pattern P x is read from the RAM 14.
Is read and input from the data I / O 21 to each of the neuron elements 1, 2, and 3 in the input layer (step 4). The output signal O x from each neuron elements 7, 8, 9 of the output layer by the input is outputted. This output signal O x is output signal I
/ Receipt from O20, and which calculates a square error E between the teacher signal T x (W n ij), and stores the value in a predetermined area of the RAM 14 (Step 5).

【0016】そして、最初の結合重みW n ij(ここでは
1 11が該当する。)を、重みテーブル15から読み出
し、これにテスト修正幅Sを加えて結合重みをW n ij
Sにテスト修正する(図5、ステップ6)。すなわちC
PU11は、結合重みW n ij+Sを結合重みI/O19
を介して対応するニューロン素子に供給し、供給を受け
たニューロン素子は結合重みをW n ij+Sに設定するこ
とによりテスト修正が行われる。CPU11は、テスト
修正を行ったニューロン素子網の入力層に、ステップ4
と同一の学習パターンPx を入力し、その出力信号
x ′を出力信号I/O20から受け取る。そして、こ
の出力信号Ox ′と教師信号差Tx との2乗誤差E(W
n ij+S)を算出し(ステップ7)、RAM14の所定
エリアに格納する。次に、修正された結合重みW n ij
Sを、更にW n ij−Sにテスト修正し(ステップ8)、
同様に、ステップ4と同一学習パターンPx を入力して
出力信号Ox ″と教師信号差Tx との2乗誤差E(W n
ij−S)を算出して(ステップ9)RAM14の所定エ
リアに格納する。
[0016] Then, (in this case W 1 11 corresponds.) The first connection weight W n ij and read from the weight table 15, the coupling weight W added thereto to test correction range S n ij +
Test correction to S (FIG. 5, step 6). That is, C
The PU 11 converts the connection weight W n ij + S into the connection weight I / O 19
And supplied to the corresponding neuron element via a neuron element which receives the supply test modifications carried out by setting the connection weight to W n ij + S. The CPU 11 adds a step 4 to the input layer of the neuron element network after the test correction.
Enter the same learning pattern P x and receives its output signal O x 'from the output signal I / O20. Then, the square error E (W) between the output signal O x ′ and the teacher signal difference T x
n ij + S) is calculated (step 7) and stored in a predetermined area of the RAM 14. Next, the modified connection weight W n ij +
S is further test-corrected to W n ij -S (step 8),
Similarly, a square error E (W n) between the output signal O x ″ and the teacher signal difference T x by inputting the same learning pattern P x as in step 4 is input.
ij- S) is calculated (step 9) and stored in a predetermined area of the RAM 14.

【0017】CPU11は、RAM14の各所定領域に
格納した各2乗誤差E(W n ij)、E(W n ij+S)、
E(W n ij−S)を読み出し、これらを比較して最小値
を求める(ステップ10)。プラス方向にテスト修正し
た場合の2乗誤差E(W n ij+S)が最小の場合、RO
M13に格納された式(1)により修正幅dW n ijを算
出する。一方、マイナス方向にテスト修正した場合の2
乗誤差E(W n ij−S)が最小の場合は式(2)により
修正幅dW n ijを算出する(ステップ12)。テスト修
正前の2乗誤差E(W n ij)が最小の場合は、修正幅d
n ij=0とする(ステップ13)。
The CPU 11 calculates the square errors E (W n ij ), E (W n ij + S) stored in each predetermined area of the RAM 14,
E (W n ij -S) is read out, and these are compared to determine the minimum value (step 10). If the square error E (W n ij + S) when the test is corrected in the plus direction is the minimum, RO
Calculating a correction range dW n ij by equation (1) stored in M13. On the other hand, when the test was corrected in the minus direction, 2
Multiply the error E (W n ij -S) is the minimum case for calculating the correction range dW n ij by equation (2) (step 12). If the square error E (W n ij ) before the test correction is the minimum, the correction width d
And W n ij = 0 (step 13).

【0018】CPU11は、このようにして算出した修
正幅dW n ijを元の結合重みW n ijに加えた値を修正値
n ij′とし、これを修正値テーブル16の対応するエ
リアに格納する(ステップ14)。以上の処理が終了し
た後、CPU11は、結合重みをテスト修正前の元の結
合重みW n ijに戻す(ステップ15)。すなわち、元の
結合重みW n ijを重みテーブル15から読み出し、結合
重みI/O19を介して対応するニューロン素子に供給
する。供給を受けたニューロン素子は結合重みを元のW
n ijに設定する。
[0018] CPU11 is thus the value obtained by adding the correction range dW n ij calculated based on the connection weights W n ij and correction value W n ij 'by, stores it in the corresponding area of the correction value table 16 (Step 14). After the above processing is completed, CPU 11 returns to the original connection weights W n ij of the previous test fix the connection weights (step 15). That is, the original connection weight W n ij is read from the weight table 15 and supplied to the corresponding neuron element via the connection weight I / O 19. The supplied neuron element changes the connection weight to the original W
Set to n ij .

【0019】以上のステップ6からステップ15までの
処理を、全ての結合重みW n ijに対して行う(図6、ス
テップ16からステップ21)。全ての結合重みについ
て終了した後(ステップ21;Y)、修正値テーブル1
6に格納されている修正値Wn ij′を結合重みI/O1
9を介して対応するニューロン素子に供給することによ
り、全ての結合重みを更新する(ステップ22)。そし
て、修正値テーブル16から各結合重みの修正値を読み
出して重みテーブル15のそれぞれ対応するエリアに格
納し、重みテーブル15を更新する(ステップ23)。
これにより、1回の学習パターンを終了する。
The above processing from step 6 to step 15 is performed for all the connection weights W n ij (FIG. 6, steps 16 to 21). After finishing all the connection weights (step 21; Y), the correction value table 1
Fixed stored in 6 values W n ij 'connection weights I / O1
All connection weights are updated by supplying them to the corresponding neuron elements via 9 (step 22). Then, the correction value of each connection weight is read from the correction value table 16 and stored in the corresponding area of the weight table 15, and the weight table 15 is updated (step 23).
Thus, one learning pattern ends.

【0020】以上の動作をステップ2に戻って、全ての
学習パターンP1 〜Pa について行う(ステップ24、
25)。更に、ステップ1に戻り、全学習パターンに対
して2乗誤差E(W n ij)が所定値以下となるまで、ま
たは繰り返し回数が所定の制限回数となるまで繰り返し
て(ステップ26)、処理を終了する。
The above operation returns to step 2 and is performed for all the learning patterns P 1 to P a (step 24,
25). Further, returning to step 1, the process is repeated until the square error E (W n ij ) becomes equal to or less than a predetermined value for all the learning patterns or the number of repetitions reaches a predetermined limit (step 26). finish.

【0021】次に、ニューラルネットワークの学習を以
上の動作により行った結果について説明する。学習の実
施を行ったニューラルネットワークとしては、2つのニ
ューロン素子から成る2層の入力層、2つのニューロン
素子から成る2層の中間層、および、1つのニューロン
素子から成る1層の出力層でニューロン素子網が構成さ
れ、排他的論理和についての学習を実施するものとす
る。学習は、結合重みW n ijの初期値を0から0.3ま
での乱数を用いて10通り用意し、それぞれの初期値に
対して比較実験を行う。なお、学習終了の条件として
は、全ての学習パターンに対する2乗誤差も全て0.0
1以下になった場合、または、学習回数が3000回を
越えた場合に設定する。学習は次の3つの場合について
行い、その結果を図7に示す。すなわち、式(1)、
(2)の係数kを変化させた場合図7(A)、テスト修
正幅Sを変化させた場合図7(B)、係数×テスト修正
幅Sが一定となる範囲で変化させた場合図7(C)であ
る。この図において、平均学習回数とは、学習が収束し
た場合の学習回数を平均した回数である。この図に示す
ように、テスト修正幅Sと係数kを適当な値に設定する
ことにより高い収束率を得ることができる。このテスト
修正幅Sと係数は、キーボード18の操作により変更さ
れる。また、この図に示すように、テスト修正幅Sが
0.1で係数kが100の場合が最適値であることが判
る。
Next, the result of learning the neural network by the above operation will be described. As a neural network that has performed learning, a neuron is composed of two input layers composed of two neuron elements, two intermediate layers composed of two neuron elements, and one output layer composed of one neuron element. An element network is formed, and learning about exclusive OR is performed. In the learning, ten initial values of the connection weights W n ij are prepared using random numbers from 0 to 0.3, and a comparison experiment is performed for each of the initial values. In addition, as a condition for completing the learning, the square errors for all the learning patterns are all 0.0.
It is set when the number becomes 1 or less, or when the number of times of learning exceeds 3000 times. Learning is performed for the following three cases, and the results are shown in FIG. That is, equation (1),
FIG. 7A when the coefficient k of (2) is changed, FIG. 7B when the test correction width S is changed, and FIG. 7 when the coefficient × test correction width S is changed within a constant range. (C). In this figure, the average number of times of learning is the average number of times of learning when learning converges. As shown in this figure, a high convergence rate can be obtained by setting the test correction width S and the coefficient k to appropriate values. The test correction width S and the coefficient are changed by operating the keyboard 18. Further, as shown in this figure, it is understood that the optimum value is obtained when the test correction width S is 0.1 and the coefficient k is 100.

【0022】図8は、従来のBP法を用いた場合の学習
時間と本実施例による学習時間との比較結果を表したも
のである。図8(A)は音声認識の部分ネットワークの
場合、(B)は英数字文字認識を行った場合について比
較したものである。この図8に示されるように、本実施
例によれば、学習回数については、従来のBP法よりも
増加する。しかし、1回の学習で行われる計算が非常に
単純であるため、BP法に比べて、いずれの場合も短時
間で学習が終了している。
FIG. 8 shows a comparison result between the learning time when the conventional BP method is used and the learning time according to the present embodiment. FIG. 8A shows a comparison in the case of a partial network for speech recognition, and FIG. 8B shows a comparison in the case of performing alphanumeric character recognition. As shown in FIG. 8, according to the present embodiment, the number of times of learning increases as compared with the conventional BP method. However, since the calculation performed in one learning is very simple, the learning is completed in a shorter time in each case than in the BP method.

【0023】図9は、学習制御部による他の学習動作の
流れを表したものである。この図は、図5に対応してお
り、ステップ6からステップ15までの処理に対応して
ステップ31からステップ41の処理を表したものであ
る。すなわち、図4のステップ1からステップ5までの
処理の後に、ステップ31に移行し、ステップ41の処
理の後に図6のステップ16に移行する。図4、図6の
処理は、上述の通りなので、説明を省略することとす
る。
FIG. 9 shows a flow of another learning operation by the learning control unit. This drawing corresponds to FIG. 5 and shows the processing of steps 31 to 41 corresponding to the processing of steps 6 to 15. In other words, after the processing from step 1 to step 5 in FIG. 4, the process proceeds to step 31, and after the process in step 41, the process proceeds to step 16 in FIG. The processing in FIGS. 4 and 6 is as described above, and a description thereof will be omitted.

【0024】まず、最初の結合重みW n ij(W 1 11が該
当)をW n ij+Sにテスト修正する(ステップ31)。
そして、ステップ4(図4)と同一の学習パターンPx
を入力してその出力信号Ox ′と教師信号Tx との2乗
誤差E(W n ij+S)を算出し(ステップ32)、ステ
ップ5(図4)で算出しRAM14に格納した2乗誤差
E(W n ij)との大小を比較する(ステップ33)。2
乗誤差E(W n ij+S)の方が小さい場合(ステップ3
3;Y)、式(1)により結合重みW n ijの修正幅dW
n ijを算出する(ステップ34)。
Firstly, the first connection weight W n ij (W 1 11 is applicable) the test modified to W n ij + S (step 31).
Then, the same learning pattern P x as in step 4 (FIG. 4)
Enter the calculated square error E (W n ij + S) and the output signal O x 'teacher signal T x (step 32), the square stored calculated in RAM14 in step 5 (FIG. 4) The magnitude is compared with the error E (W n ij ) (step 33). 2
When the squared error E (W n ij + S) is smaller (step 3
3; Y), the correction width dW of the connection weight W n ij according to equation (1).
n ij is calculated (step 34).

【0025】一方、2乗誤差E(W n ij+S)が小さく
ない場合(ステップ33;N)、結合重みをW n ij−S
にテスト修正する(ステップ35)。そして、同一の学
習パターンPx の入力に対する出力信号Ox ″と教師信
号差Tx との2乗誤差E(Wn ij−S)を求め(ステッ
プ36)、2乗誤差E(W n ij)との大小を比較する
(ステップ37)。2乗誤差E(W n ij−S)の方が小
さい場合(ステップ37;Y)、式(2)により結合重
みW n ijの修正幅dW n ijを算出する(ステップ3
8)。2乗誤差E(W n ij−S)の方が小さくない場合
に(ステップ37;N)、W n ijを0とする(ステップ
39)。CPU11は、このうよにして算出した修正幅
dW n ijを元の結合重みW n ijに加え、この修正値W n
ij′を修正値テーブル16の対応するエリアに格納する
(ステップ40)。更に、結合重みを元の値W n ijに戻
し(ステップ41)、図6に示すステップ16の処理に
移行する。
On the other hand, if the square error E (W n ij + S) is not small (step 33; N), the connection weight is set to W n ij -S
(Step 35). The same learning pattern P x inputs to determine the output signal O x "and the square error E between the teacher signal difference T x (W n ij -S) in (step 36), the square error E (W n ij (Step 37). If the square error E (W n ij -S) is smaller (Step 37; Y), the correction width dW n of the connection weight W n ij is calculated by the equation (2). ij is calculated (step 3
8). If towards the square error E (W n ij -S) it is not smaller (step 37; N), the W n ij to 0 (step 39). CPU11, in addition the correction width dW n ij calculated in this Uyo based connection weight W n ij, the correction value W n
ij 'is stored in the corresponding area of the correction value table 16 (step 40). Further, the connection weight is returned to the original value W n ij (step 41), and the processing shifts to step 16 shown in FIG.

【0026】このように、プラス方向のテスト修正によ
る2乗誤差E(Wn ij+S)がテスト修正前の2乗誤差
E(W n ij)よりも小さければ、マイナス方向のテスト
修正を省略することにより、テスト修正幅Sだけ正およ
び負の両方向にテスト修正を行う場合にくらべて計算回
数が減少し、学習速度が早くなる。この場合、マイナス
方向のテスト修正を先に行ってもよい。また、テスト修
正の方向を、前回行ったテスト修正と同一方向のテスト
修正を先に行うようにしてもよい。これにより、2乗誤
差の計算回数が減少し、より学習速度が早くなる。この
場合、前回のテスト修正の方向はRAM14の所定のエ
リアに格納する。ここで、前回のテスト修正とは、結合
重みの直前に行った他の結合重みのテスト修正と、1回
前の学習パターンに対する同一の結合重みのテスト修正
の両者が含まれる。
As described above, if the square error E (W n ij + S) due to the test correction in the plus direction is smaller than the square error E (W n ij ) before the test correction, the test correction in the minus direction is omitted. As a result, the number of calculations is reduced and the learning speed is increased as compared with the case where the test correction is performed in both the positive and negative directions by the test correction width S. In this case, the test correction in the minus direction may be performed first. In addition, the test correction may be performed in the same direction as the test correction performed last time. As a result, the number of times of calculating the square error is reduced, and the learning speed is further increased. In this case, the direction of the previous test correction is stored in a predetermined area of the RAM 14. Here, the previous test correction includes both the test correction of another connection weight performed immediately before the connection weight and the test correction of the same connection weight for the previous learning pattern.

【0027】以上説明したように、本発明の実施例によ
れば、結合重みW n ijをテスト修正幅Sだけ正または負
の方向にテスト修正する前後の2乗誤差の算出と、その
算出結果に基づいて修正幅dW n ijを算出するだけであ
り、BP法のような複雑な計算を行う必要がないので、
少ない計算式および計算量で学習を終了することが可能
となる。なお、各結合重みW n ijのそれぞれについて、
テスト修正幅Sのテスト修正を行う毎に学習パターンを
入力して出力信号Ox を得る。このため、テストパター
ンの入力回数はBP法よりも多くなるが、ニューロン素
子網はハードウェアで構成されているため、入力から出
力までの時間はごく僅かであり、CPU11での計算時
間からすれば、問題にならない。
[0027] As described above, according to an embodiment of the present invention, the calculation of the square error before and after testing correct the connection weights W n ij only test fix width S in a positive or negative direction, the calculation result , It is only necessary to calculate the correction width dW n ij based on, and there is no need to perform a complicated calculation such as the BP method.
Learning can be completed with a small calculation formula and a small amount of calculation. Note that for each of the connection weights W n ij ,
Type obtain an output signal O x learning pattern for each testing modified test correction range S. Therefore, the number of times of input of the test pattern is larger than that of the BP method. However, since the neuron element network is constituted by hardware, the time from input to output is very short. It doesn't matter.

【0028】また、本実施例によれば、結合重みにおけ
るテスト修正後の2乗誤差を算出する場合に、テスト修
正を行う結合重み以外の結合重みを初期状態に戻した状
態で算出しているので、テスト修正を行う結合重みの変
化による影響のみを判断することができる。従って、初
期状態における2乗誤差に与える、各結合重みW n ij
影響を反映させることができる。
Further, according to the present embodiment, when calculating the square error after the test correction in the connection weight, the connection weights other than the connection weight for performing the test correction are calculated in a state where the connection weights are returned to the initial state. Therefore, it is possible to determine only the effect of the change in the connection weight for performing the test correction. Therefore, it is possible to reflect the influence of each connection weight W n ij on the square error in the initial state.

【0029】以上説明した、実施例では、ニューロン素
子網に対して、ROMに格納されたプログラムに従って
CPUにおける制御により学習を行うように構成した
が、本発明では、専用のハードウェアで第1算出手段、
第1修正手段、第2算出手段、方向決定手段、第3算出
手段および第2修正手段を構成するようにしてもよい。
本発明では、単純な計算処理により学習が行われるの
で、専用のハードウェア化を容易に行うことができる。
このように、専用のハードウェアにより学習する構成と
することにより、学習時間は従来のBP法による学習時
間に比べて10分の1以下となる。
In the above-described embodiment, the learning is performed on the neuron element network by the control of the CPU according to the program stored in the ROM. In the present invention, however, the first calculation is performed by dedicated hardware. means,
You may make it comprise the 1st correction means, the 2nd calculation means, the direction determination means, the 3rd calculation means, and the 2nd correction means.
In the present invention, since learning is performed by a simple calculation process, dedicated hardware can be easily implemented.
In this way, by adopting a configuration in which learning is performed using dedicated hardware, the learning time is one-tenth or less of the learning time by the conventional BP method.

【0030】[0030]

【発明の効果】本発明では、BP法とは異なり、各結合
重みの単独のテスト修正によって生じるニューロン素子
網の出力誤差の変動を調べることにより、結合重みの修
正方向と値を決定するので、少ない計算量で済む。ま
た、学習方式がシンプルなので、ハードウェア化が容易
であり、ハードウェア化されたニューラルネットワーク
では、データの入力から出力されるまで殆ど時間がかか
らないので、学習を早く終了させることが可能となる。
According to the present invention, unlike the BP method, the correction direction and value of the connection weight are determined by examining the fluctuation of the output error of the neuron element network caused by a single test correction of each connection weight. Only a small amount of calculation is required. Further, since the learning method is simple, it is easy to implement hardware. With a neural network implemented with hardware, it takes almost no time from input to output of data, so that it is possible to finish learning quickly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成図である。FIG. 1 is a configuration diagram of the present invention.

【図2】本発明の1実施例のニューロン素子網の構成を
示す説明図である。
FIG. 2 is an explanatory diagram showing a configuration of a neuron element network according to one embodiment of the present invention.

【図3】ニューロン素子網の学習を制御する学習制御部
の構成図である。
FIG. 3 is a configuration diagram of a learning control unit that controls learning of a neuron element network.

【図4】学習制御部による学習動作の流れを示すフロー
チャートの一部である。
FIG. 4 is a part of a flowchart showing a flow of a learning operation by a learning control unit.

【図5】図4に示す学習動作の続きを示すフローチャー
トの一部である。
FIG. 5 is a part of a flowchart showing a continuation of the learning operation shown in FIG. 4;

【図6】図4、図5に示す学習動作の続きを示すフロー
チャートの一部である。
FIG. 6 is a part of a flowchart showing a continuation of the learning operation shown in FIGS. 4 and 5;

【図7】階層型ニューラルネットワークによる学習結果
を示す図で、(A)は係数kを変化させた場合、(B)
はテスト修正幅Sを変化させた場合、(C)は係数×テ
スト修正幅Sが一定となる範囲で変化させた場合の学習
結果を示す図である。
7A and 7B are diagrams showing learning results by a hierarchical neural network. FIG. 7A shows a case where a coefficient k is changed.
FIG. 7C is a diagram showing a learning result when the test correction width S is changed, and FIG. 7C shows a learning result when the coefficient × the test correction width S is changed within a constant range.

【図8】従来のPB法による学習時間と本実施例による
学習時間との比較結果を示す説明図である。
FIG. 8 is an explanatory diagram showing a comparison result between the learning time according to the conventional PB method and the learning time according to the present embodiment.

【図9】学習制御部による他の学習動作の流れを示すフ
ローチャートの一部である。
FIG. 9 is a part of a flowchart showing a flow of another learning operation by the learning control unit.

【符号の説明】[Explanation of symbols]

1〜9 ニューロン素子 11 CPU 13 ROM 14 RAM 15 重みテーブル 16 修正値テーブル 19 結合重みI/O 20 出力信号I/O 21 データI/O 1 to 9 neuron element 11 CPU 13 ROM 14 RAM 15 weight table 16 correction value table 19 connection weight I / O 20 output signal I / O 21 data I / O

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 所定の結合重みで階層型に結合された複
数のニューロン素子からなるニューロン素子網と、 このニューロン素子網に入力された学習パターンに対す
る出力信号と教師信号との2乗誤差を算出する第1算出
手段と、 前記複数のニューロン素子のうち1つの結合重みを所定
のテスト修正幅Sだけ正および負の少なくとも一方向に
テスト修正する第1修正手段と、 この第1修正手段によるテスト修正後の前記ニューロン
素子網における前記第1算出手段と同一の学習パターン
に対する出力信号と教師信号との2乗誤差を算出する第
2算出手段と、 この第2算出手段で算出した2乗誤差が、前記第1算出
手段で算出した2乗誤差よりも小さくなるテスト修正幅
Sの正または負の方向を決定する方向決定手段と、 この方向決定手段による修正方向および前記テスト修正
幅Sに応じて前記結合重みの修正値を算出する第3算出
手段と、 この第3算出手段で所定数の結合重みの修正値を算出
し、その修正値に各結合重みを修正する第2修正手段
を具備し、 前記第3算出手段は、 kを係数、E(W n ij )をテスト修正前の2乗誤差、E
(W n ij ±S)をテスト修正後の2乗誤差とした場合
に、 方向決定手段で決定した方向が正のとき、 n ij +S×k×〔E(W n ij )−E(W n ij +S)〕 により、 方向決定手段で決定した方向が負のとき、 n ij −S×k×〔E(W n ij )−E(W n ij −S)〕 により、それぞれの修正値を算出することを特徴とする
階層型ニューラルネットワーク。
1. A neuron element network composed of a plurality of neuron elements hierarchically connected with a predetermined connection weight, and a square error between an output signal and a teacher signal for a learning pattern input to the neuron element network is calculated. First calculating means for performing a test correction of one connection weight of the plurality of neuron elements in at least one of positive and negative directions by a predetermined test correction width S; and a test performed by the first correcting means. A second calculating means for calculating a square error between an output signal and a teacher signal for the same learning pattern as the first calculating means in the corrected neuron element network, and a square error calculated by the second calculating means is Direction determining means for determining the positive or negative direction of the test correction width S which is smaller than the square error calculated by the first calculating means; A third calculating means for calculating a correction value of the connection weight according to the correction direction and the test correction width S; a correction value of a predetermined number of connection weights being calculated by the third calculation means; Second correcting means for correcting the weight ;
And the third calculating means calculates k as a coefficient, E (W n ij ) as a square error before test correction, E
(W n ij ± S) is the square error after test correction
, When the direction determined by the direction determining means is positive, the W n ij + S × k × [E (W n ij) -E ( W n ij + S) ], when the direction determined by the direction determining means is negative by W n ij -S × k × [E (W n ij) -E ( W n ij -S) ], and calculates the respective correction value
Hierarchical neural network.
【請求項2】テスト修正幅Sと係数kの少なくとも一
方、を変更する変更手段を具備する請求項記載の階層
型ニューラルネットワーク。
2. A hierarchical neural network according to claim 1, further comprising a change means for changing at least the other hand, the test fix width S and the coefficient k.
【請求項3】テスト修正幅Sが0.1、係数kが100
であることを特徴とする請求項記載の階層型ニューラ
ルネットワーク。
3. The test correction width S is 0.1 and the coefficient k is 100.
The hierarchical neural network according to claim 1, wherein
【請求項4】 所定の結合重みで階層型に結合された複
数のニューロン素子からなるニューロン素子網と、 このニューロン素子網に入力された学習パターンに対す
る出力信号と教師信号との2乗誤差を算出する第1算出
手段と、 前記複数のニューロン素子のうち1つの結合重みを所定
のテスト修正幅Sだけ正および負の方向にテスト修正す
る第1修正手段と、 この第1修正手段によるテスト修正後の前記ニューロン
素子網における前記第1算出手段と同一の学習パターン
に対する出力信号と教師信号との2乗誤差を算出する第
2算出手段と、 この第2算出手段で算出した2乗誤差が、前記第1算出
手段で算出した2乗誤差よりも小さくなるテスト修正幅
Sの正または負の方向を決定する方向決定手段と、 この方向決定手段による修正方向および前記テスト修正
幅Sに応じて前記結合重みの修正値を算出する第3算出
手段と、 この第3算出手段で所定数の結合重みの修正値を算出
し、その修正値に各結合重みを修正する第2修正手段と
を具備することを特徴とする階層型ニューラルネットワ
ーク。
4. A neuron element network comprising a plurality of neuron elements hierarchically connected with a predetermined connection weight, and a square error between an output signal and a teacher signal for a learning pattern input to the neuron element network is calculated. First calculating means for performing a test correction of one connection weight of the plurality of neuron elements in a positive and negative direction by a predetermined test correction width S ; after the test correction by the first correcting means A second calculating means for calculating a square error between an output signal and a teacher signal for the same learning pattern as the first calculating means in the neuron element network, and the square error calculated by the second calculating means is: Direction determining means for determining the positive or negative direction of the test correction width S smaller than the square error calculated by the first calculating means; And third correction means for calculating a correction value of the connection weight in accordance with the test correction width S; calculating a correction value of a predetermined number of connection weights with the third calculation means; A hierarchical neural network, comprising: a second modifying means for modifying.
【請求項5】 所定の結合重みで階層型に結合された複
数のニューロン素子からなるニューロン素子網に学習パ
ターンを入力してその出力信号と教師信号との2乗誤差
を算出する第1工程と、 複数のニューロン素子のうち他の結合重みを第1工程と
同一の状態とし、1つの結合重みを所定のテスト修正幅
Sだけ正および負の方向にテスト修正し、テスト修正後
の前記ニューロン素子網に第1工程と同一の学習パター
ンを入力して算出した2乗誤差が第1工程で算出した2
乗誤差よりも小さくなるテスト修正幅Sの正または負の
方向を決定し、決定した修正方向と前記テスト修正幅S
に応じて結合重みの修正値を算出する工程を、所定数の
結合重みに対して行う第2工程と、 第2工程で所定数の結合重みの修正値を算出した後に算
出した修正値に各結合重みを修正する第3工程を備えた
ことを特徴とする階層型ニューラルネットワークの学習
方法。
5. A first step of inputting a learning pattern to a neuron element network composed of a plurality of neuron elements hierarchically connected with a predetermined connection weight and calculating a square error between an output signal and a teacher signal. The other connection weights of the plurality of neuron elements are set in the same state as in the first step, and one connection weight is test-corrected in a positive and negative direction by a predetermined test correction width S. The square error calculated by inputting the same learning pattern to the net as in the first step is 2 calculated in the first step.
A positive or negative direction of the test correction width S smaller than the squared error is determined, and the determined correction direction and the test correction width S are determined.
Calculating the correction value of the connection weight according to the second step of performing the correction value of the predetermined number of connection weights in the second step; and calculating the correction value of the predetermined number of connection weights in the second step. A method for learning a hierarchical neural network, comprising a third step of correcting connection weights.
JP24838991A 1991-09-03 1991-09-03 Hierarchical neural network and learning method thereof Expired - Fee Related JP3273568B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24838991A JP3273568B2 (en) 1991-09-03 1991-09-03 Hierarchical neural network and learning method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24838991A JP3273568B2 (en) 1991-09-03 1991-09-03 Hierarchical neural network and learning method thereof

Publications (2)

Publication Number Publication Date
JPH0561850A JPH0561850A (en) 1993-03-12
JP3273568B2 true JP3273568B2 (en) 2002-04-08

Family

ID=17177381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24838991A Expired - Fee Related JP3273568B2 (en) 1991-09-03 1991-09-03 Hierarchical neural network and learning method thereof

Country Status (1)

Country Link
JP (1) JP3273568B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138501B2 (en) * 2018-02-22 2021-10-05 International Business Machines Corporation Hardware-implemented training of an artificial neural network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744517A (en) * 1993-07-30 1995-02-14 Tech Res & Dev Inst Of Japan Def Agency Signal discrimination method under noise background

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138501B2 (en) * 2018-02-22 2021-10-05 International Business Machines Corporation Hardware-implemented training of an artificial neural network

Also Published As

Publication number Publication date
JPH0561850A (en) 1993-03-12

Similar Documents

Publication Publication Date Title
US5107454A (en) Pattern associative memory system
US5313559A (en) Method of and system for controlling learning in neural network
EP0416173B1 (en) A method for adjusting network parameters in a multi-layer perceptron device, and perceptron device provided with means for executing the method
WO2020009912A1 (en) Forward propagation of secondary objective for deep learning
JPH02193251A (en) Error backward propagation and nerve network system
JP3273568B2 (en) Hierarchical neural network and learning method thereof
JPH056355A (en) Method and device for learning neural network
US5596681A (en) Method of determining an optimal number of neurons contained in hidden layers of a neural network
JPH09257553A (en) Dead weight measuring device
JPH07121498A (en) Method for constructing neural network
JPH04237388A (en) Neuro processor
JPH0589247A (en) Method and device for separating specific pattern from pattern space
JPH11175494A (en) Neural network
JP2979562B2 (en) Learning processing device
JP3029451B2 (en) Fuzzy control device
JPH05128285A (en) Neuro-processor
JP3303253B2 (en) Pattern matching method and apparatus
JPH117435A (en) Neural network
JPH09311846A (en) Neural network
JP3082530B2 (en) Neural network circuit
JP2766858B2 (en) Neural network parallel simulation method and device used therefor
JPH01282672A (en) Neural network device
JPH04360291A (en) Method for learning neural net
JP2734374B2 (en) Neural network simulator
JPH06332878A (en) Neurocomputer

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees