JPH02277180A - Pattern learning device - Google Patents

Pattern learning device

Info

Publication number
JPH02277180A
JPH02277180A JP1094563A JP9456389A JPH02277180A JP H02277180 A JPH02277180 A JP H02277180A JP 1094563 A JP1094563 A JP 1094563A JP 9456389 A JP9456389 A JP 9456389A JP H02277180 A JPH02277180 A JP H02277180A
Authority
JP
Japan
Prior art keywords
layer
learning
signal
value
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1094563A
Other languages
Japanese (ja)
Other versions
JP2536146B2 (en
Inventor
Takatsugu Yamada
山田 敬嗣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP1094563A priority Critical patent/JP2536146B2/en
Publication of JPH02277180A publication Critical patent/JPH02277180A/en
Application granted granted Critical
Publication of JP2536146B2 publication Critical patent/JP2536146B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To avoid a learning stop state by deciding a learning state based on the total correction value of a weight matrix and the evaluation value of error between the signal of an output layer and a teacher signal. CONSTITUTION:A feedforward neural circuit network comprises plural layers including an input layer storage part 1002 and an output layer storage part 1005 and performs the learning operations by an adverse transmission method. A weight matrix storage part 1011 is initialized by a random number. An input pattern is inputted via a terminal 1001 as the vector value and stored in the part 1002. Then all elements of the vector are sent to a matrix product computing part 1003, and the total correction value is obtained for the vector value stored in the part 1011. An error calculation part 1210 obtains the evaluation value from an error between the signal of the part 1003 and a teacher signal. The part 1003 decides the learning state based on the total sum of the evaluation value and correction value. When the learning state is discontinued, a matrix correction part 1013 changes the output signals received from each layer to prevent the learning stop state.

Description

【発明の詳細な説明】 (産業上の利用分野) 本題発明は、フィードフォワード型の神経回路網におい
て、学習が十分進んでないにも関わらす学習が停止する
状況を回避するパターン学習装置に関するものである。
[Detailed Description of the Invention] (Field of Industrial Application) The present invention relates to a pattern learning device that avoids a situation in which learning stops even though learning has not progressed sufficiently in a feedforward neural network. be.

(従来の技術) 従来、入カバターンと出力信号との対応付けは、第1の
文献(“As5ociative Memory” b
y T。
(Prior Art) Conventionally, the correspondence between input cover turns and output signals has been described in the first document (“As5oative Memory” b
yT.

Kohonen: Springer−Verlag:
 1977)に示される偽逆行列や重回帰分析によって
行われていたが、この文献に示されるシステムは線形シ
ステムであり非線形な対応付けができなかった。それに
対し、フィードフォワード形の神経回路網では、パター
ンを入力とし、その教師として理想的な出力信号を多数
回入力して、第2の文献(”An Intorduct
ion t。
Kohonen: Springer-Verlag:
(1977), but the system shown in this document was a linear system and non-linear correspondence was not possible. On the other hand, in a feedforward neural network, a pattern is input, and an ideal output signal is input many times as a teacher.
ion t.

Computing with Neural Net
s” by R,P、 Lippmann:IEEE、
 ASSP: April 1987. pp、4−2
2)に示される逆伝搬学習法により、人カバターンと出
力信号との非線形な対応を学習することができる。
Computing with Neural Net
s” by R,P,Lippmann: IEEE,
ASSP: April 1987. pp, 4-2
By the back propagation learning method shown in 2), it is possible to learn the nonlinear correspondence between the human cover turn and the output signal.

(発明が解決しようとする問題点) 以上に述べたフィードフォワード型の神経回路網では、
入力信号のベクトルに対し重みマトリクスを演算し、そ
の結果にシグモイド関数と呼ぶ非線形な関数を掛けて、
結果のベクトル値を得て、さらに重みマトリクスを演算
し、シグモイド関数を掛けるという処理を神経回路網の
層数分だけ繰り返して出力信号を得る。この重みマトリ
クスを初期的に乱数などにより定め、逆伝搬学習により
重みマトリクス値を修正し最適な値を求める。
(Problems to be solved by the invention) In the feedforward type neural network described above,
A weight matrix is calculated for the input signal vector, and the result is multiplied by a nonlinear function called a sigmoid function.
The process of obtaining the resulting vector value, further calculating a weight matrix, and multiplying by a sigmoid function is repeated for the number of layers of the neural network to obtain an output signal. This weight matrix is initially determined using random numbers, etc., and the weight matrix values are modified by back propagation learning to find an optimal value.

しかし、従来の学習方式では、出力信号と教師信号とが
一致せず、学習が終了していないにも関わらず、重みマ
トリクスの修正が起こらない状態(学習停止状態)が発
生し、学習が進行しなくなることがある。
However, in conventional learning methods, a state occurs in which the output signal and the teacher signal do not match, and the weight matrix is not corrected even though learning has not finished (learning stopped state), and learning progresses. Sometimes it stops happening.

本願発明の目的は、上記の学習停止の状況を監視して、
−学習停止に陥った場合には、学習停止を回避して学習
を継続することができるパターン学習装置を提供するこ
とにある。
The purpose of the present invention is to monitor the above-mentioned learning stop situation,
- It is an object of the present invention to provide a pattern learning device that can avoid learning suspension and continue learning when learning suspension occurs.

(問題を解決するための手段) 第1の本発明により得られるパターン学習装置は、逆伝
搬法により学習を行う入力層、出力層を含む複数の層か
らなるフィードフォワード形の神経回路網と、神経回路
網内で用いられる重みマトリクスの修正量の総和を計算
した結果と、出力層の信号と教師信号との誤差の評価量
とから学習が停止しているか否か判定する手段と、学習
が停止している場合に各層からの出力信号を修正する手
段とを備えたことを特徴とする。
(Means for Solving the Problem) A pattern learning device obtained by the first invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output layer that perform learning by back propagation method, A means for determining whether learning has stopped based on a result of calculating the sum of correction amounts of a weight matrix used in a neural network and an evaluation amount of an error between an output layer signal and a teacher signal; The present invention is characterized in that it includes means for modifying the output signal from each layer when it is stopped.

第2の本発明により得られるパターン学習装置は、逆伝
搬法により学習を行う入力層、出力層を含む複数の層か
らなるフィードフォワード形の神経回路網と、各層の信
号から計算した神経回路網内で用いられる重みマトリク
スの修正量の評価値と、出力層の信号と教師信号との誤
差の評価量とから学習が停止しているか否かを判定する
手段と、学習が停止している場合に各層がらの出力信号
を修正する手段とを備えたことを特徴とする。
The pattern learning device obtained according to the second aspect of the present invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output layer that perform learning using the back propagation method, and a neural network calculated from the signals of each layer. means for determining whether learning has stopped based on the evaluation value of the amount of modification of the weight matrix used in the process and the evaluation amount of the error between the output layer signal and the teacher signal; and means for modifying the output signal of each layer.

第3の本発明により得られるパターン学習装置は、逆伝
搬法により学習を行う入力層、出力を含む複数の層から
なるフィードフォワード形の神経回路網と、神経回路内
で用いられるマトリクスの修正量の総和を計算した結果
と、出力層の信号と教師信号との誤差の評価量とから学
習が停止しているか否か判定する手段と、学習が停止し
ている場合に、入力層の信号を修正部分と、入力層以外
の層での出力信号をもとめるシグモイド関数の傾き制御
パラメータを修正する手段とを備えたことを特徴とする
The pattern learning device obtained according to the third aspect of the present invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output that performs learning using the back propagation method, and the amount of correction of a matrix used in the neural network. means for determining whether learning has stopped based on the result of calculating the sum of The present invention is characterized by comprising a modification portion and means for modifying a slope control parameter of a sigmoid function for obtaining an output signal in a layer other than the input layer.

第4の本発明により得られるパターン学習装置は、逆伝
搬法により学習を行う入力層、出力を含む複数の層から
なるフィードフォワード形の神経回路網と、各層の信号
から計算した神経回路網内で用いられる重みマトリクス
の修正量の評価値と、出力層の信号と教師信号との誤差
の評価量とから学習が停止しているか否かを判定する手
段と、学習が停止している場合に、入力層の信号を修正
する手段と、入力層以外の層での出力信号をもとめるシ
グモイド関数の傾き制御パラメータを修正する手段とを
備えたことを特徴とする。
The pattern learning device obtained according to the fourth aspect of the present invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output that performs learning using the back propagation method, and an internal neural network calculated from signals of each layer. A means for determining whether learning has stopped based on the evaluation value of the amount of correction of the weight matrix used in and the evaluation amount of the error between the output layer signal and the teacher signal, and , comprising means for modifying a signal in an input layer, and means for modifying a slope control parameter of a sigmoid function for determining an output signal in a layer other than the input layer.

第5の本発明により得られるパターン学習装置は、逆伝
搬法により学習を行う入力層、出力を含む複数の層から
なるフィードフォワード形の神経回路網と、神経回路内
で用いられるマトリクスの修正量の総和を計算した結果
と、出力層の信号と教師信号との誤差の評価量とから学
習が停止しているか否か判定する手段と、学習が停止し
ている場合に、入力層の信号を修正する手段と、入力層
以外の層での出力信号をもとめるシグモイド関数の最大
値、最小値間のレンジを修正する手段とを備えたことを
特徴とする。
The pattern learning device obtained according to the fifth aspect of the present invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output that performs learning using a back propagation method, and the amount of correction of a matrix used in the neural network. means for determining whether learning has stopped based on the result of calculating the sum of The present invention is characterized by comprising means for modifying, and means for modifying the range between the maximum value and the minimum value of a sigmoid function for obtaining an output signal in a layer other than the input layer.

第6の本発明により得られるパターン学習装置は、逆逆
伝搬法により学習を行う入力層、出力を含む複数の層か
らなるフィードフォワード形の神経回路網と、各層の信
号から計算した神経回路網内で用いられる重みマトリク
スの修正量の評価値と、出力層の信号と教師信号との誤
差の評価量とから学習が停止しているが否かを判定する
手段と、学習が停止している場合に、入力層の信号を修
正する手段と、入力層以外の層での出力信号をもとめる
シグモイド関数の最大値、最小値間のレンジを修正する
手段とを備えたことを特徴とする。
The pattern learning device obtained by the sixth aspect of the present invention includes a feedforward neural network consisting of a plurality of layers including an input layer and an output that performs learning by backpropagation method, and a neural network calculated from signals of each layer. means for determining whether learning has stopped based on the evaluation value of the amount of correction of the weight matrix used in the process and the evaluation amount of the error between the output layer signal and the teacher signal; In this case, the method is characterized by comprising means for modifying a signal in an input layer, and means for modifying a range between a maximum value and a minimum value of a sigmoid function for obtaining an output signal in a layer other than the input layer.

(作用) 第1の発明では、学習停止状況を重みマトリクスの修正
量の総和が一定値以下になり、しかも出力信号と教師信
号との差がしきい値より大きい場合として観測し、その
場合に各層からの出力信号を修正して、重みマトリクス
の修正量が0となる要因を排除することにより、重みマ
トリクスの修正を強制的に行い、学習停止を回避するこ
とができる。
(Operation) In the first invention, the learning stop situation is observed as a case where the sum of the correction amounts of the weight matrix becomes less than a certain value, and the difference between the output signal and the teacher signal is larger than a threshold value, and in that case, By modifying the output signal from each layer and eliminating the factors that cause the amount of modification of the weight matrix to be 0, it is possible to forcibly modify the weight matrix and avoid stopping learning.

第2の発明では、学習停止状況を重みマトリクスの修正
量の総和を調べるかわり′に、各層の出力値ともう1層
下の層の出力値をもとに重みマトリクスの修正量を推定
し、その推定量が一定値以下になり、しかも出力信号と
教師信号との差がしきい値より大きい場合として観測し
、重みマトリクスの修正量を計算することなく学習停止
を検出できるようにする。学習停止の場合には各層から
の出力信号を修正して、重みマトリクスの修正量がOと
なる要因を排除することにより、重みマトリクスの修正
を強制的に行い、学習停止を回避することができる。
In the second invention, instead of checking the learning stop state by the sum of the correction amounts of the weight matrix, the correction amount of the weight matrix is estimated based on the output value of each layer and the output value of the layer one layer below, By observing the case where the estimated amount is less than a certain value and the difference between the output signal and the teacher signal is larger than the threshold value, learning stoppage can be detected without calculating the amount of correction of the weight matrix. In the case of stopping learning, by correcting the output signal from each layer and eliminating factors that cause the amount of correction of the weight matrix to be O, it is possible to forcibly correct the weight matrix and avoid stopping learning. .

第3の発明では、学習停止状況を重みマトリクスの修正
量の総和が一定値以下になり、しかも出力信号と教師信
号との差がしきい値より大きい場合として観測し、その
場合に入力層以外の層での出力信号を計算するシグモイ
ド関数の傾きを制御するパラメータを変更して、傾きを
緩やかにして、0や1の値が出力されにくくするととも
に、入力層の信号の上限値、下限値により限定すること
によって、重みマトリクスの修正量が0となる要因を排
除することにより、重みマトリクスの修正を行い、学習
停止を回避することができる。
In the third invention, the learning stop situation is observed as a case where the sum of the correction amounts of the weight matrix becomes less than a certain value, and the difference between the output signal and the teacher signal is larger than a threshold value, and in that case, By changing the parameter that controls the slope of the sigmoid function that calculates the output signal in the layer, the slope is made gentler, making it difficult for values of 0 and 1 to be output, and the upper and lower limits of the signal in the input layer are changed. By limiting the weight matrix to 0, it is possible to correct the weight matrix and avoid stopping learning by eliminating factors that cause the weight matrix correction amount to be 0.

第4の発明では、学習停止状況を重みマトリクスの修正
量の総和を調べるかわりに、各層の出力値ともう1層下
の層の出力値をもとに重みマトリクスの修正量を推定し
、その推定量が一定値以下になり、しかも出力信号と教
師信号との差がしきい値より大きい場合として作見測し
、重みマトリクスの修正量を計算することなく学習停止
を検出できるようにする。学習停止の場合には入力層−
以外での層の出力信号を計算するシグモイド関数の傾き
を制御するパラメータを変更して、傾きを緩やかにして
、0や1の値が出力されにくくするとともに、入力層の
信号を上限値、下限値により限定することによって、重
みマトリクスの修正量が0となる要因を排除することに
より、重みマトリクスの修正を強制的に行い、学習停止
を回避することができる。
In the fourth invention, instead of checking the total amount of modification of the weight matrix to determine the learning stop state, the modification amount of the weight matrix is estimated based on the output value of each layer and the output value of the layer one layer below. It is possible to detect learning stoppage without calculating the correction amount of the weight matrix by observing the case where the estimated amount is less than a certain value and the difference between the output signal and the teacher signal is larger than a threshold value. In case of stopping learning, the input layer −
By changing the parameter that controls the slope of the sigmoid function that calculates the output signal of the layer other than the By limiting by value, it is possible to forcibly modify the weight matrix and avoid stopping learning by eliminating factors that cause the amount of modification of the weight matrix to be 0.

第5の発明では、学習停止状況を重みマトリクスの修正
量の総和が一定値以下になり、しかも出力信号と教師信
号との差がしきい値より大きい場合として観測し、その
場合に入力層以外での層の出力信号を計算するシグモイ
ド関数の最大最小値を制御するレンジパラメータを変更
して、0や1の値が出力されにくくするとともに、入力
層の信号を上限値、下限値により限定し、両者によって
重みマトリクスの修正量が0となる要因を排除して、重
み重みマトリクスの修正を行い、学習停止を回避するこ
とができる。
In the fifth invention, the learning stop situation is observed as a case where the sum of the correction amounts of the weight matrix becomes less than a certain value, and the difference between the output signal and the teacher signal is larger than a threshold value, and in that case, when By changing the range parameter that controls the maximum and minimum values of the sigmoid function that calculates the output signal of the layer in , it is difficult to output values of 0 and 1, and the signal of the input layer is limited by the upper and lower limit values. , it is possible to eliminate the factors that cause the amount of correction of the weight matrix to become 0, correct the weight matrix, and avoid learning stoppage.

第6の発明では、学習停止状況を重みマトリクスの修正
量の総和を調べるかわりに、各層の出力値ともう1層下
の層の出力値をもとに重みマトリクスの修正量を推定し
、その推定量が一定値以下になり、しかも出力信号と教
師信号との差がしきい値より大きい場合として観測し、
重みマトリクスの修正量を計算することなく学習停止を
検出できるようにする。学習停止の場合には入力層以外
での層の出力信号を計算するシグモイド関数の最大最小
値を制御するレンジパラメータを変更して、0や1の値
が出力されにくくするとともに、入力層の信号を上限値
、下限値により限定することによって、重みマトリクス
の修正量が0となる要因を排除することにより、重みマ
トリクスの修正を強制的に行い、学習停止を回避するこ
とができる。
In the sixth invention, instead of checking the sum of the correction amounts of the weight matrix to determine the learning stop state, the correction amount of the weight matrix is estimated based on the output value of each layer and the output value of the layer one layer below. Observe as a case where the estimated amount is below a certain value and the difference between the output signal and the teacher signal is greater than the threshold,
To detect stopping of learning without calculating the amount of correction of a weight matrix. When learning is stopped, the range parameter that controls the maximum and minimum values of the sigmoid function that calculates the output signal of layers other than the input layer is changed to make it difficult to output values of 0 and 1, and the signal of the input layer is changed. By limiting the value by an upper limit value and a lower limit value, it is possible to forcibly correct the weight matrix and avoid stopping learning by eliminating factors that cause the amount of correction of the weight matrix to be 0.

(実施例) 次に第1図から第15図を参照して本願発明の実施例に
ついて説明する。
(Example) Next, an example of the present invention will be described with reference to FIGS. 1 to 15.

第1図及び第10図は第1の発明のノミターン学習装置
の実施例を示すブロック図である。本願発明の学習装置
は、2層以上のフィードフォワード型のパターン学習装
置について適用可能であり、第1図では3層のフィード
フォワード型パターン学習装置について説明し、第10
図では2層のパターン学習装置について説明するが、4
層以上のパターン学習装置についても適用可能である。
FIGS. 1 and 10 are block diagrams showing embodiments of the chisel turn learning device of the first invention. The learning device of the present invention can be applied to a feedforward pattern learning device with two or more layers, and FIG. 1 describes a feedforward pattern learning device with three layers.
The figure explains a two-layer pattern learning device, but
It is also applicable to pattern learning devices with layers or more.

まず第10図を参照して、第1の本発明のパターン学習
装置の2層の場合の実施例を説明をする。学習は、人カ
バターンと教師信号を繰り返し与えることによりなされ
るが、まず1つの入カバターンと1つの教師信号を与え
た場合について説明する。予め、マトリクス積演算部で
用いられるマトリクスを蓄えるマトリクス記憶部101
1は乱数により初期化されているものとする。
First, with reference to FIG. 10, a description will be given of a two-layer embodiment of the pattern learning device according to the first aspect of the present invention. Learning is performed by repeatedly applying a human cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are provided will be described. A matrix storage unit 101 that stores a matrix used in the matrix product calculation unit in advance.
It is assumed that 1 is initialized by a random number.

まず、人力値から出力値を計算するフィードフォワード
の処理を説明する。人カバターンはベクトル値とした端
子1001より人力され、入力層記憶部1002に蓄え
られる。入力層記憶部1002は、NQ次元のベクトル
を保持するレジ2夕により構成され、ベクトルの全要素
はマトリクス積演算部1003に送られる。人力される
ベクトル値をoio(1≦i≦NQ)とし、重みマトリ
クス記憶部1011に保持されるマトリクス値をwij
l(1≦i≦NQ、1≦j≦N□)、出力層記憶部10
05に保持されるベクトル値を0”jl(1≦j≦N工
)とすると、マトリクス積演算部1003では、0j1
=Σ(Oj1×Wij1)+θj1.  (1)なる計
算をおこなう。ただし、−一でojはバイアス値であり
、重みマトリクス記憶部1011に記憶される。結果の
OJ”(1≦j≦N1)は各々、S関数部1004にお
いて o’j’ = (1+ tanh(oj”))/2  
       (2)なる計算によりo)1をもとめ、
出力信号として出力層記憶部1005に記憶する。
First, feedforward processing for calculating an output value from a human power value will be explained. The human cover turn is manually input from the terminal 1001 as a vector value and stored in the input layer storage unit 1002. The input layer storage unit 1002 includes a register 2 that holds an NQ-dimensional vector, and all elements of the vector are sent to the matrix product calculation unit 1003. The manually input vector value is oio (1≦i≦NQ), and the matrix value held in the weight matrix storage unit 1011 is wij.
l (1≦i≦NQ, 1≦j≦N□), output layer storage unit 10
Assuming that the vector value held in 05 is 0''jl (1≦j≦N), the matrix product calculation unit 1003 calculates 0j1
=Σ(Oj1×Wij1)+θj1. (1) Perform the following calculation. However, at -1, oj is a bias value and is stored in the weight matrix storage unit 1011. The resulting OJ'' (1≦j≦N1) is calculated in the S function section 1004 as o'j' = (1+ tanh(oj''))/2
(2) Obtain o) 1 by calculation,
It is stored in the output layer storage unit 1005 as an output signal.

つぎに、重みマトリクスの修正処理の説明をする。Next, the weight matrix correction process will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子102
0より入力して教師信号記憶部1009に保持し、その
値tj(1≦j≦Nl)と出力信号記憶部1005内の
値0”jlととを誤差信号計算部1010に転送して、
誤差信号d)を d’J’ ” EJ O’J”(1≦に≦N1)   
     (3)として計算して、さらに出力信号0)
1とから逆伝搬誤差を評価し、 dj1=d’j’Xoj1X(1oj)       
 (4)なる式を実行する計算によりdj”(1≦j≦
Nl)を求めた後に、その値をマトリクス修正部101
3に転送する。さらに、誤差信号d31は、マトリクス
修正量計算部1016にも転送され学習停止の観測に用
いられる。
A teacher signal, which is an ideal value, for the output signal obtained by the above-described feedforward processing is sent to the terminal 102.
0 is input and held in the teacher signal storage unit 1009, and the value tj (1≦j≦Nl) and the value 0''jl in the output signal storage unit 1005 are transferred to the error signal calculation unit 1010.
Error signal d) as d'J'"EJO'J" (1≦to≦N1)
(3) and further output signal 0)
Evaluate the back propagation error from 1, dj1=d'j'Xoj1X(1oj)
By executing the formula (4), dj'' (1≦j≦
After calculating Nl), the value is converted to the matrix correction unit 101.
Transfer to 3. Furthermore, the error signal d31 is also transferred to the matrix correction amount calculation unit 1016 and used for observing learning stoppage.

マトリクス修正部1013では、 Wij1=Wij1+aXdj1×010(5)θ11
=θi”+bXdj1(6) なる計算により重みマトリクスを修正し、結果を再び重
みマトリクス記憶部1011に記憶する。ここで、aル
は正値の係数であり、たとえば各々を0.2と0.1と
設定することができるが、この値自体は本質的な問題で
はない。
In the matrix correction unit 1013, Wij1=Wij1+aXdj1×010(5)θ11
=θi''+bXdj1 (6) The weight matrix is corrected by the calculation, and the result is stored again in the weight matrix storage unit 1011. Here, a is a positive coefficient, and for example, each is set to 0.2 and 0. Although it can be set to 1, this value itself is not an essential problem.

マトリクス修正量計算部1016では、マトリクス修正
部1013で求められた重みマトリクスの修正量(aX
dj1×0i0)の総和を S=ΣE 1aXdj”XoHol         
(7)なる式を実行する計算により求める。ここで、I
Xlなる計算は、Xの絶対値を求める計算とする。さら
に、出力信号と教師信号との誤差の評価量を、(3)の
実行により求められた結果のd゛jよりE=Σ(d’j
1)2(8) なる式を実行することにより求め、さらにs<’rhi
                      (9)
E>Th2 なる条件判定を実行し、上記の(9)式で表される条件
を満たした場合には学習停止状況にあると判断して、入
力層修正部1017、出力層修正部1018に信号を送
り、各層の出力信号の修正を行う。実施例では、Thl
を0.1として、Th2を0.3としたが、これは本質
的な問題ではない。上記の条件を満たさない場合は学習
停止状況にはないとみなし、マトリクス修正量計算部1
016から各層の修正部への信号は出さない。
The matrix correction amount calculation unit 1016 calculates the weight matrix correction amount (aX
dj1×0i0) is S=ΣE 1aXdj”XoHol
It is obtained by calculation that executes the formula (7). Here, I
The calculation Xl is a calculation to find the absolute value of X. Furthermore, the evaluation amount of the error between the output signal and the teacher signal is determined by E=Σ(d'j
1)2(8), and furthermore, s<'rhi
(9)
E>Th2 If the condition expressed by the above equation (9) is satisfied, it is determined that the learning is stopped, and a signal is sent to the input layer correction unit 1017 and the output layer correction unit 1018. is sent to modify the output signal of each layer. In the example, Thl
was set to 0.1, and Th2 was set to 0.3, but this is not an essential problem. If the above conditions are not met, it is assumed that learning is not in a stopped state, and the matrix correction amount calculation unit 1
No signal is output from 016 to the correction section of each layer.

学習停止の信号を受けた入力層修正部1017では、入
力層記憶部1002に保持される値oi0を読みだし、 oi0=Min(Max(oj、L)、U)     
    (10)なる計算を実行して入力値oi0を修
正して、再び人力記憶部1002に格納する。この修正
は第7図に示すように第7図の701に示される曲線を
、修正前の値とすると、この曲線のUより大な部分りよ
り小な部分は各々第7図の702.703のように修正
をすることにより入力層の値が0や1に近い値となるこ
とを避ける。ここで、Min(x、 Y)とはX、yの
うち小さい方を選択する関数を表し、Max(x、 y
)とは、X、yのうち大きい方を選択する関数を表す。
Upon receiving the learning stop signal, the input layer correction unit 1017 reads out the value oi0 held in the input layer storage unit 1002, and calculates oi0=Min(Max(oj, L), U).
(10) The input value oi0 is corrected by performing the calculation and stored in the human storage unit 1002 again. This modification is as shown in FIG. 7. If the curve shown at 701 in FIG. 7 is set to the value before modification, the portion larger than U and the portion smaller than U of this curve are 702 and 703 in FIG. 7, respectively. By making the following corrections, it is possible to avoid input layer values from becoming values close to 0 or 1. Here, Min(x, Y) represents a function that selects the smaller of X and y, and Max(x, y
) represents a function that selects the larger of X and y.

また、Uは人力信号の上限値を表したとえば0.9とす
ることができる。Lは人力信号の下限値を表したとえば
0.1とすることができる。しかし、U、Lの値は、0
.9.0.1に限らずどのような値でもよい。もちろん
U>Lである。出力層修正部1018でも、上記の(1
0)式と同様な計算を実行して、出力層出力値を修正し
て、0や1に近い値となることを避け、学習停止を引き
起こすことをなくす。その上で、再び式(3)から式(
6ンで示す計算を実行することにより、学習を停止させ
ず、重みマトリクスの修正を実現する。
Further, U represents the upper limit value of the human input signal and can be set to 0.9, for example. L represents the lower limit value of the human input signal and can be set to 0.1, for example. However, the values of U and L are 0
.. It is not limited to 9.0.1 and may be any value. Of course, U>L. The output layer correction unit 1018 also performs the above (1)
0) Execute the same calculation as in equation 0 to correct the output layer output value to avoid values close to 0 or 1, and to prevent learning from stopping. Then, from equation (3) again, equation (
By executing the calculation shown in 6, the weight matrix can be modified without stopping learning.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第1図を参照して、第1の本発明のパターン学習装
置を3層とした実施例の説明をする。学習は、人カバタ
ーンと教師信号を繰り返し与えることによりなされるが
、まず1つの入力バターとと1つの教師信号を与えた場
合について説明する。予め、マトリクス積演算部で用い
られるマトリクスを蓄えるマトリクス記憶部111.1
12は乱数により初期化しておく。
Next, with reference to FIG. 1, a description will be given of an embodiment in which the pattern learning device of the first invention has three layers. Learning is performed by repeatedly applying a human cover turn and a teacher signal, but first a case will be described in which one input butter and one teacher signal are applied. A matrix storage unit 111.1 that stores a matrix used in the matrix product calculation unit in advance.
12 is initialized with a random number.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子101より入力され、入力層記憶部102に蓄えられ
る。入力層記憶部102は、No次元のベクトルを保持
するレジスタにより(14成され、ベクトルの全要素は
マトリクス積演算部103に送られる。人力されるベク
トル値をoio(1≦i≦No)とし、第1層重みマト
リクス記憶部112に保持されるマトリクス値をwij
l(1≦i≦N011≦j≦Nl)、中間層記憶部10
5に保持されるベクトル値をo’3”(1≦j≦Nl)
とすると、マトリクス積演算部103では、0j1=Σ
(Oj0×wij1)+θj1(11)なる計算をおこ
なう。ただし、ここでoj1はバイアス値であり、第1
層重みマトリクス記憶部112に記憶される。結果のo
jl(1≦j≦Nl)は各々、S関数部104において o’3”=(1+tanh(oj))/2      
   (12)なる計算により0″j1をもとめ、中間
層記憶部105に記憶する。第2層重みマトリクス記憶
部11に記憶される重みマトリクスをwjk2(l≦i
≦N1、l≦j≦N2)とし、同記憶部111に記憶さ
れるバイアス値をθに2とするとマトリクス演算部10
6では、 0に2=Σ輌1×Wij2)十θに2(13)なる計算
をおこなう。結果の0k2(1≦に≦N2)は各々、S
関数部107において o’に2=(1+tanh(Ok2))/2     
    (14)なる計算によりOkをもとめ、出力信
号として出力層記憶部108に記憶される。
First, feedforward processing for calculating an output value from an input value will be explained. The input pattern is input as a vector value from the terminal 101 and stored in the input layer storage section 102. The input layer storage unit 102 is composed of registers (14) that hold No-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 103. , wij the matrix value held in the first layer weight matrix storage unit 112
l (1≦i≦N011≦j≦Nl), intermediate storage unit 10
The vector value held at 5 is o'3'' (1≦j≦Nl)
Then, in the matrix product calculation unit 103, 0j1=Σ
The following calculation is performed: (Oj0×wij1)+θj1 (11). However, here oj1 is the bias value, and the first
The layer weight matrix is stored in the layer weight matrix storage section 112. Result o
jl (1≦j≦Nl) are each expressed as o'3''=(1+tanh(oj))/2 in the S function section 104.
(12) Obtain 0″j1 by calculation and store it in the intermediate layer storage unit 105.The weight matrix stored in the second layer weight matrix storage unit 11 is calculated as wjk2(l≦i
≦N1, l≦j≦N2), and if the bias value stored in the storage section 111 is 2 for θ, then the matrix calculation section 10
In step 6, calculate 0 to 2 = Σ vehicle 1 x Wij2) ten θ to 2 (13). The resulting 0k2 (1≦ and ≦N2) are each S
In the function section 107, o' is set to 2=(1+tanh(Ok2))/2
(14) Ok is determined by the calculation, and is stored in the output layer storage unit 108 as an output signal.

つぎに、重みマトリクスの修正を行う逆伝搬処理の説明
をする。
Next, back propagation processing for modifying the weight matrix will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子102
より入力して教師信号記憶部109に保持し、その値t
k(1≦に≦N2)と出力信号記憶部108内の値ol
kととを誤差信号計算部110に転送して、誤差信号d
′kを d’に2=tk−o’に2(1≦に≦N2)     
   (15)として計算して、さらに出力信号0′に
2とから逆伝搬誤差を評価し、 dk2=d’に2Xo’に2X(1−o+に2)   
    (16)なる式を実行する計算によりdk2(
1≦に≦N2)を求めた後に、その値をマトリクス修正
部113と誤差逆伝搬部114に転送する。さらに、誤
差信号d°に2は、マトリクス修正量計算部116にも
転送され学習停止の観測に用いられる。
A teacher signal, which is an ideal value, for the output signal obtained by the above-described feedforward processing is sent to the terminal 102.
The value t
k (1≦to≦N2) and the value ol in the output signal storage unit 108
k and are transferred to the error signal calculation unit 110, and the error signal d is
'k to d' 2 = tk - o' to 2 (1≦≦N2)
Calculate as (15) and further evaluate the back propagation error from the output signal 0' and 2, dk2=d' to 2Xo' to 2X (1-o+ to 2)
By executing the formula (16), dk2(
1≦ and ≦N2), the values are transferred to the matrix correction section 113 and the error backpropagation section 114. Furthermore, the error signal d°2 is also transferred to the matrix correction amount calculation unit 116 and used for observing when learning has stopped.

マトリクス修正部113では、 2 2  2 ′・1(17) Wjk=Wjk+axdkxoJ θj2=θj2+bXdk2(18) なる計算により第2層重みマトリクスを修正し、結果を
再び第2層重みマトリクス記憶部111に記憶する。こ
こで、a、bは正値の係数であり、前述のとおりそれぞ
れ0.2と0.1と設定できるが、この値は本質的な問
題ではない。
The matrix correction unit 113 corrects the second layer weight matrix by calculating 2 2 2 ′・1 (17) Wjk=Wjk+axdkxoJ θj2=θj2+bXdk2 (18) and stores the result in the second layer weight matrix storage unit 111 again. . Here, a and b are coefficients with positive values, and can be set to 0.2 and 0.1, respectively, as described above, but these values are not an essential problem.

誤差計算部110で式(16)を実行する計算により求
められたdk2は、誤差逆伝搬部114に送られ、マト
リクス記憶部11内から転送された重みマトリクス値と
ともに、 d31=Σ(Wjk2×dk2)(19)の計算をし、
さらに中間層記憶部105から転送された0′・lとか
ら 1  .1  、.1 dj =d’、 XO,X(1−0’j”)     
   (20)なる式を実行する計算によりdjl(1
≦j≦Nl)を求めた後に、マトリクス修正部115に
転送して、Wij1=Wij1+aXdj1×010(
21)θ11=θi” + b X djl(22)な
る式を実行する計算により第1層重みマトリクスを修正
し、結果を再び第1層重みマトリクス記憶部112に記
憶する。
dk2 calculated by executing equation (16) in the error calculation unit 110 is sent to the error backpropagation unit 114, and together with the weight matrix value transferred from the matrix storage unit 11, d31=Σ(Wjk2×dk2 )(19),
Furthermore, from 0′ and l transferred from the intermediate storage unit 105, 1. 1. 1 dj = d', XO,X (1-0'j")
By executing the formula (20), djl(1
≦j≦Nl), it is transferred to the matrix correction unit 115 and Wij1=Wij1+aXdj1×010(
21) Modify the first layer weight matrix by executing the equation θ11=θi”+b X djl (22), and store the result in the first layer weight matrix storage unit 112 again.

マトリクス修正量計算部116では、マトリクス修正部
113.115で求められた重みマトリクスの修正量(
axdk2×0)1、axdj1×010)の総和をな
る式を実行する計算により求める。ここで、lXIなる
計算は、Xの絶対値を求める計算とする。さらに、出力
信号と教師信号との誤差の評価量を、(15)式の実行
により求められた結果のd′によりE=Σ(d’k”)
2(24) なる式を実行することにより求め、さらにS<Thl 
                    (25)E
>Th2 なる条件判定を実行し、上記の(25)式で表される条
件を満たした場合には学習停止状況にあると判断して、
入力層修正部117、出力層修正部118、出力層修正
部119に信号を送り、各層の出力信号の修正を行う。
The matrix correction amount calculation unit 116 calculates the weight matrix correction amount (
The sum of axdk2×0)1 and axdj1×010) is calculated by executing the following formula. Here, the calculation lXI is a calculation to find the absolute value of X. Furthermore, the evaluation amount of the error between the output signal and the teacher signal is expressed as E=Σ(d'k") using d', which is the result obtained by executing equation (15).
2 (24), and furthermore, S<Thl
(25)E
>Th2 If the condition expressed by the above equation (25) is satisfied, it is determined that the learning is stopped, and
A signal is sent to the input layer correction section 117, the output layer correction section 118, and the output layer correction section 119 to correct the output signal of each layer.

上記の条件を満たさない場合は学習停止状況にはないと
みなし、マトリクス修正量計算部116から各層の修正
部への信号は出さない。
If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 116 to the correction unit of each layer.

学習停止の信号を受けた入力層修正部117では、入力
層記憶部102に保持される値oi0を読みだし、oi
0= Min(Max(oio、 L)、 U)   
       (26)なる計算を実行して人力値oi
0を修正して、再び人力記憶部102に格納し、第7図
で説明したように入力層の値が0や1に柾い値となるこ
とを避ける。ここで、Min(x、 y)とはX、yの
うち小さい方を選択する関数を表し、Max(x、 y
)とは、X、yのうち大きい方を選択する関数を表す。
Upon receiving the learning stop signal, the input layer correction unit 117 reads out the value oi0 held in the input layer storage unit 102, and
0=Min(Max(oio, L), U)
(26) Execute the calculation to obtain the human power value oi
0 is corrected and stored in the human storage unit 102 again to avoid the value of the input layer from becoming a 0 or 1 value as explained in FIG. Here, Min(x, y) represents a function that selects the smaller of X and y, and Max(x, y
) represents a function that selects the larger of X and y.

なお、U、Lの値は前述のとおりである。中間層修正部
118や出力層修正部119でも、上記の(26)式と
同様な計算を実行して、中間層出力値を修正して、0や
1に近い値となることを避け、学習停止を引き起こすこ
とをなくす。その上で、再び式(15)から式(22)
で示す計算を実行することにより、学習を停止させず、
重みマトリクスの修正を実現する。
Note that the values of U and L are as described above. The intermediate layer correction unit 118 and the output layer correction unit 119 also perform calculations similar to the above equation (26) to correct the intermediate layer output value to avoid values close to 0 or 1, and perform learning. Avoid causing outages. Then, again from equation (15) to equation (22)
By performing the calculation shown in , learning can be done without stopping,
Achieve weight matrix modification.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第11図を参照して、第2の本発明のパターン学習
装置で2層とした場合の実施例の説明をする。
Next, referring to FIG. 11, a description will be given of an embodiment in which the pattern learning device of the second invention has two layers.

学習は、人カバターンと教師信号を繰り返し与えること
によりなされるが、まず1つの大カバ、ターンと1つの
教師信号′を与えた場合について説明する。
Learning is performed by repeatedly applying human cover turns and teacher signals, but first a case will be described in which one large cover turn and one teacher signal ' are applied.

予め、マトリクス積演算部で用いられるマトリクスを蓄
えるマトリクス記憶部1111は乱数により初期化して
おく。
The matrix storage unit 1111 that stores matrices used in the matrix product calculation unit is initialized with random numbers in advance.

まず、人力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子1101より入力され、入力層記憶部1102に蓄え
られる。入力層記憶部1102は、NO次元のベクトル
を保持するレジスタにより構成され、ベクトルの全要素
はマトリクス積演算部1103に送られる。入力される
ベクトル値をoio(1≦i≦NQ)とし、重みマトリ
クス記憶部1111に保持されるマトリクス値をwij
l(1≦i≦No、1≦j≦N工)、出力層記憶部11
05に保持されるベクトル値をO’J1(1≦j≦Nl
)とすると、マトリクス積演算部1103では、0j1
=Σ(oHoX w4j’)+θj1        
(27)なる計算をおこなう。ただし、こ−でθjはバ
イアス値であり、重みマトリクス記憶部に記憶される。
First, feedforward processing for calculating an output value from a human power value will be explained. The input cover pattern is input as a vector value from the terminal 1101 and stored in the input layer storage section 1102. The input layer storage unit 1102 is composed of registers that hold NO-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 1103. The input vector value is oio (1≦i≦NQ), and the matrix value held in the weight matrix storage unit 1111 is wij.
l (1≦i≦No, 1≦j≦N), output layer storage section 11
The vector value held in 05 is O'J1 (1≦j≦Nl
), the matrix product calculation unit 1103 calculates 0j1
=Σ(oHoX w4j')+θj1
(27) Perform the calculation. Here, θj is a bias value and is stored in the weight matrix storage section.

結果のojl(1≦j≦Nl)は各々、S関数部110
4において o’31=(1+tanh(ojl))/2     
    (28)なる計算によりo+jlをもとめ、出
力層記憶部1105に記憶する。
The resulting ojl (1≦j≦Nl) are each
4, o'31=(1+tanh(ojl))/2
(28) Obtain o+jl by calculation and store it in the output layer storage unit 1105.

つぎに学習停止の判定を行う部分の動作について説明す
る。
Next, the operation of the part that determines whether learning should be stopped will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子110
2より入力して教師信号記憶部1109に保持し、その
値tj(1≦j≦Nl)と出力信号記憶部1105内の
値o+、lととを誤差信号計算部1110に転送して、
誤差信号d)を d’31=t3−o’3’(1≦j≦Nl)     
      (29)として計算する。その結果はマト
リクス修正量推定部1116に送られ、学習停止の判定
のための誤差評価量Eを E=Σ(d’j1)2(30) なる式で表される計算を実行することにより求め・ ζ
す る。さらに出力層記憶部1105かI?0゜(1≦j≦
Nl)を、入力層記憶部1102から010(1≦i≦
NQ)をマトリクス修正量推定部1116に転送し、マ
トリクス修正量の推定値S′を以下の式で計算する。
A teacher signal, which is an ideal value, of the output signal obtained by the above-described feedforward processing is sent to the terminal 110.
2 and held in the teacher signal storage unit 1109, and transfers the value tj (1≦j≦Nl) and the values o+, l in the output signal storage unit 1105 to the error signal calculation unit 1110.
Error signal d) as d'31=t3-o'3' (1≦j≦Nl)
Calculate as (29). The result is sent to the matrix correction amount estimating unit 1116, which calculates the error evaluation amount E for determining whether to stop learning by executing the calculation expressed as E=Σ(d'j1)2(30).・ζ
do. Furthermore, the output layer storage unit 1105 or I? 0゜(1≦j≦
Nl) from the input layer storage unit 1102 to 010 (1≦i≦
NQ) is transferred to the matrix modification amount estimation unit 1116, and an estimated value S' of the matrix modification amount is calculated using the following formula.

s’=ΣΣ1(1−o’j1)Xo’j1Xo401 
      (31)J なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部1116において出力信号と教師信号と
の誤差の評価量を、 3’<Th1 E>Th2                  (3
2)なる条件判定を実行し、上記の(32)式で表され
る条件を満たした場合には学習停止状況にあると判断し
て、入力層修正部1117、出力層修正部1118に信
号を送り、各層の出力信号の修正を行う。上記の条件を
満たさない場合は学習停止状況にはないとみなし、マト
リクス修正量計算部1116から各層の修正部への信号
は出さない。
s'=ΣΣ1(1-o'j1)Xo'j1Xo401
(31) J It is determined by a calculation that executes the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimating section 1116 is calculated as follows: 3'<Th1 E>Th2 (3
2) If the condition expressed by equation (32) above is satisfied, it is determined that the learning is stopped, and a signal is sent to the input layer correction unit 1117 and output layer correction unit 1118. and modify the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 1116 to the correction unit of each layer.

この判定条件は、誤差の評価fiEが太きいにも関わら
ず、重みマトリクスの修正量Sが0に近い場合には、学
習停止とみなしている。
This judgment condition is such that if the correction amount S of the weight matrix is close to 0 even though the error evaluation fiE is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部1117では、入
力層記憶部1102に保持される値oi0を読みだし、 oi0= Min(Max(oio、 L)、 U) 
        (33)なる計算を実行して人力値o
i0を修正して、再び入力層記憶部1102に格納し、
入力層の値が0や1に近い値となることを避ける。出力
層修正部1118でも、上記の(33)式と同様な計算
を実行して、中間層出力や出力層出力値を修正して、O
や1に近い値となり、学習停止を引き起こすことをなく
す。
Upon receiving the learning stop signal, the input layer correction unit 1117 reads out the value oi0 held in the input layer storage unit 1102, and calculates oi0=Min(Max(oio, L), U).
(33) Execute the calculation to obtain the human power value o
i0 is corrected and stored in the input layer storage unit 1102 again,
Avoid input layer values close to 0 or 1. The output layer correction unit 1118 also executes calculations similar to the above equation (33), corrects the intermediate layer output and the output layer output value, and
or 1, which prevents learning from stopping.

最後に、修正された各層の信号記憶部1102.110
5の値を用いて重みマトリクスの修正を行う逆伝搬処理
の説明をする。
Finally, the modified signal storage section 1102.110 of each layer
The back propagation process for modifying the weight matrix using the value of 5 will be explained.

誤差計算部1110で予め式(29)に従って求められ
ているd”jlと出力信号記憶部に保持される出力信号
o+jlとから逆伝搬誤差を評価し、 dj”=d’3”Xo’;1X(1−Oj )    
      (34)なる式を実行する計算によりdj
l(1≦j≦Nl)を求めた後に、マトリクス修正部1
112に転送して、Wij=Wij+axdj1×oi
0(35)θ11=θi” + b x djl(36
)なる式を実行する計算により重みマトリクスを修正し
、結果を再び重みマトリクス記憶部1111に記憶する
The error calculation unit 1110 evaluates the back propagation error from d”jl obtained in advance according to equation (29) and the output signal o+jl held in the output signal storage unit, and calculates dj”=d’3”Xo’; 1X (1-Oj)
By executing the formula (34), dj
After calculating l (1≦j≦Nl), the matrix correction unit 1
112, Wij=Wij+axdj1×oi
0(35) θ11=θi” + b x djl(36
) is used to correct the weight matrix, and the result is stored in the weight matrix storage unit 1111 again.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

第2図は第2の本発明のパターン学習装置を3層のフィ
ードフォワード型の実施例を示す図である。
FIG. 2 is a diagram showing a three-layer feedforward type embodiment of the pattern learning device of the second invention.

パターン学習は、入カバターンと教師信号を繰り返し与
えることによりなされるが、まず1つの人カバターンと
1つの教師信号を与えた場合について説明する。予め、
マトリクス積演算部で用いられるマトリクスを蓄えるマ
トリクス記憶部211.212は乱数により初期化して
おく。
Pattern learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case where one person cover turn and one teacher signal are applied will be described. In advance,
Matrix storage units 211 and 212 that store matrices used in the matrix product calculation unit are initialized with random numbers.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。人カバターンはベクトル値として端
子201より人力され、入力層記・1意部102に蓄え
られる。入力層記憶部202は、No次元のベクトルを
保持するレジスタにより構成され、ベクトルの全要素は
マトリクス積演算部203に送られる。人力されるベク
トル値を0iO(1≦i≦NQ)とし、第1層重みヤト
リクス記憶部212に保持されるマドJクス値をWij
l(1≦i≦No、1≦j≦Nl)、中間層記憶部20
5に保持されるベクトル値をo’3”(1≦j≦N工)
とすると、マトリクス積演算部203では、oj1=Σ
(O10×Wij1)+θj1(37)なる計算をおこ
なう。ただし、ここでθj1はバイアス値であり、第1
層重みマトリクス記憶部212に記憶される。結果の0
j1(l≦j≦Nl)は各々、S関数部204において o’3’ = (1+ tanh(oj’))/2  
       (38)なる計算により0)1をもとめ
、中間層記憶部205に記憶する。第2層重みマトリク
ス記憶部211に記憶される重みマトリクスをwjk2
(1≦i≦N1.1≦j≦N2)とし、同記憶部211
に記憶されるバイアス値をθに2とするとマトリクス演
算部206では、 0k2=Σ(oj1×wij2)+θに2(39)なる
計算をおこなう。結果の0k2(1≦に≦N2)は各々
、S関数部207において o’に2= (1+ tanh(Ok2))/2   
      (40)なる計算によりOkをもとめ、出
力信号として出力層記憶部208に記憶される。
First, feedforward processing for calculating an output value from an input value will be explained. The human cover turn is manually entered as a vector value from the terminal 201 and stored in the input layer register/unique section 102. The input layer storage unit 202 is composed of a register that holds a No-dimensional vector, and all elements of the vector are sent to the matrix product calculation unit 203. Let the manually input vector value be 0iO (1≦i≦NQ), and let the matrix value held in the first layer weight matrix storage unit 212 be Wij
l (1≦i≦No, 1≦j≦Nl), intermediate layer storage unit 20
The vector value held in 5 is o'3" (1≦j≦N)
Then, in the matrix product calculation unit 203, oj1=Σ
The following calculation is performed: (O10×Wij1)+θj1 (37). However, here θj1 is the bias value, and the first
It is stored in the layer weight matrix storage section 212. Result 0
Each j1 (l≦j≦Nl) is expressed as o'3' = (1+ tanh (oj'))/2 in the S function section 204.
(38), 0) and 1 are obtained and stored in the intermediate storage unit 205. The weight matrix stored in the second layer weight matrix storage unit 211 is wjk2.
(1≦i≦N1.1≦j≦N2), and the storage unit 211
When the bias value stored in θ is 2, the matrix calculation unit 206 calculates 0k2=Σ(oj1×wij2)+θ=2(39). The result 0k2 (1≦≦N2) is converted to o' in the S function section 207 as 2= (1+ tanh(Ok2))/2.
(40), Ok is obtained by calculation and stored in the output layer storage unit 208 as an output signal.

つぎに学習停止の判定を行う部分の動作について説明す
る。
Next, the operation of the part that determines whether learning should be stopped will be explained.

上述のフィードフォワード処理により求められた出力信
号にタリし、その理想的な値である教師信号を端子22
0より入力して教師信号記憶部209に保持し、その値
tk(1≦に≦N2)と出力信号記憶部208内の値o
+に2ととを誤差信号計算部210に転送して、誤差信
号d′kを d’に2=tk−o’に2(1≦に≦N2)     
   (41)として計算する。その結果はマトリクス
修正量推定部に送られ、学習停止の判定のための誤差評
価量Eを E=Σ(d’に2)2(42) なる式で表される計算を実行することにより求める。さ
らに出力層記憶部208からok(1≦に≦N2)を、
中間層記憶部205からo’j’(1≦j≦N1)を、
入力層記憶部202からoio(1≦i≦NQ)をマト
リクス修正量推定部216に転送し、マトリクス修正量
の推定値S′を以下の式で計算する。
The output signal obtained by the above-mentioned feedforward processing is tagged, and the ideal value of the teacher signal is sent to the terminal 22.
0 and held in the teacher signal storage unit 209, and the value tk (1≦≦N2) and the value o in the output signal storage unit 208.
2 to + to the error signal calculation unit 210, and the error signal d'k to d' to 2=tk-o' to 2 (1≦≦N2)
Calculate as (41). The result is sent to the matrix correction amount estimating section, and the error evaluation amount E for determining whether to stop learning is calculated by executing the formula E = Σ (2 for d') 2 (42). . Furthermore, OK (1≦to≦N2) is sent from the output layer storage unit 208.
o'j' (1≦j≦N1) from the middle layer storage unit 205,
oio (1≦i≦NQ) is transferred from the input layer storage unit 202 to the matrix correction amount estimating unit 216, and an estimated value S' of the matrix correction amount is calculated using the following formula.

+ΣΣl(1o’j’)Xo’31XoH01(43)
」 なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部216において出力信号と教師信号との
誤差の評価量を、 S’<Ti1l E>Th、2                  (
44)なる条件判定を実行し、上記の(44)式で表さ
れる条件を渦なした場合には学習停止状況にあると判断
して、入力層修正部217、中間層修正部218、出力
層11釜正部219に信号を送り、各層の出力信号の修
正を行う。上記の条件を満たさない場合は学習停止状況
にはないとみなし、マトリクス修正量計算部216から
各層の修正部への信号は出さない。
+ΣΣl(1o'j')Xo'31XoH01(43)
” is calculated by executing the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimating unit 216 is calculated as S'<Ti1l E>Th, 2 (
44) If the condition expressed by the above equation (44) is satisfied, it is determined that the learning is stopped, and the input layer correction unit 217, the intermediate layer correction unit 218, and the output A signal is sent to the pot main section 219 of layer 11 to correct the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 216 to the correction unit of each layer.

この判定条件は、誤差の評価量Eが太きいにも関わらず
、重みマトリクスの修正量Sが0に近い場合には、学習
停止とみなしている。
This determination condition is such that if the weight matrix correction amount S is close to 0 even though the error evaluation amount E is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部217では、入力
層記憶部202に保持される値Oiを読みだし、oH0
=Min(Max(oi、 L)、 U)      
   (45)なる計算を実行して入力値Oi0を修正
して、再び入力層記憶部202に格納し、入力層の値が
0や1に近い値となることを避ける。中間層修正部21
8や出力層修正部219でも、上記の(45)式と同様
な計算を実行して、中間層出力値を修正して、0やlに
近い値となり、学習停止を引き起こすことをなくす。
Upon receiving the learning stop signal, the input layer correction unit 217 reads out the value Oi held in the input layer storage unit 202 and sets it to oH0.
=Min(Max(oi, L), U)
(45) Perform the calculation to correct the input value Oi0 and store it in the input layer storage unit 202 again to avoid the input layer value from becoming a value close to 0 or 1. Middle layer correction section 21
8 and the output layer correction unit 219 also perform calculations similar to the above equation (45) to correct the intermediate layer output value to a value close to 0 or l, thereby eliminating the possibility of stopping learning.

最後に、修正された各層の信号記憶部202.205゜
208の値を用いて重みマトリクスの修正を行う逆伝搬
処理の説明をする。
Finally, a description will be given of back propagation processing in which the weight matrix is modified using the modified values of the signal storage units 202, 205, and 208 of each layer.

誤差計算部210で予め式(41)に従って求められて
いるd)2と出力信号記憶部に保持される出力信号0!
に2とから逆伝搬誤差を評価し、 dk2==d’に2Xo’に2X(1−o+に2)  
       (46)なる式を実行する計算によりd
k2(1≦に≦N2)を求めた後に、その値をマトリク
ス修正部213と8呉差逆伝(股部214に転送する。
d)2 calculated in advance by the error calculation unit 210 according to equation (41) and the output signal 0! held in the output signal storage unit.
Evaluate the backpropagation error from 2 and dk2==d' to 2Xo' to 2X (1-o+ to 2)
(46) By performing the calculation, d
After determining k2 (1≦≦N2), the value is transferred to the matrix correction section 213 and the 8-point difference reverse transmission (crotch section 214).

さらに、誤差信号d′に2は、マトリクス修正量計算部
216にも転送され学習停止の観測に用いられる。
Further, the error signal d' of 2 is also transferred to the matrix correction amount calculation unit 216 and used for observing when learning has stopped.

マトリクス修正部213では、 Wjk=Wjk+aXdkXOj(47)θj2=θj
2+b X dk2(48)なる計算により第2層重み
マトリクスを修正し、結果を再び第2層重みマトリクス
記憶部211に記憶する。
In the matrix correction unit 213, Wjk=Wjk+aXdkXOj(47)θj2=θj
The second layer weight matrix is corrected by calculation 2+b x dk2 (48), and the result is stored in the second layer weight matrix storage section 211 again.

誤差計算部210で式(46)を実行する計算により求
められたdkは、誤差逆伝搬部214に送られ、マトリ
クス記憶部211内から転送された重みマトリクス値と
ともに、 d31=Σ(Wjk2×dk2)(49)の計算をし、
さらに中間層記憶部205から転送された0′・1とか
ら 」 dj”:d’j1XO’j”X(1−0’j1)   
     (50)なる式を実行する計算によりdjl
(1≦j≦Nl)を求めた後に、マトリクス修正部21
5に転送して、Wij1=Wijl+axdjl×0i
0(51)θ11=θi” +b X djl(52)
なる式を実行する計算により第1層重みマトリクスを修
正し、結果を再び第1層重みマトリクス記憶部212に
記憶する。
The dk calculated by executing equation (46) in the error calculation unit 210 is sent to the error backpropagation unit 214, and together with the weight matrix value transferred from the matrix storage unit 211, d31=Σ(Wjk2×dk2 )(49),
Furthermore, from 0' and 1 transferred from the intermediate storage unit 205, "dj": d'j1XO'j"X (1-0'j1)
By executing the formula (50), djl
After finding (1≦j≦Nl), the matrix correction unit 21
5, Wij1=Wijl+axdjl×0i
0(51) θ11=θi” +b X djl(52)
The first layer weight matrix is corrected by performing calculation using the following formula, and the result is stored in the first layer weight matrix storage unit 212 again.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第12図を参照して、第3の本発明のパターン学習
装置の2層の場合の実施例の説明をする。学習は、入カ
バターンと教師信号を繰り返し与えることによりなされ
るが、まず1つの入カバターンと1つの教師信号を与え
た場合について説明する。予め、マトリクス積演算部で
用いられるマトリクスを蓄えるマトリクス記憶部121
1は乱数により初期化しておく。
Next, referring to FIG. 12, a description will be given of a two-layer embodiment of the pattern learning device according to the third aspect of the present invention. Learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are applied will be explained. A matrix storage unit 121 that stores a matrix used in the matrix product calculation unit in advance.
1 is initialized with a random number.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子1201より入力され、入力層記憶部1202に蓄え
られる。入力層記憶部1202は、NQ次元のベクトル
を保持するレジスタにより構成され、ベクトルの全要素
はマトリクス積演算部1203に送られる。入力される
ベクトル値をoHo(1≦i≦NQ)とし、重みマトリ
クス記憶部1212に保持されるマトリクス値をW・・
1(1≦i≦NQ、1≦j≦Nl)、出力層記す 他部1205に保持されるベクトル値をo’3”(1≦
j≦Nl)とすると、マトリクス積演算部1203では
、oj1=Σ(Oj0×wij1)十〇j’     
   (53)なる計算をおこなう。ただし、ここでθ
j1はバイアス値であり、重みマトリクス記憶部に記憶
される。結果のojl(1≦j≦N工)は各々、S関数
部1204において o’31= (1+ tanh(oj/UO))/2 
      (54)なる計算によりojlをもとめ、
出力信号として出力層記憶部1205に記憶する。実施
例では初期的にはUOは0.75とした。
First, feedforward processing for calculating an output value from an input value will be explained. The input cover pattern is input as a vector value from the terminal 1201 and stored in the input layer storage section 1202. The input layer storage unit 1202 is composed of registers that hold NQ-dimensional vectors, and all elements of the vectors are sent to the matrix product calculation unit 1203. Let the input vector value be oHo (1≦i≦NQ), and let the matrix value held in the weight matrix storage unit 1212 be W...
1 (1≦i≦NQ, 1≦j≦Nl), and the vector value held in the other unit 1205 that indicates the output layer is o'3'' (1≦
j≦Nl), the matrix product calculation unit 1203 calculates oj1=Σ(Oj0×wij1) 10j'
(53) Perform the calculation. However, here θ
j1 is a bias value and is stored in the weight matrix storage section. The resulting ojl (1≦j≦N) is calculated as o'31=(1+tanh(oj/UO))/2 in the S function section 1204, respectively.
(54) Obtain ojl by calculation,
It is stored in the output layer storage unit 1205 as an output signal. In the example, UO was initially set to 0.75.

つぎに、重みマトリクスの修正処理の説明をする。Next, the weight matrix correction process will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子122
0より人力して教師信号記憶部1209に保持し、その
値tj(1≦j≦N1)と出力信号記憶部1205内の
値o+jlととを誤差信号計算部1210に転送して、
誤差信号d’jを d’j1= t3−o’3’(1≦j≦Nl)    
    (55)として計算して、さらに出力信号0)
1とから逆伝搬誤差を評価し、 dj1=d’j’XO’j’X(1−0,>     
   (56)なる式を実行する計算によりdjl(1
≦j≦Nl)を求めた後に、その値をマトリクス修正部
1213に転送する。さらに、誤差信号dj1は、マト
リクス修正量計算部1216にも転送され学習停止の観
測に用いられる。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 122.
The value tj (1≦j≦N1) and the value o+jl in the output signal storage unit 1205 are manually stored in the teacher signal storage unit 1209 from 0 and transferred to the error signal calculation unit 1210.
Error signal d'j is d'j1=t3-o'3' (1≦j≦Nl)
(55) and further output signal 0)
1 and evaluate the back propagation error, dj1=d'j'XO'j'X(1-0,>
By executing the formula (56), djl(1
≦j≦Nl), the value is transferred to the matrix correction unit 1213. Furthermore, the error signal dj1 is also transferred to the matrix correction amount calculation unit 1216 and used for observing learning stoppage.

マトリクス修正部1213では、 Wij1=Wij1+axdj1×0iO(57)θ1
1=−θi” + b Xdj”          
(58)なる計算により重みマトリクスを修正し、結果
を再び重みマトリクス記憶部1211に記憶する。
In the matrix correction unit 1213, Wij1=Wij1+axdj1×0iO(57)θ1
1=-θi" + b Xdj"
The weight matrix is corrected by calculation (58), and the result is stored in the weight matrix storage unit 1211 again.

マトリクス修正量計算部1216では、マトリクス修正
部1213で求められた重みマトリクスの修正量(a 
X dj” X oio)の総和をS=ΣΣ1aXdj
1Xoi01         (59)」 l なる式を実行する計算により求める。さらに、出力信号
と教師信号との誤差の評価量を、(123)の実行によ
り求められた結果のd)1より E=Σ(d’j’)2(60) なる式を実行することにより求め、さらにS<Thl 
                     (61)
E>Th2 なる条件判定を実行し、上記の(61)式で表される条
件を満たした場合には学習停止状況にあると判断して、
入力層修正部1217、出力層のUO修正部1218に
信号を送り、各層の出力信号を再計算する。上記の条件
を満たさない場合は学習停止状況にはないとみなし、マ
トリクス修正量計算部1216から各層の修正部への信
号は出さない。
The matrix correction amount calculation unit 1216 calculates the weight matrix correction amount (a
S=ΣΣ1aXdj
1Xoi01 (59)'' l It is obtained by calculation that executes the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal is determined by executing the formula E=Σ(d'j')2(60) from d)1 of the result obtained by executing (123). Then, S<Thl
(61)
Execute the conditional judgment that E>Th2, and if the condition expressed by the above equation (61) is satisfied, it is determined that the learning is stopped, and
A signal is sent to the input layer correction unit 1217 and the output layer UO correction unit 1218 to recalculate the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 1216 to the correction unit of each layer.

学習停止の信号を受けた入力層修正部1217では、入
力層記憶部1202に保持される値Oi0を読みだし、 oH0=Min(Max(oio、L)、U)    
    (62)なる計算を実行して入力値oi0を修
正して、再び入力記憶部1202に格納し、第7図に示
すように入力層の値が0や1に近い値となることを避け
る。
Upon receiving the learning stop signal, the input layer correction unit 1217 reads out the value Oi0 held in the input layer storage unit 1202, and oH0=Min(Max(oio, L), U)
(62) The input value oi0 is corrected by performing the calculation and stored in the input storage unit 1202 again to prevent the input layer value from becoming a value close to 0 or 1 as shown in FIG.

出力層でのUO修正部1218では、 UO=UOXc                (6
3)なる式の計算を実現して、第8図に示すようにシグ
モイド関数の傾きを緩やかにして、出力層出力値を再計
算し、それらがOや1に近い値となることを避け、学習
停止を引き起こすことをなくす。実施例ではパラメータ
Cを便宜上2とした。その上で、再び式(55)から式
(58)で示す計算を実行することにより、重みマトリ
クスの修正を実現する。1回の学習の終了後にはUOを
再度初期化する。
In the UO correction unit 1218 in the output layer, UO=UOXc (6
3) Realize the calculation of the following formula, make the slope of the sigmoid function gentle as shown in Figure 8, recalculate the output layer output values, and avoid them from becoming values close to O or 1. Eliminate the possibility of learning suspension. In the example, the parameter C was set to 2 for convenience. Then, the weight matrix is corrected by executing the calculations shown in equations (55) to (58) again. After completing one learning session, the UO is reinitialized.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

第3図は第3の発明のパターン学習装置3層の場合の実
施例を示す図である。学習は、入カバターンと教師信号
を繰り返し与えることによりなされるが、まず1つの入
カバターンと1つの教師信号を与えた場合について説明
する。予め、マトリクス積演算部で用いられるマトリク
スを蓄えるマトリクス記憶部311.312は乱数によ
り初期化しておく。
FIG. 3 is a diagram showing an embodiment of a three-layer pattern learning device according to the third invention. Learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are applied will be explained. Matrix storage units 311 and 312 that store matrices used in the matrix product calculation unit are initialized with random numbers in advance.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。人カバターンはベクトル値として端
子301より入力され、入力層記憶部302に蓄えられ
る。入力層記憶部302は、No次元のベクトルを保持
するレジスタにより構成され、ベクトルの全要素はマト
リクス積演算部303に送られる。入力されるベクトル
値を010(1≦i≦NQ)とし、第1層重みマトリク
ス記憶部312に保持されるマトリクス値をw5j1(
1≦i≦No、1≦j≦Nl)、中間層記憶部305に
保持されるベクトル値をo’3’(1≦j≦Nl)とす
ると、マトリクス積演算部303では、0j1=Σ(O
i0×Wij1)+θj1        (64)な
る計算をおこなう。ただし、ここでθj1はバイアス値
であり、第1層重みマトリクス記憶部に記憶される。結
果の0J1(1≦j≦N1)は各々、S関数部304に
おいて o’3” =(1+tanh(oj1/UO))/2 
      (65)なる計算により0)1をもとめ、
出力層記憶部305に記憶する。実施例では初期的には
UOは0.75とした。
First, feedforward processing for calculating an output value from an input value will be explained. The human cover turn is input as a vector value from the terminal 301 and stored in the input layer storage section 302. The input layer storage unit 302 is composed of a register that holds a No-dimensional vector, and all elements of the vector are sent to the matrix product calculation unit 303. The input vector value is 010 (1≦i≦NQ), and the matrix value held in the first layer weight matrix storage unit 312 is w5j1 (
1≦i≦No, 1≦j≦Nl), and the vector value held in the intermediate layer storage unit 305 is o'3' (1≦j≦Nl), then the matrix product calculation unit 303 calculates 0j1=Σ( O
The following calculation is performed: i0×Wij1)+θj1 (64). However, here, θj1 is a bias value and is stored in the first layer weight matrix storage section. Each of the results 0J1 (1≦j≦N1) is calculated as o'3'' = (1+tanh (oj1/UO))/2 in the S function section 304.
(65) Find 0)1 by the calculation,
It is stored in the output layer storage unit 305. In the example, UO was initially set to 0.75.

第2層重みマトリクス記憶部211に記憶される重みマ
トリクスをwjk2(1≦i≦N1.1≦j≦N2)と
し、同記憶部211に記憶されるバイアス値をθにとす
るとマトリクス演算部206では、 0k2=Σ(0)1XWij2)+θに2      
 (66)なる計算をおこなう。結果の0k2(1≦に
≦N2)は各々、S関数部307において o’に2= (1+ tanh(ok2)/UO)/2
        (67)なる計算により0′に2をも
とめ、出力信号として出力層記憶部308に記憶される
If the weight matrix stored in the second layer weight matrix storage section 211 is wjk2 (1≦i≦N1.1≦j≦N2) and the bias value stored in the second layer weight matrix storage section 211 is θ, then the matrix calculation section 206 Then, 0k2=Σ(0)1XWij2)+θ2
(66) Perform the calculation. The result 0k2 (1≦≦N2) is converted to o' in the S function section 307 as 2= (1+ tanh(ok2)/UO)/2.
(67), 0' is calculated to be 2, and is stored in the output layer storage unit 308 as an output signal.

つぎに、重みマトリクスの修正を行う逆伝搬処理の説明
をする。
Next, back propagation processing for modifying the weight matrix will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子302
より入力して教師信号記憶部309に保持し、その値t
k(1≦に≦N2)と出力信号記憶部308内の値ol
k2ととを誤差信号計算部130に転送して、誤差信号
d’kを d’に2= tk−o’に2(1≦に≦N2)    
    (68)として計算して、さらに出力信号ok
とから逆伝搬誤差を評価し、 dk2= d’に2X g’に2X (1−o’に2)
        (69)なる式を実行する計算により
dk2(1≦に≦N2)を求めた後に、その値をマトリ
クス修正部313と誤差逆伝搬部314に転送する。さ
ら1こ、誤差信−5dkは、マトリクス修正量計算部3
16にも転送され学習停止の観測に用いられる。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 302.
The value t
k (1≦to≦N2) and the value ol in the output signal storage section 308
k2 and are transferred to the error signal calculation unit 130, and the error signal d'k is converted to d' by 2=tk-o' by 2 (1≦≦N2)
Calculate as (68) and further output signal OK
Evaluate the back propagation error from dk2 = 2X for d' 2X for g' (2 for 1-o')
After calculating dk2 (1≦≦N2) by executing the equation (69), the value is transferred to the matrix correction unit 313 and the error backpropagation unit 314. Furthermore, the error signal -5dk is calculated by the matrix correction amount calculation unit 3.
16 and used to observe learning stoppage.

マトリクス修正部313では、 2 ・1(70) Wjk=Wjk+aXdkXO) Oj2=−2+bxdk2(71) なる計算により第2層重みマトリクスを修正し、結果を
再び第2層重み7トリクス記憶部311に記憶する。
The matrix correction unit 313 corrects the second layer weight matrix by calculating 2 · 1 (70) Wjk = Wjk + aXdkXO) Oj2 = -2 + bxdk2 (71), and stores the result in the second layer weight 7-trix storage unit 311 again. .

誤差計算部310で式(69)を実行する計算により求
められたdkは、誤差逆伝搬部314に送られ、マトリ
クス記憶部311内から転送された重みマトリクス値と
ともに1 、p、1=Σ(wjk2×dk2)(72)の計算をし
、さらに中間層記憶部305から転送された0′・1と
から dj”=:d’j”Xo’j1X(1−Oj )   
     (73)なる式を実行する計算によりdjl
(1≦j≦Nl)を求めた後に、マトリクス修正部31
5に転送して、Wij1=Wij1+aXdj1×oi
O(74)θi=θi 十bXdj’        
        (75)なる式を実行する計算により
第1層重みマトリクスを修正し、結果を再び第1層重み
マトリクス記憶部312に記憶する。
The dk calculated by executing equation (69) in the error calculation unit 310 is sent to the error backpropagation unit 314, and together with the weight matrix value transferred from the matrix storage unit 311, dk is calculated as 1, p, 1=Σ( Calculate wjk2×dk2) (72), and further calculate dj"=:d'j"Xo'j1X(1-Oj) from 0' and 1 transferred from the intermediate storage unit 305.
By executing the formula (73), djl
After determining (1≦j≦Nl), the matrix correction unit 31
5, Wij1=Wij1+aXdj1×oi
O(74) θi=θi 10bXdj'
The first layer weight matrix is corrected by calculating the equation (75), and the result is stored in the first layer weight matrix storage unit 312 again.

マトリクス修正量計算部316では、マトリクス11釜
正部313.315で求められた重みマトリクスの修正
量(aXdk2×o′j1、a X dj” X oi
’)の総和をなる式を実行する計算により求める。さら
に、出力信号と教師信号との誤差の評価量を、式(68
)の実行により求められた結果のd゛に2によりE=Σ
(d’に2)2(77) なる式を実行することにより求め、さらにS<Thl 
                     (78)
E > Th2 なる条件判定を実行し、上記の(78)式で表される条
件を満たした場合には学習停止状況にあると判断して、
入力層修正部317、出力層修正部318、出力層のU
O修正部319に信号を送り、各層の出力信号を再計算
する。上記の条件を満たさない場合は学習停止状況には
ないとみなし、マトリクス修正量計算部316から各層
の修正部への信号は出さない。
The matrix correction amount calculation unit 316 calculates the weight matrix correction amount (aXdk2×o′j1, aX dj”X oi
') is calculated by executing the following formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal is calculated using the formula (68
) is obtained by executing d゛ by 2, E=Σ
It is obtained by executing the formula (2)2(77) for (d'), and further S<Thl
(78)
Execute the conditional judgment that E > Th2, and if the condition expressed by the above formula (78) is satisfied, it is determined that the learning is stopped, and
Input layer correction unit 317, output layer correction unit 318, output layer U
A signal is sent to the O correction unit 319 to recalculate the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 316 to the correction unit of each layer.

学習停止の信号を受けた入力層修正部317では、入力
層記憶部302に保持される値Oiを読みだし、oi0
=Min(Max(oi、 L)、 U)      
   (79)なる計算を実行して入力値Oiを修正し
て、再び入力記憶部302に格納し、入力層の値が0や
1に近い値となることを避ける。
Upon receiving the signal to stop learning, the input layer correction unit 317 reads out the value Oi held in the input layer storage unit 302 and sets it to oi0.
=Min(Max(oi, L), U)
(79) The input value Oi is corrected by performing the following calculation and stored in the input storage unit 302 again to avoid the value of the input layer from becoming a value close to 0 or 1.

中間層でのUO修正部318や出力層でのUO修正部3
19では、 UO=UOXc               (80
)なる式の計算を実現して、第8図の曲線801.80
2に示すようにシグモイド関数の傾きを緩やかにして、
中間層出力や出力層出力値を再計算し、それらがOや1
に近い値となることを避け、学習停止を引き起こすこと
をなくす。第8図では曲線801はUO=0.75、曲
線802は1.5であり、C=2となっている。実施例
ではパラメータCを便宜上2とした。その上で、再び式
(68)から式(75)で示す計算を実行することによ
り、重みマトリクスの修正を実現する。
UO correction unit 318 in the intermediate layer and UO correction unit 3 in the output layer
In 19, UO=UOXc (80
), the curve 801.80 in Figure 8 is obtained.
As shown in 2, the slope of the sigmoid function is made gentler,
Recalculate the intermediate layer output and output layer output values, and make sure they are O or 1.
Avoid values close to , and prevent learning from stopping. In FIG. 8, the curve 801 has UO=0.75, the curve 802 has UO=1.5, and C=2. In the example, the parameter C was set to 2 for convenience. Then, the weight matrix is corrected by executing the calculations shown in equations (68) to (75) again.

ここで、さらに式(76)から式(78)で示す学習停
止の判定を行って、未だ式(78)が満たされているな
らば、再度式(80)によりUOを修正することも可能
である。1回の学習の終了後にはUOを再度初期化する
At this point, it is possible to further determine whether to stop learning as shown in equation (76) to equation (78), and if equation (78) is still satisfied, it is also possible to correct UO again using equation (80). be. After completing one learning session, the UO is reinitialized.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第13図を参照して、第4の本発明のパターン学習
装置の2層とした場合の実施例について説明をする。学
習は、人カバターンと教師信号を繰り返し与えることに
よりなされるが、まず1つの入カバターンと1つの教師
信号を与えた場合について説明する。予め、マトリクス
積演算部で用いられるマトリクスを蓄えるマトリクス記
憶部1311は乱数により初期化しておく。
Next, with reference to FIG. 13, a description will be given of an embodiment in which the pattern learning device according to the fourth aspect of the present invention has two layers. Learning is performed by repeatedly applying a human cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are provided will be described. The matrix storage unit 1311 that stores matrices used in the matrix product calculation unit is initialized with random numbers in advance.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子1301より人力され、入力層記憶部1302に蓄え
られる。入力層記憶部1302は、NO次元のベクトル
を保持するレジスタにより構成され、ベクトルの全要素
はマトリクス積演算部1303に送られる。入力される
ベクトル値を010(1≦i≦NQ)とし、重みマトリ
クス記憶部1311に保持されるマトリクス値をW・・
1(1≦i≦No、1≦j≦N1)、出力層記憶部13
05に保持されるベクトル値をO’J1(1≦j≦N1
)とすると、マトリクス積演算部1303では、0j1
=Σ(Oj0×Wij1)+θj1        (
81)なる計算をおこなう。ただし、ここでθj1はバ
イアス値であり、重みマトリクス記憶部に記憶される。
First, feedforward processing for calculating an output value from an input value will be explained. The input pattern is manually input as a vector value from the terminal 1301 and stored in the input layer storage section 1302. The input layer storage unit 1302 is composed of registers that hold NO-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 1303. Let the input vector value be 010 (1≦i≦NQ), and let the matrix value held in the weight matrix storage unit 1311 be W...
1 (1≦i≦No, 1≦j≦N1), output layer storage section 13
The vector value held in 05 is O'J1 (1≦j≦N1
), the matrix product calculation unit 1303 calculates 0j1
=Σ(Oj0×Wij1)+θj1 (
81) Perform the following calculation. However, here, θj1 is a bias value and is stored in the weight matrix storage section.

結果の0J1(1≦j5N1)は各々、S関数部130
4において o’31=(1+ tanh(oj’/UO))/2 
      (82)なる計算によりor、1をもとめ
、出力層記憶部1305に記憶する。
Each of the results 0J1 (1≦j5N1) is the S function section 130
4, o'31=(1+tanh(oj'/UO))/2
(82), or and 1 are obtained and stored in the output layer storage unit 1305.

つぎに学習停止の判定を行う部分の動作について説明す
る。
Next, the operation of the part that determines whether learning should be stopped will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子132
0より入力して教師信号記憶部1309に保持し、その
値匂(1≦j≦N□)と出力信号記憶部1305内の値
0′・1とを誤差信号計算部1310に転送して、誤差
信号d)を d’3’=t3−o’4”(1≦j≦Nl)     
      (83)として計算する。その結果はマト
リクス修正量推定部1316に送られ、学習停止の判定
のための誤差評価量Eを E=Σ(d’j1)2(84) 」 なる式で表される計算を実行することにより求める。さ
らに出力層記憶部1305から0”・1(1≦j≦Nl
)を、入力層記憶部1302から0i0(1≦i≦NQ
)をマトリクス修正量推定部1316に転送し、マトリ
クス修正量の推定値S”を以下の式で計算する。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 132.
0 and held in the teacher signal storage section 1309, and transfers the value (1≦j≦N□) and the values 0' and 1 in the output signal storage section 1305 to the error signal calculation section 1310. Error signal d) as d'3'=t3-o'4'' (1≦j≦Nl)
Calculate as (83). The result is sent to the matrix correction amount estimating unit 1316, which calculates the error evaluation amount E for determining whether to stop learning by performing the calculation expressed by the formula: E=Σ(d'j1)2(84). demand. Further, from the output layer storage unit 1305, 0”・1 (1≦j≦Nl
) from the input layer storage unit 1302, 0i0 (1≦i≦NQ
) is transferred to the matrix correction amount estimating unit 1316, and the estimated value S'' of the matrix correction amount is calculated using the following formula.

3’=ΣΣ1(1−o’31)Xo’31Xoi01 
      (85)1 」 なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部1316において出力信号と教師信号と
の誤差の評価量を、 S’<Th1 E>Th2                  (8
6)なる条件判定を実行し、上記の(86)式で表され
る条件を満たした場合には学習停止状況にあると判断し
て、入力層修正部1317、出力層修正部1318に信
号を送り、各層の出力信号の修正を行う。上記の条件を
満たさない場合は学習停止状況にはないとみなし、マト
リクス修正量計算部1316から各層の修正部への信号
は出さない。
3'=ΣΣ1(1-o'31)Xo'31Xoi01
(85) 1'' is calculated by executing the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimation unit 1316 is calculated as follows: S'<Th1 E>Th2 (8
6) If the condition expressed by the above equation (86) is satisfied, it is determined that the learning is stopped, and a signal is sent to the input layer correction unit 1317 and the output layer correction unit 1318. and modify the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 1316 to the correction unit of each layer.

この判定条件は、誤差の評価量Eが大きいにも関わらず
、重みマトリクスの修正量Sが0に近い場合には、学習
停止とみなしている。
This determination condition is such that if the weight matrix correction amount S is close to 0 even though the error evaluation amount E is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部1317では、入
力層記憶部1302に保持される値oiOを読みだし、 oi0=Min(Max(oio、L)、U)    
    (87)なる計算を実行して入力値oi0を修
正して、再び入力層記憶部1302に格納し、入力層の
値が0や1に近い値となることを避ける。出力層でのU
O修正部1318では UO=UOX c              (88
)なる式の計算を実現して、第8図を用いて説明したよ
うにシグモイド関数の傾きを緩やかにして、中間層出力
や出力層出力値を再計算し、それらが0や1に近い値と
なることを避け、学習停止を引き起こすことをなくす。
Upon receiving the learning stop signal, the input layer correction unit 1317 reads out the value oiO held in the input layer storage unit 1302, and calculates oi0=Min(Max(oio, L), U).
(87) The input value oi0 is corrected by performing the following calculation and stored in the input layer storage unit 1302 again to prevent the input layer value from becoming a value close to 0 or 1. U at the output layer
The O correction unit 1318 calculates UO=UOX c (88
), and as explained using Figure 8, the slope of the sigmoid function is made gentler, and the intermediate layer output and output layer output values are recalculated, so that they are values close to 0 or 1. Avoid this and eliminate the possibility of learning suspension.

その上で、再び式(81)と式(82)で示す計算を実
行し、さらに式(83)から式(86)で示す学習停止
の判定を行って、未だ式(86)が満たされているなら
ば、再度式(88)によりUOを修正する。
Then, the calculations shown in equations (81) and (82) are performed again, and the learning stop judgment shown in equations (83) to (86) is performed to determine whether equation (86) is still satisfied. If so, the UO is corrected again using equation (88).

最後に、修正された各層の信号記憶部1302.130
5の値を用いて重みマトリクスの修正を行う逆伝搬処理
の説明をする。
Finally, the modified signal storage section 1302.130 of each layer
The back propagation process for modifying the weight matrix using the value of 5 will be explained.

誤差計算部1310で予め式(83)に従って求められ
ているd)1と出力信号記憶部に保持される出力信号記
憶部に保持される出力信号0″j1とから逆伝搬誤差を
評価し、 djl:d”j1×0”j”X(1−0+、1)   
     (89)なる式を実行する計算によりdj”
(1≦j≦Nl)を求めた後に、マトリクス修正部13
12に転送して、wij”=wij’+aXdj”Xo
iO(90)θi1=θi”+bXdj”      
    (91)なる式を実行する計算により重みマト
リクスを修正し、結果を再び重みマトリクス記憶部1s
iiに記憶する。1回の学習の終了後にはUOは再度初
期値に設定する。
The error calculation unit 1310 evaluates the back propagation error from d)1 calculated in advance according to equation (83) and the output signal 0″j1 held in the output signal storage unit, and calculates djl. :d”j1×0”j”X(1-0+,1)
By executing the formula (89), dj”
After finding (1≦j≦Nl), the matrix correction unit 13
Transfer to 12, wij"=wij'+aXdj"Xo
iO(90)θi1=θi”+bXdj”
The weight matrix is corrected by calculating the formula (91), and the result is stored in the weight matrix storage unit 1s again.
ii. After one learning session is completed, the UO is set to the initial value again.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

第4図は第4の本発明のパターン学習装置の3層の場合
の実施例を示す図である。学習は、入カバターンと教師
信号を繰り返し与えることによりなされるが、まず1つ
の入カバターンと1つの教師信号を与えた場合について
説明する。予め、マトリクス積演算部で用いられるマト
リクスを蓄えるマトリクス記憶部411.412は乱数
により初期化しておく。
FIG. 4 is a diagram showing a fourth embodiment of the pattern learning device of the present invention in the case of three layers. Learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are applied will be explained. Matrix storage units 411 and 412 that store matrices used in the matrix product calculation unit are initialized in advance with random numbers.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子401より入力され、入力層記憶部402に蓄えられ
る。入力層記憶部402は、No次元のベクトルを保持
するレジスタにより構成され、ベクトルの全要素はマト
リクス積演算部403に送られる。入力されるベクトル
値を010(1≦i≦NQ)とし、第1層重みマトリク
ス記憶部412に保持されるマドると、マトリクス積演
算部403では、Ojl:Σ(oj0×wij1)十〇
j1(92)なる計算をおこなう。ただし、ここでOj
1はバイアス値であり、第1層重みマトリクス記憶部4
12に記憶される。結果のojl(1≦j≦Nl)は各
々、S関数部404において o’3” =(1+ tanh(Oj”))/2   
      (93)なる計算によりo)1をもとめ、
中間層記憶部405に記憶する。
First, feedforward processing for calculating an output value from an input value will be explained. The input pattern is input as a vector value from the terminal 401 and stored in the input layer storage section 402. The input layer storage unit 402 is composed of a register that holds a No-dimensional vector, and all elements of the vector are sent to the matrix product calculation unit 403. If the input vector value is 010 (1≦i≦NQ) and the matrix is stored in the first layer weight matrix storage unit 412, the matrix product calculation unit 403 calculates Ojl:Σ(oj0×wij1) 〇j1 (92) Perform the calculation. However, here Oj
1 is a bias value, and the first layer weight matrix storage unit 4
12 is stored. The resultant ojl (1≦j≦Nl) is calculated as o'3'' = (1+ tanh (Oj''))/2 in the S function section 404, respectively.
(93) Obtain o) 1 by calculation,
The data is stored in the intermediate storage unit 405.

第2層重みマトリクス記憶部411に記憶される重みマ
トリクスをwjk2(1≦i≦N1.1≦j≦N2)と
し、同記憶部411に記憶されるバイアス値をθに2と
するとマトリクス演算部406では、 0k2=E(oj1×Wik2)+θに2(94)なる
計算をおこなう。結果の0k2(l≦に≦N2)は各々
、S関数部407において o’に2=(1+tanh(ok2))/2     
    (95)なる計算によりokをもとめ、出力信
号として出力層記憶部408に記憶される。
If the weight matrix stored in the second layer weight matrix storage section 411 is wjk2 (1≦i≦N1.1≦j≦N2) and the bias value stored in the second layer weight matrix storage section 411 is 2 for θ, then the matrix calculation section At 406, calculation is performed such that 0k2=E(oj1×Wik2)+θ becomes 2(94). The result 0k2 (l≦≦N2) is converted to o' in the S function section 407 by 2=(1+tanh(ok2))/2.
(95) is calculated to determine OK, and the result is stored in the output layer storage unit 408 as an output signal.

つぎに、学習停止の判定を行う部分の動作について説明
する。
Next, the operation of the part that determines whether to stop learning will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子420
より入力して教師信号記憶部409に保持し、その値t
k(1≦に≦N2)と出力信号記憶部408内の値0′
に2ととを誤差信号計算部410に転送して、誤差信号
d’kを d′に2=tk−o′に2(l≦に≦N2)     
   (96)として計算する。その結果はマトリクス
修正量推定部に送られ、学習停止の判定のための誤差評
価量Eを E=Σ(d’に2)2(97) なる式で表される計算を実行することにより求める。さ
らに出力層記憶部408がら0′に2(1≦に≦N2)
e、中間層記憶部405 カラO’J1(1≦j≦N1
)を、入力層記憶部402がらo50(1≦i≦NQ)
をマトリクス修正量推定部416に転送し、マトリクス
修正量の推定値S”を以下の式で計算する。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 420.
The value t
k (1≦to≦N2) and the value 0′ in the output signal storage unit 408
2 and are transferred to the error signal calculation unit 410, and the error signal d'k is converted to d' to 2=tk-o' to 2 (l≦≦N2)
Calculate as (96). The results are sent to the matrix correction amount estimating section, and the error evaluation amount E for determining whether to stop learning is calculated by executing the formula E = Σ (2 for d') 2 (97). . Further, from the output layer storage unit 408, 2 (1≦≦N2) is set to 0′.
e, middle layer storage unit 405 empty O'J1 (1≦j≦N1
) from the input layer storage unit 402 o50 (1≦i≦NQ)
is transferred to the matrix modification amount estimating unit 416, and an estimated value S'' of the matrix modification amount is calculated using the following formula.

+ΣΣI(1−o’4’)Xo′j” X oiol 
      (98)J なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部416において出力信号と教師信号との
誤差の評価量を、 S’<Th1 E>Th2                  (9
9)なる条件判定を実行し、上記の(99)式で表され
る条件を満たした場合には学習停止状況にあると判断し
て、入力層修正部417、中間層修正部418、出力層
修正部419に信号を送り、各層の出力信号の修正を行
う。上記の条件を満たさない場合は学習停止状況にはな
いとみなし、マトリクス修正量計算部416から各層の
修正部への信号は出さない。
+ΣΣI(1-o'4')Xo'j"X oiol
(98) J It is determined by calculation that executes the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimation unit 416 is calculated as follows: S'<Th1 E>Th2 (9
9) If the condition expressed by the above equation (99) is satisfied, it is determined that the learning is stopped, and the input layer correction unit 417, intermediate layer correction unit 418, and output layer A signal is sent to a modification unit 419 to modify the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 416 to the correction unit of each layer.

この判定条件は、誤差の評価量Eが太きいにも関わらず
、重みマトリクスの修正量SがOに近い場合には、学習
停止とみなしている。
This determination condition is such that if the weight matrix correction amount S is close to O even though the error evaluation amount E is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部417では、入力
層記憶部402に保持される値oi0を読みだし、oi
=Min(Max(oio、L)、U)       
  (100)なる計算を実行して入力値oi0を修正
して、再び入力層記憶部402に格納し、入力層の値が
0や1に近い値となることを避ける。
Upon receiving the signal to stop learning, the input layer correction unit 417 reads out the value oi0 held in the input layer storage unit 402, and
=Min(Max(oio, L), U)
(100) is executed to correct the input value oi0 and store it in the input layer storage unit 402 again to prevent the input layer value from becoming a value close to 0 or 1.

中間層でのUO修正部418や出力層でのUO修正部4
19では、 UO=UOX c               (1
01)なる式の計算を実現して、第8図で説明したよう
にシグモイド関数の傾きを緩やかにして、中間層出力や
出力層出力値を再計算し、それらが0や1に近い値とな
ることを避け、学習停止を引き起こすことをなくす。実
施例ではパラメータCを便宜上2とした。その上で、再
び式(93)と式(95)で示す計算を実行し、さらに
式(97)から式(99)で示す学習停止の判定を行っ
て、未だ式(99)が満たされているならば、再度式(
101)によりUOを修正する。
UO correction unit 418 in the intermediate layer and UO correction unit 4 in the output layer
19, UO=UOX c (1
01), and as explained in Figure 8, the slope of the sigmoid function is made gentler, the intermediate layer output and the output layer output value are recalculated, and they are determined to be values close to 0 or 1. Avoid becoming a failure and causing unlearning. In the example, the parameter C was set to 2 for convenience. Then, the calculations shown in equations (93) and (95) are performed again, and the learning stop judgment shown in equations (97) to (99) is performed to determine whether equation (99) is still satisfied. If so, use the formula again (
101) to modify the UO.

最後に、修正された各層の信号記憶部402.405゜
408の値を用いて重みマトリクスの修正を行う逆伝搬
処理の説明をする。
Finally, a description will be given of back propagation processing in which the weight matrix is modified using the modified values of the signal storage units 402, 405, and 408 of each layer.

誤差計算部410で予め式(96)に従って求められて
いるd′にと出力信号記憶部に保持される出力信号0”
k2とから逆伝搬誤差を評価し、 dk2=d′に2×o′に2×α−o’に2)    
     (102)なる式を実行する計算によりdk
2(1≦に≦N2)を求めた後に、その値をマトリクス
修正部413と誤差逆伝搬部414に転送する。さらに
、誤差信号dk2は、マトリクス修正量計算部416に
も転送され学習停止の観測に用いられる。
The output signal 0'' held in the output signal storage unit is d′, which is calculated in advance by the error calculation unit 410 according to equation (96).
Evaluate the back propagation error from k2, and calculate dk2 = d' to 2 x o' to 2 x α-o' to 2)
(102) By performing the calculation, dk
2 (1≦≦N2), the value is transferred to the matrix correction unit 413 and the error backpropagation unit 414. Furthermore, the error signal dk2 is also transferred to the matrix correction amount calculation unit 416 and used for observing learning stoppage.

マトリクス修正部413では、 Wjk=Wjk+axdk×0) θj2=θj2+bxdk2(104)なる計算により
第2層重みマトリクスを修正し、結果を再び第2層重み
マトリクス記憶部411に記憶する。
The matrix correction unit 413 corrects the second layer weight matrix by calculating Wjk=Wjk+axdk×0) θj2=θj2+bxdk2 (104), and stores the result in the second layer weight matrix storage unit 411 again.

誤差計算部410で式(102)を実行する計算により
求められたdkは、誤差逆伝搬部414に送られ、マト
リクス記憶部411内から転送された重みマトリクス値
とともに、 d)1=E(Wjk2Xdk2)(105)の計算をし
、さらに中間層記憶部405から転送された0′・1と
から dj1=d731xo’31x (1−o’3’)  
     (106)なる式を実行する計算によりdj
’(1≦j≦Nt)を求めた後に、マトリクス修正部4
15に転送して、wij1=Wij1+aXdj1×0
10(107)θ11=θi’ +bX djl(10
8)なる式を実行する計算により第1層重みマトリクス
を修正し、結果を再び第1層重みマトリクス記憶部41
2に記憶する。1回の学習が終了した段階で、UOは初
期値に戻す。
The dk calculated by executing equation (102) in the error calculation unit 410 is sent to the error backpropagation unit 414, and together with the weight matrix value transferred from the matrix storage unit 411, d)1=E(Wjk2Xdk2 ) (105), and further calculates dj1=d731xo'31x (1-o'3') from 0' and 1 transferred from the intermediate storage unit 405.
(106), dj
'(1≦j≦Nt), the matrix correction unit 4
15, wij1=Wij1+aXdj1×0
10(107)θ11=θi' +bX djl(10
8) Modify the first layer weight matrix by calculating the following formula, and store the result again in the first layer weight matrix storage unit 41.
Store in 2. When one learning session is completed, the UO is returned to its initial value.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第14図を参照して、第5の本発明のパターン学習
装置の2層の場合の実施例の説明をする。学習は、入カ
バターンと教師信号を繰り返し与えることによりなされ
るが、まず1つの入カバターンと1つの教師信号を与え
た場合について説明する。予め、マトリクス積演算部で
用いられるマトリクスを蓄えるマトリクス記憶部141
1は乱数により初期化しておく。
Next, referring to FIG. 14, a description will be given of a two-layer embodiment of the pattern learning device according to the fifth aspect of the present invention. Learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are applied will be explained. A matrix storage unit 141 that stores a matrix used in the matrix product calculation unit in advance.
1 is initialized with a random number.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子1401より入力され、入力層記憶部1402に蓄え
られる。入力層記憶部1402は、NQ次元のベクトル
を保持するレジスタにより構成され、ベクトルの全要素
はマトリクス積演算部1403に送られる。入力される
ベクトル値をoiO(1≦i≦NQ)とし、重みマトリ
クス記憶部1411に保持されるマトリクス値をwij
l(1≦i≦No、1≦j≦Nl)、出力層記憶部14
05に保持されるベクトル値をo’31(1≦j≦N□
)とすると、マトリクス積演算部1403では、oj1
=Σ(oj0×Wij1)+θj’        (
109)なる計算をおこなう。ただし、ここでOjlは
バイアス値であり、重みマトリクス記憶部に記憶される
。結果のOJ”(1≦j≦N1)は各々、S関数部14
04において o’31=p+(q−pX1+tanh(oj”))/
2     (110)なる計算によりo)1をもとめ
、出力信号として出力層記憶部1405に記憶する。実
施例では初期的にはp。
First, feedforward processing for calculating an output value from an input value will be explained. The input pattern is input as a vector value from the terminal 1401 and stored in the input layer storage section 1402. The input layer storage unit 1402 is composed of registers that hold NQ-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 1403. Let the input vector value be oiO (1≦i≦NQ), and let the matrix value held in the weight matrix storage unit 1411 be wij
l (1≦i≦No, 1≦j≦Nl), output layer storage section 14
The vector value held in 05 is o'31 (1≦j≦N□
), in the matrix product calculation unit 1403, oj1
=Σ(oj0×Wij1)+θj' (
109) Perform the following calculation. However, here, Ojl is a bias value and is stored in the weight matrix storage section. The resulting OJ'' (1≦j≦N1) is each
In 04, o'31=p+(q-pX1+tanh(oj''))/
2 (110), o)1 is obtained and stored in the output layer storage unit 1405 as an output signal. In the embodiment, initially p.

qをそれぞれOと1とした。q was set to O and 1, respectively.

つぎに、重みマトリクスの修正処理の説明をする。Next, the weight matrix correction process will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子142
0より入力して教師信号記憶部1409に保持し、その
値tj(1≦j≦Nl)と出力信号記憶部1405内の
値o)1ととを誤差信号計算部1410に転送して、誤
差信号d’jを d)1=ぢ−o’j1(1≦に≦Nl)       
   (111)として計算して、さらに出力信号0′
j1とがら逆伝搬誤差を評価し、 dj”=d’3’Xo’31X(1−o+、1)   
    (112)なる式を実行する計算によりdj’
(1≦j≦Nl)を求めた後に、その値をマトリクス修
正部1413に転送する。さらに、誤差信号djは、マ
トリクス修正量計算部1416にも転送され学習停止の
観測に用いられる。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 142.
The value tj (1≦j≦Nl) and the value o)1 in the output signal storage section 1405 are transferred to the error signal calculation section 1410 to calculate the error. The signal d'j is d) 1 = ぢ - o'j1 (1≦≦Nl)
(111) and further output signal 0'
Evaluate the back propagation error with j1, dj''=d'3'Xo'31X (1-o+, 1)
(112), dj'
After determining (1≦j≦Nl), the value is transferred to the matrix correction unit 1413. Furthermore, the error signal dj is also transferred to the matrix correction amount calculation unit 1416 and used for observing learning stoppage.

マトリクス修正部1413では、 Wij1=wij1+aXdj1×oi0(l13)θ
12θi +bXdj’          (114
)なる計算により重みマトリクスを修正し、結果を再び
重みマトリクス記憶部1411に記憶する。
In the matrix correction unit 1413, Wij1=wij1+aXdj1×oi0(l13)θ
12θi +bXdj' (114
) is used to correct the weight matrix, and the result is stored in the weight matrix storage unit 1411 again.

マトリクス修正量計算部1416では、マトリクス修正
部1413で求められた重みマトリクスの修正量(ax
dj1×oi0)の総和を S=ΣΣla Xdj’ Xoiol        
 (115)」 1 なる式を実行する計算により求める。さらに、出力信号
と教師信号との誤差の評価量を、(111)の実行によ
り求められた結果のd3より E=Σ(d)1)2(116) なる式を実行することにより求め、さらにS<Thl 
                    (117)
E>Th2 なる条件判定を実行し、上記の(117)式で表される
条件を満たした場合には学習停止状況にあると判断して
、入力層修正部1417、出力層のレンジ修正部141
8に信号を送り、各層の出力信号を再計算する。上記の
条件を満たさない場合は学習停止状況にはないとみなし
、マトリクス修正量計算部1416から各層の修正部へ
の信号は出さない。
The matrix correction amount calculation unit 1416 calculates the weight matrix correction amount (ax
dj1×oi0) is S=ΣΣla Xdj' Xoiol
(115)'' 1 is calculated by executing the formula. Furthermore, the evaluation amount of the error between the output signal and the teacher signal is obtained by executing the formula E=Σ(d)1)2(116) from the result d3 obtained by executing (111), and further S<Thl
(117)
E>Th2 If the condition expressed by the above equation (117) is satisfied, it is determined that the learning is stopped, and the input layer correction unit 1417 and the output layer range correction unit 141
8 to recalculate the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 1416 to the correction unit of each layer.

学習停止の信号を受けた入力層修正部1417では、入
力層記憶部1402に保持される値O1を読みだし、 o;0=Min(Max(oi、 L)、 U)   
     (118)なる計算を実行して入力値Oiを
修正して、再び人力記・置部1402に格納し、第7図
に示すように入力層の値が0や1に近い値となることを
避ける。
Upon receiving the learning stop signal, the input layer correction unit 1417 reads out the value O1 held in the input layer storage unit 1402, and calculates o;0=Min(Max(oi, L), U).
(118) to correct the input value Oi and store it in the human power record storage unit 1402 again, so that the value of the input layer becomes a value close to 0 or 1 as shown in FIG. avoid.

出力層でのレンジ修正部1418では、p=p’   
            (119)q=q’ なる式の計算を実現して、第9図に示すようにシグモイ
ド関数のレンジを修正して、出力層出力値を再計算し、
それらが0や1に近い値となることを避け、学習停止を
引き起こすことをなくす。第9図の例では、曲線901
ではp=Q、q=1、曲線902ではp:0.2、q=
0.8となっている。その上で、再び式(111)から
式(114)で示す計算を実行することにより、重みマ
トリクスの修正を実現する。1回の学習の終了後にはp
、qを再度初期化する。
In the range correction unit 1418 in the output layer, p=p'
(119) Realize the calculation of the formula q = q', correct the range of the sigmoid function as shown in Figure 9, and recalculate the output layer output value,
Avoid them from taking values close to 0 or 1, and prevent learning from stopping. In the example of FIG. 9, the curve 901
Then p=Q, q=1, and in curve 902 p:0.2, q=
It is 0.8. Then, the weight matrix is corrected by executing the calculations shown in equations (111) to (114) again. After completing one study, p
, q is reinitialized.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

第5図は第5の発明のパターン学習装置の3層の場合の
実施例を示す図である。学習は、入カバターンと教師信
号を繰り返し与えることによりなされるが、まず1つの
入カバターンと1つの教師信号を与えた場合について説
明する。予め、マトリクス積演算部で用いられるマトリ
クスを蓄えるマトリクス記憶部511.512は乱数に
より初期化しておく。
FIG. 5 is a diagram showing an embodiment of the pattern learning device of the fifth invention in the case of three layers. Learning is performed by repeatedly applying an input cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are applied will be explained. Matrix storage units 511 and 512 that store matrices used in the matrix product calculation unit are initialized with random numbers in advance.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。人カバターンはベクトル値として端
子501より入力され、入力層記憶部502に蓄えられ
る。入力層記憶部502は、No次元のベクトルを保持
するレジスタにより構成され、ベクトルの全要素はマト
リクス積演算部503に送られる。入力されるベクトル
値をoio(1≦i≦NQ)とし、第1層重みマトリク
ス記憶部512に保持されるマトリクス値をwHj’(
1≦i≦No、1≦j≦N1)、中間層記憶部505に
保持されるベクトル値をo’j1(1≦j≦N1)とす
ると、マトリクス積演算部503では、oj1=Σ(O
10×Wij1)+0j1(120)なる計算をおこな
う。ただし、ここでθj1はバイアス値であり、第1層
重みマトリクス記憶部に記憶される。結果のojl(1
≦j≦Nl)は各々、S関数部504において o’j’=p+(q−p)(1+tanh(oj’/U
O))/2    (121)なる計算によりor、1
をもとめ、出力層記憶部505に記憶する。実施例では
初期的にはp、qをそれぞれ0と1とした。第2層重み
マトリクス記憶部511に記憶される重みマトリクスを
wjk2(1≦i≦N1.1≦j≦N2)とし、同記憶
部511に記憶されるバイアス値をθにとするとマトリ
クス演算部506では、 0k2=Σ(Oj1×Wij2)+θに2(122)な
る計算をおこなう。結果のOk2(1≦に≦N2)は各
々、S関数部507において o’に2=p + (p −q)(1+ tanh(O
k2)/UO)/2    (123)なる計算により
okをもとめ、出力信号として出力層記憶部508に記
憶される。
First, feedforward processing for calculating an output value from an input value will be explained. The human cover turn is input as a vector value from the terminal 501 and stored in the input layer storage section 502. The input layer storage unit 502 is composed of a register that holds a No-dimensional vector, and all elements of the vector are sent to the matrix product calculation unit 503. The input vector value is oio (1≦i≦NQ), and the matrix value held in the first layer weight matrix storage unit 512 is wHj'(
1≦i≦No, 1≦j≦N1), and the vector value held in the intermediate layer storage unit 505 is o'j1 (1≦j≦N1), the matrix product calculation unit 503 calculates oj1=Σ(O
The calculation is 10×Wij1)+0j1(120). However, here, θj1 is a bias value and is stored in the first layer weight matrix storage section. Result ojl(1
≦j≦Nl) is calculated as o'j'=p+(q-p)(1+tanh(oj'/U
O))/2 (121) or, 1
is obtained and stored in the output layer storage unit 505. In the embodiment, p and q were initially set to 0 and 1, respectively. If the weight matrix stored in the second layer weight matrix storage section 511 is wjk2 (1≦i≦N1.1≦j≦N2) and the bias value stored in the second layer weight matrix storage section 511 is θ, then the matrix calculation section 506 Now, calculate 0k2=Σ(Oj1×Wij2)+θ to 2(122). The resultant Ok2 (1≦≦N2) is converted to o' in the S function section 507 as 2=p + (p - q) (1 + tanh (O
k2)/UO)/2 (123) is used to determine OK, and the result is stored in the output layer storage unit 508 as an output signal.

つぎに、重みマトリクスの修正を行う逆伝搬処理の説明
をする。
Next, back propagation processing for modifying the weight matrix will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子520
より入力して教師信号記憶部509に保持し、その値t
k(1≦に≦N2)と出力信号記憶部508内の値o+
に2ととを誤差信号計算部530に転送して、誤差信号
d′kを d’に2=tk−o’に2(1≦に≦N2)     
   (124)として計算して、さらに出力層−”1
i−Okとから逆伝搬誤差を評価し、 dk2= d’に2X o’に2X (1−o’に2)
       (125)なる式を実行する計算により
dk2(1≦に≦N2)を求めた後に、その値をマトリ
クス修正部513と誤差逆伝搬部514に転送する。さ
らに、誤差信号d’には、マトリクス修正量計算部51
6にも転送され学習停止の観測に用いられる。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 520.
The value t
k (1≦to≦N2) and the value o+ in the output signal storage unit 508
2 and are transferred to the error signal calculation unit 530, and the error signal d'k is converted to d' to 2=tk-o' to 2 (1≦≦N2)
(124), and further output layer −”1
Evaluate the back propagation error from i-Ok, dk2 = 2X to d', 2X to o' (2 to 1-o')
After calculating dk2 (1≦≦N2) by executing the equation (125), the value is transferred to the matrix correction unit 513 and the error backpropagation unit 514. Furthermore, the error signal d' includes a matrix correction amount calculating section 51.
It is also transferred to No. 6 and used to observe when learning stops.

マトリクス修正部513では、 2  2   2  +1         (126
)Wjk=Wjk+axdk×Oj θj2=θj2+ b X dk2(127)なる計算
により第2層重みマトリクスを修正し、結果を再び第2
層重みマトリクス記憶部511に記憶する。
In the matrix correction unit 513, 2 2 2 +1 (126
)Wjk=Wjk+axdk×Oj θj2=θj2+ b
The layer weight matrix is stored in the layer weight matrix storage unit 511.

誤差計算部510で式(125)を実行する計算により
求められたdk2は、誤差逆伝搬部514に送られ、マ
トリクス記憶部511内から転送された重みマトリクス
値とともに、 d+j1=Σ四に2×dk2)(128)の計算をし、
さらに中間層記憶部505から転送された。”・1とか
ら dj’ =d’j’xo’j1x(1−o’4’)  
     (129)なる式を実行する計算によりdj
l(1≦j≦Nl)を求めた後に、マトリクス修正部5
15に転送して、Wij1=Wij1+axdj1×0
iO(130)θ11=θi1+bXdj”     
          (131)なる式を実行する計算
により第1層重みマトリクスを修正し、結果を再び第1
層重みマトリクス記憶部512に記憶する。
dk2 calculated by executing equation (125) in the error calculation unit 510 is sent to the error backpropagation unit 514, and together with the weight matrix value transferred from the matrix storage unit 511, d+j1=Σ4×2× dk2) (128),
Furthermore, it was transferred from the intermediate storage unit 505. ”・1 to dj' = d'j'xo'j1x (1-o'4')
By executing the formula (129), dj
After calculating l (1≦j≦Nl), the matrix correction unit 5
15, Wij1=Wij1+axdj1×0
iO(130)θ11=θi1+bXdj”
The first layer weight matrix is corrected by calculating the formula (131), and the result is again applied to the first layer weight matrix.
The layer weight matrix is stored in the layer weight matrix storage unit 512.

マトリクス修正量計算部516では、マトリクス修正部
513.515で求められた重みマトリクスの修正量(
a X dk2X o’j’、aXdj1×010)の
総和をなる式を実行する計算により求める。さら(こ、
出力信号と教師信号との誤差の評価量を、式(124)
の実行により求められた結果のd′kによりE=Σ(d
、に2,2               (133)
なる式を実行することにより求め、さらにS<Thl 
                    (134)
E > Th2 なる条件判定を実行し、上記の(81)式で表さ1する
条件を満たした場合には学習停止状況にあると判断して
、入力層修正部517、中間層のUO修正部518、出
力層修正部519に信号を送り、各層の出力信号を再計
算する。上記の条件を満たさなし)場合(よ学習停止状
況にはないとみなし、マトリクス修正量計算部516か
ら各層の修正部への信号は出さなし1゜学習停止の信号
を受けた入力層修正部517では、入力層記憶部502
に保持される値oi0を読みだし、0!−Min(Ma
x(oi、L)、U)          (135)
なる計算を実行して入力値oiOを修正して、再び入力
記憶部502に格納し、入力層の値がOや1に近い値と
なることを避ける。
The matrix correction amount calculation unit 516 calculates the weight matrix correction amount (
a X dk2X o'j', aXdj1×010) is calculated by executing the following formula. Sara(ko,
The evaluation amount of the error between the output signal and the teacher signal is expressed by formula (124)
E=Σ(d
, ni 2, 2 (133)
It is obtained by executing the formula, and furthermore, S<Thl
(134)
E > Th2 is executed, and if the condition 1 expressed by the above equation (81) is satisfied, it is determined that the learning is stopped, and the input layer correction unit 517 and the intermediate layer UO correction unit 518, a signal is sent to the output layer correction unit 519 to recalculate the output signal of each layer. If the above conditions are not met) (it is assumed that there is no learning stop situation, the matrix correction amount calculation unit 516 does not output a signal to the correction unit of each layer) 1° Input layer correction unit 517 that received the learning stop signal Now, the input layer storage unit 502
Read the value oi0 held in 0! -Min(Ma
x (oi, L), U) (135)
This calculation is performed to correct the input value oiO and store it in the input storage unit 502 again to avoid the value of the input layer from becoming a value close to O or 1.

中間層でのレンジ修正部518や出力層でのレンジ修正
部519では、 p=p’                  (13
6)q”q’ なる式の計算を実現して、第9図で説明したようにシグ
モイド関数レンジを修正して、中間層出力や出力層出力
値を再計算し、それらが0や1に近い値となることを避
け、学習停止を引き起こすことをなくす。その上で、再
び式(120)から式(131)で示す計算を実行する
ことにより、重みマトリクスの修正を実現する。1回の
学習の終了後にはp、qを再度初期かする。
In the range correction unit 518 in the intermediate layer and the range correction unit 519 in the output layer, p=p' (13
6) Realize the calculation of the formula q"q', modify the sigmoid function range as explained in Figure 9, recalculate the intermediate layer output and output layer output value, and make sure that they are 0 or 1. Avoid values that are close to each other and prevent learning from stopping.After that, the weight matrix is corrected by executing the calculations shown in equations (120) to (131) again. After the learning is completed, p and q are initialized again.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

次に第15図を参照して、第6の本発明のパターン学習
装置の2層での場合の実施例について説明をする。学習
は、人カバターンと教師信号を繰り返し与えることによ
りなされるが、まず1つの入カバターンと1つの教師信
号を与えた場合について説明する。予め、マトリクス積
演算部で用いられるマトリクスを蓄えるマトリクス記憶
部1511は乱数により初期化しておく。
Next, with reference to FIG. 15, a description will be given of an embodiment in which the pattern learning device according to the sixth aspect of the present invention has two layers. Learning is performed by repeatedly applying a human cover turn and a teacher signal. First, a case in which one input cover turn and one teacher signal are provided will be described. The matrix storage unit 1511 that stores matrices used in the matrix product calculation unit is initialized with random numbers in advance.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。人カバターンはベクトル値として端
子1501より入力され、入力層記憶部1502に蓄え
られる。入力層記憶部1502は、NO次元のベクトル
を保持するレジスタにより構成され、ベクトルの全要素
はマトリクス積演算部1503に送られる。人力される
ベクトル値を01O(1≦i≦NQ)とし、重みマトリ
クス記憶部1411に保持されるマトリクス値をVVI
Jl(1≦i≦No、1≦j≦N□)、出力層記他部1
405に保持されるベクトル値をO’J”(1≦j≦N
l)とすると、マトリクス積演算部1503では、0j
1=Σ(oj0×Wij1)十〇j’        
(137)なる計算をおこなう。ただし、ここでOj1
はバイアス値であり、重みマトリクス記憶部に記憶され
る。結果のOJ”(1≦j≦Nl)は各々、S関数部1
504において ol、1=P +(q−P)(1+ tanh(Oj”
))/2     (138)なる計算によりor、l
をもとめ、出力信号として出力層記憶部1505に記憶
する。実施例では初期的にはp。
First, feedforward processing for calculating an output value from an input value will be explained. The human cover turn is input as a vector value from the terminal 1501 and stored in the input layer storage section 1502. The input layer storage unit 1502 is composed of registers that hold NO-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 1503. The manually input vector value is 01O (1≦i≦NQ), and the matrix value held in the weight matrix storage unit 1411 is VVI.
Jl (1≦i≦No, 1≦j≦N□), output layer record and other parts 1
The vector value held in 405 is O'J'' (1≦j≦N
l), the matrix product calculation unit 1503 calculates 0j
1=Σ(oj0×Wij1) 10j'
(137). However, here Oj1
is a bias value and is stored in the weight matrix storage section. The resulting OJ'' (1≦j≦Nl) is the S function part 1, respectively.
In 504, ol, 1=P + (q-P) (1+ tanh (Oj”
))/2 (138) or, l
is determined and stored in the output layer storage unit 1505 as an output signal. In the embodiment, initially p.

qをそれぞれ0と1とした。q was set to 0 and 1, respectively.

つぎに、学習停止の判定を行う部分の動作について説明
する。
Next, the operation of the part that determines whether to stop learning will be explained.

上述のフィードフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子152
0より入力して教師信号記憶部1509に保持し、その
値チ(1≦j≦Nl)と出力信号記憶部1405内の値
o)1ととを誤差信号計算部1510に転送して、誤差
信号d)を dt、1 =t、 、31(1≦j≦N1)     
   (139)として計算する。その結果はマトリク
ス修正量推定部1516に送られ、学習停止の判定のた
めの誤差評価量Eを E=Σ(d’j1)2(140) なる式で表される計算を実行することにより求める。さ
らに出力層記憶部1505から0”・1(1≦j≦Nl
)を、入力層記憶部1502からoio(1≦i≦NQ
)をマトリクス修正量推定部1516に転送し、マトリ
クス修正量の推定値S′を以下の式で計算する。
For the output signal obtained by the above-described feedforward processing, the ideal value of the teacher signal is sent to the terminal 152.
0 is input and held in the teacher signal storage unit 1509, and the value chi (1≦j≦Nl) and the value o)1 in the output signal storage unit 1405 are transferred to the error signal calculation unit 1510 to calculate the error. Signal d) as dt, 1 = t, , 31 (1≦j≦N1)
Calculate as (139). The result is sent to the matrix correction amount estimating unit 1516, and the error evaluation amount E for determining whether to stop learning is determined by executing the calculation expressed by the formula E=Σ(d'j1)2(140). . Further, from the output layer storage unit 1505, 0”・1 (1≦j≦Nl
) from the input layer storage unit 1502, oio(1≦i≦NQ
) is transferred to the matrix modification amount estimation unit 1516, and the estimated value S' of the matrix modification amount is calculated using the following formula.

s’=モΣl(1o’3’)’Xo’3”Xoiol 
     (141)j なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部1516において出力信号と教師信号と
の誤差の評価量を、 S’<Th1 E>Th2                 (14
2)なる条件判定を実行し、上記の(142)式で表さ
れる条件を満たした場合には学習停止状況にあると判断
して、入力層修正部1517、出力層修正部1418に
信号を送り、各層の出力信号の修正を行う。上記の条件
を満たさない場合は学習停止状況にはないとみなし、マ
トリクス修正量計算部1516から各層の修正部への信
号は出さない。
s'=MoΣl(1o'3')'Xo'3''Xoiol
(141)j is calculated by executing the equation. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimating section 1516 is calculated as follows: S'<Th1 E>Th2 (14
2) If the condition expressed by the above equation (142) is satisfied, it is determined that the learning is stopped, and a signal is sent to the input layer correction unit 1517 and the output layer correction unit 1418. and modify the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix correction amount calculation unit 1516 to the correction unit of each layer.

この判定条件は、誤差の評価量Eが大きいにも関わらず
、重みマトリクスの修正量Sが0に近い場合には、学習
停止とみなしている。
This determination condition is such that if the weight matrix correction amount S is close to 0 even though the error evaluation amount E is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部1517では、入
力層記憶部1502に保持される値O10を読みだし、 oi0=Min(Max(o70.L)、U)    
             (143)なる計算を実行
して入力値Oi0を修正して、再び入力層記憶部150
2に格納し、入力層の値がOや1に近い値となることを
避ける。出力層でのレンジ修正部1318では p”p’ q”q’                    (
144)なる式の計算を実現して、すでに述べたように
シグモイド関数の傾きを緩やかにして、中間層出力や出
力層出力値を再計算し、それらが0や1に近い値となる
ことを避け、学習停止を引き起こすことをなくす。その
上で、再び式(156)と式(158)で示す計算を実
行することにより重みマトリクスの修正を実現する1回
の学習の終了後にはp、qを初期化する 最後に、修正された各°層の信号記憶部1502.15
05の値を用いて重みマトリクスの修正を行う逆伝搬処
理の説明をする。
Upon receiving the learning stop signal, the input layer correction unit 1517 reads out the value O10 held in the input layer storage unit 1502, and calculates oi0=Min(Max(o70.L), U).
(143) Perform the calculation to correct the input value Oi0, and then store it in the input layer storage unit 150 again.
2 to avoid input layer values close to O or 1. The range correction unit 1318 in the output layer calculates p"p'q"q' (
144), and as mentioned above, make the slope of the sigmoid function gentler, recalculate the intermediate layer output and the output layer output value, and check that they become values close to 0 or 1. avoid causing learning failure. Then, the weight matrix is modified by executing the calculations shown in equations (156) and (158) again.After one learning session, p and q are initialized.Finally, the modified Signal storage section 1502.15 for each layer
The back propagation process for modifying the weight matrix using the value of 05 will be explained.

誤差計算部1510で予め式(156)に従って求めら
れている。p、1と出力信号記憶部に保持される出力信
号記憶部に保持される出力層−W OJ、とから逆伝搬
誤差を評価し、 dj’=d’31xo”j’X(1−o’j’)   
    (145)なる式を実行する計算によりdj”
(1≦j≦Nl)を求めた後に、マトリクス修正部15
12に転送して、wij1=Wij1+aXdj1×0
iO(146)θ11=θi’ + b X dj’ 
         (147)なる式を実行する計算に
より重みマトリクスを修正し、結果を再び重みマトリク
ス記憶部1511に記憶する。1回の学習の終了後には
p、qは再・度初期値に設定する。
It is calculated in advance by the error calculation unit 1510 according to equation (156). Evaluate the back propagation error from p, 1 and the output layer -W OJ held in the output signal storage part, and dj'=d'31xo''j'X(1-o'j')
By executing the formula (145), dj”
After determining (1≦j≦Nl), the matrix correction unit 15
12, wij1=Wij1+aXdj1×0
iO(146)θ11=θi' + b X dj'
The weight matrix is corrected by calculating the equation (147), and the result is stored in the weight matrix storage unit 1511 again. After one learning session is completed, p and q are set to their initial values again.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

第6図は第6の本発明のパターン学習装置の実施例を示
す図である。学習は、入カバターンと教師信号を繰り返
し与えることによりなされるが、まず1つの人カバター
ンと1つの教師信号を与えた場合について説明する。予
め、マトリクス積演算部で用いられるマトリクスを蓄え
るマトリクス記憶部61’l、612は乱数により初期
化しておく。
FIG. 6 is a diagram showing a sixth embodiment of the pattern learning device of the present invention. Learning is performed by repeatedly applying an input cover turn and a teacher signal, but first a case will be described in which one person cover turn and one teacher signal are applied. The matrix storage sections 61'l and 612 that store matrices used in the matrix product calculation section are initialized in advance with random numbers.

まず、入力値から出力値を計算するフィードフォワード
の処理を説明する。入カバターンはベクトル値として端
子601より人力され、入力層記憶部602に蓄えられ
る。入力層記憶部602は、NQ次元のベクトルを保持
するレジスタにより構成され、ベクトルの全要素はマト
リクス積演算部603に送られる。人力されるベクトル
値をoio(1≦i≦NQ)とし、第1層重みマトリク
ス記憶部612に保持されるマトノクス値をwijl(
1≦i≦NQ、1≦j≦Nl)、中間層記憶部605に
保持されるベクトル値をo’3’(1≦j≦N4)とす
ると、マトリクス積演算部603では、0j1=Σ(O
joXWijl)+ej1(148)なる計算をおこな
う。ただし、ここでejlはバイアス値であり、第1層
重みマトリクス記憶部612に記憶される。結果のoj
l(1≦j≦Nl)は各々、S関数部604において o’3’=p+(q−p)(l+tanh(Oj))/
2     (148)なる計算により0.をもとめ、
中間層記憶部605に記憶する。p、qは1とOとする
First, feedforward processing for calculating an output value from an input value will be explained. The input pattern is manually input as a vector value from the terminal 601 and stored in the input layer storage section 602. The input layer storage unit 602 is composed of registers that hold NQ-dimensional vectors, and all elements of the vector are sent to the matrix product calculation unit 603. Let the manually input vector value be oio (1≦i≦NQ), and let the Matonox value held in the first layer weight matrix storage unit 612 be wijl (
1≦i≦NQ, 1≦j≦Nl), and the vector value held in the intermediate layer storage unit 605 is o'3' (1≦j≦N4), then the matrix product calculation unit 603 calculates 0j1=Σ( O
The following calculation is performed: joXWijl)+ej1 (148). However, here, ejl is a bias value and is stored in the first layer weight matrix storage section 612. Result oj
Each l (1≦j≦Nl) is expressed as o'3'=p+(q-p)(l+tanh(Oj))/ in the S function section 604.
2 (148), the result is 0. seek,
It is stored in the middle layer storage unit 605. Let p and q be 1 and O.

第2層重みマトリクス記憶部611に記憶される重みマ
トリクスをwjk2(1≦i≦N1.1≦j≦N2)と
し、同記憶部611に記憶されるバイアス値をθにとす
るとマトリクス演算部606では、 ok2=Σ(Oj1×Wik2)+θに2’     
  (150)なる計算をおこなう。結果のok2(1
≦に≦N2)は各々、S関数部607において o’に2=(1+t、anh(ok2))/2    
     (151)なる計算によりolkをもとめ、
出力信号として出力層記憶部608に記憶される。
If the weight matrix stored in the second layer weight matrix storage section 611 is wjk2 (1≦i≦N1.1≦j≦N2) and the bias value stored in the second layer weight matrix storage section 611 is θ, then the matrix calculation section 606 Then, ok2=Σ(Oj1×Wik2)+θ is 2'
(150). Result ok2(1
≦≦N2), respectively, 2=(1+t, anh(ok2))/2 for o' in the S function section 607.
Obtain olk by calculation (151),
It is stored in the output layer storage unit 608 as an output signal.

つぎに、学習停止の判定を行う部分の動作について説明
する。
Next, the operation of the part that determines whether to stop learning will be explained.

上述のフィ−ドフォワード処理により求められた出力信
号に対し、その理想的な値である教師信号を端子620
より入力して教師信号記憶部609に保持し、その値t
k(1≦に≦N2)と出力信号記憶部608内の値ok
とを誤差信号計算部610に転送して、誤差信号d’k
を d′に2=tk−0”k2(1≦に≦N2)     
  (152)として計算する。その結果はマトリクス
修正量推定部に送られ、学習停止の判定のための誤差評
価量Eを E=Σ(d’に2)2(153) なる式で表される計算を実行することにより求める。さ
らに出力層記憶部608から0′に2(1≦に≦N2)
を、中間層記憶部605がらo’31(1≦j系N1)
を、入力層記憶部602から010(1≦i≦NQ)を
マトリクス修正量推定部616に転送し、マトリクス修
正量の推定値S゛を以下の式で計算する。
A teacher signal, which is an ideal value, of the output signal obtained by the above-mentioned feedforward processing is sent to the terminal 620.
The value t
k (1≦to≦N2) and the value OK in the output signal storage unit 608
and is transferred to the error signal calculation unit 610 to obtain the error signal d'k
to d'2=tk-0''k2 (1≦≦N2)
(152). The result is sent to the matrix correction amount estimating section, and the error evaluation amount E for determining whether to stop learning is calculated by executing the formula E = Σ (2 for d') 2 (153). . Furthermore, 2 (1≦≦N2) from the output layer storage unit 608 to 0′
, from the middle layer storage unit 605 o'31 (1≦j system N1)
is transferred from the input layer storage unit 602 to 010 (1≦i≦NQ) to the matrix correction amount estimating unit 616, and the estimated value S′ of the matrix correction amount is calculated using the following formula.

+ΣΣ1(1−o’j1)xo’j’Xoi01   
   (154)j なる式を実行する計算により求める。さらに、マトリク
ス修正量推定部616において出力信号と教師信号との
誤差の評価量を、 S’<Th1 E>Th2                 (15
5)なる条件判定を実行し、上記の(155)式で表さ
れる条件を満たした場合には学習停止状況にあると判断
して、入力層修正部617、中間層修正部618、出力
層修正部619に信号を送り、各層の出力信号の修正を
行う。上記の条件を満たさない場合は学習停止状況には
ないとみなし、マトリクス1]3正量計算部616から
各層の修正部への信号は出さない。
+ΣΣ1(1-o'j1)xo'j'Xoi01
(154)j is calculated by executing the equation. Furthermore, the evaluation amount of the error between the output signal and the teacher signal in the matrix correction amount estimation unit 616 is calculated as follows: S'<Th1 E>Th2 (15
5) If the condition expressed by the above equation (155) is satisfied, it is determined that the learning is stopped, and the input layer correction unit 617, intermediate layer correction unit 618, and output layer A signal is sent to a modification unit 619 to modify the output signal of each layer. If the above conditions are not met, it is assumed that learning is not in a stopped state, and no signal is output from the matrix 1]3 positive quantity calculation unit 616 to the correction unit of each layer.

この判定条件は、誤差の評価量Eが大きいにも関わらず
、重みマトリクスの修正量Sが0に近い場合には、学習
停止とみなしている。
This determination condition is such that if the weight matrix correction amount S is close to 0 even though the error evaluation amount E is large, learning is considered to be stopped.

学習停止の信号を受けた入力層修正部617では、入力
層記憶部602に保持される値O10を読みだし、oi
0= Min(Max(oHo、 L)、 U)   
       (156)なる計算を実行して入力値O
i0を修正して、再び入力層記憶部602に格納し、入
力層の値が0や1に近い値となることを避ける。
Upon receiving the learning stop signal, the input layer correction unit 617 reads out the value O10 held in the input layer storage unit 602, and
0= Min(Max(oHo, L), U)
(156) Execute the calculation and input value O
i0 is corrected and stored in the input layer storage unit 602 again to prevent the input layer value from becoming a value close to 0 or 1.

中間層でのレンジ修正部618や出力層でのレンジ修正
部619では、 p=p’ (1=(1’                  (
157)なる式の計算を実現して、シグモイド関数レン
ジを修正して、中間層出力や出力層出力値を再計算し、
それらがOや1に近い値となることを避け、学習停止を
引き起こすことをなくす。実施例ではパラメータp’、
 q’を0.2と0.8とした。その上で、再び式(1
49)と式(151)で示す計算を実行することにより
各層での出力値の修正を実現する。1回の学習の終了後
にはp、qを再度初期化する。
In the range correction unit 618 in the intermediate layer and the range correction unit 619 in the output layer, p=p'(1=(1' (
157), correct the sigmoid function range, recalculate the intermediate layer output and output layer output value,
Avoid them from taking values close to O or 1, and prevent learning from stopping. In the example, the parameters p',
q' was set to 0.2 and 0.8. Then, once again the formula (1
By executing the calculation shown in (49) and equation (151), the output value in each layer is corrected. After one learning session, p and q are initialized again.

最後に、修正された各層の信号記憶部602.605゜
608の値を用いて重みマトリクスの修正を行う逆伝搬
処理の説明をする。
Finally, a description will be given of back propagation processing in which the weight matrix is modified using the modified values of the signal storage units 602, 605, and 608 of each layer.

誤差計算部610で予め式(152)に従って求められ
ているd’にと出力信号記憶部に保持される出力信号o
+に2とから逆伝搬誤差を評価し、 dk2= d’に2X o’に2X (1−o’に2)
         (158)なる式を実行する計算に
よりdk2(1≦に≦N2)を求めた後に、その値をマ
トリクス修正部613と誤差逆伝搬部614に転送する
。さらに、誤差信号d’には、マトリクス修正量計算部
616にも転送され学習停止の観測に用いられる。
The output signal o stored in the output signal storage section is calculated according to equation (152) in advance by the error calculation section 610.
Evaluate the back propagation error from 2 to +, dk2 = 2X to d', 2X to o' (2 to 1-o')
After calculating dk2 (1≦≦N2) by executing the equation (158), the value is transferred to the matrix correction unit 613 and the error backpropagation unit 614. Furthermore, the error signal d' is also transferred to the matrix correction amount calculation unit 616 and used for observing whether learning has stopped.

マトリクス修正部613では、 Wjk=wjk+aXdkXOj(159)Oj2=θ
j2+ b X dk2(160)なる計算により第2
層重みマトリクスを修正し、結果を再び第2層重みマト
リクス記憶部611に記憶する。
In the matrix correction unit 613, Wjk=wjk+aXdkXOj(159)Oj2=θ
By calculating j2+ b X dk2 (160), the second
The layer weight matrix is modified and the result is stored again in the second layer weight matrix storage unit 611.

誤差計算部610で式(158)を実行する計算により
求められたdkは、誤差逆伝搬部614に送られ、マト
リクス記憶部611内から転送された重みマトリクス値
とともに、 d31=Σ(wjk2×dk2)(161)の計算をし
、さらに中間層記憶部605がら転送された0′・1と
から dj’=d’3’Xo’3’X(1−o’3’ン   
                       (1
62)なる式を実行する計算によりdj’(1≦j≦N
□)を求めた後に、マトリクス修正部615に転送して
、Wij1=Wij1+axdj1×oi0(163)
θi1=θi’ + b X dj         
 (164)なる式を実行する計算により第1層重みマ
トリクスを修正し、結果を再び第1層重みマトリクス記
憶部612に記憶する。1回の学習が終了した段階で、
p、qは初期値に戻す。
dk calculated by executing equation (158) in the error calculation unit 610 is sent to the error backpropagation unit 614, and together with the weight matrix value transferred from the matrix storage unit 611, d31=Σ(wjk2×dk2 )(161), and then calculate dj'=d'3'Xo'3'X(1-o'3'
(1
62), dj'(1≦j≦N
□) is transferred to the matrix correction unit 615, and Wij1=Wij1+axdj1×oi0(163)
θi1=θi' + b X dj
The first layer weight matrix is corrected by calculating the equation (164), and the result is stored in the first layer weight matrix storage unit 612 again. After completing one study session,
p and q are returned to their initial values.

以上が1回の学習処理の説明であるが、これを繰り返し
て実行することにより、学習停止により妨害されること
なく、学習を完了することができる。
The above is a description of one learning process, but by repeatedly performing this process, learning can be completed without being disturbed by stopping learning.

(発明の効果) 以上の説明で明らかなように、本願発明においては学習
停止を観測して、学習停止が発生している場合には、出
力信号と教師信号との誤差の評価量が大きいにも関わら
ず、重みマトリクスの修正量が0に近い場合には、学習
が停止する。これは、中間層や出力層の信号がほぼOが
1であり、人力信号がOに近いために、重みマトリクス
の修正量が0となるからである。この状態を本願発明の
学習装置では、中間層や出力層の信号が0や1に近い値
になることを防ぎ、入力信号が0に近い値になることを
避けることにより学習停止を回避する。
(Effects of the Invention) As is clear from the above explanation, in the present invention, learning stoppage is observed, and if learning stoppage occurs, the estimated amount of error between the output signal and the teacher signal becomes large. Nevertheless, if the amount of modification of the weight matrix is close to 0, learning stops. This is because O of the intermediate layer and output layer signals is approximately 1, and since the human input signal is close to O, the amount of correction of the weight matrix becomes 0. In this state, the learning device of the present invention prevents the intermediate layer and output layer signals from taking values close to 0 or 1, and prevents the input signals from taking values close to 0, thereby avoiding learning stoppage.

従来の学習方法により、学習停止に陥った重みマトリク
スを初期値として、本願発明による学習装置を用いて、
パターンの学習を行った結果、学習停止の状態を脱出し
て、正しい学習を完了することができた。
Using the learning device according to the present invention as the initial value of the weight matrix that has stopped learning by the conventional learning method,
As a result of learning the pattern, I was able to escape from the state where learning stopped and complete learning correctly.

【図面の簡単な説明】[Brief explanation of drawings]

第1図及び第10図は第1の発明の実施例、を示すブロ
ック図、第2図及び第11図は第2の発明の実施例を示
す図、第3図及び第12図は第3の発明の実施例を示す
ブロック図、第4図及び第13図は第4の発明の実施例
を示すブロック図、第5図及び第14図は第5の発明の
実施例を示すブロック図、第6図及び第15図は第6の
発明の実施例を示すブロック図である。第7図は、シグ
モイド関数の出力値に上限値、下限値を与えて、出力値
が1やOに近くなるこを防ぐ効果を示す図である。第8
図は、シグモイド関数の傾き制御のパラメータを変更し
て、シグモイド関数の出力値が1やOに近くなることを
防ぐ効果を示す図である。第9図は、シグモイド関数の
出力値のレンジを変更して、出力値が1やOに近くなる
ことを防ぐ効果を示す図である。 図において、 102、202.302.402.502.602.1
002.1102.1202.1302゜1402、1
502・・・入力層記憶部、103、203.303.
403.503.603.1003.1103.120
3.1303゜1403、1503・・・マトリクス積
演算部、104、204.304.404.504.6
04.1004.1104.1204k。 1304、1404.1504・S関数部、105、2
05.305.405.505.605・・・中間層記
憶部、106、206.306.406.606・・・
マトリクス積演算部、107、207.307.407
.607.607・・・S関数部、108、208.3
08.408.508.608.1005.1105.
1205.1305゜1405、1505・・・出力層
記憶部、109、209.309.409.509.6
09.1009.1109.1209.1309゜14
09、1509・・・教師信号記憶部、110、210
.310.410.510.610.1010.111
0.1210.1310゜1410、1510・・・誤
差計算部、111、211.311.411.511.
611.1011.1111.1211.1311゜1
411、1511・・・マトリクス記憶部、112、2
12.312.412.512.612・・・マトリク
ス国分、113、213.313.413.513.6
13.1013.1113.1213.1313゜14
13、1513・・・マトリクス修正部、114、21
4.314.414.514.614・・・誤差逆伝搬
部、115、215.315.415.515.615
・・・マトリクス修正部、116、316.516.1
016.1116.1216.1316.1416.1
516・・・マトリクス修正量計算部、 216、416.616・・・マトリクス修正量推定部
、117、217.317.417.517.617.
1017.1117.1217.131?。 1417、1517・・・入力層修正部、118、21
8・・・中間層修正部、 119、219.1018.1118・・・出力層修正
部、318、318.418.419.1218.13
18・・・UO修正部、518、519.618.61
9.1418.1518・・・レンジ修正部。
1 and 10 are block diagrams showing an embodiment of the first invention, FIGS. 2 and 11 are block diagrams showing an embodiment of the second invention, and FIGS. 3 and 12 are block diagrams showing an embodiment of the second invention. FIG. 4 and FIG. 13 are block diagrams showing an embodiment of the fourth invention, FIGS. 5 and 14 are block diagrams showing an embodiment of the fifth invention, FIGS. 6 and 15 are block diagrams showing an embodiment of the sixth invention. FIG. 7 is a diagram showing the effect of giving upper and lower limits to the output value of the sigmoid function to prevent the output value from approaching 1 or O. 8th
The figure shows the effect of preventing the output value of the sigmoid function from becoming close to 1 or O by changing the parameters for controlling the slope of the sigmoid function. FIG. 9 is a diagram showing the effect of changing the range of the output value of the sigmoid function to prevent the output value from becoming close to 1 or O. In the figure, 102, 202.302.402.502.602.1
002.1102.1202.1302゜1402, 1
502...input layer storage unit, 103, 203.303.
403.503.603.1003.1103.120
3.1303゜1403, 1503... Matrix product operation section, 104, 204.304.404.504.6
04.1004.1104.1204k. 1304, 1404.1504・S function part, 105, 2
05.305.405.505.605...Middle layer storage section, 106, 206.306.406.606...
Matrix product calculation unit, 107, 207.307.407
.. 607.607...S function part, 108, 208.3
08.408.508.608.1005.1105.
1205.1305°1405, 1505... Output layer storage section, 109, 209.309.409.509.6
09.1009.1109.1209.1309゜14
09, 1509...Teacher signal storage unit, 110, 210
.. 310.410.510.610.1010.111
0.1210.1310°1410, 1510...Error calculation section, 111, 211.311.411.511.
611.1011.1111.1211.1311゜1
411, 1511... Matrix storage section, 112, 2
12.312.412.512.612...Matrix Kokubu, 113, 213.313.413.513.6
13.1013.1113.1213.1313゜14
13, 1513... Matrix correction section, 114, 21
4.314.414.514.614...Error back propagation unit, 115, 215.315.415.515.615
...Matrix correction section, 116, 316.516.1
016.1116.1216.1316.1416.1
516... Matrix correction amount calculation unit, 216, 416.616... Matrix correction amount estimation unit, 117, 217.317.417.517.617.
1017.1117.1217.131? . 1417, 1517...input layer correction unit, 118, 21
8... Intermediate layer correction unit, 119, 219.1018.1118... Output layer correction unit, 318, 318.418.419.1218.13
18...UO correction department, 518, 519.618.61
9.1418.1518...Range correction section.

Claims (6)

【特許請求の範囲】[Claims] (1)逆伝搬法により学習を行う入力層、出力層を含む
複数の層からなるフィードフォワード形の神経回路網と
、 神経回路網内で用いられる重みマトリクスの修正量の総
和を計算した結果と、出力層の信号と教師信号との誤差
の評価量とから学習が停止しているか否か判定する手段
と、 学習が停止している場合に各層からの出力信号を修正す
る手段とを備えたことを特徴とするパターン学習装置。
(1) A feedforward neural network consisting of multiple layers including an input layer and an output layer that performs learning using the back propagation method, and the results of calculating the total amount of modification of the weight matrix used within the neural network. , means for determining whether learning has stopped based on the evaluation amount of error between the output layer signal and the teacher signal, and means for correcting the output signal from each layer when learning has stopped. A pattern learning device characterized by:
(2)逆伝搬法により学習を行う入力層、出力層を含む
複数の層からなるフィードフォワード形の神経回路網と
、 各層の信号から計算した神経回路網内で用いられる重み
マトリクスの修正量の評価値と、出力層の信号と教師信
号との誤差の評価量とから学習が停止しているか否かを
判定する手段と、 学習が停止している場合に各層からの出力信号を修正す
る手段とを備えたことを特徴とするパターン学習装置。
(2) A feedforward neural network consisting of multiple layers including an input layer and an output layer that performs learning using the back propagation method, and the amount of modification of the weight matrix used within the neural network calculated from the signals of each layer. means for determining whether learning has stopped based on the evaluation value and the evaluation amount of error between the output layer signal and the teacher signal; and means for correcting the output signal from each layer when learning has stopped. A pattern learning device comprising:
(3)逆伝搬法により学習を行う入力層、出力を含む複
数の層からなるフィードフォワード形の神経回路網と、 神経回路内で用いられるマトリクスの修正量の総和を計
算した結果と、出力層の信号と教師信号との誤差の評価
量とから学習が停止しているか否か判定する手段と、 学習が停止している場合に、入力層の信号を修正する手
段と、入力層以外の層での出力信号をもとめるシグモイ
ド関数の傾き制御パラメータを修正する手段とを備えた
ことを特徴とするパターン学習装置。
(3) A feedforward neural network consisting of multiple layers including an input layer and an output that performs learning using the back-propagation method, the results of calculating the sum of the correction amounts of the matrix used in the neural network, and the output layer. means for determining whether learning has stopped based on the evaluation amount of error between the signal of the input layer and the teacher signal; 1. A pattern learning device comprising: means for modifying a slope control parameter of a sigmoid function for obtaining an output signal.
(4)逆伝搬法により学習を行う入力層、出力を含む複
数の層からなるフィードフォワード形の神経回路網と、 各層の信号から計算した神経回路網内で用いられる重み
マトリクスの修正量の評価値と、出力層の信号と教師信
号との誤差の評価量とから学習が停止しているか否かを
判定する手段と、 学習が停止している場合に、入力層の信号を修正する手
段と、 入力層以外の層での出力信号をもとめるシグモイド関数
の傾き制御パラメータを修正する手段とを備えたことを
特徴とするパターン学習装置。
(4) Evaluation of a feedforward neural network consisting of multiple layers including an input layer and an output that performs learning using the back propagation method, and the amount of modification of the weight matrix used within the neural network calculated from the signals of each layer. a means for determining whether learning has stopped based on the value and an evaluation amount of error between the output layer signal and the teacher signal; and a means for correcting the input layer signal when learning has stopped. , means for modifying a slope control parameter of a sigmoid function for obtaining an output signal in a layer other than the input layer.
(5)逆伝搬法により学習を行う入力層、出力を含む複
数の層からなるフィードフォワード形の神経回路網と、 神経回路内で用いられるマトリクスの修正量の総和を計
算した結果と、出力層の信号と教師信号との誤差の評価
量とから学習が停止しているか否か判定する手段と、 学習が停止している場合に、入力層の信号を修正する手
段と、 入力層以外の層での出力信号をもとめるシグモイド関数
の最大値、最小値間のレンジを修正する手段とを備えた
ことを特徴とするパターン学習装置。
(5) A feedforward neural network consisting of multiple layers including an input layer and an output that performs learning using the back propagation method, the results of calculating the sum of the correction amounts of matrices used in the neural network, and the output layer. a means for determining whether learning has stopped based on the evaluation amount of error between the signal of the input layer and the teacher signal; a means for correcting the signal of the input layer when the learning has stopped; and a layer other than the input layer. 1. A pattern learning device comprising means for correcting a range between a maximum value and a minimum value of a sigmoid function for obtaining an output signal.
(6)逆逆伝搬法により学習を行う入力層、出力を含む
複数の層からなるフィードフォワード形の神経回路網と
、 各層の信号から計算した神経回路網内で用いられる重み
マトリクスの修正量の評価値と、出力層の信号と教師信
号との誤差の評価量とから学習が停止しているか否かを
判定する手段と、 学習が停止している場合に、入力層の信号を修正する手
段と、 入力層以外の層での出力信号をもとめるシグモイド関数
の最大値、最小値間のレンジを修正する手段とを備えた
ことを特徴とするパターン学習装置。
(6) A feedforward neural network consisting of multiple layers including an input layer and an output that performs learning using the backpropagation method, and the amount of modification of the weight matrix used within the neural network calculated from the signals of each layer. means for determining whether learning has stopped based on the evaluation value and the evaluation amount of error between the output layer signal and the teacher signal; and means for correcting the input layer signal when learning has stopped. A pattern learning device comprising: and means for correcting a range between a maximum value and a minimum value of a sigmoid function for determining an output signal in a layer other than the input layer.
JP1094563A 1989-01-31 1989-04-13 Pattern learning device Expired - Lifetime JP2536146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1094563A JP2536146B2 (en) 1989-01-31 1989-04-13 Pattern learning device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1-23235 1989-01-31
JP2323589 1989-01-31
JP1094563A JP2536146B2 (en) 1989-01-31 1989-04-13 Pattern learning device

Publications (2)

Publication Number Publication Date
JPH02277180A true JPH02277180A (en) 1990-11-13
JP2536146B2 JP2536146B2 (en) 1996-09-18

Family

ID=26360557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1094563A Expired - Lifetime JP2536146B2 (en) 1989-01-31 1989-04-13 Pattern learning device

Country Status (1)

Country Link
JP (1) JP2536146B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313559A (en) * 1991-02-15 1994-05-17 Hitachi, Ltd. Method of and system for controlling learning in neural network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102866179B (en) * 2012-09-13 2014-06-18 重庆大学 Online recognition and inhibition method based on non-target interference smell in electronic nose of artificial intelligent learning machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313559A (en) * 1991-02-15 1994-05-17 Hitachi, Ltd. Method of and system for controlling learning in neural network

Also Published As

Publication number Publication date
JP2536146B2 (en) 1996-09-18

Similar Documents

Publication Publication Date Title
Yu et al. Levenberg–marquardt training
KR0185757B1 (en) Learning method of choas circular neural net
Anderson et al. Reinforcement learning with modular neural networks for control
JPH02277180A (en) Pattern learning device
Parsons et al. Backpropagation and regression: comparative utility for neuropsychologists
JP2540654B2 (en) Learning device for neural network
JPH05101028A (en) Integral decision method for plural feature quantity
CN112906291A (en) Neural network-based modeling method and device
JP3262340B2 (en) Information processing device
JP2606317B2 (en) Learning processing device
JP2699622B2 (en) Pattern learning device
JP2979562B2 (en) Learning processing device
JP3412700B2 (en) Neural network type pattern learning method and pattern processing device
JP3273568B2 (en) Hierarchical neural network and learning method thereof
JPH04102163A (en) Learning processing system for network constitutive data processor
JPH06243273A (en) Learning system for neural network
JPH06131482A (en) Analog neural network circuit
JPH11175494A (en) Neural network
JPH0318966A (en) Learning system for neural net
JP3101742B2 (en) Minimum detector
JPH02114389A (en) Pattern associative storage
JPH0737016A (en) Connection coefficient code processing method for signal processing circuit network and device therefor
JPH0675935A (en) Multivariable system construction method and its device
CN111814955A (en) Method and apparatus for quantizing neural network model, and computer storage medium
JP2573363B2 (en) Signal matching device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070708

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080708

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 13