JPH11259445A - Learning device - Google Patents

Learning device

Info

Publication number
JPH11259445A
JPH11259445A JP10062998A JP6299898A JPH11259445A JP H11259445 A JPH11259445 A JP H11259445A JP 10062998 A JP10062998 A JP 10062998A JP 6299898 A JP6299898 A JP 6299898A JP H11259445 A JPH11259445 A JP H11259445A
Authority
JP
Japan
Prior art keywords
learning
input
output
neural network
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10062998A
Other languages
Japanese (ja)
Inventor
Norihiro Fujioka
岡 典 宏 藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10062998A priority Critical patent/JPH11259445A/en
Publication of JPH11259445A publication Critical patent/JPH11259445A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To speedily and precisely execute learning for giving desired output to unknown data. SOLUTION: A plurality of inputs to a learning object are inputted from a signal input means 1 as learning data and an input division means 2 constituted of a plurality of area division means divides the data group into respective areas so as to weight them. A neural network is operated by outputs from the input.division means 2 and a weight updating means 6 obtains the change quantity of the weight coefficient of the neural network so as to update the weight coefficient from error quantity between the output of the neural network and a teacher signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、非線形でパラメータが
未知な対象の特性をその対象の入出力データからニュー
ラルネットワーク(N.N)で学習する学習装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning device for learning the characteristics of a target whose parameters are non-linear and unknown from input / output data of the target by a neural network (NN).

【0002】[0002]

【従来の技術】以下、図面を参照しながら、従来の学習
装置について説明する。図4は、従来の概略図を示すも
のである。図4において、1は信号入力手段、3はN.
N演算手段、4は教師信号出力手段、5は誤差算出手
段、6は重み更新手段である。
2. Description of the Related Art A conventional learning device will be described below with reference to the drawings. FIG. 4 shows a conventional schematic diagram. In FIG.
N calculating means, 4 is a teacher signal output means, 5 is an error calculating means, and 6 is a weight updating means.

【0003】図5は、図4で構成されているN.N演算
手段の説明図である。図5に示すように、m入力p出力
の3層ニューラルネットワークであり、中間層素子数n
で、中間層の出力関数はシグモイド型関数、入出力層の
出力関数は線形関数である。以後、図5に示す3層ニュ
ーラルネットワークを例として従来例を説明する。
FIG. 5 is a block diagram of the N.D. FIG. 4 is an explanatory diagram of N calculating means. As shown in FIG. 5, it is a three-layer neural network having m inputs and p outputs, and the number of intermediate layer elements is n
The output function of the hidden layer is a sigmoid function, and the output function of the input / output layer is a linear function. Hereinafter, a conventional example will be described using the three-layer neural network shown in FIG. 5 as an example.

【0004】図4において、前記信号入力手段1では学
習対象への複数の入力を(0,1)の範囲に正規化し
て、前記N.N演算手段3に入力する。N.N演算手段
3は前記信号入力手段から入されたデータにより、ニュ
ーラルネットワーク出力が算出される。
In FIG. 4, the signal input means 1 normalizes a plurality of inputs to a learning target into a range of (0, 1), and N is input to the N operation means 3. N. The N calculating means 3 calculates a neural network output based on the data input from the signal input means.

【0005】まず、ニューラルネットワークへの入力を
X1、X2、X3、・・・、Xmとすると、中間層のj番目
の素子への入力Ujは、閾値をθwj、i番目の入力層素
子からj番目の中間層素子への結合係数Wijとして、
First, assuming that the inputs to the neural network are X1, X2, X3,..., Xm, the input Uj to the j-th element in the intermediate layer has a threshold value θwj and j from the i-th input layer element. As the coupling coefficient Wij to the th intermediate element,

【数1】 と算出される。ここで、W0j=θwj、X0=1としてい
る。
(Equation 1) Is calculated. Here, W0j = θwj and X0 = 1.

【0006】中間層のj番目の素子の出力Hjは、The output Hj of the j-th element in the intermediate layer is

【数2】 となる。(Equation 2) Becomes

【0007】ただし、However,

【数3】 となるシグモイド型関数である。(Equation 3) Is a sigmoid function.

【0008】次に出力層のk番目の素子への入力Okは、
閾値をθvk、j番目の中間層素子から、k番目の出力層素
子への結合係数Vjkすると、
Next, the input Ok to the k-th element in the output layer is
When the threshold is θvk and the coupling coefficient Vjk from the j-th intermediate layer element to the k-th output layer element is:

【数4】 と算出される。ここで、V0k=θvk、H0=1としてい
る。
(Equation 4) Is calculated. Here, it is assumed that V0k = θvk and H0 = 1.

【0009】出力層のk番目の素子の出力Ykは、The output Yk of the k-th element in the output layer is

【数5】 と算出される。(Equation 5) Is calculated.

【0010】次に教師信号出力手段4では、学習対象の
出力が(0,1)で正規化されて、教師信号として出力
され、誤差算出手段5で前記N.N演算手段3の出力Y
と教師信号dとの2乗誤差和、
Next, in the teacher signal output means 4, the output of the learning target is normalized by (0, 1) and output as a teacher signal. Output Y of N calculating means 3
Sum of the squared error of the teacher signal d and

【数6】 が算出される。(Equation 6) Is calculated.

【0011】重み更新手段6では、前記2乗誤差和Eを
誤差関数として、バックプロパゲーション法によりニュ
ーラルネットワークの重み係数の変更量が計算され、結
合係数を算出する。
The weight updating means 6 calculates the amount of change of the weight coefficient of the neural network by the back propagation method using the square error sum E as an error function, and calculates the coupling coefficient.

【0012】i番目の入力層素子からj番目の中間層素
子への結合係数Wijは、
The coupling coefficient Wij from the ith input layer element to the jth intermediate element is

【数7】 と更新され、j番目の中間層素子から、k番目出力層素子
への結合係数Vjkは、
(Equation 7) And the coupling coefficient Vjk from the j-th intermediate element to the k-th output element is

【数8】 と更新される。上記(数7)、(数8)のμは学習レー
トと呼ばれる正の定数、αは加速パラメータと呼ばれる
正の定数であり、ΔW'ij、ΔV'jkは前回の学習におけ
る重み係数の変更量である。
(Equation 8) Is updated. In Equations (7) and (8), μ is a positive constant called a learning rate, α is a positive constant called an acceleration parameter, and ΔW′ij and ΔV′jk are weight coefficient change amounts in previous learning. It is.

【0013】以上のようにして、重みの更新を繰り返す
ことにより、誤差を小さくしてゆき、誤差が十分小さく
なると、ニューラルネットワーク出力が望ましい値にな
ったものとして学習を終了する。
By repeating the updating of the weights as described above, the error is reduced, and when the error becomes sufficiently small, the learning is terminated assuming that the output of the neural network has become a desired value.

【0014】[0014]

【発明が解決しようとする課題】しかしながら前記に示
すような構成では、学習対象が複雑な非線形性を有する
場合、大量なデータを用いて学習する必要があり、ま
た、未知のデータに対して望ましい出力をだすように学
習させる場合でも、以前にに学習したデータも用いて新
たに学習させる必要があるため、時間がかかるという課
題を有していた。
However, in the configuration described above, when the learning target has a complicated nonlinearity, it is necessary to use a large amount of data for learning, and it is desirable for unknown data. Even in the case of learning so as to produce an output, there is a problem that it takes time because it is necessary to perform new learning using previously learned data.

【0015】[0015]

【課題を解決するための手段】前記問題点を解決するた
めに本発明の学習装置は、図1、図3に示すように、学
習対象への複数の入力を学習データとして入力する信号
入力手段と、前記信号入力手段から入力されたデータセ
ットをそれぞれ領域毎に分割して重みをつける複数の領
域分割手段で構成された入力分割手段と、前記入力分割
手段からの出力によりニューラルネットワークの演算を
行うN.N演算手段と、学習対象の出力を教師信号とし
て出力する教師信号出力手段と、前記N.N演算手段の
出力と前記教師信号との誤差量を求める誤差算出手段
と、前記入力分割手段からの出力と誤差算出手段の出力
から前記N.N演算手段のニューラルネットワークの重
み係数の変更量を求めて、重み係数を更新する重み更新
手段とを有するように構成したものである。
In order to solve the above problems, a learning apparatus according to the present invention comprises a signal input means for inputting a plurality of inputs to a learning target as learning data as shown in FIGS. And an input dividing means composed of a plurality of area dividing means for dividing a data set inputted from the signal input means for each area and assigning weights thereto, and calculating a neural network by an output from the input dividing means. Do N. N operation means; teacher signal output means for outputting the output of the learning target as a teacher signal; N calculating means for calculating an error amount between the output of the calculating means and the teacher signal; and the N.N. And a weight updating means for updating the weighting coefficient by obtaining the change amount of the weighting coefficient of the neural network of the N calculating means.

【0016】更に、前記入力分割手段で領域毎に分割さ
れたデータの大さにより、前記重み更新手段で更新する
重み係数を選択する更新重み選択手段を有するように構
成した学習装置である。この発明によれば、学習対象が
複雑な非線形性を有する場合でも、学習領域を分けて徐
々に学習することが可能であり、また、未知のデータに
対する学習でも以前にに学習したデータも用いて新たに
学習させる必要がなく、高速に精度良く学習させること
ができるという作用を有する。
Further, there is provided a learning apparatus comprising an update weight selecting means for selecting a weight coefficient to be updated by the weight updating means according to the size of the data divided for each area by the input dividing means. According to the present invention, even when the learning target has a complicated nonlinearity, it is possible to divide the learning region and perform learning gradually, and also to perform learning on unknown data by using previously learned data. There is no need for new learning, and there is an effect that learning can be performed quickly and accurately.

【0017】[0017]

【発明の実施の形態】本発明の請求項1に記載の発明
は、学習対象の特性をニューラルネットワークに学習さ
せる学習装置であって、学習対象への複数の入力を学習
データとして入力する信号入力手段と、前記信号入力手
段から入力されたデータセットをそれぞれ領域毎に分割
して重みをつける複数の領域分割手段で構成された入力
分割手段と、前記入力分割手段からの出力によりニュー
ラルネットワークの演算を行うN.N演算手段と、学習
対象の出力を教師信号として出力する教師信号出力手段
と、前記N.N演算手段の出力と前記教師信号との誤差
量を求める誤差算出手段と、前記入力分割手段からの出
力と誤差算出手段の出力から前記N.N演算手段のニュ
ーラルネットワークの重み係数の変更量を求めて、重み
係数を更新する重み更新手段を有することを特徴とした
ものであり、複雑な非線形制を有する学習対象でも、領
域毎に分けて徐々に学習することができ、高速、かつ精
度良く学習することができる作用を有する。また、隣接
する領域の境界において精度差のない学習を行うことが
できる作用を有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention is a learning apparatus for learning a characteristic of a learning target in a neural network, wherein a plurality of inputs to the learning target are input as learning data. Means, a data set input from the signal input means, an input dividing means comprising a plurality of area dividing means for dividing and weighting the data set for each area, and a neural network operation based on an output from the input dividing means. N. N operation means; teacher signal output means for outputting the output of the learning target as a teacher signal; N calculating means for calculating an error amount between the output of the calculating means and the teacher signal; and the N.N. N is a feature of having a weight updating means for calculating the amount of change of the weight coefficient of the neural network of the arithmetic means and updating the weight coefficient. Even if the learning target has a complicated non-linear system, it is divided into regions. It has the effect of being able to learn gradually and to learn at high speed and with high accuracy. In addition, there is an effect that learning with no accuracy difference can be performed at the boundary between adjacent regions.

【0018】本発明の請求項2に記載の発明は、前記請
求項1の発明において、前記入力分割手段で領域毎に分
割されたデータの大きさによって前記重み更新手段で更
新する重み係数を選択する更新重み選択手段を有するこ
とを特徴としたものであり、他の領域の学習状態を保持
したまま、特定の領域の学習を行うことができるため、
データ数の増加を防ぐことができて、高速に、かつ精度
よく学習することができる作用を有する。
According to a second aspect of the present invention, in the first aspect of the present invention, a weight coefficient to be updated by the weight updating means is selected according to the size of the data divided for each area by the input dividing means. It is characterized by having an update weight selecting means to perform learning of a specific area while holding a learning state of another area,
This has the effect of preventing an increase in the number of data and enabling fast and accurate learning.

【0019】(実施の形態1)以下、本発明の実施の形
態について、図1〜図3を用いて説明する。図1は、本
発明請求項1の学習装置の一実施例を示すものである。
図1において、1は信号入力手段、2は入力分割手段、
211〜2qrは領域分割手段、3はN.N演算手段、
4は教師信号出力手段、5は誤差算出手段、6は重み更
新手段である。
(Embodiment 1) An embodiment of the present invention will be described below with reference to FIGS. FIG. 1 shows an embodiment of the learning apparatus according to claim 1 of the present invention.
In FIG. 1, 1 is a signal input means, 2 is an input dividing means,
Reference numerals 211 to 2qr denote area dividing means, and 3 denotes N.V. N operation means,
4 is a teacher signal output unit, 5 is an error calculation unit, and 6 is a weight update unit.

【0020】図1において、前記信号入力手段1では学
習対象への複数の入力を(0,1)の範囲に正規化し
て、前記入力分割手段2に入力する。ここで、前記入力
分割手段2への入力をI1、I2、...、Iqとする。
In FIG. 1, the signal input means 1 normalizes a plurality of inputs to a learning target into a range of (0, 1) and inputs the result to the input dividing means 2. Here, inputs to the input dividing means 2 are I1, I2,. . . , Iq.

【0021】前記入力分割手段2では、前記信号入力手
段からの入力を複数の領域分割手段211〜2qrによ
り、それぞれ複数の領域に分割して重みをつける。図2
に入力I1の入力範囲をr個の領域に分割して重み付け
した場合の例を示す。図2のように入力I1がある値a
をとると、領域分割手段211〜21rを経た出力I11
〜I1rは、aが属す領域の出力I12、I13のみ値をと
り、その他の出力I11、I14〜I1rは0となる。
In the input dividing means 2, the input from the signal input means is divided into a plurality of areas by a plurality of area dividing means 211 to 2qr and weighted. FIG.
Shows an example in which the input range of the input I1 is divided into r regions and weighted. As shown in FIG.
, The output I11 passing through the area dividing means 211 to 21r is obtained.
... I1r take values only for the outputs I12 and I13 of the area to which a belongs, and the other outputs I11 and I14 to I1r become zero.

【0022】なお、入力I2、I3、...Iqの領域分
割、重み付けも入力I1と同様である。但し、領域の分
割数は各々異なっていてもよいし、領域分割、重み付け
をしない入力があってもよい。次に前記入力分割手段2
の出力を入力として前記N.N演算手段3で、ニューラ
ルネットワーク演算が行われ、ニューラルネットワーク
出力が算出される。入力数m、出力数p、中間層素子数
nの3層ニューラルネットワークとし、中間層素子数n
で、中間層の出力関数はシグモイド型関数、入出力層の
出力関数は線形関数とすると、従来例と同様に前記(数
1)から前記(数5)からニューラルネットワーク出力
が算出される。教師信号出力手段4では学習対象の出力
を教師信号として出力し、誤差算出手段5で前記N.N
演算手段3の出力と前記教師信号との誤差量を従来例と
同様に前記(数6)から求める。次に前記入力分割手段
2からの出力と誤差算出手段5で求めた誤差量から前記
N.N演算手段3のニューラルネットワークの重み係数
の変更量を求めて、従来例と同様に前記(数7)、(数
8)により重み係数を重み更新手段6で更新する。
The inputs I2, I3,. . . The region division and weighting of Iq are the same as the input I1. However, the number of regions may be different from each other, or there may be an input that is not divided and weighted. Next, the input dividing means 2
Of the above N. The N operation means 3 performs a neural network operation and calculates an output of the neural network. The number of inputs is m, the number of outputs is p, and the number of hidden elements is n.
Assuming that the output function of the intermediate layer is a sigmoid function and the output function of the input / output layer is a linear function, the neural network output is calculated from (Equation 1) to (Equation 5) as in the conventional example. The teacher signal output means 4 outputs the output of the learning target as a teacher signal, and the error calculation means 5 outputs the N.P. N
The amount of error between the output of the calculating means 3 and the teacher signal is obtained from (Equation 6) in the same manner as in the conventional example. Next, from the output from the input dividing means 2 and the error amount obtained by the error calculating means 5, the N.P. The amount of change of the weighting factor of the neural network of the N calculating means 3 is obtained, and the weighting coefficient is updated by the weight updating means 6 according to (Equation 7) and (Equation 8) as in the conventional example.

【0023】なお、前記ニューラルネットワークは、4
層以上の構成でもよい。また、中間層、および出力層出
力関数は、シグモイド以外の連続関数でもよい。以上に
より、複雑な非線形制を有する学習対象でも、領域毎に
分けて徐々に学習することができ、高速、かつ精度良く
学習することができる。また、隣接する領域の境界にお
いて精度差のない学習を行うことができる。
The neural network has 4
It may have a configuration of more than layers. Further, the intermediate layer and output layer output functions may be continuous functions other than sigmoid. As described above, even a learning target having a complicated non-linear system can be gradually learned for each region, and can be learned at high speed and with high accuracy. Further, it is possible to perform learning without a difference in accuracy at the boundary between adjacent regions.

【0024】(実施の形態2)図3は、本発明請求項2
の学習装置の一実施例を示すものである。図3におい
て、1は信号入力手段、2は入力分割手段、211〜2
qrは領域分割手段、3はN.N演算手段、4は教師信
号出力手段、5は誤差算出手段、6は重み更新手段、3
1は更新重み選択手段である。
(Embodiment 2) FIG. 3 shows a second embodiment of the present invention.
1 shows an embodiment of the learning device of FIG. In FIG. 3, 1 is a signal input means, 2 is an input dividing means, and 211 to 2
qr is the area dividing means, and 3 is the N.N. N calculating means, 4 is a teacher signal output means, 5 is an error calculating means, 6 is a weight updating means, 3
1 is an update weight selection means.

【0025】図3において、前記信号入力手段1では学
習対象への複数の入力を(0,1)の範囲に正規化し
て、前記入力分割手段2に入力する。前記入力分割手段
2では、前記信号入力手段からの入力を複数の領域分割
手段211〜2qrにより、それぞれ複数の領域に分割
して重みをつける。次に前記入力分割手段2の出力を入
力として前記N.N演算手段3で、ニューラルネットワ
ーク演算が行われ、ニューラルネットワーク出力が算出
される。入力数m、出力数p、中間層素子数nの3層ニ
ューラルネットワークとし、中間層素子数nで、中間層
の出力関数はシグモイド型関数、入出力層の出力関数は
線形関数とすると、前記請求項1と同様に前記(数1)
から前記(数5)からニューラルネットワーク出力が算
出される。教師信号出力手段4では学習対象の出力を教
師信号として出力し、誤差算出手段5で前記N.N演算
手段3の出力と前記教師信号との誤差量を前記(数6)
から求める。
In FIG. 3, the signal input means 1 normalizes a plurality of inputs to a learning target into a range of (0, 1) and inputs the normalized input to the input dividing means 2. In the input division unit 2, the input from the signal input unit is divided into a plurality of regions by a plurality of region division units 211 to 2qr and weighted. Next, the output of the input dividing means 2 is used as an input and the N.P. The N operation means 3 performs a neural network operation and calculates an output of the neural network. Assuming a three-layer neural network having the number of inputs m, the number of outputs p, and the number n of hidden layers, the number of hidden elements is n, the output function of the hidden layer is a sigmoid function, and the output function of the input / output layer is a linear function. (Equation 1) as in claim 1.
The neural network output is calculated from the above (Equation 5). The teacher signal output means 4 outputs the output of the learning target as a teacher signal, and the error calculation means 5 outputs the N.P. The error amount between the output of the N calculating means 3 and the teacher signal is calculated by
Ask from.

【0026】次に更新重み選択手段31で、前記入力分
割手段2の出力から前記N.N演算手段3の重み係数の
なかで、重みを更新する重み係数を選択する。前記図2
で示したように、前記入力分割手段2において、前記入
力分割手段2への入力I1、I2、...、Iq、それぞ
れのb分割後の出力は1つ、または2つの出力のみ値を
取る。その値の大きな方の出力が経る前記N.N演算手
段3のニューラルネットワーク内の経路上の重み係数を
選択する。
Next, the update weight selection means 31 calculates the N.P. From among the weight coefficients of the N calculating means 3, a weight coefficient for updating the weight is selected. FIG. 2
As shown in the above, in the input dividing means 2, the inputs I1, I2,. . . , Iq, and the output after each b division takes one or only two outputs. The above N.P. A weight coefficient on a path in the neural network of the N calculating means 3 is selected.

【0027】次に、前記入力分割手段2からの出力と誤
差算出手段5で求めた誤差量から、前記更新重み選択手
段31で選択した重み係数の変更量を求めて、従来例と
同様に前記(数7)、(数8)により重み係数を重み更
新手段6で更新する。なお、前記ニューラルネットワー
クは、4層以上の構成でもよい。また、中間層、および
出力層出力関数は、シグモイド以外の連続関数でもよ
い。
Next, from the output from the input dividing means 2 and the error amount obtained by the error calculating means 5, the amount of change of the weight coefficient selected by the update weight selecting means 31 is obtained. The weight coefficient is updated by the weight updating means 6 according to (Equation 7) and (Equation 8). The neural network may have a configuration of four or more layers. Further, the intermediate layer and output layer output functions may be continuous functions other than sigmoid.

【0028】以上により、他の領域の学習状態を保持し
たまま、特定の領域の学習を行うことができるため、デ
ータ数の増加を防ぐことができて、高速に、かつ精度よ
く学習することができる。
As described above, since the learning of a specific area can be performed while the learning state of another area is maintained, an increase in the number of data can be prevented, and the learning can be performed at high speed and with high accuracy. it can.

【0029】[0029]

【発明の効果】以上のように本発明の請求項1は、入力
データを領域ごとに分割し、重み付けすることにより、
学習対象が複雑な非線形性を有する場合でも、学習領域
を分けて徐々に学習することが可能であり、高速に精度
良く学習させることができる。また、隣接する領域の境
界において精度差のない学習を行うことができる。
As described above, according to the first aspect of the present invention, the input data is divided into regions and weighted.
Even when the learning target has a complicated nonlinearity, learning can be performed gradually by dividing the learning region, and learning can be performed at high speed and with high accuracy. Further, it is possible to perform learning without a difference in accuracy at the boundary between adjacent regions.

【0030】請求項2では、さらに入力データが属する
領域の学習精度に最も影響を及ぼす重み係数のみを選択
して、重みを更新することにより、他の領域の学習状態
を保持したまま、特定の領域の学習を行うことができる
ため、データ数の増加を防ぐことができて、高速に、か
つ精度よく学習することができる。
According to the second aspect of the present invention, by selecting only the weighting coefficient which has the greatest influence on the learning accuracy of the area to which the input data belongs, and updating the weight, a specific state can be maintained while maintaining the learning state of the other area. Since the learning of the region can be performed, an increase in the number of data can be prevented, and the learning can be performed quickly and accurately.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の学習装置の実施の形態1における概略
ブロック図
FIG. 1 is a schematic block diagram of a learning apparatus according to a first embodiment of the present invention.

【図2】本発明の学習装置の実施の形態1、2における
入力分割手段の説明図
FIG. 2 is an explanatory diagram of an input dividing unit in Embodiments 1 and 2 of the learning device of the present invention.

【図3】本発明の学習装置の実施の形態2における概略
ブロック図
FIG. 3 is a schematic block diagram of a learning device according to a second embodiment of the present invention.

【図4】従来の学習装置の概略ブロック図FIG. 4 is a schematic block diagram of a conventional learning device.

【図5】図4のニューラルネットワークの説明図FIG. 5 is an explanatory diagram of the neural network of FIG. 4;

【符号の説明】[Explanation of symbols]

1 信号入力手段 2 入力分割手段 211〜2qr 領域分割手段 3 N.N演算手段 31 更新重み選択手段 4 教師信号出力手段 5 誤差算出手段 6 重み更新手段 1 signal input means 2 input division means 211-2qr area division means 3 N calculation means 31 update weight selection means 4 teacher signal output means 5 error calculation means 6 weight update means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 学習対象の特性をニューラルネットワー
クに学習させる学習装置であって、 学習対象への複数の入力を学習データとして入力する信
号入力手段と、 前記信号入力手段から入力されたデータセットをそれぞ
れ領域毎に分割して重みをつける複数の領域分割手段で
構成された入力分割手段と、 前記入力分割手段からの出力によりニューラルネットワ
ークの演算を行うN.N演算手段と、 学習対象の出力を教師信号として出力する教師信号出力
手段と、 前記N.N演算手段の出力と前記教師信号との誤差量を
求める誤差算出手段と、 前記入力分割手段からの出力と誤差算出手段の出力から
前記N.N演算手段のニューラルネットワークの重み係
数の変更量を求めて、重み係数を更新する重み更新手段
とを有することを特徴とする学習装置。
1. A learning device for learning a characteristic of a learning target in a neural network, comprising: signal input means for inputting a plurality of inputs to the learning target as learning data; and a data set input from the signal input means. An input dividing means constituted by a plurality of area dividing means for dividing and weighting each area, and performing a neural network operation based on an output from the input dividing means. N operation means; teacher signal output means for outputting an output of a learning target as a teacher signal; N calculating means for calculating an error amount between the output of the N calculating means and the teacher signal; and the N.N. A learning apparatus comprising: a weight updating unit that obtains a change amount of a weight coefficient of a neural network of an N operation unit and updates the weight coefficient.
【請求項2】 前記請求項1の発明において、前記入力
分割手段で領域毎に分割されたデータの大きさにより、
前記重み更新手段で更新する重み係数を選択する更新重
み選択手段を有することを特徴とする請求項1記載の学
習装置。
2. The method according to claim 1, wherein the size of the data divided for each area by said input dividing means is
2. The learning device according to claim 1, further comprising an update weight selecting unit that selects a weight coefficient to be updated by the weight updating unit.
JP10062998A 1998-03-13 1998-03-13 Learning device Pending JPH11259445A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10062998A JPH11259445A (en) 1998-03-13 1998-03-13 Learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10062998A JPH11259445A (en) 1998-03-13 1998-03-13 Learning device

Publications (1)

Publication Number Publication Date
JPH11259445A true JPH11259445A (en) 1999-09-24

Family

ID=13216567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10062998A Pending JPH11259445A (en) 1998-03-13 1998-03-13 Learning device

Country Status (1)

Country Link
JP (1) JPH11259445A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604452A (en) * 2016-02-15 2018-09-28 三菱电机株式会社 Voice signal intensifier
US11430089B2 (en) 2019-07-10 2022-08-30 Samsung Electronics Co., Ltd. Image processing method and image processing system for generating a corrected image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604452A (en) * 2016-02-15 2018-09-28 三菱电机株式会社 Voice signal intensifier
US10741195B2 (en) 2016-02-15 2020-08-11 Mitsubishi Electric Corporation Sound signal enhancement device
CN108604452B (en) * 2016-02-15 2022-08-02 三菱电机株式会社 Sound signal enhancement device
US11430089B2 (en) 2019-07-10 2022-08-30 Samsung Electronics Co., Ltd. Image processing method and image processing system for generating a corrected image

Similar Documents

Publication Publication Date Title
JPH0296707A (en) Focus detector
CN105335619A (en) Collaborative optimization method applicable to parameter back analysis of high calculation cost numerical calculation model
Atencia et al. Hopfield neural networks for parametric identification of dynamical systems
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
Robbiati et al. A quantum analytical Adam descent through parameter shift rule using Qibo
Leng et al. A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems
JPH11259445A (en) Learning device
Agarkar et al. Optimization of generalized regression neural networks using PSO and GA for non-performer particles
JP2674167B2 (en) Process control method using neural network model
JPH0535710A (en) Learning method/device for neural network
JP3751982B2 (en) Learning method of neural network
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
JP3262340B2 (en) Information processing device
Sotirov et al. Generalized net model of the deep convolutional neural network
JPH0981535A (en) Learning method for neural network
JPH07105165A (en) Neural network information processor
JPH04264664A (en) Neural circuit-type pattern processor
JPH10187649A (en) Neural network
JP2936928B2 (en) Structure and learning method of neural network for elevator
Matteo et al. A quantum analytical Adam descent through parameter shift rule using Qibo
Hines A logarithmic neural network architecture for a PRA approximation
Nardini Forecasting and predicting stochastic agent-based models of cell migration with biologically-informed neural networks
JPH0336659A (en) Learning controller for hierarchical neural network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees