JPH0281161A - Signal processor - Google Patents
Signal processorInfo
- Publication number
- JPH0281161A JPH0281161A JP63232846A JP23284688A JPH0281161A JP H0281161 A JPH0281161 A JP H0281161A JP 63232846 A JP63232846 A JP 63232846A JP 23284688 A JP23284688 A JP 23284688A JP H0281161 A JPH0281161 A JP H0281161A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- value
- unit
- signal processing
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008878 coupling Effects 0.000 claims description 19
- 238000010168 coupling process Methods 0.000 claims description 19
- 238000005859 coupling reaction Methods 0.000 claims description 19
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 20
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
A 産業上の利用分野
本発明は、学習機能を有する信号処理装置に関し、特に
、所謂ニューラルネットワーク(NeuralNetw
ork :神経回路網)によるバックプロパゲーション
(Back propagation :逆伝播)学習
則に従った学習機能を有する信号処理装置に関する。DETAILED DESCRIPTION OF THE INVENTION A. Field of Industrial Application The present invention relates to a signal processing device having a learning function, and in particular to a signal processing device having a learning function.
The present invention relates to a signal processing device having a learning function according to a backpropagation (backpropagation) learning rule using a neural network.
B 発明の概要
本発明は、ニューラルネットワークによるパックプロパ
ゲーション学習則に従った学習機能を有する信号処理装
置において、学習レートを入力の値に応じて動的に変化
させることにより、高速でしかも安定した学習を行うこ
とができるようにしたものである。B. Summary of the Invention The present invention provides a signal processing device having a learning function according to the pack propagation learning rule using a neural network, by dynamically changing the learning rate according to the input value. It is designed to enable learning.
C従来の技術
ニューラルネットワークの学習アルゴリズムであるバン
クプロパゲーション学習則r rParallelDi
stributed ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号No、427.pρ
115−124等参照Jは、第3図に示すように、入力
層(31)と出力層(33)の間に中間層(32)を有
する多層構造のニューラルネットワークに適用され、高
速画像処理やパターン認識等の各種の信号処理への応用
が試みられている。C Conventional technology: Bank propagation learning rule, which is a neural network learning algorithm r rParallelDi
distributedProcessingJVol,
I The MIT Press 1986 and Nikkei Electronics August 10, 1987 issue No. 427. pρ
Reference J, such as 115-124, is applied to a multilayer neural network having an intermediate layer (32) between an input layer (31) and an output layer (33), as shown in Figure 3, and is used for high-speed image processing and Applications to various signal processing such as pattern recognition are being attempted.
すなわち、第3図に示すように、このニューラルネット
ワークを構成する各ユニット(u、)は、ユニットCu
t)からユニット(uj)への結合係数W j !で結
合されるユニッ)(Ut)の出力値0.の総和neLJ
を例えばsigmoid関数などの所定の関数rで変換
された値04を出力する。すなわち、パターンpの値が
入力層の各ユニット(u、)に人力値としてそれぞれ供
給されたとき、中間層および出力層の各ユニット(uJ
)の出力値QpJは、oDi=f j (neL@J)
′r・(Σ”ji、Ol1ji ) ””第1式なる第
1式で表される。That is, as shown in FIG. 3, each unit (u,) constituting this neural network is a unit Cu.
t) to the unit (uj) W j ! The output value of the unit (Ut) connected by 0. The sum of neLJ
is converted by a predetermined function r such as a sigmoid function, and a value 04 is output. That is, when the value of the pattern p is supplied as a human value to each unit (u,) of the input layer, each unit (uJ,) of the intermediate layer and the output layer
) is expressed by the first equation: oDi=f j (neL@J) 'r·(Σ"ji, Ol1ji) "".
そして、入力層(31)から出力層(33)へ向かって
、各ニューロンに対応するユニット(U、)の出力値を
順次計算してい(ことで、上記出力N(33)のユニッ
ト(u7)の出力flop;が得られる。Then, from the input layer (31) to the output layer (33), the output value of the unit (U,) corresponding to each neuron is calculated in sequence (thereby, the unit (u7) with the above output N (33) is calculated. The output flop; is obtained.
バックプロパゲーション学習アルゴリズムにおいては、
パターンpを与えたときの、出力Ji (33)の各ユ
ニット(uJ)の実際の出力値0□と望ましい出力値L
eJすなわち教師信号との二乗誤差の総和E。In the backpropagation learning algorithm,
Actual output value 0□ and desired output value L of each unit (uJ) of output Ji (33) when pattern p is given
eJ, that is, the sum E of squared errors with respect to the teacher signal.
を極小化するように、結合係数wjiを変える学習処理
を出力層(33)から入力層(31)へ向かって順次に
行うことにより、教師信号の値Le=に最も近い出力値
Opjが上記出力層(33)のユニッ) (u =)か
ら出力されるようになる。By sequentially performing a learning process that changes the coupling coefficient wji from the output layer (33) to the input layer (31) so as to minimize the value, the output value Opj closest to the value Le= of the teacher signal is It comes to be output from the unit ) (u=) of layer (33).
そして、二乗誤差の総和E、を小さくする結合係数wj
iの変化量Δ、wjiを、
ΔwJr CC−9Ep / 0W=i ++・・+
第3式と決めると、上記第3式は、
6w5.−η・δ2.・O,i ・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。Then, the coupling coefficient wj that reduces the sum of squared errors E
The amount of change Δ of i, wji, is ΔwJr CC-9Ep / 0W=i ++...+
If we decide on the third equation, the above third equation becomes 6w5. −η・δ2.・O,i・・・・・・・・・
It can be transformed into Equation 4 (see the above-mentioned document for this process).
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δpjはユニット(U、)のもつ誤差値である。Here, η is a learning rate (constant), which is determined empirically from the number of units, the number of layers, input/output values, etc. Further, δpj is an error value of the unit (U,).
従って、上記変化量Δwjiを決定するためには、上記
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い。出力層のユニッ)(u
j)の誤差値δ9.は、δpj=(jp、−opj)
f ’j(netJ) −第5式なる第5式で与えら
れ、中間層のユニット(u、)の誤差値δ、、、は、そ
のユニット(uJ)が結合されている各ユニット(uh
) (この例では出力層の各ユニノ日の結合係数W□
および誤差値δ、を用いて、
δpj =f ’ ) (netJ)Σδ、に−w 、
、・・・・・第6式なる再帰関数にて計算される(上記
第5式および第6式を求める過程は上述の文献を参照)
。Therefore, in order to determine the amount of change Δwji, the error values δ,j may be found in the opposite direction from the output layer to the input layer of the network. output layer unit) (u
j) error value δ9. is δpj=(jp,-opj)
The error value δ, , of the unit (u,) in the intermediate layer is given by the fifth equation f 'j (netJ) - Equation 5, and the error value δ, , , of the unit (u,) of the intermediate layer is determined by each unit (uh
) (In this example, the coupling coefficient W□ of each unino day in the output layer
and error value δ, δpj = f') (netJ)Σδ, to −w,
, ... Calculated using the recursive function of Equation 6 (see the above-mentioned literature for the process of obtaining Equations 5 and 6 above)
.
なお、上記r ’ j(net=)は、出力関数f 4
(net=)の微分値である。Note that the above r' j (net=) is the output function f 4
It is the differential value of (net=).
そして、変化量ΔW j iは、上記第5式および第6
式の結果を用いて上述の第4式によって求められるが、
前回の学習結果を用いて、
Δ Wjl(、令1) 8 η ・ δpjゆ 0 、
、+ α、Δ Watlml・・・・・・第7式
なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を減らし、収束を速める
ための安定化定数である。Then, the amount of change ΔW j i is determined by the fifth equation and the sixth equation above.
It is obtained by the above-mentioned fourth equation using the result of the equation,
Using the previous learning results, Δ Wjl(, order 1) 8 η ・δpjyu 0 ,
, +α, ΔWatlml... A more stable result can be obtained by calculating using the seventh equation. Note that α is a stabilization constant for reducing error oscillations and speeding up convergence.
そして、この学習を繰り返し行い、出力値02゜と教師
信号の値t0との二乗誤差の総和E、が十分に小さくな
った時点で学習を完了するようにしていた。Then, this learning is repeated, and the learning is completed when the sum E of the squared errors between the output value 02° and the value t0 of the teacher signal becomes sufficiently small.
た新規な構成の信号処理装置を提供するものであり 発
明が解決しようとする課題
ところで、上述の如きバックプロパゲーション学習剤を
ニューラルネットワークに採用した従来の信号処理装置
では、ニューロンに対応するユニットの数や層数さらに
は入出力の値等から上述の学習定数ηを経験的に決定し
て、上述の第7式を用いて一定の学習レートで学習を行
っていたので、出力値OpJと教師信号の値Lpjとの
二乗誤差の総和Epが十分に小さくなり学習を完了する
までに要する学習の繰り返し回数nが膨大な値になって
しまい、効率の良い学習を行うことができないという問
題点があった。Problems to be Solved by the Invention By the way, in the conventional signal processing apparatus that employs the above-mentioned backpropagation learning agent in the neural network, the unit corresponding to the neuron is The learning constant η was determined empirically from the number of layers, the input/output values, etc., and learning was performed at a constant learning rate using the seventh equation above, so the output value OpJ and the teacher The problem is that the sum of squared errors Ep with the signal value Lpj becomes sufficiently small, and the number of learning repetitions n required to complete learning becomes an enormous value, making it impossible to perform efficient learning. there were.
そこで、本発明は、上述の如き従来の実情に鑑み、バッ
クプロパゲーション学習剤をニューラルネットワークに
採用して効率の良い学習を行うことができるようにする
ことを目的とし、学習レートを入力の値に応じて動的に
変化させて、高速でしかも安定した学習を行うことがで
きるようにしる。Therefore, in view of the conventional situation as described above, the present invention aims to adopt a backpropagation learning agent to a neural network to enable efficient learning, and to change the learning rate to the input value. It is possible to perform fast and stable learning by dynamically changing it according to the situation.
EL!題を解決するための手段
本発明は、上述の目的を達成するために、それぞれニュ
ーロンに対応する信号処理を行う複数のユニットにて構
成された入力層、中間層および出力層を備える信号処理
部と、上記入力層に人力される入力信号パターンに対す
る上記出力層の出力値と教師信号として与えられる所望
の出力値との誤差情報δ、ムに基づいて上記各ユニット
の間の結合の強さの係数wjiを上記出力層側から上記
入力層側に向かって順次に繰り返し計算し、上記結合の
強さの係数Wjlの学習処理を行う学習処理部とを備え
る信号処理装置において、上記学習処理部は、上記結合
の強さの係数wjiの変化量Δwjiをη・β(δpj
Opi)に基づいてで算出しくただし、ηは学習定数
、βは学習変数、αは安定化定数)、wji=wji+
Δwji ・・・・・・・・・第8式なる第8式に
て示される結合の強さの係数wjiを上記信号処理部の
各ユニットに与え、上記各ユニットにおける入力値Op
iの二乗和に1を加えた値の逆数にて第9式のように示
される上記学習変数β
にて上記学習定数ηを正規化した学習レートにて上記結
合の強さの係数wJ、の学習処理を行うことを特徴とし
ている。EL! Means for Solving the Problems In order to achieve the above-mentioned object, the present invention provides a signal processing section comprising an input layer, an intermediate layer, and an output layer, each of which is composed of a plurality of units that perform signal processing corresponding to neurons. The strength of the coupling between each unit is determined based on the error information δ, mu between the output value of the output layer and the desired output value given as a teacher signal for the input signal pattern manually input to the input layer. A signal processing device comprising: a learning processing unit that sequentially repeatedly calculates coefficients wji from the output layer side to the input layer side and performs learning processing of the coupling strength coefficient Wjl, the learning processing unit comprising: , the amount of change Δwji in the above coupling strength coefficient wji is expressed as η・β(δpj
where η is a learning constant, β is a learning variable, α is a stabilization constant), wji=wji+
Δwji ......The coupling strength coefficient wji shown in the 8th equation is given to each unit of the signal processing section, and the input value Op in each unit is
The above learning constant η is normalized using the above learning variable β, which is expressed as the reciprocal of the sum of squares of i plus 1, as shown in Equation 9. It is characterized by performing learning processing.
F 作用
本発明に係る信号処理装置では、各ユニットにおける入
力値Opiの二乗和にいき値として1を加えた値の逆数
にて示される学習変数βにて学習定数ηを正規化するこ
とにより、学習レートを上記入力値Oplに応じて動的
に変化させて、各ユニット間の結合の強さの係数W a
iの学習処理を行う。F Effect In the signal processing device according to the present invention, by normalizing the learning constant η with the learning variable β, which is the reciprocal of the value obtained by adding 1 as a threshold value to the sum of squares of the input values Opi in each unit, By dynamically changing the learning rate according to the input value Opl, the coefficient W a of the strength of the connection between each unit is calculated.
Perform the learning process for i.
G 実施例
以下、本発明の一実施例について、図面に従い詳細に説
明する。G. Example Hereinafter, an example of the present invention will be described in detail with reference to the drawings.
本発明に係る信号処理装置は、その構成を第1図のブロ
ンク図に概念的に示しであるように、入力信号パターン
pから出力値op=を得るための信号処理部(lO)と
、上記信号処理部(1o)にて入力信号パターンpから
所望の出力値Lpjに最も近い出力値0□を得るための
学習を行う学習処理部(2o)にて構成されている。The signal processing device according to the present invention, as conceptually shown in the block diagram of FIG. The signal processing section (1o) is composed of a learning processing section (2o) that performs learning to obtain an output value 0□ closest to a desired output value Lpj from an input signal pattern p.
上記信号処理部(10)は、ニューラルネットワークに
て構成され、少なくとも入力層(L、)と中間層(LM
)と出力層(Lo)の3層構造になっており、各層(L
l)、(LM)、(LO)がそれぞれニューロンに対応
する任意の個数X+y1Z のユニット(u11〜u
lll)+(uNl””ully)+(uol〜uos
)にて構成されている。The signal processing unit (10) is composed of a neural network, and includes at least an input layer (L) and a middle layer (LM).
) and output layer (Lo), each layer (L
l), (LM), and (LO) are arbitrary numbers of X+y1Z units (u11 to u
lll) + (uNl””ully) + (uol~uos
).
上記各ユニット(u11〜u1.)1(u□〜u、y)
+(uo+−uos)は、
n6J mΣ” j i O□ ・・・・・・・・・
第10式なる入力の総和netJに対して、θ、をしき
い値とする
1+e
なる第11式のsigmoid関数にて示される出力値
Opjを与えるようになっている。Each of the above units (u11 to u1.) 1 (u□ to u, y)
+(uo+-uos) is n6J mΣ” j i O□ ・・・・・・・・・
For the total sum netJ of inputs expressed in Equation 10, an output value Opj expressed by a sigmoid function expressed in Equation 11 as 1+e with θ as a threshold value is given.
また、上記学習処理部(20)は、上記信号処理部(1
0)に入力される入力信号パターンpに対する上記出力
層(LO)の出力値O6Jが、教師信号として与えられ
る所望の出力値Lpjに最も近い値になるように、第2
図のフローチャートに示すような手順で、上記出力Jl
!1(Lo)側から上記入力層(L、)側に向かって上
記各ユニット(u++〜u1.)、(u工〜U□L (
u ol”’−u oJの間の結合の強さの係数W5.
を順次に繰り返し計算し、上記所望の出力値り2、と上
記出力値O84との二乗誤差の総和E9を十分に小さく
するように、上記結合係数wjiの学習処理を行う。The learning processing section (20) also includes the signal processing section (1).
0) so that the output value O6J of the output layer (LO) for the input signal pattern p input to the second
In the procedure shown in the flowchart in the figure, output Jl
! 1 (Lo) side toward the input layer (L, ) side, each of the units (u++~u1.), (u~U□L (
Coefficient of coupling strength between u ol"'-u oJ W5.
are sequentially and repeatedly calculated, and the learning process of the coupling coefficient wji is performed so that the sum E9 of the squared errors between the desired output value O2 and the output value O84 is made sufficiently small.
すなわち、上記学習処理部(20)は、先ず、ステップ
1において、上記各ユニッ1−(ull、〜U )+、
)(u01〜uoJに結合係数W4.を与えて、上記信
号処理部(10)における入力信号パターンpに対する
上記出力Fff(LO)の出力値O8、の算出処理を行
い、次のステップ2にて、上記出力4fiOo=につい
て、教師信号として与えられる上記所望の出力(l!!
L、、と上記出力値0.jとの二乗誤差の総和E、に基
づいて収束条件の判定動作を行う。That is, first, in step 1, the learning processing section (20) calculates each of the units 1-(ull, ~U)+,
) (Giving the coupling coefficient W4. to u01 to uoJ, the signal processing unit (10) calculates the output value O8 of the output Fff(LO) for the input signal pattern p, and in the next step 2 , for the above output 4fiOo=, the above desired output (l!!) given as a teacher signal.
L, , and the above output value 0. The convergence condition determination operation is performed based on the sum E of the squared errors with j.
上記ステップ2の判定動作では、上記信号処理部(lO
)の出力層(Lo)に得られる出力値0゜、が上記所望
の出力値Lpjに最も近い値になっているか否かを判定
する。上記ステップ2の判定動作の結果がr YES
j すなわち上記二乗誤差の総和E、が十分に小さく
なり、上記出力(11!oOJが上記所望の出力値Lp
jに最も近い値になっている場合には学習処理を完了し
、その判定結果が「NO」の場合にはステップ3ないし
ステップ6の各算出処理を順番に行う。In the determination operation of step 2, the signal processing unit (lO
) is the closest value to the desired output value Lpj. The result of the judgment operation in step 2 above is r YES
j In other words, the sum E of the squared errors becomes sufficiently small, and the output (11!oOJ becomes the desired output value Lp).
If the value is closest to j, the learning process is completed, and if the determination result is "NO", the calculation processes of steps 3 to 6 are performed in order.
上記ステップ3の算出処理では、上記信号処理部(lO
)の各ユニy ト(u+u〜ulIy)+ (uo+〜
uog)の誤差値δ、Jを算出する。このステップ3の
算出処理において、上記出力層(L、)の各ユニット(
u o+〜u ojの誤差値δ。、は、δoa=(tp
JOoJ)OoJ(10oJ)・・・・・・・・・第1
2式
なる第12式にて与え、また、上記中間層(LH)の各
ユニット(U□〜uny)の誤差値δ9.は、δII=
= o、IJ(1onj)Σδ0.−Wkj・・・・・
・・・・第13式
なる第13式にて与えられる。In the calculation process of step 3, the signal processing unit (lO
) each unit y (u+u~ulIy)+ (uo+~
The error value δ, J of uog) is calculated. In the calculation process of step 3, each unit (
Error value δ of u o+ to u oj. , is δoa=(tp
JOoJ) OoJ (10oJ) 1st
The error value δ9 of each unit (U□~uny) of the intermediate layer (LH) is given by the 12th equation consisting of two equations. is δII=
= o, IJ(1onj)Σδ0. -Wkj・・・・・・
... is given by the 13th equation, which is the 13th equation.
次に、ステップ4の算出処理では、上記各ユニット(u
、I+−u、yL(uot〜uog)に対するi番目の
ユニットからj番目のユニットへの結合の強さの係数W
、iの学習変数β、を全人力の二乗和にいき値として1
を加えた値の逆数にて示すなる第14式にて算出する。Next, in the calculation process of step 4, each unit (u
, I+-u, the coefficient W of the strength of the connection from the i-th unit to the j-th unit for yL (uot ~ uog)
, the learning variable β of i is set as a threshold value of 1 to the sum of squares of all human power.
It is calculated using Equation 14, which is the reciprocal of the sum of .
さらに、ステップ5の算出処理では、学習定数をη、エ
ラーの振動を減らして収束を速めるための安定化定数を
αとして、上記学習変数β、を用いて上記各ユニット(
u□〜uny)+ (uo+〜uog)に対するi番目
のユニットからj番目のユニットへの結合係数wjiの
変化量Δwjiを、Δ”jl 1llell ”’η・
β(δ11J011.)+α・ΔWj+in+・・・・
・・・第15式
なる第15式にて算出する。Furthermore, in the calculation process of step 5, each unit (
The amount of change Δwji in the coupling coefficient wji from the i-th unit to the j-th unit with respect to u
β(δ11J011.)+α・ΔWj+in+・・・・
...Calculated using the 15th equation.
そして、ステップ6の算出処理では、上記ステップ5に
おいて算出された上記結合係数WJlの変化量Δwji
に基づいて、第16式に示すように、上記各ユニット(
u□〜uny)+(uo+〜uot)の結合係数W j
iを
w、、=wji+Δwji ・・・・・・・・・第1
6式に変更する。Then, in the calculation process of step 6, the amount of change Δwji of the coupling coefficient WJl calculated in step 5 is
Based on , each of the above units (
Coupling coefficient W j of u□~uny)+(uo+~uot)
i to w,, = wji + Δwji ...... 1st
Change to type 6.
そして、上記ステップ1に戻って、上記信号処理部(1
0)における人力信号パターンpに対する上記出力層(
Lo)の出力値0゜Jの算出処理を行う。Then, returning to step 1 above, the signal processing section (1
The above output layer (
Calculation processing for the output value 0°J of Lo) is performed.
この学習処理部(20)は、上述のステップlないしス
テップ6の動作を繰り返し行い、上記教師信号として与
えられる所望の出力値jp=と上記出力値0゜jとの二
乗誤差の総和E、が十分に小さくなり、上記信号処理部
(lO)の出力層(Lo)に得られる出力値0゜Jが上
記所望の出力(aLp=に最も近い値になると、上記ス
テップ2の判定動作により、学習処理を完了する。This learning processing unit (20) repeatedly performs the operations of steps 1 to 6 described above, and calculates the sum E of the squared errors between the desired output value jp= given as the teacher signal and the output value 0゜j. When the value becomes sufficiently small and the output value 0°J obtained at the output layer (Lo) of the signal processing unit (lO) becomes the value closest to the desired output (aLp=), the learning is performed by the determination operation in step 2. Complete the process.
この実施例の信号処理装置のように、上記各ユニット(
uH+〜u、ly)+(uo+〜u 、、)において入
力値o1の二乗和にいき値として1を加えた値の逆数に
て示される上記学習変数βにて学習定数ηを正規化する
ことにより、学習レートを上記入力値02.に応じて動
的に変化させて、上記結合の強さの係数wjiの学習処
理を行うことによって、学習回数nを従来の学習処理の
174〜1/10に大幅に減少させて、高速で安定に学
習を行うことができた。Like the signal processing device of this embodiment, each of the above units (
Normalize the learning constant η with the learning variable β, which is the reciprocal of the value obtained by adding 1 as a threshold value to the sum of squares of the input value o1 in uH+~u,ly)+(uo+~u,,). The learning rate is set to the above input value 02. By dynamically changing the coupling strength coefficient wji according to the learning process, the number of learning times n can be significantly reduced to 174 to 1/10 of the conventional learning process, resulting in a fast and stable process. I was able to learn.
なお、第15式における学習定数ηおよび安定化定数α
を全入カバターンに対する誤差の最大値EIlaxの関
数として第17式および第18式のように表して、
η=aEmax ・φ・・・・・第17式α=
bEsax + c 、、、、、、、第18式(
a、b、cは定数)
これらを動的に変更することで、より高速の学習処理を
行うことができる。In addition, the learning constant η and stabilization constant α in Equation 15
is expressed as the 17th and 18th equations as a function of the maximum error value EIlax for the total input cover turn, η=aEmax ・φ...17th equation α=
bEsax + c , , , , Equation 18 (
(a, b, c are constants) By dynamically changing these, faster learning processing can be performed.
H発明の効果
本発明に係る信号処理装置では、各ユニットにおける入
力(1f!Optの二乗和にいき値としてlを加えた値
の逆数にて示される上記学習変数βにて学習定数ηを正
規化することにより、学習レートを上記入力値Opiに
応じて動的に変化させて、上記結合の強さの係数wji
の学習処理を行うので、高速でしかも安定した学習を行
うことができる。H Effects of the Invention In the signal processing device according to the present invention, the learning constant η is normalized by the learning variable β, which is expressed as the reciprocal of the sum of squares of the input (1f!Opt) in each unit plus l as a threshold value. , the learning rate is dynamically changed according to the input value Opi, and the coefficient wji of the strength of the connection is
Since the learning process is performed, high-speed and stable learning can be performed.
第1図は本発明に係る信号処理装置の構成を概念的に示
すブロック図、第2図は上記信号処理装置を構成する学
習処理部における学習処理過程を示すフローチャートで
ある。
第3図はバックプロシバゲーション学習則の適用される
ニューラルネットワークの一最的な構成を示す模式図で
ある。
(10)・・・・・・・・・・・・・・・信号処理部(
20)・・・・・・・・・・・・・・・学習処理部(L
l)・・・・・・・・・・・・・・入力層(LH)・・
・・・・・・・・・・・・中間層(L、)・・・・・・
・・・・・・・・出力層(uz〜u+z)+(u、+〜
uwz)+(uox〜uom)・・・・・・・ユニットFIG. 1 is a block diagram conceptually showing the configuration of a signal processing device according to the present invention, and FIG. 2 is a flowchart showing a learning processing process in a learning processing section constituting the signal processing device. FIG. 3 is a schematic diagram showing the most suitable configuration of a neural network to which the backprosivagation learning rule is applied. (10)・・・・・・・・・・・・Signal processing section (
20)・・・・・・・・・・・・Learning processing unit (L
l)・・・・・・・・・・・・・Input layer (LH)・・・・
・・・・・・・・・Middle class (L,)・・・・・・
...... Output layer (uz ~ u + z) + (u, + ~
uwz)+(uox~uom)・・・・・・Unit
Claims (1)
ニットにて構成された入力層、中間層および出力層を備
える信号処理部と、上記入力層に入力される入力信号パ
ターンに対する上記出力層の出力値と教師信号として与
えられる所望の出力値との誤差情報δ_j_iに基づい
て上記各ユニットの間の結合の強さの係数w_j_iを
上記出力層側から上記入力層側に向かって順次に繰り返
し計算し、上記結合の強さの係数w_j_iの学習処理
を行う学習処理部とを備える信号処理装置において、 上記学習処理部は、上記結合の強さの係数w_j_iの
変化量Δw_j_iをη・β(δ_p_j・o_p_i
)に基づいて算出し(ただし、ηは学習定数、βは学習
変数)、w_j_i=w_j_i+Δw_j_i なる結合の強さの係数w_j_iを上記信号処理部の各
ユニットに与え、上記各ユニットにおける入力値o_p
_iの二乗和に1を加えた値の逆数にて示される上記学
習変数β ▲数式、化学式、表等があります▼ にて上記学習定数ηを正規化した学習レートにて上記結
合の強さの係数w_j_iの学習処理を行うことを特徴
とする信号処理装置。[Scope of Claims] A signal processing unit comprising an input layer, an intermediate layer, and an output layer each configured of a plurality of units that perform signal processing corresponding to a neuron; Based on the error information δ_j_i between the output value of the output layer and the desired output value given as a teacher signal, the coefficient w_j_i of the strength of the coupling between each unit is calculated sequentially from the output layer side to the input layer side. and a learning processing unit that repeatedly calculates the coupling strength coefficient w_j_i and performs learning processing of the coupling strength coefficient w_j_i, wherein the learning processing unit calculates the amount of change Δw_j_i of the coupling strength coefficient w_j_i by η・β(δ_p_j・o_p_i
) (where η is a learning constant and β is a learning variable), the coupling strength coefficient w_j_i of w_j_i = w_j_i + Δw_j_i is given to each unit of the signal processing section, and the input value o_p in each unit is calculated based on
The above learning variable β is expressed as the reciprocal of the sum of the squares of ___i plus 1 ▲ There are mathematical formulas, chemical formulas, tables, etc. ▼ The above learning constant η is normalized at the learning rate A signal processing device characterized by performing learning processing of coefficient w_j_i.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63232846A JP2699447B2 (en) | 1988-09-17 | 1988-09-17 | Signal processing device |
US07/406,733 US5093899A (en) | 1988-09-17 | 1989-09-13 | Neural network with normalized learning constant for high-speed stable learning |
EP89402544A EP0360674B1 (en) | 1988-09-17 | 1989-09-15 | Signal processing system and learning processing system |
DE68929102T DE68929102T2 (en) | 1988-09-17 | 1989-09-15 | Learning processing system |
EP94107842A EP0612033B1 (en) | 1988-09-17 | 1989-09-15 | learning processing system |
DE68924822T DE68924822T2 (en) | 1988-09-17 | 1989-09-15 | Signal processing system and learning processing system. |
US07/727,871 US5129039A (en) | 1988-09-17 | 1991-07-10 | Recurrent neural network with variable size intermediate layer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63232846A JP2699447B2 (en) | 1988-09-17 | 1988-09-17 | Signal processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0281161A true JPH0281161A (en) | 1990-03-22 |
JP2699447B2 JP2699447B2 (en) | 1998-01-19 |
Family
ID=16945721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63232846A Expired - Lifetime JP2699447B2 (en) | 1988-09-17 | 1988-09-17 | Signal processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2699447B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102413692B1 (en) | 2015-07-24 | 2022-06-27 | 삼성전자주식회사 | Apparatus and method for caculating acoustic score for speech recognition, speech recognition apparatus and method, and electronic device |
KR102192678B1 (en) | 2015-10-16 | 2020-12-17 | 삼성전자주식회사 | Apparatus and method for normalizing input data of acoustic model, speech recognition apparatus |
-
1988
- 1988-09-17 JP JP63232846A patent/JP2699447B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
Also Published As
Publication number | Publication date |
---|---|
JP2699447B2 (en) | 1998-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hung et al. | A parallel genetic/neural network learning algorithm for MIMD shared memory machines | |
Gorinevsky et al. | Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example | |
JPH07121495A (en) | Construction method of expert system by using one or more neural networks | |
DE69424372T2 (en) | Highly efficient learning network | |
JPH0281161A (en) | Signal processor | |
JP3374476B2 (en) | Neural network construction method | |
JPH0272491A (en) | Picture conversion processor | |
JP2907486B2 (en) | Neural network device | |
JP2897220B2 (en) | Signal processing device | |
JP2979562B2 (en) | Learning processing device | |
Wan et al. | Introducing cost-sensitive neural networks | |
JPH02299081A (en) | Texture analysis and analyzer | |
JP3393511B2 (en) | Character recognition apparatus and method | |
JP3412700B2 (en) | Neural network type pattern learning method and pattern processing device | |
JPH03123959A (en) | Learning processor | |
JP3082530B2 (en) | Neural network circuit | |
JPH01282672A (en) | Neural network device | |
JP2607351B2 (en) | Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network | |
JPH02244255A (en) | Neuro-computer | |
JP2544489B2 (en) | Learning method of neural network model | |
JPH0728768A (en) | Method for obtaining inverse solution by learning of neural network | |
JPH0652135A (en) | Learning system for neural network | |
JPH0535290A (en) | Reflected sound train compressing device | |
JPH06314267A (en) | Neural network learning system | |
Moody et al. | The Dependence Identification Neural Network Construction Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |