JPH03201158A - 学習処理装置 - Google Patents

学習処理装置

Info

Publication number
JPH03201158A
JPH03201158A JP1341822A JP34182289A JPH03201158A JP H03201158 A JPH03201158 A JP H03201158A JP 1341822 A JP1341822 A JP 1341822A JP 34182289 A JP34182289 A JP 34182289A JP H03201158 A JPH03201158 A JP H03201158A
Authority
JP
Japan
Prior art keywords
learning
coefficient
unit
layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1341822A
Other languages
English (en)
Inventor
Shigeru Arisawa
繁 有沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP1341822A priority Critical patent/JPH03201158A/ja
Publication of JPH03201158A publication Critical patent/JPH03201158A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、それぞれニューロンに対応する信号処理を行
う複数のユニットにより構成される所謂ニエーラルネッ
トワーク(Neural Network :神経回路
w4)を用いた信号処理部に対して、バックプロバゲー
シッン(Back propagation :逆伝播
〉学習側に従った学習処理を施す学習処理装置に関する
B 発明の概要 本発明は、ニューラルネットワークによる信号処理部に
対してパックプロパゲーシッン学習則に従った学習処理
を行う学習処理装置において、結合の強さの係数の補正
比率を増加させながら学習処理を行うことにより、学習
処理時間の短縮を図ることができるようにしたものであ
る。
C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーション学習側r rParallelDi
stributed ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月lO日号。
No、427.pp115−124等参照1は、第3図
に示すように、入力層(31)と出力層(33)の間に
中間層(32〉を有する多層構造のニューラルネットワ
ークに適用され、高速画像処理やパターン認識等の各種
の信号処理への応用が試みられている。
すなわち、第3図に示すように、このニューラルネット
ワークを構成する各ユニット(Uj)は、ユニット(U
、)からユニット(Uj)への結合係数Wjムで結合さ
れるユニット(ul〉の出力値0ムの総和すなわち入力
の総和netjを例えばsigmoid関数などの所定
の関数fで変換された値OJを出力する。すなわち、パ
ターンpの値が入力層の各ユニット(uJ)に入力値と
してそれぞれ供給されたとき、中間層および出力層の各
ユニッ)(uJ)の出力(!!0−tは、 O,j= f 7 (ne5J ) −f、(Σwji+o、Jム)・・・・・第1式なる第
1式で表される。
そして、入力層(31)から出力層(33〉へ向かって
、各ニューロンに対応するユニット(uj)の出力値を
順次計算していくことで、上記出力層(33)のユニッ
ト(U、)の出力値OpJが得られる。
バックプロパゲーシッン学習アルゴリズムにおいては、
パターンpを与えたときの、出力層(33)の各ユニッ
ト(uj)の実際の出力値Opjと望ましい出力値Ls
jすなわち教師信号との二乗誤差の総和E。
を極小化するように、結合係数Wj1を変える学習処理
を出力層(33〉から入力層(31)へ向かって順次に
行うことにより、教師信号の値t1に最も近い出力値O
eiが上記出力層(33)のユニット(uj)から出力
されるようになる。
そして、二乗誤差の総和E、を小さくする結合係数Wj
ムの変化量ΔWoを、 ΔWJ! cCa Ep / a W、H・・・・・第
3式と決めると、上記第3式は、 Δwjl=η・δeJ・On ・・・・・・・・・・第
4式に変形することができる(この過程は上述の文献を
参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δ、Jはユニット(U))のもつ誤差値である。
従って、上記変化量ΔWjiを決定するためには、上記
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い、出力層のユニット(U
j)の誤差値δ、jは、δ、、m (Lejopj)f
コ(net*) ・・・”第5式なる第5式で与えられ
、中間層のユニット(uJ)の誤差値δ、−は、そのユ
ニット(uj)が結合されている各ユニット(um) 
 (この例では出力層の各ユニット)の結合係数Woお
よび誤差値δ、を用いて、 δPJ=11fコ(neJ)Σδ、*W@4  ・**
**第6式なる再帰関数により計算される(上記第5式
および第6式を求める過程は上述の文献を参照)。
なお、上記f ’ ) (netJ)は、出力関数f 
7(netJ)の微分値である。
そして、変化量ΔWハは、上記第5式および第6式の結
果を用いて上述の第4式によって求められるが、前回の
学習結果を用いて、 Δ”711m+II−η・δerOIIム+α・ΔW 
j l (a)・・・・・・第7式 なる第7式により求めることで、より安定した結果が得
られる。なお、αはエラーの振動を減らし、収束を速め
るための安定化定数である。
そして、この学習を繰り返し行い、出力値Oejと教師
信号の値teJとの二乗誤差の総和E、が十分に小さく
なった時点で学習を完了するようにしていた。
D 発明が解決しようとする課題 ところで、上述の如きバックプロパゲーシッン学習則を
ニューラルネットワークに採用した学習処理装置では、
ニューロンに対応するユニットの数や層数等から上述の
学習定数ηを経験的に決定して、上述の第7式を用いて
一定の学習レートで学習処理を行っていたので、出力値
OpJが教師信号の値t、jに近づくに従って上記第7
式により算出される結合係数wj!の変化量ΔWjムが
小さくなり、上述の二乗誤差の総和E、を十分に小さく
して学習を終了するまでに要する学習の繰り返し回数n
が膨大な値になってしまい、効率の良い学習処理を行う
ことができないという問題点があった。
なお、学習時間を短縮するには、上記学習定数ηを大、
きく設定すれば良いのであるが、エラー量が多く、且つ
、出力関数τj(netj)の微分値を大きくする入カ
バターンが呈示された場合に、過度の補正がなされてし
まう。
そこで、本発明は、上述の如き従来の実情に鑑み、ニュ
ーラルネットワークによる信号処理部に対してバックプ
ロパゲーシッン学習則に従った学習処理を施す学習処理
装置において、効率良く且つ確実に学習処理を行うこが
できるようにすることを目的とする。
E  !1111を解決するための手段本発明は、上述
の目的を遠戚するために、それぞれニューロンに対応す
る信号処理を行う複数のユニットにより構成された入力
層、中間層および出力層を備える信号処理部と、上記入
力層に入力される入力信号パターンに対する上記出力層
の出力値と教師信号として与えられる所望の出力値との
誤差情報δjiに基づいて上記各ユニットの間の結合の
強さの係数W□を上記出力層側から上記入力層側に向か
って順次に繰り返し計算し、上記結合の強さの係数W′
、、の学習処理を行う学習処理部とを備えて成る学習処
理装置において、上記学習処理部は、上記結合の強さの
係数Wハの変化量ΔWJ!をη・β(δ、J・0.りに
基づいて計算しく但し、ηは学習定数、βは学習変数)
、WJム5Wjt+ΔWj盈  1・・・・第8式なる
第8式で示される結合の強さの係数Wj、を上記信号処
理部の各ユニットに与えとともに、上記各ユニットにお
ける入力値0.直の総和net7に正の係数aを掛けて
1を加えた β= 1 +a −1natJl  ・・・・−・第9
式なる第9式で示される学習変数βを用いて、上記結合
の強さの係数Wjiの補正比率を増加させながら学習処
理を行うようにしたことを特徴とするものである。
F 作用 本発明に係る学習処理装置では、上記第9式で示される
学習変数βを用いて、結合の強さの係数Wハの補正比率
を増加させながら学習処理を行う。
G 実施例 以下、本発明の一実施例について、図面に従い詳細に説
明する。
本発明に係る学習処理装置は、その構成を第1図のブロ
ック図に概念的に示しであるように、入力信号パターン
pから出力(iotJを得るための信号処理部(lO)
と、上記信号処理部(10)にて入力信号パターンpか
ら所望の出力値Lpjに最も近い出力値OpJを得るた
めの学習を行う学習処理部(20)とで構成される。
上記信号処理部(lO〉は、ニューラルネットワークに
て構成され、少なくとも入力層(Ll)と中間層(L、
)と出力層(Lo)の3層構造になっており、各層(L
l)、(LM)、(LO)がそれぞれニューロンに対応
する任意の個数X+ F+ 1 のユニット(u■〜L
l+、)+(umt”’uwy)+(Oat〜U0.)
により構成される。
上記各ユニット(ul、〜u+*L(u□〜uwyL(
u01〜u os)は、 uot7 =ΣWJ! Opi  ”9.”0.”第1
0式なる入力の総和net7に対して、θ1をしきい値
とする 1+e なる第11式のsigwoid関数にて示される出力値
OpJを与える。
また、上記学習処理部(20)は、上記信号処理部(1
0〉に入力される入力信号パターンpに対する上記出力
層(Lo〉の出力値00jが、教師信号として与えられ
る所望の出力値Lpjに最も近い値になるように、第2
図のフローチャートに示すような手順で、上記出力層(
LO)側から上記入力層(L+)側に向かって上記各ユ
ニット(u++〜u+J+(u□〜uMy)+(uot
−uos)の間の結合の強さの係数wjiを順次に繰り
返し計算し、上記所望の出力値t、−と上記出力値0(
IJとの二乗誤差の総和E、を十分に小さくするように
、上記結合係数Wハの学習処理を行う。
すなわち、上記学習処理部(20)は、先ず、ステップ
lにおいて、上記各ユニッ)(U□〜u*yL(U、、
〜u01)に結合係数wjiを与えて、上記信号処理部
(lO)における入力信号パターンpに対する上記出力
層(Lo)の出力値0.7の算出処理を行い、次のステ
ップ2において、上記出力値00jについて、教師信号
として与えられる上記所望の出力値teaと上記出力値
O0jとの二乗誤差の総和E、に基づいて収束条件の判
定動作を行う。
上記ステップ2の判定動作では、上記信号処理部(lO
〉の出力層(Lo)に得られる出力値0゜jが上記所望
の出力値t、−に最も近い値になっているか否かを判定
する。上記ステフジ20判定動作の結果がrVBsJ 
 すなわち上記二乗誤差の総和E、が十分に小さくなり
、上記出力値O,Jが上記所望の出力値LpJに最も近
い値になっている場合には学習処理を完了し、その判定
結果が「NO」の場合にはステップ3ないしステップ6
の各算出処理を順番に行う。
上記ステップ3の算出処理では、上記信号処理部(lO
〉の各ユニット(uw+〜Ll+y)+ (uo+〜u
c+Jの誤差値δ、jを算出する。このステップ3の算
出処理において、上記出力層(Lo)の各ユニット(U
□〜u os)の誤差値δ。jは、δ。j”(Lpj 
 00j)0゜j(1−0゜j)・・・・・・・・・第
12式 なる第12式により与え、また、上記中間層(LH)の
各ユニット(U□〜U 、、)の誤差値δ、Jは、δ□
=0□(l−0□〉Σδ。、WkJ・・・・・・・・・
第13式 なる第13式により与えられる。
次に、ステップ4の算出処理では、上記各ユニット(u
N+〜uwyL(usu〜uog)に対する1番目のユ
ニットからj番目のユニットへの結合の強さの係数Wハ
の学習変数βjを 上記各ユニット(u+u〜ugyL(uot−uoJに
おける入力値Opjの総和neJに正の係数aを掛けて
lを加えた β4 = l +a Hl n13t71  ”・第1
4式なる第14式により算出する。
なお、上記第14式における変数l  neJ  lは
、ディジタルフィルタによりローパスフィルタ特性を与
えて用いるようにしても良い。
さらに、ステップ5の算出処理では、学習定数をη、エ
ラーの振動を減らして収束を速めるための安定化定数を
αとして、上記学習変数β、を用いて上記各ユニyト(
u+u〜uwyL (uot”uo、)に対する1番目
のユニットからj番目のユニットへの結合係数W□の変
化量Δwjiを、Δ”j4(a・I)=η・β(δea
 Op*)+α・ΔWji(al・・・・・・・第15
式 なる第15式にて算出する。
そして、ステップ6の算出処理では、上記ステップ5に
おいて算出された上記結合係数wjムの変化量ΔWj1
に基づいて、第16式に示すように、上記各ユニット(
uwt〜u、1yL(uot〜u os)の結合係数w
jiを Wハ=ayハ+ΔWハ  ・・・・・・・・・第16式
に変更する。
そして、上記ステップlに戻って、上記信号処環部(1
0〉における入力信号パターンpに対する上記出力層(
Lo)の出力値0.Jの算出処理を行う。
この学習処理部(20)は、上述のステップlないしス
テップ6の動作を繰り返し行い、上記教師信号として与
えられる所望の出力値LeJと上記出力(1ootとの
二乗誤差の総和E、が十分に小さくなり、上記信号処理
部(lO〉の出力層(Lo)に得られる出力値0゜jが
上記所望の出力値LeJに最も近い値になると、上記ス
テップ2の判定動作により、学習処理を完了する。
この実施例の学習処理装置のように、上記各ユニット(
un+〜uwy)+(uo+〜ul、ll)において、
上記第14式により算出される学習変数βすなわち入力
値o1の総和l  netjlに正の係数aを掛けてl
を加えた学習変数βを学習定数ηに掛けることにより、
上記結合の強さの係数WJ、の補正比率を増加させなが
ら学習処理を行うことができ、学習がある程度進んでも
上記結合の強さの係数Wハの変化量ΔWJIが極端に小
さくなることがなく、学習回数nを大幅に減少させて、
高速で安定した学習処理を行うことができる。
H発明の効果 本発明に係る学習処理装置では、各ユニットにおける入
力値O,!の総和1  neJ  lに正の係数aを掛
けてlを加えた学習変数βを用いて、上記結合の強さの
係数wjiの補正比率を増加させながら学習処理を行う
ことによって、学習がある程度進んでも上記結合の強さ
の係数Wハの変化量ΔWハが極端に小さくなることがな
く、学習処理時間を短縮して高速で安定した学習処理を
行うことができる。
【図面の簡単な説明】
第1図は本発明に係る学習処理装置の構成を概念的に示
すブロック図、第2図は上記学習処理装置を構成する学
習処理部における学習処理過程を示すフローチャートで
ある。 第3図はバックプロッパゲーシッン学習則の適用される
ニエーラルネットワークの一般的な構成を示す模式図で
ある。 (lO)・・・・・・・・・・・・・・・信号処理部(
20〉・・・・・・・・・・・・・・・学習処理部(L
l)・・・・・・・・・・・・・・入力層(LH)・・
・・・・・・・・・・・・中間層(LO)・・・・・・
・・・・・・・・出力層(u、1〜”+zL(u□〜U
□)、(uoヨ〜uoj・・・・e・◆ユニット

Claims (1)

  1. 【特許請求の範囲】 それぞれニューロンに対応する信号処理を行う複数のユ
    ニットにより構成された入力層、中間層および出力層を
    備える信号処理部と、上記入力層に入力される入力信号
    パターンに対する上記出力層の出力値と教師信号として
    与えられる所望の出力値との誤差情報δ_j_iに基づ
    いて上記各ユニットの間の結合の強さの係数w_j_i
    を上記出力層側から上記入力層側に向かって順次に繰り
    返し計算し、上記結合の強さの係数w_j_iの学習処
    理を行う学習処理部とを備えて成る学習処理装置におい
    て、上記学習処理部は、上記結合の強さの係数w_j_
    iの変化量Δw_i_iをη・β(δ_p_j・o_p
    _i)に基づいて計算し(但し、ηは学習定数、βは学
    習変数)、w_j_i=w_j_i+Δw_j_i なる結合の強さの係数w_j_iを上記信号処理部の各
    ユニットに与えるとともに、上記各ユニットにおける入
    力値o_p_iの総和net_jに正の係数aを掛けて
    1を加えたβ=1+a・|net_j| により示される学習変数βを用いて、上記結合の強さの
    係数w_j_iの補正比率を増加させながら学習処理を
    行うようにしたことを特徴とする学習処理装置。
JP1341822A 1989-12-28 1989-12-28 学習処理装置 Pending JPH03201158A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1341822A JPH03201158A (ja) 1989-12-28 1989-12-28 学習処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1341822A JPH03201158A (ja) 1989-12-28 1989-12-28 学習処理装置

Publications (1)

Publication Number Publication Date
JPH03201158A true JPH03201158A (ja) 1991-09-03

Family

ID=18349024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1341822A Pending JPH03201158A (ja) 1989-12-28 1989-12-28 学習処理装置

Country Status (1)

Country Link
JP (1) JPH03201158A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598509A (en) * 1992-08-28 1997-01-28 Hitachi, Ltd. Method of configuring a neural network and a diagnosis/recognition system using the same
US5627941A (en) * 1992-08-28 1997-05-06 Hitachi, Ltd. Method of configuring a neural network and a diagnosis/control system using the neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598509A (en) * 1992-08-28 1997-01-28 Hitachi, Ltd. Method of configuring a neural network and a diagnosis/recognition system using the same
US5627941A (en) * 1992-08-28 1997-05-06 Hitachi, Ltd. Method of configuring a neural network and a diagnosis/control system using the neural network

Similar Documents

Publication Publication Date Title
US5630023A (en) Signal processor
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
JPH07121495A (ja) 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法
US5129038A (en) Neural network with selective error reduction to increase learning speed
JPH11510936A (ja) コンピュータによるファジィルールの最適化方法
JPH09257553A (ja) 自重測定装置
JPH03201158A (ja) 学習処理装置
JP2907486B2 (ja) ニューラルネットワーク装置
JPH05128284A (ja) ニユーロプロセツサ
JP2897220B2 (ja) 信号処理装置
JP2699447B2 (ja) 信号処理装置
JP2979562B2 (ja) 学習処理装置
JP3276035B2 (ja) 神経回路網モデルの逐次型加速化学習方法
US5497448A (en) Learning type waveform recognizer
JPH0675935A (ja) 多変数システム構成方法およびその装置
JP3262340B2 (ja) 情報処理装置
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
Tetko et al. Simple heuristic methods for input parameters' estimation in neural networks
JPH0981535A (ja) ニューラルネットワークの学習方法
JPH06131482A (ja) アナログニューラルネットワーク回路
JPH03201159A (ja) バックプロパゲーションモデルの学習処理方法
JP3393511B2 (ja) 文字認識装置及び方法
JPH0696046A (ja) ニューラルネットワークの学習処理装置
JPH0635881A (ja) 神経回路装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法