JPH03201159A - バックプロパゲーションモデルの学習処理方法 - Google Patents
バックプロパゲーションモデルの学習処理方法Info
- Publication number
- JPH03201159A JPH03201159A JP1341823A JP34182389A JPH03201159A JP H03201159 A JPH03201159 A JP H03201159A JP 1341823 A JP1341823 A JP 1341823A JP 34182389 A JP34182389 A JP 34182389A JP H03201159 A JPH03201159 A JP H03201159A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- unit
- output
- learning processing
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 8
- 210000002569 neuron Anatomy 0.000 claims abstract description 9
- 230000007704 transition Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 abstract description 19
- 238000000034 method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241001181114 Neta Species 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Landscapes
- Feedback Control In General (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
A 産業上の利用分野
本発明は、それぞれニューロンに対応する信号処理を行
う複数のユニットにより構成される所謂ニューラルネッ
トワーク(Neural Network :神経回路
網〉を用いた信号処理部に対して、パックプロパゲーシ
ッン(Back propagation :逆伝播)
学C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーシッン学習則r rParallelDi
stributad ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号。
う複数のユニットにより構成される所謂ニューラルネッ
トワーク(Neural Network :神経回路
網〉を用いた信号処理部に対して、パックプロパゲーシ
ッン(Back propagation :逆伝播)
学C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーシッン学習則r rParallelDi
stributad ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号。
No、427.pP115−124等参照1は、第2図
に示すように、入力層(31〉と出力層(33)の間に
中間層(32)を有する多層構造のニューラルネットワ
ークに適用され、高速画倣処理やパターン認識等の各種
の信号処理への応用が試みられている。
に示すように、入力層(31〉と出力層(33)の間に
中間層(32)を有する多層構造のニューラルネットワ
ークに適用され、高速画倣処理やパターン認識等の各種
の信号処理への応用が試みられている。
すなわち、第2図に示すように、このニューラルネット
ワークを槽底する各ユニット(Uj)は、ユニット(U
ム)からユニット(Uj)への結合係数Wハで結合され
るユニット(Uりの出力値O6の総和すなわち入力の総
和net7を例えば51g5oid関数などを用いた状
態遷移関数r (netj)で変換した値Ojを出力す
る。すなわち、パターンPの値が入力層の各ユニット(
uj)に入力値としてそれぞれ供給されたとき、中間層
および出力層の各ユニット(uj)の出力値OeJは、 0pJ−fj(ne5j) =fj(ΣWハ・0.jI)・・・・・第1式なる第1
式で表される。
ワークを槽底する各ユニット(Uj)は、ユニット(U
ム)からユニット(Uj)への結合係数Wハで結合され
るユニット(Uりの出力値O6の総和すなわち入力の総
和net7を例えば51g5oid関数などを用いた状
態遷移関数r (netj)で変換した値Ojを出力す
る。すなわち、パターンPの値が入力層の各ユニット(
uj)に入力値としてそれぞれ供給されたとき、中間層
および出力層の各ユニット(uj)の出力値OeJは、 0pJ−fj(ne5j) =fj(ΣWハ・0.jI)・・・・・第1式なる第1
式で表される。
そして、入力層(31)から出力層(33)へ向かって
、各ニューロンに対応するユニット(Uj)の出力値を
順次計算していくことで、上記出力層(33)のユニッ
ト(uj)の出力値Opjが得られる。
、各ニューロンに対応するユニット(Uj)の出力値を
順次計算していくことで、上記出力層(33)のユニッ
ト(uj)の出力値Opjが得られる。
バックプロパゲーシッン学習アルゴリズムにおいては、
パターンpを与えたときの、出力層(33)の各ユニッ
ト(uJ)の実際の出力値1)pJと望ましい出力値L
1すなわち教師信号との二乗誤差の総和E。
パターンpを与えたときの、出力層(33)の各ユニッ
ト(uJ)の実際の出力値1)pJと望ましい出力値L
1すなわち教師信号との二乗誤差の総和E。
を極小化するように、結合係数W□を変える学習処理を
出力層(33)から入力層(31)へ向かって順次に行
うことにより、教師信号の値LpJに最も近い出力値o
1が上記出力層(33)のユニッ)(uj)から出力さ
れるようになる。
出力層(33)から入力層(31)へ向かって順次に行
うことにより、教師信号の値LpJに最も近い出力値o
1が上記出力層(33)のユニッ)(uj)から出力さ
れるようになる。
そして、二乗誤差の総和E、を小さくする結合係数Wj
iの変化量ΔWハを、 Aw71 g aE、 /aWjt ・・・・・第
3式と決めると、上記第3式は、 ΔWjt−W・δpj’Opム ・・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。
iの変化量ΔWハを、 Aw71 g aE、 /aWjt ・・・・・第
3式と決めると、上記第3式は、 ΔWjt−W・δpj’Opム ・・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δ、jはユニット(UJ)のもつ誤差値である。
の数さらには入出力の値等から経験的に決定される。ま
た、δ、jはユニット(UJ)のもつ誤差値である。
従って、上記変化量ΔWJiを決定するためには、上記
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い、出力層のユニット(U
j)の誤差値δ、jは、δpj−(tpjOtJ)f’
j(netj) ・・−・・第5式なる第5式で与えら
れ、中間層のユニット(uJ)の誤差値δ、jは、その
ユニッ)(uz)が結合されている各ユニット(Uお)
(この例では出力層の各ユニット)の結合係数Wkjお
よび誤差値δ、を用いて、 δvaj= f ’j(netj)Σδow真J ・・
・・・第6式なる再帰関数により計算される(上記第5
式および第6式を求める過程は上述の文献を参照)。
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い、出力層のユニット(U
j)の誤差値δ、jは、δpj−(tpjOtJ)f’
j(netj) ・・−・・第5式なる第5式で与えら
れ、中間層のユニット(uJ)の誤差値δ、jは、その
ユニッ)(uz)が結合されている各ユニット(Uお)
(この例では出力層の各ユニット)の結合係数Wkjお
よび誤差値δ、を用いて、 δvaj= f ’j(netj)Σδow真J ・・
・・・第6式なる再帰関数により計算される(上記第5
式および第6式を求める過程は上述の文献を参照)。
なお、上記f ’ j(netj)は、状態遷移関数f
j(nelj)の微分値である。
j(nelj)の微分値である。
そして、変化量ΔWj!は、上記第5式および第6式の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWJi 1mell −W ’δet・OII! +
(X ・Δ’j!Is)・・=・・・第7式 なる第7弐により求めることで、より安定した結果が得
られる。なお、αはエラーの振動を減らし、収束を速め
るための安定化定数である。
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWJi 1mell −W ’δet・OII! +
(X ・Δ’j!Is)・・=・・・第7式 なる第7弐により求めることで、より安定した結果が得
られる。なお、αはエラーの振動を減らし、収束を速め
るための安定化定数である。
そして、この学習を繰り返し行い、出力値OpJと教師
信号の値LsJとの二乗誤差の総和E、が十分に小さく
なった時点で学習を完了するようにしていた。
信号の値LsJとの二乗誤差の総和E、が十分に小さく
なった時点で学習を完了するようにしていた。
D 発明が解決しようとする課題
ところで、上述の如きパックプロパゲーシツン学習則を
ニューラルネットワークに採用した学習処理装置では、
ニューロンに対応するユニット間の結合の強さの係数の
初期値を設定する場合に、ネットワークが始めから特定
の構造を有していると、ネットワークが一度特定の構造
を持たない状態となり、その後に学習が進むことになり
、学習時間が長くなってしまう。
ニューラルネットワークに採用した学習処理装置では、
ニューロンに対応するユニット間の結合の強さの係数の
初期値を設定する場合に、ネットワークが始めから特定
の構造を有していると、ネットワークが一度特定の構造
を持たない状態となり、その後に学習が進むことになり
、学習時間が長くなってしまう。
そこで、本発明は、上述の如き従来の実情に鑑み、ニュ
ーラルネットワークによる信号処理部に対してバックプ
ロパゲーシッン学習則に従った学習処理を施す学習処理
装置において、効率良く且つ確実に学習処理を行うこと
ができるようにすることを目的とする。
ーラルネットワークによる信号処理部に対してバックプ
ロパゲーシッン学習則に従った学習処理を施す学習処理
装置において、効率良く且つ確実に学習処理を行うこと
ができるようにすることを目的とする。
E 課題を解決するための手段
本発明に係るバックプロパゲーションモデルの学習処理
方法は、上述の目的を達成するために、それぞれニュー
ロンに対応する信号処理を行う各ユニットが状態遷移関
数により与えられる出力値の中間値を出力するように、
各ユニットの間の結合の強さの係数の初期値を設定して
、バックブロバゲーシッン学習則に従った学習処理を行
うことを特徴とする。
方法は、上述の目的を達成するために、それぞれニュー
ロンに対応する信号処理を行う各ユニットが状態遷移関
数により与えられる出力値の中間値を出力するように、
各ユニットの間の結合の強さの係数の初期値を設定して
、バックブロバゲーシッン学習則に従った学習処理を行
うことを特徴とする。
F 作用
本発明に係るバックプロパゲーションモデルの学習処理
方法では、それぞれニューロンに対応する信号処理を行
う各ユニットが状態遷移関数により与えられる出力値の
中間値を出力するように、各ユニットの間の結合の強さ
の係数の初期値を設定することにより、上記ユニットに
より構成されるニューラルネットワークが特定の構造を
持たない状態でバックプロパゲーシッン学習則に従った
学習処理を開始する。
方法では、それぞれニューロンに対応する信号処理を行
う各ユニットが状態遷移関数により与えられる出力値の
中間値を出力するように、各ユニットの間の結合の強さ
の係数の初期値を設定することにより、上記ユニットに
より構成されるニューラルネットワークが特定の構造を
持たない状態でバックプロパゲーシッン学習則に従った
学習処理を開始する。
特定の構造を持たないニューラルネットワークは、バッ
クプロバゲーシッン学習則に従った学習処理を直ちに進
めることができる。
クプロバゲーシッン学習則に従った学習処理を直ちに進
めることができる。
G 実施例
以下、本発明に係るバックプロパゲーションモデルの学
習処理方法の一実施例について、詳細に説明する。
習処理方法の一実施例について、詳細に説明する。
それぞれニューロンに対応する信号処理を行う複数のユ
ニットにより構成されるニューラルネットワークは、学
習の初期の段階(初期値設定時も含む)には、ニューロ
ンに対応するユニットへの各人力Oムに結合の強さの係
数WJiを掛けた荷重和の値netjが非常に小さいた
め、ユニットが上述のsig*oid関数などを用いた
状態遷移関数f(neta)の線形な領域で動作してい
る。従って、バンクプロパゲーションモデルのような階
層構造モデルでは、 )’ 曽= a + X + + a w X z +
・・・+a11xII+θ ・・・・・・第8式なる第
8式で示すように、入力Xl+X1〜Xaの一次結合と
して出力y、を示すことができる。
ニットにより構成されるニューラルネットワークは、学
習の初期の段階(初期値設定時も含む)には、ニューロ
ンに対応するユニットへの各人力Oムに結合の強さの係
数WJiを掛けた荷重和の値netjが非常に小さいた
め、ユニットが上述のsig*oid関数などを用いた
状態遷移関数f(neta)の線形な領域で動作してい
る。従って、バンクプロパゲーションモデルのような階
層構造モデルでは、 )’ 曽= a + X + + a w X z +
・・・+a11xII+θ ・・・・・・第8式なる第
8式で示すように、入力Xl+X1〜Xaの一次結合と
して出力y、を示すことができる。
従って、入力x、X!〜X、の係数al+affi〜a
、lをal=a8=・・・・=all−0とするように
、各ユニット間の結合の強さの係数Wjlを設定するこ
とによって、出力Fmは入力XI+Xt〜X。
、lをal=a8=・・・・=all−0とするように
、各ユニット間の結合の強さの係数Wjlを設定するこ
とによって、出力Fmは入力XI+Xt〜X。
の値に拘らず0となり、ネットワークは特定の状態を持
たないように初期化される。
たないように初期化される。
このようにニューラルネットワークが特定の構造を持た
ない状態からパックプロパゲーシッン学習則に従った学
習処理を行うことにより、上記特定の構造を持たないニ
ューラルネットワークは、パックプロパゲーシッン学習
則に従った学習処理を直ちに進めることがき、学習処理
時間を短縮して効率の良い学習処理を施すことができる
。
ない状態からパックプロパゲーシッン学習則に従った学
習処理を行うことにより、上記特定の構造を持たないニ
ューラルネットワークは、パックプロパゲーシッン学習
則に従った学習処理を直ちに進めることがき、学習処理
時間を短縮して効率の良い学習処理を施すことができる
。
例えば、第1図に示すように、ニューロンに対応する信
号処理を行う三個のユニット(U□)。
号処理を行う三個のユニット(U□)。
(u、)、(u□)からなる2層2人力1出力のネット
ワークでは、 y−(ae+bf)x、+ (ce+df)xt・・・
・・・第9式 威る第9式で出力yを示すことができる。
ワークでは、 y−(ae+bf)x、+ (ce+df)xt・・・
・・・第9式 威る第9式で出力yを示すことができる。
この場合、
a e+b f−c e+d f−0−・・・第10式
なる第1O式を壱満たす解の一つは、 a=bmcmd−e−0,1 f−−0,1 である、上記第10式を奎満たすように、各ユニット(
u ++)、(u tt)、(u□)間の結合係数を初
期設定することにより、上記三個のユニット(U++L
(ultL (u□)は、特定の構造を持たない2層
2人力1出力のニューラルネットワークを構成する。
なる第1O式を壱満たす解の一つは、 a=bmcmd−e−0,1 f−−0,1 である、上記第10式を奎満たすように、各ユニット(
u ++)、(u tt)、(u□)間の結合係数を初
期設定することにより、上記三個のユニット(U++L
(ultL (u□)は、特定の構造を持たない2層
2人力1出力のニューラルネットワークを構成する。
上記第1図に示した2層2人力l出力のネットワークに
対して、このように初期設定して第1表に示す排他的論
理和についてバックプロパゲーシッン学習則に従った学
習処理を行った結果、乱数により初期値を設定した場合
よりも、短い学習時間で上記排他的論理和の学習処理を
終了することができた。
対して、このように初期設定して第1表に示す排他的論
理和についてバックプロパゲーシッン学習則に従った学
習処理を行った結果、乱数により初期値を設定した場合
よりも、短い学習時間で上記排他的論理和の学習処理を
終了することができた。
なお、本発明に係るバックプロパゲージロンモデルの学
習処理方法は、上述の第1図に示した2層2人力l出力
のニューラルネットワークのみに適用されるものではな
く、バックプロパゲーションモデルの用途や規模によら
ず利用することができる。
習処理方法は、上述の第1図に示した2層2人力l出力
のニューラルネットワークのみに適用されるものではな
く、バックプロパゲーションモデルの用途や規模によら
ず利用することができる。
H発明の効果
以上の述べたように、本発明に係るバックプロパゲーシ
ョンモデルの学習処理方法では、それぞれニエーロンに
対応する信号処理を行う各ユニットが状態遷移関数によ
り与えられる出力値の中間値を出力するように、各ユニ
ットの間の結合の強さの係数の初期値を設定することに
より、上記ユニットにより構成されるニューラルネット
ワークが特定の構造を持たない状態に初期設定すること
ができる。特定の構造を持たないニューラルネットワー
クは、パックブロパゲーシッン学習則に従った学習処理
を直ちに進めることができ、学習回数を大幅に減少させ
て、高速で安定に学習を行うことができる。
ョンモデルの学習処理方法では、それぞれニエーロンに
対応する信号処理を行う各ユニットが状態遷移関数によ
り与えられる出力値の中間値を出力するように、各ユニ
ットの間の結合の強さの係数の初期値を設定することに
より、上記ユニットにより構成されるニューラルネット
ワークが特定の構造を持たない状態に初期設定すること
ができる。特定の構造を持たないニューラルネットワー
クは、パックブロパゲーシッン学習則に従った学習処理
を直ちに進めることができ、学習回数を大幅に減少させ
て、高速で安定に学習を行うことができる。
第1図は、本発明に係るバックプロパゲーションモデル
の学習処理方法により学習処理を施した2層2人力l出
力のニューラルネットワークを示す回路図である。 第2図は、パックプロッパゲーシッン学習則の適用され
るニューラルネットワークの一般的な構成を示す模式図
である。
の学習処理方法により学習処理を施した2層2人力l出
力のニューラルネットワークを示す回路図である。 第2図は、パックプロッパゲーシッン学習則の適用され
るニューラルネットワークの一般的な構成を示す模式図
である。
Claims (1)
- それぞれニューロンに対応する信号処理を行う各ユニッ
トが状態遷移関数により与えられる出力値の中間値を出
力するように、各ユニットの間の結合の強さの係数の初
期値を設定して、バックプロパゲーション学習則に従っ
た学習処理を行うことを特徴とするバックプロパゲーシ
ョンモデルの学習処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1341823A JPH03201159A (ja) | 1989-12-28 | 1989-12-28 | バックプロパゲーションモデルの学習処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1341823A JPH03201159A (ja) | 1989-12-28 | 1989-12-28 | バックプロパゲーションモデルの学習処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03201159A true JPH03201159A (ja) | 1991-09-03 |
Family
ID=18349032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1341823A Pending JPH03201159A (ja) | 1989-12-28 | 1989-12-28 | バックプロパゲーションモデルの学習処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03201159A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606775B2 (en) * | 2003-06-20 | 2009-10-20 | Lg Electronics Inc. | Mobile communication terminal using MOBP learning |
-
1989
- 1989-12-28 JP JP1341823A patent/JPH03201159A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606775B2 (en) * | 2003-06-20 | 2009-10-20 | Lg Electronics Inc. | Mobile communication terminal using MOBP learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022134391A1 (zh) | 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备 | |
Ponnapalli et al. | A formal selection and pruning algorithm for feedforward artificial neural network optimization | |
JPH07121495A (ja) | 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 | |
JPH07114524A (ja) | 信号処理装置 | |
JP3247803B2 (ja) | ファジィ・ニューラルネットワーク・システム | |
KR0170505B1 (ko) | 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법 | |
JP3229624B2 (ja) | 多層神経回路網及びその回路設計方法 | |
JPH03201159A (ja) | バックプロパゲーションモデルの学習処理方法 | |
US5485548A (en) | Signal processing apparatus using a hierarchical neural network | |
JP3229623B2 (ja) | 多層神経回路網及びその回路設計方法 | |
JPH04237388A (ja) | ニューロプロセッサ | |
JPH07210534A (ja) | ニューラルネットワーク | |
JP2699447B2 (ja) | 信号処理装置 | |
JPH06161978A (ja) | 多層パーセプトロン形神経状回路網における学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法 | |
JPH01282672A (ja) | ニューラルネットワーク装置 | |
JP2979562B2 (ja) | 学習処理装置 | |
JPH04186402A (ja) | フアジイ推論における学習方式 | |
JP2654686B2 (ja) | ニューラルネットワーク | |
JPH05128285A (ja) | ニユーロプロセツサ | |
JPH05101209A (ja) | 階層型ニユーラルネツトワークの学習方法 | |
JPH03201158A (ja) | 学習処理装置 | |
JPH05159086A (ja) | ニューラルネットワークの学習方式 | |
Xu et al. | Adaptive higher-order feedforward neural networks | |
JP2761569B2 (ja) | 重心決定要素出力装置の教師信号決定装置 | |
JPH03268077A (ja) | ニューラルネットワークによる重心決定要素出力装置 |