JPH03201159A - バックプロパゲーションモデルの学習処理方法 - Google Patents

バックプロパゲーションモデルの学習処理方法

Info

Publication number
JPH03201159A
JPH03201159A JP1341823A JP34182389A JPH03201159A JP H03201159 A JPH03201159 A JP H03201159A JP 1341823 A JP1341823 A JP 1341823A JP 34182389 A JP34182389 A JP 34182389A JP H03201159 A JPH03201159 A JP H03201159A
Authority
JP
Japan
Prior art keywords
learning
unit
output
learning processing
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1341823A
Other languages
English (en)
Inventor
Shigeru Arisawa
繁 有沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP1341823A priority Critical patent/JPH03201159A/ja
Publication of JPH03201159A publication Critical patent/JPH03201159A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、それぞれニューロンに対応する信号処理を行
う複数のユニットにより構成される所謂ニューラルネッ
トワーク(Neural Network :神経回路
網〉を用いた信号処理部に対して、パックプロパゲーシ
ッン(Back propagation :逆伝播)
学C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーシッン学習則r rParallelDi
stributad ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号。
No、427.pP115−124等参照1は、第2図
に示すように、入力層(31〉と出力層(33)の間に
中間層(32)を有する多層構造のニューラルネットワ
ークに適用され、高速画倣処理やパターン認識等の各種
の信号処理への応用が試みられている。
すなわち、第2図に示すように、このニューラルネット
ワークを槽底する各ユニット(Uj)は、ユニット(U
ム)からユニット(Uj)への結合係数Wハで結合され
るユニット(Uりの出力値O6の総和すなわち入力の総
和net7を例えば51g5oid関数などを用いた状
態遷移関数r (netj)で変換した値Ojを出力す
る。すなわち、パターンPの値が入力層の各ユニット(
uj)に入力値としてそれぞれ供給されたとき、中間層
および出力層の各ユニット(uj)の出力値OeJは、 0pJ−fj(ne5j) =fj(ΣWハ・0.jI)・・・・・第1式なる第1
式で表される。
そして、入力層(31)から出力層(33)へ向かって
、各ニューロンに対応するユニット(Uj)の出力値を
順次計算していくことで、上記出力層(33)のユニッ
ト(uj)の出力値Opjが得られる。
バックプロパゲーシッン学習アルゴリズムにおいては、
パターンpを与えたときの、出力層(33)の各ユニッ
ト(uJ)の実際の出力値1)pJと望ましい出力値L
1すなわち教師信号との二乗誤差の総和E。
を極小化するように、結合係数W□を変える学習処理を
出力層(33)から入力層(31)へ向かって順次に行
うことにより、教師信号の値LpJに最も近い出力値o
1が上記出力層(33)のユニッ)(uj)から出力さ
れるようになる。
そして、二乗誤差の総和E、を小さくする結合係数Wj
iの変化量ΔWハを、 Aw71 g  aE、 /aWjt  ・・・・・第
3式と決めると、上記第3式は、 ΔWjt−W・δpj’Opム ・・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δ、jはユニット(UJ)のもつ誤差値である。
従って、上記変化量ΔWJiを決定するためには、上記
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い、出力層のユニット(U
j)の誤差値δ、jは、δpj−(tpjOtJ)f’
j(netj) ・・−・・第5式なる第5式で与えら
れ、中間層のユニット(uJ)の誤差値δ、jは、その
ユニッ)(uz)が結合されている各ユニット(Uお)
(この例では出力層の各ユニット)の結合係数Wkjお
よび誤差値δ、を用いて、 δvaj= f ’j(netj)Σδow真J ・・
・・・第6式なる再帰関数により計算される(上記第5
式および第6式を求める過程は上述の文献を参照)。
なお、上記f ’ j(netj)は、状態遷移関数f
j(nelj)の微分値である。
そして、変化量ΔWj!は、上記第5式および第6式の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWJi 1mell −W ’δet・OII! +
 (X ・Δ’j!Is)・・=・・・第7式 なる第7弐により求めることで、より安定した結果が得
られる。なお、αはエラーの振動を減らし、収束を速め
るための安定化定数である。
そして、この学習を繰り返し行い、出力値OpJと教師
信号の値LsJとの二乗誤差の総和E、が十分に小さく
なった時点で学習を完了するようにしていた。
D 発明が解決しようとする課題 ところで、上述の如きパックプロパゲーシツン学習則を
ニューラルネットワークに採用した学習処理装置では、
ニューロンに対応するユニット間の結合の強さの係数の
初期値を設定する場合に、ネットワークが始めから特定
の構造を有していると、ネットワークが一度特定の構造
を持たない状態となり、その後に学習が進むことになり
、学習時間が長くなってしまう。
そこで、本発明は、上述の如き従来の実情に鑑み、ニュ
ーラルネットワークによる信号処理部に対してバックプ
ロパゲーシッン学習則に従った学習処理を施す学習処理
装置において、効率良く且つ確実に学習処理を行うこと
ができるようにすることを目的とする。
E 課題を解決するための手段 本発明に係るバックプロパゲーションモデルの学習処理
方法は、上述の目的を達成するために、それぞれニュー
ロンに対応する信号処理を行う各ユニットが状態遷移関
数により与えられる出力値の中間値を出力するように、
各ユニットの間の結合の強さの係数の初期値を設定して
、バックブロバゲーシッン学習則に従った学習処理を行
うことを特徴とする。
F 作用 本発明に係るバックプロパゲーションモデルの学習処理
方法では、それぞれニューロンに対応する信号処理を行
う各ユニットが状態遷移関数により与えられる出力値の
中間値を出力するように、各ユニットの間の結合の強さ
の係数の初期値を設定することにより、上記ユニットに
より構成されるニューラルネットワークが特定の構造を
持たない状態でバックプロパゲーシッン学習則に従った
学習処理を開始する。
特定の構造を持たないニューラルネットワークは、バッ
クプロバゲーシッン学習則に従った学習処理を直ちに進
めることができる。
G 実施例 以下、本発明に係るバックプロパゲーションモデルの学
習処理方法の一実施例について、詳細に説明する。
それぞれニューロンに対応する信号処理を行う複数のユ
ニットにより構成されるニューラルネットワークは、学
習の初期の段階(初期値設定時も含む)には、ニューロ
ンに対応するユニットへの各人力Oムに結合の強さの係
数WJiを掛けた荷重和の値netjが非常に小さいた
め、ユニットが上述のsig*oid関数などを用いた
状態遷移関数f(neta)の線形な領域で動作してい
る。従って、バンクプロパゲーションモデルのような階
層構造モデルでは、 )’ 曽= a + X + + a w X z +
・・・+a11xII+θ ・・・・・・第8式なる第
8式で示すように、入力Xl+X1〜Xaの一次結合と
して出力y、を示すことができる。
従って、入力x、X!〜X、の係数al+affi〜a
、lをal=a8=・・・・=all−0とするように
、各ユニット間の結合の強さの係数Wjlを設定するこ
とによって、出力Fmは入力XI+Xt〜X。
の値に拘らず0となり、ネットワークは特定の状態を持
たないように初期化される。
このようにニューラルネットワークが特定の構造を持た
ない状態からパックプロパゲーシッン学習則に従った学
習処理を行うことにより、上記特定の構造を持たないニ
ューラルネットワークは、パックプロパゲーシッン学習
則に従った学習処理を直ちに進めることがき、学習処理
時間を短縮して効率の良い学習処理を施すことができる
例えば、第1図に示すように、ニューロンに対応する信
号処理を行う三個のユニット(U□)。
(u、)、(u□)からなる2層2人力1出力のネット
ワークでは、 y−(ae+bf)x、+ (ce+df)xt・・・
・・・第9式 威る第9式で出力yを示すことができる。
この場合、 a e+b f−c e+d f−0−・・・第10式
なる第1O式を壱満たす解の一つは、 a=bmcmd−e−0,1 f−−0,1 である、上記第10式を奎満たすように、各ユニット(
u ++)、(u tt)、(u□)間の結合係数を初
期設定することにより、上記三個のユニット(U++L
 (ultL (u□)は、特定の構造を持たない2層
2人力1出力のニューラルネットワークを構成する。
上記第1図に示した2層2人力l出力のネットワークに
対して、このように初期設定して第1表に示す排他的論
理和についてバックプロパゲーシッン学習則に従った学
習処理を行った結果、乱数により初期値を設定した場合
よりも、短い学習時間で上記排他的論理和の学習処理を
終了することができた。
なお、本発明に係るバックプロパゲージロンモデルの学
習処理方法は、上述の第1図に示した2層2人力l出力
のニューラルネットワークのみに適用されるものではな
く、バックプロパゲーションモデルの用途や規模によら
ず利用することができる。
H発明の効果 以上の述べたように、本発明に係るバックプロパゲーシ
ョンモデルの学習処理方法では、それぞれニエーロンに
対応する信号処理を行う各ユニットが状態遷移関数によ
り与えられる出力値の中間値を出力するように、各ユニ
ットの間の結合の強さの係数の初期値を設定することに
より、上記ユニットにより構成されるニューラルネット
ワークが特定の構造を持たない状態に初期設定すること
ができる。特定の構造を持たないニューラルネットワー
クは、パックブロパゲーシッン学習則に従った学習処理
を直ちに進めることができ、学習回数を大幅に減少させ
て、高速で安定に学習を行うことができる。
【図面の簡単な説明】
第1図は、本発明に係るバックプロパゲーションモデル
の学習処理方法により学習処理を施した2層2人力l出
力のニューラルネットワークを示す回路図である。 第2図は、パックプロッパゲーシッン学習則の適用され
るニューラルネットワークの一般的な構成を示す模式図
である。

Claims (1)

    【特許請求の範囲】
  1. それぞれニューロンに対応する信号処理を行う各ユニッ
    トが状態遷移関数により与えられる出力値の中間値を出
    力するように、各ユニットの間の結合の強さの係数の初
    期値を設定して、バックプロパゲーション学習則に従っ
    た学習処理を行うことを特徴とするバックプロパゲーシ
    ョンモデルの学習処理方法。
JP1341823A 1989-12-28 1989-12-28 バックプロパゲーションモデルの学習処理方法 Pending JPH03201159A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1341823A JPH03201159A (ja) 1989-12-28 1989-12-28 バックプロパゲーションモデルの学習処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1341823A JPH03201159A (ja) 1989-12-28 1989-12-28 バックプロパゲーションモデルの学習処理方法

Publications (1)

Publication Number Publication Date
JPH03201159A true JPH03201159A (ja) 1991-09-03

Family

ID=18349032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1341823A Pending JPH03201159A (ja) 1989-12-28 1989-12-28 バックプロパゲーションモデルの学習処理方法

Country Status (1)

Country Link
JP (1) JPH03201159A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7606775B2 (en) * 2003-06-20 2009-10-20 Lg Electronics Inc. Mobile communication terminal using MOBP learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7606775B2 (en) * 2003-06-20 2009-10-20 Lg Electronics Inc. Mobile communication terminal using MOBP learning

Similar Documents

Publication Publication Date Title
WO2022134391A1 (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
JPH07121495A (ja) 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法
JPH07114524A (ja) 信号処理装置
JP3247803B2 (ja) ファジィ・ニューラルネットワーク・システム
KR0170505B1 (ko) 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법
JP3229624B2 (ja) 多層神経回路網及びその回路設計方法
JPH03201159A (ja) バックプロパゲーションモデルの学習処理方法
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JP3229623B2 (ja) 多層神経回路網及びその回路設計方法
JPH04237388A (ja) ニューロプロセッサ
JPH07210534A (ja) ニューラルネットワーク
JP2699447B2 (ja) 信号処理装置
JPH06161978A (ja) 多層パーセプトロン形神経状回路網における学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法
JPH01282672A (ja) ニューラルネットワーク装置
JP2979562B2 (ja) 学習処理装置
JPH04186402A (ja) フアジイ推論における学習方式
JP2654686B2 (ja) ニューラルネットワーク
JPH05128285A (ja) ニユーロプロセツサ
JPH05101209A (ja) 階層型ニユーラルネツトワークの学習方法
JPH03201158A (ja) 学習処理装置
JPH05159086A (ja) ニューラルネットワークの学習方式
Xu et al. Adaptive higher-order feedforward neural networks
JP2761569B2 (ja) 重心決定要素出力装置の教師信号決定装置
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置