JP3276035B2 - 神経回路網モデルの逐次型加速化学習方法 - Google Patents

神経回路網モデルの逐次型加速化学習方法

Info

Publication number
JP3276035B2
JP3276035B2 JP21020394A JP21020394A JP3276035B2 JP 3276035 B2 JP3276035 B2 JP 3276035B2 JP 21020394 A JP21020394 A JP 21020394A JP 21020394 A JP21020394 A JP 21020394A JP 3276035 B2 JP3276035 B2 JP 3276035B2
Authority
JP
Japan
Prior art keywords
learning
value
iteration
rate
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP21020394A
Other languages
English (en)
Other versions
JPH0877130A (ja
Inventor
慶広 落合
曽根原  登
登美夫 岸本
支朗 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP21020394A priority Critical patent/JP3276035B2/ja
Publication of JPH0877130A publication Critical patent/JPH0877130A/ja
Application granted granted Critical
Publication of JP3276035B2 publication Critical patent/JP3276035B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経回路網モデルの学
習方法に関する。
【0002】
【従来の技術】まず、本発明が適用できる神経回路網モ
デルの一例を挙げ、これに対する学習方法を説明する。
ここでは、階層型神経回路網モデルを典型例として用い
るが、回帰結合をもつ神経回路網モデルなど、他の形式
のモデルにも適用できる。
【0003】階層型神経回路網モデルは、1層の入力
層、複数層の中間層、1層の出力層からなる層状のネッ
トワークモデルであり、各層はユニット、重み、バイア
スから構成される(図5参照)。ユニットは、前層のユ
ニットの出力値(xi (i=1,2,…,L,L:前層
のユニット数)と重み(wi,i=重みの番号)の積の
総和、および、バイアス(bi,i=ユニットの番号)
を加算した値を入力値として受け、入力値にある非線形
変換(f(・))を施した値(y)を出力し、この出力
値を次層のユニットへ伝達する構造をもつ(図5,式
(1))。但し、ここでは、入力層のユニットの入出力
変換関数は、線形、入力層以外の層のユニットの非線形
変換関数f(・)は、典型例であるシグモイド関数を用
いる(式(1))が、モデルに応じて他の変換関数を用
いることも考えられる。
【0004】
【数1】 今、神経回路網モデル上にN個の重み
【0005】
【外1】 があり、ある評価基準を最小化するような重みの値を推
定するための重みの更新則を考える。ここでは、評価基
準の典型例として神経回路網モデルの出力値(O j (j
=1,2,…,M),M:出力層のユニットの番号)と
学習用出力値である教師データ(Tj (j=1,2,
…,M))の残差二乗和(式(2))を用いる。
【0006】
【数2】 D.E.Rumelhartらは神経回路網モデルの学
習方法として重みの更新則に慣性項を付加した学習方法
[参考文献1]を提案した。しかし、学習率が固定値で
あるため収束速度を改良するために、Jacobsら
は、学習率を変化させる学習率の更新則を追加した学習
方法[参考文献2]を提案した。更に、重みの振動を完
全に抑制するために、落合らは、重みの更新則に補正項
を付加した学習方法を提案した[参考文献3]。この学
習法を以下に示す。但し、k反復目の重み、勾配(評価
関数の一次変微分)、学習率、平滑化微係数、学習率の
増加率、減少率を
【0007】
【外2】 とし、過去の反復点での勾配を考慮した平滑化微分を
【0008】
【外3】 、慣性率をαとする。 参考文献 [1]Rumelhart,D.E.Hinton,
G.E.and Williams,R.J.:“Le
arning representationsby
back−propagation errors”,
Nature,323,pp,533−536(198
6). [2]Jacobs,R.A.:“Increased
rates of convergance thr
ough Learning rate adapta
tion”,Neural Networks,1,N
um.1,pp.295−307(1988). [3]落合慶広、戸田尚宏、臼井支朗:“重みの振動を
抑制する階層型ニューラルネットワークの加速化−Ki
ck Out法−”,電気学会論文誌Vol.113−
C,No.12,pp.1154−1162(199
3). Kick Out法 重みの更新則:
【0009】
【数3】 学習率の更新則:
【0010】
【数4】
【0011】
【発明が解決しようとする課題】上記のKick Ou
t法は、評価関数曲面上の谷の形状を考慮した補正係数
を決定するために、全学習パターンに対する評価関数曲
面の形状に対する学習法である。
【0012】このため、Kick Out法は、学習す
べきパターンを全て提示した後に一回だけ重みを更新す
る一括学習装置を用いており、重みの振動を補正するた
めの補正項の計算は、内積演算を含む逐次計算となって
いる。
【0013】従って、学習パターン数が増加すると、上
記の逐次計算があるために、学習アルゴリズムを一反復
するのに要する時間は、パターン数の増加に対して指数
関数的に増加し、学習時間も膨大になるという問題があ
る。これを改善するためには、学習パターンを1パター
ン提示する度に重みを更新する逐次学習を導入する必要
があるが、一括学習型のKick Out法を単純に逐
次学習型に変更しても、収束の加速化はできない。
【0014】本発明の目的は、学習パターンが多数ある
場合、または、時系列データなどを神経回路網モデルに
学習させる課題において、学習時間を短縮する逐次型加
速化学習方法を提供することにある。
【0015】本発明の他の目的は、更に、学習時の収束
の安定性を保証する逐次型加速化学習学習方法を提供す
ることにある。
【0016】
【課題を解決するための手段】本発明の逐次型加速化学
習方法は、神経回路網モデルの重みの初期値、学習率の
初期値、学習率の増加率と減少率、平滑化微係数、慣性
率、補正係数の初期値、学習の停止基準値および教師デ
ータを与える第1の段階と、学習すべき入力データの1
パターンを前記神経回路網モデルに提示し、これにより
該神経回路網モデルの出力値を計算し、この出力値と1
パターンの教師データから計算される評価基準値に基づ
き、現在の反復点(k反復目とする)における、前記重
みに関する評価関数の一次偏微分である勾配を計算する
第2の段階と、1から前記平滑化微係数を引いた値を第
2の段階で求めたk反復目の勾配に乗じ、この値と、
(k−1)反復目の平滑化微分に前記平滑化微係数を乗
じた値を加算することにより、k反復目における平滑化
微分を各要素毎に独立に計算する第3の段階と、第2の
段階で求めたk反復目の勾配と第3の段階で求めた(k
−1)反復目の平滑化微分を各要素ごとに独立に乗じ、
その乗算結果が正値の場合、学習率に前記学習率の増加
率を加えて学習率を減少させ、乗算結果が負値の場合、
学習率に前記学習率の減少率を乗じて学習率を増加させ
ることにより、各学習率を独立に更新する第4の段階
と、第2の段階で求めた勾配と第4の段階で求めた、各
重みに対応した個別の学習率を乗じた修正量を各要素毎
に独立に計算し、この修正量に、(k−1)反復目の慣
性項に前記慣性率を乗じた修正量を各重み毎に独立に加
える第5の段階と、第2の段階で求めたk反復目の勾配
と(k−1)反復目の勾配からk反復目における勾配の
差分を計算する第6の段階と、第2の段階で求めたk反
復目の勾配と(k−1)反復目の平滑化微分を各要素ご
とに乗算し、この結果が負値の場合には、さらに、第5
の段階で求めた重みの修正量に、現在の反復点における
勾配の差分に固定値である前記補正係数を乗じた補正量
を各要素ごとに独立して各重み毎に加え、前記結果が正
値の場合には、補正量を付加しない第7の段階と、第5
と第7の段階で求めた重みの修正量を加算して、これを
重みに加算して重みを要素ごとに独立に更新する第
段階を有し、前記評価基準値と前記学習の停止基準値の
関係から、学習が停止したと判断するまで第2から第
の段階を反復実行する。
【0017】本発明の他の逐次型加速化学習方法は、神
経回路網モデルの重みの初期値、学習率の初期値、学習
率の増加率と減少率、平滑化微係数、慣性率、補正係数
の初期値、学習の停止基準値および入力教師データを与
える第1の段階と、学習すべき入力データの1パターン
を前記神経回路網モデルに提示し、これにより該神経回
路網モデルの出力値を計算し、この出力値と1パターン
の教師データから計算される評価基準値に基づき、現在
の反復点(k反復目とする)における、前記重みに関す
る評価関数の一次偏微分である勾配を計算する第2の段
階と、1から前記平滑化微係数を引いた値を(k−1)
反復目の平滑化微分値に乗じ、この値と、前記平滑化微
係数を前記勾配に乗じた値を加算してk反復目の平滑化
微分を各要素ごとに独立に計算する第3の段階と、第3
の段階で求めたk反復目の平滑化微分と(k−1)反復
目の平滑化微分を各要素ごとに独立に乗じ、その演算結
果が正値の場合、前記学習率に前記学習率の増加率を加
えて前記学習率を増加させ、前記演算結果が負値の場
合、前記学習率に前記学習率の減少率を乗じて前記学習
率を減少させることにより、前記学習率を要素ごとに独
立して更新する第4の段階と、第2の段階で求めた勾配
と第4の段階で求めた、各重みに対応した個別の学習率
を乗じた修正量を各要素毎に独立に計算し、この修正量
に、(k−1)反復目の慣性項に前記慣性率を乗じた修
正量を各重み毎に独立に加える第5の段階と、第2の段
階で求めたk反復目の勾配と(k−1)反復目の勾配か
らk反復目における勾配の差分を計算する第6の段階
と、第3の段階で求めたk反復目の平滑化微分と(k−
1)反復目の平滑化微分を各要素ごとに乗算し、この演
算結果が負値の場合には、さらに、第5の段階で求め
た、現在の反復点における勾配の差分に可変の前記補正
係数を乗じた補正量を求めて、これを重みの停止量に加
算し、前記演算結果が正値の場合には、前記補正量を計
算しない第7の段階と、k反復目の平滑化微分値と(k
−1)反復目の平滑化微分を各要素毎に乗算し、結果が
正値の場合には補正係数を減少させ、負値の場合には補
正係数を増加させる第8の段階と、第5と第7の段階で
求めた重みの修正量を加算して、これを重みに加算して
重みを要素ごとに独立に更新する第9の段階を有し、前
記評価基準値と前記学習の停止基準値の関係から、学習
が停止したと判断するまで第2から第9の段階を反復実
行する。
【0018】
【作用】本発明は、評価関数曲面上に谷などの条件数の
大きい曲面が存在する場合、この領域において発生する
重みの振動を抑制し、収束を加速化するために、各要素
ごとに独立に、重みと学習率を更新するようにしたもの
である。
【0019】本発明における補正項は、重みの振動を判
定するために、評価関数曲面上の大域的な勾配を表す平
滑化微分と勾配を利用して求める。従来の加速化学習法
では、重みの補正基準としてk,k−1反復目の勾配の
差分の内積値
【0020】
【数5】 が用いられており、かつ、補正係数
【0021】
【数6】 にも内積演算が含まれているために逐次処理を行なわね
ばならず、各要素ごとに独立に重みを更新することがで
きない。
【0022】ここで、Kick Out法による学習方
法と、本発明の逐次型学習方法の違いを概念図により説
明する。ここでは、学習パターンを4パターン用いて学
習する場合を考える。
【0023】図3はKick Out法による学習装置
を用いた場合、重みが評価関数曲面を降下する様子を示
した図である。Kick Out法では、全学習パター
ンに対して重みなどが更新されるため、4つの学習パタ
ーン全てに対する評価関数曲面を降下するように学習が
進行する。
【0024】これに対して、本発明の逐次型学習方法を
用いた場合、各々のパターンに対する評価関数曲面の形
状が異なり、個々の評価関数曲面に対して重みの振動を
抑制するように学習が進行する。図4(1)〜(4)
は、この様子を示したものであり、各学習パターンに対
する評価関数曲面上においてアルゴリルズムが一反復す
る過程を表している。
【0025】以上の図3と図4(1)〜(4)を比較す
ると分かるように、Kick Out法を用いた学習方
法を用いた場合、4つの学習パターンを提示しても一回
しか重みが更新されないのに対して、本発明の学習方法
を用いた場合、各学習パターンの提示に対して各々重み
が更新されるため、早く収束するという利点をもつ。請
求項1の学習方法では、記憶容量、計算量を極力低減さ
せるために、学習率の更新基準または重みの補正基準と
してk反復目の勾配と(k−1)反復目の平滑化微分の
積を用いた。更に、補正係数として計算値ではなく設定
値を用いることにより、内積演算を排除し、重みの振動
を各要素ごとに独立して補正することを可能にした。
【0026】請求項2の学習方法では、学習を安定して
収束するためには、学習率と、補正項付加の判断基準に
用いる勾配などの評価関数曲面の情報として全パターン
に対する大域的な情報を用いる必要があるため、kおよ
び(k−1)反復目の平滑化微分の積を用いた。更に、
補正係数を学習の状況に応じて変化させることにより、
適切な補正を可能にした。
【0027】従って、請求項1の学習方法を用いること
により、多くの学習パターンをもつ課題の学習、また
は、時系列データなどを用いた逐次学習などにおいて、
学習時間の短縮が可能となる。
【0028】また、請求項2の学習方法を用いることに
より、請求項1の学習方法と比較すると、記憶容量、計
算量は増加するが、学習時の収束の不安定性を減少させ
ることが可能になる。
【0029】なお、評価基準としては、神経回路網モデ
ルの出力値と学習パターンに含まれる教師データの残差
二乗和が広く用いられている。この評価基準は(2)式
のように表される。本発明において述べた評価基準とし
ては、上記以外にも、Kullback diverg
ence(ゆう度対数)、絶対値誤差などの他の基準を
用いることも可能である。
【0030】ここで、本発明の学習方法の各段階につい
て説明する。
【0031】第3の段階は、学習率を更新する際、数値
的発散などを防止するため、評価関数曲面の大域的な勾
配を用いたものである。第4の段階は、第3の段階と同
様に、学習率の値が発散したり、小さくなり過ぎたりす
るのを防ぐ。なお、学習率を増加させる場合、増加率を
加えるのは、学習率の発散を防ぐためであり、学習率を
減少させる場合、減少率を乗じるのは学習率を早く減少
させるためである。第5の段階は、収束の速さを向上さ
せるために、勾配項(k反復目の勾配に学習率を乗じた
量)のみではなく、慣性項((k−1)反復目の慣性項
に慣性率を乗じた量)を用いたものである。第7の段階
は、学習の過程で、谷における重みの振動の有無を判定
するためである。第8の段階は、学習の進行に伴い、評
価関数曲面の形状も変化するために、これに応じて、重
みの補正量(補正係数)も変化させる必要があるためで
ある。
【0032】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
【0033】図1は本発明の第1の実施例で、逐次型学
習装置のブロック図である。
【0034】本実施例の逐次型学習装置は、学習に用い
る各種変数を読み込む入力部100と、神経回路網モデ
ルの学習を行なう処理部200と、学習結果を出力する
出力部300で構成されている。
【0035】入力部100は、学習率の増加率と減少
率、平滑化微係数、慣性率、学習の停止基準値および教
師データをファイルから読み込むファイル読み込み装置
101と、時系列データを計測するセンサ102および
TVカメラ103から構成されている。
【0036】処理部200は、変数初期化部201とデ
ータ提示部202と学習率更新部203と重み更新部2
04と勾配の差分計算部205と補正項付加判断部20
6とと重み補正部208と収束判定部209から構成さ
れている。
【0037】変数初期化部201は、入力部101から
学習率の増加率と減少率、平滑化微係数、慣性率、学習
の停止基準値をおよび教師データを入力するとともに、
神経回路網モデルの重み、学習率および補正係数の各初
期値を設定し、データ提示部202に出力する。
【0038】データ提示部202はセンサ102、TV
カメラ103を用いて計測した時系列データを入力し、
一時的に蓄え、時系列データの1パターンを神経回路網
モデルに提示し、前向きの計算により神経回路網モデル
の出力値を計算し、この出力値と1パターンの教師デー
タを用いて評価基準値を計算する。この後、この評価基
準値に基づいて神経回路網モデルの逆方向計算を行な
い、勾配、すなわち現在の反復点(k反復目)におけ
る、重みに関する評価関数の一次偏微分を計算する。
【0039】学習率更新部203は、(1−平滑化微係
数)を、データ表示部202で求めたk反復目の勾配に
乗じ、この値と、(k−1)反復目の平滑化微分に平滑
化微係数を乗じた値を加算することにより、k反復目に
おける平滑化微分値を各要素ごとに求める。次に、学習
率更新部203は、k反復目の勾配と(k−1)反復目
の平滑化微分値を各要素ごと独立に乗じ、その演算結果
が正値の場合、学習率に学習率の増加率を加えて学習率
を増加させ、演算結果が負値の場合、学習率に学習率の
減少率を乗じて学習率を減少させることにより、各学習
率を独立に更新する。
【0040】重み更新部204は、先に求めた勾配に各
重みに対応した個別の学習率を乗じて修正量を各要素毎
に独立に計算し、この修正量に、(k−1)反復目の慣
性項に慣性率を乗じた修正量を各重み毎に独立に加え
る。
【0041】勾配の差分計算部205はデータ提示部2
02において求めたk反復目の勾配と(k−1)反復目
の勾配からk反復目における勾配の差分を計算する。
【0042】補正項付加判断部206は、k反復目の勾
配と(k−1)反復目の平滑化微分を各要素ごとに乗算
し、乗算結果を判定する。
【0043】
【0044】重み補正部208は、k反復目の勾配と
(k−1)反復目の平滑化微分の乗算結果が負値の場合
には、重み更新部204で求めた重みの修正量に、現在
の反復点における勾配の差分に補正係数(固定値)を乗
じた補正量を各要素毎に独立して各重みに加え、正値の
場合、補正量を付加しない。
【0045】収束判定部209は評価基準値(重みの関
数)と学習の停止基準値の関係から、評価基準値が学習
の停止基準値を満たし、学習が終了したと判定する場
合、学習を終了し、学習結果を出力部300に表示し、
学習が終了してないと判定される場合には、データ提示
部202に戻り、前述の処理を繰り返す。例えば評価基
準として(2)式を用い、学習の停止基準値を0.1と
して与えた場合、(2)式の値が0.1以下になった場
合、学習の停止条件を満たしたとみなすことができる。
また、学習課題によっては、評価基準値が停止基準値以
上となった場合、学習の停止条件を満たしたとみなす場
合もある。
【0046】図2は本発明の第2の実施例で、逐次型学
習装置のブロック図である。
【0047】本実施例は、図1の実施例と、学習率更新
部203′、補正項付加判断部206′、補正量計算部
207′、重み補正部208′のみ異なっている。
【0048】学習率更新部203′は、(1−平滑化微
分係数)を(k−1)反復目の平滑化微分値に乗じ、こ
の値と、平滑化微係数を勾配に乗じた値を加算して、k
反復目の平滑化微分値を各要素系ごとに求める。次に、
学習率更新部203′は、k反復目の平滑化微分と(k
−1)反復目の平滑化微分値を各要素ごとに独立に乗
じ、この演算結果が正値の場合、学習率に学習率の増加
率を加えて学習率を増加させ、演算結果が負値の場合、
学習率に学習率の減少率を乗じて学習率を減少させるこ
とにより、学習率を要素ごとに独立に更新する。
【0049】補正項付加判断部206′は、k反復目の
平滑化微分と(k−1)反復目の平滑化微分を各要素ご
とに乗算し、乗算結果を判定する。
【0050】補正量計算部207’は、k反復目の平滑
化微分と(k−1)反復目の平滑化微分を要素毎に乗算
した結果が負値の場合にのみ、現在の反復点における勾
配の差分に補正係数(可変値)を乗じた補正量を求め、
これを重みの修正量に加算する。そしてk反復目の平滑
化微分と(k−1)反復目の平滑化微分を乗算した結果
が正値の場合は、補正係数を減少させ、負値の場合は、
補正係数を増加させる。
【0051】重み補正部208’は、k反復目の勾配と
(k−1)反復目の平滑化微分の乗算結果が負値の場合
には、重み更新部204で求めた重みの修正量に、現在
の反復点における勾配の差分に補正係数(可変値)を乗
じた補正量を各要素毎に独立して各重みに加え、正値の
場合、補正量を付加しない。
【0052】なお、第1の実施例の学習装置には以下の
場合も含まれる。 1)全ての学習率を同じ値に設定し、この値を学習過程
において固定(学習率の増加率を0、学習率の減少率を
1と設定)とする。 2)平滑化微係数を0、すなわち、重みの補正基準、学
習率の更新基準に勾配のみを用いる。 3)慣性率の値を0に設定する。
【0053】第2の実施例の学習装置には、以下の場合
も含まれる。 1)補正係数を増加させる際、補正係数に正の値を加算
する、または、1より大きい値を乗算する。 2)補正係数を減少させる際、補正係数に、0より大き
く、かつ、1未満の値を乗じる、または、補正係数から
正の値を減算する。 3)上記1),2)を併用して、補正係数を増減する。
【0054】
【発明の効果】以上説明したように、本発明は、以下に
示すような効果がある。 (1)請求項1の発明は、学習率の更新基準または重み
の補正基準としてk反復目の勾配と(k−1)反復目の
平滑化微分の積を用い、さらに補正係数として設定値を
用いることにより、記憶容量が少なくて済み、時系列デ
ータなどのように学習データが無限個存在する課題の学
習時間が短縮される。 (2)請求項2の発明は、kおよび(k−1)反復目の
平滑化微分の積を用い、更に補正係数を学習の状況に応
じて変化させることにより、時系列データなどのように
学習データが無限個存在する課題の学習が短時間で終了
し、かつ、安定した収束が可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の逐次型学習装置のブロ
ック図である。
【図2】本発明の第2の実施例の逐次型学習装置のブロ
ック図である。
【図3】Kick Out法による学習装置を用いた場
合に重みが評価関数曲面を降下する様子を示す図であ
る。
【図4】本発明の逐次型学習方法を用いた場合に重みの
評価関数曲面を降下する様子を示す図である。
【図5】神経回路網モデルの一例を示す図である。
【符号の説明】
100 入力部 101 ファイル読み込み装置 102 センサ 103 TVカメラ 200 処理部 201 変数初期化部 202 データ提示部 203,203′ 学習率更新部 204 重み更新部 205 勾配の差分計算部 206,206′ 補正項付加判断部 207′ 補正量計算部 208,208′ 重み補正部 209 収束判定部 300 出力部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 臼井 支朗 愛知県豊橋市天伯町字雲雀々丘1−1 豊橋技術科学大学 情報工学系内 (56)参考文献 特開 平7−56880(JP,A) 落合慶広,新しい学習率の更新則によ るKick Out法の改良,電子情報 通信学会技術研究報告,日本,社団法人 電子情報通信学会,1992年12月17日,N C92−94,Vol.92,No.38,p. 111−118 落合慶広,重みの振動を抑制する階層 型ニューラルネットワークの学習の加速 化,電子情報通信学会研究報告,日本, 社団法人電子情報通信学会,1992年3月 18日,NC91−129,Vol91,No 529,p.229−236 落合慶広,重みの振動を抑制する階層 型ニューラルネットワークの学習法 − Kick Out法 −,電気学会論 文誌C,日本,社団法人電気学会,Vo l.113−C,No.12,p.1154− 1162 相澤益男,ニューロ・ファジィ・AI ハンドブック,日本,オーム社,1994年 5月25日,p.88−90 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 神経回路網モデルの重みの初期値、学習
    率の初期値、学習率の増加率と減少率、平滑化微係数、
    慣性率、補正係数の初期値、学習の停止基準値および教
    師データを与える第1の段階と、 学習すべき入力データの1パターンを前記神経回路網モ
    デルに提示し、これにより該神経回路網モデルの出力値
    を計算し、この出力値と1パターンの前記教師データか
    ら計算される評価基準値に基づき、現在の反復点(k反
    復目とする)における、前記重みに関する評価関数の一
    次偏微分である勾配を計算する第2の段階と、 1から前記平滑化微係数を引いた値を第2の段階で求め
    たk反復目の勾配に乗じ、この値と、(k−1)反復目
    の平滑化微分に前記平滑化微係数を乗じた値を加算する
    ことにより、k反復目における平滑化微分を各要素毎に
    独立に計算する第3の段階と、 第2の段階で求めたk反復目の勾配と第3の段階で求め
    た(k−1)反復目の平滑化微分を各要素ごとに独立に
    乗じ、その乗算結果が正値の場合、学習率に前記学習率
    の増加率を加えて学習率を増加させ、乗算結果が負値の
    場合、学習率に前記学習率の減少率を乗じて学習率を減
    少させることにより、各学習率を独立に更新する第4の
    段階と、 第2の段階で求めた勾配と第4の段階で求めた、各重み
    に対応した個別の学習率を乗じた修正量を各要素毎に独
    立に計算し、この修正量に、(k−1)反復目の慣性項
    に前記慣性率を乗じた修正量を各重み毎に独立に加える
    第5の段階と、第2の段階で求めたk反復目の勾配と
    (k−1)反復目の勾配からk反復目における勾配の差
    分を計算する第6の段階と、 第2の段階で求めたk反復目の勾配と(k−1)反復目
    の平滑化微分を各要素ごとに乗算し、この結果が負値の
    場合には、さらに、第5の段階で求めた重みの修正量
    に、現在の反復点における勾配の差分に固定値である前
    記補正係数を乗じた補正量を各要素ごとに独立して各重
    み毎に加え、前記結果が正値の場合には、補正量を付加
    しない第7の段階と、 第5と第7の段階で求めた重みの修正量を加算して、こ
    れを重みに加算して重みを要素ごとに独立に更新する第
    の段階を有し、 前記評価基準値と前記学習の停止基準値の関係から、学
    習が停止したと判断するまで第2から第8の段階を反復
    実行する、神経回路網モデルの逐次型加速化学習方法。
  2. 【請求項2】 神経回路網モデルの重みの初期値、学習
    率の初期値、学習率の増加率と減少率、平滑化微係数、
    慣性率、補正係数の初期値、学習の停止基準値および教
    師データを与える第1の段階と、 学習すべき入力データの1パターンを前記神経回路網モ
    デルに提示し、これにより該神経回路網モデルの出力値
    を計算し、この出力値と1パターンの前記教師データか
    ら計算される評価基準値に基づき、現在の反復点(k反
    復目とする)における、前記重みに関する評価関数の一
    次偏微分である勾配を計算する第2の段階と、 1から前記平滑化微係数を引いた値を(k−1)反復目
    の平滑化微分値に乗じ、この値と、前記平滑化微係数を
    前記勾配に乗じた値を加算してk反復目の平滑化微分を
    各要素ごとに独立に計算する第3の段階と、 第3の段階で求めたk反復目の平滑化微係分と(k−
    1)反復目の平滑化微分を各要素ごとに独立に乗じ、そ
    の演算結果が正値の場合、前記学習率に前記学習率の増
    加率を加えて前記学習率を増加させ、前記演算結果が負
    値の場合、前記学習率に前記学習率の減少率を乗じて前
    記学習率を減少させることにより、前記学習率を要素ご
    とに独立して更新する第4の段階と、 第2の段階で求めた勾配と第4の段階で求めた、各重み
    に対応した個別の学習率を乗じた修正量を各要素毎に独
    立に計算し、この修正量に、(k−1)反復目の慣性項
    に前記慣性率を乗じた修正量を各重み毎に独立に加える
    第5の段階と、第2の段階で求めたk反復目の勾配と
    (k−1)反復目の勾配からk反復目における勾配の差
    分を計算する第6の段階と、 第3の段階で求めたk反復目の平滑化微分と(k−1)
    反復目の平滑化微分を各要素ごとに乗算し、この演算結
    果が負値の場合には、さらに、第5の段階で求めた現在
    の反復点における勾配の差分に可変の前記補正係数を乗
    じた補正量を求めて、これを重みの修正量に加算し、前
    記演算結果が正値の場合には、前記補正量を計算しない
    第7の段階と、 k反復目の平滑化微分値と(k−1)反復目の平滑化微
    分を各要素毎に乗算し、結果が正値の場合には補正係数
    を減少させ、負値の場合には補正係数を増加させる第8
    の段階と、 第5と第7の段階で求めた重みの修正量を加算して、こ
    れを重みに加算して重みを要素ごとに独立に更新する第
    9の段階を有し、 前記評価基準値と前記学習の停止基準値の関係から、学
    習が停止したと判断するまで第2から第9の段階を反復
    実行する、神経回路網モデルの逐次型加速化学習方法。
  3. 【請求項3】 前記補正係数を増加させる際、前記補正
    係数に正の値を加算するか、1より大きい値を乗算し、
    前記補正係数を減少させる際、前記補正係数に、0より
    大きく、かつ、1未満の値を乗算するか、前記補正係数
    から正の値を減算し、またはこれらの方法を併用して補
    正係数を増減する、請求項2に記載の方法。
JP21020394A 1994-09-02 1994-09-02 神経回路網モデルの逐次型加速化学習方法 Expired - Lifetime JP3276035B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21020394A JP3276035B2 (ja) 1994-09-02 1994-09-02 神経回路網モデルの逐次型加速化学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21020394A JP3276035B2 (ja) 1994-09-02 1994-09-02 神経回路網モデルの逐次型加速化学習方法

Publications (2)

Publication Number Publication Date
JPH0877130A JPH0877130A (ja) 1996-03-22
JP3276035B2 true JP3276035B2 (ja) 2002-04-22

Family

ID=16585504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21020394A Expired - Lifetime JP3276035B2 (ja) 1994-09-02 1994-09-02 神経回路網モデルの逐次型加速化学習方法

Country Status (1)

Country Link
JP (1) JP3276035B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242761A (ja) 2012-05-22 2013-12-05 Internatl Business Mach Corp <Ibm> マルコフ決定過程システム環境下における方策パラメータを更新するための方法、並びに、その制御器及び制御プログラム
JP6962868B2 (ja) * 2018-06-07 2021-11-05 株式会社日立製作所 教師データ生成装置および教師データ生成方法
JP7279507B2 (ja) * 2019-05-21 2023-05-23 富士通株式会社 情報処理装置、情報処理プログラム及び制御方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
相澤益男,ニューロ・ファジィ・AIハンドブック,日本,オーム社,1994年5月25日,p.88−90
落合慶広,新しい学習率の更新則によるKick Out法の改良,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1992年12月17日,NC92−94,Vol.92,No.38,p.111−118
落合慶広,重みの振動を抑制する階層型ニューラルネットワークの学習の加速化,電子情報通信学会研究報告,日本,社団法人電子情報通信学会,1992年3月18日,NC91−129,Vol91,No529,p.229−236
落合慶広,重みの振動を抑制する階層型ニューラルネットワークの学習法 − Kick Out法 −,電気学会論文誌C,日本,社団法人電気学会,Vol.113−C,No.12,p.1154−1162

Also Published As

Publication number Publication date
JPH0877130A (ja) 1996-03-22

Similar Documents

Publication Publication Date Title
CN109767301B (zh) 推荐方法及系统、计算机装置、计算机可读存储介质
Schmidhuber Reinforcement learning in Markovian and non-Markovian environments
JP2000510265A (ja) 予測、制御および最適化のための動的および定常状態プロセスをモデル化する方法および装置
WO2019160138A1 (ja) 因果推定装置、因果推定方法、及びプログラム
Baudin et al. Fictitious play and best-response dynamics in identical interest and zero-sum stochastic games
Khan et al. Stochastic computational approach for complex nonlinear ordinary differential equations
Baudin et al. Best-response dynamics and fictitious play in identical-interest and zero-sum stochastic games
JP3276035B2 (ja) 神経回路網モデルの逐次型加速化学習方法
Zweiri Optimization of a three-term backpropagation algorithm used for neural network learning
US20210012204A1 (en) Diagnostic method, learning method, learning device, and storage medium storing program
Chen et al. A nonlinear control scheme for imprecisely known processes using the sliding mode and neural fuzzy techniques
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
JP3597341B2 (ja) 神経回路網モデルの大域的加速化学習法およびその装置
JPH05128284A (ja) ニユーロプロセツサ
CN113485099A (zh) 一种非线性离散时间系统的在线学习控制方法
Chakrabarty et al. Moving horizon estimation for digital twins using deep autoencoders
Wang et al. Suboptimal mean controllers for bounded and dynamic stochastic distributions
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
CN110598226A (zh) 基于集员估计和神经网络的非线性系统构建方法
CN115793472B (zh) 重载列车的建模方法、建模系统、控制方法及控制系统
JPH0554014A (ja) ニユーラルネツトワークの学習装置
KR101790319B1 (ko) 상호연결된 시간 지연 시스템의 최소 예측 기반 분산 제어를 위한 장치 및 방법
JP2979562B2 (ja) 学習処理装置
Chaturvedi Factors affecting the performance of artificial neural network models
Yildirim Sigmarho Kalman Filter Implementation and Analysis

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100208

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term