JP2004334671A - 多層ニューラルネットワーク学習方法 - Google Patents

多層ニューラルネットワーク学習方法 Download PDF

Info

Publication number
JP2004334671A
JP2004334671A JP2003131665A JP2003131665A JP2004334671A JP 2004334671 A JP2004334671 A JP 2004334671A JP 2003131665 A JP2003131665 A JP 2003131665A JP 2003131665 A JP2003131665 A JP 2003131665A JP 2004334671 A JP2004334671 A JP 2004334671A
Authority
JP
Japan
Prior art keywords
output
output layer
signal
response function
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003131665A
Other languages
English (en)
Other versions
JP4258268B2 (ja
Inventor
Yotaro Hachitsuka
陽太郎 八塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2003131665A priority Critical patent/JP4258268B2/ja
Publication of JP2004334671A publication Critical patent/JP2004334671A/ja
Application granted granted Critical
Publication of JP4258268B2 publication Critical patent/JP4258268B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】局所解に陥ることなく高速且つ安定に収束させ、所望の出力層出力信号を得ることができる多層ニューラルネットワーク学習方法を提供する。
【解決手段】零点を有する出力層応答関数導関数を用いたエラーバックプロパゲーション重み係数更新により教師信号を学習する多層ニューラルネットワークの重み係数更新において、学習用入力信号に対応した教師ユニット信号と比較し不正解と判定される出力層出力ユニットに対しては、該出力層応答関数導関数を介して得られた0以上の出力層応答関数微分値に正の下限値を少なくとも設けて用い、正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた出力層応答関数微分値をそのまま用い、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ニューラルネットワークによるネットワーク障害検出、ネットワークセキュリティ、パターン認識やデータ圧縮などを行う処理分野に於いて、大量の教師付き学習用入力信号を用いて学習を行う多層ニューラルネットワークのエラーバックプロパゲーション学習方法に関するものである。
【0002】
【従来の技術】
ニューラルネットワークの1つとして、多層(階層)ニューラルネットワークがあるが、このニューラルネットワークの教師信号を用いた学習方法として、エラーバックプロパゲーション・アルゴリズムによる最急降下勾配法が幅広く使用されている。本アルゴリズムを用いた学習過程では、重み係数を初期設定した後、予め用意された教師信号Tの教師ユニット信号(教師信号エレメントでもある、T、T、...、T)から、入力層に入力された学習用入力信号に対する出力層からの出力ユニット信号を差し引き誤差信号を求め、各層の出力ユニット信号と誤差信号とを基に誤差信号の電力を最小にするように、誤差電力最小法により、各層間の重み係数の更新を行い学習を行うものである。この重み係数適応制御からなる学習を予め準備された全ての学習用入力信号に対して実行し、学習収束条件を満足するまで繰り返す。
【0003】
この学習過程に於いて、重み係数更新の結果、誤差電力が最小(グローバルミニマム)となると完全に収束し、然も全ての学習用入力信号に対する、出力層出力ユニット信号を2値化した2値出力層出力ユニット信号が2値教師ユニット信号と一致し、全ての正解出力信号が得られる。しかしながら、誤差電力が局部極小(ローカルミニマム)の局所解に一旦陥ると、それが非常に安定な場合はそれ以降の重み係数更新が進まず最小とならないこと、また、全ての2値出力層出力信号が2値教師信号とは一致せず、誤った不正解出力信号を送出する状態が発生する。一般に誤差電力が最小の状態には中々ならず、学習収束条件を満足する学習回数が著しく増加することや、収束特性に重み係数の初期値依存性があるなどの問題がある。特に大量の学習用入力信号を用いた場合に大きな問題となる。
【0004】
ここで、従来のエラーバックプロパゲーション学習の動作について、2値教師信号を例にとり図3を用いて詳細に説明する。ここでは、エレメントが0或いは1からなる2値教師信号T(T、T、...T)に対して学習速度を改善するために非特許文献1では、図3に示す従来方式の学習を用いた多層ニューラルネットワークにおいて、それぞれのエレメントに対して、0.1或いは0. 9の教師信号エレメント(T、T、...T)を設定し、動作モード制御部10からの制御信号により夫々初期設定を行った後、学習処理を開始する。また、従来のエラーバックプロパゲーション・アルゴリズムについては、非特許文献2など多くの解説書に詳細が記載されている。
【0005】
3層ニューラルネットワーク1の出力層出力信号は、各出力層ユニットに対応した出力層出力ユニット信号からなる。端子3からの教師ユニット信号(T、T、...T)から、端子2からの学習用入力信号に対する出力層出力ユニット信号を減算部4(4、4、...4)を介して差し引き、各出力層ユニットの出力層出力ユニット誤差信号からなる誤差信号を求め、これを重み係数制御部5に入力し、エラーバックプロパゲーション・アルゴリズムにより重み係数更新を行い、3層ニューラルネットワーク1に再度設定する処理を学習用入力信号に対して繰り返し実行する。
【0006】
また、2値識別スレショルドを用いて2値化する2値スレショルド回路6(6、6、...6)を介して出力層出力ユニット信号から2値出力層出力ユニット信号を得、また、2値識別スレショルドを用いて2値化する2値スレショルド回路7(7、7、...7)を介して教師信号Tから2値教師信号を得、一致検出部8にてこれらが完全に一致する状態を検出すると正解出力信号とみなし、学習収束判定処理部9に送出する。また、2値出力層出力ユニット信号から構成された2値出力層出力信号が得られる。
【0007】
学習収束判定処理部9では、全ての学習用入力信号に対する出力信号の誤差電力を求め、これが予め準備された誤差電力スレショルド以下で、更に全て2値教師信号と一致し正解出力信号となれば、3層ニューラルネットワーク1が収束したと判断して動作モード制御部10を介して学習が終了する。ここで、大規模ニューラルネットワークを大量の学習用入力信号で学習する際に、誤差電力が与えられた誤差電力スレショルド以下であっても、一致検出部8に於いて2値出力層出力信号と2値教師信号との完全な一致が得られない、数個の不正解の出力層出力信号が存続し、全て正解の出力層出力信号とはならない場合、非常に安定したローカルミニマム(局所解)に落ち込む場合がある。
【0008】
このような状況下では、殆どの学習用入力信号に対する正解の出力層出力信号は、教師信号に非常に近いより正解の値をとり、数少ない学習用入力信号に対する不正解の出力層出力信号は、教師信号から大きく離れたより不正解の値をとり、収束せず学習が進まない。従って、全正解の出力層出力信号が得られず、汎化特性も劣化する。
【0009】
ここで、重み係数制御部5における従来のエラーバックプロパゲーション・アルゴリズムによる重み係数更新に関して、安定したローカルミニマムの発生について以下に説明する。教師信号エレメント(T、T、...T)を0.1或いは0.9に設定することにより、0或いは1からなる2値教師信号の場合に比較して収束しやすくなり学習回数も削減されることが述べられている。
【0010】
式(1)の各ユニットに於ける出力ユニット信号を得る際に、一般に用いられる応答関数f(x)の一例としての式(2)の示す0から1の範囲の値を持つシグモイド関数を仮定すると、
(t)=f(Nin (t)),
(t)=f(Nin (t)) (1)
(t):t番目学習用入力信号に対するk層j番目ユニットの出力ユニット信号
(t):t番目学習用入力信号に対するs(出力)層m番目ユニットの出力層出力ユニット信号
t:学習用入力信号番号
s:出力層
j:k層j番目ユニット番号
m:出力層m番目ユニット番号
Nin (t):t番目学習用入力信号に対応したk層j番目ユニットへの入力の総和(ユニットへの入力信号を意味する)。
【0011】
f(x)=1/{1+Exp(−x)} (2)
で与えられる。
【0012】
安定したローカルミニマムでは、k層出力ユニット信号O (t)が0あるいは1に近づくと、重み係数更新量を得る際に用いられる式(3)に示す応答関数導関数f’(x)が零点を持ち、即ち応答関数微分値が零或いは零に非常に近い正の小さい値となることにより、重み係数の更新量も小さくなり、更新速度が極端に小さくなることの理由による。
【0013】
f’(x):応答関数導関数
Figure 2004334671
ここで、
【数1】
Figure 2004334671
j,i:k層j番目ユニットとk−1層i番目ユニット間の重み係数
Nin (t):t番目学習用入力信号に対応したk層j番目ユニットへの入力の総和(入力信号)
で与えられる。
【0014】
誤差電力の最急降下勾配法では、式(3)に記載されているように、応答関数としてのシグモイド関数の微分値を出力層応答関数微分値処理部20及び中間層応答関数微分値処理部21に於いて、それぞれ出力層及び中間層に対して求める。
【0015】
t番目学習用入力信号に対する出力層m番目ユニットの出力層出力ユニット誤差信号は、式(5)で与えられ、出力層出力信号の誤差電力、Epowerは式(6)で与えられる。
【0016】
出力層出力ユニット誤差信号=T−O (t) (5)
:t番目学習用入力信号に対する出力層m番目ユニットの教師信号
【数2】
Figure 2004334671
ここで、k−1層i番目ユニット−k層j番目ユニット間の重み係数の重み係数更新の際の、重み微調修正量を式(7)で与えられる。
【0017】
重み微調修正量=δ (t)・O (t) (7)
ここで、s−1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み微調修正量に於けるδ (t)は、式(8)となる。
【0018】
Figure 2004334671
出力層では、教師信号エレメントを0.1及び0. 9に設定し、O (t)が0または1とならないようにしてδ (t)を求め、学習速度を改善している。しかしながら、このような教師信号エレメントの値の設定に於いても同様に安定したローカルミニマムに落ち込む場合がある。また、0.1及び0.9を用いることから、これらの値に収束した場合にも、0或いは1のエレメントを持つ教師信号の場合に比較して汎化特性がかなり劣化する。
k層j番目ユニット−k+1層n番目ユニット間の重み係数の重み微調修正量に於けるδ (t)は、式(9)となる。
【0019】
【数3】
Figure 2004334671
但し、k≠s
ここで、
ΔW m,jをs−1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み係数更新量、
ΔW j,iを(k−1)層i番目ユニット−k層j番目ユニット間重み係数の重み係数更新量とすると、式(10)で与えられる。また、更新された重み係数は式(11)で与えられる。
【0020】
ΔW j,i(t)=αδ (t)Ok−1 (t)+ηΔW j,i(t−1) (10)
η:慣性係数
α:学習係数
j,i(t)=W j,i(t−1)+ΔW j,i(t) (11)
上記の式(3)で求められた出力層及び中間層の夫々の応答関数微分値は、重み微調修正量処理部22に入力され、式(7)のように重み微調修正量が得られる。これを重み係数更新量処理部23に入力し、式(10)のように、t−1番目の学習用入力信号の重み係数更新量が重み係数更新量記憶部24から読み出され、加算され新たな重み係数更新量を得る。その後、重み係数更新処理部25へ送出すると共に、式(10)の新たな重み係数更新量は、重み係数更新量記憶部24に格納する。
【0021】
重み係数更新処理部25では、式(11)のように、t−1番目の学習用入力信号の重み係数を重み係数記憶処理部26から読み出し、重み係数更新量を加算することにより、新たな重み係数を得、重み係数記憶処理部26に格納する。全ての学習用入力信号に対して求められると、この新たな重み係数を重み係数記憶処理部26から読み出し3層ニューラルネットワーク1の重み係数として、夫々の層間のユニットの結合の為に設定される。
【0022】
上記の如く、全ての学習用入力信号に対して一連の重み係数更新処理が終了すると、動作モード制御部10からの制御信号を基に、全ての学習用入力信号を3層ニューラルネットワーク1に入力し、式(1)に示すように、出力層に対応した応答関数出力信号を出力層出力信号として得る。更に、式(5)に示すように、減算部4を介して誤差信号を得、式(6)に示す誤差電力を求め、学習収束判定処理部9にて出力信号の収束状態を調べる。学習収束条件として、一致検出部8から全て正解出力信号が得られ、然も誤差電力スレショルド以下であれば、収束したと判定し学習を終了する。一方、これらの学習収束条件が満たされない場合には、満たされるまで、再度、全ての学習用入力信号に対して重み係数更新を繰り返し行う。
【0023】
ここで、式(7)に示すように、正解出力信号の誤差成分が小さくなると共に、応答関数微分値も小さく、重み微調修正量が非常に小さくなる。
【0024】
また、式(3)で明らかなように、出力層応答関数微分値は、誤差が非常に大きい不正解出力層出力信号に対しても非常に小さくなる可能性があり、結果的に不正解出力層出力信号に対しても重み微調修正量が小さくなり、重み係数の更新が進まない場合がある。
【0025】
特に、収束が進み、殆どの学習用入力信号に対して正解出力層出力信号となり、不正解出力層出力信号の学習用入力信号数が数個と非常に少なくなると、誤差電力はより小さくなる。しかしながら、急激に正解出力層出力信号は益々教師信号に非常に近い、最小の誤差成分を持った正解の出力層出力信号に、一方、不正解出力層出力信号は、より大きな誤差信号を持ち、急激に最大の誤差成分を持った不正解出力層出力信号となり、安定したローカルミニマムに陥る。この為に、これ以降の重み係数更新は進まず、誤差電力も殆ど変化せず、不正解出力層出力信号を出したままとなる。
【0026】
これらの従来の学習方法では、上記説明の如く、ローカルミニマムの状態に落ち込みやすく、また、なかなか抜け出せないことから、全て正解出力となり完全な収束状態が簡単には到達できないなどの欠点がある。特に、入力ユニット数の多い3層あるいは多層ニューラルネットワークにおいて、教師信号に対して確実に収束させる設計手法は明らかになっておらず、初期値依存性の為に重み係数の初期値を変更したり、中間層ユニット(隠れユニット)数を増やすなどの種々の試行錯誤を行っている。また、安定なローカルミニマムへの捕獲状態を簡単に避ける手段はこれまでない。
【0027】
【発明が解決しようとする課題】
上記の説明のごとく、教師信号を用いた多層ニューラルネットワークの従来の学習処理において、多層ニューラルネットワークが学習用入力信号に対応した所望の出力信号を送出するよう重み係数を更新する際に、正解で所望の出力信号を送出する収束した状態になるまでの学習回数即ち学習繰り返し回数が非常に多くなる場合や、学習しても収束しない状態即ち非常に安定したローカルミニマムの状態に落ち込み所望の出力信号が送出されないなど重み係数の初期値依存性があるなどの欠点を有している。
【0028】
特に、入力層や出力層出力ユニット数が多く、而も分布型の表現形式を持った出力信号を用いた多層ニューラルネットワークでは、学習用入力信号数が多い場合、学習の際に収束が非常に困難となり、所望の出力信号を送出する多層ニューラルネットワークを自由に設計する方法が確立されていない。また、収束しやすくするために中間ユニット数を大幅に増やす方法もあるが、収束が補償される訳ではない。過学習により汎化能力が劣化すると共に当然のことながらそれぞれの演算量が増し、非常に大きいハードウェア能力あるいは演算能力が要求される。
【0029】
本発明の目的は、上記の問題を解決し、多層ニューラルネットワークに於ける従来のエラーバックプロパゲーション学習方法などに比べて、安定したローカルミニマム(局所解)に陥ることなく、非常に少ない学習回数で非常に安定に収束し、10倍から100倍の高速度で学習を完了させることが出来、然も汎化能力に優れ、学習用入力信号に対して所望の出力信号を容易に得ることができる多層ニューラルネットワークの新たなエラーバックプロパゲーション学習方法を提供することにある。
【0030】
【非特許文献1】
“Parallel Distributed Processing” D.E. Rumelhart, MIT Press.1988年
【非特許文献2】
ニューラルネットワーク情報処理、著者 麻生英樹、産業図書出版、1988年
【0031】
【課題を解決するための手段】
上記の問題点を解決するために、第1の手段として、零点を有する出力層応答関数導関数を用いたエラーバックプロパゲーション重み係数更新により教師信号を学習する多層ニューラルネットワークの重み係数更新において、学習用入力信号に対応した出力層出力ユニット信号の正解不正解を少なくとも判定する正解不正解出力判定手段を設け、不正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた0以上の出力層応答関数微分値に対して正の下限値を少なくとも設定し、前記0以上の出力層応答関数微分値が前記下限値より小さいときは、前記出力層応答関数微分値を前記下限値に修正し、正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた出力層応答関数微分値をそのまま用い、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習を構成する。
【0032】
第2の手段として、第1の手段の多層ニューラルネットワーク学習方法に於いて、不正解の出力層出力信号を送出する学習用入力信号の個数が指定された個数以下となると、前記下限値を小さくし、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法を構成する。
【0033】
第3の手段として、第1の手段の多層ニューラルネットワーク学習方法に於いて、学習回数の増加に従って、前記下限値を小さくし、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法を構成する。
【0034】
第4の手段として、前記第1、2または第3の手段に記載の多層ニューラルネットワーク学習方法に於いて、前記教師信号として多値教師信号を用い、前記出力層出力ユニット信号を多値識別スレショルドを用いて多値化する多値スレショルド手段により多値出力層出力ユニット信号を得、前記正解不正解出力判定手段として、該多値出力層出力ユニット信号と該多値教師ユニット信号との一致、不一致状態を検出し夫々正解、不正解出力判定を少なくとも行うことを特徴とした多層ニューラルネットワーク学習方法を構成する。
【0035】
第5の手段として、第1、2または第3の手段に記載の多層ニューラルネットワーク学習方法に於いて、前記教師信号として離散的な実数値からなる教師ユニット信号を用い、前記正解不正解出力判定手段として、各該教師ユニット信号を中心とした近傍領域を該教師ユニット信号に対する正解判定領域、それ以外を不正解判定領域とし、不正解判定領域内に前記出力層出力ユニット信号があると該出力層出力ユニット信号及び前記出力層出力信号を夫々不正解判定、正解判定領域にあれば夫々正解判定を少なくとも行うことを特徴とした多層ニューラルネットワーク学習方法を構成する。
【0036】
第6の手段として、第1から5の手段の一つに記載の前記出力層応答関数微分値に於いて、前記不正解と判定された出力層出力ユニットでは、前記出力層応答関数導関数を介して得られた負の出力層応答関数微分値に対して、負の上限値を設定し、前記負の出力層応答関数微分値が前記上限値より大きいときは、前記出力層応答関数微分値を前記上限値に修正し、前記正解と判定された出力層出力ユニットでは、該出力層応答関数微分値をそのまま用い、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法を構成する。
【0037】
第7の手段として、零点を有する出力層応答関数導関数を用いたエラーバックプロパゲーション重み係数更新により教師信号を学習する多層ニューラルネットワークの重み係数更新において、学習用入力信号に対応した出力層出力ユニット信号の正解不正解を少なくとも判定する正解不正解出力判定処理を設け、不正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた0以上の出力層応答関数微分値に対して正の下限値を少なくとも設定し、前記0以上の出力層応答関数微分値が前記下限値より小さいときは、前記出力層応答関数微分値を前記下限値に修正し、正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた出力層応答関数微分値をそのまま用い、該重み係数更新を行うことを特徴とした多層ニューラルネットワークの重み係数更新のためのコンピュータプログラムを構成する。
【0038】
本発明の多層ニューラルネットワークの出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法においては、不正解の出力ユニット信号の場合に、0以上の出力層応答関数微分値の正の下限値(下限微分値)を設けることにより、不正解の出力層出力信号に対して常に一定以上の正の出力層応答関数微分値を得ることができ、重み微調修正量を大きくでき、重み係数の更新を迅速且つ確実に進ませることができる。
【0039】
上記説明のごとく本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法は、非常に安定したローカルミニマム捕獲状態に陥ることもなく、然も従来方式に比べて重み係数の初期値依存性もなく、非常に高速に且つ確実に収束させ、所望の全て正解の多値出力層出力信号を容易に得ることができる。また、その汎化特性も従来方法より一段と優れた特性を実現できる。これらのことから、多量の学習用入力信号を有した大規模な多層ニューラルネットワークを自由に設計できる。また、実時間で学習をやり直す必要のある学習機能を持った論理システムや、非常に多くの入力信号エレメント数を持った入力信号やユニット数の多い多層ニューラルネットワークを用いた多値論理システムを実現できる。
【0040】
従って、従来方式では安定で高速に収束させることができず、然も所望の全て正解の出力信号を得ることが困難であったパターン認識や画像処理を初め、ネットワークセキュリティやネットワーク障害検出などの高度な学習特性と汎化特性が要求されるシステムなども容易に設計し実現することが可能となる。
【0041】
【発明の実施の形態】
以下に、本発明のニューラルネットワーク学習方法の実施形態に於いて、簡単な為2値教師信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。しかしながら、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークでもよい。また、2値教師信号に限るものではなく、3値以上の多値教師信号でもよい。
【0042】
本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法の実施形態の3層ニューラルネットワーク学習過程の1実施例を図1に示す。端子2から学習用入力信号が入力層の入力ユニットに入力され中間層ユニットから中間層出力ユニット信号と出力層ユニットから出力層出力ユニット信号とをそれぞれ送出する3層ニューラルネットワーク1、出力層出力信号のエレメントである該出力層出力ユニット信号を2値識別スレショルドを用いて2値化し2値出力層出力信号のエレメントである2値出力層出力ユニット信号を得る2値スレショルド回路6(6、6、...6)、2値教師ユニット信号(T、T、...T)と該出力層出力ユニット信号とを入力し該2値教師ユニット信号から該出力層出力ユニット信号を差し引き、誤差信号エレメントである出力層出力ユニット誤差信号を得る減算部4(4、4、...4)、該2値教師ユニット信号(T、T、...T)と該2値出力層出力ユニット信号とを入力し夫々比較し不一致状態となった2値出力層出力ユニット信号とそれをエレメントとして持つ2値出力層出力信号とを検出し、動作モード制御部10からの制御信号のもとに出力ユニット正解不正解判定信号を出力層応答関数下限微分値処理部27へ送出し、出力正解不正解判定信号を学習収束判定処理部13へ送出する正解不正解出力判定処理部11、該出力正解不正解判定信号と減算部4からの該誤差信号とから学習収束状態を判定し収束判定信号を送出する学習収束判定処理部13、減算部4からの該誤差信号と正解不正解出力判定処理部11からの該出力ユニット正解不正解判定信号と学習収束判定処理部13からの該収束判定信号と3層ニューラルネットワーク1からの前記中間層出力信号と前記出力層出力信号とを用いて3層ニューラルネットワーク1の重み係数を更新し設定する応答関数微分値制限重み係数制御部12、3層ニューラルネットワーク1と正解不正解出力判定処理部11と応答関数微分値制限重み係数制御部12と学習収束判定処理部13との各初期設定、更に学習の開始及び終了を制御する動作モード制御部10とから構成される。
【0043】
更に、応答関数微分値制限重み係数制御部12は、前記中間層出力信号を元に中間層応答関数微分値を得る中間層応答関数微分値処理部21、前記出力層出力信号を元に下限値が設定された出力層応答関数微分値を得る出力層応答関数下限微分値処理部27、該出力層応答関数微分値、前記誤差信号と中間層出力信号とから出力層重み微調修正量を得、該中間層応答関数微分値と中間層出力信号と入力層出力信号とから中間層重み微調修正量を得る重み微調修正量処理部22、前回の学習処理に於ける重み係数更新量を記憶する重み係数更新量記憶部24、重み係数更新量記憶部24から読み出された重み係数更新量と該重み微調修正量とから新たな重み係数更新量を得、重み係数更新量記憶部24に格納する。重み係数記憶処理部26から読み出された前回の学習処理に於ける重み係数と該新たな重み係数更新量とから新たな重み係数を得、重み係数記憶処理部26へ送出する重み係数更新処理部25から構成される。
【0044】
次に学習過程におけるこれらの動作を説明する。3層ニューラルネットワーク1は、予め準備された複数個の学習用入力信号と夫々に対応した2値教師信号Tとを元に学習の為の重み係数更新を動作モード制御部10の制御管理の基に行う。
【0045】
学習が開始されると、動作モード制御部10に重み係数更新モードが新たに設定され、3層ニューラルネットワーク1及び重み微調修正処理部22に重み係数記憶処理部26からの重み係数初期値が設定され、正解不正解出力判定処理部11、学習収束判定処理部13及び応答関数微分値制限重み係数制御部12内の重み係数更新量記憶部24が初期リセットされる。
【0046】
3層ニューラルネットワーク1に於いて、入力された学習用入力信号に対して得られた出力層出力信号を得、正解不正解出力判定処理部11に於いて、該出力層出力ユニット信号から2値スレショルド回路6を介して得た2値出力層出力ユニット信号と対応した前記教師ユニット信号とを比較し、不一致状態を示す出力ユニット正解不正解判定信号を得、出力層応答関数下限微分値処理部27へ送出する。
【0047】
中間層と出力層間の重み係数更新の際には、出力層応答関数下限微分値処理部27に於いて、前記出力層出力信号と正解不正解出力判定処理部11からの出力ユニット正解不正解判定信号を元に式(12)に従って、出力層の応答関数導関数f’を元に下限値が設定された出力層応答関数微分値を得、重み微調修正量処理部22へ送出する。
出力層応答関数微分値は、出力層m番目ユニットの出力層出力ユニット信号が不正解判定の場合、式(12)で与えられる。
【0048】
Figure 2004334671
となり、0以上の出力層応答関数微分値が、Dlimit以上であればそのままの値を出力層応答関数微分値として、Dlimit未満であればDlimitに置き換えて出力層応答関数微分値として用いる。
【0049】
また、出力層m番目ユニットの出力層出力ユニット信号が正解判定の場合は、従来と同様に、式(14)で与えられる。
【0050】
f’(Nin (t))=f’(Nin (t)), (14)
ここで、
limit:予め与えられた下限微分値(下限値)>0
とする。
【0051】
一方、入力層−中間層間の重み係数の更新の際には、中間層応答関数微分値処理部21に於いて、従来と同様に式(3)を用いて中間層応答関数微分値を得、重み微調修正量処理部22へ送出する。
【0052】
重み微調修正量処理部22では、s−1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み係数更新に於ける重み微調修正量を得、重み係数更新処理部23へ送出する。重み微調修正量を式(15)で与える。
【0053】
重み微調修正量=δ (t)・O (t) (15)
ここで、δ (t)は、式(16)で与えられる。
δ (t)={T−O (t)}f’(Nin (t)) (16)
【0054】
重み係数更新処理部23では、重み係数更新量記憶部24から読み出された中間層−出力層間の重み係数に対する重み係数更新量と前記重み微調修正量とから、従来と同様に式(10)に従って新たな重み係数更新量を得、重み係数更新量記憶部24に格納すると共に重み係数更新処理部25へ送出する。
【0055】
重み係数更新処理部25では、重み係数記憶処理部26から読み出された中間層−出力層間の重み係数と前記重み係数更新量とから、従来と同様に式(11)に従って、新たな重み係数を得、重み係数記憶処理部26に送出する。重み係数記憶処理部26では該新たな重み係数を記憶すると共に、3層ニューラルネットワーク1及び重み微調修正量処理部22の中間層−出力層間の重み係数として設定する。
【0056】
次に、入力層−中間層間の重み係数更新の際には、中間層応答関数微分値処理部21に於いて、3層ニューラルネットワーク1の中間層からの中間層出力信号を元に、従来と同様に式(3)に従って、中間層応答関数微分値を得、重み微調修正量処理部22へ送出する。重み微調修正量処理部22では、従来と同様に式(7)に従って、重み微調修正量を得、重み係数更新処理部23へ送出する。
【0057】
重み係数更新処理部23では、重み係数更新量記憶部24から読み出された入力層−中間層間の重み係数に対する重み係数更新量と該重み微調修正量とから、従来と同様に式(10)に従って新たな重み係数更新量を得、重み係数更新量記憶部24に格納すると共に重み係数更新処理部25へ送出する。
【0058】
重み係数更新処理部25では、重み係数記憶処理部26から読み出された入力層と中間層間の重み係数と該重み係数更新量とから、従来と同様に式(11)に従って、新たな重み係数を得、重み係数記憶処理部26に送出する。重み係数記憶処理部26では、該新たな重み係数を格納すると共に、3層ニューラルネットワーク1及び重み微調修正量処理部22の入力層−中間層間の重み係数に設定する。
【0059】
上記の一連の重み係数更新を全ての学習用入力データに対して実施した後、動作モード制御部10に於いて、動作モードをテストモードとし、学習収束判定処理部13及び正解不正解出力判定処理部11にテストモード制御信号を送出し、全ての学習用入力信号を用いてテストモードを実施する。正解不正解出力判定処理部11に於いて、入力された学習用入力データに対してそれぞれ不正解となる出力層出力信号を検出し出力正解不正解判定信号を学習収束判定処理部13へ送出する。
【0060】
学習収束判定処理部13では、動作モード制御部10からテストモード制御信号が入力されると、学習収束判定処理部13をリセットし、全学習用入力信号に対応した前記出力層出力信号から減算部4を介して入力された誤差信号の総誤差電力を求め、予め与えられた誤差電力スレショルドとの比較結果と入力された前記出力正解不正解判定信号とが予め与えられた学習収束判定条件を満足していなければ、重み係数更新要求信号を動作モード制御部10へ送出し、再度重み係数更新モードに戻り、上記の一連の重み係数更新処理を実施する。誤差電力スレショルド以下で、同時に、夫々の2値出力層出力信号が全て教師信号と一致し不正解と判定された出力正解不正解判定信号が無く、学習収束判定条件を満足すると、収束が達成されたと判断し、学習収束判定信号を動作モード制御部10へ送出し、学習を完了させる。
【0061】
上記のように、出力層応答関数下限微分値処理部27では、正解不正解出力判定処理部11に於いて、不正解である2値出力層出力ユニット信号が検出されると、式(12)の如く、対応した出力層出力ユニット信号に対する出力層応答関数微分値に於いて下限値(下限微分値)を設定している。これにより、出力層出力ユニット信号が教師ユニット信号と異なり、大きく間違って0或いは1の値に等しいか或いは非常に近い値の場合にも、出力層応答関数微分値がDlimitの値を採ることから、式(10)の不正解の出力層出力信号に関連した重み係数更新が進展する。
【0062】
従来の方法では、このような状況では、式(3)に於いて、出力層の応答関数導関数の値である出力層応答関数微分値が非常に小さく、0またはこれに非常に近い値となる。従って、式(7)の重み微調修正量も小さくなり、式(10)に於いて結果的に不正解の出力層出力ユニット誤差信号に関連した重み係数更新量が小さく、重み係数の更新が殆ど行われない。
【0063】
このように、本発明に於ける式(12)の如く、出力層出力ユニット信号の出力正解不正解判定を行い、これに従って、出力層応答関数微分値の下限値、即ち下限微分値を設けることにより、出力層出力ユニット信号が教師ユニット信号から大きくずれて、誤った0或いは1となっても出力層応答関数微分値はこの下限微分値Dlimitとなることから、重み微調修正量も極端に小さくならない。
【0064】
この結果、正解の出力層出力信号が益々教師信号に近づくと共に、同時に不正解の出力層出力信号が教師信号に対して益々不正解側の値をとる非常に安定したローカルミニマムの状態に落ち込むこともなく、重み係数の更新が安定に進む。全ての学習用入力信号に対して、全て正解で然も教師信号に非常に近い値の出力層出力信号が3層ニューラルネットワーク1から得られ、誤差電力が最小のグローバルミニマムの状態を迅速に達成できる。また、教師信号エレメントは、0及び1を用いることから、従来の0.9及び0.1を用いた場合よりも汎化特性も優れた多層ニューラルネットワークの学習を実現できる。
【0065】
本発明の出力層応答関数導関数に於ける出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法の処理フローを図2に示す。ステップ100の学習初期設定処理は、重み係数初期値の3層ニューラルネットワーク1への設定など必要な初期設定を行う。ステップ110の学習用入力信号入力処理では、準備された学習用入力信号と対応した教師信号とを指定された順序で順次3層ニューラルネットワーク1に設定する。ステップ120の3層ニューラルネットワーク処理では、3層ニューラルネットワーク1に於いて、入力された学習用入力信号に対して、中間層出力信号及び出力層出力信号などを送出する多層ニューラルネットワーク処理を行う。
【0066】
ステップ130の出力ユニット正解不正解判定処理では、2値スレショルド回路6と正解不正解出力判定処理11の処理と対応しており、各出力層出力ユニット信号に対して2値識別スレショルドを用いて2値出力層出力ユニット信号を得、対応した教師ユニット信号と比較し、一致しておれば正解、不一致ならば不正解として出力ユニット正解不正解判定信号を得る。ステップ140の応答関数微分値算出処理では、先ず、中間層−出力層間重み係数更新の為に、出力層応答関数微分値算出処理を実施する。出力層応答関数下限微分値処理部27の如く、出力ユニット正解不正解判定信号に於いて、出力層出力ユニット信号が不正解の場合には、下限微分値が設定された式(12)を用いて、出力層応答関数微分値を求める。
【0067】
一方、正解の場合には、式(3)を用いる。また、中間層−出力層間重み係数更新処理が終了し、ステップ180から戻ってくると、入力層−中間層間重み係数更新処理の為に、中間層応答関数微分値算出処理を実施する。中間層応答関数微分値処理部21の如く、中間層応答関数微分値が式(3)に従って求められる。ステップ150の重み微調修正量算出処理では、減算部4の如く各出力層出力ユニット信号に対して教師ユニット信号からの差をとり、出力層出力ユニット誤差信号を得る誤差信号算出処理を行い、重み微調修正量処理部22の如く、前記の出力層応答関数微分値と誤差信号と中間層出力信号とから式(10)により、中間層と出力層間の重み係数の重み微調修正量を得る。
【0068】
また、入力層−中間層間の重み係数更新に対しては、式(9)の中間層応答関数微分値と式(7)とから重み微調修正量を得る。ステップ160の重み係数更新量算出処理では、重み係数更新量処理部23及び重み係数更新量記憶部24に於ける処理の如く、重み微調修正量を用いて、式(10)に従って、夫々新たな重み係数更新量を求める。ステップ170の重み係数更新算出処理では、重み係数更新処理部25及び重み係数記憶処理部26での処理の如く、重み係数更新量を用いて、式(11)により中間層−出力層間の新たな重み係数を得、更に式(11)により入力層−出力層間の新たな重み係数を得る。
【0069】
ステップ180の入力層−中間層間重み係数更新済み判定処理では、中間層−出力層間の全ての重み係数の更新が未終了ならば、ステップ140へ戻り、ステップ140からステップ170までの中間層−出力層間の全ての重み係数の更新処理を完全に実施する。その後、同様に入力層−中間層間の全ての重み係数の更新をステップ140から170において実施し、終了すると、上記の入力層−中間層間重み係数の更新処理が終了すると、次のステップ190へ移る。190のニューラルネットワーク更新重み係数設定処理では、中間層−出力層間及び入力層−中間層間の更新された重み係数を夫々3層ニューラルネットワークに設定する。
【0070】
ステップ200の全学習用入力信号の入力判定処理では、全ての学習用入力信号が入力され重み係数が更新されたかの判断を行い、されていなければ、次の学習用入力信号と対応した教師信号とを3層ニューラルネットワークに設定する為に、ステップ110の学習用入力信号入力処理へ戻り、110から190の処理を繰り返す。全ての学習用入力信号に対し重み係数が更新されると、ステップ210へ進む。ステップ210の総誤差電力算出及び出力正解不正解判定処理では、全ての学習用入力信号に対して減算部4の如く誤差信号を求め、学習収束判定処理部13と同様に式(6)により誤差電力を求め、誤差電力スレショルドと比較する。
【0071】
また、正解不正解出力判定処理部11と同様にこれらの出力信号に関して、出力層出力ユニット信号と対応した教師ユニット信号とを夫々比較し、出力信号の正解不正解を示す出力正解不正解判定信号を得る。ここでは、出力信号を構成する出力ユニット信号に不正解があれば、出力信号は不正解、全くなければ正解と判定する。ステップ220の学習収束判定処理では、学習収束判定処理部13と同様に総誤差電力及び出力正解不正解判定信号が学習収束判定条件を満足しておれば、重み係数更新処理が全て完了したとして、学習を終了する。学習収束判定条件を満足していなければ、ステップ110に戻り、再度最初の学習用入力信号から順次各ステップに沿って重み係数更新処理を行う。
【0072】
本発明の実施形態では、出力層応答関数として0及び1の出力範囲を持ったシグモイド関数を例にとり説明したが、−1から1の出力範囲を持ったシグモイド関数でもよく、また一般に出力層応答関数の導関数が零点を有する応答関数ならば何れの関数でもよく、シグモイド関数に限るものではない。
【0073】
また、本発明の実施形態では、出力層応答関数導関数が0以上の値を採る場合について説明したが、出力層応答関数導関数が負の値も採り得る導関数の場合には、前記不正解と判定された出力層出力ユニットに於いて、負の出力層応答関数微分値に対して負の上限値を設け、前記負の出力層応答関数微分値が前記上限値より大きいときは、前記出力層応答関数微分値を前記上限値に修正し、また、0以上の出力層応答関数微分値に対して正の下限値を設け、前記0以上の出力層応答関数微分値が前記下限値より小さいときは、前記出力層応答関数微分値を前記下限値に修正し、一方、前記正解と判定された出力層出力ユニットでは、該出力層応答関数微分値をそのまま用い、重み係数更新処理を行えばよい。
【0074】
教師信号エレメントとして0或いは1からなる2値教師信号の例を説明したが、2値以上の多値教師信号でもよい。多値教師信号の場合には、2値スレショルド回路6の代わりに出力層出力ユニット信号を離散した多値の値に変換する、即ち、多値識別スレショルドを持った指定された離散値へ量子化し多値化するための多値スレショルド回路を用い、正解不正解出力判定処理部11では、多値教師ユニット信号(T、T、...T)と多値化された多値出力層出力ユニット信号との一致・不一致状態により、出力層出力ユニット及び出力層出力信号の正解・不正解判定を行えばよい。
【0075】
更に、複数個の連続値(離散的な実数値)からなる教師信号の場合には、2値及び多値スレショルド回路を介することなく、出力層出力ユニット信号を直接正解不正解出力判定処理部11に入力し、正解不正解出力判定処理部11に於いて、各教師ユニット信号(T、T、...T)を中心とした近傍領域をその教師ユニット信号に対する正解判定領域、それ以外を不正解判定領域とし、不正解判定領域に出力層出力ユニット信号があると出力層出力ユニット信号及び出力層出力信号を夫々不正解判定とする。また、正解判定領域にあればそれぞれ正解判定とすればよい。
【0076】
学習収束判定処理部13に於いて、学習収束判定条件として、誤差電力を用いる場合について説明したが、出力層出力信号が全て正解判定とされ、然も全学習用入力信号に対応した正解の出力層出力ユニット信号の内で正解判定となる為の正解不正解判定スレショルドからの最小余裕値を求め、これを予め準備した最小余裕スレショルドと比較し、これを超えておれば収束したと見なす学習収束判定条件を用いてもよい。
【0077】
出力層応答関数下限微分値処理部27に於いて、式(12)に設定された下限微分値を一定の固定値ではなく、学習回数の増加とともに、或いは不正解判定された出力層出力信号数が少なくなると零以外の小さい値に可変してもよい。また、学習回数或いは不正解判定出力層出力信号数に応じて小さい値に可変してもよい。
【0078】
或いは、学習を進めた結果、正解判定の出力層出力信号がより教師信号に近づき、同時に不正解判定の出力層出力信号がより不正解の値をとる安定したローカルミニマム状態を、不正解の出力層出力ユニット誤差信号内の最小値が与えられた最小誤差スレショルドを超えることにより検出し、上記の式(12)の如く下限微分値を導入、或いは既存下限微分値をより大きくしてもよい。
【0079】
上記の説明では、出力層応答関数導関数の出力層応答関数微分値に対してのみ下限微分値を設けたが、更に、出力層出力信号の正解不正解に関わらず、式(9)のδ (t)を得る為の中間層応答関数導関数の中間層応答関数微分値f’(Nin (t))に対して新たな中間層応答関数下限値を設けても良い。同様に、中間層応答関数導関数に於いて、中間層応答関数微分値が負の値をとる導関数の場合には、負の中間層応答関数微分値に対して負の上限値を、正の中間層応答関数微分値に対して正の下限値をそれぞれ設定すればよい。また、上記の安定したローカルミニマム状態に落ち込んだときにのみ該上限値及び下限値を導入してもよい。
【0080】
学習収束判定処理部13に於いて、学習収束判定条件が満足されるまで、即ち、正解不正解出力判定処理部11からの不正解出力検出信号が2値出力層出力信号が全て正解で、然も誤差信号の誤差電力が与えられた誤差電力スレショルド以下となるまで重み係数更新及びテスト処理からなる学習処理を繰り返す。学習収束判定条件が満足されると学習処理を停止し、学習終了信号を動作モード制御部10へ送出し、学習処理を終了する。
【0081】
以上の実施形態において、多層ニューラルネットワークを前提に説明したが、教師信号を利用して学習させるニューラルネットワークであれば、上記以外のニューラルネットワークを用いても良い。
【0082】
【発明の効果】
以上述べたように、従来のエラーバックプロパゲーション学習方法において、大量の学習用入力信号に対して学習を進めても教師信号と多値出力層出力信号との間の誤り個数や、教師信号と出力信号との誤差電力が低減せず変化しない非常に安定したローカルミニマムに陥る場合が多いが、本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法に於いては、出力層に接続されている重み係数更新の際に、不正解の出力層ユニットにおける出力層応答関数微分値の下限値を設け、重み微調修正することにより、このような安定したローカルミニマムに停滞することなく、簡単にグローバルミニマムの状態に収束させることができる。
【0083】
従って、学習データ量が非常に多くても、従来方式より学習回数が100倍程度以上著しく短縮される。また、必要最小限の中間ユニット数あるいは中間層数を用いて安定に最適状態に収束させることが出来ることから、ハードウェア規模や演算量も少なく出来る。
【0084】
本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法を用いたニューラルネットワークは、従来方式に比べて少ない中間層ユニット数あるいは中間層を用い、初期依存性もなく且つ低い演算精度を持った重み係数で、ローカルミニマムに陥ることなく高速かつ安定に収束し、所望の全て正解の出力層出力信号を送出することができる。また、汎化特性も従来より大幅に優れていることから、従来技術では実現が困難な大規模なニューラルネットワークを短時間で自由に設計し、迅速な学習を実現できることから、ネットワーク不正浸入検出部や、ネットワーク障害状態の検出を行うネットワーク障害検出部や各種パターン認識及びデータ圧縮などへの幅広い応用ができるなどの非常に幅広い効果を有している。
【図面の簡単な説明】
【図1】本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法を用いた多層ニューラルネットワークの学習処理の1構成例である。
【図2】本発明の出力層応答関数微分値制限付きエラーバックプロパゲーション学習方法の1処理フロー図である。
【図3】従来の多層ニューラルネットワークにおけるエラーバックプロパゲーション学習処理の1構成例である。
【符号の説明】
1 3層ニューラルネットワーク
2 入力信号入力端子
入力信号ユニット入力端子
入力信号ユニット入力端子
入力信号ユニット入力端子
3 教師信号入力端子
教師ユニット信号入力端子
教師ユニット信号入力端子
教師ユニット信号入力端子
4 減算部
減算部
減算部
減算部
5 重み係数制御部
6 2値スレショルド回路
2値スレショルド回路
2値スレショルド回路
2値スレショルド回路
7 2値スレショルド回路
2値スレショルド回路
2値スレショルド回路
2値スレショルド回路
8 一致検出部
9 学習収束判定処理部
10 動作モード制御部
11 正解不正解出力判定処理部
12 応答関数微分値制限重み係数制御部
13 学習収束判定処理部
20 出力層応答関数微分値処理部
21 中間層応答関数微分値処理部
22 重み微調修正量処理部
23 重み係数更新量処理部
24 重み係数更新量記憶部
25 重み係数更新処理部
26 重み係数記憶処理部
27 出力層応答関数下限微分値処理部
100 学習初期設定処理
110 学習用入力信号入力処理
120 3層ニューラルネットワーク処理
130 出力ユニット正解不正解判定処理
140 応答関数微分値算出処理
150 重み微調修正量算出処理
160 重み係数更新量算出処理
170 重み係数更新算出処理
180 入力層−中間層間重み係数更新済み判定
190 ニューラルネットワーク更新重み係数設定処理
200 全学習用入力信号の入力判定
210 総誤差電力算出及び出力正解不正解判定処理
220 学習収束判定

Claims (7)

  1. 零点を有する出力層応答関数導関数を用いたエラーバックプロパゲーション重み係数更新により教師信号を学習する多層ニューラルネットワークの重み係数更新において、
    学習用入力信号に対応した出力層出力ユニット信号の正解不正解を少なくとも判定する正解不正解出力判定手段を設け、
    正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた出力層応答関数微分値をそのまま用い、不正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた0以上の出力層応答関数微分値に対して正の下限値を少なくとも設定し、前記0以上の出力層応答関数微分値が前記下限値より小さいときは、前記出力層応答関数微分値を前記下限値に修正し、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法。
  2. 請求項1に記載の多層ニューラルネットワーク学習方法に於いて、
    不正解の出力層出力信号を送出する学習用入力信号の個数が指定された個数以下となると、前記下限値を小さくし、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法。
  3. 請求項1に記載の多層ニューラルネットワーク学習方法に於いて、
    学習回数の増加に従って前記下限値を小さくし、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法。
  4. 請求項1、2または3に記載の多層ニューラルネットワーク学習方法に於いて、
    前記教師信号として多値教師信号を用い、前記出力層出力ユニット信号を多値識別スレショルドを用いて多値化する多値スレショルド手段により多値出力層出力ユニット信号を得、前記正解不正解出力判定手段として、該多値出力層出力ユニット信号と該多値教師ユニット信号との一致、不一致状態を検出し夫々正解、不正解出力判定を少なくとも行うことを特徴とした多層ニューラルネットワーク学習方法。
  5. 請求項1、2または3に記載の多層ニューラルネットワーク学習方法に於いて、
    前記教師信号として離散的な実数値からなる教師ユニット信号を用い、前記正解不正解出力判定手段として、各該教師ユニット信号を中心とした近傍領域を該教師ユニット信号に対する正解判定領域、それ以外を不正解判定領域とし、不正解判定領域内に前記出力層出力ユニット信号があると該出力層出力ユニット信号及び前記出力層出力信号を夫々不正解判定、正解判定領域にあれば夫々正解判定を少なくとも行うことを特徴とした多層ニューラルネットワーク学習方法。
  6. 請求項1から請求項5の一つに記載の前記出力層応答関数微分値に於いて、
    前記不正解と判定された出力層出力ユニットでは、前記出力層応答関数導関数を介して得られた負の出力層応答関数微分値に対して、負の上限値を設定し、前記負の出力層応答関数微分値が前記上限値より大きいときは、前記出力層応答関数微分値を前記上限値に修正し、前記正解と判定された出力層出力ユニットでは、該出力層応答関数微分値をそのまま用い、重み係数更新を行うことを特徴とした多層ニューラルネットワーク学習方法。
  7. 零点を有する出力層応答関数導関数を用いたエラーバックプロパゲーション重み係数更新により教師信号を学習する多層ニューラルネットワークの重み係数更新のためのコンピュータプログラムにおいて、
    学習用入力信号に対応した出力層出力ユニット信号の正解不正解を少なくとも判定する正解不正解出力判定処理を設け、不正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた0以上の出力層応答関数微分値に対して正の下限値を少なくとも設定し、前記0以上の出力層応答関数微分値が前記下限値より小さいときは、前記出力層応答関数微分値を前記下限値に修正し、正解と判定された出力層出力ユニットでは、該出力層応答関数導関数を介して得られた出力層応答関数微分値をそのまま用い、重み係数更新を行うことを特徴とした多層ニューラルネットワークの重み係数更新のためのコンピュータプログラム。
JP2003131665A 2003-05-09 2003-05-09 多層ニューラルネットワーク学習方法 Expired - Fee Related JP4258268B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003131665A JP4258268B2 (ja) 2003-05-09 2003-05-09 多層ニューラルネットワーク学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003131665A JP4258268B2 (ja) 2003-05-09 2003-05-09 多層ニューラルネットワーク学習方法

Publications (2)

Publication Number Publication Date
JP2004334671A true JP2004334671A (ja) 2004-11-25
JP4258268B2 JP4258268B2 (ja) 2009-04-30

Family

ID=33506782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003131665A Expired - Fee Related JP4258268B2 (ja) 2003-05-09 2003-05-09 多層ニューラルネットワーク学習方法

Country Status (1)

Country Link
JP (1) JP4258268B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339322A (ja) * 2004-05-28 2005-12-08 Kddi Corp 多層ニューラルネットワーク学習装置及びソフトウェア
CN104318304A (zh) * 2014-10-20 2015-01-28 上海电机学院 一种用于模式识别的基于样本学习的bp网络结构设计方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339322A (ja) * 2004-05-28 2005-12-08 Kddi Corp 多層ニューラルネットワーク学習装置及びソフトウェア
JP4586420B2 (ja) * 2004-05-28 2010-11-24 Kddi株式会社 多層ニューラルネットワーク学習装置及びソフトウェア
CN104318304A (zh) * 2014-10-20 2015-01-28 上海电机学院 一种用于模式识别的基于样本学习的bp网络结构设计方法

Also Published As

Publication number Publication date
JP4258268B2 (ja) 2009-04-30

Similar Documents

Publication Publication Date Title
JP3328935B2 (ja) 並列多値ニューラルネットワーク
Campbell Constructive learning techniques for designing neural network systems
Ng et al. Fast convergent generalized back-propagation algorithm with constant learning rate
Park et al. Developmental resonance network
Lim et al. Lyapunov theory-based multilayered neural network
JP2001051969A (ja) 正誤答判定機能を有するニューラルネットワーク手段
JP4258268B2 (ja) 多層ニューラルネットワーク学習方法
US5870728A (en) Learning procedure for multi-level neural network
JP4586420B2 (ja) 多層ニューラルネットワーク学習装置及びソフトウェア
JP3757722B2 (ja) 多層ニューラルネットワークユニット数最適化方法及び装置
JPH07121494A (ja) 並列ニューラルネットワーク
JP3368774B2 (ja) ニューラルネットワーク
JP3367264B2 (ja) ニューラルネットワーク学習方式
Gunaseeli et al. A constructive approach of modified standard backpropagation algorithm with optimum initialization for feedforward neural networks
JP3367295B2 (ja) 多値ニューラルネットワーク学習方式
JPH1049509A (ja) ニューラルネットワーク学習方式
JP2001243210A (ja) 並列ニューラルネットワーク装置
JP2639028B2 (ja) 神経回路の学習装置および学習方法
Munavalli et al. Pattern recognition for data retrieval using artificial neural network
JPH0991264A (ja) ニューラルネットワーク構造最適化装置ならびに方法
Wang et al. Second-Order Structure Optimization of Fully Complex-Valued Neural Networks
Asaduzzaman et al. Making use of damped noisy gradient in training neural network
Yu et al. Classification Method for Uncertain Data based on Sparse De-Noising Auto-Encoder Neural Network
JP4696529B2 (ja) 多層ニューラルネットワーク装置とそのソフトウェア
Gupta Software Reliability Estimation with ART Network of Artificial Neural Network Using Execution Time Model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees