JP4586420B2 - 多層ニューラルネットワーク学習装置及びソフトウェア - Google Patents

多層ニューラルネットワーク学習装置及びソフトウェア Download PDF

Info

Publication number
JP4586420B2
JP4586420B2 JP2004159090A JP2004159090A JP4586420B2 JP 4586420 B2 JP4586420 B2 JP 4586420B2 JP 2004159090 A JP2004159090 A JP 2004159090A JP 2004159090 A JP2004159090 A JP 2004159090A JP 4586420 B2 JP4586420 B2 JP 4586420B2
Authority
JP
Japan
Prior art keywords
output
response function
layer
signal
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004159090A
Other languages
English (en)
Other versions
JP2005339322A (ja
Inventor
陽太郎 八塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2004159090A priority Critical patent/JP4586420B2/ja
Publication of JP2005339322A publication Critical patent/JP2005339322A/ja
Application granted granted Critical
Publication of JP4586420B2 publication Critical patent/JP4586420B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

本発明は、ニューラルネットワークによるネットワーク障害検出、ネットワークセキュリティ、パターン認識やデータ圧縮などを行う処理分野に於いて、大量の教師付き学習用入力信号を用いて学習を行う多層ニューラルネットワークのエラー・バック・プロパゲーション学習装置に関するものである。
ニューラルネットワークの1つとして、多層(階層)ニューラルネットワークがあるが、このニューラルネットワークの教師信号を用いた学習装置として、エラー・バック・プロパゲーション・アルゴリズムによる最急降下勾配法が幅広く使用されている。本アルゴリズムを用いた学習過程では、重み係数を初期設定した後、予め用意された教師信号Tの教師ユニット信号(教師信号エレメントでもある、T、T、...、T)から、入力層に入力された学習用入力信号に対する出力層からの出力ユニット信号を差し引き、誤差信号を求め、各層の出力ユニット信号と誤差信号とを基に誤差信号の電力を最小にするように、誤差電力最小法により、各層間の重み係数の更新を行い学習を行うものである。この重み係数適応制御からなる学習を予め準備された全ての学習用入力信号に対して実行し、学習収束条件を満足するまで繰り返す。
この学習過程に於て、重み係数更新の結果、誤差電力が最小(グローバルミニマム)となると完全に収束し、然も全ての学習用入力信号に対する、出力層出力ユニット信号を2値化した2値出力層出力ユニット信号が2値教師ユニット信号と一致し、全ての正解出力信号が得られる。しかしながら、誤差電力が局部極小(ローカルミニマム)の局所解に一旦陥ると、それが非常に安定な場合はそれ以降の重み係数更新が進まず最小とならないこと、また、全ての2値出力層出力信号が2値教師信号とは一致せず、誤った不正解出力信号を送出する状態が発生する。一般に誤差電力が最小の状態には中々到達せず、学習収束条件を満足する学習回数が著しく増加することや、収束特性に重み係数の初期値依存性があるなどの問題がある。特に大量の学習用入力信号を用いた場合に大きな問題となる。
ここで、従来のエラー・バック・プロパゲーション学習の動作について、2値教師信号を例にとり図4を用いて詳細に説明する。ここでは、エレメントが0或いは1からなる2値教師信号T(T,T、...TM)に対して学習速度を改善するために、非特許文献1では、図4に示す従来方式の学習を用いた多層ニューラルネットワークにおいて、それぞれのエレメントに対して0.1或いは0. 9の教師信号エレメント(T,T、...TM)を設定し、動作モード制御部10からの制御信号により夫々初期設定を行った後、学習処理を開始する。また、従来のエラー・バック・プロパゲーション・アルゴリズムについては、非特許文献2など多くの解説書に詳細が記載されている。
3層ニューラルネットワーク1の出力層出力信号は、各出力層ユニットに対応した出力層出力ユニット信号からなる。端子3からの教師ユニット信号(T,T、...TM)から、端子2からの学習用入力信号に対する出力層出力ユニット信号を減算部4(4,4、...4)を介して差し引き、各出力層ユニットの出力層出力ユニット誤差信号からなる誤差信号を求め、これを重み係数制御部5に入力し、エラー・バック・プロパゲーション・アルゴリズムにより重み係数更新を行い、3層ニューラルネットワーク1に再度設定する処理を学習用入力信号に対して繰り返し実行する。
また、2値識別スレショルドを用いて2値化する2値スレショルド回路6(6,6、...6)を介して出力層出力ユニット信号から2値出力層出力ユニット信号を得、また、2値識別スレショルドを用いて2値化する2値スレショルド回路7(7,7、...7)を介して教師信号Tから2値教師信号を得、一致検出部8にてこれらが完全に一致する状態を検出すると正解出力信号とみなし、学習収束判定処理部9に送出する。また、2値出力層出力ユニット信号から構成された2値出力層出力信号が得られる。
学習収束判定処理部9では、全ての学習用入力信号に対する出力信号の誤差電力を求め、これが予め準備された誤差電力スレショルド以下で、更に全て2値教師信号と一致し正解出力信号となれば、3層ニューラルネットワーク1が収束したと判断して動作モード制御部10を介して学習が終了する。ここで、大規模ニューラルネットワークを大量の学習用入力信号で学習する際に、誤差電力が与えられた誤差電力スレショルド以下であっても、一致検出部8に於いて2値出力層出力信号と2値教師信号との完全な一致が得られない場合がある。この時、数個の不正解の出力層出力信号が存続し、全て正解の出力層出力信号とはならず、非常に安定したローカルミニマム(局所解)に落ち込んでいる状態が多い。
このような状況下では、殆どの学習用入力信号に対する正解の出力層出力信号は、教師信号に非常に近いより正解の値をとり、数少ない学習用入力信号に対する不正解の出力層出力信号は、教師信号から大きく離れたより不正解の値をとり、収束せず学習が進まない。従って、全正解の出力層出力信号が得られず、汎化特性も劣化する。
ここで、重み係数制御部5における従来のエラー・バック・プロパゲーション・アルゴリズムによる重み係数更新に関する、安定したローカルミニマムの発生について以下に説明する。教師信号エレメント(T,T、...TM)を0.1或いは0. 9に設定することにより、0或いは1からなる2値教師信号の場合に比較して、収束しやすくなり学習回数も削減されることが述べられている。
式(1)の各ユニットに於ける出力ユニット信号を得る際に、一般に用いられる応答関数f(x)の一例としての式(2)の示す0から1の範囲の値を持つシグモイド関数を仮定すると、
k j(t) = f(Nink j(t))、
s m(t) = f(Nins m(t)) (1)
k j(t): t番目学習用入力信号に対するk層j番目ユニットの出力ユニット信号
m(t): t番目学習用入力信号に対するs(出力)層m番目ユニットの出力層出力ユニット信号
t:学習用入力信号番号
s:出力層
j:k層j番目ユニット番号
m:出力層m番目ユニット番号
Nink j(t):t番目学習用入力信号に対応したk層j番目ユニットへの入力の総和(ユニットへの入力信号を意味する)
f(x)=1/{1+Exp(-λx)} (2)
で与えられる。但し、ここでは、定数λ=1として説明するが、一般性を失うものではない。
安定したローカルミニマムでは、k層出力ユニット信号Ok j(t)が0あるいは1に近づくと、重み係数更新量を得る際に用いられる式(3)及び式(4)に示す応答関数導関数f’(x)が出力信号に対して零点を持ち、即ち応答関数微分係数値が零或いは零に非常に近い正の小さい値となることにより、重み係数の更新量も小さくなり、更新速度が極端に小さくなることの理由による。
k層j番目ユニットに於ける応答関数微分係数値
=f’(Nink j(t))
= Exp(-Nink j(t))/{1+ Exp(-Nink j(t))}2 (≧0)
= Ok j(t){1-Ok j(t)} (3)
ここで、f’(x):応答関数導関数であり、f’(Nink j(t))はk層応答関数微分関数である。
出力層m番目ユニットに於ける出力層応答関数微分係数値
=f’(Nins m(t))
=OS m(t)(1−OS m(t)) (4)
で与えられる。ここで、f’(Nins m(t))は出力層応答関数微分関数である。
また、
Figure 0004586420
Wk j,i:k層j番目ユニットとk-1層i番目ユニット間の重み係数
Nink j(t):t番目学習用入力信号に対応したk層j番目ユニットへの入力の総和(入力信号)
で与えられる。
誤差電力の最急降下勾配法では、式(3)、式(4)に記載されているように、応答関数としてのシグモイド関数の微分係数値を出力層応答関数微分係数値処理部20及び中間層応答関数微分係数値処理部21に於いて、それぞれ出力層及び中間層に対して求める。
t番目学習用入力信号に対する出力層m番目ユニットの出力層出力ユニット誤差信号は、式(6)で与えられ、出力層出力信号の誤差電力、Epowerは式(7)で与えられる。
出力層出力ユニット誤差信号 = Tm- Os m(t) (6)
ここで、Tm :t番目学習用入力信号に対する出力層m番目ユニットの教師信号
Figure 0004586420
ここで、k-1層i番目ユニット−k層j番目ユニット間の重み係数の重み係数更新に於ける、重み微調修正量を式(8)で与えられる。
重み微調修正量 = δk j(t)・Ok-1 i(t) (8)
ここで、s-1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み微調修正量に於ける重み係数更新用誤差信号δs m(t)は、式(9)となる。
δs m(t)=(Tm−Os m)f’(Nins m(t))
=(Tm−Os m(t)) OS m(t)(1−OS m(t)) (9)
出力層では、教師信号エレメントを0.1及び0. 9の2値に設定し、Os m(t)が0または1とならないようにしてδs m(t)を求め、学習速度を改善している。しかしながら、このような教師信号エレメントの値の設定に於いても同様に安定したローカルミニマムに落ち込む場合がある。また、2値として、0.1及び0.9を用いることから、これらの値に収束した場合にも、0或いは1のエレメントを持つ2値教師信号の場合に比較して汎化特性がかなり劣化する。
k層j番目ユニット−k+1層n番目ユニット間の重み係数の重み微調修正量に於ける重み係数更新用誤差信号δk j(t)は、式(10)となる。
Figure 0004586420
但し、k≠s
ここで、
ΔWs m,jをs-1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み係数更新量、

ΔWk j,iを(k-1)層i番目ユニット−k層j番目ユニット間重み係数の重み係数更新量とすると、式(11)で与えられる。また、更新された重み係数は式(12)で与えられる。
ΔWk j,i(t)= αδk j(t)Ok-1 i(t) + ηΔWk j,i(t-1) (11)
η:慣性係数
α:学習係数
Wk j,i(t)= Wk i,i(t-1) + ΔWk j,i(t) (12)
出力層応答関数微分係数値処理部20及び中間層応答関数微分係数値処理部21に於いて、上記の式(3)及び式(4)で求められた、出力層及び中間層の夫々の応答関数微分係数値は、重み微調修正量処理部22に入力され、式(8)のように重み微調修正量が得られる。これを重み係数更新量処理部23に入力し、式(11)のように、t-1番目の学習用入力信号の重み係数更新量が重み係数更新量記憶部24から読み出され、加算され新たな重み係数更新量を得る。その後、重み係数更新処理部25へ送出すると共に、式(11)の新たな重み係数更新量は、重み係数更新量記憶部24に格納する。
重み係数更新処理部25では、式(12)のように、t-1番目の学習用入力信号の重み係数を重み係数記憶処理部26から読み出し、重み係数更新量を加算することにより、新たな重み係数を得、重み係数記憶処理部26に格納する。全ての学習用入力信号に対して求められると、この新たな重み係数を重み係数記憶処理部26から読み出し3層ニューラルネットワーク1の重み係数として、夫々の層間のユニットの結合の為に設定される。
上記の如く、重み係数制御部5に於いて、全ての学習用入力信号に対して一連の重み係数更新処理が終了すると、動作モード制御部10からの制御信号を基に、全ての学習用入力信号を3層ニューラルネットワーク1に入力し、式(1)に示すように、出力層に対応した応答関数出力信号を出力層出力信号として得る。更に、式(6)に示すように、減算部4を介して出力層出力ユニット誤差信号を得、式(7)に示す誤差電力を求め、学習収束判定処理部9にて出力信号の収束状態を調べる。
学習収束条件として、一致検出部8から全て正解出力信号が得られ、然も誤差電力スレショルド以下であれば、収束したと判定し学習を終了する。一方、これらの学習収束条件が満たされない場合には、満たされるまで、再度、全ての学習用入力信号に対して重み係数更新を繰り返し行う。
ここで、式(8)に示すように、正解出力信号の誤差成分が小さくなると共に、応答関数微分係数値も小さく、重み微調修正量が非常に小さくなる。
また、式(3)で明らかなように、出力層応答関数微分係数値は、誤差が非常に大きい不正解出力層出力ユニット信号に対しても非常に小さくなる可能性があり、結果的に不正解出力層出力信号に対しても重み微調修正量が小さくなり、重み係数の更新が進まない場合がある。
特に、収束が進み、殆どの学習用入力信号に対して正解出力層出力信号となり、不正解出力層出力信号の学習用入力信号数が数個と非常に少なくなると、誤差電力はより小さくなる。しかしながら、急激に正解出力層出力信号は益々教師信号に非常に近い、最小の誤差成分を持った正解の出力層出力信号に、一方、不正解出力層出力信号は、より大きな誤差信号を持ち、急激に全て誤った出力層出力ユニット信号となり、最大の誤差成分を持った不正解出力層出力信号となり、安定したローカルミニマムに陥る。この為に、これ以降の重み係数更新は進まず、誤差電力も殆ど変化せず、不正解出力層出力信号を出したままとなる。
これらの従来の学習装置では、上記説明の如く、ローカルミニマムの状態に落ち込みやすく、また、なかなか抜け出せないことから、全て正解出力となり完全な収束状態が簡単には到達できないなどの欠点がある。特に、入力ユニット数の多い3層あるいは多層ニューラルネットワークにおいて、教師信号に対して確実に収束させる設計手法は明らかになっておらず、初期値依存性の為に重み係数の初期値を変更したり、中間層ユニット(隠れユニット)数を増やすなどの種々の試行錯誤を行っている。また、安定なローカルミニマムへの捕獲状態を簡単に避ける手段はこれまでない。
特願2003−131665号明細書 D.E.Rumelhart, "Parallel Distributed Processing", MIT Press, 1988年 麻生英樹著、"ニューラルネットワーク情報処理"、産業図書出版、1988年
上記の説明のごとく、教師信号を用いた多層ニューラルネットワークの従来の学習処理において、多層ニューラルネットワークが学習用入力信号に対応した所望の出力信号を送出するよう重み係数を更新する際に、正解で所望の出力信号を送出する収束した状態になるまでの学習回数即ち学習繰り返し回数が非常に多くなる場合や、学習しても収束しない状態即ち非常に安定したローカルミニマムの状態に落ち込み所望の出力信号が送出されないなど重み係数の初期値依存性があるなどの欠点を有している。
また、一旦全正解の所望の2値出力信号を得た後にも、汎化特性を改善するために、出力層出力ユニット信号と教師ユニット信号との誤差電力が指定された誤差電力スレショルド以下となるまで学習を継続する必要があるが、出力層に於いて式(8)の重み微調修正量が小さくなることから収束までの学習回数が非常に多くなる欠点を持っている。
特に、入力層や出力層出力ユニット数が多く、而も分布型の表示形式を持った出力層出力信号を用いた多層ニューラルネットワークでは、学習用入力信号数が多い場合、学習の際に収束が非常に困難となり、所望の出力信号を送出する多層ニューラルネットワークを自由に設計する方法が確立されていない。また、収束しやすくするために中間ユニット数を大幅に増やす方法もあるが、収束が補償される訳ではない。過学習により汎化能力が劣化すると共に当然のことながらそれぞれの演算量が増し、非常に大きいハードウェア能力あるいは演算能力が要求される。
本発明の目的は、上記の問題を解決し、多層ニューラルネットワークに於ける従来のエラー・バック・プロパゲーション学習方法などに比べて、安定したローカルミニマム(局所解)に陥ることなく、非常に少ない学習回数で非常に安定に収束し、少なくとも10倍から100倍の高速度で学習を完了させることが出来、然も汎化能力に優れ、学習用入力信号に対して所望の出力信号を容易に得ることができる多層ニューラルネットワークの新たなエラー・バック・プロパゲーション学習装置を提供することにある。
上記の問題点を解決するために、第1の手段として、応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、学習用入力信号に対する多層ニューラルネットワークの出力層出力ユニット信号を教師ユニット信号と比較し、正解又は不正解を少なくとも判定し、出力ユニット正解不正解判定信号を送出する正解不正解出力判定処理手段と、該出力層出力ユニット信号が不正解と判定された出力層出力ユニットでは、0以上1より小さい第1のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る出力層応答関数微分係数正規化べき乗値処理手段とを少なくとも設け、該出力層応答関数微分係数正規化べき乗値処理手段からの出力である出力層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワークの中間層−出力層間の重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第2の手段として、第1の手段に記載の多層ニューラルネットワーク学習装置の前記出力層応答関数微分係数正規化べき乗値処理手段に於いて、更に、前記出力層出力ユニット信号が正解と判定された出力層出力ユニットでは、0以上1以下の第2のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第3の手段として、第2の手段に記載の多層ニューラルネットワーク学習装置の前記正解不正解出力判定処理手段に於いて、更に、全ての学習入力信号に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、前記出力層応答関数微分係数正規化べき乗値処理手段に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第2のべき乗係数値より小さい第3のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第4の手段として、第1、第2及び第3の手段の何れかに記載の多層ニューラルネットワーク学習装置に於いて、0以上1以下の第4のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段を設け、該中間層応答関数微分係数正規化べき乗値処理手段からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワークの中間層−中間層間或いは入力層−中間層間の重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第5の手段として、第1、第2及び第3の手段の何れかに記載の多層ニューラルネットワーク学習装置の前記正解不正解出力判定処理手段に於いて、更に、出力層出力信号の正解或いは不正解を判定し出力正解不正解判定信号を送出し、出力層出力信号が正解であれば、0以上1以下の第5のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第6のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段を設け、該中間層応答関数微分係数正規化べき乗値処理手段からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワークの中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第6の手段として、応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、学習用入力信号に対する多層ニューラルネットワークの出力層出力信号を教師信号と比較し、正解又は不正解を少なくとも判定し、出力正解不正解判定信号を送出する正解不正解出力判定処理手段と、該出力層出力信号が正解と判定されると、0以上1以下の第7のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解と判定されると、0以上1より小さい第8のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段を少なくとも設け、該中間層応答関数微分係数正規化べき乗値処理手段からの出力である出力層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワークの入力層−中間層間或いは中間層−中間層間の重み係数更新を少なくとも行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第7の手段として、第6の手段に記載の多層ニューラルネットワーク学習装置の前記正解不正解出力判定処理手段に於いて、更に、全ての学習入力信号に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、前記出力層応答関数微分係数正規化べき乗値処理手段に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第7のべき乗係数値より小さい第9のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置を構成する。
第8の手段として、応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワーク用のコンピュータソフトウェアにおいて、コンピュータに、学習用入力信号に対する多層ニューラルネットワークの出力層出力ユニット信号を教師ユニット信号と比較し、正解又は不正解を少なくとも判定する正解不正解出力判定処理と、不正解と判定された出力層ユニットでは、0以上1より小さい第10のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る応答関数微分係数正規化べき乗値処理とを少なくとも実行させ、該出力層応答関数微分係数正規化べき乗値に少なくとも基づき、前記多層ニューラルネットワークの重み係数更新を実行させることを特徴とする多層ニューラルネットワークの学習ソフトウェアを構成する。
第9の手段として、第8の手段に記載の多層ニューラルネットワーク学習ソフトウェアの前記正解不正解出力判定処理に於いて、更に、全ての学習入力信号に夫々対応した出力層出力信号が正解か不正解かを判定し、前記応答関数微分係数正規化べき乗値処理に於いて、全出力層出力信号が正解と一旦判定されると、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上1以下の第11のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を実行させることを特徴とする請求項8に記載の多層ニューラルネットワーク学習ソフトウェアを構成する。
第10の手段として、第8及び第9の手段の何れかに記載の多層ニューラルネットワーク学習ソフトウェアの前記正解不正解出力判定処理(130)に於いて、更に、出力層出力信号の正解或いは不正解を判定し、前記応答関数微分係数正規化べき乗値算出処理に於いて、出力層出力信号が正解であれば、0以上1以下の第12のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第13のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得、前記多層ニューラルネットワークの中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも実行させることを特徴する多層ニューラルネットワーク学習ソフトウェアを構成する。
本発明の多層ニューラルネットワークの応答関数微分係数正規化べき乗関数型エラー・バック・プロパゲーション学習方法に於いて、重み係数更新の際に、不正解の出力層出力ユニット信号に対して、従来用いられてきた出力層応答関数微分係数値ではなく、出力層応答関数微分係数正規化べき乗値を用いることにより、出力層出力ユニット信号に対して従来の出力層応答関数微分係数値が小さくなる状況下でも、重み微調修正量を大きくでき、重み係数の更新を迅速且つ確実に進ませることができる。また、不正解の出力層出力信号に対して、中間層応答関数微分係数正規化べき乗値を用いることにより同様の作用を実現できる。
上記説明のごとく本発明の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習方法は、重み係数の学習状態の停滞を抑え、収束速度を大幅に改善でき、然も、特許文献1に記載されている出力層応答関数微分値制限付き学習方法と組み合わせる事により、安定したローカルミニマム捕獲状態に一段と陥ることもなく、更に高速に収束させることができる。この結果、従来方式に比べて重み係数の初期値依存性もなく、非常に高速に且つ確実に収束させ、所望の全て正解の2値出力層出力信号を容易に得ることができる。また、その汎化特性も従来方法より一段と優れた特性を実現できる。
これらのことから、多量の学習用入力信号を有し、全正解出力層出力信号を送出する大規模な多層ニューラルネットワークを自由に設計できる。更に、実時間で学習をやり直す必要のある学習機能を持った論理システムや、非常に多くの入力信号エレメント数を持った入力信号やユニット数の多い多層ニューラルネットワークを用いた2値論理システムを実現できる。
従って、従来方式では高速に且つ安定に収束させることができず、然も所望の全て正解の出力信号を得ることが困難であったパターン認識や画像処理を初め、ネットワークセキュリティやネットワーク障害検出などの高度な学習特性と汎化特性が要求されるシステムなども容易に設計し実現することが可能となる。
以上述べたように、従来のエラー・バック・プロパゲーション学習装置において、大量の学習用入力信号に対して学習を進めても2値教師信号と2値出力層出力信号との間の誤り個数や、2値教師信号と出力信号との誤差電力が低減せず変化しない非常に安定したローカルミニマムに陥る場合が多く、収束しないか、或いは収束しても学習回数が数万回にも至る場合が多く、エラー・バックプロパゲーション学習法の大きな欠点として指摘されてきた。特に、収束の際、全出力正解判定信号から全出力正解状態を検出し、2値出力層出力信号が全正解となったとしても、その後も、2値教師信号に対して所望の誤差範囲内の出力信号を得る全出力正解余裕状態になり収束判定条件を満たすためには、非常に多くの学習回数が必要である。
一方、本発明の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置に於いては、出力層に接続されている重み係数更新の際に、不正解出力がある場合、大きく不正解であると非常に小さくなる応答関数微分係数値を用いるのではなく、1より小さいべき乗係数を設定した出力層応答関数微分係数正規化べき乗値を用いて、大きく重み微調修正することにより、このような安定したローカルミニマムに停滞することが無くなる。
然も、全正解の2値出力層出力信号が得られた後には、出力層出力信号が2値教師信号に近づくと、従来の非常に小さくなる応答関数微分係数値を用いるのではなく、より小さなべき乗係数を持つ出力層応答関数微分係数正規化べき乗値を用い、重み微調修正することから、2値教師信号に対して出力層出力信号を所望の振幅誤差範囲内に収束し学習収束条件を迅速に満たすことも出来、大幅な学習回数の削減がされる。この事から、全正解で、所望の振幅誤差範囲内の2値出力信号を持ったグローバルミニマムの状態を速やかに達成することができる。
従って、学習データ量が非常に多くても、常に収束し、収束が得られた状態での従来方式に対しても学習回数が10倍程度以上著しく短縮される。特に、特願2003‐131665、“多層ニューラルネットワーク学習方法”を組み合わせて用いることにより、100倍以上速く収束する。また、必要最小限の中間ユニット数あるいは中間層数を用いて常に安定に最適状態に収束させることが出来ることから、ハードウェア規模やその演算量も少なく出来る。
本発明の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置を用いたニューラルネットワークは、従来方式に比べて少ない中間層ユニット数あるいは中間層を用い、初期依存性もなく且つ低い演算精度を持った重み係数で、ローカルミニマムに陥ることなく高速かつ安定に収束し、全正解の出力層出力信号を送出することができる。また、教師信号に対して所望の振幅誤差範囲で収束状態が得られることから、汎化特性も従来より大幅に優れており、従来技術では実現が困難な大規模なニューラルネットワークを短時間で自由に設計し、ネットワーク不正浸入検出部、ネットワーク障害状態の検出を行うネットワーク障害検出部やセキュリティ管理の為のバイオメトリクスに於ける各種パターン認識、データ高速検索、更には、連想メモリやデータ圧縮などへの応用もできるなど、非常に幅広い効果を有している。
以下に、本発明の多層ニューラルネットワーク学習装置の実施形態に於いて、その基本構成の説明を簡単にする為、2値教師信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。しかしながら、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークでもよい。また、エラー・バック・プロパゲーション・アルゴリズムを用いて重み係数更新を行うニューラルネットワークであれば、如何なるニューラルネットワークでもよい。
本発明の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置の実施形態に於ける3層ニューラルネットワーク学習過程の1実施例を図1に示す。端子2から学習用入力信号が入力層の入力ユニットに入力され中間層ユニットから中間層出力ユニット信号と出力層ユニットから出力層出力ユニット信号とをそれぞれ送出する3層ニューラルネットワーク1と、出力層出力信号のエレメントである該出力層出力ユニット信号を2値識別スレショルドを用いて2値化し、2値出力層出力信号のエレメントである2値出力層出力ユニット信号を得る2値スレショルド回路6(6,6、...6M)と、2値教師ユニット信号(T,T、...TM)と該出力層出力ユニット信号とを入力し該2値教師ユニット信号から該出力層出力ユニット信号を差し引き、誤差信号エレメントである出力層出力ユニット誤差信号を得る減算部4(4,4、...4M)と、該2値教師ユニット信号(T,T、...TM)と該2値出力層出力ユニット信号とを入力し夫々比較し、不一致状態となった2値出力層出力ユニット信号とそれをエレメントとして持つ2値出力層出力信号とを検出し、動作モード制御部10からの制御信号のもとに出力ユニット正解不正解判定信号及び全出力正解判定信号を出力層応答関数微分係数正規化べき乗値処理部27へ送出し、更に該全出力正解判定信号を学習収束判定処理部13へ送出する正解不正解出力判定処理部11と、該全出力正解判定信号と減算部4からの該誤差信号とから学習収束状態を判定し収束判定信号を送出する学習収束判定処理部13と、減算部4からの該誤差信号と正解不正解出力判定処理部11からの該出力ユニット正解不正解判定信号及び該全出力正解判定信号と3層ニューラルネットワーク1からの前記中間層出力信号と前記出力層出力信号とを用いて3層ニューラルネットワーク1の重み係数を更新し設定する応答関数微分重み係数制御部14と、3層ニューラルネットワーク1と正解不正解出力判定処理部11と応答関数微分重み係数制御部14と学習収束判定処理部13との各初期設定、更に学習の開始及び終了を制御する動作モード制御部10とから構成される。
更に、前記応答関数微分重み係数制御部14は、前記中間層出力信号を基に中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理部28と、前記出力層出力信号と前記出力ユニット正解不正解判定信号と前記全出力正解判定信号とを基に出力層応答関数微分係数正規化べき乗値を得る出力層応答関数微分係数正規化べき乗値処理部27と、該出力層応答関数微分係数正規化べき乗値、前記誤差信号と中間層出力信号とから出力層重み微調修正量を得、入力層−中間層間重み係数更新の際には該中間層応答関数微分係数正規化べき乗値と中間層出力信号と重み係数記憶処理部26からの入力層−中間層間の重み係数とから中間層重み微調修正量を得る重み微調修正量処理部22と、前回の学習処理に於ける重み係数更新量を記憶する重み係数更新量記憶部24と、重み係数更新量記憶部24から読み出された重み係数更新量と該重み微調修正量とから新たな重み係数更新量を得、重み係数更新量記憶部24に格納し、重み係数記憶処理部26から読み出された前回の学習処理に於ける重み係数と該新たな重み係数更新量とから新たな重み係数を得、前記重み係数記憶処理部26へ送出する重み係数更新処理部25とから構成される。
次に学習過程におけるこれらの動作を説明する。3層ニューラルネットワーク1は、予め準備された複数個の学習用入力信号と夫々に対応した2値教師信号Tとを基に学習の為の重み係数更新を動作モード制御部10の制御管理の下に行う。
学習が開始されると、動作モード制御部10に重み係数更新モードが新たに設定され、3層ニューラルネットワーク1及び重み微調修正処理部22に重み係数記憶処理部26からの重み係数初期値が設定され、正解不正解出力判定処理部11、学習収束判定処理部13及び応答関数微分重み係数制御部14内の重み係数更新量記憶部24が夫々初期設定される。
3層ニューラルネットワーク1に於いて、入力された学習用入力信号に対して得られた出力層出力信号を得、正解不正解出力判定処理部11に於いて、該出力層出力ユニット信号から2値スレショルド回路6を介して得た2値出力層出力ユニット信号と対応した前記教師ユニット信号とを比較し、出力ユニットの不一致状態を示す前記出力ユニット正解不正解判定信号を得、出力層応答関数微分係数正規化べき乗値処理部27へ送出する。
更に、全ての学習用入力信号に対する2値出力層出力信号が対応した夫々の教師信号に一旦一致したかどうかの状態を示す全出力正解判定信号を得、出力層応答関数微分係数正規化べき乗値処理部27及び学習収束判定処理部13へそれぞれ送出する。
中間層と出力層間の重み係数更新の際には、先ず、出力層応答関数微分係数正規化べき乗値処理部27に於いて、前記出力層出力信号と正解不正解出力判定処理部11からの出力ユニット正解不正解判定信号及び全出力正解判定信号とを基に式(13)に従って、出力層応答関数微分係数正規化べき乗値を得、重み微調修正量処理部22へ送出する。
式(13)の出力層応答関数微分係数正規化べき乗値は、出力層m番目ユニットの出力層出力ユニット信号が不正解判定の場合、べき乗係数Go=Gowを設定して得る。ここで、Gowは、0≦Gow<1の予め与えられた定数である。一方、出力層出力ユニット信号が正解判定の場合には、全出力正解判定信号に於いて全ての学習用入力信号に対する出力層出力信号が正解となる状態が達成されてなければ、べき乗係数Go=Gocを設定して得る。全正解が少なくとも一旦達成されておれば、べき乗係数Go=Goallcを設定して得る。ここで、Goc、Goallcは、0≦Goallc<Goc≦1の予め与えられた定数である。
このように、出力層出力ユニット信号の正解、不正解、或いは全学習用入力信号に対する出力層出力信号の全正解達成状態とにより、べき乗係数Goが切り替えられる。
従来方式は、常にGo=1の場合に対応しており、本発明の実施形態の如く、Goallc、Goc、Gowを1より小さい値を設定することによって、図5の如く、出力層出力ユニット信号が0または1に近い場合に、従来方式の出力層応答関数微分係数値より出力層応答関数微分係数正規化べき乗値を大きく、然も出力層出力信号の状況に応じて制御でき、学習に於いて従来より安定且つ高速収束が可能となる。
出力層応答関数微分係数正規化べき乗値
=maxo(1-Go)・{f’(Nins m(t))}Go (13)
の出力層応答関数微分正規化べき乗関数から得られ、ここで、べき乗係数Goは、0≦Go<1である。また、maxoは、出力層応答関数導関数のf’((Nins m(t))の最大値と、Go≠1の場合の出力層応答関数微分係数正規化べき乗値の最大値とが同一の値となるよう調整する正規化定数である。これにより、式(13)及び図5に示すように、出力層応答関数微分係数正規化べき乗値の最大値が、べき乗係数Goの値に関わらず、従来方式の出力層応答関数微分係数値の最大値と常に同じとなり、頻繁に切り替えても不安定な動作を発生させることなく、学習を安定に且つ高速に収束させる事ができる。
特に、応答関数f(x)が式(2)のシグモイド関数の場合、応答関数導関数(出力応答微分関数)が式(3)で与えられることから、出力層応答関数微分係数正規化べき乗値は、式(14)で与えられる。
即ち、出力層応答関数微分係数正規化べき乗値
=maxo(1-Go)・{f’(Nins m(t))}Go
= 0.25(1-Go){OS m(t)(1−OS m(t))}Go (14)
となる。Go=1の場合は、従来方式に於ける式(4)の出力層応答関数微分係数値となる。図5に出力層応答関数微分係数値と出力層応答関数微分係数正規化べき乗値との一般的関係を示す。OS m(t)が1或いは0に近づくと、出力層応答関数微分係数値より出力層応答関数微分係数正規化べき乗値が大きくなる。これにより、学習の安定且つ収束速度が改善される。
また、出力ユニット正解不正解判定信号から出力層m番目ユニットの出力層出力ユニット信号が不正解判定の場合は、べき乗係数Go=Gowを設定する。正解判定の場合は、全出力正解判定信号に於いて全学習用入力信号に対する出力層出力信号が全て正解となる全出力正解状態が得られるまでは、べき乗係数Go=Gocが設定される。全正解状態が一旦得られれば、式(15)の如くべき乗係数Go=Goallcを設定する。
正解不正解出力判定処理部11に於いて、全ての学習用入力信号に対する2値出力層出力信号が2値教師信号に対して一旦全正解となった状態が達成された場合には、全出力正解判定信号を全出力正解状態とし送出する。また、達成されてなければ非全出力正解状態として送出する。学習収束判定処理部13では、全出力正解判定信号に於いて全出力正解状態が達成されてなければ重み係数更新処理を繰り返す。
一旦全出力正解状態が達成されると、全ての出力層出力ユニット信号の出力正解余裕(2値スレショルド回路6の正解不正解判定スレショルド値(2値識別スレショルド)からの正解となる振幅余裕)が予め定められた正解最小余裕スレショルドを越え、全出力正解余裕状態となれば、学習収束判定条件を満足したとして学習処理を終了する。
この間、重み係数修正を行う際に、正解の全ての出力層出力ユニットに関して、式(15)のように、Go=Goallcとする。即ち、出力層応答関数微分係数正規化べき乗値が最大値(maxo)に近い値をより幅広くとるよう、Gocよりも0に近い値のGoallcを設定する。これにより、全ての出力層出力ユニット信号が正解最小余裕スレショルドを素早く越えるよう重み係数修正を加速させ、出力層出力信号を教師信号により正確且つ高速に近づくよう加速する。
全出力正解状態が一旦得られた後の正解出力層出力ユニットに於ける出力層応答関数
微分係数正規化べき乗値
= 0.25(1-Goallc){OS m(t)(1−OS m(t))}Goallc (15)
ここで、0≦ Goallc<Goc≦1である。
重み微調修正量処理部22では、s-1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み係数更新に於ける重み微調修正量を得、重み係数更新処理部23へ送出する。重み微調修正量を式(16)で与える。
重み微調修正量 = δ m(t)・Os-1 i(t) (16)
ここで、重み係数更新用誤差信号δs m(t)は、式(17)で与えられる。
δs m(t) = {Tm−Os m(t)}・[maxo(1-Go)・{f’(Nins m(t))}Go] (17)
重み係数更新処理部23では、重み係数更新量記憶部24から読み出された中間層−出力層間の重み係数に対する重み係数更新量と前記重み微調修正量とから、式(11)を基に新たな重み係数更新量を得、重み係数更新量記憶部24に格納すると共に重み係数更新処理部25へ送出する。
重み係数更新処理部25では、重み係数記憶処理部26から読み出された中間層−出力層間の重み係数と前記重み係数更新量とから、従来と同様に式(12)に従って、新たな重み係数を得、重み係数記憶処理部26に送出する。重み係数記憶処理部26では該新たな重み係数を記憶すると共に、3層ニューラルネットワーク1及び重み微調修正量処理部22の中間層−出力層間の重み係数として設定する。
次に、入力層−中間層間の重み係数更新の際には、中間層応答関数微分係数正規化べき乗値処理部28に於いて、3層ニューラルネットワーク1の中間層からの中間層出力信号を基に、式(18)に従って、中間層応答関数微分係数正規化べき乗値を得、重み微調修正量処理部22へ送出する。
中間層応答関数微分係数正規化べき乗値
= maxh(1-Gh){f’(Nink j(t))}Gh (18)
の中間層応答関数微分正規化べき乗関数から得られる。ここで、べき乗係数Ghは、0≦Gh<1である。maxhは、f’((Nink j(t))の最大値と、Gh≠1の場合の中間層応答関数微分係数正規化べき乗値の最大値とが同一の値となるよう調節する正規化定数である。
これにより、中間層応答関数微分係数正規化べき乗値の最大値が、べき乗係数Ghの値に関わらず、従来方式の中間層応答関数微分係数値の最大値(maxh)と常に同じとなり、Gh<1の場合にも安定且つ高速に収束させる事ができる。また、Gh=1の場合には、従来方式の中間層応答関数微分係数値と同じになる。Gh<1と設定することにより、中間層出力ユニット信号が1或いは0に近い場合に、中間層応答関数微分係数値より大きい中間層応答関数微分係数正規化べき乗値を用いることができ、入力層−中間層間の重み係数の修正を加速することができる。
中間層応答関数微分係数値と中間層応答関数微分係数正規化べき乗値との関係は、応答関数がシグモイド関数の場合には、図5に示す出力層応答関数微分係数値と出力層応答関数微分係数正規化べき乗値との一般的関係と同様な関係にある。
重み微調修正量処理部22では、従来と同様に、式(8)の重み微調修正量を得、重み係数更新処理部23へ送出する。
ここで、k層j番目ユニット−k+1層n番目ユニット間の重み係数の重み微調修正量に於ける重み係数更新用誤差信号δk j(t)は、
Figure 0004586420
但し、k≠s で与えられる。
重み係数更新処理部23では、重み係数更新量記憶部24から読み出された入力層−中間層間の重み係数に対する重み係数更新量と該重み微調修正量とから、従来と同様に式(11)に従って新たな重み係数更新量を得、重み係数更新量記憶部24に格納すると共に重み係数更新処理部25へ送出する。
重み係数更新処理部25では、重み係数記憶処理部26から読み出された入力層と中間層間の重み係数と該重み係数更新量とから、従来と同様に式(12)に従って、新たな重み係数を得、重み係数記憶処理部26に送出する。
重み係数記憶処理部26では、該新たな重み係数を格納すると共に、3層ニューラルネットワーク1及び重み微調修正量処理部22の入力層−中間層間の重み係数に設定する。
上記の一連の重み係数更新を全ての学習用入力信号に対して実施した後、動作モード制御部10に於いて、動作モードをテストモードとし、学習収束判定処理部13及び正解不正解出力判定処理部11にテストモード制御信号を送出し、全ての学習用入力信号を用いてテストモード処理を実施する。正解不正解出力判定処理部11に於いて、全学習用入力信号に対して正解となる全出力正解状態の検出状況を示す全出力正解判定信号を学習収束判定処理部13へ送出する。
学習収束判定処理部13では、動作モード制御部10からテストモード制御信号が入力されると、学習収束判定処理部13をリセットし、全出力正解判定信号に於いて全出力正解状態が得られてなければ、再度重み係数更新モードに戻る。全出力正解状態が得られておれば、更に、出力正解余裕状態判定として、全ての出力層出力ユニット信号の出力正解余裕(2値スレショルド回路6の正解不正解判定スレショルド値、即ち2値識別スレショルドからの正解となる振幅余裕で与えられ、最大余裕値-|誤差|でも得られる。)が予め定められた正解最小余裕スレショルドを越えると、学習収束判定条件を満足したとして学習収束判定信号を動作モード制御部10へ送出し、学習処理を終了する。
学習収束判定条件を満足していなければ、重み係数更新要求信号を動作モード制御部10へ送出し、再度重み係数更新モードに戻り、上記の一連の重み係数更新処理を実施する。
上記のように、中間層応答関数微分係数正規化べき乗値処理部28に於いて、べき乗係数Ghを0<Gh<1と設定し、更に出力層応答関数微分係数正規化べき乗値処理部27では、正解或いは不正解出力層出力ユニット信号により、式(13)に於けるGoとして、0<Goc≦1、0<Gow<1を夫々設定することにより、更には、全学習用入力信号に対する出力信号が正解となる全出力正解状態が一旦得られると、少なくとも正解出力層出力ユニットに対して0<Goallc<Goc≦1となるGoallcをGoとして設定し、中間層出力ユニットに対して0<Ghallc<Ghc≦1となるGhallcをGhとして設定することにより、出力層応答関数微分係数正規化べき乗値及び中間層応答関数微分係数正規化べき乗値は、従来の出力層応答関数微分係数値及び中間層応答関数微分係数値よりも、夫々大きい値をとることができ、学習の収束を加速することができる。尚、全学習用入力信号に対する出力信号が正解となる全出力正解状態が一旦得られると、不正解出力層出力ユニットに対しても、Goallc或いはGocをGoとして設定してもよい。
即ち、出力層出力ユニット信号が教師ユニット信号と異なり、大きく間違って0或いは1の値に近づいた場合に、従来の装置では、式(3)に示すように、出力層の応答関数導関数の値である出力層応答関数微分係数値が非常に小さい値となる。従って、式(8)の重み微調修正量も小さくなり、式(11)に於いて結果的に出力層出力ユニット誤差信号に関連した重み係数更新量が小さく、重み係数の更新が殆ど行われない。
これに対して、本発明で得られた出力層応答関数微分係数正規化べき乗値は、このような状況に於いても、従来の出力層応答関数微分値より大きい値を採ることから、式(11)の不正解の出力層出力ユニット信号に関連した重み係数更新が安定且つ高速に加速進展する。また、同様に出力層出力ユニット信号が正解の場合にも、0或いは1に近づいた時、同様に、0≦Goc≦1と設定することにより、出力層応答関数微分係数正規化べき乗値を従来の出力層応答関数微分係数値よりも大きい値にすることができ、正解の出力層出力ユニットに於いても重み係数更新が安定且つ高速に加速進展される。
更に、ローカルミニマムに収束した状態(正解出力層出力ユニット信号はより正解の、不正解出力層出力ユニット信号はより不正解の出力振幅を採る)から素早く抜け出し、学習速度を加速する為に、0≦Gow<Goc≦1と設定してもよい。
また、同様に中間層応答関数微分係数正規化べき乗値処理部28に於いて、0≦Gh≦1のGhを設定することから、中間層出力ユニットに於いても、中間層の応答関数導関数の値である中間層応答関数微分係数正規化べき乗値を用いることにより、入力層−中間層間の重み係数更新が安定且つ高速に加速進展される。
尚、中間層応答関数微分係数正規化べき乗値処理部28に於いて、Gh=1とし、図2の如く、図4に示す従来の中間層応答関数微分係数値処理部21を用いても良い。
更に、図6の如く、正解不正解出力判定処理部15に於いて、新たに出力層出力信号内の出力ユニット信号が全正解となる、即ち出力層出力信号が出力正解状態か、或いは不正解ユニットがあり出力不正解となる、即ち出力層出力信号が出力不正解状態かを示す正解不正解出力判定信号をも設け、全出力正解判定信号と該正解不正解出力判定信号とを中間層応答関数微分係数正規化べき乗値処理部29に送出し、出力層応答関数微分係数正規化べき乗値処理部27と似たように、式(18)の中間層応答関数微分係数正規化べき乗値のべき乗係数Ghに対して、出力層出力信号が出力不正解状態であればGhwを、全出力正解状態ではないが、出力正解状態であれば、Ghcを、全出力正解状態であり、出力正解状態であれば、Ghallcを夫々設定し、より正確な制御の基に学習を加速収束させてもよい。ここで、夫々0≦Ghw<1及び0≦Ghallc≦Ghc≦1である。尚、全出力正解状態を検出せず、少なくとも出力正解状態に対してGhcを用いるだけでもよい。
これに従って、入力層−中間層間重み係数を順次更新する。尚、3層以上の多層ニューラルネットワークでは、出力層以前から順次行われる中間層−入力層間の重み係数更新の際に、これら全ての層間に於いて夫々の中間層応答関数微分係数正規化べき乗値を用いてもよいが、一部の層間に於いてのみ用いても良い。
従来の装置では、式(3)及び式(4)に示すように、出力層出力ユニット信号や中間層出力ユニット信号が1や0に近づくと、出力層の応答関数導関数の値である出力層応答関数微分係数値や中間層の中間層応答関数微分係数値が小さくなり、0またはこれに近い値となる。従って、式(8)の重み微調修正量も小さくなり、式(11)に於いて結果的に不正解の出力層出力ユニット誤差信号に関連した重み係数更新量が小さく、重み係数の更新が殆ど行われない。特に、ローカルミニマム状態ではこの傾向が一段と強くなり、このローカルミニマム状態から離脱が非常に困難となる。
これに対して、本発明の実施形態に於ける式(13)の如く、出力層出力ユニット信号の出力正解不正解判定を行い、べき乗係数Goを切り替え、更に式(18)の如く常にべき乗係数Gh<1に少なくとも設定することによって、出力層及び中間層応答関数微分係数正規化べき乗値を最大値(maxo、maxh)以下の範囲で従来の出力層及び中間層応答関数微分係数値よりも夫々大きい値を得るよう制御することができ、より正確且つ大きな重み微調修正量が得られる。
これにより、正解の出力層出力信号がより一層2値教師信号に近づくと共に、同時に不正解の出力層出力信号が教師信号に対して益々不正解側の値をとる非常に安定したローカルミニマム状態に落ち込み難くなり、重み係数の更新が非常に安定し且つ加速される。
また、全ての学習用入力信号に対して正解出力層出力信号が得られた全出力正解状態に一旦なった後にも、全ての出力層出力ユニット信号が正解最小余裕スレショルドを高速に越え、全出力正解余裕状態となり学習収束判定条件を迅速に満足させることができる。また、全出力正解状態を達成する前及びその後の学習回数が夫々削減され、全体の学習回数は大幅に削減改善できる。
この結果、全ての出力層出力ユニット信号が教師信号に非常に近い値を持った出力層出力信号が得られ、従来方式より大幅に少ない学習回数で誤差電力が最小のグローバルミニマムの状態を迅速に達成できる。
また、教師信号エレメントは、0及び1を用いることから、従来の0.9及び0.1を用いた場合よりも汎化特性も優れた多層ニューラルネットワークの学習を実現できる。
本発明の実施形態の図1に関する応答関数微分係数正規化べき乗関数型エラー・バック・プロパゲーション学習装置の処理フローを図3に示す。ステップ100の学習初期設定処理は、重み係数初期値の3層ニューラルネットワーク1への設定など重み係数更新に必要な初期設定を行う。ステップ110の学習用入力信号入力処理では、準備された学習用入力信号と対応した教師信号とを指定された順序で順次3層ニューラルネットワーク1に設定する。ステップ120の3層ニューラルネットワーク処理では、3層ニューラルネットワーク1に於いて、入力された学習用入力信号に対して、中間層出力信号及び出力層出力信号などを送出する多層ニューラルネットワーク処理を行う。
ステップ130の正解不正解出力判定処理では、2値スレショルド回路6と正解不正解出力判定処理11の処理と対応しており、各出力層出力ユニット信号に対して2値識別スレショルドを用いて2値出力層出力ユニット信号を得、対応した教師ユニット信号と比較し、一致しておれば正解、不一致ならば不正解として出力ユニット正解不正解判定信号を得る
ステップ140の応答関数微分係数正規化べき乗値算出処理では、先ず、中間層-出力層間重み係数更新の為に、出力層応答関数微分係数正規化べき乗値算出処理を実施する。出力層応答関数微分係数正規化べき乗値処理部27の如く、出力ユニット正解不正解判定信号を用い、出力層出力ユニット信号が不正解の場合には、べき乗係数Go=Gowを設定し、式(14)を用いて、出力層応答関数微分係数正規化べき乗値を求める。
一方、出力層出力ユニット信号が正解の場合には、全学習入力信号に対する出力層出力信号が一旦全出力正解状態となり、これにより全出力正解判定信号が、全出力正解余裕判定及び全出力正解不正解判定処理210にて検出されておれば、べき乗係数Go=Goallcを、検出されていなければ、べき乗係数Go=Gocを設定し式(14)を用いて、出力層応答関数微分係数正規化べき乗値を求める。また、一連の中間層−出力層間重み係数更新処理が終了し、ステップ180から戻ってくると、入力層−中間層間重み係数更新処理の為に、べき乗係数Ghを設定した式(18)の中間層応答関数微分係数正規化べき乗値算出処理を応答関数微分係数正規化べき乗値算出処理140にて実施する。中間層応答関数微分係数正規化べき乗値処理部28の如く、中間層応答関数微分係数正規化べき乗値が式(18)に従って求められる。
更に、ステップ150の重み微調修正量算出処理では、減算部4の如く各出力層出力ユニット信号に対して教師ユニット信号からの差をとり、出力層出力ユニット誤差信号を得る誤差信号算出処理を行い、重み微調修正量処理部22の如く、前記の出力層応答関数微分係数正規化べき乗値と誤差信号と中間層出力信号とから式(8)により、中間層と出力層間の重み係数の重み微調修正量を得る。
また、入力層−中間層間の重み係数更新の際には、式(19)の中間層応答関数微分係数正規化べき乗値と式(19)の重み係数更新用誤差信号δk j(t)とから、式(8)のk層j番目ユニット−k+1層n番目ユニット間の重み係数の重み微調修正量が夫々求められる。
ステップ160の重み係数更新量算出処理では、重み係数更新量処理部23及び重み係数更新量記憶部24に於ける処理の如く、重み微調修正量を用いて、式(11)に従って、夫々新たな重み係数更新量を求める。
ステップ170の重み係数更新算出処理では、重み係数更新処理部25及び重み係数記憶処理部26での処理の如く、重み係数更新量を用いて、式(12)により中間層−出力層間の新たな重み係数を得、また式(12)により入力層−出力層間の新たな重み係数を得る。
ステップ180の入力層−中間層層間重み係数更新済み判定処理では、中間層-出力層間の全ての重み係数の更新が未終了ならば、ステップ140へ戻り、ステップ140からステップ170までの中間層−出力層間の全ての重み係数の更新処理を完全に実施する。その後、同様に入力層−中間層間の全ての重み係数の更新をステップ140から170において実施し、上記の入力層−中間層間重み係数の更新処理が全て終了すると、次のステップ190へ移る。尚、3層以上の多層ニューラルネットワークを用いる場合には、中間層−中間層間の重み係数を順次更新し、最後に入力層−中間層間重み係数を更新することとなる。
190のニューラルネットワーク更新重み係数設定処理では、中間層−出力層間及び入力層−中間層間の更新された重み係数を夫々3層ニューラルネットワークに夫々設定する。
ステップ200の全学習用入力信号の入力判定処理では、全ての学習用入力信号が入力され重み係数が更新されたかの判断を行い、されていなければ、次の学習用入力信号と対応した教師信号とを3層ニューラルネットワークに設定する為に、ステップ110の学習用入力信号入力処理へ戻り、110から190の処理を繰り返す。全ての学習用入力信号に対し重み係数が更新されると、ステップ210へ進む。
ステップ210の全出力正解余裕判定及び全出力正解不正解判定処理では、全ての学習用入力信号に対して、学習収束判定処理部13と同様に全ての出力層出力ユニット信号の出力正解余裕を求め、正解最小余裕スレショルドと比較し、全て正解最小余裕スレショルドを超えているかの全出力正解余裕判定を行う。
また、全ての学習入力信号に対する2値出力層出力信号が対応した2値教師信号と一致した全出力正解状態かを示す全出力正解判定を行う。
ステップ220の学習収束判定処理では、全出力正解余裕判定及び全出力正解判定が、学習収束判定条件を満足しておれば、重み係数更新処理が全て完了したとして、学習を終了する。学習収束判定条件を満足していなければ、ステップ110に戻り、再度最初の学習用入力信号から順次各ステップに沿って重み係数更新処理を行う。
本発明の実施形態では、出力層応答関数として0及び1の出力値の範囲を持ったシグモイド関数を例にとり説明したが、−1から1の出力範囲を持ったシグモイド関数や、0から1の出力範囲を持ったガウス関数でもよい。また一般に応答関数導関数が出力信号に対して零点を有する応答関数ならば何れの関数でもよく、シグモイド関数などに限るものではない。
また、応答関数微分係数値が正及び負の値を採り得る場合、0以上の値をとる領域と負の領域とに分け、0以上の領域では、本実施形態と同様にその領域での最大値を用いて式(13)、(17)の如く、出力応用関数微分係数正規化べき乗値を得、負の領域では、その領域での応答関数微分係数値の最小値を用いて、応答関数微分係数値の絶対値に対するべき乗値を正規化することにより、応答関数微分係数正規化べき乗値を得ればよい。
本実施形態の学習収束判定処理部13の学習収束判定条件として、正解不正解出力判定処理部11に於いて、出力層出力信号が全て正解判定とされた全出力正解状態であれば、正解の出力層出力ユニット信号の内で正解判定となる為の、正解不正解判定スレショルドからの最小余裕値を求め、これを予め準備した正解最小余裕スレショルドと比較し、全ての学習用入力信号に対する出力層出力ユニット信号がこれを超えておれば全出力正解余裕状態に収束したと見なす学習収束判定条件を用いたが、これに代わって、出力層出力信号が全て正解判定の全出力正解状態が得られた後に、出力層出力信号の総誤差電力が与えられた誤差電力スレショルド以下となれば収束したと見なす学習収束判定条件を用いてもよい。
出力層応答関数微分係数正規化べき乗値処理部27に於いて、特願2003‐131665、“多層ニューラルネットワーク学習方法”のように、出力層応答関数微分係数正規化べき乗値に取り得る下限値Dlimitを設定し、Dlimit以上であればそのままの値を出力層応答関数微分係数正規化べき乗値として、Dlimit未満であればDlimitに置き換えて出力層応答関数微分係数正規化べき乗値として用いてもよい。ここで、Dlimitは、予め与えられた下限微分係数値(下限値)>0である。
また、学習を進めた結果、正解判定の出力層出力信号がより教師信号に近づき、同時に不正解判定の出力層出力信号がより不正解の値をとる安定したローカルミニマム状態を、不正解の出力層出力ユニット誤差信号内の最小値が与えられた最小誤差スレショルドを超えることにより検出し、Gowをより小さくし、その後、安定したローカルミニマム状態から離脱し、最小誤差スレショルド以下になると、元のGowに戻してもよい。
また、不正解の出力層出力ユニットに於いて、不正解出力層出力ユニット信号が、予め指定された範囲内(例えば、不正解1から0.75、或いは不正解0から0.25の範囲)の場合に、Go=Gowを用い、それ以外ではGo=1を用いてもよい。
或いは、図6に示す正解不正解出力判定信号と全出力正解判定信号とによりべき乗係数値を制御する中間層応答関数微分係数正規化べき乗値処理部29と、図4に示す従来の出力層応答関数微分係数値処理部20とを用いてもよい。
以上の実施形態において、多層ニューラルネットワークを前提に説明したが、教師信号を利用して学習させるニューラルネットワークであれば、上記以外のニューラルネットワークを用いても良い。
本発明の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置を用いた3層ニューラルネットワーク学習処理の第1の構成例である。 本発明の実施形態の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置を用いた3層ニューラルネットワーク学習処理に於いて、従来の中間層応答関数微分係数値処理を用いた構成例である。 本発明の実施形態に於ける応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置の1処理フロー図である。 従来方式のエラー・バック・プロパゲーション学習装置を用いた多層ニューラルネットワーク学習処理の構成例である。 2値出力層出力ユニット信号に於ける従来方式の出力層応答関数微分係数値と本発明の実施形態に於ける出力層応答関数微分係数正規化べき乗値との関係を示す図である。 本発明の実施形態の応答関数微分正規化べき乗関数型エラー・バック・プロパゲーション学習装置を用いた3層ニューラルネットワーク学習処理に於ける中間層応答関数微分係数べき乗値処理部のべき乗係数を出力層出力信号により切り替え制御する構成例である。
1 3層ニューラルネットワーク
2 入力信号入力端子
、2、2 入力信号ユニット入力端子
3 教師信号入力端子
、3、3 教師ユニット信号入力端子
4、4、4、4 減算部
5 重み係数制御部
6、6、6、6、7、7、7、7 2値スレショルド回路
8 一致検出部
9 学習収束判定処理部
10 動作モード制御部
11 正解不正解出力判定処理部
12 応答関数微分重み係数制御部
13 学習収束判定処理部
14 応答関数微分重み係数制御部
15 正解不正解出力判定処理部
16 応答関数微分重み係数制御部
20 出力層応答関数微分係数値処理部
21 中間層応答関数微分係数値処理部
22 重み微調修正量処理部
23 重み係数更新量処理部
24 重み係数更新量記憶部
25 重み係数更新処理部
26 重み係数記憶処理部
27 出力層応答関数微分係数正規化べき乗値処理部
28 中間層応答関数微分係数正規化べき乗値処理部
29 中間層応答関数微分係数正規化べき乗値処理部
100 学習初期設定処理
110 学習用入力信号入力処理
120 3層ニューラルネットワーク処理
130 正解不正解出力判定処理
140 応答関数微分係数正規化べき乗値算出処理
150 重み微調修正量算出処理
160 重み係数更新量算出処理
170 重み係数更新算出処理
180 入力層−中間層間重み係数更新済み判定
190 ニューラルネットワーク更新重み係数設定処理
200 全学習用入力信号の入力判定
210 全出力正解余裕判定及び全出力正解不正解判定処理
220 学習収束判定

Claims (10)

  1. 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、
    学習用入力信号(2〜2)に対する多層ニューラルネットワーク(1)の出力層出力ユニット信号を教師ユニット信号(T)と比較し、正解又は不正解を少なくとも判定し、出力ユニット正解不正解判定信号を送出する正解不正解出力判定処理手段(11)と、
    該出力層出力ユニット信号が不正解と判定された出力層出力ユニットでは、0以上1より小さい第1のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る出力層応答関数微分係数正規化べき乗値処理手段(27)とを少なくとも設け、
    該出力層応答関数微分係数正規化べき乗値処理手段(27)からの出力である出力層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−出力層間の重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置。
  2. 前記出力層応答関数微分係数正規化べき乗値処理手段(27)に於いて、
    更に、前記出力層出力ユニット信号が正解と判定された出力層出力ユニットでは、0以上1以下の第2のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項1に記載の多層ニューラルネットワーク学習装置。
  3. 前記正解不正解出力判定処理手段(11)に於いて、
    更に、全ての学習入力信号(2〜2)に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、
    前記出力層応答関数微分係数正規化べき乗値処理手段(27)に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第2のべき乗係数値より小さい第3のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項2に記載の多層ニューラルネットワーク学習装置。
  4. 0以上1以下の第4のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(28)を設け、
    該中間層応答関数微分係数正規化べき乗値処理手段(28)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を行うことを特徴とする請求項1から3のいずれか1項に記載の多層ニューラルネットワーク学習装置。
  5. 前記正解不正解出力判定処理手段(15)に於いて、更に、出力層出力信号の正解或いは不正解を判定し出力正解不正解判定信号を送出し、
    出力層出力信号が正解であれば、0以上1以下の第5のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第6のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(29)を設け、
    該中間層応答関数微分係数正規化べき乗値処理手段(29)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも行うことを特徴とする請求項1から3のいずれか1項に記載の多層ニューラルネットワーク学習装置。
  6. 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、
    学習用入力信号(2〜2)に対する多層ニューラルネットワーク(1)の出力層出力信号を教師信号(T)と比較し、正解又は不正解を少なくとも判定し、出力正解不正解判定信号を送出する正解不正解出力判定処理手段(15)と、
    該出力層出力信号が正解と判定されると、0以上1以下の第7のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解と判定されると、0以上1より小さい第8のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(29)を少なくとも設け、
    該中間層応答関数微分係数正規化べき乗値処理手段(29)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の入力層−中間層間或いは中間層−中間層間の重み係数更新を少なくとも行うことを特徴とする多層ニューラルネットワーク学習装置。
  7. 前記正解不正解出力判定処理手段(15)に於いて、
    更に、全ての学習入力信号(2〜2)に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、
    前記出力層応答関数微分係数正規化べき乗値処理手段(29)に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第7のべき乗係数値より小さい第9のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項6に記載の多層ニューラルネットワーク学習装置。
  8. 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワーク用のコンピュータソフトウェアにおいて、
    コンピュータに、
    学習用入力信号(2〜2)に対する多層ニューラルネットワーク(1)の出力層出力ユニット信号を教師ユニット信号(T)と比較し、正解又は不正解を少なくとも判定する正解不正解出力判定処理(130)と、
    不正解と判定された出力層ユニットでは、0以上1より小さい第10のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る応答関数微分係数正規化べき乗値処理(140)とを少なくとも実行させ、
    該出力層応答関数微分係数正規化べき乗値に少なくとも基づき、前記多層ニューラルネットワーク(1)の重み係数更新を実行させることを特徴とする多層ニューラルネットワークの学習ソフトウェア。
  9. 前記正解不正解出力判定処理(130)に於いて、
    更に、全ての学習入力信号(2〜2)に夫々対応した出力層出力信号が正解か不正解かを判定し、
    前記応答関数微分係数正規化べき乗値処理(140)に於いて、全出力層出力信号が正解と一旦判定されると、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上1以下の第11のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を実行させることを特徴とする請求項8に記載の多層ニューラルネットワーク学習ソフトウェア。
  10. 前記正解不正解出力判定処理(130)に於いて、
    更に、出力層出力信号の正解或いは不正解を判定し、前記応答関数微分係数正規化べき乗値算出処理(140)に於いて、出力層出力信号が正解であれば、0以上1以下の第12のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第13のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも実行させることを特徴する請求項8又は9に記載の多層ニューラルネットワーク学習ソフトウェア。
JP2004159090A 2004-05-28 2004-05-28 多層ニューラルネットワーク学習装置及びソフトウェア Expired - Fee Related JP4586420B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004159090A JP4586420B2 (ja) 2004-05-28 2004-05-28 多層ニューラルネットワーク学習装置及びソフトウェア

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004159090A JP4586420B2 (ja) 2004-05-28 2004-05-28 多層ニューラルネットワーク学習装置及びソフトウェア

Publications (2)

Publication Number Publication Date
JP2005339322A JP2005339322A (ja) 2005-12-08
JP4586420B2 true JP4586420B2 (ja) 2010-11-24

Family

ID=35492805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004159090A Expired - Fee Related JP4586420B2 (ja) 2004-05-28 2004-05-28 多層ニューラルネットワーク学習装置及びソフトウェア

Country Status (1)

Country Link
JP (1) JP4586420B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831475B (zh) * 2012-08-01 2014-10-29 华北电力大学 用于风电场功率预测模型的正弦归一化方法
JP6976360B2 (ja) 2018-01-30 2021-12-08 富士フイルム株式会社 データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム
CN111047023B (zh) * 2018-10-12 2023-11-24 上海寒武纪信息科技有限公司 一种计算装置及相关产品

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334671A (ja) * 2003-05-09 2004-11-25 Kddi Corp 多層ニューラルネットワーク学習方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334671A (ja) * 2003-05-09 2004-11-25 Kddi Corp 多層ニューラルネットワーク学習方法

Also Published As

Publication number Publication date
JP2005339322A (ja) 2005-12-08

Similar Documents

Publication Publication Date Title
Oymak et al. Overparameterized nonlinear learning: Gradient descent takes the shortest path?
Basterrech et al. Levenberg—Marquardt training algorithms for random neural networks
JP3088171B2 (ja) 自己組織型パタ−ン分類システム及び分類方法
US20180046915A1 (en) Compression of deep neural networks with proper use of mask
Auddy et al. Discriminant vector tranformations in neural network classifiers
Sharifian et al. A new power system transient stability assessment method based on Type-2 fuzzy neural network estimation
US11113597B2 (en) Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis
Campbell Constructive learning techniques for designing neural network systems
Gutiérrez et al. Combined projection and kernel basis functions for classification in evolutionary neural networks
EP3982304A1 (en) Method for mitigating error of quantum circuit and apparatus thereof
Aizenberg et al. Batch linear least squares-based learning algorithm for MLMVN with soft margins
JP4586420B2 (ja) 多層ニューラルネットワーク学習装置及びソフトウェア
JP2022537977A (ja) 格子点列挙のための装置及び方法
Costantini et al. Associative memory design for 256 gray-level images using a multilayer neural network
JP4258268B2 (ja) 多層ニューラルネットワーク学習方法
US11977982B2 (en) Training of oscillatory neural networks
CN114970732A (zh) 分类模型的后验校准方法、装置、计算机设备及介质
JP2007018530A (ja) 忘却型ヒストグラム計算装置及びそれを用いた外れ値度計算装置
KR20220047128A (ko) 양자회로 에러 보정 방법 및 그 장치
Lo et al. Training deep neural networks with gradual deconvexification
Alioscha-Perez et al. Neural architecture search under black-box objectives with deep reinforcement learning and increasingly-sparse rewards
Asaduzzaman et al. Making use of damped noisy gradient in training neural network
EP4111381A1 (en) Device and method for identifying unknown classes for artificial neural networks
US20240078424A1 (en) Neural network arrangement
Raja et al. A novel feature selection based parallel ensemble classification model for COPD detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees