JP4586420B2 - 多層ニューラルネットワーク学習装置及びソフトウェア - Google Patents
多層ニューラルネットワーク学習装置及びソフトウェア Download PDFInfo
- Publication number
- JP4586420B2 JP4586420B2 JP2004159090A JP2004159090A JP4586420B2 JP 4586420 B2 JP4586420 B2 JP 4586420B2 JP 2004159090 A JP2004159090 A JP 2004159090A JP 2004159090 A JP2004159090 A JP 2004159090A JP 4586420 B2 JP4586420 B2 JP 4586420B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- response function
- layer
- signal
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
Ok j(t) = f(Nink j(t))、
Os m(t) = f(Nins m(t)) (1)
Ok j(t): t番目学習用入力信号に対するk層j番目ユニットの出力ユニット信号
Os m(t): t番目学習用入力信号に対するs(出力)層m番目ユニットの出力層出力ユニット信号
t:学習用入力信号番号
s:出力層
j:k層j番目ユニット番号
m:出力層m番目ユニット番号
Nink j(t):t番目学習用入力信号に対応したk層j番目ユニットへの入力の総和(ユニットへの入力信号を意味する)
f(x)=1/{1+Exp(-λx)} (2)
で与えられる。但し、ここでは、定数λ=1として説明するが、一般性を失うものではない。
=f’(Nink j(t))
= Exp(-Nink j(t))/{1+ Exp(-Nink j(t))}2 (≧0)
= Ok j(t){1-Ok j(t)} (3)
ここで、f’(x):応答関数導関数であり、f’(Nink j(t))はk層応答関数微分関数である。
=f’(Nins m(t))
=OS m(t)(1−OS m(t)) (4)
で与えられる。ここで、f’(Nins m(t))は出力層応答関数微分関数である。
また、
ここで、Tm :t番目学習用入力信号に対する出力層m番目ユニットの教師信号
ここで、s-1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み微調修正量に於ける重み係数更新用誤差信号δs m(t)は、式(9)となる。
=(Tm−Os m(t)) OS m(t)(1−OS m(t)) (9)
出力層では、教師信号エレメントを0.1及び0. 9の2値に設定し、Os m(t)が0または1とならないようにしてδs m(t)を求め、学習速度を改善している。しかしながら、このような教師信号エレメントの値の設定に於いても同様に安定したローカルミニマムに落ち込む場合がある。また、2値として、0.1及び0.9を用いることから、これらの値に収束した場合にも、0或いは1のエレメントを持つ2値教師信号の場合に比較して汎化特性がかなり劣化する。
ここで、
ΔWs m,jをs-1層j番目ユニット−s(出力)層m番目ユニット間の重み係数の重み係数更新量、
ΔWk j,iを(k-1)層i番目ユニット−k層j番目ユニット間重み係数の重み係数更新量とすると、式(11)で与えられる。また、更新された重み係数は式(12)で与えられる。
η:慣性係数
α:学習係数
Wk j,i(t)= Wk i,i(t-1) + ΔWk j,i(t) (12)
出力層応答関数微分係数値処理部20及び中間層応答関数微分係数値処理部21に於いて、上記の式(3)及び式(4)で求められた、出力層及び中間層の夫々の応答関数微分係数値は、重み微調修正量処理部22に入力され、式(8)のように重み微調修正量が得られる。これを重み係数更新量処理部23に入力し、式(11)のように、t-1番目の学習用入力信号の重み係数更新量が重み係数更新量記憶部24から読み出され、加算され新たな重み係数更新量を得る。その後、重み係数更新処理部25へ送出すると共に、式(11)の新たな重み係数更新量は、重み係数更新量記憶部24に格納する。
=maxo(1-Go)・{f’(Nins m(t))}Go (13)
の出力層応答関数微分正規化べき乗関数から得られ、ここで、べき乗係数Goは、0≦Go<1である。また、maxoは、出力層応答関数導関数のf’((Nins m(t))の最大値と、Go≠1の場合の出力層応答関数微分係数正規化べき乗値の最大値とが同一の値となるよう調整する正規化定数である。これにより、式(13)及び図5に示すように、出力層応答関数微分係数正規化べき乗値の最大値が、べき乗係数Goの値に関わらず、従来方式の出力層応答関数微分係数値の最大値と常に同じとなり、頻繁に切り替えても不安定な動作を発生させることなく、学習を安定に且つ高速に収束させる事ができる。
=maxo(1-Go)・{f’(Nins m(t))}Go
= 0.25(1-Go){OS m(t)(1−OS m(t))}Go (14)
となる。Go=1の場合は、従来方式に於ける式(4)の出力層応答関数微分係数値となる。図5に出力層応答関数微分係数値と出力層応答関数微分係数正規化べき乗値との一般的関係を示す。OS m(t)が1或いは0に近づくと、出力層応答関数微分係数値より出力層応答関数微分係数正規化べき乗値が大きくなる。これにより、学習の安定且つ収束速度が改善される。
微分係数正規化べき乗値
= 0.25(1-Goallc){OS m(t)(1−OS m(t))}Goallc (15)
ここで、0≦ Goallc<Goc≦1である。
= maxh(1-Gh){f’(Nink j(t))}Gh (18)
の中間層応答関数微分正規化べき乗関数から得られる。ここで、べき乗係数Ghは、0≦Gh<1である。maxhは、f’((Nink j(t))の最大値と、Gh≠1の場合の中間層応答関数微分係数正規化べき乗値の最大値とが同一の値となるよう調節する正規化定数である。
2 入力信号入力端子
21、22、2N 入力信号ユニット入力端子
3 教師信号入力端子
31、32、3M 教師ユニット信号入力端子
4、41、42、4M 減算部
5 重み係数制御部
6、61、62、6M、7、71、72、7M 2値スレショルド回路
8 一致検出部
9 学習収束判定処理部
10 動作モード制御部
11 正解不正解出力判定処理部
12 応答関数微分重み係数制御部
13 学習収束判定処理部
14 応答関数微分重み係数制御部
15 正解不正解出力判定処理部
16 応答関数微分重み係数制御部
20 出力層応答関数微分係数値処理部
21 中間層応答関数微分係数値処理部
22 重み微調修正量処理部
23 重み係数更新量処理部
24 重み係数更新量記憶部
25 重み係数更新処理部
26 重み係数記憶処理部
27 出力層応答関数微分係数正規化べき乗値処理部
28 中間層応答関数微分係数正規化べき乗値処理部
29 中間層応答関数微分係数正規化べき乗値処理部
100 学習初期設定処理
110 学習用入力信号入力処理
120 3層ニューラルネットワーク処理
130 正解不正解出力判定処理
140 応答関数微分係数正規化べき乗値算出処理
150 重み微調修正量算出処理
160 重み係数更新量算出処理
170 重み係数更新算出処理
180 入力層−中間層間重み係数更新済み判定
190 ニューラルネットワーク更新重み係数設定処理
200 全学習用入力信号の入力判定
210 全出力正解余裕判定及び全出力正解不正解判定処理
220 学習収束判定
Claims (10)
- 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、
学習用入力信号(21〜2N)に対する多層ニューラルネットワーク(1)の出力層出力ユニット信号を教師ユニット信号(T)と比較し、正解又は不正解を少なくとも判定し、出力ユニット正解不正解判定信号を送出する正解不正解出力判定処理手段(11)と、
該出力層出力ユニット信号が不正解と判定された出力層出力ユニットでは、0以上1より小さい第1のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る出力層応答関数微分係数正規化べき乗値処理手段(27)とを少なくとも設け、
該出力層応答関数微分係数正規化べき乗値処理手段(27)からの出力である出力層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−出力層間の重み係数更新を行うことを特徴とする多層ニューラルネットワーク学習装置。 - 前記出力層応答関数微分係数正規化べき乗値処理手段(27)に於いて、
更に、前記出力層出力ユニット信号が正解と判定された出力層出力ユニットでは、0以上1以下の第2のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項1に記載の多層ニューラルネットワーク学習装置。 - 前記正解不正解出力判定処理手段(11)に於いて、
更に、全ての学習入力信号(21〜2N)に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、
前記出力層応答関数微分係数正規化べき乗値処理手段(27)に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第2のべき乗係数値より小さい第3のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項2に記載の多層ニューラルネットワーク学習装置。 - 0以上1以下の第4のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(28)を設け、
該中間層応答関数微分係数正規化べき乗値処理手段(28)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を行うことを特徴とする請求項1から3のいずれか1項に記載の多層ニューラルネットワーク学習装置。 - 前記正解不正解出力判定処理手段(15)に於いて、更に、出力層出力信号の正解或いは不正解を判定し出力正解不正解判定信号を送出し、
出力層出力信号が正解であれば、0以上1以下の第5のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第6のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(29)を設け、
該中間層応答関数微分係数正規化べき乗値処理手段(29)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも行うことを特徴とする請求項1から3のいずれか1項に記載の多層ニューラルネットワーク学習装置。 - 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワークにおいて、
学習用入力信号(21〜2N)に対する多層ニューラルネットワーク(1)の出力層出力信号を教師信号(T)と比較し、正解又は不正解を少なくとも判定し、出力正解不正解判定信号を送出する正解不正解出力判定処理手段(15)と、
該出力層出力信号が正解と判定されると、0以上1以下の第7のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解と判定されると、0以上1より小さい第8のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得る中間層応答関数微分係数正規化べき乗値処理手段(29)を少なくとも設け、
該中間層応答関数微分係数正規化べき乗値処理手段(29)からの出力である中間層応答関数微分係数正規化べき乗値を少なくとも用いて、前記多層ニューラルネットワーク(1)の入力層−中間層間或いは中間層−中間層間の重み係数更新を少なくとも行うことを特徴とする多層ニューラルネットワーク学習装置。 - 前記正解不正解出力判定処理手段(15)に於いて、
更に、全ての学習入力信号(21〜2N)に夫々対応した出力層出力信号が正解か不正解かを判定し全出力正解判定信号を送出し、全出力層出力信号が正解と一旦判定されると、
前記出力層応答関数微分係数正規化べき乗値処理手段(29)に於いて、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上で前記第7のべき乗係数値より小さい第9のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を行うことを特徴とする請求項6に記載の多層ニューラルネットワーク学習装置。 - 応答関数の導関数が出力信号に対して零点を有する該応答関数を用いたエラー・バック・プロパゲーション重み係数更新により教師信号を学習して重み係数を更新する多層ニューラルネットワーク用のコンピュータソフトウェアにおいて、
コンピュータに、
学習用入力信号(21〜2N)に対する多層ニューラルネットワーク(1)の出力層出力ユニット信号を教師ユニット信号(T)と比較し、正解又は不正解を少なくとも判定する正解不正解出力判定処理(130)と、
不正解と判定された出力層ユニットでは、0以上1より小さい第10のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得る応答関数微分係数正規化べき乗値処理(140)とを少なくとも実行させ、
該出力層応答関数微分係数正規化べき乗値に少なくとも基づき、前記多層ニューラルネットワーク(1)の重み係数更新を実行させることを特徴とする多層ニューラルネットワークの学習ソフトウェア。 - 前記正解不正解出力判定処理(130)に於いて、
更に、全ての学習入力信号(21〜2N)に夫々対応した出力層出力信号が正解か不正解かを判定し、
前記応答関数微分係数正規化べき乗値処理(140)に於いて、全出力層出力信号が正解と一旦判定されると、少なくとも出力層出力ユニットが正解と判定された出力層出力ユニットでは、0以上1以下の第11のべき乗係数値を出力層応答関数微分正規化べき乗関数に適用して出力層応答関数微分係数正規化べき乗値を得、重み係数更新を実行させることを特徴とする請求項8に記載の多層ニューラルネットワーク学習ソフトウェア。 - 前記正解不正解出力判定処理(130)に於いて、
更に、出力層出力信号の正解或いは不正解を判定し、前記応答関数微分係数正規化べき乗値算出処理(140)に於いて、出力層出力信号が正解であれば、0以上1以下の第12のべき乗係数値を中間層応答関数微分正規化べき乗関数に適用し、不正解ならば0以上1より小さい第13のべき乗係数値を前記中間層応答関数微分正規化べき乗関数に適用して中間層応答関数微分係数正規化べき乗値を得、前記多層ニューラルネットワーク(1)の中間層−中間層間或いは入力層−中間層間の重み係数更新を少なくとも実行させることを特徴する請求項8又は9に記載の多層ニューラルネットワーク学習ソフトウェア。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004159090A JP4586420B2 (ja) | 2004-05-28 | 2004-05-28 | 多層ニューラルネットワーク学習装置及びソフトウェア |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004159090A JP4586420B2 (ja) | 2004-05-28 | 2004-05-28 | 多層ニューラルネットワーク学習装置及びソフトウェア |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005339322A JP2005339322A (ja) | 2005-12-08 |
JP4586420B2 true JP4586420B2 (ja) | 2010-11-24 |
Family
ID=35492805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004159090A Expired - Fee Related JP4586420B2 (ja) | 2004-05-28 | 2004-05-28 | 多層ニューラルネットワーク学習装置及びソフトウェア |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4586420B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831475B (zh) * | 2012-08-01 | 2014-10-29 | 华北电力大学 | 用于风电场功率预测模型的正弦归一化方法 |
JP6976360B2 (ja) | 2018-01-30 | 2021-12-08 | 富士フイルム株式会社 | データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム |
CN111047023B (zh) * | 2018-10-12 | 2023-11-24 | 上海寒武纪信息科技有限公司 | 一种计算装置及相关产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334671A (ja) * | 2003-05-09 | 2004-11-25 | Kddi Corp | 多層ニューラルネットワーク学習方法 |
-
2004
- 2004-05-28 JP JP2004159090A patent/JP4586420B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334671A (ja) * | 2003-05-09 | 2004-11-25 | Kddi Corp | 多層ニューラルネットワーク学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2005339322A (ja) | 2005-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Oymak et al. | Overparameterized nonlinear learning: Gradient descent takes the shortest path? | |
Basterrech et al. | Levenberg—Marquardt training algorithms for random neural networks | |
JP3088171B2 (ja) | 自己組織型パタ−ン分類システム及び分類方法 | |
US20180046915A1 (en) | Compression of deep neural networks with proper use of mask | |
Auddy et al. | Discriminant vector tranformations in neural network classifiers | |
Sharifian et al. | A new power system transient stability assessment method based on Type-2 fuzzy neural network estimation | |
US11113597B2 (en) | Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis | |
Campbell | Constructive learning techniques for designing neural network systems | |
Gutiérrez et al. | Combined projection and kernel basis functions for classification in evolutionary neural networks | |
EP3982304A1 (en) | Method for mitigating error of quantum circuit and apparatus thereof | |
Aizenberg et al. | Batch linear least squares-based learning algorithm for MLMVN with soft margins | |
JP4586420B2 (ja) | 多層ニューラルネットワーク学習装置及びソフトウェア | |
JP2022537977A (ja) | 格子点列挙のための装置及び方法 | |
Costantini et al. | Associative memory design for 256 gray-level images using a multilayer neural network | |
JP4258268B2 (ja) | 多層ニューラルネットワーク学習方法 | |
US11977982B2 (en) | Training of oscillatory neural networks | |
CN114970732A (zh) | 分类模型的后验校准方法、装置、计算机设备及介质 | |
JP2007018530A (ja) | 忘却型ヒストグラム計算装置及びそれを用いた外れ値度計算装置 | |
KR20220047128A (ko) | 양자회로 에러 보정 방법 및 그 장치 | |
Lo et al. | Training deep neural networks with gradual deconvexification | |
Alioscha-Perez et al. | Neural architecture search under black-box objectives with deep reinforcement learning and increasingly-sparse rewards | |
Asaduzzaman et al. | Making use of damped noisy gradient in training neural network | |
EP4111381A1 (en) | Device and method for identifying unknown classes for artificial neural networks | |
US20240078424A1 (en) | Neural network arrangement | |
Raja et al. | A novel feature selection based parallel ensemble classification model for COPD detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100810 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100823 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130917 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |