JP2659230B2 - 神経回路網の学習装置 - Google Patents
神経回路網の学習装置Info
- Publication number
- JP2659230B2 JP2659230B2 JP63246743A JP24674388A JP2659230B2 JP 2659230 B2 JP2659230 B2 JP 2659230B2 JP 63246743 A JP63246743 A JP 63246743A JP 24674388 A JP24674388 A JP 24674388A JP 2659230 B2 JP2659230 B2 JP 2659230B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- cell
- unit
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 〔概要〕 パターン識別を行う神経回路網の学習装置に関するも
のであり,誤差Eを小さくするとともに識別エラーの最
小化が可能な学習方式を実現することを目的とし, Sを各セルの入力の重み付き総和とし,S0を0<S0≦
1なる値とした場合,出力関数として をもつセルを構成要素とし,学習法としてバックプロパ
ゲーション法を用いてパターン識別を行う隠れ層および
出力層を含む多層パーセプトロン型神経回路網におい
て, 学習の全期間において,出力層のセルについては1よ
り僅かに小さいS0を用い,隠れ層のセルについてはS0=
1を用いるように構成した。
のであり,誤差Eを小さくするとともに識別エラーの最
小化が可能な学習方式を実現することを目的とし, Sを各セルの入力の重み付き総和とし,S0を0<S0≦
1なる値とした場合,出力関数として をもつセルを構成要素とし,学習法としてバックプロパ
ゲーション法を用いてパターン識別を行う隠れ層および
出力層を含む多層パーセプトロン型神経回路網におい
て, 学習の全期間において,出力層のセルについては1よ
り僅かに小さいS0を用い,隠れ層のセルについてはS0=
1を用いるように構成した。
本発明は,パターン識別を行う神経回路網の学習装置
に関するものである。
に関するものである。
近年,音声認識,文字認識および図形認識などのパタ
ーン認識装置の普及にともない,従来より精度の高い識
別方式の出現が望まれている。従来の統計的識別法では
識別すべきパターンの分布型に強い制約があり一般のパ
ターン分布型では高い識別精度が得られないという欠点
がある。神経回路網による識別ではこのような制約がな
く,いかなるパターン分布型であっても高い識別性能が
得られるという特徴がある。しかし,現在の神経回路網
の学習法として使用されているバックプロパゲーション
法では,必ずしも識別誤りが小さくなる方向に学習され
ないという問題がある。本発明は,学習を効率的に行わ
せるための改良手段を提供する。
ーン認識装置の普及にともない,従来より精度の高い識
別方式の出現が望まれている。従来の統計的識別法では
識別すべきパターンの分布型に強い制約があり一般のパ
ターン分布型では高い識別精度が得られないという欠点
がある。神経回路網による識別ではこのような制約がな
く,いかなるパターン分布型であっても高い識別性能が
得られるという特徴がある。しかし,現在の神経回路網
の学習法として使用されているバックプロパゲーション
法では,必ずしも識別誤りが小さくなる方向に学習され
ないという問題がある。本発明は,学習を効率的に行わ
せるための改良手段を提供する。
多層パーセプトロン型神経回路網の基本構造 第8図に,基本的な多層パーセプトロン型神経回路網
の例として,2層パーセプトロン型神経回路網の構成を示
す。
の例として,2層パーセプトロン型神経回路網の構成を示
す。
第8図の2層パーセプトロン型神経回路網は,隠れ層
と出力層からなり,各層は○で示すセルで構成される。
ここでセルは,神経細胞を機能的に模擬した素子を意味
している。この例では,入力数が(I+1)個,隠れ層
のセル個数(J+1)個および出力層のセル個数1個か
らなっている。
と出力層からなり,各層は○で示すセルで構成される。
ここでセルは,神経細胞を機能的に模擬した素子を意味
している。この例では,入力数が(I+1)個,隠れ層
のセル個数(J+1)個および出力層のセル個数1個か
らなっている。
各セルには複数個の入力があり,出力層のセルの各入
力には結合係数{Vj}j=0,J, また隠れ層の各セルの各入力には{Wij}i=0,I,
j=1,Jが付与されている。各セルの出力{Yj}および
Zは,次の1式または2式で表される。但し,X0=1,Y0
=1である。
力には結合係数{Vj}j=0,J, また隠れ層の各セルの各入力には{Wij}i=0,I,
j=1,Jが付与されている。各セルの出力{Yj}および
Zは,次の1式または2式で表される。但し,X0=1,Y0
=1である。
1式は,隠れ層の各セルの出力関数である。1式で は隠れ層の一つのセルの入力の総和であり,それを と表わすことにする。また2式は出力層のセルの出力関
数である。2式で は出力層のセルの入力の総和であり,それを と表わすことにする。
数である。2式で は出力層のセルの入力の総和であり,それを と表わすことにする。
2層パーセプトロン型神経回路網には,I次元パターン
空間内に分布する多数のパターンをI−1次元の複数の
超平面の組み合わせによって2つのカテゴリに分離する
機能がある。この組み合わせられた超平面を識別面とい
う。識別面は結合係数{Vj}j=0,Jおよび{Wij}
i=0,I,j=1,Jにより決定される。この結合係数
{Vj}j=0,Jおよび{Wij}i=0,I,j=1,Jは,バッ
クプロパゲーション法(以下BP法とよぶ)を用いて学習
データより決定することができる。
空間内に分布する多数のパターンをI−1次元の複数の
超平面の組み合わせによって2つのカテゴリに分離する
機能がある。この組み合わせられた超平面を識別面とい
う。識別面は結合係数{Vj}j=0,Jおよび{Wij}
i=0,I,j=1,Jにより決定される。この結合係数
{Vj}j=0,Jおよび{Wij}i=0,I,j=1,Jは,バッ
クプロパゲーション法(以下BP法とよぶ)を用いて学習
データより決定することができる。
従来の学習法 BP法の詳細は以下の文献に詳しく述べられている。
D.E.Rumelhert,G.E.Hinton,R.J.Williams,“Leaning In
ternal Representations by Error Propagation" Parallel Distributed Processing Vol.1(The MIT pre
ss),pp318−362 ここではその概要を述べる。
ternal Representations by Error Propagation" Parallel Distributed Processing Vol.1(The MIT pre
ss),pp318−362 ここではその概要を述べる。
学習パターン{xi p}(pは学習パターン番号)が与
えられた場合に,現状の結合係数で得られる出力をzpと
し,人間が意図する望まし出力(パターンのカテゴリに
対応する)をtpとする。ここでは,あるカテゴリである
かまたはないかを識別する神経回路網を学習させるもの
とする。学習パターン{xi p}がそのカテゴリである場
合tpを1とし,そうでない場合tpを0とする。そして全
学習パターンに対してzpとtpの誤差が小さくなるように
神経回路網内の結合係数の値を変更する。
えられた場合に,現状の結合係数で得られる出力をzpと
し,人間が意図する望まし出力(パターンのカテゴリに
対応する)をtpとする。ここでは,あるカテゴリである
かまたはないかを識別する神経回路網を学習させるもの
とする。学習パターン{xi p}がそのカテゴリである場
合tpを1とし,そうでない場合tpを0とする。そして全
学習パターンに対してzpとtpの誤差が小さくなるように
神経回路網内の結合係数の値を変更する。
zpとtpの誤差Eは5式により定義される。
最急降下法でEの極小値を求める場合,{Vj}
j=0,J及び{Wij}i=0,I,j=1,Jの変化量は6式で
表される。
j=0,J及び{Wij}i=0,I,j=1,Jの変化量は6式で
表される。
第8図の神経回路網の場合,学習時の結合係数の変化
量は以下の7式〜10式に従えばよい。
量は以下の7式〜10式に従えばよい。
αp=(tp−zp)zp(1−zp) ……(9) βj p=Yj p(1−Yj p)αpVj ……(10) 7式および8式でηは学習定数と呼ばれ,0.1〜0.3程
度の値が用いられる。
度の値が用いられる。
学習の処理は11式および12式を学習パターンに対して
繰り返し実行することにより行われる。
繰り返し実行することにより行われる。
Vj=Vj+ΔVj ……(11) Wij=Wij+ΔWij ……(12) 一般には学習方向の連続性を保つために,7式および8
式の代わりに次の13式および14式を用いる。
式の代わりに次の13式および14式を用いる。
13式および14式においてnは学習回数であり,γは結
合係数の学習方向の連続性を保つための係数であり,モ
ーメンタムと呼ばれる。一般にγは0.05〜0.7程度の値
が用いられる。また,ΔVj(0)=0,ΔWij(0)=0
である。
合係数の学習方向の連続性を保つための係数であり,モ
ーメンタムと呼ばれる。一般にγは0.05〜0.7程度の値
が用いられる。また,ΔVj(0)=0,ΔWij(0)=0
である。
誤差Eが充分小さくなるまで13式および14式により結
合係数を繰り返し演算する。
合係数を繰り返し演算する。
識別の方法 上記の方法で結合係数を学習した後で,識別が行われ
る。まず未知パターンが入力に与えられる。神経回路網
内では,1式および2式の計算が行われ出力Zが得られ
る。たとえばこのZが0.5以上の場合未知パターンは学
習されたカテゴリであると識別され,Zが0.5以下の場合
未知パターンは学習されたカテゴリでないと識別され
る。
る。まず未知パターンが入力に与えられる。神経回路網
内では,1式および2式の計算が行われ出力Zが得られ
る。たとえばこのZが0.5以上の場合未知パターンは学
習されたカテゴリであると識別され,Zが0.5以下の場合
未知パターンは学習されたカテゴリでないと識別され
る。
神経回路網の機能 神経回路網の機能についての理解を容易にするため,
第9図ないし第15図を用いて具体例を説明する。
第9図ないし第15図を用いて具体例を説明する。
まず第9図に示すようなセルが1個の場合について考
えてみる。これは,第8図において隠れ層の1個のセル
に相当する。
えてみる。これは,第8図において隠れ層の1個のセル
に相当する。
図示されたセルは,N+1個の入力は重みWi(i=0,1,
…,N)をもち,X0,X1,…,XNの要素から入力パターン(パ
ターン{Xi})が与えられると,15式で示す出力関数処
理を行って,識別結果yを出力する。
…,N)をもち,X0,X1,…,XNの要素から入力パターン(パ
ターン{Xi})が与えられると,15式で示す出力関数処
理を行って,識別結果yを出力する。
15式のexp( )中において とおき,15式を次の17式のように表わす。
f=0は,パターン空間における判別面(判別線)を
示している。第10図にパターン空間が2次元の場合の例
を示す。
示している。第10図にパターン空間が2次元の場合の例
を示す。
f=W0+W1X1+W2X2 ……(18) (ただしW0>0とする) であり,第10図の判別直線(f=0)を境界にして,領
域1はf<0,領域2はf>0として判別できる。
域1はf<0,領域2はf>0として判別できる。
すなわち,fの正負判定を行えば,パターン空間の領域
識別が可能となる。
識別が可能となる。
15式は,fの値(ΣWiXi)を,第11図に示すようなシグ
モイド特性にしたがって0から1までの値に非線形変換
するものである(f=0は,y=0.5に変換される)。
モイド特性にしたがって0から1までの値に非線形変換
するものである(f=0は,y=0.5に変換される)。
この非線形変換を施すことにより,第10図は,fの代り
にyを用いて第12図のように書き直すことができる。
にyを用いて第12図のように書き直すことができる。
セルが2個(隠れ層のセルが2個,出力層のセルが1
個)の場合には,パターン空間にもう1本の判別直線を
引くことができる。第13図にその1例を示す。図中の
y1,y2は次の19式と20式で表わされる。
個)の場合には,パターン空間にもう1本の判別直線を
引くことができる。第13図にその1例を示す。図中の
y1,y2は次の19式と20式で表わされる。
第13図において,次の21式のZの値が0.5以上という
条件(y1とy2の和が1.5以上)を満足する領域を第14図
に斜線領域で示す。
条件(y1とy2の和が1.5以上)を満足する領域を第14図
に斜線領域で示す。
y1とy2の和が1以上という第12図の条件を満足する神
経回路網の構成を第15図に示す。図中のU01,U11,U21は
結合係数である。
経回路網の構成を第15図に示す。図中のU01,U11,U21は
結合係数である。
このように,隠れ層と出力層をもつ構造の神経回路網
では,結合係数を適当に設定すれば,出力層のセルが,
パターン空間内の非線形な境界をもつ連続凸領域を識別
(セル出力が0.5以上となる)することが可能となる。
さらに隠れ層を多層化すれば,非線形な境界をもつ非連
続凸領域の識別が可能となる。
では,結合係数を適当に設定すれば,出力層のセルが,
パターン空間内の非線形な境界をもつ連続凸領域を識別
(セル出力が0.5以上となる)することが可能となる。
さらに隠れ層を多層化すれば,非線形な境界をもつ非連
続凸領域の識別が可能となる。
従来例装置の説明 第16図ないし第19図を用いて従来例の説明を行う。
(第16図の説明) 第16図は,従来例装置の全体構成図である。第16図に
おいて, 1は学習パターン記憶部であり,神経回路網を学習さ
せるための学習パターン{Xi p}が記憶される。
おいて, 1は学習パターン記憶部であり,神経回路網を学習さ
せるための学習パターン{Xi p}が記憶される。
2は教師信号記憶部であり,各学習パターンに対応
し,その教師信号(tp:カテゴリ番号0または1)が記
憶される。
し,その教師信号(tp:カテゴリ番号0または1)が記
憶される。
3は乱数発生部であり,学習を始める前に結合係数の
初期値としての乱数を発生し,発生した乱数は次の結合
係数記憶部4に送られる。
初期値としての乱数を発生し,発生した乱数は次の結合
係数記憶部4に送られる。
4は結合係数記憶部であり,神経回路網内の結合係数
を記憶する。
を記憶する。
5は1式演算部であり,学習パターン{Xi p}i=0,I
と結合係数{Wij}i=0,I,j=1,Jを学習パターン記
憶部1および結合係数記憶部4から読み出して1式の演
算を行い,{Yj p}j=1,Jを得る。
と結合係数{Wij}i=0,I,j=1,Jを学習パターン記
憶部1および結合係数記憶部4から読み出して1式の演
算を行い,{Yj p}j=1,Jを得る。
6は2式演算部であり,結合係数{Vj}j=0,Jと{Y
j p}j=0,Jを結合係数記憶部4および1式演算部5か
ら読み出して2式の演算を行いzpを得る。
j p}j=0,Jを結合係数記憶部4および1式演算部5か
ら読み出して2式の演算を行いzpを得る。
7は9式演算部であり,2式演算部6で得られたzpおよ
び教師信号記憶部2から読み出されたtpを用いて9式を
演算しαpを得る。
び教師信号記憶部2から読み出されたtpを用いて9式を
演算しαpを得る。
8は10式演算部であり,1式演算部5で得られた
{Yj p}j=0,J,9式演算部7で得られたαp,および結合
係数記憶部4から読み出された{Vj}j=0,Jを用いて1
0式を演算してβj pを得る。
{Yj p}j=0,J,9式演算部7で得られたαp,および結合
係数記憶部4から読み出された{Vj}j=0,Jを用いて1
0式を演算してβj pを得る。
9は更新係数演算部Iであり,1式演算部5で得られた
Yj p,9式演算部7で得られたαpおよび内部に記憶され
ている学習係数ηを用いて13式を演算し{ΔVj}
j=0,Jを得る。
Yj p,9式演算部7で得られたαpおよび内部に記憶され
ている学習係数ηを用いて13式を演算し{ΔVj}
j=0,Jを得る。
10は更新係数演算部IIであり,学習パターン記憶部1
から読み出された{Xi p},10式演算部8で得られた
βj p,および内部に記憶されている学習定数ηを用いて1
4式を演算し{ΔWij}i=0,I,j=0,Jを得る。
から読み出された{Xi p},10式演算部8で得られた
βj p,および内部に記憶されている学習定数ηを用いて1
4式を演算し{ΔWij}i=0,I,j=0,Jを得る。
11は係数更新部であり,11式および12式に従って結合
係数記憶部4の内容を更新する。
係数記憶部4の内容を更新する。
12は制御部であり,神経回路網内の各部の処理タイミ
ングを制御する。
ングを制御する。
(第17図の説明) 第17図は,第16図中の1式演算部5および2式演算部
6の内部を詳細に説明する図である。1式演算部5の動
作について以下説明するが,2式演算部6の動作も同様で
ある。
6の内部を詳細に説明する図である。1式演算部5の動
作について以下説明するが,2式演算部6の動作も同様で
ある。
13は乗算器であり,学習パターン記憶部1から読み出
された{Xi p}と結合係数記憶部4から読み出された結
合係数{Wij}i=0,I,j=1,Jの積を演算する。
された{Xi p}と結合係数記憶部4から読み出された結
合係数{Wij}i=0,I,j=1,Jの積を演算する。
14は13の演算結果を累積する累積器であり,累積器の
出力は3式のSjである。
出力は3式のSjである。
15は符号反転器であり,14の出力の符号を反転し,−S
jを得る。
jを得る。
16は指数関数演算器であり,exp(−Sj)を得る。
17は加算器であり,16の出力に1を足し,1+exp(−
Sj)を得る。
Sj)を得る。
18は逆数器であり,17の出力の逆数を演算し,1/(1+
exp(−Sj))を得る。
exp(−Sj))を得る。
19は制御部であり,13〜18の各部のタイミングを制御
する。
する。
13〜18の各部の演算は浮動小数点方式で行われる。
(第18図の説明) 第18図は第16図中の9式演算部の内部を詳細に説明す
る図である。
る図である。
20は減算器であり,2式演算部6で得られたzpを1から
減算する。
減算する。
21も減算器であり,教師信号記憶部2から読み出され
たzpから2式演算部6で得られたtpを減算する。
たzpから2式演算部6で得られたtpを減算する。
22は乗算器であり,20の減算結果と2式演算部6で得
られたzpの乗算を行う。
られたzpの乗算を行う。
23も乗算器であり,21の減算結果と22の乗算結果を乗
算し,結果としてαpを得る。
算し,結果としてαpを得る。
(第19図の説明) 第19図は第16図中の10式演算部の内部を詳細に説明す
る図である。
る図である。
24は減算器であり,1式演算部5で得られたYj pを1か
ら減算する。
ら減算する。
25は乗算器であり,24の減算結果と1式演算部5で得
られたYj pの乗算を行う。
られたYj pの乗算を行う。
26は乗算器であり,結合係数記憶部4から読み出した
{Vj}j=0,Jと9式演算部7で計算されたαpの乗算
を行う。
{Vj}j=0,Jと9式演算部7で計算されたαpの乗算
を行う。
27は乗算器であり,乗算器25及び乗算器26の演算結果
の乗算を行い,結果としてβj pを得る。
の乗算を行い,結果としてβj pを得る。
従来の学習方式では,5式に示した全パターンに対する
平均自乗誤差で与えられる誤差Eが小さくなるように学
習がすすむ。しかし実際には,「+」と「ナ」のような
類似したパターンが含まれていると,全体の誤差Eは小
さくなっても,類似パターン間の識別誤りは小さくなら
ない場合がある。そして通常神経回路網にパターン識別
を行わせる場合には,この誤差Eが小さくなるよりも識
別誤りが小さくなる方が望ましい。
平均自乗誤差で与えられる誤差Eが小さくなるように学
習がすすむ。しかし実際には,「+」と「ナ」のような
類似したパターンが含まれていると,全体の誤差Eは小
さくなっても,類似パターン間の識別誤りは小さくなら
ない場合がある。そして通常神経回路網にパターン識別
を行わせる場合には,この誤差Eが小さくなるよりも識
別誤りが小さくなる方が望ましい。
このような誤差Eと識別誤りは結合係数に対して大局
的には同じような傾向をもつが,一般には各々が極小
(または最小)になる結合係数はかなり異なっている。
第20図に,誤差E特性と識別誤り特性の関係の1例を示
す。
的には同じような傾向をもつが,一般には各々が極小
(または最小)になる結合係数はかなり異なっている。
第20図に,誤差E特性と識別誤り特性の関係の1例を示
す。
このため従来の学習方式で学習した場合,最高の識別
性能が得られないという欠点がある。
性能が得られないという欠点がある。
本発明は,誤差Eを小さくするとともに識別エラーの
最小化が可能な学習方式を実現することを目的とする。
最小化が可能な学習方式を実現することを目的とする。
本発明は,従来の神経回路網において,セルのシグモ
イド特性(第11図)のため,結合係数の更新方向が誤差
Eに敏感に反応し過ぎる点を改良し,神経回路網のセル
のシグモイド特性を部分的に弱めるステップ特性に近づ
けることにより識別エラーを最小化する学習過程をとり
易くするものである。
イド特性(第11図)のため,結合係数の更新方向が誤差
Eに敏感に反応し過ぎる点を改良し,神経回路網のセル
のシグモイド特性を部分的に弱めるステップ特性に近づ
けることにより識別エラーを最小化する学習過程をとり
易くするものである。
このためセルの入力の重み付き総和(15式では をSとして,Sを補正する定数S0(0<S0≦1)を導入
し,セルの出力関数を で表わされるようにする。
し,セルの出力関数を で表わされるようにする。
ここで出力層のセルのS0のみを1よりも僅か小さくし
て隠れ層のセルのS0は1とすることにより,出力層のセ
ルのみについてシグモイド特性を弱めることができる。
て隠れ層のセルのS0は1とすることにより,出力層のセ
ルのみについてシグモイド特性を弱めることができる。
また出力層のセルのS0を学習の前半(または初期)に
おいて1に保ち,後半において1より僅かに小さくする
ことにより,学習の時期を考慮して部分的にシグモイド
特性を弱めることができる。
おいて1に保ち,後半において1より僅かに小さくする
ことにより,学習の時期を考慮して部分的にシグモイド
特性を弱めることができる。
第1図は,本発明の原理を例示的方法で説明するため
の本発明による神経回路網の学習装置の説明図である。
の本発明による神経回路網の学習装置の説明図である。
第1図において, 31は入力であり,入力パターン{Xi}(i=0〜N)
が与えられる。{Xi}はN+1個あり,x0は常に1であ
る。
が与えられる。{Xi}はN+1個あり,x0は常に1であ
る。
21は隠れ層であり,M+1個(j=0〜M)のセルから
なり,その出力は{yi}であり,y0は常に1である。隠
れ層の各セルは入力層からのN+1個の結合を持つ。i
番目の入力と隠れ層の第jセルの結合係数はVijであ
る。
なり,その出力は{yi}であり,y0は常に1である。隠
れ層の各セルは入力層からのN+1個の結合を持つ。i
番目の入力と隠れ層の第jセルの結合係数はVijであ
る。
33は出力層であり,L個のセル(k=1〜L)からな
り,その出力は{zk}である。出力層の各セルは隠れ層
からのM+1個の結合を持つ。隠れ層の第jセルと出力
層の第kセルの結合係数はUjkである。
り,その出力は{zk}である。出力層の各セルは隠れ層
からのM+1個の結合を持つ。隠れ層の第jセルと出力
層の第kセルの結合係数はUjkである。
各セルの出力関数は22式で与えられ,式中の補正定数
Soは後述されるSo制御部46によって設定される。
Soは後述されるSo制御部46によって設定される。
第1図の例では,学習モードと識別モードの2つのモ
ードがある。以下2つのモードの各々で動作する要素を
分けて説明する。なお上記した31ないし33の要素は,両
モードで共用される。
ードがある。以下2つのモードの各々で動作する要素を
分けて説明する。なお上記した31ないし33の要素は,両
モードで共用される。
(学習モード) 34は学習パターン記憶部であり,神経回路網内の結合
係数を学習するための学習パターンを記憶している。学
習パターンの記憶形式を次表に示す。各学習パターンは
カテゴリ番号とともに記憶されている。カテゴリ番号は
神経回路網の出力層の神経細胞に一対一に対応し,1から
Lまでの値をとる。
係数を学習するための学習パターンを記憶している。学
習パターンの記憶形式を次表に示す。各学習パターンは
カテゴリ番号とともに記憶されている。カテゴリ番号は
神経回路網の出力層の神経細胞に一対一に対応し,1から
Lまでの値をとる。
35は教師信号生成部であり,学習パターン記憶部より
読み出された学習パターンのカテゴリ番号を神経回路網
の学習に用いる教師信号{tk}k=1,Lに変換する。カ
テゴリ番号がsの場合(1≦s≦L),次の23式に示す
教師信号を生成する。
読み出された学習パターンのカテゴリ番号を神経回路網
の学習に用いる教師信号{tk}k=1,Lに変換する。カ
テゴリ番号がsの場合(1≦s≦L),次の23式に示す
教師信号を生成する。
36は入力切り換え部であり,学習モード時は学習パタ
ーン記憶部の学習パターンを神経回路網の入力層に供給
する。ちなみに,識別モード時には外部から与えられる
未知パターンを神経回路網の入力31に供給する。切り換
えのタイミングは後述する学習制御部44より与えられ
る。
ーン記憶部の学習パターンを神経回路網の入力層に供給
する。ちなみに,識別モード時には外部から与えられる
未知パターンを神経回路網の入力31に供給する。切り換
えのタイミングは後述する学習制御部44より与えられ
る。
37は乱数発生部であり,M系列等の乱数を発生する。
38は切り換え部であり,学習の開始時に乱数発生部の
出力を後述するWij付与部40に供給し,学習進行時には
後述するWij更新係数演算部42の出力をWij付与部40に供
給する。
出力を後述するWij付与部40に供給し,学習進行時には
後述するWij更新係数演算部42の出力をWij付与部40に供
給する。
39は切り換え部であり,学習モードの開始時に乱数発
生部の出力を後述するVjk付与部41に供給し,学習進行
時には後述するVjk更新係数演算部43の出力をVjk付与部
41に供給する。
生部の出力を後述するVjk付与部41に供給し,学習進行
時には後述するVjk更新係数演算部43の出力をVjk付与部
41に供給する。
40はWij付与部であり,切り換え部38から供給された
{Wij}を神経回路網内の入力31と隠れ層32の結合に結
合係数として与える。
{Wij}を神経回路網内の入力31と隠れ層32の結合に結
合係数として与える。
41はVjk付与部であり,切り換え部39から供給された
{Vjk}を神経回路網内の隠れ層と出力層33の結合に結
合係数として与える。
{Vjk}を神経回路網内の隠れ層と出力層33の結合に結
合係数として与える。
42はWij更新係数演算部であり,まずVjk付与部41から
の{Vjk},隠れ層32からの{yj},Vjk更新係数演算部4
3からの{αk p}を用いて{βj p}を第10式に基づいて
計算し,次に{Bj p}と入力31からの{Xi p}を用いて14
式に基づいて,Wij更新係数ΔWijを計算し,次の24式に
より新しいWijを得る。24式でnは学習の回数を示す。
の{Vjk},隠れ層32からの{yj},Vjk更新係数演算部4
3からの{αk p}を用いて{βj p}を第10式に基づいて
計算し,次に{Bj p}と入力31からの{Xi p}を用いて14
式に基づいて,Wij更新係数ΔWijを計算し,次の24式に
より新しいWijを得る。24式でnは学習の回数を示す。
Wij(n+1)=Wij(n)+ΔWij(n+1) ……(2
4) 43はVjk更新係数演算部であり,教師信号生成部35か
らの{tk},出力層33からの{Zk p}を用いて{αk p}
を9式に基づいて計算し,次に{αk p}と隠れ層32から
の{yj p}を用いて13式に基づいて,Vjk更新係数ΔVjkを
計算し,次の24式により新しいVjkを得る。25式でnは
学習の回数を示す。
4) 43はVjk更新係数演算部であり,教師信号生成部35か
らの{tk},出力層33からの{Zk p}を用いて{αk p}
を9式に基づいて計算し,次に{αk p}と隠れ層32から
の{yj p}を用いて13式に基づいて,Vjk更新係数ΔVjkを
計算し,次の24式により新しいVjkを得る。25式でnは
学習の回数を示す。
Vjk(n+1)=Vjk(n)+ΔVjk(n+1) ……(2
5) 同時に,{Zk}と{tk}を用いて5式に基づいて誤差
を計算し,誤差の値Eを次に述べる学習制御部44に送出
する。
5) 同時に,{Zk}と{tk}を用いて5式に基づいて誤差
を計算し,誤差の値Eを次に述べる学習制御部44に送出
する。
44は学習制御部であり,学習モード時において上記各
部を上述の手順に従って制御する。学習を繰り返す途中
でVjk更新係数演算部43で計算された誤差値Eが減少し
なくなった時点で学習モードを終了する。
部を上述の手順に従って制御する。学習を繰り返す途中
でVjk更新係数演算部43で計算された誤差値Eが減少し
なくなった時点で学習モードを終了する。
(識別モード) 識別モードでは学習モードで学習した{Vjk}{Wij}
を用いて,未知入力データの識別を行う。
を用いて,未知入力データの識別を行う。
45は最大値検出回路であり,識別時(入力切り換え部
36が入力層に外部から未知入力パターンを供給している
時)に{Zk}の最大値をとるk(=kmax)を次の26式に
従って計算し,それを識別結果として出力する。
36が入力層に外部から未知入力パターンを供給している
時)に{Zk}の最大値をとるk(=kmax)を次の26式に
従って計算し,それを識別結果として出力する。
〔作用〕 本発明により,神経回路網を構成するセルの出力関数
を21式で与え,補正定数S0を1より徐々に小さくすれ
ば,第15図に示されているセルのシグモイド特性曲線の
傾きは次第にゆるやかなものに変化する。
を21式で与え,補正定数S0を1より徐々に小さくすれ
ば,第15図に示されているセルのシグモイド特性曲線の
傾きは次第にゆるやかなものに変化する。
これによりBP法の学習過程を進めると,第20図の誤差
E特性は,識別エラー特性に次第に近づき,識別エラー
が極小の神経回路網を実現することができる。しかし,S
0をあまりにも小さい値にすると誤差Eに多数の極小点
が発生し,BP法において使用されている最急降下法で
は,比較的誤差の大きい極小点にトラップされる可能性
がある。そのため以下に示した配慮が必要である。
E特性は,識別エラー特性に次第に近づき,識別エラー
が極小の神経回路網を実現することができる。しかし,S
0をあまりにも小さい値にすると誤差Eに多数の極小点
が発生し,BP法において使用されている最急降下法で
は,比較的誤差の大きい極小点にトラップされる可能性
がある。そのため以下に示した配慮が必要である。
S0として1より僅かに小さい値を用いる。
学習の前半はS0として1を用い,学習の後半ではS0
として1よりも小さい値を用いる。また結合係数{Vj}
j=0,Jが全体的に小さくなるとS0を小さくする効果が
無くなるため,{Vj}j=0,Jの何れか1つを現状の値
で固定することが有効となる。
として1よりも小さい値を用いる。また結合係数{Vj}
j=0,Jが全体的に小さくなるとS0を小さくする効果が
無くなるため,{Vj}j=0,Jの何れか1つを現状の値
で固定することが有効となる。
第2図ないし第7図を用いて,本発明による第1ない
し第3の実施例を説明する。なおこれらの実施例は,先
に第20図ないし第23図で説明した従来例装置をベースに
して構成したものである。したがって双方に共通の要素
には同一の参照番号が用いられており,またそれらの要
素についての説明は重複を避けるためここでは省略され
ている。
し第3の実施例を説明する。なおこれらの実施例は,先
に第20図ないし第23図で説明した従来例装置をベースに
して構成したものである。したがって双方に共通の要素
には同一の参照番号が用いられており,またそれらの要
素についての説明は重複を避けるためここでは省略され
ている。
(第1の実施例) 第2図に第1の実施例の全体構造を示す。第1の実施
例では,6′の15式演算部,28のS0記憶部および11′の係
数更新部以外は第16図の従来例装置の構成と全く同じで
ある。
例では,6′の15式演算部,28のS0記憶部および11′の係
数更新部以外は第16図の従来例装置の構成と全く同じで
ある。
S0記憶部28には1より僅かに小さい値が記憶される。
15式演算部6′ではS0記憶部28よりS0の値を読み出し
15式の演算を行う。
15式の演算を行う。
第3図に15式演算部6′の内部を示す。13〜19の機能
は第17図の2式演算部6の構成と全く同じである。異な
る点は符号反転器15と指数関数演算器16の間に除算器29
が挿入されている点である。除算器29では,符号反転器
15の出力(−R)をS0で除算する。
は第17図の2式演算部6の構成と全く同じである。異な
る点は符号反転器15と指数関数演算器16の間に除算器29
が挿入されている点である。除算器29では,符号反転器
15の出力(−R)をS0で除算する。
係数更新部11′では,各セル毎に入力の結合係数の一
つは更新しない。
つは更新しない。
(第2の実施例) 第4図に第2の実施例の全体構成を示す。第2実施例
では,28′のS0制御部および11″の係数更新部以外は第
1の実施例と全く同じである。
では,28′のS0制御部および11″の係数更新部以外は第
1の実施例と全く同じである。
S0制御部28′は学習の前半ではS0=1とし,後半では
S0を徐々に減少させていく。このS0制御部28′の制御特
性の例を第5図に示す。
S0を徐々に減少させていく。このS0制御部28′の制御特
性の例を第5図に示す。
係数更新部11″では,学習の前半では従来例と同様全
ての結合係数を更新し,学習の後半では第1の実施例と
同様に各セル毎に入力の結合係数の一つは更新しない。
ての結合係数を更新し,学習の後半では第1の実施例と
同様に各セル毎に入力の結合係数の一つは更新しない。
(第3の実施例) 第6図に第3の実施例の全体構成を示す。第3実施例
は28′のS0制御部が存在しない点と6″の15式演算部以
外は,第2の実施例と全く同じである。
は28′のS0制御部が存在しない点と6″の15式演算部以
外は,第2の実施例と全く同じである。
15式演算部6″の内部構成を第7図に示す。6″の15
式演算部は第3図の6′の15式演算部内の除算器29が指
数部加算器30に入れ代わったものである。
式演算部は第3図の6′の15式演算部内の除算器29が指
数部加算器30に入れ代わったものである。
指数部加算器30では,符号反転器15の出力の浮動小数
点データの指数部に整数nを足すことによって,1/2
n(=S0)での除算を高速化している。
点データの指数部に整数nを足すことによって,1/2
n(=S0)での除算を高速化している。
この方式はn=1の場合でも,S0=0.5であり,S0が1
よりかなり小さいため実施例1の方法には適用できな
い。
よりかなり小さいため実施例1の方法には適用できな
い。
以上説明した様に,本発明によれば,神経回路網内の
結合係数を変数とした場合の学習における教師信号と実
出力の間の誤差関数の極小点を,神経回路網をパターン
識別機構として用いた時の識別エラーの極小点に近づけ
ることができるため,高いパターン識別性能を持った神
経回路網を実現することができる。
結合係数を変数とした場合の学習における教師信号と実
出力の間の誤差関数の極小点を,神経回路網をパターン
識別機構として用いた時の識別エラーの極小点に近づけ
ることができるため,高いパターン識別性能を持った神
経回路網を実現することができる。
第1図は本発明による学習装置の原理説明図, 第2図は本発明の第1の実施例の全体構成図, 第3図は第1の実施例中の15式演算部の詳細構成図, 第4図は本発明の第2の実施例の全体構成図, 第5図は第2の実施例におけるS0の制御特性例説明図, 第6図は本発明の第3の実施例の全体構成図, 第7図は第3の実施例中の15式演算部の詳細構成図, 第8図は2層パーセプトロン型神経回路網の構成図, 第9図は1個のセルを用いた神経回路網の構成図, 第10図は,パターン空間における判別直線f=0の説明
図, 第11図はセルのシグモイド特性の説明図, 第12図はパターン空間におけるセル出力を用いた判別直
線の説明図, 第13図はパターン空間における線形判別直線群の説明
図, 第14図はパターン空間における非線形判別線の説明図, 第15図は第14図の非線形判別線を実現する神経回路網の
説明図, 第16図は従来例の学習装置の全体構成図, 第17図は第16図の従来例における1式演算部(2式演算
部も同様)の詳細構成図, 第18図は第16図の従来例における9式演算部の詳細構成
図, 第19図は第16図の従来例における10式演算部の詳細構成
図, 第20図は誤差E特性および識別エラー特性の説明図であ
る。 第1図中, 31:入力 32:隠れ層 33:出力層 34:学習パターン記憶部 35:教師信号生成部 36:入力切り換え部 37:乱数発生部 38,39:切り換え部 40:Wij付与部 41:Vjk付与部 42:Wij更新係数演算部 43:Vjk更新係数演算部 44:学習制御部 45:最大値検出回路 46:S0制御部
図, 第11図はセルのシグモイド特性の説明図, 第12図はパターン空間におけるセル出力を用いた判別直
線の説明図, 第13図はパターン空間における線形判別直線群の説明
図, 第14図はパターン空間における非線形判別線の説明図, 第15図は第14図の非線形判別線を実現する神経回路網の
説明図, 第16図は従来例の学習装置の全体構成図, 第17図は第16図の従来例における1式演算部(2式演算
部も同様)の詳細構成図, 第18図は第16図の従来例における9式演算部の詳細構成
図, 第19図は第16図の従来例における10式演算部の詳細構成
図, 第20図は誤差E特性および識別エラー特性の説明図であ
る。 第1図中, 31:入力 32:隠れ層 33:出力層 34:学習パターン記憶部 35:教師信号生成部 36:入力切り換え部 37:乱数発生部 38,39:切り換え部 40:Wij付与部 41:Vjk付与部 42:Wij更新係数演算部 43:Vjk更新係数演算部 44:学習制御部 45:最大値検出回路 46:S0制御部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 Proceedings of th e International Co nfercnce on Cybern etics and Society 1987 Vol.3 P.958−963
Claims (5)
- 【請求項1】Sを各セルの入力の重み付き総和とし,S0
を0<S0≦1なる値とした場合,出力関数として をもつセルを構成要素とし,学習法としてバックプロパ
ゲーション法を用いてパターン識別を行う隠れ層および
出力層を含む多層パーセプトロン型神経回路網におい
て, 学習の全期間において,出力層のセルについては1より
僅かに小さいS0を用い,隠れ層のセルについてはS0=1
を用いることを特徴とする神経回路網の学習装置。 - 【請求項2】請求項1において,各セルの入力に付加さ
れた結合係数の任意の1つをその初期値に固定し,他の
結合係数のみの学習を進めることを特徴とする神経回路
網の学習装置。 - 【請求項3】請求項1,2において,出力層のセルについ
ては学習の前半でS0=1を用い,学習の後半でS0を小さ
くし,隠れ層のセルについては学習の全期間においてS0
=1を用いることを特徴とする神経回路網の学習装置。 - 【請求項4】請求項3において,学習の前半で各セルの
入力に付加された全結合係数を学習し,学習の後半で各
セル毎に結合係数の任意の1つをその現状値に固定し他
の結合係数のみの学習を進めることを特徴とした神経回
路網の学習装置。 - 【請求項5】請求項3,4において学習の後半で出力層の
セルについてS0=1/2n(n:正の整数)とすることにより
S/S0の浮動小数点除算を指数部の整数加算で実現したこ
とを特徴とする神経回路網の学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63246743A JP2659230B2 (ja) | 1988-09-30 | 1988-09-30 | 神経回路網の学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63246743A JP2659230B2 (ja) | 1988-09-30 | 1988-09-30 | 神経回路網の学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0293973A JPH0293973A (ja) | 1990-04-04 |
JP2659230B2 true JP2659230B2 (ja) | 1997-09-30 |
Family
ID=17152992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63246743A Expired - Lifetime JP2659230B2 (ja) | 1988-09-30 | 1988-09-30 | 神経回路網の学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2659230B2 (ja) |
-
1988
- 1988-09-30 JP JP63246743A patent/JP2659230B2/ja not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
Proceedings of the International Confercnce on Cybernetics and Society 1987 Vol.3 P.958−963 |
Also Published As
Publication number | Publication date |
---|---|
JPH0293973A (ja) | 1990-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO1989011684A1 (en) | Inference rule determination method and inference apparatus | |
JPH08297716A (ja) | ニューラル・ネットワーク用の適応型重み調整回路 | |
Yam et al. | Extended least squares based algorithm for training feedforward networks | |
Chen et al. | An effective learning of neural network by using RFBP learning algorithm | |
JP2000517447A (ja) | ニューラルネットワーク用の少なくとも1つの人工的トレーニングデータベクトルをコンピュータ支援により生成するための方法及び装置 | |
US5630020A (en) | Learning method and neural network structure | |
JP3043539B2 (ja) | ニューラル・ネットワーク | |
JP2659230B2 (ja) | 神経回路網の学習装置 | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
US5485548A (en) | Signal processing apparatus using a hierarchical neural network | |
JP3650407B2 (ja) | 人工ニューラル・ネットワークにおける連想ニューロン | |
JP3508783B2 (ja) | パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置 | |
JP2621916B2 (ja) | 神経回路網の学習方法 | |
JP2699447B2 (ja) | 信号処理装置 | |
JP2734374B2 (ja) | 神経回路網模擬装置 | |
JP3130913B2 (ja) | 信号処理装置 | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
JP2612640B2 (ja) | 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法 | |
Liang et al. | Artificial neural networks with nonlinear synapses and nonlinear synaptic contacts | |
Fu et al. | Nonpolar Neuron for ANN-SNN Conversion Toward Ternary Spiking Neural Network | |
JPH0635881A (ja) | 神経回路装置 | |
JPH06131482A (ja) | アナログニューラルネットワーク回路 | |
JPH0683798A (ja) | 学習認識装置 | |
CN118036676A (zh) | 脉冲神经网络模型的获取方法及装置 | |
CN117009866A (zh) | 一种脉冲数据分类模型构建方法及脉冲数据分类方法 |