JPH02143384A - パターン判定系の修正方法 - Google Patents
パターン判定系の修正方法Info
- Publication number
- JPH02143384A JPH02143384A JP88297541A JP29754188A JPH02143384A JP H02143384 A JPH02143384 A JP H02143384A JP 88297541 A JP88297541 A JP 88297541A JP 29754188 A JP29754188 A JP 29754188A JP H02143384 A JPH02143384 A JP H02143384A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- learning
- value
- output
- increase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 210000000225 synapse Anatomy 0.000 abstract description 8
- 210000004958 brain cell Anatomy 0.000 abstract description 7
- 230000008569 process Effects 0.000 abstract description 4
- 230000003247 decreasing effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 23
- 238000011156 evaluation Methods 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 238000010606 normalization Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 210000005036 nerve Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000010304 firing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002715 modification method Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000010902 straw Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
この発明はパターン判定系の修正方法に係り、侍に、複
数の入力データに重みを作用させな結果のa 117を
求め、この総和と閾値とを比較して、比較結果に応じた
出力を発生するパターン判定糸における重りの修正方法
に関する。
数の入力データに重みを作用させな結果のa 117を
求め、この総和と閾値とを比較して、比較結果に応じた
出力を発生するパターン判定糸における重りの修正方法
に関する。
この種のパターン判定系は、一般に第1図に示す神経I
II胞モデモデル礎としてわり、同神経細胞モデルを並
列化したとき第2図に示す1層の脳細胞モデルが構成さ
れ、ざらにこの1層の脳細胞モデルを適宜接続を変えつ
つあるいはそのまま直列に接続することにより、第3図
に示す多層の脳細胞モデルが構成される。
II胞モデモデル礎としてわり、同神経細胞モデルを並
列化したとき第2図に示す1層の脳細胞モデルが構成さ
れ、ざらにこの1層の脳細胞モデルを適宜接続を変えつ
つあるいはそのまま直列に接続することにより、第3図
に示す多層の脳細胞モデルが構成される。
第1図において、神経細胞モデルの入力データDIt〜
D1.にはそれぞれ重みw1〜woが掛けられ、その総
和と閾値θとが比較される。その比較結果に対し、正規
化関数やシグモイドrlIIrJ、などに蔦づいて出力
が決定される。例えば以下のような演算が行なわれる。
D1.にはそれぞれ重みw1〜woが掛けられ、その総
和と閾値θとが比較される。その比較結果に対し、正規
化関数やシグモイドrlIIrJ、などに蔦づいて出力
が決定される。例えば以下のような演算が行なわれる。
DO=O(ΣDI+XW+−〇)
Φ();正規化関数
Φ(x)”−1(x<O)
Φ(x) =O(x=o)
Φ(x)=1 (x>1
〔シグモイド関数の場合〕
DO=S(ΣDI+XW+−〇)
S() :ジグそイド関数
ジグそイド関数は第4図のような
特性を持つ。
そしてこのような演算により得られた出力に対して評価
が行われ、評価結果に基づいて、重みW〜W、1に修正
が加えられる。
が行われ、評価結果に基づいて、重みW〜W、1に修正
が加えられる。
このような璽み修正の手法として、近年パックプロパゲ
ージ3ンが注目されている。このパックプロパゲーショ
ンは2層の脳細胞モデルにおいて、各層の出力データと
目標値との差をとり、差の2乗の総和が最小となるよう
に重みを調節するものである。しかしこの手法は演算が
比較的y、雑であり、特に収束性の保証および収束時間
も二関して問題が残されている。また入力データが多重
化した場合の処理が著しく複雑化する。
ージ3ンが注目されている。このパックプロパゲーショ
ンは2層の脳細胞モデルにおいて、各層の出力データと
目標値との差をとり、差の2乗の総和が最小となるよう
に重みを調節するものである。しかしこの手法は演算が
比較的y、雑であり、特に収束性の保証および収束時間
も二関して問題が残されている。また入力データが多重
化した場合の処理が著しく複雑化する。
この発明はこのような従来の問題点を解消すべく創案さ
れたもので、その収束性を保証し得るパターン判定装置
の修正方法を提供することを目的とする。
れたもので、その収束性を保証し得るパターン判定装置
の修正方法を提供することを目的とする。
こD発明に係るパターン判定装置の修正方法は、重みの
増減量を、重みの値によって変化させるものである。
増減量を、重みの値によって変化させるものである。
この発明に係るバタニン判定装置の修正方法によれば、
教育あるいは学習の過程において1重りの値すなわら晶
シナプスの飽和の程度を参照するので、学習初期には急
速に重みを変更し、徐々にその増減量を減少させて収束
を実現することが可能であり、効率的学習が可能である
。
教育あるいは学習の過程において1重りの値すなわら晶
シナプスの飽和の程度を参照するので、学習初期には急
速に重みを変更し、徐々にその増減量を減少させて収束
を実現することが可能であり、効率的学習が可能である
。
次にこの発明に係るバター″ン判定装置の修正方法の一
実施例を図面に基づいて説明する。
実施例を図面に基づいて説明する。
第5図および第6図はこの発明が適用されるパターン判
定装置のアーキテクチャを示すものであり、第5図のア
ーキテクチャでは各神経細胞の重みはその神経細胞の出
力に基づいて修正され、第6図のアーキテクチャでは、
各ニュー0ンのrJhは、最終的な出力の評価結果に基
づいて修正される。
定装置のアーキテクチャを示すものであり、第5図のア
ーキテクチャでは各神経細胞の重みはその神経細胞の出
力に基づいて修正され、第6図のアーキテクチャでは、
各ニュー0ンのrJhは、最終的な出力の評価結果に基
づいて修正される。
第51!Iのアーキテクチャは、各層の出力の目標値が
明らかになっている場合に有効であり、第6図のアーキ
テクチャは、連想結果を大局的に判断する際に有効であ
る。
明らかになっている場合に有効であり、第6図のアーキ
テクチャは、連想結果を大局的に判断する際に有効であ
る。
ここに各神経細胞の出力特性は、
DO=f[(ΣW、XD1.)−θ ]DO:出力
f();出力特性を与える関数
Wl ;各シナプスの重み
DI+;各シナプスの入力
θ ;閾値
の形式で表現され、関数f(+ としては、正規化関
数やジグそイド関数が一般的である。
数やジグそイド関数が一般的である。
ここで各神経細胞の入出力の関係を考察する。
ある入力に対してその神経細胞が出力を生じた場合、そ
れは、その神経細胞の興奮あるいは発火を意味するが、
出力が目標値に一致し、あるいは目標値に充分近かった
とき、そのときの入出力の関係は強化すべきである。こ
れは有意な入力が与えられたシナプスの重みを高めるこ
とに相当する。
れは、その神経細胞の興奮あるいは発火を意味するが、
出力が目標値に一致し、あるいは目標値に充分近かった
とき、そのときの入出力の関係は強化すべきである。こ
れは有意な入力が与えられたシナプスの重みを高めるこ
とに相当する。
従って第5図のアーキテクチャにおいては、各神経el
l Iaの出力の目標値があらかじめ分っているので、
各神経Ia胞の出力を目標値と比較し、両者が一致しあ
るいは充分近かったときに、有意な入力、例えば2値入
力のときrl、の入力が与えられたシナプスの重みを増
加させることになる。この修正方法を以後「モード■」
と呼ぶ。
l Iaの出力の目標値があらかじめ分っているので、
各神経Ia胞の出力を目標値と比較し、両者が一致しあ
るいは充分近かったときに、有意な入力、例えば2値入
力のときrl、の入力が与えられたシナプスの重みを増
加させることになる。この修正方法を以後「モード■」
と呼ぶ。
一方第6図のアーキテクチャにおいては、最終層の出力
に対する大局的な評価が行なわれる。この評価方法とし
ては、最終層出力と目標値とのハミング距離、あるいは
ビタゴラス距礫の評価、あるいは感応的評価等が考えら
れる。この評価の結果、そのときの出力が目標値と一致
しあるいは充分近いと判断されたときには、その入出力
の関係は強化すべきである。この入出力の関係は各神経
細胞の発火パターンによって生じたものであり、その入
力とその発火パターンとの関係を強化することにより、
入出力の関係を強化したことになる。
に対する大局的な評価が行なわれる。この評価方法とし
ては、最終層出力と目標値とのハミング距離、あるいは
ビタゴラス距礫の評価、あるいは感応的評価等が考えら
れる。この評価の結果、そのときの出力が目標値と一致
しあるいは充分近いと判断されたときには、その入出力
の関係は強化すべきである。この入出力の関係は各神経
細胞の発火パターンによって生じたものであり、その入
力とその発火パターンとの関係を強化することにより、
入出力の関係を強化したことになる。
従って第6図のアーキテクチャにおいては、最終層の出
力が目標値と一致しあるいは充分近かったときに、各神
経mmにおける有意な入力が与えられたシナプスの重み
を増加きせる。この修正方法を以後「モード11」と呼
ぶ。
力が目標値と一致しあるいは充分近かったときに、各神
経mmにおける有意な入力が与えられたシナプスの重み
を増加きせる。この修正方法を以後「モード11」と呼
ぶ。
以上は連想結果の評価に基づく重みの#を正であるが、
ある入力をそのまま記憶するタイプの学習に関しては出
力に対する評価よりも、むしろ、その入力と、その入力
に対して最初に生じた出力との関係を強化することが重
要である。これは、第5図のアーキテクチャにおいて、
その入力に対して発火した神経細胞における、有意な入
力が与えられたシナプスの重みを増加することに対応す
る。この修正方法を以後「モード111」と呼ぶ。
ある入力をそのまま記憶するタイプの学習に関しては出
力に対する評価よりも、むしろ、その入力と、その入力
に対して最初に生じた出力との関係を強化することが重
要である。これは、第5図のアーキテクチャにおいて、
その入力に対して発火した神経細胞における、有意な入
力が与えられたシナプスの重みを増加することに対応す
る。この修正方法を以後「モード111」と呼ぶ。
以下にそ−ド!〜11)を数式表記する。
くモードI〉
1番目の層における、jfi目の神経細胞のに1目のシ
ナプスについて、 W1□(T) :現在の重み W17*(T + 1 ) ’変更後の重みDl、k
二人力 とし、その神経細胞の出力を DO++’実際の出力 D T +ノ:出力の目標値 とすると、 W+i*(T 争11=W+1m(Tl”Cz*’V(
D I ++m)’M(DT++−DOl+1 C+1m’効率 ■()二人力に対する評価関数 M();出力に対する評価関数 と表記することができる。
ナプスについて、 W1□(T) :現在の重み W17*(T + 1 ) ’変更後の重みDl、k
二人力 とし、その神経細胞の出力を DO++’実際の出力 D T +ノ:出力の目標値 とすると、 W+i*(T 争11=W+1m(Tl”Cz*’V(
D I ++m)’M(DT++−DOl+1 C+1m’効率 ■()二人力に対する評価関数 M();出力に対する評価関数 と表記することができる。
入力の評価関数V()は例えば正規化関数、φ (x)
=1 : x>0=O:x=0 =−1:x<0 2値化関数、 B(xl=l+X ≧ θ =O: x< θ θ : 閾値 あるいは、V(x)=xなる関数などが考えられる。こ
れによって入力が有意であるが否かの判定が行なわれる
。
=1 : x>0=O:x=0 =−1:x<0 2値化関数、 B(xl=l+X ≧ θ =O: x< θ θ : 閾値 あるいは、V(x)=xなる関数などが考えられる。こ
れによって入力が有意であるが否かの判定が行なわれる
。
出力の評価rlJ数M()は目標値との差(DT+、−
DOl))のif価関数を含んでおり、この評価方法と
しては、前述のように、ハミング距曙、ビタゴラス距離
、差の2乗和などの評価が考えられる。
DOl))のif価関数を含んでおり、この評価方法と
しては、前述のように、ハミング距曙、ビタゴラス距離
、差の2乗和などの評価が考えられる。
目標値との差の評価結果に対しては、それが有、便であ
るか否かの1!1断が行なわれる。このマ11断方11
2としては、入力に対すると同様、正規化関数、2値化
関数その他が用いられる。これらのV()。
るか否かの1!1断が行なわれる。このマ11断方11
2としては、入力に対すると同様、正規化関数、2値化
関数その他が用いられる。これらのV()。
M()の演算結果は通常乗算で結合され、ざらに効率C
IIを乗じた値が重みの変化量となる。
IIを乗じた値が重みの変化量となる。
効率C+4としては、従来定数が採用されていたが、こ
こでばC1を重AW++m(T)の関数とする。以後C
Bkを Czm(V’/+1ml と表記する。
こでばC1を重AW++m(T)の関数とする。以後C
Bkを Czm(V’/+1ml と表記する。
ここで、パターン判定系の収束の問題を考慮すると、学
習の初期においては重みの変化量は大きく、学習の終期
においては重みの変化量は小とくすべきであることが予
碧される。この時系列は種々のパラメータで表現される
。
習の初期においては重みの変化量は大きく、学習の終期
においては重みの変化量は小とくすべきであることが予
碧される。この時系列は種々のパラメータで表現される
。
学習回数や学習時間はそのようなパラメータとして採用
きれるであろうし、出力と目標値と差の評価結果、すな
わ”、M()の演算結果もそのようなパラメータと考え
ることができる。
きれるであろうし、出力と目標値と差の評価結果、すな
わ”、M()の演算結果もそのようなパラメータと考え
ることができる。
しかし、重みW + s kには当然上限があり、パタ
ーン着定系をICとして共用化する際には、重みWハを
必要最小限の罐とすることが現実的である。
ーン着定系をICとして共用化する際には、重みWハを
必要最小限の罐とすることが現実的である。
また重みW IJ*の初期値が値域の最小値または最大
la+通常は最小値である。)に設定されていたとき、
学習の進行にともなって重みW 1 、、は最小値から
最大値に、あるいは最大値から最小値に向かって変化し
ていくことになる。
la+通常は最小値である。)に設定されていたとき、
学習の進行にともなって重みW 1 、、は最小値から
最大値に、あるいは最大値から最小値に向かって変化し
ていくことになる。
従って重ノ負の値は時系列を反映していることになる。
そして入力データによって発火する神経細胞のパターン
は変化し、新たな入力データに対する学習の初期には、
それ以前の学習では発火せず、tなわら重みに対して変
化が与えられていない挿着、1m胞が存在する可能性も
ある。
は変化し、新たな入力データに対する学習の初期には、
それ以前の学習では発火せず、tなわら重みに対して変
化が与えられていない挿着、1m胞が存在する可能性も
ある。
1゛なわら、学習の効果という観点から考えたとき、単
に学習回数、時間などを時系列のパラメー々と考えるよ
りも、重みW + 4 m E注目する方が適切である
ことが分る。
に学習回数、時間などを時系列のパラメー々と考えるよ
りも、重みW + 4 m E注目する方が適切である
ことが分る。
ここでC6□(W I J * )の特性を考える。学
習初期に変化量を大、終期に変化量を小とすれば、d
C+ r (W + h k) / d W L I
w≦0であり、 Czk(With)はいわゆる単調減
少関数となる。そしてこの単調減少関数のタイプとして
は、第7図(al〜(d)などを考えることができる。
習初期に変化量を大、終期に変化量を小とすれば、d
C+ r (W + h k) / d W L I
w≦0であり、 Czk(With)はいわゆる単調減
少関数となる。そしてこの単調減少関数のタイプとして
は、第7図(al〜(d)などを考えることができる。
くモード11〉
モード■と同様の変数を用い、以下のような数式表記が
行なわれる。
行なわれる。
Y/++*(T”l)”With(T)”S X C1
+、(”#’++ml’VfD1.□) S;教師(3号 教師18号Sは、最終層の出力に対する評価結果によっ
て設定され、最も単純なタイプでは、計画が「正」であ
ればrl、、r否」であれば「o」を与える。また「中
立」を「o」とし、「否」を「−1」とする手法も考え
られる。
+、(”#’++ml’VfD1.□) S;教師(3号 教師18号Sは、最終層の出力に対する評価結果によっ
て設定され、最も単純なタイプでは、計画が「正」であ
ればrl、、r否」であれば「o」を与える。また「中
立」を「o」とし、「否」を「−1」とする手法も考え
られる。
くモード111〉
モード■と同様の変数を用い、以下のような数式表記が
可能である。
可能である。
WzmfT+I);Wzh(Tl’Czx(%’Y+i
*1xV(Dlzal 以上のような学習手法をとれば、収束性を1!!証し得
るとともに収束時間を短縮することができ、また多重の
入力データに対してし学習成果を得ることができる。
*1xV(Dlzal 以上のような学習手法をとれば、収束性を1!!証し得
るとともに収束時間を短縮することができ、また多重の
入力データに対してし学習成果を得ることができる。
以」−この発明の実施例について説明したが、この発明
は種々変形が可能である。
は種々変形が可能である。
[発明の効果]
前述のとおり、この発明に係るパターン判定装置のゆ正
方法によれば、#I!育あるいは学習の過程において、
重ノ事の値すなわら各シナプスの飽和の程度を参照する
ので、学習初期には急速に重みを変更し、徐々にその増
減量を減少させて収束を実現することが可能であり、効
率的学習が可能であるという優れた効果が得られる。
方法によれば、#I!育あるいは学習の過程において、
重ノ事の値すなわら各シナプスの飽和の程度を参照する
ので、学習初期には急速に重みを変更し、徐々にその増
減量を減少させて収束を実現することが可能であり、効
率的学習が可能であるという優れた効果が得られる。
第1図は一般的な?Ll経lJB抱モデルを示す概、含
14、第2図は一般的な脳細胞でデルを示すlfi、含
[4、第3Filは一般的な多層の脳11B胞モデルを
示す似、9図、第4図は一般的シグモイド関数の特性を
示すグラフ、第5図はこの発明の第1、第3実栴例のア
ーキテクチャを示す概念図、第6図1jこの発明の第2
実施例のアーキテクチャを示す概念図、第7図ta l
、(bl、(c 1.id )は第1−第:3実施例に
おける重りの変化量特性を示すグラフである。
14、第2図は一般的な脳細胞でデルを示すlfi、含
[4、第3Filは一般的な多層の脳11B胞モデルを
示す似、9図、第4図は一般的シグモイド関数の特性を
示すグラフ、第5図はこの発明の第1、第3実栴例のア
ーキテクチャを示す概念図、第6図1jこの発明の第2
実施例のアーキテクチャを示す概念図、第7図ta l
、(bl、(c 1.id )は第1−第:3実施例に
おける重りの変化量特性を示すグラフである。
Claims (2)
- (1) 複数の入力データに重みを作用させた結果の総
和を求め、この総和と閾値とを比較して、比較結果に応
じた出力を発生するパターン判定系における前記重みの
修正方法において、重みの増減量を重みの値によって変
化させることを特徴とするパターン判定系の修正方 法。 - (2) 重みの増減量は重みに対して単調減少するよう
に設定されていることを特徴とする特許請求の範囲第1
項記載のパターン判定系の修正方法。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP88297541A JPH02143384A (ja) | 1988-11-25 | 1988-11-25 | パターン判定系の修正方法 |
EP89100421A EP0327817B1 (en) | 1988-01-11 | 1989-01-11 | Associative pattern conversion system and adaptation method thereof |
DE198989100421T DE327817T1 (de) | 1988-01-11 | 1989-01-11 | Assoziatives musterkonversionssystem und anpassungsverfahren dafuer. |
US07/295,763 US5040230A (en) | 1988-01-11 | 1989-01-11 | Associative pattern conversion system and adaptation method thereof |
DE68927014T DE68927014T2 (de) | 1988-01-11 | 1989-01-11 | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
US07/501,875 US5136653A (en) | 1988-01-11 | 1990-03-29 | Acoustic recognition system using accumulate power series |
GR89300174T GR890300174T1 (en) | 1988-01-11 | 1990-05-11 | Associative pattern conversion system and adaptation method thereof |
US08/033,465 US5416850A (en) | 1988-01-11 | 1993-03-18 | Associative pattern conversion system and adaption method thereof |
US08/307,072 US5506915A (en) | 1988-01-11 | 1994-09-16 | Associative pattern conversion system and adaptation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP88297541A JPH02143384A (ja) | 1988-11-25 | 1988-11-25 | パターン判定系の修正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02143384A true JPH02143384A (ja) | 1990-06-01 |
Family
ID=17847874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP88297541A Pending JPH02143384A (ja) | 1988-01-11 | 1988-11-25 | パターン判定系の修正方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02143384A (ja) |
-
1988
- 1988-11-25 JP JP88297541A patent/JPH02143384A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111226232B (zh) | 混合生成器模型 | |
US10885470B2 (en) | Selective training for decorrelation of errors | |
US4914603A (en) | Training neural networks | |
JP2588997B2 (ja) | 再入機能を有するニューロングループ選択を使用したカテゴリー分類オートマトン | |
US4912647A (en) | Neural network training tool | |
Gelenbe et al. | Dynamical random neural network approach to the traveling salesman problem | |
US4912655A (en) | Adjusting neural networks | |
US4912649A (en) | Accelerating learning in neural networks | |
US11010670B2 (en) | Building a deep neural network with diverse strata | |
US4912654A (en) | Neural networks learning method | |
US4912652A (en) | Fast neural network training | |
WO2020009881A1 (en) | Analyzing and correcting vulnerabillites in neural networks | |
US4912651A (en) | Speeding learning in neural networks | |
US4912653A (en) | Trainable neural network | |
JPH02143384A (ja) | パターン判定系の修正方法 | |
KR20200108173A (ko) | 스파이킹 뉴럴 네트워크에 대한 연산량을 감소시키는 stdp 기반의 뉴로모픽 연산처리장치 | |
Andreoua et al. | Financial versus human resources in the Greek‐Turkish arms race: A forecasting investigation using artificial neural networks | |
JP2002222409A (ja) | ニューラルネットワークの最適化学習方法 | |
Chotimah et al. | Chronic Kidney Disease Diagnosis System using Sequential Backward Feature Selection and Artificial Neural Network | |
Kubo et al. | Biologically-inspired neuronal adaptation improves learning in neural networks | |
Larisch et al. | A neural spiking approach compared to deep feedforward networks on stepwise pixel erasement | |
US20230206048A1 (en) | Crossbar-based neuromorphic computing apparatus capable of processing large input neurons and method using the same | |
JPH04501327A (ja) | パターン伝達ニューラルネットワーク | |
Guinier | Computer “virus” identification by neural networks: An artificial intelligence connectionist implementation naturally made to work with fuzzy information | |
Parra et al. | Backpropagation learning with a (1+ 1) ES |