JPH02143384A - パターン判定系の修正方法 - Google Patents

パターン判定系の修正方法

Info

Publication number
JPH02143384A
JPH02143384A JP88297541A JP29754188A JPH02143384A JP H02143384 A JPH02143384 A JP H02143384A JP 88297541 A JP88297541 A JP 88297541A JP 29754188 A JP29754188 A JP 29754188A JP H02143384 A JPH02143384 A JP H02143384A
Authority
JP
Japan
Prior art keywords
weight
learning
value
output
increase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP88297541A
Other languages
English (en)
Inventor
Sunao Takatori
直 高取
Ryohei Kumagai
熊谷 良平
Makoto Yamamoto
誠 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ezel Inc
Original Assignee
Ezel Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ezel Inc filed Critical Ezel Inc
Priority to JP88297541A priority Critical patent/JPH02143384A/ja
Priority to EP89100421A priority patent/EP0327817B1/en
Priority to DE198989100421T priority patent/DE327817T1/de
Priority to US07/295,763 priority patent/US5040230A/en
Priority to DE68927014T priority patent/DE68927014T2/de
Priority to US07/501,875 priority patent/US5136653A/en
Priority to GR89300174T priority patent/GR890300174T1/el
Publication of JPH02143384A publication Critical patent/JPH02143384A/ja
Priority to US08/033,465 priority patent/US5416850A/en
Priority to US08/307,072 priority patent/US5506915A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明はパターン判定系の修正方法に係り、侍に、複
数の入力データに重みを作用させな結果のa 117を
求め、この総和と閾値とを比較して、比較結果に応じた
出力を発生するパターン判定糸における重りの修正方法
に関する。
〔従来の技術〕
この種のパターン判定系は、一般に第1図に示す神経I
II胞モデモデル礎としてわり、同神経細胞モデルを並
列化したとき第2図に示す1層の脳細胞モデルが構成さ
れ、ざらにこの1層の脳細胞モデルを適宜接続を変えつ
つあるいはそのまま直列に接続することにより、第3図
に示す多層の脳細胞モデルが構成される。
第1図において、神経細胞モデルの入力データDIt〜
D1.にはそれぞれ重みw1〜woが掛けられ、その総
和と閾値θとが比較される。その比較結果に対し、正規
化関数やシグモイドrlIIrJ、などに蔦づいて出力
が決定される。例えば以下のような演算が行なわれる。
〔正規化関数の場合〕
DO=O(ΣDI+XW+−〇) Φ();正規化関数 Φ(x)”−1(x<O) Φ(x)  =O(x=o) Φ(x)=1    (x>1 〔シグモイド関数の場合〕 DO=S(ΣDI+XW+−〇) S() :ジグそイド関数 ジグそイド関数は第4図のような 特性を持つ。
そしてこのような演算により得られた出力に対して評価
が行われ、評価結果に基づいて、重みW〜W、1に修正
が加えられる。
このような璽み修正の手法として、近年パックプロパゲ
ージ3ンが注目されている。このパックプロパゲーショ
ンは2層の脳細胞モデルにおいて、各層の出力データと
目標値との差をとり、差の2乗の総和が最小となるよう
に重みを調節するものである。しかしこの手法は演算が
比較的y、雑であり、特に収束性の保証および収束時間
も二関して問題が残されている。また入力データが多重
化した場合の処理が著しく複雑化する。
〔発明が解決しようとする課題〕
この発明はこのような従来の問題点を解消すべく創案さ
れたもので、その収束性を保証し得るパターン判定装置
の修正方法を提供することを目的とする。
〔課題を解決するための手段〕
こD発明に係るパターン判定装置の修正方法は、重みの
増減量を、重みの値によって変化させるものである。
〔作用〕
この発明に係るバタニン判定装置の修正方法によれば、
教育あるいは学習の過程において1重りの値すなわら晶
シナプスの飽和の程度を参照するので、学習初期には急
速に重みを変更し、徐々にその増減量を減少させて収束
を実現することが可能であり、効率的学習が可能である
〔実施例〕
次にこの発明に係るバター″ン判定装置の修正方法の一
実施例を図面に基づいて説明する。
第5図および第6図はこの発明が適用されるパターン判
定装置のアーキテクチャを示すものであり、第5図のア
ーキテクチャでは各神経細胞の重みはその神経細胞の出
力に基づいて修正され、第6図のアーキテクチャでは、
各ニュー0ンのrJhは、最終的な出力の評価結果に基
づいて修正される。
第51!Iのアーキテクチャは、各層の出力の目標値が
明らかになっている場合に有効であり、第6図のアーキ
テクチャは、連想結果を大局的に判断する際に有効であ
る。
ここに各神経細胞の出力特性は、 DO=f[(ΣW、XD1.)−θ ]DO:出力 f();出力特性を与える関数 Wl ;各シナプスの重み DI+;各シナプスの入力 θ  ;閾値 の形式で表現され、関数f(+  としては、正規化関
数やジグそイド関数が一般的である。
ここで各神経細胞の入出力の関係を考察する。
ある入力に対してその神経細胞が出力を生じた場合、そ
れは、その神経細胞の興奮あるいは発火を意味するが、
出力が目標値に一致し、あるいは目標値に充分近かった
とき、そのときの入出力の関係は強化すべきである。こ
れは有意な入力が与えられたシナプスの重みを高めるこ
とに相当する。
従って第5図のアーキテクチャにおいては、各神経el
l Iaの出力の目標値があらかじめ分っているので、
各神経Ia胞の出力を目標値と比較し、両者が一致しあ
るいは充分近かったときに、有意な入力、例えば2値入
力のときrl、の入力が与えられたシナプスの重みを増
加させることになる。この修正方法を以後「モード■」
と呼ぶ。
一方第6図のアーキテクチャにおいては、最終層の出力
に対する大局的な評価が行なわれる。この評価方法とし
ては、最終層出力と目標値とのハミング距離、あるいは
ビタゴラス距礫の評価、あるいは感応的評価等が考えら
れる。この評価の結果、そのときの出力が目標値と一致
しあるいは充分近いと判断されたときには、その入出力
の関係は強化すべきである。この入出力の関係は各神経
細胞の発火パターンによって生じたものであり、その入
力とその発火パターンとの関係を強化することにより、
入出力の関係を強化したことになる。
従って第6図のアーキテクチャにおいては、最終層の出
力が目標値と一致しあるいは充分近かったときに、各神
経mmにおける有意な入力が与えられたシナプスの重み
を増加きせる。この修正方法を以後「モード11」と呼
ぶ。
以上は連想結果の評価に基づく重みの#を正であるが、
ある入力をそのまま記憶するタイプの学習に関しては出
力に対する評価よりも、むしろ、その入力と、その入力
に対して最初に生じた出力との関係を強化することが重
要である。これは、第5図のアーキテクチャにおいて、
その入力に対して発火した神経細胞における、有意な入
力が与えられたシナプスの重みを増加することに対応す
る。この修正方法を以後「モード111」と呼ぶ。
以下にそ−ド!〜11)を数式表記する。
くモードI〉 1番目の層における、jfi目の神経細胞のに1目のシ
ナプスについて、 W1□(T)   :現在の重み W17*(T + 1 )  ’変更後の重みDl、k
    二人力 とし、その神経細胞の出力を DO++’実際の出力 D T +ノ:出力の目標値 とすると、 W+i*(T 争11=W+1m(Tl”Cz*’V(
D  I  ++m)’M(DT++−DOl+1 C+1m’効率 ■()二人力に対する評価関数 M();出力に対する評価関数 と表記することができる。
入力の評価関数V()は例えば正規化関数、φ (x)
  =1        :  x>0=O:x=0 =−1:x<0 2値化関数、 B(xl=l+X  ≧ θ =O:  x<  θ θ : 閾値 あるいは、V(x)=xなる関数などが考えられる。こ
れによって入力が有意であるが否かの判定が行なわれる
出力の評価rlJ数M()は目標値との差(DT+、−
DOl))のif価関数を含んでおり、この評価方法と
しては、前述のように、ハミング距曙、ビタゴラス距離
、差の2乗和などの評価が考えられる。
目標値との差の評価結果に対しては、それが有、便であ
るか否かの1!1断が行なわれる。このマ11断方11
2としては、入力に対すると同様、正規化関数、2値化
関数その他が用いられる。これらのV()。
M()の演算結果は通常乗算で結合され、ざらに効率C
IIを乗じた値が重みの変化量となる。
効率C+4としては、従来定数が採用されていたが、こ
こでばC1を重AW++m(T)の関数とする。以後C
Bkを Czm(V’/+1ml と表記する。
ここで、パターン判定系の収束の問題を考慮すると、学
習の初期においては重みの変化量は大きく、学習の終期
においては重みの変化量は小とくすべきであることが予
碧される。この時系列は種々のパラメータで表現される
学習回数や学習時間はそのようなパラメータとして採用
きれるであろうし、出力と目標値と差の評価結果、すな
わ”、M()の演算結果もそのようなパラメータと考え
ることができる。
しかし、重みW + s kには当然上限があり、パタ
ーン着定系をICとして共用化する際には、重みWハを
必要最小限の罐とすることが現実的である。
また重みW IJ*の初期値が値域の最小値または最大
la+通常は最小値である。)に設定されていたとき、
学習の進行にともなって重みW 1 、、は最小値から
最大値に、あるいは最大値から最小値に向かって変化し
ていくことになる。
従って重ノ負の値は時系列を反映していることになる。
そして入力データによって発火する神経細胞のパターン
は変化し、新たな入力データに対する学習の初期には、
それ以前の学習では発火せず、tなわら重みに対して変
化が与えられていない挿着、1m胞が存在する可能性も
ある。
1゛なわら、学習の効果という観点から考えたとき、単
に学習回数、時間などを時系列のパラメー々と考えるよ
りも、重みW + 4 m E注目する方が適切である
ことが分る。
ここでC6□(W I J * )の特性を考える。学
習初期に変化量を大、終期に変化量を小とすれば、d 
C+ r (W + h k) / d W L I 
w≦0であり、 Czk(With)はいわゆる単調減
少関数となる。そしてこの単調減少関数のタイプとして
は、第7図(al〜(d)などを考えることができる。
くモード11〉 モード■と同様の変数を用い、以下のような数式表記が
行なわれる。
Y/++*(T”l)”With(T)”S X C1
+、(”#’++ml’VfD1.□) S;教師(3号 教師18号Sは、最終層の出力に対する評価結果によっ
て設定され、最も単純なタイプでは、計画が「正」であ
ればrl、、r否」であれば「o」を与える。また「中
立」を「o」とし、「否」を「−1」とする手法も考え
られる。
くモード111〉 モード■と同様の変数を用い、以下のような数式表記が
可能である。
WzmfT+I);Wzh(Tl’Czx(%’Y+i
*1xV(Dlzal 以上のような学習手法をとれば、収束性を1!!証し得
るとともに収束時間を短縮することができ、また多重の
入力データに対してし学習成果を得ることができる。
以」−この発明の実施例について説明したが、この発明
は種々変形が可能である。
[発明の効果] 前述のとおり、この発明に係るパターン判定装置のゆ正
方法によれば、#I!育あるいは学習の過程において、
重ノ事の値すなわら各シナプスの飽和の程度を参照する
ので、学習初期には急速に重みを変更し、徐々にその増
減量を減少させて収束を実現することが可能であり、効
率的学習が可能であるという優れた効果が得られる。
【図面の簡単な説明】
第1図は一般的な?Ll経lJB抱モデルを示す概、含
14、第2図は一般的な脳細胞でデルを示すlfi、含
[4、第3Filは一般的な多層の脳11B胞モデルを
示す似、9図、第4図は一般的シグモイド関数の特性を
示すグラフ、第5図はこの発明の第1、第3実栴例のア
ーキテクチャを示す概念図、第6図1jこの発明の第2
実施例のアーキテクチャを示す概念図、第7図ta l
、(bl、(c 1.id )は第1−第:3実施例に
おける重りの変化量特性を示すグラフである。

Claims (2)

    【特許請求の範囲】
  1. (1) 複数の入力データに重みを作用させた結果の総
    和を求め、この総和と閾値とを比較して、比較結果に応
    じた出力を発生するパターン判定系における前記重みの
    修正方法において、重みの増減量を重みの値によって変
    化させることを特徴とするパターン判定系の修正方 法。
  2. (2) 重みの増減量は重みに対して単調減少するよう
    に設定されていることを特徴とする特許請求の範囲第1
    項記載のパターン判定系の修正方法。
JP88297541A 1988-01-11 1988-11-25 パターン判定系の修正方法 Pending JPH02143384A (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP88297541A JPH02143384A (ja) 1988-11-25 1988-11-25 パターン判定系の修正方法
EP89100421A EP0327817B1 (en) 1988-01-11 1989-01-11 Associative pattern conversion system and adaptation method thereof
DE198989100421T DE327817T1 (de) 1988-01-11 1989-01-11 Assoziatives musterkonversionssystem und anpassungsverfahren dafuer.
US07/295,763 US5040230A (en) 1988-01-11 1989-01-11 Associative pattern conversion system and adaptation method thereof
DE68927014T DE68927014T2 (de) 1988-01-11 1989-01-11 Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
US07/501,875 US5136653A (en) 1988-01-11 1990-03-29 Acoustic recognition system using accumulate power series
GR89300174T GR890300174T1 (en) 1988-01-11 1990-05-11 Associative pattern conversion system and adaptation method thereof
US08/033,465 US5416850A (en) 1988-01-11 1993-03-18 Associative pattern conversion system and adaption method thereof
US08/307,072 US5506915A (en) 1988-01-11 1994-09-16 Associative pattern conversion system and adaptation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP88297541A JPH02143384A (ja) 1988-11-25 1988-11-25 パターン判定系の修正方法

Publications (1)

Publication Number Publication Date
JPH02143384A true JPH02143384A (ja) 1990-06-01

Family

ID=17847874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP88297541A Pending JPH02143384A (ja) 1988-01-11 1988-11-25 パターン判定系の修正方法

Country Status (1)

Country Link
JP (1) JPH02143384A (ja)

Similar Documents

Publication Publication Date Title
CN111226232B (zh) 混合生成器模型
US10885470B2 (en) Selective training for decorrelation of errors
US4914603A (en) Training neural networks
JP2588997B2 (ja) 再入機能を有するニューロングループ選択を使用したカテゴリー分類オートマトン
US4912647A (en) Neural network training tool
Gelenbe et al. Dynamical random neural network approach to the traveling salesman problem
US4912655A (en) Adjusting neural networks
US4912649A (en) Accelerating learning in neural networks
US11010670B2 (en) Building a deep neural network with diverse strata
US4912654A (en) Neural networks learning method
US4912652A (en) Fast neural network training
WO2020009881A1 (en) Analyzing and correcting vulnerabillites in neural networks
US4912651A (en) Speeding learning in neural networks
US4912653A (en) Trainable neural network
JPH02143384A (ja) パターン判定系の修正方法
KR20200108173A (ko) 스파이킹 뉴럴 네트워크에 대한 연산량을 감소시키는 stdp 기반의 뉴로모픽 연산처리장치
Andreoua et al. Financial versus human resources in the Greek‐Turkish arms race: A forecasting investigation using artificial neural networks
JP2002222409A (ja) ニューラルネットワークの最適化学習方法
Chotimah et al. Chronic Kidney Disease Diagnosis System using Sequential Backward Feature Selection and Artificial Neural Network
Kubo et al. Biologically-inspired neuronal adaptation improves learning in neural networks
Larisch et al. A neural spiking approach compared to deep feedforward networks on stepwise pixel erasement
US20230206048A1 (en) Crossbar-based neuromorphic computing apparatus capable of processing large input neurons and method using the same
JPH04501327A (ja) パターン伝達ニューラルネットワーク
Guinier Computer “virus” identification by neural networks: An artificial intelligence connectionist implementation naturally made to work with fuzzy information
Parra et al. Backpropagation learning with a (1+ 1) ES