JP2639028B2 - 神経回路の学習装置および学習方法 - Google Patents

神経回路の学習装置および学習方法

Info

Publication number
JP2639028B2
JP2639028B2 JP63313505A JP31350588A JP2639028B2 JP 2639028 B2 JP2639028 B2 JP 2639028B2 JP 63313505 A JP63313505 A JP 63313505A JP 31350588 A JP31350588 A JP 31350588A JP 2639028 B2 JP2639028 B2 JP 2639028B2
Authority
JP
Japan
Prior art keywords
value
load
input
neuro
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63313505A
Other languages
English (en)
Other versions
JPH02158860A (ja
Inventor
義政 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63313505A priority Critical patent/JP2639028B2/ja
Publication of JPH02158860A publication Critical patent/JPH02158860A/ja
Application granted granted Critical
Publication of JP2639028B2 publication Critical patent/JP2639028B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、層状神経回路を用いてパターン識別を行う
学習装置および学習方法に関し、特に分離超平面の近傍
に存在するパターンの識別特性を向上させ、かつ入力パ
ターンの変動に対して安定な学習を可能とする層状神経
回路の学習装置とその方法に関する。
〔従来の技術〕
最近、神経回路網型(ニューラル・ネットワーク)の
パターン識別装置が開発されている(例えば、日経エレ
クトロニクス、1988年4月18月(No.445)、pp.106〜10
7参照)。上記文献によれば、3層構造のニューラル・
ネットワークを用いたパターン識別装置に対して、学習
アルゴリズムの基本をバックプロパゲーションにするこ
とにより、学習効果を向上させている。
第5図は、従来の神経回路を用いたバックプロパゲー
ションを具備する学習装置の一例を示す構成図であり、
第6図は、第5図における1つのニューロ素子の機能ブ
ロック図である。
第5図においては、入力層L個と中間層M個と出力層
N個のニューロ素子からなる3層構造の層状神経回路が
示されている。これらのニューロ素子相互間の結線は、
下位の層のニューロ素子から1つ順位の高い覆のニュー
ロ素子にのみ限って存在し、層を飛び越した結線や層内
の素子間での結線はいずれも存在しない。また、同一素
子から発散される結線に流れる信号の大きさは、いずれ
も同じである。
第5図において、101は入力パターンxi=(ix1,ix2,
・・・・ixL)、1は神経回路、11は中間層の第j素子
の荷重ベクトルwj=(wj1,wj2,・・・・・w
jL)、12は同素子の閾値θ、13は同素子の出力iy
j、14は出力層の第k素子の荷重ベクトルwk=(w
k1,wk2,・・・・・wkM)、15は同素子の閾値θ
、16は同素子の出力izk、17は出力ベクトルzi=(i
z1,iz2,・・・・izN)、20はニューロ素子、102はカテ
ゴリCiの教師信号ベクトルti=(it1,it2,・・・・
itN)である。なお、入力パターンxi,荷重ベクトルwj,w
k,出力ベクトルziは、いずれもベクトルを表わす。
第5図における各ニューロ素子20は、それぞれ第6図
に示すような機能構成を具備している。
すなわち、1個以上の素子入力信号が最初に入力する
とともに、各素子入力のそれぞれに対応した荷重値を記
憶するための荷重ベクトル記憶部14(11)と、各素子入
力の値ごとに荷重値を乗じた値を膜電位として出力する
ための膜電位算出部19と、予め決められた閾値および飽
和型関数を記憶する記憶部15(12)と、膜電位算出部19
の出力と閾値の和に飽和型関数を作用させた値を関数出
力値とする飽和型関数部18と、素子出力16とを具備して
いる。
ここで、各素子20の入出力方程式は、次の(1)
(2)式で表わされる。i yj=f(wj・xi+θ) ……(1)i zk=f(wk・yj+θ) ……(2) なお、上式中のyiはyi=(iy1,iy2,・・・iyM)なる
中間素子の出力ベクトルであり、fは飽和型非線型関数
であって、例えばシグモイド関数が用いられる。また、
・はベクトルの内積を表わしている。上記(1)式、
(2)式においては、閾値θ,θは、新たに常
に1を素子出力として出力するニューロ素子にθ
るいはθを荷重値として乗算することで実現できる
ので、荷重値wj,wkの次元が1だけ増えたものと解
釈できる。そこで、閾値は荷重値に含められているもの
として扱い、上記(1)式,(2)式のθとθ
を除削する。
バックプロパゲーションは、入力パターンxiから得ら
れる出力ベクトルziと教師信号ベクトルtiの要素の2乗
誤差を最小化する学習方法であり、評価関数Eとして次
の値を持っている。
上式において、Eを最小にすべく、中間層・出力層の
荷重・閾値を変更していくのである。
荷重変更のアルゴリズムを以下に導出する。
いま、荷重変更分を とする。ここで、ηは定数、wmnは下位層の第m素子か
ら上位層の第n素子への荷重であり、この記法は出力
層、中間層に共通に用いる。
を求めると、次式(4)となる。
ここで、irnは第n素子の膜電位であり、irn=Σwmn
・qmで定義される。また、iqmは第m素子の出力であ
る。
いま、(4)式を次のように置くと、 Δwmnは、次のような式(6)で表わされる。
(i)第n素子が出力層のニューロ素子である場合δ
をδと記述し、(2)式,(3)式および の式を用いると、評価関数Eを膜電位irkで微分した出
力層の値δは、次式(7)で表わされる。
(6)式,(7)式より、出力層の荷重Δwkmは次式
となる。
Δwkm=η(tk−zk)f′(rkiym ……(8) (ii)第n素子が中間層のニューロ素子である場合 δをδと記述して、前記(1)式、(5)式を用
いると、評価関数Eを膜電位iyjで微分した中間層の値
δは、次式(9)で表わされる。
(6)式,(9)式より、中間層の荷重Δwjlは次式
となる。
入力パターンxiが呈示される毎に、(8)式と(10)
式で荷重を変更すれば、入力パターン集合{xi}におい
て、各xiを識別できるパターン識別機構が神経回路の内
部に自然に構築される。
パターン呈示と学習との関係は、上述の場合、1パタ
ーンが呈示される毎に1回学習するものとした。その一
例としては、XOR,Parity等がある。これらの例では、複
数の入力パターンが固定的な順序で出現し、それを学習
装置に呈示することが前提となっていた。
〔発明が解決しようとする課題〕
しかしながら、前述のような学習装置に対して、入力
パターンの出現が確立的である場合に適用しようとする
ならば、次の(イ)(ロ)のような問題が生じる。
(イ)カテゴリCiに属する第S番目の入力パターンx
i(S)(S=1,2,・・・,S)を呈示した場合における
出力層の荷重修正量をΔwkj(S)とする。
ここでは、同一の教師信号パターンに対して、1以上
の入力パターンを対応付けた入力パターンの集合をカテ
ゴリと呼ぶ。文字の認識を行う場合、例えば、学習のカ
テゴリCiとして、 のパターン入力をカテゴリi=1、 のパターン入力をカテゴリi=2、 をi=3とする。ここで、1回目の入力はAさんが、2
回目の入力はBさんが、3回目の入力はCさんが、それ
ぞれ を入力して、例えば10人分のサンプルをとって1つのカ
テゴリとすることができる。同じように、10人分のサン
プルの について、それぞれカテゴリとすることができる。
いま、xi(S)の出現確率をPi(S)(ΣPi(S)=
1)とすると、{xi(S)}に対する荷重修正量@Δw
kjは、次式(11)で表わされる。
(11)式は、確率Pi(S)を考慮した形となってお
り、1パターン呈示する毎に学習を行っていた前記
(6)式では起り得なかった次の問題が生じる。
すなわち、(11)式において、確率密度が高い所に存
在する入力パターンxi(S)から得られたΔwkj(S)
は、@Δwkjに強く反映されるが、確率密度が低い所に
存在する入力パターンxi(S)から得られるΔw
kj(S)は@Δwkjに反映されにくい。つまり、パター
ン{xi(S)}と{xj(S)}(ここで、i≠j)を分
離する分離超平面の近傍にxi(S),xj(S)が少数個
しか存在しない場合には、そのxi(S),xi(S)を識
別する機構は、神経回路内部に構築されにくくなる。言
い換えれば、まれにしか出現しないパターンについて
は、重み付けの修正に殆んど貢献していなかった。
(ロ)全ての神経回路に共通な問題として、学習サンプ
ルに対しては良効な識別結果を示すが、未知サンプルに
対しては必ずしも良い識別結果は得られないことがあ
る。これは、神経回路が学習サンプルに対して、前記
(3)式を最小化することしか行っていないためであっ
て、未知サンプルの分布を推定しながら学習していない
ためである。
次に、上記(イ)(ロ)の問題点に対する従来の解決
方法について、述べる。
(イ)を解決する方法としては、学習の進行とともに
学習の進んでいないパターンを強制的に学習させ、かつ
学習の進度に合わせて学習パラメータηを変更していく
方法がある(例えば、文献:信学技報MBE87−156参
照)。
しかし、この方法では、学習過程を制御することに関
して、システム設計者の経験を必要とする。また、学習
対象が変れば設計方法を変わるため、統一的に論じるこ
とが難かしいという問題がある。
次に、(ロ)を解決する方法としては、入力パターン
を変形させ、これを学習させることにより未知サンプル
に対する耐性を強化しようとする方法がある(例えば、
特願昭63−56956号明細書および図面を参照)。しか
し、そこで扱われている変形は、実際に生じる変更と異
なった性質を持っていること、および変形パターン数の
増加による学習効率の低下があること、等の問題があっ
た。
本発明の目的は、これら従来の課題を解決し、過学習
を防止し、未学習パターンを学習を促進させて、分離超
平面近傍に存在するパターン、つまりまれにしか出現し
ないパターンの識別特性を向上させ、かつこれらの作用
を自動的に行わせることにより、入力パターンの変動に
対して安定な学習を行わせることが可能な神経回路の学
習装置および学習方法を提供することにある。
〔課題を解決するための手段〕
上記目的を達成するため、本発明による神経回路の学
習装置は、(a)出力層の各素子出力値と呈示された入
力パターンに対応した教師信号パターンとの差である誤
差値を求めて、該誤差値を記憶する教師信号パターン比
較手段と、(b)該教師信号パターン比較手段から誤差
値情報を受け取り、同一カテゴリに属する1以上の入力
パターンに対して、上記出力層の全ニューロ素子での膜
電位の微少変化値に対する素子出力値の微少変化値およ
び上記誤差値からなる評価関数を最小とする方向の荷重
値の変更値を、上記中間層と出力層の全ニューロ素子に
ついて計算し、計算結果を記憶する変更値計算記憶手段
と、(c)該変更値計算記憶手段から上記計算結果を受
け取り、同一カテゴリでの入力ベクトルの呈示が終了す
る毎に、上記計算結果の荷重変更値を平均化した荷重修
正値を算出し、該荷重値と荷重修正値との和の値を各ニ
ューロ素子に設定する荷重修正手段とを具備したことに
特徴がある。また、本発明の学習方法は、(a)中間層
と出力層にある全ニューロ素子での荷重値を初期設定手
段により決定して、決定された荷重値を各ニューロ素子
に設定し、カテゴリが1つ選び出され、そのカテゴリに
属する入力パターンが呈示され、(b)入力層のニュー
ロ素子の素子入力として呈示された入力パターンを設定
し、(c)上記出力層の各素子出力値と呈示された入力
パターンに対応した教師信号パターンとの誤差値を求
め、(d)同一カテゴリに属する1以上の入力パターン
に対して、出力層の全ニューロ素子での膜電位の微少変
化値に対する索子出力値の微少変化値および上記誤差値
とからなる評価関数を最小化する方向である荷重変更値
を、上記中間層と出力層にある全ニューロ素子での荷重
値に対して計算し、(e)同一カテゴリでの入力パター
ンの呈示が終了すると、修正値計算の指示信号の有無か
ら、該指示信号の無の場合に(b)に戻り、有の場合に
は、該荷重変更値を平均化した荷重修正値を求め、該荷
重修正値と上記荷重値との和を上記中間層と出力層にあ
る全ニューロ素子に設定し、(f)上記(b)から
(e)までの処理手順を処理終了信号が受信されるま
で、繰り返すことに特徴がある。
〔作用〕
本発明においては、出力層のニューロ素子の出力値と
呈示された入力パターンに対応する教師信号パターンと
の誤差値を求めた後、出力層の全ニューロ素子での膜電
位の微少変化値に対する索子出力値の微少変化値および
上記誤差値とからなる評価関数を最小化する方向である
荷重変更値を、中間層と出力層の全ニューロ素子での荷
重値に対して計算する。そして、さらに修正値計算の指
示信号があると、荷重変更値を平均化した荷重修正値を
求め、この荷重修正値と上記荷重値との合計値を上記中
間値と出力層にある全ニューロ素子に設定するのであ
る。この合計値は、η・(δ+〔δ〕)で表わされ
る。そして、学習が著しく進んでいない入力パターンに
対しては〔δ〕>0であるため、この合計値は学習を
強化させる作用がある。また、学修が進行するに伴な
い、〔δ〕は負の大きい値をとるため、学習を抑制す
る作用がある。また、学習が終了しているものに対して
は、学習を停止される作用を果す。
〔実施例〕
以下、本発明の動作原理および実施例を、図面により
詳細に説明する。
先ず、本発明の基本的な原理について詳述する。
本発明においては、評価関数として次式(12)を用い
る。
ここで、右辺第2項の∂izk/∂irkは、出力層の第k
素子の出力の変動分に関する項であり、εは定数であ
る。
(12)式を満足するように学修が進行する場合のδ
を、*δと記述することにする。
(i)出力層の場合、 ここで、 f′(irk)=irk(1−irk) ……(14) f″(irk)=irk(1−irk)(1−2irk) ……(15) 〔δk〕=−εf(rk・(1−f(rk))・(1
−2f(rk)) ……(16) と置けば、上記(13)式は、次のように表わされる。
*δ=δ+〔δ〕 ……(17) ただし、δは前記(7)式のδである。
(ii)中間層の場合 上式(17)の*δは、評価関数を(3)式としたと
きのδ、および評価関数を(12)式としたときの〔δ
〕を合成した値となっている。irkに対する〔δ
は、ε<0の場合、第4図(a)に示す曲線となる。第
4図(b)は、δの特性曲線を示す図である。*δ
は、δと〔δ〕とを加えた値であるから、第4図
(a)と(b)の各値を加算した値となる。なお、曲線
値(絶対値)のオーダはδよりも〔δ〕の方が大き
く表わされているので、同一目盛のときはδの方が大
きい値である。〔δ〕は、学習が著しく進んでいない
入力パターン(irkとなる入力パターン)に対して
は、〔δ〕>0であるため、学習を強化させる作用が
ある。また、学習が進行するに伴ない(irkが0より大
きくなるに伴ない)、〔δ〕は負の大きい値をとるた
め、学習を抑制する作用がある。学習がある程度進んだ
場合、前式(17)で、*δ≒0となるようにεの値を
設定しておくと、前式(11)において、@Δwkjの形成
に関して、多大な影響を及ぼしていたパターンxi(S)
による荷重変更量Δwkj(S)は小さくなり、逆に@Δw
kjの形成に反映されていなかったパターンxiから得られ
るΔwkj(S)の効果が相対的に大きくなる。従って、
分離超平面近傍におけるパターンの識別特性が改善され
ることになる。
前式(12)に示す評価関数は、次のようになる。
ここで、 と置くと、上式(19)は、次のようになる。
これは、出力izkが入力パターンxiの変動により、±
Δizkだけ変動した場合を想定した評価関数となってい
ることがわかる。これにより、入力パターンxiの変動に
対して安定性の高い学習が可能である。
第2図は、本発明の一実施例を示す機能ブロック図で
あり、第3図は第2図における動作フローチャートであ
る。
第2図において、1は多段のニューロ素子で構成され
た神経回路、2は修正荷重計算機能部、3は神経回路1
の動作を制御する制御部、101は入力パターン、102は教
師信号ベクトルである。
神経回路1は、I個のカテゴリC1,C2,・・・,CIに属
するパターンを学習する。修正荷重計算部2は、前式
(17),(18),(6),(11)で与えられる荷重変更
量の計算を行う。また、制御部3は、入力パターンの呈
示および荷重変更のシーケンスの制御を行う。
第3図に示すように、学習動作が開始されると、神経
回路1は初期状態にあり、荷重値閾値として絶対値の非
常に小さい値が、例えば乱数等により設定される(ステ
ップ31)。次に、制御部3の制御により、カテゴリCi
属するS番目の入力パターンxi(S)に対して、x
i(S)に対するΔwkj(S)を式(17),(18),
(6)を用いて、修正荷重計算部2において計算する
(ステップ32)。次に、Δwkj(S)の荷重修正指示信
号受信時に、荷重修正値 *Δwkj=ΣΔwkj(S)/S ……(21) を求めて、荷重値に算出した荷重修正値を加える(ステ
ップ33)。次に、処理終了信号受信時に、全てのCiにつ
いて荷重値計算を実行したと判定し、学習動作を完了す
る。処理終了信号を受信しないせ合には、入力パターン
の呈示があるものと判断し、ステップ32に戻る。まだ残
っていれば、最初に戻り次のカテゴリCiについて動作を
繰り返す(ステップ34)。Ciの全てが終了したならば、
学習動作を完了する(ステップ35)。なお、上式(21)
がSで除算されているのは、各カテゴリCiにおいてS回
行った荷重修正値を平均化するために除算する。
本実施例においては、カテゴリ毎に荷重を修正しなが
ら学習する方法を採用したが、パターンの呈示方法はこ
の他にも次の(イ)〜(ハ)がある。
(イ)全カテゴリ一括学習→カテゴリCi(i=1,2,・・
・,I)のパターン{xi(S)}(S=1,2,・・・・S)
を全て用いて荷重修正する方法である。すなわち、1回
毎の修正を行う方法である。
@wkj=ΣΣΔwkj(S)/I・S ……(22) (ロ)全カテゴリ一括学習(部分集合使用)→ この方法は、上記(イ)で{xi(S)}をG個の部分
集合Ω(j)(j=1,2,・・・,G)に分け、1回目の
荷重変更にはΩ(1)に属するxi(S)、2回目の荷
重変更には、Ω(2)に属するxi(S)、・・・・・
を用いる方法がある。
(ハ)カテゴリ別学習(部分集合使用)→ {xi(S)}をG個の部分集合Ω(j)に分け、1
回目の荷重にはΩ(1)に属する{x1(S)}、2回
目の荷重変更にはΩ(2)に属する{x2(S)}・・
・・・、G回目の荷重変更には、Ω(G)に属する
{xi(S)}、(G+1)回目の荷重修正にはΩ
(2)に属する{x1(S)}、・・・・の順に用いる
方法である。
また、上記(イ)〜(ハ)の方法を方式的に、あるい
は順序的に組み合わせて用いる方法も考えられるが、本
発明の基本となる学習方法は呈示方法の如何にかかわら
ず適用可能である。
第1図は、本発明の一実施例を示す神経回路の学習装
置のブロック図である。
第1図において、1は神経回路、21はパターン入力回
路、22は教師パターン比較回路、23は初期値設定回路、
24は変更値計算記憶回路、25は荷重修正回路、26は教師
パターンの入力バス、27は教師パターンを変更値計算記
憶回路24に転送するバスである。
先ず、初期値設定回路23が神経回路1内の各ニューロ
素子に対して、荷重値を乱数等により設定する。カテゴ
リCiに属するS番目の入力パターンxiがパターン入力回
路21に入力されると、変更値計算記憶回路24は、出力層
の評価関数 を最小化する方向であるΔwkjを求める。ここで、tk
ターゲット値、つまり教師信号ベクトルであり、zkは出
力層の出力信号である。教師パターン比較回路22では、
外部から与えられた教師パターンと出力層の出力値zk
を比較して、その差を変更値計算記憶回路24に送出す
る。変更値計算記憶回路24は、この差信号に基づいて、
出力層については、 Δwkm=η・*δiym ……(23) を算出する。
ただし、 *δ=δ+〔δ〕={(tk−zk)・f′(rk) −εf(rk 2)・(1−2f(rk)} また、中間層においても、同じようにして、下記の評
価関数値を最小とする方向のΔwkjを求める。
Δwjl=η(Σ*δ・wkj)f′(irj)xi ……(24) このようにして、出力層の評価関数値がわかれば、中
間層の変更値も直ちに求められる。
変更値計算記憶回路24は、修正値計算の指示信号が受
信されるまで、求めた出力層と中間層の変更値を記憶す
る。変更値計算記憶回路24は、修正値計算の指示信号受
信時に、記憶していた変更値を荷重修正回路25に送出し
て、荷重修正を要求する。
荷重修正回路25は、前式(11)に示すように、変更値
をΔwkj(S)としたとき、入力パターンxi(S)の出
現確率をPi(S)とすると、xi(S)に対する荷重修正
値@Δwkjは、 @Δwkj=ΣPi(S)・Δwkj(S)である。
荷重修正回路25は、自己が計算した荷重修正量@Δw
kjを神経回路1のニューロ素子の荷重値に加算する。
これらの加算合計wkjは、次式(25)となる。
wkj=wkj+@wkj ……(25) 変更値計算記憶回路24と荷重修正回路25は、処理終了
信号を受信するまで上記の処理を実行する。
このように、荷重値と荷重修正値の加算値は、wkj
η・(δ+〔δ〕)である。これらのうちδ
〔δ〕とは次式で表わされる。
〔δ〕=−εf′f″ ……(26) δ=(tk−f(rk))・f′(rk) ……(27) 上式(26)が第4図(a)に示した特性図であり、上
式(27)が第4図(b)に示した特性図である。
すなわち、荷重修正量〔δ〕は、−ε(正の値であ
る)とf′とf″の積である。また、荷重値δは、
f′と(tk−f(rk))の積である。
第4図(a)(b)において、領域(i)は出現率が
少なく学習が殆んど進んでいないものであり、領域(i
i)は学習が終了しているものであり、領域(iii)は学
習が中ぐらい進んだものである。
そして、領域(i)と(iii)に対しては、|δk|>
>|〔δ〕|が成立し、領域(ii)に対しては、|δ
k|≒|〔δ〕|が成立する。
従って、δに対して修正値〔δ〕が大きく修正作
用することになる。すなわち、(i)の領域、つまり出
現率が少なく、学習があまり進んでいないものに対して
は、学習を進める作用を果す。
(ii)の領域、つまり学習が終了しているものに対し
ては、学習を停止させる作用を果す。(iii)の領域、
つまり学習が中ぐらいに進んだものに対しては、過学習
を防止する作用を果す。
このようにして、学習の進行に伴ない、教師ベクトル
に近い出力ベクトルを出す入力パターンに対しては、第
4図(a)に示す〔δ〕により抑制がかかる。学習開
始直後には、xi(S)のSに依存しなかった荷重修正量
は、Sに依存するようになる。また、εを適切に設定す
ることにより、学習済みのxi(S)に対する荷重修正量
の絶対値は非常に小さくなり、学習の余り進んでいない
xi(S)に対して集中的に学習が行われる。以上の操作
は、全て自動的に行われる。従って、全てのxi(S)に
ついて十分に学習されるようになる。
〔発明の効果〕
以上説明したように、本発明によれば、学習の進行に
伴なって、これに応じた抑制を行うので、過学習を防止
し、かつ未学習パターンの学習促進の効果がある。ま
た、これらの作用は自動的に行われるため、人手がかか
らないという効果もあり、この結果、分離超平面近傍に
存在するパターンの識別特性が良くなるという利点もあ
る。さらに、本発明が適用する評価関数は、入力パター
ンの変動を反映しているので、未知サンプルに対する耐
性の向上が期待できる。
【図面の簡単な説明】
第1図は本発明の一実施例を示す神経回路の学習装置の
ブロック図、第2図は本発明の一実施例を示す学習方法
の機能ブロック図、第3図は第2図における動作フロー
チャート、第4図は本発明の荷重修正値の特性図、第5
図は通常の層状神経回路の構成図、第6図は第5図にお
ける1個のニューロ素子の構成図である。 1:神経回路、2:修正荷重計算部、3:制御部、101:入力パ
ターン、102:教師信号ベクトル、21:入力回路、22:教師
パターン比較回路、24:変更値計算記憶回路、25:荷重修
正回路、26:教師パターン入力バス、27:教師パターン転
送バス、11,14:荷重ベクトル、12,15:閾値、13,16:出
力、17:出力ベクトル、20:ニューロ素子。

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】1個以上の索子入力を取り込み、各索子入
    力に対応した荷重値と、飽和型関数を記憶し、各索子入
    力の値ごとに上記荷重値を乗じた値である膜電位の値に
    飽和型関数を作用させた値を索子出力として送出する複
    数庫のニューロ素子からなり、各ニューロ素子は、低順
    位の入力層から複数の順位付けられた中間層に続き、最
    高順位の出力層の順序で配列され、中間層と出力層に属
    する各層のニューロ素子の素子入力は順位の1つだけ低
    い層に属するニューロ素子の素子出力と結合された神経
    回路と、学習の開始時に該神経回路内の全ニューロ素子
    の荷重値を設定する初期値設定手段と、該荷重値が設定
    された後、上記入力層内のニューロ素子の各々に対応し
    た実数値の要素からなる入力パターンを取り込む入力手
    段と、該入力パターンの各々に対応し、かつ上記出力層
    の全ニューロ素子の出力値に対応した教師信号パターン
    保持手段とを備え、同一教師信号パターンに対応した1
    個以上の入力パターンの集合であるカテゴリに基づい
    て、呈示された入力パターンから得られた出力パターン
    と上記教師信号パターンとを用いる神経回路の学習装置
    において、(a)上記出力層の各素子出力値と提示され
    た入力パターンに対応した教師信号パターンとの差であ
    る誤差値を求めて、該誤差値を記憶する教師信号パター
    ン比較手段と、(b)該教師信号パターン比較手段から
    上記誤差値情報を受け取り、同一カテゴリに属する1以
    上の入力パターンに対して、上記出力層の全ニューロ素
    子での膜電位の微小変化値に対する素子出力値の微小変
    化値および上記誤差値からなる評価関数を最小化する方
    向の荷重値の変更値を、上記中間層と出力層の全ニュー
    ロ素子について計算し、計算結果を記憶する変更値計算
    記憶手段と、(c)修正値計算の指示信号受信時に該変
    更値計算記憶手段から上記計算結果を受け取り、上記計
    算結果の荷重変更値を平均化した荷重修正値を算出し、
    該荷重値と荷重修正値との和の値を各ニューロ素子に新
    たな荷重値として設定する荷重修正手段とを具備したこ
    とを特徴とする神経回路の学習装置。
  2. 【請求項2】1個以上の索子入力を取り込み、各索子入
    力に対応した荷重値と、飽和型関数を記憶し、各索子入
    力の値ごとに上記荷重値を乗じた値である膜電位の値に
    飽和型関数を作用させた値を索子出力として送出する複
    数個のニューロ素子からなり、各ニューロ素子は、低順
    位の入力層から複数の順位付けられた中間層に続き、最
    高順位の出力層の順序で配列され、中間層と出力層に属
    する各層のニューロ素子の素子入力は順位の1つだけ低
    い層に属するニューロ素子の素子出力と結合された神経
    回路と、学習の開始時に該神経回路内の全ニューロ素子
    の荷重値を設定する初期値設定手段と、該荷重値が設定
    された後、上記入力層内のニューロ素子の各々に対応し
    た実数値の要素からなる入力パターンを取り込む入力手
    段と、該入力パターンの各々に対応し、かつ上記出力層
    の全ニューロ素子の出力値に対応した教師信号パターン
    保持手段とを備え、同一教師信号パターンに対応した1
    個以上の入力パターンの集合であるカテゴリに基づい
    て、呈示された入力パターンから得られた出力パターン
    と上記教師信号パターンとを用いる神経回路の学習方法
    において、(a)上記中間層と出力層にある全ニューロ
    素子での荷重値を上記初期値設定手段により決定して、
    決定された荷重値を各ニューロ素子に設定し、カテゴリ
    が1つ選び出され、該カテゴリに属する入力パターンが
    呈示され、(b)上記入力層のニューロ素子の素子入力
    として呈示された入力パターンを設定し、(c)上記出
    力層の各素子出力値と呈示された入力パターンに対応し
    た教師信号パターンとの誤差値を求め、(d)同一カテ
    ゴリに属する1以上の入力パターンに対して、上記出力
    層の全ニューロ素子での膜電位の微少変化値に対する索
    子出力値の微少変化値および上記誤差値とからなる評価
    関数を最小化する方向である荷重変更値を、上記中間層
    と出力層にある全ニューロ素子での荷重値に対して計算
    し、(e)同一カテゴリでの入力パターンの呈示が終了
    すると、修正値計算の指示信号の有無から、該指示信号
    が無の場合に上記(b)に戻り、有の場合には、、該荷
    重変更値を平均化した荷重修正値を求め、該荷重修正値
    と上記荷重値との和の値を上記中間層と出力層にある全
    ニューロ素子に設定し、(f)上記(b)から(e)ま
    での処理手順を処理終了信号が受信されるまで繰り返す
    ことを特徴とする神経回路の学習方法。
JP63313505A 1988-12-12 1988-12-12 神経回路の学習装置および学習方法 Expired - Fee Related JP2639028B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63313505A JP2639028B2 (ja) 1988-12-12 1988-12-12 神経回路の学習装置および学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63313505A JP2639028B2 (ja) 1988-12-12 1988-12-12 神経回路の学習装置および学習方法

Publications (2)

Publication Number Publication Date
JPH02158860A JPH02158860A (ja) 1990-06-19
JP2639028B2 true JP2639028B2 (ja) 1997-08-06

Family

ID=18042118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63313505A Expired - Fee Related JP2639028B2 (ja) 1988-12-12 1988-12-12 神経回路の学習装置および学習方法

Country Status (1)

Country Link
JP (1) JP2639028B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941032B2 (ja) * 1990-09-27 1999-08-25 豊田工機株式会社 加工条件自動作成機能を有する数値制御装置
JP2941030B2 (ja) * 1990-09-27 1999-08-25 豊田工機株式会社 加工条件自動修正装置

Also Published As

Publication number Publication date
JPH02158860A (ja) 1990-06-19

Similar Documents

Publication Publication Date Title
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
KR102492318B1 (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
US20160283842A1 (en) Neural network and method of neural network training
JPH0738186B2 (ja) 自己拡張形ニユーラル・ネットワーク
JP2001236337A (ja) ニューラルネットワークによる予測装置
US11977972B2 (en) Residual semi-recurrent neural networks
CN109886343A (zh) 图像分类方法及装置、设备、存储介质
CN106897388A (zh) 预测微博事件热度的方法及装置
JP2639028B2 (ja) 神経回路の学習装置および学習方法
JPH0991263A (ja) ニューラルネットワーク構造最適化装置ならびに方法
CN115861625A (zh) 一种处理噪声标签的自标签修改方法
JP2000507376A (ja) コンピュータを用いてニューラルネットワークから除くべき重みを求める方法
CN112926738A (zh) 一种神经网络自适应输出层的设计方法、设备及存储介质
JP2779119B2 (ja) 学習認識装置
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
JP2680419B2 (ja) 文字認識装置
JP4586420B2 (ja) 多層ニューラルネットワーク学習装置及びソフトウェア
JP3262340B2 (ja) 情報処理装置
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JP2932496B2 (ja) パターン認識装置および標準パターン作成装置
CN115860085A (zh) 一种模块感知的辅助学习优化方法及计算机产品
CN116306942A (zh) 语言处理模型的推理处理方法、装置及电子设备
JPH08202674A (ja) ニューラルネットワークの学習装置及び学習方法
CN116090885A (zh) 可解释用户知识点掌握度评估方法、装置和电子设备
JP2023080908A (ja) 情報処理装置および情報処理装置の制御方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees