JP3027874B2 - 神経回路網及びそのパターン認識装置 - Google Patents

神経回路網及びそのパターン認識装置

Info

Publication number
JP3027874B2
JP3027874B2 JP4003439A JP343992A JP3027874B2 JP 3027874 B2 JP3027874 B2 JP 3027874B2 JP 4003439 A JP4003439 A JP 4003439A JP 343992 A JP343992 A JP 343992A JP 3027874 B2 JP3027874 B2 JP 3027874B2
Authority
JP
Japan
Prior art keywords
neuron
output
value
input
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4003439A
Other languages
English (en)
Other versions
JPH05257917A (ja
Inventor
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP4003439A priority Critical patent/JP3027874B2/ja
Publication of JPH05257917A publication Critical patent/JPH05257917A/ja
Application granted granted Critical
Publication of JP3027874B2 publication Critical patent/JP3027874B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は神経回路網を用いたパタ
ーン認識装置に関する。
【0002】
【従来の技術】従来、この種の神経回路網を用いたパタ
ーン認識装置には、多層のフィードフォワード型神経回
路網が用いられ、認識に必要な認識辞書は学習により自
己組織的に作成され、認識時の追記学習及び内部構造の
変化は考慮されていない。
【0003】図10は3層のフィードフォワード型神経
回路網の一モデルを示す図である。
【0004】図10において、入力層201に入力され
た入力パターンは中間層202及び出力層203で演算
され、認識結果を出力する。各層に丸で示したのはニュ
ーロンと呼ばれるモデル化された神経細胞であり、ニュ
ーロン間の結合を実線で示してある。入力層201の各
ニューロンn11,n12,n13は、一般に入力パターンを
保存するメモリの役割を果たし、入力パターンと同じ値
を出力する。中間層202及び出力層203の各ニュー
ロンn21,n22,n23,n31,n32,n33は入力パター
ンに近い側の層の各ニューロンn11,n12,n13から入
力を受け、次式で表わされる計算計画を出力する。 u=W・X−h (1) z=f(u) ここで、Wは荷重ベクトルと呼ばれ、その成分wi はシ
ナプス荷重の値を表わす。Xは入力ベクトルと呼ばれ、
その成分xi は他のニューロンからの入力値を表わす。
zはニューロンの出力値である。hはしきい値と呼ば
れ、uは膜電位と呼ばれる。f(u)は出力関数と呼ば
れ、一般に次式で示すシグモイド関数が用いられる。
【0005】 f(u)=1/(1+exp(−u)) (2) ある入力パターンについて望ましい出力になるように、
各層のユニットの重み値及びしきい値を調整することを
学習と呼び、通常は誤差逆伝播学習法(D.E.Rum
elhart,G.E.Hinton and R.
J.Williams:Learning inter
nal representationsby err
or propagation,Parallel D
istributed Processing,Vo
l.1,J.L.McClelland,D.E.Ru
melhart and The PDP Resea
rch Group,MIT Press,198
6.)が用いられる。
【0006】この学習法は、学習パターンを入力層20
1に入力し、(1)式で示した計算の結果得られた出力
層203からの出力と、望ましい出力である教師信号と
の二乗誤差が、与えた学習パターン全てに対して最小に
なるように荷重値及びしきい値を変更する。
【0007】出力値203の荷重値及びしきい値は次式
に従って変更される。
【0008】 δ(3) j =o(3) j (1−o(3) j )(yj −o(3) j ) (3) w(3) ij=w(3) ij+ηδ(3) j (2) (4) h(3) j =h(3) j +ηδ(3) (5) ここで、o(3) j 、h(3) j は出力層203のj番目の
ニューロンの出力値及びしきい値、yj は出力層203
のj番目のニューロンに対する教師信号、o(2) i は中
間層202のi番目のニューロンの出力値、w(3) ij
中間層202のi番目のニューロンと出力層203のj
番目のニューロンの間の荷重値である。
【0009】中間層202の荷重値及びしきい値は次式
に従って変更される。
【0010】
【0011】ここで、o(2) j 、h(2) j は中間層20
2のj番目のニューロンの出力値及びしきい値、o(1)
i は入力層201のi番目のニューロンの出力値、w
(2) ijは入力層201のi番目のニューロンと中間層2
02のj番目のニューロンの間の荷重値、Nは出力層2
03に含まれるニューロンの数である。ηは学習係数と
呼ばれ、1より小さい値が用いられる。
【0012】この誤差逆伝播学習法を用いた3層のフィ
ードフォワード型神経回路網による認識率が非常に高い
ことが報告されている[山田、上、溝口、天満:“ニュ
ーラルネットを用いた文字認識”,信学技報,PRU8
8−58,78−86(1988)]。
【0013】
【発明が解決しようとする課題】高精度のパターン認識
装置を実現するためには、学習によって作成された認識
辞書の認識性能を落とさずに誤認識した入力データを正
しく認識するようにする追記学習と呼ばれる方法が重要
であるが、上述した従来の神経回路網を用いたパターン
認識装置では、追記学習が困難であるという問題点があ
る。具体的な例をあげると、1)既に学習を行なった従
来の神経回路網を利用したパターン認識装置に新たな入
力データを学習させると、新しいデータのみに学習辞書
が適応し、過去に学習したデータに対する性能を保持で
きない:2)認識性能を落とさずに追記学習をするに
は、これまで学習に用いた全ての入力データと誤認識し
た入力データを全て用いて神経回路網全体を再学習しな
ければならない。従って過去の学習で作成した認識辞書
を継承できない:3)神経回路網の一回の学習は、学習
させたい全ての入力データを何回も入力して学習が収束
するまで行なうため、非常に長い時間がかかる。入力デ
ータを覚えさせる度にこの学習過程を繰り返すことは、
膨大な計算量と計算時間を必要とする:4)通常用いら
れる神経回路網はニューロン数が一定のため、追記する
入力パターン数が多くなると、誤差逆伝播学習で用いら
れる教師信号と出力値との2乗誤差が十分小さくなら
ず、学習が収束しなくなる可能性がある。手書文字認識
など個人に依存するようなパターン認識においては、そ
の個人専用の認識辞書が不可欠であるが、従来の神経回
路網を利用したパターン認識装置では、以上の理由から
個人辞書を作成することは非常に困難である。
【0014】本発明の目的は、従来の神経回路網を用い
たパターン認識装置の欠点である追記学習が困難という
課題を除去し、認識時に誤認識した入力パターンと特徴
空間におけるその入力パターン近傍のパターン入力に対
して識別面を修正することにより、誤認識したパターン
群を追加辞書として登録し、しかもそれまで作成されて
いる標準辞書を変更することなく認識率を向上させる神
経回路網及びそのパターン認識装置を提供することにあ
る。
【0015】
【課題を解決するための手段】本第1の発明のニューロ
ンは、入力ベクトルXとこの入力ベクトルXのシナプス
結合荷重の値を示す荷重ベクトルWとのベクトル内積か
らこのベクトル内積の出力の大きさを制御するしきい値
hを引いて得られる膜電位の値をシグモイド関数等の単
調増加関数に入力して出力値が得られる積和型のニュー
ロンにおいて、前記ニューロンの出力値が十分1に近い
値となる第1の膜電位の値をUH、前記ニューロンの出
力値が十分0に近い値となる第2の膜電位の値をUL、
ある入力ベクトルXAに対する膜電位の値をUAとする
と、膜電位の値が前記ULとなる任意のベクトルXLに
対する膜電位の値を前記ULに保ちつつ、前記入力ベク
トルXAに対する膜電位の値がUHになるように前記荷
重ベクトルWと前記しきい値hとを変更し、あるいは膜
電位の値が前記UHとなる任意のベクトルXHに対する
膜電位の値をUHに保ちつつ、前記入力ベクトルXAに
対する膜電位の値が前記ULになるように前記荷重ベク
トルWと前記しきい値hとを変更する。
【0016】本第2の発明の神経回路網は、入力ベクト
ルXとこの入力ベクトルXのシナプス結合荷重の値を示
す荷重ベクトルWとのベクトル内積からこのベクトル内
積の出力の大きさを制御するしきい値hを引いて得られ
る膜電位の値をシグモイド関数等の単調増加関数に入力
して出力値が得られる積和型の第1のニューロンと、あ
る入力ベクトルXAを中心とするある半径内の出力値が
1、それ以外の出力値が0となる局所型の第2のニュー
ロンとを有し、前記入力ベクトルXに対して前記第2の
ニューロンの出力値が0の場合前記第1のニューロンは
前記荷重ベクトルWと前記しきい値hを用いて求められ
る膜電位に対する出力を行い、前記入力ベクトルXに対
して前記第2のニューロンの出力値が1の場合前記第1
のニューロンは請求項1記載の方法によって変更された
荷重ベクトルW’としきい値h’とを用いて求められる
膜電位に対する出力を行う。
【0017】本第3の発明の神経回路網を用いたパター
ン認識装置は、入力層記憶部と、この入力層記憶部の出
力を用いて計算を行う積和型のニューロンを含む中間層
計算部と、この中間層計算部の出力を用いて計算を行う
局所型のニューロンを含む追加ニューロン計算部と、前
記中間層計算部の出力を入力ベクトルとし請求項2記載
の方法により前記追加ニューロン計算部の出力に応じて
荷重ベクトルとしきい値とが変化する前記積和型のニュ
ーロンを含む出力層計算部と、前記追加ニューロン計算
部へ新しいニューロンを追加する追加ニューロン制御部
とから成り、ある入力ベクトルに対して前記出力層計算
部のある積和型第1のニューロンの出力値を上げる場合
には、前記追加ニューロン計算部に既に追加されている
ニューロンのうち前記第1のニューロンの膜電位を下げ
る作用をする前記局所型のニューロンの半径を小さくす
るとともに、所望の出力が前記第1のニューロンから得
られない場合は第1の新たな局所型のニューロンを前記
第1のニューロンの膜電位が上がるように前記追加ニュ
ーロン計算部に追加し、また、ある入力ベクトルに対し
て前記出力層計算部のある積和型第2のニューロンの出
力値を下げる場合には、前記追加ニューロン計算部に既
に追加されているニューロンのうち前記第2のニューロ
ンの膜電位を上げる作用をする前記局所型のニューロン
の半径を小さくするとともに、所望の出力が前記第2の
ニューロンから得られない場合は第2の新たな局所型の
ニューロンを前記第2のニューロンの膜電位が下がるよ
うに前記追加ニューロン計算部に追加する。
【0018】本第4の発明の神経回路網を用いたパター
ン認識装置は、入力層記憶部と、この入力層計算部の出
力を用いて計算を行う局所型のニューロンを含む追加ニ
ューロン計算部と、前記入力層計算部の出力を入力ベク
トルとし請求項2記載の方法により前記追加ニューロン
計算部の出力に応じて荷重ベクトルとしきい値とが変化
する積和型のニューロンを含む中間層計算部と、この中
間層計算部の出力を用いて計算を行う前記積和型のニュ
ーロンを含む出力層計算部と、前記追加ニューロン計算
部へ新しいニューロンを追加する追加ニューロン制御部
とから成り、ある入力ベクトルに対して前記出力層計算
部のある積和型の第1のニューロンの出力値を上げる場
合には、前記追加ニューロン計算部に既に追加されてい
るニューロンのうち前記第1のニューロンの膜電位を下
げる作用をする前記局所型のニューロンの半径を小さく
するとともに、所望の出力が前記第1のニューロンから
得られない場合は第1の新たな局所型ニューロンを前記
第1のニューロンの膜電位が上がるように前記追加ニュ
ーロン計算部に追加し、また、ある入力ベクトルに対し
て前記出力層計算部のある積和型の第2のニューロンの
出力値を下げる場合には、前記追加ニューロン計算部に
既に追加されているニューロンのうち前記第2のニュー
ロンの膜電位を上げる作用をする局所型のニューロンの
半径を小さくするとともに、所望の出力が前記第2のニ
ューロンから得られない場合は第2の新たな局所型ニュ
ーロンを前記第2のニューロンの膜電位が下がるように
前記追加ニューロン計算部に追加する。
【0019】
【作用】本第1の発明の作用について記す。
【0020】簡単のため、まず入力が1次元の場合につ
いて説明する。ニューロンの出力関数は次式で与えられ
る。
【0021】 z=f(wx−h) (9) ここで、fは(2)式で表わされるシグモイド関数であ
る。図6は横軸を入力値x、縦軸を出力値zとした場合
のニューロンの出力関数を示す図である。
【0022】図6において、ニューロンの出力関数30
3は入力学習データ301を教師信号0、入力学習デー
タ302を教師信号1とした場合の従来の学習で得られ
た出力関数を示す。未学習の入力データxA に対する出
力値が十分1に近くなるように、出力関数304の形を
変更することを考える。出力値が十分1に近い値となる
膜電位をuH 、十分0に近い値となる膜電位をuL 、そ
れぞれに対する入力値をxH 、xL とし、入力値xA
対する膜電位をuA とすると、次の関係がある。
【0023】 uH =wxH −h (10) uL =wxL −h (11) uA =wxA −h (12) 変更後の荷重値、しきい値をそれぞれw’、h’とし、
入力値x A における膜電位がu H 、入力値x L における
膜電位がu L になるための条件は、 uH =w’x A −h’ (13) uL =w’xL −h’ (14) である。この連立方程式を解くと、 w’=w(uH −uL )/(uA −uL ) (15) h’=(uHL −uAL +h(uH −uL ))/(uA −uL )(16) が得られる。このw’、h’を用いれば、入力値xに対
する出力関数304が得られる。
【0024】入力データxA に対する出力値が十分0に
近い値になるように、ニューロンの出力関数305の形
を変更したい場合も同様に求めることができ、 w′=w(uL −uH )/(uA −uH) (17) h′=(uL H −uA H +h(uL −uH ))/(uA −uH )(18) となる。
【0025】n次元の入力ベクトルの場合でも同様に考
えることができ、入力ベクトルXに対する出力値を十分
1に近い値にするためには、荷重ベクトル、しきい値を
次のように変更する。
【0026】 W′=W(uH −uL )/(uA −uL) (19) h′=(uH L −uA L +h(uH −uL ))/(uA −uL )(20) 入力ベクトルXに対する出力値を十分0に近い値にする
ためには、荷重ベクトル、しきい値を次のように変更す
る。
【0027】 W′=W(uL −uH )/(uA −uH) (21) h′=(uL H −uA H +h(uL −uH ))/(uA −uH )(22) このように、変更前の荷重値及びしきい値を用いて得ら
れた膜電位を用い、変更後の荷重値及びしきい値を設定
することで、過去の学習データを必要とせずにニューロ
ンが構成する識別面を修正できる。
【0028】ここでは通常の神経回路網に用いられるシ
グモイド関数を用いたが、任意の単調増加関数を出力関
数に用いた場合でも同様である。以後、入力ベクトルに
対する出力値を十分1に近い値にすることを「興奮性の
作用」と呼び、十分0に近い値にすることを「抑制性の
作用」と呼ぶことにする。
【0029】本第2の発明の作用について説明する。
【0030】簡単のため、まず入力が(x1 ,x2 )な
る2次元の場合について説明する。この場合のニューロ
ンの出力値は、 z=f(w1 1 +w2 2 −h) (23) となる。
【0031】図7は横軸をx1 、縦軸をx2 とした場合
のニューロンの出力値を示す図である。
【0032】図7において、出力値直線401は出力値
z=0.5を表わし、出力値直線401より上方が出力
値zが0.5より小さくなる領域、出力値直線401よ
り下方が出力値zが0.5より大きくなる領域を表わす
とする。出力値直線401は入力ベクトル空間を出力値
zが0.5より大きい領域と小さい領域に分けることか
ら、このニューロンが作る識別面と呼ぶ。入力データ4
02があったとすると、この入力データ402に対する
出力値zは0.5より小さい値となる。「興奮性の作
用」に従って入力データ402に対する出力値を十分1
に近い値にすると、識別面を表わす直線出力値直線40
3になる。
【0033】ここで、次のように出力関数を持つ局所発
火型ニューロンを導入する。 z=1[h−|X−XA |] (24) Xは(x1 ,x2 )で表わされる入力ベクトル、XA
入力データ402を表わす。このニューロンの出力値は
XとXA との距離がhより小さい場合は1、hより大き
い場合は0となる。出力値が0あるいは1になる境界を
局所発火型ニューロンの発火領域404に示す。この局
所発火型ニューロンの発火領域404は、XA を中心と
する半径hの円内となる。
【0034】識別面401を表わすニューロンの荷重ベ
クトルW、しきい値h及び本第1の発明の計算方式に従
う変更後の荷重ベクトルW′、しきい値h′と局所発火
型ニューロンの出力値zを用いて、荷縦ベクトルW″、
しきい値h″を W″=W′z+(1−z)W (25) h″=h′z+(1−z)h (26) とすると、局所発火型ニューロンの発火領域404内で
は識別面が出力値直線403となり、それ以外の領域で
は出力値直線401となる。つまり、新たな入力データ
とその近傍の入力に対してのみ識別面を修正することが
可能になる。
【0035】入力データ405に対する出力値を十分0
に近くする場合も同様に議論できる。この入力に対する
出力値zは0.5より大きい値となる。「抑制性の作
用」に従って入力データ405に対する出力値を十分0
に近い値にすると、識別面は出力値直線403になる。
ここで、(24)式で示す出力関数を持つ局所発火型ニ
ューロンを導入すると、このニューロンの出力値はxと
A の距離がhより小さい場合は1、hより大きい場合
は0となる。出力値が0あるいは1になる境界を局所発
火型ニューロンの発火領域407に示す。局所発火型ニ
ューロンの出力値zを用いて、荷重ベクトルW″、しき
い値h″を(25),(26)式に従って設定すると、
局所発火型ニューロンの発火領域407内では識別面が
出力値直線406となり、それ以外の領域では出力値直
線401となる。つまり、新たな入力データとその近傍
の入力に対してのみ識別面を修正することが可能にな
る。
【0036】これまで、入力ベクトルを2次元として説
明してきたが、n次元への拡張は容易である。また、局
所発火型ニューロンの出力関数に階段関数を用いたが、
シグモイド関数を用いて z=f(h−|X−XA |) (27) としても同様である。このzを用いて(25),(2
6)式に従えば、階段関数を用いた場合に比べ、局所発
火型ニューロンの発火領域近傍でより滑らかな出力関数
を得ることができる。出力関数はこれらに限られること
ではなく、ガウス分布など局所的に出力値が大きくなる
関数であれば同様の議論が成り立つことは容易に類推で
きる。局所発火型のニューロンの入力ベクトル空間にお
ける発火の中心位置を表わすXA のことを、以後、局所
発火型ニューロンの荷重ベクトルと呼ぶことにする。
【0037】本第3の発明の作用について記す。
【0038】図8は本第3の発明の一実施例のパターン
認識装置で用いる神経回路網の一モデルを示す図であ
る。
【0039】図8において、入力層501、中間層50
2、出力層503は従来の3層のフィードフォワード型
神経回路網である。入力層501、中間層502、出力
層503は誤差逆伝播学習則などにより学習が既に終了
しているとする。その後の認識処理において誤認識が生
じた場合、局所発火型ニューロン群504が新たに追加
される。
【0040】入力パターンが誤認識として判断されるの
は、その入力パターンが属すべきカテゴリを表わす出力
層503のニューロン(ニューロンAと呼ぶことにす
る)の出力が小さい場合、あるいはその入力パターンが
属すべきカテゴリ以外を表わす出力層のニューロンの出
力が大きい場合である。従って、出力層503の各ニュ
ーロンについて出力値を上げる手段、下げる手段の2つ
を用意すれば、誤認識となる入力パターンを正しく認識
するように神経回路網の内部状態を変化させることがで
きる。
【0041】次に、本第3の発明の神経回路網を用いた
パターン認識装置の追記学習手順について述べる。
【0042】ニューロンAの出力値を上げるためには、
まず既に追加されている局所発火型ニューロン群504
のうち発火しているものを捜す。そのニューロンがニュ
ーロンAに対して抑制性の作用をしている場合は、その
局所発火型ニューロンの発火領域を小さくして発火しな
いようにする。既に追加されている局所発火型ニューロ
ン群504すべてに対してこの処理を行なってもニュー
ロンAの出力値が上がらない場合、その入力パターンに
対する中間層502の出力ベクトルを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力をニューロン
Aに入力する。これで必ずニューロンAの出力を上げる
ことができる。
【0043】ニューロンAの出力値を下げるためには、
まず既に追加されている局所発火型ニューロン群504
のうち発火しているものを捜す。そのニューロンがニュ
ーロンAに対して興奮性の作用をしている場合は、その
局所発火型ニューロンの発火領域を小さくして発火しな
いようにする。既に追加されている局所発火型ニューロ
ン群504すべてに対してこの処理を行なってもニュー
ロンAの出力値が下がらない場合、その入力パターンに
対する中間層502の出力ベクトルを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力をニューロン
Aに入力する。これで必ずニューロンAの出力を下げる
ことができる。
【0044】以上述べた出力層503のニューロンの出
力値を上げる手順、下げる手順を用いることにより、誤
認識した入力パターンを正しく認識するように神経回路
網の内部状態を容易に変更することができる。ここで
は、説明のために、入力層501、中間層502、出力
層503からなる3層の神経回路網を用いたが、中間層
502を複数有する神経回路網に対しても、以上述べた
作用は有効である。
【0045】本第4の発明の作用について記す。
【0046】図9は本第4の発明の一例のパターン認識
装置で用いる神経回路網の一モデルを示す図である。
【0047】図9において入力層601、中間層60
2、出力層603は従来の3層のフィードフォワード型
神経回路網である。入力層601、中間層602、出力
層603は誤差逆伝播学習則などにより学習が既に終了
しているとする。その後の認識処理において誤認識が生
じた場合、局所発火型ニューロン群604が新たに追加
される。
【0048】入力パターンが誤認識として判断されるの
は、その入力パターンが属すべきカテゴリを表わす出力
層603のニューロン(ニューロンAと呼ぶことにす
る)の出力が小さい場合、あるいはその入力パターンが
属すべきカテゴリ以外を表わす出力層603のニューロ
ンの出力が大きい場合である。従って、出力層603の
各ニューロンについて出力値を上げる手段、下げる手段
の2つの用意すれば、誤認識となる入力パターンを正し
く認識するように神経回路網の内部状態を変化させるこ
とができる。 次に、本第4の神経回路網を用いたパタ
ーン認識装置の追記学習手順について述べる。
【0049】ニューロンAの出力値を上げるためには、
まず既に追加されている局所発火型ニューロン群604
のうち発火しているものを捜す。そのニューロンが興奮
性の作用をしている中間層602のニューロンとニュー
ロンAとの荷重値が負の場合は、その局所発火型ニュー
ロンの発火領域を小さくして発火しないようにする。ま
た発火している局所発火型ニューロンが抑制性の作用を
している中間層602のニューロンとニューロンAとの
荷重値が正の場合は、その局所発火型ニューロンの発火
領域を小さくして発火しないようにする。
【0050】既に追加されている局所発火型ニューロン
群604すべてに対してこの処理を行なってもニューロ
ンAの出力値が上がらない場合、入力パターンを荷重ベ
クトルとし、ニューロンが発火する領域の半径をしきい
値とした局所発火型ニューロンを追加し、その出力を中
間層602のニューロンに入力する。
【0051】追加された局所発火型ニューロンの出力を
中間層602のどのニューロンに入力するかは次のよう
に決められる。
【0052】ニューロンAと中間層602のニューロン
との荷重値を調べ、その絶対値の最も大きい荷重値に対
応する中間層602のニューロンにその局所発火型ニュ
ーロンの出力を入力し、荷重値が正の場合は興奮性の作
用を、荷重値が負の場合は抑制性の作用をさせる。それ
でもニューロンAの出力値が上がらない場合は、ニュー
ロンAとの中間層602のニューロンの荷重値の絶対値
が2番目に大きい中間層602のニューロンに対して同
様の処理を行なう。それでもニューロンAの出力値が上
がらない場合は、3番目のニューロンというようにして
同様の処理を繰り返すことで、必ずニューロンAの出力
を上げるもとができる。
【0053】ニューロンAの出力値を下げるためには、
まず既に追加されている局所発火型ニューロンのうち発
火しているものを捜す。そのニューロンが興奮性の作用
をしている中間層602のニューロンとニューロンAと
の荷重値が正の場合は、その局所発火型ニューロンの発
火領域を小さくして発火しないようにする。また発火し
ている局所発火型ニューロンが抑制性の作用をしている
中間層602のニューロンとニューロンAとの荷重値が
負の場合は、その局所発火型ニューロンの発火領域を小
さくして発火しないようにする。
【0054】既に追加されている局所発火型ニューロン
すべてに対してこの処理を行なってもニューロンAの出
力値が下がらない場合、入力パターンを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力を中間層60
2のニューロンに入力する。追加された局所発火型ニュ
ーロンの出力の中間層602のどのニューロンに入力す
るかは次のように決められる。ニューロンAと中間層6
02のニューロンとの荷重値を調べ、その絶対値の最も
大きい荷重値に対応する中間層のニューロンにその局所
発火型ニューロンの出力を入力し、荷重値が負の場合は
興奮性の作用を、荷重値が正の場合は抑制性の作用をさ
せる。
【0055】それでもニューロンAの出力値が下がらな
い場合は、ニューロンAと中間層602のニューロンの
荷重値の絶対値が2番目に大きい中間層602のニュー
ロンに対して同様の処理を行なう。それでもニューロン
Aの出力値が上がらない場合は、3番目のニューロンと
いうように同様の処理を繰り返すことで、必ずニューロ
ンAの出力を下げることができる。
【0056】以上述べた出力層603のニューロンの出
力値を上げる手順、下げる手順を用いることにより、誤
認識した入力パターンを正しく認識するように神経回路
網の内部状態を容易に変更することができる。ここで
は、説明のために、入力層601、中間層602、出力
層603からなる3層の神経回路網を用いたが、中間層
602を複数有する神経回路網に対しても、以上述べた
作用は有効である。
【0057】
【実施例】次に、本発明について図面を参照して説明す
る。
【0058】まず、本第1の発明について説明する。
【0059】図1は本第1の発明の一実施例を示すブロ
ック図である。
【0060】図1において、入力ベクトルXに対し、膜
電位計算部902において荷重ベクトルWとしきい値h
を用い膜電位uを計算し、出力値計算部903において
前記膜電位に非線形関数を通して出力値を計算する。神
経回路網に用いられる本実施例のニューロンは、入力ベ
クトルXに対する出力値を1に十分近い値にする意味の
誤認識信号を入力した場合に、出力値が0に近い出力値
となる膜電位の値uLと、出力値が1に十分近い出力値
となる膜電位の値uH と、前記膜電位の値uを用い、
(19)式に従う荷重ベクトル計算部906および(2
0)式に従うしきい値計算部907とにより新たな荷重
ベクトルおよびしきい値を計算して膜電位計算部902
内の荷重ベクトルおよびしきい値を変更し、変更後はそ
の新たな荷重ベクトルおよびしきい値を用いて膜電位計
算を行い、入力ベクトルXに対する出力値を0に十分近
い値にする意味の誤認識信号を入力した場合に、出力値
が0に十分近い出力値となる膜電位の値uL と、出力値
が1に十分近い出力値となる膜電位の値uH と、前記膜
電位の値uを用い、(21)式に従う荷重ベクトル計算
部908および(22)式に従うしきい値計算部909
とにより新たな荷重ベクトルおよびしきい値を計算して
膜電位計算部902内の荷重ベクトルおよびしきい値を
変更し、変更後はその新たな荷重ベクトルおよびしきい
値を用いて膜電位計算を行う。
【0061】次に、本第2の発明について説明する。
【0062】図2は本第2の発明の一実施例を示すブロ
ック図である。
【0063】図2において、入力ベクトルXに対し、膜
電位計算部1002において荷重ベクトルWとしきい値
hを用い膜電位uを計算し、出力値計算部1003にお
いて前記膜電位に非線形関数を通して出力値を計算する
ニューロンを有する本実施例の神経回路網は、荷重ベク
トル保存部1013およびしきい値保存部1014に保
存されている、誤認識信号を入力する前の荷重ベクトル
Wおよびしきい値hと、荷重ベクトル保存部1011お
よびしきい値保存部1012に保存されている、誤認識
信号入力後に荷重ベクトル計算部1007あるいは荷重
ベクトル計算部1009によって計算された荷重ベクト
ルW′およびしきい値計算部1008あるいはしきい値
計算部1010によって計算されたしきい値h′と、
(24)式あるいは(27)式に従う局所発火型ニュー
ロンの出力値Zとを用い、(25)式に従う荷重ベクト
ル計算部1015と(26)式に従うしきい値計算部1
016によって計算される新たな荷重ベクトルW″およ
びしきい値h″を用いて膜電位計算部1002において
膜電位を計算する。
【0064】次に、本第3の発明について説明する。
【0065】図3は本第3の発明の一実施例のパターン
認識装置を示すブロック図、図4は本実施例に使用され
るデジタルフィルターの一例を示す図である。
【0066】図3において、入力端子101に入力され
た入力信号は、入力層記憶部102に保存され、中間層
計算部103に入力され、その計算結果は出力層計算部
105に入力される。中間層計算部103のもう一方の
出力は追加ニューロン計算部104に入力される。出力
層計算部105には中間層計算部103の出力と追加ニ
ューロン計算部104の出力が入力され、その計算結果
は出力端子106から出力される。認識結果が誤認識で
あると判断された場合には、誤認識信号が入力端子10
7から入力され、追加ニューロン制御部108に送られ
る。追加ニューロン制御部108は、誤認識信号に従
い、追加ニューロン計算部104の計算に用いられるパ
ラメータを変更し、入力層記憶部102に再認識信号を
入力する。再認識信号を受けた入力層記憶部102は、
記憶されている入力データを中間計算部103に送り、
認識過程が繰り返される。出力層計算部105からの出
力は追加ニューロン制御部108に送られ、認識結果の
判断が行なわれ、正しく認識されるまで追加ニューロン
制御部108による追加ニューロン計算部104の制御
が行なわれる。
【0067】次に、文字認識を例にとり、本実施例の動
作を説明する。
【0068】ここでは説明のために、横9画素、縦11
画素の文字の濃淡画像を入力端子101から入力するこ
とにする。濃淡画像は、黒画素を1、白画素を0とした
文字の二値画像に図4に示すようなデジタルフィルター
を施して得られる。
【0069】入力層記憶部102は、入力層501に対
応している。入力層記憶部102に含まれるニューロン
数は99個であり、上で述べた99次元の特徴量ベクト
ルのそれぞれの成分の値がメモリ保存される。中間層計
算部103は、中間層502に対応する。中間層502
に含まれるニューロン数をNmid とすると、ニューロン
1つに対して、入力層501との結合の荷重値を記憶す
るNin個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nmid ×(Nin+2)個のメモリが用意されて
いる。中間層計算部103の計算は、(1)式及び
(2)式を用いて行なわれる。中間層502に含まれる
ニューロン数Nmid は便宜上40とする。
【0070】追加ニューロン計算部104は、局所発火
型ニューロン群504に対応する。局所発火型ニューロ
ン1つに対して、中間層502との結合の荷重値を記憶
するNmid 個のメモリ、しきい値を記憶する1個のメモ
リ、その計算結果を記憶する1個のメモリの他に、出力
先の出力層ニューロンの番号、変更すべきNmid 個の荷
重値及びしきい値を記憶するメモリが、出力肢1本につ
き必要になる。追加ニューロン数は学習により増加す
る。追加ニューロン計算部の計算は、(24)式を用い
て行なわれるものとする。
【0071】出力層計算部105は、出力層503に対
応する。出力層503に含まれるニューロン数をNout
とすると、ニューロン1つに対して、中間層502との
結合の荷重値を記憶するNmid 個のメモリ、しきい値を
記憶する1個のメモリ、及びその計算結果を記憶する1
個のメモリが必要なので、合計Nout ×(Nmid +2)
個のメモリが用意されている。出力層計算部105の計
算は、追加ニューロン計算部104からの出力を用い
て、(25),(26)式に従って荷重値及びしきい値
を変更したあと、(1)式及び(2)式を用いて行なわ
れる。出力層503に含まれるニューロン数は、識別さ
せたいカテゴリの数によって定まる。例えば、0から9
までの10個の印刷数字を入力文字画像とした場合、識
別させたいカテゴリ数は10個となるので、Nout は1
0個となる。
【0072】中間層計算部103及び出力層計算部10
5における荷重値及びしきい値は、誤差逆伝播学習法に
より既に設定されるものとする。この学習は、追加ニュ
ーロン計算部104には無関係に進められる。
【0073】誤認識が生じた場合、誤認識信号が入力端
子107に入力される。この誤認識信号は、出力端子1
06から出力されるNout 個の信号の組に対して、何番
目の信号値を上げるか、あるいは何番目の信号値を下げ
るかという番号の組である。例えば、印刷数字の認識の
場合はNout が10個であり、1番目の出力信号は数字
の「1」、2番目の出力信号は数字の「2」、…、10
番目の出力信号は数字の「0」を表わすカテゴリである
とすると、「3」のカテゴリに属する入力信号を正しい
出力信号の組は{0,0,1,0,0,0,0,0,
0,0}である。誤認識の出力信号の組{0,1,0,
0,0,0,0,0,0,0}に対しては、{−2,+
3}なる誤認識信号を入力端子107に送ることにな
る。
【0074】誤認識信号を受けた追加ニューロン制御部
108は、本第1,第2の発明の作用で述べた手順によ
り、追加ニューロン計算部104内に存在するしきい値
の変更あるいは、新たなニューロンの追加すなわち1ニ
ューロン分のメモリの確保、及び荷重値、しきい値、結
合先が設定される。その際、追加ニューロン制御部10
8から入力層記憶部102に再認識信号が送られ、入力
層記憶部102に保存されていた入力データは中間層計
算部103へ入力され、その出力は追加ニューロン計算
部104へ入力され、中間層計算部103と追加ニュー
ロン計算部104の出力が出力計算部105へ入力され
る。出力層計算部105の出力が誤認識信号の要求を満
たした段階で、追加ニューロン制御部108は追加ニュ
ーロン計算部104の制御を停止する。
【0075】次に本第4の発明について説明する。
【0076】図5は本第4の発明の一実施例を示すブロ
ック図である。
【0077】図5において、入力端子801に入力され
た入力信号は、入力層記憶部802に保存され、中間層
計算部803に入力され、その計算結果は出力層計算部
805に入力される。入力層記憶部802のもう一方の
出力は追加ニューロン計算部804に入力される。中間
層計算部803には入力層計算部802の出力と追加ニ
ューロン計算部804の出力が入力され、その出力は出
力層計算部805に入力され、その計算結果は出力端子
806から出力される。認識結果が誤認識であると判断
された場合には、誤認識信号が入力端子807から入力
され、追加ニューロン制御部808に送られる。追加ニ
ューロン制御部808は、誤認識信号に従い、追加ニュ
ーロン計算部804の計算に用いられるパラメータを変
更し、入力層記憶部802に再認識信号を入力する。再
認識信号を受けた入力層記憶部802は、記憶されてい
る入力データを中間層計算部803及び追加ニューロン
計算部804に送り、認識過程が繰り返される。出力層
計算部805からの出力は追加ニューロン制御部808
に送られ、認識結果の判断が行なわれ、正しく認識され
るまで追加ニューロン制御部808による追加ニューロ
ン計算部804の制御が行なわれる。
【0078】次に、文字認識を例にとり、本実施例の動
作を図9に示す図面と対応づけて説明する。
【0079】図3に示す第3の発明の一実施例と同様に
文字の濃淡画像を入力端子801に入力することにす
る。
【0080】入力層記憶部802は、入力層601に対
応している。入力層記憶部802に含まれるニューロン
数は99個であり、上で述べた99次元の特徴量ベクト
ルのそれぞれの成分の値がメモリ保存される。中間層計
算部803は、中間層602に対応する。中間層602
に含まれるニューロン数をNmid とすると、ニューロン
1つに対して、入力層601との結合の荷重値を記憶す
るNin個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nmid ×(Nin+2)個のメモリが用意されて
いる。中間層602に含まれるニューロン数Nmid は便
宜上40とする。中間層計算部803の計算は、追加ニ
ューロン計算部804からの出力を用いて、(25),
(26)式に従って荷重値及びしきい値を変更したあ
と、(1)式及び(2)式を用いて行なわれる。
【0081】追加ニューロン計算部804は、局所発火
型ニューロン群604に対応する。局所発火型ニューロ
ン1つに対して、入力層601との結合の荷重値を記憶
するNin個のメモリ、しきい値を記憶する1個のメモ
リ、その計算結果を記憶する1個のメモリの他に、出力
先の中間層ニューロンの番号、変更すべきNin個の荷重
値及びしきい値を記憶するメモリが、出力肢1本につき
必要になる。追加ニューロン数は学習により増加する。
追加ニューロン計算部804の計算は、(24)式を用
いて行なわれるものとする。
【0082】出力層計算部805は、出力層603に対
応する。出力層603に含まれるニューロン数をNout
とすると、ニューロン1つに対して、中間層602との
結合の荷重値を記憶するNmid 個のメモリ、しきい値を
記憶する1個のメモリ、及びその計算結果を記憶する1
個のメモリが必要なので、合計Nout ×(Nmid +2)
個のメモリが用意されている。出力層計算部805の計
算は、(1)式及び(2)式を用いて行なわれる。出力
層603に含まれるニューロン数は、識別させたいカテ
ゴリの数によって定まる。
【0083】中間層計算部803及び出力層計算部80
5における荷重値及びしきい値は、誤差逆伝播学習法に
より既に設定されるものとする。この学習は、追加ニュ
ーロン計算部804には無関係に進められる。
【0084】誤認識が生じた場合、誤認識信号が入力端
子807に入力される。この誤認識信号は、第3の発明
の一実施例と同様に、出力端子806から出力されるN
out個の信号の組に対して、何番目の信号値を上げる
か、あるいは何番目の信号値を下げるかという番号の組
である。誤認識識信号を受けた追加ニューロン制御部8
08は、出力層計算部805の荷重値を参照し、第1及
び2の発明の作用で述べた手順により、追加ニューロン
計算部804内に存在するしきい値の変更あるいは、新
たなニューロンの追加すなわち1ニューロン分のメモリ
の確保、及び荷重値、しきい値、結合先が設定される。
その際、追加ニューロン制御部808から入力層記憶部
802に再認識信号が送られ、入力層記憶部802に保
存されていた入力データは中間層計算部803及び追加
ニューロン計算部804へ入力され、それらの出力は中
間層計算部803へ入力さ、出力層計算部805へ入力
される。出力層計算部805の出力が誤認識信号の要求
を満たした段階で、追加ニューロン制御部808は追加
ニューロン計算部804の制御を停止する。
【0085】以上、本第3,4の発明のパターン認識装
置の一実施例について述べた。従来の神経回路網として
3層のフィードフォワード型のニューラルネットを用い
たが、より多段のニューラルネットを用いたものでも、
他の学習モデルを用いたものでも、本第3,4の発明に
よる追記学習方法は有効である。また、濃淡特徴以外の
特徴量を入力データとして用いても、当然本第3,4の
発明は有効である。
【0086】
【発明の効果】以上説明したように本第1の発明は、
力ベクトルXとこの入力ベクトルXのシナプス結合荷重
の値を示す荷重ベクトルWとのベクトル内積からこのベ
クトル内積の出力の大きさを制御するしきい値hを引い
て得られる膜電位の値をシグモイド関数等の単調増加関
数に入力して出力値が得られる積和型のニューロンにお
いて、ニューロンの出力値が十分1に近い値となる第1
の膜電位の値をUH、ニューロンの出力値が十分0に近
い値となる第2の膜電位の値をUL、ある入力ベクトル
XAに対する膜電位の値をUAとすると、膜電位の値が
ULとなる任意のベクトルXLに対する膜電位の値をU
Lに保ちつつ、入力ベクトルXAに対する膜電位の値が
UHになるように荷重ベクトルWとしきい値hとを変更
し、あるいは膜電位の値がUHとなる任意のベクトルX
Hに対する膜電位の値をUHに保ちつつ、入力ベクトル
XAに対する膜電位の値がULになるように荷重ベクト
ルWとしきい値hとを変更することにより、変更前の荷
重ベクトルとしきい値を求めるために用いた入力に対す
る出力値を変えることなく新たな入力に対する出力を変
更することができる効果を有する。
【0087】又、本第2の発明は、入力ベクトルXとこ
の入力ベクトルXのシナプス結合荷重の値を示す荷重ベ
クトルWとのベクトル内積からこのベクトル内積の出力
の大きさを制御するしきい値hを引いて得られる膜電位
の値をシグモイド関数等の単調増加関数に入力して出力
値が得られる積和型の第1のニューロンと、ある入力ベ
クトルXAを中心とするある半径内の出力値が1、それ
以外の出力値が0となる局所型の第2のニューロンとを
有し、入力ベクトルXに対して第2のニューロンの出力
値が0の場合第1のニューロンは荷重ベクトルWとしき
い値hを用いて求められる膜電位に対する出力を行い、
入力ベクトルXに対して第2のニューロンの出力値が1
の場合第1のニューロンは請求項1記載の方法によって
変更された荷重ベクトルW’としきい値h’とを用いて
求められる膜電位に対する出力を行うことにより、入力
空間における局所的領域のみにおいて、第1の発明の効
果を作用することができ、誤認識が生じた場合の追記学
習を容易に行うことができる効果を有する。
【0088】更に、本第3の発明は、入力層記憶部と、
この入力層記憶部の出力を用いて計算を行う積和型のニ
ューロンを含む中間層計算部と、この中間層計算部の出
力を用いて計算を行う局所型のニューロンを含む追加ニ
ューロン計算部と、中間層計算部の出力を入力ベクトル
とし請求項2記載の方法により追加ニューロン計算部の
出力に応じて荷重ベクトルとしきい値とが変化する積和
型のニューロンを含む出力層計算部と、追加ニューロン
計算部へ新しいニューロンを追加する追加ニューロン制
御部とから成り、ある入力ベクトルに対して出力層計算
部のある積和型第1のニューロンの出力値を上げる場合
には、追加ニューロン計算部に既に追加されているニュ
ーロンのうち第1のニューロンの膜電位を下げる作用を
する局所型のニューロンの半径を小さくするとともに、
所望の出力が第1のニューロンから得られない場合は第
1の新たな局所型のニューロンを第1のニューロンの膜
電位が上がるように追加ニューロン計算部に追加し、ま
た、ある入力ベクトルに対して出力層計算部のある積和
型第2のニューロンの出力値を下げる場合には、追加ニ
ューロン計算部に既に追加されているニューロンのうち
第2のニューロンの膜電位を上げる作用をする局所型の
ニューロンの半径を小さくするとともに、所望の出力が
第2のニューロンから得られない場合は第2の新たな局
所型のニューロンを第2のニューロンの膜電位が下がる
ように追加ニューロン計算部に追加することにより、
本第4の発明は、入力層記憶部と、この入力層計算部の
出力を用いて計算を行う局所型のニューロンを含む追加
ニューロン計算部と、入力層計算部の出力を入力ベクト
ルとし請求項2記載の方法により追加ニューロン計算部
の出力に応じて荷重ベクトルとしきい値とが変化する積
和型のニューロンを含む中間層計算部と、この中間層計
算部の出力を用いて計算を行う積和型のニューロンを含
む出力層計算部と、追加ニューロン計算部へ新しいニュ
ーロンを追加する追加ニューロン制御部とから成り、あ
る入力ベクトルに対して出力層計算部のある積和型の第
1のニューロンの出力値を上げる場合には、追加ニュー
ロン計算部に既に追加されているニューロンのうち第1
のニューロンの膜電位を下げる作用をする局所型のニュ
ーロンの半径を小さくするとともに、所望の出力が第1
のニューロンから得られない場合は第1の新たな局所型
ニューロンを第1のニューロ ンの膜電位が上がるように
追加ニューロン計算部に追加し、また、ある入力ベクト
ルに対して出力層計算部のある積和型の第2のニューロ
ンの出力値を下げる場合には、追加ニューロン計算部に
既に追加されているニューロンのうち第2のニューロン
の膜電位を上げる作用をする局所型のニューロンの半径
を小さくするとともに、所望の出力が第2のニューロン
から得られない場合は第2の新たな局所型ニューロンを
第2のニューロンの膜電位が下がるように追加ニューロ
ン計算部に追加することにより、誤認識するパターンの
追記学習が容易に行え、以後正しく認識することができ
るようにすることができる効果がある。例えば個人に依
存するような手書文字認識においては、個人の癖などが
追加ニューロン群として登録することができ、全体とし
て認識率を向上させることができる効果がある。さらに
本第3,4の発明によれば、手書文字認識のみならず異
なるフォントの印刷文字認識についても有効であり、文
字認識に限らず一般のパターンについても適用すること
ができる効果がある。
【図面の簡単な説明】
【図1】本第1の発明の一実施例を示すブロック図であ
る。
【図2】本第2の発明の一実施例を示すブロック図であ
る。
【図3】本第3の発明の一実施例を示すブロック図であ
る。
【図4】本第3の発明の一実施例に使用されるデジタル
フィルターの一例を示す図である。
【図5】本第4の発明の一実施例を示すブロック図であ
る。
【図6】ニューロンの出力関数の一例を示す図である。
【図7】入力が2次元の場合のニューロンの出力値を示
す図である。
【図8】本第3の発明の一実施例のパターン認識装置で
用いられる神経回路網の一モデルを示す図である。
【図9】本第4の発明の一実施例のパターン認識装置で
用いられる神経回路網の一モデルを示す図である。
【図10】3層のフィードフォワード型神経回路網の一
モデルを示す図である。
【符号の説明】
101 入力端子 102 入力層記憶部 103 中間層計算部 104 追加ニューロン計算部 105 出力層計算部 106 出力端子 107 入力端子 108 追加ニューロン制御部 201 入力層 202 中間層 203 出力層 301 入力学習データ 302 入力学習データ 303 変更前のニューロンの出力関数 304 「興奮性の作用」後のニューロンの出力関数 305 「抑制性の作用」後のニューロンの出力関数 401 変更前のニューロンの出力値直線 402 入力データ 403 「興奮制の作用」後のニューロンの出力値直
線 404 局所発火型ニューロンの発火領域 405 入力データ 406 「抑制性の作用」後のニューロンの出力値直
線 407 局所発火型ニューロンの発火領域 501 入力層 502 中間層 503 出力層 504 局所発火型ニューロン群 601 入力層 602 中間層 603 出力層 604 局所発火型ニューロン群 801 入力端子 802 入力層記憶部 803 中間層計算部 804 追加ニューロン計算部 805 出力層計算部 806 出力端子 807 入力端子 808 追加ニューロン制御部 901 入力端子 902 膜電位計算部 903 出力値計算部 904 出力端子 905 入力端子 906 荷重ベクトル計算部 907 しきい値計算部 908 荷重ベクトル計算部 909 しきい値計算部 1001 入力端子 1002 膜電位計算部 1003 出力値計算部 1004 出力端子 1005 入力端子 1006 入力端子 1007 荷重ベクトル計算部 1008 しきい値計算部 1009 荷重ベクトル計算部 1010 しきい値計算部 1011 荷重ベクトル保存部 1012 しきい値保存部
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06F 15/18 520 G06G 7/60 G06T 7/00 INSPEC(DIALOG) JICSTファイル(JOIS) WPI(DIALOG)

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力ベクトルXとこの入力ベクトルXの
    シナプス結合荷重の値を示す荷重ベクトルWとのベクト
    ル内積からこのベクトル内積の出力の大きさを制御する
    しきい値hを引いて得られる膜電位の値をシグモイド関
    数等の単調増加関数に入力して出力値が得られる積和型
    のニューロンにおいて、前記ニューロンの出力値が十分
    1に近い値となる第1の膜電位の値をUH、前記ニュー
    ロンの出力値が十分0に近い値となる第2の膜電位の値
    をUL、ある入力ベクトルXAに対する膜電位の値をU
    Aとすると、膜電位の値が前記ULとなる任意のベクト
    ルXLに対する膜電位の値を前記ULに保ちつつ、前記
    入力ベクトルXAに対する膜電位の値がUHになるよう
    に前記荷重ベクトルWと前記しきい値hとを変更し、あ
    るいは膜電位の値が前記UHとなる任意のベクトルXH
    に対する膜電位の値をUHに保ちつつ、前記入力ベクト
    ルXAに対する膜電位の値が前記ULになるように前記
    荷重ベクトルWと前記しきい値hとを変更することを特
    徴とするニューロン。
  2. 【請求項2】 入力ベクトルXとこの入力ベクトルXの
    シナプス結合荷重の値を示す荷重ベクトルWとのベクト
    ル内積からこのベクトル内積の出力の大きさを制御する
    しきい値hを引いて得られる膜電位の値をシグモイド関
    数等の単調増加関数に入力して出力値が得られる積和型
    の第1のニューロンと、ある入力ベクトルXAを中心と
    するある半径内の出力値が1、それ以外の出力値が0と
    なる局所型の第2のニューロンとを有し、前記入力ベク
    トルXに対して前記第2のニューロンの出力値が0の場
    合前記第1のニューロンは前記荷重ベクトルWと前記し
    きい値hを用いて求められる膜電位に対する出力を行
    い、前記入力ベクトルXに対して前記第2のニューロン
    の出力値が1の場合前記第1のニューロンは請求項1記
    載の方法によって変更された荷重ベクトルW’としきい
    値h’とを用いて求められる膜電位に対する出力を行う
    ことを特徴とする神経回路網。
  3. 【請求項3】 入力層記憶部と、この入力層記憶部の出
    力を用いて計算を行う積和型のニューロンを含む中間層
    計算部と、この中間層計算部の出力を用いて計算を行う
    局所型のニューロンを含む追加ニューロン計算部と、前
    記中間層計算部の出力を入力ベクトルとし請求項2記載
    の方法により前記追加ニューロン計算部の出力に応じて
    荷重ベクトルとしきい値とが変化する前記積和型のニュ
    ーロンを含む出力層計算部と、前記追加ニューロン計算
    部へ新しいニューロンを追加する追加ニューロン制御部
    とから成り、ある入力ベクトルに対して前記出力層計算
    部のある積和型第1のニューロンの出力値を上げる場合
    には、前記追加ニューロン計算部に既に追加されている
    ニューロンのうち前記第1のニューロンの膜電位を下げ
    る作用をする前記局所型のニューロンの半径を小さくす
    るとともに、所望の出力が前記第1のニューロンから得
    られない場合は第1の新たな局所型のニューロンを前記
    第1のニューロンの膜電位が上がるように前記追加ニュ
    ーロン計算部に追加し、また、ある入力ベクトルに対し
    て前記出力層計算部のある積和型第2のニューロンの出
    力値を下げる場合には、前記追加ニューロン計算部に既
    に追加されているニューロンのうち前記第2のニューロ
    ンの膜電位を上げる作用をする前記局所型のニューロン
    の半径を小さくするとともに、所望の出力が前記第2の
    ニューロンから得られない場合は第2の新たな局所型の
    ニューロンを前記第2のニューロンの膜電位が下がるよ
    うに前記追加ニューロン計算部に追加することを特徴と
    する神経回路網を用いたパターン認識装置。
  4. 【請求項4】 入力層記憶部と、この入力層計算部の出
    力を用いて計算を行う局所型のニューロンを含む追加ニ
    ューロン計算部と、前記入力層計算部の出力を入力ベク
    トルとし請求項2記載の方法により前記追加ニューロン
    計算部の出力に応じて荷重ベクトルとしきい値とが変化
    する積和型のニューロンを含む中間層計算部と、この中
    間層計算部の出力を用いて計算を行う前記積和型のニュ
    ーロンを含む出力層計算部と、前記追加ニューロン計算
    部へ新しいニューロンを追加する追加ニューロン制御部
    とから成り、ある入力ベクトルに対して前記出力層計算
    部のある積和型の第1のニューロンの出力値を上げる場
    合には、前記追加ニューロン計算部に既に追加されてい
    るニューロンのうち前記第1のニューロンの膜電位を下
    げる作用をする前記局所型のニューロンの半径を小さく
    するとともに、所望の出力が前記第1のニューロンから
    得られない場合は第1の新たな局所型ニューロンを前記
    第1のニューロンの膜電位が上がるように前記追加ニュ
    ーロン計算部に追加し、また、ある入力ベクトルに対し
    て前記出力層計算部のある積和型の第2のニューロンの
    出力値を下げる場合には、前記追加ニューロン計算部に
    既に追加されているニューロンのうち前記第2のニュー
    ロンの膜電位を上げる作用をする局所型のニューロンの
    半径を小さくするとともに、所望の出力が前記第2のニ
    ューロンから得られない場合は第2の新たな局所型ニュ
    ーロンを前記第2のニューロンの膜電位が下がるように
    前記追加ニューロン計算部に追加することを特徴とする
    神経回路網を用いたパターン認識装置。
JP4003439A 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置 Expired - Fee Related JP3027874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4003439A JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4003439A JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Publications (2)

Publication Number Publication Date
JPH05257917A JPH05257917A (ja) 1993-10-08
JP3027874B2 true JP3027874B2 (ja) 2000-04-04

Family

ID=11557389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4003439A Expired - Fee Related JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Country Status (1)

Country Link
JP (1) JP3027874B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP6874827B2 (ja) 2017-03-21 2021-05-19 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会全国大会講演論文集VOL.1990,NO.Autumn Pt6 page6.15 1990

Also Published As

Publication number Publication date
JPH05257917A (ja) 1993-10-08

Similar Documents

Publication Publication Date Title
Kurbiel et al. Training of deep neural networks based on distance measures using RMSProp
Tavanaei et al. Multi-layer unsupervised learning in a spiking convolutional neural network
Warner et al. Understanding neural networks as statistical tools
CN108304912B (zh) 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
EP0640935A2 (en) Pattern recognition using a neural network
Chumuang et al. Intelligent handwriting Thai Signature Recognition System based on artificial neuron network
CN111079790A (zh) 一种构建类别中心的图像分类方法
JP2760145B2 (ja) 知識情報処理装置
JP3027874B2 (ja) 神経回路網及びそのパターン認識装置
JPH05101028A (ja) 複数特徴量の統合判定方法
JP2780454B2 (ja) 追記学習型パターン認識装置
Benchaou et al. Neural network for numeral recognition
Patra et al. A novel approach for pattern recognition
US20220156590A1 (en) Artificial intelligence system and artificial neural network learning method thereof
Shalakhmetov et al. Optical character recognition with neural networks
江口脩 et al. Output augmentation: A novel method of data augmentation
JP3085312B2 (ja) 文字認識学習方法、および文字認識装置
Taylor et al. Validation of neural networks via taxonomic evaluation
JPH07113917B2 (ja) ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置
Qumsieh A Supervised Modified Hebbian Learning Method On Feed-forward Neural Networks
JPH02165285A (ja) パターン認識装置
Adele PERCEPTRON-BASED DEEP LEARNING: A LITERATURE REVIEW
Lee Neural Network Applications In Hand-Written Symbol Understanding
JPH08202674A (ja) ニューラルネットワークの学習装置及び学習方法
Takanashi et al. Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991130

LAPS Cancellation because of no payment of annual fees