JPH05257917A - 神経回路網及びそのパターン認識装置 - Google Patents

神経回路網及びそのパターン認識装置

Info

Publication number
JPH05257917A
JPH05257917A JP4003439A JP343992A JPH05257917A JP H05257917 A JPH05257917 A JP H05257917A JP 4003439 A JP4003439 A JP 4003439A JP 343992 A JP343992 A JP 343992A JP H05257917 A JPH05257917 A JP H05257917A
Authority
JP
Japan
Prior art keywords
neuron
output
input
value
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4003439A
Other languages
English (en)
Other versions
JP3027874B2 (ja
Inventor
Atsushi Sato
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP4003439A priority Critical patent/JP3027874B2/ja
Publication of JPH05257917A publication Critical patent/JPH05257917A/ja
Application granted granted Critical
Publication of JP3027874B2 publication Critical patent/JP3027874B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 (修正有) 【目的】誤認識パターンの追記学習とパターン認識率の
向上。 【構成】入力端子101の入力信号は、入力層記憶部1
02〜中間層計算部103〜出力層計算部105〜追加
ニューロン計算部104へと入力される。出力層計算部
105の計算結果は出力端子106から出力される。認
識結果が誤認識と判断された場合、誤認識信号が入力端
子107から入力され、追加ニューロン制御部108に
送られる。追加ニューロン制御部108は、誤認識信号
で、追加ニューロン計算部104のパラメータを変更
し、入力層記憶部102に再認識信号を入力する。再認
識信号で入力層記憶部102は、記憶入力データを中間
層計算部103に送り、認識過程が繰り返される。出力
層計算部105の出力は追加ニューロン制御部108に
送られ、認識結果の判断が正しく認識されるまで追加ニ
ューロン制御部108による追加ニューロン計算部10
4の制御が行なわれる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は神経回路網を用いたパタ
ーン認識装置に関する。
【0002】
【従来の技術】従来、この種の神経回路網を用いたパタ
ーン認識装置には、多層のフィードフォワード型神経回
路網が用いられ、認識に必要な認識辞書は学習により自
己組織的に作成され、認識時の追記学習及び内部構造の
変化は考慮されていない。
【0003】図10は3層のフィードフォワード型神経
回路網の一モデルを示す図である。
【0004】図10において、入力層201に入力され
た入力パターンは中間層202及び出力層203で演算
され、認識結果を出力する。各層に丸で示したのはニュ
ーロンと呼ばれるモデル化された神経細胞であり、ニュ
ーロン間の結合を実線で示してある。入力層201の各
ニューロンn11,n12,n13は、一般に入力パターンを
保存するメモリの役割を果たし、入力パターンと同じ値
を出力する。中間層202及び出力層203の各ニュー
ロンn21,n22,n23,n31,n32,n33は入力パター
ンに近い側の層の各ニューロンn11,n12,n13から入
力を受け、次式で表わされる計算計画を出力する。 u=W・X−h (1) z=f(u) ここで、Wは荷重ベクトルと呼ばれ、その成分wi はシ
ナプス荷重の値を表わす。Xは入力ベクトルと呼ばれ、
その成分xi は他のニューロンからの入力値を表わす。
zはニューロンの出力値である。hはしきい値と呼ば
れ、uは膜電位と呼ばれる。f(u)は出力関数と呼ば
れ、一般に次式で示すシグモイド関数が用いられる。
【0005】 f(u)=1/(1+exp(−u)) (2) ある入力パターンについて望ましい出力になるように、
各層のユニットの重み値及びしきい値を調整することを
学習と呼び、通常は誤差逆伝播学習法(D.E.Rum
elhart,G.E.Hinton and R.
J.Williams:Learning inter
nal representationsby err
or propagation,Parallel D
istributed Processing,Vo
l.1,J.L.McClelland,D.E.Ru
melhart and The PDP Resea
rch Group,MIT Press,198
6.)が用いられる。
【0006】この学習法は、学習パターンを入力層20
1に入力し、(1)式で示した計算の結果得られた出力
層203からの出力と、望ましい出力である教師信号と
の二乗誤差が、与えた学習パターン全てに対して最小に
なるように荷重値及びしきい値を変更する。
【0007】出力値203の荷重値及びしきい値は次式
に従って変更される。
【0008】 δ(3) j =o(3) j (1−o(3) j )(yj −o(3) j ) (3) w(3) ij=w(3) ij+ηδ(3) j (2) (4) h(3) j =h(3) j +ηδ(3) (5) ここで、o(3) j 、h(3) j は出力層203のj番目の
ニューロンの出力値及びしきい値、yj は出力層203
のj番目のニューロンに対する教師信号、o(2) i は中
間層202のi番目のニューロンの出力値、w(3) ij
中間層202のi番目のニューロンと出力層203のj
番目のニューロンの間の荷重値である。
【0009】中間層202の荷重値及びしきい値は次式
に従って変更される。
【0010】
【0011】ここで、o(2) j 、h(2) j は中間層20
2のj番目のニューロンの出力値及びしきい値、o(1)
i は入力層201のi番目のニューロンの出力値、w
(2) ijは入力層201のi番目のニューロンと中間層2
02のj番目のニューロンの間の荷重値、Nは出力層2
03に含まれるニューロンの数である。ηは学習係数と
呼ばれ、1より小さい値が用いられる。
【0012】この誤差逆伝播学習法を用いた3層のフィ
ードフォワード型神経回路網による認識率が非常に高い
ことが報告されている[山田、上、溝口、天満:“ニュ
ーラルネットを用いた文字認識”,信学技報,PRU8
8−58,78−86(1988)]。
【0013】
【発明が解決しようとする課題】高精度のパターン認識
装置を実現するためには、学習によって作成された認識
辞書の認識性能を落とさずに誤認識した入力データを正
しく認識するようにする追記学習と呼ばれる方法が重要
であるが、上述した従来の神経回路網を用いたパターン
認識装置では、追記学習が困難であるという問題点があ
る。具体的な例をあげると、1)既に学習を行なった従
来の神経回路網を利用したパターン認識装置に新たな入
力データを学習させると、新しいデータのみに学習辞書
が適応し、過去に学習したデータに対する性能を保持で
きない:2)認識性能を落とさずに追記学習をするに
は、これまで学習に用いた全ての入力データと誤認識し
た入力データを全て用いて神経回路網全体を再学習しな
ければならない。従って過去の学習で作成した認識辞書
を継承できない:3)神経回路網の一回の学習は、学習
させたい全ての入力データを何回も入力して学習が収束
するまで行なうため、非常に長い時間がかかる。入力デ
ータを覚えさせる度にこの学習過程を繰り返すことは、
膨大な計算量と計算時間を必要とする:4)通常用いら
れる神経回路網はニューロン数が一定のため、追記する
入力パターン数が多くなると、誤差逆伝播学習で用いら
れる教師信号と出力値との2乗誤差が十分小さくなら
ず、学習が収束しなくなる可能性がある。手書文字認識
など個人に依存するようなパターン認識においては、そ
の個人専用の認識辞書が不可欠であるが、従来の神経回
路網を利用したパターン認識装置では、以上の理由から
個人辞書を作成することは非常に困難である。
【0014】本発明の目的は、従来の神経回路網を用い
たパターン認識装置の欠点である追記学習が困難という
課題を除去し、認識時に誤認識した入力パターンと特徴
空間におけるその入力パターン近傍のパターン入力に対
して識別面を修正することにより、誤認識したパターン
群を追加辞書として登録し、しかもそれまで作成されて
いる標準辞書を変更することなく認識率を向上させる神
経回路網及びそのパターン認識装置を提供することにあ
る。
【0015】
【課題を解決するための手段】本第1の発明のニューロ
ンは、0に十分近い出力値となる第1の膜電位の値と、
1に十分近い出力値となる第2の膜電位の値と、新たな
入力ベクトルに対する第3の膜電位の値とを用いて、前
記入力ベクトルに対する出力値が0に十分近くなるよう
な、あるいは1に十分近くなるような荷重ベクトル及び
しきい値を計算し、前記入力ベクトルに対する出力関数
の形を変更する。
【0016】本第2の発明の神経回路網は、現在の第1
の荷重ベクトル及びしきい値と、請求項1記載の第1の
ニューロンで計算される第2の荷重ベクトル及びしきい
値と、入力ベクトル空間において局所領域に発火する第
2のニューロンの出力値とを用いて計算される第3の荷
重ベクトル及びしきい値を用いて出力値を計算する第3
のニューロンを有している。
【0017】本第3の発明のパターン認識装置は、入力
層記憶部と、前記入力層記憶部の出力を用いて計算を行
なう中間層計算部と、前記中間層計算部の出力を用いて
計算を行なう追加ニューロン計算部と、前記中間層計算
部の出力と前記追加ニューロン計算部の出力を用いて請
求項2記載の神経回路網による計算に従う出力層計算部
と、前記追加ニューロン計算部への新しいニューロンの
追加、しきい値の制御及び請求項1記載のニューロンの
計算により荷重ベクトルとしきい値を計算する追加ニュ
ーロン制御部とを有している。
【0018】本第4の発明のパターン認識装置は、入力
層記憶部と、前記入力層記憶部の出力を用いて計算を行
なう追加ニューロン計算部と、前記入力層記憶部の出力
と前記追加ニューロン計算部の出力を用いて請求項2記
載の神経回路網の計算に従う中間層計算部と、前記中間
層計算部の出力を用いて計算を行なう出力層計算部と、
前記出力層計算部における荷重値を用いて前記追加ニュ
ーロン計算部への新しいニューロンの追加、しきい値の
制御及び請求項1記載のニューロンの計算により荷重ベ
クトルとしきい値を計算する追加ニューロン制御部とを
有している。
【0019】
【作用】本第1の発明の作用について記す。
【0020】簡単のため、まず入力が1次元の場合につ
いて説明する。ニューロンの出力関数は次式で与えられ
る。
【0021】 z=f(wx−h) (9) ここで、fは(2)式で表わされるシグモイド関数であ
る。図6は横軸を入力値x、縦軸を出力値zとした場合
のニューロンの出力関数を示す図である。
【0022】図6において、ニューロンの出力関数30
3は入力学習データ301を教師信号0、入力学習デー
タ302を教師信号1とした場合の従来の学習で得られ
た出力関数を示す。未学習の入力データxA に対する出
力値が十分1に近くなるように、出力関数304の形を
変更することを考える。出力値が十分1に近い値となる
膜電位をuH 、十分0に近い値となる膜電位をuL 、そ
れぞれに対する入力値をxH 、xL とし、入力値xA
対する膜電位をuA とすると、次の関係がある。
【0023】 uH =wxH −h (10) uL =wxL −h (11) uA =wxA −h (12) 変更後の荷重値、しきい値をそれぞれw′、h′とし、
入力値xA における膜電位がuH 、入力値xL における
膜電位がuL になるための条件は、 uH =w′xH −h′ (13) uL =w′xL −h′ (14) である。この連立方程式を解くと、 w′=w(uH −uL )/(uA −uL) (15) h′=(uH L −uA L +h(uH −uL ))/(uA −uL )(16) が得られる。このw′、h′を用いれば、入力値xに対
する出力関数304が得られる。
【0024】入力データxA に対する出力値が十分0に
近い値になるように、ニューロンの出力関数305の形
を変更したい場合も同様に求めることができ、 w′=w(uL −uH )/(uA −uH) (17) h′=(uL H −uA H +h(uL −uH ))/(uA −uH )(18) となる。
【0025】n次元の入力ベクトルの場合でも同様に考
えることができ、入力ベクトルXに対する出力値を十分
1に近い値にするためには、荷重ベクトル、しきい値を
次のように変更する。
【0026】 W′=W(uH −uL )/(uA −uL) (19) h′=(uH L −uA L +h(uH −uL ))/(uA −uL )(20) 入力ベクトルXに対する出力値を十分0に近い値にする
ためには、荷重ベクトル、しきい値を次のように変更す
る。
【0027】 W′=W(uL −uH )/(uA −uH) (21) h′=(uL H −uA H +h(uL −uH ))/(uA −uH )(22) このように、変更前の荷重値及びしきい値を用いて得ら
れた膜電位を用い、変更後の荷重値及びしきい値を設定
することで、過去の学習データを必要とせずにニューロ
ンが構成する識別面を修正できる。
【0028】ここでは通常の神経回路網に用いられるシ
グモイド関数を用いたが、任意の単調増加関数を出力関
数に用いた場合でも同様である。以後、入力ベクトルに
対する出力値を十分1に近い値にすることを「興奮性の
作用」と呼び、十分0に近い値にすることを「抑制性の
作用」と呼ぶことにする。
【0029】本第2の発明の作用について説明する。
【0030】簡単のため、まず入力が(x1 ,x2 )な
る2次元の場合について説明する。この場合のニューロ
ンの出力値は、 z=f(w1 1 +w2 2 −h) (23) となる。
【0031】図7は横軸をx1 、縦軸をx2 とした場合
のニューロンの出力値を示す図である。
【0032】図7において、出力値直線401は出力値
z=0.5を表わし、出力値直線401より上方が出力
値zが0.5より小さくなる領域、出力値直線401よ
り下方が出力値zが0.5より大きくなる領域を表わす
とする。出力値直線401は入力ベクトル空間を出力値
zが0.5より大きい領域と小さい領域に分けることか
ら、このニューロンが作る識別面と呼ぶ。入力データ4
02があったとすると、この入力データ402に対する
出力値zは0.5より小さい値となる。「興奮性の作
用」に従って入力データ402に対する出力値を十分1
に近い値にすると、識別面を表わす直線出力値直線40
3になる。
【0033】ここで、次のように出力関数を持つ局所発
火型ニューロンを導入する。 z=1[h−|X−XA |] (24) Xは(x1 ,x2 )で表わされる入力ベクトル、XA
入力データ402を表わす。このニューロンの出力値は
XとXA との距離がhより小さい場合は1、hより大き
い場合は0となる。出力値が0あるいは1になる境界を
局所発火型ニューロンの発火領域404に示す。この局
所発火型ニューロンの発火領域404は、XA を中心と
する半径hの円内となる。
【0034】識別面401を表わすニューロンの荷重ベ
クトルW、しきい値h及び本第1の発明の計算方式に従
う変更後の荷重ベクトルW′、しきい値h′と局所発火
型ニューロンの出力値zを用いて、荷縦ベクトルW″、
しきい値h″を W″=W′z+(1−z)W (25) h″=h′z+(1−z)h (26) とすると、局所発火型ニューロンの発火領域404内で
は識別面が出力値直線403となり、それ以外の領域で
は出力値直線401となる。つまり、新たな入力データ
とその近傍の入力に対してのみ識別面を修正することが
可能になる。
【0035】入力データ405に対する出力値を十分0
に近くする場合も同様に議論できる。この入力に対する
出力値zは0.5より大きい値となる。「抑制性の作
用」に従って入力データ405に対する出力値を十分0
に近い値にすると、識別面は出力値直線403になる。
ここで、(24)式で示す出力関数を持つ局所発火型ニ
ューロンを導入すると、このニューロンの出力値はxと
A の距離がhより小さい場合は1、hより大きい場合
は0となる。出力値が0あるいは1になる境界を局所発
火型ニューロンの発火領域407に示す。局所発火型ニ
ューロンの出力値zを用いて、荷重ベクトルW″、しき
い値h″を(25),(26)式に従って設定すると、
局所発火型ニューロンの発火領域407内では識別面が
出力値直線406となり、それ以外の領域では出力値直
線401となる。つまり、新たな入力データとその近傍
の入力に対してのみ識別面を修正することが可能にな
る。
【0036】これまで、入力ベクトルを2次元として説
明してきたが、n次元への拡張は容易である。また、局
所発火型ニューロンの出力関数に階段関数を用いたが、
シグモイド関数を用いて z=f(h−|X−XA |) (27) としても同様である。このzを用いて(25),(2
6)式に従えば、階段関数を用いた場合に比べ、局所発
火型ニューロンの発火領域近傍でより滑らかな出力関数
を得ることができる。出力関数はこれらに限られること
ではなく、ガウス分布など局所的に出力値が大きくなる
関数であれば同様の議論が成り立つことは容易に類推で
きる。局所発火型のニューロンの入力ベクトル空間にお
ける発火の中心位置を表わすXA のことを、以後、局所
発火型ニューロンの荷重ベクトルと呼ぶことにする。
【0037】本第3の発明の作用について記す。
【0038】図8は本第3の発明の一実施例のパターン
認識装置で用いる神経回路網の一モデルを示す図であ
る。
【0039】図8において、入力層501、中間層50
2、出力層503は従来の3層のフィードフォワード型
神経回路網である。入力層501、中間層502、出力
層503は誤差逆伝播学習則などにより学習が既に終了
しているとする。その後の認識処理において誤認識が生
じた場合、局所発火型ニューロン群504が新たに追加
される。
【0040】入力パターンが誤認識として判断されるの
は、その入力パターンが属すべきカテゴリを表わす出力
層503のニューロン(ニューロンAと呼ぶことにす
る)の出力が小さい場合、あるいはその入力パターンが
属すべきカテゴリ以外を表わす出力層のニューロンの出
力が大きい場合である。従って、出力層503の各ニュ
ーロンについて出力値を上げる手段、下げる手段の2つ
を用意すれば、誤認識となる入力パターンを正しく認識
するように神経回路網の内部状態を変化させることがで
きる。
【0041】次に、本第3の発明の神経回路網を用いた
パターン認識装置の追記学習手順について述べる。
【0042】ニューロンAの出力値を上げるためには、
まず既に追加されている局所発火型ニューロン群504
のうち発火しているものを捜す。そのニューロンがニュ
ーロンAに対して抑制性の作用をしている場合は、その
局所発火型ニューロンの発火領域を小さくして発火しな
いようにする。既に追加されている局所発火型ニューロ
ン群504すべてに対してこの処理を行なってもニュー
ロンAの出力値が上がらない場合、その入力パターンに
対する中間層502の出力ベクトルを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力をニューロン
Aに入力する。これで必ずニューロンAの出力を上げる
ことができる。
【0043】ニューロンAの出力値を下げるためには、
まず既に追加されている局所発火型ニューロン群504
のうち発火しているものを捜す。そのニューロンがニュ
ーロンAに対して興奮性の作用をしている場合は、その
局所発火型ニューロンの発火領域を小さくして発火しな
いようにする。既に追加されている局所発火型ニューロ
ン群504すべてに対してこの処理を行なってもニュー
ロンAの出力値が下がらない場合、その入力パターンに
対する中間層502の出力ベクトルを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力をニューロン
Aに入力する。これで必ずニューロンAの出力を下げる
ことができる。
【0044】以上述べた出力層503のニューロンの出
力値を上げる手順、下げる手順を用いることにより、誤
認識した入力パターンを正しく認識するように神経回路
網の内部状態を容易に変更することができる。ここで
は、説明のために、入力層501、中間層502、出力
層503からなる3層の神経回路網を用いたが、中間層
502を複数有する神経回路網に対しても、以上述べた
作用は有効である。
【0045】本第4の発明の作用について記す。
【0046】図9は本第4の発明の一例のパターン認識
装置で用いる神経回路網の一モデルを示す図である。
【0047】図9において入力層601、中間層60
2、出力層603は従来の3層のフィードフォワード型
神経回路網である。入力層601、中間層602、出力
層603は誤差逆伝播学習則などにより学習が既に終了
しているとする。その後の認識処理において誤認識が生
じた場合、局所発火型ニューロン群604が新たに追加
される。
【0048】入力パターンが誤認識として判断されるの
は、その入力パターンが属すべきカテゴリを表わす出力
層603のニューロン(ニューロンAと呼ぶことにす
る)の出力が小さい場合、あるいはその入力パターンが
属すべきカテゴリ以外を表わす出力層603のニューロ
ンの出力が大きい場合である。従って、出力層603の
各ニューロンについて出力値を上げる手段、下げる手段
の2つの用意すれば、誤認識となる入力パターンを正し
く認識するように神経回路網の内部状態を変化させるこ
とができる。 次に、本第4の神経回路網を用いたパタ
ーン認識装置の追記学習手順について述べる。
【0049】ニューロンAの出力値を上げるためには、
まず既に追加されている局所発火型ニューロン群604
のうち発火しているものを捜す。そのニューロンが興奮
性の作用をしている中間層602のニューロンとニュー
ロンAとの荷重値が負の場合は、その局所発火型ニュー
ロンの発火領域を小さくして発火しないようにする。ま
た発火している局所発火型ニューロンが抑制性の作用を
している中間層602のニューロンとニューロンAとの
荷重値が正の場合は、その局所発火型ニューロンの発火
領域を小さくして発火しないようにする。
【0050】既に追加されている局所発火型ニューロン
群604すべてに対してこの処理を行なってもニューロ
ンAの出力値が上がらない場合、入力パターンを荷重ベ
クトルとし、ニューロンが発火する領域の半径をしきい
値とした局所発火型ニューロンを追加し、その出力を中
間層602のニューロンに入力する。
【0051】追加された局所発火型ニューロンの出力を
中間層602のどのニューロンに入力するかは次のよう
に決められる。
【0052】ニューロンAと中間層602のニューロン
との荷重値を調べ、その絶対値の最も大きい荷重値に対
応する中間層602のニューロンにその局所発火型ニュ
ーロンの出力を入力し、荷重値が正の場合は興奮性の作
用を、荷重値が負の場合は抑制性の作用をさせる。それ
でもニューロンAの出力値が上がらない場合は、ニュー
ロンAとの中間層602のニューロンの荷重値の絶対値
が2番目に大きい中間層602のニューロンに対して同
様の処理を行なう。それでもニューロンAの出力値が上
がらない場合は、3番目のニューロンというようにして
同様の処理を繰り返すことで、必ずニューロンAの出力
を上げるもとができる。
【0053】ニューロンAの出力値を下げるためには、
まず既に追加されている局所発火型ニューロンのうち発
火しているものを捜す。そのニューロンが興奮性の作用
をしている中間層602のニューロンとニューロンAと
の荷重値が正の場合は、その局所発火型ニューロンの発
火領域を小さくして発火しないようにする。また発火し
ている局所発火型ニューロンが抑制性の作用をしている
中間層602のニューロンとニューロンAとの荷重値が
負の場合は、その局所発火型ニューロンの発火領域を小
さくして発火しないようにする。
【0054】既に追加されている局所発火型ニューロン
すべてに対してこの処理を行なってもニューロンAの出
力値が下がらない場合、入力パターンを荷重ベクトルと
し、ニューロンが発火する領域の半径をしきい値とした
局所発火型ニューロンを追加し、その出力を中間層60
2のニューロンに入力する。追加された局所発火型ニュ
ーロンの出力の中間層602のどのニューロンに入力す
るかは次のように決められる。ニューロンAと中間層6
02のニューロンとの荷重値を調べ、その絶対値の最も
大きい荷重値に対応する中間層のニューロンにその局所
発火型ニューロンの出力を入力し、荷重値が負の場合は
興奮性の作用を、荷重値が正の場合は抑制性の作用をさ
せる。
【0055】それでもニューロンAの出力値が下がらな
い場合は、ニューロンAと中間層602のニューロンの
荷重値の絶対値が2番目に大きい中間層602のニュー
ロンに対して同様の処理を行なう。それでもニューロン
Aの出力値が上がらない場合は、3番目のニューロンと
いうように同様の処理を繰り返すことで、必ずニューロ
ンAの出力を下げることができる。
【0056】以上述べた出力層603のニューロンの出
力値を上げる手順、下げる手順を用いることにより、誤
認識した入力パターンを正しく認識するように神経回路
網の内部状態を容易に変更することができる。ここで
は、説明のために、入力層601、中間層602、出力
層603からなる3層の神経回路網を用いたが、中間層
602を複数有する神経回路網に対しても、以上述べた
作用は有効である。
【0057】
【実施例】次に、本発明について図面を参照して説明す
る。
【0058】まず、本第1の発明について説明する。
【0059】図1は本第1の発明の一実施例を示すブロ
ック図である。
【0060】図1において、入力ベクトルXに対し、膜
電位計算部902において荷重ベクトルWとしきい値h
を用い膜電位uを計算し、出力値計算部903において
前記膜電位に非線形関数を通して出力値を計算する。神
経回路網に用いられる本実施例のニューロンは、入力ベ
クトルXに対する出力値を1に十分近い値にする意味の
誤認識信号を入力した場合に、出力値が0に近い出力値
となる膜電位の値uLと、出力値が1に十分近い出力値
となる膜電位の値uH と、前記膜電位の値uを用い、
(19)式に従う荷重ベクトル計算部906および(2
0)式に従うしきい値計算部907とにより新たな荷重
ベクトルおよびしきい値を計算して膜電位計算部902
内の荷重ベクトルおよびしきい値を変更し、変更後はそ
の新たな荷重ベクトルおよびしきい値を用いて膜電位計
算を行い、入力ベクトルXに対する出力値を0に十分近
い値にする意味の誤認識信号を入力した場合に、出力値
が0に十分近い出力値となる膜電位の値uL と、出力値
が1に十分近い出力値となる膜電位の値uH と、前記膜
電位の値uを用い、(21)式に従う荷重ベクトル計算
部908および(22)式に従うしきい値計算部909
とにより新たな荷重ベクトルおよびしきい値を計算して
膜電位計算部902内の荷重ベクトルおよびしきい値を
変更し、変更後はその新たな荷重ベクトルおよびしきい
値を用いて膜電位計算を行う。
【0061】次に、本第2の発明について説明する。
【0062】図2は本第2の発明の一実施例を示すブロ
ック図である。
【0063】図2において、入力ベクトルXに対し、膜
電位計算部1002において荷重ベクトルWとしきい値
hを用い膜電位uを計算し、出力値計算部1003にお
いて前記膜電位に非線形関数を通して出力値を計算する
ニューロンを有する本実施例の神経回路網は、荷重ベク
トル保存部1013およびしきい値保存部1014に保
存されている、誤認識信号を入力する前の荷重ベクトル
Wおよびしきい値hと、荷重ベクトル保存部1011お
よびしきい値保存部1012に保存されている、誤認識
信号入力後に荷重ベクトル計算部1007あるいは荷重
ベクトル計算部1009によって計算された荷重ベクト
ルW′およびしきい値計算部1008あるいはしきい値
計算部1010によって計算されたしきい値h′と、
(24)式あるいは(27)式に従う局所発火型ニュー
ロンの出力値Zとを用い、(25)式に従う荷重ベクト
ル計算部1015と(26)式に従うしきい値計算部1
016によって計算される新たな荷重ベクトルW″およ
びしきい値h″を用いて膜電位計算部1002において
膜電位を計算する。
【0064】次に、本第3の発明について説明する。
【0065】図3は本第3の発明の一実施例のパターン
認識装置を示すブロック図、図4は本実施例に使用され
るデジタルフィルターの一例を示す図である。
【0066】図3において、入力端子101に入力され
た入力信号は、入力層記憶部102に保存され、中間層
計算部103に入力され、その計算結果は出力層計算部
105に入力される。中間層計算部103のもう一方の
出力は追加ニューロン計算部104に入力される。出力
層計算部105には中間層計算部103の出力と追加ニ
ューロン計算部104の出力が入力され、その計算結果
は出力端子106から出力される。認識結果が誤認識で
あると判断された場合には、誤認識信号が入力端子10
7から入力され、追加ニューロン制御部108に送られ
る。追加ニューロン制御部108は、誤認識信号に従
い、追加ニューロン計算部104の計算に用いられるパ
ラメータを変更し、入力層記憶部102に再認識信号を
入力する。再認識信号を受けた入力層記憶部102は、
記憶されている入力データを中間計算部103に送り、
認識過程が繰り返される。出力層計算部105からの出
力は追加ニューロン制御部108に送られ、認識結果の
判断が行なわれ、正しく認識されるまで追加ニューロン
制御部108による追加ニューロン計算部104の制御
が行なわれる。
【0067】次に、文字認識を例にとり、本実施例の動
作を説明する。
【0068】ここでは説明のために、横9画素、縦11
画素の文字の濃淡画像を入力端子101から入力するこ
とにする。濃淡画像は、黒画素を1、白画素を0とした
文字の二値画像に図4に示すようなデジタルフィルター
を施して得られる。
【0069】入力層記憶部102は、入力層501に対
応している。入力層記憶部102に含まれるニューロン
数は99個であり、上で述べた99次元の特徴量ベクト
ルのそれぞれの成分の値がメモリ保存される。中間層計
算部103は、中間層502に対応する。中間層502
に含まれるニューロン数をNmid とすると、ニューロン
1つに対して、入力層501との結合の荷重値を記憶す
るNin個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nmid ×(Nin+2)個のメモリが用意されて
いる。中間層計算部103の計算は、(1)式及び
(2)式を用いて行なわれる。中間層502に含まれる
ニューロン数Nmid は便宜上40とする。
【0070】追加ニューロン計算部104は、局所発火
型ニューロン群504に対応する。局所発火型ニューロ
ン1つに対して、中間層502との結合の荷重値を記憶
するNmid 個のメモリ、しきい値を記憶する1個のメモ
リ、その計算結果を記憶する1個のメモリの他に、出力
先の出力層ニューロンの番号、変更すべきNmid 個の荷
重値及びしきい値を記憶するメモリが、出力肢1本につ
き必要になる。追加ニューロン数は学習により増加す
る。追加ニューロン計算部の計算は、(24)式を用い
て行なわれるものとする。
【0071】出力層計算部105は、出力層503に対
応する。出力層503に含まれるニューロン数をNout
とすると、ニューロン1つに対して、中間層502との
結合の荷重値を記憶するNmid 個のメモリ、しきい値を
記憶する1個のメモリ、及びその計算結果を記憶する1
個のメモリが必要なので、合計Nout ×(Nmid +2)
個のメモリが用意されている。出力層計算部105の計
算は、追加ニューロン計算部104からの出力を用い
て、(25),(26)式に従って荷重値及びしきい値
を変更したあと、(1)式及び(2)式を用いて行なわ
れる。出力層503に含まれるニューロン数は、識別さ
せたいカテゴリの数によって定まる。例えば、0から9
までの10個の印刷数字を入力文字画像とした場合、識
別させたいカテゴリ数は10個となるので、Nout は1
0個となる。
【0072】中間層計算部103及び出力層計算部10
5における荷重値及びしきい値は、誤差逆伝播学習法に
より既に設定されるものとする。この学習は、追加ニュ
ーロン計算部104には無関係に進められる。
【0073】誤認識が生じた場合、誤認識信号が入力端
子107に入力される。この誤認識信号は、出力端子1
06から出力されるNout 個の信号の組に対して、何番
目の信号値を上げるか、あるいは何番目の信号値を下げ
るかという番号の組である。例えば、印刷数字の認識の
場合はNout が10個であり、1番目の出力信号は数字
の「1」、2番目の出力信号は数字の「2」、…、10
番目の出力信号は数字の「0」を表わすカテゴリである
とすると、「3」のカテゴリに属する入力信号を正しい
出力信号の組は{0,0,1,0,0,0,0,0,
0,0}である。誤認識の出力信号の組{0,1,0,
0,0,0,0,0,0,0}に対しては、{−2,+
3}なる誤認識信号を入力端子107に送ることにな
る。
【0074】誤認識信号を受けた追加ニューロン制御部
108は、本第1,第2の発明の作用で述べた手順によ
り、追加ニューロン計算部104内に存在するしきい値
の変更あるいは、新たなニューロンの追加すなわち1ニ
ューロン分のメモリの確保、及び荷重値、しきい値、結
合先が設定される。その際、追加ニューロン制御部10
8から入力層記憶部102に再認識信号が送られ、入力
層記憶部102に保存されていた入力データは中間層計
算部103へ入力され、その出力は追加ニューロン計算
部104へ入力され、中間層計算部103と追加ニュー
ロン計算部104の出力が出力計算部105へ入力され
る。出力層計算部105の出力が誤認識信号の要求を満
たした段階で、追加ニューロン制御部108は追加ニュ
ーロン計算部104の制御を停止する。
【0075】次に本第4の発明について説明する。
【0076】図5は本第4の発明の一実施例を示すブロ
ック図である。
【0077】図5において、入力端子801に入力され
た入力信号は、入力層記憶部802に保存され、中間層
計算部803に入力され、その計算結果は出力層計算部
805に入力される。入力層記憶部802のもう一方の
出力は追加ニューロン計算部804に入力される。中間
層計算部803には入力層計算部802の出力と追加ニ
ューロン計算部804の出力が入力され、その出力は出
力層計算部805に入力され、その計算結果は出力端子
806から出力される。認識結果が誤認識であると判断
された場合には、誤認識信号が入力端子807から入力
され、追加ニューロン制御部808に送られる。追加ニ
ューロン制御部808は、誤認識信号に従い、追加ニュ
ーロン計算部804の計算に用いられるパラメータを変
更し、入力層記憶部802に再認識信号を入力する。再
認識信号を受けた入力層記憶部802は、記憶されてい
る入力データを中間層計算部803及び追加ニューロン
計算部804に送り、認識過程が繰り返される。出力層
計算部805からの出力は追加ニューロン制御部808
に送られ、認識結果の判断が行なわれ、正しく認識され
るまで追加ニューロン制御部808による追加ニューロ
ン計算部804の制御が行なわれる。
【0078】次に、文字認識を例にとり、本実施例の動
作を図9に示す図面と対応づけて説明する。
【0079】図3に示す第3の発明の一実施例と同様に
文字の濃淡画像を入力端子801に入力することにす
る。
【0080】入力層記憶部802は、入力層601に対
応している。入力層記憶部802に含まれるニューロン
数は99個であり、上で述べた99次元の特徴量ベクト
ルのそれぞれの成分の値がメモリ保存される。中間層計
算部803は、中間層602に対応する。中間層602
に含まれるニューロン数をNmid とすると、ニューロン
1つに対して、入力層601との結合の荷重値を記憶す
るNin個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nmid ×(Nin+2)個のメモリが用意されて
いる。中間層602に含まれるニューロン数Nmid は便
宜上40とする。中間層計算部803の計算は、追加ニ
ューロン計算部804からの出力を用いて、(25),
(26)式に従って荷重値及びしきい値を変更したあ
と、(1)式及び(2)式を用いて行なわれる。
【0081】追加ニューロン計算部804は、局所発火
型ニューロン群604に対応する。局所発火型ニューロ
ン1つに対して、入力層601との結合の荷重値を記憶
するNin個のメモリ、しきい値を記憶する1個のメモ
リ、その計算結果を記憶する1個のメモリの他に、出力
先の中間層ニューロンの番号、変更すべきNin個の荷重
値及びしきい値を記憶するメモリが、出力肢1本につき
必要になる。追加ニューロン数は学習により増加する。
追加ニューロン計算部804の計算は、(24)式を用
いて行なわれるものとする。
【0082】出力層計算部805は、出力層603に対
応する。出力層603に含まれるニューロン数をNout
とすると、ニューロン1つに対して、中間層602との
結合の荷重値を記憶するNmid 個のメモリ、しきい値を
記憶する1個のメモリ、及びその計算結果を記憶する1
個のメモリが必要なので、合計Nout ×(Nmid +2)
個のメモリが用意されている。出力層計算部805の計
算は、(1)式及び(2)式を用いて行なわれる。出力
層603に含まれるニューロン数は、識別させたいカテ
ゴリの数によって定まる。
【0083】中間層計算部803及び出力層計算部80
5における荷重値及びしきい値は、誤差逆伝播学習法に
より既に設定されるものとする。この学習は、追加ニュ
ーロン計算部804には無関係に進められる。
【0084】誤認識が生じた場合、誤認識信号が入力端
子807に入力される。この誤認識信号は、第3の発明
の一実施例と同様に、出力端子806から出力されるN
out個の信号の組に対して、何番目の信号値を上げる
か、あるいは何番目の信号値を下げるかという番号の組
である。誤認識識信号を受けた追加ニューロン制御部8
08は、出力層計算部805の荷重値を参照し、第1及
び2の発明の作用で述べた手順により、追加ニューロン
計算部804内に存在するしきい値の変更あるいは、新
たなニューロンの追加すなわち1ニューロン分のメモリ
の確保、及び荷重値、しきい値、結合先が設定される。
その際、追加ニューロン制御部808から入力層記憶部
802に再認識信号が送られ、入力層記憶部802に保
存されていた入力データは中間層計算部803及び追加
ニューロン計算部804へ入力され、それらの出力は中
間層計算部803へ入力さ、出力層計算部805へ入力
される。出力層計算部805の出力が誤認識信号の要求
を満たした段階で、追加ニューロン制御部808は追加
ニューロン計算部804の制御を停止する。
【0085】以上、本第3,4の発明のパターン認識装
置の一実施例について述べた。従来の神経回路網として
3層のフィードフォワード型のニューラルネットを用い
たが、より多段のニューラルネットを用いたものでも、
他の学習モデルを用いたものでも、本第3,4の発明に
よる追記学習方法は有効である。また、濃淡特徴以外の
特徴量を入力データとして用いても、当然本第3,4の
発明は有効である。
【0086】
【発明の効果】以上説明したように本第1の発明は、神
経回路網に用いられるニューロンにおいて、0に十分近
い出力値となる第1の膜電位の値と、1に十分近い出力
値となる第2の膜電位の値と、新たな入力ベクトルに対
する第3の膜電位の値とを用いて、入力ベクトルに対す
る出力値が0に十分近くなるような、あるいは1に十分
近くなるような荷重ベクトル及びしきい値を計算し、入
力ベクトルに対する出力関数の形を変更することによ
り、変更前の荷重ベクトルとしきい値を求めるために用
いた入力に対する出力値を変えることなく新たな入力に
対する出力を変更することができる効果を有する。
【0087】又、本第2の発明は、現在の第1の荷重ベ
クトル及びしきい値と、第1の発明の第1のニューロン
で計算される第2の荷重ベクトル及びしきい値と、入力
ベクトル空間において局所領域に発火する第2のニュー
ロンの出力値とを用いて計算される第3の荷重ベクトル
及びしきい値を用いて出力値を計算する第3のニューロ
ンを有することにより、入力空間における局所的領域の
みにおいて、第1の発明の効果を作用することができ、
誤認識が生じた場合の追記学習を容易に行うことができ
る効果を有する。
【0088】更に、第3の発明は、多層神経回路網を用
いたパターン認識装置において、入力層記憶部と、入力
層記憶部の出力を用いて計算を行なう中間層計算部と、
中間層計算部の出力を用いて計算を行なう追加ニューロ
ン計算部と、中間層計算部の出力と追加ニューロン計算
部の出力を用いて第2の発明の神経回路網による計算に
従う出力層計算部と、追加ニューロン計算部への新しい
ニューロンの追加、しきい値の制御及び第1の発明のニ
ューロンの計算により荷重ベクトルとしきい値を計算す
る追加ニューロン制御部とを有し、又第4の発明は、入
力層記憶部と、入力層記憶部の出力を用いて計算を行な
う追加ニューロン計算部と、入力層記憶部の出力と追加
ニューロン計算部の出力を用いて第2の発明の神経回路
網の計算に従う中間層計算部と、中間層計算部の出力を
用いて計算を行なう出力層計算部と、出力層計算部にお
ける荷重値を用いて追加ニューロン計算部への新しいニ
ューロンの追加、しきい値の制御及び第1の発明のニュ
ーロンの計算により荷重ベクトルとしきい値を計算する
追加ニューロン制御部を有することにより、誤認識する
パターンの追記学習が容易に行え、以後正しく認識する
ことができるようにすることができる効果がある。例え
ば個人に依存するような手書文字認識においては、個人
の癖などが追加ニューロン群として登録することがで
き、全体として認識率を向上させることができる効果が
ある。さらに本第3,4の発明によれば、手書文字認識
のみならず異なるフォントの印刷文字認識についても有
効であり、文字認識に限らず一般のパターンについても
適用することができる効果がある。
【図面の簡単な説明】
【図1】本第1の発明の一実施例を示すブロック図であ
る。
【図2】本第2の発明の一実施例を示すブロック図であ
る。
【図3】本第3の発明の一実施例を示すブロック図であ
る。
【図4】本第3の発明の一実施例に使用されるデジタル
フィルターの一例を示す図である。
【図5】本第4の発明の一実施例を示すブロック図であ
る。
【図6】ニューロンの出力関数の一例を示す図である。
【図7】入力が2次元の場合のニューロンの出力値を示
す図である。
【図8】本第3の発明の一実施例のパターン認識装置で
用いられる神経回路網の一モデルを示す図である。
【図9】本第4の発明の一実施例のパターン認識装置で
用いられる神経回路網の一モデルを示す図である。
【図10】3層のフィードフォワード型神経回路網の一
モデルを示す図である。
【符号の説明】
101 入力端子 102 入力層記憶部 103 中間層計算部 104 追加ニューロン計算部 105 出力層計算部 106 出力端子 107 入力端子 108 追加ニューロン制御部 201 入力層 202 中間層 203 出力層 301 入力学習データ 302 入力学習データ 303 変更前のニューロンの出力関数 304 「興奮性の作用」後のニューロンの出力関数 305 「抑制性の作用」後のニューロンの出力関数 401 変更前のニューロンの出力値直線 402 入力データ 403 「興奮制の作用」後のニューロンの出力値直
線 404 局所発火型ニューロンの発火領域 405 入力データ 406 「抑制性の作用」後のニューロンの出力値直
線 407 局所発火型ニューロンの発火領域 501 入力層 502 中間層 503 出力層 504 局所発火型ニューロン群 601 入力層 602 中間層 603 出力層 604 局所発火型ニューロン群 801 入力端子 802 入力層記憶部 803 中間層計算部 804 追加ニューロン計算部 805 出力層計算部 806 出力端子 807 入力端子 808 追加ニューロン制御部 901 入力端子 902 膜電位計算部 903 出力値計算部 904 出力端子 905 入力端子 906 荷重ベクトル計算部 907 しきい値計算部 908 荷重ベクトル計算部 909 しきい値計算部 1001 入力端子 1002 膜電位計算部 1003 出力値計算部 1004 出力端子 1005 入力端子 1006 入力端子 1007 荷重ベクトル計算部 1008 しきい値計算部 1009 荷重ベクトル計算部 1010 しきい値計算部 1011 荷重ベクトル保存部 1012 しきい値保存部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 神経回路網に用いられるニューロンにお
    いて、0に十分近い出力値となる第1の膜電位の値と、
    1に十分近い出力値となる第2の膜電位の値と、新たな
    入力ベクトルに対する第3の膜電位の値とを用いて、前
    記入力ベクトルに対する出力値が0に十分近くなるよう
    な、あるいは1に十分近くなるような荷重ベクトル及び
    しきい値を計算し、前記入力ベクトルに対する出力関数
    の形を変更することを特徴とするニューロン。
  2. 【請求項2】 現在の第1の荷重ベクトル及びしきい値
    と、請求項1記載の第1のニューロンで計算される第2
    の荷重ベクトル及びしきい値と、入力ベクトル空間にお
    いて局所領域に発火する第2のニューロンの出力値とを
    用いて計算される第3の荷重ベクトル及びしきい値を用
    いて出力値を計算する第3のニューロンを有することを
    特徴とする神経回路網。
  3. 【請求項3】 多層神経回路網を用いたパターン認識装
    置において、入力層記憶部と、前記入力層記憶部の出力
    を用いて計算を行なう中間層計算部と、前記中間層計算
    部の出力を用いて計算を行なう追加ニューロン計算部
    と、前記中間層計算部の出力と前記追加ニューロン計算
    部の出力を用いて請求項2記載の神経回路網による計算
    に従う出力層計算部と、前記追加ニューロン計算部への
    新しいニューロンの追加、しきい値の制御及び請求項1
    記載のニューロンの計算により荷重ベクトルとしきい値
    を計算する追加ニューロン制御部とを有することを特徴
    とするパターン認識装置。
  4. 【請求項4】 多層神経回路網を用いたパターン認識装
    置において、入力層記憶部と、前記入力層記憶部の出力
    を用いて計算を行なう追加ニューロン計算部と、前記入
    力層記憶部の出力と前記追加ニューロン計算部の出力を
    用いて請求項2記載の神経回路網の計算に従う中間層計
    算部と、前記中間層計算部の出力を用いて計算を行なう
    出力層計算部と、前記出力層計算部における荷重値を用
    いて前記追加ニューロン計算部への新しいニューロンの
    追加、しきい値の制御及び請求項1記載のニューロンの
    計算により荷重ベクトルとしきい値を計算する追加ニュ
    ーロン制御部とを有することを特徴とするパターン認識
    装置。
JP4003439A 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置 Expired - Fee Related JP3027874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4003439A JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4003439A JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Publications (2)

Publication Number Publication Date
JPH05257917A true JPH05257917A (ja) 1993-10-08
JP3027874B2 JP3027874B2 (ja) 2000-04-04

Family

ID=11557389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4003439A Expired - Fee Related JP3027874B2 (ja) 1992-01-13 1992-01-13 神経回路網及びそのパターン認識装置

Country Status (1)

Country Link
JP (1) JP3027874B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
WO2018173800A1 (ja) * 2017-03-21 2018-09-27 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US8015130B2 (en) 2004-06-11 2011-09-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
WO2018173800A1 (ja) * 2017-03-21 2018-09-27 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体
US11068751B2 (en) 2017-03-21 2021-07-20 Nec Corporation Image processing device, image processing method, and storage medium

Also Published As

Publication number Publication date
JP3027874B2 (ja) 2000-04-04

Similar Documents

Publication Publication Date Title
US5086479A (en) Information processing system using neural network learning function
CN109508634B (zh) 基于迁移学习的船舶类型识别方法及系统
CN111914727B (zh) 基于平衡采样与非线性特征融合的小目标人体检测方法
CN110110668B (zh) 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
CN112990097A (zh) 一种基于对抗消除的人脸表情识别方法
US5832108A (en) Pattern recognition method using a network and system therefor
JP2005352900A (ja) 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
CN111079790A (zh) 一种构建类别中心的图像分类方法
US5479569A (en) Intelligence information processing method
JPH05257917A (ja) 神経回路網及びそのパターン認識装置
CN114120406B (zh) 基于卷积神经网络的人脸特征提取分类方法
JP2780454B2 (ja) 追記学習型パターン認識装置
Cecotti et al. Rejection strategy for convolutional neural network by adaptive topology applied to handwritten digits recognition
Benchaou et al. Neural network for numeral recognition
Benchaou et al. New approach of preprocessing for numeral recognition
US20220156590A1 (en) Artificial intelligence system and artificial neural network learning method thereof
JPH04501327A (ja) パターン伝達ニューラルネットワーク
Qumsieh A Supervised Modified Hebbian Learning Method On Feed-forward Neural Networks
Ritter et al. Noise tolerant dendritic lattice associative memories
Zhang et al. A new framework for automatic feature selection for tracking
Lee Neural Network Applications In Hand-Written Symbol Understanding
JP2682203B2 (ja) 文字認識方法
Takanashi et al. Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation
KR19990081569A (ko) 문자 인식을 위한 특징 벡터값 추출 방법
JPH0460865A (ja) 神経回路網学習法及び装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991130

LAPS Cancellation because of no payment of annual fees