JPH04153891A - Pattern recognition system using rough code expression - Google Patents

Pattern recognition system using rough code expression

Info

Publication number
JPH04153891A
JPH04153891A JP2280519A JP28051990A JPH04153891A JP H04153891 A JPH04153891 A JP H04153891A JP 2280519 A JP2280519 A JP 2280519A JP 28051990 A JP28051990 A JP 28051990A JP H04153891 A JPH04153891 A JP H04153891A
Authority
JP
Japan
Prior art keywords
recognition
pattern
category
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2280519A
Other languages
Japanese (ja)
Other versions
JP3018465B2 (en
Inventor
Yukio Hayashi
幸雄 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2280519A priority Critical patent/JP3018465B2/en
Publication of JPH04153891A publication Critical patent/JPH04153891A/en
Application granted granted Critical
Publication of JP3018465B2 publication Critical patent/JP3018465B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To efficiently perform pattern recognition with a little misrecognition by realizing a general inverse matrix which is high in associating ability approximately by a local and easy process and handling even deformed pattern by a threshold value process and a feedback circuit. CONSTITUTION:In a three-layered associative storage model, an input pattern is represented in output layers I, (i), and N and fixed mapping to be fed back is realized approximately. So the model is tolerant to a noise input. Further, the outputs of intermediate layers I, K, and M in a mutual suppression coupling state are in rough code expression wherein only one element showing the recognition category of the input pattern fires. The associative process of the model is approximately equivalent to the calculation of the general inverse matrix, so the associating ability is high. Consequently, the pattern recognition with a little misrecognition is efficiently realized.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は文字(画像)や音声等のパターンを動的に認識
するとともに、認識辞書を学習によって修正するパター
ン認識方式に関するものである。
The present invention relates to a pattern recognition method that dynamically recognizes patterns of characters (images), sounds, etc., and modifies a recognition dictionary through learning.

【従来の技術】[Conventional technology]

従来の自己(相互)想起連想記憶モデルでは、入出力層
間の結合重み値を、入出力パターンの相関行列で設定す
る相関型連想記憶モデルより、般逆行列で設定した直交
射影型連想記憶モデルの方が高い連想能力を持つことが
知られている。 松岡氏は、相互抑制結合の中間層を持つ3層モデルを用
いて、一般逆行列の計算を効率的な局所演算で実現する
方法(第3図参照)を既に提案している(検閲(九工大
):“直交射影型連想記憶回路の種々の構造について”
、電子情報通信学会論文誌、 Vol、J73−Dll
、No、4.Apri1’90.pp841−847)
さらに松岡氏は、フィードバック回路による自己想起連
想記憶モデルにおける一般逆行列の計算方法(第4図)
も提案した(前記電子情報通信学会論文誌参照)。 これらのモデルは、複雑な一般逆行列の計算を簡単なネ
ット構造の回路で実現するのみならず、認識辞書である
結合重み値の学習もプロトタイプパターンの付加によっ
て簡単に実現できるので、LSI化にも適している。
In conventional self-(mutual) recall associative memory models, the orthogonal projection type associative memory model sets the connection weight values between input and output layers using a general inverse matrix, rather than the correlation type associative memory model where the connection weight values between the input and output layers are set using a correlation matrix of input and output patterns. They are known to have higher associative abilities. Mr. Matsuoka has already proposed a method (see Figure 3) that uses a three-layer model with an intermediate layer of mutually inhibiting connections to realize the calculation of a general inverse matrix by efficient local operations (see Figure 3). University of Technology): “About various structures of orthogonal projection type associative memory circuits”
, Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J73-Dll
, No, 4. Apri1'90. pp841-847)
Furthermore, Mr. Matsuoka describes a method for calculating a general inverse matrix in a self-recall associative memory model using a feedback circuit (Figure 4).
was also proposed (see the above-mentioned journal of the Institute of Electronics, Information and Communication Engineers). These models not only realize the calculation of complex general inverse matrices using a circuit with a simple network structure, but also easily realize the learning of connection weight values, which are recognition dictionaries, by adding prototype patterns, so they are suitable for LSI implementation. is also suitable.

【発明が解決しようとする課題】[Problem to be solved by the invention]

前述の従来の連想記憶モデルを実際にパターン認識廉に
応用するには問題があった。すなわち、この連想記憶モ
デルは、原理的なプロトタイプパターンの記憶拳想起を
示すもので、現実的な変形パターンの記憶−想起には十
分とは言えないという欠点があった。 本発明は、この欠点を除去することを目的とするもので
ある。すなわち、本発明は変形パターンに対する認識能
力の高いパターン認識を行うことを目的とするものであ
る。
There were problems in actually applying the conventional associative memory model described above to pattern recognition. That is, this associative memory model shows the memory-retrieval of a basic prototype pattern, but has the drawback that it cannot be said to be sufficient for the memorization and retrieval of realistic deformed patterns. The present invention aims to eliminate this drawback. That is, an object of the present invention is to perform pattern recognition with high recognition ability for deformed patterns.

【課題を解決するための手段】[Means to solve the problem]

本発明は、上記目的を達成するために、フィードバック
回路によって入力パターンを認1lilfliカバター
ンに動的に変換するとともに、認識辞書を学習によって
獲得する連想記憶モデルにおいて、疎な符号表現を用い
た中間層を持ち、認識辞書である結合重みに記憶すべき
情報を分散的に記憶するパターン認識方式である。 また、本発明の一態様によれば、上記構成のパターン認
識方式において、各認識カテゴリの分布の許容範囲を決
定する補助ネットを設けたことを特徴とする。
In order to achieve the above object, the present invention dynamically converts an input pattern into a recognized cover pattern using a feedback circuit, and uses an intermediate layer using a sparse code representation in an associative memory model that acquires a recognition dictionary through learning. This is a pattern recognition method that stores information to be stored in a distributed manner in connection weights, which is a recognition dictionary. Further, according to one aspect of the present invention, the pattern recognition method having the above configuration is characterized in that an auxiliary net is provided for determining the permissible range of the distribution of each recognition category.

【作用】[Effect]

本発明は3層連想記憶モデルでは、入力パターンが出力
層に再現されてフィードバックする恒等写像が近似的に
実現されるので、ノイズ入力に強い。また、相互抑制結
合の中間層出力は、その入力パターンの認識カテゴリを
表す1個の素子のみが発火する疎な符号表現となる(第
8図(C)参照)。このモデルの連想処理は、一般逆行
列の計算と近似的に等価となるので、連想能力が高い。 ゆえζこ、WAIIiの少ないパターン認識が効率良く
実現できる。 また、本発明の補助ネットを設ける態様においては、連
想記憶モデルのvi識結果が、上記3層連想モデルによ
る認識結果と、補助ネットによる他カテゴリ方向の分布
の許容範囲を統合した結果に従って決定される。故に、
−層W4mの少ないパターン認識が効率良く実現できる
In the three-layer associative memory model of the present invention, an identity mapping in which the input pattern is reproduced and fed back to the output layer is approximately realized, so it is resistant to noise input. Further, the intermediate layer output of the mutually inhibiting combination becomes a sparse code representation in which only one element representing the recognition category of the input pattern fires (see FIG. 8(C)). The associative processing of this model is approximately equivalent to the calculation of a general inverse matrix, so it has a high associative ability. Therefore, pattern recognition with less WAIIi can be efficiently realized. Furthermore, in the aspect of the present invention in which an auxiliary net is provided, the vi recognition result of the associative memory model is determined according to the result of integrating the recognition result by the three-layer associative model and the permissible range of distribution in other category directions by the auxiliary net. Ru. Therefore,
- Pattern recognition with a small number of layers W4m can be efficiently realized.

【第1の実施例〕 第1図は本発明の直交射影型フィードバック連想記憶モ
デルを示す図で、第2図は本発明のシステム構成の実施
例を示すものである。 第2図に示すように、このシステムは、入力パターンま
たはフィードバック出力を保持する入力レジスタ21と
、入力レジスタ21の内容を次段に供給するタイミング
を制御するクロック発振器22と、後述する0式のW2
”x″を演算する積和演算部23と、積和演算部23お
よび26の出力をもとに0式のdy/dtを演算すると
ともに変化分により更新された中間層の出力y (t)
を得る微分演算部24と、微分演算部24の出力y (
t)に関数演算を施しh (y(t))を出力する関数
演算部25と、関数演算部25の出力にしきい値処理を
する非線形しきい処理部27と、非線形しきい処理部2
7の出力を認識出力f (y)として保持する出力レジ
スタ28と、しきい処理部27の出力にXを乗じて0式
の演算をする積和演算部29からなっている。この学習
e認識処理を行う第2rEJの装置の各演算部は、連続
時間を離散化することで汎用の計算機上でのプログラム
や、専用のアナログ(またはディジタル)演算回路で実
現できる。各層の素子の状態は、それぞれのレジスタに
記憶され、結合重み値は積和演算部のメモリに記憶され
る。 第6図と7図は、本発明の処理手順を示すフローチャー
トで、それぞれ認識と学習の処理手順を示す。以下では
、まず認識辞書である結合重み値Wl、W2が既に設定
されている時の認識処理の例を第6図により説明し、そ
の後に、その認識辞書の学習方法の例を第7図により説
明する。 本発明の認識処理は、第6図のフローチャートに示すよ
うに、まず、初期パターンの設定(後記の0式の設定)
を行う(StepO)。すなわち、サンプル時間間隔を
T、とするとき、0≦t<T、の間にカテゴリmに属す
る入力パターンx I m +を入力層に与える。第2
図の入力レジスタ21に入力パターンx′=x(1は保
持される。 その間、t=kT、までに中間送出力を■式により更新
する(Step 1 )。 τd y(t)/ d t = Wl h(y(t))
 + W2” x ’・・Φここで、W1=−X”X、
W2=X、 プロトタイプ行列:X=[x口+、 x(
21,、、、X(Ml]丁xfl+: (χ+11..
 、 、 、 、  x(11N) とする。ま“た、
τ<T、とする。 ■式によって中間層出力h (y(t) )を計算する
。 この計算は第2図の装置により行う。積和演算部23に
よって、W2’ x ’を演算し、積和演算部26によ
ってWlh (y(t))の演算をする。 この中間層出力h (y(t) )に非線形しきい処理
部27によりfloでしきい値処理して認識比カバター
ンf 、 (h(y(t)) )を得る。認識比カバタ
ーンの全ての要素が、誤差εの範囲でOか1であるかを
判定する(5tep2)。 すべて0か1になっていれば、処理を終了する。 Oまたは1になっていない要素がある場合には、フィー
ドバック信号の更新を行い、k=に+1とし5tep 
1へ行((Step3 )。すなわち、■式によってフ
ィードバック信号を計算する。 この計算は第2図の積和演算部29によって行う。この
フィードバック信号X“(1)を次のサンプル時間(k
+1)Tsまで入力層に与える。 すなわち、入力レジスタ21にkT、≦T< (k+1
) T、の開信号を保持する。その間に■式に従って同
様の処理を行う。この処理を、認識出力の全ての要素が
Oか1となるまで繰り返す。 なお、0≦t<Tsにおいては、 とする。 ■式のようにkT、≦t<(k+1) T、の間に、 中間層の相互抑制結合W1によって一般逆行列が近似的
に計算され、フィードバック信号で恒等写像が近似され
るのでノイズ入力に強い。また認識辞書(W2)に記憶
したプロトタイプパターンを入力した時の中間層出力は
、■式のようにその認識カテゴリを表す1個の素子のみ
が発火する疎な符号表現となる。ここで、T:転置、+
ニ一般逆行列を表す。 y ((k+1)T、)!”t (XTX)”X↑X′
=  (X”X)”X”Xf+  (y  (kT、)
)= r + < y (kT−) )     ・・
・■y (T、) L:i(X”X)”X”X’= (
X”X)”X”x’・l= (0,・・・、0,1゜0
、・・・0)        ・・・0次に第7図のフ
ローチャートに従うて、本発明の認識辞書である結合重
み値の学習処理を説明する。 まず、各認識カテゴリ内の複数の学習パターンの平均値
のようなプロトタイプパターンで、結合直み値WtとW
2を初期設定をする(StepO)。 W+=−XTX W2=X 次に各学習パターンについて前述の認識処理を行う(S
tep 1 )。 提示した学習パターンが正しく認識できれば、この学習
パターンに結合重み値(辞書)を少し近づける(5te
p 2 )。 W1=−a e”’x”x e(k”+ (1−a)W
l  −■W2=ae(k’+ (1−B)W2   
  −■もし提示した学習パターンをWA認するなら、
誤認カテゴリのプロトタイプパターンに関する安定点の
引き込み領域を縮小するように、f、(o)=O,fl
(1)=1.f、(θl)=θ1の条件の下で01を太
き(して、しきい値開数f10を調整する(Step2
’ )。 学習パターンが全て誤認しなくなるまで、再度提示して
この操作を繰り返す(Step3)。 学習後は、学習パターン以外に対しても、誤認の少ない
認識処理が実行できる。 各パラメータの例を次に示す。 入力次元数:N=258、 カテゴリ数:M=71、 減衰の時定数:τ=0.1、 サンプリング時間: T、= 10゜ 学習定数:α=0.1、 不安定パラメータ:θ、=0.5、 θ、の変動!:δ=0.01、 しきい値開数: とする。 なお、しきい値開数を図に示すと、第5図のようになる
。 第8図は本実施例の効果を示すパターンの認識の実験例
を示すもので、第9図は比較のためにボす従来例による
パターンの認識の実験例を示すものである。両図におい
て、(a)は入力層に与えられたパターンrEJを示し
、このパターン「E」は15%のランダムノイズを含ん
でいる。(b)は出力層に得られるパターンを示し、(
C)は中間層の状態を示す。 第9図(b)に示すように、従来例の場合、出力層に得
られるパターンはかなりノイズを含んでいるが、第8図
(b)に示す本発明の実施例の場合、ノイズが除去され
たきれいなパターンが得られてている。また、中間層に
ついては、第9図(C)に示すように、従来技術によれ
ば比較的大きな中間値の出力が1つの素子に表れ、比較
的小さな中間値の出力が3つの素子に表れている。これ
に対し、本発明の実施例では第8図(C)に示すように
、一つの素子のみが100%の発火素子となっている。 このように実験例により従来技術と比べて、本発明はパ
ターンの認識の能力が格段に優れていることが分る。 【第2の実施例コ 第10図に、大分類と詳細分類を用いた本発明の変形の
1実施例(第2の実施例)を示す。これは、本発明の連
想記憶モデルを複数のモジュールとして用い、類似カテ
ゴリからなるパターンを大まかに識別する大分類ネット
101と、その最大出力値で決定される類似カテゴリ選
択信号を出力する選択部102と、類似カテゴリ選択信
号により選択される、最終的な認識カテゴリを識別する
詳細分類ネッ)103.  ・・e、104と、詳細分
類ネットの出力を統合する統合部105で構成される。 この実施例によれば、大分類ネット101と選択部10
2により、類似カテゴリの詳細分類ネッ)103.  
・舎・ 104を選択し、最終的な認識カテゴリを識別
するので、構成が簡単となり、また認識率が高くなる。 なお、大分類部での選択で類似カテゴリを限定せずに、
各詳細分類ネットの認識出力を統合して、最終的な認識
カテゴリを識別しても良い。 さらに、大分類部、または、詳細分類部の一方のみを、
既存の識別手法を用いて構成しても良い。 【第3の実施例】 第11図は本発明の第3の実施例を示すブロック図であ
る。 この実施例は第1の実施例に示した疎な中間層を実現す
るための相互抑制結合を持った3層ネット構造のフィー
ドバック連想記憶モデルを基本ネットとし、さらに同じ
構成を育し各カテゴリの分布の許容範囲を決定する補助
ネットを付加して、変形に強いパターン認識と、認識辞
書の学習を効率的に行うものである。 この第3の実施例の装置は、第1の実施例において説明
した第1図および第2図に示すような構成を有する基本
ネット(基本認識ネットワーク)111と、基本ネット
111と同じ構成を有するカテゴリ(1)〜(m)の補
助ネット112.113と、入力パターンx (O)と
辞書との差分な求める差分パターン抽出部114と、正
弦方向の許容変動判定部115と、認識結果判定部11
6とからなりでいる。 第12図により本実施例の認識処理を説明する。 基本ネットの中間層の各認識素子は、各カテゴリプロト
タイプパターン方向の変動には敏感に反応するが、他カ
テゴリのプロトタイブノずターン方向の変動には鈍感で
ある。 そこで、入力初期パターンx (0)を設定しく5te
p O) 、基本ネット111から式■〜■の認識処理
を1回だけ実行する。この時の各中間層出力y1は入力
初期パターンと各カテゴリの辞書パターンとの類似度C
05e1を表すものとなる(Stepl)。 次に入力初期パターンX (0)から得られたフィード
バック信号を用いて、基本ネットによる式■〜■の処理
を収束するまで繰り返すことにより認識出力f (h(
y))の計算をする(Step2)。 入力初期パターンX(0)と各辞書パターンX(1+の
差分を差分パターン抽出部114により求め、この差分
パターンを各カテゴリ(1)〜(m)の補助ネット11
2〜113に入力する。 各カテゴリの補助ネットは基本ネットと同様な構成で、
そのしきい値のみが異なるものである。 各補助ネット112〜113では、入力パターンが各カ
テゴリの辞書パターンからどの程度変動しているかを、
差分パターンの各カテゴリの辞書パターン方向への射影
成分(COSθ、)から求める。 もし、これらの値が許容値以上ならば、あるカテゴリに
許容範囲外のパターンが入力されたことを示すように、
その許容外方向に相当する中間素子が発火する(オン状
態なる)。 他のカテゴリの補助ネットについても同様に、許容範囲
外のパターンが入力されたことを示す発火素子があるか
どうかを調べる(Step 4 )。 また、正弦方向の変動に対しては、5tep 1で求め
た各カテゴリへの類似度COSθ1を用いて、sinθ
、=   −CO5,を計算し、各カテゴリについてこ
の値が許容値以下かどうか確かめられる。 もし、許容値を越えていれば、該当するカテゴリの認識
結果を受理しないように、補助ネットと同様な発火信号
を認識結果判定部116に送る。 補助ネット112〜113と正弦方向の許容変動判定器
115からの発火素子があった場合には、そのカテゴリ
に対する認識出力を認識結果判定部116で零(non
active )にする(Step 5 ) 、すなわ
ち、基本ネット111の認識出力が発火していようと認
識結果判定部116による統合結果としては、そのカテ
ゴリの認識出力は否定される。 最後に基本ネット111のカテゴリiの認識出力のみが
1となっているかを判定する(Step 6 )。 その判定の結果、カテゴリiの認識出力のみが1となっ
ている場合は、カテゴリiを認識結果とする(Step
 7 )。 5tep 6の判定において、カテゴリiの認識出力の
みが1となっていなかった場合は、誤認なので、結果を
リジェクトする(Step8)。 第14図に2次元2カテゴリの場合の認識境界の様子を
示す。例えば、カテゴリAの認識領域は、基本ネットで
下側の境界が定まり、カテゴリAの補助ネットのカテゴ
リB (cosθ8)方向に関する素子で右側の境界が
、カテゴリA(cosθA)方向に関する素子で上側の
境界がそれぞれ定まり、また、正弦方向(sinθA)
の境界は正弦方向の許容変動゛判定器によって定まる。 カテゴリBの認識境界についても同様である。 次に、第13図に従って、本実施例の補助ネットにおけ
る他カテゴリ方向の許容範囲の調整方法を説明する。 まず、各カテゴリのプロトタイプパターンがその入力パ
ターンには反応する(他カテゴリの素子が反応してもよ
い)ように記憶され、その許容変動範囲を示すしきい値
が調整されたとする(StepO)。 次に、この基本ネットをコピーして各カテゴリの補助ネ
ットを作り、入力パターンを順に提示する(Step 
1 )。 提示したパターンカテゴリ以外の他カテゴリの認識出力
が受理されるかどうかを判定する(Step2)。 判定の結果、他カテゴリの認識出力がなかったときは、
すべてのサンプルパターンに誤認がないかを調べ(St
ep 3 ) N まだ誤認のあるサンプルパターンが
あるときは次のサンプルパターンを提示する。誤認のあ
るサンプルパターンがなくなったら処理を終了する。 5tep 2の判定の結果、基本ネットの中間素子が誤
って他カテゴリに反応していたら、補助ネットを動作さ
せる(Step4)。 そして、基本ネットで誤認したカテゴリが補助ネットで
否定されるかどうかを調べる(step5)。 補助ネットで否定された場合には、認識処理時にはその
カテゴリは基本ネットが誤判定しても補助ネットを参照
することにより正しい判定ができるので、補助ネットの
調整は行わず、次のパターンを提示し調整を続行する。 5tep 5の判定で、基本ネットで誤認したカテゴリ
が補助ネットで否定されなかった場合には、その入力カ
テゴリの補助ネットの中間素子(誤反応するカテゴリに
相当)のしきい値を微小量Δだけ小さくして、他カテゴ
リの変動許容範囲をきつくする(Step 6 )。 学習用の入力パターンが誤認しな(なるまで、再度提示
してこの操作を繰り返す。これによって学習後は、学習
パターン以外に対しても、誤認の少ない認識処理が実行
できる。 【発明の効果] 本発明は、連想能力の高い一般逆行列を局所的で簡単な
処理で近似的に実現し、しきい値処理とフィードバック
回路によって変形パターンにも対応できるようにしたの
で、誤認が少ないパターン認識が効率的に実行でき、か
つ、簡単な演算で認識辞書も学習できるという効果を奏
する。 また、本発明は補助ネットを設けた態様によれば、各カ
テゴリの分布の許容範囲を決定し、認識を行うので、−
層誤認の少ないパターン認識が効率良く実現できる。
[First Embodiment] FIG. 1 is a diagram showing an orthogonal projection type feedback associative memory model of the present invention, and FIG. 2 is a diagram showing an embodiment of the system configuration of the present invention. As shown in FIG. 2, this system includes an input register 21 that holds an input pattern or feedback output, a clock oscillator 22 that controls the timing of supplying the contents of the input register 21 to the next stage, and a W2
The sum-of-products calculation section 23 calculates "x", and the dy/dt of equation 0 is calculated based on the outputs of the sum-of-products calculation sections 23 and 26, and the output y (t) of the intermediate layer is updated by the change.
The differential calculation unit 24 obtains the output y (
t) and outputs h(y(t)); a nonlinear threshold processing unit 27 that performs threshold processing on the output of the function calculation unit 25; and a nonlinear threshold processing unit 2.
It consists of an output register 28 that holds the output of 7 as a recognition output f (y), and a product-sum operation section 29 that multiplies the output of the threshold processing section 27 by X and performs the operation of the 0 formula. Each calculation unit of the second rEJ device that performs this learning e-recognition process can be realized by a program on a general-purpose computer or a dedicated analog (or digital) calculation circuit by discretizing continuous time. The states of the elements in each layer are stored in their respective registers, and the connection weight values are stored in the memory of the product-sum operation section. FIGS. 6 and 7 are flowcharts showing the processing procedure of the present invention, and show the processing procedure of recognition and learning, respectively. In the following, an example of recognition processing when the combination weight values Wl and W2, which are recognition dictionaries, have already been set will be explained with reference to FIG. 6, and then an example of a learning method for the recognition dictionary will be explained with reference to FIG. 7. explain. In the recognition process of the present invention, as shown in the flowchart of FIG.
(Step O). That is, when the sample time interval is T, an input pattern x I m + belonging to category m is applied to the input layer during 0≦t<T. Second
The input pattern x'=x (1 is held in the input register 21 in the figure. In the meantime, by t=kT, the intermediate transmission output is updated by formula (Step 1). τd y(t)/d t = Wl h(y(t))
+ W2"x'...ΦHere, W1=-X"X,
W2=X, prototype matrix: X=[xmouth+, x(
21,,,,X(Ml]dxfl+: (χ+11...
, , , , x(11N). Also,
Let τ<T. (2) Calculate the intermediate layer output h (y(t)) using the formula. This calculation is performed using the apparatus shown in FIG. The product-sum calculation unit 23 calculates W2′ x ′, and the product-sum calculation unit 26 calculates Wlh (y(t)). This intermediate layer output h (y(t) ) is subjected to threshold processing using flo by the nonlinear threshold processing unit 27 to obtain a recognition ratio cover turn f , (h(y(t)) ). It is determined whether all elements of the recognition ratio cover turn are O or 1 within the range of error ε (5tep2). If all are 0 or 1, the process ends. If there is an element that is not O or 1, update the feedback signal and set k to +1 and repeat 5 steps.
1 ((Step 3). That is, the feedback signal is calculated using the equation
+1) Provide up to Ts to the input layer. That is, the input register 21 has kT, ≦T< (k+1
) T, holds the open signal. In the meantime, perform similar processing according to formula (2). This process is repeated until all elements of the recognition output become O or 1. Note that when 0≦t<Ts, the following is true. ■As shown in the formula, during kT, ≦t<(k+1)T, the general inverse matrix is approximately calculated by the mutually inhibiting coupling W1 in the intermediate layer, and the identity mapping is approximated by the feedback signal, so noise input Strong against Further, when the prototype pattern stored in the recognition dictionary (W2) is input, the output of the intermediate layer is a sparse code expression in which only one element representing the recognition category fires, as shown in equation (2). Here, T: transpose, +
D represents the general inverse matrix. y ((k+1)T,)! "t (XTX)"X↑X'
= (X”X)”X”Xf+ (y (kT,)
)=r+<y(kT-))...
・■y (T,) L:i(X”X)”X”X'= (
X”X)”X”x'・l= (0,...,0,1゜0
, . . 0) . . . 0 Next, the learning process of the connection weight value, which is the recognition dictionary of the present invention, will be explained according to the flowchart of FIG. First, with a prototype pattern such as the average value of multiple learning patterns in each recognition category, the combined directivity Wt and W
2 is initialized (Step O). W+=-XTX W2=X Next, perform the above-mentioned recognition process for each learning pattern (S
step 1). If the presented learning pattern can be recognized correctly, the connection weight value (dictionary) is made a little closer to this learning pattern (5te
p2). W1=-a e”'x”x e(k”+ (1-a)W
l −■W2=ae(k'+ (1-B)W2
-■If the presented learning pattern is approved by WA,
f,(o)=O,fl so as to reduce the area of attraction of the stable point for the prototype pattern of the misidentified category.
(1)=1. Under the condition of f, (θl) = θ1, 01 is thickened (and the threshold value numerical aperture f10 is adjusted (Step 2)
). The learning pattern is presented again and this operation is repeated until all learning patterns are no longer misrecognized (Step 3). After learning, recognition processing with fewer misidentifications can be performed on patterns other than the learned patterns. Examples of each parameter are shown below. Number of input dimensions: N = 258, number of categories: M = 71, time constant of decay: τ = 0.1, sampling time: T, = 10° learning constant: α = 0.1, instability parameter: θ, = Fluctuation of 0.5, θ! : δ=0.01, Threshold numerical aperture: Incidentally, when the threshold numerical aperture is shown in a diagram, it is as shown in FIG. 5. FIG. 8 shows an experimental example of pattern recognition showing the effects of this embodiment, and FIG. 9 shows an experimental example of pattern recognition using a conventional example for comparison. In both figures, (a) shows the pattern rEJ given to the input layer, this pattern "E" containing 15% random noise. (b) shows the pattern obtained in the output layer, (
C) shows the state of the intermediate layer. As shown in FIG. 9(b), in the case of the conventional example, the pattern obtained in the output layer contains considerable noise, but in the case of the embodiment of the present invention shown in FIG. 8(b), noise is removed. A beautiful pattern is obtained. Regarding the intermediate layer, as shown in FIG. 9(C), according to the prior art, a relatively large intermediate value output appears in one element, and relatively small intermediate value outputs appear in three elements. ing. In contrast, in the embodiment of the present invention, only one element is a 100% firing element, as shown in FIG. 8(C). As described above, it can be seen from the experimental examples that the present invention has a much superior pattern recognition ability compared to the prior art. [Second Embodiment] FIG. 10 shows a modified embodiment (second embodiment) of the present invention using major classification and detailed classification. This uses the associative memory model of the present invention as a plurality of modules, and includes a large classification net 101 that roughly identifies patterns consisting of similar categories, and a selection unit 102 that outputs a similar category selection signal determined by its maximum output value. and a detailed classification network that identifies the final recognition category selected by the similar category selection signal) 103. ...e, 104, and an integrating unit 105 that integrates the outputs of the detailed classification net. According to this embodiment, the major classification net 101 and the selection unit 10
2, detailed classification of similar categories) 103.
・Since 104 is selected and the final recognition category is identified, the configuration is simple and the recognition rate is high. In addition, without limiting the similar categories by selection in the major classification section,
A final recognition category may be identified by integrating the recognition outputs of each detailed classification net. Furthermore, only one of the major classification section or the detailed classification section,
It may be configured using an existing identification method. [Third Embodiment] FIG. 11 is a block diagram showing a third embodiment of the present invention. This example uses the feedback associative memory model of the three-layer net structure with mutually inhibiting connections to realize the sparse intermediate layer shown in the first example as the basic net, and further develops the same configuration to By adding an auxiliary net that determines the permissible range of the distribution, pattern recognition that is resistant to deformation and recognition dictionary learning can be performed efficiently. The device of this third embodiment has a basic net (basic recognition network) 111 having the configuration shown in FIGS. 1 and 2 described in the first embodiment, and a configuration same as that of the basic net 111. Auxiliary nets 112 and 113 of categories (1) to (m), a differential pattern extraction unit 114 that calculates the difference between the input pattern x (O) and the dictionary, an allowable variation determination unit 115 in the sine direction, and a recognition result determination unit 11
It consists of 6. The recognition processing of this embodiment will be explained with reference to FIG. Each recognition element in the intermediate layer of the basic net responds sensitively to changes in the direction of each category prototype pattern, but is insensitive to changes in the turn direction of prototype patterns in other categories. Therefore, let's set the input initial pattern x (0).
p O), the recognition processing of equations (1) to (2) is executed only once from the basic net 111. At this time, each intermediate layer output y1 is the similarity C between the input initial pattern and the dictionary pattern of each category.
05e1 (Step). Next, using the feedback signal obtained from the input initial pattern X (0), the recognition output f (h(
y)) is calculated (Step 2). The difference between the input initial pattern X(0) and each dictionary pattern
Enter numbers 2 to 113. The auxiliary net for each category has the same configuration as the basic net,
Only the thresholds are different. Each auxiliary net 112 to 113 measures how much the input pattern varies from the dictionary pattern of each category.
It is determined from the projected component (COS θ,) of each category of the difference pattern in the direction of the dictionary pattern. If these values are greater than or equal to the allowable values, it indicates that a pattern outside the allowable range has been entered in a certain category.
The intermediate element corresponding to the non-permissible direction fires (turns on). Similarly, for the auxiliary nets of other categories, it is checked whether there is a firing element that indicates that a pattern outside the permissible range has been input (Step 4). In addition, for fluctuations in the sinusoidal direction, using the degree of similarity COSθ1 to each category obtained in step 1, sinθ
, = -CO5, and check whether this value is below the allowable value for each category. If the allowable value is exceeded, a firing signal similar to that of the auxiliary net is sent to the recognition result determination unit 116 so as not to accept the recognition result of the corresponding category. If there is a firing element from the auxiliary nets 112 to 113 and the permissible variation determination unit 115 in the sinusoidal direction, the recognition output for that category is set to zero (non) by the recognition result determination unit 116.
active) (Step 5), that is, even if the recognition output of the basic net 111 is fired, the recognition output of that category is denied as an integrated result by the recognition result determination unit 116. Finally, it is determined whether only the recognition output of category i of the basic net 111 is 1 (Step 6). As a result of the determination, if only the recognition output of category i is 1, category i is set as the recognition result (Step
7). 5 In the determination of Step 6, if only the recognition output of category i is not 1, it is a misrecognition and the result is rejected (Step 8). FIG. 14 shows the state of the recognition boundary in the case of two dimensions and two categories. For example, in the recognition area of category A, the lower boundary is determined by the basic net, the right boundary is determined by the element in the category B (cos θ8) direction of the auxiliary net of category A, and the upper boundary is determined by the element in the category A (cos θA) direction of the auxiliary net of category A. The boundaries are determined, and the sine direction (sinθA)
The boundary of is determined by the permissible variation in the sinusoidal direction. The same applies to the recognition boundary of category B. Next, with reference to FIG. 13, a method of adjusting the allowable range in the other category direction in the auxiliary net of this embodiment will be explained. First, it is assumed that a prototype pattern of each category is stored so as to react to its input pattern (elements of other categories may also react), and a threshold value indicating its permissible variation range is adjusted (Step O). Next, copy this basic net to create auxiliary nets for each category, and present the input patterns in order (Step
1). It is determined whether recognition outputs of categories other than the presented pattern category are accepted (Step 2). As a result of the judgment, if there is no recognition output for other categories,
Check all sample patterns for misidentification (St
ep 3) N If there are still sample patterns that are misidentified, present the next sample pattern. The process ends when there are no more misidentified sample patterns. 5. If the intermediate element of the basic net is erroneously reacting to another category as a result of the determination in Step 2, the auxiliary net is operated (Step 4). Then, it is checked whether the category misidentified by the basic net is denied by the auxiliary net (step 5). If the auxiliary net is negative, the next pattern is presented without adjusting the auxiliary net, because during recognition processing, even if the basic net incorrectly judges that category, the correct judgment can be made by referring to the auxiliary net. and continue adjusting. 5tep In the judgment in step 5, if the category misidentified by the basic net is not denied by the auxiliary net, the threshold of the intermediate element (corresponding to the category that responds incorrectly) of the auxiliary net for that input category is set by a small amount Δ. and tighten the allowable range of variation for other categories (Step 6). The input pattern for learning is presented again and this operation is repeated until there is no misrecognition. By this, after learning, recognition processing with fewer misrecognitions can be performed even for patterns other than the learning pattern. [Effects of the invention] The present invention approximately realizes a general inverse matrix with high associative ability through local and simple processing, and can also handle deformed patterns using threshold processing and a feedback circuit, allowing pattern recognition with fewer misidentifications. This has the effect of being able to be executed efficiently and learning a recognition dictionary with simple calculations.Furthermore, according to an aspect of the present invention in which an auxiliary net is provided, the permissible range of the distribution of each category is determined, and the recognition Since −
Pattern recognition with less layer misidentification can be efficiently realized.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の直交射影型フィードフォワード連想
記憶モデルを示す図である。ただし、図中には注目した
中間層素子への結合のみが示されている。 第2図は、本発明の第1の実施例のシステム構成を示す
図である。 第3図は、従来の直交射影型フィードフォワード連想記
憶モデルを示す図である。 第4図は、従来の直交射影型フィードフォワード連想記
憶モデルを示す図である。 第5図は、中間層出力にしきい値処理を施すための非線
形しきい関数の一例を示す図である。 第6図は、本発明の認識処理の概略を示すフォローチャ
ートである。 第7図は、本発明の学習処理の概略を示すフローチャー
トである。 第8図(a)〜(c)は、本実施例の効果を示すパター
ンの認識の実験例を示す図である。 第9図(a)〜(C)は比較のために示す従来例による
パターンの認識の実験例を示すものである。 第10図は、大分類と詳細分類を用いた本発明の第2の
実施例を示す図である。 第11図は、本発明の第3の実施例のシステム構成を示
す図である。 第12図は、第3の実施例の認識処理の手順を示すフロ
ーチャートである。 第13図は、第3の実施例の学習処理の手順を示すフロ
ーチャートである。 第14図は第3の実施例における2次元パターンの2カ
テゴリの識別面の形成例を示した図である。 21・・・入力レジスタ、22・・・クロック発振器、
23.26.29・・・積和演算部、24・・・微分演
算部、25・・・関数演算部、27・・・非線形しきい
処理部、28・・・出力レジスタ。
FIG. 1 is a diagram showing an orthogonal projection type feedforward associative memory model of the present invention. However, in the figure, only the coupling to the interlayer element of interest is shown. FIG. 2 is a diagram showing the system configuration of the first embodiment of the present invention. FIG. 3 is a diagram showing a conventional orthogonal projection type feedforward associative memory model. FIG. 4 is a diagram showing a conventional orthogonal projection type feedforward associative memory model. FIG. 5 is a diagram showing an example of a nonlinear threshold function for applying threshold processing to the intermediate layer output. FIG. 6 is a follow chart showing an outline of the recognition process of the present invention. FIG. 7 is a flowchart showing an outline of the learning process of the present invention. FIGS. 8(a) to 8(c) are diagrams showing experimental examples of pattern recognition showing the effects of this embodiment. FIGS. 9(a) to 9(C) show experimental examples of pattern recognition according to a conventional example for comparison. FIG. 10 is a diagram showing a second embodiment of the present invention using major classification and detailed classification. FIG. 11 is a diagram showing the system configuration of the third embodiment of the present invention. FIG. 12 is a flowchart showing the procedure of recognition processing in the third embodiment. FIG. 13 is a flowchart showing the procedure of learning processing in the third embodiment. FIG. 14 is a diagram showing an example of forming two categories of identification surfaces of a two-dimensional pattern in the third embodiment. 21... Input register, 22... Clock oscillator,
23.26.29... Product sum calculation section, 24... Differential calculation section, 25... Function calculation section, 27... Nonlinear threshold processing section, 28... Output register.

Claims (2)

【特許請求の範囲】[Claims] (1)フィードバック回路によって入力パターンを認識
出力パターンに動的に変換するとともに、認識辞書を学
習によつて獲得する連想記憶モデルにおいて、疎な符号
表現を用いた中間層を持ち、認識辞書である結合重みに
記憶すべき情報を分散的に記憶することを特徴とするパ
ターン認識方式。
(1) In an associative memory model that dynamically converts an input pattern into a recognition output pattern using a feedback circuit and acquires a recognition dictionary through learning, it has an intermediate layer using sparse code representation, and is a recognition dictionary. A pattern recognition method characterized by storing information to be stored in connection weights in a distributed manner.
(2)フィードバック回路によって入力パターンを認識
出力パターンに動的に変換するとともに、認識辞書を学
習によつて獲得する連想記憶モデルであって、疎な符号
表現を用いた中間層を持ち、認識辞書である結合重みに
記憶すべき情報を分散的に記憶するパターン認識方式に
おいて、各認識カテゴリの分布の許容範囲を決定する補
助ネットを設けたことを特徴とするパターン認識方式。
(2) An associative memory model that dynamically converts an input pattern into a recognition output pattern using a feedback circuit and acquires a recognition dictionary through learning. 1. A pattern recognition method in which information to be stored in connection weights is stored in a distributed manner, characterized in that an auxiliary net is provided to determine the permissible range of distribution of each recognition category.
JP2280519A 1990-10-18 1990-10-18 Pattern recognition method using sparse code representation Expired - Fee Related JP3018465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2280519A JP3018465B2 (en) 1990-10-18 1990-10-18 Pattern recognition method using sparse code representation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2280519A JP3018465B2 (en) 1990-10-18 1990-10-18 Pattern recognition method using sparse code representation

Publications (2)

Publication Number Publication Date
JPH04153891A true JPH04153891A (en) 1992-05-27
JP3018465B2 JP3018465B2 (en) 2000-03-13

Family

ID=17626236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2280519A Expired - Fee Related JP3018465B2 (en) 1990-10-18 1990-10-18 Pattern recognition method using sparse code representation

Country Status (1)

Country Link
JP (1) JP3018465B2 (en)

Also Published As

Publication number Publication date
JP3018465B2 (en) 2000-03-13

Similar Documents

Publication Publication Date Title
Adeli et al. An adaptive conjugate gradient learning algorithm for efficient training of neural networks
Chen A rapid supervised learning neural network for function interpolation and approximation
Abe Neural networks and fuzzy systems: theory and applications
Yoshida et al. Models of Hopfield-type quaternion neural networks and their energy functions
Phillips Strong systematicity within connectionism: The tensor-recurrent network
Ikbal et al. Analysis of autoassociative mapping neural networks
Cheng et al. Sensitivity analysis of neocognitron
KR20210060146A (en) Method and apparatus for processing data using deep neural network model, method and apparatus for trining deep neural network model
Pal et al. A new shape representation scheme and its application to shape discrimination using a neural network
JPH04153891A (en) Pattern recognition system using rough code expression
JPH04153890A (en) Pattern recognition system using rough dispersed code expression
Hagiwara et al. Analysis of momentum term in back-propagation
Hwang et al. Classification boundaries and gradients of trained multilayer perceptrons
Wan et al. Introducing cost-sensitive neural networks
Armitage Neural networks in measurement and control
Na et al. Single-sensor active noise cancellation using recurrent neural network predictors
Tang et al. Data fusion with different accuracy
Polat et al. Recognition of patterns without feature extraction by GRNN
JPH06508948A (en) How to handle uncertainty in input data in neural networks
JPH05303645A (en) Picture recognition device
August et al. Applications of Hopfield Networks
JPH0612396A (en) Pattern recognition and learning system
Lin Target components discrimination using adaptive time-delay neural network
Zhu et al. Learning Control Units
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees