JP4350228B2 - Pattern recognition method and apparatus - Google Patents

Pattern recognition method and apparatus Download PDF

Info

Publication number
JP4350228B2
JP4350228B2 JP27058699A JP27058699A JP4350228B2 JP 4350228 B2 JP4350228 B2 JP 4350228B2 JP 27058699 A JP27058699 A JP 27058699A JP 27058699 A JP27058699 A JP 27058699A JP 4350228 B2 JP4350228 B2 JP 4350228B2
Authority
JP
Japan
Prior art keywords
patterns
feature
component
candidate
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27058699A
Other languages
Japanese (ja)
Other versions
JP2001092924A (en
Inventor
直樹 ▲高▼田
博史 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP27058699A priority Critical patent/JP4350228B2/en
Publication of JP2001092924A publication Critical patent/JP2001092924A/en
Application granted granted Critical
Publication of JP4350228B2 publication Critical patent/JP4350228B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、パターン認識方法および装置に関し、特に、手書き文字等を高い認識率で認識することのできるパターン認識方法および装置に関する。
【0002】
【従来の技術】
近年、パターン認識技術を利用した文字認識装置は、技術の向上とともにその対象が活字文字から手書き文字にまで広がり、需要も増大している。
【0003】
文字認識装置は、入力された画像に対し、前処理として2値化と文字の切り出しを行った後、当該文字の特徴抽出を行う。特徴抽出は、例えば、文字の輪郭方向に関する特徴量を抽出するもので、図11(a)に示すように対象となる文字を5×5に分割し、分割したそれぞれの領域に対して図11(b)に示すような8方向の特徴量を抽出する。つまり、ここで抽出した特徴量は、5×5×8の200次元のベクトルとして表すことができる。なお、この200次元の空間を特徴空間と呼ぶ。
【0004】
認識対象文字の特徴量を抽出すると、この特徴量に基づいて候補パターンの選出を行う。候補パターンの選出は、抽出した特徴量を標本辞書を用いて全パターンマッチングを行い、ユークリッド距離の近いものを15個とり、これを入力に対する近傍パターンとすることにより行う。
【0005】
続いて、近傍パターンから上位の2カテゴリー(クラス、文字の種類)を選択し、これを候補カテゴリーとして、詳細判定を行う。
【0006】
詳細判定は、フィッシャーの方法(石井健一郎・上田修功・前田英作・村瀬洋:パターン認識,オーム社,1998参照)により行う。フィッシャーの方法とは、特徴空間をより次元の小さい部分空間に変換する方法の一つであり、特徴空間上のクラス(カテゴリー)のパターンの分布から、このクラスを識別するのに最適な1次元軸を求める手法である。
【0007】
例えば、図12に示すクラスC1とC2のパターンを判別する場合、フィッシャー比と呼ばれる(クラス間分散/クラス内分散)を最大とするような座標変換を行って最適なY1軸を求め、このY1軸に射影を行うと(X1、X2は、変換前の軸)、クラスC1、C2を最適に分離することのできる境界(図中、破線で示す)を定めることができる。これに対して、フィッシャー比を最大としない座標変換を行った場合には、Y2軸への射影のようにクラスC1、C2を分離する境界を定めることはできない。つまり、フィッシャーの方法では、異なるクラスのパターンを離し、同一クラスのパターンが固まって分布するように射影することのできる射影軸を決定している。
【0008】
ところが、上述した方法では、図13(a)に示す「フ」という文字が入力された場合、図13(b)に示す「ヲ」と図13(c)に示す「フ」が候補パターンとして選出され、詳細判定により図13(b)に示す「ヲ」と認識されてしまう場合がある。同様に、図13(d)に示す「ハ」という文字が入力された場合、図13(e)に示す「ヘ」と図13(f)に示す「ハ」が候補パターンとして選出され、詳細判定により図13(e)に示す「ヘ」と認識されてしまう場合がある。
【0009】
これは、候補として選択されたパターンが類似している場合に起こり得る。例えば、図13(d)に示した「ハ」の場合、図13(e)に示した「ヘ」と図13(f)に示した「ハ」のそれぞれと重ね合わせると、図14(a)、(b)に示すような結果が得られる。この重ね合わせの結果、つまり、距離によるパターンマッチングの結果は、図13(e)に示した「ヘ」が図13(d)に示した「ハ」に最も近いことを示している。このような場合、フィッシャーの方法により詳細判定を行っても、図15に示したようにクラスAとクラスBとを完全に分離することはできず、結果として誤認識が生じてしまうことになる。
【0010】
また、上述した方法の他にも、特開平6−28525号公報に記載されている「文字認識方法」のようなものも提案されている。この方法では、文字見本の原始特徴ベクトルの集合分布が最適となる特徴空間を求め、特徴抽出対象文字の原始特徴ベクトルをその特徴空間に投影して二次特徴ベクトルを得ることにより文字認識を行うものである。
【0011】
しかし、この方法では、求めた特徴空間は、文字見本において原始特徴ベクトルの集合分布が最適となる特徴空間であり、入力データに対してこの特徴空間が最適であるかどうかは分からない。このため、変化の小さい活字では高い認識能力を有するが、手書き文字に対しては、高い認識能力を持つとは限らない。
【0012】
【発明が解決しようとする課題】
上述したように、従来の文字認識方法では、活字文字に対しては高い認識能力を有するが、手書き文字に対しては高い認識能力を有するとは言い難かった。
【0013】
そこで、この発明は、手書き文字に対しても高い認識能力を有するパターン認識方法および装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
上述した目的を達成するため、請求項1の発明は、所定の識別関数を用いて認識対象の特徴量を評価することにより該識別対象を2つのクラスのいずれに属するかを識別するパターン認識方法において、前記認識対象の特徴量を抽出し、該抽出した特徴量に基づいて、前記クラス毎に複数の標本パターンを登録可能な辞書手段に格納された全標本パターンのうち、前記認識対象とのマッチング結果が上位の標本パターンを近傍パターンとして複数選出し、該選出した近傍パターンに基づいて2つの候補クラスを決定し、該決定した2つの候補クラスごとに求めた該候補クラスに属する前記近傍パターンの平均をもとに、該候補クラスの標本パターンの特徴量の中から注目すべき成分を選択し、該選択した成分に基づいて識別関数の係数を決定し、該係数が決定した識別関数に基づいて前記認識対象の識別を行うことを特徴とする。
【0015】
また、請求項2の発明は、請求項1の発明において、前記2つの候補クラスのそれぞれについて、前記辞書手段に格納された全標本パターンの平均と、前記近傍パターンの平均を求め、該2つの標本パターンの平均および該2つの近傍パターンの平均をもとに、各成分毎に差を求めて各成分の寄与度を算出し、該寄与度の所定個数の和である局所累積寄与度を最大化する成分を注目すべき成分として選択することを特徴とする。
【0016】
また、請求項3の発明は、請求項1の発明において、前記2つの候補クラスのそれぞれについて、前記近傍パターンの平均を求め、該2つの近傍パターンの平均をもとに、各成分毎に差を求めて各成分の寄与度を算出し、該寄与度の所定個数の和である局所累積寄与度を最大化する成分を注目すべき成分として選択することを特徴とする。
【0017】
また、請求項4の発明は、請求項1の発明において、前記識別関数は、フィッシャーの線形判別法を適用して決定されることを特徴とする。
【0018】
また、請求項5の発明は、請求項1の発明において、前記認識対象は、文字であることを特徴とする。
【0019】
また、請求項6の発明は、所定の識別関数を用いて認識対象の特徴量を評価することにより該識別対象を2つのクラスのいずれに属するかを識別するパターン認識装置において、前記認識対象の特徴量を抽出する特徴量抽出手段と、前記クラス毎に複数の標本パターンを登録可能で、前記クラスに属する標本パターンの特徴量を格納する辞書手段と、前記特徴量抽出手段が抽出した前記認識対象の特徴量に基づいて、前記辞書手段に格納された全標本パターンのうち、前記認識対象とのマッチング結果が上位の標本パターンを近傍パターンとして複数選出し、該選出した近傍パターンに基づいて2つの候補クラスを決定する候補選出手段と、前記2つの候補クラスごとに求めた該候補クラスに属する前記近傍パターンの平均をもとに、該候補クラスの標本パターンの特徴量の中から注目すべき成分を選択する特徴選択手段と、前記特徴選択手段が選択した成分に基づいて識別関数の係数を決定し、該係数が決定した識別関数に基づいて前記認識対象の識別を行う識別処理手段とを具備することを特徴とする。
【0022】
【発明の実施の形態】
以下、この発明に係るパターン認識方法および装置の一実施例について、添付図面を参照して詳細に説明する。
【0023】
図1は、この発明を適用した文字認識装置の概略構成を示す機能ブロック図である。
同図に示すように、文字認識装置10は、画像入力部1と前処理部2、特徴抽出部3、候補選出部4、特徴選択部5、判定処理部6、辞書部7、結果出力部8を具備して構成される。
【0024】
画像入力部1は、認識対象となる文字(列)の画像を入力し、前処理部2は、認識の前処理として画像入力部1より入力された画像の2値化と文字の切り出しなどを行う。特徴抽出部3は、前処理部2で前処理が施された文字画像から特徴ベクトルを生成する。特徴ベクトルの生成は、従来と同様に行い、例えば、文字画像を5×5に分割し、分割した各々で8方向の特徴量を抽出する。候補選出部4は、特徴抽出部3で生成された特徴ベクトルと辞書部7に格納されている全標本パターンとのユークリッド距離を求め、候補カテゴリー(クラス)を選出する。特徴選択部5は、特徴抽出部3が生成した特徴ベクトルと候補選出部4が選出した候補カテゴリーに基づいて、注目すべき成分を選択し、判定処理部6は、特徴選択部5が選択した成分を参酌してフィッシャーの方法により識別判定を行う。結果出力部6は、判定処理部6が識別判定したカテゴリーを認識結果として出力する。
【0025】
次に、図2を参照して文字認識装置10の動作を説明する。
図2は、文字認識装置10の動作の流れを示すフローチャートである。
【0026】
文字認識装置10は、動作を開始すると、まず、画像入力部1から認識対象の文字画像を入力し(ステップ101)、前処理部2が画像入力部1から入力された文字画像に対する前処理を行う(ステップ102)。続いて、特徴抽出部3が前処理が施された文字画像から特徴の抽出、つまり、特徴ベクトルを生成し(ステップ103)、候補選出部4が、特徴ベクトルと辞書部7に格納されている全標本パターンとのパターンマッチング(距離計算)を行い、その結果の上位の所定数(例えば15個)を近傍パターンとし、この近傍パターンに基づいて候補カテゴリーを2つ決定する(ステップ104)。
【0027】
続いて、特徴選択部5が後述する特徴選択処理を行い(ステップ105)、判定処理部6が後述する詳細判定処理を行い(ステップ106)、結果出力部8が認識結果を出力して(ステップ107)、処理を終了する。
【0028】
次に、特徴選択部5が行う特徴選択処理について説明する。
特徴選択処理は、2つの候補カテゴリーから認識結果としてのカテゴリーを決定する際に、注目すべき成分を決定する処理である。例えば、図3(a)に示す代表的な「ユ」と図3(b)に示す代表的な「コ」を識別する際には、図3(c)に示すように、文字の左上、右上、右下の順に重点を置くことで、その識別が容易となる。しかしながら、図3(d)に示すような「コ」が入力された場合、文字の左上や右上に注目しても「ユ」との違いは少なく(図3(e)参照)、図3(f)に示すように文字の右下にのみ注目すれば、「ユ」との識別が容易となる。
【0029】
ここで、図4を参照して特徴選択処理の流れを説明する。
図4は、特徴選択処理の流れを示すフローチャートである。
【0030】
特徴選択処理では、まず、全特徴成分に対してフィッシャーの方法を適用して射影を行う行列Aを求める(ステップ151)。続いて、式1に示す候補カテゴリーの全標本辞書平均と、式2に示す近傍パターンの平均を求める(ステップ152)。
【0031】
【式1】

Figure 0004350228
【式2】
Figure 0004350228
次に、フィッシャーの方法適用時に安定して射影軸が求まるようにする処理を行うが、これは候補カテゴリーの近傍平均の成分u'i、v'iが0または1であるようなものを除く処理であり、具体的には、式3を満たす成分iを抽出する(ステップ153)。
【0032】
【式3】
Figure 0004350228
続いて、以下に定義する局所累積寄与度を算出する(ステップ154)。ここで、局所累積寄与度について説明する。まず、式4に示すようにi成分の寄与度κiを定義する。次に、入力データの近傍パターンを考慮すると、式4から各成分の寄与度は式5に示すように定義できる。
【0033】
【式4】
Figure 0004350228
【式5】
Figure 0004350228
なお、式5において、αは近傍パターンの影響度を示しており、αが大きい程近傍情報を重視していることになる。
【0034】
局所累積寄与度は、(κi local)N i=1から任意にm個取り出したものの総和として定義し、Κlocal(m)で表す。
【0035】
次に、局所累積寄与度Κlocal(m)を最大にする最大局所累積寄与度Κ* local(m)を用いて最大化する成分を選択し(ステップ155)、特徴選択処理を終了する。
【0036】
なお、ここで説明した特徴選択処理を図3(d)に示した「コ」を入力パターンとした場合に適用すると、各方向(方向については、図11(b)を参照)、各成分における寄与度κi localは、図5に示すようになり、文字の下部の値が大きいことがわかる。
【0037】
次に、判定処理部6における詳細判定処理(図2のステップ106)について説明する。
図6は、詳細判定処理の流れを示すフローチャートである。
【0038】
判定処理部6は、詳細判定処理を開始すると、特徴選択部5により特徴選択された空間で候補カテゴリーにおける近傍平均、標本辞書平均、クラス内変動行列を求め(ステップ161)、フィッシャーの線形判別法を適用して一次元への射影行列Asを得て(ステップ162)、カテゴリーを決定し(ステップ163)、詳細判定処理を終了する。
【0039】
なお、入力データの特徴ベクトルをx、特徴選択された特徴ベクトルをxs、候補カテゴリーの全標本全体の平均において特徴選択されたものをus、vs、近傍パターンのうち候補カテゴリーであるものの平均において特徴選択されたものをu's、v'sとすれば、識別関数は、式6で表され、その識別規則は式7で表せる。
【0040】
【式6】
Figure 0004350228
【式7】
Figure 0004350228
また、図7は、図3(d)に示した「コ」を入力パターンとした場合にステップ162で得られる射影行列Asの各成分を示したものであり、0となっている成分は、選択されなかった成分である。この各成分を図8に示す特徴選択を行わなかった場合の射影行列A(従来と同様の方法で得たもの)と比較すると、射影行列Asは、文字の下部の値が大きく、重み付けされていることがわかる。
【0041】
このように特徴選択をして射影軸への射影を行うと、例えば、図9に示すようなデータX1(カテゴリーBに属する)が入力されると、従来の方法で得られる射影軸1へのX1の射影Y1はカテゴリーAに属することになるが(Y1YA1<Y1YB1)、特徴選択により得られる射影軸2へのX1の射影Y2は、カテゴリーBに属することになる(Y2YA2>Y2YB2)。ただし、同図中の実線の楕円は、各カテゴリー(A、B)の平均パターンm1、m2から等密度となる線であり、破線の楕円は、入力データX1の近傍パターンのうちカテゴリーAであるものの領域(領域a)と、カテゴリーBであるものの領域(領域b)を示している。
【0042】
また、図10は、ある入力データに対して特徴選択を行わなかった場合(従来法)と、特徴選択を行った場合(本手法)に決定されたカテゴリーの例を示したもので(候補カテゴリーは、従来法と本手法で同一)、特徴選択を行うことにより、高い認識能力を有するパターン認識を行えることが分かる。
【0043】
なお、この実施例では、文字認識を例として説明したが、音声認識などの他のパターン認識であっても、フィッシャーの方法を適用するパターン認識であれば特徴選択を行って認識率を向上させることができる。
【0044】
【発明の効果】
以上説明したように、この発明によれば、入力データの近傍を考慮して特徴選択を行い、特徴選択された空間でフィッシャーの線形判別法を適用するように構成したので、手書き文字などの変化の大きい入力に対しても高い認識能力を得ることができる。
【図面の簡単な説明】
【図1】この発明を適用した文字認識装置の概略構成を示す機能ブロック図である。
【図2】文字認識装置10の動作の流れを示すフローチャートである。
【図3】特徴選択処理を説明するための図である。
【図4】特徴選択処理の流れを示すフローチャートである。
【図5】寄与度の算出結果を示した図である。
【図6】詳細判定処理の流れを示すフローチャートである。
【図7】射影行列Asの各成分を示した図である。
【図8】射影行列Aの各成分を示した図である。
【図9】特徴選択をした射影軸への射影を説明するための図である。
【図10】識別結果例を示した図である。
【図11】特徴量の抽出を説明するための図である。
【図12】フィッシャーの方法による射影を説明するための図である。
【図13】誤認識を説明するための図である。
【図14】重ね合わせの結果を示した図である。
【図15】線形分離できないカテゴリーの特徴空間での分布を示した図である。
【符号の説明】
1 画像入力部
2 前処理部
3 特徴抽出部
4 候補選出部
5 特徴選択部
6 判定処理部
7 辞書部
8 結果出力部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pattern recognition method and apparatus, and more particularly to a pattern recognition method and apparatus capable of recognizing handwritten characters and the like with a high recognition rate.
[0002]
[Prior art]
In recent years, a character recognition apparatus using a pattern recognition technology has expanded from printed characters to handwritten characters as the technology has been improved, and the demand has been increasing.
[0003]
The character recognition device performs binarization and character segmentation as preprocessing on the input image, and then performs feature extraction of the character. The feature extraction is, for example, extracting a feature amount related to the outline direction of a character. As shown in FIG. 11A, the target character is divided into 5 × 5, and each divided region is divided into FIG. Features in eight directions as shown in (b) are extracted. That is, the feature quantity extracted here can be expressed as a 5 × 5 × 8 200-dimensional vector. This 200-dimensional space is called a feature space.
[0004]
When the feature amount of the recognition target character is extracted, a candidate pattern is selected based on the feature amount. Selection of candidate patterns is performed by performing all pattern matching on the extracted feature values using a sample dictionary, and taking 15 patterns with short Euclidean distances and setting them as neighboring patterns for the input.
[0005]
Subsequently, the upper two categories (class, character type) are selected from the neighboring patterns, and detailed determination is performed using these categories as candidate categories.
[0006]
Detailed determination is performed by the Fisher method (see Kenichiro Ishii, Nobuyoshi Ueda, Eisaku Maeda, Hiroshi Murase: Pattern Recognition, Ohmsha, 1998). Fischer's method is one of the methods to convert the feature space into a subspace with a smaller dimension. One-dimensional optimum for identifying this class from the class (category) pattern distribution on the feature space. This is a method for obtaining an axis.
[0007]
For example, when the patterns of classes C1 and C2 shown in FIG. 12 are discriminated, an optimal Y1 axis is obtained by performing coordinate transformation that maximizes (inter-class variance / intra-class variance) called the Fisher ratio. When projection is performed on the axes (X1 and X2 are axes before conversion), boundaries (indicated by broken lines in the figure) that can optimally separate the classes C1 and C2 can be determined. On the other hand, when coordinate transformation that does not maximize the Fisher ratio is performed, it is not possible to determine a boundary that separates the classes C1 and C2 as in the projection onto the Y2 axis. That is, according to the Fisher method, projection axes that can be projected so that patterns of different classes are separated and patterns of the same class are fixedly distributed are determined.
[0008]
However, in the method described above, when the character “F” shown in FIG. 13A is input, “W” shown in FIG. 13B and “F” shown in FIG. In some cases, it is selected and recognized as “wo” shown in FIG. Similarly, when the character “C” shown in FIG. 13D is input, “F” shown in FIG. 13E and “C” shown in FIG. 13F are selected as candidate patterns. The determination may be recognized as “f” shown in FIG.
[0009]
This can occur when the patterns selected as candidates are similar. For example, in the case of “C” shown in FIG. 13D, when “F” shown in FIG. 13E and “C” shown in FIG. ), Results as shown in (b) are obtained. The result of superposition, that is, the result of pattern matching by distance, indicates that “f” shown in FIG. 13E is closest to “c” shown in FIG. In such a case, even if the detailed determination is made by the Fisher method, class A and class B cannot be completely separated as shown in FIG. 15, resulting in erroneous recognition. .
[0010]
In addition to the method described above, a “character recognition method” described in Japanese Patent Laid-Open No. 6-28525 has also been proposed. In this method, character recognition is performed by obtaining a feature space in which the set distribution of primitive feature vectors of a character sample is optimal, and projecting the original feature vectors of feature extraction target characters onto the feature space to obtain secondary feature vectors. Is.
[0011]
However, in this method, the obtained feature space is a feature space in which the set distribution of primitive feature vectors is optimal in a character sample, and it is not known whether this feature space is optimal for input data. For this reason, although the type | mold with a small change has a high recognition capability, it does not necessarily have a high recognition capability with respect to a handwritten character.
[0012]
[Problems to be solved by the invention]
As described above, the conventional character recognition method has high recognition ability for printed characters, but it is difficult to say that it has high recognition ability for handwritten characters.
[0013]
SUMMARY OF THE INVENTION An object of the present invention is to provide a pattern recognition method and apparatus having a high recognition ability for handwritten characters.
[0014]
[Means for Solving the Problems]
In order to achieve the above-described object, the invention according to claim 1 is a pattern recognition method for identifying which of two classes the identification object belongs by evaluating the feature quantity of the recognition object using a predetermined identification function. The feature quantity of the recognition target is extracted, and based on the extracted feature quantity, among all the sample patterns stored in the dictionary means capable of registering a plurality of sample patterns for each class, the recognition target and A plurality of sample patterns with higher matching results are selected as neighboring patterns, two candidate classes are determined based on the selected neighboring patterns, and the neighboring patterns belonging to the candidate class determined for each of the two candidate classes thus determined Based on the average of the candidate class, select a notable component from the feature quantity of the sample pattern of the candidate class, and determine the coefficient of the discriminant function based on the selected component , And performs identification of the recognition object on the basis of the discriminant function the coefficient is determined.
[0015]
According to a second aspect of the present invention, in the first aspect of the present invention, for each of the two candidate classes, an average of all sample patterns stored in the dictionary means and an average of the neighboring patterns are obtained, and the two Based on the average of the sample pattern and the average of the two neighboring patterns, a difference is calculated for each component to calculate the contribution of each component, and the local cumulative contribution that is the sum of a predetermined number of contributions is maximized. The component to be converted is selected as a notable component.
[0016]
According to a third aspect of the present invention, in the first aspect of the invention, an average of the neighboring patterns is obtained for each of the two candidate classes, and a difference is determined for each component based on the average of the two neighboring patterns. And calculating the contribution of each component, and selecting the component that maximizes the local cumulative contribution, which is the sum of a predetermined number of contributions, as a component to be noted.
[0017]
The invention of claim 4 is characterized in that, in the invention of claim 1, the discriminant function is determined by applying Fisher's linear discriminant method.
[0018]
The invention of claim 5 is characterized in that, in the invention of claim 1, the recognition object is a character.
[0019]
According to a sixth aspect of the present invention, there is provided a pattern recognition apparatus for identifying which of the two classes the identification object belongs by evaluating a feature quantity of the recognition object using a predetermined identification function. Feature quantity extraction means for extracting feature quantities, dictionary means for storing a plurality of specimen patterns for each class, storing feature quantities of specimen patterns belonging to the class, and the recognition extracted by the feature quantity extraction means Based on the feature quantity of the object, among the all sample patterns stored in the dictionary means, a plurality of sample patterns having higher matching results with the recognition object are selected as neighboring patterns, and 2 based on the selected neighboring pattern. Candidate selection means for determining one candidate class, and the candidate based on an average of the neighboring patterns belonging to the candidate class obtained for each of the two candidate classes A feature selection unit that selects a component of interest from the feature quantity of the sample pattern of the lath, a coefficient of the discrimination function is determined based on the component selected by the feature selection unit, and the coefficient is based on the discrimination function determined And an identification processing means for identifying the recognition target.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a pattern recognition method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
[0023]
FIG. 1 is a functional block diagram showing a schematic configuration of a character recognition apparatus to which the present invention is applied.
As shown in the figure, the character recognition device 10 includes an image input unit 1 and a preprocessing unit 2, a feature extraction unit 3, a candidate selection unit 4, a feature selection unit 5, a determination processing unit 6, a dictionary unit 7, and a result output unit. 8 is configured.
[0024]
The image input unit 1 inputs an image of a character (string) to be recognized, and the preprocessing unit 2 performs binarization of the image input from the image input unit 1 and character segmentation as preprocessing for recognition. Do. The feature extraction unit 3 generates a feature vector from the character image that has been preprocessed by the preprocessing unit 2. The generation of feature vectors is performed in the same manner as in the past. For example, a character image is divided into 5 × 5, and feature amounts in eight directions are extracted for each divided portion. The candidate selection unit 4 obtains the Euclidean distance between the feature vector generated by the feature extraction unit 3 and all sample patterns stored in the dictionary unit 7, and selects a candidate category (class). The feature selection unit 5 selects a notable component based on the feature vector generated by the feature extraction unit 3 and the candidate category selected by the candidate selection unit 4, and the determination processing unit 6 selects the feature selection unit 5. Discrimination / determination is performed by Fisher's method in consideration of ingredients. The result output unit 6 outputs the category identified and determined by the determination processing unit 6 as a recognition result.
[0025]
Next, the operation of the character recognition device 10 will be described with reference to FIG.
FIG. 2 is a flowchart showing a flow of operations of the character recognition device 10.
[0026]
When the character recognition device 10 starts operating, first, a character image to be recognized is input from the image input unit 1 (step 101), and the preprocessing unit 2 performs preprocessing on the character image input from the image input unit 1. Perform (step 102). Subsequently, the feature extraction unit 3 extracts features from the pre-processed character image, that is, generates a feature vector (step 103), and the candidate selection unit 4 is stored in the feature vector and dictionary unit 7. Pattern matching (distance calculation) with all the sample patterns is performed, and a predetermined upper number (for example, 15) as a result is set as a neighborhood pattern, and two candidate categories are determined based on this neighborhood pattern (step 104).
[0027]
Subsequently, the feature selection unit 5 performs feature selection processing described later (step 105), the determination processing unit 6 performs detailed determination processing described later (step 106), and the result output unit 8 outputs the recognition result (step step). 107) and the process is terminated.
[0028]
Next, the feature selection process performed by the feature selection unit 5 will be described.
The feature selection process is a process of determining a component to be noted when determining a category as a recognition result from two candidate categories. For example, when identifying the representative “yu” shown in FIG. 3A and the representative “co” shown in FIG. 3B, as shown in FIG. Identification is facilitated by placing emphasis in the order of upper right and lower right. However, when “ko” as shown in FIG. 3D is input, even if attention is paid to the upper left or upper right of the character, there is little difference from “Yu” (see FIG. 3E), and FIG. If attention is paid only to the lower right of the character as shown in f), it becomes easy to identify “Yu”.
[0029]
Here, the flow of the feature selection process will be described with reference to FIG.
FIG. 4 is a flowchart showing the flow of feature selection processing.
[0030]
In the feature selection processing, first, a matrix A for performing projection by applying the Fisher method to all feature components is obtained (step 151). Subsequently, the average of all sample dictionaries of the candidate category shown in Expression 1 and the average of neighboring patterns shown in Expression 2 are obtained (Step 152).
[0031]
[Formula 1]
Figure 0004350228
[Formula 2]
Figure 0004350228
Next, processing is performed so that the projection axis can be obtained stably when the Fisher method is applied, but this excludes those whose neighborhood average components u ′ i and v ′ i are 0 or 1 in the candidate category. Specifically, the component i that satisfies Expression 3 is extracted (step 153).
[0032]
[Formula 3]
Figure 0004350228
Subsequently, the local cumulative contribution defined below is calculated (step 154). Here, the local cumulative contribution will be described. First, as shown in Expression 4, the contribution κ i of the i component is defined. Next, considering the neighborhood pattern of the input data, the contribution of each component can be defined as shown in Equation 5 from Equation 4.
[0033]
[Formula 4]
Figure 0004350228
[Formula 5]
Figure 0004350228
In Expression 5, α indicates the influence degree of the neighboring pattern, and the larger α is, the more important the neighboring information is.
[0034]
The local cumulative contribution is defined as the sum of arbitrarily extracted m from (κ i local ) N i = 1 , and is expressed as Κ local (m).
[0035]
Then select the components to maximize using the maximum local cumulative contribution kappa * local (m) that maximizes the local cumulative contribution kappa local (m) (step 155), and terminates the feature selection process.
[0036]
When the feature selection process described here is applied to the case where “co” shown in FIG. 3D is used as an input pattern, each direction (see FIG. 11B for directions) and each component The contribution degree κ i local is as shown in FIG. 5, and it can be seen that the value at the bottom of the character is large.
[0037]
Next, the detailed determination process (step 106 in FIG. 2) in the determination processing unit 6 will be described.
FIG. 6 is a flowchart showing the flow of the detailed determination process.
[0038]
When the detailed determination process is started, the determination processing unit 6 obtains a neighborhood average, a sample dictionary average, and an intra-class variation matrix in the candidate category in the space selected by the feature selection unit 5 (step 161), and Fisher's linear determination method Is applied to obtain a one-dimensional projection matrix A s (step 162), a category is determined (step 163), and the detailed determination process ends.
[0039]
Note that x is the feature vector of the input data, x s is the feature vector selected for the feature, u s , v s is the feature selected in the average of all samples in the candidate category, If u ′ s and v ′ s are features selected in the average, the discriminant function is expressed by Equation 6 and the discriminant rule can be expressed by Equation 7.
[0040]
[Formula 6]
Figure 0004350228
[Formula 7]
Figure 0004350228
Further, FIG. 7 is an illustration of the components of the projection matrix A s obtained in step 162 when an input pattern "U" as shown in FIG. 3 (d), the component has a zero Ingredients not selected. When comparing each component with the projection matrix A (obtained by the same method as before) when the feature selection is not performed as shown in FIG. 8, the projection matrix A s has a large value at the bottom of the character and is weighted. You can see that
[0041]
When the feature is selected in this way and projected onto the projection axis, for example, when data X1 (belonging to category B) as shown in FIG. 9 is input, the projection axis 1 obtained by the conventional method is applied. The projection Y1 of X1 belongs to category A (Y1YA1 <Y1YB1), but the projection Y2 of X1 onto the projection axis 2 obtained by feature selection belongs to category B (Y2YA2> Y2YB2). However, the solid-line ellipse in the figure is an equal density line from the average patterns m 1 and m 2 of each category (A, B), and the broken-line ellipse is the category A of the neighboring patterns of the input data X1. The area (area a) of what is and the area (area b) of category B are shown.
[0042]
FIG. 10 shows examples of categories determined when feature selection is not performed on certain input data (conventional method) and when feature selection is performed (this method) (candidate category). Is the same as the conventional method and this method), it can be seen that pattern recognition with high recognition ability can be performed by selecting features.
[0043]
In this embodiment, the character recognition is described as an example. However, even in other pattern recognition such as voice recognition, if the pattern recognition to which the Fisher method is applied, the feature selection is performed to improve the recognition rate. be able to.
[0044]
【The invention's effect】
As described above, according to the present invention, the feature selection is performed in consideration of the vicinity of the input data, and the Fisher's linear discriminant method is applied in the feature-selected space. High recognition ability can be obtained even for large inputs.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a schematic configuration of a character recognition device to which the present invention is applied.
FIG. 2 is a flowchart showing an operation flow of the character recognition apparatus 10;
FIG. 3 is a diagram for explaining feature selection processing;
FIG. 4 is a flowchart showing a flow of feature selection processing.
FIG. 5 is a diagram showing a calculation result of a contribution degree.
FIG. 6 is a flowchart showing a flow of detailed determination processing.
7 is a diagram showing the components of the projection matrix A s.
FIG. 8 is a diagram showing each component of a projection matrix A.
FIG. 9 is a diagram for explaining projection onto a projection axis for which a feature has been selected.
FIG. 10 is a diagram showing an example of identification results.
FIG. 11 is a diagram for explaining feature amount extraction;
FIG. 12 is a diagram for explaining projection by the Fisher method.
FIG. 13 is a diagram for explaining misrecognition.
FIG. 14 is a diagram showing a result of superposition.
FIG. 15 is a diagram showing a distribution in a feature space of categories that cannot be linearly separated.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part 2 Preprocessing part 3 Feature extraction part 4 Candidate selection part 5 Feature selection part 6 Determination processing part 7 Dictionary part 8 Result output part

Claims (6)

所定の識別関数を用いて認識対象の特徴量を評価することにより該識別対象を2つのクラスのいずれに属するかを識別するパターン認識方法において、
前記認識対象の特徴量を抽出し、該抽出した特徴量に基づいて、前記クラス毎に複数の標本パターンを登録可能な辞書手段に格納された全標本パターンのうち、前記認識対象とのマッチング結果が上位の標本パターンを近傍パターンとして複数選出し、該選出した近傍パターンに基づいて2つの候補クラスを決定し、該決定した2つの候補クラスごとに求めた該候補クラスに属する前記近傍パターンの平均をもとに、該候補クラスの標本パターンの特徴量の中から注目すべき成分を選択し、該選択した成分に基づいて識別関数の係数を決定し、該係数が決定した識別関数に基づいて前記認識対象の識別を行うことを特徴とするパターン認識方法。
In the pattern recognition method for identifying which of the two classes the identification object belongs by evaluating the feature quantity of the recognition object using a predetermined identification function,
The feature value of the recognition target is extracted, and based on the extracted feature value, a matching result with the recognition target among all the sample patterns stored in the dictionary unit that can register a plurality of sample patterns for each class Selects a plurality of upper sample patterns as neighborhood patterns, determines two candidate classes based on the selected neighborhood patterns, and averages the neighborhood patterns belonging to the candidate classes determined for each of the two candidate classes thus determined And selecting a notable component from the feature values of the sample pattern of the candidate class, determining a coefficient of the discriminant function based on the selected component, and based on the discriminant function determined by the coefficient A pattern recognition method for identifying the recognition target.
前記2つの候補クラスのそれぞれについて、前記辞書手段に格納された全標本パターンの平均と、前記近傍パターンの平均を求め、該2つの標本パターンの平均および該2つの近傍パターンの平均をもとに、各成分毎に差を求めて各成分の寄与度を算出し、該寄与度の所定個数の和である局所累積寄与度を最大化する成分を注目すべき成分として選択することを特徴とする請求項1に記載のパターン認識方法。  For each of the two candidate classes, find the average of all sample patterns stored in the dictionary means and the average of the neighboring patterns, and based on the average of the two sample patterns and the average of the two neighboring patterns Calculating a contribution for each component by calculating a difference for each component, and selecting a component that maximizes a local cumulative contribution that is a sum of a predetermined number of contributions as a component to be noted. The pattern recognition method according to claim 1. 前記2つの候補クラスのそれぞれについて、前記近傍パターンの平均を求め、該2つの近傍パターンの平均をもとに、各成分毎に差を求めて各成分の寄与度を算出し、該寄与度の所定個数の和である局所累積寄与度を最大化する成分を注目すべき成分として選択することを特徴とする請求項1に記載のパターン認識方法。  For each of the two candidate classes, find the average of the neighboring patterns, calculate the difference for each component based on the average of the two neighboring patterns, calculate the contribution of each component, The pattern recognition method according to claim 1, wherein a component that maximizes a local cumulative contribution that is a predetermined number of sums is selected as a notable component. 前記識別関数は、
フィッシャーの線形判別法を適用して決定されることを特徴とする請求項1に記載のパターン認識方法。
The discriminant function is
The pattern recognition method according to claim 1, wherein the pattern recognition method is determined by applying Fisher's linear discriminant method.
前記認識対象は、
文字であることを特徴とする請求項1に記載のパターン認識方法。
The recognition target is
The pattern recognition method according to claim 1, wherein the pattern recognition method is a character.
所定の識別関数を用いて認識対象の特徴量を評価することにより該識別対象を2つのクラスのいずれに属するかを識別するパターン認識装置において、
前記認識対象の特徴量を抽出する特徴量抽出手段と、
前記クラス毎に複数の標本パターンを登録可能で、前記クラスに属する標本パターンの特徴量を格納する辞書手段と、
前記特徴量抽出手段が抽出した前記認識対象の特徴量に基づいて、前記辞書手段に格納された全標本パターンのうち、前記認識対象とのマッチング結果が上位の標本パターンを近傍パターンとして複数選出し、該選出した近傍パターンに基づいて2つの候補クラスを決定する候補選出手段と、
前記2つの候補クラスごとに求めた該候補クラスに属する前記近傍パターンの平均をもとに、該候補クラスの標本パターンの特徴量の中から注目すべき成分を選択する特徴選択手段と、
前記特徴選択手段が選択した成分に基づいて識別関数の係数を決定し、該係数が決定した識別関数に基づいて前記認識対象の識別を行う識別処理手段と
を具備することを特徴とするパターン認識装置。
In a pattern recognition apparatus for identifying which of the two classes the identification object belongs by evaluating the feature quantity of the recognition object using a predetermined identification function,
Feature quantity extraction means for extracting the feature quantity of the recognition target;
A plurality of specimen patterns can be registered for each class, and dictionary means for storing feature quantities of specimen patterns belonging to the class;
Based on the feature quantity of the recognition target extracted by the feature quantity extraction unit, a plurality of sample patterns having a higher matching result with the recognition target among all the sample patterns stored in the dictionary unit are selected as neighboring patterns. Candidate selection means for determining two candidate classes based on the selected neighborhood pattern;
Feature selection means for selecting a notable component from the feature values of the sample pattern of the candidate class based on the average of the neighboring patterns belonging to the candidate class determined for each of the two candidate classes;
A pattern recognition unit comprising: an identification processing unit configured to determine a coefficient of an identification function based on the component selected by the feature selection unit, and to identify the recognition target based on the identification function determined by the coefficient. apparatus.
JP27058699A 1999-09-24 1999-09-24 Pattern recognition method and apparatus Expired - Fee Related JP4350228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27058699A JP4350228B2 (en) 1999-09-24 1999-09-24 Pattern recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27058699A JP4350228B2 (en) 1999-09-24 1999-09-24 Pattern recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2001092924A JP2001092924A (en) 2001-04-06
JP4350228B2 true JP4350228B2 (en) 2009-10-21

Family

ID=17488196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27058699A Expired - Fee Related JP4350228B2 (en) 1999-09-24 1999-09-24 Pattern recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP4350228B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102359188B (en) * 2011-07-27 2014-04-30 福州大学 Internal stud node of steel pipe concrete truss structure and construction method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251596A (en) * 2005-03-14 2006-09-21 Kyoto Institute Of Technology Support device for visually handicapped person
JP4878283B2 (en) 2006-12-22 2012-02-15 キヤノン株式会社 Feature detection method and apparatus, program, and storage medium
EP3452984B1 (en) * 2016-05-04 2020-07-15 Koninklijke Philips N.V. Medical atlas registration

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102359188B (en) * 2011-07-27 2014-04-30 福州大学 Internal stud node of steel pipe concrete truss structure and construction method thereof

Also Published As

Publication number Publication date
JP2001092924A (en) 2001-04-06

Similar Documents

Publication Publication Date Title
US5067165A (en) Character recognition method
Cordella et al. Symbol recognition in documents: a collection of techniques?
EP1971957B1 (en) Methods and apparatuses for extending dynamic handwriting recognition to recognize static handwritten and machine generated text
Huang et al. Model-based chart image recognition
JPH10177650A (en) Device for extracting picture characteristic, device for analyzing picture characteristic, and system for collating picture
JPH09179978A (en) Device for extracting feature of finger print
KR19990010210A (en) Mass Pattern Matching Device and Method
JPH06301781A (en) Method and equipment for image transformation for pattern recognition by computer
Batista et al. Improving performance of HMM-based off-line signature verification systems through a multi-hypothesis approach
JP3917349B2 (en) Retrieval device and method for retrieving information using character recognition result
JP4350228B2 (en) Pattern recognition method and apparatus
US5940534A (en) On-line handwritten character recognition using affine transformation to maximize overlapping of corresponding input and reference pattern strokes
JP3313272B2 (en) Address reading method and identification function weight vector generation method
JP3232991B2 (en) Character reading method and address reading method
Winkler et al. Online symbol segmentation and recognition in handwritten mathematical expressions
Nguyen-Trong An End-to-End Method to Extract Information from Vietnamese ID Card Images
JPH11272800A (en) Character recognition device
Oliveira et al. A synthetic database to assess segmentation algorithms
JP2009259190A (en) Character recognition program and character recognition device
JP2004094644A (en) Image processor, image processing method, storage medium, and program
JPH07200735A (en) Graphic recognition device
Graf et al. Analysis of complex and noisy check images
Khalighi et al. A novel OCR system for calculating handwritten persian arithmetic expressions
JPS6125284A (en) Character recognizing device
JPH05197813A (en) Feature selecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090722

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees