JP3572501B2 - Pattern identification device - Google Patents

Pattern identification device Download PDF

Info

Publication number
JP3572501B2
JP3572501B2 JP25892896A JP25892896A JP3572501B2 JP 3572501 B2 JP3572501 B2 JP 3572501B2 JP 25892896 A JP25892896 A JP 25892896A JP 25892896 A JP25892896 A JP 25892896A JP 3572501 B2 JP3572501 B2 JP 3572501B2
Authority
JP
Japan
Prior art keywords
image
edge
template
pattern
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25892896A
Other languages
Japanese (ja)
Other versions
JPH10105649A (en
Inventor
弘之 大西
さゆり 柳内
Original Assignee
グローリー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グローリー工業株式会社 filed Critical グローリー工業株式会社
Priority to JP25892896A priority Critical patent/JP3572501B2/en
Publication of JPH10105649A publication Critical patent/JPH10105649A/en
Application granted granted Critical
Publication of JP3572501B2 publication Critical patent/JP3572501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力画像に含まれる文字パターン等の識別対象パターンをあらかじめ準備した複数の登録パターンと比較して前記識別対象パターンを識別するパターン識別装置に関し、特に、品質の悪い識別対象パターンを用いて類似するパターンを安定して識別するパターン識別装置に関する。
【0002】
【従来の技術】
従来、入力画像に含まれる文字パターンを識別する際に、正規化相関技術や一般化ハフ変換(Hough 変換)技術を用いることが多い。
【0003】
具体的には、この正規化相関技術では、文字パターンを含んだ入力画像と、あらかじめ準備した複数のテンプレートとの間で正規化相関係数を求め、この正規化相関係数を類似度として識別を行うことになる。
【0004】
一方、一般化ハフ変換技術では、入力画像から作成したパラメータ空間上のエッジ情報と、あらかじめ準備したハフ変換用のテンプレートとをパラメータ平面すなわちハフ平面上で照合して識別することになる。
【0005】
また、特開平5−324913号公報には、共通部分を有するパターンを観測部で電気信号に変換し、特徴抽出部で特徴を抽出した後に、共通部分辞書及び相違部分辞書を用いてパターンを認識するパターン認識装置が開示されている。
【0006】
【発明が解決しようとする課題】
しかしながら、これらの従来技術は、入力画像から品質の良い文字パターンを抽出することができる場合には有効であるが、例えば入力画像自体が劣化している場合のように入力画像から品質の良い文字パターンを抽出できない場合には類似の文字パターンを安定して識別できないという問題がある。
【0007】
具体的には、上記正規化相関技術又は一般化ハフ変換技術では、例えば10%相違する2つの文字パターンの類似度はあくまでも90%として取り扱い、その差異を類似度レベルで強調する処理を行わないため、文字パターンの品質が劣化してノイズが存在する場合には、類似度の差がほとんどなくなってしまう。
【0008】
また、上記公開公報に開示される発明では、文字パターンを良好な状態で抽出することを前提としたものであり、文字パターンの品質が劣化したような場合には、そもそも共通部分と相違部分に分けることができなくなり安定して識別を行うことができない。
【0009】
そこで、本発明では、上記問題を解決し、入力画像から抽出した品質の悪い文字等の各種パターンに基づいて、類似するパターンを安定して識別することができるパターン識別装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するため、第1の発明は、入力画像に含まれる識別対象パターンをあらかじめ準備した複数の登録パターンと比較して前記識別対象パターンを識別するパターン識別装置において、前記識別対象パターンのエッジを持つエッジ画像と、前記登録パターンのエッジを持つテンプレートとに共通する画素のみを有する重ね合せ画像を作成する重ね合せ画像作成手段と、前記重ね合せ画像作成手段が作成した各テンプレートに対応する重ね合せ画像から複数の候補画像を選択する候補画像選択手段と、前記候補画像選択手段が選択した複数の候補画像に共通する画素を各候補画像から除外して各候補画像にそれぞれ対応する特徴強調エッジ画像を作成する特徴強調エッジ画像作成手段と、前記特徴強調エッジ画像作成手段が作成した特徴強調エッジ画像に基づいて前記識別対象パターンを識別処理する識別処理手段とを具備することを特徴とする。
【0011】
また、第2の発明は、前記候補画像選択手段は、各重ね合せ画像の画素数を該重ね合せ画像に対応するテンプレートの画素数で除算した基本類似度を算定する基本類似度算定手段を具備し、該基本類似度算定手段が算定した基本類似度が大きなものから複数の候補画像を選択することを特徴とする。
【0012】
また、第3の発明は、前記識別処理手段は、前記特徴強調エッジ画像作成手段が作成した特徴強調エッジ画像の画素数を該特徴強調エッジ画像に対応するテンプレートの画素数で除算した相対類似度を算定する相対類似度算定手段と、前記相対類似度算定手段が算定した相対類似度に基づいて前記識別対象パターンを識別する識別手段とを具備することを特徴とする。
【0013】
また、第4の発明は、前記識別手段は、前記基本類似度算定手段が算定した基本類似度と前記相対類似度算定手段が算定した相対類似度とに基づいて前記識別対象パターンを識別することを特徴とする。
【0014】
また、第5の発明は、前記識別対象パターン及び各登録パターンを微分処理し、該識別対象パターン及び各登録パターンのエッジをなす画素に対してそのエッジ方向を画素値として付与したエッジ方向画像を作成するエッジ方向画像作成手段と、前記エッジ方向画像作成手段が作成した各登録パターンに対応するエッジ方向画像をテンプレートとして記憶するテンプレート記憶手段とをさらに具備し、前記重ね合せ画像作成手段は、前記エッジ方向画像作成手段が作成した識別対象パターンに対応するエッジ方向画像の各画素が持つエッジ方向を前記テンプレート記憶手段に記憶した各テンプレートの対応する画素が持つエッジ方向と比較し、同一のエッジ方向を有する画素のみをエッジとした重ね合せ画像を作成することを特徴とする。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。なお、本実施の形態では、文字パターンを識別する文字識別装置に本発明を適用した場合を示している。
【0016】
図1は、本実施の形態で用いる文字識別装置10の構成を示す機能ブロック図である。
【0017】
図1に示す文字識別装置10は、まず最初に、入力画像に含まれる文字パターンのエッジ情報を有する入力エッジ方向画像と、あらかじめ準備したテンプレートとを画素ごとに比較して共通画素のみを持つ重ね合せ画像を作成する。
【0018】
そして、テンプレートごとに作成した複数の重ね合せ画像から2つの候補画像を選択し、この2つの候補画像に共通する画素を各候補画像から除去することにより特徴強調エッジ画像を作成する。
【0019】
そして、かかる特徴強調エッジ画像のエッジの画素数を特徴強調エッジ画像に対応するテンプレートのエッジの画素数で除算することにより相対類似度を求め、この相対類似度に基づいて文字パターンを識別する。
【0020】
このように、本実施の形態で用いる文字識別装置10は、各テンプレートにのみ存在するエッジを強調した特徴強調エッジ画像を作成し、この特徴強調エッジ画像に基づいて相対類似度を算定する点に特徴がある。
【0021】
図1に示すように、この文字識別装置10は、画像入力部101と、テンプレート作成部102と、ゼロクロス点算定部103と、エッジ情報算定部104と、テンプレート記憶部105と、エッジ方向画像作成部106と、重ね合せ画像作成部107と、候補画像選択部108と、識別処理部109と、特徴強調エッジ画像作成部110と、相対類似度算定部111とからなる。
【0022】
なお、この文字識別装置10は、あらかじめテンプレートを作成するテンプレート作成モードと文字パターンの識別を行う識別モードとを有し、操作者の指示に応答してこの2つのモードを切り替えることとしている。
【0023】
そして、このテンプレート作成モードでは、上記画像入力部101、テンプレート作成部102、ゼロクロス点算定部103、エッジ情報算定部104及びテンプレート記憶部105が機能し、また識別モードでは、テンプレート作成部102以外の全ての処理部が機能する。
【0024】
画像入力部101は、文字パターンを含む入力画像を光学的に読み取り、テンプレート作成モードでは該画像データをテンプレート作成部102に出力し、識別モードでは該画像データをエッジ方向画像作成部106に出力する処理部である。
【0025】
テンプレート作成部102は、上記テンプレート作成モードでのみ機能する処理部であり、入力エッジ方向画像の比較の対象となるテンプレートを、ゼロクロス点算定部103及びエッジ情報算定部104を用いて作成し、作成したテンプレートをテンプレート記憶部105に格納する。
【0026】
すなわち、このテンプレート作成部102では、画像データを画像入力部101から受け取ったならば、ゼロクロス点算定部103を用いて該画像データ内の詳細なエッジを示すゼロクロス点を求め、さらにエッジ情報算定部104を用いて該ゼロクロス点におけるエッジ強度及びエッジ方向を算定し、算定したエッジ方向を持つエッジ方向画像をテンプレートとしてテンプレート記憶部105に格納する。
【0027】
なお、このテンプレート作成部102によるエッジ方向画像の作成手順及び作成要領は、特開平5−151352号公報に開示するエッジ検出方法と同様のものである。
【0028】
ゼロクロス点算定部103は、テンプレート作成部102又はエッジ方向画像作成部106から画像データを受け取った際に、該画像データに対して次式に示すガウスラプラシアンフィルターを適用してラプラシアン画像を作成する。
【0029】

Figure 0003572501
そして、このラプラシアン画像中の正負の符号がx軸方向又はy軸方向に変化する点すなわちゼロクロス点を算出する。
【0030】
なお、本実施の形態においてゼロクロス点を算定した理由は、このゼロクロス点が画像データ中の詳細なエッジを示すとともに、このゼロクロス点におけるエッジ強度が所定のしきい値以下である画素をノイズとみなすことができるからである。
【0031】
エッジ情報算定部104は、テンプレート作成部102又はエッジ方向画像作成部106から画像データ及びゼロクロス点に関する情報を受け取った際に、ソーベル(Sobel )の微分オペレータを用いて該ゼロクロス点でのエッジ強度及びエッジ方向を算出し、これらのエッジ情報を有するエッジ方向画像を作成する。
【0032】
具体的には、このエッジ情報算定部104は、画像データのゼロクロス点に対して図2に示すソーベルの微分オペレータを適用し、次式に示す算定式を用いてエッジ強度(Em)とエッジ方向(Eθ)を算定する。ただし、x方向のオペレータの出力をMx、y方向のオペレータの出力をMyとする。
【0033】
Figure 0003572501
なお、本実施の形態では、ソーベルの微分オペレータを用いることとしたが、ロバーツ(Roberts)やロビンソン(Robinson )の微分オペレータを用いることも可能である。
【0034】
テンプレート記憶部105は、テンプレート作成部102が作成したテンプレートを記憶する記憶部であり、かかるテンプレートは、後述する重ね合せ画像作成部107が重ね合せ画像を作成する際に使用する。
【0035】
エッジ方向画像作成部106は、識別モードにおいて機能する処理部であり、ゼロクロス点算定部103及びエッジ情報算定部104を用いることにより、入力画像に含まれる文字パターンに対応する入力エッジ方向画像を作成する。
【0036】
すなわち、このエッジ方向画像作成部106は、基本的には上記テンプレート作成部102とほぼ同様に動作するものであり、入力画像の文字パターンに対応する入力エッジ方向画像を作成したならば、作成した入力エッジ方向画像を重ね合せ画像作成部107に出力する。
【0037】
重ね合せ画像作成部107は、エッジ方向画像作成部106から受け取った入力エッジ方向画像と、テンプレート記憶部105に記憶したテンプレートとを画素ごとに比較して共通画素のみを持つ重ね合せ画像を作成し、作成した各重ね合せ画像を候補画像選択部108に出力する処理部である。
【0038】
具体的には、この重ね合せ画像作成部107は、入力エッジ方向画像とテンプレートのマッチング度が最大となる位置で位置決めを行った後に、入力エッジ方向画像の各エッジ点がテンプレートの対応する位置に存在するか否かを調べ、テンプレートの対応する位置に存在する場合には、さらにそれぞれのエッジ方向が同一方向であるか否かを調べる。
【0039】
そして、入力エッジ方向画像とテンプレートのそれぞれ対応する位置に同一エッジ方向を持つ画素が存在する場合には、重ね合せ画像の対応する位置に画素値を付与する。
【0040】
ただし、両画像の対応する画素のエッジ方向は完全に同一である必要はなく、それぞれのエッジ方向の差が所定の範囲内であれば、同一方向であるとみなすことができる。
【0041】
候補画像選択部108は、重ね合せ画像作成部107から受け取った重ね合せ画像ごとに基本類似度(Vt)を計算し、この基本類似度が大きな2つの重ね合せ画像を候補画像として選択して識別処理部109に出力する処理部である。
【0042】
なお、この基本類似度(Vt)は、重ね合せ画像上のエッジ数がテンプレート上のエッジ数に占める割合を示すものである。
【0043】
ここで、この基本類似度Vtのみを用いて識別しようとすると、類似する文字を取り扱う際にテンプレート間での差がなくなり、安定した識別を行うことができない。
【0044】
このため、本実施の形態では、この基本類似度Vtを候補画像選択部108における2つの候補画像の選択指標とするに止めている。
【0045】
識別処理部109は、候補画像選択部108から受け取った2つの候補画像にそれぞれ対応する特徴強調エッジ画像を特徴強調エッジ画像作成部110を用いて作成した後、作成した特徴強調エッジ画像に基づいて相対類似度算定部111により相対類似度を作成し、作成した相対類似度に基づいて入力画像の文字パターンを識別する処理部である。
【0046】
すなわち、この識別処理部109では、相対類似度算定部111から相対類似度を得たならば、2つの候補画像のうちの相対類似度が大きな方の候補画像を選択し、入力画像の文字パターンは、選択した候補画像に対応するテンプレートの文字と同一であると識別する。
【0047】
特徴強調エッジ画像作成部110は、識別処理部109から2つの候補画像を受け取り、受け取った2つの候補画像に共通する画素を各候補画像から除去することにより、各候補画像に対応する特徴強調エッジ画像をそれぞれ作成する処理部である。
【0048】
すなわち、この特徴強調エッジ画像作成部110は、入力画像上で各候補画像にそれぞれ対応するテンプレートにだけ存在するエッジを有する特徴強調エッジ画像を作成する処理部である。
【0049】
相対類似度算定部111は、各特徴強調エッジ画像のエッジの画素数を該特徴強調エッジ画像に対応するテンプレートのエッジの画素数で除算することにより相対類似度を求める処理部である。
【0050】
ただし、この相対類似度は、テンプレートのエッジの画素数が大幅に少ない場合にはその値が極めて大きくなり、またテンプレートのエッジの画素数が大幅に多い場合には極めて小さくなってしまう。
【0051】
このため、上記識別処理部109では、テンプレートのエッジの画素数が大幅に少ないか又は多い場合には、相対類似度に基づく識別処理の対象外として取り扱うこととする。
【0052】
このように、かかる文字識別装置10を用いることにより、特徴強調エッジ画像の相対類似度に基づいて、文字パターンの識別を行うことが可能となる。
【0053】
次に、上記構成を有する文字識別装置10の識別モード時の処理手順について説明する。ただし、入力エッジ方向画像の比較対象となる各テンプレートは、すでにテンプレート記憶部105に格納済みであるものとする。
【0054】
図3は、図1に示す文字識別装置10の処理手順を示すフローチャートである。
【0055】
図3に示すように、この文字識別装置10は、まず最初に画像入力部101によって入力画像を取り込んだならば(ステップ301)、エッジ方向画像作成部106がこの入力画像から入力エッジ方向画像を作成する(ステップ302)。
【0056】
そして、この入力エッジ方向画像を受け取った重ね合せ画像作成部107は、テンプレート記憶部105からテンプレートを取り出し(ステップ303)、入力エッジ方向画像とテンプレートの位置合わせを行った後に(ステップ304)、重ね合せ画像を作成する(ステップ305)。
【0057】
次に、重ね合せ画像上のエッジ数がテンプレート上のエッジ数に占める割合すなわち基本類似度(Vt)を算定した後(ステップ306)、他の未処理テンプレートがテンプレート記憶部105内に存在するか否かを確認し(ステップ307)、未処理テンプレートが存在する場合には、ステップ303に移行して上記ステップ303〜307の処理を繰り返す。
【0058】
一方、テンプレート記憶部105内の全てのテンプレートについての処理を終えたならば、ステップ306で求めた基本類似度(Vt)が大きい2つの重ね合せ画像を候補画像として選択する(ステップ308)。
【0059】
そして、特徴強調エッジ画像作成部110により各候補画像から特徴強調エッジ画像を作成した後(ステップ309)、該特徴強調エッジ画像に基づいて相対類似度算定部111が相対類似度を算定し(ステップ310)、この相対類似度に基づいて識別処理部109が識別を行う(ステップ311)。
【0060】
次に、図3のステップ302に示す入力エッジ方向画像の作成手順についてさらに詳細に説明する。
【0061】
図4は、図3に示す入力エッジ方向画像の作成手順を示すフローチャートである。
【0062】
図4に示すように、まず最初に、濃度画像I(x,y)に対してラプラシアンフィルターを適用して、ラプラシアン画像Ig(x,y)を作成する(ステップ401)。
【0063】
そして、このラプラシアン画像Ig(x,y)の各画素について注目画素が負でかつその4近傍の画素が少なくとも1つ正であるか否かを確認し(ステップ402)、かかる条件を満たす場合には、濃度画像I(x,y)に対してソーベルの微分オペレータを適用してエッジ強度Emを計算する(ステップ403)。
【0064】
そして、このエッジ強度Emが所定のしきい値以上であるならば(ステップ404)、エッジ方向Eθを計算して入力エッジ方向画像に格納する(ステップ405)。
【0065】
かかる処理を全ての画素について繰り返し行い、全ての画素を処理した時点で処理を終了する(ステップ406)。
【0066】
次に、上記文字識別装置10の処理経過及び処理結果について具体例を用いて説明する。なお、ここでは入力画像に含まれる文字パターン”3L”を、あらかじめ準備したテンプレート”2L”及び”3L”を用いて識別する場合を示している。
【0067】
図5は、入力画像、入力エッジ方向画像及びテンプレートをディスプレイ上に表示した中間調画像を示す写真である。
【0068】
図5(a)に示すように、この入力画像は、文字パターン”3L”を含む濃度画像であり、同図(b)は、この入力画像に基づいてエッジ方向画像作成部106が作成した入力エッジ方向画像を示している。
【0069】
また、同図(c)は、テンプレート作成部102が作成した文字パターン”2L”を示すテンプレートであり、同図(d)は、同様にテンプレート作成部102が作成した文字パターン”3L”を示すテンプレートである。
【0070】
なお、かかるテンプレート”2L”及び”3L”は、テンプレート記憶部105内に保持されており、また入力エッジ方向画像及び各テンプレートの画素には、エッジ方向が画素値として格納されている。
【0071】
図6は、重ね合せ画像及び特徴強調エッジ画像をディスプレイ上に表示した2値画像を示す写真である。
【0072】
図6(a)は、図5(b)に示す入力エッジ方向画像と図5(c)に示すテンプレート”2L”とを重ね合わせた重ね合せ画像を示しており、図6(b)は、入力エッジ方向画像と図5(d)に示すテンプレート”3L”とを重ね合わせた重ね合せ画像を示している。
【0073】
まず最初に、この図6(a)を見ると、図5(b)に示す入力エッジ方向画像と図5(c)に示すテンプレート”2L”の共通の画素が出現し、またいずれかの画像に存在しない画素については重ね合せ画像上に出現していないことが分かる。
【0074】
これに対して、図6(b)を見ると、図5(d)に示すテンプレート”3L”のエッジ部分が図5(b)に示す入力エッジ方向画像においても存在するため、かかるエッジ部分がほぼ忠実に出現している。
【0075】
ただし、図5(a)に示す入力画像が劣化した場合を考えると、当然ながら同図(b)の入力エッジ方向画像が劣化し、結果的に両方の重ね合せ画像が近似することとなるため、これらの重ね合せ画像のみで入力画像の文字パターンを識別することは難しくなる。
【0076】
次に、図6(c)は、図6(a)及び(b)に示す2つの重ね合せ画像から作成したテンプレート”2L”に対応する特徴強調エッジ画像を示しており、図6(d)は、図6(a)及び(b)に示す2つの重ね合せ画像から作成したテンプレート”3L”に対応する特徴強調エッジ画像を示している。図6(c)の2Lに対応する特徴強調エッジ画像は、図6(a)上のすべてのエッジ点について、図6(b)上の同じ位置にエッジが存在するかどうかを調べて、同じ位置に存在したならば、図6(a)上から消去し、存在しなければそのまま残すことにより求めることができる。また、図6(d)についても同様に、図6(b)上のすべてのエッジ点について図6(a)上の同じ位置にエッジが存在するかどうかを調べて、同じ位置に存在したならば、図6(b)上から消去し、存在しなければそのまま残すことにより求めることができる。
【0077】
かかる図6(c)及び(d)を比較すると、テンプレート”2L”に対応する特徴強調エッジ画像には、ほとんどエッジが存在しないが、テンプレート”3L”に対応する特徴強調エッジ画像には、比較的エッジが存在する。
【0078】
このことから、かかる入力画像の文字パターンはテンプレート”3L”に近いことが視覚的に確認することができる。
【0079】
なお、テンプレート”2L”及び”3L”のエッジ数はほぼ同程度であり、また、テンプレート”2L”に対応する特徴強調エッジ画像のエッジ数よりもテンプレート”3L”に対応する特徴強調エッジ画像のエッジ数の方が明らかに圧倒的に多いため、実際に相対類似度を計算したとしても、テンプレート”3L”の相対類似度の方が極めて大きくなる。
【0080】
このため、かかる相対類似度を用いて、入力画像に含まれる文字パターンがテンプレート”3L”のものであると識別することができる。
【0081】
上述してきたように、本実施の形態では、識別対象となる入力画像を受け付けたならば、該入力画像から入力エッジ方向画像及び重ね合せ画像を作成した後、この重ね合せ画像の中から2つの候補画像を選択する。そして、かかる候補画像から特徴強調エッジ画像を作成するとともに、この特徴強調エッジ画像に基づいて相対類似度を算定し、該相対類似度に基づいて文字パターンの識別を行うよう構成したので、入力画像から品質の良い文字パターンを抽出できない場合であっても、類似する文字パターンを安定して識別することができる。
【0082】
ところで、本実施の形態では、相対類似度のみを用いて文字パターンを識別することとしたが、候補画像を選択する際に用いた基本類似度Vtを加味して識別を行うことも可能である。
【0083】
具体的には、
類似度 = 基本類似度(Vt) + α×相対類似度
という算定式を用いて類似度を算定し、この類似度に基づいて識別を行うことになる。ただし、αは実験から求めた定数とする。
【0084】
かかる識別処理を行うことにより、テンプレート内のエッジの画素数にばらつきが存在する場合であっても、特にテンプレートに制限を加えることなく識別処理を行うことが可能となる。
【0085】
なお、本実施の形態では、本発明を文字パターンの識別に適用する場合を示したが、本発明はこれに限定されるものではなく、各種図形パターン等の識別に適用することもできる。
【0086】
また、本実施の形態では、候補画像選択部107において2つの候補画像のみを選択することとしたが、3つ以上の候補画像を選択することも可能である。この場合には、順次2つの候補画像を選んで相対類似度を計算し、その相対類似度の大きい方を候補として残していき、候補が1つになるまで繰り返す。
【0087】
【発明の効果】
以上詳細に説明したように、第1の発明は、識別対象パターンのエッジを持つエッジ画像と、登録パターンのエッジを持つテンプレートとに共通する画素のみを有する重ね合せ画像を作成し、作成した各テンプレートに対応する重ね合せ画像から複数の候補画像を選択し、選択した複数の候補画像に共通する画素を各候補画像から除外して各候補画像にそれぞれ対応する特徴強調エッジ画像を作成し、作成した特徴強調エッジ画像に基づいて識別対象パターンを識別処理するよう構成したので、入力画像から品質の良い識別対象パターンを抽出できない場合であっても、類似する識別対象パターンを安定して識別することが可能となる。
【0088】
また、第2の発明は、各重ね合せ画像の画素数を該重ね合せ画像に対応するテンプレートの画素数で除算した基本類似度を算定し、算定した基本類似度が大きなものから複数の候補画像を選択するよう構成したので、適切な候補画像を効率良く選択することが可能となる。
【0089】
また、第3の発明は、特徴強調エッジ画像の画素数を該特徴強調エッジ画像に対応するテンプレートの画素数で除算した相対類似度を算定し、算定した相対類似度に基づいて識別対象パターンを識別するよう構成したので、相対類似度という指標を用いて定量的に識別を行うことが可能となる。
【0090】
また、第4の発明は、基本類似度及び相対類似度の両者に基づいて識別対象パターンを識別するよう構成したので、各テンプレートの画素数の差がもたらす相対類似度の識別への影響を低減することが可能となる。
【0091】
また、第5の発明は、識別対象パターン及び各登録パターンを微分処理し、該識別対象パターン及び各登録パターンのエッジをなす画素に対してそのエッジ方向を画素値として付与したエッジ方向画像を作成し、作成した各登録パターンに対応するエッジ方向画像をテンプレートとしてテンプレート記憶手段に記憶し、識別対象パターンに対応するエッジ方向画像の各画素が持つエッジ方向をテンプレート記憶手段に記憶した各テンプレートの対応する画素が持つエッジ方向と比較して、同一のエッジ方向を有する画素のみをエッジとした重ね合せ画像を作成するよう構成したので、重ね合せ画像上に生じるノイズ成分を低減し、もって識別精度を向上させることが可能となる。
【図面の簡単な説明】
【図1】本実施の形態で用いる文字識別装置の構成を示す機能ブロック図。
【図2】図1に示すエッジ情報算定部が用いる微分オペレータを示す図。
【図3】図1に示す文字識別装置の処理手順を示すフローチャート。
【図4】図3に示す入力エッジ方向画像の作成手順を示すフローチャート。
【図5】入力画像、入力エッジ方向画像及びテンプレートをディスプレイ上に表示した中間調画像を示す写真。
【図6】重ね合せ画像及び特徴強調エッジ画像をディスプレイ上に表示した2値画像を示す写真。
【符号の説明】
10…文字識別装置、 101…画像入力部、
102…テンプレート作成部、 103…ゼロクロス点算定部、
104…エッジ情報算定部、 105…テンプレート記憶部、
106…エッジ方向画像作成部、 107…重ね合せ画像作成部、
108…候補画像選択部、 109…識別処理部、
110…特徴強調エッジ画像作成部、 111…相対類似度算定部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a pattern identification device that identifies an identification target pattern by comparing an identification target pattern such as a character pattern included in an input image with a plurality of registered patterns prepared in advance. And a pattern identification device for stably identifying similar patterns.
[0002]
[Prior art]
Conventionally, when identifying a character pattern included in an input image, a normalized correlation technique or a generalized Hough transform (Hough transform) technique is often used.
[0003]
Specifically, in this normalized correlation technique, a normalized correlation coefficient is obtained between an input image including a character pattern and a plurality of templates prepared in advance, and the normalized correlation coefficient is identified as a similarity. Will be done.
[0004]
On the other hand, in the generalized Hough transform technique, edge information in a parameter space created from an input image and a template for a Hough transform prepared in advance are identified and identified on a parameter plane, that is, a Hough plane.
[0005]
Japanese Patent Application Laid-Open No. 5-324913 discloses that a pattern having a common part is converted into an electric signal by an observation unit, a feature is extracted by a feature extraction unit, and then the pattern is recognized using a common part dictionary and a different part dictionary. The disclosed pattern recognition device is disclosed.
[0006]
[Problems to be solved by the invention]
However, these conventional techniques are effective when a high-quality character pattern can be extracted from an input image. When a pattern cannot be extracted, there is a problem that a similar character pattern cannot be identified stably.
[0007]
Specifically, in the above-described normalized correlation technique or generalized Hough transform technique, for example, the similarity of two character patterns that differ by 10% is treated as 90% to the last, and the process of emphasizing the difference at the similarity level is not performed. Therefore, when the quality of the character pattern is degraded and noise is present, there is almost no difference in similarity.
[0008]
Further, the invention disclosed in the above publication is based on the premise that a character pattern is extracted in a good state, and when the quality of a character pattern is degraded, the common part is different from the common part in the first place. They cannot be separated and cannot be stably identified.
[0009]
In view of the above, an object of the present invention is to solve the above problem and to provide a pattern identification device capable of stably identifying similar patterns based on various patterns such as low-quality characters extracted from an input image. And
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a first invention is a pattern identification device that identifies the identification target pattern by comparing the identification target pattern included in the input image with a plurality of registered patterns prepared in advance. An overlay image creating means for creating an overlay image having only pixels common to an edge image having an edge and a template having an edge of the registered pattern; and a template corresponding to each template created by the overlay image creating means. Candidate image selecting means for selecting a plurality of candidate images from the superimposed images, and feature enhancement corresponding to each candidate image by excluding pixels common to the plurality of candidate images selected by the candidate image selecting means from the candidate images. A feature-enhanced edge image creating means for creating an edge image; Characterized by comprising the identification processing means for identifying processes the identification target pattern based on symptoms emphasized edge image.
[0011]
In a second aspect, the candidate image selecting means includes basic similarity calculating means for calculating a basic similarity obtained by dividing the number of pixels of each superimposed image by the number of pixels of a template corresponding to the superimposed image. Then, a plurality of candidate images are selected from those having a large basic similarity calculated by the basic similarity calculating means.
[0012]
Further, in the third invention, the identification processing means is configured to divide the number of pixels of the feature-enhanced edge image created by the feature-enhanced edge image creation means by the number of pixels of a template corresponding to the feature-enhanced edge image. , And identification means for identifying the identification target pattern based on the relative similarity calculated by the relative similarity calculation means.
[0013]
In a fourth aspect, the identification means identifies the identification target pattern based on the basic similarity calculated by the basic similarity calculation means and the relative similarity calculated by the relative similarity calculation means. It is characterized by.
[0014]
According to a fifth aspect of the present invention, an edge direction image is obtained by differentiating the identification target pattern and each registered pattern, and assigning an edge direction as a pixel value to a pixel forming an edge of the identification target pattern and each registered pattern. Edge direction image creating means for creating, and a template storage means for storing, as a template, an edge direction image corresponding to each registered pattern created by the edge direction image creating means, wherein the superimposed image creating means comprises: The edge direction of each pixel of the edge direction image corresponding to the pattern to be identified created by the edge direction image creation means is compared with the edge direction of the corresponding pixel of each template stored in the template storage means, and the same edge direction is used. The method is characterized in that a superimposed image having only pixels having the edge as an edge is created.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present embodiment shows a case where the present invention is applied to a character identification device for identifying a character pattern.
[0016]
FIG. 1 is a functional block diagram showing a configuration of a character identification device 10 used in the present embodiment.
[0017]
First, the character identification device 10 shown in FIG. 1 compares an input edge direction image having edge information of a character pattern included in an input image with a template prepared in advance for each pixel, and superimposes only a common pixel. Create a composite image.
[0018]
Then, two candidate images are selected from a plurality of superimposed images created for each template, and pixels common to the two candidate images are removed from each candidate image to create a feature-enhanced edge image.
[0019]
Then, a relative similarity is obtained by dividing the number of pixels of the edge of the feature-enhanced edge image by the number of pixels of the edge of the template corresponding to the feature-enhanced edge image, and a character pattern is identified based on the relative similarity.
[0020]
As described above, the character identification device 10 used in the present embodiment creates a feature-enhanced edge image in which edges existing only in each template are enhanced, and calculates the relative similarity based on the feature-enhanced edge image. There are features.
[0021]
As shown in FIG. 1, the character identification device 10 includes an image input unit 101, a template creation unit 102, a zero-crossing point calculation unit 103, an edge information calculation unit 104, a template storage unit 105, an edge direction image creation It comprises a unit 106, a superimposed image creating unit 107, a candidate image selecting unit 108, an identification processing unit 109, a feature emphasized edge image creating unit 110, and a relative similarity calculating unit 111.
[0022]
The character identification device 10 has a template creation mode for creating a template in advance and an identification mode for identifying a character pattern, and switches between these two modes in response to an instruction from the operator.
[0023]
In the template creation mode, the image input unit 101, the template creation unit 102, the zero-crossing point calculation unit 103, the edge information calculation unit 104, and the template storage unit 105 function. All processing units function.
[0024]
The image input unit 101 optically reads an input image including a character pattern, outputs the image data to the template creation unit 102 in the template creation mode, and outputs the image data to the edge direction image creation unit 106 in the identification mode. It is a processing unit.
[0025]
The template creation unit 102 is a processing unit that functions only in the template creation mode. The template creation unit 102 creates a template to be compared with the input edge direction image using the zero-cross point calculation unit 103 and the edge information calculation unit 104, and creates the template. The created template is stored in the template storage unit 105.
[0026]
That is, when the image data is received from the image input unit 101, the template creation unit 102 obtains a zero-cross point indicating a detailed edge in the image data using the zero-cross point calculation unit 103, and further obtains an edge information calculation unit. The edge strength and the edge direction at the zero-cross point are calculated using the 104, and the edge direction image having the calculated edge direction is stored in the template storage unit 105 as a template.
[0027]
The procedure and procedure for creating an edge direction image by the template creating unit 102 are the same as those in the edge detection method disclosed in Japanese Patent Application Laid-Open No. 5-151352.
[0028]
When receiving the image data from the template creating unit 102 or the edge direction image creating unit 106, the zero cross point calculating unit 103 creates a Laplacian image by applying a Gaussian Laplacian filter shown in the following equation to the image data.
[0029]
Figure 0003572501
Then, a point at which the sign of the Laplacian image changes in the x-axis direction or the y-axis direction, that is, a zero cross point is calculated.
[0030]
The reason for calculating the zero-cross point in the present embodiment is that the zero-cross point indicates a detailed edge in the image data, and a pixel whose edge strength at this zero-cross point is equal to or less than a predetermined threshold value is regarded as noise. Because you can do it.
[0031]
When receiving the image data and the information on the zero-cross point from the template creating unit 102 or the edge direction image creating unit 106, the edge information calculating unit 104 uses the Sobel differential operator to determine the edge intensity and the edge intensity at the zero-cross point. The edge direction is calculated, and an edge direction image having the edge information is created.
[0032]
More specifically, the edge information calculation unit 104 applies the Sobel differential operator shown in FIG. 2 to the zero-cross point of the image data, and calculates the edge strength (Em) and the edge direction using the calculation formula shown below. (Eθ) is calculated. Here, the output of the operator in the x direction is Mx, and the output of the operator in the y direction is My.
[0033]
Figure 0003572501
In the present embodiment, the Sobel differential operator is used, but a Roberts or Robinson differential operator may be used.
[0034]
The template storage unit 105 is a storage unit that stores the template created by the template creation unit 102, and is used when the overlay image creation unit 107 described later creates an overlay image.
[0035]
The edge direction image creation unit 106 is a processing unit that functions in the identification mode, and creates an input edge direction image corresponding to a character pattern included in the input image by using the zero-cross point calculation unit 103 and the edge information calculation unit 104. I do.
[0036]
That is, the edge direction image creating unit 106 basically operates in substantially the same manner as the template creating unit 102, and creates the input edge direction image corresponding to the character pattern of the input image. The input edge direction image is output to the superimposed image creation unit 107.
[0037]
The superimposed image creation unit 107 compares the input edge direction image received from the edge direction image creation unit 106 with the template stored in the template storage unit 105 for each pixel to create a superimposed image having only common pixels. And a processing unit that outputs each created superimposed image to the candidate image selection unit 108.
[0038]
Specifically, the superimposed image creation unit 107 performs positioning at the position where the matching degree between the input edge direction image and the template is the maximum, and then sets each edge point of the input edge direction image to the corresponding position of the template. It is checked whether it exists or not, and if it exists at the corresponding position of the template, it is further checked whether or not each edge direction is the same direction.
[0039]
If there is a pixel having the same edge direction at a position corresponding to each of the input edge direction image and the template, a pixel value is assigned to a corresponding position of the superimposed image.
[0040]
However, the edge directions of the corresponding pixels in both images do not need to be completely the same, and if the difference between the respective edge directions is within a predetermined range, they can be regarded as the same direction.
[0041]
The candidate image selection unit 108 calculates a basic similarity (Vt) for each superimposed image received from the superimposed image creation unit 107, selects two superimposed images having a large basic similarity as candidate images, and identifies them. This is a processing unit that outputs to the processing unit 109.
[0042]
The basic similarity (Vt) indicates the ratio of the number of edges on the superimposed image to the number of edges on the template.
[0043]
Here, if an attempt is made to identify using only the basic similarity Vt, there is no difference between templates when handling similar characters, and stable identification cannot be performed.
[0044]
For this reason, in the present embodiment, the basic similarity Vt is only used as a selection index of two candidate images in the candidate image selection unit 108.
[0045]
The identification processing unit 109 creates feature-enhanced edge images respectively corresponding to the two candidate images received from the candidate image selection unit 108 using the feature-enhanced edge image creation unit 110, and then, based on the created feature-enhanced edge images. A processing unit that creates a relative similarity by the relative similarity calculation unit 111 and identifies a character pattern of an input image based on the created relative similarity.
[0046]
That is, in the identification processing unit 109, if the relative similarity is obtained from the relative similarity calculation unit 111, the candidate image having the larger relative similarity among the two candidate images is selected, and the character pattern of the input image is selected. Is the same as the character of the template corresponding to the selected candidate image.
[0047]
The feature-enhanced edge image creation unit 110 receives the two candidate images from the identification processing unit 109, and removes a pixel common to the received two candidate images from each candidate image, thereby obtaining a feature-enhanced edge corresponding to each candidate image. This is a processing unit that creates images.
[0048]
That is, the feature-enhanced edge image creating unit 110 is a processing unit that creates a feature-enhanced edge image having an edge that exists only in the template corresponding to each candidate image on the input image.
[0049]
The relative similarity calculation unit 111 is a processing unit that obtains a relative similarity by dividing the number of pixels of the edge of each feature-enhanced edge image by the number of pixels of the edge of the template corresponding to the feature-enhanced edge image.
[0050]
However, the value of the relative similarity becomes extremely large when the number of pixels at the edge of the template is significantly small, and becomes extremely small when the number of pixels at the edge of the template is significantly large.
[0051]
Therefore, when the number of pixels at the edge of the template is significantly small or large, the identification processing unit 109 treats the template as not being subjected to the identification processing based on the relative similarity.
[0052]
As described above, by using such a character identification device 10, it is possible to identify a character pattern based on the relative similarity between the feature-enhanced edge images.
[0053]
Next, a processing procedure in the identification mode of the character identification device 10 having the above configuration will be described. However, it is assumed that each template to be compared with the input edge direction image has already been stored in the template storage unit 105.
[0054]
FIG. 3 is a flowchart showing a processing procedure of the character identification device 10 shown in FIG.
[0055]
As shown in FIG. 3, when the character identification device 10 first captures an input image by the image input unit 101 (step 301), the edge direction image creation unit 106 converts the input edge direction image from the input image. It is created (step 302).
[0056]
Then, upon receiving the input edge direction image, the superimposed image creating unit 107 retrieves the template from the template storage unit 105 (step 303), aligns the input edge direction image with the template (step 304), and A combined image is created (step 305).
[0057]
Next, after calculating the ratio of the number of edges on the superimposed image to the number of edges on the template, that is, the basic similarity (Vt) (step 306), whether another unprocessed template exists in the template storage unit 105 It is confirmed whether or not there is an unprocessed template (step 307). If there is an unprocessed template, the process proceeds to step 303 to repeat the processes of steps 303 to 307.
[0058]
On the other hand, when the processing for all the templates in the template storage unit 105 has been completed, two superimposed images having a large basic similarity (Vt) obtained in step 306 are selected as candidate images (step 308).
[0059]
After the feature-enhanced edge image creation unit 110 creates a feature-enhanced edge image from each candidate image (step 309), the relative similarity calculation unit 111 calculates the relative similarity based on the feature-enhanced edge image (step 309). 310), the identification processing unit 109 performs identification based on the relative similarity (step 311).
[0060]
Next, the procedure for creating the input edge direction image shown in step 302 of FIG. 3 will be described in further detail.
[0061]
FIG. 4 is a flowchart showing a procedure for creating the input edge direction image shown in FIG.
[0062]
As shown in FIG. 4, first, a Laplacian image Ig (x, y) is created by applying a Laplacian filter to the density image I (x, y) (step 401).
[0063]
Then, for each pixel of the Laplacian image Ig (x, y), it is checked whether the pixel of interest is negative and at least one of its four neighboring pixels is positive (step 402). Calculates the edge strength Em by applying the Sobel differential operator to the density image I (x, y) (step 403).
[0064]
If the edge strength Em is equal to or larger than a predetermined threshold value (step 404), the edge direction Eθ is calculated and stored in the input edge direction image (step 405).
[0065]
This process is repeated for all the pixels, and the process ends when all the pixels have been processed (step 406).
[0066]
Next, the processing progress and the processing result of the character identification device 10 will be described using a specific example. Here, a case is shown in which the character pattern “3L” included in the input image is identified using templates “2L” and “3L” prepared in advance.
[0067]
FIG. 5 is a photograph showing a halftone image in which an input image, an input edge direction image, and a template are displayed on a display.
[0068]
As shown in FIG. 5A, this input image is a density image including the character pattern “3L”, and FIG. 5B shows an input image created by the edge direction image creating unit 106 based on the input image. 5 shows an edge direction image.
[0069]
FIG. 3C is a template showing the character pattern “2L” created by the template creation unit 102, and FIG. 2D is a template showing the character pattern “3L” created by the template creation unit 102 similarly. It is a template.
[0070]
The templates “2L” and “3L” are held in the template storage unit 105, and the edge direction is stored as a pixel value in the input edge direction image and the pixels of each template.
[0071]
FIG. 6 is a photograph showing a binary image in which a superimposed image and a feature emphasized edge image are displayed on a display.
[0072]
FIG. 6A shows a superimposed image in which the input edge direction image shown in FIG. 5B and the template “2L” shown in FIG. 5C are superimposed, and FIG. 6 shows a superimposed image in which the input edge direction image and the template “3L” shown in FIG. 5D are superimposed.
[0073]
First, referring to FIG. 6A, common pixels of the input edge direction image shown in FIG. 5B and the template “2L” shown in FIG. It can be seen that pixels that do not exist in the image do not appear on the superimposed image.
[0074]
On the other hand, looking at FIG. 6B, the edge portion of the template “3L” shown in FIG. 5D also exists in the input edge direction image shown in FIG. Appears almost faithfully.
[0075]
However, considering the case where the input image shown in FIG. 5A is deteriorated, the input edge direction image shown in FIG. 5B is naturally deteriorated, and as a result both superimposed images are approximated. However, it is difficult to identify the character pattern of the input image using only these superimposed images.
[0076]
Next, FIG. 6C shows a feature-enhanced edge image corresponding to the template “2L” created from the two superimposed images shown in FIGS. 6A and 6B, and FIG. Shows a feature-enhanced edge image corresponding to the template "3L" created from the two superimposed images shown in FIGS. 6A and 6B. The feature-enhanced edge image corresponding to 2L in FIG. 6C is obtained by examining whether the edge exists at the same position on FIG. 6B for all the edge points on FIG. If it exists at the position, it can be determined by deleting it from the top of FIG. Similarly, for FIG. 6 (d), it is checked whether or not there is an edge at the same position on FIG. 6 (a) for all the edge points on FIG. 6 (b). For example, it can be obtained by erasing from the top of FIG. 6B and leaving it as it is if it does not exist.
[0077]
Comparing FIGS. 6C and 6D, there is almost no edge in the feature-enhanced edge image corresponding to the template “2L”, but the feature-enhanced edge image corresponding to the template “3L” has no comparison. Target edge exists.
[0078]
From this, it can be visually confirmed that the character pattern of the input image is close to the template “3L”.
[0079]
The number of edges of the templates “2L” and “3L” are almost the same, and the number of edges of the feature-enhanced edge image corresponding to the template “3L” is smaller than the number of edges of the feature-enhanced edge image corresponding to the template “2L”. Since the number of edges is clearly overwhelmingly large, even if the relative similarity is actually calculated, the relative similarity of the template “3L” is extremely large.
[0080]
Therefore, it is possible to identify that the character pattern included in the input image is that of the template “3L” using the relative similarity.
[0081]
As described above, in the present embodiment, when an input image to be identified is received, an input edge direction image and a superimposed image are created from the input image, and two out of the superimposed images are created. Select a candidate image. Then, a feature-enhanced edge image is created from the candidate image, a relative similarity is calculated based on the feature-enhanced edge image, and the character pattern is identified based on the relative similarity. Even if a high-quality character pattern cannot be extracted from a character pattern, similar character patterns can be stably identified.
[0082]
By the way, in the present embodiment, the character pattern is identified using only the relative similarity. However, it is also possible to perform the identification in consideration of the basic similarity Vt used when selecting the candidate image. .
[0083]
In particular,
Similarity = basic similarity (Vt) + α × relative similarity
The similarity is calculated using the calculation formula described above, and identification is performed based on the similarity. Here, α is a constant obtained from an experiment.
[0084]
By performing such identification processing, even if there is a variation in the number of pixels of the edge in the template, the identification processing can be performed without particularly limiting the template.
[0085]
In this embodiment, the case where the present invention is applied to the identification of a character pattern has been described. However, the present invention is not limited to this, and can be applied to the identification of various graphic patterns and the like.
[0086]
Further, in the present embodiment, only two candidate images are selected in candidate image selecting section 107, but it is also possible to select three or more candidate images. In this case, two candidate images are sequentially selected, the relative similarity is calculated, the one with the larger relative similarity is left as a candidate, and the process is repeated until there is only one candidate.
[0087]
【The invention's effect】
As described in detail above, the first invention creates a superimposed image having only pixels common to an edge image having an edge of an identification target pattern and a template having an edge of a registered pattern, and A plurality of candidate images are selected from the superimposed images corresponding to the template, pixels common to the selected plurality of candidate images are excluded from each candidate image, and a feature-enhanced edge image corresponding to each candidate image is created and created. Since the configuration is such that the identification target pattern is identified based on the feature-enhanced edge image obtained, even when a high-quality identification target pattern cannot be extracted from the input image, it is possible to stably identify similar identification target patterns. Becomes possible.
[0088]
Further, the second invention calculates a basic similarity by dividing the number of pixels of each superimposed image by the number of pixels of a template corresponding to the superimposed image, and calculates a plurality of candidate images from those having a large calculated basic similarity. , It is possible to efficiently select an appropriate candidate image.
[0089]
Further, the third invention calculates a relative similarity by dividing the number of pixels of the feature-enhanced edge image by the number of pixels of the template corresponding to the feature-enhanced edge image, and determines a pattern to be identified based on the calculated relative similarity. Since it is configured to be identified, it is possible to quantitatively identify using an index called relative similarity.
[0090]
Further, since the fourth invention is configured to identify the identification target pattern based on both the basic similarity and the relative similarity, the influence of the difference in the number of pixels of each template on the identification of the relative similarity is reduced. It is possible to do.
[0091]
According to a fifth aspect of the present invention, an edge direction image is generated by differentiating a pattern to be identified and each registered pattern, and assigning an edge direction as a pixel value to a pixel forming an edge of the pattern to be identified and each registered pattern. Then, the created edge direction image corresponding to each registered pattern is stored in the template storage means as a template, and the edge direction of each pixel of the edge direction image corresponding to the identification target pattern is stored in the template storage means. Compared with the edge direction of the pixel to be compared, the configuration is such that a superimposed image having only the pixels having the same edge direction as the edge is created, so that the noise component generated on the superimposed image is reduced, thereby improving the identification accuracy. It can be improved.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a configuration of a character identification device used in the present embodiment.
FIG. 2 is a view showing a differential operator used by an edge information calculation unit shown in FIG. 1;
FIG. 3 is a flowchart showing a processing procedure of the character identification device shown in FIG. 1;
FIG. 4 is a flowchart showing a procedure for creating the input edge direction image shown in FIG. 3;
FIG. 5 is a photograph showing a halftone image in which an input image, an input edge direction image, and a template are displayed on a display.
FIG. 6 is a photograph showing a binary image in which a superimposed image and a feature emphasized edge image are displayed on a display.
[Explanation of symbols]
10: Character identification device 101: Image input unit
102: template creation unit; 103: zero-cross point calculation unit;
104: edge information calculation unit; 105: template storage unit;
106: edge direction image creation unit 107: superimposed image creation unit
108: candidate image selection unit 109: identification processing unit
110: feature emphasized edge image creation unit; 111: relative similarity calculation unit

Claims (5)

入力画像に含まれる識別対象パターンをあらかじめ準備した複数の登録パターンと比較して前記識別対象パターンを識別するパターン識別装置において、
前記識別対象パターンのエッジを持つエッジ画像と、前記登録パターンのエッジを持つテンプレートとに共通する画素のみを有する重ね合せ画像を作成する重ね合せ画像作成手段と、
前記重ね合せ画像作成手段が作成した各テンプレートに対応する重ね合せ画像から複数の候補画像を選択する候補画像選択手段と、
前記候補画像選択手段が選択した複数の候補画像に共通する画素を各候補画像から除外して各候補画像にそれぞれ対応する特徴強調エッジ画像を作成する特徴強調エッジ画像作成手段と、
前記特徴強調エッジ画像作成手段が作成した特徴強調エッジ画像に基づいて前記識別対象パターンを識別処理する識別処理手段と
を具備することを特徴とするパターン識別装置。
In a pattern identification device that identifies the identification target pattern by comparing the identification target pattern included in the input image with a plurality of registered patterns prepared in advance,
An edge image having an edge of the pattern to be identified, and a superimposed image creating means for creating an overlay image having only pixels common to a template having an edge of the registered pattern;
Candidate image selecting means for selecting a plurality of candidate images from a superimposed image corresponding to each template created by the superimposed image creating means,
A feature-enhanced edge image creating unit that creates a feature-enhanced edge image corresponding to each candidate image by excluding pixels common to the plurality of candidate images selected by the candidate image selecting unit from each candidate image,
An identification processing unit for identifying the pattern to be identified based on the feature-enhanced edge image created by the feature-enhanced edge image creation unit.
前記候補画像選択手段は、
各重ね合せ画像の画素数を該重ね合せ画像に対応するテンプレートの画素数で除算した基本類似度を算定する基本類似度算定手段を具備し、
該基本類似度算定手段が算定した基本類似度が大きなものから複数の候補画像を選択する
ことを特徴とする請求項1記載のパターン識別装置。
The candidate image selecting means,
A basic similarity calculating means for calculating a basic similarity obtained by dividing the number of pixels of each superimposed image by the number of pixels of the template corresponding to the superimposed image,
2. The pattern identification apparatus according to claim 1, wherein a plurality of candidate images are selected from those having a large basic similarity calculated by said basic similarity calculating means.
前記識別処理手段は、
前記特徴強調エッジ画像作成手段が作成した特徴強調エッジ画像の画素数を該特徴強調エッジ画像に対応するテンプレートの画素数で除算した相対類似度を算定する相対類似度算定手段と、
前記相対類似度算定手段が算定した相対類似度に基づいて前記識別対象パターンを識別する識別手段と
を具備することを特徴とする請求項2記載のパターン識別装置。
The identification processing means,
Relative similarity calculating means for calculating a relative similarity obtained by dividing the number of pixels of the feature-enhanced edge image created by the feature-enhanced edge image creating means by the number of pixels of the template corresponding to the feature-enhanced edge image;
3. The pattern identification apparatus according to claim 2, further comprising: identification means for identifying the identification target pattern based on the relative similarity calculated by the relative similarity calculation means.
前記識別手段は、
前記基本類似度算定手段が算定した基本類似度と前記相対類似度算定手段が算定した相対類似度とに基づいて前記識別対象パターンを識別することを特徴とする請求項3記載のパターン識別装置。
The identification means,
4. The pattern identification apparatus according to claim 3, wherein the identification target pattern is identified based on the basic similarity calculated by the basic similarity calculation means and the relative similarity calculated by the relative similarity calculation means.
前記識別対象パターン及び各登録パターンを微分処理し、該識別対象パターン及び各登録パターンのエッジをなす画素に対してそのエッジ方向を画素値として付与したエッジ方向画像を作成するエッジ方向画像作成手段と、
前記エッジ方向画像作成手段が作成した各登録パターンに対応するエッジ方向画像をテンプレートとして記憶するテンプレート記憶手段と
をさらに具備し、
前記重ね合せ画像作成手段は、
前記エッジ方向画像作成手段が作成した識別対象パターンに対応するエッジ方向画像の各画素が持つエッジ方向を前記テンプレート記憶手段に記憶した各テンプレートの対応する画素が持つエッジ方向と比較し、同一のエッジ方向を有する画素のみをエッジとした重ね合せ画像を作成する
ことを特徴とする請求項1記載のパターン識別装置。
Edge direction image creating means for differentiating the identification target pattern and each registered pattern, and creating an edge direction image in which the edge direction of each pixel forming the edge of the identification target pattern and each registered pattern is assigned as a pixel value; ,
A template storage unit that stores an edge direction image corresponding to each registered pattern created by the edge direction image creation unit as a template,
The superimposed image creating means,
The edge direction of each pixel of the edge direction image corresponding to the pattern to be identified created by the edge direction image creating means is compared with the edge direction of the corresponding pixel of each template stored in the template storage means, and the same edge 2. The pattern identification device according to claim 1, wherein a superimposed image having only edges having directions as edges is created.
JP25892896A 1996-09-30 1996-09-30 Pattern identification device Expired - Fee Related JP3572501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25892896A JP3572501B2 (en) 1996-09-30 1996-09-30 Pattern identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25892896A JP3572501B2 (en) 1996-09-30 1996-09-30 Pattern identification device

Publications (2)

Publication Number Publication Date
JPH10105649A JPH10105649A (en) 1998-04-24
JP3572501B2 true JP3572501B2 (en) 2004-10-06

Family

ID=17326996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25892896A Expired - Fee Related JP3572501B2 (en) 1996-09-30 1996-09-30 Pattern identification device

Country Status (1)

Country Link
JP (1) JP3572501B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102804233B (en) * 2010-03-17 2015-08-12 光荣株式会社 Paper discriminating gear and paper method of discrimination

Also Published As

Publication number Publication date
JPH10105649A (en) 1998-04-24

Similar Documents

Publication Publication Date Title
CN114418957B (en) Global and local binary pattern image crack segmentation method based on robot vision
JP6100744B2 (en) Color document image segmentation and binarization using automatic restoration
US20070189586A1 (en) Finger/palm print image processing system and finger/palm print image processing method
JP2004164624A (en) Method and apparatus for low depth of field image segmentation
US20170344846A1 (en) Image processing apparatus, image processing method and program
EP3073415B1 (en) Image processing apparatus and image processing method
CN109241973B (en) Full-automatic soft segmentation method for characters under texture background
CN105023253A (en) Visual underlying feature-based image enhancement method
CN115100077A (en) Novel image enhancement method and device
Saddami et al. Improvement of binarization performance using local otsu thresholding.
JP4804382B2 (en) Image processing method, image processing program, and image processing apparatus
JP3572501B2 (en) Pattern identification device
CN115619813A (en) SEM image foreground extraction method and device, computer equipment and storage medium
CN113496470B (en) Image processing method and device, electronic equipment and storage medium
RU2336655C1 (en) Method of object and background areas selection in digital images
Dash et al. Noise robust laws’ filters based on fuzzy filters for texture classification
JP2005010842A (en) Banded pattern extraction system and line pattern extraction method
JP2001197305A (en) Picture processor and picture processing method
CN112465817A (en) Pavement crack detection method based on directional filter
Azimirad et al. Design of a new filtering for the noise removing in images by fuzzy logic
Soni et al. To Propose an improvement in Zhang-Suen algorithm for image thinning in image processing
JP2005115548A (en) Image processor, image processing method, image processing program, and recording medium recorded with it program
JPH06301775A (en) Picture processing method, picture identification method and picture processor
JP4230960B2 (en) Image processing apparatus, image processing method, and image processing program
Costa et al. Topological stacking grayscale thinning for edge detection and real-time applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040616

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees