JP3933496B2 - CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM - Google Patents

CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Download PDF

Info

Publication number
JP3933496B2
JP3933496B2 JP2002052555A JP2002052555A JP3933496B2 JP 3933496 B2 JP3933496 B2 JP 3933496B2 JP 2002052555 A JP2002052555 A JP 2002052555A JP 2002052555 A JP2002052555 A JP 2002052555A JP 3933496 B2 JP3933496 B2 JP 3933496B2
Authority
JP
Japan
Prior art keywords
character pattern
deterioration
feature
degree
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002052555A
Other languages
Japanese (ja)
Other versions
JP2003256774A (en
Inventor
稔 森
美奈子 澤木
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002052555A priority Critical patent/JP3933496B2/en
Publication of JP2003256774A publication Critical patent/JP2003256774A/en
Application granted granted Critical
Publication of JP3933496B2 publication Critical patent/JP3933496B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、文字パターンの認識方法及び装置に関し、特に2値の文字パターンを認識する方法及びその装置に関するものである。
【0002】
【従来の技術】
従来の文字パターンの認識方法及び装置の一例として、2値化、位置及び大きさの正規化を行った入力文字パターンから、認識のために必要な特徴として用いられる文字線の方向や接続関係、位置関係などの文字線構造を反映した特徴量の一つとして、文字の黒画素連結長から方向寄与度(特顕昭56−46659号)をベクトルの形で求め、あらかじめ作成してある認識特徴標準辞書内の各文字パターンの標準特徴ベクトルとの間で距離値または類似度などの識別関数を求めて、もっとも類似した標準特徴ベクトルの文字パターンを認識結果とする第一の方法がある。
【0003】
例えば、入力文字パターンを粗い局所領域に分割し、各局所領域内に存在する文字部に対して複数方向の座標軸から観測し、該座標軸から走査した際に交差した文字部の黒画素について、文字線の方向寄与度を求めることにより文字を認識する方法及び装置「萩田紀博、内藤誠一郎、増田功、“大局的・局所的方向寄与度密度特徴による手書き漢字認識方式”、信学論(D)、J66−D、No.6、pp.722−729参照」がある。
【0004】
また、入力文字パターンの2値パターンそのものを特徴ベクトルの要素とし、あらかじめ作成してある認識特徴標準辞書内の各文字パターンの標準特徴ベクトル(特徴ベクトル同様に2値パターンで表現)との間で、共に黒画素となる数をもとにした識別関数である単純類似度などにより、もっとも類似した標準特徴ベクトルの文字パターンを認識結果とする第二の方法がある。
【0005】
【発明が解決しようとする課題】
上記従来の第一の方法では、掠れや汚れの雑音が存在する画像に対しては、黒画素連結長が正しく計測できないことなどにより特徴量が大きく変動してしまい、距離値または類似度が大きく変動し、正しく認識することが困難になる問題がある。
【0006】
また、上記従来の第二の方法では、汚れが多い画像に対して、標準文字パターンのベクトルの黒画素数が多い文字パターンに誤認識してしまう問題がある。また、重なっている画素数で判定されるため、入力文字パターンと標準文字パターンの重ね合わせの位置が少しずれたりするだけで、大きく認識性能が低下する問題がある。
【0007】
本発明は、上記欠点に鑑みてなされたもので、その目的は、2値化、位置及び大きさの正規化をされた入力文字パターンから黒画素連結長を利用して抽出した特徴ベクトルと認識特徴標準辞書内の各文字パターンの標準特徴ベクトルとの間で、もっとも類似した標準特徴ベクトルの文字パターンを認識結果とする場合に、汚れなどの雑音が含まれている文字対象を正しく認識する方法及びその装置を提供することにある。
【0008】
【課題を解決するための手段】
上記の目的を達成するため本発明は、一文字毎に切り出されて2値化された入力文字パターンに対して、位置及び大きさについて正規化処理を行い、該正規化された入力文字パターンから黒画素連結長を利用する特徴を抽出する処理を行い、該特徴を認識特徴標準辞書の特徴値と比較して入力文字パターンを認識する方法において、該正規化された入力文字パターンを走査し、走査した範囲から黒画素数を求める処理を行うステップと、あらかじめ作成し蓄積してある標準パターン辞書の標準文字パターンの黒画素数との差分値から、該走査した範囲の劣化程度を求める処理を行うステップと、該劣化程度を基にして補正係数を算出する処理を行うステップと、該補正係数を用いて該走査範囲内から計数した黒画素連結長を補正する処理を行い、該補正した値を新たに黒画素連結長として用いるステップとを有することを特徴とする文字パターン認識方法を手段とする。
【0009】
あるいは、上記の文字パターン認識方法において、劣化程度を基にして補正係数を算出する処理を行うステップでは、該劣化程度を入力文字パターン全体で平均化した値を用いて補正係数を算出することを特徴とする文字パターン認識方法を手段とする。
【0010】
あるいは、上記の文字パターン認識方法において、劣化程度を基にして補正係数を算出する処理を行うステップでは、更に、該劣化程度を入力文字パターン全体で平均化した値の内、認識対象字種の中で最も小さい値を用いて補正係数を算出することを特徴とする文字パターン認識方法を手段とする。
【0011】
あるいは、一文字毎に切り出されて2値化された入力文字パターンに対して、位置及び大きさについて正規化する前処理部と、該正規化された入力文字パターンから黒画素連結長を利用する特徴を抽出する特徴抽出部と、該特徴を認識特徴標準辞書の特徴値と比較して入力文字パターンを認識する識別部とを有する文字パターン認識装置において、該正規化された入力文字パターンを走査し、走査した範囲から黒画素数を求め、あらかじめ作成し蓄積してある標準パターン辞書の標準文字パターンの黒画素数との差分値から、該走査した範囲の劣化程度を求める劣化程度計測部と、該劣化程度を基にして補正係数を算出し、該補正係数を用いて該走査範囲内から計数した黒画素連結長を補正し、該補正した値を新たに黒画素連結長とする劣化補正部とを有することを特徴とする文字パターン認識装置を手段とする。
【0012】
あるいは、上記の文字パターン認識装置において、劣化補正部は、該劣化程度を入力文字パターン全体で平均化した値を用いて補正係数を算出するものであることを特徴とする文字パターン認識装置を手段とする。
【0013】
あるいは、上記の文字パターン認識装置において、劣化補正部は、更に、劣化程度を文字パターン全体で平均化した値の内、認識対象字種の中で最も小さい値を用いて補正係数を算出するものであることを特徴とする文字パターン認識装置を手段とする。
【0014】
あるいは、上記の文字パターン認識方法におけるステップを、コンピュータに実行させるためのプログラムとしたことを特徴とする文字パターン認識プログラムを手段とする。
【0015】
あるいは、上記の文字パターン認識方法におけるステップを、コンピュータに実行させるためのプログラムとし、該プログラムを、該コンピュータが読み取りできる記録媒体に記録したことを特徴とする文字パターン認識プログラムを記録した記録媒体を手段とする。
【0016】
本発明では、あらかじめ作成し蓄積してある認識特徴標準辞書内の各文字パターンの標準特徴ベクトル(特徴ベクトル同様に2値パターンで表現)と比較することにより、各標準文字パターンを仮定した場合の入力文字パターンの変動量を、特徴値を補正するための補正係数として算出し、該補正係数により局所領域から計数した黒画素数を補正した値を黒画素連結長として用いることにより、雑音の状態に応じて雑音の影響を低減させた特徴ベクトル及び距離値または類似度を得る。
【0017】
つまり、本発明では、2値化、位置及び大きさの正規化をされた入力文字パターンから認識のために文字の黒画素連結長を利用した特徴をベクトルの形で抽出し、あらかじめ作成し蓄積してある認識特徴標準辞書内の各文字パターンの標準特徴ベクトルとの間で距離値または類似度などの識別関数を求めて、もっとも類似した標準特徴ベクトルの文字パターンを認識結果とする方法において、入力文字パターンの劣化状態を計測し、該計測値から特徴値を補正するための補正係数を算出し、特徴値を該補正係数によって補正することにより、雑音による特徴値の変動を低減させることにより、汚れなどの雑音が含まれている文字対象を正しく認識するできるようにする。
【0018】
【発明の実施の形態】
次に、図を参照して本発明の実施の形態を説明する。
【0019】
《実施形態例1》
図1は、本発明の文字認識方法を実施する文字認識装置の一実施形態例を説明する構成図である。1−1は入力文字パターン、1−2は前処理部、1−3は劣化程度計測部、1−4は特徴抽出部、1−5は標準パターン辞書、1−6は劣化補正部、1−7は識別部、1−8は認識特徴標準辞書、1−9は識別結果、である。
【0020】
前処理部1−2は、例えば、従来までに知られている位置の正規化処理法を用いて、入力文字パターン1−1の横幅及び縦幅を算出することにより、入力文字パターンの中心を算出し、核中心が文字枠の中心位置にくるように入力文字パターン1−1全体の平行移動処理を行う。また、例えば従来までに知られている大きさの正規化処理法を用いて、文字の横幅及び縦幅が文字枠横幅及び縦幅の大きさと同じになるように入力文字パターン1−1の拡大/縮小処理を行う。
【0021】
図2に、文字「示」において、前処理部1−2の正規化処理により入力文字パターン1−1が正規化される例を示す。図2(a)は、入力文字パターン1−1の例である。図2(b)は、前処理部1−2において入力文字パターン1−1に対して位置と大きさの正規化処理を行った後の入力文字パターンである。
【0022】
劣化程度計測部1−3は、本発明の主要部をなすものの一つで、前処理部1−2において正規化処理をされた入力文字パターンと、あらかじめ作成し蓄積してある標準パターン辞書の各文字パターンの標準パターンとを比較することにより、該入力文字パターンの汚れている程度(劣化程度)を計測する処理を行う。
【0023】
図3に、該劣化程度計測部1−3を実施する装置の構成の一例であるブロック図を示す。ここで、1−3−1は、正規化パターンの着目画素を中心に黒画素数観測用窓を設定する画素観測窓設定部、1−3−2は、観測窓内の黒画素数を計測する黒画素数計測部、1−3−3は、正規化入力文字パターンと標準パターン辞書1−5の標準文字パターンとの間で、着目画素を中心とした観測窓内の黒画素数と標準文字パターンの該着目画素と同じ位置に設定された観測窓内の黒画素数とを比較する劣化程度算出部、1−3−4は、劣化程度算出部1−3−3から出力される値を入力文字パターン全体で平均化する平均劣化程度算出部、1−3−5は、得られた劣化程度結果を出力する劣化程度結果出力部、である。
【0024】
標準パターン辞書1−5は、標準文字パターンとして各文字種に対してそれぞれ1パターンづつを作成し蓄積、登録する構成でも良いが、各文字種毎に1ないし複数の標準文字パターンを作成し蓄積、登録しておく構成でも良い。その場合、登録されている各文字種の標準文字パターンの登録総数の回数だけ、入力文字パターンとの比較を行い劣化程度を算出する処理等を繰り返せば良い(後記する実施形態例2の場合では、ステップS4〜S8を繰り返す)。
【0025】
特徴抽出部1−4は、前処理部1−2において正規化処理をされた入力文字パターンから、各方向別の黒画素数を計測するために1画素分の高さからなる観測窓を設定し、観測窓内の画素を走査することにより、観測窓内の黒画素数を計数し、劣化補正部1−6へ出力する。劣化補正部1−6により補正された補正黒画素数を用いて方向寄与度(特顕昭56−46659号)を求め、ベクトルの形で抽出する処理を行う。
【0026】
図4に、該特徴抽出部1−4を実施する装置の構成の一例であるブロック図を示す。ここで1−4−1は、正規化入力文字パターンを複数の局所領域に分割するパターン分割部、1−4−2は、方向毎の黒画素数をカウントするために観測窓を設定する観測窓設定部、1−4−3は、観測窓内の黒画素数をカウントする黒画素数計測部、1−4−4は、補正黒画素数を用いて認識に用いる特徴値を算出する特徴値算出部、1−4−5は、算出された特徴値をまとめて特徴ベクトルとして算出する特徴ベクトル算出部、である。
【0027】
劣化補正部1−6は、本発明の主要部をなすもので、劣化程度計測部1−3から出力される劣化程度結果から補正係数を算出し、この補正係数を用いて特徴抽出部1−4より出力された黒画素数を補正し、該補正黒画素数を特徴抽出部1−4に出力する処理を行う。
【0028】
図5に、劣化補正部1−6を実施する装置の構成の一例であるブロック図を示す。ここで1−6−1は、劣化程度を用いて特徴値を補正する補正係数を算出する補正係数算出部、1−6−2は、該補正された値を特徴抽出部1−4へ出力する黒画素数補正部、である。
【0029】
識別部1−7は、特徴抽出部1−4によって得られた特徴ベクトルの値をもとに、すでに作成し蓄積しておいた各文字パターンの認識特徴標準辞書1−8を用いて、特徴ベクトルと認識特徴標準辞書1−8の各文字パターンの標準特徴ベクトルとの間で、従来までにすでに知られている距離値もしくは類似度の識別関数を用いて、入力文字パターンと認識特徴標準辞書1−8の各文字パターンとの間の距離値または類似度を求めることにより、入力文字パターンの識別を行う。
【0030】
図6に識別部1−7を実施する装置の構成の一例であるブロック図を示す。ここで、1−7−1は、入力文字パターンから得られた特徴ベクトルと、すでに蓄えておいた認識特徴標準辞書1−8の各文字パターンの標準特徴ベクトルとの間で、すでに従来知られている距離値もしくは類似度を用いて、各局所領域毎に計算を行う距離値・類似度計算部、1−7−2は、全文字種から得られた距離値または類似度の値からもっとも類似性が高い文字種順に結果を並び換えるソーティング部、1−7−3は、得られた識別結果を出力する識別結果出力部である。
【0031】
《実施形態例2》
本発明の具体的な実施形態例として、認識するための特徴に、入力文字パターン1−1を粗い局所領域に分割し、各局所領域内の黒画素についてあらかじめ定めた複数方向、例えば4方向の場合には0゜、45゜、90゜、135゜(それぞれ1,2,3,4の番号を付ける)に黒画素数計数用の観測窓を設定し、4方向の観測窓毎に、黒画素数の計数及び該黒画素数と標準パターン辞書の黒画素数との差を基に、局所領域の劣化程度に応じて局所領域内の黒画素数を減らすように補正する補正係数を算出し、該黒画素数を該補正係数により補正し、該黒画素の各方向成分別の分布状況を表す方向寄与度(特願昭56−46659号)を算出し、識別関数としてユークリッド距離を用いて標準特徴ベクトルとの距離値を算出することにより、文字パターンを識別する場合を説明する。
【0032】
図7は、それを説明するためのフローチャートを表した図である。
【0033】
一文字毎の領域として切り出された入力文字パターン(ステップS1)は、前処理部1−2へ送られる。前処理部1−2は、入力文字パターンの位置と大きさを正規化する前処理を行う(ステップS2)。前処理によって得られたN×Nメッシュの正規化入力文字パターン(ステップS3)は、劣化程度計測部1−3の画素観測窓設定部1−3−1と特徴抽出部1−4の文字パターン分割部1−4−1へ送られる。
【0034】
劣化程度計測部1−3においては、正規化入力文字パターンの各標準文字パターンに対する劣化程度を計測する(ステップS4)。正規化入力文字パターンの各標準文字パターンに対する劣化程度計測の具体的な処理フローを、図8に示す。
【0035】
劣化程度計測部1−3の画素観測窓設定部1−3−1は、文字パターンの黒画素を検出する(ステップS4−1)。検出画素が黒画素であった場合(ステップS4−2)、局所領域内黒画素数のカウンタを1増やす(ステップS4−3)。検出画素を中心とした観測窓を4方向毎に設定する(ステップS4−4)。検出された黒画素を基準画素とし、基準画素を中心に、方向1なら0゜及び180゜の方向に、方向2なら45゜及び225゜の方向に、方向3なら90゜及び270゜の方向に、方向4なら135゜及び315゜の方向に、各々L画素の分の領域、合計2L+1画素幅の領域が観測窓として設定される。ここで、Lの値は、認識対象データが漢字のように複雑な場合には小さい値をとり、数字やアルファベットのように単純な場合には大きめの値を取るようにする。その際Lの値は、正規化の後の文字データの横幅の画素数をMとするとき、Mの10分の1から4分の1の範囲でその値を設定すれば良好な結果が得られる。黒画素数計測部1−3−2は観測窓内の黒画素数を計数する(ステップS4−5)。劣化程度算出部1−3−3は、標準パターン辞書1−5のi番目の字種における該検出画素と同じ位置及び方向の観測窓から計数された黒画素数との差を劣化程度として算出する(ステップS4−6)。算出された劣化程度を累積する(ステップS4−7)。累積した劣化程度を入力文字パターン内の黒画素数で平均化する(ステップS4−8)。各画素における劣化程度と入力文字パターンの平均劣化程度を劣化補正部1−6へ出力する(ステップS4−9)。
【0036】
特徴抽出部1−4の文字パターン分割部1−4−1は正規化入力文字パターンをK個の粗い局所領域、例えば正方形の局所領域に分割する(ステップS5)。局所領域に分割された入力文字パターンは局所領域毎に特徴が抽出される(ステップS6)。各局所領域における特徴抽出の具体的な処理フローを図9に示す。
【0037】
局所領域に分割された正規化文字パターンは、特徴抽出部1−4の黒画素検出部1−4−2に送られ、局所領域内の画素を検出する(ステップS6−1)。検出画素が黒画素であった場合(ステップS6−2)、局所領域内黒画素数のカウンタを1増やす(ステップS6−3)。また観測窓設定部1−4−3は、検出画素を中心とした観測窓を4方向毎に設定する(ステップS6−4)。検出された黒画素を基準画素とし、基準画素を中心に、方向1なら0゜及び180゜の方向に、方向2なら45゜及び225゜の方向に、方向3なら90゜及び270゜の方向に、方向4なら135゜及び315゜の方向に、各々L画素の分の領域、合計2L+1画素幅の領域が観測窓として設定される。なお、Lの値については上述のとおりである。観測窓内の領域は黒画素数計測部1−4−4に送られる。黒画素数計測部1−4−4は4方向の観測窓毎に観測窓内の黒画素連結長を計数する(ステップS6−5)。計数された4方向毎の黒画素数は、劣化補正部1−6の黒画素数補正部1−6−2へ送られる。
【0038】
劣化補正部1−6の補正係数算出部1−6−1は、計測された平均劣化程度の値を用い、観測窓内から計数された黒画素数を補正する補正係数を算出する(ステップS6−6)。例えば、着目画素の観測窓から得られた劣化程度をq、文字パターン全体の平均劣化程度をgとすると、補正係数をwは、
w=1−min(g,q)/(2L+1)
で算出される。算出された4方向毎の補正係数は、黒画素数補正部1−6−2へ送られる。
【0039】
黒画素数補正部1−6−2は方向毎に算出された補正係数を用いて、観測窓内黒画素数を補正する(ステップS6−7)。該黒画素数をlとすると、補正黒画素数l′は,
l=w・l′
で与えられる。算出された4方向の補正黒画素数は、特徴抽出部1−3の特徴値算出部1−4−5へ送られる。
【0040】
特徴抽出部1−4の特徴値算出部1−4−5は、各画素で特徴値としての方向寄与度を算出する(ステップS6−8)。方向寄与度を算出する具体的な処理フローを図10に示す。
【0041】
各黒画素において求められた4方向の補正黒画素数から、例えば単純和または二乗和の平方根などを用いて黒画素数累積値を求める(ステップS6−8−1)。各方向の黒画素数を黒画素数累積値によって除算することにより方向寄与度を求める(ステップS6−8−2)。各黒画素の方向寄与度dは、
d=(α1,α2,α3,α4)
なる4次元ベクトルで表される。ここで、α1,α2,α3,α4はそれぞれ、4方向の方向寄与度成分で、4方向の補正黒画素数li′(i=1,2,3,4)を用いて、例として黒画素数累積値として二乗和の平方根を用いた場合、
αi=li/√(Σj=1 4j 2)で表される。
【0042】
このようにして求められる方向寄与度αiを各局所領域内の全黒画素について求め、各方向別に累積する(ステップS6−9)。累積した方向寄与度の値を各局所領域内の黒画素の数によって平均化し、各局所領域における特徴値を算出する(ステップS6−10)。第k番目(1,2,…,k,…,K)の局所領域において得られる特徴値dkは、
dk=(αk1,αk2,αk3,αk4)で表される。ここで、αk1,αk2,αk3,αk4は、第k番目の局所領域内に存在する全ての黒画素における方向寄与度ベクトルをそれぞれ方向成分別に累積した方向寄与度のベクトルの各要素を、局所領域に存在する黒画素の数によって平均化した各要素である。このようにして表現される各局所領域における入力文字パターンの特徴ベクトルdkは、特徴ベクトル算出部1−4−6へ送られる(ステップS6−11)。
【0043】
特徴ベクトル算出部1−4−6は、全局所領域分まとめて正規化入力文字パターンにおける特徴ベクトルにする(ステップS7)。特徴ベクトルは、識別部1−7の距離値・類似度計算部1−7−1へ送られる。
【0044】
距離値・類似度計算部1−7−1は、特徴抽出部1−4から送られた特徴ベクトルとあらかじめ作成し蓄積してある認識特徴標準辞書1−8の各文字パターンの標準特徴ベクトルとの間で、識別関数の一つとしてユークリッド距離を計算する(ステップS8)。
【0045】
全ての入力文字パターンに対して、ステップS4からステップS8を繰り返すことにより、全ての標準文字パターンに対する距離値を算出する。各入力文字パターンにおける距離値をソーティング部1−7−2へ送る。
【0046】
ソーティング部1−7−2では、上記の一連の処理を認識特徴標準辞書1−8の全標準文字パターンに対して行うことにより得られた全入力文字パターンの距離値を小さい順に(他の距離値・類似度によっては大きい順に)並び換える(ステップS9)。並び換えられた結果は識別結果出力部1−7−3へ送られる。
【0047】
識別結果出力部1−7−3は、もっとも距離値の小さい(他の距離値・類似度によっては大きい順に)標準文字パターンを識別結果として出力する(ステップS10)。
【0048】
上記説明では、黒画素数を元に方向寄与度を算出し特徴として用いたが、方向寄与度に限らず黒画素数や黒画素連結長を元にした特徴であれば、もちろん適用可能である。
【0049】
上記説明では、観測窓の設定時に、基準画素を中心とした両側に伸ばして設定しているが、片側を別々の観測窓として設定することにより、計測方向を4方向から8方向に拡張し、8方向別の特徴ベクトルを算出する手法も、もちろん適用可能である。
【0050】
上記説明では、観測窓の設定時に1画素の高さからなる領域を設定したが、2画素以上の高さの領域を設定し適用することも可能である。
【0051】
上記説明では、各黒画素において方向寄与度を算出後、局所領域内に加算・平均化したが、各方向別に局所領域内に加算・平均化した後に方向寄与度を算出し、該方向寄与度を特徴値として用いる手法も、もちろん適用可能である。
【0052】
上記説明では、方向別の黒画素連結長として、観測窓内の黒画素数を用いたが、従来の着目画素から連結している黒画素数や、観測窓内の黒画素数を変化数で除算した値を用いる手法ももちろん適用可能である。
【0053】
上記説明では、補正係数wとしてw=1−min(g,q)/(2L+1)を用いたが、w=1−g/(2L+1)やw=1−q/(2L+1)を用いることも、もちろん可能である。
【0054】
《実施形態例3》
本発明の別の実施形態例として、認識するための特徴と識別関数には実施形態例2と同じ特徴を用いた場合における、4方向の観測窓内の黒画素数と標準パターン辞書の黒画素数との差分値及び全標準文字パターンから得られた該差別直を基に、局所領域の劣化程度に応じて局所領域内の黒画素数を減らすように補正する補正係数を算出し、該黒画素数を該補正係数により補正する際の、特徴抽出処理及び劣化補正処理について説明する。図11はそれを説明するためのフローチャートを表した図である。
【0055】
劣化程度計測部1−3において、正規化入力文字パターンS3の全標準文字パターンに対する劣化程度を計測する(ステップS4)。特徴抽出部1−4の文字パターン分割部1−4−1は正規化入力文字パターンをK個の粗い局所領域、例えば正方形の局所領域に分割する(ステップS5)。局所分割された入力文字パターンは局所領域毎に特徴が抽出される(ステップS6)。
【0056】
局所領域に分割された正規化入力文字パターンは、特徴抽出部1−4の黒画素検出部1−4−2に送られ、局所領域内の画素を検出する(ステップS6−1)。検出画素が黒画素であった場合(ステップS6−2)、局所領域内黒画素数のカウンタを1増やす(ステップS6−3)。また観測窓設定部1−4−3は、検出画素を中心とした観測窓を4方向毎に設定する(ステップS6−4)。検出された黒画素を基準画素とし、基準画素を中心に、方向1なら0゜及び180゜の方向に、方向2なら45゜及び225゜の方向に、方向3なら90゜及び270゜の方向に、方向4なら135゜及び315゜の方向に、各々L画素の分の領域、合計2L+1画素幅の領域が観測窓として設定される。なお、Lの値については実施形態例2で述べたとおりである。観測窓内の領域は黒画素数計測部1−4−4に送られる。黒画素数計測部1−4−4は4方向の観測窓毎に観測窓内の黒画素連結長を計数する(ステップS6−5)。計数された4方向毎の黒画素数は、劣化補正部1−6の黒画素数補正部1−6−2へ送られる。
【0057】
劣化補正部1−6の補正係数算出部1−6−1は、計測された値を用い、観測窓内から計数された黒画素数を補正する補正係数を算出する(ステップS6−6)。例えば、着目画素の観測窓から得られた劣化程度をq、全標準文字パターンの中で入力文字パターン全体の平均劣化程度の最小値をpとすると、補正係数wは、
w=1−min(p,q)/(2L+1)
で算出される。算出された4方向毎の補正係数は、黒画素数補正部1−6−2へ送られる。
【0058】
黒画素数補正部1−6−2は方向毎に算出された補正係数を用いて、観測窓内黒画素数を補正する(ステップS6−7)。該黒画素数をlとすると、補正黒画素数l′は,
l′=w・lで与えられる。算出された4方向の補正黒画素数は、特徴抽出部1−4の特徴値算出部1−4−5へ送られる。
【0059】
特徴抽出部1−4の特徴値算出部1−4−5は各画素で特徴値としての方向寄与度を算出する(ステップS6−8)。
【0060】
特徴ベクトル算出部1−4−6は、全局所領域分まとめて正規化入力文字パターンにおける特徴ベクトルにする(ステップS7)。
【0061】
上記説明では、黒画素数を元に方向寄与度を算出し特徴として用いたが、方向寄与度に限らず黒画素数や黒画素連結長を元にした特徴であれば、もちろん適用可能である。
【0062】
上記説明では、観測窓の設定時に、基準画素を中心とした両側に伸ばして設定しているが、片側を別々の観測窓として設定することにより、計測方向を4方向から8方向に拡張し、8方向別の特徴ベクトルを算出する手法も、もちろん適用可能である。
【0063】
上記説明では、観測窓の設定時に1画素の高さからなる領域を設定したが、2画素以上の高さの領域を設定し適用することも可能である。
【0064】
上記説明では、各黒画素において方向寄与度を算出後、局所領域内に加算・平均化したが、各方向別に局所領域内に加算・平均化した後に方向寄与度を算出し、該方向寄与度を特徴値として用いる手法も、もちろん適用可能である。
【0065】
上記説明では、方向別の黒画素連結長として、観測窓内の黒画素数を用いたが、従来の着目画素から連結している黒画素数や、観測窓内の黒画素数を変化数で除算した値を用いる手法ももちろん適用可能である。
【0066】
上記説明では、補正係数wとしてw=1−min(p,q)/(2L+1)を用いたが、w=1−p/(2L+1)やw=1−q/(2L+1)を用いることも、もちろん可能である。
【0067】
図12に文字パターンを粗い正方形のK個の局所領域12−1,…,12−k,…,12−Kに分割した場合の図を示す。
【0068】
図13に、文字パターンの黒画素連結長を求めるために観測窓を伸ばす方向として、4方向13−1,13−2,13−3,13−4にした場合を示す。
【0069】
図14は、図12における第k番目の局所領域12−k内の黒画素において、着目画素から7画素分、計15画素幅の観測窓を0゜(横)方向に設定し、観測窓内の黒画素数を計測する様子を示す図である。
【0070】
図15を用いて,具体的な文字パターンにおける本発明の黒画素数補正に関する効果を説明する。図15(a)は標準文字パターン、図15(b)は正常な入力文字パターン、図15(c)は背景にノイズがある入力文字パターンの例を示す。観測窓15−(a)、15−(b)、15−(c)において、横方向の文字線幅を計測した場合、従来の黒画素連結長をカウントして得られる文字線幅の計測手法、及び本発明の手法により得られる各画素の横方向の文字線幅及び文字線幅の平均値を表1に示す。ただし補正係数を、w=1−q/(2L+1)、L=6とする。
【0071】
【表1】

Figure 0003933496
【0072】
表1より、従来の黒連結長をカウントする手法では、ノイズが存在する場合に得られる連結長は、存在しない場合に得られる連結長から変動していることが分かる。しかし、本発明の手法では、汚れても劣化に対して適応的に値が補正され、安定した値が得られることが分かる。以下同様の処理により全ての局所領域から求められた補正黒画素長を用いることにより、ノイズが存在してもしなくてもほぼ同様の黒画素長が得られることにより、劣化している入力文字パターン全体から得られる黒画素長及びそれから求められる特徴値の変動を低減することができ、正しく認識できるようになる。
【0073】
なお、図1、図3〜図6で示した装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図7〜図11で示した処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FD(フロッピーディスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
【0074】
【発明の効果】
以上説明したように、本発明によれば、入力文字パターンと各標準文字パターンを比較することにより算出される差分値等の劣化の程度を表す値をもとに補正係数を算出して黒画素連結長を補正することにより、従来の特徴抽出では正しく情報を抽出できないような劣化した入力文字パターンに対しても、補正係数により劣化の程度に応じて変動した特徴値を正しく補正するようにしたので、特徴値の変動を抑制し、劣化した入力文字パターンを正しく認識できるようになる。
【0075】
また、本発明では劣化していない時は、正しい文字パターンとの差分値がほぼ0となるため、不必要な補正処理が行われないので、従来の特徴とほぼ同じ特徴値が得られ、ノイズが存在していない入力文字パターンに対しても悪影響を与えることなく、従来とほぼ同じ識別能力を得ることができる。
【0076】
また、本発明では必ずしも固有の特徴抽出手法に制限されることなく、黒画素連結長を用いる特徴抽出法であれば適用可能であるので、今まで文字認識手法として提案されている各種の特徴抽出手法に適用し、ノイズが含まれている入力文字パターンを認識可能とすることで、各種文字認識手法の性能を向上させることが可能である。
【図面の簡単な説明】
【図1】本発明の文字認識方法を実施する文字認識装置の一実施形態例を説明する構成図である。
【図2】(a),(b)は、本実施形態例での前処理部における前処理の様子を示す図である。
【図3】本実施形態例での劣化程度計測部を実施する装置の構成の一例を表すブロック図である。
【図4】本実施形態例での特徴抽出部を実施する装置の構成の一例を表すブロック図である。
【図5】本実施形態例での劣化補正部を実施する装置の構成の一例を表すブロック図である。
【図6】本実施形態例での識別部を実施する装置の構成の一例を表すブロック図である。
【図7】本発明の実施形態例2を説明するフローチャートである。
【図8】実施形態例2での劣化程度計測の具体的な処理フローを示すフローチャートである。
【図9】実施形態例2での各局所領域における特徴抽出の具体的な処理フローを示すフローチャートである。
【図10】実施形態例2での方向寄与度を算出する具体的な処理フローを示すフローチャートである。
【図11】本発明の実施形態例3を説明するフローチャートである。
【図12】本実施形態例での特徴抽出部における文字パターンを粗い局所領域に分割する様子を示した図である。
【図13】本実施形態例での特徴抽出部において、文字パターンの黒画素連結長を求めるために観測窓を伸ばす方向として、8方向にした場合を示す図である。
【図14】本実施形態例において、観測窓内の黒画素数を計測する様子を示す図である。
【図15】(a),(b),(c)は、具体的な文字パターンにおける本発明の黒画素数補正に関する効果を説明する図である。
【符号の説明】
1−1…入力文字パターン
1−2…前処理部
1−3…劣化程度計測部
1−3−1…画素観測窓設定部
1−3−2…黒画素数計測部
1−3−3…劣化程度算出部
1−3−4…平均劣化程度算出部
1−3−5…劣化程度結果出力部
1−4…特徴抽出部
1−4−1…パターン分割部
1−4−2…窓設定部
1−4−3…黒画素数計測部
1−4−4…特徴値算出部
1−4−5…特徴ベクトル算出部
1−5…標準パターン辞書
1−6…劣化補正部
1−6−1…補正係数算出部
1−6−2…黒画素数補正部
1−7…識別部
1−7−1…距離値・類似度計算部
1−7−2…ソーティング部
1−7−3…識別結果出力部
1−8…認識特徴標準辞書
1−9…識別結果[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character pattern recognition method and apparatus, and more particularly to a method and apparatus for recognizing a binary character pattern.
[0002]
[Prior art]
As an example of a conventional character pattern recognition method and apparatus, from the input character pattern that has been binarized and normalized in position and size, the direction and connection relationship of character lines used as features necessary for recognition, As one of the feature quantities reflecting the character line structure such as the positional relationship, the direction contribution (Japanese Patent Publication No. 56-46659) is obtained from the black pixel connection length of the character in the form of a vector, and a recognition feature standard prepared in advance. There is a first method in which an identification function such as a distance value or a similarity is obtained between the standard feature vectors of each character pattern in the dictionary and the character pattern of the most similar standard feature vector is used as a recognition result.
[0003]
For example, the input character pattern is divided into rough local regions, the character portions existing in each local region are observed from coordinate axes in a plurality of directions, and the black pixels of the character portions intersected when scanned from the coordinate axes A method and apparatus for recognizing characters by determining the direction contribution of a line “Norihiro Hamada, Seiichiro Naito, Isao Masuda,“ Handwritten Kanji Recognition Method Based on Global and Local Directional Contribution Density Features ”, Theory of Science (D) , J66-D, No. 6, pp. 722-729 ”.
[0004]
In addition, the binary pattern itself of the input character pattern is used as an element of the feature vector, and the standard feature vector of each character pattern in the recognition feature standard dictionary created in advance (represented by a binary pattern as in the case of the feature vector). There is a second method in which the character pattern of the most similar standard feature vector is used as a recognition result based on the simple similarity that is an identification function based on the number of black pixels.
[0005]
[Problems to be solved by the invention]
In the first conventional method described above, for an image in which blurring or dirt noise exists, the feature amount fluctuates greatly due to the fact that the black pixel connection length cannot be measured correctly, and the distance value or similarity is large. There is a problem that fluctuates and makes it difficult to recognize correctly.
[0006]
In addition, the second conventional method has a problem in that a character pattern having a large number of black pixels in a standard character pattern vector is erroneously recognized with respect to an image with much dirt. In addition, since the determination is based on the number of overlapping pixels, there is a problem that the recognition performance is greatly deteriorated only by a slight shift in the position of superimposition of the input character pattern and the standard character pattern.
[0007]
The present invention has been made in view of the above drawbacks, and its object is to recognize a feature vector extracted from an input character pattern that has been binarized and normalized in position and size using a black pixel connection length. A method of correctly recognizing character objects that contain noise such as dirt when the recognition result is the character pattern of the standard feature vector that is most similar to the standard feature vector of each character pattern in the feature standard dictionary And providing such a device.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention performs a normalization process on the position and size of an input character pattern cut out for each character and binarized, and the normalized input character pattern is blackened. In the method of recognizing an input character pattern by performing a process of extracting a feature using a pixel connection length and comparing the feature with a feature value of a recognition feature standard dictionary, the normalized input character pattern is scanned and scanned. From the difference between the step of obtaining the number of black pixels from the range thus obtained and the number of black pixels of the standard character pattern of the standard pattern dictionary created and stored in advance, the degree of deterioration of the scanned range is obtained. Performing a step of performing a process of calculating a correction coefficient based on the degree of deterioration, and a process of correcting the black pixel connection length counted from within the scanning range using the correction coefficient. , And means a character pattern recognition method characterized by a step of using the corrected value as a new black pixel connected length.
[0009]
Alternatively, in the character pattern recognition method described above, in the step of calculating the correction coefficient based on the degree of deterioration, the correction coefficient is calculated using a value obtained by averaging the degree of deterioration over the entire input character pattern. The characteristic character pattern recognition method is used as means.
[0010]
Alternatively, in the above-described character pattern recognition method, in the step of calculating a correction coefficient based on the degree of deterioration, further, among the values obtained by averaging the degree of deterioration over the entire input character pattern, The character pattern recognition method is characterized in that the correction coefficient is calculated using the smallest value among them.
[0011]
Alternatively, a preprocessing unit that normalizes the position and size of an input character pattern that is cut out for each character and binarized, and a black pixel connection length is used from the normalized input character pattern In the character pattern recognition apparatus having a feature extraction unit that extracts a feature and a recognition unit that recognizes an input character pattern by comparing the feature with a feature value of a recognition feature standard dictionary, the normalized input character pattern is scanned. Determining the number of black pixels from the scanned range, a deterioration level measuring unit for determining the degree of deterioration of the scanned range from the difference value with the number of black pixels of the standard character pattern of the standard pattern dictionary created and accumulated in advance; Deterioration that calculates a correction coefficient based on the degree of deterioration, corrects the black pixel connection length counted from within the scanning range using the correction coefficient, and sets the corrected value as a new black pixel connection length And it means a character pattern recognition apparatus characterized by having a Tadashibu Prefecture.
[0012]
Alternatively, in the above character pattern recognition device, the deterioration correction unit calculates a correction coefficient using a value obtained by averaging the degree of deterioration over the entire input character pattern. And
[0013]
Alternatively, in the above-described character pattern recognition device, the deterioration correction unit further calculates a correction coefficient by using the smallest value among the character types to be recognized among the values obtained by averaging the degree of deterioration over the entire character pattern. A character pattern recognition device characterized by the above is used as means.
[0014]
Alternatively, the character pattern recognition program is characterized in that the step in the character pattern recognition method is a program for causing a computer to execute.
[0015]
Alternatively, a recording medium on which a character pattern recognition program is recorded, characterized in that the step in the character pattern recognition method is a program for causing a computer to execute the program, and the program is recorded on a recording medium readable by the computer. Means.
[0016]
In the present invention, when each standard character pattern is assumed by comparing with the standard feature vector of each character pattern in the recognition feature standard dictionary created and stored in advance (represented by a binary pattern like the feature vector). By calculating the fluctuation amount of the input character pattern as a correction coefficient for correcting the feature value, and using the value obtained by correcting the number of black pixels counted from the local area by the correction coefficient as the black pixel connection length, the noise state In accordance with, a feature vector and a distance value or similarity in which the influence of noise is reduced are obtained.
[0017]
That is, according to the present invention, features using the black pixel connection length of characters for recognition are extracted from an input character pattern that has been binarized and normalized in position and size in the form of a vector, created and stored in advance. In a method of obtaining a recognition function such as a distance value or a similarity between a standard feature vector of each character pattern in a recognized feature standard dictionary and making a character pattern of the most similar standard feature vector as a recognition result, By measuring the deterioration state of the input character pattern, calculating a correction coefficient for correcting the feature value from the measurement value, and correcting the feature value by the correction coefficient, thereby reducing the fluctuation of the feature value due to noise To make it possible to correctly recognize character objects that contain noise such as dirt.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of the present invention will be described with reference to the drawings.
[0019]
<< Embodiment 1 >>
FIG. 1 is a block diagram for explaining an embodiment of a character recognition apparatus that implements the character recognition method of the present invention. 1-1 is an input character pattern, 1-2 is a preprocessing unit, 1-3 is a deterioration degree measuring unit, 1-4 is a feature extracting unit, 1-5 is a standard pattern dictionary, 1-6 is a deterioration correcting unit, 1 -7 is an identification unit, 1-8 is a recognition feature standard dictionary, and 1-9 is an identification result.
[0020]
For example, the pre-processing unit 1-2 calculates the horizontal and vertical widths of the input character pattern 1-1 by using a position normalization method that has been known so far, thereby determining the center of the input character pattern. The entire input character pattern 1-1 is translated so that the nucleus center is located at the center position of the character frame. Further, for example, by using a conventionally known size normalization method, the input character pattern 1-1 is enlarged so that the width and length of the character are the same as the width and length of the character frame. / Perform reduction processing.
[0021]
FIG. 2 shows an example in which the input character pattern 1-1 is normalized by the normalization process of the preprocessing unit 1-2 in the character “Indication”. FIG. 2A shows an example of the input character pattern 1-1. FIG. 2B shows the input character pattern after the position and size normalization processing is performed on the input character pattern 1-1 in the preprocessing unit 1-2.
[0022]
The degradation degree measuring unit 1-3 is one of the main parts of the present invention, and is an input character pattern that has been normalized by the preprocessing unit 1-2, and a standard pattern dictionary that has been created and accumulated in advance. By comparing each character pattern with the standard pattern, processing for measuring the degree of contamination (deterioration degree) of the input character pattern is performed.
[0023]
FIG. 3 is a block diagram showing an example of the configuration of an apparatus that implements the deterioration degree measuring unit 1-3. Here, 1-3-1 is a pixel observation window setting unit that sets a black pixel number observation window around the target pixel of the normalization pattern, and 1-3-2 measures the number of black pixels in the observation window. The black pixel number measuring unit 1-3-3 performs the standard operation between the normalized input character pattern and the standard character pattern of the standard pattern dictionary 1-5, and the standard number of black pixels in the observation window centered on the pixel of interest. The deterioration degree calculation unit 1-3-4 for comparing the number of black pixels in the observation window set at the same position as the target pixel of the character pattern is a value output from the deterioration degree calculation unit 1-3-3 Is an average deterioration degree calculation unit that averages the entire input character pattern, and 1-3-5 is a deterioration degree result output unit that outputs the obtained deterioration degree result.
[0024]
The standard pattern dictionary 1-5 may be configured to create, store, and register one pattern for each character type as a standard character pattern, but create, store, and register one or more standard character patterns for each character type. It is also possible to have a configuration to keep. In that case, it is only necessary to repeat the process of comparing the input character pattern and calculating the degree of deterioration as many times as the total number of registered standard character patterns of each character type (in the case of the second embodiment, which will be described later). Steps S4 to S8 are repeated).
[0025]
The feature extraction unit 1-4 sets an observation window having a height of one pixel in order to measure the number of black pixels in each direction from the input character pattern that has been normalized by the preprocessing unit 1-2. Then, by scanning the pixels in the observation window, the number of black pixels in the observation window is counted and output to the deterioration correction unit 1-6. Using the corrected number of black pixels corrected by the deterioration correction unit 1-6, the direction contribution (Japanese Patent Publication No. 56-46659) is obtained, and processing for extracting in the form of a vector is performed.
[0026]
FIG. 4 is a block diagram showing an example of the configuration of an apparatus that implements the feature extraction unit 1-4. Here, 1-4-1 is a pattern dividing unit that divides a normalized input character pattern into a plurality of local regions, and 1-4-2 is an observation that sets an observation window in order to count the number of black pixels for each direction. A window setting unit, 1-4-3 is a black pixel number measuring unit that counts the number of black pixels in the observation window, and 1-4-4 is a feature that calculates a feature value used for recognition using the corrected black pixel number. A value calculation unit 1-4-4 is a feature vector calculation unit that collectively calculates the calculated feature values as a feature vector.
[0027]
The deterioration correction unit 1-6 is a main part of the present invention, calculates a correction coefficient from the deterioration degree result output from the deterioration degree measurement unit 1-3, and uses this correction coefficient to extract the feature extraction unit 1- The number of black pixels output from 4 is corrected, and the corrected black pixel number is output to the feature extraction unit 1-4.
[0028]
FIG. 5 is a block diagram showing an example of the configuration of an apparatus that implements the deterioration correction unit 1-6. Here, 1-6-1 is a correction coefficient calculation unit that calculates a correction coefficient for correcting the feature value using the degree of deterioration, and 1-6-2 outputs the corrected value to the feature extraction unit 1-4. A black pixel number correcting unit.
[0029]
Based on the value of the feature vector obtained by the feature extraction unit 1-4, the identification unit 1-7 uses the recognition feature standard dictionary 1-8 for each character pattern that has already been created and accumulated, Between the vector and the standard feature vector of each character pattern of the recognition feature standard dictionary 1-8, the input character pattern and the recognition feature standard dictionary are used by using a known identification function of distance value or similarity. The input character pattern is identified by obtaining a distance value or similarity between each character pattern 1-8.
[0030]
FIG. 6 is a block diagram showing an example of the configuration of an apparatus that implements the identification unit 1-7. Here, 1-7-1 is already known between the feature vector obtained from the input character pattern and the standard feature vector of each character pattern stored in the recognition feature standard dictionary 1-8. A distance value / similarity calculation unit 1-7-2 that performs calculation for each local region using a distance value or a similarity that is the most similar to the distance value or similarity value obtained from all character types A sorting unit 1-7-3 that rearranges the results in the order of character types having high characteristics is an identification result output unit that outputs the obtained identification results.
[0031]
<< Embodiment 2 >>
As a specific embodiment example of the present invention, the input character pattern 1-1 is divided into rough local areas as features to be recognized, and a plurality of predetermined directions, for example, four directions, are determined for black pixels in each local area. In this case, an observation window for counting the number of black pixels is set at 0 °, 45 °, 90 °, and 135 ° (numbered 1, 2, 3, and 4 respectively), and black for each of the four observation windows. Based on the number of pixels and the difference between the number of black pixels and the number of black pixels in the standard pattern dictionary, a correction coefficient is calculated for correction so as to reduce the number of black pixels in the local area according to the degree of degradation of the local area. Then, the number of black pixels is corrected by the correction coefficient, and the direction contribution (Japanese Patent Application No. 56-46659) representing the distribution state of each direction component of the black pixels is calculated, and the Euclidean distance is used as an identification function. By calculating the distance from the standard feature vector, Describing identify the character pattern.
[0032]
FIG. 7 is a diagram illustrating a flowchart for explaining the above.
[0033]
The input character pattern (step S1) cut out as an area for each character is sent to the preprocessing unit 1-2. The preprocessing unit 1-2 performs preprocessing for normalizing the position and size of the input character pattern (step S2). The N × N mesh normalized input character pattern (step S3) obtained by the preprocessing is a character pattern of the pixel observation window setting unit 1-3-1 and the feature extraction unit 1-4 of the deterioration degree measurement unit 1-3. The data is sent to the dividing unit 1-4-1.
[0034]
The deterioration degree measuring unit 1-3 measures the degree of deterioration of each normalized input character pattern with respect to each standard character pattern (step S4). FIG. 8 shows a specific processing flow for measuring the degree of deterioration of each standard character pattern of the normalized input character pattern.
[0035]
The pixel observation window setting unit 1-3-1 of the deterioration degree measuring unit 1-3 detects a black pixel of the character pattern (step S4-1). If the detected pixel is a black pixel (step S4-2), the counter of the number of black pixels in the local area is incremented by 1 (step S4-3). An observation window centered on the detection pixel is set for every four directions (step S4-4). Using the detected black pixel as a reference pixel, centering on the reference pixel, direction 1 is 0 ° and 180 °, direction 2 is 45 ° and 225 °, direction 3 is 90 ° and 270 ° On the other hand, if the direction is 4, an area corresponding to L pixels in a direction of 135 ° and 315 °, and an area having a total width of 2L + 1 pixels is set as an observation window. Here, the value of L is set to a small value when the recognition target data is as complex as Kanji, and is set to a large value when it is as simple as a number or alphabet. In this case, when the number of pixels of the width of the character data after normalization is M, if the value of L is set within a range of 1/10 to 1/4 of M, good results can be obtained. It is done. The black pixel number measuring unit 1-3-2 counts the number of black pixels in the observation window (step S4-5). The deterioration degree calculating unit 1-3-3 calculates the difference between the number of black pixels counted from the observation window at the same position and direction as the detected pixel in the i-th character type of the standard pattern dictionary 1-5 as the deterioration degree. (Step S4-6). The calculated degree of deterioration is accumulated (step S4-7). The accumulated deterioration level is averaged by the number of black pixels in the input character pattern (step S4-8). The degree of deterioration in each pixel and the average degree of deterioration of the input character pattern are output to the deterioration correcting unit 1-6 (step S4-9).
[0036]
The character pattern dividing unit 1-4-1 of the feature extracting unit 1-4 divides the normalized input character pattern into K rough local regions, for example, square local regions (step S5). The input character pattern divided into the local areas is extracted for each local area (step S6). A specific processing flow for feature extraction in each local region is shown in FIG.
[0037]
The normalized character pattern divided into the local regions is sent to the black pixel detecting unit 1-4-2 of the feature extracting unit 1-4, and the pixels in the local region are detected (step S6-1). If the detected pixel is a black pixel (step S6-2), the counter of the number of black pixels in the local area is incremented by 1 (step S6-3). In addition, the observation window setting unit 1-4-3 sets an observation window centered on the detection pixel for each of four directions (step S6-4). Using the detected black pixel as a reference pixel, centering on the reference pixel, direction 1 is 0 ° and 180 °, direction 2 is 45 ° and 225 °, direction 3 is 90 ° and 270 ° On the other hand, if the direction is 4, an area corresponding to L pixels in a direction of 135 ° and 315 °, and an area having a total width of 2L + 1 pixels is set as an observation window. The value of L is as described above. The area in the observation window is sent to the black pixel number measuring unit 1-4-4. The black pixel number measuring unit 1-4-4 counts the black pixel connection length in the observation window for each of the four observation windows (step S6-5). The counted number of black pixels in each of the four directions is sent to the black pixel number correcting unit 1-6-2 of the deterioration correcting unit 1-6.
[0038]
The correction coefficient calculation unit 1-6-1 of the deterioration correction unit 1-6 calculates a correction coefficient for correcting the number of black pixels counted from within the observation window, using the measured value of the average deterioration degree (step S6). -6). For example, if the degree of deterioration obtained from the observation window of the pixel of interest is q and the average degree of deterioration of the entire character pattern is g, the correction coefficient w is
w = 1-min (g, q) / (2L + 1)
Is calculated by The calculated correction coefficients for the four directions are sent to the black pixel number correction unit 1-6-2.
[0039]
The black pixel number correcting unit 1-6-2 corrects the number of black pixels in the observation window using the correction coefficient calculated for each direction (step S 6-7). When the number of black pixels is l, the corrected black pixel number l ′ is
l = w · l ′
Given in. The calculated number of corrected black pixels in the four directions is sent to the feature value calculation unit 1-4-5 of the feature extraction unit 1-3.
[0040]
The feature value calculation unit 1-4-5 of the feature extraction unit 1-4 calculates the direction contribution as a feature value in each pixel (step S6-8). A specific processing flow for calculating the direction contribution is shown in FIG.
[0041]
From the number of corrected black pixels in the four directions obtained for each black pixel, for example, the cumulative value of the number of black pixels is obtained using the square root of the simple sum or the square sum (step S6-8-1). The direction contribution is obtained by dividing the number of black pixels in each direction by the accumulated number of black pixels (step S6-8-2). The direction contribution d of each black pixel is
d = (α1, α2, α3, α4)
It is expressed by the following four-dimensional vector. Here, α1, α2, α3, and α4 are direction contribution components in four directions, respectively, and the number of corrected black pixels l in four directions.i′ (I = 1, 2, 3, 4), for example, when the square root of the sum of squares is used as the accumulated number of black pixels,
αi= Li/ √ (Σj = 1 Fourlj 2).
[0042]
Directional contribution α thus obtainediAre obtained for all black pixels in each local region and accumulated in each direction (step S6-9). The accumulated direction contribution values are averaged by the number of black pixels in each local area, and the feature value in each local area is calculated (step S6-10). The feature value dk obtained in the k th (1, 2,..., K,..., K) local region is
dk = (αk1, αk2, αk3, αk4). Here, αk1, αk2, αk3, αk4 are the elements of the direction contribution vector obtained by accumulating the direction contribution vectors of all the black pixels existing in the kth local area for each direction component, respectively. Each element is averaged by the number of black pixels present in. The feature vector dk of the input character pattern in each local region expressed in this way is sent to the feature vector calculation unit 1-4-6 (step S6-11).
[0043]
The feature vector calculation unit 1-4-6 collects all the local regions and sets them as feature vectors in the normalized input character pattern (step S7). The feature vector is sent to the distance value / similarity calculation unit 1-7-1 of the identification unit 1-7.
[0044]
The distance value / similarity calculation unit 1-7-1 includes the feature vector sent from the feature extraction unit 1-4 and the standard feature vector of each character pattern in the recognition feature standard dictionary 1-8 created and stored in advance. The Euclidean distance is calculated as one of the discriminant functions (step S8).
[0045]
By repeating Step S4 to Step S8 for all input character patterns, distance values for all standard character patterns are calculated. The distance value in each input character pattern is sent to the sorting unit 1-7-2.
[0046]
In the sorting unit 1-7-2, the distance values of all input character patterns obtained by performing the above-described series of processing on all the standard character patterns of the recognition feature standard dictionary 1-8 are set in ascending order (other distances). The values are rearranged in the descending order depending on the value / similarity (step S9). The rearranged result is sent to the identification result output unit 1-7-3.
[0047]
The identification result output unit 1-7-3 outputs the standard character pattern having the smallest distance value (in order of increasing distance value / similarity) as the identification result (step S10).
[0048]
In the above description, the direction contribution is calculated based on the number of black pixels and used as a feature. However, the present invention is not limited to the direction contribution and can be applied to any feature based on the number of black pixels and the black pixel connection length. .
[0049]
In the above description, when setting the observation window, it is set to extend to both sides with the reference pixel as the center, but by setting one side as separate observation windows, the measurement direction is expanded from 4 directions to 8 directions, Of course, a method of calculating feature vectors for each of the eight directions is also applicable.
[0050]
In the above description, an area having a height of one pixel is set when setting the observation window. However, an area having a height of two pixels or more can be set and applied.
[0051]
In the above description, after calculating the direction contribution in each black pixel, it is added and averaged in the local area. However, after adding and averaging in the local area for each direction, the direction contribution is calculated and the direction contribution is calculated. Of course, a method of using as a feature value is also applicable.
[0052]
In the above description, the number of black pixels in the observation window is used as the black pixel connection length for each direction. However, the number of black pixels connected from the conventional target pixel and the number of black pixels in the observation window are expressed as the number of changes. Of course, a method using a divided value is also applicable.
[0053]
In the above description, w = 1−min (g, q) / (2L + 1) is used as the correction coefficient w. However, w = 1−g / (2L + 1) or w = 1−q / (2L + 1) may be used. Of course it is possible.
[0054]
<< Embodiment 3 >>
As another embodiment of the present invention, the number of black pixels in the observation window in the four directions and the black pixels of the standard pattern dictionary when the same features as those in the second embodiment are used for the features to be recognized and the discrimination function. Based on the difference value from the number and the discrimination obtained from all the standard character patterns, a correction coefficient for correcting the number of black pixels in the local area to be reduced according to the degree of deterioration of the local area is calculated. A feature extraction process and a deterioration correction process when the number of pixels is corrected by the correction coefficient will be described. FIG. 11 shows a flowchart for explaining the above.
[0055]
The deterioration degree measuring unit 1-3 measures the degree of deterioration of the normalized input character pattern S3 with respect to all the standard character patterns (step S4). The character pattern dividing unit 1-4-1 of the feature extracting unit 1-4 divides the normalized input character pattern into K rough local regions, for example, square local regions (step S5). A feature is extracted for each local region from the locally divided input character pattern (step S6).
[0056]
The normalized input character pattern divided into the local regions is sent to the black pixel detection unit 1-4-2 of the feature extraction unit 1-4 to detect pixels in the local region (step S6-1). If the detected pixel is a black pixel (step S6-2), the counter of the number of black pixels in the local area is incremented by 1 (step S6-3). In addition, the observation window setting unit 1-4-3 sets an observation window centered on the detection pixel for each of four directions (step S6-4). Using the detected black pixel as a reference pixel, centering on the reference pixel, direction 1 is 0 ° and 180 °, direction 2 is 45 ° and 225 °, direction 3 is 90 ° and 270 ° On the other hand, if the direction is 4, an area corresponding to L pixels in a direction of 135 ° and 315 °, and an area having a total width of 2L + 1 pixels is set as an observation window. The value of L is as described in the second embodiment. The area in the observation window is sent to the black pixel number measuring unit 1-4-4. The black pixel number measuring unit 1-4-4 counts the black pixel connection length in the observation window for each of the four observation windows (step S6-5). The counted number of black pixels in each of the four directions is sent to the black pixel number correcting unit 1-6-2 of the deterioration correcting unit 1-6.
[0057]
The correction coefficient calculation unit 1-6-1 of the deterioration correction unit 1-6 uses the measured value to calculate a correction coefficient for correcting the number of black pixels counted from within the observation window (step S6-6). For example, if the deterioration degree obtained from the observation window of the target pixel is q, and the minimum value of the average deterioration degree of the entire input character pattern among all the standard character patterns is p, the correction coefficient w is
w = 1-min (p, q) / (2L + 1)
Is calculated by The calculated correction coefficients for the four directions are sent to the black pixel number correction unit 1-6-2.
[0058]
The black pixel number correcting unit 1-6-2 corrects the number of black pixels in the observation window using the correction coefficient calculated for each direction (step S 6-7). When the number of black pixels is l, the corrected black pixel number l ′ is
l ′ = w · l. The calculated number of corrected black pixels in the four directions is sent to the feature value calculation unit 1-4-5 of the feature extraction unit 1-4.
[0059]
The feature value calculation unit 1-4-5 of the feature extraction unit 1-4 calculates the direction contribution as a feature value in each pixel (step S6-8).
[0060]
The feature vector calculation unit 1-4-6 collects all the local regions and sets them as feature vectors in the normalized input character pattern (step S7).
[0061]
In the above description, the direction contribution is calculated based on the number of black pixels and used as a feature. However, the present invention is not limited to the direction contribution and can be applied to any feature based on the number of black pixels and the black pixel connection length. .
[0062]
In the above description, when setting the observation window, it is set to extend to both sides with the reference pixel as the center, but by setting one side as separate observation windows, the measurement direction is expanded from 4 directions to 8 directions, Of course, a method of calculating feature vectors for each of the eight directions is also applicable.
[0063]
In the above description, an area having a height of one pixel is set when setting the observation window. However, an area having a height of two pixels or more can be set and applied.
[0064]
In the above description, after calculating the direction contribution in each black pixel, it is added and averaged in the local area. However, after adding and averaging in the local area for each direction, the direction contribution is calculated and the direction contribution is calculated. Of course, a method of using as a feature value is also applicable.
[0065]
In the above description, the number of black pixels in the observation window is used as the black pixel connection length for each direction. However, the number of black pixels connected from the conventional target pixel and the number of black pixels in the observation window are expressed as the number of changes. Of course, a method using a divided value is also applicable.
[0066]
In the above description, w = 1−min (p, q) / (2L + 1) is used as the correction coefficient w. However, w = 1−p / (2L + 1) or w = 1−q / (2L + 1) may be used. Of course it is possible.
[0067]
FIG. 12 shows a case where the character pattern is divided into K square local areas 12-1,..., 12-k,.
[0068]
FIG. 13 shows a case where four directions 13-1, 13-2, 13-3, and 13-4 are used as directions for extending the observation window in order to obtain the black pixel connection length of the character pattern.
[0069]
FIG. 14 shows that in the black pixel in the k-th local region 12-k in FIG. 12, an observation window having a total width of 15 pixels, 7 pixels from the target pixel, is set in the 0 ° (horizontal) direction. It is a figure which shows a mode that the number of black pixels is measured.
[0070]
The effect relating to the correction of the number of black pixels of the present invention in a specific character pattern will be described with reference to FIG. FIG. 15A shows a standard character pattern, FIG. 15B shows a normal input character pattern, and FIG. 15C shows an example of an input character pattern with noise in the background. In the observation window 15- (a), 15- (b), 15- (c), when the character line width in the horizontal direction is measured, the conventional method for measuring the character line width obtained by counting the black pixel connection length Table 1 shows the character line width in the horizontal direction and the average value of the character line width of each pixel obtained by the method of the present invention. However, the correction coefficients are w = 1−q / (2L + 1) and L = 6.
[0071]
[Table 1]
Figure 0003933496
[0072]
From Table 1, it can be seen that in the conventional method of counting the black connection length, the connection length obtained when noise is present varies from the connection length obtained when noise is not present. However, according to the method of the present invention, it can be seen that even if it is dirty, the value is adaptively corrected for deterioration, and a stable value is obtained. In the following, by using the corrected black pixel length obtained from all the local areas by the same processing, it is possible to obtain almost the same black pixel length regardless of the presence of noise, thereby deteriorating the input character pattern. The variation of the black pixel length obtained from the whole and the characteristic value obtained therefrom can be reduced, so that it can be correctly recognized.
[0073]
In addition, a part or all of the functions of each unit in the apparatus shown in FIGS. 1 and 3 to 6 can be configured by a computer program, and the present invention can be realized by executing the program using the computer. Alternatively, it is needless to say that the processing procedures shown in FIGS. 7 to 11 can be configured by a computer program, and the program can be executed by the computer. A program for executing the processing procedure is recorded on a computer-readable recording medium such as FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, DVD, removable disk, etc. Can be saved and distributedIt is also possible to provide the above program through a network such as the Internet or electronic mail.
[0074]
【The invention's effect】
As described above, according to the present invention, the correction coefficient is calculated based on the value representing the degree of deterioration such as the difference value calculated by comparing the input character pattern and each standard character pattern, and the black pixel By correcting the connection length, even for degraded input character patterns that cannot be extracted correctly by conventional feature extraction, feature values that have changed according to the degree of degradation are corrected correctly by the correction coefficient. Therefore, the fluctuation of the feature value is suppressed, and the deteriorated input character pattern can be recognized correctly.
[0075]
Further, in the present invention, when there is no deterioration, the difference value from the correct character pattern is almost zero, so unnecessary correction processing is not performed, so that a feature value almost the same as the conventional feature is obtained, and noise is reduced. It is possible to obtain almost the same identification ability as before without adversely affecting an input character pattern in which no exists.
[0076]
Further, in the present invention, the feature extraction method using the black pixel connection length is not necessarily limited to a unique feature extraction method, and can be applied. Therefore, various feature extraction methods that have been proposed as character recognition methods so far are applicable. By applying the method to make it possible to recognize an input character pattern including noise, it is possible to improve the performance of various character recognition methods.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating an embodiment of a character recognition device that implements a character recognition method of the present invention.
FIGS. 2A and 2B are diagrams showing a state of preprocessing in a preprocessing unit in the present embodiment.
FIG. 3 is a block diagram illustrating an example of a configuration of an apparatus that implements a deterioration degree measurement unit according to the present exemplary embodiment.
FIG. 4 is a block diagram illustrating an example of a configuration of an apparatus that implements a feature extraction unit according to the present exemplary embodiment.
FIG. 5 is a block diagram illustrating an example of a configuration of an apparatus that implements a deterioration correction unit according to the present exemplary embodiment.
FIG. 6 is a block diagram illustrating an example of a configuration of an apparatus that implements an identification unit according to the present exemplary embodiment.
FIG. 7 is a flowchart illustrating Embodiment 2 of the present invention.
FIG. 8 is a flowchart showing a specific processing flow of deterioration degree measurement in the second embodiment.
FIG. 9 is a flowchart showing a specific processing flow of feature extraction in each local region in Embodiment 2;
FIG. 10 is a flowchart showing a specific processing flow for calculating a direction contribution in Embodiment 2;
FIG. 11 is a flowchart illustrating Embodiment 3 of the present invention.
FIG. 12 is a diagram illustrating a state in which a character pattern in a feature extraction unit according to the present embodiment is divided into rough local areas.
FIG. 13 is a diagram illustrating a case in which eight directions are used as directions for extending an observation window in order to obtain a black pixel connection length of a character pattern in the feature extraction unit according to the present exemplary embodiment.
FIG. 14 is a diagram showing how the number of black pixels in an observation window is measured in the present embodiment example.
FIGS. 15A, 15B, and 15C are diagrams for explaining effects related to the correction of the number of black pixels of the present invention in a specific character pattern. FIGS.
[Explanation of symbols]
1-1 ... Input character pattern
1-2. Pre-processing unit
1-3 ... Deterioration degree measurement unit
1-3-1. Pixel observation window setting unit
1-3-2. Black pixel number measuring unit
1-3-3 Deterioration degree calculation unit
1-3-4 ... Average deterioration degree calculation unit
1-3-5 ... Degradation degree result output section
1-4 ... Feature extraction unit
1-4-1 Pattern dividing unit
1-4-2 Window setting section
1-4-3. Black pixel count measuring unit
1-4-4. Feature value calculation unit
1-4-5. Feature vector calculation unit
1-5 ... Standard pattern dictionary
1-6 Degradation correction unit
1-6-1 ... Correction coefficient calculation unit
1-6-2 Black pixel number correction unit
1-7. Identification part
1-7-1 Distance value / similarity calculator
1-7-2 ... Sorting section
1-7-3. Identification result output section
1-8 ... Recognition feature standard dictionary
1-9 ... Identification result

Claims (8)

一文字毎に切り出されて2値化された入力文字パターンに対して、位置及び大きさについて正規化処理を行い、該正規化された入力文字パターンから黒画素連結長を利用する特徴を抽出する処理を行い、該特徴を認識特徴標準辞書の特徴値と比較して入力文字パターンを認識する方法において、
該正規化された入力文字パターンを走査し、走査した範囲から黒画素数を求める処理を行うステップと、
あらかじめ作成し蓄積してある標準パターン辞書の標準文字パターンの黒画素数との差分値から、該走査した範囲の劣化程度を求める処理を行うステップと、
該劣化程度を基にして補正係数を算出する処理を行うステップと、
該補正係数を用いて該走査範囲内から計数した黒画素連結長を補正する処理を行い、該補正した値を新たに黒画素連結長として用いるステップとを有する
ことを特徴とする文字パターン認識方法。
Processing for normalizing the position and size of an input character pattern cut out for each character and binarized, and extracting a feature using a black pixel connection length from the normalized input character pattern In a method for recognizing an input character pattern by comparing the feature with a feature value of a recognition feature standard dictionary,
Scanning the normalized input character pattern and determining the number of black pixels from the scanned range;
Performing a process of obtaining the degree of deterioration of the scanned range from the difference value with the number of black pixels of the standard character pattern of the standard pattern dictionary created and stored in advance;
Performing a process of calculating a correction coefficient based on the degree of deterioration;
And a step of correcting the black pixel connection length counted from the scanning range using the correction coefficient, and using the corrected value as a new black pixel connection length. .
請求項1記載の文字パターン認識方法において、
劣化程度を基にして補正係数を算出する処理を行うステップでは、該劣化程度を入力文字パターン全体で平均化した値を用いて補正係数を算出する
ことを特徴とする文字パターン認識方法。
The character pattern recognition method according to claim 1,
A character pattern recognition method characterized in that, in the step of performing a process of calculating a correction coefficient based on a degree of deterioration, a correction coefficient is calculated using a value obtained by averaging the degree of deterioration over the entire input character pattern.
請求項2記載の文字パターン認識方法において、
劣化程度を基にして補正係数を算出する処理を行うステップでは、更に、該劣化程度を入力文字パターン全体で平均化した値の内、認識対象字種の中で最も小さい値を用いて補正係数を算出する
ことを特徴とする文字パターン認識方法。
The character pattern recognition method according to claim 2,
In the step of calculating the correction coefficient based on the degree of deterioration, the correction coefficient is further calculated using the smallest value among the character types to be recognized among the values obtained by averaging the degree of deterioration over the entire input character pattern. The character pattern recognition method characterized by calculating.
一文字毎に切り出されて2値化された入力文字パターンに対して、位置及び大きさについて正規化する前処理部と、
該正規化された入力文字パターンから黒画素連結長を利用する特徴を抽出する特徴抽出部と、
該特徴を認識特徴標準辞書の特徴値と比較して入力文字パターンを認識する識別部とを有する文字パターン認識装置において、
該正規化された入力文字パターンを走査し、走査した範囲から黒画素数を求め、あらかじめ作成し蓄積してある標準パターン辞書の標準文字パターンの黒画素数との差分値から、該走査した範囲の劣化程度を求める劣化程度計測部と、
該劣化程度を基にして補正係数を算出し、該補正係数を用いて該走査範囲内から計数した黒画素連結長を補正し、該補正した値を新たに黒画素連結長とする劣化補正部とを有する
ことを特徴とする文字パターン認識装置。
A pre-processing unit that normalizes the position and size of the input character pattern cut out for each character and binarized;
A feature extraction unit that extracts features utilizing the black pixel connection length from the normalized input character pattern;
In a character pattern recognition device having an identification unit that recognizes an input character pattern by comparing the feature with a feature value of a recognition feature standard dictionary,
The normalized input character pattern is scanned, the number of black pixels is obtained from the scanned range, and the scanned range is calculated from a difference value from the number of black pixels of the standard character pattern in the standard pattern dictionary that has been created and accumulated in advance. A deterioration degree measurement unit for obtaining the degree of deterioration of
A deterioration correction unit that calculates a correction coefficient based on the degree of deterioration, corrects the black pixel connection length counted from within the scanning range using the correction coefficient, and newly sets the corrected value as a black pixel connection length And a character pattern recognition device.
請求項4記載の文字パターン認識装置において、
劣化補正部は、該劣化程度を入力文字パターン全体で平均化した値を用いて補正係数を算出するものである
ことを特徴とする文字パターン認識装置。
The character pattern recognition apparatus according to claim 4,
The deterioration correction unit calculates a correction coefficient using a value obtained by averaging the degree of deterioration over the entire input character pattern.
請求項5記載の文字パターン認識装置において、
劣化補正部は、更に、劣化程度を文字パターン全体で平均化した値の内、認識対象字種の中で最も小さい値を用いて補正係数を算出するものである
ことを特徴とする文字パターン認識装置。
The character pattern recognition apparatus according to claim 5,
The deterioration correction unit further calculates a correction coefficient by using the smallest value among the character types to be recognized among the values obtained by averaging the degree of deterioration over the entire character pattern. apparatus.
請求項1から3のいずれか1項に記載の文字パターン認識方法におけるステップを、コンピュータに実行させるためのプログラムとした
ことを特徴とする文字パターン認識プログラム。
A character pattern recognition program characterized in that the step in the character pattern recognition method according to any one of claims 1 to 3 is a program for causing a computer to execute the steps.
請求項1から3のいずれか1項に記載の文字パターン認識方法におけるステップを、コンピュータに実行させるためのプログラムとし、
該プログラムを、該コンピュータが読み取りできる記録媒体に記録した
ことを特徴とする文字パターン認識プログラムを記録した記録媒体。
A step in the character pattern recognition method according to any one of claims 1 to 3 is a program for causing a computer to execute the step.
A recording medium recording a character pattern recognition program, wherein the program is recorded on a recording medium readable by the computer.
JP2002052555A 2002-02-28 2002-02-28 CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP3933496B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002052555A JP3933496B2 (en) 2002-02-28 2002-02-28 CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002052555A JP3933496B2 (en) 2002-02-28 2002-02-28 CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2003256774A JP2003256774A (en) 2003-09-12
JP3933496B2 true JP3933496B2 (en) 2007-06-20

Family

ID=28664219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002052555A Expired - Fee Related JP3933496B2 (en) 2002-02-28 2002-02-28 CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP3933496B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100373399C (en) * 2004-08-18 2008-03-05 富士通株式会社 Method and apparatus for establishing degradation dictionary

Also Published As

Publication number Publication date
JP2003256774A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
CN108388896B (en) License plate identification method based on dynamic time sequence convolution neural network
CN109035276B (en) Image edge extraction method and device and automatic driving system
KR101901961B1 (en) Apparatus for recognizing component and method thereof
US20130121607A1 (en) Elegant Solutions for Fingerprint Image Enhancement
US5841905A (en) Business form image identification using projected profiles of graphical lines and text string lines
CN116433666B (en) Board card line defect online identification method, system, electronic equipment and storage medium
US11475707B2 (en) Method for extracting image of face detection and device thereof
CN110807771A (en) Defect detection method for road deceleration strip
CN111242925A (en) Target detection method and device for CT image data and electronic equipment
CN113780110A (en) Method and device for detecting weak and small targets in image sequence in real time
CN104680148B (en) A kind of Fingerprint diretion computational methods based on improved Partial Differential Equation Model
JP3933496B2 (en) CHARACTER PATTERN RECOGNIZING METHOD AND ITS RECOGNIZING DEVICE, CHARACTER PATTERN RECOGNIZING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
CN112381084A (en) Automatic contour recognition method for tomographic image
CN112069924A (en) Lane line detection method, lane line detection device and computer-readable storage medium
CN114612490B (en) Scenedesmus cell statistical method based on microscope image
CN114511851B (en) Hairspring algae cell statistical method based on microscope image
JP3375292B2 (en) Character recognition processing method and apparatus and recording medium recording the method
CN113936003B (en) Door and window manufacturing quality detection method
JP5424694B2 (en) Image recognition apparatus and program
CN109272018A (en) A kind of infrared image identification method
RU2405200C2 (en) Method and device for fast noise filtration in digital images
CN111046876B (en) License plate character rapid recognition method and system based on texture detection technology
JP3901473B2 (en) Character pattern recognition processing method and apparatus, character pattern recognition processing program and recording medium thereof
CN110532826B (en) Bar code recognition device and method based on artificial intelligence semantic segmentation
CN113724277A (en) Power line detection method based on Radon transformation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070313

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees