JP4469566B2 - Character recognition method - Google Patents
Character recognition method Download PDFInfo
- Publication number
- JP4469566B2 JP4469566B2 JP2003184790A JP2003184790A JP4469566B2 JP 4469566 B2 JP4469566 B2 JP 4469566B2 JP 2003184790 A JP2003184790 A JP 2003184790A JP 2003184790 A JP2003184790 A JP 2003184790A JP 4469566 B2 JP4469566 B2 JP 4469566B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- character
- edge
- rectangle
- character pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Character Discrimination (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、文字認識技術に関し、特に、2値化された文字パターンから文字の特徴量を抽出し、その特徴量を用いて文字を認識する文字認識技術に関する。
【0002】
【従来の技術】
文字認識において、文字の局所的な方向をノイズの影響がなく求めるエッジ特徴と文字の大局的特徴を求める外郭特徴を合成し、その合成した特徴と各文字の辞書テンプレートとのマッチングをとり文字パターンの分類を行うことで、文字輪郭部分のノイズに影響されることなく高い認識性能を有する文字認識方法がある(特許文献1参照)。
【0003】
ここで、エッジ特徴とは、文字パターンのエッジの方向及び強度を求めた特徴である。エッジ特徴の方向は文字の輪郭線に対して垂直な方向を示し、文字輪郭部分のノイズによって大きく変動することはない。また、外郭特徴とは、文字パターンを複数方向から走査したときの白(背景)から黒(文字)へ変化する点(外郭点)を求めた特徴であり、文字の大局的な特徴を表す。
【0004】
【特許文献1】
特許第3113769号公報
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の文字認識方法では、文字の形状が変形している場合において、認識率が低下する場合があるという問題点がある。例えば、図17(b)に示すように文字のはらいが長い場合、または図17(g)に示すように文字が右上がりの場合、において認識率が低下する場合がある。
【0006】
この問題点の解決方法として、例えば、そのような文字の形状の変形パターンを予測して文字の辞書テンプレートの数を増やす方法が考えられるが、全ての変形パターンを予測することは不可能であること、辞書テンプレートの数が増えてマッチング速度が遅くなること、辞書サイズが拡大すること、などの欠点がある。
【0007】
本発明は、上記問題点を解決するためになされたものであり、新たな辞書テンプレートの追加を行わずに、文字の形状の変形を吸収する、文字輪郭部分のノイズに影響されにくい文字認識方法の提供を目的とする。
【0008】
上記課題を解決するために、請求項1に記載の発明では、認識対象文字を含む原稿を読み取って得た2値化されたイメージデータを得る文字読取部と、2値化されたイメージデータから1文字単位に2値化された文字パターンを切り出す文字切り出し部と、2値化された文字パターンから特徴抽出を行う特徴抽出部と、特徴抽出部で抽出した特徴量を文字認識辞書に格納されている複数の辞書テンプレートと比較して認識結果を得る文字認識部を有する文字認識装置における文字認識方法であって、特徴抽出部は、2値化された文字パターンに縦横座標系において外接する矩形に係る矩形情報、及び該文字パターンに該縦横座標系を45°回転させた斜め座標系において外接する矩形に係る矩形情報をそれぞれ抽出してメモリに格納する矩形情報抽出ステップ、走査方向別に文字パターンの外郭点を順次抽出し、第1次特徴、第2次特徴、・・・第n次特徴としてメモリに格納する外郭特徴抽出ステップ、文字パターンのエッジ特徴を抽出してメモリに格納するエッジ特徴抽出ステップ、エッジ特徴抽出ステップで抽出したエッジ特徴から求められるエッジ位置をもとに外郭特徴抽出ステップでの各走査方向に対して垂直な方向について、文字パターンを走査しながら該垂直方向における走査方向のエッジ間の間隔からエッジ間密度をそれぞれ抽出してメモリに格納するエッジ間密度抽出ステップ、矩形情報抽出ステップで抽出した矩形情報及びエッジ間密度抽出ステップで抽出したエッジ間密度を基に、各走査方向およびそれぞれの走査方向に垂直な方向に文字パターンに外接する矩形を垂直方向に分割する分割枠を決定し、矩形内の該垂直方向の各座標ラインがどの分割枠に存在するか該各座標ラインの分割位置を求め、矩形内の方向座標のそれぞれについて各座標ラインの分割位置および座標ラインが分割位置を占めるエッジ間密度の割合を示す重みを得てメモリに格納する分割位置情報取得ステップ、各走査方向について特徴合成を行う特徴合成ステップ、特徴合成の終了後、累積されたエッジ強度を正規化して文字パターンの特徴量を得る特徴量取得ステップ、を備え、文字認識部は、特徴量取得ステップで得た文字パターンの特徴量と各文字の辞書テンプレートの特徴量とのマッチングをとり、文字パターンの分類を行う文字認識ステップを備え、特徴合成ステップは、各走査方向毎に、分割位置情報取得ステップで得た、走査方向に対して垂直な方向の分割位置情報に含まれている垂直方向の座標と外郭特徴抽出ステップで得た走査方向別の外郭特徴を基に、該各座標における外郭特徴の座標ラインの各外郭点でのエッジ方向とエッジ強度をエッジ特徴抽出ステップで得たエッジ特徴から求めるステップ、上記外郭点の次数情報及び方向と上記分割位置情報に含まれている分割位置で決まる、メモリ上の特徴格納位置を求めるステップ、上記ステップで求めたエッジ方向別のエッジ強度に対し上記分割位置情報に含まれている垂直方向の座標に対応する分割枠での重みを付加して累積するステップ、からなることを特徴とする文字認識方法を提供する。
これにより、文字の局所的な方向をノイズの影響がなく求めるエッジ特徴と文字の大局的特徴を求める外郭特徴を、文字の矩形情報と、エッジ特徴から抽出した文字の方向別のエッジ間密度と、に応じて抽出した方向別の分割位置情報を用いて合成し、その合成した特徴に基づいて文字パターンの分類を行うので、文字の形状が変形している場合でも、新たな辞書テンプレートの追加を行わずに、文字の形状の変形を吸収し、かつ文字輪郭部分のノイズに影響されることなく高い認識性能を有することができる。
【0009】
また、請求項2に記載の発明では、認識対象文字を含む原稿を読み取って得た2値化されたイメージデータを得る文字読取部と、2値化されたイメージデータから1文字単位に2値化された文字パターンを切り出す文字切り出し部と、2値化された文字パターンから特徴抽出を行う特徴抽出部と、特徴抽出部で抽出した特徴量を文字認識辞書に格納されている複数の辞書テンプレートと比較して認識結果を得る文字認識部を有する文字認識装置における文字認識方法であって、特徴抽出部は、2値化された文字パターンに縦横座標系において外接する矩形に係る矩形情報、及び該文字パターンに該縦横座標系を45°回転させた斜め座標系において外接する矩形に係る矩形情報をそれぞれ抽出してメモリに格納する矩形情報抽出ステップ、走査方向別に文字パターンの外郭点を順次抽出し、第1次特徴、第2次特徴、・・・第n次特徴としてメモリに格納する外郭特徴抽出ステップ、文字パターンのエッジ特徴を抽出してメモリに格納するエッジ特徴抽出ステップ、エッジ特徴抽出ステップで抽出したエッジ特徴から求められるエッジ位置をもとに外郭特徴抽出ステップでの各走査方向に対して垂直な方向について、文字パターンを走査しながら該垂直方向における走査方向のエッジ間の間隔からエッジ間密度を抽出してメモリに格納するエッジ間密度抽出ステップ、矩形情報抽出ステップで抽出した矩形情報及びエッジ間密度抽出ステップで抽出したエッジ間密度を基に、各走査方向およびそれぞれの走査方向に垂直な方向に文字パターンに外接する矩形を垂直方向に分割する分割枠を決定し、矩形内の該垂直方向の各座標がどの分割枠に存在するか該各座標の分割位置を求め、矩形内の該垂直方向の各座標ラインがどの分割枠に存在するか該各座標ラインの分割位置を求め、矩形内の方向座標のそれぞれについて各座標ラインの分割位置および座標ラインが分割位置を占めるエッジ間密度の割合を示す重みを得てメモリに格納する分割位置情報取得ステップ、各走査方向について特徴合成を行う特徴合成ステップ、特徴合成の終了後、文字パターンの傾きを検出する傾き検出ステップ、傾き検出ステップで検出した傾きに応じて、累積したエッジ強度を基に正規化した文字パターンの特徴量を得る特徴量取得ステップ、を備え、文字認識部は、特徴量取得ステップで得た文字パターンの特徴量と各文字の辞書テンプレートの特徴量とのマッチングをとり、文字パターンの分類を行う文字認識ステップを備え、特徴合成ステップは、各走査方向毎に、分割位置情報取得ステップで得た、走査方向に対して垂直な方向の分割位置情報に含まれている垂直方向の座標と外郭特徴抽出ステップで得た走査方向別の外郭特徴を基に、該各座標における外郭特徴の座標ラインの各外郭点でのエッジ方向とエッジ強度をエッジ特徴抽出ステップで得たエッジ特徴から求めるステップ、上記外郭点の次数情報及び方向と上記分割位置情報に含まれている分割位置で決まる、メモリ上の特徴格納位置を求めるステップ、上記ステップで求めたエッジ方向別のエッジ強度に対し上記分割位置情報に含まれている垂直方向の座標に対応する分割枠での重みを付加して累積するステップ、からなる、ことを特徴とする文字認識方法を提供する。
これにより、上記請求項1記載の発明の効果に加え、右上がり文字などの傾いた文字に対しても特徴を安定的に求めることができる。
【0010】
また、請求項3に記載の発明では、矩形情報抽出ステップは、文字パターンに縦横座標系において外接する矩形に係る矩形情報を抽出した後に、該矩形の2つの対角線を求めるステップと、各対角線に対して、斜め座標系を対角線方向の座標系として設定し、斜め方向の特徴抽出として該矩形の対角線方向の特徴抽出を行うステップを含む、ことを特徴とする請求項1又は2記載の文字認識方法を提供する。これにより、斜め方向の特徴を安定的に求めることができる。
【0011】
また、請求項4に記載の発明では、分割位置情報取得ステップは、斜め方向について文字パターンの矩形を分割する分割枠を決定するときに、中央の分割線を縦横座標系で抽出した文字パターンの矩形を2等分するように中央で区切って固定するステップを含むことを特徴とする請求項1乃至3のいずれか1項に記載の文字認識方法を提供する。これにより、斜め方向の特徴を安定的に求めることができる。
【0012】
また、請求項5に記載の発明では、文字認識部は、斜め方向の特徴量のマッチング結果に対して斜め方向の特徴量の特徴格納位置の分割位置情報と縦横座標系で抽出した文字パターンの矩形の対角線の中心を中心とした斜め45°の線に関して左右対称な重み関数とで決まる重みをかけて重み付けするステップを含むことを特徴とする請求項1又は2記載の文字認識方法を提供する。これにより、斜め方向の特徴を安定的に求めることができる。
【0013】
【発明の実施の形態】
<実施例1>
図1は、本発明の文字認識方法を適用可能な文字認識装置の構成例を示すブロック図であり、文字認識装置50は、制御部51、読み取り部52、文字切出し部53、特徴抽出部55及び文字識別部56から構成される文字認識部54、文字認識辞書57、及び表示部58を備えている。
【0014】
制御部51は、CPU、プログラム格納メモリ、及びRAM等の周辺回路(図示せず)からなり、上述の文字認識装置50の各構成部分の制御及び文字認識装置50全体の動作を制御する。
【0015】
読み取り部52は認識対象文字を含む原稿を読みとってイメージデータ(2値化データ)に変換して文字切出し部53に渡し、文字切出し部53は読み取り部52で得た原稿イメージから1文字単位に文字イメージを切り出して特徴抽出部55に渡す。特徴抽出部55は文字切出し部53から受け取った文字イメージから文字の特徴抽出を行い、特徴量を得る。文字識別部56は、特徴抽出部55で抽出した特徴量を文字認識辞書57に格納されている複数の辞書テンプレートと比較し、認識結果を得る。また、表示部58は原稿1枚分の文字イメージと認識結果を表示する。
【0016】
また、実施例では、上記文字切出し部53、特徴抽出部55及び文字識別部56から構成される文字認識部54をプログラムで構成し、文字認識制御用プログラムと共に上述したプログラム格納メモリ(又は、ハードディスク等の保存メモリ)に格納し、制御部51によって適時読み出して実行制御するように構成している。
【0017】
図2は本発明に基く文字認識方法の一実施例のフローチャートであり、文字認識部54の文字認識動作に相当する。また、図3は認識対象文字の例であり、図3(b)の‘・’は背景部(白)を‘1’は文字部(黒)を表している。
【0018】
ステップS1:(矩形情報抽出)
先ず、2値化された文字パターンに対し、縦横座標系で外接する矩形の矩形情報、及び斜め座標系で外接する矩形の矩形情報を抽出する。ここで、2値化された文字パターンとは、読み取り部52で得た原稿イメージから文字切出し部53によって1文字単位に文字イメージを切り出したイメージデータ(2値化データ)を意味する。
図4は図3に示す認識対象文字の矩形情報を抽出した例であり、図4(a)に示すように縦横座標系(x軸、y軸)のx軸を水平方向、y軸を垂直方向とすると、図4(b)に示すように縦横座標系での矩形11の矩形情報が、斜め座標系(rx軸、ry軸)を縦横座標系(x軸、y軸)を45度回転させた座標系とすると、図4(b)に示すように斜め座標系での矩形12の矩形情報が抽出される。
【0019】
ステップS2:(外郭特徴抽出)
次に、方向別に2値化された文字パターンの外郭特徴を抽出する。外郭特徴の抽出は、よく知られている外郭特徴を用いる文字認識方式で用いられる外郭特徴抽出処理と同様の動作で行うことができる。即ち、文字パターンを複数方向から走査し、ある走査方向に対して文字線を最初に横切る点(外郭点)を第1次特徴とし、同様に2回目、3回目、・・・、n回目に横切る点(外郭点)をそれぞれ第2次特徴、第3次特徴、・・・、第n次特徴として外郭特徴テーブルに格納する。
図5は図3に示す認識対象文字の外郭特徴を抽出した結果の一例であり、走査方向のうち図6(a)に示す走査方向6による外郭特徴抽出の例である。また、図6は走査方向及び外郭特徴テーブルの構成例を示す図であり、図6(a)は走査方向を、図6(b)は外郭特徴テーブルの構成例である。ここで、外郭特徴テーブルは前述したプログラム格納メモリ(又は、ハードディスク)に格納し、制御部51によって適時読み出して実行制御するように構成している。
【0020】
図6の例では外郭特徴は走査方向S、外郭点の座標(x、y)、次数Mで構成されている。
【0021】
ステップS3:(エッジ特徴抽出)
次に、前記2値化された文字パターンのエッジ特徴(エッジ方向及びエッジ強度)を抽出する。エッジ方向及びエッジ強度の抽出は、例えば、次の方法により抽出する。
x軸を水平方向、y軸を垂直方向とし、x方向のある座標をi、y方向のある座標をjとすると、x方向の微分値fx(i、j)及びy方向の微分値fy(i、j)は次式(式1)、(式2)のように表される。
【0022】
上式(式1)、(式2)からエッジ方向θ(i,j)及びエッジ強度V(i,j)は次式のように表される物理量で定義される。
【0023】
θ(i,j)=tan-1{fy(i,j)/fx(i,j)} ・・・(式3)
V(i,j)={fx(i,j)2+fy(i,j)2}1/2 ・・・(式4)
ここで、f(i,j)は座標(i,j)における画像の明るさであり、1が黒(文字部)であり、0が白(背景部)である。なお、2値化された文字パターンがメモリ上にビットマップ展開された場合には、上記i,jはメモリのアドレスに相当することとなる。
【0024】
図7、図8は図3に示す認識対象文字のエッジ特徴を抽出した結果の例であり、図7はエッジ方向を、図8はエッジ強度をそれぞれ示している。図9はエッジ特徴と方向コードの説明及びエッジ特徴テーブルの構成例を示す図である。ここで、エッジ特徴テーブルは前述したプログラム格納メモリ(又は、ハードディスク)に格納し、制御部51によって適時読み出して実行制御するように構成している。 エッジ方向θ(i,j)は、図9(a)に示すように背景部から文字部に向かう方向を示しており、コンピュータ処理に供するべく、図9(b)に示すような4つの方向コードに量子化している。また、方向が不定の場合は方向コードを5としている。また、エッジ強度V(i,j)は8段階に量子化しており、エッジ方向が不定の場合はエッジ強度を4としている。図9(c)はエッジ特徴テーブルの構成例であり、特徴点の座標(i,j)、4つの方向コードに量子化されたエッジ方向θ、8段階に量子化されたエッジ強度Vで構成されている。
【0025】
ステップS4:(エッジ間密度抽出)
次に、上記ステップS3で得たエッジ特徴から各走査方向に対して垂直方向に文字パターンのエッジ間密度を抽出する。ここで、エッジ間密度とは、各走査方向に対する垂直方向のエッジの相対関係を表す。エッジ間密度は、例えば、方向別に文字パターンを走査し、エッジ間の間隔から抽出することができる。
【0026】
図10は、エッジ間密度、分割位置情報抽出例及び分割位置情報テーブルの構成例を示す図である。ここで、分割位置情報テーブルは前述したプログラム格納メモリ(又は、ハードディスク)に格納し、制御部51によって適時読み出して実行制御するように構成している。
【0027】
実施例では、エッジ間密度はエッジ間の間隔から抽出し、上記ステップS2の外郭特徴抽出での各走査方向に対して垂直な方向について、エッジ間密度を求めエッジ間密度ヒストグラムを作成している。ここで、ヒストグラムには度数分布を表す表の意味と長方形の面積が量を表す意味とがあるが、本明細書では長方形の面積が量を表す意味で用いている。具体的には、走査方向ごとにエッジ間密度の量(物理量)を面積で表している。
【0028】
図10(a)は図3に示す認識対象文字のエッジ間密度を抽出した結果の一例であり、上記ステップS2の外郭特徴抽出での図6(a)に示す走査方向2、走査方向6に対して垂直な方向α(図10(b)参照)、及び走査方向0、走査方向4に対して垂直な方向β(図10(b)参照)、のエッジ間密度抽出の例である。ここで、符号21は走査方向0、走査方向4に対して垂直方向のエッジ間密度ヒストグラムを示し、符号22は走査方向2、走査方向6に対して垂直方向のエッジ間密度ヒストグラムを示す。これらのヒストグラムは2値化されてメモリに保存され、以下のステップで制御部51によって適時読み出され、使用される。
【0029】
ステップS5:(分割位置情報抽出)
次に、上記ステップS1で得た矩形情報、及び上記ステップS4で得たエッジ間密度に応じて、各走査方向およびそれぞれの走査方向に垂直な方向に前記2値化文字パターンに外接する矩形を垂直方向に分割数N個に分割する分割枠を決定し、矩形内の該垂直方向の各座標のそれぞれについて各座標ラインの分割位置及び座標ラインが分割位置を占めるエッジ間密度の割合を示す重みを抽出する。
【0030】
例えば、分割数N=8としたとき、図3に示す認識対象文字の水平方向の分割位置情報の抽出動作について説明すると、先ず、図10(a)に示す上記ステップS4で得た水平方向のエッジ間密度ヒストグラム22の総和を8等分するように分割して、図10(b)の符号24に示すような分割枠を決定する。
次に、図4(b)に示す上記ステップS1で得た縦横座標系での矩形11内の水平方向座標それぞれについて、分割枠24より座標ラインの分割位置を決定し、座標ラインのエッジ間密度ヒストグラムの内で決定された分割位置に割り当てられるエッジ間密度ヒストグラムと、水平方向の各分割位置のエッジ間密度ヒストグラムの総和より、各座標ラインの分割位置における重みを抽出する。
【0031】
図10(c)は分割位置情報テーブルの構成例であり、水平方向の分割位置情報テーブルの例である。この例では水平方向の分割位置情報は、水平方向の座標x、分割位置P、重みWで構成されている。なお、この実施例では、重みを座標ラインが分割位置を占めるエッジ間密度の割合としたが、重みは任意に設定可能であり、各座標ラインの重みWをW=1として均等にしてもよい。
【0032】
ステップS6:(方向別特徴合成)
次に、ステップS2での各走査方向に対して、下記(イ)〜(ロ)の手順により方向別特徴の合成を行う。
(イ)ステップS5で得た走査方向に対して垂直な方向の分割位置情報とステップS2で得た走査方向の外郭特徴を用いて、上記分割位置情報に含まれている各座標における外郭特徴の座標ラインの各外郭点でのエッジ方向とエッジ強度を上記ステップS3で得たエッジ特徴から求める。
(ロ)上記外郭点の次数情報及び方向と、分割位置情報に格納されている座標ラインの分割位置で決まる特徴格納位置を求める。
(ハ)上記(ロ)で求めたエッジ方向別のエッジ強度に対し上記分割位置情報に含まれている座標ラインの分割位置における重みを付加して累積する。
【0033】
具体例として、図3に示した認識対象文字に関して図6(a)に示す走査方向6での特徴の合成について説明すると、図10(c)に示した走査方向6に対して垂直な方向(水平方向)の分割位置情報テーブル32と図6(b)に示した走査方向6の外郭特徴テーブル30を用いて、分割位置情報テーブル32に格納されている各座標における外郭特徴テーブル30の座標ラインの各外郭点において、それぞれの外郭点におけるエッジ方向θとエッジ強度Vを上記ステップS3で得たエッジ特徴テーブル31(図9(c)参照)から得て、それら外郭点の次数M、走査方向6、分割位置情報テーブル32に格納されている座標ラインの分割位置P、とで決まる特徴格納位置に対して、エッジ方向別にそのエッジ強度に分割位置情報テーブル32に格納されている座標ラインの分割位置における重みWを付加して累積する。
【0034】
例えば、図10(c)の分割位置情報テーブル32に格納されている水平方向の座標x=1における外郭特徴テーブル30(図6(b)参照)の座標x=1ラインの外郭点(1、39)において、エッジ特徴テーブル31の座標(1、39)からエッジ方向θ=1、エッジ強度V=7を得て、外郭点(1、39)の次数M=1、走査方向S=6、座標x=1ラインの分割位置P=1、とで決まる特徴格納位置のエッジ方向θ=1に、エッジ強度V=7に座標x=1ラインの分割位置P=1における前記重みW=w11を付加して累積する。ここで、エッジ方向θが不定方向コードの場合(エッジ方向θ=5の場合)は、走査方向Sと平行なエッジ方向に累積するものとする。
【0035】
ステップS7:(特徴正規化)
次に、各特徴格納位置内でエッジ方向別に上記ステップS6で累積されたエッジ強度を正規化し、特徴量を得る。
あるエッジ方向iにおける正規化後の特徴量Diは正規化前の特徴量(エッジ強度の累積値)をEDiとすると、次式で表される。
Di=(EDi/maxj(EDj)) (式5)
ここで、EDjは特徴量(ベクトル)を表し、例えば、エッジ方向コード数が4個の場合j=1〜4となる。
また、式(5)の分母は4つのエッジ方向のうち最大の値(エッジ強度の累積値)を持つエッジ方向を選択することを意味する。(即ち、式(5)では、各特徴格納位置内において最大のエッジ方向が1になるように正規化することを意味する)。
【0036】
ステップS8:(文字識別)
最後に、上記ステップS7で得た特徴量と予め用意した各文字の辞書テンプレートとのマッチングをとり文字パターンの分類を行う。
【0037】
前記特許文献1記載の発明の文字認識方法では、分割枠は矩形を均等に分割して固定していたのに対し、本発明では、図10(b)に示すように、エッジ間密度により分割枠を変動させるので、図17(b)に示すような文字のはらいが長い場合などの文字の形状の変形を吸収した特徴の抽出を可能とする。
【0038】
<実施例2>
本実施例では、図17(g)に示すような右上がり文字などの傾いた文字に対しても、特徴を安定的に求める。
図11は文字認識方法の一実施例を示すフローチャートである。また、実施例においては、右上がり文字についての対応を説明する。また、図11で、ステップT1〜T6は前述した図2のステップS1〜S6と同様な動作を行うので、以下、ステップT7以降の動作について説明する。
【0039】
ステップT7(傾き検出)
ここでは、ステップT3(=図2のステップS3のエッジ特徴抽出処理)で得たエッジ特徴(文字パターンそのものから直接得る特徴)、或いは、ステップT6(=図2のステップS6の方向別特徴合成処理)で全方向に対して特徴を合成しエッジ方向別にエッジ強度を累積した累積エッジ強度(文字の変形を吸収した特徴)より、文字パターンの傾きを検出する。
【0040】
例えば、ステップT3(=図2のステップS3のエッジ特徴抽出処理)で得たエッジ特徴をエッジ方向別にカウントし、エッジ方向が右下がり方向(文字の輪郭線が右上がり方向)のカウント数の全体に占める割合(割合A)、及び、エッジ方向が縦方向(文字の輪郭線が横方向)のカウント数の全体に占める割合(割合B)、及び、割合Aと割合Bの比率(比率C)から、文字パターンが右上がり文字であるかどうか所定の右上がり判定条件で判定し、右上がり文字であると判定された場合において、上記比率Cより傾きを検出する。ここで、前述したように、エッジ特徴の方向は文字の輪郭線に対して垂直な方向を示している。
【0041】
ステップT8(特徴正規化)
次に、ステップT6(=図2のステップS6の方向別特徴合成処理)での累積エッジ強度の正規化を行う前、或いは、正規化後において、上記ステップT7で得た傾きに応じて、累積エッジ強度(正規化後は特徴量)に重みを付加する。
【0042】
例えば、右上がり文字の対応に関しては、累積エッジ強度の正規化を行う前に、前記ステップT7で得た傾きに応じて、各特徴格納位置内でエッジ方向が右下がり方向(文字の輪郭線が右上がり方向)の累積エッジ強度でエッジ方向が縦方向(文字の輪郭線が横方向)の累積エッジ強度に重みを付加する。
【0043】
図12は右上がり文字に対応した重み付けの説明図である。
例えば、エッジ方向jを図9(b)に示すエッジ方向コード(j=1〜4)とし、ある特徴格納位置i内のあるエッジ方向jの正規化前の累積エッジ強度をEDijとし、前記ステップT7で右上がり文字であると判定された場合において検出した文字パターンの傾きをθ(図12(a)に示すようにθは水平方向に対して反時計回りの方向の角度とする)とし、次の式6を用いて、傾きθに応じて、エッジ方向が右下がり方向の累積エッジ強度EDi4でエッジ方向が縦方向の累積エッジ強度EDi3に重みを付加する。
EDi3 = EDi3 + 2 EDi4 sinθ (式6)
なお、この方法は右上がり文字に関してのみ限定されるものではなく、全体に傾いた文字にも対応できるし、あらゆる傾きに対して対応可能である。また、その他に傾き文字の対応に関しては、座標系を文字の傾きに合わせて設定し、外郭特徴抽出の走査方向をその設定した座標系の座標軸方向として外郭特徴を抽出するようにしてもよい。この場合、右上がり文字の対応に関しては、例えば、図12(b)に示すように縦横座標系(x軸、y軸)を垂直方向と傾き方向として設定し、縦横方向の外郭特徴抽出は走査方向を縦横座標系の座標軸方向として外郭特徴を抽出するようにする。
【0044】
<変形例1>
上記図2のフローチャートのステップS1(又は図11のステップT1)の矩形情報抽出処理において、縦横座標系で文字パターンの矩形を抽出した後に、縦横座標系での矩形の2対角線を求め、各対角線に対して、斜め座標系を対角線方向とその対角線の垂直線方向の座標系として設定し、各ステップの処理対象方向を変更して、斜め方向の特徴抽出を縦横座標系での矩形の対角線の方向の特徴抽出とするように構成することにより、図17(d)、(e)に示すように文字が縦長、横長の場合において、斜め方向の特徴を安定に求めることができる。
【0045】
図13は図3に示す認識対象文字の矩形情報抽出の一実施例であり、図14はエッジ間密度抽出、分割位置情報抽出の一実施例である。
【0046】
図2のステップS1(又は図11のステップT1)で、まず、縦横座標系(x軸、y軸)での矩形11を抽出した後に、矩形11の2対角線(図13(a)に示す対角線13、対角線14)を求め、対角線13に対しての斜め座標系(rx1軸、ry1軸)のrx1軸を対角線13の方向、ry1軸を対角線13の垂直線方向として設定し、その斜め座標系での矩形15(図13(b))を抽出する。同様に、対角線14に対しての斜め座標系(rx2軸、ry2軸)を設定し、矩形16(図13(c))を抽出する。
【0047】
次に、ステップS2(又は図11のステップT2)で、斜め方向の外郭特徴抽出は走査方向を縦横座標系での矩形の対角線の方向として外郭特徴を抽出し、ステップS3(又は図11のステップT3)では、前述したと同様に、文字パターンのエッジ特徴(エッジ方向及びエッジ強度)を抽出する。
【0048】
また、ステップS4(又は図11のステップT4)では、前述したと同様に、ステップS2(又は図11のステップT2)の外郭特徴抽出での斜め走査方向に対して垂直な方向について、エッジ間密度(図14の符号25、26で示す部分)を抽出する。
【0049】
ステップS5(又は図11のステップT5)では、ステップS1(又は図11のステップT1)で得た斜め座標系での矩形情報、及びステップS4(又は図11のステップT4)で得た斜め走査方向に対して垂直な方向のエッジ間密度に応じて、前述したと同様に、斜め走査方向に対して垂直な方向の分割位置(図14の符号27、28で示す部分)情報を抽出する。
【0050】
ステップS6(又は図11のステップT6)は、斜め方向については、上記ステップS5(又は図11のステップT5)で得た斜め走査方向に対して垂直な方向の分割位置情報、及び上記ステップS2(又は図11のステップT2)で得た斜め走査方向の外郭特徴を用いて、前述したと同様に、分割位置情報に格納されている各座標における外郭特徴の座標ラインの各外郭点において、その外郭点におけるエッジ方向とエッジ強度を上記ステップS3(又は図11のステップT3)で得たエッジ特徴から得て、外郭点の次数情報、方向、分割位置情報に格納されている座標ラインの分割位置、とで決まる特徴格納位置に対して、エッジ方向別にそのエッジ強度に分割位置情報に格納されている座標ラインの分割位置における重みを付加して累積する。
【0051】
上記ステップS7では、前述したと同様に、各特徴格納位置内でエッジ方向別に上記ステップS6で累積されたエッジ強度を正規化し、特徴量を得る。
【0052】
また、上記ステップS8では、上記ステップS7で得た特徴量と予め用意した各文字の辞書テンプレートとのマッチングをとり文字パターンの分類を行う。
【0053】
このように、図2のステップS1で斜め方向の特徴抽出を縦横座標系で抽出した文字パターンの矩形の対角線の方向の特徴抽出とするように斜め座標系及び各ステップの処理対象方向を変更し、ステップS2〜S8を上述のように構成することにより、図17(d)、(e)に示すように文字が縦長、横長の場合において、斜め方向の特徴を安定に求めることができる。
【0054】
なお、上記実施例では、斜め座標系を対角線方向と対角線の垂直線方向の座標系としたが、斜め座標系を対角線方向ともう一方の対角線方向の座標系として設定し、各ステップの処理対象方向を変更して斜め方向の特徴抽出を行ってもよい。
【0055】
<変形例2>
図15は、図3に示す認識対象文字の斜め方向の分割位置情報の抽出についての説明図であり、図15(a)は実施例1に関して、図15(b)は変形例1に関して本実施例を適応した場合の説明図である。
【0056】
本実施例では、図2のステップS5(又は図11のステップT5)の分割位置情報抽出動作において、斜め座標系での矩形(図15(a)符号12、図15(b)符号15、16)を分割する分割枠を決定するときに中央の分割線(符号41、42、43、44)を縦横座標系で抽出した矩形11を2等分するように真ん中で区切った矩形2等分線(符号45、46、47、48)で固定し、他の分割枠については、上記矩形2等分線で2分割されたエッジ間密度ヒストグラムそれぞれを4等分(分割数N=8の場合)するように分割して分割枠を決定する。このように構成しても斜め方向の特徴を安定に求めることができる。
【0057】
<変形例3>
図16は文字識別処理における斜め方向の特徴量の類似の度合いに対する重み付け方法の説明図である。
【0058】
本実施例は、図2のステップS8(又は図11のステップT9)の文字識別処理で、斜め方向の特徴量の類似の度合いのうち、縦横座標系での矩形の対角線付近(図16(a)の斜線部分)からの距離に応じて特徴量の類似の度合いを弱く扱うようにする例であり、上記対角線付近の特徴は変動が大きいので重要度を下げて扱うようにする。本実施例の方法により、斜め方向の特徴を安定に求めることができる。
【0059】
斜め方向の特徴量の類似の度合いの重み付けは、例えば、類似の度合いの計算前に、図16(b)に示すように、各対角線の中心を中心とした斜め45°の線に関して左右対称な重み関数fWR(ry)、fWL(rx)を設定し(重み関数は任意に設定可能)、各分割枠の中央の座標と重み関数とで、分割枠の重みを決定しておき、類似の度合いの計算において、その分割枠に該当する特徴格納位置の特徴量の類似の度合いの計算時に分割枠の重みを付加した類似の度合いの計算を行うようにする。
【0060】
例えば、類似の度合いの計算をユークリッド距離で行うと、次の式7により計算できる。
dDE={ΣiΣj(Dij−Eij)2}1/2 (式7)
ここで、Dijは文字パターンのある特徴格納位置i内の特徴量(エッジ方向コード数4個の場合(j=1〜4))を表し、Eijは同様にある辞書テンプレートの特徴格納位置i内の特徴量を表し、Σiは特徴格納位置iに関しての総和を表し、Σjはエッジ方向jに関しての総和を表す。
【0061】
これに対して、分割数N=8とし図16(b)に示すように各分割枠の重みWをWRM 、WLM (M=1、2、・・・、N)とすると、斜め方向の特徴量の重みを付加したユークリッド距離の計算は、右上がり方向(図6(a)に示す走査方向1、5)については次の式8、式10により計算できる。
dDE1={ΣiΣjWRM(Dij−Eij)2}1/2 (式8)
また、左上がり方向(図6(a)に示す走査方向3、7)については次の式9、式10により計算できる。
【0062】
dDE2={ΣiΣj WLM(Dij−Eij)2}1/2 (式9)
M = mod(i、N)+1 (式10)
ここで、Mは図16(b)で8分割で示される分割位置を示し、mod(i、N)はiをNで割ったときの余りを表す。
【0063】
また、対角線の中心を中心とした斜め45°の線に関して左右対称な重み関数の設定の方法は、例えば、図16(c)に示すように、縦横座標系での矩形を斜め座標系で外接する矩形を求めて、重み関数の両端位置を決定することで行う。
【0064】
本実施例の方法により、斜め方向の特徴を安定に求めることができる。
【0065】
【発明の効果】
上記説明したように本発明の文字認識方法によれば、新たな辞書テンプレートの追加を行わずに、文字の形状の変形を吸収することができる。また、文字輪郭部分のノイズに影響されにくい。
【図面の簡単な説明】
【図1】本発明の文字認識方法を適用可能な文字認識装置の構成例を示すブロック図である。
【図2】文字認識方法の一実施例のフローチャートである。
【図3】認識対象文字の例を示す図である。
【図4】矩形情報の抽出例を示す図である。
【図5】外郭特徴の抽出例を示す図である。
【図6】走査方向、及び外郭特徴テーブルの構成例を示す図である。
【図7】エッジ特徴(エッジ方向)抽出例を示す図である。
【図8】エッジ特徴(エッジ強度)抽出例を示す図である。
【図9】エッジ特徴と方向コードの説明、及びエッジ特徴テーブルの構成例を示す図である。
【図10】エッジ間密度抽出の例、分割位置情報抽出の例、及び分割位置情報テーブルの構成例を示す図である。
【図11】文字認識方法の一実施例を示すフローチャートである。
【図12】右上がり文字に対応した重み付けの説明図である。
【図13】斜め方向の矩形情報の抽出例を示す図である。
【図14】エッジ間密度抽出、分割位置情報の抽出例を示す図である。
【図15】分割位置情報の抽出例を示す図である。
【図16】文字識別処理における斜め方向の特徴量の類似の度合いに対する重み付け方法の説明図である。
【図17】文字パターンの例を示す図である。
【符号の説明】
11 縦横座標系での矩形
12 斜め座標系での矩形
13、14 縦横座標系での矩形の対角線
15、16 斜め座標系での矩形
21 垂直方向のエッジ間密度ヒストグラム
22 水平方向のエッジ間密度ヒストグラム
23 垂直方向の分割枠
24 水平方向の分割枠
25、26 斜め走査方向に対して垂直な方向のエッジ間密度ヒストグラム
27、28 斜め走査方向に対して垂直な方向の分割枠
30 外郭特徴テーブル
31 エッジ特徴テーブル
32 分割位置情報テーブル(分割位置情報)
41、42、43、44 斜め座標系での矩形の中央の分割線
45、46、47、48 縦横座標系での矩形の矩形2等分線
50 文字認識装置
51 制御部
52 読み取り部
53 文字切出し部
54 文字認識部
55 特徴抽出部
56 文字識別部
57 文字認識辞書
58 表示部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character recognition technique, and more particularly, to a character recognition technique for extracting a character feature from a binarized character pattern and recognizing the character using the feature.
[0002]
[Prior art]
In character recognition, an edge feature that determines the local direction of a character without the influence of noise and an outline feature that calculates a global feature of the character are synthesized, and the synthesized feature is matched with the dictionary template of each character to obtain a character pattern. There is a character recognition method having high recognition performance without being affected by noise in the character outline portion (see Patent Document 1).
[0003]
Here, the edge feature is a feature obtained by obtaining the direction and strength of the edge of the character pattern. The direction of the edge feature indicates a direction perpendicular to the outline of the character and does not vary greatly due to noise in the character outline. The outline feature is a feature obtained by obtaining a point (outline point) that changes from white (background) to black (character) when the character pattern is scanned from a plurality of directions, and represents a global feature of the character.
[0004]
[Patent Document 1]
Japanese Patent No. 3113769
[0005]
[Problems to be solved by the invention]
However, the conventional character recognition method has a problem in that the recognition rate may decrease when the shape of the character is deformed. For example, the recognition rate may decrease in the case where the character is long as shown in FIG. 17B or in the case where the character goes up to the right as shown in FIG.
[0006]
As a solution to this problem, for example, a method of increasing the number of character dictionary templates by predicting such deformation patterns of the character shape is conceivable, but it is impossible to predict all the deformation patterns. In addition, there are disadvantages such as an increase in the number of dictionary templates and a slower matching speed and an increased dictionary size.
[0007]
The present invention has been made to solve the above problems, and is a character recognition method that absorbs deformation of the shape of a character without adding a new dictionary template and is less susceptible to noise at the character outline portion. The purpose is to provide.
[0008]
In order to solve the above-described problem, in the invention described in
As a result, the edge feature that determines the local direction of the character without the influence of noise and the outline feature that determines the global feature of the character, the rectangle information of the character, the inter-edge density for each direction of the character extracted from the edge feature, Since the character pattern is classified on the basis of the synthesized features, the new dictionary template is added even when the character shape is deformed. Therefore, it is possible to absorb the deformation of the character shape and to have high recognition performance without being affected by the noise of the character outline portion.
[0009]
According to a second aspect of the present invention, a character reading unit for obtaining binarized image data obtained by reading a document including a character to be recognized, and binarization for each character from the binarized image data. A character cutout unit that cuts out the converted character pattern, a feature extraction unit that extracts features from the binarized character pattern, and a plurality of dictionary templates in which the feature amounts extracted by the feature extraction unit are stored in the character recognition dictionary A character recognition method in a character recognition device having a character recognition unit that obtains a recognition result as compared with the above, wherein the feature extraction unit includes rectangular information related to a rectangle circumscribing a binarized character pattern in a vertical and horizontal coordinate system, and The vertical and horizontal coordinate systems are added to the character pattern.45 °Rectangle information extraction step for extracting rectangle information related to each circumscribed rectangle in the rotated oblique coordinate system and storing it in the memory, sequentially extracting the outline points of the character pattern for each scanning direction, primary feature, secondary feature ,... Outline feature extraction step stored in memory as n-th feature, edge feature extraction step of extracting edge feature of character pattern and storing in memory, edge feature extracted in edge feature extraction stepEdge position calculated fromBased onEach in the outline feature extraction stepIn the direction perpendicular to the scanning directionAndWhile scanning the character pattern,In the scanning directionEach scan based on the edge-to-edge density extraction step that extracts the edge-to-edge density from the interval between the edges and stores it in the memory, the rectangle information extracted at the rectangle information extraction step, and the edge-to-edge density extracted at the edge-to-edge density extraction step The division frame for dividing the rectangle circumscribing the character pattern in the direction and the direction perpendicular to each scanning direction is determined in the vertical direction, and in which division frame each coordinate in the vertical direction in the rectangle exists. Find the division position and each vertical coordinate in the rectanglelineEach of the coordinates in which division framelineFind the dividing position ofFor each direction coordinate in the rectangle, the division position of each coordinate line and the coordinate line indicate the division position.OccupyEdge-to-edge densityA division position information acquisition step for obtaining a weight indicating a ratio and storing it in the memory, a feature synthesis step for performing feature synthesis for each scanning direction, an inclination detection step for detecting the inclination of the character pattern after the feature synthesis is completed, and an inclination detection step A feature amount acquisition step of obtaining a feature amount of the character pattern normalized based on the accumulated edge strength according to the detected inclination, and the character recognition unit includes the feature amount of the character pattern obtained in the feature amount acquisition step. A character recognition step for classifying the character pattern by matching with the feature amount of the dictionary template for each character is provided. The feature synthesis step is performed for each scanning direction with respect to the scanning direction obtained in the division position information acquisition step. Each coordinate based on the vertical coordinates included in the vertical position division information and the outline features for each scanning direction obtained in the outline feature extraction step. Obtaining the edge direction and edge strength at each outline point of the outline line of the outline feature from the edge feature obtained in the edge feature extraction step, the degree information and direction of the outline point, and the division included in the division position information The step of obtaining the feature storage position in the memory determined by the position, and the weight in the divided frame corresponding to the vertical coordinate included in the divided position information is added to the edge strength for each edge direction obtained in the above step. And a step of accumulating the character.
Thereby, in addition to the effect of the invention of the first aspect, it is possible to stably obtain characteristics even for a tilted character such as a right-upward character.
[0010]
In the invention according to
[0011]
In the invention according to
[0012]
In the invention according to
[0013]
DETAILED DESCRIPTION OF THE INVENTION
<Example 1>
FIG. 1 is a block diagram illustrating a configuration example of a character recognition device to which the character recognition method of the present invention can be applied. A
[0014]
The control unit 51 includes a peripheral circuit (not shown) such as a CPU, a program storage memory, and a RAM, and controls each component of the
[0015]
The
[0016]
In the embodiment, the
[0017]
FIG. 2 is a flowchart of an embodiment of the character recognition method based on the present invention, which corresponds to the character recognition operation of the
[0018]
Step S1: (rectangular information extraction)
First, for the binarized character pattern, VerticalIn the abscissaRectangle information of the bounding rectangle,And rectangle information of a rectangle circumscribing in the oblique coordinate system is extracted. Here, the binarized character pattern means image data (binarized data) obtained by cutting out a character image in units of one character from the original image obtained by the
FIG. 4 is an example in which rectangular information of the recognition target character shown in FIG. 3 is extracted. As shown in FIG. 4A, the x-axis of the vertical and horizontal coordinate system (x-axis, y-axis) is horizontal and the y-axis is vertical. DirectionThen, as shown in FIG. 4B, the rectangle information of the
[0019]
Step S2: (Outline feature extraction)
Next, outline features of the character pattern binarized for each direction are extracted. The outline feature extraction can be performed by the same operation as the outline feature extraction process used in the well-known character recognition method using the outline feature. That is, a character pattern is scanned from a plurality of directions, and a point (outline point) that first crosses the character line in a certain scanning direction is a primary feature, and similarly, the second time, the third time,. The crossing points (outline points) are stored in the outline feature table as secondary features, tertiary features,..., N-th feature, respectively.
FIG. 5 is an example of the result of extracting the outline feature of the recognition target character shown in FIG. 3, and is an example of the outline feature extraction in the
[0020]
In the example of FIG. 6, the outline feature includes a scanning direction S, coordinates (x, y) of an outline point, and an order M.
[0021]
Step S3: (Edge feature extraction)
Next, the edge characteristics (edge direction and edge strength) of the binarized character pattern are extracted. For example, the edge direction and the edge strength are extracted by the following method.
If the x-axis is the horizontal direction, the y-axis is the vertical direction, the coordinate in the x direction is i, and the coordinate in the y direction is j, the differential value fx (i, j) in the x direction and the differential value fy ( i, j) is expressed by the following expressions (Expression 1) and (Expression 2).
[0022]
From the above equations (Equation 1) and (Equation 2), the edge direction θ (i, j) and the edge strength V (i, j) are defined by physical quantities represented by the following equations.
[0023]
θ (i, j) = tan-1{Fy (i, j) / fx (i, j)} (Expression 3)
V (i, j) = {fx (i, j)2+ Fy (i, j)2}1/2 ... (Formula 4)
Here, f (i, j) is the brightness of the image at the coordinates (i, j), 1 is black (character part), and 0 is white (background part). When a binarized character pattern is developed on a memory as a bitmap, i and j correspond to memory addresses.
[0024]
7 and 8 are examples of the result of extracting the edge features of the recognition target character shown in FIG. 3, FIG. 7 shows the edge direction, and FIG. 8 shows the edge strength. FIG. 9 is a diagram illustrating an edge feature and a direction code and a configuration example of an edge feature table. Here, the edge feature table is stored in the above-described program storage memory (or hard disk), and is configured to be read out and controlled by the control unit 51 in a timely manner. The edge direction θ (i, j) indicates the direction from the background portion to the character portion as shown in FIG. 9A, and four directions as shown in FIG. 9B are used for computer processing. The code is quantized. When the direction is indefinite, the direction code is 5. Further, the edge strength V (i, j) is quantized in 8 steps, and the edge strength is set to 4 when the edge direction is indefinite. FIG. 9C shows an example of the configuration of the edge feature table, which is composed of feature point coordinates (i, j), edge direction θ quantized into four direction codes, and edge strength V quantized into eight levels. Has been.
[0025]
Step S4: (Density extraction between edges)
Next, the inter-edge density of the character pattern is extracted in the direction perpendicular to each scanning direction from the edge feature obtained in step S3. Here, the edge-to-edge density represents a relative relationship between edges in the vertical direction with respect to each scanning direction. The edge density is, for example,By directionScan character pattern, spacing between edgesFromCan be extracted.
[0026]
FIG. 10 is a diagram illustrating a configuration example of an edge density, an example of division position information extraction, and a division position information table. Here, the division position information table is stored in the above-described program storage memory (or hard disk), and is configured to be read out and controlled by the control unit 51 in a timely manner.
[0027]
In the embodiment, the inter-edge density is extracted from the interval between the edges, and the inter-edge density is obtained in the direction perpendicular to each scanning direction in the outline feature extraction in step S2 to create an inter-edge density histogram. . Here, the histogram has a meaning of a table representing a frequency distribution and a meaning of a rectangular area representing a quantity, but in this specification, a rectangular area represents a quantity. Specifically, the amount (physical quantity) of the density between edges for each scanning direction is represented by an area.
[0028]
FIG. 10A is an example of the result of extracting the inter-edge density of the recognition target character shown in FIG. 3, and in the
[0029]
Step S5: (Division position information extraction)
Next, according to the rectangular information obtained in step S1 and the edge density obtained in step S4,Each scan direction and the direction perpendicular to each scan directionIn the binary character patternCircumscribeRectangleVerticallyDecide the division frame to be divided into N divisions,Each coordinate in the vertical directionFor each of the above, a division position of each coordinate line and a weight indicating a ratio of the density between edges that the coordinate line occupies the division position are extracted.
[0030]
For example, when the division number N = 8, the horizontal division position information extraction operation for the recognition target character shown in FIG. 3 will be described. First, the horizontal direction obtained in step S4 shown in FIG. The total sum of the
Next, for each horizontal coordinate in the
[0031]
FIG. 10C shows a configuration example of the division position information table, which is an example of the division position information table in the horizontal direction. In this example, the division position information in the horizontal direction is composed of a coordinate x in the horizontal direction, a division position P, and a weight W. In this embodiment, the weight is a ratio of the density between edges in which the coordinate line occupies the division position. However, the weight can be arbitrarily set, and the weight W of each coordinate line may be set equal to W = 1. .
[0032]
Step S6: (Feature synthesis by direction)
Next, for each scanning direction in step S2,The direction-specific features are synthesized according to the following procedures (a) to (b).
(I)Obtained in step S5scanningUsing the division position information in the direction perpendicular to the direction and the outline feature in the scanning direction obtained in step S2, the division position information isIncludedEach outline of the coordinate line of the outline feature at each coordinateIn pointFrom the edge feature obtained in step S3 above, the edge direction and edge strengthAskingThe
(B) AboveOrder information of outline pointsas well asdirectionAnd minutesThe division position of the coordinate line stored in the split position informationIn placeDetermined feature storage locationAsk.
(C) Obtained in (b) aboveBy edge directionofFor edge strengthFor the aboveIn division position informationIncludedA weight is added at the position where the coordinate line is divided to accumulate.
[0033]
As a specific example, the composition of features in the
[0034]
For example,In FIG.Outline feature table 30 at horizontal coordinate x = 1 stored in division position information table 32(See FIG. 6 (b))At the contour point (1, 39) of the line x = 1, the edge direction θ = 1 and the edge strength V = 7 are obtained from the coordinates (1, 39) of the edge feature table 31, and the contour point (1, 39) is obtained. Of the feature storage position determined by the order M = 1, the scanning direction S = 6, the coordinate x = 1 line division position P = 1, the edge intensity V = 7 and the coordinate x = 1 line. The weight W = w11 at the division position P = 1 is added and accumulated. Here, when the edge direction θ is an indefinite direction code (when the edge direction θ = 5), accumulation is performed in the edge direction parallel to the scanning direction S.
[0035]
Step S7: (feature normalization)
Next, the edge strength accumulated in step S6 is normalized for each edge direction within each feature storage position to obtain a feature amount.
The normalized feature quantity Di in a certain edge direction i is expressed by the following expression, where EDi is the feature quantity before normalization (cumulative value of edge strength).
Di = (EDi / maxj(EDj)) (Formula 5)
Here, EDj represents a feature quantity (vector). For example, when the number of edge direction codes is 4, j = 1 to 4.
Further, the denominator of the equation (5) means that the edge direction having the maximum value (the accumulated value of the edge strength) is selected from the four edge directions. (That is, the expression (5) means normalization so that the maximum edge direction is 1 in each feature storage position).
[0036]
Step S8: (Character identification)
Finally, the character pattern is classified by matching the feature amount obtained in step S7 with a dictionary template for each character prepared in advance.
[0037]
In the character recognition method of the invention described in
[0038]
<Example 2>
In the present embodiment, the feature is stably obtained even for a tilted character such as a right-upward character as shown in FIG.
FIG. 11 is a flowchart showing an embodiment of the character recognition method. Further, in the embodiment, a description will be given of correspondence with respect to a right-upward character. In FIG. 11, steps T1 to T6 perform the same operations as steps S1 to S6 of FIG. 2 described above, so the operations after step T7 will be described below.
[0039]
Step T7 (inclination detection)
Here, the edge feature (feature obtained directly from the character pattern itself) obtained in step T3 (= edge feature extraction processing in step S3 in FIG. 2) or step T6 (= direction-specific feature synthesis processing in step S6 in FIG. 2). ), The inclination of the character pattern is detected from the accumulated edge strength (feature that absorbed the deformation of the character) obtained by combining the features in all directions and accumulating the edge strength in each edge direction.
[0040]
For example, the edge features obtained in step T3 (= the edge feature extraction process in step S3 in FIG. 2) are counted for each edge direction, and the total number of counts in which the edge direction is in the right-down direction (the character outline is in the right-up direction). Occupying ratio (ratio A), and the ratio (ratio B) of the total number of counts in which the edge direction is vertical (the outline of the character is horizontal), and the ratio of ratio A and ratio B (ratio C) Therefore, whether or not the character pattern is a right-upward character is determined by a predetermined right-up character determination condition. If it is determined that the character pattern is a right-upward character, the slope is detected from the ratio C. Here, as described above, the direction of the edge feature indicates a direction perpendicular to the outline of the character.
[0041]
Step T8 (feature normalization)
Next, before or after normalization of the accumulated edge intensity in step T6 (= direction-specific feature synthesis processing in step S6 in FIG. 2), the accumulated edge strength is accumulated according to the slope obtained in step T7. A weight is added to the edge strength (feature value after normalization).
[0042]
For example, with respect to the correspondence of a right-upward character, before normalizing the accumulated edge strength, the edge direction in the respective feature storage positions is changed to the right-down direction (the outline of the character is changed) according to the slope obtained in step T7. A weight is added to the accumulated edge strength in the vertical direction (the contour line of the character is in the horizontal direction) with the cumulative edge strength in the upward direction).
[0043]
FIG. 12 is an explanatory diagram of the weighting corresponding to the characters rising to the right.
For example, the edge direction j is the edge direction code (j = 1 to 4) shown in FIG. 9B, the cumulative edge strength before normalization of a certain edge direction j in a certain feature storage position i is EDij, and the step The inclination of the character pattern detected when it is determined that the character is a right-upward character at T7 is θ (as shown in FIG. 12A, θ is an angle in the counterclockwise direction with respect to the horizontal direction). Using the following
EDi3 = EDi3 + 2 EDi4 sinθ (Formula 6)
Note that this method is not limited to characters that rise to the right, and can handle characters that are slanted as a whole, and can handle any slant. In addition, regarding the correspondence of the tilted character, the coordinate system may be set according to the tilt of the character, and the contour feature may be extracted using the scanning direction of the contour feature extraction as the coordinate axis direction of the set coordinate system. In this case, with respect to the correspondence of the right-upward character, for example, as shown in FIG. 12B, the vertical and horizontal coordinate systems (x-axis and y-axis) are set as the vertical direction and the inclination direction, and the outline feature extraction in the vertical and horizontal directions is scanned. The outline feature is extracted with the direction as the coordinate axis direction of the vertical / horizontal coordinate system.
[0044]
<
In the rectangular information extraction process in step S1 (or step T1 in FIG. 11) of the flowchart of FIG. 2, after extracting the rectangle of the character pattern in the vertical and horizontal coordinate system, two diagonal lines in the vertical and horizontal coordinate system are obtained and each diagonal line is obtained. On the other hand, the diagonal coordinate system is set as the coordinate system of the diagonal direction and the vertical line direction of the diagonal line, the processing target direction of each step is changed, and the feature extraction in the diagonal direction is performed for the rectangular diagonal line in the vertical and horizontal coordinate system. By configuring so that direction feature extraction is performed, it is possible to stably obtain oblique direction features when the characters are vertically long and horizontally long as shown in FIGS.
[0045]
FIG. 13 shows an example of rectangular information extraction of the recognition target character shown in FIG. 3, and FIG. 14 shows an example of edge-to-edge density extraction and division position information extraction.
[0046]
In step S1 of FIG. 2 (or step T1 of FIG. 11), first, the
[0047]
Next, in step S2 (or step T2 in FIG. 11), in the outline feature extraction in the oblique direction, the outline feature is extracted with the scanning direction as the direction of the diagonal line of the rectangle in the vertical and horizontal coordinate system, and step S3 (or step in FIG. 11). In T3), as described above, the edge features (edge direction and edge strength) of the character pattern are extracted.
[0048]
In step S4 (or step T4 in FIG. 11), as described above, the edge-to-edge density in the direction perpendicular to the oblique scanning direction in the outline feature extraction in step S2 (or step T2 in FIG. 11). (Portions indicated by
[0049]
In step S5 (or step T5 in FIG. 11), the rectangular information in the oblique coordinate system obtained in step S1 (or step T1 in FIG. 11) and the oblique scanning direction obtained in step S4 (or step T4 in FIG. 11). In the same manner as described above, division position information (parts indicated by
[0050]
In step S6 (or step T6 in FIG. 11), in the oblique direction, the division position information in the direction perpendicular to the oblique scanning direction obtained in step S5 (or step T5 in FIG. 11) and the above step S2 ( Alternatively, using the outline feature in the oblique scanning direction obtained in step T2) in FIG. 11, as described above, at each outline point of the outline feature coordinate line at each coordinate stored in the division position information, the outline is obtained. The edge direction and the edge strength at the point are obtained from the edge feature obtained in step S3 (or step T3 in FIG. 11), and the coordinate line division position stored in the degree information, direction, and division position information of the outline point, The feature storage position determined by and is added to the edge strength for each edge direction by adding the weight at the division position of the coordinate line stored in the division position information. To.
[0051]
In step S7, as described above, the edge strength accumulated in step S6 is normalized for each edge direction in each feature storage position to obtain a feature amount.
[0052]
In step S8, the character pattern is classified by matching the feature amount obtained in step S7 with a dictionary template for each character prepared in advance.
[0053]
As described above, the oblique coordinate system and the processing target direction of each step are changed so that the feature extraction in the diagonal direction in step S1 in FIG. 2 is the feature extraction in the diagonal direction of the rectangle of the character pattern extracted in the vertical and horizontal coordinate system. By configuring steps S2 to S8 as described above, it is possible to stably obtain the characteristic in the oblique direction when the characters are vertically long and horizontally long as shown in FIGS. 17 (d) and 17 (e).
[0054]
In the above embodiment, the diagonal coordinate system is a diagonal coordinate system and a diagonal vertical coordinate system, but the diagonal coordinate system is set as a diagonal coordinate system and the other diagonal coordinate system, and the processing target of each step The feature extraction in the oblique direction may be performed by changing the direction.
[0055]
<
FIG. 15 is an explanatory diagram regarding the extraction of the division position information in the oblique direction of the recognition target character shown in FIG. 3, FIG. 15 (a) relates to the first embodiment, and FIG. 15 (b) relates to the first modification. It is explanatory drawing at the time of applying an example.
[0056]
In this embodiment, in the division position information extraction operation in step S5 in FIG. 2 (or step T5 in FIG. 11), the rectangles in the oblique coordinate system (
[0057]
<
FIG. 16 is an explanatory diagram of a weighting method for the degree of similarity of feature amounts in the oblique direction in the character identification process.
[0058]
In the present embodiment, in the character identification processing in step S8 in FIG. 2 (or step T9 in FIG. 11), among the similarities of the feature quantities in the oblique direction, the vicinity of the diagonal of the rectangle in the vertical and horizontal coordinate system (FIG. This is an example in which the degree of similarity of the feature quantity is handled weakly according to the distance from the hatched portion)), and the feature in the vicinity of the diagonal line has a large fluctuation, so that the importance is lowered. By the method of the present embodiment, the characteristic in the oblique direction can be obtained stably.
[0059]
For example, as shown in FIG. 16B, the weighting of the similarity degree of the feature amount in the oblique direction is bilaterally symmetric with respect to a diagonal line of 45 ° with the center of each diagonal line as shown in FIG. Weight function fWR(Ry), fWL(Rx) is set (the weighting function can be arbitrarily set), the weight of the divided frame is determined based on the coordinates of the center of each divided frame and the weighting function. At the time of calculating the degree of similarity of the feature quantity at the corresponding feature storage position, the degree of similarity is calculated by adding the weight of the dividing frame.
[0060]
For example, if the degree of similarity is calculated with the Euclidean distance, it can be calculated by the following equation (7).
dDE= {ΣiΣj(Dij-Eij)2}1/2 (Formula 7)
Where DijRepresents a feature amount in a feature storage position i having a character pattern (when the number of edge direction codes is four (j = 1 to 4)), EijRepresents the feature amount in the feature storage position i of a dictionary template, and ΣiRepresents the sum for the feature storage position i, and ΣjRepresents the sum in the edge direction j.
[0061]
On the other hand, the division number N = 8 and the weight W of each division frame is set to W as shown in FIG.RM ,WLM If (M = 1, 2,..., N), the calculation of the Euclidean distance with the weight of the feature amount in the oblique direction is performed in the upward direction (scanning
dDE1= {ΣiΣjWRM(Dij-Eij)2}1/2 (Formula 8)
Further, the upward left direction (scanning
[0062]
dDE2= {ΣiΣj WLM(Dij-Eij)2}1/2 (Formula 9)
M = mod (i, N) +1 (Equation 10)
Here, M represents a division position indicated by 8 divisions in FIG. 16B, and mod (i, N) represents a remainder when i is divided by N.
[0063]
In addition, for example, as shown in FIG. 16C, a method of setting a weight function that is symmetric with respect to a diagonal line of 45 ° centered on the center of the diagonal line is used to circumscribe a rectangle in the vertical and horizontal coordinate system in the diagonal coordinate system. This is done by obtaining a rectangle to be determined and determining both end positions of the weight function.
[0064]
By the method of the present embodiment, the characteristic in the oblique direction can be obtained stably.
[0065]
【The invention's effect】
As described above, according to the character recognition method of the present invention, it is possible to absorb the deformation of the character shape without adding a new dictionary template. Moreover, it is hard to be influenced by the noise of a character outline part.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a character recognition apparatus to which a character recognition method of the present invention can be applied.
FIG. 2 is a flowchart of an embodiment of a character recognition method.
FIG. 3 is a diagram illustrating an example of recognition target characters.
FIG. 4 is a diagram illustrating an example of extracting rectangular information.
FIG. 5 is a diagram illustrating an example of outline feature extraction;
FIG. 6 is a diagram illustrating a configuration example of a scanning direction and an outline feature table.
FIG. 7 is a diagram illustrating an example of edge feature (edge direction) extraction.
FIG. 8 is a diagram showing an example of edge feature (edge strength) extraction.
FIG. 9 is a diagram illustrating an edge feature and a direction code, and a configuration example of an edge feature table.
10 is a diagram illustrating an example of edge density extraction, an example of division position information extraction, and a configuration example of a division position information table. FIG.
FIG. 11 is a flowchart illustrating an embodiment of a character recognition method.
FIG. 12 is an explanatory diagram of weighting corresponding to a right-upward character.
FIG. 13 is a diagram illustrating an example of extracting rectangular information in an oblique direction.
FIG. 14 is a diagram illustrating an example of edge density extraction and division position information extraction.
FIG. 15 is a diagram illustrating an example of extraction of division position information.
FIG. 16 is an explanatory diagram of a weighting method for the degree of similarity of feature amounts in an oblique direction in character identification processing.
FIG. 17 is a diagram illustrating an example of a character pattern.
[Explanation of symbols]
11 Rectangle in ordinate and abscissa
12 Rectangle in oblique coordinate system
13, 14 Diagonal diagonal in ordinate and abscissa
15, 16 Rectangle in oblique coordinate system
21 Vertical edge-to-edge density histogram
22 Horizontal edge-to-edge density histogram
23 Vertical dividing frame
24 Horizontal dividing frame
25, 26 Inter-edge density histogram in a direction perpendicular to the oblique scanning direction
27, 28 Dividing frame in a direction perpendicular to the oblique scanning direction
30 outline feature table
31 Edge feature table
32 Dividing position information table (dividing position information)
41, 42, 43, 44 The dividing line at the center of the rectangle in the oblique coordinate system
45, 46, 47, 48 Rectangle rectangle bisector in ordinate and abscissa
50 character recognition device
51 Control unit
52 Reading unit
53 character cutout
54 Character recognition part
55 Feature extraction unit
56 Character identification part
57 Character recognition dictionary
58 display
Claims (5)
前記特徴抽出部は、
2値化された文字パターンに縦横座標系において外接する矩形に係る矩形情報、及び該文字パターンに該縦横座標系を45°回転させた斜め座標系において外接する矩形に係る矩形情報をそれぞれ抽出してメモリに格納する矩形情報抽出ステップ、
走査方向別に前記文字パターンの外郭点を順次抽出し、第1次特徴、第2次特徴、・・・第n次特徴としてメモリに格納する外郭特徴抽出ステップ、
前記文字パターンのエッジ特徴を抽出してメモリに格納するエッジ特徴抽出ステップ、
前記エッジ特徴抽出ステップで抽出したエッジ特徴から求められるエッジ位置をもとに前記外郭特徴抽出ステップでの各走査方向に対して垂直な方向について、前記文字パターンを走査しながら該垂直方向における前記走査方向のエッジ間の間隔からエッジ間密度をそれぞれ抽出してメモリに格納するエッジ間密度抽出ステップ、
前記矩形情報抽出ステップで抽出した矩形情報及び前記エッジ間密度抽出ステップで抽出したエッジ間密度を基に、各走査方向およびそれぞれの走査方向に垂直な方向に前記文字パターンに外接する矩形を垂直方向に分割する分割枠を決定し、矩形内の該垂直方向の各座標ラインがどの分割枠に存在するか該各座標ラインの分割位置を求め、矩形内の方向座標のそれぞれについて各座標ラインの分割位置および座標ラインが分割位置を占めるエッジ間密度の割合を示す重みを得てメモリに格納する分割位置情報取得ステップ、
前記各走査方向について特徴合成を行う特徴合成ステップ、
前記特徴合成の終了後、累積されたエッジ強度を正規化して文字パターンの特徴量を得る特徴量取得ステップ、
を備え、
前記文字認識部は、前記特徴量取得ステップで得た文字パターンの特徴量と各文字の辞書テンプレートの特徴量とのマッチングをとり、文字パターンの分類を行う文字認識ステップを含み、
前記特徴合成ステップは、
前記各走査方向毎に、前記分割位置情報取得ステップで得た、走査方向に対して垂直な方向の分割位置情報に含まれている垂直方向の座標と前記外郭特徴抽出ステップで得た走査方向別の外郭特徴を基に、該各座標における外郭特徴の座標ラインの各外郭点でのエッジ方向とエッジ強度を前記エッジ特徴抽出ステップで得たエッジ特徴から求めるステップ、
上記外郭点の次数情報及び方向と上記分割位置情報に含まれている分割位置で決まる、メモリ上の特徴格納位置を求めるステップ、
上記ステップで求めたエッジ方向別のエッジ強度に対し上記分割位置情報に含まれている垂直方向の座標に対応する分割枠での重みを付加して累積するステップ、
からなることを特徴とする文字認識方法。A character reading unit that obtains binarized image data obtained by reading a document including a character to be recognized, and a character cutout unit that cuts out a binarized character pattern from the binarized image data in units of one character. A feature extraction unit that extracts features from a binarized character pattern, and a character recognition unit that obtains a recognition result by comparing the feature amount extracted by the feature extraction unit with a plurality of dictionary templates stored in the character recognition dictionary A character recognition method in a character recognition device comprising:
The feature extraction unit includes:
Rectangle information relating to a rectangle circumscribing the binarized character pattern in the ordinate / horizontal coordinate system and rectangle information relating to the rectangle circumscribing in the oblique coordinate system obtained by rotating the ordinate / horizontal coordinate system by 45 ° to the character pattern are extracted. Rectangle information extraction step to be stored in the memory,
An outline feature extraction step for sequentially extracting outline points of the character pattern for each scanning direction and storing them in a memory as primary features, secondary features,..., N-th feature;
An edge feature extraction step of extracting an edge feature of the character pattern and storing it in a memory;
For the direction perpendicular to the scanning direction in the outer feature extraction step based on the edge position obtained from the extracted edge feature at the edge feature extraction step in the vertical direction while scanning a pre Symbol character pattern An inter-edge density extraction step of extracting an inter-edge density from an interval between edges in the scanning direction and storing it in a memory;
Based on the rectangular information extracted in the rectangular information extracting step and the inter-edge density extracted in the inter-edge density extracting step, a rectangle circumscribing the character pattern in each scanning direction and in a direction perpendicular to each scanning direction is vertically determining the divided frame is divided into, determine the division position of the or respective coordinate lines each coordinate line of the vertical direction of the rectangle is present which partition frame, dividing each coordinate line for each direction coordinates in the rectangular A division position information acquisition step of obtaining a weight indicating a ratio of the density between edges in which the position and the coordinate line occupy the division position and storing the weight in the memory
A feature synthesis step for performing feature synthesis for each of the scanning directions;
After the feature synthesis is completed, a feature amount acquisition step for obtaining the feature amount of the character pattern by normalizing the accumulated edge strength;
With
The character recognizing unit includes a character recognition step of matching the feature amount of the character pattern obtained in the feature amount acquisition step with the feature amount of the dictionary template of each character, and classifying the character pattern,
The feature synthesis step includes
For each scanning direction, the vertical coordinate contained in the division position information in the direction perpendicular to the scanning direction obtained in the division position information acquisition step and the scanning direction obtained in the outline feature extraction step A step of obtaining the edge direction and edge strength at each contour point of the coordinate line of the contour feature in each coordinate from the edge feature obtained in the edge feature extraction step based on the contour feature of
Obtaining a feature storage position on the memory determined by the degree information and direction of the outline point and the division position included in the division position information;
Adding a weight in a divided frame corresponding to a vertical coordinate included in the divided position information to the edge strength for each edge direction obtained in the step, and accumulating;
A character recognition method comprising:
前記特徴抽出部は、
2値化された文字パターンに縦横座標系において外接する矩形に係る矩形情報、及び該文字パターンに該縦横座標系を45°回転させた斜め座標系において外接する矩形に係る矩形情報をそれぞれ抽出してメモリに格納する矩形情報抽出ステップ、
走査方向別に前記文字パターンの外郭点を順次抽出し、第1次特徴、第2次特徴、・・・第n次特徴としてメモリに格納する外郭特徴抽出ステップ、
前記文字パターンのエッジ特徴を抽出してメモリに格納するエッジ特徴抽出ステップ、
前記エッジ特徴抽出ステップで抽出したエッジ特徴から求められるエッジ位置をもとに前記外郭特徴抽出ステップでの各走査方向に対して垂直な方向について、前記文字パターンを走査しながら該垂直方向における走査方向のエッジ間の間からエッジ間密度を抽出してメモリに格納するエッジ間密度抽出ステップ、
前記矩形情報抽出ステップで抽出した矩形情報及び前記エッジ間密度抽出ステップで抽出したエッジ間密度を基に、各走査方向およびそれぞれの走査方向に垂直な方向に前記文字パターンに外接する矩形を垂直方向に分割する分割枠を決定し、矩形内の該垂直方向の各座標がどの分割枠に存在するか該各座標の分割位置を求め、矩形内の該垂直方向の各座標ラインがどの分割枠に存在するか該各座標ラインの分割位置を求め、矩形内の方向座標のそれぞれについて各座標ラインの分割位置および座標ラインが分割位置を占めるエッジ間密度の割合を示す重みを得てメモリに格納する分割位置情報取得ステップ、
前記各走査方向について特徴合成を行う特徴合成ステップ、
前記特徴合成の終了後、前記文字パターンの傾きを検出する傾き検出ステップ、
前記傾き検出ステップで検出した傾きに応じて、累積したエッジ強度を基に正規化した前記文字パターンの特徴量を得る特徴量取得ステップ、
を備え、
前記文字認識部は、前記特徴量取得ステップで得た文字パターンの特徴量と各文字の辞書テンプレートの特徴量とのマッチングをとり、文字パターンの分類を行う文字認識ステップを含み、
前記特徴合成ステップは、
前記各走査方向毎に、前記分割位置情報取得ステップで得た、走査方向に対して垂直な方向の分割位置情報に含まれている垂直方向の座標と前記外郭特徴抽出ステップで得た走査方向別の外郭特徴を基に、該各座標における外郭特徴の座標ラインの各外郭点でのエッジ方向とエッジ強度を前記エッジ特徴抽出ステップで得たエッジ特徴から求めるステップ、
上記外郭点の次数情報及び方向と上記分割位置情報に含まれている分割位置で決まる、メモリ上の特徴格納位置を求めるステップ、
上記ステップで求めたエッジ方向別のエッジ強度に対し上記分割位置情報に含まれている垂直方向の座標に対応する分割枠での重みを付加して累積するステップ、
からなる、
ことを特徴とする文字認識方法。A character reading unit that obtains binarized image data obtained by reading a document including a character to be recognized, and a character cutout unit that cuts out a binarized character pattern from the binarized image data in units of one character. A feature extraction unit that extracts features from a binarized character pattern, and a character recognition unit that obtains a recognition result by comparing the feature amount extracted by the feature extraction unit with a plurality of dictionary templates stored in the character recognition dictionary A character recognition method in a character recognition device comprising:
The feature extraction unit includes:
Rectangle information relating to a rectangle circumscribing the binarized character pattern in the ordinate / horizontal coordinate system and rectangle information relating to the rectangle circumscribing in the oblique coordinate system obtained by rotating the ordinate / horizontal coordinate system by 45 ° to the character pattern are extracted. Rectangle information extraction step to be stored in the memory,
An outline feature extraction step for sequentially extracting outline points of the character pattern for each scanning direction and storing them in a memory as primary features, secondary features,..., N-th feature;
An edge feature extraction step of extracting an edge feature of the character pattern and storing it in a memory;
For the direction perpendicular to the scanning direction in the outer feature extraction step based on the edge position obtained from the extracted edge feature at the edge feature extraction step, in the vertical direction while scanning a pre Symbol character pattern edge between density extracting step of storing in the memory by extracting an edge between density from the scanning direction or falling edge of di period of,
Based on the rectangular information extracted in the rectangular information extracting step and the inter-edge density extracted in the inter-edge density extracting step, a rectangle circumscribing the character pattern in each scanning direction and in a direction perpendicular to each scanning direction is vertically The division frame to be divided is determined, the division position of each coordinate in which the vertical coordinate in the rectangle exists, the division position of each coordinate is obtained, and the vertical coordinate line in the rectangle is assigned to which division frame obtains the division position of existing or respective coordinate lines, stores obtain a weight indicating the ratio of the edge between the density occupying a split position and coordinate lines dividing position of each coordinate line for each direction coordinates in the rectangle in the memory Division position information acquisition step,
A feature synthesis step for performing feature synthesis for each of the scanning directions;
An inclination detecting step for detecting an inclination of the character pattern after the feature synthesis is completed;
In accordance with the inclination detected in the inclination detection step, a feature amount acquisition step for obtaining a feature amount of the character pattern normalized based on the accumulated edge strength,
With
The character recognizing unit includes a character recognition step of matching the feature amount of the character pattern obtained in the feature amount acquisition step with the feature amount of the dictionary template of each character, and classifying the character pattern,
The feature synthesis step includes
For each scanning direction, the vertical coordinate contained in the division position information in the direction perpendicular to the scanning direction obtained in the division position information acquisition step and the scanning direction obtained in the outline feature extraction step A step of obtaining the edge direction and edge strength at each contour point of the coordinate line of the contour feature in each coordinate from the edge feature obtained in the edge feature extraction step based on the contour feature of
Obtaining a feature storage position on the memory determined by the degree information and direction of the outline point and the division position included in the division position information;
Adding a weight in a divided frame corresponding to a vertical coordinate included in the divided position information to the edge strength for each edge direction obtained in the step, and accumulating;
Consist of,
A character recognition method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003184790A JP4469566B2 (en) | 2003-06-27 | 2003-06-27 | Character recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003184790A JP4469566B2 (en) | 2003-06-27 | 2003-06-27 | Character recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018577A JP2005018577A (en) | 2005-01-20 |
JP4469566B2 true JP4469566B2 (en) | 2010-05-26 |
Family
ID=34184444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003184790A Expired - Lifetime JP4469566B2 (en) | 2003-06-27 | 2003-06-27 | Character recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4469566B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4881605B2 (en) * | 2005-10-28 | 2012-02-22 | 株式会社リコー | Character recognition device, storage medium, and character recognition method |
CN100394435C (en) * | 2006-05-25 | 2008-06-11 | 无敌科技(西安)有限公司 | Word recognition method and its system |
-
2003
- 2003-06-27 JP JP2003184790A patent/JP4469566B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005018577A (en) | 2005-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5410611A (en) | Method for identifying word bounding boxes in text | |
US8590794B2 (en) | Barcode recognion method and computer product thereof | |
US20060222215A1 (en) | Method and apparatus of detecting eye using symmetry and moment characteristics of object | |
WO2014026483A1 (en) | Character identification method and relevant device | |
CN105809164A (en) | Character identification method and device | |
CN115457565A (en) | OCR character recognition method, electronic equipment and storage medium | |
CN112085022B (en) | Method, system and equipment for recognizing characters | |
US8027978B2 (en) | Image search method, apparatus, and program | |
JP4300098B2 (en) | Object identification method and apparatus, program and recording medium | |
CN111860027A (en) | Two-dimensional code identification method and device | |
CN109034158B (en) | License plate recognition method and device and computer equipment | |
CN112801067B (en) | Method for detecting iris light spot and computing equipment | |
JP4469566B2 (en) | Character recognition method | |
CN118520893B (en) | A method, device and storage medium for barcode label recognition applied to AOI | |
CN117315730A (en) | Palm vein-based user identification method, palm vein-based user identification system, computer and storage medium | |
CN116778184A (en) | Building fine granularity edge extraction and classification method, device, equipment and medium | |
CN113657317A (en) | A cargo location identification method, system, electronic device and storage medium | |
CN112733741A (en) | Traffic signboard identification method and device and electronic equipment | |
CN117078913B (en) | Object inclination correction method, device, electronic equipment and storage medium | |
CN118314336B (en) | Heterogeneous image target positioning method based on gradient direction | |
JP3077929B2 (en) | Character extraction method | |
CN110163203B (en) | Character recognition method, device, storage medium and computer equipment | |
JP2785438B2 (en) | Character recognition method | |
CN117011228A (en) | Defect detection method, electronic device, and storage medium | |
JP2832035B2 (en) | Character recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090724 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091225 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4469566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160305 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |