JPWO2010092952A1 - パターン認識装置 - Google Patents

パターン認識装置 Download PDF

Info

Publication number
JPWO2010092952A1
JPWO2010092952A1 JP2010550519A JP2010550519A JPWO2010092952A1 JP WO2010092952 A1 JPWO2010092952 A1 JP WO2010092952A1 JP 2010550519 A JP2010550519 A JP 2010550519A JP 2010550519 A JP2010550519 A JP 2010550519A JP WO2010092952 A1 JPWO2010092952 A1 JP WO2010092952A1
Authority
JP
Japan
Prior art keywords
pattern
feature
character
recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010550519A
Other languages
English (en)
Other versions
JP5522408B2 (ja
Inventor
雅一 岩村
雅一 岩村
浩一 黄瀬
浩一 黄瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Prefecture University
Original Assignee
Osaka Prefecture University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Prefecture University filed Critical Osaka Prefecture University
Priority to JP2010550519A priority Critical patent/JP5522408B2/ja
Publication of JPWO2010092952A1 publication Critical patent/JPWO2010092952A1/ja
Application granted granted Critical
Publication of JP5522408B2 publication Critical patent/JP5522408B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/268Lexical context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

幾何学的変換を受けたクエリ画像からパターン要素を切り出し、前記パターン要素の中にある3つの特徴点により表される前記パターン要素の特徴であって前記幾何学的変換に対し不変な特徴をクエリ特徴量として取得し、参照パターンの特徴をそれぞれ表す複数の参照特徴量と前記クエリ特徴量とを照合し、照合により特定された参照パターンを認識結果として決定する構成を備え、各参照特徴量は、前記規則に基づいて各参照パターンから決定される特徴点を用いて表され、前記規則に基づき、第1特徴点の位置は前記パターン要素の中にあって前記幾何学的変換に対して不変な点に特定され、第2特徴点の位置は前記パターン要素の形状に関する性質であって前記幾何学的変換に対し不変な性質を用いて特定され、第3特徴点の位置は前記幾何学的変換に対し不変な所定量と決定された第1および第2特徴点の位置とから特定されるパターン認識装置。

Description

この発明は、パターン認識装置に関し、主として、カメラで撮像した文字やピクトグラムの実時間認識が可能な装置に関する。
カメラを用いたパターン認識は様々な応用を見込めることから、近年注目を集めている。有望な応用の一つとしては、カメラと文字認識装置を組み合わせた翻訳装置である「翻訳カメラ」がある(非特許文献1、2参照)。また、カメラで写した文字を認識し、音声に変換することで視覚障害者に伝える応用も可能である。さらにカメラに写る全てのパターンを認識し、その中で事前に登録しておいた利用者が必要とする情報のみを利用者に伝える応用も考えられる。この応用は視覚障害者にとって有益であるといえる。視覚障害者の中には文字を見つけるのが困難な人もいるため、「機械による視覚」ともいえるこの応用は非常に有用である。
上記のような応用を実現するためには、(1)実時間処理が可能である、(2)幾何学的な歪みに頑健である、(3)文字の配置に依らない認識が可能であるという3つの要件を満たす実用的なカメラベース文字認識技術が必要である。
まず実時間処理は利用者の利便性を低下させないために絶対必要である。幾何学的歪みへの対処については、対象を文字に限定した場合、公知の手法が実現している(例えば、非特許文献3、4参照)特に非特許文献4の技術は実時間で動作することが報告されている。これらの手法では、まずカメラを用いて撮像した画像から文字行を抽出し、次に幾何学的歪みのうち最も変形の自由度が高い射影歪みの近似であるアフィン歪みを補正し、最後に切り出された文字を認識する技術が提案されている。しかし、例えば、前記非特許文献4の手法は文字行単位で射影歪みを補正するので、文字行を成さない文字は認識できない。また、回転した文字にも対応していない。そのため、図1のような対象は認識できず、(3)の要件を満たさない。すなわち、前述の様々なレイアウトのパターンが認識可能であるという要件を満たしていない。
一方、前述の(2)と(3)の要件を満たす手法として、KusachiらやLiらは文字を1文字ずつ認識する手法を提案している(例えば、非特許文献5,6参照)。しかし、非特許文献5、6に開示された手法は文字を1文字ずつ認識するため、前述の文字行の問題は起こらないが、処理に時間がかかり、(1)の実時間処理とはいえない。前記(1)から(3)の要件を同時に満たす手法が望まれている。
Y.Watanabe, Y.Okada, Y.-B. Kim and T.Takeda, "Translation camera, " Proc. ICPR1998, pp.613-617, 1998. H.Fujisawa, H.Sako, Y.Okada and S.-W. Lee, "Information capturing camera and developmental issues, " Proc. ICDAR1999, pp.205-208, Sept. 1999. X.Chen, J.Yang and A.Waibel, "Automatic detection and recognition of signs from natural scenes," IEEE Trans. Image Processing, vol.13, no.1,pp.87-99, Jan. 2004. G.K. Myers, R.C. Bolles, Q.-T. Luong, J.A. Herson and H.B. Aradhye, "Rectification and recognition of text in 3-d scenes," IJDAR, vol.7, no.2-3, pp.147-158, 2004. Y.Kusachi, A.Suzuki, N.Ito and K.Arakawa, "Kanji recognition in scene images without detection of text fields-robust against variation of viewpoint, contrast, and background texture-, " Proc. ICPR2004, 2004. L.Li and C.L. Tan, "Character recognition under severe perspective distortion, " Proc. ICPR2008, 2008. 野口和人、黄瀬浩一、岩村雅一、 "大規模特定物体認識における認識率、処理時間、メモリ量のバランスに関する実験的検討、" 電子情報通信学会論文誌D、vol.J92-D,pp.1135-1143,Aug. 2009.
そこでこの発明では、前述の要件を満たしたパターン認識技術を実現するために、実時間で文字やピクトグラム等のパターンを認識することができる単純であるが効果的な手法に基づくパターン認識装置を提供する。
この発明は、少なくとも1片のパターン要素から構成され、幾何学的変換を受けたクエリ画像からその少なくとも1片のパターン要素を切り出す切り出し部と、前記パターン要素の中にあってそのパターン要素から所定の規則に基づいて特定される第1、第2および第3特徴点を含む少なくとも3つの特徴点により表される前記パターン要素の特徴であって前記幾何学的変換に対し不変な特徴をクエリ特徴量として取得する特徴量取得部と、パターン認識の候補として用意された複数の異なる参照パターンの特徴をそれぞれ表す複数の参照特徴量と前記クエリ特徴量とを照合する照合部と、照合された特徴量の類似性に基づいて、前記候補の中から特定された参照パターンを認識結果として決定するパターン決定部とを備え、各参照特徴量は、前記規則に基づいて各参照パターンから決定される特徴点を用いて表され、前記所定規則に基づき、前記第1特徴点の位置は前記パターン要素の中にあって前記幾何学的変換に対して不変な点に特定され、前記第2特徴点の位置は前記パターン要素の形状に関する性質であって前記幾何学的変換に対し不変な性質を用いて特定され、前記第3特徴点の位置は前記幾何学的変換に対し不変な所定量と決定された第1および第2特徴点の位置とから特定されることを特徴とするパターン認識装置を提供する。
この発明のパターン認識装置において、前記第1特徴点の位置は前記パターン要素の中にあって前記幾何学的変換に対して不変な点に特定され、前記第2特徴点の位置は前記パターン要素の形状に関する性質であって前記幾何学的変換に対し不変な性質を用いて特定され、前記第3特徴点の位置は前記幾何学的変換に対し不変な所定量と決定された第1および第2特徴点の位置とから特定されるので、前記不変座標系の組の数は、所定の基準を満たす画素のうち一つを第1の特徴点として決定する組合せの数に限定される。従って、公知のジオメトリック・ハッシング手法に比べて処理時間を大幅に短縮することができる。即ち、この発明によれば、第1の特徴点が決定されると、それに対応する第2、第3の特徴点は一意に決定される。公知のジオメトリック・ハッシングでは、パターン領域を構成するすべての特徴点の数pから前記所定数nの特徴点を選択する順列であるpPn通りについて不変座標系に係る処理を必要とするのに対し、この発明によれば、第1点を選択するpP1通りについて不変座標系に係る処理を行うだけでよい。このため、幾何学的変換を伴って取得された画像から実時間でパターンを認識することができる。なお、ここで、第1、第2の特徴点は、いずれが先に決定されてもよい。
この発明において、クエリ画像は、認識されるべきパターンを含む画像である。前記パターンは、一以上の、一塊の連結成分を含んでなる。一塊の連結成分とは、認識されるべきパターンが領域的に連結して一塊になっているものである。例えば、「I」や「J」の文字は、領域的に連結した一つの連結成分からなる認識対象の例である。これに対して、例えば、「i」や「j」のように一つの文字が複数の連結成分からなる分離文字、または、分離パターンもある。
この発明において、クエリ画像は、幾何学的変換を受けて取得されることを前提としている。例えば、認識対象の文字を含む画像がイメージスキャナで読み取られる場合は、拡大/縮小、回転などの幾何学的歪みを伴って読み取られる。この場合、クエリ画像は相似変換による歪みを受けている。また、例えば、認識対象の文字を含む画像がカメラで撮影された場合、正対位置からのズレによって射影歪みを受ける。ただし、ズレ量が少なければ、奥行き方向の倍率変化を伴わないアフィン歪みとして近似できる。
各パターンの画像的な特徴は、その特徴を表すベクトルと関連付けられて画像データベースに登録されている。画像的な特徴の一例は、形状的な特徴、濃淡の分布の特徴、色彩の特徴あるいはそれらの組合せである。前記画像データベース中の各ベクトルは、短時間で前記ベクトルの照合を可能にすべくハッシュテーブルを用いて体系化された状態で予め登録されている。
切り出し部、特徴量取得部、照合部およびパターン決定部は、コンピュータが所定のプログラムを実行することによりそれらの機能が実現されてもよい。あるいは、その一部または全部の処理が、例えば半導体チップ上に実装されたハードウェアによって実現されてもよい。後述する実施形態において、各部の機能は、パーソナルコンピュータのハードウェアおよびソフトウェアによって実現されている。
この発明のパターン切り出しには適応二値化を施し、輪郭抽出を行う。この発明のパターン認識には、Geometric Hashingを改良して用いる。アフィン変換を考慮したGeometric Hashingの計算量はPを特徴点数としたとき、O(P4)であるが、この発明では不変量の計算原理を利用してO(P2)にまで削減可能である。さらに投票機構を利用した手法を組み合わせて利用することで、この発明はwebカメラと接続したノートパソコン上で実時間で動作することができる。
この発明の認識対象となる画像の一例を示す説明図である。 公知のジオメトリック・ハッシングにおいて、不変座標系の決定手法を示す第1の説明図である。 公知のジオメトリック・ハッシングにおいて、不変座標系の決定手法を示す第2の説明図である。 この発明に係る幾何学的変換の一種であるアフィン変換の不変量の一例を示す説明図である。 この発明に係るパターン領域の形状例を示す説明図である。 この発明に係る実施形態において、パターン領域の重心とアフィン不変量としての所定面積比から第3の特徴点を決定する第1の手法を示す説明図である。 この発明に係る実施形態において、パターン領域の重心とアフィン不変量としての所定面積比から第3の特徴点を決定する第2の手法を示す説明図である。 この発明に係る実施形態において、重心を特徴点とせずにアフィン不変量としての所定面積比から第2の特徴点を決定する手法を示す説明図である。 この発明に係るデータベースが含むハッシュテーブルの構成を示す説明図である。 この発明に係る分離文字の記述方法を示す説明図である。 この発明のパターン認識装置で実行される処理の流れを示す説明図である。 この発明に係る特徴ベクトルの計算方法の一例を示す説明図である。 この発明に係る実施形態において、姿勢推定手法の手順の一例を示す説明図である。 この発明に係る実験に用いたフォントおよびピクトグラムの一例を示す説明図である。 この発明に係る実験例1および2に用いた認識対象の紙面の一例を示す説明図である。 この発明に係る実験例1の第1の結果を示すグラフである。複数種のフォントに対する累積認識率を示す。 この発明に係る実験例1の第2の結果を示すグラフである。特徴ベクトルの大きさを変化させたときのピクトグラムの認識率と処理時間の関係を示す。 この発明に係る認識対象である図1の画像が幾何学的変換を伴って撮像された様子を示す説明図である。 この発明に係る実験例2の第1の結果を示すグラフである。複数種のフォントに対する正解率、リジェクト率、不正解率を示す。 この発明に係る実験例2の第2の結果を示すグラフである。図14のピクトグラムに対する正解率、リジェクト率、不正解率を示す。 この発明に係る実験例2の認識対象となる画像を示す説明図である。 図21の画像を紙面から0度、30度、45度の3種類に傾けて撮影した画像を示す説明図である。 この実施の形態で、クエリ特徴ベクトルのビット反転によって新たなクエリ特徴ベクトルを作成する様子を示す説明図である。 この発明に係る実験例3で認識対象として用いた画像を示す説明図である。 この発明に係る実験例3で認識に用いた100種類のフォントの一部であり、また4で認識に用いた10種類のフォントを示す説明図である。 この発明に係る実験例3、4で、連結成分のクラス分け処理の例を示す説明図である。 この発明に係る実験例3における、登録フォント数に対する認識率を示すグラフである。 この発明に係る実験例3における、1文字当たりの平均処理時間を示すグラフである。 この発明に係る実験例3における、登録フォント数に対するクラス数を示すグラフである。 この発明に係る実験例3における、登録録フォント数に対するメモリ使用量を示すグラフである。 この発明に係る実験例4で用いた実証システムの概要を示す説明図である。 この発明に係る実験例4で用いた実証システムにおいて、字種決定までの流れを示す説明図である。 この発明に係る実験例4で認識可能となる、文字行を成さない文書の一例を示す説明図である。 この発明に係る実験例4で用いた実証システムにおいて、単語領域を取得する手法を説明するための説明図である。 この発明に係る実験例4で用いた実証システムにおいて、推定された並び順に図34の単語領域 2 の各文字の候補を挙げたグラフである。 この発明に係る実験例4で用いた実証システムにおいて、「単語は左から右に読む」というルールに係る上方向の仮定の手順を説明するための説明図である。 この発明に係る実験例4で認識対象として用いた文書を示す説明図である。 この発明に係る実験例4で、1単語あたりの処理時間を示すグラフである。 この発明に係る実験例4で、単語の認識結果を示すグラフである。 この発明に係る実験例4で、単語認識、文字認識の失敗例を示す説明図である。 この発明に係る実験例4で、文字単位での認識率を示すグラフである。 この発明に係る実験例4で、データベースを読み込んだときのメモリ使用量を示すグラフである。
前述の課題を解決するこの発明について異なる表現をすると、1種類以上のパターンが幾何学的変換を伴って取得されたクエリ画像からそのパターンを構成する複数の画素のうち一塊の連結成分(前記パターン要素)をパターン領域として切り出す切り出し処理部(前記切り出し部)と、一つのパターン領域から所定の規則に基づいて3以上の特徴点を決定する各組合せにつき、選択した3点のうち2点を結ぶ2本のベクトルを基底とする座標系であって前記幾何学的変換に対し不変な不変座標系により前記パターン領域の画像的特徴を表すベクトルをクエリ特徴ベクトルとして生成する特徴ベクトル生成部(前記特徴量取得部)と、生成されたクエリ特徴ベクトルに予め定められたハッシュ関数を適用してインデックスの値を算出するインデックス算出部と、認識結果の候補としての複数の参照パターンにつき、各参照パターンの形状的特徴を表す参照特徴ベクトルがその参照パターンと関連付けられかつ複数のビンに分類されて予め登録されてなるハッシュテーブルを前記インデックスを用いて参照し、そのインデックスが算出されたクエリ特徴ベクトルを参照先のビンに登録された1以上の参照特徴ベクトルと照合する照合部と、前記照合に基づいて認識結果とすべき参照パターンを決定するパターン決定部とを備え、前記参照特徴ベクトルは、前記クエリ特徴ベクトルと同様の手順を経て決定される特徴点のうち3点を選択する各組合せについて生成され、前記特徴ベクトル生成部は、特徴点の決定に適用する前記規則として、前記パターン領域に係る画素のうち所定の基準を満たす画素のうち一つを第1の特徴点として決定し、前記パターン領域の形状につき前記幾何学的変換に対し不変な性質から定まる1点を第2の特徴点として決定し、前記幾何学的変換に対する不変量として予め定められた値と第1、第2の特徴点とに基づいて定まる1点を第3の特徴点として決定するパターン認識装置に関する。
前記パターン認識装置において、前記特徴ベクトル生成部は、特徴点の決定に適用する前記規則として、前記パターン領域に係る画素のうち所定の基準を満たす画素のうち一つを第1の特徴点として決定し、前記パターン領域の形状につき前記幾何学的変換に対し不変な性質から定まる1点を第2の特徴点として決定し、前記幾何学的変換に対する不変量として予め定められた値と第1、第2の特徴点とに基づいて定まる1点を第3の特徴点として決定するので、前記不変座標系の組の数は、所定の基準を満たす画素のうち一つを第1の特徴点として決定する組合せの数に限定される。従って、公知のジオメトリック・ハッシング手法に比べて処理時間を大幅に短縮することができる。
以下、この発明の好ましい態様について説明する。
前記第1特徴点の位置は、前記パターン要素の輪郭上の画素の中から特定されてもよい。このようにすれば、第1の特徴点は、前記パターン領域の輪郭を抽出し、その輪郭上の1点として確実に決定できる。
また、前記性質は、前記幾何学的変換の一種としてのアフィン変換に対して重心が不変な性質であり、第2特徴点の位置は、前記性質を用い、前記パターン要素の重心として特定されてもよい。重心は、アフィン変換に対する不変量である。このようにすれば、第2の特徴点は、対象のパターン領域の重心として一意に決定することができる。
また、前記性質は、前記幾何学的変換の一種としてのアフィン変換に対して面積比が不変な性質であり、第3特徴点の位置は、前記パターン要素の輪郭の中から特定され、かつ、前記性質を用い、前記パターン要素の面積と前記第1、第2および第3特徴点を頂点とする三角形の面積との面積比の所定値に基づいて特定されてもよい。面積比は、アフィン変換に対する不変量である。このようにすれば、予め定められた不変量の値と第1および第2の特徴点から一意に第3の特徴点を決定することができる。
さらにまた、前記特徴量取得部は、前記第1乃至第3特徴点のうち2点をそれぞれ結ぶ2本の一次独立なベクトルを基底とする座標系であって前記幾何学的変換に対し不変な座標系を用いて前記幾何学的変換に対し不変な特徴を取得してもよい。
前記照合部は、対応する参照パターンと関連付けられてハッシュテーブルに登録された参照特徴量と前記クエリ特徴量との照合を行い、前記ハッシュテーブルは、複数のビンを有してなり、各参照特徴量はその参照特徴量につき予め定められたハッシュ関数を計算して決定される一つのビンに予め分類されて登録され、前記照合部は、前記クエリ特徴量につき前記ハッシュ関数を計算して得られるインデックスを用いて適当なビンを参照し前記照合を行ってもよい。このようにすれば、クエリ特徴ベクトルに対応する参照特徴ベクトルを、前記ハッシュテーブルを用いて照合することができるので、各クエリ特徴ベクトルとの照合を短時間で行うことができる。
前記パターン決定部は、前記クエリ画像のパターン領域につき前記特徴ベクトル生成部により決定された特徴点の座標と前記ハッシュテーブルに登録された特徴点の座標との対応関係に基づき前記パターン領域の姿勢を推定し、各推定を多数決処理して前記クエリ画像の姿勢を推定してもよい。このようにすれば、取得されたクエリ画像の姿勢を特徴点の座標の対応関係に基づいて推測することにより、クエリ画像の幾何学的歪みを補正して、補正を行わない場合よりも高い精度で照合を行うことができる。
また、前記パターン決定部は、少なくとも一組の分離パターンが登録された分離パターン表を有し、各分離パターンは前記参照パターンの一つに対応し前記一組の分離パターンは一つの認識結果を提供し、前記分離パターン表を参照して前記候補の中から特定された参照パターンとその組の一つの分離パターンとの間の対応関係が存するか否かを判断し、前記対応関係が存しかつその組の他のすべての分離パターンについての対応関係が既に存するとき、前記特定された参照パターンに対応する分離パターンが属する組により提供されるものを認識結果としてもよい。このようにすれば、分離パターンについても、その認識結果を決定することができる。
さらに、前記分離パターン表には、その組のある分離パターンと他の分離パターンとの間の相対位置が登録されてなり、前記パターン決定部は、ある特定された参照パターンに対応する分離パターンについて登録された相対位置によって定まる位置に他の特定された参照パターンがあるときに認識結果を決定してもよい。このようにすれば、分離パターンとその組合せに係る他のパターンとの位置関係を考慮して、より高い精度で認識結果を決定することができる。
さらにまた、前記クエリ画像は、複数の文字からなる単語のパターンを含んでなり、前記パターン決定部により認識された各文字を1度ずつ通る最短の経路を求め、求められた経路の順及び逆順をそれぞれ単語の候補とする単語候補決定部と、前記クエリ画像における所定方向に対する各文字の回転角を求める回転角決定部と、前記経路の順又は逆順に沿って隣接する2文字間の回転角の差を第1の評価指標とし、各候補の何れか一端を第1文字としたとき第1文字に隣接する第2文字へ向かう方向と予め定められた読み方向の規則とに基づいて前記第1文字がとるべき回転角を推測し、推測された回転角と前記回転角決定部により決定された第1文字の回転角との差を第2の評価指標とし、第1及び第2の評価指標を最小化する候補を選択することによりその単語を構成する文字の読み順を決定する読み順決定部とをさらに備えていてもよい。このようにすれば、単語間が、例えば英語のようにスペースで区切られる等して、他の単語と区別され、かつ、予め定められた読み方向の規則、例えば、左から右に記すという規則に従う言語に対処した単語認識を行うことができる。
ここで示した種々の好ましい態様は、それら複数を組み合わせることもできる。
この発明と以下の実施形態との対応関係について説明する。
この発明で、クエリ画像は、後述する図1のような複数の文字やマークを含む紙面に対応する。パターン要素は、連結成分に対応する語である。また、この発明でクエリ特徴量は、クエリ画像の各パターン要素の特徴を表すベクトル量である。
さらに、この発明で、参照パターンは、文字認識において各文字を表す連結成分に対応する。例えば、後述する図14(a)の各文字、(b)の各ピクトグラム、図10の分離文字テーブルの第1列(第2列でない)の列の各パターンに対応する。参照特徴量は、各参照パターンの特徴を表すもので、クエリ特徴量と対比(照合)されるものである。また、分離パターン表は、後述する図10の分離文字テーブルに対応する。なお、図10の例では、文字「j」を構成するグループと「i」を構成するグループが分離パターン表に含まれている。この発明で、分離パターンは、例えば図10の分離文字テーブルの第1列(第2列でない)の列の各パターンに対応する。
以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
1. 発明の前提
発明の詳細な説明をするにあたり、まず、この発明の前提について説明する。この技術分野における従来の研究に習い、簡単のために、白色の背景に黒色の文字が書かれていることを想定する。なお、「黒色」は一例であって、地と区別できる所定の色および/または濃度の画素の一塊、所定範囲の色および/または濃度の画素の一塊は、この発明に係るパターン領域となる。以下、便宜上、前記パターン領域を構成する画素を「黒画素」と呼ぶ。文字画像はカメラで撮影するので、射影歪み、ぼけや解像度低下の影響を受けるが、文字の連結成分、即ち、画像中で黒画素が隣接し、一塊になっているものは簡単な処理で切り出せるとする。また、全ての文字は同一平面上に存在するとする。
この発明で解決すべき課題は、(i)切り出された連結成分の高速な認識、(ii)認識の頑健性向上、(iii)「i」や「j」のように2つ以上の連結成分から成る文字(分離文字)の認識、の3つである。
そのうち(i)の高速認識については、Geometric Hashingを連結成分の照合に適応させ、かつ、幾何学的不変量の計算原理を利用して高速化する方法を次の第2節で示す。(ii)の認識の頑健性向上については、連結成分の姿勢を考慮した認識方法を第4節で述べる。(iii)の分離文字の認識については、第3節で述べる手法で解決する。
2. Geometric Hashingをこの発明に適応させ高速化するための改良
2.1. Geometric Hashing
Geometric Hashingは幾何歪みを受けた画像を不変座標系を用いて記述し、検索する強力な手法である。この発明で提案するGeometric Hashingの改良手法を説明するために、Geometric Hashingを簡単に説明する。詳細は、次の文献、Y.Lamdan and H.J. Wolfson, "Geometric hashing: a general and efficient model-based recognition scheme, " Proc. ICCV1988, pp.238-249, 1988.を参照されたい。
2.1.1. 登録処理
参照画像を登録する。まず、登録する参照画像から抽出した特徴点が与えられているとする。次に全特徴点から3点選び、図2(a)に示すように選ばれた特徴点の順番を考慮して2本の基底ベクトルを作成する。そして、2本の基底ベクトルを用いて図2(b)のように新しい座標系を作成し、特徴点を写像する。この座標系は画像がアフィン変換を受けても同様に作成できるため、アフィン不変座標系である。このアフィン不変座標系を図2(b)のように格子状に区切ると、各領域は2次元ハッシュテーブルのビンに相当する。各特徴点が存在するビンに対して、登録する画像の番号と基底の通し番号の組を登録する。この処理を全ての可能な基底に対して実行し、1枚の参照画像の登録が終了する。全ての参照画像を登録して登録処理が終了する。アフィン不変座標系の作成にO(P3)、特徴点の射影等にO(P)の計算量が必要であるため、参照画像1枚当たりの計算量はO(P4)である。
なお、ここで、O(P)あるいはO(P3)は、問題を解くために必要なおおよその計算量の表記方法であって、O(P)はPが定まったときの計算量がPの1乗のオーダ、即ち、aP+b以下で収まることを、O(P3)はPの3乗のオーダ、即ち、aP3+bP2+cP+d以下で収まることを表す。
ただしa,b,c,dは定数である。O(P4)、その他についても同様である。
2.1.2. 検索処理
検索処理の前半は登録処理と同じである。質問画像から抽出した特徴点が与えられているとする。全特徴点から3点選び、図2(a)に示すように選ばれた特徴点の順番を考慮して2本の基底ベクトルを作成する。そして、2本の基底ベクトルを用いてアフィン不変座標系を作成する。このアフィン不変座標系は登録時に格子状に区切られていて、各領域が2次元ハッシュテーブルのビンに相当する。各特徴点が存在するビンから、登録されている画像の番号と基底の通し番号の組を取り出して、画像の番号と基底の通し番号の組に対して投票する(投票テーブルは2次元になる)。この処理を全ての可能な基底に対して実行し、最大の投票数を得た画像の番号と基底の通し番号の組を決める。そして、この組の画像の番号を検索結果として出力する。ただし、全ての基底を処理する前に結果が明らかになったときには処理を途中で終了することができる。アフィン不変座標系の作成にO(P3)、特徴点の射影等にO(P)の計算量が必要であるため、合計の計算量はO(P4)である。
2.2. 提案するGeometric Hashingの改良手法
2.2.1. 前提とする課題の相違
この発明はGeometric Hashingの改良手法に係る。この発明について述べる前に、Geometric Hashingが通常解決しようとする問題とこの発明の前提となる課題の違いについて述べておく。Geometric Hashingでは、特徴点が与えられたときに点の配置のみから対象を同定する問題を解いている。つまり、特徴点がどのような対象からどのように抽出されたかを考慮しない。それに対してこの発明では、図形が与えられたときに図形から得られる特徴点の配置と図形の特徴の両方を用いて図形を同定する。即ち、予め定められた規則をパターン領域に適用して決定する。そのため、特徴点として図形から得られる角や変曲点などの幾何変換を受けても変化しない箇所を使用することもできるが、この発明では原則として図形の輪郭上の画素を特徴点とする。このことによって手法がどのように異なるかは以下で述べる。
2.2.2. 計算量の削減
Geometric Hashingの欠点は膨大な計算量である。アフィン変換に対応した場合について考えると、検索処理に必要な計算量は点数Pに対してO(P4)である。P=100点の場合を考えるとO(100,000,000)もの計算が必要になるため、実時間アプリケーションに使用することは現実的でない。一方、提案する方法を用いれば、最も計算量が少ない場合、アフィン変換を考慮した場合O(P2)にまで削減することができる。
Geometric Hashingの計算量が膨大である理由を述べる(M.Iwamura, T.Nakai and K.Kise, "Improvement of retrieval speed and required amount of memory for geometric hashing by combining local invariants, Proc. BMVC2007, " Vol.2, pp.1010-1019, Sept. 2007.参照)。Geometric Hashingでは検索が成功するために、登録処理で用いた基底の組が検索処理でも計算される必要がある。しかし、基底の組が一致するかどうかは計算してみるまでわからないため、結局全て(もしくは多数)の基底を計算することになってしまう。したがって、もし登録処理と検索処理で同一の基底を計算することができれば計算量を削減することができる。そこで提案するGeometric Hashingの改良手法では、登録処理と検索処理で同一の特徴点を選択することにより、同一の基底を計算するために必要な計算量を削減している。
この発明で計算量を削減する特徴点の選択方法について述べる。アフィン変換の場合に3点を選択する方法を一例として述べる。アフィン変換の場合は図形の重心が保存されるため、重心を1点目の特徴点とする。(重心が輪郭上になる保証はないが、構わない。)2点目はGeometric Hashingと同様、適当に選択する。
3点目は、ここまでに得られた2点とこれから述べる不変量が持つ性質を用いて自動的に定める。最初に、最も単純な図4の例を用いて不変量が持つ性質について説明する。図4のように1直線上に3点A、B、Cが与えられたとするとき、AB/ACはアフィン変換を受けても変化しない不変量である。このように点の座標から不変量の値を計算することが通常行われる。これに対してこの発明では、不変量の値と2点A、Bが与えられたときに点Cの座標を求める。点Cが点A、Bと同一直線上にあるとすると、点Cの位置は点Aの左側にある場合と図4のように点Bの右側にある場合の両方が考えられるが、「直線上にA、B、Cの順番に並ぶように点Cを定める」といった具合に点Cの決定方法を事前に定めておけば一意に定めることが可能になる。この原理を一般化して記述すると、「n点の座標から計算した不変量の値とn-1点の座標が与えられれば、残る1点(n点目)を計算することができる」となる。
このように基底の作成に用いる特徴点を一意に決定できれば計算量を削減できる。上記の方法は2点を一意に決定したので、計算量をO(P4)からO(P2)に削減することができる。
なお、上記の特徴点決定方法を用いたとしても3点が一直線上に存在してしまうため、3点目を利用して1点目と2点目で作成した基底と一次独立な基底を作成することができない。(ただし、後述する特徴ベクトルに追加して、後述するハッシュのインデックスの計算に一緒に用いることができる。)
以下では、図5のような面積がS0である図形の3点目を決定できる上記とは別の方法を述べる。この方法を用いれば、1点目と2点目で作成した基底と一次独立な基底を作成できる。なお、アフィン変換で保存される性質を表1にまとめておく。
特徴点の選択方法1
図6のように3点の特徴点が与えられたとする。1点目と2点目を通る半直線と1点目と3点目を通る半直線を考え、図形から切り取られる面積をS1とする。このとき、表1の性質4により、S1/S0がアフィン不変量になる。したがって、S1/S0が特定の値になるように3点目を定めればよい。3点目を定める際に時計回りや反時計回りなどの情報を使って点を一意に定めることもできる。
特徴点の選択方法2
方法1と同様に、図7のように3点の特徴点が与えられたとする。3点が作る三角形の面積をS1としたとき、表1の性質4により、S1/S0がアフィン不変量になる。したがって、S1/S0が特定の値になるように3点目を定めればよい。S1/S0の値は、特定の値でなくとも、最大値、最小値等でもよい。3点目を定める際に時計回りや反時計回りなどの情報を使って点を一意に定めることもできる。なお、S1が一定になるように3点目を定めることを考えると、取り得る3点目の軌跡は図7のように1点目と2点目を通る直線と平行な直線になる。したがって、この直線と図形との交点を3点目に定めればよく、簡便に計算可能である。交点が複数ある場合は2点目から近いほうを選ぶといった選択方法も可能である。
ところで、上記の方法とは別の方法で最初の2点を決めることもできる。すなわち、1点目をGeometric Hashingと同様に、P点から適当に選択し、2点目を決める際に面積比を利用して決めることもできる。図8のように2点の特徴点が与えられたとすると、面積比S1/S0がアフィン不変量になる。したがって、S1/S0が特定の値になるように2点目を定めればよい。
2.2.2.図形の特徴量の使用
Geometric Hashingは画像番号と基底番号の組をデータベースに登録する。一方、この発明では基底番号の代わりに、画像から計算した特徴ベクトルと基底の作成に用いた特徴点の座標を登録する(図9参照)。
画像から計算した特徴ベクトルを用いる理由は、画像の特徴のほうが表現力が高いためである。Geometric Hashingの問題設定では検索対象から抽出された特徴点の座標のみが与えられたが、この実施形態が考える問題では検索対象の図形そのものが与えられている。そのため、図形から抽出した特徴ベクトルが利用可能になった。また、基底の作成に用いた特徴点の座標を登録する理由は、後述する投票処理においてこれらを用いることにより、姿勢の推定精度と認識精度が向上することである。
なお、以後はこの発明に係るパターン認識の代表例としての文字認識の話に特化するため、「画像番号」のことを「文字番号」と呼ぶことにする。「検索」を「認識」と呼ぶことにする。また、「パターン認識装置」のことを「文字認識装置」と呼ぶことにする。
3. 分離文字の認識
前節では単一の連結成分で構成される文字を高速に認識する方法を述べた。本節ではその結果を利用することで、「i」や「j」のように2つ以上の連結成分から成る分離文字の認識方法を述べる。
図10は、この発明に係る分離文字の記述方法を示す説明図である。図10(a)は、分離文字が、それを構成する各連結成分の面積とそれらの要素の相対位置を表すベクトルで記述することを示している。図10(b)は、分離文字を記述するための分離文字テーブルの一例を示している。まず、分離文字に対処するため、参照画像の登録時に画像内の連結成分数を調べる。そして、2つ以上の連結成分を含む参照画像に対しては、各連結成分を別の文字のように扱い、別々に登録するとともに、図10(b)の分離文字テーブルを登録する。
このテーブルは分離文字の各連結成分の位置と大きさの関係を記したもので、認識時に所定の位置に所定の連結成分があるかどうかを調べることで分離文字の認識が可能になる。図10(b)の分離文字テーブルは5つの要素で構成され、それらの各要素を左端から順に第1〜第5まで番号を付している。第1の要素は、連結成分の形状および/または連結成分の番号を示す。第2の要素は、その連結成分が含まれる分離文字を示す。第3の要素は、連結成分相互の相対位置を示すベクトルである。第4の要素は、連結成分の面積を示す。第5の要素は、組になるべき連結成分の面積を示している。
Arialのフォントの場合について考えてみると、「i」の下の連結成分は「I」(大文字のアイ)や「l」(小文字のエル)と同じ形状のため、外見では区別がつかない。そのため、「i」を正しく認識するためには、「I」や「l」のように同形である全ての連結成分に対して、「i」であるか調べる必要が生じる。そして、「i」の上の連結成分が所定の位置に存在すれば「i」と認識し、そうでなければ「I」や「l」と認識することになる。
この処理を実現するために、同形である全ての連結成分が同じ連結成分番号を持つように学習した。すなわち、参照画像は1枚ずつ登録することとし、登録前に類似の連結成分が登録されていないかを調べた。より具体的に書くと、参照画像の登録前に作成中のデータベースを用いて認識し、認識結果に同形の参照画像が含まれていた場合は同じ連結成分番号を割り振った。理想的には、前述の「i」の下の連結成分や「I」、「l」は全て同じ連結成分番号を持つはずなのだが、この方法は後述する生成型学習との相性が悪く、同形になるべき字種が同形にならない場合があった。そのため、この実施形態では表2に示す類似文字リストに基づき、手動で設定した。
4. 連結成分の姿勢を考慮したパターン認識
この発明によるパターン認識装置の概要を図11に示す。前記装置は、大別して画像登録部11と画像認識部13から成る。この発明の文字認識装置は、少なくともデータベース15にアクセス可能な画像認識部13からなる。それぞれを以下で説明する。
4.1. 画像登録部
画像登録部11では、参照画像をデータベース15に登録する。参照画像は二値画像とする。
4.1.1. 劣化画像の生成
撮影時のピンぼけに対処するため、参照画像にガウスぼかしを重畳する生成型学習法を適用した(H.Ishida, S.Yanadume, T.Takahashi, I.Ide, Y.Mekada and H.Murase, "Recognition of low-resolution characters by a generative learning method, " Proc. CBDAR2005, pp.45-51, 2005.参照)。元画像の位置(x,y)における画素の輝度値をI0(x,y)とすると、生成された劣化画像の位置(x,y)における輝度値Ig(x,y)は次式で与えられる。
ただし、W、Hは画像の幅および高さである。ぼけの程度は畳み込む正規分布の標準偏差σによって調節する。生成された劣化画像は再び二値化し、以後は参照画像と同様に扱う。
4.1.2. 特徴ベクトルの生成
2で述べた方法で 3点の特徴点を選択し、不変座標系を生成することにより、特徴ベクトルを生成する。以下では、得られた3点から特徴ベクトルを計算する方法を説明する。特徴点が2点あれば、2点を通る直線を1本定めることができるので、3点から合計
本の直線が計算できる。3本の直線のうち2本を選ぶことにより、図12に示すようなk個の均一な部分領域を設定できる。ここでk=l×lである。このように部分領域を設定することは、図2(b)のようにGeometric Hashingで2本の基底で定められる不変座標系において格子を設定することと同じである。各領域内の特徴点数を数え上げ、合計が1になるように正規化することでk次元特徴ベクトルが計算できる。ただし、各領域の値の計算は、輪郭上の画素のみでなく、図形内部の全画素数としてもよい。3本の直線から順番を考慮して2本選ぶ組合せは3通りなので、3本のk次元特徴ベクトルが計算できる。それらを単純に結合することで3k次元の特徴ベクトルが得られる。
4.1.3. データベースへの登録
データベース15は、具体的にはハッシュテーブルで構成されている。
データベース15への登録方法について述べる。文字番号、特徴ベクトル、3点の特徴点の座標を組にして、ハッシュテーブルに格納する。ハッシュのインデックスHindexは次式で計算する。
ここでHsizeはハッシュテーブルの大きさ、riは特徴ベクトルのi番目の要素の値、Dは、特徴ベクトルのi番目の要素をD段階に量子化することを示している。なお、衝突が起こる場合は図9に示すようにリスト構造で連結する。
4.2. 画像認識部
4.2.1. 画像の取得
画像はデジタルカメラやwebカメラで静止画ないし動画として取得する。動画として撮像した場合はフレーム毎に分解して、複数の静止画として扱う。得られた各画像を質問画像と呼び、以下の処理で用いる。
4.2.2. 文字画像の切り出し
得られた画像から文字画像を切り出す。まず画像に対して、適応二値化を施す。適応二値化とは、注目画素の輝度が近傍領域の平均輝度より明るいか暗いかによって白(輝度1)または黒(輝度0)を決定する手法である。元画像の位置(x,y)の画素における輝度をI0(x,y)、近傍領域の窓サイズをn×n画素とすると、適応二値化を適用して得られる二値化画像の輝度Ib(x,y)は次式で表される。
次に、連結成分を抽出する。連結成分とは、画像中で黒画素が隣接し、一塊になっているものである。得られた連結成分をパターン領域候補とみなして、矩形で切り出し、以下で述べる認識処理の対象とする。ただし、得られた連結成分の面積が閾値以下であればノイズとみなして認識対象から除外する。
4.2.3. 特徴ベクトルの生成
得られた連結成分から特徴ベクトルを生成する。この処理は2で述べた処理と基本的に同じである。唯一異なるのは、全ての可能な組合せに対して不変座標系を生成せず、あらかじめ定めるS個に限定することである。
4.2.4. 投票を用いたパラメータ推定と認識(実施例1)
投票を用いてパラメータ推定と認識を行う。ここではアフィン変換の場合について述べる。
最初に、文字番号、特徴ベクトル、3点の特徴点の座標の組をハッシュテーブルからS個得る。そして、文字番号に対して重み
を用いる重み付き投票を行う。重みを用いる理由は、文字毎に特徴点数(輪郭の長さ)Pが異なり、特徴点が多い文字は得票が不公平に多くなると考えられるからである。重み付き投票によって得られた最大の得票数をMとおく。この値を基に、重み付き投票から2つのグループを定義する。1つ目は得票数が0.9M以上の文字のグループで、「推定グループ」と呼ぶ。2つ目は得票数が0.8M以上の文字のグループで、「候補グループ」と呼ぶ。
質問画像から得られた3点の座標とデータベース中の3点の座標の対応関係から1つのアフィン変換行列が求まる。(ただしアフィン変換行列で位置ずれは考慮しないものとする。)質問画像から得られた3点の座標はS組あるため、合計S個のアフィン変換行列が得られる。各アフィン変換行列Tを次式のように拡大率β、回転角θ、せん断変形の度合いφ、
独立変倍の倍率αを4つのパラメータに分解する。
ここで、
である。
この実施例では全ての文字は同一平面上に存在すると仮定している。この場合、せん断変形の度合いφと独立変倍の倍率αは全ての文字で共通になるはずである。そこで、φとαが作る2次元空間での密度推定を利用して、尤もらしいφとαの組を推定する。ここでは、「推定グループ」に属する文字のアフィン変換行列を前述の2次元空間にプロットする。プロットされた点の中から近傍の密度が最も高い点を選択する。この処理は、まずφとαのそれぞれを5等分し、2次元空間を25等分する。25個の部分領域について、その領域と8近傍の合計9領域に含まれる点の数を集計し、点の数をその領域のスコアとする。全部分領域についてスコアを計算した後、最もスコアの高い領域を選択する。この領域に含まれる点の数が30個より多ければ、その領域をもう一度25等分し、同様の処理を点数が30個以下になるまで繰り返す。スコアが最大の領域に含まれる特徴点数が30個以下になったとき、その領域の中心の値をφとαの推定値とし、それぞれ、
とおく。
最後に、連結成分ごとに認識結果を定める。前述のφとαが作る2次元空間において、「候補グループ」に属する文字のアフィン変換行列の中で
から最も近い点を選び、そのアフィン変換行列を与えた文字を認識結果(第1位候補)とする。もし認識結果が2つ必要な場合は、第1位候補を除いて
から最も近い点を選び、第2位候補とする。以下、同様の処理を繰り返す。
4.2.5 異なる姿勢推定手法と認識(実施例2)
前節と異なる姿勢推定手法について述べる。4.2.3で述べた特徴ベクトルを用いることで、図9のハッシュテーブルから連結成分番号と特徴点3点の座標を取得することができる。こうして得られた情報は、質問画像の仮の認識結果であり、多数の誤りを含んでいる。以下では、次の文献M. Iwamura, R. Niwa, A. Horimatsu, K. Kise, S. Uchida and S.Omachi, "Layout-free dewarping of planar document images, Proc. DRR XVI, " 7247-36, Jan. 2009. に類似の多数決原理を段階的に用いることで正しい認識結果に集約する。すなわち、図13に示すように、最初に紙面の姿勢推定を行い、続いて連結成分毎に認識と姿勢推定を行う。
まず、質問画像の特徴点と参照画像の特徴点の対応関係から、質問画像中の連結成分の姿勢がアフィン変換行列として推定される。この中には別の連結成分に対応付いて求められた誤ったアフィン変換行列が含まれているため、図13(a)のような連結成分番号に対する重み付き投票を行い、信頼できるものを選定する。重みを用いるのは、特徴点が多い連結成分は得票が不公平に多くなると考えられるためである。i番目の連結成分に登録されている特徴点数(外側の輪郭の長さ)をNiとしたとき、1/√Niの重みを各投票度数に対して掛ける。
重み付き投票によって得られた最大の得票数(Mとおく)を基準にして、2つのグループを定義する。1つ目は、得票数が0.9M以上である参照画像の連結成分のグループで、「推定グループ」と呼ぶ。2つ目は、得票数が0.8M以上のグループで「候補グループ」と呼ぶ。
これらは質問画像の連結成分毎に定める。
次に、紙面の姿勢を推定する。この発明では全ての文字は同一平面(紙面)上に存在すると仮定している。この場合、アフィン変換行列から計算される4つのアフィン変換パラメータのうち、せん断変形と独立変倍のパラメータは全ての連結成分で共通になるはずである。そこで前述の文献と同様に、図13(b)のような2次元空間での密度推定を利用して、尤もらしいパラメータの組を推定する。ここでは「推定グループ」に属する連結成分のアフィン変換行列を前述の2次元空間にプロットする。
プロットされた点の中から近傍の密度が最も高い点(図13(b)の赤色の星マーク)を選択する。ただし、推定の信頼性を向上させるため、質問画像の連結成分と参照画像の連結成分の面積比をR、アフィン変換行列から求められたアフィン変換行列の拡大率をβとしたとき、Tarea≦R/β2≦1/Tareaを満たすもののみを推定に用いた。連結成分の仮の認識結果が正しければR/β2=1になるため、この値が1から離れていれば結果が信頼できないことを意味する。本実施例ではTarea=0.7とした。
最後に、連結成分毎に認識結果を定める。図13(c)のような連結成分の回転角と連結成分番号が作る2次元空間での密度推定を利用して、尤もらしい回転角のパラメータと連結成分番号の組を推定する。推定には「候補グループ」に属する連結成分のアフィン変換行列を用いる。図13(b)の場合と異なるのは、回転角は連続量であるが、連結成分番号は離散であるため、各連結成分番号について1次元の密度推定を行うことである。以上の処理により、各連結成分の種類(連結成分番号)と姿勢(せん断変形、独立変倍、回転角)を求めることができる。
5. 実験例1(分離文字の認識方法を用いない実施例1)
σを変えながら参照画像1枚につき4枚の劣化画像を生成した。用いたσの値はσ=0, 2,4, 6である。適応二値化のパラメータnはn=101とし、ノイズとみなして除去する閾値は32とした。ハッシュサイズはHsize=219-1とした。
また、計算量を削減するために、画像登録時には参照画像から連結成分を抽出し、幅と高さの大きいほうが100ピクセルになるように大きさを正規化した。画像認識時には、質問画像から抽出した各連結成分の幅と高さの大きいほうが50ピクセルになるように大きさを正規化した。
特徴ベクトルを作成する際の各領域の値の計算は、輪郭上の画素のみでなく、図形内部の全画素を用いた。
以下の実験では、CPUがOpteron 2.4GHzで、メモリが128GBである計算機を用いた。
5.1. 各種フォントに対する性能評価
この発明の有効性を調べるために様々なフォントの文字を認識した。字種には60種類の数字とアルファベットを用いた。内訳は、10種の数字、"i"と"j"を除いた24種の小文字アルファベット、26種の大文字アルファベットである。一部の文字はアフィン歪みを受けると外見が類似してしまうため、表2で同じ箱に入っている文字は認識実験において同一クラスとみなした。例えば、0(ゼロ)をO(オー)に間違えても誤認識とはしない。
実験には図14(a)に示すArial、Century、Gigi、Impactの4種類のフォントを用いた。認識対象として、図15に示すテストパターンを作成した。このテストパターンには文字の大きさが3種類(72pt、48pt、32pt)、文字の傾きが3種類(0度、30度、45度)の9種類の条件が含まれている。1条件につき12文字ずつ含まれているので、合計108文字が含まれている。これを60字種分、60枚作成した。印刷したテストパターンは、デジタルカメラの紙面に対する傾きが0度、30度、45度の3種類になるように撮影した。撮影した解像度は1024×768である。実験のパラメータとしては、S=200、k=25を用いた。
累積認識率と平均処理時間を図16と表3に示す。Arial、Century、Gigiの各フォントは順位の増加と共に累積認識率が増加しているが、おおよそ6位程度で認識率が飽和している。一方、Impactは1位認識率が非常に悪いが、20位まで累積認識率が上昇し続けている。
5.2. ピクトグラムに対する性能評価
図14(b)に示す10種のピクトグラムを3.1と同様の方法で撮像し、認識実験を行った。S=200とした。
認識率と処理時間を図17に示す。ビン数が16のときに認識率が最高になった。処理時間はほとんどの場合で同程度だったが、ビン数が4のときに極めて大きくなった。それと同時に認識率が最低になった。これは特徴ベクトルの識別能力が十分でないため、ハッシュに多数の衝突が発生したためと思われる。
5.3.図1の文書に対する性能評価
最後に、図1に示した文書を認識した。デジタルカメラを紙面から0度、30度、45度の3種類に傾けて撮影して、背景が写らないように紙面の部分だけ切り取った。切り取った後の0度、30度、45度の画像の大きさはそれぞれ2054×1464、1714×1326、1516×1322である。得られた画像を図18に示す。図1に含まれる文字から得られる連結成分は148個であるが、そのうち18個は"i"と"j"の一部であった。"i"と"j"は連結成分が1つではないため、参照画像に含まれていない。したがって、これらの2字種を認識することができない。
そこで、残る148-18=130個の文字の認識率を算出した。k=25とした。認識率と処理時間を表4に示す。S=200の場合はS=20の場合よりも認識率が高かった。S=20の場合の処理時間はS=200の場合の約1/7であったが、認識率の差はそれほど大きくなかった。S=20の場合の結果から、この発明が高速で頑健な認識が可能であることを確認できた。
6. 実験例2(分離文字の認識方法を用いた実施例2)
6.1. 各種フォントに対する性能評価
分離文字の認識方法を用いた実施例2の手法の有効性を調べるために、図14に示すArial、Century、Gigi、Impactの4種類のフォントの数字とアルファベット(各62字種)を認識した。ただし3節で既に述べたように、一部の文字はアフィン歪みを受けると外見が類似
してしまい、判別が困難なため、表3で示した文字は同一クラスとみなしている。また、4.2節で述べた画像認識部による認識処理において、得票数が0だった場合はリジェクトとした。
認識対象として、図15に示すテストパターンを作成した。この中には文字の大きさが3種類(72pt、48pt、32pt)、文字の傾きが3種類(0度、30度、45度)の9種類の条件が含まれている。1条件につき12文字なので、合計108文字が含まれている。これを62字種分、62枚作成した。印刷したパターンは、デジタルカメラの紙面に対する傾きが0度、30度、45度の3種類になるように撮影した。72ptのArialの「A」を正面(0度)から撮影したときの文字サイズの平均は40.7×44.8ピクセルであり、32ptのArialの「A」を45度の角度から撮影したときは10.0×18.6ピクセルであった。実験では、認識対象のフォントのみを参照画像として登録した。4.2.3節で述べたパラメータSは20とした。また、ハッシュサイズはHsize=219-1とした。
まず、1文字当たりの平均処理時間を表5に示す。1文字に要する処理時間は概ね4msであるので、単純計算で1秒間に200〜250文字程度の認識が可能と考えられる。
次に、認識結果を図19に示す。図19から、撮影角度の増加や文字の縮小に伴って正解率が減少していること、撮影角度よりも文字の縮小による影響のほうが大きいことがわかる。認識結果について、以下で詳しく考察する。
まずImpact以外のフォントでは、正解率が減少すると、その分リジェクト率が増加し、誤認識率はあまり増えなかった。この原因は、特徴ベクトルの量子化パラメータDが大きかったためと考えられる。より詳しくいうと、Dが大きいと、画像のわずかな変動でも計算されるハッシュのインデックスが変わるため、信頼できる仮の認識結果が得られなくなる。ここでDを3から2に変更すれば、Arialで最も認識率の低かった「32ptの文字を45度から撮影した場合」でも、正解率が21.54%から52.73%に上昇する。しかし、不正解率も7.57%から36.31%に上昇してしまう。どちらを選ぶかは応用次第であるが、一般に誤認識が少ないことは重要な性質と考えられるため、この実施形態ではD=3を採用した。
次にImpactでは、正解率が減少してもほとんどリジェクトされず、正解率の減少分はほとんど誤認識率になった。この原因としては、Impactは線幅が太いため、どの連結成分の特徴ベクトルも似てしまい、十分な識別性能を得られなかったことが考えられる。表5の平均処理時間を見ると、他のフォントより処理に時間がかかっている。これは特徴ベクトルの識別性能が足りず、ハッシュの衝突が多数起きていることを示唆している。この問題については、既存の正規化手法や特徴量の導入で改善できると考えている。
6.2. ピクトグラムに対する性能評価
最後に、文字以外の図形の認識可能性を調べるため、上記の4フォントの他に図14(b)に示す10種のピクトグラムも同様の方法で認識した。図20と表5に示すように、Impact以外のフォントと同様の結果が得られた。
以上により、この発明が高速で動作し、一部のフォントを除けば誤認識率が少ないことが確認できた。
6.3. 図21の文書に対する性能評価
図21に示した文書を認識した。デジタルカメラを紙面から0度、30度、45度の3種類に傾けて撮影して、背景が写らないように紙面の部分だけ切り取った。切り取った後の0度、30度、45度の画像の大きさはそれぞれ2470×1746、2278×1746、2038×1844である。得られた画像を図22に示す。図21には236文字含まれている(カンマは除く)。内訳は、Arialが168文字、Arial Black Italicが27文字、MIRUのロゴの周囲の文字(フォント不明)が41文字である。このうち、ArialとMIRUのロゴの周囲の文字を登録して認識実験を行った。
S=200とS=20について、処理時間と認識結果を表6に示す。主な誤認識は「i」の認識失敗(「i」と「I」や「l」の混同)、「U」と「u」や「n」の混同、「E」と「m」の混同であった。S=200とS=20を比べると、S=200はS=20よりも認識率が高かったが、S=20の処理時間はS=200の約1/6であった。以上より、この発明はSが小さい場合は高速な認識が可能であること、若干処理時間を要するが、必要であればSを大きくすることで、より頑健な認識が実現できることが確認できた。
7. 関連研究
Geometric Hashing以外でこの発明の関連研究をまとめておく。
中居らが提案したLLAH(Locally Likely Arrangement Hashing)という手法が ある(中居友弘,黄瀬浩一,岩村雅一,"特徴点の局所的配置に基づくデジタルカメラを用いた高速文書画像検索,"電子情報通信学会論文誌D,vol.J89-D, no.9,pp.2045-2054,Sept. 2006.参照、また、国際公開第WO2006/092957号パンフレット参照)。この手法は、単純な画像処理によって得られる特徴点の局所的な配置に着目し, 幾何学的不変量とハッシュを用いてデータベース中から対応する特徴点を 高速に検索する手法である。Geometric HashingとLLAHを比較すると、LLAHは検索の頑健性を保ちつつ, 計算量とメモリ使用量を従来手法の数億分の一に減少させている。この性能向上を可能にしているのは、特徴点の選択方法を限定して計算量を減少させていることと、特徴ベクトルの高次元化による識別性能の向上である。
前者はこの発明の考え方と類似しているが、LLAHでは特徴点が分散していることを想定しているため、この発明のように特徴点が連続している場合には適用できない。後者については、この発明にも適用することができ、この発明の更なる性能向上が見込める。その方法を説明するために、まずLLAHがどのように特徴ベクトルを高次元化しているかを説明する。アフィン変換の場合を例にとると、同一平面上に4点あれば1つの不変量が計算できる。LLAHでは、m>4点から4点を選ぶ
個の不変量を計算して、
次元ベクトルを作成することで特徴ベクトルを高次元化し、識別性能を向上させている。この発明でもLLAHと同様の処理が可能である。すなわち、アフィン変換の場合は3点より多数の特徴点を求めて、多数の特徴ベクトルを計算する。そして、それらを全て結合して高次元化する。これにより、より識別性能の高い特徴ベクトルを計算することができる。なお、追加で定める特徴点は一意に選択可能であるため、計算量の増加は僅かであると考えられる。
この発明やLLAHと同様に、特徴の選択方法を限定して計算量を減少させている方法が他にもある。Rothwellらによって提案された手法では、連結した5本の線分や2個の円錐曲線を抽出することで、射影変換の不変量を計算している(C.A. Rothwell, A.Zisserman, D.A. Forsyth and J.L. Mundy, "Using projective invariants for constant time library indexing in model based vision, "Proc. British Machine Vision Conference, 1991.参照)。抽出された線分などは隣接しているため、簡単に順序付け可能であり、不変量を計算する順番の組合せが限定されるため、高速化が可能である。しかし,この発明で対象とする任意形状の図形から常に線分やコニックを抽出できるとは限らないため、この方法は適用が困難である。
また、アフィン変換を受けた図形に限れば、アフィン変換を受けた図形そのものを正規化し、その後に照合する方法もある。Leuらは図形を構成する画素の座標値から共分散行列を求め、その逆行列を用いることで拡大・縮小、せん断変形を正規化する方法を提案している(J.-G. Leu, "Shape normalization through compacting," Pattern RecognitionLetters, vol.10, no.4, pp.243-250, 1989.参照)。しかし、この方法では回転に任意性を残すため、何らかの方法で図形の回転を考慮した照合が必要である。この問題に対して堀松らは回転方向の照合を高速化する手法を検討しているが、この手法でも十分高速とは言い難い(A.Horimatsu, R.Niwa, M.Iwamura, K.KIse, S.Uchida and S.Omachi, "Affine invariant recognition of characters by progressive pruning,"Proceedings of the 8th IAPR International Workshop on Document Analysis Systems (DAS2008), pp.237-244, Sept. 2008.参照)。
この問題に対して、この発明のアフィン変換の方法を用いるか、この発明を相似変換レベルで用いれば、どちらの場合もO(P2)の計算量で照合可能である。相似変換の場合の計算量の内訳は、相似不変座標系の作成がO(P)、特徴点の射影等がO(P)である。相似変換の場合の具体的な方法は、1点目、2点目はアフィン変換のときと同様に求める。3点目については、相似変換では角度が保存されることから、あらかじめ定められた角度を成すように定める方法や、長さが保存されることから、1点目、2点目からあらかじめ定められた距離になるように定める方法などが考えられる。
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。
8.変形例
本節では、前節で述べた実施態様に非特許文献7の方策を3つ導入することにより、改良手法を提案する。
8.1. 変形例の態様
1番目の方策は、距離計算の導入である。前の4.2.5 節で述べたように、ハッシュテーブルから得られる情報には誤りが含まれているため、その中から正しいものを選択する必要がある。図13(a)に示す実施態様では字種に対する投票で信頼性の高い情報を絞り込んでいたが、この実施態様ではその代わりに、クエリ特徴ベクトルと、ハッシュテーブルから得られた特徴ベクトルのユークリッド距離を計算し、距離が閾値以下のものを選択する。
なお、非特許文献7の手法は距離が最小のもののみを選択しており、この実施態様とは若干異なる。予備実験において両者を比べたところ、前記閾値を用いる本実施態様の方が性能が良かった。前記閾値は連結成分の縦横比に依存して決める。すなわち、連結成分の外接矩形の長辺と短辺の比をr:1とし、tを定数としたとき、trと定めた。これは画像処理によって生じる特徴ベクトルの誤差を考慮してのことである。
図3(b)に示す特徴ベクトル算出の際の画像正規化において、正規化前の画像が細長い場合は、正規化の際に画像が(画素を引き伸ばす)大きな変形を受けるため、画素値が変わり、特徴ベクトルに誤差が生じる。このため、前述の距離が大きくなる傾向が見られた。この問題に対処するために、閾値を連結成分の縦横比に依存するようにした。この実施例では、登録時にt=0.08、認識時にt=0.032を用いた。ここで、登録時と認識時の閾値の違いは次節で述べる連結成分の正規化の大きさの違いが一因である。この方策は非常に強力で、データベースに100フォントを登録した場合、撮像角度に依らず、認識率が約7%向上し、処理時間は最大10ms減少することを確認している。
2番目の方策では、図23に示すように、クエリ特徴ベクトルのビット反転によって新たなクエリ特徴ベクトルを作成する。1番目と2番目の方策を同時に用いれば、認識率が撮像角度に依らず約7%、処理時間が撮像角度に依って約0.3%〜4.0%減少することを予備実験により確認した。この実施例では、48次元の特徴ベクトルに対してe=0.002とb=8を用いた。
3番目の方策はハッシュ値の衝突に関する工夫である。実験例2ではハッシュテーブルの一部のビンで大量の衝突が起こることがあった。ハッシュの処理時間は衝突の数に比例するため、衝突が大量に発生すると処理時間が非常に遅くなることがあった。そこでこの変形例では、衝突の数がcより大きくなったビンはc個に間引きくこととした。すなわち、衝突が大量に発生したビンの要素をc個を除いて削除する。この操作により、メモリ使用量と処理時間を大幅に削減できる。
なお、非特許文献7の手法は閾値以上の衝突が起こると、そのビンに登録されている情報を全て削除するため、この発明の手法と若干異なる。非特許文献7の方法をそのまま試したところ、「O」のような円形の字種だけが選択的に認識できなくなった。この原因として、円形の文字ではほぼ全ての特徴ベクトルが同じビンに登録されるため、大量の衝突のためにそのビンの情報が全て削除されると全く認識できなくなることが考えられる。
予備実験により、この方策を単独で用いた場合は認識率が撮像角度によって約12〜17%、処理時間が撮像角度に依らず1/3程度にまで減少することを確認した。実施例ではc=20とした。
8.2. 実験例3
上述した実施態様の有効性を確認するために、最大100フォントを登録したデータベースを用意し、カメラで撮像した様々なフォントの文字画像を認識した。
8.2.1 実験の準備
実験に使用した字種は、大文字と小文字のアルファベットと数字の合計62字種である。参照画像1枚につき8種類の劣化画像を生成するため、100フォントでは合計55800枚の参照画像をデータベースに登録した。認識対象として、図24に示すような、各文字を2回ずつ含み(1枚当たり124文字)、文字が曲線上に並ぶようにレイアウトされた画像を用意した。そして、A4用紙に印刷し、デジタルカメラで0度、30度、45度から撮像したものを手動で切り出して認識対象とした。図24にCenturyの認識対象画像を示す。画像の大きさはそれぞれ1577×2209、1397×2185、1265×2201である。
使用したフォントは、Microsoft Windows 7(登録商標)にインストールされているフォントから選んだ100フォントである。選択の際、ストロークの細いフォントは解像度低下等の影響によって連結成分が2つ以上の成分に分解され易いため、除外した。選択したフォントのうち10フォントを図25に示す。
実験では、登録フォント数を1〜100まで徐々に増加させ、認識率と処理時間の変化を見た。登録フォント数は、1〜10フォントまでは1フォントずつ、それ以降は5フォントずつ増加させた。認識対象を75フォント分しか用意できなかったため、登録フォント数が1〜75フォントまでと80フォント以降では実験方法が若干異なる。75フォントまでは、登録フォントと同じフォントの認識対象を認識した。すなわち、1フォント目はArialをデータベースに登録し、認識対象としてArialの文字画像を認識対象として用いた。2フォント目はArialとCenturyを登録し、同じくArialとCenturyの文字画像を認識した。80フォント以降は登録フォント数に依らず、75フォント全ての認識対象を認識した。
連結成分は登録処理の際に以下の手順でクラス分けした。分離文字を扱うために、登録時に文字を構成する連結成分の数を調べる。2以上あれば、図10に示す分離文字テーブルに2つの連結成分の相対位置や大きさの関係を記載する。認識時に分離文字テーブルを参照し、この条件を満たす連結成分があれば連結成分を統合し、一文字と認識する。
Arialフォントの場合、「i」の下部、「I(アイ)」、「l(エル)」はアフィン歪みを受けると外見が同一になり、識別不能である。「i」を正しく認識するためには、「I」や「l」のように外見が同一である連結成分も「i」の一部であるか調べる必要がある。そのため、アフィン変換によって同一形状になる連結成分を同一クラスとみなすクラス分け処理を行う。これは、参照画像を登録する際に、作成中のデータベースを用いて1枚ずつ認識し、既に類似の連結成分が登録されている場合は同じクラスとみなす処理である。クラス分けによって異なる字種の連結成分が同一クラスになってしまう場合があることに注意が必要である。図26に示す例では、劣化した「c」が「0」と同じクラス1に属しているため、認識時にクラス1であると認識された連結成分が「0」か「c」かを区別できない。このような同一クラス内の字種の判別は後述する単語認識処理に委ねる。
クラス分けの際、この実施態様の説明で述べた2番目の方策、即ち、クエリ特徴ベクトルのビット反転によって新たなクエリ特徴ベクトルを生成する方策は使用しなかった。クラス分けの様子を示す例として、Arialの62字種をクラス分けした結果を表7に示す。
表7には生成された55クラスのうち、2字種以上が属するクラスのみを列挙した。
実験ではCPUがOpteron 2.8GHzで、メモリが32GBである計算機を用いた。画像の登録と認識に要する計算量を削減するため、連結成分の幅と高さの大きい方が、参照画像では100ピクセル、質問画像では50ピクセルになるように正規化した。また、本実験例(8節)において前述していないパラメータはl=4(すなわち、k=16)、Hsize=219-1、D=2、S=10とした。以下で述べる実験例2の実験においても本パラメータを使用するため、手法が同じであっても前節までの結果と完全には一致しない。
8.2.2. 実験結果
まず、認識率と1文字当たりの平均処理時間を図27、図28に示す。図中の「実験例2」は実験例2で用いた手法を表す。認識率については、実験例2による手法は複数のフォントを登録すると認識率が減少したのに対して、提案手法の登録フォント数に依らず、高い水準でほぼ一定であった。処理時間については、実験例3(この実施態様)の手法と実験例2の手法の両方が登録フォント数の増加に伴って処理時間が増加しているが、提案手法の方が傾きが緩やかであった。
この実施態様の認識結果を具体的な数字で見てみると、正面から撮像した文字の認識率は98.4%(実験例2の場合に比べて20.0%の増加)、45度から撮像した場合でも97.9%の認識率(同15.7%の増加)を達成した。処理時間は7.2ms(実験例2の場合の約1/3)で、1秒間に約140文字を認識可能である。したがって、この実施態様で導入した3つの方策は非常に有効であることが確認できた。
次にこの発明のクラス数とメモリ使用量を図29、図30に示す。クラス数は、登録フォント数が1で55クラス、10で397クラス、100で1672クラスであった。クラス数は登録フォント数の増加に伴って単調に増加したものの、増加率は徐々に減少した。これは新規に登録したフォントの一部は、既に登録された参照画像と同じクラスに属したためと考えられる。一方,メモリ使用量は登録フォント数にほぼ比例して増加した。この原因として、クラス数の増加に拘らず、ハッシュテーブルに登録される情報はほとんど変わらない事が考えられる。100フォントの場合のメモリ使用量は約4GBであったが、実装の工夫によってメモリ使用量は大きく減少可能と考えている。
9.単語認識
以上に述べた実施態様は、1文字ごとに認識を行うものである。そのため、文書のどこにどの文字が書かれているかを知ることは出来るが、どんな意味の単語や文章が書かれているのかを知ることは出来ない。情報検索のキーワードは多くの場合単語であるということを考えると単語認識は不可欠である。
この実施態様によれば、英語のように単語間がスペースで区切られて他の単語と区別され、かつ予め定められた読み方向の規則、例えば、左から右に記すという規則に従う言語に対処した単語認識を行う。また、前提条件として文書画像は文字認識の段階で独立変倍とシアーの歪みが取り除かれたものとする。
9.1. 単語認識機能付装置の概要
この実施態様では実時間の文字・単語認識技術を利用した情報取得アプリケーションの実現性、有用性を実証するため発明者らが作成した単語認識機能付のパターン認識装置(以下、実証システム)について説明する。
雑誌の記事や街頭の看板など、環境中には至る所に文字が存在し、それぞれが目的地への経路や商品の宣伝のような何らかの意味を持った情報を人に伝えている。そのような環境中文字をカメラで撮影し、実時間でコンピュータに認識させれば様々なサービスが見込める。情景中の文字を用いるパターン認識装置では特別な準備が必要なく、気軽に使えるという利点がある。実世界の単語が各種サービスとリンクしていることから、前記パターン認識装置の機能を我々は「環境中文字列のリンクアンカー化」と呼ぶことにした。
ここで、実証システムの概要を説明する。実証システムの概要を図31に示す。実証システムは市販のノートパソコンと小型カメラで動作し、持ち運んで使用できる。対象となる文書は白紙に黒色で文字が印刷されたものであり、レイアウトは任意である。カメラで用紙を撮影すると以下の処理や出力が毎フレーム、リアルタイムで行われる。まず、キャプチャ画像(図31の丸囲みのA、以下同じ)から文字領域が抽出され、文字が認識される。抽出された文字領域は画面上では緑色で表示され、認識結果は1文字ごとに領域の中心に重畳される (図31のB)。射影歪みに頑健な文字認識のため、斜めからの撮影にも対応し、撮影で生じた文字の歪みのパラメータを文字認識時に推定し、結果画像に歪みを反映することができる。例えば、正面から撮影されたときよりも細長く映っている文字の上には同じ度合いだけ細くなった結果文字が重畳される。次にこの発明によって単語領域が抽出され、キャプチャ画像中に含まれる単語が求められる。画面上では単語領域が紫色で表示される。この処理で得られた単語が情報検索のキーワード、つまり「リンクアンカー」であり、あらかじめリンク付けしておいた各種情報にアクセスできる。
この実証システムでは、ユーザーに提供するサービスの例として翻訳、画像表示、音声案内の3種類を実装した。翻訳の機能とは認識した英単語を英和辞典サーバーに送信し、訳語をコンソール上に表示 (図31のC) するものである。画像表示については国名の単語に国旗と観光名所の画像をリンクさせ、カメラで撮影すると画像ウィンドウ (図31のD) が開くようにした。同様に、音声案内の例では動物の単語にその動物の鳴き声をリンクさせた。
同一の単語でもフォントの違いによって異なるリンクを貼ることもでき、この実証システムでは例として Arial の場合のみ動物の単語を撮影すると鳴き声の代わりに写真を提示するようにした。フォント別サービスの応用例としては強調して書かれた文字を見つけたときにユーザーに知らせる機能などが考えられる。
キャプチャ画面に含まれる全てのリンクアンカーの情報を提示することもできるが、場合によっては雑多な情報をユーザーが受け取ることになってしまうため不便である。そこで、実証システムではユーザーにとって有益な情報のみを取り出せるよう、任意の単語が選択できるモードを用意した。キャプチャ画面中央にカーソルが表示 (図31のE) されるので、これを任意の単語領域に合わせて選択する。選択した単語領域は色が強調されたり別ウィンドウに文字列が表示 (図31のF) されたりする。クリックしてサービスにアクセスできる他、単語がカーソルに重なると自動的にアクセスすることもできる。
9.2. 文字認識手法の概要
今回、実証システムで用いたカメラベース文字認識は第2.3節で上述した手法を基礎とし、さらに第8節の変形例を取り入れた手法である。連結成分ごとの認識では ‘N’,‘Z’,‘z’など、互いにアフィン変換の関係にある文字を識別することができないため、そのような文字群は図32のように同クラスとみなし、認識時にはクラスに属する複数の文字を結果候補として出力する。文字単位認識のみではクラスレベルまでの識別しか行えないが、次節で述べる単語認識の段階で1字種レベルでの識別を行う。しかし、アフィン変換の関係にある文字の組み合わせはフォントによってまちまちであるため、登録させるフォントの種類が増えるにつれ、手動でのクラス分類は困難になる。そこで、我々の手法では文字の登録時に自動的にクラス分類を行う。文字画像がデータベースに新たに追加されるとき、既にデータベース中に存在する文字画像とのマッチングを行い、類似した文字画像が見つかった場合には新たに登録された文字をその類似文字のクラスに分類するという方法である。
以上のように作成したデータベースを用いて認識を行うと連結成分をクラスレベルで識別することができる。このとき同時に文書画像の紙面および文字の姿勢がアフィン変換パラメータとして得られる。アフィン変換パラメータは独立変倍、シアー、回転、スケーリングに分けて推定される。全ての文字が同一平面の紙面に書かれていると仮定すると、独立変倍とシアーは紙面上の全ての連結成分において共通であり、これを利用して紙面の歪みを取り除くことが出来る。回転は各文字ごとに得られ、回転は単語認識処理に利用される。スケーリングも文字ごとに得られるパラメータであるが、この実証システムでは単語認識には利用しない。なお、‘i’,‘j’のような複数の連結成分で構成される文字は登録時に連結成分同士のクラスや位置関係などを記録し、認識時にクラスを識別した後に統合して1つの文字に復元する。
ここまでに書いた処理により1文字ごとのクラスおよびその姿勢を知ることが出来たが、この実証システムにおいては、どの文字の姿勢が尤もらしいか推定し、複数の文字を含むクラスから最終的な結果1文字を決定する処理は次節の単語認識の段階で行う。
9.2. 単語認識
9.2.1. 問題設定
この実証システムは、英語のように単語間がスペースで区切られ、かつ左から右に記される言語に対処した単語認識を行う。また、前提条件として文書画像は文字認識の段階で独立変倍とシアーの歪みが取り除かれたものとする。我々は文字の向きを利用して文書中の文字を連結し、尤もらしい単語を求める手法を提案する。「文字の向き」とは 9.1節の文字認識で求められる回転のパラメータを指す。文字行を利用して文字の並びを推定する前記非特許文献4では文字行が平行な直線である文書に限って認識可能であるが、この発明では図1、図21及び図33のような文字行を成さない文書にも対処できることである。
9.2.2. 単語認識手法
最初に画像中のどの領域が1つの単語であるのかを推定する。図34のように文書画像にある程度のぼかしを掛けて二値化すると、隣接する文字同士が結合し、スペースで区切られた部分のみが分割したままの状態になる。よって、ぼかし画像の連結成分を抽出することで単語の領域を推定することが出来る。適切なぼかしの度合いはキャプチャ画像中の文字の間隔と太さによって変化するため、この実証システムでは文字間の距離および各文字の面積を計算し、それに比例したぼかしの度合いを逐次的に決定する。文字間の距離とはキャプチャ画像中の各文字から最近傍の位置にある文字とのユークリッド距離を求め、平均したものである。面積とは連結成分の画素数であり、これも平均値を用いる。ぼかしはガウシアンフィルタを用い、平均文字間距離を d、平均面積を a とすると、ガウシアンの標準偏差 σ は σ=200 × d/a とした。また、ぼかした画像の二値化処理には OpenCV の適応二値化を用いた。
そして元の文書画像とぼかし画像の座標を照らし合わせて各文字がどの単語領域内に含まれるかを調べ、それぞれの単語を構成する文字を決定する。図34を例に挙げると、単語領域 2 から抽出される文字は文字番号1から5である。この段階での「文字」は先の文字認識処理によってクラスレベルでの識別が終了した状態であり、未だ各文字ごとに複数の字種の候補を持つ。今回の説明では、文字番号1のクラスには ‘M’と‘W’の2つ、文字番号3のクラスには‘d’と‘p’の2つの字種を含み、それ以外は1字種のみで構成されたクラスであるとする。
次に、単語ごとに文字の並び順と字種を推定する。情景中の文字列には様々なレイアウトが存在するが、いずれも人に読んでもらい、誘導するためにデザインされたものであるため、文字の並びや向きが急激に変化することはないと仮定できる。この実証システムではこの仮定を用いて単語内の文字の並びと字種を推定する。
単語内の文字の並び順の推定について述べると、例えば図34の単語領域 2 の単語を 文字番号"4, 5, 1, 2, 3” などと途中で急に離れた場所の文字を読むようなケースは仮定に当てはまらない。この実証システムでは尤もらしい並びを求める方法として、単語内に含まれる文字を最短で1度ずつ通るものを選択、つまり最短経路問題をダイクストラ法で求める。経路は文書画像上の各文字を直線で結んだものであり、コストは文字間のユークリッド距離を意味する。結果としては "1, 2, 3, 4, 5" およびその逆順 "5, 4, 3, 2, 1" が最短経路として得られる。
次に、求まった順番通りに各文字の字種の候補を組み合わせて単語の候補を挙げる。図35は推定された並び順に単語領域 2 の各文字の候補を挙げたグラフである。図中の数値および「仮定した上方向」は後述する。文字番号1から順に、また逆に文字番号5からも順にグラフを辿って字種を組み合わせると、"Media"、"Wepia"、"aideM"などが挙げられる。もし、単語領域 2 の単語を "Wepia" と読もうとすると‘W’と‘p’が他の文字と比べて約180度回転することになり、先述の仮定を考えると適した配置とは言えない。また、文字の方向が揃っていたとしても "aideM" は右から左へ読むことになるため、これも適さない。そこでこの実証システムでは文字の向きに関するペナルティ(負の評価指標)を2種類設けて尤もらしい単語候補を求める。ペナルティの計算には文字認識段階で得られる文字の回転角を利用する。回転角はキャプチャ画面の上方向を 0 度として右回転を正とする。図35の各字種の下の数値は向きを示す。
1つ目のペナルティは「文字の向きは急激に変化しない」という仮定に基づき、文字のノードを辿る際に加算される。1つ前の文字との回転角の差が小さいほど文字の向きが揃っていると言えるのでこの角度差をペナルティとする。角度差の定義域は 0°〜 180°である。例えば図35において‘e’、‘d’と進んだとき、2つの文字の向きは 3°違うため、ペナルティとして3を加算する。経路の中には何度も大きなペナルティが加算されるような組み合わせが存在するが、その場合は途中で計算を打ち切り、候補から除外することで処理時間の増加を抑える。
2つ目のペナルティは「単語は左から右に読む」というルールに関するものである。単語領域2の単語を例に取り、考え方を図36で示す。"Media"のように単語を文字番号1から順に読むとすると、図36(a) のように1文字目から2文字目への方向が右方向と仮定できる。すると上方向はそれと直角な方向と仮定できる。上方向と1文字目の候補の角度との差が小さいほど尤もらしい文字であると言えるため、この差の値をペナルティとする。図35において「仮定した上方向(1)」および次ノードとの間のペナルティが計算されることになり、上方向が -35°だったとすると文字番号1が‘M’の場合ペナルティは 5、‘W’の場合は175である。"aideM"のように単語を文字番号5から順に読むと仮定したときは図36(b) のように上方向が仮定され、図35における「仮定した上方向(2)」が求まることになる。
以上のように文字候補の組み合わせごとにペナルティの合計を求めた後、昇順にソートすることで尤もらしい文書中の単語が推定できる。例で用いた単語領域 2 の場合、"Media"がペナルティ 17 で最小であった。1文字ごとの認識では区別できなかった‘d’と‘p’のような同一クラスの字種も単語認識の段階で文字レベルで区別されるようになった。しかし、‘0’と‘O’のように互いに拡大縮小の関係にあり、向きが類似する字種についてはペナルティがほぼ等しくなり、尤もらしい字種の決定が困難である。我々の対処方法はペナルティの小さい複数の候補を全て情報検索のキーワードとして用い、リンクが貼られたものがあれば、それが尤もらしい単語であると見なして字種の決定やリンク先へのアクセスを行うというものである。また、将来的には誤認識の文字が含まれる単語でもあいまい検索によりアクセスが出来る機能を検討している。
9.1節でフォント別の情報提供を行う機能を紹介したが、この実証システムでは簡易的な方法で単語単位のフォント推定を行う。ペナルティの計算をしながら文字を探索する際、各ノードに字種と回転角の他にフォント情報も保持し、1文字辿るごとにフォントのヒストグラムに投票する。そして、終端の文字までたどり着き、単語の候補が1つ生成された時点で最頻であるフォントをその単語のフォントと推定する。将来的にはフォントに関するペナルティも設け、隣接する文字とフォントが同じであるかどうか考慮しながら推定を行い、フォント識別の精度を向上させる必要がある。
9.3. 実験例4
この実施態様の有効性を確認するため、カメラで撮影した文書の単語を認識する実験を行った。用いた計算機は CPU が Opteron 2.8GHz、メモリが 16GB である。実験ではデータベースに登録したフォントの種類が増えたときに認識精度や処理時間がどのように変化するのかを調べた。
フォントは図25に示す 10種類を対象とし、1 〜 10 種類のフォントを登録したデータベースをそれぞれ作成し、認識を行った。1種類の場合は Arial のみ、2種類の場合は Arial と Centuryのように上から順にデータベースの作成と認識に用いた。各フォントで登録される字種はアルファベットの大文字と小文字、および数字の計 62 種である。
文字登録時にはカメラ撮影時のピンぼけや解像度の低下に対処するため、前記生成型学習法を用いる。本実験ではガウスぼかしを3段階、解像度低下を3段階 (ただし、ぼかし無し・解像度変化無しの段階も含む) の計9段階の劣化を適用した。そのため、10フォントでは文字画像 5,580 枚分のデータが登録されることになる。
認識対象は図37に示す文書であり、144 文字、30 単語の英文が曲線上に並べて書かれている。ただし、文書に1つ含まれる冠詞の "a" は単語認識処理を行う必要が無いため、単語数には含んでいない。この文書をデータベースと同じフォントで計 10枚、A4用紙に印刷した。この用紙を正面に対して 0度、30度、45度の角度をつけてカメラで撮影した。図37(a)〜(c) に Arial の場合の撮影画像を示す。Arial の文書を 0度から撮影した場合、画像サイズが 1,633 × 2,333 ピクセル、1文字あたりの平均サイズが 58.2 × 48.0 ピクセルであった。
文字ごとにクラスレベルの認識を行った後、単語の候補を挙げて 4.2 節で述べたペナルティを昇順に並べた。そして、各単語について最小ペナルティの単語1個のみ、または上位10個までの単語を見たときに正解の単語が含まれるかどうかを調べて単語認識率を求めた。なお、先述の通りこの実施態様では大文字と小文字が拡大縮小の関係にある字種を区別することが困難なため、単語中の‘C’,‘O’,‘S’,‘V’,‘W’,‘X’,‘Z’については大文字と小文字の違いがあっても正解とした。フォントの推定は性能評価の対象とせず、字種のみの比較とした。なお、予備実験でフォントも比較したところ、0 度から撮影した文書 10フォント分の単語認識率は最小ペナルティのみを見た場合で 60.0%、 上位 10単語を見た場合で 72.0%であった。
図38に1単語あたりの処理時間を示す。処理時間は単語認識に要した時間であり、文字認識は含んでいない。データベースに登録したフォント数によって処理時間に大きなばらつきがあり、フォントの種類によって処理時間はまちまちであることが分かった。10フォント、0 度の場合、処理時間は 6.14 ミリ秒であった。処理時間増加の要因としては登録画像の増加によって1クラスあたりの字種の数が増え、ペナルティの計算量が増加したためと考えられる。Arial を登録した時点で同一クラスとなった文字群は、第8.2節の表7に示すとおりである。
次に、単語認識の結果を図39に示す。グラフにはペナルティの小さい順から1位の単語のみを見たときの正解率と10位までの単語を見たときの正解率が撮影角度別で描かれている。概ね扱うフォント数の増加に伴い認識率が低下したが、10位までの単語を調べることで1位のみ調べるよりも平均9.7%上昇し、10フォント、0度で 92.3%の認識率が得られた。1位のみで正解の単語がカバーできない原因は同クラスで向きが類似した不正解文字の方がより小さいペナルティを得たためである。なお、20位までを調べた場合は 10位の場合より平均 0.4%の上昇に留まったため、これ以上はペナルティの逆転以外の要因による認識失敗である。単語認識の失敗例としては文字単位でのクラス絞り込みに失敗したことや単語領域の取得に失敗したことが挙げられる。単語領域の取得失敗の例を図40(a)に示す。文字列を囲む枠線は推定した単語領域の輪郭を表し、"estimate"の‘e’とそれ以外の文字が過分割されてしまっている。この単語を認識できるように画像のぼかしを強くすると別の文書画像においてスペースを隔てて複数の単語が結合してしまうことを確認した。そのため、ぼかしの強さの決定法を変えること、もしくは画像をぼかす方法以外で単語領域を取得することが今後の課題となる。
図41は検証のために文字単位での認識率を求めたものである。クラスレベルでの認識を行い、得られたクラスの中に正解の字種が含まれていた場合に認識成功と見なした。文字認識失敗の例としてはデータベースのデータ数が増加したことによる誤認識や図40(b)の‘t’と‘u’のように隣接した文字と連結成分が統合されて文字単位の認識が不可能となったことが挙げられる。文字単位の認識が1つ失敗すると、たとえ他の文字の認識が成功していても1単語の認識が不可能になってしまうため、単語認識の精度には文字単位での認識精度が非常に大きく関わると言える。単語認識率向上のためには文字認識技術の改良や、単語辞書を用いた文字認識誤りの訂正ならびに正解単語の推定が重要である。
最後にアプリケーションの利便性に関わるその他の性能について述べる。単語認識処理に要する時間は図38に示した通りであるが、文字認識処理に要する時間は 10フォント、0 度の場合で1文字あたり 3.44 ミリ秒であった。5文字で1単語の文書を認識させた場合、文字認識5回分と単語認識を合わせて23.34 ミリ秒となり、1 秒間に約 42 単語を処理できることになる。これにより市販のノートパソコンとカメラでも実時間で動作するインタフェースが実装可能と言える。図42はデータベースを読み込んだときのメモリ使用量である。なお、10フォントの英数字を扱うために要したメモリ使用量は、約 397 MB であった。
以上のように、実時間で文字やピクトグラム等のパターンを認識することができる単純だが効果的な手法が提供される。すなわち、(1)実時間処理が可能であること、(2)幾何学的歪みに対応すること、(3)様々なレイアウトのパターンが認識可能であること、といった3つの課題を同時に解決し得るパターン認識手法が実現される。この明細書には具体的数値を示していないが、前記パターン認識手法に基づくこの発明のパターン認識装置はwebカメラと接続したノートパソコン上で実現することができ、実時間で動作することができる。
また、実施形態の第8節では、より高速かつ頑健な近似最近傍探索手法を導入した。これにより、データベースに100フォント(登録画像総数は55800枚)を登録し、認識対象の文字画像に劣化(射影歪みや解像度の低下、ぼけ)が生じるという条件の下で1秒間に140文字程度を認識することが可能になった。
さらに、環境中文字列をリンクアンカー化する実証システムを作成して動作させた。前記実証システムにおいて利便性を考慮した単語認識手法を提案し、実験によって有効性を示した。
11 画像登録部
13 画像認識部
15 データベース

Claims (10)

  1. 少なくとも1片のパターン要素から構成され、幾何学的変換を受けたクエリ画像からその少なくとも1片のパターン要素を切り出す切り出し部と、
    前記パターン要素の中にあってそのパターン要素から所定の規則に基づいて特定される第1、第2および第3特徴点を含む少なくとも3つの特徴点により表される前記パターン要素の特徴であって前記幾何学的変換に対し不変な特徴をクエリ特徴量として取得する特徴量取得部と、
    パターン認識の候補として用意された複数の異なる参照パターンの特徴をそれぞれ表す複数の参照特徴量と前記クエリ特徴量とを照合する照合部と、
    照合された特徴量の類似性に基づいて、前記候補の中から特定された参照パターンを認識結果として決定するパターン決定部とを備え、
    各参照特徴量は、前記規則に基づいて各参照パターンから決定される特徴点を用いて表され、
    前記規則に基づき、前記第1特徴点の位置は前記パターン要素の中にあって前記幾何学的変換に対して不変な点に特定され、前記第2特徴点の位置は前記パターン要素の形状に関する性質であって前記幾何学的変換に対し不変な性質を用いて特定され、前記第3特徴点の位置は前記幾何学的変換に対し不変な所定量と決定された第1および第2特徴点の位置とから特定されることを特徴とするパターン認識装置。
  2. 前記第1特徴点の位置は、前記パターン要素の輪郭上の画素の中から特定される請求項1に記載のパターン認識装置。
  3. 前記性質は、前記幾何学的変換の一種としてのアフィン変換に対して重心が不変な性質であり、
    第2特徴点の位置は、前記性質を用い、前記パターン要素の重心として特定される請求項1または2に記載のパターン認識装置。
  4. 前記性質は、前記幾何学的変換の一種としてのアフィン変換に対して面積比が不変な性質であり、
    第3特徴点の位置は、前記パターン要素の輪郭の中から特定され、かつ、前記性質を用い、前記パターン要素の面積と前記第1、第2および第3特徴点を頂点とする三角形の面積との面積比の所定値に基づいて特定される請求項1〜3のいずれか一つに記載のパターン認識装置。
  5. 前記特徴量取得部は、前記第1乃至第3特徴点のうち2点をそれぞれ結ぶ2本の一次独立なベクトルを基底とする座標系であって前記幾何学的変換に対し不変な座標系を用いて前記幾何学的変換に対し不変な特徴を取得する請求項1〜4のいずれか一つに記載のパターン認識装置。
  6. 前記照合部は、対応する参照パターンと関連付けられてハッシュテーブルに登録された参照特徴量と前記クエリ特徴量との照合を行い、
    前記ハッシュテーブルは、複数のビンを有してなり、
    各参照特徴量はその参照特徴量につき予め定められたハッシュ関数を計算して決定される一つのビンに予め分類されて登録され、
    前記照合部は、前記クエリ特徴量につき前記ハッシュ関数を計算して得られるインデックスを用いて適当なビンを参照し前記照合を行う請求項1〜5のいずれか一つに記載のパターン認識装置。
  7. 各参照特徴量は、前記第1乃至第3特徴点の座標データに対応付けられ、かつ、前記参照特徴量に対応する参照パターンの識別子に対応付けられて前記ビンに登録されてなり、
    前記パターン決定部は、前記クエリ特徴量に関連付けられた各座標データと、参照されるビンに登録され各参照特徴量に関連付けられた座標データとの照合に基づき、かつ、それらの照合の多数決処理に基づいて前記クエリ画像の姿勢を推定する請求項6に記載のパターン認識装置。
  8. 前記パターン決定部は、少なくとも一組の分離パターンが登録された分離パターン表を有し、各分離パターンは前記参照パターンの一つに対応し前記一組の分離パターンは一つの認識結果を提供し、前記分離パターン表を参照して前記候補の中から特定された参照パターンとその組の一つの分離パターンとの間の対応関係が存するか否かを判断し、
    前記対応関係が存しかつその組の他のすべての分離パターンについての対応関係が既に存するとき、前記特定された参照パターンに対応する分離パターンが属する組により提供されるものを認識結果とする請求項1〜7のいずれか一つに記載のパターン認識装置。
  9. 前記分離パターン表には、その組のある分離パターンと他の分離パターンとの間の相対位置が登録されてなり、
    前記パターン決定部は、ある特定された参照パターンに対応する分離パターンについて登録された相対位置によって定まる位置に他の特定された参照パターンがあるときに認識結果を決定する請求項8に記載のパターン認識装置。
  10. 前記クエリ画像は、複数の文字からなる単語のパターンを含んでなり、
    前記パターン決定部により認識された各文字を1度ずつ通る最短の経路を求め、求められた経路の順及び逆順をそれぞれ単語の候補とする単語候補決定部と、
    前記クエリ画像における所定方向に対する各文字の回転角を求める回転角決定部と、
    前記経路の順又は逆順に沿って隣接する2文字間の回転角の差を第1の評価指標とし、各候補の何れか一端を第1文字としたとき第1文字に隣接する第2文字へ向かう方向と予め定められた読み方向の規則とに基づいて前記第1文字がとるべき回転角を推測し、推測された回転角と前記回転角決定部により決定された第1文字の回転角との差を第2の評価指標とし、第1及び第2の評価指標を最小化する候補を選択することによりその単語を構成する文字の読み順を決定する読み順決定部とをさらに備える請求項1〜9のいずれか一つに記載のパターン認識装置。
JP2010550519A 2009-02-10 2010-02-09 パターン認識装置 Expired - Fee Related JP5522408B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010550519A JP5522408B2 (ja) 2009-02-10 2010-02-09 パターン認識装置

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009029031 2009-02-10
JP2009029031 2009-02-10
JP2009163924 2009-07-10
JP2009163924 2009-07-10
JP2010550519A JP5522408B2 (ja) 2009-02-10 2010-02-09 パターン認識装置
PCT/JP2010/051889 WO2010092952A1 (ja) 2009-02-10 2010-02-09 パターン認識装置

Publications (2)

Publication Number Publication Date
JPWO2010092952A1 true JPWO2010092952A1 (ja) 2012-08-16
JP5522408B2 JP5522408B2 (ja) 2014-06-18

Family

ID=42561794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010550519A Expired - Fee Related JP5522408B2 (ja) 2009-02-10 2010-02-09 パターン認識装置

Country Status (4)

Country Link
US (1) US8422793B2 (ja)
JP (1) JP5522408B2 (ja)
CN (1) CN102388392B (ja)
WO (1) WO2010092952A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120162246A1 (en) * 2010-12-23 2012-06-28 Sap Portals Israel Ltd. Method and an apparatus for automatic capturing
US8379979B2 (en) * 2011-02-25 2013-02-19 Sony Corporation System and method for effectively performing a scene rectification procedure
JP5768590B2 (ja) * 2011-08-22 2015-08-26 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP6098065B2 (ja) * 2011-09-13 2017-03-22 株式会社リコー 画像検査装置、画像検査方法、及びプログラム
AU2011226985B2 (en) * 2011-09-30 2014-05-01 Canon Kabushiki Kaisha Image retrieval method
JP2015035006A (ja) 2012-04-26 2015-02-19 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 複数の要素の結合結果を識別する情報処理装置、プログラムおよび方法
CN104584071B (zh) * 2012-08-23 2018-01-26 日本电气株式会社 物体识别装置、物体识别方法
TWI443346B (zh) * 2012-09-14 2014-07-01 Chunghwa Telecom Co Ltd 電器設備識別系統及方法
CN102945373A (zh) * 2012-10-24 2013-02-27 中国科学院自动化研究所 基于上下文的局部空间信息建模方法
US9076223B1 (en) * 2012-12-11 2015-07-07 The Mathworks, Inc. Fast stopping criterion for active contour algorithms
US8888005B2 (en) 2013-04-12 2014-11-18 David Prokop Uniquely identifiable drug dosage form units
US9280827B2 (en) * 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
AU2013273778A1 (en) * 2013-12-20 2015-07-09 Canon Kabushiki Kaisha Text line fragments for text line analysis
CN108133492B (zh) * 2016-12-01 2022-04-26 京东方科技集团股份有限公司 图像匹配方法、装置和系统
CN110268224A (zh) * 2017-02-10 2019-09-20 深圳市大疆创新科技有限公司 用于无人机实时位置跟踪的系统和方法
US20180349110A1 (en) * 2017-05-31 2018-12-06 Wipro Limited Method and layout identification system for facilitating identification of a layout of a user interface
CN110942064B (zh) * 2019-11-25 2023-05-09 维沃移动通信有限公司 图像处理方法、装置和电子设备
CN111783770B (zh) * 2020-01-16 2024-05-24 北京沃东天骏信息技术有限公司 图像的矫正方法、装置和计算机可读存储介质
US20210374141A1 (en) * 2020-05-29 2021-12-02 Soco, Inc. Question answering retrieval via sparse transformer matching
KR102378659B1 (ko) * 2021-02-23 2022-03-25 주식회사 포스로직 패턴 이미지 검출 방법 및 패턴 이미지 검출 장치
CN113570682B (zh) * 2021-08-02 2024-05-07 北京经纬恒润科技股份有限公司 一种直角路由方法和装置
CN117370591B (zh) * 2023-12-07 2024-04-12 粤港澳大湾区数字经济研究院(福田) 基于点集表示的矢量图识别方法、装置、终端及存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5054094A (en) 1990-05-07 1991-10-01 Eastman Kodak Company Rotationally impervious feature extraction for optical character recognition
JPH0628476A (ja) 1992-07-09 1994-02-04 Nec Corp 画像信号の処理装置
US6539106B1 (en) * 1999-01-08 2003-03-25 Applied Materials, Inc. Feature-based defect detection
JP4507318B2 (ja) 1999-12-03 2010-07-21 曙機械工業株式会社 裁断機
JP3914864B2 (ja) 2001-12-13 2007-05-16 株式会社東芝 パターン認識装置及びその方法
US7200270B2 (en) 2001-12-13 2007-04-03 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method using distributed model representation of partial images
JP2005084765A (ja) 2003-09-05 2005-03-31 Univ Of Fukui 文字認識装置及び方法及びそのプログラム
US7734067B2 (en) * 2004-12-07 2010-06-08 Electronics And Telecommunications Research Institute User recognition system and method thereof
US8036497B2 (en) 2005-03-01 2011-10-11 Osaka Prefecture University Public Corporation Method, program and apparatus for storing document and/or image using invariant values calculated from feature points and method, program and apparatus for retrieving document based on stored document and/or image
EP1914680A4 (en) * 2005-03-01 2012-10-24 Univ Osaka Prefect Public Corp DOCUMENT / IMAGE PROCEDURE AND PROGRAM, AND DOCUMENT / IMAGE RECORDING AND SEARCH APPARATUS
JP4859061B2 (ja) 2007-03-07 2012-01-18 公立大学法人大阪府立大学 画像の補正方法、補正プログラムおよび画像歪み補正装置
JP4336729B2 (ja) 2007-03-28 2009-09-30 シャープ株式会社 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理プログラムおよびその記録媒体
US7991189B2 (en) 2007-03-28 2011-08-02 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
KR101247891B1 (ko) 2008-04-28 2013-03-26 고리츠다이가쿠호징 오사카후리츠다이가쿠 물체 인식용 화상 데이터베이스의 작성 방법, 처리 장치 및 처리용 프로그램

Also Published As

Publication number Publication date
JP5522408B2 (ja) 2014-06-18
US20120230592A1 (en) 2012-09-13
WO2010092952A1 (ja) 2010-08-19
CN102388392B (zh) 2013-09-11
CN102388392A (zh) 2012-03-21
US8422793B2 (en) 2013-04-16

Similar Documents

Publication Publication Date Title
JP5522408B2 (ja) パターン認識装置
Shi et al. Aster: An attentional scene text recognizer with flexible rectification
Tian et al. Multilingual scene character recognition with co-occurrence of histogram of oriented gradients
Ye et al. Text detection and recognition in imagery: A survey
US8744196B2 (en) Automatic recognition of images
Shahab et al. ICDAR 2011 robust reading competition challenge 2: Reading text in scene images
JP4332556B2 (ja) 文書・画像検索方法とそのプログラム、文書・画像登録装置および検索装置
TWI321294B (en) Method and device for determining at least one recognition candidate for a handwritten pattern
JP2018136926A (ja) コンテナコード認識のための方法及びシステム
CN111783757A (zh) 一种基于ocr技术的复杂场景下身份证识别方法
Tian et al. Scene Text Detection in Video by Learning Locally and Globally.
Zhu et al. Deep residual text detection network for scene text
Wang et al. Logo detection in document images based on boundary extension of feature rectangles
CN111340020A (zh) 一种公式识别方法、装置、设备及存储介质
CN110569818A (zh) 一种智能阅读学习方法
Sahare et al. Robust character segmentation and recognition schemes for multilingual Indian document images
Liu et al. Scene text recognition with high performance CNN classifier and efficient word inference
Xiong et al. Text detection in stores using a repetition prior
Fornés et al. A keyword spotting approach using blurred shape model-based descriptors
CN116343237A (zh) 基于深度学习和知识图谱的票据识别方法
JP3917349B2 (ja) 文字認識結果を利用して情報を検索する検索装置および方法
JP5004082B2 (ja) 文書画像検索方法、文書画像登録方法、そのプログラムおよび装置
CN107341429A (zh) 手写粘连字符串的切分方法、切分装置和电子设备
Yang et al. Intelligent digitization of substation one-line diagrams based on computer vision
CN111213157A (zh) 一种基于智能终端的快递信息录入方法及录入系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140325

R150 Certificate of patent or registration of utility model

Ref document number: 5522408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees