JP2017162179A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2017162179A
JP2017162179A JP2016045918A JP2016045918A JP2017162179A JP 2017162179 A JP2017162179 A JP 2017162179A JP 2016045918 A JP2016045918 A JP 2016045918A JP 2016045918 A JP2016045918 A JP 2016045918A JP 2017162179 A JP2017162179 A JP 2017162179A
Authority
JP
Japan
Prior art keywords
image
edge
unit
character recognition
ocr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016045918A
Other languages
English (en)
Other versions
JP6669390B2 (ja
JP2017162179A5 (ja
Inventor
譲 大久保
Yuzuru Okubo
譲 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016045918A priority Critical patent/JP6669390B2/ja
Priority to US15/446,404 priority patent/US10373329B2/en
Publication of JP2017162179A publication Critical patent/JP2017162179A/ja
Publication of JP2017162179A5 publication Critical patent/JP2017162179A5/ja
Application granted granted Critical
Publication of JP6669390B2 publication Critical patent/JP6669390B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

【課題】OCR処理に良好な画像を自動で選択する。
【解決手段】情報処理装置は、被写体の一部を撮影して得られた画像を取得し、その画像に含まれる特定領域のエッジ量を算出する。そして、算出された特定領域におけるエッジ量が第1の閾値よりも大きい場合、その取得した画像に含まれる特定領域に対して文字認識処理を実行する。
【選択図】図7

Description

本発明は、文字認識処理を行う対象の画像を決定する技術に関する。
従来、紙文書の画像に対して光学文字認識(OCR:Optical Character Recognition)処理を行なうことで、画像に含まれるテキスト情報を取得して利用することが行なわれている。また、近年、カメラ機能を持つモバイル端末が普及してきている。従来、ユーザーは紙文書を電子的に取り込むためにスキャナなどを利用していたが、モバイル端末のカメラを利用することで簡単に紙文書を電子的に取り込むことが出来るようになった。このため、モバイル端末のカメラで撮影した紙文書の画像にOCR処理を行なうことが行なわれている。
OCR処理によって認識されたテキスト情報を利用する場合、OCR精度が重要となる。しかし対象物に接近して取り込める名刺や免許証などの画像に対するOCR精度に比べ、A4またはA3のような比較的大きなサイズの紙文書をカメラで撮影することで得られた画像に対しては、OCR精度が低くなる。これは、カメラと対象物との距離が離れることにより、認識しようとするテキストの1文字当たりの解像度が低下するからである。そこでA4やA3のような比較的大きなサイズの紙文書の場合、認識対象のテキスト領域に接近して撮影することで得られた画像を取り込むことでOCR精度の向上が可能となる。しかしながら、単に接近して撮影するだけでは、撮影画像のブレが発生しやすくなり、OCRに適した手ブレの少ない画像を撮影することが難しい。
特許文献1は、モバイル端末のカメラを利用して写真を撮影し、その写真が合格か否かを判定する技術を開示している。特許文献1の技術は、モバイル端末のカメラを利用して得られた画像データのエッジ情報などが予め定めた条件と合致した画像を、合格と判定する技術である。
特開2010−277442号公報
OCR処理は、画像全体に対して行なうよりも、画像中の処理対象の候補となる領域に範囲を絞って行なう方が効率的である。特許文献1の技術は画像全体のエッジ情報が所定の条件と合致した画像を合格と判定する技術であるので、特許文献1の技術では、撮影した画像のうちの所望とする領域(例えば文字領域)にブレが生じているか否かを正しく判定できない。
本発明に係る情報処理装置は、被写体の一部を撮影して得られた画像を取得する取得手段と、前記画像に含まれる特定領域のエッジ量を算出する算出手段と、前記算出された前記特定領域におけるエッジ量が第1の閾値よりも大きい場合、前記画像に含まれる前記特定領域に対して文字認識処理を実行する文字認識手段とを有することを特徴とする。
本発明の情報処理装置によれば、OCR処理に良好な画像を自動で選択することができる。
モバイル端末の外観の一例を示す図である。 モバイル端末のハードウェア構成の一例を示す図である。 モバイル端末のソフトウェア構成の一例を示す図である。 モバイルアプリのUIの一例を示す図である。 全体画像と局所画像の一例を示す図である。 モバイルアプリを用いて被写体を撮影して得られた画像から文字認識処理の結果を得る処理を説明する。 図6のステップS601の画像選択処理の詳細を示す図である。 モバイルアプリのUIに候補領域を表示する一例を示す図である。
以下、本発明を実施するための形態について図面などを参照して説明する。なお、実施形態は、本発明を限定するものではなく、また、実施形態で説明されている全ての構成が本発明の課題を解決するための手段に必須であるとは限らない。
(第1実施形態)
[外観]
本実施形態に係る情報処理装置の一例として、モバイル端末を例に説明する。モバイル端末は、携帯通信端末の一例であり、無線通信機能などを実装しており自由な場所で利用できる端末である。
図1は、モバイル端末の外観の一例を示す図である。図1(a)はモバイル端末100の表側のモバイル端末前面部101を示す。モバイル端末前面部101にはタッチパネル102が備わっている。タッチパネル102は、ディスプレイ等の表示部の一例であり、出力(表示)と入力との2つの機能を備えている。図1(b)は、図1(a)のモバイル端末100の裏側のモバイル端末背面部103を示す。モバイル端末背面部103は画像を取り込むためのカメラ104を備える。図1(c)は、モバイル端末100のカメラ104で画像を撮影する対象の被写体105を示す。本実施形態では、モバイル端末100のユーザーは、被写体105を後述のモバイルアプリを通じて撮影することによって処理を開始することができる。本実施形態で説明する被写体105は、例えば、紙文書の注文書である。被写体105は、紙文書だけに限らず、名刺、写真、ホワイトボードなどの、他の種類の被写体であっても良い。後述のモバイルアプリは、被写体105の画像を取り込み、タッチパネル102にその画像を出力することができる。
[ハードウェア構成]
図2は、モバイル端末100のハードウェアの構成の一例を示す図である。モバイル端末100は、CPU201、RAM202、ROM203、Input/Outputインターフェース204、NIC205、カメラユニット206を有する。CPU(Central Processing Unit)201は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM(Random Access Memory)202は、各種の情報を記憶するユニットである。また、RAM202は、CPU201の一時的な作業記憶領域としても利用されるユニットである。ROM(Read Only Memory)203は、各種のプログラム等を記憶するユニットである。例えば、CPU201は、ROM203に記憶されているプログラムをRAM202にロードしてプログラムを実行する。また、CPU201はフラッシュメモリ、HDD(Hard Disk Drive)又はSSD(Solid State Disk)といった外部記憶装置に記憶されているプログラムに基づき処理を実行する。これにより、図3に示されるようなモバイル端末100を構成するソフトウェア構成及び後述するシーケンスの各ステップの処理が実現される。なお、モバイル端末100の機能及び後述するシーケンスに係る処理の全部又は一部については専用のハードウェアを用いて実現してもよい。
Input/Outputインターフェース204は、タッチパネル102に対して、表示データの送信、およびタッチパネル102から送信される入力情報の受信を行う。NIC(Network Interface Card)205は、モバイル端末100をネットワーク(不図示)に接続するためのユニットである。カメラユニット206は、カメラ104と接続し被写体105の画像をモバイル端末100に取り込む。バス207は、上述した各ユニット間で送受信を行うためのデータ通信路である。
[ソフトウェア構成(モバイル端末)]
次に、モバイル端末100におけるソフトウェアの構成について説明する。図3は、モバイル端末100のソフトウェア構成の一例を示す図である。図3に示される各ソフトウェア(アプリケーション)における機能(モジュール部)を実現するプログラムは、モバイル端末100のROM203等に記憶されている。
モバイル端末100のOS(Operating System)(不図示)は、データ管理部301を有する。データ管理部301は、画像データやアプリケーションデータを管理する。OSは、データ管理部301を利用するための制御API(Application ProgrammingInterface)を提供している。各アプリはその制御APIを利用することでデータ管理部301が管理する画像データやアプリケーションデータの取得や保存を行う。
モバイル端末100のユーザーは、モバイル端末100のOSのインストール機能を利用することによって、モバイルアプリケーション(以下、モバイルアプリとよぶ)302のダウンロードとインストールが可能である。また、モバイルアプリ302はCPU201によって実行可能である。モバイルアプリ302は、カメラユニット206を介して取り込んだ被写体105の画像に対する各種のデータ処理を行う。モバイルアプリ302は、複数のモジュール部を有する。具体的には、モバイルアプリ302は、メイン制御部303、情報表示部304、操作情報取得部305、画像解析部306、OCR部307、記憶部308、DB部309、座標処理部310、画像特徴量抽出部311を有する。
メイン制御部303は、モバイル端末100用のモバイルアプリ302を制御し、後述する各モジュール部303〜312に対する指示、及び管理を行う。
情報表示部304は、メイン制御部303からの指示に従い、モバイルアプリ302のユーザインタフェース(UI)をユーザーに提供する。図4は、モバイルアプリ302のUI(携帯端末用のUI)を提供する画面の一例(モバイル端末画面400)を示す図である。モバイル端末画面400は、モバイル端末100のタッチパネル102に表示される。また、モバイル端末画面400における表示および操作領域401には、カメラ104を介して取り込んだ画像が表示される。操作情報取得部305は、画像等に対するユーザーによる操作を、表示されたUIを介して受け付ける。なお、モバイルアプリ302のUIの形態(位置、大きさ、範囲、配置、表示内容など)は、図に示す形態に限定されるものではなく、モバイル端末100の機能を実現することができる適宜の構成を採用することができる。
再び図3に戻り、モバイルアプリ302の各モジュールの説明を行う。操作情報取得部305は、情報表示部304により表示されたモバイルアプリ302のUIに対するユーザー操作の情報を取得し、取得した情報をメイン制御部303に通知する。例えば、表示および操作領域401をユーザーが手で触れると、操作情報取得部305は、触れられた画面上の位置の情報を感知し、感知した位置の情報をメイン制御部303に送信する。
画像解析部306は、カメラユニット206を介して取得した画像、すなわち、カメラ104を用いて撮影された画像を解析して、レイアウト情報を生成する。レイアウト情報には、画像から抽出された矩形領域とその種別(文字、図形、線、表など)とが含まれる。さらに画像解析部306は、カメラ入力画像に対して紙面検出処理や歪み補正処理を行う。また、カメラユニット206は、単にスチール撮影を行えるだけでなく、高速で静止画を取得出来る動画撮影機能、または連写機能も備える。
OCR部307は、画像解析部306で抽出した矩形領域に対して、OCR(光学文字認識)処理を行う。記憶部308は、操作情報取得部305により取得された値、すなわち、モバイルアプリ302のUIを介してユーザーにより入力された値を保存する。また、記憶部308は、後述するDB部309で管理されるデータなどを記憶する。
DB部309はデータベース機能を有し、ユーザーが選択した短形領域の座標情報、画像の特徴量、エッジ画像などを管理する。ここで、矩形領域の座標情報には、後述する局所画像内の特定領域の座標情報や、ユーザーがOCR処理の結果を承認する際に選択したテキスト領域の座標情報が含まれる。局所画像とは、被写体全体のうちの一部分の範囲(局所)の画像である。エッジ画像とは、局所画像に対応する、各画素がエッジ強度を示す値を有する画像である。これらの詳細については後述する。DB部309で管理されるデータは、記憶部308に保存される。
座標処理部310は、画像の位置特定処理や、データベースへ座標情報を登録する際の座標変換処理を行う。座標処理部310は、後述する画像特徴量抽出部311によって抽出された画像の特徴量(以下、画像特徴量という)を用いて、画像の位置特定処理を行なう。また、座標処理部310は、局所画像内の特定領域の位置情報(座標情報)を、画像特徴量を用いて特定する。
画像特徴量抽出部311は、カメラによって撮影された画像に対して、画像特徴量の抽出処理を行う。画像特徴量とは、画像内の特徴的な箇所を特定するための情報であり、例えば全体画像内における局所画像の対応位置を特定するために用いられる。特徴量を抽出する方法としてはSIFT、SURF、HOGなどの算出方法が挙げられる。抽出された画像特徴量は、座標処理部310が局所画像内の特定領域(矩形部分)の位置情報を算出するために用いられる。
[全体画像と局所画像]
次に、全体画像と局所画像について図5を用いて説明する。局所画像とは、被写体全体のうちの一部分の範囲の画像である。カメラユニット206は、被写体105の文書全体の画像を、カメラ104を介して取得する。その取得した入力画像に対して、画像解析部306が被写体以外の領域を除外する紙面検出処理及び歪み部分を補正する歪み補正処理を施し整形する。この整形した画像を全体画像と呼ぶ。図5は全体画像500の一例を示している。このように、全体画像とは、被写体105の全体の画像のことである。
ここで、被写体105に対してカメラ104を接近して撮影(もしくは光学ズームで拡大撮影)することにより取得した被写体105の一部の画像を局所画像と呼ぶ。すなわち、局所画像は、被写体の一部を高解像度の画像として取得したものに等しい。局所画像501は、局所画像の一例である。なお、位置502は、全体画像における局所画像として撮影された部分の相対位置を示している。前述のように、画像特徴量抽出部311は、全体画像撮影時に画像特徴量(特徴的な箇所を特定するための情報)を取得する。また、画像特徴量抽出部311は、局所画像撮影時に画像特徴量を取得する。そして、座標処理部310は、局所画像撮影時の画像特徴量と全体画像撮影時の画像特徴量とを照合することで全体画像内における、局所画像の撮影された相対位置を特定することができる。なお、本実施形態では、これらの位置情報の特定については主眼ではないので詳細な説明については省略する。
[基本フロー]
次に、モバイル端末100における基本的な処理フローについて図6を用いて説明する。すなわち、モバイルアプリ302を用いて被写体を撮影して得られた画像から文字認識処理の結果を得る処理を説明する。前述のように、図6に示すフローチャートは、モバイル端末100のモバイルアプリ302が実行する処理である。すなわち、ROM203に格納されたモバイルアプリ302のプログラムをCPU201がRAM202に展開して実行することで実現される処理である。
本フローは、被写体105に対してカメラ104を接近して得た画像をモバイル端末100におけるモバイルアプリ302が取得することをトリガーに開始することとする。すなわち、先に説明したように全体画像については既に撮影済みの状態であり、全体画像の画像特徴量についても既に抽出済みの状態である。この状態において、ユーザーがカメラ104を被写体105に近接して局所画像を取得する処理から図6のフローチャートはスタートする。
ステップS601で、モバイルアプリ302のメイン制御部303は、OCRに適した画像の選択処理を行う。具体的には、OCRに適した画像であるとして決定された局所画像を、表示および操作領域401に表示し、さらに、その局所画像に含まれるテキスト領域を表示する。すなわち、OCRに適した画像であるとして決定された局所画像においてOCR処理を行い、OCRの結果得られたテキストを、その局所画像の対応する箇所(テキスト領域)に重畳させて表示する。ステップS601の詳細な処理に関しては図7を用いて後述する。本実施形態では、ユーザーはこのステップS601の結果、表示される局所画像上のテキスト領域を確認し、OCRの処理結果が正しいものであるか否かを判断する。そして、ユーザーはOCRの処理結果が正しいと判断したテキスト領域をUI画面を通じて選択(タッチ入力)する。ユーザーがUI画面を通じてテキスト領域を選択することで、モバイルアプリ302はそのテキスト領域のOCRの処理結果が正しいものであると判定することになる。
ステップS602で、モバイルアプリ302は、局所画面上のテキスト領域に対してユーザーによる選択があるかを判定する。ユーザーによるテキスト領域の選択があればステップS603に遷移する。ユーザーによる選択がなければ、再度ステップS601に戻り画像選択処理を行う。つまり、前述のように、ユーザーがOCRの処理結果が正しいと判断した領域がなければ、ユーザーによる選択がされないので、再度、OCRに適した画像の選択処理を行ない、テキスト領域の表示が行われることになる。なお、ユーザーによる選択が行えないユースケースなどでは、本ステップは必ずしも必要ではない。しかし、本ステップによって、機械だけでなく、人間の目視によって最終判断を行うことができる。また、ここではステップS602の処理は、ユーザーがテキスト領域が正しいか否かを判断した結果をモバイルアプリ302に知らせる選択処理の場合を例に挙げて説明したがこれに限られるものではない。例えば、ユーザーが選択したテキスト領域に対してユーザーがテキストの修正を行なう処理を含めても良い。
ステップS603でモバイルアプリ302は、ステップS602によって選択されたテキスト領域のOCRの結果とOCR処理対象の撮影画像(局所画像)とをデータ管理部301に依頼してモバイル端末100内に保存する。OCRの結果には、OCRの結果のテキストデータと、その全体画像における対応する位置情報とが含まれる。これにより、全体画像における対応する位置のテキストデータが確定する。このように、本実施形態の処理では、全体画像におけるテキストデータをOCRで得るために、複数の局所画像を用いてそれぞれOCRを行なうことで精度の高いOCR処理結果を得られるようにしている。また、後述するようにぶれが少ない局所画像を対象にOCR処理を行なうことでパフォーマンスの低下を防ぎつつ、精度の高いOCR処理結果が得られるように構成されている。
なお、ステップS601の結果表示されるテキスト領域が複数ある場合には、ステップS602とS603の処理を繰り返し行うことができる。あるいは、ステップS602のユーザーによる選択を受け付ける処理において、複数のテキスト領域の選択を許容するような処理でもよい。この一連の処理で、全体画像のうちの例えば領域Aの局所画像のOCRの処理結果が得られることになる。ここで、全体画像のうちOCR処理を行いたい領域Bが別個にある場合には、ユーザーは再度その領域Bを含む局所画像を撮影するようにカメラ104または被写体105を移動させて、再度図6の処理が行なわれることになる。
なお、本実施形態では撮影結果をモバイル端末100に保管する手法を取っているが、ステップS603の段階でインターネット上などのPCやサーバに撮影結果を即座にアップロードしても良い。また、選択結果をデータ管理部301に貯めておき、後でまとめて他のPCやサーバにアップロードしても良い。
[画像選択処理フロー]
図7は、図6のフローのステップS601の画像選択処理の詳細を示す図である。まず、本フローで用いられる用語「エッジ強度」、「エッジ量」、「エッジ画像」について説明する。
エッジ強度とは画像解析部306によって撮影画像(ここでは局所画像)の各画素ごとに計算される、エッジの強さである。本実施形態ではエッジ強度の抽出方法として、隣接するx方向とy方向の画素の1次微分を求め、その絶対値の合計をその画素のエッジ強度とする方法を用いる。このような方法を用いると、隣接する画素同士の輝度の差が大きい程、強いエッジ強度を得ることが出来る。ただし、後述するエッジ量同士が比較可能であれば、他のエッジ抽出手法であっても良い。例えば、Sobelフィルタを用いて撮影画像内の各画素のエッジ強度を求めるようにしてもよい。
エッジ量とは、撮影画像(局所画像)の特定の範囲(特定のオブジェクト領域)内のエッジ強度に基づいて算出される量(値)である。特定のオブジェクト領域とは、具体的にはOCR処理を行なう対象の候補の矩形領域である。エッジ量はオブジェクト領域内の各画素のエッジ強度の和でも良いし、オブジェクト領域内の各画素のエッジ強度の平均値であっても良い。エッジ量の算出は、比較可能な値が算出できるのであれば、他の方法であっても良い。つまり、エッジ量はOCR処理を行なう対象の領域のエッジの度合いを示す値とも言える。
エッジ画像とは撮影画像(局所画像)から各画素のエッジ強度を抽出し、各画素の値をエッジ強度で表わしたデータのことである。エッジ画像の画素数と解像度は必ずしも元の撮影画像と一致しなくても良い。本実施形態では、エッジ画像は、OCR処理に良好と判定された際の撮影画像(局所画像)を用いて生成され保存される(後述するステップS712参照)。エッジ画像を保存する理由を説明する。本実施形態では、撮影画像に対してOCR処理を行なうか否かを判定する基準として所定のエッジ量を用いる。具体的な例を挙げてより詳細に説明すると、撮影画像には特定のオブジェクト領域Xが含まれることとする。撮影画像には他のオブジェクト領域が含まれていてももちろんよいが、ここでは説明を簡便にするためにオブジェクト領域Xのみに着目する。このオブジェクト領域XがOCR処理を行いたいテキスト領域であるものとする。本実施形態では撮影画像が取得される毎に、オブジェクト領域Xを含む撮影画像がOCR処理に適した画像であるか否かを判定する処理が行なわれる。この判定処理における判定基準として、そのオブジェクト領域Xに対応する所定のエッジ量が用いられる。ぶれが多い画像では、ぶれの影響によりエッジ量が本来のエッジ量よりも少なくなる。つまり、エッジ量が所定の閾量以下の撮影画像については、ぶれが生じている画像であると判定することができる。このときの所定のエッジ量としては、そのオブジェクト領域Xを含む別の撮影画像を用いて既に生成されて保存されているエッジ画像が用いられることになる。エッジ画像として保存がされていれば、所定のエッジ量を求める際に繰り返しエッジ強度を算出しなくて済むからである。これがエッジ画像を保存する理由である。そして、図7の処理を繰り返し行なうことでOCR処理に良好な撮影画像(局所画像)に対応するエッジ画像が順次蓄積されていくことになる。そして、この蓄積されたエッジ画像から、対応するオブジェクト領域のエッジ閾量を算出して撮影画像(局所画像)のエッジ量との比較処理を行なうことで、ぶれの少ない撮影画像だけに対してOCR処理を適用することが可能となる。
続いて、図7のフローに基づいて詳細に説明する。図7のステップS701で、モバイルアプリ302は、カメラユニット206で撮影された局所画像を取得する。ステップS701ではカメラユニット206の動画撮影機能を用いて高速で連続撮影する。そのため、ユーザーが撮影指示を出す必要は無い。つまり、ユーザーがOCRをしたい領域にカメラ104を近づける、カメラのズーム機能でOCRしたい領域を拡大する、あるいは被写体105をカメラ104に近づける、などの動作によって、局所画像がカメラユニット206で撮影されるように動作させる。モバイルアプリ302は撮影された画像をデータ管理部301を通じて取得する。
ステップS702で、画像特徴量抽出部311は、ステップS701で取得された局所画像501の画像特徴量を抽出する。そして、ステップS703で、座標処理部310は、当該局所画像の画像特徴量を用いて、全体画像における局所画像の位置502を特定する。ステップS703では、前述のように、局所画像の画像特徴量と全体画像の画像特徴量とを用いて全体画像における局所画像の位置502を特定する処理を行なうことができる。なお、局所画像の位置を特定する際には、全体画像の画像特徴量を用いなくてもよい。例えば、ステップS701で取得された局所画像の画像特徴量と、保存されているエッジ画像とを用いることで、局所画像の全体画像における相対位置のエッジ画像が特定可能であれば、全体画像の画像特徴量は必ずしも必要ではない。具体的には、予め位置情報が分かるマークを帳票上に印刷しておくなどの方法で、全体画像における局所画像の相対位置が特定可能であれば、他の方法であっても良い。
ステップS704で、モバイルアプリ302は、ステップS701で取得された局所画像の全体画像における相対位置が特定できたか否かを判定する。相対位置が特定できた場合は、モバイルアプリ302はステップS705に遷移し、特定できなかった場合はステップS701に遷移し、別の局所画像の取得処理が行なわれる。後述するように、エッジ画像は全体画像における相対位置が関連付けられる形で保存されることになる。ステップS704で撮影画像(局所画像)の相対位置が特定できた場合には、後述する処理で対応するエッジ画像が存在するか否かを判定する処理を行なうことができる。一方、撮影画像(局所画像)の相対位置が特定できない場合には、カメラ104が被写体に近付きすぎているなどの要因が考えられるので、再度、ステップS701に戻り、別の撮影画像(局所画像)を取得する処理が行なわれることになる。
局所画像の相対位置が特定できた場合、ステップS705でOCR部307は、ステップS701で取得した局所画像501内のオブジェクト領域(特定領域)を認識する。ここで、オブジェクト領域とは、OCR処理をかけるべき領域である。オブジェクト領域は、例えばステップS602によって、ユーザーにこれまでの処理で選択されたことのある領域(つまり、OCR結果が正しいとユーザーが承認した領域)である。また、オブジェクト領域は画像解析部306によってレイアウト解析を行う際に得られた矩形情報であっても良い。また、適切な領域情報を得られない場合には局所画像501全体をオブジェクト領域として使用しても良いが、その場合には必要のない領域のエッジ強度も比較に用いられる恐れがある。ステップS705においては、座標処理部310は、認識されたオブジェクト領域の座標を、ステップS703で特定した局所画像の位置とステップS702で抽出した局所画像特徴量とを用いて算出する。
ステップS706でメイン制御部303は、ステップS705で認識したオブジェクト領域を含むエッジ画像がDB部309に保存されているかを、ステップS705で算出したオブジェクト領域の座標を基に探索する。該当するエッジ画像が保存されている場合、ステップS707に遷移する。該当するエッジ画像が保存されていない場合、ステップS710に遷移する。該当するエッジ画像が保存されていないケースは、例えば、最初の図7のフローチャートの処理の場合や、今までの処理とは全く別の領域の局所画像をステップS701で取得した場合などが想定される。この場合、ステップS701の局所領域に含まれるオブジェクト領域のエッジ量を比較する対象が存在しない。従って、このような場合にはステップS710に進みOCR処理を行なうことになる。ただし、該当するエッジ画像が保存されていない場合、単にステップS710に遷移するだけでなく、一定時間内は連続撮影を行って複数枚の局所画像を取得しても良い。そして取得した複数枚の局所画像の中で最大のエッジ量を持つ局所画像をOCR処理対象として、S710に遷移してOCR処理を行うようにしても良い。
該当するエッジ画像が保存されている場合、ステップS707でメイン制御部303は、DB部に保存されているエッジ画像から、ステップS705で認識されたオブジェクト領域に対応する領域を特定する。そして、メイン制御部303はその特定した領域内のエッジ強度を集約したエッジ量を求め、これをエッジ閾量(閾値)とする。また、該当する保存されたエッジ画像が複数存在する場合、該当するすべての保存されたエッジ画像のエッジ量を算出し、その平均を使っても良いし、最も少ないエッジ量をエッジ閾量として使用しても良い。保存されているエッジ画像は、後述するようにOCR確信度が閾値以上の局所画像に対応する画像である。従って、特定の領域のOCR処理に適した局所画像に対応するエッジ強度を有するエッジ画像となっている。つまり、最低限のエッジ量はエッジ画像であれば担保されている状態であるので、複数のエッジ画像が存在する場合には最も少ないエッジ量をエッジ閾量として使用してもよい。他にも、パフォーマンス向上のため、そのうちの1枚をランダムに使用する、といった方法でも良い。
ステップS708で画像解析部306は、ステップS705で認識した、ステップS701で取得した局所画像のオブジェクト領域のエッジ量を算出する。そして、ステップS709においてメイン制御部303は、ステップS707で算出したエッジ閾量と、ステップS708で算出されたエッジ量とを比較する。ステップS701で取得した局所画像におけるオブジェクト領域のエッジ量が、エッジ画像から求まるエッジ閾量より大きかった場合はステップS710に遷移する。つまり、ステップS701で取得した局所画像は、その画像内のオブジェクト領域のエッジ量がエッジ画像から求まるエッジ閾量より大きいのでぶれが少ないと判定することができる。よって、このぶれが少ない局所画像に対してOCR処理を行なう。一方、ステップS701で取得した局所画像におけるオブジェクト領域のエッジ量が、エッジ閾量以下であった場合はステップS701に遷移する。エッジ量がエッジ閾量以下であるということは、ステップS701で取得した局所画像はぶれがある画像であると判定できるからである。ぶれがある画像に対してOCR処理を行なったとしても良好な結果は得られないので、OCR処理を行なわない。これにより、良好なパフォーマンスを担保することができる。なお、ステップS709の比較においては、単にエッジ閾量を上回った場合にステップS710に進むだけでなく、一定時間内は連続撮影を行ってもよい。そして複数の局所画像の中からエッジ閾量を上回る最大のエッジ量を持つ局所画像をS709の比較に用い、その局所画像に対してステップS710のOCR処理を行なっても良い。また、エッジ量が不足していると判定された場合に、カメラユニット206の撮影条件の調整(変更)を自動的に行っても良い。例えばシャッタースピードを短くしISO感度を上げることで、OCRに適したエッジ量の多い画像を取得出来る場合がある。
ステップS710でOCR部307は、ステップS705で認識された、ステップS701で取得した局所画像に含まれるオブジェクト領域に対してOCR処理を実行し、テキスト情報を認識する。局所画像の全体ではなくオブジェクト領域に対してOCR処理を実行することでOCRの処理パフォーマンスを向上させることができる。
ステップS711でOCR部307は、OCR結果の確信度が閾値以上かどうかを確認する。ここで確信度とはOCR部307の認識結果の自信(確からしさ)を表し、高いほど文字認識の精度が高いと言える。ステップS711で用いる閾値は使用するOCRエンジンにとって適切な値を用いる。また、ステップS711においては、単に一方向、例えば水平のみに対してOCRを使用するだけでなく、複数の方向からOCR処理を行い、その中の最も高い確信度を用いても良い。OCR確信度が閾値以上の場合、ステップS712に遷移し、閾値未満の場合にはステップS713に遷移する。
ステップS712で画像解析部306は、OCR処理に使用した撮影画像(局所画像)からエッジ画像を生成する。メイン制御部303は生成されたエッジ画像をDB部309に保存する。すなわち、画像解析部306はステップS701で取得した局所画像からエッジ画像を生成する。オブジェクト領域の位置情報(座標情報)については、ステップS705の処理で特定されている。そこで、メイン制御部303は、エッジ画像と共に、エッジ画像に含まれるオブジェクト領域の種類(例えばテキストや表など)とそのオブジェクト領域の座標情報も保存する。OCR確信度が閾値以上の場合、その局所画像はOCRに適した局所画像である。つまり、メイン制御部303は、その局所画像はぶれが少ない画像と判定することができる。次回以降の処理においてはその局所画像に対応するエッジ画像を用いてステップS709の判定を行なう。このように、OCR処理を行なう対象の画像として、ぶれが少ない画像を用いることでOCR処理の精度を高めるとともにパフォーマンスを向上させることができる。なお、すでに同じオブジェクト領域を含むエッジ画像がDB部309内に存在する場合、エッジ量の少ない方を残したり、同じオブジェクト領域を含むエッジ画像の保存最大数を決めても良い。
ステップS713でメイン制御部303は、ステップS705で認識できたテキスト領域を、情報表示部304を通してタッチパネル102に表示する。図8は、ステップS713の処理の結果の一例を示す図である。図8においては、テキスト領域801、802、803がステップS705で認識できたテキスト領域であるものとする。このテキスト領域801、802、803はOCR処理の結果得られたテキストが含まれている領域となる。つまり、局所画像の中で、テキスト領域801、802、803はOCRの処理結果のテキストデータが反映された領域(テキストデータに置き換わった領域)となる。図8で示すように、メイン制御部303は認識できたテキスト領域をユーザーが確認できるように、例えば太枠で囲うなどの強調表示を行うことができる。あるいは、マーカーを付したり、点滅させるなどの形態でもよい。メイン制御部303は、ステップ713でユーザーが選択可能なテキスト領域(候補領域)を表示した後、図7の処理を終了し、図6のステップS602の処理に進むことになる。つまり、図8で示したテキスト領域をユーザーが確認して正しくOCRの処理結果が行なわれた領域を、ユーザーによって選択する処理となる。
以上のように、本実施形態によれば、モバイル端末を用いて紙文書に対して接近して画像を取り込む際に、OCR処理に良好な画像を、パフォーマンスを大きく損なわずに自動で選択出来る。特に、PC端末に比べ、CPUまたはGPUリソースが少ないモバイル端末で、パフォーマンスを大きく損なわずにOCR処理に良好な画像を選択することができる。
(その他の実施例)
上記の実施例では、撮影画像にぶれが生じる例としてカメラの手ぶれを例に挙げて説明したが、被写体(例えば紙)を固定したカメラに近づける場合に被写体のぶれによって撮影画像にぶれが生じる場合でもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (12)

  1. 被写体の一部を撮影して得られた画像を取得する取得手段と、
    前記画像に含まれる特定領域のエッジ量を算出する算出手段と、
    前記算出された前記特定領域におけるエッジ量が第1の閾値よりも大きい場合、前記画像に含まれる前記特定領域に対して文字認識処理を実行する文字認識手段と
    を有することを特徴とする情報処理装置。
  2. 前記第1の閾値は、前記文字認識手段によって文字認識処理が既に行なわれた画像の前記特定領域に対応する領域のエッジ量に基づいて決定されることを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、一定の時間、前記被写体の一部を撮影して得られた複数の画像を取得し、
    前記算出手段は、前記複数の画像の前記特定領域のエッジ量をそれぞれ算出し、
    前記文字認識手段は、前記算出手段で算出された前記特定領域のエッジ量が最も多い画像の前記特定領域におけるエッジ量が前記第1の閾値よりも大きい場合、前記エッジ量が最も多い前記画像に含まれる前記特定領域に対して文字認識処理を実行することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記算出された前記特定領域におけるエッジ量が前記第1の閾値よりも大きくない場合、前記取得手段は、撮影条件を変更して前記被写体の一部を撮影して得られた画像を取得し、
    前記算出手段は、前記撮影条件を変更して得られた画像に含まれる前記特定領域のエッジ量を算出することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記文字認識手段によって文字認識処理が実行された画像に対応する、各画素がエッジ強度を有するエッジ画像を管理する管理手段をさらに有し、
    前記文字認識手段は、前記管理手段で管理されている前記エッジ画像を用いて得られた前記第1の閾値を用いることを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記管理手段は、文字認識手段によって文字認識処理が実行された結果の確信度が第2の閾値以上の場合における、前記文字認識処理が実行された画像に対応するエッジ画像を管理することを特徴とする請求項5に記載の情報処理装置。
  7. 前記管理手段は、前記エッジ画像を、前記被写体における位置と関連付けて管理し、
    前記文字認識手段は、前記特定領域の位置に対応する位置を含むエッジ画像から求まる前記対応する位置の閾値を、前記第1の閾値として用いることを特徴とする請求項5または6に記載の情報処理装置。
  8. 前記特定領域の位置は、前記取得手段で取得した画像の特徴量から決定されることを特徴とする請求項7に記載の情報処理装置。
  9. 前記文字認識処理の結果が反映されたテキスト領域を含む前記取得手段で取得した画像を表示する表示手段と、
    前記表示手段で表示された画像から前記テキスト領域の選択を受け付ける受け付け手段と
    をさらに有することを特徴とする請求項1から8のいずれか一項に記載の情報処理装置。
  10. 前記取得手段で取得した画像と、前記受け付け手段で選択を受け付けたテキスト領域の位置情報と、前記テキスト領域に含まれるテキストとを出力する出力手段をさらに有することを特徴とする請求項9に記載の情報処理装置。
  11. 被写体の一部を撮影して得られた画像を取得する取得ステップと、
    前記画像に含まれる特定領域のエッジ量を算出する算出ステップと、
    前記算出された前記特定領域におけるエッジ量が第1の閾値よりも大きい場合、前記画像に含まれる前記特定領域に対して文字認識処理を実行する文字認識ステップと
    を有することを特徴とする情報処理方法。
  12. コンピュータを、請求項1から10のいずれか一項に記載の各手段として機能させるためのプログラム。
JP2016045918A 2016-03-09 2016-03-09 情報処理装置、情報処理方法、及びプログラム Expired - Fee Related JP6669390B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016045918A JP6669390B2 (ja) 2016-03-09 2016-03-09 情報処理装置、情報処理方法、及びプログラム
US15/446,404 US10373329B2 (en) 2016-03-09 2017-03-01 Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016045918A JP6669390B2 (ja) 2016-03-09 2016-03-09 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2017162179A true JP2017162179A (ja) 2017-09-14
JP2017162179A5 JP2017162179A5 (ja) 2019-04-18
JP6669390B2 JP6669390B2 (ja) 2020-03-18

Family

ID=59786801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016045918A Expired - Fee Related JP6669390B2 (ja) 2016-03-09 2016-03-09 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10373329B2 (ja)
JP (1) JP6669390B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402931B2 (ja) 2021-09-30 2023-12-21 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド 方法、コンピュータ可読プログラムおよびシステム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402148B1 (ko) * 2017-08-22 2022-05-26 삼성전자주식회사 전자 장치 및 그의 문자 인식 방법
JP7378939B2 (ja) * 2019-02-22 2023-11-14 株式会社Pfu 情報処理装置、情報処理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161043A (ja) * 1995-12-11 1997-06-20 Nec Corp 文書画像入力装置
JP2013196369A (ja) * 2012-03-19 2013-09-30 Pfu Ltd 画像処理装置、文字認識方法及びコンピュータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680324B2 (en) * 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US20080313172A1 (en) * 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
JP2005341229A (ja) 2004-05-27 2005-12-08 Sony Corp 撮影装置
JP2010277442A (ja) 2009-05-29 2010-12-09 Fujifilm Corp 建設検査システム、携帯端末、建設検査方法およびプログラム
JP4772894B2 (ja) 2009-08-03 2011-09-14 シャープ株式会社 画像出力装置、携帯端末装置、撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
US20130129142A1 (en) * 2011-11-17 2013-05-23 Microsoft Corporation Automatic tag generation based on image content
JP5561331B2 (ja) * 2012-09-12 2014-07-30 オムロン株式会社 携帯端末装置用のプログラムおよび携帯端末装置
JP5800248B2 (ja) * 2013-03-08 2015-10-28 富士ゼロックス株式会社 画像処理装置及び案件処理装置
US9179061B1 (en) * 2013-12-11 2015-11-03 A9.Com, Inc. Assisted text input for computing devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161043A (ja) * 1995-12-11 1997-06-20 Nec Corp 文書画像入力装置
JP2013196369A (ja) * 2012-03-19 2013-09-30 Pfu Ltd 画像処理装置、文字認識方法及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402931B2 (ja) 2021-09-30 2023-12-21 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド 方法、コンピュータ可読プログラムおよびシステム

Also Published As

Publication number Publication date
US20170263013A1 (en) 2017-09-14
US10373329B2 (en) 2019-08-06
JP6669390B2 (ja) 2020-03-18

Similar Documents

Publication Publication Date Title
US10943140B2 (en) Image processing to detect a rectangular object
US8947453B2 (en) Methods and systems for mobile document acquisition and enhancement
KR20160048140A (ko) 올-인-포커스 이미지를 생성하기 위한 방법 및 장치
JP2016523397A (ja) 情報認識のための方法及びシステム
JP7102103B2 (ja) 携帯型の情報処理装置及び当該情報処理装置を用いた方法及びプログラム
CN108320270B (zh) 一种图像校正方法、装置和存储介质
US10122912B2 (en) Device and method for detecting regions in an image
US10922580B2 (en) Image quality estimation using a reference image portion
US10586099B2 (en) Information processing apparatus for tracking processing
CN114298902A (zh) 一种图像对齐方法、装置、电子设备和存储介质
JP2019012361A (ja) 情報処理装置、プログラム及び情報処理方法
JP2019109624A (ja) 情報処理装置、プログラム及び情報処理方法
CN108805799B (zh) 全景图像合成装置、方法及计算机可读存储介质
JP2018107593A (ja) 画像処理装置、画像処理方法およびプログラム
JP2018046337A (ja) 情報処理装置、プログラム及び制御方法
JP2018088116A (ja) 情報処理装置、プログラム、情報処理方法
JP6669390B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10452943B2 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP6542230B2 (ja) 投影ひずみを補正するための方法及びシステム
WO2022111461A1 (zh) 识别方法、装置及电子设备
US20210281742A1 (en) Document detections from video images
US10999513B2 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP2017162148A (ja) 情報処理装置、プログラム、情報処理方法
CN115187989A (zh) 图像的处理方法、装置、电子设备、扫描笔和存储介质
JP2017120455A (ja) 情報処理装置、プログラム及び制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R151 Written notification of patent or utility model registration

Ref document number: 6669390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees