JP6613378B2 - モバイル端末、画像処理方法、および、プログラム - Google Patents

モバイル端末、画像処理方法、および、プログラム Download PDF

Info

Publication number
JP6613378B2
JP6613378B2 JP2018535993A JP2018535993A JP6613378B2 JP 6613378 B2 JP6613378 B2 JP 6613378B2 JP 2018535993 A JP2018535993 A JP 2018535993A JP 2018535993 A JP2018535993 A JP 2018535993A JP 6613378 B2 JP6613378 B2 JP 6613378B2
Authority
JP
Japan
Prior art keywords
image
orientation
data
document
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018535993A
Other languages
English (en)
Other versions
JPWO2018037519A1 (ja
Inventor
朋也 穴澤
清人 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Publication of JPWO2018037519A1 publication Critical patent/JPWO2018037519A1/ja
Application granted granted Critical
Publication of JP6613378B2 publication Critical patent/JP6613378B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Character Input (AREA)

Description

本発明は、モバイル端末、画像処理方法、および、プログラムに関する。
従来から、画像のボケを検出する技術が開示されている。
ここで、撮影画像の被写体領域のボケもしくはブレを検出し、ユーザにより意図的にボケブレが表現された成功画像なのか、そうではない失敗画像なのかを評価する技術が開示されている(特許文献1を参照)。
特開2013−12906号公報
しかしながら、従来の画像処理装置(特許文献1)においては、画像のボケ判定を、画像の向き補正に利用するものではないという問題点を有していた。
本発明は、上記問題点に鑑みてなされたもので、ユーザがモバイル端末にて撮影した原稿画像中のボケていない領域を用いて原稿画像の向き補正を行うことで、撮影時のデバイスの傾き等に起因する原稿画像の傾きを適切に補正することができるモバイル端末、画像処理方法、および、プログラムを提供することを目的とする。
このような目的を達成するため、本発明に係るモバイル端末は、撮影部の撮影による撮影画像の撮影画像データを取得する画像取得手段と、前記撮影画像に含まれる原稿画像を特定する原稿特定手段と、前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得手段と、前記部分領域のボケを検出するボケ検出手段と、前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定手段と、前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定手段と、前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正手段と、を備えたことを特徴とする。
また、本発明に係る画像処理方法は、撮影部の撮影による撮影画像の撮影画像データを取得する画像取得ステップと、前記撮影画像に含まれる原稿画像を特定する原稿特定ステップと、前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得ステップと、前記部分領域のボケを検出するボケ検出ステップと、前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定ステップと、前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定ステップと、前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、撮影部の撮影による撮影画像の撮影画像データを取得する画像取得ステップと、前記撮影画像に含まれる原稿画像を特定する原稿特定ステップと、前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得ステップと、前記部分領域のボケを検出するボケ検出ステップと、前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定ステップと、前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定ステップと、前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正ステップと、をコンピュータに実行させることを特徴とする。
この発明によれば、ユーザがモバイルカメラで撮影した原稿画像に対し、原稿種、または、撮影時のデバイスの傾きにとらわれない向き補正を適切に行うことが可能となる。
図1は、本実施形態に係るモバイル端末の構成の一例を示すブロック図である。 図2は、本実施形態のモバイル端末における処理の一例を示すフローチャートである。 図3は、本実施形態における撮影画像の一例を示す図である。 図4は、本実施形態における向き特定処理の一例を示す図である。 図5は、本実施形態における向き補正処理の一例を示す図である。 図6は、本実施形態における部分領域取得処理の一例を示す図である。 図7は、本実施形態における部分領域取得処理の一例を示す図である。 図8は、本実施形態における部分領域取得処理の一例を示す図である。 図9は、本実施形態における撮影画像の一例を示す図である。 図10は、本実施形態における原稿画像の一例を示す図である。 図11は、本実施形態におけるボケ判定の一例を示す図である。 図12は、本実施形態におけるボケ判定の一例を示す図である。 図13は、本実施形態における向き補正処理の一例を示す概要図である。
以下に、本発明に係るモバイル端末、画像処理方法、および、プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
[本実施形態の構成]
以下、本発明の実施形態に係るモバイル端末100の構成の一例について図1を参照して説明し、その後、本実施形態の処理等について詳細に説明する。図1は、本実施形態に係るモバイル端末100の構成の一例を示すブロック図である。
但し、以下に示す実施形態は、本発明の技術思想を具体化するためのモバイル端末100を例示するものであって、本発明をこのモバイル端末100に特定することを意図するものではなく、請求の範囲に含まれるその他の実施形態のモバイル端末100にも等しく適用し得るものである。
また、本実施形態で例示するモバイル端末100における機能分散の形態は以下に限られず、同様の効果や機能を奏し得る範囲において、任意の単位で機能的または物理的に分散・統合して構成することができる。
ここで、モバイル端末100は、例えば、タブレット端末、携帯電話、スマートフォン、PHS、PDA、ノート型のパーソナルコンピュータ、または、メガネ型もしくは時計型などのウェアラブルコンピュータ等の可搬性を有する携帯型の情報処理装置であってもよい。
まず、図1に示すように、モバイル端末100は、概略的に、制御部102と記憶部106と撮影部110と入出力部112とセンサ部114と通信部116とを備えて構成される。
ここで、図1では省略しているが、本実施形態において、更に、入出力部112と制御部102とを接続する入出力インターフェース部(図示せず)を備えていてもよい。これらモバイル端末100の各部は任意の通信路を介して通信可能に接続されている。
ここで、通信部116は、有線通信および/または無線通信(WiFi(登録商標)等)によりIPデータを送受信するためのネットワークインターフェース(NIC(Network Interface Controller)等)、Bluetooth(登録商標)、または、赤外線通信等によって無線通信を行うインターフェースであってもよい。
ここで、モバイル端末100は、通信部116を用いて、ネットワークを介して外部装置と通信可能に接続されていてもよい。
また、センサ部114は、物理量を検出して別媒体の信号(デジタル信号)に変換する。ここで、センサ部114は、近接センサ、方角センサ、磁場センサ、直線加速センサ、輝度センサ、ジャイロセンサ、圧力センサ、重力センサ、加速度センサ、気圧センサ、および/または、温度センサ等を含んでいてもよい。
また、入出力部112は、データの入出力(I/O)を行う。ここで、入出力部112は、例えば、キー入力部、タッチパネル、コントロールパッド(例えば、タッチパッド、および、ゲームパッド等)、マウス、キーボード、および/または、マイク等であってもよい。
また、入出力部112は、アプリケーション等の表示画面を表示する表示部(例えば、液晶または有機EL等から構成されるディスプレイ、モニタ、または、タッチパネル等)であってもよい。
また、入出力部112は、音声情報を音声として出力する音声出力部(例えば、スピーカ等)であってもよい。また、入出力部(タッチパネル)112は、物理的接触を検出し、信号(デジタル信号)に変換するセンサ部114を含んでいてもよい。
また、撮影部110は、被写体(例えば、原稿等)を連続画像撮影(動画撮影)することで、連続(動画)の画像データ(フレーム)を取得する。例えば、撮影部110は、映像データを取得してもよい。また、撮影部110は、アンシラリデータを取得してもよい。
ここで、撮影部110は、CCD(Charge Coupled Device)、および/または、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えたカメラ等であってもよい。
また、撮影部110は、被写体を静止画撮影することで、静止画である撮影画像の撮影画像データを取得してもよい。ここで、撮影画像データは、非圧縮の画像データであってもよい。また、撮影画像データは、高解像度の画像データであってもよい。
ここで、高解像度とは、フルハイビジョン、4K解像度、または、スーパーハイビジョン(8K解像度)等であってもよい。また、撮影部110は、24fpsまたは30fps等で動画撮影してもよい。
記憶部106は、各種のデータベース、テーブル、および/または、ファイルなどを格納する。また、記憶部106は、各種アプリケーションプログラム(例えば、ユーザアプリケーション等)を記憶していてもよい。
また、記憶部106は、ストレージ手段であり、例えばRAM・ROM等のメモリ、ハードディスクのような固定ディスク装置、SSD(Solid State Drive)、フレキシブルディスク、および/または、光ディスク等の有形の記憶装置、または、記憶回路を用いることができる。
また、記憶部106には、コントローラ等に命令を与え各種処理を行うためのコンピュータプログラム等が記録されている。
これら記憶部106の各構成要素のうち、辞書データファイル106aは、辞書データを記憶する。ここで、辞書データは、各言語の文字、数字、および、記号等に関するデータであってもよい。
帳票データファイル106bは、特定の帳票の特徴データ、および、レイアウトデータを記憶する。ここで、特定の帳票は、運転免許証を含む各種免許証、パスポートを含む各種身分証明書、または、健康保険証等のレイアウトが既定である規定帳票であってもよい。
画像データファイル106cは、画像データ(フレーム等)を記憶する。ここで、画像データファイル106cは、撮影画像データ、原稿画像データ、部分領域画像データ、対象領域画像データ、および/または、補正後画像データを記憶していてもよい。
また、画像データファイル106cは、原稿画像、部分領域、および/または、対象領域等の位置データを記憶していてもよい。また、画像データファイル106cは、画像データに対応する文字データを記憶していてもよい。
また、画像データファイル106cは、映像データを記憶していてもよい。また、画像データファイル106cは、アンシラリデータを記憶していてもよい。
また、制御部102は、モバイル端末100を統括的に制御するCPU、メニーコアCPU、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、および/または、FPGA(Field−Programmable Gate Array)等を含む有形のコントローラ、または、制御回路から構成されてもよい。
制御部102は、制御プログラムと各種の処理手順等を規定したプログラムと所要データとを格納するための内部メモリを有し、これらプログラムに基づいて種々の処理を実行するための情報処理を行う。
ここで、制御部102は、機能概念的に、画像取得部102a、原稿特定部102b、部分領域取得部102c、ボケ検出部102d、対象領域設定部102e、帳票判定部102f、向き特定部102g、向き補正部102h、および、画像表示部102iを備える。
画像取得部102aは、画像データを取得する。ここで、画像取得部102aは、撮影部110の撮影による撮影画像の撮影画像データを取得してもよい。
また、画像取得部102aは、ボケ検出部102dにより所定の基準値以下のボケが検出されなかった場合、撮影部110の再度の撮影による撮影画像データを取得してもよい。また、画像取得部102aは、非圧縮且つ高解像度の画像データを取得してもよい。
また、画像取得部102aは、撮影部110による連続画像撮影または動画撮影を制御して、1コマに相当する画像データ(フレーム)を取得してもよい。また、画像取得部102aは、撮影部110による静止画撮影を制御して、画像データを取得してもよい。
また、画像取得部102aは、原稿画像データ、部分領域画像データ、対象領域画像データ、および/または、補正後画像データ等を取得してもよい。また、画像取得部102aは、アンシラリデータを取得してもよい。
原稿特定部102bは、撮影画像に含まれる原稿画像を特定する。ここで、原稿は、矩形原稿であってもよい。また、原稿特定部102bは、撮影画像データから原稿画像の位置データを検出してもよい。
ここで、原稿特定部102bは、撮影画像データから原稿画像のコーナー座標(4点)を検出してもよい。また、原稿特定部102bは、撮影画像データから原稿画像のレイアウトを検出してもよい。
また、原稿特定部102bは、エッジ検出法、および/または、特徴点マッチング法を用いて、撮影画像データから原稿画像の位置データを検出し、原稿画像の位置データに基づいて、原稿画像を特定してもよい。
部分領域取得部102cは、原稿画像における部分領域の部分領域画像データを取得する。ここで、部分領域取得部102cは、原稿画像を分割した部分領域の部分領域画像データを取得してもよい。
また、部分領域取得部102cは、原稿画像の原稿画像データに対するラベリング処理により、原稿画像における文字を示す部分領域の部分領域画像データを取得してもよい。
ボケ検出部102dは、画像のボケを検出する。ここで、ボケ検出部102dは、部分領域のボケを検出してもよい。
対象領域設定部102eは、原稿画像の向きの識別を行う対象領域を設定する。ここで、対象領域設定部102eは、ボケに基づいて、部分領域を原稿画像の向きの識別を行う対象領域として設定してもよい。
また、対象領域設定部102eは、ボケ検出部102dにより所定の基準値以下のボケが検出された時点で、当該所定の基準値以下のボケが検出された部分領域を原稿画像の向きの識別を行う対象領域として設定してもよい。
また、対象領域設定部102eは、ボケ検出部102dにより検出されたボケを比較し、最もボケていない部分領域を原稿画像の向きの識別を行う対象領域として設定してもよい。
帳票判定部102fは、特定の帳票の特徴データに基づいて、原稿画像が特定の帳票に該当するか否かを判定する。
向き特定部102gは、原稿画像の向きを特定する。ここで、向き特定部102gは、対象領域におけるコンテンツの向きを特定し、コンテンツの向きに基づいて、原稿画像の向きを特定してもよい。
また、向き特定部102gは、帳票判定部102fにより原稿画像が特定の帳票に該当すると判定された場合、特定の帳票のレイアウトデータに基づいて、原稿画像の向きを特定してもよい。
また、向き特定部102gは、対象領域の対象領域画像データに対するラベリング処理により、対象領域における文字を示す文字領域を特定し、文字領域の文字領域データと辞書データとの比較に基づいて、文字領域における文字の向きを特定し、文字の向きに基づいて、原稿画像の向きを特定してもよい。
また、向き特定部102gは、対象領域の対象領域データと辞書データとの比較に基づいて、対象領域における文字の向きを特定し、文字の向きに基づいて、原稿画像の向きを特定してもよい。
向き補正部102hは、正立補正した原稿画像の補正後画像データを取得する。ここで、向き補正部102hは、原稿画像の向きに基づいて、正立補正した原稿画像の補正後画像データを取得してもよい。
画像表示部102iは、画像データを表示させる。ここで、画像表示部102iは、撮影画像データ、原稿画像データ、部分領域画像データ、対象領域画像データ、および/または、補正後画像データを表示させてもよい。
また、画像表示部102iは、画像データを入出力部112に表示させてもよい。また、画像表示部102iは、文字データを表示させてもよい。
[本実施形態の処理]
上述した構成のモバイル端末100で実行される処理の一例について、図2から図13を参照して説明する。図2は、本実施形態のモバイル端末100における処理の一例を示すフローチャートである。
図2に示すように、まず、画像取得部102aは、矩形原稿を被写体とした撮影部(カメラ)110による撮影を制御して、撮影部110の撮影による撮影画像の撮影画像データを取得する(ステップSA−1)。
そして、原稿特定部102bは、エッジ検出法、および/または、特徴点マッチング法を用いて、撮影画像データから原稿画像の位置データを検出し、原稿画像の位置データに基づいて、撮影画像に含まれる原稿画像を特定する(ステップSA−2)。
この時点で、画像表示部102iは、原稿特定部102bにより特定された原稿画像の原稿画像データを入出力部112に表示させることにより、ユーザに特定された原稿画像を確認させてもよい。
そして、帳票判定部102fは、帳票データファイル106bに記憶された特定の帳票の特徴データに基づいて、原稿画像が特定の帳票に該当するか否かを判定する(ステップSA−3)。
そして、帳票判定部102fは、原稿画像が特定の帳票に該当すると判定した場合(ステップSA−3:Yes)、処理をステップSA−4に移行させる。
そして、向き特定部102gは、帳票データファイル106bに記憶された特定の帳票のレイアウトデータに基づいて、原稿画像の向きを特定する(ステップSA−4)。
そして、向き補正部102hは、原稿画像の向きに基づいて、正立補正した原稿画像の補正後画像データを取得し(ステップSA−5)、処理をステップSA−12に移行させる。
ここで、図3から図5を参照して、本実施形態における特定の帳票における向き補正処理の一例について説明する。図3は、本実施形態における撮影画像の一例を示す図である。図4は、本実施形態における向き特定処理の一例を示す図である。図5は、本実施形態における向き補正処理の一例を示す図である。
本実施形態においては、図3に示す撮影画像から矩形抽出することにより、図4に示す原稿画像を特定している。
そして、本実施形態においては、図4に示す運転免許証の原稿画像に対して、特徴A(太枠で囲んだ部分)を抽出している。
そして、本実施形態においては、抽出した特徴と予めデータベース(帳票データファイル106b)に登録してある帳票の特徴データとの整合性を判定することで、特定の帳票(運転免許証)であるか否かを判定している。
そして、本実施形態においては、特定の帳票であった場合、帳票種別情報を設定し、特定の帳票特有のレイアウトデータに基づいて、図5に示すように、原稿画像の向き補正を行っている。
図2に戻り、帳票判定部102fは、原稿画像が特定の帳票に該当しないと判定した場合(ステップSA−3:No)、処理をステップSA−6に移行させる。
そして、部分領域取得部102cは、原稿画像を分割した部分領域の部分領域画像データを取得する(ステップSA−6)。
なお、部分領域取得部102cは、原稿画像の原稿画像データに対するラベリング処理により、原稿画像における文字を示す部分領域の部分領域画像データを取得してもよい。
ここで、図6から図8を参照して、本実施形態における部分領域取得処理の一例について説明する。図6から図8は、本実施形態における部分領域取得処理の一例を示す図である。
図6に示すように、本実施形態においては、単純に原稿画像を2×2の4分割に領域分割した部分領域の部分領域画像データを取得してもよい。
また、図7に示すように、本実施形態においては、単純に原稿画像を3×3の9分割に領域分割した部分領域の部分領域画像データを取得してもよい。
また、図8に示すように、本実施形態においては、二値化した原稿画像Bの原稿画像データに対してラベリング処理を行うことにより、文字単位(ラベル単位)まで領域分割した部分領域Cの部分領域画像データを取得してもよい。
図2に戻り、ボケ検出部102dは、部分領域のボケを検出する(ステップSA−7)。ここで、ボケ検出部102dは、エッジ強度による判定方法等を用いて、部分領域のボケを検出してもよい。
ここで、図9および図10を参照して、本実施形態におけるボケ発生の一例について説明する。図9は、本実施形態における撮影画像の一例を示す図である。図10は、本実施形態における原稿画像の一例を示す図である。
モバイルカメラで原稿を撮影した場合、斜めからなど、多方向から撮影することがあるため、図9に示すような撮影画像となりやすい。
そのため、図9の撮影画像に含まれる原稿画像Dにおいては、図10に示すように、撮影位置から近い領域Eではボケが発生しにくく、文字解像度が低下しにくいが、撮影位置から遠い原稿画像D中の領域Fではボケが発生しやすく、文字解像度が低下しやすい。
図2に戻り、ボケ検出部102dは、検出したボケが所定の基準値以下となる部分領域があるか否かを判定する(ステップSA−8)。
そして、ボケ検出部102dは、検出したボケが所定の基準値以下となる部分領域がないと判定した場合(ステップSA−8:No)、処理をステップSA−1に移行させる。
一方、ボケ検出部102dは、検出したボケが所定の基準値以下となる部分領域があると判定した場合(ステップSA−8:Yes)、処理をステップSA−9に移行させる。
ここで、図11および図12を参照して、本実施形態におけるボケ判定の一例について説明する。図11および図12は、本実施形態におけるボケ判定の一例を示す図である。
図11に示すように、本実施形態において、原稿画像のボケが基準値以下(ボケていない)という状態は、原稿画像がボケておらず、文字の視認性がよい状態である。
一方、図12に示すように、本実施形態において、原稿画像のボケが基準値より大きい(ボケている)という状態は、原稿画像がボケていて、文字の視認性が悪い状態であり、撮影のリトライが必要となる。
図2に戻り、対象領域設定部102eは、所定の基準値以下のボケが検出された部分領域を原稿画像の向きの識別を行う対象領域として設定する(ステップSA−9)。
例えば、対象領域設定部102eは、各部分領域のボケを順番に検出し、ボケが基準値以下(ボケていない)の領域を確認した時点で、その部分領域を対象領域として設定してもよい。
また、対象領域設定部102eは、各部分領域のボケを比較して最もボケていない領域を対象領域として設定してもよい。
そして、向き特定部102gは、対象領域におけるコンテンツの向きを特定し、コンテンツの向きに基づいて、原稿画像の向きを特定する(ステップSA−10)。
例えば、向き特定部102gは、対象領域に含まれるコンテンツである文字領域の文字領域データに対するラベリング処理、および、文字領域データと辞書データファイル106aに記憶された辞書データとの比較により、コンテンツの向きを特定してもよい。
そして、向き補正部102hは、原稿画像の向きに基づいて、正立補正した原稿画像の補正後画像データを取得する(ステップSA−11)。
そして、向き補正部102hは、補正後画像データを画像データファイル106cに保存(格納)し(ステップSA−12)、処理を終了する。
更に、画像表示部102iは、向き補正部102hにより取得された原稿画像の補正後画像データを入出力部112に表示させることにより、ユーザに向き補正された原稿画像を確認させてもよい。
ここで、図13を参照して、本実施形態における向き補正処理の概要の一例について説明する。図13は、本実施形態における向き補正処理の一例を示す概要図である。
図13に示すように、本実施形態においては、原稿を撮影し(ステップSB−1)、撮影画像から原稿画像となる矩形抽出を行う(ステップSB−2)。
そして、この時点で、本実施形態においては、切り出した原稿画像の原稿画像データを表示させ、ユーザに確認させる。なお、本実施形態においては、射影変換した原稿画像の原稿画像データを表示させてもよい。
そして、本実施形態においては、ユーザへ矩形抽出した原稿画像の表示を行った後、撮影した原稿が一般的な文書の場合、原稿画像を部分領域に2×2分割する(ステップSB−3)。
そして、本実施形態においては、それぞれの部分領域のボケを検出し(ステップSB−4)、ボケがある一定以下の部分領域を検出した時点でその部分領域を使い、向き補正を行い、向き補正後の原稿画像を保存し(ステップSB−5)、処理を終了する。
ここで、もし、部分領域が白紙または文字数の候補が少ない場合、本実施形態においては、当該部分領域をボケ検出の対象とせずに、他の部分領域でボケ判定を行ってもよい。
一方、本実施形態においては、それぞれの部分領域のボケを検出し(ステップSB−4)、4つ全ての部分領域のボケが、基準値より大きい(ボケている)場合(ステップSB−6)、撮影自体をやり直す(リトライする)ため、処理をステップSB−1に移行させる(ステップSB−7)。
このように、本実施形態においては、画像中に含まれる原稿画像を検出し、原稿画像を分割し、分割した各領域のボケを検出し、よりボケの少ない領域を向き補正の対象領域として決定し、向き補正の対象領域から原稿画像の向き補正を行ってもよい。
また、本実施形態においては、原稿画像の特徴量による帳票判定を行い、特定の帳票(運転免許証または健康保険証等)の場合、その帳票種に特化した向き補正処理、および、処理後の画像データの保存を行ってもよい。
近年、スマートフォンまたはタブレット等のモバイル端末の普及に伴い、従来ではスキャナが利用されてきた業務が、カメラを有するモバイル端末を利用する業務に変化している。
これは、カメラによるスキャニングは場所を問わないこと、または、媒体の制限が無いことによる自由度が高いという利点があるからである。
一方、カメラ画像は、周辺の光量、撮影方向、および、撮影時の運動などの環境が安定しないことから、スキャナ画質と同等の画像を得ることが難しいという問題があった。
更に、従来の向き補正処理においては、原稿画像上部またはランダムな位置の文字を認識することで正しい原稿向きを判定していた。
しかしながら、一般的なカメラで原稿を撮影する場合、斜めを含む多方向から撮影されることがあるため、原稿画像にボケ領域が発生してしまい、向き補正処理の精度低下の原因となっていた。
そこで、本実施形態においては、スキャナ画質で行われていた画像処理を、モバイルカメラ画質にも対応できるようにしている。
[他の実施形態]
さて、これまで本発明の実施形態について説明したが、本発明は、上述した実施形態以外にも、請求の範囲に記載した技術的思想の範囲内において種々の異なる実施形態にて実施されてよいものである。
例えば、モバイル端末100は、スタンドアローンの形態で処理を行ってもよく、クライアント端末(モバイル端末100とは別筐体である)からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。
また、実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
このほか、明細書中および図面中で示した処理手順、制御手順、具体的名称、各処理の登録データもしくは検索条件等のパラメータを含む情報、画面例、または、データベース構成については、特記する場合を除いて任意に変更することができる。
また、モバイル端末100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
例えば、モバイル端末100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPUおよび当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。
なお、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じてモバイル端末100に機械的に読み取られる。すなわち、ROMまたはHDDなどの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
また、このコンピュータプログラムは、モバイル端末100に対して任意のネットワークを介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、DVD、および、Blu−ray(登録商標) Disc等の任意の「可搬用の物理媒体」を含むものとする。
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。
記憶部106に格納される各種のデータベース等は、RAMもしくはROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および/または、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および/または、ウェブページ用ファイル等を格納してもよい。
また、モバイル端末100は、既知のパーソナルコンピュータ等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、モバイル端末100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
以上のように、モバイル端末、画像処理方法、および、プログラムは、産業上の多くの分野、特にカメラで読み込んだ画像を扱う画像処理分野で実施することができ、極めて有用である。
100 モバイル端末
102 制御部
102a 画像取得部
102b 原稿特定部
102c 部分領域取得部
102d ボケ検出部
102e 対象領域設定部
102f 帳票判定部
102g 向き特定部
102h 向き補正部
102i 画像表示部
106 記憶部
106a 辞書データファイル
106b 帳票データファイル
106c 画像データファイル
110 撮影部
112 入出力部
114 センサ部
116 通信部

Claims (17)

  1. 撮影部の撮影による撮影画像の撮影画像データを取得する画像取得手段と、
    前記撮影画像に含まれる原稿画像を特定する原稿特定手段と、
    前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得手段と、
    前記部分領域のボケを検出するボケ検出手段と、
    前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定手段と、
    前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定手段と、
    前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正手段と、
    を備えたことを特徴とする、モバイル端末。
  2. 特定の帳票の特徴データ、および、レイアウトデータを記憶する帳票データ記憶手段と、
    前記特徴データに基づいて、前記原稿画像が前記特定の帳票に該当するか否かを判定する帳票判定手段と、
    を更に備え、
    前記向き特定手段は、
    更に、前記帳票判定手段により前記原稿画像が前記特定の帳票に該当すると判定された場合、前記レイアウトデータに基づいて、前記原稿画像の向きを特定する、請求項1に記載のモバイル端末。
  3. 辞書データを記憶する辞書データ記憶手段、
    を更に備え、
    前記向き特定手段は、
    前記対象領域の対象領域画像データに対するラベリング処理により、前記対象領域における文字を示す文字領域を特定し、前記文字領域の文字領域データと前記辞書データとの比較に基づいて、前記文字領域における前記文字の向きを特定し、前記文字の向きに基づいて、前記原稿画像の向きを特定する、請求項1または2に記載のモバイル端末。
  4. 前記部分領域取得手段は、
    前記原稿画像を分割した前記部分領域の前記部分領域画像データを取得する、請求項1から3のいずれか一つに記載のモバイル端末。
  5. 辞書データを記憶する辞書データ記憶手段、
    を更に備え、
    前記部分領域取得手段は、
    前記原稿画像の原稿画像データに対するラベリング処理により、前記原稿画像における文字を示す前記部分領域の前記部分領域画像データを取得し、
    前記向き特定手段は、
    前記対象領域の対象領域データと前記辞書データとの比較に基づいて、前記対象領域における前記文字の向きを特定し、前記文字の向きに基づいて、前記原稿画像の向きを特定する、請求項1または2に記載のモバイル端末。
  6. 前記対象領域設定手段は、
    前記ボケ検出手段により所定の基準値以下の前記ボケが検出された時点で、当該所定の基準値以下のボケが検出された前記部分領域を前記原稿画像の向きの識別を行う前記対象領域として設定する、請求項1から5のいずれか一つに記載のモバイル端末。
  7. 前記対象領域設定手段は、
    前記ボケ検出手段により検出された前記ボケを比較し、最もボケていない前記部分領域を前記原稿画像の向きの識別を行う前記対象領域として設定する、請求項1から5のいずれか一つに記載のモバイル端末。
  8. 前記画像取得手段は、
    前記ボケ検出手段により所定の基準値以下の前記ボケが検出されなかった場合、前記撮影部の再度の撮影による撮影画像データを取得する、請求項1から5のいずれか一つに記載のモバイル端末。
  9. 撮影部の撮影による撮影画像の撮影画像データを取得する画像取得ステップと、
    前記撮影画像に含まれる原稿画像を特定する原稿特定ステップと、
    前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得ステップと、
    前記部分領域のボケを検出するボケ検出ステップと、
    前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定ステップと、
    前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定ステップと、
    前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正ステップと、
    を含むことを特徴とする、画像処理方法。
  10. 記憶された特定の帳票の特徴データに基づいて、前記原稿画像が前記特定の帳票に該当するか否かを判定する帳票判定ステップ、
    を更に含み、
    前記向き特定ステップにて、
    更に、前記帳票判定ステップにて前記原稿画像が前記特定の帳票に該当すると判定された場合、記憶された特定の帳票のレイアウトデータに基づいて、前記原稿画像の向きを特定する、請求項9に記載の画像処理方法。
  11. 前記向き特定ステップにて、
    前記対象領域の対象領域画像データに対するラベリング処理により、前記対象領域における文字を示す文字領域を特定し、前記文字領域の文字領域データと記憶された辞書データとの比較に基づいて、前記文字領域における前記文字の向きを特定し、前記文字の向きに基づいて、前記原稿画像の向きを特定する、請求項9または10に記載の画像処理方法。
  12. 前記部分領域取得ステップにて、
    前記原稿画像を分割した前記部分領域の前記部分領域画像データを取得する、請求項9から11のいずれか一つに記載の画像処理方法。
  13. 前記部分領域取得ステップにて、
    前記原稿画像の原稿画像データに対するラベリング処理により、前記原稿画像における文字を示す前記部分領域の前記部分領域画像データを取得し、
    前記向き特定ステップにて、
    前記対象領域の対象領域データと記憶された辞書データとの比較に基づいて、前記対象領域における前記文字の向きを特定し、前記文字の向きに基づいて、前記原稿画像の向きを特定する、請求項9または10に記載の画像処理方法。
  14. 前記対象領域設定ステップにて、
    前記ボケ検出ステップにて所定の基準値以下の前記ボケが検出された時点で、当該所定の基準値以下のボケが検出された前記部分領域を前記原稿画像の向きの識別を行う前記対象領域として設定する、請求項9から13のいずれか一つに記載の画像処理方法。
  15. 前記対象領域設定ステップにて、
    前記ボケ検出ステップにて検出された前記ボケを比較し、最もボケていない前記部分領域を前記原稿画像の向きの識別を行う前記対象領域として設定する、請求項9から13のいずれか一つに記載の画像処理方法。
  16. 前記画像取得ステップにて、
    前記ボケ検出ステップにて所定の基準値以下の前記ボケが検出されなかった場合、前記撮影部の再度の撮影による撮影画像データを取得する、請求項9から13のいずれか一つに記載の画像処理方法。
  17. 撮影部の撮影による撮影画像の撮影画像データを取得する画像取得ステップと、
    前記撮影画像に含まれる原稿画像を特定する原稿特定ステップと、
    前記原稿画像における部分領域の部分領域画像データを取得する部分領域取得ステップと、
    前記部分領域のボケを検出するボケ検出ステップと、
    前記ボケに基づいて、前記部分領域を前記原稿画像の向きの識別を行う対象領域として設定する対象領域設定ステップと、
    前記対象領域におけるコンテンツの向きを特定し、前記コンテンツの向きに基づいて、前記原稿画像の向きを特定する向き特定ステップと、
    前記原稿画像の向きに基づいて、正立補正した前記原稿画像の補正後画像データを取得する向き補正ステップと、
    をコンピュータに実行させるためのプログラム。
JP2018535993A 2016-08-24 2016-08-24 モバイル端末、画像処理方法、および、プログラム Expired - Fee Related JP6613378B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/074720 WO2018037519A1 (ja) 2016-08-24 2016-08-24 モバイル端末、画像処理方法、および、プログラム

Publications (2)

Publication Number Publication Date
JPWO2018037519A1 JPWO2018037519A1 (ja) 2018-12-06
JP6613378B2 true JP6613378B2 (ja) 2019-11-27

Family

ID=61245655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018535993A Expired - Fee Related JP6613378B2 (ja) 2016-08-24 2016-08-24 モバイル端末、画像処理方法、および、プログラム

Country Status (2)

Country Link
JP (1) JP6613378B2 (ja)
WO (1) WO2018037519A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272792A (ja) * 1998-03-24 1999-10-08 Fuji Xerox Co Ltd 用紙方向判定装置及び方法
JP4866184B2 (ja) * 2006-03-15 2012-02-01 株式会社リコー 画像処理装置、画像方向判別方法、および画像方向判別プログラム
CN103455806B (zh) * 2012-05-31 2017-06-13 富士通株式会社 文档处理装置、文档处理方法以及扫描仪

Also Published As

Publication number Publication date
JPWO2018037519A1 (ja) 2018-12-06
WO2018037519A1 (ja) 2018-03-01

Similar Documents

Publication Publication Date Title
JP7059054B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10810743B2 (en) Image processing device, image processing method, and computer program product
US20180285677A1 (en) Information processing apparatus, control method thereof, and storage medium
US10885375B2 (en) Mobile terminal, image processing method, and computer-readable recording medium
JP2019096304A (ja) 画像処理装置およびその制御方法およびプログラム
WO2018167971A1 (ja) 画像処理装置、制御方法及び制御プログラム
JP6613378B2 (ja) モバイル端末、画像処理方法、および、プログラム
US10514591B2 (en) Camera apparatus, image processing device, and image processing method
JP6600090B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP6777507B2 (ja) 画像処理装置および画像処理方法
JP6503478B2 (ja) モバイル端末、画像処理方法、および、プログラム
JP6697829B2 (ja) モバイル端末、画像処理方法、および、プログラム
KR20140103021A (ko) 객체 인식이 가능한 전자 장치
JP6596512B2 (ja) モバイル端末、画像処理方法、および、プログラム
JP6785930B2 (ja) モバイル端末、画像処理方法、および、プログラム
JP2020149184A (ja) 情報処理装置、その制御方法及びプログラム
JP2019140449A (ja) 撮像装置、制御方法及び制御プログラム
JP4315025B2 (ja) 撮影装置、画像取得方法及びプログラム
WO2017158814A1 (ja) モバイル端末、画像処理方法、および、プログラム
JP6326316B2 (ja) 画像処理装置、撮影装置、プログラム、記録媒体
JP2014143630A (ja) 画像処理システム
JP2005173946A (ja) 携帯情報端末およびその文字認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191101

R150 Certificate of patent or registration of utility model

Ref document number: 6613378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees