JP7102170B2 - 画像処理装置、および画像処理装置の制御方法とプログラム - Google Patents

画像処理装置、および画像処理装置の制御方法とプログラム Download PDF

Info

Publication number
JP7102170B2
JP7102170B2 JP2018035310A JP2018035310A JP7102170B2 JP 7102170 B2 JP7102170 B2 JP 7102170B2 JP 2018035310 A JP2018035310 A JP 2018035310A JP 2018035310 A JP2018035310 A JP 2018035310A JP 7102170 B2 JP7102170 B2 JP 7102170B2
Authority
JP
Japan
Prior art keywords
image
document image
cpu
area
character recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018035310A
Other languages
English (en)
Other versions
JP2019149788A (ja
JP2019149788A5 (ja
Inventor
純也 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018035310A priority Critical patent/JP7102170B2/ja
Priority to US16/282,200 priority patent/US10984233B2/en
Publication of JP2019149788A publication Critical patent/JP2019149788A/ja
Priority to US17/208,836 priority patent/US20210209359A1/en
Publication of JP2019149788A5 publication Critical patent/JP2019149788A5/ja
Application granted granted Critical
Publication of JP7102170B2 publication Critical patent/JP7102170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/147Determination of region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Description

本発明は、画像処理装置と画像処理装置の制御方法、および、プログラムに関する。
帳票等の紙文書を画像処理装置でスキャンしてデジタルデータ化して管理することがある。文書をスキャンすることで得られた画像を保存する際には、一般的に、デジタル化した文書画像に、文書の種類・内容に応じたファイル名やメタ情報をつけて、所定のフォルダに格納する。
特許文献1に記載の画像処理装置において、ユーザは予めスキャンされる原稿のフォーマット、その原稿に含まれる文字列とその原稿をコピー、送信するときの設定を対応づけて登録しておく。画像処理装置は原稿をスキャンすることで得られた画像データの構造と当該画像データに含まれる文字列から、スキャンした原稿が予め登録された原稿であるか否かを判定する。スキャンした原稿が予め登録された原稿であった場合、画像処理装置は、予め原稿に対応づけて登録されたコピーや送信の設定を推奨設定として表示する。
特開2011-15348号公報
特許文献1に記載の画像処理装置は、スキャンして得られた原稿の画像に対してOCR(Optical Character Reader)処理を実行し、画像に含まれる文字列を用いて、原稿の種類を判定している。
原稿をスキャンすることで得られた画像データの一部の文字列のOCR処理の結果を用いて、ファイル名をつけたり、原稿に含まれる文字列と予め登録された文字列を比較する場合がある。上記のような処理を実行する場合、画像全体に対してOCR処理を実行すると、ファイル名やメタ情報として使用されない文字列に対してまでOCR処理を実行するため、OCR処理の結果を表示するまでに時間がかかってしまう。
本発明に記載の画像処理装置は、取得した画像に対して表示に使用されない領域まで文字認識処理がなされてしまうことを防ぐことを目的とする。
上記課題を解決するために、本出願に記載の画像処理装置は、取得した画像から、所定の属性を有する複数の領域を抽出する抽出手段と、前記抽出された複数の領域の位置情報に基づいて、記憶部に記憶されている複数の登録文書の情報の中から、前記取得した画像に最も類似する登録文書の情報を判定する判定手段と、前記判定された最も類似する登録文書の情報に対して予め特定された処理対象領域の位置に基づいて、前記抽出手段により前記取得した画像から抽出された前記複数の領域の中から、前記取得した画像における処理対象領域を選択する選択手段と、前記選択された処理対象領域に対して文字認識処理を実行する文字認識手段と、前記文字認識手段による前記選択された処理対象領域に対する文字認識処理により得られた第1のテキストデータと、前記取得した画像とを表示する表示手段と、を有する画像処理装置において、前記文字認識手段は、さらに、前記表示手段により表示された前記取得した画像において、前記選択手段で選択された処理対象領域とは異なる領域がユーザにより指定された場合に、前記ユーザによって指定された領域に対して文字認識処理を実行し、前記表示手段は、前記ユーザによって指定された領域に対する文字認識処理により得られた第2のテキストデータと、前記表示された第1のテキストデータとを連結して表示する、ことを特徴とする。
本発明に記載の画像処理装置は、取得した画像に対して表示に使用されない領域まで文字認識処理がなされてしまうことを防ぐことができる。
実施形態における、画像処理装置100のハードウェア構成の一例を示すブロック図である。 本実施形態における画像処理装置100の実行する処理を示すフローチャートである。 本実施形態において、原稿をスキャンすることで得られる画像データおよび、ブロックセレクション処理の結果の一例を示す模式図である。 本実施形態におけるクエリ文書画像の一例を示す模式図である。 本実施形態において、ディスプレイ110に表示される画面の一例を示す図である。 本実施形態において、ディスプレイ110に表示されるファイル名の編集画面の一例を示す図である。 本実施形態において、スキャンされる原稿を模式図である。 本実施形態において、類似度を算出するための処理を示すフローチャートである。 本実施形態において、クエリ文書画像のシフト量を算出するための処理を示すフローチャートである。 本実施形態において、クエリ文書画像と登録文書画像のテキストブロックの対応を示す模式図である。 本実施形態において、シフト量を算出するために用いられる情報を示す図である。 本実施形態において、クエリ文書画像にマッチングする登録文書画像を選択する処理を示すフローチャートである。 本実施形態における、登録文書画像、およびクエリ文書画像に含まれるテキストブロックの管理テーブルの一例を示す図である。 本実施形態において、クエリ文書画像と登録文書画像の類似度を算出する処理のフローチャートである。 本実施形態における、オーバーラップ率算出方法を説明する模式図である。 第2の実施形態において、画像処理装置が実行する処理を示すフローチャートである。 第2の実施形態において、ブロックセレクション処理を実行する領域を説明するための模式図である。
[実施形態1]
以下、本発明を実施するための形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。
図1は、本実施形態におけるシステム構成の一例を示すブロック図である。図1に示される通り、本実施形態の文書画像のスキャンアシストシステムは、画像処理装置100により実現される。
画像処理装置100は、ユーザインターフェース104、CPU105、RAM106、記憶部107、画像読取部108、画像出力部109、ディスプレイ110を備える。そして、各部は装置制御部102を介して相互に通信可能に接続されている。さらに画像処理装置100は、画像データを処理するASICから構成される画像処理部103を有する。画像処理装置100は、ネットワーク101を介して、非図示の外部の情報処理装置と接続される。ユーザインターフェース104は、例えばキーボード、マウス、その他入出力装置によって構成され、各種の設定値または指定値を入力することができる。
CPU105は、記憶部107に記憶された初期プログラムに従って、メインプログラムを記憶部107より読出し、RAM106に記憶する。RAM106はプログラム格納用や、ワーク用のメインメモリとして使用される。そして、メインプログラムに従って、CPU105は装置制御部102を制御する。
画像読取部108は、スキャナデバイスであり、原稿を読取ることにより画像データを取得する。装置制御部102は、画像読取部108から画像データを取得すると、取得した画像データを記憶部107に記憶する。そして、装置制御部102は、スキャンアシスト処理を実行する際に、記憶部107に記憶された画像データをRAM106に読み出す。本実施形態において、スキャンアシスト処理は、スキャンした画像データに付随させる情報をユーザにレコメンドする処理である。本実施形態において、画像処理装置100がユーザにレコメンドする情報は、原稿を読み取ることで得られた画像データのファイル名である。本実施形態では、画像データのファイル名を画像処理装置がレコメンドするとして説明するが、画像処理装置が、原稿を読み取ることで得られた画像データの送信先や格納先をレコメンドするとしてもよい。さらに、画像処理装置が、領収書等の原稿を読み取り、読み取った領収書の金額欄を表示するとしてもよい。
スキャンアシスト処理を実行するために装置制御部102は、RAM106に記憶された画像データを解析し、スキャンアシスト処理に必要な情報を生成する。スキャンアシスト処理を実行するための解析処理は、以下の3つの処理からなる。1つ目は、画像データに含まれる文字列ブロックを抽出するブロックセレクション処理(BS処理)である。2つ目は、予め画像処理装置100に登録されている画像データと新たに原稿をスキャンして得られた画像データとの間の類似度を求めるマッチング処理である。3つ目は、文字列ブロックに含まれる文字を認識する光学文字認識処理(OCR処理)である。
装置制御部102は、生成した情報を用いてスキャンアシスト処理のためのUI画面を生成し、ディスプレイ110に表示する処理を実行する。そして、装置制御部102は、ユーザインターフェース104を介したユーザからの指示に基づき、原稿をスキャンして読み取ることで得られた画像データのファイル名を設定する。そのご、画像処理装置100は、画像データに設定されたファイル名を付与して記憶部107に記憶する。
画像出力部109は、装置制御部102による制御に従って、記憶部107に記憶された画像データを種々の形式で出力する。たとえば、画像出力部109はプリンタデバイスであり、画像出力部109は、装置制御部102の制御に基づいて画像を用紙に印刷する印刷処理を実行する。画像出力部109が画像データの送信機能を有し、装置制御部102の制御に基づいて、記憶部107に記憶された画像データを外部の装置に送信するとしてもよい。
以上に説明した画像処理装置100は本実施形態の一例である。画像読取部108および画像出力部109のうち、画像出力部109を有さない構成の画像処理装置100であってもよい。また、画像処理装置100の一部機能を、ネットワークを介して接続された外部処理装置で実行するようにしても構わない。外部処理装置は、サーバ等のコンピュータ装置であってもよく、インターネット上のクラウドサーバーであってもよい。その他必要に応じて、その他の構成を備えるものであってもよい。
次に、本実施形態において、画像処理装置100が実行するスキャンアシスト処理を図2に記載のフローチャートを用いて説明する。図2は、画像処理装置100が原稿をスキャンして画像データを生成したときに実行される処理のフローチャートである。図2のフローは、画像処理装置100がユーザインターフェース104を介して、ユーザから原稿のスキャン指示を受け付けることにより実行される。図2に示されるフローチャートで示された処理を実行するためのプログラムは記憶部107に記憶されている。記憶部107に記憶されたプログラムは、RAM106に展開され、CPU105によって実行される。
はじめに、CPU105は、画像読取部108で原稿を読み取り画像データを生成する(S201)。S201において、CPU105は画像処理部103を制御して生成した画像データに対する色変換処理・階調補正等の補正処理を実行する。CPU105は、画像データに対して必要な処理を完了した後、当該画像データを記憶部107に記憶する。以降、本実施形態においてこの画像データを、クエリ文書画像と呼称する。図3(A)は、画像読取部108が原稿を読み取ることで生成されたクエリ文書画像の一例である。
次に、CPU105は、記憶部107に保存されているクエリ文書画像をRAM106に読み出し、回転補正処理を実行する(S202)。回転補正処理は、S201で生成されたクエリ文書画像が縦長の画像データであるか横長の画像データであるかを判定し、クエリ文書画像の天地を補正するための処理である。CPU105は、クエリ文書画像内の文字列や線が水平に並ぶようクエリ文書画像を回転させ回転角を決定する。例えば、CPU105は様々な方向への射影ヒストグラムを取り、ヒストグラムのピークとボトムが短い周期で大きく振動するヒストグラムに対応する角度を回転角として選択する。一般的には原稿中の文字は水平または垂直方向に並んでいるため、クエリ文書画像が水平になっている場合、射影ヒストグラムのピークとボトムが短い周期で繰り返される。
次に、CPU105は、クエリ文書画像に対して、ブロックセレクション処理(BS処理)を実行する(S203)。ブロックセレクション処理とは、クエリ文書画像を複数の領域に分割し、それぞれのブロックの属性を判定する処理である。ブロックの属性とは、たとえば、文字(TEXT)/図画(PICTURE)/写真(PHOTO)/線(LINE)/表(TABLE)等である。図3(B)は、図3(A)で示したクエリ文書画像に対してブロックセレクション処理を実行した後のデータである。図3(B)において破線で囲まれた1つ1つの矩形がブロックであり、各ブロックに属性が付与されている。
ブロックセレクション処理の方法は公知の方法を用いることとする。たとえば、CPU105がクエリ文書画像を白黒に二値化し、二値化された画像データに対してエッジを抽出する。そして、CPU105は、連続した黒画素で囲まれる領域を抽出する。抽出された領域の面積が所定の面積よりも大きい場合、CPU105は、さらに領域の内部の白画素が連続する領域を抽出する。抽出された白画素で囲まれる領域の面積が所定の面積よりも大きい場合、CPU105は再度、上記領域内の黒画素が連続する領域を抽出する。CPU105は、黒画素、または、白画素で囲まれる面積が所定の面積よりも小さくなるまで処理を繰り返す。
CPU105は、上記の処理で得られた領域を、大きさおよび形状で分類し、属性を選択する。たとえば、CPU105は領域の縦横比が1に近く、大きさが所定の範囲に含まれる領域を文字と判断する。そして、CPU105は、文字と判断された領域であって、整列している領域をグループ化して文字列(TEXT)のブロックとする。たとえば、画像処理装置は、ある文字と判断された領域と、当該領域から水平方向に所定距離以内のところにある文字と判断された領域を1つの文字列のブロックとする。
本実施形態において、文字列のブロックはテキストブロックと呼称する。また、CPU105は、扁平な画素塊を線(LINE)のブロックとする。さらに、CPU105は、一定大きさ以上でかつ矩形の白画素塊を整列よく内包する矩形を表(TABLE)のブロックとし、不定形の画素塊が散在している領域を写真(PHOTO)のブロックとする。そして、上記のいずれにも当てはまらない画素塊を図画(PICTURE)のブロックとする。ブロックセレクション処理で得られた各ブロックに対する属性情報は以降に説明するOCR処理、類似度計算等の為の情報として用いられる。
次に、CPU105は、予め記憶部107に記憶されていた登録文書画像からクエリ文書画像に類似する画像を選択するマッチング処理を行う(S204)。CPU105は、記憶部107に記憶された複数の登録文書画像とクエリ文書画像を比較し、それぞれの登録文書画像に対する類似度を算出する。そして、CPU105は類似度が最大となった登録文書画像をマッチング候補の登録文書画像として選択する。
登録文書画像とは、予め画像処理装置100の記憶部107に記憶された文書画像である。画像処理装置100の記憶部107は、登録文書画像を複数記憶する。そして、画像処理装置100は、記憶部107に記憶された登録文書画像から、クエリ文書画像との類似度が最も高い登録文書画像をマッチング候補として選択する。
登録文書画像には、各画像データに対するブロックセレクション処理の結果や当該画像データのファイル名付けルールなどスキャンアシスト処理に用いられる情報が付加されている。登録文書画像に付加されている情報は、とたえば、図13(A)に記載のようなテーブルで管理される。図13(A)に記載のテーブルは、登録文書画像に含まれるテキストブロックの情報を示すテーブルである。「ブロックID」は各テキストブロックを識別するための番号である。「座標(x、y)」は各テキストブロックの左上の点の座標である。「サイズ(x、y)」は各テキストブロックの横(x方向)、縦(y方向)の大きさである。「ファイル名付けルール」は、各テキストブロックがファイル名を付けるときに使われたか否か、また、何番目に使われたかを示す情報である。たとえば、図13(A)であれば、ブロックID001のテキストブロックとブロックID002のテキストブロックがファイル名を付けるときに使用されたブロックである。さらに、図13(A)はブロックID001、ブロックID002の順で文字列をつなげたファイル名が使用されたことを示している。座標、および、サイズはクエリ文書画像の左上頂点を原点とし、原点からクエリ文書画像に沿って右方向をx軸正の方向。原点からクエリ文書画像に沿って下方向をy軸正の方向とする。クエリ文書画像の右ほどxの値が大きくなり、クエリ文書画像の下ほどyの値が大きくなる。
CPU105は、記憶部107から登録文書画像を読み出し、RAM106に記憶する。そして、CPU105はRAM106に記憶された登録文書画像とクエリ文書画像の類似度を算出する。類似度の算出は、公知の方法で行うこととする。本実施形態では、後述する処理により各登録文書画像とクエリ文書画像の類似度が算出される。本実施形態において、記憶部107に記憶される登録文書画像は、文書画像そのものでなく、各文書画像のブロックセレクション処理結果等であってもよい。また、CPU105はマッチング処理を実行したのちに、クエリ文書画像と登録文書画像の対応情報や、登録文書画像のファイル名の命名ルールに関する情報を得る。クエリ文書画像と登録文書画像の対応情報とは、登録文書画像とクエリ文書画像のテキストブロックの対応を示す情報などである。
続いて、CPU105は、S204において選択した登録文書画像とクエリ文書画像の類似度が所定の閾値以上であるか否かを判定する(S205)。S204で選択された登録文書画像に対する類似度が所定の閾値以上である場合、CPU105はS204において選択されたマッチング候補の登録文書画像がクエリ文書画像にマッチングした画像であると判定する。一方で、S204で選択された登録文書画像に対する類似度が所定の閾値に満たない場合、CPU105はクエリ文書画像にマッチングする登録文書画像はないと判定する。マッチングした登録文書画像があると判断された場合、CPU105はS206以降の処理を実行し、マッチングした文書画像がないと判断された場合、CPU105はS209以降の処理を実行する。
S206において、CPU105はS204で選択した登録文書画像に付加された情報を参照し、登録文書画像に含まれるテキストブロックからファイル名を生成するときに用いられたテキストブロックを特定する。CPU105は、たとえば、図13(A)の登録文書画像テーブルから、ファイル名付けに使用されたテキストブロックのブロックIDを特定する。
そして、CPU105は特定されたテキストブロックに対応するテキストブロックをクエリ文書画像から選択する(S207)。S207は、S206で特定されたテキストブロックに対して、後述する方法で対応づけられたクエリ文書画像中のテキストブロックを選択する。S206、S207の処理を行うことで、画像処理装置100は、クエリ文書画像からファイル名の表示に用いられる領域を自動で選択する。
CPU105は、S207で選択されたテキストブロックに対してのみ文字認識処理を実行して、テキストデータを生成する(S208)。具体的には、CPU105がクエリ文書画像からS207で選択したテキストブロック部分の画像を抽出し、その部分画像のみに対してOCR処理を行うことでテキストデータを生成する。OCR処理は、部分空間法等を用いた公知の種々の手法が適用可能である。
続いて、CPU105は、スキャンアシスト情報を生成し、クエリ文書画像とともにファイル名を設定するファイル名設定画面をディスプレイ110に表示する(S209)。そして、CPU105はユーザインターフェース104を介してユーザの操作を受け付ける。本実施例に記載の画像処理装置は、ファイル名に使用する箇所のみをOCR処理して、OCR処理の結果を表示する。これにより、画像処理装置は、すべてのテキストブロックに対してOCR処理を実行するよりも素早くOCR処理の結果を表示することができ、原稿をスキャンして得られた画像データのファイル名のレコメンドにかかる時間を短くすることができる。
ここで、S209において、ディスプレイ110に表示される画面の一例を図4、図5を用いて説明する。図4は、原稿を画像読取部108で読み取ることで得られたクエリ文書画像の一例である。そして、図5(A)はクエリ文書画像とマッチングした登録文書画像が記憶部107に記憶されていた場合にディスプレイ110に表示される画面の一例である。
図5(A)のように、クエリ文書画像から抽出されたテキストブロックは背景色のグレーにして表示されている。図5(A)では、一部背景色がグレーとなっていない領域がある。これはS203に記載の処理においてテキストブロックとして認識されなかった領域である。
図5(A)では、「注文書」と書かれているテキストブロック501および「株式会社西取手白山商会」と書かれているテキストブロック502に番号が添えられている。テキストブロック501および502は、クエリ文書画像に含まれるテキストブロックのうち、ファイル名の候補の生成に利用されたテキストブロックである。本実施形態においては、S208においてクエリ文書画像に含まれるテキストブロックのうち501,502のみに対してOCR処理が実行され、OCR処理の結果がS209で表示される。クエリ文書画像のうち、ファイル名の生成に必要な箇所のみをOCR処理することで、表示するファイル名を設定するまでにかかる時間を短くすることができる。テキストブロック501の左上の数字[1]は、マッチングした登録文書画像において対応するテキストブロックが、ファイル名の1番目の文字列として選択されていたことを示している。テキストブロック502の左上の数字[2]は、同様に、マッチングした登録文書画像において対応するテキストブロックが、ファイル名の2番目の文字列として選択されていたことを示している。よって、図5(A)では、この2つの部分のOCR結果である「注文書」と「株式会社西取手白山商会」が「_」で連結され、「注文書_株式会社西取手白山商会」がテキストボックス503にレコメンドされている。ユーザがファイル名づけボタン504をタップ操作すると、CPU105はテキストボックス503に記載のファイル名を付加してクエリ文書画像を記憶部107に記憶する。ユーザがファイル名を編集する場合には、テキストボックス503をタップ操作する。レコメンドされたファイル名を編集する場合の操作についてはS213~S215において後述する。
また、S205においてマッチングした登録文書画像がない場合、いずれのテキストブロックもOCR処理がなされていないため、ディスプレイ110には図5(B)に示す画面が表示される。図5(B)に示す画面がディスプレイ110に表示された場合、画像処理装置100はユーザ操作に基づいて、当該クエリ文書画像にファイル名を付ける。
ユーザインターフェース104がユーザ操作を受け付けたことに従って、CPU105はファイル名が決定されたか否かを判定する(S210)。ユーザがファイル名づけボタン504をタップ操作した場合、CPU105はファイル名が決定されたと判定する。ユーザの操作がファイル名づけボタン504の押下と異なる操作である場合、CPU105はS213以降の処理を実行する。
ファイル名づけボタン504が操作された場合、CPU105はテキストボックス503に表示されているファイル名をクエリ文書画像に付加して画像データを記憶部107に記憶する(S211)。本実施形態では、画像データを記憶部107に記憶するとしたが、画像データを外部の装置に送信したり、画像処理装置100に接続されたサーバ等に画像データを保存するとしてもよい。その場合、画像処理装置100はファイル名に加えて、画像データの送信先や保存箇所をユーザに設定させる。
画像データを保存した後、CPU105は、記憶部107に記憶された登録文書画像に付加された情報を更新する(S212)。S212において、CPU105は保存された画像データに付加されたファイル名に使用されたテキストブロックが登録文書画像に含まれるいずれのテキストブロックに対応したテキストブロックであるかの情報を更新する。たとえば、ファイル名付けに使用されるテキストブロックがマッチングした登録文書画像と異なる場合、CPU105は、マッチングした登録文書画像に対応づけられたファイル名付けに使用するテキストブロックの情報を更新する。また、テキストブロックに含まれる文字列以外の文字列がファイル名として使用された場合、CPU105は付加された文字列の情報を登録文書画像と紐づけて記憶部107に記憶する。画像処理装置100がレコメンドしたファイル名がそのままファイル名として使用された場合、CPU105がS212に記載の処理を実行しなくてもよい。S212に記載の処理を終了した後、CPU105は図2に記載の処理を終了する。
次に、S210において、ファイル名が決定されなかったときの処理を説明する。S210においてファイル名が決定されなかった場合とは、ユーザが「ファイル名付け」504以外の箇所をタップ操作した場合である。たとえば、S205においてマッチングした登録文書画像がなくテキストボックス503に文字列が表示されていない場合にユーザは「ファイル名付け」504以外の箇所を操作する。また、ユーザが画像処理装置100のレコメンドしたファイル名と異なるファイル名を使用したい場合にもユーザは「ファイル名付け」504以外の箇所を操作する。
次に、CPU105は、テキストブロックがタップ操作されたか否かを判定する(S213)。S213においてCPU105は、ディスプレイ110に表示された画面で背景色がグレーとなっているテキストブロックをユーザがタップ操作したか否かを判定する。ユーザがテキストブロックをタップ操作した場合、CPU105はS214以降の処理を実行し、ユーザがテキストブロックをタップ操作していない場合、CPU105はS216以降に記載の処理を実行する。
S214において、CPU105は、タップ操作されたテキストブロックのOCR処理を行う。ユーザがタップ操作したテキストブロックが、既にOCR処理されたテキストブロックであり、テキストブロックとOCR結果が紐づけられている場合、CPU105はOCR処理を実行しない。テキストブロックのOCR方法は、S206と同様である。S214においては、ユーザがタップ操作したテキストブロックに対してのみOCR処理する。このようにすることで、クエリ文書画像全体をOCR処理するよりも短時間で選択されたテキストブロックに含まれる文字列を認識することができる。
そして、CPU105は、S214で実行されたOCR処理の結果を利用して、ディスプレイ110に表示されるファイル名設定画面を更新する(S215)。たとえば、図6(A)は、クエリ文書画像に含まれるテキストブロックのうちテキストブロック601が選択され、テキストボックス701に「注文書」が表示された状態を示している。ここで、ユーザがテキストブロック702をタップ操作したとする。CPU105は、S214においてテキストブロック702に含まれる文字列に対してOCR処理を実行する。そして、CPU105は、S215においてテキストブロック702の左上に[2]を表示し、テキストボックス701の「注文書」のあとに「_株式会社西取手白山商会」を表示する。CPU105はS215に記載の処理を実行後、処理をS210に戻す。
S213においてテキストボックスが選択されていない場合、CPU105は、テキストボックス701がタップ操作されたか否かを判定する(S216)。例えば、S216において、CPU105は、ユーザがテキストボックス701をタップ操作したか否かを判定する。テキストボックス701がタップ操作された場合、CPU105はS217以降の処理を実行し、テキストボックス701がタップ操作されていない場合、CPU105は処理をS210に戻す。
S216においてテキストボックスがタップ操作されたと判定された場合、CPU105は、テキストボックス701に表示された文字列を編集する編集領域704をディスプレイ110に表示する(S217)。S217において、ディスプレイ110に表示される画面を図6(C)に示す。編集領域704は現在テキストボックスに入力されている文字列を表示する。カーソル705は文字列の編集箇所を示すカーソルである。「OK」706はテキストボックスに入力される文字列の編集を完了するボタンである。ユーザは、画像処理装置100に接続された不図示のキーボード、マウスを用いて文字列を編集する。編集領域704とともに、ソフトキーボードをディスプレイ110に表示するとしてもよい。ユーザが「OK」706を選択したことに従って、CPU105は処理をS218に進める。図6(D)は、ユーザが図6(C)の状態から「株式会社」の文字列を削除した状態を示している。
ユーザが「OK」706をタップ操作したことに従って、CPU105はディスプレイ110に表示されるファイル名設定画面を更新する(S218)。図6(D)において、ユーザが「OK」706をタップ操作した場合、CPU105はディスプレイ110に表示される画面を図6(E)に示す。図6(E)に示された画面のテキストボックス701には、「注文書_西取手白山商会」という文字列が表示されている。S210以降の処理は、前述した処理と同様であるため説明を省略する。
以上により、画像処理装置100は図2に記載の処理を終了する。本実施形態では、S208において、S207で選択された箇所のOCR処理を行い、S214において、S213で選択されたテキストブロックのOCR処理を実行するとした。S208でS207において選択された箇所のOCR処理を実行し、ファイル名を表示した後、CPU105が任意のタイミングでOCR処理を実行していないテキストブロックのOCR処理を実行するとしてもよい。このようにすることで、S213において、テキストブロックが選択された後に、OCR処理を実行しなくとも当該テキストブロックに含まれる文字列を表示することができるようになる。
以上が、本実施形態に記載の画像処理装置がスキャンアシスト処理を実行するときの全体フローの説明である。
次に、図2のS204におけるマッチング処理について説明する。ここで説明する処理はクエリ文書画像に類似する登録文書画像を選択するための処理の一態様であり、公知の方法や他の方法によりクエリ文書画像と類似する登録文書画像を選択するとしてもよい。
本実施形態において、画像処理装置100はクエリ文書画像を保存する際のファイル名づけに用いられるルールを特定するために、クエリ文書画像と類似する登録文書画像を記憶部107に記憶された複数の登録文書画像から選択する。
本実施形態において、類似度は、文書画像内のテキストボックスの位置や、大きさ等の文書画像の構造が類似していることを意味する値であり、文書画像に含まれる文字列が類似していることは必ずしも必要ではない。帳票のように同じフォーマットを繰り返し使用する場合、文字列の配置される位置等の文書画像の構造が大きく変化することはない。一方で、文書画像に含まれる文字列は文書毎に異なる場合がある。そのため、画像処理装置100は、文書画像に含まれる文字列の内容が異なる場合であっても、テキストブロックの配置等の文書画像の構造が類似する登録文書画像をクエリ文書画像に類似する文書画像として選択する。
たとえば、クエリ文書画像が図7(A)に示す画像であり、登録文書画像が図7(B)、(C)であったとする。領域901、903、905のような帳票上部の領域は、帳票のヘッダ部であり、文書のタイトルや文書の作成者に関する情報、当該文書の宛先など、当該文書を識別するための情報が記載されている。このような帳票上部のヘッダ部に記載されている情報は、ファイル名づけに使用される場合が多い。また、ヘッダ部が類似している帳票は同一のフォーマットを用いて作成された帳票である可能性が高く、同様のファイル名づけルールに則ってファイル名が付けられる可能性が高い。一方、領域902や領域904は当該文書画像の詳細な内容が記載されている箇所であり、たとえば、注文書であれば、注文する品物の名称や個数、金額等を記載する箇所である。この領域は、記載する内容によって、同じフォーマットを用いて作成された文書であってもテキストブロックの数や配置が変化する領域である。
そこで、本実施形態においては、図7(A)に記載のクエリ文書画像と図7(B)に記載の登録文書画像は領域902、領域904の構造が類似していないが、領域901、903が類似しているため、類似度の高い画像として処理する。一方で、図7(A)に記載のクエリ文書画像と図7(C)に記載の登録文書画像は領域902と領域906が互いに類似しているが、ヘッダ部が類似していない。この時、画像処理装置はファイル名付けルールに使用されるテキストブロックが多いと考えられるヘッダ部の類似しない図7(A)と図7(C)を類似度の低い画像として処理する。
上記に記載したS204の文書マッチングの処理の詳細について、図8を用いて説明する。図2と同様に、図8に示されるフローチャートによる処理は、記憶部107に記憶されたプログラムコードがRAM106に展開され、CPU105によって装置制御部102が制御されることにより実行される。
まず、CPU105は、RAM106からクエリ文書画像のブロックセレクション処理の結果を取得する(S801)。ブロックセレクション処理の結果とは、各ブロックの位置、大きさ、属性情報である。各ブロックの位置とは、各ブロックの左上の点の座標であり、大きさとは、各ブロックの縦、横のピクセル数等の情報である。また、各ブロックの属性情報とは、各ブロックがテキストブロックなのか、テーブルブロックなのか等を示す情報である。
続いて、CPU105は、S801で取得したクエリ文書画像のブロックセレクション処理の結果に対して前処理を実行する(S802)。前処理とは、たとえば、文書画像に含まれるブロックからテキストブロックのみを抽出する処理や、抽出したテキストブロックを文書画像の垂直方向の上から下へのソートする処理である。図13(B)は、S802の前処理後のテキストブロックの情報を示すテーブルである。本テーブルはRAM106に記憶される。図13(B)に記載のテーブルは、クエリ文書画像に含まれるテキストブロックを上から順に並べたテーブルである。「ブロックID」「座標(x,y)」「サイズ(x,y)」は図13(A)と同様である。本実施形態においては、テキストブロックの位置が文書画像の構造を良く表現しているため、また、テキストブロックがファイル名付けに使用される可能性が高いため、全ブロックのうち、テキストブロックのみを抽出する。なお、本実施形態では抽出するブロックをテキストブロックに絞ったが、写真領域や表領域等の他のBS処理結果情報を類似度の算出時に使用することを制限するものではない。また、S802においてCPU105はノイズブロックの除去を行う。ノイズブロックとは、文字列として意味をなしていないと考えられる短い文字列である。これらのテキストブロックは、クエリ文書画像内のノイズをテキストブロックとして認識したブロックである可能性が高いため、CPU105は上記のテキストブロックを削除する。そして、CPU105は、ノイズ除去後に残ったテキストブロックを垂直方向へ上から下へソートする。テキストブロックのソートは以降の類似度の算出に用いるために実行する。
CPU105は、記憶部107にクエリ文書画像との類似度を算出していない未処理の登録文書画像があるか否かを判定する(S803)。記憶部107に保持されている登録文書画像群の中で類似度算出処理が未処理の登録文書画像があれば、CPU105は当該登録文書画像をRAM106に読み出し、S804に記載の処理へ進む。S803において、RAM106に読み出される情報は、各登録文書画像自体ではなく、各登録文書画像のテキストブロックの情報、および、登録文書画像のファイル名付けに用いられてテキストブロックを示す情報である。なお、本実施形態では、登録文書画像を一つずつ読み出して、類似度を算出するとしたが、S801の前にすべての登録文書画像の情報をRAM106に読み出してもよい。S803において、クエリ文書画像との類似度の算出が完了していない登録文書画像がない場合、CPU105はS806に後述する処理を実行する。
次に、CPU105は、クエリ文書画像とS803で読みだされた登録文書画像間でのシフト量の算出を行う(S804)。シフト量とは、クエリ文書画像と登録文書画像を重ねたときに、両者のテキストブロックの重複する割合が最も大きくなる位置関係を示す値である。この処理の詳細については後述する。
続いて、CPU105は、クエリ文書画像とS803で読みだされた登録文書画像の類似度を算出する(S805)。この処理の詳細については後述する。CPU105はS805に記載の処理を完了した後、S803に記載の処理に処理を戻す。
全ての登録文書画像について、クエリ文書画像との類似度算出処理が終了したら、CPU105は、登録文書画像群からクエリ文書画像との類似度が最大となる登録文書画像を選択する(S806)。以上が図2のS204の詳細フローである。
続いて、図8のS804においてCPU105が実行するシフト量算出処理の詳細について、図9、図10を用いて説明する。なお、図9、図10を用いて説明するシフト量算出方法は、一態様であり、他の手法を用いても構わない。
まず、CPU105は、クエリ文書画像のテキストブロックの情報をRAM106から取得する(S1001)。テキストブロックの情報とは、たとえば、テキストブロックの左上の点の座標や、ブロックの大きさを示す情報であり、図13(B)に示される情報である。続いて、CPU105は、S803で記憶部107から取得された登録文書画像のテキストブロックの情報をRAM106から取得する(S1002)。S1002において取得される情報とは、たとえば、図13(A)に記載の情報である。
そして、CPU105は、登録文書画像に含まれるテキストブロックのうち、クエリ文書画像に含まれる各テキストブロックに対応するテキストブロックを選択する(S1003)。対応するテキストブロックの算出方法について図10を用いて説明する。図10は、クエリ文書画像と登録文書を重ね、その一部を切り出した模式図である。図10(A)の実線で描かれた1101は、クエリ文書画像に含まれるテキストブロックである。図10(A)の点線で描かれた1102、1103、1104は、登録文書画像に含まれるテキストブロックである。図10(A)の点線で描かれた1105は、テキストブロック1101の左上頂点を中心とする所定の半径の円である。即ち、テキストブロック1102、1103の左上の点の座標は、テキストブロック1101の左上の点からの距離が所定の距離より短く、テキストブロック1104の左上の点は、テキストブロック1101の左上の点から所定の距離よりも離れたところにある。
まず、CPU105はクエリ文書画像からテキストブロックを一つ選択し、選択されたブロックの左上の点を中心とし、所定の半径の円の内側にブロックの左上の点がある登録文書画像内のテキストブロックを選択する。図10(A)では、テキストブロック1102および1103がテキストブロック1101から所定の距離より近くにある。次に、登録文書画像のテキストブロック1102、1103のそれぞれに対して、CPU105はクエリ文書画像のテキストブロック1101とのオーバーラップ率を算出する。オーバーラップ率は、クエリ文書画像中のあるテキストブロックと登録文書画像中のあるテキストブロックがどの程度重複しているかを示す値である。
オーバーラップ率の算出方法について、図10(B)を用いて説明をする。まず、CPU105はクエリ文書画像のテキストブロック1106と登録文書画像のテキストブロック1107の左上頂点の位置を合わせる。次に、CPU105は、クエリ文書画像のテキストブロック1106と登録文書画像のテキストブロック1107の共通部分1108の面積を算出する。そして、CPU105は、クエリ文書画像のテキストブロック1102と登録文書画像のテキストブロック1102または1103のいずれか面積の大きい方に対する、共通部分1108の面積の割合をオーバーラップ率として算出する。CPU105は、クエリ文書画像のテキストブロックに対応する登録文書画像のテキストブロックの全てのブロックに対してオーバーラップ率を算出する。たとえば、図10(A)で、CPU105はテキストブロック1101とテキストブロック1102のオーバーラップ率と、テキストブロック1101とテキストブロック1103のオーバーラップ率を算出する。
続いて、CPU105は、クエリ文書画像に含まれるテキストブロックの一つ一つに対して最大のオーバーラップ率を取得する。たとえば、図10(A)では、テキストブロック1101とテキストブロック1102のオーバーラップ率と、テキストブロック1101とテキストブロック1103のオーバーラップ率から最大のオーバーラップ率を選択する。そして、CPU105は最大オーバーラップ率に1未満の所定の係数αを掛けた値を算出する。αは、クエリ文書画像中のあるテキストブロックに対応する登録文書画像中のテキストブロックを選択するための閾値の決定に用いられる係数である。CPU105は、算出された値よりも大きなオーバーラップ率となる登録文書画像のテキストブロックを、クエリ文書画像のテキストブロックに対応するテキストブロックとして選択する。以降、上記の処理で求められたクエリ文書画像中のテキストブロックと登録文書画像中のテキストブロックの対応を対応点ペアと呼ぶ。たとえば、図10(A)において、テキストブロック1101とテキストブロック1102のオーバーラップ率と、テキストブロック1101とテキストブロック1103のオーバーラップ率がどちらも閾値を超えているとする。この時、対応点ペアはテキストブロック1101とテキストブロック1102、とテキストブロック1101とテキストブロック1103の2組となる。
本実施形態では、クエリ文書画像中のあるテキストブロックに対する最大オーバーラップ率に係数αを掛けた値を閾値として用いた。予め決められたオーバーラップ率を閾値とし、CPU105がその閾値よりもオーバーラップ率の高いテキストブロックを点対応ペアとなるテキストブロックとして選択してもよい。
続いて、CPU105は、S1003で算出した対応点ペアのうち、S1005、S1006に記載の処理を実行していない未処理の対応点ペアがあるか否かを判断する(S1004)。未処理の対応点ペアがある場合、CPU105はS1005に記載の処理を実行し、未処理の対応点ペアがない場合、CPU105はS1007に進む。CPU105はS1005、S1006に記載の処理を実行し、クエリ文書画像のテキストボックスと登録文書画像のテキストボックスを重ねたときの位置がどの程度ずれているかの分布を算出する。
CPU105はS1003で算出された対応点ペアから一つの対応点ペアを選択し、相関値を算出する(S1005)。まず、CPU105は、選択した対応点ペアに含まれるクエリ文書画像のテキストブロックに対応づけられた、登録文書画像のテキストブロックの数に応じて相関値に重みを付ける。さらに、CPU105は、対応点ペアに含まれる登録文書画像のテキストブロックに対応づけられた、クエリ文書画像のテキストブロックの数に応じて相関値に重みを付ける。対応するテキストブロックの数に基づく相関値の重みづけ係数は、たとえば図11(A)の図のようなテーブルで規定される。当該テーブルは予め記憶部107に記憶されている。当該テーブルの横軸は、処理中のクエリ文書画像のテキストブロックが登録文書画像内のいくつのテキストブロックと対応づけられているかを示している。また、テーブルの縦軸は、処理中の登録文書画像のテキストブロックがクエリ文書画像中のいくつのテキストブロックに対応づけられているかを示している。図11(A)では、クエリ文書画像中のテキストブロックと登録文書画像中のテキストブロックの対応が1対1に近づくほど相関値に対する重みづけが高くなるように設定されている。
本実施形態では、テーブルを用いて重みづけを行うが、計算式にもとづいて、相関値に対する重みづけを行ってもよい。たとえば、クエリ文書画像のテキストブロックに対応する登録文書画像中のテキストブロックの数をNとし、登録文書画像のテキストブロックに対応するクエリ文書画像中のテキストブロックの数がMとする。この場合に、例えば、CPU105が(1/N+1/M)/2で算出する値を相関値の重みとして用いてもよい。
また、S1005において、処理の対象となるクエリ文書画像中のテキストブロックのY座標に応じて相関値に重みをつけてもよい。先に説明したように、同じフォーマットを使用した場合、クエリ文書画像と登録文書画像の上部の構造が類似する可能性が高い。そこで、画像処理装置はクエリ文書画像のうち、上の方にあるテキストブロックほど重みを重くし、下の方にあるブロックほど重みを軽くする。テキストブロックの位置に応じた重みの例を、図11(B)に示す。図11(B)の横軸は、画像高さを1に正規化した際のY座標位置である。図11(B)では、正規化後のY座標の値が小さいほど、クエリ文書画像の上部であることを示し、Y座標が1に近づくほどクエリ文書画像の下部であることを示す。縦軸はY座標に応じた重みである。この図においては、画像の最上部で最も重みが大きくなり、画像中央まで重みが減少していき、画像下半分は重みが0になっている。
なお、重みづけは上記の両方の方法を用いて行ってもよく、また、片方の方法のみを用いて行ってもよい。複数の方法で相関値に重みを付ける場合には、画像処理装置が複数の重みを乗算または加算して用いる。
続いて、CPU105は、X方向とY方向のそれぞれについてシフト量の相関値を投票して、ヒストグラムを生成する(S1006)。S1006において、CPU105は、対応点ペアとなっているテキストボックスの左上頂点のX方向の差分量(シフト量)と、Y方向の差分量(シフト量)を算出する。そして、CPU105は算出したシフト量に対応するビンに、S1005で求めた重みを用いて算出された相関値の分だけ投票をする。ヒストグラムのビンの幅は予め決められた任意の幅でよい。
S1005とS1006をすべての対応点ペアに対して実行することにより、X方向およびY方向のシフト量のヒストグラムが生成される。以上の処理により、たとえば、図11(C)のようなヒストグラムが生成される。生成されたヒストグラムに対して、ノイズの影響を軽減するため、スムージングを掛けてもよい。
すべての対応点ペアに対してS1005、S1006に記載の処理完了し、ヒストグラムが生成された後に、CPU105はS1007の処理を実行する。CPU105は、XおよびY方向のヒストグラムを分析し、XとYそれぞれの方向についてクエリ文書画像と登録部文書画像間のシフト量候補を算出する(S1007)。
シフト量算出方法について、図11(C)を用いて説明を行う。図11(C)はS1007で生成されるシフト量のヒストグラムの例である。グラフの横軸はシフト量を示しており、縦軸は相関値(ヒスグラムの度数)を示している。CPU105は、ヒストグラムの相関値が所定の値よりも大きなシフト量をシフト量の候補として選択する。所定の閾値とは、固定の閾値であってもよく、また、ヒストグラムのなかで最も高い相関値に1以下の所定の係数をかけた値などであってもよい。図11(C)では、ヒストグラムのピークが1点であり、候補となるシフト量は一つである。候補となるシフト量が複数あってもよい。このような処理をX方向とY方向のそれぞれに適用することにより、XおよびY方向のシフト量候補を算出する。
最後に、S1008において、CPU105は、XおよびY方向シフト量候補を組み合わせ、シフト量候補とする。例えば、X方向のシフト量候補として、xShift1,xShift2の2種類があり、Y方向のシフト量候補として、yShift1,yShift2,yShift3の3種類があるとする。この際、シフト量候補には2×3の6種類のシフト量候補が選択される。なお、これ以外の方法でシフト量候補を求めてもよい。
以上のフローにより、クエリ文書画像と登録文書画像間のシフト量候補が算出される。
続いて、図8のS805でCPU105が実行する類似度算出処理ついて、図12を用いて説明をする。図2と同様に、図12に示されるフローチャートによる処理は、記憶部107に記憶されたプログラムコードがRAM106に展開され、CPU105によって装置制御部102が制御されることにより実行される。
まず、CPU105は、S1008で算出されたシフト量候補をRAM106より取得する(S1301)。
続いて、CPU105は、S1301でRAM106から読み出したシフト量候補のうち、類似度を算出していない未処理のシフト量候補があるか否かを判定する(S1302)。画像処理装置が全てのシフト量候補に対して、類似度の算出を行った場合、CPU105はS1305に処理を進める。類似度を算出していないシフト量候補がある場合、CPU105はS1303に処理を進める。
S1303において、CPU105は、類似度を算出していないシフト量候補からシフト量候補を1組選択し、選択したシフト量の組にあわせてクエリ文書画像と登録文書画像の位置合わせを行う。具体的には、CPU105がクエリ文書画像に含まれるテキストブロックの座標位置をシフト量候補にもとづいて一律、平行移動処理する。
次に、CPU105は、位置合わせ後のクエリ文書画像と、登録文書画像を比較して類似度Sを算出する(S1304)。S1304においてCPU105が行う類似度Sの算出方法は図14を用いて後述する。
すべてのシフト量候補について類似度が算出された後、CPU105は、類似度を算出したシフト量候補の組のうち、最も類似度が高いシフト量の組を選択し、当該シフト量を用いた場合の類似度をRAM106に記憶する(S1305)。そして、CPU105はS1305で選択されたシフト量でクエリ文書画像と登録文書画像を重ねた場合のテキストブロックの対応を示す情報を生成してRAM106に記憶する(S1306)。S1306において、生成されるクエリ文書画像に含まれるテキストブロックと登録文書画像に含まれるテキストブロックの対応を示す情報とは、図13(C)に記載のテーブル等で示される情報である。図13(C)に記載のテーブルは、クエリ文書画像に含まれるテキストブロックのIDと、登録文書画像中のテキストブロックのIDを対応づけて記憶する。ここで、クエリ文書画像のテキストブロックと対応づけられるテキストブロックとは、図14のS1404で後述する処理により対応づけられたブロックのことである。
以上のフローにより、画像処理装置はクエリ文書画像と登録文書画像の位置合わせを行い、類似度を算出する。続いて、S1304における類似度S算出処理の詳細について、図14を用いて説明する。図2と同様に、図14に示されるフローチャートによる処理は、記憶部107に記憶されたプログラムコードがRAM106に展開され、CPU105によって装置制御部102が制御されることにより実行される。
まず、CPU105は、クエリ文書画像と登録文書画像の類似度を算出するための初期化処理を行う(S1401)。初期化処理において、CPU105は類似度Sを0に設定し、図12のS1303で位置合わせをした後のクエリ文書画像に含まれるテキストブロックと登録文書画像に含まれるテキストブロックの情報をRAM106から取得する。S1401において取得される情報は、図13(A)、(B)、(C)で示されるテーブルに記憶された情報である。
続いて、CPU105はS1403~S1406で記載の処理を実行していない未処理のテキストブロックがクエリ文書画像にあるか否かを判定する(S1402)。未処理のテキストブロックが存在した場合、CPU105は処理をS1403に進める。クエリ文書画像に含まれる全てのテキストブロックの処理が終了した場合、CPU105は処理をS1407に進める。
処理が完了していないテキストブロックがある場合、CPU105は、未処理のテキストブロックから処理するテキストブロックを一つ選択する(S1403)。本実施形態においては、クエリ文書画像に含まれる未処理のテキストブロックを上から順に処理する。
続いて、CPU105は、S1403で選択されたテキストブロックに対応する登録文書画像中のテキストブロックを選択する(S1404)。S1303において、選択されたテキストブロックに対応する登録文書画像中のテキストブロックとは、S1303の位置合わせ後の画像データにおいて、重複するテキストブロックのことである。クエリ文書画像中の一つのテキストブロックに対して、対応する登録文書画像のテキストブロックは複数あってもよい。たとえば、図15(A)のように、クエリ文書画像中のテキストブロック1501に登録文書画像中のテキストブロック1502が重なる場合、テキストブロック1501とテキストブロック1502が対応づけられる。図15(B)のように、クエリ文書画像中のテキストブロック1504に対して、登録文書画像中のテキストブロック1505と1506が重なるとする。このとき、テキストブロック1504に対して、テキストブロック1505とテキストブロック1506が対応づけられる。
次に、CPU105は、S1403で選択されたクエリ文書画像のテキストブロックと、対応する登録文書画像のテキストブロックの重なる領域の面積(共通面積)を計算し、オーバーラップ率を算出する(S1405)。S1405においてオーバーラップ率は、CPU105はクエリ文書画像中のテキストブロックと登録文書画像中のテキストブロックのうち面積の大きい方のテキストブロックに対する共通面積の割合である。S1405におけるオーバーラップ率の算出方法はS1003と同様である。しかし、S1405においては、クエリ文書画像と登録文書画像の位置合わせが完了しているため、CPU105はS1003における、テキストブロックの左上頂点を合わせる処理を行わない。
計算例について、図15を用いて説明を行う。図15(A)はクエリ文書画像のテキストブロック1501と登録文書画像のテキストブロック1502が重なりあっており、共通面積は領域1503の面積となる。そこで、図15(A)におけるオーバーラップ率はテキストブロック1501または、テキストブロック1502のうち面積が大きい方に対する領域1503の割合である。
図15(B)はテキストブロック1504とテキストブロック1505および1506が重なりあっており、共通面積は領域1507と領域1508の面積を足し合わせたものである。したがって、図15(B)におけるオーバーラップ率は、テキストブロック1504、1505、1506のうち、最も面積の大きいブロックに対する、領域1507と領域1508を足した面積の割合となる。
そして、CPU105は、類似度計算を開始するための条件を満たしているか否かを判定する(S1406)。条件を満たしていなかった場合、CPU105は処理をS1402に戻す。類似度計算を開始するための条件を満たしている場合、CPU105はS1407に処理を進める。類似度計算を開始するための条件とは、たとえば、以下の1~3のような条件である。1.オーバーラップ率が算出されたクリエ文書画像中のテキストブロックの数が所定数に達したか。2.クエリ文書画像上部から所定の距離離れた箇所にあるテキストブロックまでオーバーラップ率が算出されたか。3.一番上部のテキストブロックから所定の距離離れたテキストブロックまでオーバーラップ率が算出されたか。類似度の計算を開始するための条件は、上記3つの条件のいずれか一つでもよく、複数であってもよい。
オーバーラップ率の算出されたテキストブロックの数が少ない場合、類似度を算出しても、類似度の信頼性が十分でない可能性がある。そこで、オーバーラップ率を算出したテキストブロックが上記のような条件を満たす場合、類似度の算出を行うとする。もちろん、クエリ文書画像に含まれる全てのテキストブロックに対してオーバーラップ率を算出した後に、CPU105が類似度の算出を行うとしてもよい。また、上記条件を満たさない場合であっても、クエリ文書画像中のすべてのテキストブロックのオーバーラップ率の算出が完了した場合、画像処理装置100は類似度の算出を行う。
CPU105は、類似度Sを算出する(S1407)。類似度Sの計算方法は、種々の公知の手法が考えられるが、本実施例では下記の式で求める。
類似度S=Overlap/TotalArea
Overlap=オーバーラップ率の算出に用いられた共通面積の和
TotalArea=QueryAreaとRegistAreaのいずれか大きい方
QueryArea=オーバーラップ率の算出に用いられたクエリ文書画像中のテキストブロックの総面積
RegistArea=オーバーラップ率の算出に用いられた登録文書画像中のテキストブロックの総面積
図15の例において、テキストブロック1501と1504が同一のクエリ文書画像に含まれるテキストブロックであり、2つのテキストブロックともにオーバーラップ率の算出が完了しているとする。この時、Overlapは領域1503、領域1507、領域1508の面積を足し合わせたものとなる。QueryAreaは、テキストブロック1501とテキストブロック1504の面積を足し合わせたものとなる。そして、RegistAreaは、登録文書画像のテキストブロック1502、登録文書画像のテキストブロック1505、登録文書画像のテキストブロック1506を足し合わせたものとなる。QueryArea>RegistAreaであるため、TotalAreaはQueryAreaと同一となる。
以上のフローにより、CPU105は類似度Sを算出する。なお、本実施例において、類似度計算にBSテキストブロックを利用しているが、他の類似度計算手法を利用しても構わない。
以上が画像処理装置100におけるスキャンアシスト処理を実行するための処理である。本実施形態では、画像処理装置が原稿をスキャンすることで得られた画像データからテキストブロックを抽出する。そして、画像処理装置が、抽出したテキストブロックのうち、スキャンアシスト処理に用いるテキストブロックを選択する。画像処理装置は、選択されたテキストブロックに対して文字認識処理を実行し、文字認識結果を表示部に表示する。上記のように、本実施形態に記載の画像処理装置は画像データ全体に対していではなく、選択された箇所にのみ、文字認識処理を実行し、その結果を表示部に表示する。このようにすることで、画像処理装置は表示に不要な領域の文字認識処理を行わずにすむ。結果、画像処理装置が文書画像全体に対して文字認識処理を実行してから、文字認識処理の結果を表示部に表示するよりも、短い時間で、スキャンアシストシステムに必要な箇所の文字認識処理の結果をユーザに見せることができる。
[実施形態2]
実施形態1では、クエリ文書画像中のファイル名表示に必要なテキストブロックのOCR処理が完了したことに従って、ファイル名表示を実行することでファイル名が表示されるまでにかかる時間を短縮した。
あるフォーマットの原稿をスキャナで読み取る場合、同じフォーマットの原稿を連続して読み取ることがある。このとき、各原稿を読み取ることで生成された画像のファイル名に使用されるテキストブロックは、一つ前の画像データでファイル名づけに使用された領域と同じ領域となる。そこで、実施形態2では、スキャンして得られた画像からテキストブロックを抽出する領域を一つ前のスキャンで得られた画像のファイル名付けに用いられた領域に限定することで、ファイル名の表示までにかかる時間を短くする。
以下、本発明の実施形態2について、前述の実施形態1と異なる部分について説明する。実施形態1との差分は、図2のフローチャートであるため、図2のフローチャートの代わりに、図16のフローチャートを参照して説明する。
図16は、画像処理装置100における新しくスキャンされた文書画像に対する処理の全体を示すフローチャートである。図16のフローは、ユーザがユーザインターフェース104で、ユーザから文書画像のスキャン指示を受け付けることにより起動する。図2に示されるフローチャートによる処理は、記憶部107に記憶されたプログラムコードがRAM106に展開され、CPU105によって装置制御部102が制御されることにより実行される。
図16のS201およびS202は、図2と同一であるため、説明を省略する。
続いて、CPU105は、クエリ文書画像に対して、部分的にブロックセレクション処理を実行する(S1901)。ブロックセレクション処理は、図2のステップS203と同一であるが、ここでは、本実施形態ではクエリ文書画像全体に対してではなく、クエリ文書画像に部分的にブロックセレクション処理を実行する。
ブロックセレクション処理を実行する領域を設定する方法について図17を用いて説明を行う。はじめに、図17(A)のようなクエリ文書画像がスキャンされ、クエリ文書画像中のテキストブロック2001、2002、2003がファイル名づけに使用されたとする。このとき、画像処理装置100は、クエリ文書画像とファイル名に使用されたテキストブロックの情報をRAM106に記憶する。
続いて、原稿を読み取り生成されたクエリ文書画像が図17(B)であったとする。このとき、図17(A)のクエリ文書画像に含まれるテキストブロックのうち、ファイル名付けに使用されたテキストブロックと対応するテキストブロックが含まれる領域2004がブロックセレクション処理の対象として選択される。
また、別の例として、はじめに原稿をスキャンして得られたクエリ文書画像が図17(C)であったとする。図17(C)のクエリ文書画像に含まれるテキストブロック2001、2002、2005がファイル名付けに使用されたとする。このとき、上記の3つのテキストブロックをすべて含むような領域をブロックセレクションの対象となる領域とすると、クエリ文書画像の全体が対象の領域とされてしまう。そこで、クエリ文書画像が図17(C)に示す画像のような場合には、ブロックセレクションの対象となる領域を複数選択する。例えば、図17(C)に記載のクエリ文書画像の次にスキャンされた原稿のクエリ文書画像が図17(D)であったとする。このとき、画像処理装置100は領域2006と領域2007をブロックセレクションの対象とする。ブロックセレクションの対象となる領域を一つにするか分割するかは、ファイル名付けに使用されたテキストブロックの位置等によって設定されるとする。たとえば、ファイル名付けに使用されたテキストブロック同士の距離が所定の距離よりも離れている場合、画像処理装置はブロックセレクションの対象となる領域を分割する。
領域2004、領域2006、領域2007は、スキャン時の位置づれに対応できるよう、ファイル名付けに使用されたテキストブロックを含む矩形領域に予め決められたマージンを付加した領域である。また、画像処理装置100は、最低限の数のBSテキストブロックが含まれるように領域を設定する。
上記のように、ブロックセレクション領域を限定することにより、ブロックセレクション処理に係る時間を短くすることができる。
続いて、CPU105は、部分的にブロックセレクション処理を実行したクエリ文書画像と一つ前にスキャンしてファイル名が付けられた文書画像のマッチング処理を実行し、類似度を算出する(S1902)。
S1902におけるマッチング処理は、図2のS204で実行されるマッチング処理と同一である。ただし、S1902においては、1つ前の文書画像に対してのみマッチング処理を実行する。複数の文書画像とのマッチング処理を行わないようにすることで、マッチングする文書画像を選択するまでにかかる時間を短くすることができる。
CPU105は、S1902または、後述するS204で選択された文書画像との類似度が所定の閾値以上であるか否かを判定する(S205)。
クエリ文書画像が選択された文書画像との類似度が所定の閾値以上の場合、CPU105はS206以降の処理を実行する。S206以降の処理は実施形態1と同様であるため、説明を省略する。
S205でクエリ文書画像と選択された文書画像の類似度が所定の閾値未満の場合、CPU105は、クエリ文書画像にブロックセレクションされていない領域があるかを判定する(S1903)。ブロックセレクション処理が完了していない領域がある場合、CPU105はS1904に処理を進める。ブロックセレクション処理が完了していない領域がない場合、クエリ文書画像全体に対するブロックセレクション処理が完了しているため、CPU105はS209に処理を進める。S209以降の処理は実施形態1と同様であるため、説明を省略する。
S1904において、CPU105は、ブロックセレクション処理がなされていない領域に対するブロックセレクション処理を実行する。S1904を実行することで、クエリ文書画像全体にブロックセレクション処理が実行されたこととなる。その後、CPU105は処理をS204に進める。S204に記載の処理は実施形態1と同様であるため、説明を省略する。
なお、本実施形態では、CPU105は、まず部分的にブロックセレクション処理を実行し、クエリ文書画像が一つ前の文書画像と異なる場合、残りの領域についてブロックセレクション処理を実行する。CPU105がある条件式に基づいて、部分的にブロックセレクション処理を実行するか否かを判定するとしてもよい。
たとえば、文書画像全体に対してブロックセレクション処理をして、類似する登録文書画像を選択するまでにかかる時間を予めAと規定する。文書画像の一部に対してブロックセレクションをし、一つ前の文書画像と類似するか否かを判定する処理に係る時間をBと規定する。そしてスキャンした原稿が、一つ前にスキャンした原稿と同じフォーマットである確率を変数Pであらわす。変数Pの初期値は予め決めた値であるとする。同じフォーマットの原稿が連続して読み込まれる度に、CPU105は変数Pの値を大きくする。そして、CPU105は図16のS202に記載の処理を完了後、A>(A+B)*(1-P)+B*Pが成り立つか否かを判定する。上記の関係が成り立つ場合、CPU105はクエリ文書画像の一部分に対するブロックセレクション処理を実行し、上記の関係が成り立たない場合、CPU105はクエリ文書画像全体にブロックセレクション処理を実行する。このようにすることで、同じフォーマットが連続して読み込まれる場合、変数Pの値が大きくなるため、CPU105が部分的にブロックセレクション処理を実行する。一方、スキャンの度に異なるフォーマットの原稿が読み取られる場合、変数Pの値が小さくなり、CPU105は部分的なブロックセレクション処理を行うことなく、文書画像全体のブロックセレクション処理を実行する。
また、本実施形態のS206~S207において、CPU105はマッチングした文書画像からファイル名付けに使用されたテキストブロックを選択する。そして、CPU105は選択されたテキストブロックに対応するクエリ文書画像中のテキストブロックのOCR処理を実行した。同じフォーマットの原稿を読み取る場合、対応するテキストブロックに含まれる文字列が同じになる可能性がある。そこで、対応するテキストブロックのOCR処理の結果が一致する確率が所定閾値以上となる場合、CPU105はOCR処理で得られた文字列をテキスト化し、テキストブロックに対応づけて記憶する。そして、次に、同じフォーマットの原稿をスキャンした場合、CPU105はテキスト化された文字列と対応づけられたテキストブロックに対してOCR処理を実行せず、テキスト化された文字列を表示する。このようにすることで、選択されたテキストブロックのOCR処理に係る時間を短くすることができる。
以上説明したとおり、本実施形態における一連のフローにより、画像処理装置100はクエリ文書画像の一部のみテキストブロック処理をし、一つ前のクエリ文書画像との類似度を計算する。このようにすることで、同じフォーマットの原稿を連続してスキャンする場合に、スキャンにより生成された画像データのファイル名をディスプレイに表示されるまでにかかる時間を短くすることができる。
[その他の実施形態]
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム又は装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのコンピュータプログラム、及び該コンピュータプログラムを記憶した記憶媒体は本発明を構成することになる。
また、本実施形態の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行する場合であってもよいし、複数のコンピュータが協働することによって実行する場合であってもよい。さらに、プログラムコードをコンピュータが実行する場合であってもよいし、プログラムコードの機能を実現するための回路等のハードウェアを設けてもよい。またはプログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行する場合であってもよい。

Claims (13)

  1. 取得した画像から、所定の属性を有する複数の領域を抽出する抽出手段と、
    前記抽出された複数の領域の位置情報に基づいて、記憶部に記憶されている複数の登録文書の情報の中から、前記取得した画像に最も類似する登録文書の情報を判定する判定手段と、
    前記判定された最も類似する登録文書の情報に対して予め特定された処理対象領域の位置に基づいて、前記抽出手段により前記取得した画像から抽出された前記複数の領域の中から、前記取得した画像における処理対象領域を選択する選択手段と、
    前記選択された処理対象領域に対して文字認識処理を実行する文字認識手段と、
    前記文字認識手段による前記選択された処理対象領域に対する文字認識処理により得られた第1のテキストデータと、前記取得した画像とを表示する表示手段と、を有する画像処理装置において、
    前記文字認識手段は、さらに、前記表示手段により表示された前記取得した画像において、前記選択手段で選択された処理対象領域とは異なる領域がユーザにより指定された場合に、前記ユーザによって指定された領域に対して文字認識処理を実行し、
    前記表示手段は、前記ユーザによって指定された領域に対する文字認識処理により得られた第2のテキストデータと、前記表示された第1のテキストデータとを連結して表示する、ことを特徴とする画像処理装置。
  2. 前記表示手段は、前記ユーザによって指定された領域に対する文字認識処理により得られた前記第2のテキストデータを、前記表示された第1のテキストデータの後ろに連結して表示することを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示手段は、前記第1のテキストデータの後ろに、所定の区切り文字と、前記ユーザによって指定された領域に対する文字認識処理により得られた前記第2のテキストデータとを連結して表示することを特徴とする請求項1に記載の画像処理装置。
  4. 前記表示手段により表示されるテキストデータは、前記取得した画像のファイル名としてレコメンドされる、ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記判定手段で判定された最も類似する登録文書の情報に対して複数の処理対象領域の位置が予め特定されている場合、前記選択手段は、当該登録文書に対して予め特定されている前記複数の処理対象領域の位置に基づいて、前記取得した画像における複数の処理対象領域を選択し、
    前記文字認識手段は、当該選択された複数の処理対象領域に対して文字認識処理を実行する
    ことを特徴とする請求項1に記載の画像処理装置。
  6. 前記表示手段は、当該選択された複数の処理対象領域に対して実行された文字認識処理により得られた複数のテキストデータを所定の区切り文字で連結することにより、前記第1のテキストデータとして表示することを特徴とする請求項5に記載の画像処理装置。
  7. 前記判定手段で判定された最も類似する登録文書の情報に対して複数の処理対象領域の位置が予め特定され、且つ、当該複数の処理対象領域に順序が予め設定されている場合、前記表示手段は、前記選択された複数の処理対象領域に対して実行された文字認識処理により得られた複数のテキストデータを、前記予め設定された順序にしたがって、前記所定の区切り文字で連結して表示する、ことを特徴とする請求項に記載の画像処理装置。
  8. 前記表示手段により表示されたテキストデータを、ユーザの指示に基づいて編集する編集手段をさらに有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記抽出手段は、前記取得した画像内の予め定められた部分画像に対して抽出処理を行うことにより、前記所定の属性を有する領域を抽出する、ことを特徴とする請求項1に記載の画像処理装置。
  10. 前記部分画像は、以前に処理された原稿の画像において文字認識処理が実行された領域に基づいて定められることを特徴とする請求項9に記載の画像処理装置。
  11. 前記判定手段は、前記部分画像から抽出された複数の領域の位置情報を用いて、前記記憶部に記憶されている複数の登録文書の情報の中から、前記取得した画像に類似する登録文書の情報が判定できなかった場合、前記取得した画像の全体から前記所定の属性を有する領域を抽出し、前記抽出された複数の領域の位置情報を用いて、前記記憶部に記憶されている複数の登録文書の情報の中から、前記取得した画像に最も類似する登録文書の情報を判定する、ことを特徴とする請求項9に記載の画像処理装置。
  12. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
  13. 取得した画像から、所定の属性を有する複数の領域を抽出する抽出ステップと、
    前記抽出された複数の領域の位置情報に基づいて、記憶部に記憶されている複数の登録文書の情報の中から、前記取得した画像に最も類似する登録文書の情報を判定する判定ステップと、
    前記判定された最も類似する登録文書の情報に対して予め特定された処理対象領域の位置に基づいて、前記抽出ステップで前記取得した画像から抽出された前記複数の領域の中から、前記取得した画像における処理対象領域を選択する選択ステップと、
    前記選択された処理対象領域に対して文字認識処理を実行する文字認識ステップと、
    前記選択された処理対象領域に対する前記文字認識処理により得られた第1のテキストデータと、前記取得した画像とを表示する第1の表示ステップと、
    前記第1の表示ステップで表示された前記取得した画像において、前記選択ステップで選択された処理対象領域とは異なる領域がユーザにより指定された場合に、前記ユーザによって指定された領域に対して文字認識処理を実行する第2の文字認識ステップと、
    前記ユーザによって指定された領域に対する文字認識処理により得られた第2のテキストデータと、前記表示された第1のテキストデータとを連結して表示する第2の表示ステップと、
    を有することを特徴とする画像処理方法
JP2018035310A 2018-02-28 2018-02-28 画像処理装置、および画像処理装置の制御方法とプログラム Active JP7102170B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018035310A JP7102170B2 (ja) 2018-02-28 2018-02-28 画像処理装置、および画像処理装置の制御方法とプログラム
US16/282,200 US10984233B2 (en) 2018-02-28 2019-02-21 Image processing apparatus, control method, and non-transitory storage medium that obtain text data for an image
US17/208,836 US20210209359A1 (en) 2018-02-28 2021-03-22 Image processing apparatus, control method for image processing apparatus, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018035310A JP7102170B2 (ja) 2018-02-28 2018-02-28 画像処理装置、および画像処理装置の制御方法とプログラム

Publications (3)

Publication Number Publication Date
JP2019149788A JP2019149788A (ja) 2019-09-05
JP2019149788A5 JP2019149788A5 (ja) 2021-04-22
JP7102170B2 true JP7102170B2 (ja) 2022-07-19

Family

ID=67686004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018035310A Active JP7102170B2 (ja) 2018-02-28 2018-02-28 画像処理装置、および画像処理装置の制御方法とプログラム

Country Status (2)

Country Link
US (2) US10984233B2 (ja)
JP (1) JP7102170B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3664429B1 (en) * 2018-12-07 2022-07-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP7317561B2 (ja) 2019-04-19 2023-07-31 キヤノン株式会社 タッチパネルを用いた文字入力のための画像処理装置、その制御方法及びプログラム
JP7406884B2 (ja) * 2019-06-27 2023-12-28 キヤノン株式会社 情報処理装置、プログラム及び制御方法
JP7318465B2 (ja) * 2019-10-01 2023-08-01 富士フイルムビジネスイノベーション株式会社 定型処理装置、及び定型処理プログラム
JP6838209B1 (ja) * 2019-10-31 2021-03-03 楽天株式会社 文書画像解析装置、文書画像解析方法およびプログラム
JP7391672B2 (ja) * 2020-01-21 2023-12-05 キヤノン株式会社 文書を電子化するための画像処理システム、その制御方法及びプログラム
JP7400548B2 (ja) * 2020-03-03 2023-12-19 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像処理装置、情報処理システム、及びプログラム
JP2022011034A (ja) * 2020-06-29 2022-01-17 キヤノン株式会社 データ入力支援装置、データ入力支援方法及びプログラム
JP2022015894A (ja) * 2020-07-10 2022-01-21 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
EE05844B1 (et) 2020-09-18 2022-06-15 Biocc Oü Mikroorganismi tüvi Pediococcus acidilactici TAK 589 Coccobest kui antimikroobne ja antioksüdatiivne probiootikum
JP2022096218A (ja) * 2020-12-17 2022-06-29 キヤノン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
US20220208317A1 (en) * 2020-12-29 2022-06-30 Industrial Technology Research Institute Image content extraction method and image content extraction device
JP2022113038A (ja) 2021-01-22 2022-08-03 キヤノン株式会社 画像処理装置、方法、及びプログラム
US20220237404A1 (en) * 2021-01-25 2022-07-28 Sap Se Surface automation in black box environments
JP2022170175A (ja) * 2021-04-28 2022-11-10 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11182338B1 (en) * 2021-07-15 2021-11-23 Entangle Media, LLC System and method for securely managing dynamic and interactive case file documents in chronological order
US11829701B1 (en) * 2022-06-30 2023-11-28 Accenture Global Solutions Limited Heuristics-based processing of electronic document contents

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071050A (ja) 2006-09-13 2008-03-27 Sharp Corp 情報処理端末装置、情報処理装置、ファイル管理サーバ、情報処理システム、ファイル名自動生成方法、プログラムおよび記録媒体
JP2016018454A (ja) 2014-07-09 2016-02-01 キヤノン株式会社 画像処理装置および画像処理装置の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4940270B2 (ja) 2009-07-06 2012-05-30 シャープ株式会社 画像形成装置
US9298997B1 (en) * 2014-03-19 2016-03-29 Amazon Technologies, Inc. Signature-guided character recognition
JP2015215878A (ja) * 2014-04-21 2015-12-03 株式会社リコー 画像処理装置及び画像処理システム
KR20160060499A (ko) * 2014-11-20 2016-05-30 삼성전자주식회사 화상독취장치 및 그의 제어 방법
JP6050843B2 (ja) * 2015-01-30 2016-12-21 株式会社Pfu 情報処理装置、方法およびプログラム
JP7059624B2 (ja) * 2017-12-26 2022-04-26 セイコーエプソン株式会社 画像処理装置および画像処理プログラム
WO2019157029A1 (en) * 2018-02-06 2019-08-15 Vatbox, Ltd. System and method for classifying images of an evidence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071050A (ja) 2006-09-13 2008-03-27 Sharp Corp 情報処理端末装置、情報処理装置、ファイル管理サーバ、情報処理システム、ファイル名自動生成方法、プログラムおよび記録媒体
JP2016018454A (ja) 2014-07-09 2016-02-01 キヤノン株式会社 画像処理装置および画像処理装置の制御方法

Also Published As

Publication number Publication date
US10984233B2 (en) 2021-04-20
US20190266397A1 (en) 2019-08-29
JP2019149788A (ja) 2019-09-05
US20210209359A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
JP7102170B2 (ja) 画像処理装置、および画像処理装置の制御方法とプログラム
JP7013182B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5511450B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5743443B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2000115476A (ja) 走査画像の領域を操作するためのシステム及び方法
US11144189B2 (en) Determination and relocation of movement targets based on a drag-and-drop operation of a thumbnail across document areas
JP2019057174A (ja) スキャン画像から文字情報を取得する画像処理装置、画像処理方法、及びプログラム
US11908215B2 (en) Information processing apparatus, information processing method, and storage medium
JP2007158725A (ja) 画像処理装置及び画像処理方法並びにプログラム
JP4739082B2 (ja) 画像処理方法及び画像処理装置
JP2024012448A (ja) 画像処理装置、画像処理装置の制御方法及びそのプログラム
JP2019153919A (ja) 画像処理装置、その制御方法、及びプログラム
US11907651B2 (en) Information processing apparatus, information processing method, and storage medium
JP4748789B2 (ja) 画像処理方法及び画像処理装置
JP4950835B2 (ja) 画像形成装置及び画像形成装置の制御方法及びプログラム及び記憶媒体
JP7365835B2 (ja) 構造認識システム、構造認識装置、構造認識方法、及びプログラム
Panchal et al. Design and implementation of android application to extract text from images by using tesseract for English and Hindi
JP2020047031A (ja) 文書検索装置、文書検索システム及びプログラム
JP2013131942A (ja) 画像処理装置
JP7342518B2 (ja) 画像処理装置及び画像処理プログラム
JP2024032186A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
WO2015189941A1 (ja) 情報処理装置、情報処理方法、および、プログラム
JPH10222688A (ja) 画像処理方法
JP2023085950A (ja) 画像処理装置、画像処理方法及びプログラム
JP2022045011A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R151 Written notification of patent or utility model registration

Ref document number: 7102170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151