JP7337612B2 - 画像処理装置、画像処理システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7337612B2
JP7337612B2 JP2019164605A JP2019164605A JP7337612B2 JP 7337612 B2 JP7337612 B2 JP 7337612B2 JP 2019164605 A JP2019164605 A JP 2019164605A JP 2019164605 A JP2019164605 A JP 2019164605A JP 7337612 B2 JP7337612 B2 JP 7337612B2
Authority
JP
Japan
Prior art keywords
character information
area
image
image processing
handwritten
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019164605A
Other languages
English (en)
Other versions
JP2021043650A (ja
Inventor
拓洋 奥田
克幸 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019164605A priority Critical patent/JP7337612B2/ja
Priority to US17/014,190 priority patent/US11418658B2/en
Publication of JP2021043650A publication Critical patent/JP2021043650A/ja
Application granted granted Critical
Publication of JP7337612B2 publication Critical patent/JP7337612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00681Detecting the presence, position or size of a sheet or correcting its position before scanning
    • H04N1/00763Action taken as a result of detection
    • H04N1/00774Adjusting or controlling
    • H04N1/00782Initiating operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00331Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing optical character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

本開示は、原稿をスキャンして得られた画像データから文字情報を抽出する技術に関する。
原稿をスキャンすることによって得られた画像データに対して、OCR(Optical Character Recognition)処理を行い、画像データが示す画像に含まれる文字列をデジタルデータとして抽出する技術がある。また印刷された帳票に手書きで記入された原稿をスキャンして得られた画像データに対してOCR処理することがある。この場合、原稿には印刷文字と手書き文字とが混在することから、印刷文字と手書き文字との両方の文字列を抽出しようとすると文字認識の精度が低下することがある。
特許文献1には、印刷文字と手書き文字との領域を分離し、印刷文字と手書き文字とのそれぞれに適したOCR処理を施すことにより、文字認識の精度を高める技術が記載されている。
特開2006-92346号公報
手書きで記入された帳票では、印刷文字と手書き文字との両方を合わせて1つの情報を表す場合がある。例えば、西暦年を記入する欄として、「20」と「年」が印刷されており、その間に手書きで「08」等の2桁の年数を記入して「2008年」を示す場合がある。このような帳票に対して、特許文献1の技術のように印刷文字と手書き文字との領域を分離して別々にOCR処理を施すと、「20」「08」「年」をそれぞれ別の単語と認識され、「2008年」という文字情報は得られない虞がある。
本開示は、OCR処理の結果から適切な文字情報を得ること目的とする。
本開示の画像処理装置は、手書き文字と印刷文字とが含まれる原稿を読み取ることによって得られた画像データに対してOCR処理をすることによって得られた情報を取得する取得手段と、前記画像データが示す画像における文字情報を含む領域である文字情報領域のうち、前記手書き文字が含まれる文字情報領域を強調して表示する表示制御手段と、前記手書きの文字情報領域のうち、ユーザが指定した手書きの文字情報領域を受け付ける受付手段と、ユーザが指定した前記手書きの文字情報領域と結合する他の文字情報領域を選定する選定手段と、ユーザが指定した前記手書きの文字情報領域における文字情報と、前記選定手段が選定した文字情報領域における文字情報と、を結合する結合手段と、を有することを特徴とする。
本開示の技術によれば、OCR処理の結果から適切な文字情報を得ることができる。
画像処理システムの構成例を示す図である。 画像形成装置のハードウェア構成例を示す図である。 画像形成装置の操作部の構成例を示す図である。 画像処理サーバのハードウェア構成例を示す図である。 画像形成装置の機能構成例を示す図である。 画像処理サーバの機能構成例を示す図である。 画像処理システムの全体処理手順を説明するシーケンス図である。 画像処理サーバの入力画像および項目リストの一例を示す図である。 画像処理サーバの処理手順を説明するフローチャートである。 画像処理サーバの画像処理の一例を示す図である。 文字情報抽出結果の一例を示す図である。 画像形成装置の処理手順を説明するフローチャートである。 画像形成装置の操作部に表示する画面の一例を示す図である。 抽出された文字情報データの一例を示す図である。 画像形成装置の操作部に表示する画面の一例を示す図である。
以下、実施形態について、図面を参照して詳細に説明する。なお、以下の実施形態は本開示を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが必須のものとは限らない。
<実施形態1>
[システム構成]
図1は、画像形成システムの構成の一例を表す図である。画像処理システム100は、画像形成装置101、102と、PC103、104と、画像処理サーバ105とを有する。画像形成装置101、102と、PC103、104と、画像処理サーバ105とは、相互に通信可能になるようにネットワーク106に接続されている。
図1では、画像形成装置101、102が2つである場合を例に挙げて示すが、画像形成装置の数は1つまたは2以上の任意の数でよい。以下、特に断らない限り画像形成装置101、102の説明については画像形成装置101を代表して説明するが、画像形成装置102も画像形成装置101と同様の機能を備える。
画像形成装置101は、情報処理端末であるPC103、104から画像データの印刷依頼(印刷データ)を受信して印刷することが可能である。また、画像形成装置101は、スキャナ203(図2参照)で原稿を画像データとして読み取ることができ、また読み取った画像データを印刷することが可能である。また、画像形成装置101は、PC103、104から受信した印刷データを保存することが可能であり、スキャナ203で読み取った画像データをPC103、104に送信することも可能である。さらに画像形成装置101は、画像処理サーバ105に画像データを送信して、OCR処理等の画像処理の依頼をすることもできる。画像形成装置101は、画像処理装置としても機能し、この他に、MFP(Multifunction Peripheral)等の公知の画像形成装置が有する機能を実現することが可能である。
画像処理サーバ105は、画像形成装置101から画像データを取得して、OCR処理を行うことが可能な情報処理装置である。図1はサーバが1つである画像処理システム100の例を示しているが、画像処理システム100におけるサーバ数は1つまたは2以上の任意の数でよい。画像処理システム100においてサーバが複数存在する場合、各サーバの用途はそれぞれ異なっていてもよい。なお、画像処理サーバ105はクラウド、すなわちInternet上に配置されていてもよい。
ネットワーク106は、例えば、LAN(Local Area Network)、Internet等であり、画像処理システム100の各装置はネットワークを介して相互に通信することができる。
ここで、本実施形態の説明に先立ち、本実施形態の概要を説明する。画像形成装置101は、申込書のような手書き文字と印刷文字とを含む帳票をスキャンして入力画像801(図8(a)参照)の画像データを生成し、その画像データを画像処理サーバ105に送信する。画像処理サーバ105ではその画像データに対して、手書き文字と印刷文字とを分離してそれぞれの文字に対してOCR処理を行い、その結果認識された文字情報と、文字情報の領域(文字情報領域)とを示す情報等とを画像形成装置101に送信する。画像形成装置101では、ユーザが指定した手書き文字の文字情報領域と、その文字情報領域と関連する他の文字情報領域(結合候補領域)とをUI画面に表示させ、ユーザに結合候補領域のいずれかを選択させる。そして、画像形成装置101は、ユーザが選択した結合候補領域の文字情報と、手書文字の文字情報とを結合する。このため、例えば、西暦年を記入する欄として、「20」と「年」とが印刷されており、その間に手書きで「08」の下2桁の年数が手書きで記入された帳票をOCR処理する場合がある。このような帳票に対してOCR処理された結果、手書き文字と印刷文字が分離して文字認識されて、「20」、「08」、「年」のようにそれぞれ別の文字情報(単語)と認識される。この場合であっても、「2008年」という文字情報に容易に結合させることができる。
[ハードウェア構成]
図2は、画像形成装置101のハードウェア構成の一例を表す図である。画像形成装置101は、コントローラ201、プリンタ202、スキャナ203、および操作部204を有する。
コントローラ201は、CPU211、RAM212、HDD213、ネットワークI/F214、プリンタI/F215、スキャナI/F216、操作部I/F217、および拡張I/F218を有する。
CPU211は、RAM212、HDD213、ネットワークI/F214、プリンタI/F215、スキャナI/F216、操作部I/F217、および拡張I/F218とデータを授受することが可能である。また、CPU211は、HDD213から読み出した命令をRAM212に展開し、RAM212に展開した命令を実行する。
HDD213は、CPU211で実行可能な命令、画像形成装置101で使用する設定値、およびユーザから依頼された処理に関するデータ等を記憶する。RAM212は、CPU211がHDD213から読み出した命令を一時的に記憶する。またRAM212は、命令の実行に必要な各種のデータを記憶することも可能である。例えば、画像処理するために取得された画像データをRAM212に展開することで、その画像データに対して画像処理を行うことが可能である。
ネットワークI/F214は、画像処理システム100の他の装置とネットワーク通信を行うためのインターフェイスである。ネットワークI/F214は、データ受信を行ったことをCPU211に出力することが可能であり、RAM212上のデータをネットワーク106に出力することが可能である。プリンタI/F215は、CPU211から出力された画像データをプリンタ202に出力することが可能であり、プリンタ202から取得したプリンタの状態をCPU211に出力することが可能である。
スキャナI/F216は、CPU211から出力された画像読み取り指示をスキャナ203に出力する。スキャナI/F216は、スキャナ203から取得した画像データをCPU211に出力し、スキャナ203から取得したスキャナの状態をCPU211に出力することが可能である。
操作部I/F217は、操作部204から入力されたユーザの指示をCPU211に出力することが可能である。本実施形態の操作部204は表示部としても機能するため、ユーザが操作するための画面情報を操作部204に出力することが可能である。拡張I/F218は、画像形成装置101に外部機器を接続することを可能とするインターフェイスである。拡張I/F218は、例えば、USB(Universal Serial Bus)形式のインターフェイスを具備する。画像形成装置101は、USBメモリ等の外部記憶装置が拡張I/F218に接続されることにより、その外部記憶装置に記憶されているデータの読み取りおよびその外部記憶装置に対するデータの書き込みを行うことが可能である。
プリンタ202は、プリンタI/F215を介して取得した画像データを用紙等の記録媒体に印刷することが可能であり、プリンタ202の状態をプリンタI/F215に出力することが可能である。
スキャナ203は、スキャナI/F216を介して取得した画像読み取り指示に従い、スキャナ203の載置台に置かれた原稿を読み取り、読み取り結果をデジタル化してスキャナI/F216に出力することが可能である。また、スキャナ203は、スキャナの状態をスキャナI/F216に出力することが可能である。
操作部204は、画像形成装置101に対して各種の指示をユーザが行うためのインターフェイスである。操作部204は表示部も備えており、例えば、タッチパネルを有する液晶画面を具備し、ユーザに操作画面を提供すると共に、ユーザからの操作を受け付けることが可能である。
図3は画像形成装置101の操作部204の一例を表した図である。操作部204はタッチパネル画面301、設定キー302、キャンセルキー304、および開始キー303で構成されている。ユーザはタッチパネル画面301および設定キー302を用いて、各ジョブの設定を行い、開始キー303の押下によりジョブを開始する。なお一度開始したジョブについては、ユーザがキャンセルキー304を押下することでジョブを中止することが可能である。ここでジョブは、たとえばコピージョブ、およびネットワークI/F214を介してスキャンした画像データを画像処理サーバ105に送信するジョブなどが挙げられる。
図4は、画像処理サーバ105のハードウェア構成図である。画像処理サーバ105は、CPU401、RAM402、HDD403、ネットワークI/F404を有する。
CPU401は、画像処理サーバ105全体の制御を行い、RAM402、HDD403、及びネットワークI/F404とのデータの授受を制御可能である。また、CPU401はHDD403から読み出した制御プログラム(命令)をRAM402に展開し、RAM402に記憶されている命令を実行する。
画像処理サーバ105は、ネットワークI/F404を通じて画像形成装置101から受信した画像データに対する画像処理を実施することが可能である。画像処理サーバ105で実施可能な画像処理には、画像データに対するOCR(Optical Character Recognition)処理、画像データ内の文字列、背景などの要素ごとの領域ブロックに分割するブロック分割処理が含まれる。
[画像形成装置の機能構成]
図5は画像形成装置101の機能構成を説明するための図である。画像形成装置101は、画像読取部501、画像印刷部502、アプリケーション取得部503、アプリケーション実行部504、抽出情報送信部505、および情報抽出アプリケーション510を有する。
画像読取部501は、スキャナ203によって読み取られた原稿の記載内容を画像データに変換して、その画像データをHDD213へ記憶する。また、画像読取部501は、原稿の画像データをネットワークI/F214を介してネットワーク106上の画像処理サーバ105等の装置へ送信する。
画像印刷部502はHDD213に記憶されている画像データ、またはネットワーク106上の他の装置から送信された画像データをRAM212上へ展開し、展開した画像データを、プリンタ202を動作させて印刷させる。
アプリケーション取得部503は、後述するアプリケーションデータを取得し、HDD403へ記憶させる。
アプリケーション実行部504は、Webアプリケーションを実行するためのWebブラウザを含み、アプリケーション取得部503が取得したアプリケーションデータを実行する。アプリケーション実行部504は実行したアプリケーションをタッチパネル画面301へ表示し、タッチパネル画面301へのタッチ操作および設定キー302の押下をアプリケーションに通知する。
抽出情報送信部505は、情報抽出アプリケーション510が抽出した情報を画像処理システム100のPC103等の他の機器へ送信する。
情報抽出アプリケーション510は、画像読取部501によって生成された画像データが示す画像に含まれる文字を抽出するアプリケーションである。本実施形態では、情報抽出アプリケーション510はWebアプリケーションの形式であるものとして説明する。Webアプリケーションは、Webページ記述言語により記述されたページ記述データと、スクリプト言語で記述されたスクリプトデータで構成されている。Webページ記述言語は例えば、HTML(Hyper Text Markup Language)であり、スクリプト言語は例えばJavaScript(登録商標)である。
情報抽出アプリケーション510のページ記述データには、画像読取部501が生成した画像データと、その画像データを画像処理サーバ105でOCR処理した結果とが含まれている。情報抽出アプリケーション510のページ記述データとスクリプトデータを含むアプリケーションデータは、後述する画像処理サーバ105の情報抽出アプリケーション生成部623によって生成される。
情報抽出アプリケーション510は、ページ記述データとスクリプトデータとで実装されている、表示制御部、文字情報領域表示選定部517、文字情報結合部518、および入力受付部519を有する。UI表示部511、画像表示部512、項目表示部513、文字情報領域表示部514、部分画像表示部515、および文字情報表示部516はタッチパネル画面301にUI画面を表示させる制御をする表示制御部である。
UI表示部511は、ユーザが操作するボタン等の操作部品、および処理進捗状況等の情報表示を行うUI部品の表示をする。画像表示部512は画像データの表示をする。項目表示部513は、情報抽出アプリケーション510によって抽出する情報の項目を表示する。
文字情報領域表示部514は、入力画像に含まれる文字情報領域を強調させて表示する。例えば、文字情報領域表示部514は、ユーザが指定することができる文字情報領域を矩形の枠で示して入力画像に重畳してUI画面として表示する。部分画像表示部515は、入力画像の文字情報領域内の画像を切り出した部分画像を表示する。文字情報表示部516は、文字情報領域から抽出された文字情報を表示し、さらに文字情報を修正するための入力を受け付ける。
文字情報領域表示選定部517は、文字情報領域表示部514が表示する文字情報領域の何れかを選択する。また、文字情報領域表示選定部517は、ユーザが選択した文字情報領域と結合する候補の文字情報領域を1つ又は複数選定する。
文字情報結合部518は、複数の文字情報領域から抽出された文字情報を結合して1つの文字情報とする。入力受付部519はUI表示部511、画像表示部512、項目表示部513、文字情報領域表示部514が表示したUI部品への入力を受け付け、入力に対応した処理を実行する。
画像形成装置101の各部の機能は、CPU211がHDD213に記憶されているプログラムコードをRAM212に展開し実行することにより実現される。または、図5の各部の一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。
[画像処理サーバの機能構成]
図6は画像処理サーバ105の機能構成を説明するための図である。画像処理サーバは、画像データ取得部621、文字情報抽出部622、情報抽出アプリケーション生成部623、アプリケーション送信部624、およびフォーマット登録部625を有する。
画像データ取得部621は、画像処理サーバ105に送信された画像データを取得する。
文字情報抽出部622は、各部631~635を機能させて、取得した画像データに基づき、文字情報領域を抽出し、文字情報領域に対して文字認識処理(OCR処理)を行うことにより画像に含まれる文字を抽出する。
文字情報領域抽出部631は、画像データが示す画像の、文字情報が含まれる文字情報領域を抽出する。文字情報領域分類部632は、抽出された文字情報領域を所定のカテゴリーに分類する。情報抽出アプリケーション510は帳票に手書きされた手書き文字と印刷文字とが存在する領域を文字情報領域として抽出するため、文字情報領域分類部632は、少なくとも手書き文字、印刷文字等のカテゴリーに文字情報領域を分類する。
文字情報認識部633は主にOCR処理を行い、文字情報領域それぞれについて、文字情報領域の分類に応じた適切な方法でOCR処理を行う。例えば、手書き文字は印刷文字と比べて濃度が低く、書いた人毎の字形の差が大きい。そこで、手書き文字をOCR処理する場合、文字情報認識部633は、二値化処理時にコントラストを上げノイズ除去を強力にして、手書き文字専用のOCR処理を行う。または、文字情報認識部633は、1文字ごとの画像特徴点で判断するのではなく前後の文字を含めてDeep Learning等により学習した認識エンジンを使用して、手書き文字専用のOCR処理を行う。手書き文字専用のOCR処理によって、手書き文字、印刷文字の両方の文字の認識精度を高めることができる。
画像差分導出部634は、画像データ同士の画素値の差分を導出して差分画像を生成する。抽出結果管理部635は抽出された文字情報を保存する。
情報抽出アプリケーション生成部623は、画像形成装置101が実行する情報抽出アプリケーション510のアプリケーションデータを生成する。情報抽出アプリケーション生成部623は、情報抽出アプリケーション510のページ記述データとスクリプトデータのテンプレートを持っている。このテンプレートには、項目表示部513が画像形成装置101にUI画面に表示する項目を登録するための領域がある。情報抽出アプリケーション生成部623は、その領域に、予め登録されている項目リストを置換する。さらに、情報抽出アプリケーション生成部623は、テンプレート中のページ記述データに、文字情報抽出部622によるOCR処理結果を挿入する。
アプリケーション送信部624は、情報抽出アプリケーション生成部623が生成したアプリケーションデータを画像形成装置101へ送信する。フォーマット登録部625は、文字情報抽出部622および情報抽出アプリケーション生成部623が使用するフォーマットデータの登録を行う。
画像処理サーバ105の各部の機能は、CPU401がHDD403に記憶されているプログラムコードをRAM402に展開し実行することにより実現される。または、図6の各部の一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。
[システム全体の処理フローについて]
図7は、本実施形態の画像処理システム100全体の処理フローを説明するシーケンス図である。図7を用いて、スキャンした原稿の画像データから文字情報を抽出する一連の処理を説明する。
S701において画像読取部501は、ユーザによる開始キー303の押下に応じて原稿読取指示を受け付け、スキャナ203の載置台に載置された原稿を読み取る。
S702において画像形成装置101は、読み取った原稿の画像データを画像処理サーバ105へ送信する。載置された原稿が複数枚であれば複数ページ分の画像データが送信される。このときスキャナが読み取った原稿の種別を示す情報についても画像処理サーバ105に送信される。原稿の種別の送信は、例えば、フォーマット登録部625が登録したフォーマットデータの中からユーザが指定したものが送信される。
S711において画像データ取得部621は、画像形成装置101から送信された画像データを取得する。S712において文字情報抽出部622は、取得された画像データから1ページずつ文字情報抽出処理を行う。文字情報抽出処理の詳細は後述する。
S713において、全ページの文字情報抽出処理が終了したか判定される。未処理のページがあればS712に戻り、未処理のページについて文字情報抽出処理が行われる。全ページについて文字情報抽出処理が終了していれる場合、S714に進む。
S714において情報抽出アプリケーション生成部623は、アプリケーションデータ生成処理を行う。アプリケーションデータ生成処理の詳細については後述する。S715においてアプリケーション送信部624は、S714において生成されたアプリケーションデータを画像形成装置101へ送信する。
S703においてアプリケーション取得部503は、S714で生成されたアプリケーションデータを取得する。S704においてアプリケーション実行部504は、取得されたアプリケーションデータを使用して、情報抽出アプリケーション510を実行する。
情報抽出アプリケーション510を実行することで、画像形成装置101において、手書きの文字情報領域と印刷文字の文字情報領域のそれぞれから得られた文字情報を結合することができる。このため、手書き文字と印刷文字の両方が含まれる原稿をOCR処理した結果からでも、適切な文字情報を得ることができる。この処理については後述する。アプリケーション実行部504は、画像データのうち1ページずつ処理を行う。
S705では最終ページのアプリケーション実行処理が終了したかを判断する。最終ページに対する処理が終了していない場合、S704に戻り、未処理のページについてアプリケーション実行処理を行う。最終ページに対する処理が終了している場合、S706へ進む。
S706において抽出情報送信部505は、抽出情報をユーザが指定したPC103、104等の装置に送信する。S706で送信する抽出情報については後述する。
[文字情報抽出処理について]
図8は、S712における文字情報抽出処理の処理対象となる画像等を説明するための図である。図8(a)は、画像読取部501が原稿を読み取り、画像処理サーバ105に送信される画像データを示す入力画像801の一例である。入力画像801は、項目等が予め印刷されており、その上に手書きで情報が書き込まれた帳票が画像形成装置101のスキャナ203によって読み取られることによって得られた画像である。
図8(b)は、入力画像801のうち、手書き部分が書き込まれていない帳票(未記入画像802)の画像データである。つまり未記入画像802は、入力画像801の手書きで記入されている部分が未記入である画像である。
図8(c)は、項目リスト803を示す図である。項目リスト803は、入力画像801に含まれる情報の項目のリストであり、項目リスト803の情報が情報抽出アプリケーション510によって抽出される。本実施形態では項目リスト803は項目名をカンマで区切ったCSV形式としているが、他の形式(XMLやJSON等)で表されてもよい。本実施形態では入力画像801に対応する手書きがされていない未記入画像802、および項目リスト803が予めフォーマット登録部625によって画像処理サーバ105のHDD403に記憶されている。
図9(a)は、画像処理サーバ105によって実行される文字情報抽出処理(S712)の詳細を説明するためのフローチャートである。図9(a)のフローチャートで示される一連の処理は、画像処理サーバ105のCPUがROMに記憶されているプログラムコードをRAMに展開し実行することにより行われる。また、図9(a)におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味し、以後のフローチャートにおいても同様とする。
S901において画像差分導出部634は、入力画像801に画像データと、入力画像801に対応する未記入画像802の画像データとの差分を導出して、差分画像901の画像データを生成する。画像処理サーバ105は、スキャナが読み取った原稿の種別を示す情報を取得しているため、原稿の種別に応じて、入力画像801に対応する未記入画像802が、HDD403から取得される。
図10(a)は、画像差分導出部634によって生成された差分画像901の一例である。差分画像901は、入力画像801から手書き部分が抽出された画像となる。
S902において文字情報領域抽出部631は、未記入画像802の画像データと差分画像901の画像データとのそれぞれに対して、文字情報領域を抽出する処理を行う。文字情報領域の抽出の方法は限定されない。例えば、所定の長さより長い画像内の直線を除去し、近接する黒画素を包含する矩形を導出することによって行う。所定の長さとは例えば、予測される文字のサイズである。
図10(b)は、未記入画像802内において抽出された文字情報領域を示す図である。図10(c)は、差分画像901内において抽出された文字情報領域を示す図である。文字情報領域は、画像内において矩形で示した領域として抽出される。例えば、未記入画像では文字情報領域911~915が、手書画像では文字情報領域921~924が、抽出される。
S903において文字情報認識部633は、差分画像901、未記入画像802のそれぞれの文字情報領域に対してOCR処理を行い、文字情報領域の文字情報を認識する。未記入画像802は印刷文字のみが表示されており、差分画像901には手書文字のみが抽出されている。このため、文字情報領域が印刷文字か手書文字であるかに応じた適切な方法でOCR処理を行うことができる。このため入力画像801に対してOCR処理する場合に比べて文字認識の精度を上げることができる。
S904において文字情報領域分類部632は、文字情報領域を所定のカテゴリーに分類する。文字情報領域分類部632は少なくとも未記入画像データから抽出された領域を、手書き画像データから抽出された領域とは別のカテゴリーに分類する。
差分画像901における〇のような閉領域の文字情報領域923、924について、未記入画像802と差分画像901とを重ねた場合に、その閉領域と重なる未記入画像802内に文字情報領域914、915が存在する場合がある。この場合は、文字情報領域923、924を「手書きマーク」と分類する。
他にも、未記入画像802の画像データから抽出された文字情報領域のうち手書きマーク領域とは重ならない文字情報領域911~913は「印刷文字」と分類される。差分画像901の画像データから抽出された文字情報領域のうち手書きマーク領域ではない文字情報領域921、922は「手書き文字」と分類される。以下、手書き文字と分類された文字情報領域を「手書文字領域」とよぶことがある。
なお、図10(b)および図10(c)で符号を付した文字情報領域911~915および文字情報領域921~924は抽出された文字情報領域の一部であり、画像内の矩形で示した他の領域についても文字情報領域として抽出されたことを示している。
S905において抽出結果管理部635は、文字情報抽出結果1101が文字情報領域から認識した文字情報(OCR結果)と、その文字情報領域の位置情報と、文字情報領域の分類と、を関連づけた文字情報抽出結果1101をHDD403へ記憶する。
図11は、抽出結果管理部635が文字情報の抽出結果を管理するためのテーブルである文字情報抽出結果1101を示す図である。文字情報抽出結果1101は、番号1102、座標1103、サイズ1104、分類1105、OCR結果1106の各列のデータがレコード単位(行単位)で関連付けて保持されている。またレコードは、文字情報領域ごとに生成されている。
座標1103は、文字情報領域の位置情報を示す座標の値が保持されている。入力画像内の座標は原点が左上で、縦が下方向、横が右方向に延びる座標系を用いており、座標1103の左側には横方向の座標が、右側には縦方向の座標が保持されている。
サイズ1104には、文字情報領域のサイズを示す値が保持されている、サイズ1104の左側には横サイズの値、右側には縦サイズの値がそれぞれ保持されている。
分類1105には、文字情報領域の分類が保持されている。OCR結果1106には、レコードに関連付けられている文字情報領域でOCR処理された結果認識された文字情報が保持されている。なお、文字情報領域が「手書きマーク」と分類された場合、OCR結果には、未記入画像802における手書きマークの領域で認識された文字情報が保持される。番号1102は識別のための番号が保持されている。
抽出結果管理部635は、文字情報抽出結果1101をXML形式でファイル化して記憶させる。ファイル形式はXMLに限らず、JSON形式やCSV形式でもよい。文字情報抽出結果1101を保存すると、文字情報抽出処理を終了する。
おな、文字情報抽出結果1101における分類1105が印刷文字であるデータについては、文字情報抽出処理を行う毎に生成するのではなく、予め、HDD403に記憶させておいてもよい。例えば、帳票の種別毎に、印刷文字に関する文字情報抽出結果のデータを記憶させておいて、新たに文字情報抽出処理を行う場合、その処理対象となる帳票の印刷文字に関する文字情報抽出結果を取得する。そして、抽出された手書文字および手書マークの文字情報抽出結果と印刷文字に関する文字情報抽出結果1101とを結合して、図11のような文字情報抽出結果1101を生成してもよい。
このように、本実施形態の画像処理サーバ105は、手書文字と印刷文字が含まれる画像の画像データから、手書文字または印刷文字として分類して文字情報領域とその文字情報を抽出することが可能となる。
[アプリケーションデータ生成処理]
図9(b)は、画像処理サーバ105によって実行されるアプリケーションデータ生成処理(S714)の詳細フローを説明する図である。
S911において情報抽出アプリケーション生成部623は、HDD403に予め記憶されているアプリケーションデータのテンプレートを取得する。このテンプレートのページ記述データ部分には、項目リスト803を挿入する部分と、文字情報抽出結果1101を挿入する部分がある。
S912においてフォーマット登録部625は、HDD403に記憶されている項目リスト803を取得する。S913において情報抽出アプリケーション生成部623は、アプリケーションデータのテンプレートに項目リスト803を挿入し、画像形成装置101のアプリケーションによって項目リスト803をタッチパネル画面301に表示できるようにする。
S914において情報抽出アプリケーション生成部623は、抽出結果管理部635が記憶した文字情報抽出結果1101を取得する。S915において情報抽出アプリケーション生成部623は、XML形式の文字情報抽出結果1101を解釈する。情報抽出アプリケーション生成部623は、アプリケーションデータのテンプレートに文字情報抽出結果1101を挿入して、画像形成装置101のアプリケーションが文字情報抽出結果1101を参照できるようにする。
S916において情報抽出アプリケーション生成部623は、生成したアプリケーションデータをHDD403へ記憶させ、アプリケーションデータ生成処理を終了する。
[アプリケーション実行処理]
図12は、画像形成装置101が行うアプリケーション実行処理(S704)の詳細を説明するためのフローチャートである。アプリケーション実行処理では、OCR処理された結果得られた文字情報を結合する。そして、結合された文字情報と項目リスト803の項目とを関連付けて、PC103、104等の画像処理システム100の他の装置に送信するためのデータが生成される。
図12のフローチャートで示される一連の処理は、画像形成装置101のCPUがROMに記憶されているプログラムコードをRAMに展開し実行することにより行われる。また、図12におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。
アプリケーション実行処理は、画像読取部501が読み取った画像データが複数ページ分ある場合は、1ページずつ実行される。本フローチャートは、画像形成装置101が1ページ目の画像データについてアプリケーション実行処理を開始することに応じて開始される。
S1201においてUI表示部511は、タッチパネル画面301にUI画面を表示する。図13(a)は、本ステップによる処理によって表示されるUI画面1301を示す図である。UI画面1301の処理ページ番号1302は、現在処理している画像データが何ページ目であるかをユーザに通知するための領域であり、画像読取部501が読み取った画像のページ番号が表示されている。処理終了ボタン1303は、処理中のページの処理の終了をユーザが指示するためのボタンを示す領域である。画像表示領域1304は処理中のページの入力画像データの画像を表示するための領域である。
情報表示領域1305は、項目表示領域1306、部分画像表示領域1307、文字情報表示領域1308を表示する領域である。それぞれの領域の詳細は、フローチャートのステップの説明と合わせて後述する。
S1202において入力受付部519は、項目表示領域1306に表示されている項目のいずれかがユーザによって指定されたかを判定する。項目表示領域1306には、ページ記述データに挿入された項目リスト803の各項目が表示されている。本実施形態ではUI画面1301は、タッチパネル画面301に表示させるため、ユーザはタッチパネル画面301上の何れかの項目を押下することによって項目リスト803の項目を指定することができる。
項目が押下されていないと判定された場合(S1202がNO)、S1203へ進む。S1203において入力受付部519は、処理終了ボタン1303がユーザによって押下されて処理終了が指示されたかを判定する。S1203において処理終了ボタン1303が押下されていないと判定された場合、S1202へ戻りユーザ入力を待つ。S1203において処理終了ボタン1303が押下されたと判定された場合、現在処理中のページについてのアプリケーション実行処理は終了する。
項目表示領域1306に表示された項目のいずれかが押下されたと判定された場合(S1202がYES)、S1204においてUI表示部511は、UI画面1301の表示を更新する。図13(b)は、S1204の処理の結果、UI表示部511が表示するUI画面の例である。図13(b)は、「会員番号」を示す項目1311が指定された場合のUI画面の例であり、UI表示部511は、項目1311をハイライト表示して指定された「会員番号」の項目名が選択中であることを表示する。
さらに本ステップにおいて文字情報領域表示選定部517は文字情報抽出結果1101から、分類1105が「手書き文字」であるレコードの座標とサイズを取得する。つまり、文字情報領域表示選定部517は手書文字領域を示す位置とサイズの情報を取得する。文字情報領域表示部514は、文字情報領域表示選定部517が取得した位置と情報に基づき、画像表示領域1304の上に手書文字領域として矩形の枠を重畳させて表示する。図13(b)は、手書き文字として分類された文字情報領域である手書文字領域1312~1319を示す矩形の枠が画像表示領域1304に重畳表示されたUI画面1301を示している。本実施形態では、文字情報領域を強調するために矩形の枠を重畳させているが、フォントの色を変える等の他の方法によって強調させてもよい。
さらに、UI表示部511は項目1311に対応する領域の選択終了を受け付ける選択終了ボタン1320を表示する。
なお、S1204の処理として、「手書き文字」以外の文字情報領域をユーザが指定することが可能なように、手書き文字以外の文字情報領域についても矩形の枠を重畳表示させてもよい。
S1205において入力受付部519は、S1204で重畳表示した手書文字領域1312~1319のいずれかがユーザによって指定されたかを判定する。例えば、入力受付部519は、タッチパネル上の手書文字領域1312~1319のいずれかがユーザに押下されて指定されたかを判定する。
何れの手書文字領域も指定されないと判定された場合(S1205がNO)、S1209において入力受付部519は、選択終了ボタン1320が押下されたかを判定する。S1209において選択終了ボタン1320が押下されていないと判定された場合、S1205へ戻りユーザ入力を待つ。S1209において選択終了ボタンが押下されたと判定された場合、手書文字領域1312~1319が1つも選択されないまま終了することになる。このためS1210においてUI表示部511は、選択中であることを示す項目1311のハイライト表示を通常表示に切り替え、画像表示領域1304上に表示した手書文字領域を示す矩形の枠を画面上から消去する。S1210における処理の結果、タッチパネル上のUI画面1301は図13(a)の画面に戻る。その後の処理は、S1202へ戻りユーザ入力を待つ。
手書文字領域の何れかが指定されたと判定された場合(S1205がYES)、S1206において部分画像表示部515は、選択中の項目1311に対応する部分画像表示領域1307に、指定された手書文字領域の部分画像1321を表示する。図13(c)は手書文字領域1312がユーザによって押下されて指定された場合のUI画面を示す図である。
S1206の処理を具体的に説明する。図13(b)の状態で、手書文字領域1312がユーザによって押下されて指定されたとする。文字情報抽出結果1101における手書文字領域1312を示すレコード(行)は番号1102が「10」のレコードであるものとする。この場合、部分画像表示部515は、番号が「10」のレコードにおける座標1103およびサイズ1104に保持されている値を取得する。部分画像表示部515は、取得した座標とサイズに基づき入力画像の画像データから該当する部分を部分画像として切り出し、ユーザによって指定された項目1311の部分画像表示領域1307に部分画像1321を表示する。
S1207においてUI表示部511は、ユーザが指定した手書文字領域の文字情報を文字情報表示領域1308に表示させる。例えば、ユーザが手書文字領域1312を指定した場合、文字情報抽出結果1101における手書文字領域1312を示すレコード(行)は番号1102が「10」のレコードである。このため、UI表示部511は、そのレコードのOCR結果1106に保持されている「8254」を取得して、文字情報表示領域1322に「8524」を表示させる。
S1208において文字情報領域表示選定部517は、文字情報抽出結果1101に基づき、ユーザが指定した手書文字領域が示す文字情報と結合する可能性のある文字情報の文字情報領域を選定する。この結合する可能性のある文字情報領域を結合候補領域とよぶ。本実施形態で処理対象とする帳票は横書きであるため、文字情報領域表示選定部517は、文字情報領域のうち、ユーザが指定した手書文字領域と縦方向の座標が所定の範囲内にある文字情報領域を選定する。
例えば、ユーザが指定した手書文字領域は、手書文字領域1312であるとする。手書文字領域1312は、文字情報抽出結果1101の番号1102が「10」のレコードに対応し、その位置の縦方向の座標は「465」として保持されている。ここで所定の範囲内とは、例えば、1.1倍~0.9倍の値ものも含むものとする。
このため文字情報領域表示選定部517は、文字情報抽出結果1101の縦方向の座標1103が「465」の1.1倍~0.9倍の範囲内にある座標を保持するレコードを選定する。つまり、文字情報抽出結果1101から、縦方向の座標1103が「492」、「429」、「432」を保持するレコードが選定される。これらの座標が有するレコードの番号1102はそれぞれ「1」、「2」、「3」である。このため文字情報領域表示選定部517は、番号1102が「1」、「2」、「3」の各レコードの座標1103およびサイズ1104を選定する。そして、文字情報領域表示部514は、画像表示領域1304上に、選定された文字情報領域を結合候補領域1323~1325として矩形の枠を画像表示領域1304に重畳表示し、結合候補領域1323~1325をユーザが指定可能な状態にする。
さらに、文字情報領域表示部514は、ユーザが指定した手書文字領域1312以外の手書文字領域1313~1319の矩形の枠を消去し、ユーザが指定できないようにする。図13(c)は、結合候補領域1323~1325が矩形の枠として重畳表示されたUI画面1301を示す図である。
S1211において入力受付部519は、S1208で選定された結合候補領域1323~1325の何れかがユーザによって指定されたかを判定する。即ち、タッチパネル画面301上に表示された何れかの結合候補領域がユーザの押下により指定されたかが判定される。指定されていればS1212へ進む。
S1212において文字情報結合部518は、ユーザによって指定された結合候補領域のOCR結果1106の文字情報を取得して、ユーザが指定した手書文字領域の文字情報と結合する。
図13(d)は結合候補領域1324がユーザによって指定されたときのUI画面1301を示す図である。図13(d)では、ユーザが指定した手書文字領域1312の左にある結合候補領域1324が、ユーザによって指定されている。このため、手書文字領域1312のOCR結果1106である「8524」の左に結合候補領域1324のOCR結果1106である「A」が結合されている。文字情報表示部516は、文字情報表示領域1322に結合結果を表示する。
S1213において部分画像表示部515は、結合候補領域1324と手書文字領域1312とを結合した場合の部分画像1321を表示する。S1213の処理が終了すると、S1211に戻って他の結合候補領域がユーザによって指定されるのを待つ。
図13(e)は、図13(d)の状態からさらに結合候補領域1325がユーザによって指定されたときのUI画面1301を示す図である。このとき新たに指定された結合候補領域1325については、ユーザによって指定された手書文字領域1312の右にある。このため、文字情報結合部518は、手書文字領域1312のOCR結果1106である「8524」の右に結合候補領域1325のOCR結果1106である「0」を結合する。文字情報表示部516はこの結合した文字情報を文字情報表示領域1322へ表示し、部分画像表示部515は3つの領域を示す部分画像1321を表示する。
S1211において結合候補領域が押下されないと判定された場合、S1214へ進む。S1214において入力受付部519は、選択終了ボタン1320が押下されたかを判定する。選択終了ボタン1320が押下されないと判定された場合、S1211へ戻りユーザの入力を待つ。S1214で選択終了ボタン1320が押下されたと判定された場合、S1215へ進む。
S1215においてUI表示部511は、画面表示を更新する。図13(f)はS1215の処理の結果表示されるUI画面を示す図である。文字情報領域表示部514はこれまでのステップにおいてユーザによって指定された文字情報領域(手書文字領域および結合候補領域)を包含する領域1351を矩形の枠で表示し、指定されていない領域の枠の表示は消去する。また、項目表示部513は選択中であることを示す項目1311のハイライト表示を通常表示にする。S1215の画面表示更新が終了するとS1202へ戻り、項目表示領域1306に表示されている項目名がユーザによって押下されるのを待つ。
S1202~S1215の処理を、項目表示領域1306に表示した項目についてすべて繰り返す。全ての項目ついて処理されると、図13(g)に示すように、領域1351、領域1352、領域1353、領域1354が矩形の枠で表示され、それぞれの領域の文字情報が文字情報表示領域1308に表示された状態となる。このような状態において、S1203で処理終了ボタン1303が押下されたことを入力受付部519が検知すると、処理対象ページの処理を終了する。
画像読取部501が読み取った画像データの全ページについて図12の処理を終了すると、S706において、結合して抽出された文字情報がデータ化される。このときのデータを図14に示す。データ形式は、CSV形式となっており、カンマでデータが区切られている。行1401は項目表示領域1306に表示した項目であり、行1402は文字情報表示領域1308に表示したデータである。図14のデータを、ネットワーク106を介してPC103等のユーザが指定した所定の機器に送信することにより、画像データからの文字情報を抽出する処理は完了する。
以上説明したように本実施形態によれば、手書きの文字情報領域と印刷文字の文字情報領域のそれぞれから得られた文字情報を結合することができる。このため、例えば、手書き文字と印刷文字の両方が含まれる原稿をOCR処理した結果から、項目と対応付けて文字情報を抽出する場合であっても、適切に項目に対応した文字情報を得ることができる。
また、本実施形態では、ユーザが選択した手書の文字情報領域と結合する可能性のある文字情報領域をユーザが指定可能になるようにして表示させることができる。帳票には項目名および説明文等の印刷文字が多いため、ユーザが容易には結合する文字情報領域を指定することができないことがあるが、本実施形態によれば、ユーザが、結合する文字情報領域を指定しやすくなり、操作性を向上させることが可能となる。
[変形例1]
上記の説明では、結合候補領域の選定方法については、ユーザが指定した手書文字領域1312と縦方向が近い位置にある他の文字情報領域を選定していた。他にも、文字情報領域表示選定部517は、ユーザが指定した手書文字領域1312と隣接する文字情報領域のみを結合候補領域として選定してもよい。
図15(a)は、本例における結合候補領域が表示されたUI画面1301を示す図である。図15(a)に示すように、S1208において文字情報領域表示選定部517は、ユーザが指定した手書文字領域1312に隣接する、文字情報領域1324および文字情報領域1325のみを結合候補領域として選択する。そして、文字情報領域表示部514は、結合候補領域として選択された文字情報領域1324と文字情報領域1325とを示す矩形の枠を画像表示領域1304に重畳表示して、ユーザが選択可能な状態にする。
さらに、図15(a)の状態で何れかの結合候補領域がユーザによって指定された場合、文字情報領域表示選定部517は、ユーザが指定した結合候補領域に隣接する文字情報領域を新たな結合候補領域としてさらに選定する。そして文字情報領域表示部514は、新たに選定された結合候補領域を示す矩形の枠を画像表示領域1304に重畳表示してユーザが指定可能な状態にする。
例えば、図15(a)の状態で、結合候補領域1324がユーザによって指定されたとする。その場合、図15(b)に示すように、結合候補領域1324に隣接する文字情報領域1323が結合候補領域として新たに選定されて矩形の枠で表示される。
このように本例によれば、選定された結合候補領域に隣接する文字情報領域が順次、結合候補領域として選定されるため、複数の領域に分かれた文字情報を結合することができる。また本例によれば、隣接する文字情報領域のみが結合候補領域として表示されるため、ユーザは指定対象となる結合候補領域を認識しやすくなる。よって本例によればユーザの利便性を高めることができる。
[変形例2]
結合候補領域の選定方法については、処理対象の項目およびOCR結果1106に保持されている文字情報に基づき選定されてもよい。
例えば、予め項目リスト803の項目に関係する文字列を記憶させておく。そして図13(a)のUI画面1301の状態で、ユーザが項目表示領域1306の項目のうち「生年月日」を指定したとする。そして、S1208において文字情報領域表示選定部517は、項目「生年月日」に関係する文字列をOCR結果1106に保持されている文字情報から検索し、その文字情報が含まれる文字情報領域を結合候補領域として選定してもよい。
項目名に関係する文字列は、例えば、項目名が「生年月日」の場合、日付に関係する文字が含まれる文字情報領域を検索する。ここで、日付に関係する文字は、日本語の場合、数字、「年」「月」「日」のいずれかの漢字、「/」の記号、元号に含まれる漢字等である。他にも、項目名が「住所」の場合、住所に関係する文字、例えば都道府県、市町村区等が含まれる文字情報領域を検索する。
図15(c)は、処理対象の項目1501が「生年月日」であり、手書文字領域1314がユーザによって指定された場合において、結合候補領域が重畳表示されたUI画面1301を示す図である。図15(c)に示すように、数字が含まれる文字情報領域1503、1504と、「年」「月」「日」の文字情報の文字情報領域1505、1506、1507とが結合候補領域として選定されている。そして文字情報領域表示部514がこれらの文字情報領域を矩形の枠で画像表示領域1304に重畳表示して、ユーザが指定できるようにされている。また、結合候補領域は、ユーザが指定した手書文字領域1314と縦方向が近い位置にある他の文字情報領域が選定されてもよい。この場合、例えば、図15(c)において住所の記載欄にも数字が記載されているが、結合候補領域として選定されないようにすることができる。
なお、項目に関係する文字情報領域を結合候補領域として表示するのではなく、文字情報結合部518がユーザ指定した手書文字領域と結合候補領域との文字情報を結合し、「1980年4月10日」という文字情報を生成してもよい。そしてその結果を文字情報表示領域1308に表示させてもよい。
以上説明したように本例においても、結合する可能性の高いも文字情報領域を結合候補領域として選定されるため、ユーザは指定対象となる結合候補領域を認識しやすくなる。よって本例によればユーザの利便性を高めることができる。
[変形例3]
結合候補領域の選定方法については、入力画像801から認識される表構造に基づき、表構造の同じセル内(矩形枠内)にある文字情報領域を、結合候補領域として選定する方法でもよい。
文字情報領域表示選定部517は、入力画像801に含まれる直線を検出し、検出した直線の交点からから入力画像801に含まれる矩形を検出する。文字情報領域表示選定部517は検出した矩形の集合として表構造を認識する。そして、文字情報領域表示選定部517は、表構造を構成する矩形枠のうち、ユーザが指定した手書文字領域を含む矩形枠を検出して、その矩形枠に含まれる文字情報領域を結合候補領域として選定する。
図15(d)は、表構造が認識された後のUI画面1301を示す図である。図15(d)では、「住所」を示す項目1511がユーザによって指定されており、手書文字領域1319がユーザによって指定されている。この場合、文字情報領域表示選定部517は、手書文字領域1319を含む矩形枠を検出する。図15(d)では矩形枠1517が手書文字領域1319を含む矩形枠として検出されている。このため矩形枠1517に含まれる文字情報領域1513~1516が結合候補領域として選定されている。
このため、文字情報領域表示部514は文字情報領域1513~1516を示す枠を画像表示領域1304に重畳表示して、ユーザが指定できるようにしている。
なお、矩形枠1517内にある文字情報領域を結合候補領域として表示するのではなく、文字情報結合部518がユーザ指定した手書文字領域と結合候補領域との文字情報を結合して、「茨木県水戸市文京4-14」という文字情報を生成してもよい。そしてその結果を文字情報表示領域1308に表示させてもよい。
以上説明したように本例によっても、ユーザは指定する選択対象となる結合候補領域を認識しやすくなる。よって本例によればユーザの利便性を高めることができる。
<その他の実施形態>
上述の実施形態では、画像処理サーバ105が文字認識処理(OCR処理)を行ったが、文字情報抽出部622の機能を有している画像形成装置101が文字認識処理を行ってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像形成装置
503 アプリケーション取得部
514 文字情報領域表示部
519 入力受付部
517 文字情報領域表示選定部
518 文字情報結合部

Claims (17)

  1. 手書き文字と印刷文字とが含まれる原稿を読み取ることによって得られた画像データに対してOCR処理をすることによって得られた情報を取得する取得手段と、
    前記画像データが示す画像における文字情報を含む領域である文字情報領域のうち、前記手書き文字が含まれる文字情報領域を強調して表示させる表示制御手段と、
    前記手書きの文字情報領域のうち、ユーザが指定した手書きの文字情報領域を受け付ける受付手段と、
    ユーザが指定した前記手書きの文字情報領域と結合する他の文字情報領域である結合候補領域を選定する選定手段と、
    ユーザが指定した前記手書きの文字情報領域における文字情報と、前記結合候補領域における文字情報と、を結合する結合手段と、
    を有することを特徴とする画像処理装置。
  2. 前記結合手段は、
    ユーザが指定した前記手書きの文字情報領域における文字情報と、前記結合候補領域のうち、ユーザが指定した前記結合候補領域における文字情報とを結合する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記選定手段は、
    前記結合候補領域として、ユーザが指定した前記手書きの文字情報領域の前記画像データが示す画像における縦方向の位置が所定の範囲内にある前記文字情報領域を選定する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記選定手段は、
    前記結合候補領域として、ユーザが指定した前記手書きの文字情報領域の隣にある前記文字情報領域を選定する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記選定手段は、
    ユーザが前記結合候補領域の何れかを指定した場合、ユーザが指定した前記結合候補領域の隣にある前記文字情報領域を、さらに前記結合候補領域として選定する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記選定手段は、
    前記画像データが示す画像に含まれる、矩形の集合として表される表構造の検出を行い、
    ユーザが指定した前記手書きの文字情報領域が、前記表構造を構成する何れかの矩形枠の中にある場合、前記矩形枠の中にある他の文字情報領域を前記結合候補領域として選定する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  7. 前記選定手段は、
    ユーザが指定した項目における前記結合候補領域の選定をする場合、前記項目に関係する文字情報が含まれる前記文字情報領域を、前記結合候補領域として選定する
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記結合手段は、前記結合をユーザが指定した項目ごとに行い、
    前記結合手段が文字情報を前記結合することによって得られた文字情報は、前記項目と関連づけてユーザの指定した装置に送信される
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  9. 前記表示制御手段は、
    表示手段に、ユーザが指定することができる領域が強調されるように前記画像データが示す画像を表示させる
    ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記表示制御手段は、
    表示手段に、前記結合候補領域が強調されるように前記画像データが示す画像を表示させる
    ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記表示制御手段は、
    前記結合手段が文字情報を結合した場合、結合された文字情報を表示させる
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記取得手段は、
    前記文字情報領域の位置情報と、前記文字情報領域に含まれる文字情報と、前記文字情報領域が手書き文字の文字情報領域であるかを示す情報と、を含む情報を取得する
    ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 請求項1から12のいずれか1項に記載の画像処理装置と画像処理サーバとを有する画像処理システムであって、
    前記画像処理サーバは、
    手書き文字を含まない第1の原稿の画像データである未記入画像データと、前記第1の原稿に手書きがされている第2の原稿を読み取ることによって得られた記入画像データと、を取得する画像データ取得手段と、
    前記未記入画像データと前記記入画像データとの画素値の差分をとって差分画像の画像データを生成する生成手段と、
    前記差分画像と、前記未記入画像データが示す画像とのそれぞれにおける文字情報が含まれる領域である文字情報領域を抽出する抽出手段と、
    前記差分画像から抽出された文字情報領域については、前記手書き文字を示す分類に分類する分類手段と、
    前記文字情報領域に含まれる文字情報を認識する文字認識手段と、
    前記文字情報領域の位置情報と、前記文字情報領域から認識された文字情報と、前記文字情報領域が手書き文字の文字情報領域であるかを示す情報とをそれぞれ関連付けて管理する管理手段と、を有する
    ことを特徴とする画像処理システム。
  14. 前記画像処理サーバは、
    前記文字情報領域の位置情報と、前記文字情報領域から認識された文字情報と、前記文字情報領域が手書き文字の文字情報領域であるかを示す情報と、をそれぞれ関連付けて保持しているテーブルによって管理する
    ことを特徴とする請求項13に記載の画像処理システム。
  15. 前記画像処理装置の前記取得手段は、
    前記画像処理サーバから、前記テーブルを取得する
    ことを特徴とする請求項14に記載の画像処理システム。
  16. 手書き文字と印刷文字とが含まれる原稿を読み取ることによって得られた画像データに対してOCR処理をすることによって得られた情報を取得する取得ステップと、
    前記画像データが示す画像における文字情報を含む領域である文字情報領域のうち、前記手書き文字が含まれる文字情報領域を強調して表示する表示制御ステップと、
    表示された前記手書きの文字情報領域のうち、ユーザが指定した手書きの文字情報領域を受け付ける受付ステップと、
    ユーザが指定した前記手書きの文字情報領域と結合する他の文字情報領域を選定する選定ステップと、
    ユーザが指定した前記手書きの文字情報領域における文字情報と、前記選定ステップにおいて選定された文字情報領域における文字情報と、を結合する結合ステップと、
    を含むことを特徴とする画像処理方法。
  17. コンピュータを、請求項1から12のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019164605A 2019-09-10 2019-09-10 画像処理装置、画像処理システム、画像処理方法、及びプログラム Active JP7337612B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019164605A JP7337612B2 (ja) 2019-09-10 2019-09-10 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US17/014,190 US11418658B2 (en) 2019-09-10 2020-09-08 Image processing apparatus, image processing system, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164605A JP7337612B2 (ja) 2019-09-10 2019-09-10 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021043650A JP2021043650A (ja) 2021-03-18
JP7337612B2 true JP7337612B2 (ja) 2023-09-04

Family

ID=74851444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164605A Active JP7337612B2 (ja) 2019-09-10 2019-09-10 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11418658B2 (ja)
JP (1) JP7337612B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022047839A (ja) * 2020-09-14 2022-03-25 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
JP2022092119A (ja) * 2020-12-10 2022-06-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2022148922A (ja) * 2021-03-24 2022-10-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2023181149A1 (ja) * 2022-03-23 2023-09-28 日本電気株式会社 文字認識システム、文字認識方法および記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061061A (ja) 1999-08-23 2001-03-06 Minolta Co Ltd 画像処理装置
JP2010262584A (ja) 2009-05-11 2010-11-18 Ricoh Co Ltd 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2014235694A (ja) 2013-06-05 2014-12-15 株式会社日立情報通信エンジニアリング 帳票処理装置、帳票処理方法、帳票処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092346A (ja) 2004-09-24 2006-04-06 Fuji Xerox Co Ltd 文字認識装置、文字認識方法および文字認識プログラム
US8731339B2 (en) * 2012-01-20 2014-05-20 Elwha Llc Autogenerating video from text

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061061A (ja) 1999-08-23 2001-03-06 Minolta Co Ltd 画像処理装置
JP2010262584A (ja) 2009-05-11 2010-11-18 Ricoh Co Ltd 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2014235694A (ja) 2013-06-05 2014-12-15 株式会社日立情報通信エンジニアリング 帳票処理装置、帳票処理方法、帳票処理プログラム

Also Published As

Publication number Publication date
US20210075919A1 (en) 2021-03-11
JP2021043650A (ja) 2021-03-18
US11418658B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP7337612B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP4251629B2 (ja) 画像処理システム及び情報処理装置、並びに制御方法及びコンピュータプログラム及びコンピュータ可読記憶媒体
US8107727B2 (en) Document processing apparatus, document processing method, and computer program product
JP4533273B2 (ja) 画像処理装置及び画像処理方法、プログラム
JP5247601B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US8508756B2 (en) Image forming apparatus having capability for recognition and extraction of annotations and additionally written portions
JP4557765B2 (ja) 画像処理装置およびその方法
JP2006023945A (ja) 画像処理システム及び画像処理方法
JP4785655B2 (ja) 文書処理装置及び文書処理方法
JP2008145611A (ja) 情報処理装置、プログラム
US8144988B2 (en) Document-image-data providing system, document-image-data providing device, information processing device, document-image-data providing method, information processing method, document-image-data providing program, and information processing program
US20150169510A1 (en) Method and system of extracting structured data from a document
CN102883085B (zh) 图像处理装置和图像处理方法
JP2007005950A (ja) 画像処理装置及びネットワークシステム
JP2022092119A (ja) 画像処理装置、画像処理方法およびプログラム
US9860398B2 (en) Information processing apparatus that creates other documents from read document
JP7379876B2 (ja) 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム
JP5089524B2 (ja) 文書処理装置、文書処理システム、文書処理方法、及び、文書処理プログラム
JP4741363B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP4501731B2 (ja) 画像処理装置
JP5935376B2 (ja) 複写装置
US20240144563A1 (en) Printed matter production system and non-transitory computer-readable storage medium storing signature image production program
JP4651407B2 (ja) 画像処理装置およびコンピュータプログラムおよび記憶媒体
CN101393564A (zh) 文档图像数据提供系统、装置和方法,及信息处理装置和方法
US10264157B2 (en) Image processing apparatus, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R151 Written notification of patent or utility model registration

Ref document number: 7337612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151