JP2020099030A - 情報処理装置、及び情報処理方法 - Google Patents

情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
JP2020099030A
JP2020099030A JP2018237330A JP2018237330A JP2020099030A JP 2020099030 A JP2020099030 A JP 2020099030A JP 2018237330 A JP2018237330 A JP 2018237330A JP 2018237330 A JP2018237330 A JP 2018237330A JP 2020099030 A JP2020099030 A JP 2020099030A
Authority
JP
Japan
Prior art keywords
image
image data
character
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018237330A
Other languages
English (en)
Inventor
宏憲 林
Hironori Hayashi
宏憲 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018237330A priority Critical patent/JP2020099030A/ja
Priority to US16/707,356 priority patent/US10936893B2/en
Publication of JP2020099030A publication Critical patent/JP2020099030A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00816Determining the reading area, e.g. eliminating reading of margins
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1448Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on markings or identifiers characterising the document or the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00822Selecting or setting a particular reading mode, e.g. from amongst a plurality of modes, simplex or duplex, or high or low resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00824Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity for displaying or indicating, e.g. a condition or state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6072Colour correction or control adapting to different types of images, e.g. characters, graphs, black and white image portions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】ユーザーの利便性を向上させることができる情報処理装置、及び情報処理方法を提供する。【解決手段】情報処理装置は、原稿画像データG1に対して処理を実行する。原稿画像データは、複数の第1画像データT1〜T3と、第2画像データN1、N2・・・とを含む。第1画像データは、文字認識処理の対象であるが、第2画像データは、文字認識処理の対象でない。情報処理装置は、検出部と抽出部と処理部とを備える。検出部は、原稿画像データから複数の第1画像データを検出する。抽出部は、原稿画像データから複数の第1画像データを抽出する。処理部は、複数の第1画像データを合成して合成画像データを生成し、合成画像データに対して文字認識処理を実行する。【選択図】図2

Description

本発明は、情報処理装置、及び情報処理方法に関する。
原稿を読取って生成された画像データから、特定の領域を切り出す画像形成装置が従来から開発されている。例えば、特許文献1に記載の画像形成装置は、画像データにマーカーペンで囲まれた領域があるか否かを判別する。
特許文献1に記載の画像形成装置は、画像データにマーカーペンで囲まれた領域があると判別した場合には、マーカーペンで囲まれた領域の内部又は外部をシートに印字出力する。特許文献1に記載の画像形成装置は、画像データにマーカーペンで囲まれた領域がないと判別した場合には、画像データを改変せずにシートに印字出力する。
特開2005−167875号公報
しかしながら、特許文献1に記載の画像形成装置は、画像データに対する文字認識処理の方法を変更できない。したがって、特許文献1に記載の画像形成装置は、画像データに応じて、最適な文字認識処理を実行できない。その結果、ユーザーの利便性が低かった。
本発明は上記課題に鑑みてなされたものであり、ユーザーの利便性を向上させることができる情報処理装置、及び情報処理方法を提供することを目的とする。
本発明に係る情報処理装置は、原稿画像データに対して処理を実行する。原稿画像データは、複数の第1画像データと、第2画像データとを含む。前記第1画像データは、文字認識処理の対象である。前記第2画像データは、文字認識処理の対象でない。当該情報処理装置は、検出部と、抽出部と、処理部とを備える。前記検出部は、前記原稿画像データから、前記複数の第1画像データを検出する。前記抽出部は、前記原稿画像データから、前記複数の第1画像データを抽出する。前記処理部は、前記複数の第1画像データを合成して合成画像データを生成し、前記合成画像データに対して文字認識処理を実行する。
本発明に係る情報処理方法は、原稿画像データに対して処理を実行する方法である。前記原稿画像データは、複数の第1画像データと、第2画像データとを含む。前記第1画像データは、文字認識処理の対象である。前記第2画像データは、文字認識処理の対象でない。当該情報処理方法は、前記原稿画像データから前記複数の第1画像データを検出するステップと、前記原稿画像データから前記複数の第1画像データを抽出するステップと、前記複数の第1画像データを合成して合成画像データを生成し、前記合成画像データに対して文字認識処理を実行するステップとを含む。
本発明の情報処理装置、及び情報処理方法によれば、ユーザーの利便性を向上させることができる。
本発明の実施形態1に係る情報処理装置の構成を示す図である。 本発明の実施形態1に係る原稿画像を示す図である。 本発明の実施形態1に係る合成画像を示す図である。 本発明の実施形態1に係る情報処理装置の制御部の構成を示すブロック図である。 本発明の実施形態1に係る情報処理装置が原稿画像を読取って文字列データを出力するまでの動作を示すフローチャートである。 本発明の実施形態2に係るマスキング画像を示す図である。 (a)〜(c)は、本発明の実施形態2に係る原稿画像から抽出された第1画像を示す図である。 本発明の実施形態2に係る情報処理装置の制御部の構成を示すブロック図である。 本発明の実施形態2に係る情報処理装置が原稿画像を読取って文字列データを出力するまでの動作を示すフローチャートである。 本発明の実施形態3に係る原稿画像を示す図である。 (a)は、本発明の実施形態4に係る翻訳前の原稿画像を示す図である。(b)は、本発明の実施形態4に係る翻訳後の画像を示す図である。 (a)は、本発明の実施形態5に係る表現方法を変更する前の原稿画像を示す図である。(b)は、本発明の実施形態5に係る表現方法を変更した後の画像を示す図である。 本発明の実施形態6に係る指示画面を示す図である。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
(実施形態1)
図1を参照して、実施形態1に係る情報処理装置100を説明する。図1は、実施形態1に係る情報処理装置100の構成を示す図である。情報処理装置100は、例えば、複写機、プリンター、又は複合機である。以下では、一例として、情報処理装置100がプリンター機能と複写機能とファクシミリ機能とを有するモノクロ複合機である場合について説明する。
図1に示すように、情報処理装置100は、画像読取部10と、画像形成部20と、制御部30と、記憶部40と、通信部50と、原稿台12と、原稿搬送装置110と、操作パネル120と、給紙カセット130と、用紙搬送部140と、用紙排出部170とを備える。
画像読取部10は、予め設定された解像度で原稿Dに形成された画像を読取り、原稿Dの画像を示すデータを生成する。詳しくは、画像読取部10は、原稿搬送装置110によって搬送された原稿Dに形成された画像を読取り、原稿Dの画像を示すデータを生成する。又は、画像読取部10は、原稿台12に載置された原稿Dに形成された画像を読取り、原稿Dの画像を示すデータを生成する。以下、原稿Dの画像を「原稿画像」と記載する場合がある。また、原稿Dの画像を示すデータを「原稿画像データ」と記載する場合がある。
画像形成部20は、原稿画像データに基づいて用紙Pに画像を形成する。用紙Pは、記録媒体の一例である。
制御部30は、CPU(Central Processing Unit)のようなプロセッサー、及びASIC(Application Specific Integrated Circuit)等によって構成されるハードウェア回路である。制御部30は、記憶部40に記憶された制御プログラムをプロセッサーが読み出して実行することによって、情報処理装置100の各部の動作を制御する。制御部30は、原稿画像データに対して処理を実行する。
原稿画像データは、第1画像データと第2画像データとを含む。第1画像は、文字認識処理の対象となる画像である。第2画像は、文字認識処理の対象とならない画像である。第1画像は、例えば、文字に対してマーキングがされている画像である。例えば、ユーザーは、筆記具(例えば、ピンク色の蛍光ペン)によって文字に対してマーキングする。あるいは、ユーザーは、ソフトウェアを使用してデータ上で文字に対してマーキングしてもよい。
制御部30は、原稿画像データから、第1画像データのみを含む合成画像を示すデータを生成し、合成画像を示すデータに対して文字認識処理を実行する。これにより、文字認識処理に掛かる時間が短くなる。この結果、ユーザーの利便性が向上する。以下、合成画像を示すデータを「合成画像データ」と記載する場合がある。
記憶部40は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、及びROM(Read Only Memory)によって構成される。記憶部40は、外部メモリーを含んでいてもよい。外部メモリーは、リムーバブルメディアである。記憶部40は、外部メモリーとして、例えば、USB(Universal Serial Bus)メモリー、及びSD(Secure Digital)カードを含む。記憶部40は、各種のデータ、及び情報処理装置100の各部の動作を制御するための制御プログラムを記憶する。制御プログラムは、制御部30によって実行される。
通信部50は、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。本実施形態において、通信部50は、LAN(Local Area Network)などのネットワーク網を介して外部装置と通信する。通信部50は、例えば、LANボードのような通信モジュール(通信機器)である。なお、原稿画像データは、通信部50を介して外部装置から送信された画像データでもよい。
操作パネル120は、ユーザーに情報処理装置100を操作させるために用いられる。操作パネル120は、表示部122を有する。表示部122は、例えば、タッチパネルである。表示部122には、ユーザーに情報処理装置100を操作させるための入力画面が表示される。また、表示部122は、指示画面を表示する。指示画面については、図13を参照して後に説明する。
給紙カセット130は、印刷用の用紙Pを収容している。印刷を行う際、給紙カセット130内の用紙Pは、画像形成部20を経由して用紙排出部170から排出されるように、用紙搬送部140によって搬送される。
図2は、実施形態1に係る原稿画像G1を示す図である。図2に示すように、原稿画像G1は、第1画像T1、T2及びT3と、第2画像N1、及びN2とを含む。
第1画像T1は、文字列画像T1aと、識別画像T1bとを含む。第1画像T2は、文字列画像T2aと、識別画像T2bとを含む。第1画像T3は、文字列画像T3aと、識別画像T3bとを含む。
文字列画像T1a、T2a、及びT3aは複数の文字画像を含む。文字画像は、1つの文字を示す。換言すると、文字列画像T1a、T2a、及びT3aは、文字列を示す画像である。図2において、文字列画像T1aは、文字列「ABCDEFGH」を示す。文字列画像T2aは、文字列「1234567890」を示す。文字列画像T3aは、文字列が「QRSTUVWX」を示す。
識別画像T1b、T2b、及びT3bは、文字列画像T1a、T2a、及びT3aが文字認識処理の対象であることを示す。識別画像T1bは、文字列画像T1aに重なるマーキング画像である。識別画像T2bは、文字列画像T2aに重なるマーキング画像である。識別画像T3bは、文字列画像T3aに重なるマーキング画像である。図2に示す例において、識別画像T1b、T2b、及びT3bは、ピンク色の蛍光ペンにより描画された直線状あるいは略直線状の画像である。
第2画像N1は、文字列画像N1aを含む。第2画像N2は、文字列画像N2aを含む。
図2において、文字列画像N1a、及びN2aは、文字列を示す画像である。図2において、文字列画像N1aは、文字列「IJKLMNOP」を示す。文字列画像N2aは、文字列「0987654321」を示す。
図3は、実施形態1に係る合成画像G2を示す図である。図3に示すように、合成画像G2は、第1画像T1、T2及びT3を含む。合成画像G2は、複数の第1画像、具体的には、第1画像T1、T2及びT3を合成した画像である。合成画像G2の第1画像T1、T2及びT3は、図2を参照して説明した原稿画像G1の第1画像T1、T2及びT3と同じである。
次に、図4を参照して、実施形態1の制御部30の構成について説明する。図4は、実施形態1の制御部30の構成を示すブロック図である。
図4に示すように、制御部30は、検出部31と、抽出部32と、処理部33とを有する。具体的には、制御部30は、記憶部40が記憶する制御プログラムを実行することによって、検出部31、抽出部32、及び処理部33として機能する。
検出部31は、図2を参照して説明した原稿画像G1を示すデータから、第1画像T1、T2及びT3を検出する。具体的には、検出部31は、識別画像T1b、T2b、又はT3bを含む画像を第1画像として検出する。
抽出部32は、原稿画像G1を示すデータから、検出部31が検出した第1画像T1、T2及びT3の各々を示すデータを抽出する。
処理部33は、抽出部32が抽出した第1画像T1、T2及びT3の各々を示すデータを合成して、図3を参照して説明した合成画像G2を示すデータを生成する。処理部33は、合成画像G2を示すデータに対して文字認識処理を実行する。文字認識処理は、原稿画像に含まれる文字画像(例えば、平仮名、カタカナ、アルファベッド、漢字、数字、記号)を光学的に認識し、文字画像を文字コードに変換する処理である。
文字認識処理を実行した結果、処理部33は、第1画像T1を示すデータから、文字列画像T1aに含まれる文字列「ABCDEFGH」を示すデータを取得する。処理部33は、第1画像T2を示すデータから、文字列画像T2aに含まれる文字列「1234567890」を示すデータを取得する。処理部33は、第1画像T3を示すデータから、文字列画像T3aに含まれる「QRSTUVWX」を示すデータを取得する。
処理部33は、文字認識処理を実行して得られた文字列データを出力する。例えば、処理部33は、文字列データを電子ファイルに記録する。あるいは、処理部33は、文字列データを外部の情報端末に送信する。あるいは、処理部33は、図1を参照して説明した用紙Pに文字列が印字されるように情報処理装置100を動作させる。処理部33は、図1を参照して説明した表示部122に文字列を表示する。
次に、図5を参照して、実施形態1の情報処理装置100の動作について説明する。図5は、情報処理装置100が原稿Dの画像を読取って文字列データを出力するまでの動作を示すフローチャートである。
図5に示す動作は、ユーザーが、例えば、図1を参照して説明した原稿搬送装置110に原稿Dを載置して、情報処理装置100に原稿Dの画像の読取りを指示することによって開始する。
ステップS101において、画像読取部10が、原稿Dの画像を読取って、原稿画像G1を示すデータを生成する。動作はステップS102に進む。
ステップS102において、検出部31が、原稿画像G1に含まれる第1画像T1、T2及びT3を検出する。動作はステップS103に進む。
ステップS103において、抽出部32が、検出された第1画像T1、T2及びT3の各々を示すデータを原稿画像データから抽出する。動作はステップS104に進む。
ステップS104において、処理部33が、抽出された第1画像T1、T2及びT3の各々を示すデータを合成して合成画像G2を示すデータを生成する。動作はステップS105に進む。
ステップS105において、処理部33が、合成画像G2を示すデータに対して文字認識処理を実行する。動作はステップS106に進む。
ステップS106において、処理部33が、文字認識処理によって取得された文字列データを出力する。図5に示す動作は終了する。
以上、図1から図5を参照して、本発明の実施形態1に係る情報処理装置100について説明した。実施形態1によれば、情報処理装置100は、原稿画像G1から、第1画像T1、T2及びT3のみを含む合成画像G2を生成し、合成画像G2に対して文字認識処理を実行する。したがって、文字認識処理に掛かる時間が短くなる。この結果、ユーザーの利便性が向上する。
なお、図1〜図5を参照して説明した情報処理装置100において、原稿画像G1に含まれる識別画像T1b、T2b、及びT3bは、ピンク色の蛍光ペンにより描画されたマーキング画像である。しかしながら、識別画像T1b、T2b、及びT3は、ピンク色ではない色、例えば黄色の蛍光ペンによって描画されたマーキング画像であってもよい。また、識別画像T1b、T2b、及びT3aは、文字列画像T1a、T2a、及びT3aの全体ではなく、例えば、文字列画像T1a、T2a、及びT3aの下半分とだけ重なっていてもよい。
(実施形態2)
図2、図6から図9を参照して、本発明の実施形態2について説明する。実施形態2によれば、情報処理装置100は、図2を参照して説明した原稿画像G1に含まれる第1画像T1、T2及びT3の数に応じて、文字認識処理の方法を変更する。この結果、ユーザーの利便性が向上する。
図6は、実施形態2に係るマスキング画像G3を示す図である。本実施形態において、マスキング画像G3は、図2を参照して説明した原稿画像G1の背景色によって、原稿画像G1の第2画像N1、及びN2をマスキングすることにより形成される。
背景色は、図2を参照して説明した原稿画像G1のうち、第1画像、及び第2画像が描画されていない部分の色である。背景色は、ユーザーが予め設定する。背景色は、例えば、白である。マスキング画像G3の第1画像T1、T2及びT3は、原稿画像G1の第1画像T1、T2及びT3と同じである。
図7は、原稿画像G1から抽出された第1画像T1、T2及びT3を示す図である。図7(a)は、原稿画像G1から抽出された第1画像T1を示す図である。図7(b)は、原稿画像G1から抽出された第1画像T2を示す図である。図7(c)は、原稿画像G1から抽出された第1画像T3を示す図である。
次に、図8を参照して、実施形態2の制御部30の構成について説明する。図8は、実施形態2の制御部30の構成を示すブロック図である。図8に示すように、実施形態2の制御部30は、処理部33の構成を除けば実施形態1の制御部30と構成が同じである。したがって、実施形態2の制御部30の構成のうち、処理部33以外の構成については説明を省略する。
処理部33は、計数部331と、判定部332と、第1実行部333と、第2実行部334とを有する。具体的には、制御部30は、記憶部40が記憶する制御プログラムを実行することによって、計数部331、判定部332、第1実行部333、及び第2実行部334として機能する。
なお、処理部33は、実施形態1において説明した処理部33と同様に、文字認識処理を実行して得られた文字列データを出力する。
計数部331は、抽出部32が抽出した第1画像T1、T2及びT3の数を計数する。図7(a)〜図7(c)に示すように、実施形態2における第1画像T1、T2、及びT3の数は3つである。
判定部332は、第1画像T1、T2及びT3の数が閾値よりも大きいか否かを判定する。閾値は、例えば、「5」である。閾値は、ユーザー、又はメンテナンス担当者が設定、及び変更できる。また、情報処理装置100を工場で製造する際に設定できる。
第1実行部333は、第1画像T1、T2及びT3の数が閾値よりも大きいと判定された場合、第1処理を実行する。第1処理は、図6を参照して説明したマスキング画像G3を示すデータに対して文字認識する処理である。具体的には、第1実行部333は、原稿画像G1を示すデータに対して、第2画像N1、及びN2を原稿画像G1の背景色でマスキングする処理を実行する。この結果、マスキング画像G3を示すデータが生成される。
第2実行部334は、第1画像T1、T2及びT3の数が閾値より大きくないと判定された場合、第1処理と異なる第2処理を実行する。第2処理は、図7(a)〜図7(c)を参照して説明した第1画像T1、T2及びT3の各々に対して文字認識する処理である。
次に、図9を参照して、実施形態2の情報処理装置100の動作について説明する。図9は、情報処理装置100が原稿Dの画像を読取って文字列データを出力するまでの動作を示すフローチャートである。なお、ステップS101からステップS103までは、実施形態1のステップS101からステップS103と同じである。したがって、ステップS101からステップS103までの説明を省略する。
ステップS204において、計数部331が、抽出された第1画像T1、T2及びT3の数を計数する。動作はステップS205に進む。
ステップS205において、第1画像T1、T2及びT3の数が閾値より大きいか否かを判定部332が判定する。閾値より大きいと判定部332が判定した場合(ステップS205のYes)は、動作はステップS206に進む。閾値より大きくないと判定部332が判定した場合(ステップS205のNo)は、動作はステップS207に進む。
ステップS206において、第1実行部333が、第1処理を実行する。動作はステップS208に進む。
ステップS207において、第2実行部334が、第2処理を実行する。動作はステップS208に進む。
ステップS208において、処理部33が、文字認識処理によって取得された文字列データを出力する。図9に示す動作は終了する。
以上、図2、図6から図9を参照して、本発明の実施形態2に係る情報処理装置100について説明した。実施形態2によれば、情報処理装置100は、原稿画像に含まれる第1画像の数に応じて、文字認識処理の方法を変更する。この結果、原稿画像に応じて、最適な文字認識方法を選択できる。したがって、ユーザーの利便性が向上する。
(実施形態3)
図1、図4、及び図10を参照して、本発明の実施形態3について説明する。実施形態3の情報処理装置100によれば、識別画像がマーキング画像ではなくても文字認識処理を実行できる。この結果、ユーザーの利便性が向上する。
実施形態3の情報処理装置100は、識別画像が文字画像の位置する領域を特定する記号又は図形であっても文字認識処理を実行できる。文字画像の位置する領域を示す特定の記号は、例えば、鉤括弧、丸括弧、隅付き括弧である。文字画像の位置する領域を特定する図形は、例えば、下線、四角型の線図、丸型の線図、三角型の線図、及び雲形の線図である。
図10は、実施形態3に係る原稿画像G4を示す図である。図10は、第1画像T11、T12及びT13を除いて、原稿画像G1と同一である。したがって、第1画像T11、T12及びT13以外の説明を省略する。
第1画像T11は、文字列画像T11aと、識別画像T11b、及びT11cとを含む。第1画像T12は、文字列画像T12aと、識別画像T12bとを含む。第1画像T13は、文字列画像T13aと、識別画像T13bとを含む。
文字列画像T11aは、実施形態1、及び実施形態2で説明した文字列画像T1aと同じである。文字列画像T12aは、実施形態1、及び実施形態2で説明した文字列画像T2aと同じである。文字列画像T13aは、実施形態1、及び実施形態2で説明した文字列画像T3aと同じである。したがって、文字列画像T11a、T12b、及びT13cについての説明は省略する。
識別画像T11b、及びT11cは、鉤括弧を示す画像である。識別画像T12bは、下線を示す画像である。識別画像T13bは、雲形の線図を示す画像である。図10に示すように、識別画像T11b、T11c、T12b、T13bは、文字列画像T11a、T12a、及びT13aの位置する領域を特定している。
実施形態3の情報処理装置100の構成は、識別画像T11b、T11c、T12b、T13bを検出部31が識別画像として検出することを除いて、実施形態1の情報処理装置100の構成と同じである。したがって、実施形態3の情報処理装置100の構成の説明は省略する。
また、実施形態3の情報処理装置100の動作は、識別画像T11b、T11c、T12b、T13bを検出部31が識別画像として検出することを除いて、実施形態1の情報処理装置100と同じ動作である。したがって、実施形態3の情報処理装置100の動作の説明は省略する。
以上、図1、図4、及び図10を参照して、本発明の実施形態3に係る情報処理装置100について説明した。実施形態3によれば、情報処理装置100は、第1画像に含まれる識別画像がマーキングキング画像でなくても、文字認識処理を実行できる。この結果、ユーザーの利便性が向上する。
なお、実施形態3に係る処理部33は、実施形態2に係る処理部33と同様に、計数部331、判定部332、第1実行部333、及び第2実行部334を有していてもよい。
(実施形態4)
図1、図4、図11(a)、及び図11(b)を参照して、本発明の実施形態4について説明する。実施形態4の処理部33は、文字認識処理によって取得された文字列を翻訳して出力する。この結果、ユーザーの利便性がより向上する。なお、翻訳は、所定処理の一例である。
図11(a)は、翻訳前の原稿画像G5を示す図である。図11(b)は、翻訳後の画像G6を示す図である。実施形態4の情報処理装置100は、文字認識処理によって取得された文字列を翻訳する。
図11(a)に示すように、翻訳前の原稿画像G5は、翻訳の対象となる第1画像T20を含んでいる。第1画像T20は、文字列画像T20aと、識別画像T20bとを含んでいる。文字列画像T20aは、文字列を示す画像である。図11(a)において、文字列画像T20aは、文字列「bureaucratic」を示す。識別画像T20bは、図2で説明した識別画像T1bと同じピンク色の蛍光ペンにより描画された直線状の画像である。
図11(b)に示すように、翻訳後の画像G6は、処理部33によって翻訳された翻訳画像Hを含んでいる。翻訳画像Hは、文字列画像H1を含んでいる。文字列画像H1は、翻訳された文字列を示す画像である。図11(b)において、文字列画像H1は、文字列「官僚的な」を示す。
実施形態4の情報処理装置100の構成は、文字認識処理を実行して得られた文字列を処理部33が翻訳することを除いて、実施形態1の情報処理装置100の構成と同じである。したがって、実施形態4の情報処理装置100の構成の説明は省略する。
また、実施形態4の情報処理装置100の動作は、文字認識処理を実行して得られた文字列を処理部33が翻訳することを除いて、実施形態1の情報処理装置100と同じ動作である。したがって、実施形態4の情報処理装置100の動作の説明は省略する。
以上、図1、図4、図11(a)、及び図11(b)を参照して、本発明の実施形態4に係る情報処理装置100について説明した。実施形態4によれば、情報処理装置100は、文字認識処理を実行して文字列を取得するだけでなく、得られた文字列を翻訳することができる。この結果、ユーザーの利便性がより向上する。
なお、実施形態4では、情報処理装置100は英文を日本文に翻訳している。しかしながら、翻訳元の言語、及び翻訳先の言語は特に限定されない。例えば、情報処理装置100は、日本文を英文に翻訳してもよい。
なお、実施形態4に係る処理部33は、実施形態2に係る処理部33と同様に、計数部331、判定部332、第1実行部333、及び第2実行部334を有していてもよい。
(実施形態5)
図1、図4、図12(a)、及び図12(b)を参照して、本発明の実施形態5について説明する。実施形態5の処理部33は、文字認識処理によって取得された文字列の表現方法を変更して出力する。処理部33は、例えば、文字列の色、文字列の大きさ(フォントサイズ)、及び文字列の形状(フォントの種類)のうちの少なくとも一つを変更して出力する。処理部33は、例えば、文字画像に下線を新たに付加してもよく、文字画像にマーキング画像を新たに重ねてもよい。表現方法の変更は、所定処理の一例である。
具体的には、処理部33は、例えば、第1画像に含まれる12ポイントの文字列を24ポイントの文字列に変更し、変更後の文字列が用紙Pに印字されるように情報処理装置100の動作を制御する。第1画像の表現方法を変更して出力することによって、第1画像は用紙P中で強調される。この結果、ユーザーの利便性がより向上する。
図12(a)は、表現方法を変更する前の原稿画像G7を示す図である。図12(b)は、表現方法を変更した後の画像G8を示す図である。実施形態5の情報処理装置100は、文字認識処理によって取得された文字列の表現方法を変更する。
図12(a)に示すように、表現変更前の原稿画像G7は、表現変更の対象となる第1画像T30を含んでいる。第1画像T30は、文字列画像T30aと、識別画像T30bとを含んでいる。文字列画像T30aは、文字列を示す画像である。図12(a)において、文字列画像T30aは、文字列「bureaucratic」を示す。識別画像T30bは、図2を参照して説明した識別画像T1bと同じピンク色の蛍光ペンにより描画された直線状の画像である。
図12(b)に示すように、表現方法を変更した後の画像G8は、変更後画像Sを含んでいる。変更後画像Sは、文字列画像S1を含んでいる。文字列画像S1は、文字列を示す画像である。文字列画像S1は、文字列「bureaucratic」を示す。文字列画像S1に含まれている文字列のフォントサイズは、文字列画像T30aに含まれている文字列のフォントサイズよりも大きい。
実施形態5の情報処理装置100の構成は、文字認識処理を実行して得られた文字列の表現方法を処理部33が変更することを除いて、実施形態1の情報処理装置100の構成と同じである。したがって、実施形態5の情報処理装置100の構成の説明は省略する。
また、実施形態5の情報処理装置100の動作は、文字認識処理を実行して得られた文字列の表現方法を処理部33が変更することを除いて、実施形態1の情報処理装置100と同じ動作である。したがって、実施形態4の情報処理装置100の動作の説明は省略する。
以上、図1、図4、図12(a)及び図12(b)を参照して、本発明の実施形態5に係る情報処理装置100について説明した。実施形態5によれば、情報処理装置100は、文字認識処理を実行して文字列を得られた文字列の表現方法を変更することができる。この結果、ユーザーの利便性がより向上する。
なお、実施形態5に係る処理部33は、実施形態2に係る処理部33と同様に、計数部331、判定部332、第1実行部333、及び第2実行部334を有していてもよい。
(実施形態6)
図1、図4、及び図13を参照して、本発明の実施形態6について説明する。実施形態6の処理部33は、原稿画像G1の第1画像に含まれる文字画像の文字濃度が規定値以上の場合、図1を参照して説明した表示部122に、再読取指示情報Mを表示する。
文字濃度は、文字画像を構成する画素の数に対する文字を構成する画素の数の比率を示す。規定値は、例えば、60%である。再読取指示情報Mは、画像読取部10が原稿画像を前回読取った際に設定されていた解像度よりも高い解像度で、原稿画像を読取ることを指示する情報を示す。
文字濃度が高い文字画像は、例えば、画数が多い漢字を含む画像である。文字濃度が高い文字画像は、文字認識の精度が低い。第1画像が文字濃度の高い文字画像を含む場合、画像読取部10によって原稿Dをより高い解像度で再度読取るように、情報処理装置100はユーザーに指示する。ユーザーが指示にしたがった場合、文字認識の精度が高くなる。
具体的には、処理部33は、第1画像が文字濃度の高い文字画像を含む場合、表示部122が指示画面G10を表示するように、表示部122を制御する。
図13は、指示画面G10を示す図である。指示画面G10は、再読取指示情報Mを表示する。再読取指示情報Mは、「解像度を上げて、原稿を再読取りして下さい。」を示している。ユーザーが、再読取指示情報Mにしたがって、例えば、解像度を200dpiから400dpiに変更することにより、文字認識の精度が高くなる。
実施形態6の情報処理装置100の構成は、再読取指示情報Mを表示するように処理部33が表示部122を制御することを除いて、実施形態1の情報処理装置100の構成と同じである。したがって、実施形態6の情報処理装置100の構成の説明は省略する。
また、実施形態6の情報処理装置100の動作は、再読取指示情報Mを表示するように処理部33が表示部122を制御することを除いて、実施形態1の情報処理装置100と同じ動作である。したがって、実施形態6の情報処理装置100の動作の説明は省略する。
以上、図1、図4、及び図13を参照して、本発明の実施形態6に係る情報処理装置100について説明した。実施形態6によれば、情報処理装置100は、第1画像に文字濃度の高い文字が含まれている場合、原稿Dをより高い解像度で再読取するようユーザーに指示する。ユーザーが高い解像度での再読取を実行すれば、文字認識の精度が高まる。この結果、ユーザーの利便性がより向上する。
なお、実施形態6に係る処理部33は、実施形態2に係る処理部33と同様に、計数部331、判定部332、第1実行部333、及び第2実行部334を有していてもよい。
以上、図面を参照しながら本実施形態について説明した。ただし、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である(例えば、下記に示す(1)〜(2))。図面は、理解し易くするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の個数等は、図面作成の都合上から実際とは異なる場合がある。また、上記の実施形態で示す各構成要素の形状等は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。
(1)本発明の実施形態では、情報処理装置100の一例として、複合機を用いて説明したが、本発明の情報処理装置100は、複合機に限定されない。例えば、情報処理装置100は、スマートフォン、又はタブレット端末でもよい。情報処理装置100が、スマートフォン、又はタブレット端末である場合、例えば、タッチパネル上に表示された画像の特定部分をドラッグすることによって、第1画像を選択する。
(2)本発明の実施形態では、第1画像は識別画像を一つ含んでいたが、第1画像は互いに異なる複数の識別画像を含み得る。この場合、識別画像の違いによって、処理内容を変更することもできる。例えば、情報処理装置100は、識別画像が赤色のマーキング画像である第1画像は翻訳して出力し、識別画像が青色のマーキング画像である第1画像はフォントサイズを大きくして出力してもよい。
本発明は、画像形成装置の分野に利用可能である。
31 検出部
32 抽出部
33 処理部
100 情報処理装置
G1 原稿画像
G2 合成画像
N1、N2、N3 第2画像
T1、T2、T3 第1画像

Claims (11)

  1. 文字認識処理の対象である複数の第1画像データと、文字認識処理の対象でない第2画像データとを含む原稿画像データに対して処理を実行する情報処理装置であって、
    前記原稿画像データから、前記複数の第1画像データを検出する検出部と、
    前記原稿画像データから、前記複数の第1画像データを抽出する抽出部と、
    前記複数の第1画像データを合成して合成画像データを生成し、前記合成画像データに対して文字認識処理を実行する処理部と
    を備える、情報処理装置。
  2. 前記第1画像データは、
    少なくとも1つの文字画像と、
    前記文字画像が文字認識処理の対象であることを示す識別画像と
    を示し、
    前記文字画像は1つの文字を示す、請求項1に記載の情報処理装置。
  3. 前記第1画像データの各々が、互いに異なる複数の前記識別画像を示す、請求項2に記載の情報処理装置。
  4. 前記識別画像が、前記文字画像に重なるマーキング画像である、請求項2又は請求項3に記載の情報処理装置。
  5. 前記識別画像が、前記文字画像の位置する領域を特定する記号又は図形を含む、請求項2又は請求項3に記載の情報処理装置。
  6. 前記処理部は、前記識別画像の種類に応じて処理内容を変更する、請求項2から請求項5記載のいずれか1項に記載の情報処理装置。
  7. 前記処理部は、前記文字認識処理によって取得された文字列を翻訳する、請求項6に記載の情報処理装置。
  8. 前記処理部は、前記文字認識処理によって取得された文字列の色、大きさ、及び形状のうちの少なくとも一つを変更する、請求項6に記載の情報処理装置。
  9. 前記処理部は、前記文字画像の文字濃度を算出して、前記文字濃度に基づいて所定処理を実行し、
    前記文字濃度は、前記文字画像を構成する画素の数に対する前記文字を構成する画素の数の比率を示す、請求項2から請求項8のいずれか1項に記載の情報処理装置。
  10. 予め設定された解像度で原稿から原稿画像を読取り、前記原稿画像データを生成する画像読取部と、
    表示部と
    を更に備え、
    前記所定処理は、前記文字濃度が規定値以上の場合に、再読取指示情報を表示するように前記表示部を制御する処理であり、
    前記再読取指示情報は、前記画像読取部が前記原稿画像を前回読取った際に設定されていた解像度よりも高い解像度で、前記原稿画像を読取ることを指示する情報を示す、請求項9に記載の情報処理装置。
  11. 文字認識処理の対象である複数の第1画像データと、文字認識処理の対象でない第2画像データとを含む原稿画像データに対して処理を実行する情報処理方法であって、
    前記原稿画像データから、前記複数の第1画像データを検出するステップと、
    前記原稿画像データから、前記複数の第1画像データを抽出するステップと、
    前記複数の第1画像データを合成して合成画像データを生成し、前記合成画像データに対して文字認識処理を実行するステップと
    を含む、情報処理方法。
JP2018237330A 2018-12-19 2018-12-19 情報処理装置、及び情報処理方法 Pending JP2020099030A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018237330A JP2020099030A (ja) 2018-12-19 2018-12-19 情報処理装置、及び情報処理方法
US16/707,356 US10936893B2 (en) 2018-12-19 2019-12-09 Information processing device and method for document image extraction, composite image generation, and OCR processing including display of reading resolution instructions based on character density

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237330A JP2020099030A (ja) 2018-12-19 2018-12-19 情報処理装置、及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2020099030A true JP2020099030A (ja) 2020-06-25

Family

ID=71097067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237330A Pending JP2020099030A (ja) 2018-12-19 2018-12-19 情報処理装置、及び情報処理方法

Country Status (2)

Country Link
US (1) US10936893B2 (ja)
JP (1) JP2020099030A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7147544B2 (ja) * 2018-12-19 2022-10-05 京セラドキュメントソリューションズ株式会社 情報処理装置、及び情報処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103266A (ja) * 1981-12-15 1983-06-20 Toshiba Corp 文字画像処理装置
JP2667435B2 (ja) * 1987-05-01 1997-10-27 株式会社リコー 領域抽出方法
US5272764A (en) * 1989-12-08 1993-12-21 Xerox Corporation Detection of highlighted regions
JP3001065B2 (ja) * 1991-03-19 2000-01-17 テイ・エイ・エス通商株式会社 プログラムの作成方法
JP4189506B2 (ja) * 2000-06-09 2008-12-03 コニカミノルタビジネステクノロジーズ株式会社 画像処理のための装置、方法及び記録媒体
JP2005167875A (ja) 2003-12-05 2005-06-23 Kyocera Mita Corp 画像形成装置,画像形成装置の印字方法
US8494280B2 (en) * 2006-04-27 2013-07-23 Xerox Corporation Automated method for extracting highlighted regions in scanned source
KR20080055119A (ko) * 2006-12-14 2008-06-19 삼성전자주식회사 화상형성장치 및 그 제어방법
US20090148043A1 (en) * 2007-12-06 2009-06-11 International Business Machines Corporation Method for extracting text from a compound digital image
US8718365B1 (en) * 2009-10-29 2014-05-06 Google Inc. Text recognition for textually sparse images
JP7147544B2 (ja) * 2018-12-19 2022-10-05 京セラドキュメントソリューションズ株式会社 情報処理装置、及び情報処理方法

Also Published As

Publication number Publication date
US20200202156A1 (en) 2020-06-25
US10936893B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
US8423900B2 (en) Object based adaptive document resizing
US8610929B2 (en) Image processing apparatus, control method therefor, and program
US9614984B2 (en) Electronic document generation system and recording medium
KR102613255B1 (ko) 화상 처리 방법 및 화상 처리 시스템
US9641705B2 (en) Image forming apparatus for reading indicia on a sheet and inserting images on a subsequent printed sheet at a location corresponding to the location of the read indicia
JP2011003995A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US11418658B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US20190146646A1 (en) Information processing system, information processing apparatus, and non-transitory computer readable medium
JP7147544B2 (ja) 情報処理装置、及び情報処理方法
JP2020099030A (ja) 情報処理装置、及び情報処理方法
JP5230134B2 (ja) 適応型自動レイアウト機能を持った画像形成装置
JP2020204905A (ja) 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム
JP2010039783A (ja) 文書処理装置、文書処理システム、文書処理方法、及び、文書処理プログラム
US11006015B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP7383882B2 (ja) 情報処理装置、及び情報処理プログラム
JP2006270589A (ja) 情報処理装置、情報処理方法、プログラムおよび記録媒体
JP2012048637A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2016139869A (ja) 画像処理装置
JP2006264062A (ja) バリアブル印刷装置およびバリアブル印刷システム
JP7497620B2 (ja) 文書データ生成装置、画像形成装置、及び文書データ生成プログラム
JP2010109653A (ja) 画像読取装置、画像形成装置、画像読取方法および画像読取プログラム
JP5938425B2 (ja) データ処理装置、方法及びプログラム
JP2019097049A (ja) 情報処理装置及び情報処理プログラム
JP2013130997A (ja) 画像形成装置
JP2010026986A (ja) 画像形成装置