JP5217814B2 - Image processing apparatus, image processing method, control program, and recording medium - Google Patents

Image processing apparatus, image processing method, control program, and recording medium Download PDF

Info

Publication number
JP5217814B2
JP5217814B2 JP2008232300A JP2008232300A JP5217814B2 JP 5217814 B2 JP5217814 B2 JP 5217814B2 JP 2008232300 A JP2008232300 A JP 2008232300A JP 2008232300 A JP2008232300 A JP 2008232300A JP 5217814 B2 JP5217814 B2 JP 5217814B2
Authority
JP
Japan
Prior art keywords
character
information
area
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008232300A
Other languages
Japanese (ja)
Other versions
JP2010066981A (en
Inventor
慶久 大黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008232300A priority Critical patent/JP5217814B2/en
Publication of JP2010066981A publication Critical patent/JP2010066981A/en
Application granted granted Critical
Publication of JP5217814B2 publication Critical patent/JP5217814B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像処理装置、画像処理方法、制御プログラム及び記録媒体に関し、特に、画像として表示された文字情報を検索対象の文字情報として記憶する処理に関する。   The present invention relates to an image processing apparatus, an image processing method, a control program, and a recording medium, and more particularly to processing for storing character information displayed as an image as character information to be searched.

近年、情報の電子化が推進される傾向にある。情報の電子化の一態様として、文章を含む画像をスキャン等によって取得し、その画像に表示されている文字を文字情報として認識する処理がある。このような処理は、OCR(Optical Character Recognition:光学文字認識)と呼ばれている。   In recent years, computerization of information has been promoted. As one aspect of information digitization, there is a process of acquiring an image including a sentence by scanning or the like and recognizing characters displayed on the image as character information. Such a process is called OCR (Optical Character Recognition).

複数行からなる文章を含む画像に対してOCR処理を実行する場合、OCR処理を実行する前段階の処理として、文字行領域を抽出する処理が必要となる。このような文字行領域を抽出する方法としては、例えば夫々の文字を連結して行を抽出する方法がある。また、他の方法としては、入力された文章画像を二値化した上で論理和縮小し、縮小された画像に含まれる連結成分の縦横比を判定することにより、行を抽出する方法が提案されている(例えば、特許文献1参照)。   When the OCR process is performed on an image including a sentence composed of a plurality of lines, a process for extracting a character line area is required as a process prior to the execution of the OCR process. As a method for extracting such a character line region, for example, there is a method of extracting lines by connecting respective characters. As another method, a method of extracting lines by binarizing an input sentence image and performing logical sum reduction and determining an aspect ratio of a connected component included in the reduced image is proposed. (For example, refer to Patent Document 1).

また、文書のレイアウトが複雑な画像において、単一の抽出条件では抽出が困難な文字行領域を抽出するための方法も提案されている(例えば、特許文献2参照)。特許文献2に開示された方法においては、複数の異なる抽出条件夫々に基づいて複数の文字行領域が抽出される。そして、抽出された複数の文字行領域に対する文字認識結果に基づいて、採用する文字行領域が決定される。
特開平5−266075号公報 特開2006−244309号公報
A method for extracting a character line region that is difficult to extract under a single extraction condition in an image having a complicated document layout has also been proposed (for example, see Patent Document 2). In the method disclosed in Patent Document 2, a plurality of character line regions are extracted based on a plurality of different extraction conditions. Then, the character line area to be adopted is determined based on the character recognition results for the plurality of extracted character line areas.
JP-A-5-266075 JP 2006-244309 A

従来、上述したような文字認識技術は、主として文字を含む画像を文字情報として再現すること、即ち、再現性を高めることが課題とされていた。しかしながら、近年、情報の検索技術の重要性に伴い、文字認識技術によって文字を含む画像情報を文字検索の対象として格納するという要求がある。この場合、上記の再現性よりも、入力された検索語に基づいて画像に含まれる文字を抽出する適合率が重要視される。   Conventionally, the character recognition technology as described above has been a problem of mainly reproducing an image including characters as character information, that is, improving reproducibility. However, in recent years, with the importance of information retrieval technology, there is a demand for storing image information including characters as a character retrieval target by character recognition technology. In this case, the precision of extracting characters included in the image based on the input search word is more important than the above reproducibility.

上記適合率は、画像に含まれる文字行領域を正確に抽出し、文字認識を正確に実行することにより向上することができる。他方、文字行領域が正確に抽出されない場合、その画像に含まれる文章を正確に文字認識することができない。その結果、画像として含まれている文字を文字情報として格納することが出来ないため、文字検索を実行しても正しい検索結果を得ることができず、適合率が低下する。   The precision can be improved by accurately extracting a character line area included in an image and accurately executing character recognition. On the other hand, when the character line area is not accurately extracted, the text included in the image cannot be accurately recognized. As a result, since characters included as an image cannot be stored as character information, a correct search result cannot be obtained even if a character search is executed, and the relevance rate decreases.

換言すると、文字認識を実行することにより、文字を含む画像を文字検索の検索対象として格納する場合、再現性と適合率のトレードオフとはならず、適合率が優先される。   In other words, when an image including characters is stored as a search target for character search by performing character recognition, the reproducibility and the relevance rate are not traded off, and the relevance rate is given priority.

本発明は、上記実情を考慮してなされたものであり、文字を含む画像を文字認識することにより文字検索の検索対象として格納する場合に、文字検索の適合率を向上することを目的とする。   The present invention has been made in consideration of the above circumstances, and an object of the present invention is to improve the accuracy of character search when an image containing characters is stored as a character search search target by character recognition. .

上記課題を解決するために、発明は、文字領域を含む画像から前記文字領域を抽出して文字情報を生成し、検索対象情報として格納する画像処理装置であって、前記画像を取得する画像取得部と、前記文字領域を抽出するための第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出し、第の文字情報を生成する第の文字領域抽出部と、前記第の領域抽出方法とは異なる第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出し、第の文字情報を生成する第の文字領域抽出部と、前記第の文字情報及び前記第の文字情報を前記検索対象情報として記録媒体に格納する情報格納部とを含み、前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域抽出部が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、前記格納対象除外部は、前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外することを特徴とする。 In order to solve the above-described problem, the present invention provides an image processing apparatus that extracts character regions from an image including character regions, generates character information, and stores the character information as search target information. A first character region extraction unit that extracts a character region from the acquired image based on a first region extraction method for extracting the character region and generates first character information; A second character region extraction unit that extracts a character region from the acquired image based on a second region extraction method different from the first region extraction method and generates second character information; the first character information and the second text information see contains an information storage unit for storing a recording medium as the search target information, the first character region and the second to the first character region extracting unit has extracted The second character extracted by the character area extraction unit A storage target exclusion unit that excludes the character information displayed in the overlapping area from the storage target as the search target information when the area overlaps, If the entire first character area is included in the second character area, the first character information is excluded from the storage target .

また、発明は、上述の画像処理装置において、前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、前記格納対象除外部は、前記第1の文字領域の横方向の範囲全体が前記第2の文字領域の横方向の範囲全体に含まれ、且つ前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が所定の条件を満たす場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 According to the present invention, in the above-described image processing apparatus, the first character area extracted by the first character area extraction unit and the second character area extracted by the second character area overlap. A storage target exclusion unit that excludes the character information displayed in the overlapping area from the storage target as the search target information, and the storage target exclusion part includes: The entire range in the horizontal direction is included in the entire range in the horizontal direction of the second character area, and the direction of the character line in the first character area and the direction of the character line in the second character area are predetermined conditions. If the condition is satisfied, the character information displayed in the overlapping area of the first character information is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記格納対象除外部は、前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が横方向である場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 According to the present invention, in the above-described image processing apparatus, the storage target exclusion unit is configured such that the direction of the character line in the first character area and the direction of the character line in the second character area are horizontal. The character information displayed in the overlapping area of the first character information is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、前記格納対象除外部は、前記第1の文字領域の縦方向の範囲全体が前記第2の文字領域の縦方向の範囲全体に含まれ、且つ前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が所定の条件を満たす場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 According to the present invention, in the above-described image processing apparatus, the first character area extracted by the first character area extraction unit and the second character area extracted by the second character area overlap. A storage target exclusion unit that excludes the character information displayed in the overlapping area from the storage target as the search target information, and the storage target exclusion part includes: The entire range in the vertical direction is included in the entire range in the vertical direction of the second character area, and the direction of the character line in the first character area and the direction of the character line in the second character area are predetermined conditions. If the condition is satisfied, the character information displayed in the overlapping area of the first character information is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記格納対象除外部は、前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が縦方向である場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 According to the present invention, in the above-described image processing device, the storage target exclusion unit is configured such that the direction of the character line in the first character area and the direction of the character line in the second character area are vertical. The character information displayed in the overlapping area of the first character information is excluded from the storage target.

また、発明は、上述の画像処理装置において、辞書情報を取得する辞書情報取得部と、前記第の文字情報若しくは前記第の文字情報を検索して前記取得された辞書情報に含まれる単語を抽出する辞書検索部と、前記辞書検索部による検索結果に応じて前記第の文字情報若しくは前記第の文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部とを有することを特徴とする。 The present invention includes the dictionary information acquisition unit that acquires dictionary information and the dictionary information acquired by searching the first character information or the second character information in the image processing apparatus described above. A dictionary search unit for extracting words; and a storage target exclusion unit for excluding the first character information or the second character information from the storage target as the search target information according to a search result by the dictionary search unit. It is characterized by having.

また、発明は、上述の画像処理装置において、前記格納対象除外部は、前記第の文字情報及び前記第の文字情報のうち、前記辞書検索部による検索の結果抽出された単語がすべて一文字の単語であるものを前記格納対象から除外することを特徴とする。 Further, the present invention is an image processing apparatus described above, the storing object excluding unit of the first character information and the second character information, the dictionary search unit search results extracted word all by What is a single character word is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記第1の文字領域抽出部若しくは前記第2の文字領域抽出部が抽出した文字領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、前記格納対象除外部は、前記文字領域の行方向及び当該行方向と平行な方向の前記文字領域の幅の関係に基づいて前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 Further, according to the present invention, in the above-described image processing apparatus, character information displayed in the character area extracted by the first character area extraction unit or the second character area extraction unit is stored as the search target information. A storage target exclusion unit that is excluded from the target, and the storage target exclusion unit is displayed in the character area based on a relationship between a line direction of the character area and a width of the character area in a direction parallel to the line direction. The character information is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記格納対象除外部は、前記文字領域の幅であって前記文字領域の行方向と平行な方向の幅が所定の範囲以下である場合に、前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 Further, the present invention is an image processing apparatus described above, the storage exempt unit, when the a width of the character region in the row direction parallel to the direction of the character region width is equal to or smaller than the predetermined range, Character information displayed in the character area is excluded from the storage target.

また、発明は、上述の画像処理装置において、前記第1の文字領域抽出部若しくは前記第2の文字領域抽出部が抽出した文字領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、前記格納対象除外部は、前記文字領域の行方向及び前記文字領域のアスペクト比の関係に基づいて前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする。 Further, according to the present invention, in the above-described image processing apparatus, character information displayed in the character area extracted by the first character area extraction unit or the second character area extraction unit is stored as the search target information. A storage object exclusion unit for excluding the object from the object, wherein the storage object exclusion unit stores the character information displayed in the character area based on a relationship between a line direction of the character area and an aspect ratio of the character area It is excluded from the object.

また、発明は、文字領域を含む画像から前記文字領域を抽出して文字情報を生成し、検索対象情報として格納する画像処理方法であって、画像取得部が、前記画像を取得し、第の文字領域抽出部が、前記文字領域を抽出するための第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第の文字情報を生成し、第の文字領域抽出部が、前記第の領域抽出方法とは異なる第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第の文字情報を生成し、情報格納部が、前記第の文字情報及び前記第の文字情報を前記検索対象情報として記録媒体に格納し、格納対象除外部が、前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域抽出部が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外し、前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外することを特徴とする。 Further, the present invention is an image processing method for extracting the character region from an image including the character region, generating character information, and storing it as search target information, wherein the image acquisition unit acquires the image, 1 of the character area extraction unit to generate a first character information by extracting a character region from the acquired image based on the first area extracting method for extracting the character area, second character region extraction unit, wherein generating the second character information by extracting a character region from the acquired image on the basis of a different second area extracting process and the first region extraction method, the information storage unit, The first character information and the second character information are stored in the recording medium as the search target information , and the storage target exclusion unit includes the first character region extracted by the first character region extraction unit and the first character region. The second character area extracted by the second character area extraction unit is In the case of duplication, the character information displayed in the overlapping area is excluded from the storage target as the search target information, and the entire first character area is included in the second character area. The first character information is excluded from the storage target .

また、発明は、情報処理装置を、文字領域を含む画像から前記文字領域を抽出して文字情報を生成して検索対象情報として格納する画像処理装置として動作させる制御プログラムであって、前記画像を取得するステップと、前記文字領域を抽出するための第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第の文字情報を生成するステップと、前記第の領域抽出方法とは異なる第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第の文字情報を生成するステップと、前記第の文字情報及び前記第の文字情報を前記検索対象情報として記録媒体に格納するステップと、前記第1の文字情報を生成するステップにおいて抽出した第1の文字領域と第2の文字情報を生成するステップにおいて抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外するステップと、前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外するステップとを前記情報処理装置に実行させることを特徴とする。 The present invention also provides a control program that causes an information processing apparatus to operate as an image processing apparatus that extracts character areas from an image including character areas, generates character information, and stores the information as search target information. acquiring, and generating a first character information by extracting a character region from the acquired image based on the first area extracting method for extracting the character region, the first generating a second character information by extracting a character region from the acquired image on the basis of a different second area extracting process from the region extraction method, the first character information and the second letter and storing the information in the recording medium as the search target information, in the first of the first character region generating a second character information extracted in the step of generating the character information If the extracted second character area overlaps, the step of excluding the character information displayed in the overlapped area from the storage target as the search target information, and the first character When the entire area is included in the second character area, the information processing apparatus is caused to execute the step of excluding the first character information from the storage target .

また、発明は、記録媒体であって、上記記載の制御プログラムを情報処理装置が読み取り可能な形式で記録したことを特徴とする。 Further, the present invention is a recording medium, wherein the control program described above is recorded in a format readable by the information processing apparatus.

本発明によれば、文字を含む画像を文字認識することにより文字検索の検索対象として格納する場合に、文字検索の適合率を向上することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, when storing the image containing a character as a search object of a character search by recognizing a character, it becomes possible to improve the precision of a character search.

実施の形態1.
以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、現行をスキャンして画像情報を生成し、その画像情報に対して文字認識を実行して画像情報と文字情報とを関連付けて格納する画像処理装置を例として説明する。
Embodiment 1 FIG.
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an image processing apparatus that scans the current to generate image information, performs character recognition on the image information, and stores the image information and the character information in association with each other will be described as an example.

図1は、本実施形態に係る画像処理装置1のハードウェア構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置1は、一般的なサーバやPC(Personal Computer)等の情報処理端末と同様の構成を含む。即ち、本実施形態に係る画像処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)20、エンジン30、ROM(Read Only Memory)40、NVRAM(Non―Volatile Random Access Memory)50及びI/F60がバス90を介して接続されている。また、I/F60にはLCD(Liquid Crystal Display)70及び操作部80が接続されている。   FIG. 1 is a block diagram illustrating a hardware configuration of the image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes the same configuration as an information processing terminal such as a general server or a PC (Personal Computer). That is, the image processing apparatus 1 according to the present embodiment includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 20, an engine 30, a ROM (Read Only Memory) 40, and an NVRAM (Non-Volatile Random Access Memory) 50. And the I / F 60 are connected via a bus 90. Further, an LCD (Liquid Crystal Display) 70 and an operation unit 80 are connected to the I / F 60.

CPU10は演算手段であり、画像処理装置1全体の動作を制御する。RAM20は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。エンジン30は、スキャナやプリンタ等の画像処理機能を実行する画像処理エンジンである。ROM40は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。   The CPU 10 is a calculation unit and controls the operation of the entire image processing apparatus 1. The RAM 20 is a volatile storage medium capable of reading and writing information at high speed, and is used as a work area when the CPU 10 processes information. The engine 30 is an image processing engine that executes an image processing function such as a scanner or a printer. The ROM 40 is a read-only nonvolatile storage medium and stores a program such as firmware.

NVRAM50は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム及びアプリケーション・プログラムの動作パラメータの情報等が格納される。I/F60は、バス90と各種のハードウェアやネットワーク等を接続し制御する。LCD70は、ユーザが画像処理装置1の状態を確認するための視覚的ユーザインタフェースである。操作部80は、キーボードやマウス等、ユーザが画像処理装置1に情報を入力するためのユーザインタフェースである。   The NVRAM 50 is a non-volatile storage medium capable of reading and writing information, and stores information such as an OS (Operating System), various control programs, application programs, and operation parameters of the application programs. The I / F 60 connects and controls the bus 90 and various hardware and networks. The LCD 70 is a visual user interface for the user to check the state of the image processing apparatus 1. The operation unit 80 is a user interface for a user to input information to the image processing apparatus 1 such as a keyboard and a mouse.

このようなハードウェア構成において、ROM40やNVRAM50若しくは図示しないHDD(Hard Disk Drive)や光学ディスク等の記憶媒体に格納されたプログラムがRAM20に読み出され、RAM20に読み出されたプログラムに従ってCPU10が動作することにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る画像処理装置1の機能を実現する機能ブロックが構成される。   In such a hardware configuration, a program stored in a storage medium such as ROM 40, NVRAM 50, HDD (Hard Disk Drive) (not shown) or an optical disk is read into RAM 20, and CPU 10 operates according to the program read into RAM 20. Thus, a software control unit is configured. A functional block that realizes the functions of the image processing apparatus 1 according to the present embodiment is configured by a combination of the software control unit configured as described above and hardware.

図2は、本実施形態に係る画像処理装置1の機能構成を示すブロック図である。図2に示すように、本実施例に係る画像処理装置1は、コントローラ100、ADF(Auto Document Feeder:原稿自動搬送装置)101、スキャナユニット102、排紙トレイ103、ネットワークI/F104、ディスプレイパネル105及び検索対象DB106を有する。   FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 1 according to the present embodiment. As shown in FIG. 2, the image processing apparatus 1 according to the present embodiment includes a controller 100, an ADF (Auto Document Feeder) 101, a scanner unit 102, a paper discharge tray 103, a network I / F 104, a display panel. 105 and a search target DB 106.

また、コントローラ100は、主制御部111、エンジン制御部112、入出力制御部113、画像処理部114及び文字認識制御部120を有する。尚、図2においては、電気的接続を実線の矢印で示しており、用紙の流れを破線の矢印で示している。コントローラ100は、図1に示すRAM20にロードされたプログラムに従ってCPU10が動作することにより実現される。   The controller 100 includes a main control unit 111, an engine control unit 112, an input / output control unit 113, an image processing unit 114, and a character recognition control unit 120. In FIG. 2, the electrical connection is indicated by solid arrows, and the flow of paper is indicated by broken arrows. The controller 100 is realized by the CPU 10 operating according to a program loaded in the RAM 20 shown in FIG.

ネットワークI/F104は、画像処理装置1がクライアント端末等の他の機器と通信する際のインタフェースである。ネットワークI/F104は、図1に示すI/F60によって実現される。ディスプレイパネル105は、画像処理装置1の状態を視覚的に表示する出力インタフェースであると共に、タッチパネルとしてユーザが画像処理装置1を直接操作する際の入力インタフェースでもある。ディスプレイパネル105は、図1に示すLCD70及び操作部80によって実現される。   The network I / F 104 is an interface used when the image processing apparatus 1 communicates with other devices such as a client terminal. The network I / F 104 is realized by the I / F 60 shown in FIG. The display panel 105 is an output interface that visually displays the state of the image processing apparatus 1, and is also an input interface when the user directly operates the image processing apparatus 1 as a touch panel. The display panel 105 is realized by the LCD 70 and the operation unit 80 shown in FIG.

検索対象DB106は、文字検索の対象となる情報が格納されているデータベースである。検索対象DB106は、図1に示すNVRAM50や図示しないHDD等の不揮発性の記憶媒体に記憶された情報によって実現される。   The search target DB 106 is a database that stores information to be searched for characters. The search target DB 106 is realized by information stored in a nonvolatile storage medium such as the NVRAM 50 shown in FIG. 1 or an HDD (not shown).

主制御部111は、コントローラ100に含まれる各部を制御する役割を担い、コントローラ100の各部に命令を与える。エンジン制御部112は、スキャナユニット102等を制御若しくは駆動する駆動手段としての役割を担う。入出力制御部113は、ネットワークI/F104若しくはディスプレイパネルを介して入力される情報を主制御部111に入力する。また、入出力制御部113は、主制御部111の命令に従ってネットワークI/F104を介してネットワークに接続された他の装置に情報を送信する。更に入出力制御部113は、主制御部111の命令に従い、ディスプレイパネル105の表示を制御する。   The main control unit 111 plays a role of controlling each unit included in the controller 100, and gives a command to each unit of the controller 100. The engine control unit 112 serves as a driving unit that controls or drives the scanner unit 102 and the like. The input / output control unit 113 inputs information input via the network I / F 104 or the display panel to the main control unit 111. In addition, the input / output control unit 113 transmits information to other devices connected to the network via the network I / F 104 in accordance with instructions from the main control unit 111. Further, the input / output control unit 113 controls display on the display panel 105 in accordance with a command from the main control unit 111.

画像処理部114は、主制御部111の制御に従い、スキャナユニット102から入力される撮像データを処理し、画像情報を生成する。この画像情報とは、スキャナ動作の結果物として図示しないHDDに格納され若しくはネットワークI/F104を介してクライアント端末等に送信される情報である。   The image processing unit 114 processes image data input from the scanner unit 102 under the control of the main control unit 111 and generates image information. The image information is information stored in a HDD (not shown) as a result of the scanner operation or transmitted to a client terminal or the like via the network I / F 104.

文字認識制御部120は、主制御部111の制御に従い、検索対象DB106への登録対象として入力された画像情報を解析し、文字認識を実行する。そして、文字認識制御部120は、実行した文字認識の結果に従い、入力された画像情報と文字認識によって生成された文字情報とを関連付けて検索対象DB106に格納する。文字認識制御部120によって提供される機能が本実施形態の要旨の1つとなる。   The character recognition control unit 120 analyzes image information input as a registration target in the search target DB 106 according to the control of the main control unit 111 and executes character recognition. Then, the character recognition control unit 120 associates the input image information with the character information generated by the character recognition and stores them in the search target DB 106 in accordance with the result of the executed character recognition. The function provided by the character recognition control unit 120 is one of the gist of the present embodiment.

画像処理装置1がスキャナとして動作する場合は、ユーザによるディスプレイパネル105の操作若しくはネットワークI/F104を介して外部のクライアント装置等から入力されるスキャン実行指示に応じて、入出力制御部113が主制御部111にスキャン実行信号を転送する。主制御部111は、受信したスキャン実行信号に基づき、エンジン制御部112を制御する。   When the image processing apparatus 1 operates as a scanner, the input / output control unit 113 performs main operations in response to a user operation on the display panel 105 or a scan execution instruction input from an external client device or the like via the network I / F 104. A scan execution signal is transferred to the control unit 111. The main control unit 111 controls the engine control unit 112 based on the received scan execution signal.

エンジン制御部112は、ADF101を駆動し、ADF101にセットされた撮像対象原稿をスキャナユニット102に搬送する。また、エンジン制御部112は、スキャナユニット102を駆動し、ADF101から搬送される原稿を撮像する。また、ADF101に原稿がセットされておらず、スキャナユニット102に直接原稿がセットされた場合、スキャナユニット102は、エンジン制御部112の制御に従い、セットされた原稿を撮像する。即ち、スキャナユニット102が撮像部として動作する。   The engine control unit 112 drives the ADF 101 and conveys the document to be imaged set on the ADF 101 to the scanner unit 102. In addition, the engine control unit 112 drives the scanner unit 102 and images a document conveyed from the ADF 101. If no original is set on the ADF 101 and the original is directly set on the scanner unit 102, the scanner unit 102 images the set original under the control of the engine control unit 112. That is, the scanner unit 102 operates as an imaging unit.

撮像動作においては、スキャナユニット102に含まれるCCD等の撮像素子が原稿を光学的に走査し、光学情報に基づいて生成された撮像情報が生成される。エンジン制御部112は、スキャナユニット102が生成した撮像情報を画像処理部114に転送する。画像処理部114は、主制御部111の制御に従い、エンジン制御部112から受信した撮像情報に基づいて画像情報を生成する。   In the imaging operation, an imaging element such as a CCD included in the scanner unit 102 optically scans the document, and imaging information generated based on the optical information is generated. The engine control unit 112 transfers the imaging information generated by the scanner unit 102 to the image processing unit 114. The image processing unit 114 generates image information based on the imaging information received from the engine control unit 112 according to the control of the main control unit 111.

画像処理部114が生成した画像情報はHDD等の画像形成装置1に装着された記憶媒体に保存される。画像処理部114によって生成された画像情報は、ユーザの指示に応じてそのままHDD等に格納され若しくは入出力制御部113及びネットワークI/F108を介して外部の装置に送信される。   Image information generated by the image processing unit 114 is stored in a storage medium attached to the image forming apparatus 1 such as an HDD. The image information generated by the image processing unit 114 is stored in the HDD or the like as it is according to a user instruction or transmitted to an external device via the input / output control unit 113 and the network I / F 108.

尚、図1、図2においては、画像処理装置1が単一の装置によって構成される場合を例としている。しかしながら、ネットワークによって接続された複数の装置に分割して図1、図2に示す機能を実現することも可能である。このような画像処理装置1において、上述したように、本実施形態の要旨は、文字認識制御部120による文字認識処理にある。本実施形態に係る文字認識制御部120について、図3を参照して更に詳細に説明する。   1 and 2 exemplify a case where the image processing apparatus 1 is configured by a single apparatus. However, the functions shown in FIGS. 1 and 2 can be realized by dividing the apparatus into a plurality of devices connected by a network. In such an image processing apparatus 1, as described above, the gist of the present embodiment is the character recognition process performed by the character recognition control unit 120. The character recognition control unit 120 according to the present embodiment will be described in more detail with reference to FIG.

図3は、本実施形態に係る文字認識制御部120の詳細及び文字認識制御部120と主制御部111、検索対象DB106との接続関係を示すブロック図である。図3に示すように、本実施形態に係る文字認識制御部120は、入力情報取得部121、文字情報認識部122及び情報登録部123を有する。本実施形態に係る情報挿入制御部120は、図1に示すRAM20にロードされたプログラムに従ってCPU10が動作することにより構成される。   FIG. 3 is a block diagram illustrating details of the character recognition control unit 120 according to the present embodiment and a connection relationship between the character recognition control unit 120, the main control unit 111, and the search target DB 106. As illustrated in FIG. 3, the character recognition control unit 120 according to the present embodiment includes an input information acquisition unit 121, a character information recognition unit 122, and an information registration unit 123. The information insertion control unit 120 according to the present embodiment is configured by the CPU 10 operating according to a program loaded in the RAM 20 shown in FIG.

入力情報取得部121は、検索対象として検索対象DB120に登録すべき画像情報を入力情報として取得する。入力情報は、スキャナユニット102によるスキャン処理によって生成される画像情報若しくはネットワークI/F104を介して入力される画像情報である。入力情報取得部121は、上記入力情報を主制御部111から取得する。入力情報取得部121は、取得した入力情報を文字情報認識部122に入力する。   The input information acquisition unit 121 acquires image information to be registered in the search target DB 120 as a search target as input information. The input information is image information generated by scanning processing by the scanner unit 102 or image information input via the network I / F 104. The input information acquisition unit 121 acquires the input information from the main control unit 111. The input information acquisition unit 121 inputs the acquired input information to the character information recognition unit 122.

文字情報認識部122は、入力情報取得部121が取得した入力情報に含まれる文字情報を認識する。文字情報認識部122は、入力情報として取得した画像情報から文字行が表示されている文字行領域を抽出した上で、文字認識を実行する。文字情報認識部122は、上記文字行領域を抽出するための方法を複数種類有し、夫々の方法に基づいて文字行を抽出した上で文字認識を実行する。文字情報認識部122による処理は後に詳述する。   The character information recognition unit 122 recognizes character information included in the input information acquired by the input information acquisition unit 121. The character information recognition unit 122 performs character recognition after extracting a character line area where a character line is displayed from image information acquired as input information. The character information recognition unit 122 has a plurality of methods for extracting the character line region, and performs character recognition after extracting a character line based on each method. The processing by the character information recognition unit 122 will be described in detail later.

情報登録部123は、入力情報取得部121が取得した画像情報と文字情報認識部122が文字認識により生成した文字情報とを関連付けて検索対象DB106に登録する。   The information registration unit 123 associates the image information acquired by the input information acquisition unit 121 with the character information generated by the character information recognition unit 122 through character recognition, and registers them in the search target DB 106.

次に、本実施形態に係る画像処理装置1の動作について説明する。図4は、本実施形態に係る画像処理装置1の動作を示すフローチャートである。図4に示すように、まず、入力情報取得部121が、主制御部111から入力情報として画像情報を取得する(S401)。即ち、入力情報取得部121が画像取得部として機能する。図5に、本実施形態のS401において入力情報取得部121が取得する画像の例を示す。図5に示す入力情報は、白地に黒い文字で文章が表示された画像情報である。   Next, the operation of the image processing apparatus 1 according to this embodiment will be described. FIG. 4 is a flowchart showing the operation of the image processing apparatus 1 according to the present embodiment. As shown in FIG. 4, first, the input information acquisition unit 121 acquires image information as input information from the main control unit 111 (S401). That is, the input information acquisition unit 121 functions as an image acquisition unit. FIG. 5 shows an example of an image acquired by the input information acquisition unit 121 in S401 of the present embodiment. The input information shown in FIG. 5 is image information in which sentences are displayed in black characters on a white background.

尚、上述したように、S401において入力情報取得部121が取得する画像情報は、スキャナユニット102によるスキャン若しくはネットワークI/F104を介した情報の入力等により入力される。入力情報取得部121は、取得した入力情報を文字情報認識部122に入力する。   As described above, the image information acquired by the input information acquisition unit 121 in step S401 is input by scanning with the scanner unit 102 or inputting information via the network I / F 104. The input information acquisition unit 121 inputs the acquired input information to the character information recognition unit 122.

図5に示すような入力情報を取得すると、文字情報認識部122は、複数の行抽出方法から一の方法を選択する(S402)。そして、文字情報認識部122は、S402において選択した行抽出方法に基づいて行抽出を実行する(S403)。   When the input information as shown in FIG. 5 is acquired, the character information recognition unit 122 selects one method from a plurality of line extraction methods (S402). Then, the character information recognition unit 122 executes line extraction based on the line extraction method selected in S402 (S403).

まず、S402の処理において、黒画素を連結して黒画素の外接矩形を生成し、生成された外接矩形を横方向に連結して行を抽出する方法が選択された場合を説明する。この場合、文字情報認識部122は、S403の処理において、入力情報において連続している黒画素を認識する。そして、文字情報認識部122は、認識した黒画素の外接矩形を抽出する。図6は、文字認識部122による矩形抽出処理の態様を示す図である。   First, in the process of S402, a case will be described in which black pixels are connected to generate a circumscribed rectangle of black pixels, and a method of extracting the rows by connecting the generated circumscribed rectangles in the horizontal direction is selected. In this case, the character information recognition unit 122 recognizes continuous black pixels in the input information in the process of S403. Then, the character information recognition unit 122 extracts a circumscribed rectangle of the recognized black pixel. FIG. 6 is a diagram illustrating an aspect of rectangle extraction processing by the character recognition unit 122.

図6に示すように外接矩形を抽出すると、文字情報認識部122は、抽出した外接矩形を横方向に連結して文字行を抽出する。図7は、図6に示す外接矩形の抽出結果に基づいて横書きの行が抽出された結果を示す例である。文字行の抽出が完了すると、文字情報認識部122は、抽出した文字行に対して文字認識を実行する(S404)。文字情報認識部122は、S404において、特徴抽出、パターン辞書照合により文字画像に対応するテキストデータを抽出し、文字認識を実行する。文字認識処理においては、公知の技術を用いることが可能であり、本実施形態においては詳細な説明を省略する。   When the circumscribed rectangle is extracted as illustrated in FIG. 6, the character information recognition unit 122 extracts the character line by connecting the extracted circumscribed rectangle in the horizontal direction. FIG. 7 shows an example of the result of extracting horizontal writing lines based on the circumscribed rectangle extraction result shown in FIG. When the extraction of the character line is completed, the character information recognition unit 122 performs character recognition on the extracted character line (S404). In step S404, the character information recognition unit 122 extracts text data corresponding to the character image by feature extraction and pattern dictionary collation, and executes character recognition. In the character recognition process, a known technique can be used, and detailed description thereof is omitted in this embodiment.

図8は、図7のように抽出された文字行に対して文字認識を実行した結果、生成される文字情報を示す図である。図8に示すように、図7のように抽出された文字行に対して文字認識を実行した場合、“文字認識技術は、紙データを電子化する技術の一つです。・・・対する期待は小さくなることはないようです。”という文字情報が生成される。このように、まずは文字情報認識部122が第一の文字領域抽出部として機能する。   FIG. 8 is a diagram showing character information generated as a result of performing character recognition on the extracted character line as shown in FIG. As shown in FIG. 8, when character recognition is performed on the extracted character line as shown in FIG. 7, “character recognition technology is one of the technologies for digitizing paper data. Will not be smaller. ”Will be generated. Thus, first, the character information recognition unit 122 functions as a first character region extraction unit.

文字認識を実行して図8に示すような文字情報を生成すると、文字情報認識部122は、実行可能な行抽出方法の全てを選択してS403、S404の処理を実行したか確認する(S405)。全ての行抽出方法を選択していない場合(S405/NO)、文字情報認識部122は、S402からの処理を繰り返す。   When character recognition is performed and character information as shown in FIG. 8 is generated, the character information recognition unit 122 selects all executable line extraction methods and confirms whether the processes of S403 and S404 have been performed (S405). ). If not all line extraction methods have been selected (S405 / NO), the character information recognition unit 122 repeats the processing from S402.

図9は、S402において縦書きの行抽出方法が選択された場合の行抽出結果の例を示す図である。この場合、文字情報認識部122は、図6に示すように抽出された外接矩形を縦方向に連結し、図9に示すように文字行を抽出する(S403)。文字行の抽出が完了すると、文字情報認識部122は、上記と同様に抽出した文字行に対して文字認識を実行する(S404)。   FIG. 9 is a diagram illustrating an example of a row extraction result when a vertically written row extraction method is selected in S402. In this case, the character information recognition unit 122 connects the circumscribed rectangles extracted as shown in FIG. 6 in the vertical direction, and extracts character lines as shown in FIG. 9 (S403). When the extraction of the character line is completed, the character information recognition unit 122 performs character recognition on the extracted character line in the same manner as described above (S404).

図10は、図9のように抽出された文字行に対して文字認識を実行した結果、生成される文字情報を示す図である。図10に示すように、図9のように抽出された文字行に対して文字認識を実行した場合、“つ日対一今にのだ術段ん技。・・・認。紙期字すもる文でです”という文字情報が生成される。このように、S402において他の行抽出方法が選択された結果、文字情報認識部122が第二の文字領域抽出部として機能する。   FIG. 10 is a diagram showing character information generated as a result of performing character recognition on the extracted character line as shown in FIG. As shown in FIG. 10, when character recognition is performed on the extracted character line as shown in FIG. The text information “is in a sentence” is generated. Thus, as a result of selecting another line extraction method in S402, the character information recognition unit 122 functions as a second character region extraction unit.

このように、S403、S404の処理が繰り返されることにより、同一の画像領域が異なる文字行領域として認識され、夫々異なる文字情報が生成される。そして、実行可能な行抽出方法の全てを選択し、S403、S404の処理を終えると(S405/YES)、文字情報認識部122は、入力情報取得部121から取得した画像情報及び図8、図10に示すように生成した文字情報を情報登録部123に入力する。   As described above, by repeating the processes of S403 and S404, the same image area is recognized as a different character line area, and different character information is generated. When all of the executable line extraction methods are selected and the processing of S403 and S404 is completed (S405 / YES), the character information recognition unit 122 displays the image information acquired from the input information acquisition unit 121 and FIGS. 10, the generated character information is input to the information registration unit 123.

情報登録部123は、文字情報認識部122から入力された情報を検索対象DB106に登録し(S406)、処理を終了する。即ち、情報登録部123が、検索対象DB106に情報を格納する情報格納部として機能する。S406において、情報登録部123は、入力情報取得部121がS401において取得した画像情報と、文字情報認識部122が生成した夫々の文字情報とを関連付けて検索対象DB106に登録する。図11に、検索対象DB106が記憶している情報の例を示す。   The information registration unit 123 registers the information input from the character information recognition unit 122 in the search target DB 106 (S406), and ends the process. That is, the information registration unit 123 functions as an information storage unit that stores information in the search target DB 106. In S <b> 406, the information registration unit 123 registers the image information acquired by the input information acquisition unit 121 in S <b> 401 and the character information generated by the character information recognition unit 122 in association with each other in the search target DB 106. FIG. 11 shows an example of information stored in the search target DB 106.

図11に示すように、検索対象DB106には、画像格納パス、文字情報1、2、3・・・の情報が関連付けられて記憶されている。画像格納パスとは、S401において入力情報取得部121が取得した画像情報の格納パスの情報である。文字情報1、2、3・・・は、文字情報認識部122が生成した文字情報である。検索対象DB106が検索される場合、文字情報1、2、3・・・が文字検索の対象となる。上述したように、文字情報認識部122は、複数の異なる行抽出方法に基づいて文字行領域を抽出し、複数の文字情報を生成する。従って、図11に示すように、複数の文字情報が、画像情報に関連付けられて記憶される。   As shown in FIG. 11, the search target DB 106 stores information relating to image storage paths and character information 1, 2, 3,. The image storage path is information on the storage path of the image information acquired by the input information acquisition unit 121 in S401. Character information 1, 2, 3,... Is character information generated by the character information recognition unit 122. When the search target DB 106 is searched, character information 1, 2, 3,... Is a character search target. As described above, the character information recognition unit 122 extracts a character line region based on a plurality of different line extraction methods, and generates a plurality of character information. Therefore, as shown in FIG. 11, a plurality of character information is stored in association with the image information.

図8、図10の文字情報を人間が参照すれば、図8に係る行抽出方法が正確であって図10に係る行抽出方法が不正確であることは明らかであり、容易に判断できる。しかしながら、情報処理装置にそのような判断を実行させることは困難である。また、新聞や雑誌の誌面等、図12に示すように縦書き、横書き及び画像とが混在した原稿においては、上記の判断はより困難となる。   8 and 10, it is clear that the line extraction method according to FIG. 8 is accurate and the line extraction method according to FIG. 10 is inaccurate, and can be easily determined. However, it is difficult for the information processing apparatus to make such a determination. Further, the above determination becomes more difficult for a manuscript in which vertical writing, horizontal writing, and images are mixed as shown in FIG.

上記判断を行なう方法も各種提案されてはいるが、その精度は十分ではない。従って、誤った文字行領域が採用される場合も多く、その場合、図10に示すような誤った文字情報が採用される。結果的に、図8に示す正確な文字情報が検索対象とならないために検索漏れが生じ、適合率が低下してしまう。   Various methods for making the above determination have been proposed, but their accuracy is not sufficient. Accordingly, there are many cases where an erroneous character line area is employed, and in such a case, erroneous character information as shown in FIG. 10 is employed. As a result, since the accurate character information shown in FIG. 8 is not a search target, a search omission occurs, and the relevance rate decreases.

本実施形態においては、図11に示すように、複数の行抽出方法を適用して生成された文字情報を全て検索対象として格納する。これにより、正確な文字情報の登録が誤って排除されてしまうようなことがなく、検索対象情報の登録に際して、検索の適合率を向上することが可能となる。   In the present embodiment, as shown in FIG. 11, all character information generated by applying a plurality of line extraction methods is stored as a search target. Thereby, registration of accurate character information is not mistakenly excluded, and it becomes possible to improve the search relevance rate when registering search target information.

以上説明したように、本実施形態に係る画像処理装置1により、文字を含む画像を文字認識することにより文字検索の検索対象として格納する場合に、文字検索の適合率を向上することが可能となる。また、上記実施形態によれば、図10に示すような余分な文字情報も検索対象として登録されることとなる。しかしながら、図10に示すように、誤った行抽出方法によって抽出された文字情報は文章や単語として成立しない情報である。従って、検索に際して検索ノイズが増大することはなく、検索対象情報を登録するという目的において不具合は生じない。   As described above, when the image processing apparatus 1 according to the present embodiment stores an image including characters as a character search target by recognizing the characters, it is possible to improve the character search relevance rate. Become. Further, according to the above embodiment, extra character information as shown in FIG. 10 is also registered as a search target. However, as shown in FIG. 10, character information extracted by an incorrect line extraction method is information that does not hold as a sentence or a word. Therefore, the search noise does not increase during the search, and no problem occurs for the purpose of registering the search target information.

尚、上記実施形態においては、S402において選択される行抽出処理の種類の例として、図7、図9において説明したように、行方向が異なる行抽出処理を例として説明した。この他、正確な文字情報の抽出のために、S402において文字情報認識部122が選択可能な行抽出処理の種類は可能な限り多いことが好ましい。   In the above embodiment, as an example of the type of the line extraction process selected in S402, as described in FIGS. 7 and 9, the line extraction process having different line directions has been described as an example. In addition, in order to extract accurate character information, it is preferable that the number of types of line extraction processing that can be selected by the character information recognition unit 122 in S402 is as many as possible.

例えば、上記実施形態においては、図4のS403の処理として、白黒の画像において黒画素を連結して文字行を抽出する例を説明した。この他、入力画像がカラー画像である場合に、色彩の近い画素を連結して画素集合を生成し、生成した画素集合を連結して文字行を抽出しても良い。即ち、行抽出方法のバリエーションとして、文字を構成する線の認識方法が異なる態様が考えられる。   For example, in the above-described embodiment, as an example of the process of S403 in FIG. 4, a character line is extracted by connecting black pixels in a monochrome image. In addition, when the input image is a color image, a pixel set may be generated by connecting pixels having similar colors, and a character line may be extracted by connecting the generated pixel set. That is, as a variation of the line extraction method, a mode in which a method for recognizing lines constituting characters is different can be considered.

また、上記実施形態においては、図7、図9において説明した行方向に加えて、例えば文字方向が考えられる。図13は、設計図等に見られる紙面上のレイアウトの例を示す図である。図13に含まれる文字情報のうち、“高さ 90mm”という文字情報は、文字方向が270°回転している。このように、行抽出方法のバリエーションとして、文字の上下を認識する方向が異なる態様が考えられる。   Further, in the above embodiment, for example, a character direction can be considered in addition to the row direction described in FIGS. FIG. 13 is a diagram illustrating an example of a layout on a paper surface as seen in a design drawing or the like. Among the character information included in FIG. 13, the character information “90 mm in height” has the character direction rotated by 270 °. Thus, as a variation of the line extraction method, there can be considered a mode in which the direction of recognizing the upper and lower sides of the character is different.

また、“高さ 90mm”という文字情報の行方向は縦であるが、下から上に読む特殊な行方向である。即ち、レイアウト形式によっては、行方向に加えて文字を読み進める方向(以降、文字読み方向とする)も様々である。従って、行抽出方法のバリエーションとして、文字を読み進める方向が異なる態様が考えられる。   The line direction of the character information “height 90 mm” is vertical, but is a special line direction that is read from the bottom to the top. That is, depending on the layout format, there are various directions in which characters are read in addition to the line direction (hereinafter referred to as the character reading direction). Therefore, as a variation of the line extraction method, a mode in which the direction in which characters are read is different can be considered.

同様に、図9に示すように行が抽出された場合であっても、右から左に読むのではなく、左から右に読む場合も考えられる。即ち、レイアウト形式によっては、行を読み進める際の方向(以降、行読み方向とする)も様々である。従って、行抽出方法のバリエーションとして、行を読み進める方向が異なる態様が考えられる。   Similarly, even when a row is extracted as shown in FIG. 9, it is possible to read from left to right instead of reading from right to left. That is, depending on the layout format, there are various directions for reading a line (hereinafter referred to as a line reading direction). Therefore, as a variation of the line extraction method, a mode in which the direction in which the line is read is different can be considered.

上述したような様々なレイアウト形式に対応するため、行方向、文字方向、文字読み方向及び行読み方向等をパラメータとする行抽出方法のバリエーション情報を、文字情報認識部122に登録しておくことが好ましい。文字情報認識部122は、S402において、上記登録されている行抽出方法のバリエーションの1つを選択することにより、様々な態様での文字認識を実行することが可能となる。   In order to correspond to the various layout formats as described above, variation information of the line extraction method using the line direction, the character direction, the character reading direction, the line reading direction, and the like as parameters is registered in the character information recognition unit 122. Is preferred. In S402, the character information recognition unit 122 can perform character recognition in various modes by selecting one of the registered line extraction method variations.

図14に、文字情報認識部122に登録される行抽出方法のバリエーション情報の例を示す。図14に示すように、文字情報認識部122に登録される罵詈エーション情報は、行方向、文字方向、文字読み方向及び行読み方向の情報を含む。行方向は、“縦”、“横”のように、示される。文字方向は、“0°”、“270°”のように、文字の回転角度によって示される。図5に示すような文字であれば“0°”であり、“270°”であれば、図13の“高さ・・・”の文字のように回転していることを示す。文字読み方向及び行読み方向は、文字若しくは行を読み進める方向が矢印で示されている。   FIG. 14 shows an example of variation information of the line extraction method registered in the character information recognition unit 122. As illustrated in FIG. 14, the association information registered in the character information recognition unit 122 includes information on a line direction, a character direction, a character reading direction, and a line reading direction. The row direction is indicated as “vertical” or “horizontal”. The character direction is indicated by the rotation angle of the character such as “0 °” and “270 °”. If it is a character as shown in FIG. 5, it is “0 °”, and if it is “270 °”, it indicates that it is rotated like the character “height...” In FIG. In the character reading direction and the line reading direction, the direction in which the character or line is read is indicated by an arrow.

図14の例において、例えばID“001”のバリエーション情報は、行方向が縦であり、文字は図13の“高さ・・・”の文字のように回転していないことを示す。また、文字読み方向は、上から下であり、行読み方向は右から左であることを示す。   In the example of FIG. 14, for example, the variation information with ID “001” indicates that the row direction is vertical, and the character is not rotated like the character “height...” In FIG. The character reading direction is from top to bottom, and the line reading direction is from right to left.

実施の形態2.
実施の形態1においては、図4に示すように、複数の行抽出方法に基づいて生成した文字情報を全て検索対象DB106に登録することにより、適合率を向上する例を説明した。上述したように、誤った行抽出方法によって生成され登録された文字情報は、検索結果に悪影響を与えることはない。しかしながら、誤った行抽出方法によって登録される文字情報により、余分な記憶領域が必要となる。本実施形態においては、検索の適合率を維持しつつ、誤った行抽出方法によって登録される文字情報を削減することにより、余分に必要となる記憶領域を低減する例を説明する。尚、実施の形態1において説明した符号と同一の符号を付す厚生は、同一または相当部を示し、説明を省略する。
Embodiment 2. FIG.
In the first embodiment, as illustrated in FIG. 4, an example in which the precision is improved by registering all character information generated based on a plurality of line extraction methods in the search target DB 106 has been described. As described above, the character information generated and registered by the wrong line extraction method does not adversely affect the search result. However, an extra storage area is required due to character information registered by an incorrect line extraction method. In the present embodiment, an example will be described in which the extra storage area is reduced by reducing the character information registered by the wrong line extraction method while maintaining the search precision. In addition, the welfare which attaches | subjects the code | symbol same as the code | symbol demonstrated in Embodiment 1 shows the same or an equivalent part, and abbreviate | omits description.

本実施形態に係る画像処理装置1は、図1、図2及び図3において説明した態様と略同様の構成を有する。本実施形態に係る画像処理装置1は、文字認識制御部120による検索対象DB106への情報登録処理が異なる。図を参照して、文字認識制御部120による検索対象DB106への情報登録処理について説明する。   The image processing apparatus 1 according to the present embodiment has a configuration that is substantially the same as the mode described in FIGS. 1, 2, and 3. The image processing apparatus 1 according to the present embodiment is different in information registration processing in the search target DB 106 by the character recognition control unit 120. With reference to the figure, the information registration process to the search target DB 106 by the character recognition control unit 120 will be described.

図15は、本実施形態に係る文字認識制御部120の動作を示すフローチャートである。図15に示すように、S1501〜S1505までは、図4において説明したS401〜S405と同様に処理が実行される。そして、全行抽出方法について文字認識を完了すると(S1505/YES)、文字情報認識部122は、誤認識によって生成された文字情報を削除する(S1506)。S1506の処理は、誤認識によって生成された文字情報を、検索対象DB106への格納対象から除外する処理である。即ち、文字情報認識部122が、格納対象除外部として機能する。   FIG. 15 is a flowchart showing the operation of the character recognition control unit 120 according to this embodiment. As shown in FIG. 15, from S1501 to S1505, processing is executed in the same manner as S401 to S405 described in FIG. When the character recognition is completed for the entire line extraction method (S1505 / YES), the character information recognition unit 122 deletes the character information generated by the misrecognition (S1506). The processing in S1506 is processing for excluding character information generated by misrecognition from being stored in the search target DB. That is, the character information recognition unit 122 functions as a storage target exclusion unit.

S1506において文字情報認識部122が実行する処理の詳細について、図16を参照して説明する。図16は、文字情報認識部122がS1506において誤認識によって生成された文字情報を削除する際の手段(以降、誤検出領域削除手段とする)の一覧を示す情報である。図16に示すように、本実施形態に係る文字情報認識部122は、重複領域削除手段及び辞書検索削除手段を有する。   Details of the processing executed by the character information recognition unit 122 in S1506 will be described with reference to FIG. FIG. 16 is information indicating a list of means (hereinafter referred to as erroneous detection area deletion means) used when the character information recognition unit 122 deletes character information generated by erroneous recognition in S1506. As shown in FIG. 16, the character information recognition unit 122 according to the present embodiment includes an overlapping area deleting unit and a dictionary search deleting unit.

まず、重複領域削除手段について説明する。重複領域削除手段は、異なる行抽出方法によって抽出された複数の文字領域が重複している場合に、所定の条件に基づいて重複している文字領域を削除する。図17(a)〜(d)を参照して、重複領域削除手段による重複領域の削除太陽について説明する。   First, the overlapping area deleting unit will be described. The overlapping area deleting means deletes overlapping character areas based on a predetermined condition when a plurality of character areas extracted by different line extraction methods overlap. With reference to FIGS. 17 (a) to 17 (d), a description will be given of the overlapping area deleting sun by the overlapping area deleting means.

図17(a)は、文字領域Aの中に文字領域Bが含まれている場合を示す図である。図17(a)に示す場合、文字情報認識部122は、文字領域Aと文字領域Bの行方向及び文字方向等が同一であれば、斜線で示す文字領域Bは削除し、文字領域Aの文字情報のみを検索対象DB106に登録する。文字領域Aと文字領域Bの行方向及び文字方向等が同一であれば、文字領域Bに含まれる文字情報は文字領域Aにも含まれている。従って、文字領域Aの文字情報を登録することにより、削除した文字領域Bの文字情報も登録されるため、適合率は低下しない。   FIG. 17A is a diagram illustrating a case where the character area B is included in the character area A. FIG. In the case shown in FIG. 17A, the character information recognition unit 122 deletes the character area B indicated by diagonal lines if the line direction and the character direction of the character area A and the character area B are the same. Only character information is registered in the search target DB 106. If the line direction and the character direction of the character area A and the character area B are the same, the character information included in the character area B is also included in the character area A. Therefore, by registering the character information of the character region A, the character information of the deleted character region B is also registered, so that the matching rate does not decrease.

図17(b)は、文字領域Cの一部と文字領域Dの一部とが重複している場合を示す図である。図17(b)の例においては、文字領域Cの横幅が文字領域Dの横幅よりも広く、且つ文字領域Dの横方向の範囲は文字領域Cの横方向の範囲内に含まれている。この場合、文字情報認識部122は、文字領域C及び文字領域Dの行方向が共に横方向であれば、文字領域Cの全部及び文字領域Dから斜線で示す領域を削除した部分を検索対象DB106に登録する。   FIG. 17B is a diagram illustrating a case where a part of the character area C and a part of the character area D overlap. In the example of FIG. 17B, the horizontal width of the character area C is wider than the horizontal width of the character area D, and the horizontal range of the character area D is included in the horizontal range of the character area C. In this case, if both the line direction of the character area C and the character area D are horizontal directions, the character information recognizing unit 122 deletes all of the character area C and a part in which the hatched area is deleted from the character area D. Register with.

文字領域C及び文字領域Dの行方向が共に横方向であれば、文字領域Cの文字情報を全部登録することにより、斜線で示す重複部分の文字情報は全て含まれる。従って、文字領域Cの全部を登録することにより、削除した斜線部分の文字情報も登録されるため、適合率は低下しない。   If the line directions of the character area C and the character area D are both horizontal, by registering all the character information of the character area C, all of the overlapping character information indicated by hatching is included. Therefore, by registering the entire character region C, the deleted hatched character information is also registered, so the precision does not decrease.

図17(c)は、文字領域Eの一部と文字領域Fの一部とが重複している場合を示す図である。図17(c)の例においては、文字領域Eの縦幅が文字領域Fの縦幅よりも広く、且つ文字領域Fの縦方向の範囲は文字領域Eの縦方向の範囲内に含まれている。この場合、文字情報認識部122は、文字領域E及び文字領域Fの行方向が共に縦方向であれば、文字領域Eの全部及び文字領域Fから斜線で示す領域を削除した部分を検索対象DB106に登録する。   FIG. 17C is a diagram illustrating a case where a part of the character area E and a part of the character area F overlap. In the example of FIG. 17C, the vertical width of the character area E is wider than the vertical width of the character area F, and the vertical range of the character area F is included in the vertical range of the character area E. Yes. In this case, the character information recognizing unit 122 determines that the character area E and the character area F are all deleted from the character area E and the area indicated by the diagonal lines if the line direction of the character area E and the character area F is the vertical direction. Register with.

文字領域E及び文字領域Fの行方向が共に縦方向であれば、文字領域Eの文字情報を全部登録することにより、斜線で示す重複部分の文字情報は全て含まれる。従って、文字領域Eの全部を登録することにより、削除した斜線部分の文字情報も登録されるため、適合率は低下しない。   If the line direction of the character area E and the character area F are both vertical, by registering all the character information of the character area E, all of the overlapping character information indicated by diagonal lines is included. Therefore, by registering the entire character area E, the deleted hatched character information is also registered, so the precision does not decrease.

図17(d)は、文字領域Gの一部と文字領域Hの一部とが重複している場合を示す図である。図17(d)の例において、文字領域Gと文字領域Hとは、縦方向及び横方向が共にずれて重なっている。この場合、文字情報認識部122は、文字領域Gの文字情報と文字領域Hの文字情報とを夫々登録する。   FIG. 17D is a diagram illustrating a case where a part of the character area G and a part of the character area H overlap. In the example of FIG. 17D, the character region G and the character region H are overlapped with the vertical and horizontal directions shifted from each other. In this case, the character information recognition unit 122 registers the character information of the character region G and the character information of the character region H, respectively.

図17(d)の場合、例えば、文字領域Gの全部と文字領域Hから斜線部を削除した部分の文字情報を登録する場合を考える。この場合、文字領域G及び文字領域Hの行方向が共に横方向であったとしても、文字領域Hから斜線部を削除することにより、斜線部とその右側の領域との文章が切断されてしまう。他方、文字領域G及び文字領域Hの行方向が共に縦方向であったとしても、文字領域Hから斜線部を削除することにより、斜線部とその下側の領域との文章が切断されてしまう。従って、図17(d)に示すような重複態様、即ち、一方の領域と他方の領域との横方向及び縦方向がずれて重複している態様では、重複領域の削除を行なわない。   In the case of FIG. 17D, for example, a case where the character information of the entire character region G and the portion where the hatched portion is deleted from the character region H is registered. In this case, even if the line direction of the character region G and the character region H is both horizontal, by deleting the hatched portion from the character region H, the sentence between the hatched portion and the region on the right side thereof is cut. . On the other hand, even if the line directions of the character region G and the character region H are both vertical, by deleting the hatched portion from the character region H, the sentence between the hatched portion and the region below it is cut. . Accordingly, in the overlap mode as shown in FIG. 17D, that is, in a mode where the horizontal direction and the vertical direction of one region and the other region are shifted and overlapped, the overlap region is not deleted.

このように、本実施形態に係る重複領域削除手段では、一方の領域の縦若しくは横方向の範囲の全てが他方の領域の縦若しくは横方向の範囲に含まれており、且つ行方向が所定の条件に合致する場合に限り、重複領域を削除する。換言すると、本実施形態においては、削除しても文字行が分割されない場合のみ、重複領域を削除する。これにより、明らかに余分な重複領域のみを削除し、検索時の適合率を維持したまま必要となる記憶領域を低減することが可能となる。   As described above, in the overlapping area deleting unit according to the present embodiment, the entire vertical or horizontal range of one area is included in the vertical or horizontal range of the other area, and the row direction is predetermined. Only when the condition is met, the overlapping area is deleted. In other words, in the present embodiment, the overlapping area is deleted only when the character line is not divided even if it is deleted. As a result, it is possible to delete only the unnecessary overlapping area and reduce the storage area required while maintaining the matching rate during the search.

次に、辞書検索削除手段について説明する。辞書検索削除手段は、文字認識の結果生成された文字情報に対して辞書検索を実行し、一つも単語がヒットしなかった文字情報を削除する。このため本実施形態に係る文字情報認識部122は、図18に示すように、辞書情報DB107にアクセス可能に構成される。即ち、文字情報認識部122が辞書情報取得部及び辞書検索部として機能する。尚、辞書検索削除手段は、図17に示すような文字領域毎に辞書検索を実行する。   Next, dictionary search deletion means will be described. The dictionary search / deletion means performs a dictionary search on character information generated as a result of character recognition, and deletes character information in which no word is hit. Therefore, the character information recognition unit 122 according to this embodiment is configured to be accessible to the dictionary information DB 107 as shown in FIG. That is, the character information recognition unit 122 functions as a dictionary information acquisition unit and a dictionary search unit. The dictionary search / deletion means executes a dictionary search for each character area as shown in FIG.

例えば、図9において説明したように行抽出が実行されて生成された図10のような文字情報では、辞書に登録された単語が含まれることは少ないと考えられる。他方、“日”、“今”、“文”等の一文字の単語は、誤った行抽出方法によって生成された文字情報であっても含まれる。従って、辞書検索削除手段は、辞書情報DB107に登録された単語のうち、2文字以上の単語が含まれない文字領域を削除する。   For example, as described with reference to FIG. 9, it is considered that the character information as shown in FIG. 10 generated by performing line extraction does not often include words registered in the dictionary. On the other hand, single-character words such as “day”, “now”, and “sentence” are included even in character information generated by an incorrect line extraction method. Therefore, the dictionary search / deletion unit deletes a character area that does not include two or more words among the words registered in the dictionary information DB 107.

このように、本実施形態に係る辞書検索削除手段では、辞書に登録されている単語が含まれない文字領域を削除する。これにより、明らかに余分な文字領域を削除し、検索時の適合率を維持したまま必要となる記憶領域を低減することが可能となる。   As described above, the dictionary search / deletion unit according to the present embodiment deletes a character area that does not include a word registered in the dictionary. As a result, it is possible to obviously delete unnecessary character areas and reduce the required storage area while maintaining the matching rate at the time of search.

文字情報認識部122は、上述した重複領域削除手段及び辞書検索削除手段により明らかに不要な文字領域の文字情報を削除すると、入力情報取得部121から取得した画像情報及び削除されなかった文字情報を情報登録部123に入力する。情報登録部123は、図4のS406と同様に情報を登録し(S1507)、処理を終了する。   When the character information recognizing unit 122 deletes the character information of the clearly unnecessary character region by the overlapping region deleting unit and the dictionary search deleting unit, the character information recognizing unit 122 obtains the image information acquired from the input information acquiring unit 121 and the character information not deleted. The information is input to the information registration unit 123. The information registration unit 123 registers information in the same manner as S406 in FIG. 4 (S1507), and ends the process.

重複領域削除手段及び辞書検索削除手段が、明らかに不要と判断される文字領域の文字情報を削除することにより、検索対象DB106に登録される文字情報の量が低減される。検索対象DB106に登録される文字情報の量が低減されることにより、検索対象の情報が低減される。従って、上述したように、明らかに扶養と判断される文字領域の文字情報を削除することにより、検索に要する時間を低減することも可能となる。   The amount of character information registered in the search target DB 106 is reduced by deleting the character information of the character region that is clearly judged unnecessary by the overlapping region deletion unit and the dictionary search deletion unit. By reducing the amount of character information registered in the search target DB 106, the search target information is reduced. Therefore, as described above, the time required for the search can be reduced by deleting the character information of the character region that is clearly determined to be dependent.

尚、上記実施形態においては、図16において説明したように、誤認識領域削除手段の一例として重複領域削除手段及び辞書検索削除手段を説明した。この他、明らかに不要と判断される文字領域を削除する手段であれば、誤認識領域削除手段として用いることが可能である。   In the above embodiment, as described with reference to FIG. 16, the overlapping area deletion unit and the dictionary search deletion unit have been described as examples of the erroneous recognition area deletion unit. In addition, any means that deletes a character area that is clearly judged to be unnecessary can be used as a misrecognition area deleting means.

上記誤認識領域削除手段の1つの例として、文字領域の縦若しくは横方向の幅と行方向との関係による削除が考えられる。例えば、横書きの文字領域の場合、横方向の幅が少なくとも数文字から数十文字分の幅を有すると考えられる。従って、横書きの文字領域で且つ横方向の幅が数文字分に満たない場合、例えば、1乃至3文字程度の幅である場合、その文字領域は誤認識された領域であるとして削除する。同様に、縦書きの文字領域の場合、縦方向の幅が少なくとも数文字から数十文字分の幅を有すると考えられる。従って、縦書きの文字領域で且つ縦方向の幅が上記と同様に数文字分に満たない場合、その文字領域を削除する。   As an example of the erroneous recognition area deletion means, deletion based on the relationship between the vertical or horizontal width of the character area and the line direction can be considered. For example, in the case of a horizontally written character area, it is considered that the width in the horizontal direction is at least several characters to several tens of characters. Therefore, when the character area is horizontally written and the width in the horizontal direction is less than several characters, for example, when the width is about 1 to 3 characters, the character area is deleted as an erroneously recognized area. Similarly, in the case of a vertically written character area, the width in the vertical direction is considered to be at least several characters to several tens of characters. Therefore, when the character area is vertically written and the width in the vertical direction is less than several characters as described above, the character area is deleted.

また、文字領域の行方向とアスペクト比による削除が考えられる。例えば、横書きの文字領域の場合、縦方向よりも横方向の幅の方が広くなると考えられる。従って、横書きの文字領域で且つ横方向よりも縦方向の幅の方が広い文字領域は、誤認識された領域であるとして削除する。同様に縦書きの文字領域の場合、横方向よりも縦方向の幅の方が広くなると考えられる。従って、縦書きの文字領域で且つ縦方向よりも横方向の幅の方が広い文字領域は、上記と同様に削除する。   In addition, deletion by the line direction and aspect ratio of the character area can be considered. For example, in the case of a horizontally written character area, it is considered that the width in the horizontal direction is wider than the vertical direction. Accordingly, a character area that is horizontally written and has a width that is wider in the vertical direction than in the horizontal direction is deleted as an erroneously recognized area. Similarly, in the case of a vertically written character area, the width in the vertical direction is considered to be wider than that in the horizontal direction. Therefore, a character region that is vertically written and has a width that is wider in the horizontal direction than in the vertical direction is deleted in the same manner as described above.

本発明の実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る文字認識制御部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the character recognition control part which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置の動作を示すフローチャートである。3 is a flowchart showing an operation of the image processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係る入力情報の例を示す図である。It is a figure which shows the example of the input information which concerns on embodiment of this invention. 本発明の実施形態に係る黒画素の外接矩形の抽出態様を示す図である。It is a figure which shows the extraction aspect of the circumscribed rectangle of the black pixel which concerns on embodiment of this invention. 本発明の実施形態に係る行抽出態様を示す図である。It is a figure which shows the row extraction aspect which concerns on embodiment of this invention. 本発明の実施形態において文字認識により生成された文字情報の例を示す図である。It is a figure which shows the example of the character information produced | generated by character recognition in embodiment of this invention. 本発明の実施形態に係る行抽出態様を示す図である。It is a figure which shows the row extraction aspect which concerns on embodiment of this invention. 本発明の実施形態において文字認識により生成された文字情報の例を示す図である。It is a figure which shows the example of the character information produced | generated by character recognition in embodiment of this invention. 本発明の実施形態に係る検索対象DBが記憶している情報の例を示す図である。It is a figure which shows the example of the information which the search object DB which concerns on embodiment of this invention has memorize | stored. 本発明の実施形態に係る読み取り原稿の例を示す図である。It is a figure which shows the example of the reading original document concerning embodiment of this invention. 本発明の実施形態に係る読み取り原稿の例を示す図である。It is a figure which shows the example of the reading original document concerning embodiment of this invention. 本発明の実施形態に係る文字情報認識部が記憶している行抽出方法のバリエーション情報を示す図である。It is a figure which shows the variation information of the line extraction method which the character information recognition part which concerns on embodiment of this invention has memorize | stored. 本発明の他の実施形態に係る画像処理装置の動作を示す図である。It is a figure which shows operation | movement of the image processing apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態に係る誤認識領域削除手段の一覧を示す図である。It is a figure which shows the list of the misrecognition area deletion means which concerns on other embodiment of this invention. 本発明の他の実施形態に係る誤認識領域の削除態様を示す図である。It is a figure which shows the deletion aspect of the misrecognition area | region which concerns on other embodiment of this invention. 本発明の他の実施形態に係る文字認識制御部の機能構成を示す図である。It is a figure which shows the function structure of the character recognition control part which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

1 画像処理装置
10 CPU
20 RAM
30 エンジン
40 ROM
50 NVRAM
60 I/F
70 LCD
80 操作部
100 コントローラ
101 ADF
102 スキャナユニット
103 排紙トレイ
104 ネットワークI/F
105 ディスプレイパネル
106 検索対象DB
107 辞書情報DB
111 主制御部
112 エンジン制御部
113 入出力制御部
114 画像処理装置
120 文字認識制御部
121 入力情報取得部
122 文字情報認識部
123 情報登録部
1 Image processing apparatus 10 CPU
20 RAM
30 Engine 40 ROM
50 NVRAM
60 I / F
70 LCD
80 Operation unit 100 Controller 101 ADF
102 Scanner unit 103 Output tray 104 Network I / F
105 Display panel 106 Search target DB
107 Dictionary information DB
DESCRIPTION OF SYMBOLS 111 Main control part 112 Engine control part 113 Input / output control part 114 Image processing apparatus 120 Character recognition control part 121 Input information acquisition part 122 Character information recognition part 123 Information registration part

Claims (13)

文字領域を含む画像から前記文字領域を抽出して文字情報を生成し、検索対象情報として格納する画像処理装置であって、
前記画像を取得する画像取得部と、
前記文字領域を抽出するための第1の領域抽出方法に基づいて前記取得された画像から文字領域を抽出し、第1の文字情報を生成する第1の文字領域抽出部と、
前記第1の領域抽出方法とは異なる第2の領域抽出方法に基づいて前記取得された画像から文字領域を抽出し、第2の文字情報を生成する第2の文字領域抽出部と、
前記第1の文字情報及び前記第2の文字情報を前記検索対象情報として記録媒体に格納する情報格納部とを含み、
前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域抽出部が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、
前記格納対象除外部は、前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外することを特徴とする、画像処理装置。
An image processing device that generates character information by extracting the character region from an image including a character region and stores it as search target information,
An image acquisition unit for acquiring the image;
A first character region extraction unit that extracts a character region from the acquired image based on a first region extraction method for extracting the character region and generates first character information;
A second character region extraction unit that extracts a character region from the acquired image based on a second region extraction method different from the first region extraction method, and generates second character information;
An information storage unit that stores the first character information and the second character information in the recording medium as the search target information;
When the first character area extracted by the first character area extraction unit and the second character area extracted by the second character area extraction unit overlap, they are displayed in the overlapping area. A storage object exclusion unit that excludes the character information being stored from the storage object as the search object information,
The image processing apparatus, wherein the storage target exclusion unit excludes the first character information from the storage target when the entire first character area is included in the second character area.
前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、
前記格納対象除外部は、前記第1の文字領域の横方向の範囲全体が前記第2の文字領域の横方向の範囲全体に含まれ、且つ前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が所定の条件を満たす場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項1記載の画像処理装置。
When the first character area extracted by the first character area extraction unit overlaps the second character area extracted by the second character area, the first character area is displayed in the overlapping area. A storage target exclusion unit that excludes the character information that is included from the storage target as the search target information,
The storage object exclusion unit includes the entire horizontal range of the first character area included in the entire horizontal range of the second character area, and the direction of the character line of the first character area and the When the direction of the character line of the second character area satisfies a predetermined condition, the character information displayed in the overlapping area of the first character information is excluded from the storage target. to claim 1 Symbol mounting image processing apparatus.
前記格納対象除外部は、前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が横方向である場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項2記載の画像処理装置。 When the direction of the character line of the first character area and the direction of the character line of the second character area are horizontal directions, the storage target exclusion unit duplicates the first character information. characterized in that it excludes the character information displayed in a region are from the storing object, the image processing apparatus according to claim 2 Symbol placement. 前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、
前記格納対象除外部は、前記第1の文字領域の縦方向の範囲全体が前記第2の文字領域の縦方向の範囲全体に含まれ、且つ前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が所定の条件を満たす場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項1から3のいずれか1項に記載の画像処理装置。
When the first character area extracted by the first character area extraction unit overlaps the second character area extracted by the second character area, the first character area is displayed in the overlapping area. A storage target exclusion unit that excludes the character information that is included from the storage target as the search target information,
The storage object exclusion unit includes the entire vertical range of the first character area included in the entire vertical range of the second character area, and the direction of the character line of the first character area and the When the direction of the character line of the second character area satisfies a predetermined condition, the character information displayed in the overlapping area of the first character information is excluded from the storage target. The image processing apparatus according to any one of claims 1 to 3 .
前記格納対象除外部は、前記第1の文字領域の文字行の方向及び前記第2の文字領域の文字行の方向が縦方向である場合に、前記第1の文字情報のうち前記重複している領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項4記載の画像処理装置。 When the direction of the character line of the first character area and the direction of the character line of the second character area are vertical, the storage object exclusion unit includes the duplicate of the first character information. characterized in that it excludes the character information displayed in a region are from the storing object, claim 4 Symbol mounting image processing apparatus. 辞書情報を取得する辞書情報取得部と、
前記第1の文字情報若しくは前記第2の文字情報を検索して前記取得された辞書情報に含まれる単語を抽出する辞書検索部と、
前記辞書検索部による検索結果に応じて前記第1の文字情報若しくは前記第2の文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部とを有することを特徴とする、請求項1からのいずれか1項に記載の画像処理装置。
A dictionary information acquisition unit for acquiring dictionary information;
A dictionary search unit for searching for the first character information or the second character information and extracting a word included in the acquired dictionary information;
And a storage target exclusion unit that excludes the first character information or the second character information from the storage target as the search target information according to a search result by the dictionary search unit. The image processing apparatus according to any one of 1 to 5 .
前記格納対象除外部は、前記第1の文字情報及び前記第2の文字情報のうち、前記辞書検索部による検索の結果抽出された単語がすべて一文字の単語であるものを前記格納対象から除外することを特徴とする、請求項6記載の画像処理装置。 The storage object exclusion unit excludes, from the storage object, all of the first character information and the second character information whose words extracted as a result of the search by the dictionary search unit are single-character words. characterized in that, the image processing apparatus according to claim 6 Symbol mounting. 前記第1の文字領域抽出部若しくは前記第2の文字領域抽出部が抽出した文字領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、
前記格納対象除外部は、前記文字領域の行方向及び当該行方向と平行な方向の前記文字領域の幅の関係に基づいて前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項1からのいずれか1項に記載の画像処理装置。
A storage target exclusion unit that excludes the character information displayed in the character region extracted by the first character region extraction unit or the second character region extraction unit from the storage target as the search target information;
The storage object exclusion unit excludes character information displayed in the character area from the storage object based on a relationship between a line direction of the character area and a width of the character area in a direction parallel to the line direction. wherein the image processing apparatus according to any one of claims 1 to 7.
前記格納対象除外部は、前記文字領域の幅であって前記文字領域の行方向と平行な方向の幅が所定の範囲以下である場合に、前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項8記載の画像処理装置。 The storage object exclusion unit stores the character information displayed in the character area when the width of the character area and the width of the character area in the direction parallel to the line direction is equal to or less than a predetermined range. characterized in that it excluded from, 8 Symbol claim mounting image processing apparatus. 前記第1の文字領域抽出部若しくは前記第2の文字領域抽出部が抽出した文字領域に表示されている文字情報を前記検索対象情報としての格納対象から除外する格納対象除外部を有し、
前記格納対象除外部は、前記文字領域の行方向及び前記文字領域のアスペクト比の関係に基づいて前記文字領域に表示されている文字情報を前記格納対象から除外することを特徴とする、請求項1からのいずれか1項に記載の画像処理装置。
A storage target exclusion unit that excludes the character information displayed in the character region extracted by the first character region extraction unit or the second character region extraction unit from the storage target as the search target information;
The storage object exclusion unit excludes character information displayed in the character area from the storage object based on a relationship between a line direction of the character area and an aspect ratio of the character area. The image processing apparatus according to any one of 1 to 9 .
文字領域を含む画像から前記文字領域を抽出して文字情報を生成し、検索対象情報として格納する画像処理方法であって、
画像取得部が、前記画像を取得し、
第1の文字領域抽出部が、前記文字領域を抽出するための第1の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第1の文字情報を生成し、
第2の文字領域抽出部が、前記第1の領域抽出方法とは異なる第2の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第2の文字情報を生成し、
情報格納部が、前記第1の文字情報及び前記第2の文字情報を前記検索対象情報として記録媒体に格納し、
格納対象除外部が、前記第1の文字領域抽出部が抽出した第1の文字領域と前記第2の文字領域抽出部が抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外し、前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外することを特徴とする画像処理方法。
An image processing method for generating character information by extracting the character region from an image including a character region and storing it as search target information,
The image acquisition unit acquires the image,
A first character region extraction unit that extracts a character region from the acquired image based on a first region extraction method for extracting the character region to generate first character information;
A second character region extraction unit extracts a character region from the acquired image based on a second region extraction method different from the first region extraction method to generate second character information;
An information storage unit stores the first character information and the second character information in the recording medium as the search target information,
When the storage target exclusion unit overlaps the first character region extracted by the first character region extraction unit and the second character region extracted by the second character region extraction unit, the duplication If the character information displayed in the area is excluded from the storage target as the search target information, and the entire first character area is included in the second character area, the first character information Is excluded from the storage target.
情報処理装置を、文字領域を含む画像から前記文字領域を抽出して文字情報を生成して検索対象情報として格納する画像処理装置として動作させる制御プログラムであって、
前記画像を取得するステップと、
前記文字領域を抽出するための第の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第1の文字情報を生成するステップと、
前記第1の領域抽出方法とは異なる第2の領域抽出方法に基づいて前記取得された画像から文字領域を抽出して第2の文字情報を生成するステップと、
前記第1の文字情報及び前記第2の文字情報を前記検索対象情報として記録媒体に格納するステップと、
前記第1の文字情報を生成するステップにおいて抽出した第1の文字領域と第2の文字情報を生成するステップにおいて抽出した第2の文字領域とが重複している場合に、前記重複している領域に表示されている文字情報を前記検索対象情報としての格納対象から除外するステップと、
前記第1の文字領域の全体が前記第2の文字領域に含まれる場合、前記第1の文字情報を前記格納対象から除外するステップとを前記情報処理装置に実行させることを特徴とする制御プログラム。
A control program that causes an information processing device to operate as an image processing device that extracts character regions from an image including character regions, generates character information, and stores the information as search target information.
Obtaining the image;
Extracting a character region from the acquired image based on a first region extraction method for extracting the character region to generate first character information;
Extracting a character region from the acquired image based on a second region extraction method different from the first region extraction method to generate second character information;
Storing the first character information and the second character information in the recording medium as the search target information;
The first character area extracted in the step of generating the first character information and the second character area extracted in the step of generating the second character information are overlapped. Removing the character information displayed in the area from the storage target as the search target information;
A control program for causing the information processing apparatus to execute a step of excluding the first character information from the storage target when the entire first character region is included in the second character region. .
請求項1に記載の制御プログラムを情報処理装置が読み取り可能な形式で記録したことを特徴とする記録媒体。 Recording medium, wherein the information processing apparatus control program according to claim 1 2 was recorded in a readable format.
JP2008232300A 2008-09-10 2008-09-10 Image processing apparatus, image processing method, control program, and recording medium Expired - Fee Related JP5217814B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232300A JP5217814B2 (en) 2008-09-10 2008-09-10 Image processing apparatus, image processing method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232300A JP5217814B2 (en) 2008-09-10 2008-09-10 Image processing apparatus, image processing method, control program, and recording medium

Publications (2)

Publication Number Publication Date
JP2010066981A JP2010066981A (en) 2010-03-25
JP5217814B2 true JP5217814B2 (en) 2013-06-19

Family

ID=42192521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232300A Expired - Fee Related JP5217814B2 (en) 2008-09-10 2008-09-10 Image processing apparatus, image processing method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP5217814B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6352695B2 (en) * 2014-06-19 2018-07-04 株式会社東芝 Character detection apparatus, method and program
JP7243981B2 (en) * 2019-03-08 2023-03-22 国立大学法人秋田大学 Paper area classification device and its program
KR102394894B1 (en) * 2020-09-23 2022-05-09 동국대학교 산학협력단 Banknote and coin detection device and method based on deep learning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263587A (en) * 1995-03-20 1996-10-11 Matsushita Electric Ind Co Ltd Method and device for document input
JP3425834B2 (en) * 1995-09-06 2003-07-14 富士通株式会社 Title extraction apparatus and method from document image

Also Published As

Publication number Publication date
JP2010066981A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
US10740899B2 (en) Image processing apparatus for identifying region within image, information processing method, and storage medium
US8675260B2 (en) Image processing method and apparatus, and document management server, performing character recognition on a difference image
US20120105888A1 (en) Image Forming Apparatus, Non-Transitory Computer-Readable Recording Medium for Storing Image Forming Program, and Image Forming Method
US11574489B2 (en) Image processing system, image processing method, and storage medium
US11983910B2 (en) Image processing system, image processing method, and storage medium each for obtaining pixels of object using neural network
US11836442B2 (en) Information processing apparatus, method, and storage medium for associating metadata with image data
US20200202155A1 (en) Method for image processing, and image-processing system
US7844080B2 (en) Image processing system and image processing method, and computer program
US10643097B2 (en) Image processing apparatuses and non-transitory computer readable medium
US20080117479A1 (en) Image read processing device and image read processing method
CN113378839A (en) Information processing apparatus, information processing method, and computer readable medium
JP5217814B2 (en) Image processing apparatus, image processing method, control program, and recording medium
KR101248449B1 (en) Information processor, information processing method, and computer readable medium
JPH10171922A (en) Ruled line eraser and recording medium
JP2010061471A (en) Character recognition device and program
KR20100088052A (en) Image processing apparatus, image processing method and recording media
US8611669B2 (en) Image processing apparatus, image processing method and computer-readable medium
JP4070486B2 (en) Image processing apparatus, image processing method, and program used to execute the method
JP7019963B2 (en) Character string area / character rectangle extraction device, character string area / character rectangle extraction method, and program
JP4162195B2 (en) Image processing apparatus and image processing program
JP2006072839A (en) Image processing method, image processing apparatus, image processing program and recording medium
JP2017010187A (en) Image processing device and image processing program
JP2020047138A (en) Information processing apparatus
US11620840B2 (en) Image processing apparatus for extracting a desired character string from a scanned image
JP2022051198A (en) Ocr processor, ocr processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110803

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5217814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees