JP2010256994A - Character recognition device, character recognition method, and program - Google Patents

Character recognition device, character recognition method, and program Download PDF

Info

Publication number
JP2010256994A
JP2010256994A JP2009103287A JP2009103287A JP2010256994A JP 2010256994 A JP2010256994 A JP 2010256994A JP 2009103287 A JP2009103287 A JP 2009103287A JP 2009103287 A JP2009103287 A JP 2009103287A JP 2010256994 A JP2010256994 A JP 2010256994A
Authority
JP
Japan
Prior art keywords
image
character recognition
information
image reconstruction
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009103287A
Other languages
Japanese (ja)
Inventor
東善 ▲裴▼
Motoyoshi Hai
Katsuo Fukazawa
克夫 深沢
Yukito Yamaguchi
幸人 山口
Junichi Hirai
淳一 平井
Yoshinori Kuwamura
良則 桑村
Maki Inami
真樹 稲見
Yasuhiro Ura
康裕 浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2009103287A priority Critical patent/JP2010256994A/en
Publication of JP2010256994A publication Critical patent/JP2010256994A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character recognition device, a character recognition method, and a program capable of improving identification of characters and a recognition process and efficiency of reuse of data afterwards by performing re-synthesis about an image including only information to be needed by a user, and an image which makes a front and a back pages of an original in one page from a plurality of images of the original read by a scanner etc. <P>SOLUTION: A part of an area of the plurality of images is extracted, then a synthesized image which reconstructs a plurality of areas is produced, then a character within the produced synthesized image is recognized. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、紙文書や帳票を電子化し、管理する文字認識装置、文字認識方法、および、プログラムに関する。   The present invention relates to a character recognition device, a character recognition method, and a program for digitizing and managing paper documents and forms.

従来の文字認識装置においては、紙文書や帳票を電子化して処理等する際に、スキャナ等の画像読取装置で読取った複数ページの画像を一つの画像として合成し、合成された画像の文字認識等の処理や管理が行われている。   In a conventional character recognition device, when a paper document or a form is digitized and processed, a plurality of pages read by an image reading device such as a scanner are combined as one image, and character recognition of the combined image is performed. Such processing and management are performed.

例えば、特許文献1に記載の技術では、スキャナ等で読込んだ複数の帳票のサイズに基づいて、縦方向または横方向に直列的に帳票の画像を合成した合成画像を生成し、合成画像に基づいて帳票の認識を行う技術が開示されている。   For example, in the technique described in Patent Document 1, based on the size of a plurality of forms read by a scanner or the like, a combined image is generated by combining form images in series in the vertical direction or the horizontal direction, and the combined image is generated. A technique for recognizing a form based on this is disclosed.

特開2004−178108号公報JP 2004-178108 A

しかしながら、従来の文字認識装置(特許文献1等)においては、スキャナ等で読込んだ複数の帳票中の特定の領域のみを切り出して、ユーザが必要とする情報だけを包含する新たな画像として再合成することができないという問題点を有していた。このため、当該文字認識装置においては、一つの関連ある帳票が複数ページに亘る場合、これら全てを含む画像を記憶領域に保存することで、データサイズが膨大となるという問題点を有していた。具体的には、保険の契約関連書類において、契約書、健康診断書、保険金請求申請書、医師の診断票等多種に亘る文書および帳票があるが、それぞれのページに保管が必須の項目がある一方、注意事項等の保険者間で共通の事項等もあり、全てを画像として取得する場合、特に保管の必要のない共通事項によりデータサイズが増加してしまうという問題点を有していた。また、当該文字認識装置においては、複数の項目(例えば、契約者の住所、氏名、電話番号、生年月日等)が記載された帳票を、項目ごとに抽出した画像として管理することができないため、例えば、画像の確認や修正作業時に全ての項目の情報が作業者に開示されてしまい、作業者を介して帳票に記載された個人情報が漏洩する可能性があるという問題点を有していた。   However, in a conventional character recognition device (eg, Patent Document 1), only a specific area in a plurality of forms read by a scanner or the like is cut out and re-created as a new image including only information required by the user. It had the problem that it could not be synthesized. For this reason, in the character recognition device, when one related form covers a plurality of pages, there is a problem that the data size becomes enormous by storing an image including all of them in a storage area. . Specifically, in insurance contract-related documents, there are a wide variety of documents and forms such as contracts, medical checkups, insurance claims application forms, doctor's diagnosis forms, etc. On the other hand, there are matters that are common among insurers such as precautions, etc. When acquiring all as images, there was a problem that the data size would increase due to common items that do not need to be stored in particular . Further, in the character recognition device, a form in which a plurality of items (for example, a contractor's address, name, phone number, date of birth, etc.) is not managed as an image extracted for each item cannot be managed. For example, when checking and correcting images, all items of information are disclosed to the worker, and personal information written on the form may be leaked through the worker. It was.

また、従来の文字認識装置(特許文献1等)においては、帳票の表裏両面に読取領域がある場合、表画像と裏画像の関連性が高く、一緒に管理する必要がある場合でも、ページ単位として処理、管理を行っているため、表裏の関連付けを手動で行わなければならないという問題点を有していた。具体的には、帳票の表の項目の合計が、帳票の裏の項目の値になるような場合、表裏が別画像では表裏の値の整合性を確認できないという問題点を有していた。また、具体的には、原稿の表と裏が一続きのデータであり、紙のスペースの関係で表裏に分かれているに過ぎない場合、認識結果をテキストやCSV(Comma−Separated Values)として出力する際に、表裏を一つのデータとして出力できないという問題点を有していた。また、具体的には、手書き文字の書き手独特の癖を利用して文字認識を向上させる機能を有する文字認識装置の場合、1ページ内から書き手の癖を抽出して文字認識処理の精度を向上させる処理を実行するが、同一人が記載した表裏の原稿が別ページとして処理される場合、表裏の画像の対応をとるための仕組みを構築する必要があり、表裏両面を一元管理する場合に比べ処理時間やデータサイズを必要とするという問題点を有していた。また、当該文字認識装置においては、合成画像のレイアウトによって、合成画像の種類を仕分けし、仕分けた種類に応じた文字認識を行っていたが、表裏を別々の画像として管理していたため、表裏一体ではレイアウトが類似しない場合でも、片側だけ類似する帳票の画像を同じ種類として仕分けしてしまうという問題点を有していた。   Further, in a conventional character recognition device (Patent Document 1 or the like), when there are reading areas on both front and back sides of a form, the front image and the back image are highly related, and even if it is necessary to manage them together, the page unit Therefore, there is a problem that the front and back must be associated manually. Specifically, when the total of the items on the front side of the form is the value of the item on the back side of the form, there is a problem that the consistency of the front and back values cannot be confirmed if the front and back sides are separate images. Specifically, when the front and back of the document are a series of data and are only separated into front and back due to paper space, the recognition result is output as text or CSV (Comma-Separated Values). In this case, there is a problem that the front and back cannot be output as one data. Specifically, in the case of a character recognition device having a function of improving character recognition by using a handwritten character's unique wrinkle, the character's wrinkle is extracted from one page to improve the accuracy of character recognition processing. However, when front and back documents written by the same person are processed as separate pages, it is necessary to build a mechanism for dealing with front and back images, compared to a case where both front and back sides are managed centrally. There was a problem of requiring processing time and data size. Further, in the character recognition device, the type of the composite image is classified according to the layout of the composite image, and character recognition is performed according to the type of the classification, but the front and back are managed as separate images. However, even when the layouts are not similar, there is a problem in that images of forms that are similar only on one side are sorted as the same type.

本発明は、上記問題点に鑑みてなされたもので、スキャナ等で読込んだ複数の原稿の画像から、ユーザが必要とする情報のみを包含する画像や、原稿の表裏を1ページとした画像、を再合成することで、文字の識別、認識処理、および、その後のデータの再利用効率を高めることができる文字認識装置、文字認識方法、および、プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems. From a plurality of original images read by a scanner or the like, an image including only information required by the user, or an image in which the front and back sides of the original are one page. It is an object of the present invention to provide a character recognition device, a character recognition method, and a program that can improve character identification, recognition processing, and subsequent data reuse efficiency.

このような目的を達成するため、本発明の文字認識装置は、記憶部と制御部を少なくとも備えた文字認識装置であって、上記記憶部は、画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、を備え、上記制御部は、上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成手段と、上記画像再構成手段により生成された上記合成画像中の文字を認識する認識手段と、を備えたことを特徴とする。   In order to achieve such an object, a character recognition device of the present invention is a character recognition device including at least a storage unit and a control unit, and the storage unit stores an image of a document read by an image reading device. An image storage unit configured to extract a partial region of the plurality of images stored in the image storage unit, and generate a composite image obtained by reconstructing the plurality of regions Means and a recognition means for recognizing characters in the composite image generated by the image reconstruction means.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記複数の上記画像は、上記原稿の表裏両面の上記画像であることを特徴とする。   The character recognition device of the present invention is characterized in that in the character recognition device described above, the plurality of images are the images on both the front and back sides of the document.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記制御部は、上記画像記憶手段に記憶された上記画像から、上記原稿のレイアウト情報を取得するレイアウト取得手段、を備え、上記画像再構成手段は、上記レイアウト取得手段により取得された上記レイアウト情報に基づいて、上記領域を抽出することを特徴とする。   Further, the character recognition device of the present invention is the character recognition device described above, wherein the control unit includes layout acquisition means for acquiring layout information of the document from the image stored in the image storage means, The image reconstruction unit extracts the region based on the layout information acquired by the layout acquisition unit.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記レイアウト情報は、上記原稿のレイアウトの類似性に関する情報であることを特徴とする。   The character recognition device according to the present invention is characterized in that, in the character recognition device described above, the layout information is information relating to the similarity of the layout of the document.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記制御部は、上記領域の上記合成画像上での配置およびサイズを表す画像再構成情報を生成する画像再構成情報生成手段、を備え、上記画像再構成手段は、上記画像再構成情報生成手段により生成された上記画像再構成情報に基づいて、上記合成画像を生成することを特徴とする。   Further, the character recognition device of the present invention is the above-described character recognition device, wherein the control unit generates image reconstruction information generating means for generating image reconstruction information representing the arrangement and size of the region on the composite image. , And the image reconstruction unit generates the composite image based on the image reconstruction information generated by the image reconstruction information generation unit.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記画像再構成情報は、ユーザにより指定された所定の領域に関する情報であることを特徴とする。   The character recognition device according to the present invention is characterized in that, in the character recognition device described above, the image reconstruction information is information relating to a predetermined area designated by a user.

また、本発明の文字認識装置は、上記記載の文字認識装置において、上記原稿は、帳票であることを特徴とする。   The character recognition device according to the present invention is characterized in that in the character recognition device described above, the document is a form.

また、本発明の文字認識方法は、記憶部と制御部を少なくとも備えた文字認識装置において実行される文字認識方法であって、上記記憶部は、画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、を備え、上記制御部において実行される、上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成ステップと、上記画像再構成ステップにて生成された上記合成画像中の文字を認識する認識ステップと、を含むことを特徴とする。   A character recognition method according to the present invention is a character recognition method executed in a character recognition device including at least a storage unit and a control unit, and the storage unit stores an image of a document read by the image reading device. Image storage means for extracting a partial area of the plurality of images stored in the image storage means and generating a composite image reconstructed from the plurality of areas, which is executed in the control unit. An image reconstruction step; and a recognition step for recognizing characters in the composite image generated in the image reconstruction step.

また、本発明のプログラムは、記憶部と制御部を少なくとも備えた文字認識装置に実行させるためのプログラムであって、上記記憶部は、画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、を備え、上記制御部において、上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成ステップと、上記画像再構成ステップにて生成された上記合成画像中の文字を認識する認識ステップと、を実行させることを特徴とする。   The program according to the present invention is a program for causing a character recognition device including at least a storage unit and a control unit to execute, and the storage unit stores an image of a document read by the image reading device. An image reconstructing step for extracting a partial region of the plurality of images stored in the image storage unit and generating a composite image in which the plurality of regions are reconstructed in the control unit; A recognition step of recognizing characters in the composite image generated in the image reconstruction step.

この発明によれば、記憶部に記憶された複数の画像の一部の領域を抽出し、複数の領域を再構成した合成画像を生成し、生成された合成画像中の文字を認識することができる。これにより、本発明は、従来必要とされていた複数ページに亘る管理機構を省くこと、すなわち、複数ページのデータを一まとまりのデータとして管理できるという効果を奏する。これにより、本発明は、紙の保管コストの削減だけでなく、電子化された画像の検索やデータの加工を容易にすることができ、文字認識の検索性をあげることができるという効果を奏する。   According to the present invention, it is possible to extract a partial area of a plurality of images stored in the storage unit, generate a composite image in which the plurality of areas are reconstructed, and recognize characters in the generated composite image it can. As a result, the present invention has an effect of omitting a management mechanism for a plurality of pages, which has been conventionally required, that is, a plurality of pages of data can be managed as a set of data. As a result, the present invention not only reduces paper storage costs, but also facilitates the retrieval of digitized images and the processing of data, thereby improving the character recognition searchability. .

また、この発明によれば、複数の画像は、原稿の表裏両面の画像とすることができる。これにより、本発明は、原稿の裏表を個別に扱っていた場合、処理できなかった裏表データ間で、関連を持つ一続きのデータとして扱う処理や管理をできるという効果を奏する。具体的に、本発明は、原稿の表裏の特定の領域を1ページの画像として再構成し、当該画像に対して処理を行うことで、1ページの画像に対して必要な処理、管理の全機能がそのまま使用可能となり、データサイズも削減できるという効果を奏する。   According to the present invention, the plurality of images can be images on both the front and back sides of the document. Thus, according to the present invention, when the front and back sides of a document are handled individually, there is an effect that processing and management that can be handled as a series of related data can be performed between the back and front data that could not be processed. Specifically, the present invention reconstructs specific areas on the front and back sides of a document as a one-page image, and processes the image to perform all necessary processing and management for the one-page image. The function can be used as it is, and the data size can be reduced.

また、この発明によれば、記憶部に記憶された画像から、原稿のレイアウト情報を取得し、取得されたレイアウト情報に基づいて、領域を抽出することができる。これにより、本発明は、所定のフォーマットをもつ帳票等から効率的に所望の項目の画像を抽出することができるという効果を奏する。   Further, according to the present invention, document layout information can be acquired from an image stored in the storage unit, and an area can be extracted based on the acquired layout information. Thereby, the present invention has an effect that an image of a desired item can be efficiently extracted from a form or the like having a predetermined format.

また、この発明によれば、レイアウト情報は、原稿のレイアウトの類似性に関する情報とすることができる。これにより、本発明は、複数の原稿から同一フォーマットの原稿を効率よく抽出することができるという効果を奏する。これにより、本発明は、従来識別が困難であったレイアウトの類似する原稿の表裏等の画像を、1ページの合成画像として合成し、文字認識等の後続処理を可能とするという効果を奏する。   Further, according to the present invention, the layout information can be information relating to the similarity of the layout of the document. As a result, the present invention has an effect that documents of the same format can be efficiently extracted from a plurality of documents. As a result, the present invention produces an effect of synthesizing front and back images of similar documents with similar layouts that have been difficult to identify in the past as a composite image of one page and enabling subsequent processing such as character recognition.

また、この発明によれば、領域の合成画像上での配置およびサイズを表す画像再構成情報を生成し、生成された画像再構成情報に基づいて、合成画像を生成することができる。これにより、本発明は、抽出画像から所定の配置に従った合成画像を効率的に生成することができるという効果を奏する。   Further, according to the present invention, it is possible to generate image reconstruction information indicating the arrangement and size of a region on a combined image, and to generate a combined image based on the generated image reconstruction information. Thereby, the present invention has an effect that a synthesized image according to a predetermined arrangement can be efficiently generated from the extracted image.

また、この発明によれば、画像再構成情報は、ユーザにより指定された所定の領域に関する情報とすることができる。これにより、本発明は、ユーザが必要とする箇所のみを集め、冗長な部分を除いた画像を生成することができるという効果を奏する。すなわち、本発明は、読み込み原稿の必要な箇所のみをユーザの指示に従って切り出し、それらを合成した画像を作成、管理することによって、全体の画像サイズを低減し、必須情報量を失わないこと可能とするという効果を奏する。   According to the present invention, the image reconstruction information can be information related to a predetermined area designated by the user. As a result, the present invention has an effect of collecting only the portions required by the user and generating an image excluding redundant portions. That is, the present invention cuts out only necessary portions of a read original according to a user's instruction, and creates and manages an image obtained by synthesizing them, thereby reducing the overall image size and not losing essential information. The effect of doing.

また、この発明によれば、原稿は、帳票とすることができる。これにより、本発明は、個人情報等が記載された紙の帳票の管理をデータとして効率よく行うことができるという効果を奏する。具体的に、本発明は、複数人の契約書類から特定の項目(例えば、氏名、住所、電話番号等)のみから構成される画像を生成、管理することにより、個々の画像だけから個人情報を得ることはできず、個人情報等の漏洩の対策として役立つという効果を奏する。   According to the present invention, the document can be a form. As a result, the present invention has an effect that the management of paper forms on which personal information or the like is described can be efficiently performed as data. Specifically, the present invention generates and manages an image composed only of specific items (for example, name, address, telephone number, etc.) from contract documents of a plurality of persons, and thereby, personal information is obtained from only individual images. It cannot be obtained, and has the effect of being useful as a countermeasure against leakage of personal information and the like.

図1は、本発明が適用される文字認識装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a character recognition device to which the present invention is applied. 図2は、本実施の形態における文字認識処理の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of character recognition processing in the present embodiment. 図3は、本実施の形態における画像再構成情報の一例を示す図である。FIG. 3 is a diagram showing an example of the image reconstruction information in the present embodiment. 図4は、本実施の形態における合成画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a composite image in the present embodiment. 図5は、本実施の形態における画像再構成処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of image reconstruction processing in the present embodiment.

以下に、本発明にかかる文字認識装置、文字認識方法、および、プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Embodiments of a character recognition device, a character recognition method, and a program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

以下、本発明の構成および処理等について詳細に説明する。   Hereinafter, the configuration and processing of the present invention will be described in detail.

[文字認識装置の構成]
次に、図1を参照して、文字認識装置の構成について説明する。図1は、本発明が適用される文字認識装置の構成の一例を示すブロック図であり、該構成のうち本発明に関係する部分のみを概念的に示している。また、図1において、矢印は、データの流れる方向を示している。
[Configuration of character recognition device]
Next, the configuration of the character recognition device will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of a character recognition apparatus to which the present invention is applied, and conceptually shows only the portion related to the present invention. Moreover, in FIG. 1, the arrow has shown the direction through which data flows.

文字認識装置100は、概略的に、制御部102(レイアウト取得部102a、画像再構成情報生成部102b、画像再構成部102c、書式定義部102d、認識部102e、確認修正部102f、出力変換部102g)と記憶部106(画像ファイル106a、レイアウト情報ファイル106b、合成画像ファイル106c、書式定義ファイル106d、最終結果ファイル106e)を備えて構成される。ここで、制御部102は、文字認識装置100の全体を統括的に制御するCPU等である。また、記憶部106は、各種のデータベースやテーブルなどを格納する装置である。これら文字認識装置100の各部は任意の通信路を介して通信可能に接続されている。   The character recognition device 100 generally includes a control unit 102 (layout acquisition unit 102a, image reconstruction information generation unit 102b, image reconstruction unit 102c, format definition unit 102d, recognition unit 102e, confirmation correction unit 102f, output conversion unit). 102g) and a storage unit 106 (image file 106a, layout information file 106b, composite image file 106c, format definition file 106d, final result file 106e). Here, the control unit 102 is a CPU or the like that comprehensively controls the entire character recognition apparatus 100. The storage unit 106 is a device that stores various databases and tables. Each part of these character recognition apparatuses 100 is connected so that communication is possible via arbitrary communication paths.

記憶部106は、ストレージ手段であり、各種のデータベースやテーブル(画像ファイル106a、レイアウト情報ファイル106b、合成画像ファイル106c、書式定義ファイル106d、最終結果ファイル106e等)を格納する。   The storage unit 106 is a storage unit, and stores various databases and tables (an image file 106a, a layout information file 106b, a composite image file 106c, a format definition file 106d, a final result file 106e, and the like).

記憶部106の各構成要素のうち、図1において、画像ファイル106aは、画像読取装置200により読取られた原稿の画像を記憶する画像記憶手段である。ここで、原稿は、帳票であってもよい。また、画像読取装置200としては、スキャナ装置、デジタルカメラ、およびWEBカメラ等を用いることができる。   Among the components of the storage unit 106, in FIG. 1, an image file 106 a is an image storage unit that stores an image of a document read by the image reading device 200. Here, the document may be a form. As the image reading device 200, a scanner device, a digital camera, a WEB camera, or the like can be used.

また、レイアウト情報ファイル106bは、原稿から目的の領域を抽出するための原稿のレイアウト情報を記憶するレイアウト情報記憶手段である。ここで、レイアウト情報ファイル106bは、原稿のレイアウトの類似性に関する情報であってもよい。   The layout information file 106b is layout information storage means for storing document layout information for extracting a target area from the document. Here, the layout information file 106b may be information on the similarity of the layout of the document.

また、合成画像ファイル106cは、合成画像を記憶する合成画像記憶手段である。   The composite image file 106c is a composite image storage unit that stores the composite image.

また、図1において、書式定義ファイル106dは、合成画像に対する文字読取のための書式定義を記憶する書式定義記憶手段である。   In FIG. 1, a format definition file 106d is format definition storage means for storing a format definition for character reading for a composite image.

また、最終結果ファイル106eは、最終結果を記憶する最終結果記憶手段である。   The final result file 106e is final result storage means for storing the final result.

また、制御部102は、OS(Operating System)等の制御プログラムや、各種の処理手順等を規定したプログラム、および、所要データを格納するための内部メモリを有する。そして、制御部102は、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、図1において、機能概念的に、レイアウト取得部102a、画像再構成情報生成部102b、画像再構成部102c、書式定義部102d、認識部102e、確認修正部102f、出力変換部102gを備えて構成されている。   The control unit 102 also has an internal memory for storing a control program such as an OS (Operating System), a program defining various processing procedures, and necessary data. And the control part 102 performs the information processing for performing various processes by these programs. In FIG. 1, the control unit 102 is functionally conceptually illustrated in terms of the function of layout acquisition unit 102 a, image reconstruction information generation unit 102 b, image reconstruction unit 102 c, format definition unit 102 d, recognition unit 102 e, confirmation correction unit 102 f, and output conversion unit. 102g is comprised.

このうち、レイアウト取得部102aは、画像ファイル106aに記憶された画像から、原稿のレイアウト情報を取得するレイアウト取得手段である。ここで、レイアウト情報は、原稿のレイアウトの類似性に関する情報であってもよい。また、レイアウト取得部102aは、取得したレイアウト情報をレイアウト情報ファイル106bに格納してもよい。   Among these, the layout acquisition unit 102a is a layout acquisition unit that acquires layout information of a document from an image stored in the image file 106a. Here, the layout information may be information regarding the similarity of the layout of the document. The layout acquisition unit 102a may store the acquired layout information in the layout information file 106b.

また、画像再構成情報生成部102bは、画像の一部の領域の合成画像上での配置およびサイズを表す画像再構成情報を生成する画像再構成情報生成手段である。ここで、画像再構成情報は、ユーザにより指定された所定の領域に関する情報であってもよい。   The image reconstruction information generation unit 102b is an image reconstruction information generation unit that generates image reconstruction information indicating the arrangement and size of a partial region of an image on a composite image. Here, the image reconstruction information may be information regarding a predetermined area designated by the user.

また、画像再構成部102cは、画像ファイル106aに記憶された複数の画像の一部の領域を抽出し、複数の領域を再構成した合成画像を生成する画像再構成手段である。ここで、画像再構成部102cは、レイアウト取得部102aにより取得されたレイアウト情報に基づいて、領域を抽出してもよい。また、画像再構成部102cは、画像再構成情報生成部102bにより生成された画像再構成情報に基づいて、合成画像を生成してもよい。また、画像再構成部102cは、合成画像を合成画像ファイル106cに格納してもよい。また、複数の画像は、原稿の表裏両面の画像であってもよい。   The image reconstruction unit 102c is an image reconstruction unit that extracts partial areas of a plurality of images stored in the image file 106a and generates a composite image obtained by reconstructing the plurality of areas. Here, the image reconstruction unit 102c may extract a region based on the layout information acquired by the layout acquisition unit 102a. Further, the image reconstruction unit 102c may generate a composite image based on the image reconstruction information generated by the image reconstruction information generation unit 102b. The image reconstruction unit 102c may store the composite image in the composite image file 106c. The plurality of images may be images on both the front and back sides of the document.

また、書式定義部102dは、合成画像に対する文字読取のための書式定義を設定する書式定義手段である。ここで、書式定義部102dは、設定した書式定義を書式定義ファイル106dに格納してもよい。   The format definition unit 102d is a format definition unit that sets a format definition for character reading of a composite image. Here, the format definition unit 102d may store the set format definition in the format definition file 106d.

また、認識部102eは、画像再構成部102cにより生成された合成画像中の文字を認識する認識手段である。ここで、認識部102eは、書式定義ファイル106dに記憶された書式定義に基づいて、画像再構成部102cにより生成された合成画像中の文字を認識してもよい。   The recognition unit 102e is a recognition unit that recognizes characters in the composite image generated by the image reconstruction unit 102c. Here, the recognition unit 102e may recognize characters in the composite image generated by the image reconstruction unit 102c based on the format definition stored in the format definition file 106d.

また、確認修正部102fは、認識部102eによる合成画像中の文字の認識結果に基づいて、合成画像中の文字を確認および修正する確認修正手段である。   The confirmation / correction unit 102f is a confirmation / correction unit that confirms and corrects characters in the composite image based on the recognition result of the characters in the composite image by the recognition unit 102e.

また、出力変換部102gは、確認修正部102fにより、確認、修正された合成画像を、出力するデータ形式の最終結果に変換する出力変換手段である。ここで、出力変換部102gは、最終結果を最終結果ファイル106eに格納してもよい。   The output conversion unit 102g is an output conversion unit that converts the composite image confirmed and corrected by the confirmation correction unit 102f into a final result in a data format to be output. Here, the output conversion unit 102g may store the final result in the final result file 106e.

以上で本文字認識装置100の構成の説明を終える。   This is the end of the description of the configuration of the character recognition apparatus 100.

[文字認識処理]
次に、本実施の形態における文字認識処理の一例について、以下に図2から図5を参照して詳細に説明する。図2は、本実施の形態における文字認識処理の一例を示すフローチャートである。
[Character recognition processing]
Next, an example of character recognition processing in the present embodiment will be described in detail with reference to FIGS. FIG. 2 is a flowchart showing an example of character recognition processing in the present embodiment.

図2に示すように、制御部102は、画像読取装置200により読取られた紙(帳票)の画像を画像ファイル106aに格納する(ステップSA−1)。   As shown in FIG. 2, the control unit 102 stores the image of the paper (form) read by the image reading device 200 in the image file 106a (step SA-1).

そして、レイアウト取得部102aは、画像ファイル106aに記憶された画像から、帳票のレイアウト情報を取得し、レイアウト情報をレイアウト情報ファイル106bに格納する(ステップSA−2)。ここで、レイアウト情報は、帳票のレイアウトの類似性に関する情報であってもよい。   Then, the layout acquisition unit 102a acquires form layout information from the image stored in the image file 106a, and stores the layout information in the layout information file 106b (step SA-2). Here, the layout information may be information related to the similarity of the layout of the form.

そして、画像再構成情報生成部102bは、画像の一部の領域、すなわち、ユーザにより指定された所定の領域の、画像再構成部102cにより生成される合成画像上での、配置およびサイズを表す画像再構成情報を生成する(ステップSA−3)。   The image reconstruction information generation unit 102b represents the arrangement and size of a partial area of the image, that is, a predetermined area designated by the user, on the composite image generated by the image reconstruction unit 102c. Image reconstruction information is generated (step SA-3).

ここで、図3を参照して、画像再構成情報の一例を説明する。図3は、本実施の形態における画像再構成情報の一例を示す図である。   Here, an example of the image reconstruction information will be described with reference to FIG. FIG. 3 is a diagram showing an example of the image reconstruction information in the present embodiment.

図3に示すように、画像再構成情報は、再構成前入力画像数N、すなわち、一まとまりの合成画像を生成するために用いる、画像ファイル106aに記憶された帳票の画像の数、を含んでいる。ここで、帳票の表裏両面の画像を一まとまりの合成画像とする場合は、再構成前入力画像数Nは、2である。また、画像再構成情報は、再構成後入力画像サイズ、すなわち、合成画像の出力サイズ、を含んでいる。ここで、本実施の形態において、画像再構成情報は、A4である。また、画像再構成情報は、図3に示すように、画像再構成情報I(I=1,...,N)、すなわち、I番目の画像のどの領域を、合成画像のどこに配置するかを示す情報、を含んでいる。例えば、図3の帳票の表裏両面の画像において、画像再構成情報1(表)は、画像1(帳票1)の座標開始位置(Xa,Ya)に始まるサイズ(Sx,Sy)の項目Aの画像を、合成画像の座標開始位置(X1,Y1)に始まるサイズ(Hx,Hy)に配置することを示す情報である。また、図3の帳票の表裏両面の画像において、画像再構成情報2(裏)は、画像2(帳票2)の全面イメージ、すなわち、裏面の全領域画像を、合成画像の座標開始位置(X2,Y2)に始まるサイズ(Fx,Fy)に配置することを示す情報である。   As shown in FIG. 3, the image reconstruction information includes the number N of pre-reconstructed input images, that is, the number of images of the form stored in the image file 106a used for generating a group of combined images. It is out. Here, the number N of pre-reconstructed input images is 2 when the images on both the front and back sides of the form are made into a single composite image. Further, the image reconstruction information includes the post-reconstruction input image size, that is, the output size of the composite image. Here, in the present embodiment, the image reconstruction information is A4. Further, as shown in FIG. 3, the image reconstruction information is image reconstruction information I (I = 1,..., N), that is, which region of the I-th image is arranged in the composite image. Including information. For example, in the two-sided image of the form in FIG. 3, the image reconstruction information 1 (front) is the item A of the size (Sx, Sy) starting from the coordinate start position (Xa, Ya) of the image 1 (form 1). This is information indicating that the image is arranged at a size (Hx, Hy) starting from the coordinate start position (X1, Y1) of the composite image. In addition, in the front and back side images of the form in FIG. 3, the image reconstruction information 2 (back side) is the entire image of the image 2 (form 2), that is, the entire area image on the back side, and the coordinate start position (X2 , Y2) is information indicating the arrangement in the size (Fx, Fy) starting from.

再び、図2に戻り、画像再構成部102cは、画像ファイル106aに記憶された複数の画像の一部の領域を、レイアウト情報ファイル106bに記憶されたレイアウト情報に基づいて抽出し、画像再構成情報生成部102bにより生成された画像再構成情報に基づいて、帳票の表裏の領域を再構成した合成画像を生成し、合成画像ファイル106cに格納する(ステップSA−4)。   Returning to FIG. 2 again, the image reconstruction unit 102c extracts partial areas of the plurality of images stored in the image file 106a based on the layout information stored in the layout information file 106b, and performs image reconstruction. Based on the image reconstruction information generated by the information generation unit 102b, a composite image in which the front and back areas of the form are reconstructed is generated and stored in the composite image file 106c (step SA-4).

ここで、図4を参照して、本実施の形態における合成画像の一例について説明する。図4は、本実施の形態における合成画像の一例を示す図である。   Here, an example of the composite image in the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a composite image in the present embodiment.

図4に示すように、合成画像は、図3に示す画像再構成情報に基づいて生成された画像を示しており、帳票の表側の部分画像(画像1の項目A)と、帳票の裏側の全面画像(画像2の全面イメージ)と、をそれぞれ上下に配置して合成した画像を示している。   As shown in FIG. 4, the composite image shows an image generated based on the image reconstruction information shown in FIG. 3, and a partial image on the front side of the form (item A in image 1) and the back side of the form The entire image (the entire image of the image 2) is combined with each other arranged vertically.

また、図5を参照して、本実施の形態における画像再構成処理の詳細の一例について説明する。図5は、本実施の形態における画像再構成処理の一例を示すフローチャートである。   Also, an example of details of the image reconstruction process in the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of image reconstruction processing in the present embodiment.

まず、図5に示すように、画像再構成部102cは、画像再構成情報生成部102bにより生成された画像再構成情報に含まれる再構成前入力画像数Nを読み込む(ステップSB−1)。   First, as shown in FIG. 5, the image reconstruction unit 102c reads the number N of pre-reconstructed input images included in the image reconstruction information generated by the image reconstruction information generation unit 102b (step SB-1).

そして、画像再構成部102cは、入力画像の数を数えるカウンタのカウントKをクリア、すなわち、0にする(ステップSB−2)。   Then, the image reconstruction unit 102c clears the count K of the counter that counts the number of input images, that is, sets it to 0 (step SB-2).

そして、画像再構成部102cは、記憶領域中の合成画像用領域(合成画像ファイル106c)を初期化する(ステップSB−3)。   Then, the image reconstruction unit 102c initializes the composite image area (composite image file 106c) in the storage area (step SB-3).

そして、画像再構成部102cは、カウンタのカウントKに、入力画像数である1を加える(ステップSB−4)。   Then, the image reconstruction unit 102c adds 1 as the number of input images to the count K of the counter (step SB-4).

そして、画像再構成部102cは、カウントKが再構成前入力画像数Nより大きいか否かを判定する(ステップSB−5)。   Then, the image reconstruction unit 102c determines whether the count K is greater than the number N of pre-reconstructed input images (step SB-5).

そして、画像再構成部102cは、ステップSB−5にてカウントKが再構成前入力画像数Nより大きいと判定した場合(ステップSB−5:Yes)、合成画像を合成画像用領域(合成画像ファイル106c)に出力(例えば、格納等)し(ステップSB−6)、処理を終了する。   If the image reconstruction unit 102c determines in step SB-5 that the count K is greater than the number N of pre-reconstructed input images (step SB-5: Yes), the composite image is a composite image region (composite image). The file 106c) is output (for example, stored) (step SB-6), and the process is terminated.

一方、画像再構成部102cは、ステップSB−5にてカウントKが再構成前入力画像数N以下と判定した場合(ステップSB−5:No)、画像ファイル106aに記憶されたI=K番目の画像Kと、レイアウト情報ファイル106bに記憶された画像Kのレイアウト情報と、を取得し(ステップSB−7)、画像再構成情報生成部102bにより生成された画像Kに関する画像再構成情報Kを取得する(ステップSB−8)。   On the other hand, if the image reconstruction unit 102c determines in step SB-5 that the count K is equal to or less than the number N of pre-reconstructed input images (step SB-5: No), the I = Kth image stored in the image file 106a. Image K and the layout information of the image K stored in the layout information file 106b (step SB-7), and the image reconstruction information K related to the image K generated by the image reconstruction information generation unit 102b is obtained. Obtain (Step SB-8).

そして、画像再構成部102cは、ステップSB−7にて取得したレイアウト情報に基づいて、画像Kから目的の領域を抽出するためのレイアウト照合処理を行う(ステップSB−9)。ここで、画像再構成部102cは、表裏で類似のレイアウトを持つ帳票に対して、レイアウトの類似性に関するレイアウト情報に基づいて、合成する帳票の表裏を照合してもよい。   Then, the image reconstruction unit 102c performs a layout matching process for extracting a target area from the image K based on the layout information acquired in Step SB-7 (Step SB-9). Here, the image reconstruction unit 102c may collate the front and back of the form to be combined with the forms having similar layouts on the front and back sides based on the layout information related to the similarity of the layouts.

そして、画像再構成部102cは、ステップSB−9にて行われたレイアウト照合処理に基づいて、ステップSB−7にて取得した画像Kから合成画像を構成する抽出イメージを取得する(ステップSB−10)。   Then, the image reconstructing unit 102c acquires an extracted image constituting a composite image from the image K acquired in step SB-7 based on the layout matching process performed in step SB-9 (step SB- 10).

そして、画像再構成部102cは、ステップSB−8にて取得した画像再構成情報Kに基づいて、抽出イメージを合成画像へ貼り込み、処理をステップSB−4へ移行させる(ステップSB−11)。   Then, the image reconstruction unit 102c pastes the extracted image into the composite image based on the image reconstruction information K acquired in Step SB-8, and shifts the processing to Step SB-4 (Step SB-11). .

再び図2に戻り、書式定義部102dは、合成画像に対する文字読取のための書式定義を設定し、書式定義ファイル106dに格納する(ステップSA−5)。   Returning to FIG. 2 again, the format definition unit 102d sets a format definition for character reading for the composite image and stores it in the format definition file 106d (step SA-5).

そして、認識部102eは、画像再構成部102cにより生成された合成画像中の文字を、書式定義ファイル106dに記憶された書式定義に基づいて、認識する(ステップSA−6)。   Then, the recognition unit 102e recognizes the characters in the composite image generated by the image reconstruction unit 102c based on the format definition stored in the format definition file 106d (step SA-6).

そして、確認修正部102fは、認識部102eによる合成画像中の文字の認識結果に基づいて、ユーザにより指定された帳票の所定の領域(例えば、氏名、住所等)が含まれているかに関して、合成画像中の文字を確認および修正する(ステップSA−7)。   Then, the confirmation / correction unit 102f determines whether a predetermined area (for example, name, address, etc.) of the form designated by the user is included based on the recognition result of the characters in the composite image by the recognition unit 102e. The characters in the image are confirmed and corrected (step SA-7).

そして、出力変換部102gは、確認修正部102fにより、確認、修正された合成画像を、プリンタ等へ出力するデータ形式(例えば、JPEG、GIF等)の最終結果に変換する(ステップSA−8)。ここで、出力変換部102gは、最終結果を最終結果ファイル106eに格納してもよい。   The output conversion unit 102g converts the composite image confirmed and corrected by the confirmation correction unit 102f into a final result in a data format (for example, JPEG, GIF, etc.) to be output to a printer or the like (step SA-8). . Here, the output conversion unit 102g may store the final result in the final result file 106e.

以上で、本実施の形態における文字認識処理の一例の説明を終える。   Above, description of an example of the character recognition process in this Embodiment is finished.

[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
[Other embodiments]
Although the embodiments of the present invention have been described so far, the present invention is not limited to the above-described embodiments, but can be applied to various different embodiments within the scope of the technical idea described in the claims. It may be implemented.

例えば、文字認識装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、文字認識装置100とは別筐体で構成されるクライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するように構成してもよい。   For example, although the case where the character recognition device 100 performs processing in a stand-alone form has been described as an example, the processing is performed in response to a request from a client terminal configured in a separate housing from the character recognition device 100, and the processing You may comprise so that a result may be returned to the said client terminal.

また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。   In addition, among the processes described in the embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method.

このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。   In addition, unless otherwise specified, the processing procedures, control procedures, specific names, information including registration data for each processing, parameters such as search conditions, screen examples, and database configurations shown in the above documents and drawings Can be changed arbitrarily.

また、文字認識装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。   Moreover, regarding the character recognition apparatus 100, each component shown in the figure is functionally conceptual, and need not be physically configured as illustrated.

例えば、文字認識装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。尚、プログラムは、後述する記録媒体に記録されており、必要に応じて文字認識装置100に機械的に読み取られる。すなわち、ROMまたはHD等の記憶部106は、OS(Operating System)として協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部102を構成する。   For example, all or some of the processing functions provided in each device of the character recognition device 100, particularly the processing functions performed by the control unit 102, are interpreted and executed by a CPU (Central Processing Unit) and the CPU. It may be realized by a program to be executed, or may be realized as hardware by wired logic. The program is recorded on a recording medium to be described later, and is mechanically read by the character recognition device 100 as necessary. That is, the storage unit 106 such as a ROM or HD stores a computer program for performing various processes by giving instructions to the CPU in cooperation with an OS (Operating System). This computer program is executed by being loaded into the RAM, and constitutes the control unit 102 in cooperation with the CPU.

また、このコンピュータプログラムは、文字認識装置100に対して任意のネットワークを介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。   The computer program may be stored in an application program server connected to the character recognition apparatus 100 via an arbitrary network, and may be downloaded in whole or in part as necessary. is there.

また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納することもできる。ここで、この「記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、Blu−ray Disc等の任意の「可搬用の物理媒体」、あるいは、LAN、WAN、インターネットに代表されるネットワークを介してプログラムを送信する場合の通信回線や搬送波のように、短期にプログラムを保持する「通信媒体」を含むものとする。   The program according to the present invention can also be stored in a computer-readable recording medium. Here, the “recording medium” is an arbitrary “portable physical medium” such as a flexible disk, a magneto-optical disk, a ROM, an EPROM, an EEPROM, a CD-ROM, an MO, a DVD, a Blu-ray Disc, or the like. It includes a “communication medium” that holds a program in a short period of time, such as a communication line or a carrier wave when a program is transmitted via a network represented by a LAN, WAN, or the Internet.

また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。   The “program” is a data processing method described in an arbitrary language or description method, and may be in any format such as source code or binary code. The “program” is not necessarily limited to a single configuration, but is distributed in the form of a plurality of modules and libraries, or in cooperation with a separate program represented by an OS (Operating System). Including those that achieve the function. Note that a well-known configuration and procedure can be used for a specific configuration for reading a recording medium, a reading procedure, an installation procedure after reading, and the like in each device described in the embodiment.

記憶部106に格納される各種のデータベース等は、RAM、SSD、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラムやテーブルやデータベースやウェブページ用ファイル等を格納する。   The various databases and the like stored in the storage unit 106 are memory devices such as RAM, SSD, and ROM, fixed disk devices such as hard disks, and storage means such as flexible disks and optical disks. Stores programs, tables, databases, web page files, etc.

また、文字認識装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置を接続し、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。   The character recognition apparatus 100 is connected to an information processing apparatus such as a known personal computer or workstation, and software (including programs, data, etc.) for realizing the method of the present invention is installed in the information processing apparatus. It may be realized.

更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Furthermore, the specific form of distribution / integration of the devices is not limited to that shown in the figure, and all or a part of them may be functional or physical in arbitrary units according to various additions or according to functional loads. Can be distributed and integrated.

以上詳細に説明したように、本発明によれば、スキャナ等で読込んだ複数の原稿の画像から、ユーザが必要とする情報のみを包含する画像や、原稿の表裏を1ページとした画像、を再合成することで、文字の識別、認識処理、および、その後のデータの再利用効率を高めることができる文字認識装置、文字認識方法、および、プログラムを提供することができ、特にスキャナで読み取った画像に関する画像処理分野で実施する場合に極めて有用である。   As described above in detail, according to the present invention, from a plurality of original images read by a scanner or the like, an image including only information required by the user, an image with the front and back sides of the original as one page, Can be provided to provide a character recognition device, a character recognition method, and a program that can increase the efficiency of character identification, recognition processing, and subsequent data reuse. The present invention is extremely useful when implemented in the field of image processing related to images.

100 文字認識装置
102 制御部
102a レイアウト取得部
102b 画像再構成情報生成部
102c 画像再構成部
102d 書式定義部
102e 認識部
102f 確認修正部
102g 出力変換部
106 記憶部
106a 画像ファイル
106b レイアウト情報ファイル
106c 合成画像ファイル
106d 書式定義ファイル
106e 最終結果ファイル
200 画像読取装置
100 character recognition device 102 control unit
102a Layout acquisition unit
102b Image reconstruction information generation unit
102c Image reconstruction unit
102d Format definition part
102e recognition unit
102f Confirmation and correction part
102g Output conversion unit 106 Storage unit
106a image file
106b Layout information file
106c Composite image file
106d Format definition file
106e Final result file 200 Image reading device

Claims (9)

記憶部と制御部を少なくとも備えた文字認識装置であって、
上記記憶部は、
画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、
を備え、
上記制御部は、
上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成手段と、
上記画像再構成手段により生成された上記合成画像中の文字を認識する認識手段と、
を備えたことを特徴とする、文字認識装置。
A character recognition device comprising at least a storage unit and a control unit,
The storage unit
Image storage means for storing an image of a document read by the image reading device;
With
The control unit
Image reconstruction means for extracting a partial area of the plurality of images stored in the image storage means and generating a composite image obtained by reconstructing the plurality of areas;
Recognition means for recognizing characters in the composite image generated by the image reconstruction means;
A character recognition device comprising:
請求項1に記載の文字認識装置において、
上記複数の上記画像は、上記原稿の表裏両面の上記画像であることを特徴とする、文字認識装置。
The character recognition device according to claim 1,
The character recognition apparatus according to claim 1, wherein the plurality of images are the images on both sides of the document.
請求項1または2に記載の文字認識装置において、
上記制御部は、
上記画像記憶手段に記憶された上記画像から、上記原稿のレイアウト情報を取得するレイアウト取得手段、
を備え、
上記画像再構成手段は、上記レイアウト取得手段により取得された上記レイアウト情報に基づいて、上記領域を抽出することを特徴とする、文字認識装置。
In the character recognition device according to claim 1 or 2,
The control unit
Layout acquisition means for acquiring layout information of the document from the image stored in the image storage means;
With
The character recognizing device, wherein the image reconstructing means extracts the region based on the layout information acquired by the layout acquiring means.
請求項3に記載の文字認識装置において、
上記レイアウト情報は、上記原稿のレイアウトの類似性に関する情報であることを特徴とする、文字認識装置。
The character recognition device according to claim 3,
The character recognition apparatus according to claim 1, wherein the layout information is information related to the similarity of the layout of the originals.
請求項1から4のいずれか一つに記載の文字認識装置において、
上記制御部は、
上記領域の上記合成画像上での配置およびサイズを表す画像再構成情報を生成する画像再構成情報生成手段、
を備え、
上記画像再構成手段は、上記画像再構成情報生成手段により生成された上記画像再構成情報に基づいて、上記合成画像を生成することを特徴とする、文字認識装置。
In the character recognition device according to any one of claims 1 to 4,
The control unit
Image reconstruction information generating means for generating image reconstruction information representing the arrangement and size of the region on the composite image;
With
The character recognizing device, wherein the image reconstruction means generates the composite image based on the image reconstruction information generated by the image reconstruction information generation means.
請求項1から5のいずれか一つに記載の文字認識装置において、
上記画像再構成情報は、ユーザにより指定された所定の領域に関する情報であることを特徴とする、文字認識装置。
In the character recognition device according to any one of claims 1 to 5,
The character recognizing apparatus, wherein the image reconstruction information is information relating to a predetermined area designated by a user.
請求項1から6のいずれか一つに記載の文字認識装置において、
上記原稿は、帳票であることを特徴とする、文字認識装置。
In the character recognition device according to any one of claims 1 to 6,
A character recognition apparatus, wherein the original is a form.
記憶部と制御部を少なくとも備えた文字認識装置において実行される文字認識方法であって、
上記記憶部は、
画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、
を備え、
上記制御部において実行される、
上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成ステップと、
上記画像再構成ステップにて生成された上記合成画像中の文字を認識する認識ステップと、
を含むことを特徴とする、文字認識方法。
A character recognition method executed in a character recognition device including at least a storage unit and a control unit,
The storage unit
Image storage means for storing an image of a document read by the image reading device;
With
Executed in the control unit,
An image reconstruction step of extracting a partial region of the plurality of images stored in the image storage unit and generating a composite image in which the plurality of regions are reconstructed;
A recognition step for recognizing characters in the composite image generated in the image reconstruction step;
A character recognition method comprising:
記憶部と制御部を少なくとも備えた文字認識装置に実行させるためのプログラムであって、
上記記憶部は、
画像読取装置により読取られた原稿の画像を記憶する画像記憶手段、
を備え、
上記制御部において、
上記画像記憶手段に記憶された複数の上記画像の一部の領域を抽出し、複数の上記領域を再構成した合成画像を生成する画像再構成ステップと、
上記画像再構成ステップにて生成された上記合成画像中の文字を認識する認識ステップと、
を実行させるためのプログラム。
A program for causing a character recognition device including at least a storage unit and a control unit to execute the program,
The storage unit
Image storage means for storing an image of a document read by the image reading device;
With
In the control unit,
An image reconstruction step of extracting a partial region of the plurality of images stored in the image storage unit and generating a composite image in which the plurality of regions are reconstructed;
A recognition step for recognizing characters in the composite image generated in the image reconstruction step;
A program for running
JP2009103287A 2009-04-21 2009-04-21 Character recognition device, character recognition method, and program Withdrawn JP2010256994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009103287A JP2010256994A (en) 2009-04-21 2009-04-21 Character recognition device, character recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009103287A JP2010256994A (en) 2009-04-21 2009-04-21 Character recognition device, character recognition method, and program

Publications (1)

Publication Number Publication Date
JP2010256994A true JP2010256994A (en) 2010-11-11

Family

ID=43317872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009103287A Withdrawn JP2010256994A (en) 2009-04-21 2009-04-21 Character recognition device, character recognition method, and program

Country Status (1)

Country Link
JP (1) JP2010256994A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124149A1 (en) * 2011-03-11 2012-09-20 オムロン株式会社 Image processing device, image processing method and control program
JP2017188805A (en) * 2016-04-06 2017-10-12 大日本印刷株式会社 Management device, management method, and program for management device
JP2017204667A (en) * 2016-05-09 2017-11-16 大日本印刷株式会社 Management device, management method, and program for management device
US10876451B2 (en) 2018-08-31 2020-12-29 Toyota Jidosha Kabushiki Kaisha Vehicle and control method for vehicle
US11293361B2 (en) 2020-01-29 2022-04-05 Toyota Jidosha Kabushiki Kaisha Control device for internal combustion engine and control method for internal combustion engine

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124149A1 (en) * 2011-03-11 2012-09-20 オムロン株式会社 Image processing device, image processing method and control program
JP2012190349A (en) * 2011-03-11 2012-10-04 Omron Corp Image processing device, image processing method, and control program
JP2017188805A (en) * 2016-04-06 2017-10-12 大日本印刷株式会社 Management device, management method, and program for management device
JP2017204667A (en) * 2016-05-09 2017-11-16 大日本印刷株式会社 Management device, management method, and program for management device
US10876451B2 (en) 2018-08-31 2020-12-29 Toyota Jidosha Kabushiki Kaisha Vehicle and control method for vehicle
US11293361B2 (en) 2020-01-29 2022-04-05 Toyota Jidosha Kabushiki Kaisha Control device for internal combustion engine and control method for internal combustion engine

Similar Documents

Publication Publication Date Title
US11830170B2 (en) Systems and methods for image data processing to correct document deformations using machine learning system
JP4533187B2 (en) Image processing apparatus and control method thereof
EP2264995A2 (en) Image processing apparatus, image processing method, and computer program
US20060010115A1 (en) Image processing system and image processing method
US20060161780A1 (en) Method and apparatus for adding signature information to electronic documents
US20060008113A1 (en) Image processing system and image processing method
JP5280156B2 (en) Electronic document management apparatus and electronic document management method
JP2010256994A (en) Character recognition device, character recognition method, and program
JP6278042B2 (en) Information processing apparatus and image processing method
EP2100233A1 (en) Document archiving system
CN111444795A (en) Bill data identification method, electronic device, storage medium and device
CN107665314B (en) The trusted processes method and device signed on the electronic document
JP2014099114A (en) Determination program, determination method, and determination device
US11748388B2 (en) Multi-word phrase based analysis of electronic documents
Eskenazi et al. When document security brings new challenges to document analysis
US9854125B2 (en) Computing new certificate for digitized version of a physical document
JP2019004365A (en) Information processing apparatus
JP2009075892A (en) Certificate reading recognition device
KR102374797B1 (en) Apparatus and method for processing text of multiimage
JP6303742B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018037020A (en) Information processing device and information processing program
JP2011170392A (en) System, method and program for retrieving image
JP2011170393A (en) Image search system, image search method and image search program
JP2010021951A (en) Document management apparatus and document management method
CN112989780A (en) OFD rapid generation method and system, electronic device and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703