JP2010128904A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2010128904A
JP2010128904A JP2008304463A JP2008304463A JP2010128904A JP 2010128904 A JP2010128904 A JP 2010128904A JP 2008304463 A JP2008304463 A JP 2008304463A JP 2008304463 A JP2008304463 A JP 2008304463A JP 2010128904 A JP2010128904 A JP 2010128904A
Authority
JP
Japan
Prior art keywords
mark
image
recognition
zone
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008304463A
Other languages
Japanese (ja)
Other versions
JP2010128904A5 (en
JP5080432B2 (en
Inventor
Hiroaki Nakano
広章 中野
Noriko Okasaka
典子 岡坂
Yoshitomo Nagamine
善智 長峯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon IT Solutions Inc
Original Assignee
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon IT Solutions Inc filed Critical Canon IT Solutions Inc
Priority to JP2008304463A priority Critical patent/JP5080432B2/en
Publication of JP2010128904A publication Critical patent/JP2010128904A/en
Publication of JP2010128904A5 publication Critical patent/JP2010128904A5/ja
Application granted granted Critical
Publication of JP5080432B2 publication Critical patent/JP5080432B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus that reduces the work for confirming the result of recognizing a paper document with a mark written thereon, when recognizing a portion written by a user from an image of the paper document written by the user and displaying the result of recognition, by overlapping an object to be displayed in the portion where the mark is recognized on the image recognized, and that facilitates an operator's correction work. <P>SOLUTION: A client computer 200 accepts settings of form definition information, such as a zone to be recognized (OMR (Optical Mark Reading) or OCRed (Optical Character Reading)) on an input original paper image. Based on the set form definition information, the zone on the image is recognized, and an object indicating the result of recognizing the zone subjected to the mark recognition is created. The object created is displayed on the zone. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、入力された画像に対する文字認識機能と、認識結果の訂正機能とを備える画像処理装置及び方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that include a character recognition function for an input image and a correction function for a recognition result.

従来、申込書やアンケート用紙などをスキャンして得られた画像に文字認識処理を行い、その認識結果をデータベースなどに保存して業務に利用する仕組みが知られている。   2. Description of the Related Art Conventionally, a mechanism is known in which character recognition processing is performed on an image obtained by scanning an application form, a questionnaire sheet, and the like, and the recognition result is stored in a database and used for business.

ところが、手書きされたアンケート用紙等から得られた画像に文字認識処理を行うと、正しい文字認識結果が得られない場合が多い。そのため、一般的に、文字認識結果が正しいかどうかをオペレータが確認して訂正(修正)する作業を行っている。   However, when character recognition processing is performed on an image obtained from a handwritten questionnaire or the like, a correct character recognition result is often not obtained. For this reason, in general, an operator confirms whether the character recognition result is correct and corrects (corrects) it.

例えば、オペレータによる文字認識結果の訂正作業を容易かつ迅速に行うために、入力画像中から抽出された文字列画像と当該画像に対応する文字認識結果を表示した画像とを文字を単位に対応付けて隣接配置した訂正用画面を生成し、文字認識処理した画像の近くに文字認識した結果を表示させる技術が提案されている(特許文献1参照)。
特開2002−230480号公報
For example, in order to easily and quickly correct the character recognition result by the operator, the character string image extracted from the input image and the image displaying the character recognition result corresponding to the image are associated in units of characters. A technique has been proposed in which correction screens arranged adjacent to each other are generated and the result of character recognition is displayed near an image subjected to character recognition processing (see Patent Document 1).
JP 2002-230480 A

しかしながら、マーク(シート)方式と記述方式の両方を用いた健康診断の問診票などは、受診する人が手書きで文字を記入する箇所やマークする箇所が複数存在するので、上記特許文献1のような技術を用いた場合、例えば、「チェックあり」、「チェックなし」或いはチェック有無フラグ「0」、「1」で認識結果が表示されることになり、オペレータの確認作業や訂正作業の負担を軽減できないおそれがある。   However, the health check questionnaire using both the mark (sheet) method and the description method has a plurality of places where a person who receives a medical check enters or marks a handwritten character. If the technology is used, for example, the recognition result is displayed with “checked”, “not checked”, or the presence / absence flag “0”, “1”. May not be mitigated.

また、健康診断の問診票などでは、現在の生活形態をあてはまる項目だけ複数マークする、或いは複数の問いに答えるなど、多くのマークする箇所を目視確認する必要があるので、その確認作業に時間がかかり、結果として業務効率が低下するおそれがある。さらに、作業時間の増加から訂正漏れ等の人的ミスが増える場合もある。   Also, in health checkup questionnaires, etc., it is necessary to visually check many places to be marked, such as marking multiple items that apply to the current lifestyle, or answering multiple questions. As a result, the business efficiency may be reduced. In addition, human error such as omission of correction may increase due to an increase in work time.

そこで、本発明は、ユーザが記入した紙文書の画像からユーザが記入した箇所を認識し、当該認識した認識結果を表示する際に、マークを認識した箇所に表示するオブジェクトを、認識した画像と重ね合わせて表示することで、マークが記入された紙文書の認識結果の確認作業を軽減することができ、またオペレータの訂正作業を容易にする画像処理装置及び方法、並びにプログラムを提供することを目的とする。   Therefore, the present invention recognizes an object displayed at a location where a mark has been recognized when recognizing a location entered by the user from an image of a paper document entered by the user and displaying the recognized recognition result. To provide an image processing apparatus and method, and a program that can reduce the confirmation work of the recognition result of a paper document on which a mark has been written, and facilitate an operator's correction work, by displaying them in a superimposed manner. Objective.

上記目的を達成するために、請求項1記載の画像処理装置は、ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置であって、前記記入箇所のうち、記入されたマークを認識する領域を予め設定する設定手段と、前記設定手段により設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識手段と、前記マーク認識手段によりマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成手段と、前記生成手段により生成されたオブジェクトを、前記マーク認識手段でマークの認識がされた領域に対応する位置に重ね合わせて表示する第1の表示手段とを備えることを特徴とする。   In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus for recognizing an entry position with respect to an image obtained by reading a paper document entered by a user. A setting means for presetting an area for recognizing a written mark, and a mark recognition means for recognizing a mark for an area on an image to be recognized based on the area set by the setting means; A generating unit that generates an object indicating a recognition result for the region in which the mark is recognized by the mark recognizing unit; and the object generated by the generating unit corresponds to the region in which the mark is recognized by the mark recognizing unit. And a first display means for displaying the image superimposed on the position.

上記目的を達成するために、請求項9記載の画像処理方法は、ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置の画像処理方法であって、前記記入箇所のうち、記入されたマークを認識する領域を予め設定するための設定工程と、前記設定工程にて設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識工程と、前記マーク認識工程にてマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成工程と、前記生成工程にて生成されたオブジェクトを、前記マーク認識工程でマークの認識がされた領域に対応する位置に重ね合わせて表示する表示工程とを備えることを特徴とする。   In order to achieve the above object, an image processing method according to claim 9 is an image processing method of an image processing apparatus for recognizing an entry location with respect to an image obtained by reading a paper document entered by a user. Among the entries, a setting process for setting an area for recognizing the mark that has been entered in advance, and the recognition of the mark for the area on the image to be recognized based on the area set in the setting process A mark recognition step, a generation step for generating an object indicating a recognition result for the area where the mark has been recognized in the mark recognition step, and an object generated in the generation step for marking the object generated in the mark recognition step. And a display step of displaying the image superimposed on a position corresponding to the region where the recognition is performed.

上記目的を達成するために、請求項10記載のプログラムは、ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置の画像処理方法を当該画像処理装置に実行させるためのプログラムであって、前記記入箇所のうち、記入されたマークを認識する領域を予め設定するための設定ステップと、前記設定ステップにて設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識ステップと、前記マーク認識ステップにてマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成ステップと、前記生成ステップにて生成されたオブジェクトを、前記マーク認識ステップでマークの認識がされた領域に対応する位置に重ね合わせて表示する表示ステップとを備えることを特徴とする。   In order to achieve the above object, a program according to claim 10 executes an image processing method of an image processing apparatus for recognizing an entry position on an image obtained by reading a paper document entered by a user. A setting step for setting in advance a region for recognizing a written mark, and an image to be recognized based on the region set in the setting step. A mark recognition step for recognizing a mark on the upper region, a generation step for generating an object indicating a recognition result for the region where the mark has been recognized in the mark recognition step, and a generation step generated A display step for displaying an object in a superimposed manner at a position corresponding to the area where the mark has been recognized in the mark recognition step. Characterized in that it comprises and.

本発明によれば、ユーザが記入した紙文書の画像からユーザが記入した箇所を認識し、当該認識した認識結果を表示する際に、マークを認識した箇所に表示するオブジェクトを、認識した画像と重ね合わせて表示することで、マークが記入された紙文書の認識結果の確認作業を軽減することができ、またオペレータの訂正作業を容易にすることができる。   According to the present invention, when recognizing a location entered by a user from an image of a paper document entered by the user and displaying the recognized recognition result, an object to be displayed at the location where the mark is recognized is recognized as the recognized image. By superimposing and displaying, the confirmation work of the recognition result of the paper document in which the mark is written can be reduced, and the correction work of the operator can be facilitated.

以下、本発明の実施の形態を図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る画像処理装置を含む画像処理システムの概略構成を示す図である。   FIG. 1 is a diagram showing a schematic configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention.

図1において、画像処理システムは、管理サーバ100と、複数のスキャナ300と、複数のクライアントコンピュータ200とで構成され、これらがLAN等の通信網500を介して通信可能に接続されている。管理サーバ100は、スキャナ300で読み取られた文書や帳票の画像データを受信してデータベース(DB)101に格納し、該画像データを一括して管理している。クライアントコンピュータ200は、ユーザが利用する情報処理装置である。管理サーバ100及びクライアントコンピュータ200上では、不図示のOSやアプリケーションが稼動している。なお、DB101は、クライアントコンピュータ200に実装する構成であってもよい。   In FIG. 1, the image processing system includes a management server 100, a plurality of scanners 300, and a plurality of client computers 200, which are communicably connected via a communication network 500 such as a LAN. The management server 100 receives image data of a document or form read by the scanner 300, stores it in a database (DB) 101, and collectively manages the image data. The client computer 200 is an information processing apparatus used by a user. On the management server 100 and the client computer 200, an OS and applications (not shown) are running. The DB 101 may be configured to be mounted on the client computer 200.

画像読取装置であるスキャナ300は、直接またはクライアントコンピュータ200を介して通信網500に接続され、クライアントコンピュータ200や管理サーバ100との通信が可能である。スキャナ300は、例えば、バーコードや一意の番号が付与された文書や帳票を連続して読み取って、得られた画像データをクライアントコンピュータ200や管理サーバ100に送信することができる。   A scanner 300 which is an image reading apparatus is connected to a communication network 500 directly or via a client computer 200 and can communicate with the client computer 200 and the management server 100. For example, the scanner 300 can continuously read a document or a form to which a barcode or a unique number is assigned, and transmit the obtained image data to the client computer 200 or the management server 100.

図示例の画像処理システムでは、例えば、クライアントコンピュータ200上でオペレータによる画像読取要求を受け付けると、スキャナ300が帳票等をスキャンし、得られた画像データをクライアントコンピュータ200に送信するように構成されている。クライアントコンピュータ200は、オペレータの要求により、受信した画像データを管理サーバ100に送信するように構成され、管理サーバ100が受信した画像データをDB101に格納するように構成されている。なお、クライアントコンピュータ200上でオペレータによる画像読取要求を受け付けた際に、スキャナ300が読み取った画像データを管理サーバ100に送信するように構成されていてもよい。また、スキャナ300については、これに限定されず、画像読取機能があれば複写機や複合機であってもよい。   In the illustrated image processing system, for example, when an image reading request from an operator is received on the client computer 200, the scanner 300 scans a form and transmits the obtained image data to the client computer 200. Yes. The client computer 200 is configured to transmit received image data to the management server 100 in response to an operator request, and is configured to store the image data received by the management server 100 in the DB 101. Note that the image data read by the scanner 300 may be transmitted to the management server 100 when an image reading request from the operator is received on the client computer 200. Further, the scanner 300 is not limited to this, and may be a copying machine or a multifunction machine as long as it has an image reading function.

図2は、図1におけるクライアントコンピュータ200を構成するハードウェアの概略を示すブロック図である。なお、クライアントコンピュータ200は、管理サーバ100と略同一の構成を有することから、代表してクライアントコンピュータ200について説明する。   FIG. 2 is a block diagram showing an outline of hardware constituting the client computer 200 in FIG. Since the client computer 200 has substantially the same configuration as the management server 100, the client computer 200 will be described as a representative.

クライアントコンピュータ200は、CPU201と、RAM202と、ROM203と、LANアダプタ204と、ビデオアダプタ205と、キーボード206と、マウス207と、ハードディスク(HDD)208と、記憶媒体ドライブ209とを備え、これらがシステムバス210を介して互いに接続されている。   The client computer 200 includes a CPU 201, a RAM 202, a ROM 203, a LAN adapter 204, a video adapter 205, a keyboard 206, a mouse 207, a hard disk (HDD) 208, and a storage medium drive 209, which are a system. They are connected to each other via a bus 210.

CPU201は、ROM203又はHDD208、記憶媒体ドライブ209(内のCD−ROM等)に記憶されたプログラムをRAM202に順次読み出して後述する各種制御処理を実行する。RAM202は、オペレーティングシステム(OS)の一部やアプリケーションプログラムがロードされると共に、CPU201の制御の下でアプリケーションプログラムを実行する際に使用される配列や変数を含む各種データ等を一時保存するためのメモリである。ROM203には、各ハードウェアの制御プログラム(いわゆるBIOS)等が記憶されている。なお、ROM203は、OSの一部を記憶することもできる。   The CPU 201 sequentially reads programs stored in the ROM 203 or HDD 208 and the storage medium drive 209 (internal CD-ROM or the like) into the RAM 202 and executes various control processes described later. The RAM 202 is loaded with a part of an operating system (OS) and application programs, and temporarily stores various data including arrays and variables used when executing the application programs under the control of the CPU 201. It is memory. The ROM 203 stores a control program (so-called BIOS) for each hardware. Note that the ROM 203 can also store a part of the OS.

LANアダプタ(ネットワークインタフェースカード)204は、通信網500等のネットワークに接続するための通信インタフェースである。クライアントコンピュータ200は、画像入力手段としてのLANアダプタ204を介してスキャナ300等から画像を入力する。ビデオアダプタ205は、いわゆるビデオグラフィックアダプタ(VGA)であり、不図示の液晶ディスプレイ等の各種ディスプレイが接続される。   A LAN adapter (network interface card) 204 is a communication interface for connecting to a network such as the communication network 500. The client computer 200 inputs an image from the scanner 300 or the like via the LAN adapter 204 as an image input unit. The video adapter 205 is a so-called video graphic adapter (VGA) to which various displays such as a liquid crystal display (not shown) are connected.

HDD208は、OSや画面情報(itmlやCGI等で記述された、ディスプレイに画面を表示させるための情報)を含む各種アプリケーションプログラムを記憶する。また、HDD208には、画像データ及び該画像データを管理する管理情報と、画像データの送受信(転送含む)プログラム等が記憶されている。さらに、後述するフローチャートのステップを実現するアプリケーションプログラムが記憶されている。記憶媒体ドライブ209は、CD−ROM、DVD−ROM等の記憶媒体からデータやプログラムを読み出し可能な駆動装置である。なお、管理サーバ100の場合は、DB101がHDD208内に設定されていても、外部の記憶装置(不図示)内に設定されていてもよい。   The HDD 208 stores various application programs including an OS and screen information (information for displaying a screen on a display described in itml, CGI, or the like). Further, the HDD 208 stores image data, management information for managing the image data, a transmission / reception (including transfer) program of the image data, and the like. Furthermore, an application program for realizing the steps of the flowchart described later is stored. The storage medium drive 209 is a drive device that can read data and programs from a storage medium such as a CD-ROM or a DVD-ROM. In the case of the management server 100, the DB 101 may be set in the HDD 208 or in an external storage device (not shown).

図3は、図1におけるスキャナ300を構成するハードウェアの概略を示すブロック図である。   FIG. 3 is a block diagram showing an outline of hardware constituting the scanner 300 in FIG.

スキャナ300は、CPU301と、RAM302と、ROM303と、LANアダプタ304と、液晶パネル&I/F305と、通信回線I/F306と、スキャンエンジン307と、ハードディスク(HDD)308とを備え、これらがシステムバス310を介して互いに接続されている。   The scanner 300 includes a CPU 301, a RAM 302, a ROM 303, a LAN adapter 304, a liquid crystal panel & I / F 305, a communication line I / F 306, a scan engine 307, and a hard disk (HDD) 308, which are system buses. They are connected to each other via 310.

CPU201は、ROM303又はHDD308に記憶されたプログラムをRAM302に順次読み出して各種制御処理を実行する。RAM302は、CPU301が使用する各種データ等を一時保存するためのメモリである。ROM303には、各種制御プログラムが記憶されている。   The CPU 201 sequentially reads programs stored in the ROM 303 or the HDD 308 to the RAM 302 and executes various control processes. A RAM 302 is a memory for temporarily storing various data used by the CPU 301. Various control programs are stored in the ROM 303.

LANアダプタ304は、通信網500等のネットワークを介してクライアントコンピュータ200や管理サーバ100に接続するための通信インタフェースである。液晶パネル&I/F305は、タッチパネルを含み、表示機能及びデータ入力機能を有している。通信I/F306は、USBなどのインタフェースを司り、クライアントコンピュータ200との接続を行うことができる。   The LAN adapter 304 is a communication interface for connecting to the client computer 200 and the management server 100 via a network such as the communication network 500. The liquid crystal panel & I / F 305 includes a touch panel and has a display function and a data input function. The communication I / F 306 manages an interface such as USB and can connect to the client computer 200.

スキャンエンジン307は、文書や帳票の画像を光学的に読み取って画像データに変換する。HDD308には、システムプログラム等の他に、クライアントコンピュータ200や管理サーバ100へ通信I/F306やLANアダプタ304を介して画像データを転送する転送プログラムが記憶されている。   The scan engine 307 optically reads an image of a document or a form and converts it into image data. In addition to the system program, the HDD 308 stores a transfer program for transferring image data to the client computer 200 and the management server 100 via the communication I / F 306 and the LAN adapter 304.

図4は、クライアントコンピュータ200にて実行される帳票認識処理の全体の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the overall flow of the form recognition process executed by the client computer 200.

本実施形態における帳票認識処理は、フォーム情報登録処理(ステップS400)と、スキャンニング処理(ステップS401〜S405)とに分けられる。認識処理の対象となる帳票には、マークシート方式(マーク認識処理)と記述方式(文字認識処理)の両方を用いた健康診断の問診票や解答用紙などを含むものとする。   The form recognition process in this embodiment is divided into a form information registration process (step S400) and a scanning process (steps S401 to S405). The forms to be recognized include health check questionnaires and answer sheets that use both the mark sheet method (mark recognition processing) and the description method (character recognition processing).

フォーム情報登録処理では、図19に示すようなフォーム(帳票)の原紙画像1900からのタイミングマークの位置情報の取得や、図20に示すような書き込み済みフォームの画像(認識対象の画像)2000に対するOCR処理/OMR処理時に必要な情報の生成(定義)が行われる。なお、OMRは予め決められた位置(記入箇所)をユーザが塗りつぶしたものを認識する技術であるが、これに限ることなく、ユーザが手書きでチェック形式のマークを記入箇所に記入したものを認識する技術を用いても構わない。つまり、認識可能な記号(塗りつぶし記号、チェック記号などのマーク)であれば、どのような形態で記入されたものを認識するように構成してもよい。   In the form information registration processing, the timing mark position information is acquired from the base paper image 1900 of the form (form) as shown in FIG. 19 and the written form image (recognition target image) 2000 as shown in FIG. Information necessary for OCR processing / OMR processing is generated (defined). OMR is a technology for recognizing a user's pre-determined position (entry location), but not limited to this, it recognizes a user's hand-written check mark in the entry location. You may use the technique to do. That is, as long as it is a recognizable symbol (a mark such as a fill symbol or a check symbol), the symbol written in any form may be recognized.

スキャンニング処理では、まず、認識対象の画像に対してフォーム認識処理が行われ、認識パターン(OCRパターンともいう)が決定される(ステップS401)。次に、決定した認識パターンに対応するフォーム情報(定義)に従って認識処理(OMR(Optical Mark Reader)処理(マーク認識処理)及びOCR(Optical Character Reader)処理(文字認識処理))が行われる(ステップS402)。次に、ステップS402で得られた認識処理の結果から認識結果表示処理が行われる(ステップS403)。つづいて、認識結果訂正処理(ステップS404)及び登録処理(ステップS405)が順次実施される。これら各処理の詳細については後述する。   In the scanning process, first, a form recognition process is performed on an image to be recognized, and a recognition pattern (also referred to as an OCR pattern) is determined (step S401). Next, recognition processing (OMR (Optical Mark Reader) processing (mark recognition processing) and OCR (Optical Character Reader) processing (character recognition processing))) is performed according to the form information (definition) corresponding to the determined recognition pattern (steps). S402). Next, a recognition result display process is performed from the result of the recognition process obtained in step S402 (step S403). Subsequently, recognition result correction processing (step S404) and registration processing (step S405) are sequentially performed. Details of these processes will be described later.

図5は、図4のステップS400におけるフォーム情報登録処理の詳細を示すフローチャートである。本処理は、HDD208や記憶媒体ドライブ209から読み出されたプログラムに基づいてCPU201により実行される処理である。なお、スキャナ300で読み取られたフォームとなる画像(原紙画像)またはフォーム作成アプリケーションで生成されたフォームをイメージ化した画像(原紙画像)が記憶媒体ドライブ209(またはHDD208)に画像データとして記憶されているものとする。   FIG. 5 is a flowchart showing details of the form information registration process in step S400 of FIG. This process is a process executed by the CPU 201 based on a program read from the HDD 208 or the storage medium drive 209. Note that an image (base paper image) that is a form read by the scanner 300 or an image (base paper image) obtained by imaging a form generated by a form creation application is stored as image data in the storage medium drive 209 (or HDD 208). It shall be.

図5において、CPU201は、記憶媒体ドライブ209(またはHDD208)からフォームの原紙画像を取得し、不図示の液晶ディスプレイ等に図14に示すようなフォーム定義画面1100を表示する(ステップS501)。   In FIG. 5, the CPU 201 acquires a base paper image of the form from the storage medium drive 209 (or HDD 208), and displays a form definition screen 1100 as shown in FIG. 14 on a liquid crystal display (not shown) (step S501).

フォーム定義画面1100には、図19に示すようなフォームの原紙画像が表示される表示部1110と、ゾーンIDを入力するためのゾーンID設定欄1200と、ゾーン名称を入力するためのゾーン名称設定欄1201と、ゾーン読み取り属性設定欄1202と、重ね合わせ設定欄1203と、リスト表示設定欄1204と、リスト内容設定欄1205と、キャンセルボタン1120と、登録ボタン1121と、完了ボタン1122とが配置されている。ここでゾーン(領域)とは、フォームの原紙画像において認識処理(OCR処理(文字認識処理)/OMR処理(マーク認識処理))の対象となる領域を意味し、表示部1110に表示された原紙画像上でユーザにより指定される。   The form definition screen 1100 includes a display unit 1110 on which a base paper image of a form as shown in FIG. 19 is displayed, a zone ID setting field 1200 for inputting a zone ID, and a zone name setting for inputting a zone name. A column 1201, a zone reading attribute setting column 1202, an overlay setting column 1203, a list display setting column 1204, a list content setting column 1205, a cancel button 1120, a registration button 1121, and a completion button 1122 are arranged. ing. Here, the zone (area) means an area that is a target of recognition processing (OCR processing (character recognition processing) / OMR processing (mark recognition processing)) in the base paper image of the form, and the base paper displayed on the display unit 1110. Designated by the user on the image.

ゾーンID設定欄1200では、ユーザが原紙画像上に指定したゾーンの識別情報として、任意のIDを入力することができる。なお、ゾーンID設定欄1200にIDが入力されなかった場合には、CPU201により自動的にゾーンIDが付与される。ゾーン名称設定欄1201では、ユーザが指定したゾーンに対する任意の名称を入力することができる。ゾーン読み取り属性設定欄1202では、ユーザが指定したゾーンに対して実行する処理として「OCR」又は「OMR」を選択することができる。ここで「OCR」が選択されると当該ゾーンがOCR処理され、「OMR」が選択されると当該ゾーンがOMR処理される。重ね合わせ設定欄1203では、ユーザが指定したゾーンとOMR又はOCR処理された認識結果とを重ね合わせて表示するか否かを「ON」又は「OFF」で設定することができる。「ON」が設定された場合には、当該ゾーンの認識結果が、原紙画像のゾーンに対応する位置に重ね合わせて表示される。   In the zone ID setting field 1200, an arbitrary ID can be input as the identification information of the zone designated by the user on the base paper image. If no ID is entered in the zone ID setting field 1200, the CPU 201 automatically assigns a zone ID. In the zone name setting field 1201, an arbitrary name for the zone designated by the user can be input. In the zone reading attribute setting field 1202, “OCR” or “OMR” can be selected as processing to be executed for the zone designated by the user. Here, when “OCR” is selected, the zone is subjected to OCR processing, and when “OMR” is selected, the zone is subjected to OMR processing. In the overlay setting field 1203, it is possible to set “ON” or “OFF” whether or not to display the zone designated by the user and the recognition result subjected to the OMR or OCR process. When “ON” is set, the recognition result of the zone is displayed superimposed on the position corresponding to the zone of the base paper image.

リスト表示設定欄1204では、リスト表示の「ON」又は「OFF」を設定することができるが、ゾーン読み取り属性設定欄1202で「OMR」が選択された場合は、自動的にリスト表示が「ON」となる。リスト表示を「OFF」とすることが可能となる場合は、ゾーン読み取り属性設定欄1202で「OCR」が選択された場合である。なお、リスト表示設定欄1204では、リスト表示が「OFF」に設定された場合には、リスト内容設定欄1205に入力できないように構成される。   In the list display setting column 1204, “ON” or “OFF” of the list display can be set. However, when “OMR” is selected in the zone reading attribute setting column 1202, the list display is automatically set to “ON”. " The list display can be set to “OFF” when “OCR” is selected in the zone reading attribute setting field 1202. Note that the list display setting field 1204 is configured such that it cannot be input to the list content setting field 1205 when the list display is set to “OFF”.

リスト内容設定欄1205では、例えば、図16(a)に示すように、指定されたゾーン1209に対応する項目名1221を入力することができる。このリスト内容設定欄1205に入力された内容は、例えば、後述する図17に示す認識結果訂正画面1700上のリストボックスに表示される。具体的には、図16(a)において、ゾーン1209〜1211がグループ化されてAAAグループとして設定された場合、リスト内容設定欄1205に入力された項目名1221〜1223(「毎日食べている」、「時々食べている」、「ほとんど食べていない」)がリストボックス1505にリスト表示される。認識結果が誤っていた場合、ユーザはリストボックスに表示されたリストから訂正項目を選択することができる。なお、リスト内容設定欄1205についてはユーザが任意に入力する構成であるが、文字認識を行った結果を入力できるように構成してもよい。   In the list content setting field 1205, for example, as shown in FIG. 16A, an item name 1221 corresponding to the designated zone 1209 can be input. The content input in the list content setting field 1205 is displayed, for example, in a list box on a recognition result correction screen 1700 shown in FIG. Specifically, in FIG. 16A, when the zones 1209 to 1211 are grouped and set as AAA groups, the item names 1221 to 1223 (“Eat every day”) entered in the list content setting field 1205. , “I eat sometimes” and “I rarely eat”) are displayed in a list in the list box 1505. If the recognition result is incorrect, the user can select a correction item from the list displayed in the list box. The list content setting field 1205 is arbitrarily input by the user, but may be configured so that the result of character recognition can be input.

図5に戻り、ステップS501では、CPU201は、ステップS501で取得したフォームの原紙画像に対するフォームIDと、フォーム名称と、フォームイメージ格納情報(原紙画像の保存先パス)をRAM202に一時保存する。フォームIDは、自動付与又はユーザにより入力される。フォーム名称は、ユーザにより入力される。RAM202に一時保存されたフォームID、フォーム名称、及びフォームイメージ格納情報については、後述するステップS515で図12(a)に示すフォーム定義テーブルtb01に保存される。このフォーム定義テーブルtb01は、DB101に保存(登録)されるテーブル情報である。   Returning to FIG. 5, in step S <b> 501, the CPU 201 temporarily saves in the RAM 202 the form ID, form name, and form image storage information (save destination path of the base paper image) for the base paper image of the form acquired in step S <b> 501. The form ID is automatically given or entered by the user. The form name is input by the user. The form ID, form name, and form image storage information temporarily stored in the RAM 202 are stored in the form definition table tb01 shown in FIG. The form definition table tb01 is table information stored (registered) in the DB 101.

次に、ステップS502では、CPU201は、原紙画像上のタイミングマークの位置を読み取って、タイミングマークの位置情報(X軸座標、Y軸座標)としてRAM202に一時保存する。タイミングマークは、OCR/OMR処理の対象となるゾーンの位置を特定するための基準値として使用され、例えば、図19に示す原紙画像上のタイミングマーク1901を指す。RAM202に一時保存されたタイミングマーク位置情報については、後述するステップS515で図12(a)に示すフォーム定義テーブルtb01に保存される。なお、図示例のように、フォームの原紙上に複数のタイミングマークを設け、これらからゾーンの位置を特定するように構成してもよい。また、X軸座標を原紙画像の垂直方向とし、Y軸座標を原紙画像の水平方向とする。   Next, in step S502, the CPU 201 reads the timing mark position on the base paper image and temporarily stores it in the RAM 202 as timing mark position information (X-axis coordinates, Y-axis coordinates). The timing mark is used as a reference value for specifying the position of a zone to be subjected to OCR / OMR processing, and indicates, for example, the timing mark 1901 on the base paper image shown in FIG. The timing mark position information temporarily stored in the RAM 202 is stored in the form definition table tb01 shown in FIG. 12A in step S515 described later. It should be noted that, as in the illustrated example, a plurality of timing marks may be provided on the base paper of the form, and the position of the zone may be specified from these. Further, the X-axis coordinate is the vertical direction of the base paper image, and the Y-axis coordinate is the horizontal direction of the base paper image.

ステップS503では、CPU201は、フォーム定義画面1100上の表示部1110に表示された原紙画像上でOCR/OMR処理の対象となるゾーンの指定をユーザから受け付ける。ゾーンの指定については、表示部1110に表示された原紙画像上でユーザがマウス207等を利用して行う。ユーザが画面上でゾーン指定を行うと、例えば、図16(a)に示すように、指定されたゾーン1209〜1220が点線で表示される。   In step S503, the CPU 201 receives from the user designation of a zone to be subjected to OCR / OMR processing on the base paper image displayed on the display unit 1110 on the form definition screen 1100. The zone is designated by the user using the mouse 207 or the like on the base paper image displayed on the display unit 1110. When the user designates a zone on the screen, for example, as shown in FIG. 16A, designated zones 1209 to 1220 are displayed by dotted lines.

CPU201は、指定されたゾーンの位置をタイミングマーク1901に基づいて特定し、ゾーン位置情報(X軸座標、Y軸座標)としてRAM202に一時保存する。ゾーン位置情報については、後述するステップS515で図12(c)に示すゾーン定義テーブルtb03に保存される。ゾーン定義テーブルtb03は、DB101に保存(登録)されるテーブル情報である。なお、タイミングマーク1901からの相対位置でゾーン位置情報の保存を行うことにより、スキャンニング処理時の補正処理が可能となる。   The CPU 201 specifies the position of the designated zone based on the timing mark 1901 and temporarily stores it in the RAM 202 as zone position information (X-axis coordinates, Y-axis coordinates). The zone position information is stored in the zone definition table tb03 shown in FIG. 12C in step S515 described later. The zone definition table tb03 is table information stored (registered) in the DB 101. Note that the zone position information is stored at the relative position from the timing mark 1901, so that the correction process during the scanning process can be performed.

次に、ステップS504では、CPU201は、フォーム定義画面1100上でユーザにより指定されたゾーンに対するゾーン名称設定欄1201、ゾーン読み取り属性設定欄1202、重ね合わせ設定欄1203、リスト表示設定欄1204、及びリスト内容設定欄1205への入力(または設定)を受け付け、それらゾーン設定情報をRAM202に一時保存する。入力(または設定)された内容は、後述するステップS515で図12(c)に示すゾーン定義テーブルtb03に保存される。   Next, in step S504, the CPU 201 sets the zone name setting field 1201, the zone reading attribute setting field 1202, the overlay setting field 1203, the list display setting field 1204, and the list for the zone designated by the user on the form definition screen 1100. The input (or setting) to the content setting column 1205 is accepted, and the zone setting information is temporarily stored in the RAM 202. The input (or set) contents are stored in the zone definition table tb03 shown in FIG. 12C in step S515 described later.

ステップS505では、CPU201は、フォーム定義画面1100上の表示部1110に表示された原紙画像上でのゾーンの指定及びゾーン設定情報の設定がすべて終了したか否かを判定する。ここでは、フォーム定義画面1100上で完了ボタン1122が押下された場合、CPU201は、フォーム情報登録処理が終了したと判定して、本処理を終了する。キャンセルボタン1120が押下された場合、CPU201は、フォーム定義画面1100を閉じる。登録ボタン1121が押下されたときは、CPU201はゾーン設定が終了したと判定し、不図示の液晶ディスプレイ等に図15に示すフォーム定義画面1500を表示して、ステップS506へ進む。   In step S505, the CPU 201 determines whether or not all of the zone designation and zone setting information settings on the base paper image displayed on the display unit 1110 on the form definition screen 1100 have been completed. Here, when the completion button 1122 is pressed on the form definition screen 1100, the CPU 201 determines that the form information registration process has ended, and ends this process. When the cancel button 1120 is pressed, the CPU 201 closes the form definition screen 1100. When the registration button 1121 is pressed, the CPU 201 determines that the zone setting has been completed, displays the form definition screen 1500 shown in FIG. 15 on a liquid crystal display (not shown), etc., and proceeds to step S506.

図15において、フォーム定義画面1500には、フォームの原紙画像が表示される表示部1110と、グループID設定欄1400と、グループ名称設定欄1401と、グループ内ゾーン数設定欄1402と、最大選択可能数設定欄1403と、必須選択数設定欄1404と、キャンセルボタン1520と、登録ボタン1521と、完了ボタン1522とが配置されている。   In FIG. 15, the form definition screen 1500 has a display portion 1110 on which a base paper image of the form is displayed, a group ID setting field 1400, a group name setting field 1401, a zone number setting field 1402, and a maximum selection. A number setting field 1403, an essential selection number setting field 1404, a cancel button 1520, a registration button 1521, and a completion button 1522 are arranged.

ステップS506では、CPU201は、フォーム定義画面1500上の表示部1110に表示された原紙画像上で、ステップS503で指定された複数のゾーンをグループにまとめるための指定をユーザから受け付ける。これは、例えば、問診票等において複数の回答を有する問いに対応するためである。グループの指定については、表示部1110に表示された原紙画像上でユーザがマウス207等を利用して複数のゾーンを指定することでグループ指定を行う。例えば、図16(b)に示すように、設定されたグループ1_1406、2_1407が点線で表示される。   In step S506, the CPU 201 receives from the user a designation for grouping the plurality of zones designated in step S503 on the base paper image displayed on the display unit 1110 on the form definition screen 1500. This is because, for example, it corresponds to a question having a plurality of answers in an inquiry form or the like. Regarding the designation of the group, the user designates a plurality of zones on the base paper image displayed on the display unit 1110 by using the mouse 207 or the like. For example, as shown in FIG. 16B, the set groups 1_1406 and 2_1407 are displayed with dotted lines.

次に、CPU201は、グループ指定の有無を判定する(ステップS507)。ここでは、ユーザがフォーム定義画面1500上で複数のゾーンをグルーピングすることで、グループ指定の有無が判定される。グループ指定がなされていない場合は、ステップS511へ移行する一方、グループ指定がなされていた場合、CPU201は、グループ指定有りと判定して、ステップS508へ進む。   Next, the CPU 201 determines whether or not there is a group designation (step S507). Here, the user groups a plurality of zones on the form definition screen 1500 to determine whether or not a group is designated. If the group is not designated, the process proceeds to step S511. If the group is designated, the CPU 201 determines that the group is designated and proceeds to step S508.

ステップS508では、CPU201は、フォーム定義画面1500上でユーザにより指定されたグループに対するIDを入力するためのグループID設定欄1400、グループ名称を入力するためのグループ名称設定欄1401、グループ内ゾーン数設定欄1402、最大選択可能数設定欄1403、及び必須選択数設定欄1404への入力(または設定)を受け付け、それらグループ設定情報をRAM202に一時保存する。   In step S508, the CPU 201 sets a group ID setting field 1400 for inputting an ID for a group designated by the user on the form definition screen 1500, a group name setting field 1401 for inputting a group name, and setting the number of zones in the group. The input (or setting) to the column 1402, the maximum selectable number setting column 1403 and the essential selection number setting column 1404 is accepted, and the group setting information is temporarily stored in the RAM 202.

グループID設定欄1400では、ユーザが原紙画像上に指定したグループの識別情報として、任意のIDを入力することができる。なお、グループID設定欄1400にIDが入力されなかった場合には、CPU201により自動的にグループIDが付与される。グループ名称設定欄1401では、ユーザが指定したグループに対する任意の名称を入力することができる。   In the group ID setting field 1400, an arbitrary ID can be input as the identification information of the group designated on the base paper image by the user. When no ID is input in the group ID setting field 1400, the CPU 201 automatically assigns a group ID. In the group name setting field 1401, an arbitrary name for the group designated by the user can be input.

グループ内ゾーン数設定欄1402では、1グループ内のゾーン数が表示される。なお、CPU201がグループ内のゾーン数を検出して、当該グループのグループ内ゾーン数設定欄1402にその値を表示するように構成しても、ユーザ自身が入力するように構成してもよい。最大選択可能数設定欄1403では、グループ内の最大選択可能項目数(ユーザが選択(マーク)できる個数)を入力することができる。例えば、図19に示す問診票で「複数回答可、最大3つまで」と設定されていた場合、最大選択可能数設定欄1403には「3」と入力される。必須選択数設定欄1404では、グループ内で必ず選択(マーク)される項目数が入力される。例えば、複数の回答の中からいずれか1つを選択する問いに対しては、「1」と入力される。最大選択可能数設定欄1403及び必須選択数設定欄1404における値(最大選択可能数と必須選択数)は、後述するステップS509の設定情報の整合性チェック(整合性判定)における基準値として使用される。   In the in-group zone number setting column 1402, the number of zones in one group is displayed. The CPU 201 may be configured to detect the number of zones in the group and display the value in the in-group zone number setting field 1402 of the group, or may be configured to be input by the user himself / herself. In the maximum selectable number setting column 1403, the maximum number of selectable items in the group (the number that can be selected (marked) by the user) can be input. For example, if “multiple answers allowed, up to 3” is set in the questionnaire shown in FIG. 19, “3” is entered in the maximum selectable number setting column 1403. In the required selection number setting field 1404, the number of items that are necessarily selected (marked) in the group is input. For example, “1” is input to a question that selects any one of a plurality of answers. The values (maximum selectable number and required selection number) in the maximum selectable number setting field 1403 and the required selection number setting field 1404 are used as reference values in setting information consistency check (consistency determination) in step S509 described later. The

なお、フォーム定義画面1500上でグループID設定欄1400〜必須選択数設定欄1404への入力が行われなかった場合は、図12(b)に示すグループ定義テーブルtb02には何の値も保存されない。グループ定義テーブルtb02に値が保存されない場合は、後述する図7のステップS712でグループ設定無しと判定される。   If no input is made to the group ID setting field 1400 to the required selection number setting field 1404 on the form definition screen 1500, no value is stored in the group definition table tb02 shown in FIG. . If no value is stored in the group definition table tb02, it is determined that there is no group setting in step S712 in FIG.

次に、ステップS509では、CPU201は、ステップS508で受け付けたグループ設定情報の整合性をチェック(判定)する。具体的には、CPU201は、最大選択可能数設定欄1403に入力された値がグループ内ゾーン数設定欄1402に入力された値以下であるか否かを判定し、また、必須選択数設定欄1404に入力された値がグループ内ゾーン数設定欄1402に入力された値以下で、且つ最大選択可能数設定欄1403に入力された値以下であるかのチェックを行う。その結果、整合性がないと判定した場合(NG)は、エラー内容を表示した後、ステップS508に戻る一方、整合性がある場合(OK)は、ステップS510へ移行する。   Next, in step S509, the CPU 201 checks (determines) the consistency of the group setting information received in step S508. Specifically, the CPU 201 determines whether or not the value input in the maximum selectable number setting column 1403 is equal to or less than the value input in the in-group zone number setting column 1402, and the required selection number setting column It is checked whether the value entered in 1404 is less than or equal to the value entered in the in-group zone number setting field 1402 and less than or equal to the value entered in the maximum selectable number setting field 1403. As a result, if it is determined that there is no consistency (NG), the error content is displayed and then the process returns to step S508. If there is consistency (OK), the process proceeds to step S510.

ステップS510では、フォーム定義画面1500上の表示部1110に表示された原紙画像上でのグループの指定及びグループ設定情報の設定がすべて終了したか否かを判定する。ここでは、フォーム定義画面1500上で登録ボタン1521または完了ボタン1522が押下された場合、ステップS511へ移行する。キャンセルボタン1520が押下された場合、CPU201は、フォーム定義画面1100を閉じる。   In step S510, it is determined whether or not all group designation and group setting information settings on the base paper image displayed on the display unit 1110 on the form definition screen 1500 have been completed. Here, when the registration button 1521 or the completion button 1522 is pressed on the form definition screen 1500, the process proceeds to step S511. When a cancel button 1520 is pressed, the CPU 201 closes the form definition screen 1100.

ステップS511では、CPU201は、フォームの原紙画像とフォーム定義画面1100,1500上で入力(または設定)された値及びRAM202に一時保存された値を、フォーム定義情報としてDB101に保存(登録)して、本処理を終了する。なお、フォーム定義情報は、図12(a)に示すフォーム定義テーブルtb01、図12(b)に示すグループ定義テーブルtb02、図12(c)に示すゾーン定義テーブルtb03、及び図12(d)に示すリスト定義テーブルtb04を含むものとする。   In step S511, the CPU 201 stores (registers) the form base paper image, the value input (or set) on the form definition screens 1100 and 1500 and the value temporarily stored in the RAM 202 in the DB 101 as form definition information. This process is terminated. The form definition information is stored in the form definition table tb01 shown in FIG. 12A, the group definition table tb02 shown in FIG. 12B, the zone definition table tb03 shown in FIG. 12C, and FIG. It is assumed that a list definition table tb04 shown is included.

次に、認識対象の画像に対するフォーム認識処理について説明する。   Next, a form recognition process for an image to be recognized will be described.

図6は、図4のステップS401におけるフォーム認識処理の詳細を示すフローチャートである。本処理は、HDD208や記憶媒体ドライブ209から読み出されたプログラムに基づいてCPU201により実行される処理である。なお、図20に示すような、スキャナ300で読み取られた認識対象の画像が記憶媒体ドライブ209(またはHDD208)に画像データとして記憶されているものとする。   FIG. 6 is a flowchart showing details of the form recognition process in step S401 of FIG. This process is a process executed by the CPU 201 based on a program read from the HDD 208 or the storage medium drive 209. It is assumed that an image to be recognized read by the scanner 300 as shown in FIG. 20 is stored as image data in the storage medium drive 209 (or HDD 208).

まず、ステップS601では、CPU201は、認識対象の画像を記憶媒体ドライブ209から取得すると共に、DB101からフォームの原紙画像(フォームイメージデータ)を取得する。   First, in step S <b> 601, the CPU 201 acquires a recognition target image from the storage medium drive 209 and acquires a form base paper image (form image data) from the DB 101.

次に、ステップS602、S603では、CPU201は、取得した認識対象の画像とフォームイメージデータとのマッチング(比較)を行い、認識対象の画像と一致するフォームイメージデータの有無をチェックする。一致するフォームイメージデータが存在しない場合、フォーム認識エラー処理(ステップS605)を実施した後に、本処理を終了する。   Next, in steps S <b> 602 and S <b> 603, the CPU 201 performs matching (comparison) between the acquired recognition target image and form image data, and checks whether there is form image data that matches the recognition target image. If there is no matching form image data, the form recognition error process (step S605) is performed, and then this process ends.

一方、ステップS603において、認識対象の画像と一致するフォームイメージデータが存在する場合は、CPU201は、複数の認識パターン(OCRやOMRの設定を行った文字認識等をする際のテンプレート)の中から一致したフォームイメージデータの認識パターンを決定する(ステップS604)。認識パターンとは、上述したフォーム情報登録処理でDB101に保存(登録)されたフォーム定義情報であって、図12(a)に示すフォーム定義テーブルtb01〜図12(d)に示すリスト定義テーブルtb04の情報である。フォームイメージデータと認識パターンとは1対1で対応するものである。そのため、認識対象の画像と一致するフォームイメージデータが存在すれば、自動的に認識パターンも決定する。   On the other hand, if there is form image data that matches the image to be recognized in step S603, the CPU 201 selects from a plurality of recognition patterns (templates for performing character recognition or the like with OCR or OMR settings). A recognition pattern of the matched form image data is determined (step S604). The recognition pattern is the form definition information stored (registered) in the DB 101 in the above-described form information registration process, and includes the form definition table tb01 shown in FIG. 12A to the list definition table tb04 shown in FIG. Information. The form image data and the recognition pattern have a one-to-one correspondence. Therefore, if there is form image data that matches the image to be recognized, the recognition pattern is automatically determined.

ステップS603では、認識対象の画像が、予め指定された保存先(例えば、HDD208内の一時保存領域)に保存される。また、認識対象の画像と一致するフォームイメージの認識パターンがRAM202上に保持される。RAM202に保持された認識パターンが、後述する認識結果表示処理の際に使用される。   In step S603, the recognition target image is stored in a storage location designated in advance (for example, a temporary storage area in the HDD 208). In addition, a recognition pattern of the form image that matches the image to be recognized is held on the RAM 202. The recognition pattern held in the RAM 202 is used in the recognition result display process described later.

なお、上述したフォーム認識処理については、既存の一般的な技術を使用して実現することが可能である。このフォーム認識処理は、例えば、取得したフォームイメージデータと認識対象の画像からそれぞれ罫線を抽出し、罫線間の位置関係をフォームの特徴とみなし、該フォームイメージデータと認識対象の画像の罫線構造を照合してフォームを識別する。そして、そのフォームに対応して認識パターンを用いて後述の認識処理が行われる。   The form recognition process described above can be realized by using an existing general technique. In this form recognition processing, for example, ruled lines are extracted from the acquired form image data and the recognition target image, the positional relationship between the ruled lines is regarded as a feature of the form, and the ruled line structure of the form image data and the recognition target image is determined. Match forms to identify them. Then, recognition processing described later is performed using the recognition pattern corresponding to the form.

図7は、図4のステップS402における認識処理の詳細を示すフローチャートである。本処理は、HDD208や記憶媒体ドライブ209から読み出されたプログラムに基づいてCPU201により実行される処理である。   FIG. 7 is a flowchart showing details of the recognition processing in step S402 of FIG. This process is a process executed by the CPU 201 based on a program read from the HDD 208 or the storage medium drive 209.

図7において、ステップS701では、CPU201は、上記フォーム認識処理にて決定された認識パターンに基づき、OCR/OMR対象ゾーンの抽出を行う。このOCR/OMR対象ゾーンの抽出は、認識パターンからゾーン位置情報(ゾーン定義テーブルtb03のゾーン位置情報(X軸)1312、ゾーン位置情報(Y軸)1313にそれぞれ保存された値)とゾーンサイズ(ゾーン定義テーブルtb03のゾーンサイズ(幅)1314、ゾーンサイズ(高さ)1315にそれぞれ保存された値)とタイミングマーク位置情報(フォーム定義テーブルtb01のタイミングマーク位置情報(X軸)1302、タイミングマーク位置情報(Y軸)1303にそれぞれ保存された値)を取得し、認識対象の画像から認識対象領域の画像を特定して、画像を取得する。   In FIG. 7, in step S701, the CPU 201 extracts an OCR / OMR target zone based on the recognition pattern determined in the form recognition process. The extraction of the OCR / OMR target zone is performed by extracting zone position information (values stored in the zone position information (X axis) 1312 and zone position information (Y axis) 1313 of the zone definition table tb03) from the recognition pattern and the zone size ( Values stored in the zone size (width) 1314 and zone size (height) 1315 of the zone definition table tb03 and timing mark position information (timing mark position information (X axis) 1302 of the form definition table tb01), timing mark position Information (values stored in the Y-axis) 1303), the image of the recognition target area is specified from the recognition target image, and the image is acquired.

次に、CPU201は、RAM202上に設定されたエラーフラグに「1」をセット(ステップS702)した後、認識パターンからゾーン読み取り属性(ゾーン定義テーブルtb03のゾーン読み取り属性1311の値)を取得し、OCRかOMRかを判定する(ステップS703)。エラーフラグとは、OCR処理又はOMR処理した結果が事前に定義された内容に基づき、妥当か否かを判定するためのフラグであり、エラーフラグが「1」であれば、認識結果を表示する際にエラーと表示させる。ステップS703の判定の結果、ゾーン読み取り属性がOCRであればステップS706へ移行し、OMRであればステップS704へ移行する。   Next, the CPU 201 sets “1” to the error flag set on the RAM 202 (step S702), and then acquires the zone reading attribute (the value of the zone reading attribute 1311 of the zone definition table tb03) from the recognition pattern, It is determined whether it is OCR or OMR (step S703). The error flag is a flag for determining whether or not the result of the OCR process or the OMR process is valid based on the contents defined in advance. If the error flag is “1”, the recognition result is displayed. When an error is displayed. As a result of the determination in step S703, if the zone reading attribute is OCR, the process proceeds to step S706, and if it is OMR, the process proceeds to step S704.

ステップS704では、CPU201は、ステップS701で抽出したOMR対象ゾーンに対してOMR処理を行い、該ゾーン内にマーク(チェックマーク)があるか否かを判定する。マークがあると判定した場合、認識結果としてマーク有のフラグをRAM202に一時保存する一方、マークがないと判定した場合、認識結果としてマーク無のフラグをRAM202に一時保存する。   In step S704, the CPU 201 performs OMR processing on the OMR target zone extracted in step S701, and determines whether or not there is a mark (check mark) in the zone. When it is determined that there is a mark, a flag with a mark is temporarily stored in the RAM 202 as a recognition result. On the other hand, when it is determined that there is no mark, a flag with no mark is temporarily stored in the RAM 202 as a recognition result.

ステップS706では、CPU201は、ステップS701で抽出したOCR対象ゾーンに対してOCR処理を行い、該ゾーン内に存在する文字列をOCR結果として取得してRAM202に一時保存する。ステップS708では、CPU201は、取得した認識結果の妥当性チェックを行う。この妥当性チェックは、数値項目に数値以外の認識結果が含まれていないか、アルファベット項目に、アルファベット以外の認識結果が含まれていないかのチェックを行うものとする。つまり、ゾーン読み取り属性がOCRの場合には、取得する結果の記号属性(例えば、数値、アルファベット、カナ等)についてもRAM202に保存される。なお、この属性については、図5のフォーム情報登録処理におけるゾーン設定の際に定義されるものとする。   In step S706, the CPU 201 performs OCR processing on the OCR target zone extracted in step S701, acquires a character string existing in the zone as an OCR result, and temporarily stores it in the RAM 202. In step S708, the CPU 201 checks the validity of the acquired recognition result. In this validity check, it is assumed that a numerical item does not include a recognition result other than a numerical value, and an alphabet item includes a recognition result other than an alphabet. That is, when the zone reading attribute is OCR, the symbol attribute (for example, numerical value, alphabet, kana, etc.) as a result to be acquired is also stored in the RAM 202. This attribute is defined when the zone is set in the form information registration process of FIG.

ステップS708の妥当性チェックの結果、OKの場合には、CPU201は、エラーフラグに「0」をセットすると共に、図13(e)に示す認識結果テーブルtb05内の整合性チェック結果1322に正常を示す「0」をセットする。   If the result of the validity check in step S708 is OK, the CPU 201 sets “0” in the error flag and sets the consistency check result 1322 in the recognition result table tb05 shown in FIG. “0” is set.

ステップS710では、CPU201は、OMR処理またはOCR処理にて得られた認識結果を認識結果テーブルtb05内の認識結果1321に保存する。なお、OMR結果については、フラグを用いてマークの有無を保存してもよい。次に、ステップS711では、CPU201は、認識パターンに基づき、すべてのOCR/OMR対象ゾーンに対してOMR/OMR処理が完了したか否かを判定する。この判定の結果、すべてのOCR/OMR対象ゾーンに対するOMR/OCR処理が終了したときは、ステップS717に進む。   In step S710, the CPU 201 stores the recognition result obtained by the OMR process or the OCR process in the recognition result 1321 in the recognition result table tb05. In addition, about the OMR result, you may preserve | save the presence or absence of a mark using a flag. Next, in step S711, the CPU 201 determines whether or not the OMR / OMR processing has been completed for all the OCR / OMR target zones based on the recognition pattern. As a result of the determination, when the OMR / OCR processing for all the OCR / OMR target zones is completed, the process proceeds to step S717.

ステップS717では、CPU201は、読み取り属性がOMRのゾーンの認識結果を認識結果テーブルtb05から読み込む。つづいて、ステップS712では、CPU201は、認識パターン内のグループ設定情報の有無を判定する。ここでは、グループ定義テーブルtb02に値が保存されているか否かが判定される。この判定の結果、グループ定義テーブルtb02に値が保存されている場合、グループ内の各ゾーンのOMR処理結果を取得(ステップS713)した後、グループ設定情報内の最大選択可能数と必要選択数に基づいて、該OMR処理結果の整合性をチェック(判定)する(ステップS714)。具体的には、CPU201は、グループ内のゾーンの認識結果1321がチェック有となっているゾーン数を算出し、グループ設定情報を元に、OMR処理認識結果(チェック有となっているゾーン数)が最大選択可能数以下か、必須選択数以上かのチェックを実施する。その結果、整合性があると判定した場合(OK)は、エラーフラグに「0」セットする(ステップS715)。   In step S717, the CPU 201 reads the recognition result of the zone whose read attribute is OMR from the recognition result table tb05. In step S712, the CPU 201 determines whether there is group setting information in the recognition pattern. Here, it is determined whether or not a value is stored in the group definition table tb02. If the value is stored in the group definition table tb02 as a result of this determination, after obtaining the OMR processing result of each zone in the group (step S713), the maximum selectable number and the necessary selection number in the group setting information are obtained. Based on this, the consistency of the OMR processing result is checked (determined) (step S714). Specifically, the CPU 201 calculates the number of zones in which the recognition result 1321 of the zone in the group is checked, and based on the group setting information, the OMR process recognition result (the number of zones that are checked). Check if is less than the maximum selectable number or more than the required number. As a result, if it is determined that there is consistency (OK), the error flag is set to “0” (step S715).

ステップS716では、CPU201は、RAM202に一時保存された整合性チェック結果を認識結果テーブルtb05に保存する。グループ設定情報が複数ある場合は、グループ設定情報の数分ステップS712〜S716を繰り返し実施する。   In step S716, the CPU 201 stores the consistency check result temporarily stored in the RAM 202 in the recognition result table tb05. If there is a plurality of group setting information, steps S712 to S716 are repeated for the number of group setting information.

なお、グループ指定された場合は、グループ定義テーブルtb02にデータが保存されている。また、ステップS712でグループ設定情報で有の場合は(ステップS712でYES)、ゾーン読み取り属性が「OMR」のときであり、「OCR」のときはグループ設定情報は無しとなっている。また、上述したOCR/OMR処理については、既存の一般的な技術を使用して実施できるものとする。   If a group is designated, data is stored in the group definition table tb02. If the group setting information is present in step S712 (YES in step S712), the zone reading attribute is “OMR”, and if it is “OCR”, there is no group setting information. In addition, the above-described OCR / OMR processing can be performed using an existing general technique.

図8a及び図8bは、図4のステップS403における認識結果表示処理の詳細を示すフローチャートである。本処理は、HDD208や記憶媒体ドライブ209から読み出されたプログラムに基づいてCPU201により実行される処理である。   8a and 8b are flowcharts showing details of the recognition result display process in step S403 of FIG. This process is a process executed by the CPU 201 based on a program read from the HDD 208 or the storage medium drive 209.

まず、ステップS801では、CPU201は、図12(c)に示すゾーン定義テーブルtb03に保存されたゾーンID1309〜リスト表示有無1318の値を先頭(例えばゾーンIDの小さい方)から順に参照する。次に、ステップS802では、CPU201は、参照したゾーン定義テーブルtb03のリスト表示有無1318の値(ONまたはOFF)を判定する。この判定の結果、リスト表示有無1318の値が「ON」の場合、CPU201は、リスト定義テーブルtb04の内容に従い、リストボックスの設定を行う(ステップS804)。一方、ステップS802でリスト表示有無1318の値が「OFF」の場合、CPU201は、テキストボックスの設定を行う(ステップS804)。   First, in step S801, the CPU 201 refers to the values of the zone ID 1309 to the list display presence / absence 1318 stored in the zone definition table tb03 shown in FIG. 12C in order from the top (for example, the smaller zone ID). Next, in step S802, the CPU 201 determines the value (ON or OFF) of the list display presence / absence 1318 of the referenced zone definition table tb03. As a result of the determination, if the value of the list display presence / absence 1318 is “ON”, the CPU 201 sets the list box according to the contents of the list definition table tb04 (step S804). On the other hand, if the value of the list display presence / absence 1318 is “OFF” in step S802, the CPU 201 sets a text box (step S804).

以上の処理を、ゾーン定義テーブルtb03内の先頭列から最終列まで繰り返し行う(ステップS805)。これにより、例えば、図14に示す表示部1110上の範囲1207におけるゾーンのゾーン読み取り属性1311にOCR設定がされていた場合、該ゾーンの認識結果がテキストボックス形式に表示される。一方、表示部1110上の範囲1420におけるゾーンのゾーン読み取り属性1311にOMR設定がされていた場合、該ゾーンの認識結果がリストボックス形式に表示される。   The above processing is repeated from the first column to the last column in the zone definition table tb03 (step S805). Thereby, for example, when the OCR is set in the zone reading attribute 1311 of the zone in the range 1207 on the display unit 1110 shown in FIG. 14, the recognition result of the zone is displayed in the text box format. On the other hand, if the zone reading attribute 1311 of the zone in the range 1420 on the display unit 1110 is set to OMR, the recognition result of the zone is displayed in a list box format.

次に、ステップS806では、CPU201は、図13(e)に示す認識結果テーブルtb05に保存されたフォームID1300〜修正フラグ1323の値を先頭(例えばフォームIDの小さい方)から順に参照する。次に、ステップS807では、CPU201は、認識結果テーブルtb05の認識結果1321が空かどうかを判定する。この判定の結果、認識結果1321になにも保存されておらず、空の場合(ステップS807でYES)、認識結果として表示するものがないので、認識結果テーブルtb05内の次の列(ゾーン)に移動する(ステップS811)。   Next, in step S806, the CPU 201 refers to the values of the form ID 1300 to the correction flag 1323 stored in the recognition result table tb05 shown in FIG. 13E in order from the top (for example, the smaller form ID). Next, in step S807, the CPU 201 determines whether or not the recognition result 1321 of the recognition result table tb05 is empty. If nothing is stored in the recognition result 1321 as a result of this determination and it is empty (YES in step S807), there is nothing to display as the recognition result, so the next column (zone) in the recognition result table tb05 (Step S811).

一方、ステップS807において、認識結果1321が空でない場合(ステップS807でNO)、RAM202に設定されたエラーフラグの値、すなわち認識結果テーブルtb05の整合性チェック結果1322の値を判定する(ステップS808)。この判定の結果、整合性チェック結果1322の値が「0」の場合、該当するリストボックスもしくはテキストボックスに認識結果を表示する(ステップS809)。ここで表示される認識結果は、認識結果テーブルtb05の認識結果1321から取得される。テキストボックスとは、ゾーン定義テーブルtb03のリスト表示有無1318の値が「OFF」の場合に、認識結果テーブルtb05の認識結果1321の値を入れるボックスを意味し、訂正処理画面の表示イメージの対応箇所(ゾーン定義テーブルtb03のゾーン位置情報及びサイズに応じた場所)に紐付いている。   On the other hand, if the recognition result 1321 is not empty in step S807 (NO in step S807), the value of the error flag set in the RAM 202, that is, the value of the consistency check result 1322 of the recognition result table tb05 is determined (step S808). . If the value of the consistency check result 1322 is “0” as a result of this determination, the recognition result is displayed in the corresponding list box or text box (step S809). The recognition result displayed here is acquired from the recognition result 1321 of the recognition result table tb05. The text box means a box for storing the value of the recognition result 1321 of the recognition result table tb05 when the value of the list display presence / absence 1318 of the zone definition table tb03 is “OFF”. (Location according to zone position information and size in the zone definition table tb03).

ステップS808において、整合性チェック結果1322の値が「1」の場合、認識結果エラーを表示する(ステップS810)。ここで表示される認識結果エラーについては、例えば、予め定められたエラーを示す文字列が表示される。   If the value of the consistency check result 1322 is “1” in step S808, a recognition result error is displayed (step S810). For the recognition result error displayed here, for example, a character string indicating a predetermined error is displayed.

以上の処理を、認識結果テーブルtb05内の先頭列から最終列まで繰り返し行う(ステップS811)。   The above process is repeated from the first column to the last column in the recognition result table tb05 (step S811).

図8bにおいて、ステップS812では、CPU201は、ゾーン定義テーブルtb03の重ね合せ有無1316の値を全列検索し、重ね合せ「ON」の数を判定する。この判定の結果、重ね合せ「ON」の数が「0」の場合(つまり、重ね合わせ設定なし)、フォーム認識処理で保存した認識対象の画像を表示し(ステップS813)、本処理を終了する。   In FIG. 8B, in step S812, the CPU 201 searches all columns for the value of the overlap presence / absence 1316 in the zone definition table tb03, and determines the number of overlap “ON”. If the result of this determination is that the number of overlays “ON” is “0” (that is, there is no overlay setting), the recognition target image saved in the form recognition process is displayed (step S813), and this process ends. .

ステップS812において、重ね合せ「ON」の数が「1以上」の場合、CPU201は、フォーム定義テーブルtb01のタイミングマーク位置座標(X軸)1302及びタイミングマーク位置情報(Y軸)1303からタイミングマーク位置情報を取得する(ステップS814)。つづいて、ステップS815、S816では、予め定義されている認識結果描画オフセット値及び認識結果描画フォント情報を取得する。ここでいう認識結果描画オフセット値とは、認識結果を描画する開始位置を算出するための値である。ゾーン定義テーブルtb03のゾーン位置情報(X軸)1312及びゾーン位置情報(Y軸)1313に指定されたオフセット値を加算した結果を、実際に認識結果を描画する開始位置とする。また、フォント情報とは、認識結果テキストを描画する際に使用する文字フォントである。   If the number of overlays “ON” is “1 or more” in step S812, the CPU 201 determines the timing mark position from the timing mark position coordinates (X axis) 1302 and the timing mark position information (Y axis) 1303 of the form definition table tb01. Information is acquired (step S814). Subsequently, in steps S815 and S816, a recognition result drawing offset value and recognition result drawing font information defined in advance are acquired. The recognition result drawing offset value here is a value for calculating the start position for drawing the recognition result. The result of adding the offset values specified in the zone position information (X axis) 1312 and the zone position information (Y axis) 1313 of the zone definition table tb03 is set as a start position for actually drawing the recognition result. The font information is a character font used when drawing the recognition result text.

次に、ステップS817では、CPU201は、ゾーン定義テーブルtb03に保存されたゾーンID1309〜リスト表示有無1318の値を先頭(例えばゾーンIDの小さい方)から順に参照する。次に、ステップS818では、CPU201は、参照したゾーン定義テーブルtb03の重ね合せ有無1316の値(ON又はOFF)を判定する。この判定の結果、重ね合わせ有無1316の値が「OFF」の場合、ゾーン定義テーブルtb03内の次の列(ゾーン)に移動し、ステップS817以降の処理が繰り返される。   Next, in step S817, the CPU 201 refers to the values of the zone ID 1309 to the list display presence / absence 1318 stored in the zone definition table tb03 in order from the top (for example, the smaller zone ID). Next, in step S818, the CPU 201 determines the value (ON or OFF) of the overlapping presence / absence 1316 of the referenced zone definition table tb03. As a result of this determination, if the value of overlay presence / absence 1316 is “OFF”, the process moves to the next column (zone) in the zone definition table tb03, and the processing from step S817 onward is repeated.

一方、ステップS818において、重ね合わせ有無1316の値が「ON」の場合、CPU201は、ゾーン定義テーブルtb03からゾーン位置情報(X軸、Y軸)1312,1313、ゾーンサイズ(幅)1314、ゾーンサイズ(高さ)1315の値を取得する(ステップS819)。つづいて、CPU201は、取得したゾーン位置情報(X軸、Y軸)にステップS815で取得したオフセット値を加算する(ステップS820)。このオフセット値は、ゾーン読み取り属性1311の値が「OCR」の場合にのみ適用される。   On the other hand, if the value of the overlay presence / absence 1316 is “ON” in step S818, the CPU 201 reads zone position information (X axis, Y axis) 1312 and 1313, zone size (width) 1314, zone size from the zone definition table tb03. The value of (height) 1315 is acquired (step S819). Subsequently, the CPU 201 adds the offset value acquired in step S815 to the acquired zone position information (X axis, Y axis) (step S820). This offset value is applied only when the value of the zone reading attribute 1311 is “OCR”.

次に、ステップS821では、CPU201は、ゾーン定義テーブルtb03のゾーン読み取り属性1311の値を判定する。この判定の結果、ゾーン読み取り属性1311の値が「OMR」の場合、認識結果テーブルtb05の整合性チェック結果1322の値を判定し(ステップS822)、原本イメージ(認識対象となる画像(ユーザが記入した紙文書の画像))へ認識結果を描画する(ステップS823又はステップS824)。原本イメージへの認識結果の描画例として、図17におけるグループ1406,1407の拡大図を図18(b)に示す。   Next, in step S821, the CPU 201 determines the value of the zone read attribute 1311 of the zone definition table tb03. If the value of the zone reading attribute 1311 is “OMR” as a result of this determination, the value of the consistency check result 1322 of the recognition result table tb05 is determined (step S822), and the original image (the image to be recognized (entered by the user) The recognition result is drawn on the image of the paper document)) (step S823 or step S824). FIG. 18B shows an enlarged view of the groups 1406 and 1407 in FIG. 17 as an example of drawing the recognition result on the original image.

ステップS822の判定の結果、整合性チェック結果1322の値が「0」(OK)の場合、CPU201は、OMR処理で認識されたゾーンと同じサイズの矩形(オブジェクト)を予めユーザにより設定された正常色で生成し、認識結果として、原本イメージ(認識対象となる画像)上の当該ゾーンに対応する位置に矩形(オブジェクト)を重ね合わせて描画する(ステップS823)。図18(b)のゾーン1209に描画例を示す。なお、図示例では、正常色として右下がり斜線で記載されている。生成された矩形(オブジェクト)に対して透過設定が行われる。透過設定が行われることによって、矩形を重ねた際に後ろの原本イメージで実際にチェックした内容が確認できるようになる。特に、OMR処理時にノイズを拾って誤認識をしてしまったような場合、オペレータが誤認識を容易に把握することが可能となる。   If the value of the consistency check result 1322 is “0” (OK) as a result of the determination in step S822, the CPU 201 sets a rectangle (object) having the same size as the zone recognized by the OMR processing in advance by the user. A color is generated, and as a recognition result, a rectangle (object) is superimposed and drawn at a position corresponding to the zone on the original image (image to be recognized) (step S823). A drawing example is shown in a zone 1209 in FIG. In the illustrated example, a normal color is indicated by a downward sloping diagonal line. Transparency is set for the generated rectangle (object). By setting the transparency, it is possible to confirm the contents actually checked in the original image after the rectangle is overlapped. In particular, when a noise is picked up and misrecognized during OMR processing, the operator can easily grasp the misrecognition.

また、ステップS823では、図17のグループ1703(CCCグループ)の場合、図18(c)に示すように、グループ1703内のゾーン1513,1514,1515それぞれに正常色の矩形(オブジェクト)を重ね合わせて描画される。   In step S823, in the case of the group 1703 (CCC group) in FIG. 17, normal color rectangles (objects) are superimposed on the zones 1513, 1514, and 1515 in the group 1703 as shown in FIG. 18C. Drawn.

また、ステップS823では、リスト定義テーブルtb04のリスト内容1320に保存されたリストが、例えば、認識結果訂正画面1700上のリストボックス1505(AAAグループ)で表示可能となる。なお、グループ化されているゾーンの認識結果をリストに表示させる場合、該ゾーンのリスト内容のすべてをリストボックスに表示させることが可能である。   In step S823, the list stored in the list content 1320 of the list definition table tb04 can be displayed, for example, in a list box 1505 (AAA group) on the recognition result correction screen 1700. When displaying the recognition results of the grouped zones in the list, it is possible to display all of the list contents of the zones in the list box.

一方、ステップS822において、整合性チェック結果1322の値が「1」(NG)の場合、CPU201は、OMR処理で認識されたゾーンと同じサイズの矩形(オブジェクト)を予めユーザにより設定された異常色で生成し、認識結果として、原本イメージ(認識対象となる画像)上の当該ゾーンに矩形(オブジェクト)を重ね合わせて描画する(ステップS824)。図18(b)のゾーン1214に描画例を示す。なお、図示例では、異常色として左下がり斜線で記載されている。生成された矩形(オブジェクト)に対しては、ステップS823と同様に、透過設定が行われる。これにより、オペレータが誤認識を容易に把握することが可能となる。   On the other hand, in step S822, when the value of the consistency check result 1322 is “1” (NG), the CPU 201 sets a rectangle (object) having the same size as the zone recognized by the OMR process to an abnormal color preset by the user. As a recognition result, a rectangle (object) is superimposed and drawn on the zone on the original image (image to be recognized) (step S824). A drawing example is shown in a zone 1214 in FIG. In the illustrated example, the abnormal color is indicated by a diagonally slanting left-down line. For the generated rectangle (object), transparency setting is performed as in step S823. This makes it possible for the operator to easily grasp misrecognition.

また、ステップS824において、例えば、図17のグループ1703(CCCグループ)でゾーンの選択数が最大可能選択数を越えていた場合、選択されたゾーンがすべて異常色で表示される。つまり、異常の場合には、CPU201は、生成する矩形(オブジェクト)の表示形式を正常の場合と異なるように変更して表示する。正常色と異常色は互いに異なる表示色とし、被視認性のよい色彩が好ましい。   In step S824, for example, if the number of zones selected in the group 1703 (CCC group) in FIG. 17 exceeds the maximum possible selection number, all the selected zones are displayed in abnormal colors. That is, in the case of abnormality, the CPU 201 changes the display format of the generated rectangle (object) so that it is different from the normal display format. The normal color and the abnormal color are different from each other, and a color with good visibility is preferable.

また、ステップS824では、リスト定義テーブルtb04のリスト内容1320に保存されたリストが、例えば、認識結果訂正画面1700上のリストボックス1506(BBBグループ)で表示可能となる。なお、整合性チェック結果1322の値が「1」の場合は、図17に示すように、リストボックス1506が異常色で表示される。   In step S824, the list stored in the list contents 1320 of the list definition table tb04 can be displayed in, for example, the list box 1506 (BBB group) on the recognition result correction screen 1700. When the value of the consistency check result 1322 is “1”, the list box 1506 is displayed in an abnormal color as shown in FIG.

矩形(オブジェクト)は、ゾーン定義テーブルtb03のゾーン読み取り属性1311の値が「OMR」であるゾーンの数だけ生成される。そのうち、認識結果1321が空でなかったものについては上述の色表示が行われる。なお、ゾーンと重ね合わせて描画される矩形(オブジェクト)については矩形でなくてもよく、円形のものを認識した場合は、その形状に合わせたオブジェクトを生成する構成であってもよい。また、矩形(オブジェクト)を描画する際には、矩形(オブジェクト)を原本イメージ(認識対象となる画像)上に配置する以外に、矩形(オブジェクト)を配置したイメージを生成し、この生成されたイメージと原本イメージ(認識対象となる画像)とを合成して描画させるようにしてもよい。   As many rectangles (objects) are generated as the number of zones in which the value of the zone read attribute 1311 of the zone definition table tb03 is “OMR”. Among them, the above-described color display is performed for those for which the recognition result 1321 is not empty. Note that a rectangle (object) drawn overlapping the zone does not have to be a rectangle, and when a circular object is recognized, an object that matches the shape may be generated. In addition, when drawing a rectangle (object), in addition to placing the rectangle (object) on the original image (image to be recognized), an image in which the rectangle (object) is arranged is generated, and this generated The image and the original image (the image to be recognized) may be combined and drawn.

ステップS821において、ゾーン読み取り属性1311の値が「OCR」の場合、認識結果テーブルtb05の整合性チェック結果1322の値を判定し(ステップS825)、図17に示す認識結果訂正画面1700ように、原本イメージへ認識結果を表示する(ステップS826又はステップS827)。原本イメージへの認識結果の表示例として、図17におけるゾーン1503,1504の拡大図を図18(a)に示す。   In step S821, when the value of the zone reading attribute 1311 is “OCR”, the value of the consistency check result 1322 of the recognition result table tb05 is determined (step S825), and the original is displayed as in the recognition result correction screen 1700 shown in FIG. The recognition result is displayed on the image (step S826 or step S827). FIG. 18A shows an enlarged view of zones 1503 and 1504 in FIG. 17 as a display example of the recognition result on the original image.

ステップS825の判定の結果、整合性チェック結果1322の値が「0」(OK)の場合、CPU201は、認識結果テーブルtb05の認識結果1321に保存されたOCRの認識結果(認識文字)を、原本イメージ上の当該ゾーンの近傍(近接)に正常色で表示する(ステップS826)。例えば、図18(a)に示すように、ゾーン1503の近傍に1510のように「12345」の認識文字が表示され、ゾーン1503が正常色で表示される。そして、図17に示す認識結果訂正画面1700上では、OCR対象とされたゾーンのゾーン名称(例えば、市町村コード、受診番号等)とテキストボックス1511,1512が表示され、それらのテキストボックスに認識結果が表示される。   As a result of the determination in step S825, when the value of the consistency check result 1322 is “0” (OK), the CPU 201 uses the original OCR recognition result (recognized character) stored in the recognition result 1321 of the recognition result table tb05. A normal color is displayed in the vicinity (proximity) of the zone on the image (step S826). For example, as shown in FIG. 18A, the recognized character “12345” is displayed in the vicinity of the zone 1503 as 1510, and the zone 1503 is displayed in a normal color. Then, on the recognition result correction screen 1700 shown in FIG. 17, zone names (for example, city codes, consultation numbers, etc.) of the zones targeted for OCR and text boxes 1511 and 1512 are displayed, and the recognition results are displayed in those text boxes. Is displayed.

一方、ステップS825において、整合性チェック結果1322の値が「1」の場合、CPU201は、OCR処理結果が認識エラーと識別できるように、原本イメージ上の当該ゾーンを異常色で表示する(ステップS827)。例えば、認識結果として文字列が取得できない場合、図18(a)のゾーン1504のように、認識結果の文字列が表示されない。   On the other hand, if the value of the consistency check result 1322 is “1” in step S825, the CPU 201 displays the zone on the original image in an abnormal color so that the OCR processing result can be identified as a recognition error (step S827). ). For example, when a character string cannot be acquired as a recognition result, the character string of the recognition result is not displayed as in the zone 1504 in FIG.

以上の処理を、ゾーン定義テーブルtb03内の先頭列から最終列まで繰り返し行い(ステップS828)、その後、本処理を終了する。なお、描画(または表示)する認識結果(矩形(オブジェクト)もしくはテキスト)の表示位置や形式については予めユーザが定義できるものとする。認識結果(矩形(オブジェクト)もしくはテキスト)のサイズについては、ゾーン定義テーブルtb03に保存されたゾーンサイズの幅や高さに基づいて自動的に設定される。   The above process is repeated from the first column to the last column in the zone definition table tb03 (step S828), and then this process ends. Note that the display position and format of the recognition result (rectangle (object) or text) to be drawn (or displayed) can be defined in advance by the user. The size of the recognition result (rectangle (object) or text) is automatically set based on the width and height of the zone size stored in the zone definition table tb03.

上記処理によって、OMRを用いてマークやチェックを判定するような箇所については、チェックがあるか否かを重ねて(認識した箇所に重ねて)イメージ上に表示させ、OCRを用いて文字列を取得するような箇所については、認識した箇所に文字列を重ねずに表示させる。つまり、認識方法によって表示を切り換える。   With respect to a part where a mark or a check is determined using OMR by the above processing, whether or not there is a check is superimposed (displayed on the recognized part) and displayed on the image, and a character string is displayed using OCR. The part to be acquired is displayed without overlapping the character string on the recognized part. That is, the display is switched depending on the recognition method.

このように、OCR処理する領域とOMR処理する領域によって表示方法を切り換えることができるので、認識結果の確認や訂正を行うオペレータがOCRやOMRの認識結果を容易に把握することができる。   As described above, since the display method can be switched depending on the OCR processing area and the OMR processing area, the operator who confirms or corrects the recognition result can easily grasp the recognition result of the OCR or OMR.

図9は、図4のステップS404における認識結果訂正処理の詳細を示すフローチャートである。   FIG. 9 is a flowchart showing details of the recognition result correction process in step S404 of FIG.

まず、ステップS901では、CPU201は、図17の認識結果訂正画面1700に表示されている認識結果を、RAM202又はHDD208上に設定された退避エリアにコピーする。退避エリアのテーブルレイアウトは、認識結果テーブルtb05と同じ形式とする。   First, in step S <b> 901, the CPU 201 copies the recognition result displayed on the recognition result correction screen 1700 of FIG. 17 to a save area set on the RAM 202 or HDD 208. The table layout of the save area has the same format as the recognition result table tb05.

認識結果の訂正については、認識結果訂正画面1700上で訂正が必要なリストボックスやテキストボックスを選択して認識結果の訂正を行う。例えば、図18(b)に示すグループ1407(グループBBB)では、「ほとんど毎日食べている」という項目がマークされているにもかかわらず、認識結果が図17のリストボックス1506のように「ほとんど食べていない」となっていた場合、ユーザは該リストボックス1506の「▽」をクリックしてグループBBBに設定されたリスト内容を表示させ、訂正項目(ここでは、「ほとんど毎日食べている」)を選択する。テキストボックスに表示された文字列について訂正が必要な場合は、テキストボックスに直接入力する。なお、テキストボックス1511はゾーン1503に対応し、テキストボックス1512はゾーン1504に対応して認識結果が表示される。訂正された場合は、退避エリアにコピーされた該当する認識結果が破棄される。   Regarding correction of the recognition result, a list box or text box that needs correction is selected on the recognition result correction screen 1700 to correct the recognition result. For example, in the group 1407 (group BBB) shown in FIG. 18B, the recognition result is “almost all” like the list box 1506 in FIG. If “not eaten”, the user clicks “▽” in the list box 1506 to display the list contents set in the group BBB, and the correction item (here, “eating almost every day”). Select. If correction is required for the character string displayed in the text box, enter it directly in the text box. The text box 1511 corresponds to the zone 1503, and the text box 1512 displays the recognition result corresponding to the zone 1504. If it is corrected, the corresponding recognition result copied to the save area is discarded.

ステップS902では、CPU201は、認識結果訂正画面1700上で認識結果が訂正されたか否かを判定する。この判定の結果、認識結果が訂正されたと判定した場合、後述する訂正処理(ステップS907)に移行する。   In step S902, the CPU 201 determines whether or not the recognition result has been corrected on the recognition result correction screen 1700. As a result of this determination, when it is determined that the recognition result is corrected, the process proceeds to a correction process (step S907) described later.

ステップS903では、CPU201は、認識結果訂正画面1700上でリセットボタン1507が押下されたかを判定する。リセットボタン1507が押下された場合、CPU201は、退避エリアにコピーされた内容をRAM202又はHDD208上に設定されたOCR認識結果エリアにコピーし、OCR認識結果エリアの内容に合わせて画面の再表示を行う(ステップS908)。   In step S903, the CPU 201 determines whether the reset button 1507 has been pressed on the recognition result correction screen 1700. When the reset button 1507 is pressed, the CPU 201 copies the contents copied to the save area to the OCR recognition result area set on the RAM 202 or the HDD 208, and redisplays the screen according to the contents of the OCR recognition result area. This is performed (step S908).

ステップS904では、CPU201は、キャンセルボタン1508が押下されたかを判定する。キャンセルボタン1508が押下された場合、CPU201は、OCR認識結果エリア、退避エリアの内容をクリアし、図4に示す帳票認識処理自体を終了する。   In step S904, the CPU 201 determines whether the cancel button 1508 has been pressed. When a cancel button 1508 is pressed, the CPU 201 clears the contents of the OCR recognition result area and the save area, and ends the form recognition process itself shown in FIG.

ステップS905では、CPU201は、完了ボタン1509が押下されたかを判定する。完了ボタン1509が押下された場合、CPU201は、本処理を終了する。   In step S905, the CPU 201 determines whether the completion button 1509 has been pressed. When the completion button 1509 is pressed, the CPU 201 ends this process.

図10は、図9のステップS907における訂正処理の詳細を示すフローチャートである。   FIG. 10 is a flowchart showing details of the correction processing in step S907 of FIG.

ステップS1001では、CPU201は、例えば、認識結果訂正画面1700における認識対象画像2000上のイメージ(例えば、ゾーン1209,1214等)が選択されたか否かを判定する。この判定の結果、選択された場合は、ステップS1002へ移行する一方、選択されていない場合は、ステップS1003へ処理が移る。   In step S1001, the CPU 201 determines, for example, whether an image (for example, the zone 1209, 1214, etc.) on the recognition target image 2000 on the recognition result correction screen 1700 has been selected. As a result of the determination, if selected, the process proceeds to step S1002, while if not selected, the process proceeds to step S1003.

ステップS1003では、CPU201は、認識結果訂正画面1700におけるテキストボックスでテキスト入力がされたか否かを判定する。この判定の結果、テキストボックスへの入力がされた場合、ステップS1007へ移行する一方、入力がされなかった場合は、ステップS1005へ処理が移る。   In step S <b> 1003, the CPU 201 determines whether or not a text has been input in the text box on the recognition result correction screen 1700. As a result of this determination, if there is an input to the text box, the process proceeds to step S1007. If no input is performed, the process proceeds to step S1005.

ステップS1005では、CPU201は、リストボックスが選択されて訂正がされたか否かを判定する。この判定の結果、訂正がされなかった場合は、本処理を終了する一方、訂正がされた場合は、ステップS1008へ処理が移る。   In step S1005, the CPU 201 determines whether the list box has been selected and corrected. If the result of this determination is that correction has not been made, the present process is terminated. If correction has been made, the process moves to step S1008.

ステップS1008では、CPU201は、選択されたリスト項目に該当する原本イメージへの表示位置の取得を行う。具体的には、選択されたリスト項目に該当するゾーンの表示位置情報をゾーン定義テーブルtb03内のゾーン位置情報(X軸)1312、ゾーン位置情報(Y軸)1313、ゾーンサイズ(幅)1314、ゾーン(高さ)1315から取得する。つづいて、取得したゾーンの表示位置情報に基づき、原本イメージへの訂正結果の描画(ステップS1011)を実施した後、訂正内容をRAM202に保存(ステップS1013)し、本処理を終了する。   In step S1008, the CPU 201 acquires a display position on the original image corresponding to the selected list item. Specifically, the display position information of the zone corresponding to the selected list item is converted into zone position information (X axis) 1312, zone position information (Y axis) 1313, zone size (width) 1314 in the zone definition table tb03, Obtained from the zone (height) 1315. Subsequently, after drawing the correction result on the original image (step S1011) based on the acquired display position information of the zone, the correction content is stored in the RAM 202 (step S1013), and this processing is terminated.

ステップS1007では、CPU201は、入力されたテキストのイメージ表示位置情報をゾーン定義テーブルtb03内のゾーン位置情報(X軸)1312、ゾーン位置情報(Y軸)1313、ゾーンサイズ(幅)1314、ゾーン(高さ)1315から取得する。つづいて、取得したゾーンの表示位置情報に基づき、テキスト入力内容を原本イメージに表示(ステップS1011)した後、訂正内容をRAM202に保存(ステップS1013)し、本処理を終了する。   In step S1007, the CPU 201 converts the image display position information of the input text into zone position information (X axis) 1312, zone position information (Y axis) 1313, zone size (width) 1314, zone ( Height) is obtained from 1315. Subsequently, based on the acquired display position information of the zone, the text input content is displayed on the original image (step S1011), then the correction content is stored in the RAM 202 (step S1013), and this processing is terminated.

ステップS1002では、CPU201は、選択されたイメージの表示位置情報をゾーン定義テーブルtb03内のゾーン位置情報(X軸)1312、ゾーン位置情報(Y軸)1313、ゾーンサイズ(幅)1314、ゾーン(高さ)1315から取得する。つづいて、CPU201は、複数のイメージ(グループ)が選択されたか否かを判定する(ステップS1004)。具体的には、CPU201は、先に取得したゾーン定義テーブルtb03のゾーンID1309から、グループ定義テーブルtb02内のグループ内ゾーン数1307、最大選択可能数1308、必須選択数1317を取得することで判定を行う。   In step S1002, the CPU 201 converts the display position information of the selected image into zone position information (X axis) 1312, zone position information (Y axis) 1313, zone size (width) 1314, zone (high) in the zone definition table tb03. C) Obtained from 1315. Subsequently, the CPU 201 determines whether or not a plurality of images (groups) have been selected (step S1004). Specifically, the CPU 201 obtains the determination by acquiring the zone number 1307, the maximum selectable number 1308, and the required selection number 1317 in the group definition table tb02 from the zone ID 1309 of the zone definition table tb03 acquired previously. Do.

ステップS1004の判定結果、複数のイメージが選択されていない場合は、ステップ1002で取得した情報を元に、原本イメージへの訂正結果の描画(ステップS1011)を実施した後、訂正内容をRAM202に保存(ステップS1013)し、本処理を終了する。   If a plurality of images are not selected as a result of the determination in step S1004, the correction result is drawn on the original image (step S1011) based on the information acquired in step 1002, and the correction content is stored in the RAM 202. (Step S1013) and the process is terminated.

一方、ステップS1004において複数のイメージが選択されていた場合は、CPU201は、訂正前の認識結果が選択されたか否かを判定する(ステップS1006)。この判定の結果、訂正前の認識結果が選択されていない場合、ステップS1007へ移行する一方、訂正前の認識結果が選択された場合は、選択された原本イメージの表示をクリア(ステップS1009)し、該当リスト項目の表示をクリア(ステップS1012)した後、訂正内容をRAM202に保存(ステップS1013)し、本処理を終了する。   On the other hand, when a plurality of images are selected in step S1004, the CPU 201 determines whether or not a recognition result before correction is selected (step S1006). As a result of the determination, if the recognition result before correction is not selected, the process proceeds to step S1007. On the other hand, if the recognition result before correction is selected, the display of the selected original image is cleared (step S1009). After clearing the display of the corresponding list item (step S1012), the correction contents are stored in the RAM 202 (step S1013), and this process is terminated.

ステップS1007では、CPU201は、訂正した内容が最大選択可能数以内か否かを判定する。この判定の結果が、訂正した内容が最大選択可能数以内である場合、原本イメージへの訂正結果の描画(ステップS1011)を実施した後、訂正内容をRAM202に保存(ステップS1013)し、本処理を終了する。原本イメージに訂正結果が描画される場合、表示されていたオブジェクトの表示を異常色から正常色に切り替える(表示切替)。一方、訂正した内容が最大選択可能数より大きい場合は、グループ定義の不整合と判別し、エラーメッセージを表示し、訂正内容を保存せずに、本処理を終了する。   In step S1007, the CPU 201 determines whether the corrected content is within the maximum selectable number. If the result of this determination is that the corrected content is within the maximum selectable number, after drawing the correction result on the original image (step S1011), the correction content is stored in the RAM 202 (step S1013), and this processing is performed. Exit. When the correction result is drawn on the original image, the display of the displayed object is switched from the abnormal color to the normal color (display switching). On the other hand, if the corrected content is larger than the maximum selectable number, it is determined that the group definition is inconsistent, an error message is displayed, and the processing ends without saving the corrected content.

図11は、図4のステップS405における登録処理の詳細を示すフローチャートである。   FIG. 11 is a flowchart showing details of the registration process in step S405 of FIG.

ステップS1101では、CPU201は、訂正前認識結果出力の有無を判定する。訂正前認識結果とは、OCR処理をした値そのもの(未訂正の値)であり、図9のステップS901にてRAM202上の退避エリアにコピーされた内容(すなわち認識結果)を意味する。訂正前認識結果出力は必須ではなく、出力する/しないを設定ファイル等で予め定義するようにしてもよい。   In step S1101, the CPU 201 determines whether or not a recognition result before correction is output. The recognition result before correction is the value after the OCR processing (uncorrected value), and means the content (that is, the recognition result) copied to the save area on the RAM 202 in step S901 in FIG. The output of the recognition result before correction is not essential, and whether or not to output may be defined in advance in a setting file or the like.

ステップS1101の判定の結果、訂正前認識結果出力が「有」の場合(ステップS1101でYES)、図9のステップS901にてRAM202上の退避エリアへコピーされた内容(すなわち認識結果)をDB101に登録、もしくは物理ファイル(CSVやテキスト形式)としてローカルもしくはネットワークフォルダに出力して、ステップS1103に進む。一方、ステップS1101において訂正前認識結果出力が「無」の場合(ステップS1101でNO)、ステップS1103に進む。   As a result of the determination in step S1101, if the pre-correction recognition result output is “Yes” (YES in step S1101), the content copied to the save area on the RAM 202 in step S901 in FIG. Registration or output to a local or network folder as a physical file (CSV or text format), and proceeds to step S1103. On the other hand, if the pre-correction recognition result output is “NO” in step S1101 (NO in step S1101), the process proceeds to step S1103.

ステップS1103では、CPU201は、認識結果テーブルtb05の認識結果1321の値をDB101に登録、もしくは物理ファイル(CSVやテキスト形式)としてローカルもしくはネットワークフォルダに出力する。次に、ステップS1104では、CPU201は、原紙画像の保存の有無を判定する。原紙画像とは、図4のステップS401にて保存された認識対象の画像であり、保存有無の設定は、設定ファイル等で予め定義されているものとする。   In step S1103, the CPU 201 registers the value of the recognition result 1321 of the recognition result table tb05 in the DB 101 or outputs it to a local or network folder as a physical file (CSV or text format). Next, in step S1104, the CPU 201 determines whether or not the raw paper image is stored. The base paper image is a recognition target image saved in step S401 in FIG. 4, and the setting of whether to save is defined in advance in a setting file or the like.

ステップS1104の判定の結果、原紙画像が保存されている場合(ステップS1104でYES)、ローカルもしくはネットワークフォルダに原紙画像をファイル出力し(ステップS1105)、ステップS1106に進む。一方、ステップS1104において原紙画像が保存されていなかった場合は、ステップS1106に進む。   If the result of the determination in step S1104 is that the base paper image is stored (YES in step S1104), the base paper image is output to a local or network folder (step S1105), and the process proceeds to step S1106. On the other hand, if the base paper image is not stored in step S1104, the process proceeds to step S1106.

ステップS1106では、CPU201は、RAM202上の認識結果退避エリアをクリアする。つづいて、CPU201は、認識結果テーブルtb05をDB101から削除し(ステップS1107)、本処理を終了する。   In step S1106, the CPU 201 clears the recognition result saving area on the RAM 202. Subsequently, the CPU 201 deletes the recognition result table tb05 from the DB 101 (step S1107), and ends this process.

上記実施形態によれば、入力された原紙画像上の認識処理(OMR処理(マーク認識処理)やOCR処理(文字認識処理))の対象となるゾーン(領域)のフォーム定義情報の設定を受け付ける。そして、設定されたフォーム定義情報に基づいて、認識対象となる画像上の領域に対して認識処理を行い、マーク認識処理された領域に対する認識結果を示すオブジェクトを生成する。そして、生成されたオブジェクトを領域に重ね合わせて表示する。これにより、ユーザが塗りつぶしやチェックなどのマークで記入した紙文書に対する画像の認識結果の確認作業を軽減すると共に、オペレータの訂正作業を容易にする。また、ユーザに選択的に記入させる形式の紙文書の認識結果を容易に訂正可能にする。   According to the embodiment, the setting of the form definition information of the zone (area) that is the target of recognition processing (OMR processing (mark recognition processing) or OCR processing (character recognition processing)) on the input raw paper image is accepted. Based on the set form definition information, a recognition process is performed on an area on the image to be recognized, and an object indicating a recognition result for the mark-recognized area is generated. Then, the generated object is displayed superimposed on the area. This reduces the confirmation work of the image recognition result for the paper document entered by the user with marks such as fill and check, and facilitates the operator's correction work. In addition, it is possible to easily correct the recognition result of a paper document in a format that is selectively entered by the user.

上記実施形態では、クライアントコンピュータ200における帳票認識処理について説明したが、上述した処理を管理サーバ100が実行するように構成してもよい。また、クライアントコンピュータ200とスキャナ300を同一筐体とし、例えば、同一筐体となる複合機が実行するように構成してもよい。言い換えると、上記実施の形態では、クライアントコンピュータ200とスキャナ300が別筐体で構成されている。さらに、図12(a)〜図13(d)に示すテーブル情報が保存(登録)されるDB101は、管理サーバ100内に設定されているが、これに限定されず、クライアントコンピュータ200内に設定されていてもよい。   In the above embodiment, the form recognition process in the client computer 200 has been described. However, the management server 100 may be configured to execute the above-described process. Further, the client computer 200 and the scanner 300 may be configured in the same casing, and may be configured to be executed by, for example, a multi-function peripheral in the same casing. In other words, in the above embodiment, the client computer 200 and the scanner 300 are configured as separate housings. Furthermore, the DB 101 in which the table information shown in FIGS. 12A to 13D is stored (registered) is set in the management server 100, but is not limited thereto, and is set in the client computer 200. May be.

また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   The object of the present invention can also be achieved by executing the following processing. That is, a storage medium in which a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. This is the process of reading the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。   Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, the present invention includes a case where the function of the above embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。   Furthermore, a case where the functions of the above-described embodiment are realized by the following processing is also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現する場合も含まれる。この場合、上記プログラムは、該プログラムを記憶した記憶媒体から直接、またはインターネット、商用ネットワーク、若しくはローカルエリアネットワーク等に接続された不図示の他のコンピュータやデータベース等からダウンロードすることにより供給される。   Further, the present invention includes a case where the functions of the above-described embodiments are realized by executing the program code read by the computer. In addition, there is a case where the OS running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. In this case, the program is supplied by downloading directly from a storage medium storing the program or from another computer or database (not shown) connected to the Internet, a commercial network, a local area network, or the like.

上記プログラムの形態は、オブジェクトコード、インタプリタにより実行されるプログラムコード、OS(オペレーティングシステム)に供給されるスクリプトデータ等の形態から成ってもよい。   The form of the program may be in the form of object code, program code executed by an interpreter, script data supplied to an OS (operating system), and the like.

本発明の実施形態に係る画像処理装置を含む画像処理システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. 図1におけるクライアントコンピュータを構成するハードウェアの概略を示すブロック図である。It is a block diagram which shows the outline of the hardware which comprises the client computer in FIG. 図1におけるスキャナを構成するハードウェアの概略を示すブロック図である。It is a block diagram which shows the outline of the hardware which comprises the scanner in FIG. クライアントコンピュータにて実行される帳票認識処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole form recognition process performed with a client computer. 図4のステップS400におけるフォーム情報登録処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the form information registration process in step S400 of FIG. 図4のステップS401におけるフォーム認識処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the form recognition process in step S401 of FIG. 図4のステップS402における認識処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the recognition process in FIG.4 S402. 図4のステップS403における認識結果表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the recognition result display process in step S403 of FIG. 図4のステップS403における認識結果表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the recognition result display process in step S403 of FIG. 図4のステップS404における認識結果訂正処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the recognition result correction process in step S404 of FIG. 図9のステップS907における訂正処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the correction process in FIG.9 S907. 図4のステップS405における登録処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the registration process in FIG.4 S405. 図4の帳票認識処理で使用されるテーブル情報の一例を示す図であり、(a)はフォーム定義テーブル、(b)はグループ定義テーブル、(c)はリスト定義テーブル、(d)はリスト定義テーブルである。FIG. 5 is a diagram illustrating an example of table information used in the form recognition process of FIG. 4, (a) is a form definition table, (b) is a group definition table, (c) is a list definition table, and (d) is a list definition. It is a table. 図4の帳票認識処理で使用されるテーブル情報の一例を示す図であり、(e)は認識結果テーブルである。It is a figure which shows an example of the table information used by the form recognition process of FIG. 4, (e) is a recognition result table. ゾーン設定情報を登録する際に表示されるフォーム定義画面の一例を示す図である。It is a figure which shows an example of the form definition screen displayed when registering zone setting information. グループ設定情報を登録する際に表示されるフォーム定義画面の一例を示す図である。It is a figure which shows an example of the form definition screen displayed when registering group setting information. フォーム定義画面の部分拡大図であり、(a)はゾーン設定情報の設定に関するもの、(b)はグループ設定情報の設定に関するものである。It is the elements on larger scale of a form definition screen, (a) is related with the setting of zone setting information, (b) is related with the setting of group setting information. 認識結果訂正画面の一例を示す図である。It is a figure which shows an example of a recognition result correction screen. 認識結果訂正画面の部分拡大図であり、(a)はOCRゾーンの訂正に関するもの、(b)はグループの訂正に関するもの、(c)は1つのグループ内で複数のゾーンの選択を可能にした場合である。It is a partial enlarged view of the recognition result correction screen, (a) relates to the correction of the OCR zone, (b) relates to the correction of the group, (c), it is possible to select a plurality of zones within one group Is the case. フォーム(帳票)の原紙画像の一例を示す図である。It is a figure which shows an example of the base paper image of a form (form). 書き込み済みのフォームの画像の一例を示す図である。It is a figure which shows an example of the image of the written form.

符号の説明Explanation of symbols

100 管理サーバ
200 クライアントコンピュータ
300 スキャナ
201 CPU
202 RAM
208 HDD
tb01 フォーム定義テーブル
tb02 グループ定義テーブル
tb03 ゾーン定義テーブル
tb04 リスト定義テーブル
tb05 認識結果テーブル
100 Management Server 200 Client Computer 300 Scanner 201 CPU
202 RAM
208 HDD
tb01 Form definition table tb02 Group definition table tb03 Zone definition table tb04 List definition table tb05 Recognition result table

Claims (10)

ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置であって、
前記記入箇所のうち、記入されたマークを認識する領域を予め設定する設定手段と、
前記設定手段により設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識手段と、
前記マーク認識手段によりマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成手段と、
前記生成手段により生成されたオブジェクトを、前記マーク認識手段でマークの認識がされた領域に対応する位置に重ね合わせて表示する第1の表示手段とを備えることを特徴とする画像処理装置。
An image processing apparatus for recognizing an entry location with respect to an image obtained by reading a paper document entered by a user,
A setting means for setting in advance an area for recognizing a written mark among the filled-in places,
Mark recognition means for recognizing a mark on an area on the image to be recognized based on the area set by the setting means;
Generating means for generating an object indicating a recognition result for the area where the mark is recognized by the mark recognition means;
An image processing apparatus comprising: a first display unit configured to superimpose and display an object generated by the generation unit at a position corresponding to an area where a mark has been recognized by the mark recognition unit.
前記生成手段は、前記領域の画像を透過するオブジェクトを生成することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates an object that transmits an image of the region. 前記認識手段により得られた認識結果の整合性を判定する整合性判定手段をさらに備え、
前記第1の表示手段は、前記整合性判定手段による判定結果に応じて、前記生成手段により生成されたオブジェクトの表示形式を変更することを特徴とする請求項1又は2記載の画像処理装置。
A consistency determination means for determining the consistency of the recognition result obtained by the recognition means;
The image processing apparatus according to claim 1, wherein the first display unit changes a display format of the object generated by the generation unit according to a determination result by the consistency determination unit.
前記マーク認識手段により得られた認識結果を訂正する訂正手段と、
前記訂正手段による訂正結果に応じて、前記オブジェクトの表示位置を切り替える表示切替手段とをさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
Correction means for correcting the recognition result obtained by the mark recognition means;
The image processing apparatus according to claim 1, further comprising a display switching unit that switches a display position of the object according to a correction result by the correction unit.
前記表示手段は、前記表示切替手段による切り替えに応じて、訂正前のオブジェクトを削除し、前記生成手段により新たに生成されたオブジェクトを訂正された領域に対応する位置に重ね合わせて表示することを特徴とする請求項4記載の画像処理装置。   The display means deletes the object before correction in accordance with the switching by the display switching means, and displays the object newly generated by the generation means superimposed on the position corresponding to the corrected area. The image processing apparatus according to claim 4, wherein: 前記設定手段は、記入された文字を認識する領域を予め設定し、
前記設定手段により文字を認識する領域が設定されている場合には、当該領域に対して文字の認識を行う文字認識手段をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The setting means presets an area for recognizing the entered characters,
6. The apparatus according to claim 1, further comprising a character recognizing unit configured to recognize characters in the region when a region for recognizing the character is set by the setting unit. The image processing apparatus described.
前記文字認識手段で文字認識された認識結果を、文字を認識する領域に対応する位置の近接する位置に表示する第2の表示手段をさらに備えることを特徴とする請求項6記載の画像処理装置。   7. The image processing apparatus according to claim 6, further comprising second display means for displaying a recognition result recognized by the character recognition means at a position adjacent to a position corresponding to a character recognition area. . 前記画像処理装置は、前記紙文書を読み取る画像読取装置と別筐体で構成されることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing apparatus is configured in a separate housing from the image reading apparatus that reads the paper document. ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置の画像処理方法であって、
前記記入箇所のうち、記入されたマークを認識する領域を予め設定するための設定工程と、
前記設定工程にて設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識工程と、
前記マーク認識工程にてマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成工程と、
前記生成工程にて生成されたオブジェクトを、前記マーク認識工程でマークの認識がされた領域に対応する位置に重ね合わせて表示する表示工程とを備えることを特徴とする画像処理方法。
An image processing method of an image processing apparatus for recognizing an entry location on an image obtained by reading a paper document entered by a user,
Of the entry points, a setting step for setting in advance a region for recognizing the entered mark;
A mark recognition step for recognizing a mark on a region on the image to be recognized based on the region set in the setting step;
A generation step of generating an object indicating a recognition result for the region where the mark is recognized in the mark recognition step;
An image processing method comprising: a display step of displaying the object generated in the generation step in a superimposed manner at a position corresponding to a region in which the mark is recognized in the mark recognition step.
ユーザにより記入された紙文書を読み取った画像に対して、記入箇所を認識する画像処理装置の画像処理方法を当該画像処理装置に実行させるためのプログラムであって、
前記記入箇所のうち、記入されたマークを認識する領域を予め設定するための設定ステップと、
前記設定ステップにて設定された領域に基づいて、認識対象となる画像上の領域に対してマークの認識を行うマーク認識ステップと、
前記マーク認識ステップにてマークの認識がされた領域に対する認識結果を示すオブジェクトを生成する生成ステップと、
前記生成ステップにて生成されたオブジェクトを、前記マーク認識ステップでマークの認識がされた領域に対応する位置に重ね合わせて表示する表示ステップとを備えることを特徴とするプログラム。
A program for causing an image processing apparatus to execute an image processing method of an image processing apparatus for recognizing an entry position on an image obtained by reading a paper document entered by a user,
A setting step for setting in advance an area for recognizing a mark that has been entered, among the entry points;
A mark recognition step for recognizing a mark on a region on the image to be recognized based on the region set in the setting step;
A generation step of generating an object indicating a recognition result for the area where the mark is recognized in the mark recognition step;
And a display step of displaying the object generated in the generation step in a superimposed manner at a position corresponding to the region in which the mark is recognized in the mark recognition step.
JP2008304463A 2008-11-28 2008-11-28 Image processing apparatus and method, and program Active JP5080432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008304463A JP5080432B2 (en) 2008-11-28 2008-11-28 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008304463A JP5080432B2 (en) 2008-11-28 2008-11-28 Image processing apparatus and method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012188675A Division JP5432343B2 (en) 2012-08-29 2012-08-29 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2010128904A true JP2010128904A (en) 2010-06-10
JP2010128904A5 JP2010128904A5 (en) 2010-08-12
JP5080432B2 JP5080432B2 (en) 2012-11-21

Family

ID=42329240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008304463A Active JP5080432B2 (en) 2008-11-28 2008-11-28 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5080432B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128636A (en) * 2010-12-15 2012-07-05 Hitachi Systems Ltd Client server system, system for supporting correction of variable data in standard document using it, screen transition method, method for supporting correction of variable data in standard document, and program therefor
JP2014170544A (en) * 2013-02-28 2014-09-18 Ricoh Co Ltd Processing method, processing system and computer program
JP2014211913A (en) * 2014-08-05 2014-11-13 京セラドキュメントソリューションズ株式会社 Mark detecting device
JP2014238872A (en) * 2014-08-05 2014-12-18 京セラドキュメントソリューションズ株式会社 Mark detecting device
JP2016212736A (en) * 2015-05-12 2016-12-15 日本電信電話株式会社 Operation assist device, operation assist program, and operation assist method
CN109509378A (en) * 2019-02-13 2019-03-22 湖南强视信息科技有限公司 A kind of online testing method for supporting handwriting input
JP2020173564A (en) * 2019-04-09 2020-10-22 株式会社エクサ Document processing support system
CN113110785A (en) * 2021-05-12 2021-07-13 北京字节跳动网络技术有限公司 Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2022064870A (en) * 2020-10-14 2022-04-26 公立大学法人和歌山県立医科大学 Image information recognition device, image information storage medium construction method, image information recognition method, computer program for the same and health information management method
JP2022186026A (en) * 2021-06-04 2022-12-15 AI inside株式会社 Program, information processing apparatus and method
JP7470887B2 (en) 2020-10-14 2024-04-19 公立大学法人和歌山県立医科大学 Image information recognition device, image information storage medium construction method, image information recognition method, computer program therefor, and health information management method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554174A (en) * 1991-08-29 1993-03-05 Oki Electric Ind Co Ltd Optical character reader
JP2004102320A (en) * 2002-09-04 2004-04-02 Fujitsu Ltd Business forms processing device and method, and program for executing method in computer
JP2005032003A (en) * 2003-07-14 2005-02-03 Hitachi Information Systems Ltd System and method for confirming and correcting mark sheet recognition result
JP2005234790A (en) * 2004-02-18 2005-09-02 Ricoh Co Ltd Handwritten slip processing system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554174A (en) * 1991-08-29 1993-03-05 Oki Electric Ind Co Ltd Optical character reader
JP2004102320A (en) * 2002-09-04 2004-04-02 Fujitsu Ltd Business forms processing device and method, and program for executing method in computer
JP2005032003A (en) * 2003-07-14 2005-02-03 Hitachi Information Systems Ltd System and method for confirming and correcting mark sheet recognition result
JP2005234790A (en) * 2004-02-18 2005-09-02 Ricoh Co Ltd Handwritten slip processing system and method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128636A (en) * 2010-12-15 2012-07-05 Hitachi Systems Ltd Client server system, system for supporting correction of variable data in standard document using it, screen transition method, method for supporting correction of variable data in standard document, and program therefor
JP2014170544A (en) * 2013-02-28 2014-09-18 Ricoh Co Ltd Processing method, processing system and computer program
JP2014211913A (en) * 2014-08-05 2014-11-13 京セラドキュメントソリューションズ株式会社 Mark detecting device
JP2014238872A (en) * 2014-08-05 2014-12-18 京セラドキュメントソリューションズ株式会社 Mark detecting device
JP2016212736A (en) * 2015-05-12 2016-12-15 日本電信電話株式会社 Operation assist device, operation assist program, and operation assist method
CN109509378A (en) * 2019-02-13 2019-03-22 湖南强视信息科技有限公司 A kind of online testing method for supporting handwriting input
JP2020173564A (en) * 2019-04-09 2020-10-22 株式会社エクサ Document processing support system
JP7351633B2 (en) 2019-04-09 2023-09-27 株式会社エクサ Document processing support system
JP2022064870A (en) * 2020-10-14 2022-04-26 公立大学法人和歌山県立医科大学 Image information recognition device, image information storage medium construction method, image information recognition method, computer program for the same and health information management method
JP7470887B2 (en) 2020-10-14 2024-04-19 公立大学法人和歌山県立医科大学 Image information recognition device, image information storage medium construction method, image information recognition method, computer program therefor, and health information management method
CN113110785A (en) * 2021-05-12 2021-07-13 北京字节跳动网络技术有限公司 Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2022186026A (en) * 2021-06-04 2022-12-15 AI inside株式会社 Program, information processing apparatus and method

Also Published As

Publication number Publication date
JP5080432B2 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
JP5080432B2 (en) Image processing apparatus and method, and program
JP2011076581A (en) Image processing apparatus, system and method, and program
JP5309634B2 (en) Network system, information processing apparatus, and program
JP5643415B2 (en) Image processing apparatus and method, and program
JP5432343B2 (en) Image processing apparatus and method, and program
US20150332492A1 (en) Image processing system, image processing apparatus, and method for image processing
JP4655824B2 (en) Image recognition apparatus, image recognition method, and image recognition program
JP2008035240A (en) Scanning system, scanning device, and data processing method
JP6662023B2 (en) Image processing apparatus and image processing program
JP2015167001A (en) Information processing program, information processing device, information processing system, information processing method, image processor and image processing system
JP2006235431A (en) Teaching materials processing apparatus, teaching materials processing method, and teaching materials processing program
JP4754236B2 (en) Information processing apparatus, acquisition method, and acquisition program
CN108875570B (en) Information processing apparatus, storage medium, and information processing method
US11588945B2 (en) Data input support apparatus that displays a window with an item value display area, an overview image display area, and an enlarged image display area
JP4982587B2 (en) Data entry system and data entry method
JP2007233888A (en) Image processor and image processing program
JP5243228B2 (en) Character recognition device and method for generating confirmation screen of character recognition device
JP2021144469A (en) Data input support system, data input support method, and program
JP2020052480A (en) Information processing apparatus and program
JP2009070246A (en) Information processing system, information processing device, program, and recording medium
JP4309881B2 (en) ID card recognition apparatus and ID card recognition method
JP7069821B2 (en) Image processing equipment, image processing system, and image processing program
JP5874474B2 (en) Image information registration system, image information registration program
JP2018124854A (en) Image processing apparatus and image processing program
JP2006293970A (en) Image processor, image processing method and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110401

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5080432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250