JP2016076093A - Character recognition support device, character recognition support program, and character recognition support method - Google Patents

Character recognition support device, character recognition support program, and character recognition support method Download PDF

Info

Publication number
JP2016076093A
JP2016076093A JP2014206201A JP2014206201A JP2016076093A JP 2016076093 A JP2016076093 A JP 2016076093A JP 2014206201 A JP2014206201 A JP 2014206201A JP 2014206201 A JP2014206201 A JP 2014206201A JP 2016076093 A JP2016076093 A JP 2016076093A
Authority
JP
Japan
Prior art keywords
evaluation
character string
character
character recognition
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014206201A
Other languages
Japanese (ja)
Other versions
JP6371662B2 (en
JP2016076093A5 (en
Inventor
明洋 皆川
Akihiro Minagawa
明洋 皆川
浩一 金元
Koichi Kanemoto
浩一 金元
小林 弘幸
Hiroyuki Kobayashi
弘幸 小林
康正 岩村
Yasumasa Iwamura
康正 岩村
悟 牛嶋
Satoru Ushijima
悟 牛嶋
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2014206201A priority Critical patent/JP6371662B2/en
Publication of JP2016076093A publication Critical patent/JP2016076093A/en
Publication of JP2016076093A5 publication Critical patent/JP2016076093A5/ja
Application granted granted Critical
Publication of JP6371662B2 publication Critical patent/JP6371662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique to predetermine whether character recognition of a recognition object is possible before a photographed image is fixed.SOLUTION: A character recognition support device includes: means for receiving a photographed image including a rectangular recognition object to be the object of character recognition; means for identifying predetermined areas of three corners or more in the photographed image including the recognition object based on coordinates information on a plurality of evaluation character strings in the recognition object registered in a storage section; means for performing character recognition of a partial image in the predetermined area to determine a relationship between a character string subjected to character recognition in the predetermined area and an evaluation character string in the recognition object; and display control means with which a user displays in an identifiable aspect whether character recognition about at least one axis is possible among a plurality of axes representing the posture of a rectangular recognition object from the relationship.SELECTED DRAWING: Figure 7A

Description

本発明は、文字認識支援装置、文字認識支援プログラム及び文字認識支援方法に関する。   The present invention relates to a character recognition support device, a character recognition support program, and a character recognition support method.

従来、金融業界等では、口座開設等を行う際に、例えば、口座開設者の本人確認を行うための情報として、運転免許証、保険証といった帳票を用いている。運転免許証等の帳票は、例えば、受け付け窓口等の店舗内の固定位置に据付けられたスキャン装置やOCR(Optical Character Reader)等でデータの読取りが行われ、読取られた帳票のデータに基づいて本人確認等が行われていた。   Conventionally, in the financial industry and the like, when an account is opened, for example, a form such as a driver's license or an insurance card is used as information for verifying the identity of the account opener. Forms such as driver's licenses are read by a scanning device or OCR (Optical Character Reader) installed at a fixed position in a store such as a reception desk, and based on the read form data Identity verification was performed.

近年、ICT(情報通信技術:Information and Communication Technology)の普及に伴い、カメラ機能等を備えた携帯端末等を使用して、上述の運転免許証等の帳票の認識を行いたいという、ニーズがある。カメラ機能等を備えた携帯端末等を用いることで、例えば、自由な場所で帳票の認識を行うことが可能となる。なお、カメラ機能等を備えた携帯端末等として、例えば、携帯電話、スマートフォン、タブレットPC(PC:Personal Computer)、PDA(Personal Data Assistance)、ノートPC等が例示できる。   In recent years, with the spread of ICT (Information and Communication Technology), there is a need to recognize a form such as a driver's license using a mobile terminal equipped with a camera function or the like. . By using a portable terminal equipped with a camera function or the like, for example, it is possible to recognize a form in a free place. In addition, as a portable terminal etc. provided with the camera function etc., a mobile phone, a smart phone, tablet PC (PC: Personal Computer), PDA (Personal Data Assistance), a notebook PC etc. can be illustrated, for example.

携帯端末等で撮影した画像を帳票認識に用いる場合、例えば、帳票撮像時の手ブレや位置決めの粗さへの対処が課題となる。例えば、手ブレを撮像画像から除去する方法として、手ブレ補正やベストショット抽出といった画像補正技術が提案されている。また、位置決めの粗さへの対処法として、例えば、QRコード(登録商標)等に代表されるように、所定のシンボルマークを用いる、または、位置決め用のガイド枠を設けることなどが考えられる。   When using an image photographed by a portable terminal or the like for form recognition, for example, it is necessary to deal with camera shake and rough positioning during form image capture. For example, image correction techniques such as camera shake correction and best shot extraction have been proposed as methods for removing camera shake from captured images. In addition, as a countermeasure against the positioning roughness, for example, it is conceivable to use a predetermined symbol mark or to provide a positioning guide frame as represented by a QR code (registered trademark) or the like.

なお、本明細書で説明する技術に関連する技術が記載されている先行技術文献としては、以下の特許文献が存在している。   In addition, the following patent documents exist as prior art documents in which technologies related to the technologies described in this specification are described.

特開2012−244252号公報JP 2012-244252 A 特許第4952625号Patent No. 49562525 特開平7−254037号公報JP-A-7-254037

帳票撮像時の手ブレ対処として、上述の画像補正技術を採用する場合、例えば、補正後の画像が、帳票内の文字認識を行う上で適切な画像であるか否かは、補正前の、帳票を撮影中の時点では判断ができない。このため、補正後の画像が文字認識の困難な場合では、撮像画像に対する補正処理を再び行うこととなり、例えば、撮像者が携帯端末等を構えなおしてシャッターを押下するといった撮影行為の繰返しが生じる虞があった。   When adopting the above-described image correction technology as a countermeasure against camera shake at the time of image capturing of the form, for example, whether or not the image after correction is an appropriate image for performing character recognition in the form, Judgment is not possible at the time of taking a form. For this reason, when the image after correction is difficult to recognize characters, the correction processing for the captured image is performed again, and for example, the photographing action such as the photographer holding the mobile terminal again and pressing the shutter occurs. There was a fear.

また、QRコード(登録商標)等のように所定のシンボルマークを位置決めに採用した場合では、二次元コードであれば、読取りデータに誤り訂正情報を持たせることができる。このため、データ部分の検出精度は、シンボルマークの検出精度以上の関係となる。例えば、読取りデータを含む撮像画像に不鮮明な部分が存在しても、誤り訂正情報を用いて不鮮明な画像部分の読取りデータの訂正が可能となる。しかし、運転免許証等の帳票では
、帳票内の文字には誤り訂正コードは存在しない。このため、携帯端末等を傾けてしまった場合のように、撮像画像に文字認識が困難な不鮮明な部分が存在するケースでは、文字認識が可能な画像を撮像するための撮影行為が繰返されることとなる。
Further, when a predetermined symbol mark is employed for positioning, such as a QR code (registered trademark), if the code is a two-dimensional code, the read data can have error correction information. For this reason, the detection accuracy of the data portion is more than the detection accuracy of the symbol mark. For example, even if an unclear portion exists in the captured image including the read data, the read data of the unclear image portion can be corrected using the error correction information. However, in a form such as a driver's license, there is no error correction code for characters in the form. For this reason, in the case where there are unclear portions in which the character recognition is difficult in the captured image, such as when the mobile terminal is tilted, the photographing action for capturing the image capable of character recognition is repeated. It becomes.

位置決め用のガイド枠を設けた場合でも、被写体の帳票がガイド枠内に収まっている状態で携帯端末等を傾けてしまった場合のように、被写体が奥行き方向に傾いて撮像されるケースを想定できる。奥行き方向に傾いて被写体が撮像された場合では、例えば、台形補正による画像補正が可能である。しかし、台形補正後の画像が文字認識の可能な画像であるか否かは、補正処理後でなければ判別できない。このため、適切な画像が得られなかった場合には、再び文字認識が可能な画像の撮影行為が繰返されることとなる。また、台形補正処理が行われた帳票内の文字部分が誤って補正されるという虞がある。   Even when a guide frame for positioning is provided, it is assumed that the subject is imaged while tilting in the depth direction, such as when the mobile terminal is tilted with the form of the subject within the guide frame. it can. When the subject is imaged while tilting in the depth direction, for example, image correction by trapezoidal correction is possible. However, it can be determined only after the correction process whether the image after the keystone correction is an image capable of character recognition. For this reason, when an appropriate image is not obtained, the photographing action of the image capable of character recognition is repeated. Moreover, there is a possibility that the character portion in the form on which the keystone correction processing has been performed is corrected erroneously.

1つの側面では、本発明は、撮像画像の確定前に認識対象の文字認識ができるか否かを
予め判断する技術を提供する。
In one aspect, the present invention provides a technique for determining in advance whether or not a character to be recognized can be recognized before a captured image is determined.

上記技術は、次の文字認識支援装置の構成によって例示できる。すなわち、文字認識支援装置は、文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付ける手段と、記憶部に登録された認識対象体中の複数の評価文字列の座標情報に基づいて、認識対象体を含む撮像画像内での3隅以上の所定領域を特定する手段と、所定領域内の部分画像について文字認識を行い、所定領域内で文字認識された文字列と認識対象体中の評価文字列との関係を判定する手段と、関係から矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御手段と、を備える。   The above technique can be exemplified by the following configuration of the character recognition support apparatus. That is, the character recognition support device is based on means for receiving a captured image including a rectangular recognition target object that is a character recognition target, and coordinate information of a plurality of evaluation character strings in the recognition target object registered in the storage unit. , Means for specifying a predetermined area of three or more corners in a captured image including a recognition object, character recognition for a partial image in the predetermined area, and character strings recognized in the predetermined area and the recognition object In a manner in which the user can identify whether or not the character can be recognized on at least one of the plurality of axes indicating the posture of the rectangular recognition target object based on the relationship. Display control means for displaying.

上記の文字認識支援装置によれば、撮像画像の確定前に認識対象の文字認識ができるか否かを予め判断する技術が提供できる。   According to the character recognition support device, it is possible to provide a technique for determining in advance whether or not a character to be recognized can be recognized before the captured image is determined.

実施例1の、帳票の画質評価処理を説明する説明図である。FIG. 6 is an explanatory diagram illustrating a form image quality evaluation process according to the first exemplary embodiment. 実施例1の、帳票の画質評価処理を説明する説明図である。FIG. 6 is an explanatory diagram illustrating a form image quality evaluation process according to the first exemplary embodiment. 実施例1の文字認識支援装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the character recognition assistance apparatus of Example 1. FIG. 評価用文字列DBの一例を示す図である。It is a figure which shows an example of character string DB for evaluation. 実施例1の、文字認識処理の全体処理を例示するフローチャートである。3 is a flowchart illustrating the entire character recognition process according to the first embodiment. 図4Aに例示の、S1の画質評価処理を例示するフローチャートである。FIG. 4B is a flowchart illustrating the image quality evaluation process of S1 illustrated in FIG. 4A. 図4Aに例示の、S1の画質評価処理を例示するフローチャートである。FIG. 4B is a flowchart illustrating the image quality evaluation process of S1 illustrated in FIG. 4A. 撮影中の帳票の撮像画像の表示例を示す図である。It is a figure which shows the example of a display of the captured image of the form in imaging | photography. 実施例2の文字認識支援装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the character recognition assistance apparatus of Example 2. FIG. 評価用文字列に対する重心座標の算出を説明する説明図である。It is explanatory drawing explaining calculation of the gravity center coordinate with respect to the character string for evaluation. 3隅の評価用文字列の全体的な重心座標を説明する説明図である。It is explanatory drawing explaining the whole gravity center coordinate of the character string for evaluation of three corners. 重心位置を中心とした、3隅の評価用文字列の重心位置に対する角度を説明する説明図である。It is explanatory drawing explaining the angle with respect to the gravity center position of the character string for evaluation of three corners centering on a gravity center position. 並進移動に係る位置決め支援を説明する説明図である。It is explanatory drawing explaining the positioning assistance which concerns on translation. 回転移動に係る位置決め支援を説明する説明図である。It is explanatory drawing explaining the positioning assistance which concerns on rotational movement. 奥行き方向の前後移動に係る位置決め支援を説明する説明図である。It is explanatory drawing explaining the positioning assistance which concerns on the back-and-forth movement in the depth direction. 歪み補正に係る位置決め支援を説明する説明図である。It is explanatory drawing explaining the positioning assistance which concerns on distortion correction. 実施例2の、文字認識処理の全体処理を例示するフローチャートである。10 is a flowchart illustrating an example of an entire character recognition process according to the second embodiment. 図7Aに例示の、S21の画質評価処理を例示するフローチャートである。7B is a flowchart illustrating the image quality evaluation process of S21 illustrated in FIG. 7A. 図7Aに例示の、S23の帳票状態推定処理を例示するフローチャートである。It is a flowchart which illustrates the form state estimation process of S23 illustrated in FIG. 7A. 図7Cに例示の、S43の2隅推定処理を例示するフローチャートである。It is a flowchart which illustrates the two corner estimation process of S43 illustrated in FIG. 7C. 図7Cに例示の、S42の3隅推定処理を例示するフローチャートである。It is a flowchart which illustrates the three corner estimation process of S42 illustrated in FIG. 7C. 図7D,7Eに例示の、S51の並進推定処理を例示するフローチャートである。It is a flowchart which illustrates the translation estimation process of S51 illustrated to FIG. 7D and 7E. 図7D,7Eに例示の、S53の回転推定処理を例示するフローチャートである。It is a flowchart which illustrates the rotation estimation process of S53 illustrated to FIG. 7D and 7E. 図7D,7Eに例示の、S55の前後推定処理を例示するフローチャートである。It is a flowchart which illustrates the back-and-front estimation process of S55 illustrated to FIG. 7D and 7E. 図7Eに例示の、S57の歪み推定処理を例示するフローチャートである。It is a flowchart which illustrates the distortion estimation process of S57 illustrated in FIG. 7E. 図7Aに例示の、S24の状態表示処理を例示するフローチャートである。It is a flowchart which illustrates the state display process of S24 illustrated in FIG. 7A. 図8Aに例示の、S102の並進表示処理を例示するフローチャートである。It is a flowchart which illustrates the translation display process of S102 illustrated in FIG. 8A. 図8Aに例示の、S104の回転表示処理を例示するフローチャートである。It is a flowchart which illustrates the rotation display process of S104 illustrated in FIG. 8A. 図8Aに例示の、S106の前後表示処理を例示するフローチャートである。It is a flowchart which illustrates the back-and-front display process of S106 illustrated in FIG. 8A. 図8Aに例示の、S108の歪み表示処理を例示するフローチャートである。It is a flowchart which illustrates the distortion display process of S108 illustrated in FIG. 8A.

以下、図面を参照して、一実施形態に係る文字認識支援装置について説明する。以下の実施形態の構成は例示であり、文字認識支援装置は実施形態の構成には限定されない。
以下、図1から図8の図面に基づいて、文字認識支援装置を説明する。
Hereinafter, a character recognition support apparatus according to an embodiment will be described with reference to the drawings. The configuration of the following embodiment is an exemplification, and the character recognition support apparatus is not limited to the configuration of the embodiment.
Hereinafter, the character recognition support apparatus will be described with reference to FIGS. 1 to 8.

<実施例1>
図1A、1Bに、実施例1の文字認識支援装置による、認識対象となる帳票の画質評価処理についての説明図を例示する。本実施形態の文字認識支援装置は、例えば、認識対象となる帳票を撮像画像として取得するカメラ機能を備えた情報処理装置である。カメラ機能を備えた情報処理装置として、例えば、スマートフォン、タブレットPC(PC:Personal Computer)、PDA(Personal Data Assistance)、ノートPC等が例示できる。
なお、認識対象の帳票を撮像画像として取得するカメラ機能を備え、撮像画像から文字認識が可能な情報処理装置であれば、例えば、携帯電話、デジタルカメラ、ゲーム機等であってもよい。
<Example 1>
1A and 1B exemplify the image quality evaluation processing of a form to be recognized by the character recognition support apparatus according to the first embodiment. The character recognition support apparatus according to the present embodiment is an information processing apparatus having a camera function that acquires a form to be recognized as a captured image, for example. Examples of the information processing apparatus having a camera function include a smartphone, a tablet PC (PC: Personal Computer), a PDA (Personal Data Assistance), and a notebook PC.
For example, a mobile phone, a digital camera, or a game machine may be used as long as the information processing apparatus has a camera function for acquiring a recognition target form as a captured image and can recognize characters from the captured image.

本実施形態の文字認識支援装置は、例えば、認識対象の帳票内の所定領域に記述された特定の文字列(文字をも含む)を、該帳票内に記述された文字認識の可否を判断するための評価用文字列とする。評価用文字列として特定される文字列には、例えば、帳票内の記述位置に対応する画像領域内の位置情報(座標情報)、文字列に含まれる文字情報が対応付けて定義される。文字認識支援装置は、例えば、評価用文字列として特定された文字列の記述位置に対応する画像領域内の位置情報(座標情報)、文字情報に基づいて、撮影中の認識対象となる帳票の画像データの画質評価を行う。撮影中の画像データに対する画質評価は、例えば、10ms等の一定の周期間隔で撮像された時系列の画像データ毎に行われる。本実施形態の文字認識支援装置の画質評価では、撮影中の帳票の画像データについて、例えば、帳票内の文字を正しく認識できるための画質であることが判定される。   The character recognition support device according to the present embodiment, for example, determines whether or not a specific character string (including characters) described in a predetermined area in a recognition target form can be recognized in the form. For evaluation. For example, position information (coordinate information) in the image area corresponding to the description position in the form and character information included in the character string are defined in association with the character string specified as the evaluation character string. The character recognition support device, for example, the position information (coordinate information) in the image area corresponding to the description position of the character string specified as the character string for evaluation, the character information, and the form to be recognized during photographing. Perform image quality evaluation of image data. The image quality evaluation for the image data being photographed is performed for each time-series image data captured at a constant periodic interval such as 10 ms. In the image quality evaluation of the character recognition support apparatus according to the present embodiment, it is determined that the image data of the form being photographed has an image quality for correctly recognizing characters in the form, for example.

本実施形態の文字認識支援装置は、例えば、撮影中の帳票画像が含まれる画像領域内の、評価用文字列として特定した文字列が含まれる部分領域に、特定された文字列が読み取り可能な画像データとして撮像されていることを判定する。文字認識装置は、例えば、撮影中の帳票画像が含まれる時系列の撮像画像毎に、上述の評価用文字列として特定された文字列が含まれる部分領域の画像データの読取り可能(文字認識可能)の可否を判定する。   For example, the character recognition support apparatus of the present embodiment can read a specified character string in a partial area including a character string specified as an evaluation character string in an image area including a form image being shot. It is determined that the image data is captured. The character recognition device can, for example, read image data of a partial region including the character string specified as the evaluation character string described above for each time-series captured image including the form image being captured (character recognition is possible). ) Is determined.

本実施形態の文字認識支援装置は、例えば、画像領域内における部分領域の画像データが読取り可能と判定できる場合には、判定対象となった時系列の撮像画像が、帳票内に記述された文字等の文字認識を行うために十分な画質であると判定する。そして、文字認識支援装置は、例えば、文字認識を行うための十分な画質であると判定した判定対象の撮影中の撮像画像を、帳票内の文字を正しく認識できる認識対象の画像データとして確定する。文字認識支援装置は、例えば、帳票内の文字を正しく認識できる画像データとして確定された認識対象の撮像画像に対し、帳票領域内の画像データの文字認識を行い、文字認識により検出された帳票内の文字列を検出データ文字列として出力する。   For example, when it is possible to determine that the image data of the partial area in the image area can be read, the character recognition support device according to the present embodiment displays the time-series captured image as the determination target in the character described in the form. It is determined that the image quality is sufficient for character recognition. Then, the character recognition support apparatus determines, for example, a captured image that is being captured as a determination target that has been determined to have sufficient image quality for character recognition as recognition target image data that can correctly recognize characters in the form. . The character recognition support device, for example, performs character recognition of image data in the form area for a captured image that has been determined as image data that can correctly recognize characters in the form, and detects the character in the form detected by character recognition. Is output as a detection data character string.

図1Aに例示の説明図は、認識対象の帳票として矩形の運転免許証を採用した場合の説明図である。図1Aの説明図において、領域A1は、対象者の免許に係る情報が記述される、運転免許証の全体領域を表す。   The explanatory diagram illustrated in FIG. 1A is an explanatory diagram when a rectangular driving license is adopted as a form to be recognized. In the explanatory diagram of FIG. 1A, an area A1 represents the entire area of the driver's license in which information related to the license of the subject is described.

金融業界等で口座開設等のための本人確認等に使用される運転免許証、保険証、パスポート等の帳票では、帳票の種別毎に、例えば、帳票内に記述される情報を特定するための項目名といった予め帳票に記述される定型化された文字列パターンが含まれる。また、定型化された文字列パターンを有する帳票では、該文字列パターンが記述される帳票上の記述位置が予め定められている傾向にある。   For forms such as driver's licenses, insurance cards, passports, etc. used for identity verification for account opening etc. in the financial industry etc., for specifying the information described in the form for each type of form, for example A stylized character string pattern previously described in a form such as an item name is included. Further, in a form having a standardized character string pattern, the description position on the form in which the character string pattern is described tends to be predetermined.

例えば、図1Aの運転免許証の例では、領域A1には、帳票に記述される情報を表す項目名を表す“氏名”、“住所”、“交付”、“番号”等の定型化された文字列が含まれる。定型化された文字列は、文字列となる文字情報(単語等)を含み、予め定められた帳票上の位置領域に記述される。なお、領域A1には、上述した文字列の他に、生誕日を表す“日生”といった定型化された文字列や単位を表す“号”といった文字が含まれる。   For example, in the example of the driver's license shown in FIG. 1A, the area A1 has a standardized name such as “name”, “address”, “delivery”, “number” indicating item names representing information described in the form. Contains a string. The stylized character string includes character information (word or the like) that becomes a character string, and is described in a predetermined position area on the form. In addition to the above-described character string, the area A1 includes a standardized character string such as “Nissei” representing the birth date and characters such as “No.” representing the unit.

例えば、図1Aの運転免許証の例では、“氏名”といった文字列は、領域A1の左上端部の領域A11に記述され、“日生”といった文字列は、領域A1の右上端部の領域A12に記述されている。また、図1Aの運転免許証の例において、“番号”といった文字列は、例えば、領域A1の左下端部の領域A13に記述され、“号”といった文字は、領域A1の中央下側の領域A14に記述されている。   For example, in the example of the driver's license in FIG. 1A, a character string such as “name” is described in the area A11 at the upper left end of the area A1, and a character string such as “Nissei” is the area A12 at the upper right end of the area A1. It is described in. In the example of the driver's license in FIG. 1A, a character string such as “number” is described in, for example, the region A13 at the lower left end of the region A1, and a character such as “No.” is a region below the center of the region A1. A14.

平面視状態での領域A11,領域A12は、文字列が記述される左右方向に(矩形の長手方向に平行な方向)略同じ高さ位置に配置されている。また、領域A13,領域A14は、文字列が記述される左右方向に略同じ高さ位置に配置されている。そして、領域A11,領域A13は、文字列が記述される方向に直交する上下方向(矩形の短手方向に平行な方向)に略同じ幅位置に配置されている。   The area A11 and the area A12 in a plan view state are arranged at substantially the same height in the left-right direction in which the character string is described (a direction parallel to the longitudinal direction of the rectangle). The areas A13 and A14 are arranged at substantially the same height in the left-right direction in which the character string is described. The area A11 and the area A13 are arranged at substantially the same width position in the vertical direction (direction parallel to the rectangular short direction) perpendicular to the direction in which the character string is described.

図1Aに例示のように、認識対象となる帳票内では、帳票内に記述される文字列の文字情報と文字列の記述位置が予め定められることとなる。例えば、“氏名”といった文字列は、“氏”および“名”という文字情報を含み、帳票の左上端部の領域A11に記述される。また、例えば、“番号”といった文字列は、“番”および“号”という文字情報を含み、帳票の左下端部の領域A13に記述される。   As illustrated in FIG. 1A, in the form to be recognized, the character information of the character string described in the form and the description position of the character string are determined in advance. For example, a character string such as “name” includes character information “name” and “name”, and is described in an area A11 at the upper left corner of the form. For example, a character string such as “number” includes character information “number” and “number”, and is described in an area A13 at the lower left corner of the form.

例えば、複数の、帳票内の記述位置が予め定められた文字列の記述領域に対応する撮像画像の部分領域を、帳票撮像時の位置基準として採用することにより、撮影中の画像領域内における帳票の位置決めを行うことが可能となる。例えば、帳票等の平面体を撮像する場合、平面上の3箇所の位置を特定することで、撮像対象となる平面体の幾何学的な置かれ方は一意に決定することができる。   For example, by using a plurality of captured image partial areas corresponding to a description area of a character string in which a description position in the form is predetermined as a position reference at the time of capturing the form, the form in the image area being photographed is used. It is possible to perform positioning. For example, when imaging a planar body such as a form, the geometrical placement of the planar body to be imaged can be uniquely determined by specifying three positions on the plane.

なお、撮影対象となる帳票等が矩形の平面体である場合、例えば、特定する平面上の3箇所の位置として帳票等の4隅の内、少なくとも3隅部分を含む3箇所の領域を採用することができる。撮影対象となる帳票等の4隅の内、少なくとも3隅部分を含む3箇所の領域に記述された文字・文字列等が認識される場合には、帳票の全体領域に対して撮像時の、カメラ等の焦点が合っていると判断できるからである。   When the document to be imaged is a rectangular planar body, for example, three regions including at least three corners among the four corners of the document etc. are adopted as the three positions on the plane to be specified. be able to. When characters / character strings described in three areas including at least three corners among the four corners of the form to be photographed are recognized, the entire area of the form is This is because it can be determined that the camera or the like is in focus.

つまり、矩形の平面体である帳票の3隅部分を含む3箇所の領域に記述された文字列を評価用文字列として採用し、各文字列に含まれる文字情報の認識評価を行うことで、撮影対象となる帳票全体の合焦状態の判定が可能となる。合焦状態で撮影された帳票の画像データは、帳票内の文字を正しく認識できるための画質を有することとなる。撮影対象となる矩形の帳票に対し、3隅部分を含む3箇所以上の領域に記述された文字列(評価用文字列)の認識評価を行うことにより、適正な撮影対象の位置決め、及び、撮影対象の合焦を同時に行うことが可能となる。   That is, by adopting character strings described in three regions including the three corners of a form that is a rectangular planar body as an evaluation character string, and performing recognition evaluation of character information included in each character string, It is possible to determine the in-focus state of the entire form to be photographed. The image data of the form photographed in the focused state has an image quality for correctly recognizing characters in the form. By appropriately recognizing and evaluating character strings (evaluation character strings) described in three or more areas including three corners of a rectangular form to be imaged, positioning of the appropriate imaged object and imaging It becomes possible to focus the object at the same time.

図1Aの例では、例えば、帳票の4隅の内、左上端部の領域A11に記述された“氏名”、右上端部の領域A12に記述された“日生”、左下端部の領域A13に記述された“番号”等の文字列が評価用文字列として採用される。各文字列の記述領域である領域A11,A12,A13に対応する撮像画像の部分領域が、帳票撮像時の位置決めの位置基準となる。そして、例えば、帳票撮像時に、撮影中の画像領域内の、領域A11,A12,A13に対応する部分領域の、“氏名”,“日生”,“番号”といった評価用文字列の文字認識の評価を行うことで、帳票の位置決めの適正さ、帳票全体の合焦状態の判定が可能となる。   In the example of FIG. 1A, for example, among the four corners of the form, “name” described in the upper left area A11, “Nissei” described in the upper right area A12, and lower left area A13. The described character string such as “number” is adopted as the evaluation character string. The partial areas of the captured image corresponding to the areas A11, A12, and A13, which are the description areas of each character string, serve as the positioning position reference when the form is captured. For example, when a form is captured, evaluation of character recognition of evaluation character strings such as “name”, “Nissei”, and “number” in partial areas corresponding to the areas A11, A12, and A13 in the image area being shot is performed. By performing the above, it is possible to determine the appropriateness of the positioning of the form and the in-focus state of the entire form.

図1Bに、画像領域内における図1Aに例示の運転免許証の撮像画像の説明図を例示する。図1Bの画像例において、画像領域Z0は、カメラ機能を備えた文字認識支援装置の画像領域を表し、画像領域Z0には、撮像対象となる帳票の撮像画像(画像データ)の部分領域Z1が含まれる。   FIG. 1B illustrates an explanatory diagram of a captured image of the driver's license illustrated in FIG. 1A in the image area. In the image example of FIG. 1B, an image area Z0 represents an image area of a character recognition support apparatus having a camera function, and a partial area Z1 of a captured image (image data) of a form to be imaged is included in the image area Z0. included.

図1Bに例示の撮像画像は、例えば、撮影対象となる帳票の位置決めが適正に行われた場合の画像例である。帳票の適正な位置決めとして、例えば、図1Bのように、帳票の撮像画像の部分領域Z1の縁辺Z1a−Z1dと文字認識支援装置の画像領域Z0の縁辺Z0a−Z0dとが、それぞれ平行となり、且つ、部分領域Z1と画像領域Z0との中心位置が重畳する状態が例示できる。なお、撮像された帳票の撮像画像の領域Z1の画像サイズは、例えば、帳票内に記述された文字を正しく読取り(文字認識)できる大きさである。   The captured image illustrated in FIG. 1B is an example of an image when the form to be imaged is properly positioned, for example. As an appropriate positioning of the form, for example, as shown in FIG. 1B, the edges Z1a-Z1d of the partial area Z1 of the captured image of the form and the edges Z0a-Z0d of the image area Z0 of the character recognition support device are parallel to each other. A state in which the center positions of the partial area Z1 and the image area Z0 overlap can be exemplified. The image size of the area Z1 of the captured image of the captured form is, for example, a size that can correctly read (character recognition) the characters described in the form.

図1Bに例示のように、撮影対象となる帳票の位置決めが適正に行われた場合では、画像領域Z0には、例えば、図1Aに例示の領域A11,A12,A13,A14のそれぞれに対応する部分領域Z11,Z12,Z13,Z14が含まれることとなる。部分領域Z11は、図1Aの帳票例での文字列“氏名”が記述された領域A11に対応する画像の領域であり、同様に、部分領域Z12は、文字列“日生”が記述された領域A12に対応する画像の領域である。また、部分領域Z13は、図1Aの帳票例での文字列“番号”が記述された領域A13に対応する画像の領域であり、同様に、部分領域Z14は、文字“
号”が記述された領域A14に対応する画像の領域である。
As illustrated in FIG. 1B, when the document to be imaged is properly positioned, the image area Z0 corresponds to, for example, each of the areas A11, A12, A13, and A14 illustrated in FIG. 1A. Partial regions Z11, Z12, Z13, and Z14 are included. The partial area Z11 is an image area corresponding to the area A11 in which the character string “name” in the form example of FIG. 1A is described. Similarly, the partial area Z12 is an area in which the character string “Nissei” is described. This is an image area corresponding to A12. The partial area Z13 is an image area corresponding to the area A13 in which the character string “number” in the form example of FIG. 1A is described. Similarly, the partial area Z14 includes the character “
This is an image area corresponding to the area A14 in which “No.” is described.

部分領域Z11では、例えば、領域A11で記述された文字列“氏名”に含まれる“氏”および“名”といった文字情報が認識可能となる。同様に、例えば、部分領域Z12では、領域A12で記述された文字列“日生”に含まれる“日”および“生”といった文字情報が認識可能となる。また、部分領域Z13では、領域A13で記述された文字列“番号”に含まれる“番”および“号”といった文字情報が認識可能となり、部分領域Z14では、領域A14で記述された文字“号”といった文字情報が認識可能となる。   In the partial area Z11, for example, character information such as “name” and “name” included in the character string “name” described in the area A11 can be recognized. Similarly, for example, in the partial area Z12, character information such as “day” and “raw” included in the character string “Nissho” described in the area A12 can be recognized. In the partial area Z13, character information such as “No.” and “No.” included in the character string “No.” described in the area A13 can be recognized. In the partial area Z14, the character “No.” described in the area A14 can be recognized. Can be recognized.

このように、撮影対象となる帳票の位置決めが適正に行われ、帳票内に記述された文字が正しく認識できる合焦状態では、画像領域Z0には、評価用文字列として採用した帳票内の文字列を認識可能な部分領域が複数に含まれることとなる。そして、画像領域Z0内での各部分領域は、評価用文字列として採用した文字列の帳票内の記述位置(領域)に対応する所定の画像領域に位置することとなる。   In this way, in the focused state in which the form to be photographed is properly positioned and the characters described in the form can be correctly recognized, the characters in the form adopted as the evaluation character string are displayed in the image area Z0. A plurality of partial areas in which the column can be recognized are included. Each partial area in the image area Z0 is located in a predetermined image area corresponding to the description position (area) in the form of the character string adopted as the evaluation character string.

従って、予め撮影対象の帳票に対する画像領域Z0内の各部分領域の座標を位置決めのための位置基準として特定し、特定した各部分領域の画像データについて文字認識を行うことにより、帳票の位置決めの適正さ、帳票全体の合焦状態の同時判定が可能となる。   Therefore, the coordinates of each partial area in the image area Z0 with respect to the form to be photographed are specified as a position reference for positioning, and character recognition is performed on the image data of each specified partial area, thereby ensuring proper positioning of the form. Now, it is possible to simultaneously determine the in-focus state of the entire form.

例えば、撮影対象となる帳票の適正な撮影位置に対する画像領域Z0内の各部分領域の位置情報(座標情報)を予め実験的に特定し、特定した画像領域Z0内の各部分領域の位置情報をデータベース(DB:Data Base、以下“DB”と称す)として保持する。ここで、適正な撮影位置とは、例えば、画像領域Z0内の撮像された帳票の画像と画像領域Z0との関係が、図1Bで説明した関係を有する場合をいう。   For example, the position information (coordinate information) of each partial area in the image area Z0 with respect to the appropriate shooting position of the form to be imaged is experimentally specified in advance, and the position information of each partial area in the specified image area Z0 is obtained. Stored as a database (DB: Data Base, hereinafter referred to as “DB”). Here, the appropriate shooting position refers to, for example, a case where the relationship between the image of the captured form in the image region Z0 and the image region Z0 has the relationship described in FIG. 1B.

画像領域Z0内の各部分領域の位置情報は、例えば、画像領域Z0内での2次元の座標情報として表すことができる。例えば、図1Bの例では、画像領域Z0における上下方向をY軸方向とし、左右方向をX軸方向とし、評価用文字列に対応する部分領域の左上の画素位置、及び右下の画素位置を指定することができる。なお、部分領域の位置情報は、評価用文字列に含まれる文字毎に指定するとしてもよい。また、DBに保持される画像領域Z0内の各部分領域の位置情報には、例えば、撮影対象となる帳票において評価用文字列として採用された文字列の文字情報が対応付けられる。   The position information of each partial area in the image area Z0 can be expressed as, for example, two-dimensional coordinate information in the image area Z0. For example, in the example of FIG. 1B, the vertical direction in the image area Z0 is the Y-axis direction, the horizontal direction is the X-axis direction, and the upper left pixel position and the lower right pixel position of the partial area corresponding to the evaluation character string are Can be specified. The position information of the partial area may be specified for each character included in the evaluation character string. The position information of each partial area in the image area Z0 held in the DB is associated with, for example, character information of a character string adopted as an evaluation character string in a form to be photographed.

そして、帳票の撮影時に、例えば、DBに保持された各部分領域の位置情報および文字列の文字情報を参照し、受け付けた撮影中の撮像画像に対して部分領域毎の文字認識を行う。部分領域毎の文字認識は、各部分領域の位置情報に対応付けられた、帳票内の評価用文字列に含まれる文字情報により行う。   Then, when the form is photographed, for example, the position information of each partial area and the character information of the character string held in the DB are referred to, and character recognition for each partial area is performed on the received captured image being photographed. Character recognition for each partial area is performed using character information included in the evaluation character string in the form associated with the position information of each partial area.

受け付けた撮影中の撮像画像に対して、3箇所以上の部分領域に対応する文字・文字列の文字認識の評価を行うことで、撮影対象となる帳票の位置決めの適正さ、帳票内の文字を正しく認識するための画質を判定することが可能となる。   By evaluating the character recognition of characters and character strings corresponding to three or more partial areas on the received captured image, the appropriateness of positioning of the form to be photographed and the characters in the form It is possible to determine the image quality for correct recognition.

なお、図1A、1Bでは、定型化された文字・文字列を評価用文字列として採用したが、評価用文字列は、例えば、撮影対象となる帳票毎に、4隅の部分領域に記述された文字・文字列から特定するとしてもよい。   1A and 1B, stylized characters / character strings are used as evaluation character strings. However, the evaluation character strings are described in, for example, partial areas at four corners for each form to be photographed. It may be specified from the character / character string.

例えば、撮影対象となる帳票のサイズが共通する場合では、撮影対象となる帳票の適正な撮影位置に対する画像領域Z0内の各部分領域の位置情報(座標情報)を共有することが可能である。帳票撮影前に、サイズが共通する帳票毎に適正な撮影位置に対する、4隅の評価文字列が記述された、画像領域Z0内の各部分領域の位置情報を指定することが可
能である。
For example, when the sizes of the forms to be photographed are common, it is possible to share the position information (coordinate information) of each partial area in the image area Z0 with respect to the appropriate photographing position of the form to be photographed. Prior to taking a form, it is possible to specify the position information of each partial area in the image area Z0 in which the evaluation character strings at the four corners are described for the appropriate taking positions for each form having a common size.

例えば、帳票撮影前に、帳票のサイズに応じた画像領域内の部分領域Z11−Z14に対応する帳票内の領域A11−A14を特定する。そして、特定された帳票内の領域A11−A14に記述された文字・文字列を評価用文字列として採用し、メモリ等に一時的に記憶する。そして、記憶された文字・文字列と、サイズが共通する帳票毎の各部分領域の位置情報に基づいて、3箇所以上の部分領域での文字認識の評価を行い、撮影対象となる帳票の位置決めの適正さ、帳票内の文字を正しく認識するための画質を判定するとすればよい。撮影対象となる帳票のサイズ毎に、撮影時の位置決めの適正さ、帳票内の文字を正しく認識するための画質を判定できる。   For example, before taking a form, the area A11-A14 in the form corresponding to the partial areas Z11-Z14 in the image area corresponding to the size of the form is specified. Then, the character / character string described in the area A11-A14 in the specified form is adopted as the evaluation character string, and is temporarily stored in a memory or the like. Then, based on the stored character / character string and the position information of each partial area for each form having a common size, the character recognition is evaluated in three or more partial areas, and the form to be photographed is positioned. And the image quality for correctly recognizing characters in the form may be determined. For each size of the form to be photographed, it is possible to determine the appropriate positioning at the time of photographing and the image quality for correctly recognizing the characters in the form.

また、3箇所以上の部分領域の内、1箇所、または、2箇所の部分領域の文字・文字列が正しく認識できた場合には、例えば、撮影中の帳票画像が表示されるLCD等の表示画面に重畳して、認識された部分領域を提示するとしてもよい。撮影中の帳票画像に対し、部分的に認識された部分領域を提示することにより、撮影中の帳票に対する位置決めのためのカメラ等の傾き、動かし方等を補佐することができる。   In addition, when characters or character strings in one or two partial areas among three or more partial areas are correctly recognized, for example, a display such as an LCD on which a form image being captured is displayed The recognized partial area may be presented on the screen. By presenting a partially recognized partial area with respect to the form image being photographed, it is possible to assist tilting and moving the camera for positioning with respect to the form being photographed.

なお、図1A、1Bの説明では4隅の領域としたが、本実施形態の文字認識装置の処理が、4隅に限定されるわけではない。例えば、矩形の帳票の撮像画像においては、4隅に相当する領域の画質が最も劣化し易く、言い換えれば、4隅に相当する領域の画質が文字認識可能な画質の場合には、帳票の撮像画像全体が文字認識可能な画質である傾向にある。   In the description of FIGS. 1A and 1B, the four corner regions are used, but the processing of the character recognition apparatus of the present embodiment is not limited to the four corners. For example, in a captured image of a rectangular form, the image quality of the area corresponding to the four corners is most likely to deteriorate. In other words, when the image quality of the area corresponding to the four corners is image recognizable, the image of the form is captured. There is a tendency that the entire image has an image quality capable of character recognition.

しかし、例えば、3隅以上の領域を選択する場合には、文字のサイズ、寸法、帳票内の配置位置に応じて、4隅の中から対象となる領域を適宜、選択することができる。但し、評価の対象となる文字列位置は、帳票画像内に分散されることが望ましく、相互に近接しないことが望ましい。   However, for example, when selecting an area having three or more corners, a target area can be appropriately selected from the four corners according to the size, size, and arrangement position in the form. However, the character string positions to be evaluated are desirably dispersed within the form image and desirably not close to each other.

〔装置構成〕
図2に、本実施形態の文字認識支援装置10のハードウェアの構成の一例を例示する。図2に例示する文字認識支援装置10は、いわゆる一般的なコンピュータの構成を有している。図2に例示の、文字認識支援装置10は、接続バスB1によって相互に接続されたCPU(Central Processing Unit)11、主記憶部12、補助記憶部13、入力部14
、出力部15、通信部16を有する。主記憶部12及び補助記憶部13は、文字認識支援装置10が読み取り可能な記録媒体である。
〔Device configuration〕
FIG. 2 illustrates an example of a hardware configuration of the character recognition support device 10 of this embodiment. The character recognition support apparatus 10 illustrated in FIG. 2 has a so-called general computer configuration. The character recognition support apparatus 10 illustrated in FIG. 2 includes a CPU (Central Processing Unit) 11, a main storage unit 12, an auxiliary storage unit 13, and an input unit 14 connected to each other via a connection bus B1.
, An output unit 15 and a communication unit 16. The main storage unit 12 and the auxiliary storage unit 13 are recording media that can be read by the character recognition support device 10.

文字認識支援装置10は、CPU11が補助記憶部13に記憶されたプログラムを主記憶部12の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行う。これにより、文字認識支援装置10は、所定の目的に合致した機能を実現することができる。   In the character recognition support device 10, the CPU 11 develops a program stored in the auxiliary storage unit 13 in a work area of the main storage unit 12 so as to be executable, and controls peripheral devices through the execution of the program. Thereby, the character recognition assistance apparatus 10 can implement | achieve the function corresponding to the predetermined objective.

図2に例示の文字認識支援装置10では、CPU11は、文字認識支援装置10全体の制御を行う中央処理演算装置である。CPU11は、補助記憶部13に格納されたプログラムに従って処理を行う。主記憶部12は、CPU11がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶部12は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。   In the character recognition support device 10 illustrated in FIG. 2, the CPU 11 is a central processing unit that controls the entire character recognition support device 10. The CPU 11 performs processing according to a program stored in the auxiliary storage unit 13. The main storage unit 12 is a storage medium in which the CPU 11 caches programs and data and expands a work area. The main storage unit 12 includes, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory).

補助記憶部13は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。補助記憶部13は、外部記憶装置とも呼ばれる。補助記憶部13には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納
される。OSは、通信部16を介して接続される外部装置等とのデータの受け渡しを行う通信インターフェースプログラムを含む。外部装置等には、例えば、接続されたネットワーク上の、他の情報処理装置、外部記憶装置等が含まれる。
The auxiliary storage unit 13 stores various programs and various data in a recording medium in a readable and writable manner. The auxiliary storage unit 13 is also called an external storage device. The auxiliary storage unit 13 stores an operating system (OS), various programs, various tables, and the like. The OS includes a communication interface program that exchanges data with an external device or the like connected via the communication unit 16. Examples of the external device include other information processing devices and external storage devices on a connected network.

補助記憶部13は、例えば、EPROM(Erasable Programmable ROM)、ソリッドス
テートドライブ装置、ハードディスクドライブ(HDD、Hard Disk Drive)装置等であ
る。また、補助記憶部13としては、例えば、CDドライブ装置、DVDドライブ装置、BD(Blu-ray(登録商標) Disc)ドライブ装置等が提示できる。記録媒体としては、例えば、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、BD、USB(Universal Serial Bus)メモリ、メモリカード等がある。
The auxiliary storage unit 13 is, for example, an EPROM (Erasable Programmable ROM), a solid state drive device, a hard disk drive (HDD, Hard Disk Drive) device, or the like. Further, as the auxiliary storage unit 13, for example, a CD drive device, a DVD drive device, a BD (Blu-ray (registered trademark) Disc) drive device, or the like can be presented. Examples of the recording medium include a silicon disk including a nonvolatile semiconductor memory (flash memory), a hard disk, a CD, a DVD, a BD, a USB (Universal Serial Bus) memory, and a memory card.

入力部14は、ユーザ等からの操作指示等を受け付ける。入力部14は、入力ボタン、キーボード、タッチパネル等のポインティングデバイス、ワイヤレスリモコン、マイクロフォン等の入力デバイスである。また、入力部14には、カメラ14a等の撮影対象となる帳票の画像情報を取得する入力デバイスが含まれる。入力部14から入力された情報は、接続バスB1を介してCPU11に通知される。   The input unit 14 receives an operation instruction or the like from a user or the like. The input unit 14 is an input device such as an input button, a pointing device such as a keyboard and a touch panel, a wireless remote controller, and a microphone. The input unit 14 includes an input device that acquires image information of a form to be photographed, such as the camera 14a. Information input from the input unit 14 is notified to the CPU 11 via the connection bus B1.

出力部15は、CPU11で処理されるデータや主記憶部12に記憶されるデータを出力する。出力部15は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)15a、PDP(Plasma Display Panel)、EL(Electroluminescence
)パネル、有機ELパネル、プリンタ、スピーカ等の出力デバイスである。通信部16は、例えば、ネットワーク等とのインターフェースである。
The output unit 15 outputs data processed by the CPU 11 and data stored in the main storage unit 12. The output unit 15 includes a CRT (Cathode Ray Tube) display, an LCD (Liquid Crystal Display) 15a, a PDP (Plasma Display Panel), and an EL (Electroluminescence).
) Output devices such as panels, organic EL panels, printers and speakers. The communication unit 16 is an interface with a network or the like, for example.

文字認識支援装置10は、例えば、CPU11が補助記憶部13に記憶されているOS、各種プログラムや各種データを主記憶部12に読み出して実行することにより、対象プログラムの実行と共に、図2に例示のが各処理手段を実現する。文字認識支援装置10は、対象プログラムの実行と共に、図2に例示の画質評価部101、検出データ処理部102を実現する。但し、図2に例示の各処理手段のいずれか、あるいは、これらの一部がハードウェア回路によって動作するものであってもよい。なお、文字認識支援装置10は、以上の各処理手段が参照し、或いは、管理するデータの格納先として、例えば、評価用文字列DB201を記憶部13に備える。   The character recognition assisting apparatus 10 is illustrated in FIG. 2 together with the execution of the target program, for example, by the CPU 11 reading and executing the OS, various programs, and various data stored in the auxiliary storage unit 13 into the main storage unit 12. Realizes each processing means. The character recognition support apparatus 10 realizes the image quality evaluation unit 101 and the detection data processing unit 102 illustrated in FIG. 2 together with the execution of the target program. However, any of the processing means illustrated in FIG. 2 or a part of them may be operated by a hardware circuit. Note that the character recognition support apparatus 10 includes, for example, an evaluation character string DB 201 in the storage unit 13 as a storage destination of data to be referred to or managed by each of the above processing units.

図2に例示の各処理手段のうち、いずれかが、他の情報処理装置等に含まれてもよい。例えば、画質評価部101を含む情報処理装置と、検出データ処理部102を含む情報処理装置と、外部記憶装置に格納された評価用文字列DB201がネットワークを介して接続し、文字認識支援装置10として機能するとしてもよい。文字認識支援装置10は、例えば、ネットワークN上のコンピュータ群であるクラウドとして実現できる。   Any one of the processing units illustrated in FIG. 2 may be included in another information processing apparatus or the like. For example, an information processing apparatus including an image quality evaluation unit 101, an information processing apparatus including a detection data processing unit 102, and an evaluation character string DB 201 stored in an external storage device are connected via a network, and the character recognition support apparatus 10 May function as The character recognition support device 10 can be realized as a cloud that is a group of computers on the network N, for example.

〔処理ブロック構成〕
図2に例示の説明図において、文字認識支援装置10は、CPU11が実行する画質評価部101、検出データ処理部102の各処理手段を有する。また、文字認識支援装置10は、以上の各処理手段が参照し、或いは、管理するデータの格納先として、例えば、評価用文字列DB201を補助記憶部13に備える。
[Process block configuration]
In the explanatory diagram illustrated in FIG. 2, the character recognition support apparatus 10 includes processing units of an image quality evaluation unit 101 and a detection data processing unit 102 executed by the CPU 11. In addition, the character recognition support apparatus 10 includes, for example, an evaluation character string DB 201 in the auxiliary storage unit 13 as a storage destination of data to be referred to or managed by each of the above processing units.

画質評価部101は、例えば、評価用文字列DB201に登録された評価用文字列に基づいて、撮影中の帳票の撮像画像(画像データ)について、帳票内に記述された文字を正しく認識できる画質であるかの画質評価を行う。   For example, the image quality evaluation unit 101 can correctly recognize the characters described in the form of the captured image (image data) of the form being photographed based on the evaluation character string registered in the evaluation character string DB 201. To evaluate the image quality.

文字認識支援装置10は、例えば、入力部14のカメラ14a等を介して撮影中の帳票
の撮像画像を受け付ける。撮影中の撮像画像の画像データは、例えば、10msといった一定の周期間隔の時系列で文字認識装置10に受け付けられ、主記憶部12のバッファメモリ等に一時的に記憶される。バッファメモリ等に記憶された撮影中の撮像画像の画像データは、時系列順に読み出され、例えば、文字認識支援装置10のLCD15a等の表示画面に、撮影中の帳票の撮影状態を表すモニタ画像として表示される。文字認識支援装置10では、例えば、LCD15a等の表示画面に表示された撮影中の撮像画像を参照した利用者の操作により、撮影対象の帳票の位置決め、シャッター操作等が行われる。LCD15a等に表示された撮影中の帳票の撮像画像は、例えば、利用者のシャッター操作により確定される。
For example, the character recognition support apparatus 10 receives a captured image of a form being photographed via the camera 14 a of the input unit 14 or the like. The image data of the captured image being shot is received by the character recognition device 10 in a time series with a constant periodic interval of, for example, 10 ms, and temporarily stored in the buffer memory or the like of the main storage unit 12. The image data of the captured image being captured stored in the buffer memory or the like is read in chronological order, for example, on a display screen such as the LCD 15a of the character recognition support apparatus 10 and a monitor image representing the captured state of the form being captured. Is displayed. In the character recognition assisting apparatus 10, for example, a document to be imaged is positioned and a shutter operation is performed by a user operation with reference to a captured image being captured displayed on a display screen such as the LCD 15a. The captured image of the form being photographed displayed on the LCD 15a or the like is determined, for example, by a user's shutter operation.

画質評価部101は、例えば、評価用文字列に対応付けられた各部分領域の位置情報(座標情報)を参照し、バッファメモり等に記憶された撮影中の帳票の画像データの、各部分領域を特定する。そして、画質評価部101は、例えば、特定された各部分領域の画像データについて、登録された評価用文字列の文字情報に基づいて文字認識を行う。文字認識は、例えば、評価用文字列に含まれる文字の文字情報とのパターンマッチング等の照合により行われる。登録された評価用文字列の文字情報に基づく文字認識は、部分領域毎に行われる。   The image quality evaluation unit 101 refers to, for example, the position information (coordinate information) of each partial area associated with the evaluation character string, and each part of the image data of the form being captured stored in the buffer memory or the like. Identify the area. Then, for example, the image quality evaluation unit 101 performs character recognition on the image data of each specified partial area based on the character information of the registered evaluation character string. Character recognition is performed, for example, by collation such as pattern matching with character information of characters included in the evaluation character string. Character recognition based on the character information of the registered evaluation character string is performed for each partial area.

画質評価部101は、例えば、各部分領域の文字認識の結果、全ての部分領域、或いは、所定数以上の部分領域で評価用文字列の文字情報の文字認識ができた場合には、撮影中の評価対象となる撮像画像が十分な画質であると判定する。画質評価部101は、例えば、撮影中の評価対象となる撮像画像が、帳票内に記述された文字等の文字認識を行うために十分な画質であると判定する。   For example, if the character recognition of the character information of the evaluation character string has been recognized in all partial areas or a predetermined number or more of partial areas as a result of character recognition of each partial area, the image quality evaluation unit 101 is currently shooting. It is determined that the captured image to be evaluated has a sufficient image quality. For example, the image quality evaluation unit 101 determines that the captured image to be evaluated during shooting has sufficient image quality to recognize characters such as characters described in the form.

画質評価部101は、例えば、撮影中の撮像画像が帳票内に記述された文字等の文字認識を行うために十分な画質であると判定する場合には、例えば、撮像画像の画像データを主記憶部12の所定の領域に一時的に記憶する。画質評価部101により、文字認識を行うために十分な画質であると判定された撮像画像は、例えば、検出データ処理部102に引き渡される。   For example, when the image quality evaluation unit 101 determines that the captured image being captured has sufficient image quality for character recognition such as characters described in the form, for example, the image data of the captured image is mainly used. The data is temporarily stored in a predetermined area of the storage unit 12. The captured image that is determined by the image quality evaluation unit 101 to have sufficient image quality for character recognition is delivered to the detection data processing unit 102, for example.

検出データ処理部102は、例えば、画質評価部101から引き渡された撮像画像に基づいて、帳票の画像データ領域の文字認識を行い、文字認識により検出された帳票内の文字列を検出データ文字列として出力する。文字認識により検出された帳票内の文字列は、例えば、文字認識支援装置10の備える出力部15に出力される。   For example, the detection data processing unit 102 performs character recognition of the image data area of the form based on the captured image delivered from the image quality evaluation unit 101, and detects the character string in the form detected by character recognition as the detection data character string. Output as. The character string in the form detected by the character recognition is output to the output unit 15 provided in the character recognition support device 10, for example.

なお、画質評価部101は、例えば、各部分領域の文字認識において、評価用文字列に含まれる認識文字の一致の度合いを表す評価値によって、撮影中の撮像画像の画質を評価するとしてもよい。   Note that the image quality evaluation unit 101 may evaluate the image quality of the captured image being captured by an evaluation value representing the degree of matching of the recognized characters included in the evaluation character string, for example, in character recognition of each partial region. .

例えば、図1Aの領域A11の文字列“氏名”において、“名”との文字については、“名”と認識する文字候補、“タ”と認識する文字候補、“口”と認識する文字候補が想定される。例えば、部分領域での文字認識の結果、文字候補“名”の評価値、文字候補“タ”の評価値、文字候補“口”の評価値がそれぞれに得られた場合、真の文字“名”に対する確信度を以下の数式(1)で表すことができる。   For example, in the character string “name” in the area A11 of FIG. 1A, for the character “name”, a character candidate recognized as “name”, a character candidate recognized as “ta”, and a character candidate recognized as “mouth” Is assumed. For example, if the evaluation value of the character candidate “name”, the evaluation value of the character candidate “ta”, and the evaluation value of the character candidate “mouth” are obtained as a result of character recognition in the partial area, the true character “name” The certainty factor for "" can be expressed by the following formula (1).

数式(1)で求められる確信度は、例えば、認識対象となる文字が文字候補として採用された文字であるか否かを示す指標である。   The certainty factor obtained by the mathematical formula (1) is, for example, an index indicating whether or not the character to be recognized is a character that has been adopted as a character candidate.

確信度=(最も高い文字候補の評価値)/(2番目に高い文字候補の評価値)…数式(1)
例えば、認識対象となる文字と候補文字との一致の度合いを表す評価値が“0−100”の範囲で求められる場合、最も高い文字候補の評価値が“100”,2番目に高い文字候補の評価値が“30”として求められたと想定する。このときの確信度は、数式(1)より、“(100)/(30)=3.3”と求められる。確信度が“3.3”として得られた場合には、例えば、最も高い文字候補の認識結果が2番目に高い文字候補の認識結果よりも3倍以上も大きいことを示しており、2番目に評価値の高い文字候補が採用される確率は相対的に小さいことを示している。
Certainty factor = (evaluation value of the highest character candidate) / (evaluation value of the second highest character candidate)... (1)
For example, when the evaluation value indicating the degree of matching between the character to be recognized and the candidate character is obtained in the range of “0-100”, the evaluation value of the highest character candidate is “100”, and the second highest character candidate It is assumed that the evaluation value is obtained as “30”. The certainty factor at this time is obtained as “(100) / (30) = 3.3” from Equation (1). When the certainty factor is obtained as “3.3”, for example, it indicates that the recognition result of the highest character candidate is three times or more larger than the recognition result of the second highest character candidate. This indicates that the probability that a character candidate having a high evaluation value is adopted is relatively small.

従って、数式(1)で求められる確信度に対し、閾値:Thを設定し、例えば、“確信度≧Th”との関係を満たす場合に、撮影中の評価対象となる撮像画像が帳票内に記述された文字等の文字認識を行うために十分な画質であると判定するとしてもよい。
〔データベース構成〕
図3に、評価用文字列DB201に登録されるデータの一例を例示する。図3に例示の評価用文字列のデータは、例えば、図1Aに例示の運転免許証を認識対象の帳票とした場合の例である。図1Aで説明したように、帳票内の4隅の領域A1−A4に記述される文字列である、“氏名”、“日生”、“番号”、“号”が評価用文字列として採用されている。評価用文字列DB201には、例えば、文字認識の対象となる帳票毎に、図3に例示の評価用文字列のデータが登録される。
Therefore, when the threshold value Th is set for the certainty factor obtained by the mathematical formula (1) and the relationship “confidence ≧ Th” is satisfied, for example, the captured image to be evaluated during photographing is included in the form. It may be determined that the image quality is sufficient for recognizing characters such as written characters.
[Database configuration]
FIG. 3 illustrates an example of data registered in the evaluation character string DB 201. The character string data for evaluation illustrated in FIG. 3 is an example when the driver's license illustrated in FIG. 1A is a form to be recognized. As described with reference to FIG. 1A, “Name”, “Nissei”, “No.”, “No.”, which are character strings described in the four corner areas A1-A4 in the form, are adopted as the evaluation character strings. ing. In the evaluation character string DB 201, for example, data of the evaluation character string illustrated in FIG. 3 is registered for each form that is a character recognition target.

図3に例示の評価用文字列DB201は、「No」、「Char#」、「char」、「sx」、「sy」、「ex」、「ey」、「文字」の各カラムを有する。評価用文字列DB201は「No」毎のレコードを有し、「No」毎のレコードは、さらに評価用文字列に含まれる文字毎のサブレコードを有する。   The evaluation character string DB 201 illustrated in FIG. 3 includes columns of “No”, “Char #”, “char”, “sx”, “sy”, “ex”, “ey”, and “character”. The evaluation character string DB 201 includes a record for each “No”, and the record for each “No” further includes a sub-record for each character included in the evaluation character string.

「No」カラムには、評価用文字列が記述された帳票内の領域A1−A4に対応する撮像画像内の画像領域での部分領域を一意に識別する識別番号が格納される。「Char#」カラムには、評価用文字列に含まれる文字の個数が格納される。「char」カラムには、評価用文字列に含まれる文字の識別番号が格納される。   In the “No” column, an identification number for uniquely identifying a partial area in the image area in the captured image corresponding to the area A1-A4 in the form in which the evaluation character string is described is stored. The “Char #” column stores the number of characters included in the evaluation character string. In the “char” column, the identification number of the character included in the evaluation character string is stored.

「sx」カラムには、評価用文字列に含まれる文字の画像領域内の左上画素の位置を示す左右方向の座標情報が格納される。「sy」カラムには、評価用文字列に含まれる文字の画像領域内の左上画素の位置を示す上下方向の座標情報が格納される。「ex」カラムには、評価用文字列に含まれる文字の画像領域内の右下画素の位置を示す左右方向の座標情報が格納される。「ey」カラムには、評価用文字列に含まれる文字の画像領域内の右下画素の位置を示す上下方向の座標情報が格納される。「文字」カラムには、評価用文字列に含まれる単語等の文字情報が含まれる。   The “sx” column stores coordinate information in the horizontal direction indicating the position of the upper left pixel in the image area of the character included in the evaluation character string. The “sy” column stores coordinate information in the vertical direction indicating the position of the upper left pixel in the image area of the character included in the evaluation character string. The “ex” column stores coordinate information in the horizontal direction indicating the position of the lower right pixel in the image area of the character included in the evaluation character string. The “ey” column stores vertical coordinate information indicating the position of the lower right pixel in the image area of the character included in the evaluation character string. The “character” column includes character information such as a word included in the evaluation character string.

図3に例示の評価用文字列DB201において、例えば、図1Aに例示の、左上端部の領域A11に記述された評価用文字列“氏名”は、「No」カラムに“0”が格納された部分領域のレコードに対応付けられている。評価用文字列“氏名”に含まれる文字情報は、“氏”および“名”であるため、「Char#」カラムには文字の個数である“2”が格納されている。評価用文字列“氏名”に対応する部分領域のレコードは、「Char#」カラムに格納された文字個数に対応するサブレコードを有する。評価用文字列“氏名”に対応する部分領域のレコードは、「char」カラムに“0”、“1”が格納されたサブレコードを有する。   In the evaluation character string DB 201 illustrated in FIG. 3, for example, the evaluation character string “name” described in the area A11 at the upper left end illustrated in FIG. 1A stores “0” in the “No” column. Corresponding to the record of the partial area. Since the character information included in the evaluation character string “name” is “name” and “name”, the “Char #” column stores “2” as the number of characters. The record in the partial area corresponding to the evaluation character string “name” has a sub-record corresponding to the number of characters stored in the “Char #” column. The record in the partial area corresponding to the evaluation character string “name” has sub-records in which “0” and “1” are stored in the “char” column.

例えば、帳票等に記述される評価用文字列“氏名”は、左側から順に“氏”,“名”と記述される。評価用文字列DB201では、例えば、評価用文字列の左側から順に「char」カラムに格納される識別番号が付与される。図3の例では、評価用文字列の“氏”に対応するサブレコードの「char」カラムには“0”が格納され、評価用文字列の“
名”に対応するサブレコードの「char」カラムには“1”が格納される。
For example, an evaluation character string “name” described in a form or the like is described as “name” and “name” sequentially from the left side. In the evaluation character string DB 201, for example, identification numbers stored in the “char” column are sequentially given from the left side of the evaluation character string. In the example of FIG. 3, “0” is stored in the “char” column of the sub-record corresponding to “Mr” of the evaluation character string, and “
“1” is stored in the “char” column of the sub-record corresponding to “name”.

評価用文字列の“氏”に対応するサブレコードの「sx」、「sy」、「ex」、「ey」カラムには、それぞれに、評価用文字列の“氏”に対応する画像領域内の部分領域の位置情報を示す座標が格納される。例えば、「sx」カラムには、“氏”に対応する部分領域の左上画素の位置を示す左右方向の座標情報“10”が格納されている。例えば、「sy」カラムには、“氏”に対応する部分領域の左上画素の位置を示す上下方向の座標情報“10”が格納されている。また、例えば、「ex」カラムには、“氏”に対応する部分領域の右下画素の位置を示す左右方向の座標情報“20”が格納されている。例えば、「ey」カラムには、“氏”に対応する部分領域の右下画素の位置を示す上下方向の座標情報“20”が格納されている。   The “sx”, “sy”, “ex”, and “ey” columns of the sub-record corresponding to the evaluation character string “Fr” are respectively in the image area corresponding to the evaluation character string “Fr.”. The coordinates indicating the position information of the partial area are stored. For example, in the “sx” column, coordinate information “10” in the left-right direction indicating the position of the upper left pixel of the partial region corresponding to “Mr.” is stored. For example, the “sy” column stores vertical coordinate information “10” indicating the position of the upper left pixel in the partial area corresponding to “Mr.”. For example, in the “ex” column, horizontal coordinate information “20” indicating the position of the lower right pixel in the partial region corresponding to “Mr.” is stored. For example, the “ey” column stores vertical coordinate information “20” indicating the position of the lower right pixel in the partial region corresponding to “Mr.”.

評価用文字列の“名”についても同様にして、評価用文字列の“名”に対応する画像領域内の部分領域の位置情報を示す座標が、サブレコードの「sx」、「sy」、「ex」、「ey」カラムに格納される。例えば、「sx」カラムには、“名”に対応する部分領域の左上画素の位置を示す左右方向の座標情報“20”が格納されている。例えば、「sy」カラムには、“名”に対応する部分領域の左上画素の位置を示す上下方向の座標情報“10”が格納されている。また、例えば、「ex」カラムには、“名”に対応する部分領域の右下画素の位置を示す左右方向の座標情報“30”が格納されている。例えば、「ey」カラムには、“名”に対応する部分領域の右下画素の位置を示す上下方向の座標情報“20”が格納されている。   Similarly for the “name” of the evaluation character string, the coordinates indicating the position information of the partial area in the image area corresponding to the “name” of the evaluation character string are “sx”, “sy”, Stored in the “ex” and “ey” columns. For example, the “sx” column stores horizontal coordinate information “20” indicating the position of the upper left pixel of the partial area corresponding to “name”. For example, the “sy” column stores vertical coordinate information “10” indicating the position of the upper left pixel of the partial area corresponding to “name”. For example, in the “ex” column, horizontal coordinate information “30” indicating the position of the lower right pixel in the partial region corresponding to “name” is stored. For example, the “ey” column stores vertical coordinate information “20” indicating the position of the lower right pixel in the partial area corresponding to “name”.

評価用文字列としての“氏名”は、帳票内では同一の記述行に記述される。このため、評価用文字列DB201の登録時には、帳票内で同一の記述行に記述される評価用文字列は、それぞれの文字に対応する部分領域の上下方向の画素位置を示す座標情報は同じ座標値が格納されることとなる。   “Name” as the evaluation character string is described in the same description line in the form. Therefore, at the time of registration in the evaluation character string DB 201, the evaluation character strings described in the same description line in the form have the same coordinate information indicating the vertical pixel positions of the partial areas corresponding to the respective characters. The value will be stored.

図3の例では、例えば、「No」カラムに“0”、“1”が格納されたレコードの「sy」カラムには同一の座標値である“10”が格納され、「ey」カラムには同一の座標値である“20”が格納されている。また、例えば、「No」カラムに“2”、“3”が格納されたレコードの「sy」カラムには同一の座標値である“100”が格納され、「ey」カラムには同一の座標値である“110”が格納されている。「No」カラムに“0”が格納されたレコードの評価用文字列と、“1”が格納されたレコードの評価用文字列とは、文字認識の対象となる帳票において、同一の記述行に記載されていることがわかる。同様に、「No」カラムに“2”が格納されたレコードの評価用文字列と、“3”が格納されたレコードの評価用文字列とは、文字認識の対象となる帳票において、同一の記述行に記載されていることがわかる。   In the example of FIG. 3, for example, “10”, which is the same coordinate value, is stored in the “sy” column of the record in which “0” and “1” are stored in the “No” column, and the “ey” column. Stores “20” which is the same coordinate value. Also, for example, the same coordinate value “100” is stored in the “sy” column of the record in which “2” and “3” are stored in the “No” column, and the same coordinate is stored in the “ey” column. The value “110” is stored. The evaluation character string of the record in which “0” is stored in the “No” column and the evaluation character string of the record in which “1” is stored are in the same description line in the form subject to character recognition. It can be seen that it is described. Similarly, the evaluation character string of the record in which “2” is stored in the “No” column and the evaluation character string of the record in which “3” is stored are the same in the form subject to character recognition. It can be seen that it is described in the description line.

なお、図3の例では、評価用文字列DB201には、帳票内の4隅の領域の文字列に対応付けられた部分領域の評価用文字列のデータが登録されるとして説明した。図1Bで説明したように、画像領域内での撮像画像の位置決めは3箇所以上の部分領域の特定により可能である。このため、評価用文字列DB201に登録される評価用文字列のデータ数は、帳票内の4隅の内、任意に選択した3隅のデータを登録するとしてもよい。例えば、図3の例では、評価用文字列として採用された“氏名”、“日生”、“番号”、“号”の内、複数の文字を含む“氏名”、“日生”、“番号”を選択し、評価用文字列DB201に登録するとしてもよい。   In the example of FIG. 3, the evaluation character string DB 201 has been described on the assumption that data of evaluation character strings of partial areas associated with the character strings of the four corner areas in the form are registered. As described with reference to FIG. 1B, the captured image can be positioned in the image area by specifying three or more partial areas. For this reason, the number of data of the evaluation character string registered in the evaluation character string DB 201 may be data of three corners arbitrarily selected from the four corners in the form. For example, in the example of FIG. 3, “Name”, “Nissei”, “Number” including a plurality of characters among “Name”, “Nissei”, “No.”, “No.” adopted as the evaluation character string. May be selected and registered in the evaluation character string DB 201.

また、評価用文字列DB201に登録される部分領域の位置情報(座標情報)は、あそび領域(マージン領域)を含むように設定されるとしてもよい。評価用文字列DB201に登録される部分領域の位置情報に余裕を持たせることにより、例えば、微細(数画素)
な位置ズレを含む文字を認識することが可能となる。
Further, the position information (coordinate information) of the partial area registered in the evaluation character string DB 201 may be set so as to include the play area (margin area). By giving a margin to the position information of the partial area registered in the evaluation character string DB 201, for example, fine (several pixels)
It is possible to recognize a character including a misalignment.

〔処理フロー〕
以下、図4A−4Cに例示のフローチャートを参照し、本実施形態の文字認識支援装置10の文字認識処理を説明する。図4Aは、文字認識処理の全体処理を示すフローチャートの例示である。図4Aに例示のフローチャートにおいて、文字認識処理の開始は、例えば、文字認識処理の対象となる帳票の、撮像画像の受け付けのときが例示できる。
[Process flow]
Hereinafter, the character recognition process of the character recognition support device 10 of this embodiment will be described with reference to the flowchart illustrated in FIGS. 4A to 4C. FIG. 4A is an example of a flowchart showing the entire character recognition process. In the flowchart illustrated in FIG. 4A, the start of the character recognition process can be exemplified by, for example, the time when a captured image of a form that is a target of the character recognition process is received.

文字認支援識装置10は、例えば、入力部14のカメラ14a等を介して撮影中の帳票の撮像画像を受け付ける。文字認識支援装置10は、例えば、10msといった一定の周期間隔の時系列で撮影中の撮像画像の画像データを受け付ける。受け付けられた撮影中の撮像画像の画像データは、時系列順に主記憶部12のバッファメモリ等に一時的に記憶される。バッファメモリ等に記憶された撮影中の撮像画像の画像データは、時系列順に読み出され、例えば、文字認識支援装置10のLCD15a等の表示画面に、撮影中の帳票の撮影状態を表すモニタ画像として表示される。文字認識支援装置10は、例えば、時系列順にバッファメモリ等から読み出された撮影中の撮像画像の画像データに対し、図4Aに例示の文字認識処理を行う。   For example, the character recognition support recognition device 10 receives a captured image of a form being photographed via the camera 14a of the input unit 14 or the like. The character recognition assisting apparatus 10 receives image data of a captured image being captured in a time series with a constant periodic interval of, for example, 10 ms. The received image data of the captured image being captured is temporarily stored in the buffer memory or the like of the main storage unit 12 in chronological order. The image data of the captured image being captured stored in the buffer memory or the like is read in chronological order, for example, on a display screen such as the LCD 15a of the character recognition support apparatus 10 and a monitor image representing the captured state of the form being captured. Is displayed. For example, the character recognition support apparatus 10 performs the character recognition processing illustrated in FIG. 4A on the image data of the captured image being captured read from the buffer memory or the like in chronological order.

図4Aに例示のフローチャートにおいて、文字認識支援装置10は、例えば、バッファメモリ等から読み出された撮影中の撮像画像の画像データについて画質評価処理を行う(S1)。画質評価処理は、例えば、評価用文字列DB201に登録された撮影中の帳票の評価用文字列のデータ(画質評価用文字列テーブルとも称す)に基づいて行われる。画質評価処理では、例えば、撮影中の撮像画像の画像データが画像領域内において適正な位置に位置決めが行われ、且つ、撮影中の撮像画像の画像データが帳票内の文字を正しく認識するための十分な画質であるかが判定される。文字認識支援装置10は、例えば、S1の画質評価処理の判定結果をS2の処理に引き渡す。なお、S1の画質評価処理は、図4B,4Cで説明する。   In the flowchart illustrated in FIG. 4A, the character recognition assisting apparatus 10 performs image quality evaluation processing on the image data of the captured image being captured read from, for example, a buffer memory (S1). The image quality evaluation process is performed, for example, based on evaluation character string data (also referred to as an image quality evaluation character string table) of a document being photographed registered in the evaluation character string DB 201. In the image quality evaluation process, for example, the image data of the captured image being shot is positioned at an appropriate position in the image area, and the image data of the captured image being shot is for correctly recognizing characters in the form. It is determined whether the image quality is sufficient. For example, the character recognition support device 10 passes the determination result of the image quality evaluation process of S1 to the process of S2. The image quality evaluation process in S1 will be described with reference to FIGS. 4B and 4C.

文字認識支援装置10は、例えば、S1の画質評価処理から引き渡された判定結果に基づいて、処理中の撮像画像の画像データが帳票内の文字を正しく認識するための十分な画質を有するか否かを判定する(S2)。処理中の撮像画像の画像データに対する十分な画質であるか否かの判定は、例えば、処理中の撮像画像の画像データに付加されたフラグ情報により行われる。   For example, the character recognition support apparatus 10 determines whether or not the image data of the captured image being processed has sufficient image quality for correctly recognizing characters in the form based on the determination result delivered from the image quality evaluation process of S1. Is determined (S2). Whether or not the image quality of the captured image being processed has sufficient image quality is determined by, for example, flag information added to the image data of the captured image being processed.

文字認識支援装置10は、例えば、処理中の撮像画像の画像データに、フラグ値“1”のフラグ情報が付加されている場合には(S2,“Y”)、S3の処理に移行する。S3の処理では、文字認識支援装置10は、例えば、処理中の撮像画像の画像データを主記憶部12の所定の領域に一時的に記憶する。そして、文字認識支援装置10は、例えば、撮像画像の帳票が撮像された、図1Bに例示の画像領域Z1のデータ領域について文字認識を行う。画像領域Z1内のデータ領域の文字認識は、例えば、検出データ処理部102により行われる。文字認識支援装置10は、例えば、文字認識により検出された帳票内の文字情報を検出データ文字列として、文字認識支援装置10の出力部15に出力し、処理中の撮像画像に対する文字認識処理を終了する。   For example, when the flag information of the flag value “1” is added to the image data of the captured image being processed (S2, “Y”), the character recognition assisting apparatus 10 proceeds to the process of S3. In the process of S3, the character recognition assisting apparatus 10 temporarily stores, for example, image data of the captured image being processed in a predetermined area of the main storage unit 12. Then, for example, the character recognition assisting apparatus 10 performs character recognition on the data area of the image area Z1 illustrated in FIG. 1B where the form of the captured image is captured. Character recognition of the data area in the image area Z1 is performed by, for example, the detection data processing unit 102. The character recognition support device 10 outputs, for example, character information in a form detected by character recognition to the output unit 15 of the character recognition support device 10 as a detection data character string, and performs character recognition processing on the captured image being processed. finish.

一方、文字認識支援装置10は、例えば、処理中の撮影画像の画像データに、フラグ値“1”のフラグ情報が付加されていない場合には(S2,“N”)、S3の処理をスキップし、処理中の撮像画像に対する文字認識処理を終了する。文字認識支援装置10は、例えば、時系列順にバッファメモリ等から読み出された次の撮影中の撮像画像の画像データを対象として文字認識処理を継続する。文字認識処理は、例えば、帳票内に記述された文字認識が行われるまで繰り返し実行される。   On the other hand, for example, when the flag information of the flag value “1” is not added to the image data of the photographed image being processed (S2, “N”), the character recognition assisting apparatus 10 skips the process of S3. Then, the character recognition process for the captured image being processed ends. For example, the character recognition support device 10 continues the character recognition process on the image data of the next captured image read out from the buffer memory or the like in time series. The character recognition process is repeatedly executed until, for example, character recognition described in the form is performed.

次に、図4Bに例示のフローチャートを参照し、図4Aに例示のS1の画質評価処理の詳細を説明する。図4Bに例示にフローチャートにおいて、文字認識支援装置10は、例えば、処理中の撮像画像の画像データに対し、“画質フラグ”を“0”とするフラグ情報を付与する(S11)。フラグ情報は、例えば、2値状態を“0”、“1”等の単一ビットで識別する情報である。S11の処理では、文字認識支援装置10は、処理中の撮像画像の画像データに対し、初期値として“画質フラグ”を“0”とするフラグ情報の設定を行う。   Next, details of the image quality evaluation process of S1 illustrated in FIG. 4A will be described with reference to the flowchart illustrated in FIG. 4B. In the flowchart illustrated in FIG. 4B, for example, the character recognition assisting apparatus 10 adds flag information that sets the “image quality flag” to “0” to the image data of the captured image being processed (S11). The flag information is information for identifying a binary state by a single bit such as “0” or “1”, for example. In the process of S11, the character recognition assisting apparatus 10 sets flag information that sets “image quality flag” to “0” as an initial value for the image data of the captured image being processed.

S12の処理では、文字認識支援装置10は、例えば、評価用文字列DB201を参照し、撮影中の帳票に対応する評価用文字列のデータ(画質評価用文字列テーブル)の読み込みを行う。読み込まれた評価用文字列のデータは、例えば、主記憶部12の所定の領域に一時的に記憶される。   In the process of S12, for example, the character recognition support device 10 refers to the evaluation character string DB 201, and reads evaluation character string data (image quality evaluation character string table) corresponding to the form being photographed. The read evaluation character string data is temporarily stored in a predetermined area of the main storage unit 12, for example.

S13の処理では、文字認識支援装置10は、例えば、S12の処理で読み込んだ評価用文字列のデータに基づいて、処理中の撮像画像の部分領域についての文字認識を行う。   In the process of S13, the character recognition assisting apparatus 10 performs character recognition for the partial region of the captured image being processed, for example, based on the evaluation character string data read in the process of S12.

文字認識支援装置10は、例えば、評価用文字列に対応付けられた各部分領域の座標情報から、画像領域内の評価用文字列に対応する座標領域を特定する。そして、文字認識支援装置10は、例えば、特定した座標領域の画像データについて、該座標領域と対応付けられた文字とのパターンマッチング等の照合により文字認識を行う。文字認識支援装置10は、例えば、文字認識処理の対象となる帳票の、3隅以上の記述領域に対応する画像領域内の各部分領域について、評価用文字列に含まれる文字毎に文字認識を実行する。   For example, the character recognition support apparatus 10 specifies a coordinate area corresponding to the evaluation character string in the image area from the coordinate information of each partial area associated with the evaluation character string. Then, the character recognition support apparatus 10 performs character recognition, for example, for image data of the specified coordinate area by collation such as pattern matching with characters associated with the coordinate area. For example, the character recognition support device 10 performs character recognition for each character included in the evaluation character string for each partial region in the image region corresponding to the description region at three or more corners of the form to be subjected to character recognition processing. Run.

S14の処理では、文字認識支援装置10は、例えば、処理中の画像領域内における帳票の3隅以上の記述領域に対応する各部分領域について、評価用文字列に含まれる全ての文字が認識できたかを判定する。   In the process of S14, the character recognition support apparatus 10 can recognize all the characters included in the evaluation character string, for example, for each partial area corresponding to the description area at three or more corners of the form in the image area being processed. It is determined.

文字認識支援装置10は、例えば、帳票の3隅以上の記述領域に対応する各部分領域について、評価用文字列に含まれる全ての文字が認識できた場合には(S14,“Y”)、S15の処理に移行する。S15の処理では、文字認識支援装置10は、例えば、処理中の撮像画像の画像データに対し、帳票内の文字を正しく認識するための十分な画質であると判断し、S11の処理で付与された“画質フラグ”のフラグ値に“1”を設定する。処理中の撮像画像の画像データに対し、“画質フラグ”のフラグ値に“1”を設定した文字認識支援装置10は、処理中の画質評価処理を終了する。   For example, when all the characters included in the evaluation character string can be recognized for each partial region corresponding to the description region at three or more corners of the form (S14, “Y”), the character recognition support device 10 The process proceeds to S15. In the process of S15, the character recognition support apparatus 10 determines that the image data of the captured image being processed has sufficient image quality for correctly recognizing characters in the form, and is given in the process of S11. Also, “1” is set to the flag value of “image quality flag”. For the image data of the captured image being processed, the character recognition assisting apparatus 10 that has set the flag value of the “image quality flag” to “1” ends the image quality evaluation process being processed.

一方、文字認識支援装置10は、例えば、帳票の3隅以上の記述領域に対応する各部分領域について、評価用文字列に含まれる全ての文字が認識できない場合には(S14,“N”)、処理中の画質評価処理を終了する。   On the other hand, when the character recognition support apparatus 10 cannot recognize all the characters included in the evaluation character string, for example, for each partial area corresponding to the description area at three or more corners of the form (S14, “N”). Then, the image quality evaluation process being processed is terminated.

なお、S14の処理において、例えば、3箇所以上の部分領域の内、1箇所、または、2箇所の部分領域に対する評価用文字列の全ての文字が認識できた場合を想定する。この場合には、文字認識支援装置10は、例えば、該当箇所の座標情報を主記憶部12の所定の領域に一時的に記憶し、処理中の画質評価処理を終了するとしてもよい。文字認識支援装置10は、例えば、評価用文字列の全ての文字が認識できた部分領域について、該当箇所の座標情報に基づいて、認識された部分領域を撮影中の帳票画像が表示されるLCD等の表示画面に重畳して提示するとしてもよい。   In the process of S14, for example, a case is assumed in which all characters in the evaluation character string for one or two partial areas out of three or more partial areas are recognized. In this case, for example, the character recognition assisting apparatus 10 may temporarily store the coordinate information of the corresponding part in a predetermined area of the main storage unit 12 and end the image quality evaluation process being processed. The character recognition support device 10 displays, for example, an LCD on which a form image of a recognized partial region is being photographed based on the coordinate information of the corresponding portion of the partial region in which all characters of the evaluation character string have been recognized. It is also possible to present it superimposed on the display screen.

図4Dに、LCD等に表示される、文字認識された部分領域についての表示例を例示する。図4Dの表示例において、領域Z1は、撮影中の帳票の撮像画像を表し、領域Z11
−Z14は、評価用文字列として採用された各文字列に対応する画像領域内の部分領域である。撮影中の帳票の撮像画像において、領域Z11は左上端部、領域Z12は右上端部、領域Z13は左下端部、領域Z14は右下端部に対応する。
FIG. 4D illustrates a display example of a character-recognized partial area displayed on an LCD or the like. In the display example of FIG. 4D, a region Z1 represents a captured image of a form that is being shot, and a region Z11.
-Z14 is a partial area in the image area corresponding to each character string adopted as the evaluation character string. In the captured image of the form being photographed, the region Z11 corresponds to the upper left end, the region Z12 corresponds to the upper right end, the region Z13 corresponds to the lower left end, and the region Z14 corresponds to the lower right end.

図4Bに例示の画質評価処理により、例えば、領域Z12に対応する評価用文字列“日生”に含まれる全ての文字が文字認識されたと想定する。文字認識支援装置10は、例えば、図4BのS14の処理で記憶された部分領域の座標情報から、評価用文字列に含まれる全ての文字の文字認識が行われた部分領域を特定する。そして、文字認識支援装置10は、例えば、撮影中の帳票の撮像画像の、文字認識が行われた部分領域に重畳させて、帳票の撮影位置が固定されたことを示すマーカー等のガイド枠を表示する。   It is assumed that, for example, all the characters included in the evaluation character string “Nissho” corresponding to the region Z12 have been recognized by the image quality evaluation process illustrated in FIG. 4B. For example, the character recognition assisting apparatus 10 specifies a partial area in which character recognition of all characters included in the evaluation character string has been performed from the coordinate information of the partial area stored in the process of S14 of FIG. 4B. Then, the character recognition support device 10 superimposes a guide frame such as a marker indicating that the photographing position of the form is fixed by superimposing the captured image of the form being photographed on the partial area where the character recognition is performed. indicate.

図4Dの表示例において、例えば、マーカーG12は、撮影中の撮像画像の、文字認識が行われた部分領域に対応する帳票の隅位置を囲む2つの縁辺を強調するガイド枠である。文字認識支援装置10は、例えば、撮影中の帳票の撮像画像に対し、文字認識が行われた部分領域に対応する帳票の隅位置を囲む2つの縁辺に対するガイド枠としてマーカーG12を表示する。例えば、領域Z12は、右上端部の隅に対応するため、撮影中の帳票の右上端部の隅を囲む上側縁辺及び右側縁辺に帳票の撮影位置が固定されたことを示すマーカーG12が重畳されて表示される。   In the display example of FIG. 4D, for example, the marker G12 is a guide frame that emphasizes two edges surrounding a corner position of a form corresponding to a partial area where character recognition has been performed on a captured image being shot. For example, the character recognition assisting apparatus 10 displays a marker G12 as a guide frame for two edges surrounding the corner positions of the form corresponding to the partial area where the character recognition is performed on the captured image of the form being photographed. For example, since the region Z12 corresponds to the upper right corner, the marker G12 indicating that the shooting position of the form is fixed is superimposed on the upper and right edges surrounding the upper right corner of the form being shot. Displayed.

なお、帳票の撮影位置が固定されたことを示すマーカーG12の表示時において、他の隅位置を囲む2つの縁辺に、帳票の撮影位置が固定されていないことを示すマーカーが表示されるとしてもよい。例えば、図4Dの表示例では、マーカーG12とは異なる表示形態のマーカーG11,G13,G14が、帳票の撮影位置が固定されていない他の隅位置を囲む2つの縁辺にガイド枠として重畳されて表示されている。   When the marker G12 indicating that the form shooting position is fixed is displayed, a marker indicating that the form shooting position is not fixed is displayed on the two edges surrounding the other corner positions. Good. For example, in the display example of FIG. 4D, markers G11, G13, and G14 having a display form different from the marker G12 are superimposed as guide frames on two edges that surround other corner positions where the photographing position of the form is not fixed. It is displayed.

図4Dの表示例では、例えば、マーカーG12の表示形態は、隅位置を囲む2つの縁辺に重畳された実線として表示されるのに対し、他のマーカーG11,G13,G14の表示形態は、隅位置を囲む2つの縁辺に重畳された破線として表示されている。マーカーG11は、撮影中の帳票の左上端部の隅を囲む上側縁辺及び左側縁辺に重畳して表示されている。同様にして、マーカーG13は、撮影中の帳票の左下端部の隅を囲む下側縁辺及び左側縁辺に重畳して表示されている。マーカーG14は、撮影中の帳票の右下端部の隅を囲む下側縁辺及び右側縁辺に重畳して表示されている。   In the display example of FIG. 4D, for example, the display form of the marker G12 is displayed as a solid line superimposed on two edges surrounding the corner position, whereas the display forms of the other markers G11, G13, and G14 are It is displayed as a broken line superimposed on two edges surrounding the position. The marker G11 is displayed so as to be superimposed on the upper edge and the left edge surrounding the upper left corner of the form being photographed. Similarly, the marker G13 is displayed so as to be superimposed on the lower side edge and the left side edge surrounding the corner of the lower left end of the form being shot. The marker G14 is displayed so as to be superimposed on the lower edge and the right edge surrounding the corner of the lower right corner of the form being photographed.

図4Dに例示のように、文字認識支援装置10は、撮影中の帳票画像に対し、部分的に文字認識された部分領域を提示することにより、撮影中の帳票に対する位置決めのためのカメラ等の傾き、動かし方等を補佐することが可能となる。文字認識支援装置10の利用者(ユーザ)は、例えば、LCD15a等の表示画面に表示された、撮影中の帳票のモニタ画像に対するマーカーG12等を参照し、撮影位置が固定された部分領域を基準として位置決め操作を行うことが可能となる。   As illustrated in FIG. 4D, the character recognition support device 10 presents a partial area that is partially character-recognized with respect to the form image being photographed, such as a camera for positioning with respect to the form being photographed. It is possible to assist in tilting and moving. A user (user) of the character recognition support apparatus 10 refers to, for example, the marker G12 for the monitor image of the form being photographed displayed on the display screen of the LCD 15a or the like, and uses the partial area where the photographing position is fixed as a reference. The positioning operation can be performed as follows.

図4Cに例示のフローチャートは、評価用文字列に含まれる文字に対する文字認識の一致の度合いを示す評価値を使用し、撮影中の撮像画像についての画質評価処理を行う場合の処理例である。図4Cに例示のフローチャートにおいて、S11,S12,S15の処理では、例えば、図4Bに例示のフローチャートの同番号の処理が行われる。   The flowchart illustrated in FIG. 4C is a processing example in the case of performing an image quality evaluation process on a captured image that is being captured using an evaluation value that indicates the degree of matching of character recognition with respect to characters included in the evaluation character string. In the flowchart illustrated in FIG. 4C, in the processing of S11, S12, and S15, for example, the processing of the same number as in the flowchart illustrated in FIG. 4B is performed.

図4Cに例示のフローチャートにおいて、S16の処理では、文字認識支援装置10は、例えば、処理中の撮像画像の部分領域についての文字認識を行うと共に、評価用文字列の真の文字に対する文字毎の評価値を求める。S16の処理では、例えば、評価用文字列の真の文字に対する複数の文字候補が、真の文字との一致の度合いを示す評価値と共に求められる。   In the flowchart illustrated in FIG. 4C, in the process of S <b> 16, the character recognition support device 10 performs, for example, character recognition for a partial region of the captured image being processed, and for each character for the true character of the evaluation character string. Obtain an evaluation value. In the process of S16, for example, a plurality of character candidates for the true character of the evaluation character string are obtained together with an evaluation value indicating the degree of coincidence with the true character.

ここで、真の文字に対する文字候補の評価値は、例えば、“0−100”の範囲の一致の度合いで表すことができる。そして、文字認識支援装置10は、例えば、評価用文字列に含まれる真の文字に対する複数の文字候補について、数式(1)で説明した確信度を算出する。確信度は、例えば、評価用文字列に含まれる文字毎に求められる。   Here, the evaluation value of the character candidate for the true character can be expressed by, for example, the degree of matching in the range of “0-100”. And the character recognition assistance apparatus 10 calculates the certainty factor demonstrated by Numerical formula (1) about the several character candidate with respect to the true character contained in the character string for evaluation, for example. The certainty factor is obtained for each character included in the evaluation character string, for example.

S17の処理では、文字認識支援装置10は、例えば、S16の処理で求められた全ての文字毎の確信度が予め設定された閾値:Th以上であるかを判定する。文字認識支援装置10は、例えば、評価用文字列DB201に登録された3隅以上の帳票の記述領域に対応する全ての部分領域について、評価用文字列に含まれる文字に対する確信度が全て、予め設定された閾値:Th以上であるかを判定する。   In the process of S17, the character recognition assistance apparatus 10 determines whether the certainty factor for every character calculated | required by the process of S16 is more than the preset threshold value Th, for example. For example, the character recognition assisting apparatus 10 has all the certainty factors for the characters included in the evaluation character strings in advance for all partial areas corresponding to the description areas of the three or more corners registered in the evaluation character string DB 201. It is determined whether the set threshold value is equal to or greater than Th.

文字認識支援装置10は、例えば、帳票の3隅以上の記述領域に対応する各部分領域の、評価用文字列に含まれる全ての文字の確信度が閾値:Th以上である場合には(S17,“Y”)、S15の処理に移行する。一方、文字認識支援装置10は、例えば、帳票の3隅以上の記述領域に対応する各部分領域の、評価用文字列に含まれる全ての文字の確信度が閾値:Th以上でない場合には(S17,“N”)、処理中の画質評価処理を終了する。   For example, when the certainty factor of all the characters included in the evaluation character string in each partial region corresponding to the description region at three or more corners of the form is equal to or greater than the threshold value Th (S17) , “Y”), the process proceeds to S15. On the other hand, the character recognition support apparatus 10, for example, when the certainty factor of all the characters included in the evaluation character string in each partial area corresponding to the description area at three or more corners of the form is not equal to or greater than the threshold value Th ( S17, “N”), the image quality evaluation process being processed is terminated.

なお、S17の処理において、例えば、3箇所以上の部分領域の内、1箇所、または、2箇所の部分領域に含まれる全ての文字の確信度が閾値:Th以上である場合を想定する。この場合には、文字認識支援装置10は、例えば、該当箇所の座標情報を主記憶部12の所定の領域に一時的に記憶し、処理中の画質評価処理を終了するとしてもよい。文字認識支援装置10は、例えば、確信度が閾値:Th以上である部分領域について、図4Dに例示のように、該当箇所の座標情報に基づいて撮影中の帳票画像が表示されるLCD15a等の表示画面に重畳して、文字認識された部分領域を提示することができる。   In the process of S17, for example, a case is assumed in which the certainty factor of all characters included in one or two partial areas out of three or more partial areas is greater than or equal to a threshold value Th. In this case, for example, the character recognition assisting apparatus 10 may temporarily store the coordinate information of the corresponding part in a predetermined area of the main storage unit 12 and end the image quality evaluation process being processed. For example, the character recognition assisting apparatus 10 may display the form image being captured on the basis of the coordinate information of the corresponding part as shown in FIG. 4D for the partial area having the certainty factor equal to or greater than the threshold value Th. It is possible to present a partial area where character recognition has been performed by superimposing it on the display screen.

以上、説明したように、本実施形態の文字認識支援装置10では、カメラ14a等を介して受け付けた撮影中の帳票の撮像画像に対し、評価用文字列DB201に登録された評価用文字列および画像領域内の座標情報に基づいて画質評価を行うことができる。画質評価は、撮影中の帳票の画像領域内の3隅以上の部分領域を対象として行うことができる。画質評価は、撮影中の帳票の3隅以上の部分領域における、評価用文字列として登録された文字・文字列の文字認識の可否により行われる。このため、文字認識支援装置10は、撮影中の帳票の画像領域内の3隅以上の部分領域を対象として画質評価を行うことにより、例えば、撮影中の帳票に対する画像領域内の適正な位置決め、及び、撮像画像の帳票内の文字を正しく認識できるか否かを判定できる。本実施形態の文字認識支援装置10は、画像の確定前に撮影中の撮像画像に対し、文字を正しく認識できる認識対象の画像が撮れるかを予め判断することができる。   As described above, in the character recognition support device 10 of the present embodiment, the evaluation character string registered in the evaluation character string DB 201 and the captured image of the form being photographed received via the camera 14a and the like Image quality evaluation can be performed based on the coordinate information in the image area. The image quality evaluation can be performed on partial areas at three or more corners in the image area of the form being photographed. The image quality evaluation is performed based on whether or not characters / character strings registered as evaluation character strings can be recognized in partial areas at three or more corners of the form being photographed. For this reason, the character recognition support device 10 performs, for example, proper positioning in the image area with respect to the form being photographed by performing image quality evaluation on the partial areas of three or more corners in the image area of the form being photographed. It is also possible to determine whether or not the characters in the captured image form can be recognized correctly. The character recognition assisting apparatus 10 according to the present embodiment can determine in advance whether a recognition target image capable of correctly recognizing characters can be taken with respect to a captured image being captured before the image is determined.

<実施例2>
実施例2の文字認識支援装置(以下、本実施形態の文字認識装置と称す)は、例えば、画質評価部での文字認識の結果に基づいて、撮影中の帳票に対する位置決めの支援を行う。実施例2の文字認識支援装置では、例えば、撮影中の帳票の評価用文字列に対応する画像領域内の3隅の部分領域の内、少なくとも2隅以上の部分領域について文字認識が行われることを条件として、撮影中の帳票に対する位置決めの支援が行われる。
<Example 2>
The character recognition support device according to the second embodiment (hereinafter referred to as a character recognition device according to the present embodiment) supports positioning of a form being photographed based on, for example, a result of character recognition by an image quality evaluation unit. In the character recognition support apparatus according to the second embodiment, for example, character recognition is performed on at least two partial areas among the three partial areas in the image area corresponding to the evaluation character string of the form being photographed. As a condition, positioning support for the form being photographed is provided.

実施例2の文字認識支援装置は、例えば、少なくとも文字認識が行われた2隅以上の部分領域から撮影中の帳票の状態を推定する。そして文字認識支援装置は、例えば、推定した撮影中の帳票の状態に基づいて、画像領域内の撮像画像に対して並進移動、回転移動、奥行き方向の前後移動、歪み補正等についての位置決めの支援を行う。文字認識支援装置
の撮影中の帳票に対する位置決めの支援は、例えば、撮影中の撮像画像に重畳するマーカー等のガイド枠として表示される。本実施形態の文字認識支援装置は、画像の確定前に撮影中の撮像画像に対し、文字を正しく認識できる撮影位置への移動を指示することが可能となる。
For example, the character recognition support apparatus according to the second embodiment estimates the state of a form being photographed from at least two partial areas where character recognition has been performed. Then, the character recognition support device, for example, supports positioning for translational movement, rotational movement, forward / backward movement in the depth direction, distortion correction, and the like with respect to the captured image in the image area based on the estimated state of the form being shot. I do. The positioning support for the form being photographed by the character recognition support apparatus is displayed as a guide frame such as a marker superimposed on the captured image being photographed, for example. The character recognition support apparatus according to the present embodiment can instruct the captured image being photographed to be moved to a photographing position where characters can be correctly recognized before the image is determined.

〔処理ブロック構成〕
図5に、本実施形態の文字認識支援装置のハードウェアの構成の一例を例示する。本実施形態の文字認識支援装置20は、実施例1の文字認識支援装置10と同様のハードウェアの構成を有する。但し、図5に例示のように、文字認識支援装置20では、CPU11が実行する処理手段として、画質評価部210、帳票状態推定部211、状態表示部212、検出データ処理部213の各処理手段を有する。なお、検出データ処理部213は、例えば、図2に例示の検出データ処理部102に相当する処理手段である。
[Process block configuration]
FIG. 5 illustrates an example of a hardware configuration of the character recognition support apparatus of this embodiment. The character recognition support device 20 of the present embodiment has the same hardware configuration as the character recognition support device 10 of the first embodiment. However, as illustrated in FIG. 5, in the character recognition support device 20, as the processing means executed by the CPU 11, the processing means of the image quality evaluation unit 210, the form state estimation unit 211, the state display unit 212, and the detection data processing unit 213. Have The detection data processing unit 213 is a processing unit corresponding to the detection data processing unit 102 illustrated in FIG.

[画質評価処理]
画質評価部210は、例えば、評価用文字列DB201に登録された評価用文字列に対応付けられた座標情報に基づいて、撮影中の帳票の撮像画像(画像データ)が含まれる画像領域内に、3隅以上の位置決めの支援を行うための“評価用領域”の設定を行う。そして、画質評価部210は、例えば、設定した2隅以上の“評価用領域”について文字認識を行い、帳票内に記述された文字を正しく認識できる画質であるかの画質評価を行う。画質評価部210は、例えば、少なくとも2隅以上の“評価用領域”において評価用文字列の文字認識が行われたことを判定し、撮影中の帳票の撮像画像に対する画質評価を行う。
[Image quality evaluation process]
The image quality evaluation unit 210, for example, in an image area that includes a captured image (image data) of a form being shot based on coordinate information associated with an evaluation character string registered in the evaluation character string DB 201. “Evaluation area” is set to support positioning at three or more corners. Then, the image quality evaluation unit 210 performs character recognition for, for example, two or more set “evaluation areas”, and performs image quality evaluation to determine whether the image quality can be correctly recognized in the form. For example, the image quality evaluation unit 210 determines that character recognition of the evaluation character string has been performed in at least two “evaluation areas” and performs image quality evaluation on the captured image of the form being captured.

画像領域内の評価用領域は、例えば、評価用文字列DB201に登録された評価用文字列の“sx”、“sy”、“ex”、“ey”の各座標情報に基づいて、以下の数式(2)、(3)の関係を満たすように設定することができる。なお、数式(2)における(sx´,sy´)は、評価用領域の左上画素の座標位置を表し、数式(3)における(ex´,ey´)は、評価用領域の右下画素の座標位置を表す。   The evaluation area in the image area is, for example, based on the coordinate information of “sx”, “sy”, “ex”, and “ey” of the evaluation character string registered in the evaluation character string DB 201 as follows. It can set so that the relationship of Numerical formula (2) and (3) may be satisfy | filled. Note that (sx ′, sy ′) in Expression (2) represents the coordinate position of the upper left pixel in the evaluation area, and (ex ′, ey ′) in Expression (3) represents the lower right pixel in the evaluation area. Represents the coordinate position.

(sx´,sy´)=(2sx−ex,2sy−ey) …数式(2)
(ex´,ey´)=(2ex−sx,2ey−sy) …数式(3)
数式(2)、(3)により、左上画素および右下画素の座標位置が求められた評価用領域では、例えば、評価用文字列の文字認識の対象となる領域範囲は、登録された座標情報に対し、9倍に拡張されることとなる。画質評価部210は、例えば、撮影中の画像領域内において、領域範囲が拡張された評価用領域を対象として、評価用文字列に含まれる文字毎の文字認識を行い、撮影中の帳票の撮像画像に対する画質評価を行う。画質評価部210の撮影中の撮像画像についての画質評価の結果は、例えば、帳票状態推定部211に引き渡される。
(Sx ′, sy ′) = (2sx−ex, 2sy−ey) (2)
(Ex ′, ey ′) = (2ex−sx, 2ey−sy) (3)
In the evaluation area in which the coordinate positions of the upper left pixel and the lower right pixel are obtained by the mathematical formulas (2) and (3), for example, the area range to be subjected to character recognition of the evaluation character string is registered coordinate information. On the other hand, it will be expanded 9 times. The image quality evaluation unit 210 performs character recognition for each character included in the evaluation character string, for example, for an evaluation area whose area range is expanded in the image area being shot, and captures the form being shot. Perform image quality evaluation on images. The result of the image quality evaluation of the captured image being shot by the image quality evaluation unit 210 is delivered to the form state estimation unit 211, for example.

なお、領域範囲が拡張された評価用領域内には、例えば、左右方向、上下方向に傾いて歪みを伴った評価用文字列が、文字認識対象の文字列として検出される。左右方向、上下方向に傾いて歪みを伴った文字列では、評価用文字列として登録された真の文字に対し複数の文字候補が得られることが想定できる。このため、画質評価部210は、帳票の位置決めを適切に支援するため、例えば、実施例1で説明したように、数式(1)で算出される文字毎の確信度を用いて評価用領域の文字認識を行うとしてもよい。本実施形態の文字認識支援装置20の画質評価部210では、文字毎の確信度を用いて評価用領域の文字認識が行われることにより、例えば、評価用文字列に含まれる文字についての文字認識の信頼性を高めることができる。   It should be noted that, for example, an evaluation character string that is skewed in the left-right direction and the up-down direction and is distorted is detected as a character string to be character-recognized in the evaluation area with the expanded area range. In a character string that is skewed in the left-right direction and the vertical direction and is distorted, it can be assumed that a plurality of character candidates are obtained for a true character registered as an evaluation character string. Therefore, the image quality evaluation unit 210 appropriately supports the positioning of the form. For example, as described in the first embodiment, the image quality evaluation unit 210 uses the certainty factor for each character calculated by Expression (1) to determine the evaluation area. Character recognition may be performed. In the image quality evaluation unit 210 of the character recognition support device 20 of the present embodiment, character recognition of the evaluation area is performed using the certainty factor for each character, for example, character recognition for characters included in the evaluation character string. Can improve the reliability.

[帳票状態推定処理]
帳票状態推定部211は、例えば、画質評価部210の画質の判定結果に基づいて撮影
中の帳票の状態を推定し、撮影中の撮像画像に対する、画像領域内の適正な撮影位置に位置決めを行うためのフラグ情報の付与を行う。本実施形態の文字認識支援装置20では、例えば、帳票状態推定部211により付与されたフラグ情報に基づいて、撮影中の撮像画像についての位置決めの支援が行われる。
[Form status estimation process]
For example, the form state estimation unit 211 estimates the state of the form being shot based on the image quality determination result of the image quality evaluation unit 210, and positions the image in the image area with respect to the captured image being shot. Flag information is added. In the character recognition support device 20 of the present embodiment, for example, based on the flag information given by the form state estimation unit 211, positioning support for a captured image being shot is performed.

帳票状態推定部211は、例えば、撮影中の撮像画像に対し、2隅の評価用領域について文字認識が行われた場合には、文字認識が行われた2隅の評価用領域の座標情報に基づいて、撮像画像の並進移動、回転移動、奥行き方向の前後移動の要否を判定する。   For example, when the character recognition is performed on the evaluation areas at the two corners of the captured image being captured, the form state estimation unit 211 uses the coordinate information of the evaluation areas at the two corners where the character recognition has been performed. Based on this, it is determined whether or not the captured image needs to be translated, rotated, and moved back and forth in the depth direction.

例えば、帳票状態推定部211は、撮影中の撮像画像の画像領域内の座標位置が、適正な撮影位置に対して並進移動を要する場合には、処理中の撮像画像に対し、3ビットのビット値で識別されるフラグ情報を、“並進フラグ”として付与する。また、例えば、帳票状態推定部211は、適正な撮影位置に対して回転移動、奥行き方向の前後移動を要する場合には、処理中の撮像画像に対し、2ビットのビット値で識別されるフラグ情報を、“回転フラグ”、“前後フラグ”として付与する。   For example, when the coordinate position in the image area of the captured image being photographed requires translational movement with respect to the appropriate photographing position, the form state estimation unit 211 performs a 3-bit bit on the captured image being processed. Flag information identified by a value is given as a “translation flag”. Further, for example, when the form state estimation unit 211 requires rotational movement with respect to an appropriate photographing position and forward / backward movement in the depth direction, a flag identified by a 2-bit bit value for the captured image being processed. Information is given as “rotation flag” and “front and back flag”.

また、帳票状態推定部211は、例えば、撮影中の撮像画像に対し、3隅の評価用領域について文字認識が行われた場合には、文字認識が行われた3隅の評価用領域の座標情報に基づいて、画像領域内の撮像画像の適正位置に対する移動の要否を判定する。   In addition, for example, when the character recognition is performed on the three corner evaluation areas for the captured image being shot, the form state estimation unit 211 coordinates the three corner evaluation areas on which the character recognition has been performed. Based on the information, it is determined whether or not it is necessary to move the captured image within the image area with respect to the appropriate position.

3隅の評価用領域について文字認識が行われた場合には、帳票状態推定部211は、例えば、画像領域内の撮像画像の適正位置に対する、並進移動、回転移動、奥行き方向の前後移動に加え、歪み補正の要否を判定する。歪み補正の要否判定は、例えば、上下方向、或いは、左右方向に並ぶ評価用領域で検出された評価用文字列間の距離と、評価用文字列DB201に登録された評価用文字列間の距離との比較により行われる。   When character recognition is performed for the evaluation areas at the three corners, the form state estimation unit 211, for example, in addition to translational movement, rotational movement, and forward / backward movement in the depth direction with respect to the appropriate position of the captured image in the image area. The necessity of distortion correction is determined. Whether or not distortion correction is necessary is determined by, for example, the distance between the evaluation character strings detected in the evaluation areas arranged in the vertical direction or the horizontal direction, and between the evaluation character strings registered in the evaluation character string DB 201. This is done by comparison with distance.

帳票状態推定部211は、例えば、撮影中の撮像画像の画像領域内の座標位置が、適正な撮影位置に対して並進移動、回転移動、奥行き方向の前後移動を要する場合には、各移動の種別を表す各種フラグに、上述したフラグ情報を付与する。また、帳票状態推定部211は、例えば、歪み補正を要する場合には、3ビットのビット値で識別されるフラグ情報を、“歪みフラグ”として付与する。帳票状態推定部211で付与された各種フラグ情報は、例えば、状態表示部212に引き渡される。   For example, when the coordinate position in the image area of the captured image being shot requires translational movement, rotational movement, and back-and-forth movement in the depth direction with respect to the appropriate shooting position, the form state estimation unit 211 performs each movement. The above-described flag information is added to various flags representing types. Further, for example, when the distortion correction is required, the form state estimation unit 211 assigns flag information identified by a 3-bit bit value as a “distortion flag”. Various flag information given by the form state estimation unit 211 is delivered to the state display unit 212, for example.

帳票状態推定部211における、帳票の撮影状態の推定は、例えば、各評価用領域内で認識された文字列の重心座標と、各評価用領域に対応する評価用文字列の重心座標との比較により行われる。例えば、評価用文字列DB201に登録された評価用文字列を、図1B等に例示の“氏名”、“日生”、“番号”といった帳票の3隅の領域A11,A12,A13に記述された文字列と想定する。なお、以下の説明では、評価用文字列“氏名”は“評価文字列1”、“日生”は“評価文字列2”、“番号”は“評価文字列3”とも称する。   In the form state estimation unit 211, the photographing state of the form is estimated by, for example, comparing the centroid coordinates of the character string recognized in each evaluation area and the centroid coordinates of the evaluation character string corresponding to each evaluation area. Is done. For example, the evaluation character string registered in the evaluation character string DB 201 is described in the areas A11, A12, and A13 at the three corners of the form such as “name”, “Nissei”, and “number” illustrated in FIG. 1B and the like. Assume a string. In the following description, the evaluation character string “name” is also referred to as “evaluation character string 1”, “Nissei” is also referred to as “evaluation character string 2”, and “number” is also referred to as “evaluation character string 3”.

帳票状態推定部211は、例えば、評価用文字列DB201に登録された評価用文字列の各レコードに格納された文字毎の画像領域内の座標情報(sx,sy,ex,ey)から、該評価用文字列の重心座標を算出する。なお、評価用文字列の重心座標は、例えば、評価用文字列を囲む外接矩形の重心座標として表すことができる。   The form state estimation unit 211, for example, from the coordinate information (sx, sy, ex, ey) in the image area for each character stored in each record of the evaluation character string registered in the evaluation character string DB 201, The barycentric coordinates of the evaluation character string are calculated. Note that the center-of-gravity coordinates of the evaluation character string can be expressed as, for example, the center-of-gravity coordinates of a circumscribed rectangle surrounding the evaluation character string.

図6Aに、評価用文字列に対する重心座標の算出についての説明図を例示する。図6Aに例示の説明図において、評価用文字列は“氏名”であり、“氏(図6Aでは「文字1」)”および“名(図6Aでは「文字2」)”といった文字(単語)が含まれる。また、評価用文字列に含まれる“氏”および“名”のそれぞれを囲む外接矩形は実線で表され、“
氏名”といった評価用文字列の外接矩形は破線で表されている。
FIG. 6A illustrates an explanatory diagram for calculating the barycentric coordinates for the evaluation character string. In the explanatory diagram illustrated in FIG. 6A, the evaluation character string is “name”, and characters (words) such as “name (“ character 1 ”in FIG. 6A)” and “name (“ character 2 ”in FIG. 6A)”. In addition, the circumscribed rectangle that encloses each of "Mr." and "Name" in the evaluation string is represented by a solid line,
A circumscribed rectangle of the evaluation character string such as “name” is represented by a broken line.

評価用文字列に含まれる各文字の、画像領域内の左上の画素位置は座標(sx,sy)で表され、同様にして右下の画素位置は座標(ex,ey)で表される。なお、文字毎の各座標位置は、例えば、図3に例示のように、評価用文字列DB201のレコードの「sx」、「sy」、「ex」、「ey」カラムに格納される。   The upper left pixel position in the image area of each character included in the evaluation character string is represented by coordinates (sx, sy). Similarly, the lower right pixel position is represented by coordinates (ex, ey). Each coordinate position for each character is stored in, for example, the “sx”, “sy”, “ex”, and “ey” columns of the record of the evaluation character string DB 201 as illustrated in FIG.

帳票状態推定部211は、例えば、評価用文字列DB201を参照し、以下に示す数式(4)、(5)に基づいて、評価用文字列を囲む外接矩形の重心座標を算出する。なお、評価文字列1の重心座標は(Xchar1,Ychar1)、評価文字列2の重心座標は(Xchar2
,Ychar2)、評価文字列3の重心座標は(Xchar3,Ychar3)とする。
The form state estimation unit 211 refers to, for example, the evaluation character string DB 201 and calculates the center-of-gravity coordinates of the circumscribed rectangle that surrounds the evaluation character string, based on the following formulas (4) and (5). The barycentric coordinates of the evaluation character string 1 are (Xchar1, Ychar1), and the barycentric coordinates of the evaluation character string 2 are (Xchar2
, Ychar2), and the barycentric coordinates of the evaluation character string 3 are (Xchar3, Ychar3).

Xchar=(min(評価用文字列の各文字のsx)+max(評価用文字列の各文字
のex)) …数式(4)
Ychar=(min(評価用文字列の各文字のsy)+max(評価用文字列の各文字
のey)) …数式(5)
帳票状態推定部211は、数式(4)、(5)に基づいて、評価用文字列DB201に登録された3隅以上の評価用文字列についての各重心座標(Xchar1,Ychar1)、(Xchar2,Ychar2)、(Xchar3,Ychar3)を算出する。算出された、画像領域内の3隅以上の評価用文字列の各重心座標(Xchar1,Ychar1)、(Xchar2,Ychar2)、(Xchar3
,Ychar3)は、例えば、主記憶部12の所定の領域に一時的に記憶される。
Xchar = (min (sx of each character of evaluation character string) + max (each character of evaluation character string
Ex)) Equation (4)
Ychar = (min (sy of each character in evaluation character string) + max (each character in evaluation character string)
Ey)) Equation (5)
The form state estimation unit 211 calculates the barycentric coordinates (Xchar1, Ychar1), (Xchar2,...) For the evaluation character strings at three or more corners registered in the evaluation character string DB 201 based on the mathematical expressions (4) and (5). Ychar2) and (Xchar3, Ychar3) are calculated. The calculated barycentric coordinates (Xchar1, Ychar1), (Xchar2, Ychar2), (Xchar3) of the evaluation character strings at three or more corners in the image area
, Ychar3) is temporarily stored in a predetermined area of the main storage unit 12, for example.

なお、文字認識支援装置20は、評価用文字列DB201に登録された各評価用文字列の画素位置の座標に基づいて、予め評価文字列毎の重心座標を算出し、算出した重心座標を該評価文字列に対応付けて評価用文字列DB201に登録するとしてもよい。   The character recognition assisting device 20 calculates the barycentric coordinates for each evaluation character string in advance based on the coordinates of the pixel position of each evaluation character string registered in the evaluation character string DB 201, and the calculated barycentric coordinates are used as the calculated barycentric coordinates. It may be registered in the evaluation character string DB 201 in association with the evaluation character string.

また、帳票状態推定部211は、例えば、撮影中の帳票の撮像画像について、画質評価部210で設定した評価用領域内の部分画像から認識された“文字列1”、“文字列2”、“文字列3”の重心座標を同様にして算出する。なお、“文字列1”は、評価文字列1に対応する評価用領域内の部分画像から認識された文字列に対応し、“文字列2”は、評価文字列2に対応する評価用領域内の部分画像から認識された文字列に対応する。同様に、“文字列3”は、評価文字列3に対応する評価用領域内の部分画像から認識された文字列に対応する。算出された“文字列1”の重心座標は(X´char1,Y´char1)、“文字列2”の重心座標は(X´char2,Y´char2)、“文字列3”の重心座標は(X´char3
,Y´char3)とする。
Further, the form state estimation unit 211, for example, “character string 1”, “character string 2” recognized from the partial image in the evaluation area set by the image quality evaluation unit 210 for the captured image of the form being photographed, The barycentric coordinates of “character string 3” are calculated in the same manner. “Character string 1” corresponds to the character string recognized from the partial image in the evaluation area corresponding to the evaluation character string 1, and “Character string 2” corresponds to the evaluation area corresponding to the evaluation character string 2. Corresponds to the character string recognized from the partial image. Similarly, “character string 3” corresponds to the character string recognized from the partial image in the evaluation area corresponding to the evaluation character string 3. The calculated barycentric coordinates of “character string 1” are (X′char1, Y′char1), the barycentric coordinates of “character string 2” are (X′char2, Y′char2), and the barycentric coordinates of “character string 3” are (X'char3
, Y′char3).

帳票状態推定部211は、例えば、評価文字列1に対応する評価用領域内の部分画像から認識された“文字列1”に含まれる文字毎の左上画素位置、右下画素位置を特定する。そして、帳票状態推定部211は、例えば、特定した文字毎の左上画素位置、右下画素位置の左右方向の座標から、“文字列1”の重心座標の“X´char1”を数式(4)により
算出する。
The form state estimation unit 211 specifies, for example, the upper left pixel position and the lower right pixel position for each character included in the “character string 1” recognized from the partial image in the evaluation area corresponding to the evaluation character string 1. Then, for example, the form state estimation unit 211 calculates the center-of-gravity coordinate “X′char1” of “character string 1” from the horizontal coordinates of the upper-left pixel position and the lower-right pixel position for each specified character, using Equation (4). Calculated by

また、帳票状態推定部211は、例えば、特定した文字毎の左上画素位置、右下画素位置の上下方向の座標から、“文字列1”の重心座標の“Y´char1”を数式(5)により
算出する。帳票状態推定部211は、“文字列2”、“文字列3”についても同様にして重心座標を求め、求めた各文字列の重心座標(X´char1,Y´char1)、(X´char2,
Y´char2)、(X´char3,Y´char3)を、例えば、主記憶部12の所定の領域に一時
的に記憶する。
Further, the form state estimation unit 211 calculates, for example, “Y′char1” of the center-of-gravity coordinates of “character string 1” from the vertical coordinates of the upper left pixel position and lower right pixel position for each specified character. Calculated by The form state estimation unit 211 similarly obtains the barycentric coordinates for “character string 2” and “character string 3”, and the barycentric coordinates (X′char1, Y′char1), (X′char2) of the obtained character strings. ,
Y′char2) and (X′char3, Y′char3) are temporarily stored in a predetermined area of the main storage unit 12, for example.

帳票状態推定部211は、例えば、評価文字列毎に算出された重心座標と評価用領域内
の部分画像の文字列毎に算出された重心座標とに基づいて、並進移動、回転移動、奥行き方向の前後移動、歪み補正の要否の判定を行う。
For example, the form state estimation unit 211 translates, rotates, and moves in the depth direction based on the centroid coordinates calculated for each evaluation character string and the centroid coordinates calculated for each character string of the partial image in the evaluation area. It is determined whether or not to move back and forth and to correct distortion.

例えば、帳票状態推定部211は、評価用文字列DB201の2隅以上の評価用文字列に対し、評価用文字列毎に算出された各重心座標に基づいて、2隅以上の評価用文字列の全体的な重心座標を算出する。   For example, the form state estimation unit 211 evaluates two or more corners of the evaluation character strings based on the barycentric coordinates calculated for each of the evaluation character strings with respect to the two or more corners of the evaluation character string DB 201. Calculate the overall barycentric coordinates.

図6Bに、3隅の評価用文字列に対する全体的な重心座標の説明図を例示する。図6Bに例示の説明図において、丸囲みハッチングの領域Z11aは、左上隅の評価文字列1の重心座標(Xchar1,Ychar1)を表す。同様に、丸囲みハッチングの領域Z12a、Z13aは、それぞれ評価文字列2の重心座標(Xchar2,Ychar2)、評価文字列3の重心座標(Xchar3,Ychar3)を表す。また、3隅の各評価用文字列の重心座標から算出される全体的な重心座標G1は、例えば、(Xgrav,Ygrav)で表されている。   FIG. 6B illustrates an explanatory diagram of the overall barycentric coordinates for the evaluation character strings at the three corners. In the explanatory diagram illustrated in FIG. 6B, a circled area Z11a represents the barycentric coordinates (Xchar1, Ychar1) of the evaluation character string 1 at the upper left corner. Similarly, the circled hatched areas Z12a and Z13a represent the barycentric coordinates (Xchar2, Ychar2) of the evaluation character string 2 and the barycentric coordinates (Xchar3, Ychar3) of the evaluation character string 3, respectively. Further, the overall center-of-gravity coordinates G1 calculated from the center-of-gravity coordinates of the evaluation character strings at the three corners are represented by, for example, (Xgrav, Ygrav).

例えば、帳票状態推定部211は、以下に示す数式(6)、(7)に基づいて、2隅以上の評価用文字列に対する全体的な重心座標G1の(Xgrav,Ygrav)を算出する。   For example, the form state estimation unit 211 calculates (Xgrav, Ygrav) of the overall barycentric coordinates G1 for the evaluation character strings at two or more corners based on the following formulas (6) and (7).

Xgrav=(1/n)×ΣXcharn´ …数式(6)
n´
Ygrav=(1/n)×ΣYcharn´ …数式(7)
n´
なお、数式(6)、(7)において、“n”は、画質評価部210により文字認識された評価用領域の箇所数を表し、“n´”は、文字認識された評価用領域に対応付けられた“評価文字列”の識別番号を表す。
Xgrav = (1 / n) × ΣXcharn ′ Equation (6)
n '
Ygrav = (1 / n) × ΣYcharn ′ (7)
n '
In Equations (6) and (7), “n” represents the number of evaluation areas recognized by the image quality evaluation unit 210, and “n ′” corresponds to the evaluation area recognized for characters. Indicates the identification number of the “evaluation character string” attached.

例えば、画質評価部210において、文字認識された評価用領域の箇所数が“2”の場合には、“n=2”となり、文字認識された評価用領域に対応する評価用文字列が“評価文字列1”、“評価文字列3”の場合には、“n´=1、3”となる。帳票状態推定部211は、例えば、文字認識された評価用領域に対応する評価文字列1、3の各重心座標から数式(6)、(7)に基づいて、評価文字列1、3に対する全体的な重心座標G1を算出する。   For example, in the image quality evaluation unit 210, when the number of character recognition-recognized evaluation regions is “2”, “n = 2”, and the character string for evaluation corresponding to the character-recognized evaluation region is “ In the case of “evaluation character string 1” and “evaluation character string 3”, “n ′ = 1, 3”. The form state estimation unit 211, for example, the entire evaluation character strings 1 and 3 based on the mathematical formulas (6) and (7) from the barycentric coordinates of the evaluation character strings 1 and 3 corresponding to the character-recognized evaluation area. A central barycentric coordinate G1 is calculated.

同様にして、帳票状態推定部211は、例えば、画質評価部210で文字認識された2隅以上の評価用領域内の“文字列”に対する全体的な重心座標(X´grav,Y´grav)を算出する。画質評価部210で文字認識された2隅以上の評価用領域内の“文字列”に対する全体的な重心座標(X´grav,Y´grav)は、例えば、以下の数式(6a)、(7a)で表すことができる。   Similarly, the form state estimation unit 211, for example, the overall barycentric coordinates (X′grav, Y′grav) for the “character string” in the evaluation area at two or more corners recognized by the image quality evaluation unit 210. Is calculated. The overall barycentric coordinates (X′grav, Y′grav) for the “character string” in the evaluation area at two or more corners recognized by the image quality evaluation unit 210 are, for example, the following formulas (6a) and (7a): ).

X´grav=(1/n)×ΣX´charn´ …数式(6a)
n´
Y´grav=(1/n)×ΣY´charn´ …数式(7a)
n´
帳票状態推定部211は、例えば、数式(6)、(7)より算出された重心座標(Xgrav,Ygrav)と、数式(6a)、(7a)より算出された重心座標(X´grav,Y´grav)との座標位置の比較を行い、各種移動、歪み補正の要否の判定を行う。判定の結果は、例えば、処理中の撮像画像に対して付加される、各種移動、歪み補正の要否を表す各種フラグのフラグ情報として反映される。各種フラグには、各種移動、歪み補正が“否”と判定される場合には、フラグ情報として“0”が設定される。一方、各種移動、歪み補正が“要”と判定される場合には、フラグ情報として“0”を除く、2−3ビットのビット値で識別されるフラグ情報が付与される。
X′grav = (1 / n) × ΣX′charn ′ (Equation 6a)
n '
Y′grav = (1 / n) × ΣY′charn ′ (Equation 7a)
n '
The form state estimation unit 211, for example, centroid coordinates (Xgrav, Ygrav) calculated from the formulas (6) and (7) and centroid coordinates (X′grav, Y calculated from the formulas (6a) and (7a). The coordinate position is compared with 'grav), and it is determined whether various movements and distortion correction are necessary. The result of the determination is reflected, for example, as flag information of various flags added to the captured image being processed and indicating whether various movements and distortion correction are necessary. In the various flags, “0” is set as flag information when it is determined that the various movements and distortion correction are “NO”. On the other hand, when it is determined that various movements and distortion corrections are “necessary”, flag information identified by a 2-3-bit bit value excluding “0” is added as flag information.

なお、帳票状態推定部211は、例えば、撮影中の撮像画像に対し、2隅の評価用領域について文字認識が行われた場合には、並進移動、回転移動、奥行き方向の前後移動の順で各種移動の要否を判定する。なお、並進移動が“要”と判定される場合には、回転移動、奥行き方向の前後移動の判定は行われない。同様に、回転移動が“要”と判定される場合には、奥行き方向の前後移動の判定は行われない。   For example, when the character recognition is performed on the evaluation areas at the two corners of the captured image being shot, the form state estimation unit 211 performs the translation movement, the rotation movement, and the front-back movement in the depth direction. The necessity of various movements is determined. When it is determined that the translational movement is “necessary”, the determination of the rotational movement and the forward / backward movement in the depth direction is not performed. Similarly, when the rotational movement is determined as “necessary”, the determination of the forward / backward movement in the depth direction is not performed.

また、帳票状態推定部211は、例えば、撮影中の撮像画像に対し、3隅の評価用領域について文字認識が行われた場合には、並進移動、回転移動、奥行き方向の前後移動、歪み補正の順で各種移動、歪み補正の要否を判定する。並進移動が“要”と判定される場合には、回転移動、奥行き方向の前後移動、歪み補正の判定は行われない。同様に、回転移動が“要”と判定される場合には、奥行き方向の前後移動、歪み補正の判定は行われない。帳票状態推定部211は、例えば、並進移動、回転移動、奥行き方向の前後移動について“否”と判定された場合に、歪み補正の要否を判定する。   In addition, for example, when the character recognition is performed on the evaluation areas at the three corners of the captured image being shot, the form state estimation unit 211 translates, rotates, moves back and forth in the depth direction, and corrects distortion. The necessity of various movements and distortion correction is determined in this order. When the translational movement is determined as “necessary”, the determination of rotational movement, forward / backward movement in the depth direction, and distortion correction is not performed. Similarly, when the rotational movement is determined to be “necessary”, the determination of the forward / backward movement in the depth direction and the distortion correction are not performed. The form state estimation unit 211 determines whether or not distortion correction is necessary, for example, when it is determined “No” for translational movement, rotational movement, and forward / backward movement in the depth direction.

(並進移動)
帳票状態推定部211は、例えば、数式(6)、(7)より算出された重心座標(Xgrav,Ygrav)と、数式(6a)、(7a)より算出された重心座標(X´grav,Y´grav)との位置関係が、所定の範囲内であることの判定を行う。例えば、画像領域内の左右方向の範囲幅を閾値:Thx、上下方向の範囲幅を閾値:Thyとする。なお、画像領域内の左右方向の範囲幅、上下方向の範囲幅を表す各閾値は、文字認識支援装置20の画素密度等の性能、処理対象となる帳票に記述された文字のサイズ等に応じて任意に設定することができる。
(Translation)
The form state estimation unit 211, for example, centroid coordinates (Xgrav, Ygrav) calculated from the formulas (6) and (7) and centroid coordinates (X′grav, Y calculated from the formulas (6a) and (7a). It is determined that the positional relationship with 'grav) is within a predetermined range. For example, the range width in the left-right direction in the image area is set as a threshold value Thx, and the range width in the vertical direction is set as a threshold value Thy. Note that the threshold values representing the horizontal range width and vertical range width in the image area depend on the performance such as the pixel density of the character recognition support apparatus 20, the size of the characters described in the form to be processed, etc. Can be set arbitrarily.

帳票状態推定部211は、例えば、各重心座標の左右方向、上下方向の位置関係が、以下に示す、数式(8)、(9)の位置関係を満たすか否かを判定する。   For example, the form state estimation unit 211 determines whether or not the positional relationship between the center-of-gravity coordinates in the horizontal direction and the vertical direction satisfies the positional relationship of Expressions (8) and (9) shown below.

(Xgrav−Thx)<X´grav<(Xgrav+Thx) …数式(8)
(Ygrav−Thy)<Y´grav<(Ygrav+Thy) …数式(9)
帳票状態推定部211は、例えば、各重心座標の左右方向、上下方向の位置関係が数式(8)、(9)を満たす場合には、“並進フラグ”に“0”のフラグ情報を設定する。一方、例えば、帳票状態推定部211は、各重心座標の左右方向、上下方向の位置関係が、数式(8)、(9)を満たさない場合には、それぞれの状態に応じて“並進フラグ”に“1”−“4”のフラグ情報を設定する。帳票状態推定部211は、例えば、“並進フラグ”に設定されたフラグ情報を主記憶部12の所定の領域に一時的に記憶する。“並進フラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。
(Xgrav−Thx) <X′grav <(Xgrav + Thx) (8)
(Ygrav−Thy) <Y′grav <(Ygrav + Thy) (9)
For example, the form state estimation unit 211 sets flag information of “0” in the “translation flag” when the positional relationship between the center-of-gravity coordinates in the horizontal and vertical directions satisfies Expressions (8) and (9). . On the other hand, for example, when the positional relationship between the center of gravity coordinates in the horizontal direction and the vertical direction does not satisfy Expressions (8) and (9), the form state estimation unit 211 determines “translation flag” according to each state. The flag information “1”-“4” is set in The form state estimation unit 211 temporarily stores, for example, flag information set in the “translation flag” in a predetermined area of the main storage unit 12. The flag information set in the “translation flag” is delivered to the status display unit 212, for example.

(回転移動)
帳票状態推定部211は、例えば、並進移動が“否”と判定される場合に、回転移動の要否の判定を行う。回転移動の判定では、例えば、文字認識支援装置20の備えるカメラ14aの光軸方向に対する回転の要否が判定される。回転移動の判定では、例えば、撮影中の帳票の撮像画像に対する回転移動の方向(時計回り、反時計回り)が判定される。
(Rotation movement)
The form state estimation unit 211 determines whether or not the rotational movement is necessary, for example, when the translational movement is determined as “No”. In the determination of the rotational movement, for example, it is determined whether or not the camera 14a included in the character recognition assisting device 20 needs to rotate with respect to the optical axis direction. In the determination of the rotational movement, for example, the rotational movement direction (clockwise or counterclockwise) with respect to the captured image of the form being photographed is determined.

図6Cに、数式(6)、(7)で算出された重心位置を中心とした、3隅の評価用文字列の重心位置に対する角度の説明図を例示する。図6Cに例示の説明図において、丸囲みハッチングの領域Z11aは、左上隅の評価文字列1の重心座標(Xchar1,Ychar1)を表す。同様に、丸囲みハッチングの領域Z12a、Z13aは、それぞれ評価文字列2の重心座標(Xchar2,Ychar2)、評価文字列3の重心座標(Xchar3,Ychar3)を表す。また、3隅の各評価用文字列の重心座標から数式(6)、(7)で算出される全体的な重心座標G1は、例えば、(Xgrav,Ygrav)で表されている。なお、基準線L1は、例え
ば、重心座標G1を通り、文字認識支援装置20の画像領域の左右方向の縁辺に平行する基準線である。
FIG. 6C illustrates an explanatory diagram of angles with respect to the centroid positions of the evaluation character strings at the three corners with the centroid positions calculated by Expressions (6) and (7) as the center. In the explanatory diagram illustrated in FIG. 6C, a circled hatching area Z11a represents the barycentric coordinates (Xchar1, Ychar1) of the evaluation character string 1 at the upper left corner. Similarly, the circled hatched areas Z12a and Z13a represent the barycentric coordinates (Xchar2, Ychar2) of the evaluation character string 2 and the barycentric coordinates (Xchar3, Ychar3) of the evaluation character string 3, respectively. Further, the overall center-of-gravity coordinates G1 calculated by the mathematical formulas (6) and (7) from the center-of-gravity coordinates of the evaluation character strings at the three corners are represented by, for example, (Xgrav, Ygrav). The reference line L1 is, for example, a reference line that passes through the barycentric coordinates G1 and is parallel to the horizontal edge of the image area of the character recognition support device 20.

また、図6Cに例示の説明図において、θchar3は、重心座標G1を中心として時計回
り方向に、基準線L1と評価文字列3の重心座標(Xchar3,Ychar3)方向との角度を表す。同様に、θchar2は、重心座標G1を中心として時計回り方向に、基準線L1と評価
文字列2の重心座標(Xchar2,Ychar2)方向との角度を表す。θchar1は、重心座標G
1を中心として時計回り方向に、基準線L1と評価文字列1の重心座標(Xchar1,Ychar1)方向との角度を表す。基準線L1と各評価文字列の重心位置方向との角度の大小関係は、θchar3<θchar2<θchar1の関係にある。
6C, θchar3 represents an angle between the reference line L1 and the centroid coordinate (Xchar3, Ychar3) direction of the evaluation character string 3 in the clockwise direction around the centroid coordinate G1. Similarly, θchar2 represents the angle between the reference line L1 and the barycentric coordinate (Xchar2, Ychar2) direction of the evaluation character string 2 in the clockwise direction around the barycentric coordinate G1. θchar1 is the centroid coordinate G
The angle between the reference line L1 and the barycentric coordinate (Xchar1, Ychar1) direction of the evaluation character string 1 is represented in a clockwise direction around 1. The relationship between the angle of the reference line L1 and the direction of the center of gravity of each evaluation character string is θchar3 <θchar2 <θchar1.

帳票状態推定部211は、例えば、三角関数の関係式により、重心座標(Xgrav,Ygrav)と評価文字列1の重心座標(Xchar1,Ychar1)から、θchar1を算出する。同様に
して、帳票状態推定部211は、重心座標(Xgrav,Ygrav)と評価文字列2の重心座標(Xchar2,Ychar2)からθchar2を、重心座標(Xgrav,Ygrav)と評価文字列3の重
心座標(Xchar3,Ychar3)からθchar3を算出する。
The form state estimation unit 211 calculates θchar1 from the barycentric coordinates (Xgrav, Ygrav) and the barycentric coordinates (Xchar1, Ychar1) of the evaluation character string 1 using, for example, a relational expression of a trigonometric function. Similarly, the form state estimation unit 211 calculates θchar2 from the centroid coordinates (Xgrav, Ygrav) and the centroid coordinates (Xchar2, Ychar2) of the evaluation character string 2, and the centroid coordinates (Xgrav, Ygrav) and the centroid coordinates of the evaluation character string 3 Θchar3 is calculated from (Xchar3, Ychar3).

同様にして、帳票状態推定部211は、例えば、文字認識された3隅の評価用領域内の“文字列”に対する全体的な重心座標(X´grav,Y´grav)と、“文字列”毎の重心座標から、“文字列”毎の角度を算出する。帳票状態推定部211は、例えば、三角関数の関係式により、重心座標(X´grav,Y´grav)と“文字列1”の重心座標(X´char1
,Y´char1)から、θ´char1を算出する。同様にして、帳票状態推定部211は、重心座標(X´grav,Y´grav)と“文字列2”の重心座標(X´char2,Y´char2)からθ´char2を、重心座標(X´grav,Y´grav)と“文字列3”の重心座標(X´char3,Y´char3)からθ´char3を算出する。
Similarly, the form state estimation unit 211, for example, the overall barycentric coordinates (X′grav, Y′grav) for the “character string” in the evaluation areas at the three corners recognized by the character and the “character string”. The angle for each “character string” is calculated from the barycentric coordinates for each. The form state estimation unit 211 uses, for example, a trigonometric relational expression to calculate the centroid coordinates (X′grav, Y′grav) and the centroid coordinates (X′char1) of “character string 1”.
, Y′char1), θ′char1 is calculated. Similarly, the form state estimation unit 211 calculates θ′char2 from the barycentric coordinates (X′grav, Y′grav) and the barycentric coordinates (X′char2, Y′char2) of “character string 2”, and the barycentric coordinates (X Θ′char3 is calculated from “grav, Y′grav) and the barycentric coordinates (X′char3, Y′char3) of“ character string 3 ”.

そして、帳票状態推定部211は、例えば、各評価文字列の角度(θchar1,θchar2,θchar3)と評価用領域内で文字認識された各“文字列”の角度(θ´char1,θ´char2
,θ´char3)との関係が、所定の範囲内であることの判定を行う。例えば、範囲幅を閾
値:Thθとする。閾値:Thθは、文字認識支援装置20の画素密度等の性能、処理対象となる帳票に記述された文字のサイズ等に応じて任意に設定することができる。
Then, the form state estimation unit 211, for example, the angle (θchar1, θchar2, θchar3) of each evaluation character string and the angle (θ′char1, θ′char2) of each “character string” recognized in the evaluation area.
, Θ′char3) is determined to be within a predetermined range. For example, the range width is set to a threshold value: Thθ. The threshold value: Thθ can be arbitrarily set according to the performance such as the pixel density of the character recognition support device 20 and the size of the character described in the form to be processed.

帳票状態推定部211は、例えば、各評価文字列の角度(θchar1,θchar2,θchar3
)と各“文字列”の角度(θ´char1,θ´char2,θ´char3)との関係が、以下に示す
数式(10)の関係を満たすか否かを判定する。
For example, the form state estimation unit 211 may determine the angle (θchar1, θchar2, θchar3) of each evaluation character string.
) And the angle (θ′char1, θ′char2, θ′char3) of each “character string”, it is determined whether or not the relationship of the following formula (10) is satisfied.

(θchar1+θchar2+θchar3−Thθ)<(θ´char1+θ´char2+θ´char3)<
(θchar1+θchar2+θchar3+Thθ) …数式(10)
帳票状態推定部211は、例えば、各評価文字列の角度(θchar1,θchar2,θchar3
)と各“文字列”の角度(θ´char1,θ´char2,θ´char3)との関係が、数式(10
)を満たす場合には、“回転フラグ”に“0”のフラグ情報を設定する。一方、例えば、帳票状態推定部211は、各評価文字列の角度と各“文字列”の角度との関係が、数式(10)を満たさない場合には、それぞれの状態に応じて“回転フラグ”に“1”−“2”のフラグ情報を設定する。帳票状態推定部211は、例えば、“回転フラグ”に設定されたフラグ情報を主記憶部12の所定の領域に一時的に記憶する。“回転フラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。
(Θchar1 + θchar2 + θchar3-Thθ) <(θ'char1 + θ'char2 + θ'char3) <
(Θchar1 + θchar2 + θchar3 + Thθ) (10)
For example, the form state estimation unit 211 may determine the angle (θchar1, θchar2, θchar3) of each evaluation character string.
) And the angle (θ′char1, θ′char2, θ′char3) of each “character string” is expressed by the formula (10
), The flag information of “0” is set in the “rotation flag”. On the other hand, for example, when the relationship between the angle of each evaluation character string and the angle of each “character string” does not satisfy the formula (10), the form state estimation unit 211 selects “rotation flag” according to each state. "1"-"2" flag information is set in "." For example, the form state estimation unit 211 temporarily stores the flag information set in the “rotation flag” in a predetermined area of the main storage unit 12. The flag information set in the “rotation flag” is delivered to the status display unit 212, for example.

なお、数式(10)は、3隅の評価用領域内で各“文字列”の文字認識が行われた場合の関係式である。例えば、2隅の評価用領域内において、各“文字列”の文字認識が行われた場合には、帳票状態推定部211は、以下に示す数式(10a)の関係により、回転
移動の要否を判定するとすればよい。なお、数式(10a)は、“文字列1”、“文字列2”の文字認識が行われた場合の関係例である。
Equation (10) is a relational expression when character recognition of each “character string” is performed in the evaluation areas at the three corners. For example, when the character recognition of each “character string” is performed in the evaluation areas at the two corners, the form state estimation unit 211 determines whether the rotational movement is necessary or not according to the following formula (10a). May be determined. Equation (10a) is an example of a relationship when character recognition of “character string 1” and “character string 2” is performed.

(θchar1+θchar2−Thθ)<(θ´char1+θ´char2)<
(θchar1+θchar2+Thθ) …数式(10a)
他の“文字列1”と“文字列3”、“文字列2”と“文字列3”の文字認識が行われた場合には、数式(10a)の“θchar”の識別番号を、文字認識が行われた“文字列”の識別番号に替えればよい。帳票状態推定部211は、例えば、文字認識が行われた各“文字列”の角度と、各“文字列”に対応する“評価文字列”の角度との関係が、数式(10a)を満たす場合には、“回転フラグ”に“0”のフラグ情報を設定する。一方、例えば、帳票状態推定部211は、各“文字列”の角度と、各“文字列”に対応する“評価文字列”の角度との関係が、数式(10a)を満たさない場合には、それぞれの状態に応じて“回転フラグ”に“1”−“2”のフラグ情報を設定する。2隅の場合についても、3隅の場合と同様に、“回転フラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。
(Θchar1 + θchar2-Thθ) <(θ′char1 + θ′char2) <
(Θchar1 + θchar2 + Thθ) ... Formula (10a)
When the other character recognition of “character string 1” and “character string 3”, “character string 2” and “character string 3” is performed, the identification number of “θchar” in the equation (10a) is What is necessary is just to change to the identification number of the recognized "character string". In the form state estimation unit 211, for example, the relationship between the angle of each “character string” for which character recognition has been performed and the angle of the “evaluation character string” corresponding to each “character string” satisfies Expression (10a). In this case, “0” flag information is set in the “rotation flag”. On the other hand, for example, the form state estimation unit 211 determines that the relationship between the angle of each “character string” and the angle of the “evaluation character string” corresponding to each “character string” does not satisfy Expression (10a). The flag information “1”-“2” is set in the “rotation flag” according to each state. In the case of the two corners as well, as in the case of the three corners, the flag information set in the “rotation flag” is delivered to the state display unit 212, for example.

(奥行き方向の前後移動)
帳票状態推定部211は、例えば、並進移動、回転移動が“否”と判定される場合に、奥行き方向の前後移動の要否の判定を行う。奥行き方向の前後移動の判定では、例えば、文字認識支援装置20の備えるカメラ14aと帳票との間の、奥行き方向の前後移動の要否が判定される。前後移動の判定では、例えば、撮影中の撮像画像に対する奥行き方向の前後移動の方向が判定される。
(Move back and forth in the depth direction)
For example, the form state estimation unit 211 determines whether or not it is necessary to move back and forth in the depth direction when it is determined that the translational movement and the rotational movement are “No”. In the determination of the forward / backward movement in the depth direction, for example, it is determined whether or not the forward / backward movement in the depth direction between the camera 14a included in the character recognition support device 20 and the form is necessary. In the determination of the back-and-forth movement, for example, the direction of the back-and-forth movement in the depth direction with respect to the captured image being shot is determined.

図6Cの説明図において、例えば、重心座標(Xgrav,Ygrav)と、3隅の各評価文字列の重心座標(Xchar1,Ychar1)、(Xchar2,Ychar2)、(Xchar3,Ychar3)との距離を、それぞれ“Dchar1”、“Dchar2”、“Dchar3”とする。同様に、評価用領域
内で文字認識された3隅の“文字列”に対する重心座標(X´grav,Y´grav)と、各“文字列”の重心座標(X´char1,Y´char1)、(X´char2,Y´char2)、(X´char3,Y´char3)との距離を、それぞれ“D´char1”、“D´char2”、“D´char3”と
する。
In the explanatory diagram of FIG. 6C, for example, the distance between the centroid coordinates (Xgrav, Ygrav) and the centroid coordinates (Xchar1, Ychar1), (Xchar2, Ychar2), (Xchar3, Ychar3) of each evaluation character string at the three corners is Let them be “Dchar1”, “Dchar2”, and “Dchar3”, respectively. Similarly, the barycentric coordinates (X'grav, Y'grav) for the "character string" at the three corners recognized in the evaluation area, and the barycentric coordinates (X'char1, Y'char1) of each "character string" , (X′char2, Y′char2), and (X′char3, Y′char3) are distances “D′ char1”, “D′ char2”, and “D′ char3”, respectively.

帳票状態推定部211は、例えば、各評価文字列に対する距離(Dchar1,Dchar2,Dchar3)と評価用領域内で文字認識された各“文字列”に対する距離(D´char1,D´char2,D´char3)との関係が、所定の範囲内であることの判定を行う。例えば、範囲幅を閾値:Thdとする。閾値:Thdは、文字認識支援装置20の画素密度等の性能、処理対象となる帳票に記述された文字のサイズ等に応じて任意に設定することができる。   The form state estimation unit 211, for example, the distance (Dchar1, Dchar2, Dchar3) for each evaluation character string and the distance (D'char1, D'char2, D ') for each "character string" recognized in the evaluation area. It is determined that the relationship with char3) is within a predetermined range. For example, the range width is set to a threshold value: Thd. The threshold value: Thd can be arbitrarily set according to the performance such as the pixel density of the character recognition support device 20 and the size of the character described in the form to be processed.

帳票状態推定部211は、例えば、各評価文字列に対する距離(Dchar1,Dchar2,Dchar3)と各“文字列”に対する距離(D´char1,D´char2,D´char3)との関係が、が、以下に示す数式(11)の関係を満たすか否かを判定する。   The form state estimation unit 211 has, for example, the relationship between the distance (Dchar1, Dchar2, Dchar3) for each evaluation character string and the distance (D'char1, D'char2, D'char3) for each "character string". It is determined whether or not the relationship of the following formula (11) is satisfied.

(Dchar1+Dchar2+Dchar3−Thd)<(D´char1+D´char2+D´char3)<
(Dchar1+Dchar2+Dchar3+Thd) …数式(11)
帳票状態推定部211は、例えば、各評価文字列に対する距離(Dchar1,Dchar2,Dchar3)と各“文字列”に対する距離(D´char1,D´char2,D´char3)との関係が、数式(11)を満たす場合には、“前後フラグ”に“0”のフラグ情報を設定する。一方、例えば、帳票状態推定部211は、各評価文字列に対する距離と各“文字列”に対する距離との関係が、数式(11)を満たさない場合には、それぞれの状態に応じて“前後フラグ”に“1”−“2”のフラグ情報を設定する。帳票状態推定部211は、例えば、“前後フラグ”に設定されたフラグ情報を主記憶部12の所定の領域に一時的に記憶する。
“前後フラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。
(Dchar1 + Dchar2 + Dchar3-Thd) <(D'char1 + D'char2 + D'char3) <
(Dchar1 + Dchar2 + Dchar3 + Thd) Equation (11)
For example, the form state estimation unit 211 has a relationship between a distance (Dchar1, Dchar2, Dchar3) for each evaluation character string and a distance (D'char1, D'char2, D'char3) for each "character string" expressed by a formula ( If the condition 11) is satisfied, the flag information “0” is set in the “previous and backward flag”. On the other hand, for example, when the relationship between the distance to each evaluation character string and the distance to each “character string” does not satisfy Expression (11), the form state estimation unit 211 determines whether the “front and back flag” corresponds to each state. "1"-"2" flag information is set in "." For example, the form state estimation unit 211 temporarily stores the flag information set in the “front and back flag” in a predetermined area of the main storage unit 12.
For example, the flag information set in the “before / after flag” is delivered to the state display unit 212.

なお、数式(11)は、3隅の評価用領域内で各“文字列”の文字認識が行われた場合の関係式である。例えば、2隅の評価用領域内において、各“文字列”の文字認識が行われた場合には、帳票状態推定部211は、以下に示す数式(11a)の関係により、奥行き方向の前後移動の要否を判定するとすればよい。なお、数式(11a)は、“文字列1”、“文字列2”の文字認識が行われた場合の関係例である。   Equation (11) is a relational expression when character recognition of each “character string” is performed in the evaluation areas at the three corners. For example, when character recognition of each “character string” is performed in the evaluation areas at the two corners, the form state estimation unit 211 moves back and forth in the depth direction according to the relationship of the following formula (11a). What is necessary is just to determine the necessity. Equation (11a) is an example of a relationship when character recognition of “character string 1” and “character string 2” is performed.

(Dchar1+Dchar2−Thd)<(D´char1+D´char2)<
(Dchar1+Dchar2+Thd) …数式(11a)
他の“文字列1”と“文字列3”、“文字列2”と“文字列3”の文字認識が行われた場合には、数式(11a)の“Dchar”の識別番号を、文字認識が行われた“文字列”の識別番号に替えればよい。帳票状態推定部211は、例えば、文字認識が行われた各“文字列”に対する距離と、各“文字列”に対応する“評価文字列”の距離との関係が、数式(11a)を満たす場合には、“前後フラグ”に“0”のフラグ情報を設定する。一方、例えば、帳票状態推定部211は、各“文字列”に対する距離と、各“文字列”に対応する“評価文字列”の距離との関係が、数式(11a)を満たさない場合には、それぞれの状態に応じて“前後フラグ”に“1”−“2”のフラグ情報を設定する。2隅の場合についても、3隅の場合と同様に、“前後フラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。
(Dchar1 + Dchar2-Thd) <(D'char1 + D'char2) <
(Dchar1 + Dchar2 + Thd) Equation (11a)
When the other character recognition of “character string 1” and “character string 3”, “character string 2” and “character string 3” is performed, the identification number of “Dchar” in the formula (11a) is What is necessary is just to change to the identification number of the recognized "character string". In the form state estimation unit 211, for example, the relationship between the distance to each “character string” for which character recognition has been performed and the distance of the “evaluation character string” corresponding to each “character string” satisfies Expression (11a). In this case, “0” flag information is set in the “pre- and post-flag”. On the other hand, for example, the form state estimation unit 211 determines that the relationship between the distance to each “character string” and the distance of the “evaluation character string” corresponding to each “character string” does not satisfy Expression (11a). The flag information “1”-“2” is set in the “front / rear flag” according to each state. In the case of the two corners as well, as in the case of the three corners, the flag information set in the “front and back flags” is delivered to the state display unit 212, for example.

(歪み補正)
帳票状態推定部211は、例えば、3隅の評価用領域について文字認識が行われた状態で、並進移動、回転移動、奥行き方向の前後移動の要否が“否”と判定される場合に、歪み補正の要否の判定を行う。歪み補正の判定では、例えば、撮影中の帳票の上下方向、或いは、左右方向の辺に対する歪み補正の要否が判定される。
(Distortion correction)
For example, the form state estimation unit 211 determines that the necessity of translational movement, rotational movement, and back-and-forth movement in the depth direction is “No” in a state where character recognition has been performed on the evaluation areas at the three corners. It is determined whether or not distortion correction is necessary. In the determination of distortion correction, for example, it is determined whether or not distortion correction is necessary for the vertical or horizontal sides of the document being shot.

図6Cに例示の説明図において、例えば、帳票の左右方向の辺と平行する評価文字列1と評価文字列2との重心座標間の距離を“C12”とする。また、帳票の上下方向の辺と平行する評価文字列1と評価文字列3の重心座標間の距離を“C13”とする。同様に、評価用領域内で文字認識された、帳票の左右方向の辺と平行する“文字列1”と“文字列2”との重心座標間の距離を“C´12”とし、帳票の上下方向の辺と平行する“文字列1”と“文字列3”との重心座標間の距離を“C´13”とする。   In the explanatory diagram illustrated in FIG. 6C, for example, the distance between the barycentric coordinates of the evaluation character string 1 and the evaluation character string 2 parallel to the left and right sides of the form is “C12”. Further, the distance between the barycentric coordinates of the evaluation character string 1 and the evaluation character string 3 parallel to the vertical side of the form is defined as “C13”. Similarly, the distance between the barycentric coordinates of “character string 1” and “character string 2”, which are recognized in the evaluation area and parallel to the left and right sides of the form, is “C′12”. The distance between the center-of-gravity coordinates of “character string 1” and “character string 3” parallel to the vertical side is “C′13”.

帳票状態推定部211は、例えば、帳票の左右方向の辺と平行する評価文字列1,2の重心座標間の距離“C12”と“文字列1”,“文字列2”の重心座標間の距離“C´12”との比である“C´12/C12”を求める。また、帳票状態推定部211は、例えば、帳票の上下方向の辺と平行する評価文字列1,3の重心座標間の距離“C13”と“文字列1”,“文字列3”の重心座標間の距離“C´13”との比である“C´13/C13”を求める。   The form state estimation unit 211, for example, between the distance “C12” between the centroid coordinates of the evaluation character strings 1 and 2 parallel to the left and right sides of the form and the centroid coordinates of “character string 1” and “character string 2”. “C′12 / C12” which is a ratio with the distance “C′12” is obtained. Further, the form state estimation unit 211, for example, the distance “C13” between the centroid coordinates of the evaluation character strings 1 and 3 parallel to the vertical side of the form and the centroid coordinates of “character string 1” and “character string 3”. “C′13 / C13”, which is a ratio to the distance “C′13”, is obtained.

歪み補正の要否の判定は、例えば、帳票の左右方向における評価文字列間の距離と“文字列”間の距離との距離比(C´12/C12)、帳票の上下方向における評価文字列間の距離と“文字列”間の距離との距離比(C´13/C13)に基づいて行われる。   The determination of whether or not distortion correction is necessary is, for example, the distance ratio (C′12 / C12) between the distance between evaluation character strings in the left-right direction of the form and the distance between “character strings”, and the evaluation character string in the up-down direction of the form. This is performed based on a distance ratio (C′13 / C13) between the distance between the characters and the distance between the “character strings”.

例えば、帳票状態推定部211は、|1−(C´12/C12)|、及び、|1−(C´13/C13)|を求め、|1−(C´12/C12)|と|1−(C´13/C13)|との大小関係を判定する。そして、帳票状態推定部211は、例えば、|1−(C´12/C12)|或いは|1−(C´13/C13)|の大きな方について、所定の閾値:Thcとの大小関係を判定する。なお、閾値:Thdは、文字認識支援装置20の画素密度等の性能、処理対象となる帳票に記述された文字のサイズ等に応じて任意に設定することができる。   For example, the form state estimation unit 211 obtains | 1- (C′12 / C12) | and | 1- (C′13 / C13) |, and | 1- (C′12 / C12) | The magnitude relationship with 1- (C′13 / C13) | is determined. Then, the form state estimation unit 211 determines the magnitude relation with a predetermined threshold value: Thc, for example, for the larger of | 1- (C′12 / C12) | or | 1- (C′13 / C13) | To do. The threshold value Thd can be arbitrarily set according to the performance such as the pixel density of the character recognition support device 20 and the size of the characters described in the form to be processed.

帳票状態推定部211は、例えば、|1−(C´12/C12)|或いは|1−(C´13/C13)|の大きな方について、以下に示す数式(12)、(13)の関係を満たすか否かを判定する。   For example, the form state estimation unit 211 has a relationship of the following formulas (12) and (13) with respect to the larger of | 1− (C′12 / C12) | or | 1− (C′13 / C13) | It is determined whether or not the above is satisfied.

−Thc<1−(C´12/C12)<Thc …数式(12)
−Thc<1−(C´13/C13)<Thc …数式(13)
帳票状態推定部211は、例えば、|1−(C´12/C12)|或いは|1−(C´13/C13)|の大きな方について、数式(12)、(13)の関係を満たす場合には、“歪みフラグ”に“0”のフラグ情報を設定する。また、帳票状態推定部211は、例えば、|1−(C´12/C12)|と|1−(C´13/C13)|とが等しい場合についても、“歪みフラグ”に“0”のフラグ情報を設定する。
-Thc <1- (C'12 / C12) <Thc ... Formula (12)
-Thc <1- (C'13 / C13) <Thc ... Formula (13)
For example, the form state estimation unit 211 satisfies the relationship of Expressions (12) and (13) for the larger of | 1− (C′12 / C12) | or | 1− (C′13 / C13) | The flag information of “0” is set in “distortion flag”. The form state estimation unit 211 also sets the “distortion flag” to “0” even when, for example, | 1- (C′12 / C12) | is equal to | 1- (C′13 / C13) |. Set flag information.

一方、帳票状態推定部211は、例えば、|1−(C´12/C12)|>|1−(C´13/C13)|の場合であり、(1−(C´12/C12))が数式(12)の関係を満たさない場合には、“歪みフラグ”に“1”−“2”のフラグ情報を設定する。また、帳票状態推定部211は、例えば、|1−(C´12/C12)|<|1−(C´13/C13)|の場合であり、(1−(C´13/C13))が数式(13)の関係を満たさない場合には、“歪みフラグ”に“3”−“4”のフラグ情報を設定する。   On the other hand, the form state estimation unit 211 is, for example, a case of | 1- (C′12 / C12) |> | 1- (C′13 / C13) |, (1- (C′12 / C12)). Does not satisfy the relationship of Equation (12), flag information “1” − “2” is set in “distortion flag”. The form state estimation unit 211 is, for example, a case of | 1- (C′12 / C12) | <| 1- (C′13 / C13) |, (1- (C′13 / C13)). Does not satisfy the relationship of Equation (13), flag information “3”-“4” is set in “distortion flag”.

帳票状態推定部211は、例えば、“歪みフラグ”に設定されたフラグ情報を主記憶部12の所定の領域に一時的に記憶する。“歪みフラグ”に設定されたフラグ情報は、例えば、状態表示部212に引き渡される。   The form state estimation unit 211 temporarily stores, for example, flag information set in the “distortion flag” in a predetermined area of the main storage unit 12. The flag information set in the “distortion flag” is delivered to the status display unit 212, for example.

[状態表示処理]
状態表示部212は、例えば、帳票状態推定部211から引き渡された並進移動、回転移動、奥行き方向の前後移動、歪み補正の各種フラグ情報に基づいて、撮影中の撮像画像に対する、適正な撮影位置への位置決め支援を行う。
[Status display processing]
The state display unit 212, for example, an appropriate shooting position for a captured image being shot based on various kinds of flag information for translation movement, rotation movement, forward / backward movement in the depth direction, and distortion correction delivered from the form state estimation unit 211 Positioning support is provided.

状態表示部212は、例えば、適正な撮影位置を示す矩形状のガイド枠等を撮影中の撮像画像に重畳させ、文字認識支援装置20のLCD15a等のモニタ表示が行われる表示画面に表示する。そして、状態表示部212は、例えば、各種フラグ情報に基づいて、帳票の撮像画像についての画像領域内での移動方向の指示を行う。撮像画像に対する画像領域内の移動方向の指示は、例えば、移動方向を示す矢印、マーカー等の表示部品を用いることができる。状態表示部212は、例えば、適正な撮影位置を示す矩形状のガイド枠、及び、撮像画像の画像領域内の移動方向を示す矢印等の表示部品を、撮影中の撮像画像に重畳させ、モニタ表示が行われるLCD15a等の表示画面に表示する。   For example, the state display unit 212 superimposes a rectangular guide frame or the like indicating an appropriate shooting position on the captured image being shot, and displays it on a display screen on which a monitor display such as the LCD 15a of the character recognition support device 20 is performed. For example, the state display unit 212 instructs the moving direction in the image area of the captured image of the form based on various flag information. For example, a display component such as an arrow indicating the movement direction or a marker can be used for the instruction of the movement direction in the image area with respect to the captured image. The state display unit 212 superimposes display parts such as a rectangular guide frame indicating an appropriate shooting position and an arrow indicating a movement direction in the image area of the captured image on the captured image being captured, for example. The data is displayed on a display screen such as the LCD 15a where the display is performed.

(並進移動)
図6Dに、並進移動に係る位置決め支援の説明図を例示する。図6Dの説明図は、画像領域内の帳票の撮像画像の位置が右方向に並進移動するよう、位置決め支援を行う場合の表示例である。なお、撮影対象となる帳票位置が固定されていると想定すると、画像領域内の帳票の撮像画像の位置が右方向に並進移動する場合では、文字認識支援装置20のカメラ14aは、相対的に左方向に移動することとなる。
(Translation)
FIG. 6D illustrates an explanatory diagram of positioning support related to translational movement. The explanatory diagram of FIG. 6D is a display example when positioning assistance is performed so that the position of the captured image of the form in the image region is translated in the right direction. Assuming that the position of the form to be imaged is fixed, when the position of the captured image of the form in the image area translates to the right, the camera 14a of the character recognition support device 20 is relatively It will move to the left.

図6Dの説明図において、縁辺Z0a−Z0dに囲まれた矩形の画像領域Z0は文字認識支援装置20の画像領域を表し、領域Z1は撮影中の帳票の撮像画像(画像データ)の画像領域を表す。また、破線矩形で示されるガイド枠G15は、撮影中の帳票の適正な撮影位置を示す表示部品であり、矢先が右方向に向いた矢印G16は、画像領域内の撮像画像の移動方向を指示する表示部品である。   In the explanatory diagram of FIG. 6D, a rectangular image area Z0 surrounded by the edges Z0a to Z0d represents an image area of the character recognition support device 20, and an area Z1 represents an image area of a captured image (image data) of a form being shot. Represent. A guide frame G15 indicated by a broken-line rectangle is a display component indicating an appropriate shooting position of the form being shot, and an arrow G16 with the arrowhead pointing to the right indicates the moving direction of the captured image in the image area. It is a display part to be used.

図6Dに例示の説明図では、画像領域Z0内における撮影中の帳票の撮像画像の領域Z1は、相対的に左側に位置している。また、適正な撮影位置を示すガイド枠15Gは、撮影中の帳票の撮像画像の領域Z1の一部に重畳し、相対的に右側寄りに表示されている。そして、右向き矢印G16は、画像領域Z0内の帳票の撮像画像をガイド枠15Gの方向に移動するよう、撮影中の帳票の撮像画像の領域Z1の一部に重畳して表示されている。   In the explanatory diagram illustrated in FIG. 6D, the area Z1 of the captured image of the form being shot in the image area Z0 is relatively located on the left side. A guide frame 15G indicating an appropriate shooting position is superimposed on a part of the area Z1 of the captured image of the form being shot and is displayed relatively to the right. The right-pointing arrow G16 is displayed so as to be superimposed on a part of the region Z1 of the captured image of the form being captured so that the captured image of the form in the image region Z0 moves in the direction of the guide frame 15G.

状態表示部212は、例えば、帳票状態推定部211により、(Xgrav−Thx)>X´gravと判定される場合には、図6Dの説明図に例示のように、画像領域Z0内の帳票の撮像画像(領域Z1)の位置が右方向に並進移動するよう位置決め支援を行う。帳票状態推定部211では、(Xgrav−Thx)>X´gravと判定される場合には、例えば、“並進フラグ”に“1”のフラグ情報が設定される。状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、右向き矢印G16を重畳させて表示し、画像領域Z0内の帳票の撮像画像の位置が右方向に並進移動するよう指示を行う。   For example, when the form state estimation unit 211 determines that (Xgrav−Thx)> X′grav, the state display unit 212 displays the form in the image area Z0 as illustrated in the explanatory diagram of FIG. 6D. Positioning support is performed so that the position of the captured image (region Z1) translates in the right direction. When the form state estimation unit 211 determines that (Xgrav−Thx)> X′grav, for example, flag information “1” is set in the “translation flag”. For example, the state display unit 212 displays a guide frame 15G indicating an appropriate shooting position and a right-pointing arrow G16 on a part of a captured image (area Z1) of the form being shot, and displays the image in the image area Z0. An instruction is given to translate the position of the captured image of the form in the right direction.

また、状態表示部212は、例えば、帳票状態推定部211により、(Xgrav+Thx)<X´gravと判定される場合には、画像領域Z0内の帳票の撮像画像(領域Z1)の位置が左方向に並進移動するよう位置決め支援を行う。帳票状態推定部211では、(Xgrav+Thx)<X´gravと判定される場合には、例えば、“並進フラグ”に“2”のフラグ情報が設定される。状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、左向き矢印G16を重畳させて表示し、画像領域Z0内の帳票の撮像画像の位置が左方向に並進移動するよう指示を行う。   For example, when the form state estimation unit 211 determines that (Xgrav + Thx) <X′grav, the state display unit 212 determines that the position of the captured image (region Z1) of the form in the image region Z0 is in the left direction. Positioning support is performed so that it moves in translation. When the form state estimation unit 211 determines that (Xgrav + Thx) <X′grav, for example, flag information “2” is set in the “translation flag”. The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position and a left-pointing arrow G16 superimposed on a part of the captured image (area Z1) of the form being shot, and within the image area Z0. An instruction is given to translate the position of the captured image of the form in the left direction.

状態表示部212は、例えば、帳票状態推定部211により、(Ygrav−Thy)>Y´gravと判定される場合には、画像領域Z0内の帳票の撮像画像(領域Z1)の位置が下方向に並進移動するよう位置決め支援を行う。帳票状態推定部211では、(Ygrav−Thy)>Y´gravと判定される場合には、例えば、“並進フラグ”に“3”のフラグ情報が設定される。状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、下向き矢印G16を重畳させて表示し、画像領域Z0内の帳票の撮像画像の位置が下方向に並進移動するよう指示を行う。   For example, when the form state estimation unit 211 determines that (Ygrav−Thy)> Y′grav, the state display unit 212 indicates that the position of the captured image (region Z1) of the form in the image region Z0 is downward. Positioning support is performed so that it moves in translation. When the form state estimation unit 211 determines that (Ygrav−Thy)> Y′grav, for example, flag information “3” is set in the “translation flag”. The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position and a downward arrow G16 superimposed on a part of the captured image (area Z1) of the form being shot, and within the image area Z0. An instruction is given so that the position of the captured image of the form is translated downward.

また、状態表示部212は、例えば、帳票状態推定部211により、(Ygrav+Thy)<Y´gravと判定される場合には、画像領域Z0内の帳票の撮像画像(領域Z1)の位置が上方向に並進移動するよう位置決め支援を行う。帳票状態推定部211では、(Ygrav+Thy)<Y´gravと判定される場合には、例えば、“並進フラグ”に“4”のフラグ情報が設定される。状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、上向き矢印G16を重畳させて表示し、画像領域Z0内の帳票の撮像画像の位置が上方向に並進移動するよう指示を行う。   For example, when the form state estimation unit 211 determines that (Ygrav + Thy) <Y′grav, the state display unit 212 indicates that the position of the captured image (region Z1) of the form in the image region Z0 is upward. Positioning support is performed so that it moves in translation. When the form state estimation unit 211 determines that (Ygrav + Thy) <Y′grav, for example, flag information “4” is set in the “translation flag”. For example, the state display unit 212 displays a guide frame 15G indicating an appropriate shooting position and an upward arrow G16 on a part of the captured image (area Z1) of the form being shot, and displays the image in the image area Z0. An instruction is given so that the position of the captured image of the form is translated upward.

(回転移動)
図6Eに、回転移動に係る位置決め支援の説明図を例示する。図6Eの説明図は、画像領域内の帳票の撮像画像が、“文字列”に対する全体的な重心座標(X´grav,Y´grav)を中心として時計回りに回転移動するよう、位置決め支援を行う場合の表示例である。なお、撮影対象となる帳票位置が固定されていると想定すると、画像領域内の帳票の撮像画像が時計回りに回転する場合では、文字認識支援装置20のカメラ14aは、相対的に反時計回りに回転することとなる。
(Rotation movement)
FIG. 6E illustrates an explanatory diagram of positioning support related to rotational movement. The explanatory diagram of FIG. 6E provides positioning support so that the captured image of the form in the image area rotates clockwise around the overall barycentric coordinates (X′grav, Y′grav) with respect to the “character string”. It is an example of a display when performing. Assuming that the position of the form to be imaged is fixed, when the captured image of the form in the image area rotates clockwise, the camera 14a of the character recognition support device 20 is relatively counterclockwise. Will rotate.

図6Eの説明図において、縁辺Z0a−Z0dに囲まれた矩形の画像領域Z0は文字認識支援装置20の画像領域を表し、領域Z1は撮影中の帳票の撮像画像(画像データ)の画像領域を表す。また、破線矩形で示されるガイド枠G15は、撮影中の帳票の適正な撮影位置を示す表示部品であり、湾曲した右回り(時計回り)矢印G17は、画像領域内の撮像画像の移動方向を指示する表示部品である。   In the explanatory diagram of FIG. 6E, a rectangular image area Z0 surrounded by the edges Z0a to Z0d represents an image area of the character recognition support device 20, and an area Z1 represents an image area of a captured image (image data) of a form being shot. Represent. A guide frame G15 indicated by a broken-line rectangle is a display component indicating an appropriate shooting position of the form being shot, and a curved clockwise (clockwise) arrow G17 indicates the moving direction of the captured image in the image area. This is a display component to be instructed.

図6Eに例示の説明図では、画像領域Z0内における撮影中の帳票の撮像画像の領域Z1は、右上がり斜めに傾斜して位置している。適正な撮影位置を示すガイド枠15Gは、撮影中の帳票の撮像画像の領域Z1の一部に重畳し、ガイド枠15Gの上下左右の縁辺は、画像領域Z0の縁辺Z0a−Z0dと並行するように表示されている。湾曲した右回り(時計回り)矢印G17は、領域Z1の撮像画像の上下左右の縁辺が、ガイド枠15Gの上下左右の縁辺と並行となるよう、撮影中の帳票の撮像画像の領域Z1の一部に重畳して表示されている。湾曲した右回り(時計回り)矢印G17は、“文字列”に対する全体的な重心座標(X´grav,Y´grav)を中心として、撮影中の帳票の撮像画像の領域Z1が時計回りに回転移動するよう、表示されている。   In the explanatory diagram illustrated in FIG. 6E, the area Z1 of the captured image of the form being photographed in the image area Z0 is inclined obliquely upward to the right. The guide frame 15G indicating an appropriate shooting position is superimposed on a part of the area Z1 of the captured image of the form being shot, and the upper, lower, left, and right edges of the guide frame 15G are parallel to the edges Z0a to Z0d of the image area Z0. Is displayed. A curved clockwise (clockwise) arrow G17 indicates one of the areas Z1 of the captured image of the form being photographed so that the upper, lower, left and right edges of the captured image of the area Z1 are parallel to the upper, lower, left and right edges of the guide frame 15G. It is displayed superimposed on the part. A curved clockwise (clockwise) arrow G17 indicates that the area Z1 of the captured image of the form being captured is rotated clockwise around the center of gravity coordinates (X'grav, Y'grav) with respect to the "character string". It is displayed to move.

状態表示部212は、例えば、帳票状態推定部211により、(θchar1+θchar2−Thθ)>(θ´char1+θ´char2)と判定される場合には、図6Eに例示のように、画像領域Z0内の帳票の撮像画像の領域Z1が時計回りに回転するよう、支援を行う。帳票状態推定部211では、(θchar1+θchar2−Thθ)>(θ´char1+θ´char2)と判定される場合には、例えば、“回転フラグ”に“1”のフラグ情報が設定される。   For example, when the form state estimation unit 211 determines that (θchar1 + θchar2-Thθ)> (θ′char1 + θ′char2), the state display unit 212, as illustrated in FIG. 6E, forms in the image area Z0. The captured image area Z1 is supported so as to rotate clockwise. If the form state estimation unit 211 determines that (θchar1 + θchar2-Thθ)> (θ′char1 + θ′char2), for example, flag information “1” is set in the “rotation flag”.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、湾曲した右回り(時計回り)矢印G17を重畳させて表示する。そして、状態表示部212は、例えば、撮影中の帳票の撮像画像の領域Z1が重心座標(X´grav,Y´grav)を中心として、時計回りに回転移動するよう指示を行う。状態表示部212は、例えば、重心座標(X´grav,Y´grav)を中心として、時計回りに回転された、右上がり斜めに傾斜した撮像画像の上下左右の縁辺が、ガイド枠15Gの上下左右の縁辺と並行となるように、位置決め支援を行う。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position and a curved clockwise (clockwise) arrow G17 superimposed on a part of the captured image (area Z1) of the form being shot. To do. Then, for example, the state display unit 212 instructs the region Z1 of the captured image of the form being photographed to rotate clockwise around the barycentric coordinates (X′grav, Y′grav). For example, the state display unit 212 has upper, lower, left, and right edges of a captured image that is rotated clockwise around the center of gravity coordinates (X′grav, Y′grav) and inclined obliquely upward and downward of the guide frame 15G. Positioning support is performed so that it is parallel to the left and right edges.

また、状態表示部212は、例えば、帳票状態推定部211により、(θchar1+θchar2+Thθ)<(θ´char1+θ´char2)と判定される場合には、画像領域Z0内の帳票の撮像画像の領域Z1が反時計回りに回転するよう、支援を行う。帳票状態推定部211では、(θchar1+θchar2+Thθ)<(θ´char1+θ´char2)と判定される場合には、例えば、“回転フラグ”に“2”のフラグ情報が設定される。   For example, when the form state estimation unit 211 determines that the state display unit 212 determines that (θchar1 + θchar2 + Thθ) <(θ′char1 + θ′char2), the state Z1 of the captured image of the form in the image region Z0 is reversed. Provide support to rotate clockwise. When the form state estimation unit 211 determines that (θchar1 + θchar2 + Thθ) <(θ′char1 + θ′char2), for example, “2” flag information is set in the “rotation flag”.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)の一部に適正な撮影位置を示すガイド枠15G、及び、湾曲した左回り(反時計回り)矢印G17を重畳させて表示する。そして、状態表示部212は、例えば、撮影中の帳票の撮像画像の領域Z1が重心座標(X´grav,Y´grav)を中心として、反時計回りに回転移動するよう指示を行う。状態表示部212は、例えば、重心座標(X´grav,Y´grav)を中心として、反時計回りに回転された、左上がり斜めに傾斜した撮像画像の上下左右の縁辺が、ガイド枠15Gの上下左右の縁辺と並行となるように、位置決め支援を行う。   For example, the state display unit 212 superimposes a guide frame 15G indicating an appropriate shooting position and a curved counterclockwise (counterclockwise) arrow G17 on a part of a captured image (area Z1) of a form being shot. indicate. Then, for example, the state display unit 212 instructs the region Z1 of the captured image of the form being photographed to rotate counterclockwise about the barycentric coordinates (X′grav, Y′grav). The state display unit 212 has, for example, the upper, lower, left, and right edges of the captured image that is rotated counterclockwise about the barycentric coordinates (X′grav, Y′grav) and inclined obliquely upward and leftward. Positioning support is performed so that it is parallel to the top, bottom, left, and right edges.

(奥行き方向の前後移動)
図6Fに、奥行き方向の前後移動に係る位置決め支援の説明図を例示する。図6Fの説明図は、画像領域内の帳票の撮像画像のサイズが拡大するように、帳票方向に移動するよう(奥行き方向の前方向に移動)、位置決め支援を行う場合の表示例である。なお、帳票位置が固定されていると想定すると、画像領域内の帳票の撮像画像のサイズが拡大するように、帳票方向に移動する場合では、帳票と文字認識支援装置20のカメラ14aとの間
の距離が縮小するよう、奥行き方向の前方向に移動することとなる。
(Move back and forth in the depth direction)
FIG. 6F illustrates an explanatory diagram of positioning support related to the back-and-forth movement in the depth direction. The explanatory diagram of FIG. 6F is a display example when positioning assistance is performed so as to move in the form direction (moving in the depth direction) so that the size of the captured image of the form in the image area is enlarged. Assuming that the form position is fixed, in the case of moving in the form direction so that the size of the captured image of the form in the image area is enlarged, between the form and the camera 14a of the character recognition support device 20 It moves to the front of the depth direction so as to reduce the distance.

図6Fの説明図において、縁辺Z0a−Z0dに囲まれた矩形の画像領域Z0は文字認識支援装置20の画像領域を表し、領域Z1は撮影中の帳票の撮像画像(画像データ)の画像領域を表す。破線矩形で示されるガイド枠G15は、撮影中の帳票の適正な撮影位置を示す表示部品である。縁辺Z0bに向かう右向き矢印G18a、及び、縁辺Z0dに向かう左向き矢印G18bは、画像領域内の撮像画像の拡大・縮小を指示する一対の表示部品である。   In the explanatory diagram of FIG. 6F, a rectangular image area Z0 surrounded by the edges Z0a to Z0d represents an image area of the character recognition support device 20, and an area Z1 represents an image area of a captured image (image data) of a form being shot. Represent. A guide frame G15 indicated by a broken-line rectangle is a display component indicating an appropriate shooting position of the form being shot. A right-pointing arrow G18a toward the edge Z0b and a left-pointing arrow G18b toward the edge Z0d are a pair of display components that instruct enlargement / reduction of the captured image in the image area.

図6Fに例示の説明図では、画像領域Z0内における撮影中の帳票の撮像画像の領域Z1は、相対的に領域サイズが縮小された状態で位置している。適正な撮影位置を示すガイド枠15Gは、撮影中の帳票の撮像画像の領域Z1を囲むように重畳し、ガイド枠15Gの上下左右の縁辺は、画像領域Z0の縁辺Z0a−Z0dと並行するように表示されている。右向き矢印G18aは、領域Z1の撮像画像が領域サイズを縁辺Z0bに向かって拡大するよう、撮影中の帳票の撮像画像の領域Z1の右端側に重畳して表示されている。また、左向き矢印G18bは、領域Z1の撮像画像が領域サイズを縁辺Z0dに向かって拡大するよう、撮影中の帳票の撮像画像の領域Z1の左端側に重畳して表示されている。右向き矢印G18a、左向き矢印G18bは、撮像画像の領域Z1の左右方向に対を成して表示されている。   In the explanatory diagram illustrated in FIG. 6F, the area Z1 of the captured image of the form being shot in the image area Z0 is positioned in a state where the area size is relatively reduced. A guide frame 15G indicating an appropriate shooting position is superimposed so as to surround the area Z1 of the captured image of the form being shot, and the upper, lower, left and right edges of the guide frame 15G are parallel to the edges Z0a-Z0d of the image area Z0. Is displayed. The right-pointing arrow G18a is displayed so as to be superimposed on the right end side of the area Z1 of the captured image of the form being captured so that the captured image of the area Z1 enlarges the area size toward the edge Z0b. Further, the left-pointing arrow G18b is superimposed and displayed on the left end side of the area Z1 of the captured image of the form being captured so that the captured image of the area Z1 expands the area size toward the edge Z0d. The right-pointing arrow G18a and the left-pointing arrow G18b are displayed as a pair in the left-right direction of the area Z1 of the captured image.

状態表示部212は、例えば、帳票状態推定部211により、(Dchar1+Dchar2+Dchar3−Thd)>(D´char1+D´char2+D´char3)と判定される場合には、図6Fに例示のように、画像領域Z0内の帳票の撮像画像の領域Z1が拡大するよう支援を行う。帳票状態推定部211では、(Dchar1+Dchar2+Dchar3−Thd)>(D´char1+D´char2+D´char3)と判定される場合には、例えば、“前後フラグ”に“1”のフラグ情報が設定される。   For example, when the form state estimation unit 211 determines that (Dchar1 + Dchar2 + Dchar3−Thd)> (D′ char1 + D′ char2 + D′ char3), the state display unit 212 is in the image area Z0 as illustrated in FIG. 6F. The area Z1 of the captured image of the form is supported to be enlarged. If the form state estimation unit 211 determines that (Dchar1 + Dchar2 + Dchar3-Thd)> (D′ char1 + D′ char2 + D′ char3), for example, “1” flag information is set in the “front and back flag”.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)を囲む適正な撮影位置を示すガイド枠15G、及び、撮像画像の領域Z1の左右方向に対を成す右向き矢印G18a、左向き矢印G18bを重畳させて表示する。そして、状態表示部212は、例えば、撮影中の帳票の撮像画像の領域Z1が、領域サイズを拡大する方向に移動するよう、指示を行う。状態表示部212は、例えば、領域サイズを拡大する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。   The state display unit 212 includes, for example, a guide frame 15G indicating an appropriate shooting position surrounding the captured image (region Z1) of the form being shot, a right arrow G18a that forms a pair in the left-right direction of the region Z1 of the captured image, and leftward The arrow G18b is superimposed and displayed. Then, for example, the state display unit 212 instructs the area Z1 of the captured image of the form being photographed to move in the direction of increasing the area size. For example, the state display unit 212 performs positioning support so that the area Z1 of the captured image of the form moved in the direction of enlarging the area size matches the guide frame G15.

また、状態表示部212は、例えば、帳票状態推定部211により、(D´char1+D
´char2+D´char3)>(Dchar1+Dchar2+Dchar3+Thd)と判定される場合には
、画像領域Z0内の帳票の撮像画像の領域Z1が縮小するよう支援を行う。帳票状態推定部211では、(D´char1+D´char2+D´char3)>(Dchar1+Dchar2+Dchar3+Thd)と判定される場合には、例えば、“前後フラグ”に“2”のフラグ情報が設定される。
In addition, the state display unit 212, for example, by the form state estimation unit 211, (D′ char1 + D
If it is determined that 'char2 + D'char3)> (Dchar1 + Dchar2 + Dchar3 + Thd), assistance is provided to reduce the area Z1 of the captured image of the form in the image area Z0. When the form state estimation unit 211 determines that (D′ char1 + D′ char2 + D′ char3)> (Dchar1 + Dchar2 + Dchar3 + Thd), for example, “2” flag information is set in the “front and back flag”.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)に適正な撮影位置を示すガイド枠15Gを重畳させて表示する。また、状態表示部212は、例えば、撮像画像の領域Z1の左右方向に対を成す左向き矢印G18a、右向き矢印G18bを重畳させて表示する。左向き矢印G18aは、撮像画像の領域Z1の右端側に表示され、右向き矢印G18bは、撮像画像の領域Z1の左端側に表示される。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position superimposed on a captured image (area Z1) of a form being shot. In addition, the state display unit 212 displays, for example, a left arrow G18a and a right arrow G18b that are paired in the left-right direction of the region Z1 of the captured image in a superimposed manner. The left-pointing arrow G18a is displayed on the right end side of the captured image area Z1, and the right-pointing arrow G18b is displayed on the left end side of the captured image area Z1.

状態表示部212は、例えば、帳票と文字認識支援装置20のカメラ14aとの間の距離が離間し、撮影中の帳票の撮像画像の領域Z1が、領域サイズを縮小する方向(奥行き方向の後方向)に移動するよう、指示を行う。状態表示部212は、例えば、領域サイズ
を縮小する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。
For example, the state display unit 212 is configured such that the distance between the form and the camera 14a of the character recognition support apparatus 20 is increased, and the area Z1 of the captured image of the form being captured is reduced in the area size (after the depth direction). Direction). For example, the state display unit 212 performs positioning support so that the region Z1 of the captured image of the form moved in the direction of reducing the region size matches the guide frame G15.

(歪み補正)
図6Gに、歪み補正に係る位置決め支援の説明図を例示する。図6Gの説明図は、画像領域内の帳票の撮像画像について、左端側の上下方向の縁辺のサイズが縮小するように、歪み補正の支援を行う場合の表示例である。
(Distortion correction)
FIG. 6G illustrates an explanatory diagram of positioning support related to distortion correction. The explanatory diagram of FIG. 6G is a display example when assisting distortion correction so that the size of the vertical edge on the left end side of the captured image of the form in the image area is reduced.

図6Gの説明図では、縁辺Z0a−Z0dに囲まれた矩形の画像領域Z0は文字認識支援装置20の画像領域を表し、領域Z1は撮影中の帳票の撮像画像(画像データ)の画像領域を表す。また、破線矩形で示されるガイド枠G15は、撮影中の帳票の適正な撮影位置を示す表示部品である。左方向にくの字状に折れた矢印群G19は、画像領域Z0内の帳票の撮像画像の歪み補正を支持する表示部品である。図6Gの例では、矢印群G19は、3個の左方向にくの字状に折れた矢印G19a、G19b、G19cを有し、各矢印の表示サイズは、右端側の矢印G19aから左端側の矢印G19cに向かって、順に拡大している。   In the explanatory diagram of FIG. 6G, a rectangular image area Z0 surrounded by the edges Z0a to Z0d represents an image area of the character recognition support device 20, and an area Z1 represents an image area of a captured image (image data) of a form being shot. Represent. A guide frame G15 indicated by a broken-line rectangle is a display component that indicates an appropriate shooting position of the form being shot. An arrow group G19 that is folded leftward in the shape of a circle is a display component that supports distortion correction of a captured image of a form in the image area Z0. In the example of FIG. 6G, the arrow group G19 includes three arrows G19a, G19b, and G19c that are folded in the leftward direction, and the display size of each arrow is from the arrow G19a on the right end side to the left end side. It expands in order toward the arrow G19c.

図6Gの説明図において、画像領域Z0内における撮影中の帳票の撮像画像の左右の縁辺は、ガイド枠G15の左右の縁辺と並行する状態で表示されている。帳票の撮像画像の左端側の縁辺の上下方向のサイズは、右端側の縁辺の上下方向のサイズより大きく表示されている。また、帳票の撮像画像の上下の縁辺は、ガイド枠G15の上下の縁辺に対し傾斜した状態で表示されている。帳票の撮像画像の上下の縁辺は、左端側から右端側に掛けて窄むように傾斜して表示されている。   In the explanatory diagram of FIG. 6G, the left and right edges of the captured image of the form being shot in the image area Z0 are displayed in parallel with the left and right edges of the guide frame G15. The vertical size of the left edge of the captured image of the form is displayed larger than the vertical size of the right edge. Further, the upper and lower edges of the captured image of the form are displayed in an inclined state with respect to the upper and lower edges of the guide frame G15. The upper and lower edges of the captured image of the form are displayed so as to be narrowed from the left end side to the right end side.

例えば、撮影時の帳票位置が固定されていると想定すると、図6Gの例では、帳票と文字認識支援装置20のカメラ14aは、相対的に左側の距離が右側の距離に比べて短くなるよう、帳票側に近づいて傾いた状態で撮影されていることが判る。このため、左端側の上下方向の縁辺のサイズが縮小するように歪み補正の支援を行う場合では、文字認識支援装置20は、帳票の左側に近づいて傾いていたカメラ14aの距離を遠ざける方向に、移動することとなる。   For example, assuming that the form position at the time of shooting is fixed, in the example of FIG. 6G, the left side distance of the form and the camera 14a of the character recognition support apparatus 20 is relatively shorter than the right side distance. It can be seen that the image was taken while leaning toward the form side. For this reason, in the case of assisting distortion correction so that the size of the vertical edge on the left end side is reduced, the character recognition assisting device 20 approaches the left side of the form in a direction to increase the distance of the tilted camera 14a. , Will move.

図6Gの例では、例えば、帳票状態推定部211により、|1−(C´12/C12)|<|1−(C´13/C13)|であり、−Thc>1−(C´13/C13)と判定され、“歪みフラグ”に“3”のフラグ情報が設定される。状態表示部212は、|1−(C´12/C12)|<|1−(C´13/C13)|であり、−Thc>1−(C´13/C13)と判定される場合には、例えば、画像領域Z0内の帳票の撮像画像の左端側の上下方向の縁辺のサイズが縮小するように、歪み補正の支援を行う。   In the example of FIG. 6G, for example, by the form state estimation unit 211, | 1- (C′12 / C12) | <| 1- (C′13 / C13) | and −Thc> 1- (C′13 / C13), and flag information “3” is set in the “distortion flag”. The state display unit 212 is | 1- (C′12 / C12) | <| 1- (C′13 / C13) |, and when it is determined that −Thc> 1- (C′13 / C13). For example, the distortion correction is supported so that the size of the vertical edge on the left end side of the captured image of the form in the image area Z0 is reduced.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)に適正な撮影位置を示すガイド枠15Gを重畳させて表示する。そして、状態表示部212は、例えば、左方向にくの字状に折れた矢印群G19を、帳票の撮像画像の右端側の縁辺に重畳させて表示する。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position superimposed on a captured image (area Z1) of a form being shot. Then, the state display unit 212 displays, for example, an arrow group G19 that is folded leftward in a superposed manner on the right edge of the captured image of the form.

状態表示部212は、例えば、撮影中の帳票の左側に近づいて傾いていた、文字認識支援装置20のカメラ14aを遠ざける方向に移動させ、撮影中の帳票の撮像画像(領域Z1)の左端側の上下方向の縁辺のサイズが縮小するように、歪み補正の指示を行う。状態表示部212は、例えば、左端側の上下方向の縁辺のサイズが縮小する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。   For example, the state display unit 212 moves the camera 14a of the character recognition support apparatus 20 that is tilted toward the left side of the form being photographed away from the left side of the captured image (area Z1) of the form being photographed. The distortion correction is instructed so that the size of the edge in the vertical direction is reduced. For example, the state display unit 212 performs positioning support so that the area Z1 of the captured image of the form moved in the direction in which the size of the vertical edge on the left end side is reduced matches the guide frame G15.

次に、例えば、帳票状態推定部211により、|1−(C´12/C12)|<|1−(C
´13/C13)|であり、Thc<1−(C´13/C13)と判定される場合を想定する。|1−(C´12/C12)|<|1−(C´13/C13)|であり、Thc<1−(C´13/C13)と判定される場合には、例えば、“歪みフラグ”に“4”のフラグ情報が設定される。
Next, for example, by the form state estimation unit 211, | 1- (C′12 / C12) | <| 1- (C
It is assumed that '13 / C13) | and it is determined that Thc <1- (C'13 / C13). If | 1- (C′12 / C12) | <| 1- (C′13 / C13) | and it is determined that Thc <1- (C′13 / C13), for example, “distortion flag "4" flag information is set in "."

状態表示部212は、|1−(C´12/C12)|<|1−(C´13/C13)|であり、Thc<1−(C´13/C13)と判定される場合には、例えば、画像領域Z0内の帳票の撮像画像の右端側の上下方向の縁辺のサイズが縮小するように、歪み補正の支援を行う。   When the state display unit 212 determines that | 1− (C′12 / C12) | <| 1− (C′13 / C13) | and Thc <1− (C′13 / C13). For example, the distortion correction is supported so that the size of the vertical edge on the right end side of the captured image of the form in the image area Z0 is reduced.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)に適正な撮影位置を示すガイド枠15Gを重畳させて表示する。そして、状態表示部212は、例えば、右方向にくの字状に折れた矢印群G19を、帳票の撮像画像の左端側の縁辺に重畳させて表示する。なお、矢印群G19に含まれる各矢印の表示サイズは、左端側の矢印G19aから右端側の矢印G19cに向かって、順に拡大するよう表示される。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position superimposed on a captured image (area Z1) of a form being shot. Then, the state display unit 212 displays, for example, an arrow group G19 folded in a right-handed shape in a superimposed manner on the left edge of the captured image of the form. The display size of each arrow included in the arrow group G19 is displayed so as to increase in order from the left end arrow G19a to the right end arrow G19c.

状態表示部212は、例えば、撮影中の帳票の右側に近づいて傾いていた、文字認識支援装置20のカメラ14aを遠ざける方向に移動させ、撮影中の帳票の撮像画像(領域Z1)の右端側の上下方向の縁辺のサイズが縮小するように、歪み補正の指示を行う。状態表示部212は、例えば、右端側の上下方向の縁辺のサイズが縮小する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。   For example, the state display unit 212 moves the camera 14a of the character recognition support apparatus 20 that has been tilted toward the right side of the form being photographed in a direction away from the right side of the captured image (area Z1) of the form being photographed. The distortion correction is instructed so that the size of the edge in the vertical direction is reduced. For example, the state display unit 212 performs positioning support so that the area Z1 of the captured image of the form moved in the direction in which the size of the vertical edge on the right end side is reduced matches the guide frame G15.

また、例えば、帳票状態推定部211により、|1−(C´12/C12)|>|1−(C´13/C13)|であり、−Thc>1−(C´12/C12)と判定される場合を想定する。|1−(C´12/C12)|>|1−(C´13/C13)|であり、−Thc>1−(C´12/C12)と判定される場合には、例えば、“歪みフラグ”に“1”のフラグ情報が設定される。   Further, for example, the form state estimation unit 211 satisfies | 1- (C′12 / C12) |> | 1- (C′13 / C13) |, and −Thc> 1- (C′12 / C12). Assume that the case is determined. | 1- (C′12 / C12) |> | 1- (C′13 / C13) |, and when it is determined that −Thc> 1- (C′12 / C12), for example, “distortion” Flag information “1” is set in the “flag”.

状態表示部212は、|1−(C´12/C12)|>|1−(C´13/C13)|であり、−Thc>1−(C´12/C12)と判定される場合には、例えば、画像領域Z0内の帳票の撮像画像の上端側の左右方向の縁辺のサイズが縮小するように、歪み補正の支援を行う。   The state display unit 212 is | 1- (C′12 / C12) |> | 1- (C′13 / C13) |, and when it is determined that −Thc> 1- (C′12 / C12). For example, the distortion correction is supported so that the size of the edge in the left-right direction on the upper end side of the captured image of the form in the image area Z0 is reduced.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)に適正な撮影位置を示すガイド枠15Gを重畳させて表示する。そして、状態表示部212は、例えば、上方向にくの字状に折れた矢印群G19を、帳票の撮像画像の下端側の縁辺に重畳させて表示する。なお、矢印群G19に含まれる各矢印の表示サイズは、最下側の矢印G19aから最上側の矢印G19cに向かって、順に拡大するよう表示される。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position superimposed on a captured image (area Z1) of a form being shot. Then, the state display unit 212 displays, for example, an arrow group G19 folded upward in a U-shape so as to be superimposed on the lower edge of the captured image of the form. The display size of each arrow included in the arrow group G19 is displayed so as to increase in order from the lowermost arrow G19a to the uppermost arrow G19c.

状態表示部212は、例えば、撮影中の帳票の上側に近づいて傾いていた、文字認識支援装置20のカメラ14aを遠ざける方向に移動させ、撮影中の帳票の撮像画像(領域Z1)の上端側の左右方向の縁辺のサイズが縮小するように、歪み補正の指示を行う。状態表示部212は、例えば、上端側の左右方向の縁辺のサイズが縮小する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。   The state display unit 212 moves, for example, the camera 14a of the character recognition support apparatus 20 that has been tilted toward the upper side of the form being photographed away from the upper side of the captured image (area Z1) of the form being photographed. The distortion correction is instructed so that the size of the edge in the left-right direction is reduced. For example, the state display unit 212 performs positioning support so that the area Z1 of the captured image of the form moved in the direction in which the size of the left and right edges on the upper end side matches the guide frame G15.

また、例えば、帳票状態推定部211により、|1−(C´12/C12)|>|1−(C´13/C13)|であり、Thc<1−(C´12/C12)と判定される場合を想定する。|1−(C´12/C12)|>|1−(C´13/C13)|であり、Thc<1−(C´12/C12)と判定される場合には、例えば、“歪みフラグ”に“2”のフラグ情報が設定される。   Further, for example, the form state estimation unit 211 determines that | 1- (C′12 / C12) |> | 1- (C′13 / C13) | and Thc <1- (C′12 / C12). Assuming that | 1- (C′12 / C12) |> | 1- (C′13 / C13) |, and when it is determined that Thc <1- (C′12 / C12), for example, “distortion flag "2" flag information is set in "."

状態表示部212は、|1−(C´12/C12)|>|1−(C´13/C13)|であり、Thc<1−(C´12/C12)と判定される場合には、例えば、画像領域Z0内の帳票の撮像画像の下端側の左右方向の縁辺のサイズが縮小するように、歪み補正の支援を行う。   When the state display unit 212 is | 1- (C′12 / C12) |> | 1- (C′13 / C13) | and it is determined that Thc <1- (C′12 / C12). For example, the distortion correction is supported so that the size of the edge in the left-right direction on the lower end side of the captured image of the form in the image area Z0 is reduced.

状態表示部212は、例えば、撮影中の帳票の撮像画像(領域Z1)に適正な撮影位置を示すガイド枠15Gを重畳させて表示する。そして、状態表示部212は、例えば、下方向にくの字状に折れた矢印群G19を、帳票の撮像画像の上端側の縁辺に重畳させて表示する。なお、矢印群G19に含まれる各矢印の表示サイズは、最上側の矢印G19aから最下側の矢印G19cに向かって、順に拡大するよう表示される。   The state display unit 212 displays, for example, a guide frame 15G indicating an appropriate shooting position superimposed on a captured image (area Z1) of a form being shot. Then, the state display unit 212 displays, for example, an arrow group G19 that is folded downward in a U-shape so as to be superimposed on the upper edge of the captured image of the form. The display size of each arrow included in the arrow group G19 is displayed so as to increase in order from the uppermost arrow G19a to the lowermost arrow G19c.

状態表示部212は、例えば、撮影中の帳票の下側に近づいて傾いていた、文字認識支援装置20のカメラ14aを遠ざける方向に移動させ、撮影中の帳票の撮像画像(領域Z1)の下端側の左右方向の縁辺のサイズが縮小するように、歪み補正の指示を行う。状態表示部212は、例えば、下端側の左右方向の縁辺のサイズが縮小する方向に移動させた帳票の撮像画像の領域Z1が、ガイド枠G15と合致するように、位置決め支援を行う。   For example, the state display unit 212 moves the camera 14a of the character recognition support apparatus 20 that has been inclined toward the lower side of the form being photographed in a direction away from the lower end of the captured image (area Z1) of the form being photographed. The distortion correction is instructed so that the size of the side edge in the left-right direction is reduced. For example, the state display unit 212 performs positioning support so that the area Z1 of the captured image of the form moved in the direction in which the size of the left and right edges on the lower end side matches the guide frame G15.

〔処理フロー〕
以下、図7A−7H、7J、8A−8Eに例示のフローチャートを参照し、本実施形態の文字認識支援装置20の文字認識処理を説明する。図7Aは、文字認識支援装置20の文字認識処理の全体処理を示すフローチャートの例示である。図7Aに例示のフローチャートにおいて、文字認識処理の開始は、例えば、文字認識処理の対象となる帳票の、撮像画像の受け付けのときが例示できる。
[Process flow]
Hereinafter, the character recognition process of the character recognition support device 20 of this embodiment will be described with reference to the flowcharts illustrated in FIGS. 7A-7H, 7J, and 8A-8E. FIG. 7A is an example of a flowchart showing the entire character recognition processing of the character recognition support device 20. In the flowchart illustrated in FIG. 7A, the start of the character recognition process can be exemplified by, for example, the time when a captured image of a form that is a target of the character recognition process is received.

文字認支援識装置20は、例えば、入力部14のカメラ14a等を介して、10msといった一定の周期間隔の時系列で撮影中の撮像画像の画像データを受け付ける。受け付けられた撮影中の撮像画像の画像データは、例えば、時系列順に主記憶部12のバッファメモリ等に一時的に記憶される。バッファメモリ等に記憶された撮影中の撮像画像の画像データは、時系列順に読み出され、例えば、文字認識支援装置20のLCD15a等の表示画面に、撮影中の帳票の撮影状態を表すモニタ画像として表示される。文字認識支援装置20は、例えば、時系列順にバッファメモリ等から読み出された撮影中の撮像画像の画像データに対し、図7Aに例示の文字認識処理を行う。   For example, the character recognition support recognition device 20 receives image data of a captured image being captured in a time series with a constant periodic interval of 10 ms via the camera 14a of the input unit 14 or the like. The received image data of the captured image being captured is temporarily stored in, for example, the buffer memory of the main storage unit 12 in chronological order. The image data of the captured image being captured stored in the buffer memory or the like is read in time series order, and is displayed on the display screen of the character recognition support apparatus 20 such as the LCD 15a, for example, to indicate the captured state of the form being captured. Is displayed. For example, the character recognition support device 20 performs the character recognition processing illustrated in FIG. 7A on the image data of the captured image that is being captured and read from the buffer memory or the like in chronological order.

図7Aに例示のフローチャートにおいて、文字認識支援装置20は、例えば、バッファメモリ等から読み出された撮影中の撮像画像の画像データについて画質評価処理を行う(S21)。画質評価処理は、例えば、評価用文字列DB201に登録された撮影中の帳票の評価用文字列のデータに基づいて行われる。画質評価処理では、例えば、画像領域内の撮影中の撮像画像の画像データが、少なくとも2隅以上の評価用領域において適正な位置に位置決めが行われていることが判定される。同時に、例えば、少なくとも2隅以上の評価用領域の文字認識の可否に基づいて、画像領域内の撮影中の撮像画像の画像データが、文字を認識するための十分な画質であるかが判定される。   In the flowchart illustrated in FIG. 7A, for example, the character recognition support device 20 performs image quality evaluation processing on the image data of the captured image read out from the buffer memory or the like (S21). The image quality evaluation process is performed, for example, based on the evaluation character string data of the form being photographed registered in the evaluation character string DB 201. In the image quality evaluation process, for example, it is determined that the image data of the captured image in the image area is positioned at an appropriate position in at least two corners of the evaluation area. At the same time, for example, it is determined whether the image data of the captured image in the image area has sufficient image quality for recognizing characters based on whether or not character recognition is possible in at least two corners. The

文字認識支援装置20は、例えば、S21の画質評価処理の判定結果をS22の処理に引き渡す。なお、S21の画質評価処理は、図7Bで説明する。   For example, the character recognition support apparatus 20 passes the determination result of the image quality evaluation process of S21 to the process of S22. The image quality evaluation process in S21 will be described with reference to FIG. 7B.

文字認識支援装置20は、例えば、S21の画質評価処理から引き渡された判定結果に基づいて、処理中の撮像画像の画像データに帳票内の文字を認識するための十分な画質を有するか否かを判定する(S22)。処理中の撮像画像の画像データに対する十分な画質であるかの判定は、例えば、処理中の撮像画像の画像データに付加された“画質フラグ”のフラグ情報により行われる。   For example, the character recognition support device 20 determines whether or not the image data of the captured image being processed has sufficient image quality for recognizing the characters in the form based on the determination result delivered from the image quality evaluation process in S21. Is determined (S22). The determination as to whether the image quality of the captured image being processed has sufficient image quality is performed based on, for example, flag information of an “image quality flag” added to the image data of the captured image being processed.

文字認識支援装置20は、例えば、処理中の撮像画像の“画質フラグ”に“1”のフラグ情報が付加されていない場合には(S22,“N”)、S23−S26の処理をスキップし、処理中の撮像画像に対する文字認識処理を終了する。文字認識支援装置20は、例えば、時系列順にバッファメモリ等から読み出された次の撮影中の撮像画像の画像データを対象として文字認識処理を継続する。図7Aに例示の文字認識処理は、例えば、帳票内に記述された文字認識が行われるまで繰り返し実行される。   For example, when the flag information of “1” is not added to the “image quality flag” of the captured image being processed (S22, “N”), the character recognition support device 20 skips the processing of S23 to S26. Then, the character recognition process for the captured image being processed ends. For example, the character recognition support device 20 continues the character recognition process on the image data of the next captured image read out from the buffer memory or the like in time series. The character recognition process illustrated in FIG. 7A is repeatedly executed until, for example, character recognition described in the form is performed.

一方、文字認識支援装置20は、例えば、処理中の撮像画像の“画質フラグ”に“1”のフラグ情報が付加されている場合には(S22,“Y”)、S23の帳票状態推定処理に移行する。   On the other hand, for example, when the flag information “1” is added to the “image quality flag” of the captured image being processed (S22, “Y”), the character recognition assisting apparatus 20 performs the form state estimation process in S23. Migrate to

S23の帳票状態推定処理では、文字認識支援装置20は、例えば、2隅以上の評価用領域で文字認識された“文字列”と“評価文字列”との位置関係に基づいて、処理中の帳票の位置決めを行うための各種移動判定、歪み補正判定を行う。なお、歪み補正判定は、例えば、3隅以上の評価用領域で“評価文字列”が文字認識された場合に行われる。   In the form state estimation process of S23, the character recognition support device 20 is processing based on the positional relationship between the “character string” and the “evaluation character string” that have been recognized in the evaluation areas at two or more corners, for example. Various movement determinations and distortion correction determinations are performed for positioning the form. Note that the distortion correction determination is performed, for example, when an “evaluation character string” is recognized in an evaluation area with three or more corners.

文字認識支援装置20は、例えば、S23の帳票状態推定処理の各種移動判定、歪み補正判定の結果をフラグ情報として主記憶部12の所定の領域に一時的に記憶し、S24の状態表示処理に引き渡す。なお、S23の帳票状態推定処理は、図7C−7H、7Jで説明する。   For example, the character recognition assisting apparatus 20 temporarily stores the results of various movement determinations and distortion correction determinations in the form state estimation process in S23 as flag information in a predetermined area of the main storage unit 12, and performs the state display process in S24. hand over. The form state estimation process in S23 will be described with reference to FIGS. 7C-7H and 7J.

S24の状態表示処理では、文字認識支援装置20は、例えば、S23の帳票状態推定処理で判定された並進移動、回転移動、奥行き方向の前後移動、歪み補正の要否を示す各種フラグ情報に基づいて、処理中の撮像画像に対する適正な撮影位置への支援表示を行う。   In the state display process of S24, the character recognition support apparatus 20 is based on, for example, various flag information indicating the necessity of translational movement, rotational movement, forward / backward movement in the depth direction, and distortion correction determined in the form state estimation process of S23. Thus, support display to an appropriate shooting position for the captured image being processed is performed.

文字認識支援装置20は、例えば、適正な撮影位置を示す矩形状のガイド枠等を撮影中の撮像画像に重畳させ、文字認識支援装置20のLCD15a等のモニタ表示が行われる表示画面に表示する。また、文字認識支援装置20は、例えば、各種フラグ情報に対応した、画像領域内での撮像画像の移動方向を示す矢印等の表示部品を撮影中の撮像画像に重畳させ、モニタ表示が行われるLCD15a等の表示画面に表示する。なお、S24の状態表示処理は、図8A−8Eで説明する。   The character recognition support device 20, for example, superimposes a rectangular guide frame or the like indicating an appropriate shooting position on the captured image being shot and displays it on a display screen on which a monitor display such as the LCD 15 a of the character recognition support device 20 is performed. . In addition, the character recognition support apparatus 20 superimposes a display component such as an arrow indicating the moving direction of the captured image in the image area corresponding to various flag information on the captured image being captured, and performs monitor display. It is displayed on a display screen such as the LCD 15a. The status display process in S24 will be described with reference to FIGS. 8A-8E.

S25の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像の撮影位置が、画像領域内において適正な撮影位置に位置決めされた状態であるかを判定する。   In the process of S25, the character recognition support apparatus 20 determines, for example, whether or not the shooting position of the captured image of the form being processed is positioned at an appropriate shooting position in the image area.

文字認識支援装置20は、例えば、S23の帳票状態推定処理の結果、処理中の帳票の撮像画像の撮影位置が、画像領域内において適正な撮影位置に位置決めされた状態でない場合には(S25,“N”)、処理中の撮像画像に対する文字認識処理を終了する。文字認識支援装置20は、例えば、時系列順にバッファメモリ等から読み出された次の撮影中の撮像画像の画像データを対象として文字認識処理を継続する。図7Aに例示の文字認識処理は、例えば、帳票内に記述された文字認識が行われるまで繰り返し実行される。   The character recognition support device 20, for example, when the photographing position of the captured image of the form being processed is not positioned at an appropriate photographing position in the image area as a result of the form state estimation process in S23 (S25, “N”), the character recognition process for the captured image being processed ends. For example, the character recognition support device 20 continues the character recognition process on the image data of the next captured image read out from the buffer memory or the like in time series. The character recognition process illustrated in FIG. 7A is repeatedly executed until, for example, character recognition described in the form is performed.

一方、文字認識支援装置20は、例えば、S23の帳票状態推定処理の結果、処理中の帳票の撮像画像の撮影位置が、画像領域内において適正な撮影位置に位置決めされた状態である場合には(S25,“Y”)、S26の処理に移行する。   On the other hand, the character recognition assisting apparatus 20, for example, when the photographing position of the captured image of the form being processed is positioned at an appropriate photographing position in the image area as a result of the form state estimation process in S <b> 23. (S25, “Y”), the process proceeds to S26.

S26の処理では、文字認識支援装置20は、例えば、処理中の撮像画像の画像データを主記憶部12の所定の領域に一時的に記憶する。そして、文字認識支援装置20は、例えば、帳票が撮像された、図1Bに例示の画像領域Z1のデータ領域について文字認識を
行う。画像領域Z1内のデータ領域の文字認識は、例えば、検出データ処理部213により行われる。文字認識支援装置20は、例えば、文字認識により検出された帳票内の文字情報を検出データ文字列として、文字認識支援装置20の出力部15に出力し、処理中の撮像画像に対する文字認識処理を終了する。
In the process of S <b> 26, for example, the character recognition support device 20 temporarily stores the image data of the captured image being processed in a predetermined area of the main storage unit 12. Then, for example, the character recognition support device 20 performs character recognition on the data area of the image area Z1 illustrated in FIG. 1B where the form is captured. Character recognition of the data area in the image area Z1 is performed by, for example, the detection data processing unit 213. The character recognition support device 20 outputs, for example, character information in a form detected by character recognition to the output unit 15 of the character recognition support device 20 as a detection data character string, and performs character recognition processing on the captured image being processed. finish.

ここで、文字認識支援装置20で実行されるS21の処理は、文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付けるステップの一例である。また、文字認識支援装置20のCPU11等は、文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付ける手段の一例としてS21の処理を実行する。   Here, the process of S21 executed by the character recognition support device 20 is an example of a step of receiving a captured image including a rectangular recognition target object that is a character recognition target. Further, the CPU 11 or the like of the character recognition support device 20 executes the process of S21 as an example of a unit that receives a captured image including a rectangular recognition target object that is a character recognition target.

また、文字認識支援装置20で実行されるS23の処理は、前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップの一例である。また、文字認識支援装置20のCPU11等は、前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定する手段の一例としてS23の処理を実行する。   The process of S23 executed by the character recognition support device 20 performs character recognition on the partial image in the predetermined area, and the character string recognized in the predetermined area and the evaluation character in the recognition target object. It is an example of the step which determines the relationship with a column. Further, the CPU 11 or the like of the character recognition support device 20 performs character recognition on the partial image in the predetermined area, and the relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object. As an example of a means for determining whether or not, the process of S23 is executed.

また、文字認識支援装置20で実行されるS23の処理は、前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する複数の軸方向の補正移動の要否を判定する補正移動判定ステップの一例である。また、文字認識支援装置20のCPU11等は、前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する複数の軸方向の補正移動の要否を判定する補正移動判定手段の一例としてS23の処理を実行する。   Further, the processing of S23 executed by the character recognition support device 20 is based on the positional relationship between the coordinate information of the evaluation character string and the character string recognized in the predetermined area corresponding to the evaluation character string. FIG. 11 is an example of a correction movement determination step for determining whether or not correction movements in a plurality of axial directions with respect to an appropriate shooting position of a captured image of the recognition target object are necessary. Further, the CPU 11 or the like of the character recognition support device 20 determines the recognition target based on the positional relationship between the coordinate information of the evaluation character string and the character string recognized in the predetermined area corresponding to the evaluation character string. The process of S23 is executed as an example of a correction movement determination unit that determines the necessity of correction movements in a plurality of axial directions with respect to an appropriate shooting position of the captured image of the body.

また、文字認識支援装置20で実行されるS24の処理は、前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御ステップの一例である。また、文字認識支援装置20のCPU11等は、前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御手段の一例としてS24の処理を実行する。   In addition, the process of S24 executed by the character recognition support device 20 determines whether or not the user can recognize characters on at least one of the plurality of axes indicating the posture of the rectangular recognition object based on the relationship. It is an example of the display control step displayed in an identifiable manner. In addition, the CPU 11 or the like of the character recognition support device 20 can recognize whether or not characters can be recognized on at least one of the plurality of axes indicating the posture of the rectangular recognition object based on the relationship. As an example of the display control means for displaying in step S24, the process of S24 is executed.

[画質評価処理]
次に、図7Bに例示のフローチャートを参照し、図7Aに例示のS21の画質評価処理の詳細を説明する。図7Bに例示にフローチャートにおいて、文字認識支援装置20は、例えば、処理中の帳票の撮像画像の画像データに対し、“画質フラグ”を“0”とするフラグ情報を付与する(S31)。“画質フラグ”に設定されるフラグ情報は、例えば、2値状態を“0”、“1”等の単一ビットで識別する情報である。S31の処理では、文字認識支援装置20は、処理中の撮像画像の画像データに対し、初期値として“画質フラグ”を“0”とするフラグ情報の設定を行う。
[Image quality evaluation processing]
Next, details of the image quality evaluation process of S21 illustrated in FIG. 7A will be described with reference to the flowchart illustrated in FIG. 7B. In the flowchart illustrated in FIG. 7B, for example, the character recognition assisting apparatus 20 adds flag information that sets the “image quality flag” to “0” to the image data of the captured image of the form being processed (S31). The flag information set in the “image quality flag” is information for identifying a binary state by a single bit such as “0” or “1”, for example. In the process of S31, the character recognition assisting apparatus 20 sets flag information that sets “image quality flag” to “0” as an initial value for the image data of the captured image being processed.

S32の処理では、文字認識支援装置20は、例えば、評価用文字列DB201を参照し、撮影中の帳票に対応する評価用文字列のデータ(画質評価用文字列テーブル)の読み込みを行う。読み込まれた評価用文字列のデータは、例えば、主記憶部12の所定の領域に一時的に記憶される。   In the process of S32, the character recognition support apparatus 20 reads the evaluation character string data (image quality evaluation character string table) corresponding to the form being photographed with reference to the evaluation character string DB 201, for example. The read evaluation character string data is temporarily stored in a predetermined area of the main storage unit 12, for example.

S33の処理では、文字認識支援装置20は、例えば、S32の処理で読み込んだ評価用文字列の画像領域内の座標データ“sx”、“sy”、“ex”、“ey”に基づいて、評価用領域の設定を行う。評価用領域の設定は、例えば、数式(2)、(3)に基づい
て行われる。文字認識支援装置20は、例えば、画像領域内の評価用領域について文字認識を行い、2隅以上の評価用領域における評価用文字列の文字認識が行われたかを判定する(S34)。
In the process of S33, for example, the character recognition support apparatus 20 is based on the coordinate data “sx”, “sy”, “ex”, “ey” in the image area of the evaluation character string read in the process of S32. Set the evaluation area. The setting of the evaluation area is performed based on, for example, mathematical formulas (2) and (3). For example, the character recognition support apparatus 20 performs character recognition on the evaluation area in the image area, and determines whether character recognition of the evaluation character string in the evaluation areas at two or more corners has been performed (S34).

文字認識支援装置20は、例えば、2隅以上の評価用領域における評価用文字列の文字認識が行われた場合には(S34,“Y”)、S35の処理に移行する。S35の処理では、文字認識支援装置20は、例えば、処理中の撮像画像の画像データに対し、帳票内の文字を認識するための十分な画質であると判断し、“画質フラグ”のフラグ値に“1”を設定する。文字認識支援装置20は、処理中の画質評価処理を終了する。また、文字認識支援装置20は、例えば、2隅以上の評価用領域における評価用文字列の文字認識が行われない場合には(S34,“N”)、処理中の画質評価処理を終了する。   For example, when the character recognition of the evaluation character string in the evaluation areas at two or more corners is performed (S34, “Y”), the character recognition support device 20 proceeds to the process of S35. In the process of S35, for example, the character recognition support apparatus 20 determines that the image data of the captured image being processed has sufficient image quality for recognizing characters in the form, and the flag value of the “image quality flag” Set “1” to. The character recognition support device 20 ends the image quality evaluation process being processed. Further, for example, when character recognition of the evaluation character string in the evaluation areas at two or more corners is not performed (S34, “N”), the character recognition assisting apparatus 20 ends the image quality evaluation process being processed. .

ここで、文字認識支援装置20で実行されるS32−S33の処理は、記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定するステップの一例である。また、文字認識支援装置20のCPU11等は、記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定する手段の一例としてS32−S33の処理を実行する。   Here, the process of S32-S33 performed by the character recognition assistance apparatus 20 is based on the coordinate information of the several evaluation character string in the said recognition target body registered into the memory | storage part, and includes the said recognition target body. It is an example of the step which specifies the predetermined area | region more than three corners in an image. Further, the CPU 11 or the like of the character recognition support device 20 has three or more corners in the captured image including the recognition target object based on the coordinate information of the plurality of evaluation character strings in the recognition target object registered in the storage unit. As an example of a means for specifying the predetermined area, the processing of S32 to S33 is executed.

また、文字認識支援装置20で実行されるS34の処理は、前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップの一例である。また、文字認識支援装置20のCPU11等は、前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定する手段の一例としてS34の処理を実行する。   The process of S34 executed by the character recognition support device 20 performs character recognition on the partial image in the predetermined area, and the character string recognized in the predetermined area and the evaluation character in the recognition object. It is an example of the step which determines the relationship with a column. Further, the CPU 11 or the like of the character recognition support device 20 performs character recognition on the partial image in the predetermined area, and the relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object. As an example of a means for determining whether or not, the process of S34 is executed.

[帳票状態推定処理]
次に、図7C−7H、7Jに例示のフローチャートを参照し、図7Aに例示のS23の帳票状態推定処理の詳細を説明する。図7Cは、帳票状態推定処理の全体処理を示すフローチャートの例示である。
[Form status estimation process]
Next, details of the form state estimation processing in S23 illustrated in FIG. 7A will be described with reference to the flowcharts illustrated in FIGS. 7C-7H and 7J. FIG. 7C is an example of a flowchart showing the overall process of the form state estimation process.

文字認識支援装置20は、例えば、2隅の評価用領域について文字認識が行われた場合には、該2隅の評価用領域で文字認識された“文字列”と“評価文字列”との位置関係に基づいて、処理中の帳票の位置決めを行うための各種移動判定を行う。また、文字認識支援装置20は、例えば、3隅の評価用領域について文字認識が行われた場合には、該2隅の評価用領域で文字認識された“文字列”と“評価文字列”との位置関係に基づいて、処理中の帳票の位置決めを行うための各種移動判定、歪み補正判定を行う。   For example, when the character recognition is performed for the evaluation areas at the two corners, the character recognition support device 20 determines whether the “character string” and the “evaluation character string” recognized in the evaluation areas at the two corners. Based on the positional relationship, various movement determinations for positioning the form being processed are performed. For example, when the character recognition is performed for the evaluation areas at the three corners, the character recognition support device 20 performs the “character string” and the “evaluation character string” recognized in the evaluation areas at the two corners. Based on the positional relationship, various movement determinations and distortion correction determinations for positioning the form being processed are performed.

図7Cに例示のフローチャートにおいて、文字認識支援装置20は、例えば、処理中の帳票の撮像画像(画像データ)について文字認識が行われた評価用領域の箇所が3隅であるか否かを判定する(S41)。   In the flowchart illustrated in FIG. 7C, the character recognition support device 20 determines, for example, whether there are three corners of the evaluation area where character recognition has been performed on the captured image (image data) of the form being processed. (S41).

文字認識支援装置20は、例えば、処理中の帳票の撮像画像(画像データ)について文字認識が行われた評価用領域の箇所が3隅である場合には(S41,“Y”)、S42の3隅推定処理に移行する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像(画像データ)について文字認識が行われた評価用領域の箇所が2隅である場合には(S41,“N”)、S43の2隅推定処理に移行する。   For example, when there are three corners of the evaluation area where character recognition has been performed on the captured image (image data) of the form being processed (S41, “Y”), the character recognition support apparatus 20 performs the processing of S42. The process proceeds to the three corner estimation process. On the other hand, the character recognition assisting apparatus 20, for example, when there are two corners of the evaluation area where character recognition has been performed on the captured image (image data) of the form being processed (S 41, “N”), The process proceeds to the two-corner estimation process in S43.

文字認識支援装置20は、例えば、S42の3隅推定処理、或いは、S43の2隅推定処理により、処理中の帳票の位置決めを行うための各種移動、歪み補正の要否を判定し、
処理中の撮像画像に対する帳票状態推定処理を終了する。なお、S42の3隅推定処理は図7Eで説明し、S43の2隅推定処理は図7Dで説明する。
The character recognition assisting device 20 determines, for example, whether or not various movements and distortion correction are required for positioning the form being processed by the three-corner estimation process of S42 or the two-corner estimation process of S43,
The form state estimation process for the captured image being processed ends. The three-corner estimation process in S42 will be described with reference to FIG. 7E, and the two-corner estimation process in S43 will be described with reference to FIG. 7D.

次に、図7Dに例示のフローチャートを参照し、図7Cに例示のS43の2隅推定処理の詳細を説明する。図7Dは、2隅推定処理の全体処理を示すフローチャートの例示である。2隅推定処理では、2隅の評価用領域で文字認識された“文字列”と“評価文字列”との位置関係に基づいて、処理中の帳票の位置決めを行うための並進移動、回転移動、奥行き方向の前後移動の要否の判定が行われる。なお、各種移動の要否判定は、並進移動、回転移動、奥行き方向の前後移動の順に行われる。   Next, details of the two-corner estimation process of S43 illustrated in FIG. 7C will be described with reference to the flowchart illustrated in FIG. 7D. FIG. 7D is an example of a flowchart showing the entire process of the two-corner estimation process. In the two-corner estimation process, translational movement and rotational movement are performed for positioning the form being processed based on the positional relationship between the “character string” recognized in the evaluation areas at the two corners and the “evaluation character string”. Then, it is determined whether or not it is necessary to move back and forth in the depth direction. Note that the necessity of various movements is determined in the order of translational movement, rotational movement, and forward / backward movement in the depth direction.

図7Dに例示のフローチャートにおいて、文字認識支援装置20は、例えば、2隅の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)と、“評価文字列”についての重心座標(Xgrav,Ygrav)を求める。そして、文字認識支援装置20は、例えば、“文字列”についての重心座標(X´grav,Y´grav)と“評価文字列”についての重心座標(Xgrav,Ygrav)との位置関係に基づいて、処理中の帳票の位置決めを行うための並進移動の要否を判定する(S51)。なお、S51の並進推定処理は、図7Fで説明する。   In the flowchart illustrated in FIG. 7D, the character recognition support apparatus 20 includes, for example, the barycentric coordinates (X′grav, Y′grav) of the “character string” recognized in the evaluation areas at the two corners, Find the barycentric coordinates (Xgrav, Ygrav) for the column. Then, for example, the character recognition support device 20 is based on the positional relationship between the barycentric coordinates (X′grav, Y′grav) for “character string” and the barycentric coordinates (Xgrav, Ygrav) for “evaluation character string”. Then, it is determined whether or not a translational movement is required for positioning the form being processed (S51). The translation estimation process in S51 will be described with reference to FIG. 7F.

S51の並進推定処理では、例えば、処理中の帳票の撮像画像について、画像領域内の並進移動が求められる場合には、上下左右方向の各並進移動方向に応じて“並進フラグ”に“1”−“4”のフラグ情報が設定される。なお、処理中の帳票の撮像画像について、画像領域内の並進移動が求められない場合には、例えば、“並進フラグ”に“0”のフラグ情報が設定される。   In the translation estimation process of S51, for example, when a translational movement within the image area is required for the captured image of the form being processed, “1” is set in the “translation flag” in accordance with the respective translational movement directions in the vertical and horizontal directions. -Flag information "4" is set. Note that if the translation image within the image area is not required for the captured image of the form being processed, flag information “0” is set in the “translation flag”, for example.

S52の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“並進フラグ”のフラグ情報が“0”であるか否かの判定を行う。文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“並進フラグ”のフラグ情報が“0”である場合には(S52,“N”)、S53の回転推定処理に移行する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“並進フラグ”のフラグ情報が“0”でない場合には(S52,“Y”)、S53−S56の処理をスキップし、処理中の2隅推定処理を終了する。   In the process of S52, for example, the character recognition support apparatus 20 determines whether or not the flag information of the “translation flag” set for the captured image of the form being processed is “0”. For example, when the flag information of the “translation flag” set for the captured image of the form being processed is “0” (S52, “N”), the character recognition support device 20 performs the rotation estimation process in S53. Transition. On the other hand, for example, when the flag information of the “translation flag” set for the captured image of the form being processed is not “0” (S52, “Y”), the character recognition support apparatus 20 performs the processing of S53-S56. Is skipped, and the two-corner estimation process being processed is terminated.

S53の回転推定処理では、文字認識支援装置20は、例えば、2隅の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)を中心とした、“文字列”毎の重心座標(X´char,Y´char)方向への時計回りの角度を求める。また、文字認識支援装置20は、例えば、文字認識された2隅の評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)を中心とした、“評価文字列”毎の重心座標(Xchar,Ychar)方向への時計回りの角度を求める。そして、文字認識支援装置20は、例えば、“文字列”毎の重心座標(X´char,Y´char)方向への時計回りの角度、“評価文字列” 毎の重心座標(Xchar,Ychar)方向への時計回りの角度に基づいて、処
理中の帳票の位置決めを行うための回転移動の要否を判定する。なお、S53の回転推定処理は、図7Gで説明する。
In the rotation estimation process of S53, the character recognition support device 20 uses, for example, the center of gravity coordinates (X′grav, Y′grav) for the “character string” recognized in the evaluation areas at the two corners as “ The clockwise angle in the direction of the barycentric coordinates (X'char, Y'char) for each character string "is obtained. In addition, the character recognition support device 20, for example, for each “evaluation character string” centered on the barycentric coordinates (Xgrav, Ygrav) of the “evaluation character string” corresponding to the evaluation areas at the two corners recognized by the character. A clockwise angle in the direction of the barycentric coordinate (Xchar, Ychar) is obtained. Then, the character recognition support device 20, for example, the clockwise angle in the centroid coordinate (X′char, Y′char) direction for each “character string”, and the centroid coordinate (Xchar, Ychar) for each “evaluation character string”. Based on the clockwise angle in the direction, it is determined whether or not a rotational movement is required for positioning the form being processed. The rotation estimation process in S53 will be described with reference to FIG. 7G.

S53の回転推定処理では、例えば、処理中の帳票の撮像画像について、画像領域内の回転移動が求められる場合には、時計回り、反時計回りの各回転移動方向に応じて“回転フラグ”に“1”−“2”のフラグ情報が設定される。なお、処理中の帳票の撮像画像について、画像領域内の回転移動が求められない場合には、例えば、“回転フラグ”に“0”のフラグ情報が設定される。   In the rotation estimation process of S53, for example, when a rotational movement within the image area is required for the captured image of the form being processed, the “rotation flag” is set in accordance with each of the clockwise and counterclockwise rotational movement directions. Flag information “1”-“2” is set. Note that, when the rotational movement within the image area is not required for the captured image of the form being processed, for example, flag information “0” is set in the “rotation flag”.

S54の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像につい
て設定された“回転フラグ”のフラグ情報が“0”であるか否かの判定を行う。文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“回転フラグ”のフラグ情報が“0”である場合には(S54,“N”)、S55の前後推定処理に移行する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“回転フラグ”のフラグ情報が“0”でない場合には(S54,“Y”)、S55−S56の処理をスキップし、処理中の2隅推定処理を終了する。
In the process of S54, for example, the character recognition support apparatus 20 determines whether or not the flag information of the “rotation flag” set for the captured image of the form being processed is “0”. For example, when the flag information of the “rotation flag” set for the captured image of the form being processed is “0” (S54, “N”), the character recognition support apparatus 20 performs the pre- and post-estimation processing in S55. Transition. On the other hand, for example, when the flag information of the “rotation flag” set for the captured image of the form being processed is not “0” (S54, “Y”), the character recognition support apparatus 20 performs the processing of S55 to S56. Is skipped, and the two-corner estimation process being processed is terminated.

S55の前後推定処理では、文字認識支援装置20は、例えば、2隅の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)と、各“文字列”の重心座標(X´char,Y´char)との距離を求める。また、文字認識支援装置20は、例えば、文字認識された2隅の評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)と、各“評価文字列”の重心座標(Xchar,Ychar)との距離を求める。そして、文字認識支援装置20は、例えば、各“文字列”の重心座標(X´char,Y´char)への距離、各“評価文字列”の重心座標(Xchar,Ychar)への距離に基づいて、処理中の帳票の位置決めを行うための奥行き方向への前後移動の要否を判定する。なお、S55の前後推定処理は、図7Hで説明する。   In the front-rear estimation process of S55, the character recognition support device 20 uses, for example, the barycentric coordinates (X′grav, Y′grav) for the “character string” recognized in the evaluation areas at the two corners, and each “character string”. The distance to the barycentric coordinates (X'char, Y'char) is obtained. Further, the character recognition support device 20, for example, centroid coordinates (Xgrav, Ygrav) for the “evaluation character string” corresponding to the evaluation areas at the two corners recognized by the character, and the centroid coordinates of each “evaluation character string” ( Xchar, Ychar) is obtained. Then, the character recognition support device 20 determines, for example, the distance to the centroid coordinates (X′char, Y′char) of each “character string” and the distance to the centroid coordinates (Xchar, Ychar) of each “evaluation character string”. Based on this, it is determined whether or not it is necessary to move back and forth in the depth direction for positioning the form being processed. The front-rear estimation process in S55 will be described with reference to FIG. 7H.

S55の前後推定処理では、例えば、処理中の帳票の撮像画像について、奥行き方向への前後移動が求められる場合には、奥行き前方向、奥行き後方向の各移動方向に応じて“前後フラグ”に“1”−“2”のフラグ情報が設定される。なお、処理中の帳票の撮像画像について、奥行き方向への前後移動が求められない場合には、例えば、“前後フラグ”に“0”のフラグ情報が設定される。   In the forward / backward estimation process in S55, for example, when the captured image of the form being processed is required to move back and forth in the depth direction, the “front and back flag” is set according to the movement direction in the forward and backward directions. Flag information “1”-“2” is set. Note that when the captured image of the form being processed is not required to move back and forth in the depth direction, for example, “0” flag information is set in the “front and back flag”.

S56の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後フラグ”のフラグ情報が“0”であるか否かの判定を行う。文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後フラグ”のフラグ情報が“0”である場合には(S56,“N”)、フラグ情報を主記憶部12の所定の領域に一時的に記憶し、処理中の2隅推定処理を終了する。また、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後フラグ”のフラグ情報が“0”でない場合には(S56,“Y”)、処理中の2隅推定処理を終了する。   In the process of S56, for example, the character recognition support apparatus 20 determines whether or not the flag information of the “front and back flag” set for the captured image of the form being processed is “0”. For example, when the flag information of the “front and back flag” set for the captured image of the form being processed is “0” (S56, “N”), the character recognition support device 20 stores the flag information in the main storage unit. The information is temporarily stored in 12 predetermined areas, and the two-corner estimation process being processed is terminated. Further, for example, when the flag information of the “front and back flag” set for the captured image of the form being processed is not “0” (S56, “Y”), the character recognition support apparatus 20 performs processing at two corners. The estimation process ends.

次に、図7Eに例示のフローチャートを参照し、図7Cに例示のS42の3隅推定処理の詳細を説明する。図7Eは、3隅推定処理の全体処理を示すフローチャートの例示である。3隅推定処理では、3隅の評価用領域で文字認識された“文字列”と“評価文字列”との位置関係に基づいて、処理中の帳票の位置決めを行うための並進移動、回転移動、奥行き方向の前後移動、歪み補正の要否の判定が行われる。なお、各種移動の要否判定は、並進移動、回転移動、奥行き方向の前後移動の順に行われる。また、歪み補正の要否判定は、奥行き方向の前後移動の要否の判定後に行われる。   Next, details of the three-corner estimation process of S42 illustrated in FIG. 7C will be described with reference to the flowchart illustrated in FIG. 7E. FIG. 7E is an example of a flowchart illustrating the entire process of the three corner estimation process. In the three-corner estimation process, translational movement and rotational movement are performed to position the form being processed based on the positional relationship between the “character string” recognized in the evaluation area at the three corners and the “evaluation character string”. Then, it is determined whether or not it is necessary to perform forward / backward movement in the depth direction and distortion correction. Note that the necessity of various movements is determined in the order of translational movement, rotational movement, and forward / backward movement in the depth direction. Further, the necessity determination of the distortion correction is performed after the necessity determination of the forward / backward movement in the depth direction is performed.

図7Eに例示の3隅推定処理において、S51−S55の処理では、文字認識支援装置20は、例えば、3隅の評価用領域で文字認識された“文字列”と“評価文字列”について、図7Dに例示のS51−S55の処理を実行する。なお、S56aの処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後フラグ”のフラグ情報が“0”であるか否かの判定を行う。   In the three-corner estimation process illustrated in FIG. 7E, in the processes of S51 to S55, for example, the character recognition support device 20 performs the following operations on “character strings” and “evaluation character strings” recognized in the evaluation areas at the three corners. The process of S51-S55 illustrated in FIG. 7D is executed. In the process of S56a, for example, the character recognition support apparatus 20 determines whether or not the flag information of the “front and back flag” set for the captured image of the form being processed is “0”.

文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“回転フラグ”のフラグ情報が“0”でない場合には(S56a,“Y”)、S57−S58の処理をスキップし、処理中の3隅推定処理を終了する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後回転フラグ”のフラグ情報が“0”である場合には(S56a,“N”)、S57の歪み推定処理に移行する。   For example, when the flag information of the “rotation flag” set for the captured image of the form being processed is not “0” (S56a, “Y”), the character recognition support apparatus 20 skips the processing of S57 to S58. Then, the three corner estimation process being processed is terminated. On the other hand, for example, when the flag information of the “front / rear rotation flag” set for the captured image of the form being processed is “0” (S56a, “N”), the character recognition support apparatus 20 performs the distortion of S57. Transition to estimation processing.

S57の歪み推定処理では、文字認識支援装置20は、例えば、3隅の評価用領域で文字認識された“文字列1”と“文字列2”との重心座標間の距離“C´12”を求める。また、文字認識支援装置20は、例えば、“文字列1”と“文字列3”との重心座標間の距離“C´13”を求める。同様に、文字認識支援装置20は、例えば、3隅の評価用文字列に内、“評価文字列1”と“評価文字列2”との重心座標間の距離“C12”、“評価文字列1”と“評価文字列3”との重心座標間の距離“C13”との距離を求める。   In the distortion estimation process of S57, the character recognition support apparatus 20 determines, for example, the distance “C′12” between the centroid coordinates of “character string 1” and “character string 2” recognized in the evaluation areas at the three corners. Ask for. Further, the character recognition support device 20 obtains a distance “C′13” between the center of gravity coordinates of “character string 1” and “character string 3”, for example. Similarly, for example, the character recognition support apparatus 20 includes the distance “C12” between the centroid coordinates of “evaluation character string 1” and “evaluation character string 2” in the evaluation character strings at three corners, “evaluation character string”. The distance between the centroid coordinates “1” and “evaluation character string 3” and the distance “C13” is obtained.

そして、文字認識支援装置20は、例えば、評価用領域で文字認識された“C´12”、“C´13”とそれぞれの評価用領域に対応する“評価文字列”の“C12”、“C13”とのそれぞれの距離比に基づいて、処理中の撮像画像に対する歪み補正の要否を判定する。なお、S57の歪み推定処理は、図7Jで説明する。   Then, the character recognition support apparatus 20, for example, “C′12” and “C′13” recognized in the evaluation area and “C12” and “C12” of the “evaluation character string” corresponding to each evaluation area. Based on the respective distance ratios to C13 ″, it is determined whether or not distortion correction is necessary for the captured image being processed. Note that the distortion estimation processing in S57 will be described with reference to FIG. 7J.

S57の歪み推定処理では、例えば、処理中の帳票の撮像画像について、歪み補正を行うための補正移動が求められる場合には、左右方向、上下方向の各補正移動方向に応じて“歪みフラグ”に“1”−“4”のフラグ情報が設定される。なお、処理中の帳票の撮像画像について、歪み補正を行うための補正移動が求められない場合には、例えば、“歪みフラグ”に“0”のフラグ情報が設定される。   In the distortion estimation processing in S57, for example, when a correction movement for performing distortion correction is required for the captured image of the form being processed, the “distortion flag” is set in accordance with the respective correction movement directions in the horizontal direction and the vertical direction. Flag information “1”-“4” is set in In addition, when the correction movement for performing distortion correction is not calculated | required about the captured image of the form in process, flag information of "0" is set to "distortion flag", for example.

S58の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“歪みフラグ”のフラグ情報が“0”であるか否かの判定を行う。文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“歪みフラグ”のフラグ情報が“0”である場合には(S58,“N”)、フラグ情報を主記憶部12の所定の領域に一時的に記憶し、処理中の3隅推定処理を終了する。また、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“歪みフラグ”のフラグ情報が“0”でない場合には(S58,“Y”)、処理中の3隅推定処理を終了する。   In the process of S58, for example, the character recognition support apparatus 20 determines whether or not the flag information of the “distortion flag” set for the captured image of the form being processed is “0”. For example, when the flag information of the “distortion flag” set for the captured image of the form being processed is “0” (S58, “N”), the character recognition support device 20 stores the flag information in the main storage unit. The information is temporarily stored in 12 predetermined areas, and the three-corner estimation process being processed is terminated. Further, for example, when the flag information of the “distortion flag” set for the captured image of the form being processed is not “0” (S58, “Y”), the character recognition support apparatus 20 performs processing at the three corners being processed. The estimation process ends.

(並進推定処理)
図7Fに例示のフローチャートを参照し、図7D,7Eに例示のS51の並進推定処理の詳細を説明する。図7Fに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“並進フラグ”に“0”のフラグ情報を設定する(S61)。そして、文字認識支援装置20は、例えば、2隅以上の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)、該評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)を算出する(S62)。
(Translation estimation process)
Details of the translation estimation process of S51 illustrated in FIGS. 7D and 7E will be described with reference to the flowchart illustrated in FIG. 7F. In the flowchart illustrated in FIG. 7F, the character recognition support apparatus 20 sets, for example, flag information “0” in the “translation flag” (S61). Then, the character recognition assisting device 20, for example, the barycentric coordinates (X′grav, Y′grav) of the “character string” recognized in the evaluation areas at two or more corners, and the “evaluation corresponding to the evaluation area” The barycentric coordinates (Xgrav, Ygrav) for the character string "are calculated (S62).

文字認識支援装置20は、例えば、数式(4)−(7)に基づいて、2隅以上の評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)を算出する。また、文字認識支援装置20は、例えば、数式(4)−(5)、(6a)−(7a)に基づいて、2隅以上の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)を算出する。なお、重心座標(Xgrav,Ygrav)、(X´grav,Y´grav)については、数式(4)−(7)、(6a)−(7a)で説明した。   For example, the character recognition assisting device 20 calculates the barycentric coordinates (Xgrav, Ygrav) for the “evaluation character string” corresponding to the evaluation areas at two or more corners based on the equations (4) to (7). In addition, the character recognition support device 20, for example, based on mathematical expressions (4)-(5), (6a)-(7a), centroids about “character strings” that have been character-recognized in two or more evaluation areas. Coordinates (X′grav, Y′grav) are calculated. Note that the barycentric coordinates (Xgrav, Ygrav) and (X′grav, Y′grav) have been described in Equations (4)-(7), (6a)-(7a).

S63−S6Aの処理では、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係に基づいて、処理中の帳票の撮像画像に対する上下左右方向の並進移動の要否を判定する。   In the processing of S63-S6A, for example, the character recognition support apparatus 20 determines the necessity of translational movement in the vertical and horizontal directions with respect to the captured image of the form being processed based on the positional relationship of the barycentric coordinates calculated in the processing of S62. judge.

文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、数式(8)の関係に基づいて処理中の帳票の撮像画像に対する左右方向の並進移動の可否を判定する。また、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、数式(9)の関係に基づいて処理中の帳票の撮像画像に対
する左右方向の並進移動の可否を判定する。
For example, the character recognition assisting apparatus 20 determines whether or not the translational movement in the left-right direction with respect to the captured image of the form being processed is possible based on the relationship of Expression (8) with respect to the positional relationship of the barycentric coordinates calculated in the process of S62. . Further, for example, the character recognition support device 20 determines whether or not the translational movement in the left-right direction with respect to the captured image of the form being processed is possible based on the relationship of Equation (9) with respect to the positional relationship of the barycentric coordinates calculated in the process of S62. judge.

並進移動の要否の判定の結果は、例えば、“並進フラグ”に設定される“1”−“4”のフラグ情報として反映される。なお、上下左右方向の並進移動の要否の判定については、数式(8)、(9)で説明した。   The result of the determination as to whether or not translation is necessary is reflected as flag information “1” to “4” set in the “translation flag”, for example. Note that the determination of the necessity of translational movement in the up / down / left / right directions has been described in Equations (8) and (9).

S63の処理では、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、(Xgrav−Thx)>X´gravの関係を満たすか否かを判定する。文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係が(Xgrav−Thx)>X´gravの関係を満たす場合には(S63,“Y”)、“並進フラグ”に“1”のフラグ情報を設定する(S67)。一方、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係が(Xgrav−Thx)>X´gravの関係を満たさない場合には(S63,“N”)、S64の処理に移行する。   In the process of S63, for example, the character recognition assisting apparatus 20 determines whether or not the positional relationship of the barycentric coordinates calculated in the process of S62 satisfies the relationship of (Xgrav−Thx)> X′grav. For example, when the positional relationship between the barycentric coordinates calculated in the process of S62 satisfies the relationship (Xgrav−Thx)> X′grav (S63, “Y”), the character recognition assisting apparatus 20 performs “translation flag”. Is set to "1" flag information (S67). On the other hand, for example, when the positional relationship between the barycentric coordinates calculated in the process of S62 does not satisfy the relationship of (Xgrav−Thx)> X′grav (S63, “N”), the character recognition support device 20 performs S64. Move on to processing.

S64の処理では、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、X´grav>(Xgrav+Thx)の関係を満たすか否かを判定する。文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係がX´grav>(Xgrav+Thx)の関係を満たす場合には(S64,“Y”)、“並進フラグ”に“2”のフラグ情報を設定する(S68)。一方、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係がX´grav>(Xgrav+Thx)の関係を満たさない場合には(S64,“N”)、S65の処理に移行する。   In the process of S64, for example, the character recognition support apparatus 20 determines whether or not the positional relationship of the barycentric coordinates calculated in the process of S62 satisfies the relationship of X′grav> (Xgrav + Thx). For example, when the positional relationship between the barycentric coordinates calculated in the process of S62 satisfies the relationship X′grav> (Xgrav + Thx) (S64, “Y”), the character recognition assisting device 20 sets “translation flag” to “ 2 ″ flag information is set (S68). On the other hand, for example, when the positional relationship between the barycentric coordinates calculated in the process of S62 does not satisfy the relationship of X′grav> (Xgrav + Thx) (S64, “N”), the character recognition support apparatus 20 performs the process of S65. Migrate to

S65の処理では、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、(Ygrav−Thy)>Y´gravの関係を満たすか否かを判定する。文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係が(Ygrav−Thy)>Y´gravの関係を満たす場合には(S65,“Y”)、“並進フラグ”に“3”のフラグ情報を設定する(S69)。一方、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係が(Ygrav−Thy)>Y´gravの関係を満たさない場合には(S65,“N”)、S66の処理に移行する。   In the process of S65, for example, the character recognition support apparatus 20 determines whether or not the positional relationship of the barycentric coordinates calculated in the process of S62 satisfies the relationship of (Ygrav−Thy)> Y′grav. For example, when the positional relationship between the barycentric coordinates calculated in the process of S62 satisfies the relationship (Ygrav−Thy)> Y′grav (S65, “Y”), the character recognition assisting device 20 performs “translation flag”. The flag information “3” is set in (S69). On the other hand, for example, when the positional relationship between the barycentric coordinates calculated in the process of S62 does not satisfy the relationship of (Ygrav−Thy)> Y′grav (S65, “N”), the character recognition support device 20 performs S66. Move on to processing.

S66の処理では、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係について、Y´grav>(Ygrav+Thy)の関係を満たすか否かを判定する。文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係がY´grav>(Ygrav+Thy)の関係を満たす場合には(S66,“Y”)、“並進フラグ”に“3”のフラグ情報を設定する(S6A)。一方、文字認識支援装置20は、例えば、S62の処理で算出した各重心座標の位置関係がY´grav>(Ygrav+Thy)の関係を満たさない場合には(S66,“N”)、処理中の並進推定処理を終了する。   In the process of S66, for example, the character recognition assisting apparatus 20 determines whether the relationship of Y′grav> (Ygrav + Thy) is satisfied with respect to the positional relationship of the barycentric coordinates calculated in the process of S62. For example, when the positional relationship between the barycentric coordinates calculated in the process of S62 satisfies the relationship of Y′grav> (Ygrav + Thy) (S66, “Y”), the character recognition assisting apparatus 20 sets “translation flag” to “ 3 ″ flag information is set (S6A). On the other hand, for example, when the positional relationship between the barycentric coordinates calculated in the process of S62 does not satisfy the relationship of Y′grav> (Ygrav + Thy) (S66, “N”), the character recognition support device 20 The translation estimation process ends.

ここで、文字認識支援装置20で実行されるS61−S6Aの処理は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、ステップの一例である。また、文字認識支援装置20のCPU11等は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、手段の一例としてS61−S6Aの処理を実行する。   Here, the processing of S61-S6A executed by the character recognition support device 20 includes the center of gravity of a combination area including two or more character strings recognized from partial images in two or more corners of the predetermined area, and the predetermined area. Based on the positional relationship with the center of gravity of the combination area including two or more evaluation character strings corresponding to, it is determined whether or not a translational movement is required in one of the up, down, left, and right directions with respect to the captured image of the recognition object. Is an example of steps. Further, the CPU 11 or the like of the character recognition support device 20 has a center of gravity of a combination area including two or more character strings recognized from partial images in two or more corners in a predetermined area, and two or more evaluations corresponding to the predetermined area. As an example of means for determining the necessity of translational movement in any one of the vertical and horizontal directions with respect to the captured image of the recognition target object based on the positional relationship with the center of gravity of the combination area including the character string, S61- The process of S6A is executed.

(回転推定処理)
図7Gに例示のフローチャートを参照し、図7D,7Eに例示のS53の回転推定処理
の詳細を説明する。図7Gに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“回転フラグ”に“0”のフラグ情報を設定する(S71)。そして、文字認識支援装置20は、例えば、2隅以上の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)、該評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)を算出する(S72)。S72の処理では、例えば、図7Fに例示のフローチャートのS62の処理と同様の処理が行われる。
(Rotation estimation process)
Details of the rotation estimation process of S53 illustrated in FIGS. 7D and 7E will be described with reference to the flowchart illustrated in FIG. 7G. In the flowchart illustrated in FIG. 7G, the character recognition support apparatus 20 sets, for example, flag information “0” in the “rotation flag” (S71). Then, the character recognition assisting device 20, for example, the barycentric coordinates (X′grav, Y′grav) of the “character string” recognized in the evaluation areas at two or more corners, and the “evaluation corresponding to the evaluation area” The barycentric coordinates (Xgrav, Ygrav) for the character string "are calculated (S72). In the process of S72, for example, the same process as the process of S62 in the flowchart illustrated in FIG. 7F is performed.

S73の処理では、文字認識支援装置20は、例えば、重心座標(X´grav,Y´grav)と2隅以上の評価用領域で文字認識された“文字列”毎の重心座標(X´char,Y´char)との時計回り方向の角度(θ´char)を算出する。また、文字認識支援装置20は、例えば、重心座標(Xgrav,Ygrav)と2隅以上の評価用領域に対応する“評価文字列”毎の重心座標(Xchar,Ychar)との時計回り方向の角度(θchar)を算出する。なお、“文字列”毎の角度(θ´char)、“評価文字列”毎の角度(θchar)については、数式(10)、(10a)で説明した。   In the processing of S73, the character recognition assisting apparatus 20 determines, for example, the barycentric coordinates (X'charv, Y'grav) and the barycentric coordinates (X'char) for each "character string" recognized in the evaluation areas at two or more corners. , Y′char), the angle (θ′char) in the clockwise direction is calculated. Further, the character recognition support device 20, for example, the clockwise angle between the centroid coordinates (Xgrav, Ygrav) and the centroid coordinates (Xchar, Ychar) for each “evaluation character string” corresponding to two or more evaluation areas. (Θchar) is calculated. Note that the angle (θ'char) for each “character string” and the angle (θchar) for each “evaluation character string” have been described with the equations (10) and (10a).

S74−S77の処理では、文字認識支援装置20は、例えば、S73の処理で算出した“文字列”毎の角度(θ´char)と“評価文字列”毎の角度(θchar)との関係に基づいて、処理中の帳票の撮像画像に対する回転移動の要否を判定する。回転移動の要否の判定は、例えば、3隅の評価用領域で文字認識が行われた場合には、数式(10)の関係に基づいて行われる。また、例えば、2隅の評価用領域で文字認識が行われた場合には、数式(10a)の関係に基づいて回転移動の要否の判定が行われる。   In the process of S74-S77, the character recognition support apparatus 20 has, for example, the relationship between the angle (θ′char) for each “character string” and the angle (θchar) for each “evaluation character string” calculated in the process of S73. Based on this, it is determined whether or not the rotational movement of the captured image of the form being processed is necessary. For example, when the character recognition is performed in the evaluation areas at the three corners, the determination of whether or not the rotational movement is necessary is performed based on the relationship of Expression (10). Further, for example, when character recognition is performed in the evaluation areas at the two corners, the necessity of rotational movement is determined based on the relationship of the mathematical formula (10a).

なお、図7Gに例示のS74−S77の処理は、“評価文字列1”、“評価文字列2”の2隅の評価用領域で文字認識が行われた場合の処理例である。   Note that the processing of S74 to S77 illustrated in FIG. 7G is a processing example when character recognition is performed in the evaluation areas at the two corners of “evaluation character string 1” and “evaluation character string 2”.

S74の処理では、文字認識支援装置20は、例えば、S73の処理で算出した“文字列”毎の角度(θ´char)と“評価文字列”毎の角度(θchar)との関係が、(θchar1
+θchar2−Thθ)>(θ´char1+θ´char2)の関係を満たすか否かを判定する。
In the process of S74, for example, the character recognition support apparatus 20 has a relationship between the angle (θ′char) for each “character string” calculated in the process of S73 and the angle (θchar) for each “evaluation character string”. θchar1
It is determined whether or not the relationship of + θchar2−Thθ)> (θ′char1 + θ′char2) is satisfied.

文字認識支援装置20は、例えば、S73の処理で算出した各角度の関係が(θchar1
+θchar2−Thθ)>(θ´char1+θ´char2)の関係を満たす場合には(S74,“
Y”)、“回転フラグ”に“1”のフラグ情報を設定する(S76)。一方、文字認識支援装置20は、例えば、S73の処理で算出した各角度の関係が(θchar1+θchar2−Thθ)>(θ´char1+θ´char2)の関係を満たさない場合には(S74,“N”)、S75の処理に移行する。
For example, the character recognition assisting device 20 has a relationship between the angles calculated in the process of S73 (θchar1).
+ Θchar2−Thθ)> (θ′char1 + θ′char2) (S74, “
Y ”), flag information of“ 1 ”is set in the“ rotation flag ”(S76) On the other hand, the character recognition support apparatus 20 has, for example, the relationship between the angles calculated in the process of S73 is (θchar1 + θchar2-Thθ)> When the relationship (θ′char1 + θ′char2) is not satisfied (S74, “N”), the process proceeds to S75.

なお、S74の処理において、文字認識が行われた2隅の評価用領域が“評価文字列1”、“評価文字列3”の場合には、例えば、文字認識支援装置20は、(θchar1+θchar3−Thθ)>(θ´char1+θ´char3)の関係を満たすか否かを判定すればよい。同様にして、文字認識が行われた2隅の評価用領域が“評価文字列2”、“評価文字列3”の場合には、文字認識支援装置20は、例えば、(θchar2+θchar3−Thθ)>(θ´char2+θ´char3)の関係を満たすか否かを判定すればよい。   In the process of S74, when the evaluation areas at the two corners where the character recognition has been performed are “evaluation character string 1” and “evaluation character string 3”, for example, the character recognition support device 20 (θchar1 + θchar3− It may be determined whether or not the relationship of Thθ)> (θ′char1 + θ′char3) is satisfied. Similarly, when the evaluation areas at the two corners where character recognition has been performed are “evaluation character string 2” and “evaluation character string 3”, the character recognition support device 20 may, for example, (θchar2 + θchar3-Thθ)> It may be determined whether or not the relationship (θ′char2 + θ′char3) is satisfied.

また、S74の処理において、3隅の評価用領域で文字認識が行われた場合には、文字認識支援装置20は、例えば、(θchar1+θchar2+θchar3−Thθ)>(θ´char1+θ´char2+θ´char3)の関係を満たすか否かを判定すればよい。   When character recognition is performed in the evaluation areas at the three corners in the process of S74, the character recognition support apparatus 20 has, for example, a relationship of (θchar1 + θchar2 + θchar3-Thθ)> (θ′char1 + θ′char2 + θ′char3). What is necessary is just to determine whether it satisfy | fills.

図7GのS75の処理では、文字認識支援装置20は、例えば、S73の処理で算出した文字列”毎の角度(θ´char)と“評価文字列”毎の角度(θchar)との関係が、(θ´char1+θ´char2)>(θchar1+θchar2+Thθ)の関係を満たすか否かを判定する
In the process of S75 in FIG. 7G, the character recognition support apparatus 20 has, for example, a relationship between the angle (θ′char) for each “character string” calculated in the process of S73 and the angle (θchar) for each “evaluation character string”. , (Θ′char1 + θ′char2)> (θchar1 + θchar2 + Thθ) is satisfied.

文字認識支援装置20は、例えば、S73の処理で算出した各角度の関係が(θ´char1+θ´char2)>(θchar1+θchar2+Thθ)の関係を満たす場合には(S75,“Y”)、“回転フラグ”に“2”のフラグ情報を設定する(S77)。一方、文字認識支援装置20は、例えば、S73の処理で算出した各角度の関係が(θ´char1+θ´char2)>(θchar1+θchar2+Thθ)の関係を満たさない場合には(S75,“N”)、処理中の回転推定処理を終了する。   For example, when the relationship between the angles calculated in the process of S73 satisfies the relationship (θ′char1 + θ′char2)> (θchar1 + θchar2 + Thθ) (S75, “Y”), the character recognition support apparatus 20 determines “rotation flag”. Is set to "2" flag information (S77). On the other hand, for example, when the relationship between the angles calculated in the processing of S73 does not satisfy the relationship of (θ′char1 + θ′char2)> (θchar1 + θchar2 + Thθ) (S75, “N”) The rotation estimation process in the middle is finished.

なお、S75の処理において、文字認識が行われた2隅の評価用領域が“評価文字列1”、“評価文字列3”の場合には、例えば、文字認識支援装置20は、(θ´char1+θ
´char3)>(θchar1+θchar3+Thθ)の関係を満たすか否かを判定すればよい。同
様にして、文字認識が行われた2隅の評価用領域が“評価文字列2”、“評価文字列3”の場合には、文字認識支援装置20は、例えば、(θ´char2+θ´char3)>(θchar2
+θchar3+Thθ)の関係を満たすか否かを判定すればよい。
In the process of S75, when the evaluation areas at the two corners where the character recognition is performed are “evaluation character string 1” and “evaluation character string 3”, for example, the character recognition support apparatus 20 (θ ′ char1 + θ
It may be determined whether or not the relationship of 'char3)> (θchar1 + θchar3 + Thθ) is satisfied. Similarly, when the evaluation areas at the two corners where the character recognition has been performed are “evaluation character string 2” and “evaluation character string 3”, the character recognition support apparatus 20 may, for example, (θ′char2 + θ′char3). )> (Θchar2
It may be determined whether or not the relationship of + θchar3 + Thθ) is satisfied.

また、S75の処理において、3隅の評価用領域で文字認識が行われた場合には、文字認識支援装置20は、例えば、(θ´char1+θ´char2+θ´char3)>(θchar1+θchar2+θchar3+Thθ)の関係を満たすか否かを判定すればよい。   When character recognition is performed in the evaluation areas at the three corners in the process of S75, the character recognition support device 20 satisfies the relationship of (θ′char1 + θ′char2 + θ′char3)> (θchar1 + θchar2 + θchar3 + Thθ), for example. Or not.

ここで、文字認識支援装置20で実行されるS71−S77の処理は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定するステップの一例である。また、文字認識支援装置20のCPU11等は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定する手段の一例としてS71−S77の処理を実行する。   Here, the processing of S71 to S77 executed by the character recognition support device 20 is performed by recognizing the character from the center of gravity of the combination region including two or more character strings recognized from the partial images in the predetermined region at two or more corners. Based on the relative relationship between the angle in the centroid direction for each character string and the angle in the centroid direction for each evaluation character string from the centroid of the combination region including two or more evaluation character strings corresponding to the predetermined region, It is an example of a step for determining whether or not a clockwise or counterclockwise rotational movement is required for a captured image of the recognition target object. Further, the CPU 11 or the like of the character recognition support device 20 determines the direction of the center of gravity for each character string recognized from the center of gravity of the combination area including two or more character strings recognized from the partial images in the predetermined area at two or more corners. And a captured image of the recognition target object based on a relative relationship between the angle to the center of gravity of the combination area including two or more evaluation character strings corresponding to the predetermined area and the angle in the direction of the center of gravity for each evaluation character string As an example of means for determining whether or not a clockwise or counterclockwise rotational movement is necessary, the processing of S71 to S77 is executed.

(前後推定処理)
図7Hに例示のフローチャートを参照し、図7D,7Eに例示のS55の前後推定処理の詳細を説明する。図7Hに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“前後フラグ”に“0”のフラグ情報を設定する(S81)。そして、文字認識支援装置20は、例えば、2隅以上の評価用領域で文字認識された“文字列”についての重心座標(X´grav,Y´grav)、該評価用領域に対応する“評価文字列”についての重心座標(Xgrav,Ygrav)を算出する(S82)。S82の処理では、例えば、図7Fに例示のフローチャートのS62の処理と同様の処理が行われる。
(Before and after estimation process)
With reference to the flowchart illustrated in FIG. 7H, details of the front-rear estimation process in S55 illustrated in FIGS. 7D and 7E will be described. In the flowchart illustrated in FIG. 7H, the character recognition support apparatus 20 sets, for example, flag information of “0” in “front and back flags” (S81). Then, the character recognition assisting device 20, for example, the barycentric coordinates (X′grav, Y′grav) of the “character string” recognized in the evaluation areas at two or more corners, and the “evaluation corresponding to the evaluation area” The barycentric coordinates (Xgrav, Ygrav) for the character string "are calculated (S82). In the process of S82, for example, the same process as the process of S62 in the flowchart illustrated in FIG. 7F is performed.

S83の処理では、文字認識支援装置20は、例えば、重心座標(X´grav,Y´grav)と2隅以上の評価用領域で文字認識された“文字列”毎の重心座標(X´char,Y´char)との距離(D´char)を算出する。また、文字認識支援装置20は、例えば、重心座標(Xgrav,Ygrav)と2隅以上の評価用領域に対応する“評価文字列”毎の重心座標(Xchar,Ychar)との距離(Dchar)を算出する。なお、“文字列”毎の重心座標間の距離(D´char)、“評価文字列”毎の重心座標間の距離(Dchar)については、数式(11)、(11a)で説明した。   In the process of S83, for example, the character recognition support apparatus 20 determines the centroid coordinates (X′char) for each “character string” that has been recognized by the centroid coordinates (X′grav, Y′grav) and the evaluation areas at two or more corners. , Y′char), the distance (D′ char) is calculated. Further, the character recognition support device 20 calculates, for example, the distance (Dchar) between the centroid coordinates (Xgrav, Ygrav) and the centroid coordinates (Xchar, Ychar) for each “evaluation character string” corresponding to two or more evaluation areas. calculate. The distance (D'char) between the barycentric coordinates for each "character string" and the distance (Dchar) between the barycentric coordinates for each "evaluation character string" have been described with the equations (11) and (11a).

S84−S87の処理では、文字認識支援装置20は、例えば、S83の処理で算出し
た“文字列”毎の距離(D´char)と“評価文字列”毎の距離(Dchar)との関係に基づいて、処理中の帳票の撮像画像に対する奥行き方向の前後移動の要否を判定する。奥行き方向の前後移動の要否の判定は、例えば、3隅の評価用領域で文字認識が行われた場合には、数式(11)の関係に基づいて行われる。また、例えば、2隅の評価用領域で文字認識が行われた場合には、数式(11a)の関係に基づいて奥行き方向の前後移動の要否の判定が行われる。
In the processing of S84 to S87, the character recognition support apparatus 20 determines, for example, the relationship between the distance (D′ char) for each “character string” calculated in the processing of S83 and the distance (Dchar) for each “evaluation character string”. Based on this, it is determined whether or not it is necessary to move back and forth in the depth direction with respect to the captured image of the form being processed. The determination of whether or not to move back and forth in the depth direction is performed based on the relationship of Expression (11) when character recognition is performed in the evaluation areas at the three corners, for example. Further, for example, when character recognition is performed in the evaluation areas at the two corners, it is determined whether or not it is necessary to move back and forth in the depth direction based on the relationship of Expression (11a).

なお、図7Hに例示のS84−S87の処理は、“評価文字列1”、“評価文字列2”の2隅の評価用領域で文字認識が行われた場合の処理例である。   Note that the processing of S84 to S87 illustrated in FIG. 7H is a processing example when character recognition is performed in the evaluation areas at the two corners of “evaluation character string 1” and “evaluation character string 2”.

S84の処理では、文字認識支援装置20は、例えば、S83の処理で算出した“文字列”毎の距離(D´char)と“評価文字列”毎の距離(Dchar)との関係が、(Dchar1
+Dchar2−Thd)>(D´char1+D´char2)の関係を満たすか否かを判定する。
In the process of S84, for example, the character recognition support apparatus 20 has a relationship between the distance (D'char) for each "character string" calculated in the process of S83 and the distance (Dchar) for each "evaluation character string" ( Dchar1
It is determined whether or not the relationship of + Dchar2-Thd)>(D'char1 + D'char2) is satisfied.

文字認識支援装置20は、例えば、S83の処理で算出した各距離の関係が(Dchar1
+Dchar2−Thd)>(D´char1+D´char2)の関係を満たす場合には(S84,“
Y”)、“前後フラグ”に“1”のフラグ情報を設定する(S86)。一方、文字認識支援装置20は、例えば、S83の処理で算出した各距離の関係が(Dchar1+Dchar2−Thd)>(D´char1+D´char2)の関係を満たさない場合には(S84,“N”)、S85の処理に移行する。
For example, the character recognition assisting device 20 has a relationship between the distances calculated in the process of S83 (Dchar1).
+ Dchar2−Thd)> (D′ char1 + D′ char2) (S84, “
Y ”), flag information of“ 1 ”is set in the“ front and back flag ”(S86) On the other hand, the character recognition support device 20 has, for example, the relationship between the distances calculated in the process of S83 is (Dchar1 + Dchar2-Thd)> If the relationship of (D′ char1 + D′ char2) is not satisfied (S84, “N”), the process proceeds to S85.

なお、S84の処理において、文字認識が行われた2隅の評価用領域が“評価文字列1”、“評価文字列3”の場合には、例えば、文字認識支援装置20は、(Dchar1+Dchar3−Thd)>(D´char1+D´char3)の関係を満たすか否かを判定すればよい。同様にして、文字認識が行われた2隅の評価用領域が“評価文字列2”、“評価文字列3”の場合には、文字認識支援装置20は、例えば、(Dchar2+Dchar3−Thd)>(D´char2+D´char3)の関係を満たすか否かを判定すればよい。   In the process of S84, when the evaluation areas at the two corners where the character recognition has been performed are “evaluation character string 1” and “evaluation character string 3”, for example, the character recognition support apparatus 20 (Dchar1 + Dchar3− It may be determined whether or not the relationship of Thd)> (D′ char1 + D′ char3) is satisfied. Similarly, when the evaluation areas at the two corners where character recognition has been performed are “evaluation character string 2” and “evaluation character string 3”, the character recognition support device 20 may, for example, (Dchar2 + Dchar3-Thd)> It may be determined whether or not the relationship of (D′ char2 + D′ char3) is satisfied.

また、S84の処理において、3隅の評価用領域で文字認識が行われた場合には、文字認識支援装置20は、例えば、(Dchar1+Dchar2+Dchar3−Thd)>(D´char1+D´char2+D´char3)の関係を満たすか否かを判定すればよい。   When character recognition is performed in the evaluation areas at the three corners in the process of S84, the character recognition support apparatus 20 has, for example, a relationship of (Dchar1 + Dchar2 + Dchar3-Thd)> (D'char1 + D'char2 + D'char3). What is necessary is just to determine whether it satisfy | fills.

図7HのS85の処理では、文字認識支援装置20は、例えば、S83の処理で算出した“文字列”毎の距離(D´char)と“評価文字列”毎の距離(Dchar)との関係が、(D´char1+D´char2)>(Dchar1+Dchar2+Thd)の関係を満たすか否かを判定する。   In the process of S85 of FIG. 7H, for example, the character recognition support apparatus 20 relates the distance (D′ char) for each “character string” and the distance (Dchar) for each “evaluation character string” calculated in the process of S83. However, it is determined whether or not the relationship of (D′ char1 + D′ char2)> (Dchar1 + Dchar2 + Thd) is satisfied.

文字認識支援装置20は、例えば、S83の処理で算出した各距離の関係が(D´char1+D´char2)>(Dchar1+Dchar2+Thd)の関係を満たす場合には(S85,“Y”)、“前後フラグ”に“2”のフラグ情報を設定する(S87)。一方、文字認識支援装置20は、例えば、S83の処理で算出した各距離の関係が(D´char1+D´char2)>(Dchar1+Dchar2+Thd)の関係を満たさない場合には(S85,“N”)、処理中の前後推定処理を終了する。   For example, when the relationship between the distances calculated in the process of S83 satisfies the relationship (D′ char1 + D′ char2)> (Dchar1 + Dchar2 + Thd) (S85, “Y”), the character recognition assisting apparatus 20 performs “front and back flags”. The flag information of “2” is set in (S87). On the other hand, for example, when the relationship between the distances calculated in the process of S83 does not satisfy the relationship of (D'char1 + D'char2)> (Dchar1 + Dchar2 + Thd) (S85, "N") The front / rear estimation process is terminated.

なお、S85の処理において、文字認識が行われた2隅の評価用領域が“評価文字列1”、“評価文字列3”の場合には、例えば、文字認識支援装置20は、(D´char1+D
´char3)>(Dchar1+Dchar3+Thd)の関係を満たすか否かを判定すればよい。同
様にして、文字認識が行われた2隅の評価用領域が“評価文字列2”、“評価文字列3”の場合には、文字認識支援装置20は、例えば、(D´char2+D´char3)>(Dchar2
+Dchar3+Thd)の関係を満たすか否かを判定すればよい。
In the processing of S85, when the evaluation areas at the two corners where the character recognition is performed are “evaluation character string 1” and “evaluation character string 3”, for example, the character recognition support apparatus 20 (D ′ char1 + D
It may be determined whether or not the relationship of 'char3)> (Dchar1 + Dchar3 + Thd) is satisfied. Similarly, when the evaluation areas at the two corners where character recognition has been performed are “evaluation character string 2” and “evaluation character string 3”, the character recognition support apparatus 20 may, for example, (D′ char2 + D′ char3). )> (Dchar2
It may be determined whether or not the relationship + Dchar3 + Thd) is satisfied.

また、S84の処理において、3隅の評価用領域で文字認識が行われた場合には、文字認識支援装置20は、例えば、(D´char1+D´char2+D´char3)>(Dchar1+Dchar2+Dchar3+Thd)の関係を満たすか否かを判定すればよい。   If character recognition is performed in the evaluation areas at the three corners in the process of S84, the character recognition support device 20 satisfies the relationship of (D'char1 + D'char2 + D'char3)> (Dchar1 + Dchar2 + Dchar3 + Thd), for example. Or not.

ここで、文字認識支援装置20で実行されるS81−S87の処理は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方向または縮小方向についての移動の要否を判定するステップの一例である。また、文字認識支援装置20のCPU11等は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方向または縮小方向についての移動の要否を判定する手段の一例としてS81−S87の処理を実行する。   Here, the processing of S81-S87 executed by the character recognition support device 20 is performed by recognizing the center of gravity of a combination area including two or more character strings recognized from partial images in a predetermined area at two or more corners and the character recognition. The recognition based on the distance between the center of gravity of each character string and the relative relationship between the center of gravity of the combination area including two or more evaluation character strings corresponding to the predetermined area and the center of gravity of each evaluation character string. It is an example of the step which determines the necessity of the movement about the expansion direction or reduction direction of the image size of the captured image of a target object. Further, the CPU 11 or the like of the character recognition support device 20 has a center of gravity of a combination area including two or more character strings recognized from partial images in a predetermined area at two or more corners, and a center of gravity for each character string recognized. And the image of the captured image of the recognition object based on the relative relationship between the distance between the center of the combination area including two or more evaluation character strings corresponding to the predetermined area and the center of gravity for each evaluation character string As an example of means for determining whether or not the movement in the size enlargement direction or the reduction direction is necessary, the processing of S81 to S87 is executed.

(歪み推定処理)
図7Jに例示のフローチャートを参照し、図7Eに例示のS57の歪み推定処理の詳細を説明する。文字認識支援装置20は、例えば、3隅の評価用領域で文字認識された場合に、図7Jに例示の、撮影中の帳票の撮像画像についての歪み推定処理を行う。
(Distortion estimation processing)
Details of the distortion estimation processing in S57 illustrated in FIG. 7E will be described with reference to the flowchart illustrated in FIG. 7J. For example, when character recognition is performed in the evaluation areas at the three corners, the character recognition assisting apparatus 20 performs a distortion estimation process on the captured image of the form being photographed as illustrated in FIG. 7J.

図7Jに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“歪みフラグ”に“0”のフラグ情報を設定する(S91)。   In the flowchart illustrated in FIG. 7J, the character recognition support apparatus 20 sets, for example, flag information of “0” in “distortion flag” (S91).

S92の処理では、文字認識支援装置20は、例えば、帳票の左右方向の辺と平行する“評価文字列1”,“評価文字列2”の重心座標間の距離“C12”、帳票の上下方向の辺と平行する“評価文字列1”,“評価文字列3”の重心座標間の距離“C13”を算出する。また、文字認識支援装置20は、3隅の評価用領域で文字認識された“文字列1”、“文字列2”についての重心座標間の距離“C´12”、“文字列1”、“文字列3”についての重心座標間の距離“C´13”を算出する。   In the process of S92, for example, the character recognition assisting apparatus 20 determines the distance “C12” between the barycentric coordinates of “evaluation character string 1” and “evaluation character string 2” parallel to the left and right sides of the form, and the vertical direction of the form. The distance “C13” between the center-of-gravity coordinates of “evaluation character string 1” and “evaluation character string 3” parallel to the sides is calculated. In addition, the character recognition support device 20 has distances “C′12”, “character string 1” between the centroid coordinates of “character string 1” and “character string 2” recognized in the evaluation areas at the three corners. The distance “C′13” between the barycentric coordinates for “character string 3” is calculated.

S93の処理では、文字認識支援装置20は、例えば、S92の処理で算出した各距離に基づいて、|1−(C´12/C12)|、及び、|1−(C´13/C13)|の距離比を算出する。そして、文字認識支援装置20は、例えば、算出された|1−(C´12/C12)|、及び、|1−(C´13/C13)|の大小関係が、|1−(C´12/C12)|>|1−(C´13/C13)|を満たすことを判定する。   In the process of S93, for example, the character recognition support device 20 | 1- (C'12 / C12) | and | 1- (C'13 / C13) based on the distances calculated in the process of S92. The distance ratio of | is calculated. Then, the character recognition support device 20 determines that the calculated magnitude relationship between | 1- (C′12 / C12) | and | 1- (C′13 / C13) | 12 / C12) |> | 1- (C′13 / C13) |

文字認識支援装置20は、例えば、|1−(C´12/C12)|>|1−(C´13/C13)|の大小関係を満たす場合には(S93,“Y”)、S94−S95,S98−S99の処理を実行し、処理中の帳票の撮像画像に対する歪み推定処理を終了する。一方、文字認識支援装置20は、例えば、|1−(C´12/C12)|>|1−(C´13/C13)|の大小関係を満たさない場合には(S93,“N”)、S96−S97,S9A−S9Bの処理を実行し、処理中の帳票の撮像画像に対する歪み推定処理を終了する。   For example, if the character recognition support device 20 satisfies the magnitude relationship of | 1- (C′12 / C12) |> | 1- (C′13 / C13) | (S93, “Y”), S94− The processes of S95 and S98-S99 are executed, and the distortion estimation process for the captured image of the form being processed ends. On the other hand, the character recognition support device 20 does not satisfy the magnitude relationship of | 1- (C′12 / C12) |> | 1- (C′13 / C13) | (S93, “N”), for example. , S96-S97, S9A-S9B are executed, and the distortion estimation process for the captured image of the form being processed is terminated.

図7Jに例示のS94−S95,S98−S99の処理では、例えば、処理中の帳票の撮像画像に対する左右方向の歪み補正の要否が判定される。処理中の帳票の撮像画像に対する左右方向の歪み補正の要否の判定は、例えば、数式(12)の関係に基づいて、それぞれの方向についての歪み補正の要否が判定される。なお、左右方向の歪み補正については、数式(12)で説明した。   In the processes of S94-S95 and S98-S99 illustrated in FIG. 7J, for example, it is determined whether or not distortion correction in the left-right direction is necessary for the captured image of the form being processed. Whether the distortion correction in the left-right direction is necessary for the captured image of the form being processed is determined based on, for example, the relationship of Equation (12). Note that the distortion correction in the left-right direction has been described using Equation (12).

また、図7Jに例示のS96−S97,S9A−S9Bの処理では、例えば、処理中の帳票の撮像画像に対する上下方向の歪み補正の要否が判定される。処理中の帳票の撮像画像に対する上下方向の歪み補正の要否の判定は、例えば、数式(13)の関係に基づいて、それぞれの方向についての歪み補正の要否が判定される。なお、上下方向の歪み補正については、数式(13)で説明した。   In the processes of S96-S97 and S9A-S9B illustrated in FIG. 7J, for example, it is determined whether or not vertical distortion correction is required for the captured image of the form being processed. For determining whether or not distortion correction in the vertical direction is necessary for the captured image of the form being processed, for example, the necessity of distortion correction for each direction is determined based on the relationship of Equation (13). Note that the vertical distortion correction has been described with Equation (13).

S94の処理では、文字認識支援装置20は、例えば、(1−(C´12/C12))が、−Thc>(1−(C´12/C12))の関係を満たすか否かを判定する。文字認識支援装置20は、例えば、(1−(C´12/C12))が、−Thc>(1−(C´12/C12))の関係を満たす場合には(S94,“Y”)、“歪みフラグ”に“1”のフラグ情報を設定する(S98)。一方、文字認識支援装置20は、例えば、(1−(C´12/C12))が、−Thc>(1−(C´12/C12))の関係を満たさない場合には(S94,“N”)、S95の処理に移行する。   In the process of S94, for example, the character recognition support apparatus 20 determines whether (1- (C′12 / C12)) satisfies the relationship −Thc> (1- (C′12 / C12)). To do. For example, when (1- (C′12 / C12)) satisfies the relationship −Thc> (1- (C′12 / C12)) (S94, “Y”). The flag information “1” is set in the “distortion flag” (S98). On the other hand, the character recognition support device 20, for example, if (1- (C′12 / C12)) does not satisfy the relationship −Thc> (1- (C′12 / C12)) (S94, “ N ″), the process proceeds to S95.

S95の処理では、文字認識支援装置20は、例えば、(1−(C´12/C12))が、(1−(C´12/C12))>Thcの関係を満たすか否かを判定する。文字認識支援装置20は、例えば、(1−(C´12/C12))が、(1−(C´12/C12))>Thcの関係を満たす場合には(S95,“Y”)、“歪みフラグ”に“2”のフラグ情報を設定する(S99)。一方、文字認識支援装置20は、例えば、(1−(C´12/C12))が、(1−(C´12/C12))>Thcの関係を満たさない場合には(S95,“N”)、処理中の帳票の撮像画像に対する歪み推定処理を終了する。   In the process of S95, for example, the character recognition support apparatus 20 determines whether (1- (C′12 / C12)) satisfies the relationship (1- (C′12 / C12))> Thc. . For example, when (1- (C′12 / C12)) satisfies the relationship of (1- (C′12 / C12))> Thc (S95, “Y”), the character recognition support device 20 Flag information “2” is set in the “distortion flag” (S99). On the other hand, the character recognition support device 20, for example, if (1- (C′12 / C12)) does not satisfy the relationship of (1- (C′12 / C12))> Thc (S95, “N "), The distortion estimation process for the captured image of the form being processed is terminated.

S96の処理では、文字認識支援装置20は、例えば、(1−(C´13/C13))が、−Thc>(1−(C´13/C13))の関係を満たすか否かを判定する。文字認識支援装置20は、例えば、(1−(C´13/C13))が、−Thc>(1−(C´13/C13))の関係を満たす場合には(S96,“Y”)、“歪みフラグ”に“3”のフラグ情報を設定する(S9A)。一方、文字認識支援装置20は、例えば、(1−(C´13/C13))が、−Thc>(1−(C´13/C13))の関係を満たさない場合には(S96,“N”)、S97の処理に移行する。   In the process of S96, for example, the character recognition support apparatus 20 determines whether (1- (C′13 / C13)) satisfies the relationship −Thc> (1- (C′13 / C13)). To do. For example, when (1- (C′13 / C13)) satisfies the relationship −Thc> (1- (C′13 / C13)) (S96, “Y”). The flag information “3” is set in the “distortion flag” (S9A). On the other hand, the character recognition support device 20, for example, if (1- (C′13 / C13)) does not satisfy the relationship −Thc> (1- (C′13 / C13)) (S96, “ N "), the process proceeds to S97.

S97の処理では、文字認識支援装置20は、例えば、(1−(C´13/C13))が、(1−(C´13/C13))>Thcの関係を満たすか否かを判定する。文字認識支援装置20は、例えば、(1−(C´13/C13))が、(1−(C´13/C13))>Thcの関係を満たす場合には(S97,“Y”)、“歪みフラグ”に“4”のフラグ情報を設定する(S9B)。一方、文字認識支援装置20は、例えば、(1−(C´13/C13))が、(1−(C´13/C13))>Thcの関係を満たさない場合には(S97,“N”)、処理中の帳票の撮像画像に対する歪み推定処理を終了する。   In the process of S97, for example, the character recognition support apparatus 20 determines whether (1- (C′13 / C13)) satisfies a relationship of (1- (C′13 / C13))> Thc. . For example, when (1- (C′13 / C13)) satisfies the relationship of (1- (C′13 / C13))> Thc (S97, “Y”), Flag information “4” is set in the “distortion flag” (S9B). On the other hand, the character recognition support device 20, for example, if (1- (C′13 / C13)) does not satisfy the relationship of (1- (C′13 / C13))> Thc (S97, “N "), The distortion estimation process for the captured image of the form being processed is terminated.

ここで、文字認識支援装置20で実行されるS91−S9Bの処理は、3隅以上の所定領域内の部分画像から文字認識された第1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定するステップの一例である。また、文字認識支援装置20のCPU11等は、3隅以上の所定領域内の部分画像から文字認識された第1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応
する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定する手段の一例としてS91−S9Bの処理を実行する。
Here, the processing of S91-S9B executed by the character recognition support device 20 is the first character between the first character string and the second character string recognized from the partial images in the predetermined area at three or more corners. The first distance ratio between the distance between the columns, the distance between the first evaluation character strings corresponding to the predetermined area and the first evaluation character string, and the first character string and the third character The relative relationship of the second distance ratio between the distance between the second character strings between the strings and the distance between the second evaluation character strings between the first evaluation character string and the third evaluation character string corresponding to the predetermined area This is an example of determining whether or not it is necessary to move to correct distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition target object in the image area. Further, the CPU 11 or the like of the character recognition assisting device 20 determines the distance between the first character strings between the first character string and the second character string recognized from the partial images in the predetermined areas at three or more corners, and the predetermined character string. The first distance ratio between the first evaluation character string and the first evaluation character string between the first evaluation character string and the second evaluation character string corresponding to the region, and the second between the first character string and the third character string. Based on the relative relationship of the second distance ratio between the character string distance and the second evaluation character string distance between the first evaluation character string and the third evaluation character string corresponding to the predetermined region, the image region The process of S91-S9B is performed as an example of a means for determining whether or not it is necessary to move to correct distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition object.

[状態表示処理]
次に、図8A−8Eに例示のフローチャートを参照し、図7Aに例示のS24の状態表示処理の詳細を説明する。図8Aは、状態表示処理の全体処理を示すフローチャートの例示である。
[Status display processing]
Next, the details of the status display process of S24 illustrated in FIG. 7A will be described with reference to the flowchart illustrated in FIGS. 8A-8E. FIG. 8A is an example of a flowchart showing the entire state display process.

図8Aに例示の状態表示処理では、例えば、図7Aに例示のS23の帳票状態推定処理で対応付けられた、並進移動、回転移動、奥行き方向の前後移動、歪み補正の各種フラグ情報に基づいて、処理中の帳票の撮像画像に対する位置決め支援が行われる。処理中の帳票の撮像画像に対する位置決め支援は、例えば、適正な撮影位置を示すガイド枠、画像領域内での撮像画像の移動方向を示す矢印、マーカー等の表示部品により行われる。文字認識支援装置20は、例えば、適正な撮影位置を示すガイド枠、画像領域内での撮像画像の移動方向を示す矢印等の表示部品を、撮影中の帳票の撮像画像に重畳させ、モニタ表示が行われるLCD15a等の表示画面に表示する。   In the state display process illustrated in FIG. 8A, for example, based on various flag information of translation movement, rotational movement, forward / backward movement in the depth direction, and distortion correction associated with the form state estimation process in S23 illustrated in FIG. 7A. Positioning support for the captured image of the form being processed is performed. Positioning support for the captured image of the form being processed is performed by, for example, a display frame such as a guide frame indicating an appropriate shooting position, an arrow indicating the moving direction of the captured image in the image area, and a marker. The character recognition assisting device 20 superimposes display components such as a guide frame indicating an appropriate shooting position and an arrow indicating the moving direction of the captured image in the image area on the captured image of the form being captured, for example, on the monitor display. Is displayed on a display screen such as the LCD 15a.

図8Aに例示のフローチャートにおいて、文字認識支援装置20は、例えば、処理中の帳票の撮像画像(画像データ)について、画像領域内での並進移動の要否の判定を行う(S101)。処理中の帳票の撮像画像についての、画像領域内での並進移動の要否の判定は、例えば、処理中の撮像画像に設定された“並進フラグ”のフラグ情報が“並進フラグ>0”の関係を満たすか否かにより行われる。   In the flowchart illustrated in FIG. 8A, for example, the character recognition support apparatus 20 determines whether or not translational movement within the image area is necessary for the captured image (image data) of the form being processed (S101). For example, the determination of the necessity of translational movement within the image area of the captured image of the form being processed is performed by, for example, setting the flag information of the “translation flag” set in the captured image being processed as “translation flag> 0”. This is done depending on whether the relationship is satisfied.

文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“並進フラグ”のフラグ情報が“並進フラグ>0”の関係を満たす場合には(S101,“Y”)、S102の並進表示処理を実行し、処理中の状態表示処理を終了する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“並進フラグ”のフラグ情報が“並進フラグ>0”の関係を満たさない場合には(S101,“N”)、S103に移行する。なお、S102の並進表示処理は、図8Bで説明する。   For example, when the flag information of the “translation flag” for the captured image of the form being processed satisfies the relationship “translation flag> 0” (S101, “Y”), the character recognition support apparatus 20 performs the translation of S102. The display process is executed, and the status display process being processed is terminated. On the other hand, for example, when the flag information of the “translation flag” for the captured image of the form being processed does not satisfy the relationship “translation flag> 0” (S101, “N”), the character recognition support device 20 The process proceeds to S103. The translation display process in S102 will be described with reference to FIG. 8B.

S103の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“回転フラグ”のフラグ情報が、“回転フラグ>0”の関係を満たすか否かで、画像領域内での回転移動の要否の判定を行う。   In the process of S103, the character recognition support apparatus 20 determines whether the image information of the “rotation flag” set for the captured image of the form being processed satisfies the relationship “rotation flag> 0”, for example. A determination is made as to whether or not rotational movement is required within the area.

文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“回転フラグ”のフラグ情報が“回転フラグ>0”の関係を満たす場合には(S103,“Y”)、S104の回転表示処理を実行し、処理中の状態表示処理を終了する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“回転フラグ”のフラグ情報が“回転フラグ>0”の関係を満たさない場合には(S103,“N”)、S105に移行する。なお、S104の並進表示処理は、図8Cで説明する。   For example, when the flag information of the “rotation flag” for the captured image of the form being processed satisfies the relationship “rotation flag> 0” (S103, “Y”), the character recognition support apparatus 20 performs the rotation of S104. The display process is executed, and the status display process being processed is terminated. On the other hand, for example, when the flag information of the “rotation flag” for the captured image of the form being processed does not satisfy the relationship “rotation flag> 0” (S103, “N”), the character recognition support device 20 The process proceeds to S105. The translation display process in S104 will be described with reference to FIG. 8C.

S105の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“前後フラグ”のフラグ情報が、“前後フラグ>0”の関係を満たすか否かで、画像領域内における奥行き方向の前後移動の要否の判定を行う。   In the process of S105, the character recognition support apparatus 20 determines whether the flag information of the “front and back flag” set for the captured image of the form being processed satisfies the relationship “front and back flag> 0”, for example. It is determined whether or not it is necessary to move back and forth in the depth direction within the region.

文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“前後フラグ”のフラグ情報が“前後フラグ>0”の関係を満たす場合には(S105,“Y”)、S106の前後表示処理を実行し、処理中の状態表示処理を終了する。一方、文字認識支援装
置20は、例えば、処理中の帳票の撮像画像についての“前後フラグ”のフラグ情報が“前後フラグ>0”の関係を満たさない場合には(S105,“N”)、S107に移行する。なお、S106の前後表示処理は、図8Dで説明する。
For example, when the flag information of the “front / rear flag” for the captured image of the form being processed satisfies the relationship of “front / rear flag> 0” (S105, “Y”), the character recognition assisting apparatus 20 before and after S106. The display process is executed, and the status display process being processed is terminated. On the other hand, the character recognition support device 20, for example, when the flag information of the “front and back flag” for the captured image of the form being processed does not satisfy the relationship of “front and back flag> 0” (S 105, “N”), The process proceeds to S107. Note that the front-rear display processing of S106 will be described with reference to FIG. 8D.

S107の処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像について設定された“歪みフラグ”のフラグ情報が、“歪みフラグ>0”の関係を満たすか否かで、画像領域内における歪み補正の要否の判定を行う。   In the process of S107, the character recognition support apparatus 20 determines whether the flag information of the “distortion flag” set for the captured image of the form being processed satisfies the relationship “distortion flag> 0”, for example. It is determined whether or not distortion correction is necessary in the area.

文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“歪みフラグ”のフラグ情報が“歪みフラグ>0”の関係を満たす場合には(S107,“Y”)、S108の歪み表示処理を実行し、処理中の状態表示処理を終了する。一方、文字認識支援装置20は、例えば、処理中の帳票の撮像画像についての“歪みフラグ”のフラグ情報が“歪みフラグ>0”の関係を満たさない場合には(S107,“N”)、S108の歪み表示処理をスキップし、処理中の状態表示処理を終了する。なお、S108の歪み表示処理は、図8Eで説明する。   For example, when the flag information of the “distortion flag” for the captured image of the form being processed satisfies the relationship of “distortion flag> 0” (S107, “Y”), the character recognition support apparatus 20 performs the distortion of S108. The display process is executed, and the status display process being processed is terminated. On the other hand, for example, when the flag information of the “distortion flag” for the captured image of the form being processed does not satisfy the relationship of “distortion flag> 0” (S107, “N”), the character recognition support apparatus 20 The distortion display process in S108 is skipped, and the status display process being processed is terminated. The distortion display process in S108 will be described with reference to FIG. 8E.

(並進表示処理)
図8Bに例示のフローチャートを参照し、図8Aに例示のS102の並進表示処理の詳細を説明する。図8Bに例示の並進表示処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像に重畳させて、適正な撮影位置を示すガイド枠を表示する。そして、文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像がガイド枠方向に並進移動するよう、移動方向を示す矢印等の表示部品を処理中の帳票の撮像画像に重畳させて表示する。移動方向を示す矢印等の表示部品は、例えば、並進移動の方向に対応する。
(Translation display processing)
Details of the translation display process of S102 illustrated in FIG. 8A will be described with reference to the flowchart illustrated in FIG. 8B. In the translation display process illustrated in FIG. 8B, the character recognition support apparatus 20 displays a guide frame indicating an appropriate shooting position, for example, by superimposing it on the captured image of the form being processed. Then, the character recognition support apparatus 20 superimposes display components such as an arrow indicating the moving direction on the captured image of the form being processed so that the captured image of the form in the image area translates in the guide frame direction. indicate. A display component such as an arrow indicating the movement direction corresponds to the direction of translation, for example.

文字認識支援装置20では、処理中の帳票の撮像画像に重畳させて表示された、適正な撮影位置を示すガイド枠、画像領域内の帳票の撮像画像の移動方向を示す矢印等の表示部品により、並進移動に係る位置決め支援が行われる。なお、並進移動に係る位置決め支援については、図6Dで説明した。   The character recognition assisting device 20 uses display parts such as a guide frame indicating an appropriate shooting position and an arrow indicating the moving direction of the captured image of the form in the image area displayed superimposed on the captured image of the form being processed. Then, positioning support related to translational movement is performed. The positioning support related to translational movement has been described with reference to FIG. 6D.

図8Bに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が、“1”であることを判定する(S111)。文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“1”である場合には(S111,“Y”)、S112の処理に移行する。S112の処理では、例えば、文字認識支援装置20は、カメラ14a等を左方向に移動させ画像領域内の帳票の撮像画像が右方向に移動するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   In the flowchart illustrated in FIG. 8B, the character recognition support apparatus 20 determines that the flag information set in the “translation flag” is “1”, for example (S111). For example, when the flag information set in the “translation flag” is “1” (S111, “Y”), the character recognition support device 20 proceeds to the process of S112. In the process of S112, for example, the character recognition support apparatus 20 moves the display part such as an arrow indicating the moving direction to the LCD 15a so that the camera 14a or the like moves leftward and the captured image of the form in the image area moves rightward. To the display screen.

一方、文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“1”でない場合には(S111,“N”)、S113の処理に移行し、“並進フラグ”に設定されたフラグ情報が、“2”であることを判定する。   On the other hand, for example, when the flag information set in the “translation flag” is not “1” (S111, “N”), the character recognition support device 20 proceeds to the processing of S113 and sets it as the “translation flag”. It is determined that the flag information is “2”.

文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“2”である場合には(S113,“Y”)、S114の処理に移行する。S114の処理では、例えば、文字認識支援装置20は、カメラ14a等を右方向に移動させ画像領域内の帳票の撮像画像が左方向に移動するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   For example, when the flag information set in the “translation flag” is “2” (S113, “Y”), the character recognition support device 20 proceeds to the process of S114. In the process of S114, for example, the character recognition support apparatus 20 moves the display part such as an arrow indicating the moving direction to the LCD 15a so that the camera 14a or the like moves rightward and the captured image of the form in the image area moves leftward. To the display screen.

一方、文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“2”でない場合には(S113,“N”)、S115の処理に移行し、“並進フラグ”に設定されたフラグ情報が、“3”であることを判定する。   On the other hand, for example, when the flag information set in the “translation flag” is not “2” (S113, “N”), the character recognition support device 20 proceeds to the processing of S115 and sets it as the “translation flag”. It is determined that the flag information is “3”.

文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“3”である場合には(S115,“Y”)、S116の処理に移行する。S116の処理では、例えば、文字認識支援装置20は、カメラ14a等を上方向に移動させ画像領域内の帳票の撮像画像が下方向に移動するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   For example, when the flag information set in the “translation flag” is “3” (S115, “Y”), the character recognition support device 20 proceeds to the process of S116. In the process of S116, for example, the character recognition support apparatus 20 moves the camera 14a or the like upward, and displays a display component such as an arrow indicating the movement direction on the LCD 15a so that the captured image of the form in the image area moves downward. To the display screen.

一方、文字認識支援装置20は、例えば、“並進フラグ”に設定されたフラグ情報が“3”でない場合には(S115,“N”)、S117の処理に移行する。S117の処理では、例えば、文字認識支援装置20は、カメラ14a等を下方向に移動させ画像領域内の帳票の撮像画像が上方向に移動するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   On the other hand, for example, when the flag information set in the “translation flag” is not “3” (S115, “N”), the character recognition support apparatus 20 proceeds to the process of S117. In the process of S117, for example, the character recognition assisting apparatus 20 moves the camera 14a or the like downward to display a display component such as an arrow indicating the movement direction on the LCD 15a so that the captured image of the form in the image area moves upward. To the display screen.

(回転表示処理)
図8Cに例示のフローチャートを参照し、図8Aに例示のS104の回転表示処理の詳細を説明する。図8Cに例示の回転表示処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像に重畳させて、適正な撮影位置を示すガイド枠を表示する。そして、文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像がガイド枠方向に回転移動するよう、回転方向を示す矢印等の表示部品を処理中の帳票の撮像画像に重畳させて表示する。回転方向を示す矢印等の表示部品は、例えば、撮像画像の回転方向(時計回り、反時計回り)に対応する。
(Rotation display processing)
Details of the rotation display process of S104 illustrated in FIG. 8A will be described with reference to the flowchart illustrated in FIG. 8C. In the rotation display process illustrated in FIG. 8C, the character recognition support apparatus 20 displays a guide frame indicating an appropriate shooting position, for example, by superimposing it on the captured image of the form being processed. Then, the character recognition support device 20 superimposes a display component such as an arrow indicating the rotation direction on the captured image of the form being processed so that the captured image of the form in the image area rotates in the guide frame direction. indicate. A display component such as an arrow indicating the rotation direction corresponds to, for example, the rotation direction (clockwise or counterclockwise) of the captured image.

文字認識支援装置20では、処理中の帳票の撮像画像に重畳させて表示された、適正な撮影位置を示すガイド枠、画像領域内の帳票の撮像画像の回転方向を示す矢印等の表示部品により、回転移動に係る位置決め支援が行われる。なお、回転移動に係る位置決め支援については、図6Eで説明した。   The character recognition assisting device 20 uses display parts such as a guide frame indicating an appropriate shooting position and an arrow indicating the rotation direction of the captured image of the form in the image area displayed superimposed on the captured image of the form being processed. Then, positioning support related to rotational movement is performed. The positioning support related to the rotational movement has been described with reference to FIG. 6E.

図8Cに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“回転フラグ”に設定されたフラグ情報が、“1”であることを判定する(S121)。文字認識支援装置20は、例えば、“回転フラグ”に設定されたフラグ情報が“1”である場合には(S121,“Y”)、S122の処理に移行する。S122の処理では、例えば、文字認識支援装置20は、カメラ14a等を左方向(時計回り)に回転させ画像領域内の帳票の撮像画像がガイド枠に合致するよう、回転方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   In the flowchart illustrated in FIG. 8C, the character recognition support apparatus 20 determines that the flag information set in the “rotation flag” is “1”, for example (S121). For example, when the flag information set in the “rotation flag” is “1” (S121, “Y”), the character recognition support device 20 proceeds to the process of S122. In the process of S122, for example, the character recognition assisting apparatus 20 rotates the camera 14a or the like in the left direction (clockwise) so that the picked-up image of the form in the image area matches the guide frame. The display component is output to a display screen such as the LCD 15a.

一方、文字認識支援装置20は、例えば、“回転フラグ”に設定されたフラグ情報が“1”でない場合には(S121,“N”)、S123の処理に移行する。S123の処理では、例えば、文字認識支援装置20は、カメラ14a等を右方向(反時計回り)に回転させ画像領域内の帳票の撮像画像がガイド枠に合致するよう、回転方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   On the other hand, for example, when the flag information set in the “rotation flag” is not “1” (S121, “N”), the character recognition support apparatus 20 proceeds to the process of S123. In the process of S123, for example, the character recognition support apparatus 20 rotates the camera 14a or the like in the right direction (counterclockwise), and an arrow indicating the rotation direction so that the captured image of the form in the image area matches the guide frame. Are displayed on a display screen such as the LCD 15a.

(前後表示処理)
図8Dに例示のフローチャートを参照し、図8Aに例示のS106の奥行き方向の前後表示処理の詳細を説明する。図8Dに例示の前後表示処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像に重畳させて、適正な撮影位置を示すガイド枠を表示する。そして、文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像がガイド枠に合致するよう、撮像画像のサイズが拡大・縮小する移動方向を示す矢印等の表示部品を処理中の帳票の撮像画像に重畳させて表示する。移動方向を示す矢印等の表示部品は、例えば、撮像画像のサイズの拡大方向、縮小方向に対応する。
(Front and back display processing)
With reference to the flowchart illustrated in FIG. 8D, details of the depth direction front-rear display processing in S106 illustrated in FIG. 8A will be described. In the front-and-rear display processing illustrated in FIG. 8D, the character recognition support device 20 displays a guide frame indicating an appropriate shooting position, for example, by superimposing it on the captured image of the form being processed. The character recognition support device 20 then processes a form such as an arrow indicating a moving direction in which the size of the captured image is enlarged or reduced so that the captured image of the form in the image area matches the guide frame. Are superimposed on the captured image. Display components such as an arrow indicating the movement direction correspond to, for example, an enlargement direction and a reduction direction of the size of the captured image.

文字認識支援装置20では、処理中の帳票の撮像画像に重畳させて表示された、適正な撮影位置を示すガイド枠、画像領域内の帳票の撮像画像の拡大・縮小方向を示す矢印等の表示部品により、奥行き方向の前後移動に係る位置決め支援が行われる。なお、奥行き方向の前後移動に係る位置決め支援については、図6Fで説明した。   The character recognition support apparatus 20 displays a guide frame indicating an appropriate shooting position, an arrow indicating an enlargement / reduction direction of the captured image of the form within the image area, and the like that are displayed superimposed on the captured image of the form being processed. Positioning support related to back-and-forth movement in the depth direction is performed by the component. The positioning support related to the forward / backward movement in the depth direction has been described with reference to FIG. 6F.

図8Dに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“前後フラグ”に設定されたフラグ情報が、“1”であることを判定する(S131)。文字認識支援装置20は、例えば、“前後フラグ”に設定されたフラグ情報が“1”である場合には(S131,“Y”)、S132の処理に移行する。S132の処理では、例えば、文字認識支援装置20は、カメラ14a等を帳票に近づけるよう移動させ、画像領域内の帳票の撮像画像のサイズが拡大しガイド枠に合致するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   In the flowchart illustrated in FIG. 8D, the character recognition support apparatus 20 determines that the flag information set in the “front / rear flag” is “1”, for example (S131). For example, when the flag information set in the “front and back flag” is “1” (S131, “Y”), the character recognition support device 20 proceeds to the process of S132. In the processing of S132, for example, the character recognition support apparatus 20 moves the camera 14a or the like so as to approach the form, and an arrow indicating the movement direction so that the size of the captured image of the form in the image area is enlarged and matches the guide frame. Are displayed on a display screen such as an LCD 15a.

一方、文字認識支援装置20は、例えば、“前後フラグ”に設定されたフラグ情報が“1”でない場合には(S131,“N”)、S133の処理に移行する。S133の処理では、例えば、文字認識支援装置20は、カメラ14a等を帳票から遠ざけるよう移動させ、画像領域内の帳票の撮像画像のサイズが縮小しガイド枠に合致するよう、移動方向を示す矢印等の表示部品をLCD15a等の表示画面に出力する。   On the other hand, for example, when the flag information set in the “front and back flag” is not “1” (S131, “N”), the character recognition support device 20 proceeds to the process of S133. In the process of S133, for example, the character recognition support apparatus 20 moves the camera 14a or the like away from the form, and an arrow indicating the moving direction so that the size of the captured image of the form in the image area is reduced and matches the guide frame. Are displayed on a display screen such as an LCD 15a.

(歪み表示処理)
図8Eに例示のフローチャートを参照し、図8Aに例示のS108の歪み補正を行うための歪み表示処理の詳細を説明する。図8Eに例示の歪み表示処理では、文字認識支援装置20は、例えば、処理中の帳票の撮像画像に重畳させて、適正な撮影位置を示すガイド枠を表示する。そして、文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像がガイド枠に合致するよう、撮像画像の歪みを補正する移動方向を示す矢印等の表示部品を処理中の帳票の撮像画像に重畳させて表示する。移動方向を示す矢印等の表示部品は、例えば、撮像画像の左右方向の歪み、上下方向の歪みを解消する移動方向に対応する。
(Distortion display processing)
Details of the distortion display processing for performing the distortion correction of S108 illustrated in FIG. 8A will be described with reference to the flowchart illustrated in FIG. 8E. In the distortion display processing illustrated in FIG. 8E, the character recognition support device 20 displays a guide frame indicating an appropriate shooting position, for example, by superimposing the captured image on the form being processed. Then, the character recognition support device 20 captures the form being processed, for example, a display component such as an arrow indicating a moving direction for correcting the distortion of the captured image so that the captured image of the form in the image area matches the guide frame. Display it superimposed on the image. A display component such as an arrow indicating the moving direction corresponds to, for example, a moving direction that eliminates left-right distortion and vertical distortion of the captured image.

文字認識支援装置20では、処理中の帳票の撮像画像に重畳させて表示された、適正な撮影位置を示すガイド枠、撮像画像の歪みを補正する移動方向を示す矢印等の表示部品により、歪み補正に係る位置決め支援が行われる。なお、歪み補正に係る位置決め支援については、図6Gで説明した。   In the character recognition assisting device 20, distortion is caused by display parts such as a guide frame indicating an appropriate shooting position and an arrow indicating a moving direction for correcting distortion of the captured image displayed superimposed on the captured image of the form being processed. Positioning support for correction is performed. The positioning support related to distortion correction has been described with reference to FIG. 6G.

図8Eに例示のフローチャートにおいて、文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が、“1”であることを判定する(S141)。文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“1”である場合には(S141,“Y”)、S142の処理に移行する。   In the flowchart illustrated in FIG. 8E, for example, the character recognition support apparatus 20 determines that the flag information set in the “distortion flag” is “1” (S141). For example, when the flag information set in the “distortion flag” is “1” (S141, “Y”), the character recognition support device 20 proceeds to the process of S142.

S142の処理では、例えば、文字認識支援装置20は、“文字列1”、“文字列2”の部分画像を含む撮像画像の上側の縁辺を縮小するようカメラ14a等を奥行き後ろ方向に移動させる、矢印等の表示部品を表示する。文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像の移動方向を示す矢印等の表示部品を、画像領域内の帳票の撮像画像がガイド枠に合致するよう処理中の帳票の撮像画像に重畳させ、LCD15a等の表示画面に出力する。   In the process of S142, for example, the character recognition support apparatus 20 moves the camera 14a and the like backward in the depth so as to reduce the upper edge of the captured image including the partial images of “character string 1” and “character string 2”. Display parts such as arrows. For example, the character recognition assisting apparatus 20 captures a display component such as an arrow indicating the moving direction of the captured image of the form in the image area so that the captured image of the form in the image area matches the guide frame. The image is superimposed on the image and output to a display screen such as the LCD 15a.

一方、文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“1”でない場合には(S141,“N”)、S143の処理に移行し、“歪みフラグ”に設定されたフラグ情報が、“2”であることを判定する。文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“2”である場合には(S143,“Y”)、S144の処理に移行する。   On the other hand, for example, when the flag information set in the “distortion flag” is not “1” (S141, “N”), the character recognition support apparatus 20 proceeds to the processing of S143 and sets it as the “distortion flag”. It is determined that the flag information is “2”. For example, when the flag information set in the “distortion flag” is “2” (S143, “Y”), the character recognition support device 20 proceeds to the process of S144.

S144の処理では、例えば、文字認識支援装置20は、“文字列1”、“文字列2”の部分画像を含む撮像画像の上側の縁辺を拡大するようカメラ14a等を手前方向に移動させる、矢印等の表示部品を表示する。文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像の移動方向を示す矢印等の表示部品を、画像領域内の帳票の撮像画像がガイド枠に合致するよう処理中の帳票の撮像画像に重畳させ、LCD15a等の表示画面に出力する。   In the process of S144, for example, the character recognition support apparatus 20 moves the camera 14a and the like in the forward direction so as to enlarge the upper edge of the captured image including the partial images of “character string 1” and “character string 2”. Display parts such as arrows. For example, the character recognition assisting apparatus 20 captures a display component such as an arrow indicating the moving direction of the captured image of the form in the image area so that the captured image of the form in the image area matches the guide frame. The image is superimposed on the image and output to a display screen such as the LCD 15a.

一方、文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“2”でない場合には(S143,“N”)、S145の処理に移行し、“歪みフラグ”に設定されたフラグ情報が、“3”であることを判定する。文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“3”である場合には(S145,“Y”)、S146の処理に移行する。   On the other hand, for example, when the flag information set in the “distortion flag” is not “2” (S143, “N”), the character recognition support apparatus 20 proceeds to the processing of S145 and sets it as the “distortion flag”. It is determined that the flag information is “3”. For example, when the flag information set in the “distortion flag” is “3” (S145, “Y”), the character recognition support apparatus 20 proceeds to the process of S146.

S146の処理では、例えば、文字認識支援装置20は、“文字列1”、“文字列3”の部分画像を含む撮像画像の左側の縁辺を縮小するようカメラ14a等を奥行き後ろ方向に移動させる、矢印等の表示部品を表示する。文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像の移動方向を示す矢印等の表示部品を、画像領域内の帳票の撮像画像がガイド枠に合致するよう処理中の帳票の撮像画像に重畳させ、LCD15a等の表示画面に出力する。   In the processing of S146, for example, the character recognition support device 20 moves the camera 14a and the like backward in the depth so as to reduce the left edge of the captured image including the partial images of “character string 1” and “character string 3”. Display parts such as arrows. For example, the character recognition assisting apparatus 20 captures a display component such as an arrow indicating the moving direction of the captured image of the form in the image area so that the captured image of the form in the image area matches the guide frame. The image is superimposed on the image and output to a display screen such as the LCD 15a.

一方、文字認識支援装置20は、例えば、“歪みフラグ”に設定されたフラグ情報が“3”でない場合には(S145,“N”)、S147の処理に移行する。S147の処理では、例えば、文字認識支援装置20は、“文字列1”、“文字列3”の部分画像を含む撮像画像の左側の縁辺を拡大するようカメラ14a等を手前方向に移動させる、矢印等の表示部品を表示する。文字認識支援装置20は、例えば、画像領域内の帳票の撮像画像の移動方向を示す矢印等の表示部品を、画像領域内の帳票の撮像画像がガイド枠に合致するよう処理中の帳票の撮像画像に重畳させ、LCD15a等の表示画面に出力する。   On the other hand, for example, when the flag information set in the “distortion flag” is not “3” (S145, “N”), the character recognition support apparatus 20 proceeds to the process of S147. In the process of S147, for example, the character recognition support apparatus 20 moves the camera 14a and the like in the forward direction so as to enlarge the left edge of the captured image including the partial images of “character string 1” and “character string 3”. Display parts such as arrows. For example, the character recognition assisting apparatus 20 captures a display component such as an arrow indicating the moving direction of the captured image of the form in the image area so that the captured image of the form in the image area matches the guide frame. The image is superimposed on the image and output to a display screen such as the LCD 15a.

以上、説明したように、本実施形態の文字認識支援装置20は、2隅以上の評価用領域内で認識された“文字列”、及び、該評価用領域に対応する“評価文字列”の位置関係に基づいて、撮影中の帳票の撮像画像に対する位置決め支援を行うことができる。文字認識支援装置20の位置決め支援では、例えば、撮影中の帳票の撮像画像に重畳させて、画像領域内での適正な撮影位置を示すガイド枠が表示される。また、文字認識支援装置20の位置決め支援では、画像領域内での、撮影中の帳票の撮像画像の移動方向を示す矢印等の指示部品(表示部品)がガイド枠と共に表示される。文字認識支援装置20は、利用者に対し、適正な撮影位置を示すガイド枠、及び、画像領域内での、撮影中の帳票の撮像画像の移動方向を示す矢印等の指示部品を撮影中の帳票の撮像画像に重畳させて表示することができる。この結果、本実施形態の文字認識支援装置20では、撮影中の帳票の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示することができる。本実施形態の文字認識支援装置20では、例えば、撮像画像の確定前に文字を正しく認識できる撮像画像の取得についての位置決め支援が実現できる。   As described above, the character recognition support apparatus 20 according to the present embodiment stores the “character string” recognized in the evaluation area at two or more corners, and the “evaluation character string” corresponding to the evaluation area. Based on the positional relationship, positioning support for the captured image of the form being shot can be performed. In the positioning support of the character recognition support device 20, for example, a guide frame indicating an appropriate shooting position in the image area is displayed so as to be superimposed on the captured image of the form being shot. In the positioning support of the character recognition support device 20, an instruction component (display component) such as an arrow indicating the moving direction of the captured image of the form being captured in the image area is displayed together with the guide frame. The character recognition assisting device 20 is photographing a pointing frame such as an arrow indicating a moving direction of a captured image of a form being photographed in a guide frame and an image region within the image area. It can be displayed superimposed on the captured image of the form. As a result, in the character recognition support device 20 of the present embodiment, whether or not characters can be recognized on at least one of the plurality of axes indicating the posture of the form being photographed is displayed in a manner that the user can identify. be able to. In the character recognition support device 20 of the present embodiment, for example, positioning support for obtaining a captured image that can correctly recognize a character before the captured image is confirmed can be realized.

本実施形態の文字認識支援装置20は、2隅以上の評価用領域内で認識された“文字列”の重心と、該評価用領域に対応する“評価文字列”の重心との位置関係が、数式(4)−(7)、(6a)−(7a)の関係を満たすことを判定できる。このため、文字認識支援装置20は、判定結果に基づいて、撮影中の帳票の撮像画像について、画像領域内の上下左右方向の並進移動を判定することができる。例えば、上下方向をY軸方向、左右方向をX軸方向とした場合、画像領域内の帳票の撮像画像の並進移動は、帳票の姿勢を示す2
軸(X,Y)についての移動方向に相当する。
The character recognition support device 20 of the present embodiment has a positional relationship between the centroid of the “character string” recognized in the evaluation area at two or more corners and the centroid of the “evaluation character string” corresponding to the evaluation area. It can be determined that the relations of equations (4)-(7), (6a)-(7a) are satisfied. For this reason, the character recognition support apparatus 20 can determine the translational movement in the vertical and horizontal directions within the image area for the captured image of the form being captured based on the determination result. For example, when the vertical direction is the Y-axis direction and the horizontal direction is the X-axis direction, the translational movement of the captured image of the form within the image area indicates the posture of the form 2
This corresponds to the movement direction about the axis (X, Y).

また、本実施形態の文字認識支援装置20は、2隅以上の評価用領域内で認識された“文字列”の全体的な重心位置と“文字列”毎の重心位置との角度を算出することができる。同様に、文字認識支援装置20は、文字認識された2隅以上の評価用領域に対応する“評価文字列”の全体的な重心位置と“評価文字列”毎の重心位置との角度を算出することができる。文字認識支援装置20は、“文字列”毎に算出された角度群と“評価文字列”毎に算出された角度群との関係が、数式(10)、(10a)の関係を満たすことを判定できる。このため、文字認識支援装置20は、判定結果に基づいて、撮影中の帳票の撮像画像の、画像領域内での時計回り、反時計回りの回転移動を判定することができる。例えば、上下方向をY軸方向、左右方向をX軸方向、奥行き方向をZ軸方向とした場合、画像領域内の帳票の撮像画像の回転移動は、Z軸方向を中心としたXY平面での移動方向に相当する。   In addition, the character recognition support device 20 according to the present embodiment calculates the angle between the overall centroid position of the “character string” recognized in the evaluation area at two or more corners and the centroid position for each “character string”. be able to. Similarly, the character recognition assisting device 20 calculates an angle between the overall center position of the “evaluation character string” corresponding to the evaluation areas at two or more corners recognized by the character and the center position of each “evaluation character string”. can do. The character recognition assisting device 20 confirms that the relationship between the angle group calculated for each “character string” and the angle group calculated for each “evaluation character string” satisfies the relationships of Expressions (10) and (10a). Can be judged. For this reason, the character recognition assisting apparatus 20 can determine the clockwise and counterclockwise rotational movement of the captured image of the form being shot in the image area based on the determination result. For example, when the vertical direction is the Y-axis direction, the horizontal direction is the X-axis direction, and the depth direction is the Z-axis direction, the rotational movement of the captured image of the form in the image area is on the XY plane centered on the Z-axis direction. It corresponds to the moving direction.

また、本実施形態の文字認識支援装置20は、2隅以上の評価用領域内で認識された“文字列”の全体的な重心位置と“文字列”毎の重心位置との距離を算出することができる。同様に、文字認識支援装置20は、文字認識された2隅以上の評価用領域に対応する“評価文字列”の全体的な重心位置と“評価文字列”毎の重心位置との距離を算出することができる。文字認識支援装置20は、“文字列”毎に算出された距離群と“評価文字列”毎に算出された距離群との関係が、数式(11)、(11a)の関係を満たすことを判定できる。このため、文字認識支援装置20は、判定結果に基づいて、撮影中の帳票の撮像画像について、画像領域内における画像サイズを拡大する移動方向、縮小する移動方向を判定することができる。例えば、上下方向をY軸方向、左右方向をX軸方向、奥行き方向をZ軸方向とした場合、画像領域内の帳票の画像サイズを拡大・縮小する奥行き方向の前後移動は、Z軸についての移動方向に相当する。   In addition, the character recognition assisting apparatus 20 according to the present embodiment calculates the distance between the overall centroid position of the “character string” recognized in the evaluation area at two or more corners and the centroid position for each “character string”. be able to. Similarly, the character recognition support device 20 calculates the distance between the overall center of gravity position of the “evaluation character string” corresponding to the evaluation areas at two or more corners recognized by the character and the center of gravity position of each “evaluation character string”. can do. The character recognition assisting device 20 confirms that the relationship between the distance group calculated for each “character string” and the distance group calculated for each “evaluation character string” satisfies the relationships of Expressions (11) and (11a). Can be judged. For this reason, the character recognition assisting apparatus 20 can determine the moving direction in which the image size in the image area is enlarged and the moving direction in which the image is reduced in the image area based on the determination result. For example, when the vertical direction is the Y-axis direction, the horizontal direction is the X-axis direction, and the depth direction is the Z-axis direction, the forward / backward movement in the depth direction for enlarging / reducing the image size of the form in the image area It corresponds to the moving direction.

また、本実施形態の文字認識支援装置20は、3隅以上の評価用領域内で認識された“文字列”毎の重心位置から、“文字列1”と“文字列2”の距離“C´12”、“文字列1”と“文字列3”の距離“C´13”を算出することができる。なお、“文字列1”と“文字列2”とは、例えば、撮像画像の上側縁辺の2隅であり、“文字列1”と“文字列3”とは、撮像画像の左側縁辺の2隅である。   Further, the character recognition support apparatus 20 of the present embodiment determines the distance “C” between “character string 1” and “character string 2” from the center of gravity position of each “character string” recognized in the evaluation area at three or more corners. The distance “C′13” between “12”, “character string 1” and “character string 3” can be calculated. “Character string 1” and “Character string 2” are, for example, the two corners of the upper edge of the captured image, and “Character string 1” and “Character string 3” are 2 on the left edge of the captured image. It is a corner.

同様にして、文字認識支援装置20は、文字認識された3隅以上の評価用領域に対応する“評価文字列1”毎の重心位置から、“評価文字列1”と“評価文字列2”の距離“C12”、及び、“評価文字列1”と“評価文字列3”の距離の距離“C13”を算出することができる。   Similarly, the character recognition support device 20 determines “evaluation character string 1” and “evaluation character string 2” from the center of gravity position of each “evaluation character string 1” corresponding to the evaluation areas of three or more corners recognized by the character. Distance “C12” and the distance “C13” of the distance between “evaluation character string 1” and “evaluation character string 3” can be calculated.

そして、文字認識支援装置20は、距離“C´12”と距離“C12”との距離比(C´12/C12)、及び、距離“C´13”と距離“C13”との距離比(C´13/C13)を求めることができる。文字認識支援装置20は、距離比(C´12/C12)と距離比(C´13/C13)との関係が、数式(12)、(13)の関係を満たすことを判定できる。このため、文字認識支援装置20は、判定結果に基づいて、画像領域内の、撮影中の帳票の撮像画像について、左端側の縁辺のサイズが縮小する補正方向、拡大する補正方向を判定することができる。また、文字認識支援装置20は、判定結果に基づいて、画像領域内の、撮影中の帳票の撮像画像について、上端側の縁辺のサイズが縮小する補正方向、拡大する補正方向を判定することができる。   Then, the character recognition support device 20 determines the distance ratio (C′12 / C12) between the distance “C′12” and the distance “C12” and the distance ratio between the distance “C′13” and the distance “C13” ( C'13 / C13) can be obtained. The character recognition assisting device 20 can determine that the relationship between the distance ratio (C′12 / C12) and the distance ratio (C′13 / C13) satisfies the relationships of the equations (12) and (13). For this reason, the character recognition assisting apparatus 20 determines, based on the determination result, the correction direction in which the size of the left edge side is reduced and the correction direction in which the left edge side of the captured image of the form being shot in the image area is enlarged. Can do. Further, the character recognition support device 20 can determine the correction direction in which the size of the upper edge side is reduced and the correction direction in which the size of the upper edge side is reduced in the captured image of the form being shot in the image area based on the determination result. it can.

例えば、上下方向をY軸方向、左右方向をX軸方向、奥行き方向をZ軸方向とした場合、画像領域内の帳票の撮像画像の左端側の縁辺のサイズを拡大・縮小する補正移動は、Y軸方向を中心としたZX面内での回転移動に相当する。同様にして、画像領域内の帳票の
撮像画像の上端側の縁辺のサイズを拡大・縮小する補正移動は、X軸方向を中心としたYZ面内での回転移動に相当する。
For example, when the vertical direction is the Y-axis direction, the horizontal direction is the X-axis direction, and the depth direction is the Z-axis direction, the correction movement for enlarging / reducing the size of the left edge of the captured image of the form in the image area is: This corresponds to rotational movement in the ZX plane around the Y-axis direction. Similarly, the correction movement for enlarging / reducing the size of the upper edge of the captured image of the form in the image area corresponds to the rotational movement in the YZ plane with the X axis direction as the center.

《コンピュータが読み取り可能な記録媒体》
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
<Computer-readable recording medium>
A program for causing a computer or other machine or device (hereinafter, a computer or the like) to realize any of the above functions can be recorded on a recording medium that can be read by the computer or the like. Then, the function can be provided by causing the computer or the like to read and execute the program of the recording medium.

ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。   Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say. Examples of such a recording medium that can be removed from a computer or the like include a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disk, a DAT, an 8 mm tape, a flash memory, and the like. There are cards. Moreover, there are a hard disk, a ROM, and the like as a recording medium fixed to a computer or the like.

《その他》
以上の実施形態は、さらに以下の付記と呼ぶ態様を含む。以下の各付記に含まれる構成要素は、他の付記に含まれる構成と組み合わせることができる。
(付記1)
文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付ける手段と、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定する手段と、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定する手段と、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御手段と、
を備える文字認識支援装置。
(付記2)
前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する補正移動の要否を判定する補正移動判定手段、を備え、
前記表示制御手段は、前記補正移動判定手段で判定された補正移動の要否に基づいて、前記認識対象体の撮像画像に重畳させて、前記認識対象体に対する撮影姿勢の補正方向を表示する、付記1に記載の文字認識支援装置。
(付記3)
前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、付記2に記載の文字認識支援装置。
(付記4)
前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定する、付記2または3に記載の文字認識支援装置。
(付記5)
前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方向または縮小方向についての移動の要否を判定する、付記2から4の何れか一の付記に記載の文字認識支援装置。
(付記6)
前記補正移動判定手段は、3隅以上の所定領域内の部分画像から文字認識された第1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定する、付記2から5の何れか一の付記に記載の文字認識支援装置。
(付記7)
コンピュータに、
文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付けるステップと、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定するステップと、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップと、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御ステップと、
を実行させるための文字認識支援プログラム。
(付記8)
前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する複数の軸方向の補正移動の要否を判定する補正移動判定ステップ、を備え、
前記表示制御ステップは、前記補正移動判定ステップで判定された複数の軸方向の補正移動の要否に基づいて、前記認識対象体の撮像画像に重畳させて、前記認識対象体に対する撮影姿勢の補正方向を表示する、付記7に記載の文字認識支援プログラム。
(付記9)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、付記8に記載の文字認識支援プログラム。
(付記10)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定する、付記8または9に記載の文字認識支援プログラム。
(付記11)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方
向または縮小方向についての移動の要否を判定する、付記8から10の何れか一の付記に記載の文字認識支援プログラム。
(付記12)
前記補正移動判定ステップは、3隅以上の所定領域内の部分画像から文字認識された第1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定する、付記8から11の何れか一の付記に記載の文字認識支援プログラム。
(付記13)
コンピュータが、
文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付けるステップと、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体の撮像画像内での3隅以上の所定領域を特定するステップと、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップと、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御ステップと、
を実行する文字認識支援方法。
(付記14)
前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する複数の軸方向の補正移動の要否を判定する補正移動判定ステップ、を備え、
前記表示制御ステップは、前記補正移動判定ステップで判定された複数の軸方向の補正移動の要否に基づいて、前記認識対象体の撮像画像に重畳させて、前記認識対象体に対する撮影姿勢の補正方向を表示する、付記13に記載の文字認識支援方法。
(付記15)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、付記14に記載の文字認識支援方法。
(付記16)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定する、付記14または15に記載の文字認識支援方法。
(付記17)
前記補正移動判定ステップは、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方向または縮小方向についての移動の要否を判定する、付記14から16の何れか一の付記に記載の文字認識支援方法。
(付記18)
前記補正移動判定ステップは、3隅以上の所定領域内の部分画像から文字認識された第
1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定する、付記14から17の何れか一の付記に記載の文字認識支援方法。
<Others>
The above embodiment further includes an aspect called the following supplementary note. The components included in the following supplementary notes can be combined with the constituents included in the other supplementary notes.
(Appendix 1)
Means for accepting a captured image including a rectangular recognition target object to be character recognition;
Means for specifying predetermined areas at three or more corners in a captured image including the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Means for performing character recognition on a partial image in the predetermined region, and determining a relationship between a character string recognized in the predetermined region and the evaluation character string in the recognition object;
Display control means for displaying whether or not characters can be recognized on at least one of the plurality of axes indicating the orientation of the rectangular recognition target body from the relationship;
A character recognition support device.
(Appendix 2)
Based on the positional relationship between the coordinate information of the evaluation character string and the character string recognized in the predetermined area corresponding to the evaluation character string, the correction movement with respect to the appropriate shooting position of the captured image of the recognition object Correction movement determining means for determining whether or not it is necessary,
The display control means displays the correction direction of the photographing posture with respect to the recognition target object, superimposed on the captured image of the recognition target object, based on the necessity of the correction movement determined by the correction movement determination means. The character recognition support device according to appendix 1.
(Appendix 3)
The correction movement determination means includes a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a combination including two or more evaluation character strings corresponding to the predetermined area The character recognition support device according to appendix 2, wherein it is determined whether or not a translational movement in any one of up, down, left, and right directions is required for a captured image of the recognition target object based on a positional relationship with a center of gravity of the region.
(Appendix 4)
The correction movement determination means includes an angle from the centroid of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners to the centroid direction of each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the angle from the centroid direction of each evaluation character string to the captured image of the recognition target object, 4. The character recognition support device according to appendix 2 or 3, which determines whether or not a counterclockwise rotational movement is necessary.
(Appendix 5)
The correction movement determination means includes a distance between a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a center of gravity for each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the centroid of each evaluation character string, the enlargement direction of the image size of the captured image of the recognition object or The character recognition support device according to any one of supplementary notes 2 to 4, which determines whether movement in the reduction direction is necessary.
(Appendix 6)
The correction movement determination means includes a distance between first character strings between a first character string and a second character string recognized from a partial image in a predetermined area at three or more corners, and a first distance corresponding to the predetermined area. A first distance ratio between the first evaluation character string and the first evaluation character string distance between the first evaluation character string and the second evaluation character string, and a second inter-character string distance between the first character string and the third character string; , Based on the relative relationship of the second distance ratio between the second evaluation character string distance between the first evaluation character string and the third evaluation character string corresponding to the predetermined region, The character recognition support device according to any one of appendices 2 to 5, which determines whether or not a movement for correcting distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition object is required.
(Appendix 7)
On the computer,
Receiving a captured image including a rectangular recognition target object for character recognition;
Identifying predetermined areas at three or more corners in a captured image including the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Performing character recognition on the partial image in the predetermined area, and determining a relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object;
A display control step for displaying whether or not characters can be recognized for at least one of the plurality of axes indicating the posture of the rectangular recognition target body from the relationship;
Character recognition support program for running.
(Appendix 8)
Based on the positional relationship between the coordinate information of the evaluation character string and the character string that has been character-recognized in the predetermined area corresponding to the evaluation character string, A correction movement determination step for determining whether or not an axial correction movement is necessary,
In the display control step, based on the necessity of correction movement in a plurality of axial directions determined in the correction movement determining step, the display posture is superimposed on the captured image of the recognition target object, and the photographing posture with respect to the recognition target object is corrected. The character recognition support program according to appendix 7, which displays a direction.
(Appendix 9)
The correction movement determination step includes a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a combination including two or more evaluation character strings corresponding to the predetermined area The character recognition support program according to appendix 8, wherein it is determined whether or not a translational movement in any one of up, down, left, and right directions is required for the captured image of the recognition target object based on a positional relationship with the center of gravity of the region.
(Appendix 10)
The correction movement determining step includes an angle from the center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners to the direction of the center of gravity for each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the angle from the centroid direction of each evaluation character string to the captured image of the recognition target object, The character recognition support program according to appendix 8 or 9, wherein the necessity for counterclockwise rotational movement is determined.
(Appendix 11)
The correction movement determining step includes a distance between a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners and a center of gravity for each character string recognized; and Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the centroid of each evaluation character string, the enlargement direction of the image size of the captured image of the recognition object or The character recognition support program according to any one of supplementary notes 8 to 10, which determines whether movement in the reduction direction is necessary.
(Appendix 12)
The correction movement determining step includes a distance between first character strings between a first character string and a second character string recognized from a partial image in a predetermined area at three or more corners, and a first distance corresponding to the predetermined area. A first distance ratio between the first evaluation character string and the first evaluation character string distance between the first evaluation character string and the second evaluation character string, and a second inter-character string distance between the first character string and the third character string; , Based on the relative relationship of the second distance ratio between the second evaluation character string distance between the first evaluation character string and the third evaluation character string corresponding to the predetermined region, The character recognition support program according to any one of appendices 8 to 11, which determines whether it is necessary to move to correct distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition target object.
(Appendix 13)
Computer
Receiving a captured image including a rectangular recognition target object for character recognition;
Identifying predetermined areas at three or more corners in a captured image of the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Performing character recognition on the partial image in the predetermined area, and determining a relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object;
A display control step for displaying whether or not characters can be recognized for at least one of the plurality of axes indicating the posture of the rectangular recognition target body from the relationship;
Character recognition support method to execute.
(Appendix 14)
Based on the positional relationship between the coordinate information of the evaluation character string and the character string that has been character-recognized in the predetermined area corresponding to the evaluation character string, A correction movement determination step for determining whether or not an axial correction movement is necessary,
In the display control step, based on the necessity of correction movement in a plurality of axial directions determined in the correction movement determining step, the display posture is superimposed on the captured image of the recognition target object, and the photographing posture with respect to the recognition target object is corrected. The character recognition support method according to attachment 13, wherein the direction is displayed.
(Appendix 15)
The correction movement determination step includes a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a combination including two or more evaluation character strings corresponding to the predetermined area 15. The character recognition support method according to appendix 14, wherein it is determined whether or not a translational movement is required in any one of up, down, left, and right directions with respect to a captured image of the recognition target object based on a positional relationship with the center of gravity of the region.
(Appendix 16)
The correction movement determining step includes an angle from the center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners to the direction of the center of gravity for each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the angle from the centroid direction of each evaluation character string to the captured image of the recognition target object, 16. The character recognition support method according to appendix 14 or 15, wherein it is determined whether or not a counterclockwise rotational movement is necessary.
(Appendix 17)
The correction movement determining step includes a distance between a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners and a center of gravity for each character string recognized; and Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the centroid of each evaluation character string, the enlargement direction of the image size of the captured image of the recognition object or The character recognition support method according to any one of supplementary notes 14 to 16, wherein the necessity of movement in the reduction direction is determined.
(Appendix 18)
The correction movement determining step includes a distance between first character strings between a first character string and a second character string recognized from a partial image in a predetermined area at three or more corners, and a first distance corresponding to the predetermined area. A first distance ratio between the first evaluation character string and the first evaluation character string distance between the first evaluation character string and the second evaluation character string, and a second inter-character string distance between the first character string and the third character string; , Based on the relative relationship of the second distance ratio between the second evaluation character string distance between the first evaluation character string and the third evaluation character string corresponding to the predetermined region, 18. The character recognition support method according to any one of supplementary notes 14 to 17, wherein it is determined whether or not a movement for correcting distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition target object is required.

10、20 文字認識支援装置
11 CPU
12 主記憶部
13 補助記憶部
14 入力部
14a カメラ
15 出力部
15a LCD
16 通信部
101、210 画質評価部
102、213 検出データ処理部
201 評価用文字列DB
211 帳票状態推定部
212 状態表示部
10, 20 Character recognition support device 11 CPU
12 Main storage unit 13 Auxiliary storage unit 14 Input unit 14a Camera 15 Output unit 15a LCD
16 Communication unit 101, 210 Image quality evaluation unit 102, 213 Detection data processing unit 201 Evaluation character string DB
211 Form status estimation unit 212 Status display unit

Claims (8)

文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付ける手段と、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定する手段と、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定する手段と、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御手段と、
を備える文字認識支援装置。
Means for accepting a captured image including a rectangular recognition target object to be character recognition;
Means for specifying predetermined areas at three or more corners in a captured image including the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Means for performing character recognition on a partial image in the predetermined region, and determining a relationship between a character string recognized in the predetermined region and the evaluation character string in the recognition object;
Display control means for displaying whether or not characters can be recognized on at least one of the plurality of axes indicating the orientation of the rectangular recognition target body from the relationship;
A character recognition support device.
前記評価文字列の座標情報と、前記評価文字列に対応する前記所定領域内で文字認識された文字列との位置関係に基づいて、前記認識対象体の撮像画像の適正な撮影位置に対する複数の軸方向の補正移動の要否を判定する補正移動判定手段、を備え、
前記表示制御手段は、前記補正移動判定手段で判定された複数の軸方向の補正移動の要否に基づいて、前記認識対象体の撮像画像に重畳させて、前記認識対象体に対する撮影姿勢の補正方向を表示する、請求項1に記載の文字認識支援装置。
Based on the positional relationship between the coordinate information of the evaluation character string and the character string that has been character-recognized in the predetermined area corresponding to the evaluation character string, Correction movement determining means for determining whether or not axial correction movement is necessary,
The display control unit corrects a shooting posture with respect to the recognition target object by superimposing the captured image on the recognition target object based on whether or not a plurality of correction movements in the axial direction determined by the correction movement determination unit are necessary. The character recognition support device according to claim 1, wherein the direction is displayed.
前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心との位置関係に基づいて、前記認識対象体の撮像画像に対する、上下左右の何れか一の方向についての並進移動の要否を判定する、請求項2に記載の文字認識支援装置。   The correction movement determination means includes a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a combination including two or more evaluation character strings corresponding to the predetermined area The character recognition support device according to claim 2, wherein the necessity of translational movement in any one of up, down, left, and right directions with respect to the captured image of the recognition object is determined based on a positional relationship with the center of gravity of the region. 前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心から該文字認識された文字列毎の重心方向への角度と、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心から該評価文字列毎の重心方向への角度との相対関係に基づいて、前記認識対象体の撮像画像に対する、時計回りまたは反時計回りの回転移動の要否を判定する、請求項2または3に記載の文字認識支援装置。   The correction movement determination means includes an angle from the centroid of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners to the centroid direction of each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the angle from the centroid direction of each evaluation character string to the captured image of the recognition target object, The character recognition support device according to claim 2 or 3, wherein it is determined whether or not a counterclockwise rotational movement is necessary. 前記補正移動判定手段は、2隅以上の所定領域内の部分画像から文字認識された2以上の文字列を含む組合せ領域の重心と該文字認識された文字列毎の重心との距離、及び、前記所定領域に対応する2以上の評価文字列を含む組合せ領域の重心と該評価文字列毎の重心との距離の相対関係に基づいて、前記認識対象体の撮像画像の画像サイズの拡大方向または縮小方向についての移動の要否を判定する、請求項2から4の何れか一項に記載の文字認識支援装置。   The correction movement determination means includes a distance between a center of gravity of a combination area including two or more character strings recognized from a partial image in a predetermined area at two or more corners, and a center of gravity for each character string recognized. Based on the relative relationship between the centroid of the combination area including two or more evaluation character strings corresponding to the predetermined area and the centroid of each evaluation character string, the enlargement direction of the image size of the captured image of the recognition object or The character recognition support device according to any one of claims 2 to 4, wherein it is determined whether or not movement in the reduction direction is necessary. 前記補正移動判定手段は、3隅以上の所定領域内の部分画像から文字認識された第1文字列と第2文字列との間の第1文字列間距離と、前記所定領域に対応する第1評価文字列と第2評価文字列との間の第1評価文字列間距離との第1距離比、及び、第1文字列と第3文字列との間の第2文字列間距離と、前記所定領域に対応する第1評価文字列と第3評価文字列との間の第2評価文字列間距離との第2距離比の相対関係に基づいて、前記画像領域内での、前記認識対象体の撮像画像の上下左右の何れか一の方向についての歪みを補正する移動の要否を判定する、請求項2から5の何れか一項に記載の文字認識支援装置。   The correction movement determination means includes a distance between first character strings between a first character string and a second character string recognized from a partial image in a predetermined area at three or more corners, and a first distance corresponding to the predetermined area. A first distance ratio between the first evaluation character string and the first evaluation character string distance between the first evaluation character string and the second evaluation character string, and a second inter-character string distance between the first character string and the third character string; , Based on the relative relationship of the second distance ratio between the second evaluation character string distance between the first evaluation character string and the third evaluation character string corresponding to the predetermined region, The character recognition support device according to any one of claims 2 to 5, wherein it is determined whether or not a movement for correcting distortion in any one of the upper, lower, left, and right directions of the captured image of the recognition object is required. コンピュータに、
文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付けるステップと、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体を含む撮像画像内での3隅以上の所定領域を特定するステップと、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップと、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御ステップと、
を実行させるための文字認識支援プログラム。
On the computer,
Receiving a captured image including a rectangular recognition target object for character recognition;
Identifying predetermined areas at three or more corners in a captured image including the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Performing character recognition on the partial image in the predetermined area, and determining a relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object;
A display control step for displaying whether or not characters can be recognized for at least one of the plurality of axes indicating the posture of the rectangular recognition target body from the relationship;
Character recognition support program for running.
コンピュータが、
文字認識の対象となる矩形の認識対象体を含む撮像画像を受け付けるステップと、
記憶部に登録された前記認識対象体中の複数の評価文字列の座標情報に基づいて、前記認識対象体の撮像画像内での3隅以上の所定領域を特定するステップと、
前記所定領域内の部分画像について文字認識を行い、前記所定領域内で文字認識された文字列と前記認識対象体中の前記評価文字列との関係を判定するステップと、
前記関係から前記矩形の認識対象体の姿勢を示す複数の軸のうち、少なくとも1軸について文字認識できるか否かを、利用者が識別可能な様態で表示する表示制御ステップと、
を実行する文字認識支援方法。
Computer
Receiving a captured image including a rectangular recognition target object for character recognition;
Identifying predetermined areas at three or more corners in a captured image of the recognition target object based on coordinate information of a plurality of evaluation character strings in the recognition target object registered in a storage unit;
Performing character recognition on the partial image in the predetermined area, and determining a relationship between the character string recognized in the predetermined area and the evaluation character string in the recognition object;
A display control step for displaying whether or not characters can be recognized for at least one of the plurality of axes indicating the posture of the rectangular recognition target body from the relationship;
Character recognition support method to execute.
JP2014206201A 2014-10-07 2014-10-07 Character recognition support device, character recognition support program, and character recognition support method Active JP6371662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014206201A JP6371662B2 (en) 2014-10-07 2014-10-07 Character recognition support device, character recognition support program, and character recognition support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014206201A JP6371662B2 (en) 2014-10-07 2014-10-07 Character recognition support device, character recognition support program, and character recognition support method

Publications (3)

Publication Number Publication Date
JP2016076093A true JP2016076093A (en) 2016-05-12
JP2016076093A5 JP2016076093A5 (en) 2017-09-14
JP6371662B2 JP6371662B2 (en) 2018-08-08

Family

ID=55949997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014206201A Active JP6371662B2 (en) 2014-10-07 2014-10-07 Character recognition support device, character recognition support program, and character recognition support method

Country Status (1)

Country Link
JP (1) JP6371662B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017216925A1 (en) * 2016-06-16 2017-12-21 三菱電機ビルテクノサービス株式会社 Tool management device and tool management method
JP2018032367A (en) * 2016-11-28 2018-03-01 株式会社三菱東京Ufj銀行 program
JP2018045480A (en) * 2016-09-15 2018-03-22 株式会社アイエスピー Method and program for acquiring document information with guidance, and portable terminal device
JP2018097565A (en) * 2016-12-13 2018-06-21 株式会社デンソーウェーブ Picked-up image storage apparatus and information management system
WO2018167971A1 (en) * 2017-03-17 2018-09-20 株式会社Pfu Image processing device, control method, and control program
US20180276461A1 (en) 2017-03-21 2018-09-27 Casio Computer Co., Ltd. Ledger document processing device, ledger document processing method and storage medium
JP2018182451A (en) * 2017-04-07 2018-11-15 カシオ計算機株式会社 Image checking apparatus, image checking method, and program
JP2019087945A (en) * 2017-11-09 2019-06-06 キヤノン株式会社 Information processing apparatus, program, and information processing method
JP2019096976A (en) * 2017-11-21 2019-06-20 株式会社デンソーウェーブ Captured image storage device
JP2019120983A (en) * 2017-12-28 2019-07-22 トッパン・フォームズ株式会社 Imaging control device and imaging control method
JP2019140449A (en) * 2018-02-07 2019-08-22 株式会社Pfu Imaging apparatus, control method and control program
JP6574920B1 (en) * 2018-07-06 2019-09-11 楽天株式会社 Image processing system, image processing method, and program
JP6574921B1 (en) * 2018-07-06 2019-09-11 楽天株式会社 Image processing system, image processing method, and program
US10528852B2 (en) 2017-03-22 2020-01-07 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
US10832100B2 (en) 2017-03-22 2020-11-10 Kabushiki Kaisha Toshiba Target recognition device
CN112115932A (en) * 2020-08-19 2020-12-22 泰康保险集团股份有限公司 Text extraction method and device, electronic equipment and storage medium
EP3757880A1 (en) * 2019-06-25 2020-12-30 Thales Electronic method and device for verifying a character to be displayed on a screen relative to a reference character, computer program product and associated graphic processor
JP2022146046A (en) * 2021-03-22 2022-10-05 楽天グループ株式会社 Receipt processing system, receipt processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06290296A (en) * 1993-03-31 1994-10-18 Oki Electric Ind Co Ltd Character recognizing device
JPH08256254A (en) * 1995-03-17 1996-10-01 Oki Electric Ind Co Ltd Delivery confirmation system for slip in facsimile communication
JPH1173474A (en) * 1997-08-28 1999-03-16 Canon Inc Method and device for correcting inclination
JP2005141603A (en) * 2003-11-10 2005-06-02 Hitachi Ltd Processing object selection method in character recognition on portable terminal, and portable terminal
JP2006109141A (en) * 2004-10-06 2006-04-20 Canon Inc Electronic camera
JP2007102265A (en) * 2005-09-30 2007-04-19 Toshiba Corp Identification card recognition device and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06290296A (en) * 1993-03-31 1994-10-18 Oki Electric Ind Co Ltd Character recognizing device
JPH08256254A (en) * 1995-03-17 1996-10-01 Oki Electric Ind Co Ltd Delivery confirmation system for slip in facsimile communication
JPH1173474A (en) * 1997-08-28 1999-03-16 Canon Inc Method and device for correcting inclination
JP2005141603A (en) * 2003-11-10 2005-06-02 Hitachi Ltd Processing object selection method in character recognition on portable terminal, and portable terminal
JP2006109141A (en) * 2004-10-06 2006-04-20 Canon Inc Electronic camera
JP2007102265A (en) * 2005-09-30 2007-04-19 Toshiba Corp Identification card recognition device and method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017216925A1 (en) * 2016-06-16 2017-12-21 三菱電機ビルテクノサービス株式会社 Tool management device and tool management method
JP2018045480A (en) * 2016-09-15 2018-03-22 株式会社アイエスピー Method and program for acquiring document information with guidance, and portable terminal device
JP2018032367A (en) * 2016-11-28 2018-03-01 株式会社三菱東京Ufj銀行 program
JP2018097565A (en) * 2016-12-13 2018-06-21 株式会社デンソーウェーブ Picked-up image storage apparatus and information management system
JPWO2018167971A1 (en) * 2017-03-17 2019-07-18 株式会社Pfu Image processing apparatus, control method and control program
WO2018167971A1 (en) * 2017-03-17 2018-09-20 株式会社Pfu Image processing device, control method, and control program
US20180276461A1 (en) 2017-03-21 2018-09-27 Casio Computer Co., Ltd. Ledger document processing device, ledger document processing method and storage medium
JP2018157472A (en) * 2017-03-21 2018-10-04 カシオ計算機株式会社 Account book document processing device, account book document processing method, and program
US11010603B2 (en) 2017-03-21 2021-05-18 Casio Computer Co., Ltd. Ledger document processing device, ledger document processing method and storage medium
US10832100B2 (en) 2017-03-22 2020-11-10 Kabushiki Kaisha Toshiba Target recognition device
US10528852B2 (en) 2017-03-22 2020-01-07 Kabushiki Kaisha Toshiba Information processing apparatus, method and computer program product
JP2018182451A (en) * 2017-04-07 2018-11-15 カシオ計算機株式会社 Image checking apparatus, image checking method, and program
JP2019087945A (en) * 2017-11-09 2019-06-06 キヤノン株式会社 Information processing apparatus, program, and information processing method
JP2019096976A (en) * 2017-11-21 2019-06-20 株式会社デンソーウェーブ Captured image storage device
JP2019120983A (en) * 2017-12-28 2019-07-22 トッパン・フォームズ株式会社 Imaging control device and imaging control method
JP2019140449A (en) * 2018-02-07 2019-08-22 株式会社Pfu Imaging apparatus, control method and control program
WO2020008629A1 (en) * 2018-07-06 2020-01-09 楽天株式会社 Image processing system, image processing method, and program
WO2020008628A1 (en) * 2018-07-06 2020-01-09 楽天株式会社 Image processing system, image processing method, and program
JP6574920B1 (en) * 2018-07-06 2019-09-11 楽天株式会社 Image processing system, image processing method, and program
JP6574921B1 (en) * 2018-07-06 2019-09-11 楽天株式会社 Image processing system, image processing method, and program
EP3757880A1 (en) * 2019-06-25 2020-12-30 Thales Electronic method and device for verifying a character to be displayed on a screen relative to a reference character, computer program product and associated graphic processor
FR3097995A1 (en) * 2019-06-25 2021-01-01 Thales METHOD AND ELECTRONIC DEVICE FOR VERIFYING A CHARACTER TO BE DISPLAYED ON A SCREEN IN RELATION TO A REFERENCE CHARACTER, COMPUTER PROGRAM PRODUCT, AND ASSOCIATED GRAPHIC PROCESSOR
US11100897B2 (en) 2019-06-25 2021-08-24 Thales Method and electronic device for verifying a character to be displayed on a screen compared to a reference character, associated computer program product and graphics processor
CN112115932A (en) * 2020-08-19 2020-12-22 泰康保险集团股份有限公司 Text extraction method and device, electronic equipment and storage medium
CN112115932B (en) * 2020-08-19 2023-11-14 泰康保险集团股份有限公司 Text extraction method and device, electronic equipment and storage medium
JP2022146046A (en) * 2021-03-22 2022-10-05 楽天グループ株式会社 Receipt processing system, receipt processing method, and program
JP7167225B2 (en) 2021-03-22 2022-11-08 楽天グループ株式会社 Receipt processing system, receipt processing method, and program

Also Published As

Publication number Publication date
JP6371662B2 (en) 2018-08-08

Similar Documents

Publication Publication Date Title
JP6371662B2 (en) Character recognition support device, character recognition support program, and character recognition support method
KR101292916B1 (en) Computer-readable recording medium having image processing program recorded thereon, portable terminal, and image processing method
JP4801551B2 (en) Image area detection method, program, and apparatus
CN109426835B (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP6123881B2 (en) Verification system, terminal device, server device, verification method and program
JP6206581B2 (en) Terminal device, display control method, and program
JP2015180988A (en) Entry guide display device, entry guide display method, and program
US10321089B2 (en) Image preproduction apparatus, method for controlling the same, and recording medium
KR101503150B1 (en) Authentication method and system using graphical pass points
JP2017097859A (en) Information processing device, and processing method and program thereof
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP2017199288A (en) Image processing device, image processing method and program
JP6933125B2 (en) Information processing device, shooting guide display program, shooting guide display method
KR102243884B1 (en) Method for inspecting product based on vector modeling and Apparatus thereof
JP6875061B2 (en) A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.
JP2019016379A (en) Data input device and data input program
KR20160008407A (en) Apparatus and method for recognizing characters
US11256399B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6815712B1 (en) Image processing system, image processing method, image processing program, image processing server, and learning model
JP5636966B2 (en) Error detection apparatus and error detection program
CN111860475B (en) Image processing method and device, electronic equipment and storage medium
JP2005217721A (en) Apparatus and method for generating still picture
US11030473B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP2018136709A (en) Data input device, data input program and data input system
JP6364051B2 (en) Document information acquisition method with guidance, program, and portable terminal device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170803

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150