JP7054662B2 - Image recognition device, image recognition method, and image recognition program - Google Patents

Image recognition device, image recognition method, and image recognition program Download PDF

Info

Publication number
JP7054662B2
JP7054662B2 JP2018166675A JP2018166675A JP7054662B2 JP 7054662 B2 JP7054662 B2 JP 7054662B2 JP 2018166675 A JP2018166675 A JP 2018166675A JP 2018166675 A JP2018166675 A JP 2018166675A JP 7054662 B2 JP7054662 B2 JP 7054662B2
Authority
JP
Japan
Prior art keywords
character string
recognition
character
identity verification
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018166675A
Other languages
Japanese (ja)
Other versions
JP2020042320A (en
Inventor
昌昭 小澤
浩一 金元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2018166675A priority Critical patent/JP7054662B2/en
Publication of JP2020042320A publication Critical patent/JP2020042320A/en
Application granted granted Critical
Publication of JP7054662B2 publication Critical patent/JP7054662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像認識装置、画像認識方法、及び画像認識プログラムに関する。 The present invention relates to an image recognition device, an image recognition method, and an image recognition program.

画像内の文字情報を認識する画像認識装置は、金融機関における帳票内の文字の自動認識や本人確認書類内の文字の自動認識に適用されている。この種の画像認識装置は、これまで、罫線のレイアウト等に基づいて文字認識を行う文字情報が含まれる領域の画像内での位置を特定するものが多かったが、近年、罫線のない原稿(文書)の画像に対する文字認識を可能にする技術が提案されている(例えば、特許文献1を参照)。 An image recognition device that recognizes character information in an image is applied to automatic recognition of characters in a form and automatic recognition of characters in an identity verification document in a financial institution. Until now, many image recognition devices of this type specify the position in an image of an area containing character information for character recognition based on the layout of ruled lines, but in recent years, manuscripts without ruled lines ( A technique has been proposed that enables character recognition for an image of a document) (see, for example, Patent Document 1).

特開2017-134525号公報JP-A-2017-134525

金融機関等では、免許証等の、公にフォーマットが統一されており、認識する文字情報の画像内での位置が特定されている本人確認書類のみを、画像認識装置を利用した文字の自動認識の対象にしていることが多い。これに対し、近年、免許証以外の本人確認書類を提示されることが増えており、金融機関等では、免許証以外の本人確認書類についても画像認識装置を利用した文字の自動認識を行いたいという要望がある。 At financial institutions, etc., the format is publicly unified, such as driver's licenses, and only the identity verification documents whose position in the image of the character information to be recognized is specified are automatically recognized by the image recognition device. Often targeted at. On the other hand, in recent years, the number of people who are presented with identity verification documents other than driver's licenses is increasing, and financial institutions want to automatically recognize characters other than driver's licenses using image recognition devices. There is a request.

しかしながら、本人確認書類のなかには、保険証等のように、罫線のないものや、本人確認に利用可能な各種情報(例えば、氏名、生年月日、住所等)のレイアウトが独特のものも含まれる。更に、カードタイプの保険証には、保険証として使用する上で必要な情報の他に、被保険者が所属する会社名や団体名、ロゴが印刷されていたり、ジェネリック医薬品を希望する旨の意思表示をするシール等が貼られていたりする。これら非定型レイアウトの本人確認書類の画像内の文字を自動で認識することは困難であった。 However, some identity verification documents, such as health insurance cards, have no ruled lines and have a unique layout of various information (for example, name, date of birth, address, etc.) that can be used for identity verification. .. Furthermore, on the card-type health insurance card, in addition to the information necessary for using it as a health insurance card, the name of the company to which the insured belongs, the name of the organization, the logo are printed, and a generic drug is desired. There may be a sticker that indicates your intention. It was difficult to automatically recognize the characters in the image of the identity verification document with these atypical layouts.

1つの側面において、本発明は、種々の本人確認書類の画像内の文字を自動で認識することが可能な技術を提供することを目的とする。 In one aspect, it is an object of the present invention to provide a technique capable of automatically recognizing characters in images of various identity verification documents.

本発明に係る第1の側面である画像認識装置は、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、特定した前記画像内の位置の文字認識を行う文字認識部と、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部とを備える画像認識装置である。 The image recognition device according to the first aspect of the present invention extracts a character string from the image of the identity verification document, and is included in the extracted character string and the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the position in the image and the degree of matching of the character with the item keyword indicating the item, and the type of the identified identity verification document. A heading character string that matches the name of the item for character recognition from the character strings extracted from the image based on the information of the name of the item for character recognition predetermined for each type of the identity verification document. And the item position that specifies the position in the image where the character recognition is performed based on the positional relationship between the heading character string in the identity verification document and the information that can be used for identity verification corresponding to the heading character string. The character is based on the characteristics of a specific unit, a character recognition unit that recognizes a character at a specified position in the image, and a character sequence of a character string containing information that can be used for identity verification in the identity verification document. It is an image recognition device including a recognition result correction unit that corrects the recognition result.

本発明に係る第2の側面である画像認識方法は、コンピュータが、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、特定した前記画像内の位置の文字認識を行い、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する処理を実行する画像認識方法である。 In the image recognition method according to the second aspect of the present invention, the computer extracts a character string from the image of the identity verification document, and the extracted character string and the identity verification document predetermined for each type of the identity verification document. The type of the identity verification document in the image is identified based on the position in the image and the degree of matching of the character with the item keyword indicating the item included in the image, and the type of the identified identity verification document and the identity are identified. Based on the information of the name of the item to be recognized characters predetermined for each type of confirmation document, the heading character string that matches the name of the item to be recognized is specified from the character strings extracted from the image. Then, the position where the character recognition is performed in the image is specified and specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. An image that recognizes characters at a position in the image and corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document. It is a recognition method.

本発明に係る第3の側面である画像認識プログラムは、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、特定した前記画像内の位置の文字認識を行い、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する処理をコンピュータに実行させる画像認識プログラムである。 The image recognition program, which is the third aspect of the present invention, extracts a character string from the image of the identity verification document, and is included in the extracted character string and the identity verification document predetermined for each type of the identity verification document. The type of the identity verification document in the image is identified based on the position in the image and the degree of matching of the character with the item keyword indicating the item, and the type of the identified identity verification document and the identity verification document are identified. Based on the information of the name of the item for character recognition predetermined for each type, a heading character string matching the name of the item for character recognition is specified from the character strings extracted from the image, and the above-mentioned Based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string, the position where the character recognition is performed in the image is specified, and the specified position in the image is used. Image recognition that recognizes the character of the position and causes the computer to execute a process of correcting the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document. It is a program.

上述の態様によれば、種々の本人確認書類の画像内の文字を自動で認識することが可能となる。 According to the above aspect, it is possible to automatically recognize characters in images of various identity verification documents.

画像認識システムの構成を示す図である。It is a figure which shows the structure of an image recognition system. 一実施形態に係る画像認識装置の機能構成を示す図である。It is a figure which shows the functional structure of the image recognition apparatus which concerns on one Embodiment. 書類識別テーブルの内容を示す図である。It is a figure which shows the contents of a document identification table. 書類種類テーブルの内容を示す図である。It is a figure which shows the contents of a document type table. 認識方式テーブルの内容を示す図である。It is a figure which shows the contents of the recognition method table. 認識項目キーワードテーブルの内容を示す図である。It is a figure which shows the content of the recognition item keyword table. 認識項目テーブルの内容を示す図である。It is a figure which shows the contents of the recognition item table. 認識カテゴリテーブルの内容を示す図である。It is a figure which shows the contents of the recognition category table. 画像認識装置が行う処理を説明するフローチャートである。It is a flowchart explaining the process performed by an image recognition apparatus. 一実施形態に係るアプリケーション処理の内容を説明するフローチャートである。It is a flowchart explaining the content of application processing which concerns on one Embodiment. 本人確認書類識別処理の内容を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the content of the identity verification document identification process. 本人確認書類識別処理の内容を説明するフローチャート(その2)である。It is a flowchart (2) explaining the content of the identity verification document identification process. 無罫線キーワード認識方式による文字認識処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the character recognition processing by the ruled line keyword recognition method. 右方探索処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the right-hand side search process. 下方探索処理の内容を説明するフローチャートである。It is a flowchart explaining the content of the downward search process. データ文字列補正処理の内容を説明するフローチャート(その1)である。It is a flowchart (the 1) explaining the content of the data character string correction processing. データ文字列補正処理の内容を説明するフローチャート(その2)である。It is a flowchart (2) explaining the content of a data character string correction process. 本人確認書類の一例を示す図である。It is a figure which shows an example of the identity verification document. 2値化した画像から抽出される文字列の例を説明する図(その1)である。It is a figure (the 1) explaining the example of the character string extracted from the binarized image. 2値化した画像から抽出される文字列の例を説明する図(その2)である。It is a figure (the 2) explaining the example of the character string extracted from the binarized image. 右方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。It is a figure explaining an example of the determination method of whether or not it is a data candidate character string in a right-handed search process. 右方探索処理における別見出しフラグのオン/オフの判定方法を説明する図である。It is a figure explaining the determination method of on / off of another heading flag in the right side search process. 下方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。It is a figure explaining the example of the determination method of whether or not it is a data candidate character string in the lower search process. データ文字列の補正方法を説明する図である。It is a figure explaining the correction method of a data character string. コンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of a computer.

以下、図面を参照しながら、一実施形態に係る画像認識システムについて説明する。
図1は、画像認識システムの構成を示す図である。
Hereinafter, the image recognition system according to the embodiment will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an image recognition system.

図1のように、本実施形態に係る画像認識システム1は、画像認識装置2と、スキャナ装置3と、入力装置4と、表示装置5と、サーバ装置6とを含む。 As shown in FIG. 1, the image recognition system 1 according to the present embodiment includes an image recognition device 2, a scanner device 3, an input device 4, a display device 5, and a server device 6.

画像認識装置2は、本人確認書類(例えば、運転免許証や保険証等)の画像に含まれる本人確認に利用可能な項目(例えば、氏名、住所、及び生年月日等)の文字認識を自動で行う装置である。本人確認書類の画像は、例えば、画像認識装置2に接続されたスキャナ装置3により取得する。スキャナ装置3は、紙媒体或いはプラスチック製のカード等の本人確認書類の画像データ(デジタルデータ)を生成する装置の一例である。 The image recognition device 2 automatically recognizes characters of items (for example, name, address, date of birth, etc.) that can be used for identity verification included in the image of the identity verification document (for example, driver's license, health insurance card, etc.). It is a device performed in. The image of the identity verification document is acquired by, for example, the scanner device 3 connected to the image recognition device 2. The scanner device 3 is an example of a device that generates image data (digital data) of an identity verification document such as a paper medium or a plastic card.

入力装置4は、画像認識装置2に各種情報を入力する装置である。入力装置4は、例えば、キーボード装置である。なお、1つの画像認識装置2には、複数種類の入力装置4(例えばキーボード装置とマウス装置等)が接続されていてもよい。表示装置5は、本人確認書類の画像、該画像に対する認識処理の結果、及び画像認識装置2が保持する各種データの表示等に利用する。 The input device 4 is a device for inputting various information to the image recognition device 2. The input device 4 is, for example, a keyboard device. A plurality of types of input devices 4 (for example, a keyboard device and a mouse device) may be connected to one image recognition device 2. The display device 5 is used for displaying an image of an identity verification document, a result of recognition processing for the image, various data held by the image recognition device 2, and the like.

サーバ装置6は、画像認識装置2における認識処理で参照する各種データ、及び認識処理の結果等を蓄積する装置である。画像認識装置2及びサーバ装置6は、それぞれ、通信ネットワーク7に接続されている。画像認識装置2は、通信ネットワーク7を介して、サーバ装置6から認識処理で参照する各種データを取得する。また、画像認識装置2は、通信ネットワーク7を介して、サーバ装置6に本人確認書類の画像や認識処理の結果等を送信する。 The server device 6 is a device that stores various data referred to in the recognition process in the image recognition device 2, the result of the recognition process, and the like. The image recognition device 2 and the server device 6 are each connected to the communication network 7. The image recognition device 2 acquires various data referred to in the recognition process from the server device 6 via the communication network 7. Further, the image recognition device 2 transmits the image of the identity verification document, the result of the recognition process, and the like to the server device 6 via the communication network 7.

なお、画像認識システム1は、画像認識装置2、スキャナ装置3、入力装置4、及び表示装置5の組を複数組含んでもよい。また、画像認識システム1は、サーバ装置6とは別のサーバ装置を含んでもよい。 The image recognition system 1 may include a plurality of sets of the image recognition device 2, the scanner device 3, the input device 4, and the display device 5. Further, the image recognition system 1 may include a server device different from the server device 6.

本実施形態に係る画像認識装置2は、例えば、銀行等の金融機関における口座開設等の各種取引を行う際の本人確認書類の認識に利用する。この種の画像認識装置2は、運転免許証のような公にフォーマット(各項目の位置)が統一された本人確認書類の認識のみが可能であることが多い。しかしながら、金融機関では、運転免許証とは別の本人確認書類(例えば保険証、在留カード、特別永住者証明書、及びマイナンバーカード等)を本人確認書類として受け付けている。このため、近年、金融機関等では、運転免許証以外の本人確認書類の認識も画像認識装置2で行いたいという要望がある。 The image recognition device 2 according to the present embodiment is used for recognizing identity verification documents when conducting various transactions such as opening an account at a financial institution such as a bank. In many cases, this type of image recognition device 2 can only recognize identity verification documents having a publicly unified format (position of each item) such as a driver's license. However, financial institutions accept identity verification documents other than driver's licenses (for example, health insurance cards, residence cards, special permanent resident certificates, My Number cards, etc.) as identity verification documents. For this reason, in recent years, financial institutions and the like have requested that the image recognition device 2 also recognize identity verification documents other than a driver's license.

図2は、一実施形態に係る画像認識装置の機能構成を示す図である。
図2のように、本実施形態の画像認識装置2は、スキャナ制御部201と、書類種類識別部202と、認識方式選択部203と、項目位置特定部204と、認識結果補正部205と、文字認識部206と、認識結果通知部207と、通信部208と、主制御部209と、記憶部290とを備える。
FIG. 2 is a diagram showing a functional configuration of an image recognition device according to an embodiment.
As shown in FIG. 2, the image recognition device 2 of the present embodiment includes a scanner control unit 201, a document type identification unit 202, a recognition method selection unit 203, an item position identification unit 204, and a recognition result correction unit 205. It includes a character recognition unit 206, a recognition result notification unit 207, a communication unit 208, a main control unit 209, and a storage unit 290.

スキャナ制御部201は、スキャナ装置3の動作を制御し、本人確認書類等の画像を取得する。 The scanner control unit 201 controls the operation of the scanner device 3 and acquires an image such as an identity verification document.

書類種類識別部202は、本人確認書類の画像と、記憶部290に記憶させた書類識別テーブル291及び書類種類テーブル292とに基づいて、画像内の本人確認書類の種類を識別する。 The document type identification unit 202 identifies the type of the identity verification document in the image based on the image of the identity verification document and the document identification table 291 and the document type table 292 stored in the storage unit 290.

認識方式選択部203は、書類種類識別部202の識別結果と、記憶部290に記憶させた認識方式テーブル293とに基づいて、画像内の本人確認書類に対する認識方式を選択する。本実施形態の画像認識装置2では、位置固定認識方式、キーワード認識方式、及び無罫線キーワード認識方式のなかから認識方式を選択する。位置固定認識方式は、認識する項目毎に定められた画像内での位置に基づいて、画像内の各項目の文字認識を行う方式である。キーワード認識方式は、認識する項目の見出し語と、画像内の罫線とに基づいて、画像内の各項目の文字認識を行う方式である。無罫線キーワード認識方式は、認識する項目の見出し語と、該見出し語に対する本人確認に利用する情報の画像内での位置(例えば、右方又は下方)とに基づいて、画像内の各項目の文字認識を行う方式である。 The recognition method selection unit 203 selects a recognition method for the identity verification document in the image based on the identification result of the document type identification unit 202 and the recognition method table 293 stored in the storage unit 290. In the image recognition device 2 of the present embodiment, the recognition method is selected from the fixed position recognition method, the keyword recognition method, and the non-ruled line keyword recognition method. The fixed position recognition method is a method of recognizing characters of each item in an image based on the position in the image defined for each item to be recognized. The keyword recognition method is a method of recognizing characters of each item in an image based on the headword of the item to be recognized and the ruled line in the image. The non-ruled line keyword recognition method is based on the headword of the item to be recognized and the position (for example, right or lower) of the information used for identity verification for the headword in the image of each item in the image. This is a method for character recognition.

項目位置特定部204は、認識方式選択部203で選択した認識方式に基づいて、認識する各項目の文字列の位置(範囲)を特定する。ここで、認識する各項目の文字列の位置は、該文字列を含む矩形領域の画像内での位置及び寸法を示す情報により特定する。例えば、認識する各項目の文字列の位置は、該文字列を含む矩形領域の左上角部の座標と右下角部の座標とにより特定する。項目位置特定部204は、位置固定認識部211と、キーワード認識部212と、無罫線キーワード認識部213とを含む。 The item position specifying unit 204 specifies the position (range) of the character string of each item to be recognized based on the recognition method selected by the recognition method selection unit 203. Here, the position of the character string of each item to be recognized is specified by the information indicating the position and the dimension in the image of the rectangular area including the character string. For example, the position of the character string of each item to be recognized is specified by the coordinates of the upper left corner portion and the coordinates of the lower right corner portion of the rectangular area including the character string. The item position specifying unit 204 includes a fixed position recognition unit 211, a keyword recognition unit 212, and a non-ruled line keyword recognition unit 213.

位置固定認識部211は、位置固定認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。位置固定認識部211は、記憶部290に記憶させた位置固定認識テーブル294に基づいて、認識する各項目の文字列の位置を特定する。位置固定認識テーブル294は、位置固定認識方式による文字認識を行う本人確認書類における、本人確認に利用する各項目のそれぞれの画像内での位置を示す情報を含む。 The fixed position recognition unit 211 specifies the position in the image of the character string of each item to be recognized when character recognition is performed by the fixed position recognition method. The position fixing recognition unit 211 specifies the position of the character string of each item to be recognized based on the position fixing recognition table 294 stored in the storage unit 290. The position-fixed recognition table 294 includes information indicating the position of each item used for identity verification in each image in the identity verification document that performs character recognition by the position-fixed recognition method.

キーワード認識部212は、キーワード認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。キーワード認識部212は、例えば、記憶部290に記憶させた認識項目キーワードテーブル295と、画像内の罫線とに基づいて、認識する各項目の文字列の位置を特定する。認識項目キーワードテーブル295は、キーワード認識方式及び無罫線キーワード認識方式による文字認識を行う本人確認書類における、本人確認に利用する各項目の見出し語(キーワード)を含む。 The keyword recognition unit 212 specifies the position of each item to be recognized in the image when character recognition is performed by the keyword recognition method. The keyword recognition unit 212 specifies the position of the character string of each item to be recognized based on, for example, the recognition item keyword table 295 stored in the storage unit 290 and the ruled line in the image. The recognition item keyword table 295 includes a headword (keyword) of each item used for identity verification in the identity verification document that performs character recognition by the keyword recognition method and the non-ruled line keyword recognition method.

無罫線キーワード認識部213は、無罫線キーワード認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。無罫線キーワード認識部213は、例えば、記憶部290に記憶させた認識項目キーワードテーブル295と、認識する各項目の見出し語の画像内での位置とに基づいて、認識する各項目の文字列の位置を特定する。 The non-ruled line keyword recognition unit 213 specifies the position of each item to be recognized in the image when character recognition is performed by the non-ruled line keyword recognition method. The non-ruled line keyword recognition unit 213 has, for example, the recognition item keyword table 295 stored in the storage unit 290 and the position of the headword of each item to be recognized in the image, and the character string of each item to be recognized. Identify the location.

文字認識部206は、項目位置特定部204で特定した、認識する各項目の文字列の位置と、記憶部290に記憶させた活字文字認識辞書298とに基づいて、各項目の文字認識を実施する。 The character recognition unit 206 performs character recognition of each item based on the position of the character string of each item to be recognized specified by the item position identification unit 204 and the type character recognition dictionary 298 stored in the storage unit 290. do.

認識結果補正部205は、記憶部290に記憶させた認識項目テーブル296及び認識カテゴリテーブル297に基づいて、文字認識部206の認識結果を補正する。認識項目テーブル296は、認識する項目毎のカテゴリ(文字種)を示す情報、文字列の桁数、文字列間の距離の閾値、及び最終文字を含む。認識カテゴリテーブル297は、認識項目テーブル296におけるカテゴリを示す情報と、含まれる文字種との対応関係を含む。 The recognition result correction unit 205 corrects the recognition result of the character recognition unit 206 based on the recognition item table 296 and the recognition category table 297 stored in the storage unit 290. The recognition item table 296 includes information indicating a category (character type) for each item to be recognized, the number of digits of the character string, the threshold value of the distance between the character strings, and the final character. The recognition category table 297 includes the correspondence between the information indicating the category in the recognition item table 296 and the included character type.

認識結果通知部207は、認識結果を表示装置5等に出力する。通信部208は、サーバ装置6等の外部装置との通信を行う。主制御部209は、スキャナ制御部201、書類種類識別部202、認識方式選択部203、項目位置特定部204、認識結果補正部205、文字認識部206、認識結果通知部207、及び通信部208の各部の動作の制御を含む、画像認識装置2全体の動作の制御をする。 The recognition result notification unit 207 outputs the recognition result to the display device 5 or the like. The communication unit 208 communicates with an external device such as the server device 6. The main control unit 209 includes a scanner control unit 201, a document type identification unit 202, a recognition method selection unit 203, an item position identification unit 204, a recognition result correction unit 205, a character recognition unit 206, a recognition result notification unit 207, and a communication unit 208. It controls the operation of the entire image recognition device 2 including the control of the operation of each part of the above.

本実施形態に係る画像認識装置2の記憶部290は、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298を含む各種情報を記憶する。このうち位置固定認識テーブル294は、上記のように、本人確認書類における、本人確認に利用する各項目のそれぞれの画像内での位置を示す情報を含む。該位置固定認識テーブル294は、例えば、運転免許証における番号、氏名、生年月日、住所、及び有効期限の各項目の画像内での位置を示す情報を含む。また、活字文字認識辞書298は、既知の文字認識において参照する辞書である。このため、本明細書では、位置固定認識テーブル294及び活字文字認識辞書298の内容についての説明を省略する。以下、図3~図8を参照し、本実施形態の画像認識装置2が参照する書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、認識項目キーワードテーブル295、認識項目テーブル296、及び認識カテゴリテーブル297の内容と利用方法を説明する。 The storage unit 290 of the image recognition device 2 according to the present embodiment has a document identification table 291, a document type table 292, a recognition method table 293, a fixed position recognition table 294, a recognition item keyword table 295, a recognition item table 296, and a recognition category table. Stores various information including 297 and the print character recognition dictionary 298. Of these, the position-fixed recognition table 294 includes, as described above, information indicating the position of each item used for identity verification in the image in the identity verification document. The fixed position recognition table 294 contains, for example, information indicating the position of each item of a driver's license such as a number, a name, a date of birth, an address, and an expiration date in an image. The type character recognition dictionary 298 is a dictionary referred to in known character recognition. Therefore, in the present specification, the description of the contents of the fixed position recognition table 294 and the type character recognition dictionary 298 will be omitted. Hereinafter, with reference to FIGS. 3 to 8, the document identification table 291, the document type table 292, the recognition method table 293, the recognition item keyword table 295, the recognition item table 296, and the recognition item table 291 referred to by the image recognition device 2 of the present embodiment are referred to. The contents and usage of the category table 297 will be described.

図3は、書類識別テーブルの内容を示す図である。図4は、書類種類テーブルの内容を示す図である。図5は、認識方式テーブルの内容を示す図である。図6は、認識項目キーワードテーブルの内容を示す図である。図7は、認識項目テーブルの内容を示す図である。図8は、認識カテゴリテーブルの内容を示す図である。 FIG. 3 is a diagram showing the contents of the document identification table. FIG. 4 is a diagram showing the contents of the document type table. FIG. 5 is a diagram showing the contents of the recognition method table. FIG. 6 is a diagram showing the contents of the recognition item keyword table. FIG. 7 is a diagram showing the contents of the recognition item table. FIG. 8 is a diagram showing the contents of the recognition category table.

書類識別テーブル291及び書類種類テーブル292は、画像内の本人確認書類の種類を識別する際に参照する情報である。書類識別テーブル291は、図3のように、書類No.、識別キーワード、得点、左上横座標、左上縦座標、右下横座標、及び右下縦座標を含む。また、書類種類テーブル292は、図4のように、書類No.、書類名、及び認識方式No.を含む。 The document identification table 291 and the document type table 292 are information to be referred to when identifying the type of the identity verification document in the image. As shown in FIG. 3, the document identification table 291 includes a document No., an identification keyword, a score, an upper left abscissa, an upper left ordinate, a lower right ordinate, and a lower right ordinate. Further, the document type table 292 includes the document No., the document name, and the recognition method No., as shown in FIG.

書類識別テーブル291の書類No.は、本人確認書類の種類を識別する番号である。書類No.と本人確認書類の種類との対応関係は、書類種類テーブル292で定義する。例えば、図4の書類種類テーブル292では、書類No.=1の本人確認書類の書類名が免許証となっている。このため、書類識別テーブル291における書類No.=1の行は免許証に関する情報を示している。また、例えば、図4の書類種類テーブル292では、書類No.=2の本人確認書類の書類名が保険証(カード)となっている。このため、書類識別テーブル291における書類No.=2の行はカードタイプの保険証に関する情報を示している。 The document No. of the document identification table 291 is a number for identifying the type of the identification document. The correspondence between the document number and the type of the identification document is defined in the document type table 292. For example, in the document type table 292 of FIG. 4, the document name of the identity verification document of document No. 1 is a driver's license. Therefore, the row of document No. = 1 in the document identification table 291 shows information about the driver's license. Further, for example, in the document type table 292 of FIG. 4, the document name of the identity verification document of document No. = 2 is a health insurance card (card). Therefore, the row of document No. = 2 in the document identification table 291 shows information about the card type health insurance card.

ここで、書類識別テーブル291の説明に戻る。書類識別テーブル291の識別キーワードは、書類No.により特定される本人確認書類の識別に利用可能な、本人確認書類に記載された文字列である。書類識別テーブル291の左上横座標、左上縦座標、右下横座標、及び右下縦座標は、本人確認書類の画像内での識別キーワードの位置(範囲)を示す情報である。例えば、書類No.=1の免許証には「運転免許証」という文字列が記載されている。そして、書類識別テーブル291における識別キーワードが「運転免許証」の行の左上横座標X1、左上縦座標Y1、右下横座標X2、及び右下縦座標Y2は、免許証の画像における「運転免許証」という文字列が記載された位置(範囲)を示す。ここで、横座標は本人確認書類の画像を正位置でみた場合の水平方向の位置を示す情報(例えば画像左端からの画素数)であり、縦座標は本人確認書類の画像を正位置でみた場合の垂直方向の位置を示す情報(例えば画像上端からの画素数)である。すなわち、図3の書類識別テーブル291では、「運転免許証」という文字列は、画像内の(左上横座標X1,左上縦座標Y1)を左上角部とし、(右下横座標X2,右下縦座標Y2)を右下角部とする矩形領域内に記載されていることを示している。 Here, the explanation returns to the description of the document identification table 291. The identification keyword of the document identification table 291 is a character string described in the identity verification document that can be used to identify the identity verification document specified by the document No. The upper left horizontal coordinate, upper left vertical coordinate, lower right horizontal coordinate, and lower right vertical coordinate of the document identification table 291 are information indicating the position (range) of the identification keyword in the image of the identity verification document. For example, the character string "driver's license" is written on the license of document No. = 1. Then, the upper left horizontal coordinate X1, the upper left vertical coordinate Y1, the lower right horizontal coordinate X2, and the lower right vertical coordinate Y2 in the row where the identification keyword in the document identification table 291 is "driver's license" are "driver's license" in the image of the license. Indicates the position (range) in which the character string "Proof" is written. Here, the horizontal coordinates are information indicating the horizontal position when the image of the identity verification document is viewed in the normal position (for example, the number of pixels from the left end of the image), and the ordinates are the information indicating the position of the identity verification document in the normal position. Information indicating the position in the vertical direction of the case (for example, the number of pixels from the upper end of the image). That is, in the document identification table 291 of FIG. 3, the character string "driver's license" has (upper left horizontal coordinate X1, upper left ordinate Y1) as the upper left corner in the image, and (lower right horizontal coordinate X2, lower right). It is shown that it is described in the rectangular area whose lower right corner is the ordinate Y2).

また、図3の書類識別テーブル291では、例えば、書類No.=2のカードタイプの保険証の画像の場合、画像内の(左上横座標X21,左上縦座標Y21)を左上角部とし、(右下横座標X22,右下縦座標Y22)を右下角部とする矩形領域内に「健康保険」という文字列が記載されていることを示している。 Further, in the document identification table 291 of FIG. 3, for example, in the case of an image of a card type insurance card with document No. = 2, (upper left horizontal coordinate X21, upper left vertical coordinate Y21) is set as the upper left corner, and ( It shows that the character string "health insurance" is described in the rectangular area having the lower right horizontal coordinate X22 and the lower right vertical coordinate Y22) as the lower right corner.

次に、書類識別テーブル291の得点について説明する。書類識別テーブル291の得点は、本人確認書類の画像から抽出した文字列と、識別キーワードの文字列との一致度を示す情報である。本実施形態では、識別キーワードのうちの、本人確認書類の画像から抽出した文字列と画像内の位置が略一致する識別キーワードについて、文字列の一致度を示す得点を算出する。このとき、本人確認書類の画像から抽出した文字列と識別キーワードの文字列とが一致する場合の得点を100点とする。また、本人確認書類の画像から抽出した文字列と識別キーワードの文字列とが部分一致する場合の得点は、{(一致した文字数/識別キーワードの文字数)×100}点とする。例えば、免許証の画像から抽出した文字列と、書類識別テーブル291の各識別キーワードの文字列との一致度を示す得点を算出すると、書類No.=1の各識別キーワードの得点は100点に近い値となり、他の書類No.の各識別キーワードの得点は低い値となる。このため、本実施形態の画像認識装置2では、書類識別テーブル291における書類No.毎に算出した総得点が最も高い書類No.を、画像内の本人確認書類を示す書類No.に決定する。 Next, the score of the document identification table 291 will be described. The score of the document identification table 291 is information indicating the degree of matching between the character string extracted from the image of the identity verification document and the character string of the identification keyword. In the present embodiment, among the identification keywords, the score indicating the degree of matching of the character strings is calculated for the identification keywords whose positions in the image and the character strings extracted from the image of the identity verification document substantially match. At this time, the score when the character string extracted from the image of the identity verification document and the character string of the identification keyword match is set to 100 points. In addition, the score when the character string extracted from the image of the identity verification document and the character string of the identification keyword partially match is {(the number of matching characters / the number of characters of the identification keyword) × 100} points. For example, when the score indicating the degree of matching between the character string extracted from the image of the driver's license and the character string of each identification keyword in the document identification table 291 is calculated, the score of each identification keyword of document No. = 1 becomes 100 points. The values are close to each other, and the scores of each identification keyword of other document numbers are low. Therefore, in the image recognition device 2 of the present embodiment, the document No. having the highest total score calculated for each document No. in the document identification table 291 is determined as the document No. indicating the identity verification document in the image.

書類No.を決定した後、画像認識装置2は、図4の書類種類テーブル292を参照し、決定した書類No.と対応する認識方式No.を読み出す。図4の書類種類テーブル292における認識方式No.は、図5の認識方式テーブル293における認識方式No.と対応している。すなわち、画像認識装置2は、書類種類テーブル292を参照して決定した認識方式No.と、認識方式テーブル293とに基づいて、画像内の本人確認書類の認識方式を選択する。例えば、図5の認識方式テーブル293では、認識方式No.=1の認識方式が無罫線キーワード認識となっている。このため、画像内の本人確認書類が書類No.=2の保険証であると識別した場合、画像認識装置2は、画像内の本人確認書類の認識方式として無罫線キーワード認識方式を選択する。また、例えば、画像内の本人確認書類が書類No.=1の免許証であると識別した場合、画像認識装置2は、画像内の本人確認書類の認識方式として位置固定認識方式を選択する。 After determining the document No., the image recognition device 2 refers to the document type table 292 of FIG. 4 and reads out the recognition method No. corresponding to the determined document No. The recognition method No. in the document type table 292 of FIG. 4 corresponds to the recognition method No. in the recognition method table 293 of FIG. That is, the image recognition device 2 selects the recognition method of the identity verification document in the image based on the recognition method No. determined with reference to the document type table 292 and the recognition method table 293. For example, in the recognition method table 293 of FIG. 5, the recognition method of the recognition method No. 1 is non-ruled line keyword recognition. Therefore, when the identity verification document in the image is identified as the health insurance card of document No. 2, the image recognition device 2 selects the non-ruled line keyword recognition method as the recognition method of the identity verification document in the image. Further, for example, when the identity verification document in the image is identified as a driver's license of document No. 1, the image recognition device 2 selects the fixed position recognition method as the recognition method of the identity verification document in the image.

次に、図6を参照して認識項目キーワードテーブル295の内容と利用方法を説明する。認識項目キーワードテーブル295は、例えば、無罫線キーワード認識方式による文字認識を行う際の、画像内における文字認識を行う項目の見出し語の位置の特定に利用する。図6のように、認識項目キーワードテーブル295は、書類No.と、認識項目No.と、項目キーワードとを含む。書類No.は、書類種類テーブル292の書類No.と対応する。認識項目No.は、書類No.により特定される本人確認書類内の文字認識を行う項目を識別する番号である。項目キーワードは、本人確認書類から抽出した文字列のうちの文字認識を行う項目の見出し語である。なお、書類No.=2の保険証は、日本国内においては例えば各市区町村が発行しており、1つの項目についての見出し語が複数通り存在することもある。また、本人確認書類から文字列を抽出する際の抽出精度は100%ではないため、抽出した文字列内には、本人確認書類に記載された文字と類似した別の文字が含まれることがある。このため、認識項目キーワードテーブル295には、1つの認識項目No.についての項目キーワードを複数通り登録する。 Next, the contents and usage of the recognition item keyword table 295 will be described with reference to FIG. The recognition item keyword table 295 is used, for example, to specify the position of the headword of the item to be recognized in the image when character recognition is performed by the ruled line keyword recognition method. As shown in FIG. 6, the recognition item keyword table 295 includes a document No., a recognition item No., and an item keyword. The document No. corresponds to the document No. of the document type table 292. The recognition item No. is a number that identifies an item for character recognition in the identity verification document specified by the document No. The item keyword is a headword of an item for character recognition in a character string extracted from an identity verification document. The insurance card with document No. 2 is issued by each municipality in Japan, for example, and there may be multiple headwords for one item. In addition, since the extraction accuracy when extracting a character string from an identity verification document is not 100%, the extracted character string may contain another character similar to the character described in the identity verification document. .. Therefore, a plurality of item keywords for one recognition item No. are registered in the recognition item keyword table 295.

例えば、図6の認識項目キーワードテーブル295における認識項目No.=1は、被保険者に割り当てられる番号を示す項目である。保険証において被保険者に割り当てられる番号を示す項目の見出しは、例えば、単に「番号」と記載されている場合もあれば、「被保険者番号」と記載されている場合もある。更に、保険証の画像から「番号」という文字列を抽出する際には、例えば、誤って「番弓」と抽出されることもある。このため、図6の認識項目キーワードテーブル295には、認識項目No.=1の項目キーワードとして、「番号」、「被保険者番号」、及び「番弓」の3個のキーワードが登録されている。これにより、例えば、画像内の保険証に「被保険者番号」と記載されている場合や、「番号」と記載された文字列を誤って「番弓」と抽出した場合にも、被保険者に割り当てられる番号を示す見出し語の位置を特定することが可能となる。 For example, the recognition item No. = 1 in the recognition item keyword table 295 in FIG. 6 is an item indicating a number assigned to the insured person. The heading of the item indicating the number assigned to the insured person in the insurance card may be simply described as "number" or may be described as "insured person number", for example. Further, when extracting the character string "number" from the image of the health insurance card, for example, it may be mistakenly extracted as "banyu". Therefore, in the recognition item keyword table 295 of FIG. 6, three keywords of "number", "insured person number", and "banyu" are registered as item keywords of recognition item No. = 1. There is. As a result, for example, even if the insurance card in the image contains "insured person number" or the character string described as "number" is mistakenly extracted as "banyu", the insurance will be insured. It is possible to specify the position of the headword indicating the number assigned to the person.

また、図6の認識項目キーワードテーブル295には、例えば、認識項目No.=3の項目キーワードとして、「生年月日」、「誕生日」、「午年月日」、「生午月日」、「生年月月」、及び「生年日日」の6個のキーワードが登録されている。当該6個の項目キーワードのうち「午年月日」、「生午月日」、「生年月月」、及び「生年日日」の4個のキーワードは、「生年月日」の誤った抽出結果の例である。これにより、例えば、画像内の保険証における生年月日の見出し語が「誕生日」と記載されている場合にも、生年月日を示す見出し語の位置を特定することが可能となる。また、例えば、画像内の「生年月日」と記載された文字列を誤って「午年月日」或いは「生午月日」等と抽出した場合にも、生年月日を示す見出し語の位置を特定することが可能となる。 Further, in the recognition item keyword table 295 of FIG. 6, for example, "date of birth", "birthday", "day of the horse", "day of the horse" are set as the item keywords of the recognition item No. = 3. , "Date of birth", and "Date of birth" are registered. Of the six item keywords, the four keywords "date of birth", "date of birth", "date of birth", and "date of birth" were incorrectly extracted as "date of birth". An example of the result. As a result, for example, even when the headword of the date of birth in the insurance card in the image is described as "birthday", the position of the headword indicating the date of birth can be specified. In addition, for example, even if the character string described as "date of birth" in the image is mistakenly extracted as "date of birth" or "date of birth", the headword indicating the date of birth may be used. It is possible to specify the position.

更に、図6の認識項目キーワードテーブル295には、例えば、認識項目No.=5の項目キーワードとして、「性別」、「性I」、及び「性嗣」の3個のキーワードが登録されている。当該3個の項目キーワードのうち「性I」及び「性嗣」の2個のキーワードは、「性別」の誤った抽出結果の例である。これにより、例えば、画像内の「性別」と記載された文字列を誤って「性I」或いは「性嗣」等と抽出した場合にも、性別を示す見出し語の位置を特定することが可能となる。 Further, in the recognition item keyword table 295 of FIG. 6, for example, three keywords of "gender", "sex I", and "sex 嗣" are registered as item keywords of recognition item No. = 5. .. Of the three item keywords, the two keywords "gender I" and "gender" are examples of incorrect extraction results of "gender". This makes it possible to specify the position of the headword indicating gender even when the character string described as "gender" in the image is mistakenly extracted as "gender I" or "gender". It becomes.

次に、図7及び図8を参照して認識項目テーブル296及び認識カテゴリテーブル297の内容及び利用方法について説明する。認識項目テーブル296及び認識カテゴリテーブル297は、例えば、無罫線キーワード認識方式による文字認識を行った後の認識結果の補正に利用する。図7のように、認識項目テーブル296は、認識項目No.と、認識項目名と、認識カテゴリNo.と、桁数と、文字列間の距離閾値と、最終文字とを含む。認識項目No.は、図6の認識項目キーワードテーブル295の認識項目No.と対応する。認識項目名は、認識項目No.が示す認識項目の見出し語を識別する情報(名称)である。 Next, the contents and usage of the recognition item table 296 and the recognition category table 297 will be described with reference to FIGS. 7 and 8. The recognition item table 296 and the recognition category table 297 are used, for example, to correct the recognition result after character recognition is performed by the ruled line keyword recognition method. As shown in FIG. 7, the recognition item table 296 includes a recognition item No., a recognition item name, a recognition category No., a number of digits, a distance threshold between character strings, and a final character. The recognition item No. corresponds to the recognition item No. in the recognition item keyword table 295 of FIG. The recognition item name is information (name) that identifies the headword of the recognition item indicated by the recognition item No.

図7の認識項目テーブル296の認識カテゴリNo.は、認識項目名と対応する見出し語の右方又は下方に位置する、本人確認に利用可能な情報を示す文字列のカテゴリ(文字種)を識別する番号であり、図8の認識カテゴリテーブル297の認識カテゴリNo.と対応する。桁数は、本人確認に利用可能な情報を示す文字列の最大文字数を示す。文字列間の距離閾値(mm)は、認識項目の見出し語の右方又は下方に複数の文字列がある場合に、該複数の文字列が認識項目についての情報を含む文字列であると見做す文字列間の距離の最大値である。最終文字は、認識項目の見出し語の右方又は下方に記載された、本人確認に利用する情報(文字列)における最後の文字である。 The recognition category No. in the recognition item table 296 of FIG. 7 identifies a character string category (character type) that is located to the right or below the recognition item name and the corresponding headword and indicates information that can be used for identity verification. It is a number and corresponds to the recognition category No. of the recognition category table 297 in FIG. The number of digits indicates the maximum number of characters in a character string indicating information that can be used for identity verification. The distance threshold (mm) between character strings is considered to be a character string containing information about the recognition item when there are multiple character strings to the right or below the headword of the recognition item. It is the maximum value of the distance between the character strings. The final character is the last character in the information (character string) used for identity verification, which is written to the right or below the headword of the recognition item.

例えば、図7の認識項目テーブル296において、認識項目No.=1の認識項目(番号)の認識カテゴリNo.は2である。そして、図8の認識カテゴリテーブル297において、認識カテゴリNo.=2の認識するカテゴリ(文字種)は全カテゴリとなっている。また、認識項目No.=1の認識項目(番号)の文字列間の距離閾値は10mmとなっている。このため、画像認識装置2は、番号を示す見出し語の右方又は下方に複数の文字列が並んでおり、かつ文字列間の距離が閾値以内(10mm以内)である場合、該複数の文字列を結合して1つの文字列と見做す。ただし、認識項目No.=1の認識項目(番号)は、桁数が32であり、最終文字が不定である。このため、画像認識装置2は、番号を示す見出し語の右方又は下方に位置する文字列が33桁以上である場合、33桁目以降を削除する補正をする。 For example, in the recognition item table 296 of FIG. 7, the recognition category No. of the recognition item (number) of the recognition item No. = 1 is 2. Then, in the recognition category table 297 of FIG. 8, the recognition category (character type) of the recognition category No. 2 is all categories. Further, the distance threshold between the character strings of the recognition item (number) of the recognition item No. = 1 is 10 mm. Therefore, in the image recognition device 2, when a plurality of character strings are lined up to the right or below the heading word indicating a number and the distance between the character strings is within a threshold value (within 10 mm), the plurality of characters. Combine columns and regard them as one character string. However, the recognition item (number) of the recognition item No. = 1 has 32 digits and the final character is undefined. Therefore, when the character string located to the right or below the headword indicating the number has 33 digits or more, the image recognition device 2 makes a correction to delete the 33rd and subsequent digits.

また、例えば、認識項目No.=4の認識項目(生年月日の年月日)の認識カテゴリNo.は1である。そして、図8の認識カテゴリテーブル297において、認識カテゴリNo.=1の認識するカテゴリ(文字種)は数字となっている。また、認識項目No.=4の認識項目(番号)の文字列間の距離閾値は10mmとなっている。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に数字のみの文字列が複数個並んでおり、かつ文字列間の距離が閾値以内(10mm以内)である場合、該複数個の文字列を結合して1つの文字列と見做す。ただし、認識項目No.=4の認識項目(生年月日)の桁数は8である。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に位置する文字列が9桁以上である場合には9桁目以降を削除する補正をする。また、認識項目No.=4の認識項目(生年月日)の最終文字は「日」である。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に位置する文字列が8桁以下であっても、文字列内に「日」が含まれる場合には、該文字列の「日」よりも右方の桁を削除する補正をする。 Further, for example, the recognition category No. of the recognition item (date of birth) of the recognition item No. = 4 is 1. Then, in the recognition category table 297 of FIG. 8, the recognition category (character type) of the recognition category No. 1 is a number. Further, the distance threshold between the character strings of the recognition item (number) of the recognition item No. = 4 is 10 mm. Therefore, in the image recognition device 2, when a plurality of character strings containing only numbers are lined up to the right or below the headword indicating the date of birth, and the distance between the character strings is within the threshold value (within 10 mm). , The plurality of character strings are combined and regarded as one character string. However, the number of digits of the recognition item (date of birth) of the recognition item No. = 4 is 8. Therefore, when the character string located to the right or below the headword indicating the date of birth has 9 or more digits, the image recognition device 2 makes a correction to delete the 9th and subsequent digits. In addition, the final character of the recognition item (date of birth) of recognition item No. = 4 is "day". Therefore, even if the character string located to the right or below the headword indicating the date of birth is 8 digits or less, the image recognition device 2 includes "day" in the character string. Make a correction to delete the digit to the right of the "day" of the character string.

このように、本実施形態に係る画像認識装置2は、無罫線キーワード認識方式による文字認識をした後、認識項目テーブル296及び認識カテゴリテーブル297に基づいて、認識した文字列のうちの、本人確認に利用可能な情報とは異なる情報を示す部分を削除する補正をする。このため、認識する項目の見出しと本人確認に利用可能な情報との組が罫線で囲まれていない本人確認書類であっても、本人確認に利用可能な情報を適切に認識することが可能となる。 As described above, the image recognition device 2 according to the present embodiment recognizes characters by the ruled line keyword recognition method, and then confirms the identity of the recognized character strings based on the recognition item table 296 and the recognition category table 297. Make corrections to remove parts that show information that is different from the information available in. Therefore, even if the combination of the heading of the item to be recognized and the information that can be used for identity verification is not surrounded by a ruled line, it is possible to appropriately recognize the information that can be used for identity verification. Become.

次に、図9、図10、図11A及び図11B、図12、図13、図14、並びに図15A及び図15Bを参照して、本実施形態に係る画像認識装置2が行う処理を説明する。 Next, the process performed by the image recognition device 2 according to the present embodiment will be described with reference to FIGS. 9, 10, 11A and 11B, 12, 13, 14, and 15A and 15B. ..

図9は、画像認識装置が行う処理を説明するフローチャートである。
本実施形態の画像認識装置2は、起動した後、図9のように、本人確認書類の画像の読み取りを開始する読み取り開始命令が入力されるまで待機する(ステップS1)。読み取り開始命令は、例えば、画像認識装置2に接続された入力装置4及びスキャナ装置3のいずれかから入力される。
FIG. 9 is a flowchart illustrating a process performed by the image recognition device.
After the image recognition device 2 of the present embodiment is started, as shown in FIG. 9, it waits until a reading start command for starting reading an image of an identity verification document is input (step S1). The reading start command is input from, for example, either the input device 4 or the scanner device 3 connected to the image recognition device 2.

読み取り開始命令の入力を受け付けると、画像認識装置2は、本人確認書類の画像を読み取り(取得し)、該画像内の本人確認に利用する項目の文字認識をするアプリケーション処理(ステップS2)を行う。ステップS2のアプリケーション処理の内容については後述する。 Upon receiving the input of the reading start command, the image recognition device 2 reads (acquires) the image of the identity verification document, and performs application processing (step S2) for character recognition of the item used for identity verification in the image. .. The content of the application process in step S2 will be described later.

アプリケーション処理を終えると、画像認識装置2は、表示装置5に認識結果を表示させる(ステップS3)。ステップS3において、画像認識装置2は、例えば、本人確認書類の画像、種類、本人確認に利用する項目の文字列(認識結果)を含む画面データを作成して表示装置5に表示させる。また、ステップS3では、画像認識装置2は、例えば、オペレータによる認識結果に対する修正を受け付け可能な状態となる。 When the application processing is completed, the image recognition device 2 causes the display device 5 to display the recognition result (step S3). In step S3, the image recognition device 2 creates screen data including, for example, an image of an identity verification document, a type, and a character string (recognition result) of an item used for identity verification, and displays the screen data on the display device 5. Further, in step S3, the image recognition device 2 is in a state where, for example, the image recognition device 2 can accept corrections to the recognition result by the operator.

認識結果を表示した後、画像認識装置2は、認識結果を修正するか否かを判定する(ステップS4)。ステップS4は、例えば、オペレータによる認識結果を修正するか否かの選択を受け付ける処理とする。オペレータが修正することを選択した場合(ステップS4;YES)、画像認識装置2は、修正情報の入力を受け付け、認識結果を修正する(ステップS5)。認識結果の修正が完了すると、画像認識装置2は、認識結果をサーバ装置6に送信する(ステップS6)。また、オペレータが修正しないことを選択した場合(ステップS4;NO)、画像認識装置2は、ステップS5の処理を省略し、認識結果をサーバ装置6に送信する。 After displaying the recognition result, the image recognition device 2 determines whether or not to correct the recognition result (step S4). Step S4 is, for example, a process of accepting the operator's selection of whether or not to modify the recognition result. When the operator chooses to modify (step S4; YES), the image recognition device 2 accepts the input of the modification information and modifies the recognition result (step S5). When the correction of the recognition result is completed, the image recognition device 2 transmits the recognition result to the server device 6 (step S6). If the operator chooses not to modify (step S4; NO), the image recognition device 2 omits the process of step S5 and transmits the recognition result to the server device 6.

ステップS6の処理を終えると、画像認識装置2は、1枚の本人確認書類の画像に対する認識処理を終了する。その後、画像認識装置2は、読み取り開始命令が入力されるまで待機する(ステップS1)。 When the process of step S6 is completed, the image recognition device 2 ends the recognition process for the image of one identity verification document. After that, the image recognition device 2 waits until the reading start command is input (step S1).

次に、ステップS2のアプリケーション処理の内容について説明する。本実施形態の画像認識装置2は、アプリケーション処理として、例えば、図10のフローチャートに沿った処理を行う。 Next, the contents of the application processing in step S2 will be described. The image recognition device 2 of the present embodiment performs, for example, a process according to the flowchart of FIG. 10 as an application process.

図10は、一実施形態に係るアプリケーション処理の内容を説明するフローチャートである。 FIG. 10 is a flowchart illustrating the contents of the application process according to the embodiment.

アプリケーション処理を開始すると、画像認識装置2は、図10のように、まず、本人確認書類の画像を取得する(ステップS11)。ステップS11の処理は、例えば、スキャナ制御部201が行う。スキャナ制御部201は、スキャナ装置3から本人確認書類の画像(デジタルデータ)を取得する。 When the application process is started, the image recognition device 2 first acquires an image of the identity verification document as shown in FIG. 10 (step S11). The processing of step S11 is performed by, for example, the scanner control unit 201. The scanner control unit 201 acquires an image (digital data) of an identity verification document from the scanner device 3.

次に、画像認識装置2は、取得した画像の背景地模様を除去した後、該画像を2値化する(ステップS12)。ステップS12の処理は、例えば、主制御部209が行う。主制御部209は、画像処理の分野における既知の方法に従って本人確認書類の画像から背景地模様を除去し、背景地模様を除去した画像を2値化する。背景地模様を除去した画像を2値化する際には、主制御部209は、画像内の画素を、文字及び罫線を示す画素と、それ以外の画素とに分別する。 Next, the image recognition device 2 removes the background pattern of the acquired image and then binarizes the image (step S12). The process of step S12 is performed by, for example, the main control unit 209. The main control unit 209 removes the background pattern from the image of the identity verification document according to a known method in the field of image processing, and binarizes the image from which the background pattern has been removed. When binarizing an image from which the background pattern has been removed, the main control unit 209 separates the pixels in the image into pixels showing characters and ruled lines and pixels other than the pixels.

次に、画像認識装置2は、2値化した画像全体を対象とする文字認識を行う(ステップS13)。ステップS13の処理は、例えば、主制御部209が行う。主制御部209は、例えば、画像処理の分野における既知の方法に従って2値化した画像内の文字を認識する。 Next, the image recognition device 2 performs character recognition for the entire binarized image (step S13). The process of step S13 is performed by, for example, the main control unit 209. The main control unit 209 recognizes characters in the image binarized according to a method known in the field of image processing, for example.

次に、画像認識装置2は、ステップS13の文字認識の結果に基づいて、2値化した画像全体から文字列を抽出する(ステップS14)。ステップS14の処理は、例えば、主制御部209が行う。主制御部209は、例えば、2値化した画像内の複数の文字のうち、横方向に並んでおり、かつ文字同士の距離が閾値以内となる複数の文字の組を1つの文字列として抽出する。 Next, the image recognition device 2 extracts a character string from the entire binarized image based on the result of character recognition in step S13 (step S14). The process of step S14 is performed by, for example, the main control unit 209. The main control unit 209 extracts, for example, a set of a plurality of characters arranged in the horizontal direction and having a distance between the characters within the threshold value as one character string among a plurality of characters in the binarized image. do.

次に、画像認識装置2は、2値化した画像から抽出した文字列と、書類識別テーブル291とに基づいて、画像内の本人確認書類の種類を識別する本人確認書類識別処理(ステップS15)を行う。ステップS15の処理は、書類種類識別部202が行う。書類種類識別部202は、画像から抽出した文字列毎に、該文字列の位置と書類識別テーブル291の識別キーワードの位置とを比較し、位置が略一致する識別キーワードと文字列との一致度を示す得点を算出する。その後、書類種類識別部202は、算出した得点に基づいて、画像内の本人確認書類の種類を識別する。ステップS15の処理の詳細な内容は、後述する。 Next, the image recognition device 2 identifies the type of the identity verification document in the image based on the character string extracted from the binarized image and the document identification table 291 (step S15). I do. The processing of step S15 is performed by the document type identification unit 202. The document type identification unit 202 compares the position of the character string with the position of the identification keyword in the document identification table 291 for each character string extracted from the image, and the degree of matching between the identification keyword and the character string whose positions substantially match. Calculate the score indicating. After that, the document type identification unit 202 identifies the type of the identity verification document in the image based on the calculated score. The detailed contents of the process of step S15 will be described later.

本人確認書類識別処理を終えると、画像認識装置2は、次に、画像内の本人確認書類の種類を識別することができたか否かを判定する(ステップS16)。ステップS16の判定は、書類種類識別部202が行う。識別することができなかった場合(ステップS16;NO)、書類種類識別部202は、ステップS17~S21の処理を省略し、文字認識の結果を主制御部209に返却する(ステップS22)。識別することができなかった場合(ステップS16;NO)、書類種類識別部202は、ステップS22の処理において、例えば、画像内の本人確認書類の種類を識別することができなかったことを示す情報を、文字認識の結果として主制御部209に返却する。ステップS22の処理を終えると、画像認識装置2は、アプリケーション処理を終了し、認識結果を表示装置5に表示させる(図9のステップS3)。 After completing the identity verification document identification process, the image recognition device 2 next determines whether or not the type of the identity verification document in the image can be identified (step S16). The determination in step S16 is performed by the document type identification unit 202. If the identification cannot be performed (step S16; NO), the document type identification unit 202 omits the processing of steps S17 to S21 and returns the character recognition result to the main control unit 209 (step S22). If the identification could not be made (step S16; NO), the document type identification unit 202 indicates that the type of the identity verification document in the image could not be identified in the process of step S22, for example. Is returned to the main control unit 209 as a result of character recognition. When the process of step S22 is completed, the image recognition device 2 ends the application process and causes the display device 5 to display the recognition result (step S3 in FIG. 9).

一方、識別することができた場合(ステップS16;YES)、画像認識装置2は、次に、書類種類テーブル292及び認識方式テーブル293に基づいて、文字認識の認識方式を決定する(ステップS17)。ステップS17の処理は、例えば、書類種類識別部202と認識方式選択部203とが連携して行う。書類種類識別部202は、本人確認書類の識別結果(書類No.の値)と書類種類テーブル292とに基づいて認識方式No.を特定し、主制御部209を介して、該認識方式No.を認識方式選択部203に通知する。認識方式選択部203は、認識方式テーブル293を参照し、通知された認識方式No.と対応付けられた認識方式を、現在処理の対象となっている画像に対する文字認識の認識方式に決定する。 On the other hand, if it can be identified (step S16; YES), the image recognition device 2 then determines the recognition method for character recognition based on the document type table 292 and the recognition method table 293 (step S17). .. For example, the document type identification unit 202 and the recognition method selection unit 203 cooperate with each other in the process of step S17. The document type identification unit 202 identifies the recognition method No. based on the identification result (value of the document No.) of the identity verification document and the document type table 292, and the recognition method No. is passed through the main control unit 209. Is notified to the recognition method selection unit 203. The recognition method selection unit 203 refers to the recognition method table 293 and determines the recognition method associated with the notified recognition method No. as the recognition method for character recognition for the image currently being processed.

次に、画像認識装置2は、ステップS17で決定した認識方式が位置固定認識方式、キーワード認識方式、及び無罫線キーワード認識方式のいずれであるかを判定する(ステップS18)。ステップS18の判定は、例えば、項目位置特定部204が行う。ステップS17で決定した認識方式が位置固定認識方式である場合(ステップS18;位置固定認識)、画像認識装置2は、位置固定認識方式による文字認識処理(ステップS19)を行う。ステップS19の文字認識処理は、例えば、項目位置特定部204の位置固定認識部211と文字認識部206とが連携して行う。位置固定認識部211は、位置固定認識テーブル294を参照して画像内の文字認識を行う項目(文字列)の位置を特定する。文字認識部206は、活字文字認識辞書298を参照し、位置を特定した項目(文字列)の文字認識を行う。文字認識を行う項目の位置を特定する方法、及び文字認識の方法は、それぞれ、画像認識の分野における既知の方法でよい。ステップS19の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。 Next, the image recognition device 2 determines whether the recognition method determined in step S17 is a fixed position recognition method, a keyword recognition method, or a non-ruled line keyword recognition method (step S18). The determination in step S18 is performed by, for example, the item position specifying unit 204. When the recognition method determined in step S17 is a fixed position recognition method (step S18; fixed position recognition), the image recognition device 2 performs character recognition processing (step S19) by the fixed position recognition method. The character recognition process in step S19 is performed by, for example, the position fixing recognition unit 211 of the item position specifying unit 204 and the character recognition unit 206 in cooperation with each other. The fixed position recognition unit 211 specifies the position of an item (character string) for character recognition in the image with reference to the fixed position recognition table 294. The character recognition unit 206 refers to the print character recognition dictionary 298 and performs character recognition of an item (character string) whose position is specified. The method of specifying the position of the item for character recognition and the method of character recognition may be known methods in the field of image recognition, respectively. When the process of step S19 is completed, the character recognition unit 206 returns the result of character recognition to the main control unit 209 (step S22), and ends the application process.

ステップS17で決定した認識方式がキーワード認識方式である場合(ステップS18;キーワード認識)、画像認識装置2は、キーワード認識方式による文字認識処理(ステップS20)を行う。ステップS20の文字認識処理は、例えば、項目位置特定部204のキーワード認識部212と文字認識部206とが連携して行う。キーワード認識部212は、例えば、認識項目キーワードテーブル295を参照して画像内の文字認識を行う項目の見出し語の位置を特定し、該見出し語の位置と罫線とに基づいて文字認識を行う範囲を特定する。文字認識部206は、活字文字認識辞書298を参照し、特定した範囲内の文字認識を行う。文字認識を行う範囲を特定する方法、及び文字認識の方法は、それぞれ、画像認識の分野における既知の方法でよい。ステップS20の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。 When the recognition method determined in step S17 is the keyword recognition method (step S18; keyword recognition), the image recognition device 2 performs character recognition processing (step S20) by the keyword recognition method. The character recognition process in step S20 is performed, for example, by the keyword recognition unit 212 of the item position specifying unit 204 and the character recognition unit 206 in cooperation with each other. The keyword recognition unit 212 specifies, for example, the position of the headword of the item to be recognized in the image by referring to the recognition item keyword table 295, and the range in which the character recognition is performed based on the position of the headword and the ruled line. To identify. The character recognition unit 206 refers to the type character recognition dictionary 298 and recognizes characters within the specified range. The method for specifying the range for character recognition and the method for character recognition may be known methods in the field of image recognition, respectively. When the process of step S20 is completed, the character recognition unit 206 returns the result of character recognition to the main control unit 209 (step S22), and ends the application process.

ステップS17で決定した認識方式が無罫線キーワード認識方式である場合(ステップS18;無罫線キーワード認識)、画像認識装置2は、無罫線キーワード認識方式による文字認識処理(ステップS21)を行う。ステップS21の文字認識処理は、例えば、項目位置特定部204の無罫線キーワード認識部213と、文字認識部206と、認識結果補正部205とが連携して行う。無罫線キーワード認識部213は、例えば、認識項目キーワードテーブル295を参照して画像内の文字認識を行う項目の見出し語の位置を特定し、該見出し語の右方又は下方を、文字認識を行う範囲とする。文字認識部206は、活字文字認識辞書298を参照し、特定した範囲の文字認識を行う。認識結果補正部205は、文字認識の結果に含まれる本人確認に利用しない情報を削除する補正を行う。無罫線キーワード認識方式による文字認識処理(ステップS21)の詳細は、後述する。ステップS21の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。 When the recognition method determined in step S17 is the ruled line keyword recognition method (step S18; ruled line keyword recognition), the image recognition device 2 performs character recognition processing (step S21) by the ruled line keyword recognition method. The character recognition process in step S21 is performed by, for example, the non-ruled line keyword recognition unit 213 of the item position specifying unit 204, the character recognition unit 206, and the recognition result correction unit 205 in cooperation with each other. The non-ruled line keyword recognition unit 213 specifies, for example, the position of the headword of the item to be recognized in the image with reference to the recognition item keyword table 295, and performs character recognition on the right side or the lower side of the headword. The range. The character recognition unit 206 refers to the type character recognition dictionary 298 and performs character recognition in a specified range. The recognition result correction unit 205 corrects the information included in the character recognition result that is not used for identity verification. The details of the character recognition process (step S21) by the non-ruled line keyword recognition method will be described later. When the process of step S21 is completed, the character recognition unit 206 returns the result of character recognition to the main control unit 209 (step S22), and ends the application process.

このように、アプリケーション処理では、画像認識装置2は、本人確認書類の画像から抽出した文字列と書類識別テーブル291とに基づいて本人確認書類の種類を識別し、識別結果に基づいて文字認識の認識方式を決定する。画像認識装置2は、本人確認書類の種類を識別する本人確認書類識別処理(ステップS15)として、例えば、図11A及び図11Bのフローチャートに沿った処理を行う。 As described above, in the application processing, the image recognition device 2 identifies the type of the identity verification document based on the character string extracted from the image of the identity verification document and the document identification table 291 and performs character recognition based on the identification result. Determine the recognition method. The image recognition device 2 performs, for example, a process according to the flowcharts of FIGS. 11A and 11B as the identity verification document identification process (step S15) for identifying the type of the identity verification document.

図11Aは、本人確認書類識別処理の内容を説明するフローチャート(その1)である。図11Bは、本人確認書類識別処理の内容を説明するフローチャート(その2)である。 FIG. 11A is a flowchart (No. 1) for explaining the content of the identity verification document identification process. FIG. 11B is a flowchart (No. 2) for explaining the content of the identity verification document identification process.

本人確認書類識別処理を開始すると、画像認識装置2は、図11Aのように、まず、第1のループ処理(ステップS31~S39)を行う。第1のループ処理は、書類種類識別部202が行う。第1のループ処理は、2値化した画像から抽出した複数の文字列のそれぞれを、文字列毎に書類識別テーブル291の識別キーワードのそれぞれと位置及び文字列の文字の並びを比較し、識別キーワードのそれぞれに得点を設定する処理である。 When the identity verification document identification process is started, the image recognition device 2 first performs the first loop process (steps S31 to S39) as shown in FIG. 11A. The first loop process is performed by the document type identification unit 202. In the first loop processing, each of the plurality of character strings extracted from the binarized image is identified by comparing the position and the character sequence of the character string with each of the identification keywords in the document identification table 291 for each character string. It is a process to set a score for each of the keywords.

第1のループ処理の始端(ステップS31)において、書類種類識別部202は、2値化した画像から抽出した複数の文字列のうちの1つを選択する。 At the beginning of the first loop process (step S31), the document type identification unit 202 selects one of a plurality of character strings extracted from the binarized image.

次に、書類種類識別部202は、選択した文字列と、書類識別テーブル291の識別キーワードのそれぞれの位置及び文字列の文字の並びとを比較し、識別キーワードのそれぞれに得点を設定する第2のループ処理(ステップS32~S38)を行う。 Next, the document type identification unit 202 compares the selected character string with the position of each of the identification keywords in the document identification table 291 and the sequence of characters in the character string, and sets a score for each of the identification keywords. Loop processing (steps S32 to S38) is performed.

第2のループ処理の始端(ステップS32)において、書類種類識別部202は、書類識別テーブル291内の1レコード(1行)を選択して読み出す。 At the beginning of the second loop process (step S32), the document type identification unit 202 selects and reads one record (one line) in the document identification table 291.

次に、書類種類識別部202は、現在選択されている文字列の画像内での位置(範囲)を示す座標が、書類識別テーブル291内の現在選択されているレコードの座標内に収まっているか否かを判定する(ステップS33)。例えば、図3の書類識別テーブル291内の1行目のレコードが選択されている場合、書類種類識別部202は、現在選択されている文字列の画像内での位置(範囲)を示す座標が、(X1,Y1)を左上角部とし(X2,Y2)を右下角部とする矩形領域内に収まっているか否かを判定する。収まっていない場合(ステップS33;NO)、書類種類識別部202は、ステップS34~S37の処理を省略し、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS32以降の処理を繰り返す。全てのレコードが選択済みである場合、書類種類識別部202は、第2のループ処理を終了する。 Next, the document type identification unit 202 indicates whether the coordinates indicating the position (range) of the currently selected character string in the image are within the coordinates of the currently selected record in the document identification table 291. It is determined whether or not (step S33). For example, when the record in the first row in the document identification table 291 of FIG. 3 is selected, the document type identification unit 202 has coordinates indicating the position (range) of the currently selected character string in the image. , (X1, Y1) is the upper left corner portion, and (X2, Y2) is the lower right corner portion. If it does not fit (step S33; NO), the document type identification unit 202 omits the processing of steps S34 to S37, and determines whether or not there is an unselected record at the end of the second loop processing (step S38). judge. If there is an unselected record, the document type identification unit 202 repeats the processes after step S32. If all the records have been selected, the document type identification unit 202 ends the second loop process.

ここで、ステップS33の判定についての説明に戻る。現在選択されている文字列の座標が現在選択されているレコードの座標内に収まっている場合(ステップS33;YES)、書類種類識別部202は、次に、書類識別テーブル291の現在選択されているレコードの識別キーワードと現在選択されている文字列との文字の並びが一致するか否かを判定する(ステップS34)。文字の並びが一致している場合(ステップS34;YES)、書類種類識別部202は、書類識別テーブル291の現在選択されているレコードの得点に100点を設定する(ステップS35)。ステップS35の処理を終えると、書類種類識別部202は、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。 Here, the process returns to the description of the determination in step S33. If the coordinates of the currently selected character string are within the coordinates of the currently selected record (step S33; YES), the document type identification unit 202 is then currently selected in the document identification table 291. It is determined whether or not the character sequence of the identification keyword of the existing record and the currently selected character string match (step S34). When the character arrangements match (step S34; YES), the document type identification unit 202 sets 100 points for the score of the currently selected record in the document identification table 291 (step S35). When the process of step S35 is completed, the document type identification unit 202 determines whether or not there is an unselected record at the end of the second loop process (step S38).

これに対し、文字の並びが一致していない場合(ステップS34;NO)、書類種類識別部202は、次に、書類識別テーブル291の現在選択されているレコードの識別キーワードと現在選択されている文字列との文字の並びが部分一致するか否かを判定する(ステップS36)。文字の並びが部分一致している場合(ステップS36;YES)、書類種類識別部202は、書類識別テーブル291の現在選択されているレコードの得点に{(一致した文字数/識別キーワードの文字数)×100}点を設定する(ステップS37)。ステップS37の処理を終えると、書類種類識別部202は、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。また、文字の並びが部分一致もしていない場合(ステップS36;NO)、書類種類識別部202は、ステップS37の処理を省略し、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。 On the other hand, when the character arrangements do not match (step S34; NO), the document type identification unit 202 is next selected as the identification keyword of the currently selected record in the document identification table 291. It is determined whether or not the arrangement of characters with the character string partially matches (step S36). When the character arrangements are partially matched (step S36; YES), the document type identification unit 202 sets the score of the currently selected record in the document identification table 291 to {(number of matching characters / number of characters of identification keyword) ×. The 100} point is set (step S37). When the process of step S37 is completed, the document type identification unit 202 determines whether or not there is an unselected record at the end of the second loop process (step S38). Further, when the character arrangement does not partially match (step S36; NO), the document type identification unit 202 omits the process of step S37, and the unselected record at the end of the second loop process (step S38). Determine if there is.

第2のループ処理の終端(ステップS38)では、書類種類識別部202は、例えば、書類識別テーブル291内に、現在行っている第2のループ処理において未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS32以降の処理を繰り返す。一方、全てのレコードが選択済みである場合、書類種類識別部202は、第2のループ処理を終了する。 At the end of the second loop processing (step S38), the document type identification unit 202 indicates, for example, whether or not there is an unselected record (row) in the document identification table 291 in the second loop processing currently being performed. Is determined. If there is an unselected record, the document type identification unit 202 repeats the processes after step S32. On the other hand, when all the records have been selected, the document type identification unit 202 ends the second loop process.

第2のループ処理(ステップS32~S38)を終了すると、書類種類識別部202は、次に、第1のループ処理の終端(ステップS39)において、画像から抽出した文字列のなかに未選択の文字列があるか否かを判定する。未選択の文字列がある場合、書類種類識別部202は、ステップS31以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、書類種類識別部202は、第1のループ処理(ステップS31~S39)を終了する。 When the second loop processing (steps S32 to S38) is completed, the document type identification unit 202 is then selected from the character strings extracted from the image at the end of the first loop processing (step S39). Determine if there is a string. If there is an unselected character string, the document type identification unit 202 repeats the processes after step S31. On the other hand, when all the character strings have been selected, the document type identification unit 202 ends the first loop process (steps S31 to S39).

第1のループ処理を終了すると、書類種類識別部202は、次に、図11Bのように、最大得点を初期化し(ステップS40)、最大得点の本人確認書類を示す書類No.を初期化する(ステップS41)。最大得点、及び最大得点の本人確認書類を示す書類No.は、例えば、記憶部290に含まれるバッファ(図示せず)に格納されている。書類種類識別部202は、バッファに格納された最大得点、及び書類No.の値を所定の値(例えば0)に設定する。 When the first loop process is completed, the document type identification unit 202 then initializes the maximum score (step S40) and initializes the document No. indicating the identity verification document with the maximum score, as shown in FIG. 11B. (Step S41). The document No. indicating the maximum score and the identity verification document with the maximum score is stored in, for example, a buffer (not shown) included in the storage unit 290. The document type identification unit 202 sets the maximum score stored in the buffer and the value of the document No. to predetermined values (for example, 0).

次に、書類種類識別部202は、第3のループ処理(ステップS42~S51)を行う。第3のループ処理は、書類種類テーブル292に登録された本人確認書類毎に、書類識別テーブル291の得点の合計(総得点)を算出し、総得点が最大となる本人確認書類を決定する処理である。 Next, the document type identification unit 202 performs a third loop process (steps S42 to S51). The third loop process is a process of calculating the total score (total score) of the document identification table 291 for each identity verification document registered in the document type table 292 and determining the identity verification document having the maximum total score. Is.

第3のループ処理の始端(ステップS42)において、書類種類識別部202は、書類種類テーブル292内の1レコード(1行)を選択して読み出す。 At the beginning of the third loop process (step S42), the document type identification unit 202 selects and reads one record (one row) in the document type table 292.

次に、書類種類識別部202は、選択したレコードに含まれる書類No.と対応付けられた総得点を初期化する(ステップS43)。書類No.と対応付けられた総得点は、例えば、記憶部290に含まれるバッファ(図示せず)に格納されている。書類種類識別部202は、バッファに格納された総得点を0にする。 Next, the document type identification unit 202 initializes the total score associated with the document No. included in the selected record (step S43). The total score associated with the document No. is stored in, for example, a buffer (not shown) included in the storage unit 290. The document type identification unit 202 sets the total score stored in the buffer to 0.

次に、書類種類識別部202は、書類識別テーブル291における、現在選択されている書類No.のレコードの得点の合計(総得点)を算出する第4のループ処理(ステップS44~S47)を行う。 Next, the document type identification unit 202 performs a fourth loop process (steps S44 to S47) for calculating the total score (total score) of the records of the currently selected document No. in the document identification table 291. ..

第4のループ処理の始端(ステップS44)において、書類種類識別部202は、書類識別テーブル291内の1レコード(1行)を選択して読み出す。 At the beginning of the fourth loop process (step S44), the document type identification unit 202 selects and reads one record (one line) in the document identification table 291.

次に、書類種類識別部202は、現在選択されている書類種類テーブル292内のレコードに含まれる書類No.と、現在選択されている書類識別テーブル291内のレコードに含まれる書類No.とが一致するか否かを判定する(ステップS45)。一致する場合(ステップS45;YES)、書類種類識別部202は、総得点に現在選択されている書類識別テーブル291内のレコードの得点を加算する(ステップS46)。ステップS46の処理の後、書類種類識別部202は、第4のループ処理の終端(ステップS47)において、書類識別テーブル291内に未選択のレコードがあるか否かを判定する。また、書類No.が一致しない場合(ステップS45;NO)、書類種類識別部202は、ステップS46の処理を省略し、第4のループ処理の終端(ステップS47)において、書類識別テーブル291内に未選択のレコードがあるか否かを判定する。書類識別テーブル291内に未選択のレコードがある場合、書類種類識別部202は、ステップS44以降の処理を繰り返す。そして、書類識別テーブル291内のレコードが全て選択済みである場合、書類種類識別部202は、第4のループ処理(ステップS44~S47)を終了する。 Next, the document type identification unit 202 determines the document No. included in the record in the currently selected document type table 292 and the document No. included in the record in the currently selected document identification table 291. It is determined whether or not they match (step S45). If they match (step S45; YES), the document type identification unit 202 adds the score of the record in the currently selected document identification table 291 to the total score (step S46). After the processing of step S46, the document type identification unit 202 determines whether or not there is an unselected record in the document identification table 291 at the end of the fourth loop processing (step S47). If the document numbers do not match (step S45; NO), the document type identification unit 202 omits the process of step S46 and enters the document identification table 291 at the end of the fourth loop process (step S47). Determine if there are unselected records. If there is an unselected record in the document identification table 291, the document type identification unit 202 repeats the processes after step S44. Then, when all the records in the document identification table 291 have been selected, the document type identification unit 202 ends the fourth loop process (steps S44 to S47).

第4のループ処理を終えると、書類種類識別部202は、次に、第4のループ処理で算出した総得点が現在の最大得点よりも大きいか否かを判定する(ステップS48)。総得点>最大得点の場合(ステップS48;YES)、書類種類識別部202は、最大得点の本人確認書類を示す書類No.に、書類種類テーブル292内の現在選択されているレコードに含まれる書類No.を設定する(ステップS49)。その後、書類種類識別部202は、最大得点に第4のループ処理で算出した総得点を設定する(ステップS50)。 After finishing the fourth loop process, the document type identification unit 202 then determines whether or not the total score calculated in the fourth loop process is larger than the current maximum score (step S48). When the total score> the maximum score (step S48; YES), the document type identification unit 202 sets the document No. indicating the identity verification document with the maximum score to the document included in the currently selected record in the document type table 292. No. is set (step S49). After that, the document type identification unit 202 sets the total score calculated in the fourth loop process as the maximum score (step S50).

ステップS49及びS50の処理を終えると、書類種類識別部202は、第3のループ処理の終端(ステップS51)において、書類種類テーブル292内に未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS42以降の処理を繰り返す。そして、全てのレコードが選択済みである場合、書類種類識別部202は、第3のループ処理(ステップS42~S51)を終了する。第3のループ処理を終了すると、書類種類識別部202は、最大得点の本人確認書類を示す書類No.を主制御部209に返却し(ステップS52)、本人確認書類識別処理を終了する。 After completing the processes of steps S49 and S50, the document type identification unit 202 determines whether or not there is an unselected record (row) in the document type table 292 at the end of the third loop process (step S51). do. If there is an unselected record, the document type identification unit 202 repeats the processes after step S42. Then, when all the records have been selected, the document type identification unit 202 ends the third loop process (steps S42 to S51). When the third loop process is completed, the document type identification unit 202 returns the document No. indicating the identity verification document with the maximum score to the main control unit 209 (step S52), and ends the identity verification document identification process.

このように、本人確認書類識別処理では、本人確認書類から抽出した文字列と、本人確認書類毎に定めた本人確認書類を識別可能な識別キーワードとの位置及び文字の並びの類似度を示す得点を算出し、該得点が最大となる本人確認書類を特定する。 In this way, in the identity verification document identification process, the score indicating the position and the similarity of the character arrangement between the character string extracted from the identity verification document and the identification keyword that can identify the identity verification document specified for each identity verification document. And identify the identity verification document that maximizes the score.

本人確認書類識別処理を終えると、画像認識装置2は、上記のように、本人確認書類の識別結果に基づいて文字認識の認識方式を決定し(ステップS17)、決定した認識方法に従った文字認識処理(ステップS19、S20、及びS21のいずれか)を行う。位置固定認識方式による文字認識処理(ステップS19)、及びキーワード認識方式による文字認識処理(ステップS20)は、それぞれ、既知の文字認識処理に従って行えばよい。このため、本明細書では、ステップS19及びステップS20の文字認識処理の内容についての説明を省略する。一方、無罫線キーワード認識方式による文字認識処理(ステップS21)として、画像認識装置2は、例えば、図12のフローチャートに沿った処理を行う。 After completing the identity verification document identification process, the image recognition device 2 determines the character recognition recognition method based on the identification result of the identity verification document (step S17), and the characters according to the determined recognition method. The recognition process (one of steps S19, S20, and S21) is performed. The character recognition process by the fixed position recognition method (step S19) and the character recognition process by the keyword recognition method (step S20) may be performed according to known character recognition processes, respectively. Therefore, in the present specification, the description of the contents of the character recognition processing in steps S19 and S20 will be omitted. On the other hand, as the character recognition process (step S21) by the ruled line keyword recognition method, the image recognition device 2 performs the process according to the flowchart of FIG. 12, for example.

図12は、無罫線キーワード認識方式による文字認識処理の内容を説明するフローチャートである。 FIG. 12 is a flowchart illustrating the content of the character recognition process by the ruled line keyword recognition method.

無罫線キーワード認識方式による文字認識処理を開始すると、画像認識装置2は、図12のように、第1のループ処理(ステップS61~S69)を行う。第1のループ処理は、認識項目キーワードテーブル295における画像内の本人確認書類を示す書類No.のレコード毎に、該レコードの項目キーワードと対応する画像内の文字列(見出し文字列)の位置を特定し、該文字列の文字認識を行う処理である。 When the character recognition process by the ruled line keyword recognition method is started, the image recognition device 2 performs the first loop process (steps S61 to S69) as shown in FIG. In the first loop processing, the position of the character string (heading character string) in the image corresponding to the item keyword of the record is set for each record of the document No. indicating the identity verification document in the image in the recognition item keyword table 295. It is a process of specifying and recognizing the character of the character string.

第1のループ処理の始端(ステップS61)において、画像認識装置2は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。ステップS61の処理は、項目位置特定部204の無罫線キーワード認識部213が行う。 At the beginning of the first loop process (step S61), the image recognition device 2 selects and reads one record (one row) in the recognition item keyword table 295. The process of step S61 is performed by the non-ruled line keyword recognition unit 213 of the item position specifying unit 204.

次に、画像認識装置2は、文字認識を行う項目の画像内での位置を特定して文字認識を行い、認識結果の補正をする第2のループ処理(ステップS62~S68)を行う。 Next, the image recognition device 2 performs a second loop process (steps S62 to S68) of specifying the position of the item for character recognition in the image, performing character recognition, and correcting the recognition result.

第2のループ処理の始端(ステップS62)において、画像認識装置2は、本人確認書類の画像から抽出した文字列の1つを選択する。ステップS62の処理は、無罫線キーワード認識部213が行う。 At the beginning of the second loop process (step S62), the image recognition device 2 selects one of the character strings extracted from the image of the identity verification document. The process of step S62 is performed by the non-ruled line keyword recognition unit 213.

次に、無罫線キーワード認識部213は、現在選択されている認識項目キーワードテーブル295内の項目キーワードと、ステップS62で選択した文字列とが一致するか否かを判定する(ステップS63)。項目キーワードと文字列とが一致しない場合(ステップS63;NO)、無罫線キーワード認識部213は、ステップS64~S67の処理を省略し、第2のループ処理の終端(ステップS68)において未選択の文字列があるか否かを判定する。未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS62以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS62~S68)を終了する。 Next, the non-ruled line keyword recognition unit 213 determines whether or not the item keyword in the currently selected recognition item keyword table 295 matches the character string selected in step S62 (step S63). When the item keyword and the character string do not match (step S63; NO), the non-ruled line keyword recognition unit 213 omits the processing of steps S64 to S67 and is not selected at the end of the second loop processing (step S68). Determine if there is a character string. If there is an unselected character string, the non-ruled line keyword recognition unit 213 repeats the processes after step S62. On the other hand, when all the character strings have been selected, the ruled line keyword recognition unit 213 ends the second loop process (steps S62 to S68).

ここで、ステップS63の判定の説明に戻る。項目キーワードと文字列とが一致する場合(ステップS63;YES)、無罫線キーワード認識部213は、ステップS62で選択した、画像内の項目キーワードと一致する文字列(見出し文字列)の右方で、該文字列と対応する本人確認に利用可能な情報を示す文字列を探索する右方探索処理(ステップS64)を行う。右方探索処理の内容は、後述する。 Here, the process returns to the description of the determination in step S63. When the item keyword and the character string match (step S63; YES), the non-ruled line keyword recognition unit 213 is on the right side of the character string (heading character string) that matches the item keyword in the image selected in step S62. , Performs a right-hand search process (step S64) for searching for a character string indicating information that can be used for identity verification corresponding to the character string. The content of the right search process will be described later.

右方探索処理を終えると、無罫線キーワード認識部213は、項目キーワードと一致する文字列の右方に、該文字列と対応する本人確認に利用可能な情報を示す文字列があるか否かを判定する(ステップS65)。項目キーワードと一致する文字列の右方に該文字列と対応する文字列があった場合(ステップS65;YES)、無罫線キーワード認識部213は、文字認識部206及び認識結果補正部205と連携して、項目キーワードと一致する文字列と対応する文字列の文字認識及び認識結果の補正を含むデータ文字列補正処理(ステップS67)を行う。ステップS67のデータ文字列補正処理の内容は、後述する。 When the right-side search process is completed, the non-ruled line keyword recognition unit 213 determines whether or not there is a character string corresponding to the character string indicating information that can be used for identity verification to the right of the character string matching the item keyword. Is determined (step S65). When there is a character string corresponding to the character string on the right side of the character string matching the item keyword (step S65; YES), the non-ruled line keyword recognition unit 213 cooperates with the character recognition unit 206 and the recognition result correction unit 205. Then, a data character string correction process (step S67) including character recognition of the character string corresponding to the item keyword and correction of the recognition result is performed. The content of the data character string correction process in step S67 will be described later.

一方、項目キーワードと一致する文字列(見出し文字列)の右方に該文字列と対応する文字列がなかった場合(ステップS65;NO)、無罫線キーワード認識部213は、次に、画像内の項目キーワードと一致する文字列の下方で、該文字列と対応する本人確認に利用可能な情報を示す文字列を探索する下方探索処理(ステップS66)を行う。下方探索処理の内容は、後述する。ステップS66の下方探索処理を終えると、無罫線キーワード認識部213は、文字認識部206及び認識結果補正部205と連携して、データ文字列補正処理(ステップS67)を行う。ステップS67のデータ文字列補正処理の内容は、後述する。 On the other hand, when there is no character string corresponding to the character string on the right side of the character string (heading character string) matching the item keyword (step S65; NO), the non-ruled line keyword recognition unit 213 is then in the image. A downward search process (step S66) is performed to search for a character string indicating information that can be used for identity verification corresponding to the character string below the character string that matches the item keyword of. The content of the downward search process will be described later. When the downward search process in step S66 is completed, the non-ruled line keyword recognition unit 213 performs the data character string correction process (step S67) in cooperation with the character recognition unit 206 and the recognition result correction unit 205. The content of the data character string correction process in step S67 will be described later.

ステップS67のデータ文字列補正処理を終えると、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS68)において、未選択の文字列があるか否かを判定する。未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS62以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS62~S68)を終了する。 When the data character string correction process of step S67 is completed, the ruled line keyword recognition unit 213 determines whether or not there is an unselected character string at the end of the second loop process (step S68). If there is an unselected character string, the non-ruled line keyword recognition unit 213 repeats the processes after step S62. On the other hand, when all the character strings have been selected, the ruled line keyword recognition unit 213 ends the second loop process (steps S62 to S68).

第2のループ処理を終了すると、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS69)において、認識項目キーワードテーブル295内に未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、無罫線キーワード認識部213は、ステップS61以降の処理を繰り返す。認識項目キーワードテーブル295内の全てのレコードが選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS61~S69)を終了する。 When the second loop processing is completed, the non-ruled line keyword recognition unit 213 determines whether or not there is an unselected record (row) in the recognition item keyword table 295 at the end of the first loop processing (step S69). judge. If there is an unselected record, the non-ruled line keyword recognition unit 213 repeats the processes after step S61. When all the records in the recognition item keyword table 295 have been selected, the non-ruled line keyword recognition unit 213 ends the first loop processing (steps S61 to S69).

第1のループ処理を終了すると、例えば、無罫線キーワード認識部213は、全ての認識項目の認識結果を主制御部209に通知し(ステップS70)、無罫線キーワード認識方式による文字認識処理を終了する。 When the first loop processing is completed, for example, the non-ruled line keyword recognition unit 213 notifies the main control unit 209 of the recognition results of all the recognition items (step S70), and ends the character recognition processing by the non-ruled line keyword recognition method. do.

次に、図13を参照して右方探索処理(ステップS64)の内容を説明する。図13は、右方探索処理の内容を説明するフローチャートである。 Next, the contents of the right side search process (step S64) will be described with reference to FIG. FIG. 13 is a flowchart illustrating the contents of the right side search process.

右方探索処理を開始すると、無罫線キーワード認識部213は、図13のように、まず、見出し文字列の座標を取得する(ステップS81)。見出し文字列は、現在行っている右方探索処理における画像から抽出した文字列(図12のステップS62で選択された文字列)であり、図12のステップS61で選択した認識項目キーワードテーブル295のレコードに含まれる項目キーワードと一致する文字列である。 When the right-side search process is started, the non-ruled line keyword recognition unit 213 first acquires the coordinates of the heading character string as shown in FIG. 13 (step S81). The heading character string is a character string (character string selected in step S62 of FIG. 12) extracted from the image in the right-hand search process currently being performed, and is the recognition item keyword table 295 selected in step S61 of FIG. A character string that matches the item keyword contained in the record.

次に、無罫線キーワード認識部213は、見出し文字列の右方で該見出し文字列と対応するデータ文字列の候補(データ候補文字列)を探索する第1のループ処理(ステップS82~S85)を行う。 Next, the non-ruled line keyword recognition unit 213 is the first loop process (steps S82 to S85) of searching for a data character string candidate (data candidate character string) corresponding to the heading character string on the right side of the heading character string. I do.

第1のループ処理の始端(ステップS82)において、無罫線キーワード認識部213は、例えば、画像から抽出した文字列のうち見出し文字列よりも右方の文字列の1つを選択する。 At the beginning of the first loop process (step S82), the ruled line keyword recognition unit 213 selects, for example, one of the character strings to the right of the heading character string among the character strings extracted from the image.

次に、無罫線キーワード認識部213は、見出し文字列の高さの座標範囲に、ステップS82で選択した文字列の高さの座標範囲が含まれるか否かを判定する(ステップS83)。見出し文字列の高さの座標範囲に選択した文字列の高さの座標範囲が含まれる場合(ステップS83;YES)、無罫線キーワード認識部213は、選択した文字列をデータ候補文字列として保持する(ステップS84)。ステップS84の処理の後、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS85)において、未選択の文字列があるか否かを判定する。また、見出し文字列の高さの座標範囲に選択した文字列の高さの座標範囲が含まれない場合(ステップS83;NO)、無罫線キーワード認識部213は、ステップS84の処理を省略し、第1のループ処理の終端(ステップS85)において、未選択の文字列があるか否かを判定する。 Next, the non-ruled line keyword recognition unit 213 determines whether or not the coordinate range of the height of the heading character string includes the coordinate range of the height of the character string selected in step S82 (step S83). When the coordinate range of the height of the heading character string includes the coordinate range of the height of the selected character string (step S83; YES), the ruled line keyword recognition unit 213 holds the selected character string as a data candidate character string. (Step S84). After the processing of step S84, the non-ruled line keyword recognition unit 213 determines whether or not there is an unselected character string at the end of the first loop processing (step S85). Further, when the coordinate range of the height of the heading character string does not include the coordinate range of the height of the selected character string (step S83; NO), the ruled line keyword recognition unit 213 omits the process of step S84. At the end of the first loop processing (step S85), it is determined whether or not there is an unselected character string.

未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS82以降の処理を繰り返す。全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS82~S85)を終了し、次に、データ候補文字列があるか否かを判定する(ステップS86)。データ候補文字列がない場合(ステップS86;NO)、無罫線キーワード認識部213は、ステップS87以降の処理を省略し、右方探索処理を終了する。 If there is an unselected character string, the non-ruled line keyword recognition unit 213 repeats the processes after step S82. When all the character strings have been selected, the non-ruled line keyword recognition unit 213 ends the first loop processing (steps S82 to S85), and then determines whether or not there is a data candidate character string (). Step S86). When there is no data candidate character string (step S86; NO), the non-ruled line keyword recognition unit 213 omits the processing after step S87 and ends the right side search processing.

一方、データ候補文字列がある場合(ステップS86;YES)、無罫線キーワード認識部213は、次に、データ候補文字列のなかから見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出する第2のループ処理(ステップS87~S94)を行う。第2のループ処理は、データ候補文字列内で見出し文字列とは別の項目キーワードを検出した場合、或いは全てのデータ候補文字列が見出し文字列とは別の項目キーワードではないことが確定した場合に終了する。 On the other hand, when there is a data candidate character string (step S86; YES), the non-ruled line keyword recognition unit 213 next, data including information that can be used for identity verification corresponding to the heading character string from the data candidate character strings. The second loop processing (steps S87 to S94) for extracting the character string is performed. In the second loop processing, it is determined that when an item keyword different from the heading character string is detected in the data candidate character string, or all the data candidate character strings are not different item keywords from the heading character string. If you end up.

第2のループ処理の始端(ステップS87)において、無罫線キーワード認識部213は、データ候補文字列の1つを選択する。データ候補文字列が複数である場合、無罫線キーワード認識部213は、複数のデータ候補文字列のうち、位置が左方のデータ候補文字列(言い換えると見出し文字列に近いデータ候補文字列)から順に選択する。 At the beginning of the second loop process (step S87), the non-ruled line keyword recognition unit 213 selects one of the data candidate character strings. When there are a plurality of data candidate character strings, the non-ruled line keyword recognition unit 213 starts from the data candidate character string whose position is on the left side (in other words, the data candidate character string close to the heading character string) among the plurality of data candidate character strings. Select in order.

次に、無罫線キーワード認識部213は、選択したデータ候補文字列が見出し文字列とは別の項目キーワードであるか否かを判定する第3のループ処理(ステップS88~S91)を行う。 Next, the non-ruled line keyword recognition unit 213 performs a third loop process (steps S88 to S91) for determining whether or not the selected data candidate character string is an item keyword different from the heading character string.

第3のループ処理の始端(ステップS88)において、無罫線キーワード認識部213は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。 At the beginning of the third loop process (step S88), the non-ruled line keyword recognition unit 213 selects and reads one record (one row) in the recognition item keyword table 295.

次に、無罫線キーワード認識部213は、認識項目キーワードテーブル295から選択したレコードに含まれる項目キーワードとデータ候補文字列とが一致するか否かを判定する(ステップS89)。項目キーワードとデータ候補文字列とが一致する場合(ステップS89;YES)、無罫線キーワード認識部213は、別見出しフラグをONにする(ステップS90)。ステップS90の処理の後、無罫線キーワード認識部213は、第3のループ処理の終端(ステップS91)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。また、項目キーワードとデータ候補文字列とが一致しない場合(ステップS89;NO)、無罫線キーワード認識部213は、ステップS90の処理を省略し、第3のループ処理の終端(ステップS91)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。別見出しフラグがONになっておらず、かつ、未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS88以降の処理を繰り返す。別見出しフラグがONになった場合、又は全てのデータ候補文字列を選択した場合、無罫線キーワード認識部213は、第3のループ処理(ステップS88~S91)を終了する。 Next, the non-ruled line keyword recognition unit 213 determines whether or not the item keyword included in the record selected from the recognition item keyword table 295 matches the data candidate character string (step S89). When the item keyword and the data candidate character string match (step S89; YES), the non-ruled line keyword recognition unit 213 turns on the separate heading flag (step S90). After the processing of step S90, the non-ruled line keyword recognition unit 213 determines whether the separate heading flag is ON or all the data candidate character strings are selected at the end of the third loop processing (step S91). judge. If the item keyword and the data candidate character string do not match (step S89; NO), the non-ruled line keyword recognition unit 213 omits the process of step S90 and at the end of the third loop process (step S91). It is determined whether the separate heading flag is ON or whether all the data candidate character strings are selected. When the separate heading flag is not turned ON and there is an unselected data candidate character string, the ruled line keyword recognition unit 213 repeats the processes after step S88. When the separate heading flag is turned ON, or when all the data candidate character strings are selected, the ruled line keyword recognition unit 213 ends the third loop process (steps S88 to S91).

第3のループ処理を終了すると、無罫線キーワード認識部213は、次に、別見出しフラグがONになっているか否かを判定する(ステップS92)。別見出しフラグがONになっていない場合(ステップS92;NO)、無罫線キーワード認識部213は、現在選択されているデータ候補文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として保持する(ステップS93)。ステップS93の処理の後、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS94)において、未選択のデータ候補文字列があるか否かを判定する。未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS87以降の処理を繰り返す。そして、全てのデータ候補文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS87~S94)を終了し、保持しているデータ文字列を返却する(ステップS95)。 When the third loop process is completed, the non-ruled line keyword recognition unit 213 next determines whether or not the separate heading flag is ON (step S92). When the separate heading flag is not turned on (step S92; NO), the non-ruled line keyword recognition unit 213 uses the currently selected data candidate character string as information that can be used for identity verification corresponding to the heading character string. It is retained as a data character string to be included (step S93). After the process of step S93, the ruled line keyword recognition unit 213 determines whether or not there is an unselected data candidate character string at the end of the second loop process (step S94). If there is an unselected data candidate character string, the non-ruled line keyword recognition unit 213 repeats the processing after step S87. When all the data candidate character strings have been selected, the non-ruled line keyword recognition unit 213 ends the second loop process (steps S87 to S94) and returns the retained data character string (step). S95).

ここで、ステップS92の判定の説明に戻る。第3のループ処理の終了後、別見出しフラグがONになっている場合(ステップS92;YES)、無罫線キーワード認識部213は、第2のループ処理(ステップS87~S94)を終了し、保持しているデータ文字列を返却する(ステップS95)。 Here, the process returns to the description of the determination in step S92. When the separate heading flag is ON after the end of the third loop processing (step S92; YES), the non-ruled line keyword recognition unit 213 ends the second loop processing (steps S87 to S94) and holds the second loop processing. The data character string is returned (step S95).

このように、右方探索処理では、項目キーワードと一致する見出し文字列の右方に位置する文字列のうち、認識項目キーワードテーブル295の項目キーワードとは一致しない文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。また、右方探索処理では、項目キーワードと一致する見出し文字列の右方に複数の文字列があり、かつ複数の文字列のなかに認識項目キーワードテーブル295の項目キーワードと一致する文字列(別見出し文字列)が含まれる場合、該文字列と見出し文字列との間に位置する文字列のみを、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。 In this way, in the right search process, among the character strings located to the right of the heading character string that matches the item keyword, the character string that does not match the item keyword in the recognition item keyword table 295 corresponds to the heading character string. Extract as a data string containing information that can be used for identity verification. Further, in the right search process, there are a plurality of character strings on the right side of the heading character string that matches the item keyword, and a character string that matches the item keyword of the recognition item keyword table 295 in the plurality of character strings (separately). When the heading character string) is included, only the character string located between the character string and the heading character string is extracted as a data character string containing information that can be used for identity verification corresponding to the heading character string.

なお、右方探索処理において見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出することができなかった場合、無罫線キーワード認識部213は、図12のように、下方探索処理(ステップS66)を行う。無罫線キーワード認識部213は、下方探索処理として、例えば、図14のフローチャートに沿った処理を行う。 If the data character string including the information that can be used for identity verification corresponding to the heading character string cannot be extracted in the right-side search process, the ruled line keyword recognition unit 213 moves downward as shown in FIG. The search process (step S66) is performed. The non-ruled line keyword recognition unit 213 performs, for example, a process according to the flowchart of FIG. 14 as a downward search process.

図14は、下方探索処理の内容を説明するフローチャートである。
下方探索処理を開始すると、無罫線キーワード認識部213は、図14のように、まず、見出し文字列の座標を取得する(ステップS101)。見出し文字列は、現在行っている右方探索処理における画像から抽出した文字列(図12のステップS62で選択された文字列)であり、図12のステップS61で選択した認識項目キーワードテーブル295のレコードに含まれる項目キーワードと一致する文字列である。
FIG. 14 is a flowchart illustrating the content of the downward search process.
When the downward search process is started, the non-ruled line keyword recognition unit 213 first acquires the coordinates of the heading character string as shown in FIG. 14 (step S101). The heading character string is a character string (character string selected in step S62 of FIG. 12) extracted from the image in the right-hand search process currently being performed, and is the recognition item keyword table 295 selected in step S61 of FIG. A character string that matches the item keyword contained in the record.

次に、無罫線キーワード認識部213は、見出し文字列の下方で該見出し文字列と対応するデータ文字列の候補(データ候補文字列)を探索する第1のループ処理(ステップS102~S105)を行う。 Next, the non-ruled line keyword recognition unit 213 performs a first loop process (steps S102 to S105) for searching a candidate for a data character string (data candidate character string) corresponding to the heading character string below the heading character string. conduct.

第1のループ処理の始端(ステップS102)において、無罫線キーワード認識部213は、例えば、画像から抽出した文字列のうち見出し文字列よりも下方の文字列の1つを選択する。 At the beginning of the first loop process (step S102), the non-ruled line keyword recognition unit 213 selects, for example, one of the character strings below the heading character string among the character strings extracted from the image.

次に、無罫線キーワード認識部213は、見出し文字列の幅の座標範囲に、ステップS102で選択した文字列の幅の座標範囲が含まれるか否かを判定する(ステップS103)。見出し文字列の幅の座標範囲に選択した文字列の幅の座標範囲が含まれる場合(ステップS103;YES)、無罫線キーワード認識部213は、選択した文字列をデータ候補文字列として保持する(ステップS104)。ステップS104の処理の後、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS105)において、未選択の文字列があるか否かを判定する。また、見出し文字列の幅の座標範囲に選択した文字列の幅の座標範囲が含まれない場合(ステップS103;NO)、無罫線キーワード認識部213は、ステップS104の処理を省略し、第1のループ処理の終端(ステップS105)において、未選択の文字列があるか否かを判定する。 Next, the non-ruled line keyword recognition unit 213 determines whether or not the coordinate range of the width of the heading character string includes the coordinate range of the width of the character string selected in step S102 (step S103). When the coordinate range of the width of the heading character string includes the coordinate range of the width of the selected character string (step S103; YES), the ruled line keyword recognition unit 213 holds the selected character string as a data candidate character string (step S103; YES). Step S104). After the processing of step S104, the ruled line keyword recognition unit 213 determines whether or not there is an unselected character string at the end of the first loop processing (step S105). Further, when the coordinate range of the width of the heading character string does not include the coordinate range of the width of the selected character string (step S103; NO), the ruled line keyword recognition unit 213 omits the process of step S104 and first At the end of the loop processing (step S105), it is determined whether or not there is an unselected character string.

未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS102以降の処理を繰り返す。全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS102~S105)を終了し、データ候補文字列があるか否かを判定する(ステップS106)。データ候補文字列がない場合(ステップS106;NO)、無罫線キーワード認識部213は、ステップS107以降の処理を省略し、下方探索処理を終了する。 If there is an unselected character string, the non-ruled line keyword recognition unit 213 repeats the processing after step S102. When all the character strings have been selected, the ruled line keyword recognition unit 213 ends the first loop processing (steps S102 to S105) and determines whether or not there is a data candidate character string (step S106). .. When there is no data candidate character string (step S106; NO), the non-ruled line keyword recognition unit 213 omits the processing after step S107 and ends the downward search processing.

一方、データ候補文字列がある場合(ステップS106;YES)、無罫線キーワード認識部213は、次に、データ候補文字列のなかから見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出する第2のループ処理(ステップS107~S114)を行う。第2のループ処理は、データ候補文字列内で見出し文字列とは別の項目キーワードを検出した場合、或いは全てのデータ候補文字列が見出し文字列とは別の項目キーワードではないことが確定した場合に終了する。 On the other hand, when there is a data candidate character string (step S106; YES), the non-ruled line keyword recognition unit 213 next, data including information that can be used for identity verification corresponding to the heading character string from the data candidate character strings. The second loop processing (steps S107 to S114) for extracting the character string is performed. In the second loop processing, it is determined that when an item keyword different from the heading character string is detected in the data candidate character string, or all the data candidate character strings are not different item keywords from the heading character string. If you end up.

第2のループ処理の始端(ステップS107)において、無罫線キーワード認識部213は、データ候補文字列の1つを選択する。データ候補文字列が複数である場合、無罫線キーワード認識部213は、複数のデータ候補文字列のうち、位置が上方のデータ候補文字列(言い換えると見出し文字列に近いデータ候補文字列)から順に選択する。 At the beginning of the second loop process (step S107), the non-ruled line keyword recognition unit 213 selects one of the data candidate character strings. When there are a plurality of data candidate character strings, the non-ruled line keyword recognition unit 213 sequentially starts with the data candidate character string whose position is higher (in other words, the data candidate character string closer to the heading character string) among the plurality of data candidate character strings. select.

次に、無罫線キーワード認識部213は、選択したデータ候補文字列が見出し文字列とは別の項目キーワードであるか否かを判定する第3のループ処理(ステップS108~S111)を行う。 Next, the non-ruled line keyword recognition unit 213 performs a third loop process (steps S108 to S111) for determining whether or not the selected data candidate character string is an item keyword different from the heading character string.

第3のループ処理の始端(ステップS108)において、無罫線キーワード認識部213は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。 At the beginning of the third loop process (step S108), the non-ruled line keyword recognition unit 213 selects and reads one record (one row) in the recognition item keyword table 295.

次に、無罫線キーワード認識部213は、認識項目キーワードテーブル295から選択したレコードに含まれる項目キーワードとデータ候補文字列とが一致するか否かを判定する(ステップS109)。項目キーワードとデータ候補文字列とが一致する場合(ステップS109;YES)、無罫線キーワード認識部213は、別見出しフラグをONにする(ステップS110)。ステップS110の処理の後、無罫線キーワード認識部213は、第3のループ処理の終端(ステップS111)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。また、項目キーワードとデータ候補文字列とが一致しない場合(ステップS109;NO)、無罫線キーワード認識部213は、ステップS110の処理を省略し、第3のループ処理の終端(ステップS111)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。別見出しフラグがONになっておらず、かつ、未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS108以降の処理を繰り返す。別見出しフラグがONになった場合、又は全てのデータ候補文字列を選択した場合、無罫線キーワード認識部213は、第3のループ処理(ステップS108~S111)を終了する。 Next, the non-ruled line keyword recognition unit 213 determines whether or not the item keyword included in the record selected from the recognition item keyword table 295 matches the data candidate character string (step S109). When the item keyword and the data candidate character string match (step S109; YES), the non-ruled line keyword recognition unit 213 turns on the separate heading flag (step S110). After the processing of step S110, the non-ruled line keyword recognition unit 213 determines whether the separate heading flag is ON or all the data candidate character strings are selected at the end of the third loop processing (step S111). judge. If the item keyword and the data candidate character string do not match (step S109; NO), the non-ruled line keyword recognition unit 213 omits the process of step S110 and at the end of the third loop process (step S111). It is determined whether the separate heading flag is ON or whether all the data candidate character strings are selected. When the separate heading flag is not turned ON and there is an unselected data candidate character string, the ruled line keyword recognition unit 213 repeats the processes after step S108. When the separate heading flag is turned ON, or when all the data candidate character strings are selected, the ruled line keyword recognition unit 213 ends the third loop process (steps S108 to S111).

第3のループ処理を終了すると、無罫線キーワード認識部213は、次に、別見出しフラグがONになっているか否かを判定する(ステップS112)、別見出しフラグがONになっていない場合(ステップS112;NO)、無罫線キーワード認識部213は、現在選択されているデータ候補文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として保持する(ステップS113)。ステップS113の処理の後、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS114)において、未選択のデータ候補文字列があるか否かを判定する。未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS107以降の処理を繰り返す。そして、全てのデータ候補文字列が選択済みである場合、無罫線キーワード認識部は、第2のループ処理(ステップS107~S114)を終了し、保持しているデータ文字列を返却する(ステップS115)。 When the third loop process is completed, the non-ruled line keyword recognition unit 213 next determines whether or not the separate heading flag is ON (step S112), and if the separate heading flag is not ON (step S112). Step S112; NO), the non-ruled line keyword recognition unit 213 holds the currently selected data candidate character string as a data character string including information that can be used for identity verification corresponding to the heading character string (step S113). .. After the processing of step S113, the non-ruled line keyword recognition unit 213 determines whether or not there is an unselected data candidate character string at the end of the second loop processing (step S114). If there is an unselected data candidate character string, the non-ruled line keyword recognition unit 213 repeats the processes after step S107. When all the data candidate character strings have been selected, the non-ruled line keyword recognition unit ends the second loop process (steps S107 to S114) and returns the retained data character string (step S115). ).

ここで、ステップS112の判定の説明に戻る。第3のループ処理の終了後、別見出しフラグがONになっている場合(ステップS112;YES)、無罫線キーワード認識部213は、第2のループ処理(ステップS107~S114)を終了し、保持しているデータ文字列を返却する(ステップS115)。 Here, the process returns to the description of the determination in step S112. When the separate heading flag is ON after the end of the third loop process (step S112; YES), the non-ruled line keyword recognition unit 213 ends the second loop process (steps S107 to S114) and holds the second loop process. The data character string is returned (step S115).

このように、下方探索処理では、項目キーワードと一致する見出し文字列の下方に位置する文字列のうち、認識項目キーワードテーブル295の項目キーワードとは一致しない文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。また、下方探索処理では、項目キーワードと一致する見出し文字列の下方に複数の文字列があり、かつ複数の文字列のなかに認識項目キーワードテーブル295の項目キーワードと一致する文字列(別見出し文字列)が含まれる場合、該文字列と見出し文字列との間に位置する文字列のみを、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。 In this way, in the downward search process, among the character strings located below the heading character string that matches the item keyword, the character string that does not match the item keyword in the recognition item keyword table 295 is the person corresponding to the heading character string. Extract as a data string containing information that can be used for confirmation. Further, in the downward search process, there are a plurality of character strings below the heading character string that matches the item keyword, and a character string that matches the item keyword of the recognition item keyword table 295 in the plurality of character strings (separate heading character). (Column) is included, only the character string located between the character string and the heading character string is extracted as a data character string containing information that can be used for identity verification corresponding to the heading character string.

上記の右方探索処理又は下方探索処理により、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出した後、画像認識装置2では、抽出したデータ文字列の文字認識を行い、該文字認識の結果を補正するデータ文字列補正処理(図12のステップS67)を行う。データ文字列補正処理は、認識結果補正部205と文字認識部206とが連携して行う。認識結果補正部205及び文字認識部206は、データ文字列補正処理として、例えば、図15A及び図15Bのフローチャートに沿った処理を行う。 After extracting the data character string including the information that can be used for identity verification corresponding to the heading character string by the above-mentioned right-side search process or downward search process, the image recognition device 2 performs character recognition of the extracted data character string. Then, a data character string correction process (step S67 in FIG. 12) for correcting the result of the character recognition is performed. The data character string correction process is performed by the recognition result correction unit 205 and the character recognition unit 206 in cooperation with each other. The recognition result correction unit 205 and the character recognition unit 206 perform data character string correction processing according to, for example, the flowcharts of FIGS. 15A and 15B.

図15Aは、データ文字列補正処理の内容を説明するフローチャート(その1)である。図15Bは、データ文字列補正処理の内容を説明するフローチャート(その2)である。 FIG. 15A is a flowchart (No. 1) for explaining the content of the data character string correction process. FIG. 15B is a flowchart (No. 2) for explaining the content of the data character string correction process.

データ文字列補正処理を開始すると、画像認識装置2は、図15Aのように、まず、最初の文字列を抽出し(ステップS121)、該最初の文字列を補正データ文字列として保持する(ステップS122)。ステップS121及びS122の処理は、例えば、認識結果補正部205が行う。認識結果補正部205は、見出し文字列と対応するデータ文字列のうち、最も左側のデータ文字列(言い換えると見出し文字列に最も近いデータ文字列)を最初の文字列とする。 When the data character string correction process is started, the image recognition device 2 first extracts the first character string (step S121) and holds the first character string as the correction data character string (step), as shown in FIG. 15A. S122). The processing of steps S121 and S122 is performed by, for example, the recognition result correction unit 205. The recognition result correction unit 205 sets the leftmost data character string (in other words, the data character string closest to the heading character string) among the data character strings corresponding to the heading character string as the first character string.

次に、認識結果補正部205は、データ文字列が1つであるか否かを判定する(ステップS123)。データ文字列が複数である場合(ステップS123;NO)、認識結果補正部205は、次に、データ文字列毎に、隣り合う文字列間の距離が距離閾値内であるか否かを判定する第1のループ処理(ステップS124~S129)を行う。 Next, the recognition result correction unit 205 determines whether or not there is one data character string (step S123). When there are a plurality of data character strings (step S123; NO), the recognition result correction unit 205 then determines, for each data character string, whether or not the distance between adjacent character strings is within the distance threshold. The first loop processing (steps S124 to S129) is performed.

第1のループ処理の始端(ステップS124)において、認識結果補正部205は、最初の文字列として抽出したデータ文字列を除く他のデータ文字列のうち、最も左側に位置するデータ文字列から順に選択する。 At the beginning of the first loop processing (step S124), the recognition result correction unit 205 sequentially selects the data character string located on the leftmost side among the other data character strings excluding the data character string extracted as the first character string. select.

データ文字列を選択した後、認識結果補正部205は、選択したデータ文字列を次の文字列として抽出し(ステップS125)、抽出した次の文字列(データ文字列)と、該データ文字列の左隣のデータ文字列との距離を算出する(ステップS126)。 After selecting the data character string, the recognition result correction unit 205 extracts the selected data character string as the next character string (step S125), and extracts the next character string (data character string) and the data character string. The distance from the data character string to the left of is calculated (step S126).

次に、認識結果補正部205は、算出した距離が認識項目テーブル296の文字列間の距離閾値以内であるか否かを判定する(ステップS127)。ステップS127の処理では、認識結果補正部205は、認識項目テーブル296において見出し文字列と対応する認識項目No.のレコードに含まれる文字列間の距離閾値に基づいて、文字列間の距離が距離閾値以内であるか否かを判定する。 Next, the recognition result correction unit 205 determines whether or not the calculated distance is within the distance threshold value between the character strings in the recognition item table 296 (step S127). In the process of step S127, the recognition result correction unit 205 sets the distance between the character strings as the distance based on the distance threshold between the character strings included in the record of the recognition item No. corresponding to the heading character string in the recognition item table 296. Determine if it is within the threshold.

文字列間の距離が距離閾値以内である場合(ステップS127;YES)、認識結果補正部205は、ステップS125で抽出したデータ文字列(次の文字列)を、補正データ文字列として保持する(ステップS128)。ステップS128の処理の後、認識結果補正部205は、第1のループ処理の終端(ステップS129)において、未選択のデータ文字列があるか否かを判定する。未選択のデータ文字列がある場合、認識結果補正部205は、ステップS124以降の処理を繰り返す。 When the distance between the character strings is within the distance threshold (step S127; YES), the recognition result correction unit 205 holds the data character string (next character string) extracted in step S125 as the correction data character string (step S127; YES). Step S128). After the processing of step S128, the recognition result correction unit 205 determines whether or not there is an unselected data character string at the end of the first loop processing (step S129). If there is an unselected data character string, the recognition result correction unit 205 repeats the processes after step S124.

一方、全てのデータ文字列が選択済みである場合、認識結果補正部205は、第1のループ処理(ステップS124~S129)を終了する。また、ステップS126で算出した距離が認識項目テーブル296の文字列間の距離閾値よりも長い場合(ステップS127;NO)、認識結果補正部205は、第1のループ処理(ステップS124~S129)を終了する。 On the other hand, when all the data character strings have been selected, the recognition result correction unit 205 ends the first loop processing (steps S124 to S129). When the distance calculated in step S126 is longer than the distance threshold between the character strings in the recognition item table 296 (step S127; NO), the recognition result correction unit 205 performs the first loop processing (steps S124 to S129). finish.

第1のループ処理を終了すると、認識結果補正部205は、保持している補正データ文字列が2つ以上であるか否かを判定する(ステップS130)。また、ステップS123においてデータ文字列が1つであると判定した場合(ステップ123;YES)、認識結果補正部205は、第1のループ処理自体を省略し、ステップS130の判定を行う。 When the first loop processing is completed, the recognition result correction unit 205 determines whether or not the holding correction data character string is two or more (step S130). Further, when it is determined in step S123 that there is only one data character string (step 123; YES), the recognition result correction unit 205 omits the first loop processing itself and performs the determination in step S130.

保持している補正データ文字列が2つ以上である場合(ステップS130;YES)、認識結果補正部205は、該2つ以上の補正データ文字列を結合して1つのデータ文字列とし(ステップS131)、結合した1つのデータ文字列を文字認識部206に通知する。一方、保持している補正データ文字列が1つである場合(ステップS130;NO)、認識結果補正部205は、ステップS131の処理を省略し、保持している1つの補正データ文字列を文字認識部206に通知する。文字認識部206は、通知された1つのデータ文字列の文字認識を行い(ステップS132)、文字認識の結果を認識結果補正部205に通知する(返信する)。 When the number of the retained correction data character strings is two or more (step S130; YES), the recognition result correction unit 205 combines the two or more correction data character strings into one data character string (step). S131), the combined data character string is notified to the character recognition unit 206. On the other hand, when there is only one correction data character string held (step S130; NO), the recognition result correction unit 205 omits the processing of step S131 and uses one holding correction data character string as a character. Notify the recognition unit 206. The character recognition unit 206 performs character recognition of one notified data character string (step S132), and notifies (replies) the recognition result correction unit 205 of the result of character recognition.

文字認識の結果を受け取ると、認識結果補正部205は、図15Bのように、文字認識の結果が認識項目テーブル296内の現在選択しているレコードに含まれる桁数以内であるか否かを判定する(ステップS133)。文字認識の結果が現在選択しているレコードに含まれる桁数よりも多い場合(ステップS133;NO)、認識結果補正部205は、文字認識の結果における、現在選択しているレコードの桁数+1桁以降の文字列を削除する(ステップS134)。ステップS134の後、認識結果補正部205は、文字認識の結果から、認識項目テーブル296内の現在選択しているレコードに含まれる最終文字を検索する(ステップS135)。また、文字認識の結果が現在選択しているレコードに含まれる桁数以内である場合(ステップS133;YES)、認識結果補正部205は、ステップS134の処理を省略し、ステップS135の検索処理を行う。 Upon receiving the character recognition result, the recognition result correction unit 205 determines whether or not the character recognition result is within the number of digits included in the currently selected record in the recognition item table 296, as shown in FIG. 15B. Determination (step S133). When the result of character recognition is larger than the number of digits included in the currently selected record (step S133; NO), the recognition result correction unit 205 has the number of digits of the currently selected record in the character recognition result + 1. The character string after the digit is deleted (step S134). After step S134, the recognition result correction unit 205 searches for the final character included in the currently selected record in the recognition item table 296 from the character recognition result (step S135). If the character recognition result is within the number of digits included in the currently selected record (step S133; YES), the recognition result correction unit 205 omits the process of step S134 and performs the search process of step S135. conduct.

ステップS135の検索処理の後、認識結果補正部205は、文字認識の結果から最終文字を検出したか否かを判定する(ステップS136)。最終文字を検出した場合(ステップS136;YES)、認識結果補正部205は、最終文字の桁数(桁位置を表す数値)+1桁以降の文字列を削除する(ステップS137)。例えば、最終文字の桁位置が5桁目(左端から5番目)である場合、認識結果補正部205は、6(=5+1)桁以降の文字列を削除する。ステップS137の処理の後、認識結果補正部205は、文字認識の結果を主制御部209に返却し(ステップS138)、データ文字列補正処理を終了する。また、最終文字が含まれない場合(ステップS136;NO)、認識結果補正部205は、ステップS137の処理を省略して文字認識の結果を主制御部209に返却し(ステップS138)、データ文字列補正処理を終了する。 After the search process in step S135, the recognition result correction unit 205 determines whether or not the final character has been detected from the character recognition result (step S136). When the final character is detected (step S136; YES), the recognition result correction unit 205 deletes the character string after the number of digits (numerical value representing the digit position) + 1 digit of the final character (step S137). For example, when the digit position of the last character is the fifth digit (fifth from the left end), the recognition result correction unit 205 deletes the character string after the 6th (= 5 + 1) digit. After the process of step S137, the recognition result correction unit 205 returns the character recognition result to the main control unit 209 (step S138), and ends the data character string correction process. If the final character is not included (step S136; NO), the recognition result correction unit 205 skips the process of step S137 and returns the character recognition result to the main control unit 209 (step S138), and the data character. End the column correction process.

このように、本実施形態の画像認識装置2では、認識項目キーワードテーブル295内の項目キーワードと対応する本人確認に利用可能な情報(文字列)の桁数及び最終文字に基づいて、項目キーワードと一致する画像内の文字列の右方又は下方に位置する文字列の文字認識の結果に含まれる、本人確認に利用可能な情報とは別の情報を削除する。このため、例えば、本人確認書類における見出し語の右方又は下方に、本人確認に利用可能な情報とは別の情報、例えば、会社名、団体名、ロゴ、及びその他の付加情報等が印刷されている場合にも、本人確認に利用可能な情報のみを抽出して認識することができる。 As described above, in the image recognition device 2 of the present embodiment, the item keyword and the item keyword are based on the number of digits and the final character of the information (character string) that can be used for identity verification corresponding to the item keyword in the recognition item keyword table 295. Delete information other than the information that can be used for identity verification, which is included in the result of character recognition of the character string located to the right or below the character string in the matching image. For this reason, for example, information other than the information that can be used for identity verification, such as a company name, an organization name, a logo, and other additional information, is printed on the right or bottom of the headword in the identity verification document. Even if this is the case, only the information that can be used for identity verification can be extracted and recognized.

図16は、本人確認書類の一例を示す図である。
図16には、本人確認書類の一例として、カードタイプの保険証10を示している。保険証10は、正位置でみた場合に左上角部となる部分に「健康保険」という文字列10A、及び「被保険者証」という文字列10Bが印刷されている。また、保険証10には、本人確認に利用可能な情報(項目)の1つとして被保険者の氏名が印刷されている。しかしながら、保険証10には、「氏名」という文字列10C(見出し語)と、「富士通 花子」という文字列10D(被保険者の氏名)との組を囲む罫線がない。また、保険証10は、例えば各市区町村が発行しており、フォーマットが統一されていない。例えば、カードタイプの保険証には、「氏名」という文字列(見出し語)及び被保険者の氏名の位置や間隔が、図16の保険証10とは異なるものも存在し得る。このため、保険証10を本人確認書類として画像認識装置2で認識する場合、位置固定認識方式による文字認識処理(ステップS19)、及びキーワード認識方式による文字認識処理(ステップS20)による文字認識を行うことができない。したがって、保険証10を本人確認書類として画像認識装置2で認識する場合、無罫線キーワード認識方式による文字認識処理(ステップS21)により文字認識を行うこととなる。
FIG. 16 is a diagram showing an example of an identity verification document.
FIG. 16 shows a card-type health insurance card 10 as an example of identity verification documents. The insurance card 10 has the character string 10A "health insurance" and the character string 10B "insured person's card" printed on the upper left corner when viewed in the normal position. Further, the name of the insured person is printed on the health insurance card 10 as one of the information (items) that can be used for identity verification. However, the insurance certificate 10 does not have a ruled line surrounding the set of the character string 10C (headword) of "name" and the character string 10D (name of the insured person) of "Fujitsu Hanako". Further, the health insurance card 10 is issued by, for example, each municipality, and the format is not unified. For example, some card-type health insurance cards may have a character string (headword) of "name" and the position and interval of the insured's name different from those of the health insurance card 10 of FIG. Therefore, when the health insurance card 10 is recognized as an identity verification document by the image recognition device 2, character recognition is performed by the character recognition process (step S19) by the fixed position recognition method and the character recognition process (step S20) by the keyword recognition method. I can't. Therefore, when the health insurance card 10 is recognized by the image recognition device 2 as an identity verification document, the character recognition is performed by the character recognition process (step S21) by the ruled line keyword recognition method.

図17Aは、2値化した画像から抽出される文字列の例を説明する図(その1)である。図17Bは、2値化した画像から抽出される文字列の例を説明する図(その2)である。 FIG. 17A is a diagram (No. 1) illustrating an example of a character string extracted from a binarized image. FIG. 17B is a diagram (No. 2) illustrating an example of a character string extracted from a binarized image.

保険証10を本人確認書類として画像認識装置2で認識する場合、まず、スキャナ装置3等により保険証10の画像を取得する(ステップS11)。その後、画像認識装置2は、保険証10の画像の背景地模様を除去して2値化し(ステップS12)、2値化した画像全体を対象とする文字認識を行う(ステップS13)。 When the health insurance card 10 is recognized by the image recognition device 2 as an identity verification document, first, the image of the health insurance card 10 is acquired by the scanner device 3 or the like (step S11). After that, the image recognition device 2 removes the background pattern of the image of the health insurance card 10 and binarizes it (step S12), and performs character recognition for the entire binarized image (step S13).

ステップS13の処理において、画像認識装置2は、図17Aの(a)のように、保険証10の画像における左上角部周辺の部分領域11Aの「健」、「康」、「保」、及び「険」の4文字と、「被」、「保」、「険」、「者」、及び「証」の5文字を認識する。また、これら9文字の画像内での位置は、1つの文字を含む矩形領域の左上角部の座標と右下角部の座標とで表される。例えば、「健」という文字の位置は、「健」という文字を囲む矩形領域1201の左上角部の座標(x1,y1)と右下角部の座標(x2,y2)とで表される。また、例えば、「被」という文字の位置は、「被」という文字を囲む矩形領域1210の左上角部の座標(x1,y3)と右下角部の座標(x2,y4)とで表される。 In the process of step S13, as shown in FIG. 17A (a), the image recognition device 2 has "health", "yasu", "ho", and "ho" in the partial region 11A around the upper left corner of the image of the health insurance card 10. It recognizes the four characters "rugged" and the five characters "covered", "ho", "rugged", "person", and "proof". Further, the positions of these nine characters in the image are represented by the coordinates of the upper left corner portion and the coordinates of the lower right corner portion of the rectangular area including one character. For example, the position of the character "Ken" is represented by the coordinates (x1, y1) of the upper left corner portion and the coordinates (x2, y2) of the lower right corner portion of the rectangular area 1201 surrounding the character "Ken". Further, for example, the position of the character "covered" is represented by the coordinates (x1, y3) of the upper left corner portion and the coordinates (x2, y4) of the lower right corner portion of the rectangular area 1210 surrounding the character "covered". ..

また、ステップS13の処理において、画像認識装置2は、図17Bの(a)のように、保険証10の画像における氏名及び生年月日が記載された部分領域11Bの「氏」及び「名」の2文字、「富」、「士」、「通」、「花」、及び「子」の5文字等を認識する。当該部分領域11Bから認識した各文字の位置は、上記のように、1つの文字を含む矩形領域の左上角部の座標と右下角部の座標とで表される。 Further, in the process of step S13, the image recognition device 2 uses the “name” and “name” of the partial area 11B in which the name and date of birth in the image of the health insurance card 10 are described, as shown in FIG. 17B (a). Recognize the two characters of "tomi", "shi", "tsu", "flower", and the five characters of "child". As described above, the position of each character recognized from the partial region 11B is represented by the coordinates of the upper left corner portion and the coordinates of the lower right corner portion of the rectangular region including one character.

ステップS13により画像内の文字を認識した後、画像認識装置2は、2値化した画像全体から文字列を抽出する(ステップS14)。ステップS14の処理では、画像認識装置2は、例えば、横方向(x方向)で隣り合い、かつ文字間の距離が閾値以下となる複数の文字を1つの文字列として抽出する。例えば、画像認識装置2は、図17Aの(b)のように、保険証10の画像における左上角部周辺である部分領域11Aの「健」、「康」、「保」、及び「険」の4文字を「健康保険」という1つの文字列1301として抽出する。また、画像認識装置2は、「被」、「保」、「険」、「者」、及び「証」の5文字を「被保険者証」という1つの文字列1310として抽出する。2値化した画像(部分領域11A)から抽出した「健康保険」という文字列1301の画像内での位置は、文字列1301を含む矩形領域の左上角部の座標(x1,y1)及び右下角部の座標(x8,y2)で表される。同様に、「被保険者証」という文字列1310の画像内での位置は、文字列1310を含む矩形領域の左上角部の座標(x1,y3)及び右下角部の座標(x20,y4)で表される。 After recognizing the characters in the image in step S13, the image recognition device 2 extracts the character string from the entire binarized image (step S14). In the process of step S14, the image recognition device 2 extracts, for example, a plurality of characters that are adjacent to each other in the horizontal direction (x direction) and the distance between the characters is equal to or less than the threshold value as one character string. For example, as shown in FIG. 17A (b), the image recognition device 2 has "health", "yasu", "ho", and "rugged" in the partial region 11A around the upper left corner of the image of the insurance card 10. The four characters of are extracted as one character string 1301 called "health insurance". Further, the image recognition device 2 extracts five characters of "insured", "insurance", "rugged", "person", and "certificate" as one character string 1310 called "insured person's certificate". The position of the character string 1301 "health insurance" extracted from the binarized image (partial area 11A) in the image is the coordinates (x1, y1) of the upper left corner of the rectangular area including the character string 1301 and the lower right corner. It is represented by the coordinates of the part (x8, y2). Similarly, the position of the character string 1310 in the image of the "insured person's card" is the coordinates of the upper left corner (x1, y3) and the coordinates of the lower right corner (x20, y4) of the rectangular area including the character string 1310. It is represented by.

また、画像認識装置2は、例えば、図17Bの(b-1)のように、部分領域11Bの「氏」及び「名」の2文字を「氏名」という文字列1320として抽出し、「富」、「士」、「通」、「花」、及び「子」の5文字を「富士通」という文字列1321と「花子」という文字列1322として抽出する。同様に、画像認識装置2は、例えば、図17Bの(b-1)のように、部分領域11Bから「生年月日」という文字列1330、「昭和」という文字列1331、「55年」という文字列1332、「11月」という文字列1333、「11日」という文字列1334を抽出する。更に画像認識装置2は、例えば、部分領域11Bから「性別」という文字列1335、及び「女」という文字列1336を抽出する。これらの文字列1320~1322及び1330~1336の位置は、それぞれ、文字列を囲む矩形領域の左上角部の座標及び右下角部の座標で表される。 Further, the image recognition device 2 extracts, for example, the two characters "name" and "name" of the partial area 11B as the character string 1320 "name" as shown in (b-1) of FIG. 17B, and "rich". , "Shi", "tsu", "flower", and "ko" are extracted as the character string 1321 "Fujitsu" and the character string 1322 "Hanako". Similarly, the image recognition device 2 is, for example, as shown in (b-1) of FIG. 17B, from the partial area 11B to the character string 1330 of "date of birth", the character string 1331 of "Showa", and "55 years". The character string 1332, the character string 1333 "November", and the character string 1334 "11th" are extracted. Further, the image recognition device 2 extracts, for example, the character string 1335 of "gender" and the character string 1336 of "female" from the partial region 11B. The positions of these character strings 1320 to 1322 and 1330 to 1336 are represented by the coordinates of the upper left corner portion and the coordinates of the lower right corner portion of the rectangular area surrounding the character string, respectively.

なお、画像認識装置2は、例えば、図17Bの(b-2)のように、部分領域11Bにおける「富」、「士」、「通」、「花」、及び「子」という被保険者の氏名を「富士通 花子」という1つの文字列1329として抽出してもよい。同様に、画像認識装置2は、部分領域11Bにおける被保険者の生年月日を「昭和 55年 11月 11日」という1つの文字列1339として抽出してもよい。 The image recognition device 2 is, for example, as shown in FIG. 17B (b-2), insured persons such as “wealth”, “shi”, “tsu”, “flower”, and “child” in the partial region 11B. You may extract the name of "Fujitsu Hanako" as one character string 1329. Similarly, the image recognition device 2 may extract the date of birth of the insured person in the partial area 11B as one character string 1339 "November 11, 1980".

保険証10の画像を2値化して文字列を抽出した後、画像認識装置2は、本人確認書類識別処理(ステップS15)を行う。画像認識装置2は、本人確認書類識別処理として、例えば、図11A及び図11Bのフローチャートに沿った処理を行う。 After binarizing the image of the health insurance card 10 and extracting the character string, the image recognition device 2 performs the identity verification document identification process (step S15). The image recognition device 2 performs, for example, a process according to the flowcharts of FIGS. 11A and 11B as the identity verification document identification process.

図11A及び図11Bのフローチャートに沿った処理を行う場合、画像認識装置2は、例えば、まず、第1のループ処理の始端(ステップS31)で保険証10の画像における部分領域11Aから抽出した「健康保険」という文字列1301を選択する。その後、画像認識装置2は、書類識別テーブル291(図3を参照)の各レコード(各行)の識別キーワードと文字列1301の一致度を示す得点を算出する。 When performing the processing according to the flowcharts of FIGS. 11A and 11B, the image recognition device 2 first, for example, first extracts from the partial region 11A in the image of the insurance card 10 at the beginning of the first loop processing (step S31). Select the character string 1301 "health insurance". After that, the image recognition device 2 calculates a score indicating the degree of matching between the identification keyword of each record (each line) of the document identification table 291 (see FIG. 3) and the character string 1301.

図3の書類識別テーブル291における書類No.=1の本人確認書類は免許証であり、書類No.=1の各レコードの識別キーワードのなかに「健康保険」という文字列1301と一致する識別キーワード及び部分一致する識別キーワードはない。このため、書類No.=1の各レコードの識別キーワードのなかに、画像内での位置が文字列1301の画像内での位置と略一致する識別キーワードがあったとしても、書類No.=1の各レコードの得点は、全て0点となる。同様に、図3の書類識別テーブル291における書類No.=3の各レコード、書類No.=4の各レコード、及び書類No.=5の各レコードの得点は、全て0点となる。 The identity verification document of document No. = 1 in the document identification table 291 of FIG. 3 is a driver's license, and the identification keyword matching the character string 1301 of "health insurance" in the identification keyword of each record of document No. = 1. And there is no partial matching identification keyword. Therefore, even if there is an identification keyword whose position in the image substantially matches the position in the image of the character string 1301 among the identification keywords of each record of the document No. = 1, the document No. = 1 The score of each record of is 0 points. Similarly, the scores of each record of document No. = 3, each record of document No. = 4, and each record of document No. 5 in the document identification table 291 of FIG. 3 are all 0 points.

これに対し、図3の書類識別テーブル291における書類No.=2のレコードのうち、識別キーワードが健康保険であるレコードの得点は、100点或いは100点に近い高得点となる。 On the other hand, among the records of document No. = 2 in the document identification table 291 of FIG. 3, the score of the record whose identification keyword is health insurance is 100 points or a high score close to 100 points.

また、第1のループ処理の始端(ステップS31)で保険証10の画像における部分領域11Aから抽出した「被保険者証」という文字列1310を選択した場合、図3の書類識別テーブル291における書類No.=2のレコードのうち、識別キーワードが被保険者証であるレコードの得点のみが100点或いは100点に近い高得点となる。 Further, when the character string 1310 "insured person's card" extracted from the partial area 11A in the image of the health insurance card 10 is selected at the beginning of the first loop process (step S31), the document in the document identification table 291 of FIG. 3 is selected. Of the records with No. = 2, only the score of the record whose identification keyword is the insured person's card is 100 points or a high score close to 100 points.

その後、例えば、第1のループ処理の始端(ステップS31)で部分領域11Bから抽出した「氏名」という文字列1320、及び「富士通 花子」という文字列1329を選択して各レコードの得点を算出すると、全て0点又は0点に近い得点となる。したがって、第1のループ処理(ステップS31~S39)を終了した後、第3のループ処理(ステップS42~S51)を行うと、最大得点となる本人確認書類の書類No.は2となる。よって、画像認識装置2は、保険証10の画像内の本人確認書類の書類No.=2と、書類種類テーブル292と、認識方式テーブル293とに基づいて、該保険証10の画像の文字認識の方式を認識方式No.=1の無罫線キーワード認識方式に決定する(ステップS17)。 After that, for example, when the character string 1320 "name" and the character string 1329 "Fujitsu Hanako" extracted from the partial area 11B at the beginning of the first loop processing (step S31) are selected, the score of each record is calculated. , All scores are 0 points or close to 0 points. Therefore, when the third loop processing (steps S42 to S51) is performed after the first loop processing (steps S31 to S39) is completed, the document number of the identity verification document, which is the maximum score, becomes 2. Therefore, the image recognition device 2 recognizes characters in the image of the health insurance card 10 based on the document No. 2 of the identity verification document in the image of the health insurance card 10, the document type table 292, and the recognition method table 293. Is determined to be the non-ruled line keyword recognition method of the recognition method No. 1 (step S17).

画像認識装置2は、無罫線キーワード認識方式の文字認識処理(ステップS21)として、例えば、図12、図13、図14、並びに図15A及び図15Bのフローチャートに沿った処理を行う。すなわち、画像認識装置2は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出し、保険証10の画像から抽出した文字列のうちの選択したレコードの項目キーワードと一致する文字列を見出し文字列として、右方探索処理(ステップS64)を行う。例えば、画像認識装置2は、図6の認識項目キーワードテーブル295の上から4行目のレコードを選択し、かつ保険証10の画像から抽出した文字列から「氏名」という文字列1320(図17Bを参照)を選択した場合、「氏名」という文字列1320を見出し文字列とした右方探索処理を行う。このとき、画像認識装置2は、まず、見出し文字列1320の高さの座標範囲に、見出し文字列1320の右方に位置する文字列の高さの座標範囲が含まれるか否かを判定する(ステップS83)。そして、見出し文字列1320の高さの座標範囲に、見出し文字列1320の右方に位置する文字列の高さの座標範囲が含まれる場合、画像認識装置2は、見出し文字列1320の右方の文字列をデータ候補文字列とする。 The image recognition device 2 performs, for example, the processing according to the flowcharts of FIGS. 12, 13, 14, and 15A and 15B as the character recognition processing (step S21) of the ruled line keyword recognition method. That is, the image recognition device 2 selects and reads one record (one line) in the recognition item keyword table 295, and the character matching the item keyword of the selected record among the character strings extracted from the image of the insurance certificate 10. The right search process (step S64) is performed using the column as a heading character string. For example, the image recognition device 2 selects the record in the fourth row from the top of the recognition item keyword table 295 in FIG. 6, and has the character string "name" 1320 (FIG. 17B) from the character string extracted from the image of the insurance certificate 10. When) is selected, the right-hand search process is performed with the character string 1320 "name" as the heading character string. At this time, the image recognition device 2 first determines whether or not the coordinate range of the height of the heading character string 1320 includes the coordinate range of the height of the character string located to the right of the heading character string 1320. (Step S83). Then, when the coordinate range of the height of the heading character string 1320 includes the coordinate range of the height of the character string located on the right side of the heading character string 1320, the image recognition device 2 is on the right side of the heading character string 1320. Let the character string of be a data candidate character string.

図18は、右方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。 FIG. 18 is a diagram illustrating an example of a method of determining whether or not to use as a data candidate character string in the right-side search process.

図18の(a)~(d)には、それぞれ、「氏名」という見出し文字列1320と、該見出し文字列1320の右方に位置する「富士通 花子」という本人確認に利用可能な情報を示す文字列1329の位置及び寸法の関係を示している。 18 (a) to 18 (d) show the heading character string 1320 "name" and the information "Fujitsu Hanako" located to the right of the heading character string 1320, which can be used for identity verification, respectively. The relationship between the position and the dimension of the character string 1329 is shown.

見出し文字列1320の高さの座標範囲H1は、見出し文字列1320を囲む矩形領域における左上角部の縦座標(y座標)y21と、右下角部の縦座標(y座標)y22により算出される。よって、画像認識装置2は、「富士通 花子」という文字列1329を含む、見出し文字列1320の右方に位置する文字列のそれぞれの高さの座標範囲が見出し文字列1320の高さの座標範囲H1に含まれるか否かを判定する(ステップS83)。 The coordinate range H1 of the height of the heading character string 1320 is calculated by the vertical coordinate (y coordinate) y21 of the upper left corner portion and the vertical coordinate (y coordinate) y22 of the lower right corner portion in the rectangular area surrounding the heading character string 1320. .. Therefore, in the image recognition device 2, the coordinate range of the height of each of the character strings located to the right of the heading character string 1320 including the character string 1329 "Fujitsu Hanako" is the coordinate range of the height of the heading character string 1320. It is determined whether or not it is included in H1 (step S83).

例えば、図18の(a)では、「富士通 花子」という文字列1329の左上角部の座標(x31,y31)が見出し文字列1320の高さの座標範囲H1の上端よりも上方にあり、右下角部の座標(x38,y38)が見出し文字列1320の高さの座標範囲H1の下端よりも下方にある。このような場合、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2が含まれる(ステップS83;YES)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列として保持する(ステップS84)。 For example, in FIG. 18A, the coordinates (x31, y31) of the upper left corner of the character string 1329 "Fujitsu Hanako" are above the upper end of the coordinate range H1 at the height of the heading character string 1320, and are on the right. The coordinates (x38, y38) of the lower corner portion are below the lower end of the coordinate range H1 at the height of the heading character string 1320. In such a case, the coordinate range H1 at the height of the heading character string 1320 includes the coordinate range H2 at the height of the character string 1329 (step S83; YES). Therefore, the image recognition device 2 holds the character string 1329 "Fujitsu Hanako" as a data candidate character string (step S84).

また、図18の(b)では、「富士通 花子」という文字列1329の右下角部の座標(x38,y38)は、見出し文字列1320の高さの座標範囲H1の上端と下端との間にある。このような場合も、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2が含まれる(ステップS83;YES)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列として保持する(ステップS84)。 Further, in FIG. 18B, the coordinates (x38, y38) of the lower right corner of the character string 1329 "Fujitsu Hanako" are located between the upper end and the lower end of the coordinate range H1 at the height of the heading character string 1320. be. Even in such a case, the coordinate range H1 at the height of the heading character string 1320 includes the coordinate range H2 at the height of the character string 1329 (step S83; YES). Therefore, the image recognition device 2 holds the character string 1329 "Fujitsu Hanako" as a data candidate character string (step S84).

これに対し、図18の(c)では、「富士通 花子」という文字列1329の右下角部の座標(x38,y38)は、見出し文字列1320の高さの座標範囲H1の上端よりも上方にある。このような場合、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2は含まれない(ステップS83;NO)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列とはしない。 On the other hand, in (c) of FIG. 18, the coordinates (x38, y38) of the lower right corner of the character string 1329 "Fujitsu Hanako" are above the upper end of the coordinate range H1 of the height of the heading character string 1320. be. In such a case, the coordinate range H1 at the height of the heading character string 1320 does not include the coordinate range H2 at the height of the character string 1329 (step S83; NO). Therefore, the image recognition device 2 does not use the character string 1329 "Fujitsu Hanako" as a data candidate character string.

なお、図13のフローチャートにおけるステップS83の判定は、見出し文字列の高さの座標範囲に右方の文字列の高さの座標範囲が含まれるか否かに限らず、例えば、見出し文字列の高さ(文字のサイズ)と右方の文字列の高さ(文字のサイズ)との関係を条件に含むものであってもよい。例えば、図18の(d)では、「氏名」という見出し文字列1320の高さの座標範囲H1に「富士通 花子」という文字列1329の高さの座標範囲H2が含まれる。しかしながら、右方の文字列の高さの上限を座標範囲Th1と対応する高さに設定した場合、文字列1329の高さは座標範囲Th1と対応する高さよりも大きくなる。このような場合、文字列1329と高さ方向(上下方向)で隣り合う他の文字列との間隔が狭くなり、文字認識に誤りが生じる可能性が高くなる。また、例えば、図18の(a)及び(b)の例において文字列1329の更に右方に、会社名や団体のロゴ等が印刷されている場合、当該会社名やロゴを氏名の一部とし認識してしまうことがある。このような事態を防止するため、見出し文字列の右方の文字列の高さが座標範囲Th1と対応する高さよりも大きい場合には当該右方の文字列をデータ候補文字列としないようにしてもよい。なお、この場合の座標範囲Th1は、適宜設定すればよく、例えば、Th1=1.7×H1とする。 The determination in step S83 in the flowchart of FIG. 13 is not limited to whether or not the coordinate range of the height of the heading character string includes the coordinate range of the height of the character string on the right, for example, the heading character string. It may include the relationship between the height (character size) and the height of the character string on the right (character size) as a condition. For example, in FIG. 18D, the height coordinate range H1 of the heading character string 1320 "name" includes the height coordinate range H2 of the character string 1329 "Fujitsu Hanako". However, when the upper limit of the height of the character string on the right side is set to the height corresponding to the coordinate range Th1, the height of the character string 1329 becomes larger than the height corresponding to the coordinate range Th1. In such a case, the space between the character string 1329 and another character string adjacent to each other in the height direction (vertical direction) becomes narrow, and there is a high possibility that an error occurs in character recognition. Further, for example, in the example of (a) and (b) of FIG. 18, when the company name or the logo of the organization is printed on the right side of the character string 1329, the company name or the logo is a part of the name. It may be recognized as. In order to prevent such a situation, if the height of the character string on the right side of the heading character string is larger than the height corresponding to the coordinate range Th1, the character string on the right side should not be used as the data candidate character string. You may. The coordinate range Th1 in this case may be appropriately set, and for example, Th1 = 1.7 × H1.

右方探索処理における第1のループ処理(ステップS82~S85)を終えると、画像認識装置2は、データ候補文字列を保持しているか否かを判定する(ステップS86)。データ候補文字列を保持していない場合(ステップS86;NO)、画像認識装置2は、右方探索処理を終了し、次に、下方探索処理(ステップS66)を行う。一方、データ候補文字列を保持している場合(ステップS86;YES)、画像認識装置2は、データ候補文字列からデータ文字列を抽出する第2のループ処理(ステップS87~S94)を行う。 When the first loop process (steps S82 to S85) in the right search process is completed, the image recognition device 2 determines whether or not the data candidate character string is held (step S86). When the data candidate character string is not held (step S86; NO), the image recognition device 2 ends the right side search process, and then performs the downward search process (step S66). On the other hand, when the data candidate character string is held (step S86; YES), the image recognition device 2 performs a second loop process (steps S87 to S94) for extracting the data character string from the data candidate character string.

例えば、図18の(a)のように、「氏名」という文字列1320が見出し文字列であり、見出し文字列の高さの座標範囲H1に、見出し文字列の右方の文字列1329の高さの座標範囲H2が含まれる場合、画像認識装置2は、文字列1329をデータ候補文字列として保持する。また、文字列1329の更に右方に別の文字列があり、かつ見出し文字列の高さの座標範囲H1に、当該別の文字列高さの座標範囲が含まれる場合、画像認識装置2は、文字列1329の更に右方に別の文字列をデータ候補文字列として保持する。この場合、画像認識装置2は、第1のループ処理の後、第2のループ処理(ステップS87~S94)を行う。 For example, as shown in FIG. 18A, the character string 1320 "name" is the heading character string, and the height of the character string 1329 to the right of the heading character string is in the coordinate range H1 of the height of the heading character string. When the coordinate range H2 is included, the image recognition device 2 holds the character string 1329 as a data candidate character string. Further, when there is another character string further to the right of the character string 1329 and the coordinate range H1 of the height of the heading character string includes the coordinate range of the other character string height, the image recognition device 2 , Another character string is held as a data candidate character string on the right side of the character string 1329. In this case, the image recognition device 2 performs the second loop processing (steps S87 to S94) after the first loop processing.

第2のループ処理では、データ候補文字列のうちの認識項目キーワードテーブル295の項目キーワードと一致するデータ候補文字列と、該データ候補文字列よりも右方の他のデータ候補文字列を、見出し文字列と対応した本人確認に利用可能な情報を示す文字列(データ文字列)から除外する。具体的には、図13のフローチャートのように、データ候補文字列が認識項目キーワードテーブル295の項目キーワードと一致した場合に別見出しフラグをONにし、別見出しフラグがONであるか否かに基づいてデータ候補文字列をデータ文字列とするか否かを判定する。 In the second loop processing, the data candidate character string that matches the item keyword of the recognition item keyword table 295 in the data candidate character string and another data candidate character string to the right of the data candidate character string are headed. Exclude from the character string (data character string) indicating the information that can be used for identity verification corresponding to the character string. Specifically, as shown in the flowchart of FIG. 13, when the data candidate character string matches the item keyword of the recognition item keyword table 295, the separate heading flag is turned ON, and it is based on whether or not the separate heading flag is ON. It is determined whether or not the data candidate character string is used as the data character string.

図19は、右方探索処理における別見出しフラグのオン/オフの判定方法を説明する図である。 FIG. 19 is a diagram illustrating a method of determining on / off of another heading flag in the right-side search process.

まず、図19の(a)を参照し、保険証10の画像の部分領域11Bに含まれる「氏名」という文字列1320が見出し文字列である場合の第2のループ処理の例を説明する。見出し文字列1320の右方には1つの文字列1329があり、見出し文字列1320の高さの座標範囲に文字列1329の高さの座標範囲が含まれる。このため、画像認識装置2は、文字列1329をデータ候補文字列として保持する(ステップS84)。この場合、画像認識装置2は、第1のループ処理の後、第2のループ処理(ステップS86~S94)を行う。 First, with reference to FIG. 19A, an example of the second loop processing in the case where the character string 1320 "name" included in the partial area 11B of the image of the health insurance card 10 is a heading character string will be described. There is one character string 1329 on the right side of the heading character string 1320, and the coordinate range of the height of the heading character string 1320 includes the coordinate range of the height of the character string 1329. Therefore, the image recognition device 2 holds the character string 1329 as a data candidate character string (step S84). In this case, the image recognition device 2 performs the second loop processing (steps S86 to S94) after the first loop processing.

第2のループ処理では、データ候補文字列を1つ選択し(ステップS87)、該データ候補文字列が認識項目キーワードテーブル295内の項目キーワードと一致するか否かを検索する(ステップS88~S91)。図19の(a)に示した「富士通 花子」という文字列1329をデータ候補文字列として保持している場合、認識項目キーワードテーブル295内の全ての項目キーワードは、文字列1329と一致しない。このため、第2のループ処理において文字列1329をデータ候補文字列に選択している場合、別見出しフラグはONにはならない。よって、画像認識装置2は、「富士通 花子」という文字列1329を「氏名」という文字列(見出し文字列)1320に対するデータ文字列として保持する(ステップS93)。第2のループ処理を終了した後、画像認識装置2は、「富士通 花子」という文字列1329を「氏名」という文字列(見出し文字列)1320に対するデータ文字列として返却し(ステップS95)、右方探索処理を終了する。 In the second loop process, one data candidate character string is selected (step S87), and it is searched whether or not the data candidate character string matches the item keyword in the recognition item keyword table 295 (steps S88 to S91). ). When the character string 1329 "Fujitsu Hanako" shown in FIG. 19 (a) is held as a data candidate character string, all the item keywords in the recognition item keyword table 295 do not match the character string 1329. Therefore, when the character string 1329 is selected as the data candidate character string in the second loop processing, the separate heading flag is not turned ON. Therefore, the image recognition device 2 holds the character string 1329 "Fujitsu Hanako" as a data character string for the character string (heading character string) 1320 "name" (step S93). After completing the second loop processing, the image recognition device 2 returns the character string 1329 "Fujitsu Hanako" as a data character string for the character string (heading character string) 1320 "name" (step S95), and right. The direction search process is terminated.

また、図13のフローチャートにおける見出し文字列が、図19の(b)に示した「生年月日」という文字列1330である場合、画像認識装置2は、第1のループ処理において、見出し文字列1330の右方に位置する「昭和 55年 11月 11日」という文字列1339をデータ候補文字列として保持する。また、画像認識装置2は、第1のループ処理において、文字列1339の更に右方にある「性別」という文字列1335、及び「女」という文字列1336を、データ候補文字列として保持する。 Further, when the heading character string in the flowchart of FIG. 13 is the character string 1330 "date of birth" shown in FIG. 19B, the image recognition device 2 performs the heading character string in the first loop processing. The character string 1339 "November 11, 1980" located on the right side of 1330 is retained as a data candidate character string. Further, in the first loop processing, the image recognition device 2 holds the character string 1335 "gender" and the character string 1336 "woman" on the right side of the character string 1339 as data candidate character strings.

第1のループ処理が終了すると、画像認識装置2は、第2のループ処理を行う。第2のループ処理では、まず、3つのデータ候補文字列のうちの見出し文字列1330に最も近い「昭和 55年 11月 11日」という文字列1339を選択し、認識項目キーワードテーブル295内の項目キーワードのそれぞれと比較する。認識項目キーワードテーブル295は具体的な日付を示す項目キーワード(文字列)を含まないので、別見出しフラグはオンにはならない。 When the first loop processing is completed, the image recognition device 2 performs the second loop processing. In the second loop processing, first, the character string 1339 "November 11, 1980", which is the closest to the heading character string 1330 among the three data candidate character strings, is selected, and the items in the recognition item keyword table 295 are selected. Compare with each of the keywords. Since the recognition item keyword table 295 does not include the item keyword (character string) indicating a specific date, the separate heading flag is not turned on.

次に、画像認識装置2は、「性別」という文字列1335を選択し、認識項目キーワードテーブル295内の項目キーワードのそれぞれと比較する。図6の認識項目キーワードテーブル295は性別という項目キーワードを含む。このため、第3のループ処理(ステップS88~S91)が終了すると、別見出しフラグはONになっている(ステップS92;YES)。よって、画像認識装置2は、第2のループ処理を終了し、現時点で保持しているデータ文字列1339を返却して右方探索処理を終了する。このように、本実施形態に係る画像認識装置2は、認識項目キーワードテーブル295内の項目キーワードと一致する見出し文字列の右方に別の項目キーワードと一致する文字列が含まれる場合、該別の項目キーワードと一致する文字列と見出し文字列との間に位置するデータ候補文字列のみをデータ文字列とする。これにより、本人確認に利用可能ではない「性別」等の文字列や、見出し文字列と対応しない本人確認情報を本人確認に利用可能な文字列として認識することを防げる。 Next, the image recognition device 2 selects the character string 1335 "gender" and compares it with each of the item keywords in the recognition item keyword table 295. The recognition item keyword table 295 of FIG. 6 includes an item keyword of gender. Therefore, when the third loop processing (steps S88 to S91) is completed, the separate heading flag is turned ON (step S92; YES). Therefore, the image recognition device 2 ends the second loop process, returns the data character string 1339 currently held, and ends the right-hand search process. As described above, when the image recognition device 2 according to the present embodiment includes a character string matching another item keyword on the right side of the heading character string matching the item keyword in the recognition item keyword table 295, the other Only the data candidate character string located between the character string matching the item keyword and the heading character string is used as the data character string. This makes it possible to prevent the recognition of a character string such as "gender" that cannot be used for identity verification and the identity verification information that does not correspond to the heading character string as a character string that can be used for identity verification.

なお、本人確認書類のなかには、見出し文字列と対応する本人確認情報が見出し文字列の下方に印刷されているものもある。このような本人確認書類の画像を2値化して文字列を抽出した後、上記の右方探索処理を行うと、見出し文字列と対応する本人確認に利用可能な文字列の探索に失敗する。本実施形態の画像認識装置2は、右方探索処理による文字列の探索に失敗した場合、上記のように、下方探索処理を行う。下方探索処理では、画像認識装置2は、右方探索処理と同様の手法により、見出し文字列と対応するデータ文字列を抽出する。下方探索処理では、図14のフローチャートのように、見出し文字列の下方にあり、かつ幅の座標範囲が見出し文字列の幅の座標範囲に含まれる文字列を、データ候補文字列とする。 In some of the identity verification documents, the identity verification information corresponding to the heading character string is printed below the heading character string. If the above-mentioned right-hand search process is performed after binarizing the image of such an identity verification document and extracting the character string, the search for the character string that can be used for identity verification corresponding to the heading character string fails. When the image recognition device 2 of the present embodiment fails to search for the character string by the right-side search process, the image recognition device 2 performs the downward search process as described above. In the downward search process, the image recognition device 2 extracts the data character string corresponding to the heading character string by the same method as the right side search process. In the downward search process, as shown in the flowchart of FIG. 14, a character string that is below the heading character string and whose width coordinate range is included in the width coordinate range of the heading character string is set as a data candidate character string.

図20は、下方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。 FIG. 20 is a diagram illustrating an example of a method of determining whether or not to use as a data candidate character string in the downward search process.

図20の(a)~(c)には、それぞれ、「有効期限」という見出し文字列1340と、該見出し文字列1340の下方に位置する「平成元年3月31日」という具体的な日付を示す文字列1341の位置及び寸法の関係を示している。 In FIGS. 20 (a) to 20 (c), the heading character string 1340 "expiration date" and the specific date "March 31, 1989" located below the heading character string 1340 are shown, respectively. The relationship between the position and the dimension of the character string 1341 indicating the above is shown.

見出し文字列1340の幅の座標範囲W1は、見出し文字列1340を囲む矩形領域における左上角部の横座標(x座標)と、右下角部の横座標(座標)により算出される。よって、画像認識装置2は、「平成元年3月31日」という文字列1341を含む、見出し文字列1340の下方に位置する文字列のそれぞれの幅の座標範囲が見出し文字列1340の幅の座標範囲W1に含まれるか否かを判定する(ステップS103)。 The coordinate range W1 of the width of the heading character string 1340 is calculated by the abscissa (x coordinate) of the upper left corner portion and the abscissa (coordinates) of the lower right corner portion in the rectangular area surrounding the heading character string 1340. Therefore, in the image recognition device 2, the coordinate range of the width of each of the character strings located below the heading character string 1340 including the character string 1341 of "March 31, 1989" is the width of the heading character string 1340. It is determined whether or not it is included in the coordinate range W1 (step S103).

例えば、図20の(a)では、「平成元年3月31日」という文字列1341の左端は見出し文字列1340の右端よりも左方にあり、該文字列1341の右端は見出し文字列1340の右端よりも右方にある。このような場合、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2が含まれる(ステップS103;YES)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列として保持する(ステップS104)。 For example, in FIG. 20A, the left end of the character string 1341 "March 31, 1989" is to the left of the right end of the heading character string 1340, and the right end of the character string 1341 is the heading character string 1340. It is to the right of the right edge of. In such a case, the coordinate range W1 having the width of the heading character string 1340 includes the coordinate range W2 having the width of the character string 1341 (step S103; YES). Therefore, the image recognition device 2 holds the character string 1341 "March 31, 1989" as a data candidate character string (step S104).

また、図20の(b)では、「平成元年3月31日」という文字列1341は見出し文字列1340の左端よりも左方にあり、該文字列1341の右端は見出し文字列1340の右端よりも右方にある。このような場合も、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2が含まれる(ステップS103;YES)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列として保持する(ステップS104)。 Further, in FIG. 20B, the character string 1341 "March 31, 1989" is to the left of the left end of the heading character string 1340, and the right end of the character string 1341 is the right end of the heading character string 1340. To the right of. Even in such a case, the coordinate range W1 having the width of the heading character string 1340 includes the coordinate range W2 having the width of the character string 1341 (step S103; YES). Therefore, the image recognition device 2 holds the character string 1341 "March 31, 1989" as a data candidate character string (step S104).

これに対し、図20の(c)では、「平成元年3月31日」という文字列1341の左端は、見出し文字列1340の右端よりも右方にある。このような場合、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2は含まれない(ステップS103;NO)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列とはしない。 On the other hand, in FIG. 20 (c), the left end of the character string 1341 "March 31, 1989" is to the right of the right end of the heading character string 1340. In such a case, the coordinate range W1 having the width of the heading character string 1340 does not include the coordinate range W2 having the width of the character string 1341 (step S103; NO). Therefore, the image recognition device 2 does not use the character string 1341 "March 31, 1989" as a data candidate character string.

なお、図20に示したように、見出し文字列1340の下方に見出し文字列1340と対応する文字列1341が印刷されており、かつ各文字列が横書きである場合、見出し文字列1340と対応する文字列が複数行になることは非常に少ない。また、見出し文字列1340の下方に見出し文字列1340と対応する文字列1341が印刷されており、かつ各文字列が横書きである場合、見出し文字列1340の下方には、見出し文字列1340とは異なる項目キーワードと対応する文字列の一部が含まれることがある。このため、見出し文字列1340の下方に位置する文字列1341を探索する場合、例えば、見出し文字列1340の高さの座標範囲H11に基づいて、文字列の探索範囲を制限してもよい。図20の(a)には、見出し文字列1340の下方の探索範囲を、見出し文字列1340の高さの座標範囲H11の5倍(5×H11)とする例を示している。 As shown in FIG. 20, when the character string 1341 corresponding to the heading character string 1340 is printed below the heading character string 1340 and each character string is written horizontally, it corresponds to the heading character string 1340. It is very rare for a string to be on multiple lines. Further, when the character string 1341 corresponding to the heading character string 1340 is printed below the heading character string 1340 and each character string is written horizontally, the heading character string 1340 is below the heading character string 1340. It may contain different item keywords and parts of the corresponding string. Therefore, when searching for the character string 1341 located below the heading character string 1340, the search range of the character string may be limited, for example, based on the coordinate range H11 of the height of the heading character string 1340. FIG. 20A shows an example in which the search range below the heading character string 1340 is set to 5 times (5 × H11) the coordinate range H11 of the height of the heading character string 1340.

このように、見出し文字列1340の下方の探索範囲を制限することにより、見出し文字列1340とは関係のない文字列を見出し文字列1340と対応する文字列の一部として認識することを防げる。また、見出し文字列1340の下方の探索範囲を制限することにより、下方探索処理を短時間で効率よく行うことが可能となる。 By limiting the search range below the heading character string 1340 in this way, it is possible to prevent the character string unrelated to the heading character string 1340 from being recognized as a part of the character string corresponding to the heading character string 1340. Further, by limiting the search range below the heading character string 1340, the downward search process can be efficiently performed in a short time.

本実施形態に係る無罫線キーワード認識方式による文字認識処理では、上記の右方探索処理又は下方探索処理により文字認識をするデータ文字列を探索した後、データ文字列補正処理(ステップS67)により、データ文字列の文字認証及び補正を行う。画像認識装置2は、データ文字列補正処理として、例えば、図15A及び図15Bのフローチャートに沿った処理を行う。データ文字列補正処理では、画像認識装置2は、横方向或いは縦方向で隣り合い、かつ距離が閾値以下となる複数のデータ文字列を結合して1つのデータ文字列にする処理を行う。その後、画像認識装置2は、既知の文字認識方法に従って各データ文字列の文字認識を行う。更に、画像認識装置2は、データ文字列の文字認識の結果と、該データ文字列と対応する認識項目の本人確認書類内での様式に基づいて、文字の認識結果における見出し文字列とは関係のない部分を削除する補正を行う。 In the character recognition process by the non-ruled line keyword recognition method according to the present embodiment, after searching for a data character string for character recognition by the above-mentioned right side search process or downward search process, the data character string correction process (step S67) is performed. Performs character recognition and correction of data character strings. The image recognition device 2 performs, for example, a process according to the flowcharts of FIGS. 15A and 15B as the data character string correction process. In the data character string correction process, the image recognition device 2 performs a process of combining a plurality of data character strings that are adjacent to each other in the horizontal or vertical direction and whose distance is equal to or less than a threshold value to form one data character string. After that, the image recognition device 2 performs character recognition of each data character string according to a known character recognition method. Further, the image recognition device 2 has a relationship between the character recognition result of the data character string and the heading character string in the character recognition result based on the format in the identity verification document of the recognition item corresponding to the data character string. Make a correction to delete the part without.

図21は、データ文字列の補正方法を説明する図である。
図21の(a)には、保険証10の画像における氏名の行を含む部分領域11Cを示している。部分領域11Cから抽出した文字列のうち「氏名」という文字列1320は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「氏名」という文字列1320を見出し文字列とした右方探索処理を行う。「氏名」という文字列1320を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「富士通 花子」という文字列1329、及び「ジェネリック希望」という文字列1350をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「富士通 花子」という文字列1329、及び「ジェネリック希望」という文字列1350を、「氏名」という文字列1320に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。
FIG. 21 is a diagram illustrating a method for correcting a data character string.
FIG. 21 (a) shows a partial area 11C including a line of names in the image of the health insurance card 10. Of the character strings extracted from the subregion 11C, the character string 1320 "name" matches the item keyword in the recognition item keyword table 295, and thus becomes a heading character string. Therefore, the image recognition device 2 performs a right-side search process using the character string 1320 "name" as a heading character string. In the right-hand search process using the character string 1320 of "name" as the heading character string, the image recognition device 2 uses, for example, the character string 1329 of "Fujitsu Hanako" and the character string 1350 of "generic hope" as data candidate character strings. And. The two data candidate character strings do not match the item keywords in the recognition item keyword table 295. Therefore, the image recognition device 2 sets the character string 1329 "Fujitsu Hanako" and the character string 1350 "generic hope" as data character strings for the character string 1320 "name", and ends the right search process. After completing the right-side search process, the image recognition device 2 omits the downward search process, and then performs the data character string correction process.

データ文字列補正処理では、画像認識装置2は、まず、見出し文字列と対応するデータ文字列が複数である場合に、該複数のデータ文字列のなかから文字認識を行うデータ文字列を決定する第1のループ処理(ステップS124~S129)を行う。第1のループ処理では、まず、複数のデータ文字列のうちの見出し文字列に最も近い文字列を最初の文字列(補正データ文字列)と、該最初の文字列の右方で隣り合う次の文字列との距離が、認識項目テーブルにおいて見出し文字列(認識項目)と対応する文字列間の距離閾値以内であるか否かを判定する。図21の(a)の例では、画像認識装置2は、「富士通 花子」という文字列1329を最初の文字列とし、「ジェネリック希望」という文字列1350を次の文字列として、2つの文字列の距離D2を算出する。ここで、見出し文字列1320は「氏名」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D2が10mm以内である場合(ステップS127;YES)、「ジェネリック希望」という文字列1350を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「富士通 花子」という文字列1329と「ジェネリック希望」という文字列1350とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「富士通 花子 ジェネリック希望」の文字認識をする(ステップS132)。一方、算出した距離D2が10mmよりも離れている場合(ステップS127;NO)、画像認識装置2は、第1のループ処理を終了し、「富士通 花子」という文字列1329の文字認識を行う。 In the data character string correction process, the image recognition device 2 first determines, when there are a plurality of data character strings corresponding to the heading character string, a data character string for character recognition from the plurality of data character strings. The first loop processing (steps S124 to S129) is performed. In the first loop processing, first, the character string closest to the heading character string among the plurality of data character strings is the first character string (correction data character string) and the next adjacent to the right of the first character string. It is determined whether or not the distance from the character string of is within the distance threshold between the heading character string (recognition item) and the corresponding character string in the recognition item table. In the example of (a) of FIG. 21, the image recognition device 2 has two character strings, with the character string 1329 "Fujitsu Hanako" as the first character string and the character string 1350 "generic hope" as the next character string. The distance D2 of is calculated. Here, since the heading character string 1320 is a character string "name", the image recognition device 2 acquires, for example, the distance threshold value (10 mm) between the character strings from the recognition item table 296 of FIG. 7. That is, when the calculated distance D2 is within 10 mm (step S127; YES), the image recognition device 2 holds the character string 1350 "generic hope" as a correction data character string (step S128), and the first loop. End the process. In this case, the image recognition device 2 combines the character string 1329 "Fujitsu Hanako" and the character string 1350 "generic hope" into one character string (step S131), and the combined character string "Fujitsu". Character recognition of "Hanako Generic Hope" is performed (step S132). On the other hand, when the calculated distance D2 is more than 10 mm (step S127; NO), the image recognition device 2 ends the first loop process and recognizes the character string 1329 "Fujitsu Hanako".

また、画像認識装置2は、文字認識を行った後、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。 Further, after performing character recognition, the image recognition device 2 determines whether or not the recognition result is within the number of digits set in the recognition item table 296.

例えば、図21の(b)には、保険証10の画像における性別の行を含む部分領域11Dを示している。部分領域11Dから抽出した文字列のうち「性別」という文字列1335は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「性別」という文字列1335を見出し文字列とした右方探索処理を行う。「性別」という文字列1335を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「女」という文字列1336、及び「**会社」という文字列1351をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「女」という文字列1336、及び「**会社」という文字列1351を、「性別」という文字列1335に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。 For example, FIG. 21B shows a partial region 11D containing a gender row in the image of health insurance card 10. Of the character strings extracted from the subregion 11D, the character string 1335 "gender" matches the item keyword in the recognition item keyword table 295, and thus becomes a heading character string. Therefore, the image recognition device 2 performs a right-hand search process using the character string 1335 "gender" as a heading character string. In the right-hand search process using the character string 1335 of "gender" as the heading character string, the image recognition device 2 uses, for example, the character string 1336 of "woman" and the character string 1351 of "** company" as data candidate character strings. And. The two data candidate character strings do not match the item keywords in the recognition item keyword table 295. Therefore, the image recognition device 2 sets the character string 1336 of "woman" and the character string 1351 of "** company" as the data character string for the character string 1335 of "gender", and ends the right-hand search process. After completing the right-side search process, the image recognition device 2 omits the downward search process, and then performs the data character string correction process.

データ文字列補正処理では、画像認識装置2は、「女」という文字列1336を最初の文字列とし、「**会社」という文字列1351を次の文字列として、2つの文字列の距離D3を算出する。ここで、見出し文字列1335は「性別」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D3が10mm以内である場合(ステップS127;YES)、「**会社」という文字列1351を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「女」という文字列1336と「**会社」という文字列1351とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「女 **会社」の文字認識をする(ステップS132)。 In the data character string correction process, the image recognition device 2 uses the character string 1336 as the first character string as the first character string and the character string 1351 as the next character string as the next character string, and the distance D3 between the two character strings. Is calculated. Here, since the heading character string 1335 is a character string of "gender", the image recognition device 2 acquires, for example, the distance threshold value (10 mm) between the character strings from the recognition item table 296 of FIG. 7. That is, when the calculated distance D3 is within 10 mm (step S127; YES), the image recognition device 2 holds the character string 1351 "** company" as a correction data character string (step S128), and the first step is made. End the loop processing. In this case, the image recognition device 2 combines the character string 1336 "woman" and the character string 1351 "** company" into one character string (step S131), and the combined character string "woman". The character recognition of "** company" is performed (step S132).

「女 **会社」の文字認識をした後、画像認識装置2は、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。図7の認識項目テーブル296では、性別に対する桁数が1となっている。したがって、画像認識装置2は、文字認識の結果が認識項目テーブル296に設定された桁数よりも多いと判定し(ステップS133;NO)、認識結果における設定された桁数+1桁以降の文字列(すなわち2桁目以降の文字列)を削除する。これにより、「性別」という見出し文字列1335に対するデータ文字列の文字認識の結果は、1桁の「女」という文字(文字列1336)となる。したがって、本実施形態の画像認識装置2は、見出し文字列と対応した本人確認に利用可能な情報の近くに見出し文字列と対応しない他の情報が印刷された本人確認書類の画像から、見出し文字列と対応した本人確認に利用可能な情報のみを適切に認識することができる。 After recognizing the characters of "female ** company", the image recognition device 2 determines whether or not the recognition result is within the number of digits set in the recognition item table 296. In the recognition item table 296 of FIG. 7, the number of digits for the gender is 1. Therefore, the image recognition device 2 determines that the result of character recognition is larger than the number of digits set in the recognition item table 296 (step S133; NO), and the set number of digits in the recognition result + 1 character string or later. (That is, the character string after the second digit) is deleted. As a result, the result of character recognition of the data character string for the heading character string 1335 "gender" is the single digit "woman" character (character string 1336). Therefore, the image recognition device 2 of the present embodiment has a heading character from an image of an identity verification document in which other information not corresponding to the heading character string is printed near the information available for identity verification corresponding to the heading character string. Only the information available for identity verification corresponding to the column can be properly recognized.

また、画像認識装置2は、文字認識の結果に、認識項目テーブル296に設定された最終文字が含まれるか否かを判定する。 Further, the image recognition device 2 determines whether or not the final character set in the recognition item table 296 is included in the character recognition result.

例えば、図21の(c)には、保険証10の画像における生年月日の行を含む部分領域11Eを示している。部分領域11Eから抽出した文字列のうち「生年月日」という文字列1330は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「生年月日」という文字列1330を見出し文字列とした右方探索処理を行う。「生年月日」という文字列1330を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「昭和 55年 11月 11日」という文字列1339、及び「株式会社××」という文字列1352をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339、及び「株式会社××」という文字列1352を、「生年月日」という文字列1330に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。 For example, FIG. 21 (c) shows the partial region 11E including the line of date of birth in the image of the health insurance card 10. Of the character strings extracted from the subregion 11E, the character string 1330 "date of birth" matches the item keyword in the recognition item keyword table 295, and thus becomes a heading character string. Therefore, the image recognition device 2 performs a right-hand search process using the character string 1330 "date of birth" as a heading character string. In the right-hand search process using the character string 1330 "date of birth" as the heading character string, the image recognition device 2 uses, for example, the character string 1339 "November 11, 1980" and "XX Co., Ltd." The character string 1352 is used as a data candidate character string. The two data candidate character strings do not match the item keywords in the recognition item keyword table 295. Therefore, the image recognition device 2 uses the character string 1339 "November 11, 1980" and the character string 1352 "XX Co., Ltd." as the data character string for the character string 1330 "date of birth". , Ends the right search process. After completing the right-side search process, the image recognition device 2 omits the downward search process, and then performs the data character string correction process.

データ文字列補正処理では、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339を最初の文字列とし、「株式会社××」という文字列1352を次の文字列として、2つの文字列の距離D4を算出する。ここで、見出し文字列1330は「生年月日」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D4が10mm以内である場合(ステップS127;YES)、「株式会社××」という文字列1352を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339と「株式会社××」という文字列1352とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「昭和 55年 11月 11日 株式会社××」の文字認識をする(ステップS132)。 In the data character string correction process, the image recognition device 2 uses the character string 1339 "November 11, 1980" as the first character string and the character string 1352 "XX Co., Ltd." as the next character string. The distance D4 between the two character strings is calculated. Here, since the heading character string 1330 is a character string "date of birth", the image recognition device 2 acquires, for example, the distance threshold value (10 mm) between the character strings from the recognition item table 296 of FIG. That is, when the calculated distance D4 is within 10 mm (step S127; YES), the image recognition device 2 holds the character string 1352 "XX Co., Ltd." as a correction data character string (step S128), and the first Ends the loop processing of. In this case, the image recognition device 2 combines the character string 1339 "November 11, 1980" and the character string 1352 "XX Co., Ltd." into one character string (step S131), and the combination is performed. The character recognition of one character string "November 11, 1980 XX Co., Ltd." is performed (step S132).

「昭和 55年 11月 11日 株式会社××」の文字認識をした後、画像認識装置2は、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。図7の認識項目テーブル296では、生年月日のうち年号の桁数が2であり、年月日の桁数が8である。したがって、画像認識装置2は、文字認識の結果が認識項目テーブル296に設定された桁数(10桁)よりも多いと判定し(ステップS133;NO)、認識結果における設定された桁数(10)+1桁以降の文字列(すなわち11桁目以降の文字列)を削除する。この場合、例えば、平成2年1月1日のように年、月、日を示す数字のそれぞれが1桁であると、「株式会社××」の一部が削除されずに残ってしまうことがある。 After recognizing the characters of "November 11, 1980, XX Co., Ltd.", the image recognition device 2 determines whether or not the recognition result is within the number of digits set in the recognition item table 296. In the recognition item table 296 of FIG. 7, the number of digits of the year is 2 and the number of digits of the date is 8 among the dates of birth. Therefore, the image recognition device 2 determines that the character recognition result is larger than the number of digits (10 digits) set in the recognition item table 296 (step S133; NO), and the set number of digits (10) in the recognition result. ) +1 Delete the character string after the digit (that is, the character string after the 11th digit). In this case, for example, if each of the numbers indicating the year, month, and day is one digit, such as January 1, 1990, a part of "XX Co., Ltd." will remain without being deleted. There is.

このため、本実施形態の画像認識装置2では、次に、文字認識の結果に、認識項目テーブル296に設定された最終文字が含まれるか否かを判定する。図7の認識項目テーブル296では、生年月日の年月日の最終文字が「日」となっている。このため、画像認識装置2は、例えば、「昭和 55年 11月 11日 株」のような文字列内で「日」という文字を検索し、「昭和 55年 11月 11日」という文字列1339に含まれる「日」という文字14を検出する。この場合、画像認識装置2は、「昭和 55年 11月 11日 株」の文字列における「日」という文字14よりも後の文字列を削除する。これにより、生年月日の文字認識の結果に含まれる日付とは関係のない情報(株式会社××)を削除し、見出し文字列と対応した本人確認に利用可能な情報のみを適切に認識することができる。 Therefore, in the image recognition device 2 of the present embodiment, it is next determined whether or not the final character set in the recognition item table 296 is included in the character recognition result. In the recognition item table 296 of FIG. 7, the last character of the date of birth is "day". Therefore, the image recognition device 2 searches for the character "day" in a character string such as "November 11, 1980 stock", and the character string 1339 "November 11, 1980". The character 14 of "day" contained in is detected. In this case, the image recognition device 2 deletes the character string after the character 14 of "day" in the character string of "November 11, 1980 stock". As a result, the information (XX Co., Ltd.) that is not related to the date included in the result of character recognition of the date of birth is deleted, and only the information that can be used for identity verification corresponding to the heading character string is appropriately recognized. be able to.

以上説明したように、本実施形態の画像認識装置2は、本人確認書類に記載された項目名と、該項目名と対応する本人確認に利用可能な情報を示す文字列との位置関係に基づいて、項目名と対応する文字列の位置を特定することができる。このため、本実施形態の画像認識装置2によれば、本人確認書類の画像に含まれる文字列のうちの文字認識をする文字列の位置が予め定められていない場合でも、本人確認に利用可能な文字列を適切に認識するができる。したがって、本実施形態の画像認識装置2では、例えば、フォーマットが統一されていない保険証等の本人確認書類の画像から本人確認に利用可能な文字列を適切に認識するができる。 As described above, the image recognition device 2 of the present embodiment is based on the positional relationship between the item name described in the identity verification document and the character string indicating the information that can be used for identity verification corresponding to the item name. The position of the character string corresponding to the item name can be specified. Therefore, according to the image recognition device 2 of the present embodiment, even if the position of the character string for character recognition among the character strings included in the image of the identity verification document is not predetermined, it can be used for identity verification. Can properly recognize various character strings. Therefore, in the image recognition device 2 of the present embodiment, for example, a character string that can be used for identity verification can be appropriately recognized from an image of an identity verification document such as a health insurance card whose format is not unified.

なお、図3の書類識別テーブル291及び図4の書類種類テーブル292は、書類種類識別部202が参照する本人確認書類の種類、識別キーワード(文字列)、識別キーワードの画像内での位置、及び文字認識の方式の対応関係を示す情報の一例に過ぎない。また、図6の認識項目キーワードテーブル295は、キーワード認識部212及び無罫線キーワード認識部213が参照する画像内の本人確認書類に含まれる項目名(項目キーワード)を示す情報の一例に過ぎない。また、図7の認識項目テーブル296及び図8の認識カテゴリテーブル297は、認識結果補正部205が参照する、認識結果から削除しても問題のない部分を示す情報の一例に過ぎない。 In the document identification table 291 of FIG. 3 and the document type table 292 of FIG. 4, the type of identity verification document referred to by the document type identification unit 202, the identification keyword (character string), the position of the identification keyword in the image, and It is just an example of information that shows the correspondence between character recognition methods. Further, the recognition item keyword table 295 of FIG. 6 is only an example of information indicating an item name (item keyword) included in the identity verification document in the image referred to by the keyword recognition unit 212 and the non-ruled line keyword recognition unit 213. Further, the recognition item table 296 of FIG. 7 and the recognition category table 297 of FIG. 8 are merely examples of information that is referred to by the recognition result correction unit 205 and indicates a portion that can be deleted from the recognition result without any problem.

また、図2の画像認識装置2において記憶部290に記憶させている書類識別テーブル291等の各種情報の一部又は全部は、画像認識装置2とは別の装置(例えばサーバ装置6等)に記憶させておいてもよい。 Further, a part or all of various information such as the document identification table 291 stored in the storage unit 290 in the image recognition device 2 of FIG. 2 is stored in a device different from the image recognition device 2 (for example, a server device 6 or the like). You may memorize it.

また、本実施形態では認識項目キーワードテーブル295内の項目キーワードと一致する文字列(見出し文字列)の右方を探索する右方探索処理と、見出し文字列の下方を探索する下方探索処理とにより、見出し文字列と対応した、文字認識を行う文字列を特定した。しかしながら、探索する方向は、右方及び下方に限らず、本人確認書類における項目名(見出し文字列)と、該項目名と対応する本人確認に利用可能な情報との位置関係に応じて、適宜変更可能である。 Further, in the present embodiment, a right-hand search process for searching the right side of the character string (heading character string) matching the item keyword in the recognition item keyword table 295 and a downward search process for searching the lower part of the heading character string are performed. , The character string that performs character recognition corresponding to the heading character string was specified. However, the search direction is not limited to the right side and the lower side, and is appropriate depending on the positional relationship between the item name (heading character string) in the identity verification document and the information available for identity verification corresponding to the item name. It can be changed.

また、本実施形態に係る画像認識装置2は、コンピュータと、該コンピュータに実行させるプログラムにより実現可能である。以下、図22を参照し、コンピュータとプログラムとにより実現される画像認識装置2について説明する。 Further, the image recognition device 2 according to the present embodiment can be realized by a computer and a program executed by the computer. Hereinafter, the image recognition device 2 realized by the computer and the program will be described with reference to FIG. 22.

図22は、コンピュータのハードウェア構成を示す図である。
図22に示すように、コンピュータ20は、CPU(Central Processing Unit)2001と、メモリ2002と、補助記憶装置2003と、入出力インタフェース2004と、表示制御装置2005と、通信制御装置2006と、媒体駆動装置2007とを備える。コンピュータ20におけるこれらの要素2001~2007は、バス2010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 22 is a diagram showing a hardware configuration of a computer.
As shown in FIG. 22, the computer 20 includes a CPU (Central Processing Unit) 2001, a memory 2002, an auxiliary storage device 2003, an input / output interface 2004, a display control device 2005, a communication control device 2006, and a medium drive. The device 2007 is provided. These elements 2001 to 2007 in the computer 20 are connected to each other by a bus 2010, and data can be exchanged between the elements.

CPU 2001は、オペレーティングシステムを含む各種のプログラムを実行することによりコンピュータ20の全体の動作を制御するプロセッサである。例えば、CPU 2001は、図9のステップS1~S6の処理を含む画像認識プログラムを実行する。画像認識プログラムにおけるステップS2のアプリケーション処理は、例えば、図10のステップS11~S22の処理を含む処理としてサブルーチン化されている。図10のアプリケーション処理におけるステップS15の本人確認書類識別処理は、例えば、図11A及び図11BのステップS31~S52の処理を含む処理としてサブルーチン化されている。また、図10のアプリケーション処理におけるステップS21の無罫線キーワード認識方式による文字認識処理は、例えば、図12のステップS61~S70の処理を含む処理としてサブルーチン化されている。また、図12の文字認識処理におけるステップS64の右方探索処理は、例えば、図13のステップS81~S95の処理を含む処理としてサブルーチン化されている。同様に、図12の文字認識処理におけるステップS66の下方探索処理は、例えば、図14のステップS101~S115の処理を含む処理としてサブルーチン化されている。更に、図12の文字認識処理におけるステップS67のデータ文字列補正処理は、例えば、図15A及び図15BのステップS121~S138の処理を含む処理としてサブルーチン化されている。 The CPU 2001 is a processor that controls the overall operation of the computer 20 by executing various programs including an operating system. For example, the CPU 2001 executes an image recognition program including the processes of steps S1 to S6 of FIG. The application process of step S2 in the image recognition program is made into a subroutine as a process including the processes of steps S11 to S22 of FIG. 10, for example. The identity verification document identification process of step S15 in the application process of FIG. 10 is made into a subroutine as a process including, for example, the processes of steps S31 to S52 of FIGS. 11A and 11B. Further, the character recognition process by the ruled line keyword recognition method in step S21 in the application process of FIG. 10 is made into a subroutine as a process including the processes of steps S61 to S70 of FIG. 12, for example. Further, the right side search process of step S64 in the character recognition process of FIG. 12 is made into a subroutine as a process including, for example, the processes of steps S81 to S95 of FIG. Similarly, the downward search process of step S66 in the character recognition process of FIG. 12 is made into a subroutine as a process including, for example, the processes of steps S101 to S115 of FIG. Further, the data character string correction process of step S67 in the character recognition process of FIG. 12 is made into a subroutine as a process including, for example, the processes of steps S121 to S138 of FIGS. 15A and 15B.

メモリ2002は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含む。メモリ2002のROMには、例えば、コンピュータ20の起動時にCPU 2001が読み出す所定の基本制御プログラム等が予め記録されている。また、メモリ2002のRAMは、CPU 2001が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。メモリ2002のRAMは、例えば、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、書類識別テーブル291等から読み出したレコード等の記憶に利用可能である。 The memory 2002 includes a ROM (Read Only Memory) and a RAM (Random Access Memory). In the ROM of the memory 2002, for example, a predetermined basic control program or the like read by the CPU 2001 when the computer 20 is started is recorded in advance. Further, the RAM of the memory 2002 is used by the CPU 2001 as a work storage area as needed when executing various programs. The RAM of the memory 2002 can be used, for example, to store an image of an identity verification document, a character string extracted from a binarized image of an identity verification document, a record read from a document identification table 291 or the like, and the like.

補助記憶装置2003は、例えば、HDD(Hard Disk Drive)等の磁気ディスク、及びフラッシュメモリディスク等の不揮発性メモリディスクである。補助記憶装置2003には、CPU 2001によって実行される各種のプログラムや各種のデータ等を記憶させることができる。補助記憶装置2003は、例えば、上記の画像認識プログラム等の記憶に利用可能である。また、補助記憶装置2003は、例えば、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298の記憶に利用可能である。また、補助記憶装置2003は、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、及び文字認識の結果等の記憶にも利用可能である。 The auxiliary storage device 2003 is, for example, a magnetic disk such as an HDD (Hard Disk Drive) and a non-volatile memory disk such as a flash memory disk. The auxiliary storage device 2003 can store various programs, various data, and the like executed by the CPU 2001. The auxiliary storage device 2003 can be used, for example, for storage of the above-mentioned image recognition program and the like. Further, the auxiliary storage device 2003 includes, for example, a document identification table 291, a document type table 292, a recognition method table 293, a fixed position recognition table 294, a recognition item keyword table 295, a recognition item table 296, a recognition category table 297, and a print character. It can be used to store the recognition dictionary 298. Further, the auxiliary storage device 2003 can also be used to store an image of the identity verification document, a character string extracted from the binarized image of the identity verification document, a character recognition result, and the like.

入出力力インタフェース2004は、スキャナ装置3及び他の入力装置4から入力される情報を受け付けるとともに、図示しない出力装置に対して情報を出力するハードウェアインタフェースである。入力装置4は、例えば、キーボード装置、マウス装置、及びタッチパネル装置等である。図示しない出力装置は、例えば、プリンタ装置である。 The input / output force interface 2004 is a hardware interface that receives information input from the scanner device 3 and other input devices 4 and outputs information to an output device (not shown). The input device 4 is, for example, a keyboard device, a mouse device, a touch panel device, and the like. The output device (not shown) is, for example, a printer device.

表示制御装置2005は、液晶表示装置等の表示装置5の表示画面の制御等を行う。表示制御装置2005は、例えば、コンピュータ20の動作状態、補助記憶装置2003に記憶させた本人確認書類の画像や文字認識の結果等を含む画面を生成し、表示装置5に表示させる。 The display control device 2005 controls the display screen of the display device 5 such as a liquid crystal display device. The display control device 2005 generates, for example, a screen including the operating state of the computer 20, the image of the identity verification document stored in the auxiliary storage device 2003, the result of character recognition, and the like, and displays the screen on the display device 5.

通信制御装置2006は、コンピュータ20を通信ネットワーク7に接続し、通信ネットワークを介したコンピュータ20と他の電子機器(例えばサーバ装置6)との各種通信を制御する装置である。 The communication control device 2006 is a device that connects a computer 20 to a communication network 7 and controls various communications between the computer 20 and another electronic device (for example, a server device 6) via the communication network.

媒体駆動装置2007は、可搬型記録媒体21に記録されているプログラムやデータの読み出し、補助記憶装置2003に記憶されたデータ等の可搬型記録媒体21への書き込みを行う。可搬型記録媒体21としては、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)がある。可搬型記録媒体21は、上記の各プログラムの記録に利用可能である。また、可搬型記録媒体21は、例えば、上記の画像認識プログラム等の記憶に利用可能である。また、可搬型記録媒体21は、例えば、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298の記憶に利用可能である。また、可搬型記録媒体21は、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、及び文字認識の結果等の記憶にも利用可能である。 The medium drive device 2007 reads out the programs and data recorded in the portable recording medium 21, and writes the data stored in the auxiliary storage device 2003 to the portable recording medium 21. As the portable recording medium 21, for example, there is a memory card (flash memory) of the Secure Digital (SD) standard. The portable recording medium 21 can be used for recording each of the above programs. Further, the portable recording medium 21 can be used for storing, for example, the above-mentioned image recognition program. Further, the portable recording medium 21 is, for example, a document identification table 291, a document type table 292, a recognition method table 293, a fixed position recognition table 294, a recognition item keyword table 295, a recognition item table 296, a recognition category table 297, and a print. It can be used to store the character recognition dictionary 298. Further, the portable recording medium 21 can also be used for storing an image of an identity verification document, a character string extracted from a binarized image of an identity verification document, a result of character recognition, and the like.

更に、コンピュータ20が媒体駆動装置2007として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体21として利用可能である。可搬型記録媒体21として利用可能な光ディスクには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、Blu-ray Disc(Blu-rayは登録商標)等がある。 Further, when the computer 20 is equipped with an optical disc drive that can be used as the medium drive device 2007, various optical discs that can be recognized by the optical disc drive can be used as the portable recording medium 21. Optical discs that can be used as the portable recording medium 21 include, for example, CDs (Compact Discs), DVDs (Digital Versatile Discs), Blu-ray Discs (Blu-ray is a registered trademark), and the like.

コンピュータ20は、起動させると、CPU 2001が補助記憶装置2003等から上記の各処理を含む画像認識プログラムを読み出して実行する。画像認識プログラムを実行している間、CPU 2001は、画像認識装置2の書類種類識別部202、認識方式選択部203、項目位置特定部204、認識結果補正部205、文字認識部206、認識結果通知部207、及び主制御部209として機能する(動作する)。また、上記の画像認識プログラムを実行している間、コンピュータ20のメモリ2002におけるRAM、補助記憶装置2003、及び可搬型記録媒体21等の非一時的な記録媒体は、画像認識装置2の記憶部290として機能する。 When the computer 20 is started, the CPU 2001 reads out an image recognition program including each of the above processes from the auxiliary storage device 2003 or the like and executes the computer 20. While executing the image recognition program, the CPU 2001 uses the document type identification unit 202, the recognition method selection unit 203, the item position identification unit 204, the recognition result correction unit 205, the character recognition unit 206, and the recognition result of the image recognition device 2. It functions (operates) as the notification unit 207 and the main control unit 209. Further, while the above image recognition program is being executed, the non-temporary recording medium such as the RAM in the memory 2002 of the computer 20, the auxiliary storage device 2003, and the portable recording medium 21 is stored in the storage unit of the image recognition device 2. Functions as 290.

なお、画像認識装置2として動作させるコンピュータ20のハードウェア構成は、図22に示した構成に限定されるものではなく、用途や条件に応じて一部の要素を省略する或いは追加することも可能である。例えば、コンピュータ20は、媒体駆動装置2007が省略されたものであってもよい。 The hardware configuration of the computer 20 operated as the image recognition device 2 is not limited to the configuration shown in FIG. 22, and some elements may be omitted or added depending on the application and conditions. Is. For example, the computer 20 may be the one in which the medium driving device 2007 is omitted.

1 画像認識システム
2 画像認識装置
201 スキャナ制御部
202 書類種類識別部
203 認識方式選択部
204 項目位置特定部
205 認識結果補正部
206 文字認識部
207 認識結果通知部
208 通信部
209 主制御部
211 位置固定認識部
212 キーワード認識部
213 無罫線キーワード認識部
290 記憶部
291 書類識別テーブル
292 書類種類テーブル
293 認識方式テーブル
294 位置固定認識テーブル
295 認識項目キーワードテーブル
296 認識項目テーブル
297 認識カテゴリテーブル
298 活字文字認識辞書
3 スキャナ装置
4 入力装置
5 表示装置
6 サーバ装置
7 通信ネットワーク
10 保険証
1320,1330,1335,1340 文字列(見出し文字列)
1329,1336,1339,1341,1350,1351,1352 文字列
20 コンピュータ
2001 CPU
2002 メモリ
2003 補助記憶装置
2004 入力インタフェース
2005 表示制御装置
2006 通信制御装置
2007 媒体駆動装置
2010 バス
21 可搬型記録媒体
1 Image recognition system 2 Image recognition device 201 Scanner control unit 202 Document type identification unit 203 Recognition method selection unit 204 Item position identification unit 205 Recognition result correction unit 206 Character recognition unit 207 Recognition result notification unit 208 Communication unit 209 Main control unit 211 Position Fixed recognition unit 212 Keyword recognition unit 213 Non-ruled line Keyword recognition unit 290 Storage unit 291 Document identification table 292 Document type table 293 Recognition method table 294 Position fixed recognition table 295 Recognition item keyword table 296 Recognition item table 297 Recognition category table 298 Print character recognition Dictionary 3 Scanner device 4 Input device 5 Display device 6 Server device 7 Communication network 10 Insurance certificate 1320, 1330, 1335, 1340 Character string (heading character string)
1329, 1336, 1339, 1341, 1350, 1351, 1352 string 20 computer 2001 CPU
2002 Memory 2003 Auxiliary storage device 2004 Input interface 2005 Display control device 2006 Communication control device 2007 Media drive device 2010 Bus 21 Portable recording medium

Claims (8)

本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択する認識方式選択部と、を備え
前記項目位置特定部は、前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定す
ことを特徴とする画像認識装置。
A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. It is provided with a recognition method selection unit for selecting which of the third recognition methods is used for character recognition .
The item position specifying unit has a positional relationship between the heading character string in the identity verification document and information that can be used for identity verification corresponding to the heading character string when the character recognition is performed by the third recognition method. An image recognition device characterized by specifying a position in the image for performing the character recognition based on the above .
本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記項目位置特定部は、前記画像での位置が前記見出し文字列の下方である文字列のうち、幅の座標範囲が前記見出し文字列の幅の座標範囲に含まれる文字列を、前記本人確認に利用可能な情報を含む文字列として、前記文字認識を行う位置を特定する
ことを特徴とする画像認識装置。
A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The item position specifying unit confirms the identity of the character string whose position in the image is below the heading character string and whose width coordinate range is included in the width coordinate range of the heading character string. An image recognition device characterized in that a position for performing the character recognition is specified as a character string containing information that can be used in the above.
本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記項目位置特定部は、前記画像での位置が前記見出し文字列の右方に、高さの座標範囲が前記見出し文字列の高さの座標範囲に含まれる文字列がない場合に、前記画像での位置が前記見出し文字列の下方である文字列のうち、幅の座標範囲が前記見出し文字列の幅の座標範囲に含まれる文字列を探索する
ことを特徴とする画像認識装置。
A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The item position specifying unit is the image when there is no character string whose position in the image is to the right of the heading character string and whose height coordinate range is included in the height coordinate range of the heading character string. An image recognition device characterized by searching for a character string whose width coordinate range is included in the width coordinate range of the heading character string among the character strings whose position in is below the heading character string.
本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記認識結果補正部は、前記見出し文字列からみて所定の方向に存在する2つの文字列の距離が所定の距離閾値以内である場合に、該2つの文字列を結合する
ことを特徴とする画像認識装置。
A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The recognition result correction unit is characterized in that when the distance between two character strings existing in a predetermined direction with respect to the heading character string is within a predetermined distance threshold, the two character strings are combined . Image recognition device.
前記認識結果補正部は、前記見出し文字列と対応する前記本人確認に利用可能な情報を含む文字列の文字認識の結果に含まれる文字数が、前記見出し文字列と対応付けられた文字数よりも多い場合に、前記文字認識の結果に含まれる文字のうち左端から数えて前記見出し文字列と対応付けられた前記文字数を超えた部分を削除する
ことを特徴とする請求項1から請求項3のうちいずれかに記載の画像認識装置。
In the recognition result correction unit, the number of characters included in the character recognition result of the character string including the information available for identity verification corresponding to the heading character string is larger than the number of characters associated with the heading character string. In this case, among claims 1 to 3, the part of the characters included in the character recognition result that exceeds the number of characters associated with the heading character string, counting from the left end, is deleted. The image recognition device according to any one .
前記認識結果補正部は、前記見出し文字列と対応する前記本人確認に利用可能な情報を含む文字列の文字認識の結果に、前記見出し文字列と対応する前記本人確認に利用可能な前記情報における最終文字が含まれる場合に、前記文字認識の結果に含まれる文字のうちの前記最終文字よりも右方の文字を削除する
ことを特徴とする請求項1から請求項3のうちいずれかに記載の画像認識装置。
The recognition result correction unit is in the information that can be used for the identity verification corresponding to the heading character string in the character recognition result of the character string including the information that can be used for the identity verification corresponding to the heading character string. The present invention according to any one of claims 1 to 3 , wherein when the final character is included, the character to the right of the final character among the characters included in the character recognition result is deleted. Image recognition device.
コンピュータが、
本人確認書類の画像から文字列を抽出し、
抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、
前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、
特定した前記画像内の位置の文字認識を行い、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正し、
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択し、
前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する
処理を実行することを特徴とする画像認識方法。
The computer
Extract the character string from the image of the identity verification document and
The said in the image based on the position in the image and the degree of matching of the characters with the extracted character string and the item keyword indicating the item included in the identity verification document predetermined for each type of the identity verification document. Identify the type of identity verification document and
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. Identify the heading string that matches the item name and
A position for performing the character recognition in the image is specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string.
Character recognition of the specified position in the image is performed, and
The result of the character recognition is corrected based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. Select which of the third recognition methods to perform the character recognition, and select
When the character recognition is performed by the third recognition method, the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string are in the image based on the positional relationship. An image recognition method characterized by executing a process of specifying a position where character recognition is performed .
本人確認書類の画像から文字列を抽出し、
抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、
前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、
特定した前記画像内の位置の文字認識を行い、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正し、
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択し、
前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する
処理をコンピュータに実行させることを特徴とする画像認識プログラム。
Extract the character string from the image of the identity verification document and
The said in the image based on the position in the image and the degree of matching of the characters with the extracted character string and the item keyword indicating the item included in the identity verification document predetermined for each type of the identity verification document. Identify the type of identity verification document and
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. Identify the heading string that matches the item name and
A position for performing the character recognition in the image is specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string.
Character recognition of the specified position in the image is performed, and
The result of the character recognition is corrected based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. Select which of the third recognition methods to perform the character recognition, and select
When the character recognition is performed by the third recognition method, the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string are in the image based on the positional relationship. An image recognition program characterized by causing a computer to execute a process of specifying a position where character recognition is performed .
JP2018166675A 2018-09-06 2018-09-06 Image recognition device, image recognition method, and image recognition program Active JP7054662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166675A JP7054662B2 (en) 2018-09-06 2018-09-06 Image recognition device, image recognition method, and image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166675A JP7054662B2 (en) 2018-09-06 2018-09-06 Image recognition device, image recognition method, and image recognition program

Publications (2)

Publication Number Publication Date
JP2020042320A JP2020042320A (en) 2020-03-19
JP7054662B2 true JP7054662B2 (en) 2022-04-14

Family

ID=69798194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166675A Active JP7054662B2 (en) 2018-09-06 2018-09-06 Image recognition device, image recognition method, and image recognition program

Country Status (1)

Country Link
JP (1) JP7054662B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7209411B2 (en) * 2020-05-21 2023-01-20 有限会社ノア Age identification recognition system
CN112667767A (en) * 2020-12-31 2021-04-16 北京百炼智能科技有限公司 Information processing method and device
JP7383316B2 (en) 2022-09-08 2023-11-20 有限会社ノア Age identification recognition system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221886A (en) 2010-04-13 2011-11-04 Fujitsu Frontech Ltd Business form recognition program, business form recognition device, and business form recognition method
JP2018055256A (en) 2016-09-27 2018-04-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2018101327A (en) 2016-12-21 2018-06-28 大日本印刷株式会社 Data registering apparatus and data registering method
JP6374079B1 (en) 2017-12-27 2018-08-15 AI inside株式会社 Character recognition apparatus, method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221886A (en) 2010-04-13 2011-11-04 Fujitsu Frontech Ltd Business form recognition program, business form recognition device, and business form recognition method
JP2018055256A (en) 2016-09-27 2018-04-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2018101327A (en) 2016-12-21 2018-06-28 大日本印刷株式会社 Data registering apparatus and data registering method
JP6374079B1 (en) 2017-12-27 2018-08-15 AI inside株式会社 Character recognition apparatus, method and program

Also Published As

Publication number Publication date
JP2020042320A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP4366108B2 (en) Document search apparatus, document search method, and computer program
US8107727B2 (en) Document processing apparatus, document processing method, and computer program product
JP7054662B2 (en) Image recognition device, image recognition method, and image recognition program
JP4332356B2 (en) Information retrieval apparatus and method, and control program
US20210073535A1 (en) Information processing apparatus and information processing method for extracting information from document image
CN102110229A (en) Word recognition method, and information processing device
CN110785773A (en) Bill recognition system
JP2008204226A (en) Form recognition device and its program
JP2019040467A (en) Information processing apparatus and control method therefor
JP2016177383A (en) Identification number retrieval system and identification number retrieval method
US10216988B2 (en) Information processing device, information processing method, and computer program product
JP6582464B2 (en) Information input device and program
JP4982587B2 (en) Data entry system and data entry method
JP2008027133A (en) Form processor, form processing method, program for executing form processing method, and recording medium
JP2002024761A (en) Image processing device, image processing method, and storage medium
JP2021140831A (en) Document image processing system, document image processing method, and document image processing program
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP2010102734A (en) Image processor and program
JP2008176625A (en) Device and method for managing character recognition result, and computer program
JP2016103150A (en) Document processing device and document processing program
JP2006134079A (en) Image processing device and program
US11315351B2 (en) Information processing device, information processing method, and information processing program
US11481544B2 (en) Form processing apparatus and non-transitory computer readable medium
US20210295032A1 (en) Information processing device and non-transitory computer readable medium
JP7037237B1 (en) Data processing equipment, data processing methods and programs

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7054662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150