JP7054662B2 - Image recognition device, image recognition method, and image recognition program - Google Patents
Image recognition device, image recognition method, and image recognition program Download PDFInfo
- Publication number
- JP7054662B2 JP7054662B2 JP2018166675A JP2018166675A JP7054662B2 JP 7054662 B2 JP7054662 B2 JP 7054662B2 JP 2018166675 A JP2018166675 A JP 2018166675A JP 2018166675 A JP2018166675 A JP 2018166675A JP 7054662 B2 JP7054662 B2 JP 7054662B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- recognition
- character
- identity verification
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像認識装置、画像認識方法、及び画像認識プログラムに関する。 The present invention relates to an image recognition device, an image recognition method, and an image recognition program.
画像内の文字情報を認識する画像認識装置は、金融機関における帳票内の文字の自動認識や本人確認書類内の文字の自動認識に適用されている。この種の画像認識装置は、これまで、罫線のレイアウト等に基づいて文字認識を行う文字情報が含まれる領域の画像内での位置を特定するものが多かったが、近年、罫線のない原稿(文書)の画像に対する文字認識を可能にする技術が提案されている(例えば、特許文献1を参照)。 An image recognition device that recognizes character information in an image is applied to automatic recognition of characters in a form and automatic recognition of characters in an identity verification document in a financial institution. Until now, many image recognition devices of this type specify the position in an image of an area containing character information for character recognition based on the layout of ruled lines, but in recent years, manuscripts without ruled lines ( A technique has been proposed that enables character recognition for an image of a document) (see, for example, Patent Document 1).
金融機関等では、免許証等の、公にフォーマットが統一されており、認識する文字情報の画像内での位置が特定されている本人確認書類のみを、画像認識装置を利用した文字の自動認識の対象にしていることが多い。これに対し、近年、免許証以外の本人確認書類を提示されることが増えており、金融機関等では、免許証以外の本人確認書類についても画像認識装置を利用した文字の自動認識を行いたいという要望がある。 At financial institutions, etc., the format is publicly unified, such as driver's licenses, and only the identity verification documents whose position in the image of the character information to be recognized is specified are automatically recognized by the image recognition device. Often targeted at. On the other hand, in recent years, the number of people who are presented with identity verification documents other than driver's licenses is increasing, and financial institutions want to automatically recognize characters other than driver's licenses using image recognition devices. There is a request.
しかしながら、本人確認書類のなかには、保険証等のように、罫線のないものや、本人確認に利用可能な各種情報(例えば、氏名、生年月日、住所等)のレイアウトが独特のものも含まれる。更に、カードタイプの保険証には、保険証として使用する上で必要な情報の他に、被保険者が所属する会社名や団体名、ロゴが印刷されていたり、ジェネリック医薬品を希望する旨の意思表示をするシール等が貼られていたりする。これら非定型レイアウトの本人確認書類の画像内の文字を自動で認識することは困難であった。 However, some identity verification documents, such as health insurance cards, have no ruled lines and have a unique layout of various information (for example, name, date of birth, address, etc.) that can be used for identity verification. .. Furthermore, on the card-type health insurance card, in addition to the information necessary for using it as a health insurance card, the name of the company to which the insured belongs, the name of the organization, the logo are printed, and a generic drug is desired. There may be a sticker that indicates your intention. It was difficult to automatically recognize the characters in the image of the identity verification document with these atypical layouts.
1つの側面において、本発明は、種々の本人確認書類の画像内の文字を自動で認識することが可能な技術を提供することを目的とする。 In one aspect, it is an object of the present invention to provide a technique capable of automatically recognizing characters in images of various identity verification documents.
本発明に係る第1の側面である画像認識装置は、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別する書類種類識別部と、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、特定した前記画像内の位置の文字認識を行う文字認識部と、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部とを備える画像認識装置である。 The image recognition device according to the first aspect of the present invention extracts a character string from the image of the identity verification document, and is included in the extracted character string and the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the position in the image and the degree of matching of the character with the item keyword indicating the item, and the type of the identified identity verification document. A heading character string that matches the name of the item for character recognition from the character strings extracted from the image based on the information of the name of the item for character recognition predetermined for each type of the identity verification document. And the item position that specifies the position in the image where the character recognition is performed based on the positional relationship between the heading character string in the identity verification document and the information that can be used for identity verification corresponding to the heading character string. The character is based on the characteristics of a specific unit, a character recognition unit that recognizes a character at a specified position in the image, and a character sequence of a character string containing information that can be used for identity verification in the identity verification document. It is an image recognition device including a recognition result correction unit that corrects the recognition result.
本発明に係る第2の側面である画像認識方法は、コンピュータが、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、特定した前記画像内の位置の文字認識を行い、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する処理を実行する画像認識方法である。 In the image recognition method according to the second aspect of the present invention, the computer extracts a character string from the image of the identity verification document, and the extracted character string and the identity verification document predetermined for each type of the identity verification document. The type of the identity verification document in the image is identified based on the position in the image and the degree of matching of the character with the item keyword indicating the item included in the image, and the type of the identified identity verification document and the identity are identified. Based on the information of the name of the item to be recognized characters predetermined for each type of confirmation document, the heading character string that matches the name of the item to be recognized is specified from the character strings extracted from the image. Then, the position where the character recognition is performed in the image is specified and specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. An image that recognizes characters at a position in the image and corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document. It is a recognition method.
本発明に係る第3の側面である画像認識プログラムは、本人確認書類の画像から文字列を抽出し、抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、特定した前記画像内の位置の文字認識を行い、前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する処理をコンピュータに実行させる画像認識プログラムである。 The image recognition program, which is the third aspect of the present invention, extracts a character string from the image of the identity verification document, and is included in the extracted character string and the identity verification document predetermined for each type of the identity verification document. The type of the identity verification document in the image is identified based on the position in the image and the degree of matching of the character with the item keyword indicating the item, and the type of the identified identity verification document and the identity verification document are identified. Based on the information of the name of the item for character recognition predetermined for each type, a heading character string matching the name of the item for character recognition is specified from the character strings extracted from the image, and the above-mentioned Based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string, the position where the character recognition is performed in the image is specified, and the specified position in the image is used. Image recognition that recognizes the character of the position and causes the computer to execute a process of correcting the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document. It is a program.
上述の態様によれば、種々の本人確認書類の画像内の文字を自動で認識することが可能となる。 According to the above aspect, it is possible to automatically recognize characters in images of various identity verification documents.
以下、図面を参照しながら、一実施形態に係る画像認識システムについて説明する。
図1は、画像認識システムの構成を示す図である。
Hereinafter, the image recognition system according to the embodiment will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an image recognition system.
図1のように、本実施形態に係る画像認識システム1は、画像認識装置2と、スキャナ装置3と、入力装置4と、表示装置5と、サーバ装置6とを含む。
As shown in FIG. 1, the
画像認識装置2は、本人確認書類(例えば、運転免許証や保険証等)の画像に含まれる本人確認に利用可能な項目(例えば、氏名、住所、及び生年月日等)の文字認識を自動で行う装置である。本人確認書類の画像は、例えば、画像認識装置2に接続されたスキャナ装置3により取得する。スキャナ装置3は、紙媒体或いはプラスチック製のカード等の本人確認書類の画像データ(デジタルデータ)を生成する装置の一例である。
The
入力装置4は、画像認識装置2に各種情報を入力する装置である。入力装置4は、例えば、キーボード装置である。なお、1つの画像認識装置2には、複数種類の入力装置4(例えばキーボード装置とマウス装置等)が接続されていてもよい。表示装置5は、本人確認書類の画像、該画像に対する認識処理の結果、及び画像認識装置2が保持する各種データの表示等に利用する。
The
サーバ装置6は、画像認識装置2における認識処理で参照する各種データ、及び認識処理の結果等を蓄積する装置である。画像認識装置2及びサーバ装置6は、それぞれ、通信ネットワーク7に接続されている。画像認識装置2は、通信ネットワーク7を介して、サーバ装置6から認識処理で参照する各種データを取得する。また、画像認識装置2は、通信ネットワーク7を介して、サーバ装置6に本人確認書類の画像や認識処理の結果等を送信する。
The
なお、画像認識システム1は、画像認識装置2、スキャナ装置3、入力装置4、及び表示装置5の組を複数組含んでもよい。また、画像認識システム1は、サーバ装置6とは別のサーバ装置を含んでもよい。
The
本実施形態に係る画像認識装置2は、例えば、銀行等の金融機関における口座開設等の各種取引を行う際の本人確認書類の認識に利用する。この種の画像認識装置2は、運転免許証のような公にフォーマット(各項目の位置)が統一された本人確認書類の認識のみが可能であることが多い。しかしながら、金融機関では、運転免許証とは別の本人確認書類(例えば保険証、在留カード、特別永住者証明書、及びマイナンバーカード等)を本人確認書類として受け付けている。このため、近年、金融機関等では、運転免許証以外の本人確認書類の認識も画像認識装置2で行いたいという要望がある。
The
図2は、一実施形態に係る画像認識装置の機能構成を示す図である。
図2のように、本実施形態の画像認識装置2は、スキャナ制御部201と、書類種類識別部202と、認識方式選択部203と、項目位置特定部204と、認識結果補正部205と、文字認識部206と、認識結果通知部207と、通信部208と、主制御部209と、記憶部290とを備える。
FIG. 2 is a diagram showing a functional configuration of an image recognition device according to an embodiment.
As shown in FIG. 2, the
スキャナ制御部201は、スキャナ装置3の動作を制御し、本人確認書類等の画像を取得する。
The scanner control unit 201 controls the operation of the
書類種類識別部202は、本人確認書類の画像と、記憶部290に記憶させた書類識別テーブル291及び書類種類テーブル292とに基づいて、画像内の本人確認書類の種類を識別する。
The document
認識方式選択部203は、書類種類識別部202の識別結果と、記憶部290に記憶させた認識方式テーブル293とに基づいて、画像内の本人確認書類に対する認識方式を選択する。本実施形態の画像認識装置2では、位置固定認識方式、キーワード認識方式、及び無罫線キーワード認識方式のなかから認識方式を選択する。位置固定認識方式は、認識する項目毎に定められた画像内での位置に基づいて、画像内の各項目の文字認識を行う方式である。キーワード認識方式は、認識する項目の見出し語と、画像内の罫線とに基づいて、画像内の各項目の文字認識を行う方式である。無罫線キーワード認識方式は、認識する項目の見出し語と、該見出し語に対する本人確認に利用する情報の画像内での位置(例えば、右方又は下方)とに基づいて、画像内の各項目の文字認識を行う方式である。
The recognition
項目位置特定部204は、認識方式選択部203で選択した認識方式に基づいて、認識する各項目の文字列の位置(範囲)を特定する。ここで、認識する各項目の文字列の位置は、該文字列を含む矩形領域の画像内での位置及び寸法を示す情報により特定する。例えば、認識する各項目の文字列の位置は、該文字列を含む矩形領域の左上角部の座標と右下角部の座標とにより特定する。項目位置特定部204は、位置固定認識部211と、キーワード認識部212と、無罫線キーワード認識部213とを含む。
The item
位置固定認識部211は、位置固定認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。位置固定認識部211は、記憶部290に記憶させた位置固定認識テーブル294に基づいて、認識する各項目の文字列の位置を特定する。位置固定認識テーブル294は、位置固定認識方式による文字認識を行う本人確認書類における、本人確認に利用する各項目のそれぞれの画像内での位置を示す情報を含む。
The fixed
キーワード認識部212は、キーワード認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。キーワード認識部212は、例えば、記憶部290に記憶させた認識項目キーワードテーブル295と、画像内の罫線とに基づいて、認識する各項目の文字列の位置を特定する。認識項目キーワードテーブル295は、キーワード認識方式及び無罫線キーワード認識方式による文字認識を行う本人確認書類における、本人確認に利用する各項目の見出し語(キーワード)を含む。
The
無罫線キーワード認識部213は、無罫線キーワード認識方式による文字認識を行う場合の、認識する各項目の文字列の画像内での位置を特定する。無罫線キーワード認識部213は、例えば、記憶部290に記憶させた認識項目キーワードテーブル295と、認識する各項目の見出し語の画像内での位置とに基づいて、認識する各項目の文字列の位置を特定する。
The non-ruled line
文字認識部206は、項目位置特定部204で特定した、認識する各項目の文字列の位置と、記憶部290に記憶させた活字文字認識辞書298とに基づいて、各項目の文字認識を実施する。
The
認識結果補正部205は、記憶部290に記憶させた認識項目テーブル296及び認識カテゴリテーブル297に基づいて、文字認識部206の認識結果を補正する。認識項目テーブル296は、認識する項目毎のカテゴリ(文字種)を示す情報、文字列の桁数、文字列間の距離の閾値、及び最終文字を含む。認識カテゴリテーブル297は、認識項目テーブル296におけるカテゴリを示す情報と、含まれる文字種との対応関係を含む。
The recognition
認識結果通知部207は、認識結果を表示装置5等に出力する。通信部208は、サーバ装置6等の外部装置との通信を行う。主制御部209は、スキャナ制御部201、書類種類識別部202、認識方式選択部203、項目位置特定部204、認識結果補正部205、文字認識部206、認識結果通知部207、及び通信部208の各部の動作の制御を含む、画像認識装置2全体の動作の制御をする。
The recognition
本実施形態に係る画像認識装置2の記憶部290は、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298を含む各種情報を記憶する。このうち位置固定認識テーブル294は、上記のように、本人確認書類における、本人確認に利用する各項目のそれぞれの画像内での位置を示す情報を含む。該位置固定認識テーブル294は、例えば、運転免許証における番号、氏名、生年月日、住所、及び有効期限の各項目の画像内での位置を示す情報を含む。また、活字文字認識辞書298は、既知の文字認識において参照する辞書である。このため、本明細書では、位置固定認識テーブル294及び活字文字認識辞書298の内容についての説明を省略する。以下、図3~図8を参照し、本実施形態の画像認識装置2が参照する書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、認識項目キーワードテーブル295、認識項目テーブル296、及び認識カテゴリテーブル297の内容と利用方法を説明する。
The
図3は、書類識別テーブルの内容を示す図である。図4は、書類種類テーブルの内容を示す図である。図5は、認識方式テーブルの内容を示す図である。図6は、認識項目キーワードテーブルの内容を示す図である。図7は、認識項目テーブルの内容を示す図である。図8は、認識カテゴリテーブルの内容を示す図である。 FIG. 3 is a diagram showing the contents of the document identification table. FIG. 4 is a diagram showing the contents of the document type table. FIG. 5 is a diagram showing the contents of the recognition method table. FIG. 6 is a diagram showing the contents of the recognition item keyword table. FIG. 7 is a diagram showing the contents of the recognition item table. FIG. 8 is a diagram showing the contents of the recognition category table.
書類識別テーブル291及び書類種類テーブル292は、画像内の本人確認書類の種類を識別する際に参照する情報である。書類識別テーブル291は、図3のように、書類No.、識別キーワード、得点、左上横座標、左上縦座標、右下横座標、及び右下縦座標を含む。また、書類種類テーブル292は、図4のように、書類No.、書類名、及び認識方式No.を含む。 The document identification table 291 and the document type table 292 are information to be referred to when identifying the type of the identity verification document in the image. As shown in FIG. 3, the document identification table 291 includes a document No., an identification keyword, a score, an upper left abscissa, an upper left ordinate, a lower right ordinate, and a lower right ordinate. Further, the document type table 292 includes the document No., the document name, and the recognition method No., as shown in FIG.
書類識別テーブル291の書類No.は、本人確認書類の種類を識別する番号である。書類No.と本人確認書類の種類との対応関係は、書類種類テーブル292で定義する。例えば、図4の書類種類テーブル292では、書類No.=1の本人確認書類の書類名が免許証となっている。このため、書類識別テーブル291における書類No.=1の行は免許証に関する情報を示している。また、例えば、図4の書類種類テーブル292では、書類No.=2の本人確認書類の書類名が保険証(カード)となっている。このため、書類識別テーブル291における書類No.=2の行はカードタイプの保険証に関する情報を示している。 The document No. of the document identification table 291 is a number for identifying the type of the identification document. The correspondence between the document number and the type of the identification document is defined in the document type table 292. For example, in the document type table 292 of FIG. 4, the document name of the identity verification document of document No. 1 is a driver's license. Therefore, the row of document No. = 1 in the document identification table 291 shows information about the driver's license. Further, for example, in the document type table 292 of FIG. 4, the document name of the identity verification document of document No. = 2 is a health insurance card (card). Therefore, the row of document No. = 2 in the document identification table 291 shows information about the card type health insurance card.
ここで、書類識別テーブル291の説明に戻る。書類識別テーブル291の識別キーワードは、書類No.により特定される本人確認書類の識別に利用可能な、本人確認書類に記載された文字列である。書類識別テーブル291の左上横座標、左上縦座標、右下横座標、及び右下縦座標は、本人確認書類の画像内での識別キーワードの位置(範囲)を示す情報である。例えば、書類No.=1の免許証には「運転免許証」という文字列が記載されている。そして、書類識別テーブル291における識別キーワードが「運転免許証」の行の左上横座標X1、左上縦座標Y1、右下横座標X2、及び右下縦座標Y2は、免許証の画像における「運転免許証」という文字列が記載された位置(範囲)を示す。ここで、横座標は本人確認書類の画像を正位置でみた場合の水平方向の位置を示す情報(例えば画像左端からの画素数)であり、縦座標は本人確認書類の画像を正位置でみた場合の垂直方向の位置を示す情報(例えば画像上端からの画素数)である。すなわち、図3の書類識別テーブル291では、「運転免許証」という文字列は、画像内の(左上横座標X1,左上縦座標Y1)を左上角部とし、(右下横座標X2,右下縦座標Y2)を右下角部とする矩形領域内に記載されていることを示している。 Here, the explanation returns to the description of the document identification table 291. The identification keyword of the document identification table 291 is a character string described in the identity verification document that can be used to identify the identity verification document specified by the document No. The upper left horizontal coordinate, upper left vertical coordinate, lower right horizontal coordinate, and lower right vertical coordinate of the document identification table 291 are information indicating the position (range) of the identification keyword in the image of the identity verification document. For example, the character string "driver's license" is written on the license of document No. = 1. Then, the upper left horizontal coordinate X1, the upper left vertical coordinate Y1, the lower right horizontal coordinate X2, and the lower right vertical coordinate Y2 in the row where the identification keyword in the document identification table 291 is "driver's license" are "driver's license" in the image of the license. Indicates the position (range) in which the character string "Proof" is written. Here, the horizontal coordinates are information indicating the horizontal position when the image of the identity verification document is viewed in the normal position (for example, the number of pixels from the left end of the image), and the ordinates are the information indicating the position of the identity verification document in the normal position. Information indicating the position in the vertical direction of the case (for example, the number of pixels from the upper end of the image). That is, in the document identification table 291 of FIG. 3, the character string "driver's license" has (upper left horizontal coordinate X1, upper left ordinate Y1) as the upper left corner in the image, and (lower right horizontal coordinate X2, lower right). It is shown that it is described in the rectangular area whose lower right corner is the ordinate Y2).
また、図3の書類識別テーブル291では、例えば、書類No.=2のカードタイプの保険証の画像の場合、画像内の(左上横座標X21,左上縦座標Y21)を左上角部とし、(右下横座標X22,右下縦座標Y22)を右下角部とする矩形領域内に「健康保険」という文字列が記載されていることを示している。 Further, in the document identification table 291 of FIG. 3, for example, in the case of an image of a card type insurance card with document No. = 2, (upper left horizontal coordinate X21, upper left vertical coordinate Y21) is set as the upper left corner, and ( It shows that the character string "health insurance" is described in the rectangular area having the lower right horizontal coordinate X22 and the lower right vertical coordinate Y22) as the lower right corner.
次に、書類識別テーブル291の得点について説明する。書類識別テーブル291の得点は、本人確認書類の画像から抽出した文字列と、識別キーワードの文字列との一致度を示す情報である。本実施形態では、識別キーワードのうちの、本人確認書類の画像から抽出した文字列と画像内の位置が略一致する識別キーワードについて、文字列の一致度を示す得点を算出する。このとき、本人確認書類の画像から抽出した文字列と識別キーワードの文字列とが一致する場合の得点を100点とする。また、本人確認書類の画像から抽出した文字列と識別キーワードの文字列とが部分一致する場合の得点は、{(一致した文字数/識別キーワードの文字数)×100}点とする。例えば、免許証の画像から抽出した文字列と、書類識別テーブル291の各識別キーワードの文字列との一致度を示す得点を算出すると、書類No.=1の各識別キーワードの得点は100点に近い値となり、他の書類No.の各識別キーワードの得点は低い値となる。このため、本実施形態の画像認識装置2では、書類識別テーブル291における書類No.毎に算出した総得点が最も高い書類No.を、画像内の本人確認書類を示す書類No.に決定する。
Next, the score of the document identification table 291 will be described. The score of the document identification table 291 is information indicating the degree of matching between the character string extracted from the image of the identity verification document and the character string of the identification keyword. In the present embodiment, among the identification keywords, the score indicating the degree of matching of the character strings is calculated for the identification keywords whose positions in the image and the character strings extracted from the image of the identity verification document substantially match. At this time, the score when the character string extracted from the image of the identity verification document and the character string of the identification keyword match is set to 100 points. In addition, the score when the character string extracted from the image of the identity verification document and the character string of the identification keyword partially match is {(the number of matching characters / the number of characters of the identification keyword) × 100} points. For example, when the score indicating the degree of matching between the character string extracted from the image of the driver's license and the character string of each identification keyword in the document identification table 291 is calculated, the score of each identification keyword of document No. = 1 becomes 100 points. The values are close to each other, and the scores of each identification keyword of other document numbers are low. Therefore, in the
書類No.を決定した後、画像認識装置2は、図4の書類種類テーブル292を参照し、決定した書類No.と対応する認識方式No.を読み出す。図4の書類種類テーブル292における認識方式No.は、図5の認識方式テーブル293における認識方式No.と対応している。すなわち、画像認識装置2は、書類種類テーブル292を参照して決定した認識方式No.と、認識方式テーブル293とに基づいて、画像内の本人確認書類の認識方式を選択する。例えば、図5の認識方式テーブル293では、認識方式No.=1の認識方式が無罫線キーワード認識となっている。このため、画像内の本人確認書類が書類No.=2の保険証であると識別した場合、画像認識装置2は、画像内の本人確認書類の認識方式として無罫線キーワード認識方式を選択する。また、例えば、画像内の本人確認書類が書類No.=1の免許証であると識別した場合、画像認識装置2は、画像内の本人確認書類の認識方式として位置固定認識方式を選択する。
After determining the document No., the
次に、図6を参照して認識項目キーワードテーブル295の内容と利用方法を説明する。認識項目キーワードテーブル295は、例えば、無罫線キーワード認識方式による文字認識を行う際の、画像内における文字認識を行う項目の見出し語の位置の特定に利用する。図6のように、認識項目キーワードテーブル295は、書類No.と、認識項目No.と、項目キーワードとを含む。書類No.は、書類種類テーブル292の書類No.と対応する。認識項目No.は、書類No.により特定される本人確認書類内の文字認識を行う項目を識別する番号である。項目キーワードは、本人確認書類から抽出した文字列のうちの文字認識を行う項目の見出し語である。なお、書類No.=2の保険証は、日本国内においては例えば各市区町村が発行しており、1つの項目についての見出し語が複数通り存在することもある。また、本人確認書類から文字列を抽出する際の抽出精度は100%ではないため、抽出した文字列内には、本人確認書類に記載された文字と類似した別の文字が含まれることがある。このため、認識項目キーワードテーブル295には、1つの認識項目No.についての項目キーワードを複数通り登録する。 Next, the contents and usage of the recognition item keyword table 295 will be described with reference to FIG. The recognition item keyword table 295 is used, for example, to specify the position of the headword of the item to be recognized in the image when character recognition is performed by the ruled line keyword recognition method. As shown in FIG. 6, the recognition item keyword table 295 includes a document No., a recognition item No., and an item keyword. The document No. corresponds to the document No. of the document type table 292. The recognition item No. is a number that identifies an item for character recognition in the identity verification document specified by the document No. The item keyword is a headword of an item for character recognition in a character string extracted from an identity verification document. The insurance card with document No. 2 is issued by each municipality in Japan, for example, and there may be multiple headwords for one item. In addition, since the extraction accuracy when extracting a character string from an identity verification document is not 100%, the extracted character string may contain another character similar to the character described in the identity verification document. .. Therefore, a plurality of item keywords for one recognition item No. are registered in the recognition item keyword table 295.
例えば、図6の認識項目キーワードテーブル295における認識項目No.=1は、被保険者に割り当てられる番号を示す項目である。保険証において被保険者に割り当てられる番号を示す項目の見出しは、例えば、単に「番号」と記載されている場合もあれば、「被保険者番号」と記載されている場合もある。更に、保険証の画像から「番号」という文字列を抽出する際には、例えば、誤って「番弓」と抽出されることもある。このため、図6の認識項目キーワードテーブル295には、認識項目No.=1の項目キーワードとして、「番号」、「被保険者番号」、及び「番弓」の3個のキーワードが登録されている。これにより、例えば、画像内の保険証に「被保険者番号」と記載されている場合や、「番号」と記載された文字列を誤って「番弓」と抽出した場合にも、被保険者に割り当てられる番号を示す見出し語の位置を特定することが可能となる。 For example, the recognition item No. = 1 in the recognition item keyword table 295 in FIG. 6 is an item indicating a number assigned to the insured person. The heading of the item indicating the number assigned to the insured person in the insurance card may be simply described as "number" or may be described as "insured person number", for example. Further, when extracting the character string "number" from the image of the health insurance card, for example, it may be mistakenly extracted as "banyu". Therefore, in the recognition item keyword table 295 of FIG. 6, three keywords of "number", "insured person number", and "banyu" are registered as item keywords of recognition item No. = 1. There is. As a result, for example, even if the insurance card in the image contains "insured person number" or the character string described as "number" is mistakenly extracted as "banyu", the insurance will be insured. It is possible to specify the position of the headword indicating the number assigned to the person.
また、図6の認識項目キーワードテーブル295には、例えば、認識項目No.=3の項目キーワードとして、「生年月日」、「誕生日」、「午年月日」、「生午月日」、「生年月月」、及び「生年日日」の6個のキーワードが登録されている。当該6個の項目キーワードのうち「午年月日」、「生午月日」、「生年月月」、及び「生年日日」の4個のキーワードは、「生年月日」の誤った抽出結果の例である。これにより、例えば、画像内の保険証における生年月日の見出し語が「誕生日」と記載されている場合にも、生年月日を示す見出し語の位置を特定することが可能となる。また、例えば、画像内の「生年月日」と記載された文字列を誤って「午年月日」或いは「生午月日」等と抽出した場合にも、生年月日を示す見出し語の位置を特定することが可能となる。 Further, in the recognition item keyword table 295 of FIG. 6, for example, "date of birth", "birthday", "day of the horse", "day of the horse" are set as the item keywords of the recognition item No. = 3. , "Date of birth", and "Date of birth" are registered. Of the six item keywords, the four keywords "date of birth", "date of birth", "date of birth", and "date of birth" were incorrectly extracted as "date of birth". An example of the result. As a result, for example, even when the headword of the date of birth in the insurance card in the image is described as "birthday", the position of the headword indicating the date of birth can be specified. In addition, for example, even if the character string described as "date of birth" in the image is mistakenly extracted as "date of birth" or "date of birth", the headword indicating the date of birth may be used. It is possible to specify the position.
更に、図6の認識項目キーワードテーブル295には、例えば、認識項目No.=5の項目キーワードとして、「性別」、「性I」、及び「性嗣」の3個のキーワードが登録されている。当該3個の項目キーワードのうち「性I」及び「性嗣」の2個のキーワードは、「性別」の誤った抽出結果の例である。これにより、例えば、画像内の「性別」と記載された文字列を誤って「性I」或いは「性嗣」等と抽出した場合にも、性別を示す見出し語の位置を特定することが可能となる。 Further, in the recognition item keyword table 295 of FIG. 6, for example, three keywords of "gender", "sex I", and "sex 嗣" are registered as item keywords of recognition item No. = 5. .. Of the three item keywords, the two keywords "gender I" and "gender" are examples of incorrect extraction results of "gender". This makes it possible to specify the position of the headword indicating gender even when the character string described as "gender" in the image is mistakenly extracted as "gender I" or "gender". It becomes.
次に、図7及び図8を参照して認識項目テーブル296及び認識カテゴリテーブル297の内容及び利用方法について説明する。認識項目テーブル296及び認識カテゴリテーブル297は、例えば、無罫線キーワード認識方式による文字認識を行った後の認識結果の補正に利用する。図7のように、認識項目テーブル296は、認識項目No.と、認識項目名と、認識カテゴリNo.と、桁数と、文字列間の距離閾値と、最終文字とを含む。認識項目No.は、図6の認識項目キーワードテーブル295の認識項目No.と対応する。認識項目名は、認識項目No.が示す認識項目の見出し語を識別する情報(名称)である。 Next, the contents and usage of the recognition item table 296 and the recognition category table 297 will be described with reference to FIGS. 7 and 8. The recognition item table 296 and the recognition category table 297 are used, for example, to correct the recognition result after character recognition is performed by the ruled line keyword recognition method. As shown in FIG. 7, the recognition item table 296 includes a recognition item No., a recognition item name, a recognition category No., a number of digits, a distance threshold between character strings, and a final character. The recognition item No. corresponds to the recognition item No. in the recognition item keyword table 295 of FIG. The recognition item name is information (name) that identifies the headword of the recognition item indicated by the recognition item No.
図7の認識項目テーブル296の認識カテゴリNo.は、認識項目名と対応する見出し語の右方又は下方に位置する、本人確認に利用可能な情報を示す文字列のカテゴリ(文字種)を識別する番号であり、図8の認識カテゴリテーブル297の認識カテゴリNo.と対応する。桁数は、本人確認に利用可能な情報を示す文字列の最大文字数を示す。文字列間の距離閾値(mm)は、認識項目の見出し語の右方又は下方に複数の文字列がある場合に、該複数の文字列が認識項目についての情報を含む文字列であると見做す文字列間の距離の最大値である。最終文字は、認識項目の見出し語の右方又は下方に記載された、本人確認に利用する情報(文字列)における最後の文字である。 The recognition category No. in the recognition item table 296 of FIG. 7 identifies a character string category (character type) that is located to the right or below the recognition item name and the corresponding headword and indicates information that can be used for identity verification. It is a number and corresponds to the recognition category No. of the recognition category table 297 in FIG. The number of digits indicates the maximum number of characters in a character string indicating information that can be used for identity verification. The distance threshold (mm) between character strings is considered to be a character string containing information about the recognition item when there are multiple character strings to the right or below the headword of the recognition item. It is the maximum value of the distance between the character strings. The final character is the last character in the information (character string) used for identity verification, which is written to the right or below the headword of the recognition item.
例えば、図7の認識項目テーブル296において、認識項目No.=1の認識項目(番号)の認識カテゴリNo.は2である。そして、図8の認識カテゴリテーブル297において、認識カテゴリNo.=2の認識するカテゴリ(文字種)は全カテゴリとなっている。また、認識項目No.=1の認識項目(番号)の文字列間の距離閾値は10mmとなっている。このため、画像認識装置2は、番号を示す見出し語の右方又は下方に複数の文字列が並んでおり、かつ文字列間の距離が閾値以内(10mm以内)である場合、該複数の文字列を結合して1つの文字列と見做す。ただし、認識項目No.=1の認識項目(番号)は、桁数が32であり、最終文字が不定である。このため、画像認識装置2は、番号を示す見出し語の右方又は下方に位置する文字列が33桁以上である場合、33桁目以降を削除する補正をする。
For example, in the recognition item table 296 of FIG. 7, the recognition category No. of the recognition item (number) of the recognition item No. = 1 is 2. Then, in the recognition category table 297 of FIG. 8, the recognition category (character type) of the recognition category No. 2 is all categories. Further, the distance threshold between the character strings of the recognition item (number) of the recognition item No. = 1 is 10 mm. Therefore, in the
また、例えば、認識項目No.=4の認識項目(生年月日の年月日)の認識カテゴリNo.は1である。そして、図8の認識カテゴリテーブル297において、認識カテゴリNo.=1の認識するカテゴリ(文字種)は数字となっている。また、認識項目No.=4の認識項目(番号)の文字列間の距離閾値は10mmとなっている。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に数字のみの文字列が複数個並んでおり、かつ文字列間の距離が閾値以内(10mm以内)である場合、該複数個の文字列を結合して1つの文字列と見做す。ただし、認識項目No.=4の認識項目(生年月日)の桁数は8である。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に位置する文字列が9桁以上である場合には9桁目以降を削除する補正をする。また、認識項目No.=4の認識項目(生年月日)の最終文字は「日」である。このため、画像認識装置2は、生年月日を示す見出し語の右方又は下方に位置する文字列が8桁以下であっても、文字列内に「日」が含まれる場合には、該文字列の「日」よりも右方の桁を削除する補正をする。
Further, for example, the recognition category No. of the recognition item (date of birth) of the recognition item No. = 4 is 1. Then, in the recognition category table 297 of FIG. 8, the recognition category (character type) of the recognition category No. 1 is a number. Further, the distance threshold between the character strings of the recognition item (number) of the recognition item No. = 4 is 10 mm. Therefore, in the
このように、本実施形態に係る画像認識装置2は、無罫線キーワード認識方式による文字認識をした後、認識項目テーブル296及び認識カテゴリテーブル297に基づいて、認識した文字列のうちの、本人確認に利用可能な情報とは異なる情報を示す部分を削除する補正をする。このため、認識する項目の見出しと本人確認に利用可能な情報との組が罫線で囲まれていない本人確認書類であっても、本人確認に利用可能な情報を適切に認識することが可能となる。
As described above, the
次に、図9、図10、図11A及び図11B、図12、図13、図14、並びに図15A及び図15Bを参照して、本実施形態に係る画像認識装置2が行う処理を説明する。
Next, the process performed by the
図9は、画像認識装置が行う処理を説明するフローチャートである。
本実施形態の画像認識装置2は、起動した後、図9のように、本人確認書類の画像の読み取りを開始する読み取り開始命令が入力されるまで待機する(ステップS1)。読み取り開始命令は、例えば、画像認識装置2に接続された入力装置4及びスキャナ装置3のいずれかから入力される。
FIG. 9 is a flowchart illustrating a process performed by the image recognition device.
After the
読み取り開始命令の入力を受け付けると、画像認識装置2は、本人確認書類の画像を読み取り(取得し)、該画像内の本人確認に利用する項目の文字認識をするアプリケーション処理(ステップS2)を行う。ステップS2のアプリケーション処理の内容については後述する。
Upon receiving the input of the reading start command, the
アプリケーション処理を終えると、画像認識装置2は、表示装置5に認識結果を表示させる(ステップS3)。ステップS3において、画像認識装置2は、例えば、本人確認書類の画像、種類、本人確認に利用する項目の文字列(認識結果)を含む画面データを作成して表示装置5に表示させる。また、ステップS3では、画像認識装置2は、例えば、オペレータによる認識結果に対する修正を受け付け可能な状態となる。
When the application processing is completed, the
認識結果を表示した後、画像認識装置2は、認識結果を修正するか否かを判定する(ステップS4)。ステップS4は、例えば、オペレータによる認識結果を修正するか否かの選択を受け付ける処理とする。オペレータが修正することを選択した場合(ステップS4;YES)、画像認識装置2は、修正情報の入力を受け付け、認識結果を修正する(ステップS5)。認識結果の修正が完了すると、画像認識装置2は、認識結果をサーバ装置6に送信する(ステップS6)。また、オペレータが修正しないことを選択した場合(ステップS4;NO)、画像認識装置2は、ステップS5の処理を省略し、認識結果をサーバ装置6に送信する。
After displaying the recognition result, the
ステップS6の処理を終えると、画像認識装置2は、1枚の本人確認書類の画像に対する認識処理を終了する。その後、画像認識装置2は、読み取り開始命令が入力されるまで待機する(ステップS1)。
When the process of step S6 is completed, the
次に、ステップS2のアプリケーション処理の内容について説明する。本実施形態の画像認識装置2は、アプリケーション処理として、例えば、図10のフローチャートに沿った処理を行う。
Next, the contents of the application processing in step S2 will be described. The
図10は、一実施形態に係るアプリケーション処理の内容を説明するフローチャートである。 FIG. 10 is a flowchart illustrating the contents of the application process according to the embodiment.
アプリケーション処理を開始すると、画像認識装置2は、図10のように、まず、本人確認書類の画像を取得する(ステップS11)。ステップS11の処理は、例えば、スキャナ制御部201が行う。スキャナ制御部201は、スキャナ装置3から本人確認書類の画像(デジタルデータ)を取得する。
When the application process is started, the
次に、画像認識装置2は、取得した画像の背景地模様を除去した後、該画像を2値化する(ステップS12)。ステップS12の処理は、例えば、主制御部209が行う。主制御部209は、画像処理の分野における既知の方法に従って本人確認書類の画像から背景地模様を除去し、背景地模様を除去した画像を2値化する。背景地模様を除去した画像を2値化する際には、主制御部209は、画像内の画素を、文字及び罫線を示す画素と、それ以外の画素とに分別する。
Next, the
次に、画像認識装置2は、2値化した画像全体を対象とする文字認識を行う(ステップS13)。ステップS13の処理は、例えば、主制御部209が行う。主制御部209は、例えば、画像処理の分野における既知の方法に従って2値化した画像内の文字を認識する。
Next, the
次に、画像認識装置2は、ステップS13の文字認識の結果に基づいて、2値化した画像全体から文字列を抽出する(ステップS14)。ステップS14の処理は、例えば、主制御部209が行う。主制御部209は、例えば、2値化した画像内の複数の文字のうち、横方向に並んでおり、かつ文字同士の距離が閾値以内となる複数の文字の組を1つの文字列として抽出する。
Next, the
次に、画像認識装置2は、2値化した画像から抽出した文字列と、書類識別テーブル291とに基づいて、画像内の本人確認書類の種類を識別する本人確認書類識別処理(ステップS15)を行う。ステップS15の処理は、書類種類識別部202が行う。書類種類識別部202は、画像から抽出した文字列毎に、該文字列の位置と書類識別テーブル291の識別キーワードの位置とを比較し、位置が略一致する識別キーワードと文字列との一致度を示す得点を算出する。その後、書類種類識別部202は、算出した得点に基づいて、画像内の本人確認書類の種類を識別する。ステップS15の処理の詳細な内容は、後述する。
Next, the
本人確認書類識別処理を終えると、画像認識装置2は、次に、画像内の本人確認書類の種類を識別することができたか否かを判定する(ステップS16)。ステップS16の判定は、書類種類識別部202が行う。識別することができなかった場合(ステップS16;NO)、書類種類識別部202は、ステップS17~S21の処理を省略し、文字認識の結果を主制御部209に返却する(ステップS22)。識別することができなかった場合(ステップS16;NO)、書類種類識別部202は、ステップS22の処理において、例えば、画像内の本人確認書類の種類を識別することができなかったことを示す情報を、文字認識の結果として主制御部209に返却する。ステップS22の処理を終えると、画像認識装置2は、アプリケーション処理を終了し、認識結果を表示装置5に表示させる(図9のステップS3)。
After completing the identity verification document identification process, the
一方、識別することができた場合(ステップS16;YES)、画像認識装置2は、次に、書類種類テーブル292及び認識方式テーブル293に基づいて、文字認識の認識方式を決定する(ステップS17)。ステップS17の処理は、例えば、書類種類識別部202と認識方式選択部203とが連携して行う。書類種類識別部202は、本人確認書類の識別結果(書類No.の値)と書類種類テーブル292とに基づいて認識方式No.を特定し、主制御部209を介して、該認識方式No.を認識方式選択部203に通知する。認識方式選択部203は、認識方式テーブル293を参照し、通知された認識方式No.と対応付けられた認識方式を、現在処理の対象となっている画像に対する文字認識の認識方式に決定する。
On the other hand, if it can be identified (step S16; YES), the
次に、画像認識装置2は、ステップS17で決定した認識方式が位置固定認識方式、キーワード認識方式、及び無罫線キーワード認識方式のいずれであるかを判定する(ステップS18)。ステップS18の判定は、例えば、項目位置特定部204が行う。ステップS17で決定した認識方式が位置固定認識方式である場合(ステップS18;位置固定認識)、画像認識装置2は、位置固定認識方式による文字認識処理(ステップS19)を行う。ステップS19の文字認識処理は、例えば、項目位置特定部204の位置固定認識部211と文字認識部206とが連携して行う。位置固定認識部211は、位置固定認識テーブル294を参照して画像内の文字認識を行う項目(文字列)の位置を特定する。文字認識部206は、活字文字認識辞書298を参照し、位置を特定した項目(文字列)の文字認識を行う。文字認識を行う項目の位置を特定する方法、及び文字認識の方法は、それぞれ、画像認識の分野における既知の方法でよい。ステップS19の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。
Next, the
ステップS17で決定した認識方式がキーワード認識方式である場合(ステップS18;キーワード認識)、画像認識装置2は、キーワード認識方式による文字認識処理(ステップS20)を行う。ステップS20の文字認識処理は、例えば、項目位置特定部204のキーワード認識部212と文字認識部206とが連携して行う。キーワード認識部212は、例えば、認識項目キーワードテーブル295を参照して画像内の文字認識を行う項目の見出し語の位置を特定し、該見出し語の位置と罫線とに基づいて文字認識を行う範囲を特定する。文字認識部206は、活字文字認識辞書298を参照し、特定した範囲内の文字認識を行う。文字認識を行う範囲を特定する方法、及び文字認識の方法は、それぞれ、画像認識の分野における既知の方法でよい。ステップS20の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。
When the recognition method determined in step S17 is the keyword recognition method (step S18; keyword recognition), the
ステップS17で決定した認識方式が無罫線キーワード認識方式である場合(ステップS18;無罫線キーワード認識)、画像認識装置2は、無罫線キーワード認識方式による文字認識処理(ステップS21)を行う。ステップS21の文字認識処理は、例えば、項目位置特定部204の無罫線キーワード認識部213と、文字認識部206と、認識結果補正部205とが連携して行う。無罫線キーワード認識部213は、例えば、認識項目キーワードテーブル295を参照して画像内の文字認識を行う項目の見出し語の位置を特定し、該見出し語の右方又は下方を、文字認識を行う範囲とする。文字認識部206は、活字文字認識辞書298を参照し、特定した範囲の文字認識を行う。認識結果補正部205は、文字認識の結果に含まれる本人確認に利用しない情報を削除する補正を行う。無罫線キーワード認識方式による文字認識処理(ステップS21)の詳細は、後述する。ステップS21の処理を終えると、文字認識部206は、文字認識の結果を主制御部209に返却し(ステップS22)、アプリケーション処理を終了する。
When the recognition method determined in step S17 is the ruled line keyword recognition method (step S18; ruled line keyword recognition), the
このように、アプリケーション処理では、画像認識装置2は、本人確認書類の画像から抽出した文字列と書類識別テーブル291とに基づいて本人確認書類の種類を識別し、識別結果に基づいて文字認識の認識方式を決定する。画像認識装置2は、本人確認書類の種類を識別する本人確認書類識別処理(ステップS15)として、例えば、図11A及び図11Bのフローチャートに沿った処理を行う。
As described above, in the application processing, the
図11Aは、本人確認書類識別処理の内容を説明するフローチャート(その1)である。図11Bは、本人確認書類識別処理の内容を説明するフローチャート(その2)である。 FIG. 11A is a flowchart (No. 1) for explaining the content of the identity verification document identification process. FIG. 11B is a flowchart (No. 2) for explaining the content of the identity verification document identification process.
本人確認書類識別処理を開始すると、画像認識装置2は、図11Aのように、まず、第1のループ処理(ステップS31~S39)を行う。第1のループ処理は、書類種類識別部202が行う。第1のループ処理は、2値化した画像から抽出した複数の文字列のそれぞれを、文字列毎に書類識別テーブル291の識別キーワードのそれぞれと位置及び文字列の文字の並びを比較し、識別キーワードのそれぞれに得点を設定する処理である。
When the identity verification document identification process is started, the
第1のループ処理の始端(ステップS31)において、書類種類識別部202は、2値化した画像から抽出した複数の文字列のうちの1つを選択する。
At the beginning of the first loop process (step S31), the document
次に、書類種類識別部202は、選択した文字列と、書類識別テーブル291の識別キーワードのそれぞれの位置及び文字列の文字の並びとを比較し、識別キーワードのそれぞれに得点を設定する第2のループ処理(ステップS32~S38)を行う。
Next, the document
第2のループ処理の始端(ステップS32)において、書類種類識別部202は、書類識別テーブル291内の1レコード(1行)を選択して読み出す。
At the beginning of the second loop process (step S32), the document
次に、書類種類識別部202は、現在選択されている文字列の画像内での位置(範囲)を示す座標が、書類識別テーブル291内の現在選択されているレコードの座標内に収まっているか否かを判定する(ステップS33)。例えば、図3の書類識別テーブル291内の1行目のレコードが選択されている場合、書類種類識別部202は、現在選択されている文字列の画像内での位置(範囲)を示す座標が、(X1,Y1)を左上角部とし(X2,Y2)を右下角部とする矩形領域内に収まっているか否かを判定する。収まっていない場合(ステップS33;NO)、書類種類識別部202は、ステップS34~S37の処理を省略し、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS32以降の処理を繰り返す。全てのレコードが選択済みである場合、書類種類識別部202は、第2のループ処理を終了する。
Next, the document
ここで、ステップS33の判定についての説明に戻る。現在選択されている文字列の座標が現在選択されているレコードの座標内に収まっている場合(ステップS33;YES)、書類種類識別部202は、次に、書類識別テーブル291の現在選択されているレコードの識別キーワードと現在選択されている文字列との文字の並びが一致するか否かを判定する(ステップS34)。文字の並びが一致している場合(ステップS34;YES)、書類種類識別部202は、書類識別テーブル291の現在選択されているレコードの得点に100点を設定する(ステップS35)。ステップS35の処理を終えると、書類種類識別部202は、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。
Here, the process returns to the description of the determination in step S33. If the coordinates of the currently selected character string are within the coordinates of the currently selected record (step S33; YES), the document
これに対し、文字の並びが一致していない場合(ステップS34;NO)、書類種類識別部202は、次に、書類識別テーブル291の現在選択されているレコードの識別キーワードと現在選択されている文字列との文字の並びが部分一致するか否かを判定する(ステップS36)。文字の並びが部分一致している場合(ステップS36;YES)、書類種類識別部202は、書類識別テーブル291の現在選択されているレコードの得点に{(一致した文字数/識別キーワードの文字数)×100}点を設定する(ステップS37)。ステップS37の処理を終えると、書類種類識別部202は、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。また、文字の並びが部分一致もしていない場合(ステップS36;NO)、書類種類識別部202は、ステップS37の処理を省略し、第2のループ処理の終端(ステップS38)において未選択のレコードがあるか否かを判定する。
On the other hand, when the character arrangements do not match (step S34; NO), the document
第2のループ処理の終端(ステップS38)では、書類種類識別部202は、例えば、書類識別テーブル291内に、現在行っている第2のループ処理において未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS32以降の処理を繰り返す。一方、全てのレコードが選択済みである場合、書類種類識別部202は、第2のループ処理を終了する。
At the end of the second loop processing (step S38), the document
第2のループ処理(ステップS32~S38)を終了すると、書類種類識別部202は、次に、第1のループ処理の終端(ステップS39)において、画像から抽出した文字列のなかに未選択の文字列があるか否かを判定する。未選択の文字列がある場合、書類種類識別部202は、ステップS31以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、書類種類識別部202は、第1のループ処理(ステップS31~S39)を終了する。
When the second loop processing (steps S32 to S38) is completed, the document
第1のループ処理を終了すると、書類種類識別部202は、次に、図11Bのように、最大得点を初期化し(ステップS40)、最大得点の本人確認書類を示す書類No.を初期化する(ステップS41)。最大得点、及び最大得点の本人確認書類を示す書類No.は、例えば、記憶部290に含まれるバッファ(図示せず)に格納されている。書類種類識別部202は、バッファに格納された最大得点、及び書類No.の値を所定の値(例えば0)に設定する。
When the first loop process is completed, the document
次に、書類種類識別部202は、第3のループ処理(ステップS42~S51)を行う。第3のループ処理は、書類種類テーブル292に登録された本人確認書類毎に、書類識別テーブル291の得点の合計(総得点)を算出し、総得点が最大となる本人確認書類を決定する処理である。
Next, the document
第3のループ処理の始端(ステップS42)において、書類種類識別部202は、書類種類テーブル292内の1レコード(1行)を選択して読み出す。
At the beginning of the third loop process (step S42), the document
次に、書類種類識別部202は、選択したレコードに含まれる書類No.と対応付けられた総得点を初期化する(ステップS43)。書類No.と対応付けられた総得点は、例えば、記憶部290に含まれるバッファ(図示せず)に格納されている。書類種類識別部202は、バッファに格納された総得点を0にする。
Next, the document
次に、書類種類識別部202は、書類識別テーブル291における、現在選択されている書類No.のレコードの得点の合計(総得点)を算出する第4のループ処理(ステップS44~S47)を行う。
Next, the document
第4のループ処理の始端(ステップS44)において、書類種類識別部202は、書類識別テーブル291内の1レコード(1行)を選択して読み出す。
At the beginning of the fourth loop process (step S44), the document
次に、書類種類識別部202は、現在選択されている書類種類テーブル292内のレコードに含まれる書類No.と、現在選択されている書類識別テーブル291内のレコードに含まれる書類No.とが一致するか否かを判定する(ステップS45)。一致する場合(ステップS45;YES)、書類種類識別部202は、総得点に現在選択されている書類識別テーブル291内のレコードの得点を加算する(ステップS46)。ステップS46の処理の後、書類種類識別部202は、第4のループ処理の終端(ステップS47)において、書類識別テーブル291内に未選択のレコードがあるか否かを判定する。また、書類No.が一致しない場合(ステップS45;NO)、書類種類識別部202は、ステップS46の処理を省略し、第4のループ処理の終端(ステップS47)において、書類識別テーブル291内に未選択のレコードがあるか否かを判定する。書類識別テーブル291内に未選択のレコードがある場合、書類種類識別部202は、ステップS44以降の処理を繰り返す。そして、書類識別テーブル291内のレコードが全て選択済みである場合、書類種類識別部202は、第4のループ処理(ステップS44~S47)を終了する。
Next, the document
第4のループ処理を終えると、書類種類識別部202は、次に、第4のループ処理で算出した総得点が現在の最大得点よりも大きいか否かを判定する(ステップS48)。総得点>最大得点の場合(ステップS48;YES)、書類種類識別部202は、最大得点の本人確認書類を示す書類No.に、書類種類テーブル292内の現在選択されているレコードに含まれる書類No.を設定する(ステップS49)。その後、書類種類識別部202は、最大得点に第4のループ処理で算出した総得点を設定する(ステップS50)。
After finishing the fourth loop process, the document
ステップS49及びS50の処理を終えると、書類種類識別部202は、第3のループ処理の終端(ステップS51)において、書類種類テーブル292内に未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、書類種類識別部202は、ステップS42以降の処理を繰り返す。そして、全てのレコードが選択済みである場合、書類種類識別部202は、第3のループ処理(ステップS42~S51)を終了する。第3のループ処理を終了すると、書類種類識別部202は、最大得点の本人確認書類を示す書類No.を主制御部209に返却し(ステップS52)、本人確認書類識別処理を終了する。
After completing the processes of steps S49 and S50, the document
このように、本人確認書類識別処理では、本人確認書類から抽出した文字列と、本人確認書類毎に定めた本人確認書類を識別可能な識別キーワードとの位置及び文字の並びの類似度を示す得点を算出し、該得点が最大となる本人確認書類を特定する。 In this way, in the identity verification document identification process, the score indicating the position and the similarity of the character arrangement between the character string extracted from the identity verification document and the identification keyword that can identify the identity verification document specified for each identity verification document. And identify the identity verification document that maximizes the score.
本人確認書類識別処理を終えると、画像認識装置2は、上記のように、本人確認書類の識別結果に基づいて文字認識の認識方式を決定し(ステップS17)、決定した認識方法に従った文字認識処理(ステップS19、S20、及びS21のいずれか)を行う。位置固定認識方式による文字認識処理(ステップS19)、及びキーワード認識方式による文字認識処理(ステップS20)は、それぞれ、既知の文字認識処理に従って行えばよい。このため、本明細書では、ステップS19及びステップS20の文字認識処理の内容についての説明を省略する。一方、無罫線キーワード認識方式による文字認識処理(ステップS21)として、画像認識装置2は、例えば、図12のフローチャートに沿った処理を行う。
After completing the identity verification document identification process, the
図12は、無罫線キーワード認識方式による文字認識処理の内容を説明するフローチャートである。 FIG. 12 is a flowchart illustrating the content of the character recognition process by the ruled line keyword recognition method.
無罫線キーワード認識方式による文字認識処理を開始すると、画像認識装置2は、図12のように、第1のループ処理(ステップS61~S69)を行う。第1のループ処理は、認識項目キーワードテーブル295における画像内の本人確認書類を示す書類No.のレコード毎に、該レコードの項目キーワードと対応する画像内の文字列(見出し文字列)の位置を特定し、該文字列の文字認識を行う処理である。
When the character recognition process by the ruled line keyword recognition method is started, the
第1のループ処理の始端(ステップS61)において、画像認識装置2は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。ステップS61の処理は、項目位置特定部204の無罫線キーワード認識部213が行う。
At the beginning of the first loop process (step S61), the
次に、画像認識装置2は、文字認識を行う項目の画像内での位置を特定して文字認識を行い、認識結果の補正をする第2のループ処理(ステップS62~S68)を行う。
Next, the
第2のループ処理の始端(ステップS62)において、画像認識装置2は、本人確認書類の画像から抽出した文字列の1つを選択する。ステップS62の処理は、無罫線キーワード認識部213が行う。
At the beginning of the second loop process (step S62), the
次に、無罫線キーワード認識部213は、現在選択されている認識項目キーワードテーブル295内の項目キーワードと、ステップS62で選択した文字列とが一致するか否かを判定する(ステップS63)。項目キーワードと文字列とが一致しない場合(ステップS63;NO)、無罫線キーワード認識部213は、ステップS64~S67の処理を省略し、第2のループ処理の終端(ステップS68)において未選択の文字列があるか否かを判定する。未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS62以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS62~S68)を終了する。
Next, the non-ruled line
ここで、ステップS63の判定の説明に戻る。項目キーワードと文字列とが一致する場合(ステップS63;YES)、無罫線キーワード認識部213は、ステップS62で選択した、画像内の項目キーワードと一致する文字列(見出し文字列)の右方で、該文字列と対応する本人確認に利用可能な情報を示す文字列を探索する右方探索処理(ステップS64)を行う。右方探索処理の内容は、後述する。
Here, the process returns to the description of the determination in step S63. When the item keyword and the character string match (step S63; YES), the non-ruled line
右方探索処理を終えると、無罫線キーワード認識部213は、項目キーワードと一致する文字列の右方に、該文字列と対応する本人確認に利用可能な情報を示す文字列があるか否かを判定する(ステップS65)。項目キーワードと一致する文字列の右方に該文字列と対応する文字列があった場合(ステップS65;YES)、無罫線キーワード認識部213は、文字認識部206及び認識結果補正部205と連携して、項目キーワードと一致する文字列と対応する文字列の文字認識及び認識結果の補正を含むデータ文字列補正処理(ステップS67)を行う。ステップS67のデータ文字列補正処理の内容は、後述する。
When the right-side search process is completed, the non-ruled line
一方、項目キーワードと一致する文字列(見出し文字列)の右方に該文字列と対応する文字列がなかった場合(ステップS65;NO)、無罫線キーワード認識部213は、次に、画像内の項目キーワードと一致する文字列の下方で、該文字列と対応する本人確認に利用可能な情報を示す文字列を探索する下方探索処理(ステップS66)を行う。下方探索処理の内容は、後述する。ステップS66の下方探索処理を終えると、無罫線キーワード認識部213は、文字認識部206及び認識結果補正部205と連携して、データ文字列補正処理(ステップS67)を行う。ステップS67のデータ文字列補正処理の内容は、後述する。
On the other hand, when there is no character string corresponding to the character string on the right side of the character string (heading character string) matching the item keyword (step S65; NO), the non-ruled line
ステップS67のデータ文字列補正処理を終えると、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS68)において、未選択の文字列があるか否かを判定する。未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS62以降の処理を繰り返す。一方、全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS62~S68)を終了する。
When the data character string correction process of step S67 is completed, the ruled line
第2のループ処理を終了すると、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS69)において、認識項目キーワードテーブル295内に未選択のレコード(行)があるか否かを判定する。未選択のレコードがある場合、無罫線キーワード認識部213は、ステップS61以降の処理を繰り返す。認識項目キーワードテーブル295内の全てのレコードが選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS61~S69)を終了する。
When the second loop processing is completed, the non-ruled line
第1のループ処理を終了すると、例えば、無罫線キーワード認識部213は、全ての認識項目の認識結果を主制御部209に通知し(ステップS70)、無罫線キーワード認識方式による文字認識処理を終了する。
When the first loop processing is completed, for example, the non-ruled line
次に、図13を参照して右方探索処理(ステップS64)の内容を説明する。図13は、右方探索処理の内容を説明するフローチャートである。 Next, the contents of the right side search process (step S64) will be described with reference to FIG. FIG. 13 is a flowchart illustrating the contents of the right side search process.
右方探索処理を開始すると、無罫線キーワード認識部213は、図13のように、まず、見出し文字列の座標を取得する(ステップS81)。見出し文字列は、現在行っている右方探索処理における画像から抽出した文字列(図12のステップS62で選択された文字列)であり、図12のステップS61で選択した認識項目キーワードテーブル295のレコードに含まれる項目キーワードと一致する文字列である。
When the right-side search process is started, the non-ruled line
次に、無罫線キーワード認識部213は、見出し文字列の右方で該見出し文字列と対応するデータ文字列の候補(データ候補文字列)を探索する第1のループ処理(ステップS82~S85)を行う。
Next, the non-ruled line
第1のループ処理の始端(ステップS82)において、無罫線キーワード認識部213は、例えば、画像から抽出した文字列のうち見出し文字列よりも右方の文字列の1つを選択する。
At the beginning of the first loop process (step S82), the ruled line
次に、無罫線キーワード認識部213は、見出し文字列の高さの座標範囲に、ステップS82で選択した文字列の高さの座標範囲が含まれるか否かを判定する(ステップS83)。見出し文字列の高さの座標範囲に選択した文字列の高さの座標範囲が含まれる場合(ステップS83;YES)、無罫線キーワード認識部213は、選択した文字列をデータ候補文字列として保持する(ステップS84)。ステップS84の処理の後、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS85)において、未選択の文字列があるか否かを判定する。また、見出し文字列の高さの座標範囲に選択した文字列の高さの座標範囲が含まれない場合(ステップS83;NO)、無罫線キーワード認識部213は、ステップS84の処理を省略し、第1のループ処理の終端(ステップS85)において、未選択の文字列があるか否かを判定する。
Next, the non-ruled line
未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS82以降の処理を繰り返す。全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS82~S85)を終了し、次に、データ候補文字列があるか否かを判定する(ステップS86)。データ候補文字列がない場合(ステップS86;NO)、無罫線キーワード認識部213は、ステップS87以降の処理を省略し、右方探索処理を終了する。
If there is an unselected character string, the non-ruled line
一方、データ候補文字列がある場合(ステップS86;YES)、無罫線キーワード認識部213は、次に、データ候補文字列のなかから見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出する第2のループ処理(ステップS87~S94)を行う。第2のループ処理は、データ候補文字列内で見出し文字列とは別の項目キーワードを検出した場合、或いは全てのデータ候補文字列が見出し文字列とは別の項目キーワードではないことが確定した場合に終了する。
On the other hand, when there is a data candidate character string (step S86; YES), the non-ruled line
第2のループ処理の始端(ステップS87)において、無罫線キーワード認識部213は、データ候補文字列の1つを選択する。データ候補文字列が複数である場合、無罫線キーワード認識部213は、複数のデータ候補文字列のうち、位置が左方のデータ候補文字列(言い換えると見出し文字列に近いデータ候補文字列)から順に選択する。
At the beginning of the second loop process (step S87), the non-ruled line
次に、無罫線キーワード認識部213は、選択したデータ候補文字列が見出し文字列とは別の項目キーワードであるか否かを判定する第3のループ処理(ステップS88~S91)を行う。
Next, the non-ruled line
第3のループ処理の始端(ステップS88)において、無罫線キーワード認識部213は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。
At the beginning of the third loop process (step S88), the non-ruled line
次に、無罫線キーワード認識部213は、認識項目キーワードテーブル295から選択したレコードに含まれる項目キーワードとデータ候補文字列とが一致するか否かを判定する(ステップS89)。項目キーワードとデータ候補文字列とが一致する場合(ステップS89;YES)、無罫線キーワード認識部213は、別見出しフラグをONにする(ステップS90)。ステップS90の処理の後、無罫線キーワード認識部213は、第3のループ処理の終端(ステップS91)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。また、項目キーワードとデータ候補文字列とが一致しない場合(ステップS89;NO)、無罫線キーワード認識部213は、ステップS90の処理を省略し、第3のループ処理の終端(ステップS91)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。別見出しフラグがONになっておらず、かつ、未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS88以降の処理を繰り返す。別見出しフラグがONになった場合、又は全てのデータ候補文字列を選択した場合、無罫線キーワード認識部213は、第3のループ処理(ステップS88~S91)を終了する。
Next, the non-ruled line
第3のループ処理を終了すると、無罫線キーワード認識部213は、次に、別見出しフラグがONになっているか否かを判定する(ステップS92)。別見出しフラグがONになっていない場合(ステップS92;NO)、無罫線キーワード認識部213は、現在選択されているデータ候補文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として保持する(ステップS93)。ステップS93の処理の後、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS94)において、未選択のデータ候補文字列があるか否かを判定する。未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS87以降の処理を繰り返す。そして、全てのデータ候補文字列が選択済みである場合、無罫線キーワード認識部213は、第2のループ処理(ステップS87~S94)を終了し、保持しているデータ文字列を返却する(ステップS95)。
When the third loop process is completed, the non-ruled line
ここで、ステップS92の判定の説明に戻る。第3のループ処理の終了後、別見出しフラグがONになっている場合(ステップS92;YES)、無罫線キーワード認識部213は、第2のループ処理(ステップS87~S94)を終了し、保持しているデータ文字列を返却する(ステップS95)。
Here, the process returns to the description of the determination in step S92. When the separate heading flag is ON after the end of the third loop processing (step S92; YES), the non-ruled line
このように、右方探索処理では、項目キーワードと一致する見出し文字列の右方に位置する文字列のうち、認識項目キーワードテーブル295の項目キーワードとは一致しない文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。また、右方探索処理では、項目キーワードと一致する見出し文字列の右方に複数の文字列があり、かつ複数の文字列のなかに認識項目キーワードテーブル295の項目キーワードと一致する文字列(別見出し文字列)が含まれる場合、該文字列と見出し文字列との間に位置する文字列のみを、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。 In this way, in the right search process, among the character strings located to the right of the heading character string that matches the item keyword, the character string that does not match the item keyword in the recognition item keyword table 295 corresponds to the heading character string. Extract as a data string containing information that can be used for identity verification. Further, in the right search process, there are a plurality of character strings on the right side of the heading character string that matches the item keyword, and a character string that matches the item keyword of the recognition item keyword table 295 in the plurality of character strings (separately). When the heading character string) is included, only the character string located between the character string and the heading character string is extracted as a data character string containing information that can be used for identity verification corresponding to the heading character string.
なお、右方探索処理において見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出することができなかった場合、無罫線キーワード認識部213は、図12のように、下方探索処理(ステップS66)を行う。無罫線キーワード認識部213は、下方探索処理として、例えば、図14のフローチャートに沿った処理を行う。
If the data character string including the information that can be used for identity verification corresponding to the heading character string cannot be extracted in the right-side search process, the ruled line
図14は、下方探索処理の内容を説明するフローチャートである。
下方探索処理を開始すると、無罫線キーワード認識部213は、図14のように、まず、見出し文字列の座標を取得する(ステップS101)。見出し文字列は、現在行っている右方探索処理における画像から抽出した文字列(図12のステップS62で選択された文字列)であり、図12のステップS61で選択した認識項目キーワードテーブル295のレコードに含まれる項目キーワードと一致する文字列である。
FIG. 14 is a flowchart illustrating the content of the downward search process.
When the downward search process is started, the non-ruled line
次に、無罫線キーワード認識部213は、見出し文字列の下方で該見出し文字列と対応するデータ文字列の候補(データ候補文字列)を探索する第1のループ処理(ステップS102~S105)を行う。
Next, the non-ruled line
第1のループ処理の始端(ステップS102)において、無罫線キーワード認識部213は、例えば、画像から抽出した文字列のうち見出し文字列よりも下方の文字列の1つを選択する。
At the beginning of the first loop process (step S102), the non-ruled line
次に、無罫線キーワード認識部213は、見出し文字列の幅の座標範囲に、ステップS102で選択した文字列の幅の座標範囲が含まれるか否かを判定する(ステップS103)。見出し文字列の幅の座標範囲に選択した文字列の幅の座標範囲が含まれる場合(ステップS103;YES)、無罫線キーワード認識部213は、選択した文字列をデータ候補文字列として保持する(ステップS104)。ステップS104の処理の後、無罫線キーワード認識部213は、第1のループ処理の終端(ステップS105)において、未選択の文字列があるか否かを判定する。また、見出し文字列の幅の座標範囲に選択した文字列の幅の座標範囲が含まれない場合(ステップS103;NO)、無罫線キーワード認識部213は、ステップS104の処理を省略し、第1のループ処理の終端(ステップS105)において、未選択の文字列があるか否かを判定する。
Next, the non-ruled line
未選択の文字列がある場合、無罫線キーワード認識部213は、ステップS102以降の処理を繰り返す。全ての文字列が選択済みである場合、無罫線キーワード認識部213は、第1のループ処理(ステップS102~S105)を終了し、データ候補文字列があるか否かを判定する(ステップS106)。データ候補文字列がない場合(ステップS106;NO)、無罫線キーワード認識部213は、ステップS107以降の処理を省略し、下方探索処理を終了する。
If there is an unselected character string, the non-ruled line
一方、データ候補文字列がある場合(ステップS106;YES)、無罫線キーワード認識部213は、次に、データ候補文字列のなかから見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出する第2のループ処理(ステップS107~S114)を行う。第2のループ処理は、データ候補文字列内で見出し文字列とは別の項目キーワードを検出した場合、或いは全てのデータ候補文字列が見出し文字列とは別の項目キーワードではないことが確定した場合に終了する。
On the other hand, when there is a data candidate character string (step S106; YES), the non-ruled line
第2のループ処理の始端(ステップS107)において、無罫線キーワード認識部213は、データ候補文字列の1つを選択する。データ候補文字列が複数である場合、無罫線キーワード認識部213は、複数のデータ候補文字列のうち、位置が上方のデータ候補文字列(言い換えると見出し文字列に近いデータ候補文字列)から順に選択する。
At the beginning of the second loop process (step S107), the non-ruled line
次に、無罫線キーワード認識部213は、選択したデータ候補文字列が見出し文字列とは別の項目キーワードであるか否かを判定する第3のループ処理(ステップS108~S111)を行う。
Next, the non-ruled line
第3のループ処理の始端(ステップS108)において、無罫線キーワード認識部213は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出す。
At the beginning of the third loop process (step S108), the non-ruled line
次に、無罫線キーワード認識部213は、認識項目キーワードテーブル295から選択したレコードに含まれる項目キーワードとデータ候補文字列とが一致するか否かを判定する(ステップS109)。項目キーワードとデータ候補文字列とが一致する場合(ステップS109;YES)、無罫線キーワード認識部213は、別見出しフラグをONにする(ステップS110)。ステップS110の処理の後、無罫線キーワード認識部213は、第3のループ処理の終端(ステップS111)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。また、項目キーワードとデータ候補文字列とが一致しない場合(ステップS109;NO)、無罫線キーワード認識部213は、ステップS110の処理を省略し、第3のループ処理の終端(ステップS111)において、別見出しフラグがONになっているか、又は全てのデータ候補文字列を選択したかを判定する。別見出しフラグがONになっておらず、かつ、未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS108以降の処理を繰り返す。別見出しフラグがONになった場合、又は全てのデータ候補文字列を選択した場合、無罫線キーワード認識部213は、第3のループ処理(ステップS108~S111)を終了する。
Next, the non-ruled line
第3のループ処理を終了すると、無罫線キーワード認識部213は、次に、別見出しフラグがONになっているか否かを判定する(ステップS112)、別見出しフラグがONになっていない場合(ステップS112;NO)、無罫線キーワード認識部213は、現在選択されているデータ候補文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として保持する(ステップS113)。ステップS113の処理の後、無罫線キーワード認識部213は、第2のループ処理の終端(ステップS114)において、未選択のデータ候補文字列があるか否かを判定する。未選択のデータ候補文字列がある場合、無罫線キーワード認識部213は、ステップS107以降の処理を繰り返す。そして、全てのデータ候補文字列が選択済みである場合、無罫線キーワード認識部は、第2のループ処理(ステップS107~S114)を終了し、保持しているデータ文字列を返却する(ステップS115)。
When the third loop process is completed, the non-ruled line
ここで、ステップS112の判定の説明に戻る。第3のループ処理の終了後、別見出しフラグがONになっている場合(ステップS112;YES)、無罫線キーワード認識部213は、第2のループ処理(ステップS107~S114)を終了し、保持しているデータ文字列を返却する(ステップS115)。
Here, the process returns to the description of the determination in step S112. When the separate heading flag is ON after the end of the third loop process (step S112; YES), the non-ruled line
このように、下方探索処理では、項目キーワードと一致する見出し文字列の下方に位置する文字列のうち、認識項目キーワードテーブル295の項目キーワードとは一致しない文字列を、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。また、下方探索処理では、項目キーワードと一致する見出し文字列の下方に複数の文字列があり、かつ複数の文字列のなかに認識項目キーワードテーブル295の項目キーワードと一致する文字列(別見出し文字列)が含まれる場合、該文字列と見出し文字列との間に位置する文字列のみを、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列として抽出する。 In this way, in the downward search process, among the character strings located below the heading character string that matches the item keyword, the character string that does not match the item keyword in the recognition item keyword table 295 is the person corresponding to the heading character string. Extract as a data string containing information that can be used for confirmation. Further, in the downward search process, there are a plurality of character strings below the heading character string that matches the item keyword, and a character string that matches the item keyword of the recognition item keyword table 295 in the plurality of character strings (separate heading character). (Column) is included, only the character string located between the character string and the heading character string is extracted as a data character string containing information that can be used for identity verification corresponding to the heading character string.
上記の右方探索処理又は下方探索処理により、見出し文字列と対応する本人確認に利用可能な情報を含むデータ文字列を抽出した後、画像認識装置2では、抽出したデータ文字列の文字認識を行い、該文字認識の結果を補正するデータ文字列補正処理(図12のステップS67)を行う。データ文字列補正処理は、認識結果補正部205と文字認識部206とが連携して行う。認識結果補正部205及び文字認識部206は、データ文字列補正処理として、例えば、図15A及び図15Bのフローチャートに沿った処理を行う。
After extracting the data character string including the information that can be used for identity verification corresponding to the heading character string by the above-mentioned right-side search process or downward search process, the
図15Aは、データ文字列補正処理の内容を説明するフローチャート(その1)である。図15Bは、データ文字列補正処理の内容を説明するフローチャート(その2)である。 FIG. 15A is a flowchart (No. 1) for explaining the content of the data character string correction process. FIG. 15B is a flowchart (No. 2) for explaining the content of the data character string correction process.
データ文字列補正処理を開始すると、画像認識装置2は、図15Aのように、まず、最初の文字列を抽出し(ステップS121)、該最初の文字列を補正データ文字列として保持する(ステップS122)。ステップS121及びS122の処理は、例えば、認識結果補正部205が行う。認識結果補正部205は、見出し文字列と対応するデータ文字列のうち、最も左側のデータ文字列(言い換えると見出し文字列に最も近いデータ文字列)を最初の文字列とする。
When the data character string correction process is started, the
次に、認識結果補正部205は、データ文字列が1つであるか否かを判定する(ステップS123)。データ文字列が複数である場合(ステップS123;NO)、認識結果補正部205は、次に、データ文字列毎に、隣り合う文字列間の距離が距離閾値内であるか否かを判定する第1のループ処理(ステップS124~S129)を行う。
Next, the recognition
第1のループ処理の始端(ステップS124)において、認識結果補正部205は、最初の文字列として抽出したデータ文字列を除く他のデータ文字列のうち、最も左側に位置するデータ文字列から順に選択する。
At the beginning of the first loop processing (step S124), the recognition
データ文字列を選択した後、認識結果補正部205は、選択したデータ文字列を次の文字列として抽出し(ステップS125)、抽出した次の文字列(データ文字列)と、該データ文字列の左隣のデータ文字列との距離を算出する(ステップS126)。
After selecting the data character string, the recognition
次に、認識結果補正部205は、算出した距離が認識項目テーブル296の文字列間の距離閾値以内であるか否かを判定する(ステップS127)。ステップS127の処理では、認識結果補正部205は、認識項目テーブル296において見出し文字列と対応する認識項目No.のレコードに含まれる文字列間の距離閾値に基づいて、文字列間の距離が距離閾値以内であるか否かを判定する。
Next, the recognition
文字列間の距離が距離閾値以内である場合(ステップS127;YES)、認識結果補正部205は、ステップS125で抽出したデータ文字列(次の文字列)を、補正データ文字列として保持する(ステップS128)。ステップS128の処理の後、認識結果補正部205は、第1のループ処理の終端(ステップS129)において、未選択のデータ文字列があるか否かを判定する。未選択のデータ文字列がある場合、認識結果補正部205は、ステップS124以降の処理を繰り返す。
When the distance between the character strings is within the distance threshold (step S127; YES), the recognition
一方、全てのデータ文字列が選択済みである場合、認識結果補正部205は、第1のループ処理(ステップS124~S129)を終了する。また、ステップS126で算出した距離が認識項目テーブル296の文字列間の距離閾値よりも長い場合(ステップS127;NO)、認識結果補正部205は、第1のループ処理(ステップS124~S129)を終了する。
On the other hand, when all the data character strings have been selected, the recognition
第1のループ処理を終了すると、認識結果補正部205は、保持している補正データ文字列が2つ以上であるか否かを判定する(ステップS130)。また、ステップS123においてデータ文字列が1つであると判定した場合(ステップ123;YES)、認識結果補正部205は、第1のループ処理自体を省略し、ステップS130の判定を行う。
When the first loop processing is completed, the recognition
保持している補正データ文字列が2つ以上である場合(ステップS130;YES)、認識結果補正部205は、該2つ以上の補正データ文字列を結合して1つのデータ文字列とし(ステップS131)、結合した1つのデータ文字列を文字認識部206に通知する。一方、保持している補正データ文字列が1つである場合(ステップS130;NO)、認識結果補正部205は、ステップS131の処理を省略し、保持している1つの補正データ文字列を文字認識部206に通知する。文字認識部206は、通知された1つのデータ文字列の文字認識を行い(ステップS132)、文字認識の結果を認識結果補正部205に通知する(返信する)。
When the number of the retained correction data character strings is two or more (step S130; YES), the recognition
文字認識の結果を受け取ると、認識結果補正部205は、図15Bのように、文字認識の結果が認識項目テーブル296内の現在選択しているレコードに含まれる桁数以内であるか否かを判定する(ステップS133)。文字認識の結果が現在選択しているレコードに含まれる桁数よりも多い場合(ステップS133;NO)、認識結果補正部205は、文字認識の結果における、現在選択しているレコードの桁数+1桁以降の文字列を削除する(ステップS134)。ステップS134の後、認識結果補正部205は、文字認識の結果から、認識項目テーブル296内の現在選択しているレコードに含まれる最終文字を検索する(ステップS135)。また、文字認識の結果が現在選択しているレコードに含まれる桁数以内である場合(ステップS133;YES)、認識結果補正部205は、ステップS134の処理を省略し、ステップS135の検索処理を行う。
Upon receiving the character recognition result, the recognition
ステップS135の検索処理の後、認識結果補正部205は、文字認識の結果から最終文字を検出したか否かを判定する(ステップS136)。最終文字を検出した場合(ステップS136;YES)、認識結果補正部205は、最終文字の桁数(桁位置を表す数値)+1桁以降の文字列を削除する(ステップS137)。例えば、最終文字の桁位置が5桁目(左端から5番目)である場合、認識結果補正部205は、6(=5+1)桁以降の文字列を削除する。ステップS137の処理の後、認識結果補正部205は、文字認識の結果を主制御部209に返却し(ステップS138)、データ文字列補正処理を終了する。また、最終文字が含まれない場合(ステップS136;NO)、認識結果補正部205は、ステップS137の処理を省略して文字認識の結果を主制御部209に返却し(ステップS138)、データ文字列補正処理を終了する。
After the search process in step S135, the recognition
このように、本実施形態の画像認識装置2では、認識項目キーワードテーブル295内の項目キーワードと対応する本人確認に利用可能な情報(文字列)の桁数及び最終文字に基づいて、項目キーワードと一致する画像内の文字列の右方又は下方に位置する文字列の文字認識の結果に含まれる、本人確認に利用可能な情報とは別の情報を削除する。このため、例えば、本人確認書類における見出し語の右方又は下方に、本人確認に利用可能な情報とは別の情報、例えば、会社名、団体名、ロゴ、及びその他の付加情報等が印刷されている場合にも、本人確認に利用可能な情報のみを抽出して認識することができる。
As described above, in the
図16は、本人確認書類の一例を示す図である。
図16には、本人確認書類の一例として、カードタイプの保険証10を示している。保険証10は、正位置でみた場合に左上角部となる部分に「健康保険」という文字列10A、及び「被保険者証」という文字列10Bが印刷されている。また、保険証10には、本人確認に利用可能な情報(項目)の1つとして被保険者の氏名が印刷されている。しかしながら、保険証10には、「氏名」という文字列10C(見出し語)と、「富士通 花子」という文字列10D(被保険者の氏名)との組を囲む罫線がない。また、保険証10は、例えば各市区町村が発行しており、フォーマットが統一されていない。例えば、カードタイプの保険証には、「氏名」という文字列(見出し語)及び被保険者の氏名の位置や間隔が、図16の保険証10とは異なるものも存在し得る。このため、保険証10を本人確認書類として画像認識装置2で認識する場合、位置固定認識方式による文字認識処理(ステップS19)、及びキーワード認識方式による文字認識処理(ステップS20)による文字認識を行うことができない。したがって、保険証10を本人確認書類として画像認識装置2で認識する場合、無罫線キーワード認識方式による文字認識処理(ステップS21)により文字認識を行うこととなる。
FIG. 16 is a diagram showing an example of an identity verification document.
FIG. 16 shows a card-type
図17Aは、2値化した画像から抽出される文字列の例を説明する図(その1)である。図17Bは、2値化した画像から抽出される文字列の例を説明する図(その2)である。 FIG. 17A is a diagram (No. 1) illustrating an example of a character string extracted from a binarized image. FIG. 17B is a diagram (No. 2) illustrating an example of a character string extracted from a binarized image.
保険証10を本人確認書類として画像認識装置2で認識する場合、まず、スキャナ装置3等により保険証10の画像を取得する(ステップS11)。その後、画像認識装置2は、保険証10の画像の背景地模様を除去して2値化し(ステップS12)、2値化した画像全体を対象とする文字認識を行う(ステップS13)。
When the
ステップS13の処理において、画像認識装置2は、図17Aの(a)のように、保険証10の画像における左上角部周辺の部分領域11Aの「健」、「康」、「保」、及び「険」の4文字と、「被」、「保」、「険」、「者」、及び「証」の5文字を認識する。また、これら9文字の画像内での位置は、1つの文字を含む矩形領域の左上角部の座標と右下角部の座標とで表される。例えば、「健」という文字の位置は、「健」という文字を囲む矩形領域1201の左上角部の座標(x1,y1)と右下角部の座標(x2,y2)とで表される。また、例えば、「被」という文字の位置は、「被」という文字を囲む矩形領域1210の左上角部の座標(x1,y3)と右下角部の座標(x2,y4)とで表される。
In the process of step S13, as shown in FIG. 17A (a), the
また、ステップS13の処理において、画像認識装置2は、図17Bの(a)のように、保険証10の画像における氏名及び生年月日が記載された部分領域11Bの「氏」及び「名」の2文字、「富」、「士」、「通」、「花」、及び「子」の5文字等を認識する。当該部分領域11Bから認識した各文字の位置は、上記のように、1つの文字を含む矩形領域の左上角部の座標と右下角部の座標とで表される。
Further, in the process of step S13, the
ステップS13により画像内の文字を認識した後、画像認識装置2は、2値化した画像全体から文字列を抽出する(ステップS14)。ステップS14の処理では、画像認識装置2は、例えば、横方向(x方向)で隣り合い、かつ文字間の距離が閾値以下となる複数の文字を1つの文字列として抽出する。例えば、画像認識装置2は、図17Aの(b)のように、保険証10の画像における左上角部周辺である部分領域11Aの「健」、「康」、「保」、及び「険」の4文字を「健康保険」という1つの文字列1301として抽出する。また、画像認識装置2は、「被」、「保」、「険」、「者」、及び「証」の5文字を「被保険者証」という1つの文字列1310として抽出する。2値化した画像(部分領域11A)から抽出した「健康保険」という文字列1301の画像内での位置は、文字列1301を含む矩形領域の左上角部の座標(x1,y1)及び右下角部の座標(x8,y2)で表される。同様に、「被保険者証」という文字列1310の画像内での位置は、文字列1310を含む矩形領域の左上角部の座標(x1,y3)及び右下角部の座標(x20,y4)で表される。
After recognizing the characters in the image in step S13, the
また、画像認識装置2は、例えば、図17Bの(b-1)のように、部分領域11Bの「氏」及び「名」の2文字を「氏名」という文字列1320として抽出し、「富」、「士」、「通」、「花」、及び「子」の5文字を「富士通」という文字列1321と「花子」という文字列1322として抽出する。同様に、画像認識装置2は、例えば、図17Bの(b-1)のように、部分領域11Bから「生年月日」という文字列1330、「昭和」という文字列1331、「55年」という文字列1332、「11月」という文字列1333、「11日」という文字列1334を抽出する。更に画像認識装置2は、例えば、部分領域11Bから「性別」という文字列1335、及び「女」という文字列1336を抽出する。これらの文字列1320~1322及び1330~1336の位置は、それぞれ、文字列を囲む矩形領域の左上角部の座標及び右下角部の座標で表される。
Further, the
なお、画像認識装置2は、例えば、図17Bの(b-2)のように、部分領域11Bにおける「富」、「士」、「通」、「花」、及び「子」という被保険者の氏名を「富士通 花子」という1つの文字列1329として抽出してもよい。同様に、画像認識装置2は、部分領域11Bにおける被保険者の生年月日を「昭和 55年 11月 11日」という1つの文字列1339として抽出してもよい。
The
保険証10の画像を2値化して文字列を抽出した後、画像認識装置2は、本人確認書類識別処理(ステップS15)を行う。画像認識装置2は、本人確認書類識別処理として、例えば、図11A及び図11Bのフローチャートに沿った処理を行う。
After binarizing the image of the
図11A及び図11Bのフローチャートに沿った処理を行う場合、画像認識装置2は、例えば、まず、第1のループ処理の始端(ステップS31)で保険証10の画像における部分領域11Aから抽出した「健康保険」という文字列1301を選択する。その後、画像認識装置2は、書類識別テーブル291(図3を参照)の各レコード(各行)の識別キーワードと文字列1301の一致度を示す得点を算出する。
When performing the processing according to the flowcharts of FIGS. 11A and 11B, the
図3の書類識別テーブル291における書類No.=1の本人確認書類は免許証であり、書類No.=1の各レコードの識別キーワードのなかに「健康保険」という文字列1301と一致する識別キーワード及び部分一致する識別キーワードはない。このため、書類No.=1の各レコードの識別キーワードのなかに、画像内での位置が文字列1301の画像内での位置と略一致する識別キーワードがあったとしても、書類No.=1の各レコードの得点は、全て0点となる。同様に、図3の書類識別テーブル291における書類No.=3の各レコード、書類No.=4の各レコード、及び書類No.=5の各レコードの得点は、全て0点となる。
The identity verification document of document No. = 1 in the document identification table 291 of FIG. 3 is a driver's license, and the identification keyword matching the
これに対し、図3の書類識別テーブル291における書類No.=2のレコードのうち、識別キーワードが健康保険であるレコードの得点は、100点或いは100点に近い高得点となる。 On the other hand, among the records of document No. = 2 in the document identification table 291 of FIG. 3, the score of the record whose identification keyword is health insurance is 100 points or a high score close to 100 points.
また、第1のループ処理の始端(ステップS31)で保険証10の画像における部分領域11Aから抽出した「被保険者証」という文字列1310を選択した場合、図3の書類識別テーブル291における書類No.=2のレコードのうち、識別キーワードが被保険者証であるレコードの得点のみが100点或いは100点に近い高得点となる。
Further, when the
その後、例えば、第1のループ処理の始端(ステップS31)で部分領域11Bから抽出した「氏名」という文字列1320、及び「富士通 花子」という文字列1329を選択して各レコードの得点を算出すると、全て0点又は0点に近い得点となる。したがって、第1のループ処理(ステップS31~S39)を終了した後、第3のループ処理(ステップS42~S51)を行うと、最大得点となる本人確認書類の書類No.は2となる。よって、画像認識装置2は、保険証10の画像内の本人確認書類の書類No.=2と、書類種類テーブル292と、認識方式テーブル293とに基づいて、該保険証10の画像の文字認識の方式を認識方式No.=1の無罫線キーワード認識方式に決定する(ステップS17)。
After that, for example, when the
画像認識装置2は、無罫線キーワード認識方式の文字認識処理(ステップS21)として、例えば、図12、図13、図14、並びに図15A及び図15Bのフローチャートに沿った処理を行う。すなわち、画像認識装置2は、認識項目キーワードテーブル295内の1レコード(1行)を選択して読み出し、保険証10の画像から抽出した文字列のうちの選択したレコードの項目キーワードと一致する文字列を見出し文字列として、右方探索処理(ステップS64)を行う。例えば、画像認識装置2は、図6の認識項目キーワードテーブル295の上から4行目のレコードを選択し、かつ保険証10の画像から抽出した文字列から「氏名」という文字列1320(図17Bを参照)を選択した場合、「氏名」という文字列1320を見出し文字列とした右方探索処理を行う。このとき、画像認識装置2は、まず、見出し文字列1320の高さの座標範囲に、見出し文字列1320の右方に位置する文字列の高さの座標範囲が含まれるか否かを判定する(ステップS83)。そして、見出し文字列1320の高さの座標範囲に、見出し文字列1320の右方に位置する文字列の高さの座標範囲が含まれる場合、画像認識装置2は、見出し文字列1320の右方の文字列をデータ候補文字列とする。
The
図18は、右方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。 FIG. 18 is a diagram illustrating an example of a method of determining whether or not to use as a data candidate character string in the right-side search process.
図18の(a)~(d)には、それぞれ、「氏名」という見出し文字列1320と、該見出し文字列1320の右方に位置する「富士通 花子」という本人確認に利用可能な情報を示す文字列1329の位置及び寸法の関係を示している。
18 (a) to 18 (d) show the heading
見出し文字列1320の高さの座標範囲H1は、見出し文字列1320を囲む矩形領域における左上角部の縦座標(y座標)y21と、右下角部の縦座標(y座標)y22により算出される。よって、画像認識装置2は、「富士通 花子」という文字列1329を含む、見出し文字列1320の右方に位置する文字列のそれぞれの高さの座標範囲が見出し文字列1320の高さの座標範囲H1に含まれるか否かを判定する(ステップS83)。
The coordinate range H1 of the height of the heading
例えば、図18の(a)では、「富士通 花子」という文字列1329の左上角部の座標(x31,y31)が見出し文字列1320の高さの座標範囲H1の上端よりも上方にあり、右下角部の座標(x38,y38)が見出し文字列1320の高さの座標範囲H1の下端よりも下方にある。このような場合、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2が含まれる(ステップS83;YES)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列として保持する(ステップS84)。
For example, in FIG. 18A, the coordinates (x31, y31) of the upper left corner of the
また、図18の(b)では、「富士通 花子」という文字列1329の右下角部の座標(x38,y38)は、見出し文字列1320の高さの座標範囲H1の上端と下端との間にある。このような場合も、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2が含まれる(ステップS83;YES)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列として保持する(ステップS84)。
Further, in FIG. 18B, the coordinates (x38, y38) of the lower right corner of the
これに対し、図18の(c)では、「富士通 花子」という文字列1329の右下角部の座標(x38,y38)は、見出し文字列1320の高さの座標範囲H1の上端よりも上方にある。このような場合、見出し文字列1320の高さの座標範囲H1に文字列1329の高さの座標範囲H2は含まれない(ステップS83;NO)。このため、画像認識装置2は、「富士通 花子」という文字列1329をデータ候補文字列とはしない。
On the other hand, in (c) of FIG. 18, the coordinates (x38, y38) of the lower right corner of the
なお、図13のフローチャートにおけるステップS83の判定は、見出し文字列の高さの座標範囲に右方の文字列の高さの座標範囲が含まれるか否かに限らず、例えば、見出し文字列の高さ(文字のサイズ)と右方の文字列の高さ(文字のサイズ)との関係を条件に含むものであってもよい。例えば、図18の(d)では、「氏名」という見出し文字列1320の高さの座標範囲H1に「富士通 花子」という文字列1329の高さの座標範囲H2が含まれる。しかしながら、右方の文字列の高さの上限を座標範囲Th1と対応する高さに設定した場合、文字列1329の高さは座標範囲Th1と対応する高さよりも大きくなる。このような場合、文字列1329と高さ方向(上下方向)で隣り合う他の文字列との間隔が狭くなり、文字認識に誤りが生じる可能性が高くなる。また、例えば、図18の(a)及び(b)の例において文字列1329の更に右方に、会社名や団体のロゴ等が印刷されている場合、当該会社名やロゴを氏名の一部とし認識してしまうことがある。このような事態を防止するため、見出し文字列の右方の文字列の高さが座標範囲Th1と対応する高さよりも大きい場合には当該右方の文字列をデータ候補文字列としないようにしてもよい。なお、この場合の座標範囲Th1は、適宜設定すればよく、例えば、Th1=1.7×H1とする。
The determination in step S83 in the flowchart of FIG. 13 is not limited to whether or not the coordinate range of the height of the heading character string includes the coordinate range of the height of the character string on the right, for example, the heading character string. It may include the relationship between the height (character size) and the height of the character string on the right (character size) as a condition. For example, in FIG. 18D, the height coordinate range H1 of the heading
右方探索処理における第1のループ処理(ステップS82~S85)を終えると、画像認識装置2は、データ候補文字列を保持しているか否かを判定する(ステップS86)。データ候補文字列を保持していない場合(ステップS86;NO)、画像認識装置2は、右方探索処理を終了し、次に、下方探索処理(ステップS66)を行う。一方、データ候補文字列を保持している場合(ステップS86;YES)、画像認識装置2は、データ候補文字列からデータ文字列を抽出する第2のループ処理(ステップS87~S94)を行う。
When the first loop process (steps S82 to S85) in the right search process is completed, the
例えば、図18の(a)のように、「氏名」という文字列1320が見出し文字列であり、見出し文字列の高さの座標範囲H1に、見出し文字列の右方の文字列1329の高さの座標範囲H2が含まれる場合、画像認識装置2は、文字列1329をデータ候補文字列として保持する。また、文字列1329の更に右方に別の文字列があり、かつ見出し文字列の高さの座標範囲H1に、当該別の文字列高さの座標範囲が含まれる場合、画像認識装置2は、文字列1329の更に右方に別の文字列をデータ候補文字列として保持する。この場合、画像認識装置2は、第1のループ処理の後、第2のループ処理(ステップS87~S94)を行う。
For example, as shown in FIG. 18A, the
第2のループ処理では、データ候補文字列のうちの認識項目キーワードテーブル295の項目キーワードと一致するデータ候補文字列と、該データ候補文字列よりも右方の他のデータ候補文字列を、見出し文字列と対応した本人確認に利用可能な情報を示す文字列(データ文字列)から除外する。具体的には、図13のフローチャートのように、データ候補文字列が認識項目キーワードテーブル295の項目キーワードと一致した場合に別見出しフラグをONにし、別見出しフラグがONであるか否かに基づいてデータ候補文字列をデータ文字列とするか否かを判定する。 In the second loop processing, the data candidate character string that matches the item keyword of the recognition item keyword table 295 in the data candidate character string and another data candidate character string to the right of the data candidate character string are headed. Exclude from the character string (data character string) indicating the information that can be used for identity verification corresponding to the character string. Specifically, as shown in the flowchart of FIG. 13, when the data candidate character string matches the item keyword of the recognition item keyword table 295, the separate heading flag is turned ON, and it is based on whether or not the separate heading flag is ON. It is determined whether or not the data candidate character string is used as the data character string.
図19は、右方探索処理における別見出しフラグのオン/オフの判定方法を説明する図である。 FIG. 19 is a diagram illustrating a method of determining on / off of another heading flag in the right-side search process.
まず、図19の(a)を参照し、保険証10の画像の部分領域11Bに含まれる「氏名」という文字列1320が見出し文字列である場合の第2のループ処理の例を説明する。見出し文字列1320の右方には1つの文字列1329があり、見出し文字列1320の高さの座標範囲に文字列1329の高さの座標範囲が含まれる。このため、画像認識装置2は、文字列1329をデータ候補文字列として保持する(ステップS84)。この場合、画像認識装置2は、第1のループ処理の後、第2のループ処理(ステップS86~S94)を行う。
First, with reference to FIG. 19A, an example of the second loop processing in the case where the
第2のループ処理では、データ候補文字列を1つ選択し(ステップS87)、該データ候補文字列が認識項目キーワードテーブル295内の項目キーワードと一致するか否かを検索する(ステップS88~S91)。図19の(a)に示した「富士通 花子」という文字列1329をデータ候補文字列として保持している場合、認識項目キーワードテーブル295内の全ての項目キーワードは、文字列1329と一致しない。このため、第2のループ処理において文字列1329をデータ候補文字列に選択している場合、別見出しフラグはONにはならない。よって、画像認識装置2は、「富士通 花子」という文字列1329を「氏名」という文字列(見出し文字列)1320に対するデータ文字列として保持する(ステップS93)。第2のループ処理を終了した後、画像認識装置2は、「富士通 花子」という文字列1329を「氏名」という文字列(見出し文字列)1320に対するデータ文字列として返却し(ステップS95)、右方探索処理を終了する。
In the second loop process, one data candidate character string is selected (step S87), and it is searched whether or not the data candidate character string matches the item keyword in the recognition item keyword table 295 (steps S88 to S91). ). When the
また、図13のフローチャートにおける見出し文字列が、図19の(b)に示した「生年月日」という文字列1330である場合、画像認識装置2は、第1のループ処理において、見出し文字列1330の右方に位置する「昭和 55年 11月 11日」という文字列1339をデータ候補文字列として保持する。また、画像認識装置2は、第1のループ処理において、文字列1339の更に右方にある「性別」という文字列1335、及び「女」という文字列1336を、データ候補文字列として保持する。
Further, when the heading character string in the flowchart of FIG. 13 is the
第1のループ処理が終了すると、画像認識装置2は、第2のループ処理を行う。第2のループ処理では、まず、3つのデータ候補文字列のうちの見出し文字列1330に最も近い「昭和 55年 11月 11日」という文字列1339を選択し、認識項目キーワードテーブル295内の項目キーワードのそれぞれと比較する。認識項目キーワードテーブル295は具体的な日付を示す項目キーワード(文字列)を含まないので、別見出しフラグはオンにはならない。
When the first loop processing is completed, the
次に、画像認識装置2は、「性別」という文字列1335を選択し、認識項目キーワードテーブル295内の項目キーワードのそれぞれと比較する。図6の認識項目キーワードテーブル295は性別という項目キーワードを含む。このため、第3のループ処理(ステップS88~S91)が終了すると、別見出しフラグはONになっている(ステップS92;YES)。よって、画像認識装置2は、第2のループ処理を終了し、現時点で保持しているデータ文字列1339を返却して右方探索処理を終了する。このように、本実施形態に係る画像認識装置2は、認識項目キーワードテーブル295内の項目キーワードと一致する見出し文字列の右方に別の項目キーワードと一致する文字列が含まれる場合、該別の項目キーワードと一致する文字列と見出し文字列との間に位置するデータ候補文字列のみをデータ文字列とする。これにより、本人確認に利用可能ではない「性別」等の文字列や、見出し文字列と対応しない本人確認情報を本人確認に利用可能な文字列として認識することを防げる。
Next, the
なお、本人確認書類のなかには、見出し文字列と対応する本人確認情報が見出し文字列の下方に印刷されているものもある。このような本人確認書類の画像を2値化して文字列を抽出した後、上記の右方探索処理を行うと、見出し文字列と対応する本人確認に利用可能な文字列の探索に失敗する。本実施形態の画像認識装置2は、右方探索処理による文字列の探索に失敗した場合、上記のように、下方探索処理を行う。下方探索処理では、画像認識装置2は、右方探索処理と同様の手法により、見出し文字列と対応するデータ文字列を抽出する。下方探索処理では、図14のフローチャートのように、見出し文字列の下方にあり、かつ幅の座標範囲が見出し文字列の幅の座標範囲に含まれる文字列を、データ候補文字列とする。
In some of the identity verification documents, the identity verification information corresponding to the heading character string is printed below the heading character string. If the above-mentioned right-hand search process is performed after binarizing the image of such an identity verification document and extracting the character string, the search for the character string that can be used for identity verification corresponding to the heading character string fails. When the
図20は、下方探索処理におけるデータ候補文字列とするか否かの判定方法の例を説明する図である。 FIG. 20 is a diagram illustrating an example of a method of determining whether or not to use as a data candidate character string in the downward search process.
図20の(a)~(c)には、それぞれ、「有効期限」という見出し文字列1340と、該見出し文字列1340の下方に位置する「平成元年3月31日」という具体的な日付を示す文字列1341の位置及び寸法の関係を示している。
In FIGS. 20 (a) to 20 (c), the heading
見出し文字列1340の幅の座標範囲W1は、見出し文字列1340を囲む矩形領域における左上角部の横座標(x座標)と、右下角部の横座標(座標)により算出される。よって、画像認識装置2は、「平成元年3月31日」という文字列1341を含む、見出し文字列1340の下方に位置する文字列のそれぞれの幅の座標範囲が見出し文字列1340の幅の座標範囲W1に含まれるか否かを判定する(ステップS103)。
The coordinate range W1 of the width of the heading
例えば、図20の(a)では、「平成元年3月31日」という文字列1341の左端は見出し文字列1340の右端よりも左方にあり、該文字列1341の右端は見出し文字列1340の右端よりも右方にある。このような場合、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2が含まれる(ステップS103;YES)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列として保持する(ステップS104)。
For example, in FIG. 20A, the left end of the
また、図20の(b)では、「平成元年3月31日」という文字列1341は見出し文字列1340の左端よりも左方にあり、該文字列1341の右端は見出し文字列1340の右端よりも右方にある。このような場合も、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2が含まれる(ステップS103;YES)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列として保持する(ステップS104)。
Further, in FIG. 20B, the
これに対し、図20の(c)では、「平成元年3月31日」という文字列1341の左端は、見出し文字列1340の右端よりも右方にある。このような場合、見出し文字列1340の幅の座標範囲W1に文字列1341の幅の座標範囲W2は含まれない(ステップS103;NO)。このため、画像認識装置2は、「平成元年3月31日」という文字列1341をデータ候補文字列とはしない。
On the other hand, in FIG. 20 (c), the left end of the
なお、図20に示したように、見出し文字列1340の下方に見出し文字列1340と対応する文字列1341が印刷されており、かつ各文字列が横書きである場合、見出し文字列1340と対応する文字列が複数行になることは非常に少ない。また、見出し文字列1340の下方に見出し文字列1340と対応する文字列1341が印刷されており、かつ各文字列が横書きである場合、見出し文字列1340の下方には、見出し文字列1340とは異なる項目キーワードと対応する文字列の一部が含まれることがある。このため、見出し文字列1340の下方に位置する文字列1341を探索する場合、例えば、見出し文字列1340の高さの座標範囲H11に基づいて、文字列の探索範囲を制限してもよい。図20の(a)には、見出し文字列1340の下方の探索範囲を、見出し文字列1340の高さの座標範囲H11の5倍(5×H11)とする例を示している。
As shown in FIG. 20, when the
このように、見出し文字列1340の下方の探索範囲を制限することにより、見出し文字列1340とは関係のない文字列を見出し文字列1340と対応する文字列の一部として認識することを防げる。また、見出し文字列1340の下方の探索範囲を制限することにより、下方探索処理を短時間で効率よく行うことが可能となる。
By limiting the search range below the heading
本実施形態に係る無罫線キーワード認識方式による文字認識処理では、上記の右方探索処理又は下方探索処理により文字認識をするデータ文字列を探索した後、データ文字列補正処理(ステップS67)により、データ文字列の文字認証及び補正を行う。画像認識装置2は、データ文字列補正処理として、例えば、図15A及び図15Bのフローチャートに沿った処理を行う。データ文字列補正処理では、画像認識装置2は、横方向或いは縦方向で隣り合い、かつ距離が閾値以下となる複数のデータ文字列を結合して1つのデータ文字列にする処理を行う。その後、画像認識装置2は、既知の文字認識方法に従って各データ文字列の文字認識を行う。更に、画像認識装置2は、データ文字列の文字認識の結果と、該データ文字列と対応する認識項目の本人確認書類内での様式に基づいて、文字の認識結果における見出し文字列とは関係のない部分を削除する補正を行う。
In the character recognition process by the non-ruled line keyword recognition method according to the present embodiment, after searching for a data character string for character recognition by the above-mentioned right side search process or downward search process, the data character string correction process (step S67) is performed. Performs character recognition and correction of data character strings. The
図21は、データ文字列の補正方法を説明する図である。
図21の(a)には、保険証10の画像における氏名の行を含む部分領域11Cを示している。部分領域11Cから抽出した文字列のうち「氏名」という文字列1320は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「氏名」という文字列1320を見出し文字列とした右方探索処理を行う。「氏名」という文字列1320を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「富士通 花子」という文字列1329、及び「ジェネリック希望」という文字列1350をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「富士通 花子」という文字列1329、及び「ジェネリック希望」という文字列1350を、「氏名」という文字列1320に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。
FIG. 21 is a diagram illustrating a method for correcting a data character string.
FIG. 21 (a) shows a partial area 11C including a line of names in the image of the
データ文字列補正処理では、画像認識装置2は、まず、見出し文字列と対応するデータ文字列が複数である場合に、該複数のデータ文字列のなかから文字認識を行うデータ文字列を決定する第1のループ処理(ステップS124~S129)を行う。第1のループ処理では、まず、複数のデータ文字列のうちの見出し文字列に最も近い文字列を最初の文字列(補正データ文字列)と、該最初の文字列の右方で隣り合う次の文字列との距離が、認識項目テーブルにおいて見出し文字列(認識項目)と対応する文字列間の距離閾値以内であるか否かを判定する。図21の(a)の例では、画像認識装置2は、「富士通 花子」という文字列1329を最初の文字列とし、「ジェネリック希望」という文字列1350を次の文字列として、2つの文字列の距離D2を算出する。ここで、見出し文字列1320は「氏名」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D2が10mm以内である場合(ステップS127;YES)、「ジェネリック希望」という文字列1350を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「富士通 花子」という文字列1329と「ジェネリック希望」という文字列1350とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「富士通 花子 ジェネリック希望」の文字認識をする(ステップS132)。一方、算出した距離D2が10mmよりも離れている場合(ステップS127;NO)、画像認識装置2は、第1のループ処理を終了し、「富士通 花子」という文字列1329の文字認識を行う。
In the data character string correction process, the
また、画像認識装置2は、文字認識を行った後、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。
Further, after performing character recognition, the
例えば、図21の(b)には、保険証10の画像における性別の行を含む部分領域11Dを示している。部分領域11Dから抽出した文字列のうち「性別」という文字列1335は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「性別」という文字列1335を見出し文字列とした右方探索処理を行う。「性別」という文字列1335を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「女」という文字列1336、及び「**会社」という文字列1351をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「女」という文字列1336、及び「**会社」という文字列1351を、「性別」という文字列1335に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。
For example, FIG. 21B shows a
データ文字列補正処理では、画像認識装置2は、「女」という文字列1336を最初の文字列とし、「**会社」という文字列1351を次の文字列として、2つの文字列の距離D3を算出する。ここで、見出し文字列1335は「性別」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D3が10mm以内である場合(ステップS127;YES)、「**会社」という文字列1351を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「女」という文字列1336と「**会社」という文字列1351とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「女 **会社」の文字認識をする(ステップS132)。
In the data character string correction process, the
「女 **会社」の文字認識をした後、画像認識装置2は、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。図7の認識項目テーブル296では、性別に対する桁数が1となっている。したがって、画像認識装置2は、文字認識の結果が認識項目テーブル296に設定された桁数よりも多いと判定し(ステップS133;NO)、認識結果における設定された桁数+1桁以降の文字列(すなわち2桁目以降の文字列)を削除する。これにより、「性別」という見出し文字列1335に対するデータ文字列の文字認識の結果は、1桁の「女」という文字(文字列1336)となる。したがって、本実施形態の画像認識装置2は、見出し文字列と対応した本人確認に利用可能な情報の近くに見出し文字列と対応しない他の情報が印刷された本人確認書類の画像から、見出し文字列と対応した本人確認に利用可能な情報のみを適切に認識することができる。
After recognizing the characters of "female ** company", the
また、画像認識装置2は、文字認識の結果に、認識項目テーブル296に設定された最終文字が含まれるか否かを判定する。
Further, the
例えば、図21の(c)には、保険証10の画像における生年月日の行を含む部分領域11Eを示している。部分領域11Eから抽出した文字列のうち「生年月日」という文字列1330は、認識項目キーワードテーブル295内の項目キーワードと一致するので、見出し文字列となる。このため、画像認識装置2は、「生年月日」という文字列1330を見出し文字列とした右方探索処理を行う。「生年月日」という文字列1330を見出し文字列とした右方探索処理では、画像認識装置2は、例えば、「昭和 55年 11月 11日」という文字列1339、及び「株式会社××」という文字列1352をデータ候補文字列とする。当該2つのデータ候補文字列は、認識項目キーワードテーブル295内の項目キーワードとは一致しない。このため、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339、及び「株式会社××」という文字列1352を、「生年月日」という文字列1330に対するデータ文字列とし、右方探索処理を終了する。右方探索処理を終了した後、画像認識装置2は、下方探索処理を省略し、次に、データ文字列補正処理を行う。
For example, FIG. 21 (c) shows the
データ文字列補正処理では、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339を最初の文字列とし、「株式会社××」という文字列1352を次の文字列として、2つの文字列の距離D4を算出する。ここで、見出し文字列1330は「生年月日」という文字列であるため、画像認識装置2は、例えば、図7の認識項目テーブル296から文字列間の距離閾値(10mm)を取得する。すなわち、画像認識装置2は、算出した距離D4が10mm以内である場合(ステップS127;YES)、「株式会社××」という文字列1352を補正データ文字列として保持し(ステップS128)、第1のループ処理を終了する。この場合、画像認識装置2は、「昭和 55年 11月 11日」という文字列1339と「株式会社××」という文字列1352とを結合して1つの文字列とし(ステップS131)、該結合した1つの文字列「昭和 55年 11月 11日 株式会社××」の文字認識をする(ステップS132)。
In the data character string correction process, the
「昭和 55年 11月 11日 株式会社××」の文字認識をした後、画像認識装置2は、認識結果が認識項目テーブル296に設定された桁数以内であるか否かを判定する。図7の認識項目テーブル296では、生年月日のうち年号の桁数が2であり、年月日の桁数が8である。したがって、画像認識装置2は、文字認識の結果が認識項目テーブル296に設定された桁数(10桁)よりも多いと判定し(ステップS133;NO)、認識結果における設定された桁数(10)+1桁以降の文字列(すなわち11桁目以降の文字列)を削除する。この場合、例えば、平成2年1月1日のように年、月、日を示す数字のそれぞれが1桁であると、「株式会社××」の一部が削除されずに残ってしまうことがある。
After recognizing the characters of "November 11, 1980, XX Co., Ltd.", the
このため、本実施形態の画像認識装置2では、次に、文字認識の結果に、認識項目テーブル296に設定された最終文字が含まれるか否かを判定する。図7の認識項目テーブル296では、生年月日の年月日の最終文字が「日」となっている。このため、画像認識装置2は、例えば、「昭和 55年 11月 11日 株」のような文字列内で「日」という文字を検索し、「昭和 55年 11月 11日」という文字列1339に含まれる「日」という文字14を検出する。この場合、画像認識装置2は、「昭和 55年 11月 11日 株」の文字列における「日」という文字14よりも後の文字列を削除する。これにより、生年月日の文字認識の結果に含まれる日付とは関係のない情報(株式会社××)を削除し、見出し文字列と対応した本人確認に利用可能な情報のみを適切に認識することができる。
Therefore, in the
以上説明したように、本実施形態の画像認識装置2は、本人確認書類に記載された項目名と、該項目名と対応する本人確認に利用可能な情報を示す文字列との位置関係に基づいて、項目名と対応する文字列の位置を特定することができる。このため、本実施形態の画像認識装置2によれば、本人確認書類の画像に含まれる文字列のうちの文字認識をする文字列の位置が予め定められていない場合でも、本人確認に利用可能な文字列を適切に認識するができる。したがって、本実施形態の画像認識装置2では、例えば、フォーマットが統一されていない保険証等の本人確認書類の画像から本人確認に利用可能な文字列を適切に認識するができる。
As described above, the
なお、図3の書類識別テーブル291及び図4の書類種類テーブル292は、書類種類識別部202が参照する本人確認書類の種類、識別キーワード(文字列)、識別キーワードの画像内での位置、及び文字認識の方式の対応関係を示す情報の一例に過ぎない。また、図6の認識項目キーワードテーブル295は、キーワード認識部212及び無罫線キーワード認識部213が参照する画像内の本人確認書類に含まれる項目名(項目キーワード)を示す情報の一例に過ぎない。また、図7の認識項目テーブル296及び図8の認識カテゴリテーブル297は、認識結果補正部205が参照する、認識結果から削除しても問題のない部分を示す情報の一例に過ぎない。
In the document identification table 291 of FIG. 3 and the document type table 292 of FIG. 4, the type of identity verification document referred to by the document
また、図2の画像認識装置2において記憶部290に記憶させている書類識別テーブル291等の各種情報の一部又は全部は、画像認識装置2とは別の装置(例えばサーバ装置6等)に記憶させておいてもよい。
Further, a part or all of various information such as the document identification table 291 stored in the
また、本実施形態では認識項目キーワードテーブル295内の項目キーワードと一致する文字列(見出し文字列)の右方を探索する右方探索処理と、見出し文字列の下方を探索する下方探索処理とにより、見出し文字列と対応した、文字認識を行う文字列を特定した。しかしながら、探索する方向は、右方及び下方に限らず、本人確認書類における項目名(見出し文字列)と、該項目名と対応する本人確認に利用可能な情報との位置関係に応じて、適宜変更可能である。 Further, in the present embodiment, a right-hand search process for searching the right side of the character string (heading character string) matching the item keyword in the recognition item keyword table 295 and a downward search process for searching the lower part of the heading character string are performed. , The character string that performs character recognition corresponding to the heading character string was specified. However, the search direction is not limited to the right side and the lower side, and is appropriate depending on the positional relationship between the item name (heading character string) in the identity verification document and the information available for identity verification corresponding to the item name. It can be changed.
また、本実施形態に係る画像認識装置2は、コンピュータと、該コンピュータに実行させるプログラムにより実現可能である。以下、図22を参照し、コンピュータとプログラムとにより実現される画像認識装置2について説明する。
Further, the
図22は、コンピュータのハードウェア構成を示す図である。
図22に示すように、コンピュータ20は、CPU(Central Processing Unit)2001と、メモリ2002と、補助記憶装置2003と、入出力インタフェース2004と、表示制御装置2005と、通信制御装置2006と、媒体駆動装置2007とを備える。コンピュータ20におけるこれらの要素2001~2007は、バス2010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
FIG. 22 is a diagram showing a hardware configuration of a computer.
As shown in FIG. 22, the
CPU 2001は、オペレーティングシステムを含む各種のプログラムを実行することによりコンピュータ20の全体の動作を制御するプロセッサである。例えば、CPU 2001は、図9のステップS1~S6の処理を含む画像認識プログラムを実行する。画像認識プログラムにおけるステップS2のアプリケーション処理は、例えば、図10のステップS11~S22の処理を含む処理としてサブルーチン化されている。図10のアプリケーション処理におけるステップS15の本人確認書類識別処理は、例えば、図11A及び図11BのステップS31~S52の処理を含む処理としてサブルーチン化されている。また、図10のアプリケーション処理におけるステップS21の無罫線キーワード認識方式による文字認識処理は、例えば、図12のステップS61~S70の処理を含む処理としてサブルーチン化されている。また、図12の文字認識処理におけるステップS64の右方探索処理は、例えば、図13のステップS81~S95の処理を含む処理としてサブルーチン化されている。同様に、図12の文字認識処理におけるステップS66の下方探索処理は、例えば、図14のステップS101~S115の処理を含む処理としてサブルーチン化されている。更に、図12の文字認識処理におけるステップS67のデータ文字列補正処理は、例えば、図15A及び図15BのステップS121~S138の処理を含む処理としてサブルーチン化されている。
The
メモリ2002は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含む。メモリ2002のROMには、例えば、コンピュータ20の起動時にCPU 2001が読み出す所定の基本制御プログラム等が予め記録されている。また、メモリ2002のRAMは、CPU 2001が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。メモリ2002のRAMは、例えば、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、書類識別テーブル291等から読み出したレコード等の記憶に利用可能である。
The
補助記憶装置2003は、例えば、HDD(Hard Disk Drive)等の磁気ディスク、及びフラッシュメモリディスク等の不揮発性メモリディスクである。補助記憶装置2003には、CPU 2001によって実行される各種のプログラムや各種のデータ等を記憶させることができる。補助記憶装置2003は、例えば、上記の画像認識プログラム等の記憶に利用可能である。また、補助記憶装置2003は、例えば、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298の記憶に利用可能である。また、補助記憶装置2003は、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、及び文字認識の結果等の記憶にも利用可能である。
The
入出力力インタフェース2004は、スキャナ装置3及び他の入力装置4から入力される情報を受け付けるとともに、図示しない出力装置に対して情報を出力するハードウェアインタフェースである。入力装置4は、例えば、キーボード装置、マウス装置、及びタッチパネル装置等である。図示しない出力装置は、例えば、プリンタ装置である。
The input /
表示制御装置2005は、液晶表示装置等の表示装置5の表示画面の制御等を行う。表示制御装置2005は、例えば、コンピュータ20の動作状態、補助記憶装置2003に記憶させた本人確認書類の画像や文字認識の結果等を含む画面を生成し、表示装置5に表示させる。
The
通信制御装置2006は、コンピュータ20を通信ネットワーク7に接続し、通信ネットワークを介したコンピュータ20と他の電子機器(例えばサーバ装置6)との各種通信を制御する装置である。
The
媒体駆動装置2007は、可搬型記録媒体21に記録されているプログラムやデータの読み出し、補助記憶装置2003に記憶されたデータ等の可搬型記録媒体21への書き込みを行う。可搬型記録媒体21としては、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)がある。可搬型記録媒体21は、上記の各プログラムの記録に利用可能である。また、可搬型記録媒体21は、例えば、上記の画像認識プログラム等の記憶に利用可能である。また、可搬型記録媒体21は、例えば、書類識別テーブル291、書類種類テーブル292、認識方式テーブル293、位置固定認識テーブル294、認識項目キーワードテーブル295、認識項目テーブル296、認識カテゴリテーブル297、及び活字文字認識辞書298の記憶に利用可能である。また、可搬型記録媒体21は、本人確認書類の画像、2値化した本人確認書類の画像から抽出した文字列、及び文字認識の結果等の記憶にも利用可能である。
The
更に、コンピュータ20が媒体駆動装置2007として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体21として利用可能である。可搬型記録媒体21として利用可能な光ディスクには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、Blu-ray Disc(Blu-rayは登録商標)等がある。
Further, when the
コンピュータ20は、起動させると、CPU 2001が補助記憶装置2003等から上記の各処理を含む画像認識プログラムを読み出して実行する。画像認識プログラムを実行している間、CPU 2001は、画像認識装置2の書類種類識別部202、認識方式選択部203、項目位置特定部204、認識結果補正部205、文字認識部206、認識結果通知部207、及び主制御部209として機能する(動作する)。また、上記の画像認識プログラムを実行している間、コンピュータ20のメモリ2002におけるRAM、補助記憶装置2003、及び可搬型記録媒体21等の非一時的な記録媒体は、画像認識装置2の記憶部290として機能する。
When the
なお、画像認識装置2として動作させるコンピュータ20のハードウェア構成は、図22に示した構成に限定されるものではなく、用途や条件に応じて一部の要素を省略する或いは追加することも可能である。例えば、コンピュータ20は、媒体駆動装置2007が省略されたものであってもよい。
The hardware configuration of the
1 画像認識システム
2 画像認識装置
201 スキャナ制御部
202 書類種類識別部
203 認識方式選択部
204 項目位置特定部
205 認識結果補正部
206 文字認識部
207 認識結果通知部
208 通信部
209 主制御部
211 位置固定認識部
212 キーワード認識部
213 無罫線キーワード認識部
290 記憶部
291 書類識別テーブル
292 書類種類テーブル
293 認識方式テーブル
294 位置固定認識テーブル
295 認識項目キーワードテーブル
296 認識項目テーブル
297 認識カテゴリテーブル
298 活字文字認識辞書
3 スキャナ装置
4 入力装置
5 表示装置
6 サーバ装置
7 通信ネットワーク
10 保険証
1320,1330,1335,1340 文字列(見出し文字列)
1329,1336,1339,1341,1350,1351,1352 文字列
20 コンピュータ
2001 CPU
2002 メモリ
2003 補助記憶装置
2004 入力インタフェース
2005 表示制御装置
2006 通信制御装置
2007 媒体駆動装置
2010 バス
21 可搬型記録媒体
1
1329, 1336, 1339, 1341, 1350, 1351, 1352
2002
Claims (8)
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択する認識方式選択部と、を備え、
前記項目位置特定部は、前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する
ことを特徴とする画像認識装置。 A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. It is provided with a recognition method selection unit for selecting which of the third recognition methods is used for character recognition .
The item position specifying unit has a positional relationship between the heading character string in the identity verification document and information that can be used for identity verification corresponding to the heading character string when the character recognition is performed by the third recognition method. An image recognition device characterized by specifying a position in the image for performing the character recognition based on the above .
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記項目位置特定部は、前記画像での位置が前記見出し文字列の下方である文字列のうち、幅の座標範囲が前記見出し文字列の幅の座標範囲に含まれる文字列を、前記本人確認に利用可能な情報を含む文字列として、前記文字認識を行う位置を特定する
ことを特徴とする画像認識装置。 A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The item position specifying unit confirms the identity of the character string whose position in the image is below the heading character string and whose width coordinate range is included in the width coordinate range of the heading character string. An image recognition device characterized in that a position for performing the character recognition is specified as a character string containing information that can be used in the above.
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記項目位置特定部は、前記画像での位置が前記見出し文字列の右方に、高さの座標範囲が前記見出し文字列の高さの座標範囲に含まれる文字列がない場合に、前記画像での位置が前記見出し文字列の下方である文字列のうち、幅の座標範囲が前記見出し文字列の幅の座標範囲に含まれる文字列を探索する
ことを特徴とする画像認識装置。 A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The item position specifying unit is the image when there is no character string whose position in the image is to the right of the heading character string and whose height coordinate range is included in the height coordinate range of the heading character string. An image recognition device characterized by searching for a character string whose width coordinate range is included in the width coordinate range of the heading character string among the character strings whose position in is below the heading character string.
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する項目位置特定部と、
特定した前記画像内の位置の文字認識を行う文字認識部と、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正する認識結果補正部と、
を備え、
前記認識結果補正部は、前記見出し文字列からみて所定の方向に存在する2つの文字列の距離が所定の距離閾値以内である場合に、該2つの文字列を結合する
ことを特徴とする画像認識装置。 A character string is extracted from the image of the identity verification document, and the position and characters in the image of the extracted character string and an item keyword indicating an item included in the identity verification document predetermined for each type of the identity verification document. A document type identification unit that identifies the type of the identity verification document in the image based on the degree of matching of
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. The heading character string that matches the name of the item is specified, and the character in the image is based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string. Item that specifies the position to be recognized The position identification part and
A character recognition unit that recognizes characters at the specified position in the image, and
A recognition result correction unit that corrects the result of the character recognition based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document.
Equipped with
The recognition result correction unit is characterized in that when the distance between two character strings existing in a predetermined direction with respect to the heading character string is within a predetermined distance threshold, the two character strings are combined . Image recognition device.
ことを特徴とする請求項1から請求項3のうちいずれかに記載の画像認識装置。 In the recognition result correction unit, the number of characters included in the character recognition result of the character string including the information available for identity verification corresponding to the heading character string is larger than the number of characters associated with the heading character string. In this case, among claims 1 to 3, the part of the characters included in the character recognition result that exceeds the number of characters associated with the heading character string, counting from the left end, is deleted. The image recognition device according to any one .
ことを特徴とする請求項1から請求項3のうちいずれかに記載の画像認識装置。 The recognition result correction unit is in the information that can be used for the identity verification corresponding to the heading character string in the character recognition result of the character string including the information that can be used for the identity verification corresponding to the heading character string. The present invention according to any one of claims 1 to 3 , wherein when the final character is included, the character to the right of the final character among the characters included in the character recognition result is deleted. Image recognition device.
本人確認書類の画像から文字列を抽出し、
抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、
前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、
特定した前記画像内の位置の文字認識を行い、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正し、
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択し、
前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する
処理を実行することを特徴とする画像認識方法。 The computer
Extract the character string from the image of the identity verification document and
The said in the image based on the position in the image and the degree of matching of the characters with the extracted character string and the item keyword indicating the item included in the identity verification document predetermined for each type of the identity verification document. Identify the type of identity verification document and
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. Identify the heading string that matches the item name and
A position for performing the character recognition in the image is specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string.
Character recognition of the specified position in the image is performed, and
The result of the character recognition is corrected based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. Select which of the third recognition methods to perform the character recognition, and select
When the character recognition is performed by the third recognition method, the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string are in the image based on the positional relationship. An image recognition method characterized by executing a process of specifying a position where character recognition is performed .
抽出した前記文字列と本人確認書類の種類毎に予め定めた前記本人確認書類に含まれる項目を示す項目キーワードとの前記画像内での位置及び文字の一致度に基づいて、前記画像内の前記本人確認書類の種類を識別し、
識別した前記本人確認書類の種類と前記本人確認書類の種類毎に予め定めた文字認識を行う項目の名称の情報とに基づいて、前記画像から抽出した前記文字列のなかから前記文字認識を行う項目の名称と一致する見出し文字列を特定し、
前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定し、
特定した前記画像内の位置の文字認識を行い、
前記本人確認書類における前記本人確認に利用可能な情報を含む文字列の文字の並びの特徴に基づいて、前記文字認識の結果を補正し、
識別した前記本人確認書類の種類に基づいて、予め定めた前記画像内の前記文字認識を行う位置を指定する情報に基づいて前記文字認識を行う第1の認識方式と、予め定めた前記見出し文字列と前記画像内の罫線のレイアウトとに基づいて前記文字認識を行う第2の認識方式と、前記見出し文字列と前記本人確認に利用可能な情報との位置関係に基づいて前記文字認識を行う第3の認識方式とのいずれで前記文字認識を行うかを選択し、
前記第3の認識方式で前記文字認識を行う場合に、前記本人確認書類における前記見出し文字列と該見出し文字列と対応する本人確認に利用可能な情報との位置関係に基づいて前記画像内の前記文字認識を行う位置を特定する
処理をコンピュータに実行させることを特徴とする画像認識プログラム。
Extract the character string from the image of the identity verification document and
The said in the image based on the position in the image and the degree of matching of the characters with the extracted character string and the item keyword indicating the item included in the identity verification document predetermined for each type of the identity verification document. Identify the type of identity verification document and
Based on the identified type of the identity verification document and the information of the name of the item for character recognition predetermined for each type of the identity verification document, the character recognition is performed from the character string extracted from the image. Identify the heading string that matches the item name and
A position for performing the character recognition in the image is specified based on the positional relationship between the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string.
Character recognition of the specified position in the image is performed, and
The result of the character recognition is corrected based on the characteristics of the character arrangement of the character string including the information that can be used for the identity verification in the identity verification document .
Based on the type of the identified identity verification document, the first recognition method for performing the character recognition based on the information for designating the position for performing the character recognition in the predetermined image, and the predetermined heading character. The character recognition is performed based on the second recognition method of performing the character recognition based on the columns and the layout of the ruled lines in the image, and the positional relationship between the heading character string and the information available for identity verification. Select which of the third recognition methods to perform the character recognition, and select
When the character recognition is performed by the third recognition method, the heading character string in the identity verification document and the information available for identity verification corresponding to the heading character string are in the image based on the positional relationship. An image recognition program characterized by causing a computer to execute a process of specifying a position where character recognition is performed .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166675A JP7054662B2 (en) | 2018-09-06 | 2018-09-06 | Image recognition device, image recognition method, and image recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166675A JP7054662B2 (en) | 2018-09-06 | 2018-09-06 | Image recognition device, image recognition method, and image recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042320A JP2020042320A (en) | 2020-03-19 |
JP7054662B2 true JP7054662B2 (en) | 2022-04-14 |
Family
ID=69798194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018166675A Active JP7054662B2 (en) | 2018-09-06 | 2018-09-06 | Image recognition device, image recognition method, and image recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7054662B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7209411B2 (en) * | 2020-05-21 | 2023-01-20 | 有限会社ノア | Age identification recognition system |
CN112667767A (en) * | 2020-12-31 | 2021-04-16 | 北京百炼智能科技有限公司 | Information processing method and device |
JP7383316B2 (en) | 2022-09-08 | 2023-11-20 | 有限会社ノア | Age identification recognition system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221886A (en) | 2010-04-13 | 2011-11-04 | Fujitsu Frontech Ltd | Business form recognition program, business form recognition device, and business form recognition method |
JP2018055256A (en) | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018101327A (en) | 2016-12-21 | 2018-06-28 | 大日本印刷株式会社 | Data registering apparatus and data registering method |
JP6374079B1 (en) | 2017-12-27 | 2018-08-15 | AI inside株式会社 | Character recognition apparatus, method and program |
-
2018
- 2018-09-06 JP JP2018166675A patent/JP7054662B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221886A (en) | 2010-04-13 | 2011-11-04 | Fujitsu Frontech Ltd | Business form recognition program, business form recognition device, and business form recognition method |
JP2018055256A (en) | 2016-09-27 | 2018-04-05 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018101327A (en) | 2016-12-21 | 2018-06-28 | 大日本印刷株式会社 | Data registering apparatus and data registering method |
JP6374079B1 (en) | 2017-12-27 | 2018-08-15 | AI inside株式会社 | Character recognition apparatus, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020042320A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4366108B2 (en) | Document search apparatus, document search method, and computer program | |
US8107727B2 (en) | Document processing apparatus, document processing method, and computer program product | |
JP7054662B2 (en) | Image recognition device, image recognition method, and image recognition program | |
JP4332356B2 (en) | Information retrieval apparatus and method, and control program | |
US20210073535A1 (en) | Information processing apparatus and information processing method for extracting information from document image | |
CN102110229A (en) | Word recognition method, and information processing device | |
CN110785773A (en) | Bill recognition system | |
JP2008204226A (en) | Form recognition device and its program | |
JP2019040467A (en) | Information processing apparatus and control method therefor | |
JP2016177383A (en) | Identification number retrieval system and identification number retrieval method | |
US10216988B2 (en) | Information processing device, information processing method, and computer program product | |
JP6582464B2 (en) | Information input device and program | |
JP4982587B2 (en) | Data entry system and data entry method | |
JP2008027133A (en) | Form processor, form processing method, program for executing form processing method, and recording medium | |
JP2002024761A (en) | Image processing device, image processing method, and storage medium | |
JP2021140831A (en) | Document image processing system, document image processing method, and document image processing program | |
JP2018055256A (en) | Information processing apparatus, information processing method, and program | |
JP2010102734A (en) | Image processor and program | |
JP2008176625A (en) | Device and method for managing character recognition result, and computer program | |
JP2016103150A (en) | Document processing device and document processing program | |
JP2006134079A (en) | Image processing device and program | |
US11315351B2 (en) | Information processing device, information processing method, and information processing program | |
US11481544B2 (en) | Form processing apparatus and non-transitory computer readable medium | |
US20210295032A1 (en) | Information processing device and non-transitory computer readable medium | |
JP7037237B1 (en) | Data processing equipment, data processing methods and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7054662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |