JP6505937B1 - Matching system, matching method and matching program - Google Patents

Matching system, matching method and matching program Download PDF

Info

Publication number
JP6505937B1
JP6505937B1 JP2018220311A JP2018220311A JP6505937B1 JP 6505937 B1 JP6505937 B1 JP 6505937B1 JP 2018220311 A JP2018220311 A JP 2018220311A JP 2018220311 A JP2018220311 A JP 2018220311A JP 6505937 B1 JP6505937 B1 JP 6505937B1
Authority
JP
Japan
Prior art keywords
collation
unit
source
verification
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018220311A
Other languages
Japanese (ja)
Other versions
JP2020086922A (en
Inventor
九月 貞光
九月 貞光
上野 貴史
貴史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUTURE CORPORATION
Original Assignee
FUTURE CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUTURE CORPORATION filed Critical FUTURE CORPORATION
Priority to JP2018220311A priority Critical patent/JP6505937B1/en
Application granted granted Critical
Publication of JP6505937B1 publication Critical patent/JP6505937B1/en
Publication of JP2020086922A publication Critical patent/JP2020086922A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】本人確認時において、照合成功率を改善する。
【解決手段】照合システム100は、予め入力された照合先デジタル情報を記憶しておく照合先デジタル情報記憶部33と、撮影中の照合元対象物の照合元画像データから照合元の文字列を認識して照合元テキストデータとする文字情報認識部31と、照合先デジタル情報と照合元テキストデータとを照合する照合部32と、を備え、文字情報認識部31と照合部32は、それぞれ、時間的に連続する複数の照合元画像を用いて、認識の処理と照合の処理をバックグラウンドで複数回実行する。
【選択図】図1
PROBLEM TO BE SOLVED: To improve a matching success rate at the time of identity verification.
A verification system (100) includes a verification destination digital information storage unit (33) for storing verification destination digital information inputted in advance, and a character string of a verification source from verification source image data of a verification source object during photographing. A character information recognition unit 31 that recognizes and recognizes as collation source text data, and a collation unit 32 that collates collation destination digital information with collation source text data, and the character information recognition unit 31 and the collation unit 32 respectively The processing of recognition and the processing of collation are executed a plurality of times in the background, using a plurality of temporally consecutive collation source images.
[Selected figure] Figure 1

Description

本発明は、事前に入力されたデジタル情報と現実空間におけるセンサ情報から得られた情報とを照合する技術に関する。   The present invention relates to a technique for collating digital information input in advance with information obtained from sensor information in a physical space.

従来、様々な方法で本人を確認する行為が行われている。例えば、銀行で口座を開設する場合、免許証等の本人確認書類を用いて本人確認が行われる。銀行口座を新規にオンラインで開設する際、新規顧客は、自身の個人情報(氏名、生年月日、住所等)をウェブページの入力フォームに入力して銀行管理下の照合装置へ送信する。また、同新規顧客は、その後の銀行からの本人確認要求に基づき、入力した個人情報の真実性を証明するため、個人情報が表示された免許証をスマートフォン端末等のカメラで撮影し、その画像を同照合装置へ送信する。   In the past, acts have been carried out to identify the person in various ways. For example, when a bank opens an account, identification is performed using identification documents such as a license. When a bank account is newly opened online, a new customer inputs his / her personal information (name, date of birth, address, etc.) into a web page input form and sends it to a bank-controlled collator. In addition, the new customer photographs the license on which the personal information is displayed with a camera such as a smartphone terminal and the like, in order to prove the authenticity of the input personal information based on the subsequent identification request from the bank. Is sent to the matching device.

その後、照合装置は、受信した免許証の画像から個人情報の文字列を認識(OCR)し、その個人情報の文字列と事前入力されていた個人情報の文字列とを照合(OCV)する。そして、照合の結果、2つの個人情報の文字列が互いに同一である場合に、本人が確認できたと判定し、口座開設の処理が開始される。   Thereafter, the verification device recognizes (OCR) the character string of the personal information from the received image of the license, and collates (OCV) the character string of the personal information with the character string of the personal information previously input. Then, when the character strings of the two pieces of personal information are identical to each other as a result of the comparison, it is determined that the person has been confirmed, and the account opening process is started.

なお、OCR(Optical Character Recognition)とは、印刷物に印字された文字を読み取り、照合や制御の処理を行うために出力する光学文字認識技術である。また、OCV(Optical Character Verification)とは、印字されている文字と照合用の文字とを照合し、一致しているか否かを判定する光学文字照合技術である。例えば、特許文献1や非特許文献1に記載されている。   Note that OCR (Optical Character Recognition) is an optical character recognition technology that reads characters printed on a printed matter and outputs the read characters for processing of collation and control. Further, OCV (Optical Character Verification) is an optical character verification technique of comparing characters being printed and characters for verification, and determining whether or not they match. For example, they are described in Patent Document 1 and Non-Patent Document 1.

米国特許9396404号U.S. Patent No. 9396404

Nello Zuech、“Considerations in OCR/OCV Applications”、[online]、aia VISION ONLINE、GLOBAL ASSOCIATION FOR VISION INFORMATION、2000年5月10日、[平成30年10月18日検索]、インターネット、<https://www.visiononline.org/vision-resources-details.cfm/vision-resources/Considerations-in-OCR-OCV-Applications/content_id/1325>Nello Zuech, "Considerations in OCR / OCV Applications", [online], aia VISION ONLINE, GLOBAL ASSOCIATION FOR VISION INFORMATION, May 10, 2000 [Search on October 18, 2018], Internet, <https: / /www.visiononline.org/vision-resources-details.cfm/vision-resources/Considerations-in-OCR-OCV-Applications/content_id/1325> B. Lucas、外1名、“An iterative image registration technique with an application to stereo vision”、In Proc. Seventh International Conference on Artificial Intelligence、1981年、p.674- p.479B. Lucas, one other person, "An image of image registration technique with an application to stereo vision", In Proc. Seventh International Conference on Artificial Intelligence, 1981, p. B. Horn、外1名、“Determining optical flow”、Artificial Intelligence、vol.17、1981年、p.185- p.203B. Horn, one other person, "Determining optical flow", Artificial Intelligence, vol. 17, 1981, p. 185-p. 203 Florian Schroff、外2名、“A Unified Embedding for Face Recognition and Clustering”、[online]、arXiv org、GLOBAL ASSOCIATION FOR VISION INFORMATION、2015年3月12日、[平成30年10月18日検索]、インターネット、<https://arxiv.org/abs/1503.03832>Florian Schroff, 2 others, "A Unified Embedding for Face Recognition and Clustering", [online], arXiv org, GLOBAL ASSOCIATION FOR VISION INFORMATION, March 12, 2015, [October 18, 2018], Internet , <Https://arxiv.org/abs/1503.03832>

しかしながら、従来の照合装置では、複数の口座開設要求に対する応答性を高めることを重視し、OCRとOCVをそれぞれ1回ずつ実行していたため、照合精度が低いという第1の課題があった。例えば、OCRで文字認識に失敗すると、その後のOCVも同じく失敗してしまう可能性があった。   However, in the conventional verification apparatus, emphasis is placed on enhancing responsiveness to a plurality of account opening requests, and OCR and OCV are executed once each, so that there is a first problem that the verification accuracy is low. For example, if the OCR fails in character recognition, the subsequent OCV may also fail.

また、従来の照合装置では、字形のみに基づき画像から文字をOCRするため、OCRを行うOCR処理部にとって認識すべき画像内の文字フォントが未知のフォントである場合、文字認識率が著しく低下するという第2の課題もあった。   Further, in the conventional collation device, since the character is OCRed from the image based only on the character shape, the character recognition rate is significantly reduced when the character font in the image to be recognized is an unknown font for the OCR processing unit that performs OCR. There was also a second issue called.

さらに、従来の照合装置では、照合元の本人確認書類が真正であるか否かに関わらずOCVするため、照合元の本人確認書類が偽物である場合でも本人の真正性が確定してしまうという第3の課題もあった。   Furthermore, in the conventional verification apparatus, since the OCV is performed regardless of whether or not the verification document of verification source is authentic, even if the verification document of verification source is a fake, the authenticity of the person is determined There was also a third issue.

本発明は、上記事情を鑑みてなされたものであり、本人確認時において、照合成功率を改善することを第1の目的とし、文字認識率を改善することを第2の目的とし、本人確認書類の真偽性を確認可能にすることを第3の目的とする。   The present invention has been made in view of the above circumstances, and it is a first object of the present invention to improve the verification success rate at the time of identity verification, and a second object to improve the character recognition rate. The third purpose is to make it possible to confirm the authenticity of the document.

以上の課題を解決するため、本発明に係る照合システムは、予め入力された照合先の文字列を記憶しておく照合先デジタル情報記憶部と、撮影中の照合元対象物の照合元画像から照合元の文字列を認識する文字情報認識部と、前記照合元の文字列と前記照合先の文字列とを照合する照合部と、を備え、前記文字情報認識部と前記照合部は、それぞれ、時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする。   In order to solve the above problems, the verification system according to the present invention uses the verification destination digital information storage unit for storing the character string of the verification destination input in advance, and the verification source image of the verification source object during imaging. A character information recognition unit that recognizes a character string of a collation source, and a collation unit that collates the character string of the collation source with the character string of the collation destination, the character information recognition unit and the collation unit respectively The present invention is characterized in that the process of the recognition and the process of the matching are performed a plurality of times in the background, using a plurality of temporally consecutive reference source images.

上記照合システムにおいて、前記照合部は、前記照合の処理を続けて実行するとき、照合に失敗した部分のみを処理対象とする。   In the above collating system, when the collating unit continues to execute the collating process, only the part where the collating fails is to be processed.

上記照合システムにおいて、前記照合元対象物の移動量の大きさに基づき、前記照合元対象物のすり替わりを検知するすり替わり検知部を更に備えることを特徴とする。   The collation system further includes a substitution detection unit that detects substitution of the collation source object based on a magnitude of a movement amount of the collation source object.

上記照合システムにおいて、前記照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する画像生成部を更に備えることを特徴とする。   The collation system further includes an image generation unit that generates an image including characters of the same font as the font of the character displayed on the collation source object.

上記照合システムにおいて、前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントであり前記照合先の文字列と同じ文字列を含む照合用画像を生成する照合用画像生成部であって、前記照合元画像と前記照合用画像との画像類似度を算出する画像直接照合部を更に備えることを特徴とする。   In the collation system, the image generation unit generates a collation image that generates a collation image including the same font as the font of the character displayed on the collation source object and the same character string as the collation destination character string A direct image matching unit that calculates an image similarity between the matching source image and the matching image.

上記照合システムにおいて、前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する学習用画像生成部であって、前記学習用画像を用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成するOCR学習部を更に備え、前記文字情報認識部は、前記学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識することを特徴とする。   In the above matching system, the image generation unit generates a learning image including a plurality of learning character strings respectively displayed in a plurality of fonts including the same font as the font of the character displayed on the matching source object. An OCR learning unit for generating a learning OCR model that is an image generation unit for learning to recognize an image of a learning character string of each font as the learning character string using the learning image; Further, the character information recognition unit is characterized by recognizing a character string of a collation source from the collation source image using the learning OCR model.

上記照合システムにおいて、前記照合元画像に含まれる前記照合元対象物の特徴が前記照合元対象物の備える特徴に一致するか否かに基づき、前記照合元対象物の真偽を判定する判定部を更に備えることを特徴とする。   In the above-described matching system, a determination unit that determines the authenticity of the matching source object based on whether the feature of the matching source object included in the matching source image matches the feature of the matching source object. And the like.

本発明に係る照合方法は、照合システムで行う照合方法において、予め入力された照合先の文字列を記憶しておく第1のステップと、撮影中の照合元対象物の照合元画像から照合元の文字列を認識する第2のステップと、前記照合元の文字列と前記照合先の文字列とを照合する第3のステップと、を行い、前記第2のステップと前記第3のステップでは、それぞれ、時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする。   The collation method according to the present invention is, in the collation method performed by the collation system, a first step of storing a character string of a collation destination inputted in advance, and a collation source from a collation source image of a collation source object during photographing. And a third step of checking the character string of the collation source and the character string of the collation destination, and the second step and the third step The present invention is characterized in that the process of the recognition and the process of the matching are performed a plurality of times in the background using a plurality of the matching source images that are temporally continuous with each other.

本発明に係る照合プログラムは、上記照合システムとしてコンピュータを機能させることを特徴とする。   A verification program according to the present invention causes a computer to function as the verification system.

本発明によれば、本人確認時において、照合成功率を向上することができる。また、本人確認時において、文字認識率を向上することができる。また、本人確認時において、本人確認書類の真偽性を確認可能にすることができる。   According to the present invention, the verification success rate can be improved at the time of identity verification. In addition, at the time of identity verification, the character recognition rate can be improved. Further, at the time of identity verification, the authenticity of the identity verification document can be made confirmable.

第1の実施形態に係る照合システムの機能ブロック構成を示す図である。It is a figure showing functional block composition of a collation system concerning a 1st embodiment. 端末装置で行う照合処理動作の処理フローを示す図である。It is a figure which shows the processing flow of collation processing operation performed by a terminal device. 照合元対象物の例を示す図である。It is a figure which shows the example of a collation origin object. 照合装置で行う照合処理動作の処理フローを示す図である。It is a figure which shows the processing flow of collation processing operation performed with a collation apparatus. 入力フォーム画面及び照合先デジタル情報の例を示す図である。It is a figure which shows the example of an input form screen and collation destination digital information. 照合結果の表示例を示す図である。It is a figure which shows the example of a display of a collation result. 端末装置で行うすり替わり検知動作の処理フローを示す図である。It is a figure which shows the processing flow of the change detection operation | movement performed by a terminal device. 第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system (direct collation form) which concerns on 2nd Embodiment. 照合装置で行う直接照合形態での処理フローを示す図である。It is a figure which shows the processing flow in the direct collation form performed by a collation apparatus. 第2の実施形態に係る照合システム(事前学習形態)の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system (pre-learning form) which concerns on 2nd Embodiment. 照合装置で行う事前学習形態での処理フローを示す図である。It is a figure which shows the processing flow in the prior learning form performed with a collation apparatus. 第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成(変形例)を示す図である。It is a figure showing functional block composition (modification) of a collation system (direct collation form) concerning a 2nd embodiment. 第3の実施形態に係る照合システムの機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system which concerns on 3rd Embodiment. 照合装置で行う真偽性判定の基本処理フローを示す図である。It is a figure which shows the basic processing flow of the authenticity determination performed by a collation apparatus. 照合装置で行う真偽性判定の変形例の処理フローを示す図である。It is a figure which shows the processing flow of the modification of the authenticity determination performed by a collation apparatus.

以下、本発明を実施する一実施の形態について図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<第1の実施形態>
第1の実施形態では、第1の課題を解決するため、本発明の第1の特徴として、OCRとOCVをバックグラウンドで複数回実行する。これにより、照合成功率を向上させる。また、毎回全ての領域(氏名、生年月日、住所等)を照合対象にしてしまうと、照合成功率が著しく下がるので、第1の特徴に関連する特徴として、照合が一度成功した領域はスキップし、失敗した領域又は未照合の領域に焦点を絞って照合する。この照合は、照合対象の領域が異なる場合に限らず、同じ領域内の部分に対しても適用する。更に、第1の特徴に関連する特徴として、撮影中の現実空間の現実物体が照合の途中で別の物体にすり替わることを検知する。
First Embodiment
In the first embodiment, in order to solve the first problem, as a first feature of the present invention, the OCR and the OCV are executed a plurality of times in the background. This improves the matching success rate. In addition, if all areas (name, date of birth, address, etc.) are targeted for matching every time, the matching success rate drops significantly, and therefore, as a feature related to the first feature, the area for which matching has once succeeded is skipped And focus on the areas that failed or unmatched. This collation is applied not only to the case where the areas to be collated differ but also to parts within the same area. Furthermore, as a feature related to the first feature, it is detected that the real object in the real space being captured is replaced with another object during matching.

(照合システムの構成)
図1は、第1の実施形態に係る照合システム100の機能ブロック構成を示す図である。照合システム100は、端末装置1と、照合装置3と、を備えて構成される。端末装置1と照合装置3は、通信ネットワーク5を介して相互通信可能に物理的かつ電気的に接続されている。
(Configuration of collation system)
FIG. 1 is a diagram showing a functional block configuration of a verification system 100 according to the first embodiment. The collation system 100 is configured to include the terminal device 1 and the collation device 3. The terminal device 1 and the verification device 3 are physically and electrically connected to be communicable with each other via the communication network 5.

(端末装置の構成)
まず、端末装置1の構成について説明する。端末装置1は、図1に示したように、撮影部11と、表示部12と、すり替わり検知部13と、前フレーム記憶部14と、を備えて構成される。端末装置1は、ローカル側のクライアント装置であり、例えば、カメラ機能及び通信機能が付属したスマートフォン端末、携帯電話端末、タブレット端末である。ウェブカメラが接続されたパソコン端末でもよい。
(Configuration of terminal device)
First, the configuration of the terminal device 1 will be described. As shown in FIG. 1, the terminal device 1 is configured to include an imaging unit 11, a display unit 12, a replacement detection unit 13, and a previous frame storage unit 14. The terminal device 1 is a client device on the local side, and is, for example, a smartphone terminal, a mobile phone terminal, or a tablet terminal to which a camera function and a communication function are attached. It may be a personal computer terminal to which a web camera is connected.

撮影部11は、光学カメラ等を用いて照合元対象物を撮影し、撮影中の照合元対象物の照合元画像データを比較的短い時間間隔(1秒等)で読み取り、照合元画像データを読み取る毎(1秒等)にすり替わり検知部13へ出力するとともに、照合元画像データを比較的長い時間間隔(6秒等)で照合装置3の文字情報認識部31へ出力する機能を備える。撮影部11は、例えば、スマートフォン端末に付属するカメラを用いて実現できる。照合元対象物とは、例えば、免許証、健康保険証等、個人情報(氏名、生年月日、住所等)が記録された本人確認書類である。   The photographing unit 11 photographs the collation source object using an optical camera or the like, reads the collation source image data of the collation source object being photographed at a relatively short time interval (1 second, etc.), and collates the collation source image data. It has a function of outputting to the change detection unit 13 each time it is read (for example, one second) and outputting the collation source image data to the character information recognition unit 31 of the collation device 3 at relatively long time intervals (for example, six seconds). The imaging unit 11 can be realized, for example, using a camera attached to a smartphone terminal. The collation source target object is, for example, an identification document in which personal information (name, date of birth, address, etc.) such as a license, a health insurance card, etc. is recorded.

表示部12は、撮影部11が撮影している照合元対象物の照合元画像データを参照可能に表示する機能を備える。例えば、スマートフォン端末の備える表示パネル及び表示機能を用いて実現できる。   The display unit 12 has a function of displaying the collation source image data of the collation source object photographed by the photographing unit 11 so as to be referable. For example, it is realizable using the display panel and display function with which a smart phone terminal is provided.

すり替わり検知部13は、撮影中の照合元対象物の移動量の大きさに基づき、照合元対象物のすり替わりを検知する機能を備える。具体的には、すり替わり検知部13は、撮影部11から直前に出力された照合元画像データを前フレームとして前フレーム記憶部14に記憶し、すり替えが起こりえないタイムスパン(1秒等、照合元画像データを読み取る毎)において、撮影部11から次に出力された照合元画像データと前フレーム記憶部14の前フレームとを用いて照合元対象物のオプティカルフローを算出し、照合元対象物の移動距離を算出する。そして、照合元対象物の移動距離が閾値を超えた場合、照合元対象物のすり替えが生じたと判定し、アラート信号を表示部12に出力してアラート情報を表示させる。   The substitution detection unit 13 has a function of detecting substitution of the collation source object based on the magnitude of the movement amount of the collation source object during shooting. Specifically, the replacement detection unit 13 stores the collation source image data output immediately before from the imaging unit 11 as the previous frame in the previous frame storage unit 14, and the time span in which the replacement can not occur (1 second, etc.) At each reading of verification source image data), the optical flow of the verification source object is calculated using the verification source image data output from the photographing unit 11 and the previous frame of the previous frame storage unit 14, and the verification source object is calculated. Calculate the movement distance of the object. Then, when the moving distance of the verification source object exceeds the threshold value, it is determined that the replacement of the verification source object has occurred, and an alert signal is output to the display unit 12 to display alert information.

なお、オプティカルフローとは、異なる時間に撮影された2枚の画像間で対象物の移動量をベクトルデータとして表現する技術である。オプティカルフローの代表的な計算方法については、例えば、Lucas-Kanade法(非特許文献2)、Horn-Shunck法(非特許文献3)が存在する。   The optical flow is a technology for expressing the amount of movement of an object as vector data between two images captured at different times. As a typical calculation method of optical flow, for example, the Lucas-Kanade method (Non-patent document 2) and the Horn-Shunck method (Non-patent document 3) exist.

前フレーム記憶部14は、すり替わり検知部13で次フレームの照合元画像データを用いてオプティカルフローを計算するために、前フレームの照合元画像データを記憶する機能を備える。   The previous frame storage unit 14 has a function of storing the comparison source image data of the previous frame in order to calculate the optical flow using the comparison source image data of the next frame by the replacement detection unit 13.

(照合装置の構成)
次に、照合装置3の機能について説明する。照合装置3は、図1に示したように、文字情報認識部31と、照合部32と、照合先デジタル情報記憶部33と、照合結果記憶部34と、を備えて構成される。照合装置3は、例えば、サーバ装置であり、クラウド内に配置される。
(Configuration of collation device)
Next, the function of the collation device 3 will be described. As shown in FIG. 1, the collation device 3 includes a character information recognition unit 31, a collation unit 32, a collation target digital information storage unit 33, and a collation result storage unit 34. The collation device 3 is, for example, a server device, and is disposed in the cloud.

文字情報認識部31は、端末装置1の撮影部11から照合元画像データを受け取る毎に、照合元画像データから照合元の文字列を認識する処理(OCR)を繰り返し実行し、照合部32へ出力する機能を備える。具体的には、文字情報認識部31は、端末装置1の撮影部11から比較的長い時間間隔(6秒等)で出力される照合元画像データをそれぞれ受け取り、照合元画像データを受け取る毎に、既存のOCR技術を用いて、受け取った照合元画像データをテキスト化して照合元テキストデータとして出力する。   The character information recognition unit 31 repeatedly executes processing (OCR) for recognizing the character string of the collation source from the collation source image data every time the collation source image data is received from the photographing unit 11 of the terminal device 1. It has a function to output. Specifically, each time the character information recognition unit 31 receives collation source image data output from the photographing unit 11 of the terminal device 1 at relatively long time intervals (eg, 6 seconds), the character information recognition unit 31 receives the collation source image data. The received verification source image data is converted into text and output as verification source text data using the existing OCR technology.

また、文字情報認識部31は、照合元画像データからの文字の認識処理に時間を要する場合、その時間毎に次の照合元画像データを受け付けて文字の認識処理を継続する機能を備える。例えば、照合元画像データからの文字の認識処理に2秒かかる場合、2秒以上の間隔を置いて次の認識処理に移行する。   The character information recognition unit 31 also has a function of accepting the next collation source image data for each time and continuing the character recognition processing, when it takes time to recognize the character from the collation source image data. For example, in the case where it takes 2 seconds to recognize characters from the collation source image data, the next recognition processing is performed with an interval of 2 seconds or more.

なお、文字情報認識部31は、端末装置1に配置してもよい。   The character information recognition unit 31 may be disposed in the terminal device 1.

照合部32は、文字情報認識部31から照合元の文字列を受け取る毎に、照合元の文字列を、照合先デジタル情報記憶部33に記憶されている照合先の文字列と照合する処理(OCV)を繰り返し実行し、その照合結果を端末装置1の表示部12へ出力する機能を備える。具体的には、照合部32は、文字情報認識部31でテキスト化された照合元テキストデータと、照合先デジタル情報記憶部33の照合先テキスト情報(照合先の文字列。後述する。)と、を突合し、一致する領域を照合済箇所情報(照合OK)とし、一致しない領域又は未処理の領域を未照合箇所情報(照合NG又は未照合)とした照合結果を照合結果記憶部34に記憶する。   The collation unit 32 performs processing of collating the character string of the collation source with the character string of the collation destination stored in the collation destination digital information storage unit 33 every time the character string of the collation source is received from the character information recognition unit 31 ( OCV is repeatedly executed, and a function of outputting the collation result to the display unit 12 of the terminal device 1 is provided. Specifically, the collation unit 32 includes the collation source text data converted into text by the character information recognition unit 31, and the collation destination text information (collation target character string, which will be described later) of the collation destination digital information storage unit 33. Are stored in the collation result storage unit 34. The matching result is stored in the matching result storage unit 34. The matching result is stored in the matching result storage unit 34. Do.

また、照合部32は、照合の処理を続けて実行するとき、照合に失敗した部分又は未処理の部分のみを処理対象とする機能を備える。具体的には、照合部32は、照合結果記憶部34に記憶されているこれまでの照合結果を参照し、照合の処理を次に実行する場合、既に照合済箇所(照合OK)となっている領域は照合せずにスキップする。この照合は、照合対象の領域が異なる場合に限らず、同じ領域内の部分に対しても適用する。そして、全ての領域が照合済となった場合、「全て照合済」のシグナルを出力して処理を終了する。   In addition, the collating unit 32 has a function of processing only a portion that fails to be collated or an unprocessed portion when continuing the collating process. Specifically, when the collation unit 32 refers to the collation result up to this point stored in the collation result storage unit 34 and executes the collation processing next, the collation part 32 is already a collated part (collation OK). To skip without matching. This collation is applied not only to the case where the areas to be collated differ but also to parts within the same area. Then, when all the areas have been collated, a signal of “all collated” is output and the process is ended.

照合先デジタル情報記憶部33は、ウェブページの入力フォームにキーボード等で入力され予め送信されていた照合先の文字列(文字コード列)を照合先デジタル情報として記憶しておく機能を備える。照合先デジタル情報とは、例えば、氏名、生年月日、住所等である。   The collation destination digital information storage unit 33 has a function of storing, as collation destination digital information, a collation destination character string (character code string) which has been input in advance to a web page input form using a keyboard or the like. The collation destination digital information is, for example, a name, a date of birth, an address, and the like.

照合結果記憶部34は、照合部32で照合の処理を行う毎に、各領域の照合結果を参照可能に記憶しておく機能を備える。照合部32が一領域内の部分に対して照合の処理を行った場合、照合結果記憶部34は、各部分についての照合結果を記憶する。   The collation result storage unit 34 has a function of storing the collation result of each area so as to be referable each time the collation unit 32 performs the collation processing. When the collation unit 32 performs the collation process on the parts in one area, the collation result storage unit 34 stores the collation result of each part.

(照合システムの動作)
(照合処理動作)
次に、図2〜図6を参照しながら、照合システム100で行う照合処理動作について説明する。この照合処理動作は、バックグラウンドで行われる。図2は、端末装置1で行う照合処理動作の処理フローを示す図である。図3は、照合元対象物の例を示す図である。図4は、照合装置3で行う照合処理動作の処理フローを示す図である。図5は、入力フォーム画面及び照合先デジタル情報の例を示す図である。図6は、照合結果の表示例を示す図である。
(Operation of collation system)
(Verification processing operation)
Next, the collation processing operation performed by the collation system 100 will be described with reference to FIGS. This collation processing operation is performed in the background. FIG. 2 is a diagram showing a processing flow of the collation processing operation performed by the terminal device 1. FIG. 3 is a view showing an example of the reference object. FIG. 4 is a diagram showing a processing flow of the collation processing operation performed by the collation device 3. FIG. 5 is a diagram showing an example of an input form screen and collation destination digital information. FIG. 6 is a view showing a display example of the comparison result.

後述する処理動作では、第2の実施形態以降も含め、銀行口座をオンラインで開設したい新規顧客が、照合元対象物として免許証を用いて、入力フォームに入力した自身の個人情報の真実性を証明する場合について説明する。同新規顧客は、銀行ホームページの入力フォーム(図5の上図)に氏名、生年月日、住所等の個人情報を入力し、銀行の管理する照合装置3へ予め送信しておく。そして、照合装置3は、その氏名等を照合先デジタル情報(図5の下図)として照合先デジタル情報記憶部33に記憶しておくものとする。なお、「照合先デジタル情報として」とする理由は、入力された氏名等はコンピュータである照合装置3が制御可能な文字コードであるからである。   In the processing operation to be described later, including the second embodiment and later, a new customer who wants to open a bank account online uses the license as the verification source object and uses the personal information entered in the input form for the authenticity of the personal information The case of proving will be described. The new customer inputs personal information such as name, date of birth, address and the like in an input form (upper view in FIG. 5) of the bank homepage, and sends it in advance to the verification device 3 managed by the bank. Then, the collation device 3 stores the name and the like in the collation destination digital information storage unit 33 as collation destination digital information (the lower diagram in FIG. 5). The reason for using “as the collation destination digital information” is that the input name or the like is a character code that can be controlled by the collation device 3 which is a computer.

(照合処理動作;端末装置の動作)
まず、図2を参照しながら、端末装置1の動作について説明する。
(Verification processing operation; Operation of terminal device)
First, the operation of the terminal device 1 will be described with reference to FIG.

ステップS101;
上記新規顧客が、入力フォームに入力した氏名等が正しいことを証明するため、端末装置1で免許証(図3)を撮影開始すると、端末装置1の撮影部11は、その免許証の画像を照合元画像データとして1秒毎に読み取るとともに、表示部12は、その免許証の映像を表示する。なお、1秒は例であり、0.1秒等でもよい。
Step S101;
When the new customer starts photographing a license (FIG. 3) on the terminal device 1 in order to prove that the name etc. entered in the input form is correct, the photographing unit 11 of the terminal device 1 receives an image of the license The display unit 12 displays an image of the driver's license while reading as verification source image data every one second. In addition, 1 second is an example and 0.1 second etc. may be sufficient.

ステップS102;
次に、撮影部11は、照合元画像データを6秒毎に照合装置3の文字情報認識部31へ順次出力する。このとき、撮影部11は、照合元画像データを読み取る毎(1秒毎)にすり替わり検知部13へ順次出力するが、すり替わり検知部13の動作については後述する。なお、6秒は例であり、10秒等でもよい。
Step S102;
Next, the photographing unit 11 sequentially outputs the collation source image data to the character information recognition unit 31 of the collation device 3 every six seconds. At this time, the imaging unit 11 sequentially outputs each of the collation source image data (every one second) to the switching detection unit 13. The operation of the switching detection unit 13 will be described later. Note that six seconds is an example, and may be ten seconds or the like.

ステップS103;
最後に、表示部12は、照合装置3から照合結果を受信すると、その照合結果を撮影中の免許証の映像に重畳表示する(図6)。
Step S103;
Finally, when the display unit 12 receives the verification result from the verification device 3, the display unit 12 superimposes and displays the verification result on the image of the driver's license during shooting (FIG. 6).

(照合処理動作;照合装置の動作)
次に、図4を参照しながら、照合装置3の動作について説明する。
(Verification processing operation; Operation of verification device)
Next, the operation of the collation device 3 will be described with reference to FIG.

ステップS201;
まず、照合装置3の文字情報認識部31が、端末装置1の撮影部11から照合元画像データを受信する。
Step S201;
First, the character information recognition unit 31 of the collation device 3 receives collation source image data from the photographing unit 11 of the terminal device 1.

ステップS202;
次に、文字情報認識部31は、既存のOCR技術を用いて、受信した照合元画像データに含まれる画像文字をテキスト文字に変換(文字認識処理;OCR)することにより、照合元画像データをテキスト化した照合元テキストデータを生成する。その後、文字情報認識部31は、照合元テキストデータを照合部32に出力する。
Step S202;
Next, the character information recognition unit 31 converts the image character contained in the received collation source image data into a text character using the existing OCR technology (character recognition processing; OCR), thereby the collation source image data. Generate the text collated source text data. Thereafter, the character information recognition unit 31 outputs the collation source text data to the collation unit 32.

なお、文字情報認識部31は、端末装置1から照合元画像データを受信する毎に、ステップS201とステップS202を繰り返し実行する。本例では、端末装置1から照合元画像データを6秒毎に受信するので、文字情報認識部31は、6秒毎に照合元テキストデータを照合部32に順次出力する。   Note that each time the character information recognition unit 31 receives the collation source image data from the terminal device 1, the character information recognition unit 31 repeatedly executes step S201 and step S202. In this example, since the collation source image data is received from the terminal device 1 every six seconds, the character information recognition unit 31 sequentially outputs collation source text data to the collation unit 32 every six seconds.

ステップS203;
次に、照合部32は、文字情報認識部31から照合元テキストデータを受け取ると、照合先デジタル情報記憶部33から照合先デジタル情報(図5の下図)を読み出して、照合元テキストデータと照合先デジタル情報とを突合(文字照合処理;OCV)する。このとき、照合部32は、突合対象とする一領域全体を領域毎に突合することも可能であり、領域内の部分毎に突合することも可能である。例えば、住所を一領域とする場合、住所の全文字列(〇〇県○○市〇〇1丁目23番地)を突合してもよいし、住所に含まれる一部の文字列(〇〇県〇〇市)を突合してもよい。
Step S203;
Next, when the collation unit 32 receives the collation source text data from the character information recognition unit 31, the collation unit 32 reads the collation destination digital information (the lower diagram in FIG. 5) from the collation destination digital information storage unit 33 and collates with the collation source text data. The destination digital information is collated (character collation processing; OCV). At this time, the collating unit 32 can also match the entire one area to be matched for each area, and can also match each part in the area. For example, in the case where an address is taken as one area, all the character strings of the address (address 00 of ○ prefecture 丁 city 01) may be matched, or some character strings included in the address (〇 prefecture 〇 ○ City) may match.

ステップS204;
その後、照合部32は、各領域を突合した照合結果を領域毎に端末装置1へ順次送信するとともに、その照合結果を照合結果記憶部34に記憶する。端末装置1は、ステップS103で説明した通り、照合装置3からの照合結果を撮影中の免許証の映像に重畳表示する(図6)。
Step S204;
Thereafter, the collation unit 32 sequentially transmits the collation result obtained by collating the respective areas to the terminal device 1 for each area, and stores the collation result in the collation result storage unit 34. As described in step S103, the terminal device 1 superimposes and displays the verification result from the verification device 3 on the image of the license under imaging (FIG. 6).

図6の左側に、照合装置3の表示部12に表示される照合1回目の画面遷移の例を示す。まず、氏名を照合し、照合OKであったため、免許証画像の氏名欄に「照合OK」が重畳表示される。次に、生年月日を照合し、照合の処理に時間を要し、照合結果が得られなかったため、生年月日欄に「(未照合)」が重畳表示される。次に、住所を照合し、照合NGであったため、住所欄に「照合NG」が重畳表示される。なお、照合NGになる場合とは、例えば、ステップS202で照合元画像データからテキスト文字を正しく認識できなかった場合が考えられる。   The left side of FIG. 6 shows an example of the first screen transition displayed on the display unit 12 of the collation device 3. First, since the name is collated and collation is OK, “collation OK” is superimposed and displayed in the name column of the driver's license image. Next, the date of birth is collated, and it takes time to perform collation processing, and the collation result is not obtained, so “(not collated)” is superimposed and displayed in the birth date column. Next, the address is collated, and since the collation is NG, “collation NG” is superimposed on the address column. Note that, in the case of matching failure, for example, it may be considered that the text character can not be correctly recognized from the matching source image data in step S202.

ステップS205;
次に、照合部32は、現在の照合回数を、照合回数の上限を示す閾値と比較し、現在の照合回数が閾値を超えた場合、処理を終了し、現在の照合回数が閾値を超えていない場合、ステップS206へ進む。
Step S205;
Next, the collation unit 32 compares the current number of collations with a threshold indicating the upper limit of the number of collations, and when the current number of collations exceeds the threshold, ends the processing and the current number of collations exceeds the threshold If not, the process proceeds to step S206.

ステップS206,S207;
その後、照合部32は、照合結果記憶部34を参照し、照合NG又は未照合の領域があるか否かを判定する。照合NG又は未照合の領域がある場合、その領域を再照合するため、ステップS203へ戻り、照合部32は、2つ目の照合元テキストデータで照合先デジタル情報と突合する。このとき、照合部32は、照合OKの領域は照合せずにスキップし、照合NG又は未照合の領域のみを照合する。一方、照合NG又は未照合の領域がない場合、つまり、全ての領域が照合OKの場合、処理を終了する。
Steps S206, S207;
After that, the collation unit 32 refers to the collation result storage unit 34 and determines whether there is a collation NG or an uncollated area. If there is an area of collation NG or uncollation, the process returns to step S203 in order to collate the area, and the collation unit 32 matches the collation destination digital information with the second collation source text data. At this time, the collation unit 32 skips the collation OK area without collation, and collates only the collation NG or the uncollated area. On the other hand, if there is no collation NG or uncollated area, that is, if all the collations are OK, the processing is ended.

図6の右側に、照合2回目の画面遷移の例を示す。照合OKであった氏名については照合の処理を行わず、照合1回目の照合結果を引き続き表示するに留め、生年月日から照合の処理が開始される。そして、生年月日を照合し、照合OKであったため、生年月日欄に「照合OK」が重畳表示される。次に、住所を照合し、照合OKであったため、住所欄に「照合OK」が重畳表示される。照合2回目で照合結果が照合OKに変わった理由は、照合1回目とは別の照合元テキストデータを用いたことにより、テキスト文字を正しく認識できていたことが考えられる。つまり、同一の免許証に対応する複数の照合元テキストデータを用いて照合の処理を繰り返し実行するので、照合成功率が向上することとなる。   The right side of FIG. 6 shows an example of the second screen transition. The processing of collation is not performed for the name for which the collation is OK, and the processing of collation is started from the date of birth, while the display of the first collation result is continuously displayed. Then, the date of birth is collated, and since the collation is OK, “collation OK” is superimposed and displayed in the date of birth column. Next, the address is collated, and since the collation is OK, “collation OK” is superimposed on the address column. The reason why the verification result is changed to verification OK in the second verification is considered to be that the text character was correctly recognized by using the comparison source text data different from the first verification. That is, since the process of collation is repeatedly performed using a plurality of collation source text data corresponding to the same license, the collation success rate is improved.

(すり替わり検知動作)
次に、図7を参照しながら、照合元対象物のすり替わり検知動作について説明する。図7は、端末装置1で行うすり替わり検知動作の処理フローを示す図である。氏名に対して照合OKが表示された後に別の免許証にすり替えが行われると、存在しない氏名と住所の組み合わせが生成されてしまう。顧客に悪意がある場合、その組み合わせに対応する氏名と住所を入力フォームに入力しておくと照合されてしまい、本人を詐称することが可能となってしまう。そこで、本動作では、免許証のすり替えを防止し、照合者本人の詐称を防止する。なお、すり替わり検知動作は、端末装置1のみで行われる。
(Replacing detection operation)
Next, with reference to FIG. 7, the operation of detecting the replacement of the reference source object will be described. FIG. 7 is a diagram showing a processing flow of the switching detection operation performed by the terminal device 1. If another license is replaced after collation OK is displayed for the name, a combination of nonexistent name and address will be generated. If the customer has a bad faith, entering the name and address corresponding to the combination into the input form will result in collation, which makes it possible to misrepresent the person. Therefore, in this operation, the replacement of the license is prevented, and the spoofing of the collator is prevented. The switching detection operation is performed only by the terminal device 1.

ステップS301;
まず、端末装置1で免許証を撮影開始すると、端末装置1の撮影部11は、その免許証の画像を照合元画像データとして1秒毎に読み取るとともに、読み取る毎(1秒毎)にすり替わり検知部13へ順次出力する。1秒は、免許証のすり替えが起こりえないと想定するタイムスパンの例である。
Step S301;
First, when shooting of a license with the terminal device 1 is started, the imaging unit 11 of the terminal device 1 reads an image of the license as verification source image data every second and changes every time it is read (every second). It sequentially outputs to the detection unit 13. One second is an example of a time span assuming that license replacement can not occur.

ステップS302;
すり替わり検知部13は、撮影部11から直前に出力されていた照合元画像データを前フレームとして前フレーム記憶部14に記憶しておき、次に(1秒後に)出力された照合元画像データと前フレームとを用いて免許証のオプティカルフローを算出し、免許証の1秒間の移動距離を算出する。
Step S302;
The replacement detection unit 13 stores the collation source image data output immediately before from the photographing unit 11 in the previous frame storage unit 14 as the previous frame, and then outputs the collation source image data output next (after one second) And the previous frame are used to calculate the optical flow of the license, and the movement distance of the license for one second is calculated.

ステップS303;
次に、すり替わり検知部13は、免許証の移動距離を、すり替えによる照合元対象物の位置の変動距離を示す閾値と比較し、免許証の移動距離が閾値を超えた場合、ステップS304へ進む。撮影時には手ぶれがあることを考慮し、当該閾値は2cm程度とすることが好ましい。一方、免許証の1秒間の移動距離が閾値を超えていない場合、処理を終了する。
Step S303;
Next, the replacement detection unit 13 compares the moving distance of the license with the threshold value indicating the variation distance of the position of the reference source object due to the switching, and if the moving distance of the license exceeds the threshold, the process proceeds to step S304. move on. In consideration of camera shake at the time of photographing, it is preferable to set the threshold to about 2 cm. On the other hand, if the one-second travel distance of the license does not exceed the threshold value, the process ends.

ステップS304;
最後に、すり替わり検知部13は、免許証の移動距離が閾値を超えた場合、免許証にすり替えが生じたと判定し、アラート信号を表示部12に出力してアラート情報を表示させる。このとき、すり替わり検知部13は、アラート信号を、表示部12の他、端末装置1の備えるスピーカに出力して音で警告してもよいし、照合装置3へ出力してもよい。
Step S304;
Finally, when the moving distance of the license exceeds a threshold, the replacement detection unit 13 determines that replacement of the license has occurred, and outputs an alert signal to the display unit 12 to display alert information. At this time, the change detection unit 13 may output an alert signal to a speaker provided in the terminal device 1 in addition to the display unit 12 to warn by sound, or may be output to the verification device 3.

ステップS303又はステップS304の後、すり替わり検知部13は、撮影部11が照合元画像データを読み取る毎にステップS301〜ステップS304を繰り返し実行する。   After step S303 or step S304, the change detection unit 13 repeatedly executes step S301 to step S304 each time the imaging unit 11 reads the collation source image data.

(効果)
第1の実施形態によれば、照合システム100が、予め入力された照合先デジタル情報を記憶しておく照合先デジタル情報記憶部33と、撮影中の照合元対象物の照合元画像データから照合元の文字列を認識して照合元テキストデータとする文字情報認識部31と、照合先デジタル情報と照合元テキストデータとを照合する照合部32と、を備え、文字情報認識部31と照合部32は、それぞれ、時間的に連続する複数の照合元画像を用いて、認識の処理と照合の処理をバックグラウンドで複数回実行するので、照合成功率を向上することができる。
(effect)
According to the first embodiment, the collation system 100 collates the collation destination digital information storage unit 33 storing the collation destination digital information input in advance with the collation source image data of the collation source object during photographing. A character information recognition unit 31 that recognizes an original character string and sets it as collation source text data, and a collation unit 32 that collates collation destination digital information with collation source text data, and the character information recognition unit 31 and the collation unit Since the process 32 performs the process of recognition and the process of collation a plurality of times in the background using a plurality of temporally consecutive collation source images, the collation success rate can be improved.

また、第1の実施形態によれば、照合部32は、照合の処理を続けて実行するとき、照合に失敗した部分又は未照合の部分のみを処理対象とするので、照合に成功していた部分については照合失敗又は未照合としないことから、照合成功率を更に向上することができる。   Further, according to the first embodiment, when the collation unit 32 continuously executes the collation processing, only the portion where the collation fails or the uncollated portion is the processing target, so the collation is successful. The matching success rate can be further improved because no matching failure or unmatching is made for the part.

また、第1の実施形態によれば、すり替わり検知部13が、照合元対象物の移動量の大きさに基づき、照合元対象物のすり替わりを検知するので、照合元対象物のすり替わりを確実に検知することができる。   Further, according to the first embodiment, the replacement detection unit 13 detects replacement of the verification source object based on the magnitude of the movement amount of the verification source object, so replacement of the verification source object Can be detected reliably.

<第2の実施形態>
第2の実施形態では、第2の課題を解決するため、本発明の第2の特徴として、現実空間の現実物体に即した文字フォント(書体)で照合先の文字を生成する。これにより、OCRとOCVの精度を向上させる。具体的には、2つの方法を用いる。
Second Embodiment
In the second embodiment, in order to solve the second problem, as a second feature of the present invention, a character to be collated is generated with a character font (typeface) conforming to the real object in the real space. This improves the accuracy of the OCR and OCV. Specifically, two methods are used.

1つ目は、照合先デジタル情報を、照合元対象物に表示されている文字フォントと同じ文字フォントで画像化した画像データを生成し、その画像データが照合元画像データと類似するか否かを判定する(直接照合形態)。   First, image data is generated by converting the verification destination digital information into the same character font as the character font displayed on the verification source object, and whether the image data is similar to the verification source image data (Direct collation form).

2つ目は、事前に格納していた住所リスト等の学習文字列を、照合元対象物に表示されている文字フォントを含む複数の文字フォントで画像化した画像データを生成し、その画像データであれば当該画像データの学習文字列として認識するOCR学習を予め実行しておき、それにより生成していた学習済OCRモデルを用いてOCRを行う(事前学習形態)。   The second is generating image data in which learning character strings such as an address list stored in advance are imaged with a plurality of character fonts including the character font displayed in the collation source object, and the image data If this is the case, the OCR learning to recognize as the learning character string of the image data is executed in advance, and the OCR is performed using the learned OCR model generated thereby (pre-learning form).

これにより、照合元対象物に表示されている文字が文字情報認識部31にとって未知のフォントであっても、頑健に照合を行うことを実現する。   Thereby, even if the character displayed on the collation source object is a font unknown to the character information recognition unit 31, it is realized that the collation is performed robustly.

(直接照合形態)
(照合システムの構成)
図8は、第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成を示す図である。端末装置1は、撮影部11と、表示部12と、を備えて構成される。照合装置3は、照合先デジタル情報記憶部33と、フォント情報記憶部35と、照合用画像生成部36と、画像直接照合部37と、を備えて構成される。以下、照合装置3の各機能部(35〜37)について説明する。端末装置1の各機能部(11,12)は、第1の実施形態と同様の機能を備えるため、その説明を省略する。
(Direct collation form)
(Configuration of collation system)
FIG. 8 is a diagram showing a functional block configuration of a verification system (direct verification form) according to the second embodiment. The terminal device 1 includes a photographing unit 11 and a display unit 12. The collation device 3 includes a collation target digital information storage unit 33, a font information storage unit 35, a collation image generation unit 36, and an image direct collation unit 37. Hereinafter, each function part (35-37) of the collation apparatus 3 is demonstrated. The functional units (11, 12) of the terminal device 1 have the same functions as in the first embodiment, and thus the description thereof is omitted.

フォント情報記憶部35は、文字のフォント情報を読み出し可能に記憶しておく機能を備える。フォント情報とは、例えば、明朝体、ゴシック体等である。   The font information storage unit 35 has a function of readably storing font information of characters. The font information is, for example, Mincho type, Gothic type, etc.

照合用画像生成部36は、照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する機能を備える。具体的には、照合用画像生成部36は、照合元対象物に表示された文字のフォントと同じフォントであり照合先の文字列と同じ文字列を含む照合用画像データを生成する。例えば、照合元対象物に表示された「東京都」という文字列が「明朝体」であれば、照合先デジタル情報として入力されている「東京都」という文字列を「明朝体」の「東京都」の画像として出力する。   The collation image generation unit 36 has a function of generating an image including characters of the same font as the font of the character displayed on the collation source object. Specifically, the collation image generation unit 36 generates collation image data including the same font as the font of the character displayed on the collation source object and the same character string as the collation target character string. For example, if the character string "Tokyo" displayed on the collation source object is "Mincho", the character string "Tokyo" entered as collation destination digital information is Output as an image of "Tokyo".

画像直接照合部37は、照合元画像データと、照合用画像データ(照合先デジタル情報をフォント情報に応じて生成した画像データ)と、の画像類似度を算出する機能を備える。具体的には、画像直接照合部37は、照合元画像データと照合用画像データの画像類似度を推定計算し、類似・非類似を判定して、その判定結果を端末装置1の表示部12に出力する。なお、画像類似度を求める方法は、任意であり、例えば、深層学習に基づくtriplet loss(非特許文献4)を用いた類似画像検索方式、深層学習を用いずに行うAverage Hash法等が存在する。   The image direct collation unit 37 has a function of calculating the image similarity between the collation source image data and the collation image data (image data generated by collation destination digital information according to font information). Specifically, the image direct matching unit 37 estimates and calculates the image similarity between the matching source image data and the matching image data, determines similarity and dissimilarity, and displays the determination result on the display unit 12 of the terminal device 1. Output to In addition, the method of calculating | requiring an image similarity is arbitrary, for example, the similar image retrieval method using triplet loss (nonpatent literature 4) based on deep learning, the average hash method performed without using deep learning, etc. exist. .

(照合システムの動作)
図9は、照合装置3で行う直接照合形態での処理フローを示す図である。第1の実施形態では、照合部32が文字列同士を照合する方法について説明したが、ここでは、画像直接照合部37が照合の処理を画像同士で行う。
(Operation of collation system)
FIG. 9 is a diagram showing a processing flow in the direct collation mode performed by the collation device 3. In the first embodiment, the method in which the collating unit 32 collates the character strings has been described, but here, the image direct collating unit 37 performs the collating process between the images.

ステップS401;
まず、照合用画像生成部36は、照合先デジタル情報記憶部33から照合先デジタル情報(入力フォームに入力された氏名等)を取得し、フォント情報記憶部35のフォント情報を参照して、免許証に表示されている文字のフォントと同じフォントに変換して画像化した照合用画像データを生成する。例えば、免許証の文字フォントが明朝体の場合、入力フォームに入力された氏名等を明朝体に変換して画像化した照合用画像データを生成する。なお、免許証の文字のフォントの判別方法は、例えば、入力フォームで免許証の文字フォントを指定する方法、免許証を撮影したときにフォント種別を検出する方法等が考えられる。
Step S401;
First, the collation image generation unit 36 acquires collation destination digital information (such as a name input to an input form) from the collation destination digital information storage unit 33, and refers to the font information of the font information storage unit 35 to obtain a license. The matching image data is generated by converting it into the same font as the font of the character displayed on the certificate. For example, in the case where the character font of the license is Mincho, the name etc. input to the input form is converted into a Mincho and image data for collation is generated. As a method of determining the font of the character of the license, for example, a method of designating a character font of the license by an input form, a method of detecting a font type when the license is photographed, and the like can be considered.

ステップS402;
次に、画像直接照合部37は、端末装置1の撮影部11から照合元画像データを受信すると、受信した照合元画像データと、ステップS401で生成した照合用画像データとの画像類似度を計算し、類似・非類似を判定する。例えば、2つの画像データの画像類似度を計算した結果、類似度が閾値以上の場合、類似していると判定して照合OKとする。一方、類似度が同閾値に満たない場合、非類似と判定して照合NGとする。
Step S402;
Next, when receiving the collation source image data from the photographing unit 11 of the terminal device 1, the image direct collation unit 37 calculates the image similarity between the received collation source image data and the collation image data generated in step S401. And determine similarity and dissimilarity. For example, as a result of calculating the image similarity between two image data, if the similarity is equal to or higher than a threshold, it is determined that the two are similar and the matching is OK. On the other hand, when the similarity is less than the same threshold, it is determined as non-similar and it is determined as matching NG.

ステップS403;
最後に、画像直接照合部37は、ステップS402の照合結果を端末装置1へ送信する。端末装置1は、第1の実施形態で説明した通り、照合装置3からの照合結果を撮影中の免許証の映像に重畳表示する。
Step S403;
Finally, the image direct matching unit 37 transmits the matching result in step S402 to the terminal device 1. As described in the first embodiment, the terminal device 1 superimposes and displays the verification result from the verification device 3 on the image of the license under imaging.

(事前学習形態)
(照合システムの構成)
次に、事前学習形態について説明する。図10は、第2の実施形態に係る照合システム(事前学習形態)の機能ブロック構成を示す図である。端末装置1は、撮影部11と、表示部12と、を備えて構成される。照合装置3は、第1の実施形態で説明した構成に加えて、フォント情報記憶部35と、学習用文字列デジタル情報記憶部38と、学習用画像生成部39と、OCR学習部40と、学習済OCRモデル記憶部41と、を備えて構成される。以下、照合装置3の各機能部(35,38〜41)について説明する。端末装置1の各機能部(11,12)は、第1の実施形態と同様の機能を備えるため、その説明を省略する。
(Form of prior learning)
(Configuration of collation system)
Next, the pre-learning form will be described. FIG. 10 is a diagram showing a functional block configuration of a collation system (pre-learning form) according to the second embodiment. The terminal device 1 includes a photographing unit 11 and a display unit 12. The collation device 3 has a font information storage unit 35, a learning character string digital information storage unit 38, a learning image generation unit 39, and an OCR learning unit 40, in addition to the configuration described in the first embodiment. And a trained OCR model storage unit 41. Hereinafter, each function part (35, 38-41) of the collation apparatus 3 is demonstrated. The functional units (11, 12) of the terminal device 1 have the same functions as in the first embodiment, and thus the description thereof is omitted.

フォント情報記憶部35は、文字のフォント情報を読み出し可能に記憶しておく機能を備える。フォント情報とは、例えば、明朝体、ゴシック体等である。   The font information storage unit 35 has a function of readably storing font information of characters. The font information is, for example, Mincho type, Gothic type, etc.

学習用文字列デジタル情報記憶部38は、OCR学習用として収集していた任意の学習用文字列を学習用文字列デジタル情報として読み出し可能に記憶しておく機能を備える。学習用文字列デジタル情報とは、例えば、日本太郎等の氏名リスト、東京都千代田区等の住所リスト、2000年1月1日等の生年月日リスト等であり、氏名、住所、生年月日等として用いられる可能性の高い既知の情報である。   The learning character string digital information storage unit 38 has a function of readably storing any learning character string collected for OCR learning as learning character string digital information. The character string digital information for learning is, for example, a name list such as Nippon Taro, an address list such as Chiyoda-ku, Tokyo, a date of birth list such as January 1, 2000, etc. It is known information that is likely to be used as etc.

学習用画像生成部39は、照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する機能を備える。具体的には、学習用画像生成部39は、上記任意の学習用文字列を複数のフォントで画像表示した学習用画像データを生成する。例えば、学習用文字列デジタル情報に含まれる住所リストの文字列を「明朝体」に変換し、「明朝体」の住所リストの画像として出力する。   The learning image generation unit 39 has a function of generating a learning image including a plurality of learning character strings respectively displayed in a plurality of fonts including the same font as the font of the character displayed on the collation source object. Specifically, the learning image generation unit 39 generates learning image data in which the arbitrary learning character string is displayed in a plurality of fonts. For example, the character string of the address list included in the learning character string digital information is converted to the "Mincho form" and output as an image of the "Mincho form" address list.

OCR学習部40は、学習用画像データを用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成する機能を備える。例えば、「明朝体」の住所リストの画像から当該住所リストの文字列を認識するように学習する学習用OCRモデルを生成する。   The OCR learning unit 40 has a function of generating a learning OCR model for learning to recognize an image of a learning character string of each font as the learning character string using the learning image data. For example, a learning OCR model is generated which learns to recognize the character string of the address list from the image of the address list of “Mincho”.

学習済OCRモデル記憶部41は、OCR学習部40により生成された学習用OCRモデルを読み出し可能に記憶する機能を備える。   The learned OCR model storage unit 41 has a function of readably storing the learning OCR model generated by the OCR learning unit 40.

(照合システムの動作)
図11は、照合装置3で行う事前学習形態での処理フローを示す図である。第1の実施形態では、OCRする際、照合元対象物に表示された文字の字形のみに基づきOCRする方法について説明したが、ここでは、照合元対象物に表示された文字のフォント(書体)を文字認識時のキー情報に用いてOCRする。
(Operation of collation system)
FIG. 11 is a diagram showing a process flow in the pre-learning mode performed by the verification device 3. In the first embodiment, the method of performing the OCR based on only the character shape of the character displayed on the verification source object when performing the OCR has been described, but here, the font (typeface) of the character displayed on the verification source object Is used as key information in character recognition for OCR.

ステップS501;
まず、学習用画像生成部39は、学習用文字列デジタル情報記憶部38から学習用文字列デジタル情報を取得し、フォント情報記憶部35のフォント情報と同じフォントに変換した学習用画像データを生成する。例えば、フォント情報に明朝体がある場合、明朝体フォントに基づく氏名リストの学習用画像データを各氏名についてそれぞれ生成する。住所リスト、生年月日リスト等についても同様に生成する。より詳しくは、例えば、「田中」「佐藤」が氏名リストに含まれ、フォント情報が「明朝体」「ブロック体」である場合、明朝体の「田中」の画像、ブロック体の「田中」の画像、明朝体の「佐藤」の画像、ブロック体の「佐藤」の画像を生成して出力する。なお、フォント情報は、入力フォームで免許証のフォントと同じ種別のフォントを指定する方法、任意のフォントを指定しておく方法等が考えられる。
Step S501;
First, the learning image generation unit 39 acquires learning character string digital information from the learning character string digital information storage unit 38, and generates learning image data converted to the same font as the font information of the font information storage unit 35. Do. For example, when there is a Mincho font in font information, learning image data of a name list based on the Mincho font is generated for each name. An address list, a date of birth list, etc. are similarly generated. More specifically, for example, when "Tanaka" and "Sato" are included in the name list and the font information is "Mincho type" and "Block type", the image of Mincho type "Tanaka" and the block type "Tanaka" The image of "", the image of "Sato" of Mincho type, and the image of "Sato" of block type are generated and output. As font information, a method of designating a font of the same type as a font of a license in an input form, a method of designating an arbitrary font, or the like can be considered.

ステップS502;
次に、OCR学習部40は、ステップS501で生成した学習用画像データを用いて、各フォントの学習用文字列の画像であれば当該学習用文字列とそれぞれ認識(決定・変換)する学習を行い、その学習結果を学習用OCRモデルとして生成して学習済OCRモデル記憶部41に記憶する。例えば、明朝体の「田中」の画像であれば「田中」の文字列を認識し、ブロック体の「田中」の画像についても「田中」の文字列を認識する学習用OCRモデルを生成する。
Step S502;
Next, the OCR learning unit 40 uses the learning image data generated in step S501 to perform learning to recognize (determine / convert) each learning character string as long as it is an image of a learning character string for each font. Then, the learning result is generated as a learning OCR model and stored in the learned OCR model storage unit 41. For example, if the image is "Tanaka" in the morning, the character string "Tanaka" is recognized, and an OCR model for learning that recognizes the character string "Tanaka" is also generated for the image "Tanaka" in the block type. .

なお、照合装置3は、全ての学習用文字列及び全てのフォントについて、ステップS501とステップS502を事前に実行(事前学習)しておく。   The collation device 3 executes (preliminary learning) steps S501 and S502 in advance for all the learning character strings and all the fonts.

ステップS503;
その後、文字情報認識部31は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる所定フォントの氏名、生年月日、住所等の各画像について、学習済OCRモデルに含まれる複数の画像のうち同じフォントの氏名、生年月日、住所等の画像をそれぞれ特定し、特定した各画像に対応する学習用文字列をそれぞれ特定することにより、受信した照合元画像データから文字列を認識(OCR)する。例えば、照合元画像データに明朝体の「田中」が表示されている場合、学習済OCRモデルより、「田中」の文字列が特定される。これにより、文字情報認識部31は、照合元画像データに含まれる画像文字をテキスト文字に変換する。
Step S503;
Thereafter, when the character information recognition unit 31 receives the collation source image data from the photographing unit 11 of the terminal device 1, the character information recognition unit 31 has learned about each image such as the name, date of birth, and address of a predetermined font included in the collation source image data. Among the plurality of images included in the OCR model, images such as the same font name, date of birth, address, etc. are specified respectively, and the received matching source is specified by respectively specifying the learning character string corresponding to each specified image. Recognize character strings (OCR) from image data. For example, in the case where "Mooncho""Tanaka" is displayed in the verification source image data, the character string "Tanaka" is specified from the learned OCR model. Thereby, the character information recognition unit 31 converts the image character included in the collation source image data into a text character.

ステップS504;
以降、ステップS202に記載した後段の処理(照合元テキストデータを照合部32に出力する処理)〜ステップS207で説明した処理を実行する。
Step S504;
Thereafter, the process described in step S202 (the process of outputting the collation source text data to the collation unit 32) to the process described in step S207 is executed.

(効果)
第2の実施形態によれば、照合用画像生成部36が、照合元対象物に表示された文字のフォントと同じフォントであり照合先デジタル情報と同じ文字列を含む照合用画像データを生成し、画像直接照合部37が、その照合用画像データを用いて照合元画像データとの画像類似度を算出するので、照合元対象物に表示されている文字が未知のフォントであっても、頑健に照合を行うことができ、文字認識率を向上することができる。
(effect)
According to the second embodiment, the collation image generation unit 36 generates collation image data including the same font as the font of the character displayed on the collation source object and the same character string as the collation destination digital information. Since the image direct collation unit 37 calculates the image similarity with the collation source image data using the collation image data, even if the character displayed in the collation source object is an unknown font, the robustness is The character recognition rate can be improved.

また、第2の実施形態によれば、学習用画像生成部39が、照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像データを生成し、OCR学習部が、その学習用画像データを用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成し、文字情報認識部31が、学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識するので、照合元対象物に表示されている文字が未知のフォントであっても、頑健に照合を行うことができ、文字認識率を向上することができる。   Further, according to the second embodiment, the learning image generation unit 39 includes a plurality of learning character strings displayed respectively in a plurality of fonts including the same font as the font of the character displayed on the collation source object. A learning OCR model is generated in which learning image data is generated, and the OCR learning unit uses the learning image data to recognize an image of a learning character string of each font as the learning character string. Since the character information recognition unit 31 recognizes the character string of the collation source from the collation source image using the learning OCR model, even if the character displayed on the collation source object is an unknown font , It is possible to perform the collation robustly and improve the character recognition rate.

なお、直接照合形態と事前学習形態は、それぞれ第1の実施形態に組み合わせることも可能である。例えば、図12に例示するように、図8に示した直接照合形態に対して、端末装置1にすり替わり検知部13と前フレーム記憶部14を追加して照合元対象物のすり替わり検知を行うようにしてもよい。   In addition, it is also possible to combine the direct matching form and the prior learning form in the first embodiment. For example, as illustrated in FIG. 12, the change detection unit 13 and the previous frame storage unit 14 are added to the terminal device 1 to the direct verification form shown in FIG. You may do so.

<第3の実施形態>
第3の実施形態では、第3の課題を解決するため、本発明の第3の特徴として、3次元的に現実物体をセンシングし、本来あるべき現実物体との物理的乖離がないかを確認することにより、現実物体の真偽性を判断する。
Third Embodiment
In the third embodiment, in order to solve the third problem, as a third feature of the present invention, a real object is sensed three-dimensionally, and it is confirmed whether there is physical deviation from the real object which should be originally To determine the authenticity of the real object.

(照合システムの構成)
図13は、第3の実施形態に係る照合システムの機能ブロック構成を示す図である。端末装置1の構成は、第1の実施形態と同じである。照合装置3は、第1の実施形態で説明した構成に加えて、真偽判定部42と、照合元物理情報記憶部43と、生体情報真偽判定部44と、照合元生体情報記憶部45と、を備えて構成される。なお、第3の実施形態は、第2の実施形態と組み合わせることも可能である。
(Configuration of collation system)
FIG. 13 is a diagram showing a functional block configuration of the collation system according to the third embodiment. The configuration of the terminal device 1 is the same as that of the first embodiment. The verification device 3 includes the authenticity determination unit 42, the verification source physical information storage unit 43, the biometric information authenticity determination unit 44, and the verification source biometric information storage unit 45 in addition to the configuration described in the first embodiment. And is comprised. The third embodiment can be combined with the second embodiment.

真偽判定部42は、照合元画像データに含まれる照合元対象物の特徴が照合元対象物の備える特徴に一致するか否かに基づき、照合元対象物の真偽を判定する機能を備える。具体的には、真偽判定部42は、照合元物体の物理的特徴が、手本となる物体の物理的特徴に一致している場合、照合元対象物が本物であることを示す真の判定結果を出力し、一致しない場合、照合元対象物が偽物であることを示す偽の判定結果を出力する。   The authenticity determination unit 42 has a function of determining the authenticity of the verification source object based on whether the feature of the verification source object included in the verification source image data matches the feature of the verification source object. . Specifically, if the physical feature of the reference source object matches the physical feature of the example object, the true / false determination unit 42 indicates that the reference source object is a real object. The determination result is output, and when it does not match, a false determination result indicating that the matching source object is a fake is output.

照合元物理情報記憶部43は、照合元対象物の備える本来の物理的特徴に関する情報を照合元物理情報として参照可能に記憶しておく機能を備える。照合元物理情報とは、例えば、免許証の形状、大きさ、厚さ、表示情報の内容、色等である。   The collation source physical information storage unit 43 has a function of storing information related to the original physical feature of the collation source object as a collation source physical information so as to be referable. The verification source physical information is, for example, the shape, size, thickness, content of display information, color, etc. of a license.

生体情報真偽判定部44は、照合元画像データに含まれる照合元対象物の特徴が照合元対象物の備える特徴に一致するか否かに基づき、照合元対象物の真偽を判定する機能を備える。具体的には、生体情報真偽判定部44は、照合元物体の生体的特徴が、手本となる物体の生体的特徴に一致している場合、照合元対象物が本物であることを示す真の判定結果を出力し、一致しない場合、照合元対象物が偽物であることを示す偽の判定結果を出力する。   The biometric information authenticity determination unit 44 determines the authenticity of the verification source object based on whether the feature of the verification source object included in the verification source image data matches the feature of the verification source object. Equipped with Specifically, the biometric information authenticity determination unit 44 indicates that the verification source object is a real object when the biometric feature of the verification source object matches the biometric feature of the example object. A true determination result is output, and when it does not match, a false determination result indicating that the matching source object is a fake is output.

照合元生体情報記憶部45は、照合元対象物の備える本来の生体的特徴に関する情報を照合元生体情報として参照可能に記憶しておく機能を備える。照合元生体情報とは、例えば、顔、指紋等に関する顔の輪郭、指紋形状等である。   The collation source biometric information storage unit 45 has a function of storing information relating to the inherent biometric feature of the collation source object as a collation source biometric information so as to be referable. The collation source biometric information is, for example, a face, an outline of a face related to a fingerprint or the like, a fingerprint shape or the like.

(照合システムの動作)
(基本動作)
まず、図14を参照しながら、真偽性判断の基本動作について説明する。図14は、照合装置3で行う真偽性判定の基本処理フローを示す図である。ここでは、入力フォームに入力した情報の他に、照合元対象物の物理的特徴を元に真偽性を判定する。
(Operation of collation system)
(basic action)
First, the basic operation of authenticity determination will be described with reference to FIG. FIG. 14 is a diagram showing a basic processing flow of authenticity determination performed by the verification device 3. Here, in addition to the information input to the input form, the authenticity is determined based on the physical features of the matching source object.

ステップS601;
まず、真偽判定部42は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる免許証等の物理的特徴を算出する。例えば、免許証の場合、免許証の外観形状に対し、免許証内に表示されている黒線枠の位置、写真の配置等の位置的関係を算出する。照合元対象物が3次元形状である場合、複数の角度から連続的に撮影した照合元画像データを用いて3次元的な物理的特徴を算出する。例えば、免許証のようにカード状の場合、表面や裏面の物理的特徴に加えて、厚み方向の3次元的特徴(高さ等)も算出する。
Step S601;
First, when the authenticity determination unit 42 receives the verification source image data from the imaging unit 11 of the terminal device 1, the authenticity determination unit 42 calculates a physical feature such as a license included in the verification source image data. For example, in the case of a license, the positional relationship such as the position of a black line frame displayed in the license, the arrangement of photographs, etc. is calculated with respect to the appearance of the license. When the verification source object is a three-dimensional shape, three-dimensional physical features are calculated using verification source image data continuously captured from a plurality of angles. For example, in the case of a card like a license, in addition to the physical features of the front and back surfaces, three-dimensional features (such as height) in the thickness direction are also calculated.

ステップS602;
次に、真偽判定部42は、照合元物理情報記憶部43から照合元物理特徴である免許証の備える本来の物理的特徴に関する情報を取得し、照合元画像データから得た免許証等の物理的特徴が、照合元物理特徴に一致するか否かを判定する。
Step S602;
Next, the authenticity determination unit 42 acquires, from the verification source physical information storage unit 43, information on the original physical features of the license which is the verification source physical feature, and obtains the license etc. obtained from the verification source image data. It is determined whether the physical feature matches the match source physical feature.

物理的特徴の一致・不一対を判定する方法としては、事前に人手で定める特徴量を求めておき、撮影した物理的特徴との一致を求める方法が考えられる。例えば、カード状の物体の場合、左上頂点から右に1cm、下に0.5cmの箇所から、黒い直線が縦と横に走るという特徴等を、本来の物理的特徴として用いる。その他、CNN(Convolutional Neural Network)等の深層学習を用いて自動的に本来の物理的特徴を発見して算出し、その上で類似度を求める手段の両方が考えられる。いずれの方法を用いてもよい。   As a method of determining the coincidence / non-pairing of the physical features, there can be considered a method in which feature amounts which are manually determined in advance are obtained, and the coincidence with the photographed physical features is obtained. For example, in the case of a card-like object, a characteristic that a black straight line runs vertically and horizontally from a point 1 cm to the right and 0.5 cm downward from the upper left vertex is used as an inherent physical feature. Besides, it is possible to use both deep learning such as CNN (Convolutional Neural Network) to find and calculate the original physical feature automatically, and to use it as a means to determine the degree of similarity. Any method may be used.

ステップS603;
最後に、真偽判定部42は、ステップS602の真偽判定結果を端末装置1へ送信する。例えば、真偽判定部42は、互いの物理的特徴が不一致、又は類似度が閾値より低い場合、撮影中の免許証は偽物であることを示す偽の判定結果を送信する。
Step S603;
Finally, the authenticity determination unit 42 transmits the authenticity determination result of step S602 to the terminal device 1. For example, the authenticity determination unit 42 transmits a false determination result indicating that the license being photographed is a fake, when the physical characteristics of the two do not match or the similarity is lower than a threshold.

(基本動作の変形例)
次に、図15を参照しながら、真偽性を判断の動作(変形例)について説明する。図15は、照合装置3で行う真偽性判定の変形例の処理フローを示す図である。ここでは、入力フォームに入力した情報の他に、照合元対象物の生体的特徴を元に真偽性を判定する。
(Modification of basic operation)
Next, the operation (modification) of determining the authenticity will be described with reference to FIG. FIG. 15 is a diagram showing a process flow of a modification of the authenticity determination performed by the verification device 3. Here, in addition to the information input to the input form, the authenticity is determined based on the biological feature of the matching source object.

ステップS701;
まず、生体情報真偽判定部44は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる免許証の写真から本人の顔の特徴を算出する。例えば、生体情報真偽判定部44は、目の位置、鼻の位置、顔の形状等を算出する。
Step S701;
First, when the biometric information authenticity determination unit 44 receives the verification source image data from the photographing unit 11 of the terminal device 1, the biometric information authenticity determination unit 44 calculates the feature of the person's face from the photograph of the license included in the verification source image data. For example, the biometric information authenticity determination unit 44 calculates the position of the eye, the position of the nose, the shape of the face, and the like.

ステップS702;
次に、生体情報真偽判定部44は、照合元生体情報記憶部45から照合元生体情報である本人の生体的特徴に関する情報を取得し、照合元画像データから得た本人の生体的特徴が、照合元生体情報に一致するか否かを判定する。生体的特徴が一致しているか否かを判定する方法については、例えば、非特許文献3等に記載された方法を用いる。照合元生体情報は、3次元形状であることを考慮し、複数角度から連続的に撮影した画像を用いて予め算出しておく。
Step S702;
Next, the biometric information authenticity determination unit 44 acquires, from the verification source biometric information storage unit 45, information related to the biometric feature of the person who is the verification source biometric information, and the biometric feature of the person obtained from the verification source image data is , It is determined whether or not the matching source biometric information is matched. As a method of determining whether or not the biological characteristics match, for example, the method described in Non-Patent Document 3 or the like is used. The verification source biometric information is calculated in advance using images continuously captured from a plurality of angles in consideration of the three-dimensional shape.

(効果)
第3の実施形態によれば、真偽判定部42が、照合元画像データに含まれる照合元対象物の物理的特徴が照合元対象物の本来備える物理的特徴に一致するか否かに基づき、照合元対象物の真偽を判定するので、照合元対象物の真偽を確実に判定できる。特に、3次元的な物理的特徴を用いるので、例えば、免許証のコピーが用いられている場合は偽として判定できる。
(effect)
According to the third embodiment, the authenticity determination unit 42 determines whether the physical feature of the matching source object included in the matching source image data matches the physical feature of the matching source object. Since the authenticity of the verification source object is determined, the authenticity of the verification source object can be determined reliably. In particular, since a three-dimensional physical feature is used, for example, when a copy of a license is used, it can be determined as false.

また、第3の実施形態によれば、生体情報真偽判定部44が、照合元画像データに含まれる照合元対象物に含まれる生体的特徴が本人の生体的特徴に一致するか否かに基づき、照合元対象物の真偽を判定するので、写真部分の入れ替え等、照合元対象物の真偽を確実に判定でき、更に実際の生体情報ではなく代わりの写真等を用いた照合元生体情報のすり替えを防止できる。   Further, according to the third embodiment, whether the biometric information included in the verification source object included in the verification source image data matches the biometric characteristic of the person according to the third embodiment. Since the authenticity of the verification source object is determined on the basis of this, it is possible to reliably determine the authenticity of the verification source object, such as replacement of a photograph part, and further, verification biometric using alternative photographs instead of actual biometric information. It is possible to prevent the replacement of information.

<用途>
各実施形態では、銀行口座を開設する場合を例に説明したが、本人確認書類を用いて本人確認処理を行う様々なシーンに適用することが可能である。
<Use>
In each embodiment, although the case where a bank account was opened was explained to an example, it is possible to apply to various scenes which perform a personal check processing using a personal check document.

<その他>
本実施形態で説明した照合システム100は、CPU、メモリ、ハードディスク等を備えたコンピュータで実現可能である。照合システム100としてコンピュータを機能させるための照合プログラム、その照合プログラムの記憶媒体を作成することも可能である。
<Others>
The collation system 100 described in the present embodiment can be realized by a computer provided with a CPU, a memory, a hard disk and the like. It is also possible to create a verification program for causing a computer to function as the verification system 100 and a storage medium for the verification program.

100…照合システム
1…端末装置
11…撮影部
12…表示部
13…すり替わり検知部
14…前フレーム記憶部
3…照合装置
31…文字情報認識部
32…照合部
33…照合先デジタル情報記憶部
34…照合結果記憶部
35…フォント情報記憶部
36…照合用画像生成部
37…画像直接照合部
38…学習用文字列デジタル情報記憶部
39…学習用画像生成部
40…OCR学習部
41…学習済OCRモデル記憶部
42…真偽判定部
43…照合元物理情報記憶部
44…生体情報真偽判定部
45…照合元生体情報記憶部
100 verification system 1 terminal device 11 photographing unit 12 display unit 13 substitution detection unit 14 front frame storage unit 3 verification device 31 character information recognition unit 32 verification unit 33 verification target digital information storage unit 34: collation result storage unit 35: font information storage unit 36: collation image generation unit 37: image direct collation unit 38: learning character string digital information storage unit 39: learning image generation unit 40: OCR learning unit 41: learning OCR model storage unit 42 ... authenticity determination unit 43 ... verification source physical information storage unit 44 ... biometric information authenticity determination unit 45 ... verification source biometric information storage unit

Claims (9)

予め入力された照合先の文字列を記憶しておく照合先デジタル情報記憶部と、
撮影中の照合元対象物の照合元画像から照合元の文字列を認識する文字情報認識部と、
前記照合元の文字列と前記照合先の文字列とを照合する照合部と、を備え、
前記文字情報認識部と前記照合部は、それぞれ、
時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする照合システム。
A collation destination digital information storage unit for storing a character string of a collation destination input in advance;
A character information recognition unit that recognizes a character string of a collation source from a collation source image of a collation source object being photographed;
And a collating unit that collates the character string of the collation source with the character string of the collation destination,
The character information recognition unit and the check unit are respectively
A verification system characterized by performing processing of said recognition and processing of said collation in multiple times in the background using a plurality of said collation original images which continue temporally.
前記照合部は、
前記照合の処理を続けて実行するとき、照合に失敗した部分のみを処理対象とする請求項1に記載の照合システム。
The collation unit
The collation system according to claim 1, wherein when the processing of the collation is continuously executed, only the part which fails in the collation is a processing target.
前記照合元対象物の移動量の大きさに基づき、前記照合元対象物のすり替わりを検知するすり替わり検知部を更に備えることを特徴とする請求項1又は2に記載の照合システム。   The collation system according to claim 1 or 2, further comprising a substitution detection unit that detects substitution of the collation source object based on the magnitude of the movement amount of the collation source object. 前記照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する画像生成部を更に備えることを特徴とする請求項1乃至3のいずれかに記載の照合システム。   The collation system according to any one of claims 1 to 3, further comprising an image generation unit that generates an image including a character of the same font as the font of the character displayed on the collation source object. 前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントであり前記照合先の文字列と同じ文字列を含む照合用画像を生成する照合用画像生成部であって、
前記照合元画像と前記照合用画像との画像類似度を算出する画像直接照合部を更に備えることを特徴とする請求項4に記載の照合システム。
The image generation unit is a collation image generation unit that generates a collation image including the same font as the font of the character displayed on the collation source object and including the same character string as the collation destination character string,
5. The collation system according to claim 4, further comprising an image direct collation unit which calculates an image similarity between the collation source image and the collation image.
前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する学習用画像生成部であって、
前記学習用画像を用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成するOCR学習部を更に備え、
前記文字情報認識部は、
前記学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識することを特徴とする請求項4に記載の照合システム。
The image generation unit is a learning image generation unit that generates a learning image including a plurality of learning character strings respectively displayed in a plurality of fonts including the same font as the font of the character displayed on the collation source object. There,
The image processing apparatus further comprises an OCR learning unit that generates a learning OCR model that uses an image for learning character string of each font to be recognized as the learning character string using the image for learning.
The character information recognition unit
5. The collation system according to claim 4, wherein the character string of the collation source is recognized from the collation source image using the learning OCR model.
前記照合元画像に含まれる前記照合元対象物の特徴が前記照合元対象物の備える特徴に一致するか否かに基づき、前記照合元対象物の真偽を判定する判定部を更に備えることを特徴とする請求項1乃至6のいずれかに記載の照合システム。   It further comprises a determination unit that determines the authenticity of the verification source object based on whether the feature of the verification source object included in the verification source image matches the feature of the verification source object. The collation system according to any one of claims 1 to 6, characterized in that: 照合システムで行う照合方法において、
予め入力された照合先の文字列を記憶しておく第1のステップと、
撮影中の照合元対象物の照合元画像から照合元の文字列を認識する第2のステップと、
前記照合元の文字列と前記照合先の文字列とを照合する第3のステップと、を行い、
前記第2のステップと前記第3のステップでは、それぞれ、
時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする照合方法。
In the collation method performed by the collation system,
A first step of storing a character string of a collation destination inputted in advance;
A second step of recognizing a character string of a collation source from a collation source image of a collation source object being photographed;
Performing a third step of collating the character string of the collation source with the character string of the collation destination;
In each of the second step and the third step,
A collation method comprising: executing a process of the recognition and the process of the collation a plurality of times in the background by using a plurality of temporally consecutive reference images.
請求項1乃至7のいずれかに記載の照合システムとしてコンピュータを機能させることを特徴とする照合プログラム。   A collation program which causes a computer to function as the collation system according to any one of claims 1 to 7.
JP2018220311A 2018-11-26 2018-11-26 Matching system, matching method and matching program Active JP6505937B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220311A JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220311A JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Publications (2)

Publication Number Publication Date
JP6505937B1 true JP6505937B1 (en) 2019-04-24
JP2020086922A JP2020086922A (en) 2020-06-04

Family

ID=66324209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220311A Active JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Country Status (1)

Country Link
JP (1) JP6505937B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201693A (en) * 2019-06-10 2020-12-17 沖電気工業株式会社 Information processor and program
JPWO2021010276A1 (en) * 2019-07-17 2021-01-21
JP2021096634A (en) * 2019-12-17 2021-06-24 株式会社日本総合研究所 Character processing system and program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6865797B2 (en) * 2019-08-09 2021-04-28 株式会社三井住友銀行 Authenticity judgment method, information processing device, and program
JP7508903B2 (en) 2020-07-07 2024-07-02 大日本印刷株式会社 Authenticity determination system, authenticity determination method, information processing device, and program
CN111914771A (en) * 2020-08-06 2020-11-10 长沙公信诚丰信息技术服务有限公司 Automatic certificate information comparison method and device, computer equipment and storage medium
JP7568945B2 (en) * 2022-09-05 2024-10-17 ダイキン工業株式会社 Information terminal, character recognition method, and character recognition program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355120A (en) * 2003-05-27 2004-12-16 Toshiba Corp Id card processor and id card processing system
JP5982844B2 (en) * 2012-02-06 2016-08-31 オムロン株式会社 Character reading program and character reading device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201693A (en) * 2019-06-10 2020-12-17 沖電気工業株式会社 Information processor and program
JP7318325B2 (en) 2019-06-10 2023-08-01 沖電気工業株式会社 Information processing device and program
JPWO2021010276A1 (en) * 2019-07-17 2021-01-21
JP7343585B2 (en) 2019-07-17 2023-09-12 富士フイルム富山化学株式会社 Identification support system, identification support client, identification support server, and identification support method
JP2021096634A (en) * 2019-12-17 2021-06-24 株式会社日本総合研究所 Character processing system and program

Also Published As

Publication number Publication date
JP2020086922A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6505937B1 (en) Matching system, matching method and matching program
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
US9946865B2 (en) Document authentication based on expected wear
JP5801601B2 (en) Image recognition apparatus, image recognition apparatus control method, and program
CN107844748A (en) Auth method, device, storage medium and computer equipment
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10783352B2 (en) Face recognition system and method thereof
JP2005056387A (en) Image processor, imaging apparatus and image processing method
JP2010182271A (en) Personal identification device, personal identification method, and personal identification program
JP6969663B2 (en) Devices and methods for identifying the user&#39;s imaging device
US11816923B2 (en) Face image candidate determination apparatus for authentication, face image candidate determination method for authentication, program, and recording medium
CN107729852A (en) Facial information register method, apparatus and system
US20210406351A1 (en) Non-face-to-face authentication system
WO2013181695A1 (en) Biometric verification
KR102215535B1 (en) Partial face image based identity authentication method using neural network and system for the method
CN113111880A (en) Certificate image correction method and device, electronic equipment and storage medium
KR102410588B1 (en) Device and method for detecting counterfeit indentification card
JP6664753B1 (en) Forgery determination system, forgery determination method, and forgery determination program
EP3975044B1 (en) System, program and method for verifying a target region in front and oblique document images
CN108256608A (en) A kind of two dimensional image code and its recognition methods and equipment
JP2018025966A (en) Image processing apparatus and image processing method
CN112395580A (en) Authentication method, device, system, storage medium and computer equipment
US20220414370A1 (en) Validating identification documents
KR102435581B1 (en) Attendance check system using face recognition and attendance check method using same
KR102301785B1 (en) Method and appauatus for face continuous authentication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190327

R150 Certificate of patent or registration of utility model

Ref document number: 6505937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250