JP2020086922A - Collation system, collation method, and collation program - Google Patents

Collation system, collation method, and collation program Download PDF

Info

Publication number
JP2020086922A
JP2020086922A JP2018220311A JP2018220311A JP2020086922A JP 2020086922 A JP2020086922 A JP 2020086922A JP 2018220311 A JP2018220311 A JP 2018220311A JP 2018220311 A JP2018220311 A JP 2018220311A JP 2020086922 A JP2020086922 A JP 2020086922A
Authority
JP
Japan
Prior art keywords
collation
unit
source
image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018220311A
Other languages
Japanese (ja)
Other versions
JP6505937B1 (en
Inventor
九月 貞光
Kugatsu Sadamitsu
九月 貞光
上野 貴史
Takashi Ueno
貴史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future Corp
Original Assignee
Future Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Future Corp filed Critical Future Corp
Priority to JP2018220311A priority Critical patent/JP6505937B1/en
Application granted granted Critical
Publication of JP6505937B1 publication Critical patent/JP6505937B1/en
Publication of JP2020086922A publication Critical patent/JP2020086922A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To improve a collation success rate in a person confirmation.SOLUTION: A collation system 100 comprises: a collation destination digital information storage unit 33 that stores collation destination digital information to be input in advance; a character information recognition unit 31 that recognizes a character string of a collation source from collation source image data of a collation source object during a photographing to obtain collation source text data; and a collation unit 32 that collates the collation destination digital information with the collation source text data. The character information recognition unit 31 and the collation unit 32 execute a process of the recognition and the collation multiple times in a background by using a plurality of collation source images which is continued in time-sequence.SELECTED DRAWING: Figure 1

Description

本発明は、事前に入力されたデジタル情報と現実空間におけるセンサ情報から得られた情報とを照合する技術に関する。 The present invention relates to a technique for collating digital information input in advance with information obtained from sensor information in a physical space.

従来、様々な方法で本人を確認する行為が行われている。例えば、銀行で口座を開設する場合、免許証等の本人確認書類を用いて本人確認が行われる。銀行口座を新規にオンラインで開設する際、新規顧客は、自身の個人情報(氏名、生年月日、住所等)をウェブページの入力フォームに入力して銀行管理下の照合装置へ送信する。また、同新規顧客は、その後の銀行からの本人確認要求に基づき、入力した個人情報の真実性を証明するため、個人情報が表示された免許証をスマートフォン端末等のカメラで撮影し、その画像を同照合装置へ送信する。 BACKGROUND ART Conventionally, an act of confirming an individual has been performed by various methods. For example, when opening an account at a bank, identity verification is performed using identity verification documents such as a license. When opening a new bank account online, the new customer enters his/her personal information (name, date of birth, address, etc.) in the input form on the web page and sends it to the matching device under bank control. In addition, the new customer, in order to prove the authenticity of the personal information entered based on the subsequent identity verification request from the bank, photographs the license with the personal information displayed with a camera such as a smartphone terminal, and the image is displayed. To the collation device.

その後、照合装置は、受信した免許証の画像から個人情報の文字列を認識(OCR)し、その個人情報の文字列と事前入力されていた個人情報の文字列とを照合(OCV)する。そして、照合の結果、2つの個人情報の文字列が互いに同一である場合に、本人が確認できたと判定し、口座開設の処理が開始される。 After that, the collation device recognizes (OCR) the character string of the personal information from the received image of the license, and collates (OCV) the character string of the personal information with the character string of the personal information previously input. Then, as a result of the collation, when the character strings of the two pieces of personal information are the same as each other, it is determined that the person has been confirmed, and the account opening process is started.

なお、OCR(Optical Character Recognition)とは、印刷物に印字された文字を読み取り、照合や制御の処理を行うために出力する光学文字認識技術である。また、OCV(Optical Character Verification)とは、印字されている文字と照合用の文字とを照合し、一致しているか否かを判定する光学文字照合技術である。例えば、特許文献1や非特許文献1に記載されている。 Note that OCR (Optical Character Recognition) is an optical character recognition technology for reading a character printed on a printed matter and outputting the character for collation and control processing. Further, OCV (Optical Character Verification) is an optical character matching technique that matches printed characters with matching characters to determine whether they match. For example, it is described in Patent Document 1 and Non-Patent Document 1.

米国特許9396404号US Patent 9396404

Nello Zuech、“Considerations in OCR/OCV Applications”、[online]、aia VISION ONLINE、GLOBAL ASSOCIATION FOR VISION INFORMATION、2000年5月10日、[平成30年10月18日検索]、インターネット、<https://www.visiononline.org/vision-resources-details.cfm/vision-resources/Considerations-in-OCR-OCV-Applications/content_id/1325>Nello Zuech, "Considerations in OCR/OCV Applications", [online], aia VISION ONLINE, GLOBAL ASSOCIATION FOR VISION INFORMATION, May 10, 2000, [Search October 18, 2018], Internet, <https:/ /www.visiononline.org/vision-resources-details.cfm/vision-resources/Considerations-in-OCR-OCV-Applications/content_id/1325> B. Lucas、外1名、“An iterative image registration technique with an application to stereo vision”、In Proc. Seventh International Conference on Artificial Intelligence、1981年、p.674- p.479B. Lucas, 1 person from outside, "An iterative image registration technique with an application to stereo vision", In Proc. Seventh International Conference on Artificial Intelligence, 1981, p.674-p.479 B. Horn、外1名、“Determining optical flow”、Artificial Intelligence、vol.17、1981年、p.185- p.203B. Horn, 1 person outside, “Determining optical flow”, Artificial Intelligence, vol.17, 1981, p.185-p.203 Florian Schroff、外2名、“A Unified Embedding for Face Recognition and Clustering”、[online]、arXiv org、GLOBAL ASSOCIATION FOR VISION INFORMATION、2015年3月12日、[平成30年10月18日検索]、インターネット、<https://arxiv.org/abs/1503.03832>Florian Schroff, 2 others, “A Unified Embedding for Face Recognition and Clustering”, [online], arXiv org, GLOBAL ASSOCIATION FOR VISION INFORMATION, March 12, 2015, [Search October 18, 2018], Internet , <https://arxiv.org/abs/1503.03832>

しかしながら、従来の照合装置では、複数の口座開設要求に対する応答性を高めることを重視し、OCRとOCVをそれぞれ1回ずつ実行していたため、照合精度が低いという第1の課題があった。例えば、OCRで文字認識に失敗すると、その後のOCVも同じく失敗してしまう可能性があった。 However, in the conventional collation device, the first problem is that the collation accuracy is low because the OCR and the OCV are executed once each time with an emphasis on improving the responsiveness to a plurality of account opening requests. For example, if the character recognition by the OCR fails, the OCV after that may also fail.

また、従来の照合装置では、字形のみに基づき画像から文字をOCRするため、OCRを行うOCR処理部にとって認識すべき画像内の文字フォントが未知のフォントである場合、文字認識率が著しく低下するという第2の課題もあった。 Further, in the conventional collating device, characters are OCR'd from the image based on only the glyphs. Therefore, when the character font in the image to be recognized by the OCR processing unit for OCR is an unknown font, the character recognition rate is significantly reduced. There was also the second issue.

さらに、従来の照合装置では、照合元の本人確認書類が真正であるか否かに関わらずOCVするため、照合元の本人確認書類が偽物である場合でも本人の真正性が確定してしまうという第3の課題もあった。 Further, in the conventional collation device, since the OCV is performed regardless of whether or not the identification document of the collation source is authentic, the authenticity of the person is confirmed even when the identification document of the collation source is a fake. There was also a third issue.

本発明は、上記事情を鑑みてなされたものであり、本人確認時において、照合成功率を改善することを第1の目的とし、文字認識率を改善することを第2の目的とし、本人確認書類の真偽性を確認可能にすることを第3の目的とする。 The present invention has been made in view of the above circumstances, and a first object is to improve the collation success rate and a second object is to improve the character recognition rate at the time of identity verification. The third purpose is to make it possible to confirm the authenticity of a document.

以上の課題を解決するため、本発明に係る照合システムは、予め入力された照合先の文字列を記憶しておく照合先デジタル情報記憶部と、撮影中の照合元対象物の照合元画像から照合元の文字列を認識する文字情報認識部と、前記照合元の文字列と前記照合先の文字列とを照合する照合部と、を備え、前記文字情報認識部と前記照合部は、それぞれ、時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする。 In order to solve the above problems, the collation system according to the present invention includes a collation destination digital information storage unit that stores a character string of a collation destination that is input in advance, and a collation source image of a collation source target being photographed. A character information recognition unit that recognizes a character string of a collation source, and a collation unit that collates the character string of the collation source and the character string of the collation destination, the character information recognition unit and the collation unit, respectively. The recognition process and the verification process are performed multiple times in the background by using a plurality of the verification source images that are temporally continuous.

上記照合システムにおいて、前記照合部は、前記照合の処理を続けて実行するとき、照合に失敗した部分のみを処理対象とする。 In the above collation system, when the collation unit continues to execute the collation process, only the part in which the collation fails is processed.

上記照合システムにおいて、前記照合元対象物の移動量の大きさに基づき、前記照合元対象物のすり替わりを検知するすり替わり検知部を更に備えることを特徴とする。 The collation system is characterized by further comprising a replacement detection unit that detects replacement of the verification source object based on the amount of movement of the verification source object.

上記照合システムにおいて、前記照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する画像生成部を更に備えることを特徴とする。 The collation system is characterized by further comprising an image generation unit that generates an image including a character having the same font as the character font displayed on the collation source object.

上記照合システムにおいて、前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントであり前記照合先の文字列と同じ文字列を含む照合用画像を生成する照合用画像生成部であって、前記照合元画像と前記照合用画像との画像類似度を算出する画像直接照合部を更に備えることを特徴とする。 In the above collation system, the image generation unit generates a collation image that generates a collation image including a font that is the same as the font of the characters displayed on the collation source object and that includes the same character string as the collation destination. The image direct collating unit that calculates the image similarity between the collation source image and the collation image is further included.

上記照合システムにおいて、前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する学習用画像生成部であって、前記学習用画像を用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成するOCR学習部を更に備え、前記文字情報認識部は、前記学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識することを特徴とする。 In the above collation system, the image generation unit is configured to perform learning for generating a learning image including a plurality of learning character strings displayed in a plurality of fonts including the same font as the character font displayed in the collation source object. And an OCR learning unit that generates a learning OCR model that learns by using the learning image to recognize an image of a learning character string of each font as the learning character string. Further, the character information recognition unit is characterized by recognizing a character string of a collation source from the collation source image using the learning OCR model.

上記照合システムにおいて、前記照合元画像に含まれる前記照合元対象物の特徴が前記照合元対象物の備える特徴に一致するか否かに基づき、前記照合元対象物の真偽を判定する判定部を更に備えることを特徴とする。 In the above matching system, a determination unit that determines the authenticity of the matching source target object based on whether or not the characteristics of the matching source target object included in the matching source image match the features included in the matching source target object. Is further provided.

本発明に係る照合方法は、照合システムで行う照合方法において、予め入力された照合先の文字列を記憶しておく第1のステップと、撮影中の照合元対象物の照合元画像から照合元の文字列を認識する第2のステップと、前記照合元の文字列と前記照合先の文字列とを照合する第3のステップと、を行い、前記第2のステップと前記第3のステップでは、それぞれ、時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする。 In the matching method according to the present invention, in the matching method performed by the matching system, a first step of storing a character string of a matching destination that is input in advance, and a matching source image from a matching source image of a matching source target being photographed. The second step of recognizing the character string of and the third step of matching the character string of the collation source with the character string of the collation destination are performed, and in the second step and the third step, , The recognition processing and the matching processing are executed a plurality of times in the background by using the plurality of matching source images that are temporally continuous.

本発明に係る照合プログラムは、上記照合システムとしてコンピュータを機能させることを特徴とする。 A verification program according to the present invention causes a computer to function as the verification system.

本発明によれば、本人確認時において、照合成功率を向上することができる。また、本人確認時において、文字認識率を向上することができる。また、本人確認時において、本人確認書類の真偽性を確認可能にすることができる。 According to the present invention, the verification success rate can be improved at the time of identity verification. In addition, the character recognition rate can be improved at the time of identity verification. Further, at the time of identity verification, it is possible to confirm the authenticity of the identity verification document.

第1の実施形態に係る照合システムの機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system which concerns on 1st Embodiment. 端末装置で行う照合処理動作の処理フローを示す図である。It is a figure which shows the process flow of the collation process operation performed in a terminal device. 照合元対象物の例を示す図である。It is a figure which shows the example of a matching object. 照合装置で行う照合処理動作の処理フローを示す図である。It is a figure which shows the processing flow of the collation processing operation performed with a collation apparatus. 入力フォーム画面及び照合先デジタル情報の例を示す図である。It is a figure which shows the example of an input form screen and collation destination digital information. 照合結果の表示例を示す図である。It is a figure which shows the example of a display of a collation result. 端末装置で行うすり替わり検知動作の処理フローを示す図である。It is a figure which shows the processing flow of the substitution detection operation performed in a terminal device. 第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system (direct collation form) which concerns on 2nd Embodiment. 照合装置で行う直接照合形態での処理フローを示す図である。It is a figure which shows the process flow in the direct collation form performed by a collation apparatus. 第2の実施形態に係る照合システム(事前学習形態)の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system (preliminary learning form) which concerns on 2nd Embodiment. 照合装置で行う事前学習形態での処理フローを示す図である。It is a figure which shows the processing flow in the prior learning form performed by a collation apparatus. 第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成(変形例)を示す図である。It is a figure which shows the functional block structure (modification) of the collation system (direct collation form) which concerns on 2nd Embodiment. 第3の実施形態に係る照合システムの機能ブロック構成を示す図である。It is a figure which shows the functional block structure of the collation system which concerns on 3rd Embodiment. 照合装置で行う真偽性判定の基本処理フローを示す図である。It is a figure which shows the basic process flow of authenticity determination performed with a collation apparatus. 照合装置で行う真偽性判定の変形例の処理フローを示す図である。It is a figure which shows the processing flow of the modification of the authenticity determination performed by a collation apparatus.

以下、本発明を実施する一実施の形態について図面を用いて説明する。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings.

<第1の実施形態>
第1の実施形態では、第1の課題を解決するため、本発明の第1の特徴として、OCRとOCVをバックグラウンドで複数回実行する。これにより、照合成功率を向上させる。また、毎回全ての領域(氏名、生年月日、住所等)を照合対象にしてしまうと、照合成功率が著しく下がるので、第1の特徴に関連する特徴として、照合が一度成功した領域はスキップし、失敗した領域又は未照合の領域に焦点を絞って照合する。この照合は、照合対象の領域が異なる場合に限らず、同じ領域内の部分に対しても適用する。更に、第1の特徴に関連する特徴として、撮影中の現実空間の現実物体が照合の途中で別の物体にすり替わることを検知する。
<First Embodiment>
In the first embodiment, in order to solve the first problem, as a first feature of the present invention, OCR and OCV are executed multiple times in the background. This improves the verification success rate. In addition, if all areas (name, date of birth, address, etc.) are targeted for verification each time, the verification success rate will decrease significantly. Therefore, as a characteristic related to the first characteristic, the area where verification is successful once is skipped. Then, the matching is focused on the failed area or the unmatched area. This collation is applied not only when the regions to be collated are different, but also to a portion within the same region. Further, as a feature related to the first feature, it is detected that the real object in the real space being photographed is replaced with another object during the matching.

(照合システムの構成)
図1は、第1の実施形態に係る照合システム100の機能ブロック構成を示す図である。照合システム100は、端末装置1と、照合装置3と、を備えて構成される。端末装置1と照合装置3は、通信ネットワーク5を介して相互通信可能に物理的かつ電気的に接続されている。
(Structure of collation system)
FIG. 1 is a diagram showing a functional block configuration of a matching system 100 according to the first embodiment. The matching system 100 includes a terminal device 1 and a matching device 3. The terminal device 1 and the matching device 3 are physically and electrically connected to each other via a communication network 5 so that they can communicate with each other.

(端末装置の構成)
まず、端末装置1の構成について説明する。端末装置1は、図1に示したように、撮影部11と、表示部12と、すり替わり検知部13と、前フレーム記憶部14と、を備えて構成される。端末装置1は、ローカル側のクライアント装置であり、例えば、カメラ機能及び通信機能が付属したスマートフォン端末、携帯電話端末、タブレット端末である。ウェブカメラが接続されたパソコン端末でもよい。
(Terminal device configuration)
First, the configuration of the terminal device 1 will be described. As shown in FIG. 1, the terminal device 1 is configured to include a photographing unit 11, a display unit 12, a switching detection unit 13, and a previous frame storage unit 14. The terminal device 1 is a client device on the local side, and is, for example, a smartphone terminal, a mobile phone terminal, or a tablet terminal having a camera function and a communication function. It may be a personal computer terminal to which a webcam is connected.

撮影部11は、光学カメラ等を用いて照合元対象物を撮影し、撮影中の照合元対象物の照合元画像データを比較的短い時間間隔(1秒等)で読み取り、照合元画像データを読み取る毎(1秒等)にすり替わり検知部13へ出力するとともに、照合元画像データを比較的長い時間間隔(6秒等)で照合装置3の文字情報認識部31へ出力する機能を備える。撮影部11は、例えば、スマートフォン端末に付属するカメラを用いて実現できる。照合元対象物とは、例えば、免許証、健康保険証等、個人情報(氏名、生年月日、住所等)が記録された本人確認書類である。 The image capturing unit 11 captures an image of the matching source object using an optical camera or the like, reads the matching source image data of the matching source object being photographed at relatively short time intervals (1 second, etc.), and reads the matching source image data. It has a function of outputting to the substitution detection unit 13 every time it is read (for example, 1 second), and outputting the collation source image data to the character information recognition unit 31 of the collation device 3 at a relatively long time interval (6 seconds or the like). The imaging unit 11 can be realized using, for example, a camera attached to a smartphone terminal. The verification source object is, for example, a personal identification document in which personal information (name, date of birth, address, etc.) such as a license, health insurance card, etc. is recorded.

表示部12は、撮影部11が撮影している照合元対象物の照合元画像データを参照可能に表示する機能を備える。例えば、スマートフォン端末の備える表示パネル及び表示機能を用いて実現できる。 The display unit 12 has a function of displaying collation source image data of the collation source target imaged by the image capturing unit 11 in a referenceable manner. For example, it can be realized using the display panel and the display function of the smartphone terminal.

すり替わり検知部13は、撮影中の照合元対象物の移動量の大きさに基づき、照合元対象物のすり替わりを検知する機能を備える。具体的には、すり替わり検知部13は、撮影部11から直前に出力された照合元画像データを前フレームとして前フレーム記憶部14に記憶し、すり替えが起こりえないタイムスパン(1秒等、照合元画像データを読み取る毎)において、撮影部11から次に出力された照合元画像データと前フレーム記憶部14の前フレームとを用いて照合元対象物のオプティカルフローを算出し、照合元対象物の移動距離を算出する。そして、照合元対象物の移動距離が閾値を超えた場合、照合元対象物のすり替えが生じたと判定し、アラート信号を表示部12に出力してアラート情報を表示させる。 The replacement detection unit 13 has a function of detecting the replacement of the reference source object based on the amount of movement of the reference source object during image capturing. Specifically, the switching detection unit 13 stores the collation source image data output immediately before from the image capturing unit 11 as a previous frame in the previous frame storage unit 14, and a time span in which switching cannot occur (for example, 1 second, Every time the collation source image data is read), the optical flow of the collation source object is calculated using the collation source image data output next from the imaging unit 11 and the previous frame of the previous frame storage unit 14, and the collation source object is calculated. Calculate the distance traveled by an object. Then, when the movement distance of the verification source object exceeds the threshold value, it is determined that the verification source object has been replaced, and an alert signal is output to the display unit 12 to display the alert information.

なお、オプティカルフローとは、異なる時間に撮影された2枚の画像間で対象物の移動量をベクトルデータとして表現する技術である。オプティカルフローの代表的な計算方法については、例えば、Lucas-Kanade法(非特許文献2)、Horn-Shunck法(非特許文献3)が存在する。 The optical flow is a technique for expressing the amount of movement of an object as vector data between two images captured at different times. As typical optical flow calculation methods, there are, for example, the Lucas-Kanade method (Non-Patent Document 2) and the Horn-Shunck method (Non-Patent Document 3).

前フレーム記憶部14は、すり替わり検知部13で次フレームの照合元画像データを用いてオプティカルフローを計算するために、前フレームの照合元画像データを記憶する機能を備える。 The previous frame storage unit 14 has a function of storing the comparison source image data of the previous frame in order for the substitution detection unit 13 to calculate the optical flow using the comparison source image data of the next frame.

(照合装置の構成)
次に、照合装置3の機能について説明する。照合装置3は、図1に示したように、文字情報認識部31と、照合部32と、照合先デジタル情報記憶部33と、照合結果記憶部34と、を備えて構成される。照合装置3は、例えば、サーバ装置であり、クラウド内に配置される。
(Structure of collating device)
Next, the function of the matching device 3 will be described. As shown in FIG. 1, the collation device 3 includes a character information recognition unit 31, a collation unit 32, a collation destination digital information storage unit 33, and a collation result storage unit 34. The matching device 3 is, for example, a server device and is arranged in the cloud.

文字情報認識部31は、端末装置1の撮影部11から照合元画像データを受け取る毎に、照合元画像データから照合元の文字列を認識する処理(OCR)を繰り返し実行し、照合部32へ出力する機能を備える。具体的には、文字情報認識部31は、端末装置1の撮影部11から比較的長い時間間隔(6秒等)で出力される照合元画像データをそれぞれ受け取り、照合元画像データを受け取る毎に、既存のOCR技術を用いて、受け取った照合元画像データをテキスト化して照合元テキストデータとして出力する。 The character information recognition unit 31 repeatedly executes the process (OCR) of recognizing the character string of the collation source from the collation source image data every time the collation source image data is received from the photographing unit 11 of the terminal device 1, and then the collation unit 32 is executed. It has a function to output. Specifically, the character information recognition unit 31 receives the collation source image data output from the image capturing unit 11 of the terminal device 1 at a relatively long time interval (6 seconds or the like), and each time the collation source image data is received. Using the existing OCR technology, the received collation source image data is converted into text and output as collation source text data.

また、文字情報認識部31は、照合元画像データからの文字の認識処理に時間を要する場合、その時間毎に次の照合元画像データを受け付けて文字の認識処理を継続する機能を備える。例えば、照合元画像データからの文字の認識処理に2秒かかる場合、2秒以上の間隔を置いて次の認識処理に移行する。 Further, the character information recognition unit 31 has a function of accepting the next collation source image data and continuing the character recognition process at each time when the character recognition process from the collation source image data requires time. For example, when the character recognition process from the matching source image data takes 2 seconds, the next recognition process is performed at intervals of 2 seconds or more.

なお、文字情報認識部31は、端末装置1に配置してもよい。 The character information recognition unit 31 may be arranged in the terminal device 1.

照合部32は、文字情報認識部31から照合元の文字列を受け取る毎に、照合元の文字列を、照合先デジタル情報記憶部33に記憶されている照合先の文字列と照合する処理(OCV)を繰り返し実行し、その照合結果を端末装置1の表示部12へ出力する機能を備える。具体的には、照合部32は、文字情報認識部31でテキスト化された照合元テキストデータと、照合先デジタル情報記憶部33の照合先テキスト情報(照合先の文字列。後述する。)と、を突合し、一致する領域を照合済箇所情報(照合OK)とし、一致しない領域又は未処理の領域を未照合箇所情報(照合NG又は未照合)とした照合結果を照合結果記憶部34に記憶する。 The collation unit 32 collates the collation source character string with the collation destination character string stored in the collation destination digital information storage unit 33 every time the collation source character string is received from the character information recognition unit 31 ( OCV) is repeatedly executed and the collation result is output to the display unit 12 of the terminal device 1. Specifically, the collation unit 32 includes the collation source text data converted into text by the character information recognition unit 31 and the collation destination text information (collation destination character string, which will be described later) in the collation destination digital information storage unit 33. , And the matching area is set as the matched location information (matching OK), and the unmatched area or the unprocessed area is set as the unmatched location information (matching NG or unmatched), and the matching result is stored in the matching result storage unit 34. To do.

また、照合部32は、照合の処理を続けて実行するとき、照合に失敗した部分又は未処理の部分のみを処理対象とする機能を備える。具体的には、照合部32は、照合結果記憶部34に記憶されているこれまでの照合結果を参照し、照合の処理を次に実行する場合、既に照合済箇所(照合OK)となっている領域は照合せずにスキップする。この照合は、照合対象の領域が異なる場合に限らず、同じ領域内の部分に対しても適用する。そして、全ての領域が照合済となった場合、「全て照合済」のシグナルを出力して処理を終了する。 In addition, the collation unit 32 has a function of targeting only a portion that has failed collation or an unprocessed portion when the collation processing is continuously executed. Specifically, the collation unit 32 refers to the past collation results stored in the collation result storage unit 34, and when the collation process is executed next, it is already a collated portion (collation OK). Existing areas are skipped without matching. This collation is applied not only when the regions to be collated are different, but also to a portion within the same region. Then, when all the areas have been verified, the signal of "all verified" is output and the processing is terminated.

照合先デジタル情報記憶部33は、ウェブページの入力フォームにキーボード等で入力され予め送信されていた照合先の文字列(文字コード列)を照合先デジタル情報として記憶しておく機能を備える。照合先デジタル情報とは、例えば、氏名、生年月日、住所等である。 The collation destination digital information storage unit 33 has a function of storing, as collation destination digital information, a collation destination character string (character code string) that has been input in advance on a web page input form using a keyboard or the like and transmitted in advance. The collation destination digital information is, for example, a name, a date of birth, an address, or the like.

照合結果記憶部34は、照合部32で照合の処理を行う毎に、各領域の照合結果を参照可能に記憶しておく機能を備える。照合部32が一領域内の部分に対して照合の処理を行った場合、照合結果記憶部34は、各部分についての照合結果を記憶する。 The collation result storage unit 34 has a function of storing the collation result of each area so that it can be referred to each time the collation unit 32 performs collation processing. When the matching unit 32 performs the matching process on the portion within one area, the matching result storage unit 34 stores the matching result for each portion.

(照合システムの動作)
(照合処理動作)
次に、図2〜図6を参照しながら、照合システム100で行う照合処理動作について説明する。この照合処理動作は、バックグラウンドで行われる。図2は、端末装置1で行う照合処理動作の処理フローを示す図である。図3は、照合元対象物の例を示す図である。図4は、照合装置3で行う照合処理動作の処理フローを示す図である。図5は、入力フォーム画面及び照合先デジタル情報の例を示す図である。図6は、照合結果の表示例を示す図である。
(Operation of collation system)
(Verification processing operation)
Next, the collation processing operation performed by the collation system 100 will be described with reference to FIGS. This collation processing operation is performed in the background. FIG. 2 is a diagram showing a processing flow of the collation processing operation performed by the terminal device 1. FIG. 3 is a diagram illustrating an example of the matching source target object. FIG. 4 is a diagram showing a processing flow of the matching processing operation performed by the matching device 3. FIG. 5 is a diagram showing an example of the input form screen and the collation destination digital information. FIG. 6 is a diagram showing a display example of the matching result.

後述する処理動作では、第2の実施形態以降も含め、銀行口座をオンラインで開設したい新規顧客が、照合元対象物として免許証を用いて、入力フォームに入力した自身の個人情報の真実性を証明する場合について説明する。同新規顧客は、銀行ホームページの入力フォーム(図5の上図)に氏名、生年月日、住所等の個人情報を入力し、銀行の管理する照合装置3へ予め送信しておく。そして、照合装置3は、その氏名等を照合先デジタル情報(図5の下図)として照合先デジタル情報記憶部33に記憶しておくものとする。なお、「照合先デジタル情報として」とする理由は、入力された氏名等はコンピュータである照合装置3が制御可能な文字コードであるからである。 In the processing operation described later, including the second and subsequent embodiments, a new customer who wants to open a bank account online confirms the authenticity of his/her personal information entered in the input form by using the license as the verification source object. The case of proof will be described. The new customer inputs personal information such as name, date of birth and address in the input form on the bank home page (upper part of FIG. 5) and sends it in advance to the matching device 3 managed by the bank. Then, the collation device 3 stores the name and the like in the collation destination digital information storage unit 33 as the collation destination digital information (lower diagram of FIG. 5). Note that the reason for "as the collation destination digital information" is that the input name or the like is a character code that can be controlled by the collation device 3 which is a computer.

(照合処理動作;端末装置の動作)
まず、図2を参照しながら、端末装置1の動作について説明する。
(Verification processing operation; operation of terminal device)
First, the operation of the terminal device 1 will be described with reference to FIG.

ステップS101;
上記新規顧客が、入力フォームに入力した氏名等が正しいことを証明するため、端末装置1で免許証(図3)を撮影開始すると、端末装置1の撮影部11は、その免許証の画像を照合元画像データとして1秒毎に読み取るとともに、表示部12は、その免許証の映像を表示する。なお、1秒は例であり、0.1秒等でもよい。
Step S101;
When the new customer starts photographing the license (FIG. 3) on the terminal device 1 in order to prove that the name or the like entered in the input form is correct, the photographing unit 11 of the terminal device 1 displays the image of the license. The display unit 12 displays the image of the license while reading the verification source image data every one second. Note that 1 second is an example, and may be 0.1 second or the like.

ステップS102;
次に、撮影部11は、照合元画像データを6秒毎に照合装置3の文字情報認識部31へ順次出力する。このとき、撮影部11は、照合元画像データを読み取る毎(1秒毎)にすり替わり検知部13へ順次出力するが、すり替わり検知部13の動作については後述する。なお、6秒は例であり、10秒等でもよい。
Step S102;
Next, the photographing unit 11 sequentially outputs the collation source image data to the character information recognition unit 31 of the collation device 3 every 6 seconds. At this time, the image capturing unit 11 sequentially outputs the collation source image data to the switching detection unit 13 every time the scanning is performed (every second). The operation of the switching detection unit 13 will be described later. Note that 6 seconds is an example, and may be 10 seconds or the like.

ステップS103;
最後に、表示部12は、照合装置3から照合結果を受信すると、その照合結果を撮影中の免許証の映像に重畳表示する(図6)。
Step S103;
Finally, when the display unit 12 receives the collation result from the collation device 3, the display unit 12 superimposes and displays the collation result on the image of the license being photographed (FIG. 6).

(照合処理動作;照合装置の動作)
次に、図4を参照しながら、照合装置3の動作について説明する。
(Verification process operation; operation of verification device)
Next, the operation of the matching device 3 will be described with reference to FIG.

ステップS201;
まず、照合装置3の文字情報認識部31が、端末装置1の撮影部11から照合元画像データを受信する。
Step S201;
First, the character information recognition unit 31 of the matching device 3 receives the matching source image data from the photographing unit 11 of the terminal device 1.

ステップS202;
次に、文字情報認識部31は、既存のOCR技術を用いて、受信した照合元画像データに含まれる画像文字をテキスト文字に変換(文字認識処理;OCR)することにより、照合元画像データをテキスト化した照合元テキストデータを生成する。その後、文字情報認識部31は、照合元テキストデータを照合部32に出力する。
Step S202;
Next, the character information recognition unit 31 converts the matching source image data by converting the image characters included in the received matching source image data into text characters (character recognition processing; OCR) using the existing OCR technology. The text data to be collated is generated. Then, the character information recognition unit 31 outputs the collation source text data to the collation unit 32.

なお、文字情報認識部31は、端末装置1から照合元画像データを受信する毎に、ステップS201とステップS202を繰り返し実行する。本例では、端末装置1から照合元画像データを6秒毎に受信するので、文字情報認識部31は、6秒毎に照合元テキストデータを照合部32に順次出力する。 The character information recognition unit 31 repeatedly executes step S201 and step S202 every time the collation source image data is received from the terminal device 1. In this example, since the collation source image data is received from the terminal device 1 every 6 seconds, the character information recognition unit 31 sequentially outputs the collation source text data to the collation unit 32 every 6 seconds.

ステップS203;
次に、照合部32は、文字情報認識部31から照合元テキストデータを受け取ると、照合先デジタル情報記憶部33から照合先デジタル情報(図5の下図)を読み出して、照合元テキストデータと照合先デジタル情報とを突合(文字照合処理;OCV)する。このとき、照合部32は、突合対象とする一領域全体を領域毎に突合することも可能であり、領域内の部分毎に突合することも可能である。例えば、住所を一領域とする場合、住所の全文字列(〇〇県○○市〇〇1丁目23番地)を突合してもよいし、住所に含まれる一部の文字列(〇〇県〇〇市)を突合してもよい。
Step S203;
Next, the collation unit 32, upon receiving the collation source text data from the character information recognition unit 31, reads out the collation destination digital information (lower figure in FIG. 5) from the collation destination digital information storage unit 33 and collates with the collation source text data. Collate with the previous digital information (character collation processing; OCV). At this time, the collation unit 32 can match the entire one area to be matched for each area, or can match for each part in the area. For example, when the address is defined as one area, all the character strings of the address (XX prefecture, XX city, 23rd address) may be matched, or a part of the character string included in the address (XX prefecture 〇 ○ City) may be abutted.

ステップS204;
その後、照合部32は、各領域を突合した照合結果を領域毎に端末装置1へ順次送信するとともに、その照合結果を照合結果記憶部34に記憶する。端末装置1は、ステップS103で説明した通り、照合装置3からの照合結果を撮影中の免許証の映像に重畳表示する(図6)。
Step S204;
After that, the matching unit 32 sequentially transmits the matching results obtained by matching the areas to the terminal device 1 for each area, and stores the matching results in the matching result storage unit 34. As described in step S103, the terminal device 1 superimposes and displays the matching result from the matching device 3 on the image of the license being photographed (FIG. 6).

図6の左側に、照合装置3の表示部12に表示される照合1回目の画面遷移の例を示す。まず、氏名を照合し、照合OKであったため、免許証画像の氏名欄に「照合OK」が重畳表示される。次に、生年月日を照合し、照合の処理に時間を要し、照合結果が得られなかったため、生年月日欄に「(未照合)」が重畳表示される。次に、住所を照合し、照合NGであったため、住所欄に「照合NG」が重畳表示される。なお、照合NGになる場合とは、例えば、ステップS202で照合元画像データからテキスト文字を正しく認識できなかった場合が考えられる。 On the left side of FIG. 6, an example of the first screen transition of the collation displayed on the display unit 12 of the collation device 3 is shown. First, the names are collated, and since the collation is OK, "collation OK" is superimposed and displayed in the name column of the license image. Next, the date of birth is collated, it takes time to perform the collation process, and the collation result is not obtained. Therefore, “(unmatched)” is superimposed and displayed in the date of birth column. Next, the address is collated, and since the collation is NG, "collation NG" is superimposed and displayed in the address column. It should be noted that the case of collation failure may be, for example, a case where a text character could not be correctly recognized from the collation source image data in step S202.

ステップS205;
次に、照合部32は、現在の照合回数を、照合回数の上限を示す閾値と比較し、現在の照合回数が閾値を超えた場合、処理を終了し、現在の照合回数が閾値を超えていない場合、ステップS206へ進む。
Step S205;
Next, the matching unit 32 compares the current matching count with a threshold value indicating the upper limit of the matching count. If the current matching count exceeds the threshold value, the process ends, and the current matching count exceeds the threshold value. If not, the process proceeds to step S206.

ステップS206,S207;
その後、照合部32は、照合結果記憶部34を参照し、照合NG又は未照合の領域があるか否かを判定する。照合NG又は未照合の領域がある場合、その領域を再照合するため、ステップS203へ戻り、照合部32は、2つ目の照合元テキストデータで照合先デジタル情報と突合する。このとき、照合部32は、照合OKの領域は照合せずにスキップし、照合NG又は未照合の領域のみを照合する。一方、照合NG又は未照合の領域がない場合、つまり、全ての領域が照合OKの場合、処理を終了する。
Steps S206, S207;
After that, the matching unit 32 refers to the matching result storage unit 34 and determines whether there is a matching NG or an unmatched region. If there is a collated NG or uncollated area, the collation unit 32 collates with the collated digital information in the second collation source text data in order to collate the area again. At this time, the collation unit 32 skips the region of collation OK without collating, and collates only the region of collation NG or the region not collated. On the other hand, if there is no matching NG or unmatched area, that is, if all areas are matching OK, the process ends.

図6の右側に、照合2回目の画面遷移の例を示す。照合OKであった氏名については照合の処理を行わず、照合1回目の照合結果を引き続き表示するに留め、生年月日から照合の処理が開始される。そして、生年月日を照合し、照合OKであったため、生年月日欄に「照合OK」が重畳表示される。次に、住所を照合し、照合OKであったため、住所欄に「照合OK」が重畳表示される。照合2回目で照合結果が照合OKに変わった理由は、照合1回目とは別の照合元テキストデータを用いたことにより、テキスト文字を正しく認識できていたことが考えられる。つまり、同一の免許証に対応する複数の照合元テキストデータを用いて照合の処理を繰り返し実行するので、照合成功率が向上することとなる。 On the right side of FIG. 6, an example of the screen transition for the second matching is shown. The collation processing is not performed on the name that has been collated OK, and only the collation result of the first collation is displayed, and the collation processing is started from the date of birth. Then, the date of birth is collated, and since the collation is OK, "collation OK" is superimposed and displayed in the date of birth column. Next, the address is collated, and since the collation is OK, "collation OK" is superimposed and displayed in the address column. The reason why the collation result changed to collation OK in the second collation is that the text characters could be correctly recognized by using the collation source text data different from that in the first collation. That is, since the collation process is repeatedly executed using a plurality of collation source text data corresponding to the same license, the collation success rate is improved.

(すり替わり検知動作)
次に、図7を参照しながら、照合元対象物のすり替わり検知動作について説明する。図7は、端末装置1で行うすり替わり検知動作の処理フローを示す図である。氏名に対して照合OKが表示された後に別の免許証にすり替えが行われると、存在しない氏名と住所の組み合わせが生成されてしまう。顧客に悪意がある場合、その組み合わせに対応する氏名と住所を入力フォームに入力しておくと照合されてしまい、本人を詐称することが可能となってしまう。そこで、本動作では、免許証のすり替えを防止し、照合者本人の詐称を防止する。なお、すり替わり検知動作は、端末装置1のみで行われる。
(Replacement detection operation)
Next, with reference to FIG. 7, the replacement detection operation of the reference source object will be described. FIG. 7 is a diagram showing a processing flow of the switching detection operation performed by the terminal device 1. If another driver's license is replaced after the verification OK is displayed for the name, a combination of the name and address that does not exist will be generated. If the customer has malicious intent, if the name and address corresponding to the combination are entered in the input form, they will be collated and the person can be misrepresented. Therefore, in this operation, the replacement of the license is prevented, and the false verification of the collator is prevented. The switching detection operation is performed only by the terminal device 1.

ステップS301;
まず、端末装置1で免許証を撮影開始すると、端末装置1の撮影部11は、その免許証の画像を照合元画像データとして1秒毎に読み取るとともに、読み取る毎(1秒毎)にすり替わり検知部13へ順次出力する。1秒は、免許証のすり替えが起こりえないと想定するタイムスパンの例である。
Step S301;
First, when the terminal device 1 starts photographing a license, the photographing unit 11 of the terminal device 1 reads an image of the license as collation source image data every one second, and switches every time it is read (every second). The data is sequentially output to the detection unit 13. One second is an example of a time span in which it is assumed that the license cannot be replaced.

ステップS302;
すり替わり検知部13は、撮影部11から直前に出力されていた照合元画像データを前フレームとして前フレーム記憶部14に記憶しておき、次に(1秒後に)出力された照合元画像データと前フレームとを用いて免許証のオプティカルフローを算出し、免許証の1秒間の移動距離を算出する。
Step S302;
The substitution detection unit 13 stores the collation source image data output immediately before from the image capturing unit 11 in the previous frame storage unit 14 as a previous frame, and then outputs the collation source image data (after 1 second). And the previous frame are used to calculate the optical flow of the license, and the moving distance of the license for one second is calculated.

ステップS303;
次に、すり替わり検知部13は、免許証の移動距離を、すり替えによる照合元対象物の位置の変動距離を示す閾値と比較し、免許証の移動距離が閾値を超えた場合、ステップS304へ進む。撮影時には手ぶれがあることを考慮し、当該閾値は2cm程度とすることが好ましい。一方、免許証の1秒間の移動距離が閾値を超えていない場合、処理を終了する。
Step S303;
Next, the substitution detection unit 13 compares the moving distance of the license with a threshold value that indicates the variation distance of the position of the verification source target object due to the changing operation, and if the moving distance of the license exceeds the threshold value, the process proceeds to step S304. move on. The threshold value is preferably about 2 cm in consideration of camera shake during shooting. On the other hand, if the one-second moving distance of the license does not exceed the threshold value, the process ends.

ステップS304;
最後に、すり替わり検知部13は、免許証の移動距離が閾値を超えた場合、免許証にすり替えが生じたと判定し、アラート信号を表示部12に出力してアラート情報を表示させる。このとき、すり替わり検知部13は、アラート信号を、表示部12の他、端末装置1の備えるスピーカに出力して音で警告してもよいし、照合装置3へ出力してもよい。
Step S304;
Finally, when the moving distance of the license exceeds the threshold value, the replacement detection unit 13 determines that the license has been replaced, and outputs an alert signal to the display unit 12 to display alert information. At this time, the substitution detection unit 13 may output the alert signal to the speaker included in the terminal device 1 in addition to the display unit 12 to warn with a sound, or may output to the collation device 3.

ステップS303又はステップS304の後、すり替わり検知部13は、撮影部11が照合元画像データを読み取る毎にステップS301〜ステップS304を繰り返し実行する。 After step S303 or step S304, the substitution detecting unit 13 repeatedly executes steps S301 to S304 each time the image capturing unit 11 reads the collation source image data.

(効果)
第1の実施形態によれば、照合システム100が、予め入力された照合先デジタル情報を記憶しておく照合先デジタル情報記憶部33と、撮影中の照合元対象物の照合元画像データから照合元の文字列を認識して照合元テキストデータとする文字情報認識部31と、照合先デジタル情報と照合元テキストデータとを照合する照合部32と、を備え、文字情報認識部31と照合部32は、それぞれ、時間的に連続する複数の照合元画像を用いて、認識の処理と照合の処理をバックグラウンドで複数回実行するので、照合成功率を向上することができる。
(effect)
According to the first embodiment, the collation system 100 collates from the collation destination digital information storage unit 33 that stores the collation destination digital information input in advance, and the collation source image data of the collation source target object that is being photographed. The character information recognition unit 31 for recognizing the original character string to obtain the collation source text data and the collation unit 32 for collating the collation destination digital information with the collation source text data are provided. 32 performs the recognition process and the matching process a plurality of times in the background by using a plurality of matching source images that are continuous in time, so that the matching success rate can be improved.

また、第1の実施形態によれば、照合部32は、照合の処理を続けて実行するとき、照合に失敗した部分又は未照合の部分のみを処理対象とするので、照合に成功していた部分については照合失敗又は未照合としないことから、照合成功率を更に向上することができる。 Further, according to the first embodiment, when the collation unit 32 continuously executes the collation process, only the part that has failed collation or the part that has not been collated is processed, so the collation is successful. Since the collation fails or the non-collation is not performed for the part, the collation success rate can be further improved.

また、第1の実施形態によれば、すり替わり検知部13が、照合元対象物の移動量の大きさに基づき、照合元対象物のすり替わりを検知するので、照合元対象物のすり替わりを確実に検知することができる。 Further, according to the first embodiment, since the replacement detection unit 13 detects the replacement of the verification source target object based on the amount of movement of the verification source target object, the replacement of the verification source target object is performed. Can be reliably detected.

<第2の実施形態>
第2の実施形態では、第2の課題を解決するため、本発明の第2の特徴として、現実空間の現実物体に即した文字フォント(書体)で照合先の文字を生成する。これにより、OCRとOCVの精度を向上させる。具体的には、2つの方法を用いる。
<Second Embodiment>
In the second embodiment, in order to solve the second problem, as a second feature of the present invention, a collation target character is generated with a character font (typeface) suitable for a physical object in the physical space. This improves the accuracy of OCR and OCV. Specifically, two methods are used.

1つ目は、照合先デジタル情報を、照合元対象物に表示されている文字フォントと同じ文字フォントで画像化した画像データを生成し、その画像データが照合元画像データと類似するか否かを判定する(直接照合形態)。 The first is to generate image data in which the collation target digital information is imaged in the same character font as the character font displayed on the collation source object, and whether the image data is similar to the collation source image data. Is determined (direct verification form).

2つ目は、事前に格納していた住所リスト等の学習文字列を、照合元対象物に表示されている文字フォントを含む複数の文字フォントで画像化した画像データを生成し、その画像データであれば当該画像データの学習文字列として認識するOCR学習を予め実行しておき、それにより生成していた学習済OCRモデルを用いてOCRを行う(事前学習形態)。 The second is to generate image data in which a learning character string such as an address list stored in advance is imaged with a plurality of character fonts including the character font displayed on the matching source object, and the image data is generated. In that case, OCR learning which is recognized as a learning character string of the image data is performed in advance, and OCR is performed using the learned OCR model generated by this (preliminary learning mode).

これにより、照合元対象物に表示されている文字が文字情報認識部31にとって未知のフォントであっても、頑健に照合を行うことを実現する。 As a result, even if the character displayed on the matching source target object is a font unknown to the character information recognition unit 31, it is possible to robustly perform matching.

(直接照合形態)
(照合システムの構成)
図8は、第2の実施形態に係る照合システム(直接照合形態)の機能ブロック構成を示す図である。端末装置1は、撮影部11と、表示部12と、を備えて構成される。照合装置3は、照合先デジタル情報記憶部33と、フォント情報記憶部35と、照合用画像生成部36と、画像直接照合部37と、を備えて構成される。以下、照合装置3の各機能部(35〜37)について説明する。端末装置1の各機能部(11,12)は、第1の実施形態と同様の機能を備えるため、その説明を省略する。
(Direct verification form)
(Structure of collation system)
FIG. 8 is a diagram showing a functional block configuration of a verification system (direct verification mode) according to the second embodiment. The terminal device 1 is configured to include a photographing unit 11 and a display unit 12. The collation device 3 includes a collation destination digital information storage unit 33, a font information storage unit 35, a collation image generation unit 36, and an image direct collation unit 37. Hereinafter, each functional unit (35 to 37) of the matching device 3 will be described. Each functional unit (11, 12) of the terminal device 1 has the same function as that of the first embodiment, and thus the description thereof is omitted.

フォント情報記憶部35は、文字のフォント情報を読み出し可能に記憶しておく機能を備える。フォント情報とは、例えば、明朝体、ゴシック体等である。 The font information storage unit 35 has a function of readablely storing character font information. The font information is, for example, Mincho typeface, Gothic typeface, or the like.

照合用画像生成部36は、照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する機能を備える。具体的には、照合用画像生成部36は、照合元対象物に表示された文字のフォントと同じフォントであり照合先の文字列と同じ文字列を含む照合用画像データを生成する。例えば、照合元対象物に表示された「東京都」という文字列が「明朝体」であれば、照合先デジタル情報として入力されている「東京都」という文字列を「明朝体」の「東京都」の画像として出力する。 The collation image generation unit 36 has a function of generating an image including characters of the same font as the character font displayed on the collation source object. Specifically, the matching image generation unit 36 generates matching image data that has the same font as the font of the character displayed on the matching source object and includes the same character string as the matching destination character string. For example, if the character string "Tokyo" displayed in the verification source object is "Mincho", the character string "Tokyo" input as the verification target digital information is changed to "Mincho". Output as an image of "Tokyo".

画像直接照合部37は、照合元画像データと、照合用画像データ(照合先デジタル情報をフォント情報に応じて生成した画像データ)と、の画像類似度を算出する機能を備える。具体的には、画像直接照合部37は、照合元画像データと照合用画像データの画像類似度を推定計算し、類似・非類似を判定して、その判定結果を端末装置1の表示部12に出力する。なお、画像類似度を求める方法は、任意であり、例えば、深層学習に基づくtriplet loss(非特許文献4)を用いた類似画像検索方式、深層学習を用いずに行うAverage Hash法等が存在する。 The image direct matching unit 37 has a function of calculating the image similarity between the matching source image data and the matching image data (image data generated by matching target digital information according to font information). Specifically, the image direct matching unit 37 estimates and calculates the image similarity between the matching source image data and the matching image data, determines similarity/dissimilarity, and outputs the determination result to the display unit 12 of the terminal device 1. Output to. The method of obtaining the image similarity is arbitrary, and for example, there is a similar image search method using triplet loss (Non-Patent Document 4) based on deep learning, and an Average Hash method performed without using deep learning. ..

(照合システムの動作)
図9は、照合装置3で行う直接照合形態での処理フローを示す図である。第1の実施形態では、照合部32が文字列同士を照合する方法について説明したが、ここでは、画像直接照合部37が照合の処理を画像同士で行う。
(Operation of collation system)
FIG. 9 is a diagram showing a processing flow in the direct matching mode performed by the matching device 3. In the first embodiment, the method in which the matching unit 32 matches character strings has been described, but here, the image direct matching unit 37 performs the matching process between images.

ステップS401;
まず、照合用画像生成部36は、照合先デジタル情報記憶部33から照合先デジタル情報(入力フォームに入力された氏名等)を取得し、フォント情報記憶部35のフォント情報を参照して、免許証に表示されている文字のフォントと同じフォントに変換して画像化した照合用画像データを生成する。例えば、免許証の文字フォントが明朝体の場合、入力フォームに入力された氏名等を明朝体に変換して画像化した照合用画像データを生成する。なお、免許証の文字のフォントの判別方法は、例えば、入力フォームで免許証の文字フォントを指定する方法、免許証を撮影したときにフォント種別を検出する方法等が考えられる。
Step S401;
First, the collation image generation unit 36 obtains the collation destination digital information (name, etc. entered in the input form) from the collation destination digital information storage unit 33, refers to the font information in the font information storage unit 35, and obtains the license. The image data for collation is converted into the same font as the font of the characters displayed on the certificate to generate the image data for collation. For example, when the character font of the license is Mincho type, the name and the like input in the input form are converted into Mincho type to generate image data for collation. It should be noted that as a method of discriminating the font of characters of the license, for example, a method of designating the character font of the license on the input form, a method of detecting the font type when the license is photographed, or the like can be considered.

ステップS402;
次に、画像直接照合部37は、端末装置1の撮影部11から照合元画像データを受信すると、受信した照合元画像データと、ステップS401で生成した照合用画像データとの画像類似度を計算し、類似・非類似を判定する。例えば、2つの画像データの画像類似度を計算した結果、類似度が閾値以上の場合、類似していると判定して照合OKとする。一方、類似度が同閾値に満たない場合、非類似と判定して照合NGとする。
Step S402;
Next, when the image direct matching unit 37 receives the matching source image data from the photographing unit 11 of the terminal device 1, the image direct matching unit 37 calculates the image similarity between the received matching source image data and the matching image data generated in step S401. Then, the similarity/dissimilarity is determined. For example, as a result of calculating the image similarity between two image data, if the similarity is equal to or more than the threshold value, it is determined that they are similar and the collation is OK. On the other hand, when the degree of similarity is less than the threshold value, it is determined that they are not similar to each other, and the collation is NG.

ステップS403;
最後に、画像直接照合部37は、ステップS402の照合結果を端末装置1へ送信する。端末装置1は、第1の実施形態で説明した通り、照合装置3からの照合結果を撮影中の免許証の映像に重畳表示する。
Step S403;
Finally, the image direct matching unit 37 transmits the matching result of step S402 to the terminal device 1. As described in the first embodiment, the terminal device 1 superimposes and displays the matching result from the matching device 3 on the image of the license being photographed.

(事前学習形態)
(照合システムの構成)
次に、事前学習形態について説明する。図10は、第2の実施形態に係る照合システム(事前学習形態)の機能ブロック構成を示す図である。端末装置1は、撮影部11と、表示部12と、を備えて構成される。照合装置3は、第1の実施形態で説明した構成に加えて、フォント情報記憶部35と、学習用文字列デジタル情報記憶部38と、学習用画像生成部39と、OCR学習部40と、学習済OCRモデル記憶部41と、を備えて構成される。以下、照合装置3の各機能部(35,38〜41)について説明する。端末装置1の各機能部(11,12)は、第1の実施形態と同様の機能を備えるため、その説明を省略する。
(Pre-learning form)
(Structure of collation system)
Next, the pre-learning mode will be described. FIG. 10 is a diagram showing a functional block configuration of a matching system (preliminary learning mode) according to the second embodiment. The terminal device 1 is configured to include a photographing unit 11 and a display unit 12. The collation device 3 has a font information storage unit 35, a learning character string digital information storage unit 38, a learning image generation unit 39, an OCR learning unit 40, in addition to the configuration described in the first embodiment. And a learned OCR model storage unit 41. Hereinafter, each functional unit (35, 38 to 41) of the matching device 3 will be described. Each functional unit (11, 12) of the terminal device 1 has the same function as that of the first embodiment, and thus the description thereof is omitted.

フォント情報記憶部35は、文字のフォント情報を読み出し可能に記憶しておく機能を備える。フォント情報とは、例えば、明朝体、ゴシック体等である。 The font information storage unit 35 has a function of readablely storing character font information. The font information is, for example, Mincho typeface, Gothic typeface, or the like.

学習用文字列デジタル情報記憶部38は、OCR学習用として収集していた任意の学習用文字列を学習用文字列デジタル情報として読み出し可能に記憶しておく機能を備える。学習用文字列デジタル情報とは、例えば、日本太郎等の氏名リスト、東京都千代田区等の住所リスト、2000年1月1日等の生年月日リスト等であり、氏名、住所、生年月日等として用いられる可能性の高い既知の情報である。 The learning character string digital information storage unit 38 has a function of readablely storing any learning character string collected for OCR learning as learning character string digital information. The learning character string digital information is, for example, a list of names such as Taro Nippon, a list of addresses such as Chiyoda-ku, Tokyo, a list of dates of birth such as January 1, 2000, and the like. Name, address, date of birth. It is known information that is likely to be used as such.

学習用画像生成部39は、照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する機能を備える。具体的には、学習用画像生成部39は、上記任意の学習用文字列を複数のフォントで画像表示した学習用画像データを生成する。例えば、学習用文字列デジタル情報に含まれる住所リストの文字列を「明朝体」に変換し、「明朝体」の住所リストの画像として出力する。 The learning image generation unit 39 has a function of generating a learning image including a plurality of learning character strings displayed in a plurality of fonts including the same font as that of the character displayed on the matching source object. Specifically, the learning image generation unit 39 generates learning image data in which the arbitrary learning character string is image-displayed in a plurality of fonts. For example, the character string of the address list included in the learning character string digital information is converted into “Mincho type” and output as an image of the address list of “Ming type”.

OCR学習部40は、学習用画像データを用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成する機能を備える。例えば、「明朝体」の住所リストの画像から当該住所リストの文字列を認識するように学習する学習用OCRモデルを生成する。 The OCR learning unit 40 has a function of using the learning image data to generate a learning OCR model for learning so as to recognize an image of a learning character string of each font as the learning character string. For example, a learning OCR model for learning to recognize the character string of the address list from the image of the address list of "Ming-cho" is generated.

学習済OCRモデル記憶部41は、OCR学習部40により生成された学習用OCRモデルを読み出し可能に記憶する機能を備える。 The learned OCR model storage unit 41 has a function of readablely storing the learning OCR model generated by the OCR learning unit 40.

(照合システムの動作)
図11は、照合装置3で行う事前学習形態での処理フローを示す図である。第1の実施形態では、OCRする際、照合元対象物に表示された文字の字形のみに基づきOCRする方法について説明したが、ここでは、照合元対象物に表示された文字のフォント(書体)を文字認識時のキー情報に用いてOCRする。
(Operation of collation system)
FIG. 11 is a diagram showing a processing flow in the pre-learning mode performed by the matching device 3. In the first embodiment, the method of performing OCR based on only the glyphs of the characters displayed on the collation source object when performing OCR has been described. Here, the font (typeface) of the characters displayed on the collation source object is described. Is used as key information for character recognition to perform OCR.

ステップS501;
まず、学習用画像生成部39は、学習用文字列デジタル情報記憶部38から学習用文字列デジタル情報を取得し、フォント情報記憶部35のフォント情報と同じフォントに変換した学習用画像データを生成する。例えば、フォント情報に明朝体がある場合、明朝体フォントに基づく氏名リストの学習用画像データを各氏名についてそれぞれ生成する。住所リスト、生年月日リスト等についても同様に生成する。より詳しくは、例えば、「田中」「佐藤」が氏名リストに含まれ、フォント情報が「明朝体」「ブロック体」である場合、明朝体の「田中」の画像、ブロック体の「田中」の画像、明朝体の「佐藤」の画像、ブロック体の「佐藤」の画像を生成して出力する。なお、フォント情報は、入力フォームで免許証のフォントと同じ種別のフォントを指定する方法、任意のフォントを指定しておく方法等が考えられる。
Step S501;
First, the learning image generation unit 39 acquires learning character string digital information from the learning character string digital information storage unit 38, and generates learning image data in which the font information stored in the font information storage unit 35 is converted to the same font. To do. For example, when the font information includes Mincho font, learning image data of the name list based on the Mincho font is generated for each name. The address list and the date of birth list are also generated in the same manner. More specifically, for example, when “Tanaka” and “Sato” are included in the name list and the font information is “Mincho type” and “Block type”, the image of “Tanaka” of the Mincho type and “Tanaka of the block type” Image, the image of Mincho type "Sato", and the image of block type "Sato" are generated and output. As the font information, a method of designating a font of the same type as the font of the license on the input form, a method of designating an arbitrary font, and the like can be considered.

ステップS502;
次に、OCR学習部40は、ステップS501で生成した学習用画像データを用いて、各フォントの学習用文字列の画像であれば当該学習用文字列とそれぞれ認識(決定・変換)する学習を行い、その学習結果を学習用OCRモデルとして生成して学習済OCRモデル記憶部41に記憶する。例えば、明朝体の「田中」の画像であれば「田中」の文字列を認識し、ブロック体の「田中」の画像についても「田中」の文字列を認識する学習用OCRモデルを生成する。
Step S502;
Next, the OCR learning unit 40 uses the learning image data generated in step S501 to perform learning for recognizing (determining/converting) the learning character string of each font as an image of the learning character string. The learning result is generated as a learning OCR model and stored in the learned OCR model storage unit 41. For example, a learning OCR model that recognizes the character string “Tanaka” in the case of the image of “Tanaka” in the Mincho type, and also recognizes the character string of “Tanaka” in the image of the block type “Tanaka” is generated. ..

なお、照合装置3は、全ての学習用文字列及び全てのフォントについて、ステップS501とステップS502を事前に実行(事前学習)しておく。 The matching device 3 previously executes (preliminary learning) steps S501 and S502 for all learning character strings and all fonts.

ステップS503;
その後、文字情報認識部31は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる所定フォントの氏名、生年月日、住所等の各画像について、学習済OCRモデルに含まれる複数の画像のうち同じフォントの氏名、生年月日、住所等の画像をそれぞれ特定し、特定した各画像に対応する学習用文字列をそれぞれ特定することにより、受信した照合元画像データから文字列を認識(OCR)する。例えば、照合元画像データに明朝体の「田中」が表示されている場合、学習済OCRモデルより、「田中」の文字列が特定される。これにより、文字情報認識部31は、照合元画像データに含まれる画像文字をテキスト文字に変換する。
Step S503;
After that, when the character information recognition unit 31 receives the collation source image data from the image capturing unit 11 of the terminal device 1, the character information recognition unit 31 has learned about each image such as the name, the date of birth, and the address of the predetermined font included in the collation source image data. By identifying the images of the same font, such as name, date of birth, and address, among the plurality of images included in the OCR model, and by identifying the learning character strings corresponding to the identified images, respectively, the received collation source is identified. A character string is recognized (OCR) from image data. For example, when the Mincho type "Tanaka" is displayed in the collation source image data, the character string "Tanaka" is specified from the learned OCR model. As a result, the character information recognition unit 31 converts the image character included in the matching source image data into a text character.

ステップS504;
以降、ステップS202に記載した後段の処理(照合元テキストデータを照合部32に出力する処理)〜ステップS207で説明した処理を実行する。
Step S504;
After that, the subsequent process described in step S202 (the process of outputting the collation source text data to the collation unit 32) to the process described in step S207 are executed.

(効果)
第2の実施形態によれば、照合用画像生成部36が、照合元対象物に表示された文字のフォントと同じフォントであり照合先デジタル情報と同じ文字列を含む照合用画像データを生成し、画像直接照合部37が、その照合用画像データを用いて照合元画像データとの画像類似度を算出するので、照合元対象物に表示されている文字が未知のフォントであっても、頑健に照合を行うことができ、文字認識率を向上することができる。
(effect)
According to the second embodiment, the collation image generation unit 36 generates collation image data that has the same font as the font of the character displayed on the collation source object and includes the same character string as the collation destination digital information. Since the image direct matching unit 37 uses the matching image data to calculate the image similarity with the matching source image data, even if the characters displayed on the matching source target object are unknown fonts, they are robust. The character recognition rate can be improved.

また、第2の実施形態によれば、学習用画像生成部39が、照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像データを生成し、OCR学習部が、その学習用画像データを用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成し、文字情報認識部31が、学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識するので、照合元対象物に表示されている文字が未知のフォントであっても、頑健に照合を行うことができ、文字認識率を向上することができる。 In addition, according to the second embodiment, the learning image generation unit 39 includes a plurality of learning character strings that are displayed in a plurality of fonts including the same font as the character font displayed in the matching source object. An OCR model for learning that generates learning image data and uses the learning image data to learn so that the images of the learning character strings of each font are recognized as the learning character strings, respectively. Since the character information recognition unit 31 recognizes the character string of the matching source from the matching source image using the learning OCR model, even if the character displayed on the matching source object is an unknown font. It is possible to robustly collate and improve the character recognition rate.

なお、直接照合形態と事前学習形態は、それぞれ第1の実施形態に組み合わせることも可能である。例えば、図12に例示するように、図8に示した直接照合形態に対して、端末装置1にすり替わり検知部13と前フレーム記憶部14を追加して照合元対象物のすり替わり検知を行うようにしてもよい。 The direct matching form and the pre-learning form can be combined with the first embodiment. For example, as illustrated in FIG. 12, in addition to the direct verification form shown in FIG. 8, a replacement detection unit 13 and a previous frame storage unit 14 are added to the terminal device 1 to detect the replacement of the verification source object. You may do it.

<第3の実施形態>
第3の実施形態では、第3の課題を解決するため、本発明の第3の特徴として、3次元的に現実物体をセンシングし、本来あるべき現実物体との物理的乖離がないかを確認することにより、現実物体の真偽性を判断する。
<Third Embodiment>
In the third embodiment, in order to solve the third problem, as a third feature of the present invention, a physical object is sensed three-dimensionally, and it is confirmed whether or not there is a physical discrepancy between the physical object and the actual physical object. By doing so, the authenticity of the physical object is determined.

(照合システムの構成)
図13は、第3の実施形態に係る照合システムの機能ブロック構成を示す図である。端末装置1の構成は、第1の実施形態と同じである。照合装置3は、第1の実施形態で説明した構成に加えて、真偽判定部42と、照合元物理情報記憶部43と、生体情報真偽判定部44と、照合元生体情報記憶部45と、を備えて構成される。なお、第3の実施形態は、第2の実施形態と組み合わせることも可能である。
(Structure of collation system)
FIG. 13 is a diagram showing a functional block configuration of the matching system according to the third embodiment. The configuration of the terminal device 1 is the same as that of the first embodiment. In addition to the configuration described in the first embodiment, the matching device 3 includes an authenticity determination unit 42, a verification source physical information storage unit 43, a biometric information authenticity determination unit 44, and a verification source biometric information storage unit 45. , And are configured. The third embodiment can be combined with the second embodiment.

真偽判定部42は、照合元画像データに含まれる照合元対象物の特徴が照合元対象物の備える特徴に一致するか否かに基づき、照合元対象物の真偽を判定する機能を備える。具体的には、真偽判定部42は、照合元物体の物理的特徴が、手本となる物体の物理的特徴に一致している場合、照合元対象物が本物であることを示す真の判定結果を出力し、一致しない場合、照合元対象物が偽物であることを示す偽の判定結果を出力する。 The authenticity determination unit 42 has a function of determining the authenticity of the verification source object based on whether the characteristics of the verification source object included in the verification source image data match the features of the verification source object. .. Specifically, when the physical characteristics of the matching source object match the physical characteristics of the object serving as the model, the authenticity determining unit 42 determines whether the matching source target object is true. The determination result is output, and if they do not match, a false determination result indicating that the verification source target object is a counterfeit product is output.

照合元物理情報記憶部43は、照合元対象物の備える本来の物理的特徴に関する情報を照合元物理情報として参照可能に記憶しておく機能を備える。照合元物理情報とは、例えば、免許証の形状、大きさ、厚さ、表示情報の内容、色等である。 The collation source physical information storage unit 43 has a function of storing, as reference source physical information, information about the original physical characteristics of the collation source target object so that the physical information can be referred to. The verification source physical information is, for example, the shape, size, thickness of the license, the content of the display information, the color, or the like.

生体情報真偽判定部44は、照合元画像データに含まれる照合元対象物の特徴が照合元対象物の備える特徴に一致するか否かに基づき、照合元対象物の真偽を判定する機能を備える。具体的には、生体情報真偽判定部44は、照合元物体の生体的特徴が、手本となる物体の生体的特徴に一致している場合、照合元対象物が本物であることを示す真の判定結果を出力し、一致しない場合、照合元対象物が偽物であることを示す偽の判定結果を出力する。 The biometric information authenticity determination unit 44 determines the authenticity of the verification source object based on whether the characteristics of the verification source object included in the verification source image data match the features of the verification source object. Equipped with. Specifically, the biometric information authenticity determination unit 44 indicates that the verification source target object is a genuine product when the biometric characteristics of the verification source object match the biometric characteristics of the model object. A true determination result is output, and if they do not match, a false determination result indicating that the verification source target object is a counterfeit product is output.

照合元生体情報記憶部45は、照合元対象物の備える本来の生体的特徴に関する情報を照合元生体情報として参照可能に記憶しておく機能を備える。照合元生体情報とは、例えば、顔、指紋等に関する顔の輪郭、指紋形状等である。 The verification source biometric information storage unit 45 has a function of storing information related to the original biological characteristics of the verification source target object as the verification source biometric information so as to be referred to. The verification source biometric information is, for example, a face, a contour of a face related to a fingerprint, a fingerprint shape, or the like.

(照合システムの動作)
(基本動作)
まず、図14を参照しながら、真偽性判断の基本動作について説明する。図14は、照合装置3で行う真偽性判定の基本処理フローを示す図である。ここでは、入力フォームに入力した情報の他に、照合元対象物の物理的特徴を元に真偽性を判定する。
(Operation of collation system)
(basic action)
First, the basic operation of authenticity determination will be described with reference to FIG. FIG. 14 is a diagram showing a basic processing flow of authenticity determination performed by the collation device 3. Here, the authenticity is determined based on the physical characteristics of the matching source object in addition to the information input in the input form.

ステップS601;
まず、真偽判定部42は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる免許証等の物理的特徴を算出する。例えば、免許証の場合、免許証の外観形状に対し、免許証内に表示されている黒線枠の位置、写真の配置等の位置的関係を算出する。照合元対象物が3次元形状である場合、複数の角度から連続的に撮影した照合元画像データを用いて3次元的な物理的特徴を算出する。例えば、免許証のようにカード状の場合、表面や裏面の物理的特徴に加えて、厚み方向の3次元的特徴(高さ等)も算出する。
Step S601;
First, when the authenticity determination unit 42 receives the collation source image data from the image capturing unit 11 of the terminal device 1, the authenticity determination unit 42 calculates physical characteristics such as a license included in the collation source image data. For example, in the case of a license, the positional relationship such as the position of the black line frame displayed in the license and the arrangement of photographs is calculated with respect to the external shape of the license. When the matching source object has a three-dimensional shape, three-dimensional physical characteristics are calculated using the matching source image data continuously captured from a plurality of angles. For example, in the case of a card like a license, three-dimensional characteristics (height etc.) in the thickness direction are calculated in addition to the physical characteristics of the front surface and the back surface.

ステップS602;
次に、真偽判定部42は、照合元物理情報記憶部43から照合元物理特徴である免許証の備える本来の物理的特徴に関する情報を取得し、照合元画像データから得た免許証等の物理的特徴が、照合元物理特徴に一致するか否かを判定する。
Step S602;
Next, the authenticity determination unit 42 acquires information on the original physical characteristics of the license, which is the physical characteristic of the verification source, from the verification physical information storage unit 43, and obtains information such as the license obtained from the verification source image data. It is determined whether the physical feature matches the reference physical feature.

物理的特徴の一致・不一対を判定する方法としては、事前に人手で定める特徴量を求めておき、撮影した物理的特徴との一致を求める方法が考えられる。例えば、カード状の物体の場合、左上頂点から右に1cm、下に0.5cmの箇所から、黒い直線が縦と横に走るという特徴等を、本来の物理的特徴として用いる。その他、CNN(Convolutional Neural Network)等の深層学習を用いて自動的に本来の物理的特徴を発見して算出し、その上で類似度を求める手段の両方が考えられる。いずれの方法を用いてもよい。 As a method for determining the coincidence/mismatch of the physical features, there is a method of obtaining a feature amount manually determined in advance and obtaining a match with the photographed physical features. For example, in the case of a card-shaped object, a characteristic that a black straight line runs vertically and horizontally from a point 1 cm to the right and 0.5 cm below the upper left apex is used as the original physical characteristic. In addition, both means for automatically discovering and calculating the original physical features by using deep learning such as CNN (Convolutional Neural Network) and then obtaining the similarity can be considered. Either method may be used.

ステップS603;
最後に、真偽判定部42は、ステップS602の真偽判定結果を端末装置1へ送信する。例えば、真偽判定部42は、互いの物理的特徴が不一致、又は類似度が閾値より低い場合、撮影中の免許証は偽物であることを示す偽の判定結果を送信する。
Step S603;
Finally, the authenticity determination unit 42 transmits the authenticity determination result of step S602 to the terminal device 1. For example, the true/false determination unit 42 transmits a false determination result indicating that the license being photographed is a fake one when the physical features of the two do not match or the similarity is lower than the threshold value.

(基本動作の変形例)
次に、図15を参照しながら、真偽性を判断の動作(変形例)について説明する。図15は、照合装置3で行う真偽性判定の変形例の処理フローを示す図である。ここでは、入力フォームに入力した情報の他に、照合元対象物の生体的特徴を元に真偽性を判定する。
(Modification of basic operation)
Next, with reference to FIG. 15, an operation (modification) of determining authenticity will be described. FIG. 15 is a diagram illustrating a processing flow of a modified example of the authenticity determination performed by the matching device 3. Here, the authenticity is determined based on the biometric characteristics of the matching source object in addition to the information input in the input form.

ステップS701;
まず、生体情報真偽判定部44は、端末装置1の撮影部11から照合元画像データを受信すると、照合元画像データに含まれる免許証の写真から本人の顔の特徴を算出する。例えば、生体情報真偽判定部44は、目の位置、鼻の位置、顔の形状等を算出する。
Step S701;
First, when the biometric information authenticity determination unit 44 receives the collation source image data from the imaging unit 11 of the terminal device 1, the biometric information authenticity determination unit 44 calculates the facial features of the person from the photograph of the license included in the collation source image data. For example, the biometric information authenticity determination unit 44 calculates eye positions, nose positions, face shapes, and the like.

ステップS702;
次に、生体情報真偽判定部44は、照合元生体情報記憶部45から照合元生体情報である本人の生体的特徴に関する情報を取得し、照合元画像データから得た本人の生体的特徴が、照合元生体情報に一致するか否かを判定する。生体的特徴が一致しているか否かを判定する方法については、例えば、非特許文献3等に記載された方法を用いる。照合元生体情報は、3次元形状であることを考慮し、複数角度から連続的に撮影した画像を用いて予め算出しておく。
Step S702;
Next, the biometric information authenticity determination unit 44 acquires information on the biometric characteristics of the person, which is the verification source biometric information, from the verification source biometric information storage unit 45, and determines the biometric characteristics of the person obtained from the verification source image data. , It is determined whether or not it matches the biometric information of the verification source. The method described in Non-Patent Document 3 or the like is used as a method for determining whether or not the biological characteristics match. The verification source biometric information is calculated in advance by using images captured continuously from a plurality of angles in consideration of having a three-dimensional shape.

(効果)
第3の実施形態によれば、真偽判定部42が、照合元画像データに含まれる照合元対象物の物理的特徴が照合元対象物の本来備える物理的特徴に一致するか否かに基づき、照合元対象物の真偽を判定するので、照合元対象物の真偽を確実に判定できる。特に、3次元的な物理的特徴を用いるので、例えば、免許証のコピーが用いられている場合は偽として判定できる。
(effect)
According to the third embodiment, the authenticity determination unit 42 determines whether the physical characteristics of the matching source object included in the matching source image data match the physical characteristics of the matching source object. Since the authenticity of the verification source object is determined, the authenticity of the verification source object can be reliably determined. In particular, since a three-dimensional physical characteristic is used, it can be determined as false if, for example, a copy of the license is used.

また、第3の実施形態によれば、生体情報真偽判定部44が、照合元画像データに含まれる照合元対象物に含まれる生体的特徴が本人の生体的特徴に一致するか否かに基づき、照合元対象物の真偽を判定するので、写真部分の入れ替え等、照合元対象物の真偽を確実に判定でき、更に実際の生体情報ではなく代わりの写真等を用いた照合元生体情報のすり替えを防止できる。 Further, according to the third embodiment, the biometric information authenticity determination unit 44 determines whether the biometric characteristics included in the verification source target object included in the verification source image data match the biometric characteristics of the person. Based on this, since the authenticity of the verification source object is determined, it is possible to reliably determine the authenticity of the verification source object such as replacement of the photograph part. Furthermore, the verification source biological object using a substitute photo instead of the actual biometric information. It is possible to prevent the replacement of information.

<用途>
各実施形態では、銀行口座を開設する場合を例に説明したが、本人確認書類を用いて本人確認処理を行う様々なシーンに適用することが可能である。
<Use>
In each of the embodiments, the case of opening a bank account has been described as an example, but the invention can be applied to various scenes in which identity verification processing is performed using identity verification documents.

<その他>
本実施形態で説明した照合システム100は、CPU、メモリ、ハードディスク等を備えたコンピュータで実現可能である。照合システム100としてコンピュータを機能させるための照合プログラム、その照合プログラムの記憶媒体を作成することも可能である。
<Other>
The matching system 100 described in the present embodiment can be realized by a computer including a CPU, a memory, a hard disk, and the like. It is also possible to create a collation program for causing a computer to function as the collation system 100 and a storage medium for the collation program.

100…照合システム
1…端末装置
11…撮影部
12…表示部
13…すり替わり検知部
14…前フレーム記憶部
3…照合装置
31…文字情報認識部
32…照合部
33…照合先デジタル情報記憶部
34…照合結果記憶部
35…フォント情報記憶部
36…照合用画像生成部
37…画像直接照合部
38…学習用文字列デジタル情報記憶部
39…学習用画像生成部
40…OCR学習部
41…学習済OCRモデル記憶部
42…真偽判定部
43…照合元物理情報記憶部
44…生体情報真偽判定部
45…照合元生体情報記憶部
100... Collation system 1... Terminal device 11... Imaging unit 12... Display unit 13... Switching detection unit 14... Previous frame storage unit 3... Collation device 31... Character information recognition unit 32... Collation unit 33... Collation destination digital information storage unit 34... Collation result storage unit 35... Font information storage unit 36... Collation image generation unit 37... Image direct collation unit 38... Learning character string digital information storage unit 39... Learning image generation unit 40... OCR learning unit 41... Learning Completed OCR model storage unit 42... Authenticity determination unit 43... Collation source physical information storage unit 44... Biometric information truth determination unit 45... Collation source biometric information storage unit

Claims (9)

予め入力された照合先の文字列を記憶しておく照合先デジタル情報記憶部と、
撮影中の照合元対象物の照合元画像から照合元の文字列を認識する文字情報認識部と、
前記照合元の文字列と前記照合先の文字列とを照合する照合部と、を備え、
前記文字情報認識部と前記照合部は、それぞれ、
時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする照合システム。
A collation destination digital information storage unit for storing a pre-input collation destination character string;
A character information recognition unit that recognizes a character string of a matching source from a matching source image of a matching source target being photographed,
A collating unit that collates the character string of the collation source and the character string of the collation destination,
The character information recognition unit and the collation unit,
A collation system, characterized in that the recognition process and the collation process are executed a plurality of times in the background using a plurality of collation source images that are temporally consecutive.
前記照合部は、
前記照合の処理を続けて実行するとき、照合に失敗した部分のみを処理対象とする請求項1に記載の照合システム。
The collating unit,
The collation system according to claim 1, wherein when the collation process is continuously executed, only a portion in which the collation fails is processed.
前記照合元対象物の移動量の大きさに基づき、前記照合元対象物のすり替わりを検知するすり替わり検知部を更に備えることを特徴とする請求項1又は2に記載の照合システム。 The collation system according to claim 1, further comprising: a replacement detection unit that detects replacement of the verification source object based on the amount of movement of the verification source object. 前記照合元対象物に表示された文字のフォントと同じフォントの文字を含む画像を生成する画像生成部を更に備えることを特徴とする請求項1乃至3のいずれかに記載の照合システム。 The collation system according to any one of claims 1 to 3, further comprising an image generation unit that generates an image including a character of the same font as the character font displayed on the collation source object. 前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントであり前記照合先の文字列と同じ文字列を含む照合用画像を生成する照合用画像生成部であって、
前記照合元画像と前記照合用画像との画像類似度を算出する画像直接照合部を更に備えることを特徴とする請求項4に記載の照合システム。
The image generating unit is a collation image generating unit that generates a collation image including the same character string as the collation destination character string in the same font as the character displayed on the collation source object,
The collation system according to claim 4, further comprising an image direct collation unit that calculates an image similarity between the collation source image and the collation image.
前記画像生成部は、前記照合元対象物に表示された文字のフォントと同じフォントを含む複数のフォントでそれぞれ表示した複数の学習用文字列を含む学習用画像を生成する学習用画像生成部であって、
前記学習用画像を用いて、各フォントの学習用文字列の画像を当該学習用文字列としてそれぞれ認識するように学習する学習用OCRモデルを生成するOCR学習部を更に備え、
前記文字情報認識部は、
前記学習用OCRモデルを用いて前記照合元画像から照合元の文字列を認識することを特徴とする請求項4に記載の照合システム。
The image generation unit is a learning image generation unit that generates a learning image including a plurality of learning character strings displayed in a plurality of fonts including the same font as the font of the character displayed in the matching source object. There
An OCR learning unit is further provided for generating a learning OCR model for learning by using the learning image to recognize an image of a learning character string of each font as the learning character string.
The character information recognition unit,
The collation system according to claim 4, wherein a character string of a collation source is recognized from the collation source image using the learning OCR model.
前記照合元画像に含まれる前記照合元対象物の特徴が前記照合元対象物の備える特徴に一致するか否かに基づき、前記照合元対象物の真偽を判定する判定部を更に備えることを特徴とする請求項1乃至6のいずれかに記載の照合システム。 Further comprising a determination unit that determines the authenticity of the matching source object based on whether or not the characteristics of the matching source object included in the matching source image match the characteristics of the matching source object. The collation system according to any one of claims 1 to 6, which is characterized in that: 照合システムで行う照合方法において、
予め入力された照合先の文字列を記憶しておく第1のステップと、
撮影中の照合元対象物の照合元画像から照合元の文字列を認識する第2のステップと、
前記照合元の文字列と前記照合先の文字列とを照合する第3のステップと、を行い、
前記第2のステップと前記第3のステップでは、それぞれ、
時間的に連続する複数の前記照合元画像を用いて、前記認識の処理と前記照合の処理をバックグラウンドで複数回実行することを特徴とする照合方法。
In the verification method performed by the verification system,
A first step of storing a character string of a collation destination input in advance;
A second step of recognizing the character string of the matching source from the matching source image of the matching source object being photographed,
Performing a third step of collating the collation source character string with the collation destination character string,
In the second step and the third step, respectively,
A collation method comprising performing the recognition process and the collation process multiple times in the background using a plurality of collation source images that are temporally continuous.
請求項1乃至7のいずれかに記載の照合システムとしてコンピュータを機能させることを特徴とする照合プログラム。 A collation program causing a computer to function as the collation system according to any one of claims 1 to 7.
JP2018220311A 2018-11-26 2018-11-26 Matching system, matching method and matching program Active JP6505937B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220311A JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220311A JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Publications (2)

Publication Number Publication Date
JP6505937B1 JP6505937B1 (en) 2019-04-24
JP2020086922A true JP2020086922A (en) 2020-06-04

Family

ID=66324209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220311A Active JP6505937B1 (en) 2018-11-26 2018-11-26 Matching system, matching method and matching program

Country Status (1)

Country Link
JP (1) JP6505937B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914771A (en) * 2020-08-06 2020-11-10 长沙公信诚丰信息技术服务有限公司 Automatic certificate information comparison method and device, computer equipment and storage medium
JP2021028756A (en) * 2019-08-09 2021-02-25 株式会社三井住友銀行 Authenticity determination method, information processing device, and program
WO2024053411A1 (en) * 2022-09-05 2024-03-14 ダイキン工業株式会社 Information terminal, character recognition method, and character recognition program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7318325B2 (en) * 2019-06-10 2023-08-01 沖電気工業株式会社 Information processing device and program
JP7343585B2 (en) * 2019-07-17 2023-09-12 富士フイルム富山化学株式会社 Identification support system, identification support client, identification support server, and identification support method
JP6845911B1 (en) * 2019-12-17 2021-03-24 株式会社日本総合研究所 Character processing system and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355120A (en) * 2003-05-27 2004-12-16 Toshiba Corp Id card processor and id card processing system
JP2013161277A (en) * 2012-02-06 2013-08-19 Omron Corp Program for reading character and character reading device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355120A (en) * 2003-05-27 2004-12-16 Toshiba Corp Id card processor and id card processing system
JP2013161277A (en) * 2012-02-06 2013-08-19 Omron Corp Program for reading character and character reading device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021028756A (en) * 2019-08-09 2021-02-25 株式会社三井住友銀行 Authenticity determination method, information processing device, and program
CN111914771A (en) * 2020-08-06 2020-11-10 长沙公信诚丰信息技术服务有限公司 Automatic certificate information comparison method and device, computer equipment and storage medium
WO2024053411A1 (en) * 2022-09-05 2024-03-14 ダイキン工業株式会社 Information terminal, character recognition method, and character recognition program

Also Published As

Publication number Publication date
JP6505937B1 (en) 2019-04-24

Similar Documents

Publication Publication Date Title
JP6505937B1 (en) Matching system, matching method and matching program
US11669607B2 (en) ID verification with a mobile device
US9946865B2 (en) Document authentication based on expected wear
CN106778525B (en) Identity authentication method and device
US11023757B2 (en) Method and apparatus with liveness verification
WO2019075840A1 (en) Identity verification method and apparatus, storage medium and computer device
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10783352B2 (en) Face recognition system and method thereof
US20230252120A1 (en) Method and apparatus with selective combined authentication
JP2008117333A (en) Information processor, information processing method, individual identification device, dictionary data generating and updating method in individual identification device and dictionary data generating and updating program
JP2005056387A (en) Image processor, imaging apparatus and image processing method
JP2010182271A (en) Personal identification device, personal identification method, and personal identification program
US11238271B2 (en) Detecting artificial facial images using facial landmarks
WO2019200872A1 (en) Authentication method and apparatus, and electronic device, computer program, and storage medium
US20210406351A1 (en) Non-face-to-face authentication system
WO2013181695A1 (en) Biometric verification
CN111737671A (en) Electronic certificate based business handling method, government self-service terminal and storage medium
CN109089102A (en) A kind of robotic article method for identifying and classifying and system based on binocular vision
EP3975044B1 (en) System, program and method for verifying a target region in front and oblique document images
KR102410588B1 (en) Device and method for detecting counterfeit indentification card
JPWO2020185948A5 (en)
KR102386918B1 (en) Device and method for authenticating mobile user based on Artificial Intelligence
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
TWI634486B (en) Identity authentication apparatus, identity authentication method, and computer-readable storage medium thereof
CN114782853A (en) Video data processing method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190327

R150 Certificate of patent or registration of utility model

Ref document number: 6505937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250