JP7068710B2 - Information processing equipment, information processing method, information processing program - Google Patents

Information processing equipment, information processing method, information processing program Download PDF

Info

Publication number
JP7068710B2
JP7068710B2 JP2019101047A JP2019101047A JP7068710B2 JP 7068710 B2 JP7068710 B2 JP 7068710B2 JP 2019101047 A JP2019101047 A JP 2019101047A JP 2019101047 A JP2019101047 A JP 2019101047A JP 7068710 B2 JP7068710 B2 JP 7068710B2
Authority
JP
Japan
Prior art keywords
identity verification
unit
imaging
data
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019101047A
Other languages
Japanese (ja)
Other versions
JP2020095670A (en
Inventor
正三 中島
Original Assignee
株式会社ダブルスタンダード
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=67212105&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP7068710(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 株式会社ダブルスタンダード filed Critical 株式会社ダブルスタンダード
Publication of JP2020095670A publication Critical patent/JP2020095670A/en
Application granted granted Critical
Publication of JP7068710B2 publication Critical patent/JP7068710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
The present invention relates to an information processing apparatus, an information processing method and an information processing program .

本人確認方法として、従来から顔写真を利用した認証装置が知られている。従来の認証装置には、この顔写真による「なりすまし」を防ぐため、本人認証を行う際に、記憶部に記憶された複数のフレーズから1つのフレーズをランダムに選択し、当該選択されたフレーズを表示装置に出力してユーザに発音させ、ユーザを撮像した撮像データを用いてユーザの口の動き及びユーザが発声した音声の音声データを解析し、ユーザがフレーズを発声しているのかどうかを判定することで本人認証を行うことが提案されている(例えば、特許文献1参照)。 As an identity verification method, an authentication device using a face photograph has been conventionally known. In the conventional authentication device, in order to prevent "spoofing" by this facial photograph, one phrase is randomly selected from a plurality of phrases stored in the storage unit when performing personal authentication, and the selected phrase is selected. It is output to the display device and made to be pronounced by the user, and the movement of the user's mouth and the voice data of the voice uttered by the user are analyzed using the imaged data obtained by imaging the user to determine whether or not the user is uttering a phrase. It has been proposed to authenticate the person by doing so (see, for example, Patent Document 1).

特開2011-215942号公報Japanese Unexamined Patent Publication No. 2011-215942

特許文献1に開示される認証方法では、ユーザの口の動き及びユーザが発声した音声の音声データを解析することでユーザがフレーズを発声しているか否かを判定するため、なりすましを防止できるとしている。しかしながら、本人確認の信頼性において更なる向上の余地がある。 In the authentication method disclosed in Patent Document 1, spoofing can be prevented because it is determined whether or not the user is uttering a phrase by analyzing the movement of the user's mouth and the voice data of the voice uttered by the user. There is. However, there is room for further improvement in the reliability of identity verification.

本発明は、上記課題を鑑みてなされたものであり、信頼性の高い本人確認を行うことのできる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device, an information processing method, and an information processing program capable of performing highly reliable identity verification.

上記の課題を解決すべく、本発明の情報処理装置は、本人確認書類の画像データを取得する情報処理装置であって、撮像位置の異なる本人確認書類撮像用の画面データが複数格納された記憶部を参照し、前記撮像位置の異なる本人確認書類撮像用の画面データのいずれで前記本人確認書類を撮像させるかを抽選する撮像位置抽選部と、前記撮像位置抽選部で抽選された位置で前記本人確認書類を撮像するように指示する撮像方法指示部と、前記撮像方法指示部による指示に基づいて撮像された前記本人確認書類の撮像データを取得する撮像データ取得部と、 を備える
In order to solve the above problems, the information processing device of the present invention is an information processing device that acquires image data of an identity verification document, and is a storage in which a plurality of screen data for imaging an identity verification document having different imaging positions are stored. The image pickup position lottery section for drawing the image of the identity verification document using the screen data for capturing the identity verification document having a different image pickup position, and the position drawn by the image pickup position lottery section. It is provided with an image pickup method instruction unit for instructing to image an identity verification document, and an image pickup data acquisition unit for acquiring image pickup data of the identity verification document imaged based on an instruction by the image pickup method instruction unit .

本発明によれば、信頼性の高い本人確認を行うことのできる情報処理装置、情報処理方法及び情報処理プログラムを提供することができる。 According to the present invention, it is possible to provide an information processing device, an information processing method, and an information processing program capable of performing highly reliable identity verification.

第1実施形態に係る認証システム1の概略構成図である。It is a schematic block diagram of the authentication system 1 which concerns on 1st Embodiment. 第1実施形態に係るユーザ端末2の構成及び機能ブロック図である。It is a configuration and function block diagram of the user terminal 2 which concerns on 1st Embodiment. 第1実施形態に係る認証サーバ3の構成及び機能ブロック図である。It is a configuration and function block diagram of the authentication server 3 which concerns on 1st Embodiment. 第1実施形態に係る認証サーバ3の第1乃至第4判定部の動作を説明する図である。It is a figure explaining the operation of the 1st to 4th determination part of the authentication server 3 which concerns on 1st Embodiment. 第1実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart which shows the process of the authentication system which concerns on 1st Embodiment (imaging process). 第1実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart which shows the process of the authentication system which concerns on 1st Embodiment (authentication process). 第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。It is a functional block diagram of the user terminal 2 and the authentication server 3 which concerns on 2nd Embodiment. 第2実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart which shows the process of the authentication system which concerns on 2nd Embodiment (imaging process). 第2実施形態に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart which shows the process of the authentication system which concerns on 2nd Embodiment (authentication process). 第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。It is a flowchart which shows the process of the authentication system which concerns on modification 2 of 2nd Embodiment (authentication process). 第3実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。It is a functional block diagram of the user terminal 2 and the authentication server 3 which concerns on 3rd Embodiment. 第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display device 200D of the user terminal 2 which concerns on 3rd Embodiment. 第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。It is a flowchart which shows the process of the authentication system which concerns on 3rd Embodiment (imaging process).

以下、図面を参照して本発明の各実施形態を説明する。なお、本人確認に利用する顔写真付きの本人確認書類としては、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類を利用することができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition to the driver's license, various identity verification documents such as a passport (passport), basic resident register card (with a photo), and residence card should be used as identity verification documents with a face photo to be used for identity verification. Can be done.

[第1実施形態]
初めに、図1を参照して認証システム1の構成について説明する。認証システム1は、ユーザ端末2及び認証サーバ3を備える。ユーザ端末2及び認証サーバ3は、ネットワーク4を介して接続された構成を有する。なお、認証システム1が具備するユーザ端末2及び認証サーバ3の数は任意である。また、ネットワーク4は、ユーザ端末2及び認証サーバ3が通信できればよくどのような通信網で構成されていてもかまわない。
[First Embodiment]
First, the configuration of the authentication system 1 will be described with reference to FIG. The authentication system 1 includes a user terminal 2 and an authentication server 3. The user terminal 2 and the authentication server 3 have a configuration connected via the network 4. The number of the user terminal 2 and the authentication server 3 included in the authentication system 1 is arbitrary. Further, the network 4 may be configured by any communication network as long as the user terminal 2 and the authentication server 3 can communicate with each other.

(ユーザ端末2)
ユーザ端末2は、ユーザU(例えば、本人確認の認証を行いたいユーザ)が利用する端末(例えば、スマートフォン、タブレット型PC(Personal Computer)、デスクトップ型PC,ノート型PCなど)である。ユーザUは、ユーザ端末2を利用して、本人確認の認証を行う。
(User terminal 2)
The user terminal 2 is a terminal (for example, a smartphone, a tablet PC (Personal Computer), a desktop PC, a notebook PC, etc.) used by the user U (for example, a user who wants to authenticate the identity). The user U uses the user terminal 2 to authenticate the identity verification.

図2(a)は、ユーザ端末2のハード構成図、図2(b)は、ユーザ端末2の機能ブロック図である。図2(a)に示すように、ユーザ端末2は、通信IF200A、記憶装置200B、入力装置200C、表示装置200D、撮像装置200E、音声出力装置200F及びCPU200Gがバス200Hを介して接続された構成を備える。 FIG. 2A is a hardware configuration diagram of the user terminal 2, and FIG. 2B is a functional block diagram of the user terminal 2. As shown in FIG. 2A, the user terminal 2 has a configuration in which a communication IF 200A, a storage device 200B, an input device 200C, a display device 200D, an image pickup device 200E, a voice output device 200F, and a CPU 200G are connected via a bus 200H. To prepare for.

通信IF200Aは、認証サーバ3と通信するためのインターフェースである。 The communication IF 200A is an interface for communicating with the authentication server 3.

記憶装置200Bは、例えば、HDDや半導体記憶装置である。記憶装置200Bには、認証プログラム(アプリケーションソフトウェア)が記憶されている。また、記憶装置200Bには、後述する動作指示部208において利用される複数の動作を指示するためのテキストデータ及び音声データが動作IDに関連付けて記憶されたデータベースが記憶されている。 The storage device 200B is, for example, an HDD or a semiconductor storage device. An authentication program (application software) is stored in the storage device 200B. Further, the storage device 200B stores a database in which text data and voice data for instructing a plurality of operations used in the operation instruction unit 208, which will be described later, are stored in association with the operation ID.

データベースには、種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。例えば、「両まぶたを3秒間閉じてください」、「左まぶたを3秒間閉じてください」、「右まぶたを3秒間閉じてください」、「口を大きく開けてください」、「画面に合わせて顔を動かしてください」、「大きくうなずいてください」、「ゆっくりと「あ・お・う・え・お」と発音してください」、「舌を出してください」などのテキストデータ及び音声データが動作IDに関連付けて記憶されている。 Text data and voice data of various operations are stored in the database in association with the operation ID. For example, "Please close both eyelids for 3 seconds", "Please close the left eyelid for 3 seconds", "Please close the right eyelid for 3 seconds", "Open your mouth wide", "Face to fit the screen" Text data and voice data such as "Please move", "Please nod loudly", "Slowly pronounce" A, O, U, E, O "", "Please stick out your tongue" are working. It is stored in association with the ID.

以下、表1に上記データベースの一例を示す。表1に示すように種々の動作のテキストデータ及び音声データが動作IDに関連付けて記憶されている。

Figure 0007068710000001
Table 1 below shows an example of the above database. As shown in Table 1, text data and voice data of various operations are stored in association with the operation ID.
Figure 0007068710000001

第1実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して動作の指示を行うが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して動作の指示を行うようにしてもよい。 In the first embodiment, the operation is instructed to the user U by displaying the text data on the display device 200D and outputting the voice data from the voice output device 200F, but the text data on the display device 200D. The operation may be instructed to the user U by either the display of the above or the output of the above-mentioned voice data from the voice output device 200F.

入力装置200Cは、例えば、タッチパネル、キーボード、マウスなどであり、ユーザUは、入力装置200Cを操作して、本人確認の認証を行うことができる。 The input device 200C is, for example, a touch panel, a keyboard, a mouse, or the like, and the user U can operate the input device 200C to authenticate the identity verification.

表示装置200Dは、例えば、液晶モニタや有機ELモニタなどである。表示装置200Dは、第1実施形態に係る認証システム1の利用に必要な画面を表示する。 The display device 200D is, for example, a liquid crystal monitor, an organic EL monitor, or the like. The display device 200D displays a screen necessary for using the authentication system 1 according to the first embodiment.

撮像装置200Eは、例えば、CCD(電荷結合素子)イメージセンサやCMOS(相補型MOS)イメージセンサ等の個体撮像素子を備えたカメラである。ユーザUは、撮像装置200Eを利用して本人確認書類の動画(以下、第1撮像データともいう)及びユーザUの自撮り動画(以下、第2撮像データともいう)を撮像する。なお、本人確認書類についても動画を撮像させることで、ネット等から取得した本人確認書類の画像等でないことを確認することができ本人確認の信頼性を向上することができる。 The image pickup device 200E is a camera provided with an individual image pickup device such as a CCD (charge-coupled device) image sensor or a CMOS (complementary MOS) image sensor, for example. The user U uses the image pickup device 200E to capture a moving image of the identity verification document (hereinafter, also referred to as first imaging data) and a self-portrait moving image of the user U (hereinafter, also referred to as second imaging data). By capturing a moving image of the identity verification document, it is possible to confirm that the image is not an image of the identity verification document acquired from the Internet or the like, and the reliability of the identity verification can be improved.

音声出力装置200Fは、スピーカであり、音声を出力する。 The audio output device 200F is a speaker and outputs audio.

CPU200Gは、ユーザ端末2を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。 The CPU 200G controls the user terminal 2 and includes a ROM (Read Only Memory) and a RAM (Random Access Memory) (not shown).

図2(b)に示すように、ユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209及び記憶装置制御部210などの機能を有する。なお、図2(b)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。 As shown in FIG. 2B, the user terminal 2 includes an image pickup device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, an operation extraction unit 206, and an instruction timing determination unit 207. , Operation instruction unit 208, voice output device control unit 209, storage device control unit 210, and the like. The function shown in FIG. 2B is realized by the CPU 200G executing a management program stored in a ROM (not shown) of the user terminal 2.

撮像装置制御部201は、撮像装置200Eによる撮像を制御する。具体的には、撮像装置制御部201は、撮像装置200Eを制御する。 The image pickup device control unit 201 controls the image pickup by the image pickup device 200E. Specifically, the image pickup device control unit 201 controls the image pickup device 200E.

入力受付部202は、入力装置200Cでの入力操作を受け付ける。 The input receiving unit 202 receives an input operation on the input device 200C.

表示装置制御部203は、表示装置200Dを制御する。具体的には、表示装置制御部203は、第1実施形態に係る認証システム1の利用に必要な画面を表示させる。例えば、表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。表示装置200Dには、指示がテキスト(例えば、「3秒間目を閉じてください」)で表示される。 The display device control unit 203 controls the display device 200D. Specifically, the display device control unit 203 displays a screen necessary for using the authentication system 1 according to the first embodiment. For example, the display device control unit 203 reads out the text data corresponding to the operation ID extracted by the operation extraction unit 206 based on the instruction by the operation instruction unit 208, and displays it on the display device 200D. The display device 200D displays the instruction in text (for example, "Please close your eyes for 3 seconds").

送信部204は、例えば、撮像データ(第1,第2撮像データ)、動作を指示したタイミング(指示タイミング決定部207で決定された動作指示のタイミング(自撮り動画の撮像開始から何秒後か))、動作ID(動作抽出部206で抽出された動作ID)の情報を認証サーバ3へ送信する。 For example, the transmission unit 204 has the imaging data (first and second imaging data), the timing at which the operation is instructed (the timing of the operation instruction determined by the instruction timing determination unit 207 (how many seconds after the start of imaging of the self-portrait moving image). )), The information of the operation ID (operation ID extracted by the operation extraction unit 206) is transmitted to the authentication server 3.

受信部205は、認証サーバ3から送信される情報を受信する。 The receiving unit 205 receives the information transmitted from the authentication server 3.

動作抽出部206は、記憶装置200Bに記憶されている動作IDから、1以上の動作IDをランダムに抽出する。 The motion extraction unit 206 randomly extracts one or more motion IDs from the motion IDs stored in the storage device 200B.

指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダム(例えば、自撮り動画の撮像開始から3秒後や5秒後)に決定する。 The instruction timing determination unit 207 randomly determines the timing at which the operation instruction unit 208, which will be described later, instructs the user U to perform an operation (for example, 3 seconds or 5 seconds after the start of imaging of the self-portrait moving image).

動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する。具体的には、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応するテキストデータを表示するように表示装置制御部203に指示する。また、動作指示部208は、指示タイミング決定部207で決定されたタイミングで、動作抽出部206により抽出された動作IDに対応する音声データを出力するように音声出力装置制御部209に指示する。 The operation instruction unit 208 instructs the user U to perform one or more operations at the timing determined by the instruction timing determination unit 207. Specifically, the operation instruction unit 208 instructs the display device control unit 203 to display the text data corresponding to the operation ID extracted by the operation extraction unit 206 at the timing determined by the instruction timing determination unit 207. do. Further, the operation instruction unit 208 instructs the voice output device control unit 209 to output the voice data corresponding to the operation ID extracted by the operation extraction unit 206 at the timing determined by the instruction timing determination unit 207.

音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、動作の指示が音声(例えば、「3秒間目を閉じてください」)として出力される。 The voice output device control unit 209 reads out the voice data corresponding to the operation ID extracted by the operation extraction unit 206 based on the instruction by the operation instruction unit 208, and outputs the voice data from the voice output device 200F. The voice output device 200F outputs an operation instruction as a voice (for example, "Please close your eyes for 3 seconds").

記憶装置制御部210は、記憶装置200Bを制御する。具体的には、記憶装置制御部210は、記憶装置200Bを制御して情報の書き込みや読み出しを行う。 The storage device control unit 210 controls the storage device 200B. Specifically, the storage device control unit 210 controls the storage device 200B to write and read information.

(認証サーバ3)
認証サーバ3は、ユーザ端末2から送信される情報(ユーザ端末2から送信された第1,第2撮像データ、動作指示のタイミング、動作ID)に基づいて、ユーザUの本人確認を行う。
(Authentication server 3)
The authentication server 3 confirms the identity of the user U based on the information transmitted from the user terminal 2 (first and second imaging data transmitted from the user terminal 2, timing of operation instruction, operation ID).

図3A(a)は、認証サーバ3のハード構成図、図3A(b)は、認証サーバ3の機能ブロック図である。図3B(a)は、認証サーバ3が有する第1判定部304の動作を説明する図、図3B(b)は、認証サーバ3が有する第2判定部305の判定内容を説明する図、図3B(c)は、認証サーバ3が有する第3判定部306の判定内容を説明する図、図3B(d)は、認証サーバ3が有する第4判定部307の判定内容を説明する図である。以下、図3A及び図3Bを参照して認証サーバ3について説明する。 3A (a) is a hardware configuration diagram of the authentication server 3, and FIG. 3A (b) is a functional block diagram of the authentication server 3. 3B (a) is a diagram illustrating the operation of the first determination unit 304 included in the authentication server 3, and FIG. 3B (b) is a diagram and view illustrating the determination content of the second determination unit 305 included in the authentication server 3. 3B (c) is a diagram for explaining the determination content of the third determination unit 306 of the authentication server 3, and FIG. 3B (d) is a diagram for explaining the determination content of the fourth determination unit 307 of the authentication server 3. .. Hereinafter, the authentication server 3 will be described with reference to FIGS. 3A and 3B.

図3A(a)に示すように、認証サーバ3は、通信IF300A、記憶装置300B及びCPU300Cがバス300Dを介して接続された構成を備える。 As shown in FIG. 3A (a), the authentication server 3 includes a configuration in which a communication IF 300A, a storage device 300B, and a CPU 300C are connected via a bus 300D.

通信IF300Aは、ユーザ端末2と通信するためのインターフェースである。 The communication IF 300A is an interface for communicating with the user terminal 2.

記憶装置300Bは、例えば、HDDや半導体記憶装置である。記憶装置300Bには、本認証システム1で利用する認証プログラムなどが記憶されている。また、記憶装置300Bには、複数の動作内容が動作毎に動作IDに関連付けて記憶されたデータベースが記憶されている。これは、ユーザ端末2の記憶装置200Bに記憶されているデータベースに対応するものであり、認証サーバ3は、記憶装置300Bに記憶されているデータベースを参照することで、ユーザ端末2から送信される動作IDに基づいて、ユーザ端末2でどのような動作をユーザUに指示したのかを認識することができる。 The storage device 300B is, for example, an HDD or a semiconductor storage device. The storage device 300B stores an authentication program or the like used in the authentication system 1. Further, the storage device 300B stores a database in which a plurality of operation contents are stored in association with an operation ID for each operation. This corresponds to the database stored in the storage device 200B of the user terminal 2, and the authentication server 3 is transmitted from the user terminal 2 by referring to the database stored in the storage device 300B. Based on the operation ID, it is possible to recognize what kind of operation is instructed to the user U by the user terminal 2.

CPU300Cは、認証サーバ3を制御し、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)を備えている。 The CPU 300C controls the authentication server 3 and includes a ROM (Read Only Memory) and a RAM (Random Access Memory) (not shown).

図3A(b)に示すように、認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308及び送信部309などの機能を有する。なお、図3A(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。 As shown in FIG. 3A (b), the authentication server 3 includes a receiving unit 301 (first and second acquisition units), an operation instruction timing recognition unit 302, a still image data extraction unit 303, a first determination unit 304, and a second. It has functions such as a determination unit 305, a third determination unit 306, a fourth determination unit 307, a storage device control unit 308, and a transmission unit 309. The function shown in FIG. 3A (b) is realized by the CPU 300C executing the management program stored in the ROM (not shown) of the authentication server 3.

受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。 The receiving unit 301 receives information transmitted from the user terminal 2, for example, image pickup data (first and second image pickup data), operation instruction timing, and operation ID information.

動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。 The operation instruction timing recognition unit 302 recognizes how many seconds after the start of imaging of the self-portrait moving image, the operation is instructed, based on the operation instruction timing information transmitted from the user terminal 2.

静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)を抽出する。また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。 The still image data extraction unit 303 extracts (cuts out) still image data from the imaged data (first and second imaged data) received by the receiving unit 301. Specifically, the still image data extraction unit 303 extracts the still image data (hereinafter, also referred to as the first image data) of the identity verification document (the one in which the face photograph is shown) from the first captured data. Further, the still image data extraction unit 303 is based on the timing of the operation instruction recognized by the operation instruction timing recognition unit 302, from the second image pickup data received by the reception unit 301, the still image data before the operation instruction (the first). 2 Image data) and still image data after the operation instruction (hereinafter, also referred to as third image data) are extracted. For example, if the timing of the operation instruction recognized by the operation instruction timing recognition unit 302 is 3 seconds later, the still image data extraction unit 303 receives the operation instruction from the second image pickup data received by the reception unit 301 before the operation instruction (self). Still image data (second image data) after 3 seconds from the start of imaging of the captured video, and still image data (third image) after instructions for operation (after 3 seconds from the start of imaging of the self-portrait video). Data) and extract.

第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する(図3B(a)を参照)。 The first determination unit 304 is based on the first image data and the second image data (still image data of the face photograph of the identity verification document and still image data of the user U) extracted by the still image data extraction unit 303. It is determined whether or not the person in the face photograph of the identity verification document and the user U are the same person (see FIG. 3B (a)).

具体的には、第1判定部304は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第1判定部304は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の内、特に重要視する箇所を傾斜配点(重み付けを行う)して、この傾斜配点により付与された各箇所の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで第1判定部304は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値以上である場合、同一人物であると判定する。 Specifically, the first determination unit 304 cuts out a region including a face (object) from the first and second image data. Next, the first determination unit 304 assigns an inclined point to a portion of a plurality of locations (a plurality of locations where features of the human face appear, such as the contour of the face, the contour of the eyes, the eyebrows, the nose, and the mouth), which are particularly important. (Weighting is performed), the degree of similarity of each point given by this graded score (score: the more similar the score is, the higher the score) is calculated, and the calculated scores are added to calculate the total score. Next, the first determination unit 304 calculates a value obtained by normalizing the total score on a scale of 100 points, and if the value is equal to or greater than a predetermined threshold value, it is determined that the person is the same person.

なお、類似度(点数)は、例えば、以下の観点に基づいて算出することができる。なお、下記の観点は、あくまで一例であり、他の観点(手法)により類似度を算出するようにしてもよい。
(1)距離関係(目と目の間が離れている/近い など)
(2)角度関係(釣り目/たれ目 など)
(3)輪郭中における位置関係(パーツが中心に因っている顔 など)
The degree of similarity (score) can be calculated based on, for example, the following viewpoints. The following viewpoints are merely examples, and the degree of similarity may be calculated from other viewpoints (methods).
(1) Distance relationship (eye-to-eye distance / close, etc.)
(2) Angle relationship (fishing eyes / sagging eyes, etc.)
(3) Positional relationship in contour (face with parts centered)

第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した画像であるか否か(本人確認書類等の顔写真の画像を流用していないか否か)を判定する(図3B(b)を参照)。 The second determination unit 305 is based on the first image data and the second image data (still image data of the face photograph of the identity verification document and still image data of the user U) extracted by the still image data extraction unit 303. It is determined whether or not the second image data is an image obtained by capturing the user U (whether or not the image of the face photograph such as the identity verification document is diverted) (see FIG. 3B (b)).

具体的には、第2判定部305は、第1,第2画像データから顔(オブジェクト)を含む領域を切り出す。次いで、第2判定部305は、複数の箇所(顔の輪郭、目の輪郭、眉、鼻、口など、人間の顔の特徴が表れる複数の箇所)の類似度(点数:類似しているほど点数が高い)を算出し、算出した点数を足し合わせて総点数を算出する。次いで、第2判定部305は、総点数を100点満点で規格化した値を算出し、該値が所定の閾値(例えば90点)を越える場合、なりすまし、換言すると、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用したと判定する。なお、第1実施形態においては、第2判定部305での類似度(点数)の算出方法は、第1判定部304と同じであるが、他の方法により類似度を算出するようにしてもよい。 Specifically, the second determination unit 305 cuts out a region including a face (object) from the first and second image data. Next, the second determination unit 305 has a degree of similarity (score: the more similar it is) of a plurality of locations (multiple locations where features of the human face appear, such as the contour of the face, the contour of the eyes, the eyebrows, the nose, and the mouth). The score is high), and the calculated scores are added together to calculate the total score. Next, the second determination unit 305 calculates a value obtained by standardizing the total score on a scale of 100 points, and if the value exceeds a predetermined threshold (for example, 90 points), spoofing, in other words, the identity verification document is stolen. In such a case, it is determined that the face photo of the identity verification document is processed (for example, the face photo is cut out and used as the user's self-portrait image data) and used as the user's image data. In the first embodiment, the method of calculating the degree of similarity (score) in the second determination unit 305 is the same as that of the first determination unit 304, but the degree of similarity may be calculated by another method. good.

第1判定部304の判定方法は、例えば、顔の違い(特徴)が特によくあらわれる箇所(目、鼻、口の形状など)の配点割合を高くし(重み付けを重くする)、他の箇所の配点割合を低くする(重み付けを軽くする)傾斜配点を行うことで、同一人物の場合、総点数が略100点となり、同一人物でない場合、総点数が略0点となり、同一人物であるか否かにより総点数に極端な違いがでる。このため同一人物か否かの判定に適した特性(アルゴリズム)となる。一方、同一人物であるか否かにより総点数に極端な違いがでるため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用された場合に、本人確認書類の撮像データと、ユーザUの撮像データとが同一人物となるためになりすましを見抜くことが難しい。 In the determination method of the first determination unit 304, for example, the point allocation ratio is increased (weighting is heavier) in the portion (eye, nose, mouth shape, etc.) where the difference (feature) of the face appears particularly often, and the other portion is determined. By lowering the point allocation ratio (lightening the weighting), the total score will be about 100 points for the same person, and if they are not the same person, the total score will be about 0 points, and whether or not they are the same person. Depending on the weight, there will be an extreme difference in the total score. Therefore, the characteristic (algorithm) is suitable for determining whether or not the person is the same person. On the other hand, there is an extreme difference in the total score depending on whether or not they are the same person, so if the identity verification document is stolen, the face photo of the identity verification document is processed (the face photo is cut out and the user takes a self-portrait). When it is used as the image data of the user (for example, as data), it is difficult to detect the spoofing because the image data of the identity verification document and the image data of the user U are the same person.

これに対して、第2判定部305の判定方法は、傾斜配点(重み付け)を行わないため、顔のアングル等、細かな角度の違いにより判定結果(総点数)に影響を受けやすい。このため、同一人物であっても規格化後の総点数が90点を超えることは略ないと考えられる。つまり、規格化後の総点数が所定の閾値(例えば、90点)を超えている場合、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工(顔写真を切り取ってユーザの自撮り撮像データとするなど)してユーザの撮像データとして利用していることが考えられる(本人確認書類の顔と、自撮りの顔が似すぎている場合には、本人確認書類等の顔写真の流用が疑われる)。 On the other hand, since the determination method of the second determination unit 305 does not perform tilting points (weighting), it is easily affected by the determination result (total points) due to small differences in angles such as the angle of the face. Therefore, it is considered that the total score after standardization does not necessarily exceed 90 points even for the same person. In other words, if the total score after standardization exceeds a predetermined threshold (for example, 90 points), or if the identity verification document is stolen, the face photo of the identity verification document is processed (the user cuts out the face photo). It is conceivable that it is used as the user's image data (for example, as the self-portrait image data) (if the face of the identity verification document and the face of the self-portrait are too similar, the identity verification document, etc. The diversion of the face photo is suspected).

このように、第1実施形態では、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。 As described above, in the first embodiment, the confirmation of whether or not the person is the person and the confirmation of whether or not the image of the person is diverted are determined by using two determination methods having different characteristics (algorithms). Therefore, spoofing can be prevented very effectively.

なお、上述した第1判定部304の判定手法は、一例であり、上述した同一人物か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。また、上述した第2判定部305の判定手法は、一例であり、上述した本人確認書類等の顔写真の流用か否かの判定に適した特性(アルゴリズム)となる判定手法であれば、他の傾斜配点割合の採用や判定手法の利用を妨げるものではない。例えば、第1判定部304及び第2判定部305の判定において、それぞれの特性が維持されるのであれば、特定箇所の傾斜配点の割合を変更するようにしてもよく、また荷重平均により判定するなど種々の手法を採用することができる。さらに、既知の顔認証の手法を利用してもよいし、既知の顔認証において特定箇所の傾斜配点の割合を変更することにより、第1判定部304及び第2判定部305による判定を行うようにしてもよい。また、人間の顔の特徴が表れる複数の箇所をどの箇所とするかについては任意である。 The determination method of the first determination unit 304 described above is an example, and if the determination method has the characteristics (algorithm) suitable for determining whether or not the person is the same person described above, another graded point allocation ratio may be adopted. It does not prevent the use of the judgment method. Further, the above-mentioned determination method of the second determination unit 305 is an example, and any other determination method has characteristics (algorithm) suitable for determining whether or not the face photograph of the above-mentioned identity verification document or the like is diverted. It does not prevent the adoption of the graded point allocation ratio and the use of the judgment method. For example, in the determination of the first determination unit 304 and the second determination unit 305, if the respective characteristics are maintained, the ratio of the inclined allocation points at specific points may be changed, and the determination is made by the load average. Various methods such as can be adopted. Further, a known face recognition method may be used, or the first determination unit 304 and the second determination unit 305 may make a determination by changing the ratio of the inclined points of a specific location in the known face authentication. You may do it. In addition, it is arbitrary as to which place is a plurality of places where the characteristics of the human face appear.

第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する(図3B(c)を参照)。なお、第3判定部306による判定には、既知の手法を利用することができる。例えば、動作ID毎に教師データとなる画像を準備して、各動作IDに対応する動作をそれぞれ機械学習させた後、第3判定部306による判定に利用してもよい。 The third determination unit 306 is based on the still image data (second image data) before the operation instruction and the still image data (third image data) after the operation instruction extracted by the still image data extraction unit 303. , An operation corresponding to the operation ID received by the receiving unit 301, in other words, determining whether or not the user U has performed the instructed operation (see FIG. 3B (c)). A known method can be used for the determination by the third determination unit 306. For example, an image to be teacher data may be prepared for each operation ID, machine learning may be performed for each operation corresponding to each operation ID, and then the image may be used for determination by the third determination unit 306.

第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する(図3B(d)を参照)。なお、第4判定部307による判定方法は、第1判定部304と同じであるため重複する説明を省略する。 The fourth determination unit 307 is based on the still image data (second image data) before the operation instruction and the still image data (third image data) after the operation instruction, before the operation instruction and after the operation instruction. It is determined whether or not the user U reflected in the still image data of the above is the same person (see FIG. 3B (d)). Since the determination method by the fourth determination unit 307 is the same as that of the first determination unit 304, overlapping description will be omitted.

なお、第1判定部304から第4判定部307における判定方法には、上記に説明したものに限らず種々の手法を利用することができる。 The determination method in the first determination unit 304 to the fourth determination unit 307 is not limited to the one described above, and various methods can be used.

記憶装置制御部308は、記憶装置300Bを制御する。具体的には、記憶装置制御部308は、記憶装置300Bを制御して情報の書き込みや読み出しを行う。 The storage device control unit 308 controls the storage device 300B. Specifically, the storage device control unit 308 controls the storage device 300B to write and read information.

送信部309は、第1判定部304、第2判定部305、第3判定部306又は第4判定部307のいずれかでの判定結果がNOである場合、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。 If the determination result of any of the first determination unit 304, the second determination unit 305, the third determination unit 306, or the fourth determination unit 307 is NO, the transmission unit 309 could not authenticate (authentication error). Is transmitted to the user terminal 2.

(認証システム1の処理)
以下、図4A及び図4Bを参照して、認証システム1の処理について説明する。
(Processing of authentication system 1)
Hereinafter, the processing of the authentication system 1 will be described with reference to FIGS. 4A and 4B.

(撮像処理)
初めに、認証システム1のユーザ端末2での撮像処理について図4Aを参照して説明する。なお、図4Aには、ステップS101からステップS105の処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(Imaging process)
First, the image pickup process in the user terminal 2 of the authentication system 1 will be described with reference to FIG. 4A. In FIG. 4A, a reference diagram or a sentence (character) showing the processing contents of steps S101 to S105 is shown on the left side of each step.

(ステップS101)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画を撮像する(図4Aでは免許証の両面を撮像する動作を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像する。撮像装置200Eにより撮像された本人確認書類の撮像データは、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(Step S101)
The user U operates the input device 200C of the user terminal 2 to capture a moving image of the identity verification document (FIG. 4A illustrates an operation of capturing both sides of the driver's license). The input receiving unit 202 receives an input operation on the input device 200C. The image pickup device control unit 201 controls the image pickup device 200E to take an image based on the input operation received by the input reception unit 202. The image pickup data of the identity verification document captured by the image pickup device 200E is temporarily stored in the storage device 200B by the storage device control unit 210.

(ステップS102)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の自撮り撮像を開始する(図4AではユーザUの顔を例示)。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を開始する。撮像装置200Eにより開始された動画の撮像データ(第1撮像データ)は、一旦、記憶装置制御部210により記憶装置200Bへ記憶される。
(Step S102)
Next, the user U operates the input device 200C of the user terminal 2 to start self-shooting and imaging of a moving image (the face of the user U is illustrated in FIG. 4A). The input receiving unit 202 receives an input operation on the input device 200C. The image pickup device control unit 201 controls the image pickup device 200E based on the input operation received by the input reception unit 202 to start image pickup of a moving image. The image pickup data (first image pickup data) of the moving image started by the image pickup device 200E is temporarily stored in the storage device 200B by the storage device control unit 210.

(ステップS103)
動作抽出部206は、記憶装置200Bに記憶されている動作から、1以上の動作IDをランダムに抽出する(図4Aでは「3秒間目を閉じてください。」を例示)。
(Step S103)
The motion extraction unit 206 randomly extracts one or more motion IDs from the motions stored in the storage device 200B (in FIG. 4A, "Please close your eyes for 3 seconds" is exemplified).

(ステップS104)
指示タイミング決定部207は、後述する動作指示部208がユーザUに対して動作を指示するタイミングをランダムに決定する(図4Aでは「3秒後」を例示)。
(Step S104)
The instruction timing determination unit 207 randomly determines the timing at which the operation instruction unit 208, which will be described later, instructs the user U to perform an operation (in FIG. 4A, “after 3 seconds” is exemplified).

(ステップS105)
動作指示部208は、ユーザUに対して1以上の動作を指示タイミング決定部207で決定されたタイミングで指示する(図4Aでは「3秒間目を閉じてください。」を例示)。表示装置制御部203は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応するテキストデータを読み出して、表示装置200Dに表示する。また、音声出力装置制御部209は、動作指示部208による指示に基づいて、動作抽出部206により抽出された動作IDに対応する音声データを読み出して、音声出力装置200Fから出力する。ユーザUは、指示に従い動作を行う(図4Aでは目を閉じたユーザUの顔を例示)。
(Step S105)
The operation instruction unit 208 instructs the user U to perform one or more operations at the timing determined by the instruction timing determination unit 207 (in FIG. 4A, "Please close the eyes for 3 seconds" is exemplified). The display device control unit 203 reads out the text data corresponding to the operation ID extracted by the operation extraction unit 206 based on the instruction by the operation instruction unit 208, and displays it on the display device 200D. Further, the voice output device control unit 209 reads out the voice data corresponding to the operation ID extracted by the operation extraction unit 206 based on the instruction by the operation instruction unit 208, and outputs the voice data from the voice output device 200F. The user U operates according to the instruction (in FIG. 4A, the face of the user U with his eyes closed is illustrated).

(ステップS106)
次いで、ユーザUは、ユーザ端末2の入力装置200Cを操作して、動画の撮像を終了する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して動画の撮像を終了する。記憶装置制御部210は、撮像データ(第2撮像データ)の記憶装置200Bへの記憶を終了する。
(Step S106)
Next, the user U operates the input device 200C of the user terminal 2 to finish the imaging of the moving image. The input receiving unit 202 receives an input operation on the input device 200C. The image pickup device control unit 201 controls the image pickup device 200E based on the input operation received by the input reception unit 202 to end the imaging of the moving image. The storage device control unit 210 ends the storage of the image pickup data (second image pickup data) in the storage device 200B.

(ステップS107)
送信部204は、記憶装置200Bに記憶された撮像データ(第1,第2撮像データ)、指示タイミング決定部207で決定された動作指示のタイミング、動作抽出部206により抽出された動作IDの情報を認証サーバ3へ送信する。
(Step S107)
The transmission unit 204 contains image pickup data (first and second image pickup data) stored in the storage device 200B, operation instruction timing determined by the instruction timing determination unit 207, and operation ID information extracted by the operation extraction unit 206. To the authentication server 3.

なお上記説明では、本人確認書類の動画を撮像した後、ユーザUの自撮り動画の撮像を行っているが、ユーザUの自撮り動画の撮像を行った後、本人確認書類の動画を撮像するようにしてもよい。また、第1撮像データ及び第2撮像データを最後にまとめて認証サーバ3へ送信しているが、第1撮像データ及び第2撮像データを撮像の度に個別に認証サーバ3へ送信するようにしてもよい。また、ステップS101では、動画により本人確認書類を撮像しているが動画に代えて、本人確認書類の顔写真を含む静止画像を撮像するようにしてもよい。 In the above description, the user U's self-portrait video is captured after the video of the identity verification document is captured, but the user U's self-portrait video is captured and then the video of the identity verification document is captured. You may do so. Further, although the first imaging data and the second imaging data are finally collectively transmitted to the authentication server 3, the first imaging data and the second imaging data are individually transmitted to the authentication server 3 each time the imaging is performed. You may. Further, in step S101, the identity verification document is captured by the moving image, but instead of the moving image, a still image including a face photograph of the identity verification document may be captured.

(認証処理)
次に、認証システム1の認証サーバ3での認証処理について図4Bを参照して説明する。
(Authentication processing)
Next, the authentication process in the authentication server 3 of the authentication system 1 will be described with reference to FIG. 4B.

(ステップS201)
受信部301は、ユーザ端末2から送信される情報、例えば、撮像データ(第1,第2撮像データ)、動作指示のタイミング、動作IDの情報を受信する。
(Step S201)
The receiving unit 301 receives information transmitted from the user terminal 2, for example, imaging data (first and second imaging data), operation instruction timing, and operation ID information.

(ステップS202)
動作指示タイミング認識部302は、ユーザ端末2から送信される動作指示のタイミングの情報に基づいて、自撮り動画の撮像開始から何秒後に動作が指示されたかを認識する。
(Step S202)
The operation instruction timing recognition unit 302 recognizes how many seconds after the start of imaging of the self-portrait moving image, the operation is instructed, based on the operation instruction timing information transmitted from the user terminal 2.

(ステップS203)
静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(第1画像データ)を抽出する。また、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データ)及び動作の指示後の静止画像データ(第3画像データ)を抽出する。なお、静止画像データ抽出部303による第1,第2撮像データから第1乃至第3画像データを抽出する方法については既に述べたので重複する説明を省略する。
(Step S203)
The still image data extraction unit 303 extracts still image data from the image pickup data (first and second image pickup data) received by the reception unit 301. Specifically, the still image data extraction unit 303 extracts the still image data (first image data) of the identity verification document (the one in which the face photograph is shown) from the first captured data. Further, the still image data extraction unit 303 receives the still image data (second image data) before the operation instruction and the still image data (third image data) after the operation instruction from the second image pickup data received by the reception unit 301. ) Is extracted. Since the method of extracting the first to third image data from the first and second captured data by the still image data extraction unit 303 has already been described, duplicate description will be omitted.

(ステップS204)
第1判定部304は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、本人確認書類の顔写真の人物と、ユーザUとが同一人物であるか否かを判定する。なお、第1判定部304による判定方法については既に述べたので重複する説明を省略する
(Step S204)
The first determination unit 304 is based on the first image data and the second image data (still image data of the face photograph of the identity verification document and still image data of the user U) extracted by the still image data extraction unit 303. It is determined whether or not the person in the face photograph of the identity verification document and the user U are the same person. Since the determination method by the first determination unit 304 has already been described, duplicate explanations will be omitted.

(ステップS205)
第1判定部304が、本人確認書類の顔写真の人物と、ユーザUとが同一人物であると判定した場合(S204のYES)、第2判定部305は、第2判定部305は、静止画像データ抽出部303で抽出された第1画像データ及び第2画像データ(本人確認書類の顔写真の静止画像データと、ユーザUの静止画像データ)に基づいて、第2画像データがユーザUを撮像した撮像画像であるか否か(顔写真の画像を流用していないか否か)を判定する。なお、第2判定部305による判定方法については既に述べたので重複する説明を省略する。
(Step S205)
When the first determination unit 304 determines that the person in the face photograph of the identity verification document and the user U are the same person (YES in S204), the second determination unit 305 and the second determination unit 305 are stationary. Based on the first image data and the second image data (still image data of the face photograph of the identity verification document and still image data of the user U) extracted by the image data extraction unit 303, the second image data sets the user U. It is determined whether or not the image is an captured image (whether or not the image of the face photograph is diverted). Since the determination method by the second determination unit 305 has already been described, a duplicate description will be omitted.

(ステップS206)
第2判定部305が、撮像データがユーザUを撮像した撮像画像であると判定した場合(S205のYES)、第3判定部306は、静止画像データ抽出部303により抽出された動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、受信部301で受信した動作IDに対応する動作、換言すると、ユーザUが指示された動作を行ったか否かを判定する。なお、第3判定部306による判定方法については既に述べたので重複する説明を省略する。
(Step S206)
When the second determination unit 305 determines that the image capture data is an image captured by the user U (YES in S205), the third determination unit 306 is before the operation instruction extracted by the still image data extraction unit 303. Based on the still image data (second image data) and the still image data (third image data) after the operation is instructed, the operation corresponding to the operation ID received by the receiving unit 301, in other words, the user U is instructed. It is determined whether or not the performed operation has been performed. Since the determination method by the third determination unit 306 has already been described, a duplicate description will be omitted.

(ステップS207)
第3判定部306が、ユーザUが指示された動作を行ったと判定した場合(ステップS205のYES)、第4判定部307は、動作の指示前の静止画像データ(第2画像データ)と動作の指示後の静止画像データ(第3画像データ)とに基づいて、動作の指示前及び動作の指示後の静止画像データに写ったユーザUが同一人物であるか否かを判定する。なお、第4判定部307による判定方法については既に述べたので重複する説明を省略する。
(Step S207)
When the third determination unit 306 determines that the user U has performed the instructed operation (YES in step S205), the fourth determination unit 307 operates with the still image data (second image data) before the operation instruction. Based on the still image data (third image data) after the instruction, it is determined whether or not the user U reflected in the still image data before the operation instruction and after the operation instruction is the same person. Since the determination method by the fourth determination unit 307 has already been described, a duplicate description will be omitted.

(ステップS208)
第1判定処理(S204)、第2判定処理(S205)、第3判定処理(S206)又は第4判定処理(S207)のいずれかでの判定結果がNOである場合、認証サーバ3は、認証エラー処理を行う。具体的には、認証サーバ3は、認証処理を停止するとともに、送信部309は、認証できなかった旨(認証エラー)をユーザ端末2へ送信する。また、第4判定部307が、ユーザUが指示された動作を行ったと判定した場合(S207のYES)、認証サーバ3は、認証処理を終了する。
(Step S208)
If the determination result in any of the first determination process (S204), the second determination process (S205), the third determination process (S206), or the fourth determination process (S207) is NO, the authentication server 3 authenticates. Perform error handling. Specifically, the authentication server 3 stops the authentication process, and the transmission unit 309 transmits to the user terminal 2 that the authentication could not be performed (authentication error). Further, when the fourth determination unit 307 determines that the user U has performed the instructed operation (YES in S207), the authentication server 3 ends the authentication process.

なお、図4Bの説明では、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307による判定順序は図4Bに示す順序に限られず順不同である。換言すると、図4Bに示す第1判定部304から第4判定部307による判定の順序を入れ替えてもよい。 In the description of FIG. 4B, the determination by the first determination unit 304 to the fourth determination unit 307 is performed in order, but the determination order from the first determination unit 304 to the fourth determination unit 307 is in the order shown in FIG. 4B. It is not limited and in no particular order. In other words, the order of determination by the first determination unit 304 to the fourth determination unit 307 shown in FIG. 4B may be changed.

[第1実施形態の変形例]
なお、上記第1実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第1実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208の機能を有し、指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。
[Variation example of the first embodiment]
In the first embodiment, the authentication server 3 has the functions of the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, and the fourth determination unit 307. , The authentication server 3 is performing the authentication process, but the user terminal 2 is the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, and the fourth determination unit 307. It has a function, and the user terminal 2 may perform the authentication process. In the first embodiment, the user terminal 2 has the functions of the operation extraction unit 206, the instruction timing determination unit 207, and the operation instruction unit 208, but the authentication server 3 has the operation extraction unit 206 and the instruction timing determination. The operation instruction unit 208 has the functions of the operation instruction unit 207 and the operation instruction unit 208, and the operation instruction unit 208 performs the operation extracted by the operation extraction unit 206 at the timing determined by the instruction timing determination unit 207 from the transmission unit 309 of the authentication server 3 to the user terminal 2. You may send it to.

また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第3静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第3静止画像データに基づいて図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。 Further, the user terminal 2 has the function of the still image data extraction unit 303, and after extracting the first to third still image data from the first and second captured data, the first to third still image data is authenticated by the authentication server. 3 may be transmitted, and the authentication server 3 may perform identity verification authentication described with reference to FIG. 4B based on the first to third still image data transmitted from the user terminal 2. By doing so, the amount of data transmitted from the user terminal 2 can be significantly reduced.

(効果)
以上のように、第1実施形態に係る認証システム1は、本人確認のための認証システム1であって、本人確認書類の顔写真の撮像データ及びユーザの撮像データを取得する受信部301(第1,第2取得部)と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かを判定する第1判定部304と、第1取得部により取得された撮像データと、第2取得部により取得された撮像データとに基づいて、第2取得部により取得された撮像データがユーザUを撮像した他の撮像画像の流用でないか否かを判定する第2判定部305と、を備えている。
(effect)
As described above, the authentication system 1 according to the first embodiment is an authentication system 1 for identity verification, and is a receiving unit 301 (No. 1) for acquiring image pickup data of a face photograph of an identity verification document and image pickup data of a user. 1, 2nd acquisition unit), based on the imaged data acquired by the 1st acquisition unit and the imaged data acquired by the 2nd acquisition unit, the person in the face photograph of the identity verification document and the user Acquired by the second acquisition unit based on the first determination unit 304 that determines whether or not the person is the same person, the image pickup data acquired by the first acquisition unit, and the image pickup data acquired by the second acquisition unit. It is provided with a second determination unit 305 for determining whether or not the captured image data is a diversion of another captured image captured by the user U.

つまり、認証システム1は、本人確認書類の顔写真の人物と、前記ユーザとが同一人物であるか否かの判定と、撮像データがユーザUを撮像した撮像画像であるか否かの判定を行っているため、なりすましを効果的に防止することができる。また、撮像データとしてユーザUの動画を利用しているため、本人確認書類を盗まれた場合などに、本人確認書類の顔写真を加工してユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。この結果、本人確認の信頼性が高まる。 That is, the authentication system 1 determines whether or not the person in the face photograph of the identity verification document and the user are the same person, and determines whether or not the image pickup data is an image captured by the user U. Because it is done, spoofing can be effectively prevented. In addition, since the video of the user U is used as the imaging data, there is no possibility that the face photo of the identity verification document will be processed and used as the user's imaging data when the identity verification document is stolen, and spoofing will occur. Can be effectively prevented. As a result, the reliability of identity verification is increased.

また、第1判定部304及び第2判定部305は、互いに異なる判定アルゴリズムにより本人確認書類の顔写真の人物と、ユーザとが同一人物であるか否か及び受信部301(第2取得部)により取得された撮像データがユーザUを撮像した撮像画像であるか否かを判定している。このように、第1実施形態では、第1判定部304及び第2判定部305において、本人か否かの確認及び本人の画像を流用していないか否かの確認を特性(アルゴリズム)の異なる2つの判定方法を利用して判定している。このため、なりすましを非常に効果的に防止することができる。この結果、本人確認の信頼性がさらに高まる。 Further, the first determination unit 304 and the second determination unit 305 use different determination algorithms to determine whether or not the person in the face photograph of the identity verification document and the user are the same person, and the reception unit 301 (second acquisition unit). It is determined whether or not the image capture data acquired by the user U is an image captured by the user U. As described above, in the first embodiment, the first determination unit 304 and the second determination unit 305 have different characteristics (algorithms) for confirming whether or not the person is the person and whether or not the image of the person is diverted. Judgment is made using two judgment methods. Therefore, spoofing can be prevented very effectively. As a result, the reliability of identity verification is further enhanced.

また、認証システム1は、ユーザUに対して1以上の動作を指示する動作指示部208と、ユーザUの撮像データから、指示前の静止画像データと、指示後の静止画像データとを抽出する静止画像データ抽出部303と、指示前の静止画像データと指示後の静止画像データとに基づいて、ユーザUが指示された動作を行ったか否かを判定する第3判定部306とを備えている。さらに、認証システム1は、指示前の静止画像データと指示後の静止画像データとに基づいて、指示前及び指示後の静止画像データのユーザUが同一人物であるか否かを判定する第4判定部307を備えている。このため、なりすましを更に効果的に防止することができる。例えば、本人確認書類を盗まれたユーザの動画を、ユーザの撮像データとして利用される虞がなく、なりすましを効果的に防止することができる。 Further, the authentication system 1 extracts the still image data before the instruction and the still image data after the instruction from the operation instruction unit 208 instructing the user U to perform one or more operations and the image data of the user U. The still image data extraction unit 303 is provided with a third determination unit 306 that determines whether or not the user U has performed the instructed operation based on the still image data before the instruction and the still image data after the instruction. There is. Further, the authentication system 1 determines whether or not the user U of the still image data before and after the instruction is the same person based on the still image data before the instruction and the still image data after the instruction. A determination unit 307 is provided. Therefore, spoofing can be prevented more effectively. For example, there is no possibility that the video of the user whose identity verification document has been stolen is used as the image data of the user, and spoofing can be effectively prevented.

また、認証システム1は、2以上の異なる動作が記憶された記憶装置200Bを参照し、記憶装置200Bから1以上の動作をランダムに抽出する動作抽出部206を備え、動作指示部208は、動作抽出部206により抽出された動作をユーザUに対して指示している。ランダムに抽出された動作を指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 Further, the authentication system 1 includes an operation extraction unit 206 that refers to a storage device 200B in which two or more different operations are stored and randomly extracts one or more operations from the storage device 200B, and the operation instruction unit 208 operates. The operation extracted by the extraction unit 206 is instructed to the user U. By instructing the randomly extracted actions, it becomes difficult for the spoofing criminal to prepare the imaging data corresponding to the instructions in advance, and the spoofing can be effectively prevented.

また、認証システム1は、動作を指示するタイミングをランダムに決定する指示タイミング決定部207を備え、動作指示部208は、指示タイミング決定部207により決定されたタイミングで動作をユーザに対して指示する。動作を指示するタイミングをランダムとすることで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 Further, the authentication system 1 includes an instruction timing determination unit 207 that randomly determines the timing for instructing the operation, and the operation instruction unit 208 instructs the user to operate at the timing determined by the instruction timing determination unit 207. .. By making the timing of instructing the operation random, it becomes difficult for the spoofing criminal to prepare the imaging data corresponding to the instruction in advance, and the spoofing can be effectively prevented.

また、認証システム1は、動作指示部208は、2以上の異なる動作をユーザUに対して指示している。2以上の異なる動作をユーザUに対して指示することで、なりすまし犯は、事前に指示に対応した撮像データを準備することが難しくなり、なりすましを効果的に防止することができる。 Further, in the authentication system 1, the operation instruction unit 208 instructs the user U to perform two or more different operations. By instructing the user U to perform two or more different actions, it becomes difficult for the spoofing criminal to prepare the imaging data corresponding to the instruction in advance, and the spoofing can be effectively prevented.

[第2実施形態]
第2実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第2実施形態に係る認証システムについて説明するが、図1から図4Bを参照して説明した第1実施形態及び変形例に係る認証システムと異なる構成について説明し、前記第1実施形態に係る認証システム及び変形例と同一の構成については重複する説明を省略する。
[Second Embodiment]
In the second embodiment, an authentication system with further enhanced reliability of identity verification will be described. Hereinafter, the authentication system according to the second embodiment will be described with reference to the drawings, but a configuration different from the authentication system according to the first embodiment and modifications described with reference to FIGS. 1 to 4B will be described. Overlapping description will be omitted for the same configuration as the authentication system and the modified example according to the first embodiment.

図5は、第2実施形態に係るユーザ端末2及び認証サーバ3の機能ブロック図である。図5(a)は、ユーザ端末2の機能ブロック図であり、図5(b)は、認証サーバ3の機能ブロック図である。 FIG. 5 is a functional block diagram of the user terminal 2 and the authentication server 3 according to the second embodiment. FIG. 5A is a functional block diagram of the user terminal 2, and FIG. 5B is a functional block diagram of the authentication server 3.

(ユーザ端末2の機能構成)
図5(a)に示すように、第2実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210及び撮像方法指示部211などの機能を有する。なお、図5(a)に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図5(a)を参照して、第2実施形態に係るユーザ端末2の機能について説明するが撮像方法指示部211以外の機能については、第1実施形態に係るユーザ端末2と同じであるため重複する説明を省略する。
(Functional configuration of user terminal 2)
As shown in FIG. 5A, the user terminal 2 according to the second embodiment has an image pickup device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, and an operation extraction unit 206. It has functions such as an instruction timing determination unit 207, an operation instruction unit 208, a voice output device control unit 209, a storage device control unit 210, and an image pickup method instruction unit 211. The function shown in FIG. 5A is realized by the CPU 200G executing a management program stored in a ROM (not shown) of the user terminal 2. Hereinafter, the functions of the user terminal 2 according to the second embodiment will be described with reference to FIG. 5A, but the functions other than the image pickup method instruction unit 211 are the same as those of the user terminal 2 according to the first embodiment. Therefore, duplicate explanations will be omitted.

初めに、第2実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第2実施形態に係るユーザ端末2の記憶装置200Bには、第1実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像方法指示部211で利用されるテキストデータ及び音声データが指示IDに関連付けて記憶されている。 First, the data stored in the storage device 200B of the user terminal 2 according to the second embodiment will be described. In the storage device 200B of the user terminal 2 according to the second embodiment, in addition to the data stored in the storage device 200B of the user terminal 2 according to the first embodiment, the text data used by the image pickup method instruction unit 211. And voice data is stored in association with the instruction ID.

以下の表2に撮像方法指示部211で利用されるテキストデータ及び音声データの一例を示す。なお指示ID「B003」に関連付けられた「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」は「表面の撮影が終わりましたら本人確認書類を裏返して返してください。」としてもよい。

Figure 0007068710000002
Table 2 below shows an example of text data and voice data used by the image pickup method instruction unit 211. In addition, "Please turn over the identity verification document when the surface photography is finished." Associated with the instruction ID "B003" can be changed to "Turn over the identity verification document when the surface photography is finished." good.
Figure 0007068710000002

撮像方法指示部211は、第2実施形態に係る認証システム1の撮像処理(図4A参照)が開始されると、所定間隔(例えば、数秒間隔)で、ユーザUに対して上記表2に記載の指示IDに関連付けられた指示を昇順に提示する。具体的には、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応するテキストデータを指示IDの昇順に表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、所定間隔で指示IDに対応する音声データを指示IDの昇順に出力するように音声出力装置制御部209に指示する。 When the image pickup process (see FIG. 4A) of the authentication system 1 according to the second embodiment is started, the image pickup method instruction unit 211 describes the user U in Table 2 at predetermined intervals (for example, at intervals of several seconds). The instructions associated with the instruction ID of are presented in ascending order. Specifically, when the image pickup process is started, the image pickup method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction IDs in ascending order of the instruction IDs at predetermined intervals. Further, when the imaging process is started, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output audio data corresponding to the instruction IDs in ascending order of the instruction IDs at predetermined intervals.

表示装置制御部203は、撮像方法指示部211による指示に基づいて、指示IDに対応するテキストデータを所定間隔で昇順に読み出して、表示装置200Dに表示する。
また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、指示IDに対応する音声データを所定間隔で昇順に読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
The display device control unit 203 reads out the text data corresponding to the instruction ID in ascending order at predetermined intervals based on the instruction by the image pickup method instruction unit 211, and displays the text data on the display device 200D.
Further, the audio output device control unit 209 reads out the audio data corresponding to the instruction ID in ascending order at predetermined intervals based on the instruction by the image pickup method instruction unit 211, and outputs the audio data from the audio output device 200F. Audio data is output as audio from the audio output device 200F.

第2実施形態では、表示装置200Dへの上記テキストデータの表示及び音声出力装置200Fからの上記音声データの出力により、ユーザUに対して本人確認書類の撮像方法を指示するが、表示装置200Dへの上記テキストデータの表示又は音声出力装置200Fからの上記音声データの出力のいずれかにより、ユーザUに対して本人確認書類の撮像方法を指示するようにしてもよい。 In the second embodiment, the user U is instructed to capture the identity verification document by displaying the text data on the display device 200D and outputting the voice data from the voice output device 200F, but the display device 200D is instructed. The user U may be instructed to take an image of the identity verification document by either displaying the text data or outputting the voice data from the voice output device 200F.

(認証サーバ3の機能構成)
図5(b)に示すように、第2実施形態に係る認証サーバ3は、受信部301(第1,第2取得部)、動作指示タイミング認識部302、静止画像データ抽出部303、第1判定部304、第2判定部305、第3判定部306、第4判定部307、記憶装置制御部308、送信部309及び第5判定部310などの機能を有する。なお、図5(b)に示す機能は、認証サーバ3のROM(不図示)に記憶された管理プログラムをCPU300Cが実行することにより実現される。以下、図5(b)を参照して、第2実施形態に係る認証サーバ3の機能について説明するが静止画像データ抽出部303及び第5判定部310以外の機能については、第1実施形態に係る認証サーバ3と同じであるため重複する説明を省略する。
(Functional configuration of authentication server 3)
As shown in FIG. 5B, the authentication server 3 according to the second embodiment includes a receiving unit 301 (first and second acquisition units), an operation instruction timing recognition unit 302, a still image data extraction unit 303, and a first unit. It has functions such as a determination unit 304, a second determination unit 305, a third determination unit 306, a fourth determination unit 307, a storage device control unit 308, a transmission unit 309, and a fifth determination unit 310. The function shown in FIG. 5B is realized by the CPU 300C executing the management program stored in the ROM (not shown) of the authentication server 3. Hereinafter, the functions of the authentication server 3 according to the second embodiment will be described with reference to FIG. 5B, but the functions other than the still image data extraction unit 303 and the fifth determination unit 310 will be described in the first embodiment. Since it is the same as the authentication server 3, the duplicate description will be omitted.

静止画像データ抽出部303は、受信部301で受信された撮像データ(第1,第2撮像データ)から静止画像データを抽出する(切り出す)。具体的には、静止画像データ抽出部303は、第1撮像データから本人確認書類(顔写真が写っているもの)の静止画像データ(以下、第1画像データともいう)と、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)とを抽出する。 The still image data extraction unit 303 extracts (cuts out) still image data from the imaged data (first and second imaged data) received by the receiving unit 301. Specifically, the still image data extraction unit 303 includes the still image data (hereinafter, also referred to as the first image data) of the identity verification document (the one in which the face photograph is shown) from the first image capture data, and one or more persons. The still image data (hereinafter, also referred to as the fourth image data) when turning over the confirmation document is extracted.

また、静止画像データ抽出部303は、動作指示タイミング認識部302で認識された動作指示のタイミングに基づいて、受信部301で受信した第2撮像データから、動作の指示前の静止画像データ(第2画像データともいう)と、動作の指示後の静止画像データ(以下、第3画像データともいう)とを抽出する。例えば、動作指示タイミング認識部302で認識された動作指示のタイミングが3秒後であれば、静止画像データ抽出部303は、受信部301で受信した第2撮像データから、動作の指示前(自撮り動画の撮像開始から3秒後より前)の静止画像データ(第2画像データ)と、動作の指示後(自撮り動画の撮像開始から3秒後より後)の静止画像データ(第3画像データ)とを抽出する。 Further, the still image data extraction unit 303 is based on the timing of the operation instruction recognized by the operation instruction timing recognition unit 302, from the second image pickup data received by the reception unit 301, the still image data before the operation instruction (the first). 2 Image data) and still image data after the operation instruction (hereinafter, also referred to as third image data) are extracted. For example, if the timing of the operation instruction recognized by the operation instruction timing recognition unit 302 is 3 seconds later, the still image data extraction unit 303 receives the operation instruction from the second image pickup data received by the reception unit 301 before the operation instruction (self). Still image data (second image data) after 3 seconds from the start of imaging of the captured video, and still image data (third image) after instructions for operation (after 3 seconds from the start of imaging of the self-portrait video). Data) and extract.

第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。第5判定部310での判定には、既知の画像認識技術を利用して本人確認書類に厚みがあるか否かを判定してもよい。例えば、既知の画像認識技術を利用して本人確認書類を認識し、認識した本人確認書類の動きから厚みを有するか否かを判定するようにしてもよい。通常、本人確認に利用する顔写真付きの本人確認書類(例えば、運転免許の他、パスポート(旅券)、住民基本台帳カード(写真付のもの)、在留カードなど種々の本人確認書類)は、0.1~数mm程度の厚みを有するため、本人確認書類を裏返すと、撮像データに本人確認書類の厚みがあることを判別することができる。一方、本人確認書類の表面及び裏面の画像データを流用した場合、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない。逆にいうと、本人確認書類の表面から裏面(又は裏面から表面)へと裏返す際に厚みが現れない場合、本人確認書類の表面及び裏面の画像データを流用した可能性がある。 The fifth determination unit 310 determines whether or not the identity verification document is thick from one or more fourth image data extracted by the still image data extraction unit 303. For the determination by the fifth determination unit 310, it may be determined whether or not the identity verification document is thick by using a known image recognition technique. For example, a known image recognition technique may be used to recognize the identity verification document, and it may be determined from the movement of the recognized identity verification document whether or not it has thickness. Normally, identity verification documents with a face photo used for identity verification (for example, various identity verification documents such as driver's license, passport (passport), basic resident register card (with photo), residence card, etc.) are 0. Since it has a thickness of about 1 to several mm, it can be determined that the image pickup data has the thickness of the identity verification document by turning over the identity verification document. On the other hand, when the image data of the front surface and the back surface of the identity verification document are diverted, the thickness does not appear when the identity verification document is turned over from the front surface to the back surface (or from the back surface to the front surface). Conversely, if the thickness does not appear when turning over the identity verification document from the front side to the back side (or from the back side to the front side), it is possible that the image data on the front and back sides of the identity verification document has been diverted.

第2実施形態では、第5判定部310が静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定することにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができる。このため、本人確認書類の表面及び裏面の画像データの流用を防止することができる。 In the second embodiment, the fifth determination unit 310 determines whether or not the identity verification document is thick from one or more fourth image data extracted by the still image data extraction unit 303, so that the identity verification document is obtained. It is in the hands of the user U himself / herself, and it is possible to confirm whether or not the user U himself / herself is performing the operation of turning over the identity verification document as instructed. Therefore, it is possible to prevent the diversion of the image data on the front surface and the back surface of the identity verification document.

(撮像処理)
図6Aは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Aを参照して第2実施形態に係る認証システム1の撮像処理について説明する。なお、第2実施形態に係る認証システム1の撮像処理のS101E以降の処理は、図4Aを参照して説明した第1実施形態に係る認証システム1の撮像処理のステップS102以降の処理と同じであるため、ステップS102以降の処理については重複する説明を省略する。なお、図6Aには、ステップS101AからステップS101Eの処理内容を示す参考図又は文(文字)を各ステップの左隣りに記載している。
(Imaging process)
FIG. 6A is a flowchart showing the process of the authentication system 1 according to the second embodiment (imaging process). Hereinafter, the image pickup process of the authentication system 1 according to the second embodiment will be described with reference to FIG. 6A. The processing after S101E of the image pickup process of the authentication system 1 according to the second embodiment is the same as the process after step S102 of the image pickup process of the authentication system 1 according to the first embodiment described with reference to FIG. 4A. Therefore, duplicate description will be omitted for the processes after step S102. Note that FIG. 6A shows a reference diagram or a sentence (character) showing the processing contents of steps S101A to S101E on the left side of each step.

(ステップS101A)
ユーザUは、ユーザ端末2の入力装置200Cを操作して、本人確認書類の動画の撮像を開始する。入力受付部202は、入力装置200Cでの入力操作を受け付ける。撮像装置制御部201は、入力受付部202で受け付けられた入力操作に基づいて、撮像装置200Eを制御して撮像処理を開始する。具体的には、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応するテキストデータを表示するように表示装置制御部203に指示する。また、撮像方法指示部211は、撮像処理が開始されると、指示ID「B001」に対応する音声データを出力するように音声出力装置制御部209に指示する。
(Step S101A)
The user U operates the input device 200C of the user terminal 2 to start capturing a moving image of the identity verification document. The input receiving unit 202 receives an input operation on the input device 200C. The image pickup device control unit 201 controls the image pickup device 200E and starts the image pickup process based on the input operation received by the input reception unit 202. Specifically, when the image pickup process is started, the image pickup method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B001”. Further, when the imaging process is started, the imaging method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B001”.

撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B001」に対応するテキストデータ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B001」に対応する音声データ(例えば、「本人確認書類の撮影を開始します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。 Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 reads out the text data corresponding to the instruction ID "B001" (for example, "Start shooting the identity verification document") and displays the display device. Display on 200D. Further, based on the instruction by the image pickup method instruction unit 211, the voice output device control unit 209 reads out the voice data corresponding to the instruction ID "B001" (for example, "Start shooting the identity verification document"). , Output from the audio output device 200F. Audio data is output as audio from the audio output device 200F.

(ステップS101B)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B002」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B002」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B002」に対応するテキストデータ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B002」に対応する音声データ(例えば、「本人確認書類の表面を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、本人確認書類の表面を撮像する。
(Step S101B)
After a lapse of a predetermined time (for example, several seconds), the image pickup method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B002”. Similarly, the image pickup method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B002”. Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 reads out the text data corresponding to the instruction ID "B002" (for example, "Please take a picture of the surface of the identity verification document") and displays it. Displayed on the device 200D. Further, based on the instruction by the image pickup method instruction unit 211, the voice output device control unit 209 reads out the voice data corresponding to the instruction ID "B002" (for example, "Please take a picture of the surface of the identity verification document"). Then, it is output from the audio output device 200F. Audio data is output as audio from the audio output device 200F. The user U images the surface of the identity verification document based on the instruction.

(ステップS101C)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B003」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B003」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B003」に対応するテキストデータ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B003」に対応する音声データ(例えば、「表面の撮影が終わりましたら本人確認書類をひっくり返してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類を表面から裏面へひっくり返す。
(Step S101C)
After a lapse of a predetermined time (for example, several seconds), the image pickup method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B003”. Similarly, the image pickup method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B003”. Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 has text data corresponding to the instruction ID "B003" (for example, "Please turn over the identity verification document when the surface photography is completed."). Is read out and displayed on the display device 200D. Further, based on the instruction by the image pickup method instruction unit 211, the voice output device control unit 209 should turn over the voice data corresponding to the instruction ID "B003" (for example, "when the surface shooting is finished, turn over the identity verification document". ") Is read and output from the audio output device 200F. Audio data is output as audio from the audio output device 200F. Based on the instruction, the user U flips the identity verification document from the front side to the back side while continuing the imaging.

(ステップS101D)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B004」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B004」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B004」に対応するテキストデータ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B004」に対応する音声データ(例えば、「本人確認書類の裏面(うらめん)を撮影してください。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に基づいて、撮像を続けたまま、本人確認書類の裏面を撮像する。
(Step S101D)
After a lapse of a predetermined time (for example, several seconds), the image pickup method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B004”. Similarly, the image pickup method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B004”. Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 captures the text data corresponding to the instruction ID "B004" (for example, "Please take a picture of the back side (uramen) of the identity verification document"). It is read out and displayed on the display device 200D. Further, based on the instruction by the image pickup method instruction unit 211, the voice output device control unit 209 should take a picture of the voice data corresponding to the instruction ID "B004" (for example, "the back side (uramen) of the identity verification document". ") Is read and output from the audio output device 200F. Audio data is output as audio from the audio output device 200F. Based on the instruction, the user U takes an image of the back side of the identity verification document while continuing the image taking.

(ステップS101E)
所定時間(例えば、数秒)経過後、撮像方法指示部211は、指示ID「B005」に対応するテキストデータを表示するように表示装置制御部203に指示する。同様に、撮像方法指示部211は、指示ID「B005」に対応する音声データを出力するように音声出力装置制御部209に指示する。撮像方法指示部211による指示に基づいて、表示装置制御部203は、指示ID「B005」に対応するテキストデータ(例えば、「続いて、本人動画を撮影します。」)を読み出して、表示装置200Dに表示する。また、撮像方法指示部211による指示に基づいて、音声出力装置制御部209は、指示ID「B005」に対応する音声データ(例えば、「続いて、本人動画を撮影します。」)を読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。
(Step S101E)
After a lapse of a predetermined time (for example, several seconds), the imaging method instruction unit 211 instructs the display device control unit 203 to display the text data corresponding to the instruction ID “B005”. Similarly, the image pickup method instruction unit 211 instructs the audio output device control unit 209 to output the audio data corresponding to the instruction ID “B005”. Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 reads out the text data corresponding to the instruction ID "B005" (for example, "followingly, the person's video is taken") and displays the display device. Display on 200D. Further, based on the instruction by the image pickup method instruction unit 211, the voice output device control unit 209 reads out the voice data corresponding to the instruction ID "B005" (for example, "followingly, the person's moving image is shot"). , Output from the audio output device 200F. Audio data is output as audio from the audio output device 200F.

以降、図4AのステップS102の処理へと移行し、ユーザUは、指示に基づいて、本人動画(自撮り動画)の撮像を開始する。 After that, the process proceeds to the process of step S102 in FIG. 4A, and the user U starts imaging the personal moving image (self-portrait moving image) based on the instruction.

(認証処理)
図6Bは、第2実施形態に係る認証システム1の処理を示すフローチャート図である(撮像処理)。以下、図6Bを参照して第2実施形態に係る認証システム1の認証処理について説明するが、第1実施形態に係る認証システム1の認証処理と同じ処理については同一のステップ番号を付して重複する説明を省略する(図6BのステップS203は、「第1抽出処理」となっているが、図4BのステップS203「抽出処理」と処理内容は同じである)。
(Authentication processing)
FIG. 6B is a flowchart showing the process of the authentication system 1 according to the second embodiment (imaging process). Hereinafter, the authentication process of the authentication system 1 according to the second embodiment will be described with reference to FIG. 6B, but the same process as the authentication process of the authentication system 1 according to the first embodiment is assigned the same step number. Duplicate explanations will be omitted (step S203 in FIG. 6B is the "first extraction process", but the processing content is the same as step S203 "extraction process" in FIG. 4B).

(ステップS301)
静止画像データ抽出部303は、1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する。
(Step S301)
The still image data extraction unit 303 extracts still image data (hereinafter, also referred to as a fourth image data) when turning over one or more identity verification documents.

(ステップS302)
第5判定部310は、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する。なお、第5判定部310による判定方法については既に述べたので重複する説明を省略する
(Step S302)
The fifth determination unit 310 determines whether or not the identity verification document is thick from one or more fourth image data extracted by the still image data extraction unit 303. Since the determination method by the fifth determination unit 310 has already been described, duplicate explanations will be omitted.

なお、図6Bの説明では、第5判定部310による判定の後、第1判定部304から第4判定部307による判定を順番に行っているが、第1判定部304から第4判定部307及び第5判定部310による判定順序は図6Bに示す順序に限られず順不同である。換言すると、図6Bに示す第1判定部304から第4判定部307及び第5判定部310による判定の順序を入れ替えてもよい。 In the description of FIG. 6B, after the determination by the fifth determination unit 310, the determination by the first determination unit 304 to the fourth determination unit 307 is performed in order, but the first determination unit 304 to the fourth determination unit 307 are performed in order. The determination order by the fifth determination unit 310 is not limited to the order shown in FIG. 6B, and is in no particular order. In other words, the order of determination by the first determination unit 304, the fourth determination unit 307, and the fifth determination unit 310 shown in FIG. 6B may be changed.

(効果)
以上のように、第2実施形態では、ユーザ端末2に本人確認書類の両面の撮影を指示する撮像方法指示部211を備え、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310とを備えている。
(effect)
As described above, in the second embodiment, the user terminal 2 is provided with an image pickup method instruction unit 211 that instructs the user terminal 2 to shoot both sides of the identity verification document, and the authentication server 3 is turned over one or more identity verification documents from the first image capture data. The thickness of the identity verification document is thickened from the still image data extraction unit 303 that extracts the still image data (hereinafter, also referred to as the fourth image data) and one or more fourth image data extracted by the still image data extraction unit 303. It is provided with a fifth determination unit 310 for determining whether or not there is.

このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましを効果的に防止することができる。 Therefore, it is possible to confirm whether or not the identity verification document is in the hands of the user U and the user U is performing the operation of turning over the identity verification document as instructed, and the image data on the front and back surfaces of the identity verification document can be confirmed. Can be prevented from being diverted. As a result, spoofing can be effectively prevented.

[第2実施形態の変形例1]
なお、第2実施形態では、静止画像データ抽出部303は、第1撮像データ、換言すると本人確認書類を表面から裏面へと裏返すところを撮像した動画から1以上の第4画像データ、換言すると、本人確認書類を裏返す際の静止画像データ(例えば、本人確認書類に厚みがあることを確認可能な本人確認書類を厚み方向に斜めに傾けた画像データ)を抽出している。しかしながら、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを抽出することが難しい場合、以下のようにして対処してもよい。
[Modification 1 of the second embodiment]
In the second embodiment, the still image data extraction unit 303 has one or more fourth image data, in other words, one or more fourth image data from the moving image of the first imaged data, in other words, the place where the identity verification document is turned over from the front side to the back side. Still image data when turning over the identity verification document (for example, image data obtained by tilting the identity verification document that can confirm that the identity verification document is thick) is extracted. However, when it is difficult for the still image data extraction unit 303 to extract the image data obtained by tilting the identity verification document diagonally in the thickness direction, the still image data extraction unit 303 may deal with it as follows.

ユーザ端末2の記憶装置200Bに「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータ及び音声データを記憶し、撮像方法指示部211が図6AのステップS101Cにおいて、撮像方法指示部211が「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応するテキストデータを表示するように表示装置制御部203に指示し、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」に対応する音声データを出力するように音声出力装置制御部209に指示する。 The storage device 200B of the user terminal 2 stores the text data and voice data of "Please take a picture with the identity verification document tilted so that the thickness of the identity verification document can be understood." In step S101C of FIG. 6A, the imaging method instruction unit 211 displays the text data corresponding to "Please take a picture with the identity verification document tilted so that the thickness of the identity verification document can be seen." Instruct the display device control unit 203 to output the audio data corresponding to "Please take a picture with the identity verification document tilted so that you can see the thickness of the identity verification document." Instruct the control unit 209.

表示装置制御部203は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストを表示装置200Dに表示する。また、音声出力装置制御部209は、撮像方法指示部211による指示に基づいて、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声データを読み出して、音声出力装置200Fから出力する。音声出力装置200Fからは、音声データが音声として出力される。ユーザUは、指示に従って本人確認書類を斜めに傾けた状態で撮影を行う。 Based on the instruction from the image pickup method instruction unit 211, the display device control unit 203 displays the text "Please take a picture with the identification document tilted diagonally so that the thickness of the identification document can be understood." Display on 200D. In addition, the voice output device control unit 209 should take a picture based on the instruction from the image pickup method instruction unit 211, "Please take a picture with the identity verification document tilted diagonally so that the thickness of the identity verification document can be understood." The data is read out and output from the audio output device 200F. Audio data is output as audio from the audio output device 200F. The user U takes a picture in a state where the identity verification document is tilted at an angle according to the instruction.

認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された第1撮像データから、「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」のテキストデータが表示された後の数秒間又は「本人確認書類の厚みがわかるように、本人確認書類を斜めに傾けた状態で撮影してください。」の音声が出力された後の数秒間の動画から1以上の第4画像データを抽出することで、静止画像データ抽出部303は、本人確認書類を厚み方向に斜めに傾けた画像データを効果的に抽出することができる。 From the first image capture data transmitted from the user terminal 2, the still image data extraction unit 303 of the authentication server 3 "take a picture with the identity verification document tilted diagonally so that the thickness of the identity verification document can be known. The number of seconds after the text data of "." Is displayed or after the voice of "Please take a picture with the identity verification document tilted diagonally so that you can see the thickness of the identity verification document." By extracting one or more fourth image data from the moving image per second, the still image data extraction unit 303 can effectively extract the image data in which the identity verification document is tilted diagonally in the thickness direction.

また、第2実施形態では、ユーザUに本人確認書類の両面の撮影、換言すると本人確認書類をひっくり返す動作の撮影を指示し、本人確認書類に厚みがあるか否かを判定することにより、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしているが、他の方法により、本人確認書類の表面及び裏面の画像データが流用されていないかを判定するようにしてもよい。例えば、本人確認書類に光を当て、光沢具合を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを確認するようにしてもよい。また、偽造防止用の特殊印刷が施されている場合、特殊な光(例えば、紫外線)を当てると特殊印刷が浮かび上がるが、このような場合、本人確認書類に紫外線LEDライトを照射する指示をユーザUに対して行い、特殊印刷が浮かび上がるか否かにより本人確認書類が画像データの流用でないか、偽造されていないかなどを判定するようにしてもよい。 Further, in the second embodiment, the user U is instructed to shoot both sides of the identity verification document, in other words, to shoot the action of turning over the identity verification document, and it is determined whether or not the identity verification document is thick. Although it is determined whether the image data on the front and back surfaces of the verification document is diverted, it is determined whether the image data on the front and back surfaces of the identity verification document is diverted by another method. You may. For example, the image data on the front and back sides of the identity verification document is not diverted by shining light on the identity verification document to determine the glossiness, in other words, the identity verification document is in the hands of the user U himself / herself. May be asked to confirm whether or not the person is performing the operation of turning over the identity verification document as instructed. In addition, when special printing for anti-counterfeiting is applied, special printing emerges when exposed to special light (for example, ultraviolet rays). In such a case, an instruction to irradiate the identity verification document with an ultraviolet LED light is given. It may be performed for the user U, and it may be determined whether or not the identity verification document is a diversion of image data or is not forged depending on whether or not the special printing appears.

また、上記第2実施形態においては、認証サーバ3が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、認証サーバ3において、認証処理を行っているが、ユーザ端末2が、第1判定部304、第2判定部305、静止画像データ抽出部303、第3判定部306、第4判定部307、第5判定部310の機能を有し、ユーザ端末2において、認証処理を行うようにしてもよい。上記第2実施形態においては、ユーザ端末2が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有しているが、認証サーバ3が、動作抽出部206、指示タイミング決定部207、動作指示部208、撮像方法指示部211の機能を有し、撮像方法指示部211による指示及び指示タイミング決定部207で決定されたタイミングで動作抽出部206により抽出された動作を動作指示部208が認証サーバ3の送信部309からユーザ端末2へ送信するようにしてもよい。 Further, in the second embodiment, the authentication server 3 is the first determination unit 304, the second determination unit 305, the still image data extraction unit 303, the third determination unit 306, the fourth determination unit 307, and the fifth determination unit. Although the authentication server 3 has a function of 310 and performs authentication processing, the user terminal 2 has a first determination unit 304, a second determination unit 305, a still image data extraction unit 303, and a third determination unit 306. It has the functions of the fourth determination unit 307 and the fifth determination unit 310, and the user terminal 2 may perform the authentication process. In the second embodiment, the user terminal 2 has the functions of the operation extraction unit 206, the instruction timing determination unit 207, the operation instruction unit 208, and the image pickup method instruction unit 211, but the authentication server 3 has the operation extraction unit. It has the functions of unit 206, instruction timing determination unit 207, operation instruction unit 208, and image pickup method instruction unit 211, and is extracted by the operation extraction unit 206 at the timing determined by the instruction and instruction timing determination unit 207 by the image pickup method instruction unit 211. The operation instruction unit 208 may transmit the performed operation from the transmission unit 309 of the authentication server 3 to the user terminal 2.

また、静止画像データ抽出部303の機能をユーザ端末2が有し、第1,第2撮像データから第1乃至第3静止画像データを抽出した後、第1乃至第4静止画像データを認証サーバ3へ送信し、認証サーバ3は、ユーザ端末2から送信された第1乃至第4静止画像データに基づいて図6B及び図4Bを参照して説明した本人確認の認証を行うようにしてもよい。このようにすれば、ユーザ端末2から送信するデータ量を大幅に削減することができる。 Further, the user terminal 2 has the function of the still image data extraction unit 303, and after extracting the first to third still image data from the first and second captured data, the first to fourth still image data is authenticated by the authentication server. 3 may be transmitted, and the authentication server 3 may perform identity verification authentication described with reference to FIGS. 6B and 4B based on the first to fourth still image data transmitted from the user terminal 2. .. By doing so, the amount of data transmitted from the user terminal 2 can be significantly reduced.

[第2実施形態の変形例2]
また、第2実施形態及びその変形例1では、認証サーバ3に第1撮像データから1以上の本人確認書類を裏返す際の静止画像データ(以下、第4画像データともいう)を抽出する静止画像データ抽出部303と、静止画像データ抽出部303で抽出された1以上の第4画像データから本人確認書類に厚みがあるか否かを判定する第5判定部310の機能を備えることにより、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定している。
[Modification 2 of the second embodiment]
Further, in the second embodiment and the first modification thereof, a still image for extracting a still image data (hereinafter, also referred to as a fourth image data) when turning over one or more identity verification documents from the first imaged data to the authentication server 3 is extracted. By providing the functions of the data extraction unit 303 and the fifth determination unit 310 that determines whether or not the identity verification document is thick from one or more fourth image data extracted by the still image data extraction unit 303, the person himself / herself. It is determined whether or not the confirmation document is in the possession of the user U himself / herself and the user U himself / herself is performing the operation of turning over the identity verification document as instructed.

しかしながら、認証サーバ3に第5判定部510の機能を備えずに、例えば、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認するように構成してもよい。この場合、認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を確認して本人確認書類に厚みがあることが確認できると、その旨の信号(以下、確認OKの信号ともいう)を認証サーバ3へ入力又は送信するようにしてもよい。 However, the authentication server 3 is not provided with the function of the fifth determination unit 510, and for example, the system administrator of the authentication system 1 turns over the identity verification document among the first imaging data transmitted from the user terminal 2. It may be configured to watch the part of and confirm that the identity verification document is thick. In this case, the system administrator of the authentication system 1 can confirm that the identity verification document is thick by confirming the part of the operation of turning over the identity verification document in the first imaging data transmitted from the user terminal 2. And, a signal to that effect (hereinafter, also referred to as a confirmation OK signal) may be input or transmitted to the authentication server 3.

図6Cは、第2実施形態の変形例2に係る認証システムの処理を示すフローチャート図である(認証処理)。以下、図6Cを参照して第2実施形態の変形例2に係る認証システム1の撮像処理について説明するが、ステップS303以外のステップについては、第1実施形態に係る認証システム1の撮像処理と同じであるため同一のステップ番号を付して重複する説明を省略する。 FIG. 6C is a flowchart showing the processing of the authentication system according to the second modification of the second embodiment (authentication processing). Hereinafter, the image pickup process of the authentication system 1 according to the modified example 2 of the second embodiment will be described with reference to FIG. 6C, but the steps other than step S303 are the image pickup process of the authentication system 1 according to the first embodiment. Since they are the same, they are given the same step number and duplicate explanations are omitted.

(ステップS303)
認証サーバ3の受信部301は、ステップS303において、認証システム1のシステム管理者等からの本人確認書類に厚みがあることが確認できた旨の信号(確認OKの信号)を受信したか否かを判定する。受信部301が確認OKの信号を受信した場合(YES)、第1判定部304は、ステップS204の第1判定処理を行う。また、受信部301が確認OKの信号を受信していない場合(NO)、認証サーバ3は、ステップS208の認証エラー処理を行う。
(Step S303)
Whether or not the receiving unit 301 of the authentication server 3 has received a signal (confirmation OK signal) indicating that the identity verification document from the system administrator of the authentication system 1 has been confirmed to be thick in step S303. Is determined. When the receiving unit 301 receives the confirmation OK signal (YES), the first determination unit 304 performs the first determination process in step S204. If the receiving unit 301 has not received the confirmation OK signal (NO), the authentication server 3 performs the authentication error processing in step S208.

なお、認証サーバ3に表示装置及び入力装置を備えるようにし、表示装置を利用してユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、入力装置を利用して確認OKの信号を入力するようにしてもよい。また、認証サーバ3と通信可能に接続された別のコンピュータを利用して、ユーザ端末2から送信された第1撮像データのうち、本人確認書類をひっくり返す動作の部分を視聴して本人確認書類に厚みがあることを確認し、確認OKの信号を認証サーバ3へ送信するようにしてもよい。 In addition, the authentication server 3 is provided with a display device and an input device, and among the first imaging data transmitted from the user terminal 2 using the display device, the part of the operation of turning over the identity verification document is viewed to confirm the identity. After confirming that the document is thick, an input device may be used to input a confirmation OK signal. Also, using another computer that is communicably connected to the authentication server 3, the part of the first imaging data transmitted from the user terminal 2 that flips the identity verification document is viewed and used as the identity verification document. It may be confirmed that there is a thickness, and a confirmation OK signal may be transmitted to the authentication server 3.

また、第2実施形態の変形例1では、本人確認書類に光又は特殊な光(例えば、紫外線)を当て、光沢具合や特殊印刷の有無を判定して本人確認書類の表面及び裏面の画像データが流用されていないか、換言すると本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を裏返す動作を行っているか否かを判定するが、この判定を認証システム1のシステム管理者等が、ユーザ端末2から送信された第1撮像データのうち、光又は特殊な光(例えば、紫外線)を当てる動作の部分を視聴して光沢具合や特殊印刷の有無を確認し、その旨の信号(確認OKの信号)を認証サーバ3へ入力又は送信するようにしてもよい。 Further, in the first modification of the second embodiment, the identity verification document is exposed to light or special light (for example, ultraviolet rays), and the glossiness and the presence / absence of special printing are determined to determine the image data of the front surface and the back surface of the identity verification document. Is not diverted, in other words, it is determined whether or not the identity verification document is in the hands of the user U and the user U is performing the operation of turning over the identity verification document as instructed. This determination is determined by the authentication system 1. The system administrator, etc. of the system observes the part of the first imaging data transmitted from the user terminal 2 that is exposed to light or special light (for example, ultraviolet rays) to check the glossiness and the presence or absence of special printing. , A signal to that effect (a signal of confirmation OK) may be input or transmitted to the authentication server 3.

[第3実施形態]
第3実施形態では、さらに本人確認の信頼性を高めた認証システムについて説明する。以下、図面を参照して、第3実施形態に係る認証システムについて説明するが、第2実施形態及びその変形例1,2に係る認証システムと異なる構成について説明し、第2実施形態及びその変形例1,2と同一の構成については重複する説明を省略する。
[Third Embodiment]
In the third embodiment, an authentication system with further enhanced reliability of identity verification will be described. Hereinafter, the authentication system according to the third embodiment will be described with reference to the drawings, but the configuration different from the authentication system according to the second embodiment and the modified examples 1 and 2 thereof will be described, and the second embodiment and its modifications thereof will be described. Overlapping description will be omitted for the same configuration as in Examples 1 and 2.

(ユーザ端末2の機能構成)
図7は、第3実施形態に係るユーザ端末2の機能ブロック図である。第3実施形態に係るユーザ端末2は、撮像装置制御部201、入力受付部202、表示装置制御部203、送信部204、受信部205、動作抽出部206、指示タイミング決定部207、動作指示部208、音声出力装置制御部209、記憶装置制御部210、撮像方法指示部211及び撮像位置抽選部212などの機能を有する。
(Functional configuration of user terminal 2)
FIG. 7 is a functional block diagram of the user terminal 2 according to the third embodiment. The user terminal 2 according to the third embodiment includes an image pickup device control unit 201, an input reception unit 202, a display device control unit 203, a transmission unit 204, a reception unit 205, an operation extraction unit 206, an instruction timing determination unit 207, and an operation instruction unit. It has functions such as 208, an audio output device control unit 209, a storage device control unit 210, an image pickup method instruction unit 211, and an image pickup position lottery unit 212.

なお、図7に示す機能は、ユーザ端末2のROM(不図示)に記憶された管理プログラムをCPU200Gが実行することにより実現される。以下、図7を参照して、第3実施形態に係るユーザ端末2の機能について説明するが、表示装置制御部203、送信部204及び撮像位置抽選部212以外の機能については、第2実施形態及びその変形例1,2に係るユーザ端末2と同じであるため重複する説明を省略する。 The function shown in FIG. 7 is realized by the CPU 200G executing a management program stored in a ROM (not shown) of the user terminal 2. Hereinafter, the functions of the user terminal 2 according to the third embodiment will be described with reference to FIG. 7, but the functions other than the display device control unit 203, the transmission unit 204, and the image pickup position lottery unit 212 will be described in the second embodiment. Since it is the same as the user terminal 2 according to the modified examples 1 and 2, the duplicate description will be omitted.

初めに、第3実施形態に係るユーザ端末2の記憶装置200Bに記憶されているデータについて説明する。第3実施形態に係るユーザ端末2の記憶装置200Bには、第2実施形態及びその変形例1,2に係るユーザ端末2の記憶装置200Bに記憶されているデータに加えて、撮像位置抽選部212で利用される画像データが位置IDに関連付けて記憶されている。 First, the data stored in the storage device 200B of the user terminal 2 according to the third embodiment will be described. In the storage device 200B of the user terminal 2 according to the third embodiment, in addition to the data stored in the storage device 200B of the user terminal 2 according to the second embodiment and the modified examples 1 and 2, the image pickup position lottery unit. The image data used in 212 is stored in association with the position ID.

図8は、第3実施形態に係るユーザ端末2の表示装置200Dに表示される画面100の一例を示す図である。図8に示すように、撮像位置の異なる4つの本人確認書類撮像用の画面100のデータ(以下、画面データともいう)が位置IDに関連付けて格納されている。図8(a)は、位置ID「C001」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右下に位置する。図8(b)は、位置ID「C002」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左下に位置する。図8(c)は、位置ID「C003」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって右上に位置する。図8(d)は、位置ID「C004」に関連付けられた画面100であり、本人確認書類を撮像する撮像枠F1の位置が紙面に向かって左上に位置する。また、画面100の撮像枠F1以外の領域は、マスキング(塗りつぶされている)されている。 FIG. 8 is a diagram showing an example of a screen 100 displayed on the display device 200D of the user terminal 2 according to the third embodiment. As shown in FIG. 8, data (hereinafter, also referred to as screen data) of four screens 100 for capturing identity verification documents having different imaging positions are stored in association with the position ID. FIG. 8A is a screen 100 associated with the position ID “C001”, and the position of the image pickup frame F1 for imaging the identity verification document is located at the lower right side with respect to the paper surface. FIG. 8B is a screen 100 associated with the position ID “C002”, and the position of the image pickup frame F1 for imaging the identity verification document is located at the lower left side with respect to the paper surface. FIG. 8C is a screen 100 associated with the position ID “C003”, and the position of the image pickup frame F1 for imaging the identity verification document is located on the upper right side of the paper. FIG. 8D is a screen 100 associated with the position ID “C004”, and the position of the image pickup frame F1 for imaging the identity verification document is located on the upper left side of the paper. Further, the area other than the image pickup frame F1 of the screen 100 is masked (filled).

なお、図8に示すように、本人確認書類を撮像する画面100には、撮像方法指示部211からの指示に基づいて指示IDに対応するテキストデータが表示される。また、図8に示す画面100における本人確認書類を撮像する撮像枠F1の位置はあくまで一例であり、図8に示す位置に限られるものではない。本人確認書類を撮像する撮像枠F1の位置が互いに異なる画面を複数用意することができればよい。 As shown in FIG. 8, on the screen 100 for capturing the identity verification document, text data corresponding to the instruction ID is displayed based on the instruction from the imaging method instruction unit 211. Further, the position of the image pickup frame F1 for capturing the identity verification document on the screen 100 shown in FIG. 8 is merely an example, and is not limited to the position shown in FIG. It suffices if it is possible to prepare a plurality of screens in which the positions of the image pickup frames F1 for photographing the identity verification documents are different from each other.

撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。 The imaging position lottery unit 212 randomly selects which of the screens shown in FIG. 8 the user U should capture the identity verification document. In other words, the imaging position lottery unit 212 randomly draws the position ID.

表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。ユーザUは、撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像する。なお、表示装置制御部203のその他の機能ついては、第2実施形態及びその変形例1,2に係る表示装置制御部203と同じである。 The display device control unit 203 causes the display device 200D to display the screen 100 corresponding to the position ID randomly selected by the image pickup position lottery unit 212 in the imaging of the identity verification document. The user U captures the identity verification document while adjusting the position of the image pickup device 200E of the user terminal 2 so that the identity verification document is captured in the image pickup frame F1. The other functions of the display device control unit 203 are the same as those of the display device control unit 203 according to the second embodiment and the modified examples 1 and 2.

なお、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけを第1撮像データとして認証サーバ3へ送信するようにしてもよいし、撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信するようにしてもよい。 In addition, in the imaging of the identity verification document, the transmission unit 204 transmits only the imaging data in the region of the imaging frame F1 among the images captured by the imaging device 200E to the authentication server 3 as the first imaging data. Alternatively, the image pickup data in which the area other than the image pickup frame F1 is masked may be transmitted to the authentication server 3 as the first image pickup data.

認証サーバ3の静止画像データ抽出部303では、ユーザ端末2から送信された第1撮像データから本人確認書類の静止画像データ(以下、第1画像データともいう)を抽出するが、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。 The still image data extraction unit 303 of the authentication server 3 extracts the still image data of the identity verification document (hereinafter, also referred to as the first image data) from the first imaged data transmitted from the user terminal 2, but the user U captures the image. If the identity verification document is not imaged while adjusting the position of the image pickup device 200E of the user terminal 2 so that the identity verification document is captured in the frame F1, the identity verification unit 304 and the second determination unit 305 confirm the identity. The face image of the document cannot be recognized and an authentication error occurs.

(撮像処理)
図9は、第3実施形態に係る認証システムの処理を示すフローチャート図である(撮像処理)。以下、図9を参照して第3実施形態に係る認証システム1の撮像処理について説明する。なお、第3実施形態に係る認証システム1の撮像処理のS100B以降の処理は、図6Aを参照して説明した第2実施形態に係る認証システム1の撮像処理のステップS101A以降の処理と同じであるため、ステップS101A以降の処理については重複する説明を省略する。
(Imaging process)
FIG. 9 is a flowchart showing the processing of the authentication system according to the third embodiment (imaging processing). Hereinafter, the image pickup process of the authentication system 1 according to the third embodiment will be described with reference to FIG. The processing after S100B of the image pickup process of the authentication system 1 according to the third embodiment is the same as the process after step S101A of the image pickup process of the authentication system 1 according to the second embodiment described with reference to FIG. 6A. Therefore, duplicate description will be omitted for the processes after step S101A.

(ステップS100A)
撮像位置抽選部212は、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する。換言すると、撮像位置抽選部212は、位置IDをランダムに抽選する。
(Step S100A)
The imaging position lottery unit 212 randomly selects which of the screens shown in FIG. 8 the user U should capture the identity verification document. In other words, the imaging position lottery unit 212 randomly draws the position ID.

(ステップS100B)
表示装置制御部203は、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させる。
(Step S100B)
The display device control unit 203 causes the display device 200D to display the screen 100 corresponding to the position ID randomly selected by the image pickup position lottery unit 212 in the imaging of the identity verification document.

以降、図6AのステップS101Aの処理へと移行し、ユーザUは、指示に基づいて、本人確認書類の動画の撮像を開始する。 After that, the process proceeds to the process of step S101A of FIG. 6A, and the user U starts capturing the moving image of the identity verification document based on the instruction.

(効果)
以上のように、第3実施形態に係る認証システム1では、図8に示した画面のうちいずれの画面でユーザUに本人確認書類を撮像させるかをランダムに抽選する撮像位置抽選部212を備え、本人確認書類の撮像において、撮像位置抽選部212でランダムに抽選された位置IDに対応する画面100を表示装置200Dに表示させている。そして、送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信している。
(effect)
As described above, the authentication system 1 according to the third embodiment includes an imaging position lottery unit 212 that randomly draws which screen of the screens shown in FIG. 8 causes the user U to image the identity verification document. In the imaging of the identity verification document, the display device 200D displays the screen 100 corresponding to the position ID randomly selected by the imaging position lottery unit 212. Then, in the imaging of the identity verification document, the transmission unit 204 captures only the imaging data in the region of the imaging frame F1 or the imaging data in which the region other than the imaging frame F1 is masked among the images captured by the imaging device 200E. It is transmitted to the authentication server 3 as the first image pickup data.

そして、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。 Then, when the user U does not capture the identity verification document while adjusting the position of the image pickup device 200E of the user terminal 2 so that the identity verification document is captured in the image pickup frame F1, the first determination unit 304 and the second determination Part 305 cannot recognize the face image of the identity verification document, resulting in an authentication error. Therefore, it is possible to confirm whether or not the identity verification document is in the hands of the user U and the user U is performing the operation of capturing the identity verification document as instructed, and the images of the front and back surfaces of the identity verification document can be confirmed. It is possible to prevent the diversion of data. As a result, spoofing can be prevented more effectively.

[第3実施形態の変形例]
なお、第3実施形態では、ユーザ端末2の送信部204は、本人確認書類の撮像において、撮像装置200Eで撮像された映像のうち、撮像枠F1の領域内の撮像データだけ、もしくは撮像枠F1以外の領域がマスキングされた撮像データを第1撮像データとして認証サーバ3へ送信しているが、本人確認書類の撮像において、撮像装置200Eで撮像された映像を撮像位置抽選部212で抽選された位置IDとともに送信するようにしてもよい。そして、認証サーバ3の静止画像データ抽出部303は、ユーザ端末2から送信された位置IDに応じて、第1撮像データから静止画像データを抽出(切り出す)する位置を変化させるようにしてもよい。
[Modified example of the third embodiment]
In the third embodiment, the transmission unit 204 of the user terminal 2 uses only the imaging data in the region of the imaging frame F1 or the imaging frame F1 among the images captured by the imaging device 200E in the imaging of the identity verification document. The image pickup data in which areas other than the masked areas are masked is transmitted to the authentication server 3 as the first image pickup data, but in the image pickup of the identity verification document, the image captured by the image pickup device 200E is drawn by the image pickup position lottery unit 212. It may be transmitted together with the position ID. Then, the still image data extraction unit 303 of the authentication server 3 may change the position for extracting (cutting out) the still image data from the first captured data according to the position ID transmitted from the user terminal 2. ..

具体的には、静止画像データ抽出部303は、位置ID「C001」を受信した場合、第1撮像データの右下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C002」を受信した場合、第1撮像データの左下の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置ID「C003」を受信した場合、第1撮像データの右上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)し、位置IDC「004」を受信した場合、第1撮像データの左上の領域(例えば、全体の半分から1/4程度の領域)から静止画像データを抽出(切り出す)すようにしてもよい。 Specifically, when the still image data extraction unit 303 receives the position ID "C001", the still image data is taken from the lower right region of the first imaging data (for example, an region of about half to one quarter of the whole). When the position ID "C002" is received, the still image data is extracted (cut out) from the lower left area (for example, about half to 1/4 of the whole area) of the first imaging data. When the position ID "C003" is received, the still image data is extracted (cut out) from the upper right area of the first imaging data (for example, an area of about half to 1/4 of the whole), and the position IDC "004" is received. If so, the still image data may be extracted (cut out) from the upper left region of the first imaging data (for example, a region of about half to 1/4 of the whole).

このようにしても、ユーザUが撮像枠F1内に本人確認書類が写るように、ユーザ端末2の撮像装置200Eの位置を調整しながら本人確認書類を撮像していない場合、第1判定部304及び第2判定部305にて本人確認書類の顔画像を認識することができず認証エラーとなる。このため、本人確認書類がユーザU本人の手元にあり、ユーザU本人が指示通り本人確認書類を撮像する動作を行っているか否かを確認することができ、本人確認書類の表面及び裏面の画像データの流用を防止することができる。この結果、なりすましをより効果的に防止することができる。 Even in this way, if the user U does not image the identity verification document while adjusting the position of the image pickup device 200E of the user terminal 2 so that the identity verification document is captured in the image pickup frame F1, the first determination unit 304 In addition, the second determination unit 305 cannot recognize the face image of the identity verification document, resulting in an authentication error. Therefore, it is possible to confirm whether or not the identity verification document is in the hands of the user U and the user U is performing the operation of capturing the identity verification document as instructed, and the images of the front and back surfaces of the identity verification document can be confirmed. It is possible to prevent the diversion of data. As a result, spoofing can be prevented more effectively.

また、上記第3実施形態においては、ユーザ端末2が撮像位置抽選部212の機能を備えているが、認証サーバ3が撮像位置抽選部212の機能を備え、撮像位置抽選部212がランダムに抽選した位置IDをユーザ端末2へ送信し、ユーザ端末2の表示装置制御部203は、受信部205で受信した位置IDに対応する画面100を表示装置200Dに表示させるようにしてもよい。 Further, in the third embodiment, the user terminal 2 has the function of the image pickup position lottery unit 212, but the authentication server 3 has the function of the image pickup position lottery unit 212, and the image pickup position lottery unit 212 randomly draws. The generated position ID may be transmitted to the user terminal 2, and the display device control unit 203 of the user terminal 2 may display the screen 100 corresponding to the position ID received by the reception unit 205 on the display device 200D.

以上説明したように、本発明によれば、信頼性の高い本人確認を行うことのできる認証システム、認証方法及び認証プログラムを提供することができる。 As described above, according to the present invention, it is possible to provide an authentication system, an authentication method, and an authentication program capable of performing highly reliable identity verification.

1 認証システム
2 ユーザ端末
200A 通信IF
200B 記憶装置
200C 入力装置
200D 表示装置
200E 撮像装置(カメラ)
200F 音声出力装置(スピーカ)
200G CPU
200H バス(BUS)
201 撮像装置制御部
202 入力受付部
203 表示装置制御部
204 送信部
205 受信部
206 動作抽出部
207 指示タイミング決定部
208 動作指示部
209 音声出力装置制御部
210 記憶装置制御部
211 撮像方法指示部
212 撮像位置抽選部
3 認証サーバ
300A 通信IF
300B 記憶装置
300C CPU
300D バス(BUS)
301 受信部(第1,第2取得部)
302 動作指示タイミング認識部
303 静止画像データ抽出部
304 第1判定部
305 第2判定部
306 第3判定部
307 第4判定部
308 記憶装置制御部
309 送信部
310 第5判定部
4 ネットワーク

1 Authentication system 2 User terminal 200A Communication IF
200B Storage device 200C Input device 200D Display device 200E Image pickup device (camera)
200F audio output device (speaker)
200G CPU
200H bus (BUS)
201 Imaging device control unit 202 Input reception unit 203 Display device control unit 204 Transmission unit 205 Reception unit 206 Operation extraction unit 207 Instruction timing determination unit 208 Operation instruction unit 209 Audio output device control unit 210 Storage device control unit 211 Imaging method instruction unit 212 Imaging position lottery unit 3 Authentication server 300A Communication IF
300B storage device 300C CPU
300D bus (BUS)
301 Receiver (1st and 2nd acquisition)
302 Operation instruction timing recognition unit 303 Still image data extraction unit 304 1st judgment unit 305 2nd judgment unit 306 3rd judgment unit 307 4th judgment unit 308 Storage device control unit 309 Transmission unit 310 5th judgment unit 4 Network

Claims (7)

本人確認書類の画像データを取得する情報処理装置であって、
撮像位置の異なる本人確認書類撮像用の画面データが複数格納された記憶部を参照し、前記撮像位置の異なる本人確認書類撮像用の画面データのいずれで前記本人確認書類を撮像させるかを抽選する撮像位置抽選部と、
前記撮像位置抽選部で抽選された位置で前記本人確認書類を撮像するように指示する撮像方法指示部と、
前記撮像方法指示部による指示に基づいて撮像された前記本人確認書類の撮像データを取得する撮像データ取得部と、
を備えることを特徴とする情報処理装置
An information processing device that acquires image data of identity verification documents.
With reference to a storage unit in which a plurality of screen data for capturing identity verification documents having different imaging positions are stored, a lottery is drawn as to which of the screen data for capturing identity verification documents having different imaging positions is used to capture the identity verification documents. Imaging position lottery section and
An imaging method instruction unit that instructs the identification document to be imaged at a position drawn by the imaging position lottery unit, and an imaging method instruction unit.
An imaging data acquisition unit that acquires imaging data of the identity verification document imaged based on instructions from the imaging method instruction unit, and an imaging data acquisition unit.
An information processing device characterized by being equipped with.
記撮像方法指示部は、
前記本人確認書類の表面及び裏面を撮像するように指示することを特徴とする請求項1に記載の情報処理装置
The image pickup method instruction unit is
The information processing apparatus according to claim 1, wherein the information processing apparatus is instructed to image the front surface and the back surface of the identity verification document.
前記撮像方法指示部は、
前記本人確認書類の表面及び裏面を撮像する際に、前記本人確認書類をひっくり返すよう指示することを特徴とする請求項2に記載の情報処理装置
The image pickup method instruction unit is
The information processing apparatus according to claim 2, wherein when the front surface and the back surface of the identity verification document are imaged, an instruction is given to turn over the identity verification document.
前記撮像方法指示部は、
前記本人確認書類の厚みがわかるように、前記本人確認書類を斜めに傾けた状態で撮像するよう指示することを特徴とする請求項2又は請求項3に記載の情報処理装置
The image pickup method instruction unit is
The information processing apparatus according to claim 2 or 3, wherein the information processing apparatus is instructed to take an image of the identity verification document in an obliquely tilted state so that the thickness of the identity verification document can be known.
前記撮像方法指示部は、
動画により前記本人確認書類を撮像するよう指示することを特徴とする請求項2乃至請求項4のいずれかに記載の情報処理装置
The image pickup method instruction unit is
The information processing apparatus according to any one of claims 2 to 4, wherein the information processing apparatus is instructed to capture an image of the identity verification document by a moving image.
本人確認書類の画像データを取得する情報処理方法であって、
撮像位置抽選部が、撮像位置の異なる本人確認書類撮像用の画面データが複数格納された記憶部を参照し、前記撮像位置の異なる本人確認書類撮像用の画面データのいずれで前記本人確認書類を撮像させるかを抽選する工程と、
撮像方法指示部が、前記撮像位置抽選部で抽選された位置で前記本人確認書類を撮像するように指示する工程と、
撮像データ取得部が、前記撮像方法指示部による指示に基づいて撮像された前記本人確認書類の撮像データを取得する工程と、
を有することを特徴とする情報処理方法。
It is an information processing method to acquire image data of identity verification documents.
The imaging position lottery unit refers to a storage unit in which a plurality of screen data for imaging identity verification documents having different imaging positions are stored, and the identity verification document is displayed on any of the screen data for imaging identity verification documents having different imaging positions. The process of drawing a lottery to make an image and
A step of instructing the image pickup method instruction unit to image the identity verification document at the position drawn by the image pickup position lottery unit, and
A step of acquiring the image pickup data of the identity verification document imaged by the image pickup data acquisition unit based on the instruction by the image pickup method instruction unit , and
An information processing method characterized by having.
本人確認書類の画像データを取得する情報処理プログラムであって、
コンピュータを、
撮像位置の異なる本人確認書類撮像用の画面データが複数格納された記憶部を参照し、前記撮像位置の異なる本人確認書類撮像用の画面データのいずれで前記本人確認書類を撮像させるかを抽選する撮像位置抽選部、
前記撮像位置抽選部で抽選された位置で前記本人確認書類を撮像するように指示する撮像方法指示部、
前記撮像方法指示部による指示に基づいて撮像された前記本人確認書類の撮像データを取得する撮像データ取得部、
として機能させることを特徴とする情報処理プログラム。
An information processing program that acquires image data of identity verification documents.
Computer,
With reference to a storage unit in which a plurality of screen data for capturing identity verification documents having different imaging positions are stored, a lottery is drawn as to which of the screen data for capturing identity verification documents having different imaging positions is used to capture the identity verification documents. Imaging position lottery section,
An imaging method instruction unit that instructs the identification document to be imaged at a position drawn by the imaging position lottery unit.
An imaging data acquisition unit that acquires imaging data of the identity verification document imaged based on instructions from the imaging method instruction unit,
An information processing program characterized by functioning as.
JP2019101047A 2018-12-11 2019-05-30 Information processing equipment, information processing method, information processing program Active JP7068710B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018231361 2018-12-11
JP2018231361 2018-12-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018237005A Division JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program

Publications (2)

Publication Number Publication Date
JP2020095670A JP2020095670A (en) 2020-06-18
JP7068710B2 true JP7068710B2 (en) 2022-05-17

Family

ID=67212105

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018237005A Active JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program
JP2019101047A Active JP7068710B2 (en) 2018-12-11 2019-05-30 Information processing equipment, information processing method, information processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018237005A Active JP6541140B1 (en) 2018-12-11 2018-12-19 Authentication system, authentication method, authentication program

Country Status (1)

Country Link
JP (2) JP6541140B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733790B2 (en) * 2018-12-10 2020-08-05 大日本印刷株式会社 Mobile terminal, identity verification system and program
JP7318325B2 (en) * 2019-06-10 2023-08-01 沖電気工業株式会社 Information processing device and program
EP4316657A1 (en) 2021-03-31 2024-02-07 Furukawa Electric Co., Ltd. Catalyst structure for synthesis gas production, synthesis gas production device, and method for producing catalyst structure for synthesis gas production
WO2023013373A1 (en) * 2021-08-02 2023-02-09 株式会社辰巳菱機 Remote medical care system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101513A (en) 2011-11-08 2013-05-23 Nec Corp Information processing device, information processing method, and information processing program
US20160232534A1 (en) 2015-02-06 2016-08-11 Trunomi Ltd. Systems and Methods for Generating an Auditable Digital Certificate
JP2016200922A (en) 2015-04-09 2016-12-01 司 窪田 My number collection system, my number accumulation device, input device, repeating device, operation method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2946887B2 (en) * 1991-11-20 1999-09-06 凸版印刷株式会社 Magnetic card inspection device
JP2002236666A (en) * 2001-02-09 2002-08-23 Matsushita Electric Ind Co Ltd Personal authentication device
JP2003317100A (en) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd Information terminal device, authentication system, and registering and authenticating method
JP2005284565A (en) * 2004-03-29 2005-10-13 Glory Ltd Automatic transaction apparatus
JP2006133930A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication processor, authentication processing method, and computer program
JP4548218B2 (en) * 2005-05-24 2010-09-22 パナソニック電工株式会社 Face recognition device
JP5076563B2 (en) * 2006-03-14 2012-11-21 オムロン株式会社 Face matching device
JP2010204829A (en) * 2009-03-02 2010-09-16 Nec Corp Authentication device, authentication method, and user authentication system
JP2013134684A (en) * 2011-12-27 2013-07-08 Nec Corp Electronic transaction terminal, electronic transaction system, electronic transaction method, and electronic transaction program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101513A (en) 2011-11-08 2013-05-23 Nec Corp Information processing device, information processing method, and information processing program
US20160232534A1 (en) 2015-02-06 2016-08-11 Trunomi Ltd. Systems and Methods for Generating an Auditable Digital Certificate
JP2016200922A (en) 2015-04-09 2016-12-01 司 窪田 My number collection system, my number accumulation device, input device, repeating device, operation method, and program

Also Published As

Publication number Publication date
JP2020095670A (en) 2020-06-18
JP6541140B1 (en) 2019-07-10
JP2020095652A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP7068710B2 (en) Information processing equipment, information processing method, information processing program
KR101356358B1 (en) Computer-implemented method and apparatus for biometric authentication based on images of an eye
WO2019127262A1 (en) Cloud end-based human face in vivo detection method, electronic device and program product
WO2016197298A1 (en) Living body detection method, living body detection system and computer program product
US11006864B2 (en) Face detection device, face detection system, and face detection method
CN105989263A (en) Method for authenticating identities, method for opening accounts, devices and systems
JP5076563B2 (en) Face matching device
JP2002251380A (en) User collation system
EP3555799B1 (en) A method for selecting frames used in face processing
WO2016172923A1 (en) Video detection method, video detection system, and computer program product
JP2007135149A (en) Mobile portable terminal
JP7363786B2 (en) Information processing device, information processing method, and information processing program
JP2006235718A (en) Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
JP2007156974A (en) Personal identification/discrimination system
JP2006309562A (en) Biological information registering device
JP7318833B2 (en) Image processing device, image processing method, and program
KR102160137B1 (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
CN112861588A (en) Living body detection method and device
JP4937639B2 (en) Authentication method, authentication device, authentication program, and recording medium on which the program is recorded
WO2021125268A1 (en) Control device, control method, and program
CN113096809A (en) Health management system based on cloud computing
JP6438693B2 (en) Authentication apparatus, authentication method, and program
WO2020152917A1 (en) Face authentication device, face authentication method, program, and recording medium
CN110088765B (en) Comparison device and comparison method
JP2008000464A (en) Authentication device and authentication method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220422

R150 Certificate of patent or registration of utility model

Ref document number: 7068710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157