JP2020022045A - Program, information processing method, and information processing apparatus - Google Patents

Program, information processing method, and information processing apparatus Download PDF

Info

Publication number
JP2020022045A
JP2020022045A JP2018143704A JP2018143704A JP2020022045A JP 2020022045 A JP2020022045 A JP 2020022045A JP 2018143704 A JP2018143704 A JP 2018143704A JP 2018143704 A JP2018143704 A JP 2018143704A JP 2020022045 A JP2020022045 A JP 2020022045A
Authority
JP
Japan
Prior art keywords
face
user
image
shooting
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018143704A
Other languages
Japanese (ja)
Other versions
JP6479245B1 (en
Inventor
ラートサムルアイパン カンウィパー
Lertsumruaypun Kanwipa
ラートサムルアイパン カンウィパー
裕晶 有定
Hiroaki Arisada
裕晶 有定
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercari Inc
Original Assignee
Mercari Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercari Inc filed Critical Mercari Inc
Priority to JP2018143704A priority Critical patent/JP6479245B1/en
Application granted granted Critical
Publication of JP6479245B1 publication Critical patent/JP6479245B1/en
Publication of JP2020022045A publication Critical patent/JP2020022045A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

To provide a technology that can guarantee that an image submitted online at the time of identity verification is taken on the spot.SOLUTION: A program causes an information processing apparatus including a display unit to execute a step of displaying a moving image of a shooting area output to the display unit by a shooting device, a step of displaying a shooting guide instructing a method of shooting a face, which includes a position in the shooting area of the user's face, which is selected on the basis of a predetermined selection logic, in a shooting area displayed on the display unit, and a step of causing the shooting device to shoot the moving image of the shooting area.SELECTED DRAWING: Figure 9

Description

本開示は、プログラム、情報処理方法、情報処理装置に関する。   The present disclosure relates to a program, an information processing method, and an information processing device.

近年、Fintechと呼ばれる、ICTを利用した金融サービスが発展している。Fintechサービスの一例としては、例えば、家計簿や帳簿等を自動的に作成することで家計や企業の資産管理を行うサービス、資産運用を行うサービス、仮想通貨の取引を行うサービス、QRコード(登録商標)等による決済手段を提供するサービス等が挙げられる。   In recent years, a financial service using ICT called Fintech has been developed. Examples of the Fintech service include, for example, a service for automatically managing a household account and a book by automatically creating a household account book, a book, and the like, a service for asset management, a service for trading virtual currency, a QR code (registration) (Trademark) and the like.

これらのサービスを提供する事業者は、不正行為等が行われることを未然に防止するために、サービスの利用を希望する者の本人確認を行うことが義務づけられている。例えば、特許文献1には、複数の身分証明書を対応づけて画面に表示することで、申請者の本人確認を容易にするための技術が開示されている。   It is obligatory for a company that provides these services to confirm the identity of a person who wants to use the service in order to prevent fraudulent acts or the like from occurring. For example, Patent Literature 1 discloses a technology for facilitating identity verification of an applicant by displaying a plurality of identification cards on a screen in association with each other.

特開2016−157439号公報JP-A-2006-157439

現状、決済など資金のやり取りを扱う一部のサービスでは、ユーザからオンラインで提出された身分証明書の画像を確認することのみならず、申し込み書類をユーザの自宅に郵送する等の手段を併用することで、本人確認を厳格に行うようにしている。しかしながら、今後のサービスの発展を考慮すると、郵送等の手段に頼らずに本人確認をオンラインで完結できるようにすることが望ましい。   Currently, some services that handle the exchange of funds, such as payments, not only check the image of the ID card submitted by the user online, but also use means such as mailing the application document to the user's home As a result, strict identity verification is performed. However, in view of the future development of services, it is desirable to be able to complete identity verification online without relying on means such as mailing.

本人確認をオンラインで行う場合、加工等が行われた不正な画像データが提出される可能性がある。このような不正を防止するためには、オンラインで提出された画像データが、使いまわした画像ではなくその場で撮影されたものであること(LIVE性)を担保できるようにする仕組みが必要になると考えられる。   When performing identity verification online, there is a possibility that unauthorized image data that has been processed or the like may be submitted. In order to prevent such impropriety, a mechanism is required that can ensure that the image data submitted online is not the reused image but the one taken on the spot (liveness). It is considered to be.

しかしながら、特許文献1には、申請者の本人確認を容易にするための技術は開示されているが、本人確認に用いる画像がその場で撮影されたものであることを担保する技術は記載されていない。   However, Patent Literature 1 discloses a technique for facilitating identity verification of an applicant, but discloses a technique for ensuring that an image used for identity verification is taken on the spot. Not.

本開示は、本人確認時にオンラインで提出される画像が、その場で撮影されたものであることを担保することが可能な技術を提供することを目的とする。   An object of the present disclosure is to provide a technology capable of ensuring that an image submitted online at the time of identity verification is taken on the spot.

本開示の一実施形態に係るプログラムは、表示部を有する情報処理装置に、表示部に撮影装置が出力する撮影領域の動画像を表示するステップと、表示部に表示される撮影領域に、所定の選択ロジックに基づいて選択された、ユーザの顔の撮影領域内における位置を含む顔の撮影方法を指示する撮影ガイドを表示するステップと、撮影装置に撮影領域の動画像を撮影させるステップと、を実行させる。   A program according to an embodiment of the present disclosure includes, on an information processing apparatus having a display unit, a step of displaying a moving image of a shooting region output by the shooting device on the display unit; Displaying a shooting guide that instructs a shooting method of the face including the position of the user's face in the shooting area selected based on the selection logic, and causing the shooting apparatus to shoot a moving image of the shooting area, Is executed.

図1は、実施形態の一態様に係る通信システムの構成を示す。FIG. 1 illustrates a configuration of a communication system according to an aspect of the embodiment. 図2は、本開示に係る情報処理装置のハードウェア構成の一例を示す。FIG. 2 illustrates an example of a hardware configuration of the information processing apparatus according to the present disclosure. 図3は、第1実施形態に係る情報処理装置の機能的な構成を示すブロック図の一例を示す。FIG. 3 is an example of a block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. 図4は、第1実施形態に係る情報処理装置の機能的な構成を示すブロック図の一例を示す。FIG. 4 is an example of a block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. 図5は、第1実施形態に係る通信システム1が行う処理を示すシーケンスの一例を示す。FIG. 5 illustrates an example of a sequence illustrating a process performed by the communication system 1 according to the first embodiment. 図6は、第1実施形態に係る通信システム1が行う処理を示すシーケンスの一例を示す。FIG. 6 illustrates an example of a sequence illustrating a process performed by the communication system 1 according to the first embodiment. 図7は、第1実施形態に係る情報処理装置の撮影画面に表示される身分証明書の撮影ガイドの一例を示す。FIG. 7 shows an example of a photographing guide of an identification card displayed on a photographing screen of the information processing apparatus according to the first embodiment. 図8は、第1実施形態に係る情報処理装置の撮影画面に表示される身分証明書の撮影ガイドの一例を示す。FIG. 8 illustrates an example of a photographing guide of an identification card displayed on a photographing screen of the information processing apparatus according to the first embodiment. 図9は、第2実施形態に係る情報処理装置の撮影画面に表示される顔の撮影ガイドの一例を示すFIG. 9 illustrates an example of a face shooting guide displayed on a shooting screen of the information processing apparatus according to the second embodiment. 図10は、第2実施形態に係る情報処理装置の撮影画面に表示される顔の撮影ガイドの一例を示すFIG. 10 illustrates an example of a face shooting guide displayed on a shooting screen of the information processing apparatus according to the second embodiment. 図11は、第3実施形態に係る情報処理装置の撮影画面に表示される身分証明書の側面の撮影ガイドの一例を示す。FIG. 11 illustrates an example of a shooting guide on the side of an identification card displayed on a shooting screen of the information processing apparatus according to the third embodiment. 図12は、第3実施形態に係る情報処理装置の撮影画面に表示される身分証明書の側面の撮影ガイドの一例を示す。FIG. 12 shows an example of a photographing guide on the side of the identification card displayed on the photographing screen of the information processing apparatus according to the third embodiment. 図13は、第3実施形態に係る情報処理装置の機能的な構成を示すブロック図の一例を示す。FIG. 13 is an example of a block diagram illustrating a functional configuration of an information processing apparatus according to the third embodiment. 図14は、第4実施形態に係る通信システムの処理のシーケンスの一例を示す。FIG. 14 shows an example of a processing sequence of the communication system according to the fourth embodiment. 図15は、第5実施形態に係る通信システムの処理のシーケンスの一例を示す。FIG. 15 shows an example of a processing sequence of the communication system according to the fifth embodiment.

<法令遵守>
本明細書に記載の開示は、実施される場合、本開示を実施する各国の法令を遵守のうえで実施される。また、本明細書に記載の開示は、各国の法令を遵守するために必要な、当業者が成し得る全ての変更、置換、変形、改変、および修正をもって実施される。
<Legal compliance>
The disclosure set forth herein, if implemented, will be implemented in compliance with the laws of the countries where the disclosure is implemented. In addition, the disclosure described in this specification is implemented with all the changes, substitutions, variations, alterations, and modifications that can be made by those skilled in the art necessary to comply with the laws and regulations of each country.

本開示に係る通信システム1を実施するための形態について、図面を参照して説明する。   An embodiment for implementing the communication system 1 according to the present disclosure will be described with reference to the drawings.

<システム構成>
図1は、本開示の一実施形態に係る通信システム1の構成を示す。図1に開示されるように、通信システム1では、ネットワーク130を介してサーバ110A、サーバ110Bと、端末120A、端末120B、端末120Cとが接続される。
<System configuration>
FIG. 1 illustrates a configuration of a communication system 1 according to an embodiment of the present disclosure. As disclosed in FIG. 1, in the communication system 1, the servers 110A and 110B are connected to the terminals 120A, 120B, and 120C via the network 130.

本開示において、サーバ110Aと、サーバ110Bとをそれぞれ区別する必要がない場合は、サーバ110Aとサーバ110Bとは、それぞれサーバ110と表現されてもよい。   In the present disclosure, when it is not necessary to distinguish between the server 110A and the server 110B, the server 110A and the server 110B may be expressed as the server 110, respectively.

本開示において、端末120Aと、端末120Bと、端末120Cとをそれぞれ区別する必要がない場合は、端末120Aと端末120Bと端末120Cとは、それぞれ端末120と表現されてもよい。   In the present disclosure, when it is not necessary to distinguish between the terminal 120A, the terminal 120B, and the terminal 120C, the terminal 120A, the terminal 120B, and the terminal 120C may be expressed as the terminal 120, respectively.

本開示において、サーバ110と、端末120とをそれぞれ区別する必要がない場合は、サーバ110と端末120とは、それぞれ情報処理装置200と表現されてもよい。なお、ネットワーク130に接続される情報処理装置200の数は限定されない。   In the present disclosure, when it is not necessary to distinguish between the server 110 and the terminal 120, the server 110 and the terminal 120 may be expressed as the information processing device 200, respectively. Note that the number of information processing devices 200 connected to the network 130 is not limited.

サーバ110は、ネットワーク130を介してユーザが利用する端末120に、所定のサービスを提供する。所定のサービスは、限定でなく例として、決済サービス、電子商取引サービス、インスタントメッセンジャーを代表とするSNS(Social Networking Service)、楽曲・動画・書籍などのコンテンツ提供サービス、金融サービス等を含む。ユーザが端末120を介して所定のサービスを利用することで、サーバ110は1以上の端末120に所定のサービスを提供することができる。   The server 110 provides a predetermined service to the terminal 120 used by the user via the network 130. Examples of the predetermined service include, but are not limited to, a settlement service, an electronic commerce service, an SNS (Social Networking Service) represented by an instant messenger, a content providing service such as music, videos, and books, and a financial service. When the user uses a predetermined service via the terminal 120, the server 110 can provide the predetermined service to one or more terminals 120.

必要に応じて、ユーザXが利用する端末を端末120Xと表現し、ユーザXまたは端末120Xに対応づけられた、所定のサービスにおけるユーザ情報をユーザ情報Xと表現する。なお、ユーザ情報とは、所定のサービスにおいてユーザが利用するアカウントに対応付けられたユーザの情報である。ユーザ情報は、限定でなく例として、ユーザにより入力される、または、所定のサービスにより付与される、ユーザの名前、ユーザのアイコン画像、ユーザの年齢、ユーザの性別、ユーザの住所、ユーザの趣味趣向、ユーザの識別子などのユーザに対応づけられた情報を含み、これらのいずれか一つまたは、組み合わせであってもよい。   If necessary, a terminal used by the user X is expressed as a terminal 120X, and user information in a predetermined service associated with the user X or the terminal 120X is expressed as user information X. The user information is information of a user associated with an account used by the user in a predetermined service. The user information is, by way of example and not limitation, a user's name, a user's icon image, a user's age, a user's gender, a user's address, and a user's hobby that are input by the user or given by a predetermined service. The information includes information associated with the user, such as the preference and the user identifier, and any one or a combination of these may be used.

ネットワーク130は、2以上の情報処理装置200を接続する役割を担う。ネットワーク130は、端末120がサーバ110に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。   The network 130 has a role of connecting two or more information processing apparatuses 200. The network 130 refers to a communication network that provides a connection path so that data can be transmitted and received after the terminal 120 connects to the server 110.

ネットワーク130のうちの1つまたは複数の部分は、有線ネットワークや無線ネットワークであってもよい。ネットワーク130は、限定でなく例として、アドホック・ネットワーク(Ad Hoc Network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(Virtual Private Network:VPN)、ローカル・エリア・ネットワーク(Local Area Network:LAN)、ワイヤレスLAN(Wireless LAN:WLAN)、広域ネットワーク(Wide Area Network:WAN)、ワイヤレスWAN(Wireless WAN:WWAN)、大都市圏ネットワーク(Metropolitan Area Network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDNs(Integrated Service Digital Networks)、無線LANs、LTE(Long Term Evolution)、CDMA(Code Division Multiple Access)、ブルートゥース(Bluetooth(登録商標))、衛星通信など、または、これらの2つ以上の組合せを含むことができる。ネットワーク130は、1つまたは複数のネットワーク130を含むことができる。   One or more portions of network 130 may be a wired or wireless network. The network 130 may be, for example and without limitation, an ad hoc network, an intranet, an extranet, a virtual private network (VPN), a local area network (LAN), LAN (Wireless LAN: WLAN), wide area network (Wide Area Network: WAN), wireless WAN (Wireless WAN: WWAN), metropolitan area network (MAN), part of the Internet, public switched telephone network (Public) Switched Telephone Network: a part of PSTN, mobile phone network, ISDNs (Integrated Service Digital Networks), wireless LANs, LTE (Long Term Evolution), CDMA (Code Division Multiple Access), Bluetooth (Bluetooth (registered trademark)), satellite Communication etc., or It may include two or more combinations of these. Network 130 may include one or more networks 130.

情報処理装置200は、本開示に記載される機能、および/または、方法を実現できる情報処理装置であればどのような情報処理装置であってもよい。   The information processing device 200 may be any information processing device that can implement the functions and / or methods described in the present disclosure.

情報処理装置200は、限定ではなく例として、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(限定でなく例として、デスクトップ、ラップトップ、タブレットなど)、サーバ装置、メディアコンピュータプラットホーム(限定でなく例として、ケーブル、衛星セットトップボックス、デジタルビデオレコーダなど)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA(Personal Digital Assistant)、電子メールクライアントなど)、ウェアラブル端末(限定でなく例として、メガネ型デバイス、時計型デバイスなど)、他種のコンピュータ、またはコミュニケーションプラットホームを含む。   The information processing apparatus 200 includes, but is not limited to, a smartphone, a mobile phone (feature phone), a computer (for example, but not limited to, a desktop, a laptop, and a tablet), a server device, and a media computer platform (for example, but not limited to). , Cables, satellite set-top boxes, digital video recorders, etc.), handheld computer devices (eg, but not limited to, PDA (Personal Digital Assistant), e-mail clients, etc.), wearable terminals (eg, but not limited to, glasses-type devices, Clock devices, etc.), other types of computers, or communication platforms.

<ハードウェア(HW)構成>
図2を用いて、通信システム1に含まれる情報処理装置200のHW構成について説明する。
<Hardware (HW) configuration>
The HW configuration of the information processing device 200 included in the communication system 1 will be described with reference to FIG.

情報処理装置200は、プロセッサ201と、メモリ202と、ストレージ203と、入出力インタフェース(入出力I/F)204と、通信インタフェース(通信I/F)205とを含む。情報処理装置200のHWの各構成要素は、限定でなく例として、バスBを介して相互に接続される。   The information processing device 200 includes a processor 201, a memory 202, a storage 203, an input / output interface (input / output I / F) 204, and a communication interface (communication I / F) 205. The components of the HW of the information processing device 200 are interconnected via a bus B, for example, but not limited to.

情報処理装置200は、プロセッサ201と、メモリ202と、ストレージ203と、入出力I/F204と、通信I/F205との協働により、本開示に記載される機能、および/または、方法を実現する。   The information processing device 200 realizes the functions and / or methods described in the present disclosure by cooperation of the processor 201, the memory 202, the storage 203, the input / output I / F 204, and the communication I / F 205. I do.

プロセッサ201は、ストレージ203に記憶されるプログラムに含まれるコードまたは命令によって実現する機能、および/または、方法を実行する。プロセッサ201は、限定でなく例として、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphic s Processing Unit)、マイクロプロセッサ(microprocessor)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含み、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各実施形態に開示される各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、各実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。   The processor 201 executes a function and / or a method realized by a code or an instruction included in a program stored in the storage 203. The processor 201 includes, for example and without limitation, a central processing unit (CPU), an MPU (Micro Processing Unit), a GPU (Graphics s Processing Unit), a microprocessor (microprocessor), a processor core, and a multiprocessor. ASIC (Application-Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc., and logic circuits (hardware) formed on integrated circuits (IC (Integrated Circuit) chips, LSI (Large Scale Integration)), etc. Each processing disclosed in each embodiment may be realized by a dedicated circuit. Further, these circuits may be realized by one or a plurality of integrated circuits, and the plurality of processes described in each embodiment may be realized by one integrated circuit. Further, the LSI may be referred to as a VLSI, a super LSI, an ultra LSI, or the like, depending on the degree of integration.

メモリ202は、ストレージ203からロードしたプログラムを一時的に記憶し、プロセッサ201に対して作業領域を提供する。メモリ202には、プロセッサ201がプログラムを実行している間に生成される各種データも一時的に格納される。メモリ202は、限定でなく例として、RAM(Random Access Memory)、ROM(Read Only Memory)などを含む。   The memory 202 temporarily stores the program loaded from the storage 203 and provides a work area for the processor 201. The memory 202 also temporarily stores various data generated while the processor 201 is executing the program. The memory 202 includes, for example, without limitation, a random access memory (RAM) and a read only memory (ROM).

ストレージ203は、プログラムを記憶する。ストレージ203は、限定でなく例として、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリなどを含む。   The storage 203 stores a program. The storage 203 includes, for example, without limitation, a hard disk drive (HDD), a solid state drive (SSD), and a flash memory.

通信I/F205は、ネットワーク130を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。通信I/F205は、ネットワーク130を介して、他の情報処理装置との通信を実行する機能を有する。通信I/F205は、各種データをプロセッサ201からの指示に従って、他の情報処理装置に送信する。また、通信I/F205は、他の情報処理装置から送信された各種データを受信し、プロセッサ201に伝達する。   The communication I / F 205 sends and receives various data via the network 130. The communication may be performed by wire or wireless, and any communication protocol may be used as long as mutual communication can be performed. The communication I / F 205 has a function of executing communication with another information processing device via the network 130. The communication I / F 205 transmits various data to another information processing device in accordance with an instruction from the processor 201. Further, the communication I / F 205 receives various data transmitted from another information processing apparatus and transmits the data to the processor 201.

入出力I/F204は、情報処理装置200に対する各種操作を入力する入力装置、および、情報処理装置200で処理された処理結果を出力する出力装置を含む。入出力I/F204は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。   The input / output I / F 204 includes an input device that inputs various operations to the information processing device 200 and an output device that outputs a processing result processed by the information processing device 200. In the input / output I / F 204, an input device and an output device may be integrated, or may be separated into an input device and an output device.

入力装置は、ユーザからの入力を受け付けて、当該入力に係る情報をプロセッサ201に伝達できる全ての種類の装置のいずれか、または、その組み合わせにより実現される。入力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(画像を介した操作入力)、マイク(音声による操作入力)を含む。   The input device is realized by any one of all types of devices capable of receiving input from a user and transmitting information related to the input to the processor 201, or a combination thereof. The input device includes, for example and without limitation, hardware keys such as a touch panel, a touch display, and a keyboard, a pointing device such as a mouse, a camera (operation input through an image), and a microphone (operation input by voice).

出力装置は、プロセッサ201で処理された処理結果を出力することができる全ての種類の装置のいずれか、または、その組み合わせにより実現される。当該処理結果を映像、および/または、動画像として出力する場合、出力装置は、フレームバッファに書き込まれた表示データに従って、当該表示データを表示することができる全ての種類の装置のいずれかまたはその組み合わせにより実現される。出力装置は、限定でなく例として、タッチパネル、タッチディスプレイ、モニタ(限定でなく例として、液晶ディスプレイ、OELD(Organic Electroluminescence Display)など)、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中など(真空であってもよい)に画像やテキスト情報等を表示可能な装置、スピーカ(音声出力)、プリンターなどを含む。なお、これらの出力装置は、3Dで表示データを表示可能であってもよい。   The output device is realized by any one of all types of devices capable of outputting the processing result processed by the processor 201 or a combination thereof. When outputting the processing result as a video and / or a moving image, the output device may be any one of or all devices capable of displaying the display data according to the display data written in the frame buffer. It is realized by a combination. Examples of the output device include, but are not limited to, a touch panel, a touch display, a monitor (for example, but not limited to, a liquid crystal display, an OELD (Organic Electroluminescence Display)), a head mounted display (HDM), a projection mapping, and a hologram. And a device capable of displaying an image or text information in the air or the like (may be a vacuum), a speaker (audio output), a printer, and the like. Note that these output devices may be capable of displaying display data in 3D.

本開示の各実施形態のプログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、限定でなく例として、ソフトウェアプログラムやコンピュータプログラムを含む。   The program according to each embodiment of the present disclosure may be provided in a state stored in a computer-readable storage medium. The storage medium is capable of storing the program on a “temporary tangible medium”. The programs include, by way of example and not limitation, software programs and computer programs.

記憶媒体は適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(限定でなく例として、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。   The storage medium is, where appropriate, one or more semiconductor-based or other integrated circuits (ICs), such as, but not limited to, a field programmable gate array (FPGA), an application specific IC (ASIC), etc. ), Hard disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic It may include tape, solid state drive (SSD), RAM drive, secure digital card or drive, any other suitable storage medium, or a suitable combination of two or more thereof. A storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate.

また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、情報処理装置200に提供されてもよい。   Further, the program of the present disclosure may be provided to information processing device 200 via any transmission medium (such as a communication network or a broadcast wave) capable of transmitting the program.

また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   Further, each embodiment of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which a program is embodied by electronic transmission.

なお、本開示のプログラムは、限定でなく例として、ActionScript、JavaScript(登録商標)などのスクリプト言語、Jective−C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装される。   The program according to the present disclosure includes, for example and without limitation, script languages such as ActionScript and Javascript (registered trademark), object-oriented programming languages such as Jactive-C and Java (registered trademark), and markup languages such as HTML5. Implemented using

情報処理装置200おける処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。   At least a part of the processing in the information processing device 200 may be realized by cloud computing including one or more computers.

情報処理装置200における処理の少なくとも一部を、他の情報処理装置により行う構成としてもよい。この場合、プロセッサ201により実現される各機能部の処理のうち少なくとも一部の処理を、他の情報処理装置で行う構成としてもよい。   At least part of the processing in the information processing device 200 may be performed by another information processing device. In this case, at least a part of the processing of each functional unit realized by the processor 201 may be performed by another information processing device.

<その他>
明示的な言及のない限り、本開示の実施形態における判定の構成は必須でなく、判定条件を満たした場合に所定の処理が動作されたり、判定条件を満たさない場合に所定の処理がされたりしてもよい。
<Others>
Unless explicitly stated, the configuration of the determination in the embodiment of the present disclosure is not essential, and a predetermined process is performed when the determination condition is satisfied, or a predetermined process is performed when the determination condition is not satisfied. May be.

本開示では、明記されない限り、または文脈によって示されない限り、「または」は排他的ではなく包含的な意味である。したがって、本開示では、明記されていない限り、または文脈によって示されない限り、「AまたはB」は「A、B、またはその両方」を意味する。さらに、明記されない限り、または文脈によって示されない限り、「および」は協同(joint)および個々(several)の両方の意味である。したがって、本明細書では、明記されない限り、または文脈によって 示されない限り、「AおよびB」は、「AおよびBが一緒に、または個別に(A and B、 jointly or severally)」を意味する。さらに、明記されない限り、または文脈によって示されない限り、「a」、「an」、または「the」は「1つまたは複数」を意味するものとする。したがって、本明細書では、別段に明記されない限り、または文脈によって示されない限り、「an A」または「the A」は「1つまたは複数のA」を意味する。   In this disclosure, “or” has the inclusive, rather than exclusive, meaning unless otherwise stated or indicated by context. Thus, in this disclosure, "A or B" means "A, B, or both," unless stated otherwise or indicated by context. Further, unless otherwise indicated or indicated by context, "and" is intended to mean both joint and individual. Thus, as used herein, unless otherwise specified or indicated by context, "A and B" means "A and B together or separately (J and J)." Further, unless otherwise specified or indicated by context, “a,” “an,” or “the” shall mean “one or more.” Thus, as used herein, unless otherwise indicated or indicated by context, “an A” or “the A” means “one or more A”.

本開示は、本開示の実施形態、および/または、実施例に対して、当業者が成し得る全ての変更、置換、変形、改変、および修正を包含する。同様に、適切な場合、添付の特許請求の範囲は、本開示の実施形態、および/または、実施例に対して、当業者が成し得る全ての変更、置換、変形、改変、および修正を包含する。さらに、本開示は、当業者が成し得る、本開示における実施形態、および/または、実施例の1つまたは複数の特徴と、本開示における他の実施形態、および/または、実施例の1つまたは複数の特徴との任意の組合せを包含する。   The present disclosure encompasses all changes, substitutions, variations, alterations, and modifications that may occur to those skilled in the art, to the embodiments and / or examples of the present disclosure. Similarly, where appropriate, the appended claims cover all changes, substitutions, variations, alterations, and modifications that may occur to those skilled in the art for the embodiments and / or examples of the present disclosure. Include. Further, the present disclosure is intended to enable one of ordinary skill in the art to make one or more features of the embodiments and / or examples of the present disclosure and one or more of the other embodiments and / or examples of the present disclosure. And any combination with one or more features.

加えて、特定の機能を実施するように適合される、配置される、能力を有する、構成される、使用可能である、動作可能である、または動作できる装置またはシステムあるいは装置またはシステムの構成要素に対する添付の特許請求の範囲での参照は、その装置、システム、または構成要素がそのように適合される、配置される、能力を有する、構成される、使用可能にされる、動作可能にされる、または動作できる限り、その装置、システム、構成要素またはその特定の機能がアクティベートされ、オンにされ、またはロック解除されているか否かに関わらず、その装置、システム、構成要素を包含する。   Additionally, a device or system or a component of a device or system that is adapted, arranged, capable, configured, usable, operable, or operable to perform a particular function. Reference is made in the appended claims to the device, system, or component so adapted, arranged, capable, configured, enabled, enabled. As long as the device, system or component or its specific features are activated, turned on or unlocked, as long as the device, system or component is activated or operable.

<第1実施形態>
第1実施形態は、身分証明書(本人確認書類)の画像及びユーザの顔の画像を用いてユーザの本人確認処理を行う場合に、身分証明書の画像の撮影方法をその場で指示することで、オンラインでアップロードされた画像がその場で撮影されたものであること(ライブ性)を担保する実施形態である。
<First embodiment>
In the first embodiment, when performing the user identification process using the image of the identification card (identification document) and the image of the user's face, the method of photographing the image of the identification card is designated on the spot. In this embodiment, it is ensured that the image uploaded online is taken on the spot (liveness).

第1実施形態において、サーバ110が提供する所定のサービスでは、サービスの利用申し込み時等のタイミングでオンラインによる本人確認及びライブ性の確認が行われ、本人であることが認証された場合に、所定のサービスの利用が許可される。サーバ110は、サービスの利用申し込み時等を受けた場合、ユーザの身分証明書を撮影した画像、及びユーザの顔を撮影した画像をオンラインで提出するようにユーザに要求する。要求を受けたユーザは、端末120が備えるカメラを用いて、身分証明書及び自身の顔の撮影を行う。端末120は、撮影された画像をサーバ110に送信し、サーバ110は、受信した画像を解析することで本人確認及びライブ性の確認を行う。   In the first embodiment, in a predetermined service provided by the server 110, online identity confirmation and liveness confirmation are performed at the timing of application for use of the service and the like. Use of this service is permitted. When receiving a service application or the like, the server 110 requests the user to submit an image of the user's ID card and an image of the user's face online. The user who has received the request uses the camera included in the terminal 120 to photograph the ID card and the face of the user. The terminal 120 transmits the photographed image to the server 110, and the server 110 analyzes the received image to confirm the identity and the liveness.

このとき、端末120は、身分証明書の撮影を行う画面に、身分証明書の撮影方法を指示する撮影ガイド(以下、「身分証明書の撮影ガイド」と言う。)を表示する。身分証明書の撮影方法には、撮影画像の枠内における身分証明書の位置や身分証明書の保持方法などが含まれる。身分証明書の撮影ガイドは、ユーザが身分証明書の画像を撮影する度に変更される。なお、撮影ガイドの具体例は後述するが、撮影ガイドは、身分証明書とユーザの身体における身分証明書を保持する部位との位置関係を示すものと定義されてもよい。   At this time, the terminal 120 displays a photographing guide (hereinafter, referred to as an “identification photographing guide”) for instructing a method of photographing the ID on a screen for photographing the ID. The method of photographing the ID includes the position of the ID within the frame of the photographed image, the method of holding the ID, and the like. The photographing guide of the identification card is changed every time the user photographs the image of the identification card. Although a specific example of the photographing guide will be described later, the photographing guide may be defined to indicate the positional relationship between the identification card and a part of the user's body that holds the identification card.

サーバ110は、オンラインで提出された身分証明書の画像が、指示された撮影ガイドに従って撮影された画像であるか否かを画像処理により確認することで、撮影された画像がその場で撮影された画像であるのか否かを判別する。指示された撮影ガイドに従って撮影された画像である場合、当該画像はその場で撮影された画像であることが担保される。   The server 110 confirms by image processing whether or not the image of the identification card submitted online is an image that has been photographed according to the designated photographing guide, so that the photographed image is photographed on the spot. It is determined whether or not the image is an image. If the image is taken according to the instructed photographing guide, it is ensured that the image is an image taken on the spot.

本人確認処理に用いられる身分証明書は、本人であることを確認し得る媒体であればよい。身分証明書は、限定でなく例として、運転免許証、パスポート(旅券)、住民基本台帳カード、マイナンバーカード及び健康保険被保険者証等を含むが、公的な証明書に限定されるものではない。   The identification card used for the identity verification process may be any medium that can confirm the identity. Identification cards include, but are not limited to, driver's licenses, passports (passports), Basic Resident Register cards, My Number cards, health insurance card, etc., but are not limited to official certificates Absent.

第1実施形態によれば、身分証明書の撮影ガイドは、ユーザが身分証明書の画像を撮影する度に変更される。つまり、ユーザは、オンラインで提出する画像を事前に撮影しておいて後日提出するといった行為や、事前に撮影した画像を加工して提出するといった行為を行うことが困難になる。すなわち、第1実施形態によれば、オンラインで提出される画像が、その場で撮影されたものであること(ライブ性)を担保することが可能になるという効果が得られる。また、ユーザに指示する身分証明書の撮影ガイドの選択をサーバ110又は端末120が行うことになるので、ユーザに指示する撮影ガイドのランダム性を担保することができ、本人確認及びライブ性確認を行う際の確認精度を高めることが可能になるという効果が得られる。   According to the first embodiment, the photographing guide of the identification card is changed every time the user photographs the image of the identification card. In other words, it becomes difficult for the user to perform an action of capturing an image to be submitted online beforehand and submit it later, or an action of processing and submitting an image captured in advance. That is, according to the first embodiment, an effect is obtained that it is possible to ensure that an image submitted online is shot on the spot (liveness). In addition, since the server 110 or the terminal 120 selects the photographing guide of the identification card instructed to the user, the randomness of the photographing guide instructed to the user can be ensured, and the identity confirmation and liveness confirmation can be performed. The effect is obtained that it is possible to increase the confirmation accuracy when performing the operation.

また、第1実施形態によれば、身分証明書の画像と顔の画像とを別個の画像とするため、1枚の画像の中で身分証明書と顔の両方にフォーカスを合わせることが困難になるという問題を回避することが可能になる。   Further, according to the first embodiment, since the image of the identification card and the image of the face are separate images, it is difficult to focus on both the identification card and the face in one image. Can be avoided.

<第1実施形態の機能構成>
図3を用いてサーバ110の機能構成を説明する。図3に開示の機能部は、情報処理装置200が備えるプロセッサ201と、メモリ202と、ストレージ203と、入出力I/F204と、通信I/F205との協働により実現される。
<Functional Configuration of First Embodiment>
The functional configuration of the server 110 will be described with reference to FIG. The functional unit disclosed in FIG. 3 is realized by cooperation of the processor 201, the memory 202, the storage 203, the input / output I / F 204, and the communication I / F 205 included in the information processing apparatus 200.

サーバ110は、入出力部311と、通信部312と、記憶部317選択部313と、撮影ガイド送信部314と、画像受信部315と、認証部316と、記憶部317とを有する。入出力部311と、通信部312と、選択部313と、撮影ガイド送信部314と、画像受信部315と、認証部316とは、プロセッサ201が、記憶部317に格納されているプログラムを読み出して実行することで実現される。記憶部317は、メモリ202及び/又はストレージ203を用いて実現される。   The server 110 includes an input / output unit 311, a communication unit 312, a storage unit 317, a selection unit 313, a shooting guide transmission unit 314, an image reception unit 315, an authentication unit 316, and a storage unit 317. The processor 201 reads out the program stored in the storage unit 317 by the input / output unit 311, the communication unit 312, the selection unit 313, the imaging guide transmission unit 314, the image reception unit 315, and the authentication unit 316. And executed. The storage unit 317 is realized using the memory 202 and / or the storage 203.

入出力部311は、入出力I/F204を介して各種データの入力を受け付ける処理、及び、入出力I/F204を介して各種のデータを出力する処理を行う機能を有する。   The input / output unit 311 has a function of performing processing for receiving input of various data via the input / output I / F 204 and processing for outputting various data via the input / output I / F 204.

通信部312は、通信I/F205を介して端末120から各種データを受信する処理、及び、通信I/F205を用いて各種のデータを端末120に送信する処理を行う機能を有する。   The communication unit 312 has a function of receiving various data from the terminal 120 via the communication I / F 205 and transmitting various data to the terminal 120 using the communication I / F 205.

選択部313は、端末120の画面に表示すべき身分証明書の撮影ガイドを、複数のバリエーション(パターン)の中から選択する機能を有する。   The selection unit 313 has a function of selecting a shooting guide of an identification card to be displayed on the screen of the terminal 120 from a plurality of variations (patterns).

撮影ガイド送信部314は、選択部313で選択された端末120の画面に表示すべき身分証明書の撮影ガイドを端末120に指示する情報(以下、「撮影ガイド指示情報」と言う。)を、端末120に送信する機能を有する。   The photographing guide transmitting unit 314 transmits information (hereinafter, referred to as “photographing guide instruction information”) for instructing the terminal 120 of a photographing guide of an identification card to be displayed on the screen of the terminal 120 selected by the selecting unit 313. It has a function of transmitting to the terminal 120.

画像受信部315は、端末120で撮影された、ユーザの身分証明書の画像と、ユーザの顔の画像と、端末120の画面にてユーザにより入力されたユーザの属性情報(氏名、住所、生年月日等)とを、端末120から受信する機能を有する。   The image receiving unit 315 includes an image of the user's ID card, an image of the user's face, and attribute information of the user (name, address, and date of birth) input by the user on the screen of the terminal 120. And the like from the terminal 120.

認証部316は、画像受信部315で受信した、ユーザの身分証明書の画像と、ユーザの顔の画像と、ユーザの属性情報とを用いて、ユーザの本人確認及びライブ性確認を行う機能を有する。なお、以下の説明では、ユーザの本人確認及びライブ性確認を、まとめて「本人認証」と呼ぶことがある。   The authentication unit 316 has a function of confirming the identity and liveness of the user using the image of the user's ID card, the image of the user's face, and the attribute information of the user received by the image receiving unit 315. Have. In the following description, the identification of the user and the confirmation of the liveness may be collectively referred to as “identification”.

より具体的には、認証部316は、
1.身分証明書の撮影ガイドで指示した身分証明書の位置及び身分証明書の保持方法と、画像受信部315で受信したユーザの身分証明書の画像に写っている身分証明書の位置及び身分証明書の保持方法とを比較した結果、
2.画像受信部315で受信したユーザの身分証明書の画像に含まれる顔部分の画像と、受信したユーザの顔の画像とを比較した結果、及び、
3.画像受信部315で受信したユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報とを比較した結果
に基づいて、ユーザの本人確認及びライブ性確認を行う。
More specifically, the authentication unit 316
1. The position of the ID card and the holding method of the ID card specified in the ID card shooting guide, and the position and ID card of the ID card appearing in the image of the user ID card received by the image receiving unit 315. As a result of comparing with the retention method of
2. A result of comparing the image of the face portion included in the image of the user ID received by the image receiving unit 315 with the received image of the face of the user, and
3. Based on the result of comparing the attribute information of the user included in the image of the identification card of the user received by the image receiving unit 315 with the attribute information of the received user, the identity of the user and the liveness confirmation are performed.

なお、認証部316は、自らユーザの本人確認及びライブ性確認を行うのではなく、サーバ110の管理者等が行った本人確認及びライブ性確認の結果を取得するようにしてもよい。   Note that the authentication unit 316 may obtain the results of the personal confirmation and the liveness confirmation performed by the administrator of the server 110, instead of performing the personal confirmation and the liveness confirmation of the user.

記憶部317は、第1の実施形態に係るサーバ110が実行するプログラムを格納する。   The storage unit 317 stores a program executed by the server 110 according to the first embodiment.

図4を用いて端末120の機能構成を説明する。図4に開示の機能部は、情報処理装置200が備えるプロセッサ201と、メモリ202と、ストレージ203と、入出力I/F204と、通信I/F205との協働により実現される。   The functional configuration of the terminal 120 will be described with reference to FIG. The functional unit disclosed in FIG. 4 is realized by cooperation of a processor 201, a memory 202, a storage 203, an input / output I / F 204, and a communication I / F 205 included in the information processing apparatus 200.

端末120は、入力部321と、通信部322と、表示制御部323と、撮影部324と、認証部325と、記憶部326とを有する。入力部321と、通信部322と、表示制御部323と、撮影部324と、認証部325とは、プロセッサ201が、記憶部326に格納されているプログラムを読み出して実行することで実現される。記憶部326は、メモリ202及び/又はストレージ203を用いて実現される。   The terminal 120 includes an input unit 321, a communication unit 322, a display control unit 323, an imaging unit 324, an authentication unit 325, and a storage unit 326. The input unit 321, the communication unit 322, the display control unit 323, the imaging unit 324, and the authentication unit 325 are realized by the processor 201 reading and executing a program stored in the storage unit 326. . The storage unit 326 is realized using the memory 202 and / or the storage 203.

入力部321は、入出力I/F204を介して各種の入力を受け付ける処理を行う機能を有する。例えば、入力部321は、端末120が備えるタッチパネル等を介してユーザの属性情報の入力等を受け付ける。   The input unit 321 has a function of performing a process of receiving various inputs via the input / output I / F 204. For example, the input unit 321 receives an input of attribute information of a user via a touch panel or the like provided in the terminal 120.

通信部322は、通信I/F205を介してサーバ110から各種データを受信する処理、及び、通信I/F205を用いて各種のデータをサーバ110に送信する処理を行う機能を有する。また、通信部322は、撮影ガイド指示情報を、サーバ110から受信する機能を有する。また、通信部322は、撮影部324で撮影した、ユーザの身分証明書の画像と、ユーザの顔の画像と、入力部321で受け付けたユーザの属性情報とをサーバ110に送信する機能を有する。   The communication unit 322 has a function of performing a process of receiving various data from the server 110 via the communication I / F 205 and a process of transmitting various data to the server 110 using the communication I / F 205. Further, the communication unit 322 has a function of receiving shooting guide instruction information from the server 110. Further, the communication unit 322 has a function of transmitting the image of the user's identification card, the image of the user's face, and the attribute information of the user received by the input unit 321 to the server 110, which are captured by the capturing unit 324. .

表示制御部323は、端末120が備えるカメラ(撮影装置)から出力された、撮影領域を示す画像(撮影領域の画像又は撮影画面と称してもよい)に表示すると共に、サーバ110から撮影ガイド指示情報により指示された身分証明書の撮影ガイドを、当該撮影領域を示す画像に重ねて表示する機能を有する。   The display control unit 323 displays an image (which may be referred to as an image of a shooting region or a shooting screen) indicating a shooting region output from a camera (photographing device) provided in the terminal 120, and issues a shooting guide instruction from the server 110. It has a function of displaying a photographing guide of the identification card designated by the information so as to overlap the image indicating the photographing area.

なお、具体的には後述するが、第1実施形態では、端末120の画面に表示する身分証明書の撮影ガイドを、サーバ110が選択するのではなく端末120が自ら選択するようにしてもよい。この場合、表示制御部323は、身分証明書の撮影ガイドを、複数のバリエーション(パターン)の中から所定の選択ロジックに従って選択するようにしてもよい。   Although described later in detail, in the first embodiment, the terminal 120 may select the photographing guide of the identification card to be displayed on the screen of the terminal 120, instead of the server 110 selecting the guide. . In this case, the display control unit 323 may select an imaging guide of the identification card from a plurality of variations (patterns) according to a predetermined selection logic.

撮影部324は、ユーザの操作に応答して、ユーザの身分証明書の画像と、ユーザの顔の画像とを、端末120が備えるカメラを用いて撮影する機能を有する。   The image capturing unit 324 has a function of capturing an image of the user's ID card and an image of the user's face using a camera included in the terminal 120 in response to the operation of the user.

認証部325は、撮影ガイド指示情報と、撮影部324で撮影されたユーザの身分証明書の画像及びユーザの顔の画像と、入力部321に入力されたユーザの属性情報とを用いて、ユーザの本人確認及びライブ性確認を行う機能を有する。なお、具体的には後述するが、認証部325は、端末120が自らユーザの本人確認処理及びライブ性確認処理を行う場合に必要になる機能部である。そのため、端末120が自らユーザの本人確認処理及びライブ性確認処理を行わない場合、認証部325は不要である。   The authentication unit 325 uses the photographing guide instruction information, the image of the user's ID card and the image of the user's face photographed by the photographing unit 324, and the user's attribute information input to the input unit 321. It has a function to confirm the identity and liveness of the user. Although described later in detail, the authentication unit 325 is a functional unit that is necessary when the terminal 120 performs the user identity confirmation process and the liveness confirmation process by itself. Therefore, when the terminal 120 does not perform the user identity confirmation processing and the liveness confirmation processing by itself, the authentication unit 325 is unnecessary.

記憶部326は、第1の実施形態に係る端末120が実行するプログラムを格納する。また、サーバ110から受信した、撮影ガイド指示情報を一時的に格納する。   The storage unit 326 stores a program executed by the terminal 120 according to the first embodiment. Also, it temporarily stores the shooting guide instruction information received from the server 110.

<第1実施形態の動作処理>
図5を参照し、第1実施形態に係る通信システム1の処理について説明する。図5は、第1実施形態に係る通信システム1が行う処理を示すシーケンスの一例を示す。
<Operation Processing of First Embodiment>
With reference to FIG. 5, processing of the communication system 1 according to the first embodiment will be described. FIG. 5 illustrates an example of a sequence illustrating a process performed by the communication system 1 according to the first embodiment.

ここで、撮影する身分証明書の画像は、身分証明書の本人写真ページの画像及び身分証明書の側面の画像の2種類であってもよい。例えばパスポートのように、特定のページに本人写真が掲載されているような身分証明書に対応することができる。また、撮影する身分証明書の画像は、身分証明書の表面の画像及び身分証明書の側面の画像の2種類であってもよい。例えば表面のみに情報が記載されるような身分証明書に対応することができる。また、撮影する身分証明書の画像は、身分証明書の表面の画像、身分証明書の裏面の画像及び身分証明書の側面の画像の3種類であってもよい。例えば運転免許証や住民基本台帳カードのように、表面及び裏面の両方に情報が記載されるような身分証明書に対応することができる。   Here, the image of the identification card to be photographed may be two types of an image of the personal photograph page of the identification card and an image of the side of the identification card. For example, it is possible to correspond to an identification card such as a passport in which a personal photograph is posted on a specific page. Further, the image of the identification card to be photographed may be two types of an image of the front surface of the identification card and an image of the side surface of the identification card. For example, it can correspond to an identification card in which information is described only on the surface. Further, the image of the identification card to be photographed may be three types of an image of the front surface of the identification card, an image of the back surface of the identification card, and an image of the side surface of the identification card. For example, an identification card such as a driver's license or a Basic Resident Register card in which information is written on both the front and back surfaces can be used.

以下の説明では、撮影する身分証明書の画像は、身分証明書の表面の画像、身分証明書の裏面の画像及び身分証明書の側面の画像の3種類である前提とする。また、同様に、身分証明書の撮影ガイドには、身分証明書の表面の撮影ガイド、身分証明書の撮影ガイドの裏面の撮影ガイド、及び、身分証明書の裏面の撮影ガイドを含むものとする。   In the following description, it is assumed that there are three types of images of the ID card to be photographed: an image of the front surface of the ID card, an image of the back surface of the ID card, and an image of the side surface of the ID card. Similarly, the photographing guide for the ID card includes a photographing guide on the front side of the ID card, a photographing guide on the back side of the photographing guide for the ID card, and a photographing guide on the back side of the ID card.

ステップS100で、端末120の入力部321は、端末120が備えるタッチパネル等を介して、ユーザの氏名、住所、生年月日等のユーザの属性情報の入力を受け付ける。なお、入力部321は、更に、ユーザの身体的特徴(利き手、手のサイズ、手や指の欠損有無など)の入力を受け付けるようにしてもよい。   In step S100, the input unit 321 of the terminal 120 receives an input of user attribute information such as a user's name, address, and date of birth via a touch panel or the like included in the terminal 120. The input unit 321 may further receive an input of a user's physical characteristics (dominant hand, hand size, presence or absence of hand or finger loss, etc.).

ステップS101で、端末120の表示制御部323は、サーバ110に対して、撮影ガイド指示情報の送信を要求する。なお、ステップS100にてユーザの身体的特徴の入力を受け付けた場合、表示制御部323は、入力されたユーザの身体的特徴もサーバ110に送信する。   In step S101, the display control unit 323 of the terminal 120 requests the server 110 to transmit imaging guide instruction information. If the input of the physical characteristics of the user is received in step S100, the display control unit 323 also transmits the input physical characteristics of the user to the server 110.

ステップS102で、サーバ110の選択部313は、端末120に指示する身分証明書(表面、裏面、側面)の撮影ガイドを、複数のバリエーションの中から所定の選択ロジックに従って選択する。選択部313は、限定ではなく例として、端末120に指示する身分証明書の撮影ガイドを、それぞれ複数のバリエーションの中からランダムに選択してもよいし、現在の環境情報(日付、時刻、天気、端末120の位置情報等)に基づいて選択するようにしてもよい。例えば、日付ごと(又は、時間ごと、天気ごと、地域ごと)に端末120に指示する撮影ガイドが予め定められており、選択部313は、現在の日付(又は、現在の時刻、天気、端末120がいる地域)に対応する撮影ガイドを、端末120に指示する撮影ガイドとして選択するようにしてもよい。   In step S102, the selection unit 313 of the server 110 selects a shooting guide of the identification card (front surface, back surface, side surface) to be instructed to the terminal 120 from a plurality of variations according to a predetermined selection logic. The selection unit 313 may, for example, randomly select, from a plurality of variations, a shooting guide of an identification card to be instructed to the terminal 120 from among a plurality of variations, or select the current environment information (date, time, weather, etc.). , The location information of the terminal 120, etc.). For example, a shooting guide for instructing the terminal 120 for each date (or each time, each weather, each region) is predetermined, and the selection unit 313 selects the current date (or the current time, the weather, the terminal 120). The imaging guide corresponding to (the area where there is) may be selected as the imaging guide to instruct the terminal 120.

また、選択部313は、端末120から受信した、ユーザの身体的特徴に基づいて、端末120に指示する身分証明書の撮影ガイドを選択するようにしてもよい。例えば、手のサイズが小さいユーザであれば、手のひらを使用する撮影ガイドの中から端末120指示する撮影ガイドを選択するようにしてもよい。又は、ユーザの利き手を使用する撮影ガイドの中から端末120に指示する撮影ガイドを選択するようにしてもよい。   Further, the selection unit 313 may select an imaging guide of an identification card to be instructed to the terminal 120 based on the physical characteristics of the user received from the terminal 120. For example, a user with a small hand size may select a shooting guide instructing the terminal 120 from among shooting guides that use the palm. Alternatively, a shooting guide to instruct the terminal 120 may be selected from shooting guides that use the user's dominant hand.

ステップS103で、サーバ110の撮影ガイド送信部314は、ステップS102の処理手順で選択された身分証明書の撮影ガイドを指示する撮影ガイド指示情報を、端末120に送信する。   In step S103, the photographing guide transmitting unit 314 of the server 110 transmits, to the terminal 120, photographing guide instruction information for instructing the photographing guide of the identification card selected in the processing procedure of step S102.

ステップS104で、端末120の表示制御部323は、サーバ110から指示された身分証明書の表面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。ユーザは、撮影画面に表示されている撮影ガイドに身分証明書の表面が重なるようにカメラの位置を調整するとともに、撮影ガイドで指示されたとおりに身分証明書を保持する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影する。   In step S104, the display control unit 323 of the terminal 120 displays the shooting guide on the front side of the identification card designated by the server 110 on the shooting screen displaying the output image of the camera. The user adjusts the position of the camera so that the surface of the identification card overlaps the imaging guide displayed on the imaging screen, and holds the identification card as instructed by the imaging guide. The image capturing unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched).

ステップS105で、端末120の表示制御部323は、サーバ110から指示された身分証明書の裏面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。ユーザは、撮影画面に表示されている撮影ガイドに身分証明書の裏面が重なるようにカメラの位置を調整するとともに、撮影ガイドで指示されたとおりに身分証明書を保持する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影する。   In step S105, the display control unit 323 of the terminal 120 displays the shooting guide on the back of the identification card designated by the server 110 on the shooting screen displaying the output image of the camera. The user adjusts the position of the camera so that the back of the ID card overlaps the shooting guide displayed on the shooting screen, and holds the ID card as instructed by the shooting guide. The imaging unit 324 captures an image of the back of the identification card at the timing when the shutter button is pressed (or touched).

ステップS106で、端末120の表示制御部323は、サーバ110から指示された身分証明書の側面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。ユーザは、撮影画面に表示されている撮影ガイドに身分証明書の側面が重なるようにカメラの位置を調整するとともに、撮影ガイドで指示されたとおりに身分証明書を保持する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影する。   In step S <b> 106, the display control unit 323 of the terminal 120 displays the shooting guide on the side of the identification card designated by the server 110 on the shooting screen displaying the output image of the camera. The user adjusts the position of the camera so that the side of the identification card overlaps the imaging guide displayed on the imaging screen, and holds the identification card as instructed by the imaging guide. The imaging unit 324 captures an image of the side of the identification card at the timing when the shutter button is pressed (or touched).

ステップS107で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影する。   In step S107, the imaging unit 324 captures an image of the user's face at the timing when the shutter button is pressed (or touched).

ステップS108で、端末120の表示制御部323は、撮影された身分証明書の表面、裏面及び側面の画像とユーザの顔の画像とを画面に表示し、各画像をサーバ110に送信してもよいかの確認をユーザに促す。このとき表示制御部323は、ユーザが、撮影された画像が撮影ガイドに沿って撮影されているかを確認可能するために、撮影された画像と撮影ガイドとを並べて、又は、撮影された画像の上に撮影ガイドを重ねて表示するようにしてもよい。ユーザが送信を許可した場合、ステップS109の処理手順に進み、ユーザが再度の撮影を望む場合、ユーザが希望する画像の撮影が再度行われる。   In step S108, the display control unit 323 of the terminal 120 displays the image of the front, back, and side surfaces of the captured ID card and the image of the user's face on the screen, and transmits each image to the server 110. Prompt the user for confirmation. At this time, the display control unit 323 arranges the photographed image and the photographing guide, or displays the photographed image so that the user can confirm whether the photographed image is photographed along the photographing guide. A shooting guide may be displayed on top of the shooting guide. If the user has permitted the transmission, the process proceeds to step S109, and if the user desires to take the image again, the image desired by the user is taken again.

なお、S104からS107の処理の実行順は、上述の例に限定されず、任意の順番で実行されてよい。また、S108の処理は、S104からS107のそれぞれ処理が行われる度に実行されてもよい。   Note that the execution order of the processes from S104 to S107 is not limited to the above example, and may be executed in any order. Further, the process of S108 may be executed each time the processes of S104 to S107 are performed.

ステップS109及びステップS110の処理手順は、本人確認処理及びライブ性確認処理をサーバ110側で実施する場合の処理手順を示している。ステップS109で、通信部322は、ステップS100の処理手順で入力されたユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像とをサーバ110に送信する。   The processing procedure of step S109 and step S110 indicates the processing procedure when the personal confirmation processing and the liveness confirmation processing are performed on the server 110 side. In step S109, the communication unit 322 transmits, to the server 110, the user attribute information input in the processing procedure of step S100, the front, back, and side images of the identification card, and the image of the user's face.

ステップS110で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像とを用いてユーザの本人確認処理及びライブ性確認処理を行う。   In step S110, the authentication unit 325 of the server 110 uses the received user attribute information, the front, back, and side images of the identification card, and the image of the user's face to confirm the identity of the user and the liveness. Perform confirmation processing.

まず、認証部325は、端末120に指示した身分証明書の撮影ガイドにおける身分証明書の位置及び身分証明書の保持方法と、身分証明書の画像に写っている身分証明書の位置及び身分証明書の保持方法とを比較することで、撮影された画像が撮影ガイドに沿って撮影されていることを確認する。   First, the authentication unit 325 determines the position of the ID card and the method of holding the ID card in the ID card photographing guide instructed to the terminal 120, and the position and the ID card of the ID card appearing in the image of the ID card. It is confirmed that the photographed image is photographed along the photographing guide by comparing the method with the method of holding the book.

例えば、認証部325は、身分証明書の表面(裏面及び側面も同様)の画像を解析することで、画面全体における身分証明書の位置を特定し、特定した位置と、撮影ガイドにおける身分証明書の表面の位置とのずれが所定の閾値以下である場合に、身分証明書の表面の画像の位置は、撮影ガイドに沿っていると判定するようにしてもよい。また、認証部325は、身分証明書の表面の画像を解析することで、画像に写っている身分証明書を保持する手の形状を特定し、特定した手の形状と、撮影ガイドにおける身分証明書を保持する手の形状とのずれが所定の閾値以下である場合に、ユーザが撮影した画像に写っている身分証明書の保持方法は、撮影ガイドに沿っていると判定するようにしてもよい。   For example, the authentication unit 325 identifies the position of the ID card on the entire screen by analyzing an image of the front surface (same on the back and side surfaces) of the ID card, and identifies the specified position and the ID card in the shooting guide. When the deviation from the position on the surface of the identification card is equal to or smaller than a predetermined threshold, the position of the image on the surface of the identification card may be determined to be along the imaging guide. Further, the authentication unit 325 analyzes the image of the front surface of the identification card to specify the shape of the hand holding the identification card shown in the image, and identifies the specified hand shape and the identification card in the shooting guide. If the deviation from the shape of the hand holding the document is equal to or less than a predetermined threshold, the method of holding the identification card in the image shot by the user may be determined to be along the shooting guide. Good.

次に、認証部325は、身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とを比較し、各々の画像が所定の一致判定基準を満たすことを確認することで、身分証明書に写っている人物とユーザとが同一人物であることを確認する。例えば、認証部325は、それぞれの画像に写っている顔の特徴量を抽出し、特徴量の差が所定の値以下である場合に、身分証明書に写っている人物とユーザとが同一人物であると判定するようにしてもよい。   Next, the authentication unit 325 compares the image of the face portion included in the image of the identification card with the image of the face of the user, and confirms that each image satisfies a predetermined matching criterion. Confirm that the person shown in the ID card and the user are the same person. For example, the authentication unit 325 extracts the feature amount of the face shown in each image, and when the difference between the feature amounts is equal to or less than a predetermined value, the person and the user appearing in the identification card are the same person. May be determined.

次に、認証部325は、身分証明書の画像に含まれるユーザの属性情報と、ユーザが端末120に入力したユーザの属性情報とを比較することで、ユーザが入力した属性情報が身分証明書の記載事項と一致することを確認する。   Next, the authentication unit 325 compares the attribute information of the user included in the image of the ID card with the attribute information of the user input to the terminal 120 by the user, so that the attribute information input by the user is Confirm that it matches the description of.

例えば、認証部325は、身分証明書の画像に写っている文字列を読み取り、読み取った文字列とユーザが入力したユーザの属性情報とが一致する場合に、ユーザが入力した属性情報が身分証明書の記載事項と一致すると判定するようにしてもよい。一例として、認証部325は、身分証明書に記載されているユーザの氏名や生年月日、住所等と、ユーザが入力したこれらのユーザの属性情報とが一致するか否かを判定することができる。   For example, the authentication unit 325 reads a character string in the image of the identification card, and when the read character string matches the attribute information of the user input by the user, the attribute information input by the user is It may be determined that they match the items described in the book. As an example, the authentication unit 325 may determine whether or not the user's name, date of birth, address, and the like described in the identification card match the attribute information of the user input by the user. it can.

認証部325は、"身分証明書の画像が撮影ガイドに沿って撮影されていること"と、"身分証明書に写っている人物とユーザとが同一人物であること"と、"ユーザが入力した属性情報が身分証明書の記載事項と一致すること"のすべての項目が確認できた場合に、ユーザがサービス申込者本人であり、かつ画像がその場で撮影されたものである(ライブ性がある)と判定する。   The authentication unit 325 determines that “the image of the identification card is taken along the shooting guide”, “the person and the user shown in the identification card are the same person”, and “the user inputs That the attribute information matches the items described in the ID card ", the user is the service applicant and the image was taken on the spot. Is determined).

一方、認証部325は、これらのいずれかの項目について確認ができなかった場合、撮影のやり直しを行うように端末120(ユーザ)に指示するようにしてもよい。端末120は、再度撮影された身分証明書の画像又は顔の画像をサーバ110に送信し、サーバ110の認証部325は、新たに受信した画像を用いて再度本人確認及びライブ性確認をやり直すようにしてもよい。   On the other hand, when the authentication unit 325 cannot confirm any of these items, the authentication unit 325 may instruct the terminal 120 (user) to perform shooting again. The terminal 120 transmits the image of the identification card or the image of the face photographed again to the server 110, and the authentication unit 325 of the server 110 re-performs the personal identification and the liveness confirmation again using the newly received image. It may be.

若しくは、認証部325は、確認できなかった項目については、サーバ110の管理者等に判断を委ねるようにしてもよい。   Alternatively, the authentication unit 325 may entrust an administrator of the server 110 with respect to an item that could not be confirmed.

なお、認証部325は、いずれかの項目について確認ができない場合に、撮影のやり直しを端末120に指示した時点から、再度画像を端末120から受信するまでの時間が所定の閾値以上である場合、画像処理による解析を行わずに、本人確認及びライブ性確認に失敗したと判定し、それ以後の処理(例えばサービス開始手続き等の処理)を中止するようにしてもよい。なお、ステップS110において本人確認及びライブ性確認が完了した後、送信された画像は、人によって目視確認が行われることが好ましい。目視確認は、本人確認及びライブ性確認の失敗・成功を問わず行われることが好ましい。   Note that if the authentication unit 325 cannot confirm any of the items, if the time from when the terminal 120 is instructed to retake the image to when the image is received again from the terminal 120 is equal to or more than a predetermined threshold, Instead of performing analysis by image processing, it may be determined that personal identification and liveness confirmation have failed, and subsequent processing (for example, processing such as a service start procedure) may be stopped. It is preferable that the transmitted image is visually checked by a person after the identity verification and the liveness confirmation are completed in step S110. It is preferable that the visual confirmation is performed irrespective of failure or success of the personal confirmation and the liveness confirmation.

ステップS111及びステップS112の処理手順は、本人確認処理及びライブ性確認処理をサーバ110ではなく端末120側で実施する場合の処理手順を示している。本人確認処理及びライブ性確認処理をサーバ110側で実施する場合、ステップS111及びステップS112の処理手順は省略され、本人確認処理を端末120側で実施する場合、ステップS109及びステップS110の処理手順は省略される。   The processing procedure of steps S111 and S112 indicates the processing procedure when the personal identification processing and the liveness confirmation processing are performed on the terminal 120 side instead of the server 110. When the identity confirmation processing and the liveness confirmation processing are performed on the server 110 side, the processing procedures of steps S111 and S112 are omitted. When the identification processing is performed on the terminal 120 side, the processing procedures of steps S109 and S110 are as follows. Omitted.

ステップS111で、端末120の認証部325が行う本人確認処理及びライブ性確認処理は、ステップS110の処理手順でサーバ110の認証部316が行う本人確認処理及びライブ性確認処理と同一であるため説明は省略する。   In step S111, the identity confirmation processing and liveness confirmation processing performed by the authentication unit 325 of the terminal 120 are the same as the identity confirmation processing and liveness confirmation processing performed by the authentication unit 316 of the server 110 in the processing procedure of step S110. Is omitted.

ステップS112で、端末120の通信部322は、ステップS102の処理手順で入力されたユーザの属性情報と、本人確認及びライブ性確認の結果(成功又は失敗のいずれか)をサーバ110に送信する。なお、通信部322は、本人確認及びライブ性確認に失敗した場合、ユーザの属性情報をサーバ110に送信しないようにしてもよい。   In step S112, the communication unit 322 of the terminal 120 transmits to the server 110 the attribute information of the user input in the processing procedure of step S102 and the results of the identity verification and the liveness confirmation (either success or failure). Note that the communication unit 322 may not transmit the attribute information of the user to the server 110 when the identity confirmation and the liveness confirmation fail.

以上、図5を用いて説明した処理手順において、身分証明書の撮影ガイドを端末120の画面に表示するための表示データが、撮影ガイドのデータを一意に識別するための識別子と対応づけられて、予め端末120内の記憶部326に格納されていてもよい。この場合、サーバ110の撮影ガイド送信部314は、撮影ガイド指示情報として、撮影ガイドの識別子を端末120に送信するようにしてもよい。又は、身分証明書の撮影ガイドを端末120の画面に表示するための表示データがサーバ110の記憶部317に格納されており、サーバ110の撮影ガイド送信部314は、撮影ガイド指示情報として、撮影ガイドの表示データそのものを端末120に送信するようにしてもよい。識別子は表示データよりもデータサイズが小さいことから、前者の方法は、後者の方法と比較して、サーバ110及び端末120における通信データ量を削減することができる。一方、後者の方法は、前者の方法と比較して、表示データの更新をリアルタイムに行うことができる。   As described above, in the processing procedure described with reference to FIG. 5, the display data for displaying the photographing guide of the ID card on the screen of the terminal 120 is associated with the identifier for uniquely identifying the data of the photographing guide. May be stored in the storage unit 326 in the terminal 120 in advance. In this case, the photographing guide transmitting unit 314 of the server 110 may transmit the identifier of the photographing guide to the terminal 120 as the photographing guide instruction information. Alternatively, display data for displaying the photographing guide of the ID card on the screen of the terminal 120 is stored in the storage unit 317 of the server 110, and the photographing guide transmitting unit 314 of the server 110 transmits the photographing guide as photographing guide instruction information. The display data of the guide itself may be transmitted to the terminal 120. Since the identifier has a smaller data size than the display data, the former method can reduce the amount of communication data in the server 110 and the terminal 120 as compared with the latter method. On the other hand, the latter method can update the display data in real time as compared with the former method.

図6は、実施形態に係る通信システム1の処理を示すシーケンスの一例を示す。図6を用いて、端末120の画面に表示させる身分証明書の撮影ガイドを、端末120が自ら決定する場合のシーケンス例について説明する。   FIG. 6 illustrates an example of a sequence illustrating a process of the communication system 1 according to the embodiment. With reference to FIG. 6, an example of a sequence in a case where the terminal 120 itself determines a shooting guide of an identification card to be displayed on the screen of the terminal 120 will be described.

ステップS200の処理手順は、図5のステップS100の処理手順と同一であるため説明は省略する。   The processing procedure in step S200 is the same as the processing procedure in step S100 in FIG. 5, and a description thereof will be omitted.

ステップS201で、表示制御部323は、撮影画面に表示する身分証明書(表面)の撮影ガイドを、複数のバリエーションの中から選択する。選択方法は、図5のステップS102で説明した、サーバ110の選択部313が行う方法と同一でよい。続いて、表示制御部323は、選択した身分証明書の表面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影する。   In step S201, the display control unit 323 selects, from a plurality of variations, a shooting guide for an identification card (front surface) to be displayed on the shooting screen. The selection method may be the same as the method performed by the selection unit 313 of the server 110 described in step S102 of FIG. Subsequently, the display control unit 323 displays a shooting guide of the surface of the selected ID card on a shooting screen displaying an output image of the camera. The image capturing unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched).

ステップS202で、表示制御部323は、撮影画面に表示する身分証明書(裏面)の撮影ガイドを、複数のバリエーションの中から選択する。選択方法は、図5のステップS102で説明した、サーバ110の選択部313が行う方法と同一でよい。続いて、表示制御部323は、選択した身分証明書の裏面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影する。   In step S202, the display control unit 323 selects, from a plurality of variations, a shooting guide for the identification card (back side) to be displayed on the shooting screen. The selection method may be the same as the method performed by the selection unit 313 of the server 110 described in step S102 of FIG. Subsequently, the display control unit 323 displays a shooting guide on the back side of the selected ID card on a shooting screen for displaying an output image of the camera. The imaging unit 324 captures an image of the back of the identification card at the timing when the shutter button is pressed (or touched).

ステップS203で、表示制御部323は、撮影画面に表示する身分証明書(側面)の撮影ガイドを、複数のバリエーションの中から選択する。選択方法は、図5のステップS102で説明した、サーバ110の選択部313が行う方法と同一でよい。続いて、表示制御部323は、選択した身分証明書の側面の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影する。   In step S203, the display control unit 323 selects, from a plurality of variations, a shooting guide for the identification card (side surface) to be displayed on the shooting screen. The selection method may be the same as the method performed by the selection unit 313 of the server 110 described in step S102 of FIG. Subsequently, the display control unit 323 displays a shooting guide on the side of the selected ID card on a shooting screen displaying an output image of the camera. The imaging unit 324 captures an image of the side of the identification card at the timing when the shutter button is pressed (or touched).

ステップS204で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影する。   In step S204, the imaging unit 324 captures an image of the user's face at the timing when the shutter button is pressed (or touched).

ステップS205の処理手順は、図5のステップS108の処理手順と同一であるため説明は省略する。   The processing procedure in step S205 is the same as the processing procedure in step S108 in FIG.

なお、S201からS205の処理の実行順は、上述の例に限定されず、任意の順番で実行されてよい。また、S205の処理は、S201からS204のそれぞれ処理が行われる度に実行されてもよい。   Note that the execution order of the processes from S201 to S205 is not limited to the above example, and may be performed in any order. Further, the process of S205 may be executed each time the processes of S201 to S204 are performed.

ステップS206で、通信部322は、ステップS200の処理手順で入力されたユーザの属性情報と、身分証明書の表面と、裏面及び側面の画像と、ユーザの顔の画像と、撮影ガイド情報とをサーバ110に送信する。撮影ガイド情報には、端末120が選択した、身分証明書(表面、裏面、側面)の撮影ガイドを特定する情報が含まれる。   In step S206, the communication unit 322 transmits the user attribute information, the front surface, the back and side images of the identification card, the image of the user's face, and the shooting guide information input in the processing procedure of step S200. Send it to server 110. The shooting guide information includes information for specifying the shooting guide of the identification card (front, back, side) selected by the terminal 120.

ステップS207で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像と、撮影ガイド情報とを用いてユーザの本人確認及びライブ性確認処理を行う。サーバ110の認証部316は、撮影ガイド情報を参照することで、ユーザがどの撮影ガイドに従って撮影を行ったのかを認識する。その他の処理手順は、図5のステップS110と同一であるため説明は省略する。   In step S207, the authentication unit 325 of the server 110 uses the received user attribute information, the front, back, and side images of the identification card, the image of the user's face, and the shooting guide information to identify the user. Confirmation and liveness confirmation processing are performed. The authentication unit 316 of the server 110 refers to the shooting guide information to recognize which shooting guide the user has taken according to the shooting guide. The other processing procedures are the same as step S110 in FIG.

本人確認及びライブ性確認処理をサーバ110側で実施する場合、ステップS206及びステップS207の処理手順は省略され、本人確認及びライブ性確認処理を端末120側で実施する場合、ステップS208及びステップS209の処理手順は省略される。   When the identity confirmation and the liveness confirmation processing are performed on the server 110 side, the processing procedures of steps S206 and S207 are omitted. When the identity confirmation and the liveness confirmation processing are performed on the terminal 120 side, steps S208 and S209 are performed. The processing procedure is omitted.

ステップS208及びステップS209の処理手順は、それぞれ、図5のステップS111及びステップS112の処理手順と同一であるため説明は省略する。   The processing procedures of step S208 and step S209 are the same as the processing procedures of step S111 and step S112 in FIG. 5, respectively, and thus description thereof will be omitted.

<第1実施形態の撮影ガイドの表示態様>
図7及び図8は、端末120の撮影画面に表示される身分証明書の撮影ガイドの一例を示す。図7(a)及び図7(b)は、身分証明書を指で挟むように保持する場合の撮影ガイドの一例を示している。つまり、撮影ガイドは、ユーザの指と身分証明書とが接触する位置を示すものであってもよい。
<Display Mode of Photographing Guide of First Embodiment>
7 and 8 show an example of a photographing guide for an identification card displayed on the photographing screen of the terminal 120. FIG. FIGS. 7A and 7B show an example of a photographing guide in a case where the identification card is held between fingers. That is, the imaging guide may indicate the position where the user's finger and the identification card come into contact.

図7(a)の例では、表示制御部323は、表示エリアA100に、カメラの出力画像と、撮影画像の枠内において身分証明書の表面を配置すべき位置を指示するオブジェクトJ1−1と、身分証明書を持つ位置を指示するオブジェクトJ2−1とを表示する。ユーザは、自身の身分証明書を、オブジェクトJ2−1が表示されている上下の位置で親指と人差し指(又は中指)で挟みながら表面をカメラに向け、身分証明書の輪郭がオブジェクトJ1−1と重なった状態で撮影ボタンB1をタッチする。撮影ボタンB1がタッチされると、表示エリアA100に写っているカメラの出力画像が撮影画像として記録される。なお、撮影画像には撮影ガイドが記録されていてもよいし記録されていなくてもよい。   In the example of FIG. 7A, the display control unit 323 includes, in the display area A100, an output image of the camera and an object J1-1 indicating a position where the surface of the identification card is to be arranged in the frame of the captured image. And an object J2-1 indicating a position having an identification card. The user holds his / her ID card at the upper and lower positions where the object J2-1 is displayed with the thumb and the index finger (or the middle finger) facing the camera, and the outline of the ID card coincides with the object J1-1. Touch the shooting button B1 in the overlapping state. When the photographing button B1 is touched, an output image of the camera shown in the display area A100 is recorded as a photographed image. Note that the photographing guide may or may not be recorded in the photographed image.

図7(b)の例では、表示制御部323は、身分証明書の裏面を配置すべき位置を指示するオブジェクトJ1−2と、身分証明書を持つ位置を指示するオブジェクトJ2−1とを表示している。   In the example of FIG. 7B, the display control unit 323 displays an object J1-2 indicating a position where the back surface of the ID card is to be arranged and an object J2-1 indicating a position where the ID card is held. are doing.

図7(c)〜図7(e)は、身分証明書を手のひらの上に置いて保持する場合の撮影ガイドの一例を示している。図7(c)〜図7(e)の例では、表示制御部323は、右手の手のひらの位置を指示するオブジェクトJ2−2の上に、身分証明書の表面を配置すべき位置を指示するオブジェクトJ1−1を重ねて表示している。つまり、撮影ガイドは、ユーザの手の向きと当該手における身分証明書の位置とを示すものであってもよい。   FIGS. 7C to 7E show an example of a photographing guide in a case where an identification card is placed on a palm and held. In the examples of FIGS. 7C to 7E, the display control unit 323 indicates a position where the surface of the identification card is to be arranged on the object J2-2 that indicates the position of the palm of the right hand. The object J1-1 is displayed in an overlapping manner. That is, the imaging guide may indicate the orientation of the user's hand and the position of the ID card in the hand.

なお、図7(a)から図7(e)の各例は、身分証明書の表面の撮影ガイド及び身分証明書の裏面の撮影ガイドの両方に適用することができる。   7A to 7E can be applied to both the photographing guide on the front side of the ID card and the photographing guide on the back side of the ID card.

図8は、身分証明書の側面の撮影方法を示す撮影ガイドの一例を示している。図8(a)の例では、表示制御部323は、撮影画像の枠内において身分証明書の側面を配置すべき位置を指示するオブジェクトJ1−3と、オブジェクトJ1−3の上下に、身分証明書を持つ位置を指示するオブジェクトJ2−1を表示している。図8(b)の例では、表示制御部323は、身分証明書を持つ位置を指示するオブジェクトJ2−1をオブジェクトJ1−3の中心に表示している。   FIG. 8 shows an example of a photographing guide showing a method of photographing the side of the identification card. In the example of FIG. 8A, the display control unit 323 includes an object J1-3 indicating a position where the side of the identification card is to be arranged in the frame of the captured image, and an identification card above and below the object J1-3. The object J2-1 indicating the position where the document is held is displayed. In the example of FIG. 8B, the display control unit 323 displays an object J2-1 indicating a position having an identification card at the center of the object J1-3.

なお、図7及び図8において、身分証明書の表面を配置すべき位置及び身分証明書を持つ位置は一例であり、図7及び図8に示す位置に限定されるものではない。   In FIGS. 7 and 8, the position where the surface of the identification card is to be placed and the position where the identification card is held are merely examples, and are not limited to the positions shown in FIGS. 7 and 8.

<第1実施形態の第1実施例>
端末120の撮影部324は、カメラから出力された画像に写っている身分証明書の位置及び身分証明書の保持方法と、身分証明書の撮影ガイドで示される身分証明書の位置及び身分証明書の保持方法との一致度合いが所定の基準を満たす場合(所定の基準で一致する場合)、身分証明書の画像を自動で撮影するようにしてもよい。より具体的には、撮影部324は、画像の撮影領域における身分証明書と、ユーザの身体における身分証明書を保持する部位との位置関係と、撮影ガイドにおける位置関係との一致度合いが所定の基準を満たす場合に、撮影部324に画像を撮影させるようにしてもよい。一致度合いはどのような方法で計算されるようにしてもよいが、例えば、画像に写っている身分証明書及び手の位置の輪郭、顔の輪郭を抽出し、これらの輪郭で囲まれる領域のうち撮影ガイドの枠の中に納まる割合を一致度合いとしてもよい。
<First Example of First Embodiment>
The photographing unit 324 of the terminal 120 determines the position of the ID card in the image output from the camera, the method of holding the ID card, and the position and ID card indicated by the ID card photographing guide. If the degree of coincidence with the holding method satisfies a predetermined criterion (if it matches with the predetermined criterion), an image of the identification card may be automatically taken. More specifically, the imaging unit 324 determines whether the degree of coincidence between the positional relationship between the identification card in the image capturing area of the image, the part of the user's body holding the identification card, and the positional relationship in the imaging guide is a predetermined value. When the criterion is satisfied, the image capturing section 324 may capture an image. The degree of coincidence may be calculated by any method. For example, the identification card and the outline of the position of the hand and the outline of the face in the image are extracted, and the outline of the area surrounded by these outlines is extracted. Of these, the proportion that fits within the frame of the shooting guide may be the degree of coincidence.

また、撮影部324は、身分証明書の画像を自動で撮影する場合において、カメラから出力された画像と撮影ガイドとの一致度合いが、所定の時間を経過してもなお所定の基準を満たさない場合、自動で撮影する処理を中止し、手動シャッターに切り替えるようにしてもよい。若しくは、所定の基準を時間の経過とともに段階的に下げるようにしてもよい。これにより、ユーザ操作の手間を軽減することができると共に、自動で撮影が上手く行われない場合に撮影そのものが出来なくなるという事態に陥ることを軽減することが可能になる。   Further, when the image of the identification card is automatically taken, the matching degree between the image output from the camera and the shooting guide does not satisfy the predetermined criterion even after the lapse of a predetermined time. In this case, the process of automatically taking a picture may be stopped and the mode may be switched to a manual shutter. Alternatively, the predetermined reference may be lowered stepwise with the passage of time. As a result, it is possible to reduce the trouble of the user operation, and it is possible to reduce a situation in which the photographing itself cannot be performed when the photographing is not automatically performed well.

<第1実施形態の第2実施例>
身分証明書の撮影ガイドには、バリエーションごとに撮影難易度が定義されていてもよい。例えば、図7の例では、手首を上にする必要がある図7(e)手首を左側にする必要がある図7(d)、手首を下にすればよい図7(c)の順に、撮影難易度が低下していくように定義されていてもよい。
<Second Example of First Embodiment>
The shooting guide of the identification card may define the shooting difficulty for each variation. For example, in the example of FIG. 7, FIG. 7 (e) in which the wrist needs to be on the upper side, FIG. 7 (d) in which the wrist needs to be on the left side, and FIG. It may be defined so that the shooting difficulty level decreases.

サーバ110の認証部316は、本人確認及びライブ性確認に失敗する場合、再度画像の撮影をユーザに促す。再度画像の撮影をユーザに促す際、既にユーザに提示した撮影ガイドよりも撮影難易度が低い撮影ガイドを端末120(ユーザ)に指示するようにしてもよい。これにより、難しいポーズ等が指示されてしまい、撮影が困難になる可能性を軽減することが可能になる。   The authentication unit 316 of the server 110 prompts the user to take an image again when the identity verification and the liveness confirmation fail. When prompting the user to take an image again, the terminal 120 (user) may be instructed to a shooting guide having a shooting difficulty lower than the shooting guide already presented to the user. Thereby, it is possible to reduce the possibility that a difficult pose or the like is instructed and shooting becomes difficult.

なお、全ての撮影画像(身分証明書の表面、裏面、側面)の撮影難易度が低くなってしまうことを抑止するため、認証部316は、各撮影画像の撮影難易度の合計が所定の難易度以上になるように制御するようにしてもよい。例えば、身分証明書の表面について撮影難易度を下げた場合、身分証明書の裏面については撮影難易度の高い画像で撮影し直すようにユーザに促す等の処理を行ってもよい。これにより、簡単なポーズ等のみを用いて撮影が行われてしまい、本人性確認やライブ性確認の信頼度が低下してしまうことを抑制することが可能になる。   Note that, in order to prevent the photographing difficulty of all photographed images (the front surface, the back surface, and the side surface of the identification card) from decreasing, the authentication unit 316 determines that the total photographing difficulty of each photographed image is a predetermined difficulty. The temperature may be controlled to be higher than or equal to the degree. For example, when the photographing difficulty level of the front side of the identification card is reduced, the user may be prompted to re-photograph the back side of the ID card with an image having a high photographing difficulty level. Accordingly, it is possible to suppress a situation where the photographing is performed using only a simple pose or the like, and the reliability of the personality confirmation and the liveness confirmation is reduced.

<第1実施形態の第3実施例>
表示制御部323は、ユーザからの指示に応答して、端末120の撮影画面に表示する撮影ガイドの変更を受け付けるようにしてもよい。ユーザから受付可能な変更依頼の回数には上限が設けられていてもよい。
<Third Example of First Embodiment>
The display control unit 323 may receive a change of a shooting guide displayed on the shooting screen of the terminal 120 in response to an instruction from the user. An upper limit may be set for the number of change requests that can be accepted from the user.

<第1実施形態の第4実施例>
認証部316又は認証部325は、身分証明書の画像に写っている身分証明書の発行日を抽出し、当該発行日と顔の画像が撮影された日とが所定の期間以上開いている場合、本人確認及びライブ性確認処理を中止し、他の身分証明書で撮影を行うように端末120(ユーザ)に促すようにしてもよい。なお、サーバ110側で本人確認及びライブ性確認処理が行われる場合、端末120は、身分証明書の画像に写っている身分証明書の発行日を抽出してサーバ110に送信するようにしてもよい。これにより、本人確認及びライブ性確認処理の成功率を向上させることが可能になる。
<Fourth Example of First Embodiment>
The authentication unit 316 or the authentication unit 325 extracts the date of issuance of the identification card appearing in the image of the identification card, and when the issuance date and the date on which the face image was taken are open for a predetermined period or more. Alternatively, the identity verification and liveness confirmation processing may be stopped, and the terminal 120 (user) may be prompted to take a picture with another identification card. In the case where the server 110 performs the personal identification and liveness confirmation processing, the terminal 120 may extract the date of issue of the ID card appearing in the image of the ID card and transmit the date to the server 110. Good. As a result, it is possible to improve the success rate of the identity confirmation and the liveness confirmation processing.

<第1実施形態の第5実施例>
撮影部324は、ステップS104乃至ステップS107の処理手順で画像を撮影し、撮影した画像をステップS109の処理手順でサーバ110に送信するようにしたが、これに限定されない。例えば、撮影部324は、ユーザが端末120の画面を操作して身分証明書を撮影ガイドに合わせたり自身の顔を写そうとしている様子を、全て動画データ(ストリーミングデータ)としてサーバ110に送信するようにしてもよい。サーバ110は、静止画ではなく、動画データを用いて、本人確認及びライブ性確認を行うようにしてもよい。
<Fifth Example of First Embodiment>
The image capturing unit 324 captures an image according to the processing procedure of steps S104 to S107 and transmits the captured image to the server 110 according to the processing procedure of step S109, but is not limited thereto. For example, the image capturing unit 324 transmits to the server 110 all moving image data (streaming data) in which the user operates the screen of the terminal 120 to match the ID card with the image capturing guide or captures his / her own face. You may do so. The server 110 may perform identity verification and liveness confirmation using moving image data instead of still images.

<第2実施形態>
第2実施形態は、身分証明書(本人確認書類)の画像及びユーザの顔の画像を用いてユーザの本人確認処理を行う場合に、ユーザの顔の画像の撮影方法をその場で指示することで、オンラインでアップロードされた画像がその場で撮影されたものであること(ライブ性)を担保する実施形態である。第2実施形態は単独で実行することも可能であるし、第1実施形態と組み合わせることも可能である。第1実施形態と組み合わせる場合、本人確認及びライブ性の確認は、身分証明書の画像の撮影方法と、ユーザの顔の画像の撮影方法との両方が、指定された撮影方法に従っているか否かにより判別が行われる。
<Second embodiment>
In the second embodiment, when performing the user identification process using the image of the identification card (identification document) and the image of the user's face, the user is instructed on the spot how to capture the image of the user's face. In this embodiment, it is ensured that the image uploaded online is taken on the spot (liveness). The second embodiment can be executed alone, or can be combined with the first embodiment. When combined with the first embodiment, the identity verification and the liveness confirmation are performed by determining whether both the method of photographing the image of the identification card and the method of photographing the image of the user's face comply with the designated photographing method. A determination is made.

第2実施形態において、端末120は、ユーザ自身の顔の撮影を行う画面に、顔の撮影方法を指示する撮影ガイド(以下、「顔の撮影ガイド」と言う。)の情報を表示する。顔の撮影方法には、撮影画像の枠内における顔の位置、顔を傾ける傾き、撮影時のポーズなどが含まれる。顔の撮影ガイドは、ユーザが顔の画像を撮影する度に変更される。   In the second embodiment, the terminal 120 displays information of a photographing guide (hereinafter, referred to as “face photographing guide”) for instructing a method of photographing a face on a screen for photographing the face of the user himself. The face photographing method includes a position of the face within the frame of the photographed image, a tilt of the face, a pose at the time of photographing, and the like. The face shooting guide is changed each time the user shoots a face image.

サーバ110は、オンラインで提出された顔の画像が、指示された撮影ガイドに従って撮影された画像であるか否かを画像処理により確認することで、撮影された画像がその場で撮影された画像であるのか否かを判別する。指示された撮影ガイドに従って撮影された画像である場合、当該画像はその場で撮影された画像であることが担保される。   The server 110 confirms whether or not the face image submitted online is an image taken in accordance with a designated shooting guide by image processing, and thereby, the taken image is an image taken on the spot. Is determined. If the image is taken according to the instructed photographing guide, it is ensured that the image is an image taken on the spot.

第2実施形態によれば、顔の撮影ガイドは、ユーザが顔の画像を撮影する度に変更される。つまり、ユーザは、オンラインで提出する画像を事前に撮影しておいて後日提出するといった行為や、事前に撮影した画像を加工して提出するといった行為を行うことが困難になる。すなわち、第2実施形態によれば、オンラインで提出される画像が、その場で撮影されたものであること(ライブ性)を担保することが可能になるという効果が得られる。また、ユーザに指示する顔の撮影ガイドの選択をサーバ110又は端末120が行うことになるので、ユーザに指示する撮影ガイドのランダム性を担保することができ、本人確認及びライブ性確認を行う際の確認精度を高めることが可能になるという効果が得られる。   According to the second embodiment, the face shooting guide is changed each time the user shoots a face image. In other words, it becomes difficult for the user to perform an action of capturing an image to be submitted online beforehand and submit it later, or an action of processing and submitting an image captured in advance. That is, according to the second embodiment, an effect is obtained that it is possible to ensure that an image submitted online is taken on the spot (liveness). In addition, since the server 110 or the terminal 120 selects the photographing guide of the face to be instructed to the user, the randomness of the photographing guide to be instructed to the user can be ensured, and the identity and liveness can be confirmed. The effect that it becomes possible to raise the confirmation accuracy of is obtained.

<第2実施形態の機能構成>
再度、図3を用いてサーバ110の機能構成について、第1実施形態との差異点を説明する。特に言及しない機能部は、第1実施形態と同一でよい。
<Functional Configuration of Second Embodiment>
The difference between the functional configuration of the server 110 and the first embodiment will be described again with reference to FIG. Functional units not particularly mentioned may be the same as in the first embodiment.

選択部313は、端末120の画面に表示すべき撮影ガイドを、複数のバリエーションの中から選択する機能を有する。   The selection unit 313 has a function of selecting a shooting guide to be displayed on the screen of the terminal 120 from a plurality of variations.

撮影ガイド送信部314は、選択部313で選択された端末120の画面に表示すべき顔の撮影ガイドを端末120に指示する撮影ガイド指示情報を、端末120に送信する機能を有する。なお、第2実施形態を第1実施形態と組み合わせる場合、撮影ガイド指示情報には、顔の撮影ガイドに加えて、身分証明書の撮影ガイドも含まれる。   The photographing guide transmitting unit 314 has a function of transmitting photographing guide instruction information for instructing the terminal 120 on a photographing guide of a face to be displayed on the screen of the terminal 120 selected by the selecting unit 313 to the terminal 120. When the second embodiment is combined with the first embodiment, the imaging guide instruction information includes an identification card imaging guide in addition to the face imaging guide.

認証部316は、画像受信部315で受信した、ユーザの身分証明書の画像と、ユーザの顔の画像と、ユーザの属性情報とを用いて、ユーザの本人確認及びライブ性確認を行う機能を有する。   The authentication unit 316 has a function of confirming the identity and liveness of the user using the image of the user's ID card, the image of the user's face, and the attribute information of the user received by the image receiving unit 315. Have.

より具体的には、認証部316は、
1.顔の撮影ガイドで指示した顔の撮影方法と、画像受信部315で受信したユーザの顔の画像における顔の撮影方法とを比較した結果、
2.画像受信部315で受信したユーザの身分証明書の画像に含まれる顔部分の画像と、受信したユーザの顔の画像とを比較した結果、及び、
3.画像受信部315で受信したユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報とを比較した結果
に基づいて、ユーザの本人確認及びライブ性確認を行う。
More specifically, the authentication unit 316
1. As a result of comparing the face shooting method instructed by the face shooting guide with the face shooting method in the user's face image received by the image receiving unit 315,
2. A result of comparing the image of the face portion included in the image of the user ID received by the image receiving unit 315 with the received image of the face of the user, and
3. Based on the result of comparing the attribute information of the user included in the image of the identification card of the user received by the image receiving unit 315 with the attribute information of the received user, the identity of the user and the liveness confirmation are performed.

再度、図4を用いて端末120の機能構成について、第1実施形態との差異点を説明する。特に言及しない機能部は、第1実施形態と同一でよい。   Again, the functional configuration of the terminal 120 will be described with reference to FIG. 4 in terms of differences from the first embodiment. Functional units not particularly mentioned may be the same as in the first embodiment.

表示制御部323は、サーバ110から撮影ガイド指示情報により指示された顔の撮影ガイドを、端末120が備えるカメラ(撮影装置)から出力された画像を表示する撮影画面に重ねて表示する機能を有する。   The display control unit 323 has a function of superimposing and displaying a shooting guide of the face specified by the shooting guide instruction information from the server 110 on a shooting screen displaying an image output from a camera (imaging device) provided in the terminal 120. .

なお、具体的には後述するが、第2実施形態では、端末120の画面に表示する顔の撮影ガイドを、サーバ110が選択するのではなく端末120が自ら選択するようにしてもよい。この場合、表示制御部323は、顔の撮影ガイドを、複数のバリエーションの中から所定の選択ロジックに従って選択するようにしてもよい。   Although described later in detail, in the second embodiment, the terminal 120 may select the face imaging guide to be displayed on the screen of the terminal 120 instead of the server 110 itself. In this case, the display control unit 323 may select a face imaging guide from a plurality of variations according to a predetermined selection logic.

撮影部324は、ユーザの操作に応答して、ユーザの身分証明書の画像と、ユーザの顔の画像とを、端末120が備えるカメラを用いて撮影する機能を有する。   The image capturing unit 324 has a function of capturing an image of the user's ID card and an image of the user's face using a camera included in the terminal 120 in response to the operation of the user.

また、撮影部324は、カメラから出力された画像に写っているユーザの顔の画像と、顔の撮影ガイドで示される顔の位置及び顔の傾きとの一致度合いが所定の基準を満たす場合、顔の画像を自動で撮影するようにしてもよい。   In addition, when the degree of coincidence between the image of the user's face in the image output from the camera and the position and inclination of the face indicated by the face imaging guide satisfies a predetermined criterion, A face image may be automatically taken.

<第2実施形態の動作処理>
再度、図5を参照し、第2実施形態に係る通信システム1の処理について説明する。以下の説明では、第1実施形態との相違点に絞って説明する。特に説明しない処理手順は第1実施形態と同一でよい。
<Operation Processing of Second Embodiment>
Referring again to FIG. 5, the processing of the communication system 1 according to the second embodiment will be described. The following description focuses on differences from the first embodiment. Processing procedures not particularly described may be the same as those in the first embodiment.

ステップS102で、サーバ110の選択部313は、顔の撮影ガイドを、複数のバリエーションの中から選択する。選択部313は、端末120に指示する撮影ガイドを、それぞれ複数のバリエーションの中からランダムに選択してもよいし、現在の環境情報(日付、時刻、天気、端末120の位置情報等)に基づいて選択するようにしてもよい。例えば、日付ごと(又は、時間ごと、天気ごと、地域ごと)に端末120に指示する撮影ガイドが予め定められており、選択部313は、現在の日付(又は、現在の時刻、天気、端末120がいる地域)に対応する撮影ガイドを、端末120に指示する撮影ガイドとして選択するようにしてもよい。   In step S102, the selection unit 313 of the server 110 selects a face imaging guide from a plurality of variations. The selecting unit 313 may randomly select a shooting guide to be instructed to the terminal 120 from a plurality of variations, or may select a shooting guide based on current environment information (date, time, weather, position information of the terminal 120, and the like). May be selected. For example, a shooting guide for instructing the terminal 120 for each date (or each time, each weather, each region) is predetermined, and the selection unit 313 selects the current date (or the current time, the weather, the terminal 120). The imaging guide corresponding to (the area where there is) may be selected as the imaging guide to instruct the terminal 120.

ステップS103で、サーバ110の撮影ガイド送信部314は、ステップS102の処理手順で選択された顔の撮影ガイドを指示する撮影ガイド指示情報を、端末120に送信する。   In step S103, the imaging guide transmitting unit 314 of the server 110 transmits, to the terminal 120, imaging guide instruction information for instructing the imaging of the face selected in the processing procedure of step S102.

ステップS104で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影する。   In step S104, the imaging unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched).

ステップS105で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影する。   In step S105, the imaging unit 324 captures an image of the back of the identification card at the timing when the shutter button is pressed (or touched).

ステップS106で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影する。   In step S106, the imaging unit 324 captures an image of the side of the identification card at the timing when the shutter button is pressed (or touched).

ステップS107で、端末120の表示制御部323は、サーバ110から指示された顔の撮影ガイドを、カメラの出力画像を表示する撮影画面に重ねて表示する。ユーザは、撮影画面に表示されている撮影ガイドに自身の顔が重なるようにカメラの位置や顔の傾きを調整する。撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影する。   In step S107, the display control unit 323 of the terminal 120 displays the face shooting guide specified by the server 110 on the shooting screen displaying the output image of the camera. The user adjusts the position of the camera and the tilt of the face so that the user's face overlaps the shooting guide displayed on the shooting screen. The imaging unit 324 captures an image of the user's face at the timing when the shutter button is pressed (or touched).

ステップS108で、端末120の表示制御部323は、撮影された身分証明書の表面、裏面及び側面の画像とユーザの顔の画像とを画面に表示し、各画像をサーバ110に送信してもよいかの確認をユーザに促す。このとき表示制御部323は、ユーザが、撮影された画像が撮影ガイドに沿って撮影されているかを確認可能するために、撮影された画像と撮影ガイドとを並べて、又は、撮影された画像の上に撮影ガイドを重ねて表示するようにしてもよい。ユーザが送信を許可した場合、ステップS109の処理手順に進み、ユーザが再度の撮影を望む場合、ユーザが希望する画像の撮影が再度行われる。   In step S108, the display control unit 323 of the terminal 120 displays the image of the front, back, and side surfaces of the captured ID card and the image of the user's face on the screen, and transmits each image to the server 110. Prompt the user for confirmation. At this time, the display control unit 323 arranges the photographed image and the photographing guide, or displays the photographed image so that the user can confirm whether the photographed image is photographed along the photographing guide. A shooting guide may be displayed on top of the shooting guide. If the user has permitted the transmission, the process proceeds to step S109, and if the user desires to take the image again, the image desired by the user is taken again.

ステップS110で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像とを用いてユーザの本人確認処理及びライブ性確認処理を行う。   In step S110, the authentication unit 325 of the server 110 uses the received user attribute information, the front, back, and side images of the identification card, and the image of the user's face to confirm the identity of the user and the liveness. Perform confirmation processing.

まず、認証部325は、端末120に指示した顔の撮影ガイドにおける顔の撮影方法と、ユーザの顔の画像とを比較することで、撮影された画像が撮影ガイドに沿って撮影されていることを確認する。例えば、認証部325は、顔の画像を解析することで、画面全体における顔の位置及び傾きを特定し、特定した位置及び傾きと、撮影ガイドにおける顔の位置及び傾きとのずれが所定の閾値以下である場合に、ユーザの顔の画像は、撮影ガイドに沿って撮影されていると判定するようにしてもよい。   First, the authentication unit 325 compares the method of capturing a face in the capturing guide of the face instructed to the terminal 120 with the image of the user's face, so that the captured image is captured along the capturing guide. Check. For example, the authentication unit 325 specifies the position and inclination of the face on the entire screen by analyzing the image of the face, and determines whether a deviation between the specified position and inclination and the position and inclination of the face in the shooting guide is a predetermined threshold. In the following cases, the image of the user's face may be determined to be taken along the shooting guide.

次に、認証部325は、身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とを比較し、各々の画像が所定の一致判定基準を満たすことを確認することで、身分証明書に写っている人物とユーザとが同一人物であることを確認する。例えば、認証部325は、それぞれの画像に写っている顔の特徴量を抽出し、特徴量の差が所定の値以下である場合に、身分証明書に写っている人物とユーザとが同一人物であると判定するようにしてもよい。   Next, the authentication unit 325 compares the image of the face portion included in the image of the identification card with the image of the face of the user, and confirms that each image satisfies a predetermined matching criterion. Confirm that the person shown in the ID card and the user are the same person. For example, the authentication unit 325 extracts the feature amount of the face shown in each image, and when the difference between the feature amounts is equal to or less than a predetermined value, the person and the user appearing in the identification card are the same person. May be determined.

次に、認証部325は、身分証明書の画像に含まれるユーザの属性情報と、ユーザが端末120に入力したユーザの属性情報とを比較することで、ユーザが入力した属性情報が身分証明書の記載事項と一致することを確認する。   Next, the authentication unit 325 compares the attribute information of the user included in the image of the ID card with the attribute information of the user input to the terminal 120 by the user, so that the attribute information input by the user is Confirm that it matches the description of.

例えば、認証部325は、身分証明書の画像に写っている文字列を読み取り、読み取った文字列とユーザが入力したユーザの属性情報とが一致する場合に、ユーザが入力した属性情報が身分証明書の記載事項と一致すると判定するようにしてもよい。   For example, the authentication unit 325 reads a character string in the image of the identification card, and when the read character string matches the attribute information of the user input by the user, the attribute information input by the user is It may be determined that they match the items described in the book.

認証部325は、"顔の画像が撮影ガイドに沿って撮影されていること"と、"身分証明書に写っている人物とユーザとが同一人物であること"と、"ユーザが入力した属性情報が身分証明書の記載事項と一致すること"のすべての項目が確認できた場合に、ユーザがサービス申込者本人であり、かつ画像がその場で撮影されたものである(ライブ性がある)と判定する。   The authentication unit 325 determines that “the face image is photographed along the photographing guide”, “the person and the user shown in the ID card are the same person”, and “the attribute input by the user”. If all items in "Information matches information on identification card" can be confirmed, the user is the service applicant and the image was taken on the spot (there is a live property). ) Is determined.

以上、図5を用いて説明した処理手順において、顔の撮影ガイドを端末120の画面に表示するための表示データが、撮影ガイドのデータを一意に識別するための識別子と対応づけられて、予め端末120内の記憶部326に格納されていてもよい。この場合、サーバ110の撮影ガイド送信部314は、撮影ガイド指示情報として、撮影ガイドの識別子を端末120に送信するようにしてもよい。又は、顔の撮影ガイドを端末120の画面に表示するための表示データがサーバ110の記憶部317に格納されており、サーバ110の撮影ガイド送信部314は、撮影ガイド指示情報として、撮影ガイドの表示データそのものを端末120に送信するようにしてもよい。識別子は表示データよりもデータサイズが小さいことから、前者の方法は、後者の方法と比較して、サーバ110及び端末120における通信データ量を削減することができる。一方、後者の方法は、前者の方法と比較して、表示データの更新をリアルタイムに行うことができる。   As described above, in the processing procedure described with reference to FIG. 5, the display data for displaying the photographing guide of the face on the screen of the terminal 120 is associated with the identifier for uniquely identifying the data of the photographing guide. It may be stored in the storage unit 326 in the terminal 120. In this case, the photographing guide transmitting unit 314 of the server 110 may transmit the identifier of the photographing guide to the terminal 120 as the photographing guide instruction information. Alternatively, display data for displaying the face photographing guide on the screen of the terminal 120 is stored in the storage unit 317 of the server 110, and the photographing guide transmitting unit 314 of the server 110 transmits the photographing guide instruction information as the photographing guide instruction information. The display data itself may be transmitted to the terminal 120. Since the identifier has a smaller data size than the display data, the former method can reduce the amount of communication data in the server 110 and the terminal 120 as compared with the latter method. On the other hand, the latter method can update the display data in real time as compared with the former method.

図6は、実施形態に係る通信システム1の処理を示すシーケンスの一例を示す。図6を用いて、端末120の画面に表示させる顔の撮影ガイドを、端末120が自ら決定する場合のシーケンス例について説明する。   FIG. 6 illustrates an example of a sequence illustrating a process of the communication system 1 according to the embodiment. With reference to FIG. 6, a description will be given of an example of a sequence in a case where the terminal 120 itself determines a shooting guide for a face to be displayed on the screen of the terminal 120.

ステップS201で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影する。   In step S201, the imaging unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched).

ステップS202で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影する。   In step S202, the imaging unit 324 captures an image of the back of the identification card at the timing when the shutter button is pressed (or touched).

ステップS203で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影する。   In step S203, the imaging unit 324 captures an image of the side of the identification card at the timing when the shutter button is pressed (or touched).

ステップS204で、端末120の表示制御部323は、撮影画面に表示する顔の撮影ガイドを、複数のバリエーションの中から選択する。選択方法は、図5のステップS102で説明した、サーバ110の選択部313が行う方法と同一でよい。続いて、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影する。   In step S204, the display control unit 323 of the terminal 120 selects a face shooting guide to be displayed on the shooting screen from a plurality of variations. The selection method may be the same as the method performed by the selection unit 313 of the server 110 described in step S102 of FIG. Subsequently, the image capturing unit 324 captures an image of the user's face at the timing when the shutter button is pressed (or touched).

ステップS205の処理手順は、図5のステップS108の処理手順と同一であるため説明は省略する。   The processing procedure in step S205 is the same as the processing procedure in step S108 in FIG.

ステップS206で、通信部322は、ステップS200の処理手順で入力されたユーザの属性情報と、身分証明書の表面と、裏面及び側面の画像と、ユーザの顔の画像と、撮影ガイド情報とをサーバ110に送信する。撮影ガイド情報には、端末120が選択した、顔の撮影ガイドを特定する情報が含まれる。   In step S206, the communication unit 322 transmits the user attribute information, the front surface, the back and side images of the identification card, the image of the user's face, and the shooting guide information input in the processing procedure of step S200. Send it to server 110. The shooting guide information includes information for specifying the face shooting guide selected by the terminal 120.

ステップS207で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像と、撮影ガイド情報とを用いてユーザの本人確認及びライブ性確認処理を行う。サーバ110の認証部316は、撮影ガイド情報を参照することで、ユーザがどの撮影ガイドに従って撮影を行ったのかを認識する。その他の処理手順は、図5のステップS110と同一であるため説明は省略する。   In step S207, the authentication unit 325 of the server 110 uses the received user attribute information, the front, back, and side images of the identification card, the image of the user's face, and the shooting guide information to identify the user. Confirmation and liveness confirmation processing are performed. The authentication unit 316 of the server 110 refers to the shooting guide information to recognize which shooting guide the user has taken according to the shooting guide. The other processing procedures are the same as step S110 in FIG.

<第2実施形態の撮影ガイドの表示態様>
図9及び図10は、端末120の撮影画面に表示される顔の撮影ガイドの一例を示す。表示エリアA100には、カメラの出力画像と、撮影画像の枠内における顔の位置及び顔の傾きを指示するオブジェクトJ3−1とが表示される。図9(a)の例は、顔を傾けない状態で撮影すべきことを示しており、図9(b)及び図9(c)の例は、顔を傾けて撮影すべきことを示している。図9(d)は、ポーズをとりながら顔を撮影すべきことを指示するオブジェクトJ3−2の例を示している。オブジェクトJ3−2は、顔を配置すべき位置及び顔の傾きに加えて、顔の斜め下に手のひらを写すべきことを示している。
<Display Mode of Photographing Guide of Second Embodiment>
FIG. 9 and FIG. 10 show an example of a face shooting guide displayed on the shooting screen of the terminal 120. In the display area A100, an output image of the camera and an object J3-1 instructing the position and inclination of the face in the frame of the captured image are displayed. The example of FIG. 9A shows that the image should be taken without tilting the face, and the example of FIG. 9B and FIG. 9C shows that the image should be shot with the face tilted. I have. FIG. 9D shows an example of an object J3-2 for instructing that a face be photographed while posing. The object J3-2 indicates that the palm should be photographed diagonally below the face in addition to the position where the face should be arranged and the inclination of the face.

図10の例では、表示制御部323は、顔の撮影ガイドに、撮影画像の枠内における顔の位置と顔の傾きを指示するオブジェクトと、撮影画像の枠内における身分証明書の側面の位置及び保持方法を指示するオブジェクトの両方を表示している。図10の例では、ライブ性の確認は、少なくとも、顔の画像と身分証明書の側面の画像とを用いて行われる。身分証明書の側面は面積が狭いことから、顔と身分証明書の側面を一緒に撮影するように指示することで、ユーザの負担を減らすことができるとともに、端末120からサーバ110に送信する画像の数が減ることで、通信データ量を削減することができる。図10(a)の例では、撮影画像の枠内における顔の位置及び顔の傾きを指示するオブジェクトJ3−1と、撮影画像の枠内における身分証明書の側面の位置を指示するオブジェクトJ1−3と保持方法を指示するオブジェクトJ2−1とが表示されている。図10(b)の例では、顔が傾いた状態のオブジェクトJ3−1が表示されている。   In the example of FIG. 10, the display control unit 323 provides an object for instructing the face photographing guide the position of the face and the inclination of the face in the frame of the photographed image, and the position of the side surface of the identification card in the frame of the photographed image. And an object for instructing a holding method. In the example of FIG. 10, the liveness is confirmed using at least the face image and the side image of the identification card. Since the side of the identification card has a small area, the burden on the user can be reduced by instructing that the side of the identification card be photographed together with the face, and the image transmitted from the terminal 120 to the server 110 can be reduced. Can reduce the amount of communication data. In the example of FIG. 10A, an object J3-1 that indicates the position and inclination of the face in the frame of the captured image and an object J1- that specifies the position of the side surface of the ID card in the frame of the captured image. 3 and an object J2-1 instructing a holding method are displayed. In the example of FIG. 10B, the object J3-1 in which the face is inclined is displayed.

<第2実施形態の第1実施例>
認証部316又は認証部325は、顔の撮影ガイドにおいて、顔の傾きが指示される場合、顔の上下方向の軸と端末120の画面(撮影画面)の上下方向の軸との角度差が大きいほど、顔の撮影ガイドで指示される顔の撮影方法と、受信したユーザの顔の画像における顔の撮影方法とが一致するか否かを判定するための判定基準が緩くなるように変更するようにしてもよい。例えば顔の傾きが無い場合、特徴量の一致率が90%以上であれば、顔の画像は、顔の撮影ガイドに沿って撮影されていると判定すると仮定する。この場合、認証部316は、例えば顔の傾きが30度ある場合、特徴量の一致率が70%以上であれば、顔の画像は、顔の撮影ガイドに沿って撮影されていると判定するといったように、角度差が大きくなるほど判定基準が緩くなるようにしてもよい。これにより、顔の傾きがある場合に、本人確認及びライブ性確認処理の成功率を向上させることが可能になる。<第2実施形態の第2実施例>
顔の撮影ガイドには、バリエーションごとに撮影難易度が定義されていてもよい。
<First Example of Second Embodiment>
The authentication unit 316 or the authentication unit 325 has a large angle difference between the vertical axis of the face and the vertical axis of the screen (photographing screen) of the terminal 120 when the tilt of the face is instructed in the facial photographing guide. In such a case, the criterion for determining whether or not the face shooting method instructed by the face shooting guide matches the face shooting method in the received user's face image is changed so as to be loose. It may be. For example, in the case where the face is not tilted, it is assumed that it is determined that the face image has been shot along the face shooting guide if the matching rate of the feature amount is 90% or more. In this case, the authentication unit 316 determines that the face image has been shot along the face shooting guide, for example, when the face inclination is 30 degrees and the feature value matching rate is 70% or more. As described above, the criterion may be set looser as the angle difference increases. This makes it possible to improve the success rate of the personal identification and the liveness confirmation processing when the face is tilted. <Second example of the second embodiment>
The face shooting guide may define the shooting difficulty for each variation.

サーバ110の認証部316は、本人確認及びライブ性確認に失敗する場合、再度画像の撮影をユーザに促す。再度画像の撮影をユーザに促す際、既にユーザに提示した撮影ガイドよりも撮影難易度が低い撮影ガイドを端末120(ユーザ)に指示するようにしてもよい。これにより、難しいポーズ等が指示されてしまい、撮影が困難になる可能性を軽減することが可能になる。   The authentication unit 316 of the server 110 prompts the user to take an image again when the identity verification and the liveness confirmation fail. When prompting the user to take an image again, the terminal 120 (user) may be instructed to a shooting guide having a shooting difficulty lower than the shooting guide already presented to the user. Thereby, it is possible to reduce the possibility that a difficult pose or the like is instructed and shooting becomes difficult.

なお、顔の撮影画像の撮影難易度が低くなってしまうことを抑止するため、認証部316は、各撮影画像の撮影難易度の合計が所定の難易度以上になるように制御するようにしてもよい。例えば、身分証明書の表面について撮影難易度を下げた場合、顔の画像については撮影難易度の高い画像で撮影し直すようにユーザに促す等の処理を行ってもよい。これにより、簡単なポーズ等のみを用いて撮影が行われてしまい、本人性確認やライブ性確認の信頼度が低下してしまうことを抑制することが可能になる。   Note that, in order to prevent the shooting difficulty of the shot image of the face from being lowered, the authentication unit 316 controls the sum of the shooting difficulty of each shot image to be equal to or more than a predetermined difficulty. Is also good. For example, when the photographing difficulty level of the front surface of the identification card is reduced, a process of prompting the user to re-photograph a face image with an image having a high photographing difficulty level may be performed. Accordingly, it is possible to suppress a situation where the photographing is performed using only a simple pose or the like, and the reliability of the personality confirmation and the liveness confirmation is reduced.

<第3実施形態>
第3実施形態は、身分証明書の側面の撮影位置を示す撮影ガイドについて、当該撮影ガイドの位置及び当該撮影ガイドの傾きを、撮影画面の中で変化させる実施形態である。その他特に言及しない点は第1実施形態と同一でよい。
<Third embodiment>
The third embodiment is an embodiment in which the position of the photographing guide and the inclination of the photographing guide are changed in the photographing screen with respect to the photographing guide indicating the photographing position on the side of the identification card. Other points that are not particularly mentioned may be the same as in the first embodiment.

第3実施形態によれば、身分証明書の側面の撮影ガイドは、ユーザが身分証明書の側面の画像を撮影する際にその都度変更される。つまり、ユーザは、本人確認及びライブ性確認時にオンラインで提出する画像を事前に撮影しておいて後日提出するといった行為や、事前に撮影した画像を加工して提出するといった行為を行うことが困難になる。すなわち、第3実施形態によれば、本人確認及びライブ性確認時にオンラインで提出される身分証明書の側面の画像が、その場で撮影されたものであること(ライブ性)を担保することが可能になるという効果が得られる。また、ユーザに指示する身分証明書の側面の撮影ガイドとして予め複数のバリエーションの撮影ガイドを用意しておく必要がないことから、サーバ110及び端末120が複数のバリエーションの撮影ガイドに関するデータを格納しておくメモリ領域を削減することができるという効果が得られる。   According to the third embodiment, the imaging guide on the side of the identification card is changed each time the user captures an image of the side of the identification card. That is, it is difficult for the user to take an image to be submitted online at the time of identity confirmation and liveness confirmation in advance and submit it at a later date, or to perform an act of processing and submitting an image taken in advance and submitting it. become. That is, according to the third embodiment, it is possible to ensure that the image of the side of the identification card submitted online at the time of identity verification and liveness confirmation is taken on the spot (liveness). The effect that it becomes possible is obtained. Further, since it is not necessary to prepare a plurality of variations of the shooting guide in advance as a shooting guide on the side of the identification card instructed to the user, the server 110 and the terminal 120 store data relating to the plurality of variations of the shooting guide. The effect that the memory area to be saved can be reduced is obtained.

<第3実施形態の機能構成>
再度、図3を用いてサーバ110の機能構成について、第1実施形態との差異点を説明する。特に言及しない機能部は、第1実施形態と同一でよい。
<Functional Configuration of Third Embodiment>
The difference between the functional configuration of the server 110 and the first embodiment will be described again with reference to FIG. Functional units not particularly mentioned may be the same as in the first embodiment.

画像受信部315は、更に、ユーザの身分証明書の側面の画像と、端末120の画面において身分証明書の側面の撮影位置を指示する撮影ガイドの位置及び傾きを示す情報を、端末120から受信する。   The image receiving unit 315 further receives, from the terminal 120, an image of the side of the user's ID card and information indicating the position and inclination of a shooting guide that indicates the shooting position of the side of the ID card on the screen of the terminal 120. I do.

認証部316は、画像受信部315で受信した、ユーザの身分証明書の画像と、ユーザの顔の画像と、ユーザの属性情報と、身分証明書の側面の撮影位置を指示する撮影ガイドの位置及び傾きを示す情報とを用いてユーザの本人確認及びライブ性確認処理を行う機能を有する。   The authentication unit 316 receives the image of the user's ID card, the image of the user's face, the attribute information of the user, and the position of the shooting guide that instructs the shooting position on the side of the ID card, received by the image receiving unit 315. It has a function of performing user identity confirmation and liveness confirmation processing using the information indicating the inclination and the information indicating the inclination.

より具体的には、認証部316は、第1実施形態における本人確認及びライブ性確認処理のうち身分証明書の側面の画像の比較処理について、端末120の撮影画面において身分証明書の側面の撮影ガイドの位置及び傾きと、ユーザの身分証明書の側面の画像に写っている身分証明書の側面の画像の撮影位置(位置及び傾き)との比較結果に基づいて、ユーザの本人確認及びライブ性確認を行う。   More specifically, the authentication unit 316 performs image capturing of the side surface of the identification card on the photographing screen of the terminal 120 with respect to the comparison processing of the image of the side surface of the identification card in the personal identification and the liveness confirmation processing in the first embodiment. Based on the comparison result between the position and inclination of the guide and the photographing position (position and inclination) of the image of the side of the identification card which is shown in the image of the side of the identification card of the user, the identity of the user and liveness can be confirmed. Make a confirmation.

再度、図4を用いて端末120の機能構成について、第1実施形態との差異点を説明する。特に言及しない機能部は、第1実施形態と同一でよい。   Again, the functional configuration of the terminal 120 will be described with reference to FIG. 4 in terms of differences from the first embodiment. Functional units not particularly mentioned may be the same as in the first embodiment.

表示制御部323は、身分証明書の側面の撮影ガイドを表示する際の位置及び傾きを所定のロジックに従って決定し、決定した位置及び傾きに従って撮影ガイドを撮影画面の中に表示させる機能を有する。   The display control unit 323 has a function of determining a position and a tilt when displaying the shooting guide on the side of the identification card according to a predetermined logic, and displaying the shooting guide on the shooting screen according to the determined position and tilt.

なお、表示制御部323は、身分証明書の側面の撮影位置を指示する撮影ガイドを、撮影画面に対して垂直方向の軸を中心に、撮影画面の面に沿って回転させ、所定の操作が行われた場合に回転を停止させることで、撮影画面における撮影ガイドの位置及び傾きを決定るようにしてもよい。また、身分証明書の側面の撮影位置を指示する撮影ガイドには、身分証明書の側面の保持方法を指示する撮影ガイドが含まれていてもよいし、含まれていなくてもよい。   In addition, the display control unit 323 rotates the shooting guide for instructing the shooting position of the side surface of the identification card along the surface of the shooting screen around an axis in the vertical direction with respect to the shooting screen. By stopping the rotation when performed, the position and inclination of the shooting guide on the shooting screen may be determined. In addition, the imaging guide for instructing the imaging position on the side of the identification card may or may not include the imaging guide for instructing the method of holding the side of the identification card.

<第3実施形態の撮影ガイドの表示態様>
図11は、第3実施形態に係る端末120の撮影画面に表示される身分証明書の側面の撮影ガイドの一例を示す図である。図11に示す身分証明書の側面の撮影ガイドは、長方形の撮影ガイドがルーレットのように軸Xを中心に回転し(図11(a)、図11(b))、所定の時間経過後、又はユーザ操作(例えば図11(b)のSTOPアイコンをタッチする等)に応答して停止する(図11(c))。ユーザは、停止した撮影ガイドに身分証明書の側面を合わせて撮影する。なお、図11において、回転軸Xの位置、回転速度及び回転方向は一例であり、これに限定されるものではない。身分証明書の側面の撮影ガイドの移動方法は、回転に限られない。例えば、撮影ガイドが撮影画面の中を前後左右に移動するようにしてもよい。又は、撮影ガイドが回転しながら、回転軸Xが撮影画面の中を前後左右に移動するようにしてもよい。また、側面の撮影ガイドが表示される撮影画面内の位置は、図11の位置に限定されず、例えばランダムに決定されてもよい。
<Display Mode of Photographing Guide of Third Embodiment>
FIG. 11 is a diagram illustrating an example of a shooting guide on the side of an identification card displayed on a shooting screen of the terminal 120 according to the third embodiment. In the photographing guide on the side of the identification card shown in FIG. 11, the rectangular photographing guide rotates about the axis X like a roulette (FIGS. 11A and 11B), and after a predetermined time elapses, Alternatively, it stops in response to a user operation (for example, touching the STOP icon in FIG. 11B) (FIG. 11C). The user takes a picture by matching the side of the identification card with the stopped photography guide. Note that, in FIG. 11, the position, the rotation speed, and the rotation direction of the rotation axis X are an example, and are not limited thereto. The method of moving the shooting guide on the side of the identification card is not limited to rotation. For example, the photographing guide may move forward, backward, left and right in the photographing screen. Alternatively, the rotation axis X may move forward, backward, left and right in the shooting screen while the shooting guide rotates. Further, the position in the photographing screen at which the photographing guide of the side surface is displayed is not limited to the position in FIG. 11, and may be determined at random, for example.

端末120の通信部322は、撮影ガイドが停止した後、撮影ガイドが停止した位置(及び/又は角度)を示す情報をサーバ110に送信する。例えば、通信部322は、図5のステップS109の処理手順において、撮影画像と一緒に、身分証明書の側面の撮影位置を指示するガイドが停止した位置を示す情報をサーバ110に送信するようにしてもよい。   After the photographing guide stops, the communication unit 322 of the terminal 120 transmits information indicating the position (and / or angle) at which the photographing guide has stopped to the server 110. For example, in the processing procedure of step S109 in FIG. 5, the communication unit 322 transmits, to the server 110, information indicating the position at which the guide indicating the shooting position on the side of the ID card has stopped together with the shot image. You may.

図12は、第3実施形態に係る端末120の撮影画面に表示される身分証明書の側面の撮影ガイドの例を示す図である。図12(a)に示すように、身分証明書の側面の撮影ガイドには身分証明書の保持方法が含まれていてもよい。表示制御部323は、身分証明書の側面の保持方法を示す撮影ガイドを、撮影ガイドが停止してから表示するようにしてもよいし、身分証明書の側面の撮影ガイドが回転しているときから表示し続けるようにしてもよい。   FIG. 12 is a diagram illustrating an example of a shooting guide on the side of the identification card displayed on the shooting screen of the terminal 120 according to the third embodiment. As shown in FIG. 12A, the shooting guide on the side of the identification card may include a method for holding the identification card. The display control unit 323 may display the shooting guide indicating the method of holding the side of the ID card after the shooting guide stops, or when the shooting guide on the side of the ID card is rotating. May be displayed continuously.

また、図12(b)に示すように、身分証明書の側面の撮影ガイドは、身分証明書の側面を確認可能な範囲で、身分証明書の側面と共に身分証明書の表面又は裏面も写るように、身分証明書を傾けて撮影すべきことを指示するオブジェクトJ1−4であってもよい。表示制御部323は、身分証明書を傾ける角度をランダムに選択してもよい。具体的には、表示制御部323は、回転軸Xを撮影画面に対して傾ける角度を所定の角度の範囲(例えば10〜45度など)でランダムに選択し、回転軸Xを当該所定の角度傾けたオブジェクトJ1−4を表示するようにしてもよい。身分証明書の側面と共に身分証明書の表面及び裏面も写るようにすることで、側面をクレジットカードなど身分証明書以外のもので撮影するといった不正行為を抑止することができる。   In addition, as shown in FIG. 12B, the photographing guide on the side of the ID card can also show the front or back of the ID card together with the side of the ID card within a range where the side of the ID card can be checked. Alternatively, the object J1-4 for instructing that the ID card be tilted and taken may be used. The display control unit 323 may randomly select an angle at which the identification card is inclined. Specifically, the display control unit 323 randomly selects an angle at which the rotation axis X is inclined with respect to the shooting screen within a predetermined angle range (for example, 10 to 45 degrees), and sets the rotation axis X to the predetermined angle. The tilted object J1-4 may be displayed. By making the front and back of the ID card appear together with the side of the ID card, fraudulent acts such as photographing the side with something other than the ID card, such as a credit card, can be suppressed.

また、身分証明書の側面の撮影ガイドは、長方形の撮影ガイドでなくてもよい。例えば、図12(c)に示すように本棚の中で本が抜けている位置に身分証明書の側面を合わせて撮影するように指示するオブジェクトであってもよい。図12(c)において、表示制御部323は、本が抜けている位置を所定の時間間隔で(例えば1秒間隔等で)移動させ、ユーザが画面をタッチした位置で停止させるようにしてもよい。また、身分証明書の側面の撮影ガイドは、図12(d)に示すように、身分証明書の側面を時計の針に合わせることを指示するオブジェクトであってもよい。また、身分証明書の側面の撮影ガイドは、図12(e)に示すように、文字の一部が抜けており、身分証明書の側面をはめ込むことで文字を完成させることを指示するオブジェクトであってもよい。   Further, the shooting guide on the side of the identification card may not be a rectangular shooting guide. For example, as shown in FIG. 12C, the object may be an object that instructs to shoot an image with the side of the identification card aligned with the position where the book is missing in the bookshelf. In FIG. 12C, the display control unit 323 may move the position where the book is missing at predetermined time intervals (for example, at one-second intervals) and stop at the position where the user touches the screen. Good. Further, the photographing guide on the side of the identification card may be an object for instructing to align the side of the identification card with the hands of a clock as shown in FIG. Also, as shown in FIG. 12 (e), the shooting guide on the side of the identification card has a part of the character missing, and is an object that indicates that the character is completed by fitting the side of the identification card. There may be.

<第3実施形態の動作処理>
再度、図5及び図6を参照し、第3実施形態に係る通信システム1の処理について説明する。以下の説明では、第1実施形態との相違点に絞って説明する。特に説明しない処理手順は第1実施形態と同一でよい。
<Operation Processing of Third Embodiment>
The processing of the communication system 1 according to the third embodiment will be described again with reference to FIGS. The following description focuses on differences from the first embodiment. Processing procedures not particularly described may be the same as those in the first embodiment.

端末120の撮影部324は、図5のステップS106又は図6のステップS203の処理手順で身分証明書の側面の撮影を行う際、端末120が備えるカメラから出力された画像に写っている身分証明書の側面の撮影位置と、身分証明書の撮影ガイドで示される身分証明書の側面の撮影位置との一致度合いが所定の基準を満たす場合、身分証明書の側面の画像を自動で撮影するようにしてもよい。一致度合いはどのような方法で計算されるようにしてもよいが、例えば、撮影部324は、画像に写っている身分証明書の側面の輪郭を抽出し、抽出した輪郭で囲まれる領域のうち撮影ガイドの枠の中に納まる割合を一致度合いとしてもよい。   When photographing the side of the identification card in the processing procedure of step S106 of FIG. 5 or step S203 of FIG. 6, the photographing unit 324 of the terminal 120 identifies the identification card in the image output from the camera of the terminal 120. If the degree of coincidence between the shooting position on the side of the card and the shooting position on the side of the ID card indicated in the ID card shooting guide satisfies a predetermined standard, the image on the side of the ID card is automatically taken. It may be. The degree of coincidence may be calculated by any method. For example, the photographing unit 324 extracts the outline of the side surface of the identification card shown in the image, and selects an area surrounded by the extracted outline. The proportion that fits within the frame of the shooting guide may be used as the matching degree.

また、撮影部324は、身分証明書の側面を自動で撮影した場合、図5のステップS109又は図6のステップS206の処理手順で、自動で撮影したことを示す情報をサーバ110に送信するようにしてもよい。当該情報は、自動で撮影したことを明示的に示す情報であってもよいし、身分証明書の側面の画像を端末120からサーバ110に送信しないことで、自動で撮影したことを暗示的に示すことであってもよい。   In addition, when the side of the identification card is automatically photographed, the photographing unit 324 transmits information indicating that the photographing is automatically performed to the server 110 in the processing procedure of step S109 in FIG. 5 or step S206 in FIG. It may be. The information may be information explicitly indicating that the image was automatically taken, or by not transmitting the image of the side of the identification card from the terminal 120 to the server 110 to imply that the image was taken automatically. It may be shown.

サーバ110は、身分証明書の側面を自動で撮影したことを示す情報を端末120から受信した場合、図5のステップS110又は図6のステップS207の処理手順で、身分証明書の側面については本人確認及びライブ性確認処理の対象外とするようにしてもよい。具体的には、認証部316は、身分証明書の側面の撮影位置を示す情報と、ユーザの身分証明書の側面の画像に写っている身分証明書の側面の画像の撮影位置との比較を行わずにユーザの本人確認及びライブ性確認を行うようにしてもよい。また、図5のステップS111又は図6のステップS208で端末120が自ら本人確認及びライブ性確認を行う場合も同様に、身分証明書の側面については本人確認及びライブ性確認処理の対象外とするようにしてもよい。   When the server 110 receives from the terminal 120 the information indicating that the side of the identification card has been automatically photographed, the server 110 performs the processing procedure of step S110 in FIG. 5 or step S207 in FIG. The confirmation and liveness confirmation processing may not be performed. Specifically, the authentication unit 316 compares the information indicating the photographing position of the side of the identification card with the photographing position of the image of the side of the identification card shown in the image of the side of the user's ID. The user identity confirmation and liveness confirmation may be performed without performing the confirmation. Similarly, when the terminal 120 performs the identity verification and the liveness confirmation by itself in the step S111 in FIG. 5 or the step S208 in FIG. 6, the side of the identification card is also excluded from the identification and the liveness confirmation processing. You may do so.

<第4実施形態>
第4実施形態は、身分証明書の画像及びユーザの顔の画像を用いてユーザの本人確認及びライブ性確認処理を行う場合に、第1実施形態乃至及第3実施形態のように撮影ガイドに沿って撮影されたか否かによってライブ性の確認を行うことに代えて、身分証明書の画像及び顔の画像に付加された撮影時の位置情報と、端末120の現在位置とを比較し、撮影時の位置情報と、端末120の現在位置とが所定の範囲内に含まれることを確認することでライブ性の確認を行う実施形態である。なお、身分証明書の画像及びユーザの顔の画像をまとめて「本人確認画像」と呼んでもよい(他の実施形態でも同様)。その他、特に言及しない点は、第1実施形態乃至第3実施形態と同一でよい。なお、第4実施形態を、第1実施形態、第2実施形態及び/又は第3実施形態と組み合わせるようにしてもよい。つまり、位置情報の比較に加えて、撮影された画像が撮影ガイドに沿ったものであることを確認することでライブ性を確認することとしてもよい。
<Fourth embodiment>
In the fourth embodiment, when the user identity confirmation and the liveness confirmation process are performed using the image of the ID card and the image of the user's face, the photographing guide is used as in the first to third embodiments. Instead of confirming the liveness depending on whether or not the image was taken along, the position information at the time of photographing added to the image of the ID card and the image of the face is compared with the current position of the terminal 120, and the photographing is performed. This is an embodiment in which the liveness is confirmed by confirming that the position information at the time and the current position of the terminal 120 are included in a predetermined range. The image of the identification card and the image of the face of the user may be collectively referred to as an “identification image” (the same applies to other embodiments). Other points that are not particularly mentioned may be the same as the first to third embodiments. In addition, you may make it combine 4th Embodiment with 1st Embodiment, 2nd Embodiment, and / or 3rd Embodiment. That is, in addition to the comparison of the position information, the liveness may be confirmed by confirming that the photographed image conforms to the photographing guide.

第4実施形態によれば、撮影時の位置情報と、端末120の位置情報とが所定の範囲内であるか否かを確認することでライブ性の確認を行うようにする。これにより、ユーザは、本人確認及びライブ性確認時にオンラインで提出する画像を事前に撮影しておいて後日提出するといった行為や、事前に撮影した画像を加工して提出するといった行為を行うことが困難になる。すなわち、第4実施形態によれば、本人確認及びライブ性確認時にオンラインで提出される身分証明書の側面の画像が、その場で撮影されたものであること(ライブ性)を担保することが可能になるという効果が得られる。また、第1実施形態及び第3実施形態と比較して、身分証明書の撮影ガイドを記憶しておく必要がないことから、サーバ110及び端末120のメモリ領域を削減することができるという効果が得られる。   According to the fourth embodiment, the liveness is checked by checking whether the position information at the time of shooting and the position information of the terminal 120 are within a predetermined range. This allows the user to take an image to be submitted online at the time of identity verification and liveness confirmation beforehand and submit it later, or perform an operation of processing and submitting an image taken in advance and submitting it. It becomes difficult. That is, according to the fourth embodiment, it is possible to ensure that the image of the side of the identification card submitted online at the time of identity verification and liveness confirmation is taken on the spot (liveness). The effect that it becomes possible is obtained. Further, compared to the first and third embodiments, there is no need to store a photographing guide of an identification card, so that the memory area of the server 110 and the terminal 120 can be reduced. can get.

<第4実施形態の機能構成>
再度、図3を用いてサーバ110の機能構成を説明する。なお、第4実施形態を第1実施形態、第2実施形態及び/又は第3実施形態と組み合わせない場合、図3における選択部313及び撮影ガイド送信部314は不要である。
<Functional Configuration of Fourth Embodiment>
The functional configuration of the server 110 will be described again with reference to FIG. When the fourth embodiment is not combined with the first embodiment, the second embodiment, and / or the third embodiment, the selection unit 313 and the imaging guide transmission unit 314 in FIG. 3 are unnecessary.

画像受信部315は、端末120の位置情報と、撮影時の位置情報が付加されたユーザの身分証明書の画像と、撮影時の位置情報が付加されたユーザの顔の画像と、ユーザにより入力されたユーザの属性情報とを、端末120から受信する機能を有する。   The image receiving unit 315 inputs the position information of the terminal 120, the image of the user's ID card to which the position information at the time of shooting has been added, the image of the user's face to which the position information at the time of shooting has been added, and input by the user. And a function of receiving the attribute information of the user from the terminal 120.

認証部316は、端末120の位置情報と、ユーザの身分証明書の画像に付与された位置情報とが所定の範囲内である場合に、ユーザの身分証明書を当該ユーザの本人確認の少なくとも一部として承認する機能を有する。また、認証部316は、端末120の位置情報と、ユーザの身分証明書の画像に付与された位置情報と、ユーザの顔の画像に付与された位置情報との比較結果、受信したユーザの身分証明書の画像に含まれる顔部分の画像と、受信したユーザの顔の画像との比較結果、及び、受信したユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報との比較結果に基づいて、ユーザの本人確認及びライブ性確認を行う機能を有する。   When the location information of the terminal 120 and the location information given to the image of the user's ID card are within a predetermined range, the authentication unit 316 determines that the user's ID card is at least one of the identification of the user. It has a function to approve as a department. The authentication unit 316 also compares the position information of the terminal 120, the position information given to the image of the user's ID card with the position information given to the image of the user's face, The comparison result between the image of the face portion included in the image of the certificate and the image of the face of the received user, and the attribute information of the user included in the image of the received ID card and the attribute of the received user It has a function of confirming the identity of the user and confirming the liveness based on the result of comparison with the information.

図13を用いて端末120の機能構成について、第1実施形態との差異点を説明する。第4実施形態に係る端末120は、第1実施形態で説明した構成に加え、更に、位置情報測定部327を有する。表示制御部323、撮影部324、認証部325、位置情報測定部327は、プロセッサ201が、記憶部326に格納されているプログラムを読み出して実行することで実現される。   The differences between the functional configuration of the terminal 120 and the first embodiment will be described with reference to FIG. The terminal 120 according to the fourth embodiment further includes a position information measuring unit 327 in addition to the configuration described in the first embodiment. The display control unit 323, the imaging unit 324, the authentication unit 325, and the position information measurement unit 327 are realized by the processor 201 reading and executing a program stored in the storage unit 326.

以下に本実施形態にかかる端末120の機能構成について詳細に説明する。なお、入力部321は、第1実施形態と同一であるため説明は省略する。   Hereinafter, the functional configuration of the terminal 120 according to the present embodiment will be described in detail. Note that the input unit 321 is the same as in the first embodiment, and a description thereof will be omitted.

通信部322は、通信I/F205を介してサーバ110から各種データを受信する処理、及び、通信I/F205を用いて各種のデータをサーバ110に送信する処理を行う機能を有する。また、通信部322は、撮影部324で撮影された、撮影時の位置情報が付加されたユーザの身分証明書の画像と、撮影時の位置情報が付加されたユーザの顔の画像と、入力部321で受け付けたユーザの属性情報とをサーバ110に送信する機能を有する。   The communication unit 322 has a function of performing a process of receiving various data from the server 110 via the communication I / F 205 and a process of transmitting various data to the server 110 using the communication I / F 205. The communication unit 322 further includes an image of the user's ID card to which the position information at the time of shooting is added by the imaging unit 324, an image of the user's face to which the position information at the time of shooting is added, The function of transmitting the user attribute information received by the unit 321 to the server 110 is provided.

表示制御部323は、撮影画面に、端末120が備えるカメラ(撮影装置)から出力された画像を表示する機能を有する。   The display control unit 323 has a function of displaying an image output from a camera (imaging device) included in the terminal 120 on an imaging screen.

撮影部324は、ユーザの操作に応答して、ユーザの身分証明書の画像と、ユーザの顔の画像とを、端末120が備えるカメラを用いて撮影する機能を有する。また、撮影部324は、撮影したユーザの身分証明書の画像とユーザの顔の画像とに、撮影時の位置を示す位置情報を付加する機能を有する。   The image capturing unit 324 has a function of capturing an image of the user's ID card and an image of the user's face using a camera included in the terminal 120 in response to the operation of the user. Further, the photographing unit 324 has a function of adding position information indicating a position at the time of photographing to the photographed image of the ID card of the user and the image of the face of the user.

認証部325は、撮影部324で撮影されたユーザの身分証明書の画像及びユーザの顔の画像と、入力部321に入力されたユーザの属性情報と、端末120の位置情報とを用いて、ユーザの本人確認処理及びライブ性確認処理を行う機能を有する。なお、第1実施形態乃至第3実施形態と同様、端末120が自ら本人確認処理及びライブ性確認処理を行わない場合、端末120は認証部325を備えていなくてもよい。   The authentication unit 325 uses the image of the user's ID card and the image of the user's face photographed by the photographing unit 324, the attribute information of the user input to the input unit 321 and the position information of the terminal 120, It has a function of performing user identity confirmation processing and liveness confirmation processing. Note that, as in the first to third embodiments, when the terminal 120 does not perform the identity confirmation processing and the liveness confirmation processing by itself, the terminal 120 may not include the authentication unit 325.

位置情報測定部327は、端末120の現在位置の位置情報を測定する機能を備える。位置情報測定部327は、限定でなく例として、GPS(Global Positioning System)を用いて、端末120の現在位置の位置情報として、該端末120の緯度および経度を測定する。なお、位置情報測定部327による端末120の位置情報の計測は、GPSに限られず、どのような方法を用いてもよい。限定でなく例として、位置情報測定部327は、Wi−Fiなどの無線LANを利用して、端末120の位置情報を測定してもよい。その他にも、位置情報測定部327は、限定でなく例として、IMES(Indoor MEssaging System)やRFID(Radio Frequency Identifier)、BLE(Bluetooth Low Energy)などの通信方式を用いて、端末120の位置情報を測定してもよい。また、位置情報測定部327は、限定でなく例として、LTEやCDMAなどの移動体通信システムを用いて、端末120の位置情報を測定してもよい。   The position information measuring unit 327 has a function of measuring position information of the current position of the terminal 120. The position information measurement unit 327 measures the latitude and longitude of the terminal 120 as the position information of the current position of the terminal 120 using, for example, but not limited to, a GPS (Global Positioning System). The measurement of the position information of terminal 120 by position information measuring section 327 is not limited to GPS, and any method may be used. By way of example and not limitation, the position information measurement unit 327 may measure the position information of the terminal 120 using a wireless LAN such as Wi-Fi. In addition, the position information measuring unit 327 may use a communication method such as IMES (Indoor Messaging System), RFID (Radio Frequency Identifier), or BLE (Bluetooth Low Energy) as an example, but not limited to, and may use the position information of the terminal 120. May be measured. The position information measurement unit 327 may measure the position information of the terminal 120 using a mobile communication system such as LTE or CDMA without limitation.

<第4実施形態の動作処理>
図14を参照し、第4実施形態に係る通信システム1の処理について説明する。図14は、第4実施形態に係る通信システム1の処理のシーケンスの一例を示す。
<Operation Processing of Fourth Embodiment>
The processing of the communication system 1 according to the fourth embodiment will be described with reference to FIG. FIG. 14 illustrates an example of a processing sequence of the communication system 1 according to the fourth embodiment.

ステップS300で、端末120の位置情報測定部327は、端末120の現在位置の測定を開始する。   In step S300, position information measuring section 327 of terminal 120 starts measuring the current position of terminal 120.

ステップS301の処理手順は、図5のステップS100の処理手順と同一であるため説明は省略する。   The processing procedure in step S301 is the same as the processing procedure in step S100 in FIG. 5, and a description thereof will be omitted.

ステップS302で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影し、撮影された画像に、端末120の撮影時の位置を示す位置情報を付加する。   In step S302, the image capturing unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched), and the captured image includes position information indicating the position of the terminal 120 at the time of capturing. Is added.

ステップS303で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影し、撮影された画像に、端末120の撮影時の位置を示す位置情報を付加する。   In step S303, the image capturing unit 324 captures an image of the back of the identification card at the timing when the shutter button is pressed (or touched), and includes, in the captured image, position information indicating the position of the terminal 120 at the time of capturing. Is added.

ステップS304で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影し、撮影された画像に、端末120の撮影時の位置を示す位置情報を付加する。   In step S304, the image capturing unit 324 captures an image of the side of the identification card at the timing when the shutter button is pressed (or touched), and includes, in the captured image, position information indicating the position of the terminal 120 at the time of capturing. Is added.

ステップS305で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影し、撮影された画像に、端末120の撮影時の位置を示す位置情報を付加する。   In step S305, the photographing unit 324 photographs the image of the user's face at the timing when the shutter button is pressed (or touched), and adds position information indicating the photographed position of the terminal 120 to the photographed image. I do.

ステップS306で、端末120の表示制御部323は、撮影された身分証明書の表面、裏面及び側面の画像とユーザの顔の画像とを表示し、各画像をサーバ110に送信してもよいかの確認をユーザに促す。ユーザが送信を許可した場合、ステップS307の処理手順に進み、ユーザが再度の撮影を望む場合、ユーザが希望する画像の撮影が再度行われる。   In step S306, the display control unit 323 of the terminal 120 displays the image of the front, back, and side surfaces of the captured ID card and the image of the user's face, and may transmit each image to the server 110. Prompts the user to confirm. If the user has permitted the transmission, the process proceeds to step S307. If the user desires to take the image again, the image desired by the user is taken again.

ステップS307で、端末120の位置情報測定部327は、端末120の現在位置の測定を終了する。   In step S307, position information measuring section 327 of terminal 120 ends the measurement of the current position of terminal 120.

ステップS308で、通信部322は、ステップS301の処理手順で入力されたユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像と、端末120の現在位置を示す位置情報とをサーバ110に送信する。   In step S308, the communication unit 322 stores the user attribute information, the front, back, and side images of the identification card, the image of the user's face, and the current position of the terminal 120 input in the processing procedure of step S301. The position information shown is transmitted to the server 110.

ステップS310で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像と、端末120の現在位置を示す位置情報とを用いてユーザの本人確認処理及びライブ性確認処理を行う。   In step S310, authentication unit 325 of server 110 receives the received user attribute information, the front, back, and side images of the identification card, the image of the user's face, and the position information indicating the current position of terminal 120. To perform user identity confirmation processing and liveness confirmation processing.

このとき、認証部325は、端末120の現在位置を示す位置情報と、ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された位置情報と、ユーザの顔の画像に付与された位置情報とが所定の範囲内に含まれることを確認する。   At this time, the authentication unit 325 determines the position information indicating the current position of the terminal 120, the position information given to each of the front, back, and side images of the user's ID card, and the position information given to the user's face image. It is confirmed that the position information is included in a predetermined range.

次に、認証部325は、身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とを比較し、比較結果が所定の一致判定基準を満たすことを確認することで、身分証明書に写っている人物とユーザとが同一人物であることを確認する。具体的な処理手順は第1実施形態と同一であるため説明は省略する。   Next, the authentication unit 325 compares the image of the face portion included in the image of the identification card with the image of the face of the user, and confirms that the comparison result satisfies a predetermined matching criterion. Confirm that the person shown in the certificate and the user are the same person. The specific processing procedure is the same as that of the first embodiment, and a description thereof will be omitted.

次に、認証部325は、身分証明書の画像に含まれるユーザの属性情報と、ユーザが端末120に入力したユーザの属性情報とを比較することで、ユーザが入力した属性情報が身分証明書の記載事項と一致することを確認する。具体的な処理手順は第1実施形態と同一であるため説明は省略する。   Next, the authentication unit 325 compares the attribute information of the user included in the image of the ID card with the attribute information of the user input to the terminal 120 by the user, so that the attribute information input by the user is Confirm that it matches the description of. The specific processing procedure is the same as that of the first embodiment, and a description thereof will be omitted.

認証部325は、"端末120の現在位置を示す位置情報と、ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された位置情報と、ユーザの顔の画像に付与された位置情報とが所定の範囲内に含まれること"と、"ユーザの身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とが所定の一致判定基準を満たすこと"と、"ユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報とが一致すること"の全ての項目が確認できた場合に、ユーザがサービス申込者本人(本人確認が取れた)であり、かつ画像がその場で撮影されたものである(ライブ性がある)と判定する。   The authentication unit 325 includes “position information indicating the current position of the terminal 120, position information assigned to each of the front, back, and side images of the user's ID card, and position assigned to the image of the user's face. "The information is included within a predetermined range", "the image of the face portion included in the image of the user's ID card and the image of the user's face satisfy a predetermined matching criterion", If the user attribute information included in the image of the user's ID card matches the attribute information of the received user ", all of the items can be confirmed. ), And that the image was taken on the spot (has liveness).

一方、いずれかの項目について確認ができなかった場合に認証部325が行う処理手順については、第1実施形態、第2実施形態又は第3実施形態と同一であるため説明は省略する。   On the other hand, the processing procedure performed by the authentication unit 325 when any of the items cannot be confirmed is the same as that of the first, second, or third embodiment, and a description thereof will be omitted.

ステップS310及びステップS311の処理手順は、本人確認処理及びライブ性確認処理をサーバ110ではなく端末120側で実施する場合の処理手順を示している。本人確認処理及びライブ性確認処理をサーバ110側で実施する場合、ステップS310及びステップS311の処理手順は省略され、本人確認処理を端末120側で実施する場合、ステップS308及びステップS309の処理手順は省略される。   The processing procedures of step S310 and step S311 show the processing procedures when the personal identification processing and the liveness confirmation processing are performed on the terminal 120 side instead of the server 110. When the personal identification processing and the liveness confirmation processing are performed on the server 110 side, the processing procedures of steps S310 and S311 are omitted, and when the personal identification processing is performed on the terminal 120 side, the processing procedures of steps S308 and S309 are Omitted.

ステップS310で、端末120の認証部325が行う本人確認処理及びライブ性確認処理は、ステップS309の処理手順でサーバ110の認証部316が行う本人確認処理及びライブ性確認処理と同一であるため説明は省略する。   In step S310, the identity confirmation processing and liveness confirmation processing performed by the authentication unit 325 of the terminal 120 are the same as the identity confirmation processing and liveness confirmation processing performed by the authentication unit 316 of the server 110 in the processing procedure of step S309. Is omitted.

ステップS311の処理手順は、図5のステップS112の処理手順と同一であるため説明は省略する。   The processing procedure in step S311 is the same as the processing procedure in step S112 in FIG. 5, and a description thereof will be omitted.

<第4実施形態の第1実施例>
なお、第4実施形態において、画像に付与された位置情報と端末120の位置情報とを比較することに加えて、画像に付与された撮影時刻と、現在の時刻とを比較することで、ライブ性の確認を行うようにしてもよい。
<First Example of Fourth Embodiment>
Note that, in the fourth embodiment, in addition to comparing the position information given to the image with the position information of the terminal 120, the live time is compared with the shooting time given to the image and the current time. The sex may be confirmed.

例えば、端末120の撮影部324は、撮影したユーザの身分証明書の表面、裏面及び側面の画像とユーザの顔の画像に、位置情報に加えて撮影時の時刻を付加し、通信部322は、位置情報及び撮影時の時刻が付加されたユーザの身分証明書の表面、裏面及び側面の画像と、位置情報及び撮影時の時刻が付加されたユーザの顔の画像とをサーバ110に送信する。サーバ110の画像受信部315は、位置情報と撮影時の時刻が付加されたユーザの身分証明書の画像と、位置情報と撮影時の時刻が付加されたユーザの顔の画像とを受信することになる。   For example, the photographing unit 324 of the terminal 120 adds the photographing time in addition to the positional information to the photographed front, back, and side images of the user's ID card and the image of the user's face. To the server 110, the front, back and side images of the user's identification card to which the location information and the time of shooting were added, and the image of the user's face to which the location information and the time of shooting were added. . The image receiving unit 315 of the server 110 receives the image of the user's ID card to which the position information and the time of shooting are added, and the image of the user's face to which the position information and the time of shooting are added. become.

また、サーバ110の認証部316は、位置情報の比較に加えて、現在時刻(又は端末120から身分証明書の画像を受信した時刻でもよく、他の実施例でも同様)と、ユーザの身分証明書の画像に付与された時刻と、ユーザの顔の画像に付与された時刻との比較結果に基づいて、ユーザの本人確認及びライブ性確認を行う。具体的には、認証部316は、現在時刻と、ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された時刻と、ユーザの顔の画像に付与された時刻とが所定の範囲内である場合に、ライブ性が確認できたと判定するようにしてもよい。所定の範囲内とは、限定ではなく例示として、3分以内や5分以内等であってもよい。   Further, in addition to comparing the location information, the authentication unit 316 of the server 110 may determine the current time (or the time when the image of the identification card is received from the terminal 120, and may be the same in other embodiments) and the user's identification. Based on the result of comparison between the time given to the image of the book and the time given to the image of the user's face, the user's identity and liveness are confirmed. Specifically, the authentication unit 316 determines the current time, the time given to each of the front, back, and side images of the user's ID card and the time given to the image of the user's face by a predetermined value. If it is within the range, it may be determined that the liveness has been confirmed. The term “within the predetermined range” may be, for example, within 3 minutes, 5 minutes, or the like, without limitation.

以上説明した第1実施例は、端末120の認証部325が本人確認及びライブ性確認を行う際にも適用することができる。   The first embodiment described above can also be applied when the authentication unit 325 of the terminal 120 performs identity verification and liveness confirmation.

<第5実施形態>
第5実施形態は、身分証明書の画像及びユーザの顔の画像を用いてユーザの本人確認及びライブ性確認処理を行う場合に、第1実施形態乃至第3実施形態のように撮影ガイドに沿って撮影されたか否かによってライブ性の確認を行うことに代えて、身分証明書の画像及び顔の画像に付加された撮影時の時刻情報と、現在時刻とを比較し、撮影時の時刻と現在時刻報とが所定の範囲内に含まれることを確認することでライブ性の確認を行う実施形態である。その他特に言及しない点は、第1実施形態又は第3実施形態と同一でよい。なお、第5実施形態を、第1実施形態及び/又は第3実施形態と組み合わせるようにしてもよい。つまり、位置情報の比較に加えて、撮影された画像が撮影ガイドに沿ったものであることを確認することでライブ性を確認することとしてもよい。また、第5実施形態と第4実施形態を組み合わせることも可能である。
<Fifth embodiment>
In the fifth embodiment, when the user identification and the liveness confirmation processing are performed using the image of the identification card and the image of the user's face, the fifth embodiment follows the shooting guide as in the first to third embodiments. Instead of checking the liveness depending on whether or not the image was taken, the time information at the time of shooting added to the image of the identification card and the image of the face is compared with the current time, and the time at the time of shooting is compared with the time at the time of shooting. This is an embodiment in which liveness is confirmed by confirming that the current time report is included in a predetermined range. Other points that are not particularly described may be the same as the first embodiment or the third embodiment. Note that the fifth embodiment may be combined with the first embodiment and / or the third embodiment. That is, in addition to the comparison of the position information, the liveness may be confirmed by confirming that the photographed image conforms to the photographing guide. Further, the fifth embodiment and the fourth embodiment can be combined.

第5実施形態によれば、撮影時の時刻情報と、現在時刻とが所定の範囲内であるか否かを確認することでライブ性の確認を行うようにする。これにより、ユーザは、本人確認及びライブ性確認時にオンラインで提出する画像を事前に撮影しておいて後日提出するといった行為や、事前に撮影した画像を加工して提出するといった行為を行うことが困難になる。すなわち、第5実施形態によれば、本人確認及びライブ性確認時にオンラインで提出される身分証明書の側面の画像が、その場で撮影されたものであること(ライブ性)を担保することが可能になるという効果が得られる。また、第1実施形態及び第3実施形態と比較して、身分証明書の撮影ガイドを記憶しておく必要がないことから、サーバ110及び端末120のメモリ領域を削減することができるという効果が得られる。   According to the fifth embodiment, the liveness is confirmed by confirming whether the time information at the time of shooting and the current time are within a predetermined range. This allows the user to take an image to be submitted online at the time of identity verification and liveness confirmation beforehand and submit it later, or perform an operation of processing and submitting an image taken in advance and submitting it. It becomes difficult. That is, according to the fifth embodiment, it is possible to ensure that the image of the side of the identification card submitted online at the time of identity verification and liveness confirmation is taken on the spot (liveness). The effect that it becomes possible is obtained. Further, compared to the first and third embodiments, there is no need to store a photographing guide of an identification card, so that the memory area of the server 110 and the terminal 120 can be reduced. can get.

<第5実施形態の機能構成>
図3を用いてサーバ110の機能構成を説明する。なお、第5実施形態を第1実施形態及び/又は第3実施形態と組み合わせない場合、図3における選択部313及び撮影ガイド送信部314は不要である。
<Functional Configuration of Fifth Embodiment>
The functional configuration of the server 110 will be described with reference to FIG. When the fifth embodiment is not combined with the first embodiment and / or the third embodiment, the selecting unit 313 and the photographing guide transmitting unit 314 in FIG. 3 are unnecessary.

画像受信部315は、撮影時の時刻情報が付加されたユーザの身分証明書の画像と、撮影時の時刻情報が付加されたユーザの顔の画像と、ユーザにより入力されたユーザの属性情報とを、端末120から受信する機能を有する。   The image receiving unit 315 includes an image of the user's ID card to which the time information at the time of shooting is added, an image of the face of the user to which the time information at the time of shooting is added, and the attribute information of the user input by the user. From the terminal 120.

認証部316は、現在時刻と、ユーザの身分証明書の画像に付与された時刻情報とが所定の範囲内である場合に、当該身分証明書の画像を当該ユーザの本人認証の少なくとも一部として承認する機能を有する。また、認証部316は、現在時刻と、ユーザの身分証明書の画像に付与された時刻情報と、ユーザの顔の画像に付与された時刻情報との比較結果、受信したユーザの身分証明書の画像に含まれる顔部分の画像と、受信したユーザの顔の画像との比較結果、及び、受信したユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報との比較結果に基づいて、ユーザの本人確認及びライブ性確認を行う機能を有する。   When the current time and the time information given to the image of the user's ID card are within a predetermined range, the authentication unit 316 uses the image of the ID card as at least a part of the authentication of the user. Has a function to approve. The authentication unit 316 also compares the current time, the time information given to the image of the user's ID card with the time information given to the image of the user's face, The comparison result between the image of the face portion included in the image and the received image of the face of the user, and the attribute information of the user included in the image of the received ID card and the attribute information of the received user It has a function of confirming the identity of the user and confirming the liveness based on the comparison result.

図13を用いて端末120の機能構成を説明する。第5実施形態では、位置情報測定部327は不要である。その他特に言及しない点は第4実施形態と同一でよい。   The functional configuration of the terminal 120 will be described with reference to FIG. In the fifth embodiment, the position information measuring section 327 is unnecessary. Other points that are not particularly mentioned may be the same as those of the fourth embodiment.

通信部322は、撮影部324で撮影された、撮影時の時刻情報が付加されたユーザの身分証明書の画像と、撮影時の時刻情報が付加されたユーザの顔の画像と、入力部321で受け付けたユーザの属性情報とをサーバ110に送信する機能を有する。   The communication unit 322 includes an image of the user's ID card to which the time information at the time of shooting is added by the imaging unit 324, an image of the face of the user to which the time information at the time of shooting is added, and an input unit 321. And a function of transmitting to the server 110 the attribute information of the user accepted in step (1).

撮影部324は、ユーザの操作に応答して、ユーザの身分証明書の画像と、ユーザの顔の画像とを、端末120が備えるカメラを用いて撮影する機能を有する。また、撮影部324は、撮影したユーザの身分証明書の画像とユーザの顔の画像とに、撮影時の時刻情報を付加する機能を有する。   The image capturing unit 324 has a function of capturing an image of the user's ID card and an image of the user's face using a camera included in the terminal 120 in response to the operation of the user. Further, the photographing unit 324 has a function of adding time information at the time of photographing to the photographed image of the user's ID card and the photographed image of the user's face.

<第5実施形態の動作処理>
図15を参照し、第5実施形態に係る通信システム1の処理について説明する。図15は、第5実施形態に係る通信システム1の処理のシーケンスの一例を示す。
<Operation Processing of Fifth Embodiment>
The processing of the communication system 1 according to the fifth embodiment will be described with reference to FIG. FIG. 15 illustrates an example of a processing sequence of the communication system 1 according to the fifth embodiment.

ステップS400の処理手順は、図5のステップS100の処理手順と同一であるため説明は省略する。   The processing procedure in step S400 is the same as the processing procedure in step S100 in FIG. 5, and a description thereof will be omitted.

ステップS401で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の表面の画像を撮影し、撮影された画像に、撮影時の時刻情報を示す位置情報を付加する。   In step S401, the image capturing unit 324 captures an image of the front surface of the identification card at the timing when the shutter button is pressed (or touched), and adds position information indicating time information at the time of capturing to the captured image. I do.

ステップS402で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の裏面の画像を撮影し、撮影された画像に、撮影時の時刻情報を示す位置情報を付加する。   In step S402, the photographing unit 324 photographs an image on the back of the identification card at the timing when the shutter button is pressed (or touched), and adds position information indicating time information at the time of photographing to the photographed image. I do.

ステップS403で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、身分証明書の側面の画像を撮影し、撮影された画像に、撮影時の時刻情報を示す位置情報を付加する。   In step S403, the image capturing unit 324 captures an image of the side of the ID card at the timing when the shutter button is pressed (or touched), and adds position information indicating time information at the time of capturing to the captured image. I do.

ステップS404で、撮影部324は、シャッターボタンが押下(又はタッチ)されたタイミングで、ユーザの顔の画像を撮影し、撮影された画像に、撮影時の時刻情報を示す位置情報を付加する。   In step S404, the image capturing unit 324 captures an image of the user's face at the timing when the shutter button is pressed (or touched), and adds position information indicating time information at the time of capturing to the captured image.

ステップS405の処理手順は、図14のステップS306の処理手順と同一であるため説明は省略する。   The processing procedure in step S405 is the same as the processing procedure in step S306 in FIG.

ステップS406で、通信部322は、ステップS400の処理手順で入力されたユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像とをサーバ110に送信する。   In step S406, the communication unit 322 transmits to the server 110 the user attribute information input in the processing procedure in step S400, the front, back, and side images of the identification card, and the image of the user's face.

ステップS407で、サーバ110の認証部325は、受信したユーザの属性情報と、身分証明書の表面、裏面及び側面の画像と、ユーザの顔の画像と、現在時刻とを用いてユーザの本人確認処理及びライブ性確認処理を行う。   In step S407, the authentication unit 325 of the server 110 checks the identity of the user using the received attribute information of the user, the front, back, and side images of the identification card, the image of the user's face, and the current time. Perform processing and liveness confirmation processing.

まず、認証部325は、ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された時刻情報と、ユーザの顔の画像に付与された時刻情報とが、現在時刻から所定の範囲内に含まれることを確認する。   First, the authentication unit 325 determines that the time information given to each of the front, back, and side images of the user's ID card and the time information given to the user's face image are within a predetermined range from the current time. Make sure it is included in

次に、認証部325は、身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とを比較し、比較結果が所定の一致判定基準を満たすことを確認することで、身分証明書に写っている人物とユーザとが同一人物であることを確認する。   Next, the authentication unit 325 compares the image of the face portion included in the image of the identification card with the image of the face of the user, and confirms that the comparison result satisfies a predetermined matching criterion. Confirm that the person shown in the certificate and the user are the same person.

次に、認証部325は、身分証明書の画像に含まれるユーザの属性情報と、ユーザが端末120に入力したユーザの属性情報とを比較することで、ユーザが入力した属性情報が身分証明書の記載事項と一致することを確認する。   Next, the authentication unit 325 compares the attribute information of the user included in the image of the ID card with the attribute information of the user input to the terminal 120 by the user, so that the attribute information input by the user is Confirm that it matches the description of.

認証部325は、"ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された時刻情報と、ユーザの顔の画像に付与された時刻情報とが、現在時刻から所定の範囲内に含まれること"と、"ユーザの身分証明書の画像に含まれる顔部分の画像と、ユーザの顔の画像とが所定の一致判定基準を満たすこと"と、"ユーザの身分証明書の画像に含まれるユーザの属性情報と、受信したユーザの属性情報とが一致すること"の全ての項目が確認できた場合に、ユーザがサービス申込者本人(本人確認が取れた)であり、かつ画像がその場で撮影されたものである(ライブ性がある)と判定する。   The authentication unit 325 determines that the time information given to each of the front, back, and side images of the user's ID card and the time information given to the user's face image are within a predetermined range from the current time. "And that the image of the face portion included in the image of the user's ID and the image of the user's face satisfy a predetermined matching criterion" and "the image of the user's ID That the attribute information of the user included in the URL matches the attribute information of the received user ", the user is the service applicant (the identity has been confirmed) and the image Is determined to have been taken on the spot (having liveness).

一方、いずれかの項目について確認ができなかった場合に認証部325が行う処理手順については、第1実施形態又は第3実施形態と同一であるため説明は省略する。   On the other hand, the processing procedure performed by the authentication unit 325 when any of the items cannot be confirmed is the same as that in the first embodiment or the third embodiment, and thus the description is omitted.

本人確認処理及びライブ性確認処理をサーバ110側で実施する場合、ステップS408及びステップS409の処理手順は省略され、本人確認処理を端末120側で実施する場合、ステップS406及びステップS407の処理手順は省略される。   When the personal identification processing and the liveness confirmation processing are performed on the server 110 side, the processing procedures of steps S408 and S409 are omitted. When the personal identification processing is performed on the terminal 120 side, the processing procedures of steps S406 and S407 are as follows. Omitted.

ステップS408で、端末120の認証部325が行う本人確認処理及びライブ性確認処理は、ステップS407の処理手順でサーバ110の認証部316が行う本人確認処理及びライブ性確認処理と同一であるため説明は省略する。   In step S408, the identity confirmation processing and liveness confirmation processing performed by the authentication unit 325 of the terminal 120 are the same as the identity confirmation processing and liveness confirmation processing performed by the authentication unit 316 of the server 110 in the processing procedure of step S407. Is omitted.

ステップS409の処理手順は、図5のステップS112の処理手順と同一であるため説明は省略する。   The processing procedure in step S409 is the same as the processing procedure in step S112 in FIG. 5, and a description thereof will be omitted.

<第5実施形態の第1実施例>
なお、第5実施形態において、画像に付与された時刻情報と現在時刻とを比較することに加えて、画像に付与された位置情報と、端末120の現在位置を示す位置情報とを比較することで、ライブ性の確認を行うようにしてもよい。
<First Example of Fifth Embodiment>
In the fifth embodiment, in addition to comparing the time information given to the image with the current time, the position information given to the image is compared with the position information indicating the current position of the terminal 120. Then, the liveness may be confirmed.

例えば、端末120の撮影部324は、撮影したユーザの身分証明書の表面、裏面及び側面の画像とユーザの顔の画像に、時刻情報に加えて撮影時の位置情報を付加し、通信部322は、端末120の現在位置を示す位置情報と、位置情報及び撮影時の時刻が付加されたユーザの身分証明書の表面、裏面及び側面の画像と、位置情報及び撮影時の時刻が付加されたユーザの顔の画像とをサーバ110に送信する。サーバ110の画像受信部315は、位置情報及び撮影時の時刻が付加されたユーザの身分証明書の画像と、位置情報及び撮影時の時刻が付加されたユーザの顔の画像とを受信することになる。   For example, the photographing unit 324 of the terminal 120 adds position information at the time of photographing to the image of the front, back, and side surfaces of the photographed user's ID card and the image of the user's face, in addition to the time information. Is the position information indicating the current position of the terminal 120, the front, back, and side images of the user's identification card to which the position information and the time of shooting are added, and the position information and the time of shooting are added. The image of the user's face is transmitted to the server 110. The image receiving unit 315 of the server 110 receives the image of the user's ID card to which the position information and the time of shooting were added, and the image of the user's face to which the position information and the time of shooting were added. become.

また、サーバ110の認証部316は、時刻情報の比較に加えて、端末120の位置情報と、ユーザの身分証明書の画像に付与された位置情報と、ユーザの顔の画像に付与された位置情報との比較結果に基づいて、ユーザの本人確認及びライブ性確認を行う。具体的には、認証部316は、端末120の位置情報と、ユーザの身分証明書の表面、裏面及び側面の各々の画像に付与された位置情報と、ユーザの顔の画像に付与された位置情報とが所定の範囲内である場合に、ライブ性が確認できたと判定するようにしてもよい。所定の範囲内とは、限定ではなく例示として、5m以内又は10m以内等であってもよい。   In addition, in addition to comparing the time information, the authentication unit 316 of the server 110 determines the position information of the terminal 120, the position information given to the image of the user's ID card, and the position given to the image of the user's face. Based on the result of the comparison with the information, the user's identity and liveness are confirmed. Specifically, the authentication unit 316 determines the position information of the terminal 120, the position information given to each of the front, back, and side images of the user's ID card, and the position given to the image of the user's face. When the information is within a predetermined range, it may be determined that the liveness has been confirmed. The term “within the predetermined range” may be, for example, without limitation, within 5 m or 10 m.

以上説明した第1実施例は、端末120の認証部325が本人確認及びライブ性確認を行う際にも適用することができる。   The first embodiment described above can also be applied when the authentication unit 325 of the terminal 120 performs identity verification and liveness confirmation.

1 通信システム、110 サーバ、120 端末、130 ネットワーク、200 情報処理装置、201 プロセッサ、202 メモリ、203 ストレージ、204 入出力I/F、205 通信I/F、311 入出力部、312 通信部、313 選択部、314 撮影ガイド送信部、315 画像受信部、316 認証部、317 記憶部、321 入力部、322 通信部、323 表示制御部、324 撮影部、325 認証部、326 記憶部、327 位置情報測定部   Reference Signs List 1 communication system, 110 server, 120 terminal, 130 network, 200 information processing device, 201 processor, 202 memory, 203 storage, 204 input / output I / F, 205 communication I / F, 311 input / output unit, 312 communication unit, 313 Selection unit, 314 imaging guide transmission unit, 315 image reception unit, 316 authentication unit, 317 storage unit, 321 input unit, 322 communication unit, 323 display control unit, 324 imaging unit, 325 authentication unit, 326 storage unit, 327 positional information Measuring unit

Claims (9)

表示部を有する情報処理装置に、
前記表示部に撮影装置が出力する撮影領域の動画像を表示するステップと、
前記表示部に表示される前記撮影領域に、所定の選択に基づいて選択された、ユーザの顔の前記撮影領域内における位置を含む顔の撮影方法を指示する撮影ガイドを表示するステップと、
前記撮影装置に前記撮影領域の動画像を撮影させるステップと、を実行させるプログラム。
In an information processing device having a display unit,
Displaying a moving image of a shooting region output by a shooting device on the display unit;
A step of displaying a photographing guide for instructing a method of photographing a face including a position of the user's face in the photographing area, which is selected based on a predetermined selection, in the photographing area displayed on the display unit;
Causing the photographing device to photograph a moving image of the photographing region.
前記顔の撮影方法には、更に、顔の傾きが含まれる、
請求項1に記載のプログラム。
The face photographing method further includes the inclination of the face,
The program according to claim 1.
前記顔の撮影ガイドには、更に、本人確認書類の側面の位置が含まれる、
請求項1又は2に記載のプログラム。
The face photographing guide further includes the position of the side of the personal identification document,
The program according to claim 1.
第1情報処理装置と通信する第2情報処理装置が実行する情報処理方法であって、
所定の選択に基づいて選択された、撮影領域内における顔の位置を含む顔の撮影方法を指示する撮影ガイドの情報を前記第1情報処理装置に送信するステップと、
前記第1情報処理装置で撮影されたユーザの顔の動画像を、前記第1情報処理装置から受信するステップと、
前記撮影ガイドで指示される顔の撮影方法と、受信した前記ユーザの顔の動画像における顔の撮影方法との比較結果に基づいて、前記ユーザの顔の動画像におけるライブ性確認を行うステップと、を含む、情報処理方法。
An information processing method executed by a second information processing device communicating with the first information processing device,
Transmitting, to the first information processing apparatus, information of a photographing guide that instructs a method of photographing a face including a position of the face in a photographing area, which is selected based on a predetermined selection;
Receiving a moving image of a user's face captured by the first information processing device from the first information processing device;
Performing a liveness check on a moving image of the user's face based on a comparison result between a method of capturing a face indicated by the shooting guide and a method of capturing a face of the received moving image of the user's face; And an information processing method.
前記顔の撮影方法には、更に、顔の傾きが含まれており、
前記ライブ性確認を行うステップは、前記顔の撮影ガイドで指示される顔の傾きについて、顔の上下方向の軸と撮影画面の垂直方向の軸との角度差が大きいほど、前記顔の撮影ガイドで指示される顔の撮影方法と、受信した前記ユーザの顔の動画像における顔の撮影方法とが一致するか否かを判定するための判定基準が緩くなるように変更する、
請求項4に記載の情報処理方法。
The face shooting method further includes a face inclination,
The step of performing the liveness check is as follows: As for the inclination of the face specified by the face shooting guide, the larger the angle difference between the vertical axis of the face and the vertical axis of the shooting screen is, the larger the face shooting guide is. In order to determine whether or not the face shooting method indicated in the, and the face shooting method in the received moving image of the face of the user is the same, change the determination criteria to loosen,
The information processing method according to claim 4.
表示部を有する情報処理装置が実行する情報処理方法であって、
前記表示部に撮影装置が出力する撮影領域の動画像を表示するステップと、
前記表示部に表示される前記撮影領域に、所定の選択に基づいて選択された、ユーザの前記撮影領域内における顔の位置を含む顔の撮影方法を指示する撮影ガイドを表示するステップと、
前記撮影装置に前記撮影領域の動画像を撮影させるステップと、を含む、情報処理方法。
An information processing method executed by an information processing apparatus having a display unit,
Displaying a moving image of a shooting region output by a shooting device on the display unit;
Displaying a shooting guide instructing a shooting method of a face including a position of a face in the shooting area of the user, which is selected based on a predetermined selection, in the shooting area displayed on the display unit;
Causing the photographing device to photograph a moving image of the photographing region.
撮影装置が出力する撮影領域の動画像を表示する表示部であって、当該撮影領域に、所定の選択ロジックに基づいて選択された、ユーザの顔の前記撮影領域内における位置を含む顔の撮影方法を指示する撮影ガイドを表示する表示部と、
前記撮影装置に前記撮影領域の動画像を撮影させるステップと、を有する情報処理装置。
A display unit for displaying a moving image of a photographing area output by a photographing device, the photographing of a face including a position of the user's face in the photographing area selected based on a predetermined selection logic. A display section for displaying a shooting guide for instructing a method,
Causing the photographing device to photograph a moving image of the photographing area.
第1情報処理装置と通信する第2情報処理装置として動作する情報処理装置であって、
所定の選択ロジックに基づいて、撮影領域内における顔の位置を含む顔の撮影方法を指示する撮影ガイドの情報を前記第1情報処理装置に送信する送信部と、
前記第1情報処理装置で撮影されたユーザの顔の動画像を、前記第1情報処理装置から受信する受信部と、
前記撮影ガイドで指示される顔の撮影方法と、受信した前記ユーザの顔の動画像における顔の撮影方法との比較結果に基づいて、前記ユーザの顔の動画像におけるライブ性確認を行う認証部と、を有する情報処理装置。
An information processing device that operates as a second information processing device that communicates with the first information processing device,
A transmission unit configured to transmit, to the first information processing apparatus, information of a shooting guide for instructing a face shooting method including a face position in a shooting area based on a predetermined selection logic;
A receiving unit that receives, from the first information processing device, a moving image of a user's face captured by the first information processing device;
An authentication unit for confirming liveness of a moving image of the user's face based on a comparison result between a method of capturing a face specified by the shooting guide and a method of capturing a face of the received moving image of the user's face And an information processing apparatus having:
第1情報処理装置と通信する第2情報処理装置に、
所定の選択ロジックに基づいて選択された、撮影領域内における顔の位置を含む顔の撮影方法を指示する撮影ガイドの情報を前記第1情報処理装置に送信するステップと、
前記第1情報処理装置で撮影されたユーザの顔の動画像を、前記第1情報処理装置から受信するステップと、
前記撮影ガイドで指示される顔の撮影方法と、受信した前記ユーザの顔の動画像における顔の撮影方法との比較結果に基づいて、前記ユーザの顔の動画像におけるライブ性確認を行うステップと、を実行させる、プログラム。
A second information processing device communicating with the first information processing device;
Transmitting, to the first information processing apparatus, information of a photographing guide instructing a method of photographing a face including a position of the face in a photographing area, which is selected based on a predetermined selection logic;
Receiving a moving image of a user's face captured by the first information processing device from the first information processing device;
Performing a liveness check on a moving image of the user's face based on a comparison result between a method of capturing a face indicated by the shooting guide and a method of capturing a face of the received moving image of the user's face; , Make the program run.
JP2018143704A 2018-07-31 2018-07-31 Program, information processing method, information processing apparatus Active JP6479245B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018143704A JP6479245B1 (en) 2018-07-31 2018-07-31 Program, information processing method, information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143704A JP6479245B1 (en) 2018-07-31 2018-07-31 Program, information processing method, information processing apparatus

Publications (2)

Publication Number Publication Date
JP6479245B1 JP6479245B1 (en) 2019-03-06
JP2020022045A true JP2020022045A (en) 2020-02-06

Family

ID=65655804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143704A Active JP6479245B1 (en) 2018-07-31 2018-07-31 Program, information processing method, information processing apparatus

Country Status (1)

Country Link
JP (1) JP6479245B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091876A (en) * 2020-01-15 2020-06-11 株式会社Trustdock Information processing device, information processing method, program, and information processing server
JP7448395B2 (en) 2020-03-27 2024-03-12 株式会社日本総合研究所 Financial information processing equipment and programs

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3840368B1 (en) * 2019-12-18 2022-01-26 Axis AB Method of injecting additional data
KR102472656B1 (en) 2020-09-07 2022-11-29 주식회사 에스와이코퍼레이션 Non-face-to-face B2B sales system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003317100A (en) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd Information terminal device, authentication system, and registering and authenticating method
JP2015051482A (en) * 2013-09-06 2015-03-19 株式会社マキタ Electric tool
WO2016013249A1 (en) * 2014-07-24 2016-01-28 株式会社ソニー・コンピュータエンタテインメント Information processing device
WO2016013248A1 (en) * 2014-07-23 2016-01-28 オリンパス株式会社 Method for determining pancreatic disease
JP2016051482A (en) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy Methods of enrolling and authenticating user in authentication system, facial authentication system, and methods of authenticating user in authentication system
JP2016152035A (en) * 2015-02-19 2016-08-22 大日本印刷株式会社 Account application method and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003317100A (en) * 2002-02-22 2003-11-07 Matsushita Electric Ind Co Ltd Information terminal device, authentication system, and registering and authenticating method
JP2015051482A (en) * 2013-09-06 2015-03-19 株式会社マキタ Electric tool
WO2016013248A1 (en) * 2014-07-23 2016-01-28 オリンパス株式会社 Method for determining pancreatic disease
WO2016013249A1 (en) * 2014-07-24 2016-01-28 株式会社ソニー・コンピュータエンタテインメント Information processing device
JP2016051482A (en) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy Methods of enrolling and authenticating user in authentication system, facial authentication system, and methods of authenticating user in authentication system
JP2016152035A (en) * 2015-02-19 2016-08-22 大日本印刷株式会社 Account application method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091876A (en) * 2020-01-15 2020-06-11 株式会社Trustdock Information processing device, information processing method, program, and information processing server
JP7448395B2 (en) 2020-03-27 2024-03-12 株式会社日本総合研究所 Financial information processing equipment and programs

Also Published As

Publication number Publication date
JP6479245B1 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
JP2020021222A (en) Program, information processing method, information processing device
JP6481073B1 (en) Program, information processing method, information processing apparatus
US20230129693A1 (en) Transaction authentication and verification using text messages and a distributed ledger
JP6479245B1 (en) Program, information processing method, information processing apparatus
JP6481074B1 (en) Program, information processing method, information processing apparatus
US20200034919A1 (en) Blockchain-based service rental methods and devices
KR101723709B1 (en) Image-based financial processing
US10867292B2 (en) Image recognition-based payment requests
US20180075419A1 (en) Wearable transaction devices
US20150319170A1 (en) Computer implemented frameworks and methodologies for enabling identification verification in an online environment
US10878112B2 (en) Restrictive access of a digital object based on location
CA2945703A1 (en) Systems, apparatus and methods for improved authentication
US20140359743A1 (en) Authentication using mobile devices
JP6490860B1 (en) Program, information processing method, information processing apparatus
US11010763B1 (en) Biometric authentication on push notification
CN109416710A (en) The certification based on privacy of user protective position in mobile device
JP6741137B2 (en) Personal authentication system, authenticator, program and personal authentication method
KR101600455B1 (en) Method, system and recording medium for service account authentication
JP2020021459A (en) Program, information processing method, and information processing device
EP3154013A1 (en) Apparatus, method and system providing remote user authentication
US20210019504A1 (en) Systems and methods for authenticating a user signing an electronic document
US20160344558A1 (en) System and Method for Obtaining Authorization
US20210326836A1 (en) Computerized payments for transaction authorization
US20160005051A1 (en) Mobile electronic verification of digital signatures
US20240004975A1 (en) Interoperability of real-world and metaverse systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R150 Certificate of patent or registration of utility model

Ref document number: 6479245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250