JP2021099802A - ユーザーを認証する方法およびシステム - Google Patents
ユーザーを認証する方法およびシステム Download PDFInfo
- Publication number
- JP2021099802A JP2021099802A JP2020209356A JP2020209356A JP2021099802A JP 2021099802 A JP2021099802 A JP 2021099802A JP 2020209356 A JP2020209356 A JP 2020209356A JP 2020209356 A JP2020209356 A JP 2020209356A JP 2021099802 A JP2021099802 A JP 2021099802A
- Authority
- JP
- Japan
- Prior art keywords
- user
- user terminal
- video
- instructions
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000009471 action Effects 0.000 claims abstract description 128
- 230000004044 response Effects 0.000 claims abstract description 90
- 238000004891 communication Methods 0.000 claims description 64
- 230000006854 communication Effects 0.000 claims description 64
- 230000006399 behavior Effects 0.000 claims description 36
- 238000012546 transfer Methods 0.000 claims description 26
- 230000001939 inductive effect Effects 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010191 image analysis Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 28
- 238000000605 extraction Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 22
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Collating Specific Patterns (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】 本開示は、ユーザーを認証する方法を提供するものである。【解決手段】 本開示のユーザーを認証する方法は、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップと、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップと、動画内にユーザーが存在するか否かを決定するステップと、ユーザーが存在すると決定された場合、動画から抽出されたユーザーの顔に基づいてユーザーを認証するステップを含む。【選択図】 図5
Description
本開示は、ユーザー認証方法およびシステムに関するものであって、具体的には、ユーザー端末によって撮影された動画を受信し、受信された動画を分析して動画内にユーザーが存在するか否かを決定し、ユーザーの認証を処理できる方法およびシステムに関するものである。
スマートフォンのようなモバイル機器の拡散およびインターネットの発達により、モバイル機器を利用した金融サービスおよび決済サービスなどが広く利用されている。このような金融および決済サービスを利用するために、ユーザーの実名認証が要求され得る。ただし、このようなサービスを利用する数が急激に増加し、認証サービスを提供する機関のリソースが制限的であるため、対面実名認証を介した実名認証サービスの提供に限界があり得る。これにより、非対面実名認証を通じたユーザーを認証するサービスが最近の画像処理/認識の分野において活発に研究されている。例えば、カメラを用いて撮影された画像から抽出されたユーザーの顔情報が、ユーザーを認証するのに利用されることができる。
ただし、このような非対面実名認証は、対面実名認証よりも実際本人であるかを確認するのが困難であるため、本人ではない者が本人と詐称する副作用が発生する可能性がある。例えば、他人の身分証と同一の人物が印刷された写真や紙を利用して、同一人物と判断される問題があり得る。また、非対面実名認証がクライアントデバイスで行われる場合、クライアントデバイスが処理された実名認証結果を、実名認証を要求するシステムに送信するとき、クラッキングを通じて異なる実名結果が送信される弊害があり得る。さらに、非対面実名認証のための画像認識および処理がサーバーデバイスにおいて行われる場合にも、送受信情報の傍受およびハッキングを通じて非対面実名認証のためにクライアントから送信される画像が変更され得るという問題がある。
本開示は、前記のような問題点を解決するためのユーザー認証方法、記録媒体に格納されたコンピュータプログラムおよびシステムを提供する。
ユーザーに複数の行動を誘導する複数の命令(instructions)に応答させて、ユーザー端末から複数の命令に対応して撮影された動画を受信し、動画内にユーザーが存在するか否かを決定し、ユーザーが存在と決定された場合、動画から抽出されたユーザーの顔に基づいてユーザーを認証するユーザー認証方法およびシステムが提供される。
ユーザー認証プロセスにおいて、カメラを介して撮影された動画は、ユーザー端末からリアルタイムで、そして連続的に受信されるユーザー認証方法およびシステムが提供される。
本開示は、方法、システムまたはコマンドを格納するコンピュータ読み取り可能な格納媒体を含む多様な方式で実装されることができる。
本開示の一実施例によるユーザー認証方法は、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップと、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップと、動画内にユーザーが存在するか否かを決定するステップと、ユーザーが存在すると決定された場合、動画から抽出されたユーザーの顔に基づいてユーザーを認証するステップとを含む。
一実施例によると、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップは、ユーザー端末からユーザー端末との通信のためのチャネルを介して動画をリアルタイムで受信するステップを含む。
一実施例によると、動画は、ユーザー端末との通信のためのチャネルを介して連続的に受信される。
一実施例によると、動画内にユーザーが存在するか否かを決定するステップは、動画を分析して、動画内でユーザーが複数の命令に対応する複数の行動を遂行するか否かを決定するステップと、ユーザーが複数の命令に対応する複数の行動を遂行すると決定された場合、撮影された動画内にユーザーが存在すると決定するステップとを含む。
一実施例によると、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップは、ユーザー端末からユーザーの顔が撮影されるように誘導する命令に対応して撮影された顔関連動画を受信するステップと、ユーザー端末からユーザーの身分証が撮影されるように誘導する命令に対応して撮影された身分証関連動画を受信するステップとを含み、ユーザーを認証するステップは、顔関連動画からユーザーの顔に対する第1の情報を抽出するステップと、身分証関連動画からユーザーの顔に対する第2の情報を抽出するステップと、抽出された第1の情報および抽出された第2の情報を比較するステップと、抽出された第1の情報および抽出された第2の情報が類似する場合、ユーザーを認証するステップとを含む。
一実施例によると、複数の命令は、ユーザーの正面顔が撮影されるように誘導する命令を含む。
一実施例によると、複数の命令は、ユーザーの身分証を動かすように誘導する命令を含み、身分証関連動画を受信するステップは、ユーザー端末から命令に基づいてユーザーの身分証が撮影された動画を受信するステップを含み、ユーザーを認証するステップは、動画を分析して取得したユーザーの身分証の動きに基づいて、動画内にユーザーの身分証が存在するか否かを決定するステップを含む。
一実施例によると、身分証関連動画は、ユーザーの少なくとも一部およびユーザーの身分証が一緒に撮影された動画を含み、身分証関連動画を受信するステップは、ユーザー端末からユーザーの少なくとも一部を含む領域を第1のチャネルで受信するステップと、ユーザー端末からユーザーの身分証を含む領域を第2のチャネルで受信するステップとを含む。
一実施例によると、ユーザーの複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、予め決められた複数の命令の候補の中から、複数の命令をランダムに選択するステップと、ランダムに選択された複数の命令をユーザー端末に送信するステップとを含む。
一実施例によると、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、ユーザーに第1の行動を誘導する第1の命令をユーザー端末に送信するステップを含み、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップは、ユーザー端末から第1の命令に対応して撮影された動画を受信するステップを含み、動画内にユーザーが存在するか否かを決定するステップは、第1の命令に対応して撮影された動画を分析し、ユーザーが第1の命令に応答して、第1の行動を遂行するか否かを決定するステップを含む。
一実施例によると、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、ユーザーが第1の行動を遂行すると決定された場合、ユーザーに第2の行動を誘導する第2の命令をユーザー端末に送信するステップをさらに含み、ユーザー端末から複数の命令に対応して撮影された動画を受信するステップは、ユーザー端末から第2の命令に対応して撮影された動画を受信するステップを含み、動画内にユーザーが存在するか否かを決定するステップは、第2の命令に対応して撮影された動画を分析し、ユーザーが第2の命令に応答して、第2の行動を遂行するか否かを決定するステップを含む。
一実施例によると、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、ユーザーが第1の行動を遂行しないと決定された場合、ユーザーに第3の行動を誘導する第3の命令をユーザー端末に送信するステップを含み、第3の命令は、第1の命令に対応して撮影された動画の分析から取得されたユーザーの行動と第1の行動との相違点に基づいて選択されたものである。
一実施例によると、ユーザーが第1の行動を遂行しないと決定された場合、ユーザー端末との通信のために使用されたチャネルと異なるチャネルを利用してユーザー端末と通信するステップをさらに含む。
一実施例によると、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、複数の命令に対応する複数の解像度に対する情報を複数の命令と一緒にユーザー端末に送信するステップを含む。
一実施例によると、複数の命令に対応する複数の解像度は、複数の命令に対応して撮影される動画が表示される画面での複数の領域のそれぞれに対する解像度を含む。
一実施例によると、複数の命令は、ユーザーの少なくとも一部およびユーザーの身分証が一緒に撮影されるように誘導する命令を含み、ユーザーの身分証が撮影されるように誘導された領域の解像度は、ユーザーの少なくとも一部が撮影されるように誘導された領域の解像度よりも高く設定される。
一実施例によると、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、複数の命令のそれぞれに対応する転送速度に対する情報を複数の命令と一緒にユーザー端末に送信するステップを含む。
本開示の一実施例による上述したユーザー認証方法をコンピュータで実行するためにコンピュータ読み取り可能な記録媒体に格納されたコンピュータプログラムが提供される。
本開示の一実施例によるユーザー認証システムは、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信し、ユーザー端末から複数の命令に対応して撮影された動画を受信するように構成された通信モジュールと、メモリと、メモリと連結され、メモリに含まれたコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサとを含み、少なくとも1つのプロセッサは、動画内にユーザーが存在するか否かを決定し、ユーザーが存在すると決定された場合、動画から抽出されたユーザーの顔に基づいてユーザーを認証するようにさらに構成される。
一実施例によると、通信モジュールは、ユーザー端末からユーザー端末との通信のためのチャネルを介して動画をリアルタイムで受信するようにさらに構成される。
本開示の一実施例によると、ユーザー端末から受信された動画を分析してユーザーが存在するか否かを決定し、ユーザーが存在すると決定された場合にユーザー認証を行うため、ユーザーの印刷された写真や紙を利用してユーザー認証が行われることを防止することができる。
本開示の一実施例によると、リアルタイムで受信された動画を分析してユーザー認証サービスが提供されるため、ユーザーを認証するプロセスにおいて使用される画像や動画が捏造される問題点を解決することができる。
本開示の一実施例によると、ユーザー認証システムがユーザー端末からリアルタイムで受信された動画を分析してユーザー認証を遂行するため、ユーザー認証サービスを提供するアプリケーションだけでなく、ウェブブラウザを通じてもユーザー認証サービスを提供することができる。
本開示の効果は、以上で言及した効果に制限されず、言及されていない他の効果は、請求の範囲の記載から本開示に属する技術分野における通常の知識を有する者(以下、「通常の技術者」という。)に明確に理解できるものである。
本開示の実施例は、以下で説明する添付図面を参照して説明され、ここで類似の参照番号は類似の要素を示すが、これに限定されない。
本開示の一実施例に係るユーザーを認証するプロセスにおいて、ユーザー端末に表示された命令によってユーザーの行動が撮像される動画を示す例示図である。
本開示の他の実施例に係るユーザーを認証するプロセスにおいて、ユーザー端末に表示された命令によってユーザーの行動が撮像される動画を示す例示図である。
本開示の一実施例に係るユーザー認証サービスを提供するために、ユーザー認証システムが複数のユーザー端末と通信可能に連結された構成を示す概要図である。
本開示の一実施例に係るユーザー端末およびユーザー認証システムの内部構成を示すブロック図である。
本開示の一実施例に係るユーザー認証システムの構成を示すブロック図である。
本開示の一実施例に係るユーザー認証方法を示すフローチャートである。
本開示の一実施例に係る入力画像に基づいてオブジェクトの存在結果を推論、または出力するように構成された画像分析モデルを示す図面である。
本開示の一実施例に係る複数の命令によるユーザーの行動が撮影された動画に基づいてユーザーを認証する例示を示す図面である。
本開示の一実施例に係る例示的な命令情報DBを示す図面である。
本開示の一実施例に係るユーザー認証システムによりユーザーの行動が遂行されるか否かに応じて異なる命令が選択される例示を示す図面である。
本開示の一実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。
本開示の他の実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。
本開示のさらに他の実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。
本開示の一実施例に係る命令に対応してユーザーおよびユーザーの身分証が一緒に撮影される例示を示す図面である。
本開示の一実施例に係るユーザーの身分証が存在するか否かを決定するために命令に対応して身分証の動きが撮影される例示を示す図面である。
以下では、本開示の実施のための具体的な内容を添付された図面を参照して詳細に説明する。ただし、以下の説明において、本開示の要旨を不必要に曖昧にする恐れがある場合には、広く知られた機能や構成に関する具体的な説明は省略することにする。
添付された図面において、同一または対応する構成要素には同一の参照符号が付与されている。また、以下の実施例の説明において、同一または対応する構成要素を重複して記述することが省略されることができる。しかし、構成要素に関する記述が省略されても、そのような構成要素がある実施例に含まれないものと意図されるのではない。
開示された実施例の利点および特徴、そしてそれらを達成する方法は、添付される図面と共に後述されている実施例を参照すると明確になるだろう。しかし、本開示は、以下で開示される実施例に限定されるものではなく、互いに異なる多様な形態で実装されることができ、単に本実施例は本開示が完全であるようにし、本開示が属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるだけのものである。
本明細書において使用される用語について簡単に説明し、開示された実施例について具体的に説明する。本明細書において使用される用語は、本開示における機能を考慮しながら可能な限り現在広く使用される一般的な用語を選択したが、これは関連分野に携わる技術者の意図または判例、新しい技術の出現などによって変わることができる。また、特定の場合は出願人が任意に選定した用語もあり、この場合、該当する発明の説明部分で詳細にその意味を記載する。したがって、本開示において使用される用語は、単純な用語の名称ではなく、その用語が有する意味と本開示の全般にわたる内容に基づいて定義されるべきである。
本明細書での単数の表現は、文脈上明らかに単数のものであると特定しない限り、複数の表現を含む。また、複数の表現は、文脈上明らかに複数のものであると特定しない限り、単数の表現を含む。明細書全体においてある部分がある構成要素を「含む」とするとき、これは特に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含むことが可能であることを意味する。
また、明細書において使用される「モジュール」または「部」という用語は、ソフトウェアまたはハードウェア構成要素を意味し、「モジュール」または「部」は、ある役割を遂行する。しかしながら、「モジュール」または「部」は、ソフトウェアまたはハードウェアに限定される意味ではない。「モジュール」または「部」は、アドレッシングできる格納媒体にあるように構成されることもでき、1つまたはそれ以上のプロセッサを再生させるように構成されることもできる。したがって、一例として、「モジュール」または「部」は、ソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素およびタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイまたは変数のうち少なくとも1つを含むことができる。構成要素と「モジュール」または「部」は、もっと小さい数の構成要素および「モジュール」または「部」で結合されたり、追加の構成要素と「モジュール」または「部」にさらに分離されたりすることができる。
本開示の一実施例によると、「モジュール」または「部」は、プロセッサおよびメモリで実装されることができる。「プロセッサ」は、汎用プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態マシンなどを含むように広く解釈されるべきである。いくつかの環境において、「プロセッサ」は、注文型半導体(ASIC)、プログラム可能な論理デバイス(PLD)、フィールドプログラム可能ゲートアレイ(FPGA)などを指すこともできる。「プロセッサ」は、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアと結合した1つ以上のマイクロプロセッサの組み合わせ、または任意の他のそのような構成の組み合わせのような処理デバイスの組み合わせを指すこともできる。また、「メモリ」は、電子情報を格納可能な任意の電子コンポーネントを含むように広く解釈されるべきである。「メモリ」は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラム可能な読み出し専用メモリ(PROM)、消去可能プログラム可能な読み出し専用メモリ(EPROM)、電気的に消去可能PROM(EEPROM)、フラッシュメモリ、磁気または光学データ格納装置、レジスタなどのプロセッサ読み出し可能媒体などの多様なタイプを指すこともできる。プロセッサがメモリから情報を読み出し/またはメモリに情報を記録することができれば、メモリは、プロセッサと電子通信状態にあると呼ばれる。プロセッサに集積されたメモリは、プロセッサと電子通信状態にある。
本開示において、「システム」は、サーバーデバイスとクラウドデバイスのうちの少なくとも1つのデバイスを含むことができるが、これに限定されるものではない。例えば、システムは、1つ以上のサーバーデバイスで構成されることができる。他の例として、システムは、1つ以上のクラウドデバイスで構成されることができる。さらに他の例として、システムは、サーバーデバイスとクラウドデバイスが一緒に構成されて動作されることができる。
本開示において、「画像」は、1つ以上の画像を含むことができ、複数の画像を含む動画を指すこともできる。
本開示において、「動画」は、カメラで撮影された複数の画像を含み、画像内の1つ以上のオブジェクトが動く映像を指すことができる。例えば、動画は、ユーザー端末で撮影されたすべての画像を含むことができる。他の例として、動画は、ユーザー端末で撮影された画像の中から抽出されたフレーム(frame)に対応する画像および/または一部の画像を含むことができる。ここで、ユーザー端末で撮影された動画から抽出されるフレームまたは画像の数は調節されることができる。
本開示において、「ユーザーの行動が撮影された動画」は、ユーザーが自分の身体および/または物を利用して遂行された行動が撮影された動画を含む。例えば、自分の身体は、顔、手、腕、足などを含むことができる。また、物は、ユーザーが手で持って任意の行動を取ることができるオブジェクトを意味することができ、例えば、身分証などを含むことができるが、これに限定されない。
本開示において、「ユーザーが存在するか否かを決定」することは、ユーザーが現実に実際にいるか否かを決定することを含むことができる。例えば、複数の命令に対応して撮影された動画内にユーザーが存在するか否かは、動画内に撮影されたユーザーが現実に実際にいるか否かを指すことができる。ここで、実際のユーザーではなく、ユーザーが撮像または撮影された画像、紙、動画などがユーザー端末によって撮影される場合、ユーザーが存在しないものと判定されることができる。
本開示において、「リアルタイムで受信」は、データの発生と同一に受信することを指すことができる。一実施例によると、撮影された動画をリアルタイムで受信することは、イメージセンサによって動画が撮影されてすぐに撮影された動画が受信されることを指すことができる。例えば、ユーザー認証システムがユーザー端末から撮影された動画をリアルタイムで受信することは、ユーザー端末によって動画が撮影されてすぐにユーザー認証システムに送信し、ユーザー認証システムがユーザー端末から撮影された動画を受信することを指すことができる。ここで、ユーザー端末がユーザー認証システムに送信するとき、ユーザー端末の動画撮影/処理時間および/またはユーザー端末からユーザー認証システムに提供される通信遅延が発生する可能性があるが、このような動画撮影/処理時間および/または任意の通信遅延時間以降に受信された動画もリアルタイムで受信されたものであると判断することができる。
本開示において、「身分証」は、個人またはユーザーの身上または身元情報を証明する文書またはカードを指すことができる。例えば、身分証は、住民登録証、社会保障カード(social security card)、運転免許証、パスポート、学生証、障害者手帳などを含むことができるが、これに限定されない。
本開示において、「類似」は、同一または類似するとの意味をすべて含むことができる。例えば、両情報が類似するということは、両情報が互いに同一または類似することを指すことができる。
本開示において、「チャネル」は、2つのデバイス間の任意の情報および/またはデータを相互に通信する通路を指すことができる。例えば、ユーザー認証システムとユーザー端末との通信のために使用されたチャネルは、ユーザー認証システムとユーザー端末の間の任意の情報および/またはデータを互いに通信する通路を指すことができる。
本開示において、「ユーザー」と「ユーザー端末」は、区別して使用されているが、ユーザーがユーザー端末を指すことができ、逆に、ユーザー端末がユーザーを指すこともできる。
図1は、本開示の一実施例に係るユーザー(120)を認証するプロセスにおいて、受信された命令によってユーザーの行動が撮像される動画を示す例示図である。ユーザー(120)は、ユーザー端末(100)を通じて自分が利用しているサービスのためにユーザー(120)の本人認証または実名認証をするように要請を受けることができる。ここで、サービスは、ユーザー端末(100)がウェブブラウザおよび/またはアプリケーションを介して遂行できる任意のサービスを含むことができ、例えば、ペイサービス、クレジットカードサービス、銀行サービス、仮想通貨サービスなどを含むことができるが、これに限定されない。
一実施例によると、ユーザー(120)は、自分が利用しているサービスを提供するシステムに加入するとき、または自分のIDおよび/またはパスワードを紛失したときに、ユーザー認証システムからこのようなユーザー認証を要請されることができる。例えば、このようなユーザー認証システムは、サービスを提供するシステムと一緒に提供されることができる。他の例として、ユーザー認証システムは、サービスを提供するシステムと別途に提供されることができる。
ユーザー認証システムは、ユーザー端末(100)からユーザーの少なくとも一部が撮影された動画を受信するように構成されることができる。このような動画は、ユーザー端末(100)に付着、または有線/無線で連結されているカメラを介して撮像または撮影されることができる。一実施例によると、図示されたように、カメラ(110)は、ユーザー端末(100)の前面部に付着されて提供されることができる。この場合、カメラ(110)は、ユーザー端末(100)の前面部を見ているユーザーが実行する行動を撮影することができ、撮影された動画はユーザー認証システムに送信されることができる。例えば、ユーザー認証システムは、ユーザー端末(100)からユーザーの行動が撮影された動画をリアルタイムで受信することができる。
ユーザー認証システムは、ユーザー端末(100)からユーザーの少なくとも一部が撮影された動画を受信し、受信された動画内にユーザーが存在するか否かを決定するように構成されることができる。一実施例によると、ユーザー認証システムは、ユーザー端末(100)に1つ以上の命令を送信することができ、送信された1つ以上の命令は、ユーザー端末(100)に出力されることができる。例えば、図示されたように、ユーザー端末(100)は、ユーザー認証システム(300)から「Vを描いてください」という命令を受信し、ユーザー端末(100)のディスプレイにそのような命令を表示することができる。ここで、受信された命令は、撮影された動画が表示された領域と区分される領域に表示されることができる。
ユーザー端末(100)が受信した命令に応答して、ユーザーは、このような命令が誘導する行動を遂行することができ、このようなユーザーの行動は、カメラ(110)によって撮影されてユーザー認証システムに送信されることができる。例えば、図示されたように、ユーザー(120)は、「Vを描いてください」という命令に応じて、自分の右手を利用してVを描くように行動することができ、このような行動は、カメラ(110)によって撮影されることができる。ユーザー端末(100)において撮影された動画は、リアルタイムでユーザー認証システムに送信されることができる。ユーザー認証システムは、ユーザー端末(100)からリアルタイムで受信された動画内にユーザーが存在するか否かを決定することができる。
図2は、本開示の他の実施例に係るユーザー(120)を認証するプロセスにおいて、ユーザー端末(100)に表示された命令によってユーザーの行動が撮像される動画を示す例示図である。ユーザー(120)が存在すると決定された場合、ユーザー認証システムは、ユーザー端末(100)にユーザー(120)の身分証をカメラ(110)によって撮影できるように見せてほしいという命令を送付することができる。他の実施例によると、ユーザー端末(100)は、ユーザー認証システム(300)からユーザーが存在するか否かを決定するプロセス中にこのようなユーザーの身分証を見せてほしいという命令を受信することができる。このような命令は、ユーザー端末(100)に出力されることができ、例えば、図示されたように、ユーザー端末(100)のディスプレイに「自分の身分証(表面)を提示してください」という命令として表示されることができる。ここで、受信された命令は、撮影された動画が表示された領域と区分される領域に表示されることができる。
このような命令に応答して、ユーザー(120)は、自分の身分証がカメラ(110)によって撮影されるようにユーザー(120)の手で身分証を持って見せることができる。ユーザー(120)の身分証が撮影された動画は、ユーザー認証システム(300)に送信されることができる。例えば、図示されたように、ユーザー(120)の少なくとも一部を撮影するプロセスにおいて、ユーザーの身分証が一緒に撮影されることができる。このような映像は、カメラによって撮影されてすぐに、すなわち、リアルタイムでユーザー認証システム(300)に送信されることができる。本実施例において、ユーザー(120)の顔および身分証が一緒に撮影されるように図示されているが、これに限定されず、ユーザー(120)の身分証のみカメラ(110)によって撮影されてユーザー認証システム(300)に提供されることができる。ユーザー認証システムは、このように身分証が撮影された動画をユーザー(120)の認証に使用することができる。
図3は、本開示の一実施例に係るユーザー認証サービスを提供するために、ユーザー認証システム(300)が複数のユーザー端末(100_1、100_2、100_3)と通信可能に連結された構成を示す概要図である。ユーザー認証システム(300)は、ネットワーク(310)を介して複数のユーザー端末(100_1、100_2、100_3)に複数のユーザー端末のユーザーを認証することが可能なシステムを含むことができる。一実施例によると、ユーザー認証システム(300)は、ユーザー認証サービスに関連したコンピュータ実行可能なプログラム(例えば、ダウンロード可能なアプリケーション)およびデータを格納、提供、および実行可能な1つ以上のサーバーデバイスおよび/またはデータベース、またはクラウドコンピューティングサービス基盤の1つ以上の分散コンピューティングデバイスおよび/または分散データベースを含むことができる。ユーザー認証システム(300)によって提供されるユーザー認証サービスは、複数のユーザー端末(100_1、100_2、100_3)にインストールされたユーザー認証サービスが要求されるアプリケーションまたはウェブブラウザなどを介してユーザーに提供されることができる。ここで、このようなアプリケーションを管理するサーバーは、複数のユーザー端末(100_1、100_2、100_3)からユーザー認証要請を受信する場合、ユーザー認証システム(300)にユーザー認証を要請することができる。この場合、ユーザー認証システム(300)と複数のユーザー端末(100_1、100_2、100_3)は、相互通信可能に連結されることができる。
複数のユーザー端末(100_1、100_2、100_3)は、ユーザー認証のためにネットワーク(310)を介してユーザー認証システム(300)と通信することができる。一実施例によると、複数のユーザー端末(100_1、100_2、100_3)は、ユーザー端末(100_1、100_2、100_3)と関連されたイメージセンサを介して撮影された動画をユーザー認証システム(300)に送信することができる。ここで、撮影された動画は、ユーザーの認証のために要求される任意の情報および/またはデータを含むことができる。例えば、撮影された動画は、ユーザーの少なくとも一部(例えば、ユーザーの顔)に対する情報を含むことができる。さらに他の例として、撮影された動画は、ユーザーの身分証に対する情報を含むことができる。
複数のユーザー端末(100_1、100_2、100_3)は、ユーザーを認証するために、イメージセンサによって撮影された動画を任意の双方向通信が可能なチャネルを介してユーザー認証システム(300)にリアルタイムで送出することができる。一実施例によると、ユーザー認証システム(300)は、複数のユーザー端末(100_1、100_2、100_3)によって撮影された動画を、ユーザー端末(100)とのVoIP(Voice over Internet Protocol)チャネルを介して受信することができる。他の実施例によると、このように撮影された動画は、ユーザー端末(100)から放送チャネルを介してリアルタイムで受信されることができる。ここで、放送チャネルは、双方向通信が可能な任意の方式を通じて生成されることができ、例えば、WebRTC(Web Real-Time Communication)などを利用して生成されることができるが、これに限定されない。
ネットワーク(310)は、複数のユーザー端末(100_1、100_2、100_3)とユーザー認証システム(300)の間の通信が可能であるように構成されることができる。ネットワーク(310)は、設置環境によって、例えば、イーサネット(登録商標)(Ethernet(登録商標))、有線ホームネットワーク(Power Line Communication)、電話線通信装置およびRS-serial通信などの有線ネットワーク、移動通信網、WLAN(Wireless LAN)、Wi-Fi(登録商標)、Bluetooth(登録商標)およびZigBee(登録商標)などのような無線ネットワークまたはその組み合わせで構成されることができる。つまり、通信方式は制限されず、ネットワーク(310)が含むことのできる通信網(例えば、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を活用する通信方式だけでなく、ユーザー端末間の近距離無線通信も含まれることができる。例えば、ネットワーク(310)は、PAN(personal area network)、LAN、(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうち1つ以上の任意のネットワークを含むことができる。また、ネットワーク(310)は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層(hierarchical)ネットワークなどを含むネットワークトポロジのうち任意の1つ以上を含むことができるが、これに制限されない。
図3において、携帯電話端末(100_1)、タブレット端末(100_2)およびPC端末(100_3)がユーザー端末の例として図示されたが、これに限定されず、ユーザー端末は、有線および/または無線通信が可能で、ユーザーからユーザー認証に対する情報を受信できるユーザーインターフェースを具備した任意のコンピューティングデバイスであることができる。例えば、ユーザー端末は、スマートフォン(smart phone)、携帯電話、ナビゲーション、コンピュータ、ラップトップ、デジタル放送用端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、タブレットPC、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、VR(virtual reality)デバイス、AR(augmented reality)デバイスなどを含むことができる。また、図3には、3つのユーザー端末(100_1、100_2、100_3)がネットワーク(310)を介してユーザー認証システム(300)と通信するものとして図示されているが、これに限定されず、異なる数のユーザー端末がネットワーク(310)を介してユーザー認証システム(300)と通信するように構成されることもできる。
ユーザー認証システム(300)は、ネットワーク(310)を介して複数のユーザー端末(100_1、100_2、100_3)からユーザー認証要請を受信することができる。受信されたユーザー認証要請は、ユーザー認証情報として、ユーザー認証システム(300)に関連した格納媒体に格納されることができる。ユーザー認証要請は、ユーザー認証要請を生成したユーザー情報、ユーザーの少なくとも一部が撮影された動画、ユーザーの身分証が撮影された動画などを含むことができ、ユーザーが特定のサービスまたは商品に対する自分の認証が必要な場合に要請することができる。
ユーザー認証システム(300)は、ネットワーク(310)を介して複数のユーザー端末(100_1、100_2、100_3)のユーザーが複数の行動をするように誘導する複数の命令をユーザー端末(100_1、100_2、100_3)に送信することができる。一実施例によると、このような複数の命令は、複数のユーザー端末(100_1、100_2、100_3)にリアルタイムで送信されることができる。このような複数の命令のそれぞれに応答して、複数のユーザー端末(100_1、100_2、100_3)のユーザーは、該当の命令が示す行動を遂行し、遂行された行動が撮影された動画がユーザー認証システム(300)にリアルタイムで送信されることができる。このように受信された動画は、複数のユーザー端末(100_1、100_2、100_3)のユーザーを認証するのに使用されることができる。
図4は、本開示の一実施例に係るユーザー端末(100)およびユーザー認証システム(300)の内部構成を示すブロック図である。ユーザー端末(100)は、通信モジュール(412)、プロセッサ(414)、メモリ(416)および入出力インターフェース(418)を含むことができる。これに類似して、ユーザー認証システム(300)は、入出力インターフェース(432)、プロセッサ(434)、メモリ(436)、通信モジュール(438)を含むことができる。図4に図示されたように、ユーザー端末(100)およびユーザー認証システム(300)は、それぞれの通信モジュール(412、438)を利用して、ネットワーク(310)を介して情報および/またはデータを通信するように構成されることができる。また、入出力デバイス(420)は、入出力インターフェース(418)を介してユーザー端末(100)に情報および/またはデータを入力したり、ユーザー端末(100)から生成された情報および/またはデータを出力したりするように構成されることができる。図4では、通信モジュール(412)、プロセッサ(414)、メモリ(416)および入出力インターフェース(418)がユーザー端末(100)の内部構成として図示されているが、他のユーザーの端末(例えば、図3のユーザー端末(100_1、100_2、100_3))もユーザー端末(100)の内部構成と同一または類似の内部構成を含むことができる。
通信モジュール(412、438)は、ネットワーク(310)を介してユーザー端末(100)とユーザー認証システム(300)が互いに通信するための構成または機能を提供することができ、ユーザー端末(100)および/またはユーザー認証システム(300)が他のユーザーの端末または他のシステム(例えば、別途のクラウドシステム、別途の動画受信システム)と通信するための構成または機能を提供することができる。一例として、ユーザー端末(100)のプロセッサ(414)がメモリ(416)のような記録デバイスに格納されたプログラムコードに基づいて生成した要請(例えば、ユーザーの認証要請)は、通信モジュール(412)の制御によってネットワーク(310)を介してユーザー認証システム(300)に伝達されることができる。逆に、ユーザー認証システム(300)のプロセッサ(434)の制御に基づいて提供される制御信号や命令(例えば、ユーザーの行動を誘導する命令)などが、通信モジュール(438)とネットワーク(310)を経てユーザー端末(100)の通信モジュール(412)を通じてユーザー端末(100)に受信されることができる。例えば、ユーザー端末(100)は、通信モジュール(412)を通じてユーザー認証システム(300)からユーザーの行動を誘導する命令、またはこのような命令を例示的に示す画像に対する情報のうち少なくとも1つを受信することができる。
メモリ(416、436)は、非一時的な任意のコンピュータ読み取り可能な記録媒体を含むことができる。一実施例によると、メモリ(416、436)は、RAM(random access memory)、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)、フラッシュメモリ(flash memory)などのような不揮発性大容量格納装置(permanent mass storage device)を含むことができる。他の例として、ROM、SSD、フラッシュメモリ、ディスクドライブなどのような不揮発性大容量格納装置は、メモリ(416、436)とは区分される別途の永久格納装置としてユーザー端末(100)またはユーザー認証システム(300)に含まれることができる。また、メモリ(416、436)には、オペレーティングシステムと少なくとも1つのプログラムコード(例えば、ユーザー端末(100)にインストールされて駆動されるブラウザやユーザー認証サービスの提供のためにユーザー端末(100)にインストールされるユーザー認証専用アプリケーションまたはユーザー認証サービスを提供するアプリケーションなどのためのコード)が格納されることができる。これとは異なり、メモリ(416、436)には、ウェブブラウザを介して提供されたユーザー認証のために要求されるプログラムコードが格納されることができる。
このようなソフトウェアコンポーネントは、メモリ(416、436)とは別途のコンピュータ読み取り可能な記録媒体からロードされることができる。このような別途のコンピュータ読み取り可能な記録媒体は、このようなユーザー端末(100)およびユーザー認証システム(300)に直接連結可能な記録媒体を含むことができるが、例えば、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリーカードなどのコンピュータ読み取り可能な記録媒体を含むことができる。他の例として、ソフトウェアコンポーネントは、コンピュータ読み取り可能な記録媒体ではなく、通信モジュール(412、438)を介してメモリ(416、436)にロードされることもできる。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システムがネットワーク(310)を介して提供するファイルによってインストールされるコンピュータプログラム(例えば、上述されたユーザー認証専用アプリケーションまたはユーザー認証サービスを提供するアプリケーション)に基づいて、メモリ(416、436)にロードされることができる。これとは異なり、少なくとも1つのプログラムは、ウェブブラウザを介してメモリ(416、436)にロードされることができる。
プロセッサ(414、434)は、基本的な算術、ロジックおよび入出力演算を遂行することによって、コンピュータプログラムの命令を処理するように構成されることができる。命令は、メモリ(416、436)または通信モジュール(412、438)によってプロセッサ(414、434)に提供されることができる。例えば、プロセッサ(414、434)は、メモリ(416、436)のような記録装置に格納されたプログラムコードに基づいて受信された命令を実行するように構成されることができる。
入出力インターフェース(418)は、入出力デバイス(420)とのインターフェースのための手段であることができる。一例として、入力デバイスは、イメージセンサを含むカメラ、キーボード、マイクロフォン、マウスなどの装置を、そして出力デバイスは、ディスプレイ、スピーカー、触覚フィードバックデバイス(haptic feedback device)などのようなデバイスを含むことができる。他の例として、入出力インターフェース(418)は、タッチスクリーンなどのように入力と出力を遂行するための構成または機能が一つに統合されたデバイスとのインターフェースのための手段であることができる。例えば、ユーザー端末(100)のプロセッサ(414)がメモリ(416)にロードされたコンピュータプログラムの命令を処理するにおいて、ユーザー認証システム(300)や他のユーザー端末が提供する情報および/またはデータを利用して構成されるサービス画面やコンテンツが入出力インターフェース(418)を介してディスプレイに表示されることができる。図4では、入出力デバイス(420)がユーザー端末(100)に含まれないように図示されているが、これに限定されず、入出力デバイス(420)は、ユーザー端末(100)と1つのデバイスで構成されることができる。また、ユーザー認証システム(300)の入出力インターフェース(432)は、ユーザー認証システム(300)と連結されたり、ユーザー認証システム(300)が含んだりすることができる入力または出力のためのデバイス(図示せず)とのインターフェースのための手段であることができる。図4では、入出力インターフェース(418、432)がプロセッサ(414、434)と別途に構成された要素として図示されたが、これに限定されず、入出力インターフェース(418、432)がプロセッサ(414、434)に含まれるように構成されることができる。
ユーザー端末(100)およびユーザー認証システム(300)は、図4の構成要素よりも多くの構成要素を含むことができる。しかし、ほとんどの従来技術の構成要素を明確に図示する必要はない。一実施例によると、ユーザー端末(100)は、上述された入出力デバイスのうち少なくとも一部を含むように実装されることができる。また、ユーザー端末(100)は、トランシーバ(transceiver)、GPS(Global Positioning System)モジュール、イメージセンサを含む1つ以上のカメラ、各種センサ、データベースなどのような他の構成要素をさらに含むことができる。例えば、ユーザー端末(100)がスマートフォンである場合、一般的にスマートフォンが含む構成要素を含むことができ、例えば、加速度センサやジャイロセンサ、カメラモジュール、各種の物理的なボタン、タッチパネルを利用したボタン、入出力ポート、振動のためのバイブレーターなどの多様な構成要素がユーザー端末(100)にさらに含まれるように実装されることができる。
一実施例によると、ユーザー端末(100)のプロセッサ(414)は、ユーザー認証サービスを提供するアプリケーションまたはウェブブラウザを動作するように構成されることができる。このとき、該当のアプリケーションまたはウェブブラウザに関連されたプログラムコードがユーザー端末(100)のメモリ(416)にロードされることができる。アプリケーションまたはウェブブラウザが動作される間に、ユーザー端末(100)のプロセッサ(414)は、入出力デバイス(420)から提供された情報および/またはデータを、入出力インターフェース(418)を介して受信したり、通信モジュール(412)を通じてユーザー認証システム(300)から情報および/またはデータを受信したりすることができ、受信された情報および/またはデータを処理してメモリ(416)に格納することができる。また、このような情報および/またはデータは、通信モジュール(412)を通じてユーザー認証システム(300)に提供することができる。
一実施例によると、ユーザー認証サービスを提供するアプリケーションまたはウェブブラウザが動作される間に、プロセッサ(414)は、入出力インターフェースと連結されたカメラ、タッチスクリーン、キーボードなどの入力デバイスを介してテキスト、画像などの情報を受信することができる。これに加えて、プロセッサ(414)は、受信された画像、動画および/またはテキストをメモリ(416)に格納したり、通信モジュール(412)およびネットワーク(310)を介してユーザー認証システム(300)に提供したりすることができる。例えば、プロセッサ(414)は、タッチスクリーン、キーボードなどの入力デバイスを介してユーザー認証要請を生成するための情報を受信することができる。また、プロセッサ(414)は、カメラなどの入力デバイスを介してユーザーの行動が撮影された動画に対する情報を受信することができる。受信された情報は、通信モジュール(412)およびネットワーク(310)を介してユーザー認証システム(300)に提供されることができる。
プロセッサ(414)は、ユーザー端末(100)のディスプレイ出力可能デバイス(例えば、タッチスクリーン、ディスプレイなど)、音声出力可能デバイス(例えば、スピーカー)などの出力デバイスを介して処理された情報および/またはデータを出力するように構成されることができる。一実施例によると、ユーザー認証サービスを提供するアプリケーションまたはウェブブラウザが提供する情報および/またはデータ(例えば、ユーザーの行動を誘導する命令、このような行動を示す例示画像など)は、ディスプレイ出力可能デバイスなどを介して表示されることができる。他の実施例によると、ユーザー認証サービスを提供するアプリケーションまたはウェブブラウザが提供する情報および/またはデータは、音声出力可能デバイスなどを介して出力されることができる。例えば、ユーザーの行動を誘導する命令は、スピーカーを介してユーザー端末を通じて出力され、ユーザーに提供されることができる。
ユーザー認証システム(300)のプロセッサ(434)は、ユーザー認証のために要求される任意の情報および/またはデータを生成するように構成されることができる。一実施例によると、プロセッサ(434)は、ユーザー認証を要請したユーザー端末との通信のために要求される情報および/またはデータ(例えば、ユーザー端末とのチャネルに対する情報)を生成することができる。他の実施例によると、プロセッサ(434)は、ユーザーに特定の行動を誘導する複数の命令に対する情報および/またはデータを生成するように構成されることができる。このように生成された情報および/またはデータは、メモリ(436)に格納されることができ、さらに、通信モジュール(438)およびネットワーク(310)を介してユーザー端末(100)に提供されることができる。
プロセッサ(434)は、ユーザー端末(100)を含む複数のユーザー端末および/または複数の外部システムから受信された情報および/またはデータを管理、処理および/または格納するように構成されることができる。プロセッサ(434)は、複数のユーザー端末からイメージセンサを介して撮影された動画をリアルタイムで受信するように構成されることができる。リアルタイムで受信された動画は、途切れることなく、すなわち連続的に受信されることができる。ここで、動画は、少なくともユーザーの行動が撮影された動画を指すことができる。例えば、ユーザー端末との通信が中断されて撮影された動画のリアルタイム受信が中止されると、プロセッサ(434)は、ユーザー認証を終了したり、通信が再開された後に新たなユーザー認証を開始したりすることができる。
プロセッサ(434)は、リアルタイムで受信された動画を分析して、受信された動画内にユーザーが存在するか否かを決定するように構成されることができる。ユーザーが存在する場合、プロセッサ(434)は、動画内で抽出されたユーザーの顔を分析することができ、分析された結果に基づいてユーザーを認証することができる。例えば、プロセッサ(434)は、ユーザーの顔が撮影されるように誘導する命令に対応して撮影された顔関連動画からユーザーの顔に対する情報を抽出し、ユーザーの身分証が撮影されるように誘導する命令に対応して撮影された身分証関連動画からユーザーの顔に対する情報を抽出することができる。抽出された両方のユーザーの顔に対する情報が比較されて、類似する場合、ユーザーが認証されることができる。ユーザーに対する認証結果は、通信モジュール(438)およびネットワーク(310)を介してユーザー端末(100)に提供されることができる。以下では、ユーザー認証システム(300)のプロセッサ(434)が受信された動画に基づいてユーザーを認証するサービスを提供する具体的な方式について詳細に説明する。
図5は、本開示の一実施例に係るユーザー認証システム(300)の構成を示すブロック図である。ユーザー認証システム(300)のプロセッサ(434)は、命令処理モジュール(510)、画像抽出モジュール(520)、画像分析モジュール(530)、認証モジュール(540)を含むように構成されることができる。また、プロセッサ(434)は、通信モジュール(438)を通じて情報および/またはデータを外部システムと送受信することができる。これに加えて、プロセッサ(434)は、情報および/またはデータをメモリ(436)に格納したり、メモリ(436)からの情報および/またはデータを取得したりすることができる。
命令処理モジュール(510)は、ユーザー認証のための複数の命令を生成するように構成されることができる。ここで、複数の命令のそれぞれは、ユーザーの行動を誘導する命令を含むことができる。また、複数の命令のそれぞれは、そのような行動を示す例示的な画像を含むことができる。例えば、複数の命令は、ユーザーが存在するか否かを決定するのに使用される任意の命令を含むことができる。さらに他の例として、複数の命令は、ユーザーの身分証を提示するように誘導する命令を含むことができる。このように生成された命令は、プロセッサ(434)によってアクセス可能な格納媒体(例えば、メモリ(416))に格納されることができる。
命令処理モジュール(510)は、予め格納された複数の命令の中から1つ以上の命令を選択することができる。一実施例によると、命令処理モジュール(510)は、予め格納された複数の命令の候補の中から複数の命令をランダムに選択するように構成されることができる。例えば、選択された複数の命令は、ユーザーの正面顔を撮影するように誘導する命令を含むことができる。他の例として、選択された複数の命令は、ユーザーの身分証が撮影されるように誘導する命令を含むことができる。
命令処理モジュール(510)は、選択された複数の命令を、通信モジュール(438)を通じてユーザー端末(100)に送信することができる。一実施例によると、命令処理モジュール(510)は、選択された複数の命令を決められた順序でユーザー端末(100)に送信することができる。例えば、複数の命令は、第1の命令、第2の命令および第3の命令を含む場合、第1の命令がユーザー端末(100)に先に送信されることができる。そして、第1の命令に対する分析が画像分析モジュール(530)によって完了される場合、第2の命令がユーザー端末(100)に送信されることができる。第2の命令に対応して受信された動画の分析が完了される場合、命令処理モジュール(510)が第3の命令をユーザー端末(100)に送信することができる。他の実施例によると、特定の命令の場合、命令処理モジュール(510)は、ユーザー端末の画面での複数の領域のそれぞれにおいて撮影された動画が送信される複数のチャネルに対する情報をユーザー端末(100)に提供することができる。例えば、ユーザーが撮影される領域と身分証が撮影される領域が分離された場合、2つの領域で撮影された動画は、異なるチャネルで送信されることができる。
命令処理モジュール(510)は、ユーザー認証が完了されるまでに複数の命令をユーザー端末(100)に送信することができる。一実施例によると、複数の命令は、撮影された動画内にユーザーが存在するか否かを決定するのに使用される命令を含むことができる。例えば、このような命令は、ユーザーに自分の身体(例えば、顔など)および/または物(例えば、身分証など)を利用して特定の行動をするように誘導する命令を含むことができる。他の実施例によると、複数の命令は、撮影された動画内にユーザーを認証するのに使用される命令を含むことができる。例えば、このような命令は、ユーザーの顔が適切に認識されるように誘導する命令(例えば、ユーザーの正面顔が撮影されるように誘導する命令)およびユーザーの身分証が撮影されるように誘導する命令を含むことができる。
画像抽出モジュール(520)は、ユーザー端末(100)から通信モジュール(438)を通じて動画をリアルタイムで受信することができる。ユーザー端末(100)が命令処理モジュール(510)から特定の行動を誘導する命令を受信すると、ユーザー端末(100)のユーザーは、そのような行動を遂行することができる。そのような行動が遂行される間、ユーザー端末(100)に関連したカメラは、ユーザーの行動を撮影することができ、ユーザー端末(100)は、受信された命令に対応して撮影された動画を、通信モジュール(438)を通じて画像抽出モジュール(520)に送信することができる。動画が撮影されてすぐに、ユーザー端末(100)は、撮影された動画を画像抽出モジュール(520)にリアルタイムで送信することができ、画像抽出モジュール(520)は、撮影された動画をリアルタイムで受信することができる。一実施例によると、画像抽出モジュール(520)は、ネットワーク(310)を経て通信モジュール(438)を通じて直接動画を受信することができる。他の実施例によると、ユーザー端末(100)からリアルタイムで送信された動画は、ユーザー認証システム(300)とユーザー端末(100)の間のチャネルを管理する別途のサーバー(例えば、VoIP管理サーバー、放送チャネル管理サーバーなど)に受信され、別のサーバーを介して画像抽出モジュール(520)に提供されることができる。さらに他の実施例によると、画像抽出モジュール(520)は、ユーザー端末の画面での複数の領域で撮影された動画を複数のチャネルで受信することができる。
画像抽出モジュール(520)は、リアルタイムで受信された動画からユーザー認証のために1つ以上の画像を抽出することができる。一実施例によると、画像抽出モジュール(520)は、予め決められたルールに基づいて、受信された動画に含まれた1つ以上の画像を抽出するように構成されることができる。例えば、画像抽出モジュール(520)は、一定の時間間隔(例えば、1秒ごとに抽出)に合わせて受信された動画に含まれた複数の画像を抽出するように構成されることができる。他の実施例によると、画像抽出モジュール(520)は、命令処理モジュール(510)からユーザーに送信された命令に対する情報を受信し、受信された命令に基づいて、受信された動画から画像を抽出する速度を調整することができる。例えば、ユーザーの静的な状態に対応する行動を誘導する命令(例えば、顔を正面から見る動作、身分証を映す動作など)である場合、命令処理モジュール(510)は、受信された動画から低い画像抽出速度で画像を抽出することができる。さらに他の例として、ユーザーの動的な状態に対応する行動を誘導する命令(例えば、顔を動かす動作、身分証を動かす動作)である場合、命令処理モジュール(510)は、受信された動画から高い画像抽出速度で画像を抽出することができる。このように抽出された画像は、画像分析モジュール(530)に提供されることができる。
画像抽出モジュール(520)は、複数の命令に対応する複数の解像度を決定することができる。ここで、解像度は、命令に対応してユーザー端末(100)がカメラを利用して撮影するときに適用される解像度を指すことができる。一実施例によると、解像度は、撮影される動画内の領域ごとに異なるように決定されることができる。例えば、撮影される動画内でユーザーの身分証が位置される領域は、高解像度で撮影されるように設定されることができる。このように決定された解像度は、メモリ(436)に該当の命令と関連して格納されることができる。
画像抽出モジュール(520)は、複数の命令のそれぞれに対応する転送速度を決定することができる。ここで、転送速度は、ユーザー端末(100)がカメラを利用して撮影した動画をユーザー認証システム(300)に送信するときに適用される転送速度を指すことができる。例えば、転送速度は、秒当たり送信されるフレーム数(fps)で示すことができる。このように決定された転送速度は、該当の命令とメモリ(436)に関連して格納されることができる。一実施例によると、転送速度は、ユーザー端末(100)のカメラによって撮影される動画の再生速度を示すことができる。ユーザー端末(100)は、転送速度に対応する再生速度に応じて撮影された動画を画像抽出モジュール(520)に送信することができる。
命令処理モジュール(510)は、ユーザー端末(100)に命令を送信するときに命令に関連した解像度および/または転送速度に対する情報を一緒に送信することができる。これにより、受信された命令に応答して、ユーザー端末(100)は、受信された解像度でカメラを利用して撮影し、撮影された動画は、受信された転送速度でユーザー認証システム(300)に提供することができる。例えば、撮影される動画の画面に表示される複数の領域に対して異なる解像度を受信することができ、ユーザー端末(100)は、動画の撮影時に複数の領域に対する設定された解像度をカメラに適用することができる。
画像分析モジュール(530)は、画像抽出モジュール(520)から抽出された1つ以上の画像を受信し、抽出された画像を分析するように構成されることができる。一実施例によると、ユーザーが複数の命令のそれぞれが誘導する行動を遂行するか否かを分析するのに使用されるライブラリがメモリ(416)に格納されることができる。このような環境の下で、画像分析モジュール(530)は、メモリ(416)にアクセスし、予め格納されたライブラリを利用して受信された画像を分析することができる。他の実施例によると、ユーザーが複数の命令が誘導する行動を遂行するか否かを決定するのに使用される分析モデルが生成されることができ、生成された分析モデルは、格納媒体(例えば、メモリ(436))に格納されることができる。画像分析モジュール(530)は、このような分析モデルを利用して抽出された画像を分析することができる。このような分析モデルは、図7を参照して、詳細に説明される。
画像分析モジュール(530)は、受信された1つ以上の画像を分析して、画像内のユーザーが複数の命令に対応する行動を遂行するか否かを決定することができる。
一実施例によると、ユーザー端末(100)に送信された命令がユーザーの身体の一部および/または物を動かすように誘導する命令である場合、画像分析モジュール(530)は、送信された命令に応じてユーザーが動くか否かを決定することができる。他の実施例によると、ユーザー端末(100)に送信された命令がユーザーの身分証を動かすように誘導する命令である場合、画像分析モジュール(530)は、このような命令に対応して受信された動画から抽出された画像を分析して、身分証が動くか否かを決定することができる。ユーザーが複数の命令に対応する行動を遂行するか否かに対する情報は、認証モジュール(540)に提供されることができる。
一実施例によると、画像分析モジュール(530)は、受信された画像からユーザーの顔に対する情報を抽出することができる。例えば、受信された画像は、ユーザーの顔(例えば、ユーザーの正面顔)に対する画像を含むことができ、画像分析モジュール(530)は、このような画像からユーザーの顔に対する第1の情報を抽出することができる。他の例として、受信された画像は、ユーザーの身分証が撮像された画像を含むことができ、画像分析モジュール(530)は、ユーザーの身分証が撮像された画像からユーザーの顔に対する第2の情報を抽出することができる。このように抽出されたユーザーに対する第1の情報および第2の情報は、認証モジュール(540)に提供されることができる。
一実施例によると、1つ以上の命令が予め決められた順序でユーザー端末(100)に送信された後、画像分析モジュール(530)は、ユーザー端末(100)から送信された1つ以上の命令のそれぞれに対応して受信された動画から抽出された画像を分析することができる。例えば、画像分析モジュール(530)は、抽出された画像を分析してユーザーが該当の命令に応答して命令が誘導する行動をするか否かを決定することができる。このような構成の下で、1つの命令に対応した分析結果が生成されるたびに、生成された分析結果が認証モジュール(540)に提供されることができる。
認証モジュール(540)は、画像分析モジュール(530)から抽出された画像に対する分析結果に基づいて、リアルタイムで受信された動画内にユーザーが存在するか否かを決定することができる。例えば、このような分析結果は、ユーザー端末に送信された命令の順序に基づいて受信されることができる。一実施例によると、ユーザー端末(100)に送信された1つ以上の命令(例えば、3つの命令)に対応する行動をユーザーがすべて遂行したと判定される場合、認証モジュール(540)は、受信された動画内にユーザーが存在すると決定することができる。これとは異なり、ユーザー端末に送信された1つ以上の命令に対応する行動をユーザーが遂行しなかったと判定される場合、認証モジュール(540)は、受信された動画内にユーザーが存在しないと決定することができる。
他の実施例によると、認証モジュール(540)は、ユーザーがユーザー端末(100)に送信された複数の命令のうち第1の命令に対応する行動を遂行しなかったと判定する場合、命令処理モジュール(510)に、異なる第2の命令をユーザー端末(100)に送信するように要請することができる。ここで、第2の命令は、第1の命令に対応して受信された動画から分析された動画の分析から取得されたユーザーの行動と第1の命令に対応する行動との相違点に基づいて、命令処理モジュール(510)によって選択されることができる。認証モジュール(540)は、第2の命令に対応して撮影された動画から抽出された画像を分析した結果が、第2の命令に対応する行動をユーザーが遂行したと示す場合、受信された動画内にユーザーが存在すると決定することができる。さらに他の実施例において、認証モジュール(540)は、ユーザーが複数の命令のうち予め決められた数の命令に対応する行動を実行したという分析結果を受信した場合、受信された動画内にユーザーが存在すると決定することができる。
さらに他の実施例において、認証モジュール(540)は、ユーザー端末(100)から受信された動画が連続的でないと判断される場合、受信された動画内にユーザーが存在しないと決定することができる。例えば、動画に含まれた1つ以上の連続したフレーム間の時間差が命令処理モジュール(510)によって指示された転送速度と対応しないと判断される場合、受信された動画内にユーザーが存在しないと決定されることができる。
さらに他の実施例において、認証モジュール(540)は、ユーザーがユーザー端末(100)に送信された複数の命令のうち第1の命令に対応する行動を遂行しなかったと判定する場合、通信モジュール(438)にユーザー端末との通信のために使用されたチャネルを変更するように指示することができる。一実施例によると、認証モジュール(540)は、ユーザー端末(100)との通信のために現在使用しているチャネルを異なる通信チャネルに変更することができる。これにより、通信チャネルの問題によってユーザー認証が適切に行われないのを防止することができる。他の実施例によると、認証モジュール(540)は、ユーザー端末(100)との通信において現在使用されているチャネルをカウンセラーと連結可能な通信チャネルに変更するように通信モジュール(438)に指示することができる。これにより、ユーザーの行動が送信された命令が示す行動に対応されない場合、カウンセラーがユーザー認証を直接行い、ユーザーに対する正確な認証が提供されることができる。
認証モジュール(540)は、抽出された画像に対する分析結果に基づいてユーザーを認証することができる。一実施例によると、認証モジュール(540)は、受信された画像からユーザーが存在すると判定された場合、ユーザーを認証するように構成されることができる。他の実施例において、認証モジュール(540)は、画像分析モジュール(530)から身分証が動くと判定されるとの動画分析結果を受信した場合、身分証が存在すると判断することができる。これにより、身分証が存在すると判定された場合にユーザーが認証されるように構成されることができる。
認証モジュール(540)は、ユーザーの顔が撮影されるように誘導する命令に対応して撮影された顔関連動画から抽出されたユーザーの顔に対する第1の情報を受信することができ、ユーザーの身分証が撮影されるように誘導する命令に対応して撮影された身分証関連動画から抽出されたユーザーの顔に対する第2の情報を受信することができる。そして、抽出されたユーザーの顔に対する第1の情報および抽出されたユーザーの顔に対する第2の情報は、互いに比較されることができる。ここで、認証モジュール(540)は、抽出された第1の情報と抽出された第2の情報が類似する場合、ユーザーを認証することができる。例えば、抽出された第1の情報と抽出された第2の情報間の類似度が予め決定された類似度以上である場合、抽出された第1の情報と抽出された第2の情報が類似すると判定することができる。さらに他の例として、認証モジュール(540)は、抽出された第1の情報と抽出された第2の情報間の類似度およびこれに関連した信頼度を決定することができ、決定された類似度および信頼度に基づいて抽出された第1の情報と抽出された第2の情報が類似するか否かを決定することができる。このような類似度および/または信頼度は、画像処理分野で知られた任意の技法を利用して決定されることができ、例えば、複数の画像から抽出された情報に基づいて類似度および/または信頼度を推論/出力するように構成されたルールベース(Rule-based)技法、マシンラーニング技法、人工ニューラルネットワークモデルなどが利用されることができるが、これに限定されない。認証モジュール(540)によって決定されたユーザー認証結果は、ユーザー端末(100)に提供されたり、ユーザー認証要請に関連したシステムに提供されたりすることができる。
図5においては、プロセッサ(434)が命令処理モジュール(510)、画像抽出モジュール(520)、画像分析モジュール(530)、認証モジュール(540)をそれぞれのモジュールとして含んでいるもので図示されているが、これに限定されず、2以上のモジュールは、1つのモジュールで実装されることができる。
図6は、本開示の一実施例に係るユーザー認証方法(600)を示すフローチャートである。ユーザー認証方法(600)は、ユーザー認証システム(300)によって遂行されることができる。図示されたように、ユーザー認証方法(600)は、ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップ(S610)で開始されることができる。例えば、複数の行動は、ユーザーが存在するか否かを決定するのに要求される行動、ユーザーの顔を抽出するのに要求される行動、ユーザーの身分証が撮影されるのに要求される行動などを含むことができる。
そして、ステップ(S620)において、ユーザー端末から複数の命令に対応して撮影された動画を受信することができる。一実施例によると、ユーザー認証システム(300)は、ユーザー端末から複数の命令に対応して撮影された動画をユーザー端末との通信のためのチャネルを介してリアルタイムで受信することができる。このために、ユーザー端末は、複数の命令に応答して、ユーザーが命令が示す行動をイメージセンサを含むカメラを利用して撮影し、撮影された動画をユーザー認証システム(300)にリアルタイムで送信することができる。
次に、ステップ(S630)において、ユーザー認証システム(S630)は、動画内にユーザーが存在するか否かを決定することができる。動画には、複数の命令のそれぞれに対応して遂行されたユーザーの行動が撮影されることができる。例えば、このような行動は、ユーザーの身体の一部(例えば、顔、手、腕など)および/または物(例えば、ユーザーが手で持てるものなど)が動くようにする行動を指すことができる。
最後に、ステップ(S640)において、ユーザー認証システム(300)は、ユーザーが存在すると決定された場合、動画から抽出されたユーザーの顔に基づいてユーザーを認証することができる。一実施例によると、ユーザー認証システム(300)は、動画から複数のユーザーの顔を抽出するように構成されることができる。例えば、動画から撮影されたユーザーの顔に対する第1の情報が抽出されることができる。これに加えて、動画からユーザーの身分証に含まれたユーザーの顔に対する第2の情報が抽出されることができる。そして、ユーザー認証システム(300)は、抽出されたユーザーの顔に対する第1の情報と第2の情報間の類似度を比較して、第1の情報および第2の情報が類似する場合、ユーザーを認証することができる。
図7は、本開示の一実施例に係る画像(710)に基づいて行動遂行結果(730)を推論、または出力するように構成された画像分析モデル(720)を示す図面である。画像分析モデル(720)は、ユーザー認証システム(300)のプロセッサ(434)を通じて生成されることができ、生成されたモデル(720)は、プロセッサ(434)がアクセス可能な格納媒体(例えば、メモリ(436))に格納されることができる。画像(710)は、ユーザー認証システム(300)によって受信された動画内で抽出された1つ以上の画像を含むことができる。例えば、画像抽出モジュール(520)は、ユーザー端末から撮影された動画をリアルタイムで受信し、予め決定されたルールに基づいて、受信された動画から画像(710)を抽出することができる。抽出された画像(710)は、画像分析モジュール(530)に提供され、画像分析モジュール(530)は、抽出された画像(710)を画像分析モデル(720)に入力して、ユーザーによる行動遂行結果(730)を推論、または出力するように構成されることができる。例えば、行動遂行結果は、ユーザーが複数の命令のそれぞれに対応する行動を遂行するか否かに対する情報を含むことができる。ここで、画像分析モデル(720)は、複数の命令が示す複数の行動を分析するための複数のモデルを含むことができる。
一実施例によると、画像分析モジュール(530)は、複数のユーザーの行動が撮像された複数の学習画像を画像分析モデル(720)の入力画像として提供して、画像内に、ユーザーが特定の行動を遂行するか否かに対する結果を推論、または出力するように構成されることができる。例えば、画像分析モデル(720)は、ルールベース(Rule-based)学習および予測を通じてユーザーが特定の行動を遂行するか否かに対する結果を推論するように構成されることができる。他の例として、画像分析モデル(720)は、すでに知られたマシンラーニング技法を通じて学習され、入力された画像を通じて行動遂行結果(730)を出力するように構成されることができる。例えば、マシンラーニング技法は、Find-Sアルゴリズム、Version Spaceアルゴリズム、候補消去(Candidate Elimination)アルゴリズムを含むことができる。さらに他の例として、画像分析モデル(720)は、任意のニューラルネットワークなどを利用して生成された人工ニューラルネットワークモデルを含むことができる。
図8は、本開示の一実施例に係る複数の命令によるユーザーの行動が撮影された動画に基づいてユーザーを認証する例示を示す図面である。ユーザー端末(100)は、ユーザー認証システム(300)を介してユーザー認証を要請することができる。これに対応して、ユーザー認証システム(300)は、ユーザー端末との通信のためのチャネルを生成することができる。例えば、webRTCを利用してユーザー認証システム(300)とユーザー端末が通信する場合、ユーザー認証システム(300)は、リンクを含む情報(例えば、「ユーザー要請開始」ボタン)をユーザー端末に送信することができる。これに応答して、ユーザー端末がこのようなボタンをクリックすることにより、ユーザーとの通信のためのチャネルが生成されることができる。ユーザー端末(100)は、ユーザー端末と連結されたカメラによって撮影された動画を、生成されたチャネルを介してユーザー認証システム(300)にリアルタイムで送信することができる。
ユーザー端末(100)は、カメラを介して撮影された動画のリアルタイム送信を開始することができ、送信終了まで撮影された動画をユーザー認証システム(300)にリアルタイムで送信することができる(S810)。撮影された動画は、ユーザー認証システム(300)とユーザー端末(100)の間のチャネルを介してリアルタイムで送信されることができる。これにより、ユーザー認証システム(300)は、ユーザー端末(100)によって撮影された動画のリアルタイム受信を開始することができ、受信完了まで撮影された動画を生成されたチャネルを介してリアルタイムで受信することができる(S812)。つまり、ユーザー認証システム(300)は、ユーザー認証を遂行する間に、ユーザー端末(100)によって撮影された動画をリアルタイムで、そして連続的に受信することができる。
ユーザー端末(100)によって撮影された動画の受信が開始された後に、ユーザー認証システム(300)は、予め決められた順序で複数の命令をユーザー端末(100)に送信することができる。例えば、このような複数の命令は、ランダムに選択されることができる。これに応答して、ユーザーが複数の命令に対応する行動を遂行し、ユーザー端末(100)は、遂行された行動が撮影された動画をユーザー認証システム(300)にリアルタイムで送信することができる。ユーザー認証システム(300)は、リアルタイムで送信された動画を分析し、分析された結果を格納することができる。これに加えて、ユーザー認証システム(300)は、リアルタイムで格納された動画に基づいてユーザーを認証し、認証結果をユーザー端末(100)に通知することができる。
まず、ユーザー認証システム(300)は、「顔を正面から見る」という命令を送信することができる(S814)。これに応答して、ユーザー(120)は、カメラを介して撮影されている画面に自分の顔が正面から見えるように行動することができる(S816)。このような行動は、カメラを介して撮影され、ユーザー端末(100)は、撮影された動画をユーザー認証システム(300)にリアルタイムで送信することができる。ユーザー認証システム(300)は、リアルタイムで受信された動画を分析して、ユーザーが送信された命令が示す行動、つまり、顔を正面から見る行動を遂行したか否かを決定することができ、分析結果を格納することができる(S818)。
次に、ユーザー認証システム(300)は、「首を左右に振る」という命令をユーザー端末(100)に送信することができる(S820)。これに応答して、ユーザー(120)は、カメラを介して撮影されている画面に首を左右に振る行動が見えるように遂行することができる(S822)。ユーザー端末(100)は、このような行動をカメラを介して撮影することができ、撮影された動画をユーザー認証システム(300)にリアルタイムで送信することができる。ユーザー認証システム(300)は、リアルタイムで受信された動画を分析して、ユーザーが送信された命令が示す行動、つまり、首を左右に振る行動をしたか否かを決定することができ、分析結果を格納することができる(S824)。本開示において、ユーザー(120)は、複数の命令に対応して複数の命令が誘導する行動を遂行したため、ユーザー認証システム(300)は、ユーザー認証の間に、カメラの前にユーザーが存在すると決定することができる。
ユーザーが存在すると決定された後に、ユーザー認証システム(300)は、特定の領域に身分証が配置されて撮影されることを誘導する命令をユーザー端末(100)に要請または送信することができる(S826)。例えば、特定の領域は、撮影された動画を構成する各画像またはフレーム内の一部の領域に該当されることができ、ユーザー端末のディスプレイを介して表示されることができる。これに応答して、ユーザーは、特定の領域にユーザーの身分証を提示することができる(S828)。このような身分証は、ユーザー端末(100)に関連したカメラを介して撮影されることができ、撮影された動画は、リアルタイムでユーザー認証システム(300)に送信されることができる。ユーザー認証システム(300)は、特定の領域に身分証の提示を要求する命令に対応して撮影された身分証関連動画を分析してユーザーの顔画像を抽出し、顔の正面を見ることを要求する命令に対応して撮影された顔関連動画からユーザーの顔画像を抽出することができる(S830)。ユーザー認証システム(300)は、抽出された両ユーザーの顔画像を比較して互いに類似する場合、ユーザーの認証が完了されたことを通知することができる(S832)。このような通知に応答して、ユーザー端末(100)は、撮影された動画のリアルタイム送信を中止することができる。これにより、撮影された動画の受信もユーザー認証システム(300)において中止されることができる。
図9は、本開示の一実施例に係る例示的な命令情報DB(900)を示す図面である。命令情報DB(900)は、複数の命令、解像度、転送速度などが相互に関連して格納される任意のデータ構造として構築されることができる。ここで、命令に応じて解像度は領域別に異なるように設定されることができる。
複数の命令に対応する解像度および転送速度は、プロセッサ(434)によって決定されることができ、決定された解像度および転送速度は、命令情報DB(900)として格納媒体(例えば、メモリ(436))に格納されることができる。一実施例によると、ユーザーを認証するのに使用される顔に対する画像が抽出されるように誘導する命令に対して高解像度が決定されて格納されることができる。例えば、図示されたように、命令1に対応して顔の正面が撮影された動画が受信されることができるため、命令1に関連した解像度(例えば、720p)は、他の命令に関連した解像度よりも高く設定されることができる。さらに他の例として、命令5に対応して顔と身分証(表面)が撮影された動画が受信されることができ、ユーザーの身分証内の顔の画像は、ユーザーを認証するのに使用されることができる。これにより、ユーザーの身分証が撮影されるように誘導される領域2の解像度(例えば、1024p)は、他の命令に関連した解像度よりも高く設定されることができる。このとき、領域1および/または領域2に対する情報は、命令情報DB(900)または領域情報DBの格納媒体(例えば、メモリ(436))に格納されることができる。
他の実施例によると、ユーザーが存在するか否かを決定するのに使用される複数の命令の中で、ユーザーの動きを分析するのに使用される画像が抽出されるように誘導する命令に対して比較的高い解像度が設定されることができる。例えば、命令2に対応して顔を左に動かす行動が撮影された動画が受信されることができるため、命令2に関連した解像度(例えば、480p)は、ユーザーの静的な動きを示す命令に関連した解像度よりも高く設定されることができる。また、命令4の場合も同様に設定されることができる。これとは異なり、ユーザーの静的な動きを示す命令は、例えば、命令3(「Vを描いてください」)を含むことができ、命令3に関連した解像度は、比較的低い240pに設定されることができる。
プロセッサ(434)は、複数の命令に応じて、転送速度を互いに異なるように決定することができる。一実施例によると、ユーザーの動きを分析するのに使用される画像が抽出されるように誘導する命令に対して転送速度が高く設定されることができる。例えば、命令2と命令4は、ユーザーの動きに対する行動が撮影された動画が受信されることができるため、他の命令よりも高い転送速度(例えば、5fps)が設定されることができる。他の実施例によると、ユーザーの静的な動きに関連した命令に対して比較的低い転送速度が設定されることができる。例えば、命令1、命令3および命令5は、ユーザーの静的な動きに関連されることができ、図示されたように、転送速度が1fpsに設定されることができる。
プロセッサ(434)は、格納媒体に格納された命令情報DB(900)を参照して、各命令をユーザー端末に送信するとき、各命令に関連した解像度および/または転送速度に対する情報を一緒に送信することができる。これに応答して、ユーザー端末は、受信された命令に対応してカメラを介して動画を撮影するときに受信された解像度がカメラに適用されることができ、受信された転送速度で撮影された動画のフレームまたは画像をユーザー認証システム(300)に送信することができる。ユーザー端末は、撮影された動画を命令に基づいて互いに異なる転送速度でユーザー認証システム(300)に送信するため、ユーザー認証のためのユーザー端末でのデータ使用量が最小化されることができる。
図10は、本開示の一実施例に係るユーザー認証システム(300)によりユーザーの行動が遂行されるか否かに応じて異なる命令が選択される例示を示す図面である。図示されたように、ユーザー認証システム(300)は、命令1(「顔を右に回してください」)を選択することができる(S1010)。例えば、このような命令1は、予め決定されたルールによって選択されることができる。ユーザーを認証するプロセスにおいて、選択された命令1は、ユーザー端末に送信されることができる。
受信された命令1に応答して、ユーザー端末は、カメラを利用してユーザーの行動を撮影し、撮影されたユーザーの行動をユーザー認証システム(300)に送信することができる。ユーザー認証システム(300)は、受信された動画を分析して、ユーザーが命令1を遂行するか否かを決定することができる(S1020)。もし、ユーザーが命令1を遂行すると決定されると、命令2(「瞬きしてください」)が選択されることができる(S1030)。ここで、命令2が示す行動は、命令1が示す行動と関連されないことができる。
ユーザーが命令1を遂行しないと判断されると、命令3(「顔を左に回してください」)が生成されたり、選択されたりすることができる(S1040)。ここで、命令3は、受信された動画の分析から取得されたユーザーの行動と命令1に対応する行動との相違点に基づいて選択されることができる。例えば、命令3に関連した行動は、命令1に関連した行動と類似する行動を示すことができる。これにより、命令1に対応して撮影された動画内のユーザーの行動が検証されていない場合、類似する行動を示す命令3に対応して撮影された動画内のユーザーの行動が分析されて、命令1に対応して分析された結果が補完、または再検証されることができる。
図10には図示されていないが、ユーザーが命令1を遂行しないと決定されると、検証プロセスが終了されたり、命令1の遂行を再要請したりすることも可能である。このとき、ユーザー認証システム(300)は、命令1が遂行されなかったと決定したことに対する情報をユーザー端末に送信することができる。
一方、ユーザー端末は、ユーザー認証サービスを提供するアプリケーションやウェブブラウザを利用してユーザー認証要請を遂行することができる。これに応答して、ユーザー端末とユーザー認証サービスを提供するユーザー認証システム間のチャネルが生成されることができる。ユーザー端末は、生成されたチャネルを利用してユーザー認証システムと相互通信することができる。以下の図11〜図15は、ユーザー認証サービスを利用するプロセスにおいて、命令に対応してユーザーが行動する様子を撮影する例示的な画面を示す。
図11は、本開示の一実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。一実施例によると、ユーザー端末は、ユーザー認証システム(300)から「顔を正面から見てください」という命令を受信することができる。このような命令に応答して、ユーザーは、カメラを利用して撮影された動画を表示する画面に表示された領域(1110)に、自分の顔が位置するように行動することができる。このような行動が遂行された場合、ユーザーの正面顔が撮影された動画がユーザー認証システム(300)にリアルタイムで送信されることができる。これに応答して、ユーザー認証システム(300)は、ユーザー認証を行うプロセスにおいて動画内の一部領域(1110)で撮影された動画を分析することができる。
図示されたように、受信された命令に対応して、受信された命令に関連した情報がカメラを利用して撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。一実施例によると、受信された命令を示すテキスト(1130)、すなわち、「顔を正面から見てください」が撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。これに加えて、受信された命令を示すキャラクター画像(1120)もユーザー端末の画面に一緒に表示されることができる。このようなテキスト(1130)および/またはキャラクター画像(1120)を参照して、ユーザーは受信された命令に対応する行動を遂行することができる。このような行動を撮影した動画をリアルタイムで受信したユーザー認証システム(300)は、動画内にユーザーが存在するか否かを決定することができる。また、ユーザー認証システム(300)は、受信された動画内でユーザーの顔に対する情報を抽出することができる。
図12は、本開示の他の実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。本実施例によると、ユーザー端末は、ユーザー認証システム(300)から「顔を右に回してください」という命令を受信することができる。このような命令に応答して、ユーザーは、カメラを利用して撮影された画面に表示された特定の領域(1210)に自分の顔を位置させ、右に回す行動をすることができる。このような顔を右に回す行動が遂行された場合、ユーザーの顔を右に回す行動が撮影された動画がユーザー認証システム(300)にリアルタイムで送信されることができる。これに応答して、ユーザー認証システム(300)は、ユーザー認証を行うプロセスにおいて動画内の一部領域(1210)で撮影された動画を分析することができる。
図示されたように、受信された命令に対応して、受信された命令に関連した情報がカメラを利用して撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。一実施例によると、受信された命令を示すテキスト(1230)、すなわち、「顔を右に回してください」が撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。これに加えて、受信された命令を示すキャラクター画像(1220)もユーザー端末の画面に一緒に表示されることができる。このようなテキスト(1230)および/またはキャラクター画像(1220)を参照して、ユーザーは、受信された命令に対応する行動を遂行することができ、このような行動を撮影した動画をリアルタイムで受信したユーザー認証システム(300)は、動画内にユーザーが存在するか否かを決定することができる。
図13は、本開示のさらに他の実施例に係る命令に対応してユーザーの行動が撮影された画面の例示を示す図面である。本実施例によると、ユーザー端末は、ユーザー認証システム(300)から「目を閉じてください」という命令を受信することができる。このような命令に応答して、ユーザーは、カメラを利用して撮影される画面に表示される領域(1310)に自分の顔を位置させ、目を閉じる行動をすることができる。このような行動が遂行された場合、ユーザーの目を閉じた行動が撮影された動画がユーザー認証システムにリアルタイムで送信されることができる。これに応答して、ユーザー認証システム(300)は、ユーザー認証を行うプロセスにおいて動画内の一部領域(1310)で撮影された動画を分析することができる。
図13において、受信された命令に対応して、受信された命令に関連した情報がカメラを利用して撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。例えば、受信された命令を示すテキスト(1330)、すなわち、「目を閉じてください」が撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。これに加えて、受信された命令を示すキャラクター画像(1320)もユーザー端末の画面に一緒に表示されることができる。このようなテキスト(1330)および/またはキャラクター画像(1320)を参照して、ユーザーは、受信される命令に対応する行動を遂行することができ、このような行動を撮影した動画をリアルタイムで受信したユーザー認証システム(300)は、動画内にユーザーが存在するか否かを決定することができる。
図14は、本開示の一実施例に係る命令に対応してユーザーおよびユーザーの身分証が一緒に撮影される例示を示す図面である。本実施例によると、ユーザー端末は、ユーザー認証システム(300)から「顔と一緒に身分証(表面)を見せてください」という命令を受信することができる。このような命令に応答して、図示されたように、ユーザーは、カメラを利用して撮影される画面に表示された領域(1410)に自分の顔が位置するように行動することができる。これと同時に、ユーザーは、画面に表示された領域(1440)に身分証が位置するように行動することができる。このような行動が遂行された場合、ユーザーの顔および身分証が撮影された動画がユーザー認証システム(300)にリアルタイムで送信されることができる。これに応答して、ユーザー認証システム(300)は、ユーザー認証を行うプロセスにおいて動画内の領域(1410)および/または領域(1440)で撮影された動画を分析することができる。
図示されたように、受信した命令に対応して、受信された命令に関連した情報がカメラを利用して撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。一実施例によると、受信された命令を示すテキスト(1420)、すなわち、「顔と一緒に身分証(表面)を見せてください」が撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。これに加えて、受信された命令を示す身分証の画像(1430)もユーザー端末の画面に一緒に表示されることができる。このように画面に表示された情報を参照して、ユーザーは、受信される命令に対応する行動を遂行することができ、このような行動を撮影した動画を受信したユーザー認証システム(300)は、身分証の画像からユーザーの顔を抽出することができる。図11の正面顔が撮影された動画から抽出された顔の画像と身分証が撮影された動画から抽出された顔の画像は、互いに比較され、ユーザーを認証するために利用されることができる。
一実施例によると、ユーザーの少なくとも一部(ここで、ユーザーの顔を含むユーザーの少なくとも一部)が撮影される領域(1410)と身分証が撮影される領域(1440)に異なる設定が適用されることができる。例えば、2つの領域は、互いに異なるチャネルが適用され、2つの領域で撮影された動画は、それぞれ設定されたチャネルでユーザー認証システム(300)に送信されることができる。他の例として、2つの領域は、互いに異なる解像度が適用され、2つの領域で撮影された動画は、異なる解像度で撮影された動画であることができる。ここで、身分証が撮影されるように誘導された領域(1440)で撮影された動画の解像度が、ユーザーの少なくとも一部が撮影されるように誘導された領域(1410)の解像度よりも高くなり得る。
図15は、本開示の一実施例に係るユーザーの身分証が存在するか否かを決定するために命令に対応して身分証の動きを撮影する例示を示す図面である。一実施例によると、ユーザー端末は、ユーザー認証システム(300)から「顔と身分証(表面)を見せて身分証を動かしてください」という命令を受信することができる。このような命令に応答して、ユーザーは、カメラを利用して撮影される画面に表示された領域(1510)に自分の顔が位置するように行動することができる。これと同時に、ユーザーは、カメラを利用して撮影される画面の他の領域(1540)に身分証を位置させ、身分証を動かす行動を遂行することができる。このような行動が遂行された場合、ユーザーの顔および身分証が動く行動が撮影された動画が、ユーザー認証システム(300)にリアルタイムで送信されることができる。これに応答して、ユーザー認証システム(300)は、ユーザー認証を行うプロセスにおいて動画内の領域(1510)および/または領域(1540)で撮影された動画を分析することができる。
図15において、受信された命令に対応して、受信された命令に関連した情報がカメラを利用して撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。例えば、受信された命令を示すテキスト(1520)、すなわち、顔と身分証(表面)を見せて身分証を動かしてください」が撮影されている動画を表示するユーザー端末の画面に一緒に表示されることができる。これに加えて、受信された命令を示す身分証の画像(1530)と身分証の領域(1540)もユーザー端末の画面に一緒に表示されることができる。ユーザーは、画面に表示されたこのような情報を利用して、受信された命令に対応する行動を遂行することができ、このような行動を撮影した動画をリアルタイムで受信したユーザー認証システム(300)は、身分証が存在するか否かを決定することができる。例えば、ユーザー認証システム(300)は、動画を分析して取得したユーザーの身分証の動きに基づいて動画内にユーザーの身分証が存在するか否かを決定することができる。ユーザー認証システム(300)は、身分証が存在する場合にユーザーを認証するように構成されることができる。
上述されたユーザー認証方法は、コンピュータ読み取り可能な記録媒体にコンピュータ読み取り可能なコードで実装されることもできる。コンピュータ読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが格納されるすべての種類の記録装置を含む。コンピュータ読み取り可能な記録媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光学データ格納装置などがある。また、コンピュータ読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散され、分散方式でコンピュータ読み取り可能なコードが格納されて実行されることができる。そして、前記実施例を実装するための機能的な(functional)プログラム、コードおよびコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されることができる。
本開示の方法、動作または技法は、多様な手段によって実装されることもできる。例えば、これらの技法は、ハードウェア、ファームウェア、ソフトウェア、またはこれらの組み合わせによって実装されることもできる。本願の開示と連携して説明された多様な例示的論理ブロック、モジュール、回路およびアルゴリズムのステップは、電子ハードウェア、コンピュータソフトウェア、または両者の組み合わせで実装され得るということを通常の技術者は理解できるであろう。ハードウェアおよびソフトウェアのこのような相互代替を明確に説明するために、多様な例示的構成要素、ブロック、モジュール、回路およびステップがそれらの機能的観点から一般的に上述されている。そのような機能がハードウェアとして実装されるか否か、またはソフトウェアとして実装されるか否かは、特定のアプリケーションおよび全体システムに課される設計要求事項によって異なることになる。通常の技術者は、それぞれの特定のアプリケーションのために多様な方式で説明された機能を実装することもできるが、そのような実装は本開示の範囲を逸脱するものと解釈されてはならない。
ハードウェアの実装において、技法を遂行するのに利用されるプロセッシングユニットは、1つ以上のASIC、DSP、デジタル信号プロセッシングデバイス(digital signal processing devices; DSPD)、プログラム可能な論理デバイス(programmable logic devices; PLD)、フィールドプログラマブルゲートアレイ(field programmable gate arrays; FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本開示で説明された機能を遂行するように設計された他の電子ユニット、コンピュータ、またはこれらの組み合わせの中から実装されることもできる。
したがって、本開示と連携して説明された多様な例示的論理ブロック、モジュール、および回路は、汎用プロセッサ、DSP、ASIC、FPGAや他のプログラム可能な論理デバイス、ディスクリートゲートやトランジスタロジック、ディスクリートハードウェアコンポーネント、または本願において説明された機能を遂行するように設計されたものの任意の組み合わせで実装されたり、遂行されたりすることもできる。汎用プロセッサは、マイクロプロセッサであることもできるが、代案として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態マシンであることもできる。プロセッサは、また、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと連携した1つ以上のマイクロプロセッサ、または任意の他の構成の組み合わせで実装されることもできる。
ファームウェアおよび/またはソフトウェアの実装において、技法は、ランダムアクセスメモリ(random access memory; RAM)、読み出し専用メモリ(read-only memory; ROM)、不揮発性RAM(non-volatile random access memory; NVRAM)、PROM(programmable read-only memory)、EPROM(erasable programmable read-only memory)、EEPROM(electrically erasable PROM)、フラッシュメモリ、コンパクトディスク(compact disc; CD)、磁気または光学データストレージデバイスなどのようなコンピュータ読み取り可能な媒体上に格納されたコマンドで実装されることもできる。コマンドは、1つ以上のプロセッサによって実行することもでき、プロセッサが本開示において説明された機能の特定の態様を遂行するようにすることもできる。
ソフトウェアで実装される場合、前記の技法は、1つ以上のコマンドまたはコードとしてコンピュータ読み取り可能な媒体上に格納されたり、またはコンピュータ読み取り可能な媒体を通じて送信されたりすることもできる。コンピュータ読み取り可能な媒体は、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含めて、コンピュータ格納媒体および通信媒体の両方を含む。格納媒体は、コンピュータによってアクセス可能な任意の利用可能な媒体であることもできる。非限定的な例として、これらのコンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、または所望のプログラムコードをコマンドまたはデータ構造の形態に移送または格納するために使用されることができ、コンピュータによってアクセス可能な任意の他の媒体を含むことができる。また、任意の接続がコンピュータ読み取り可能な媒体に適切に称される。
例えば、ソフトウェアが同軸ケーブル、光ファイバーケーブル、撚線、デジタル加入者回線(DSL)、または赤外線、無線およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバー、または他のリモートソースから送信されると、同軸ケーブル、光ファイバーケーブル、撚線、デジタル加入者回線、または赤外線、無線およびマイクロ波などのワイヤレス技術は、媒体の定義内に含まれる。本願において使用されるディスク(disk)とディスク(disc)は、CD、レーザーディスク、光ディスク、DVD(digital versatile disc)、フロッピーディスクおよびブルーレイディスクを含み、ここでディスク(disks)は、通常、磁気的にデータを再生し、一方ディスク(discs)は、レーザーを利用して光学的にデータを再生する。前記の組み合わせもコンピュータ読み取り可能な媒体の範囲内に含まれるべきである。
ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、移動式ディスク、CD-ROM、または公知された任意の他の形態の格納媒体内に常駐することもできる。例示的な格納媒体は、プロセッサが格納媒体から情報を読み出したり、格納媒体に情報を記録したりすることができるように、プロセッサに連結されることができる。代案として、格納媒体は、プロセッサに統合されることもできる。プロセッサと格納媒体は、ASIC内に存在することもできる。ASICは、ユーザー端末内に存在することもできる。代案として、プロセッサと格納媒体は、ユーザー端末において個別のコンポーネントとして存在することもできる。
以上で説明された実施例が1つ以上のスタンドアロンコンピュータシステムで現在開示された主題の態様を活用するものとして記述されたが、本開示はこれに限定されず、ネットワークや分散コンピューティング環境のような任意のコンピューティング環境と連携して実装されることもできる。さらに、本開示における主題の様相は、複数のプロセッシングチップやデバイスで実装されることもでき、ストレージは、複数のデバイスにわたって同様に影響を受けることもできる。これらのデバイスは、PC、ネットワークサーバーおよびハンドヘルドデバイスを含むこともできる。
本明細書においては、本開示が一部の実施例に関連して説明されたが、本開示の発明の属する技術分野の通常の技術者が理解できる本開示の範囲を逸脱しない範囲で多様な変形および変更が行われることができる。また、そのような変形および変更は、本明細書に添付された特許請求の範囲内に属するものとして考えられなければならない。
100、100_1、100_2、100_3:ユーザー端末
110:カメラ
120:ユーザー
300:ユーザー認証システム
310:ネットワーク
412、438:通信モジュール
414、434:プロセッサ
416、436:メモリ
418、432:入出力インターフェース
420:入出力デバイス
510:命令処理モジュール
520:画像抽出モジュール
530:画像分析モジュール
540:認証モジュール
110:カメラ
120:ユーザー
300:ユーザー認証システム
310:ネットワーク
412、438:通信モジュール
414、434:プロセッサ
416、436:メモリ
418、432:入出力インターフェース
420:入出力デバイス
510:命令処理モジュール
520:画像抽出モジュール
530:画像分析モジュール
540:認証モジュール
Claims (20)
- ユーザー認証方法であって、
ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップと、
前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するステップと、
前記動画内に前記ユーザーが存在するか否かを決定するステップと、
前記ユーザーが存在すると決定された場合、前記動画から抽出された前記ユーザーの顔に基づいて前記ユーザーを認証するステップとを含む、ユーザー認証方法。 - 前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するステップは、前記ユーザー端末から前記ユーザー端末との通信のためのチャネルを介して前記動画をリアルタイムで受信するステップを含む、請求項1に記載のユーザー認証方法。
- 前記動画は、前記ユーザー端末との通信のためのチャネルを介して連続的に受信される、請求項2に記載のユーザー認証方法。
- 前記動画内に前記ユーザーが存在するか否かを決定するステップは、
前記動画を分析して、前記動画内で前記ユーザーが前記複数の命令に対応する複数の行動を遂行するか否かを決定するステップと、
前記ユーザーが前記複数の命令に対応する前記複数の行動を遂行すると決定された場合、前記撮影された動画内に前記ユーザーが存在すると決定するステップとを含む、請求項1〜3のいずれか1項に記載のユーザー認証方法。 - 前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するステップは、
前記ユーザー端末からユーザーの顔が撮影されるように誘導する命令に対応して撮影された顔関連動画を受信するステップと、
前記ユーザー端末からユーザーの身分証が撮影されるように誘導する命令に対応して撮影された身分証関連動画を受信するステップとを含み、
前記ユーザーを認証するステップは、
前記顔関連動画から前記ユーザーの顔に対する第1の情報を抽出するステップと、
前記身分証関連動画から前記ユーザーの顔に対する第2の情報を抽出するステップと、
前記抽出された第1の情報および前記抽出された第2の情報を比較するステップと、
前記抽出された第1の情報および前記抽出された第2の情報が類似する場合、前記ユーザーを認証するステップとを含む、請求項1〜4のいずれか1項に記載のユーザー認証方法。 - 前記複数の命令は、ユーザーの正面顔が撮影されるように誘導する命令を含む、請求項5に記載のユーザー認証方法。
- 前記複数の命令は、前記ユーザーの身分証を動かすように誘導する命令を含み、
前記身分証関連動画を受信するステップは、前記ユーザー端末から前記命令に基づいて前記ユーザーの身分証が撮影された動画を受信するステップを含み、
前記ユーザーを認証するステップは、前記動画を分析して取得したユーザーの身分証の動きに基づいて、前記動画内に前記ユーザーの身分証が存在するか否かを決定するステップを含む、請求項5に記載のユーザー認証方法。 - 前記身分証関連動画は、前記ユーザーの少なくとも一部および前記ユーザーの身分証が一緒に撮影された動画を含み、
前記身分証関連動画を受信するステップは、
前記ユーザー端末から前記ユーザーの少なくとも一部を含む領域を第1のチャネルで受信するステップと、
前記ユーザー端末から前記ユーザーの身分証を含む領域を第2のチャネルで受信するステップとを含む、請求項5または6に記載のユーザー認証方法。 - 前記ユーザーの複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
予め決められた複数の命令の候補の中から、前記複数の命令をランダムに選択するステップと、
前記ランダムに選択された複数の命令を前記ユーザー端末に送信するステップとを含む、請求項1〜8のいずれか1項に記載のユーザー認証方法。 - 前記ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
前記ユーザーに第1の行動を誘導する第1の命令を前記ユーザー端末に送信するステップを含み、
前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するステップは、
前記ユーザー端末から前記第1の命令に対応して撮影された動画を受信するステップを含み、
前記動画内に前記ユーザーが存在するか否かを決定するステップは、前記第1の命令に対応して撮影された動画を分析し、前記ユーザーが前記第1の命令に応答して前記第1の行動を遂行するか否かを決定するステップを含む、請求項1に記載のユーザー認証方法。 - 前記ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
前記ユーザーが前記第1の行動を遂行すると決定された場合、前記ユーザーに第2の行動を誘導する第2の命令を前記ユーザー端末に送信するステップをさらに含み、
前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するステップは、
前記ユーザー端末から前記第2の命令に対応して撮影された動画を受信するステップをさらに含み、
前記動画内に前記ユーザーが存在するか否かを決定するステップは、前記第2の命令に対応して撮影された動画を分析し、前記ユーザーが前記第2の命令に応答して前記第2の行動を遂行するか否かを決定するステップをさらに含む、請求項10に記載のユーザー認証方法。 - 前記ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
前記ユーザーが前記第1の行動を遂行しないと決定された場合、前記ユーザーに第3の行動を誘導する第3の命令を前記ユーザー端末に送信するステップをさらに含み、
前記第3の命令は、前記第1の命令に対応して撮影された動画の分析から取得されたユーザーの行動と前記第1の行動との相違点に基づいて選択されたものである、請求項10または11に記載のユーザー認証方法。 - 前記ユーザーが前記第1の行動を遂行しないと決定された場合、前記ユーザー端末との通信のために使用されたチャネルと異なるチャネルを利用して前記ユーザー端末と通信するステップをさらに含む、請求項10に記載のユーザー認証方法。
- 前記ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
前記複数の命令に対応する複数の解像度に対する情報を前記複数の命令と一緒に前記ユーザー端末に送信するステップを含む、請求項1〜8のいずれか1項に記載のユーザー認証方法。 - 前記複数の命令に対応する複数の解像度は、前記複数の命令に対応して撮影される動画が表示される画面での複数の領域のそれぞれに対する解像度を含む、請求項14に記載のユーザー認証方法。
- 前記複数の命令は、前記ユーザーの少なくとも一部および前記ユーザーの身分証が一緒に撮影されるように誘導する命令を含み、
前記ユーザーの身分証が撮影されるように誘導された領域の解像度は、前記ユーザーの少なくとも一部が撮影されるように誘導された領域の解像度よりも高く設定される、請求項14または15に記載のユーザー認証方法。 - 前記ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信するステップは、
前記複数の命令のそれぞれに対応する転送速度に対する情報を前記複数の命令と一緒に前記ユーザー端末に送信するステップを含む、請求項1〜8のいずれか1項に記載のユーザー認証方法。 - 請求項1〜17のいずれか1項によるユーザー認証方法をコンピュータで実行するためにコンピュータ読み取り可能な記録媒体に格納されたコンピュータプログラム。
- ユーザー認証システムであって、
ユーザーに複数の行動を誘導する複数の命令をユーザー端末に送信し、前記ユーザー端末から前記複数の命令に対応して撮影された動画を受信するように構成された通信モジュールと、
メモリと、
前記メモリと連結され、前記メモリに含まれたコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサとを含み、
前記少なくとも1つのプロセッサは、
前記動画内に前記ユーザーが存在するか否かを決定し、
前記ユーザーが存在すると決定された場合、前記動画から抽出された前記ユーザーの顔に基づいて前記ユーザーを認証するようにさらに構成された、ユーザー認証システム。 - 前記通信モジュールは、前記ユーザー端末から前記ユーザー端末との通信のためのチャネルを介して前記動画をリアルタイムで受信するようにさらに構成される、請求項19に記載のユーザー認証システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190172446A KR102320723B1 (ko) | 2019-12-20 | 2019-12-20 | 사용자를 인증하는 방법 및 시스템 |
KR10-2019-0172446 | 2019-12-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021099802A true JP2021099802A (ja) | 2021-07-01 |
Family
ID=76383466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209356A Pending JP2021099802A (ja) | 2019-12-20 | 2020-12-17 | ユーザーを認証する方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11527108B2 (ja) |
JP (1) | JP2021099802A (ja) |
KR (2) | KR102320723B1 (ja) |
CN (1) | CN113014863A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7239047B1 (ja) | 2022-07-19 | 2023-03-14 | 凸版印刷株式会社 | 認証システム、認証方法、及びプログラム |
WO2023153324A1 (ja) * | 2022-02-08 | 2023-08-17 | 日本電気株式会社 | 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD954076S1 (en) * | 2019-11-25 | 2022-06-07 | LINE Plus Corporation | Display panel with a graphical user interface |
WO2021161725A1 (ja) * | 2020-02-10 | 2021-08-19 | 日本電気株式会社 | プログラム、携帯端末の処理方法及び携帯端末 |
WO2023022367A1 (ko) * | 2021-08-19 | 2023-02-23 | 민팃(주) | 개인 인증 방법 및 장치 |
US20230230088A1 (en) * | 2022-01-06 | 2023-07-20 | Socure, Inc. | Method and System of Predictive Document Verification and Machine Learning Therefor |
KR102477839B1 (ko) * | 2022-03-15 | 2022-12-15 | 주식회사 파프리카데이터랩 | 데이터 내 검출된 객체의 특성을 이용한 데이터 유효성 검사 방법 및 장치 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010092888A (ko) * | 2000-03-27 | 2001-10-27 | 유영산 | 인터넷을 이용한 페이스 투 페이스에 의한 인증방법 |
EP2633484A4 (en) * | 2010-10-29 | 2015-01-21 | Exodus Payment Systems Llc | METHOD AND SYSTEM FOR PROCESSING TRANSACTIONS USING A TOKEN |
KR101394597B1 (ko) * | 2012-05-09 | 2014-05-27 | 김명훈 | 얼굴검출 알고리즘을 이용한 영상보안장치와 영상보안시스템 및 얼굴검출 알고리즘을 이용한 영상보안방법 |
CN104298909B (zh) * | 2013-07-19 | 2018-11-30 | 富泰华工业(深圳)有限公司 | 电子装置、身份验证系统及方法 |
US9971937B1 (en) * | 2013-09-30 | 2018-05-15 | Samsung Electronics Co., Ltd. | Biometric camera |
US10853680B2 (en) * | 2015-07-14 | 2020-12-01 | Panasonic Intellectual Property Management Co., Ltd. | Identification medium recognition device and identification medium recognition method |
US10956544B1 (en) * | 2016-04-01 | 2021-03-23 | Massachusetts Mutual Life Insurance Company | Access control through head imaging and biometric authentication |
US10521503B2 (en) * | 2016-09-23 | 2019-12-31 | Qualtrics, Llc | Authenticating a respondent to an electronic survey |
KR102042129B1 (ko) * | 2017-02-10 | 2019-11-27 | 주식회사 코스콤 | 본인 인증 방법 및 그 장치 |
US10565304B2 (en) * | 2017-09-16 | 2020-02-18 | Noredink Corp. | System and method for implementing a proficiency-driven feedback and improvement platform |
KR102498545B1 (ko) * | 2018-02-23 | 2023-02-10 | 삼성전자주식회사 | 생체 인증과 관련된 객체의 표시에 따라 생체 인증을 수행하는 방법 및 이를 위한 전자 장치 |
KR20190107976A (ko) * | 2018-03-13 | 2019-09-23 | 삼성전자주식회사 | 복수의 구동 방식을 이용하여 획득된 복수의 이미지 정보에 기반하여,지문 정보를 생성하기 위한 방법 및 그 전자 장치 |
JP6481074B1 (ja) | 2018-07-31 | 2019-03-13 | 株式会社メルカリ | プログラム、情報処理方法、情報処理装置 |
CA3112331A1 (en) * | 2018-09-12 | 2020-03-19 | Isx Ip Ltd | Remotely verifying an identity of a person |
US20200210956A1 (en) * | 2018-12-28 | 2020-07-02 | Guillaume De Malzac De Sengla | Electronic registered mail methods, apparatus, and system |
-
2019
- 2019-12-20 KR KR1020190172446A patent/KR102320723B1/ko active IP Right Grant
-
2020
- 2020-12-15 US US17/122,504 patent/US11527108B2/en active Active
- 2020-12-17 JP JP2020209356A patent/JP2021099802A/ja active Pending
- 2020-12-18 CN CN202011502073.2A patent/CN113014863A/zh active Pending
-
2021
- 2021-10-27 KR KR1020210144629A patent/KR102464984B1/ko active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023153324A1 (ja) * | 2022-02-08 | 2023-08-17 | 日本電気株式会社 | 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体 |
JP7239047B1 (ja) | 2022-07-19 | 2023-03-14 | 凸版印刷株式会社 | 認証システム、認証方法、及びプログラム |
JP2024013023A (ja) * | 2022-07-19 | 2024-01-31 | Toppanホールディングス株式会社 | 認証システム、認証方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210192189A1 (en) | 2021-06-24 |
KR102464984B1 (ko) | 2022-11-09 |
US11527108B2 (en) | 2022-12-13 |
CN113014863A (zh) | 2021-06-22 |
KR20210134540A (ko) | 2021-11-10 |
KR102320723B1 (ko) | 2021-11-02 |
KR20210080064A (ko) | 2021-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021099802A (ja) | ユーザーを認証する方法およびシステム | |
CN111033501B (zh) | 虚拟现实中对访问私有数据的安全授权 | |
US10693872B1 (en) | Identity verification system | |
US10325117B2 (en) | Quick usage control | |
US9323912B2 (en) | Method and system for multi-factor biometric authentication | |
US20120063649A1 (en) | User-specific attribute customization | |
JP7065867B2 (ja) | ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス | |
KR101941966B1 (ko) | 패턴 인식 기반의 출입 제어를 위한 장치, 방법 및 프로그램 | |
US9699178B2 (en) | Temporal modification of authentication challenges | |
KR101457377B1 (ko) | 미션실행 제스처 인식을 이용한 사용자 인증방법, 및 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체 | |
US20230254300A1 (en) | Authentication of avatars for immersive reality applications | |
US11553216B2 (en) | Systems and methods of facilitating live streaming of content on multiple social media platforms | |
JP6629257B2 (ja) | 眼球認識によって保安が強化された認証方法およびシステム | |
US10936710B1 (en) | Interaction based posture assessment | |
CN113518061B (zh) | 人脸识别中的数据传输方法、设备、装置、系统及介质 | |
CN103942313B (zh) | 网站页面的展示方法、装置及终端 | |
US20210097160A1 (en) | Sound-based user liveness determination | |
KR20180061964A (ko) | 교육용 컨텐츠 재생 방법 | |
CN117332392A (zh) | 身份验证方法及系统、虚拟交互方法及系统、设备、介质 | |
CN111083095A (zh) | 提供认证数据的方法、计算机装置及计算机程序 | |
KR20160067537A (ko) | 패턴 인식 기반의 출입 제어를 위한 장치 및 기록매체 | |
Ashbourn et al. | Mobile Biometrics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231211 |