JP2015169977A - Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system - Google Patents

Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system Download PDF

Info

Publication number
JP2015169977A
JP2015169977A JP2014042283A JP2014042283A JP2015169977A JP 2015169977 A JP2015169977 A JP 2015169977A JP 2014042283 A JP2014042283 A JP 2014042283A JP 2014042283 A JP2014042283 A JP 2014042283A JP 2015169977 A JP2015169977 A JP 2015169977A
Authority
JP
Japan
Prior art keywords
utterance
change pattern
password
user
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014042283A
Other languages
Japanese (ja)
Inventor
健留 川口
Takeru Kawaguchi
健留 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2014042283A priority Critical patent/JP2015169977A/en
Publication of JP2015169977A publication Critical patent/JP2015169977A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a personal authentication device configured to reliably prevent illegal authentication of a third party, with a simple configuration.SOLUTION: A personal authentication device 1 includes: storage means 2 which stores in advance reference patten information including a reference lip shape change pattern indicating time-series change in lip shape of a user, corresponding to time-series change of words, in a reference password, and a reference face positional relation change pattern indicating time-series change in positional relation between the lips and a specific section of a face of the user; imaging means which images a face of the user who utters a voice password, and outputs it as a captured image; and authentication means 4 which generates voice pattern information including a voice lip shape change pattern for the voice password corresponding to the reference lip shape change pattern and a voice face positional relation change pattern for the voice password corresponding to the reference face positional relation change pattern, and compares the reference pattern information with the voice pattern information, to authenticate the user when they match each other.

Description

本発明は、利用者が本人であるか否かを認証する本人認証装置、本人認証方法、本人認証プログラム、および自動取引システムに関する。   The present invention relates to a personal authentication device, a personal authentication method, a personal authentication program, and an automatic transaction system that authenticate whether or not a user is a user.

利用者が本人であるかを認証し所定のサービスを提供する装置、たとえば、自動取引装置は、利用者によって入力されたパスワードが正しいか否かを判断することにより利用者認証(本人認証)を行っている。パスワード入力による利用者認証は、簡便である反面、スキミングやキャッシュカードの盗難により不正認証される危険性が高い。   A device that authenticates whether the user is the user and provides a predetermined service, for example, an automatic transaction device, performs user authentication (person authentication) by determining whether the password entered by the user is correct. Is going. User authentication by entering a password is simple, but there is a high risk of unauthorized authentication due to skimming or theft of a cash card.

そこで、近年、生体認証(たとえば、指紋認証、静脈認証、顔認証等)を採用する自動取引装置も増えている。生体認証は、生体の特徴にて本人を区別するものであるから盗難される危険性は低い。しかしながら、生体認証の場合も、可能性は低いが、理論上は、身体的特徴の採取による複製を用いれば不正認証可能である。また、指紋や静脈の状態を検出するためのデバイスは、一般的に高価である。すなわち、生体認証の場合、装置コストが肥大化するという別の問題を有している。   Therefore, in recent years, an automatic transaction apparatus that employs biometric authentication (for example, fingerprint authentication, vein authentication, face authentication, etc.) is also increasing. Since the biometric authentication distinguishes the person based on the characteristics of the biometric, the risk of being stolen is low. However, even in the case of biometric authentication, the possibility is low, but theoretically, unauthorized authentication is possible by using a copy by collecting physical features. Also, devices for detecting fingerprints and vein status are generally expensive. That is, in the case of biometric authentication, there is another problem that the device cost increases.

特許文献1には、所定の言葉を発している利用者の唇の部分をカメラにより撮影し、撮影画像から唇の形状の時間的変化を抽出し、この時間的変化と予め登録された画像パターンとを比較することにより使用者が発した言葉を文字に変換する技術が記載されている。   In Patent Document 1, a lip portion of a user who is uttering a predetermined word is photographed by a camera, a temporal change in the shape of the lips is extracted from the photographed image, and this temporal change and a pre-registered image pattern are disclosed. A technique for converting a word uttered by a user into a character by comparing with the above is described.

特開2007−087291号公報(ページNo.4−5、図1)Japanese Patent Laying-Open No. 2007-087291 (Page No. 4-5, FIG. 1)

特許文献1は、唇の動き(唇形状変化)のみに基づいて、使用者が発声した言葉を文字に変換している。しかしながら、唇の動きは、パスワードが判明している場合、その通りに発声すれば、全くの他人であってもその言葉が認識されてしまう(本人認証に用いた場合、他人を本人と誤認証してしまう)危険性がある。   Patent Document 1 converts words uttered by a user into characters based only on lip movement (lip shape change). However, when the password is known, if the voice of the lip is spoken exactly as it is, the word will be recognized even if it is a completely different person. There is a danger.

本発明は上記課題を解決するためになされたものであり、簡素な構成でありながら、第三者による不正認証をより確実に防ぐことができる本人認証装置、本人認証方法、本人認証プログラム、および自動取引システムを提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problems, and has a simple configuration and can prevent unauthorized authentication by a third party more reliably, a personal authentication device, a personal authentication method, a personal authentication program, and The purpose is to provide an automated trading system.

本発明の本人認証装置は、認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する記憶手段と、本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影手段と、前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証手段と、を備える。   The personal authentication device of the present invention includes a reference lip shape change pattern indicating a time-series change of a user's lip shape corresponding to a time-series change of a word in a reference password which is a password serving as a reference for authentication; Reference pattern information including a reference face positional relationship change pattern indicating a temporal change in positional relationship between the lips and a specific part of the user's face corresponding to a time-series change of words in a reference password, A storage means for storing in advance, a photographing means for photographing a user's face that speaks an utterance password that is a password for authenticating the person, and outputting as a photographed image; from the photographed image to the reference lip shape change pattern The utterance lip shape change pattern for the corresponding utterance password and the utterance password for the utterance password corresponding to the reference face positional relationship change pattern Generating a utterance pattern information including a face positional relationship change pattern, comparing the reference pattern information with the utterance pattern information, and matching the reference lip shape change pattern with the utterance lip shape change pattern and the reference Authentication means for authenticating that the user is the user when the face position change pattern matches the utterance face position change pattern.

本発明の本人認証方法は、認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶し、本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力し、前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証することを特徴とする。   The personal authentication method of the present invention includes a reference lip shape change pattern indicating a time-series change of a user's lip shape corresponding to a time-series change of a word in a reference password which is a password serving as a reference for authentication; Reference pattern information including a reference face positional relationship change pattern indicating a temporal change in positional relationship between the lips and a specific part of the user's face corresponding to a time-series change of words in a reference password, About the utterance password corresponding to the reference lip shape change pattern from the photographed image, which is recorded in advance and photographed as a photographed user's face, which is a password for authenticating the user, Utterance lip shape change pattern and utterance face position change pattern for the utterance password corresponding to the reference face position change pattern , And the reference pattern information is compared with the utterance pattern information, the reference lip shape change pattern and the utterance lip shape change pattern match, and the reference face position change pattern and the When the utterance face position change pattern matches, the user is authenticated as the person himself / herself.

本発明の本人認証制御プログラムは、本人認証装置のコンピュータに、認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する記憶処理と、本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影処理と、前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証処理とを実行させるためのプログラムである。   The personal authentication control program of the present invention shows a time-series change in the shape of the user's lips corresponding to a time-series change of words in a reference password, which is a password serving as a reference for authentication, on the computer of the user authentication apparatus. A reference lip shape change pattern, and a reference face positional relationship change pattern indicating a time-series change of a positional relationship between the lips and a specific part of the user's face corresponding to a time-series change of words in the reference password; From the captured image, a storage process for storing reference pattern information in advance, a shooting process for capturing a face of a user who speaks an utterance password that is a password for authenticating the user, and outputting the captured image as a captured image , The utterance lip shape change pattern for the utterance password corresponding to the reference lip shape change pattern, and the reference face positional relationship change pattern Utterance pattern information including a corresponding utterance face positional change pattern for the corresponding utterance password, comparing the reference pattern information with the utterance pattern information, and changing the reference lip shape change pattern and the utterance lip shape change This is a program for executing an authentication process for authenticating that the user is the user when the pattern matches and the reference face position change pattern matches the utterance face position change pattern.

本発明の自動取引システムは、利用者認証サーバと現金自動預払機とを備える自動取引システムであって、利用者認証サーバは、認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する第1記憶手段を備え、前記現金自動預払機は、前記利用者認証サーバから受信した前記基準パターン情報を記憶する第2記憶手段と、本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影手段と、前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証手段と、を備える。   The automatic transaction system of the present invention is an automatic transaction system including a user authentication server and an automatic teller machine, and the user authentication server is a time-series change of words in a reference password which is a password used as a reference for authentication. A reference lip shape change pattern indicating a time-series change in the shape of the user's lips, and a specific portion of the lips and the user's face corresponding to a time-series change in words in the reference password And a reference pattern information including a reference face positional relationship change pattern indicating a time-series change in the positional relationship of the first automatic storage device, the automatic teller machine received from the user authentication server. The second storage means for storing the reference pattern information and the face of the user who utters the utterance password, which is a password for authenticating the person, are photographed as a photographed image. A shooting means for outputting; a utterance face position for the utterance password corresponding to the utterance password corresponding to the reference lip shape change pattern; Generating a utterance pattern information including a relationship change pattern, comparing the reference pattern information with the utterance pattern information, and matching the reference lip shape change pattern with the utterance lip shape change pattern and the reference face position. Authentication means for authenticating that the user is the user when the change pattern matches the utterance face position change pattern.

簡素な構成でありながら、第三者による不正認証をより確実に防ぐことができる。   While having a simple configuration, unauthorized authentication by a third party can be prevented more reliably.

本発明の第1の実施形態に係る本人認証装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal authentication apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る自動取引システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the automatic transaction system which concerns on the 2nd Embodiment of this invention. 図2に示される現金自動預払機の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the operation example of the automatic teller machine shown by FIG. 基準パターン情報のデータ構成例を示す図である。It is a figure which shows the data structural example of reference | standard pattern information. 基準唇形状および基準顔位置関係を説明するための図である。It is a figure for demonstrating a reference lip shape and a reference face positional relationship.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る本人認証装置1の構成例を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration example of a personal authentication device 1 according to the first embodiment of the present invention.

本人認証装置1は、記憶部2と、撮影部3と、認証部4と、を備える。   The personal authentication device 1 includes a storage unit 2, a photographing unit 3, and an authentication unit 4.

記憶部2は、基準パターン情報5を予め記憶する。基準パターン情報5は、認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、基準パスワードにおけるワードの時系列的変化に対応した、唇と利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む。   The storage unit 2 stores reference pattern information 5 in advance. The reference pattern information 5 includes a reference lip shape change pattern indicating a time-series change in the shape of the user's lips corresponding to a time-series change of words in the reference password, which is a password used as an authentication reference, and a reference password And a reference face positional relationship change pattern indicating a time-series change in the positional relationship between the lips and a specific part of the user's face corresponding to the time-series change of the word.

撮影部3は、本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する。   The photographing unit 3 photographs the face of the user who speaks the utterance password, which is a password for authenticating the person, and outputs the photographed image.

認証部4は、撮影画像から、基準唇形状変化パターンに相当する発声パスワードについての発声唇形状変化パターンと、基準顔位置関係変化パターンに相当する発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報6を生成する。認証部4は、基準パターン情報5と発声パターン情報6とを比較し、基準唇形状変化パターンと発声唇形状変化パターンとが一致し且つ基準顔位置変化パターンと発声顔位置変化パターンとが一致した場合に利用者が本人であると認証する。   The authentication unit 4 generates, from the captured image, a utterance lip shape change pattern for a utterance password corresponding to the reference lip shape change pattern, and a utterance face position relationship change pattern for an utterance password corresponding to the reference face position relationship change pattern. The included utterance pattern information 6 is generated. The authentication unit 4 compares the reference pattern information 5 and the utterance pattern information 6, and the reference lip shape change pattern and the utterance lip shape change pattern match, and the reference face position change pattern and the utterance face position change pattern match. In this case, the user is authenticated.

以上説明した第1の実施形態によれば、本人認証は、唇の動き(唇形状変化)だけでなく、顔の位置関係変化も考慮して判断される。唇の動きは、パスワードが判明している場合、その通りに発声すれば、全くの他人であっても利用者本人と誤認証されてしまう危険性がある。しかしながら、顔の位置関係は生体固有であるため、他人を本人と誤認証する可能性は極めて低い。   According to the first embodiment described above, the identity authentication is determined in consideration of not only lip movement (lip shape change) but also a change in face positional relationship. If the password is known, the movement of the lips may be mistakenly identified as the user, even if it is a completely different person, if it is spoken as it is. However, since the positional relationship of the face is unique to the living body, the possibility of misidentifying others as the person is extremely low.

さらに、以上説明した第1の実施形態において、認証対象は、使用者の顔画像である。すなわち、撮影部3を一般的に流通している通常のカメラ(たとえば、監視カメラあるいはデジタルカメラ)とすることができる。従って、指紋や静脈等の状態を検出するためのデバイスのように特殊且つ高価なデバイスは不要である。   Furthermore, in the first embodiment described above, the authentication target is a user's face image. That is, it can be a normal camera (for example, a surveillance camera or a digital camera) generally distributed in the photographing unit 3. Therefore, a special and expensive device such as a device for detecting a state such as a fingerprint or a vein is unnecessary.

以上纏めると、第1の実施形態によれば、簡素な構成でありながら、第三者による不正認証をより確実に防ぐことができる。   In summary, according to the first embodiment, unauthorized authentication by a third party can be more reliably prevented with a simple configuration.

なお、第1の実施形態に係る本人認証装置は、利用者が本人であるかを認証し、認証結果に応じた処理あるいはサービスを提供する装置全般に広く適用可能である。
[第2の実施形態]
図2は、本発明の第2の実施形態に係る自動取引システム10の構成例を示すブロック図である。本発明の実施例として利用者が自動取引装置に対して現金の引き出しを行う際の利用者認証の方法を取り上げ、その構成および動作について説明する。
Note that the personal authentication device according to the first embodiment can be widely applied to all devices that authenticate whether the user is the user and provide processing or services according to the authentication result.
[Second Embodiment]
FIG. 2 is a block diagram showing a configuration example of the automatic transaction system 10 according to the second embodiment of the present invention. As an embodiment of the present invention, a user authentication method used when a user withdraws cash from an automatic transaction apparatus will be described, and its configuration and operation will be described.

自動取引システム10は、現金自動預払機12と、利用者認証サーバ14と、を備える。現金自動預払機12は、ネットワーク16を介して利用者認証サーバ14と接続される。   The automatic transaction system 10 includes an automatic teller machine 12 and a user authentication server 14. The automatic teller machine 12 is connected to a user authentication server 14 via a network 16.

現金自動預払機12は、記憶部20と、撮影部22と、認証部24と、表示部26と、を備える。   The automatic teller machine 12 includes a storage unit 20, a photographing unit 22, an authentication unit 24, and a display unit 26.

記憶部20は、利用者認証サーバ14から受信した基準パターン情報40(詳細については後述)を記憶する。   The storage unit 20 stores reference pattern information 40 (details will be described later) received from the user authentication server 14.

撮影部22は、本人認証するためのパスワードを発声する利用者の顔を撮影し、撮影画像として出力する。   The photographing unit 22 photographs the face of the user who speaks the password for authenticating the user and outputs the photographed image.

認証部24は、撮影画像から、発声パターン情報50(詳細については後述)を生成する。認証部24は、基準パターン情報40と発声パターン情報50とを比較し、比較結果に応じて、パスワードを発声した利用者が本人あるか否かを判定する。   The authentication unit 24 generates utterance pattern information 50 (details will be described later) from the captured image. The authenticating unit 24 compares the reference pattern information 40 and the utterance pattern information 50, and determines whether or not the user who uttered the password is present according to the comparison result.

表示部26は、所定情報(たとえば、自動取引サービス初期画面、パスワード発声ガイダンス、本人認証結果等)を表示する。   The display unit 26 displays predetermined information (for example, automatic transaction service initial screen, password utterance guidance, personal authentication result, etc.).

利用者認証サーバ14は、記憶部30と、制御部32と、を備える。   The user authentication server 14 includes a storage unit 30 and a control unit 32.

記憶部30は、基準パターン情報40を記憶する。   The storage unit 30 stores reference pattern information 40.

制御部32は、現金自動預払機12からの要求に基づいて、記憶部30から、挿入されたキャッシュカードに対応する基準パターン40を読み出し、読み出した基準パターン40を現金自動預払機12へ送信する。   Based on the request from the automatic teller machine 12, the control unit 32 reads the reference pattern 40 corresponding to the inserted cash card from the storage unit 30, and transmits the read reference pattern 40 to the automatic teller machine 12. .

図3は、現金自動預払機12の動作例を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining an operation example of the automatic teller machine 12.

認証部24は、自動取引サービス初期画面を表示部26へ表示する(ステップS1)。認証部24は、利用者によるキャッシュカードの挿入の有無を確認する(ステップS2)。キャッシュカードの挿入が確認された場合(ステップS2においてYes判定)、認証部24は、利用者認証サーバ14に対して、認証情報(具体的には、挿入されたキャッシュカードに対応する基準パターン情報40)を要求する(ステップS3)。キャッシュカードの挿入が確認されない場合(ステップS2においてNo判定)、認証部24は、ステップS2の処理を再度実行する。   The authentication unit 24 displays the automatic transaction service initial screen on the display unit 26 (step S1). The authentication unit 24 confirms whether or not the cash card is inserted by the user (step S2). When the insertion of the cash card is confirmed (Yes in step S2), the authentication unit 24 sends the authentication information (specifically, the reference pattern information corresponding to the inserted cash card) to the user authentication server 14. 40) is requested (step S3). When the insertion of the cash card is not confirmed (No determination in step S2), the authentication unit 24 executes the process of step S2 again.

認証情報要求を受信した利用者認証サーバ14の制御部32は、記憶部30から、挿入されたキャッシュカードに対応する基準パターン情報40を読み出し、読み出した基準パターン情報40を現金自動預払機12へ送信する。   The control unit 32 of the user authentication server 14 that has received the authentication information request reads the reference pattern information 40 corresponding to the inserted cash card from the storage unit 30, and sends the read reference pattern information 40 to the automatic teller machine 12. Send.

認証部24は、利用者認証サーバ14から基準パターン情報40を受信する(ステップS)。受信された基準パターン情報40は、記憶部20へ記憶される。   The authentication unit 24 receives the reference pattern information 40 from the user authentication server 14 (step S). The received reference pattern information 40 is stored in the storage unit 20.

認証部24は、利用者に対してパスワードの発声開始を促すためのパスワード発声ガイダンスを表示部26へ表示する(ステップS5)。   The authentication unit 24 displays password utterance guidance for prompting the user to start uttering the password on the display unit 26 (step S5).

利用者は、パスワード発声ガイダンスに従って、パスワードを発声する。撮影部22は、パスワードを発声している利用者の顔を撮影する(ステップS6)。撮影された画像は、撮影画像として出力される。   The user utters the password according to the password utterance guidance. The photographing unit 22 photographs the face of the user who is speaking the password (step S6). The captured image is output as a captured image.

認証部24は、撮影画像から、発声パターン情報50を生成する(ステップS7)。認証部24は、基準パターン情報40と発声パターン情報50とを比較する(ステップS8)。   The authentication unit 24 generates utterance pattern information 50 from the photographed image (step S7). The authentication unit 24 compares the reference pattern information 40 and the utterance pattern information 50 (step S8).

ここで、基準パターン情報40と発声パターン情報50について説明する。図4は、基準パターン情報40のデータ構成例を示す図である。図5は、基準唇形状および基準顔位置関係を説明するための図である。以下では、基準となる基準パスワードが2つ“1”と“2”である場合を例に挙げる。   Here, the reference pattern information 40 and the utterance pattern information 50 will be described. FIG. 4 is a diagram illustrating a data configuration example of the reference pattern information 40. FIG. 5 is a diagram for explaining the relationship between the reference lip shape and the reference face position. In the following, an example in which two reference passwords serving as a reference are “1” and “2”.

基準パターン情報40は、各ワード(“1”、“2”)と、各ワードを構成するキャラクタ(“い”、“ち”、“に”)と、キャラクタ毎の基準唇形状と、キャラクタ毎の基準顔位置関係とを含む。   The reference pattern information 40 includes each word (“1”, “2”), characters (“I”, “Chi”, “Ni”) constituting each word, a reference lip shape for each character, and each character. Reference face positional relationship.

たとえば、図4におけるSaは、ワード“1”のキャラクタ“い”の場合の唇の形状(図5において領域Saで囲まれる領域の形状)を示している。   For example, Sa in FIG. 4 indicates the shape of the lips (the shape of the region surrounded by the region Sa in FIG. 5) for the character “I” of the word “1”.

また、図4におけるRaは、ワード“1”のキャラクタ“い”の場合の顔位置関係を示している。この場合、顔位置関係は、たとえば、唇と唇以外の利用者の顔の特定部位(たとえば、右眉毛)との距離(図5における実線Raの距離)である。   In addition, Ra in FIG. 4 indicates the face positional relationship in the case of the character “I” of the word “1”. In this case, the face positional relationship is, for example, the distance (the distance indicated by the solid line Ra in FIG. 5) between the lips and a specific part of the user's face other than the lips (for example, the right eyebrow).

図4において、Sbは、キャラクタ“ち”における唇形状であり、Scは、キャラクタ“に”における唇形状である。また、図4において、Rbは、キャラクタ“ち”における唇と右眉毛の距離であり、Rcは、キャラクタ“に”における唇と右眉毛の距離である。   In FIG. 4, Sb is the lip shape of the character “Chi”, and Sc is the lip shape of the character “Ni”. In FIG. 4, Rb is the distance between the lips and the right eyebrows of the character “Chi”, and Rc is the distance between the lips and the right eyebrows of the character “Ni”.

発声パターン情報50の構造は、基準パターン情報40と同一である。ただし、対象となる撮影画像の取得タイミング(すなわち、基準パスワードの登録時および発声パスワード入力時)が異なるので各値が同一であるとは限らない。さらに、発声パターン情報50は、基準ではなく認証の対象であるので、基準唇形状および基準顔位置関係における“基準”は不要、あるいは“発声”に読み替える。   The structure of the utterance pattern information 50 is the same as the reference pattern information 40. However, since the acquisition timing of the target captured image (that is, when the reference password is registered and when the utterance password is input) is different, the values are not necessarily the same. Furthermore, since the utterance pattern information 50 is an object to be authenticated, not a reference, the “reference” in the reference lip shape and the reference face positional relationship is unnecessary or is read as “speech”.

なお、基準唇形状と発声唇形状との一致判定には、公知のパターンマッチング(イメージマッチング)技術を利用することができる。また、基準顔位置と発声顔位置との比較は、単純な数値比較(距離の比較あるいは面積の比較)によって行うことができる。この場合、差分が実質的に“0”である場合に限り両者が一致していると判断してもよく、あるいは差分が所定の差分範囲内のある場合に両者が一致していると判断してもよい。   It is to be noted that a known pattern matching (image matching) technique can be used for determining a match between the reference lip shape and the utterance lip shape. Further, the comparison between the reference face position and the utterance face position can be performed by simple numerical comparison (distance comparison or area comparison). In this case, it may be determined that the two match only when the difference is substantially “0”, or when the difference is within a predetermined difference range, it is determined that the two match. May be.

なお、特定部位は、眉毛に限定されることはなく、他の部位(たとえば、目、鼻、顎)であってもよい。また、特定部位は、キャラクタ毎に動く量が異なる部位であるとより好適である。また、距離は一つに限定されず、複数であってもよい。   The specific part is not limited to the eyebrows and may be another part (for example, eyes, nose, chin). Moreover, it is more preferable that the specific part is a part where the amount of movement differs for each character. Further, the distance is not limited to one and may be a plurality.

また、顔位置関係は、唇と特定部位との距離に限定されず、たとえば、唇と複数の特定部位とで形成される領域(たとえば、唇と左目と右目とで形成される三角領域)の面積であってもよい。   Further, the face positional relationship is not limited to the distance between the lips and the specific part, for example, an area formed by the lips and a plurality of specific parts (for example, a triangular area formed by the lips, the left eye, and the right eye). It may be an area.

また、顔位置関係は、唇と特定部位との距離と、唇と複数の特定部位とで形成される領域の面積の両方であってもよい。   Further, the face positional relationship may be both the distance between the lips and the specific part and the area of the region formed by the lips and the plurality of specific parts.

図3の説明に戻る。基準パターン情報40と発声パターン情報50とが一致した場合(ステップS9においてYes判定)、認証部24は、パスワードを発声した利用者が本人であると認証されたと判断し、利用者に対して所定の自動取引サービスを提供する(ステップS10)。一方、基準パターン情報40と発声パターン情報50とが一致しなかった場合(ステップS9においてNo判定)、認証部24は、パスワードを発声した利用者が本人ではないと判断し、所定のエラー処理(パスワードの再入力あるいはサービス停止処理)を実行する(ステップS11)。   Returning to the description of FIG. When the reference pattern information 40 and the utterance pattern information 50 match (Yes determination in step S9), the authentication unit 24 determines that the user who uttered the password is authenticated as the user, and determines the predetermined value for the user. The automatic transaction service is provided (step S10). On the other hand, if the reference pattern information 40 and the utterance pattern information 50 do not match (No determination in step S9), the authentication unit 24 determines that the user who uttered the password is not the user, and performs predetermined error processing ( Password re-input or service stop processing is executed (step S11).

以上説明した第2の実施形態によれば、本人認証は、唇の動き(唇形状変化)だけでなく、顔の位置関係変化も考慮して判断される。唇の動きは、パスワードが判明している場合、その通りに発声すれば、全くの他人であっても利用者本人と誤認証されてしまう危険性がある。しかしながら、顔の位置関係は生体固有であるため、他人を本人と誤認証する可能性は極めて低い。   According to the second embodiment described above, the identity authentication is determined in consideration of not only the lip movement (lip shape change) but also the change in the facial positional relationship. If the password is known, the movement of the lips may be mistakenly identified as the user, even if it is a completely different person, if it is spoken as it is. However, since the positional relationship of the face is unique to the living body, the possibility of misidentifying others as the person is extremely low.

さらに、以上説明した第2の実施形態において、認証対象は、使用者の顔画像である。すなわち、撮影部22を一般的に流通している通常のカメラ(たとえば、監視カメラあるいはデジタルカメラ)とすることができる。従って、指紋や静脈等の状態を検出するためのデバイスのように特殊且つ高価なデバイスは不要である。   Furthermore, in the second embodiment described above, the authentication target is a user's face image. That is, it can be a normal camera (for example, a surveillance camera or a digital camera) generally distributed in the photographing unit 22. Therefore, a special and expensive device such as a device for detecting a state such as a fingerprint or a vein is unnecessary.

以上纏めると、第2の実施形態によれば、簡素な構成でありながら、第三者による不正認証をより確実に防ぐことができる。   In summary, according to the second embodiment, unauthorized authentication by a third party can be more reliably prevented with a simple configuration.

なお、上記パスワードは、数字に限定されず、文字や記号であってもよい。また、パスワードは、種類が異なるワードの組み合わせであってもよい。また、パスワードは、使用者の意志で決定されてもよいし、たとえば、利用認証サーバ14でランダムに生成されるワード群であってもよい。   The password is not limited to numbers, and may be characters or symbols. The password may be a combination of words of different types. Further, the password may be determined at the user's will, or may be a group of words randomly generated by the usage authentication server 14, for example.

また、以上説明した第1および第2の実施形態の全部又は一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。   A program for realizing all or part of the functions of the first and second embodiments described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in a computer system. The processing of each unit may be performed by reading and executing.

「コンピュータシステム」の例としては、例えば、CPU(Central Processing Unit)を挙げることができる。   An example of a “computer system” is a CPU (Central Processing Unit), for example.

「コンピュータ読み取り可能な記録媒体」は、例えば、非一時的な記憶装置である。非一時的な記憶装置の例としては、例えば、光磁気ディスク、ROM(Read Only Memory)、不揮発性半導体メモリ等の可搬媒体、コンピュータシステムに内蔵されるハードディスクを挙げることができる。また、「コンピュータ読み取り可能な記録媒体」は、一時的な記憶装置であってもよい。一時的な記憶装置の例としては、例えば、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線、あるいは、コンピュータシステム内部の揮発性メモリを挙げることができる。   The “computer-readable recording medium” is, for example, a non-transitory storage device. Examples of non-temporary storage devices include a magneto-optical disk, a ROM (Read Only Memory), a portable medium such as a nonvolatile semiconductor memory, and a hard disk built in a computer system. The “computer-readable recording medium” may be a temporary storage device. As an example of a temporary storage device, for example, a communication line in the case of transmitting a program via a network such as the Internet or a communication line such as a telephone line, or a volatile memory inside a computer system can be cited.

また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, the program may be for realizing a part of the above-described functions, and may be capable of realizing the above-described functions in combination with a program already recorded in the computer system. .

以上、第1および第2の実施形態を用いて本発明を説明したが、本発明の技術的範囲は、上記各実施形態の記載に限定されない。上記各実施形態に多様な変更又は改良を加えることが可能であることは当業者にとって自明である。従って、そのような変更又は改良を加えた形態もまた本発明の技術的範囲に含まれることは説明するまでもない。また、以上説明した第1および第2の実施形態において使用される、数値や各構成の名称等は例示的なものであり適宜変更可能である。   As mentioned above, although this invention was demonstrated using 1st and 2nd embodiment, the technical scope of this invention is not limited to description of said each embodiment. It is obvious to those skilled in the art that various modifications or improvements can be added to the above embodiments. Therefore, it is needless to say that embodiments with such changes or improvements are also included in the technical scope of the present invention. The numerical values and the names of the components used in the first and second embodiments described above are illustrative and can be changed as appropriate.

1 本人認証装置
2 記憶部
3 撮影部
4 認証部
5 基準パターン情報
6 発声パターン情報
10 自動取引システム
12 現金自動預払機
14 利用者認証サーバ
16 ネットワーク
20 記憶部
22 撮影部
24 認証部
26 表示部
30 記憶部
32 制御部
40 基準パターン情報
50 発声パターン情報
DESCRIPTION OF SYMBOLS 1 Personal authentication apparatus 2 Memory | storage part 3 Image | photographing part 4 Authentication part 5 Reference pattern information 6 Speech pattern information 10 Automatic transaction system 12 Automatic teller machine 14 User authentication server 16 Network 20 Memory | storage part 22 Image | photographing part 24 Authentication part 26 Display part 30 Storage unit 32 Control unit 40 Reference pattern information 50 Speaking pattern information

Claims (5)

認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する記憶手段と、
本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影手段と、
前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証手段と
を備えることを特徴とする本人認証装置。
A reference lip shape change pattern showing a time-series change of the shape of the user's lips corresponding to a time-series change of the word in the reference password, which is a password used as a reference for authentication, and a time-series of words in the reference password Storage means for storing in advance reference pattern information including a reference face positional relationship change pattern indicating a time-series change in positional relationship between the lips and a specific part of the user's face corresponding to a change;
Photographing means for photographing the face of the user who speaks the utterance password, which is a password for authenticating the person, and outputting the photographed image;
From the captured image, a utterance lip shape change pattern for the utterance password corresponding to the reference lip shape change pattern, and a utterance face position relationship change pattern for the utterance password corresponding to the reference face position relationship change pattern. Generating utterance pattern information, comparing the reference pattern information with the utterance pattern information, the reference lip shape change pattern and the utterance lip shape change pattern match, and the reference face position change pattern and the utterance face And a means for authenticating that the user is the person when the position change pattern matches.
前記特定部位との位置関係は、前記唇と前記唇以外の前記利用者の顔の特定部位との距離、および前記唇と複数の前記特定部位とで形成される領域の面積のうちの少なくとも一方であることを特徴とする請求項1記載の本人認証装置。   The positional relationship with the specific part is at least one of a distance between the lips and a specific part of the user's face other than the lips, and an area of a region formed by the lips and the specific parts. The personal authentication apparatus according to claim 1, wherein: 認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶し、
本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力し、
前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、
前記基準パターン情報と前記発声パターン情報とを比較し、
前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する
ことを特徴とする本人認証方法。
A reference lip shape change pattern showing a time-series change of the shape of the user's lips corresponding to a time-series change of the word in the reference password, which is a password used as a reference for authentication, and a time-series of words in the reference password Reference pattern information including a reference face positional relationship change pattern indicating a time-series change in positional relationship between the lips and a specific part of the user's face corresponding to a change is stored in advance,
Take a picture of the face of the user who speaks the utterance password, which is the password for authenticating the person, and output it as a shot image.
From the captured image, a utterance lip shape change pattern for the utterance password corresponding to the reference lip shape change pattern, and a utterance face position relationship change pattern for the utterance password corresponding to the reference face position relationship change pattern. Generate utterance pattern information including
Comparing the reference pattern information and the utterance pattern information;
When the reference lip shape change pattern matches the utterance lip shape change pattern, and the reference face position change pattern and the utterance face position change pattern match, the user is authenticated as the person. The person authentication method.
本人認証装置のコンピュータに、
認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する記憶処理と、
本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影処理と、
前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証処理と
を実行させるための本人認証制御プログラム。
In the computer of the personal authentication device,
A reference lip shape change pattern showing a time-series change of the shape of the user's lips corresponding to a time-series change of the word in the reference password, which is a password used as a reference for authentication, and a time-series of words in the reference password A storage process for storing in advance reference pattern information including a reference face positional relationship change pattern indicating a time-series change in positional relationship between the lips and a specific part of the user's face corresponding to a change;
Shooting process that captures the face of the user who speaks the utterance password, which is a password for authenticating the person, and outputs the photographed image,
From the captured image, a utterance lip shape change pattern for the utterance password corresponding to the reference lip shape change pattern, and a utterance face position relationship change pattern for the utterance password corresponding to the reference face position relationship change pattern. Generating utterance pattern information, comparing the reference pattern information with the utterance pattern information, the reference lip shape change pattern and the utterance lip shape change pattern match, and the reference face position change pattern and the utterance face A personal authentication control program for executing authentication processing for authenticating that the user is the user when the position change pattern matches.
利用者認証サーバと現金自動預払機とを備える自動取引システムであって、
利用者認証サーバは、
認証の基準となるパスワードである基準パスワードにおけるワードの時系列的変化に対応した、利用者の唇の形状の時系列的変化を示す基準唇形状変化パターンと、前記基準パスワードにおけるワードの時系列的変化に対応した、前記唇と前記利用者の顔の特定部位との位置関係の時系列的変化を示す基準顔位置関係変化パターンと、を含む基準パターン情報を、予め記憶する第1記憶手段を備え、
前記現金自動預払機は、
前記利用者認証サーバから受信した前記基準パターン情報を記憶する第2記憶手段と、
本人を認証するためのパスワードである発声パスワードを発声する利用者の顔を撮影し、撮影画像として出力する撮影手段と、
前記撮影画像から、前記基準唇形状変化パターンに相当する前記発声パスワードについての発声唇形状変化パターンと、前記基準顔位置関係変化パターンに相当する前記発声パスワードについての発声顔位置関係変化パターンと、を含む発声パターン情報を生成し、前記基準パターン情報と前記発声パターン情報とを比較し、前記基準唇形状変化パターンと前記発声唇形状変化パターンとが一致し且つ前記基準顔位置変化パターンと前記発声顔位置変化パターンとが一致した場合に前記利用者が本人であると認証する認証手段と
を備えることを特徴とする自動取引システム。
An automatic transaction system comprising a user authentication server and an automatic teller machine,
User authentication server
A reference lip shape change pattern showing a time-series change of the shape of the user's lips corresponding to a time-series change of the word in the reference password, which is a password used as a reference for authentication, and a time-series of words in the reference password First storage means for storing in advance reference pattern information including a reference face positional relationship change pattern indicating a time-series change in positional relationship between the lips and a specific part of the user's face corresponding to a change; Prepared,
The automatic teller machine is
Second storage means for storing the reference pattern information received from the user authentication server;
Photographing means for photographing the face of the user who speaks the utterance password, which is a password for authenticating the person, and outputting the photographed image;
From the captured image, a utterance lip shape change pattern for the utterance password corresponding to the reference lip shape change pattern, and a utterance face position relationship change pattern for the utterance password corresponding to the reference face position relationship change pattern. Generating utterance pattern information, comparing the reference pattern information with the utterance pattern information, the reference lip shape change pattern and the utterance lip shape change pattern match, and the reference face position change pattern and the utterance face An automatic transaction system comprising: authentication means for authenticating that the user is the person when the position change pattern matches.
JP2014042283A 2014-03-05 2014-03-05 Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system Pending JP2015169977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014042283A JP2015169977A (en) 2014-03-05 2014-03-05 Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014042283A JP2015169977A (en) 2014-03-05 2014-03-05 Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system

Publications (1)

Publication Number Publication Date
JP2015169977A true JP2015169977A (en) 2015-09-28

Family

ID=54202704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014042283A Pending JP2015169977A (en) 2014-03-05 2014-03-05 Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system

Country Status (1)

Country Link
JP (1) JP2015169977A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190049401A (en) * 2017-10-31 2019-05-09 바이두 유에스에이 엘엘씨 Identity authentication method, terminal equipment and computer readable storage medium
CN110020580A (en) * 2018-01-08 2019-07-16 三星电子株式会社 Identify the method for object and facial expression and the method for training facial expression
JP2020149121A (en) * 2019-03-11 2020-09-17 Necソリューションイノベータ株式会社 Personal authentication device, personal authentication method, program, and recording medium
CN111684459A (en) * 2019-07-18 2020-09-18 深圳海付移通科技有限公司 Identity authentication method, terminal equipment and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190049401A (en) * 2017-10-31 2019-05-09 바이두 유에스에이 엘엘씨 Identity authentication method, terminal equipment and computer readable storage medium
KR102063037B1 (en) * 2017-10-31 2020-01-07 바이두 유에스에이 엘엘씨 Identity authentication method, terminal equipment and computer readable storage medium
US10635893B2 (en) 2017-10-31 2020-04-28 Baidu Usa Llc Identity authentication method, terminal device, and computer-readable storage medium
CN110020580A (en) * 2018-01-08 2019-07-16 三星电子株式会社 Identify the method for object and facial expression and the method for training facial expression
JP2019121374A (en) * 2018-01-08 2019-07-22 三星電子株式会社Samsung Electronics Co.,Ltd. Facial expression recognition method, object recognition method, facial expression recognition apparatus, facial expression training method
JP7097801B2 (en) 2018-01-08 2022-07-08 三星電子株式会社 Facial expression recognition method, object recognition method, facial expression recognition device and facial expression training method
CN110020580B (en) * 2018-01-08 2024-06-04 三星电子株式会社 Method for identifying object and facial expression and method for training facial expression
JP2020149121A (en) * 2019-03-11 2020-09-17 Necソリューションイノベータ株式会社 Personal authentication device, personal authentication method, program, and recording medium
CN111684459A (en) * 2019-07-18 2020-09-18 深圳海付移通科技有限公司 Identity authentication method, terminal equipment and storage medium

Similar Documents

Publication Publication Date Title
US11783018B2 (en) Biometric authentication
US10482230B2 (en) Face-controlled liveness verification
KR101997371B1 (en) Identity authentication method and apparatus, terminal and server
CN104574088B (en) The method and apparatus of payment authentication
US20210089635A1 (en) Biometric identity verification and protection software solution
US20140380446A1 (en) Method and apparatus for protecting browser private information
US9716593B2 (en) Leveraging multiple biometrics for enabling user access to security metadata
US20190286798A1 (en) User authentication method using face recognition and device therefor
US8983207B1 (en) Mitigating replay attacks using multiple-image authentication
JP2007135149A (en) Mobile portable terminal
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
EP3001343B1 (en) System and method of enhanced identity recognition incorporating random actions
WO2017170384A1 (en) Biodata processing device, biodata processing system, biodata processing method, biodata processing program, and recording medium for storing biodata processing program
JP2006235718A (en) Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
WO2019074366A8 (en) Authentication of a person using a virtual identity card
US11711215B2 (en) Methods, systems, and media for secure authentication of users based on a biometric identifier and knowledge-based secondary information
KR20180092775A (en) Method and apparatus for authenticating user
CN109034029A (en) Detect face identification method, readable storage medium storing program for executing and the electronic equipment of living body
JP6267025B2 (en) Communication terminal and communication terminal authentication method
JP2015169977A (en) Personal authentication device, personal authentication method, personal authentication program, and automatic transaction system
JP7229824B2 (en) Authentication system and authentication method
JP2017044778A (en) Authentication device
US11128620B2 (en) Online verification method and system for verifying the identity of a subject
JP7248348B2 (en) Face authentication device, face authentication method, and program
WO2023073838A1 (en) Authentication device, authentication system, authentication method, and non-transitory computer-readable medium