JP2018504703A - Biometric detection of face - Google Patents

Biometric detection of face Download PDF

Info

Publication number
JP2018504703A
JP2018504703A JP2017535830A JP2017535830A JP2018504703A JP 2018504703 A JP2018504703 A JP 2018504703A JP 2017535830 A JP2017535830 A JP 2017535830A JP 2017535830 A JP2017535830 A JP 2017535830A JP 2018504703 A JP2018504703 A JP 2018504703A
Authority
JP
Japan
Prior art keywords
illumination
subject
illuminator
face
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017535830A
Other languages
Japanese (ja)
Other versions
JP2018504703A5 (en
Inventor
マーティン・ブライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security USA LLC
Original Assignee
MorphoTrust USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MorphoTrust USA LLC filed Critical MorphoTrust USA LLC
Publication of JP2018504703A publication Critical patent/JP2018504703A/en
Publication of JP2018504703A5 publication Critical patent/JP2018504703A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

顔の生体性を検出するための方法、システム、およびコンピュータ可読記憶媒体を提供する。実施形態のアクションは、対象物の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を処理することと、特定された第1と第2の角膜反射に基づいて対象物の角膜反射の変化を特定することと、対象物の特定された角膜反射の変化を第1と第2の時点に関連付けられた既知の変化と比較することと、比較の結果に基づいて対象者の顔の生体性を判定することと、を含む。既知の変化は、カメラ装置のモーションまたは照明器の照射変化であり得る。【選択図】図5Methods, systems, and computer-readable storage media for detecting facial biological properties are provided. The action of the embodiment processes the first and second facial images of the subject acquired at first and second successive time points to identify the first and second corneal reflections of the subject. Identifying a change in the corneal reflection of the object based on the identified first and second corneal reflections, and associating the specified change in the corneal reflection of the object with the first and second time points Comparing with the known changes made, and determining the biological properties of the face of the subject based on the results of the comparison. The known change may be a camera device motion or a illuminator illumination change. [Selection] Figure 5

Description

[関連出願の相互参照]
本出願は、2014年12月31日に出願された米国仮特許出願第62/098,575号、および2014年12月31日に出願された米国仮特許出願第62/098,596号の米国特許法第119条(e)項に基づく優先権を主張するものであり、その全内容は、参照により本明細書に組み込まれる。
[Cross-reference of related applications]
This application is based on US provisional application 62 / 098,575 filed December 31, 2014 and US provisional patent application 62 / 098,596 filed December 31, 2014. Claims priority under 35 USC 119 (e), the entire contents of which are hereby incorporated by reference.

本開示は、広くは、コンピュータベースの認証に関するものである。   The present disclosure relates generally to computer-based authentication.

コンシューマとマーチャントとの取引は、個人情報の盗難、個人情報の不正使用、なりすまし、フィッシングなどのリスクにさらされることがあり、それらはいずれも商取引の流れを妨げる可能性があり得る。   Transactions between consumers and merchants can be exposed to risks such as theft of personal information, unauthorized use of personal information, impersonation, and phishing, all of which can hinder the flow of business transactions.

本開示の実施形態は、顔の生体性を検出するためのコンピュータ実現による方法を含む。いくつかの実施形態では、この方法のアクションは、対象物の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を処理することと、特定された第1と第2の角膜反射に基づいて対象物の角膜反射の変化を特定することと、対象物の特定された角膜反射の変化を第1と第2の時点に関連付けられた既知の変化と比較することと、比較の結果に基づいて対象者の顔の生体性を判定することと、を含む。既知の変化は、カメラ装置のモーションまたは照明器の照射変化であり得る。   Embodiments of the present disclosure include a computer-implemented method for detecting facial vitality. In some embodiments, the method actions include the first and second of the subjects acquired at the first and second consecutive time points to identify the first and second corneal reflections of the object. Processing two face images, identifying a change in corneal reflection of the object based on the identified first and second corneal reflections, and first identifying a change in corneal reflection of the object. And comparing with a known change associated with the second time point, and determining the biological nature of the subject's face based on the result of the comparison. The known change may be a camera device motion or a illuminator illumination change.

本開示の実施形態は、さらに、顔の生体性を検出するためのコンピュータ実現による方法を含むことができ、この方法のアクションは、対象物の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を処理することと、特定された第1と第2の角膜反射に基づいて対象物の角膜反射の変化を特定することと、対象物の特定された角膜反射の変化を第1と第2の時点に関連付けられたモーションと比較することと、比較の結果に基づいて対象者の顔の生体性を判定することと、を含む。   Embodiments of the present disclosure can further include a computer-implemented method for detecting facial biologicalness, wherein the method action is to identify the first and second corneal reflections of the object. , Processing the first and second facial images of the subject acquired at the first and second successive time points, and the corneal reflection of the object based on the identified first and second corneal reflections Identifying a change in the subject, comparing the identified change in corneal reflection of the object with the motion associated with the first and second time points, and the biological properties of the subject's face based on the comparison result Determining.

これらおよび他の実施形態はそれぞれ、オプションとして、以下の特徴の1つ以上を含むことができる。対象物の特定された角膜反射の変化をモーションと比較することは、対象物の特定された角膜反射の変化をモーションと相関させることと、その相関の結果に基づいてマッチング品質をスコア付けすることと、スコア付けされたマッチング品質を所定の閾値と比較することと、を含む。対象者の顔の生体性を判定することは、スコア付けされたマッチング品質が所定の閾値を超えていると判定したことに応じて、対象者の顔が生体であると判定することを含む。それらのアクションは、さらに、特定された第1の角膜反射およびモーションに基づいて第2の時点での対象物の予想角膜反射を決定することと、予想角膜反射と特定された第2の角膜反射との一致度(likelihood)を特定することによって対象者の顔の生体性を評価することと、を含む。   Each of these and other embodiments can optionally include one or more of the following features. Comparing an object's identified corneal reflection change with motion correlates the object's identified corneal reflection change with motion and scores matching quality based on the results of the correlation And comparing the scored matching quality with a predetermined threshold. Determining the biological nature of the subject's face includes determining that the subject's face is a living body in response to determining that the scored matching quality exceeds a predetermined threshold. The actions further determine an expected corneal reflection of the object at the second time point based on the identified first corneal reflection and motion, and a second corneal reflection identified as the expected corneal reflection. And evaluating the biological properties of the subject's face by specifying the degree of coincidence (likelihood).

いくつかの実施形態では、対象物の角膜反射の変化として、対象物の角膜反射の位置の変化が含まれる。モーションは、第1と第2の位置の間での対象物の動きと関連付けることができ、対象物が第1の位置にある第1の時点で第1の顔画像を取得することができ、対象物が第2の位置にある第2の時点で第2の顔画像を取得することができる。それらのアクションは、さらに、センサで測定された対象物の動きの情報を受け取ることと、受け取った対象物の動きの情報に基づいてモーションを特定することと、を含むことができる。場合によっては、それらのアクションは、対象物を動かすように対象者に指示することを含む。場合によっては、対象物の動きは、対象者の自然な動作に関連付けられる。   In some embodiments, the change in the corneal reflection of the object includes a change in the position of the corneal reflection of the object. The motion can be associated with the movement of the object between the first and second positions, a first facial image can be obtained at a first time when the object is at the first position, The second face image can be acquired at a second time point when the object is at the second position. The actions may further include receiving information on the movement of the object measured by the sensor and identifying motion based on the received information on the movement of the object. In some cases, these actions include instructing the subject to move the object. In some cases, the movement of the object is associated with the natural movement of the subject.

それらのアクションは、コンピューティングデバイスに含まれ得る1つ以上のプロセッサで実行される。コンピューティングデバイスは、対象物とセンサとを備えることができ、対象物はカメラ装置とすることができ、センサは、加速度計、ジャイロスコープ、またはグローバルポジショニングシステム(GPS)のうちの少なくとも1つを含み得る。それらのアクションは、さらに、センサを用いることにより、対象物が動いていることを確認することと、対象者の顔画像を撮影するようにカメラ装置に要求することと、を含み得る。   Those actions are performed by one or more processors that may be included in the computing device. The computing device can comprise an object and a sensor, the object can be a camera device, and the sensor comprises at least one of an accelerometer, a gyroscope, or a global positioning system (GPS). May be included. These actions may further include using a sensor to confirm that the object is moving and requesting the camera device to take a face image of the subject.

いくつかの例では、モーションは、対象物についての所定のモーションであり、対象物は、その所定のモーションに基づいて第1の位置から第2の位置に動かされる。いくつかの例では、第1と第2の顔画像は、対象物が動くときに静止している第2の対象物を含み、それらのアクションは、さらに、第1と第2の顔画像における第2の対象物の位置変化に基づいてモーションを特定することを含む。   In some examples, the motion is a predetermined motion for the object, and the object is moved from a first position to a second position based on the predetermined motion. In some examples, the first and second facial images include a second object that is stationary as the object moves, and the actions are further in the first and second facial images. Identifying a motion based on a change in position of the second object.

それらのアクションは、対象物を動かすことをコントローラに指示するコマンドを、対象物に結合されたコントローラに伝送することを含み得る。そのコマンドは、対象物についての所定のモーションを含むことができ、その所定のモーションは、対象物についての前の所定のモーションとは異なる。   Those actions may include transmitting a command to the controller coupled to the object to instruct the controller to move the object. The command can include a predetermined motion for the object, which is different from a previous predetermined motion for the object.

いくつかの実施形態では、それらアクションは、第1と第2の時点を含む連続的な時点で対象者の顔画像を取得することを指示するコマンドをカメラ装置に伝送することと、取得された顔画像をカメラ装置から受け取ることと、を含む。取得された顔画像をカメラ装置から受け取ることは、取得された顔画像を含むビデオストリームフィードをカメラ装置から受け取ることを含み得る。いくつかの例では、カメラ装置は、第1の時点と第2の時点の間で第1の位置から第2の位置に動かされる。カメラ装置が第1の位置にある第1の時点で対象者の第1の顔画像を取得し、カメラ装置が第2の位置にある第2の時点で対象者の第2の顔画像を取得し、そのモーションは、第1と第2の位置の間でのカメラ装置の動きに基づいている。いくつかの例では、それらのアクションは、第1と第2の時点で対象物を動かすことをコントローラに指示する第2のコマンドを、対象物に結合されたコントローラに伝送することを含み、そのモーションは、カメラ装置の動きおよび対象物の動きに基づいている。   In some embodiments, the actions are obtained by transmitting a command to the camera device indicating to obtain the subject's face image at successive time points including the first and second time points. Receiving a face image from the camera device. Receiving the acquired face image from the camera device may include receiving a video stream feed including the acquired face image from the camera device. In some examples, the camera device is moved from a first position to a second position between a first time point and a second time point. The first face image of the subject is acquired at a first time point when the camera device is at the first position, and the second face image of the subject person is acquired at the second time point when the camera device is at the second position. The motion is based on the movement of the camera device between the first and second positions. In some examples, the actions include transmitting to the controller coupled to the object a second command that instructs the controller to move the object at the first and second time points, The motion is based on the movement of the camera device and the movement of the object.

対象物は、カメラ装置、照明装置、または周囲環境よりも明るい物体のうちの1つを含み得る。対象物の角膜反射の変化として、第1と第2の角膜反射における対象物上の第1の照射変化を含むことができる。場合によっては、それらのアクションは、さらに、第1と第2の時点について対象物上の第2の照射変化を得ることと、対象物上で得られた第2の照射変化と、第1と第2の角膜反射における第1の照射変化と、の間のマッチング品質を特定することと、を含む。対象者の顔の生体性を判定することは、特定されたマッチング品質および比較の結果に基づいて対象者の顔の生体性を判定することを含み得る。   The object may include one of a camera device, a lighting device, or an object that is brighter than the surrounding environment. The change in the corneal reflection of the object can include a first irradiation change on the object in the first and second corneal reflections. In some cases, the actions further include obtaining a second illumination change on the object for the first and second time points, a second illumination change obtained on the object, Identifying a matching quality between the first illumination change in the second corneal reflection. Determining the biologicalness of the subject's face may include determining the biologicalness of the subject's face based on the identified matching quality and the result of the comparison.

それらのアクションは、バイオメトリック認証のために生体性検証を利用することを対象者が選択したと判断することを含み得る。それらのアクションは、さらに、アイデンティティ・プロバイダのコンピューティングデバイスに対して、アイデンティティ・プロバイダとは異なるリライング・パーティによって管理されるアカウントにアクセスするための対象者の認証要求を送信することを含むことができ、その認証要求は、対象者のバイオメトリックデータ、および対象者の顔の確認された生体性を含む。   Those actions may include determining that the subject has selected to utilize biometric verification for biometric authentication. Those actions may further include sending a subject authentication request to the identity provider's computing device to access an account managed by a relying party different from the identity provider. The authentication request may include the subject's biometric data and the confirmed biometrics of the subject's face.

本開示の実施形態は、さらに、顔の生体性を検出するためのコンピュータ実現による方法を含むことができ、この方法のアクションは、対象者の顔の第1と第2の姿勢を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を処理することと、特定された第1と第2の姿勢に基づいて顔の姿勢の変化を特定することと、顔の姿勢の特定された変化を第1と第2の時点に関連付けられたモーションと比較することと、比較の結果に基づいて対象者の顔の生体性を判定することと、を含む。   Embodiments of the present disclosure can further include a computer-implemented method for detecting the biological nature of a face, and the actions of the method are for identifying first and second postures of a subject's face. And processing the first and second face images of the subject acquired at the first and second consecutive time points, and changing the face posture based on the identified first and second postures. Identifying the change in face orientation with the motion associated with the first and second time points, and determining the biological nature of the subject's face based on the comparison result And including.

これらおよび他の実施形態はそれぞれ、オプションとして、以下の特徴の1つ以上を含むことができる。顔の姿勢の特定された変化をモーションと比較することは、顔の姿勢の特定された変化をモーションと相関させることと、その相関の結果に基づいてマッチング品質をスコア付けすることと、スコア付けされたマッチング品質を所定の閾値と比較することと、を含む。対象者の顔の生体性を判定することは、スコア付けされたマッチング品質が所定の閾値を超えていると判定したことに応じて、対象者の顔が生体であると判定することを含む。顔の第1と第2の姿勢を特定することは、顔の少なくとも1つの顔ランドマークを特定することを含み得る。   Each of these and other embodiments can optionally include one or more of the following features. Comparing identified changes in facial pose with motion correlates the identified changes in facial pose with motion, scoring matching quality based on the results of the correlation, and scoring Comparing the matched matching quality with a predetermined threshold. Determining the biological nature of the subject's face includes determining that the subject's face is a living body in response to determining that the scored matching quality exceeds a predetermined threshold. Identifying the first and second poses of the face may include identifying at least one facial landmark of the face.

いくつかの例では、それらのアクションは、特定された第1の姿勢およびモーションに基づいて第2の時点での顔の姿勢を計算することと、計算された顔の姿勢と第2の顔画像から特定された顔の第2の姿勢との一致度を特定することによって顔の生体性を評価することと、を含む。   In some examples, the actions include calculating a face pose at a second time point based on the identified first pose and motion, and calculating the calculated face pose and second face image. And evaluating the biometricity of the face by specifying the degree of coincidence with the second posture of the face specified from the above.

モーションは、顔と、対象者の顔画像を撮影するように構成されたカメラ装置との相対的な動きと関連付けることができる。いくつかの例では、それらのアクションは、対象者の顔に対して相対的にカメラ装置を動かすよう対象者に指示することを含む。いくつかの例では、それらのアクションは、センサで測定されたカメラ装置の動きの情報を受け取ることと、受け取ったカメラ装置の動きの情報に基づいてモーションを特定することと、を含む。   Motion can be associated with relative movement of the face and a camera device configured to capture a face image of the subject. In some examples, the actions include instructing the subject to move the camera device relative to the subject's face. In some examples, the actions include receiving camera device movement information measured by a sensor and identifying motion based on the received camera device movement information.

それらのアクションは、コンピューティングデバイスに含まれ得る1つ以上のプロセッサで実行され、コンピューティングデバイスは、カメラ装置とセンサとを備えることができ、センサは、加速度計、ジャイロスコープ、またはグローバルポジショニングシステム(GPS)のうちの少なくとも1つを含む。   Those actions are performed by one or more processors that may be included in the computing device, which may comprise a camera device and a sensor, the sensor being an accelerometer, gyroscope, or global positioning system. Including at least one of (GPS).

本開示の実施形態は、さらに、顔の生体性を検出するためのコンピュータ実現による方法を提供することができ、この方法のアクションは、対象者に隣接した照明器の角膜反射を特定するために、ある時点で取得した対象者の顔画像を処理することと、その時点の照明器の照射に基づいて照明器の予想角膜反射を決定することと、比較結果を得るために、照明器の特定された角膜反射を照明器の予想角膜反射と比較することと、比較結果に基づいて対象者の顔の生体性を判定することと、を含む。   Embodiments of the present disclosure can further provide a computer-implemented method for detecting facial vitality, where the action of the method is to identify a corneal reflection of an illuminator adjacent to the subject. Processing the facial image of the subject acquired at a certain point in time, determining the expected corneal reflection of the illuminator based on the illumination of the illuminator at that point, and identifying the illuminator to obtain a comparison result Comparing the performed corneal reflection with the expected corneal reflection of the illuminator and determining the biological properties of the subject's face based on the comparison result.

これらおよび他の実施形態はそれぞれ、オプションとして、以下の特徴の1つ以上を含むことができる。照明器の特定された角膜反射を照明器の予想角膜反射と比較することは、照明器の特定された角膜反射を照明器の予想角膜反射と相関させることと、その相関の結果に基づいてマッチング品質をスコア付けすることと、スコア付けされたマッチング品質を所定の閾値と比較することと、を含み得る。対象者の顔の生体性を判定することは、スコア付けされたマッチング品質が所定の閾値を超えていると判定したことに応じて、対象者の顔が生体であると判定することを含み得る。照明器の角膜反射を特定することは、照明器の角膜反射を、色、形状、位置、またはパターンのうちの少なくとも1つで特定することを含み得る。   Each of these and other embodiments can optionally include one or more of the following features. Comparing the illuminator's specified corneal reflection with the illuminator's expected corneal reflection correlates the illuminator's specified corneal reflection with the illuminator's expected corneal reflection and matches based on the result of the correlation Scoring the quality and comparing the scored matching quality to a predetermined threshold. Determining the biological nature of the subject's face can include determining that the subject's face is a living body in response to determining that the scored matching quality exceeds a predetermined threshold. . Identifying the corneal reflection of the illuminator may include identifying the corneal reflection of the illuminator by at least one of color, shape, position, or pattern.

それらのアクションは、照射パターンに基づいて照射するように照明器を作動させることを含み得る。いくつかの例では、それらのアクションは、照明器の照射パターンを生成することを含む。いくつかの例では、照明器を作動させることは、バイオメトリック認証のために生体性検証を利用することを対象者が選択したと判断したことに応じて、照明器を作動させることを含む。   Those actions may include actuating the illuminator to illuminate based on the illumination pattern. In some examples, these actions include generating an illumination pattern for the illuminator. In some examples, activating the illuminator includes activating the illuminator in response to determining that the subject has selected to utilize biometric verification for biometric authentication.

照明器は、それぞれ個々の位置で個々の色を有する2つ以上の照明源を含み得る。いくつかの実施形態では、照明器の照射は、2つ以上の照明源の時間的照射パターンに基づいている。2つ以上の照明源は、それぞれ個々の持続時間でバースト照射を生成することができる。2つ以上の照明源のうちの少なくとも1つは、異なる持続時間の異なる照射形状を有し得る。いくつかの実施形態では、照明器の照射は、2つ以上の照明源の空間的照射パターンに基づいている。2つ以上の照明源の各々は、照射オン状態または照射オフ状態を有し得る。   The illuminator may include two or more illumination sources, each having an individual color at an individual location. In some embodiments, illumination of the illuminator is based on temporal illumination patterns of two or more illumination sources. Two or more illumination sources can each produce burst illumination with an individual duration. At least one of the two or more illumination sources may have different illumination shapes with different durations. In some embodiments, illumination of the illuminator is based on spatial illumination patterns of two or more illumination sources. Each of the two or more illumination sources may have an illumination on state or an illumination off state.

いくつかの例では、照明器は、それぞれ個々の光波長の1つ以上の物理光源を含む。いくつかの例では、照明器は、個々の照明色を提供するように画面上に表示される1つ以上のデジタル照明源を含む。それらのアクションは、デジタル照明源を生成することを含み得る。照明器からの照射が対象者の眼に斜めに入射するように、照明器を位置決めすることができる。それらのアクションは、照明器と対象者の眼との相対位置を変化させるように対象者に指示することを含み得る。   In some examples, the illuminator includes one or more physical light sources, each of an individual light wavelength. In some examples, the illuminator includes one or more digital illumination sources that are displayed on the screen to provide individual illumination colors. Those actions may include generating a digital illumination source. The illuminator can be positioned such that irradiation from the illuminator is incident obliquely on the subject's eyes. Those actions may include instructing the subject to change the relative position of the illuminator and the subject's eye.

それらのアクションは、カメラ装置からのビデオストリームフィードの少なくとも一部を受け取ることを含むことができ、ビデオストリームフィードのその部分は、カメラ装置によって連続的な時点で撮影された対象者の顔画像を含む。それらのアクションは、さらに、照明器の第2の角膜反射を特定するために、第1の顔画像の時点に連続的な第2の時点で取得された対象者の第2の顔画像を処理することと、第1の照射とは異なる第2の時点での照明器の第2の照射に基づいて照明器の第2の予想角膜反射を決定することと、第2の比較結果を得るために、照明器の特定された第2の角膜反射を照明器の第2の予想角膜反射と比較することと、比較結果および第2の比較結果に基づいて対象者の顔の生体性を判定することと、を含み得る。   Those actions can include receiving at least a portion of the video stream feed from the camera device, which portion of the video stream feed captures the face image of the subject taken at successive points in time by the camera device. Including. The actions further process the second face image of the subject acquired at a second time point that is continuous to the time point of the first face image to identify a second corneal reflection of the illuminator. To determine a second expected corneal reflection of the illuminator based on a second illumination of the illuminator at a second time point different from the first illumination, and to obtain a second comparison result And comparing the identified second corneal reflection of the illuminator with the second expected corneal reflection of the illuminator and determining the biological properties of the face of the subject based on the comparison result and the second comparison result Can be included.

それらのアクションは、対象者の顔の確認された生体性を、アイデンティティ・プロバイダのコンピューティングデバイスに送信することを含み得る。それらのアクションは、さらに、アイデンティティ・プロバイダのコンピューティングデバイスに対して、アイデンティティ・プロバイダとは異なるリライング・パーティによって管理されるアカウントにアクセスするための対象者の認証要求を送信することを含むことができ、その認証要求は、対象者のバイオメトリックデータ、および対象者の顔の確認された生体性を含む。   Those actions may include sending the confirmed biometrics of the subject's face to the identity provider's computing device. Those actions may further include sending a subject authentication request to the identity provider's computing device to access an account managed by a relying party different from the identity provider. The authentication request may include the subject's biometric data and the confirmed biometrics of the subject's face.

本開示の実施形態は、さらに、顔の生体性を検出するためのコンピュータ実現による方法を提供することができ、この方法のアクションは、対象者に隣接した照明器の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点でそれぞれ取得した対象者の第1と第2の顔画像を処理することと、特定された第1と第2の角膜反射に基づいて照明器の角膜反射の変化を特定することと、照明器の特定された角膜反射の変化を第1と第2の連続的な時点に関連付けられた照明器の照射変化と比較することと、比較の結果に基づいて対象者の顔の生体性を判定することと、を含む。   Embodiments of the present disclosure can further provide a computer-implemented method for detecting facial biologicalness, the action of which includes the first and second corneas of the illuminator adjacent to the subject. In order to identify the reflection, processing the first and second face images of the subject acquired at the first and second consecutive time points respectively, and the identified first and second corneal reflections Identifying a change in the corneal reflection of the illuminator based on, and comparing the identified change in the corneal reflection of the illuminator with an illumination change of the illuminator associated with the first and second successive time points; , And determining the biological property of the face of the subject based on the result of the comparison.

これらおよび他の実施形態はそれぞれ、オプションとして、以下の特徴の1つ以上を含むことができる。それらのアクションは、照射変化に基づいて照明器の照射を変化させるように照明器を作動させることを含み得る。照明器の照射変化として、照明色の変化、照射形状の変化、照射位置の変化、照射オン/オフ状態の変化、または照射持続時間の変化のうちの少なくとも1つを含むことができる。照明器の角膜反射の変化を特定することは、照明器の角膜反射の変化を、色、形状、位置、オン/オフ状態、または持続時間のうちの少なくとも1つで特定することを含み得る。   Each of these and other embodiments can optionally include one or more of the following features. Those actions may include actuating the illuminator to change the illumination of the illuminator based on the illumination change. The illumination change of the illuminator may include at least one of a change in illumination color, a change in irradiation shape, a change in irradiation position, a change in irradiation on / off state, or a change in irradiation duration. Identifying the illuminator corneal reflection change may include identifying the illuminator corneal reflection change by at least one of color, shape, position, on / off state, or duration.

照明器は、それぞれ個々の光波長の1つ以上の物理光源、または個々の照明色を提供するように画面上に表示される1つ以上のデジタル照明源、のうちの少なくとも1つを含み得る。いくつかの実施形態では、照明器は、それぞれ第1と第2の位置で第1と第2の色を有する第1と第2の照明源を含む。いくつかの例では、照明器の照射変化として、第1と第2の照明源の時間的照射パターンの変化を含み、第1と第2の照明源は、それぞれ個々の持続時間でバースト照射を生成することができる。第1の照明源または第2の照明源の少なくとも一方は、異なる持続時間で照射形状が変化し得る。いくつかの例では、照明器の照射変化として、第1と第2の照明源の空間的照射パターンの経時変化を含み、第1の照明源または第2の照明源の少なくとも一方は、照射オン/オフ状態が経時変化し得る。   The illuminator may include at least one of one or more physical light sources of each individual light wavelength, or one or more digital illumination sources displayed on the screen to provide individual illumination colors. . In some embodiments, the illuminator includes first and second illumination sources having first and second colors at first and second positions, respectively. In some examples, the illumination change of the illuminator includes a change in temporal illumination pattern of the first and second illumination sources, wherein the first and second illumination sources each receive a burst illumination for an individual duration. Can be generated. At least one of the first illumination source or the second illumination source may change its illumination shape with a different duration. In some examples, the illumination change of the illuminator includes a temporal change in the spatial illumination pattern of the first and second illumination sources, and at least one of the first illumination source or the second illumination source is illuminated on / Off state can change over time.

本開示は、さらに、1つ以上のプロセッサに結合された1つ以上の非一時的なコンピュータ可読記憶媒体を提供し、これには命令が格納されており、これらの命令は、1つ以上のプロセッサで実行されることで、本明細書で提示する方法の実施形態に従ったオペレーションを、1つ以上のプロセッサに実行させる。   The present disclosure further provides one or more non-transitory computer readable storage media coupled to one or more processors, on which instructions are stored, the instructions comprising one or more Execution on a processor causes one or more processors to perform operations according to the method embodiments presented herein.

本開示は、さらに、本明細書で提示する方法を実施するためのシステムを提供する。このシステムは、1つ以上のプロセッサと、1つ以上のプロセッサに結合されたコンピュータ可読記憶媒体と、を備え、コンピュータ可読記憶媒体には命令が格納されており、これらの命令は、1つ以上のプロセッサで実行されることで、本明細書で提示する方法の実施形態に従ったオペレーションを、1つ以上のプロセッサに実行させる。   The present disclosure further provides a system for performing the methods presented herein. The system comprises one or more processors and a computer readable storage medium coupled to the one or more processors, wherein the instructions are stored in the computer readable storage medium. Are executed by one or more processors, causing one or more processors to perform operations according to the method embodiments presented herein.

本開示による方法は、本明細書に記載の態様および特徴の任意の組み合わせを含み得るものと理解される。つまり、本開示による方法は、本明細書で具体的に記載された態様および特徴の組み合わせに限定されることなく、提示される態様および特徴の任意の組み合わせも含むものである。   It is understood that the method according to the present disclosure can include any combination of the aspects and features described herein. That is, the methods according to the present disclosure are not limited to the combinations of aspects and features specifically described herein, but also include any combination of the presented aspects and features.

本開示の1つ以上の実施形態の詳細について、添付の図面および以下の説明に記載している。本開示の他の特徴および利点は、説明および図面、ならびに請求項から明らかになるであろう。   The details of one or more embodiments of the disclosure are set forth in the accompanying drawings and the description below. Other features and advantages of the disclosure will be apparent from the description and drawings, and from the claims.

図1Aは、いくつかの実施形態により、ユーザのバイオメトリックアイデンティティに基づいてユーザを認証することが可能なウェブサイトの例を示す図である。FIG. 1A is a diagram illustrating an example of a website that can authenticate a user based on the user's biometric identity, according to some embodiments.

図1Bは、いくつかの実施形態により、ユーザのバイオメトリックアイデンティティに基づいてユーザを認証するための、金融機関の顧客と、金融機関と、第三者バイオメトリック照合サービスと、の間のインタラクションの例を示す図である。FIG. 1B illustrates an interaction between a financial institution customer, a financial institution, and a third party biometric matching service to authenticate a user based on the user's biometric identity, according to some embodiments. It is a figure which shows an example.

図2Aは、いくつかの実施形態により、コンシューマがアイデンティティ・プロバイダに登録済みである場合に、コンシューマを認証する際の、コンシューマと、リライング・パーティと、アイデンティティ・プロバイダと、の間のインタラクションの例を示すタイミング図である。FIG. 2A illustrates an example of an interaction between a consumer, a relying party, and an identity provider when authenticating the consumer when the consumer is registered with the identity provider, according to some embodiments. FIG.

図2Bは、いくつかの実施形態により、コンシューマがアイデンティティ・プロバイダに未登録である場合に、コンシューマを認証する際の、コンシューマと、リライング・パーティと、アイデンティティ・プロバイダと、の間のインタラクションの例を示すタイミング図である。FIG. 2B illustrates an example of an interaction between a consumer, a relying party, and an identity provider when authenticating a consumer when the consumer is unregistered with the identity provider, according to some embodiments. FIG.

図3Aは、対象物の角膜反射の位置の変化を示している。FIG. 3A shows a change in the position of the corneal reflection of the object. 図3Bは、対象物の角膜反射の位置の変化を示している。FIG. 3B shows a change in the position of the corneal reflection of the object.

図4は、腕の調整によって位置が変化した対象物を示している。FIG. 4 shows an object whose position has been changed by adjusting the arm.

図5は、照明源からの角膜反射に基づく検証例を示す図である。FIG. 5 is a diagram illustrating a verification example based on corneal reflection from an illumination source.

各種図面において、類似の要素を同様の参照符号で示している。   In the various drawings, similar elements are denoted by the same reference numerals.

本人確認は、我々の日々の取引において常に課題を提示し得る。インターネットの出現によって、オンライン取引が対面取引に取って代わり得るeコマースの時代が到来する。ところが、これらのオンライン取引は膨大な量かつ複雑であることによって、例えば、個人情報の盗難、個人情報の不正使用、なりすまし、フィッシングなどの危険を伴うデジタル世界を生み出す可能性がある。特に、そのようなリスクは、インターネット時代に始まったことではないかもしれないが、インターネットが、そのようなリスクを増幅させた可能性がある。社会がクラウドコンピューティングに移行するにつれて、ますます多くのデータベースにアクセス可能になり得る。一部のデータベースのアイデンティティデータは、歴史的または伝統的に、他のものよりも信頼性およびロバスト性が高い場合がある。ユビキタスな接続性になるとともに、アクセス可能なプラットフォームでより多くのアイデンティティデータベースを利用可能になると、オンラインまたは対面のいずれかで行う取引の品質の信頼性を高めるために、そこに格納されたアイデンティティ関連データにアクセスすることができる。さらには、なりすまし攻撃を阻止するために、オンラインで提示されるバイオメトリックデータを、生体性について検証することができる。いくつかの実施形態では、生体性検証で、認証用にオンラインで提示されるバイオメトリックデータの信頼性を高めるために、リアルタイム角膜反射および/またはリアルタイム顔姿勢の分析を利用することができる。本明細書で開示する実施形態は、金融機関以外の企業体に拡張してもよい。本出願は、例えば、ネットワークを介した2者間のオンラインセッション中に、顔表現の生体性を検出するためのシステムおよび方法に関する。なお、「ライブリネス(liveliness)」と「生体性(liveness、ライブネス)」という用語は、本明細書では区別なく使用され得るということに留意すべきである。   Identity verification can always present challenges in our daily transactions. With the advent of the Internet, an e-commerce era has come where online trading can replace face-to-face trading. However, these online transactions can be enormous in volume and complexity, creating a digital world with risks such as theft of personal information, unauthorized use of personal information, impersonation, and phishing. In particular, such risks may not have begun in the Internet era, but the Internet may have amplified such risks. As society moves to cloud computing, more and more databases can become accessible. The identity data of some databases may be more reliable and robust than others, historically or traditionally. With ubiquitous connectivity and the availability of more identity databases on accessible platforms, the identity associations stored there will increase the reliability of the quality of transactions done either online or face-to-face You can access the data. Furthermore, biometric data presented online can be verified for biological properties to prevent spoofing attacks. In some embodiments, biometric verification can utilize real-time corneal reflex and / or real-time facial pose analysis to increase the reliability of biometric data presented online for authentication. The embodiments disclosed herein may be extended to business entities other than financial institutions. The present application relates to a system and method for detecting the vitality of facial expressions, for example, during an online session between two parties over a network. It should be noted that the terms “liveliness” and “liveness” can be used interchangeably herein.

図1Aは、いくつかの実施形態により、ユーザのバイオメトリックアイデンティティに基づいてユーザを認証することが可能なウェブサイトの例を示す図である。図示のように、ウェブサイトをホストするサーバで管理されるアカウントにログインするために、ユーザネームとパスワードが要求されることがある。例えば、サーバは、ハイパーテキスト転送プロトコルセキュア(https)実装を実行し得る。インターネット時代には、コンシューマユーザは、数多くのウェブサイトにアカウントを持つ場合があり、それぞれに異なるユーザネームとパスワードが必要である。コンシューマユーザは、各ウェブサイトでのユーザネームとパスワードを把握しておくのに苦労することがある。登録したユーザネームまたはパスワードが分からなくなると、オンラインアクセスの利便性が阻害される可能性がある。コンシューマユーザは、各アカウントのユーザネームとパスワードを集中ファイルに保存していることがある。ところが、その集中ファイルへのアクセスが侵害されることがあると、その中に保存されたユーザネームとパスワードの安全性は損なわれる。実際に、ユーザネームとパスワードを伴う簡単なオンラインアイデンティティは、個人情報の盗難や個人情報の不正使用に遭うことがある。最近の調査によって、米国での個人情報の盗難は、2012年で3年間増加し続けており、成人人口の5%超、すなわち1260万人がそのような犯罪の被害に遭っていることが明らかとなった。この数字は、2011年の4.9%、2010年の4.35%から上昇したものである。個人情報の盗難の発生率は、上昇していくとしか考えられない。eコマースの状況における個人情報の盗難によるリスクを軽減するために、本明細書で開示するように、いくつかの実施形態で、オンラインで提示されるユーザのバイオメトリックデータを認証することを選択する場合がある。そのようなバイオメトリックデータとして、限定するものではないが、顔パターン、指紋、掌紋、網膜スキャン、虹彩スキャン、DNAパターン、声質、歩行分析が含まれることがある。一般に、オンラインで提示されるそのようなバイオメトリックデータは、電子照合を容易とするためにデジタル形式であってよい。   FIG. 1A is a diagram illustrating an example of a website that can authenticate a user based on the user's biometric identity, according to some embodiments. As shown, a username and password may be required to log in to an account managed by a server hosting the website. For example, the server may run a hypertext transfer protocol secure (https) implementation. In the Internet era, consumer users may have accounts on many websites, each requiring a different username and password. Consumer users may have a hard time keeping track of usernames and passwords at each website. If the registered user name or password is lost, the convenience of online access may be hindered. A consumer user may store the username and password for each account in a centralized file. However, if access to the centralized file can be compromised, the security of the user name and password stored therein is compromised. In fact, simple online identities with usernames and passwords can result in theft of personal information and unauthorized use of personal information. Recent research reveals that identity theft in the United States has continued to increase for three years in 2012, with more than 5% of the adult population, or 12.6 million, suffering from such crimes It became. This figure is an increase from 4.9% in 2011 and 4.35% in 2010. The incidence of identity theft can only be expected to rise. In order to mitigate the risk of identity theft in an e-commerce situation, as disclosed herein, in some embodiments, choose to authenticate user biometric data presented online There is a case. Such biometric data may include, but is not limited to, face patterns, fingerprints, palm prints, retinal scans, iris scans, DNA patterns, voice quality, gait analysis. In general, such biometric data presented online may be in digital form to facilitate electronic verification.

図1Aに示すように、バイオメトリックログインウィンドウ102が、例えばbigbank.comを運営する組織とは異なる第三者によって提供されることがある。ユーザが、自身のバイオメトリックに基づくログインを試みると、ログインウィンドウ102に、撮影されたユーザの顔バイオメトリックが提示されることがある。ユーザのバイオメトリックデータがオンライン認証用に送信されるときに、そのバイオメトリックデータは、例えば、データ暗号化規格(DES)、トリプルDES、高度暗号化規格(AES)、Rivest−Shamir−Adleman(RSA)、オープンプリティグッドプライバシ(OpenPGP)などの業界標準に従って暗号化されることがある。いくつかの実施形態では、暗号化はセッションごとに実行してよく、その場合、攻撃を阻止するために、セッション暗号化および復号鍵は常に更新またはリフレッシュされる。   As shown in FIG. 1A, a biometric login window 102 is displayed, for example, at bigbank. com may be provided by a third party different from the organization that operates the com. When a user attempts to log in based on his / her biometric, the logged-in window 102 may be presented with the captured user's facial biometric. When a user's biometric data is sent for online authentication, the biometric data can be, for example, data encryption standard (DES), triple DES, advanced encryption standard (AES), Rivest-Shamir-Adleman (RSA). ), And may be encrypted according to industry standards such as Open Pretty Good Privacy (OpenPGP). In some embodiments, encryption may be performed on a per session basis, in which case session encryption and decryption keys are always updated or refreshed to prevent attacks.

少なくとも2つの問題が依然として残されている。第1の問題は、例えば第三者サーバである信頼できるサーバでユーザが自身のバイオメトリックを登録し得る審査プロセスに関するものである。第2の問題は、(例えば、何者かが登録ユーザのビデオまたは写真を使用して登録ユーザになりすます)なりすまし攻撃または中間者攻撃を阻止するために、オンラインで提示されるバイオメトリックの生体性を検証可能な認証プロセスに関するものである。このために、図1Bは、いくつかの実施形態により、ユーザのバイオメトリックアイデンティティに基づいてユーザを認証するための、金融機関の顧客と、金融機関と、第三者バイオメトリック照合サービスと、の間のインタラクションの例を示す図である。本明細書で開示するように、銀行を含み得る金融機関は、リライング・パーティとして知られていることもある。第三者サービスプロバイダは、アイデンティティ・プロバイダとして知られていることもある。   At least two problems still remain. The first problem relates to a review process in which a user can register his / her biometric on a trusted server, for example a third party server. The second problem is to reduce the biometric biometrics that are presented online to prevent impersonation or man-in-the-middle attacks (eg, someone impersonates a registered user using a registered user's video or photo). It relates to a verifiable authentication process. To this end, FIG. 1B illustrates, in accordance with some embodiments, of a financial institution customer, a financial institution, and a third party biometric matching service for authenticating a user based on the user's biometric identity. It is a figure which shows the example of interaction between. As disclosed herein, financial institutions that may include banks are sometimes known as relying parties. Third party service providers are sometimes known as identity providers.

金融機関の顧客104が、金融機関ウェブサイト106を介してアカウントへのアクセス(110A)を試みるときに、顧客104は、バイオメトリック認証ウィンドウ102で迎えられることがある。金融機関の顧客104は、バイオメトリック認証を用いることを選択することがある。金融機関ウェブサイト106を運営しているサーバは、顧客104がバイオメトリック認証102の利用を希望するという指示を顧客104から受けたことに応じて、バイオメトリック照合サービス108でバイオメトリックデータを用いて、ユーザの認証要求を検証(110B)し得る。いくつかの実施形態では、顧客104が、バイオメトリック照合サービス108でバイオメトリックデータを登録したことがない場合には、バイオメトリック照合サービス108は、顧客104に顧客登録(110C)させることがある。登録プロセスは、一般に、バイオメトリック照合サービス108で保存/管理されるバイオメトリックアイデンティティデータとしてのバイオメトリックデータの提供を顧客104に求めることを伴い得る。登録プロセスは、例えば州レベルの車両管理局(DMV)および連邦レベルの国務省などの他の機関でバイオメトリック照合サービスがさらに顧客104のアイデンティティを照合する審査プロセスの一部となり得る。それらの機関として、例えばEquifax、Experian、LexisNexisのような信用証明機関を含むことがある。信用証明機関は、政府管掌機関の代理としての役割を果たし得る。顧客104は、バイオメトリック照合サービスでのバイオメトリックアイデンティティ登録を取得すると、その後、バイオメトリックアイデンティティの日常的な管理(110C)を行うために、バイオメトリック照合サービス108とインタラクションしてよい。日常的な管理として、例えば、顔パターンの差し替え、現在の顔パターンの取り消しなどが含まれることがある。このように、顧客104の登録バイオメトリックデータを登録するための審査プロセスの第1の問題に対処し得る。   The customer 104 may be greeted with a biometric authentication window 102 when the financial institution customer 104 attempts to access (110A) an account via the financial institution website 106. A financial institution customer 104 may choose to use biometric authentication. The server operating the financial institution website 106 uses the biometric data in the biometric matching service 108 in response to receiving an instruction from the customer 104 that the customer 104 wishes to use the biometric authentication 102. The user's authentication request may be verified (110B). In some embodiments, if customer 104 has not registered biometric data with biometric matching service 108, biometric matching service 108 may cause customer 104 to register (110C). The registration process may generally involve asking the customer 104 to provide biometric data as biometric identity data stored / managed by the biometric matching service 108. The registration process may be part of a review process where the biometric verification service further verifies the identity of the customer 104 at other agencies such as the State Level Vehicle Administration (DMV) and the Federal Level Department of State. These institutions may include, for example, a credential authority such as Equifax, Expertian, LexisNexis. A credential authority can act as a proxy for a government agency. Once the customer 104 has obtained a biometric identity registration with the biometric matching service, the customer 104 may then interact with the biometric matching service 108 for routine management (110C) of the biometric identity. Daily management may include, for example, replacement of a face pattern, cancellation of the current face pattern, and the like. In this way, the first problem of the review process for registering registered biometric data of customer 104 may be addressed.

オンラインで提示されるバイオメトリックデータの生体性の第2の問題に関して、バイオメトリックログインウィンドウ102で、対象物(例えば、カメラ装置もしくは照明源)のリアルタイム角膜反射を分析すること、および/または顧客104からのリアルタイム顔姿勢を分析することによって、顧客104を認証してよい。本明細書で説明するように、金融機関は、顧客がその顧客の主張している本人であること、および顧客が生体の顔バイオメトリックを提示していること、を認証するために第三者を信頼し得るリライング・パーティ(RP)として一般化してよい。図1Bのバイオメトリック照合サービス108として知られる第三者は、アイデンティティ・プロバイダ(IdP)として一般化してよい。   Analyzing the real-time corneal reflection of an object (eg, camera device or illumination source) and / or customer 104 in a biometric login window 102 with respect to the second issue of biometric data presented online. The customer 104 may be authenticated by analyzing the real-time face posture from. As described herein, a financial institution is a third party to authenticate that a customer is the customer's alleged identity and that the customer is presenting a biometric facial biometric. May be generalized as a reliable party (RP). A third party known as the biometric matching service 108 of FIG. 1B may be generalized as an identity provider (IdP).

上記の一般化によって、図2Aは、いくつかの実施形態により、コンシューマがアイデンティティ・プロバイダ206に登録済みである場合に、コンシューマを認証する際の、コンシューマ202と、リライング・パーティ(RP)204と、アイデンティティ・プロバイダ(IdP)206と、の間のインタラクションの例を示すタイミング図である。このプロセスは、コンシューマ202が、リライング・パーティ204で管理されるアカウントにアクセスするために、認証要求を送信(208)することよって開始し得る。いくつかの実施形態では、認証要求の提示は、例えば金融機関で管理されるアカウントにアクセスするために、コンシューマ202がバイオメトリック認証102を選択することに相当し得る。   Due to the above generalization, FIG. 2A illustrates that according to some embodiments, the consumer 202 and the relying party (RP) 204 when authenticating a consumer when the consumer is registered with the identity provider 206. FIG. 6 is a timing diagram illustrating an example of an interaction with an identity provider (IdP) 206. This process may begin by the consumer 202 sending 208 an authentication request to access an account managed by the relying party 204. In some embodiments, presenting the authentication request may correspond to the consumer 202 selecting the biometric authentication 102, for example, to access an account managed at a financial institution.

コンシューマが認証要求を提示するときに、コンシューマは、バイオメトリック認証のための生体性検証ログインを選択(210)してもよい。生体性検証ログインでは、本明細書で開示するように、例えば、コンシューマがバイオメトリックデータを提示したときにコンシューマの顔の生体性を検証することによって、オンラインで提示されるバイオメトリックデータの生体性に対処し得る。   When the consumer submits an authentication request, the consumer may select (210) a biometric verification login for biometric authentication. Biometric verification login, as disclosed herein, for example, the biometric data biometric data presented online by verifying the biometrics of the consumer's face when the consumer presents the biometric data. Can deal with.

状況として、認証ブリッジ方式を提供するために第三者仲介を利用することは、例えばセキュリティアサーションマークアップランゲージ(SAML)および認証のオープンスタンダード(OAuth)などの業界標準に従って実施してよい。   In some cases, utilizing third party mediation to provide an authentication bridge scheme may be implemented in accordance with industry standards such as, for example, Security Assertion Markup Language (SAML) and Authentication Open Standard (OAuth).

SAMLは、ウェブブラウザ・シングルサインオン(SSO)に対処している。シングルサインオン・ソリューションは、例えばクッキーを用いて、イントラネットレベルで実施されることがある。そのようなシングルサインオン・ソリューションを、イントラネットを越えて拡張することは問題があったとともに、相互運用不可能な独自技術の拡散につながっていた。SAMLで対処するユースケースでは、(プリンシパルとしても知られる)ユーザは、(サービスプロバイダとしても知られる)リライング・パーティからのサービスを要求してよい。このとき、サービスプロバイダは、アイデンティティアサーションを要求して、アイデンティティ・プロバイダから取得する。このアイデンティティアサーションに基づいて、サービスプロバイダは、接続しているプリンシパルに対して何らかのサービスを実行するかどうかを決めるアクセス制御の判断を行うことができる。   SAML addresses web browser single sign-on (SSO). Single sign-on solutions may be implemented at the intranet level, for example using cookies. Extending such a single sign-on solution beyond the intranet has been problematic and has led to the proliferation of proprietary technologies that are not interoperable. In a use case addressed by SAML, a user (also known as a principal) may request a service from a relying party (also known as a service provider). At this time, the service provider requests and obtains an identity assertion from the identity provider. Based on this identity assertion, the service provider can make an access control decision that determines whether to perform some service on the connected principal.

(より最新のOAuth2.0を含めて)OAuthの場合には、ウェブアプリケーションは、ユーザに代わって、アプリケーションプログラムインタフェース(API)にアクセスするために、(バレットキーとしても知られる)アクセス制限のあるOAuthトークンを特に要求することがある。バレットトークンは、要求された特定の権利を明示的に指定している場合があり、ユーザはクレデンシャルを入力する必要がない場合がある。ユーザがそのアクセス権を認めることが可能であれば、ウェブアプリケーションはAPIを用いてプロファイル(アイデンティティ)を確立するための固有識別子を取得することができる。   In the case of OAuth (including the more recent OAuth 2.0), web applications have access restrictions (also known as bullet keys) to access the application program interface (API) on behalf of the user. OAuth tokens may be specifically requested. The bullet token may explicitly specify the specific rights requested, and the user may not need to enter credentials. If the user can grant the access right, the web application can use the API to obtain a unique identifier for establishing a profile (identity).

このように、認証規格は、一般に、シングルサインオンを提供する場合があり、これにより、コンシューマは、例えばコンシューマのFacebookまたはGoogleログインクレデンシャルを、典型的には同じコンシューマの他のアカウント(例えば、Amazonアカウント、LinkedInアカウントなど)にアクセスするために使用することができる。本明細書で開示するいくつかの認証方法では、例えば顔バイオメトリックであるバイオメトリックデータを用いることにより、シングル認証による本人確認を提供し得る。   As such, authentication standards may generally provide single sign-on, which allows a consumer, for example, the consumer's Facebook or Google login credentials, typically other accounts of the same consumer (eg, Amazon). Account, LinkedIn account, etc.). Some authentication methods disclosed herein may provide identity verification through single authentication, for example by using biometric data, which is facial biometric.

図2Aを参照して、リライング・パーティのサーバは、コンシューマによる生体性検証ログインの選択を受けて、生体性検証に進むようにコンシューマをリダイレクト(212)してよい。その後、コンシューマ202を、アイデンティティ・プロバイダ206のサーバにリダイレクトしてよい。例えば、コンシューマ202は、consumer@relying_party.comの形式のクレデンシャルトークンを使用することにより、生体性検証を利用するための要求を提示(214)してよい。図2Aに示すように、その要求は、アイデンティティ・プロバイダ206のサーバに提示してよい。   Referring to FIG. 2A, the relying party server may redirect (212) the consumer to proceed to biometric verification upon selection of the biometric verification login by the consumer. The consumer 202 may then be redirected to the identity provider 206 server. For example, the consumer 202 may be consumer @ relying_party. By using a credential token in the form of com, a request to utilize biometric verification may be presented (214). As shown in FIG. 2A, the request may be presented to the identity provider 206 server.

アイデンティティ・プロバイダ206のサーバは、生体性検証を利用するための要求を受け取ると、コンシューマが提示したバイオメトリックを検証するための、生体性検証による認証を実施(216)してよい。この検証は、(i)コンシューマが提示したバイオメトリックが、積極的なコンシューマ本人確認を提供することと、(ii)コンシューマがオンラインで提示したバイオメトリックが、例えばなりすまし攻撃で偽造されているものではなく新規な生体のものであることと、を含み得る。   When the identity provider 206 server receives a request to utilize biometric verification, it may perform authentication 216 with biometric verification to verify the biometric presented by the consumer. This verification is based on the fact that (i) the biometric presented by the consumer provides positive consumer identity verification, and (ii) the biometric presented by the consumer online is forged in a spoofing attack, for example. And a novel living thing.

アイデンティティ・プロバイダ206のサーバは、最初に、例えばコンシューマ202が提示したデータから顔バイオメトリックを取り出してよい。いくつかの実施形態では、コンシューマ202のコンピューティングデバイスから、取り出した顔バイオメトリックを暗号化アルゴリズムによる暗号化形式で、アイデンティティ・プロバイダ206のサーバに送信してよい。コンピューティングデバイスは、ビデオストリームフィードを提供するためのビデオ入力コンポーネントを有し得る。場合によっては、ビデオ入力コンポーネントは、ウェブカメラを含む。ビデオフィード内の画像を、例えば毎秒24フレームのフレームレートで取り込んでよい。それらのフレームは、一般に、デジタル処理のためにデジタル化される。場合によって、それらの画像は、例えば、800×600画素、1024×768画素、1152×864画素、または1280×1024画素の空間分解能であり得る。コンピューティングデバイスは、コンシューマ202の画像を取得する撮像装置(例えば、カメラ装置)を有し得る。取得された画像は、コンシューマ202の顔バイオメトリックを含み、コンピューティングデバイスによってアイデンティティ・プロバイダ206のサーバに送信することができる。   The identity provider 206 server may first retrieve the facial biometric from, for example, data presented by the consumer 202. In some embodiments, the retrieved face biometric from the computing device of consumer 202 may be sent to the identity provider 206 server in encrypted form with an encryption algorithm. The computing device may have a video input component for providing a video stream feed. In some cases, the video input component includes a webcam. Images in the video feed may be captured, for example, at a frame rate of 24 frames per second. Those frames are typically digitized for digital processing. In some cases, the images can be, for example, a spatial resolution of 800 × 600 pixels, 1024 × 768 pixels, 1152 × 864 pixels, or 1280 × 1024 pixels. The computing device may have an imaging device (e.g., a camera device) that acquires the consumer 202 image. The acquired image includes the face biometric of consumer 202 and can be sent by the computing device to the server of identity provider 206.

いくつかの実施形態では、取り出された顔バイオメトリックは、リライング・パーティ204またはアイデンティティ・プロバイダ206に関連付けられたコンピューティングデバイスから送信される。そのコンピューティングデバイスは、コンシューマ202が認証を求めているときにコンシューマ202の近くにあるカメラ装置を内部に含むか、またはそのようなカメラ装置に外部接続されることが可能である。例えば、カメラ装置は、コンシューマ202に対面する現金自動預払機(ATM)に隣接しているか、または銀行の登録事務所内にあることが可能である。そのATMまたは事務所は、コンシューマ202が取引を求めるリライング・パーティ204の所有物であり得る。カメラ装置は、コンシューマ202の顔バイオメトリックを含む画像またはビデオフィードを取得して、コンピューティングデバイスに送信することができる。コンピューティングデバイスは、取得された画像もしくはビデオフィードを処理して、取得された画像もしくはビデオフィードおよび/または処理されたデータをアイデンティティ・プロバイダ206のサーバに送信することができる。   In some embodiments, the retrieved facial biometric is transmitted from a computing device associated with the relying party 204 or the identity provider 206. The computing device may include or be externally connected to a camera device that is close to the consumer 202 when the consumer 202 is seeking authentication. For example, the camera device can be adjacent to an automated teller machine (ATM) facing the consumer 202 or in a bank's registered office. The ATM or office may be the property of the relying party 204 that the consumer 202 seeks to trade. The camera device may obtain an image or video feed that includes the consumer 202 face biometric and send it to the computing device. The computing device can process the acquired image or video feed and send the acquired image or video feed and / or processed data to the server of the identity provider 206.

アイデンティティ・プロバイダ206のサーバは、取り出された顔バイオメトリックを、コンシューマ202のバイオメトリックアイデンティティデータと比較してよい。コンシューマ202のバイオメトリックアイデンティティデータは、アイデンティティ・プロバイダ206のサーバに予め保存されてよい。この比較は、認証の状況依存の厳格さ要件に沿った方法で行ってよい。例えば、取引金額が特定の閾値よりも小さい$50のような場合には、コンシューマ202がオンラインで提示した顔バイオメトリックと、アイデンティティ・プロバイダ206のサーバで予め保存されている顔バイオメトリックとのマッチング度を低くしてよい。ところが、一方、取引金額が特定の閾値よりも大きい例えば$1,000のような場合には、コンシューマ202がオンラインで提示した顔バイオメトリックと、アイデンティティ・プロバイダ205のサーバで予め保存されている顔バイオメトリックとのマッチング度を高くしてよい。関連した例では、その取引が、住宅ローンの申し込み、クレジットカードの申し込みのような性質のものである場合には、やはりマッチング度を高くしてよい。コンシューマ202がオンラインで提示した顔バイオメトリックと、アイデンティティ・プロバイダ206のサーバで予め保存されている顔バイオメトリックとの類似度を定量化するスコアを生成するために、スコアリング機構を実装してよい。提示しているコンシューマ202が、アイデンティティ・プロバイダ206のサーバで保存されているバイオメトリックデータの本人であることを証明するのに、コンシューマ202がオンラインで提示したものとして取り出された顔バイオメトリックが十分であるかどうかを判断するために、アイデンティティ・プロバイダ206のサーバで、類似スコアを用いてよい。   The identity provider 206 server may compare the retrieved facial biometric with the biometric identity data of the consumer 202. The consumer 202 biometric identity data may be pre-stored on the identity provider 206 server. This comparison may be done in a manner consistent with the context-dependent stringency requirements of authentication. For example, if the transaction amount is $ 50, which is smaller than a specific threshold, the face biometric presented online by the consumer 202 is matched with the face biometric stored in advance on the identity provider 206 server. The degree may be lowered. However, on the other hand, when the transaction amount is larger than a specific threshold, such as $ 1,000, the face biometric presented online by the consumer 202 and the face stored in the identity provider 205 server in advance. The degree of matching with the biometric may be increased. In a related example, if the transaction is of a nature such as a mortgage application or a credit card application, the degree of matching may still be increased. A scoring mechanism may be implemented to generate a score that quantifies the similarity between the facial biometric presented online by the consumer 202 and the facial biometric stored previously at the identity provider 206 server. . The facial biometric retrieved as presented by the consumer 202 online is sufficient to prove that the presenting consumer 202 is the identity of the biometric data stored on the identity provider 206 server. Similarity scores may be used at the identity provider 206 server to determine whether or not

さらに、コンシューマ202がオンラインで提示したものとして取り出された顔バイオメトリックが生体の顔バイオメトリックであるかどうかを、アイデンティティ・プロバイダ206のサーバで判定してよい。オンライン認証に伴う1つのリスクは、中間者攻撃の可能性であった。例えば、なりすましでは、第三者が、以前にコンシューマ202が提示した認証証明を第三者が入手したものを再現することによって、コンシューマ202のふりをすることがある。いくつかの暗号化機構では、コンシューマ202とアイデンティティ・プロバイダ206との間の通信セッションストリームの暗号化に使用される暗号化鍵をリフレッシュまたは更新することによって、中間者攻撃に対抗することがある。ところが、一般的に、そのような暗号化機構は、バイオメトリックデータ自体の古さには対処していないことがある。すなわち、第三者がバイオメトリックデータのインスタンスを入手して、バイオメトリックデータのそのインスタンスを再現することでコンシューマ202のアカウントへのアクセスを得ようとする場合には、いくつかの暗号化機構は不十分な場合がある。そのようなリスクは、ユーザネームとパスワードの組み合わせによるログインによって増幅されることがあり、なぜなら、ユーザネームとパスワードのテキスト文字列は、ログインセッションごとの粒度でリフレッシュされないかもしれないからである。特に、ログインセッションごとに(または、例えば数秒ごとの、サブセッションレベルで)ユーザネームとパスワードをリフレッシュすることは現実的ではない場合がある。   Further, the identity provider 206 server may determine whether the facial biometric retrieved as presented online by the consumer 202 is a biological facial biometric. One risk associated with online authentication was the potential for man-in-the-middle attacks. For example, in impersonation, a third party may pretend to be the consumer 202 by reproducing what the third party has obtained authentication credentials previously presented by the consumer 202. Some encryption mechanisms may counter man-in-the-middle attacks by refreshing or updating the encryption key used to encrypt the communication session stream between consumer 202 and identity provider 206. However, in general, such encryption mechanisms may not address the age of the biometric data itself. That is, if a third party obtains an instance of biometric data and attempts to gain access to the consumer 202 account by reproducing that instance of biometric data, some cryptographic mechanisms are: It may be insufficient. Such a risk may be amplified by login with a username and password combination because the username and password text strings may not be refreshed with granularity for each login session. In particular, refreshing the username and password for each login session (or at the sub-session level, eg, every few seconds) may not be practical.

本明細書で開示するいくつかの実施形態では、例えば、コンシューマ202の顔の生体性の検証を実行することによって、コンシューマ202が提示するバイオメトリックデータの生体性を検証し得る。いくつかの実施形態では、アイデンティティ・プロバイダ206のサーバで、提示された画像またはビデオフィードに基づいて生体性検証を実施する。いくつかの実施形態では、コンシューマ202に関連付けられたコンピューティングデバイスで、取得した画像またはビデオフィードに基づいて生体性検証を実施し、生体性検証の結果を、例えば、コンシューマ202のバイオメトリックデータを含む認証要求の中で、アイデンティティ・プロバイダ206のサーバに提示する。次いで、アイデンティティ・プロバイダ206のサーバで、コンシューマ202が提示したバイオメトリックデータが生体のものであることをシームレスに確認することができる。いくつかの実施形態では、コンシューマ202の近くにあるカメラ装置から画像またはビデオフィードを取得するリライング・パーティ204またはアイデンティティ・プロバイダ206に関連付けられたコンピューティングデバイスで、取得した画像またはビデオフィードに基づいて生体性検証を実施し、生体性検証の結果をアイデンティティ・プロバイダ206のサーバに提示する。   In some embodiments disclosed herein, the biometrics of biometric data presented by the consumer 202 may be verified, for example, by performing verification of the biometrics of the face of the consumer 202. In some embodiments, biometric verification is performed at the identity provider 206 server based on the presented image or video feed. In some embodiments, the computing device associated with the consumer 202 performs a biometric verification based on the acquired image or video feed and provides a result of the biometric verification, eg, biometric data for the consumer 202. Present to the server of the identity provider 206 in an included authentication request. The server of the identity provider 206 can then seamlessly confirm that the biometric data presented by the consumer 202 is biological. In some embodiments, a computing device associated with a relying party 204 or identity provider 206 that obtains an image or video feed from a camera device near the consumer 202 based on the acquired image or video feed. Biometric verification is performed and the results of the biological verification are presented to the identity provider 206 server.

いくつかの実施形態では、生体性検証は、コンシューマ202からの角膜反射の分析を伴い得る。最初に、コンシューマ202の顔を検出してよい。図3Aおよび3Bを参照して、次に、ビデオフィードまたは画像内でコンシューマ202の眼301を検出してよい。一般に、このような検出は、顔または眼のテンプレートデータを利用するセグメンテーション法を伴う。そのようなテンプレートデータは、ビデオフィードまたは画像内で顔または眼の領域を識別するために、様々な形状変換によってモーフィングしてよい。眼301が検出されたら、次に、ビデオフィードまたは画像内で角膜領域302を特定してよい。次いで、ビデオフレームまたは画像内で角膜領域の反射を分析してよい。   In some embodiments, biometric verification may involve analysis of corneal reflections from consumer 202. First, the face of the consumer 202 may be detected. 3A and 3B, the consumer's 202 eye 301 may then be detected in the video feed or image. In general, such detection involves a segmentation method that utilizes facial or eye template data. Such template data may be morphed by various shape transformations to identify facial or eye areas within a video feed or image. Once the eye 301 is detected, the corneal region 302 may then be identified in the video feed or image. The reflection of the corneal region may then be analyzed within the video frame or image.

最初に、コンシューマ202の場所にある対象物で、コンシューマ202からの角膜反射を発生させてよい。この場合、その対象物として、光源などの照明源、ウェブカメラのようなカメラ装置、または周囲環境よりも明るい装置もしくは対象(例えば、窓もしくはテーブル)を含むことがある。いくつかの例では、対象物は、コンシューマ202のモバイルデバイスの内蔵カメラである。コンシューマ202は、そのカメラを使用して、コンシューマ202の顔画像またはバイオメトリックを取得する。いくつかの例では、対象物は、コンシューマ202に近い場所にあり得る。その場所は、コンシューマ202が取引を求めるリライング・パーティ204に関連付けられている場合がある。例えば、その場所は、コンシューマ202に対面する現金自動預払機(ATM)を備える。対象物は、ATMに隣接して設置することができる。いくつかの例では、対象物は、コンシューマ202が認証を求めている現場に固定または配置されてよい。一般に、対象物は、通常の照明条件下で容易に視認することができ、現場でコンシューマ202からの正反射を生じさせることが可能である。コンシューマ202の角膜からの正反射は、認証の生体性を判定するために利用されることがある。   Initially, a corneal reflection from the consumer 202 may be generated at an object at the consumer 202 location. In this case, the object may include an illumination source such as a light source, a camera device such as a webcam, or a device or object that is brighter than the surrounding environment (eg, a window or table). In some examples, the object is a built-in camera of consumer 202's mobile device. The consumer 202 uses the camera to obtain a consumer 202 face image or biometric. In some examples, the object may be near the consumer 202. That location may be associated with a relying party 204 where the consumer 202 seeks a transaction. For example, the location comprises an automated teller machine (ATM) that faces the consumer 202. The object can be placed adjacent to the ATM. In some examples, the object may be fixed or placed at the site where the consumer 202 is seeking authentication. In general, the object can be easily seen under normal lighting conditions and can cause specular reflection from the consumer 202 in the field. The regular reflection from the cornea of the consumer 202 may be used to determine the biometricity of authentication.

いくつかの実施形態では、対象物が動くと、それに応じて、コンシューマ202の角膜におけるそのような対象物の正反射は移動すると予想される。現場での対象物の移動に伴って、そのような対象物の正反射が移動すれば、コンシューマ202を生体として認証することができる。場合によっては、対象物の移動は、コンシューマ202によってなされる。例えば、コンシューマ202は、カメラ装置を内蔵した携帯電話機を動かすように指示され、それに応じて、カメラ装置の角膜反射が移動する。現場でのカメラ装置の動きは、モバイルデバイスの内蔵加速度計またはジャイロスコープで測定することができる。場合によっては、対象物は、コンシューマ202(または中間者としてのハッカー予備軍)により予測不可能に、動かされる。   In some embodiments, as the object moves, the specular reflection of such object at the cornea of the consumer 202 is expected to move accordingly. If the regular reflection of such an object moves with the movement of the object at the site, the consumer 202 can be authenticated as a living body. In some cases, the object is moved by the consumer 202. For example, the consumer 202 is instructed to move a mobile phone incorporating the camera device, and the corneal reflection of the camera device moves accordingly. The movement of the camera device in the field can be measured with the built-in accelerometer or gyroscope of the mobile device. In some cases, the object is moved unpredictably by the consumer 202 (or an intermediary hacker reserve).

例えば、対象物を、位置1から位置2に動かすことができる。対象物が位置1にあるときに、第1の画像を取得する。取得された第1の画像内の角膜反射を分析することによって、反射対象物の位置、形状、および色/波長を検出してよい。この検出では、対象物の角膜反射302Aに自動的に焦点を絞るために、セグメンテーション法を利用できる。その後、対象物が位置2に動かされたら、第2の画像を取得する。取得された第2の画像を分析することにより、新たに角膜反射302Bとして、反射対象物の位置、形状、および色/波長を検出してよい。場合によっては、反射対象物を監視することにより、対象物のモーションの軌道を追跡してよい。図示のように、角膜反射302Aおよび302Bで検出される対象物の位置の変化を、対象物の位置変化と比較してよく、例えばプログラムまたは測定された対象物の位置変化と比較してよい。実例として、いくつかの実施形態では、その反射対象物の位置を、コンシューマ202が認証を求めているATMの室内または正面においてコンシューマ202に隣接した他の構造の反射に対して相対的に記録してよい。いくつかの実施形態では、その反射対象物の位置を、コンシューマ202の眼中または眼の周りの他の身体構造に対して相対的に記録してよい。   For example, the object can be moved from position 1 to position 2. When the object is at position 1, a first image is acquired. By analyzing the corneal reflection in the acquired first image, the position, shape, and color / wavelength of the reflective object may be detected. In this detection, a segmentation method can be used to automatically focus on the corneal reflection 302A of the object. Thereafter, when the object is moved to position 2, a second image is acquired. By analyzing the acquired second image, the position, shape, and color / wavelength of the reflection object may be newly detected as the corneal reflection 302B. In some cases, the motion trajectory of the object may be tracked by monitoring the reflective object. As shown, changes in the position of the object detected by the corneal reflections 302A and 302B may be compared to changes in the position of the object, for example, compared to changes in the position of the object that is programmed or measured. Illustratively, in some embodiments, the location of the reflective object is recorded relative to the reflection of other structures adjacent to the consumer 202 in the interior or front of the ATM where the consumer 202 is seeking authentication. It's okay. In some embodiments, the location of the reflective object may be recorded relative to other body structures in or around the consumer 202 eye.

図4は、コンシューマ202の腕の調整によって位置が変化した対象カメラ403の例を示している。カメラ403は、コンシューマ202の腕402に保持されて、コンシューマ202の頭401に対面している。位置1では、腕402は、例えばコンシューマ202の顔により近づくように、より伸展されている。位置2では、腕402は、例えばコンシューマ202の顔から遠ざかるように、より収縮されている。カメラ403のこのような位置の変化によって、コンシューマ202の角膜から反射されるカメラに変化が生じると予想される。いくつかの例では、対象物は、対象物の位置の変化を誘導する機構に依拠し得る。その機構は、パン、ズーム、チルト(PZT)、または他の任意の適切な機構であり得る。   FIG. 4 shows an example of the target camera 403 whose position has been changed by adjusting the arm of the consumer 202. The camera 403 is held by the arm 402 of the consumer 202 and faces the head 401 of the consumer 202. At position 1, the arm 402 is further extended so as to be closer to the face of the consumer 202, for example. At position 2, the arm 402 is more contracted, for example, away from the consumer 202 face. Such a change in the position of the camera 403 is expected to cause a change in the camera reflected from the cornea of the consumer 202. In some examples, the object may rely on a mechanism that induces a change in the position of the object. The mechanism can be pan, zoom, tilt (PZT), or any other suitable mechanism.

対象物のモーションによって、角膜反射における反射対象物の位置および形状の、より興味深い変化を生じさせることが可能である。対象物は、内蔵加速度計またはジャイロモータのようなコントローラで動くようにプログラムされてよい。場合によっては、対象物は、所定の(または予めプログラムされた)モーションで動かされる。所定のモーションは、対象物に予め組み込むことができる。また、所定のモーションは、例えば、アイデンティティ・プロバイダ206のサーバから、またはコントローラに結合されたコンピューティングデバイスから、コントローラに伝送することもできる。所定のモーションは、毎回、前の所定のモーションとは異なるものとすることができる。場合によっては、対象物は、ランダムに動かされる。対象物の実際の動きを、内蔵加速度計またはジャイロモータのようなセンサで測定または検出することができる。   The motion of the object can cause more interesting changes in the position and shape of the reflective object in the corneal reflection. The object may be programmed to move with a controller such as a built-in accelerometer or gyro motor. In some cases, the object is moved with a predetermined (or pre-programmed) motion. The predetermined motion can be incorporated in advance in the object. The predetermined motion can also be transmitted to the controller from, for example, a server of the identity provider 206 or from a computing device coupled to the controller. The predetermined motion can be different from the previous predetermined motion each time. In some cases, the object is moved randomly. The actual movement of the object can be measured or detected with a sensor such as a built-in accelerometer or a gyro motor.

対象物の変化は、並進調整または回転調整として表される単なる位置的変化に限定されない場合がある。そのような位置の変化および多様な変化を、角膜反射の充実した分析を得るために利用することができる。一例では、角膜反射の波長を変化させるように、対象物の位置を変化させることも可能である。実例として、コンシューマ202に対面する別の照明源である例えばコンシューマ202のモバイルデバイスのフラッシュライトからの照射を屈折させるように、対象物を並進させることができる。   The change in the object may not be limited to a simple positional change expressed as translational or rotational adjustment. Such positional changes and various changes can be used to obtain a rich analysis of corneal reflexes. In one example, the position of the object can be changed to change the wavelength of corneal reflection. Illustratively, the object can be translated to refract the illumination from another illumination source facing the consumer 202, for example, the flash light of the mobile device of the consumer 202.

注目すべきは、コンシューマ202の頭または顔が動く場合でも、または動かない場合でも、対象物の角膜反射に変化が生じるように、アイデンティティ・プロバイダには既知であるが事前にコンシューマ202(または中間者としてのハッカー予備軍)には未知であるパターンで対象物は動くということである。場合によっては、コンシューマ202の頭または顔の動きが相対的に静的とみなすことができるように、コンシューマ202の頭または顔の動きと比較して相対的に高速で、対象物を第1の位置から第2の位置に動かすことができる。カメラ装置は、第1の時点で対象物が第1の位置にあるときに、コンシューマ202の第1の顔画像を取得することができ、第2の時点で対象物が第2の位置にあるときに、コンシューマ202の第2の顔画像を取得することができる。第1の時点と第2の時点との間隔は、例えば1秒未満の短時間とすることができる。場合によっては、取得した画像内の静的な被写体または不動の被写体(例えば、コンシューマ202に隣接した窓またはテーブル)の移動を分析することによって、コンシューマ202の頭または顔の動きを利用することができる。コンシューマ202が対象物を動かすように指示される場合には、コンシューマ202は、コンシューマ202の頭または顔を動かさないように通達されることがある。   It should be noted that whether the consumer 202's head or face moves or does not move, the identity provider knows in advance but the consumer 202 (or intermediate) so that the corneal reflection of the object changes. The target moves in a pattern that is unknown to the hacker reserve army. In some cases, the first or second object may be moved at a relatively high speed compared to the consumer 202 head or face movement so that the consumer 202 head or face movement may be considered relatively static. The position can be moved to the second position. The camera device can obtain the first face image of the consumer 202 when the object is at the first position at the first time point, and the object is at the second position at the second time point. Sometimes a second face image of consumer 202 can be obtained. The interval between the first time point and the second time point can be a short time of, for example, less than 1 second. In some cases, the movement of the head or face of the consumer 202 can be exploited by analyzing the movement of a static or stationary object (eg, a window or table adjacent to the consumer 202) in the acquired image. it can. If the consumer 202 is instructed to move the object, the consumer 202 may be notified not to move the consumer 202 head or face.

カメラ装置は、コンシューマ202の画像および/またはビデオフィードを取得するように構成される。カメラ装置は、コンシューマ202の顔に対面させて位置決めすることができる。いくつかの例では、カメラ装置は、コンシューマ202のモバイルデバイスに内蔵されることが可能である。コンシューマ202は、顔画像を取得するためにカメラ装置がコンシューマ202の顔に対面するように、モバイルデバイスを保持することができる。カメラ装置がコンシューマ202の眼に対して斜めの角度であるように、またはコンシューマ202の眼に対して真向かいであるように、カメラ装置を位置決めすることができる。いくつかの例では、コンシューマ202は、ATMの前で認証を求めている。カメラ装置は、ATMに固定するか、またはATMに隣接して設置することができる。   The camera device is configured to obtain consumer 202 image and / or video feed. The camera device can be positioned facing the consumer 202 face. In some examples, the camera device can be embedded in the mobile device of consumer 202. The consumer 202 can hold the mobile device so that the camera device faces the consumer 202 face to obtain a facial image. The camera device can be positioned such that the camera device is at an oblique angle to the consumer 202 eye or directly opposite the consumer 202 eye. In some examples, consumer 202 is seeking authentication before ATM. The camera device can be fixed to the ATM or installed adjacent to the ATM.

コンシューマ202の顔の生体性を検証するために、例えば、コンシューマ202とインタラクションすることなく、またはコンシューマ202に通知することなく、カメラ装置で画像および/またはビデオフィードを取得することができる。場合によっては、カメラ装置の動きは、コンシューマ202の自然な動作に関連付けることができる。カメラ装置を内蔵しているモバイルデバイスに搭載された例えば加速度計、ジャイロスコープ、またはグローバルポジショニングシステム(GPS)などのセンサで、カメラ装置の動きを測定することができる。モバイルデバイスは、カメラ装置が動いていることを、センサを用いて確認してから、コンシューマ202の顔画像を取得するための要求をカメラ装置に伝送することができる。   In order to verify the biological nature of the face of the consumer 202, for example, an image and / or video feed can be obtained at the camera device without interacting with or notifying the consumer 202. In some cases, the movement of the camera device can be related to the natural behavior of the consumer 202. The movement of the camera device can be measured by a sensor such as an accelerometer, a gyroscope, or a global positioning system (GPS) mounted on a mobile device incorporating the camera device. The mobile device can confirm that the camera device is moving by using a sensor, and then can transmit a request for acquiring a face image of the consumer 202 to the camera device.

いくつかの実施形態では、アイデンティティ・プロバイダ206のサーバは、生体性検証を利用するための要求を受け取ると、例えば直接、またはカメラ装置に結合されるとともにサーバと通信するコンピューティングデバイスを介して、カメラ装置に要求を送信してよい。その要求に応えて、カメラ装置は、対象物が位置間で動かされたときにコンシューマ202の顔画像を自動的に取得することができる。その要求に基づいて、対象物を動かすことができる。例えば、サーバと通信するコンピューティングデバイスは、要求を受け取って、対象物を動かすためのコマンドを、対象物のコントローラに伝送する。コンシューマ202の顔画像を取得するカメラ装置と同期させて、対象物を位置間で動かすことができる。   In some embodiments, upon receiving a request to utilize biometric verification, the identity provider 206 server, for example, directly or via a computing device coupled to the camera device and communicating with the server, A request may be sent to the camera device. In response to the request, the camera device can automatically acquire the face image of the consumer 202 when the object is moved between positions. Based on the request, the object can be moved. For example, a computing device in communication with the server receives the request and transmits a command to move the object to the object controller. The object can be moved between positions in synchronization with the camera device that acquires the face image of the consumer 202.

対象物の動きは、個々の時点に関連付けることができる。例えば、第1の時点では、対象物は第1の位置にあり、第2の時点では、対象物は第2の位置に動かされる。カメラ装置は、対象物の移動中および/または対象物の移動の前と後に、コンシューマ202の顔画像またはビデオフィードを取得することができる。取得された顔画像は、同じく個々の時点に関連付けられる。それらの時点は、例えば1ミリ秒未満の高い精度を有し得る。例えば、カメラ装置は、第1の時点で対象物が第1の位置にあるときに第1の顔画像を取得し、第2の時点で対象物が第2の位置にあるときに第2の顔画像を取得する。それらの時点に基づいて、取得されたコンシューマ202の顔画像を、対象物の位置に関連付けることができる。このように、取得された画像またはビデオフィードにおける対象物の角膜反射を、対象物の動きと関連付けることができ、これを、コンシューマ202の顔の生体性を検証するために用いることができる。   Object movement can be associated with individual points in time. For example, at a first time, the object is in a first position, and at a second time, the object is moved to a second position. The camera device can obtain a facial image or video feed of the consumer 202 during and / or before the movement of the object. The acquired face images are also associated with individual time points. These time points may have a high accuracy, for example less than 1 millisecond. For example, the camera device acquires the first face image when the object is at the first position at the first time point, and the second time when the object is at the second position at the second time point. Get a face image. Based on these points in time, the acquired face image of consumer 202 can be associated with the position of the object. In this way, the corneal reflection of the object in the acquired image or video feed can be correlated with the movement of the object, which can be used to verify the biological nature of the consumer 202 face.

また、カメラ装置は、例えば、バイオメトリックデータを取得するためにコンシューマ202とインタラクションすることによって、認証用にコンシューマ202がアイデンティティ・プロバイダ206のサーバに提示したバイオメトリックデータを含むコンシューマ202の画像および/またはビデオフィードを取得することもできる。場合によっては、認証用のコンシューマ202のバイオメトリックデータを含む画像および/またはビデオフィードを取得するために、追加の撮像装置またはビデオ入力コンポーネントを使用する。   The camera device may also interact with the consumer 202 to obtain biometric data, for example, by authenticating the consumer 202 image and / or the biometric data that the consumer 202 presented to the identity provider 206 server for authentication. Or you can get a video feed. In some cases, an additional imaging device or video input component is used to obtain an image and / or video feed containing biometric data of consumer 202 for authentication.

いくつかの実施形態では、対象物は、カメラ装置である。上述のように、カメラ装置は、コンシューマ202によって、または機構によって制御的またはランダムに、動かすことができる。カメラ装置のモーション(および/または向きおよび/または相対位置)を、例えば内蔵加速度計またはジャイロスコープによって、測定することができる。コンシューマ202の顔の生体性を検証するために、カメラ装置の角膜反射で検出される位置変化を、カメラ装置の所定のモーションまたは測定されたモーションと相関させてよい。   In some embodiments, the object is a camera device. As described above, the camera device can be moved by the consumer 202 or by a mechanism in a controlled or random manner. The motion (and / or orientation and / or relative position) of the camera device can be measured, for example, by a built-in accelerometer or gyroscope. In order to verify the biological nature of the face of the consumer 202, the change in position detected by the corneal reflection of the camera device may be correlated with a predetermined or measured motion of the camera device.

いくつかの実施形態では、対象物は、コンシューマ202に隣接した静的対象物である例えばコンシューマ202の背後のドアまたはコンシューマ202の脇の窓である。カメラ装置は位置間で動かされて、それらの位置でコンシューマ202の顔画像を取得する。それらの顔画像は、対象物の角膜反射を含む。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される位置変化を、カメラ装置の所定のモーションまたは測定されたモーションと相関させてよい。   In some embodiments, the object is a static object adjacent to the consumer 202, such as a door behind the consumer 202 or a side window of the consumer 202. The camera device is moved between positions to capture the consumer 202 face image at those positions. Those face images include the corneal reflection of the object. In order to verify the biological nature of the face of the consumer 202, the change in position detected by the corneal reflection of the object may be correlated with a predetermined or measured motion of the camera device.

いくつかの実施形態では、対象物は、生体性検証のためのモーションで、位置間で動かされるように構成された被写体である一方、カメラ装置は、静的であって、対象物が異なる位置にあるときのコンシューマ202の顔画像を取得する。それらの顔画像は、対象物の角膜反射を含む。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される位置変化を、対象物の所定のモーションまたは測定されたモーションと相関させてよい。   In some embodiments, the object is a subject configured to be moved between positions in motion for biometric verification, while the camera device is static and the object is at a different position. The face image of the consumer 202 is acquired. Those face images include the corneal reflection of the object. In order to verify the biological nature of the face of the consumer 202, the change in position detected by the corneal reflection of the object may be correlated with a predetermined or measured motion of the object.

いくつかの実施形態では、対象物は、第1のモーションパターンで、位置間で動かされるように構成された被写体である一方、カメラ装置も、第2のモーションパターンで、位置間で動かされる。生体性検証のために対象物とカメラ装置の両方を動かすことで、ハッカーに対するセキュリティを強化することができる。対象物が異なる位置にあるとともに、カメラ装置も異なる位置にあるときに、カメラ装置でコンシューマ202の顔画像を取得する。それらの顔画像は、対象物の角膜反射を含む。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される位置変化を、対象物の(所定または測定された)第1のモーションパターンおよびカメラ装置の(所定または測定された)第2のモーションパターンに基づくモーションと相関させてよい。そのモーションパターンは、対象物とカメラ装置の相対的なモーションパターンであり得る。   In some embodiments, the object is a subject configured to be moved between positions in a first motion pattern, while the camera device is also moved between positions in a second motion pattern. By moving both the object and the camera device for biometric verification, security against hackers can be enhanced. When the object is at a different position and the camera device is also at a different position, the face image of the consumer 202 is acquired by the camera device. Those face images include the corneal reflection of the object. In order to verify the biological nature of the face of the consumer 202, the position change detected by the corneal reflection of the object is determined by the (predetermined or measured) first motion pattern of the object and the (predetermined or measured) of the camera device. It may be correlated with motion based on the second motion pattern. The motion pattern may be a relative motion pattern of the object and the camera device.

いくつかの実施形態では、対象物は静的であり、カメラ装置も静的である。照明器からの対象物に対する照射を、異なる時点で変化させることができ、例えば照明の色またはパターンを変化させ、これに応じて、対象物の角膜反射は変化し得る。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される対象物に対する照射変化を、照明器の既知の照射変化と相関させてよい。   In some embodiments, the object is static and the camera device is static. Illumination of the object from the illuminator can be changed at different times, for example by changing the color or pattern of illumination, and the corneal reflection of the object can change accordingly. In order to verify the biological nature of the face of the consumer 202, the illumination change on the object detected by corneal reflection of the object may be correlated with a known illumination change of the illuminator.

いくつかの実施形態では、対象物は照明器であり、例えば、光源、および/または例えばモバイルデバイスの液晶ディスプレイ(LCD)などの画面上に表示されるデジタル照明源、である。カメラ装置は、コンシューマ202の顔画像を取得することができ、それらの顔画像は、対象物の角膜反射を含む。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される照明器を、照明器の所定の照射変化または測定された照射変化と相関させてよい。生体性検証のために照明を使用することは、図5に関連して後述する。   In some embodiments, the object is an illuminator, such as a light source and / or a digital illumination source that is displayed on a screen, such as a liquid crystal display (LCD) of a mobile device, for example. The camera device can acquire a face image of the consumer 202, and the face image includes a corneal reflection of the object. In order to verify the biological nature of the consumer 202 face, the illuminator detected by the corneal reflection of the object may be correlated with a predetermined or measured illumination change of the illuminator. The use of illumination for biometric verification will be described later in connection with FIG.

いくつかの実施形態では、カメラ装置は静的であり、かつ/または対象物も静的である。カメラ装置に結合されたコンピューティングデバイスは、頭または顔を例えば左から右に回すモーションパターンで動かすようにコンシューマ202に指示することができる。カメラ装置で、コンシューマ202が動くときのコンシューマ202の顔画像を取得することができる。コンシューマ202の顔の生体性を検証するために、対象物の角膜反射で検出される位置変化を、コンシューマ202のモーションと相関させてよい。   In some embodiments, the camera device is static and / or the object is static. A computing device coupled to the camera device can instruct the consumer 202 to move the head or face, for example, in a motion pattern that turns from left to right. With the camera device, it is possible to acquire a face image of the consumer 202 when the consumer 202 moves. In order to verify the biological nature of the consumer's 202 face, the position change detected by the corneal reflection of the object may be correlated with the motion of the consumer 202.

いくつかの実施形態では、対象物および/またはカメラ装置を、モーションパターンで動かすことができ、さらに対象物に対する照明も、異なる時点で変化させることができ、例えば照明の色またはパターンを変化させる。コンシューマ202の顔の生体性検証は、1)対象物の角膜反射で検出される位置変化と、対象物および/またはカメラ装置のモーションパターンとの相関、ならびに、2)対象物の角膜反射で検出される対象物に対する照射変化と、所定の照射変化または測定された照射変化との相関、に基づき得る。   In some embodiments, the object and / or camera device can be moved in a motion pattern, and the illumination on the object can also be changed at different times, eg, changing the color or pattern of the illumination. The biometric verification of the face of the consumer 202 is performed by 1) correlation between the position change detected by the corneal reflection of the object and the motion pattern of the object and / or the camera device, and 2) detection by the corneal reflection of the object. Based on a correlation between an irradiation change on an object to be measured and a predetermined irradiation change or a measured irradiation change.

最初に、対象物および/またはカメラ装置が動くときに、(例えば、全米テレビジョン方式委員会(NTSC)、またはビデオ通信規格H.261で定める)フルフレームレートのビデオストリームで画像を取得してよい。いくつかの実施形態では、通信効率のために、例えばH.261の適応ビデオコーデック仕様に従って、取得したビデオストリームの一部のみを伝送してよい。角膜反射の変化がまさに始まろうとしているときには、ビデオフィードをデジタル化して、(コンシューマ202が静止したままのときの)フロアレベルレートよりも高速でアイデンティティ・プロバイダ206のサーバに送信してよい。いくつかの例では、カメラ装置で、ビデオフィードまたは画像をアイデンティティ・プロバイダ206のサーバに送信する。いくつかの例では、カメラ装置に結合されたコンピューティングデバイスで、カメラ装置から画像またはビデオフィードを受け取って、その画像またはビデオフィードをアイデンティティ・プロバイダ206のサーバに送信する。   First, when an object and / or camera device moves, images are acquired with a full frame rate video stream (eg, as defined by the National Television System Committee (NTSC) or the video communication standard H.261). Good. In some embodiments, for communication efficiency, e.g. According to the H.261 adaptive video codec specification, only a portion of the acquired video stream may be transmitted. When the change in corneal reflection is about to begin, the video feed may be digitized and sent to the identity provider 206 server at a faster rate than the floor level rate (when consumer 202 remains stationary). In some examples, the camera device sends a video feed or image to the identity provider 206 server. In some examples, a computing device coupled to a camera device receives an image or video feed from the camera device and transmits the image or video feed to the server of identity provider 206.

上述のように、アイデンティティ・プロバイダ206のサーバは、送信された画像またはビデオフィードに基づいて生体性検証を実施することができる。サーバは、対象物の角膜反射を特定するために、画像またはビデオフィードを分析することができる。特定された角膜反射に基づいて、サーバは、対象物の角膜反射の位置変化を特定することができる。サーバは、対象物の角膜反射の位置変化をモーションパターンと比較し、その比較の結果に基づいて、コンシューマ202の顔の生体性を判定することができる。いくつかの例では、モーションパターンは、位置間で動かされるときの対象物またはカメラ装置またはその両方の、所定のモーションパターンである。サーバは、その所定のモーションパターンを予め保存することができる。いくつかの例では、モーションパターンは、位置間で動かされるときの対象物またはカメラ装置またはその両方の、測定されるモーションパターンである。そのモーションパターンを、取得した画像またはビデオフィードと共に、サーバに送信することができる。いくつかの例では、アイデンティティ・プロバイダ206のサーバは、受け取った画像および/またはビデオフィードを分析することができ、例えば取得された画像および/またはビデオフィードにおける静的被写体の位置変化を分析することにより、モーションパターンを特定する。   As described above, the identity provider 206 server may perform biometric verification based on the transmitted image or video feed. The server can analyze the image or video feed to identify the corneal reflection of the object. Based on the identified corneal reflection, the server can identify a change in position of the corneal reflection of the object. The server can compare the change in the position of the corneal reflection of the target object with the motion pattern, and determine the biological property of the face of the consumer 202 based on the comparison result. In some examples, the motion pattern is a predetermined motion pattern of the object and / or camera device as it is moved between positions. The server can store the predetermined motion pattern in advance. In some examples, the motion pattern is a measured motion pattern of an object and / or camera device as it is moved between positions. The motion pattern can be sent to the server along with the acquired image or video feed. In some examples, the identity provider 206 server can analyze the received image and / or video feed, eg, analyze a change in position of a static subject in the acquired image and / or video feed. To specify the motion pattern.

いくつかの実施形態では、カメラ装置に結合されたコンピューティングデバイスは、取得された画像またはビデオフィードに基づいて生体性検証を実施し、生体性検証の結果を、例えば取得された画像またはビデオフィードの送信を伴って、または伴うことなく、アイデンティティ・プロバイダ206のサーバに提示する。場合によっては、そのコンピューティングデバイスで、認証用のコンシューマ202のバイオメトリックデータを受け取って、コンシューマ202のバイオメトリックデータと共に、生体性検証の結果を、アイデンティティ・プロバイダ206のサーバに送信する。   In some embodiments, a computing device coupled to the camera device performs biometric verification based on the acquired image or video feed, and the biometric verification results are obtained, for example, the acquired image or video feed. To the server of the identity provider 206 with or without transmission. In some cases, the computing device receives the biometric data of the consumer 202 for authentication and sends the biometric verification result along with the biometric data of the consumer 202 to the server of the identity provider 206.

いくつかの例では、コンピューティングデバイスは、リライング・パーティ204またはアイデンティティ・プロバイダ206に関連付けられている。例えば、コンシューマ202は、リライング・パーティ204に関連付けられたATMを利用して認証を求めている。コンピューティングデバイスは、ATMの近くにあって、コンシューマ202に対面したカメラ装置に結合されたものであり得る。コンピューティングデバイスは、コンシューマ202の生体性を検証するための要求を、アイデンティティ・プロバイダ206のサーバから受信することができる。その要求に応えて、コンピューティングデバイスは、コンシューマ202からの入力を伴うことなく、例えばコンシューマ202には未知であるモーションパターンで、カメラ装置および/または対象物が位置間で動かされたときにカメラ装置で画像および/またはビデオフィードを取得することを求めるコマンドを、カメラ装置および/または対象物に伝送することができる。場合によっては、コンピューティングデバイスは、モーションパターンを予め決定し、そのモーションパターンをカメラ装置および/または対象物に伝送する。コンピューティングデバイスは、生体性検証を実施するときに、毎回、モーションパターンを変更することができる。場合によっては、モーションパターンは、予めプログラムされたモーションパターンまたは所定のモーションパターンである。コンピューティングデバイスは、モーションパターンを予め保存することができる。場合によっては、モーションパターンは、カメラ装置および/または対象物が位置を動かされたときにセンサで測定される。コンピューティングデバイスは、測定されたモーションパターンをセンサから受け取ることができる。   In some examples, the computing device is associated with a relying party 204 or identity provider 206. For example, the consumer 202 requests authentication using an ATM associated with the relying party 204. The computing device may be near the ATM and coupled to a camera device that faces the consumer 202. The computing device may receive a request from the identity provider 206 server to verify the biometrics of the consumer 202. In response to the request, the computing device may receive a camera when the camera device and / or object is moved between positions without input from the consumer 202, eg, with a motion pattern that is unknown to the consumer 202. Commands that require the device to obtain an image and / or video feed can be transmitted to the camera device and / or the object. In some cases, the computing device predetermines a motion pattern and transmits the motion pattern to the camera device and / or object. The computing device can change the motion pattern each time biometric verification is performed. In some cases, the motion pattern is a pre-programmed motion pattern or a predetermined motion pattern. The computing device can pre-store the motion pattern. In some cases, the motion pattern is measured with a sensor when the camera device and / or the object is moved in position. The computing device can receive the measured motion pattern from the sensor.

いくつかの例では、コンピューティングデバイスは、コンシューマ202に関連付けられており、例えば、スマートフォンまたはコンピュータである。例えば、コンシューマ202は、自宅で認証を求めている。コンピューティングデバイスは、カメラ装置を内蔵しているか、またはカメラ装置に外部接続されることが可能である。場合によっては、アイデンティティ・プロバイダ204により提供されるアプリケーション(または、コンピューティングデバイスがスマートフォンである場合はアプリ)が、コンピューティングデバイスにインストールされる。アイデンティティ・プロバイダ204のサーバから要求を受け取るか、またはコンシューマ202がバイオメトリック認証のために生体性検証を利用することを選択したと判断すると、アプリケーションは、コンシューマ202の顔に対して相対的にカメラ装置を動かすことをコンシューマ202に要請することができる。コンピューティングデバイスは、センサ(例えば、加速度計またはジャイロスコープ)を用いることによって、カメラ装置の動きを確認することができる。いくつかの例では、コンピューティングデバイスは、取得した画像および/またはビデオフィードを分析することができ、例えば取得した画像および/またはビデオフィードにおける静的被写体の位置変化を分析することにより、カメラ装置のモーションを確認する。静的被写体の像は、角膜反射であるか、または角膜領域外にあり得る。コンピューティングデバイスは、モーションパターン、ならびに取得した画像および/またはビデオフィードにおけるカメラ装置の角膜反射に基づいて、生体性検証を実施することができる。場合によっては、コンピューティングデバイスのアプリケーションは、コンシューマ202に未知の色またはパターンで照明を変化させるように、カメラ装置のフラッシュライトのような照明源を制御する。アプリケーションは、照明源の変化した色またはパターン、ならびに取得した画像および/またはビデオフィードにおけるカメラ装置の角膜反射に基づいて、生体性検証を実施することができる。   In some examples, the computing device is associated with the consumer 202, such as a smartphone or a computer. For example, the consumer 202 is seeking authentication at home. The computing device can incorporate the camera device or be externally connected to the camera device. In some cases, an application provided by identity provider 204 (or an app if the computing device is a smartphone) is installed on the computing device. If the application receives a request from the identity provider 204 server or determines that the consumer 202 has chosen to use biometric verification for biometric authentication, the application may The consumer 202 can be requested to move the device. The computing device can confirm the movement of the camera device by using a sensor (eg, accelerometer or gyroscope). In some examples, the computing device can analyze the acquired image and / or video feed, for example, by analyzing a change in position of a static subject in the acquired image and / or video feed. Check the motion. The image of the static subject can be a corneal reflection or outside the corneal region. The computing device can perform biometric verification based on the motion pattern and the corneal reflection of the camera device in the acquired image and / or video feed. In some cases, the computing device application controls an illumination source, such as a flashlight on the camera device, to change the illumination in a color or pattern unknown to the consumer 202. The application can perform biometric verification based on the changed color or pattern of the illumination source and the corneal reflection of the camera device in the acquired image and / or video feed.

顔認証と同様に、対象物の角膜反射応答と、予想される変化(例えば、モーションパターンまたは照射変化)とのマッチング度を定量化するために、スコアリング機構を実装してよい。スコアリング機構は、コンシューマ202の顔の生体性を判定するための尺度としての数値を生成し得る。マッチング度は、状況に依存することがあり、従って応用ごとに異なり得る。例えば、マッチング度は、基本的な取引の性質、または基本的な取引に係る金額に依存することがある。   Similar to face authentication, a scoring mechanism may be implemented to quantify the degree of matching between the corneal reflection response of an object and an expected change (eg, motion pattern or illumination change). The scoring mechanism may generate a numerical value as a measure for determining the biological nature of the consumer 202 face. The degree of matching can depend on the situation and can therefore vary from application to application. For example, the degree of matching may depend on the nature of the basic transaction or the amount of money associated with the basic transaction.

いくつかの実施形態では、コンシューマ202の連続した顔画像における対象物の角膜反射を検出する。連続した顔画像は、カメラ装置によって連続的な時点で取得する。特定の時点での対象物の予想角膜反射は、前の時点で特定された角膜反射、および前の時点と特定の時点の間のモーションに基づいて決めることができる。特定の時点での予想角膜反射と、取得した顔画像から特定された角膜反射との一致度を特定することによって、コンシューマ202の顔の生体性を評価することができる。   In some embodiments, a corneal reflection of an object is detected in a series of facial images of consumer 202. Continuous face images are acquired at successive time points by the camera device. The expected corneal reflection of an object at a particular time can be determined based on the corneal reflection identified at the previous time and the motion between the previous time and the particular time. By specifying the degree of coincidence between the predicted corneal reflection at a specific time point and the corneal reflection specified from the acquired face image, the biological property of the face of the consumer 202 can be evaluated.

角膜反射によれば、非侵入型であって、(例えば、赤外線から可視光まで)幅広い帯域の運用に対処できるという利点が得られる。特に、角膜反射は、より散乱が多い傾向がある皮膚反射よりも正反射性が強い傾向がある。本明細書で開示する実施形態は、顔姿勢または他の身体姿勢を変化させるようにコンシューマ202に指示するための口頭指示は伴わなくてよい。   The corneal reflection provides the advantage of being non-intrusive and capable of handling a wide band of operations (eg, from infrared to visible light). In particular, corneal reflection tends to be more specular than skin reflection, which tends to be more scattering. The embodiments disclosed herein may not be accompanied by verbal instructions to instruct the consumer 202 to change the face posture or other body posture.

さらに、例えば自動アルゴリズムを用いて、コンシューマ202の顔の姿勢を推定してよい。例えばビデオフィードから、画像を取得するごとに、自動アルゴリズムによって、カメラ装置に対する顔の姿勢を検出することができる。さらに、例えば、内蔵加速度計またはジャイロモータによって、またはカメラ装置の角膜反射の分析によって、カメラ装置の測定された位置または既知の位置に基づいて、顔の予想される姿勢または姿勢の変化を計算してよい。いくつかの実施形態では、コンシューマ202は、コンシューマ202の顔に対して相対的にカメラ装置を動かすように指示される。そのような計算は、ビデオフィードから追加の画像が取得されるごとに実行することができる。さらに興味深いのは、カメラ装置の測定された位置から計算された予想される姿勢または姿勢の変化と、取得した画像で検出される顔の姿勢を、スコアリング機構を用いて定量的に相関させてよいことである。相関によって特定される数値を、顔の生体性の評価に用いることができる。   Furthermore, the posture of the face of the consumer 202 may be estimated using, for example, an automatic algorithm. For example, every time an image is acquired from a video feed, the posture of the face relative to the camera device can be detected by an automatic algorithm. In addition, calculate the expected face posture or change in posture based on the measured or known position of the camera device, for example, by a built-in accelerometer or gyro motor, or by analyzing the corneal reflection of the camera device. It's okay. In some embodiments, the consumer 202 is instructed to move the camera device relative to the consumer 202 face. Such a calculation can be performed each time an additional image is acquired from the video feed. More interestingly, the scoring mechanism is used to quantitatively correlate the expected posture or change in posture calculated from the measured position of the camera device with the facial posture detected in the acquired image. That's good. The numerical value specified by the correlation can be used for the evaluation of the vitality of the face.

いくつかの実施形態では、コンシューマ202の1つ以上の顔ランドマークを分析することによって、コンシューマ202の顔の姿勢を検出または推定する。顔のランドマーク特徴として、鼻、額、眉、眼、目の端、唇、および/または口を含むことができる。ライブセッションからの顔または顔写真の姿勢によって、様々な角度で対象者の顔が映し出される。姿勢または顔写真の画角のわずかな変化によって、顔ランドマークの各々の見た目の向きおよび大きさは変化する。顔のランドマーク特徴の1つ以上の向きおよび大きさが変化すると予想することができる。各々のランドマーク特徴は、向きおよび大きさの同等の変化を伴い得る。予想される変化の閾値は、ランドマーク特徴のすべての予想される変化の組み合わせであり得る。上述のように、閾値は、応用に固有のものであり得る。例えば、ある特定のレベル未満の金額に係る取引の場合には、ライブセッションであるとともに提示された顔バイオメトリックが真正であると判定するための比較は、あまり精密ではなくてよい。それ以外に、例えばパスポートの更新のような最重要身分証明書類に関わる取引の場合には、比較は、より包括的に決定された閾値を必要とし得る。   In some embodiments, one or more facial landmarks of the consumer 202 are analyzed to detect or estimate the posture of the consumer 202 face. Facial landmark features can include the nose, forehead, eyebrows, eyes, eye edges, lips, and / or mouth. Depending on the posture of the face or face photo from the live session, the subject's face is projected at various angles. A slight change in the posture or the angle of view of the face photo changes the orientation and size of each face landmark. One or more orientations and magnitudes of facial landmark features can be expected to change. Each landmark feature may be accompanied by an equivalent change in orientation and size. The expected change threshold may be a combination of all expected changes in landmark features. As described above, the threshold may be application specific. For example, in the case of a transaction involving an amount less than a certain level, the comparison to determine that the face biometric that is a live session and the face biometric is authentic may not be very precise. In addition, in the case of transactions involving the most important identification documents, such as passport renewals, the comparison may require a more comprehensively determined threshold.

いくつかの実施形態では、コンシューマ202の顔の生体性の検証は、対象物の角膜反射と、顔の姿勢変化と、その両方に基づいている。対象物の角膜反射応答と既知のモーションパターンとのマッチング度を定量化することで、第1の数値を特定するために、スコアリング機構を実装してよい。スコアリング機構は、さらに、(例えば、カメラ装置の測定された位置から計算された)予想される姿勢または姿勢変化と、取得した画像で検出された姿勢とのマッチング度を定量化することで、第2の数値を特定するために、実装することもできる。次に、例えば重み係数を用いて、第1と第2のマッチング値に基づき、総合スコアを決定することができる。第1と第2のマッチング値の重み係数は、例えば、50%と50%、または60%と40%とすることができる。追加的な検証によって、コンシューマ202が確かに生体であるとともにアイデンティティ・プロバイダ206のサーバに保存されているバイオメトリックの本人であることの信頼度を高め得る。   In some embodiments, verification of the vitality of the face of the consumer 202 is based on both the corneal reflection of the object and the change in facial pose. A scoring mechanism may be implemented to identify the first numerical value by quantifying the degree of matching between the corneal reflection response of the object and the known motion pattern. The scoring mechanism further quantifies the degree of matching between the expected posture or posture change (e.g., calculated from the measured position of the camera device) and the posture detected in the acquired image, It can also be implemented to identify the second numerical value. Next, an overall score can be determined based on the first and second matching values using, for example, a weighting factor. The weighting factors of the first and second matching values can be, for example, 50% and 50%, or 60% and 40%. Additional verification may increase the confidence that the consumer 202 is indeed a biometric and is a biometric identity stored on the identity provider 206 server.

いくつかの実施形態では、生体性検証は、コンシューマ202からの照明器の角膜反射の分析を伴う。最初に、コンシューマ202の顔を検出してよい。図5を参照して、次に、ビデオフィード(または画像)内でコンシューマ202の眼501を検出してよい。一般に、このような検出は、顔または眼のテンプレートデータを利用するセグメンテーション法を伴う。そのようなテンプレートデータは、ビデオフィード内で顔または眼の領域を識別するために、様々な形状変換によってモーフィングしてよい。眼501が検出されたら、次に、ビデオフィード内で角膜領域502を特定してよい。次いで、ビデオフレーム内で角膜領域における照明の反射を分析してよい。   In some embodiments, biometric verification involves analysis of illuminator corneal reflections from consumer 202. First, the face of the consumer 202 may be detected. Referring to FIG. 5, the eye 501 of consumer 202 may then be detected in the video feed (or image). In general, such detection involves a segmentation method that utilizes facial or eye template data. Such template data may be morphed by various shape transformations to identify facial or eye areas within the video feed. Once the eye 501 is detected, the corneal region 502 may then be identified in the video feed. The illumination reflection at the corneal region may then be analyzed within the video frame.

最初に、コンシューマ202に隣接した照明器506を作動させてよい。例えば、バイオメトリック認証のために生体性検証ログインをコンシューマ202が選択した(例えば図2Aの210)と判断したことに応じて、照明器506を作動させることができる。一例として、図5の照明器506は、2つの異なる色(例えば、青色または赤色)の照明源506Aおよび照明源506Bを有する。照明源は、物理光源またはデジタル照明源とすることができる。いくつかの実施形態では、照明器506は、例えば発光ダイオード(LED)または光ランプである物理光源を有する。照明器506は、異なる光波長の1つ以上の光源、ひいては1つ以上の異なる色を有する光源を有し得る。いくつかの実施形態では、照明器306は、例えば、レーザ蛍光ディスプレイ(LPD)、液晶ディスプレイ(LCD)画面、アクティブマトリクス有機LED画面のような発光ダイオード(LED)画面、または任意の適切なディスプレイ画面、などのような画面上に表示される1つ以上のデジタル照明源を有する。デジタル照明源は、例えばモバイルデバイスのLCD画面である画面上に表示されるデジタルカラーパターンであり得る。デジタル照明源は、コンシューマ202のコンピューティングデバイスにインストールされたアプリケーション(またはアプリ)によって提供するか、またはアイデンティティ・プロバイダ206のサーバによって提供することができ、例えば、コンシューマ202のコンピューティングデバイスに表示されるユーザインタフェース内に提供することができる。いくつかの実施形態では、照明器306は、1つ以上の物理光源および1つ以上のデジタル照明源を有する。   Initially, the illuminator 506 adjacent to the consumer 202 may be activated. For example, the illuminator 506 can be activated in response to determining that the consumer 202 has selected a biometric verification login for biometric authentication (eg, 210 in FIG. 2A). As an example, the illuminator 506 of FIG. 5 includes an illumination source 506A and an illumination source 506B of two different colors (eg, blue or red). The illumination source can be a physical light source or a digital illumination source. In some embodiments, the illuminator 506 includes a physical light source that is, for example, a light emitting diode (LED) or a light lamp. The illuminator 506 may have one or more light sources with different light wavelengths and thus one or more different colors. In some embodiments, the illuminator 306 may be a light emitting diode (LED) screen, such as a laser fluorescent display (LPD), a liquid crystal display (LCD) screen, an active matrix organic LED screen, or any suitable display screen, for example. , Etc., having one or more digital illumination sources displayed on the screen. The digital illumination source may be a digital color pattern displayed on a screen, for example an LCD screen of a mobile device. The digital lighting source can be provided by an application (or app) installed on the consumer 202 computing device or provided by a server of the identity provider 206, for example, displayed on the consumer 202 computing device. Can be provided in the user interface. In some embodiments, the illuminator 306 has one or more physical light sources and one or more digital illumination sources.

照明器506は、スマートフォン、携帯電話機、モバイルコンピューティングデバイス、またはデスクトップコンピュータなど、そこからコンシューマ202が自身のアイデンティティおよび生体性の認証を試みるコンシューマ電子デバイスに、内蔵または表示されてよい。照明器506は、リライング・パーティの現金自動預払機(ATM)のコンソール上またはATMに隣接したコンソール上に内蔵されてよい。リライング・パーティまたはアイデンティティ・プロバイダ206に関連付けられたコンピューティングデバイスは、照明器506を制御するように構成されてよい。コンシューマ202は、そのコンピューティングデバイスを介して、自身のアイデンティティおよび生体性の認証を試みることがある。   The illuminator 506 may be embedded or displayed on a consumer electronic device from which the consumer 202 attempts to authenticate its identity and biometric, such as a smartphone, mobile phone, mobile computing device, or desktop computer. The illuminator 506 may be integrated on the console of the Reliing Party Automatic Teller Machine (ATM) or on the console adjacent to the ATM. A computing device associated with the relying party or identity provider 206 may be configured to control the illuminator 506. The consumer 202 may attempt to authenticate its identity and biometric via its computing device.

照明器506は、作動させると、コンシューマ202を照射し得る。照明器506からの照射は、コンシューマ202の眼に対して直進するか、またはコンシューマ202の眼に対して入射角を有し得る。いくつかの例では、照明器506からの照射が斜めにコンシューマ202の眼に入射するように、照明器506は位置決めされる。いくつかの例では、照明器506からの照射が斜めにコンシューマ202の眼に入射するように、コンシューマ202は、照明器506(例えば、自身のスマートフォンに搭載されたフラッシュライト)を顔(または眼)の脇に動かすか、または自身の顔(または眼)を動かすように指示されることがある。   The illuminator 506 may illuminate the consumer 202 when activated. The illumination from the illuminator 506 may go straight to the consumer 202 eye or have an angle of incidence with respect to the consumer 202 eye. In some examples, the illuminator 506 is positioned such that illumination from the illuminator 506 is incident on the consumer 202 eye at an angle. In some examples, the consumer 202 places the illuminator 506 (eg, a flashlight mounted on its smartphone) on the face (or eyes) so that the illumination from the illuminator 506 is incident on the consumer 202's eyes at an angle. ) Or move your face (or eyes).

照射の情報(例えば、位置、形状、持続時間、色もしくは波長、または照射パターン)は、既知であり得るか、または予め決定できる。いくつかの例では、コンシューマ202のコンピューティングデバイスで、生体性検証を実施する。照射の情報は、コンピューティングデバイスには既知であるが、事前にコンシューマ202(または中間者としてのハッカー予備軍)には未知とすることができる。照射の情報は、コンピューティングデバイスで生成するか、またはアイデンティティ・プロバイダ206のサーバによって提供することができる。   Irradiation information (eg, position, shape, duration, color or wavelength, or illumination pattern) can be known or can be predetermined. In some examples, biometric verification is performed on the computing device of consumer 202. The irradiation information is known to the computing device, but may be unknown to the consumer 202 (or a hacker reserve as an intermediary) in advance. The illumination information can be generated at the computing device or provided by the identity provider 206 server.

照明器506を作動させた後に、直ちに、例えばコンシューマ202に隣接したカメラ装置によって角膜反射を取得してよい。カメラ装置は、照明器506の作動前、作動中、作動後に、コンシューマ202の顔画像の取得を継続することができる。いくつかの例では、予想される(既知または所定の)照射と角膜反射が一致しているかどうかを確認するために、取得した画像フレームを分析してよい。角膜反射を分析する際には、コンシューマ202の角膜において反射された照射の位置、形状、および色/波長を検出して、予想照射と比較してよい。一例では、角膜反射位置である例えば反射スポット504Aまたは504Bを、照明源506Aまたは506Bの位置と相関させてよい。他の例では、反射スポット504Aまたは504Bの形状を、照明源506Aまたは506Bの形状と比較してよい。さらに別の例では、反射スポット504Aまたは504Bからの反射光の波長(もしくは色)を、照明源506Aまたは506Bの波長(もしくは色)と比較してよい。   A corneal reflection may be acquired immediately after activation of the illuminator 506, for example, by a camera device adjacent to the consumer 202. The camera device can continue to acquire the face image of the consumer 202 before, during, and after the illuminator 506 is activated. In some examples, the acquired image frames may be analyzed to ascertain whether the expected (known or predetermined) illumination and corneal reflection are consistent. In analyzing corneal reflection, the position, shape, and color / wavelength of the illumination reflected at the cornea of consumer 202 may be detected and compared to the expected illumination. In one example, a reflective spot 504A or 504B, such as a corneal reflection position, may be correlated with the position of illumination source 506A or 506B. In other examples, the shape of the reflected spot 504A or 504B may be compared to the shape of the illumination source 506A or 506B. In yet another example, the wavelength (or color) of reflected light from the reflective spot 504A or 504B may be compared to the wavelength (or color) of the illumination source 506A or 506B.

いくつかの例では、時間的照射パターンを形成するために、照明器506(例えば、照明源506Aまたは506B)による照射パターンを経時的に変調してよい。例えば、照明源506Aは、それぞれのバーストが同じまたは異なる持続時間で、バースト照射を生成してよい。例えば、第1の持続時間は1秒とすることができ、第2の持続時間は2秒とすることができる。また、時間的照射パターンは、異なる持続時間で、または異なる時点で、例えば方形、三角形、および/もしくは円形の間で変化する照射形状の変化、ならびに/または照明色の変化、を伴うこともできる。一例では、照明器506は、第1の持続時間で赤色の方形を、第2の持続時間で赤色の円形を、第3の持続時間で無照射を、第4の持続時間で青色の三角形を、提供する。角膜反射が同じ時間的パターンを含むかどうかを確認するために、取得した連続画像における角膜反射を分析してよい。また、取得した連続画像における角膜反射が、照明器506の個々の予想角膜反射とマッチするかどうかを確認するために、取得した連続画像における角膜反射を個々に分析することもできる。コンシューマ202の顔の生体性の判定は、取得した連続画像のマッチ結果に基づき得る。   In some examples, the illumination pattern by illuminator 506 (eg, illumination source 506A or 506B) may be modulated over time to form a temporal illumination pattern. For example, illumination source 506A may generate burst illumination with each burst having the same or different duration. For example, the first duration can be 1 second and the second duration can be 2 seconds. Temporal illumination patterns can also involve illumination shape changes and / or illumination color changes that vary at different durations or at different times, eg, between squares, triangles, and / or circles. . In one example, the illuminator 506 has a red square for a first duration, a red circle for a second duration, no illumination for a third duration, and a blue triangle for a fourth duration. ,provide. To confirm whether the corneal reflection includes the same temporal pattern, the corneal reflection in the acquired sequential images may be analyzed. It is also possible to individually analyze the corneal reflections in the acquired continuous images to see if the corneal reflections in the acquired continuous images match the individual expected corneal reflections of the illuminator 506. The determination of the biological nature of the face of the consumer 202 can be based on the acquired continuous image match result.

いくつかの例では、時間的照射パターンを形成するために、2つ以上の照明源(例えば、照明源506Aおよび506B)による照射パターンを経時的に変調してよい。照明源は、同じまたは異なる色を照射し得る。例えば、照明源506Aおよび506Bは、それぞれ同じまたは異なる持続時間で、かつ/またはそれぞれ持続時間中に同じまたは異なる照射形状で、バースト照射を生成してよい。一例では、第1の時点で、照明源506Aは赤色の方形を照射し、照明源506Bは青色の方形を照射する。第2の時点で、照明源506Aは赤色の円形を照射し、照明源506Bは青色の方形を照射する。第3の時点で、照明源506は赤色の円形を照射し、照明源506は青色の円形を照射する。第4の時点で、照明源506は赤色の矩形を照射し、照明源506は赤色の円形を照射する。角膜反射が同じ時間的パターンを含むかどうかを確認するために、連続画像における角膜反射を分析してよい。   In some examples, the illumination patterns from two or more illumination sources (eg, illumination sources 506A and 506B) may be modulated over time to form a temporal illumination pattern. The illumination source may illuminate the same or different colors. For example, illumination sources 506A and 506B may each generate burst illumination with the same or different duration and / or with the same or different illumination shape during each duration. In one example, at a first time, illumination source 506A illuminates a red square and illumination source 506B illuminates a blue square. At a second time, illumination source 506A illuminates a red circle and illumination source 506B illuminates a blue square. At a third time, the illumination source 506 emits a red circle and the illumination source 506 emits a blue circle. At the fourth time point, the illumination source 506 emits a red rectangle and the illumination source 506 emits a red circle. To confirm whether the corneal reflections contain the same temporal pattern, the corneal reflections in successive images may be analyzed.

いくつかの例では、空間的照射パターンを形成するために、2つ以上の照明源(例えば、照明源506Aおよび506B)による照射パターンを空間的に変調してよい。例えば、照明源506Aおよび506Bは、インタリーブで角膜502を照射するように作動させてよい。一般に、異なる時点で、照明源506A、照明源506A、または照明源506Aと506Bの組み合わせをターンオンもしくはターンオフすることにより、照明源506Aおよび506Bからの照射パターンを変化させてよい。これに応じて、反射が同じ空間的照射パターンの照射を含むかどうかを確認するために、角膜反射を分析してよい。本明細書で説明するように、生体性認証セッションの信頼性を向上させる多様なマッチングをさらにサポートするために、照射の時間的側面と空間的側面を組み合わせてよい。   In some examples, the illumination pattern from two or more illumination sources (eg, illumination sources 506A and 506B) may be spatially modulated to form a spatial illumination pattern. For example, illumination sources 506A and 506B may be activated to illuminate cornea 502 in an interleaved manner. In general, at different times, the illumination pattern from illumination sources 506A and 506B may be changed by turning on or off illumination source 506A, illumination source 506A, or a combination of illumination sources 506A and 506B. In response, the corneal reflection may be analyzed to see if the reflection includes illumination of the same spatial illumination pattern. As described herein, the temporal and spatial aspects of irradiation may be combined to further support a variety of matches that improve the reliability of biometric authentication sessions.

作動させた照明に応じた画像を、フルフレームレートのビデオストリームで取得してよい。いくつかの実施形態では、上述のように、取得したビデオストリームに基づいて、アイデンティティ・プロバイダ206のサーバで、生体性検証を実施する。通信効率のために、取得したビデオストリームの一部のみを伝送してよい。角膜反射が変化すると予想されるときには、ビデオストリームをデジタル化して、(コンシューマ202が静止したままのときの)フロアレベルレートよりも高速でアイデンティティ・プロバイダ206のサーバに送信してよい。実際に、コンシューマ202からのビデオストリームの角膜反射における変化が、照明器506の照射における既知の変化とマッチするかどうか、または特定の時点におけるビデオフレームの角膜反射が、それらの特定の時点における照明器506の既知の照射に基づく予想角膜反射とマッチするかどうか、を確認するために、送信されたビデオストリームをアイデンティティ・プロバイダ206のサーバで分析してよい。   Images corresponding to the activated lighting may be acquired in a full frame rate video stream. In some embodiments, biometric verification is performed at the identity provider 206 server based on the acquired video stream, as described above. For communication efficiency, only a portion of the acquired video stream may be transmitted. When the corneal reflection is expected to change, the video stream may be digitized and sent to the identity provider 206 server faster than the floor level rate (when the consumer 202 remains stationary). In fact, whether the change in corneal reflection of the video stream from consumer 202 matches a known change in illumination of illuminator 506, or the corneal reflection of the video frame at a particular point in time is the illumination at those particular point in time. The transmitted video stream may be analyzed at the identity provider 206 server to see if it matches the expected corneal reflection based on the known illumination of the device 506.

顔認証と同様に、取得された画像内の、アイデンティティ・プロバイダ206のサーバで受信される角膜反射応答と、予想される照射(例えば、位置、形状、および波長もしくは色、または時間的および/もしくは空間的パターン)とのマッチング度を定量化するために、スコアリング機構を実装してよい。マッチング度は、状況に依存することがあり、従って応用ごとに異なり得る。例えば、マッチング度は、基本的な取引の性質、または基本的な取引に係る金額に依存することがある。   Similar to face recognition, the corneal reflex response received at the identity provider 206 server and the expected illumination (eg, position, shape, and wavelength or color, or temporal and / or in the acquired image) A scoring mechanism may be implemented to quantify the degree of matching with the spatial pattern. The degree of matching can depend on the situation and can therefore vary from application to application. For example, the degree of matching may depend on the nature of the basic transaction or the amount of money associated with the basic transaction.

いくつかの実施形態では、コンピューティングデバイスは、例えば、このコンピューティングデバイスに内蔵または結合されたカメラ装置で取得されたビデオストリームを受け取り、取得されたビデオストリームに基づいて、生体性検証を実施する。コンピューティングデバイスは、コンシューマ202のコンピューティングデバイスとすることができ、ここからコンシューマ202は自身のアイデンティティおよび生体性の認証を試みる。例えば、コンピューティングデバイスは、照明器506としてのフラッシュライトおよびカメラ装置としてのカメラを内蔵したスマートフォンとすることができる。また、スマートフォンにインストールされたモバイルアプリによって、照明器506としての1つ以上のデジタル照明源を提供することもできる。フラッシュライトとデジタル照明源を組み合わせて、照明器506として使用することができる。コンピューティングデバイスは、所定または既知の照射パターンに基づいて照射するように照明器506を制御することができる。照射パターンは、コンピューティングデバイスで生成するか、またはアイデンティティ・プロバイダ206のサーバから送信することができる。また、照明器506の照射は、検出器で測定することもでき、これにより、測定された照射をコンピューティングデバイスに提供する。照明器506の既知の照射は、コンピューティングデバイスに保存することができる。また、コンピューティングデバイスは、照明器506の照射パターンの作動中にビデオストリームを取得するために、カメラ装置を制御することもできる。他のいくつかの実施形態では、コンピューティングデバイスは、リライング・パーティまたはアイデンティティ・プロバイダ206に関連付けられる。   In some embodiments, the computing device receives, for example, a video stream acquired with a camera device embedded in or coupled to the computing device and performs biometric verification based on the acquired video stream. . The computing device can be the computing device of consumer 202, from which consumer 202 attempts to authenticate its identity and biometric. For example, the computing device can be a smart phone with a built-in flashlight as the illuminator 506 and a camera as the camera device. In addition, one or more digital illumination sources as the illuminator 506 can be provided by a mobile application installed on the smartphone. A combination of a flashlight and a digital illumination source can be used as the illuminator 506. The computing device can control the illuminator 506 to illuminate based on a predetermined or known illumination pattern. The illumination pattern can be generated at the computing device or transmitted from the identity provider 206 server. The illumination of the illuminator 506 can also be measured with a detector, thereby providing the measured illumination to the computing device. The known illumination of the illuminator 506 can be stored on the computing device. The computing device can also control the camera device to acquire a video stream during operation of the illumination pattern of the illuminator 506. In some other embodiments, the computing device is associated with a relying party or identity provider 206.

カメラ装置は、コンピューティングデバイスの近くにあるので、取得されたビデオストリーム(例えば、一部)の伝送は高速であることが可能である。コンピューティングデバイスは、ビデオストリーム(連続したビデオフレーム)の角膜反射における照射(または照射変化)が、照明器506の既知の照射(または照射変化)とマッチすることを確認するために、伝送されたビデオストリームを分析することができる。コンピューティングデバイスは、取得された画像における角膜反射応答と予想される照射とのマッチング度を定量化するために、スコアリング機構を用いることができる。マッチング度は、状況に依存することがあり、従って応用ごとに異なり得る。コンピューティングデバイスは、スコア付けされたマッチングに基づいて、コンシューマ202の顔の生体性を検証することができる。コンピューティングデバイスは、次に、検証結果を、例えばコンシューマ202のバイオメトリックデータと共に、アイデンティティ・プロバイダ206のサーバに提示することができる。次いで、アイデンティティ・プロバイダ206のサーバで、コンピューティングデバイスから提示された検証結果に基づいて、提示されたバイオメトリックデータがコンシューマ202の生体の顔バイオメトリックであるかどうかをシームレスに確認することができる。   Since the camera device is near the computing device, transmission of the acquired video stream (eg, a portion) can be fast. The computing device was transmitted to confirm that the illumination (or illumination change) in the corneal reflection of the video stream (consecutive video frames) matches the known illumination (or illumination change) of the illuminator 506. The video stream can be analyzed. The computing device can use a scoring mechanism to quantify the degree of matching between the corneal reflection response and the expected illumination in the acquired image. The degree of matching can depend on the situation and can therefore vary from application to application. The computing device can verify the biogenicity of the consumer 202 face based on the scored matches. The computing device can then present the validation results to the identity provider 206 server, eg, along with the consumer 202 biometric data. The identity provider 206 server can then seamlessly verify whether the presented biometric data is the biometric face biometric of the consumer 202 based on the verification results presented from the computing device. .

本明細書で開示する実施形態では、時間的および/または空間的照射パターンを伴う照射に応じた角膜反射を検出する。角膜反射によれば、非侵入型であって、(例えば、赤外線から可視光まで)幅広い帯域の運用に対処できるという利点が得られる。特に、角膜反射は、より散乱が多い傾向がある皮膚反射よりも正反射性が強い傾向がある。本明細書で開示する実施形態は、顔姿勢または他の身体姿勢を変化させるようにコンシューマ202に指示するための口頭指示は伴わなくてよい。本明細書で開示するいくつかの実施形態では、ユーザが気付くことなく、ユーザの入力を伴うことなく、生体性をシームレスに検出することができる。例えば、照射パターンを作動させるとともに連続画像を取得することは、例えばコンシューマの顔バイオメトリックを取得するときにユーザに予告することなく、実施することができる。また、顔バイオメトリックを取得する間に、例えばコンシューマ202のコンピューティングデバイスで、生体性検証を完了させることもできる。   Embodiments disclosed herein detect corneal reflections in response to illumination with temporal and / or spatial illumination patterns. The corneal reflection provides the advantage of being non-intrusive and capable of handling a wide band of operations (eg, from infrared to visible light). In particular, corneal reflection tends to be more specular than skin reflection, which tends to be more scattering. The embodiments disclosed herein may not be accompanied by verbal instructions to instruct the consumer 202 to change the face posture or other body posture. In some embodiments disclosed herein, biologicality can be detected seamlessly without the user's knowledge and without user input. For example, activating an illumination pattern and acquiring a continuous image can be performed without prior notice to the user when acquiring a consumer's facial biometric, for example. Also, biometric verification can be completed, for example, on the computing device of consumer 202, while acquiring facial biometrics.

いくつかの実施形態では、追加的に、コンシューマ202を認証するためのバイオメトリック認識機能を伴い得る。例として、アイデンティティ・プロバイダ206のサーバは、登録されたコンシューマの顔バイオメトリックを、認証要求を提示しているコンシューマ202の顔バイオメトリックと比較するための顔認識を実施し得る。比較によってマッチする結果が得られる場合には、顔認識で、コンシューマ202が、アイデンティティ・プロバイダ206のサーバに保存されている顔バイオメトリックの本人であることが証明され得る。他の例では、バイオメトリック認識として、音声認識、話者認識、歩行分析などが含まれることがある。本明細書で開示するいくつかの実施形態では、ユーザが気付くことなく(例えば、画像取得プロセスにおいて何らかの特定の動作をユーザに指示することなく)、生体性をシームレスに検出することができる。生体性検出をオンラインアイデンティティ管理セッションからさらに切り離すために、ステルス機能を利用することができる。   Some embodiments may additionally involve a biometric recognition function for authenticating the consumer 202. As an example, the identity provider 206 server may perform face recognition to compare the registered consumer's face biometric with the face biometric of the consumer 202 presenting the authentication request. If the comparison yields a matching result, face recognition may prove that consumer 202 is the identity of the face biometric stored on the identity provider 206 server. In other examples, biometric recognition may include speech recognition, speaker recognition, gait analysis, and the like. In some embodiments disclosed herein, biometrics can be detected seamlessly without the user being aware (eg, without instructing the user of any particular action in the image acquisition process). To further separate biometric detection from online identity management sessions, stealth functionality can be utilized.

図2Aを参照して、コンシューマ202が生体であるとともにアイデンティティ・プロバイダ206で保存されているバイオメトリックの本人であることを確認した後に、アイデンティティ・プロバイダ206のサーバは、認証が成功したという信号を提供し得る。一方、コンシューマ202が生体であると確認できない場合、またはリライング・パーティ204のアカウントに関連付けてアイデンティティ・プロバイダ206で保存されているバイオメトリックの本人であると確認できない場合には、アイデンティティ・プロバイダ206のサーバは、認証が失敗したという信号を提供し得る。その信号は、コンシューマ202をリライング・パーティ204に戻すようにリダイレクト(218)するためのコンシューマ202へのメッセージに埋め込んでよい。   Referring to FIG. 2A, after confirming that the consumer 202 is a living organism and is a biometric principal stored at the identity provider 206, the identity provider 206 server signals that the authentication was successful. Can be provided. On the other hand, if the consumer 202 cannot be identified as a living person, or cannot be identified as the identity of the biometric stored in the identity provider 206 associated with the relying party 204 account, The server may provide a signal that authentication has failed. That signal may be embedded in a message to consumer 202 to redirect 218 consumer 202 back to relying party 204.

次に、コンシューマ202は、リライング・パーティ204に戻り得る(220)。埋め込み信号が検証の成功を示している場合には、コンシューマ202は、リライング・パーティ204のアカウントへのアクセスに進んでよい。リライング・パーティ204に戻る際に、コンシューマ202は、アイデンティティ・プロバイダ206のクレデンシャルで裏付けられた成功信号を添付し得る。アイデンティティ・プロバイダ206のクレデンシャルは、例えば、アイデンティティ・プロバイダ206の電子秘密鍵、アイデンティティ・プロバイダ206の電子透かし、を含むことがある。一方、埋め込み信号が検証の失敗を示している場合には、コンシューマ202は、リライング・パーティ204のアカウントにアクセスしないことがある。さらに、コンシューマ202は、リライング・パーティ204に戻るようにリダイレクトされないことさえもあり得る。   The consumer 202 may then return to the relying party 204 (220). If the embedded signal indicates successful verification, the consumer 202 may proceed to access the relying party 204 account. Upon returning to the relying party 204, the consumer 202 may attach a success signal backed by the identity provider 206 credentials. The identity provider 206 credentials may include, for example, the identity provider 206 electronic private key, the identity provider 206 digital watermark. On the other hand, if the embedded signal indicates verification failure, the consumer 202 may not access the relying party 204 account. Further, the consumer 202 may not even be redirected back to the relying party 204.

図2Bは、いくつかの実施形態により、コンシューマがアイデンティティ・プロバイダに未登録である場合に、コンシューマを認証する際の、コンシューマと、リライング・パーティと、アイデンティティ・プロバイダと、の間のインタラクションの例を示すタイミング図である。図2Aに関連して上述したように、このプロセスは、コンシューマ202が、リライング・パーティ204で管理されるアカウントにアクセスするために、認証要求を送信(208)することよって開始し得る。いくつかの実施形態では、認証要求の提示は、例えば金融機関で管理されるアカウントにアクセスするために、コンシューマ202がバイオメトリック認証102を選択することに相当し得る。コンシューマが認証要求を提示するときに、コンシューマは、バイオメトリック認証のための生体性検証ログインを選択(210)してもよい。リライング・パーティのサーバは、コンシューマによる生体性検証ログインの選択を受けて、生体性検証に進むようにコンシューマをリダイレクト(212)してよい。その後、コンシューマ202を、アイデンティティ・プロバイダ206のサーバにリダイレクトしてよい。例えば、コンシューマ202は、consumer@relying_party.comの形式のクレデンシャルトークンを使用することにより、生体性検証を利用するための要求を提示(214)してよい。図2Bに示すように、その要求は、アイデンティティ・プロバイダ206のサーバに提示してよい。   FIG. 2B illustrates an example of an interaction between a consumer, a relying party, and an identity provider when authenticating a consumer when the consumer is unregistered with the identity provider, according to some embodiments. FIG. As described above in connection with FIG. 2A, this process may begin by the consumer 202 sending 208 an authentication request to access an account managed by the relying party 204. In some embodiments, presenting the authentication request may correspond to the consumer 202 selecting the biometric authentication 102, for example, to access an account managed at a financial institution. When the consumer submits an authentication request, the consumer may select (210) a biometric verification login for biometric authentication. The relying party server may redirect 212 the consumer to proceed to biometric verification upon selection of the biometric verification login by the consumer. The consumer 202 may then be redirected to the identity provider 206 server. For example, the consumer 202 may be consumer @ relying_party. By using a credential token in the form of com, a request to utilize biometric verification may be presented (214). The request may be presented to the identity provider 206 server, as shown in FIG. 2B.

アイデンティティ・プロバイダ206のサーバは、コンシューマ202が、アイデンティティ・プロバイダ206の生体性検証サービスにまだ登録していないことを通知してよい。これに応じて、アイデンティティ・プロバイダ206でコンシューマ202の要求通りに生体性検証サービスにコンシューマ202を登録してよいかどうかを、アイデンティティ・プロバイダ206のサーバはリライング・パーティ204のサーバに問い合わせることがある。一部のリライング・パーティは、生体性検証のためのアイデンティティ・プロバイダ206を財政的に補償している場合がある。その代わりに、それらのリライング・パーティは、コンシューマを、対応するアカウント利益によって各種階級に分類し得る。実例として、例えば$50kの閾値を超える保有高を有するコンシューマは、無料サービスとして生体性検証サービスを受ける場合がある。それよりもアカウント額の低いコンシューマ、または会員履歴が短いコンシューマは、生体性検証サービスを受けるためには、リライング・パーティ204に料金を支払う必要がある場合がある。   The identity provider 206 server may notify that the consumer 202 has not yet registered with the identity provider 206 biometric verification service. In response, the identity provider 206 server may ask the server of the relying party 204 whether the identity provider 206 may register the consumer 202 with the biometric verification service as requested by the consumer 202. . Some relying parties may have financially compensated the identity provider 206 for biometric verification. Instead, those relying parties may classify consumers into different classes according to the corresponding account profit. As an example, a consumer having a holding amount exceeding, for example, a threshold of $ 50k may receive a biometric verification service as a free service. Consumers with lower account amounts or shorter membership histories may need to pay a fee to the relying party 204 to receive the biometric verification service.

リライング・パーティ204のサーバは、コンシューマ202が生体性検証サービスに登録してよいと判断したら、コンシューマ202の登録を進めてよいことをアイデンティティ・プロバイダ206のサーバに示し得る(224)。一方、リライング・パーティ204のサーバが、コンシューマ202を生体性検証サービスに登録しなくてよいと判断する場合には、リライング・パーティ204のサーバは、コンシューマ202が要求したサービスに登録する許可を得られないことを、アイデンティティ・プロバイダ206のサーバに通知してよく、アイデンティティ・プロバイダ206のサーバは、コンシューマ202からの登録要求を破棄してよい。特に、アイデンティティ・プロバイダ206のサーバは、登録失敗フラグを用いて、リライング・パーティ204に戻るようにコンシューマ202を誘導(224)する場合がある。   If the server of the relying party 204 determines that the consumer 202 may register with the biometric verification service, it may indicate to the server of the identity provider 206 that registration of the consumer 202 may proceed (224). On the other hand, if the server of the relying party 204 determines that the consumer 202 need not be registered with the biometric verification service, the server of the relying party 204 obtains permission to register with the service requested by the consumer 202. May not notify the identity provider 206 server, and the identity provider 206 server may discard the registration request from the consumer 202. In particular, the identity provider 206 server may direct (224) the consumer 202 back to the relying party 204 using a registration failure flag.

アイデンティティ・プロバイダ206のサーバが、アイデンティティ・プロバイダ206でコンシューマ202の登録を進めてよいという確認を得たら、アイデンティティ・プロバイダ206のサーバは、コンシューマ202の登録手続きを実施(226)してよい。具体的には、アイデンティティ・プロバイダ206は、バイオメトリックを登録するようにコンシューマ202に要求してよい。バイオメトリックとして、例えば、顔バイオメトリック、指紋、掌紋、虹彩スキャン、網膜スキャンを含んでよい。顔バイオメトリックの場合には、アイデンティティ・プロバイダ206のサーバは、例えば、ウェブカメラ、ビデオカメラ、またはスマートフォンカメラの前でポーズをとるようにコンシューマ202に要求してよい。カメラ装置は、例えば、コンシューマ202のコンピューティングデバイス上、またはATM上、または銀行の登録事務所内、にあってよい。カメラ装置、またはカメラ装置に結合されたコンピューティングデバイスは、最初に、取得フレームをアイデンティティ・プロバイダ206のサーバに送信してよい。この取得フレームを、コンシューマ202を識別するバイオメトリック情報として、アイデンティティ・プロバイダ206で保存してよい。例として、アイデンティティ・プロバイダ206のサーバ、またはコンピューティングデバイスは、図2A、3A、3B、4、および5に関連して上述したように、登録セッションの生体性を検証してよい。   Once the identity provider 206 server obtains confirmation that the identity provider 206 may proceed with the registration of the consumer 202, the identity provider 206 server may perform a registration procedure for the consumer 202 (226). Specifically, the identity provider 206 may request the consumer 202 to register a biometric. Biometrics may include, for example, facial biometrics, fingerprints, palm prints, iris scans, and retinal scans. In the case of facial biometrics, the identity provider 206 server may request the consumer 202 to pose in front of, for example, a webcam, video camera, or smartphone camera. The camera device may be, for example, on the computing device of the consumer 202, or on an ATM, or in a bank's registered office. The camera device, or a computing device coupled to the camera device, may first send an acquisition frame to the identity provider 206 server. This acquired frame may be stored at the identity provider 206 as biometric information identifying the consumer 202. As an example, the identity provider 206 server, or computing device, may verify the biological nature of the registration session, as described above in connection with FIGS. 2A, 3A, 3B, 4, and 5.

また、本明細書の開示と矛盾することなく、アイデンティティ・プロバイダ206のサーバは、生体コンシューマがサービスに登録しようとしているという信頼度を高めるために、コンシューマ202に当てる照射パターンを開始させてもよい。本明細書で説明するように、異なる別々の空間変調および時間変調のための多様な照射パターンによって、シングル照射応答に伴う曖昧さが排除され得る。例えば、あるシングル照射から予想される最大限までコンシューマ202が応答していない可能性がある場合、または正確な反射応答を含むフレームがビデオ伝送中のサンプリング誤差によって欠損した可能性がある場合には、コンシューマ202がサービスに登録しようとしている本人かつ生体であると確信を持って判定するには、シングル照射応答は不十分であり得る。   Also, consistent with the disclosure herein, the identity provider 206 server may initiate an irradiation pattern to be applied to the consumer 202 to increase the confidence that the biometric consumer is about to register for the service. . As described herein, a variety of illumination patterns for different separate spatial and temporal modulations can eliminate ambiguity associated with a single illumination response. For example, if the consumer 202 may not have responded to the maximum expected from a single exposure, or if a frame containing an accurate reflection response may have been lost due to sampling errors during video transmission The single irradiation response may be insufficient for the consumer 202 to determine with confidence that the consumer 202 is the person and the person that is trying to register for the service.

コンシューマ202が生体かつ本人と判定されて、生体性検証サービスに登録された場合には、アイデンティティ・プロバイダ206のサーバは、認証が成功したという信号を用いて、リライング・パーティ204に戻るようにコンシューマ202をリダイレクト(228)してよい。コンシューマ202がプログラムに登録することに成功した場合には、アイデンティティ・プロバイダ206のサーバは、認証が成功したという信号を提供し得る。一方、コンシューマ202が生体であると確認できず、または本人であると確認できず、検証サービスプログラムに登録できない場合には、アイデンティティ・プロバイダ206のサーバは、認証が失敗したという信号を提供し得る。その信号は、コンシューマ202をリライング・パーティ204に戻すようにリダイレクト(218)するためのコンシューマ202へのメッセージに埋め込んでよい。   When the consumer 202 is determined to be a living person and is registered with the biological verification service, the server of the identity provider 206 uses the signal that the authentication is successful to return to the relying party 204 to return to the consumer. 202 may be redirected (228). If the consumer 202 successfully registers with the program, the identity provider 206 server may provide a signal that the authentication was successful. On the other hand, if the consumer 202 cannot confirm that it is a living body or cannot identify itself as a person and cannot register with the verification service program, the server of the identity provider 206 can provide a signal that authentication has failed. . That signal may be embedded in a message to consumer 202 to redirect 218 consumer 202 back to relying party 204.

次に、コンシューマ202は、リライング・パーティ204に戻り得る(230)。埋め込み信号が認証の成功を示している場合には、コンシューマ202は、リライング・パーティ204のアカウントへのアクセスに進んでよい。リライング・パーティ204に戻る際に、コンシューマ202は、アイデンティティ・プロバイダ206のクレデンシャルで裏付けられた成功信号を添付し得る。アイデンティティ・プロバイダ206のクレデンシャルは、例えば、アイデンティティ・プロバイダ206の電子秘密鍵、アイデンティティ・プロバイダ206の電子透かし、を含むことがある。一方、埋め込み信号が認証の失敗を示している場合には、コンシューマ202は、リライング・パーティ204にアクセスしないことがある。さらに、コンシューマ202は、リライング・パーティ204に戻るようにリダイレクトされないことさえもあり得る。   The consumer 202 may then return to the relying party 204 (230). If the embedded signal indicates successful authentication, the consumer 202 may proceed to access the relying party 204 account. Upon returning to the relying party 204, the consumer 202 may attach a success signal backed by the identity provider 206 credentials. The identity provider 206 credentials may include, for example, the identity provider 206 electronic private key, the identity provider 206 digital watermark. On the other hand, if the embedded signal indicates an authentication failure, the consumer 202 may not access the relying party 204. Further, the consumer 202 may not even be redirected back to the relying party 204.

特に、いくつかの実施形態では、初回の登録者は、その初回登録者がリライング・パーティ204におけるその初回登録者のアカウントへのログインに成功した後に、アイデンティティパーティ206のサーバに送られることがある。登録によって、なりすまし攻撃を防ぐための追加のセキュリティ機能がコンシューマに提供されることがある。それらのセキュリティ機能には、上記で詳述したように、バイオメトリック認識が含まれることもある。実際に、いくつかの構成では、パスワード認証の一形式として、バイオメトリック認識を用いてよい。すなわち、パスワードログインの代わりに、バイオメトリック認識を用いてよい。   In particular, in some embodiments, an initial registrant may be sent to the identity party 206 server after the initial registrant has successfully logged into the initial registrant's account at the relying party 204. . Registration may provide consumers with additional security features to prevent spoofing attacks. These security features may include biometric recognition, as detailed above. Indeed, in some configurations, biometric recognition may be used as a form of password authentication. That is, instead of password login, biometric recognition may be used.

一方、いくつかの実施形態では、アイデンティティ・プロバイダ206は、生体性検証プログラムに登録しようとしている多数のコンシューマについてのデータベースを取得することがある。登録プロセスにおいて、アイデンティティ・プロバイダ206のサーバは、登録を試みているコンシューマからバイオメトリックを収集し得る。アイデンティティ・プロバイダ206のサーバは、コンシューマが正当な登録要求をしている本人かつ生体であることを確認した後に、コンシューマを登録してよい。従って、いくつかの実施形態では、アイデンティティ・プロバイダ206のサーバは、コンシューマ202がリライング・パーティ204からリダイレクトされたときに、コンシューマ202のデジタルバイオメトリックのコピーを所有してよい。コンシューマ202のデジタルバイオメトリックのコピーを利用できるときには、アイデンティティ・プロバイダ206のサーバは、コンシューマ202が生体かつ本人であることを確認するだけでよい。   On the other hand, in some embodiments, the identity provider 206 may obtain a database for a large number of consumers who are trying to register with a biometric verification program. During the registration process, the identity provider 206 server may collect biometrics from consumers attempting to register. The server of the identity provider 206 may register the consumer after confirming that the consumer is the person who is making a valid registration request and is a living organism. Thus, in some embodiments, the identity provider 206 server may own a digital biometric copy of the consumer 202 when the consumer 202 is redirected from the relying party 204. When a digital biometric copy of the consumer 202 is available, the identity provider 206 server need only verify that the consumer 202 is living and authentic.

本明細書に記載の主題および機能的動作の実装は、デジタル電子回路、有形に実現されるコンピュータソフトウェアもしくはファームウェア、本明細書に開示の構造物およびそれらの構造的均等物を含むコンピュータハードウェア、またはそれらの1つ以上の組み合わせで、実現することができる。本明細書に記載の主題の実装は、1つ以上のコンピュータプログラムとして実現することができ、すなわち、データ処理装置で実行するため、またはデータ処理装置の動作の制御用に実行するために、有形の非一時的プログラムキャリア上にエンコードされたコンピュータプログラム命令からなる1つ以上のモジュールとして実現することができる。コンピュータ記憶媒体は、機械可読記憶装置、機械可読記憶基板、ランダムアクセスメモリデバイスまたはシリアルアクセスメモリデバイス、またはそれらの1つ以上の組み合わせ、とすることができる。   Implementations of the subject matter and functional operations described herein include digital electronic circuitry, tangibly realized computer software or firmware, computer hardware including structures disclosed herein and their structural equivalents, Or it can be realized by a combination of one or more thereof. Implementations of the subject matter described herein can be implemented as one or more computer programs, ie, tangible for execution on a data processing device or for controlling the operation of a data processing device. Can be implemented as one or more modules of computer program instructions encoded on a non-transitory program carrier. The computer storage medium may be a machine readable storage device, a machine readable storage substrate, a random access memory device or a serial access memory device, or a combination of one or more thereof.

「データ処理装置」という用語は、データ処理ハードウェアを指すものであって、あらゆる種類のデータ処理用の装置、デバイス、およびマシンを包含し、例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくは複数のコンピュータを含む。また、装置は、例えば、中央処理装置(CPU)、FPGA(フィールドプログラマブルゲートアレイ)、またはASIC(特定用途向け集積回路)、などの専用論理回路でもあり得るか、またはそのような専用論理回路をさらに含み得る。いくつかの実施形態では、データ処理装置および/または専用論理回路は、ハードウェアベースおよび/またはソフトウェアベースのものであってよい。装置は、オプションとして、コンピュータプログラムのための実行環境を構築するコードを含むことができ、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの1つ以上の組み合わせ、を構成するコードを含むことができる。本開示は、例えば、Linux(登録商標)、UNIX(登録商標)、Windows、Mac OS、Android、iOS、または他の任意の適切な従来のオペレーティングシステムなど、従来のオペレーティングシステムを用いたデータ処理装置、またはそのような従来のオペレーティングシステムを用いないデータ処理装置、の使用を企図する。   The term “data processing apparatus” refers to data processing hardware and encompasses any type of data processing apparatus, device, and machine, such as a programmable processor, a computer, or multiple processors or Includes multiple computers. The device can also be a dedicated logic circuit such as, for example, a central processing unit (CPU), an FPGA (Field Programmable Gate Array), or an ASIC (Application Specific Integrated Circuit), or such a dedicated logic circuit can be Further may be included. In some embodiments, the data processing device and / or dedicated logic circuitry may be hardware based and / or software based. The apparatus can optionally include code that builds an execution environment for the computer program, eg configuring processor firmware, protocol stack, database management system, operating system, or one or more combinations thereof. Can contain code. The present disclosure relates to a data processing apparatus using a conventional operating system, such as, for example, Linux, UNIX, Windows, Mac OS, Android, iOS, or any other suitable conventional operating system. Or the use of a data processing device that does not use such a conventional operating system.

プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、またはコードと呼ばれることもあるコンピュータプログラム、またはそのようなものとして記述されることがあるコンピュータプログラムは、コンパイラ型言語もしくインタプリタ型言語、または宣言型言語もしくは手続き型言語、などの任意の形式のプログラミング言語で記述することができ、そしてコンピュータプログラムは、スタンドアロン・プログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境で用いるのに適した他のユニットとしてなど、任意の形式でデプロイすることができる。コンピュータプログラムは、ファイルシステム内のファイルに対応し得るが、ただし、そうである必要はない。プログラムは、例えばマークアップ言語文書に格納される1つ以上のスクリプトのように、他のプログラムまたはデータを保持するファイルの一部に格納するか、当該プログラム専用の単一ファイルに格納するか、または、例えば1つ以上のモジュール、サブプログラム、またはコード部分を格納するファイルのように、複数のコーディネートされたファイルに格納することができる。コンピュータプログラムは、1つのコンピュータ上、または1つのサイトに位置する複数のコンピュータ上、もしくは通信ネットワークで相互接続された複数のサイトに分散された複数のコンピュータ上で実行されるように、デプロイすることができる。各種図面に例示するプログラムの部分は、各種オブジェクト、メソッド、または他のプロセスによって種々の特徴および機能を実現する個々のモジュールとして示しているが、これに代えて、プログラムは、適宜、いくつかのサブモジュール、第三者サービス、コンポーネント、ライブラリなどを含んでよい。逆に、各種コンポーネントの特徴および機能は、適宜、1つのコンポーネントに統合することができる。   A computer program, sometimes referred to as a program, software, software application, module, software module, script, or code, or a computer program that may be described as such, is a compiled or interpreted language, or It can be written in any form of programming language, such as declarative or procedural language, and the computer program is suitable for use as a stand-alone program or in a module, component, subroutine, or computing environment It can be deployed in any format, such as as another unit. A computer program may correspond to a file in a file system, but need not be. The program may be stored in a part of a file holding other programs or data, such as one or more scripts stored in a markup language document, or in a single file dedicated to the program, Alternatively, it can be stored in multiple coordinated files, such as a file that stores one or more modules, subprograms, or code portions. Deploy a computer program to be executed on one computer or on multiple computers located at one site or distributed across multiple sites interconnected by a communication network Can do. The portions of the program illustrated in the various drawings are shown as individual modules that implement various features and functions through various objects, methods, or other processes, but instead, the program may include several Submodules, third party services, components, libraries, etc. may be included. Conversely, the features and functions of various components can be integrated into one component as appropriate.

本明細書で記載するプロセスおよび論理フローは、1つ以上のプログラマブルコンピュータで実行することができ、これにより、入力データを操作して出力を生成することにより機能を実行するための1つ以上のコンピュータプログラムを実行する。また、プロセスおよび論理フローは、例えば、中央処理装置(CPU)、FPGA(フィールドプログラマブルゲートアレイ)、またはASIC(特定用途向け集積回路)、などの専用論理回路で実行することもでき、さらに、装置を、そのような専用論理回路として実現することもできる。   The processes and logic flows described herein can be executed on one or more programmable computers, thereby performing one or more functions to perform functions by manipulating input data to produce output. Run a computer program. The process and logic flow can also be performed by dedicated logic circuits such as, for example, a central processing unit (CPU), FPGA (field programmable gate array), or ASIC (application specific integrated circuit), Can also be realized as such a dedicated logic circuit.

コンピュータプログラムの実行に適したコンピュータは、汎用もしくは専用マイクロプロセッサ、またはその両方、または他の任意の種類の中央処理装置を含み、例えば、そのようなものに基づくものとすることができる。一般に、中央処理装置は、リードオンリメモリまたはランダムアクセスメモリまたはその両方から、命令およびデータを受け取る。コンピュータの主要な要素は、命令を実行するための中央処理装置と、命令およびデータを保存するための1つ以上のメモリデバイスである。一般に、コンピュータは、さらに、例えば、磁気ディスク、光磁気ディスク、もしくは光ディスクなど、データを保存するための1つ以上の大容量記憶装置を有し、あるいは、そのような大容量記憶装置からデータを受信するか、またはそれにデータを転送するか、またはその両方のために、動作的に接続される。ただし、コンピュータは、そのような装置を有することが必須ではない。また、コンピュータは、例えば、携帯電話機、パーソナルデジタルアシスタント(PDA)、携帯オーディオプレーヤまたはビデオプレーヤ、ゲームコンソール、グローバルポジショニングシステム(GPS)受信機、または例えばユニバーサルシリアルバス(USB)フラッシュドライブであるポータブルストレージデバイス、などの他のデバイスに組み込むことができる。   Computers suitable for executing computer programs include, for example, can be based on general purpose or special purpose microprocessors, or both, or any other type of central processing unit. Generally, a central processing unit receives instructions and data from read only memory or random access memory or both. The main elements of a computer are a central processing unit for executing instructions and one or more memory devices for storing instructions and data. In general, a computer further includes one or more mass storage devices for storing data, such as, for example, a magnetic disk, a magneto-optical disk, or an optical disk, or data from such a mass storage device. It is operably connected for receiving and / or transferring data to it. However, it is not essential for a computer to have such a device. The computer may also be a portable storage such as a mobile phone, personal digital assistant (PDA), portable audio player or video player, game console, global positioning system (GPS) receiver, or universal serial bus (USB) flash drive, for example. Can be incorporated into other devices such as devices.

コンピュータプログラム命令およびデータを格納するのに適した(適宜、一時的または非一時的な)コンピュータ可読媒体には、あらゆる形式の不揮発性メモリ、媒体、およびメモリデバイスが含まれ、例として、例えばEPROM、EEPROM、フラッシュメモリデバイスなどの半導体メモリデバイス;例えば内蔵ハードディスクまたはリムーバブルディスクなどの磁気ディスク;光磁気ディスク;CD−ROMおよびDVD−ROMディスク、が含まれる。メモリは、各種オブジェクトまたはデータを保存してよく、それらには、キャッシュ、クラス、フレームワーク、アプリケーション、バックアップデータ、ジョブ、ウェブページ、ウェブページテンプレート、データベーステーブル、ビジネス情報および/または動的情報を格納するリポジトリ、ならびに、任意のパラメータ、変数、アルゴリズム、命令、規則、制約、またはそれらへの参照など、他の任意の適切な情報、が含まれる。さらに、メモリは、ログ、ポリシー、セキュリティデータまたはアクセスデータ、レポートファイルなどのような、他の任意の適切なデータを含んでよい。プロセッサおよびメモリは、専用論理回路を補足されること、または専用論理回路に組み込まれることが可能である。   Computer readable media suitable for storing computer program instructions and data (temporary or non-transitory as appropriate) include any form of non-volatile memory, media, and memory devices, for example, EPROM Semiconductor memory devices such as EEPROM and flash memory devices; magnetic disks such as built-in hard disks or removable disks; magneto-optical disks; CD-ROM and DVD-ROM disks. The memory may store various objects or data, including caches, classes, frameworks, applications, backup data, jobs, web pages, web page templates, database tables, business information and / or dynamic information. The repository to store, as well as any other suitable information, such as any parameters, variables, algorithms, instructions, rules, constraints, or references to them. In addition, the memory may include any other suitable data, such as logs, policies, security data or access data, report files, etc. The processor and the memory can be supplemented by, or incorporated in, dedicated logic circuitry.

ユーザとのインタラクションを提供するために、本明細書に記載の主題の実装は、例えばCRT(陰極線管)、LCD(液晶ディスプレイ)、またはプラズマモニタなど、ユーザに情報を表示するためのディスプレイ装置と、さらに、ユーザがコンピュータへの入力を供給することが可能なキーボード、および例えばマウスまたはトラックボールなどのポインティングデバイスと、を備えるコンピュータ上で実現することができる。また、ユーザとのインタラクションを提供するために、他の種類の装置を用いることも可能であり、例えばユーザに提供されるフィードバックは、例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックなど、任意の形態の感覚フィードバックとすることができ、そしてユーザからの入力は、音響入力、音声入力、または触覚入力など、任意の形態で受け取ることができる。さらに、コンピュータは、例えば、ユーザのクライアントデバイス上のウェブブラウザに、そのウェブブラウザから受信した要求に応えてウェブページを送信するなど、ユーザが使用するデバイスとの間で文書を送受信することによって、ユーザとインタラクションすることができる。   In order to provide user interaction, an implementation of the subject matter described herein includes a display device for displaying information to a user, such as a CRT (cathode ray tube), LCD (liquid crystal display), or plasma monitor, for example. Furthermore, it can be realized on a computer comprising a keyboard by which a user can supply input to the computer, and a pointing device such as a mouse or a trackball. Also, other types of devices can be used to provide interaction with the user, for example, the feedback provided to the user can be in any form, such as visual feedback, audio feedback, or tactile feedback. Sensory feedback and input from the user can be received in any form, such as acoustic input, voice input, or tactile input. In addition, the computer can send and receive documents to and from the device used by the user, such as sending a web page to the web browser on the user's client device in response to a request received from the web browser, for example. Can interact with the user.

「グラフィカルユーザインタフェース」またはGUIという用語は、1つ以上のグラフィカルユーザインタフェース、および特定のグラフィカルユーザインタフェースの表示の各々を記述するために、単数または複数で使用されることがある。従って、GUIは、限定するものではないが、ウェブブラウザ、タッチスクリーン、またはコマンドラインインタフェース(CLI)など、情報を処理するとともに情報結果を効率的にユーザに提示する任意のグラフィカルユーザインタフェースを表し得る。一般に、GUIは、ビジネススイートのユーザが操作可能なインタラクティブフィールド、プルダウンリスト、およびボタンのような、複数のユーザインタフェース(UI)要素を含み、それらの一部またはすべては、ウェブブラウザに関連付けられている。これらおよび他のUI要素は、ウェブブラウザの機能に関連したもの、またはそれを表すものであり得る。   The term “graphical user interface” or GUI may be used singly or in plural to describe each of one or more graphical user interfaces and a particular graphical user interface display. Thus, a GUI may represent any graphical user interface that processes information and efficiently presents information results to the user, such as but not limited to a web browser, touch screen, or command line interface (CLI). . In general, a GUI includes multiple user interface (UI) elements, such as interactive fields, pull-down lists, and buttons that can be manipulated by business suite users, some or all of which are associated with a web browser. Yes. These and other UI elements may relate to or represent web browser functionality.

本明細書に記載の主題の実装は、例えばデータサーバとしてのバックエンドコンポーネントを含むコンピューティングシステムで実現するか、または例えばアプリケーションサーバであるミドルウェアコンポーネントを含むコンピューティングシステムで実現するか、または本明細書に記載の主題の実装とユーザがインタラクションすることが可能なグラフィカルユーザインタフェースまたはウェブブラウザを有する例えばクライアントコンピュータであるフロントエンドコンポーネントを含むコンピューティングシステムで実現するか、または1つ以上のそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、またはフロントエンドコンポーネントの任意の組み合わせにおいて実現することができる。システムのコンポーネントは、例えば通信ネットワークなどの任意の形式または媒体のデジタルデータ通信で相互接続することができる。通信ネットワークの例として、ローカルエリアネットワーク(LAN)、例えばインターネットであるワイドエリアネットワーク(WAN)、および無線ローカルエリアネットワーク(WLAN)が含まれる。   Implementations of the subject matter described herein can be implemented in a computing system that includes, for example, a back-end component as a data server, or in a computing system that includes a middleware component that is, for example, an application server. Implementation in a computing system that includes a front-end component, eg, a client computer, having a graphical user interface or web browser with which a user can interact with an implementation of the subject matter described in the document, or one or more such It can be implemented in any combination of back-end components, middleware components, or front-end components. The components of the system can be interconnected by any form or medium of digital data communication such as, for example, a communication network. Examples of communication networks include a local area network (LAN), for example, a wide area network (WAN) that is the Internet, and a wireless local area network (WLAN).

コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に互いに遠隔にあって、典型的には通信ネットワークを介してインタラクションする。コンピュータプログラムによるクライアントとサーバの関係は、それぞれのコンピュータ上で動作して、互いにクライアント・サーバ関係にある。   The computing system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship between the client and the server by the computer program operates on each computer and is in a client-server relationship with each other.

本明細書は、多くの具体的な実施形態の詳細を含むが、これらは、発明の範囲または特許請求され得る範囲を限定するものと解釈されてはならず、むしろ、特徴についての記載は、特定の発明の特定の実施形態に特有のものと解釈されるべきである。本明細書において別々の実施形態の文脈で記載しているいくつかの特徴は、1つの同じ実施形態で組み合わせて実現することもできる。逆に、1つの同じ実施形態の文脈で記載されているいくつかの特徴は、複数の実施形態で別々に、または任意の適切なサブコンビネーションで、実現することもできる。さらに、特徴は、上記では、いくつかの組み合わせで機能するものとして記載されている場合があり、さらには当初そのように特許請求されている場合があるものの、ある請求項に係る組み合わせからの1つ以上の特徴を、場合によっては、その組み合わせから削除することができ、その請求項に係る組み合わせを、サブコンビネーションまたはサブコンビネーションの変形例に関するものとしてよい。   This specification includes details of many specific embodiments, which should not be construed to limit the scope of the invention or the claims that may be claimed, but rather the description of features It should be construed as specific to a particular embodiment of a particular invention. Certain features that are described in this specification in the context of separate embodiments can also be implemented in combination in one and the same embodiment. Conversely, some features described in the context of one and the same embodiment can also be realized in multiple embodiments separately or in any suitable sub-combination. In addition, features may be described above as functioning in several combinations, and even if originally so claimed, one from a combination according to a claim More than one feature may be deleted from the combination in some cases, and the claimed combination may relate to a sub-combination or a variation of a sub-combination.

同様に、オペレーションは特定の順序で図面に示しているが、これは、それらのオペレーションが、望ましい結果を得るためには、図示の特定の順序で、もしくは順次に実行されること、または図示のすべてのオペレーションが実行されること、が要件であると理解されるべきではない。状況によっては、マルチタスキングおよび並列処理が有効な場合がある。さらに、上記の実施形態において、いくつかのシステムモジュールおよびコンポーネントが分離されていることは、そのような分離が、あらゆる実施形態における要件であると理解されるべきではなく、一般に、記載のプログラムコンポーネントおよびシステムは、1つのソフトウェアプロダクトに相互に統合すること、または複数のソフトウェアプロダクトにパッケージ化すること、が可能であると理解されるべきである。   Similarly, the operations are shown in the drawings in a particular order, which may be performed in the particular order shown or sequentially in order to obtain the desired result, or It should not be understood that all operations are performed. In some situations, multitasking and parallel processing may be effective. Furthermore, the separation of several system modules and components in the above embodiments should not be understood as such a requirement in any embodiment, but generally the described program components. It should be understood that and the system can be integrated into one software product or packaged into multiple software products.

本主題の具体的な実施形態について記載している。当業者には明らかであるように、記載の実施形態の、他の実施形態、変形、および置換は、添付の請求項の範囲内に含まれる。例えば、請求項に記載のアクションは、異なる順序で実行することができ、それでも望ましい結果を得ることができる。   Specific embodiments of the present subject matter are described. As will be apparent to those skilled in the art, other embodiments, variations, and substitutions of the described embodiments are included within the scope of the appended claims. For example, the actions recited in the claims can be performed in a different order and still achieve desirable results.

よって、例示的な実施形態についての上記説明は、本開示を規定または制限するものではない。本開示の趣旨および範囲から逸脱することなく、他の変更、置換、および変形も可能である。   Accordingly, the above description of example embodiments does not define or constrain this disclosure. Other changes, substitutions, and modifications are possible without departing from the spirit and scope of the present disclosure.

Claims (63)

顔の生体性を検出するためのコンピュータ実現による方法であって、
対象物の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を、1つ以上のプロセッサで処理することと、
前記特定された第1と第2の角膜反射に基づいて、前記対象物の角膜反射の変化を、前記1つ以上のプロセッサで特定することと、
前記対象物の前記特定された角膜反射の変化を、前記第1と第2の時点に関連付けられたモーションと、前記1つ以上のプロセッサで比較することと、
前記比較の結果に基づいて、前記対象者の顔の生体性を、前記1つ以上のプロセッサで判定することと、を含む方法。
A computer-implemented method for detecting the biological nature of a face,
One or more processors process the first and second facial images of the subject acquired at first and second successive time points to identify the first and second corneal reflections of the object To do
Identifying a change in corneal reflection of the object with the one or more processors based on the identified first and second corneal reflections;
Comparing the identified change in corneal reflection of the object with motion associated with the first and second time points with the one or more processors;
Determining the biological nature of the subject's face based on the result of the comparison with the one or more processors.
請求項1に記載の方法であって、前記対象物の前記特定された角膜反射の変化をモーションと比較することは、
前記対象物の前記特定された角膜反射の変化を、前記モーションと相関させることと、
前記相関の結果に基づいて、マッチング品質をスコア付けすることと、
前記スコア付けされたマッチング品質を所定の閾値と比較することと、を含み、
前記対象者の顔の生体性を判定することは、
前記スコア付けされたマッチング品質が前記所定の閾値を超えていると判定したことに応じて、前記対象者の顔が生体であると判定することを含む、方法。
The method of claim 1, wherein comparing the identified change in corneal reflection of the object with motion.
Correlating the identified change in corneal reflection of the object with the motion;
Scoring matching quality based on the correlation results;
Comparing the scored matching quality with a predetermined threshold;
Determining the biological nature of the subject's face is
Determining that the subject's face is a living body in response to determining that the scored matching quality exceeds the predetermined threshold.
請求項1に記載の方法であって、
前記特定された第1の角膜反射および前記モーションに基づいて、前記第2の時点での前記対象物の予想角膜反射を決定することと、
前記予想角膜反射と前記特定された第2の角膜反射との一致度を特定することによって、前記対象者の顔の生体性を評価することと、をさらに含む、方法。
The method of claim 1, comprising:
Determining an expected corneal reflection of the object at the second time point based on the identified first corneal reflection and the motion;
Evaluating the biometrics of the subject's face by identifying a degree of coincidence between the predicted corneal reflection and the identified second corneal reflection.
請求項1に記載の方法であって、前記対象物の前記角膜反射の変化は、前記対象物の前記角膜反射の位置の変化を含む、方法。   The method of claim 1, wherein the corneal reflection change of the object includes a change in the position of the corneal reflection of the object. 請求項4に記載の方法であって、前記モーションは、第1と第2の位置の間での前記対象物の動きと関連付けられており、
前記対象物が前記第1の位置にある前記第1の時点で前記第1の顔画像を取得し、前記対象物が前記第2の位置にある前記第2の時点で前記第2の顔画像を取得する、方法。
The method of claim 4, wherein the motion is associated with movement of the object between a first and second position;
The first face image is acquired at the first time point when the object is at the first position, and the second face image is acquired at the second time point when the object is at the second position. To get the way.
請求項5に記載の方法であって、
センサで測定された前記対象物の前記動きの情報を受け取ることと、
受け取った前記対象物の前記動きの前記情報に基づいて、前記モーションを特定することと、をさらに含む、方法。
6. A method according to claim 5, wherein
Receiving information on the movement of the object measured by a sensor;
Identifying the motion based on the received information of the movement of the object.
請求項6に記載の方法であって、前記対象物を動かすように前記対象者に指示することをさらに含む、方法。   The method of claim 6, further comprising instructing the subject to move the object. 請求項6に記載の方法であって、前記対象物の前記動きは、前記対象者の自然な動作に関連付けられる、方法。   The method of claim 6, wherein the movement of the object is associated with a natural movement of the subject. 請求項6に記載の方法であって、前記1つ以上のプロセッサは、コンピューティングデバイスに含まれており、
前記コンピューティングデバイスは、前記対象物と前記センサとを備え、前記対象物はカメラ装置であり、前記センサは、加速度計、ジャイロスコープ、またはグローバルポジショニングシステム(GPS)のうちの少なくとも1つを含む、方法。
The method of claim 6, wherein the one or more processors are included in a computing device;
The computing device includes the object and the sensor, wherein the object is a camera device, and the sensor includes at least one of an accelerometer, a gyroscope, or a global positioning system (GPS). ,Method.
請求項9に記載の方法であって、
前記センサを用いることにより、前記対象物が動いていることを確認することと、
前記対象者の顔画像を撮影するように前記カメラ装置に要求することと、をさらに含む、方法。
The method of claim 9, comprising:
Confirming that the object is moving by using the sensor;
Requesting the camera device to capture a face image of the subject.
請求項5に記載の方法であって、前記モーションは、前記対象物についての所定のモーションであり、
前記対象物は、前記所定のモーションに基づいて前記第1の位置から前記第2の位置に動かされる、方法。
6. The method according to claim 5, wherein the motion is a predetermined motion for the object,
The method wherein the object is moved from the first position to the second position based on the predetermined motion.
請求項5に記載の方法であって、前記第1と第2の顔画像は、前記対象物が動くときに静止している第2の対象物を含み、
前記方法は、前記第1と第2の顔画像における前記第2の対象物の位置変化に基づいて、前記モーションを特定することをさらに含む、方法。
6. The method of claim 5, wherein the first and second facial images include a second object that is stationary when the object moves,
The method further includes identifying the motion based on a change in position of the second object in the first and second face images.
請求項5に記載の方法であって、
前記対象物を動かすことを、前記対象物に結合されたコントローラに指示するコマンドを、前記コントローラに伝送することをさらに含む、方法。
6. A method according to claim 5, wherein
The method further comprises transmitting a command to the controller that instructs the controller coupled to the object to move the object.
請求項13に記載の方法であって、前記コマンドは、前記対象物についての所定のモーションを含み、前記所定のモーションは、前記対象物についての前の所定のモーションとは異なる、方法。   14. The method of claim 13, wherein the command includes a predetermined motion for the object, and the predetermined motion is different from a previous predetermined motion for the object. 請求項4に記載の方法であって、
前記第1と第2の時点を含む連続的な時点で前記対象者の顔画像を取得することを指示するコマンドを、カメラ装置に伝送することと、
前記取得された顔画像を前記カメラ装置から受け取ることと、をさらに含む、方法。
The method of claim 4, comprising:
Transmitting a command instructing to acquire the face image of the subject at successive time points including the first and second time points to the camera device;
Receiving the acquired facial image from the camera device.
請求項15に記載の方法であって、前記取得された顔画像を前記カメラ装置から受け取ることは、前記取得された顔画像を含むビデオストリームフィードを前記カメラ装置から受け取ることを含む、方法。   The method of claim 15, wherein receiving the acquired face image from the camera device comprises receiving a video stream feed including the acquired face image from the camera device. 請求項15に記載の方法であって、前記カメラ装置は、前記第1の時点と前記第2の時点の間で第1の位置から第2の位置に動かされ、
前記カメラ装置が前記第1の位置にある前記第1の時点で前記対象者の前記第1の顔画像が取得され、前記カメラ装置が前記第2の位置にある前記第2の時点で前記対象者の第2の顔画像が取得され、
前記モーションは、前記第1と第2の位置の間での前記カメラ装置の動きに基づいている、方法。
16. The method according to claim 15, wherein the camera device is moved from a first position to a second position between the first time point and the second time point,
The first face image of the subject is acquired at the first time point when the camera device is at the first position, and the subject at the second time point when the camera device is at the second position. A second face image of the person is acquired,
The method wherein the motion is based on movement of the camera device between the first and second positions.
請求項17記載の方法であって、
前記第1と第2の時点で前記対象物を動かすことを、前記対象物に結合されたコントローラに指示する第2のコマンドを、前記コントローラに伝送することをさらに含み、
前記モーションは、前記カメラ装置の動きおよび前記対象物の動きに基づいている、方法。
The method of claim 17, comprising:
Further comprising transmitting to the controller a second command that instructs the controller coupled to the object to move the object at the first and second time points;
The method wherein the motion is based on movement of the camera device and movement of the object.
請求項1に記載の方法であって、前記対象物は、カメラ装置、照明装置、または周囲環境よりも明るい物体のうちの1つを含む、方法。   The method of claim 1, wherein the object comprises one of a camera device, a lighting device, or an object that is brighter than the surrounding environment. 請求項1に記載の方法であって、前記対象物の前記角膜反射の変化は、前記第1と第2の角膜反射における前記対象物上の第1の照射変化を含み、
前記方法は、
前記第1と第2の時点について前記対象物上の第2の照射変化を得ることと、
前記対象物上で得られた前記第2の照射変化と、前記第1と第2の角膜反射における前記第1の照射変化と、の間のマッチング品質を特定することと、をさらに含み、
前記対象者の顔の生体性を判定することは、
前記特定されたマッチング品質および前記比較の結果に基づいて、前記対象者の顔の生体性を判定することを含む、方法。
The method of claim 1, wherein the change in corneal reflection of the object includes a first illumination change on the object in the first and second corneal reflections;
The method
Obtaining a second illumination change on the object for the first and second time points;
Identifying a matching quality between the second illumination change obtained on the object and the first illumination change in the first and second corneal reflections,
Determining the biological nature of the subject's face is
Determining a biological character of the subject's face based on the identified matching quality and the result of the comparison.
請求項1に記載の方法であって、
バイオメトリック認証のために生体性検証を利用することを前記対象者が選択したと判断することをさらに含む、方法。
The method of claim 1, comprising:
The method further comprising determining that the subject has selected to use biometric verification for biometric authentication.
請求項21に記載の方法であって、
アイデンティティ・プロバイダのコンピューティングデバイスに対して、前記アイデンティティ・プロバイダとは異なるリライング・パーティによって管理されるアカウントにアクセスするための前記対象者の認証要求を送信することをさらに含み、前記認証要求は、前記対象者のバイオメトリックデータ、および前記対象者の顔の前記判定された生体性を含む、方法。
The method of claim 21, comprising:
Further comprising sending to the identity provider computing device an authentication request for the subject to access an account managed by a relying party different from the identity provider, the authentication request comprising: A method comprising: biometric data of the subject and the determined vitality of the subject's face.
顔の生体性を検出するためのコンピュータ実現による方法であって、
対象者の顔の第1と第2の姿勢を特定するために、第1と第2の連続的な時点で取得した前記対象者の第1と第2の顔画像を、1つ以上のプロセッサで処理することと、
前記特定された第1と第2の姿勢に基づいて、前記顔の姿勢の変化を、前記1つ以上のプロセッサで特定することと、
前記顔の姿勢の前記特定された変化を、前記第1と第2の時点に関連付けられたモーションと、前記1つ以上のプロセッサで比較することと、
前記比較の結果に基づいて、前記対象者の顔の生体性を、前記1つ以上のプロセッサで判定することと、を含む方法。
A computer-implemented method for detecting the biological nature of a face,
One or more processors are used to identify the first and second facial images of the subject acquired at first and second consecutive times to identify the first and second postures of the subject's face. Processing with
Identifying the change in facial posture with the one or more processors based on the identified first and second postures;
Comparing the identified change in the facial pose with motion associated with the first and second time points with the one or more processors;
Determining the biological nature of the subject's face based on the result of the comparison with the one or more processors.
請求項23に記載の方法であって、前記顔の姿勢の前記特定された変化をモーションと比較することは、
前記顔の姿勢の前記特定された変化を、前記モーションと相関させることと、
前記相関の結果に基づいて、マッチング品質をスコア付けすることと、
前記スコア付けされたマッチング品質を所定の閾値と比較することと、を含み、
前記対象者の顔の生体性を判定することは、
前記スコア付けされたマッチング品質が前記所定の閾値を超えていると判定したことに応じて、前記対象者の顔が生体であると判定することを含む、方法。
24. The method of claim 23, wherein comparing the identified change in the facial pose with motion.
Correlating the identified change in the facial pose with the motion;
Scoring matching quality based on the correlation results;
Comparing the scored matching quality with a predetermined threshold;
Determining the biological nature of the subject's face is
Determining that the subject's face is a living body in response to determining that the scored matching quality exceeds the predetermined threshold.
請求項23に記載の方法であって、
前記特定された第1の姿勢および前記モーションに基づいて、前記第2の時点での前記顔の姿勢を計算することと、
前記計算された顔の姿勢と前記第2の顔画像から特定された前記顔の第2の姿勢との一致度を特定することによって、顔の生体性を評価することと、をさらに含む、方法。
24. The method of claim 23, comprising:
Calculating the posture of the face at the second time point based on the identified first posture and the motion;
Evaluating the biometricity of the face by specifying a degree of coincidence between the calculated face pose and the second face pose identified from the second face image. .
請求項23に記載の方法であって、前記モーションは、前記顔と、前記対象者の顔画像を撮影するように構成されたカメラ装置との相対的な動きと関連付けられている、方法。   24. The method of claim 23, wherein the motion is associated with relative movement of the face and a camera device configured to take a face image of the subject. 請求項26に記載の方法であって、
前記対象者の顔に対して相対的に前記カメラ装置を動かすよう前記対象者に指示することをさらに含む、方法。
27. The method of claim 26, comprising:
Instructing the subject to move the camera device relative to the subject's face.
請求項27に記載の方法であって、
センサで測定された前記カメラ装置の動きの情報を受け取ることと、
受け取った前記カメラ装置の動きの前記情報に基づいて、前記モーションを特定することと、をさらに含む、方法。
28. The method of claim 27, comprising:
Receiving movement information of the camera device measured by a sensor;
Identifying the motion based on the received information of the movement of the camera device.
請求項26に記載の方法であって、前記1つ以上のプロセッサは、コンピューティングデバイスに含まれており、
前記コンピューティングデバイスは、前記カメラ装置とセンサとを備え、前記センサは、加速度計、ジャイロスコープ、またはグローバルポジショニングシステム(GPS)のうちの少なくとも1つを含む、方法。
27. The method of claim 26, wherein the one or more processors are included in a computing device;
The computing device comprises the camera apparatus and a sensor, wherein the sensor includes at least one of an accelerometer, a gyroscope, or a global positioning system (GPS).
請求項23に記載の方法であって、前記顔の第1と第2の姿勢を特定することは、前記顔の少なくとも1つの顔ランドマークを特定することを含む、方法。   24. The method of claim 23, wherein identifying the first and second poses of the face includes identifying at least one facial landmark of the face. 顔の生体性を検出するためのコンピュータ実現による方法であって、
対象者に隣接した照明器の角膜反射を特定するために、ある時点で取得した前記対象者の顔画像を、1つ以上のプロセッサで処理することと、
前記時点の前記照明器の照射に基づいて、前記照明器の予想角膜反射を、前記1つ以上のプロセッサで決定することと、
比較結果を得るために、前記照明器の前記特定された角膜反射を前記照明器の前記予想角膜反射と、前記1つ以上のプロセッサで比較することと、
前記比較結果に基づいて、前記対象者の顔の生体性を、前記1つ以上のプロセッサで判定することと、を含む方法。
A computer-implemented method for detecting the biological nature of a face,
Processing the face image of the subject acquired at a certain time with one or more processors to identify corneal reflections of the illuminator adjacent to the subject;
Determining at the one or more processors an expected corneal reflection of the illuminator based on the illumination of the illuminator at the time;
Comparing the identified corneal reflection of the illuminator with the expected corneal reflection of the illuminator with the one or more processors to obtain a comparison result;
Determining the biological nature of the subject's face based on the comparison result with the one or more processors.
請求項31記載の方法であって、前記照明器の前記特定された角膜反射を前記照明器の前記予想角膜反射と比較することは、
前記照明器の前記特定された角膜反射を、前記照明器の前記予想角膜反射と相関させることと、
前記相関の結果に基づいて、マッチング品質をスコア付けすることと、
前記スコア付けされたマッチング品質を所定の閾値と比較することと、を含み、
前記対象者の顔の生体性を判定することは、
前記スコア付けされたマッチング品質が前記所定の閾値を超えていると判定したことに応じて、前記対象者の顔が生体であると判定することを含む、方法。
32. The method of claim 31, wherein comparing the identified corneal reflection of the illuminator with the expected corneal reflection of the illuminator,
Correlating the identified corneal reflection of the illuminator with the expected corneal reflection of the illuminator;
Scoring matching quality based on the correlation results;
Comparing the scored matching quality with a predetermined threshold;
Determining the biological nature of the subject's face is
Determining that the subject's face is a living body in response to determining that the scored matching quality exceeds the predetermined threshold.
請求項31記載の方法であって、
照射パターンに基づいて照射するように前記照明器を作動させることをさらに含む、方法。
32. The method of claim 31, wherein
Activating the illuminator to illuminate based on an illumination pattern.
請求項33記載の方法であって、
前記照明器の前記照射パターンを生成することをさらに含む、方法。
34. The method of claim 33, comprising:
Generating the illumination pattern of the illuminator.
請求項33記載の方法であって、前記照明器を作動させることは、
バイオメトリック認証のために生体性検証を利用することを前記対象者が選択したと判断したことに応じて、前記照明器を作動させることを含む、方法。
34. The method of claim 33, wherein activating the illuminator comprises:
Activating the illuminator in response to determining that the subject has selected to use biometric verification for biometric authentication.
請求項31に記載の方法であって、前記照明器の角膜反射を特定することは、前記照明器の角膜反射を、色、形状、位置、またはパターンのうちの少なくとも1つで特定することを含む、方法。   32. The method of claim 31, wherein identifying the corneal reflection of the illuminator comprises identifying the corneal reflection of the illuminator by at least one of color, shape, position, or pattern. Including. 請求項31に記載の方法であって、前記照明器は、それぞれ個々の位置で個々の色を有する2つ以上の照明源を含む、方法。   32. The method of claim 31, wherein the illuminator includes two or more illumination sources each having an individual color at an individual location. 請求項37に記載の方法であって、前記照明器の照射は、前記2つ以上の照明源の時間的照射パターンに基づいている、方法。   38. The method of claim 37, wherein illumination of the illuminator is based on temporal illumination patterns of the two or more illumination sources. 請求項38に記載の方法であって、前記2つ以上の照明源は、それぞれ個々の持続時間でバースト照射を生成する、方法。   40. The method of claim 38, wherein the two or more illumination sources each generate burst illumination with an individual duration. 請求項39に記載の方法であって、前記2つ以上の照明源のうちの少なくとも1つは、異なる持続時間の異なる照射形状を有する、方法。   40. The method of claim 39, wherein at least one of the two or more illumination sources has different illumination shapes with different durations. 請求項37に記載の方法であって、前記照明器の照射は、前記2つ以上の照明源の空間的照射パターンに基づいている、方法。   38. The method of claim 37, wherein illumination of the illuminator is based on a spatial illumination pattern of the two or more illumination sources. 請求項41に記載の方法であって、前記2つ以上の照明源の各々は、照射オン状態または照射オフ状態を有する、方法。   42. The method of claim 41, wherein each of the two or more illumination sources has an illumination on state or an illumination off state. 請求項31に記載の方法であって、前記照明器は、それぞれ個々の光波長の1つ以上の物理光源を含む、方法。   32. The method of claim 31, wherein the illuminator includes one or more physical light sources, each at an individual light wavelength. 請求項31に記載の方法であって、前記照明器は、個々の照明色を提供するように画面上に表示される1つ以上のデジタル照明源を含む、方法。   32. The method of claim 31, wherein the illuminator includes one or more digital illumination sources that are displayed on a screen to provide individual illumination colors. 請求項44に記載の方法であって、前記デジタル照明源を生成することをさらに含む、方法。   45. The method of claim 44, further comprising generating the digital illumination source. 請求項31に記載の方法であって、前記照明器からの照射が前記対象者の眼に斜めに入射するように、前記照明器を位置決めする、方法。   32. The method of claim 31, wherein the illuminator is positioned such that illumination from the illuminator is obliquely incident on the subject's eye. 請求項46に記載の方法であって、
前記照明器と前記対象者の眼との相対位置を変化させるように、前記対象者に指示することをさらに含む、方法。
47. The method of claim 46, comprising:
The method further includes instructing the subject to change a relative position between the illuminator and the eye of the subject.
請求項31に記載の方法であって、
カメラ装置からのビデオストリームフィードの少なくとも一部を受け取ることをさらに含み、前記ビデオストリームフィードの前記一部は、前記カメラ装置によって連続的な時点で撮影された前記対象者の顔画像を含む、方法。
32. The method of claim 31, comprising:
Receiving at least a portion of a video stream feed from a camera device, wherein the portion of the video stream feed includes facial images of the subject taken at successive points in time by the camera device. .
請求項48に記載の方法であって、
前記照明器の第2の角膜反射を特定するために、前記第1の顔画像の前記時点に連続的な第2の時点で取得された前記対象者の第2の顔画像を処理することと、
前記第1の照射とは異なる前記第2の時点での前記照明器の第2の照射に基づいて、前記照明器の第2の予想角膜反射を決定することと、
第2の比較結果を得るために、前記照明器の前記特定された第2の角膜反射を前記照明器の前記第2の予想角膜反射と比較することと、
前記比較結果および前記第2の比較結果に基づいて、前記対象者の顔の生体性を判定することと、をさらに含む、方法。
49. The method of claim 48, comprising:
Processing a second face image of the subject acquired at a second time point that is continuous to the time point of the first face image to identify a second corneal reflection of the illuminator; ,
Determining a second expected corneal reflection of the illuminator based on a second illumination of the illuminator at the second time point different from the first illumination;
Comparing the identified second corneal reflection of the illuminator with the second expected corneal reflection of the illuminator to obtain a second comparison result;
Determining the biological properties of the subject's face based on the comparison result and the second comparison result.
請求項31に記載の方法であって、
前記対象者の顔の前記判定された生体性を、アイデンティティ・プロバイダのコンピューティングデバイスに送信することをさらに含む、方法。
32. The method of claim 31, comprising:
Transmitting the determined vitality of the subject's face to an identity provider computing device.
請求項31に記載の方法であって、
アイデンティティ・プロバイダのコンピューティングデバイスに対して、前記アイデンティティ・プロバイダとは異なるリライング・パーティによって管理されるアカウントにアクセスするための前記対象者の認証要求を送信することをさらに含み、前記認証要求は、前記対象者のバイオメトリックデータ、および前記対象者の顔の前記判定された生体性を含む、方法。
32. The method of claim 31, comprising:
Further comprising sending to the identity provider computing device an authentication request for the subject to access an account managed by a relying party different from the identity provider, the authentication request comprising: A method comprising: biometric data of the subject and the determined vitality of the subject's face.
顔の生体性を検出するためのコンピュータ実現による方法であって、
対象者に隣接した照明器の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点でそれぞれ取得した前記対象者の第1と第2の顔画像を、1つ以上のプロセッサで処理することと、
前記特定された第1と第2の角膜反射に基づいて、前記照明器の角膜反射の変化を、前記1つ以上のプロセッサで特定することと、
前記照明器の前記特定された角膜反射の変化を、前記第1と第2の連続的な時点に関連付けられた前記照明器の照射変化と、前記1つ以上のプロセッサで比較することと、
前記比較の結果に基づいて、前記対象者の顔の生体性を、前記1つ以上のプロセッサで判定することと、を含む方法。
A computer-implemented method for detecting the biological nature of a face,
In order to identify the first and second corneal reflections of the illuminator adjacent to the subject, the first and second facial images of the subject acquired at first and second consecutive time points, respectively, Processing on one or more processors;
Identifying a change in the corneal reflection of the illuminator with the one or more processors based on the identified first and second corneal reflections;
Comparing said identified corneal reflection change of said illuminator with said illumination change of said illuminator associated with said first and second successive time points in said one or more processors;
Determining the biological nature of the subject's face based on the result of the comparison with the one or more processors.
請求項52に記載の方法であって、
前記照射変化に基づいて前記照明器の照射を変化させるように、前記照明器を作動させることをさらに含む、方法。
53. The method of claim 52, comprising:
Activating the illuminator to change illumination of the illuminator based on the illumination change.
請求項52に記載の方法であって、前記照明器の前記照射変化は、照明色の変化、照射形状の変化、照射位置の変化、照射オン/オフ状態の変化、または照射持続時間の変化のうちの少なくとも1つを含む、方法。   53. The method of claim 52, wherein the illumination change of the illuminator is a change in illumination color, illumination shape, illumination position, illumination on / off status, or illumination duration change. A method comprising at least one of them. 請求項54に記載の方法であって、前記照明器の角膜反射の変化を特定することは、前記照明器の角膜反射の変化を、色、形状、位置、オン/オフ状態、または持続時間のうちの少なくとも1つで特定することを含む、方法。   55. The method of claim 54, wherein identifying a change in the corneal reflection of the illuminator comprises changing the corneal reflection of the illuminator in color, shape, position, on / off state, or duration. A method comprising identifying at least one of them. 請求項52に記載の方法であって、前記照明器は、それぞれ第1と第2の位置で第1と第2の色を有する第1と第2の照明源を含む、方法。   53. The method of claim 52, wherein the illuminator includes first and second illumination sources having first and second colors at first and second positions, respectively. 請求項56に記載の方法であって、前記照明器の前記照射変化は、前記第1と第2の照明源の時間的照射パターンの変化を含み、
前記第1と第2の照明源は、それぞれ個々の持続時間でバースト照射を生成する、方法。
57. The method of claim 56, wherein the illumination change of the illuminator includes a change in temporal illumination pattern of the first and second illumination sources,
The method wherein the first and second illumination sources each generate burst illumination with an individual duration.
請求項57に記載の方法であって、前記第1の照明源または前記第2の照明源の少なくとも一方は、異なる持続時間で照射形状が変化する、方法。   58. The method of claim 57, wherein at least one of the first illumination source or the second illumination source changes its illumination shape with a different duration. 請求項56に記載の方法であって、前記照明器の前記照射変化は、前記第1と第2の照明源の空間的照射パターンの経時変化を含み、
前記第1の照明源または前記第2の照明源の少なくとも一方は、照射オン/オフ状態が経時変化する、方法。
57. The method of claim 56, wherein the illumination change of the illuminator includes a temporal change in a spatial illumination pattern of the first and second illumination sources,
The method wherein at least one of the first illumination source or the second illumination source has an illumination on / off state that changes over time.
請求項52に記載の方法であって、前記照明器は、
それぞれ個々の光波長の1つ以上の物理光源、または、
個々の照明色を提供するように画面上に表示される1つ以上のデジタル照明源、のうちの少なくとも1つを含む、方法。
53. The method of claim 52, wherein the illuminator is
One or more physical light sources of each individual light wavelength, or
A method comprising at least one of one or more digital illumination sources displayed on a screen to provide individual illumination colors.
顔の生体性を検出するためのコンピュータ実現による方法であって、
対象物の第1と第2の角膜反射を特定するために、第1と第2の連続的な時点で取得した対象者の第1と第2の顔画像を、1つ以上のプロセッサで処理することと、
前記特定された第1と第2の角膜反射に基づいて、前記対象物の角膜反射の変化を、前記1つ以上のプロセッサで特定することと、
前記対象物の前記特定された角膜反射の変化を、前記第1と第2の時点に関連付けられた既知の変化と、前記1つ以上のプロセッサで比較することと、
前記比較の結果に基づいて、前記対象者の顔の生体性を、前記1つ以上のプロセッサで判定することと、を含む方法。
A computer-implemented method for detecting the biological nature of a face,
One or more processors process the first and second facial images of the subject acquired at first and second successive time points to identify the first and second corneal reflections of the object To do
Identifying a change in corneal reflection of the object with the one or more processors based on the identified first and second corneal reflections;
Comparing the identified change in corneal reflection of the object with a known change associated with the first and second time points with the one or more processors;
Determining the biological nature of the subject's face based on the result of the comparison with the one or more processors.
請求項61に記載の方法であって、前記既知の変化は、カメラ装置のモーションである、方法。   62. The method of claim 61, wherein the known change is a camera device motion. 請求項61に記載の方法であって、前記既知の変化は、照明器の照射変化である、方法。   62. The method of claim 61, wherein the known change is an illumination change of an illuminator.
JP2017535830A 2014-12-31 2015-12-31 Biometric detection of face Pending JP2018504703A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462098575P 2014-12-31 2014-12-31
US201462098596P 2014-12-31 2014-12-31
US62/098,596 2014-12-31
US62/098,575 2014-12-31
PCT/US2015/068357 WO2016109841A1 (en) 2014-12-31 2015-12-31 Detecting facial liveliness

Publications (2)

Publication Number Publication Date
JP2018504703A true JP2018504703A (en) 2018-02-15
JP2018504703A5 JP2018504703A5 (en) 2019-02-14

Family

ID=56285092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017535830A Pending JP2018504703A (en) 2014-12-31 2015-12-31 Biometric detection of face

Country Status (6)

Country Link
EP (1) EP3240467A4 (en)
JP (1) JP2018504703A (en)
KR (1) KR20170126444A (en)
AU (1) AU2015373894B2 (en)
CA (1) CA2972821A1 (en)
WO (1) WO2016109841A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200037061A (en) * 2018-09-29 2020-04-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for detecting model reliability
JP2020191089A (en) * 2019-05-20 2020-11-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Living-body detection method and detection device for face, electronic apparatus, and computer-readable medium
WO2020246141A1 (en) 2019-06-06 2020-12-10 日本電気株式会社 Processing system, processing method, and program
US11600118B2 (en) 2018-07-25 2023-03-07 Nec Corporation Information processing apparatus, information processing method, and information processing program
US11670111B2 (en) 2018-07-25 2023-06-06 Nec Corporation Information processing apparatus, information processing method, and information processing program

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
CN108537111A (en) 2018-02-26 2018-09-14 阿里巴巴集团控股有限公司 A kind of method, apparatus and equipment of In vivo detection
CN108629298A (en) * 2018-04-23 2018-10-09 Oppo广东移动通信有限公司 Face identification method, electronic device and non-volatile computer readable storage medium storing program for executing
JP6446676B1 (en) * 2018-04-24 2019-01-09 株式会社サイバーウェア Identity authentication system, method and program
GB2576139A (en) * 2018-07-20 2020-02-12 Ophthalmic Surgical Services Ltd Ocular assessment
CN109086731A (en) * 2018-08-15 2018-12-25 深圳市烽焌信息科技有限公司 It is a kind of for carrying out the robot and storage medium of behavior monitoring
CN109145804A (en) * 2018-08-15 2019-01-04 深圳市烽焌信息科技有限公司 Behavior monitoring method and robot
EP3772699A1 (en) * 2019-08-09 2021-02-10 Siemens Aktiengesellschaft Method for user verification, communication device and computer program
FR3121773B1 (en) * 2021-04-13 2024-03-08 Idemia Identity & Security France identity verification method using random lighting conditions

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000033080A (en) * 1998-07-17 2000-02-02 Oki Electric Ind Co Ltd Iris code generator and iris recognizing system
JP2000194854A (en) * 1998-12-25 2000-07-14 Oki Electric Ind Co Ltd Individual identification device
JP2001256496A (en) * 2000-03-13 2001-09-21 Toshiba Corp Device and method for recognizing face picture
JP2001273498A (en) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd Device, system, card and method for personal identification based on biometric
JP2003178306A (en) * 2001-12-12 2003-06-27 Toshiba Corp Personal identification device and personal identification method
JP2004128683A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Digital camera
JP2006126899A (en) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd Biological discrimination device, biological discrimination method, and authentication system using the same
JP2007072861A (en) * 2005-09-08 2007-03-22 Omron Corp Impersonation detector and face authentication device
US20070110285A1 (en) * 2005-11-11 2007-05-17 Hanna Keith J Apparatus and methods for detecting the presence of a human eye
JP2009211566A (en) * 2008-03-05 2009-09-17 Ntt Communications Kk Authentication system, information equipment, authentication method, and program
US20140169642A1 (en) * 2012-12-17 2014-06-19 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US20130212655A1 (en) * 2006-10-02 2013-08-15 Hector T. Hoyos Efficient prevention fraud
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9313200B2 (en) * 2013-05-13 2016-04-12 Hoyos Labs Ip, Ltd. System and method for determining liveness

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000033080A (en) * 1998-07-17 2000-02-02 Oki Electric Ind Co Ltd Iris code generator and iris recognizing system
JP2000194854A (en) * 1998-12-25 2000-07-14 Oki Electric Ind Co Ltd Individual identification device
JP2001256496A (en) * 2000-03-13 2001-09-21 Toshiba Corp Device and method for recognizing face picture
JP2001273498A (en) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd Device, system, card and method for personal identification based on biometric
JP2003178306A (en) * 2001-12-12 2003-06-27 Toshiba Corp Personal identification device and personal identification method
JP2004128683A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Digital camera
JP2006126899A (en) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd Biological discrimination device, biological discrimination method, and authentication system using the same
JP2007072861A (en) * 2005-09-08 2007-03-22 Omron Corp Impersonation detector and face authentication device
US20070110285A1 (en) * 2005-11-11 2007-05-17 Hanna Keith J Apparatus and methods for detecting the presence of a human eye
JP2009211566A (en) * 2008-03-05 2009-09-17 Ntt Communications Kk Authentication system, information equipment, authentication method, and program
US20140169642A1 (en) * 2012-12-17 2014-06-19 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11600118B2 (en) 2018-07-25 2023-03-07 Nec Corporation Information processing apparatus, information processing method, and information processing program
US11670111B2 (en) 2018-07-25 2023-06-06 Nec Corporation Information processing apparatus, information processing method, and information processing program
KR20200037061A (en) * 2018-09-29 2020-04-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for detecting model reliability
KR102223351B1 (en) 2018-09-29 2021-03-04 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for detecting model reliability
JP2020191089A (en) * 2019-05-20 2020-11-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Living-body detection method and detection device for face, electronic apparatus, and computer-readable medium
US11188771B2 (en) 2019-05-20 2021-11-30 Beijing Baidu Netcom Science And Technology Co., Ltd. Living-body detection method and apparatus for face, and computer readable medium
JP7159242B2 (en) 2019-05-20 2022-10-24 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Facial biometric detection method and detection device, electronic device, and computer-readable medium
WO2020246141A1 (en) 2019-06-06 2020-12-10 日本電気株式会社 Processing system, processing method, and program

Also Published As

Publication number Publication date
AU2015373894A1 (en) 2017-07-20
KR20170126444A (en) 2017-11-17
CA2972821A1 (en) 2016-07-07
EP3240467A1 (en) 2017-11-08
WO2016109841A1 (en) 2016-07-07
AU2015373894B2 (en) 2020-07-09
EP3240467A4 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
US10346990B2 (en) Detecting facial liveliness
JP2018504703A (en) Biometric detection of face
US10055662B2 (en) Detecting facial liveliness
JP6641511B2 (en) System and method for authorizing access to an access controlled environment
US11528268B2 (en) System and method for verifying liveliness
US10896248B2 (en) Systems and methods for authenticating user identity based on user defined image data
US10326761B2 (en) Web-based user authentication techniques and applications
US10268910B1 (en) Authentication based on heartbeat detection and facial recognition in video data
US11120111B2 (en) Authentication based on correlation of multiple pulse signals
US11900746B2 (en) System and method for providing credential activation layered security
US20160335511A1 (en) Systems and methods for authenticating a user based on captured image data
US10733275B1 (en) Access control through head imaging and biometric authentication
US10606994B2 (en) Authenticating access to a computing resource using quorum-based facial recognition
US10594690B2 (en) Authenticating access to a computing resource using facial recognition based on involuntary facial movement
US10599824B2 (en) Authenticating access to a computing resource using pattern-based facial recognition
CA2910929C (en) Systems and methods for authenticating user identity based on user-defined image data
US10277595B2 (en) Identity recognition with living signatures from multiple devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201006