JP6735778B2 - スプーフ検出およびライブネス分析のためのシステム、方法および非一過性コンピュータ可読媒体 - Google Patents

スプーフ検出およびライブネス分析のためのシステム、方法および非一過性コンピュータ可読媒体 Download PDF

Info

Publication number
JP6735778B2
JP6735778B2 JP2017565178A JP2017565178A JP6735778B2 JP 6735778 B2 JP6735778 B2 JP 6735778B2 JP 2017565178 A JP2017565178 A JP 2017565178A JP 2017565178 A JP2017565178 A JP 2017565178A JP 6735778 B2 JP6735778 B2 JP 6735778B2
Authority
JP
Japan
Prior art keywords
target
pulse
determining whether
spoof
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017565178A
Other languages
English (en)
Other versions
JP2018524072A (ja
JP2018524072A5 (ja
Inventor
レザ アール. デラクシャニ,
レザ アール. デラクシャニ,
ジョエル テプリー,
ジョエル テプリー,
Original Assignee
アイベリファイ インコーポレイテッド
アイベリファイ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイベリファイ インコーポレイテッド, アイベリファイ インコーポレイテッド filed Critical アイベリファイ インコーポレイテッド
Publication of JP2018524072A publication Critical patent/JP2018524072A/ja
Publication of JP2018524072A5 publication Critical patent/JP2018524072A5/ja
Application granted granted Critical
Publication of JP6735778B2 publication Critical patent/JP6735778B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/10Systems for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Cardiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Dentistry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

(関連出願の相互参照)
本願は、2015年6月16日に出願され、”Liveness Analysis Using Vitals Detection”と題された米国仮特許出願第62/180,481号に対する優先権およびそれの利益を主張するものであり、該米国仮特許出願の全体は、参照により本明細書中に援用される。
本開示は、概して、画像、音響信号、および振動信号分析に関し、特に、画像内に描写される対象が生存しているかどうかを検出するための画像および信号処理技法に関する。
多くの場合、特定の個人に対する所有物または情報源へのアクセスを制限することが、望ましい。バイオメトリックシステムは、個人の識別を認証し、情報源へのアクセスの許可または拒否のいずれかを行うために使用されることができる。例えば、虹彩走査装置が、バイオメトリックセキュリティシステムによって使用され、個人の虹彩内の一意の構造に基づいて、個人を識別することができる。しかしながら、そのようなシステムは、偽物が、権限者の顔の事前記録された画像またはビデオを走査するために提示する場合、偽物を誤って認証し得る。そのような偽画像またはビデオは、走査のために使用されるカメラの正面に保持された光沢のある写真等において、ブラウン管(CRT)または液晶ディスプレイ(LCD)スクリーン等のモニタ上に表示され得る。他のスプーフィング技法は、正当なユーザの顔の写真上で正確な3次元マスクの使用を含む。
1つのカテゴリの既存のアンチスプーフィング手段は、主として、静止画像(例えば、写真ベースの)攻撃に焦点を当てている。これらの手段は、静的スプーフ攻撃が、主に顔内の、画像の異なる部分の自然に生じる異なる動きを再現できないことを前提とする。それらはまた、ライブ走査における前述の運動のそれぞれが、関連付けられる筋肉群の自然な機敏さおよび周波数の観点から、異なるスケールにおいて生じることを前提とする。しかしながら、これらの手段は、静的(例えば、写真ベースの)スプーフ攻撃しか検出できず、前述の運動ベクトルをその要求される速度および周波数プロファイル(存在する場合)に分解することが可能であるために十分に高いフレームレートにおける、ある時間ウィンドウの観察を必要とする。それらはまた、走査中に全く静止したままである生存対象を誤って拒絶する、または、例えば、ある方法でスプーフィング写真を屈曲および振盪させることによって、追加された運動を伴う静的再現物を誤って許容し得る。
第2のカテゴリの既存のアンチスプーフィング手段は、バイオメトリックサンプルの写真またはビデオ再現物が、十分な品質ではなく、したがって、画像テクスチャ分析方法が、スプーフを識別し得ることを前提とする。しかしながら、目に見えて低品質のスプーフ再現物の前提は、特に、現代のスマートフォンおよびタブレットにおいてさえ見出され得る、高度な高品質かつ極めて普及した高解像度記録およびディスプレイ技術の出現により、信頼性のあるものではない。驚くべきことではないが、具体的かつ技術依存性スプーフ再現物アーチファクトに依拠することによって、そのような技法は、データセット依存性であることが示され、標準以下の一般化能力を実証している。基準または基準なし画像品質メトリックに基づく、第2のものに関連する別のカテゴリのアンチスプーフィング手段も、同一の欠点に悩まされる。
本明細書に説明される種々の実装では、生存人物の存在を示す身体的性質の検出が、ライブの真正の顔を、画像/ビデオ、強制的に成された照合、および他のスプーフィングされた詐欺的認証方法から区別する、ならびに/またはバイオメトリックシステムをスプーフィングするための正当なユーザの記録された画像/ビデオ/他の身体的復元物を再生するために使用されるデバイスの存在を検出すること等によって、スプーフを識別するために使用される。これは、部分的に、(a)スプーフの徴候を検出し、(b)3次元顔検出および2因子脈拍識別を使用して、個人のライブネスおよび物理的存在を検証することによって達成される。
故に、一側面では、コンピュータ実装方法が、ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出するステップと、ユーザデバイスのオーディオ入力コンポーネントを使用して、標的からオーディオ信号の1つまたはそれを上回る反射を受信するステップと、1つまたはそれを上回る反射に基づいて、標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定するステップと、少なくとも部分的に、標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定に基づいて、標的がスプーフであるかどうかを判定するステップとを含む。ユーザデバイスは、例えば、スマートフォン、タブレット、またはラップトップを含むモバイルデバイスであり得る。1つまたはそれを上回るオーディオ信号は、ショートコード化パルスping、短期間のチャープ、またはCTFMpingを含むことができる。1つまたはそれを上回るオーディオ信号の1つもしくはそれを上回る特性は、ランダム化されることができる。
一実装では、本方法はさらに、標的の身体的特徴を識別するために、分類子を訓練するステップと、分類子への入力として、標的からのオーディオ信号の1つまたはそれを上回る反射に基づいて、情報を提供するステップとを含み、標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、提供された入力に応答して受信される分類子の出力に基づく。
別の実装では、本方法はさらに、標的の複数の画像を受信するステップと、画像内の検出された光反射に基づいて、標的が3次元顔状構造を含むかどうかを判定するステップとを含む。
さらなる実装では、本方法はさらに、標的の複数の画像を受信するステップと、画像に基づいて、標的が第1の脈拍を有するかどうかを識別するステップとを含み、標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、標的が脈拍を有するかどうかの識別に基づく。第1の脈拍は、遠隔フォトプレチスモグラフィを使用して識別されることができる。
また別の実装では、標的の第2の脈拍が、標的との物理的接触を通して識別され、標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、第2の脈拍の測定値に基づく。第2の脈拍が第1の脈拍に相関するかどうかに関する判定が、成されることができ、標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、相関に基づく。第2の脈拍を測定するステップは、ユーザデバイスまたは別のハンドヘルドもしくはウェアラブルデバイスから第2の脈拍と関連付けられる情報を受信するステップを含むことができる。第2の脈拍と関連付けられる情報は、バリストカルジオグラフ信号を含むことができる。
本明細書に説明される主題の1つまたはそれを上回る実施形態の詳細は、付随の図面および以下の説明に記載される。本主題の他の特徴、側面、および利点は、説明、図面、ならびに請求項から明白となるであろう。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
コンピュータ実装方法であって、
ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出するステップと、
前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信するステップと、
前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定するステップと、
少なくとも部分的に、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定に基づいて、標的がスプーフであるかどうかを判定するステップと、
を含む、方法。
(項目2)
前記ユーザデバイスは、スマートフォン、タブレット、またはラップトップを含むモバイルデバイスである、項目1に記載の方法。
(項目3)
前記1つまたはそれを上回るオーディオ信号は、ショートコード化パルスping、短期間のチャープ、またはCTFM pingを含む、項目1に記載の方法。
(項目4)
前記標的の身体的特徴を識別するために、分類子を訓練するステップと、
前記分類子への入力として、前記標的からの前記オーディオ信号の1つまたはそれを上回る反射に基づいて、情報を提供するステップと、
をさらに含み、
前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記提供された入力に応答して受信される前記分類子の出力に基づく、項目1に記載の方法。
(項目5)
前記1つまたはそれを上回るオーディオ信号の1つもしくはそれを上回る特性をランダム化するステップをさらに含む、項目1に記載の方法。
(項目6)
前記標的の複数の画像を受信するステップと、
前記画像内の検出された光反射に基づいて、前記標的が3次元顔状構造を含むかどうかを判定するステップと、
をさらに含む、項目1に記載の方法。
(項目7)
前記標的の複数の画像を受信するステップと、
前記画像に基づいて、前記標的が第1の脈拍を有するかどうかを識別するステップと、
をさらに含み、
前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記標的が脈拍を有するかどうかの識別に基づく、項目1に記載の方法。
(項目8)
前記第1の脈拍は、遠隔フォトプレチスモグラフィを使用して識別される、項目7に記載の方法。
(項目9)
前記標的との物理的接触を通して、前記標的の第2の脈拍を測定するステップをさらに含み、前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記第2の脈拍の測定値に基づく、項目7に記載の方法。
(項目10)
前記第2の脈拍が前記第1の脈拍に相関するかどうかを判定するステップをさらに含み、前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記相関に基づく、項目9に記載の方法。
(項目11)
前記第2の脈拍を測定するステップは、前記ユーザデバイスまたは別のハンドヘルドもしくはウェアラブルデバイスから前記第2の脈拍と関連付けられる情報を受信するステップを含む、項目9に記載の方法。
(項目12)
前記第2の脈拍と関連付けられる情報は、バリストカルジオグラフ信号を含む、項目11に記載の方法。
(項目13)
システムであって、
コンピュータ実行可能命令を記憶するための、少なくとも1つのメモリと、
前記メモリ上に記憶される命令を実行するための、少なくとも1つの処理ユニットであって、前記命令の実行は、
ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出するステップと、
前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信するステップと、
前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定するステップと、
少なくとも部分的に、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定に基づいて、標的がスプーフであるかどうかを判定するステップと、
を含む動作を実施するように前記少なくとも1つの処理ユニットをプログラムする、少なくとも1つの処理ユニットと、
を備える、システム。
(項目14)
前記ユーザデバイスは、スマートフォン、タブレット、またはラップトップを含むモバイルデバイスである、項目13に記載のシステム。
(項目15)
前記1つまたはそれを上回るオーディオ信号は、ショートコード化パルスping、短期間のチャープ、またはCTFM pingを含む、項目13に記載のシステム。
(項目16)
前記動作は、
前記標的の身体的特徴を識別するために、分類子を訓練するステップと、
前記分類子への入力として、前記標的からの前記オーディオ信号の1つまたはそれを上回る反射に基づいて、情報を提供するステップと、
をさらに含み、
前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記提供された入力に応答して受信される前記分類子の出力に基づく、項目13に記載のシステム。
(項目17)
前記動作はさらに、前記1つまたはそれを上回るオーディオ信号の1つもしくはそれを上回る特性をランダム化するステップを含む、項目13に記載のシステム。
(項目18)
前記動作は、
前記標的の複数の画像を受信するステップと、
前記画像内の検出された光反射に基づいて、前記標的が3次元顔状構造を含むかどうかを判定するステップと、
をさらに含む、項目13に記載のシステム。
(項目19)
前記動作は、
前記標的の複数の画像を受信するステップと、
前記画像に基づいて、前記標的が第1の脈拍を有するかどうかを識別するステップと、
をさらに含み、
前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記標的が脈拍を有するかどうかの識別に基づく、項目13に記載のシステム。
(項目20)
前記第1の脈拍は、遠隔フォトプレチスモグラフィを使用して識別される、項目19に記載のシステム。
(項目21)
前記動作はさらに、前記標的との物理的接触を通して、前記標的の第2の脈拍を測定するステップを含み、前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記第2の脈拍の測定値に基づく、項目19に記載のシステム。
(項目22)
前記動作はさらに、前記第2の脈拍が前記第1の脈拍に相関するかどうかを判定するステップを含み、前記標的がスプーフであるかどうかの判定はさらに、少なくとも部分的に、前記相関に基づく、項目21に記載のシステム。
(項目23)
前記第2の脈拍を測定するステップは、前記ユーザデバイスまたは別のハンドヘルドもしくはウェアラブルデバイスから前記第2の脈拍と関連付けられる情報を受信するステップを含む、項目21に記載のシステム。
(項目24)
前記第2の脈拍と関連付けられる情報は、バリストカルジオグラフ信号を含む、項目23に記載のシステム。
(項目25)
非一過性コンピュータ可読媒体であって、実行されると、
ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出するステップと、
前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信するステップと、
前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むどうかを判定するステップと、
少なくとも部分的に、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定に基づいて、標的がスプーフであるかどうかを判定するステップと、
を含む動作を実施するように少なくとも1つのプロセッサをプログラムする、その上に記憶される命令を有する、非一過性コンピュータ可読媒体。
図1A−1Cは、アンチスプーフィングおよびライブネス検出に関する種々の使用事例を描写する。 図2は、ある実装による、アンチスプーフィングおよびライブネス検出に関する方法を描写する。 図3は、電話イヤピースとマイクロホンとの間の音響プローブパルスに関する例示的直接および間接音響経路を描写する。 図4および5は、それぞれ、モニタスクリーンおよび本物の顔に関する反射を呈する、例示的整合フィルタ復調エコーを描写する。 図4および5は、それぞれ、モニタスクリーンおよび本物の顔に関する反射を呈する、例示的整合フィルタ復調エコーを描写する。 図6および7は、それぞれ、顔およびモニタスクリーンの異なる面からの反射を描写する。 図6および7は、それぞれ、顔およびモニタスクリーンの異なる面からの反射を描写する。
種々の図面における同様の参照番号および記号は、同様の要素を示す。
種々の実装において本明細書に説明されるものは、顔で変調された音響反射を使用する音響3次元(3D)「顔面性」感知をマルチソース/マルチパスバイタル検出と組み合わせる、多段階ソフトウェアベースのアンチスプーフィングおよび「ライブネス」検出技術を提供するためのシステムおよび付随の方法である。本明細書で使用されるように、「ライブネス」は、生存人物(眼または顔の画像または事前記録されたビデオ、3次元モデル化された頭部等の生存人物のスプーフもしくは偽物ではない)の存在を示す傾向にある特性を指す。そのような特性は、例えば、顔、脈拍、呼吸パターン等の認識可能な身体的性質を含むことができる。「顔面性」は、眼、鼻、口、顎、ならびに/または認識可能なパターンにおいて配列される他の顔面特徴および組織の(再現されるものとは対照的に)実際の存在等、本物の顔の存在を示す傾向にある特性を指す。顔面性の本定義は、(スプーフの顔のものとは対照的に)本物の顔の受動的または能動的な音響的、光的、および/または電磁的徴候を含めることによって増強されることができる。
本開示は、ソフトウェアにおいて完全に実装され得る新しい物理ベースのソリューションを提供し、とりわけ、その品質にかかわらず、スプーフィングスクリーン再生を検出する。これは、全てユーザに明白な方式において、その音響(および/または測光)徴候の検査を通して、本物の3Dの顔がユーザデバイスに提示されている可能性を評価することを通して、既存の視覚ベースのアンチスプーフィングソリューションの欠点を克服する。有利なこととして、本技法は、種々の日常的環境において典型的なモバイル電話イヤピース/音響トランスデューサおよびマイクロホンのみを使用して、バイオメトリック認証に関するスプーフを検出する。モバイルデバイスの既存のハードウェアを使用して結果として生じる音響徴候は、説明される方法論が克服する複数の交絡因子によって、脆弱であり、課題がある。前述の音響信号対雑音比不良の原因は、望ましくないエコーだけではなく、音響経路非線形性および帯域幅制限(トランスデューサのものを含む)、マイクロホン/イヤピース指向性および感度、ならびにデバイスの内部反響を含む。また、本明細書に詳述されるように、利用されるオーディオ帯域のより長い波長を前提とすると、空間分解能は、既存の超音波ソナーシステムと比較して低減され、標的反射の多くは、代わりに、散乱を介して放散され、埋設される音響徴候の間接的検出を提供する。
一実装では、アンチスプーフィングおよびライブネス検出技術は、3次元顔状構造の存在を検証するステップと、複数の源を使用して標的の脈拍を測定するステップとを含む。3次元顔感知は、顔で変調された音響反射(例えば、ソナーと同様に、電話イヤピースまたは他の音響トランスデューサから放出されたコード化された高音プローブ信号から、電話マイクロホンまたは他のオーディオ入力から受信される信号の反射を用いて)および/または構造化照度差ステレオ(例えば、電話スクリーンからの高速パターン化照明から)を使用して実施されることができる。ユーザの脈拍の検出等のバイタル検出が、顔色変化および手/身体振動を誘発する心臓ポンピング作用から測定されることができる。心拍数検出が、複数の経路、すなわち、バリストカルジオグラムとしても公知である、身体の心拍誘発機械的振動、および遠隔フォトプレチスモグラム(遠隔PPGまたはrPPG)としても公知である、赤色−緑色−青色(RGB)カメラによって記録される皮膚色変化からの脈拍の検出を通して遂行されることができる。ユーザの脈拍はまた、心拍数センサを伴う他のウェアラブル/モバイルデバイスを介して検出されることができる。
図1A−1Cは、本明細書に説明されるようなアンチスプーフィングおよびライブネス分析技術に関する種々の使用事例を図示する。例えば、図1Aでは、標的ユーザ104は、自身のモバイルデバイス102(例えば、スマートフォン、タブレット等)を使用し、モバイルデバイスカメラによって捕捉されるバイオメトリック読取(例えば、眼走査)を使用して、自身を認証する。カメラに加えて、モバイルデバイス102は、本説明される技法を使用して、ユーザの物理的存在を検証するために、加速度計、ジャイロスコープ、指先心拍センサ、振動センサ、オーディオ出力コンポーネント(例えば、スピーカ、イヤピース、または他の音響トランスデューサ)、オーディオ入力コンポーネント(例えば、マイクロホン)、および同等物等の他のセンサを利用することができる。図1Bでは、モバイルデバイス106は、LCDモニタ106または他のディスプレイスクリーン上の標的の画像もしくはビデオを捕捉する。モバイルデバイス102上で実行するソフトウェアは、標的が、本技法、例えば、3次元顔検出、反射された光および/または音響信号の評価、および脈拍検出を使用して、物理的に存在していないと判定することができる。図1Cは、モバイルデバイス102を保持し、これを標的ユーザ104に指向させる第2のユーザ110を描写する。本事例では、標的ユーザ104の物理的存在は、(例えば、3次元顔面構造および視覚脈拍認識によって)確立されるであろうが、デバイス102と第2のユーザ110との間の物理的接触を介してモバイルデバイス102によって取得される二次脈拍読取値は、標的ユーザ104に関して識別される視覚脈拍に対応せず、したがって、ユーザの識別の照合は、失敗するであろう。
アンチスプーフィングおよびライブネス分析のための他の技法が、本明細書に説明される技術と併用されることができる。そのような技法は、2014年9月9日に出願され、「Systems and Methods for Liveness Analysis」と題された、米国特許出願第14/480,802号および2015年3月30日に出願され、「Bio Leash for User Authentication」と題された、米国特許出願第14/672,629号(その全てが、参照することによって本明細書に組み込まれる)に説明されるものを含む。
スプーフおよびライブネス検出に関する方法の一実装が、図2に描写される。ステップ202において開始すると、ユーザデバイス(例えば、モバイルデバイス102、または他の携帯電話、スマートフォン、タブレット、仮想現実デバイス、もしくはバイオメトリック眼照合を使用しながら銀行アプリにログインする等、バイオメトリック的に増強されたユーザ相互作用において使用される他のデバイス)は、顔状3次元(3D)物体が、デバイスの正面に位置付けられ、平面ディスプレイ上の事前記録されたビデオ等のスプーフでないかを検出する。
ステップ202における3D顔面検出は、種々の方法またはその組み合わせを使用して遂行されることができ、ユーザのデバイス上のあるセンサおよび送信機の可用性に基づき得る。一実装では、音波(例えば、高周波数音波)が、3次元の顔、または代替として、平面ディスプレイもしくは非顔状3D物体がバイオメトリックセンサに(顔または眼サブ領域を含むそのサブ領域のいずれかを使用する画像ベースのバイオメトリクスのために(バイオメトリックセンサは、例えば、モバイルデバイスカメラを含むことができる))提示されているかどうかを判定するために使用される。音響(音波)ベースの技法の一実施例は、連続伝送周波数変調(CTFM)であり、顔の異なる面/表面までの距離が、測定デバイス(例えば、同一または異なるデバイスのオーディオ入力コンポーネント(マイクロホン)と併せたデバイスのオーディオ出力コンポーネント(イヤピース、スピーカ、音響トランスデューサ))によって伝送される音響プローブの時変周波数に基づいて測定される。バイオメトリック認証の場合では、音響距離測定はまた、測定された眼間距離が、標的の登録の時点で判定された予期される眼間距離に対応することを確認するために使用されることができる。前述は、実在のスケール測定値チェックの一実施例であるが、カメラの焦点機構からもたらされるもの等の他のデバイス−顔距離測定もまた、使用され得ることを理解されたい。3D顔面検出に関する技法は、以下にさらに詳細に説明される。
別の実装では、照度差ステレオの存在および程度が、3次元顔状物体の存在を示す傾向にある特性に関して分析される。測光効果の有効性はまた、先に言及される音響測定距離と組み合わせられ、随意に、バイオメトリック登録フェーズ中に集積された照度差ステレオデータと比較されることができる。デバイススクリーンが、より高いフレームレートで駆動され得る場合、光測定は、より低いフレームレートを有するカメラとともに機能するようにエイリアシングを使用し、スクリーン誘発光プローブの時間的変動をユーザにより知覚不可能にすることができる。前述の3次元特性が、より高い正確度で測定される場合、有効な登録の時点で音響および/または測光測定値を使用して判定されるようなユーザの顔の3Dプロファイルは、ある程度までユーザ特有になり得、本明細書に説明されるアンチスプーフィング手段にさらなる特異性を(ソフトバイオメトリクスとして)誘発し得ることに留意されたい。
顔状3D構造が検出される場合、本デバイスはさらに、随意に、顔状構造が(例えば、デバイスカメラによって捕捉される画像に基づく顔面rPPGを使用して)存在するパルスを予期される範囲内に有するかどうかを検出することによって、ライブネスを検証することができる(ステップ208)。別様に、いかなる3D顔面構造も検出されない場合、ライブネス検出は、失敗し、標的は、拒絶される(ステップ230)。有効な脈拍が検出される場合、見掛けの循環を伴う3D顔状物体が、ライブネス検出およびアンチスプーフィングの第1のフェーズとして確立される。本フェーズは、ハードルが高い、rPPGを回避させる脈動する皮膚を伴う顔状3D構造へのスプーフ攻撃を限定する。
二次フェーズでは、本システムは、随意に、より強力なライブネス検出/アンチスプーフィングのために、顔状構造(例えば、音響および/または測光3D顔チェック後の顔rPPG)から検出された第1の脈拍を、異なる方法を通して取得された第2の脈拍測定値と相関させるように試行することができる(ステップ212および216)。二次脈拍測定は、例えば、バリストカルジオグラム信号を通して遂行されることができ、これは、心臓ポンピング作用によって誘発されるハンドヘルドデバイス振盪に基づいて捕捉され、デバイス運動センサ、または利用可能である場合、脈拍感知ウェアラブル、または心拍数もしくはその高調波をチェックするための他の好適な二次経路によって測定されることができる。いかなる二次脈拍も検出されない、もしくは二次脈拍が別様に無効である(例えば、予期される範囲外に該当する)場合、または相関が失敗する(例えば、本システムが、脈拍がレートまたは他の特性において合致しないことを検出する)場合、標的は、拒絶される(ステップ230)。逆に、前述のステップがライブネスを検証する場合、標的は、生存する正当なユーザとして許容されることができる(ステップ220)。本実装に説明される照合フェーズは、説明される順序において実施される必要はなく、むしろ、ステップの代替順序もまた、想定されることを理解されたい。例えば、1つまたはそれを上回る脈拍測定値は、最初に取得され、3D顔面検出が、脈拍測定値に基づいて判定されたライブネス対スプーフの結論を強化するために使用されることができる。さらに、全てのステップが、実施される必要があるわけではない(例えば、スプーフが存在するかどうかの判定は、3D顔面検出のみに基づいて成されることができる)。
(音響3D顔面性測定)
本音響技法は、顔(正当なデバイスに面する眼または顔のバイオメトリック走査に関して予期される)または他の構造的に非顔状の物体(例えば、平面スクリーンまたは他のスプーフィングシナリオ)が、バイオメトリックセンサ(例えば、モバイル電話の正面カメラ)に表示されているかを検出する。本技法は、顔または眼サブ領域を含むそのサブ領域を使用する画像ベースのバイオメトリクスのために使用される。3D顔面性測定のために使用され得る音響pingの実施例は、限定ではないが、ショートコード化パルスping、短期間のチャープ、およびCTFMを含む。
ショートコード化パルスpingは、最大相関コード(例えば、Barker2−Barker13パターン、そのオリジナル形態または二位相シフトキーイングコード化されたもの)および/または短期間のチャープ(例えば、カイザー窓等のエンベロープを伴う線形周波数掃引)が、電話イヤピースもしくは他のオンボード音響トランスデューサ等のオーディオ出力コンポーネントを通して送信されるそれらのpingを含む。複数のオーディオ出力コンポーネントが存在する場合、音響ビーム形成が、音響pingをより空間的に良好に集束させるために使用されることができる。前述のパルス圧縮技法からのエコーの整合フィルタまたは自己相関デコードは、標的の粗い3D徴候の再構築を可能にする(これはまた、衝突される面の音響インピーダンスに起因して、そのテクスチャおよび材料構造を反映する)。本情報は、ソナーおよびレーダシステムに見られるものと同様に、受信されたエコーの飛行時間および形態を通して、ユーザデバイスに提示される。整合フィルタは、受信されたエコーのオリジナルping信号との交差相関を伴う。エコーのそれ自体との自己相関が、代わりに使用されることができ、進行中の信号の即ちに受信されたコピーが、事実上、検出テンプレートになる。いずれの場合も、デコードされた信号の分析バージョンの振幅の計算等、さらなる後処理が、特徴選択および分類に先立って実施される。
CTFM pingに関して、標的(ここでは、ユーザの顔またはスプーフィングスクリーン)の異なる面/表面からの距離は、本デバイスによって(例えば、電話のイヤピースを通して)伝送される高音音響プローブの時変周波数に基づいて測定される。
いくつかの実装では、音響距離測定はまた、バイオメトリック登録の時点での撮像(実在のスケール測定値チェック)を介して測定される予期される眼間距離への適切な対応を確実にするために、全体的顔距離をチェックするために使用される。いくつかの実装では、エコーの低信号対雑音比はさらに、複数のpingならびに/またはマルチマイクロホンビーム形成および雑音消去を平均化することによって克服されることができる。
本技法には、2つの側面、すなわち、(i)非顔物体(例えば、スプーフィングスクリーン)の拒絶および(ii)顔状3D音響プロファイル、特に、登録されたユーザのもの(例えば、登録中に作成されたユーザ特有音響顔テンプレート)に類似するものの許容が存在し、対象特異性を考慮することによって、アンチスプーフィング正確度を増加させることに留意されたい。後者の側面は、音響反射からの顔徴候の学習(提示学習)を利用し、これは、分類子アンサンブルおよびディープラーニング等の周知の機械学習技法を使用して実施されることができる。音響3D顔プロファイル認識の正確度はさらに、画像センサからの補助的信号を含めることによって増加されることができる。例えば、エコープロファイルは、ユーザが眼鏡を装着している、またはスカーフでその顔の一部を被覆している場合、変化するであろう。画像分析は、これらの変化を明らかにし、例えば、それらの状況に関して適切なテンプレートおよび閾値を使用することによって、適宜、分類モジュールを調節することができる。
(測光3D顔面性測定)
いくつかの実装では、音響顔構造検出に続いて(または音響顔構造検出の前に、もしくはそれと同時に)、3D顔面性測度はさらに、照明強度、位相および周波数、ならびに色を用いてコード化されたモバイルデバイススクリーンの高周波数パターン(構造化スクリーン照明)によって誘発されるような照度差ステレオ等の照明変動を照会することから、顔面3D構造の存在および程度を検査することによって補強される。照度差ステレオ効果は、概して、光源距離に依存し、したがって、先に言及されるソナー測定距離と組み合わせられることができる。
さらなる実装では、照合測光徴候は、より高い感度および特異性のためにこれらの測定値を対象特有にするために、ユーザの登録中に導出された1つまたはそれを上回る測光徴候と比較されることができる。改良された音響および測光3D顔プロファイルを組み合わせることによって、本組み合わせは、より良好な正確度を用いてスプーフを検出しながら、本物のユーザの拒絶を回避し続けるだけではなく、また、ソフトバイオメトリックとしてユーザ特有の音響測光顔徴候を検出し、したがって、追加されたソフト識別モダリティとして主要バイオメトリックモダリティの性能をさらに増加させることができる。
例えば、デバイススクリーンが、より高いフレームレートで駆動され、スクリーン誘発光プローブの時間的変動をより知覚不可能にし得る場合、光測定はまた、より良好なユーザ体験のために、撮像センサエイリアシングを利用することができる。つまり、カメラが、スクリーンよりも低いフレームレートで駆動される場合、構造化光のエイリアシングされた周波数成分を使用し、正常に進行することができる。
(心臓測定)
いくつかの実装では、顔面性が音響的かつ/または測光的に検証される場合、顔面脈拍の存在(およびいくつかの事例では、値)が、完全なrPPG脈拍数計算のために必要とされるものよりも短い観察時間の周期において、モバイルデバイスの正面カメラから検出/測定されることができる。本迅速なチェックは、非常にハードルが高い、脈動する皮膚を伴う顔状3D構造へのスプーフ攻撃を限定する。本脈拍識別ステップは、音響(および随意に、測光)顔面性測定の後のアンチスプーフィング保護の補助レイヤとしての役割を果たすことができる。
さらなる実装では、さらに強力なライブネスチェックに関して、提案される方法は、ユーザのマルチパス心臓バイタルを測定し、クロス検証する。1つの心臓信号は、例えば、先に言及される3D検証された顔rPPGに基づいて判定されることができる。付加的心臓信号(またはその主要高調波)が、バリストカルジオグラム信号(例えば、心臓の機械的ポンピング作用によって誘発され、デバイス運動センサによって測定され、随意に、厳密な信号処理および運動増幅後にデバイスカメラフィードから検出される相関されたわずかな振動によって確証されるようなハンドヘルドデバイス振動およびその高調波)から回収されることができる。これらの付加的心臓信号は、利用可能であるとき、健康監視ウェアラブルまたはユーザのモバイルデバイスに内蔵される他の心拍数センサ等の他の心拍数センサによって取得されることができる。いくつかの実装では、運動センサ信号は、標的心拍数周波数範囲およびその高調波における帯域通過フィルタ処理によって前処理される。他の実装では、心拍数高調波が、主要バリストカルジオグラム信号として使用される。さらなる実装では、バリストカルジオグラムは、例えば、モバイルデバイスのカメラによって見られるように、増幅された相関された心臓誘発運動によって増強される
脈拍の検出および複数の心臓信号(例えば、rPPGおよびバリストカルジオグラム脈拍測定値)間の有意なリアルタイム相関に応じて、より強力なライブネスの確率が、保証されることができる。そのような心臓ループライブネススコアは、例えば、2つの心臓信号(バリストカルジオグラムおよびrPPG)間のリアルタイム相関/類似性強度であり得る。アンチスプーフィングの本付加的レイヤは、バイオメトリック照合を求めるユーザの心拍を使用して、手で保持すること(機械的経路)から知覚される検証された顔/眼(光学および音響経路)への心臓ライブネス照合ループを閉じる。
本説明される技術は、当分野で公知であり、例えば、2014年4月14日に発行され、「Cardiac Performance Monitoring System for Use with Mobile Communications Devices」と題された、米国特許第8,700,137号、2015年のEngineering in Medicine and Biology Society, 2015 37th Annual International Conference of the IEEE、2015のHernandez、McDuff、およびPicardの「Biophone:Physiology Monitoring from Peripheral Smartphone Motions」、ならびに2015年2月の IEEE Transactions on Biomedical Engineering(vol.62、第2号)のWang、Stuijk、およびde Haanの「Exploiting Spatial Redundancy of Image Sensor for Motion Robust rPPG」(その全体が、参照することによって本明細書に組み込まれる)に説明される、心拍数検出のための種々の技法を組み込むことができる。
(付加的実装)
ここで図3を参照すると、正面カメラを用いたユーザの顔および/または眼領域のバイオメトリック走査中、本明細書に説明される技法に従って、電話イヤピース302(および/または標的顔面面積に集束されるビーム形成配列における複数のスピーカを含む、他の音響トランスデューサ)は、一連の信号を放出し、知覚される相互作用するユーザの顔面性を音響的に照会する。電話マイクロホン304は、ライブ認証のイベントにおいて、主に顔から、信号の反射を収集する。しかしながら、スクリーンまたは顔の他の再現物が、スプーフ攻撃中に代わりに提示されることが、可能である。いくつかの実装では、デバイスの底部マイクロホン304が使用される場合、プローブ信号放出の開始が、pingが電話本体を通して/横断して進行する際の音の速度および音響インピーダンスを前提として、音響プローブの最初の最も大きい受信されるコピー(ルート0)としてマイクロホン304によって聴取される第1の伝送のタイムスタンピングを通して検出される。オリジナル信号は、整合フィルタ処理のために電話のマイクロホン304によって受信されるようなそのエコーと併用される(信号が空気を通してイヤピース302からマイクロホンに伝搬する、外部ルート1および信号が標的から反射され、マイクロホン304によって受信される外部ルート2を介して受信される信号/エコーを含むことができる)。音響pingの実施例は、パルス圧縮および/または短チャープもしくはBarker/Mシーケンスコード等の最大相関シーケンスを含む。
いくつかの実装では、利用可能である場合、正面マイクロホンが、改良された指向性、背景雑音抑制、およびプローブ信号出発開始検出のために使用される。カージオイド等のデバイスマイクロホンの指向性極性パターンが、より良好な指向性の受信のために選択されることができる。本デバイス上の複数のマイクロホンが、利用可能である場合、より良好な指向性のために、したがって、顔面性エコーのより良好な受信のために、ビーム形成に関して使用されることができる。
いくつかの実装では、反射された音の自己相関は、反射された音の顔/スプーフエコー成分をデコードするために使用される。本方法は、整合フィルタカーネルが、本質的に、ここではプローブ波パターンの実際の伝送されたバージョンであるため、より良好な復調をもたらすことができる。さらなる実装では、プロービング信号は、CTFMタイプであり、したがって、ヘテロダインが、標的構造の空間的プロファイルおよび距離を分解するために使用される。最終的に、分類子が、任意の数の上記に言及される方法から復調されたエコーから抽出された特徴に基づいて、知覚される顔面性を決定することができる。
本デバイスのマイクロホンによって記録されるようなエコーの特性に基づいて、顔の具体的多面的3D形状およびその吸収/反射性質対、例えば、着目顔面領域または眼領域のLCD再現物等の2次元スプーフのものに留意して、音が、スプーフィングスクリーンまたは他のスプーフィング物体とは対照的に、ユーザの顔から反射されたかどうかを判定するための異なる方法が存在する。
図4および5は、ルート0、1、および2(図3参照)を通した種々の音響反射が明確に観察され、音響経路飛行の最初の20cmに関してBarker−2コードシーケンスを使用する、例示的整合フィルタ復調エコーを描写する。より具体的には、図4は、パルスを放出する電話から約10〜12cm離れたモニタスクリーンによって引き起こされる反射を描写する一方、図5は、電話から約10〜14cm正面の本物の人の顔によって引き起こされる異なるエコー徴候を描写する。
いくつかの実装では、音響プローブ信号は、オーダー2〜13のBarkerコード(そのオリジナル形態または二位相シフトキーイング(BPSK)変調を伴うもののいずれかで、搬送周波数が、ビットレベル変化毎に180度だけその位相を偏移させる)または疑似ランダムMシーケンス等、最大相関信号である。いくつかの実装では、音響プローブ信号は、短チャープ(種々の周波数範囲のもの、ならびに掃引および振幅エンベロープ)から成る。プロービング信号は、例えば、CTFM信号であり得る。これらの短い高周波数信号は、(例えば、捕捉のために正面カメラを使用するとき、これが自然に標的に面するため、スマートフォンまたはタブレットの場合では)イヤピース等のオーディオ出力コンポーネントから伝送される。しかしながら、いくつかの実装では、他のまたは複数のデバイス音響トランスデューサが、音響プローブをバイオメトリック標的に対してより良好に集中させるために、ビーム形成に関して使用される。
音響プローブ信号は、開示される技法の実装の中で種々の形態をとることができる。例えば、一実装では、音響プローブ信号は、16kHz〜20kHzを掃引するハニングウィンドウ化線形チャープを伴うCTFM信号である。別の実装では、プローブ信号は、4,4100Hzでサンプリングされた11.25kHzの搬送周波数で180度偏移正弦BPSKを伴うBarker−2シーケンス等の最大相関シーケンスである。さらなる実装では、プローブ信号は、ウィンドウ化チャープ信号である。チャープは、例えば、11.25kHzの開始周波数を伴う余弦信号であり、10m秒において22.5kHzまで線形に掃引し、44,100Hzにおいてサンプリングされることができる。窓関数は、長さ440サンプル(44.1kHzサンプリングレートで10m秒)の6のベータ値を伴うカイザーウィンドウであり得る。前述の値は、合理的に正確な結果を提供するそれらのプローブ信号パラメータを表す。しかしながら、正確な結果を提供するプローブ信号パラメータは、デバイスおよびオーディオ入力/出力コンポーネント特性に基づいて、変動し得ることを理解されたい。故に、他の範囲の値も、本技法と併用するために想定される。
いくつかの実装では、放出されるプローブ信号の初期位相、周波数、および厳密な再生開始、またはさらにはコードタイプ自体が、モバイルバイオメトリックモジュールによって(例えば、PSKコード化されたBarkerプローブパルス列に関して)ランダム化されることができる。本ランダム化は、再現された偽エコーが電話に再生され、提案された音響顔面性チェッカを打破する、仮定された(但し、広範囲に及ぶ高度な)攻撃を阻止することができる。コード化された音響シーケンスのPSK変調のオンザフライのランダム化位相/タイプ/開始/周波数または出力プローブの他の動的属性は、攻撃者に気付かれないため、仮想の投入されたエコーは、整合フィルタによって復調されず、また、厳密な予期されるパターンに従わないであろう。
基本的Barkerコード/チャープ/CTFM手順中、その往復距離に基づいて、時間(および、したがって、CTFMに関する周波数)において遅延される、プローブ信号の反射は、本デバイスのマイクロホンまたは他のオーディオ入力コンポーネントによって記録される。オリジナルチャープまたは別様にコード化された音響プローブは、(Barkerおよび短チャープに関して)整合フィルタもしくは自己相関のいずれかによって検出される、またはエコーにオリジナル周波数ランプを乗算し、より低い周波数副産物を取得すること(ヘテロダイン)によって、ベースバンドに復調されることができる。標的の各衝突される面は、そのテクスチャ的および構造的性質(例えば、空気と衝突される表面との間の音響インピーダンス差異、ならびにそのサイズおよび形状)ならびに音源からの距離(音往復遅延)に関連する様式でプローブパルスを反射する。したがって、その単純化した形態(いかなる雑音および望ましくない背景エコーもないと仮定する)では、顔は、(空気−皮膚および軟組織−骨界面におけるその複数の主要な面によって反射されるように)より弱い大きさにおける複数の反射を有する一方、例えば、スプーフィングモニタスクリーンは、単一のより強い反射を有するであろう(図4および5を比較)。
各反射の往復遅延を前提とすると、各反射する標的面の距離は、整合フィルタ/自己相関応答における時間遅延または電力スペクトル密度もしくはPSD(以下にさらに説明される図6および7参照)における周波数デルタに変換され、標的特有エコー形態を提供することができる。CTFM信号からPSD特徴を計算するために、異なる方法が、使用されることができる。いくつかの実装では、マルチテーパ方法が、復調されたエコーの0〜200Hzスパンに適用され、ビン分割された出力が、例えば、線形またはガウスカーネルサポートベクトルマシン、もしくは類似するものであり得る、分類子への入力として使用される。
より具体的には、種々の実装では、以下のステップのうちの1つまたはそれを上回るものが、チャープ/コード化パルス復調および標的分類のために行われる。一事例では、音響プローブは、マイクロホン読出を頻繁に(例えば、100m秒毎、500m秒毎、1秒毎等)チェックし、潜在的に妨害する雑音を聴くことによって、大きい音響環境雑音を回避する。本チェックは、チャープ/コード化パルスプローブ信号の相関(時間反転された畳み込み)を計算するステップと、トリガ閾値を適度に静かな環境において取得されたものに設定するステップとを含むことができる。いくつかの実装では、付加的な類似するチェックが、音響プローブ信号を再生した直後に実行され、音響pingの直後に妨害雑音が生じたかどうかを判定する。その場合、本セッションは、破棄されることができる。複数のチャープはまた、信号または決定スコアレベルにおいて平均化(中央値処理)され、結果を改良することができる。
一実装では、前処理は、受信された信号のハイパスフィルタ処理を伴い、伝送されるチャープ/コード化信号に関連する周波数のみを可能にする。本ハイパスフィルタは、例えば、9,300Hzの阻止帯域周波数、11,750Hzの通過帯域周波数、0.015848931925の阻止帯域減衰、0.037399555859の通過帯域リップル、および20の密度係数を伴う等リップル有限インパルス応答フィルタであり得る。
いくつかの実装では、復調は、高域通過した受信されたエコーのオリジナル音響チャープ/コード化信号との正規化された交差相関(音響プローブの時間反転されたバージョンを伴う正規化された畳み込みに等しい)を含む。最大応答は、デコードされた信号の開始/起点と見なされる。変調は、例えば、上記に言及される開始の0.227m秒前から2.27m秒+開始マーカ後のチャープ/コード化信号の時間長の信号の部分の自己相関を含むことができる。復調された信号を後処理するステップは、復調されたエコーのエンベロープをさらに明瞭化するために、その分析信号の大きさ(実際の信号に虚数の90度位相偏移されたバージョンのものを加えたものから成る複雑な螺旋シーケンス)を計算するステップを含むことができる。一実装では、44,100Hzのサンプリングレートを仮定すると、分析信号の上記の大きさの最初の100個のサンプルは、最初の20個のサンプルに関して1であり、サンプル21−100に関して線形に5に上昇する、区分的線形重み係数でさらに乗算され、進行した距離に起因する音減衰を補償する。二次形態に従うもの等の他の重み係数も、使用されることができる。
図6は、顔の異なる面からの複数の反射を描写する(CTFM技法を使用して、3つのサンプルが示される)。これらのエコーは、(スプーフ徴候とは対照的に)具体的空間的顔構造を示す。これは、復調された音響プローブエコーによって検出されるような異なる音響経路の異なる遅延(および大きさ)に起因する。対照的に、図7に示されるスプーフィングディスプレイは、復調中に殆ど単一の大きいピークを引き起こす。課題が、ある電話のオーディオ回路によって付与される20KHzの上限周波数制限に起因する、典型的な顔の低空間分解能および高い散乱から生じ得る。他の課題は、ユーザ挙動および背景雑音によって引き起こされる変動ならびに制御できない環境によって誘発される運動/反射アーチファクト、ならびにデバイスオーディオ回路制限に起因する全体的に低いSNRを含むが、全てが、本明細書に説明される技法によって対処される。
いくつかの実装では、上記に言及される分類子に関する特徴セットは、ランダムサブセットアンサンブル分類技法を使用して最良な分類性能のために選択される、サブセットの集合である。ランダム部分空間分類子アンサンブルは、例えば、k最近傍分類子の和則融合集合、またはデコードされた分析信号の特徴ベクトルのセットに対して動作するサポートベクトルマシンの和則融合集合であり得る。付属AおよびBは、ランダム部分空間アンサンブル構築方法論を使用して、実験的に導出される分類子および入力空間を提供する。付属Aは、kNNアンサンブル分類子と併せてランダム部分空間サンプリングを使用して、本物のユーザならびに種々のスプーフィングスクリーンから記録された18,000個を上回るエコーから成る、膨大な訓練/試験データセットを使用して選択された、80個の特徴ベクトルの例示的セットを列挙する。部分空間は、異なる部分空間構成(すなわち、入力サンプル場所および次元、ならびに関与する分類子の数)の平均クロス検証性能(ROC曲線分析を介して測定される)に基づいて取得された。各数字の列場所は、44,100Hzのサンプリングレートを使用して、デコードされたチャープ/コード化信号伝送の開始からのデジタル信号サンプル番号を示す。別の実装では、部分空間アンサンブルは、付属Bに列挙され、(より膨大なデータセットを使用する、フィッシャ判別線形分類からの)そのフィッシャ判別比率に基づいて、付属Aの80個の特徴のサブセットとして選択される、デコードされた分析信号の40個の特徴ベクトルのセットを受信するガウスカーネルを伴うサポートベクトルマシン分類子の集合である。再び、各数字の列場所は、44,100Hzのサンプリングレートを使用して、デコードされたチャープ/コード化信号伝送の開始からのデジタル信号サンプル番号を示す。
エコー空間内の具体的顔の表現(および一般的な顔対スプーフだけではなく)を正確に識別するために、いくつかの実装では、ソナー分類子は、対象特有(および場合によっては、以下の方法は、組み合わせられたユーザ−デバイス独自性を適応させるため、デバイス特有)であるように訓練される。本機能性は、代表的な偽物集団のものに対して(およびスプーフだけではなく、対象特異性に関して)、バイオメトリック登録中に集積されたユーザの音響特徴を区別するように分類子を訓練することによって達成されることができる。本方法の別の利点は、登録中に収集された特徴がまた、登録のために使用されたデバイスの特異性を反映し、したがって、分類子は、具体的デバイスの音響独自性に適合されることである。結果として生じるユーザ(およびデバイス)特有音響パターン検出器は、より精密なユーザ(およびデバイス)調整されたアンチスプーフィング分類子の一部として使用されることができ、本対象特有分類は、先に言及されるスプーフ検出分類子と組み合わせられる。いくつかの実装では、ユーザ特有音響プロファイル検出器自体が、ソフトバイオメトリックとして使用されることができる。
眼/顔面バイオメトリック標的の上記の音響照会は、より良好なアンチスプーフィングのために、風景を照会するモバイルデバイスによって付与される構造化光への顔面測光応答によって増強されることができる。いくつかの実装では、構造化光は、例えば、内蔵されたLCDまたはLED光源を介して、本デバイスによって付与される光のコード化された強度、コード化された色変動、コード化された空間分布、および/もしくはコード化された位相変動の形態である。前述のコードは、周波数形態およびBarkerまたはMシーケンス等の具体的最大相関シーケンスの観点から定義されることができる。他の実装では、ユーザの顔の測光プロファイルは、ユーザ対スプーフの一般的集団プロファイル(ユーザ非依存の測光顔面性)に基づいて事前計算される。
さらに、いくつかの実装では、検証される登録の時点でユーザの測光反射によって検出されるようなユーザの顔の3Dプロファイルは、ユーザ特異性のために分類子によって学習される。音響モダリティとともに、またはそれ自体で、これらのユーザ特有ポートフォリオは、ソフトバイオメトリクスとして使用されることができ、これはまた、さらなる対象特異性、したがって、正確度をこれらのアンチスプーフィング手段にもたらす。
ここで説明されるシステムおよび技法は、バックエンドコンポーネント(例えば、データサーバとして)を含む、またはミドルウェアコンポーネント(例えば、アプリケーションサーバ)を含む、またはフロントエンドコンポーネント(例えば、それを通してユーザがここで説明されるシステムおよび技法の実装と相互作用できる、グラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータ)を含む、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組み合わせを含む、コンピューティングシステム内に実装されることができる。本システムのコンポーネントは、デジタルデータ通信の任意の形態または媒体(例えば、通信ネットワーク)によって、相互接続されることができる。通信ネットワークの実施例は、ローカルエリアネットワーク(「LAN」)と、広域ネットワーク(「WAN」)と、インターネットとを含む。
コンピューティングシステムは、クライアントと、サーバとを含むことができる。クライアントおよびサーバは、概して、相互に遠隔にあり、通信ネットワークを通して相互作用する。クライアントとサーバとの関係は、個別のコンピュータ上で起動し、相互にクライアント−サーバ関係を有するコンピュータプログラムによって生じる。いくつかの実施形態が、説明されている。それにもかかわらず、種々の修正が、本発明の精神および範囲から逸脱することなく、成され得ることを理解されたい。
本明細書に説明される主題および動作の実施形態は、デジタル電子回路内に、または本明細書に開示される構造およびそれらの構造的均等物を含む、コンピュータソフトウェア、ファームウェア、もしくはハードウェア内に、またはそれらうちの1つもしくはそれを上回るものの組み合わせ内に、実装されることができる。本明細書に説明される主題の実施形態は、1つまたはそれを上回るコンピュータプログラム、すなわち、データ処理装置による、またはその動作を制御するための、実行のためにコンピュータ記憶媒体上でエンコードされる、コンピュータプログラム命令の1つまたはそれを上回るモジュールとして実装されることができる。代替として、または加えて、プログラム命令は、データ処理装置による実行のための好適な受信機装置への伝送のための情報をエンコードするために生成される、人為的生成伝搬信号、例えば、機械生成電気、光学、または電磁信号上でエンコードされることができる。コンピュータ記憶媒体は、コンピュータ可読記憶デバイス、コンピュータ可読記憶基板、ランダムもしくはシリアルアクセスメモリアレイもしくはデバイス、またはそれらのうちの1つまたはそれを上回るものの組み合わせである、またはその中に含まれることができる。さらに、コンピュータ記憶媒体は伝搬信号ではないが、コンピュータ記憶媒体は、人為的生成伝搬信号内でエンコードされる、コンピュータプログラム命令のソースまたは宛先であり得る。コンピュータ記憶媒体はまた、1つまたはそれを上回る別個の物理的コンポーネントまたは媒体(例えば、複数のCD、ディスク、または他の記憶デバイス)である、またはその中に含まれることができる。
本明細書に説明される動作は、1つまたはそれを上回るコンピュータ可読記憶デバイス上に記憶される、または他のソースから受信されるデータに対して、データ処理装置によって実施される動作として実装されることができる。
「データ処理装置」という用語は、実施例として、プログラム可能プロセッサ、コンピュータ、チップ上のシステム、または前述のものの複数もしくは組み合わせを含む、データを処理するための全ての種類の装置、デバイス、および機械を包含する。装置は、専用論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含むことができる。装置はまた、ハードウェアに加えて、当該コンピュータプログラムのための実行環境を作成するコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、クロスプラットフォームランタイム環境、仮想マシン、またはそれらのうちの1つもしくはそれを上回るものの組み合わせを構成するコードも含むことができる。装置および実行環境は、ウェブサービス、分散コンピューティング、およびグリッドコンピューティングインフラストラクチャ等、種々の異なるコンピューティングモデルインフラストラクチャを実現することができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても公知である)が、コンパイルまたは解釈される言語、宣言型または手続き型言語を含む、プログラミング言語の任意の形態において書き込まれることができ、これは、スタンドアローンのプログラムとして、またはモジュール、コンポーネント、サブルーチン、オブジェクト、もしくはコンピューティング環境における使用のために好適な他のユニットとしてを含む、任意の形態において展開されることができる。コンピュータプログラムは、ファイルシステム内のファイルに対応し得るが、そうである必要はない。プログラムは、他のプログラムまたはデータ(例えば、マークアップ言語リソース内に記憶される1つまたはそれを上回るスクリプト)を保持するファイルの一部内に、当該プログラム専用である単一ファイル内に、または複数の協調ファイル(例えば、1つまたはそれを上回るモジュール、サブプログラム、またはコードの一部を記憶するファイル)内に記憶されることができる。コンピュータプログラムは、1つのコンピュータ上で、または1つの場所に位置する、もしくは複数の場所にわたって分散され、通信ネットワークによって相互接続される、複数のコンピュータ上で実行されるように展開されることができる。
本明細書に説明される主題の実施形態は、例えば、データサーバとして、バックエンドコンポーネントを含む、またはミドルウェアコンポーネント、例えば、アプリケーションサーバを含む、またはフロントエンドコンポーネント、例えば、それを通してユーザが本明細書に説明される主題の実装と相互作用できる、グラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータを含む、または1つもしくそれを上回るそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組み合わせを含む、コンピューティングシステム内に実装されることができる。本システムのコンポーネントは、デジタルデータ通信の任意の形態または媒体、例えば、通信ネットワークによって、相互接続されることができる。通信ネットワークの実施例は、ローカルエリアネットワーク(「LAN」)と、広域ネットワーク(「WAN」)と、ネットワーク間(例えば、インターネット)と、ピアツーピアネットワーク(例えば、アドホックピアツーピアネットワーク)とを含む。
コンピューティングシステムは、クライアントと、サーバとを含むことができる。クライアントおよびサーバは、概して、相互に遠隔にあり、通信ネットワークを通して相互作用することができる。クライアントとサーバとの関係は、個別のコンピュータ上で起動し、相互にクライアント−サーバ関係を有するコンピュータプログラムによって生じる。いくつかの実施形態では、サーバは、データ(例えば、HTMLページ)をクライアントデバイスに(例えば、クライアントデバイスと相互作用するユーザにデータを表示し、そこからユーザ入力を受信することを目的として)伝送する。クライアントデバイスにおいて生成されたデータ(例えば、ユーザの相互作用の結果)は、サーバにおけるクライアントデバイスから受信されることができる。
1つまたはそれを上回るコンピュータのシステムは、動作時にシステムにアクションを実施させる、システム上にインストールされる、ソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせを有することによって、特定の動作またはアクションを実施するように構成されることができる。1つまたはそれを上回るコンピュータプログラムは、データ処理装置によって実行されると、装置にアクションを実施させる命令を含むことによって、特定の動作またはアクションを実施するように構成されることができる。
(Appendix A)
Feature Vector Set 1:
Figure 0006735778
Figure 0006735778
Figure 0006735778
Figure 0006735778
(Appendix B)
Feature Vector Set 2:
Figure 0006735778
Figure 0006735778
本明細書は、多くの具体的実装詳細を含有するが、これらは、任意の発明または請求され得るものの範囲に対する限定として解釈されるべきではなく、むしろ、特定の発明の特定の実施形態に固有である特徴の説明として解釈されるべきである。別個の実施形態の文脈において本明細書に説明されるある特徴はまた、単一の実施形態における組み合わせにおいて実装されることができる。逆に、単一の実施形態の文脈において説明される種々の特徴もまた、複数の実施形態において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴は、ある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。
同様に、動作は特定の順序において図面に描写されているが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序において、もしくは連続的順序において実施される、または全ての例証される動作が実施されることを要求するものとして理解されるべきではない。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態においてそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。
したがって、本主題の特定の実施例が、説明されている。他の実施形態も、以下の請求項の範囲内である。いくつかの場合では、請求項に記載されるアクションは、異なる順序において実施され、依然として、望ましい結果を達成することができる。加えて、付随の図に描写されるプロセスは、望ましい結果を達成するために、必ずしも、示される特定の順序、または連続的順序を要求するわけではない。ある実装では、マルチタスクおよび並列処理が、有利であり得る。

Claims (21)

  1. 法であって、前記方法は、コンピュータによって実行され、前記方法は、
    ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出することと、
    前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信することと、
    前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定することと、
    前記標的の複数の画像を受信することと、
    前記画像に基づいて、前記標的が第1の脈拍を有するかどうかを識別することと、
    前記標的との物理的接触を通して、前記標的の第2の脈拍を測定することと、
    (i)前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定、(ii)前記標的が脈拍を有するかどうかの識別、および(iii)前記第2の脈拍の測定に基づいて、前記標的がスプーフであるかどうかを判定することと
    を含む、方法。
  2. 前記ユーザデバイスは、スマートフォン、タブレット、またはラップトップを含むモバイルデバイスである、請求項1に記載の方法。
  3. 前記1つまたはそれを上回るオーディオ信号は、ショートコード化パルスping、短期間のチャープ、またはCTFM pingを含む、請求項1に記載の方法。
  4. 前記標的の身体的特徴を識別するために、分類子を訓練することと、
    前記分類子への入力として、前記標的からの前記オーディオ信号の前記1つまたはそれを上回る反射に基づいて、情報を提供することと
    をさらに含み、
    前記標的がスプーフであるかどうかの判定はさらに、前記提供された入力に応答して受信される前記分類子の出力に基づく、請求項1に記載の方法。
  5. 前記1つまたはそれを上回るオーディオ信号の1つもしくはそれを上回る特性をランダム化することをさらに含む、請求項1に記載の方法。
  6. 前記標的の複数の画像を受信することと、
    前記画像内の検出された光反射に基づいて、前記標的が3次元顔状構造を含むかどうかを判定することと
    をさらに含む、請求項1に記載の方法。
  7. 前記第1の脈拍は、遠隔フォトプレチスモグラフィを使用して識別される、請求項1に記載の方法。
  8. 前記第2の脈拍が前記第1の脈拍に相関するかどうかを判定することをさらに含み、前記標的がスプーフであるかどうかの判定はさらに、前記相関に基づく、請求項1に記載の方法。
  9. 前記第2の脈拍を測定することは、前記ユーザデバイスまたは別のハンドヘルドもしくはウェアラブルデバイスから前記第2の脈拍と関連付けられる情報を受信することを含む、請求項1に記載の方法。
  10. 前記第2の脈拍と関連付けられる前記情報は、バリストカルジオグラ信号を含む、請求項9に記載の方法。
  11. システムであって、
    コンピュータ実行可能命令を記憶するための少なくとも1つのメモリと、
    前記メモリ上に記憶される前記命令を実行するための少なくとも1つの処理ユニットであって、前記命令の実行は、
    ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出することと、
    前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信することと、
    前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定することと、
    前記標的の複数の画像を受信することと、
    前記画像に基づいて、前記標的が第1の脈拍を有するかどうかを識別することと、
    前記標的との物理的接触を通して、前記標的の第2の脈拍を測定することと、
    (i)前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定、(ii)前記標的が脈拍を有するかどうかの識別、および(iii)前記第2の脈拍の測定に基づいて、前記標的がスプーフであるかどうかを判定することと
    を含む動作を実施するように前記少なくとも1つの処理ユニットをプログラムする、少なくとも1つの処理ユニットと
    を備える、システム。
  12. 前記ユーザデバイスは、スマートフォン、タブレット、またはラップトップを含むモバイルデバイスである、請求項11に記載のシステム。
  13. 前記1つまたはそれを上回るオーディオ信号は、ショートコード化パルスping、短期間のチャープ、またはCTFM pingを含む、請求項11に記載のシステム。
  14. 前記動作は、
    前記標的の身体的特徴を識別するために、分類子を訓練することと、
    前記分類子への入力として、前記標的からの前記オーディオ信号の前記1つまたはそれを上回る反射に基づいて、情報を提供することと
    をさらに含み、
    前記標的がスプーフであるかどうかの判定はさらに、前記提供された入力に応答して受信される前記分類子の出力に基づく、請求項11に記載のシステム。
  15. 前記動作はさらに、前記1つまたはそれを上回るオーディオ信号の1つもしくはそれを上回る特性をランダム化することを含む、請求項11に記載のシステム。
  16. 前記動作は、
    前記標的の複数の画像を受信することと、
    前記画像内の検出された光反射に基づいて、前記標的が3次元顔状構造を含むかどうかを判定することと
    をさらに含む、請求項11に記載のシステム。
  17. 前記第1の脈拍は、遠隔フォトプレチスモグラフィを使用して識別される、請求項11に記載のシステム。
  18. 前記動作はさらに、前記第2の脈拍が前記第1の脈拍に相関するかどうかを判定することを含み、前記標的がスプーフであるかどうかの判定はさらに、前記相関に基づく、請求項11に記載のシステム。
  19. 前記第2の脈拍を測定することは、前記ユーザデバイスまたは別のハンドヘルドもしくはウェアラブルデバイスから前記第2の脈拍と関連付けられる情報を受信することを含む、請求項11に記載のシステム。
  20. 前記第2の脈拍と関連付けられる前記情報は、バリストカルジオグラ信号を含む、請求項19に記載のシステム。
  21. 命令が記憶された非一過性コンピュータ可読媒体であって、前記命令は、実行されると、
    ユーザデバイスのオーディオ出力コンポーネントを使用して、1つまたはそれを上回るオーディオ信号を放出することと、
    前記ユーザデバイスのオーディオ入力コンポーネントを使用して、標的から前記オーディオ信号の1つまたはそれを上回る反射を受信することと、
    前記1つまたはそれを上回る反射に基づいて、前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかを判定することと、
    前記標的の複数の画像を受信することと、
    前記画像に基づいて、前記標的が第1の脈拍を有するかどうかを識別することと、
    前記標的との物理的接触を通して、前記標的の第2の脈拍を測定することと、
    (i)前記標的が顔状構造および顔状組織のうちの少なくとも1つを含むかどうかの判定、(ii)前記標的が脈拍を有するかどうかの識別、および(iii)前記第2の脈拍の測定に基づいて、前記標的がスプーフであるかどうかを判定することと
    を含む動作を実施するように少なくとも1つのプロセッサをプログラムする、非一過性コンピュータ可読媒体。
JP2017565178A 2015-06-16 2016-05-31 スプーフ検出およびライブネス分析のためのシステム、方法および非一過性コンピュータ可読媒体 Expired - Fee Related JP6735778B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562180481P 2015-06-16 2015-06-16
US62/180,481 2015-06-16
PCT/US2016/035007 WO2016204968A1 (en) 2015-06-16 2016-05-31 Systems and methods for spoof detection and liveness analysis

Publications (3)

Publication Number Publication Date
JP2018524072A JP2018524072A (ja) 2018-08-30
JP2018524072A5 JP2018524072A5 (ja) 2019-06-20
JP6735778B2 true JP6735778B2 (ja) 2020-08-05

Family

ID=56121218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017565178A Expired - Fee Related JP6735778B2 (ja) 2015-06-16 2016-05-31 スプーフ検出およびライブネス分析のためのシステム、方法および非一過性コンピュータ可読媒体

Country Status (16)

Country Link
US (2) US9665784B2 (ja)
EP (1) EP3311330B1 (ja)
JP (1) JP6735778B2 (ja)
KR (2) KR102131103B1 (ja)
CN (2) CN110110591B (ja)
AU (1) AU2016278859B2 (ja)
BR (1) BR112017027057B1 (ja)
CA (1) CA2989575C (ja)
HK (1) HK1251691B (ja)
MX (1) MX2017016718A (ja)
MY (1) MY182294A (ja)
PH (1) PH12017502353A1 (ja)
RU (2) RU2725413C2 (ja)
SG (1) SG10201906574VA (ja)
TW (1) TWI695182B (ja)
WO (1) WO2016204968A1 (ja)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2791776T3 (es) 2012-09-05 2020-11-05 Element Inc Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara
KR102137981B1 (ko) 2014-04-07 2020-07-27 아이베리파이 인크. 사용자 인증을 위한 바이오 리쉬
US20160005050A1 (en) * 2014-07-03 2016-01-07 Ari Teman Method and system for authenticating user identity and detecting fraudulent content associated with online activities
KR102258696B1 (ko) * 2015-02-02 2021-06-01 한국전자통신연구원 위성 항법해를 생성하는 장치 및 방법
CN107135348A (zh) * 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 拍摄对象的识别方法、装置、移动终端和照相机
US10111103B2 (en) 2016-03-02 2018-10-23 EyeVerify Inc. Spoof detection using proximity sensors
CN105912986B (zh) * 2016-04-01 2019-06-07 北京旷视科技有限公司 一种活体检测方法和系统
US10311219B2 (en) * 2016-06-07 2019-06-04 Vocalzoom Systems Ltd. Device, system, and method of user authentication utilizing an optical microphone
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
JP6932150B2 (ja) * 2016-06-30 2021-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 顔検出/認識システム用の方法及び装置
US10289824B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Security system for facility access control
US9905104B1 (en) * 2016-08-15 2018-02-27 Nec Corporation Baby detection for electronic-gate environments
CN107066079A (zh) * 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
CN108263338B (zh) 2016-12-30 2021-06-15 华为技术有限公司 汽车、方向盘以及驾驶员身份识别方法
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
US11301703B2 (en) * 2017-03-21 2022-04-12 Sri International Robust biometric access control based on dynamic structural changes in tissue
WO2019002831A1 (en) 2017-06-27 2019-01-03 Cirrus Logic International Semiconductor Limited REPRODUCTIVE ATTACK DETECTION
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201710560D0 (en) 2017-06-30 2017-08-16 Norwegian Univ Of Science And Tech (Ntnu) Detection of manipulated images
GB201801530D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801532D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801527D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801526D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
US11250489B2 (en) * 2017-07-28 2022-02-15 Nuro, Inc. Flexible compartment design on autonomous and semi-autonomous vehicle
GB2567798A (en) * 2017-08-22 2019-05-01 Eyn Ltd Verification method and system
EP3447684A1 (en) * 2017-08-22 2019-02-27 Eyn Limited Verification method and system
TWI781226B (zh) * 2017-09-18 2022-10-21 美商艾勒門公司 用於偵測行動認證中之欺騙之方法、系統及媒體
CN107808115A (zh) * 2017-09-27 2018-03-16 联想(北京)有限公司 一种活体检测方法、装置及存储介质
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801663D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201803570D0 (en) 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801661D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
CN111492373A (zh) * 2017-10-30 2020-08-04 纽约州州立大学研究基金会 与基于声学的回声签名的用户认证相关联的系统和方法
AU2018361801B2 (en) * 2017-10-31 2023-07-06 Bae Systems Plc Improvements in and relating to sonar
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
US10951613B2 (en) * 2017-12-28 2021-03-16 iProov Ltd. Biometric methods for online user authentication
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
US11264037B2 (en) 2018-01-23 2022-03-01 Cirrus Logic, Inc. Speaker identification
WO2019152983A2 (en) * 2018-02-05 2019-08-08 Board Of Trustees Of Michigan State University System and apparatus for face anti-spoofing via auxiliary supervision
CN108445643B (zh) * 2018-03-12 2021-05-14 Oppo广东移动通信有限公司 结构光投射模组及其检测方法与装置、图像获取结构和电子装置
ES2828358T3 (es) * 2018-03-16 2021-05-26 Identy Inc Procedimiento para identificar un objeto dentro de una imagen y dispositivo móvil para ejecutar el procedimiento
CN108652635A (zh) * 2018-03-27 2018-10-16 余海波 医疗监护装置、方法及系统
WO2019205009A1 (en) 2018-04-25 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for identifying a body motion
KR102522415B1 (ko) * 2018-05-15 2023-04-17 삼성전자주식회사 전자 장치의 객체 인증 장치 및 방법
US10692490B2 (en) 2018-07-31 2020-06-23 Cirrus Logic, Inc. Detection of replay attack
US10915614B2 (en) 2018-08-31 2021-02-09 Cirrus Logic, Inc. Biometric authentication
US11037574B2 (en) 2018-09-05 2021-06-15 Cirrus Logic, Inc. Speaker recognition and speaker change detection
JP7204077B2 (ja) * 2018-09-07 2023-01-16 株式会社アイシン 脈波検出装置、車両装置、及び脈波検出プログラム
CN112639802A (zh) * 2018-09-18 2021-04-09 Oppo广东移动通信有限公司 用于生成伪结构光照射面部的方法、系统及存储介质
US10740637B2 (en) * 2018-09-18 2020-08-11 Yoti Holding Limited Anti-spoofing
WO2020070808A1 (ja) * 2018-10-02 2020-04-09 富士通株式会社 脈波算出装置、脈波算出方法及び脈波算出プログラム
US10929516B2 (en) * 2018-10-08 2021-02-23 Advanced New Technologies Co., Ltd. Dynamic grip signature for personal authentication
US10885363B2 (en) * 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US10783388B2 (en) * 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
FR3089036B1 (fr) 2018-11-28 2020-10-30 In Idt dispositif et procédé d’authentification d’un individu
US11030292B2 (en) * 2018-12-11 2021-06-08 Advanced New Technologies Co., Ltd. Authentication using sound based monitor detection
US11120111B2 (en) 2018-12-11 2021-09-14 Advanced New Technologies Co., Ltd. Authentication based on correlation of multiple pulse signals
US11170242B2 (en) 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
US10970574B2 (en) 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
US11138302B2 (en) 2019-02-27 2021-10-05 International Business Machines Corporation Access control using multi-authentication factors
WO2020185948A1 (en) 2019-03-12 2020-09-17 Element Inc. Detecting spoofing of facial recognition with mobile devices
US11328043B2 (en) 2019-03-15 2022-05-10 Advanced New Technologies Co., Ltd. Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
US11551475B2 (en) * 2019-03-21 2023-01-10 Purdue Research Foundation System architecture and method of authenticating a 3-D object
CN111860079B (zh) * 2019-04-30 2024-05-14 北京嘀嘀无限科技发展有限公司 活体图像检测方法、装置以及电子设备
CN110099324B (zh) * 2019-05-23 2021-04-20 歌尔科技有限公司 一种耳机佩戴状态的检测方法、检测装置及耳机
SG10201906721SA (en) * 2019-07-19 2021-02-25 Nec Corp Method and system for chrominance-based face liveness detection
US10929677B1 (en) 2019-08-07 2021-02-23 Zerofox, Inc. Methods and systems for detecting deepfakes
WO2021038298A2 (en) 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device
TWI750504B (zh) 2019-08-29 2021-12-21 鉅怡智慧股份有限公司 活體偵測的方法及相關裝置
WO2021086370A1 (en) 2019-10-31 2021-05-06 Visa International Service Association Systems and methods to identify an entity using a 3d layout
TWI743593B (zh) * 2019-11-18 2021-10-21 緯創資通股份有限公司 活體臉部辨識系統與方法
KR20210074749A (ko) * 2019-12-12 2021-06-22 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
KR102307671B1 (ko) * 2020-01-02 2021-10-01 주식회사 블루프린트랩 얼굴 인증을 수행하기 위한 방법
US11874906B1 (en) * 2020-01-15 2024-01-16 Robert William Kocher Skin personal identification (Skin-PIN)
TWI772751B (zh) * 2020-02-19 2022-08-01 鉅怡智慧股份有限公司 活體偵測裝置及方法
CN111428577B (zh) * 2020-03-03 2022-05-03 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN111767788A (zh) * 2020-05-12 2020-10-13 贵阳像树岭科技有限公司 一种非交互式单目活体检测方法
AU2020101743B4 (en) * 2020-05-18 2021-03-04 Ri Pty Ltd Contactless Biometric Authentication Systems and Methods Thereof
CN111832619A (zh) * 2020-06-09 2020-10-27 哈尔滨市科佳通用机电股份有限公司 基于深度学习的目标检测数据集voc数据格式标注方法
CN111887858B (zh) * 2020-08-04 2021-05-04 西安电子科技大学 基于跨模态映射的心冲击图信号心率估计方法
CN112396123A (zh) * 2020-11-30 2021-02-23 上海交通大学 基于卷积神经网络的图像识别方法、系统、终端和介质
CN112684889B (zh) * 2020-12-29 2023-06-30 上海掌门科技有限公司 一种用户互动方法及设备
FR3119915B1 (fr) 2021-02-15 2024-01-19 Deepsense Dispositif et procédé de traitement de données vidéos pour détection du vivant
US11126879B1 (en) * 2021-04-08 2021-09-21 EyeVerify, Inc. Spoof detection using illumination sequence randomization
CN113100734B (zh) * 2021-04-15 2022-11-25 深圳前海微众银行股份有限公司 活体检测方法、设备、介质及计算机程序产品
US11894939B2 (en) * 2021-05-11 2024-02-06 Cisco Technology, Inc. Validation of currency and authenticity of a conference participant's video image
US20220374075A1 (en) * 2021-05-18 2022-11-24 Harrow Ip, Llc Methods and system for remotely capturing media via a user interface bidirectionally linked to a remote server
US11922731B1 (en) 2021-06-30 2024-03-05 Jumio Corporation Liveness detection
US11564053B1 (en) 2021-09-15 2023-01-24 Qualcomm Incorportaed Systems and methods to control spatial audio rendering
US20230091381A1 (en) * 2021-09-17 2023-03-23 Jumio Corporation Spoof detection using eye boundary analysis
US20230334911A1 (en) * 2022-04-13 2023-10-19 Nec Corporation Face liveness detection
GB202210043D0 (en) * 2022-07-08 2022-08-24 Rewire Holding Ltd System and method

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005296463A (ja) * 2004-04-14 2005-10-27 Toyota Motor Corp 生体情報計測装置
RU2296599C2 (ru) * 2005-06-16 2007-04-10 Александр Абрамович Певзнер Способ воздействия на организм
RU56668U1 (ru) * 2006-01-16 2006-09-10 Федеральное государственное унитарное предприятие "Научно-исследовательский институт "Восход" Автоматизированная система идентификации и аутентификации граждан по биометрическим параметрам личности
US7886156B2 (en) * 2006-09-18 2011-02-08 John Franco Franchi Secure universal transaction system
CN101396277A (zh) * 2007-09-26 2009-04-01 中国科学院声学研究所 一种超声波人脸识别方法和识别装置
US8978117B2 (en) 2007-11-19 2015-03-10 Avaya Inc. Authentication frequency and challenge type based on environmental and physiological properties
US8150108B2 (en) 2008-03-17 2012-04-03 Ensign Holdings, Llc Systems and methods of identification based on biometric parameters
US8401875B2 (en) * 2010-03-12 2013-03-19 Os - New Horizons Personal Computing Solutions Ltd. Secured personal data handling and management system
US9124777B2 (en) * 2011-01-05 2015-09-01 Koninklijke Philips N.V. Device and method for extracting information from characteristic signals
DE102011102202A1 (de) * 2011-05-21 2012-11-22 Volkswagen Aktiengesellschaft Umfelderfassungsvorrichtung in einem Kraftfahrzeug und Verfahren zur Umfelderfassung unter Ausnutzung einer Korrelation
GB201114406D0 (en) * 2011-08-22 2011-10-05 Isis Innovation Remote monitoring of vital signs
US8892461B2 (en) * 2011-10-21 2014-11-18 Alohar Mobile Inc. Mobile device user behavior analysis and authentication
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US8984622B1 (en) * 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
US8806610B2 (en) * 2012-01-31 2014-08-12 Dell Products L.P. Multilevel passcode authentication
CN102622588B (zh) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 双验证人脸防伪方法及装置
US8725113B2 (en) 2012-03-12 2014-05-13 Google Inc. User proximity control of devices
US8831295B2 (en) 2012-03-21 2014-09-09 Authentec, Inc. Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
EP2911580A2 (en) * 2012-10-23 2015-09-02 Koninklijke Philips N.V. Device and method for obtaining vital sign information of a living being
JP6146078B2 (ja) * 2013-03-22 2017-06-14 富士通株式会社 生体検知装置、顔認証装置、撮像装置、生体検知方法及び生体検知プログラム
US9231765B2 (en) * 2013-06-18 2016-01-05 Arm Ip Limited Trusted device
JP6308742B2 (ja) * 2013-09-13 2018-04-11 旭化成株式会社 血圧情報出力装置、血圧情報出力プログラム、媒体、血圧情報出力方法
CN103617419B (zh) * 2013-12-02 2018-10-16 广州微盾科技股份有限公司 具有活体手指侦测功能的手指静脉识别装置和方法
US9524421B2 (en) 2013-12-09 2016-12-20 Google Inc. Differentiating real faces from representations
US20160007935A1 (en) * 2014-03-19 2016-01-14 Massachusetts Institute Of Technology Methods and apparatus for measuring physiological parameters
KR102137981B1 (ko) 2014-04-07 2020-07-27 아이베리파이 인크. 사용자 인증을 위한 바이오 리쉬
KR20150117543A (ko) 2014-04-10 2015-10-20 삼성전자주식회사 인증 관리 방법 및 장치
US9251427B1 (en) * 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
US9396537B2 (en) 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
JP2016131604A (ja) * 2015-01-16 2016-07-25 セイコーエプソン株式会社 生体情報測定システム、生体情報測定装置および生体情報測定方法
US10049287B2 (en) * 2015-05-22 2018-08-14 Oath Inc. Computerized system and method for determining authenticity of users via facial recognition

Also Published As

Publication number Publication date
RU2018101202A (ru) 2019-07-16
JP2018524072A (ja) 2018-08-30
SG10201906574VA (en) 2019-09-27
US10108871B2 (en) 2018-10-23
AU2016278859B2 (en) 2019-07-18
TW201716798A (zh) 2017-05-16
CN110110591A (zh) 2019-08-09
EP3311330B1 (en) 2024-01-31
KR102061434B1 (ko) 2019-12-31
MY182294A (en) 2021-01-18
RU2018101202A3 (ja) 2019-09-27
EP3311330A1 (en) 2018-04-25
RU2725413C2 (ru) 2020-07-02
CA2989575C (en) 2020-03-24
CN107851182B (zh) 2019-04-19
TWI695182B (zh) 2020-06-01
RU2020106758A3 (ja) 2020-05-18
KR102131103B1 (ko) 2020-07-07
RU2020106758A (ru) 2020-02-28
KR20190143498A (ko) 2019-12-30
RU2715521C2 (ru) 2020-02-28
PH12017502353A1 (en) 2018-06-25
HK1251691B (zh) 2020-02-21
US9665784B2 (en) 2017-05-30
US20160371555A1 (en) 2016-12-22
CN110110591B (zh) 2021-01-15
BR112017027057B1 (pt) 2020-05-12
MX2017016718A (es) 2018-11-09
WO2016204968A1 (en) 2016-12-22
US20170357868A1 (en) 2017-12-14
AU2016278859A1 (en) 2018-01-18
KR20180019654A (ko) 2018-02-26
CA2989575A1 (en) 2016-12-22
CN107851182A (zh) 2018-03-27

Similar Documents

Publication Publication Date Title
JP6735778B2 (ja) スプーフ検出およびライブネス分析のためのシステム、方法および非一過性コンピュータ可読媒体
US11513205B2 (en) System and method associated with user authentication based on an acoustic-based echo-signature
TWI694347B (zh) 使用鄰近感測器之欺騙偵測
US7708695B2 (en) Apparatus and method for detecting blood flow
US20190332757A1 (en) Method and apparatus for authenticating a user of a computing device
JP2008257553A (ja) 生体認証装置及び生体認証方法
US10424314B2 (en) Techniques for spatial filtering of speech
WO2023199571A1 (en) Face liveness detection
Zhou et al. Multi-modal face authentication using deep visual and acoustic features
Wang et al. Wavesdropper: Through-wall word detection of human speech via commercial mmWave devices
Zhou et al. Securing face liveness detection using unforgeable lip motion patterns
JP2018527064A (ja) 光音響トモグラフィを用いた3次元の血管画像化
XU et al. AFace: Range-flexible Anti-spoofing Face Authentication via Smartphone Acoustic Sensing
Zhang et al. Face Recognition In Harsh Conditions: An Acoustic Based Approach

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190514

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R150 Certificate of patent or registration of utility model

Ref document number: 6735778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees