JP7159509B1 - 画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法 - Google Patents

画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法 Download PDF

Info

Publication number
JP7159509B1
JP7159509B1 JP2022522714A JP2022522714A JP7159509B1 JP 7159509 B1 JP7159509 B1 JP 7159509B1 JP 2022522714 A JP2022522714 A JP 2022522714A JP 2022522714 A JP2022522714 A JP 2022522714A JP 7159509 B1 JP7159509 B1 JP 7159509B1
Authority
JP
Japan
Prior art keywords
images
input data
focal length
image
spoofing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522714A
Other languages
English (en)
Other versions
JP2022546873A (ja
Inventor
シェル ロウ、ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Assa Abloy AB
Original Assignee
Assa Abloy AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assa Abloy AB filed Critical Assa Abloy AB
Application granted granted Critical
Publication of JP7159509B1 publication Critical patent/JP7159509B1/ja
Publication of JP2022546873A publication Critical patent/JP2022546873A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法が本明細書において開示される。特定の実施形態は、方法の態様をとり、該方法は、生体認証対象の複数の画像を取得することであって、複数の画像は、異なる複数の焦点距離を使用してカメラシステムによって撮像される、複数の画像を取得すること、複数の画像を含む一組の入力データを入力データ分析モジュールに入力すること、入力データ分析モジュールを使用して一組の入力データを処理し、入力データ分析モジュールから、生体認証対象のなりすまし検出結果を取得すること、生体認証対象のなりすまし検出結果を出力すること、を含む。

Description

関連出願の相互参照
本出願は、2019年10月15日に出願された「画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法」と題された米国特許出願第16/601,839号の優先権を主張し、2019年10月15日に出願された「画像に基づくなりすまし検出のために機械学習を使用するシステムおよび方法」と題された米国特許出願第16/601,851号に関連しており、これらのそれぞれは、参照によりその全体が本明細書に組み込まれる。
本開示の実施形態は、概して、生体認証、認証、およびなりすまし検出に関し、より具体的には、画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法に関する。
テクノロジーが現代社会においてますます普及するにつれて、パーソナルコンピュータ、モバイルデバイス、Webサーバー、ネットワークサーバーなどの複数のシステムにアクセスする不正な試みも同様に増加している。そのような試みのタイプの1つは、なりすまし(spoofing)と呼ばれるものを含む。顔認証を含む生体認証に関して、なりすましの試み(spoofing attempt)は、多くの場合、システムが、権限付与されたユーザーの顔の表現が権限付与されたユーザーの本物の顔であると誤って判定し、それに応答してシステムへのアクセスを許可する(例えば、モバイルデバイスのロックを解除する)ことを期待して、権限付与されたユーザーの顔(または別の顔)の2次元(2D)または3次元(3D)の表現を、所与のシステム(例えば、モバイルデバイス)の単一のカメラまたは複数のカメラを有するカメラシステムに提示することを含む。このような状況では、提示型攻撃検出(presentation attack detection : PAD)としても知られるなりすまし検出は、典型的には、多くの場合、認証のために提示されている対象が、例えば、プリントアウトまたはスクリーン表示された顔の画像、顔の3Dモデル、顔の3Dマスク、1つまたは複数の補綴変更が行われた顔などとは反対に、生きている変更されていない顔であるかどうかを判定しようとすることを含む生体検知(liveness detection)とも呼ばれるものを含む。
顔認証の試みがなりすましの試みであるかどうかを判定することに関して、システムは一般に、偽陰性(false negative)と偽陽性(false positive)の両方の発生を回避または少なくとも最小限に抑えようとする。この状況では、偽陰性は、実際のなりすましの試みがなりすましの試みではないという誤った判定であり、たとえば、顔の2Dまたは3D表現が実際の変更されていない顔であるという誤った判定である。反対に、偽陽性は、なりすましではない認証の試みがなりすましの試みであるという誤った判定であり、たとえば、実際の変更されていない顔(なお、権限付与されたユーザーに属している場合もそうでない場合もある)が、実際には顔の2Dまたは3D表現にすぎないという誤った判定である。一方では、偽陰性は、権限付与されていない人へのシステムアクセスを許可する結果となる可能性がある。一方、偽陽性は、権限付与された人へのシステムアクセスを拒否する結果となる可能性がある。従って、画像に基づく顔認証との関連を含めて、画像に基づく生体認証のなりすまし検出の精度を向上させる必要がある。
画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法が本明細書において開示される。少なくとも1つの実施形態では、焦点スタック(focal stack)は、対象の2つ以上の画像のセットであり、そのような複数の画像は、異なる焦点距離(focal distance)を使用して撮像される。少なくともいくつかの実施形態では、所与の焦点スタック内の複数の画像は、比較的短い時間、例えば1秒にも満たない間に撮像される。例えば、少なくとも1つの実施形態では、所与の焦点スタック内の連続的に撮像された複数の画像は、互いから5~20ミリ秒(ms)以内に収集される。本開示による画像に基づくなりすまし検出のための複数の焦点スタックの使用は、単一焦点実装であるか、または「最良」(例えば、オートフォーカスで選択された)焦点距離で撮像された1つまたは複数の画像における特定の顔特徴が、所与の生体認証対象の顔を認証すべきか否かを判定するために深く分析される実装である顔認証システムの現在の実装とは異なる。
一実施形態は、生体認証対象の複数の画像を取得することを含む方法の態様をとる。複数の画像は、異なる複数の焦点距離を使用してカメラシステムによって撮像される。また方法は、複数の画像を含む一組の入力データを入力データ分析モジュールに入力することを含む。さらに方法は、入力データ分析モジュールを使用して一組の入力データを処理し、入力データ分析モジュールから、生体認証対象のなりすまし検出結果を取得することを含む。また方法は、生体認証対象のなりすまし検出結果を出力することを含む。
別の実施形態は、入力データ分析モジュールと、プロセッサと、少なくとも前の段落において列挙された機能を実行するためにプロセッサによって実行可能である複数の命令を格納するデータ記憶装置と、を含むシステムの形態をとる。さらに別の実施形態は、少なくともこれらの機能を実行するためにプロセッサによって実行可能である複数の命令を格納するコンピュータ可読媒体の形態をとる。
さらに、上述した複数の実施形態のいくつかの変形および置換が本明細書に説明されており、本開示に説明されている任意の変形または置換は、任意のタイプの実施形態に関して実施可能であることに留意されたい。例えば、方法の実施形態に関連して本開示において主に説明される変形または置換は、システムの実施形態および/またはコンピュータ可読媒体の実施形態に関連して同様に実施されることができる。さらに、実施形態のこの柔軟性および相互適用性は、そのような実施形態を説明および/または特徴付けるために使用される任意のわずかに異なる言語(例えば、プロセス、方法、ステップ、機能、機能のセット、および/または類似物)にかかわらず存在する。
より詳細な理解は、同様の参照番号が、同様の要素に関連して図面全体において使用されている以下の図面と共に例として示されている以下の説明から得ることができる。
図1は、少なくとも1つの実施形態による、少なくとも1つの実施形態が実施されることができる例示的な通信コンテキストの図であり、通信コンテキストは、例示的なモバイルデバイスを含む。 図2は、少なくとも1つの実施形態による、図1のモバイルデバイスの例示的な構成の図である。 図3は、少なくとも1つの実施形態による、例示的な方法のフローチャートである。 図4は、少なくとも1つの実施形態による、例示的な第1のなりすましの試みに関連して、図1のモバイルデバイスによって第1の生体認証対象の対応する複数の画像が取得されることができる例示的な複数の焦点距離を示す図である。 図5は、少なくとも1つの実施形態による、例示的な第2のなりすましの試みに関連して、図1のモバイルデバイスによって第2の生体認証対象の対応する複数の画像が取得されることができる図4の例示的な複数の焦点距離を示す図である。
I 導入
本開示の原理の理解を促進するために、図面に示されている複数の実施形態が以下で参照される。本明細書に開示される複数の実施形態は、網羅的であることも、または本開示を以下の詳細な説明において開示される正確な複数の形態に限定することを意図するものではない。むしろ、説明される複数の実施形態は、当該技術分野の他の当業者がそれらの教示を利用できるように選択されている。したがって、それにより、本開示の範囲の限定は意図されていない。
第1、第2、および第3のような数の修飾子が構成要素、データ(例えば、値、識別子、パラメータ、および/または類似物)、および/または任意の他の要素に関連して使用される特許請求の範囲を含む本開示におけるいずれの事例においても、そのような修飾子の使用は、そのように参照される要素の特定の順序または要求される順序を示すまたは指示することを意図していない。むしろ、このような修飾子の使用は、このようにして参照される任意の複数の要素を互いに区別する際に読者を支援することを意図しており、このような順序または他の意味が本明細書において明確かつ肯定的に説明されない限り、特定の順序を主張するものまたは他の意味を有するものとして解釈されるべきではない。
さらに、図面に示され、図面に関連して説明されるエンティティおよび構成を含む本明細書において説明されるエンティティおよび構成が、限定としてではなく、例として提示されるという事実と一貫して、特定の図面が何を「描写する」か、特定の図面内のまたは本開示においてそれ以外に言及されている特定の要素またはエンティティが何「である」かまたは何「を有する」かに関する任意のまたは全ての記述または他の指示、および「少なくとも1つの実施形態において」などの節によって明示的に自己限定性を持たず、したがって、独立したものとして、つまり、すべての実施形態の限定として単独で且つ文脈を離れて読んで理解されることができる任意のまたは全ての類似の記述は、そのような節によって構成的に限定されるものとしてのみ適切に読んで理解されることができる。表現の簡潔さと明確さに類似した理由のために、この暗黙的に限定する節は、本開示において異常な回数繰り返されない。
さらに、本開示では、1つまたは複数のデバイス、システム、および/または類似物の1つまたは複数のコンポーネントは、様々な機能を行う(すなわち、実施、実行等する)モジュールと呼称される。本開示で使用されるように、モジュールは、ハードウェアと命令との両方を含む。ハードウェアは、1つまたは複数のプロセッサ、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコントローラ、1つまたは複数のマイクロチップ、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数のフィールドプログラマブルゲートアレイ(FPGA)、1つまたは複数のグラフィカル処理ユニット(GPU)、1つまたは複数のテンソル処理ユニット(tensor processing unit :TPU)、および/または当業者が所与の実装に適していると考える他のタイプの1つまたは複数のデバイスおよび/またはコンポーネントを含むことができる。いくつかの場合では、モジュールは、ホストシステムまたはデバイスの1つまたは複数のプロセッサ上で全体または部分的に実行する少なくとも1つの機能コンポーネント(例えば、アプリケーションまたはアプリケーションの一部、コードのブロック、および/または類似物)を含む。
所与のモジュールに対する複数の命令は、モジュールの本明細書において説明された1つまたは複数の機能を実行するためにハードウェアによって実行可能であり、当業者が所与の実装に適切であると考える任意の1つまたは複数の非一時的なコンピュータ可読媒体に記憶されたハードウェア(例えば、ハードワイヤード(hardwired))命令、ファームウェア、ソフトウェア、および/または類似物を含むことができる。このようなコンピュータ可読媒体の各々は、メモリ(例えば、RAM(random access memory)、ROM(read-only memory)、EPROM(erasable programmable read-only memory)、EEPROM(electrically erasable programmable read-only memory)(EPROMともいう))、フラッシュメモリ、および/または1つ以上の他のタイプのメモリ)および/または1つまたは複数の他のタイプの非一時的なコンピュータ可読媒体であり得るか、またはこれを含み得る。モジュールは、当業者が適切であると考えるように、単一のコンポーネントとして実現することも、または複数のコンポーネントに分散させることもできる。
II 例示的な構成
図1は、本システムおよび方法の少なくとも1つの実施形態を実行することができる通信コンテキスト(communication context)100の図である。図1に示されるように、通信コンテキスト100は、(通常114で示されるように)ユーザー102に関連付けられたモバイルデバイス104を含む。モバイルデバイス104は、ディスプレイ105を有し、通信リンク110を介してネットワーク106と通信可能に接続されている。さらに、通信コンテキスト100はまた、通信リンク112を介してネットワーク106と通信可能に接続されているサーバー108を含む。図1に示されている複数のエンティティのタイプとそれぞれの数は、限定ではなく例として提供されている。他の事例では、他のタイプおよびそれぞれの数のエンティティが存在する可能性がある。
ユーザー102は、所有権、リース、アカウントサブスクリプションによって、および/または任意の他のタイプの関連付けによって、モバイルデバイス104に関連付けられることができる(114)。本明細書で説明する例では、ユーザー102は、モバイルデバイス104の権限付与されたユーザーである。一例として、モバイルデバイス104は、ユーザー102がサービスのサブスクリプションを有する無線キャリアによってユーザー102に提供されるモバイルデバイスであり得る。ユーザー102は、モバイルデバイス104を用いて設定またはセットアップシーケンスを行い、そのシーケンスは、モバイルデバイス104がユーザー102の顔の1つまたは複数の画像を記憶することを含む。記憶されると、モバイルデバイス104は、ユーザー102の顔の認証が成功したときに、ユーザー102が使用するためにそれ自体のロックを解除するように構成され得る。ユーザー102は、そのような動作を開始するために、モバイルデバイス104の前に顔を提示し得る。モバイルデバイス104は、以下でさらに詳細に説明される。
さらに、いくつかの実施形態では、ユーザー102の認証に成功すると、モバイルデバイス104自体のロックが解除される場合があるが、モバイルデバイス104を介したユーザー102の認証に成功すると、セキュリティ保護された入口、モバイルデバイス104以外のセキュリティ保護されたコンピューティングデバイスなどの1つまたは複数の保護された他のアセットへのアクセスが許可されることも考えられる。このことは、モバイルデバイス104自体へのアクセスを許可する成功した認証の代わりになるか、またはそれに追加されることもできる。
ネットワーク106は、任意の1つまたは複数のタイプのネットワーク(例えば、データネットワーク)であり得るか、またはそれらを含むことができる。ネットワーク106であるかまたはネットワーク106含むことができるいくつかの例示的なタイプのネットワークは、インターネット、プライベートデータネットワーク、パブリックデータネットワーク、電話ネットワーク、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ワイヤレスワイドエリアネットワーク(WWAN)、パーソナルエリアネットワーク(PAN)および/またはその類似物などのインターネットプロトコル(IP)ネットワークである。
本明細書において使用されるように、通信リンク(例えば、通信リンク110および/または通信リンク112)は、1つまたは複数の有線通信(例えば、Ethernet)リンクおよび/または1つまたは複数の無線通信(例えば、LTE、Wi-Fiなど)リンクであるかまたはこれらを含むことができる。さらに、通信リンクは、ルーター、ブリッジ、ゲートウェイ、ネットワークアクセスサーバー(NAS)および/またはその類似物などの1つまたは複数の中間デバイスを含むことができる。サーバー108は、任意の種類の1つまたは複数のサービスを提供するように配置された1つまたは複数のサーバーの任意のシステムであり得る。例として、サーバー108は、ウェブサーバー、アカウント管理サーバー、認証サーバーおよび/またはその類似物であるかまたはそれらを含み得る。
さらに、本開示の少なくともいくつかの実施形態は、モバイルデバイス104などの単一のシステムまたはデバイス上でおよび/またはそれによって完全に実行することができ、そのような実施形態に関して、(ネットワーク106およびサーバー108を含む)通信コンテキスト100は、全体的な事項としてモバイルデバイス104が動作するように構成され得る例示的なコンテキストを示すために提供される。また、モバイルデバイス(例えば、モバイルデバイス104)上でまたはそれによって実行される複数の実施形態の本明細書の説明もまた、例として提供される。本システムおよび方法の様々な実施形態は、本開示においてモバイルデバイス104上で実行されるものとして主に説明されている本明細書において説明される複数の機能を実行するように適切に実装され、プログラムされ、および構成された任意のタイプのシステム(例えば、ウェブカメラなどのカメラが内蔵されているかまたは接続されているコンピュータ)上でまたはそれによって実行されることができる。
図2は、モバイルデバイス104の例示的な構成200の簡略化されたブロック図である。構成200は、限定ではなく例として提示されている。モバイルデバイス104は、様々な異なる実施形態において様々な異なる構成を有することができる。構成200の一部として図2に示されているいくつかの要素は、いくつかの実施形態では省略されることができる。さらに、追加の要素が存在する可能性がある。さらに、図示されたいくつかの要素のうちの1つまたは複数は、複数の機能コンポーネントに分散されることができ、一方、図示されたコンポーネントのうちの2つ以上は、より少ない数のコンポーネントに組み合わされることができる。図2の例示的な構成200に図示されるように、モバイルデバイス104は、通信インタフェース202、プロセッサ204、データ記憶装置206、カメラシステム208、入力データ分析モジュール210、およびユーザーインタフェース212を含み、これらはすべて、システムバス214を介して通信可能に接続されている。
通信インタフェース202は、(例えば、LTE、Wi-Fi、ブルートゥース(登録商標)および/またはその類似物に従って通信する)1つまたは複数の無線通信インタフェースおよび/または(例えば、イーサネット、USBおよび/またはその類似物に従って通信する)1つまたは複数の有線通信インタフェースを含み得る。したがって、通信インタフェース202は、任意の必要なハードウェア(例えば、チップセット、アンテナ、イーサネットカードなど)、任意の必要なファームウェア、および1つまたは複数の他のエンティティとの1つまたは複数の形式の通信を行うための任意の必要なソフトウェアを含み得る。
プロセッサ204は、関連技術の当業者が適切であると考える任意のタイプの1つまたは複数のプロセッサを含み得、いくつかの例は、汎用マイクロプロセッサおよび専用デジタル信号プロセッサ(digital signal processor : DSP)を含む。プロセッサ204は、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコントローラ、1つまたは複数のマイクロチップ、1つまたは複数のASIC、1つまたは複数のFPGA、1つまたは複数のGPU、1つまたは複数のTPU、および/または任意の他のタイプの1つまたは複数の処理デバイスおよび/または処理コンポーネントを含み得る。
データ記憶装置206は、任意の非一時的なコンピュータ可読媒体またはそのような媒体の組み合わせの形態をとることができ、いくつかの例は、数例を挙げると、フラッシュメモリ、ROM、およびRAMを含むことができるが、当業者が適切と考える任意の1つまたは複数のタイプの非一時的なデータ記憶技術が用いられることができる。少なくとも1つの実施形態では、データ記憶装置206は、本明細書において説明される様々なモバイルデバイス機能を実行するためにプロセッサ204によって実行可能である複数の命令207を格納する。以下に説明されるように、少なくともいくつかの実施形態では、複数の命令207は、そのような複数の機能を実行するためにプロセッサ204によって実行可能なアプリケーションを含む。
カメラシステム208は、単一のカメラまたは複数のカメラを含むことができる。カメラシステム208内の各カメラは、複数の画像および/または映像を撮像することができるように構成され得る。少なくとも1つの実施形態では、カメラシステム208は、複数の画像を撮像することができる少なくとも1つのカメラを含む。いくつかの実施形態では、カメラシステム208は、複数の画像を撮像することができる複数のカメラを含む。少なくとも1つの実施形態では、カメラシステム208は、ユーザー102がモバイルデバイス104のユーザーインタフェース212のディスプレイ105を見ているときにユーザー102に面するように配置された少なくとも1つの前面カメラ(front-facing camera)を含む。カメラシステム208内の1つまたは複数のカメラのいずれも、例として、可視光スペクトル、赤外光スペクトル、近紫外線スペクトル、および/または広帯域スペクトルで複数の画像を撮像するように構成されることができる。広帯域スペクトルは、例として、近紫外線スペクトルと可視光スペクトルとの両方、可視光スペクトルと赤外線光スペクトルとの両方、または近紫外線スペクトル、可視光スペクトル、および赤外線光スペクトルの3つすべてを含み得る。
入力データ分析モジュール210は、例として、別個の処理デバイスとして、別個の処理デバイス上で、またはプロセッサ204上で実行する機能コンポーネントとして具体化され得る。いくつかの場合では、入力データ分析モジュール210は、ASIC、FPGAまたはその類似物に実装される。入力データ分析モジュール210は、入力データ分析モジュール210によって実行されるものとして本明細書において説明された複数の機能を実行するために、ハードワイヤード命令、ファームウェア、および/またはソフトウェアでプログラムされることができる。いくつかの実施形態では、入力データ分析モジュール210は、機械学習を実行するように構成されている。例えば、いくつかの実施形態では、入力データ分析モジュール210は、1つまたは複数のニューラルネットワークを含む。
ユーザーインタフェース212は、1つまたは複数の入力デバイス(コンポーネントなどともいう)および1つまたは複数の出力デバイス(コンポーネントなどともいう)を含み得る。入力デバイスに関して、ユーザーインタフェース212は、1つまたは複数のタッチスクリーン(例えば、ディスプレイ105)、キーボード、マウス、トラックパッド、タッチパッド、他のポインティングデバイス、ボタン、スイッチ、ノブ、マイクおよび/またはその類似物を含み得る。出力デバイスに関して、ユーザーインタフェース212は、1つまたは複数のディスプレイ(例えば、ディスプレイ105)、モニター、スピーカー、発光ダイオード(LED)および/またはその類似物を含み得る。さらに、ユーザーインタフェース212の1つまたは複数のコンポーネントは、ユーザー入力およびユーザー出力の両方の機能を提供することができる。例えば、ディスプレイ105は、インタラクティブなタッチスクリーンおよびディスプレイコンポーネント(interactive touchscreen-and-display component)であり得る。
III 動作例
図3は、方法300のフロー図であり、これは、例として、モバイルデバイス104によって実行されるものとして本明細書において説明されている。他の実施形態では、方法300は、方法300を実行するように適切に実装され、プログラムされ、構成されている任意のシステムまたはデバイスによって実行されることができる。この説明では、方法300は、複数の命令207を実行するためにプロセッサ204を使用してモバイルデバイス104によって実行されるものとして説明されている。適用可能な場合、モバイルデバイス104の例示的な構成200の他の例示的なコンポーネントは、方法300の複数のステップのうちの1つまたは複数のステップに関連して同様に説明される。モバイルデバイス104によって実行される方法300の説明は、提示を単純化しており、上述したように、少なくとも一実施形態では、複数の命令207は、方法300を実行するためにモバイルデバイス104上で実行するアプリケーションを含む。
ステップ302において、モバイルデバイス104は、異なる複数の焦点距離での生体認証対象の複数の画像を取得する。いくつかの場合では、生体認証対象は、なりすましの試みに関連しており、モバイルデバイス104の権限付与されたユーザーであるユーザー102の顔などの顔の2Dまたは3D表現である。他の場合において、生体認証対象は、ユーザー102に属するかまたは属していない実際の変更されていない生きている人間の顔である。この説明の残りの部分では、「なりすまし標本(spoof specimen)」という用語は、所与のなりすましの試みで使用されているユーザー102の顔の2Dまたは3D表現の略語として使用されることがある。さらに、「本物の顔(real face)」という用語は、所与の顔認証の試みに関連付けられている本物の変更されていない生きている人間の顔を指すために使用されることがある。
少なくとも1つの実施形態では、ステップ302は、モバイルデバイス104のカメラシステム208から生体認証対象の複数の画像を取得することを含む。述べたように、複数の命令207は、モバイルデバイス104のプロセッサ204上で実行するアプリケーションを含むことができる。そのアプリケーションは、カメラシステム208を確実に制御するためのアプリケーションプログラミングインタフェース(API)などを介した制御を有するかまたは有していない。アプリケーションがそのような制御を有する場合、ステップ302は、複数の画像を撮像するためにカメラシステム208を動作させること(例えば、1つまたは複数の命令をカメラシステム208に送信すること)を含み得る。そのような複数の命令は、複数の画像のうちの異なる複数の画像に対して(例えば、カメラシステム208の合焦モータを使用して)異なる複数の焦点距離を設定するための複数の命令を含み得る。いくつかの実施形態では、ステップ302は、カメラシステム208の合焦モータの複数の所定の合焦モータ位置の各々で複数の画像のうちの対応する画像を取得することを含む。いくつかの実施形態では、ステップ302は、異なる複数の焦点設定をそれぞれ使用して複数のカメラの各々から複数の画像のうちの対応する画像を取得することを含む。
アプリケーションがAPIまたは他のメカニズムを用いてそのような制御を有するか否かにかかわらず、ステップ302は、カメラシステム208のアクティブフォーカス(active-focusing)またはオートフォーカス機能を使用して複数の画像を撮像し得るカメラシステム208によって複数の画像が撮像されたときまたはその後に、複数の画像を受信することを含み得る。他の場合には、アプリケーションは、モバイルデバイス104のオペレーティングシステムに、複数の画像が異なる複数の指定された焦点距離で撮像されるように要求を送信してもよい。他の実装も可能である。
述べたように、生体認証対象の複数の画像は、異なる複数の焦点距離で撮像される。したがって、複数の画像は、焦点スタック(focal stack)と呼称されることがある。さらに、いくつかの実施形態では、焦点スタック内の複数の画像の各々は、異なる焦点距離で撮像される。他の実施形態では、複数の焦点距離は全体として焦点スタック内に依然として表されるが、焦点スタック内の少なくとも2つの画像は同じ焦点距離で撮像される。さらに、所与の焦点スタック内の複数の画像が撮像される順序は、異なる実施形態の間で変更し得る。少なくとも1つの実施形態では、所与の焦点スタック内の複数の画像は、例えば、互いから1秒にも満たない間に密接に連続して取得される。いくつかの実施形態では、これら1秒にも満たない間とは、5~20ミリ秒のオーダーであるが、これは一例であり、限定ではない。
ここで図4を参照すると、焦点スタック内のそれぞれの画像が撮像される複数の焦点距離は、短焦点距離408と、短焦点距離408よりも長い中間焦点距離410と、中間焦点距離410よりも長い長焦点距離412とを含むことができる。そのような実施形態では、焦点スタック内の特定の画像は、それらの焦点距離408、410、412の各々で撮像され得る。他の実施形態では、複数の画像は、それらの焦点距離408、410、412のうちの1つまたは複数で撮像され得る。3つの焦点距離の代わりに、焦点スタックは、2つの焦点距離または3つを超える焦点距離で撮像された複数の画像を含むことができる。簡単化するために、焦点スタック内の特定の画像が3つの焦点距離408、410、412の各々で撮像されるいくつかの実施形態が以下に説明される。
短焦点距離408は、実質的にカメラシステム208が可能な最短焦点距離であり得る。いくつかの実施形態では、短焦点距離408は、約7.62センチメートル(3インチ)から約30.48~38.1センチメートル(12~15インチ)までの範囲に設定される。図4の図400に図示されているように、短焦点距離408は、カメラシステム208のレンズアセンブリ402と点413との間に延びる。
いくつかの実施形態では、短焦点距離408は、図4に図示されるタイプのなりすましの試みであるハンドヘルドデバイスに基づく(handheld-device-based)なりすましの試みなどの少なくとも1つのタイプのなりすましの試みに特徴的な焦点距離である。図示されているように、ユーザー102の画像406を表示するタブレット404は、レンズアセンブリ402からの短焦点距離408に配置される。この例では、タブレット404は、比較的小さなタブレットである。タブレット404上に表示される画像406に示される顔は、ユーザー102の本物の顔よりも小さいので、典型的には、ユーザー102の本物の顔が真の認証の試み中であるよりも、タブレット404は、なりすましの試み中に、カメラシステム208の近くに保持される。このように、短焦点距離408を使用して撮像された画像は、真の認証の試みの間は焦点が合わないが、多くのモバイルデバイスに基づく(例えば、スマートフォンに基づくまたはタブレットに基づく)なりすましの試みでは焦点が合う。
図400に図示されるように、中間焦点距離410は、レンズアセンブリ402と点414との間に延びており、長焦点距離412は、レンズアセンブリ402と点416との間に延びる。いくつかの実施形態では、中間焦点距離410は、真の認証の試みのために、カメラシステム208と生体認証対象との間の略予想される距離(例えば、30.48~38.1センチメートル(12~15インチ))になるように選択される。さらに、いくつかの実施形態では、長焦点距離412は、カメラシステム208の有効無限遠値(effective-infinity value)(例えば、7.62メートル(25フィート))に設定される。
さらに、カメラシステム208の光学特性および/または他の特性に応じて、短焦点距離408、中間焦点距離410、および/または長焦点距離412は、所与の実施形態または所与のコンテキストにおいて当業者が適切である考える任意の値をとることができる。したがって、短焦点距離408は、約7.62センチメートル(3インチ)の上記の例よりも短くても長くてもよく、中間焦点距離410は、約30.48~38.1センチメートル(12~15インチ)の範囲の値の上記の例よりも短くても長くてもよく、および/または長焦点距離412は、7.62メートル(25フィート)の上記の例よりも短くても長くてもよい。
ここで図5を参照すると、いくつかのなりすましの試みでは、大型フォーマットの(large-format)画像または映像が使用され得る。たとえば、図5の図500の例に図示されているように、大きなタブレット504は、ユーザー102の画像506をほぼ実物大のサイズで表示することができる。また、図5では、大型タブレット504がユーザー102の画像506を表示するために使用されているように図示されているが、いくつかの場合では、紙などに印刷された大型フォーマットの画像がなりすましの試みに使用される可能性がある。ユーザー102の顔の比較的大きな2D表現がなりすましの試みに使用されるような事例では、このタイプのなりすまし標本は、顔認証の試みのための通常の動作距離(例えば、約30.48~38.1センチメートル(12~15インチ)の中間焦点距離410)に対応するカメラシステム208からの距離に保持され得る。
そのようなシナリオでは、短焦点距離408で取得された画像は、このタイプのなりすましの試みとなりすましではないイベントとの間に強い差異を示さない場合がある。さらに、なりすまし標本は、顔取得システム(例えば、カメラシステム208)の画像フィールドを超えて延びる複数の背景特徴を含み得る。少なくともいくつかのそのような場合において、異常な複数のエッジ(例えば、なりすまし標本と実際の背景との間の変化)または表示媒体の特徴(例えば、タブレットのエッジ)は、中間焦点距離410で取得された顔画像において明らかではない場合がある。しかしながら、長焦点距離412を使用して撮像された画像に関して、大型フォーマットのなりすましの背景の焦点特性は、なりすましではない場合に予想されるものとは異なる。大型フォーマットのなりすまし標本は、有効無限遠(例えば、長焦点距離412で)で撮像されたときに、対象および背景の両方に対して均一に焦点が外れていると考えられるが、本物の顔は、そのような画像において対象よりも遠くの背景に対してより良好な焦点を示すことが予想される。
ここで図3に戻ると、ステップ304において、モバイルデバイス104は、ステップ302において得られた焦点スタックを含む一組の入力データを入力データ分析モジュール210に入力する。いくつかの実施形態では、一組の入力データは焦点スタックである。他の実施形態では、一組の入力データは、焦点スタックに加えてデータを含む。一例として、いくつかの実施形態では、一組の入力データは、カメラシステム208の複数の画像取得機能のうちの1つまたは複数を示すデータを含む。このデータは、カメラの数、複数のカメラの位置、1つまたは複数のカメラの解像度、1つまたは複数のカメラの焦点距離、システムタイプ(例えば、電話またはwebcam)、システムの製造者およびモデルおよび/またはその類似物などの情報を含むことができる。別の例として、いくつかの実施形態では、一組の入力データは、焦点スタック内の複数の画像のうちの1つまたは複数の撮像に関連して使用される1つまたは複数の画像撮像パラメータ設定を示すデータを含む。このような設定は、例として、露光時間、ゲイン、ISO設定、焦点設定、合焦ステッピングモータ位置(focal stepper motor position)、および/または他の光学パラメータを含み得る。
いくつかの実施形態では、一組の入力データは、焦点スタック内の複数の画像が撮像された異なる複数の焦点距離が、所定の一組の焦点距離のすべてよりも少ないことを示すデータ(例えば、複数のタグ)を含む。例えば、所定の一組の焦点距離は、短焦点距離408、中間焦点距離410、及び長焦点距離412の3つの要素を有し得る。しかし、所与の焦点スタックが、モバイルデバイス104上で実行するアプリケーションがフルセットであると考えるものよりも少ない(例えば、2つの)焦点距離で撮像された複数の画像を含むことがあり得る。これは、異なる複数のフォーカス機能を有する異なる複数のデバイスが原因である可能性がある。これらのデータタグは、所与の実施形態が焦点距離のフルセットであるとみなすものよりも少ないものが所与の焦点スタックに含まれる複数の場合を識別するために使用されることができる。
ステップ306において、モバイルデバイス104は、入力データ分析モジュール210を使用して一組の入力データを処理し、入力データ分析モジュール210から、生体認証対象のなりすまし検出結果を取得する。いくつかの実施形態では、入力データ分析モジュール210は、焦点スタック内の複数の画像に論理を適用して、なりすまし検出結果を取得する。
一例の実施形態では、入力データ分析モジュール210は、短焦点距離408で撮像された画像(「短焦点画像」)を検査する。入力データ分析モジュール210が、短焦点画像が焦点の合った顔を含むと判定した場合、入力データ分析モジュール210は、現在の顔認証の試みがなりすましの試みであると判定し得る。いくつかの実施形態では、入力データ分析モジュール210は、エッジシャープネス(edge sharpness)などの技術を使用して、所与の画像または所与の画像の一部に焦点が合っているかどうかを判定し得る。入力データ分析モジュール210は、既知の顔認識技術またはシステムを使用して、画像内の顔の存在または不在を識別し得る。商用の顔認識システムの例としては、IFace(Innovatrics)、TrulySecure(Sensory Inc.)、Face API(Microsoft)がある。オープンソースの顔認識システムの例としては、OpenFaceとOpenCVがある。
しかしながら、入力データ分析モジュール210が、短焦点画像が焦点の合った顔を含むと判定しない場合、入力データ分析モジュール210は、中間焦点距離410で撮像された画像(「中間焦点画像」)の検査に進み得る。特に、入力データ分析モジュール210は、中間焦点画像が焦点の合った顔を含むか否かを判定し得る。中間焦点画像が焦点の合った顔を含まない場合、入力データ分析モジュール210は、現在の顔認証の試みがなりすましの試みであると判定し得る。しかし、入力データ分析モジュール210が、中間焦点画像が焦点の合った顔を含むと判定した場合、入力データ分析モジュール210は、次に、長焦点距離412で撮像された画像(「長焦点画像」)の検査に進み得る。
特に、入力データ分析モジュール210は、長焦点画像内の顔および隣接する背景(顔/ユーザーのすぐ周囲)が実質的に等しく焦点が合っていないかどうか、または代わりに隣接する背景が顔よりも焦点が合っているかどうかを判定し得る。入力データ分析モジュール210が、長焦点画像内の顔および隣接する背景が実質的に等しく焦点が合っていないと判定した場合、入力データ分析モジュール210は、現在の顔認証の試みがなりすましの試みであると判定し得る。しかし、入力データ分析モジュール210が、長焦点画像において隣接する背景が顔よりも焦点が合っていると判定した場合、入力データ分析モジュール210は、現在の顔認証の試みがなりすましの試みではないと判定し得る。しかし、いくつかの実施形態では、上記した論理は比較的単純で例示的な実施形態によって提供されるので、現在の顔認証の試みがなりすましの試みではないと判定する前に、入力データ分析モジュール210が、短焦点画像、中間焦点画像、および長焦点画像のうちの1つ以上に適用するさらなる論理テストがあってもよい。
いくつかの実施形態では、入力データ分析モジュール210は、機械学習モジュール(例えば、ディープニューラルネットワークなどのニューラルネットワーク)を含む。このような実施形態において、ニューラルネットワークは、所与の顔認証の試みを評価する前に、ステップ304において入力データ分析モジュール210に供給される一組の入力データに基づいて、なりすまし検出結果を出力するように訓練され得る。いくつかのニューラルネットワークの実施形態では、(入力データセットの一部または全体としての)焦点スタックは、訓練中および推論中(つまり、本物の顔認証の試みを評価する場合)に、例えば、顔の特徴の存在などの画像の複数の特徴を識別するために処理されることなく、単にニューラルネットワークに供給される。
ニューラルネットワークは、確率的勾配降下法、バックプロパゲーション(back propagation)および/またはその類似物などの技術を用いて(例えば、反復的に)訓練され得る。さらに、訓練データは、なりすまし標本と本物の顔の両方の複数の焦点スタックと、どの焦点スタックがなりすまし標本に対応し、どの焦点スタックが本物の顔に対応するかに関する複数のデータラベルとを含み得る。適切に訓練されると、ニューラルネットワーク(またはその他の分析方法)は、生体認証対象の複数の焦点スタックに基づいて、なりすまし検出判定を行うことができる。上述したように、(訓練中および推論中の両方の)ニューラルネットワークに入力される一組の入力データは、複数の焦点スタックに加えて、データを含むことができる。そのような追加データのいくつかの例は、方法300のステップ304に関連して上述されている。
ステップ308において、モバイルデバイス104は、生体認証対象のなりすまし検出結果を出力する。方法300は、所与の生体認証対象がなりすまし標本であるかまたは本物の顔であるかについての判定を行うことを含み、この判定の結果を、本明細書において所与の生体認証対象に対するなりすまし検出結果ということに留意されたい。
いくつかの実施形態では、なりすまし検出結果はブール値、すなわち、真(なりすまし)または偽(本物の顔)のいずれかである。いくつかの実施形態では、なりすまし検出結果が真である場合、モバイルデバイス104は、(例えば、モバイルデバイス104のロックを解除する)少なくとも1つのサービスへのアクセスを拒否する。いくつかの実施形態では、なりすまし検出結果は、なりすまし検出スコアの範囲(例えば、0~100または0~1等)内のスコアであり、モバイルデバイス104は、なりすまし検出スコアとなりすまし検出スコア閾値との比較に基づいて、(例えば、モバイルデバイス104のロックを解除する)少なくとも1つのサービスへのアクセスを拒否する。例えば、モバイルデバイス104は、なりすまし検出スコアが閾値を超える場合、またはなりすまし検出スコアが閾値以上である場合などに、少なくとも1つのサービスへのアクセスを拒否し得る。
以下では、なりすまし検出結果がブール値の真であり、かつ、なりすまし検出結果が、例えば、適用可能な閾値を超えたなりすまし検出スコアである場合を、総称して、なりすまし検出結果が陽性(positive)である場合といい、すなわち、モバイルデバイス104(例えば、複数の命令207によって表されるアプリケーション)が、現在の顔認証の試みがなりすましの試みであると判定した場合という。その他の場合は、なりすまし検出結果が陰性(negative)である場合という。
さらに、ステップ308において、モバイルデバイス104が生体認証対象のなりすまし検出結果を「出力する」ことは、必ずしもモバイルデバイス104のユーザーインタフェース212を介して生体認証対象のなりすまし検出結果を出力することを意味しないことに留意されたい。提示された生体認証対象が実際にはユーザー102であるかどうかを判定するための更なる分析は未決定であると考えられるので、このことは、なりすまし検出結果が陽性である場合にステップ308の一部として実行されることができる。しかし、なりすまし検出結果が陰性である場合には、少なくとも本物の顔であると判定された生体認証対象が実際にユーザー102の本物の顔であるか否かを、同一または他のアプリケーションが評価する更なる処理が行われる。
このような事例及び全ての事例において、なりすまし検出結果を出力することは、同じアプリケーションの別の部分、別のアプリケーション、モバイルデバイス104のオペレーティングシステム、および/またはその類似物になりすまし検出結果の指示を提供する態様をとるか、またはそのような提供することを含むことができる。通常、ステップ308は、なりすまし検出結果を受信エンティティに送信するか、さもなければ提供することによって、なりすまし検出結果を出力する態様をとることか、またはそのような出力することを含むことができる。いくつかの実施形態では、ステップ308は、1つまたは複数の他のエンティティによって使用するために、なりすまし検出結果をメモリまたは他のデータ記憶装置に格納する態様をとるか、またはそのような格納することを含む。
上述したように、方法300は、モバイルデバイス104によって実施されるものとして、限定ではなく例として本明細書において説明されている。しかし、全体的な事項として、本開示は、完全にモバイルデバイス104上で実施される実施形態、モバイルデバイス104および1つまたは複数の他のエンティティ(例えば、サーバー108)との組合せによって実施される実施形態、およびモバイルデバイス104以外の1つまたは複数のエンティティによって実施される実施形態を意図している。一例ではあるが、少なくとも一実施形態では、モバイルデバイス104を使用して生体認証対象の焦点スタックを収集し、生体認証対象のなりすまし検出結果を取得するための焦点スタックの処理は、サーバー108および/または1つまたは複数の他のコンピューティングデバイス上で少なくとも部分的に実施される。
IV いくつかの例示的な実施形態の一覧
特定の実施形態は、方法の態様をとり、該方法は、生体認証対象の複数の画像を取得することであって、複数の画像は、異なる複数の焦点距離を使用してカメラシステムによって撮像される、複数の画像を取得すること、複数の画像を含む一組の入力データを入力データ分析モジュールに入力すること、入力データ分析モジュールを使用して一組の入力データを処理し、入力データ分析モジュールから、生体認証対象のなりすまし検出結果を取得すること、生体認証対象のなりすまし検出結果を出力すること、を含む。
少なくとも1つの実施形態では、複数の画像を取得することは、カメラシステムの合焦モータの複数の所定の合焦モータ位置の各々で複数の画像のうちの対応する画像を取得することを含む。
少なくとも1つの実施形態では、複数の焦点距離のうちの少なくとも1つは、カメラシステムのオートフォーカス機能によって選択される。
少なくとも1つの実施形態では、複数の焦点距離は、短焦点距離、短焦点距離よりも長い中間焦点距離、および中間焦点距離よりも長い長焦点距離を含む。少なくとも1つの実施形態では、短焦点距離は、実質的にカメラシステムが可能な最短焦点距離である。少なくとも1つの実施形態では、短焦点距離は、少なくとも1つのタイプのなりすましの試みに特徴的な焦点距離であり、少なくとも1つのそのような実施形態では、少なくとも1つのタイプのなりすましの試みは、ハンドヘルドデバイスに基づくなりすましの試みを含む。少なくとも1つの実施形態では、中間焦点距離は、カメラシステムと、なりすましではない試みの生体認証対象との間の略予想される距離である。少なくとも1つの実施形態では、長焦点距離は、カメラシステムの有効無限遠値に設定される。
少なくとも1つの実施形態では、方法は、カメラシステムに、複数の焦点距離で生体認証対象の複数の画像を撮像するための命令を送信することをさらに含む。
少なくとも1つの実施形態では、カメラシステムは、モバイルデバイスのモバイルデバイスカメラシステムを含む。
少なくとも1つの実施形態では、入力データ分析モジュールは、機械学習モジュールを含む。少なくとも1つの実施形態では、機械学習モジュールを使用して複数の画像を処理する前に、機械学習モジュールが訓練データを使用して訓練される。
少なくとも1つの実施形態では、一組の入力データは、カメラシステムの1つまたは複数の画像取得機能を示すデータをさらに含む。
少なくとも1つの実施形態では、一組の入力データは、複数の画像における複数の画像のうちの1つまたは複数の画像の撮像に関連付けられた1つまたは複数の画像撮像パラメータ設定を示すデータをさらに含む。
少なくとも1つの実施形態では、一組の入力データは、複数の画像における複数の画像が撮像された異なる複数の焦点距離が、所定の一組の焦点距離のすべてよりも少ないことを示すデータをさらに含む。
少なくとも1つの実施形態では、なりすまし検出結果が、なりすまし検出真の指示およびなりすまし検出偽の指示からなる一群のブール値から選択されるブール値であり、方法は、なりすまし結果がなりすまし検出真の指示である場合に、少なくとも1つのサービスへのアクセスを拒否することをさらに含む。
少なくとも1つの実施形態では、なりすまし検出結果が、なりすまし検出スコアの範囲内のなりすまし検出スコアであり、方法は、なりすまし検出スコアとなりすまし検出スコア閾値との比較に基づいて、少なくとも1つのサービスへのアクセスを拒否することをさらに含む。
他の実施形態は、システムの態様をとり、該システムは、入力データ分析モジュールと、プロセッサと、システムに一組の機能を実行させるためにプロセッサによって実行可能である複数の命令を格納するデータ記憶装置と、を含み、一組の機能は、生体認証対象の複数の画像を取得することであって、複数の画像は、異なる複数の焦点距離を使用してカメラシステムによって撮像される、複数の画像を取得すること、複数の画像を含む一組の入力データを入力データ分析モジュールに入力すること、入力データ分析モジュールを使用して一組の入力データを処理し、入力データ分析モジュールから、生体認証対象のなりすまし検出結果を取得すること、生体認証対象のなりすまし検出結果を出力すること、を含む。
他の実施形態は、非一時的なコンピュータ可読媒体の態様をとり、該非一時的なコンピュータ可読媒体は、プロセッサによって実行されると、コンピュータシステムに一組の機能を実行させる複数の命令を格納し、一組の機能は、対象の複数の画像を取得することであって、複数の画像は、異なる複数の焦点距離を使用してカメラアセンブリによって撮像される、複数の画像を取得すること、複数の画像を含む一組の入力データを入力データ分析モジュールに入力すること、入力データ分析モジュールを使用して一組の入力データを処理し、入力データ分析モジュールから対象のなりすまし検出結果を取得すること、なりすまし検出結果を出力すること、を含む。

Claims (19)

  1. 方法であって、
    生体認証対象の複数の画像を取得することであって、前記複数の画像は、異なる複数の焦点距離を使用してカメラシステムによって撮像される、前記複数の画像を取得すること、
    前記複数の画像を含む一組の入力データを入力データ分析モジュールに入力すること、
    前記入力データ分析モジュールを使用して前記一組の入力データを処理し、前記入力データ分析モジュールから、前記生体認証対象のなりすまし検出結果を取得することであって、前記一組の入力データを処理することは、前記複数の画像のうちの第1の画像がなりすましの試みに対応するか否かを判定すること、前記複数の画像のうちの前記第1の画像がなりすましの試みに対応すると判定されない場合、前記複数の画像のうちの第2の画像がなりすましの試みに対応するか否かを判定すること、を含む、前記生体認証対象のなりすまし検出結果を取得すること
    前記生体認証対象のなりすまし検出結果を出力すること、を備える方法。
  2. 前記複数の画像を取得することは、
    前記カメラシステムの合焦モータの複数の所定の合焦モータ位置の各々で前記複数の画像のうちの対応する画像を取得することを含む、請求項1に記載の方法。
  3. 前記複数の焦点距離のうちの少なくとも1つは、前記カメラシステムのオートフォーカス機能によって選択される、請求項1または2に記載の方法。
  4. 前記複数の焦点距離は、短焦点距離、前記短焦点距離よりも長い中間焦点距離、および前記中間焦点距離よりも長い長焦点距離を含む、請求項1~3のいずれか一項に記載の方法。
  5. 前記短焦点距離は、前記カメラシステムが可能な最短焦点距離である、請求項4に記載の方法。
  6. 前記短焦点距離は、7.62センチメートル~30.48センチメートルの間である、請求項4または5に記載の方法。
  7. 前記複数の画像のうちの前記第2の画像がなりすましの試みに対応すると判定されない場合、前記複数の画像のうちの第3の画像がなりすましの試みに対応するか否かを判定すること、をさらに備え、
    前記複数の画像のうちの前記第1の画像、前記複数の画像のうちの前記第2の画像、および前記複数の画像のうちの前記第3の画像が、前記短焦点距離、前記中間焦点距離、および前記長焦点距離のうちの対応する異なる焦点距離で撮像される、請求項4~のいずれか一項に記載の方法。
  8. 前記中間焦点距離は、30.48センチメートル~38.1センチメートルの間である、請求項4~7のいずれか一項に記載の方法。
  9. 前記長焦点距離は、前記カメラシステムの有効無限遠値に設定される、請求項4~8のいずれか一項に記載の方法。
  10. 前記カメラシステムに、前記複数の焦点距離で前記生体認証対象の複数の画像を撮像するための命令を送信することをさらに備える請求項1~9のいずれか一項に記載の方法。
  11. 前記カメラシステムは、モバイルデバイスのモバイルデバイスカメラシステムを含む、請求項1~10のいずれか一項に記載の方法。
  12. 前記入力データ分析モジュールは、機械学習モジュールを含む、請求項1~11のいずれか一項に記載の方法。
  13. 前記機械学習モジュールを使用して前記複数の画像を処理する前に、前記機械学習モジュールが訓練データを使用して訓練される、請求項12に記載の方法。
  14. 前記一組の入力データは、前記カメラシステムの1つまたは複数の画像取得機能を示すデータをさらに含む、請求項1~13のいずれか一項に記載の方法。
  15. 前記一組の入力データは、前記複数の画像のうちの1つまたは複数の画像の撮像に関連付けられた1つまたは複数の画像撮像パラメータ設定を示すデータをさらに含む、請求項1~14のいずれか一項に記載の方法。
  16. 前記一組の入力データは、前記複数の画像が撮像された異なる複数の焦点距離が、所定の一組の焦点距離のすべてよりも少ないことを示すデータをさらに含む、請求項1~15のいずれか一項に記載の方法。
  17. 前記なりすまし検出結果が、なりすまし検出真の指示およびなりすまし検出偽の指示からなる一群のブール値から選択されるブール値であり、
    前記なりすまし検出結果がなりすまし検出真の指示である場合に、少なくとも1つのサービスへのアクセスを拒否することをさらに備える請求項1~16のいずれか一項に記載の方法。
  18. 前記なりすまし検出結果が、なりすまし検出スコアの範囲内のなりすまし検出スコアであり、
    前記なりすまし検出スコアとなりすまし検出スコア閾値との比較に基づいて、少なくとも1つのサービスへのアクセスを拒否することをさらに備える請求項1~16のいずれか一項に記載の方法。
  19. プロセッサによって実行されると、コンピュータシステムに請求項1~18のいずれか一項に記載の方法を実行させる複数の命令を格納する非一時的なコンピュータ可読媒体。
JP2022522714A 2019-10-15 2020-10-09 画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法 Active JP7159509B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/601,839 US11348375B2 (en) 2019-10-15 2019-10-15 Systems and methods for using focal stacks for image-based spoof detection
US16/601,839 2019-10-15
PCT/EP2020/078413 WO2021074032A1 (en) 2019-10-15 2020-10-09 Systems and methods for using focal stacks for image-based spoof detection

Publications (2)

Publication Number Publication Date
JP7159509B1 true JP7159509B1 (ja) 2022-10-24
JP2022546873A JP2022546873A (ja) 2022-11-09

Family

ID=72895920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522714A Active JP7159509B1 (ja) 2019-10-15 2020-10-09 画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法

Country Status (6)

Country Link
US (1) US11348375B2 (ja)
EP (1) EP4046059B1 (ja)
JP (1) JP7159509B1 (ja)
KR (1) KR102477923B1 (ja)
CN (1) CN114730507A (ja)
WO (1) WO2021074032A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11645729B1 (en) * 2019-10-18 2023-05-09 Robert William Kocher ID card identification device (ICID)
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11341778B1 (en) 2021-06-04 2022-05-24 EyeVerify Inc. Automated adaptive displayed spoofing
US11341225B1 (en) * 2021-06-04 2022-05-24 EyeVerify Inc. Automated positional adaptive spoofing
US11334755B1 (en) 2021-06-04 2022-05-17 EyeVerify Inc. Automated spoofing transformation
CN113486829B (zh) * 2021-07-15 2023-11-07 京东科技控股股份有限公司 人脸活体检测方法、装置、电子设备及存储介质
US12020512B2 (en) * 2021-09-17 2024-06-25 Jumio Corporation Spoof detection using eye boundary analysis
CN113850214A (zh) * 2021-09-29 2021-12-28 支付宝(杭州)信息技术有限公司 针对活体检测的注入攻击识别方法及装置
CN118871959A (zh) * 2022-03-18 2024-10-29 索尼集团公司 信息处理装置、信息处理系统、信息处理方法和程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035560A (ja) 2008-07-31 2010-02-18 Hitachi Ltd 生体認証装置
US20140044318A1 (en) 2012-08-10 2014-02-13 EyeVerify LLC Spoof Detection for Biometric Authentication
JP2019133526A (ja) 2018-02-01 2019-08-08 ミツミ電機株式会社 認証装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7668350B2 (en) 2003-04-04 2010-02-23 Lumidigm, Inc. Comparative texture analysis of tissue for biometric spoof detection
US7526192B2 (en) * 2004-10-07 2009-04-28 Hoya Corporation Focus detection method and focus detection apparatus
JP4934843B2 (ja) * 2006-11-29 2012-05-23 株式会社リコー 情報処理装置、画像登録方法、およびプログラム
US8971588B2 (en) 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
US11263823B2 (en) 2012-02-24 2022-03-01 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9607138B1 (en) 2013-12-18 2017-03-28 Amazon Technologies, Inc. User authentication and verification through video analysis
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
EP3252720B1 (en) * 2015-01-26 2024-01-10 Toppan Printing Co., Ltd. Identification device, identification method, identification program, and computer-readable medium containing identification program
US9721150B2 (en) 2015-09-11 2017-08-01 EyeVerify Inc. Image enhancement and feature extraction for ocular-vascular and facial recognition
US10331945B2 (en) 2015-12-22 2019-06-25 Intel Corporation Fair, secured, and efficient completely automated public Turing test to tell computers and humans apart (CAPTCHA)
KR20180102637A (ko) * 2016-01-12 2018-09-17 프린스톤 아이덴티티, 인크. 바이오메트릭 분석의 시스템 및 방법
CN107451510B (zh) * 2016-05-30 2023-07-21 北京旷视科技有限公司 活体检测方法和活体检测系统
KR102471916B1 (ko) * 2016-06-03 2022-11-29 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
US10289824B2 (en) 2016-07-22 2019-05-14 Nec Corporation Security system for facility access control
WO2018232717A1 (zh) * 2017-06-23 2018-12-27 中国科学院自动化研究所 基于透视失真特性的人脸图像鉴伪方法、存储、处理设备
CN109492455B (zh) * 2017-09-12 2020-11-13 中国移动通信有限公司研究院 活体对象检测及身份认证方法、介质、系统和相关装置
US10997809B2 (en) 2017-10-13 2021-05-04 Alcatraz AI, Inc. System and method for provisioning a facial recognition-based system for controlling access to a building
WO2019094322A1 (en) 2017-11-07 2019-05-16 EyeVerify Inc. Capturing images under coded illumination patterns to reduce effects of ambient lighting conditions
CN108182412A (zh) 2017-12-29 2018-06-19 百度在线网络技术(北京)有限公司 用于检测图像类型的方法及装置
CN108304708A (zh) * 2018-01-31 2018-07-20 广东欧珀移动通信有限公司 移动终端、人脸解锁方法及相关产品
CN108335322B (zh) 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
WO2019152983A2 (en) * 2018-02-05 2019-08-08 Board Of Trustees Of Michigan State University System and apparatus for face anti-spoofing via auxiliary supervision
US20190286885A1 (en) 2018-03-13 2019-09-19 Kneron Inc. Face identification system for a mobile device
CN112534475B (zh) * 2018-05-17 2023-01-10 奈安蒂克公司 深度估计系统的自我监督训练
US10785422B2 (en) 2018-05-29 2020-09-22 Microsoft Technology Licensing, Llc Face recognition using depth and multi-spectral camera
US20200082160A1 (en) 2018-09-12 2020-03-12 Kneron (Taiwan) Co., Ltd. Face recognition module with artificial intelligence models
US10783388B2 (en) 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
US11170242B2 (en) 2018-12-26 2021-11-09 Advanced New Technologies Co., Ltd. Spoof detection using dual-band fluorescence
CN110163097A (zh) * 2019-04-16 2019-08-23 深圳壹账通智能科技有限公司 三维头像真伪性的鉴别方法、装置、电子设备及存储介质
US11017586B2 (en) 2019-04-18 2021-05-25 Adobe Inc. 3D motion effect from a 2D image
WO2021038298A2 (en) * 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035560A (ja) 2008-07-31 2010-02-18 Hitachi Ltd 生体認証装置
US20140044318A1 (en) 2012-08-10 2014-02-13 EyeVerify LLC Spoof Detection for Biometric Authentication
JP2019133526A (ja) 2018-02-01 2019-08-08 ミツミ電機株式会社 認証装置

Also Published As

Publication number Publication date
WO2021074032A1 (en) 2021-04-22
US11348375B2 (en) 2022-05-31
EP4046059A1 (en) 2022-08-24
KR102477923B1 (ko) 2022-12-14
KR20220070052A (ko) 2022-05-27
CN114730507A (zh) 2022-07-08
JP2022546873A (ja) 2022-11-09
US20210110185A1 (en) 2021-04-15
EP4046059B1 (en) 2024-07-17

Similar Documents

Publication Publication Date Title
JP7159509B1 (ja) 画像に基づくなりすまし検出のために複数の焦点スタックを使用するシステムおよび方法
US11093731B2 (en) Analysis of reflections of projected light in varying colors, brightness, patterns, and sequences for liveness detection in biometric systems
Boulkenafet et al. OULU-NPU: A mobile face presentation attack database with real-world variations
CN110443016B (zh) 信息防泄露方法、电子装置及存储介质
US11657133B2 (en) Systems and methods of multi-modal biometric analysis
US11281892B2 (en) Technologies for efficient identity recognition based on skin features
JP7253691B2 (ja) 照合装置及び照合方法
WO2016084072A1 (en) Anti-spoofing system and methods useful in conjunction therewith
KR20190089387A (ko) 라이브니스 검사 방법 및 장치
US11314966B2 (en) Facial anti-spoofing method using variances in image properties
EP3757936B1 (en) Spoofing detector, spoofing detection method, and computer program
US10956553B2 (en) Method of unlocking an electronic device, unlocking device and system and storage medium
EP3422698B1 (en) Method, device, mobile terminal, and camera for identifying photograph subject
US20160125240A1 (en) Systems and methods for secure biometric processing
CN109902611B (zh) 目标证件的检测方法、装置和终端设备
US20160125239A1 (en) Systems And Methods For Secure Iris Imaging
JP7269897B2 (ja) データ登録装置、生体認証装置、およびデータ登録プログラム
US11538283B1 (en) Detecting people wearing masks to prevent impersonation attacks
CN112417998A (zh) 活体人脸图像的获取方法和装置、介质、设备
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
KR102721059B1 (ko) 영상 데이터에 기반하여 사용자를 인증하는 장치 및 방법
WO2023105635A1 (ja) 判定装置、判定方法、および判定プログラム
KR102665968B1 (ko) 블러 추정 방법 및 장치
Albu et al. Authentication and recognition, guarantor for on-line security
KR20230004533A (ko) 조명원을 포함하는 장치를 이용한 라이브니스 검출

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150