JP2022547036A - 物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出 - Google Patents

物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出 Download PDF

Info

Publication number
JP2022547036A
JP2022547036A JP2022514258A JP2022514258A JP2022547036A JP 2022547036 A JP2022547036 A JP 2022547036A JP 2022514258 A JP2022514258 A JP 2022514258A JP 2022514258 A JP2022514258 A JP 2022514258A JP 2022547036 A JP2022547036 A JP 2022547036A
Authority
JP
Japan
Prior art keywords
task
biometric
face
depth
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022514258A
Other languages
English (en)
Inventor
シアン ユ、
ブユ リウ、
マンモハン チャンドラカー、
ジュンル ウ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2022547036A publication Critical patent/JP2022547036A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

物理的な手がかり誘導マルチソースマルチチャネルフレームワークを使用して顔なりすまし検出を実施するためにコンピュータで実行する方法は、顔認識データ、生体データ、および少なくとも1つの顔画像に関連する物質データを含むデータセットを受信すること(410)と、バックボーンニューラルネットワーク構造を使用してデータセットから共有特徴を取得すること(420)と、共有特徴に基づいて、顔認識に対応するプレテキストタスク、奥行き推定に対応する第1のプロキシタスク、生体検出タスク、および物質予測に対応する第2のプロキシタスクを実行すること(430)と、顔なりすまし検出性能を高めるためにアテンション機構を使用してプレテキストタスク、第1のプロキシタスク、および第2のプロキシタスクの出力を集約すること(440)とを含む。

Description

関連出願情報
本出願は、2019年11月14日に出願された仮出願番号62/935,155及び2020年11月6日に出願された米国特許出願番号17/091,140に対する優先権を主張し、その全体が参照により本明細書に組み込まれる。。
本発明は、人工知能および機械学習に関し、より詳細には、物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出に関する。
関連技術の説明
顔認識技術は、セキュリティ監視、アクセス制御、個人認証などを実装する生体認証ベースのシステムを実装するために使用することができる。そのようなシステムは、静的または動的な顔なりすまし攻撃を受けやすく、写真、画面再生、顔再構成などを使用して、システムを騙して顔を真の顔として識別することができる。顔なりすまし攻撃の偽の顔から本物の顔を識別することによって、このような顔なりすまし攻撃に対処するために、顔なりすまし防止対策を実施することができる。顔のなりすまし防止対策の一例は、生体チェックであり、これは、本物の顔画像となりすまされた顔画像(例えば、写真)との間を識別するために使用することができる。顔なりすましの問題に対処する1つの課題は、ディスプレイまたは印刷された写真からの再取り込みが非常に高品質であり得るので、本物の画像となりすまされた画像との間に非常に微妙な差異が存在し得ることである。顔なりすまし問題に対処することに関する別の課題は、なりすまし攻撃パターンが常に無数であり、したがって、モデル訓練中にすべての攻撃パターンを準備することが困難であることである。例えば、1つのデータセットの訓練を制限すると、他のデータセットやその他の顔なりすましシナリオに適切に一般化できないモデルになる。
本発明の一態様によれば、物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出を実施するためにコンピュータで実行する方法が提供される。コンピュータで実行する方法は、少なくとも1つの顔画像に関連付けられた顔認識データ、生体データおよび物質データを含むデータのセットを受信することと、バックボーンニューラルネットワーク構造を使用してデータのセットから共有特徴を取得することと、共有特徴に基づいて、顔認識に対応するプレテキストタスクと、奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質予測に対応する第2のプロキシタスクとを実行することと、顔なりすまし検出性能を高めるためにアテンション機構を使用してプレテキストタスク、第1のプロキシタスク、生体検出タスク、および第2のプロキシタスクの出力を集約することとを含む。
本発明の別の態様によれば、物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出を実施するためのシステムが提供される。システムは、プログラムコードを記憶するメモリ装置と、メモリ装置に動作可能に結合された少なくとも1つのプロセッサ装置とを含む。少なくとも1つのプロセッサ装置は、メモリ装置に記憶されたプログラムコードを実行して、少なくとも1つの顔画像に関連付けられた顔認識データ、生体データおよび物質データを含むデータのセットを受信し、バックボーンニューラルネットワーク構造を使用してデータのセットから共有特徴を取得し、共有特徴に基づいて、顔認識に対応するプリテキストタスクと。奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質予測に対応する第2のプロキシタスクとを実行し、顔なりすまし検出性能を高めるためにアテンション機構を使用して、プリテキストタスク、第1のプロキシタスク、生体検出タスク、および第2のプロキシタスクの出力を集約するように構成される。
これらおよび他の特徴および利点は、添付の図面に関連して読まれるべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
本開示は、以下の図面を参照して、好ましい実施形態の以下の説明において詳細を提供する。
本発明の一実施形態による、顔なりすまし検出を実施するための物理的な手がかり誘導マルチソースマルチチャネルフレームワークを示すブロック/フロー図である。
本発明の一実施形態による、図1のフレームワークの例示的なプロキシタスク構成要素およびアテンション構成要素を示すブロック/フロー図である。
本発明の一実施形態による、物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出を実施するための例示的なシステム環境を示すブロック/フロー図である。
本発明の一実施形態による、物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出を実施するためのシステム/方法を示すブロック/フロー図である。
本発明の一実施形態による、コンピュータシステムを示すブロック/フロー図である。
本発明の実施形態によれば、顔なりすまし防止における領域横断の一般化のための物理ベースのマルチタスキングのためのシステムおよび方法が提供される。より具体的には、本明細書で説明される実施形態は、複数のタスクを並列に実行するために、単一のソース領域内のマルチチャネルフレームワークを提供する。例えば、タスクは、顔認識に対応するプレテキストタスクと、奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質認識に対応する第2のプロキシタスクとを含むことができる。プレテキストタスクは、なりすまし検出などの他の顔分析タスクに一般化可能な一般的な特徴表現を求める。プロキシタスクは、性能を決定することができる生体相関タスクである。より具体的には、プロキシタスクは、例えば、奥行きおよび/または物質などの物理的な手がかりに対応し、これは、見えるまたは見えない状況下で、すべての本物の顔にわたって同様の特徴を共有する。例えば、見えるまたは見えない状況からの表皮物質は、表皮と同じ特性を示すべきであり、見えるまたは見えない状態からの真の顔の奥行きは、一貫した顔の幾何学的形状を示すべきである。したがって、本明細書で説明するプロキシタスクは、物理的に意味があり、ロバストな方法で、なりすまし検出訓練を案内する。
本明細書で説明される実施形態は、異なるなりすまし攻撃の下で各チャネルをよりよく強調し、訓練手順を円滑にし、したがって、マルチチャネルフレームワークの各チャネルのロバスト性および解釈を向上させるために、プロキシタスク(1つまたは複数)の上に構築されたオンラインアテンション構成要素をさらに提供する。
したがって、本明細書で説明する実施形態は、単一のソース領域上で良好な性能を達成することができる。さらに、主に領域一貫性のある手がかりであるプロキシタスクをセットアップすることによって、本明細書で説明する実施形態は、他の見えない領域上での良好な性能をさらに支援することができる。例えば、奥行きは、顔の幾何学的情報を示すための比較的独立した手がかりであり、これは領域に無関係である。表皮物質(例えば、人の皮膚物質)はまた、異なる領域にわたる表皮物質が同じであるべきであるため、領域に無関係であると考えられ得る。
最終的に、本明細書で説明される実施形態は、プロキシチャネルごとのアテンションモデルを導入して、プロキシタスクのそれぞれの利点を共同で考慮し、論理出力レベルでそれらを組み合わせて、なりすまし検出性能全体をさらに高める。従って、本明細書に記載する実施形態は、単一チャネル生体検出および奥行き推定のベースラインと比較して、ソース領域および目に見えない領域における改善された性能を可能にする。
本明細書に記載する実施形態は、完全にハードウェアであってもよく、完全にソフトウェアであってもよく、または、ハードウェアおよびソフトウェア要素の両方を含むものであってもよい。好ましい実施形態では、本発明は、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むが、これらに限定されないソフトウェアで実施される。
実施形態は、コンピュータまたは任意の命令実行システムによって、またはそれに関連して使用するためのプログラムコードを提供する、コンピュータ使用可能またはコンピュータ可読媒体からアクセス可能なコンピュータプログラム製品を含むことができる。コンピュータ使用可能媒体またはコンピュータ可読媒体は、命令実行システム、装置、またはデバイスによって、またはそれに関連して使用するためのプログラムを格納、通信、伝搬、またはトランスポートする任意の装置を含むことができる。媒体は、磁気、光学、電子、電磁気、赤外線、または半導体システム(または装置またはデバイス)、または伝搬媒体とすることができる。媒体は、半導体または固体ステートメモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、リジッド磁気ディスクおよび光ディスクなどのコンピュータ読み取り可能な記憶媒体を含むことができる。
各コンピュータプログラムは、本明細書に記載する手順を実行するために、記憶媒体または装置がコンピュータによって読み取られるときに、コンピュータの操作を構成し制御するために、汎用または特殊目的のプログラム可能コンピュータによって読み取り可能な、機械読み取り可能な記憶媒体または装置(例えば、プログラムメモリまたは磁気ディスク)に実体的に記憶することができる。本発明のシステムはまた、コンピュータプログラムで構成された、コンピュータ読み取り可能な記憶媒体で実施されるものと考えることができ、その場合、構成された記憶媒体は、コンピュータを特定の所定の方法で動作させて、本明細書に記載する機能を実行させる。
プログラムコードを記憶および/または実行するのに適したデータ処理システムは、システムバスを介してメモリ要素に直接的または間接的に結合された少なくとも1つのプロセッサを含んでもよい。メモリ要素は、プログラムコードの実際の実行中に採用されるローカルメモリ、バルクストレージ、および実行中にバルクストレージからコードが検索される回数を減らすために少なくとも何らかのプログラムコードの一時記憶を提供するキャッシュメモリを含むことができる。入力/出力またはI/O装置(キーボード、ディスプレイ、ポインティング装置などを含むが、これらに限定されない)は、直接または介在するI/Oコントローラを介してシステムに結合され得る。
介在する専用ネットワークまたは公衆ネットワークを介して、データ処理システムを他のデータ処理システムあるいはリモートプリンタまたはストレージデバイスに結合できるようにするために、ネットワークアダプタをシステムに結合することもできる。モデム、ケーブルモデム、およびイーサネット(登録商標)カードは、現在使用可能なネットワークアダプタのタイプの一例に過ぎない。
本明細書で採用されるように、「ハードウェアプロセッササブシステム」または「ハードウェアプロセッサ」という用語は、1つ以上の特定のタスクを実行するために協働するプロセッサ、メモリ、ソフトウェアまたはそれらの組み合わせを指すことができる。有用な実施形態では、ハードウェアプロセッササブシステムは、1つまたは複数のデータ処理要素(例えば、論理回路、処理回路、命令実行デバイスなど)を含むことができる。1つまたは複数のデータ処理要素は、中央処理ユニット、画像処理ユニットおよび/または別個のプロセッサまたはコンピューティング要素ベースのコントローラ(たとえば、論理ゲートなど)に含めることができる。ハードウェアプロセッササブシステムは、1つ以上のオンボードメモリ(例えば、キャッシュ、専用メモリアレイ、読み出し専用メモリなど)を含むことができる。いくつかの実施形態では、ハードウェアプロセッササブシステムは、オンボードまたはオフボードにすることができるか、またはハードウェアプロセッササブシステム(例えば、ROM、RAM、基本入出力システム(BIOS)など)によって使用するために専用にすることができる1つ以上のメモリを含むことができる。
ある実施形態では、ハードウェアプロセッササブシステムは、1つ以上のソフトウェア要素を含むことができ、実行することができる。1つ以上のソフトウェア要素は、特定の結果を達成するために、オペレーティングシステムおよび/または1つ以上のアプリケーションおよび/または特定のコードを含むことができる。
他の実施形態では、ハードウェアプロセッササブシステムは、指定された結果を達成するために1つまたは複数の電子処理機能を実行する専用の専用回路を含むことができる。そのような回路は、1つまたは複数のアプリケーション専用集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、および/またはプログラマブルロジックアレイ(PLA)を含むことができる。
ハードウェアプロセッササブシステムのこれらおよび他の変形もまた、本発明の実施形態に従って企図される。
ここで、同一の数字が同一または類似の要素を表し、最初に図1を参照すると、顔なりすまし検出を実施するための例示的な物理的な手がかり誘導マルチソースマルチチャネルフレームワーク100を示す高レベル図が提供される。より具体的には、フレームワーク100は、マルチタスククロス領域一般化生体検出モデルを含む。以下でさらに詳細に説明するように、フレームワーク100は、顔認識データ、生体データ、および物質データを活用することによって、顔なりすまし検出性能を改善するように構成される。
図示のように、顔認識データセット110、生体データセット120、および物質データセット130は、共有特徴抽出器140に供給される。一実施形態では、物質データセット130は、Materials in Context(MINC)データセットである。生体データセット120は、オフラインで準備された奥行きグラウンドトゥルースおよび物質グラウンドトゥルースを含むことができる。
共有特徴抽出器140は、本明細書ではより一般的にバックボーンニューラルネットワーク構造の一種と呼ばれ、データセット110~130から共有特徴を抽出し、少なくとも1つのプレテキストタスク(顔認識)を実行するように構成されたプレテキストタスク構成要素150と、少なくとも2つのプロキシタスク(奥行き推定および/または物質認識)および生体検出タスクを実行するように構成されたプロキシタスク構成要素160とに共有特徴を供給する。共有された特徴は、奥行きタスクおよび物質タスクを共有することによって、異なるデータ領域にわたるモデル一般化能力を強化するために、プレテキストおよびプロキシ構成要素150および160によって使用される。
図示のように、プレテキストタスク構成要素150は、共有特徴抽出器140からデータを受信し、アイデンティティ204を生成するように構成された認識構成要素152を含む。より具体的には、Φ(・)を共有特徴抽出器140に対応させ、xr、xvおよびxmは、それぞれ顔認識データセット110、生体データセット120、および物質データセット130の入力画像に対応させる。共有特徴抽出器140が初期化された後、プレテキストタスク構成要素150は、顔識別特徴を洗練するためにフィルタΨr(・)を適用することができる。顔認識損失Lrは、次のように得られる。
Figure 2022547036000002
ここで、yiは、アイデンティティiのグラウンドトゥルースラベルであり、
Figure 2022547036000003
は、指示関数を表し(例えば、yiが0でない場合、1を出力し、そうでない場合、0を出力する)、jは、アイデンティティの整数にわたって変化し、wiは、分類器のi番目の分離超平面である。
さらに示されるように、プロキシタスク構成要素160は、共有特徴抽出器140からデータを受信するように構成され、プロキシタスク構成要素160の出力は、プロキシタスク構成要素160によって出力されるプロキシチャネルのそれぞれを集約するように構成されたアテンション機構170に供給される。より具体的には、アテンション機構170は、プロキシタスクの上に構築されたオンラインアテンション構成要素であり、異なるなりすまし攻撃の下で各チャネルを高度に改善し、訓練手順を円滑にし、したがって、マルチチャネルフレームワークの各チャネルのロバスト性および解釈を向上させる。プロキシタスク構成要素160およびアテンション機構170に関するさらなる詳細を、図2を参照して以下に説明する。
次に、図2を参照すると、顔なりすまし検出システム200を示すブロック/フロー図が提供される。このシステムは、図1のプロキシタスク構成要素160およびアテンション機構170を含む。プロキシタスク構成要素160は、共有特徴抽出器140から共有特徴を受信したものとする。
プロキシタスク構成要素160は、特徴伝達構成要素210と、奥行き推定構成要素220と、生体符号器230と、生体予測構成要素240と、生体特徴250と、物質予測構成要素260と、生体特徴250から変換された物質変換生体特徴270とを含む。
共有特徴を直接利用することは、それが雑音として役立つ顔認識のような無関係な手がかりを取り入れるので、サブ最適予測に導く。したがって、特徴伝達構成要素210は、共有特徴抽出器140から共有特徴を受信し、共有特徴をプロキシタスクに関連した複数のなりすまし検出に適応させるように構成される。
図2の構成要素は、プロキシタスク構成要素160によって実行されるプロキシタスクのための複数のチャネルに対応する。より具体的には、奥行き推定構成要素220および生体符号器230は、奥行きチャネルアテンションマトリクスWDepth225と共に奥行き予測を生成するために奥行き推定プロキシタスクを実行するように構成され、生体予測構成要素240は、生体特徴250と対応する生体チャネルアテンションマトリクスWLive245とを生成するために生体予測タスクを実行するように構成され、物質予測構成要素260は、物質変換された生体特徴270と対応する物質チャネルアテンションマトリクスWMaterial265とを生成するために物質予測タスクを実行するように構成される。
奥行き推定に関して、仮定は、異なる攻撃タイプまたはなりすましデータセットにわたる真の顔が一貫性を共有すべきであり、したがって奥行き推定も一貫性があるべきであるということである。目的は、入力顔画像(例えば、切り抜かれた顔画像)が与えられたときに、画素あたりの奥行きマップを予測することである。例えば、時間当たりのガラスネットワーク構造を活用して、回帰問題を実行することができる。グラウンドトゥルース奥行きマップを予測するために、3次元顔形状再構成プロセスをオフラインで適用して顔画像に対する密な点群を推定することができる。そして、真の顔画像については、生の奥行きをグランドトゥルース奥行きマップとして利用することができる。顔画像のなりすましを行うために、攻撃タイプ(例えば、ディスプレイスクリーンまたは紙)に従って、実際の奥行きは、攻撃タイプのフラットゾーンからのものである。したがって、奥行きに対するなりすましグラウンドトゥルースをゼロに設定することができる。訓練中、以下のl1ベースの再構成損失Ldを適用することができる。
Figure 2022547036000004
ここで、Ψd(・)は、(時間当たりのガラスネット)奥行き推定構成要素220を表し、Γ(・)は、特徴伝達構成要素210を表し、xvは、図1を参照して上述したなりすましデータを表し、dGTはグランドトゥルース奥行きマップを表す。奥行き推定のために、なりすましデータxvは、拡張されたグラウンドトゥルース奥行きマップdGTを用いて入力されることに留意されたい。すなわち、この奥行き推定チャネルのために、追加の奥行きデータを利用する必要はない。
共有特徴抽出器140および特徴伝達構成要素210の後に、なりすまし検出フィルタΨv(・)が顔のなりすまし検出を行うように設定されている。より具体的には、顔なりすまし検出は、クロスエントロピー損失Lvを以下のようにペナルティとして採用することができるバイナリ分類タスクとして実行することができる。
Figure 2022547036000005
Figure 2022547036000006
Figure 2022547036000007
ここで、yvは、なりすましまたは本物のグランドトゥルースであり、zはなりすまし検出フィルタΨv(・)の後のなりすまし検出特徴を示し、分離を示す。
Figure 2022547036000008
および
Figure 2022547036000009
は、バイナリ分離器の分離超平面を示し、p(z)は、なりすましサンプルである可能性であり、式(4)に示すように、ソフトマックス操作を介して推定することができる。
プロキシタスクの別の仮定は、異なるなりすまし攻撃またはなりすましデータセットにわたる表皮物質が、本物の顔のためにある一定の一貫性を保たなければならないということである。したがって、顔なりすましデータは、その攻撃タイプに従って、物質タイプで注釈を付けることができる。例えば、攻撃タイプが画面表示の場合、対応する物質タイプの注釈を「グラス」、攻撃タイプが紙印字出力の場合、対応する物質タイプの注釈を「紙」とすることができる。本物の顔の場合、対応する物質タイプの注釈を「皮膚」とすることができる。このように物質タイプを一般的な物質認識に統一することができる。
この例示的な例では、3つの物質タイプしかない。これは、バイナリなりすまし検出タスクに見られるものと同様の感度問題につながる可能性がある。物質認識ロバスト性を改善するために、一般的な物質認識データを導入して、物質特徴空間が崩壊しないように固定することができる。より具体的には、一般的な物質認識およびなりすましデータ物質認識は、最後の分類子を除くすべてのネットワーク構造を共有することができる。一般的な物質認識と同様に、ブリック、金属、プラスチック、皮膚、ガラスなどの約23の定義されたカテゴリが存在し得る。このようにして、一般的な物質認識のための23の分類器Cgと、データ物質認識のなりすましを行うための3つの分類器Cvとを設定することができる。
共有特徴抽出器140Φ(・)、特徴伝達構成要素210Γ(・)、および物質予測構成要素250Ψm(・)を共同で訓練するために、マルチソース方式がここで提案される。例えば、一般的な物質データを供給することにより、特徴f=Ψm(Γ(Φ(x)))を示すと、以下に示すように複数クラスのソフトマックス損失がCgを訓練することに適用することができる。
Figure 2022547036000010
ここで、liは物質グラウンドトゥルースラベルであり、wiおよびwjはCgの分離超平面である。なりすましデータを供給することによって、学習ループを他の3つの分類器Cvに強制的に通すことができ、別のマルチクラスソフトマックス損失は次のようになる。
Figure 2022547036000011
式(6)から入力された物質データxmは、式(7)のなりすましデータ入力xvに切り替えられることに留意されたい。物質となりすましデータとを交互に供給することによって、特徴fが標準的な物質認識のための一般的なものだけでなく、顔のなりすましデータにおける物質認識のための特有のものであることを保証することができる。
アテンション機構170を参照すると、図2にさらに示されるように、アテンション機構170は、チャネル出力WDepth、WLiveおよびWMaterialを受信し、これらの出力のそれぞれを結合して、最終なりすまし予測性能を高めるように構成された最終決定構成要素260を含む。より具体的には、予測レベルのアテンションモデルを使用して出力を集計する。
例えば、奥行きチャネルの出力を
Figure 2022547036000012
とし、なりすまし検出チャネルの出力を
Figure 2022547036000013
とし、物質認識チャネルの出力を
Figure 2022547036000014
として示す。Dおよび
Figure 2022547036000015
をなりすましロジット(1つはなりすましである可能性、もう1つは本物である可能性)に変換する必要がある。奥行きについては、検証セットを介して、以下に示すように、奥行きマップの有効化の有意性を測定するために閾値
Figure 2022547036000016
を経験的に検索することができる。
Figure 2022547036000017
ここで、
Figure 2022547036000018
は、なりすまされた顔である可能性であり、
Figure 2022547036000019
は、τによって閾値処理した後の残差奥行きマップであり、MaxPool(・)はmax-pooling操作である。転送されたバイナリ奥行きロジット全体は、
Figure 2022547036000020
である。ここで、
Figure 2022547036000021
は、なりすまし顔ではない(すなわち、本物の顔である)可能性である。
3つの物質ロジットをバイナリなりすましロジットに変換するために、真の顔に対する1つのロジットとして皮膚である可能性をとり、なりすまされた顔に対する別のロジットとしてガラスおよび紙である可能性の合計をとることができる。つまり、
Figure 2022547036000022
となる。ここで、オリジナルの3つの物質ロジットは、
Figure 2022547036000023
によって示される。
3つのチャネルのバイナリロジットを一緒にすると、出力
Figure 2022547036000024
が得られる。アテンション重み付けマトリックス
Figure 2022547036000025
は、3つのチャネルからのロジットを集約するために導入することができる。したがって、融合予測ロジットは、
Figure 2022547036000026
と表すことができる。
なりすまし検出チャネルと同様に、クロスエントロピー損失は、以下のようにアテンションゲートロジットに適用することができる。
Figure 2022547036000027
Figure 2022547036000028
ここで、g0およびg1はgの2つのエントリである。
全体的な損失設計は、以下のように組み合わせることができる.
Figure 2022547036000029
ここで、λr、λd、λv、λm、λmvおよびλaは、上述の損失Lr、Ld、Lv、Lm、LmvおよびLaのそれぞれに対応するハイパーパラメータである。
要約すると、本明細書で説明される実施形態は、見えないなりすまし攻撃タイプを検出するために使用されるモデルを訓練するための入力として、顔認識データ、なりすましデータ、および物質データを取得する、物理的な手がかり誘導マルチソースマルチチャネルフレームワークを提供する。特徴が潰れたり、オーバーフィッティングしたりするのを防止するために、顔認識のためのプレテキストチャネルが提供され、認識およびなりすまし検出は、高レベルの顔関連特性を共有することができる。本物の顔のための異なるなりすましシナリオにわたる奥行きおよび表皮物質の一貫性のために、それぞれ奥行き推定および物質認識のための2つのプロキシチャネルを利用することによって、本明細書で説明される実施形態は、本物の顔を奥行きおよび物質を通してなりすましの顔から識別することによって、目に見えないなりすまし攻撃に対処することができる。アテンション構成要素は、顔なりすまし検出性能を高めるために、複数のチャネルによって実行されるタスクの出力を集約するために提供される。
図1および図2を参照して上述した実施形態に従って訓練された顔認識モデルは、任意の適当なシステムまたはコンテキスト内で顔なりすまし検出を実行するように実装することができる。
例えば、ここで図3を参照すると、顔なりすまし検出を実施するための例示的な環境300が示されている。より具体的には、環境300は、ユーザ310と、計算システムまたはデバイス320とを含む。計算システム320は、ユーザ310の顔の分析に基づいて、ユーザ310に計算システム320へのアクセスを許可または拒否する生体認証システムを実装することができる。例えば、この例示的な実施形態では、計算システム320は、カメラを含むスマートフォンである。この実施形態は、純粋に例示的なものであり、顔なりすまし検出モデルは、任意の適切な環境内で使用することができる。
さらに示されるように、環境300は、少なくとも1つのプロセッサ装置330をさらに含むことができる。プロセッサ装置330は、本明細書に記載する顔なりすまし検出を実施するためのシステム/方法を実現するように構成することができる。処理装置330は、計算システム320とは別個の実体であるものとして示されているが、プロセッサ装置300は、代替的に、計算システム320のサブ構成要素であってもよく、または、計算システム320は、プロセッサ装置330のサブ構成要素であってもよい。
ここで図4を参照すると、物理的な手がかり誘導マルチソースマルチチャネルフレームワークを使用して顔なりすまし検出を実施するためのシステム/方法400を示すブロック/フロー図が提供される。
ブロック410で、少なくとも1つの顔画像に関連する顔認識データ、生体データ、および物質データを含むデータのセットが受信される。一実施形態では、物質データは、Materials in Context(MINC)データセットを含む。生体データは、オフラインで準備された奥行きグラウンドトゥルースおよび物質グラウンドトゥルースを含むことができる。
ブロック420では、バックボーンニューラルネットワーク構造を使用して、データのセットから共有特徴が取得される。より具体的には、バックボーンニューラルネットワーク構造は、共有特徴抽出器を含むことができ、共有特徴を取得することは、共有特徴抽出器を使用して共有特徴を抽出することを含むことができる。
ブロック430で、顔認識に対応するプレテキストタスク、奥行き推定に対応する第1のプロキシタスク、生体検出タスク、および物質予測に対応する第2のプロキシタスクが、共有特徴に基づいて実行される。具体的には、第1と第2のプロキシタスクは、なりすまし検出関連のプロキシタスクである。一実施形態では、第1のプロキシタスクは、奥行きチャネルアテンションマトリクスと共に奥行き予測を生成し、生体予測タスクは、生体特徴と対応する生体チャネルアテンションマトリクスとを生成し、物質予測タスクは、生体特徴と対応する物質チャネルアテンションマトリクスとを生成する。奥行き予測は、入力顔画像(例えば、切り抜かれた顔画像)が与えられたときの画素あたりの奥行きマップを予測する。
ブロック440において、プレテキストタスク、第1のプロキシタスク、生体検出タスク、および第2のプロキシタスクの出力は、顔なりすまし検出性能を高めるためにアテンション機構を使用して集約される。より具体的には、アテンション機構は、異なるなりすまし攻撃の下で各チャネルをよりよく強調し、訓練手順を円滑にし、したがって、マルチチャネルフレームワークにおける各チャネルのロバスト性および解釈を向上させるために、第1および第2のプロキシタスクの上に構築することができる。一実施形態では、出力を集約することは、予測レベルのアテンションモデルを用いて、奥行きチャネルのアテンションマトリックス、生体チャネルのアテンションマトリックス、および物質チャネルのアテンションマトリックスを組み合わせることを含む。
顔なりすまし検出は、顔認識損失、l1ベースの再構成損失、少なくとも1つのクロスエントロピー損失、および少なくとも1つのマルチクラスソフトマックス損失を含む全体的な損失設計を実装することができる。より具体的には、少なくとも1つのクロスエントロピー損失は、顔なりすまし検出を実行する間に採用されるペナルティに対応する第1のクロスエントロピー損失と、アテンションゲートロジットに適用される第2のクロスエントロピー損失とを含むことができ、少なくとも1つのマルチクラスソフトマックス損失は、一般的な物質認識のために23の分類器を訓練するために適用される第1のマルチクラスソフトマックス損失と、なりすましデータ物質認識のために3つの分類器を訓練するために適用される第2のマルチクラスソフトマックス損失とを含むことができる。
ブロック410~440に関するさらなる詳細は、図1および2を参照して上述される。
次に図5を参照すると、本発明の一実施形態による、サーバまたはネットワークデバイスを表すことができる例示的なコンピュータシステム500が示されている。コンピュータシステム500は、システムバス502を介して他の構成要素に動作可能に結合された少なくとも1つのプロセッサ(CPU)505を含む。キャッシュ506、リードオンリーメモリ(ROM)508、ランダムアクセスメモリ(RAM)510、入力/出力(I/O)アダプタ620、音声アダプタ530、ネットワークアダプタ590、ユーザインタフェースアダプタ550、およびディスプレイアダプタ560は、システムバス502に動作可能に結合される。
第1の記憶装置522および第2の記憶装置529は、I/Oアダプタ520によってシステムバス502に動作可能に結合される。記憶装置522および529は、ディスク記憶装置(例えば、磁気または光ディスク記憶装置)、ソリッドステート磁気装置などのいずれであってもよい。記憶装置522および529は、同じタイプの記憶装置または異なるタイプの記憶装置とすることができる。
スピーカ532は、音声アダプタ530によってシステムバス502に動作可能に結合することができる。トランシーバ595は、ネットワークアダプタ590によってシステムバス502に動作可能に結合される。ディスプレイ装置562は、ディスプレイアダプタ560によってシステムバス502に動作可能に結合される。
第1のユーザ入力装置552、第2のユーザ入力装置559、および第3のユーザ入力装置556は、ユーザインタフェースアダプタ550によってシステムバス502に動作可能に結合される。ユーザ入力装置552,559,556は、センサ、キーボード、マウス、キーパッド、ジョイスティック、画像捕捉装置、動き感知装置、電力測定装置、マイクロフォン、前述の装置のうちの少なくとも2つの機能を組み込んだ装置などのいずれかとすることができる。もちろん、本発明の精神を維持しながら、他のタイプの入力装置を使用することもできる。ユーザ入力装置552,559,556は、同じタイプのユーザ入力装置または異なるタイプのユーザ入力装置とすることができる。ユーザ入力装置552,559,556は、システム500との間で情報を入出力するために使用される。
顔なりすまし検出(FSD)構成要素570は、システムバス502に動作可能に結合されてもよい。FSD構成要素570は、上述の動作のうちの1つまたは複数を実行するように構成される。FSD構成要素570は、スタンドアロンの特殊目的のハードウェア装置として実施することも、記憶装置に記憶されたソフトウェアとして実施することもできる。FSD構成要素570がソフトウェアウェア実装される実施形態では、コンピュータシステム500の別個の構成要素として示されているが、FSD構成要素570は、例えば、第1の記憶装置522および/または第2の記憶装置529に格納することができる。代替的に、FSD構成要素570は、別個の記憶装置(図示せず)に記憶され得る。
もちろん、コンピュータシステム500は、当業者によって容易に企図されるように、他の要素(図示せず)を含むこともでき、また、特定の要素を省略することもできる。例えば、当業者によって容易に理解されるように、他の様々な入力装置および/または出力装置を、その特定の実装に応じて、コンピュータシステム500に含めることができる。例えば、様々なタイプの無線および/または有線の入力および/または出力装置を使用することができる。さらに、様々な構成の追加のプロセッサ、コントローラ、メモリなども、当業者には容易に理解されるように利用することができる。コンピュータシステム500のこれらおよび他の変形は、本明細書で提供される本発明の教示を与えられれば、当業者によって容易に企図される。
本明細書において、本発明の「一実施形態」又は「一実施形態」とは、その他の変形例と同様に、その実施形態に関連して説明した特定の特徴、構造、特性等が、本発明の少なくとも一実施形態に含まれることを意味するものであり、「一実施形態において」又は「一実施形態において」の語句の出現、並びに本明細書全体の様々な箇所に出現する他の変形例は、必ずしも全て同一の実施形態を意味するものではない。しかしながら、本明細書で提供される本発明の教示を前提として、1つまたは複数の実施形態の特徴を組み合わせることができることを理解されたい。
以下の「/」、「および/または」、および「少なくとも1つ」、例えば、「A/B」、「Aおよび/またはB」、および「AおよびBの少なくとも1つ」のいずれかの使用は、第1のリストされた実施例(A)のみの選択、または第2のリストされた実施例(B)のみの選択、または両方の実施例(AおよびB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、B、および/またはC」、および「A、B、およびCの少なくとも1つ」の場合、このような句は、第1のリストされた実施例(A)のみの選択、または第2のリストされた実施例(B)のみの選択、または第3のリストされた実施例(C)のみの選択、または第1および第2のリストされた実施例(AおよびB)のみの選択、または 第1および第3のリストされた実施例(AおよびC)のみの選択、または第2および第3のリストされた実施例(BおよびC)のみの選択、または3つすべての実施例(AおよびBおよびC)の選択を包含することを意図する。これは、列挙された項目の数だけ拡張することができる。
上記は、あらゆる点で例示的かつ例示的であるが、限定的ではないと理解されるべきであり、本明細書に開示される本発明の範囲は、詳細な説明からではなく、むしろ特許法によって許容される全範囲に従って解釈されるような特許請求の範囲から決定されるべきである。本明細書に示され、説明された実施形態は、本発明の例示にすぎず、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を実施することができることを理解されたい。当業者は、本発明の範囲および精神から逸脱することなく、様々な他の特徴の組み合わせを実施することができる。このように、本発明の態様を、特許法によって要求される詳細および特殊性と共に説明してきたが、特許状によって保護されることが請求され、望まれるものは、添付の特許請求の範囲に記載されている。

Claims (20)

  1. 物理的な手がかり誘導マルチソースマルチチャネルフレームワークを使用して顔なりすまし検出を実施するためにコンピュータで実行する方法であって、
    少なくとも1つの顔画像に関連付けられた顔認識データ、生体データおよび物質データを含むデータのセットを受信すること(410)と、
    バックボーンニューラルネットワーク構造を使用して前記データのセットから共有特徴を取得すること(420)と、
    前記共有特徴に基づいて、顔認識に対応するプレテキストタスクと、奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質予測に対応する第2のプロキシタスクとを実行すること(430)と、
    顔なりすまし検出性能を高めるためにアテンション機構を使用して前記プレテキストタスク、前記第1のプロキシタスク、前記生体検出タスク、および前記第2のプロキシタスクの出力を集約すること(440)とを含む、方法。
  2. 前記生体データは、オフラインで準備された奥行きグラウンドトゥルースおよび物質グラウンドトゥルースを含み、前記物質データは、Materials in Context(MINC)データセットを含む、請求項1に記載の方法。
  3. 前記共有特徴を取得することは、共有特徴抽出器を使用して前記共有特徴を抽出することをさらに含む、請求項1に記載の方法。
  4. 前記第1のプロキシタスクは、奥行きチャネルアテンションマトリクスと共に奥行き予測を生成し、前記生体予測タスクは、生体特徴と対応する生体チャネルアテンションマトリクスとを生成し、前記物質予測タスクは、生体特徴と対応する物質チャネルアテンションマトリクスとを生成する、請求項1に記載の方法。
  5. 前記出力を集約することは、予測レベルのアテンションモデルを用いて、前記奥行きチャネルアテンションマトリクス、前記生体チャネルアテンションマトリクス、および前記物質チャネルアテンションマトリクスを組み合わせることを含む、請求項4に記載の方法。
  6. 前記顔なりすまし検出は、顔認識損失、l1ベースの再構成損失、少なくとも1つのクロスエントロピー損失、および少なくとも1つのマルチクラスソフトマックス損失を含む全体的な損失設計を実行する、請求項1に記載の方法。
  7. 前記顔なりすまし検出は、バイオメトリックシステム内で実行される、請求項1に記載の方法。
  8. 物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出を実現する方法をコンピュータに実行させるために前記コンピュータによって実行可能なプログラム命令を有する、一時的でないコンピュータ読み取り可能な記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータによって実行される方法は、
    少なくとも1つの顔画像に関連付けられた顔認識データ、生体データおよび物質データを含むデータのセットを受信すること(410)と、
    バックボーンニューラルネットワーク構造を使用して前記データのセットから共有特徴を取得すること(420)と、
    前記共有特徴に基づいて、顔認識に対応するプレテキストタスクと、奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質予測に対応する第2のプロキシタスクとを実行すること(430)と、
    顔なりすまし検出性能を高めるためにアテンション機構を使用して前記プレテキストタスク、前記第1のプロキシタスク、前記生体検出タスク、および前記第2のプロキシタスクの出力を集約すること(440)とを含む、コンピュータプログラム製品。
  9. 前記生体データは、オフラインで準備された奥行きグラウンドトゥルースおよび物質グラウンドトゥルースを含み、前記物質データは、Materials in Context(MINC)データセットを含む、請求項8に記載のコンピュータプログラム製品。
  10. 前記共有特徴を取得することは、共有特徴抽出器を使用して前記共有特徴を抽出することをさらに含む、請求項8に記載のコンピュータプログラム製品。
  11. 前記第1のプロキシタスクは、奥行きチャネルアテンションマトリクスと共に奥行き予測を生成し、前記生体予測タスクは、生体特徴と対応する生体チャネルアテンションマトリクスとを生成し、前記物質予測タスクは、生体特徴と対応する物質チャネルアテンションマトリクスとを生成する、請求項8に記載のコンピュータプログラム製品。
  12. 前記出力を集約することは、予測レベルのアテンションモデルを用いて、前記奥行きチャネルアテンションマトリクス、前記生体チャネルアテンションマトリクス、および前記物質チャネルアテンションマトリクスを組み合わせることを含む、請求項11に記載のコンピュータプログラム製品。
  13. 前記顔なりすまし検出は、顔認識損失、l1ベースの再構成損失、少なくとも1つのクロスエントロピー損失、および少なくとも1つのマルチクラスソフトマックス損失を含む全体的な損失設計を実行する、請求項8に記載のコンピュータプログラム製品。
  14. 前記顔なりすまし検出は、バイオメトリックシステム内で実行される、請求項8に記載のコンピュータプログラム製品。
  15. 物理的な手がかり誘導マルチソースマルチチャネルフレームワークを使用して顔なりすまし検出を実施するためのシステムであって、
    プログラムコードを格納するメモリ装置と、
    前記メモリ装置と動作可能に結合され、前記メモリ装置に記憶されたプログラムコードを実行するように構成された少なくとも1つのプロセッサ装置とを有し、前記プロセッサ装置は、
    少なくとも1つの顔画像に関連付けられた顔認識データ、生体データおよび物質データを含むデータのセットを受信し(410)、
    バックボーンニューラルネットワーク構造を使用して前記データのセットから共有特徴を取得し(420)、
    前記共有特徴に基づいて、顔認識に対応するプレテキストタスクと、奥行き推定に対応する第1のプロキシタスクと、生体検出タスクと、物質予測に対応する第2のプロキシタスクとを実行し(430)、
    顔なりすまし検出性能を高めるためにアテンション機構を使用して前記プレテキストタスク、前記第1のプロキシタスク、前記生体検出タスク、および前記第2のプロキシタスクの出力を集約する(440)、システム。
  16. 前記生体データは、オフラインで準備された奥行きグラウンドトゥルースおよび物質グラウンドトゥルースを含み、前記物質データは、Materials in Context(MINC)データセットを含む、請求項15に記載のシステム。
  17. 前記共有特徴を取得することは、共有特徴抽出器を使用して前記共有特徴を抽出することをさらに含む、請求項15に記載のシステム。
  18. 前記第1のプロキシタスクは、奥行きチャネルアテンションマトリクスと共に奥行き予測を生成し、前記生体予測タスクは、生体特徴と対応する生体チャネルアテンションマトリクスとを生成し、前記物質予測タスクは、生体特徴と対応する物質チャネルアテンションマトリクスとを生成し、前記出力を集約することは、予測レベルのアテンションモデルを用いて、前記奥行きチャネルアテンションマトリクス、前記生体チャネルアテンションマトリクス、および前記物質チャネルアテンションマトリクスを組み合わせることを含む、請求項15に記載のシステム。
  19. 前記顔なりすまし検出は、顔認識損失、l1ベースの再構成損失、少なくとも1つのクロスエントロピー損失、および少なくとも1つのマルチクラスソフトマックス損失を含む全体的な損失設計を実行する、請求項15に記載のシステム。
  20. 前記顔なりすまし検出は、バイオメトリックシステム内で実行される、請求項15に記載のシステム。
JP2022514258A 2019-11-14 2020-11-09 物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出 Pending JP2022547036A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962935155P 2019-11-14 2019-11-14
US62/935,155 2019-11-14
US17/091,140 US11250282B2 (en) 2019-11-14 2020-11-06 Face spoofing detection using a physical-cue-guided multi-source multi-channel framework
US17/091,140 2020-11-06
PCT/US2020/059662 WO2021096801A1 (en) 2019-11-14 2020-11-09 Face spoofing detection using a physical-cue-guided multi-source multi-channel framework

Publications (1)

Publication Number Publication Date
JP2022547036A true JP2022547036A (ja) 2022-11-10

Family

ID=75908188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022514258A Pending JP2022547036A (ja) 2019-11-14 2020-11-09 物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出

Country Status (4)

Country Link
US (1) US11250282B2 (ja)
JP (1) JP2022547036A (ja)
DE (1) DE112020005560T5 (ja)
WO (1) WO2021096801A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783628B2 (en) * 2021-05-18 2023-10-10 ID R&D Inc. Method and computing device for performing a crowdsourcing task
CN113554006A (zh) * 2021-09-18 2021-10-26 北京的卢深视科技有限公司 人脸假体体系构建方法、电子设备及存储介质
US11776323B2 (en) 2022-02-15 2023-10-03 Ford Global Technologies, Llc Biometric task network
USD981163S1 (en) 2022-05-06 2023-03-21 Nextboom, Inc. Beverage warmer
CN115116111B (zh) * 2022-06-24 2023-03-24 北京百度网讯科技有限公司 抗扰动人脸活体检测模型训练方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180130324A1 (en) * 2016-11-08 2018-05-10 Nec Laboratories America, Inc. Video security system using a siamese reconstruction convolutional neural network for pose-invariant face recognition
US20180276488A1 (en) * 2017-03-27 2018-09-27 Samsung Electronics Co., Ltd. Liveness test method and apparatus
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知
JP2019175176A (ja) * 2018-03-28 2019-10-10 富士通株式会社 適合度算出プログラム、適合度算出方法、適合度算出装置、識別プログラム、識別方法及び識別装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016197297A1 (zh) * 2015-06-08 2016-12-15 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
US10970629B1 (en) * 2017-02-24 2021-04-06 Amazon Technologies, Inc. Encodings for reversible sparse dimensionality reduction
US10671918B2 (en) * 2017-10-24 2020-06-02 International Business Machines Corporation Attention based sequential image processing
US11928600B2 (en) * 2017-10-27 2024-03-12 Salesforce, Inc. Sequence-to-sequence prediction using a neural network model
US11657525B2 (en) * 2018-12-04 2023-05-23 Yoti Holding Limited Extracting information from images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知
US20180130324A1 (en) * 2016-11-08 2018-05-10 Nec Laboratories America, Inc. Video security system using a siamese reconstruction convolutional neural network for pose-invariant face recognition
US20180276488A1 (en) * 2017-03-27 2018-09-27 Samsung Electronics Co., Ltd. Liveness test method and apparatus
JP2019175176A (ja) * 2018-03-28 2019-10-10 富士通株式会社 適合度算出プログラム、適合度算出方法、適合度算出装置、識別プログラム、識別方法及び識別装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAONAN CHEN ET AL.: ""Attention-Based Two-Stream Convolutional Networks for Face Spoofing Detection"", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, vol. 15, JPN6023012059, 17 June 2019 (2019-06-17), US, pages 578 - 593, ISSN: 0005222301 *
SEAN BELL ET AL.: ""Material Recognition in the Wild with the Materials in Context Database"", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6023012058, 7 June 2015 (2015-06-07), US, pages 3479 - 3487, ISSN: 0005222302 *
周 林、岩野 公司: ""Kinectを用いた実在確認機能を有するマルチモーダル個人認証システム"", 電子情報通信学会技術研究報告, vol. 117, no. 513, JPN6023012057, 11 March 2018 (2018-03-11), JP, pages 61 - 66, ISSN: 0005030367 *

Also Published As

Publication number Publication date
US11250282B2 (en) 2022-02-15
WO2021096801A1 (en) 2021-05-20
DE112020005560T5 (de) 2022-08-25
US20210150240A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP2022547036A (ja) 物理的な手がかり誘導マルチソースマルチチャンネルフレームワークを用いた顔なりすまし検出
CN107766786B (zh) 活性测试方法和活性测试计算设备
US20220327189A1 (en) Personalized biometric anti-spoofing protection using machine learning and enrollment data
Zhang et al. Face anti-spoofing detection based on DWT-LBP-DCT features
Sedik et al. An efficient cybersecurity framework for facial video forensics detection based on multimodal deep learning
Nayerifard et al. Machine learning in digital forensics: a systematic literature review
Di Domenico et al. Combining identity features and artifact analysis for differential morphing attack detection
Dhesi et al. Mitigating adversarial attacks in deepfake detection: An exploration of perturbation and ai techniques
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
CN115797747A (zh) 基于模型权重变异和置信度距离的对抗样本检测方法
Mallet et al. Deepfake detection analyzing hybrid dataset utilizing cnn and svm
Benegui et al. Adversarial attacks on deep learning systems for user identification based on motion sensors
Lotfi et al. Cross-validation probabilistic neural network based face identification
JP7270839B2 (ja) 顔認識のための汎用特徴表現学習
CN115953849A (zh) 活体检测模型的训练方法、活体检测方法及系统
WO2022217294A1 (en) Personalized biometric anti-spoofing protection using machine learning and enrollment data
Khade et al. Machine learning-based iris liveness identification using fragmental energy of cosine transformed iris images
Therar et al. Personal Authentication System Based Iris Recognition with Digital Signature Technology
Therar et al. Personal authentication system based on iris recognition and digital signature technology
Ramkumar et al. IRIS DETECTION FOR BIOMETRIC PATTERN IDENTIFICATION USING DEEP LEARNING.
Maurya et al. Spoofed Video Detection Using Histogram of Oriented Gradients
Kadiri et al. Morphed Picture Recognition using Machine Learning Algorithms
Alshammari E-passport security systems and attack implications
Sharma et al. Deep Transfer Learning for Face Spoofing Detection
Lakshminarasimha et al. Deep Learning Base Face Anti Spoofing-Convolutional Restricted Basis Neural Network Technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219