JP7191139B2 - 生体を検知するための方法及び装置 - Google Patents

生体を検知するための方法及び装置 Download PDF

Info

Publication number
JP7191139B2
JP7191139B2 JP2021028352A JP2021028352A JP7191139B2 JP 7191139 B2 JP7191139 B2 JP 7191139B2 JP 2021028352 A JP2021028352 A JP 2021028352A JP 2021028352 A JP2021028352 A JP 2021028352A JP 7191139 B2 JP7191139 B2 JP 7191139B2
Authority
JP
Japan
Prior art keywords
sample
image
network
attack feature
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021028352A
Other languages
English (en)
Other versions
JP2021174529A (ja
Inventor
浩城 馮
海瀟 岳
智濱 洪
珂堯 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021174529A publication Critical patent/JP2021174529A/ja
Application granted granted Critical
Publication of JP7191139B2 publication Critical patent/JP7191139B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Description

本願の実施例はコンピュータ技術分野に関し、具体的には、生体を検知するための方法及び装置に関する。
生体検知は、すなわち画像が生体撮影であるかどうかを検知することであり、生体認識システムの基本組成モジュールであり、生体認識システムの安全性を確保するためのものである。現在、該分野では深層学習技術を使用する生体検知アルゴリズムが主流となる方法であり、従来のアルゴリズムと比べて、精度が大幅に向上している。
現在、生体検知アルゴリズムには多くの実現手段があるが、技術ルートによって、従来の生体手動特徴抽出及び分類方法と深層学習を使用する生体検知方法の2つに大きく分けられる。従来の生体手動特徴抽出及び分類方法は、主に、LBP(Localbinarypattern、ローカルバイナリパターン)、HOG(Histogramoforientedgradients、方向付けられた勾配のヒストグラム)、SIFT(Scale-invariantfeaturetransform、スケール不変の特徴変換)等の手動特徴に基づいて従来の分類器と協働する生体検知方法がある。このような方法は、まず手動で設計された特徴抽出器に基づいて生体特徴を抽出し、次にSVM(SupportVectorMachine、サポートベクターマシン)などの従来分類器に基づいて特徴分類を行い、最後に生体検知結果を取得する。深層学習を使用する生体検知方法は主に、畳み込み神経ネットワーク、LSTM(Long Short-Term Memory、長短期記憶ネットワーク)等に基づく生体検知方法がある。このような方法は神経ネットワークを使用して生体特徴の抽出及び分類を行う。
本願の実施例は生体を検知するための方法及び装置を提供する。
第1態様によれば、本願の実施例は生体を検知するための方法を提供し、原始画像を取得するステップと、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力するステップと、攻撃特徴信号の要素レベルの平均値(element-wise mean value)を計算するステップと、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成するステップと、を含む。
いくつかの実施例において、訓練済み攻撃特徴抽出ネットワークは、サンプルの原始画像と、サンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするためのサンプルのカテゴリラベルとが含まれる訓練サンプルを取得するステップと、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、によって取得する。
いくつかの実施例において、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップは、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号と生体サンプルに対応するピクセルレベルL1損失を取得するステップと、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失を取得するステップと、ピクセルレベルL1損失とバイナリ分類損失を踏まえ、ネットワークが収束するまで、訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを更新し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、を含む。
いくつかの実施例において、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号を取得するステップは、サンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力するステップを含み、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリを取得するステップは、サンプル攻撃特徴信号をサンプルの原始画像に重畳し(superimposing)、サンプル重畳(superimposition)画像を取得するステップと、サンプル重畳画像を訓練待ちの補助分類器ネットワークに入力し、サンプルの原始画像のサンプルカテゴリを出力するステップと、を含む。
いくつかの実施例において、攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であり、サンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力するステップは、サンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップと、サンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップと、サンプル復号画像を正接活性化層(tangent activation layer)に入力し、サンプル攻撃特徴信号を出力するステップと、を含む。
いくつかの実施例において、エンコーダは複数の符号化残差サブネットワークを含み、サンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップは、複数の符号化残差サブネットワークを利用してサンプルの原始画像を順次直列ダウンサンプリングし、複数の符号化残差サブネットワークから出力した複数のサンプルダウンサンプリング符号化画像を取得するステップを含み、最後の符号化残差サブネットワークから出力したサンプルダウンサンプリング符号化画像はサンプル符号化画像である。
いくつかの実施例において、デコーダは複数の復号化残差サブネットワークを含み、サンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップは、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードし、サンプル復号画像を取得するステップを含む。
いくつかの実施例において、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードするステップは、複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得するステップと、サンプルアップサンプリング復号画像を畳み込み、サンプル畳み込み復号画像を取得するステップと、サンプル畳み込み復号画像を、現在の復号化残差サブネットワークの対称符号化残差サブネットワークの出力と合併し、サンプル合併復号画像を取得するステップと、サンプル合併復号画像を現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、現在の復号化残差サブネットワークの出力を取得するステップと、を含む。
第2態様によれば、本願の実施例は生体を検知するための装置を提供し、原始画像を取得するように構成される取得ユニットと、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力するように構成される抽出ユニットと、攻撃特徴信号の要素レベルの平均値を計算するように構成される計算ユニットと、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成するように構成される生成ユニットと、を備える。
いくつかの実施例において、訓練済み攻撃特徴抽出ネットワークは、サンプルの原始画像と、サンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするためのサンプルのカテゴリラベルとが含まれる訓練サンプルを取得するステップと、訓練サンプルを使用して訓練待ち対象の攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、によって取得する。
いくつかの実施例において、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップは、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号と生体サンプルに対応するピクセルレベルL1損失を取得するステップと、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失を取得するステップと、ピクセルレベルL1損失とバイナリ分類損失を組み合わせ、ネットワークが収束するまで、訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを更新し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、を含む。
いくつかの実施例において、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練して、サンプルの原始画像のサンプル攻撃特徴信号を取得するステップは、サンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力して、サンプル攻撃特徴信号を出力するステップを含み、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリを取得するステップは、サンプル攻撃特徴信号をサンプルの原始画像に重畳し、サンプル重畳画像を取得するステップと、サンプル重畳画像を訓練待ちの補助分類器ネットワークに入力し、サンプルの原始画像のサンプルカテゴリを出力するステップと、を含む。
いくつかの実施例において、攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であり、サンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力するステップは、サンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップと、サンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップと、サンプル復号画像を正接活性化層に入力し、サンプル攻撃特徴信号を出力するステップと、を含む。
いくつかの実施例において、エンコーダは複数の符号化残差サブネットワークを含み、サンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップは、複数の符号化残差サブネットワークを利用してサンプルの原始画像を順次直列ダウンサンプリングし、複数の符号化残差サブネットワークから出力した複数のサンプルダウンサンプリング符号化画像を取得するステップを含み、最後の符号化残差サブネットワークから出力したサンプルダウンサンプリング符号化画像はサンプル符号化画像である。
いくつかの実施例において、デコーダは複数の復号化残差サブネットワークを含み、サンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップは、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードし、サンプル復号画像を取得するステップを含む。
いくつかの実施例において、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードするステップは、複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得するステップと、サンプルアップサンプリング復号画像を畳み込み、サンプル畳み込み復号画像を取得するステップと、サンプル畳み込み復号画像を、現在の復号化残差サブネットワークの対称符号化残差サブネットワークの出力と合併し、サンプル合併復号画像を取得するステップと、サンプル合併復号画像を現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、現在の復号化残差サブネットワークの出力を取得するステップと、を含む。
第3態様によれば、本願の実施例は電子機器を提供し、1つまたは複数のプロセッサと、1つまたは複数のプログラムが記憶される記憶装置とを具備し、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行される場合、1つまたは複数のプロセッサに第1態様の実現形態のいずれかに記載の方法を実現させる。
第4態様によれば、本願の実施例はコンピュータ読み取り可能な媒体を提供し、該媒体にはコンピュータプログラムが記憶され、該コンピュータプログラムはプロセッサによって実行されると第1態様の実現形態のいずれかに記載の方法を実現させる。
第5態様によれば、本願の実施例はコンピュータプログラムを提供し、該コンピュータプログラムはプロセッサによって実行されると第1態様の実現形態のいずれかに記載の方法を実現させる。
本願の実施例による生体を検知するための方法及び装置は、まず取得された原始画像を訓練済み攻撃特徴抽出ネットワークに入力して、原始画像の攻撃特徴信号を出力し、次に、攻撃特徴信号の要素レベルの平均値を計算し、最後に、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成する。新しい生体検知方法を提供し、攻撃特徴マイニングと増幅の生体検知技術に基づいて生体検知を行い、生体検知の正確さを大幅に向上させることができる。
以下の図面を参照して非限定的な実施例に対して行われた詳細な説明を読むことによって、本願の他の特徴、目的及び利点がより明らかになる。
本願を適用できる例示的なシステムアーキテクチャである。 本願による生体を検知するための方法の一実施例のフローチャートである。 本願による攻撃特徴抽出ネットワーク訓練方法の一実施例のフローチャートである。 本願による攻撃特徴抽出ネットワーク訓練方法の他の実施例のフローチャートである。 攻撃特徴抽出ネットワーク訓練方法の技術アーキテクチャ図である。 復号化残差サブネットワークの構造図である。 攻撃特徴抽出ネットワーク及び補助分類器ネットワークの構造図である。 本願による生体を検知するための装置の一実施例の構造模式図である。 本願の実施例の電子機器を実現するために適するコンピュータシステムの構造模式図である。
以下、図面と実施例を踏まえて本願をさらに詳細に説明する。ここで説明される具体的な実施例は限定的なものではなく、関連発明を解釈するためのものにすぎないことを理解すべきである。なお、説明の便宜上、図面には関連発明に関連する部分のみを示している。
説明する必要があるのは、矛盾が生じない限り、本願における実施例及び実施例における特徴は組み合わせることができる。以下、図面を参照して実施例を合わせて本願を詳細に説明する。
図1は本願の生体を検知するための方法または生体を検知するための装置を適用できる実施例の例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は撮影機器101と、ネットワーク102と、サーバ103とを備えてもよい。ネットワーク102は、撮影機器101とサーバ103の間に通信リンクを提供する媒体である。ネットワーク102は、例えば有線、無線通信リンクまたは光ファイバケーブルなどのような様々な接続タイプを含んでもよい。
撮影機器101は、ハードウェアであってもよく、ソフトウェアであってもよい。撮影機器101がハードウェアである場合は、画像撮影をサポートする様々な電子機器であってもよく、撮像装置、カメラ及びスマートフォンなどを含むが、これらに限らない。撮影機器101がソフトウェアである場合は、上記電子機器にインストールすることができる。複数のソフトウェアまたはソフトウェアモジュールとして実装されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよい。ここで具体的な限定はしない。
サーバ103は様々なサービスを提供することができる。例えば、サーバ103は、撮影機器101から取得した原始画像などのデータに対して分析等の処理を行い、且つ処理結果(例えば生体検知結果)を生成することができる。
なお、サーバ103は、ハードウェアであってもよく、ソフトウェアであってもよい。サーバ103がハードウェアである場合は、複数のサーバからなる分散サーバクラスターとして実現されてもよく、単一のサーバとして実現されてもよい。サーバ103がソフトウェアである場合は、複数のソフトウェアまたはソフトウェアモジュールとして実装されてもよく(例えば分散サービスを提供するために使用される)、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよい。ここで具体的な限定はしない。
また、本願の実施例による生体を検知するための方法は一般にサーバ103により実行され、対応して、生体を検知するための装置は一般的にサーバ103に設けられる。
図1における撮影機器、ネットワーク及びサーバの数は単なる例示であることを理解すべきである。実装に応じて、任意の数の撮影機器、ネットワーク及びサーバを備えることができる。
引き続き図2を参照し、ここでは本願による生体を検知するための方法の一実施例のフロー200を示す。該生体を検知するための方法は以下のステップを含み、
ステップ201、原始画像を取得する。
本実施例において、生体を検知するための方法の実行主体(例えば図1に示すサーバ103)は撮影機器(例えば図1に示す撮影機器101)から送信された原始画像を受信することができる。原始画像は、撮影機器が検知しようとするターゲット(例えば顔)を撮影して取得する画像であってもよい。
ステップ202、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力する。
本実施例において、上記実行主体は、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力することができる。攻撃特徴抽出ネットワークは、入力された画像の攻撃特徴信号を抽出するのに使用できる。攻撃特徴信号は、生体の特徴信号ではなく、入力された画像の中のターゲットであってもよい。生体の攻撃特徴信号は、通常、オールゼログラフであり、非生体の攻撃特徴信号は、通常、オールゼログラフではない。
ステップ203、攻撃特徴信号の要素レベルの平均値を計算する。
本実施例において、上記実行主体は、攻撃特徴信号の要素レベル(element-wise)平均値を計算できる。要素レベルの平均値は攻撃特徴信号を要素ごとに加算して得られた平均値であってもよい。
ステップ204、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成する。
本実施例において、上記実行主体は、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成することができる。生体検知結果は、原始画像の中のターゲットが生体であるか否かを説明する情報であってもよい。通常、要素レベルの平均値が大きいほど、原始画像におけるターゲットは生体ではない可能性が高く、原始画像は攻撃画像である可能性が高くなり、要素レベルの平均値が小さいほど、原始画像におけるターゲットは生体である可能性が高く、原始画像は生体である可能性が高くなる。このため、上記実行主体は要素レベルの平均値と予め設定された閾値を比較することができる。要素レベルの平均値は予め設定された閾値より大きい場合は、原始画像におけるターゲットが生体ではない検知結果を生成し、要素レベルの平均値が予め設定された閾値より大きくなっていない場合は、原始画像におけるターゲットが生体である検知結果を生成する。
本願の実施例による生体を検知するための方法は、まず取得した原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力し、次に、攻撃特徴信号の要素レベルの平均値を計算し、最後に、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成する。攻撃特徴マイニングと増幅の生体検知技術に基づいて生体検知出を行い、生体検知の正確さを大幅に向上させることができる。現在の従来生体手動特徴抽出及び分類方法と比べて、特徴安定性が強く、光などの影響を受けにくい。従来の深層学習を使用した生体検知方法と比べて、狭い範囲の訓練サンプルに過適合になることはなく、未知の攻撃方法及びサンプルの一般化を向上させることができる。なお、本願の実施例による生体を検知するための方法を顔生体検知の場面に適用すると、顔生体検知性能を向上させることができる。顔生体検知性能を向上させることにより、顔認識の分野における勤怠、アクセス制御システム、セキュリティ、金銭的支払い、およびその他の多くの場面に適用できる。顔生体検知技術を基礎とする多くのアプリケーションの効果の向上とユーザーエクスペリエンスの向上の助けになり、ビジネスプロジェクトのさらなる推進に有利になる。
図3を更に参照し、本願による攻撃特徴抽出ネットワークの訓練方法の一実施例を示すフロー300を示す。該攻撃特徴抽出ネットワーク訓練方法は、以下のステップを含み、
ステップ301、訓練サンプルを取得する。
本実施例において、攻撃特徴抽出ネットワーク訓練方法の実行主体(例えば図1に示すサーバ103)は大量の訓練サンプルを取得することができる。各訓練サンプルはサンプルの原始画像及び対応するサンプルのカテゴリラベル(sample category tag)を含んでもよい。サンプルのカテゴリラベルは、対応するサンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするのに使用できる。例えば、サンプルの原始画像は生体を撮影して得られた画像である場合は、対応するサンプルのカテゴリラベルの値は1としてもよく、該サンプルの原始画像と対応するサンプルのカテゴリラベルとからなる訓練サンプルは生体サンプルに該当する。サンプルの原始画像は非生体を撮影して得られた画像である場合は、対応するサンプルのカテゴリラベルの値は0としてもよく、該サンプルの原始画像と対応するサンプルのカテゴリラベルとからなる訓練サンプルは攻撃サンプルに該当する。
ステップ302、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得する。
本実施例において、上記実行主体は訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得することができる。攻撃特徴抽出ネットワークは、そのネットワークに入力された画像の攻撃特徴信号を抽出するのに使用できる。補助分類器ネットワークは、例えばResNet(ResidualNetwork、残差ネットワーク)18などのバイナリ分類できるネットワークであり、そのネットワークに入力された攻撃特徴信号に基づいて画像におけるターゲットが生体であるか否かを検知するために使用される。
通常、ネットワーク訓練を行う時に、攻撃特徴抽出ネットワークの出力を補助分類器ネットワークの入力として使用できる。例えば、まずサンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号と生体サンプルに対応するピクセルレベルL1損失を取得し(pixel-wiseL1loss)、次に、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失を取得し、最後に、ピクセルレベルL1損失とバイナリ分類損失を踏まえ、ネットワークが収束するまで、訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを更新し、訓練済み攻撃特徴抽出ネットワークを取得する。攻撃特徴信号抽出を行う時に、サンプルの原始画像を攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力する。生体サンプルの攻撃特徴信号をオールゼログラフに定義し、ピクセルレベルL1損失を導入して生体サンプルを監視するために使用し、攻撃サンプルの出力結果に監視はしない。攻撃特徴信号抽出を完了した後に、サンプル攻撃特徴信号を先にサンプルの原始画像に重畳し、サンプル重畳画像を取得し、次に、サンプル重畳画像を補助分類器ネットワークに入力し、サンプルの原始画像のサンプルカテゴリを出力する。サンプル攻撃特徴をサンプルの原始画像に重畳させて補助分類器ネットワークに入力し、バイナリ分類損失関数を導入することによってネットワーク収束を補助監視する。
なお、補助分類器ネットワークはネットワーク訓練段階のみで作用する。ネットワーク予測段階では、攻撃特徴抽出ネットワークの出力に対して要素レベルの平均値演算を行い、要素レベルの平均値を検知画像におけるターゲットが生体であるか否かの依拠とする。
図4をさらに参照し、本願による攻撃特徴抽出ネットワーク訓練方法の他の実施例のフロー400を示す。本実施例における攻撃特徴抽出ネットワークはエンコーダ-デコーダ(encoder-decoder)構造であってもよい。該攻撃特徴抽出ネットワーク訓練方法は、以下のステップを含んでもよく、
ステップ401、訓練サンプルを取得する。
本実施例において、攻撃特徴抽出ネットワーク訓練方法の実行主体(例えば図1に示すサーバ103)大量の訓練サンプルを取得することができる。各訓練サンプルはサンプルの原始画像と対応するサンプルのカテゴリラベルを含んでもよい。サンプルのカテゴリラベルは、対応するサンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするのに使用できる。例えば、サンプルの原始画像が生体を撮影して得られた画像である場合は、対応するサンプルのカテゴリラベルの値は1としてもよく、該サンプルの原始画像と対応するサンプルのカテゴリラベルとからなる訓練サンプルは生体サンプルに該当する。サンプルの原始画像が非生体を撮影して得られた画像である場合は、対応するサンプルのカテゴリラベルの値は0としてもよく、該サンプルの原始画像と対応するサンプルのカテゴリラベルとからなる訓練サンプルは攻撃サンプルに該当する。
ステップ402、サンプルの原始画像をエンコーダに入力して、サンプル符号化画像を出力する。
本実施例において、上記実行主体はサンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力することができる。通常、ResNet18は攻撃特徴抽出ネットワークのエンコーダとして使用できる。エンコーダは複数の符号化残差サブネットワークを含むことができる。複数の符号化残差サブネットワークを使用してサンプルの原始画像を順次直列ダウンサンプリングし、複数の符号化残差サブネットワークから出力された複数のサンプルダウンサンプリング符号化画像を取得することができる。最後の符号化残差サブネットワークから出力されたサンプルダウンサンプリング符号化画像はサンプル符号化画像であってもよい。例えば、エンコーダは5つの符号化残差サブネットワークを含んでもよく、各符号化残差サブネットワークはサンプルの原始画像を1回ダウンサンプリングし、サンプルの原始画像を合計5回ダウンサンプリングすることができる。
ステップ403、サンプル符号化画像をデコーダに入力して、サンプル復号画像を出力する。
本実施例において、上記実行主体はサンプル符号化画像をデコーダに入力し、サンプル復号画像を出力することができる。通常、デコーダは複数の復号化残差サブネットワークを含むことができる。複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードすることによって、サンプル復号画像を取得することができる。最後の復号化残差サブネットワークの出力はサンプル復号画像であってもよい。例えば、デコーダは4つの復号化残差サブネットワークを含むことができ、各復号化残差サブネットワークはサンプル符号化画像を1回アップサンプリングし、サンプル符号化画像を合計4回アップサンプリングすることができる。
本実施例のいくつかのオプション的な実現形態において、複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、上記実行主体は、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得し、サンプルアップサンプリング復号画像を畳み込むことができ(例えば2×2畳み込み)、サンプル畳み込み復号画像を取得し、サンプル畳み込み復号画像を、現在の復号化残差サブネットワークの対称符号化残差サブネットワークの出力と合併し、サンプル合併復号画像を取得し、サンプル合併復号画像を現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、現在の復号化残差サブネットワークの出力を取得する。
ステップ404、サンプル復号画像を正接活性化層に入力し、サンプル攻撃特徴信号を出力し、及び生体サンプルに対応するピクセルレベルL1損失を取得する。
本実施例において、上記実行主体はサンプル復号画像を正接活性化層に入力し、サンプル攻撃特徴信号を出力することができる。また、生体サンプルに対応するピクセルレベルL1損失を取得することもできる。生体サンプルの攻撃特徴信号をオールゼログラフに定義し、ピクセルレベルL1損失を導入して生体サンプルを監視するために使用し、攻撃サンプルの出力結果に監視はしない。
ステップ405、サンプル攻撃特徴信号をサンプルの原始画像に重畳し、サンプル重畳画像を取得する。
本実施例において、上記実行主体はサンプル攻撃特徴信号をサンプルの原始画像に重畳し、サンプル重畳画像を取得することができる。
ステップ406、サンプル重畳画像を訓練待ちの補助分類器ネットワークに入力し、サンプル画像のサンプルカテゴリを出力し、及びバイナリ分類損失を取得する。
本実施例において、上記実行主体は、サンプル重畳画像を訓練待ちの補助分類器ネットワークに入力し、サンプル画像のサンプルカテゴリを出力することができる。また、バイナリ分類損失を取得することもできる。バイナリ分類損失関数を導入することによってネットワークの収束を補助監視する。
ステップ407、ピクセルレベルL1損失とバイナリ分類損失を踏まえて、訓練待ちの特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、訓練済み特徴抽出ネットワークを取得する。
本実施例において、上記実行主体はピクセルレベルL1損失とバイナリ分類損失を踏まえて、訓練待ちの特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、訓練済み特徴抽出ネットワークを取得することができる。
本願の実施例による攻撃特徴抽出ネットワーク訓練方法は、エンコーダ-デコーダ構造を使用して攻撃特徴信号を抽出し、デコーダ段階でマルチレベルのメトリック学習を導入することによって、攻撃サンプルと生体サンプルとのクラス間特徴距離を増大させ、生体サンプルのクラス内特徴距離を短縮させるために使用する。生体サンプルの攻撃特徴信号をオールゼログラフに定義し、ピクセルレベルL1損失を導入して生体サンプルを監視するために使用し、攻撃サンプルの出力結果に監視はしない。サンプル攻撃特徴信号をサンプルの原始画像に重畳し、補助分類器ネットワークを使用して攻撃特徴信号をさらに増幅させ、ネットワークの一般化を向上させる。新しい攻撃特徴信号モデリング方法を設計し、エンコーダ-デコーダ構造を通じてマルチレベルのメトリック学習、ピクセルレベルL1損失監視及び補助分類器ネットワークと合わせて、攻撃特徴信号を抽出及び増幅させ、最後に、攻撃特徴信号の強さを通じて生体検知を行い、ネットワーク訓練の収束速度を加速させ、生体アルゴリズムの一般化を向上させるだけでなく、生体アルゴリズムが未知の攻撃サンプル及び攻撃方法に対する抑制効果を向上させることができる。
図5をさらに参照し、攻撃特徴抽出ネットワーク訓練方法の技術アーキテクチャ図を示す。図5に示すように、攻撃特徴抽出ネットワーク訓練方法の技術アーキテクチャは攻撃特徴抽出ネットワークと補助分類器ネットワークとを含むことができる。攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であってもよい。訓練サンプルは生体サンプルと攻撃サンプルを含むことができる。訓練サンプルにおけるサンプルの原始画像をエンコーダに入力し、コード化処理した後、デコーダに入力する。デコーダにマルチレベルのトリプル損失を導入し、サンプル攻撃特徴信号と生体サンプルに対応するL1損失を取得する。サンプル攻撃特徴信号をサンプルの原始画像に重畳した後補助分類器ネットワークに入力して補助分類し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失を取得する。最後、L1損失とバイナリ分類損失を踏まえ、同時に、攻撃特徴抽出ネットワークと補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、攻撃特徴抽出ネットワークに対する訓練を完了させることができる。
図6をさらに参照し、復号化残差サブネットワークを示す構造図を示す。図6に示すように、最近傍補間を使用して復号化残差サブネットワークの入力をアップサンプリングし、アップサンプリングが完了した後2×2畳み込みを1回行い、対称の符号化残差サブネットワークの出力と合併し、合併した後1つの符号化残差サブネットワークを経由して、復号化残差サブネットワークの出力を取得する。
図7をさらに参照し、攻撃特徴抽出ネットワーク及び補助分類器ネットワークを示す構造図を示す。図7に示すように、攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であってもよい。エンコーダは5つの符号化残差サブネットワークを含んでもよく、デコーダは4つの復号化残差サブネットワークを含んでもよい。訓練サンプルは生体サンプルと攻撃サンプルを含むことができる。訓練サンプルにおけるサンプルの原始画像をエンコーダに入力し、5つの符号化残差サブネットワークを経由して順次直列ダウンサンプリングする。ダウンサンプリングが完了した後デコーダに入力し、デコーダにマルチレベルのトリプル損失を導入し、4つの復号化残差サブネットワークを経由して順次直列アップサンプリングし、サンプル攻撃特徴信号と生体L1損失を取得する。サンプル攻撃特徴信号をサンプルの原始画像に重畳した後に補助分類器ネットワークに入力して補助分類し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失とを取得する。生体L1損失とバイナリ分類損失を踏まえ、特徴抽出ネットワークと補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、攻撃特徴抽出ネットワークに対する訓練を完了させることができる。
図8をさらに参照し、上記各図に示すような方法の実現として、本願は生体を検知するための装置の一実施例を提供し、該装置実施例は図2に示すような方法実施例に対応し、該装置は具体的に様々な電子機器に適用できる。
図8に示すように、本実施例による生体を検知するための装置800は、取得ユニット801と、抽出ユニット802と、計算ユニット803と、決定ユニット804とを備えてもよい。取得ユニット801は原始画像を取得するように構成され、抽出ユニット802は、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力するように構成され、計算ユニット803が攻撃特徴信号の要素レベルの平均値を計算するように構成され、生成ユニット804は、要素レベルの平均値に基づいて、原始画像の生体検知結果を生成するように構成される。
本実施例において、生体を検知するための装置800において、取得ユニット801と、抽出ユニット802と、計算ユニット803と、決定ユニット804との具体的な処理及び奏される技術的効果について、それぞれ図2に対応する実施例におけるステップ201-204の関連説明を参照でき、ここでの繰り返しは省略する。
本実施例のいくつかのオプション的な実現形態において、訓練済み攻撃特徴抽出ネットワークは、サンプルの原始画像と、サンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするためのサンプルのカテゴリラベルとが含まれる訓練サンプルを取得するステップと、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、によって取得する。
本実施例のいくつかのオプション的な実現形態において、訓練サンプルを使用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、訓練済み攻撃特徴抽出ネットワークを取得するステップは、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号と生体サンプルに対応するピクセルレベルL1損失を取得するステップと、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリとバイナリ分類損失とを取得するステップと、ピクセルレベルL1損失とバイナリ分類損失とを踏まえ、ネットワークが収束するまで、訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークのパラメータとを更新し、訓練済み攻撃特徴抽出ネットワークを取得するステップと、を含む。
本実施例のいくつかのオプション的な実現形態において、サンプルの原始画像を利用して訓練待ちの攻撃特徴抽出ネットワークを訓練し、サンプルの原始画像のサンプル攻撃特徴信号を取得するステップは、サンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力するステップを含み、サンプル攻撃特徴信号を利用して訓練待ちの補助分類器ネットワークを訓練し、サンプルの原始画像のサンプルカテゴリを取得するステップは、サンプル攻撃特徴信号をサンプルの原始画像に重畳し、サンプル重畳画像を取得するステップと、サンプル重畳画像を訓練待ちの補助分類器ネットワークに入力し、サンプルの原始画像のサンプルカテゴリを出力するステップと、を含む。
本実施例のいくつかのオプション的な実現形態において、攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であり、及びサンプルの原始画像を訓練待ちの攻撃特徴抽出ネットワークに入力し、サンプル攻撃特徴信号を出力するステップは、サンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップと、サンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップと、サンプル復号画像を正接活性化層に入力し、サンプル攻撃特徴信号を出力するステップと、を含む。
本実施例のいくつかのオプション的な実現形態において、エンコーダは複数の符号化残差サブネットワークを含み、及びサンプルの原始画像をエンコーダに入力し、サンプル符号化画像を出力するステップは、複数の符号化残差サブネットワークを利用してサンプルの原始画像を順次直列ダウンサンプリングし、複数の符号化残差サブネットワークから出力した複数のサンプルダウンサンプリング符号化画像を取得し、最後の符号化残差サブネットワークから出力したサンプルダウンサンプリング符号化画像はサンプル符号化画像であるステップを含む。
本実施例のいくつかのオプション的な実現形態において、デコーダは複数の復号化残差サブネットワークを含み、及びサンプル符号化画像をデコーダに入力し、サンプル復号画像を出力するステップは、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードし、サンプル復号画像を取得するステップを含む。
本実施例のいくつかのオプション的な実現形態において、複数の復号化残差サブネットワークを利用してサンプル符号化画像を順次直列デコードするステップは、複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得するステップと、サンプルアップサンプリング復号画像を畳み込み、サンプル畳み込み復号画像を取得するステップと、サンプル畳み込み復号画像を、現在の復号化残差サブネットワークの対称符号化残差サブネットワークの出力と合併し、サンプル合併復号画像を取得するステップと、サンプル合併復号画像を現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、現在の復号化残差サブネットワークの出力を取得するステップと、を含む。
以下、図9を参照し、本願の実施例の電子機器(例えば図1に示すサーバ103)を実現するためのコンピュータシステム900を示す構造模式図を示す。図9に示すような電子機器は一例示にすぎず、本願の実施例の機能と使用範囲に何らかの制限をするものではない。
図9に示すように、コンピュータシステム900は中央処理ユニット(CPU)901を備え、読み取り専用メモリ(ROM)902に記憶されるプログラム或いは記憶部分908からランダムアクセスメモリ(RAM)903にロードされるプログラムによって様々な適切な動作と処理を実行することができる。RAM903には、システム900の操作に必要な様々なプログラムとデータも記憶される。CPU901、ROM902及びRAM903はバス904を介して相互接続される。入力/出力(I/O)インターフェース905もバス904に接続される。
キーボード、マウスなどを含む入力部分906、陰極線管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカーなどを含む出力部分907、ハードディスク等を含む記憶部分908、及びLANカード、モデムなどを含むネットワークインターフェースカードを含む通信部分909という部材はI/Oインターフェース905に接続される。通信部分909はインターネットなどのネットワークを介して通信処理を実行する。ドライブ910も必要に応じてI/Oインターフェース905に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブルメディア911は、必要に応じてドライブ910にインストールされ、それから読み取られたコンピュータプログラムが必要に応じて記憶部分908にインストールされるようにする。
特に、本開示による実施例は、以上でフローチャートを参照して説明したプロセスはコンピュータソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例は、コンピュータ読み取り可能な媒体にロードされるコンピュータプログラム含むコンピュータプログラム製品を備え、該コンピュータプログラムは、フローチャートに示すような方法を実行するためのプログラムコードを含む。このような実施例において、該コンピュータプログラムは通信部分909を介してネットワークからダウンロード及びインストール、及び/またはリムーバブルメディア911からインストールされることができる。該コンピュータプログラムは中央処理ユニット(CPU)901によって実行される場合、本願の方法に限定される上記機能を実行する。
なお、本開示に記載のコンピュータ読み取り可能な媒体はコンピュータ読み取り可能な信号媒体又はコンピュータ読み取り可能な記憶媒体又は上記両者の任意の組み合わせであってもよい。コンピュータ読み取り可能な記憶媒体は例えば電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は任意の以上の組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のワイヤーを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージコンポーネント、磁気ストレージデバイス、または上記の任意の適切な組み合わせを含んでも良いが、これに限定されない。本願において、コンピュータ読み取り可能な記憶媒体は任意のプログラムを含有又は記憶する有形媒体であってもよく、該プログラムは指令実行システム、装置又はデバイスで使用されるか、又はそれと組み合わせて使用されても良い。本願において、コンピュータ読み取り可能な信号媒体はベースバンドに含まれても良いか、又はキャリアウェーブの一部として伝送するデータ信号を含んでもよく、その中にコンピュータ読み取り可能なプログラムコードが載せられた。このような伝送するデータ信号には、多種の形式を利用することができ、電磁信号、光信号又は上記の任意の適当な組み合わせを含むが、これらに限定されない。コンピュータ読み取り可能な信号媒体はさらにコンピュータ読み取り可能な記憶媒体以外の任意のコンピュータ読み取り可能な媒体であってもよく、該コンピュータ読み取り可能な信号媒体は、指令実行システム、装置又はデバイスで使用されるか、又はそれと組み合わせて使用するためのプログラムを送信、伝送又は輸送することができる。コンピュータ読み取り可能な媒体に含まれるプログラムコードは任意の適当な媒体で輸送されることができ、無線、ワイヤー、光ケーブル、RFなど、又は上記の任意の適合な組み合わせを含むが、これらに限定されない。
1種又は多種のプログラムデザイン言語又はその組み合わせで本願の操作を実行するためのコンピュータプログラムコードを書き込み、前記プログラムデザイン言語は、対象向けのプログラムデザイン言語、例えばJava、Smalltalk、C++を含み、従来の手続き型プログラミング言語、例えば「C」言語又は類似のプログラムデザイン言語をさらに含む。プログラムコードは、完全にユーザコンピュータで実行され、部分的にユーザコンピュータで実行され、1つの独立したソフトウェアパッケージとして実行され、一部がユーザのコンピュータで一部がリモートコンピュータで実行され、又は完全にリモートコンピュータ又はサーバで実行されてもよい。リモートコンピュータに関する状況において、リモートコンピュータはローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意のタイプのネットワークによってユーザコンピュータに接続されることができ、又は、外部コンピュータ(例えばインターネットサービスプロバイダを用いてインターネットによって接続される)に接続されることができる。
図面におけるフローチャートとブロック図は、本願の各種の実施例のシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び操作を示す。この点では、フローチャート又はブロック図における各ボックスは1つのモジュール、プログラムセグメント、又はコードの一部を代表することができ、該モジュール、プログラムセグメント、又はコードの一部が1つ又は複数の所定のロジック機能を実現するための実行可能なコマンドを含む。注意すべきものとして、幾つかの切り替え可能な実現において、ボックスにマーキングされた機能も図面にマーキングされた順序と異なることで発生することができる。例えば、2つの接続するように示すボックスは実際に基本的に並行して実行でき、それらは関連する機能によっては、逆の順序で実行される場合がある。また、注意する必要があるものとして、ブロック図及び/又はフローチャートにおける各ボックス、及びブロック図及び/又はフローチャートにおけるボックスの組み合わせは、所定の機能又は操作を実行する専用のハードウェアに基づくシステムで実現されることができるか、又は専用のハードウェアとコンピュータ指令との組み合わせで実現されることができる。
本願に関するユニットはソフトウェアの方式によって実現されてもよいし、ハードウェアの方式によって実現されてもよい。記載されたユニットはプロセッサに設置されてもよく、例えば、プロセッサは取得ユニットと、抽出ユニットと、計算ユニットと、決定ユニットとを含むと説明することができる。これらのユニットの名称はある状況には該ユニット自体に対する限定を構成せず、例えば、取得ユニットはさらに「原始画像を取得するユニット」と説明されてもよい。
他の態様として、本願は、コンピュータ読み取り可能な媒体をさらに提供し、該コンピュータ読み取り可能な媒体は、上記実施例に記載の電子機器に含まれるものであってもよく、該電子機器に組み込まれずに単独で存在してもよい。上記コンピュータ読み取り可能な媒体に1つ或いは複数のプログラムが載せられ、上記1つ或いは複数のプログラムは該電子機器によって実行されると、該電子機器に、原始画像を取得すること、原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、原始画像の攻撃特徴信号を出力すること、攻撃特徴信号の要素レベルの平均値を計算すること、及び要素レベルの平均値に基づいて、原始画像の生体検知結果を生成することを実行させる。
以上の説明は単に本願の好ましい実施例及び運用された技術的原理に対する説明にすぎない。当業者は、本願に関する発明の技術的範囲は、上記技術的特徴の特定な組み合わせによって構成された技術的手段に限定されないとともに、上記発明の技術的思想から逸脱しない限り、上記技術的特徴又はその均等特徴による任意の組み合わせからなる他の技術的手段に含まれることを理解すべきである。例えば上記特徴は、本開示の実施例に開示された(ただし、それらに限定されない)類似機能を有する技術的特徴と互いに置換えられる技術的手段である。

Claims (19)

  1. 生体を検知するための方法であって、
    原始画像を取得するステップと、
    前記原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、前記原始画像の攻撃特徴信号を出力するステップであって、前記攻撃特徴信号は、前記原始画像におけるターゲットが生体ではないことを示す特徴信号である、ステップと、
    前記攻撃特徴信号の要素ごとの平均値を計算するステップと、
    前記要素ごとの平均値に基づいて、前記原始画像の生体検知結果を生成するステップであって、前記生体検知結果は、前記原始画像における検知対象が生体であること、または前記原始画像における検知対象が生体ではないことである、ステップと、
    を含む生体を検知するための方法。
  2. 前記訓練済み攻撃特徴抽出ネットワークは、
    サンプルの原始画像と、前記サンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするためのサンプルのカテゴリラベルとが含まれる訓練サンプルを取得するステップと、
    前記訓練サンプルを利用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップと、によって取得する請求項1に記載の方法。
  3. 前記の前記訓練サンプルを利用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップは、
    前記サンプルの原始画像を利用して前記訓練待ちの攻撃特徴抽出ネットワークを訓練し、前記サンプルの原始画像のサンプル攻撃特徴信号と前記生体サンプルに対応するピクセルレベルL1損失とを取得するステップと、
    前記サンプル攻撃特徴信号を利用して前記訓練待ちの補助分類器ネットワークを訓練し、前記サンプルの原始画像のサンプルカテゴリとバイナリ分類損失とを取得するステップと、
    前記ピクセルレベルL1損失と前記バイナリ分類損失を踏まえ、前記訓練待ちの攻撃特徴抽出ネットワークと前記訓練待ちの補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップと、を含む請求項2に記載の方法。
  4. 前記の前記サンプルの原始画像を利用して前記訓練待ちの攻撃特徴抽出ネットワークを訓練し、前記サンプルの原始画像のサンプル攻撃特徴信号を取得するステップは、
    前記サンプルの原始画像を前記訓練待ちの攻撃特徴抽出ネットワークに入力し、前記サンプル攻撃特徴信号を出力するステップを含み、
    前記の前記サンプル攻撃特徴信号を利用して前記訓練待ちの補助分類器ネットワークを訓練して、前記サンプルの原始画像のサンプルカテゴリを取得するステップは、
    前記サンプル攻撃特徴信号を前記サンプルの原始画像に重畳し、サンプル重畳画像を取得するステップと、
    前記サンプル重畳画像を前記訓練待ちの補助分類器ネットワークに入力し、前記サンプルの原始画像のサンプルカテゴリを出力するステップと、を含む請求項3に記載の方法。
  5. 前記攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であり、
    前記の前記サンプルの原始画像を前記訓練待ちの攻撃特徴抽出ネットワークに入力し、前記サンプル攻撃特徴信号を出力するステップは、
    前記サンプルの原始画像を前記エンコーダに入力し、サンプル符号化画像を出力するステップと、
    前記サンプル符号化画像を前記デコーダに入力し、サンプル復号画像を出力するステップと、
    前記サンプル復号画像を正接活性化層に入力し、前記サンプル攻撃特徴信号を出力するステップと、を含む請求項4に記載の方法。
  6. 前記エンコーダは複数の符号化残差サブネットワークを含み、
    前記の前記サンプルの原始画像を前記エンコーダに入力し、サンプル符号化画像を出力するステップは、
    前記複数の符号化残差サブネットワークを利用して順次直列前記サンプルの原始画像をダウンサンプリングし、前記複数の符号化残差サブネットワークから出力された複数のサンプルダウンサンプリング符号化画像を取得し、最後の符号化残差サブネットワークから出力されたサンプルダウンサンプリング符号化画像は前記サンプル符号化画像であるステップと、を含む請求項5に記載の方法。
  7. 前記デコーダは複数の復号化残差サブネットワークを含み、
    前記の前記サンプル符号化画像を前記デコーダに入力し、サンプル復号画像を出力するステップは、
    前記複数の復号化残差サブネットワークを利用して前記サンプル符号化画像を順次直列デコードし、前記サンプル復号画像を取得するステップを含む請求項6に記載の方法。
  8. 前記の前記複数の復号化残差サブネットワークを利用して前記サンプル符号化画像を順次直列デコードするステップは、
    前記複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得するステップと、
    前記サンプルアップサンプリング復号画像を畳み込み、サンプル畳み込み復号画像を取得するステップと、
    前記サンプル畳み込み復号画像と前記現在の復号化残差サブネットワーク対称の符号化残差サブネットワークの出力を合併して、サンプル合併復号画像を取得するステップと、
    サンプル合併復号画像を前記現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、前記現在の復号化残差サブネットワークの出力を取得するステップと、を含む請求項7に記載の方法。
  9. 生体を検知するための装置であって、
    原始画像を取得するように構成される取得ユニットと、
    前記原始画像を訓練済み攻撃特徴抽出ネットワークに入力し、前記原始画像の攻撃特徴信号を出力するように構成される抽出ユニットであって、前記攻撃特徴信号は、前記原始画像における検知対象が生体ではないことを示す特徴信号である、抽出ユニットと、
    前記攻撃特徴信号の要素ごとの平均値を計算するように構成される計算ユニットと、
    前記要素ごとの平均値に基づいて、前記原始画像の生体検知結果を生成するように構成される生成ユニットであって、前記生体検知結果は、前記原始画像における検知対象が生体であること、または前記原始画像における検知対象が生体ではないことである、生成ユニットと、を備える生体を検知するための装置。
  10. 前記訓練済み攻撃特徴抽出ネットワークは、
    サンプルの原始画像と、前記サンプルの原始画像が生体サンプルまたは攻撃サンプルに該当することをマークするためのサンプルのカテゴリラベルとが含まれる訓練サンプルを取得するステップと、
    前記訓練サンプルを利用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップと、によって取得した請求項9に記載の装置。
  11. 前記の前記訓練サンプルを利用して訓練待ちの攻撃特徴抽出ネットワークと訓練待ちの補助分類器ネットワークとを同時に訓練し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップは、
    前記サンプルの原始画像を利用して前記訓練待ちの攻撃特徴抽出ネットワークを訓練し、前記サンプルの原始画像のサンプル攻撃特徴信号と前記生体サンプルに対応するピクセルレベルL1損失とを取得するステップと、
    前記サンプル攻撃特徴信号を利用して前記訓練待ちの補助分類器ネットワークを訓練し、前記サンプルの原始画像のサンプルカテゴリとバイナリ分類損失とを取得するステップと、
    前記ピクセルレベルL1損失と前記バイナリ分類損失とを踏まえ、前記訓練待ちの攻撃特徴抽出ネットワークと前記訓練待ちの補助分類器ネットワークのパラメータとを、ネットワークが収束するまで更新し、前記訓練済み攻撃特徴抽出ネットワークを取得するステップと、を含む請求項10に記載の装置。
  12. 前記の前記サンプルの原始画像を利用して前記訓練待ちの攻撃特徴抽出ネットワークを訓練し、前記サンプルの原始画像のサンプル攻撃特徴信号を取得するステップは、
    前記サンプルの原始画像を前記訓練待ちの攻撃特徴抽出ネットワークに入力し、前記サンプル攻撃特徴信号を出力するステップを含み、
    前記の前記サンプル攻撃特徴信号を利用して前記訓練待ちの補助分類器ネットワークを訓練し、前記サンプルの原始画像のサンプルカテゴリを取得するステップは、
    前記サンプル攻撃特徴信号を前記サンプルの原始画像に重畳し、サンプル重畳画像を取得するステップと、
    前記サンプル重畳画像を前記訓練待ちの補助分類器ネットワークに入力し、前記サンプルの原始画像のサンプルカテゴリを出力するステップと、を含む請求項11に記載の装置。
  13. 前記攻撃特徴抽出ネットワークはエンコーダ-デコーダ構造であり、
    前記の前記サンプルの原始画像を前記訓練待ちの攻撃特徴抽出ネットワークに入力し、前記サンプル攻撃特徴信号を出力するステップは、
    前記サンプルの原始画像を前記エンコーダに入力し、サンプル符号化画像を出力するステップと、
    前記サンプル符号化画像を前記デコーダに入力し、サンプル復号画像を出力するステップと、
    前記サンプル復号画像を正接活性化層に入力し、前記サンプル攻撃特徴信号を出力するステップと、を含む請求項12に記載の装置。
  14. 前記エンコーダは複数の符号化残差サブネットワークを含み、
    前記の前記サンプルの原始画像を前記エンコーダに入力し、サンプル符号化画像を出力するステップは、
    前記複数の符号化残差サブネットワークを利用して前記サンプルの原始画像を順次直列ダウンサンプリングし、前記複数の符号化残差サブネットワークから出力された複数のサンプルダウンサンプリング符号化画像を取得するステップを含み、最後の符号化残差サブネットワークから出力されたサンプルダウンサンプリング符号化画像は前記サンプル符号化画像である請求項13に記載の装置。
  15. 前記デコーダは複数の復号化残差サブネットワークを含み、
    前記の前記サンプル符号化画像を前記デコーダに入力して、サンプル復号画像を出力するステップは、
    前記複数の復号化残差サブネットワークを利用して前記サンプル符号化画像を順次直列デコードし、前記サンプル復号画像を取得するステップを含む請求項14に記載の装置。
  16. 前記の前記複数の復号化残差サブネットワークを利用して前記サンプル符号化画像を順次直列デコードするステップは、
    前記複数の復号化残差サブネットワークにおける現在復号化残差ネットワークに対して、最近傍補間を使用して現在の復号化残差サブネットワークの入力をアップサンプリングし、サンプルアップサンプリング復号画像を取得するステップと、
    前記サンプルアップサンプリング復号画像を畳み込み、サンプル畳み込み復号画像を取得するステップと、
    前記サンプル畳み込み復号画像と前記現在の復号化残差サブネットワーク対称な符号化残差サブネットワークの出力を合併し、サンプル合併復号画像を取得するステップと、
    サンプル合併復号画像を前記現在の復号化残差サブネットワークにおける符号化残差サブネットワークに入力し、前記現在の復号化残差サブネットワークの出力を取得するステップと、を含む請求項15に記載の装置。
  17. 電子機器であって、
    1つまたは複数のプロセッサと、
    1つまたは複数のプログラムが記憶された記憶装置と、を備え、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1-8のいずれかに記載の方法を実現させる電子機器。
  18. コンピュータ読み取り可能な媒体であって、コンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサによって実行されると請求項1-8のいずれかに記載の方法を実現させるコンピュータ読み取り可能な媒体。
  19. コンピュータプログラムであって、
    プロセッサによって実行されると請求項1-8のいずれかに記載の方法を実現させるコンピュータプログラム。
JP2021028352A 2020-04-17 2021-02-25 生体を検知するための方法及び装置 Active JP7191139B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010304904.9A CN111507262B (zh) 2020-04-17 2020-04-17 用于检测活体的方法和装置
CN202010304904.9 2020-04-17

Publications (2)

Publication Number Publication Date
JP2021174529A JP2021174529A (ja) 2021-11-01
JP7191139B2 true JP7191139B2 (ja) 2022-12-16

Family

ID=71864096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021028352A Active JP7191139B2 (ja) 2020-04-17 2021-02-25 生体を検知するための方法及び装置

Country Status (5)

Country Link
US (1) US20210326617A1 (ja)
EP (1) EP3896605A1 (ja)
JP (1) JP7191139B2 (ja)
KR (1) KR102606734B1 (ja)
CN (1) CN111507262B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132832B (zh) * 2020-08-21 2021-09-28 苏州浪潮智能科技有限公司 一种增强图像实例分割的方法、系统、设备及介质
US11895330B2 (en) * 2021-01-25 2024-02-06 Lemon Inc. Neural network-based video compression with bit allocation
CN113705425B (zh) * 2021-08-25 2022-08-16 北京百度网讯科技有限公司 活体检测模型的训练方法和活体检测的方法、装置、设备
WO2023154606A1 (en) * 2022-02-14 2023-08-17 Qualcomm Incorporated Adaptive personalization for anti-spoofing protection in biometric authentication systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171094A (ja) 2007-01-09 2008-07-24 Silex Technology Inc 生体認証装置及び生体認証プログラム
WO2011114520A1 (ja) 2010-03-19 2011-09-22 富士通株式会社 識別装置、識別方法、及びプログラム
WO2015122183A1 (ja) 2014-02-12 2015-08-20 日本電気株式会社 情報処理装置、情報処理方法及びプログラム記憶媒体
CN106599872A (zh) 2016-12-23 2017-04-26 北京旷视科技有限公司 用于验证活体人脸图像的方法和设备
CN108875333A (zh) 2017-09-22 2018-11-23 北京旷视科技有限公司 终端解锁方法、终端和计算机可读存储介质
WO2019163066A1 (ja) 2018-02-22 2019-08-29 日本電気株式会社 なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1629651A1 (en) * 2003-05-30 2006-03-01 International Business Machines Corporation Detecting network attacks
KR101064945B1 (ko) * 2008-11-25 2011-09-15 한국전자통신연구원 적외선 영상을 이용한 위조 얼굴 검출 방법 및 그 장치
CN104143078B (zh) * 2013-05-09 2016-08-24 腾讯科技(深圳)有限公司 活体人脸识别方法、装置和设备
US9231965B1 (en) * 2014-07-23 2016-01-05 Cisco Technology, Inc. Traffic segregation in DDoS attack architecture
CN107111755B (zh) * 2015-01-13 2020-07-03 摩福公司 基于活跃度评价的视频假冒检测方法和系统
US10990808B2 (en) * 2016-02-09 2021-04-27 Aware, Inc. Face liveness detection using background/foreground motion analysis
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10157323B2 (en) * 2016-08-30 2018-12-18 Qualcomm Incorporated Device to provide a spoofing or no spoofing indication
US10902244B2 (en) * 2017-03-27 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10679083B2 (en) * 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN108875467B (zh) * 2017-06-05 2020-12-25 北京旷视科技有限公司 活体检测的方法、装置及计算机存储介质
CN107358157B (zh) * 2017-06-07 2020-10-02 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
CN107622240B (zh) * 2017-09-21 2023-10-13 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN107644209A (zh) * 2017-09-21 2018-01-30 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN107491771A (zh) * 2017-09-21 2017-12-19 百度在线网络技术(北京)有限公司 人脸检测方法和装置
US11580775B2 (en) * 2017-10-18 2023-02-14 Fingerprint Cards Anacatum Ip Ab Differentiating between live and spoof fingers in fingerprint analysis by machine learning
CN107818313B (zh) * 2017-11-20 2019-05-14 腾讯科技(深圳)有限公司 活体识别方法、装置和存储介质
KR102455633B1 (ko) * 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치
US11023757B2 (en) * 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
CN108537152B (zh) * 2018-03-27 2022-01-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108416324B (zh) * 2018-03-27 2022-02-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
US20190347786A1 (en) * 2018-05-08 2019-11-14 Pixart Imaging Inc. Method, apparatus, and electronic device having living body detection capability
US10769261B2 (en) * 2018-05-09 2020-09-08 Futurewei Technologies, Inc. User image verification
CN108875688B (zh) * 2018-06-28 2022-06-10 北京旷视科技有限公司 一种活体检测方法、装置、系统及存储介质
KR101975186B1 (ko) * 2018-07-04 2019-05-07 광운대학교 산학협력단 객체 검출을 위한 생성적 적대 신경망 기반의 데이터 생성 장치 및 방법
US10733292B2 (en) * 2018-07-10 2020-08-04 International Business Machines Corporation Defending against model inversion attacks on neural networks
CN110889312B (zh) * 2018-09-07 2022-09-02 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备、计算机可读存储介质
US11273841B2 (en) * 2018-09-20 2022-03-15 Toyota Research Institute, Inc. Method and apparatus for spoofing prevention
KR102140340B1 (ko) * 2018-10-18 2020-07-31 엔에이치엔 주식회사 컨볼루션 뉴럴 네트워크를 통해 이미지 위변조를 탐지하는 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법
GB2579583B (en) * 2018-12-04 2021-01-06 Yoti Holding Ltd Anti-spoofing
US11657525B2 (en) * 2018-12-04 2023-05-23 Yoti Holding Limited Extracting information from images
CN109815797B (zh) * 2018-12-17 2022-04-19 苏州飞搜科技有限公司 活体检测方法和装置
EP3674934A1 (en) * 2018-12-26 2020-07-01 Thales Dis France SA Biometric acquisition system and method
EP3674973A1 (en) * 2018-12-28 2020-07-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection and object recognition
CN111444744A (zh) * 2018-12-29 2020-07-24 北京市商汤科技开发有限公司 活体检测方法、装置以及存储介质
US10970574B2 (en) * 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质
US11568168B2 (en) * 2019-04-08 2023-01-31 Shutterstock, Inc. Generating synthetic photo-realistic images
US11164021B2 (en) * 2019-05-16 2021-11-02 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for discriminating and generating translated images
CN110633647A (zh) * 2019-08-21 2019-12-31 阿里巴巴集团控股有限公司 活体检测方法及装置
CN110717522A (zh) * 2019-09-18 2020-01-21 平安科技(深圳)有限公司 图像分类网络的对抗防御方法及相关装置
CN110688950B (zh) * 2019-09-26 2022-02-11 杭州艾芯智能科技有限公司 基于深度信息的人脸活体检测方法、装置
CN110781776B (zh) * 2019-10-10 2022-07-05 湖北工业大学 一种基于预测和残差细化网络的道路提取方法
US11348375B2 (en) * 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) * 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
CN110691100B (zh) * 2019-10-28 2021-07-06 中国科学技术大学 基于深度学习的分层网络攻击识别与未知攻击检测方法
KR20210062381A (ko) * 2019-11-21 2021-05-31 삼성전자주식회사 라이브니스 검사 방법 및 장치, 생체 인증 방법 및 장치
KR20210069404A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
US20230222842A1 (en) * 2019-12-05 2023-07-13 Aware, Inc. Improved face liveness detection using background/foreground motion analysis
US11232284B2 (en) * 2019-12-27 2022-01-25 Omnivision Technologies, Inc. Techniques for robust anti-spoofing in biometrics using polarization cues for NIR and visible wavelength band
CN111241989B (zh) * 2020-01-08 2023-06-13 腾讯科技(深圳)有限公司 图像识别方法及装置、电子设备
US11670069B2 (en) * 2020-02-06 2023-06-06 ID R&D, Inc. System and method for face spoofing attack detection
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
CN111582381B (zh) * 2020-05-09 2024-03-26 北京市商汤科技开发有限公司 确定性能参数的方法及装置、电子设备和存储介质
CN111539389B (zh) * 2020-06-22 2020-10-27 腾讯科技(深圳)有限公司 人脸防伪识别方法、装置、设备及存储介质
KR20220082454A (ko) * 2020-12-10 2022-06-17 삼성전자주식회사 생체 정보의 도용 여부를 검출하는 방법 및 장치
US20220318354A1 (en) * 2021-03-31 2022-10-06 Samsung Electronics Co., Ltd. Anti-spoofing method and apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171094A (ja) 2007-01-09 2008-07-24 Silex Technology Inc 生体認証装置及び生体認証プログラム
WO2011114520A1 (ja) 2010-03-19 2011-09-22 富士通株式会社 識別装置、識別方法、及びプログラム
WO2015122183A1 (ja) 2014-02-12 2015-08-20 日本電気株式会社 情報処理装置、情報処理方法及びプログラム記憶媒体
CN106599872A (zh) 2016-12-23 2017-04-26 北京旷视科技有限公司 用于验证活体人脸图像的方法和设备
CN108875333A (zh) 2017-09-22 2018-11-23 北京旷视科技有限公司 终端解锁方法、终端和计算机可读存储介质
WO2019163066A1 (ja) 2018-02-22 2019-08-29 日本電気株式会社 なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Amin Jourabloo, 外2名,"Face De-Spoofing: Anti-Spoofing via Noise Modeling",Computer Vision and Pattern Recognition[online],2018年07月26日,[令和4年6月27日検索], インターネット<URL:https://arxiv.org/pdf/1807.09968.pdf>
Zezheng Wang, 外6名,"Exploiting temporal and depth information for multi-frame face anti-spoofing",Computer Vision and Pattern Recognition[online],2019年03月05日,[令和4年6月27日検索], インターネット<URL:https://arxiv.org/pdf/1811.05118.pdf>

Also Published As

Publication number Publication date
CN111507262B (zh) 2023-12-08
KR20210037632A (ko) 2021-04-06
CN111507262A (zh) 2020-08-07
US20210326617A1 (en) 2021-10-21
EP3896605A1 (en) 2021-10-20
JP2021174529A (ja) 2021-11-01
KR102606734B1 (ko) 2023-11-29

Similar Documents

Publication Publication Date Title
JP7191139B2 (ja) 生体を検知するための方法及び装置
CN108509915B (zh) 人脸识别模型的生成方法和装置
CN108710885B (zh) 目标对象的检测方法和装置
CN112465828B (zh) 一种图像语义分割方法、装置、电子设备及存储介质
US20230021661A1 (en) Forgery detection of face image
CN113033465B (zh) 活体检测模型训练方法、装置、设备以及存储介质
CN110443222B (zh) 用于训练脸部关键点检测模型的方法和装置
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
CN111931732B (zh) 压缩视频的显著性目标检测方法、系统、设备及存储介质
CN112561937A (zh) 基于病变边界信息响应的上下文感知医学图像分割方法
CN112348838B (zh) 用于图像分析的方法和系统
JP2023507248A (ja) 物体検出および認識のためのシステムおよび方法
CN111767750A (zh) 图像处理方法和装置
US11195024B1 (en) Context-aware action recognition by dual attention networks
US11321848B2 (en) Method and apparatus with video segmentation
CN113177449A (zh) 人脸识别的方法、装置、计算机设备及存储介质
CN111950251A (zh) 测量给定ai任务的数据集的相似性的方法
CN113239799B (zh) 训练方法、识别方法、装置、电子设备和可读存储介质
CN114140831A (zh) 人体姿态估计方法、装置、电子设备及存储介质
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN111325068B (zh) 基于卷积神经网络的视频描述方法及装置
CN112070022A (zh) 人脸图像识别方法、装置、电子设备和计算机可读介质
CN115910220B (zh) 一种基于量子计算机的蛋白质氨基酸性质的编码方法及系统
CN113283376B (zh) 人脸活体检测方法、人脸活体检测装置、介质及设备
CN114283472A (zh) 一种基于光流估计的人脸图像美颜检测方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150