JP2022141940A - 顔生体検出方法、装置、電子機器及び記憶媒体 - Google Patents

顔生体検出方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2022141940A
JP2022141940A JP2022120125A JP2022120125A JP2022141940A JP 2022141940 A JP2022141940 A JP 2022141940A JP 2022120125 A JP2022120125 A JP 2022120125A JP 2022120125 A JP2022120125 A JP 2022120125A JP 2022141940 A JP2022141940 A JP 2022141940A
Authority
JP
Japan
Prior art keywords
detection
face
model
image
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022120125A
Other languages
English (en)
Other versions
JP7414902B2 (ja
Inventor
ケヤオ ワン,
Keyao Wang
コンイ リュウ,
Congyi Liu
グォシェン チャン,
Guosheng Zhang
ジエ ルー,
Jie Lu
ゼビン ファン,
Zebin Huang
チャオファン ゾウ,
Zhaofan Zou
ハイシャオ ユエ,
Haixiao Yue
ハオチェン フェン,
Haocheng Feng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022141940A publication Critical patent/JP2022141940A/ja
Application granted granted Critical
Publication of JP7414902B2 publication Critical patent/JP7414902B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】顔生体検出の精度と汎化性を向上させる顔生体検出方法、装置、電子機器及び記憶媒体を提供する。【解決手段】方法は、顔が含まれる検出対象のソース画像を取得し、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出し、生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得し、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定する。【選択図】図1

Description

本開示は、画像処理技術の分野に関し、具体的にはコンピュータビジョンと深層学習などの人工知能技術の分野に関する
顔生体検出は、顔検出分野の基礎技術の1つであり、セキュリティ対策、勤務評定、金融、入退室管理などの多くのシーンに応用されている。顔生体検出は、1枚の画像が実写撮影であるか否かを区別するものであり、顔認識システムの安全性を確保するための基礎である。
本開示は、顔生体検出方法、装置、電子機器及び記憶媒体を提供する。
本開示の第1の態様によれば、顔が含まれる検出対象のソース画像を取得するステップと、前記ソース画像に基づいて、各検出モデルの検出画像を取得するステップであって、前記検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、前記因子検出サブモデルが生体検出の1つの攻撃防止因子を検出するステップと、前記生体検出メインモデルの第1の検出確率と前記因子検出サブモデルの第2の検出確率とを取得するステップと、前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するステップと、を含む顔生体検出方法を提供する。
本開示の第2の態様によれば、顔が含まれる検出対象のソース画像を取得するための第1の取得モジュールと、前記ソース画像に基づいて、各検出モデルの検出画像を取得するための第2の取得モジュールであって、前記検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、前記因子検出サブモデルが生体検出の1つの攻撃防止因子を検出する第2の取得モジュールと、前記生体検出メインモデルの第1の検出確率と前記因子検出サブモデルの第2の検出確率とを取得するための第3の取得モジュールと、前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するための決定モジュールと、を備える顔生体検出装置を提供する。
本開示の第3の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが上記の一態様の実施例に記載の顔生体検出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本開示の第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに上記の一態様に記載の顔生体検出方法を実行させる。
本開示の第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムはプロセッサによって実行される場合、上記一態様の実施例に記載の顔生体検出方法が実現される。
なお、この部分に記載されている内容は、本開示の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本開示の実施例によって提供される顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される顔生体検出方法のT字形領域画像の概略図である。 本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。 本開示の実施例によって提供される顔生体検出方法全体の概略フローチャートである。 本開示の実施例によって提供される顔生体検出装置の概略構成図である。 本開示の実施例に係る顔生体検出方法の電子機器のブロック図である。
以下、図面と併せて本開示の例示的な実施例を説明し、理解を容易にするためにその中には本開示の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なすべきである。したがって、当業者は、本開示の範囲及び精神から逸脱しない限り、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、図面を参照しながら、本開示の実施例に係る顔生体検出方法、装置、電子機器を説明する。
人工知能(Artificial Intelligence,AIと省略する)とは、コンピュータに人間のある思考過程や知能行為(学習、推理、思考、計画など)をシミュレーションさせることを研究する科学であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能ハードウェア技術は一般的に、コンピュータビジョン技術、音声認識技術、及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの面を含む。
深層学習(Deep Learning、DL)は、機械学習(Machine Learning、ML)の分野における新たな研究方向であり、機械学習に導入されて最初の目標―人工知能にさらに近づく。深層学習はサンプルデータの内的な法則と表現レベルを学習するものであり、これらの学習過程で得られた情報は文字、画像、及び音声などのデータの解釈に大きく役立つ。これの最終的な目標は、機械が人間のように分析学習能力を持ち、文字、画像、及び音声などのデータを認識できるようにすることである。深層学習は複雑な機械学習アルゴリズムであり、音声と画像認識の効果は、以前の関連技術をはるかに超える。
コンピュータビジョンは、どのように機械を「見る」ようにすることを研究する科学であり、さらに言えば、人間の目の代わりにカメラとコンピュータで対象物を認識、追跡及び測定するなどの機械ビジョンを行い、さらにグラフィックス処理を行って、コンピュータに、より人間の目で観察したり、検出のために機器に転送したりすることに適した画像に処理させる。科学学科として、コンピュータビジョンは、関連する理論や技術を研究し、画像や多次元データから「情報」を取得できる人工知能システムを構築しようとしており、「決定」という情報を作成することに役立つことができる。感知が感覚信号から情報を抽出すると見なすことができるため、コンピュータビジョンは人工システムに画像や多次元データからどのように「感知」させるかを研究する科学と見なすこともできる。
画像処理(image processing)技術とは、コンピュータで画像を分析して、所望の結果を得ることである。映像処理とも呼ばれる。画像処理とは、一般的にはデジタル画像処理を指す。デジタル画像とは、工業用カメラ、ビデオカメラ、スキャナなどのデバイスで撮影された大きな2次元配列を指し、この配列の要素はピクセルと呼ばれ、その値は階調値と呼ばれる。画像処理技術は一般的に、画像圧縮と、拡張および回復と、マッチング、記述および認識との3つ部分を含む。
本開示の実施例によって提供される顔生体検出方法は、電子機器によって実行されることができ、当該電子機器は、パーソナルコンピュータ(Personal Computer、PC)、タブレット、パームトップ、または携帯電話などであってもよく、ここでは限定されない。
本開示の実施例では、電子機器には、処理コンポーネント、記憶コンポーネント、および駆動コンポーネントが配置できる。選択的に、当該駆動コンポーネントおよび処理コンポーネントは、統合して設定することができ、当該処理コンポーネントは、オペレーティングシステム、アプリケーションプログラムまたは他のプログラムモジュールを記憶することができ、当該処理コンポーネントは、記憶コンポーネントに記憶されているアプリケーションプログラムを実行することによって、本開示の実施例によって提供される顔生体検出方法を実現することができる。
なお、本開示の実施例によって提供される顔生体検出方法は、顔認識機能を有するアプリケーションプログラム(Application,APP)に適用してもよいし、専用のビデオAPPに適用してもよく、ここでは限定されない。また、上記の顔認識機能を有するAPPは、いずれも電子機器(例えば、携帯電話、タブレットなど)にインストールすることができる。
図1は、本開示の実施例によって提供される顔生体検出方法の概略フローチャートである。
本開示の実施例の顔生体検出方法は、本開示の実施例によって提供される顔生体検出装置によって実行されてもよく、当該装置は、顔が含まれる検出対象のソース画像を取得し、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出し、生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得し、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定することを実現するとうに、電子機器に配置されてもよい。本開示では、生体検出メインモデルと少なくとも1つの因子検出サブモデルとが設定されるため、多次元から顔画像に対して生体検出を行うことが可能であり、顔生体検出の汎用性及び精度を向上させることができる。
1つの可能な状況として、本開示の実施例の顔生体検出方法は、サーバで実行されてもよく、当該サーバは、クラウドサーバであってもよく、クラウドで当該顔生体検出方法を実行することができる。
図1に示すように、当該顔生体検出方法は、以下のステップ101~104を含むことができる。
ステップ101において、顔が含まれる検出対象のソース画像を取得する。
なお、本開示の実施例に記載のソース画像は、赤緑青(Red Green Blue、RGB)画像である。
本開示の実施例では、顔が含まれる検出対象のソース画像を取得する方法はたくさんあってもよく、ここで、収集装置(例えば、周辺カメラ)によってリアルタイムで撮影して顔が含まれるソース画像を取得し、通信接続で電子機器に送信することができる。なお、当該通信接続は、無線ネットワーク接続と有線ネットワーク接続とのうちの少なくとも1つであってもよい。
別の可能な状況として、ユーザの選択操作に基づいて画像ライブラリから顔が含まれる画像をソース画像として選択し、ソース画像を電子機器に入力することもできる。
ステップ102において、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出する。
なお、当該実施例で記載された検出モデルは、呼び出しと使用を容易にするために、予めトレーニングされ、電子機器の記憶空間に予め記憶されてもよい。この記憶空間は、ハードディスクなどの物理ベースの記憶空間に限らず、上記記憶空間は、電子機器に接続されたネットワークハードディスクの記憶空間(クラウド記憶空間)であってもよい。
選択的に、当該検出モデルのトレーニングと生成は、いずれも関連するトレーニングサーバによって実行されてもよく、当該トレーニングサーバは、クラウドサーバであってもよいし、コンピュータのホストであってもよく、当該トレーニングサーバは、本開示の実施例によって提供される顔生体検出方法を実行可能な電子機器との間に通信接続が確立されてもよく、当該通信接続は無線ネットワーク接続と有線ネットワーク接続との少なくとも1つであってもよい。当該トレーニングサーバは、電子機器が必要に応じて呼び出すことを容易にするために、トレーニングされた検出モデルを電子機器に送信することができ、これによって当該電子機器の計算負担を大幅に低減させる。
本開示の実施例では、因子検出サブモデルは、様々な種類があってもよく、例えば、画面因子検出サブモデル、マスク因子検出サブモデル、T字形因子検出サブモデル、面部器官因子検出サブモデルなどである。本開示の生体検出メインモデルと因子検出サブモデルは1つの生体検出システムとして形成することができ、実際の状況に応じて、当該生体検出システムに1つまたは複数の因子検出サブモデルを構成して、補助的な生体検出を行うことができる。
選択的に、当該実施例で記載された各検出モデルに対応する検出画像は異なる顔領域画像であってもよく、例えば、面部器官因子検出サブモデルに対応する検出画像は面部器官画像であってもよく、T字形因子検出サブモデルの検出画像は顔画像における目と鼻の領域を抽出して生成されたT字形領域画像であってもよく、面部器官因子検出サブモデルの検出画像は面部器官画像であってもよい。
選択的に、本開示の実施例では、顔のソース画像を検出画像生成モデルに入力して、各検出モデルの検出画像を取得することができる。
選択的に、電子機器は、顔のソース画像を取得した後、ソース画像を検出画像生成モデルに入力し、検出画像生成モデルによってソース画像に対して処理(抽出)を行って、当該検出画像生成モデルが少なくとも2つの検出画像、すなわち生体検出メインモデルと少なくとも1つの因子検出サブモデルとの検出画像を出力するようにすることができる。
なお、本実施例で記載された検出画像生成モデルは、呼び出しと使用を容易にするために、予めトレーニングされ、電子機器の記憶空間に予め記憶されてもよい。
選択的に、検出画像生成ツール(例えば、プラグイン)を使用して、ソース画像を前処理して検出画像を取得することもできる。
ステップ103において、生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得する。
本開示の実施例では、電子機器は、各検出モデルの検出画像を取得した後、対応する検出画像をそれぞれ生体検出メインモデルと少なくとも1つの因子検出サブモデルに入力して、第1の検出確率と少なくとも1つの第2の検出確率とを取得することができる。なお、第1の検出確率は、顔が生体であることを生体検出メインモデルによって検出する可能性を表し、第2の検出確率は、顔が生体であることを因子検出サブモデルによって検出する可能性を表す。
なお、上記第1の検出確率と第2の検出確率は、いずれも0より大きく1より小さい数である。
ステップ104において、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定する。
本開示の実施例では、第1の検出確率と第2の検出確率を生体検出結果アルゴリズムに入力して計算し、生体検出確率を生成することができる。
さらに、生体検出確率を合格閾値と比較することができ、生体検出確率が合格閾値より大きい場合、入力画像が生体画像の入力であり、対応する生体検出結果が生体検出に合格したと考えられ、生体検出確率が合格閾値より小さい場合、入力画像が非生体画像の入力であり、対応する生体検出結果が生体検出に失敗したと考えられる。
なお、当該実施例で記載された合格閾値は、0より大きく1より小さい数であり、実際の状況に応じて設定することができる。
選択的に、上記実施例で記載された生体検出結果アルゴリズムは、呼び出しと使用を容易にするために、予め編集され、電子機器の記憶空間に予め記憶されてもよい。
本開示の実施例では、まず顔が含まれる検出対象のソース画像を取得し、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出し、その後に生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得し、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定する。生体検出メインモデルと協働するように少なくとも1つの因子検出サブモデルを追加することにより、生体検出の次元を増加させ、生体検出方法の性能を向上させることができ、これにより、顔生体検出の精度と汎化性を向上させることができる。
上記実施例では、ソース画像に基づいて、各検出モデルの検出画像を取得することは、図2と組み合わせてさらに理解することができ、図2は、本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。図2に示すように、当該方法は以下のステップ201~202を含む。
ステップ201において、ソース画像に対して顔検出を行って、ソース画像から顔画像を切り取る。
本開示の実施例では、電子機器は、ソース画像を取得した後、ソース画像を顔検出モデルに入力し、当該顔検出モデルによってソース画像における顔の位置を検出して、ソース画像から顔画像を切り取ることができる。
なお、上記実施例に記載された顔検出モデルは、呼び出しと使用を容易にするために、予めトレーニングされ、電子機器の記憶空間に予め記憶されてもよい。ここで、この記憶空間は、ハードディスクなどの物理ベースの記憶空間に限らず、上記記憶空間は、電子機器に接続されたネットワークハードディスクの記憶空間(クラウド記憶空間)であってもよい。
選択的に、電子機器は、ソース画像を取得した後、ソース画像を処理して複数の顔座標キーポイントを取得し、これらのキーポイントにより、顔器官位置と顔輪郭を決定し、顔座標キーポイントにより顔画像を切り取ることができる。
ステップ202において、各検出モデルごとに、顔画像に対して検出モデルに一致する画像処理操作を行って、検出モデルの検出画像を生成する。
本開示の実施例では、まずソース画像に対して顔検出を行って、ソース画像から顔画像を切り取り、その後に検出モデルごとに、顔画像に対して検出モデルに一致する画像処理操作を行って、検出モデルの検出画像を生成する。なお、各検出モデルの検出画像は異なる画像であってもよい。
具体的には、検出モデルが生体検出メインモデルまたは画面因子検出サブモデルであることに応答して、生体検出メインモデルまたは画面因子検出サブモデルの検出画像として、顔画像を第1の設定値に拡大する。画面因子検出モデルは、検出画像の背景に枠および/または反射光があるか否かを検出する。
なお、画面因子検出サブモデルは、主に電子画面攻撃を対象とする。電子画面攻撃はよくある攻撃方式であり、例えば、携帯電話の写真攻撃、パソコン画面の写真攻撃、ハンドヘルドの写真攻撃、高精細画面の写真攻撃などであり、電子画面攻撃方式は豊富で入手が容易であり、電子画面の多くは枠および/または反射光がある。
選択的に、生体検出メインモデルまたは画面因子検出サブモデルの第1の設定値は3であってもよく、すなわち、顔画像を3倍に拡大し、拡大された顔画像のサイズを224×224に調整し、生体検出メインモデルまたは画面因子検出サブモデルの検出画像とする。
選択的に、電子機器は、顔検出枠を決定した後、この顔検出枠を3倍に拡大してから顔画像を切り取ることができ、切り取られたRGB顔画像に対して画像正規化処理を行うことができる。なお、画像正規化処理は、画像の各ピクセルを順次正規化処理することである。例えば、正規化処理の方法は、各ピクセルのピクセル値から128を引いて256で除算し、各ピクセルのピクセル値を[-0.5、0.5]の間にすることであってもよい。正規化処理された画像に対してランダムデータ拡張処理を行い、生体検出メインモデルと画面因子検出サブモデルの入力とする。
さらに、生体検出メインモデルと画面因子検出サブモデルは、入力画像を受信した後、特徴抽出ネットワークを介してMobileNet(モバイル端末深層学習ネットワーク)を畳み込みニューラルネットワークのbackbone(ニューラルネットワークアプリケーションフレームワーク)として使用し、最終的に全接続層とSoftmax(正規化)層を介して画像分類を行い、画面因子の生体検出分類を完了させ、対応する第1の検出確率と少なくとも1つの第2の検出確率を取得することができる。
別の可能な状況として、検出モデルがマスク因子検出サブモデルであることに応答して、マスク因子検出サブモデルの検出画像として、顔画像を第2の設定値に拡大する。マスク因子検出モデルは、検出画像がトリミングされた2D(two-dimens、2次元)マスクであるか否かを検出し、2Dマスクが攻撃に使用される顔を含む。
なお、マスク因子検出サブモデルは、主に2Dマスク攻撃を対象とする。2Dマスク攻撃は、実際の顔の大きさの印刷用紙または印刷された写真でトリミングして作成され、髪と顔の縁に沿って顔の大きさに合うようにトリミングし、目、鼻、口の領域をトリミングし、実在の人間がこの2Dマスクを着用した時に五官が正常に露出し、生体を正常に動かすことができる。2Dマスクの攻撃方式もよくあり、顔によくフィットし、区別が困難である。
選択的に、本開示の実施例では、第2の設定値は1.5であってもよく、すなわち顔画像を1.5倍に拡大して、マスク因子検出サブモデルの検出画像を取得する。
例えば、電子機器は、72個の顔座標キーポイントが含まれる顔画像を取得した後、この顔枠を1.5倍に拡大してから顔画像を切り取り、サイズ224×224に調整することができる。
さらに、マスク因子検出サブモデルが検出画像を受信した後、電子機器は、特徴抽出ネットワークを介してMobileNetを畳み込みニューラルネットワークのbackboneとして使用し、最終的に全接続層とSoftmax層を介して画像分類を行い、画面因子の生体検出分類を完了させ、対応する第1の検出確率と少なくとも1つの第2の検出確率を取得することができる。
別の可能な状況として、検出モデルがT字形因子検出サブモデルであることに応答して、顔画像から目と鼻の領域を抽出してT字形領域画像を生成し、T字形因子検出サブモデルの検出画像とする。T字形因子検出サブモデルは、検出画像がトリミングされたT字形マスクであるか否かを検出し、T字形マスクが目と鼻のみを含む。
なお、T字形因子検出サブモデルは、主にT字形攻撃を対象とする。T字形攻撃は、新しい攻撃方式であり、具体的な攻撃方式は、1枚の印刷用紙を両目と鼻のみを残したT字形マスクにトリミングし、それを眼鏡に貼り付けて攻撃することであり、RGBサイレント生体しか使われていない多くの携帯電話の画面ロックを突破することができる。
選択的に、T字形領域画像は、鼻の中心キーポイントを中心とするトリミングされた領域であってもよい。図3に示すように、電子機器は、72個の顔座標キーポイントが含まれる顔画像を取得した後、鼻の中心キーポイントを中心として鼻領域をトリミングし、電子機器によって、得られたトリミング画像をサイズ128x128にすることができる。
さらに、T字形因子検出サブモデルは、T字形領域画像を受信した後、特徴抽出ネットワークを介してMobileNetを畳み込みニューラルネットワークのbackboneとして使用し、最終的に全接続層とSoftmax層を介して画像分類を行い、画面因子の生体検出分類を完了させ、対応する第1の検出確率と少なくとも1つの第2の検出確率を取得する。
別の可能な状況として、検出モデルが面部器官因子検出サブモデルであることに応答して、面部器官因子検出サブモデルの検出画像として、顔画像から面部器官画像を取得する。面部器官因子検出サブモデルは、検出画像を検出して、面部器官であるか否かを決定する。
なお、上記実施例で記載された面部器官因子検出サブモデルは、面部器官攻撃に対して生体検出を行い、面部器官は眼鏡、口、鼻などを含むことができる。
選択的に、面部器官画像を取得するには、72個の顔キーポイント座標を特定することで取得することができる。例えば、目の面部器官画像を取得することは以下の通りであってもよい。電子機器が72個の顔キーポイント座標を取得した後、両目領域画像を切り取り、顔キーポイントに基づいて左目の左目角座標(x,y)と右目の目角座標(x,y)を見つけて目角の距離Lと目の中心点Cを求め、アフィン変換行列Mを求め、アフィン変換に基づいて、元の画像を、両眼を含む120×40サイズの画像、すなわち、両眼画像にアフィン変換する。
さらに、面部器官因子検出サブモデルは、面部器官画像を受信した後、得られた面部器官画像を5層の畳み込み+3層の最大プール化+1層の全接続層の畳み込みニューラルネットワークに送信して二項分類生体トレーニングを行い、面部器官因子検出サブモデルの生体検出分類を完了させる。
これにより、異なる検出モデルに対して、当該検出モデルに一致する検出画像を生成し、検出モデルが異なる検出次元または部分に対して異なる検出画像を入力することができ、複数の次元から顔生体検出を行うことができ、顔生体検出の精度と汎化性を大幅に向上させることができる。
上記実施例では、ソース画像から顔画像を切り取ることについて、図4と組み合わせてさらに理解することができ、図4は、本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。図4に示すように、当該方法は以下のステップ401~403を含む。
ステップ401において、ソース画像から顔の領域を決定する。
本開示の実施例では、電子機器はソース画像を取得した後、ソース画像を顔検出モデルに入力して処理し(位置決め)、顔の略位置領域を取得することができる。
選択的に、電子機器は、顔輪郭検出ソフトウェア(例えば、プラグイン)を使用して検出して、顔輪郭の略位置領域を取得してもよい。
ステップ402において、顔の領域に対して顔キーポイント検出を行って、検出された顔キーポイントの座標値を取得する。
選択的に、電子機器は、顔キーポイント検出モデルによって、検出された顔位置領域に対して顔キーポイント検出を行って、顔のN個のキーポイントとN個のキーポイントの座標値を取得することができる。顔キーポイントは、左目角キーポイント、右目角キーポイント、鼻輪郭キーポイントなどを含むことができ、具体的には実際の状況に応じて設定する必要がある。
なお、当該キーポイント座標値は2次元座標値(x,y)であり、Nは正の整数である。例えば、検出された顔の領域を顔キーポイント検出モデルに入力して、それぞれ(x,y)(x,y)…(x72,y72)である72個の顔キーポイント座標を取得することができる。
ステップ403において、検出された顔キーポイントの座標値に基づいて、ソース画像から顔画像を切り取る。
本開示の実施例では、電子機器は、顔キーポイント座標を取得した後、顔キーポイントの座標値に基づいてターゲット顔に対して顔位置合わせを行って顔画像を取得することができる。具体的なやり方は以下の通りである。72個の顔キーポイント座標に基づいてxとyの最大最小値xmin、xmax、ymin、ymaxを取得し、最大最小値に基づいて1つの顔枠を決定して、顔画像を切り取ることができる。さらに、本開示の実施例では、顔キーポイントの最大座標値と最小座標値を取得し、最大座標値と最小座標値に基づいて、ソース画像から顔検出枠を決定し、顔検出枠から顔画像を切り取る。
具体的に、電子機器は、顔キーポイントの座標値を取得した後、取得された顔キーポイントの座標値に基づいてxとyの最大最小値xmin、xmax、ymin、ymaxを取得し、最大最小値に基づいて1つの顔枠を決定し、この顔枠を数倍に拡大し、顔検出枠から顔画像を切り取ることができる。
例えば、顔キーポイント座標は72個であってもよく、それぞれ(x,y)(x,y)…(x72,y72)であり、72個の顔キーポイント座標に基づいてxとyの最大最小値xmin、xmax、ymin、ymaxを取得し、最大最小値に基づいて1つの顔枠を決定し、その後にこの顔枠を3倍に拡大して顔画像を切り取り、サイズ224x224に調整する。
なお、上記の実施例で記載された拡大倍数は、異なるモデルに基づいて設定することができる。これにより、顔キーポイント座標に基づいて、顔枠を正確に決定することができ、後続の動作に正確な顔画像を提供することができる。
本開示の実施例では、まずソース画像から顔の領域を決定し、顔の領域に対して顔キーポイント検出を行って、検出された顔キーポイントの座標値を取得し、その後に検出された顔キーポイントの座標値に基づいて、ソース画像から顔画像を切り取る。これにより、ソース画像から顔画像を正確に抽出し、正確な検出画像の生成に保証を提供することができる。
上記実施例では、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定することについて、図5と組み合わせてさらに説明することができ、図5は、本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。図5に示すように、当該方法は以下のステップ501~505を含む。
ステップ501において、顔が含まれる検出対象のソース画像を取得する。
ステップ502において、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出する。
ステップ503において、生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得する。
ステップ501~ステップ503の実現形態については、上記実施例の関連する内容の説明を参照することができ、ここで説明を省略する。
ステップ504において、第1の検出確率に基づいて、生体検出メインモデルが検出に合格したと決定され、かつ第2の検出確率に基づいて、因子検出サブモデルがすべて検出に合格したと決定されたことに応答して、生体検出結果が生体検出に合格したことであると決定する。
ステップ505において、第1の検出確率に基づいて生体検出メインモデルが検出に失敗したと決定されたことに応答して、および/または第2の検出確率に基づいて少なくとも一部の因子検出サブモデルが検出に失敗したと決定されたことに応答して、生体検出結果が生体検出に失敗したことであると決定する。
本開示の実施例では、電子機器は、第1の検出確率と第2の検出確率を取得した後、第1の検出確率及び第2の検出確率を、それぞれ第1の合格閾値及び第2の合格閾値と比較し、第1の検出確率が第1の合格閾値より大きい場合、生体検出メインモデルが検出に合格したと考えられ、第1の検出確率が第1の合格閾値より小さい場合、生体検出メインモデルが検出に失敗したと考えられる。同様に、第2の検出確率が第2の合格閾値より大きい場合、因子検出サブモデルが検出に合格したと考えられ、第2の検出確率が第2の合格閾値より小さい場合、因子検出サブモデルが検出に失敗したと考えられる。
さらに、新たに追加された因子モデルが生体合格率を低下させないように、第2の合格閾値は、通常、第1の合格閾値よりはるかに小さく、例えば、第1の合格閾値は0.9であってもよく、第2の合格閾値は0.05であってもよい。
つまり、生体検出の精度を確保し、さらに顔認識に基づく各アプリケーションシーンの安全性を向上させるために、電子機器は、生体検出メインモデルが検出に合格し、かつ因子検出サブモデルがすべて検出に合格した場合、生体検出結果を生体検出に合格したことに最終的に決定する。
選択的に、生体検出メインモデルが検出に失敗したが、因子検出サブモデルが検出に合格した場合、ソース画がリアルタイムで生体に対して収集された画像ではなく、偽造されたサブモデルを迂回できる攻撃画像であることを示し、この時、電子機器は、生体検出の精度を確保するために、生体検出結果を生体検出に失敗したことに直接決定することができる。
選択的に、生体検出メインモデルが検出に合格したが、1つまたは複数の因子検出サブモデルが検出に失敗した場合、複数の因子検出サブモデルも同様に生体検出の安全性を確保するため、因子検出サブモデルが検出に失敗した場合、ソース画像が対応する因子の攻撃画像であることを示し、この時、電子機器は、生体検出の精度を確保するために、生体検出結果を生体検出に失敗したことに直接決定することができる。
選択的に、電子機器は、生体検出メインモデルが検出に合格せず、因子検出サブモデルが同様に検出に失敗した場合、生体検出結果を生体検出に失敗したことに直接決定することができる。
なお、本開示の顔生体検出方法は、セキュリティ対策、勤務評定、金融、入退室管理などの多くのシーンに応用でき、現在の多くの業務に広く応用されている。本開示の技術案により、顔生体検出の検出次元を向上させ、生体検出の検出性能を大幅に向上させ、使用の安全性と汎化性を大幅に増加させることができる。
これにより、第1の検出確率と第2の検出確率により、生体検出メインモデルと因子検出サブモデルが検出に合格するか否かを判断することができ、生体検出結果を正確に判定することができる。
上記実施例では、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定することについて、図6と組み合わせてさらに説明することができ、図6は、本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。図6に示すように、当該方法は以下のステップ601~603を含む。
ステップ601において、第2の検出確率に基づいて因子検出サブモデルに検出に失敗したターゲット因子検出サブモデルがあることに応答して、第1の検出確率を小さく調整して、第3の検出確率を取得する。
なお、上記の実施例で記載された第1の検出確率を小さく調整することは、第1の検出確率と減少係数Nを乗算してもよく、0<N<1であり、例えば、減少係数Nは0.9であってもよい。
具体的に、電子機器は、検出に失敗したターゲット因子検出サブモデルを検出した毎に、第1の検出確率と減少係数Nを乗算し、最終的に第3の検出確率を取得する。
ステップ602において、第3の検出確率が生体検出閾値以上であることに応答して、生体検出結果が生体検出に合格したことであると決定する。
ステップ603において、第3の検出確率が生体検出閾値より小さいことに応答して、生体検出結果が生体検出に失敗したことであると決定する。
なお、上記実施例で記載された生体検出閾値は、0より大きく1より小さい数である。例えば、生体検出閾値は0.9であってもよい。
本開示の実施例では、まず第2の検出確率に基づいて因子検出サブモデルに検出に失敗したターゲット因子検出サブモデルがあることに応答して、第1の検出確率を小さく調整して、第3の検出確率を取得する。第3の検出確率が生体検出閾値以上であることに応答して、生体検出結果が生体検出に合格したことであると決定し、第3の検出確率が生体検出閾値より小さいことに応答して、生体検出結果が生体検出に失敗したことであると決定する。これにより、因子検出サブモデルの検出結果によって生体検出メインモデルの検出結果に対して多次元調整を行い、生体検出の精度を大幅に向上させることができる。
上記実施例では、第1の検出確率を小さく調整して、第3の検出確率を生成することについて、図7と組み合わせてさらに説明することができ、図7は、本開示の実施例によって提供される別の顔生体検出方法の概略フローチャートである。図7に示すように、当該方法は、ステップ701~704を含む。
ステップ701において、ターゲット因子検出サブモデルのタイプに基づいて、ターゲット因子検出サブモデルの調整係数を決定し、調整係数は第1の検出確率を調整するために使用される。
本開示の実施例では、調整係数は合格係数と失敗係数を含み、検出画像がターゲット因子検出サブモデルの生体検出に合格した場合、調整係数は合格係数であり、生体検出に失敗した場合、調整係数は失敗係数である。
なお、上記合格係数は1であり、失敗係数は0より大きく1より小さい数である。
選択的に、異なる因子検出サブモデルの調整係数は異なってもよく、具体的な値は実際の状況に応じて設定することができる。例えば、マスク因子検出サブモデルの調整係数は0.95であってもよく、画面因子検出サブモデルの調整係数は0.97であってもよく、T字形因子検出サブモデルの調整係数は0.93であってもよい。
ステップ702において、1つのターゲット因子検出サブモデルがあることに応答して、第1の検出確率と調整係数を乗算して、第3の検出確率を取得する。
ステップ703において、2つ以上のターゲット因子検出サブモデルがあることに応答して、ターゲット因子検出サブモデルの調整係数を乗算し、合計調整係数を取得する。
例えば、電子機器が取得したターゲット因子検出サブモデル1の調整係数はKであり、ターゲット因子検出サブモデル2の調整係数はKであり、ターゲット因子検出サブモデル3の調整係数は3であり、……、ターゲット因子検出サブモデルNの調整係数はKであれば、合計調整係数はK*K*K……*Kである。
ステップ704において、第1の検出確率と合計調整係数を乗算して、第3の検出確率を取得する。上記の実施例によって得られた合計調整係数は、第1の検出確率と乗算されて、第3の検出確率を取得することができる。第3の検出確率はK*K*K……*K*第1の検出確率であってもよい。
本開示の実施例では、まずターゲット因子検出サブモデルのタイプに基づいて、ターゲット因子検出サブモデルの調整係数を決定し、調整係数は第1の検出確率を調整するために使用され、1つのターゲット因子検出サブモデルがあることに応答して、第1の検出確率と調整係数を乗算して、第3の検出確率を取得し、2つ以上のターゲット因子検出サブモデルがあることに応答して、ターゲット因子検出サブモデルの調整係数を乗算して、合計調整係数を取得し、第1の検出確率と合計調整係数を乗算して、第3の検出確率を取得する。これにより、因子検出サブモデルの検出結果によって生体検出メインモデルの検出結果を調整して、正確な検出結果を取得することができる。
図8は、顔生体検出方法全体の概略フローチャートであり、図8に示すように、まず顔が含まれるソース画像を電子機器に入力し、電子機器は、顔検出モデルを呼び出してソース画像を処理して、顔の領域を取得し、その後に電子機器は、顔キーポイント検出モデルを呼び出して顔キーポイントを検出して顔のいくつかのキーポイント座標値を取得し、そして顔キーポイント座標に基づいてxとyの最大最小値xmin、xmax、ymin、ymaxを取得し、最大最小値に基づいて1つの顔枠を決定して、顔位置合わせを実現することができる。検出モデルが生体検出メインモデルまたは画面因子検出サブモデルであることに応答して、第1の設定値は3であってもよく、すなわち顔画像を3倍に拡大して、生体検出メインモデルまたは画面因子検出サブモデルの検出画像とし、第1の検出確率と画面因子検出サブモデルの第2の検出確率を出力する。検出モデルがマスク因子検出サブモデルであることに応答して、第2の設定値は1.5であってもよく、すなわち顔画像を1.5倍に拡大し、マスク因子検出サブモデルに入力してマスク因子検出サブモデルの第2の検出確率を出力する。検出モデルがT字形因子検出サブモデルであることに応答して、顔画像から目と鼻の領域を抽出してT字形領域画像を生成して、T字形因子検出サブモデルの検出画像とし、T字形因子検出サブモデルの第2の検出確率を出力する。検出モデルが面部器官因子検出サブモデルであることに応答して、顔画像から面部器官画像を取得して、面部器官因子検出サブモデルの入力画像とし、面部器官因子検出サブモデルの第2の検出確率を出力する。最終的に第1の検出確率、マスク因子検出サブモデルの第2の検出確率、T字形因子検出サブモデルの第2の検出確率、面部器官因子検出サブモデルの第2の検出確率及び画面因子検出サブモデルの第2の検出確率によって生体検出結果を取得する。
上記のいくつかの実施例によって提供される顔生体検出方法に対応して、本開示の一つの実施例は顔生体検出装置をさらに提供し、本開示の実施例によって提供される顔生体検出装置が上記のいくつかの実施例によって提供される顔生体検出方法に対応するため、上記の顔生体検出方法の実施形態は、本開示の実施例によって提供される顔生体検出装置にも適用され、以下の実施例では説明を省略する。
図9は、本開示の実施例によって提供される顔生体検出装置の概略構成図である。
図9に示すように、当該顔生体検出装置900は、第1の取得モジュール910と、第2の取得モジュール920と、第3の取得モジュール930と、決定モジュール940と、を備えることができる。
第1の取得モジュール910は、顔が含まれる検出対象のソース画像を取得する。
第2の取得モジュール920は、ソース画像に基づいて、各検出モデルの検出画像を取得し、検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、因子検出サブモデルが生体検出の1つの攻撃防止因子を検出する。
第3の取得モジュール930は、生体検出メインモデルの第1の検出確率と因子検出サブモデルの第2の検出確率とを取得する。
決定モジュール940は、第1の検出確率と第2の検出確率とに基づいて、生体検出結果を決定する。
本開示の一実施例では、第2の取得モジュール920はさらに、ソース画像に対して顔検出を行って、ソース画像から顔画像を切り取り、検出モデルごとに、顔画像に対して検出モデルに一致する画像処理操作を行って、検出モデルの検出画像を生成する。
本開示の一実施例では、第2の取得モジュール920は、さらに、ソース画像から顔の領域を決定し、顔の領域に対して顔キーポイント検出を行い、検出された顔キーポイントの座標値を取得し、検出された顔キーポイントの座標値に基づいて、ソース画像から顔画像を切り取る。
本開示の一実施例では、第2の取得モジュール920は、さらに、顔キーポイントの最大座標値と最小座標値を取得し、最大座標値と最小座標値に基づいて、ソース画像から顔検出枠を決定し、顔検出枠から顔画像を切り取る。
本開示の一実施例では、決定モジュール940は、さらに、第1の検出確率に基づいて生体検出メインモデルが検出に合格したと決定され、かつ第2の検出確率に基づいて因子検出サブモデルがすべて検出に合格したと決定されたことに応答して、生体検出結果が生体検出に合格したことであると決定し、第1の検出確率に基づいて生体検出メインモデルが検出に失敗したと決定されたことに応答して、および/または第2の検出確率に基づいて少なくとも一部の因子検出サブモデルが検出に失敗したと決定されたことに応答して、生体検出結果が生体検出に失敗したことであると決定する。
本開示の一実施例では、決定モジュール940は、さらに、第2の検出確率に基づいて因子検出サブモデルに検出に失敗したターゲット因子検出サブモデルがあることに応答して、第1の検出確率を小さく調整して、第3の検出確率を取得し、第3の検出確率が生体検出閾値以上であることに応答して、生体検出結果が生体検出に合格したことであると決定し、第3の検出確率が生体検出閾値より小さいことに応答して、生体検出結果が生体検出に失敗したことであると決定する。
本開示の一実施例では、決定モジュール940は、さらに、ターゲット因子検出サブモデルのタイプに基づいて、ターゲット因子検出サブモデルの調整係数を決定し、調整係数は第1の検出確率を調整するために使用され、1つのターゲット因子検出サブモデルがあることに応答して、第1の検出確率と調整係数を乗算して、第3の検出確率を取得し、または、2つ以上のターゲット因子検出サブモデルがあることに応答して、ターゲット因子検出サブモデルの調整係数を乗算して、合計調整係数を取得し、第2の検出確率と合計調整係数を乗算して、第3の検出確率を取得する。
本開示の技術案では、相関するユーザ個人情報の取得、記憶、及び応用は、いずれも関連する法律法規の規定に合致しており、公序良俗に違反しない。
本開示の実施例によれば、本開示は、電子機器、及び読み取り可能な記憶媒体をさらに提供する。
本開示の実施例によれば、本開示は、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、顔生体検出方法が実現される。
図10は、本開示の実施例を実現できる例示的な電子機器1000の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルディジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示される部品、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図10に示すように、電子機器1000は、読み取り専用メモリ(ROM)1002に記憶されているコンピュータプログラム、または記憶ユニット1006からランダムアクセスメモリ(RAM)1003にロードされたコンピュータプログラムに従って、様々な適切な動作および処理を実行することができる計算ユニット1001を備える。RAM1003には、電子機器1000の動作に必要な各種のプログラムやデータも記憶されていてもよい。計算ユニット1001、ROM1002、およびRAM1003は、バス1004を介して、互いに接続されている。バス1004には、入力/出力(I/O)インターフェース1005も接続されている。
電子機器1000における複数のコンポーネントは、I/Oインターフェース1005に接続され、キーボード、マウスなどの入力ユニット1006と、各種のディスプレイ、スピーカなどの出力ユニット1007と、磁気ディスク、光ディスクなどの記憶ユニット1008と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット1009と、を備える。通信ユニット1009は、電子機器1000が、インターネットなどのコンピュータネットワークおよび/または様々な通信ネットワークを介して他の装置と情報/データを交換することを可能にする。
計算ユニット1001は、処理能力および計算能力を有する様々な汎用および/または専用の処理コンポーネントであってもよい。計算ユニット1001のいくつかの例は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)コンピューティングチップ、機械学習モデルアルゴリズムを実行する様々なコンピューティングユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これに限定されない。計算ユニット1001は、前文で説明された様々な方法および処理、例えば、顔生体検出方法を実行する。例えば、いくつかの実施例では、顔生体検出方法は、記憶ユニット1006などの機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができ、いくつかの実施例では、コンピュータプログラムの一部または全部を、ROM1002および/または通信ユニット1009を介して電子機器1000にロードおよび/またはインストールすることができる。コンピュータプログラムがRAM1003にロードされ、計算ユニット1001によって実行される場合、前文に記載の顔生体検出方法の1つまたは複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット1001は、顔生体検出方法を実行するように他の任意の適切な方式で(例えば、ファームウェアを介して)構成されてもよい。
本明細書で説明されたシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、チップオンシステム(SOC)、複数のプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実行するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせを用いて作成することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供され、プロセッサまたはコントローラによって実行される場合、フロチャートおよび/またはブロック図に規定された機能/動作を実行させることができる。プログラムコードは、完全に機械上で実行されるか、又は部分的に機械上で実行されるか、又はスタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、部分的にリモート機械上で実行されるか、又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるために、または命令実行システム、装置、またはデバイスを組み合わせて使用されるプログラムを含むか、または記憶することができる有形的な媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁的、赤外線的、または半導体的なシステム、装置またはデバイス、またはこれらの任意の適切な組み合わせを備えることができるが、これらに限定されない。機械読み取り可能な媒体のより具体的な例は、1つまたま複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージデバイス、磁気ストレージデバイス、またはこれらの任意の適切な組み合わせ、を含むことができる。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力、または、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインターフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントのいずれかの組み合わせを備えるコンピューティングシステムで実行することができる。いずれかの形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよく、分散システムのサーバであってもよく、またはブロックチェーンを組み込んだサーバであってもよい。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載の各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができることを理解されたい。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (19)

  1. 顔が含まれる検出対象のソース画像を取得するステップと、
    前記ソース画像に基づいて、各検出モデルの検出画像を取得するステップであって、前記検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、前記因子検出サブモデルが生体検出の1つの攻撃防止因子を検出するステップと、
    前記生体検出メインモデルの第1の検出確率と前記因子検出サブモデルの第2の検出確率とを取得するステップと、
    前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するステップと、
    を含む顔生体検出方法。
  2. 前記ソース画像に基づいて、各検出モデルの検出画像を取得するステップが、
    前記ソース画像に対して顔検出を行って、前記ソース画像から顔画像を切り取るステップと、
    前記検出モデルごとに、前記顔画像に対して前記検出モデルに一致する画像処理操作を行って、前記検出モデルの検出画像を生成するステップと、
    を含む請求項1に記載の顔生体検出方法。
  3. 前記ソース画像に対して顔検出を行って、前記ソース画像から顔画像を切り取るステップが、
    前記ソース画像から顔の領域を決定するステップと、
    前記顔の領域に対して顔キーポイント検出を行い、検出された顔キーポイントの座標値を取得するステップと、
    前記検出された顔キーポイントの座標値に基づいて、前記ソース画像から前記顔画像を切り取るステップと、
    を含む請求項2に記載の顔生体検出方法。
  4. 前記検出された前記キーポイントの座標値に基づいて、前記ソース画像から前記顔画像を切り取るステップが、
    前記顔キーポイントの最大座標値と最小座標値を取得し、前記最大座標値と前記最小座標値に基づいて、前記ソース画像から顔検出枠を決定し、前記顔検出枠から前記顔画像を切り取るステップを含む請求項3に記載の顔生体検出方法。
  5. 前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するステップが、
    前記第1の検出確率に基づいて前記生体検出メインモデルが検出に合格したと決定され、かつ前記第2の検出確率に基づいて前記因子検出サブモデルがすべて検出に合格したと決定されたことに応答して、前記生体検出結果が生体検出に合格したことであると決定するステップと、
    前記第1の検出確率に基づいて前記生体検出メインモデルが検出に失敗したと決定されたことに応答して、および/または前記第2の検出確率に基づいて少なくとも一部の前記因子検出サブモデルが検出に失敗したと決定されたことに応答して、前記生体検出結果が生体検出に失敗したことであると決定するステップと、
    を含む請求項1に記載の顔生体検出方法。
  6. 前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するステップが、
    前記第2の検出確率に基づいて前記因子検出サブモデルに検出に失敗したターゲット因子検出サブモデルがあると決定されたことに応答して、前記第1の検出確率を小さく調整して、第3の検出確率を取得するステップと、
    前記第3の検出確率が生体検出閾値以上であることに応答して、前記生体検出結果が生体検出に合格したことであると決定するステップと、
    前記第3の検出確率が前記生体検出閾値より小さいことに応答して、前記生体検出結果が生体検出に失敗したことであると決定するステップと、
    を含む請求項1に記載の顔生体検出方法。
  7. 前記第1の検出確率を小さく調整して、第3の検出確率を生成するステップが、
    前記ターゲット因子検出サブモデルのタイプに基づいて、前記ターゲット因子検出サブモデルの調整係数を決定するステップであって、前記調整係数は前記第1の検出確率を調整するために使用されるステップと、
    1つの前記ターゲット因子検出サブモデルがあることに応答して、前記第1の検出確率と前記調整係数を乗算して、前記第3の検出確率を取得するステップ、または、
    2つ以上の前記ターゲット因子検出サブモデルがあることに応答して、前記ターゲット因子検出サブモデルの前記調整係数を乗算して、合計調整係数を取得するステップ、
    前記第2の検出確率と合計調整係数を乗算して、前記第3の検出確率を取得するステップと、
    を含む請求項6に記載の顔生体検出方法。
  8. 前記顔画像に対して前記検出モデルに一致する画像処理操作を行って、前記検出モデルの前記検出画像を生成するステップが、
    前記検出モデルが前記生体検出メインモデルまたは画面因子検出サブモデルであることに応答して、前記顔画像を第1の設定値に拡大して、前記生体検出メインモデルまたは画面因子検出サブモデルの前記検出画像とするステップであって、前記画面因子検出モデルが、前記検出画像の背景に枠および/または反射光があるか否かを検出するステップ、または、
    前記検出モデルがマスク因子検出サブモデルであることに応答して、前記顔画像を第2の設定値に拡大して、前記マスク因子検出サブモデルの前記検出画像とするステップであって、前記マスク因子検出モデルが、前記検出画像がトリミングされた2Dマスクであるか否かを検出し、前記2Dマスクが、攻撃に使用される顔を含むステップ、または、
    前記検出モデルがT字形因子検出サブモデルであることに応答して、前記顔画像から目と鼻の領域を抽出してT字形領域画像を生成して、前記T字形因子検出サブモデルの前記検出画像とするステップであって、前記T字形因子検出サブモデルが前記検出画像がトリミングされたT字形マスクであるか否かを検出し、前記T字形マスクが目と鼻のみを含むステップ、または、
    前記検出モデルが面部器官因子検出サブモデルであることに応答して、前記顔画像から面部器官画像を取得して、前記面部器官因子検出サブモデルの前記検出画像とするステップであって、前記面部器官因子検出モデルが前記検出画像を検出して、面部器官であるか否かを決定するステップ、
    を含む請求項2に記載の顔生体検出方法。
  9. 顔が含まれる検出対象のソース画像を取得するための第1の取得モジュールと、
    前記ソース画像に基づいて、各検出モデルの検出画像を取得するための第2の取得モジュールであって、前記検出モデルが生体検出メインモデルと少なくとも1つの因子検出サブモデルとを含み、前記因子検出サブモデルが生体検出の1つの攻撃防止因子を検出する第2の取得モジュールと、
    前記生体検出メインモデルの第1の検出確率と前記因子検出サブモデルの第2の検出確率とを取得するための第3の取得モジュールと、
    前記第1の検出確率と前記第2の検出確率とに基づいて、生体検出結果を決定するための決定モジュールと、
    を備える顔生体検出装置。
  10. 前記第2の取得モジュールが、
    前記ソース画像に対して顔検出を行って、前記ソース画像から顔画像を切り取り、
    前記検出モデルごとに、前記顔画像に対して前記検出モデルに一致する画像処理操作を行って、前記検出モデルの検出画像を生成する請求項9に記載の顔生体検出装置。
  11. 前記第2の取得モジュールが、
    前記ソース画像から顔の領域を決定し、
    前記顔の領域に対して顔キーポイント検出を行い、検出された顔キーポイントの座標値を取得し、
    前記検出された顔キーポイントの座標値に基づいて、前記ソース画像から前記顔画像を切り取る請求項10に記載の顔生体検出装置。
  12. 前記第2の取得モジュールが、
    前記顔キーポイントの最大座標値と最小座標値を取得し、前記最大座標値と前記最小座標値に基づいて、前記ソース画像から顔検出枠を決定し、前記顔検出枠から前記顔画像を切り取る請求項11に記載の顔生体検出装置。
  13. 前記決定モジュールが、
    前記第1の検出確率に基づいて前記生体検出メインモデルが検出に合格したと決定され、かつ前記第2の検出確率に基づいて前記因子検出サブモデルがすべて検出に合格したと決定されたことに応答して、前記生体検出結果が生体検出に合格したことであると決定し、
    前記第1の検出確率に基づいて前記生体検出メインモデルが検出に失敗したと決定されたことに応答して、および/または前記第2の検出確率に基づいて少なくとも一部の前記因子検出サブモデルが検出に失敗したと決定されたことに応答して、前記生体検出結果が生体検出に失敗したことであると決定する請求項9から12のいずれか一項に記載の顔生体検出装置。
  14. 前記決定モジュールが、
    前記第2の検出確率に基づいて前記因子検出サブモデルに検出に失敗したターゲット因子検出サブモデルがあると決定されたことに応答して、前記第1の検出確率を小さく調整して、第3の検出確率を取得し、
    前記第3の検出確率が生体検出閾値以上であることに応答して、前記生体検出結果が生体検出に合格したことであると決定し、
    前記第3の検出確率が前記生体検出閾値より小さいことに応答して、前記生体検出結果が生体検出に失敗したことであると決定する請求項9から12のいずれか一項に記載の顔生体検出装置。
  15. 前記第1の検出確率を小さく調整して、第3の検出確率を生成することが、
    前記ターゲット因子検出サブモデルのタイプに基づいて、前記ターゲット因子検出サブモデルの調整係数を決定し、前記調整係数は前記第1の検出確率を調整するために使用されることと、
    1つの前記ターゲット因子検出サブモデルがあることに応答して、前記第1の検出確率と前記調整係数を乗算して、前記第3の検出確率を取得すること、または、
    2つ以上の前記ターゲット因子検出サブモデルがあることに応答して、前記ターゲット因子検出サブモデルの前記調整係数を乗算して、合計調整係数を取得すること、
    前記第2の検出確率と合計調整係数を乗算して、前記第3の検出確率を取得することと、
    を含む請求項13に記載の顔生体検出装置。
  16. 前記第2の取得モジュールが、
    前記検出モデルが前記生体検出メインモデルまたは画面因子検出サブモデルであることに応答して、前記顔画像を第1の設定値に拡大して、前記生体検出メインモデルまたは画面因子検出サブモデルの前記検出画像とし、前記画面因子検出モデルが、前記検出画像の背景に枠および/または反射光があるか否かを検出し、または、
    前記検出モデルがマスク因子検出サブモデルであることに応答して、前記顔画像を第2の設定値に拡大して、前記マスク因子検出サブモデルの前記検出画像とし、前記マスク因子検出モデルが、前記検出画像がトリミングされた2Dマスクであるか否かを検出し、前記2Dマスクが、攻撃に使用される顔を含み、または、
    前記検出モデルがT字形因子検出サブモデルであることに応答して、前記顔画像から目と鼻の領域を抽出してT字形領域画像を生成し、前記T字形因子検出サブモデルの前記検出画像とし、前記T字形因子検出サブモデルが前記検出画像がトリミングされたT字形マスクであるか否かを検出し、前記T字形マスクが目と鼻のみを含み、または、
    前記検出モデルが面部器官因子検出サブモデルであることに応答して、前記顔画像から面部器官画像を取得して、前記面部器官因子検出サブモデルの前記検出画像とし、前記面部器官因子検出モデルが前記検出画像を検出して、面部器官であるか否かを決定する請求項10に記載の顔生体検出装置。
  17. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が、前記少なくとも1つのプロセッサが請求項1から8のいずれか一項に記載の顔生体検出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  18. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から8のいずれか一項に記載の顔生体検出方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。
  19. プロセッサによって実行される場合、請求項1から8のいずれか一項に記載の顔生体検出方法が実現されるコンピュータプログラム。
JP2022120125A 2021-07-29 2022-07-28 顔生体検出方法、装置、電子機器及び記憶媒体 Active JP7414902B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110865025.8 2021-07-29
CN202110865025.8A CN113642428B (zh) 2021-07-29 2021-07-29 人脸活体检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022141940A true JP2022141940A (ja) 2022-09-29
JP7414902B2 JP7414902B2 (ja) 2024-01-16

Family

ID=78418890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022120125A Active JP7414902B2 (ja) 2021-07-29 2022-07-28 顔生体検出方法、装置、電子機器及び記憶媒体

Country Status (4)

Country Link
EP (1) EP4064215A3 (ja)
JP (1) JP7414902B2 (ja)
KR (1) KR20220104110A (ja)
CN (1) CN113642428B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202806A (zh) * 2021-11-26 2022-03-18 北京百度网讯科技有限公司 活体检测方法、装置、电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251380A1 (en) * 2018-02-14 2019-08-15 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276250B (zh) * 2015-01-12 2023-06-02 创新先进技术有限公司 一种人脸活体检测方法和装置
CN104794453B (zh) * 2015-04-29 2018-11-06 徐州旷视数据科技有限公司 活体验证方法及装置
CN107194376A (zh) * 2017-06-21 2017-09-22 北京市威富安防科技有限公司 面具造假卷积神经网络训练方法及人脸活体检测方法
US10776609B2 (en) * 2018-02-26 2020-09-15 Samsung Electronics Co., Ltd. Method and system for facial recognition
CN109086718A (zh) * 2018-08-02 2018-12-25 深圳市华付信息技术有限公司 活体检测方法、装置、计算机设备及存储介质
CN109558840A (zh) * 2018-11-29 2019-04-02 中国科学院重庆绿色智能技术研究院 一种特征融合的活体检测方法
CN110705392A (zh) * 2019-09-17 2020-01-17 Oppo广东移动通信有限公司 一种人脸图像检测方法及装置、存储介质
CN110765923B (zh) * 2019-10-18 2024-05-24 腾讯科技(深圳)有限公司 一种人脸活体检测方法、装置、设备及存储介质
CN110765924B (zh) * 2019-10-18 2024-08-27 腾讯科技(深圳)有限公司 一种活体检测方法、装置以及计算机可读存储介质
CN110991249A (zh) * 2019-11-04 2020-04-10 支付宝(杭州)信息技术有限公司 人脸检测方法、装置、电子设备及介质
CN112800997B (zh) * 2020-04-10 2024-01-05 支付宝(杭州)信息技术有限公司 一种活体检测方法、装置及设备
CN111680588A (zh) * 2020-05-26 2020-09-18 广州多益网络股份有限公司 一种基于可见光和红外光的人脸闸机活体检测方法
CN112149615B (zh) * 2020-10-12 2024-06-28 平安科技(深圳)有限公司 人脸活体检测方法、装置、介质及电子设备
CN112329612A (zh) * 2020-11-03 2021-02-05 北京百度网讯科技有限公司 活体检测方法、装置及电子设备
CN112507934B (zh) * 2020-12-16 2024-06-07 平安银行股份有限公司 活体检测方法、装置、电子设备及存储介质
CN113033465B (zh) * 2021-04-13 2023-11-14 北京百度网讯科技有限公司 活体检测模型训练方法、装置、设备以及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251380A1 (en) * 2018-02-14 2019-08-15 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification

Also Published As

Publication number Publication date
EP4064215A2 (en) 2022-09-28
CN113642428A (zh) 2021-11-12
EP4064215A3 (en) 2023-01-18
JP7414902B2 (ja) 2024-01-16
CN113642428B (zh) 2022-09-27
KR20220104110A (ko) 2022-07-26

Similar Documents

Publication Publication Date Title
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
JP7165742B2 (ja) 生体検出方法及び装置、電子機器ならびに記憶媒体
WO2020000908A1 (zh) 一种人脸活体检测方法及装置
WO2020103700A1 (zh) 一种基于微表情的图像识别方法、装置以及相关设备
WO2022156640A1 (zh) 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN111310705A (zh) 图像识别方法、装置、计算机设备及存储介质
CN105989326B (zh) 人眼三维位置信息的确定方法和装置
EP4033458A2 (en) Method and apparatus of face anti-spoofing, device, storage medium, and computer program product
CN111597884A (zh) 面部动作单元识别方法、装置、电子设备及存储介质
CN112381061B (zh) 一种面部表情识别方法及系统
JP2022133378A (ja) 顔生体検出方法、装置、電子機器、及び記憶媒体
JP7126586B2 (ja) 顔合成画像検出方法、顔合成画像検出装置、電子機器、記憶媒体及びコンピュータプログラム
CN110705353A (zh) 基于注意力机制的遮挡人脸的识别方法和装置
CN113221771A (zh) 活体人脸识别方法、装置、设备、存储介质及程序产品
CN112001285B (zh) 一种美颜图像的处理方法、装置、终端和介质
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN113705361A (zh) 活体检测模型的方法、装置及电子设备
CN110705454A (zh) 一种具有活体检测功能的人脸识别方法
CN115035581A (zh) 面部表情识别方法、终端设备及存储介质
JP7414902B2 (ja) 顔生体検出方法、装置、電子機器及び記憶媒体
CN114140320B (zh) 图像迁移方法和图像迁移模型的训练方法、装置
CN112580395A (zh) 基于深度信息的3d人脸活体识别方法、系统、设备及介质
WO2024131291A1 (zh) 一种人脸活体检测方法、装置、设备及存储介质
CN113255511A (zh) 用于活体识别的方法、装置、设备以及存储介质
CN112906508B (zh) 一种基于卷积神经网络的面部活体检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150