JP7165742B2 - 生体検出方法及び装置、電子機器ならびに記憶媒体 - Google Patents

生体検出方法及び装置、電子機器ならびに記憶媒体 Download PDF

Info

Publication number
JP7165742B2
JP7165742B2 JP2020544595A JP2020544595A JP7165742B2 JP 7165742 B2 JP7165742 B2 JP 7165742B2 JP 2020544595 A JP2020544595 A JP 2020544595A JP 2020544595 A JP2020544595 A JP 2020544595A JP 7165742 B2 JP7165742 B2 JP 7165742B2
Authority
JP
Japan
Prior art keywords
image
pixel points
probability
pending image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020544595A
Other languages
English (en)
Other versions
JP2021520530A (ja
Inventor
グオウェイ ヤン
ジン シャオ
ジュンジエ イエン
シャオガン ワン
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2021520530A publication Critical patent/JP2021520530A/ja
Application granted granted Critical
Publication of JP7165742B2 publication Critical patent/JP7165742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

(関連出願の相互参照)
本願は、出願番号が201910257350.9であり、出願日が2019年04月01日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願はコンピュータビジョンの技術分野に関するが、ビジョン技術分野に限定されるものではなく、具体的には、生体検出方法及び装置、電子機器ならびに記憶媒体に関する。
顔認識技術は、顔によるロック解除、顔決済、本人確認、ビデオ監視などのシーンにおいて広く適用されている。しかし、顔認識システムには、顔付きの画像及びビデオ、マスクなどの偽造物により攻撃して被害をもたらすというリスクが存在する。顔認識システムの安全性を保証するためには、生体検出技術によってシステムに入力される顔の真偽を確認する必要があり、即ち入力された生体特徴が、生きている個体からのものであるかどうかを判断する必要である。
現在、顔運動に基づく顔認識方法は、一回当たりの生体検出に所要時間が長すぎるので、顔認識システムの全体的な効率が低下する。1フレームの画像に基づく認識及び検出方法には、通常、複眼カメラ、3D構造化光学デバイスなどの余分のハードウェア機器が必要であり、コストが増加し、適用性が低下する。1フレームの画像による生体検出の精度をどのように向上させるかは当分野において早急に解決しなければならない技術課題である。
本願の実施例は生体検出方法及び装置、電子機器ならびに記憶媒体を提供する。
本願の実施例の第1態様は、処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得るステップと、前記処理待ち画像における予測顔領域を特定するステップと、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るステップと、を含む生体検出方法を提供する。
一実施形態では、処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得る前記ステップは、ニューラルネットワークを用いて前記処理待ち画像を処理し、前記処理待ち画像における各画素点が偽造物に対応する確率を出力するステップを含む。
一実施形態では、前記ニューラルネットワークは、画素レベルのラベルを有するサンプルデータに基づいて訓練して得られる。
一実施形態では、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得る前記ステップは、前記複数の画素点の位置情報及び前記予測顔領域に基づき、前記複数の画素点から前記予測顔領域に含まれる少なくとも2つの画素点を特定するステップと、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定するステップと、
前記少なくとも1つの偽造物画素点が前記少なくとも2つの画素点に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定するステップと、前記少なくとも1つの偽造物画素点が前記少なくとも2つの画素点に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、前記少なくとも2つの画素点が偽造物に対応する確率に対して平均処理を行い、確率平均値を得るステップと、前記確率平均値に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得る前記ステップは、前記処理待ち画像の複数の画素点が偽造物に対応する確率に基づき、前記処理待ち画像の偽造物領域を特定するステップと、前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、前記偽造物領域及び前記予測顔領域の位置に基づき、前記偽造物領域と前記予測顔領域との重畳領域を特定するステップと、前記重畳領域が前記予測顔領域に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
一実施形態では、前記方法はさらに、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点を表示するステップ、及び/又は、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点の情報を表示用に出力するステップを含む。
一実施形態では、前記処理待ち画像における予測顔領域を特定する前記ステップは、前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップと、前記キーポイント予測情報に基づき、前記処理待ち画像における予測顔領域を特定するステップと、を含む。
一実施形態では、前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る前記ステップの前に、前記方法はさらに、前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における顔ボックス領域を得るステップを含み、前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る前記ステップは、前記顔ボックス領域の画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップを含む。
一実施形態では、前記処理待ち画像における予測顔領域を特定する前記ステップは、前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における予測顔領域を得るステップを含む。
一実施形態では、処理待ち画像を処理する前記ステップの前に、前記方法はさらに、単眼カメラにより収集された前記処理待ち画像を取得するステップを含む。
本願の実施例の第2態様は、処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得るための画素予測モジュールと、前記処理待ち画像における予測顔領域を特定するための顔検出モジュールと、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るための分析モジュールと、を含む生体検出装置を提供する。
本願の実施例の第3態様は、本願の実施例の第1態様のいずれかの方法に記載の一部又は全てのステップを実行するためのプロセッサと、前記プロセッサにより実行されるように構成されたコンピュータプログラムを記憶するためのメモリと、を含む電子機器を提供する。
本願の実施例の第4態様は、コンピュータに本願の実施例の第1態様のいずれかの方法に記載の一部又は全てのステップを実行させるコンピュータプログラムを記憶するためのコンピュータ可読記憶媒体を提供する。
本願の実施例の第5態様は、前記第1態様のいずれかの方法に記載の一部又は全てのステップを実行するための前記プロセッサにより実行されるように構成されたコンピュータプログラムを含むコンピュータプログラム製品を提供する。
本願の実施例では、処理待ち画像を処理することで、上記処理待ち画像の複数の画素点が偽造物に対応する確率を得て、上記処理待ち画像における予測顔領域を特定し、さらに上記処理待ち画像の複数の画素点が偽造物に対応する確率及び上記予測顔領域に基づき、上記処理待ち画像の生体検出結果を得ており、1フレームの画像による生体検出の精度を向上可能である。
本願の実施例で開示される生体検出方法のフローチャートである。 本願の実施例で開示される別の生体検出方法のフローチャートである。 本願の実施例で開示されるニューラルネットワークによる処理プロセスの模式図である。 本願の実施例で開示される生体検出装置の構成模式図である。 本願の実施例で開示される電子機器の構成模式図である。
ここの図面は明細書に組み込まれて本明細書の一部を構成し、これらの図面は本開示に適合する実施例を示し、明細書とともに本開示の技術的解決手段を説明するために用いられる。
以下に本願の実施例における図面を参照し、本願の実施例における技術的解決手段を明確に、完全に説明し、当然ながら、説明される実施例は本願の実施例の一部にすぎず、全ての実施例ではない。本願における実施例に基づき、当業者が創造的な労力を要することなく、得られた全ての他の実施例は、いずれも本願の保護範囲に属する。
本願の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はBは、Aが単独して存在し、AとBが同時に存在し、Bが単独して存在するという3種の場合を示してもよい。また、本明細書の用語の「少なくとも1つ」は多種のうちのいずれか1つ又は多種のうちの少なくとも2つの任意の組合を示し、例えば、A、B、Cのうちの少なくとも1つを含むということは、A、B及びCから構成される集合から選択されるいずれか1つ又は複数の要素を含むことを示してもよい。本願の明細書、特許請求の範囲及び上記図面における「第1」、「第2」等の用語は、特定の順序を記述するものではなく、異なる対象を区別するためのものである。また、「含む」、「有する」という用語及びそれらのいかなる変形も、非排他的に含むことを意図する。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、挙げられたステップ又はユニットに限定されるものではなく、さらに挙げられないステップ又はユニットを選択可能に含み、又は、さらに、これらのプロセス、方法又は機器に固有の他のステップ又はユニットを選択可能に含む。
本明細書で言及される「実施例」は、実施例により説明された特定の特徴、構造又は特性が本願の少なくとも1つの実施例に含まれることが可能であるのを意味する。明細書の各箇所で出現する該用語は必ず同じ実施例を指すというわけでなく、他の実施例に対して排他的に独立した実施例又は代替的な実施例であるというわけでもない。本明細書に記載の実施例を他の実施例と組み合わせてよいことが当業者に明示的又は暗示的に理解される。
本願の実施例に係る生体検出装置は生体を検出可能な装置であり、端末機器を含む電子機器であってもよく、具体的な実施では、上記端末機器は、例えば、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパネル)を有する携帯電話、ラップトップコンピュータ又はタブレットコンピュータのような他の携帯型機器を含むが、それらに限定されない。ある実施例では、前記機器が携帯型通信機器ではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパネル)を有するデスクトップコンピュータであることを理解すべきである。
本願の実施例における深層学習の概念は人工ニューラルネットワークの研究に由来する。深層学習構造の1つとして、複数の隠れ層を含む多層パーセプトロンが挙げられる。深層学習は下位層特徴を組み合わせることで、より抽象的な上位層を形成して属性クラス又は特徴を表現し、それによってデータの分散特徴表現を見つける。
深層学習は、機械学習におけるデータの表現学習に基づく方法である。観測値(例えば1つの画像)は、例えば各画素点の強度値のベクトルで表現するか、又は一連のエッジ、特定形状の領域などとしてより抽象的に表現するように、様々な方式で表現可能である。そしていくつかの特定の表現方法を使用したら、より容易にタスク(例えば、顔認識又は表情認識)を実例から学習することができる。深層学習は、教師なし又は半教師ありの特徴学習、及び階層的特徴抽出のための効率的なアルゴリズムを利用して、手動の代わりに特徴を抽出するという利点を有する。深層学習は、機械学習の研究における新しい分野であり、人間の脳の分析学習をシミュレートしたニューラルネットワークを確立することを目的としており、それは人間の脳の仕組みを模倣してデータ、例えば画像、音声及びテキストを解釈する。
機械学習の方法と同様に、深層機械学習の方法も教師あり学習と教師なし学習に分けられている。異なる学習フレームワーク下で確立された学習モデルは、互いの差異がかなり大きい。例えば、教師あり学習に基づく深層機械学習モデルとして、畳み込みニューラルネットワーク(Convolutional neural network、CNN)が挙げられ、深層学習に基づくネットワーク構造モデルとも呼ばれる。それは畳み込み計算を含み、深層構造を有するフィードフォワードニューラルネットワーク(Feed forward Neural Networks)であり、深層学習の代表的なアルゴリズムの1つである。教師なし学習に基づく機械学習モデルとして、ディープビリーフネット(Deep Belief Net、DBN)が挙げられる。
以下に本願の実施例を詳細に説明する。図1は本願の実施例で開示される生体検出方法のフローチャートであり、図1に示すように、該生体検出方法は以下のステップを含む。
101で、処理待ち画像を処理し、上記処理待ち画像の複数の画素点が偽造物に対応する確率を得る。生体検出は、本人検証シーンにおいて対象の実際の生理学的特徴を特定する方法であり、通常、顔認識において、生体検出は、瞬き、開口、首振り、及び頷きなどの組み合わせ動作に基づき、顔キーポイントの位置特定及び顔追跡などの技術を使用して、操作が真の生体本人によるものであるかどうかを検証可能であり、写真、顔写真の貼り替え、マスク、遮蔽及び撮影複製などの一般的な攻撃手段を防ぎ、それにより詐欺行為の判別を助け、ユーザの利益を保障することができる。
本願の実施例では、前記生体検出方法は顔の利用が必要である様々なシーンに適用することができる。例えば、前記生体検出方法はセキュリティ分野に適用することができ、セキュリティ分野のセキュリティ機器は安全確保のために顔を検証する際に、本願の実施例の提供する生体検出方法によって、現在収集した画像が生きている人間から収集した画像であるかどうかを判定することができる。
例えば、セキュリティ分野の入退室機器は、顔画像を収集し、又は他の収集機器から顔画像を受信した後、本願の実施例が提供する方法を用いて生体検証を行い、生体検証をパスした場合、現在収集された画像が実際の本人から収集されたと判定し、さらに顔検証及び/又は虹彩検証などの他の生体特徴検証技術によりセキュリティ検証を行い、生体特徴の結果の正確性を確保し、それによってセキュリティ分野の安全性を確保する。本願の実施例が提供する方法を採用すれば、一つの画像などに基づいて画素レベルの偽造物検証を行い、生体検証を短時間で完了し、検証の速度を高め、遅延を削減することができる。
また例えば、移動端末などの端末機器は決済時に、決済の安全性を確保するために、生体特徴を参照して決済検証を行うことができるが、偽造物によるなりすましによって生体特徴の検証をパスする不正行為を抑止するために、移動端末などで、本願の実施例における生体検証も行い、該移動端末は画像を収集してから、本願の生体検証を自律的に実行し、それにより偽造物によるなりすましのリスクを低減することができ、一方、本願の実施例が提供する生体検証方法を用いて生体検証を行えば、収集すべき画像が少なく検証速度が速いという利点を得ることができる。
上述したように、このような、顔運動に基づく生体検出方法は一回当たりの検出においてかかる時間が長いため、顔認識システムの全体的な効率が低下する。
生体検出方法の実行主体は上記生体検出装置であってもよく、例えば、生体検出方法は端末機器又はサーバ又は他の処理機器によって実行してもよく、ここで、端末機器はユーザ機器(User Equipment、UE)、モバイル機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant、PDA)、ハンドヘルド機器、計算機器、車載機器、ウェアラブル機器などであってもよい。いくつかの可能な実施形態では、該生体検出方法はプロセッサによってメモリに記憶されたコンピュータ可読命令を呼び出すように実現してもよい。
本願の実施例は主に、1フレームの画像による生体検出における技術的課題を解決できる。ここで、上記処理待ち画像は1フレームの画像であってもよいし、カメラにより収集された画像、例えば端末機器のカメラにより撮影された写真、又は端末機器のカメラにより撮影されたビデオにおける1フレームの画像などであってもよく、本願の実施例は処理待ち画像を取得する方式及び実施例の具体的な実施形態を限定しない。
本願の実施例で記載される1フレームの画像は、1つの静止画であり、その連続したフレームにより動画、例えばテレビのビデオなどの効果が形成される。一般に、フレーム数とは、簡単に言えば、1秒間で伝送される画像のフレーム数であり、またグラフィックス処理装置が1秒毎にリフレッシュ可能な回数と解されてもよく、通常fps(Frames Per Second)で表される。高いフレームレートで、よりスムーズでより鮮明な動画を得ることができる。
一可能な実施形態では、上記処理待ち画像をニューラルネットワークに入力して処理し、上記処理待ち画像における各画素点が偽造物に対応する確率を出力するようにしてもよい。訓練後の畳み込みニューラルネットワークに基づいて処理待ち画像を処理してもよく、ここで、上記畳み込みニューラルネットワークは任意のエンドツーエンド、ポイントツーポイントの畳み込みニューラルネットワークであってもよく、完全教師あり学習用のセマンティックセグメンテーションネットワークを含む既存のセマンティックセグメンテーションネットワークであってもよい。
一実施形態では、画素レベルのラベルを有するサンプルデータを使用して上記畳み込みニューラルネットワークを訓練してもよい。訓練後の上記畳み込みニューラルネットワークは、入力される1フレームの画像において、1画素点ずつにそれが偽造物に属する確率を予測することができる。
いくつかの実施例では、サンプルデータは、偽造物からのサンプルデータである第1タイプのデータ、及び本人の撮影画像としての非偽造物データである第2タイプのデータを含む。これらのサンプルデータは画像データであり、画像データにおける画素にはいずれもラベルが付けられており、このようなラベルは画素レベルのラベルである。
ここで、上記複数の画素点は処理待ち画像の全て又は一部の画素点であってもよく、本願の実施例はこれを限定しない。本願の実施例における生体検出装置は処理待ち画像における画素点を認識し、該処理待ち画像の複数の画素点が偽造物に対応する確率を予測することができる。上記処理待ち画像は顔が含まれる画像であってもよい。
いくつかの実施例では、生体検出装置の入力は顔が含まれる上記処理待ち画像であってもよく、出力は上記処理待ち画像の複数の画素点が偽造物に対応する確率であってもよく、上記複数の画素点が偽造物に対応する確率は確率行列の形であってもよく、つまり、該処理待ち画像の画素点の確率行列を得ることができ、該確率行列は上記処理待ち画像における複数の画素点が偽造物に対応する確率を示すことができる。上記処理待ち画像の複数の画素点が偽造物に対応する確率を得た後、ステップ102を実行できる。
102で、上記処理待ち画像における予測顔領域を特定する。いくつかの実施例では、顔認識アルゴリズムによって、画像における顔を検出して顔のキー特徴点を位置特定してから、その中の主な顔領域を特定するようにてもよい。上記顔領域は該処理待ち画像において顔が存在する領域と解されてもよい。
本願の実施例では顔キーポイント検出アルゴリズムに基づいて上記処理待ち画像における予測顔領域を特定することができる。一実施形態では、上記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得て、さらに上記キーポイント予測情報に基づき、上記処理待ち画像における予測顔領域を特定するようにしてもよい。いくつかの実施例では、顔キーポイント検出によって上記処理待ち画像における顔のキーポイントを得てその凸包を求めることができ、この凸包はおおよその顔領域とすることができる。
実数ベクトル空間Vにおいて、所与の集合Xに関して、Xを含む全ての凸集合の共通部分SはXの凸包と呼ばれる。Xの凸包はX内の全ての点(X1、…Xn)の凸結合で構成することが可能である。一般的に言えば、二次元平面上の点集合が与えられた場合、凸包は最外層の点を連結してなる凸多角形と解されてもよく、それは、点集合内の全ての点を包含することができ、処理待ち画像において、ボックスで囲まれる顔領域と表現されてもよい。上記顔キーポイント検出アルゴリズムは、平面上の複数の点を入力しそれらの凸包を出力する任意のアルゴリズム、例えば回転キャリパー法、Grahamスキャン法及びJarvisステップ法などのアルゴリズムであってもよく、またOpenCVにおける関連アルゴリズムを含んでもよい。
OpenCVはBSDライセンス(オープンソース)に基づいて発行されるクロスプラットフォームのコンピュータビジョンライブラリであり、Linux、Windows、Android及びMac OSオペレーティングシステムにおいて動作可能である。それは軽量で高効率であり、一連のC関数及び少しのC++クラスからなるとともに、Python、Ruby、MATLABなどの言語のインタフェースを提供し、画像処理及びコンピュータビジョンの面での多数の共通アルゴリズムを実現している。
いくつかの実施例では、上記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る前に、上記方法はさらに、上記処理待ち画像に対して顔検出を行い、上記処理待ち画像における顔ボックス領域を得るステップを含み、上記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る上記ステップは、上記顔ボックス領域の画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップを含んでもよい。
いくつかの顔キーポイント検出アルゴリズムでは、顔の外部輪郭及び器官を特定する必要がある。本願の実施例では、顔を高い正確度で位置特定することができるため、上記顔キーポイントを得る前に、まず顔検出(高い正確度が要求されるが、任意の有用な顔検出アルゴリズムでも可能である)を行って顔の輪郭枠、即ち上記顔ボックス領域を得て、さらに該顔ボックス領域を入力として顔キーポイント検出を行い、上記キーポイント予測情報を得てから、予測顔領域を特定するようにしてもよい。
本願の実施例ではキーポイントの数を限定せず、顔の輪郭をマークできればよい。
いくつかの可能な実施形態では、処理待ち画像に対して顔検出を行い、上記処理待ち画像における予測顔領域を得るようにしてもよい。
いくつかの実施例では、顔分割の方法に基づいて顔検出を行い、上記処理待ち画像における予測顔領域を特定するようにしてもよい。本願の実施例では、顔領域の正確度が厳しく要求されていないため、顔領域を大まかに特定可能な関連アルゴリズムであれば上記予測顔領域の特定に用いられることができ、本願の実施例はこれを限定しない。
処理待ち画像の複数の画素点が偽造物に対応する確率を得て、及び上記処理待ち画像における予測顔領域を特定した後、ステップ103を実行できる。103で、上記処理待ち画像の複数の画素点が偽造物に対応する確率及び上記予測顔領域に基づき、上記処理待ち画像の生体検出結果を得る。
上記得られた複数の画素点が偽造物に対応する確率及び得られた顔のおおよその位置(予測顔領域)に基づいて総合的に分析することで、処理待ち画像における顔の真偽を判断することができる。ここで、上記複数の画素点が偽造物に対応する確率に基づいて確率分布図を生成でき、上記確率分布図は、処理待ち画像において画素点が偽造物に対応する確率を示す画像と解されてもよく、比較的直感的であり、それに踏まえて、上記予測顔領域と組み合わせて、該予測顔領域における画素点が偽造物に対応する確率を特定し、それによって生体検出における判定を行うようにしてもよい。ここで、予め設定された閾値によって画素点を判定してもよい。
一可能な実施形態では、上記複数の画素点の位置情報及び上記予測顔領域に基づき、上記複数の画素点から上記予測顔領域に含まれる少なくとも2つの画素点を特定し、そして上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記処理待ち画像の生体検出結果を判定するようにしてもよい。
いくつかの実施例では、処理待ち画像における画素点の位置が特定されてもよく、生体検出装置はその中の各画素点の位置情報を特定し、さらに上記画素点の位置情報及び上記予測顔領域に基づき、画素点と該予測顔領域との相対位置を判断し、それによって該予測顔領域内の画素点をさらに特定することができ、つまり、上記予測顔領域に含まれる少なくとも2つの画素点を特定することができ、それはPとしてもよく、予測顔領域の画素点の総数であってもよい。上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づいて生体検出結果を判定できることは、予測顔領域内の画素点について、それが偽造物に対応する確率が高ければ高いほど、確率が高い画素点が多ければ多いほど、生体検出結果が偽造物である可能性が高くなり、逆であれば、生体検出結果が生体である可能性が高くなると解されてもよい。
さらに、上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記処理待ち画像の生体検出結果を判定する上記ステップは、上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定するステップと、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合に基づき、上記処理待ち画像の生体検出結果を判定するステップと、を含む。
いくつかの実施例では、処理待ち画像の各画素点が偽造物に対応する確率が得られており、また予測顔領域に含まれる少なくとも2つの画素点も特定されているため、該少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定することができ、上記偽造物画素点は偽造物であると判定された画素点と解されてもよい。
ここで、偽造物画素点は確率と予め設定された閾値との比較に基づいて判定してもよい。一般的には、偽造物画素点が予測顔領域の画素点に占める割合が高ければ高いほど、生体検出の結果が偽造物であると判定される可能性が高くなる。
いくつかの実施例では、該生体検出装置に予め設定された閾値λが記憶されてもよく、上記少なくとも2つの画素点のうち偽造物に対応する確率が予め設定された閾値λより高い画素点の数を得てもよく、つまり、偽造物画素点はQとしてもよい。
上記偽造物画素点を特定した後、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合Q/Pを算出することができ、上記割合を特定した後、上記処理待ち画像の生体検出結果を判定できる。
いくつかの実施例では、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合に基づき、上記処理待ち画像の生体検出結果を判定する上記ステップは、上記割合が第1閾値以上であることに応答し、上記処理待ち画像の生体検出結果が偽造物であると判定するステップを含む。
いくつかの他の実施例では、上記割合が上記第1閾値未満であることに応答し、上記処理待ち画像の生体検出結果が生体であると判定する。
いくつかの実施例では、上記第1閾値λが予め設定されていてもよく、該生体検出装置には上記第1閾値λが記憶されていてもよく、それは1画素ずつに分析して生体検出における判定を行うために、つまり上記割合Q/Pと第1閾値λの大きさを比較することで、処理待ち画像における顔が偽造物であるかどうかを分析するために用いられる。一般的には、上記割合Q/Pが高ければ高いほど、生体検出結果が偽造物である可能性が高くなる。
割合Q/Pが第1閾値λ以上である場合、上記処理待ち画像の生体検出結果が偽造物であると判定でき、割合Q/Pが第1閾値λ未満である場合、上記処理待ち画像の生体検出結果が生体であると判定できる。
本願の実施例において画素点の判定に使用される各閾値は予め設定されてもよく、実情に応じて決定されてもよく、修正及び増減が加えられてもよく、本願の実施例はこれを限定しない。
一可能な実施形態では、上記処理待ち画像の生体検出結果は、該処理待ち画像における顔が生体であるか、それとも偽造物であるかという結果を含み、上記生体検出結果を得た後、上記生体検出結果を出力できる。
一実施形態では、該方法はさらに、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点を表示するステップを含む。
一実施形態では、該方法はさらに、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点の情報を表示用に出力するステップを含む。
いくつかの実施例では、生体検出装置は、上記少なくとも1つの偽造物画素点を表示してもよく、上記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点の情報を出力するように、生体検出結果を表示してもよく、上記情報は上記偽造物画素点を表示するために用いることができ、つまり、偽造物画素点を表示するために上記情報を他の端末機器へ伝送することができる。偽造物画素点を表示又はマークすることで、毎回の判定の根拠となる画像内の実際の領域が直感的に見られるため、検出結果の解釈可能性がより高い。
具体的な実施形態の上記方法において、各ステップの記述順序は厳しい実行順序であるというわけではなく、実施プロセスの何の制限にもならず、各ステップの具体的な実行順序はその機能と可能な内在的論理に依存することが当業者に理解される。
本願の実施例では、処理待ち画像を処理し、上記処理待ち画像の複数の画素点が偽造物に対応する確率を得て、上記処理待ち画像における予測顔領域を特定し、さらに上記処理待ち画像の複数の画素点が偽造物に対応する確率及び上記予測顔領域に基づき、上記処理待ち画像の生体検出結果を得ることができ、複眼カメラ、3D構造化光学などの余分のハードウェア機器を必要とせず、単眼カメラが1つだけである場合にも1フレームの画像による生体検出の精度を大幅に向上させることができ、適応性がより高く、検出コストが削減される。
図2は本願の実施例で開示される別の生体検出方法のフローチャートであり、図2は図1のもとにさらに最適化したものである。本願の実施例のステップを実行する主体は前述した生体検出装置であってもよい。図2に示すように、該生体検出方法は以下のステップを含む。201で、ニューラルネットワークを用いて処理待ち画像を処理し、上記処理待ち画像における各画素点が偽造物に対応する確率を出力する。
訓練後のニューラルネットワークは処理待ち画像における各画素点が偽造物に対応する確率を得る。いくつかの実施例では、処理待ち画像のサイズM×Nを得て、ニューラルネットワークに基づいて顔が含まれる処理待ち画像を処理するようにしてもよく、M×N次確率行列を出力してもよく、上記M×N次確率行列内の要素は上記処理待ち画像における各画素点が偽造物に対応する確率をそれぞれ示すことができ、ここで、上記M及びNは1より大きい整数である。
本願の実施例における画像サイズの長さと幅は画素を単位としてもよく、画素及び解像度画素はデジタル映像の最も基本的な単位であり、各画素は1つの小さな点であり、異なる色の点(画素)が集まったら画像となる。画像の解像度は多数の端末機器に選択可能な撮像大きさ及びサイズであり、dpiを単位とする。一般的な解像度は640×480、1024×768、1600×1200、2048×1536が挙げられる。撮像での2群の数字のうち、前者は画像の幅であり、後者は画像の高さであり、両者を乗算して得られたのは画像の画素である。
本願の実施例は主に、1フレームの画像による生体検出における技術的課題を解決する。ここで、上記処理待ち画像は1フレームの画像であってもよいし、カメラにより収集された画像、例えば端末機器のカメラにより撮影された写真、又は端末機器のカメラにより撮影されたビデオにおける1フレームの画像などであってもよい。
いくつかの実施例では、処理待ち画像を処理する上記ステップの前に、上記方法はさらに、単眼カメラにより収集された上記処理待ち画像を取得するステップを含む。
本願の実施例は処理待ち画像を取得する方式及び実施例の具体的な実施形態を限定しない。
本願の実施例で記載される1フレームの画像は、1つの静止画であり、その連続したフレームにより動画、例えばテレビビデオなどの効果が形成される。一般に、フレーム数とは、簡単に言えば、1秒間で伝送される画像のフレーム数であり、またグラフィックス処理装置が1秒毎にリフレッシュ可能な回数と解されてもよく、通常fpsで表される。高いフレームレートで、よりスムーズでより鮮明な動画を得ることができる。
本願の実施例は訓練後の畳み込みニューラルネットワークに基づいて顔が含まれる処理待ち画像を処理することができ、ここで、上記畳み込みニューラルネットワークは任意のエンドツーエンド、ポイントツーポイントの畳み込みニューラルネットワークであってもよく、完全教師あり学習用のセマンティックセグメンテーションネットワークを含む既存のセマンティックセグメンテーションネットワークであってもよい。
一実施形態では、画素レベルのラベルを有するサンプルデータを使用して上記畳み込みニューラルネットワークを訓練してもよく、画像レベルのラベルを有するデータを使用する従来の方法に比べ、同じ精度を達成するために必要なデータ量を大幅に減らすことができる。訓練後の畳み込みニューラルネットワークは、入力される1フレームの画像において1画素点ずつにそれが偽造物に対応する確率を予測することができる。
本願の実施例の生体検出方法の実行主体は生体検出装置であってもよく、例えば、端末機器又はサーバ又は他の処理機器によって実行してもよく、ここで、端末機器はユーザ機器(User Equipment、UE)、モバイル機器、ユーザ端末、端末、セルラー電話、コードレス電話機、携帯情報端末(Personal Digital Assistant、PDA)、ハンドヘルド機器、計算機器、車載機器、ウェアラブル機器などであってもよい。いくつかの可能な実施形態では、該生体検出方法はプロセッサによってメモリに記憶されたコンピュータ可読命令を呼び出すように実現してもよく、本願の実施例はこれを限定しない。
本願の実施例において上記生体検出装置は処理待ち画像のサイズM×Nを認識し、畳み込みニューラルネットワークによって顔が含まれる上記処理待ち画像を処理し、上記処理待ち画像における各画素点が偽造物に対応する確率を予測することができ、対応するM×N次確率行列の形で出力することができ、これは、上記M×N次確率行列内の要素が処理待ち画像における各画素点が偽造物に対応する確率をそれぞれ示すと解されてもよく、ここで、上記M及びNは1より大きい整数である。
本開示の実施例では、上記畳み込みニューラルネットワークに基づいて確率分布図をさらに生成でき、上記確率分布図は処理待ち画像において各画素点が偽造物に対応する確率を示す画像と解されてもよく、比較的直感的であり、生体検出における判定を容易にすることもできる。
いくつかの実施例では、上記畳み込みニューラルネットワークはミニバッチ確率的勾配降下アルゴリズム及び学習率減衰方法に基づいて訓練して得られてもよく、また類似する役割を果たす最適化アルゴリズムで代替してもよく、ネットワークモデルが訓練中に収束可能なように保証すればよく、本願の実施例は訓練アルゴリズムを限定しない。
勾配降下(Gradient Descent)は反復法の1つであり、最小二乗の問題(線形及び非線形のどちらでもよい)を解くために用いることができる。機械学習アルゴリズムのモデルパラメータを求める問題、即ち制約のない最適化問題を解く場合、勾配降下は最も一般的な方法の1つである。損失関数の最小値を求める時に、勾配降下法によって段階的に反復して求めて、最小化された損失関数及びモデルパラメータ値を得ることができる。機械学習において、基本的な勾配降下法に基づいて2つの勾配降下方法が拡張されており、それぞれ確率的勾配降下(Stochastic Gradient Descent、SGD)法及びハッチ勾配降下(Batch Gradient Descent、BGD)法である。
本願の実施例におけるミニバッチ勾配降下(Mini-Batch Gradient Descent、MBGD)は、バッチ勾配降下と確率的勾配降下を折衷した方法である。その原理として、毎回の反復に「batch_size」個のサンプルを繰り返して使用してパラメータを更新することである。該方法は、行列によって演算し、毎回1つのbatchでニューラルネットワークのパラメータを最適化するのは、一つのデータによる最適化よりそれほど遅くない。それに対し、毎回1つのbatchを使用すれば収束に必要な反復回数を大幅に低減するとともに、収束によって得られた結果を勾配降下による効果に近づけることができる。
学習率(Learning rate)は教師あり学習及び深層学習における重要なパラメータとして、目標関数が局所最小値に収束可能かどうか、及びいつ最小値に収束するかを決定するものである。適当な学習率は目標関数を適当な期間内で局所最小値に収束させることができる。
一実施形態では、上記学習率減衰方法において調整可能なパラメータは、初期学習率(例えば0.005とする)、及び減衰多項式のべき乗(例えば0.9とする)を含み、勾配降下アルゴリズムにおいて調整可能なのは、運動量(例えば0.5とする)、及び、重み値減衰パラメータ(例えば0.001とする)を含む。上記パラメータは訓練及び適用の実情に応じて設定及び修正してもよく、本願の実施例は訓練プロセスの具体的なパラメータ設定を限定しない。
202で、上記処理待ち画像における予測顔領域を特定する。
上記ステップ202は図1に示す実施例におけるステップ102の具体的な説明を参照すればよく、ここでは説明を省略する。
予測顔領域を特定し、上記処理待ち画像における各画素点が偽造物に対応する確率を得た後、ステップ203を実行できる。
203で、上記各画素点の位置情報及び上記予測顔領域に基づき、上記各画素点から上記予測顔領域に含まれる少なくとも2つの画素点を特定する。
いくつかの実施例では、処理待ち画像における画素点の位置が特定されてもよく、生体検出装置は、その中の各画素点の位置情報を特定し、さらに上記画素点の位置情報及び上記予測顔領域に基づき、画素点と該予測顔領域との相対位置を判断し、該予測顔領域内の画素点をさらに特定することができ、つまり、上記予測顔領域に含まれる少なくとも2つの画素点を特定することができ、それはPとしてもよく、予測顔領域の画素点の総数であってもよい。その後、ステップ204を実行できる。
204で、上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定する。
いくつかの実施例では、処理待ち画像の各画素点が偽造物に対応する確率が得られており、また予測顔領域に含まれる少なくとも2つの画素点も特定されているため、該少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定することができ、上記偽造物画素点は偽造物であると判定された画素点と解されてもよい。
ここで、偽造物画素点は確率と予め設定された閾値との比較に基づいて判定してもよい。該生体検出装置には予め設定された閾値λが記憶されていてもよく、上記少なくとも2つの画素点のうち偽造物に対応する確率が予め設定された閾値λより大きい画素点の数を得てもよく、つまり偽造物画素点の数はQとしてもよい。
上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定した後、ステップ205を実行できる。
205で、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合を特定する。さらに、上記偽造物画素点を特定した後、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合Q/P、即ち予測顔領域において偽造物画素点が占める割合を算出できる。上記割合を特定した後、ステップ206及び/又はステップ207を実行できる。
206で、上記割合が第1閾値以上であることに応答し、上記処理待ち画像の生体検出結果が偽造物であると判定する。本願の実施例では上記第1閾値λが予め設定されていてもよく、該生体検出装置には上記第1閾値λが記憶されていてもよく、それは1画素ずつに分析して生体検出における判定を行うために、つまり上記割合Q/Pが第1閾値λより大きくなるかどうかを判断することで、処理待ち画像における顔が偽造物であるかどうかを分析するために用いられる。割合Q/Pが第1閾値λ以上である場合、予測顔領域において偽造物画素点と判定された画素点が占める割合が高く、上記処理待ち画像の生体検出結果が偽造物であると判定でき、かつ上記生体検出結果を出力できる。割合Q/Pが第1閾値λより小さい場合、予測顔領域において偽造物画素点と判定された画素点が占める割合が低く、ステップ207を実行でき、つまり上記処理待ち画像の生体検出結果が生体であると判定できる。
さらに、上記処理待ち画像における顔が偽造物であると判定した後、警告情報を出力するか、又は所定の端末機器に上記警告情報を送信することで、ユーザに顔認識中に偽造物が検出されたと注意を促し、顔認識の安全性を保証することができる。
207で、上記割合が上記第1閾値より小さいことに応答し、上記処理待ち画像の生体検出結果が生体であると判定する。
別の実施形態では、該方法はさらに、
前記少なくとも2つの画素点が偽造物に対応する確率に対して平均処理を行い、確率平均値を得るステップと、
前記確率平均値に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む。
いくつかの実施例では、同様に、上記少なくとも2つの画素点が偽造物に対応する確率に対して平均処理を行い、確率平均値、即ち該予測顔領域内の各画素点が偽造物に属する確率の平均値Rを得るようにしてもよい。
いくつかの実施例では、該生体検出装置には目標閾値λが予め設定して記憶されていてもよく、さらに、上記確率平均値Rが目標閾値λより大きくなるかどうかを判断することで、生体検出における判定を行うことができる。上記確率平均値Rが目標閾値λより大きい場合、該顔の画素点が偽造物に属する確率が相対的に高く、上記処理待ち画像の生体検出結果が偽造物であると判定でき、上記確率平均値Rが目標閾値λ以下である場合、該顔の画素点が偽造物に属する確率が相対的に低く、上記処理待ち画像の生体検出結果が生体であると判定できる。
さらに別の実施形態では、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得る上記ステップは、前記処理待ち画像の複数の画素点が偽造物に対応する確率に基づき、前記処理待ち画像の偽造物領域を特定するステップと、前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含んでもよい。
上記偽造物領域は処理待ち画像において偽造物に対応する確率が相対的に高い画素点が集まった領域と解されてもよい。いくつかの実施例では、生体検出装置には第2閾値λが記憶されていてもよく、複数の画素点が偽造物に対応する確率と第2閾値λとを比較し、該第2閾値λ以上である画素点が存在する領域を偽造物領域と判定することができ、さらに、主に両者の重畳度合いを確認するように、偽造物領域と予測顔領域の位置を比較し、生体検出結果を判定することができる。
いくつかの実施例では、上記偽造物領域及び上記予測顔領域の位置に基づき、上記偽造物領域と上記予測顔領域との重畳領域を特定し、そして上記重畳領域が上記予測顔領域に占める割合に基づき、上記処理待ち画像の生体検出結果を判定するようにしてもよい。
上記偽造物領域と上記予測顔領域の位置対照によって、上記偽造物領域と上記予測顔領域との重畳領域を特定し、さらに該重畳領域が上記予測顔領域に占める割合nを算出することができ、それは該重畳領域の面積が該予測顔領域の面積を占める比率であってもよく、該割合nによって処理待ち画像の生体検出結果を判定でき、一般的には、該割合nが高ければ高いほど、検出結果が偽造物である可能性が高くなる。いくつかの実施例では、生体検出装置には第3閾値λが記憶されていてもよく、上記割合nと第3閾値λを比較し、上記割合nが第3閾値λ以上である場合、上記処理待ち画像の生体検出結果が偽造物であると判定し、上記割合nが第3閾値λより小さい場合、上記処理待ち画像の生体検出結果が生体であると判定することができる。
本願の実施例において画素点の判定に使用される各閾値は予め設定されても、実情に応じて決定されてもよく、かつ修正及び増減が加えられてもよく、本願の実施例はこれを限定しない。
図3に示すニューラルネットワークによる処理プロセスの模式図を参照すると、図中、画像Aは処理待ち画像であり、具体的には顔が含まれる画像であり、顔認識中に生体検出が必要であり、Bプロセスは本願の実施例における訓練後のニューラルネットワークを用いて、入力される画像Aを畳み込むことを表し、ここで、白枠は畳み込み層において特徴抽出プロセスを行った複数の特徴マップと解されてもよく、ニューラルネットワークによる処理プロセスは図1、図2における関連説明を参照すればよく、ここでは説明を省略する。ニューラルネットワークによって画像Aを1画素点ずつに予測することで、予測顔領域、及び特定された画像における各画素点が偽造物に対応する確率を含んでもよい画像Cを出力でき、つまり生体検出結果(偽造物又は生体)を得ることができる。生体検出結果が偽造物である場合、画像Cに示す予測顔領域は偽造物領域(画像C中部の浅色領域)となり、その中に含まれる確率判断用の画素点は上記偽造物画素点と呼ばれてもよく、隅部の黒色領域はおおむね画像背景と判定された部分であり、生体検出への影響が小さい。上記ニューラルネットワークに基づく処理対象の入力画像の処理では、その出力結果からも判定の根拠となる画像における実際の領域が直感的に見られ、その生体検出結果がより高い解釈可能性を有する。
具体的な実施形態の上記方法において、各ステップの記述順序は厳しい実行順序であるというわけではなく、実施プロセスの何の制限にもならず、各ステップの具体的な実行順序はその機能と可能な内在的論理に依存することが当業者に理解される。
本願の実施例は顔認識システムの一部として、システムに入力される顔の真偽を判定し、全顔認識システムの安全を保障することができる。いくつかの実施例では、監視システム又は出退勤システムなどの顔認識シーンに用いられてもよく、画像における顔が偽造物に属する確率を直接予測する方法に比べ、画素点に基づく確率分析は生体検出の精度が向上し、しかも、単眼カメラ及び1フレームの画像の検出に適し、適応性が高く、複眼カメラ、3D構造化光などのハードウェア機器を用いた生体検出と比べてコストが削減される。画素レベルのラベルを有するサンプルデータを使用して畳み込みニューラルネットワークを訓練することは、一般的な、画像レベルのラベルを有するデータを使用することに比べ、同じ精度を達成するために必要なデータ量が1から2桁減らされ、生体検出の精度を向上させた上で訓練に必要なデータ量が低減され、処理効率が向上する。
本願の実施例はニューラルネットワークを用いて処理待ち画像を処理することで、上記処理待ち画像における各画素点が偽造物に対応する確率を出力し、上記処理待ち画像における予測顔領域を特定し、上記各画素点の位置情報及び上記予測顔領域に基づき、上記各画素点から上記予測顔領域に含まれる少なくとも2つの画素点を特定し、さらに上記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、上記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定し、その後、上記少なくとも1つの偽造物画素点が上記少なくとも2つの画素点に占める割合を特定し、上記割合が第1閾値以上であることに応答し、上記処理待ち画像の生体検出結果が偽造物であると判定し、上記割合が上記第1閾値より小さいことに応答し、上記処理待ち画像の生体検出結果が生体であると判定しており、複眼カメラ、3D構造化光学などの余分のハードウェア機器を必要とせず、単眼カメラが1つだけである場合にも、1画素点ずつに予測することで、1フレームの画像の生体検出の精度を大幅に向上させることができ、適応性がより高く、検出コストが削減される。
以上の記述は主に方法の実行プロセスの点から本願の実施例の解決手段を説明した。なお、生体検出装置は上記機能を実現するために、各機能を実行する対応するハードウェア構造及び/又はソフトウェアモジュールを含んでいることが理解される。当業者であれば、本願は、本明細書に開示される実施例に記載の各例のユニット及びアルゴリズムステップを組み合わせ、ハードウェア又はハードウェアとコンピュータソフトウェアの組み合わせという形で実現可能であることを容易に認識できる。ある機能はハードウェアで実行するか、それともコンピュータソフトウェアでハードウェアを駆動するように実行するかは、技術的解決手段の特定の用途及び設計上の制約条件によって決められる。専門技術者であれば、特定の用途に向けて異なる方法を使用して、記載の機能を実現できるが、このような実現は本願の範囲を超えたものであると理解すべきではない。
本願の実施例は上記方法が例示するように生体検出装置の機能ユニットを分割でき、例えば、各機能に対応して各機能ユニットを分割してもよく、2つ以上の機能を1つの処理ユニットに統合してもよい。上記統合されたユニットはハードウェアの形で実現してもよく、ソフトウェア機能ユニットの形で実現してもよい。説明すべきは、本願の実施例におけるユニットの分割は例示的なもので、論理機能の分割にすぎず、実際に実現する場合に別の形態で分割してもよいことである。
図4は本願の実施例で開示される生体検出装置の構成模式図である。図4に示すように、該生体検出装置300は、処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得るための画素予測モジュール310と、前記処理待ち画像における予測顔領域を特定するための顔検出モジュール320と、前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るための前記分析モジュール330と、を含む。
いくつかの実施例では、前記画素予測モジュール310は、前記処理待ち画像を畳み込みニューラルネットワークに入力して処理し、前記処理待ち画像における各画素点が偽造物に対応する確率を得るために用いられる。
いくつかの実施例では、上記畳み込みニューラルネットワークは、画素レベルのラベルを有するサンプルデータに基づいて訓練して得られる。
いくつかの実施例では、前記分析モジュール330は、前記複数の画素点の位置情報及び前記予測顔領域に基づき、前記複数の画素点から前記予測顔領域に含まれる少なくとも2つの画素点を特定するための第1ユニット331と、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定するための第2ユニット332と、を含む。
いくつかの実施例では、前記第2ユニット332は、前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定するステップと、前記少なくとも1つの偽造物画素点が前記少なくとも2つの画素点に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を実行するために用いられる。
一実施形態では、前記第2ユニット332は、前記割合が第1閾値以上であることに応答し、前記処理待ち画像の生体検出結果が偽造物であると判定するために、及び/又は、前記割合が前記第1閾値未満であることに応答し、前記処理待ち画像の生体検出結果が生体であると判定するために用いられる。
いくつかの実施例では、前記第2ユニット332は、前記少なくとも2つの画素点が偽造物に対応する確率に対して平均処理を行い、確率平均値を得るステップと、前記確率平均値に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を実行するために用いられる。
一実施形態では、前記分析モジュール330は、前記処理待ち画像の複数の画素点が偽造物に対応する確率に基づき、前記処理待ち画像の偽造物領域を特定するステップと、前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を実行するために用いられる。
いくつかの実施例では、前記分析モジュール330は、前記偽造物領域及び前記予測顔領域の位置に基づき、前記偽造物領域と前記予測顔領域との重畳領域を特定するステップと、前記重畳領域が前記予測顔領域に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を実行するために用いられる。
一可能な実施形態では、該生体検出装置300はさらに、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点を表示するための表示モジュール340、及び/又は、前記複数の画素点が偽造物に対応する確率に基づいて特定された少なくとも1つの偽造物画素点の情報を表示用に出力するための伝送モジュール350を含む。
いくつかの実施例では、前記顔検出モジュール320は、前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップと、前記キーポイント予測情報に基づき、前記処理待ち画像における予測顔領域を特定するステップと、を実行するために用いられる。
いくつかの実施例では、前記顔検出モジュール320はさらに、前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における顔ボックス領域を得るために用いられ、前記顔検出モジュール320は、前記顔ボックス領域の画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るために用いられる。
一実施形態では、前記顔検出モジュール320は、前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における予測顔領域を得るために用いられる。
一実施形態では、上記生体検出装置300はさらに、単眼カメラにより収集された前記処理待ち画像を取得するための画像取得モジュール360を含む。
本願の実施例における生体検出装置300を使用すれば、前述した図1及び図2の実施例における生体検出方法を実現できる。
図4に示す生体検出装置300を実現すれば、生体検出装置300は処理待ち画像を処理し、上記処理待ち画像の複数の画素点が偽造物に対応する確率を得て、上記処理待ち画像における予測顔領域を特定し、さらに上記処理待ち画像の複数の画素点が偽造物に対応する確率及び上記予測顔領域に基づき、上記処理待ち画像の生体検出結果を得ることができ、複眼カメラ、3D構造化光学などの余分のハードウェア機器を必要とせず、単眼カメラが1つだけである場合にも1フレームの画像による生体検出の精度を大幅に向上させることができ、適応性がより高く、検出コストが削減される。
図5は本願の実施例で開示される電子機器の構成模式図である。図5に示すように、該電子機器400はプロセッサ401及びメモリ402を含み、ここで、電子機器400はさらにバス403を含んでもよく、プロセッサ401とメモリ402はバス403を介して互いに接続することができ、バス403は周辺構成要素相互接続(Peripheral Component Interconnect、PCI)バス又は拡張業界標準アーキテクチャ(Extended Industry Standard Architecture、EISA)バスなどであってもよい。バス403はアドレスバス、データバス、制御バスなどに分けられる。表示の便宜上、図4には1つの太線で表すが、バスが1つだけ又はバスが1タイプだけあるというわけではない。ここで、電子機器400は、例えば液晶ディスプレイのようなディスプレイを含んでもよい入出力機器404を含んでもよい。メモリ402はコンピュータプログラムを記憶するために用いられ、プロセッサ401はメモリ402に記憶されたコンピュータプログラムを呼び出して上記図1及び図2の実施例で記載される一部又は全ての方法ステップを実行するために用いられる。
図5に示す電子機器400を実現すれば、電子機器400は処理待ち画像を処理し、上記処理待ち画像の複数の画素点が偽造物に対応する確率を得て、上記処理待ち画像における予測顔領域を特定し、さらに上記処理待ち画像の複数の画素点が偽造物に対応する確率及び上記予測顔領域に基づき、上記処理待ち画像の生体検出結果を得ることができ、複眼カメラ、3D構造化光学などの余分のハードウェア機器を必要とせず、単眼カメラが1つだけである場合にも1フレームの画像による生体検出の精度を大幅に向上させることができ、適応性がより高く、検出コストが削減される。
本願の実施例は、コンピュータに上記方法の実施例に記載のいずれかの生体検出方法の一部又は全てのステップを実行させるコンピュータプログラムを記憶するためのコンピュータ記憶媒体をさらに提供する。
本願の実施例は、上記方法の実施例に記載のいずれかの生体検出方法の一部又は全てのステップを実行するためのプロセッサにより実行されるように構成されたコンピュータプログラムを含むコンピュータプログラム製品を提供する。
説明すべきは、前述した各方法の実施例について、説明の便宜上、いずれも一連の動作の組み合わせとして説明したが、本願によれば、いくつかのステップが他の順序で又は同時に実行されてもよいことから、当業者であれば、本願は記載された動作の順序に限定されないことが理解される点である。次に、当業者であれば、明細書に記載の実施例はいずれも好適な実施例であり、係る動作及びモジュールは必ずしも本願に必須なものではないことも理解すべきである。
上記実施例では、各実施例に対する記述が着目している点が異なり、ある実施例において詳細に記述されていない部分は、他の実施例の関連説明を参照すればよい。
なお、本願が提供するいくつかの実施例では、開示される装置が他の形態で実現されてもよいことを理解すべきである。例えば、上述した装置の実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現する場合に別の形態で分割してもよく、例えば、複数のユニット又はコンポーネントは組み合わせてもよいし、又は別のシステムに統合してもよいし、又は一部の特徴を省略もしくは実行しなくてもよい。また、図示又は説明した各構成要素の結合、又は直接結合、又は通信接続は、いくつかのインタフェース、機器又はユニットを介した間接結合又は通信接続であり得、電気的、機械的又は他の形態であり得る。
別々の部材として前述したユニット(モジュール)は物理的に分離されてもされなくてもよく、ユニットとして示された部材は物理的ユニットであってもなくてもよく、一箇所にあっても複数のネットワークユニットに分散してもよい。本実施例の解決手段の目的を達成するには、実際の必要に応じて一部又は全てのユニットを選択することができる。
また、本願の各実施例における各機能ユニットは全て1つの処理ユニットに統合されてもよいし、それぞれ独立して物理的に存在してもよく、2つ以上で1つのユニットに統合されてもよい。上記統合されたユニットはハードウェアの形で実現してもよく、ソフトウェア機能ユニットの形で実現してもよい。
前記統合されたユニットはソフトウェア機能モジュールの形で実現されかつ独立した製品として販売又は使用される場合、コンピュータ可読メモリに記憶されてもよい。このような見解をもとに、本願の技術的解決手段は実質的に、又は従来技術に寄与する部分、又は該技術的解決手段の全て又は一部がソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品はメモリに記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってもよい)に本願の各実施例に記載の方法の全て又は一部のステップを実行させる複数の命令を含む。前記メモリは、USBメモリ、読み取り専用メモリ(Read Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、ポータブルハードディスク、磁気ディスク又は光ディスクなどのプログラムコードを記憶可能である様々な媒体を含む。
当業者であれば、上記の実施例の各方法における全て又は一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完成できることを理解でき、該プログラムは、フラッシュディスク、読み取り専用メモリ、ランダムアクセスメモリ、磁気ディスク又は光ディスクなどを含むコンピュータ可読メモリに記憶可能である。
以上、本願の実施例を詳細に説明した。本明細書では具体例により本願の原理及び実施形態を説明したが、以上の実施例の説明は本願の方法及びその核心思想に対する理解を助けるためのものにすぎず、同時に、当業者であれば、本願の思想に基づき、具体的な実施形態及び適用範囲を一定程度変更することができ、まとめて言えば、本明細書の内容は本願を限定するものと理解すべきではない。

Claims (16)

  1. 処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得るステップであって、前記処理待ち画像の複数の画素点が偽造物に対応する確率は、確率行列である、ことと、
    前記処理待ち画像における予測顔領域を特定するステップと、
    前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るステップと、を含み、
    前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るステップは、
    前記処理待ち画像の複数の画素点が偽造物に対応する確率に基づき、前記処理待ち画像の偽造物領域を特定するステップと、
    前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む、
    生体検出方法。
  2. 処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得る前記ステップは、
    ニューラルネットワークを用いて前記処理待ち画像を処理し、前記処理待ち画像における各画素点が偽造物に対応する確率を出力するステップを含む、請求項1に記載の生体検出方法。
  3. 前記ニューラルネットワークは、画素レベルのラベルを有するサンプルデータに基づいて訓練して得られる、請求項2に記載の生体検出方法。
  4. 前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得る前記ステップは、
    前記複数の画素点の位置情報及び前記予測顔領域に基づき、前記複数の画素点から前記予測顔領域に含まれる少なくとも2つの画素点を特定するステップと、
    前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む、請求項1から3のいずれか一項に記載の生体検出方法。
  5. 前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、
    前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記少なくとも2つの画素点のうちの少なくとも1つの偽造物画素点を特定するステップと、
    前記少なくとも1つの偽造物画素点が前記少なくとも2つの画素点に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む、請求項4に記載の生体検出方法。
  6. 前記少なくとも1つの偽造物画素点が前記少なくとも2つの画素点に占める割合に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、
    前記割合が第1閾値以上であることに応答し、前記処理待ち画像の生体検出結果が偽造物であると判定するステップ、及び/又は
    前記割合が前記第1閾値未満であることに応答し、前記処理待ち画像の生体検出結果が生体であると判定するステップ、を含む、請求項5に記載の生体検出方法。
  7. 前記少なくとも2つの画素点の各々が偽造物に対応する確率に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、
    前記少なくとも2つの画素点が偽造物に対応する確率に対して平均処理を行い、確率平均 値を得るステップと、
    前記確率平均値に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む、請求項4に記載の生体検出方法。
  8. 前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定する前記ステップは、
    前記偽造物領域及び前記予測顔領域の位置に基づき、前記偽造物領域と前記予測顔領域との重畳領域を特定するステップと、
    前記重畳領域が前記予測顔領域に占める割合に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を含む、請求項に記載の生体検出方法。
  9. 前記処理待ち画像における予測顔領域を特定する前記ステップは、
    前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップと、
    前記キーポイント予測情報に基づき、前記処理待ち画像における予測顔領域を特定するステップと、を含む、請求項1からのいずれか一項に記載の生体検出方法。
  10. 前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る前記ステップの前に、さらに、
    前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における顔ボックス領域を得るステップを含み、
    前記処理待ち画像に対して顔キーポイント検出を行い、キーポイント予測情報を得る前記ステップは、
    前記顔ボックス領域の画像に対して顔キーポイント検出を行い、キーポイント予測情報を得るステップを含む、請求項に記載の生体検出方法。
  11. 前記処理待ち画像における予測顔領域を特定する前記ステップは、
    前記処理待ち画像に対して顔検出を行い、前記処理待ち画像における予測顔領域を得るステップを含む、請求項1からのいずれか一項に記載の生体検出方法。
  12. 処理待ち画像を処理する前記ステップの前に、さらに、
    単眼カメラにより収集された前記処理待ち画像を取得するステップを含む、請求項1から11のいずれか一項に記載の生体検出方法。
  13. 処理待ち画像を処理し、前記処理待ち画像の複数の画素点が偽造物に対応する確率を得るための画素予測モジュールであって、前記処理待ち画像の複数の画素点が偽造物に対応する確率は、確率行列である、画素予測モジュールと、
    前記処理待ち画像における予測顔領域を特定するための顔検出モジュールと、
    前記処理待ち画像の複数の画素点が偽造物に対応する確率及び前記予測顔領域に基づき、前記処理待ち画像の生体検出結果を得るための分析モジュールと、を含み、
    前記分析モジュールは、さらに、前記処理待ち画像の複数の画素点が偽造物に対応する確率に基づき、前記処理待ち画像の偽造物領域を特定するステップと、前記偽造物領域及び前記予測顔領域の位置に基づき、前記処理待ち画像の生体検出結果を判定するステップと、を実行するために用いられる、
    生体検出装置。
  14. 請求項1から12のいずれか一項に記載の方法を実行するためのプロセッサと、前記プロセッサにより実行されるように構成されたコンピュータプログラムを記憶するためのメモ リと、を含む、電子機器。
  15. コンピュータに請求項1から12のいずれか一項に記載の方法を実行させるコンピュータプログラムを記憶するためのコンピュータ可読記憶媒体。
  16. プロセッサに請求項1から12のいずれか一項に記載の方法を実行させるコンピュータプログラム。
JP2020544595A 2019-04-01 2019-11-22 生体検出方法及び装置、電子機器ならびに記憶媒体 Active JP7165742B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910257350.9A CN111767760A (zh) 2019-04-01 2019-04-01 活体检测方法和装置、电子设备及存储介质
CN201910257350.9 2019-04-01
PCT/CN2019/120404 WO2020199611A1 (zh) 2019-04-01 2019-11-22 活体检测方法和装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021520530A JP2021520530A (ja) 2021-08-19
JP7165742B2 true JP7165742B2 (ja) 2022-11-04

Family

ID=72664509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020544595A Active JP7165742B2 (ja) 2019-04-01 2019-11-22 生体検出方法及び装置、電子機器ならびに記憶媒体

Country Status (7)

Country Link
US (1) US20200380279A1 (ja)
JP (1) JP7165742B2 (ja)
KR (1) KR20200118076A (ja)
CN (1) CN111767760A (ja)
SG (1) SG11202008103YA (ja)
TW (1) TWI754887B (ja)
WO (1) WO2020199611A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019118089A1 (en) * 2017-12-11 2019-06-20 Analog Devices, Inc. Multi-modal far field user interfaces and vision-assisted audio processing
US11861480B2 (en) * 2018-08-21 2024-01-02 Siemens Mobility GmbH Orientation detection in overhead line insulators
US11670069B2 (en) * 2020-02-06 2023-06-06 ID R&D, Inc. System and method for face spoofing attack detection
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN112102154B (zh) * 2020-08-20 2024-04-26 北京百度网讯科技有限公司 图像处理方法、装置、电子设备和存储介质
CN112651311A (zh) * 2020-12-15 2021-04-13 展讯通信(天津)有限公司 一种人脸识别方法和相关设备
CN112883902B (zh) * 2021-03-12 2023-01-24 百度在线网络技术(北京)有限公司 视频检测方法、装置、电子设备及存储介质
CN113705428A (zh) * 2021-08-26 2021-11-26 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备及计算机可读存储介质
CN113869906A (zh) * 2021-09-29 2021-12-31 北京市商汤科技开发有限公司 人脸支付方法及装置、存储介质
CN113971841A (zh) * 2021-10-28 2022-01-25 北京市商汤科技开发有限公司 一种活体检测方法、装置、计算机设备及存储介质
CN114648814A (zh) * 2022-02-25 2022-06-21 北京百度网讯科技有限公司 人脸活体检测方法及模型的训练方法、装置、设备及介质
CN116363762A (zh) * 2022-12-23 2023-06-30 北京百度网讯科技有限公司 活体检测方法、深度学习模型的训练方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272775A (ja) 2006-03-31 2007-10-18 Secom Co Ltd 生体照合システム
JP2010178160A (ja) 2009-01-30 2010-08-12 Nikon Corp 電子カメラおよび画像処理プログラム
JP2017016192A (ja) 2015-06-26 2017-01-19 株式会社東芝 立体物検知装置及び立体物認証装置
CN107220635A (zh) 2017-06-21 2017-09-29 北京市威富安防科技有限公司 基于多造假方式的人脸活体检测方法
JP2019504659A (ja) 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415137B2 (en) * 2002-12-13 2008-08-19 Canon Kabushiki Kaisha Image processing method, apparatus and storage medium
CN1306456C (zh) * 2002-12-13 2007-03-21 佳能株式会社 图像处理方法和装置
CN105389554B (zh) * 2015-11-06 2019-05-17 北京汉王智远科技有限公司 基于人脸识别的活体判别方法和设备
US10987030B2 (en) * 2016-06-30 2021-04-27 Koninklijke Philips N.V. Method and apparatus for face detection/recognition systems
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10262236B2 (en) * 2017-05-02 2019-04-16 General Electric Company Neural network training image generation system
CN107358157B (zh) * 2017-06-07 2020-10-02 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
CN108280418A (zh) * 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置
TWI632509B (zh) * 2017-12-29 2018-08-11 技嘉科技股份有限公司 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質
CN108121977A (zh) * 2018-01-08 2018-06-05 深圳天珑无线科技有限公司 一种移动终端及其活体人脸识别方法和系统
CN108549854B (zh) * 2018-03-28 2019-04-30 中科博宏(北京)科技有限公司 一种人脸活体检测方法
CN108537193A (zh) * 2018-04-17 2018-09-14 厦门美图之家科技有限公司 一种人脸属性中的种族属性识别方法及移动终端
CN109035516A (zh) * 2018-07-25 2018-12-18 深圳市飞瑞斯科技有限公司 控制智能锁的方法、装置、设备及存储介质
CN109086718A (zh) * 2018-08-02 2018-12-25 深圳市华付信息技术有限公司 活体检测方法、装置、计算机设备及存储介质
US11657525B2 (en) * 2018-12-04 2023-05-23 Yoti Holding Limited Extracting information from images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272775A (ja) 2006-03-31 2007-10-18 Secom Co Ltd 生体照合システム
JP2010178160A (ja) 2009-01-30 2010-08-12 Nikon Corp 電子カメラおよび画像処理プログラム
JP2017016192A (ja) 2015-06-26 2017-01-19 株式会社東芝 立体物検知装置及び立体物認証装置
JP2019504659A (ja) 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
CN107220635A (zh) 2017-06-21 2017-09-29 北京市威富安防科技有限公司 基于多造假方式的人脸活体检测方法

Also Published As

Publication number Publication date
TWI754887B (zh) 2022-02-11
CN111767760A (zh) 2020-10-13
TW202038191A (zh) 2020-10-16
US20200380279A1 (en) 2020-12-03
SG11202008103YA (en) 2020-11-27
JP2021520530A (ja) 2021-08-19
WO2020199611A1 (zh) 2020-10-08
KR20200118076A (ko) 2020-10-14

Similar Documents

Publication Publication Date Title
JP7165742B2 (ja) 生体検出方法及び装置、電子機器ならびに記憶媒体
CN107766786B (zh) 活性测试方法和活性测试计算设备
TWI706272B (zh) 生物識別系統及用於生物識別之電腦實施方法
US10832069B2 (en) Living body detection method, electronic device and computer readable medium
JP6629513B2 (ja) ライブネス検査方法と装置、及び映像処理方法と装置
Zhang et al. Fast and robust occluded face detection in ATM surveillance
Deb et al. Look locally infer globally: A generalizable face anti-spoofing approach
US20190095701A1 (en) Living-body detection method, device and storage medium
Fourati et al. Anti-spoofing in face recognition-based biometric authentication using image quality assessment
WO2021196389A1 (zh) 面部动作单元识别方法、装置、电子设备及存储介质
CN111626163B (zh) 一种人脸活体检测方法、装置及计算机设备
CN110738116B (zh) 活体检测方法及装置和电子设备
EP4024270A1 (en) Gesture recognition method, electronic device, computer-readable storage medium, and chip
WO2020159437A1 (en) Method and system for face liveness detection
CN110852311A (zh) 一种三维人手关键点定位方法及装置
CN109508636A (zh) 车辆属性识别方法、装置、存储介质及电子设备
CN112733802A (zh) 图像的遮挡检测方法、装置、电子设备及存储介质
Sharma et al. A survey on face presentation attack detection mechanisms: hitherto and future perspectives
KR101961462B1 (ko) 객체 인식 방법 및 장치
CN115546906A (zh) 检测图像中人脸活度的系统和方法及电子设备
CN108875467B (zh) 活体检测的方法、装置及计算机存储介质
CN112580395A (zh) 基于深度信息的3d人脸活体识别方法、系统、设备及介质
KR102579610B1 (ko) Atm 이상행동감지 장치 및 그 장치의 구동방법
CN114663930A (zh) 一种活体检测方法、装置、终端设备及存储介质
KUMAR A COMPARATIVE ANALYSIS ON FACE ANTI SPOOFING DETECTION APPROACHES

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7165742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150