JP7026225B2 - 生体検出方法、装置及びシステム、電子機器並びに記憶媒体 - Google Patents

生体検出方法、装置及びシステム、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP7026225B2
JP7026225B2 JP2020527737A JP2020527737A JP7026225B2 JP 7026225 B2 JP7026225 B2 JP 7026225B2 JP 2020527737 A JP2020527737 A JP 2020527737A JP 2020527737 A JP2020527737 A JP 2020527737A JP 7026225 B2 JP7026225 B2 JP 7026225B2
Authority
JP
Japan
Prior art keywords
target
depth map
detection result
target object
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527737A
Other languages
English (en)
Other versions
JP2021503659A (ja
Inventor
ティエンポン パオ
リーウェイ ウー
カイ ヤン
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2021503659A publication Critical patent/JP2021503659A/ja
Application granted granted Critical
Publication of JP7026225B2 publication Critical patent/JP7026225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Description

(関連出願の相互参照)
本願は、2018年7月27日に中国特許局に提出された、出願番号201810846587.6、出願の名称「生体検出方法、装置及びシステム、電子機器並びに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は、コンピュータビジョン技術に関し、特に生体検出方法、装置及びシステム、電子機器並びに記憶媒体に関する。
現在、顔認識技術は、顔によるロック解除、顔による支払、無人スーパー及びビデオ監視などのシーンに広く用いられている。しかしながら、顔認識技術には、顔の実体写真、顔の電子写真又は顔が含まれるビデオなどの形式の非生体顔に攻撃されやすいリスクが存在する。従って、生体検出は顔認識における不可欠な一環である。
これに鑑みて、本願は生体検出技術手段を提供する。
本願の一態様によれば、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得することと、前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることと、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することと、を含む生体検出方法を提供する。
可能な一実現形態では、前記深度センサは飛行時間(TOF)センサ又は構造光センサである。
可能な一実現形態では、前記画像センサはRGBセンサ又は近赤外線センサである。
可能な一実現形態では、前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることは、前記第1の深度マップ中の前記目標対象の対応領域の少なくとも1つの失効位置を決定することと、前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることと、を含む。
可能な一実現形態では、前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることは、前記目標対象の対応領域の少なくとも1つの失効位置が前記目標対象の対応領域中で占める割合に基づいて、前記第1の深度マップの品質検出結果を得ることを含む。
可能な一実現形態では、前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることは、前記目標対象の対応領域の少なくとも1つの失効位置及び前記少なくとも1つの失効位置に対応する重みに基づいて、前記第1の深度マップの品質検出結果を得ることを含む。
可能な一実現形態では、前記第1の深度マップ中の前記目標対象の対応領域の少なくとも1つの失効位置を決定することは、前記目標対象の対応領域中の深度値がゼロとなる位置を前記失効位置として決定することを含む。
可能な一実現形態では、前記方法は、前記第1の目標画像に対してキーポイント検出を行い、前記目標対象のキーポイント情報を得ることと、前記目標対象のキーポイント情報に基づいて、前記第1の深度マップから前記目標対象の対応領域を決定することと、を更に含む。
可能な一実現形態では、前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることは、前記第1の深度マップを第1のニューラルネットワークに入力して処理し、前記第1の深度マップに対応する品質信頼度を得ることと、第1の深度マップに対応する品質信頼度に基づいて、前記第1の深度マップの品質検出結果を得ることと、を含む。
可能な一実現形態では、前記の第1の深度マップに対応する品質信頼度に基づいて、前記第1の深度マップの品質検出結果を得ることは、前記第1の深度マップに対応する品質信頼度が第1の閾値より大きいことに応答して、前記第1の深度マップの品質検出結果を品質合格と決定すること、及び/又は前記第1の深度マップに対応する品質信頼度が前記第1の閾値以下であることに応答して、前記第1の深度マップの品質検出結果を品質不合格と決定することを含む。
可能な一実現形態では、前記第1の目標画像に対してキーポイント検出を行うことの前に、前記方法は、前記深度センサのパラメータと前記画像センサのパラメータにより、前記第1の深度マップと前記第1の目標画像をアライメントすることを更に含む。
可能な一実現形態では、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、前記第1の深度マップの品質検出結果が品質合格であることに応答して、前記第1の深度マップと前記第1の目標画像に基づいて、前記目標対象の生体検出結果を得ることを含む。
可能な一実現形態では、前記第1の深度マップと前記第1の目標画像に基づいて、前記目標対象の生体検出結果を得ることは、前記第1の深度マップ及び前記第1の目標画像に含まれる前記目標対象のキーポイント情報に基づいて、前記目標対象の生体検出結果を得ることを含む。
可能な一実現形態では、前記第1の深度マップ及び前記第1の目標画像に含まれる前記目標対象のキーポイント情報に基づいて、前記目標対象の生体検出結果を得ることは、前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることと、前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることと、前記第1の特徴情報及び前記第2の特徴情報に基づいて、前記目標対象の生体検出結果を決定することと、を含む。
可能な一実現形態では、前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、前記第1の深度マップ及び前記目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得ることを含み、前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、前記第1の目標画像及び前記目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得ることを含む。
可能な一実現形態では、前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、前記第1の深度マップ及び前記目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得ることと、前記第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、前記第1のダウンサンプリング結果に基づいて、第1の特徴情報を得ることと、を含む。
可能な一実現形態では、前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、前記第1の目標画像及び前記目標対象のキーポイント情報に対して畳み込み処理を行い、第2の畳み込み結果を得ることと、前記第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることと、前記第2のダウンサンプリング結果に基づいて、第2の特徴情報を得ることと、を含む。
可能な一実現形態では、前記第1の特徴情報及び前記第2の特徴情報に基づいて、前記目標対象の生体検出結果を決定することは、前記第1の特徴情報及び前記第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得ることと、前記第3の特徴情報により、前記目標対象の生体検出結果を決定することと、を含む。
可能な一実現形態では、前記第3の特徴情報により、生体検出結果を決定することは、前記第3の特徴情報に基づいて、前記目標対象が生体である確率を得ることと、前記目標対象が生体である確率により、前記目標対象の生体検出結果を決定することと、を含む。
可能な一実現形態では、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、前記第1の深度マップの品質検出結果が品質不合格であることに応答して、前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得ることを含む。
可能な一実現形態では、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、前記第1の深度マップの品質検出結果が品質不合格であり且つ前記第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得ることを含む。
本願の一態様によれば、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得するための取得モジュールと、前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得るための品質検出モジュールと、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定するための第1の決定モジュールと、を含む生体検出装置を提供する。
本願の一態様によれば、プロセッサと、プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、前記プロセッサは上記生体検出方法を実行するように構成される電子機器を提供する。
本願の一態様によれば、コンピュータプログラムコマンドが記憶されたコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に上記生体検出方法を実現するコンピュータ可読記憶媒体を提供する。
本願の一態様によれば、前記電子機器、前記深度センサ及び前記画像センサを含む生体検出システムを提供する。
本願の一態様によれば、前記コンピュータ可読記憶媒体、前記深度センサ及び前記画像センサを含む生体検出システムを提供する。
本願の一態様によれば、目標対象の第1の深度マップを検出するための深度センサと、前記目標対象を含む第1の目標画像を収集するための画像センサと、前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得、前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定するためのプロセッサと、を含む電子機器を提供する。
可能な一実現形態では、前記深度センサは飛行時間(TOF)センサ又は構造光センサである。
可能な一実現形態では、前記画像センサはRGBセンサ又は近赤外線センサである。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップ中の前記目標対象の対応領域の少なくとも1つの失効位置を決定することと、前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることとに用いられる。
可能な一実現形態では、前記プロセッサは、前記目標対象の対応領域の少なくとも1つの失効位置が前記目標対象の対応領域中で占める割合に基づいて、前記第1の深度マップの品質検出結果を得るために用いられる。
可能な一実現形態では、前記プロセッサは、前記目標対象の対応領域の少なくとも1つの失効位置及び前記少なくとも1つの失効位置に対応する重みに基づいて、前記第1の深度マップの品質検出結果を得るために用いられる。
可能な一実現形態では、前記プロセッサは、前記目標対象の対応領域中の深度値がゼロとなる位置を前記失効位置として決定するために用いられる。
可能な一実現形態では、前記プロセッサは、更に、前記第1の目標画像に対してキーポイント検出を行い、前記目標対象のキーポイント情報を得ることと、前記目標対象のキーポイント情報に基づいて、前記第1の深度マップから前記目標対象の対応領域を決定することとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップを第1のニューラルネットワークに入力して処理し、前記第1の深度マップに対応する品質信頼度を得ることと、第1の深度マップに対応する品質信頼度に基づいて、前記第1の深度マップの品質検出結果を得ることとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップに対応する品質信頼度が第1の閾値より大きいことに応答して、前記第1の深度マップの品質検出結果を品質合格と決定すること、及び/又は前記第1の深度マップに対応する品質信頼度が前記第1の閾値以下であることに応答して、前記第1の深度マップの品質検出結果を品質不合格と決定するために用いられる。
可能な一実現形態では、前記プロセッサは、更に、前記深度センサのパラメータと前記画像センサのパラメータにより、前記第1の深度マップと前記第1の目標画像をアライメントするために用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップの品質検出結果が品質合格であることに応答して、前記第1の深度マップと前記第1の目標画像に基づいて、前記目標対象の生体検出結果を得るために用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップ及び前記第1の目標画像に含まれる前記目標対象のキーポイント情報に基づいて、前記目標対象の生体検出結果を得るために用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることと、前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることと、前記第1の特徴情報及び前記第2の特徴情報に基づいて、前記目標対象の生体検出結果を決定することとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップ及び前記目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得るために用いられ、前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、前記第1の目標画像及び前記目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得ることを含む。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップ及び前記目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得ることと、前記第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、前記第1のダウンサンプリング結果に基づいて、第1の特徴情報を得ることとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の目標画像及び前記目標対象のキーポイント情報に対して畳み込み処理を行い、第2の畳み込み結果を得ることと、前記第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることと、前記第2のダウンサンプリング結果に基づいて、第2の特徴情報を得ることとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の特徴情報及び前記第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得ることと、前記第3の特徴情報により、前記目標対象の生体検出結果を決定することとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第3の特徴情報に基づいて、前記目標対象が生体である確率を得ることと、前記目標対象が生体である確率により、前記目標対象の生体検出結果を決定することとに用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップの品質検出結果が品質不合格であることに応答して、前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得るために用いられる。
可能な一実現形態では、前記プロセッサは、前記第1の深度マップの品質検出結果が品質不合格であり且つ前記第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、前記目標対象の生体検出結果が非生体であると決定し、又は前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得るために用いられる。
本願の生体検出方法は、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得し、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得、第1の深度マップの品質検出結果に基づいて第1の目標画像中の目標対象の生体検出結果を決定することにより、生体検出の正確性を高めることができる。
以下の図面と関連付けられた例示的な実施例に対する詳細な説明によれば、本開示の他の特徴および態様は明確になる。
以下、明細書に含まれ且つ明細書の一部を構成する図面は明細書と共に本願の例示的な実施例、特徴及び態様を示し、更に本願の原理を解釈するために用いられる。
本願の実施例に係る生体検出方法のフローチャートを示す。 本願の実施例に係る生体検出方法中で第1の深度マップに対して品質検出を行う例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で第1の深度マップに対して品質検出を行う別の例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で第1の深度マップ及び第1の目標画像に基づいて目標対象の生体検出結果を得る例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で第1の深度マップ及び目標対象のキーポイント情報に基づいて第1の特徴情報を得る例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で目標対象のキーポイント情報に基づいて第2の特徴情報を得る例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で第1の特徴情報及び第2の特徴情報に基づいて目標対象の生体検出結果を決定する例示的なフローチャートを示す。 本願の実施例に係る生体検出方法中で第3の特徴情報により目標対象の生体検出結果を決定する例示的なフローチャートを示す。 本願の実施例に係る生体検出装置のブロック図を示す。 本願の実施例に係る生体検出装置の例示的なブロック図を示す。 本願の実施例に係る電子機器の例示的なブロック図を示す。 本願の実施例に係る電子機器の別の例示的なブロック図を示す。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および態様を詳細に説明する。図面における同じ符号は同じまたは類似する機能の要素を表す。図面において実施例の様々な態様を示したが、特に断らない限り、比例に従って図面を作る必要がない。
ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例も他の実施例より優れたものと理解すべきではない。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的詳細を示す。当業者であれば、何らかの具体的詳細がなくなるにも関わらず、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するよう、当業者に既知の方法、手段、要素および回路に対する詳細な説明を省略する。
図1は本願の実施例に係る生体検出方法のフローチャートを示す。該方法は携帯電話、タブレット型コンピュータ、ディジタルカメラ又は出入管理装置などの顔認識機能を有する端末装置に用いることができる。該方法は、オンラインアカウント登録、出入管理システム、顔によるロック解除、顔による支払、運転支援、無人スーパー、ビデオ監視、ATM(Automatic Teller Machine、現金自動預入支払機)、駅改札機、空港改札機又はインテリジェントビルなどに用いることができる。いくつかの可能な実現形態では、該生体検出方法はプロセッサによりメモリに記憶されたコンピュータ可読コマンドを呼び出すことで実現することができる。
図1に示すように、該方法はステップS11~ステップS13を含む。
ステップS11において、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得する。
本願の実施例では、目標画像は目標対象を含み、ここで、目標画像は静止画像又はビデオフレーム画像であってよく、例えば、目標画像はビデオシーケンスから選択された画像であってよく、様々な方式によりビデオシーケンスから画像を選択可能であり、具体的な一例において、目標画像はビデオシーケンスから選択された所定の品質条件を満たした画像であり、該所定の品質条件は、目標対象を含むか否か、目標対象が画像の中心領域に位置するか否か、目標対象が完全に画像に含まれるか否か、目標対象が画像中で占める割合、目標対象の状態又は姿勢、画像鮮鋭度、画像露光度などの一項又はそれらの任意の組合せを含んでよく、本願の実施例はこれについて制限を加えない。
目標対象は人物の顔、人体、動物又は他の生体対象の少なくとも一部であってよく、本願の実施例はこれについて制限を加えない。可能な一実現形態では、目標対象は人物の顔である。
第1の深度マップと第1の目標画像とが対応し、例えば、第1の深度マップと第1の目標画像はそれぞれ深度センサと画像センサにより同一なシーンについて収集されたものであり、又は、第1の深度マップと第1の目標画像は深度センサと画像センサにより同一な時刻に同一な目標領域について収集されたものであるが、本願の実施例はこれについて制限を加えない。
本願の実施例では、深度センサは深度情報を収集するために用いられ、画像センサは2次元画像を収集するために用いられる。
いくつかの実施例では、深度センサは3次元センサである。例えば、深度センサはTOF(Time of Flight、飛行時間)センサ又は構造光センサであってよい。ここで、構造光センサは符号化構造光センサ又はスペックル構造光センサであってよい。3次元センサにより目標対象の深度マップを取得することで、高精度の深度マップを得ることができる。本願の実施例は目標対象を含む深度マップを用いて生体検出を行って、目標対象の深度情報を十分に掘りおこして、生体検出の正確性を高めることができる。例えば、目標対象が顔である時に、本願の実施例は顔を含む深度マップを用いて生体検出を行って、顔データの深度情報を十分に掘りおこして、生体顔検出の正確性を高めることができる。
いくつかの実施例では、画像センサはRGB(Red赤、Green緑、Blue青)センサ又は近赤外線センサである。画像センサがRGBセンサであれば、画像センサに収集された目標画像がRGB画像である。画像センサが近赤外線センサであれば、画像センサに収集された目標画像が近赤外線画像である。ここで、近赤外線画像はスポットが付いた近赤外線画像であってもよく、スポットが付いていない近赤外線画像であってもよい。
TOFセンサ及び構造光センサを例として深度センサを説明し、RGBセンサ及び近赤外線センサを例として画像センサを説明したが、当業者であれば、本願の実施例がこれに限定されるものではないのを理解できることを説明する必要がある。当業者が実際の使用要求に応じて深度センサ及び画像センサの種類を選択でき、それぞれ深度マップと画像の収集を実現できればよい。
ステップS12において、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得る。
ここで、いくつかの実現形態では、第1の深度マップの品質検出結果は品質合格又は品質不合格である。
ある特定のシーン(例えば、室外強光シーン)では、深度センサ(例えば、TOFセンサ又は構造光センサ)は深度マップが大面積で失効し又は完全に失効する状況が発生しやすい。なお、正常な光照射下で、眼鏡の光反射、黒い髪の毛又は黒い眼鏡枠などの要因によりも深度マップの局所的な失効をランダムに引き起こすことがある。ある特別な紙のため、プリントされた顔写真に類似的な深度マップの大面積失効又は局所的な失効の効果が発生する。なお、深度センサの能動光源を遮蔽することにより深度マップの失効を引き起こしたが、非生体の画像センサでの結像が正常であることもある。従って、目標対象の深度マップが失効した場合に、生体と非生体を区別するために目標対象の深度マップが不十分であり、更に逆効果になることがある。従って、本願の実施例では、第1の深度マップに対して品質検出を行い、品質検出結果が不合格である場合に適宜な処理を行うことにより、第1の深度マップが生体検出中で逆効果になることを回避する。
ステップS13において、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定する。
ここで、いくつかの実現形態では、目標対象の生体検出結果としは目標対象が生体であってよく又は目標対象が非生体であってよい。
いくつかの実施例では、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定することは、第1の深度マップの品質検出結果が品質合格であることに応答して、第1の深度マップ及び第1の目標画像に基づいて、目標対象の生体検出結果を得ることを含む。
いくつかの実施例では、第1の深度マップ及び第1の目標画像に基づいて、目標対象の生体検出結果を得ることは、第1の深度マップ及び第1の目標画像に含まれる目標対象のキーポイント情報に基づいて、目標対象の生体検出結果を得ることを含む。具体的な一例において、第1の目標画像に含まれる目標対象のキーポイント情報を取得し、第1の深度マップ及び第1の目標画像に含まれる目標対象のキーポイント情報に基づいて、目標対象の生体検出結果を得てよい。
該実現形態では、第1の深度マップの品質検出結果が品質合格であれば、第1の深度マップ及び第1の目標画像に含まれる目標対象のキーポイント情報を基礎として生体検出を行う。生体検出中に深度マップを増加することにより、高精細無痕跡画像類の攻撃(単眼生体検出技術がこのような攻撃に撃破されやすい)を効果的に防御して、生体検出の正確性を高めることができる。
別のいくつかの実施例では、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定することは、第1の深度マップの品質検出結果が品質不合格であることに応答して、目標対象の生体検出結果が非生体であると決定することを含む。例えば、ある適用シーンに室外強光シーンを考慮しなくてもよい時に、又は深度マップの品質の不合格確率が所定の確率より大幅に低い時に、第1の深度マップの品質検出結果が品質不合格であれば、直接目標対象の生体検出結果として目標対象が非生体であると決定してよい。ここで、所定の確率は予め設定された、生体を非生体と誤判定する最大確率を表す。
別のいくつかの実施例では、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定することは、第1の深度マップの品質検出結果が品質不合格であることに応答して、第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得、つまり、第1の目標画像の処理結果に基づいて目標対象の生体検出結果を得ることを含む。該実現形態では、第1の深度マップの品質検出結果が品質不合格であれば、単眼生体検出技術に基づいて目標対象の生体検出結果を得てよい。本願の実施例では目標画像の処理結果に基づいて目標対象の生体検出結果を得る実現形態について制限を加えない。例えば、ある適用シーンに室外強光シーンを考慮する必要がある時に、室外強光下で、深度マップは品質が不合格である確率が高い。このような場合に、単眼生体検出技術により生体検出を行って、生体を非生体と誤判定するのをできるだけ回避することができる。
別のいくつかの実施例では、第1の目標画像はビデオフレーム画像、例えばビデオシーケンスから選択された画像であってよく、この時に、ビデオシーケンスから選択されたある画像に対応する深度マップに対して品質検出を行ってよく、品質検出結果が品質不合格であれば、再試行回数が最大再試行回数に達し又は品質に合格した深度マップが検出され又はある品質に合格した深度マップに基づいて目標対象の生体検出結果が生体であると決定されるまで、ビデオシーケンスから選択された他の画像に対応する深度マップに対して品質検出を行い、且つ再試行回数に1をプラスしてよく、本願の実施例はこれについて制限を加えない。
具体的な一例において、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定することは、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、目標対象の生体検出結果が非生体であると決定し、又は第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得ることを含む。該実現形態では、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達した場合に、直接目標対象の生体検出結果が非生体であると決定し、又は単眼生体検出技術に基づいて目標対象の生体検出結果を得てよい。
別のいくつかの実施例では、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定することは、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達していないことに応答して、目標画像の所属するビデオシーケンス中の第2の目標画像に対応する第2の深度マップに対して品質検出を行い、第2の深度マップの品質検出結果を得ることと、第2の深度マップの品質検出結果に基づいて、目標対象の生体検出結果を得ることと、を含む。具体的な一例において、第2の深度マップの品質検出結果が品質合格であれば、第2の深度マップ及び第2の目標画像に基づいて目標対象の生体検出結果を得てよい。別の具体的な一例では、第2の深度マップの品質検出結果が品質不合格であれば、現在の品質検出再試行回数が第2の閾値に達したか否かを決定してよく、第2の閾値に達した場合に、目標対象が生体ではないと決定し又は第2の目標画像の処理結果に基づいて目標対象の生体検出結果を決定し、本願の実施例ではこれについて制限を加えない。
本願の実施例では、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得し、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得、第1の深度マップの品質検出結果に基づいて第1の目標画像中の目標対象の生体検出結果を決定することにより、生体検出の正確性を高めることができる。
図2は本願の実施例に係る生体検出方法におけるステップS12の例示的なフローチャートを示す。図2に示すように、ステップS12はステップS121~ステップS122を含んでよい。
ステップS121において、第1の深度マップ中の目標対象の対応領域の少なくとも1つの失効位置を決定する。
いくつかの実施例では、第1の深度マップ中の少なくとも1つの画素点のうちのそれぞれの画素点の深度値、又は目標対象の対応領域に含まれる少なくとも1つの画素点のうちのそれぞれの画素点の深度値に基づいて、目標対象の対応領域の失効位置を決定してよい。
具体的な一例において、深度センサは失効位置の深度値を0にデフォルト設定し、この時に、目標対象の対応領域中の深度値がゼロとなる位置を失効位置として決定してよい。
別の具体的な一例では、深度センサは失効位置の深度値を1つ又は複数の所定の数値又は所定の範囲に設定し、そのように目標対象の対応領域中の深度値が所定の数値となり又は所定の範囲に属する位置を失効位置として決定してよい。
本願の実施例は他の統計方式に基づいて目標対象の対応領域中の失効位置を決定してもよく、本願の実施例はこれについて制限を加えない。
ステップにS122おいて、目標対象の対応領域の少なくとも1つの失効位置に基づいて、第1の深度マップの品質検出結果を得る。
いくつかの実施例では、目標対象の対応領域の少なくとも1つの失効位置に基づいて、第1の深度マップの品質検出結果を得ることは、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合に基づいて、第1の深度マップの品質検出結果を得ることを含む。
選択可能に、失効位置又は失効画素点の数量が目標対象の対応領域に含まれる位置の総数又は画素点の総数で占める割合に基づいて、第1の深度マップ又は目標対象の対応領域の品質検出結果を得てよい。
一例として、第1の深度マップ中の目標対象の対応領域の少なくとも1つの失効位置に含まれる画素点数量を決定し、第1の深度マップ中の目標対象の対応領域に含まれる画素点総数を決定し、この少なくとも1つの失効位置に含まれる画素点の数量と目標対象の対応領域に含まれる画素点の総数との割合を計算し、且つ該割合を目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合としてよい。
一例として、得られた上記割合を所定の数値(例えば、第3の閾値)と比較して第1の深度マップの品質検出結果を決定してよい。例えば、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合が第3の閾値以下である場合に、第1の深度マップの品質検出結果が品質合格であると決定する。更に例えば、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合が第3の閾値より大きい場合に、第1の深度マップの品質検出結果が品質不合格であると決定する。
該実現形態では、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合が第3の閾値より大きい時に、生体と非生体を区別するために残りの深度マップが不十分であり、この時に第1の深度マップの品質検出結果が品質不合格であると決定してよい。
該実現形態は第1の深度マップ中の目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合に基づいて、第1の深度マップの品質検出結果を得、それにより統計量の方法を用いて第1の深度マップに対して品質判断を行い、直感的で簡単である。
本願の実施例では、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合と第3の閾値の差が大きい(例えば、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合が第3の閾値より大幅に大きく、又は目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合が第3の閾値より大幅に小さい)時に、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合を第3の閾値と比較することで、精確な品質検出結果を得ることができる。
上記実現形態では、目標対象の対応領域中のそれぞれの位置が同等なものと見なされる。別のいくつかの実施例では、目標対象の対応領域中の異なる位置に異なる重みを割り当て、目標対象の対応領域中の失効位置及び失効位置の重みに基づいて、深度マップの品質検出結果を決定してよい。この時に、目標対象の対応領域の少なくとも1つの失効位置に基づいて、第1の深度マップの品質検出結果を得ることは、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップの品質検出結果を得ることを含む。
例えば、深度失効画素点の数量が同様である場合に、顔部縁部又は頬などの非要部に存在すれば、生体検出への影響が大きくなく、目、鼻などの要部に存在すれば、生体検出に大きい干渉を与える。従って、異なる位置の深度失効画素が深度マップの品質に与える影響の程度が異なる、従って、異なる位置に異なる重みを付け、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップの品質検出結果を得ることにより、より精確な品質検出結果を得ることができる。
一例として、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップの品質検出結果を得ることは、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップに対応する品質信頼度を得ることと、第1の深度マップに対応する品質信頼度に基づいて、第1の深度マップの品質検出結果を得ることと、を含む。
本願の実施例では、品質信頼度は様々な方式により決定できる。例えば、少なくとも1つの失効位置をニューラルネットワークに入力して処理し、深度マップに対応する品質信頼度を得てよく、この時に、失効位置に対応する重みはニューラルネットワークのトレーニングにより得られる。又は、該重みは予め設定されてよく、この時に、少なくとも1つの失効位置及びそれに対応する重みをニューラルネットワークに入力して処理し、深度マップに対応する品質信頼度を得てよく、本願の実施例はこれについて制限を加えない。
選択可能に、品質信頼度と所定の数値を比較することにより、第1の深度マップの品質検出結果を決定してよく、例えば、品質信頼度が第4の閾値以上である場合に、第1の深度マップ品質が合格であると決定し、本願の実施例はこれについて制限を加えない。
本願の実施例では、例えば、目、鼻などの要部に高い重みを付け、他の非要部に低い重みを付け、異なる位置の重み及び失効画素数に基づいて、第1の深度マップの品質信頼度を得てよい。ここで、要部の重みが非要部の重みより大きいが、異なる位置の重みは実際の状況に応じて割り当てよく、本願の実施例はこれについて制限を加えない。
図3は本願の実施例に係る生体検出方法におけるステップS12の別の例示的なフローチャートを示す。図3に示すように、ステップS12はステップS123~ステップS124を含んでよい。
ステップS123において、第1の深度マップを第1のニューラルネットワークに入力して処理し、第1の深度マップに対応する品質信頼度を得る。
この例では、第1の深度マップがニューラルネットワークに入力され、又は、第1の深度マップ中の目標対象の対応領域をニューラルネットワークに入力してもよく、本願の実施例はこれについて制限を加えない。
いくつかの実施例では、第1のニューラルネットワークは第1の深度マップ又は目標対象の対応領域を処理し、目標対象の対応領域中の少なくとも1つの失効位置を得てよい。次に、ニューラルネットワーク又は他の方式により、この少なくとも1つの失効位置に基づいて、深度マップの品質検出結果を決定してよい。
一例において、第1のニューラルネットワークは目標対象の対応領域の異なる失効位置に異なる重みを付けることができる。
いくつかの実施例では、深度マップのトレーニングデータを手動で合格深度マップ及び不合格深度マップに分け、更に合格深度マップ及び不合格深度マップという2種類の画像を用いて第1のニューラルネットワークをトレーニングしてよい。
ステップS124において、第1の深度マップに対応する品質信頼度に基づいて、第1の深度マップの品質検出結果を得る。
いくつかの実施例では、第1の深度マップに対応する品質信頼度に基づいて、第1の深度マップの品質検出結果を得ることは、第1の深度マップに対応する品質信頼度が第1の閾値より大きいことに応答して、第1の深度マップの品質検出結果が品質合格であると決定すること、及び/又は第1の深度マップに対応する品質信頼度が第1の閾値が以下であることに応答して、第1の深度マップの品質検出結果が品質不合格であると決定することを含む。
本願の実施例では、第1の深度マップから目標対象の対応領域を決定してよい。いくつかの実施例では、該方法は、第1の目標画像に対してキーポイント検出を行い、目標対象のキーポイント情報を得ることと、目標対象のキーポイント情報に基づいて、第1の深度マップから目標対象の対応領域を決定することと、を更に含む。
ここで、目標対象のキーポイント情報は目標対象のキーポイントの位置情報を含んでよい。
本願の実施例では、目標対象が顔であれば、目標対象のキーポイントは目キーポイント、眉キーポイント、鼻キーポイント、口キーポイント及び顔輪郭キーポイントなどの1つまたは複数を含んでよい。ここで、目キーポイントは目輪郭キーポイント、眼角キーポイント及び瞳キーポイントなどの1つまたは複数を含んでよい。
いくつかの実施例では、目標対象のキーポイント情報に基づいて、第1の深度マップから目標対象の対応領域を決定することは、目標対象の輪郭キーポイントに基づいて、第1の深度マップから目標対象の対応領域を決定することを含む。例えば、目標対象が顔であれば、顔輪郭キーポイントにより、第1の深度マップから顔対応領域を決定してよい。
選択可能に、目標対象のキーポイント情報に基づいて、目標対象の輪郭を決定し、且つ目標対象の輪郭の所在する領域を目標対象の対応領域として決定し、又は目標対象の輪郭の所在する領域を所定の倍数拡大した後得られた領域を目標対象の対応領域として決定してよく、例えば、目標対象のキーポイント情報に基づいて決定された楕円形領域を目標対象の対応領域として決定してよく、又は該楕円形領域の最小外接矩形領域を目標対象の対応領域として決定してよく、本願の実施例はこれについて制限を加えない。
いくつかの実施例では、第1の目標画像に対してキーポイント検出を行うことの前に、該方法は、深度センサのパラメータ及び画像センサのパラメータにより、第1の深度マップと第1の目標画像をアライメントすることを更に含む。
一例として、第1の深度マップに対して変換処理を行って、変換処理後の第1の深度マップと第1の目標画像をアライメントしてよい。例えば、深度センサのパラメータ行列及び画像センサのパラメータ行列により、深度センサのパラメータ行列から画像センサのパラメータ行列への変換行列を決定し、該変換行列により、第1の深度マップを変換してよい。
別の例として、第1の目標画像に対して変換処理を行って、変換処理後の第1の目標画像と第1の深度マップをアライメントしてよい。例えば、深度センサのパラメータ行列及び画像センサのパラメータ行列により、画像センサのパラメータ行列から深度センサへのパラメータ行列の変換行列を決定し、該変換行列により、第1の目標画像を変換してよい。
本願の実施例では、深度センサのパラメータは深度センサの内パラメータ及び/又は外パラメータを含んでよく、画像センサのパラメータは画像センサの内パラメータ及び/又は外パラメータを含んでよい。
本願の実施例では、第1の深度マップと第1の目標画像をアライメントすることにより、第1の深度マップと第1の目標画像中の対応部分の2つの画像での位置を同様にすることができる。
図4は本願の実施例に係る生体検出方法におけるステップS13の例示的なフローチャートを示す。図4に示すように、ステップS13はステップS131~ステップS133を含んでよい。
ステップS131において、第1の深度マップ及び目標対象のキーポイント情報に基づいて、第1の特徴情報を得る。
いくつかの実施例では、第1の深度マップ及び目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、第1の深度マップ及び目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得ることを含む。
一例として、第2のニューラルネットワークは畳み込み層、ダウンサンプリング層及び全結合層を含んでよい。
例えば、第2のニューラルネットワークは一段畳み込み層、一段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。
また、例えば、第2のニューラルネットワークは多段畳み込み層、多段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。ここで、i段目の畳み込み層の後にi段目のダウンサンプリング層がカスケードされ、i段目のダウンサンプリング層の後にi+1段目の畳み込み層がカスケードされ、n段目のダウンサンプリング層の後に全結合層がカスケードされ、ただし、i及びnはいずれも正整数であり、1≦i≦n、nは第2のニューラルネットワーク中の畳み込み層及びダウンサンプリング層の段数を表す。
別の例として、第2のニューラルネットワークは畳み込み層、ダウンサンプリング層、正規化層及び全結合層を含んでよい。
例えば、第2のニューラルネットワークは一段畳み込み層、1つの正規化層、一段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。
また、例えば、第2のニューラルネットワークは多段畳み込み層、複数の正規化層及び多段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。ここで、i段目の畳み込み層の後にi番目の正規化層がカスケードされ、i番目の正規化層の後にi段目のダウンサンプリング層がカスケードされ、i段目のダウンサンプリング層の後にi+1段目の畳み込み層がカスケードされ、n段目のダウンサンプリング層の後に全結合層がカスケードされ、ただし、i及びnはいずれも正整数であり、1≦i≦n、nは第2のニューラルネットワーク中の畳み込み層、ダウンサンプリング層の段数及び正規化層の個数を表す。
ステップS132において、目標対象のキーポイント情報に基づいて、第2の特徴情報を得る。
いくつかの実施例では、目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、第1の目標画像及び目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得ることを含む。
一例として、第3のニューラルネットワークは畳み込み層、ダウンサンプリング層及び全結合層を含んでよい。
例えば、第3のニューラルネットワークは一段畳み込み層、一段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。
また、例えば、第3のニューラルネットワークは多段畳み込み層、多段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。ここで、j段目の畳み込み層の後にj段目のダウンサンプリング層がカスケードされ、j段目のダウンサンプリング層の後にj+1段目の畳み込み層がカスケードされ、m段目のダウンサンプリング層の後に全結合層がカスケードされ、ただし、j及びmはいずれも正整数であり、1≦j≦m、mは第3のニューラルネットワーク中の畳み込み層及びダウンサンプリング層の段数を表す。
別の例として、第3のニューラルネットワークは畳み込み層、ダウンサンプリング層、正規化層及び全結合層を含んでよい。
例えば、第3のニューラルネットワークは一段畳み込み層、1つの正規化層、一段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。
また、例えば、第3のニューラルネットワークは多段畳み込み層、複数の正規化層、多段ダウンサンプリング層及び一段全結合層を含んでよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく、該一段の全結合層は1つ又は複数の全結合層を含んでよい。ここで、j段目の畳み込み層の後にj番目の正規化層がカスケードされ、j番目の正規化層の後にj段目のダウンサンプリング層がカスケードされ、j段目のダウンサンプリング層の後にj+1段目の畳み込み層がカスケードされ、m段目のダウンサンプリング層の後に全結合層がカスケードされ、ただし、j及びmはいずれも正整数であり、1≦j≦m、mは第3のニューラルネットワーク中の畳み込み層、ダウンサンプリング層の段数及び正規化層の個数を表す。
いくつかの実施例では、第2のニューラルネットワークと第3のニューラルネットワークは同一なネットワーク構成を有する。
ステップS133において、第1の特徴情報及び第2の特徴情報に基づいて、目標対象の生体検出結果を決定する。
本願の実施例はステップS131及びステップS132の実行順序の先後を限定せず、ステップS131及びステップS132をステップS133の前に実行すればよいことを説明する必要がある。例えば、ステップS131を実行してからステップS132を実行してもよく、又は、ステップS132を実行してからステップS131を実行してもよく、又は、ステップS131とステップS132を同時に実行してもよい。
図5は本願の実施例に係る生体検出方法中で第1の深度マップ及び目標対象のキーポイント情報に基づいて第1の特徴情報を得る例示的なフローチャートを示す。図5に示すように、第1の深度マップ及び目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、ステップS1311~ステップS1313を含んでよい。
ステップS1311において、第1の深度マップ及び目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得る。
ステップS1312において、第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得る。
いくつかの実施例では、一段畳み込み層及び一段ダウンサンプリング層により第1の深度マップ及び目標対象のキーポイント情報に対して畳み込み処理及びダウンサンプリング処理を行ってよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよい。
別のいくつかの実施例では、多段畳み込み層及び多段ダウンサンプリング層により第1の深度マップ及び目標対象のキーポイント情報に対して畳み込み処理及びダウンサンプリング処理を行ってよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよい。
いくつかの実施例では、第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることは、第1の畳み込み結果に対して正規化処理を行い、第1の正規化結果を得ることと、第1の正規化結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、を含んでよい。
ステップS1313において、第1のダウンサンプリング結果に基づいて、第1の特徴情報を得る。
いくつかの実施例では、第1のダウンサンプリング結果を全結合層に入力し、全結合層により第1のダウンサンプリング結果に対して全結合処理を行い、第1の特徴情報を得てよい。
図6は本願の実施例に係る生体検出方法中で目標対象のキーポイント情報に基づいて第2の特徴情報を得る例示的なフローチャートを示す。図6に示すように、目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、ステップS1321~ステップS1323を含んでよい。
ステップS1321において、第1の目標画像及び目標対象のキーポイント情報に対して畳み込み処理を行い、第2の畳み込み結果を得る。
ステップS1322において、第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得る。
いくつかの実施例では、一段畳み込み層及び一段ダウンサンプリング層により第1の目標画像及び目標対象のキーポイント情報に対して畳み込み処理及びダウンサンプリング処理を行ってよい。ここで、該一段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、該一段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよい。
別のいくつかの実施例では、多段畳み込み層及び多段ダウンサンプリング層により第1の目標画像及び目標対象のキーポイント情報に対して畳み込み処理及びダウンサンプリング処理を行ってよい。ここで、各段の畳み込み層は1つ又は複数の畳み込み層を含んでよく、各段のダウンサンプリング層は1つ又は複数のダウンサンプリング層を含んでよく。
いくつかの実施例では、第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることは、第2の畳み込み結果に対して正規化処理を行い、第2の正規化結果を得ることと、第2の正規化結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることと、を含んでよい。
ステップS1323において、第2のダウンサンプリング結果に基づいて、第2の特徴情報を得る。
いくつかの実施例では、第2のダウンサンプリング結果を全結合層に入力し、全結合層により第2のダウンサンプリング結果に対して全結合処理を行い、第2の特徴情報を得てよい。
図7は本願の実施例に係る生体検出方法中で第1の特徴情報及び第2の特徴情報に基づいて目標対象の生体検出結果を決定する例示的なフローチャートを示す。図7に示すように、第1の特徴情報及び第2の特徴情報に基づいて、目標対象の生体検出結果を決定することは、ステップS1331及びステップS1332を含んでよい。
ステップS1331において、第1の特徴情報及び第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得る。
いくつかの実施例では、全結合層により第1の特徴情報及び第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得てよい。
ステップS1332において、第3の特徴情報により、目標対象の生体検出結果を決定する。
図8は本願の実施例に係る生体検出方法中で第3の特徴情報により目標対象の生体検出結果を決定する例示的なフローチャートを示す。図8に示すように、第3の特徴情報により、目標対象の生体検出結果を決定することは、ステップS13321及びステップS13322を含んでよい。
ステップS13321において、第3の特徴情報に基づいて、目標対象が生体である確率を得る。
いくつかの実施例では、第3の特徴情報をSoftmax層に入力して、Softmax層により目標対象が生体である確率を得てよい。
一例として、Softmax層は、一方が、目標対象が生体である確率を表し、他方が、目標対象が非生体である確率を表す2つのニューロンを含んでよい。
ステップS13322において、目標対象が生体である確率により、目標対象の生体検出結果を決定する。
いくつかの実施例では、目標対象が生体である確率により、目標対象の生体検出結果を決定することは、目標対象が生体である確率が第4の閾値より大きい場合に、目標対象の生体検出結果として目標対象が生体であると決定することと、目標対象が生体である確率が第4の閾値以下である場合に、目標対象の生体検出結果として目標対象が非生体であると決定することと、を含む。
図8に示すフローによりステップS1332の以上のような実現形態が説明されたが、当業者であれば、本願がこれに限定されるものではないのを理解できることを説明する必要がある。別のいくつかの実施例では、第3の特徴情報に基づいて、目標対象が非生体である確率を得、目標対象が非生体である確率により、目標対象の生体検出結果を決定してよい。該実現形態では、目標対象が非生体である確率が第5の閾値より大きい場合に、目標対象の生体検出結果として目標対象が非生体であると決定し、目標対象が非生体である確率が第5の閾値以下である場合に、目標対象の生体検出結果として目標対象が生体であると決定する。
本願の実施例は深度マップ失効類の非生体攻撃を根本的に防御し、生体検出の正確性を高めることができ、安全性や信頼性がより高くなる。
本願で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組合せ後の実施例を形成することができることが理解され、紙数に限りがあるので、本願では詳細な説明を省略する。
また、本願は生体検出装置、生体検出システム、電子機器、コンピュータ可読記憶媒体、プログラムを更に提供し、それらはいずれも本願で提供されるいずれか1種の生体検出方法を実現するために利用可能であり、それに対応する技術手段、説明及び参照方法部分に対応する記載をここで省略する。
図9は本願の実施例に係る生体検出装置のブロック図である。図9に示すように、該装置は、深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得するための取得モジュール21と、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得るための品質検出モジュール22と、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定するための第1の決定モジュール23と、を含む。
いくつかの実施例では、深度センサは飛行時間(TOF)センサ又は構造光センサである。
いくつかの実施例では、画像センサはRGBセンサ又は近赤外線センサである。
図10は本願の実施例に係る生体検出装置の例示的なブロック図を示す。
図10に示すように、いくつかの実施例では、品質検出モジュール22は、第1の深度マップ中の目標対象の対応領域の少なくとも1つの失効位置を決定するための第1の決定サブモジュール221と、目標対象の対応領域の少なくとも1つの失効位置に基づいて、第1の深度マップの品質検出結果を得るための第2の決定サブモジュール222と、を含む。
いくつかの実施例では、第2の決定サブモジュール222は、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合に基づいて、第1の深度マップの品質検出結果を得るために用いられる。
いくつかの実施例では、第2の決定サブモジュール222は、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップの品質検出結果を得るために用いられる。
いくつかの実施例では、第1の決定サブモジュール221は、目標対象の対応領域中の深度値がゼロとなる位置を失効位置として決定するために用いられる。
いくつかの実施例では、該装置は、第1の目標画像に対してキーポイント検出を行い、目標対象のキーポイント情報を得るためのキーポイント検出モジュール24と、目標対象のキーポイント情報に基づいて、第1の深度マップから目標対象の対応領域を決定するための第2の決定モジュール25と、を更に含む。
いくつかの実施例では、品質検出モジュール22は、第1の深度マップを第1のニューラルネットワークに入力して処理し、第1の深度マップに対応する品質信頼度を得るための処理サブモジュール223と、第1の深度マップに対応する品質信頼度に基づいて、第1の深度マップの品質検出結果を得るための第3の決定サブモジュール224と、を含む。
いくつかの実施例では、第3の決定サブモジュール224は、第1の深度マップに対応する品質信頼度が第1の閾値より大きいことに応答して、第1の深度マップの品質検出結果が品質合格であると決定すること、及び/又は第1の深度マップに対応する品質信頼度が第1の閾値以下であることに応答して、第1の深度マップの品質検出結果が品質不合格であると決定するために用いられる。
いくつかの実施例では、該装置は、深度センサのパラメータ及び画像センサのパラメータにより、第1の深度マップと第1の目標画像をアライメントするためのアライメントモジュール26を更に含む。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップの品質検出結果が品質合格であることに応答して、第1の深度マップ及び第1の目標画像に基づいて、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップ及び第1の目標画像に含まれる目標対象のキーポイント情報に基づいて、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップ及び目標対象のキーポイント情報に基づいて、第1の特徴情報を得るための第4の決定サブモジュール231と、目標対象のキーポイント情報に基づいて、第2の特徴情報を得るための第5の決定サブモジュール232と、第1の特徴情報及び第2の特徴情報に基づいて、目標対象の生体検出結果を決定するための第6の決定サブモジュール233と、を含む。
いくつかの実施例では、第4の決定サブモジュール231は、第1の深度マップ及び目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得るために用いられ、第5の決定サブモジュール232は、第1の目標画像及び目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得るために用いられる。
いくつかの実施例では、第4の決定サブモジュール231は、第1の深度マップ及び目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得ることと、第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、第1のダウンサンプリング結果に基づいて、第1の特徴情報を得ることとに用いられる。
いくつかの実施例では、第5の決定サブモジュール232は、第1の目標画像及び目標対象のキーポイント情報に対して畳み込み処理を行い、第2の畳み込み結果を得ることと、第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることと、第2のダウンサンプリング結果に基づいて、第2の特徴情報を得ることとに用いられる。
いくつかの実施例では、第6の決定サブモジュール233は、第1の特徴情報及び第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得ることと、第3の特徴情報により、目標対象の生体検出結果を決定することとに用いられる。
いくつかの実施例では、第6の決定サブモジュール233は、第3の特徴情報に基づいて、目標対象が生体である確率を得ることと、目標対象が生体である確率により、目標対象の生体検出結果を決定することとに用いられる。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップの品質検出結果が品質不合格であることに応答して、第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、目標対象の生体検出結果が非生体であると決定し、又は第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、第1の決定モジュール23は、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達していないことに応答して、目標画像の所属するビデオシーケンス中の第2の目標画像に対応する第2の深度マップに対して品質検出を行い、第2の深度マップの品質検出結果を得るための品質検出サブモジュール234と、第2の深度マップの品質検出結果に基づいて、目標対象の生体検出結果を得るための第7の決定サブモジュール235と、を含む。
本願の実施例は深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得し、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得、第1の深度マップの品質検出結果に基づいて第1の目標画像中の目標対象の生体検出結果を決定することにより、生体検出の正確性を高めることができる。
いくつかの例において、該装置は上述した各種の可能な方法を実行するために用いられ、それに対して、該装置は上述した方法中の各種の可能なステップ又はフローを実現するためのユニット又はモジュールを含み、簡単化するために、ここで繰り返して説明しない。
本願の実施例は、プロセッサと、プロセッサ実行可能コマンドを記憶するためのメモリとを含み、該プロセッサが上記方法を実行するように構成される電子機器を更に提供する。
本願の実施例は、コンピュータプログラムコマンドが記憶されたコンピュータ可読記憶媒体であって、コンピュータプログラムコマンドがプロセッサにより実行される時に上記方法を実現するコンピュータ可読記憶媒体を更に提供する。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってよい。
本願の実施例は、上記電子機器、深度センサ及び画像センサを含む生体検出システムを更に提供する。
本願の実施例は、上記コンピュータ可読記憶媒体、深度センサ及び画像センサを含む生体検出システムを更に提供する。
図11は本願の実施例に係る電子機器の例示的なブロック図を示す。図11に示すように、該電子機器は、目標対象の深度マップを検出するための深度センサ31と、目標対象を含む目標画像を収集するための画像センサ32と、第1の深度マップに対して品質検出を行い、第1の深度マップの品質検出結果を得、第1の深度マップの品質検出結果に基づいて、第1の目標画像中の目標対象の生体検出結果を決定するためのプロセッサ33と、を含む。
いくつかの実施例では、深度センサは飛行時間(TOF)センサ又は構造光センサである。
いくつかの実施例では、画像センサはRGBセンサ又は近赤外線センサである。
いくつかの実施例では、該プロセッサ33は、更に、第1の深度マップ中の目標対象の対応領域の少なくとも1つの失効位置を決定することと、目標対象の対応領域の少なくとも1つの失効位置に基づいて、第1の深度マップの品質検出結果を得ることとに用いられる。
いくつかの実施例では、該プロセッサ33は、目標対象の対応領域の少なくとも1つの失効位置が目標対象の対応領域で占める割合に基づいて、第1の深度マップの品質検出結果を得るために用いられる。
いくつかの実施例では、該プロセッサ33は、目標対象の対応領域の少なくとも1つの失効位置及び少なくとも1つの失効位置に対応する重みに基づいて、第1の深度マップの品質検出結果を得るために用いられる。
いくつかの実施例では、該プロセッサ33は、目標対象の対応領域中の深度値がゼロとなる位置を失効位置として決定するために用いられる。
いくつかの実施例では、該プロセッサ33は、更に、第1の目標画像に対してキーポイント検出を行い、目標対象のキーポイント情報を得ることと、目標対象のキーポイント情報に基づいて、第1の深度マップから目標対象の対応領域を決定することとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップを第1のニューラルネットワークに入力して処理し、第1の深度マップに対応する品質信頼度を得ることと、第1の深度マップに対応する品質信頼度に基づいて、第1の深度マップの品質検出結果を得ることとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップに対応する品質信頼度が第1の閾値より大きいことに応答して、第1の深度マップの品質検出結果が品質合格であると決定すること、及び/又は第1の深度マップに対応する品質信頼度が第1の閾値以下であることに応答して、第1の深度マップの品質検出結果が品質不合格であると決定するために用いられる。
いくつかの実施例では、該プロセッサ33は、更に、に深度センサのパラメータ及び画像センサのパラメータより、第1の深度マップと第1の目標画像をアライメントするために用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップの品質検出結果が品質合格であることに応答して、第1の深度マップ及び第1の目標画像に含まれる目標対象のキーポイント情報に基づいて、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップ及び目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることと、目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることと、第1の特徴情報及び第2の特徴情報に基づいて、目標対象の生体検出結果を決定することとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップ及び目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得るために用いられ、目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、第1の目標画像及び目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得ることを含む。
いくつかの実施例では、該プロセッサ33は、第1の深度マップ及び目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得ることと、第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、第1のダウンサンプリング結果に基づいて、第1の特徴情報を得ることとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の目標画像及び目標対象のキーポイント情報に対して畳み込み処理を行い、第2の畳み込み結果を得ることと、第2の畳み込み結果に対してダウンサンプリング処理を行い、第2のダウンサンプリング結果を得ることと、第2のダウンサンプリング結果に基づいて、第2の特徴情報を得ることとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の特徴情報及び第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得ることと、第3の特徴情報により、目標対象の生体検出結果を決定することとに用いられる。
いくつかの実施例では、該プロセッサ33は、第3の特徴情報に基づいて、目標対象が生体である確率を得ることと、目標対象が生体である確率により、目標対象の生体検出結果を決定することとに用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップの品質検出結果が品質不合格であることに応答して、第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、第1の深度マップを利用せずに目標対象に対して生体検出を行い、目標対象の生体検出結果を得るために用いられる。
いくつかの実施例では、該プロセッサ33は、第1の深度マップの品質検出結果が品質不合格であり且つ第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達していないことに応答して、目標対象の生体検出結果が非生体であると決定し、又は目標画像の所属するビデオシーケンス中の第2の目標画像に対応する第2の深度マップに対して品質検出を行い、第2の深度マップの品質検出結果を得ることと、第2の深度マップの品質検出結果に基づいて、目標対象の生体検出結果を得ることとに用いられる。
電子機器は端末、サーバ又は他の形態の機器として提供されてよい。
図12は本願の実施例に係る電子機器の別の例示的なブロック図を示す。例えば、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタントなどの端末であってよい。
図12を参照すると、電子機器800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)のインタフェース812、センサコンポーネント814、および通信コンポーネント816の一つ以上を含むことができる。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、上記方法の全てまたは一部のステップを完了するために、一つ以上のプロセッサ820を含んで命令を実行することができる。また、処理コンポーネント802は、他のコンポーネントとの対話のために、一つ以上のモジュールを含むことができる。例えば、処理コンポーネント802は、マルチメディアコンポーネント808との対話のために、マルチメディアモジュールを含むことができる。
メモリ804は電子機器800での動作をサポートするために様々なタイプのデータを記憶するように構成される。これらのデータの例は電子機器800において運用するためのあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または非揮発性記憶機器またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含むことができる。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供する画面を含む。いくつかの実施例では、画面は液晶ディスプレイ(LCD)およびタッチパネル(TP)を含むことができる。画面がタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチ画面として実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出することもできる。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信することができる。各前面カメラおよび後面カメラは固定された光学レンズ系または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成されたマイク(MIC)を含む。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含むことができるが、これらに限定されない。
センサコンポーネント814は電子機器800に各面での状態評価を提供するための一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、コンポーネントの相対的位置決め、例えば前記コンポーネントが電子機器800の表示装置およびキーパッドであることを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するために用いられるように構成された近接センサを含む。センサコンポーネント814はさらに、CMOS又はCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含むことができる。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含むことができる。
通信コンポーネント816は電子機器800と他の機器との間の有線または無線通信を実現するように配置される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールでは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現し、上記方法を実行するために用いることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行して上記方法を完了することができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各態様を実現させるためのコンピュータ読み取り可能プログラム命令がロードされているコンピュータ読み取り可能記憶媒体を含むことができる。
コンピュータ読み取り可能記憶媒体は命令実行機器により使用される命令を保存および記憶可能な有形機器であってもよい。コンピュータ読み取り可能記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、機械的符号化装置、例えば命令が記憶されているせん孔カードまたはスロット内突起構造、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能プログラム命令はコンピュータ読み取り可能記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含むことができる。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ読み取り可能プログラム命令を受信し、該コンピュータ読み取り可能プログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能記憶媒体に記憶する。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズすることで、該電子回路はコンピュータ読み取り可能プログラム命令を実行し、それにより本開示の各態様を実現できるようになる。
なお、ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明しが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能プログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されてもよく、それにより、これらの命令はコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行され、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する手段を創出する。また、これらのコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体に記憶し、それによってコンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよく、それにより、中に保存された命令を有するコンピュータ読み取り可能記憶媒体は、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各態様を実現する命令を含む製品を備える。
コンピュータ読み取り可能プログラムはコンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードすることにより、コンピュータ実施プロセスを生成するように、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令はフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。

Claims (20)

  1. 深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得することと、
    前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることと、
    前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することと、を含み、
    前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることは、
    前記第1の深度マップを第1のニューラルネットワークに入力して処理し、前記第1の深度マップに対応する品質信頼度を得ることと、
    第1の深度マップに対応する品質信頼度に基づいて、前記第1の深度マップの品質検出結果を得ることと、を含むことを特徴とする生体検出方法。
  2. 前記深度センサは飛行時間(TOF)センサ又は構造光センサであり、
    又は、前記画像センサはRGBセンサ又は近赤外線センサであることを特徴とする請求項1に記載の方法。
  3. 前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得ることは、
    前記第1の深度マップ中の前記目標対象の対応領域の少なくとも1つの失効位置を決定することと、
    前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることと、をさらに含むことを特徴とする請求項1又は2に記載の方法。
  4. 前記目標対象の対応領域の少なくとも1つの失効位置に基づいて、前記第1の深度マップの品質検出結果を得ることは、
    前記目標対象の対応領域の少なくとも1つの失効位置が前記目標対象の対応領域中で占める割合に基づいて、前記第1の深度マップの品質検出結果を得ることを含むこと、又は、
    前記目標対象の対応領域の少なくとも1つの失効位置及び前記少なくとも1つの失効位置に対応する重みに基づいて、前記第1の深度マップの品質検出結果を得ることを含むことを特徴とする請求項3に記載の方法。
  5. 前記第1の深度マップ中の前記目標対象の対応領域の少なくとも1つの失効位置を決定することは、
    前記目標対象の対応領域中の深度値がゼロとなる位置を前記失効位置として決定することを含むことを特徴とする請求項3又は4に記載の方法。
  6. 前記第1の目標画像に対してキーポイント検出を行い、前記目標対象のキーポイント情報を得ることと、
    前記目標対象のキーポイント情報に基づいて、前記第1の深度マップから前記目標対象の対応領域を決定することを更に含むことを特徴とする請求項3~5のいずれか一項に記載の方法。
  7. 前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、
    前記第1の深度マップの品質検出結果が品質合格であることに応答して、前記第1の深度マップと前記第1の目標画像に基づいて、前記目標対象の生体検出結果を得ることを含むことを特徴とする請求項1~のいずれか一項に記載の方法。
  8. 前記第1の深度マップと前記第1の目標画像に基づいて、前記目標対象の生体検出結果を得ることは、
    前記第1の深度マップ及び前記第1の目標画像に含まれる前記目標対象のキーポイント情報に基づいて、前記目標対象の生体検出結果を得ることを含むことを特徴とする請求項に記載の方法。
  9. 前記第1の深度マップ及び前記第1の目標画像に含まれる前記目標対象のキーポイント情報に基づいて、前記目標対象の生体検出結果を得ることは、
    前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることと、
    前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることと、
    前記第1の特徴情報及び前記第2の特徴情報に基づいて、前記目標対象の生体検出結果を決定することと、を含むことを特徴とする請求項に記載の方法。
  10. 前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、
    前記第1の深度マップ及び前記目標対象のキーポイント情報を第2のニューラルネットワークに入力して処理し、第1の特徴情報を得ることを含み、
    前記目標対象のキーポイント情報に基づいて、第2の特徴情報を得ることは、
    前記第1の目標画像及び前記目標対象のキーポイント情報を第3のニューラルネットワークに入力して処理し、第2の特徴情報を得ることを含むことを特徴とする請求項に記載の方法。
  11. 前記第1の深度マップ及び前記目標対象のキーポイント情報に基づいて、第1の特徴情報を得ることは、
    前記第1の深度マップ及び前記目標対象のキーポイント情報に対して畳み込み処理を行い、第1の畳み込み結果を得ることと、
    前記第1の畳み込み結果に対してダウンサンプリング処理を行い、第1のダウンサンプリング結果を得ることと、
    前記第1のダウンサンプリング結果に基づいて、第1の特徴情報を得ることと、を含むことを特徴とする請求項9又は10に記載の方法。
  12. 前記第1の特徴情報及び前記第2の特徴情報に基づいて、前記目標対象の生体検出結果を決定することは、
    前記第1の特徴情報及び前記第2の特徴情報に対して全結合処理を行い、第3の特徴情報を得ることと、
    前記第3の特徴情報により、前記目標対象の生体検出結果を決定することと、を含むことを特徴とする請求項9~11のいずれか一項に記載の方法。
  13. 前記第3の特徴情報により、生体検出結果を決定することは、
    前記第3の特徴情報に基づいて、前記目標対象が生体である確率を得ることと、
    前記目標対象が生体である確率により、前記目標対象の生体検出結果を決定することと、を含むことを特徴とする請求項12に記載の方法。
  14. 前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、
    前記第1の深度マップの品質検出結果が品質不合格であることに応答して、前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得ることを含むことを特徴とする請求項1~13のいずれか一項に記載の方法。
  15. 前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定することは、
    前記第1の深度マップの品質検出結果が品質不合格であり且つ前記第1の目標画像の所属するビデオシーケンスについての品質検出再試行回数が第2の閾値に達したことに応答して、前記目標対象の生体検出結果が非生体であると決定し、又は前記第1の深度マップを利用せずに前記目標対象に対して生体検出を行い、前記目標対象の生体検出結果を得ることを含むことを特徴とする請求項1~14のいずれか一項に記載の方法。
  16. 深度センサにより収集された第1の深度マップと画像センサにより収集された第1の目標画像を取得するための取得モジュールと、
    前記第1の深度マップに対して品質検出を行い、前記第1の深度マップの品質検出結果を得るための品質検出モジュールと、
    前記第1の深度マップの品質検出結果に基づいて、前記第1の目標画像中の目標対象の生体検出結果を決定するための第1の決定モジュールと、を含み、
    前記品質検出モジュールは、前記第1の深度マップを第1のニューラルネットワークに入力して処理し、前記第1の深度マップに対応する品質信頼度を得るための処理サブモジュールと、前記第1の深度マップに対応する品質信頼度に基づいて、前記第1の深度マップの品質検出結果を得るための第3の決定サブモジュールと、を含むことを特徴とする生体検出装置。
  17. プロセッサと、
    プロセッサ実行可能コマンドを記憶するためのメモリとを含み、
    前記プロセッサは前記メモリに記憶された前記コマンドを呼び出して、請求項1~15のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。
  18. コンピュータプログラムコマンドが記憶されたコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に請求項1~15のいずれか一項に記載の方法を実現することを特徴とするコンピュータ可読記憶媒体。
  19. 請求項17に記載の電子機器、前記深度センサ及び前記画像センサを含むことを特徴とする生体検出システム。
  20. プロセッサにより実行される時に請求項1~15のいずれか一項に記載の方法を実現することを特徴とするコンピュータプログラム。
JP2020527737A 2018-07-27 2019-04-11 生体検出方法、装置及びシステム、電子機器並びに記憶媒体 Active JP7026225B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810846587.6 2018-07-27
CN201810846587.6A CN110852134A (zh) 2018-07-27 2018-07-27 活体检测方法、装置及系统、电子设备和存储介质
PCT/CN2019/082231 WO2020019760A1 (zh) 2018-07-27 2019-04-11 活体检测方法、装置及系统、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2021503659A JP2021503659A (ja) 2021-02-12
JP7026225B2 true JP7026225B2 (ja) 2022-02-25

Family

ID=69182122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527737A Active JP7026225B2 (ja) 2018-07-27 2019-04-11 生体検出方法、装置及びシステム、電子機器並びに記憶媒体

Country Status (6)

Country Link
US (1) US11321575B2 (ja)
JP (1) JP7026225B2 (ja)
KR (1) KR102391792B1 (ja)
CN (1) CN110852134A (ja)
SG (1) SG11202005080VA (ja)
WO (1) WO2020019760A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
KR20210121628A (ko) * 2020-03-31 2021-10-08 주식회사 만도 강화학습 기반 포인트 클라우드 자동화 처리 방법 및 그 시스템
CN111539311B (zh) * 2020-04-21 2024-03-01 上海锘科智能科技有限公司 基于ir和rgb双摄的活体判别方法、装置及系统
CN111881729B (zh) * 2020-06-16 2024-02-06 深圳数联天下智能科技有限公司 基于热成像的活体流向甄别方法、装置、设备及存储介质
KR20220014495A (ko) * 2020-07-29 2022-02-07 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112507798B (zh) * 2020-11-12 2024-02-23 度小满科技(北京)有限公司 活体检测方法、电子设备与存储介质
CN113128428B (zh) * 2021-04-24 2023-04-07 新疆爱华盈通信息技术有限公司 基于深度图预测的活体检测方法和相关设备
CN113435342B (zh) * 2021-06-29 2022-08-12 平安科技(深圳)有限公司 活体检测方法、装置、设备及存储介质
CN113469036A (zh) * 2021-06-30 2021-10-01 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
CN113763412A (zh) * 2021-09-08 2021-12-07 理光软件研究所(北京)有限公司 图像处理方法、装置及电子设备、计算机可读存储介质
CN113641415B (zh) * 2021-10-14 2022-02-11 浙江舜宇智领技术有限公司 基于人脸识别的解锁方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009769A (ja) 2006-06-29 2008-01-17 Konica Minolta Holdings Inc 顔認証システム及び顔認証方法
JP2014178969A (ja) 2013-03-15 2014-09-25 Nec Solution Innovators Ltd 情報処理装置及び判定方法
CN105335722A (zh) 2015-10-30 2016-02-17 商汤集团有限公司 一种基于深度图像信息的检测系统及方法
JP2017084065A (ja) 2015-10-27 2017-05-18 株式会社東芝 なりすまし検出装置
CN107451510A (zh) 2016-05-30 2017-12-08 北京旷视科技有限公司 活体检测方法和活体检测系统
CN107633165A (zh) 2017-10-26 2018-01-26 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置
CN108280418A (zh) 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
KR102018763B1 (ko) * 2011-01-28 2019-09-05 인터치 테크놀로지스 인코퍼레이티드 이동형 원격현전 로봇과의 인터페이싱
US20130162763A1 (en) * 2011-12-23 2013-06-27 Chao-Chung Cheng Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map
TWI478095B (zh) * 2012-02-07 2015-03-21 Nat Univ Chung Cheng Check the depth of mismatch and compensation depth error of the perspective synthesis method
CN105956572A (zh) * 2016-05-15 2016-09-21 北京工业大学 一种基于卷积神经网络的活体人脸检测方法
US10237530B1 (en) * 2016-06-29 2019-03-19 Amazon Technologies, Inc. Depth-map augmentation techniques
US10021372B2 (en) * 2016-09-16 2018-07-10 Qualcomm Incorporated Systems and methods for improved depth sensing
CN107590430A (zh) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
WO2019056310A1 (en) * 2017-09-22 2019-03-28 Qualcomm Incorporated SYSTEMS AND METHODS FOR DETECTING FACIAL ACTIVITY
US10679443B2 (en) * 2017-10-13 2020-06-09 Alcatraz AI, Inc. System and method for controlling access to a building with facial recognition
CN107609383B (zh) * 2017-10-26 2021-01-26 奥比中光科技集团股份有限公司 3d人脸身份认证方法与装置
CN115019015A (zh) * 2017-12-22 2022-09-06 奇跃公司 密集3d重建数据的缓存和更新
US10930010B2 (en) * 2018-05-10 2021-02-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting living body, system, electronic device, and storage medium
WO2020045770A1 (en) * 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
WO2021038298A2 (en) * 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009769A (ja) 2006-06-29 2008-01-17 Konica Minolta Holdings Inc 顔認証システム及び顔認証方法
JP2014178969A (ja) 2013-03-15 2014-09-25 Nec Solution Innovators Ltd 情報処理装置及び判定方法
JP2017084065A (ja) 2015-10-27 2017-05-18 株式会社東芝 なりすまし検出装置
CN105335722A (zh) 2015-10-30 2016-02-17 商汤集团有限公司 一种基于深度图像信息的检测系统及方法
CN107451510A (zh) 2016-05-30 2017-12-08 北京旷视科技有限公司 活体检测方法和活体检测系统
CN107633165A (zh) 2017-10-26 2018-01-26 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置
CN108280418A (zh) 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置

Also Published As

Publication number Publication date
JP2021503659A (ja) 2021-02-12
KR20200081450A (ko) 2020-07-07
US11321575B2 (en) 2022-05-03
US20200279120A1 (en) 2020-09-03
KR102391792B1 (ko) 2022-04-28
CN110852134A (zh) 2020-02-28
SG11202005080VA (en) 2020-06-29
WO2020019760A1 (zh) 2020-01-30

Similar Documents

Publication Publication Date Title
JP7026225B2 (ja) 生体検出方法、装置及びシステム、電子機器並びに記憶媒体
JP6852150B2 (ja) 生体検知方法および装置、システム、電子機器、記憶媒体
US10930010B2 (en) Method and apparatus for detecting living body, system, electronic device, and storage medium
US11532180B2 (en) Image processing method and device and storage medium
US20220004742A1 (en) Method for face recognition, electronic equipment, and storage medium
JP7110412B2 (ja) 生体検出方法及び装置、電子機器並びに記憶媒体
CN108197586B (zh) 脸部识别方法和装置
KR102477923B1 (ko) 이미지-기반 스푸프 검출을 위해 초점 스택들을 이용하는 시스템들 및 방법들
CN110287671B (zh) 验证方法及装置、电子设备和存储介质
US20140223548A1 (en) Adapting content and monitoring user behavior based on facial recognition
CN109934275B (zh) 图像处理方法及装置、电子设备和存储介质
US11076144B2 (en) Method and apparatus for obtaining image, storage medium and electronic device
CN110532957B (zh) 人脸识别方法及装置、电子设备和存储介质
CN111626086A (zh) 活体检测方法、装置及系统、电子设备和存储介质
CN111310664B (zh) 图像处理方法及装置、电子设备和存储介质
CN107977636B (zh) 人脸检测方法及装置、终端、存储介质
CN112270288A (zh) 活体识别、门禁设备控制方法和装置、电子设备
CN111435422B (zh) 动作识别方法、控制方法及装置、电子设备和存储介质
CN111507131B (zh) 活体检测方法及装置、电子设备和存储介质
CN114565962A (zh) 人脸图像处理方法及装置、电子设备和存储介质
CN111507202B (zh) 图像处理方法、装置及存储介质
WO2024076531A1 (en) Hybrid auto-focus system with robust macro object priority focusing
JP2022552389A (ja) 対象者が未承認である可能性が高いことを示すアラートを生成するためのイベントを管理する方法、装置、システム及びプログラム
CN115147589A (zh) 一种视差图的处理方法、电子设备、存储介质及产品

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7026225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150