JP7110412B2 - 生体検出方法及び装置、電子機器並びに記憶媒体 - Google Patents

生体検出方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP7110412B2
JP7110412B2 JP2020572853A JP2020572853A JP7110412B2 JP 7110412 B2 JP7110412 B2 JP 7110412B2 JP 2020572853 A JP2020572853 A JP 2020572853A JP 2020572853 A JP2020572853 A JP 2020572853A JP 7110412 B2 JP7110412 B2 JP 7110412B2
Authority
JP
Japan
Prior art keywords
image
sub
face
camera
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020572853A
Other languages
English (en)
Other versions
JP2022501686A (ja
Inventor
宏斌 ▲趙▼
文忠 ▲蒋▼
毅 ▲劉▼
斯▲ティン▼ 胡
均▲強▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022501686A publication Critical patent/JP2022501686A/ja
Application granted granted Critical
Publication of JP7110412B2 publication Critical patent/JP7110412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/58Extraction of image or video features relating to hyperspectral data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

(関連出願の相互参照)
本願は、2019年08月19日に提出された出願番号201910763887.2の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、コンピュータビジョン技術分野に関し、特に生体検出方法及び装置、電子機器並びに記憶媒体に関する。
現在、顔認識技術は、広く適用されている。日常生活において、例えば、アカウント登録、身元認証などにおいて、いずれも顔認識を適用することができる。これに伴い、非生体が顔認識に攻撃を与えるため、生体検出は、技術検討のホットスポットになってきた。
従来の生体検出において、一般的には、単一のカメラにより収集された画像のみを利用して、生体特徴の検出を行う。該方法の検出精度が高くない。
本願の実施例は、生体検出方法及び装置、電子機器並びに記憶媒体を提供する。
本願の実施例は、生体検出方法を提供する。前記方法は、
第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うことと、
前記第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得することであって、前記第1カメラのタイプは、第2カメラのタイプと異なる、ことと、
前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることと、を含む。
幾つかの実施例において、第2カメラにより収集された第2画像を取得することは、
第1カメラにより第1画像を収集した場合、前記第2カメラにより収集された第2画像を取得することと、
前記第1画像に顔が含まれることを検出した場合、前記第2カメラにより収集された第2画像を取得することと、のうち少なくとも1つを含む。
幾つかの実施例において、前記方法は、
前記第2画像から顔が検出されていないことに応答して、前記第1画像における顔が非生体であると決定することを更に含む。
幾つかの実施例において、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることは、
前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得することと、
前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することと、
前記第1サブ画像及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得ることと、を含む。
幾つかの実施例において、前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得することは、
第1画像での各顔の位置情報に基づいて、最大面積を有する顔に対応する第1サブ画像を得ることを含む。
幾つかの実施例において、前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、
前記第1サブ画像及び第2サブ画像に対して特徴抽出を行い、前記第1サブ画像の第1顔特徴及び前記第2サブ画像の第2顔特徴を得ることと、
前記第1顔特徴と第2顔特徴との類似度を得ることと、
前記第1顔特徴との類似度が第1閾値より大きい第2顔特徴が存在することに応答して、第1顔特徴との類似度が最も高い第2顔特徴に対応する第2サブ画像が、前記第1顔特徴に対応する第1サブ画像とマッチングしたと決定することと、を含む。
幾つかの実施例において、前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、
前記第1画像での、前記第1サブ画像の第1位置と、前記第2画像での、前記第2サブ画像の第2位置と、の距離を取得することと、
いずれか1つの第2サブ画像の第2位置と前記第1サブ画像の第1位置との距離が距離閾値未満であることに応答して、前記いずれか1つのサブ画像が前記第1サブ画像とマッチングしたと決定することと、を含む。
幾つかの実施例において、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることは、
前記第2画像に、前記第1サブ画像とマッチングした第2サブ画像が存在しないことに応答して、前記生体検出方法を再実行することを更に含む。
幾つかの実施例において、前記方法は、
前記生体検出方法を繰り返して実行した回数が回数閾値より大きいことに応答して、前記生体検出結果が非生体であると決定することを更に含む。
幾つかの実施例において、前記方法は、
前記第1画像から顔が検出されていない場合、第1カメラにより収集された第1画像の取得を再実行することを更に含む。
幾つかの実施例において、前記第1カメラは、可視光カメラであり、前記第2カメラは、赤外線カメラである。
本願の実施例は、生体検出装置を提供する。前記装置は、
第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うように構成される第1検出モジュールと、
前記第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得するように構成される取得モジュールであって、前記第1カメラのタイプは、第2カメラのタイプと異なる、取得モジュールと、
前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得るように構成される第2検出モジュールと、を備える。
幾つかの実施例において、第2カメラにより収集された第2画像を取得することは、
第1カメラにより第1画像を収集した場合、前記第2カメラにより収集された第2画像を取得することと、
前記第1画像に顔が含まれることを検出した場合、前記第2カメラにより収集された第2画像を取得することと、のうち少なくとも1つを含む。
幾つかの実施例において、前記第2検出モジュールは更に、前記第2画像から顔が検出されていないことに応答して、前記第1画像における顔が非生体であると決定するように構成される。
幾つかの実施例において、前記第2検出モジュールは、
前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得するように構成される取得ユニットと、
前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定するように構成されるマッチングユニットと、
前記第1サブ画像及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得るように構成される生体検出ユニットと、を更に備える。
幾つかの実施例において、前記取得ユニットは更に、第1画像での各顔の位置情報に基づいて、最大面積を有する顔に対応する第1サブ画像を得るように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第1サブ画像及び第2サブ画像に対して特徴抽出を行い、前記第1サブ画像の第1顔特徴及び前記第2サブ画像の第2顔特徴を得、
前記第1顔特徴と第2顔特徴との類似度を得、
前記第1顔特徴との類似度が第1閾値より大きい第2顔特徴が存在する場合、第1顔特徴との類似度が最も高い第2顔特徴に対応する第2サブ画像が、前記第1顔特徴に対応する第1サブ画像とマッチングしたと決定するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第1画像での、前記第1サブ画像の第1位置と、前記第2画像での、前記第2サブ画像の第2位置と、の距離を取得し、
いずれか1つの第2サブ画像の第2位置と前記第1サブ画像の第1位置との距離が距離閾値未満である場合、前記いずれか1つのサブ画像が前記第1サブ画像とマッチングしたと決定するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第2画像に、前記第1サブ画像とマッチングした第2サブ画像が存在しない場合、第1画像を再取得して生体検出を実行するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記生体検出方法を繰り返して実行した回数が回数閾値より大きい場合、前記生体検出結果が非生体であると決定するように構成される。
幾つかの実施例において、前記第1検出モジュールは、前記第1画像から顔が検出されていない場合、第1カメラにより収集された第1画像の取得を再実行するように構成される。
幾つかの実施例において、前記第1カメラは、可視光カメラであり、前記第2カメラは、赤外線カメラである。
本願の実施例は、電子機器を提供する。前記電子機器は、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶された命令を呼び出して、上記いずれか一項に記載の方法を実行するように構成される。
本願の実施例は、コンピュータ可読記憶媒体を提供する。該コンピュータ可読記憶媒体は、コンピュータに上記いずれか一つに記載の方法を実行させるためコンピュータプログラムを記憶する。
本願の実施例において、まず、第1カメラにより収集された第1画像を取得し、第1画像から顔を検出した場合、第2カメラにより収集された、タイプが第1画像と異なる第2画像を取得し、更に、第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得る。本願の実施例は、両眼カメラにより収集された画像を利用して生体検出を行う。つまり、2種類のカメラにより収集された画像における顔検出結果により、生体検出結果を得、生体検出の精度を向上させる。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。
本発明の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。
本願の実施例による生体検出方法を示すフローチャートである。 本願の実施例による生体検出方法のステップS30を示すフローチャートである。 本願の実施例による生体検出方法のステップS32を示すフローチャートである。 本願の実施例による生体検出プロセスを示す概略図である。 本願の実施例による生体検出装置を示すブロック図である。 本願の実施例による電子機器を示すブロック図である。 本願の実施例によるもう1つの電子機器を示すブロック図である。
ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本発明に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。
以下、図面を参照しながら本願の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。
ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
なお、本願をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。
本願の実施例で提供される生体検出方法の実行主体は、画像処理装置であってもよい。例えば、生体検出方法は、端末装置、サーバ又は他の処理装置により実行されてもよい。ここで、端末装置は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器、身分検証機器などであってもよい。幾つかの考えられる実現形態において、該生体検出方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。
図1は、本願の実施例による生体検出方法を示すフローチャートである。図1に示すように、前記生体検出方法は、以下を含む。
S10において、第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行う。
幾つかの実施例において、本願の実施例の生体検出方法は、生体検出を必要とする如何なる適用シーンに適用可能である。例えば、顔情報の書き込み、支払い検証、身分検証などのシーンにおいて、いずれも、本願の実施例の生体検出方法を適用することができ、本願の実施例は、これを具体的に限定しない。本願の実施例の生体検出方法により、収集された画像における顔に対応する人物対象が生体であるかどうかを認識することができる。なお、本願の実施例の生体検出方法を適用した電子機器に、例えば、第1カメラ及び第2カメラのような2つのカメラが配置されてもよい。第1カメラのタイプと第2カメラのタイプが異なる。例えば、第1カメラは、可視光(Red、Green、Blue:RGB)カメラであってもよく、第2カメラは、赤外線(Infrared Radiation:IR)カメラであってもよい。ここで、第1カメラのイメージングスケールは、第2カメラのイメージングスケールと同じであってもよい。上記は、例示的な説明に過ぎず、本願を具体的に限定するものではない。
幾つかの実施例において、まず、第1カメラにより収集された第1画像を取得することができる。ここで、該第1画像は、第1カメラによりリアルタイムに収集された画像である。例えば、生体検出実行命令を受信した場合、第1カメラに、第1カメラを起動する命令を送信し、第1カメラにより第1画像を収集する。第1画像は、カラー画像(RGB画像)である。
幾つかの実施例において、第1画像を取得した場合、第1画像に対する顔検出処理を行うことができる。第1カメラにより収集された第1画像に、1つ又は複数の顔が含まれてもよく、又は、如何なる顔が含まなくてもよい。顔検出処理により、第1画像に顔が含まれるかどうかを認識することができ、また、含まれる顔の位置などの情報を認識することができる。本願の実施例は、顔を認識できるニューラルネットワークにより、該顔検出処理を実行する。例えば、ニューラルネットワークは、第1画像の特徴抽出を実行するための少なくとも1つの畳み込み層を含んでもよい。全結合層により、顔の検出及び分類を行う。上記実施例は、本願の実施例における顔検出を実現させるニューラルネットワークを具体的に限定するものではない。例えば、領域候補ネットワークなどのような、顔認識機能を有する他のニューラルネットワークにより、顔検出を実現させることもできる。
S20において、前記第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得し、前記第1カメラのタイプは、第2カメラのタイプと異なる。
幾つかの実施例において、S10により、第1画像の顔検出結果を得ることができる。該顔検出結果は、第1画像に顔が含まれるかどうかに関わる情報を含んでもよい。また、顔を検出した場合、例えば、顔検出枠の位置情報のような、顔に対応する位置情報を含んでもよい。ここで、第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を更に取得することができる。上記実施例に記載したように、第2カメラは、タイプが第1カメラのタイプと異なるカメラである。第2カメラは、赤外線カメラであってもよく、対応する収集された第2画像は、赤外画像(IR画像)である。
幾つかの実施例において、第2カメラにより収集された第2画像を取得することは、第1カメラにより第1画像を収集した場合、前記第2カメラにより収集された第2画像を取得することと、前記第1画像に顔が含まれることを検出した場合、前記第2カメラにより収集された第2画像を取得することと、のうち少なくとも1つを含む。
一例において、第1画像から顔を検出した場合、第2カメラに起動命令を送信し、第2カメラを起動し、第2カメラにより画像を収集する。更に、第2カメラにより収集された第2画像を取得する。つまり、取得された第2画像は、第1画像から顔を検出した時刻で、第2カメラにより収集された第2画像であってもよい。又は、もう1つの例において、第1カメラを起動すると同時に、第2カメラを起動し、第2カメラにより収集された画像をリアルタイムに記憶する。第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得する。該第2画像は、第1カメラにより収集された第1画像を取得した時刻で、第2カメラにより収集された第2画像であってもよく、又は、第1画像を収集した時刻から第1画像における顔を検出した時刻までのいずれか1つの時刻で、第2カメラにより収集された第2画像であってもよい。
幾つかの実施例において、第1画像から顔が検出されていない場合、第1カメラにより新たな第1画像を再収集し、生体検出方法を再実行することができる。
S30において、前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得る。
幾つかの実施例において、第2画像を取得した場合、第2画像に対する顔検出処理を実行することができる。該処理は、第1画像に対する顔検出処理と同じである。顔検出を実行できるニューラルネットワークにより、第2画像に対して顔検出処理を行うこともできる。第2画像を該顔検出ニューラルネットワークに入力し、顔検出ニューラルネットワークにより、第2画像に顔が含まれるかどうかを認識し、また、含まれる顔の位置情報を認識する。
幾つかの実施例において、第2画像の顔検出結果に基づいて、生体検出結果を決定することができる。例えば、第2画像から顔が検出されていない場合、第1画像から検出された顔が非生体であることを証明することができる。この場合、第1画像は、光沢のある写真又は電子写真であってもよい。この場合、第1画像における顔が非生体であると直接的に判定することができる。
幾つかの実施例において、第2画像に顔が含まれることを検出した場合、第1画像における顔と第2画像における顔とのマッチング結果に基づいて、生体検出結果を決定することもできる。2種類のカメラにより収集された画像の顔検出結果を結合する。例えば、第2画像から、第1画像における顔とマッチングした顔を検出した場合、該2つのマッチングした顔に基づいて生体検出を実現させる。又は、第2画像から、第1画像における顔とマッチングした顔が検出されていない場合、第1画像における顔が非生体であると決定することができる。
本願の実施例は、2種類のカメラにより収集された画像における顔検出結果を結合することで、2つの画像における顔マッチング結果を更に決定し、マッチング結果に基づいて生体検出結果を得る。該プロセスによれば、検出精度を向上させることができる。
以下、図面を参照しながら、本願の実施例を詳細に説明する。上記実施例に記載したように、第1画像から顔を検出した場合、第2カメラにより収集された第2画像の顔検出結果に基づいて、生体検出を行い、生体検出結果を得ることができる。
図2は、本願の実施例による生体検出方法のステップS30を示すフローチャートである。本願の実施例において、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることは、以下を含む。
S31において、前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得する。
幾つかの実施例において、第2画像の顔検出結果が、顔が検出されていないことを表す場合、第1画像における顔が非生体であることを示す。第2画像から顔が検出された場合、第1画像から、所定の要件を満たす顔に対応する画像領域を選択する。該画像領域は、第1サブ画像である。
上記実施例に記載したように、顔検出結果に、検出した顔の位置情報が含まれてもよい。該位置情報は、検出した顔に対応する検出枠の位置であってもよい。例えば、座標の形式で表されてもよい。例えば、(x1,x2,y1,y2)として表されてもよい。ここで、(x1,y1)及び(x2,y2)は、それぞれ、検出枠の2つの対角頂点の位置座標である。上記位置座標により、第1画像及び第2画像で検出された各顔が位置する位置領域を決定することができる。上記は、例示的な説明に過ぎず、他の形式で、顔が位置する位置領域を表すこともできる。
本願の実施例は、第1画像における最大面積を有する顔を、所定の要件を満たす顔として決定することができる。なお、該最大面積を有する顔が位置する位置領域は、第1サブ画像とされてもよい。例えば、顔認証又は生体検出を必要とする他の場合に、一般的には、画像における最大面積領域を占める顔を検出されるべき顔として決定することができる。この場合、該最大面積を有する顔の位置領域に対応する画像を、所定の要件を満たす顔に対応する第1サブ画像として決定することができる。ここで、本願の実施例は、検出した顔の位置情報に基づいて、顔が位置する位置領域の面積を決定することができる。つまり、顔に対応する検出枠の位置に基づいて、検出枠の面積を決定することができる。該検出枠の面積を顔が位置する位置領域の面積として決定することができる。
又は、他の実施例において、ユーザにより入力された選択情報を受信することで、選択情報に対応する顔を決定し、該選択された顔を、所定の要件を満たす顔とする。同様に、該選択された顔に対応する位置領域を第1サブ画像とする。更に、第1画像における、ユーザにより選択された顔に対応する生体検出結果を適応的に検出することができる。ここで、ユーザにより入力された選択情報は、例えば矩形形状の枠の選択操作のような、第1画像に対する枠選択操作であってもよい。本願の実施例は、枠選択操作における顔を、所定の要件を満たす顔とし、枠選択操作により選択された領域の画像を第1サブ画像とすることができる。又は、枠選択操作に含まれる顔の情報位置に対応する画像を第1サブ画像とすることもできる。本願は、これを具体的に限定するものではない。なお、枠選択操作に対応する枠の形状は矩形に限定されず、他の形状であってもよい。
幾つかの実施例において、得られた第1サブ画像は、複数であってもよい。つまり、所定の要件を満たす顔は、複数であってもよい。例えば、枠選択操作により、所定の要件を満たす複数の顔を選択する。従って、各顔にそれぞれ対応する第1サブ画像を得ることができる。
S32において、前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定する。
幾つかの実施例において、第2画像に対して顔検出処理を行うことで、第2画像の顔検出結果を得ることができる。ここで、第2画像に顔が含まれるかどうかに関わる情報及び第2画像に含まれる顔の位置情報を含んでもよい。なお、第2画像に含まれる顔の位置情報により、第2画像における各顔位置領域に対応する第2サブ画像を得ることができる。つまり、第2画像における各顔位置情報に対応する位置領域の画像を第2サブ画像とする。これにより、第1サブ画像を各第2サブ画像とそれぞれマッチングし、第1サブ画像とマッチングした第2サブ画像を得る。第1サブ画像と第2サブ画像がマッチングしたことは、第1サブ画像における顔と第2サブ画像における顔が同一の人物対象の顔であることを意味する。例えば、各第1サブ画像と各第2サブ画像の特徴の類似度を得、類似度が第1閾値より大きい第2サブ画像を、第1サブ画像とマッチングした第2サブ画像と決定する。一例において、第1画像で所定の条件を満たす顔は、顔Aであってもよい。例えば、顔Aは、第1画像で最大の面積を有する位置領域に対応する顔である。顔Aの位置情報に基づいて、顔Aに対応する第1サブ画像を決定することができる。第2画像に、顔B、C及びDが含まれてもよい。検出した顔B、C及びDの位置情報に基づいて、第2画像での、顔B、C及びDにそれぞれ対応する第2サブ画像を決定することができる。続いて、顔Aの第1サブ画像を、それぞれ、顔B、C及びDの第2サブ画像とマッチングし、例えば、顔Aの第1サブ画像に対応する顔特徴と顔B、C及びDの第2サブ画像の顔特征との類似度を得る。該類似度に基づいて、顔B、C及びDに、顔Aとマッチングした顔が存在するかどうかを決定することができる。つまり、第1サブ画像とマッチングした第2サブ画像が存在するかどうかを決定することができる。B、C及びDに、Aの顔特徴との類似度が第1閾値より大きい顔が存在すれば、類似度が最も高い顔に対応する第2サブ画像を、第1サブ画像とマッチングした第2サブ画像と決定することができる。例えば、Aの顔特徴とBの顔特徴との類似度は98%であり、Aの顔特徴とCの顔特徴との類似度は、50%であり、Aの顔特徴とDの顔特徴との類似度は、85%であり、類似度閾値は、90%であってもよい。この場合、Aとマッチングした顔Bが存在すると決定することができる。なお、Bに対応する第2サブ画像は、Aに対応する第1サブ画像とマッチングした。又は、他の実施例において、第1サブ画像と第2サブ画像との距離により、第2サブ画像とマッチングした第1サブ画像を決定することもできる。
S33において、前記第1サブ画像及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得る。
幾つかの実施例において、第1サブ画像とマッチングした第2サブ画像を得た場合、第1サブ画像及び第2サブ画像を生体検出ニューラルネットワークに入力し、生体検出ニューラルネットワークにより、第1サブ画像及び第2サブ画像に含まれる顔が生体であるかどうかの生体検出結果を予測することができる。ここで、生体検出ニューラルネットワークは、畳み込みニューラルネットワークであってもよい。該生体検出ネットワークが訓練された後、入力された第1サブ画像及び第2サブ画像における画像が生体であるかどうかを認識することができる。ここで、生体検出ネットワークは、第1サブ画像及び第2サブ画像における顔が生体である確率、及び生体であるかどうかを示す識別子を出力することができる。該識別子は、第1サブ画像及び第2サブ画像における顔が生体であることを示す第1識別子、及び非生体であることを示す第2識別子を含んでもよい。第1識別子は、1であってもよく、第2識別子は、0であってもよい。ここで、上記確率が第2閾値より大きい場合、第1サブ画像及び第2サブ画像における顔が生体であることを表す。この場合、第1識別子を出力する。上記確率が第2閾値以下である場合、第1サブ画像及び第2サブ画像における顔が非生体であることを表す。この場合、第2識別子を出力する。なお、本願の実施例は、生体検出ニューラルネットワークのネットワークの構造を具体的に限定するものではない。それは、生体検出の目的を実現できる如何なるニューラルネットワークであってもよい。
上記実施例により、生体検出ニューラルネットワークを利用して、マッチングした第1サブ画像と第2サブ画像における顔の生体検出結果を更に認識することができる。該方式により、生体検出の精度を更に向上させることができる。
以下、例を挙げて、第1サブ画像とマッチングした第2サブ画像の決定プロセスを説明する。図3は、本願の実施例による生体検出方法のステップS32を示すフローチャートである。前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、以下を含む。
S321において、前記第1サブ画像及び第2サブ画像に対して特徴抽出を行い、前記第1サブ画像の第1顔特徴及び前記第2サブ画像の第2顔特徴を得る。
幾つかの実施例において、第1画像で所定の条件を満たす顔に対応する第1サブ画像に対してそれぞれ特徴抽出を行い、各第1サブ画像に対応する第1顔特徴を得る。第2画像における各顔に対応する第2サブ画像に対して特徴抽出を行い、各第2サブ画像に対応する第2顔特徴を得ることができる。本願の実施例は、特徴抽出ネットワークにより、該特徴抽出を実行することができる。例えば、残差ネットワーク、ピラミッドネットワーク等の畳み込みニューラルネットワークにより特徴抽出を実行することができる。本願は、これを具体的に限定するものではない。
幾つかの実施例において、第1顔特徴の次元は、第2顔特徴の次元と同じである。各第1サブ画像及び第2サブ画像を得た場合、第1サブ画像及び第2サブ画像を所定の規格に調整し、各サブ画像の寸法を同じくする。従って、特徴抽出により、第1顔特徴及び第2顔特徴を得た場合、各顔特徴の次元は同じである。
S322において、前記第1顔特徴と第2顔特徴との類似度を得る。
幾つかの実施例において、第1顔特徴及び第2顔特徴を得た場合、各第1顔特徴と各第2顔特徴との類似度をそれぞれ算出することができる。例えば、第1顔特徴と第2顔特徴とのコサイン類似度を算出することができる。又は、上記類似度を表すための、第1顔特徴と第2顔特徴とのユークリッド距離を算出することもできる。他の実施例において、他のパラメータで、第1顔特徴と第2顔特徴との類似度を表すこともできる。ここでは逐一に例を挙げて説明することをしない。
S323において、前記第1顔特徴との類似度が第1閾値より大きい第2顔特徴が存在する場合、第1顔特徴との類似度が最も高い第2顔特徴に対応する第2サブ画像が、前記第1顔特徴に対応する第1サブ画像とマッチングしたと決定する。
幾つかの実施例において、各第1顔特徴に対して、該顔特徴との類似度が第1閾値より大きい第2顔特徴が存在すれば、第1顔特徴に対応する第1サブ画像とマッチングした第2サブ画像が存在することを表す。この場合、類似度が最も高い第2顔特徴に対応する第2サブ画像を、第1サブ画像とマッチングした画像と決定する。この場合、該マッチングした2つの画像に、同一の人物対象に対応する顔が含まれることを表す。
なお、少なくとも1つの第1顔特徴に対して、任意の第2顔特徴と該第1顔特徴との類似度がいずれも第1閾値未満であることは、該第1顔特徴と類似した第2顔特徴が存在しないことを表す。この場合、該第1顔特徴に対応する第1サブ画像とマッチングした第2サブ画像が存在しないことを表す。第1サブ画像とマッチングした第2サブ画像が存在しないと決定した場合、第1サブ画像及び第2サブ画像における顔が非生体であると直接的に判定することができる。又は、生体検出方法を再実行する。つまり、再び、第1カメラにより第1画像を収集し、続いて、生体検出方法の各プロセスを再実行する。なお、複数回繰り返して実行した場合、回数閾値を超えても、第1顔特徴と類似した第2顔特徴が依然として検出されておらず、つまり、第1サブ画像とマッチングした第2サブ画像が依然として検出されていないと、第1サブ画像及び第2サブ画像における顔が非生体であると決定することができる。上記方式により、収集した画像又は人物の移動状態の変動などの要因による影響を低減させ、生体検出の精度を向上させることができる。
本願の別の幾つかの実施形態において、前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、前記第1画像での、前記第1サブ画像の第1位置と、前記第2画像での、前記第2サブ画像の第2位置と、の距離を取得することと、いずれか1つの第2サブ画像の第2位置と前記第1サブ画像の第1位置との距離が距離閾値未満であることに応答して、前記いずれか1つのサブ画像が前記第1サブ画像とマッチングしたと決定することと、を含む。
本願の実施例において、第1画像での、第1サブ画像の第1位置及び第2画像での、第2サブ画像の第2位置をそれぞれ取得することができる。ここで、第1画像と第2画像の寸法は同じであってもよい。又は、第1画像と第2画像の寸法が異なる場合、第1画像及び第2画像に対して正規化処理を行い、正規化された第1画像及び第2画像の寸法を同じくし、続いて、正規化された第1画像における第1サブ画像の第1位置及び第2画像における第2サブ画像の第2位置を得る。第1位置及び第2位置を得た後、各第1位置と第2位置とのシティ一ブロック距離(city block distance)を算出することができる。該シティ一ブロック距離が距離閾値未満である場合、対応する第2サブ画像及び第1サブ画像を、同一の人物対象の顔と決定することができる。つまり、第2サブ画像は、第1サブ画像とマッチングした。この場合、第1サブ画像の顔に対応する人物対象が生体であると決定することができる。第1位置とのシティ一ブロック距離が距離閾値未満である第2位置が存在しなければ、第1サブ画像とマッチングした第2サブ画像が存在しないことを表す。つまり、第2画像に、第1サブ画像における顔と同一の人物対象の顔が存在しない。この場合、第1サブ画像及び第2サブ画像における顔が非生体であると決定することができる。ここで、シティ一ブロック距離の算出方式は、d(i,j) = |X1 - X2| + |Y1 - Y2|であってもよい。ここで、d(i,j)は、座標が(x1,y1)であるi点と座標が(x2,y2)であるj点とのシティ一ブロック距離を表す。
本願の実施例において、第1閾値、第2閾値、距離閾値及び回数閾値は、所定の値であってもよく、本願の実施例は、これを具体的に限定するものではない。例えば、本願において、第1閾値は、90%であってもよく、第2閾値は、80%であってもよく、回数閾値は、例えば5のような、1より大きい値であってもよく、距離閾値は、5又は他の値であってもよい。上記は、例示的な説明に過ぎず、本願を具体的に限定するものではない。
第1サブ画像とマッチングした第2サブ画像を得た場合、マッチングした第1サブ画像及び第2サブ画像を生体検出ニューラルネットワークに入力し、生体検出結果を得ることができる。
本願の実施例を明確にするために、以下、例を挙げて、本願の実施例の生体検出プロセスを説明する。図4は、本願の実施例による生体検出プロセスを示す概略図である。図4に示すように、第1カメラがRGBカメラであって第2カメラがIRカメラであることを例として説明する。ここで、まず、第1カメラにより収集された第1画像を取得し、例えば、RGBプレビューフレームを取得する。この場合、第2カメラにより収集された第2画像を得ることもできる。第1画像における顔を認識する。つまり、RGB画像に対して顔検出を行う。顔が検出されていないと、プロセスを終了して、第1画像の収集を再実行する。このように繰り返して実行する。第1画像から顔を検出した場合、第2カメラにより収集された第2画像を取得し、第2画像に対して顔検出を行う。第2画像から顔が検出されていないと、第1画像における顔が非生体であると決定する。第2画像から顔を検出した場合、第1画像における最大面積を有する顔を、所定の要件を満たす顔とし、第2画像における、該最大面積を有する顔とマッチングした顔を決定する。つまり、最大面積を有する顔に対応する第1サブ画像とマッチングした第2サブ画像を決定することができる。続いて、マッチングした第1サブ画像及び第2サブ画像を生体検出ニューラルネットワークに入力し、生体検出結果を得る。得られた確率値score(スコア)が第2閾値(生体閾値)より大きいと、マッチングした第1サブ画像及び第2サブ画像における顔が生体であると決定することができる。そうでなければ、非生体であると決定する。なお、第2画像から、第1サブ画像とマッチングした第2サブ画像が検出されていないと、第1サブ画像に対応する顔が非生体であると決定する。又は、生体検出方法を繰り返して実行した回数が回数閾値より大きい場合、第1サブ画像とマッチングした第2サブ画像が依然として検出されていないと、第1サブ画像における顔が非生体であると決定することができる。
要するに、本願の実施例において、まず、第1カメラにより収集された第1画像を取得し、第1画像から顔を検出した場合、第2カメラにより収集された、タイプが第1画像と異なる第2画像を取得し、更に、第2画像の顔検出結果に基づいて、生体検出結果を得る。本願の実施例は、両眼カメラにより収集された画像を利用して生体検出を行う。つまり、2種類のカメラにより収集された画像における顔検出結果により、生体検出結果を得、生体検出の精度を向上させる。なお、本願の実施例は、両眼カメラ(第1カメラ及び第2カメラ)を利用することで、非活体による攻撃の点で、より多くの方策及び判定方法を実現させることができる。例えば、赤外撮像のイメージング特性に基づいて、電子スクリーンによる攻撃を容易に判定することができ、非生体による攻撃を効果的に防止することができる。
要するように、本願の実施例において、まず、第1カメラにより収集された第1画像を取得し、第1画像から顔を検出した場合、第2カメラにより収集された、タイプが第1画像と異なる第2画像を取得し、更に、第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得る。本願の実施例は、両眼カメラにより収集された画像を利用して生体検出を行う。つまり、2種類のカメラにより収集された画像における顔検出結果により、生体検出結果を得、生体検出の精度を向上させる。
具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番として実施過程を限定するものではなく、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まることは、当業者であれば理解すべきである。
本願に言及した上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができ、紙数に限りがあるため、本願において逐一説明しないことが理解されるべきである。
なお、本願は、生体検出装置、電子機器、コンピュータ可読記憶媒体、プログラムを更に提供する。上記はいずれも、本願で提供されるいずれか1つの生体検出方法を実現させるためのものである。対応する技術的解決手段及び説明は、方法に関連する記述を参照されたい。ここで、詳細な説明を省略する。
図5は、本願の実施例による生体検出装置を示すブロック図である。図5に示すように、前記生体検出装置は、
第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うように構成される第1検出モジュール41と、
前記第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得するように構成される取得モジュールであって、前記第1カメラのタイプは、第2カメラのタイプと異なる、取得モジュール42と、
前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得るように構成される第2検出モジュール43と、を備える。
幾つかの実施例において、第2カメラにより収集された第2画像を取得することは、
第1カメラにより第1画像を収集した場合、前記第2カメラにより収集された第2画像を取得することと、
前記第1画像に顔が含まれることを検出した場合、前記第2カメラにより収集された第2画像を取得することと、のうち少なくとも1つを含む。
幾つかの実施例において、前記第2検出モジュールは更に、前記第2画像から顔が検出されていないことに応答して、前記第1画像における顔が非生体であると決定するように構成される。
幾つかの実施例において、前記第2検出モジュールは、
前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得するように構成される取得ユニットと、
前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定するように構成されるマッチングユニットと、
前記第1サブ画像及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得るように構成される生体検出ユニットと、を更に備える。
幾つかの実施例において、前記取得ユニットは更に、第1画像での各顔の位置情報に基づいて、最大面積を有する顔に対応する第1サブ画像を得るように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第1サブ画像及び第2サブ画像に対して特徴抽出を行い、前記第1サブ画像の第1顔特徴及び前記第2サブ画像の第2顔特徴を得、
前記第1顔特徴と第2顔特徴との類似度を得、
前記第1顔特徴との類似度が第1閾値より大きい第2顔特徴が存在する場合、第1顔特徴との類似度が最も高い第2顔特徴に対応する第2サブ画像が、前記第1顔特徴に対応する第1サブ画像とマッチングしたと決定するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第1画像での、前記第1サブ画像の第1位置と、前記第2画像での、前記第2サブ画像の第2位置と、の距離を取得し、
いずれか1つの第2サブ画像の第2位置と前記第1サブ画像の第1位置との距離が距離閾値未満である場合、前記いずれか1つのサブ画像が前記第1サブ画像とマッチングしたと決定するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記第2画像に、前記第1サブ画像とマッチングした第2サブ画像が存在しない場合、第1画像を再取得して生体検出を実行するように構成される。
幾つかの実施例において、前記マッチングユニットは更に、前記生体検出方法を繰り返して実行した回数が回数閾値より大きい場合、前記生体検出結果が非生体であると決定するように構成される。
幾つかの実施例において、前記第1検出モジュールは、前記第1画像から顔が検出されていない場合、第1カメラにより収集された第1画像の取得を再実行するように構成される。
幾つかの実施例において、前記第1カメラは、可視光カメラであり、前記第2カメラは、赤外線カメラである。
幾つかの実施例において、本願の実施例で提供される装置における機能及びモジュールは、上記方法実施例に記載の方法を実行するために用いられ、具体的な実現形態は上記方法実施例の説明を参照されたい。簡潔化のために、ここで詳細な説明を省略する。
本願の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現させる。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。
本願の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、プロセッサは、上記方法を実行するように構成される。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図6は本願の実施例による電子機器を示すブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。
図6を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(Input Output:I/O)インタフェース812、センサコンポーネント814及び通信コンポーネント816のうちの1つ又は複数を備えてもよい。
処理コンポーネント802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理コンポーネント802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理コンポーネント802はマルチメディアモジュールを備えることで、マルチメディアコンポーネント808と処理コンポーネント802とのインタラクションに寄与する。
メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(Static Random Access Memory:SRAM)、電気的消去可能なプログラマブル読み出し専用メモリ(Electrically Erasable Programmable Read-Only Memory:EEPROM)、電気的に消去可能なプログラマブル読出し専用メモリ(Erasable Programmable Read-Only Memory:EPROM)、プログラマブル読出し専用メモリ(Programmable Read-Only Memory:PROM)、読出し専用メモリ(Read Only Memory:ROM)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。
電源コンポーネント806は電子機器800の様々なユニットに電力を提供する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。
マルチメディアコンポーネント808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(Liquid Crystal Display:LCD)及びタッチパネル(Touch Panel:TP)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアコンポーネント808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。
オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、マイクロホン(Microphone:MIC)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信コンポーネント816を経由して送信することができる。幾つかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。
I/Oインタフェース812は、処理コンポーネント802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。
センサコンポーネント814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサコンポーネント814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサコンポーネント814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサコンポーネント814は、金属酸化膜半導体素子(Complementary Metal-Oxide Semiconductor:CMOS)又は電荷結合素子(Charge Coupled Device:CCD)画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。
通信コンポーネント816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、WiFi、2G又は3G、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信コンポーネント816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信コンポーネント816は、近接場通信(Near Field Communication:NFC)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(Radio Frequency Identification:RFID)技術、赤外線データ協会(Infrared Data Association:IrDA)技術、超広帯域(Ultra WideBand:UWB)技術、ブルートゥース(登録商標)(BlueTooth:BT)技術及び他の技術に基づいて実現される。
例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Processor:DSP)、デジタル信号処理機器(Digital Signal Process:DSPD)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。
例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。
図7は、本願の実施例によるもう1つの電子機器を示すブロック図である。例えば、電子機器1900は、サーバとして提供されてもよい。図7を参照すると、電子機器1900は、処理コンポーネント1922を備える。それは1つ又は複数のプロセッサと、メモリ1932で表されるメモリリソースを更に備える。該メモリリースは、アプリケーションプログラムのような、処理コンポーネント1922により実行される命令を記憶するためのものである。メモリ1932に記憶されているアプリケーションプログラムは、それぞれ一組の命令に対応する1つ又は1つ以上のモジュールを含んでもよい。なお、処理コンポーネント1922は、命令を実行して、上記方法を実行するように構成される。
電子機器1900は、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926と、電子機器1900をネットワークに接続するように構成される有線又は無線ネットワークインタフェース1950と、入力出力(I/O)インタフェース1958を更に備えてもよい。電子機器1900は、Windows ServerTM、Mac OS XTM、UnixTM, Linux(登録商標)、FreeBSDTM又は類似したなどの、メモリ1932に記憶されているオペレーティングシステムを実行することができる。
例示的な実施例において、例えば、コンピュータプログラム命令を含むメモリ1932のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922により実行されて上記方法を完了する。
本願は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本願の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。
コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、デジタル多目的ディスク(DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。
ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理装置にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理装置におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理装置におけるコンピュータ可読記憶媒体に記憶する。
本願の操作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよく、ユーザコンピュータ上で部分的に実行してもよく、独立したソフトウェアパッケージとして実行してもよく、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよく、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN)やワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本願の各態様を実現させることができる。
ここで、本願の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本願の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理装置のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理装置のプロセッサにより実行される時、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理装置及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。
コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。
図面におけるフローチャート及びブック図は、本願の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。
以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術の改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。
本願の実施例は、生体検出方法及び装置、電子機器並びに記憶媒体に関する。前記方法は、第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うことと、前記第1画像に顔が含まれることを検出した場合、第2カメラにより収集された第2画像を取得することであって、前記第1カメラのタイプは、第2カメラのタイプと異なる、ことと、前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることと、を含む。本願の実施例は、生体検出の精度を向上させることができる。
41 第1検出モジュール
42 取得モジュール
43 第2検出モジュール
802 処理コンポーネント
804 メモリ
806 電源コンポーネント
808 マルチメディアコンポーネント
810 オーディオコンポーネント
812 入力/出力インタフェース
814 センサコンポーネント
816 通信コンポーネント
820 プロセッサ
1922 処理コンポーネント
1926 電源コンポーネント
1932 メモリ
1950 ネットワークインタフェース
1958 入力出力インタフェース

Claims (12)

  1. 第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うことと、
    前記第1画像に顔が含まれることを検出した場合に前記第1カメラのタイプと異なるタイプの第2カメラにより収集された第2画像を取得且つ、前記第1画像から顔が検出されていない場合に前記第1カメラにより収集された第1画像の取得を再実行することと、
    前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることと、を含
    前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることは、
    前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得することと、
    前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することと、
    前記第1サブ画像、及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得ることと、を含む、生体検出方法。
  2. 前記第2カメラにより収集された第2画像を取得することは、
    前記第1カメラにより第1画像を収集した場合、前記第2カメラにより収集された第2画像を取得することと、
    前記第1画像に顔が含まれることを検出した場合、前記第2カメラにより収集された第2画像を取得することと、のうち少なくとも1つを含むことを特徴とする
    請求項1に記載の生体検出方法。
  3. 前記第2画像から顔が検出されていないことに応答して、前記第1画像における顔が非生体であると決定することを更に含むことを特徴とする
    請求項1又は2に記載の生体検出方法。
  4. 前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得することは、
    前記第1画像での各顔の位置情報に基づいて、最大面積を有する顔に対応する第1サブ画像を得ることを含むことを特徴とする
    請求項に記載の生体検出方法。
  5. 前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、
    前記第1サブ画像及び第2サブ画像に対して特徴抽出を行い、前記第1サブ画像の第1顔特徴及び前記第2サブ画像の第2顔特徴を得ることと、
    前記第1顔特徴と第2顔特徴との類似度を得ることと、
    前記第1顔特徴との類似度が第1閾値より大きい第2顔特徴が存在することに応答して、第1顔特徴との類似度が最も高い第2顔特徴に対応する第2サブ画像が、前記第1顔特徴に対応する第1サブ画像とマッチングしたと決定することと、を含むことを特徴とする
    請求項又はに記載の生体検出方法。
  6. 前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定することは、
    前記第1画像での前記第1サブ画像の第1位置と、前記第2画像での前記第2サブ画像の第2位置と、の距離を取得することと、
    いずれか1つの第2サブ画像の第2位置と前記第1サブ画像の第1位置との距離が距離閾値未満であることに応答して、前記いずれか1つのサブ画像が前記第1サブ画像とマッチングしたと決定することと、を含むことを特徴とする
    請求項又はに記載の生体検出方法。
  7. 前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得ることは、
    前記第2画像に、前記第1サブ画像とマッチングした第2サブ画像が存在しないことに応答して、前記生体検出方法を再実行することを更に含むことを特徴とする
    請求項からのうちいずれか一項に記載の生体検出方法。
  8. 前記生体検出方法を繰り返して実行した回数が回数閾値より大きいことに応答して、前記生体検出結果が非生体であると決定することを更に含むことを特徴とする
    請求項に記載の生体検出方法。
  9. 前記第1カメラは、可視光カメラであり、前記第2カメラは、赤外線カメラであることを特徴とする
    請求項1からのうちいずれか一項に記載の生体検出方法。
  10. 第1カメラにより収集された第1画像を取得し、前記第1画像に対して顔検出処理を行うように構成される第1検出モジュールと、
    前記第1画像に顔が含まれることを検出した場合に前記第1カメラのタイプと異なるタイプの第2カメラにより収集された第2画像を取得し、且つ、前記第1画像から顔が検出されていない場合に前記第1カメラにより収集された第1画像の取得を再実行するように構成される取得モジュールと、
    前記第2画像に対して顔検出処理を行い、前記第2画像に顔が含まれることを検出した場合、前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得るように構成される第2検出モジュールと、を備え
    前記第2検出モジュールは、
    前記第1画像から検出した顔と第2画像から検出した顔とのマッチング結果に基づいて、生体検出結果を得る際に、前記第1画像で所定の条件を満たす顔に対応する第1サブ画像を取得し、前記第1サブ画像と、前記第2画像から検出した顔に対応する第2サブ画像と、を比較し、前記第1サブ画像とマッチングした第2サブ画像を決定し、前記第1サブ画像、及び前記第1サブ画像とマッチングした第2サブ画像を生体検出ニューラルネットワークに入力し、前記第1サブ画像における顔の生体検出結果を得る、生体検出装置。
  11. プロセッサと、
    プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
    前記プロセッサは、前記メモリに記憶された命令を呼び出して、請求項1からのうちいずれか一項に記載の方法を実行するように構成される、電子機器。
  12. コンピュータに請求項1からのうちいずれか一項に記載の方法を実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
JP2020572853A 2019-08-19 2020-04-29 生体検出方法及び装置、電子機器並びに記憶媒体 Active JP7110412B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910763887.2 2019-08-19
CN201910763887.2A CN110503023A (zh) 2019-08-19 2019-08-19 活体检测方法及装置、电子设备和存储介质
PCT/CN2020/087861 WO2021031609A1 (zh) 2019-08-19 2020-04-29 活体检测方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022501686A JP2022501686A (ja) 2022-01-06
JP7110412B2 true JP7110412B2 (ja) 2022-08-01

Family

ID=68588242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572853A Active JP7110412B2 (ja) 2019-08-19 2020-04-29 生体検出方法及び装置、電子機器並びに記憶媒体

Country Status (7)

Country Link
US (1) US20210406523A1 (ja)
JP (1) JP7110412B2 (ja)
KR (1) KR20210065178A (ja)
CN (1) CN110503023A (ja)
SG (1) SG11202110114SA (ja)
TW (1) TW202109358A (ja)
WO (1) WO2021031609A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503023A (zh) * 2019-08-19 2019-11-26 深圳市商汤科技有限公司 活体检测方法及装置、电子设备和存储介质
CN111046804A (zh) * 2019-12-13 2020-04-21 北京旷视科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN112084951A (zh) * 2020-09-10 2020-12-15 深圳市迈航信息技术有限公司 智能楼宇系统控制方法、装置、系统以及可读存储介质
CN112165573B (zh) * 2020-09-14 2023-04-18 上海商汤智能科技有限公司 拍摄处理方法和装置、设备、存储介质
CN113537190A (zh) * 2021-06-17 2021-10-22 深圳东辉盛扬科技有限公司 一种多图像识别方法及装置
CN113673382B (zh) * 2021-08-05 2022-07-15 厦门市美亚柏科信息股份有限公司 一种人脸图像聚类中非活体过滤的方法、装置、介质
CN114121269B (zh) * 2022-01-26 2022-07-15 北京鹰之眼智能健康科技有限公司 一种基于人脸特征检测的中医面诊辅助诊断方法、装置和存储介质
CN115174818B (zh) * 2022-09-08 2023-02-03 深圳市维海德技术股份有限公司 基于声音定位的目标跟踪方法、电子设备及可读存储介质
CN115578777B (zh) * 2022-11-10 2023-03-14 成都智元汇信息技术股份有限公司 一种基于空间映射获得目标的识图方法及装置
CN115457644B (zh) * 2022-11-10 2023-04-28 成都智元汇信息技术股份有限公司 一种基于扩展空间映射获得目标的识图方法及装置
CN116259091B (zh) * 2023-01-18 2023-11-10 北京飞腾时光信息科技有限公司 一种静默活体检测的方法和装置
CN117011950B (zh) * 2023-08-29 2024-02-02 国政通科技有限公司 一种活体检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107237A1 (ja) 2008-02-29 2009-09-03 グローリー株式会社 生体認証装置
JP2015528942A (ja) 2012-06-26 2015-10-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated 顔検証のためのシステムおよび方法
JP2018152079A (ja) 2018-03-23 2018-09-27 日本電気株式会社 検知装置
CN109840475A (zh) 2018-12-28 2019-06-04 深圳奥比中光科技有限公司 人脸识别方法及电子设备
JP2019121860A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 画像処理装置及びその制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0316631D0 (en) * 2003-07-16 2003-08-20 Omniperception Ltd Facial liveness assessment system
US9813643B2 (en) * 2014-06-06 2017-11-07 Flir Systems, Inc. Thermal recognition systems and methods
CN107590430A (zh) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN107862299B (zh) * 2017-11-28 2021-08-06 电子科技大学 一种基于近红外与可见光双目摄像头的活体人脸检测方法
CN109359634B (zh) * 2018-12-11 2021-11-16 西安第六镜网络科技有限公司 一种基于双目摄像机的人脸活体检测方法
CN109871773A (zh) * 2019-01-21 2019-06-11 深圳市云眸科技有限公司 活体检测方法、装置及门禁机
CN110059644A (zh) * 2019-04-23 2019-07-26 杭州智趣智能信息技术有限公司 一种基于人脸图像的活体检测方法、系统及相关组件
CN110503023A (zh) * 2019-08-19 2019-11-26 深圳市商汤科技有限公司 活体检测方法及装置、电子设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107237A1 (ja) 2008-02-29 2009-09-03 グローリー株式会社 生体認証装置
JP2015528942A (ja) 2012-06-26 2015-10-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated 顔検証のためのシステムおよび方法
JP2019121860A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 画像処理装置及びその制御方法
JP2018152079A (ja) 2018-03-23 2018-09-27 日本電気株式会社 検知装置
CN109840475A (zh) 2018-12-28 2019-06-04 深圳奥比中光科技有限公司 人脸识别方法及电子设备

Also Published As

Publication number Publication date
KR20210065178A (ko) 2021-06-03
WO2021031609A1 (zh) 2021-02-25
JP2022501686A (ja) 2022-01-06
TW202109358A (zh) 2021-03-01
US20210406523A1 (en) 2021-12-30
SG11202110114SA (en) 2021-10-28
CN110503023A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
JP7110412B2 (ja) 生体検出方法及び装置、電子機器並びに記憶媒体
TWI724736B (zh) 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式
JP7110413B2 (ja) データ更新方法及び装置、電子機器並びに記憶媒体
JP6852150B2 (ja) 生体検知方法および装置、システム、電子機器、記憶媒体
JP7026225B2 (ja) 生体検出方法、装置及びシステム、電子機器並びに記憶媒体
WO2021051857A1 (zh) 目标对象匹配方法及装置、电子设备和存储介质
CN109934275B (zh) 图像处理方法及装置、电子设备和存储介质
CN110287671B (zh) 验证方法及装置、电子设备和存储介质
CN111435432B (zh) 网络优化方法及装置、图像处理方法及装置、存储介质
WO2022099989A1 (zh) 活体识别、门禁设备控制方法和装置、电子设备和存储介质、计算机程序
CN110532956B (zh) 图像处理方法及装置、电子设备和存储介质
CN109977860B (zh) 图像处理方法及装置、电子设备和存储介质
CN112184787A (zh) 图像配准方法及装置、电子设备和存储介质
CN107977636B (zh) 人脸检测方法及装置、终端、存储介质
CN113261011B (zh) 图像处理方法及装置、电子设备和存储介质
TWI770531B (zh) 人臉識別方法、電子設備和儲存介質
CN113538310A (zh) 图像处理方法及装置、电子设备和存储介质
CN113673433A (zh) 一种行为识别方法及装置、电子设备和存储介质
CN111507131B (zh) 活体检测方法及装置、电子设备和存储介质
CN110110742B (zh) 多特征融合方法、装置、电子设备及存储介质
CN109271863B (zh) 人脸活体检测方法及装置
CN109325141B (zh) 图像检索方法及装置、电子设备和存储介质
WO2022198821A1 (zh) 人脸和人体匹配的方法、装置、电子设备、存储介质及程序
CN114565962A (zh) 人脸图像处理方法及装置、电子设备和存储介质
CN107992893B (zh) 压缩图像特征空间的方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R150 Certificate of patent or registration of utility model

Ref document number: 7110412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150